type
status
date
slug
summary
tags
category
icon
password
notion image

一、背景 — 风转液趋势已成

  1. 算力功耗不断提升
AI爆发 →未来算力中心用更多GPU,GPU功耗远大于CPU,且提升速度加快。
服务器算力持续增加 → 芯片功耗和热流密度持续攀升 → 产品每演进一代功率密度攀升 30~50%。
notion image
素材来源:中兴通讯液冷技术白皮书
功率密度指单位模块数据中心的用电量,通常用kW/机架表示。风冷一般针对10kW以下机柜,AI服务器轻松单机破30kW,风冷不仅散热效率不够,还会导致散热不均匀、局部过热等问题。未来必须用液冷。
英伟达最新发布的GB200,通过NVLink把36张Grace CPU和72张Blackwell GPU做成了一个“服务器”,功耗夸张地达到单柜120kW。也正是因为液冷/交换机技术提升,才能把那么多卡集中在一起(越集中散热难度越大,高温强烈影响芯片工作)。
 
  1. 数据中心PUE指标不断降低
PUE, Power Usage Effectiveness, 电源使用效率。
2023年国家政策要求降低算力中心能耗,新建的基本都要求PUE 小于 1.3。
IT设备大概占传统算力中心能耗65%,风冷散热系统能占到25%(风扇很耗电),降低散热能耗对降低整体PUE意义重大(芯片功耗太硬了)。各制冷技术对应PUE范围如下图,间蒸 / 直蒸技术通过缩短制冷链路,减少过程能量损耗实现数据中心 PUE 降至 1.15~1.35;液冷则利用液体的 高导热、高传热特性,在进一步缩短传热路径的同时充分利用自然冷源,实现了 PUE 小于 1.25。
notion image
素材来源:中兴通讯液冷技术白皮书
  1. 液冷优势
低能耗
传热路径短:低温液体由 CDU(冷量分配单元)直接供给通讯设备内; 换热效率高:液冷系统一次侧和二次侧之间通过换热器实现液液换热;一次侧和外部环境之间结合风液换热、液液换热、蒸发汽化换热三种形式,具备更优的换热效果; 制冷能效高:液冷技术可实现 40~55℃高温供液,无需压缩机冷水机组,采用室外冷却塔,可实现全年自然冷却; 除制冷系统自身的能耗降低外,采用液冷散热技术有利于进一步降低芯片温度,芯片温 度降低带来更高的可靠性和更低的能耗,整机能耗预计可降低约 5%。
高散热
液冷系统常用介质有去离子水、醇基溶液、氟碳类工质、矿物油或硅油等多种类型;同体积液体带走热量是同体积空气的近3000倍液体导热能力约是空气的25倍液冷直接将设备大部分热量通过循环介质带走;机房整体风机需求大幅降低,单位空间内能布置更多 ICT 设备,提高空间利用率。
低噪声
液冷技术利用泵驱动冷却介质在系统内循环流动、散热;能够降低冷却风机转速或者采用无风机设计 → 同等散热水平时,液冷噪音水平比风冷噪音降低20-35分贝
低CTO
液冷系统会增加初期投资,但整体比风冷能节省电量30%-50%,是个tradeoff问题。
整理自兰洋科技官网、中兴通讯液冷技术白皮书。

二、液冷技术方案

总体分接触式及非接触式两种。(1). 接触式,冷却液体与发热器件直接接触 → 浸没式、喷淋式; (2). 非接触式,冷却液体与发热器件不直接接触 → 冷板式
液冷技术对比如下,综合考量初始投资成本、可维护性、PUE 效果以及产业成熟度等因素,冷板式和单相浸没式相较其他液冷技术更有优势,是当前业界主流解决方案,冷板式可以实现从传统风冷的平滑过渡,浸没式UpSide更高。
notion image
素材来源:冷板液冷服务器设计白皮书
三种液冷架构都不同,通用的如下;简单来讲就是CDU(分配冷液的)和冷却塔在室外(机房外)做一次冷却,CUD和服务器在室内做二次冷却。具体的下面说。
notion image
素材来源:冷板液冷服务器设计白皮书
 
1. 冷板式液冷
冷板式液冷作为非接触式液冷的一种,行业内具有 10 年以上的研究积累,在三种主流液冷方案中技术成熟度最高,是解决大功耗设备部署、提升能效、降低制冷运行费用的有效应用方案。
冷板式液冷依靠流经冷板的液体将热量带走(带给CDU),冷板的液体不接触
将冷板固定在服务器发热器件上,依靠流经冷板的冷却液(比热容高)将热量带走达到散热目的。冷板液体不接触被冷却器件,中间采用导热板传热,安全性高。冷板液冷目前主要解决服务器里发热量大的器件的散热(GPU、CPU、DIMM等),其他散热期间还得依靠风冷。所以采用冷板式液冷的服务器也称为气液双通道服务器。
notion image
兰洋科技这张图总结的好,简单来讲就是冷水进,热水出。通常一次侧(外循环)进水35 - 50度、回水45 - 60度;二次侧(内循环)进水40 - 55度、回水50 - 65度。这里可能会好奇不是液冷吗为什么水温这么高?因为Q=CMΔT,M、C是定值,ΔT温差才是关键。水温低换热效率确实高,但是出水问题会很高,温差不好控制(高温差需要很强的保温水管)。控制好合理温差是关键
1.1 冷板式液冷关键技术
冷板设计
冷板必须与电子元器件保持良好的热接触,这样热量才能快速有效地从元器件传递到冷板。冷板流道通过机械加工、铲齿、挤压、锻压等工艺,密封采用搅拌摩擦焊、真空钎焊、气体保护焊等工艺焊接,需要具有良好的密封性。此外,冷板内通道流量大小水阻布局方式对散热效果也很关键。
工艺冷媒的选择和水质管理
冷板液冷系统中的冷却液通常是 离子水、乙二醇或丙二醇等水基溶液近年陆续出现氟化物代替水基溶液。工艺冷媒必须具有良好的比热容、流动特性和低粘度 → 确保有效热传递。水基的话还要定期做水质检测。
二次侧泵 和 LCM(Loop Coolant Manifold 环路工艺冷媒供回歧管)设计
用于循环冷却液的二次侧泵设计,必须确保LCM每个接口足够的流量和压力。二次侧泵必须长期robust/噪音小, LCM的设计要使冷却液和热交换器高效流动。
冷源设计
要将电子元件产生的热量全部散入室外空气,并提供稳定的一次侧(外循环)进水温度。需根据进水温度、当地气候水源条件、冗余要求、周边热回收设施等要素合理设计冷源。
控制系统设计
控制系统负责监控和冷却液流量。控制系统可以包括温度传感器、流量计和其他监测和控制组件,以确保系统在安全范围内运行。需要特别考虑防凝露和漏液监测设计,和出现问题时🚨🚨。
CDU设计
都需要有CDU来为各个机柜和服务器提供低温的冷却液,并将吸热后的高温冷却液带走。下面会细讲。
东西太多,下面主要看冷板设计和CUD设计。
1.2 冷板式液冷关键器件
二次侧环路(内循环):冷板组件、CDU、连接系统(RCM、QDC、 LCM…)等
一次侧环路(外循环): 冷源、一次侧回路;
1.2.1 冷板组件
组件名称
材料
作用
冷板
散热模块(接液材料): 紫铜; 固定模块: 铝。 根据散热模块和固定模块连接方式分成 一体式、分体式冷板。 固定模块设计应最大限度满足扣合力正压冷板;一体式冷板不区分散热模块和固定模块。
以工艺冷媒(冷却液),实现热量交换的紧凑型换热部件,与设备配套管路、QDC、CDU、RCM、LCM等形成二次侧冷却环路, 并最终将处理器热量传递至室外。
管路(Manifold)
橡胶:EPDM等; 塑料:PTFE、FEP等。(接液材料
保障液体和冷板/快速接头之间流通顺利
扣具
金属、塑料等(非接液材料)
为冷板与处理器贴合提供锁紧力的专用锁紧零部件
转接头
紫铜、不锈钢等(接液材料,材料类型需 和冷板散热模块保持一致
在冷板系统中起连接作用的零部件。
快速接头QDC Quick Disconnect Coupling
不锈钢等(接液材料
方便维护、可快速连接/断开、可单人单手操作的高级转接头。
notion image
素材来源:冷板液冷标准化及技术优化白皮书(2023)
重点部分标紫了,太敏感就不展开了,下面是这次在NV展会看到的台达电子,一款低功耗服务器产品规格、可做参考。
notion image
 
1.2.2 冷液分配装置CDU
冷液分配装置(CDU)是以各种方法调节TCS或DECS中的冷液,并通过TCS或DECS回路将冷液循环于机架、机柜或数据通信设备之内的冷却回路。 简单地说,CDU继承了冷源、换热器、驱动压力泵、分水器、流量及温度调节装置、过滤器等诸多功能模块,为机房服务器提供循环冷却液。不论是冷板式的液冷方式还是浸没式液冷的方式,都需要有CDU来为各个机柜和服务器提供低温的冷却液,并将吸热后的高温冷却液带走。
CDU可以为独立装置,也可以设计为机柜式,配置方式非常多。一次侧可以是风冷,也可以是冷却塔的循环水。如果需要精确控温,还需要加上压缩机制冷系统,以便于对水温进行精确控制。
更小、更优良,灵活、定制化的CUD设计允许数据中心通过增加机架来提高计算密度,优化占用空间配置以最大限度提高功率密度和能效。
无需像风冷系统那样有那么多散热器、风扇,液冷CDU能更安静、高效地提高服务器功率密度。
👇行业龙头Vertiv最新的CDU产品,Vertiv XDU 1350(Rear Door Heat Exchangers, In-row Coolers, Direct Chip cooling)。
notion image
1.3 全液冷冷板系统
上面聊的(不包括Virtiv)主要是大部分液冷+少部分风冷的冷板系统,行业也有新的全液冷冷板系统方向。以下素材均来源于全液冷冷板系统参考设计及验证白皮书(2024)
下面这款是基于浪潮信息2U四节点高密计算服务器i24,每个液冷节点支持(两颗英特尔第五代至强平台可扩展处理器,搭配16根DDR5内存,1张PCIe扩展卡和1张 OCP3.0网卡)。整机可支持8张SSD固态硬盘,在实现高密算力的同时满足客户存储需求。服务器主要的发热部件包括CPU、内存, I/O 板卡, 本地硬盘,机箱电源等。液冷方案实现了系统中95%左右的热量通过冷板接触热源由液体直接带走,剩余5%左右的热量经由PSU电源后置的风液式换热器里面的冷却水带走,系统级即可实现接近100%液冷热捕获率
1.3.1 整机:2U四节点全液冷服务器系统由节点、机箱、中背板、固态硬盘模组组成。节点和机箱组件间 通过快接头、电源及信号连接器实现水、电、信号盲插。
notion image
1.3.2 节点:由节点外壳、主板、CPU芯片、内存模组、内存冷板、CPU冷板,IO冷 板,电源及电源后置换热器等组成。
notion image
 
1.3.3 全液冷冷板通流方案:为了简化流路设计的复杂性,此全液冷服务器的散热冷却工质流路选用串联流路设计,冷却工质整体由低功耗器件往高功耗器件流动和散热。
CDU冷却工质经快接头1流入电源冷板 → 经节点快接头2流入节点内 IO 冷板(PCIe,OCP3.0,PCH和IO部件) → 内存冷板 → 流出节点,经快接头3流入SSD 冷板 → 经快接头3流回节点,流入CPU 冷板,经快接头2、1流出系统返回CDU。
 
notion image
 
上面的看看就行,我觉得比较有意思的是,浪潮这款全液冷服务器带了集中式风液换热器。
notion image
但今年NV发布的GB200整机里我没看到风液换热器设计,具体的Vertiv还没披露,不知道NV + Vertiv两大法是怎么做出单柜120kW散热的全液冷设计的🐮。Vertiv的设计值得我们后期关注。
notion image
notion image
 
2. 浸没式液冷
浸没式液冷式比起冷板散热天花板更高、挑战更多的液冷技术,最早应用浸没式的其实是BTC挖矿行业(追求极致散热,可以容忍有时候机器坏)。但随着芯片密度🆙,边缘计算等分布式场景,以及数据中心PUE压力,浸没式液冷市场或许🆙。据统计,全球浸没式液冷市场预计将在未来五年增长至7亿美元,年复合增长率超20%。
浸没式液冷以冷却液作为冷媒,将发热器件完全浸没在冷却液中,发热器件与冷却液直接接触并进行热交换。浸没式液冷系统室外侧包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含 CDU、浸没腔体、IT 设备、二次侧管网和二次侧冷却液。过程中 IT 设备完全浸没在二次侧冷却液中,因此二次侧循环冷却液需要采用不导电液体,如矿物油、硅油、氟化液等。 按照热交换过程中冷却液是否存在相态变化,可分为单相浸没液冷两相浸没液冷两类。
2.1 单相浸没式液冷
作为传热介质的二次侧冷却液在热量传递过程中仅发生温度变化,而不存在相态转变,过程中完全依靠物质的显热变化传递热量。
notion image
素材来源:中兴通讯液冷技术白皮书
单相浸没液冷系统原理如图上所示,CDU 循环泵驱动二次侧低温冷却液由浸没腔体底部进入,流经竖插在浸没腔体中的 IT 设备时带走发热器件热量;吸收热量升温后的二次侧冷却液由浸没腔体顶部出口流回 CDU;通过 CDU 内部的板式换热器将吸收的热量传递给一次侧冷却液;吸热升温后的一次侧冷却液通过外部冷却装置(如冷却塔)将热量排放到大气环境中,完成整个制冷过程。
2.2 相变浸没式液冷
作为传热介质的二次侧冷却液在热量传递过程中发生相态转变,依靠物质的潜热变化传递热量。
notion image
素材来源:中兴通讯液冷技术白皮书
相变浸没液冷系统原理图如上图所示,其传热路径与单相浸没液冷基本一致。主要差异在于二次侧冷却液仅在浸没腔体内部循环,浸没腔体内顶部为气态区、底部为液态区:IT 设备完全浸没在低沸点的液态冷却液中,液态冷却液吸收设备热量后发生沸腾,汽化产生的高温气态冷却液因密度较小,会逐渐汇聚到浸没腔体顶部,与安装在顶部的冷凝器发生换热后冷凝为低温液态冷却液,随后在重力作用下回流至腔体底部,实现对 IT 设备的散热。
2.3 浸没式液冷优势与局限性
优势
具体
节能(PUE < 1.13)
低温液体直接与发热芯片接触散热,传热路径更短;传热方式为液液换热和蒸发汽化换热,传热效率更高; 无需压缩机冷水机组,制冷方式采用自然冷却 + 强化通风冷却,制冷能效更高。
紧凑
支持高密机柜,单柜散热量高达 160kW;同时,机柜间无需隔开距离,机房不需要空调和冷冻机组、无需架空地板、 无需安装冷热通道封闭设施;
高可靠
设备完全浸没在液体中,排除了温度、风机振动、灰尘等带来的可靠性问题;
低噪声
100% 液体冷却,无需配置风扇,实现极致“静音”机房。
结构颠覆性
区别于传统意义上的立式机架结构,浸没液冷所用的浸没腔体为卧式 Tank;
局限性
具体
器件选型局限
1)硬盘:由于冷却液的渗入,普通机械硬盘无法正常运转,需要被替换为固态盘,或氦气硬盘; 2)风扇:对于改造升级的数据中心机柜,需要拆除所有风扇组,并屏蔽风扇故障信号;对于新建的数据中心,机柜内部无 需再设计风扇及配套的调速和故障检测措施; 3)光模块;为了避免出现由冷却液渗入引起的信号失真和错乱,需要选用全密封处理的光模块; 4)导热界面材料:液冷环境下导热硅脂会被液体冲刷溶解,需要使用固态界面材料。
维护局限
浸没式液冷设备维护时需要打开 Tank 上盖,并配备可移动机械吊臂或专业维护车实现设备的竖直插拔,维护复 杂度高,耗时长;且开盖维护过程有一定的冷却液挥发问题,增加运行成本;
机房环境特殊
因浸没式液冷系统 Tank 内充满冷却液,整柜重量大幅增加,对机房有特殊承重要求,普遍要求浸没式液 冷机房地板承重应大于 1500kg/m2。
2.4 浸没式液冷关键技术 — 冷却液
无论是单相还是相变式浸没液冷,其核心制冷要素是将带电状态下的完整服务器或其组件浸没在冷却液中,因此充当换热介质的冷却液必须是导热能力强但不导电(或具有足够低导电性)的介电液体,这样的介电液体通常不溶(或难溶)于水及其它离子性介质,可最大限度保障其绝缘性不被轻易破坏。同时,其本身在气味、毒性、降解难易、可维护性等方面特性对环境和操作人员应尽可能友好。基于以上考虑,目前应用讨论最广泛的冷却液主要分为碳氢及有机硅化合物类碳氟化合物类
冷却液
冷却液类型
优点
缺点
应用场景
碳氢及有机硅化合物类
聚α烯烃(PolyAlphaOlefins,PAO)、天然气合成油(GastoLiquidBaseOil,GTL)、合成酯等
沸点高、不腐蚀金属、环境友好毒性低、成本低
可燃助燃,烃类分子易分解氧化、稳定性差,硅油粘度过高,流动性差
单相浸没式(确保冷却液在升温状态下始终处于液相状态,减少挥发,要有较高沸点的冷媒)
碳氟化合物类
全氟碳化合物(PFC → 包含PFPE)、氢氟醚(HFE)等(被禁用的HCFC啥就不提了)
PFC(包含PFPE)在沸点/介电常数等特性适合半导体设备冷却;对臭氧层无破坏
有较高的介电常数,和PCB等连接件直接接触对信号传输影响较大;成本高
单相浸没式相变浸没式(得用较低沸点、适宜沸程的碳氟冷却液)
冷却液关键性能(整理自兰洋科技研报)
热物理性能
高液体密度、高比热容和高汽化潜热可减少消除定热负荷所需的液体体积流量,高导热率、低粘度和适宜沸点可提高传热能力和效率。碳氟类的比热容和导热率碳氢及有机硅类稍低,但其粘度远低于对应的碳氢及有机硅类,所以整体传热能力相同甚至更佳
材料兼容性和可靠性
碳氟类具有化学惰性,尤其不易与金属、无机物质反应,PFPE等全氟化合物均是非常稳定的介质,具有极高材料兼容性碳氢类兼容性相对较弱,特别是矿物油等天然油;但通过不断改良/提炼的合成油已在兼容性方面有较大突破,如PAO、GTL等。材料介电常数越小,对信号传输的抑制作用越低。要选择对信号传输影响小的冷媒。当前实际应用中通常选择在信号工作频率介电常数较小(≤2)的冷却液。
总体拥有成本
初始成本矿物油等天然碳氢类 < 人工合成油 (2x 矿物油)< 碳氟类 (5-10x 合成油?)。使用不同配置不同种类的液冷系统,其液体需求总量不同,业内常用L/kW(IT负载)来推算(单价高很多但总价不一定高太多)。运营成本:Generally 碳氟类寿命高于碳氢和有机硅类。矿物油等天然油杂质较多,寿命通常<5年。假设维护很好情况下,合成油寿命至多10年,碳氟类可>20年。
安全和环境影响
碳氢及有机硅类不具有很强的刺激性气味,吸入性危害小,但大都具有闪点,有易燃易爆的不稳定性,在数据中心应专门部署监控系统防范。碳氢和有机硅类ODP(臭氧消耗潜值)和GWP(全球变暖潜值)均非常低,碳氟类冷却液环境影响问题更突出(高ODP的已淘汰,现在基本都是零ODP)。碳氟类液体应始终用于密封系统,以确保尽量少地释放到大气中
在下文“市场”部分会介绍冷却液龙头企业。
3. 喷淋式液冷
这一块不太主流,直接copy中兴通讯白皮书了:
喷淋式液冷是面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形 式,属于直接接触式液冷。喷淋式液冷系统主要由冷却塔、CDU、一次侧 & 二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。
notion image
素材来源:中兴通讯液冷技术白皮书
喷淋式液冷系统原理如上图所示,在冷量分配单元内冷却后的冷却液被泵通过管路输送至喷淋机柜内部;冷却液进入机柜后直接通过分液器进入与服务器相对应的布液装置,或将冷却液输送至进液箱以提供固定大小的重力势能以驱动冷却液通过布液装置进行喷淋;冷却液通过 IT设备中的发热器件或与之相连的导热材料进行喷淋制冷;被加热后的冷却液将通过回液箱进行收集,并通过泵输送至冷量分配单元进行下一个制冷循环。
喷淋式液冷同样实现了 100% 液冷,其结构颠覆性优于浸没式液冷;但节能效果差于浸没式液冷,且存在与浸没式液冷相同的局限性问题。
 

三、液冷市场

3.1 机遇
据IDC数据,预计中国液冷服务器市场2023年全年将达到15.1亿美元。2022-2027年,中国液冷服务器市场年复合增长率将达到54.7%,2027年市场规模将达到89亿美元。2023上半年,中国液冷服务器市场中,冷板式占到了90%。从厂商销售额角度来看,2023上半年市场占比前三的厂商是浪潮信息、宁畅和超聚变,占据了七成左右的市场份额。IDC厂商优势明显
notion image
据《基于价值工程的数据中心液冷与风冷比较分析》,浸没式液冷建设成本为11818 元/kw,我们假设冷板式液冷建设成本约为4000元/kw,一台机架算它10几kw → 5万元Note:冷板式建设成本基本可以理解为改造成本(拆东西,贴板子,加外面的东西,服务器本体改造不大),浸没式应该没有所谓改造成本(不知理解对不对,服务器本体要改),要建就是新建。总的来看建设成本冷板比风冷贵30-40%、浸没比冷板贵10-15%。
液冷服务器市场空间主要来自存量服务器改造(大头)新增服务器建设(前景好)。其他还有些小thesis一起说了。下面数据是我整理自多方渠道(研报+韭研公社)的毛估估,不一定准。
(1). 存量改造:中国电子信息产业发展研究院副院长介绍,我国在用数据中心机架总规模达到520万架,近4年年均增速达33%。 据行业专家访谈,如果要达到政策标准PUE1.3以下,这500多万架基本都要改造。现在没有明确的每年液冷占比数字,大概2023年中国冷板式60亿人民币,浸没式20亿,假设一台机柜改造成本5W(冷板),总共2500亿左右(这个比较抽象),现在一年中80多个亿差的还很远
(2). 新增数量: 预计到2027年,中国AI服务器出货量将达到65万台,2022-2027年年均复合增长率(CAGR)约为18%。假设2027年全部采用冷板式液冷,则市场规模为260亿元。网上有说浸没式价值会翻几倍,我觉得不现实,多个几十个百分比差不多了?
(3). 国产替代:众所周知的原因,不管是大厂还是地方政府都希望推动国产替代。但国产GPU肯定还那么强,那就要堆更多的卡 → 更多散热需求 → 更多液冷
(4). 下游厂商改造驱动力:国家有强制的政策,实行梯度电价。不改就多交钱多交电费,PUE超1.8就强制关停。对于厂家来说改造省了电/罚款可能一年两年就回本了。现在出现的问题是很多业务不能停,只能一个一个改造。各个厂家不一样,特别像金融系统、互联网一些核心业务,不能停下来否则损失很大,这是现在改造速度慢的原因(IDC/电信运营商也慢)(来自韭研公社)
(5). 行业壁垒:液冷技术壁垒不高,行业壁垒特别高。液体替代风冷存在问题是要改服务器,而动别人的服务器,将来容易会出现问题,互相扯皮。所以现在市场格局基本上都是谁家的服务器就谁做液冷。如华为的服务器华为做液冷,中科曙光的服务器中科曙光做……阿里是特例,阿里也在做液冷,且有很多,但它的服务器采购量特别大,服务器厂家就不敢得罪他,所以他就把服务器给改了。这服务器出问题,服务器厂家还得还得去负责去维保,但是对大部分企业来说,他不敢跨过服务器去单独找一个跟服务器没关的液冷厂家去做。另外一个原因就是液冷的利润很高。对服务器厂家来说,举个例子,像浪潮的服务器它可能就不挣钱了,但是他改成液冷之后利润可能比服务器利润还高,所以他对液冷兴趣很大,是不愿意把这块利润让给别人的(自己搞)。(来自韭研公社)
(6). 最受益环节:服务器厂,别人很难介入。如水泵冷塔,我可能买2000块钱买的,然后配到液冷系统里,可能卖5000块钱,利润很高,行业垄断。现在受益的基本都是服务厂家。(来自韭研公社)
(7). 服务器厂外的第三方厂商:2022年中国移动与中国联通、电信三家合伙出了一个白皮书,目的其实就想打破行业壁垒,以统一标准划清责任界限,把服务器厂家以外的液冷厂家给引到这个系统里边来竞价,把液冷的成本打下去。假设这个能成,还是那个问题,机器改坏了咋办?冷板、浸没式第三方都很难
(8). 冷板厂:设计好了板子多大、长宽高多大等 → 交给钣金厂家做 → 快速接头 → 之后是一些不锈钢管件(不锈钢管道、不锈钢阀门等)→ 水泵、还原器、冷却泵、冷却塔,包括管道上的一些阀门。(来自韭研公社)
(9). 浸没式机会:虽然贵但更省电,总体价值量升高。用冷板的话还要保留20%的风扇,用浸没的话风扇就全取消了,取消之后浸没最大的成本就是电子氟化液。电子氟化液现在全球90%的供货量都是3M。刚开始的时候卖2000块钱一升,现在降价700块钱一升。现在中国也有生产的,市场上卖大概十几块钱一升。电子氟化液的利润非常高,10几块钱的东西可能卖到2000块钱一升。
因为便宜目前使用冷版的多,但是21-23浸没的增速比冷板快。冷板的缺陷是没法做备份。对一些AI系统(自动驾驶啊,远程医疗),它是不能停的,这些业务对安全性要求很高。用冷板的话有安全隐患(坏了服务器要停)。浸没的安全性很好(来自韭研公社)
 
3.2 由Vertiv看部件价值
Vertiv是数字/能源基建龙头,电力-冷却-IT管理等数据中心环节全覆盖。2023年全年营收$70e,主要客户是运营商(阿里、腾讯、AWS等)。全球28家工厂、重点实验室18个、覆盖51个国家。全球员工2.5w,中国区员工5k。
Vertiv参与了英伟达COOLERCHIPS计划(2023年5月获得美国能源部拨款),与NV共研高密数据中心新型制冷方案,2024年GTC官宣GB200独家合作。两公司共同提出的机架式混合冷却系统方案,是业界首次将两种液冷技术:冷板液冷和浸没液冷耦合到同一系统中的解决方案。这也是解决GB200单柜功率120kw的方案,是目前常规服务器单柜功率的25倍。
Vertiv按300kw算(来自第三方渠道可能不准):
冷塔➕水泵(可甲供)
CDU (300kw)
液冷机柜
封闭组件
动环绕系统
管路系统
¥
整体系统方案设计、关键参数计算
设备级冗余可选,冷量配置自由可定制。
高承载能力、Manifold和PDU集成发货
模块化设计、一键式组装、阀门预制
水泵单kw几百,具体几百?
35-40w
1.5w;含快速接头200/个;PDU 3k/柜;Manifold 8k/柜
4w
8w
国内上游竞对主要英维克、科华、申菱、中航光电(光、电、液冷都有…)
3.3 3M减产机会
2022 年 12 月,美国3M集团宣布将退出全氟烷基和多氟烷基物质(PFAS)的生产,并于 2025 年底前停止在其产品组合中使用 PFAS。3M生产的 PFAS 年净销售额约 13 亿美元,预计在退出过程中产生的总税前费用为 13 亿~23 亿美元。替代品可能是PFPE,主要玩家主要有比利时Solvay、美国杜邦、道康宁等。这块太专业了不了解了,券商研报有一些。
国产电子氟化液:超高利润,但真正量产的就巨化股份(4000w吨?)大厂都有做试验但实际落地很少因为风险太大,服务器要在电子氟化液里泡5~10年。巨化股份目前进度是最快的,但是将来这市场到底是谁主导不好说。(来自韭研公社)
 
3.4 总结(纯主观)
国内:国产替代+风转液大趋势 → 肯定利好目前的IDC厂/大厂;第三方冷板式液冷不好说,技术门槛不高行业门槛高;氟化液技术门槛高,浸没式更有机会。
国外:毕竟芯片贵散热太重要不能出幺蛾子,巨头(NV)跟巨头(Vertiv)玩。