2025 年 6 月 26 日 下午 5:28

从 「要不要用」,到 「如何用好」,液冷市场的爆发不是偶然丨 ToB 产业观察


目前来看,仅采用传统风冷技术的数据中心 PUE 极限值为 1.25,而采用液冷技术后,数据中心 PUE 值可低于 1.1。

据 Trend Force 预测,全球数据中心液冷采用率有望从 2024 年的 14% 提升到 2025 年的 26%。而在中国,据预计,2024 年中国液冷数据中心市场将同比增长 53%,市场规模将增长至 236 亿元;预计到 2027 年,随着 AI 系列应用的规模化落地以及液冷生态的日趋成熟,市场规模将突破千亿大关。

液冷在数据中心中的应用已经是不可逆的趋势。

从 「要不要」 到 「如何用好」

时间拨回到 2020 年前后,彼时,数据中心主要供冷手段还是风冷,用户对于液冷的态度,一方面是 「没必要」;另一方面,对于技术持相对保守态度的数据中心行业,因为对业务稳定性要求极高,所以对新技术的接受度并不是很高。那时业内常有声音表示,「宁可不用,也不能因为应用新技术而带来附加的风险。」 亦有声音认为,这些理念都是在炒概念,并不看好液冷在数据中心中应用的场景。

尽管如此,一些服务商却始终坚定液冷路线,提前布局了液冷设备,这其中就包括了网宿科技。据网宿科技副总裁、绿色云图 CEO 胡世轩向笔者介绍,网宿科技早在 2010 年前后就开始尝试在数据中心中应用液冷的布局,并在 2015 年将液冷的部门单独成立了全资子公司——绿色云图。

当时间来到大模型元年,2022 年,随着 ChatGPT 的问世,AI 的浪潮又一次席卷全球、全行业。AI 对于 GPU 的需求,进一步推高单机柜的功率。2.5KW 标准机柜已经是过去式,8kW、10kW,甚至 20、50kW 的机柜不断出现。

英伟达发布的 Blackwell GB200 GPU 异构计算,其单机柜功耗更是高达 120kW。而随着摩尔定律逐渐失效,在后摩尔定律时代下,芯片算力与其功耗仍将大幅提升。传统的风冷已经不足以支撑高功耗设备的散热需求,液冷成为高密度部署、并且降低能耗的最佳选择。

一方面,风冷散热的增益开始衰减,「如果要进一步提升散热功能的话,(风冷) 性价比会越来越低,」 英特尔资深技术专家曾对笔者表示,「并且风扇的可靠性也会越来越低。」

另一方面,随着液冷技术的不断迭代与成熟,其对数据中心节能减排愈发重要,「应用液冷技术相较风冷可节能 30%,减少 30% 的碳排放。」 绿色云图高级总监徐明微曾告诉笔者。

作为数据中心行业发展的 「国家队」,中国移动中国联通中国电信三大运营商在 2023 年联合发布的 《电信运营商液冷技术白皮书》 中曾明确,2025 年开展 (液冷) 规模应用,50% 以上项目应用液冷技术,共同推进形成标准统一、生态完善、成本最优、规模应用的高质量发展格局。

从国家政策层面,液冷也成为未来评价数据中心是否具备绿色化能力的一个指标。今年 6 月 1 日起正式实施的 《绿色数据中心评价》 中就突出了液冷、高效 IT 设备等先进适用技术产品应用。

以数据中心市场发展的 「黄金」 地带——上海为例,《上海市智能算力基础设施高质量发展 「算力浦江」 智算行动实施方案 (2024—2025 年)》 中曾明确,力争到 2025 年上海市新建智算中心 PUE 值达到 1.25 以下........ 液冷机柜数量占比超过 50%。此外,《上海市工业节能降碳"百一"行动计划》 也鼓励数据中心采用液冷等方式升级改造。

除此之外,胡世轩还特别向笔者强调,对于液冷发展有一个至关重要的因素——硬件厂商的背书,「诸如芯片、服务器的厂商对液冷设备的背书,也就是用户应用液冷之后,这些硬件厂商之前不太愿意提供维保,」 胡世轩进一步指出,「不过这种现象已经明显有所改观,诸如英特尔这样的硬件厂商已经开始布局液冷方面的应用。」

如何用更好?

既然业内已经就 「要不要用」 达成了统一意见,下一步就该讨论 「如何用更好」 的话题。以原先的经验来看,用户对于液冷存在比较大质疑的两个点是:部署成本和安全性。

安全性一直是液冷所面临的最大挑战 (甚至没有之一)。众所周知,论比热容、流动性、性价比,目前市面上没有一种液体比水更适合用作液冷媒介。但导电性也是在机柜里应用水为媒介的液冷安全性方面带来的最大阻碍。

机柜内部的电子元器件与机柜不间断通电的特性,让位于液冷设备中的水一旦泄露,就会给用户带来不能挽回的损失,轻则烧毁服务器,重则损失本台服务器的全部数据。这点是用户不能接受的。

如何解决这个问题,就成为了在推进液冷应用的过程中,众多服务商所要面对的挑战。目前市面上有两种路径,一种是研发新的媒介;另一种是从机制上做好漏液后的响应。

新媒介方面,除了原本因不太环保而逐渐被淘汰的氟化液之外,合成油成为了当下比较普遍的选择。前不久的 IDCE 上,网宿科技旗下的绿色云图就发布了基于全新的碳基合成油的冷板式液冷解决方案。据胡世轩介绍,与传统的水+乙二醇/丙二醇的媒介相比,绿色云图与山西潞安集团太行润滑油合作研发的全新碳基合成油在规避了导电性的缺点的同时,在流动性、导热性,甚至成本方面都无限接近于水,可以作为最新的冷板式液冷的导热媒介选择。

「全新的合成油并不会因为漏液导致服务器短路,漏液后,运维人员仅需将漏出的液体擦掉,更换漏液的管道即可,安全性大幅提升。」 胡世轩向笔者介绍道。

不仅于此,徐明微还告诉笔者,绿色云图此次结合新媒介全新推出的冷板式液冷解决方案还提供了恒温差与恒压差两种控制方式,「两种模式不仅能满足客户的定制化选择需求,还可以根据实际服务器的负载率变化灵活切换控制,以求达到最适合当下的控制方式。」 徐明微指出。

除了采用新媒介以外,还有一些服务商通过采用 「新机制」 来对漏液之后做出快速响应。在机制层面,将 「水管」 内部抽真空的负压液冷方式创新萌芽。以浪潮信息为例,首创了一种可以使得液冷系统二次侧均为负压的动力单元——液环式真空 CDU,由于管路内均为负压,因此彻底杜绝了漏液隐患。同时,这项技术创新突破了液冷循环系统只能采用高压水泵,才能实现液体循环流动的 「定律」,实现了仅依靠真空泵通过不同传感器控制多腔室功能切换,即可实现流体的循环流动,在技术极简化同时也实现了可靠性的大幅提升。

如果说安全性的问题决定了液冷能否在数据中心中应用,那么部署成本的高低就决定了液冷能否在数据中心中普及。原先因为技术壁垒较高,且零部件制造成本高昂的情况下,使得即便有的用户想应用液冷,也在高额的成本面前望而却步。

再加之原先企业对于高性能算力的需求并不大,机柜功率基本稳定在 10kW 以内,而以 CPU 为主导的通用算力部署液冷后,与传统风冷相比,节能效果并不很明显。

但随着生成式 AI 的兴起,GPU 在企业部署应用过程中的地位越来越重要,机柜功率也在不断攀升,原本几千瓦,最多 10kW 的标准通用算力机柜不在能满足当下的需求。GPU 的应用将单机柜功率提升至了几十千瓦,甚至可以突破 100kW。这也让液冷成为企业不得不的选择。

与此同时,随着需求的增加,供应链不断完善,也让液冷的部署成本有了明显的下降。据了解,目前比较常见的风冷解决方案单千瓦成本大概在 1.8 万~2 万之间,有些极端的用户会要求压缩到 1.2 万,应用液冷的解决方案的成本目前基本可以控制在 2 万以内。对此,胡世轩对钛媒体 APP 表示,现阶段,大规模应用液冷与传统风冷相比,建设成本差别并不大,但是后期液冷能够显著所节省的电费,让大规模应用液冷的数据中心在运营过程中比传统风冷数据中心降低不少,整体降低了使得运营成本降低不少。

风液混合会持续下去

即便当前应用液冷解决方案的成本已经与风冷相当,但在胡世轩看来,企业也没必要所有机柜都应用液冷的解决方案。

胡世轩告诉笔者,虽然液冷正在渐渐成为数据中心供冷主流方式之一,但用户还是需要按需制宜,也不是所有的场合都是适合应用液冷,「比如,相较于计算的场景,存储的场景下,机柜功耗并不是很大,选择传统风冷/水冷的方式更为合适,」 胡世轩进一步指出,「还有一些传统的,使用 CPU 的计算场景下,机柜功率基本维持在 10kW 以下,这些场景下,选择传统的供冷方式也就可以满足服务器的散热需求了。」

从目前业内的一贯做法也可以看出,液冷虽然发展速度快,且市场占有率越来越高,但其并不会成为数据中心供冷的 「唯一」。「任何一个数据中心内部,不可能全部都是高功率、高算力的机柜/服务器,一定会有一部分相对功率不太高的机柜,以及一部分功率较高的机柜,一定是一种高、低 (相对) 功率并存的状态,」 胡世轩表示,「从算力服务器出货量上看,虽然目前高功率服务器出货在不断增加,但标准的 (相对较低) 功率的服务器仍然占据市场主导,而这些服务器应用传统的供冷模式,或者间接蒸发冷等技术就能满足散热需求,并不是所有都需要应用液冷。」(本文首发于钛媒体 APP,作者|张申宇,编辑丨盖虹达)

- Advertisement -spot_img

推荐阅读