本文作者:访客

液冷技术崛起,芯片厂商入局竞逐千亿市场丨ToB产业观察

访客 2025-09-01 14:25:11 2
液冷技术崛起,芯片厂商入局竞逐千亿市场丨ToB产业观察摘要: 液冷技术崭露头角,芯片厂商纷纷涉足千亿市场,随着技术的不断进步,液冷技术已成为数据中心和云计算领域的重要发展方向,众多芯片厂商纷纷入局,展开激烈竞争,本文观察了ToB产业中的这一趋...
液冷技术崭露头角,芯片厂商纷纷涉足千亿市场,随着技术的不断进步,液冷技术已成为数据中心和云计算领域的重要发展方向,众多芯片厂商纷纷入局,展开激烈竞争,本文观察了ToB产业中的这一趋势,指出液冷技术的崛起将带动相关产业链的发展,为行业带来革命性的变革。

液冷技术崛起,芯片厂商入局竞逐千亿市场丨ToB产业观察

Omdia Research数据显示,到2028年,全球数据中心液冷市场将达到168亿美元,年复合增长率为25%。而在中国,据科智咨询预计,到2027年,随着Al系列应用的规模化落地以及液冷生态的日趋成熟,市场规模有望突破千亿大关。

此外,中信证券研报中曾提到,在数据中心算力提升和能耗降低推动下,液冷技术将加速替代风冷技术,成为新的技术发展方向。

伴随着液冷在数据中心中的发展,液冷产业也逐渐趋于细分化,产业链逐渐得以完善。最明显的一个变化就是,原先各类数据中心大会上,很少有出现液冷技术的身影,即便有出现,也大多存在于演讲PPT之中,以及一些整机柜的展示环节中。

但从去年开始,各类数据中心相关的大会上,除了液冷机柜的展示之外,越来越多产业上下游的零部件厂商开始活跃起来,冷却液、UQD接头、水凝管等液冷下游的零部件厂商也在不断的更新迭代自己的产品。

数据中心步入液冷时代

液冷在数据中心开始大范围应用的起点,可以追溯到2020年前后。在ChatGPT尚未问世之前,数据中心还是以通用的CPU服务器为主,功率基本集中在3kW左右。

彼时的数据中心在刚刚起步的“双碳”战略的推动下,刚刚开始绿色化技术,而供冷作为数据中心非IT设备能耗中占比最高的环节,自然成为了新技术的突破口。间接蒸发冷却、自然风冷、AHU机组等技术得以在数据中心中大展拳脚。

与这些仍通过“风”的方式散热不同的是,液冷技术在数据中心中的探索,让数据中心得以用“水”的方式实现散热。但彼时,用户对于液冷的态度,一方面是“没必要”;另一方面,对于技术持相对保守态度的数据中心行业,因为对业务稳定性要求极高,所以对新技术的接受度并不是很高。那时业内常有声音表示,“宁可不用,也不能因为应用新技术而带来附加的风险。”

不过,对于行业来说,那个时间段,液冷已经开始在数据中心崭露头角,有个别的服务商开始提出液冷的理念,但当时业内绝大多数声音认为,这些理念都是在炒概念,并不看好液冷在数据中心中应用的场景。

一切都在2022年ChatGPT问世之后有所改变,新一轮AI的浪潮重塑千行百业的同时,也在对数据中心架构进行着颠覆性的改变。通用算力增加逐渐放缓,智能算力增速迅猛。

据IDC数据显示,2024年全球人工智能服务器市场规模为1251亿美元,2025年将增至1587亿美元,2028年有望达到2227亿美元,其中生成式人工智能服务器占比将从2025年的29.6%提升至2028年的37.7%。

针对此,对此,IDC中国副总裁周震刚曾向笔者表示,从增加趋势上分析,2023-2028年,中国智能算力五年年复合增长率预计将达到46.2%,通用算力预计将达到18.8%,“从数据上不难看出,目前,用户对于算力的需求,绝大部分的增量将产生在智能算力方面。”周震刚强调。

此外,据TrendForce集邦咨询最新液冷产业研究显示,预估液冷在AI数据中心的渗透率将从2024年14%,大幅提升至2025年33%,并于未来数年持续成长。

在智算愈发火爆的背后,人们开始发现机柜的功率也越来越高,原本300W的单颗CPU,已经不足以支撑业务,500W的单颗CPU芯片成为主流,甚至极端情况下,单颗CPU功率已迫近1kW。

与此同时,AI对于GPU的需求,也让单机柜的功率进一步提升。2.5KW标准机柜已经是过去式,8KW、10KW,甚至20、50KW的机柜的不断出现,也让单机柜功率越来越高。

高功率的背景下,传统风冷已经不能同时满足数据中心高密度、高效散热的需求,液冷也在近两年逐渐成为了数据中心供冷的主流方式。

液冷产业逐渐“细分化”

芯片厂商开始逐渐认可液冷技术在数据中心中的应用,并加入到了液冷产业之中。

比如,英特尔就在冷板式液冷和浸没式液冷两个方向上都进行了深入的布局。

在浸没式液冷方面,英特尔与绿色云图合作,于2024年推出了G-Flow浸没式液冷机柜相关技术。该技术采用的是单相浸没式液冷,值得注意的是,在这套解决方案中,冷却液采用的是埃克森美孚最新研发的无PFAS浸没式冷却液(某种碳氢合成油),相较于传统的氟化液更为环保。

在冷板式液冷方面,英特尔与国内精密温控节能解决方案英维克合作,推出了全球首个英特尔认证的基于至强6平台冷板式液冷整体解决方案。

作为一家芯片厂商,在液冷方面的布局,也给终端用户在选择液冷方面提供了一些参考。此前,绿色云图CEO胡世轩曾告诉笔者,对于用户而言,硬件厂商的背书是用户在选择液冷技术过程中关键的考量因素之一,“诸如芯片、服务器的厂商对液冷设备的背书,也就是用户应用液冷之后,这些硬件厂商之前不太愿意提供维保。”胡世轩如是说,“不过这种现象已经明显有所改观,诸如英特尔这样的硬件厂商已经开始布局液冷方面的应用。”

而除了在液冷技术上的布局之外,英特尔在中国数据中心液冷生态上进行了深入的布局,在中国推出了中国数据中心液冷创新加速计划。

对此,英特尔数据中心与人工智能事业部中国区平台技术研发部总监杜黎光告诉笔者,英特尔中国数据中心液冷创新加速计划的整体思路是:将产业链从上游到下游,进行细致地划分,并在每一个液冷关键部件的赛道上,与该赛道的头部厂商进行合作。

“通过与头部厂商的合作,为他们赋能,开发新产品、新材料。”杜黎光进一步指出,“再把经过和英特尔合作赋能的优质厂商推广到我们的OEM、ODM合作伙伴们,最终通过这些厂商,覆盖到英特尔终端客户,从而实现产业的共赢、多赢。”

加速计划的“第一步”

前不久,在液冷创新加速计划的引导下,英特尔牵头成立了英特尔通用UQD互插互换联盟,并对包括英维克、丹佛斯、立敏达科技、蓝科电气和正北连接等在内五家液冷生态独立硬件供应商,进行了首批认证。

在数据中心的液冷系统中,快接头作为重要组件之一,需要在长达数年的使用周期与数千次的插拔中保持“零泄露”,才能确保服务器的正常运转。然而由于不同厂商产品的尺寸、端部设计,密封形式和质量等不尽相同,不仅为采购与维护带来成本挑战,后续机型更迭亦需在兼容性验证、接头替换与液路调试上投入更多精力。

对此,杜黎光以快接头为例指出,一般而言,数据中心机柜使用寿命在8~10年,但服务器的更新迭代往往在3~5年,尤其是在AI时代,服务器的迭代可能会更快,在此基础上,如果能统一机柜内部零部件的规格,让后续更换服务器的过程中不需要再对机柜进行更换,则能为企业省下一笔不小的费用。

此外,由于原先数据中心行业液冷零部件领域厂商大多规模较小,且每家规格相对较为分散,质量更是参差不齐,而当液冷应用迎来爆发之后,这些问题逐渐被放大化,杜黎光表示,随着UQD使用数量增加,一方面,使用液冷的数据中心不断变多;另一方面,在产品形态上,每个服务器或者机架上用到的部件越来越多了。

“这些都导致了对UQD的可靠性要求更高。”杜黎光进一步指出,“没有人希望自己用的液冷产品经常会漏,不管是什么原因。”

上述种种也给液冷产业带来了更大的挑战,而这也是为何英特尔要在这个时间节点推出液冷创新加速计划,并成立UQD互插互换联盟的原因。

在推进UQD标准化的过程中,联盟也遇见了一些问题,对此,杜黎光举例向笔者介绍了UQD测试过程中遇见的难题。以最简单的互插测试为例,在测试初期,英特尔采用了机器操作的方式进行插拔的测试,但很快发现,机器操作的方式,每次插拔的角度都是一样的,而在实际应用过程中,运维人员的插拔动作每次都不可能做到完全一模一样,所以在机器操作下的测试结果,未必在实际应用场景中也可以复用。

“基于此,我们改变了策略,通过真人手动插拔的方式进行测试,整个测试需要手动插拔超过3000余次。”杜黎光强调。

而这种一丝不苟的精神只是整个测试过程严谨性的一个缩影。参与测试的蓝科电气相关负责人也对本次UQD联盟的严谨性做出了很高的评价,他表示,UQD有各种各样的使用场景,不同场景、不同工况下,使用运行情况不同。与以往参与的UQD测试不同,此次对各种使用场景、极端状况都进行了全方位的苛刻测试,确保UQD在各种场合下高度可靠。

“在测试当中,无论是测试标准,还是可能的失效模式,都进行了测试方案,以及测试方案需要的测试设备、测试人员都非常专业,测试报告是经过大家深思熟虑,反复修改的。确保测试报告可以为互联网大厂、集成商、服务器厂家带来极大的参考价值。”该负责人进一步指出,“最终,提供的不仅是一份报告,更是一份极有参考价值的行业设计方案和验收标准。”

当AI算力需求以年均超40%的速度激增,当单机柜功率从几kW跃升至几十kW,甚至上百kW,液冷技术早已不是数据中心散热的“备选方案”,而是支撑数字经济向高密度、高能效、高可靠演进的“必答题”。

而UQD接头的规格统一仅仅是一开始,液冷技术已经在数据中心呈现出越来越细分化的趋势,在这种趋势的影响下,会有越来越多的液冷零部件得以实现通用化、标准化,而那个时候,数据中心应用液冷的成本会进一步下降,甚至可能会比风冷的部署成本还要低。(本文首发于钛媒体APP,作者|张申宇,编辑丨盖虹达)

阅读
分享