截至2022年年底,全国大型及以上用数据中心机架总规模超过650万标准机架,算力总规模达到180EFLOPS,位居全球第二,算力总规模近五年年均增速超过25%,存力总规模超过1000EB。其中,智能算力规模不断扩大,占比提升至40%以上。
人工智能的应用加速数据中心向高密化趋势演进,导致高性能计算集群对于散热的要求提升。
(相关资料图)
当前风冷散热已趋于能力天花板,传统的空气冷却散热系统已不能完全满足数据中心服务器散热需求。
液冷散热将凭借低能耗、高散热效率、低噪音等优势有望取代风冷成为主流。
延展阅读:液冷服务器:数据中心新趋势,产业格局梳理
目前,全球高密集度、高供电密度的超大型数据中心已逐渐采用液冷技术。
IDC预测,抛开传统的大规模数据中心不计,未来有大概20%的边缘计算数据中心也将采用液冷技术。
根据《中国液冷数据中心发展白皮书》数据,乐观估计2025年中国液冷数据中心市场规模将达到1330.3亿元。
从政策方面来看,在“双碳”背景下,国家发改委指导政策明确要求到2025年全国新建大型、超大型数据中心PUE低于1.3,国家枢纽节点低于1.25。
液冷技术在经济性与散热效率两个角度均满足市场与政策指导需求。
01
液冷行业概览
数据中心冷却技术包含风冷冷却、水冷冷却、自然冷却及液冷冷却等技术。
液冷是以液体作为热量传导媒介,通过冷却液与服务器发热部件直接或间接接触的方式换热,将发热部件产生的热量带走的一种服务器散热技术。
由于液体比空气的比热容大得多,制冷效率远高于风冷散热,并且由于省去了风扇,也可达到降低噪音的效果。相比而言,液冷更适用于高密度功率的数据中心。
服务器也因此实现了高密度、低噪音、低传热温差、全年自然冷却的效果。
数据中心液冷原理图:
资料来源:《中国液冷数据中心发展白皮书》
根据中国电子节能技术协会,液冷PUE低于传统风冷PUE至少50%,意味着众多数据中心的能耗能够至少减少50%,碳排放量也将减少50%。
PUE即电能利用效率,是数据中心消耗的所有能源与IT负载消耗的能源比值。PUE值越接近于1,表示一个数据中心的绿色化程度越高。因此,PUE值越高,数据中心的整体效率越低。
采用液冷技术的数据中心,其PUE低至1.04,相比风冷数据中心能效比提升超30%,单机柜功率密度达160kW,计算设备可靠性至少提升一个数量级。
液冷三大技术对比
液冷技术分为接触式及非接触式两种。
接触式液冷是指将冷却液体与发热器件直接接触的一种液冷实现方式,包括浸没式和喷淋式液冷等具体方案。
非接触式液冷是指冷却液体与发热器件不直接接触的一种液冷实现方式,包括冷板式等具体方案。
总体来看,液冷技术路径主要有冷板式液冷、浸没式液冷、喷淋式液冷三大类。
液冷技术分类总览:
资料来源:IDC圈
冷板式液冷采用微通道强化换热技术具有极高的散热性能。
在军用雷达、高密度数据中心、高性能电脑、动力电池以及高功率LED 散热领域均有应用,是解决大功耗设备部署、提升能效、降低制冷运行费用、降低TCO 的有效应用方案。
冷板式液冷技术改造成本低、技术最成熟、生态更完善。
冷板式液冷系统部件拆分图:
浸没式液冷技术通过浸没发热器件,使得器件与液体直接接触,进而进行热交换。其中,冷却液为数据中心的换热介质,具有高绝缘、低黏度以及超强的兼容特性,是浸没式液冷技术的主要媒介。
浸没式制冷效率更高,可适配更高功率密度的机柜和数据中心,具有更优的节能效果,在超算、高性能计算领域取得了广泛应用,全浸没式液冷式服务器有望成为未来技术趋势。
浸没式液冷示意图:
资料来源:中科曙光
喷淋式液冷是面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式,属于直接接触式液冷。
喷淋式液冷系统主要由冷却塔、CDU、一次侧& 二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。
喷淋式液冷却效果和低PUE将大幅提升其使用率,但因为改造成本高,现阶段落地应用较少。
喷淋式液冷示意图:
02
液冷发展历史沿革
从液冷历史来看,海外厂商具有先发优势,中国厂商后来居上实现突围。
1964年,IBM公司研发出世界首款冷冻水冷却计算机System 360,开创了液冷计算机先河。
2008年,IBM重回液冷,发布了液冷超级计算机Power 575。
2009年,英特尔推出了矿物油浸没散热系统。
2011年,中科曙光率先开始了服务器液冷技术的探索与研究,并于2013年完成了首台冷板式液冷服务器原理机和首台浸没式液冷原理验证。
2015-2018年,中科曙光、华为、浪潮信息、联想、阿里巴巴等一众国产厂商先后实现了液冷服务器大规模商业应用项目的落地,实现弯道超车。
2018年,谷歌宣布将在其数据中心采用液冷技术,并表示今后其数据中心的降温方式将向液冷方向转变。
2019年,中科曙光再下一城,实现了全球首创“刀片式浸没相变液冷技术”的大规模部署,将单机功率密度提升至160kW,其TC4600E-LP液冷刀片服务器液冷部分PUE低于1.1,全球领先。2021年,阿里云在“第十六届中国IDC产业年度大典”上正式向业界发布行业首款单相浸没液冷解决方案—磐久Immersion DC 1000,将绿色液冷技术与极致算力平台结合,实现基础设施散热能力和服务器、网络设备高效融合并整体交付,整体能耗可下降34.6%。2022年,浪潮信息发布全栈液冷产品,通用服务器、高密度服务器、整机柜服务器、AI服务器等四大系列均支持冷板式液冷,同时浪潮信息亚洲最大液冷数据中心研发生产基地-天池正式投产,年产能达到10万台,实现了业界首次冷板式液冷整机柜的大批量交付。
国内外液冷技术发展历程:
资料来源:三大运营商《电信运营商液冷技术白皮书》
03
液冷数据中心产业链
液冷产业生态尚未完全成熟,目前业内还没有服务器与机柜的统一接口规范标准,由于机柜与服务器需要深度耦合,而各家服务器设备、冷却液、制冷管路、供配电等产品形态各异,不同厂家产品接口不同、不能互相兼容,势必限制竞争,影响产业的高质量发展,因此需要产业链上下游的协同推进。
液冷产业生态涉及产业链上中下游,包括上游的产品零部件提供商、中游的液冷服务器提供商及下游的算力使用者。
液冷数据中心上游主要为产品零部件,包括接头、CDU、电磁阀、TANK、maniflod等。
中游主要为液冷服务器,也是产业链的核心。
下游行业主要包括互联网、金融、电信、政府、交通和能源等信息化程度相对较高的行业,涵盖智慧计算、电子政务、企业信息化、关键应用以及民生等相关领域,包括三大电信运营商,以及腾讯、阿里巴巴等互联网大型企业。液冷产业链:
资料来源:《电信运营商液冷技术白皮书》
04
液冷市场格局
海外浸没式液冷市场的主要玩家有GRC(美国)、LiquidStack(美国)、Midas(美国)等;冷板式液冷市场主要玩家有CoolIT Systems(美国)、Asetek(丹麦)、Motivair(美国)等。
谷歌、微软、英特尔、IBM、HP等公司也已经在液冷技术领域有所布局。
国内市场中,部分企业经过多年的技术积累和沉淀,已经展现出较为明显的技术优势和市场先发优势,未来行业内有望形成龙头厂商占据主要市场份额的竞争格局。
据信通院《中国液冷数据中心发展白皮书》对于中国液冷数据中心厂商竞争力的研究,基于产品营收、市占率、客户反馈等指标,中科曙光、浪潮信息为市场的领导者,华为、阿里巴巴、联想、英维克、高澜股份、维谛技术、广东合一、宁畅等紧随其后。
整体来看,当前液冷行业仍处在发展早期,行业主要参与者分为三大类:
1.
华为电气-艾默生系的专业温控厂商:最早从事精密空调研发设计,具备多年的产业洞察,对技术研发具备前瞻性,且形成平台化的散热布局,赋能多行业应用。
国内机房空调市场一超多强,维谛技术龙头地位稳固。据ICTResearch数据,国内机房空调市场维谛技术市占率30%左右,佳力图、艾特网能、依米康、华为和英维克各占10%左右。申菱环境、同飞股份等专业温控厂商也均有相关技术储备和布局。
艾默生系深耕多年,诞生出国内优秀的数字能源上市公司:
资料来源:wind, 国金证券
通信网络设备的功耗与服务器上架率正相关,难以下降,因此降低制冷系统能耗是目前数据中心节能、提高能源利用效率的关键环节。
2.
布局液冷技术的服务器厂商:冷却技术由房间级向行级甚至服务器内部芯片级延伸,能够参与液冷技术方案的服务器厂商,有望更快抓住算力升级的产业机遇,强化产品竞争力。
IDC发布的《2022年中国服务器市场跟踪报告》显示:浪潮稳坐头部,第二名为新华三(紫光股份旗下),此外超聚变(原华为)和中兴通讯份额提升明显,当前头部服务器厂商均有液冷技术布局。2022年,浪潮将“All In液冷”纳入公司发展战略中当前AI大模型有望引领算力需求升级,带动高功率密度的智算和超算中心建设,加速配套设施液冷系统导入市场。浪潮“All In液冷”方案:
中科曙光子公司曙光数创是浸没相变液冷领军企业,冷板液冷数据中心基础设施产品-C7000系列是国内首款量产的冷板液冷数据中心基础设施产品及服务器冷板散热套件。截止2022年,冷板产品已经迭代至第四代产品。22年IPO募集资金近2.3亿元用于液冷数据中心产品升级及产业化研发项目。工业富联在今年4月第六届数字中国建设峰会上,展出了其最新的2U液冷服务器,Tethys高性能高密度浸没式模块化服务器,基于第四代英特尔至强可扩展处理器设计的2U2N机构式服务器,采用独创模块化架构实现了灵活模块布局。
3.
提供包含芯片级散热的完整解决方案的供应商:芯片作为服务器核心热量源,随着高算力、高性能、先进制程芯片功耗的提升,散热方案向服务器内部芯片级升级,芯片级散热由风冷系统向液冷升级。中石科技、双鸿科技、健策精密、富信科技等厂商在该领域均有布局。
AI芯片的功耗比传统的CPU芯片功耗大数倍,采用传统的风冷方案越来越困难和不经济;液冷方案可以用液体冷却芯片,减少了换热级数,可以100%实现自然冷却,空调系统的能耗可以大幅降低。
未来芯片级液冷有望成为行业发展趋势。散热有望将从房间级、机柜级、服务器级向芯片级演进,通过散热部件与芯片表面直接接触实现更好的芯片散热。近年来,也有不少新“玩家”入局液冷产业链上下游各环节,包括光讯科技、飞龙股份、网宿科技、润泽科技、烽火通信、锐新科技、科华数据等厂商。
在AI+应用广泛落地的刺激下,TrendForce最新发布的预测,随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%,而AI芯片2023年出货量预计将增长46%。
TrendForce同步上修2022-2026年AI服务器出货量年复合增长率至22%,预计占整体服务器出货量比例将从2023年的9%进一步提升至15%。
当前我国数据中心主要以通用算力为主,随着人工智能、边缘计算需求的提升,超算、智算数据中心数量有望迎来高速发展。在AIGC、东数西算等带动数据中心建设需求的趋势下,液冷方案渗透率的提升有望带动数据中心温控市场的量价齐升。
标签: