生成式人工智能在互联网行业掀起了一波浪潮,大模型也带来了数据中心行业又一次高速发展的机会。相关产业协同迭代,液冷将迎来关键的一年。
一位从事数据中心建设的专家向《银杏科技》表示,目前国内数据中心液冷应用比例约为10%,发展前景巨大。
随着大模型应用的快速增长,国内部分液冷方案供应商今年上半年销售额较去年全年增长了100%,预计全年销售额较去年增长将超过300%。数据中心规模提升,让业内普遍认为液冷将在未来几年内迅速成为数据中心行业的*主导。
据《中国通信院》公布的数据显示,去年我国数据中心规模稳步增长,按照标准机架2.5kW来统计,2022年我国数据中心机架规模达到670万架,近五年的年复合增长率超过30%。其中大型以上数据中心增长更为迅速,2022年底规模达540万架,占比达81%。
外部环境的变迁也让市场对液冷的需求日盛。控制碳排放的硬性要求之外,随着全球平均气温纪录被不断刷新、高温成为常态,数据中心也需要处理高温对其正常运转的妨碍。
2022年7月,受到全球热浪的影响,亚马逊公司在伦敦的一座数据中心由于高温而导致宕机,一周后,谷歌和Oracle在英国托管的云服务和服务器也由于冷却问题而停机。同年9月,位于加州的推特数据中心也因45摄氏度高温停摆。
2023年夏季,当创纪录的高温再次席卷全球,行业也在不断推出更有效的降温方式以应对新的挑战,液冷数据中心逐渐成为标配。
高温袭击数据中心
数据中心,尤其是科技公司新建的大型数据中心,往往并不扎堆在一线城市,而是分布在内蒙古、贵州、甘肃、宁夏等省区。集中在这些地区的原因和气温有关:高温会降低其运行效率,提高运行成本,平均气温越低的地区越受数据中心青睐。
数据中心工程师陈锋表示,数据中心的温度需要控制在22摄氏度左右。最高性能的处理器通常会带来高频和多核特性,较低的温度能够使具备动态频率调节能力的CPU、GPU等运算设备能够以较高频率稳定运行,设备的运行寿命也会得到提升。
因此,解决最高性能处理器的散热问题,就意味着服务器生产力的提升。
相反,一旦机房温度过高就会导致设备宕机。这是电子设备的物理特性决定的,机房设备中有很多电子元件,在工作时会产生大量的热量。如果不能及时散热,就会影响机房性能。通信设备遵循“10摄氏度法则”,即温度每升高10摄氏度,设备的可靠性就会下降25%。
“磁盘所处的环境温度如果高于70摄氏度就会开始出现损坏,当温度持续高于100摄氏度时就会完全损坏,” 数据中心工程师陈锋表示,“机房设备里的电容在高温环境下会使电介质溶液当中的水分蒸发增大,降低容量,缩短寿命。”
因此,数据中心需要大量制冷设备和电力对机房进行制冷。连续的高温天气容易导致制冷设备超负荷运转,最终发生故障,从而导致数据中心瘫痪。
高温天气对供电系统也是一个考验,供电压力巨大的情况下可能会发生突发性断电,影响设备性能,甚至损坏设备。高温天气还会让机房内的空气变得干燥,产生静电,影响设备工作甚至引发火灾。
对于数据中心来说,高温无疑是*的敌人之一。2021年我国数据中心耗电量为2166亿kWh,占社会总耗电量的2.6%,相当于1.3个上海市的总社会用电量,而其中用于散热的能耗占比超过40%,更是占到了非IT能耗的80%。
因此,天气凉爽的地区成为了数据中心行业的心头好。内蒙古自治区*的数据中心集群所在地和林格尔年平均最高气温约15摄氏度,年平均气温为3.5至8摄氏度;贵州省*数据中心核心区所在的贵安新区,年平均最高气温约18摄氏度,年平均气温为15摄氏度。
作为我国北方和南方*的数据中心所在地,和林格尔和贵阳都可以称得上是凉爽,也因此格外受到数据中心行业的青睐。
进入液冷时代
虽然低温有着足够的吸引力,但并非所有数据中心都可以搬迁到这些地区。
高温天气的常态化、碳排放要求、能源价格的上涨也让行业不断寻找新的突破口。种种条件限制下,液冷成为了近年来新建设数据中心的*方案。
从事数据中心建设的田文靖告诉《银杏科技》,传统数据中心一般选择直接降低机房内的气温,也就是利用空气作为冷却介质。空调降温的效率较低,高密度数据中心中冷却系统的功率常常会超过100kW,噪声超过95分贝,工作人员必须戴降噪设备才能进入机房工作。
此外,当数据中心中假设了大量服务器时,房间内会出现明显的温度分层情况:热空气会聚集在房间上部,冷空气则聚集在脚底,这会让同一个机架上不同高度的设备获得不同的降温效果,影响设备的运行。
液冷数据中心的原理与空调非常类似,都是利用比热容较大的液体将设备运转产生的热量转移到室外,根据设备与液体不同的接触方式可以分为冷板式、喷淋式、浸没式等,使用的液体也包含矿物油、氟化液等种类。
在建设过程当中,液冷数据中心的建设与维护成本普遍较风冷数据中心更高。田文靖表示,液冷数据中心需要更精细的管理。冷却系统管理不善可能会导致冷却液腐蚀、沉积、微生物生长,最终使数据中心冷却效率下降,甚至可能出现宕机、损坏设备的结果。因此,液冷数据中心的维护成本也较风冷数据中心更高。
但这些都无法掩盖液冷数据中心*的优势——节能。相比以空气介质,冷却液的导热系数是空气的6倍,热容是空气的1000倍,因此,液冷可以让冷却液的传热次数更少,容量衰减更小,冷却效率更高。
液体冷却的传热比空气冷却的传热系数高数百倍,所需的实施空间也更小。数据中心50%-80%的散热都可以通过液体转移到外部冷却塔,减少冷却塔的使用,最终降低PUE。
PUE指全年数据中心总能耗与IT设备能耗的比值,越接近1,意味着数据中心用于散热的能源消耗越小,数据中心就越省电。风冷数据中心平均PUE约为1.3,液冷数据中心PUE往往更低。
田文靖透露,阿里云数据中心去年进行测试的浸没式液冷系统,*能够达到年均PUE1.09;京东云数据中心在2021年换用冷板液冷后,PUE从1.3降低到了1.1,反映在电量上,一个14kW的机柜一年可以节省31000多度电,产生的经济效益和环境效益足以抵消液冷中心的额外建设与维护成本。
新环境、新挑战、新机遇
液冷相对于风冷数据中心有着无法替代的优势,其间包含的商业价值不容忽视。
市场分析机构预计,到2026年,液冷数据中心市场的初始估值从2018年的14.3亿美元增至1205亿美元,年化复合增长率达30.45%。
对于数据中心需求更高的通信行业也将液冷的普及化提上了日程。在技术上,不少厂商都在数年前开始提前布局液冷技术,中科曙光、华为、阿里、联想、浪潮等国内企业对液冷技术均有储备,近年来更是不断加大在液冷技术研发方面的投入。
三大通信运营商也积极拥抱液冷。
2023年6月,移动、联通、电信三大运营商联合发布《电信运营商液冷技术白皮书》,宣布将从今年起开展技术验证,验证液冷技术性能,降低PUE,储备规划、建设与维护等技术能力,最终在2025年开展规模应用。
相对于海外企业,我国自研液冷技术并不落后,而在应用层面则拥有更多商业实践案例,总体竞争力上已经处于*地位。
但作为新兴市场,液冷行业也存在着缺乏统一标准、产品仍在迭代的问题。
与有着完善行业标准的风冷设备不同,由于液冷方案中机柜与服务器深度耦合,根据不同的液冷方案和中下游供应商,服务器与机柜相结合的方式、接头尺寸、冷却液规格等零部件和设备也各有不同,互不兼容,严重干扰了行业的发展。
行业头部科技企业也意识到了这个问题,2021年4月,中国信通院牵头,阿里巴巴、百度、腾讯、美团、京东、中国电信、中国移动、3M等企业共同发布了5项数据中心液冷行业标准;中科曙光、英特尔等方案提供商也提出了各自的液冷数据中心建设标准。
总体来看,处于市场竞争早期阶段的液冷行业依然缺乏统一标准。
此外,近些年数据中心行业蓬勃发展,各种全新的降温技术也在不断出现,液冷设备及其周边系统的架构也在不断演进当中,甚至有部分方案已采用耐高温服务器,从根源上进一步降低散热需求,简化冷源架构。
面对不断演进的数据中心建设方案,液冷初期投资高、全生命周期成本高就成为了液冷数据中心建设时不得不考虑的关键因素。
虽然液冷行业仍在发展早期阶段,但其间蕴含的潜力已不容忽视。作为技术迭代最关键的基础设施之一,液冷数据中心的发展不仅会纵向渗透到不同行业,也会横向与人工智能、边缘计算和5G其他技术相结合,支持其他技术落地的同时,也在实际应用中完善自身体系。
大模型带动相关产业协同发展,也要求产业链上下完成技术迭代,进入新工业范式。液冷的爆发可作为一个提示:机遇涌现之际,市场需要更多想象力。