业界动态
蒋颖:算力需求大增,液冷发展迎风口,散热,设备,服务器
2024-07-15 06:17:24
蒋颖:算力需求大增,液冷发展迎风口,散热,设备,服务器

中新经(jing)纬7月9日电 题:算(suan)力需求(qiu)大增,液冷(leng)发展迎风口

作者:蒋颖 开源证券通信首席分析(xi)师

蒋颖

2022年底生成(cheng)式AI大模型ChatGPT横空出世,掀起新的AI浪(lang)潮,海内外互联网巨头、科技企业及研究机(ji)构(gou)等(deng)陆续投入到大模型研发当中,拉开“百(bai)模大战”的序幕。

随着AI对算(suan)力的需求(qiu)持续增长,传统风冷(leng)散(san)热模组下(xia)热点问(wen)题显(xian)著,2024年或为液冷(leng)渗透率大幅(fu)提升元年。

算(suan)力需求(qiu)大增

风冷(leng)散(san)热已达瓶颈

随着AI语言(yan)大模型的不断迭代(dai),模型数据量和参数规模呈现(xian)指数级增长,算(suan)力需求(qiu)不断提升。

据中国信通院数据,2023年推出的GPT-4参数数量可(ke)能扩大到1.8万亿个,是GPT-3的10倍,训练算(suan)力需求(qiu)上升到GPT-3的68倍,在2.5万个A100上需要训练90—100天。无(wu)论是AI模型的训练还是推理(li)均(jun)离不开算(suan)力资源的支持,AI的高速发展带来(lai)大量算(suan)力和数据中心机(ji)柜需求(qiu),拉动(dong)算(suan)力基础设施建设。

服务(wu)器设备是提供算(suan)力资源的主要载(zai)体,IDC(数据中心)则是给集中放置的ICT设备(服务(wu)器设备、网络设备、存储设备)提供运行环境的场所(suo),需要对ICT设备进(jin)行持续的供电和制冷(leng)散(san)热。

传统风冷(leng)技术以空气为介质进(jin)行散(san)热,存在散(san)热密度低、散(san)热能力差、易形成(cheng)局部热点等(deng)缺陷。AI高算(suan)力需求(qiu)下(xia),芯(xin)片发热量和热流(liu)密度不断增长,如若芯(xin)片长时间高温运行,则会影响芯(xin)片性(xing)能并提升芯(xin)片故障率、减低其使用寿命。

AI对算(suan)力的需求(qiu)持续增长,国内外算(suan)力芯(xin)片热功率也(ye)不断攀升,传统风冷(leng)散(san)热模组下(xia)热点问(wen)题显(xian)著,风冷(leng)散(san)热已达瓶颈。

芯(xin)片功率的增加也(ye)导致整机(ji)柜功率的增长,采用传统风冷(leng)的数据中心通常可(ke)以解决12kW以内的机(ji)柜制冷(leng)。随着服务(wu)器单位功耗增大,同样尺寸的普(pu)通服务(wu)器机(ji)柜可(ke)容纳的服务(wu)器功率往往超过15kW,相对于现(xian)有的风冷(leng)数据中心,已逼(bi)近(jin)空气对流(liu)散(san)热能力天花板。

而液冷(leng)散(san)热以液体为介质进(jin)行散(san)热,由于液体的体积比热容是空气的1000-3500倍,液体的对流(liu)换热系数是空气的10-40倍,同等(deng)空间情况下(xia),液冷(leng)的冷(leng)却能力远高于空气。

因(yin)此,2024年或为液冷(leng)渗透率大幅(fu)提升元年。目(mu)前,英(ying)伟(wei)达GB200 NVL72单机(ji)柜功率已高达120KW,从原有风冷(leng)散(san)热方案改为风液混合散(san)热方案;华(hua)为Atlas 900 AI集群单柜功率高达50KW,同样采用风液混合散(san)热方案。

全国数据中心能耗偏高

液冷(leng)市场空间大

2022年全国数据中心耗电量达到2700亿千瓦时,占全社会用电量约3%。2021年全国数据中心耗电量为2166亿千瓦时,为同期三峡电站累计发电量1036.49亿千瓦时的两倍,数据中心减排迫在眉睫。

在落实节能降碳方面,政策明确要求(qiu)全国新建大型、超大型数据中心平均(jun)电能利用效率降到1.3以下(xia),国家枢(shu)纽节点进(jin)一步降到1.25以下(xia),绿色低碳等(deng)级达到4A级以上。

虽(sui)然风冷(leng)技术是目(mu)前普(pu)遍应用的数据中心散(san)热技术,但其存在散(san)热密度低和散(san)热能力差的缺陷。液冷(leng)散(san)热相较于传统风冷(leng),取(qu)代(dai)大部分空调系统(压缩机(ji))、风扇等(deng)高能耗设备,可(ke)实现(xian)节能20%—30%以上,PUE降至1.2以下(xia),助力数据中心绿色化发展。

液冷(leng)产业生态涉及产业链上中下(xia)游,包括上游的一次侧和二次侧产品零部件提供商,中游的液冷(leng)服务(wu)器、液冷(leng)交换机(ji)等(deng)IT设备提供商,以及下(xia)游的算(suan)力使用者主要包括三大电信运营(ying)商,互联网企业和第三方IDC服务(wu)商。总体来(lai)看,行业参与者众多,液冷(leng)数据中心市场空间较大。

国内三大电信运营(ying)商已在2023年提出“液冷(leng)三年”愿景,引领(ling)液冷(leng)行业形成(cheng)统一标准(zhun),并陆续在项目(mu)中试行液冷(leng)方案,助力液冷(leng)生态逐渐完善。

据科智咨询(xun)预(yu)计,2024年中国液冷(leng)数据中心市场将同比增长53%,市场规模将增长至236亿元;预(yu)计2022—2027年,中国液冷(leng)数据中心市场将以59%的复合增长率持续蓬勃(bo)发展;预(yu)计到2027年,随着AI系列应用的规模化落地以及液冷(leng)生态的日趋成(cheng)熟,市场规模将突破千亿大关。

从下(xia)游需求(qiu)来(lai)看,随着AI大模型、云(yun)计算(suan)、5.5G等(deng)新兴技术的不断发展,互联网、政府和电信行业仍为液冷(leng)数据中心的需求(qiu)主力军,金融、下(xia)游制造、医疗、能源等(deng)行业也(ye)有望(wang)不断加大液冷(leng)相关投入。

在生态方面,液冷(leng)产业早(zao)期上下(xia)游协同性(xing)不高,无(wu)统一相关标准(zhun),难以形成(cheng)合力。液冷(leng)服务(wu)器是液冷(leng)生态链的核心价值环节,近(jin)期众多服务(wu)器厂商先后推出液冷(leng)服务(wu)器,其他设备厂商相继推出液冷(leng)交换机(ji)、液冷(leng)光模块、液冷(leng)机(ji)柜等(deng)配套设备,积极布局液冷(leng)产业,与液冷(leng)生态链设备商及服务(wu)供应商紧密配合,共同推动(dong)液冷(leng)生态进(jin)一步完善。

成(cheng)本方面,虽(sui)然液冷(leng)总体Capex仍高于风冷(leng),但从单位角度来(lai)看,单千瓦散(san)热Capex已在快速下(xia)降,成(cheng)本拐点或将出现(xian)。

据赛迪顾问(wen)发布的《2023中国液冷(leng)应用市场研究报告》,2022年液冷(leng)数据中心1kW的散(san)热成(cheng)本为近(jin)6500元,相比2021年已经(jing)下(xia)降了(le)54.2%,预(yu)计2023年1kW的散(san)热成(cheng)本有望(wang)降至5000元左右(you),与传统风冷(leng)的建设成(cheng)本已基本持平。

发布于:北京市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7