业界动态
蒋颖:算力需求大增,液冷发展迎风口,散热,设备,服务器
2024-07-15 04:52:47
蒋颖:算力需求大增,液冷发展迎风口,散热,设备,服务器

中新经纬(wei)7月9日电 题:算力需求大增,液冷发展迎风(feng)口

作者:蒋颖 开源证券通信首席分析师

蒋颖

2022年底(di)生成(cheng)式AI大模(mo)型(xing)ChatGPT横空出世,掀起新的AI浪潮,海内外互联网巨(ju)头、科技企业及研究(jiu)机构(gou)等陆续投入到大模(mo)型(xing)研发当中,拉开“百模(mo)大战”的序(xu)幕(mu)。

随着AI对算力的需求持续增长,传统风(feng)冷散热模(mo)组(zu)下热点问题显著,2024年或为液冷渗透率大幅提(ti)升元年。

算力需求大增

风(feng)冷散热已达瓶颈

随着AI语言大模(mo)型(xing)的不断迭(die)代,模(mo)型(xing)数据(ju)量和参数规模(mo)呈(cheng)现指数级增长,算力需求不断提(ti)升。

据(ju)中国信通院数据(ju),2023年推出的GPT-4参数数量可(ke)能扩大到1.8万亿(yi)个,是GPT-3的10倍,训练算力需求上(shang)升到GPT-3的68倍,在2.5万个A100上(shang)需要训练90—100天。无论是AI模(mo)型(xing)的训练还是推理(li)均(jun)离不开算力资源的支持,AI的高(gao)速(su)发展带来大量算力和数据(ju)中心机柜需求,拉动(dong)算力基础设施建设。

服务器设备是提(ti)供算力资源的主要载(zai)体,IDC(数据(ju)中心)则是给集中放置的ICT设备(服务器设备、网络设备、存储(chu)设备)提(ti)供运行环境的场所,需要对ICT设备进行持续的供电和制冷散热。

传统风(feng)冷技术以空气(qi)为介质进行散热,存在散热密度低、散热能力差、易形成(cheng)局部热点等缺陷。AI高(gao)算力需求下,芯片发热量和热流密度不断增长,如若芯片长时间高(gao)温运行,则会影响(xiang)芯片性能并提(ti)升芯片故障率、减低其(qi)使用寿命。

AI对算力的需求持续增长,国内外算力芯片热功率也不断攀升,传统风(feng)冷散热模(mo)组(zu)下热点问题显著,风(feng)冷散热已达瓶颈。

芯片功率的增加也导致整(zheng)机柜功率的增长,采用传统风(feng)冷的数据(ju)中心通常可(ke)以解决12kW以内的机柜制冷。随着服务器单位功耗(hao)增大,同样尺寸的普通服务器机柜可(ke)容纳的服务器功率往往超过15kW,相(xiang)对于现有的风(feng)冷数据(ju)中心,已逼近空气(qi)对流散热能力天花板(ban)。

而液冷散热以液体为介质进行散热,由于液体的体积比热容是空气(qi)的1000-3500倍,液体的对流换热系数是空气(qi)的10-40倍,同等空间情况下,液冷的冷却能力远高(gao)于空气(qi)。

因此,2024年或为液冷渗透率大幅提(ti)升元年。目前,英伟达GB200 NVL72单机柜功率已高(gao)达120KW,从原有风(feng)冷散热方案改为风(feng)液混合散热方案;华为Atlas 900 AI集群单柜功率高(gao)达50KW,同样采用风(feng)液混合散热方案。

全国数据(ju)中心能耗(hao)偏高(gao)

液冷市场空间大

2022年全国数据(ju)中心耗(hao)电量达到2700亿(yi)千瓦时,占(zhan)全社会用电量约3%。2021年全国数据(ju)中心耗(hao)电量为2166亿(yi)千瓦时,为同期三峡电站累计发电量1036.49亿(yi)千瓦时的两倍,数据(ju)中心减排迫在眉睫。

在落实节能降碳方面,政策明确要求全国新建大型(xing)、超大型(xing)数据(ju)中心平均(jun)电能利(li)用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上(shang)。

虽然风(feng)冷技术是目前普遍应用的数据(ju)中心散热技术,但其(qi)存在散热密度低和散热能力差的缺陷。液冷散热相(xiang)较于传统风(feng)冷,取代大部分空调系统(压(ya)缩机)、风(feng)扇等高(gao)能耗(hao)设备,可(ke)实现节能20%—30%以上(shang),PUE降至1.2以下,助力数据(ju)中心绿色化发展。

液冷产业生态涉及产业链上(shang)中下游,包括上(shang)游的一次侧和二次侧产品零部件提(ti)供商,中游的液冷服务器、液冷交(jiao)换机等IT设备提(ti)供商,以及下游的算力使用者主要包括三大电信运营商,互联网企业和第三方IDC服务商。总体来看(kan),行业参与者众多,液冷数据(ju)中心市场空间较大。

国内三大电信运营商已在2023年提(ti)出“液冷三年”愿景,引领液冷行业形成(cheng)统一标准,并陆续在项目中试行液冷方案,助力液冷生态逐渐完(wan)善。

据(ju)科智咨询预计,2024年中国液冷数据(ju)中心市场将同比增长53%,市场规模(mo)将增长至236亿(yi)元;预计2022—2027年,中国液冷数据(ju)中心市场将以59%的复合增长率持续蓬勃发展;预计到2027年,随着AI系列应用的规模(mo)化落地以及液冷生态的日趋(qu)成(cheng)熟,市场规模(mo)将突破千亿(yi)大关。

从下游需求来看(kan),随着AI大模(mo)型(xing)、云计算、5.5G等新兴技术的不断发展,互联网、政府和电信行业仍为液冷数据(ju)中心的需求主力军,金(jin)融(rong)、下游制造、医疗、能源等行业也有望不断加大液冷相(xiang)关投入。

在生态方面,液冷产业早期上(shang)下游协同性不高(gao),无统一相(xiang)关标准,难以形成(cheng)合力。液冷服务器是液冷生态链的核心价值环节,近期众多服务器厂商先后推出液冷服务器,其(qi)他设备厂商相(xiang)继推出液冷交(jiao)换机、液冷光模(mo)块、液冷机柜等配(pei)套设备,积极(ji)布局液冷产业,与液冷生态链设备商及服务供应商紧密配(pei)合,共同推动(dong)液冷生态进一步完(wan)善。

成(cheng)本方面,虽然液冷总体Capex仍高(gao)于风(feng)冷,但从单位角度来看(kan),单千瓦散热Capex已在快速(su)下降,成(cheng)本拐点或将出现。

据(ju)赛迪顾问发布的《2023中国液冷应用市场研究(jiu)报告》,2022年液冷数据(ju)中心1kW的散热成(cheng)本为近6500元,相(xiang)比2021年已经下降了54.2%,预计2023年1kW的散热成(cheng)本有望降至5000元左右,与传统风(feng)冷的建设成(cheng)本已基本持平。

发布于:北京(jing)市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7