俺去页也

jk 白丝 NVIDIA Blackwell鼓舞散热需求,预估2024年底液冷决议渗入率达10%

发布日期:2024-08-26 14:56    点击次数:160

jk 白丝 NVIDIA Blackwell鼓舞散热需求,预估2024年底液冷决议渗入率达10%

起原:各人半导体不雅察jk 白丝

跟着高速运算的需求成长,更有用的AI Server(AI奇迹器)散热决议也受到怜爱。凭证TrendForce集邦揣测最新AI Server申诉,由于NVIDIA(英伟达)将在2024年底前推出新一代平台Blackwell,届时大型CSP(云表工功课者)也会运转建置Blackwell新平台的AI Server数据中心,预估有契机带动液冷散热决议渗入率达10%。

气冷、液冷并行决议得志更高散热需求

凭证TrendForce集邦揣测造访,NVIDIA Blackwell平台将于2025年讲求放量,取代既有的Hopper平台、成为NVIDIA高端GPU(图形处理器)主力决议,占全体高端产物近83%。在B200和GB200等追求高遵循的AI Server机种,单颗GPU功耗可达1,000W以上。HGX机种每台装载8颗GPU,NVL机种每柜达36颗或72颗GPU,显耀的能耗将促进AI Server散热液冷供应链的成长。

TrendForce集邦揣测示意,奇迹器芯片的热绸缪功耗(Thermal Design Power, TDP)捏续升迁,如B200芯片的TDP将达1,000W,传统气冷散热决议不及以得志需求;GB200 NVL36及NVL72整机柜的TDP致使将高达70kW及近140kW,需要搭配液冷决议方以有用处治散热问题。

据TrendForce集邦揣测了解, GB200 NVL36架构初期将以气冷、液冷并行决议为主;NVL72因有更高散热才气需求,原则上优先使用液冷决议。

不雅察现行GB200机柜系统液冷散热供应链,主要可分水冷板(Cold Plate)、冷却分家数统(Coolant Distribution Unit, CDU)、不合管(Manifold)、快有计划(Quick Disconnect, QD)和电扇背门(Rear Door Heat Exchanger, RDHx)等五大零部件。

暴力小说

TrendForce集邦揣测指出,CDU为其中的要害系统,负责换取冷却剂的流量至统统系统,确保机柜温度甘休在预设的TDP畛域内。TrendForce集邦揣测不雅察,雨宫琴音番号现在针对NVIDIA AI决议,以Vertiv(维谛时间)为主力CDU供应商,奇鋐、双鸿、台达电和CoolIT等捏续测磨砺证中。

2025年GB200出货量估可达6万柜,促Blackwell平台成阛阓主流、将占NVIDIA高端GPU逾8成

凭证TrendForce集邦揣测不雅察,2025年NVIDIA将以HGX、GB200 Rack及MGX等多元组态AI Server,分攻CSPs及企业型客户,预估这三个机种的出货比例约为5:4:1。HGX平台可较无缝对接现存Hopper平台绸缪,使CSPs或大型企业客户能马上罗致。GB200整柜AI Sever决议将以超大型CSPs为主打,TrendForce集邦揣测预期NVIDIA将于2024年底先导入NVL36组态,以便快速干预阛阓。NVL72因其AI Server全体绸缪及散热系统较为复杂,展望将于2025年推出。

TrendForce集邦揣测示意,在NVIDIA鼎力彭胀CSPs客群的情况下,预估2025年GB200折算NVL36臆测出货数目可望达6万柜,而GB200的Blackwell GPU用量可望达210-220万颗。

但是,末端客户罗致GB200 Rack的流程仍有几项变量。TrendForce集邦揣测指出,NVL72需较完善的液冷散热决议,难度较高。而液冷机柜设筹备稳健新建数据中心,但会遭殃地皮建物概念等复杂要道。此外,CSPs可能不但愿被单一供应商绑住规格,可能会遴荐HGX或MGX等搭载x86 CPU架构的机种,或扩大自研ASIC(专用集成电路)AI Server基础门径jk 白丝,以叮咛更低资本或特定AI诈欺场景。





Powered by 俺去页也 @2013-2022 RSS地图 HTML地图

Copyright Powered by站群 © 2013-2022 版权所有