观察全球AI server市场,2024年主要AI方案供应商仍是NVIDIA,在GPU AI Server市场市占率逼近90%,排名第二的AMD仅约8%。TrendForce观察,今年NVIDIA Blackwell出货规模尚小,因供应链持续执行产品最终测试验证等流程,如高速传输、散热设计等有待持续优化;此外,新平台因能耗较高,尤其GB200整柜式方案需要更好的散热效率,有望带动液冷方案渗透率,不过,原有的server生态系采用液冷的比例尚低,对于漏液或散热效能不佳的问题,ODM仍须历经学习曲线后得出最佳解决方式。

TrendForce预估,2025年Blackwell平台在高阶GPU的占比有望超过80%,促使电源供应厂商、散热业者等将竞相投入AI液冷市场,形成新的产业竞合态势,Google、AWS和Microsoft等大型美系云端业者皆加快布建AI server,以搭载NVIDIA GPU及自研ASIC的方式为主。TrendForce评估,NVIDIA GB200 NVL72机柜之热设计功耗(TDP)高达约140kW,须采用液冷方案才能解决散热问题,预计将以水对气(Liquid-to-Air, L2A)方式为主流。HGX和MGX等其他架构的Blackwell伺服器因密度较低,气冷散热为主要方案。

以云端业者自研AI ASIC来说,Google的TPU除了使用气冷方案,亦布局液冷散热,是最积极采用液冷方案的美系业者,BOYD及Cooler Master为其冷水板(Cold Plate)的主要供应商。在中国方面,Alibaba最积极扩建液冷资料中心,其余云端业者对自家的AI ASIC主要仍采用气冷散热方案。

TrendForce指出,云端业者将指定GB200机柜液冷散热方案的关键零组件供应商,目前冷水板(Cold Plate)主要业者为奇鋐及Cooler Master,分歧管(Manifold)是Cooler Master和双鸿,冷却分配系统(Coolant Distribution Unit, CDU)为Vertiv及台达电。至于防止漏水的关键零件快接头(Quick Disconnect, QD),目前采购仍以CPC、Parker Hannifin、Denfoss和Staubli等国外厂商为主,台湾供应商如嘉泽、富世达等已在验证阶段,预期2025年上半年台厂有机会加入快接头供应商的行列,有助于逐步舒缓当前供不应求的情形。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
台股开盘劲扬近200点 台积电1020元开出