Supermicro宣布推出其最新SuperCluster,针对兆级参数生成式AI的需求,该方案整合NVIDIA HGX B200 8-GPU系统,并采用液冷机架设计,相较于搭载NVIDIA H100和H200的现有液冷型SuperCluster,新产品在GPU运算密度方面大幅提升。此端对端的AI资料中心解决方案不仅降低能源消耗,还能满足全球最大规模AI专案的运算需求。  

Supermicro总裁暨执行长梁见后表示:「我们具备专业技术和交付能力,能完成规模达100,000个GPU的液冷AI资料中心专案部署。我们新推出的NVIDIA Blackwell平台SuperCluster解决方案,提供前所未有的密度与效能。透过建构组件(Building Block)技术,我们可快速设计并灵活搭配液冷或气冷散热配置,为未来更高效的AI运算奠定基础。」  

Supermicro的新型SuperCluster采用垂直冷却液分配歧管(CDM)技术,让单一机架内运算节点数量增加,配合高效散热冷板和改良设计的软管系统进一步提升液冷效率。新型In-Row式冷却液分配装置(CDU)更能支援大型部署,搭建全面的液冷基础架构,适合企业转型至高效能资料中心。

针对传统气冷资料中心,Supermicro推出经重新设计的气冷型NVIDIA HGX B200 8-GPU系统,支持1000W TDP Blackwell GPU,并搭载双500W Intel Xeon或AMD EPYC 9005系列处理器,满足高效能运算需求。这些设计进一步巩固Supermicro作为AI与HPC领域领导者的地位。

Supermicro同步发表了多款全新基于NVIDIA技术的产品,包括支援NVIDIA GB200 Grace Blackwell超级晶片的液冷和气冷系统。这些晶片结合NVIDIA Grace CPU与Blackwell GPU,透过NVLink-C2C技术实现革命性效能,适用于科学运算、图神经网路(GNN)等应用,运算效能较上一代提升两倍。

此外,搭载NVIDIA GB200 NVL72超级晶片的SuperCluster解决方案,能在单机架内构建百万兆级超级电脑,为资料中心提供全面监控与管理功能。此系统整合72个Blackwell GPU与36个Grace CPU,并透过第五代NVLink和NVLink Switch实现高效连结,提供130TB/s的GPU通讯频宽。

针对需要弹性配置的企业应用,Supermicro推出支援NVIDIA H200 NVL的5U PCIe加速运算系统,适用于低功耗环境和多样化AI工作负载。NVIDIA H200 NVL的GPU透过NVLink技术连结,记忆体容量增加1.5倍,频宽提升至1.2倍,可大幅缩短LLM(大型语言模型)微调时间并加速推论效能。

同时,Supermicro的X14与H14 5U系统能支援多达10个PCIe GPU,搭载最新Intel Xeon或AMD EPYC处理器,为高效能运算提供高度弹性。这些设计进一步拓展Supermicro的产品线,满足企业在生成式AI时代的多元需求。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
俄乌战争若结束重建需求高 张安平:台泥在黑海设有3厂就近供应