透过Supermicro的4U液冷技术,NVIDIA近期推出的Blackwell GPU能在单一GPU上充分发挥20 PetaFLOPS的AI效能,且与较早的GPU相比,能提供4倍的AI训练效能与30倍的推论效能,并节省额外成本。配合此率先上市的策略,Supermicro近期推出基于NVIDIA Blackwell架构的完善产品系列,支援新型NVIDIA HGXTM B100、B200和GB200 Grace Blackwell Superchip。
Supermicro总裁暨执行长梁见后表示:「Supermicro 在打造与部署具有机柜级液冷技术的AI解决方案方面持续领先业界。资料中心的液冷配置设计可几近免费,并透过能持续降低用电量的优势为客户提供额外价值。我们的解决方案针对NVIDIA AI Enterprise软体最佳化,满足各行各业的客户需求,并提供世界规模级效率的全球制造产能。因此我们得以缩短交付时间,更快提供搭配NVIDIA HGX H100和H200,以及即将推出的B100、B200和GB200解决方案的可立即使用型液冷或气冷运算丛集。从液冷板到CDU乃至冷却塔,我们的机柜级全方位液冷解决方案最大可以降低资料中心40%的持续用电量。」
Supermicro也在台北国际电脑展(COMPUTEX 2024)展示了即将推出,并针对NVIDIA Blackwell GPU最佳化的系统,包括基于NVIDIA HGX B200的10U气冷系统和4U液冷系统。此外,Supermicro也将提供8U气冷型NVIDIA HGX B100系统、NVIDIA GB200 NVL72机柜(具有72个透过NVIDIA NVLink 交换器互连的GPU)与新型 NVIDIA MGX系统(支援NVIDIA H200 NVL PCIe GPU与最新发表的NVIDIA GB200 NVL2架构)。
NVIDIA创办人暨执行长黄仁勋表示:「生成式AI正在推动整个运算堆叠的重置,新的资料中心将会透过GPU进行运算加速,并针对AI最佳化。Supermicro设计了顶尖的NVIDIA加速运算和网路解决方案,使价值数兆美元的全球资料中心能够针对AI时代最佳化。」
随著各界企业快速进行生成式AI的实验性使用,Supermicro与NVIDIA密切合作,确保完善且灵活地从AI应用的实验和评估试行推动至作业部署和大规模资料中心AI。此顺畅流程是借由NVIDIA AI Enterprise软体平台的机柜、丛集级最佳化而实现,能使从初步探索至可扩展AI落地的过程更流畅无阻。
NVIDIA NIM微服务作为 NVIDIA AI Enterprise的一部分,可在无缺陷情况下提供托管生成式AI和开源部署优势。其多功能推论运行环境透过微服务,可加速从开源模型到NVIDIA基础模型等各类型生成式AI的部署。
此外,NVIDIA NeMo可实现透过资料庋用、进阶自订和检索增强生成(Retrieval-Augmented Generation,RAG)的客制模型开发,以实现企业级解决方案。与搭配NVIDIA AI Enterprise的Supermicro SuperCluster整合后,NVIDIA NIM能为可扩展、加速型生成式AI作业的部署提供最快途径。
Supermicro的SuperCluster支援NVIDIA AI Enterprise,其中包括NVIDIA NIM微服务和NVIDIA NeMo平台,能实现端对端生成式AI客制,并针对NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s网速的新型NVIDIA Spectrum-X乙太网路平台最佳化,可扩展到具有数万个GPU的大型运算丛集。