H200 NVL为资料中心提供高效能、低功耗的解决方案,满足各规模组织在 AI 与 HPC 工作负载上的多元需求。NVIDIA 不仅推动 AI 与 HPC 领域的技术创新,也为全球多产业创造更多价值,助力企业与研究机构应对未来挑战。
与前代 H100 NVL 相比,H200 NVL 拥有显著性能升级,包括记忆体容量提升 1.5 倍、频宽增加 1.2 倍、推论效能提升 1.7 倍,能于数小时内完成大型语言模型(LLM)的微调。在 HPC 工作负载下,效能比 H100 NVL 提升 1.3 倍,相较于 NVIDIA Ampere 架构更高 2.5 倍。此外,该 GPU 配备最新的NVIDIA NVLink 技术,其 GPU 对 GPU 的通讯速度比第五代 PCIe 快七倍,为 HPC 和 LLM 推论提供无与伦比的支持。
H200 NVL 针对气冷式企业机架设计,提供灵活的节点部署方式,企业可使用现有设备进行配置,无需大规模改造。根据近期调查,约 70% 的企业机架功率在 20kW 以下并采用气冷技术,H200 NVL 的弹性设计正好满足这类需求。不论是单颗或多颗 GPU 的应用,该产品助力资料中心在有限空间内获得更高运算效能,同时降低功耗以提升能源使用效率。
H200 NVL 在 AI 与 HPC 领域的应用涵盖多个产业,包括消费服务中的视觉 AI 代理与聊天机器人、金融业的交易演算法、医疗影像分析、制造业的模式识别,以及科学研究中的基因组学与气候建模等。例如,Dropbox 基础设施副总裁 Ali Zafar 表示:「我们看好 H200 NVL 在提升资料处理效率方面的潜力。」而新墨西哥大学先进研究运算中心主任 Patrick Bridges 则强调,H200 NVL 将显著加速其资料科学与模拟研究。
多家领先厂商将支援 H200 NVL,其中包括戴尔、慧与科技(HPE)、联想、美超微等国际企业,及华硕、技嘉、纬创、和硕、微星等台湾公司。部分系统采用 NVIDIA MGX 模组化架构,帮助制造商以更具成本效益的方式快速部署资料中心基础设施。搭载 H200 NVL 的平台预计于 12 月起上市,NVIDIA 也同步推出企业参考架构,为合作伙伴与客户提供硬体、软体及网路配置的完整指引。