Oracle表示,客户可以经由 OCI Supercluster 选择使用多种 NVIDIA GPU,并且将这些 GPU 部署在任何地方,包括内部部署、公有云和主权云端。建置在 Blackwell 架构上的OCI Supercluster 系统将于明年上半年推出,规模可扩充到使用 131,072 颗 Blackwell 架构 GPU,搭配适用于 RoCEv2 的  NVIDIA ConnectX-7 NIC 或 NVIDIA Quantum-2 InfiniBand 网路,可在云端环境提供惊人的 2.4 zettaflops 峰值 AI 运算能力。

Oracle率先曝光NVIDIA GB200 NVL72 液冷裸机执行个体,以用于支援执行生成式 AI 应用。这些执行个体能够利用 Quantum-2 InfiniBand 进行大规模训练,并且在更大规模的 72 个 GPU NVIDIA NVLink 网域内使用有著上兆个参数的模型即时进行推论作业,当成一个大型 GPU。

OCI 今年将提供 NVIDIA HGX H200,透过 NVLink 与 NVLink Switch 在单一裸机执行个体里连接 8 个 NVIDIA H200 Tensor 核心 GPU,并且在 RoCEv2 丛集网路上透过 NVIDIA ConnectX-7 NIC 扩充至 65,536 个 H200 GPU。想要大规模提供即时推论与加速训练工作负载的客户,可以订购这款执行个体。OCI 还宣布全面推出适用于中阶 AI 工作负载、NVIDIA Omniverse 与可视化的 NVIDIA L40S GPU 加速执行个体实例。

即使是装置未连线又或是位于远端地点,Oracle 的边缘产品同样能够针对单节点到多机架解决方案,在边缘提供由 NVIDIA GPU 加速、具扩充能力的 AI。举例来说,使用 Oracle Roving Edge Device v2 的小规模部署作业,如今最多可支援三个 NVIDIA L4 Tensor 核心 GPU。

企业使用 NVIDIA 支援的 OCI Supercluster 来推动 AI 创新。像是基础模型新创公司 Reka 利用丛集开发先进的多模态 AI 模型,以开发企业代理(agent)。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
解读Fed「鹰式降息」用意!法人:美国基本面良好 股债后市仍可期