AMD表示,MLPerf有多种基准测试类型,包括MLPerf Inference: Datacenter、MLPerf Training以及于2024年推出的尖端大型生成式人工智慧(AI)语言模型Llama 2 70B。AMD选择了受欢迎且具有重要意义的大型语言模型(LLM)Llama 2 70B进行首次MLPerf基准测试。

AMD指出,在MLPerf Inference v4.1(MLPerf 4.1推论)中为Llama 2 70B提出3项成果,包括:

展示出市场上最适合用于AI任务的AMD CPU和GPU组合;MI300X拥有192GB的大容量记忆体,让单一MI300X GPU可执行整个Llama 2 70B模型,而大多数竞争对手的GPU则需要将该模型拆分至多个加速器上执行;AMD新一代CPU如何提升AI任务的效能。

根据MLCommons网站资料以及AMD部落格文章指出,在CPU和GPU组合,搭载8个AMD Instinct MI300X加速器和2个AMD EPYC 9374F(Genoa) ,在伺服器和离线两种情境下,使用 FP8 精度时,与辉达的 DGX H100和 2 个 AMD EPYC 9374F(Genoa)CPU 的组合,在FP8精度的伺服器和离线场景中,其效能表现与搭载NVIDIA DGX H100和第4代Intel Xeon CPU 的组合相差仅2~3%。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
信保基金爆高层疑涉性騒还吃案 工会回应了