辉达利用新一代的Blackwell架构,推出旗舰级AI GPU B200,拥有最高2,080亿电晶体,采用台积电客制化4奈米4NP制程制造,可借由减少光罩层数来降低制程复杂度并改善晶片的生产周期,台积电透过Chiplet技术,将8颗HBM3e高频宽记忆体,同步整合成更强大的AI晶片。

陆行之在脸书发文,统整了GTC大会几项技术关键,全文如下:

1.Blackwell 100有2080亿电晶体,比Hopper 100的800亿电晶体多1280亿电晶体;

2.B100跟H100相同,都是用台积电4nm,但是把两个晶片用封装结合,不是用微缩来加倍运算速度;

3.GB200 Superchip 把2颗B100及72颗ARM Neoverse V2 CPU cores一起包起来,如果卖的好,Intel/AMD 的AI server CPU就不用玩了;

4.不懂为何两颗B100(192+192=384HBM3e)+一颗 Grace CPU 的GB200 Superchip怎么 HBM3e突然暴增到864GB?理论上CPU应该配LPDDR,但Nvidia说两组GB200有1.7TB HBM3e,是不是做ppt的小朋友搞错了哈;

5.要建立32000颗 B100 GPU 的AI datacenter,能提供645 exaFLOPS 的AI performance,大概要花12亿美元在B100 GPU上,3亿美元系统,3-5亿ARM CPU,还要近890颗的NVlink switch晶片,也是用台积电4nm来制造,感觉20亿美元以上跑不掉。


點擊閱讀下一則新聞 點擊閱讀下一則新聞

Google为Gemini加入即时对话功能 有10种声音可以选择