TrendForce表示,以NVIDIA Hopper系列晶片为例,第一代H100搭载的HBM容量为80GB,而2024年放量的H200则跃升到144GB。在AI晶片与单晶片容量的成长加乘之下,对产业整体的HBM的消耗量有显著提升,2024年预估年增率将超过200%,2025年HBM消耗量将再翻倍。
根据调查供应链结果,NVIDIA规划降规版B200A给OEM客户,将采用4颗HBM3e 12hi(12层),较其他B系列晶片搭载的数量减半。TrendForce指出,即使B200A的HBM搭载容量较小,仍不影响整体市场的HBM消耗量,因为晶片选择多元化,有助于提高中小客户的采购意愿。
TrendForce表示,虽然SK hynix、Micron甫于2024年第二季开始量产HBM3e,但NVIDIA H200的出货将带动该公司在整体HBM3e市场的消耗比重,预估2024年全年可超过60%。进入2025年,受到Blackwell平台全面搭载HBM3e、产品层数增加,以及单晶片HBM容量上升带动,NVIDIA对HBM3e市场整体的消耗量将进一步推升至85%以上。预计于2025年推出的Blackwell Ultra将采用8颗HBM3e 12hi,GB200亦有升级可能,再加上B200A的规划,因此,预估2025年12hi产品在HBM3e当中的比重将提升至40%,且有机会上修。
随著进入到HBM3e 12hi阶段,技术难度也提升,验证进度显得更加重要,完成验证的先后顺序可能影响订单的分配比重。目前HBM的三大供应商产品皆在验证中,其中Samsung在验证进度上领先竞争对手,积极朝提高其市占率为目标。基本上,今年产能大致底定,主要产能仍以HBM3e 8hi为主,因此,HBM3e 12hi产出增长主要仍贡献于2025年。
市场也在近日传出,三星HBM3e已通过NVIDIA验证,可用于AI晶片,虽然双方仍未针对通过验证的HBM3e 8hi签订合约,但预计时程已经逼近,预计今年第四季将开始供货。不过,三星HBM3e 12hi仍未通过验证。对此,三星再度驳斥此消息不属实,并强调品质测试正在进行中,跟先前说明没有变化。