郭明𫓹举例,M1 的 AI 算力约为 11 TOPS,低于 A16 的 17 TOPS,但是M1 的DRAM 为 8GB,A16则是6GB。郭明𫓹推论,Apple Intelligence 装置端AI LLM对 DRAM 的需求约为 2GB或更低。进一步分析,Apple Intelligence 采用装置端 3B LLM(应为 FP16,M1 的 NPU/ANE 对 FP16 有很好的支持),经过压缩后(采用 2-bit 与 4-bit 的混合配置),随时需要预留约 0.7-1.5GB DRAM 来运作 Apple Intelligence 的装置端 LLM。

 

热门新闻:汇整WWDC投资人7大提问 郭明𫓹点出苹果致命伤:难超乎市场预期

郭明𫓹从上述分析,得出几个想法与结论:

第一,若要透过 AI 强化既有装置端应用,至少需部署装置端 3B LLM,并以此为基础再根据压缩方式决定了DRAM规格。

第二,微软认为 AI PC 的关键规格是 40 TOPS 算力,但对 Apple 而言,搭配云端 AI(Private Cloud Compute),装置端有 11 TOPS 的算力已足够开始提供装置端 AI 应用。

第三,消费者若欲购买微软的 AI PC 可能会感到困惑(还要自行计算是否达到 40 TOPS),而 Apple 则是直接告诉消费者哪些机型可以支援 Apple Intelligence。不论装置端 AI 应用能否满足消费者需求,Apple 在销售上一开始就具有明显优势。

第四,未来 Apple Intelligence 的装置端 AI 肯定也会升级(最有可能升级到 7B LLM),届时需要更大 DRAM 才能运作。Apple 是否会以此作为高低阶机种的产品区隔策略值得观察。

第五,使用者体验是否如 Apple 宣称的那么美好仍需观察(Gemini 在宣传上就曾犯过言过其实的错误)。

第六,Samsung S24 的 AI 功能有限,微软的 AI PC 目前仍让消费者感到困惑,但 Apple 成功定义了装置端 AI (至少消费者已清楚知道Apple的AI装置功能丰富且有哪些卖点),而这会加速竞争对手的模仿与追赶,并进而带动装置端 AI 相关产业的快速成长。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
抢高阶客户!凯基证携瑞银导入理财规划系统 拚资产管理规模年增3成