LLM、AI晶片性能跃升,800G光互连时代提前到来
摘要
本篇报告一方面聚焦2024年AIGC应用大举入市、大型语言模型(LLM)蓬勃发展的趋势,另一方面则探讨支撑多元应用、模型发展之AI晶片加速升级,何以带动800G光互连(Optical Interconnect)解决方案需求。
一. AIGC应用持续扩张,LLM群雄并起
二. 为扩展云端AI运算,核心晶片加速升级迭代
三. 突破巨量资料传输瓶颈,800G光互连将成主流
四. 拓墣观点
图一 推估训练GPT 4、Llama 4所需之AI晶片与光互连数量
图二 2024、2026年400G、800G光模组市场占比推估
表一 比较Runway Pro、Pika Pro与ChatGPT Plus
表二 2024年推出之LLM举要
表三 新创AI厂商于2024年发表之LLM测试成绩举要
表四 NVIDIA A100、H200与B200晶片比较
表五 Meta MTIA v1与v2晶片比较
表六 指标厂商自2019年以来推出的AI晶片
表七 有望受惠于800G光互连需求攀升之台湾厂商举要