2026年CSP资本支出上看5,200亿美元,GPU采购与ASIC研发助续创新高
根据TrendForce最新调查,随著AI server需求快速扩张,全球大型云端服务业者(CSP)正扩大采购NVIDIA GPU整柜式解决方案、扩建资料中心等基础建设,并加速自研AI ASIC,预估将带动2025年Google、AWS、Meta、Microsoft、Oracle和Tencent、Alibaba、Baidu等八大CSP的合计资本支出突破4,200亿美元,约为2023、2024年相加的水准,年增幅更高达61%。
TrendForce表示,2026年在GB/VR等AI机柜方案持续放量下,八大CSP的总资本支出有望再创新高,年增达24%,来到5,200亿美元以上。除此之外,支出结构已从能直接创造收益的设备,转向server、GPU等短期资产,意味著巩固中长期竞争力与市占率优先于改善短期获利。
2025年GB200/GB300 Rack为CSP重点布建的整柜式AI方案,需求量成长将优于预期。客户除主要来自北美前四大CSP和Oracle外,Tesla/xAI、Coreweave和Nebius等的需求亦有提升,以执行云端AI租赁服务或生成式AI。2026年CSP将扩大布局GB300 Rack整柜式方案,并于下半年起逐步转至NVIDIA Rubin VR200 Rack新方案。
CSP自研晶片出货量有望逐年攀升
北美四大CSP持续深化AI ASIC布局,以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力。Google与Broadcom合作TPU v7p(Ironwood),锁定训练应用,预计于2026年逐步放量,将接替TPU v6e (Trillium)的核心AI加速平台。TrendForce预估Google TPU出货量将持续领先,2026更有望实现逾40%的年增长。
AWS主力部署Trainium v2,将于2025年底推出液冷版本机柜,而由Alchip、Marvell参与设计的Trainium v3,首款规格预计于2026年第一季量产。TrendForce估计2025年AWS自研ASIC出货量将大幅成长一倍以上,当年度增速为四大业者之最,2026年的年增幅度可望逼近20%。
Meta则加强与Broadcom合作,预计于2025年第四季量产MTIA v2,提升推论效能与降低延迟。TrendForce预估2025年MTIA出货主要部署于Meta内部AI平台与推荐系统,待2026年采用HBM的MTIA v3推出,整体出货规模将呈双倍以上成长。
Microsoft则规划由GUC协助量产Maia v2,预计于2026年上半启动。此外,Maia v3因设计调整延后量产时程,预料短期内Microsoft自研晶片出货量相当有限,进度较落后竞争对手。