CPU爆火,但服务器领域还有更大机会
2026 年初,半导体行业被一则出人意料的消息震动:技术迭代稳健、市场成熟的 CPU,竟也遭遇了类似存储芯片的"产能危机"。
根据 KeyBanc 资本市场的数据,由于超大规模云服务商的疯狂"扫货",英特尔与 AMD 在 2026 全年的服务器 CPU 产能已基本售罄。为应对这种极端的供需失衡,两家公司均计划将服务器 CPU 价格上调 10% 至 15%,这在传统上价格升降相对平缓的 CPU 市场实属罕见。
CPU 产能的罕见紧张背后,是一个不可阻挡的力量在推动。北美五大超大规模云服务商——谷歌、微软、亚马逊、Meta 和甲骨文——在 2026 年的资本支出将同比大幅上涨 40%。这些科技巨头在疯狂扩大 AI 基础设施,而 CPU 作为任何服务器的必需品,成为了他们竞争的目标。
正如汇丰银行分析师所指出的,随着 AI 从简单的助手演进为能够自主规划并执行复杂任务的 AI智能体,对通用计算能力的需求正以前所未有的速度增长,直接推动了 CPU 需求的水涨船高。
英特尔自身也感受到了这股热潮。在其 2025 年第四季度财报电话会议上,公司高管承认,过去两个季度服务器 CPU 的需求,特别是来自超大规模客户的需求,完全超出了他们的预料。这种始料未及的需求激增,导致英特尔面临供应短缺,并不得不做出艰难的战略抉择:优先保障数据中心客户的供应,甚至不惜将部分 PC 产能转向服务器芯片,这也凸显了服务器 CPU 市场当前的火热程度。
CPU:从计算核心到 AI 时代的总指挥
长期以来,CPU 作为服务器的"大脑",承担着处理各种通用计算任务的核心角色。它负责运行操作系统、管理内存、协调 I/O 操作,并执行各类应用程序的逻辑运算。在传统数据中心架构中,CPU 几乎是唯一的计算单元,其性能直接决定了服务器的整体能力。然而,在以 GPU 为代表的并行计算加速器主导 AI 训练的时代,CPU 的星光一度显得有些黯淡。许多人开始质疑:在 AI 时代,CPU 是否已经沦为配角?
答案是否定的。AI智能体的兴起,正赋予 CPU 一个全新的、不可或缺的战略地位——AI 工作流的"总指挥"。与主要执行大规模并行计算的 AI 模型训练和推理不同,智能体 AI 的工作模式更为复杂。它需要进行规划、调用不同的工具或数据库、与外部 API 交互、并对多个 AI 模型的输出进行协调和决策。这些任务本质上是串行的、逻辑复杂的,并且需要灵活的资源调度,而这正是 CPU 的传统强项。
英特尔 CFO 在财报会议上对此进行了深入阐述:"世界正从人工提示请求转向由计算机到计算机交互驱动的持续递归命令。CPU 作为协调这些流量的核心功能,不仅将推动传统服务器的更新换代,还将带来扩大装机基数的新需求"。换言之,CPU 成为了整个 AI 系统的"中枢神经",负责协调和编排各种专用加速器,将原始的算力转化为解决实际问题的有效能力。
CPU 市场格局:从一家独大到两强争霸
然而,在相关市场中,竞争格局早已天翻地覆。英特尔曾一度占据服务器 CPU 市场 97% 的绝对垄断地位,但 AMD 凭借其 EPYC 系列处理器的强大产品力,成功上演了一场逆袭。根据 Mercury Research 的数据,截至 2025 年第三季度,英特尔的服务器单位出货量份额已下滑至 72%,而 AMD 则强势占据了近 28% 的份额。在更能反映市场价值的营收份额上,英特尔更是跌至 61%,而 AMD 则攀升至约 39%。
AMD EPYC 处理器的成功,得益于其在核心数量、性能功耗比上的显著优势。从 2017 年中发布的第一代 EPYC(Naples)开始,AMD 就以更高的核心密度和更优的能效比吸引了对成本和效率极为敏感的云服务商和大型企业。早期采用者对其性能水平感到惊喜,口碑迅速传播,使 EPYC 成为市场上不可忽视的力量。
据报道,AMD 的目标是占据服务器 CPU 市场 50% 的份额,这意味着与英特尔之间的竞争还将持续升级。这场旷日持久的"CPU 战争"远未结束,但一个不争的事实是,双头垄断的格局已经稳固,市场正在从一家独大走向两强争霸。
然而,当所有人的目光都聚焦于这场"王座之争"时,一个更强大的颠覆者已在悄然积蓄力量。正如 Bloomberg Intelligence 分析师所指出的:"AI 加速器市场正在经历结构性转变,因为传统 CPU 已无法满足现代 AI 模型的大规模计算需求"。这一判断,将我们的视野引向了一个更为广阔的战场。
ASIC 的崛起
ASIC,即专用集成电路,是为特定应用而设计的芯片。与 CPU 的"通用性"相对,ASIC 的"专用性"使其能够在特定任务上实现极致的性能和能效。在 AI 时代,这种为特定算法量身定制的芯片,正成为超大规模云服务商的新欢。
超大规模厂商转向 ASIC 的原因主要有三点。首先是成本优化:当 AI 运算规模达到数万甚至数十万芯片级别时,通用芯片高昂的采购成本和运营成本(主要是电费)成为巨大负担,自研或定制 ASIC 可以显著降低单位算力的成本。其次是性能与能效:通过裁剪掉通用 CPU 中大量非必需的模块,ASIC 可以将所有晶体管都用于特定的 AI 计算,从而在性能和每瓦性能上实现数量级的提升。第三是架构差异化:自研 ASIC 使云服务商能够构建独特的、与自身软件和服务深度绑定的硬件生态,形成他人难以复制的竞争壁垒。
各大市场研究机构的预测数据雄辩地证明了这一趋势。根据 Bloomberg Intelligence 于 2026 年 1 月发布的报告,虽然 GPU 在未来十年仍将主导 AI 加速器市场,但定制 ASIC 市场的增长将更为迅猛。预计到 2033 年,定制 ASIC 市场规模将达到 1180 亿美元,复合年增长率高达 27%,其在整个 AI 加速器市场的份额将从 2024 年的 8% 跃升至 19%。
Counterpoint Research 于 2026 年 1 月 26 日发布的报告预测则更为激进。他们预计全球 AI 服务器 ASIC 的出货量在 2024 到 2027 年间将增长三倍,并将在 2028 年超过数据中心 GPU 的出货量,届时全球数据中心 AI 服务器 ASIC 出货量将超过 1500 万片。该机构指出,2024-2028 年间,全球前 10 大 AI 超大规模厂商累计将部署超过 4000 万片 AI 服务器 ASIC 芯片。
市场格局也在发生深刻变化。2024 年,AI 服务器 ASIC 市场由谷歌(64%)和 AWS(36%)主导,呈现双寡头格局。但到 2027 年,市场将演变为更加多元化的生态,Meta(MTIA)和微软(Maia)等玩家也将占据重要份额。这一转变凸显了超大规模厂商从依赖通用 GPU 转向内部定制芯片的战略意图。
在 ASIC 设计合作伙伴领域,博通预计将保持领先地位,到 2027 年占据约 60% 的市场份额。该公司通过与谷歌、Meta 和 OpenAI 的合作,牢牢把控着 AI ASIC 市场的主导权。Marvell 则凭借与 AWS 和微软的关键设计合作,占据约 20-25% 的市场份额。值得注意的是,联发科正在进入这一领域,已获得谷歌 TPU v8x 推理芯片的设计合作,对博通的长期主导地位构成潜在挑战。
巨头的 ASIC 产品
在这场 ASIC 的军备竞赛中,几大科技巨头已经推出了足以挑战行业格局的"巨兽"。
谷歌 TPU作为 ASIC 领域的先行者,谷歌的 TPU 已经发展到第七代(Ironwood),于 2025 年 4 月发布。TPU v7 拥有惊人的 4,614 TFLOPs(FP8)的单芯片算力,配备 192GB 的 HBM3e 高带宽内存,支持超过 100 万 token 的 KV 缓存,专门为大规模 AI 推理和支持其核心产品 Gemini 大模型而设计。在系统级扩展方面,单个 TPU Pod 可容纳 9,216 颗芯片,形成强大的超级计算集群。
谷歌不仅自用,还通过与博通甚至联发科的合作,构建了复杂的供应链。在即将推出的 TPU v8 系列中,谷歌采用双供应商策略:博通负责高性能训练芯片 TPU v8AX "Sunfish",联发科则获得推理专用芯片 TPU v8x "Zebrafish"的设计合作,以平衡成本与性能。
Amazon AWS Trainium是亚马逊云服务生态的重要支柱。最新的 Trainium3 采用台积电 3nm 工艺,是 AWS 首款采用该先进制程的 AI 芯片。单芯片集成 8 个 NeuronCore-v4 计算核心,FP8 峰值算力达到 2.52 PFLOPs,配备 144GB HBM3e 内存(12 层堆叠设计),内存带宽高达 4.9 TB/s,比上一代提升约 70%。
AWS 的目标非常明确:为云客户提供比通用 GPU 更具成本效益的 AI 训练选项。其 Trn3 UltraServer 平台可集成多达 144 颗 Trainium3 芯片,总内存容量约 20.7TB,总带宽约 706 TB/s,峰值 FP8 算力达 362 PFLOPs。与上一代平台相比,整体算力提升 4.4 倍,内存带宽提升 3.9 倍,能效提升超过 4 倍。据报道,Trainium 已经处理了 AWS 内部超过 60% 的 AI 推理工作负载,超出分析师预期。
微软Maia在 2026 年初发布的 Maia 200 芯片,直接将矛头对准了推理市场。微软宣称,Maia 200 的 FP4 性能是亚马逊第三代 Trainium 的 3 倍,也超越了谷歌的 TPU v7,是"任何超大规模厂商中性能最强的第一方芯片"。这显示了微软在自研芯片上追赶并超越对手的决心,也标志着 AI 推理芯片竞争进入白热化阶段。
Meta MTIA 的自研芯片计划同样雄心勃勃。其 MTIA 芯片旨在同时覆盖训练和推理,以支持其庞大的推荐系统和未来的元宇宙及 AI 智能体应用。Meta 正与博通等伙伴紧密合作,加速其自研芯片的迭代和部署。据报道,Meta 在 AI 芯片基础设施上的投入估计高达 100 亿美元,并通过收购 Rivos 等举措,进一步减少对 NVIDIA 的依赖。
值得注意的是,台积电在这场 ASIC 竞赛中扮演着关键角色,占据前 10 大厂商 AI 服务器 ASIC 晶圆制造近 99% 的份额。这意味着,无论是谷歌、亚马逊还是微软,它们的自研芯片最终都依赖于台积电的先进制程能力。
结语
毫无疑问,CPU 在可预见的未来仍然是数据中心不可或缺的组成部分。AI 时代的复杂工作流,特别是智能体 AI 的兴起,反而强化了其作为"总指挥"的战略价值,为其带来了新的增长动力。英特尔和 AMD 之间的激烈竞争将继续推动技术进步,为市场提供更强大的通用计算平台。对于这两家公司而言,服务器 CPU 业务依然是利润丰厚的核心阵地。
然而,从整个服务器芯片市场的增量和未来潜力来看,最大的机会显然已经从通用计算转向了专用计算。超大规模云服务商对极致性能和成本效益的追求,正在催生一个规模空前、增长迅猛的 ASIC 市场。据预测,到 2030 年,仅数据中心一项就将占据半导体市场总收入的 50%,而其中 ASIC 的份额将持续扩大。到 2030 年,超大规模云服务商和二级云服务商在 AI 相关资本支出方面的投资将超过 3.5 万亿美元,微软 2026 年资本支出预计超过 1500 亿美元,而 OpenAI 的基础设施路线图到 2030 年可能超过 1 万亿美元。
对于半导体产业的关注者而言,这意味着需要将视野从传统的 CPU 双雄争霸,扩展到更广阔的 AI 加速器领域。在这片新战场上,主角不仅有英伟达这样的 GPU 巨头,更有谷歌、亚马逊、微软、Meta 这些科技巨擘,以及它们背后的芯片设计服务公司如博通、Marvell 等。它们之间的合纵连横、技术竞赛和生态构建,将共同定义下一个十年的计算架构。
CPU 的故事远未结束,但一个由 ASIC 开启的、更加多元和精彩的服务器芯片新篇章,已经正式拉开帷幕。
关键词: CPU
加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码
