对于人工智能处理器初创企业来说,是否是成败的关键时刻?
NVIDIA 的爆发式发展及其 GPU 引发的持续旺盛需求,推动了全球 AI 处理器领域的热潮。然而,一众专注研发专用 AI 芯片的初创企业,其发展浪潮已迎来拐点,或正无限接近顶峰。
2016 年以来,全球 AI 处理器初创企业的数量已翻倍,截至 2025 年底,该领域独立运营企业的数量激增至 146 家,这一规模已难以为继。迄今为止,这些企业累计获得 280 亿美元的投资,投资者均被 AI 处理器市场的巨大前景所吸引。市场预估,2026 年 AI 处理器市场规模将突破 4940 亿美元,其中硬件出货量的增长主要由云端及本地 AI 推理、从可穿戴设备到个人电脑的边缘端部署驱动,而市场营收的增长则主要依托 AI 训练业务及超大规模数据中心的采购需求。
尽管 NVIDIA 凭借其深厚、完善且几乎难以撼动的软件生态,以及全套数据中心硬件基础设施建立起技术壁垒,但这一点似乎并未被投资者重视 —— 他们仍愿意向几乎所有宣称能研发出更快、更智能、更经济的 AI 处理器的团队伸出橄榄枝。
不出所料,绝大多数初创企业都将研发重心放在数据中心或边缘端的 AI 推理芯片上。AI 训练芯片的研发需要极高的资金投入,这一领域的市场份额基本已被 NVIDIA 牢牢占据,多数初创企业都选择主动退让。
但对绝大多数这类初创企业而言,成功的窗口正逐渐关闭。2018 年是 AI 处理器初创企业的集中成立期,截至彼时,75% 的相关初创企业已成立。值得关注的是,初创企业数量的增长浪潮,早在 NVIDIA 的业务迎来爆发式增长、震撼整个科技行业之前就已开启。
人们或许会认为,是 NVIDIA 的成功吸引了大批初创企业入局,但事实上,58% 的初创企业在 NVIDIA 崛起前就已启动。2022 年以来,该领域年均发生 7 起收购案;2020 年至今,已有 17 家 AI 处理器初创企业完成首次公开募股。
AI 芯片初创企业的复杂市场格局
从基础层面来看,AI 处理器是一款经特殊优化的芯片,可通过高速完成海量张量运算、最大限度减少数据迁移,实现神经网络工作负载的高速、高效运行。目前市场上的 AI 处理器类型繁多,涵盖 GPU、NPU、存内计算 / 处理芯片、神经形态处理器以及矩阵 / 张量引擎。
尽管 CPU 和 FPGA 也可用于运行 AI 工作负载,但由于二者的通用性,无法依据功能进行细分,因此通常被排除在规模达 850 亿美元的 AI 芯片市场之外。不过,搭载向量扩展或单指令多数据引擎的 CPU(如今几乎所有 CPU 均具备该特性),仍归属于 AI 处理器的范畴。CPU、片上系统和专用集成电路在 AI 领域的应用重叠性,令人难以厘清(见图1)。

1. 用于AI训练和推理的CPU、SoC和ASIC之间的复杂重叠。
从核心架构来看,AI 处理器由多个核心模块构成(见图2):
计算模块:大位宽单指令多数据 / 单指令多线程核心(GPU 架构)、张量 / 矩阵引擎、向量运算单元、激活函数运算单元;
存储层级:靠近计算模块、容量小且速度快的片上静态随机存取存储器;位于处理器外部或同封装内、容量更大的高带宽存储器 / 双倍数据率存储器;高速缓存 / 暂存器;预取器 / 直接存储器访问控制器(存内计算芯片大致归属于这一范畴);
互连模块:片上网络,以及包括但不限于高速串行计算机扩展总线、缓存一致性互连技术、NVIDIA 专属互连技术和以太网在内的片外互连链路;
控制模块:指令处理器、调度器,以及用于内核 / 集合通信的微码。

2. 典型AI芯片的基本组件,包括计算、内存和连接性。
AI 处理器的应用场景覆盖云端服务、数据中心芯片、嵌入式知识产权核以及神经形态硬件。创业团队和工程师们的研发方向,主要聚焦于弥补 CPU 和 GPU 的技术短板:内存管理、小批量任务下的高利用率保障、严格功耗预算下的低延迟实现,以及规模化部署后的稳定吞吐量输出。
各企业的产品研发主要围绕两大维度展开:一是工作负载类型,包括 AI 训练、AI 推理和传感器级信号处理;二是部署层级,从超大规模数据中心,到依靠电池供电的可穿戴设备全覆盖。
当前,AI 芯片的核心技术研发主要集中在内存管理和执行控制两大方向。存内计算和模拟计算技术,可通过在存储阵列内完成运算、将部分和数据就近存储,减少数据迁移,进而催生出全新的数据流设计架构;晶圆级芯片则将激活值存储在本地静态随机存取存储器中,为长序列任务实现权重数据的流式传输。
可重构架构能够在编译阶段调整数据流和分块策略,实现多层网络的利用率优化;AI 训练芯片着重提升互连带宽和集合通信能力,而 AI 推理芯片则将研发重点放在单批次任务低延迟、Transformer 模型键值缓存、边缘端能效,以及降低云端依赖以减少延迟上 —— 这一点在智能体机器人领域尤为关键。
AI 处理器的市场落地,取决于企业的商业化策略和生态体系支持。云服务提供商正将 AI 加速器集成至托管服务和模型推理框架中;知识产权核供应商则与手机、汽车和工业领域的片上系统研发团队展开合作,提供工具链、模型库和芯片密度升级路线图。
此外,边缘计算领域的专业企业会推出软件开发工具包,实现模型压缩、8 位及更低精度的量化,并将算子映射至稀疏或模拟运算单元,同时保障模型精度达标;神经形态芯片研发团队则会发布脉冲神经网络编译器,重点优化事件流处理的能效和延迟表现。实践表明,编译器、内核集和可观测性工具的优化,其重要性往往超过芯片的峰值算力。
不同部署层级的 AI 芯片,竞争焦点也各不相同(见图3):AI 训练芯片的竞争核心是单模型训练成本,需综合考量网络、内存和编译器的限制;AI 推理芯片则在延迟约束下,以单令牌或单帧处理成本为竞争目标,缓存管理和量化技术是核心优化手段;边缘设备芯片的竞争集中在单推理任务的毫瓦级功耗和工具链的可移植性;知识产权核供应商则比拼流片周期、功耗 - 性能 - 面积指标,以及验证支持能力;科研项目则需要在产品上市速度,与可能改变内存、计算、通信三者权衡关系的实验研究之间找到平衡。

3. 按市场细分的人工智能芯片公司分布。
整个研发过程中,各团队会根据具体需求定制芯片设计,例如注意力机制深度、参数量、激活值规模、稀疏性和精度策略等。当企业实现芯片、编译器和部署工具的协同优化时,就能有效降低集成成本,加快从模型研发到高吞吐量落地的转化速度。
客户则拥有多种选择:在云端拓展算力、通过晶圆级系统实现算力扩容、将 NPU 集成至片上系统,或是利用模拟芯片和神经形态芯片,将计算单元部署在更靠近传感器的位置。280 亿美元的投资,正源源不断地流入这些海量的研发工作中,也正是这些技术研发成果,让这些初创企业成为极具吸引力的收购标的(见图4)。

4. 基于处理器类型分发AI芯片初创企业。
AI 芯片初创企业的爆发式增长终章
但这场 AI 芯片领域的 “寒武纪大爆发”,正迎来落幕时刻。2025 年末,首个市场信号出现:投资者开始对超大规模数据中心运营商、政府和私营企业的巨额硬件设备支出感到担忧,这也在以 AI 热潮为主要驱动力的股市中引发了连锁反应(见图5)。各大媒体纷纷热议 AI 芯片市场的泡沫,以及泡沫破裂的时间预测。

5. 全球人工智能处理器供应商的人口。
暗流涌动之下,AI 芯片供应商的市场泡沫注定破裂 —— 毕竟,没有任何一个行业能支撑 146 家供应商共存。
截至 2025 年底,该领域已发生多起收购案和企业倒闭事件,累计达 21 起,后续还将有更多企业退出市场。但风险投资机构仍在赌概率:他们认为,六家融资额均超 10 亿美元的头部初创企业将成为最终幸存者,而其余百余家初创企业,要么被 37 家有收购意向的上市公司收入囊中,要么走向倒闭。Jon Peddie Research 的预测显示,未来一到两年,独立 AI 芯片供应商的数量将缩减 40%,实际行业洗牌的结果可能会更严峻。
尽管绝大多数初创企业终将面临被收购或倒闭的结局,但被收购的企业也会带来意外价值 —— 由热情且乐观的风险投资机构买单的免费知识产权核。280 亿美元的投资,足以支撑大量的研发工作,尤其是这些初创企业的平均员工数还不足 10 人。反观 NVIDIA,目前拥有约 3.6 万名员工,这场竞争从一开始就并非势均力敌。
这些收购案的背后,难免会有人为错失的发展机遇感到惋惜,但如果企业的创业愿景仅仅是 “研发出更优秀的处理器,就会吸引全世界的客户主动上门”,那么这份惋惜便毫无意义。
NVIDIA 的行业主导地位,不仅依托其 AI GPU 的性能优势和深厚的软件生态,更在于其始终聚焦于打造全套数据中心硬件基础设施 —— 这一核心布局,让其始终保持行业领先。
加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码
