构建智能:RISC‑V CPU在智能体AI基础设施中的崛起

智能计算 时间:2026-04-10来源:

SiFive 新近宣布完成 4 亿美元 G 轮融资,标志着面向智能体 AI 数据中心负载的高性能 RISC‑V CPU 开发进入重要技术拐点。本轮融资后公司估值达 36.5 亿美元,资金将专门用于加速下一代 CPU IP 研发、软件生态成熟,以及支撑超大规模部署。这些举措共同解决新兴算力瓶颈 —— 传统架构在日益异构的 AI 基础设施中,难以兼顾调度效率、扩展性与功耗限制。

本次投资背后的核心技术驱动力,是 CPU 在智能体 AI 系统中的作用不断提升。尽管 GPU 与专用加速器能为张量运算提供高吞吐量,但它们并不适合复杂控制流、任务调度与系统级协同。由多个交互推理环路、工具集成和动态决策树组成的智能体模型,需要低延迟调度与高效上下文切换。具备可扩展指令集与可扩展向量能力的 CPU,非常适合处理这类负载。RISC‑V 的模块化架构允许厂商针对特定调度模式定制标量、向量与矩阵扩展,相比单片式传统指令集架构效率更高。

从微架构角度看,其技术路线图重点在于 将标量流水线与向量、矩阵计算单元深度集成。这种协同设计通过减少异构计算模块之间的数据移动,降低内存带宽开销。通过将领域专用加速器直接嵌入 CPU 内部结构,RISC‑V 可支持混合负载 —— 将控制密集型逻辑与本地数值计算交错执行。这对于执行推理、规划与迭代优化的 AI 智能体尤其重要,因为它们需要频繁在符号运算与数值运算之间切换。这种集成也简化了缓存一致性,并降低了独立加速器卸载带来的延迟损失。

功耗效率是另一大技术动机。随着 AI 集群规模扩大,机房总功耗与热密度成为限制因素。传统架构常依靠高主频与深度乱序执行提升性能,导致能耗剧增。而 RISC‑V 设计可利用 面向负载的指令扩展适度规模流水线 实现更优的每瓦性能。这种方案让数据中心运营商能在现有功耗预算内扩展算力,这对呈指数级增长的 AI 训练与推理需求至关重要。

融资中投向 软件生态 的部分同样关键。扩大对主流操作系统与加速框架的支持,可确保新硬件无需大量移植即可部署。对 Linux 发行版与 GPU 互联技术的原生兼容,可构建由 RISC‑V CPU 调度 GPU 加速计算的异构集群。这种紧密耦合提升调度效率,减少主机侧瓶颈。此外,针对向量与矩阵扩展的标准化工具链与编译器优化,对充分释放硬件能力必不可少。软件基础设施的投入将加速 RISC‑V 在超大规模厂商与企业用户中的普及。

客户支持举措也体现出 协同设计 的行业大趋势。超大规模运营商越来越需要定制化 CPU IP,以实现基础设施差异化。与固定架构不同,RISC‑V 支持集成私有加速器、专用内存层次结构与定制互连逻辑。这种灵活性缩短设计周期,并可根据不断演进的 AI 负载快速迭代。随着智能体 AI 系统日趋复杂,定制 CPU 功能(如硬件任务调度器、低延迟消息原语、领域专用向量单元)的战略价值愈发凸显。

RISC‑V 的另一技术优势在于 生态开放。开放标准促进半导体厂商、云厂商与软件开发者之间的协作。这种协作模式通过各方独立参与指令集扩展、验证框架与性能优化工具,加速创新。长期来看,这将形成可与成熟架构媲美的强健生态,同时保持专用化灵活性。

总结

本轮融资支持三大相互关联的技术目标:

  1. 推进高性能 RISC‑V CPU IP 研发

  2. 扩大软件兼容性

  3. 实现在 AI 数据中心的大规模部署

这些举措共同解决智能体 AI 负载带来的调度、效率与扩展性挑战。随着算力基础设施向异构化、功耗受限方向演进,具备集成向量 / 矩阵能力、可定制的 CPU 架构,将在下一代 AI 系统中占据核心地位。

关键词: 构建智能 RISC‑V CPU 智能体AI 基础设施

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版