Rebellions AI完成巨额融资,全力扩张AI推理整机系统业务

智能计算 时间:2026-04-07来源:

尽管我们十分关注计算引擎、网络芯片与存储设备,但最终核心仍在于系统架构师如何整合这些组件,将其打造成能够实现具备经济、社会乃至生物领域价值的、可落地的专用系统。部分系统架构师倾向自主整合业内顶尖组件,以在协同设计层面掌握一定主动权;也有部分客户只希望采购可随业务增长灵活扩容的完整整机系统,实现最快部署投产。

韩国 AI 芯片初创企业 Rebellions AI 下一阶段的扩张核心,正是面向这类整机采购客户。考虑到该公司立志在本土市场之外大量销售 AI 加速芯片与完整系统,这一布局十分契合其战略。对于那些尚未自研或量产本土 AI 加速芯片的国家(全球绝大多数国家均在此列),或是希望通过混用不同 AI 加速芯片分散风险的主体而言,该公司的产品尤为适配。此外,基于英伟达计算引擎的系统成本高昂、供应紧缺,各方也都在寻求兼具扩展性且不会造成财务压力的算力架构。

Rebellions AI 将在 ODM 厂商以及大概率多家 OEM 厂商的支持下,把完整整机系统推向韩国以外市场,而此次扩张的部分资金,正来源于该公司刚刚完成的 4 亿美元 D 轮融资。公司将此轮融资定义为 “上市前融资”,这意味着 Rebellions AI 或将很快启动 IPO,不会像部分初创企业那样持续进行 E 轮、F 轮乃至 G 轮融资。该公司具体何时、在何地上市值得关注,目前其尚未披露相关信息。

就在不久前的 2025 年 9 月,Rebellions AI 刚完成 C 轮融资,由 CPU 知识产权厂商安谋控股(Arm)投资 2.5 亿美元。Arm 近期刚推出面向数据中心服务器的 AGI 通用人工智能 CPU,且至今未涉足自研 AI 加速用 GPU 或 XPU,这对 Rebellions AI 这类 AI 初创企业而言是利好 —— 该公司既需要与基于 Arm 架构的 CPU 深度适配,也提供 X86 主机方案,这与英伟达的系统设计思路一致。

本轮 D 轮融资中,总部位于韩国首都首尔、主营资产管理、财富管理、投资银行与人寿保险业务,管理资产规模达 7300 亿美元的未来资产金融集团为领投方。受韩国信息披露法规约束,可确认其本轮出资约 1.99 亿美元;该机构亦是 Rebellions AI 两年前 B 轮融资的投资方。韩国国家成长基金于今年 3 月启动了规模庞大的科技扶持计划 “K - 英伟达培育项目”,计划未来五年投入 995 亿美元资金,其中约十分之一用于入股 AI 相关初创企业,该项目首笔投资便投向 Rebellions AI,金额约 1.66 亿美元。韩国产业银行追加注资 3300 万美元,剩余份额由现有投资者认购。

1775530582823458.png

自 2020 年 9 月成立以来,Rebellions AI 累计融资总额已超 8.5 亿美元,公司发展节奏迅猛,当前估值约 23.4 亿美元,员工规模超 300 人,并正推进国际化布局,开拓韩国以外的市场机遇。

具体而言,该公司计划将 Rebel100 计算引擎、RebelRack 机架式系统以及 RebelPod 整机集群推向美国的云服务商、新型云厂商、电信运营商、其他服务提供商及 AI 实验室 —— 当前美国市场对高性价比 AI 推理算力的需求正处于白热化阶段。

我们曾在 2025 年 12 月底深度解析过 Rebel 系列计算引擎架构,值得关注的是,韩国存储巨头三星、SK 海力士均为 Rebellions AI 投资方,三星负责 Rebel 计算引擎的晶圆代工,Arm 同样是其投资方。截至目前,Rebel 系列系统一直采用 AMD 霄龙(Epyc)X86 处理器作为主控 CPU,而该公司两周前出席了 Arm AGI CPU 发布会,并明确表示短期内将为 RebelRack 与 RebelPod 系统适配 Arm 自研的 AI 专用服务器 CPU,满足希望像英伟达及多家超大规模云厂商那样,在 AI 系统中采用 Arm 架构主控 CPU 的客户需求。

其核心思路如下:

我们期待官方详细解读 Arm AGI CPU 相较 AMD 霄龙 CPU,在每瓦每秒交易处理性能(TPS)上实现约 2 倍提升的具体依据。

以下为 3 月 24 日 Arm Everywhere 大会上展示的演示视频,呈现了两款计算引擎协同运行 AI 工作流的效果:

Rebellions AI 首席商务官马歇尔蔡接受《EEPW》采访时表示:“Arm 是我们的投资方,这延续了我们超越单纯财务投资、兼具战略价值的合作关系。坦白说,当下 AI 领域涌入了大量资本,我们更看重通过这些合作能实现哪些额外价值。我认为,建立多维度合作关系,无论对我们自身,还是对生态内的合作伙伴而言,都更具实际意义。”

如上图所示,RebelServer 服务器内置 8 颗 Rebel100 AI 推理加速引擎,由双路 CPU 支撑。这种 2 路 CPU 搭配 8 颗加速芯片的设计,是当前商用风冷 AI 系统的标准配置。英伟达推出的机架级整机设备,目前仍仅适用于极少数顶尖超大规模云厂商、云基础设施建设方与 AI 模型研发方。

单台 RebelRack 机架集成 4 个上述服务器节点,总计搭载 32 颗加速芯片,节点布局预留充足空间,可依托数据中心冷风实现散热(更高密度部署预计将需要液冷方案)。多数机构的数据中心暂未配备液冷设施,因此该方案是现阶段的理想起点。蔡表示,更核心的优势在于,设备上架后 48 小时内即可接入数据并投入推理运算。

RebelRack 系统在 FP8 精度下可提供 16 PFLOPS 的 AI 推理算力,FP16 精度下算力为 8 PFLOPS。单颗 Rebel100 芯片配备 512MB SRAM 缓存与 144GB HBM3E 高带宽堆叠内存,内存带宽达 4.8TB / 秒;以此计算,单台 RebelRack 总 SRAM 容量为 4GB,HBM3E 总容量 4.5TB,聚合带宽 153.6TB / 秒。每个服务器节点配备 400GB / 秒以太网带宽(8 个 400Gb / 秒端口),Rebel100 加速卡之间及与主控 CPU 通过 PCIe 5.0 全互联架构连接。该机架典型功耗 5 千瓦,最大功耗 7 千瓦。

下图为更高密度部署的 RebelRack 机架:

1775530502644624.png4e46805b69b83924736a43d8682ecfb8.png4e46805b69b83924736a43d8682ecfb8.png

下图为 RebelPod 整机集群,因无法看到机架内部,暂无法确定单机架搭载设备数量:

1775530472249473.png

RebelPod 集群整合多台 RebelRack 机架,采用 800GB / 秒以太网作为后端互联网络,前端以 25GB / 秒网络对接外部系统数据。RebelPod 支持 2 机架、4 机架、6 机架、8 机架及 16 机架配置,单集群可搭载 64 至 1024 颗加速芯片,形成统一系统镜像,支撑超大规模推理任务。

我们期待看到该系列设备在实际 AI 推理场景中的性能表现。Rebellions AI 称其架构专为超大规模部署设计,而最新一轮融资将为其提供验证这一理念的机会。

关键词: Rebellions AI AI推理 整机系统

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版