英特尔在MLPerf v6.0中强调可扩展的AI推断
英特尔发布了最新基准测试成绩,展现了其在 CPU 与 GPU 平台上的最新人工智能推理能力。该结果作为 MLCommons 组织MLPerf Inference v6.0测试套件的一部分正式公布,凸显了英特尔至强 6 处理器搭配英特尔锐炫 Pro B 系列 GPU,在工作站、数据中心与边缘端部署场景下的性能表现。对于关注 AI 硬件平台演进的工程师与开发者而言,这些结果清晰展现了英特尔在当前由专有 GPU 生态主导的市场中,如何布局开放、可扩展的推理系统。
基准测试凸显锐炫 Pro GPU 扩展能力
MLPerf Inference v6.0 测试结果包含英特尔 GPU 平台的四项核心基准测试,平台均采用至强 6 CPU 搭配锐炫 Pro B70 显卡。英特尔表示,搭载4 块锐炫 Pro B70/B65 GPU的系统可提供 128GB 显存,能够高并发运行最高1200 亿参数的大型 AI 模型。
英特尔称,锐炫 Pro B70 GPU 的推理性能较上一代锐炫 Pro B601最高提升 1.8 倍。
英特尔还强调了软件优化带来的性能提升。借助开放、容器化的软件栈,推理性能可从单节点系统扩展至企业级多 GPU 部署。在相同的锐炫 Pro B60 硬件上,相比 MLPerf v5.12 版本,性能最高提升 1.18 倍。
英特尔数据中心集团 AI 产品与全球上市副总裁阿尼尔・南杜里表示:“英特尔至强 6 与锐炫 Pro B 系列 GPU 的组合,体现了我们为拓展客户选择与价值所做的投入,提供面向大语言模型与传统机器学习工作负载的实用解决方案,为全球图形专业人士与 AI 开发者带来领先性能与卓越价值。”
面向 AI 工作站与边缘端部署
搭载锐炫 Pro B70/B65 GPU 的英特尔系统被设计为软硬一体验证的集成式推理平台。该平台通过基于 Linux 的容器化环境、多 GPU 扩展与 PCIe 点对点数据传输,简化 AI 部署流程。
此类 GPU 还集成了企业级特性,包括ECC 内存、SR-IOV 虚拟化支持、运行状态监控与远程固件更新。
内存容量是运行大语言模型的关键因素。英特尔表示,在多 GPU 配置下,锐炫 Pro B70 可支持更大规模模型与更长上下文窗口。相比同级别竞品 GPU,运行大模型时 B70 的键值缓存容量最高提升 1.6 倍。
至强 CPU 仍是推理系统核心
尽管 GPU 常被视为 AI 加速焦点,但英特尔着重强调了 CPU 在推理基础设施中的核心作用。主 CPU 负责内存管理、任务调度与集群整体效率,这些因素直接关系到系统的成本与性能。
英特尔是目前唯一一家单独提交 CPU 推理成绩的服务器处理器厂商。MLPerf Inference v6.0 中超过半数的提交项采用至强处理器作为主 CPU。
英特尔还指出其 CPU 路线图的代际性能提升。搭载性能核(P-core)的至强 6 处理器,在 MLPerf Inference v5.1 中较上一代性能最高提升 1.9 倍。内置 AMX、AVX-512 等 AI 加速技术,可让大语言模型推理、微调及传统机器学习等工作负载,在无专用加速硬件的情况下仍高效运行。
随着 AI 推理在边缘设备、工作站与数据中心的需求持续增长,厂商愈发聚焦融合 CPU、GPU 与优化软件栈的可扩展架构。英特尔最新 MLPerf 成绩,体现了其通过开放平台与系统级性能参与竞争,而非依赖专有 AI 基础设施的战略。
加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码
