在今日的消费电子展(CES)上,Nvidia 首席执行官黄仁勋正式发布了公司全新的 Rubin 计算架构,他称其为当前人工智能硬件的尖端之作。Rubin 架构目前已经进入生产阶段,预计将在下半年加速推广。
黄仁勋表示:“Vera Rubin 旨在解决一个根本性挑战:AI 所需的计算量正在激增。” 他补充道:“今天我可以告诉大家,Vera Rubin 已经全面投入生产。”
Rubin 架构首次于2024年宣布,是 Nvidia 不断推进硬件开发的最新成果,这一努力使得 Nvidia 成为全球最具价值的公司。Rubin 架构将取代此前的 Blackwell 架构,而 Blackwell 则替代了 Hopper 和 Lovelace 架构。
Rubin 芯片已被多家主要云服务提供商所采用,包括 Nvidia 与 Anthropic、OpenAI 以及亚马逊网络服务(AWS)等公司的重要合作。Rubin 系统还将用于 HPE 的 Blue Lion 超级计算机和劳伦斯・伯克利国家实验室即将上线的 Doudna 超级计算机。
Rubin 架构以天文学家 Vera Florence Cooper Rubin 命名,由六个独立芯片共同协作构成,Rubin GPU 是其核心。该架构还针对存储和互连中的瓶颈进行了改进,新增了 Bluefield 和 NVLink 系统。此外,Rubin 架构还包含了一款新型 Vera CPU,专为自主推理设计。
Nvidia 的 AI 基础设施解决方案高级总监 Dion Harris 在电话会议中解释了新存储的优势。他提到,现代 AI 系统的缓存相关内存需求日益增加。随着新工作流的引入,例如自主 AI 或长期任务,这对键值缓存(KV cache)提出了更高的要求。他表示:“我们引入了一种新的存储层,能与计算设备外部连接,从而更高效地扩展存储池。”
根据 Nvidia 的测试,Rubin 架构在模型训练任务上的速度比前代 Blackwell 架构快三倍半,在推理任务上快五倍,计算能力可达50拍浮点运算每秒(petaflops)。新平台每瓦特支持的推理计算能力也提升了八倍。
Rubin 架构的推出正值 AI 基础设施竞争加剧之际,各大 AI 实验室和云服务提供商争相抢购 Nvidia 的芯片及其所需的运算设施。在2025年10月的一次财报电话会议上,黄仁勋预测未来五年将有3000亿到4000亿美元投入到 AI 基础设施建设中。
划重点:
🌟 Rubin 架构是 Nvidia 最新推出的 AI 计算架构,预计将全面提升计算能力。
💻 Rubin 芯片已被多家云服务商采用,并将用于多个超级计算机项目。
⚡ Rubin 架构在速度和能效上较前代提升显著,为 AI 基础设施的竞争注入新动力。
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则