在近期于圣地亚哥举行的 NeurIPS 大会上,英伟达推出了其最新的自动驾驶 AI 模型 Alpamayo-R1(AR1),旨在加速实现更广泛的无人驾驶汽车。英伟达称,AR1是全球首个用于自动驾驶的行业级开放推理视觉语言行动(VLA)模型,能够同时处理文本和图像,帮助汽车传感器将所 “看到” 的信息转化为自然语言描述。
AR1结合了推理链 AI 和路径规划技术,能够更好地处理复杂情境。与以往的自动驾驶软件相比,它通过分析场景并考虑所有可能选项,模拟人类的思考方式,从而进行决策。英伟达指出,这一能力对于实现四级自动化至关重要,四级自动化被汽车工程师协会定义为在特定情况下,汽车完全控制驾驶过程。
在一篇与发布会同步的博文中,英伟达应用深度学习研究副总裁布莱恩・卡坦扎罗(Bryan Catanzaro)提供了一个实例,说明 AR1的工作原理。他表示,在行驶于行人密集区域和自行车道旁的情况下,AR1可以利用推理链分析路径数据,做出更合理的驾驶决策,比如避开自行车道或对潜在的横穿马路者停车等。这种基于推理的思考方式,能让工程师更清晰地了解 AI 为何做出某种决策,从而帮助提升车辆安全性。
AR1模型基于英伟达今年早些时候推出的 Cosmos Reason,开放访问使得研究人员可以为自己的非商业用途定制这一模型,进行基准测试或开发自主驾驶汽车。AR1现已在 GitHub 和 Hugging Face 上发布,卡坦扎罗提到,后期强化学习训练在提升推理能力方面效果显著,研究人员反馈取得了 “显著改善”。
划重点:
🌟 AR1是全球首个行业级开放推理 VLA 模型,能够同时处理文本和图像。
🚗 AR1模拟人类推理,提升自动驾驶技术的复杂场景处理能力。
🔍 模型已开放在 GitHub 和 Hugging Face 上,供研究人员进行非商业性定制使用。
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则