机器人技术正迎来从“工业自动化”向“物理 AI”跨越的关键时刻。据 IT之家 消息,微软研究院正式推出了一款名为 Rho-alpha 的全新 AI 模型。该模型致力于打破机器人对封闭、预设环境的依赖,使其能够在复杂多变且不可预测的现实场景中大显身手。

​微软发布 Rho-alpha 模型:赋予 AI 机器人“人手”般灵活性与理解力

作为微软“物理 AI”战略的核心成果,Rho-alpha 展现出了令人惊叹的交互能力。它能直接听懂人类的自然语言指令,并将其转化为精确的控制信号,引导机器人完成极其复杂的双手协同任务。这意味着,未来的机器人不再需要苦读晦涩的代码脚本,只需一句话,就能像人类一样理解并执行操作。

在感知层面,Rho-alpha 走得更远。它不仅继承了 Phi 家族优秀的视觉与语言处理基因,还首次深度集成了触觉感知。当机器人抓取物体时,它能根据真实的触碰反馈实时微调动作力度和姿态。微软透露,未来还将加入力感知等更多模态,让机器人的操作精度达到新的高度。

为了让机器人更“聪明”、更合心意,Rho-alpha 引入了动态调整行为的适应机制。在实际运行中,如果机器人表现不佳,人类操作者可以通过3D 输入设备进行干预和纠正,而系统会将这些反馈实时吸收到学习过程中。通过 Azure 基础设施生成的海量仿真数据与真实世界演示数据的深度融合,Rho-alpha 正在加速进化,力求成为真正懂用户偏好的智能助手。

划重点:

  • 🗣️ 语言直控:Rho-alpha 模型实现了自然语言与机器人控制信号的直接转换,支持复杂的双手协同操作,摆脱了传统预设脚本的束缚。

  • 🖐️ 触觉进化:该模型在视觉基础上引入了触觉反馈机制,使机器人能根据实际触感实时调整行为,未来还将增加力感知模态以提升精度。

  • 🔄 持续学习:系统支持人类实时干预与纠正,能通过3D 输入设备学习用户偏好,并结合仿真与真实数据不断优化其在非结构化环境中的表现。