在机器人向“具身智能”全面迈进的今天,如何让钢铁之躯拥有像人类一样灵敏的“触感”,成为了突破精细化操作瓶颈的关键。2026年1月26日,国地中心联合纬钛机器人正式发布了全球首个、也是目前规模最大的跨本体视触觉(Vision-Based Tactile Sensor)多模态数据集——白虎-VTouch。这一数据集的诞生,不仅填补了机器人视触觉交互领域的空白,更为全球机器人开发者提供了一座高价值的数字矿山。

机器人感知进化:全球首个跨本体视触觉大模型数据集“白虎-VTouch”震撼发布

全球最大规模:60,000分钟的“真实触感”

不同于以往单一、碎片化的实验数据,白虎-VTouch 在规模和完整性上实现了量级跨越:

数据体量惊人:数据集规模超过60,000分钟,包含约9072万对真实的物体接触样本。

全维度覆盖:整合了视触觉传感器数据、RGB-D 深度数据以及关节位姿数据,实现了多模态信息的深度对齐。

高精度记录:其搭载的传感器支持640×480分辨率与120Hz 高刷新率,能够捕捉到接触过程中极细微的物理变化。

跨本体范式:从“青龙”到“手持终端”

该数据集最核心的突破在于其**“跨本体”**的采集特征。它打破了单一设备的数据孤岛,涵盖了多种主流机器人构型:

人形机器人:以全尺寸人形机器人“青龙”为代表的复杂动力学构型。

类人形轮式:涵盖了 D-Wheel 等灵活的轮臂复合型机器人。

智能终端:甚至包括了手持式 pika 夹爪等智能终端设备。

这种跨本体的覆盖,意味着开发者训练出的算法将具备更强的通用性,能够让不同形态的机器人快速“习得”相似的感知能力。

“矩阵式”任务:让机器人走进烟火气

为了让 AI 真正解决现实问题,白虎-VTouch 围绕四大真实应用场景,构建了极其系统化的任务矩阵:

家居家政:应对复杂的家庭环境交互。

餐饮服务:精准处理易碎、柔性物体的抓取。

工业制造:在精密组装环节实现力控调整。

特种作业:在极端或特殊环境下的精细化操作。

该任务结构涵盖了100多个原子技能和260多个接触密集型任务。研究数据显示,在引入视触觉感知后,68% 的任务获得了更完整、连续的接触状态描述,这对于机器人实现失败恢复和精准力控具有决定性意义。

随着 白虎-VTouch 相关研究成果与数据集说明的陆续开放,全球机器人产业或将迎来一波“感知觉醒”的浪潮。当机器人不再只是靠“看”来摸索世界,而是能通过“触碰”来理解物理法则,具身智能的未来才算真正触手可及。