近日,银河通用联合北京大学、阿德莱德大学和浙江大学等团队,推出了全球首个跨本体全域环视的导航基座大模型 ——NavFoM(Navigation Foundation Model)。这一创新性模型旨在将不同的机器人导航任务整合到一个统一的框架中,包括视觉与语言导航、目标导向导航、视觉追踪以及自主驾驶等多种应用场景。

全球首个跨本体全域环视导航大模型 NavFoM 发布

NavFoM 的特点之一是其全场景支持能力,不论是室内还是室外场景,模型都能够在未见过的环境中实现零样本运行,无需额外的建图或数据采集。这意味着用户可以更加便捷地应用该技术于多种环境中,而无需繁琐的准备工作。

此外,NavFoM 还具备多任务支持功能,能够通过自然语言指令实现目标跟随和自主导航等任务。这一设计使得不同机器人能够快速适配,从机器狗到无人机、从轮式人形到汽车等不同尺寸的机器人均能在这一框架下高效运作。

在技术层面,NavFoM 引入了两个关键创新:首先是 TVI Tokens(Temporal-Viewpoint-Indexed Tokens),使模型具备理解时间和方向的能力;其次是 BATS 策略(Budget-Aware Token Sampling),这允许模型在计算资源有限的情况下依然表现出色。

全球首个跨本体全域环视导航大模型 NavFoM 发布

值得一提的是,NavFoM 还构建了一个庞大的跨任务数据集,包含约八百万条跨任务、跨本体的导航数据,此外还包括四百万条开放问答数据。这一训练量是以往工作的两倍,使模型具备更强的语言与空间语义理解能力。

NavFoM 的发布标志着机器人导航领域的一次重大进步,开发者可以基于这一模型,通过后续训练,进一步发展出符合特定需求的应用模型。

划重点:

🌟 NavFoM 是全球首个跨本体全域环视导航大模型,能够统一多种机器人导航任务。

🏞️ 模型支持室内外场景的零样本运行,无需额外建图和数据采集。

💡 引入 TVI Tokens 和 BATS 策略,提升模型在理解时间、方向及算力受限情况下的表现。