跨载体泛化新进展:北大RoboBrain-Dex模型背后的Manus数据手套支撑逻辑
近日,北京大学与北京智源人工智能研究院(BAAI)联合发布的技术报告《RoboBrain-Dex: Multi-Source Egocentric Training for Integrated Dexterous Vision-Language-Action Model》引发学术界广泛关注。该研究提出了一种新型视觉-语言-动作(Vision-Language-Action, VLA)模型,显著提升了机器人在真实世界中执行双手机灵操作任务的能力,并展现出对未见场景的强泛化性能。

这一成果的关键在于高质量、大规模的egocentric(第一人称视角)操作数据集 EgoAtlas 的构建——而其核心采集设备正是来自 Manus 的高精度手部动捕解决方案。
研究亮点:从人类演示到机器人控制的无缝桥梁
1、高保真手部运动捕捉
研究团队采用 Manus 数据手套,以毫米级精度实时捕捉每只手25个关键点的三维位置。相比传统基于摄像头或VR头显的方案,该系统不受遮挡、光照或空间限制影响,支持在多样化的现实环境中灵活部署。

2、统一的人机动作表征空间
通过将人类操作行为与机器人执行动作映射至同一动作语义空间,EgoAtlas 实现了人类演示数据与机器人实操数据的有效融合,为训练通用型VLA模型提供了坚实基础。
3、双用途数据采集架构
- 自然人类操作记录:佩戴 MetaGloves Pro 或 Quantum Metagloves 的操作者完成日常灵巧任务(如拧瓶盖、插拔插头、折叠衣物等),生成丰富的人类先验数据。
- 精准机器人遥操作:同一套 Manus 手套-追踪系统 结合 VIVE Tracker 获取手腕6自由度位姿,通过逆运动学(IK)算法,将手部轨迹实时映射至 Unitree G1 人形机器人及其 Inspire 灵巧手上,高效收集高质量机器人示范数据。
4、可靠的泛化能力验证
在六个真实世界灵巧操作任务中,RoboBrain-Dex 模型表现出稳定的高成功率,并成功应对分布外(out-of-distribution)任务挑战,验证了多源、高保真数据对提升模型鲁棒性的关键作用。
技术底座:Manus 如何赋能具身智能研究?
Manus 作为专注于高精度手部交互与动作捕捉的技术提供商,其产品线已成为全球多个前沿AI实验室的标准配置:
- MetaGloves Pro / MetaGloves Pro Haptic:新增触觉手套版本,专为科研与工业级应用设计,支持亚毫米级手指关节追踪,适用于需要超高精度的机器人遥操作与行为建模。
- Quantum Metagloves:轻量化、无线化设计,兼顾舒适性与性能,适合长时间人类行为数据采集。
- MANUS Core 3.1 软件平台:提供低延迟、高同步性的数据流接口,无缝对接ROS、Unity、Unreal等主流开发环境,加速从采集到训练的闭环。

此次 RoboBrain-Dex 项目充分展示了 Manus数据手套 在构建“人→机”行为迁移管道中的独特价值——不仅提升数据质量,更拓展了数据采集的时空边界。
延伸阅读与资源:https://arxiv.org/abs/2511.17366
