触觉智能新进展:GelSight Mini触觉传感器支持无监督力校准

在机器人抓取、柔性材料操控等任务中,视触觉传感器GelSight Mini,凭借高分辨率成像能力,已成为科研实验室的常用工具。但一个长期困扰研究者的问题是:更换传感器、弹性体老化或环境变化后,是否必须重新采集大量带标签的力数据?

 

图1|深度域适应框架:通过特征对齐实现源域到目标域的力预测迁移

伦敦国王学院机器人感知实验室在最新论文《Deep Domain Adaptation Regression for Force Calibration of Optical Tactile Sensors》中提出一种无监督深度域适应回归方法。基于 GelSight 结构,团队构建了多种域差异组合(标记有无、照明变化、弹性体硬度不同),仅需目标域无标签图像,即可实现高精度力迁移。

图2|实验平台:UR5e机械臂配合GelSight Min传感器与Nano17力传感器进行数据采集

 

实验结果显示,迁移后法向力预测误差为0.102 N(满量程3.4%),剪切力误差分别为0.095 N(6.3%)。相比传统直接迁移方法,性能显著提升。

这意味着,GelSight Mini 视触觉传感器用户在面对设备老化或环境变化时,无需依赖昂贵的力/扭矩传感器进行重复标定,仅需采集目标域触觉图像,即可完成模型适配,大幅缩短实验准备周期。

图3|t-SNE可视化:域适应后源域与目标域特征空间显著对齐,验证迁移效果

 

作为一款高分辨率光学触觉传感器GelSight Mini因其标准化图像输出与紧凑设计,为这类域自适应研究提供了良好基础。

 

论文来源: Chen Z, Ou N, Jiang J, et al. Deep domain adaptation regression for force calibration of optical tactile sensors[J]. arXiv preprint arXiv:2407.14380, 2024.

 

 

文章详情

 

创建时间:2025-12-19 19:37

信倍通科技(北京)有限公司

 

ICT Tech (Beijing)Co., Ltd