机器人精准抓取透明物体难题攻克!仅需单张图像,单目视觉即可实现!这项突破性成果由地瓜机器人和中科院自动化所等单位合作完成,其核心是
机器人精准抓取透明物体难题攻克!仅需单张图像,单目视觉即可实现!
这项突破性成果由地瓜机器人和中科院自动化所等单位合作完成,其核心是名为MODEST的新型算法框架。该框架是一个多任务模型,能够同时进行透明物体的深度估计和语义分割。
MODEST作为通用抓取模型的前端模块,无需额外传感器,即可高效、灵活地实现透明物体的抓取。相比其他双目或多视图方法,其效果更佳。
这项技术可广泛应用于智能制造、实验室自动化和智慧家居等领域,显著提升机器人操作透明物体的能力,并降低设备成本。MODEST已入选ICRA 2025(IEEE机器人与自动化国际会议)。
挑战与突破
透明物体抓取的难点在于获取其准确的深度信息。传统方法依赖深度传感器或多视角重建,成本高且效率低。透明物体的折射和反射特性,以及在图像中缺乏清晰纹理等问题,都增加了感知难度。
MODEST框架创新性地解决了这些问题,它通过结合语义和几何信息的多任务框架,准确获取透明物体的深度信息,并结合点云抓取网络实现抓取。
算法详解
MODEST模型以单目RGB图像为输入,输出透明物体的分割结果和场景深度预测。其核心由编码、重组、语义几何融合和迭代解码四个模块构成。
基于注意力机制的语义几何融合模块,充分利用语义分割和深度估计任务间的互补信息,提升了整体性能。 此外,受人眼视觉启发,MODEST采用由粗到细的特征更新策略,进一步提高了预测精度。
实验结果
在Syn-TODD和ClearPose两个公开数据集上的实验表明,MODEST在深度估计和语义分割方面均显著优于其他先进方法,即使在人眼难以判断的场景下也能产生清晰的预测结果。
真实机器人平台的抓取实验也验证了MODEST的鲁棒性和泛化性。
其他成果及资源
除了MODEST,地瓜机器人研发的DOSOD开放词汇目标检测算法也入选ICRA 2025。 感兴趣的读者可访问以下链接了解更多信息:
MODEST文章地址:https://www.php.cn/link/6b45cf467a9c88001159a826e92c7437MODEST代码地址:https://www.php.cn/link/6b45cf467a9c88001159a826e92c7437DOSOD文章地址:https://www.php.cn/link/6b45cf467a9c88001159a826e92c7437DOSOD代码地址:https://www.php.cn/link/6b45cf467a9c88001159a826e92c7437
菜鸟下载发布此文仅为传递信息,不代表菜鸟下载认同其观点或证实其描述。
版权投诉请发邮件到 cn486com#outlook.com (把#改成@),我们会尽快处理
Copyright © 2019-2020 菜鸟下载(www.cn486.com).All Reserved | 备案号:湘ICP备2022003375号-1
本站资源均收集整理于互联网,其著作权归原作者所有,如有侵犯你的版权,请来信告知,我们将及时下架删除相应资源