您现在的位置是:首页 > 人工智能人工智能

IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面

查看 能金seo 的更多文章2021-10-02【人工智能】17人已围观

IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第1张

作者 | 李一鸣

编辑 | 杨怡

抓取是人类和物体最基础的交互方式,机器人和物体之间的关系也是一样。然而,让机器人具有比肩人类的抓取能力并非易事,尤其是杂乱场景下对通用物体的抓取能力,该方向的研究也引起了学术界和工业界的广泛关注。

就整理桌面而言,机器人看到杂乱的桌面场景,需要确认待抓取的物体,估计准确的抓取姿态,进行无碰撞的抓取规划并最终执行,是一项非常具有挑战性的任务。

本文将介绍的这篇工作便致力于提升机器人在杂乱场景下的语义理解及抓取能力,文本提出一种带语义及碰撞检测的机器人抓取姿态估计方法,能够端到端地从单视角点云中同时学习实例分割、抓取姿态及可能存在的碰撞,输出物体级别的无碰撞抓取配置,最终交由机器人执行。IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第2张论文地址:
Simultaneous  Semantic  and  Collision  Learning  for 6-DoF  Grasp  Pose  Estimation (IROS 2021)

https://arxiv.org/abs/2108.02425


1
研究背景

机器人抓取物体的通常做法是从视觉角度出发,对目标物体进行检测、识别和定位,然后将机械臂移动到目标位置实施抓取。然而,由于物体的形状、类别具有不确定性,该做法往往只适用于已知的物体的抓取,缺乏一定的通用性。此外,物体在实际场景的摆放经常具有一定的杂乱性,在实际抓取过程中,还需要考虑机器人的运动规划及控制等问题。

IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第3张图1 联合实例分割及碰撞检测的机器人抓取姿态估计示意图
2
具体方法算法将杂乱场景下的机器人抓取作为一个多任务学习的问题,通过实例分割、抓取姿态碰撞检测三个分支进行联合优化。IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第4张图2 联合实例分割及碰撞检测的机器人抓取姿态估计算法框图作者采用先提取特征后聚类的方式进行桌面物体的实例分割。具体做法是,同时提取场景点云的语义特征和实例特征,其中语义特征用来进行前景和背景的分割。对于前景点,使用判别损失函数对其类别进行监督。该判别损失函数由类内方差、类间距离及正则化项组成。类内方差约束属于同一物体的点特征尽可能相近,类间距离约束不同物体的特征中心尽可能远,正则化项用于约束特征中心接近于原点以确保可以被激活。IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第5张图3 用于实例分割的判别损失函数图解对于六自由度抓取姿态估计,作者将三维空间中的抓取配置用可抓取点坐标、旋转矩阵、抓取深度、抓取宽度及抓取质量表示,同时将点云分为可抓点和不可抓点两种。作者假定每个可抓点只对应一个最优的抓取配置。训练阶段,只有可抓点的抓取配置用于监督。作者采用交叉熵损失函数监督场景点云中每个点是否可抓。对每个可抓点,使用均方误差损失函数监督抓取深度、抓取宽度及抓取质量。对于三维旋转,作者将旋转矩阵分解为夹爪趋近方向(Approach)和闭合方向(Close)的单位向量,分别施加位置约束、余弦距离约束和正交约束。IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第6张图 4 六自由度抓取配置示意图作者还增加了一个碰撞检测的分支,用于预测夹爪和场景可能存在的潜在碰撞,并通过交叉熵损失函数进行监督。最终生成的抓取由实例分割、抓取姿态估计和碰撞检测三个分支合并加上物体级的非极大值抑制得到。算法在公开数据集 Graspnet-1Billion 上评测,达到了业界领先水平:IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第7张图 5 GraspNet-1Billion数据集实验结果同时作者使用Kinova Jaco2机器人及Realsense在真实场景中进行评测,同样优于 Baseline 方法:IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第8张图 6 实际机器人平台实验结果


3
总结这篇工作将杂乱场景下的机器人抓取问题分为实例分割、抓取姿态估计及碰撞检测三个子任务并进行联合优化学习。实验表明,算法能够在杂乱场景中准确地估计出物体级别、无碰撞的六自由度抓取姿态,达到业界领先水平。参考文献[1] Fang, Hao-Shu, et al. "Graspnet-1billion: A large-scale benchmark for general object grasping."Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020.[2] Qin, Yuzhe, et al. "S4g: Amodal single-view single-shot se (3) grasp detection in cluttered scenes." Conference on robot learning. PMLR, 2020.[3] Ten Pas, Andreas, et al. "Grasp pose detection in point clouds." The International Journal of Robotics Research 36.13-14 (2017): 1455-1473.[4] De Brabandere, Bert, Davy Neven, and Luc Van Gool. "Semantic instance segmentation with a discriminative loss function." arXiv preprint arXiv:1708.02551 (2017).

IROS 2021 | 机器人Get抓取新技能,轻松帮你整理混乱桌面 第9张

cc博客网cc博客网(公众号:cc博客网)cc博客网

cc博客网版权文章,未经授权禁止转载。详情见转载须知。

Tags:

文章评论