CN114347028B - 一种基于rgb-d图像的机器人末端智能抓取方法 - Google Patents
一种基于rgb-d图像的机器人末端智能抓取方法 Download PDFInfo
- Publication number
- CN114347028B CN114347028B CN202210021781.7A CN202210021781A CN114347028B CN 114347028 B CN114347028 B CN 114347028B CN 202210021781 A CN202210021781 A CN 202210021781A CN 114347028 B CN114347028 B CN 114347028B
- Authority
- CN
- China
- Prior art keywords
- grabbing
- robot
- rectangular frame
- rgb
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000003062 neural network model Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 7
- 238000013145 classification model Methods 0.000 claims abstract description 5
- 238000013459 approach Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 15
- 239000012636 effector Substances 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于RGB‑D图像的机器人末端智能抓取方法,机器人末端智能抓取装置包括六自由度机械臂、机械臂末端二指夹持器和RGB‑D相机。六自由度机械臂用于实现夹持器在三维空间内的移动,机械臂末端二指夹持器用于夹取目标物体,RGB‑D相机用于获取目标物体的信息。在Tensorflow深度学习框架下,通过建立基于ResNet的神经网络模型,建立基于抓取数据集的训练样本;将候选矩形送入卷积神经网络的抓取分类模型,得到抓取矩形预测框,利用RGB‑D相机获取抓取参数,最终使用六自由度机械臂和末端二指夹持器抓取目标物体。本发明使机器人能够实现智能抓取,提高了机器人末端抓取成功率。
Description
技术领域
本发明涉及机器人领域,具体涉及一种基于RGB-D图像的机器人末端智能抓取方法。
背景技术
随着智能技术的发展,人们对机器人抓取的要求越来越高,目前在生产线上工作的工业机器人大都是通过示教或预编程对其进行操作的,这样操作目标物体的初始位姿和终止位姿都是严格限定的,机器人只是完成点到点的动作,使得生产线的柔性较差,满足不了柔性生产系统对机器人抓取能力的要求。
发明内容
为了解决上述技术问题,本发明提供了一种基于RGB-D图像(具有深度信息的彩色图像)的机器人末端智能抓取方法,利用计算机视觉技术获取目标物体及其周围环境的信息,并能对目标物体的抓取位置做出决策,实现智能抓取。
一种基于RGB-D图像的机器人末端智能抓取方法,所述的机器人末端智能抓取装置包括六自由度机械臂、机械臂末端二指夹持器和RGB-D相机(即具有深度测量功能的彩色相机)。六自由度机械臂用来实现夹持器在三维空间内的移动,机械臂末端二指夹持器用来夹取目标物体,RGB-D相机用来获取目标物体的信息。
所述方法包括如下步骤:
步骤1:建立神经网络模型;以抓取物体信息为学习特征,建立基于卷积神经网络的抓取分类模型。
步骤2:建立基于抓取数据集的训练样本;训练样本是通过目标物体获得抓取矩形的抓取中心(r,c)、高度h、宽度w和角度angle,确定抓取所需的候选矩形框参数。
步骤3:建立抓取矩形框预测方式;在数据集上的预测,需要先得到一个物体所有的候选矩形框,然后将这些候选矩形送入神经网络打分,得到得分最高的几个矩形框。通过步骤2得到一个物体上的候选矩形,将候选矩形送入神经网络,得到预测的抓取矩形框。
步骤4:利用RGB-D相机获取抓取参数;将相机获取的点云数据,转换到机器人坐标系下,获得抓取的参数。
步骤5:使用末端执行器抓取目标物体;本方法使用的末端执行器是二指夹持器,只有开合,坐标系建立在二指夹持器的末端中心。根据矩形框内的三维点云得到末端夹持器的位姿,三维点云包括矩形框内部的目标物体上的点云和矩形框内的背景上的点云。
步骤6:重复步骤4-步骤5,完成机器人的末端智能抓取。
进一步地,步骤1中搭建平台采用Tensorflow平台,卷积神经网络选择基于ResNet的神经网络模型。
进一步地,步骤2中矩形中心点的获取具体为:先通过给定的背景与图片对比,得到目标物体在背景中的分割图像;横向和纵向分别以一定的等间距标记直线,既在直线交点上又在物体的分割图像上的点,就是所需要的矩形框的中心点;采样的间距根据实际的情况确定,如果目标物体整体在图像上的像素面积大,则适当地加大采样间距,相反,则适当地减小采样间距;根据数据集中的长和高,确定[h,w],共有16组组合;Angle,取与Y轴的夹角,每次都随机产生12个值,值分布在0~180之间。
进一步地,步骤3中如果预测的矩形框为Rect,数据集标注的矩形框为Rect*,判断一个矩形预测成功的两个条件:(1)预测的矩形框Rect和标注的矩形框Rect*的夹角小于30度;(2)预测的矩形框Rect和标注的矩形框Rect*的重叠率score大于25%。
进一步地,步骤4具体为:假设机器人坐标系为Xr Yr Zr,相机坐标系为的Xc YcZc,在空间取四个点,然后求出这四个点的平均值,分别将两个坐标系移动到均值点。假设有一个点在平移之后的机器人坐标系下坐标值为(x,y,z),在平移之后的相机下的坐标值为(x’,y’,z’),那么它们之间满足关系式:
其中R为旋转矩阵,矩阵大小为3×3。对于空间四个点,就有四个矩阵的等式,然后利用最小二乘法求解即可得到旋转矩阵。假设均值点在机器人坐标系Xr Yr Zr和相机坐标系Xc Yc Zc的坐标值分别为(x1,y1,z1)和(x1’,y1’,z1’),那么他们之间满足关系式:
其中T为平移分量,是一个3×1的矩阵,三个未知数,三个方程求出T。
进一步地,步骤5具体为:按照如下映射准则获取一组抓取参数:(1)末端夹持器的姿态:提取矩形框中心处点云,剔除掉那些不在物体上的点,用最小二乘法求取法向量。通过之前的标定,可以知道相机坐标系的原点在机器人坐标系中的位置,所求得的法向量与矩形框到相机坐标原点的向量夹角不要超过90度,否则取反方向。求得法向量之后,对法向量取反方向为二指夹持器的接近向量,也就是Z轴的方向,Y轴取长边W对应的方向。(2)末端二指夹持器的位置:先计算矩形框内的物体上三维点云的平均值,假设此点为A,末端二指夹持器的手指长度大概是65mm,将A点沿着接近向量方向移动45mm设为B点,B点就是手爪坐标系的位置,这样抓取物体的时候夹持器离物体大概20mm左右。但是如果此时手指碰到了桌面了,需要计算末端夹持器沿着接近向量接触到桌面的位置,假设为C点,那么此时C点就是末端二指夹持器的位置。夹持器的运动轨迹如图4所示,矩形框映射出来的抓取是位置C,位置B是由C沿着接近向量的反方向移动100mm,位置A是夹持器的初始位置。运动轨迹是先从初始位置A移动到B,再沿着接近向量的方向移动到C,然后闭合手指抓取物体,闭合完成之后,沿着夹持器的Z轴方向向上提升。
本发明的有益效果在于,在Tensorflow深度学习框架下,利用RGB-D相机用来获取目标物体的信息,基于神经网络模型实现抓取位姿的智能分类,并通过六自由度机械臂和末端二指夹持器,实现机器人的末端智能抓取。
附图说明
图1为机器人末端智能抓取方法的流程图;
图2为抓取矩形框参数与形式的示意图;
图3为矩形中心点(r,c)的获取示意图;
图4为末端夹持器的运动轨迹示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
一种基于RGB-D图像的机器人末端智能抓取方法,所述的机器人末端智能抓取装置包括六自由度机械臂、机械臂末端二指夹持器和RGB-D相机(即具有深度测量功能的彩色相机)。六自由度机械臂用来实现夹持器在三维空间内的移动,机械臂末端二指夹持器用来夹取目标物体,RGB-D相机用来获取目标物体的信息。
所述方法包括如下步骤:
步骤1:建立神经网络模型;为了实现对生活中常见物品的抓取,以抓取物体信息为学习特征,建立基于卷积神经网络的抓取分类模型。搭建平台采用Tensorflow平台,卷积神经网络选择基于ResNet的神经网络模型。
步骤2:建立基于抓取数据集的训练样本;训练样本是通过目标物体获得抓取矩形的抓取中心(r,c)、高度h、宽度w和角度angle。矩形框代表的是一种局部信息,包含了局部的颜色信息和局部的点云信息,由五个参数确定一个矩形框,即矩形框=(r,c,w,h,angle}。矩形中心点的获取,如图2所示,先通过给定的背景与图片对比,得到目标物体在背景中的分割图像。横向和纵向分别以一定的等间距标记直线,既在直线交点上又在物体的分割图像上的点,就是所需要的矩形框的中心点。采样的间距根据实际的情况确定,如果目标物体整体在图像上的像素面积大,则适当地加大采样间距,相反,则适当地减小采样间距。根据数据集中的长和高,确定[h,w],共有16组组合。[h,w]=[20,40;20,50;20,60;30,40;30,50;30,60;30,70;40,50;40,60;40,70;40,80;50,60;50,70;50,80;60,70;60,80],Angle,取与Y轴的夹角,每次都随机产生12个值,值分布在0~180之间。
步骤3:建立抓取矩形框预测方式;在数据集上的预测,需要先得到一个物体所有的候选矩形框,然后将这些候选矩形送入神经网络打分,得到得分最高的几个矩形框。通过步骤2得到一个物体上的候选矩形,将候选矩形送入神经网络,得到得分最高的五个矩形。这里需要说明的是,候选矩形框在送入神经网络打分之前,候选矩形框的缩放并不会采用和训练时一样严格的双线性插值的方法,而是采用python里面的cv2.resize函数直接实现。矩形中心点获取示意图如图3所示。如果预测的矩形框为Rect,数据集标注的矩形框为Rect*,判断一个矩形预测成功的两个条件:(1)预测的矩形框Rect和标注的矩形框Rect*的夹角小于30度;(2)预测的矩形框Rect和标注的矩形框Rect*的重叠率score大于25%。
步骤4:利用RGB-D相机获取抓取参数;将相机获取的点云数据,转换到机器人坐标系下,获得抓取的参数。假设机器人坐标系为Xr Yr Zr,相机坐标系为的Xc Yc Zc,在空间取四个点,然后求出这四个点的平均值,分别将两个坐标系移动到均值点。假设有一个点在平移之后的机器人坐标系下坐标值为(x,y,z),在平移之后的相机下的坐标值为(x’,y’,z’),那么它们之间满足关系式:
其中R为旋转矩阵,矩阵大小为3×3。对于空间四个点,就有四个矩阵的等式,然后利用最小二乘法求解即可得到旋转矩阵。假设均值点在机器人坐标系Xr Yr Zr和相机坐标系Xc Yc Zc的坐标值分别为(x1,y1,z1)和(x1’,y1’,z1’),那么他们之间满足关系式:
其中T为平移分量,是一个3×1的矩阵,三个未知数,三个方程求出T。
步骤5:使用末端执行器抓取目标物体;本方法使用的末端执行器是二指夹持器,只有开合,坐标系建立在二指夹持器的末端中心。根据矩形框内的三维点云得到末端夹持器的位姿,三维点云包括矩形框内部的目标物体上的点云和矩形框内的背景上的点云。
按照如下映射准则获取一组抓取参数:(1)末端夹持器的姿态:提取矩形框中心处点云,剔除掉那些不在物体上的点,用最小二乘法求取法向量。通过之前的标定,可以知道相机坐标系的原点在机器人坐标系中的位置,所求得的法向量与矩形框到相机坐标原点的向量夹角不要超过90度,否则取反方向。求得法向量之后,对法向量取反方向为二指夹持器的接近向量,也就是Z轴的方向,Y轴取长边W对应的方向。(2)末端二指夹持器的位置:先计算矩形框内的物体上三维点云的平均值,假设此点为A,末端二指夹持器的手指长度大概是65mm,将A点沿着接近向量方向移动45mm设为B点,B点就是手爪坐标系的位置,这样抓取物体的时候夹持器离物体大概20mm左右。但是如果此时手指碰到了桌面了,需要计算末端夹持器沿着接近向量接触到桌面的位置,假设为C点,那么此时C点就是末端二指夹持器的位置。夹持器的运动轨迹如图4所示,矩形框映射出来的抓取是位置C,位置B是由C沿着接近向量的反方向移动100mm,位置A是夹持器的初始位置。运动轨迹是先从初始位置A移动到B,再沿着接近向量的方向移动到C,然后闭合手指抓取物体,闭合完成之后,沿着夹持器的Z轴方向向上提升。
步骤6:通过抓取参数测试末端执行器抓取目标物体结果,并将测试结果与抓取位姿分类模型进行对比分析,得到更有效的抓取方法,实现基于RGB-D图像的机器人末端智能抓取。
本发明提出的一种基于RGB-D图像的机器人末端智能抓取方法,实现了机器人的智能抓取,可以在复杂的坏境下准确进行抓取位姿检测,提高智能抓取成功率。
应当理解的是,本说明书未详细阐述的部分均属于现有技术;上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (4)
1.一种基于RGB-D图像的机器人末端智能抓取方法,机器人末端智能抓取装置包括六自由度机械臂、末端执行器和RGB-D相机;六自由度机械臂用来实现末端执行器在三维空间内的移动,末端执行器用来夹取目标物体,RGB-D相机用来获取目标物体的信息;
其特征在于,所述方法包括如下步骤:
步骤1:建立神经网络模型;以抓取物体信息为学习特征,建立基于卷积神经网络的抓取分类模型;
步骤2:建立基于抓取数据集的训练样本;训练样本是通过目标物体获得抓取矩形的抓取中心(r,c)、高度h、宽度w和角度angle,确定抓取所需的候选矩形框参数;
步骤3:建立抓取矩形框预测方式;在数据集上的预测,需要先得到一个物体所有的候选矩形框,然后将这些候选矩形送入神经网络打分,得到得分最高的几个矩形框;通过步骤2得到一个物体上的候选矩形,将候选矩形送入神经网络,得到预测的抓取矩形框;
步骤4:利用RGB-D相机获取抓取参数;将相机获取的点云数据,转换到机器人坐标系下,获得抓取的参数;
步骤5:使用末端执行器抓取目标物体;本方法使用的末端执行器是二指夹持器,只有开合,坐标系建立在二指夹持器的末端中心;根据矩形框内的三维点云得到末端夹持器的位姿,三维点云包括矩形框内部的目标物体上的点云和矩形框内的背景上的点云;
步骤6:重复步骤4-步骤5,完成机器人的末端智能抓取;
所述的一种基于RGB-D图像的机器人末端智能抓取方法,其特征在于,步骤1中搭建平台采用Tensorflow平台,卷积神经网络选择基于ResNet的神经网络模型。
所述步骤2中矩形中心点的获取具体为:先通过给定的背景与图片对比,得到目标物体在背景中的分割图像;横向和纵向分别以一定的等间距标记直线,既在直线交点上又在物体的分割图像上的点,就是所需要的矩形框的中心点;采样的间距根据实际的情况确定,如果目标物体整体在图像上的像素面积大,则适当地加大采样间距,相反,则适当地减小采样间距;根据数据集中的长和高,确定[h,w],共有16组组合;Angle,取与Y轴的夹角,每次都随机产生12个值,值分布在0~180之间。
2.如权利要求1所述的一种基于RGB-D图像的机器人末端智能抓取方法,其特征在于,步骤3中如果预测的矩形框为Rect,数据集标注的矩形框为Rect*,判断一个矩形预测成功的两个条件:(1)预测的矩形框Rect和标注的矩形框Rect*的夹角小于30度;(2)预测的矩形框Rect和标注的矩形框Rect*的重叠率score大于25%;
。
3.如权利要求1所述的一种基于RGB-D图像的机器人末端智能抓取方法,其特征在于,步骤4具体为:假设机器人坐标系为Xr Yr Zr,相机坐标系为的Xc Yc Zc,在空间取四个点,然后求出这四个点的平均值,分别将两个坐标系移动到均值点;假设有一个点在平移之后的机器人坐标系下坐标值为(x,y,z),在平移之后的相机下的坐标值为(x’,y’,z’),那么它们之间满足关系式:
其中R为旋转矩阵,矩阵大小为3×3;对于空间四个点,就有四个矩阵的等式,然后利用最小二乘法求解即可得到旋转矩阵;假设均值点在机器人坐标系Xr Yr Zr和相机坐标系XcYc Zc的坐标值分别为(x1,y1,z1)和(x1’,y1’,z1’),那么他们之间满足关系式:
其中T为平移分量,是一个3×1的矩阵,三个未知数,三个方程求出T。
4.如权利要求1所述的一种基于RGB-D图像的机器人末端智能抓取方法,其特征在于,步骤5具体为:按照如下映射准则获取一组抓取参数:(1)末端夹持器的姿态:提取矩形框中心处点云,剔除掉那些不在物体上的点,用最小二乘法求取法向量;通过之前的标定,获得相机坐标系的原点在机器人坐标系中的位置,所求得的法向量与矩形框到相机坐标原点的向量夹角不要超过90度,否则取反方向;求得法向量之后,对法向量取反方向为二指夹持器的接近向量,也就是Z轴的方向,Y轴取长边W对应的方向;(2)末端二指夹持器的位置:先计算矩形框内的物体上三维点云的平均值,假设此点为A,末端二指夹持器的手指长度是65mm,将A点沿着接近向量方向移动45mm设为B点,B点就是手爪坐标系的位置,这样抓取物体的时候夹持器离物体20mm;但是如果此时手指碰到了桌面,需要计算末端夹持器沿着接近向量接触到桌面的位置,假设为C点,那么此时C点就是末端二指夹持器的位置;矩形框映射出来的抓取是位置C,位置B是由C沿着接近向量的反方向移动100mm,位置A是夹持器的初始位置;运动轨迹是先从初始位置A移动到B,再沿着接近向量的方向移动到C,然后闭合手指抓取物体,闭合完成之后,沿着夹持器的Z轴方向向上提升。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210021781.7A CN114347028B (zh) | 2022-01-10 | 2022-01-10 | 一种基于rgb-d图像的机器人末端智能抓取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210021781.7A CN114347028B (zh) | 2022-01-10 | 2022-01-10 | 一种基于rgb-d图像的机器人末端智能抓取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114347028A CN114347028A (zh) | 2022-04-15 |
CN114347028B true CN114347028B (zh) | 2023-12-22 |
Family
ID=81108354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210021781.7A Active CN114347028B (zh) | 2022-01-10 | 2022-01-10 | 一种基于rgb-d图像的机器人末端智能抓取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114347028B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782827B (zh) * | 2022-06-22 | 2022-10-14 | 中国科学院微电子研究所 | 一种基于图像的物体抓取点获取方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106737692A (zh) * | 2017-02-10 | 2017-05-31 | 杭州迦智科技有限公司 | 一种基于深度投影的机械手爪抓取规划方法及控制装置 |
JP2019029021A (ja) * | 2017-07-30 | 2019-02-21 | 国立大学法人 奈良先端科学技術大学院大学 | 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法 |
CN109584298A (zh) * | 2018-11-07 | 2019-04-05 | 上海交通大学 | 面向机器人自主物体拾取任务的在线自学习方法 |
WO2020207017A1 (zh) * | 2019-04-11 | 2020-10-15 | 上海交通大学 | 农业场景无标定机器人运动视觉协同伺服控制方法与设备 |
CN112171661A (zh) * | 2020-08-25 | 2021-01-05 | 广西大学 | 一种基于视觉信息融合的机械臂抓取目标物体方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11179852B2 (en) * | 2019-03-25 | 2021-11-23 | Dishcraft Robotics, Inc. | Automated manipulation of transparent vessels |
-
2022
- 2022-01-10 CN CN202210021781.7A patent/CN114347028B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106737692A (zh) * | 2017-02-10 | 2017-05-31 | 杭州迦智科技有限公司 | 一种基于深度投影的机械手爪抓取规划方法及控制装置 |
JP2019029021A (ja) * | 2017-07-30 | 2019-02-21 | 国立大学法人 奈良先端科学技術大学院大学 | 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法 |
CN109584298A (zh) * | 2018-11-07 | 2019-04-05 | 上海交通大学 | 面向机器人自主物体拾取任务的在线自学习方法 |
WO2020207017A1 (zh) * | 2019-04-11 | 2020-10-15 | 上海交通大学 | 农业场景无标定机器人运动视觉协同伺服控制方法与设备 |
CN112171661A (zh) * | 2020-08-25 | 2021-01-05 | 广西大学 | 一种基于视觉信息融合的机械臂抓取目标物体方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114347028A (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695562B (zh) | 一种基于卷积神经网络的机器人自主抓取方法 | |
CN112297013B (zh) | 一种基于数字孪生和深度神经网络的机器人智能抓取方法 | |
JP2018205929A (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
CN108748149B (zh) | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 | |
CN110298886B (zh) | 一种基于四级卷积神经网络的灵巧手抓取规划方法 | |
CN110378325B (zh) | 一种机器人抓取过程中的目标位姿识别方法 | |
CN110900581A (zh) | 基于RealSense相机的四自由度机械臂视觉伺服控制方法及装置 | |
EA038279B1 (ru) | Способ и система захвата объекта с помощью роботизированного устройства | |
CN115816460B (zh) | 一种基于深度学习目标检测与图像分割的机械手抓取方法 | |
CN114347028B (zh) | 一种基于rgb-d图像的机器人末端智能抓取方法 | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作系统 | |
CN113119108A (zh) | 一种二指机械臂抓取方法、系统、装置及存储介质 | |
JP7051751B2 (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
CN116968022B (zh) | 一种基于视觉引导的机械臂抓取目标物体方法及系统 | |
CN115861780B (zh) | 一种基于yolo-ggcnn的机械臂检测抓取方法 | |
CN117340929A (zh) | 一种基于三维点云数据的柔性夹爪抓取处置装置及方法 | |
CN114998573B (zh) | 一种基于rgb-d特征深度融合的抓取位姿检测方法 | |
Ouyang et al. | Robot grasp with multi-object detection based on RGB-D image | |
Wan et al. | Planning grasps for assembly tasks | |
CN212724028U (zh) | 视觉机器人抓取系统 | |
CN211890823U (zh) | 基于RealSense相机的四自由度机械臂视觉伺服控制系统 | |
Ren et al. | Vision based object grasping of robotic manipulator | |
Yu et al. | A cascaded deep learning framework for real-time and robust grasp planning | |
JP2021061014A (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
CN117103272B (zh) | 多形态障碍物整理机械臂的平推和多自由度抓取控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |