CN108748149A - 一种复杂环境下基于深度学习的无标定机械臂抓取方法 - Google Patents
一种复杂环境下基于深度学习的无标定机械臂抓取方法 Download PDFInfo
- Publication number
- CN108748149A CN108748149A CN201810564613.6A CN201810564613A CN108748149A CN 108748149 A CN108748149 A CN 108748149A CN 201810564613 A CN201810564613 A CN 201810564613A CN 108748149 A CN108748149 A CN 108748149A
- Authority
- CN
- China
- Prior art keywords
- handgrip
- target object
- mechanical arm
- axis direction
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
Abstract
本发明涉及基于视觉的机械臂抓取物体方法,特别是一种复杂环境下基于深度学习的无标定机械臂抓取方法。其步骤包括:S10,搭建YOLOv2物体检测模型;S20,设定目标物体、摄像机和机械臂三者之间的位置关系;S30,对包含目标物体的图片中的各类物体进行检测,输出检测结果;S40,初始化机械臂末端抓手的位置和抓取姿态,对机械臂的抓手进行检测,输出检测结果;S50,摄像机对目标物体和抓手进行检测,输出检测信息;S60,结合P控制和闭环控制方法控制机械臂向目标物体移动;S70,抓取目标物体。本发明的机械臂抓取目标物的方法,可以适应在复杂环境下的目标物抓取,大大减少了数据处理的复杂度和数据计算量,提高抓取效率。
Description
技术领域
本发明涉及基于视觉的机械臂抓取物体方法,特别是一种复杂环境下基于深度学习的无标定机械臂抓取方法。
背景技术
在实现基于视觉的机械臂物体抓取的过程中,需要用摄像机采集目标物体图片、标定摄像机和机械臂之间的相对位置,计算目标物体的三维信息。
现有技术中基于视觉的机械臂物体抓取主要有三种:第一种,单个物体的环境下,摄像机和机械臂的位置固定,手眼关系标定,使用彩色相机结合深度相机的摄像机采集图片,计算目标物体在摄像机坐标系下的三维坐标,根据摄像机坐标系和机械臂坐标系之间的转换矩阵,计算出目标物体在机械臂坐标系下三维坐标;再控制机械臂进行抓取;第二种,单个物体的环境下,摄像机和机械臂的位置固定,手眼关系标定,采用双目摄像机或多个摄像机采集物体的信息,对目标物体进行三维重构,得到目标物体的形状信息和三维坐标,最后控制机械臂进行抓取;第三种,单个物体的情况下,摄像机和机械臂位置固定,手眼关系没有标定,利用雅可比矩阵,直接从图像上观察机器人抓手和目标物体的位置误差计算出为消除这个误差机器人手抓的期望运动。
由于通过摄像机控制机械臂抓取目标物体,涉及到目标图像坐标系、机械臂坐标系和摄像机坐标系等三个坐标系,以上三种方法中,涉及到矩阵计算或三维重构目标物体,其数据处理方法复杂,计算量大;并且以上抓取方法只适用于单个物体存在的环境下,无法在多个物体存在的复杂环境下进行物体抓取。
发明内容
针对以上不足,本发明提供了一种复杂环境下基于深度学习的无标定机械臂抓取方法,该方法不仅能够在多个物体存在的复杂环境中识别多个物体类别,根据需要抓取目标物体,而且在抓取前不需要对摄像机和机械臂之间的相对位置进行繁杂的标定,大大减少了数据处理的复杂度和数据计算量。
本发明的技术方案为:
一种复杂环境下基于深度学习的无标定机械臂抓取方法,包括以下步骤:
S10,搭建YOLOv2物体检测模型;
S20,设定目标物体、摄像机和机械臂三者之间的位置关系,使图像坐标系的u坐标轴方向与机械臂坐标系的YR坐标轴方向相对应,摄像机坐标系的ZC坐标轴方向与机械臂坐标系的XR坐标轴方向相对应;
S30,YOLOv2物体检测模型对包含目标物体的图片中的各类物体进行检测,输出检测信息;
S40,初始化机械臂末端抓手的位置和抓取姿态,YOLOv2物体检测模型对抓手进行检测,输出检测信息;
S50,摄像机对目标物体和抓手进行检测,输出检测信息;
S60,结合P控制和闭环控制方法控制机械臂向目标物体移动;
S70,抓取目标物体。
所述步骤S60具体为:
S61,计算出在图像坐标系的u坐标轴方向上机械臂的抓手边界框中心点和目标物体边界框中心点的距离du;
S62,使用P控制算法计算出抓手在机械臂坐标系的YR坐标轴方向上需要移动的距离dr_y=du×P1,P1为控制系数;
S63,控制机械臂在YR坐标轴方向上朝目标物体移动,实时检测抓手位置并计算出du,直到|du|≤Threshdu,Threshdu为抓手和目标物体在图像坐标系的u坐标轴方向上的距离阈值;
S64,计算出在摄像机坐标系的ZC坐标轴方向上机械臂的抓手和目标物体的距离dz;
S65,使用P控制算法计算出抓手在机械臂坐标系的XR坐标轴方向上需要移动的距离dr_x=dz×P2,P2为控制系数;
S66,控制机械臂在XR坐标轴方向上朝目标物体移动,实时检测抓手位置并计算出dz,直到|dz|≤Threshdz,Threshdz为抓手和目标物体在摄像机坐标系的ZC坐标轴方向上的距离阈值;
S67,控制机械臂垂直向下运动至抓手距离工作台3cm处。
所述步骤S61中距离du的计算方法为:所述步骤S30中输出的检测信息包括目标物体边界框的中心点在图像坐标系中的坐标(Uobject,Vobject),所述步骤S40中输出的检测信息包括抓手边界框的中心点在图像坐标系中的坐标(Urobot,Vrobot),所述du=Urobot-Uobject。
所述步骤S64中距离dz的计算方法为:所述步骤S50输出目标物体和抓手边界框对应的深度信息,使用聚类算法根据目标物体和抓手边界框对应的深度信息,分别计算出目标物体和抓手到摄像机的距离dobject和drobot,所述dz=drobot-dobject。
在使用聚类算法计算目标物体到摄像机的距离时,使用目标物体边界框对应的深度值,将各个深度值对应的像素个数按降序排列,取对应像素个数最多的深度值为距离dobject;当使用聚类算法计算抓手到摄像机的距离时,使用抓手边界框对应的深度值,将各个深度值对应的像素个数按降序排列,取对应像素个数最多的深度值为距离drobot。
所述步骤S50和步骤S60之间还包括以下步骤:根据S30输出的检测信息计算出目标物体的高宽比,根据目标物体的高宽比调整机械臂的抓手的抓取姿态。
所述抓取姿态有三种:竖向垂直于工作台、横向垂直于工作台和平行于工作台,不同抓取姿态与目标物体高宽比关系为,当高宽比≤r1时,抓取姿态为竖向垂直于工作台,当r1<高宽比<r2时,抓取姿态为横向垂直于工作台,当高宽比≥r2时,抓取姿态为平行于工作台,所述r1、r2为高宽比参数。
所述步骤S10的YOLOv2物体检测模型的搭建过程包括以下步骤:
S11,使用图像采集设备,采集N类物体的图片,每类物体有M张图片(M≥200);
S12,使用软件标出M×N张图片中各类物体的类别和边界框;
S13,每类物体随机选取0.8×M张图片作为训练集,随机选取0.2×M张图片作为测试集;
S14,使用训练集训练YOLOv2模型,使用测试集测试YOLOv2模型,得到含有模型参数的YOLOv2物体检测模型。
所述步骤S30输出的检测信息还包括各类物体的类别和置信率。
本发明通过搭建YOLOv2物体检测模型,能够在多个物体存在的复杂环境下按照目标物体的类别,实施目标物体的依次抓取。YOLOv2物体检测模型反馈目标物体边界框的长度信息,跟据边界框的长度信息计算出高宽比,从而调整抓手的抓取姿态,保证抓取操作的准确无误;YOLOv2物体检测模型还反馈目标物体和抓手的边界框中心点,可以计算两中心点在图像坐标系的u坐标轴方向上的距离,同时,利用摄像机采集目标物体和抓手边界框对应的深度信息,可以计算两者在摄像机坐标系的ZC坐标轴方向上的距离;由于图像坐标系的u坐标轴方向与机械臂坐标系的YR坐标轴方向相对应,摄像机坐标系的ZC坐标轴方向与机械臂坐标系的XR坐标轴方向相对应,可以通过P控制和闭环控制方法,控制机械臂在机械臂坐标系的YR坐标轴和XR坐标轴方向上移动以上两个距离,使机械臂处于目标物体的上方,向下移动,即可抓取物体。
本发明的机械臂抓取目标物的方法,无需大量的数据计算,且可以适应在复杂环境下对不同种类目标物抓取,大大减少了数据处理的复杂度和数据计算量,降低计算成本,提高抓取效率。
附图说明
图1为本发明机械臂抓取方法流程图;
图2为本发明步骤S80的流程图;
图3为本发明步骤S10的流程图;
图4为本发明抓取方法的实施场景图;
图5为本发明的YOLOv2物体检测模型结构图;
图6为本发明的机械臂抓手的三种抓取姿态与目标物体高宽比的对比图。
具体实施方式
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
参考图1,本发明的复杂环境下基于深度学习的无标定机械臂抓取方法,包括以下步骤:
S10,搭建YOLOv2物体检测模型;
YOLOv2是基于深度学习方法的端到端实时目标检测系统,与其它的检测系统R-CNN和SSD相比,其精确度更高,检测速度更快,可用于快速、准确以及识别大范围种类数量。其模型结构图如图5所示。
如图3所示,YOLOv2物体检测模型的搭建过程包括以下步骤:
S11,使用图像采集设备,采集N类物体的图片,每类物体有M张图片,M≥200;
S12,使用labelImg软件标出M×N张图片中各类物体的类别和边界框;
S13,每类物体随机选取0.8×M张图片作为训练集,随机选取0.2×M张图片作为测试集;
S14,按照Darknet官网给出的教程安装Darknet框架,选择YOLOv2模型作为训练模型,使用训练集训练YOLOv2模型,使用测试集测试YOLOv2模型,得到含有模型参数的YOLOv2物体检测模型。
S20,如图4所示,设定目标物体10、摄像机20和机械臂30三者之间的位置关系,右侧由上至下分别是机械臂坐标系、摄像机坐标系和图像坐标系,其中图像坐标系的u坐标轴方向与机械臂坐标系的YR坐标轴方向相对应,摄像机坐标系的ZC坐标轴方向与机械臂坐标系的XR坐标轴方向相对应;
S30,YOLOv2物体检测模型对包含目标物体10的图片中的各类物体进行检测,输出各类物体类别、置信率及各类物体在图像坐标系中的边界框的中心点(Uobject,Vobject)、各类物体边界框的宽w和高h;
S40,初始化机械臂30末端抓手31的位置和抓取姿态,YOLOv2物体检测模型对抓手31进行检测,输出抓手31边界框的中心点(Urobot,Vrobot);
S50,利用摄像机20检测目标物体10和抓手31边界框对应的深度信息;
S60,计算目标物体10的高宽比ratio,ratio=h/w;
S70,根据目标物体10的高宽比ratio调整机械臂30的抓手31的抓取姿态;如图6所示,抓取姿态有三种:A、竖向垂直于工作台,B、横向垂直于工作台,C、平行于工作台,不同抓取姿态与目标物体10高宽比ratio关系为,当ratio≤r1时,抓取姿态为A:竖向垂直于工作台,当r1<ratio<r2时,抓取姿态为B:横向垂直于工作台,当ratio≥r2时,抓取姿态为C:平行于工作台,r1、r2为高宽比参数。
S80,如图2所示,结合P控制和闭环控制方法控制机械臂30向目标物体10移动;
S81,计算在图像坐标系的u坐标轴方向上机械臂30的抓手31边界框中心点和目标物体10边界框中心点的距离du,du=Urobot-Uobject。
S82,使用P控制算法计算出抓手31在机械臂坐标系的YR坐标轴方向上(即图像坐标系的u坐标轴方向上)需要移动的距离dr_y=du×P1,P1为控制系数,du的正负代表移动的方向;
S83,控制机械臂30在YR坐标轴方向上朝目标物体10移动,实时检测抓手31位置并计算出du,直到|du|≤Threshdu,Threshdu为抓手31和目标物体10在图像坐标系的u坐标轴方向上的距离阈值,当距离du小于该阈值时认为抓手31和目标物体10在图像坐标系的v坐标轴方向上对齐;
S84,计算在摄像机坐标系的ZC坐标轴方向上机械臂30的抓手31和目标物体10的距离dz,dz=drobot-dobject;
使用聚类算法根据目标物体10边界框对应的深度信息计算出目标物体10到摄像机20的距离dobject,使用目标物体边界框的深度值,将各个深度值对应的像素个数按降序排列,取对应像素个数最多的深度值为距离dobject;
按使用聚类算法根据抓手31边界框对应的深度信息计算出抓手31到摄像机20的距离drobot,使用抓手边界框对应的深度值,将各个深度值对应的像素个数按降序排列,取对应像素个数最多的深度值为距离drobot;
S85,使用P控制算法计算出抓手31在机械臂坐标系的XR坐标轴方向上(即摄像机坐标系的ZC坐标轴方向上)需要移动的距离dr_x=dz×P2,P2为控制系数,dz的正负代表移动的方向;
S86,控制机械臂30在XR坐标轴方向上朝目标物体10移动,实时检测抓手31位置并计算出dz,直到|dz|≤Threshdz,Threshdz为抓手31和目标物体10在摄像机坐标系的ZC坐标轴方向上的距离阈值,当距离dz小于该阈值时认为抓手31和目标物体10在摄像机坐标系的YC坐标轴方向上对齐;
S87,此时抓手31位于目标物体10的正上方,控制机械臂30垂直向下运动至抓手31距离工作台3cm处。
S90,闭合抓手31,抓取目标物体10,并将其放置到指定位置。
循环执行步骤S40-S90,直至将工作台上所有物体抓取、放置到指定位置,结束抓取任务。
以上公开的仅为本发明的实施例,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (9)
1.一种复杂环境下基于深度学习的无标定机械臂抓取方法,其特征在于,包括以下步骤:
S10,搭建YOLOv2物体检测模型;
S20,设定目标物体(10)、摄像机(20)和机械臂(30)三者之间的位置关系,使图像坐标系的u坐标轴方向与机械臂坐标系的YR坐标轴方向相对应,摄像机坐标系的ZC坐标轴方向与机械臂坐标系的XR坐标轴方向相对应;
S30,YOLOv2物体检测模型对包含目标物体(10)的图片中的各类物体进行检测,输出检测信息;
S40,初始化机械臂(30)末端抓手(31)的位置和抓取姿态,YOLOv2物体检测模型对抓手(31)进行检测,输出检测信息;
S50,摄像机(20)对目标物体(10)和抓手(31)进行检测,输出检测信息;
S60,结合P控制和闭环控制方法控制机械臂(30)向目标物体(10)移动;
S70,抓取目标物体(10)。
2.根据权利要求1所述的抓取方法,其特征在于,所述步骤S60具体为:
S61,计算出在图像坐标系的u坐标轴方向上机械臂(30)的抓手(31)边界框中心点和目标物体(10)边界框中心点的距离du;
S62,使用P控制算法计算出抓手(31)在机械臂坐标系的YR坐标轴方向上需要移动的距离dr_y=du×P1,P1为控制系数;
S63,控制机械臂(30)在YR坐标轴方向上朝目标物体(10)移动,实时检测抓手(31)位置并计算出du,直到|du|≤Threshdu,Threshdu为抓手(31)和目标物体(10)在图像坐标系的u坐标轴方向上的距离阈值;
S64,计算出在摄像机坐标系的ZC坐标轴方向上机械臂(30)的抓手(31)和目标物体(10)的距离dz;
S65,使用P控制算法计算出抓手(31)在机械臂坐标系的XR坐标轴方向上需要移动的距离dr_x=dz×P2,P2为控制系数;
S66,控制机械臂(30)在XR坐标轴方向上朝目标物体(10)移动,实时检测抓手(31)位置并计算出dz,直到|dz|≤Threshdz,Threshdz为抓手(31)和目标物体(10)在摄像机坐标系的ZC坐标轴方向上的距离阈值;
S67,控制机械臂(30)垂直向下运动至抓手(31)距离工作台3cm处。
3.根据权利要求2所述的抓取方法,其特征在于,所述步骤S61中距离du的计算方法为:所述步骤S30中输出的检测信息包括目标物体(10)边界框的中心点在图像坐标系中的坐标(Uobject,Vobject),所述步骤S40中输出的检测信息包括抓手(31)边界框的中心点在图像坐标系中的坐标(Urobot,Vrobot),所述du=Urobot-Uobject。
4.根据权利要求2所述的抓取方法,其特征在于,所述步骤S64中距离dz的计算方法为:所述步骤S50输出目标物体(10)和抓手(31)边界框对应的深度信息,使用聚类算法根据目标物体(10)和抓手(31)边界框对应的深度信息,分别计算出目标物体(10)和抓手(31)到摄像机(20)的距离dobject和drobot,所述dz=drobot-dobject。
5.根据权利要求4所述的抓取方法,其特征在于,在使用聚类算法计算目标物体(10)到摄像机(20)的距离时,使用目标物体(10)边界框对应的深度值,将各个深度值对应的像素个数按降序排列,取对应像素个数最多的深度值为距离dobject;当使用聚类算法计算抓手(31)到摄像机(20)的距离时,使用抓手(31)边界框对应的深度值,将各个深度值对应的像素个数按降序排列,取对应像素个数最多的深度值为距离drobot。
6.根据权利要求3-5中任一项所述的抓取方法,其特征在于,所述步骤S50和步骤S60之间还包括以下步骤:根据S30输出的检测信息计算出目标物体(10)的高宽比,根据目标物体(10)的高宽比调整机械臂(30)的抓手(31)的抓取姿态。
7.根据权利要求6中任一项所述的抓取方法,其特征在于,所述抓取姿态有三种:竖向垂直于工作台、横向垂直于工作台和平行于工作台,不同抓取姿态与目标物体(10)高宽比关系为,当高宽比≤r1时,抓取姿态为竖向垂直于工作台,当r1<高宽比<r2时,抓取姿态为横向垂直于工作台,当高宽比≥r2时,抓取姿态为平行于工作台,所述r1、r2为高宽比参数。
8.根据权利要求7所述的抓取方法,其特征在于,所述步骤S10的YOLOv2物体检测模型的搭建过程包括以下步骤:
S11,使用图像采集设备,采集N类物体的图片,每类物体有M张图片(M≥200);
S12,使用软件标出M×N张图片中各类物体的类别和边界框;
S13,每类物体随机选取0.8×M张图片作为训练集,随机选取0.2×M张图片作为测试集;
S14,使用训练集训练YOLOv2模型,使用测试集测试YOLOv2模型,得到含有模型参数的YOLOv2物体检测模型。
9.根据权利要求7所述的抓取方法,其特征在于,所述步骤S30输出的检测信息还包括各类物体的类别和置信率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810564613.6A CN108748149B (zh) | 2018-06-04 | 2018-06-04 | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810564613.6A CN108748149B (zh) | 2018-06-04 | 2018-06-04 | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108748149A true CN108748149A (zh) | 2018-11-06 |
CN108748149B CN108748149B (zh) | 2021-05-28 |
Family
ID=64002484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810564613.6A Active CN108748149B (zh) | 2018-06-04 | 2018-06-04 | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108748149B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110245689A (zh) * | 2019-05-23 | 2019-09-17 | 杭州有容智控科技有限公司 | 基于机器视觉的盾构刀具识别与定位检测方法 |
CN111546344A (zh) * | 2020-05-18 | 2020-08-18 | 北京邮电大学 | 一种用于对准的机械臂控制方法 |
CN111898481A (zh) * | 2020-07-14 | 2020-11-06 | 济南信通达电气科技有限公司 | 一种指针式分合闸指示器的状态识别方法及设备 |
CN113313686A (zh) * | 2021-05-28 | 2021-08-27 | 大庆市普庆密封材料配件有限公司 | 一种抽油机基础修复粘结剂及检修工艺 |
CN113305848A (zh) * | 2021-06-11 | 2021-08-27 | 哈尔滨工业大学 | 一种基于YOLO v2网络的实时抓取检测方法 |
CN114926527A (zh) * | 2022-06-08 | 2022-08-19 | 哈尔滨理工大学 | 一种复杂背景下的机械臂抓取位姿检测方法 |
CN115319739A (zh) * | 2022-08-02 | 2022-11-11 | 中国科学院沈阳自动化研究所 | 一种基于视觉机械臂抓取工件方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103963058A (zh) * | 2014-04-30 | 2014-08-06 | 重庆环视科技有限公司 | 基于多方位视觉定位的机械手臂抓取控制系统及方法 |
CN104608149A (zh) * | 2013-11-05 | 2015-05-13 | 发那科株式会社 | 用机器人来取出散装物品的装置以及方法 |
CN105313126A (zh) * | 2014-07-29 | 2016-02-10 | 精工爱普生株式会社 | 控制系统、机器人系统、以及控制方法 |
CN106651949A (zh) * | 2016-10-17 | 2017-05-10 | 中国人民解放军63920部队 | 一种基于仿真的空间机械臂抓捕目标遥操作方法及系统 |
CN107291811A (zh) * | 2017-05-18 | 2017-10-24 | 浙江大学 | 一种基于云端知识融合的感认知增强机器人系统 |
EP3284563A2 (en) * | 2016-08-17 | 2018-02-21 | Kabushiki Kaisha Yaskawa Denki | Picking system |
CN107767423A (zh) * | 2017-10-10 | 2018-03-06 | 大连理工大学 | 一种基于双目视觉的机械臂目标定位抓取方法 |
CN107972026A (zh) * | 2016-10-25 | 2018-05-01 | 深圳光启合众科技有限公司 | 机器人、机械臂及其控制方法和装置 |
-
2018
- 2018-06-04 CN CN201810564613.6A patent/CN108748149B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104608149A (zh) * | 2013-11-05 | 2015-05-13 | 发那科株式会社 | 用机器人来取出散装物品的装置以及方法 |
CN103963058A (zh) * | 2014-04-30 | 2014-08-06 | 重庆环视科技有限公司 | 基于多方位视觉定位的机械手臂抓取控制系统及方法 |
CN105313126A (zh) * | 2014-07-29 | 2016-02-10 | 精工爱普生株式会社 | 控制系统、机器人系统、以及控制方法 |
EP3284563A2 (en) * | 2016-08-17 | 2018-02-21 | Kabushiki Kaisha Yaskawa Denki | Picking system |
CN106651949A (zh) * | 2016-10-17 | 2017-05-10 | 中国人民解放军63920部队 | 一种基于仿真的空间机械臂抓捕目标遥操作方法及系统 |
CN107972026A (zh) * | 2016-10-25 | 2018-05-01 | 深圳光启合众科技有限公司 | 机器人、机械臂及其控制方法和装置 |
CN107291811A (zh) * | 2017-05-18 | 2017-10-24 | 浙江大学 | 一种基于云端知识融合的感认知增强机器人系统 |
CN107767423A (zh) * | 2017-10-10 | 2018-03-06 | 大连理工大学 | 一种基于双目视觉的机械臂目标定位抓取方法 |
Non-Patent Citations (2)
Title |
---|
李云鹏等: "基于YOLOv2的复杂场景下车辆目标检测", 《电视技术》 * |
杜学丹等: "一种基于深度学习的机械臂抓取方法", 《机器人》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110245689A (zh) * | 2019-05-23 | 2019-09-17 | 杭州有容智控科技有限公司 | 基于机器视觉的盾构刀具识别与定位检测方法 |
CN111546344A (zh) * | 2020-05-18 | 2020-08-18 | 北京邮电大学 | 一种用于对准的机械臂控制方法 |
CN111898481A (zh) * | 2020-07-14 | 2020-11-06 | 济南信通达电气科技有限公司 | 一种指针式分合闸指示器的状态识别方法及设备 |
CN113313686A (zh) * | 2021-05-28 | 2021-08-27 | 大庆市普庆密封材料配件有限公司 | 一种抽油机基础修复粘结剂及检修工艺 |
CN113305848A (zh) * | 2021-06-11 | 2021-08-27 | 哈尔滨工业大学 | 一种基于YOLO v2网络的实时抓取检测方法 |
CN114926527A (zh) * | 2022-06-08 | 2022-08-19 | 哈尔滨理工大学 | 一种复杂背景下的机械臂抓取位姿检测方法 |
CN115319739A (zh) * | 2022-08-02 | 2022-11-11 | 中国科学院沈阳自动化研究所 | 一种基于视觉机械臂抓取工件方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108748149B (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108748149A (zh) | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 | |
CN108555908B (zh) | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 | |
CN109255813B (zh) | 一种面向人机协作的手持物体位姿实时检测方法 | |
CN110555889B (zh) | 一种基于CALTag和点云信息的深度相机手眼标定方法 | |
JP5282717B2 (ja) | ロボットシステム | |
CN110211180A (zh) | 一种基于深度学习的机械臂自主抓取方法 | |
CN106530276B (zh) | 一种用于非标准件抓取的机械手定位方法以及定位系统 | |
CN106485746A (zh) | 基于图像无标定的视觉伺服机械手及其控制方法 | |
CN110378325B (zh) | 一种机器人抓取过程中的目标位姿识别方法 | |
CN111151463A (zh) | 一种基于3d视觉的机械臂分拣抓取系统及方法 | |
CN104959989A (zh) | 一种视觉引导下的电梯门板上料定位方法 | |
JP2012101320A (ja) | 画像生成装置、画像生成方法、およびプログラム | |
CN108090896B (zh) | 木板平整度检测及其机器学习方法、装置及电子设备 | |
CN110509273A (zh) | 基于视觉深度学习特征的机器人机械手检测及抓取方法 | |
CN114029243B (zh) | 一种用于分拣机器手的软物抓取识别方法 | |
CN114155301A (zh) | 一种基于Mask R-CNN和双目相机的机器人目标定位和抓取方法 | |
CN112372641B (zh) | 一种基于视觉前馈与视觉反馈的家庭服务机器人物品抓取方法 | |
WO2022021156A1 (zh) | 用于机器人抓取三维物体的方法和装置 | |
CN110009689A (zh) | 一种用于协作机器人位姿估计的图像数据集快速构建方法 | |
JP7171294B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN108180825B (zh) | 一种基于线结构光的长方体形物体三维识别与定位方法 | |
CN110533717A (zh) | 一种基于双目视觉的目标抓取方法及装置 | |
CN106622990B (zh) | 零件定位识别处理系统 | |
CN211028657U (zh) | 一种智能焊接机器人系统 | |
CN109895095B (zh) | 一种训练样本的获取方法、装置和机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |