CN111151463A - 一种基于3d视觉的机械臂分拣抓取系统及方法 - Google Patents

一种基于3d视觉的机械臂分拣抓取系统及方法 Download PDF

Info

Publication number
CN111151463A
CN111151463A CN201911346694.3A CN201911346694A CN111151463A CN 111151463 A CN111151463 A CN 111151463A CN 201911346694 A CN201911346694 A CN 201911346694A CN 111151463 A CN111151463 A CN 111151463A
Authority
CN
China
Prior art keywords
grabbing
module
camera
mechanical arm
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911346694.3A
Other languages
English (en)
Inventor
吕泽杉
李源
韩华涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Radio Measurement
Original Assignee
Beijing Institute of Radio Measurement
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Radio Measurement filed Critical Beijing Institute of Radio Measurement
Priority to CN201911346694.3A priority Critical patent/CN111151463A/zh
Publication of CN111151463A publication Critical patent/CN111151463A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/02Measures preceding sorting, e.g. arranging articles in a stream orientating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C2501/00Sorting according to a characteristic or feature of the articles or material to be sorted
    • B07C2501/0063Using robots

Abstract

本发明公开一种基于3D视觉的机械臂分拣抓取系统,包括相互交互的双目图像采集模块、深度信息解算模块、单次目标检测器模块、抓取策略框生成模块、空间位姿解算模块和机械臂抓取模块。通过将双目图像采集模块、深度信息解算模块、单次目标检测器模块、抓取策略框生成模块、空间位姿解算模块以及机械臂抓取模块之间进行相互配合,解决机器人抓手在抓取物体时,精度不高、准确度不高的问题。本发明原理简单、方便实用、缩减了开发时间,提高了工业生产的效率。

Description

一种基于3D视觉的机械臂分拣抓取系统及方法
技术领域
本发明涉及机电控制、计算机视觉和深度学习技术领域,且更具体地来说,涉及一种基于3D视觉的机械臂分拣抓取系统及方法。
背景技术
对于机械臂搭载视觉系统所进行的学习任务,针对于末端执行器的抓取问题,可以分为两个子问题:视觉感知和规划抓取。视觉感知一般通过搭载在机械臂末端或者场景外的摄像机进行图像采集,规划抓取主要是指机器人抓取位姿解算和轨迹路径规划。随着深度学习技术的发展,特别是图像检测中的目标探测问题研究的发展,在兼顾准确性的情况下,SSD网络和YOLO网络等网络结构将实时地检测物体的类别和图像位置框成为了可能。而机械臂抓取的视觉感知问题,可以结合成熟的实时目标探测网络,在检测出目标的类型和外接矩形框之外,进一步需要结合深度信息进行三维空间的位姿重投影,并通过手眼关系矩阵转换到机械臂抓取的目标。
中国发明专利(申请号201610006528.9)名称“一种基于深度学习的机械臂手部抓取方法”公开了一种针对利用双目相机信息控制机械臂来进行理想化的任务抓取,然后直接映射好物体和电机角度。但该方法中双目相机获得整体全视野内的深度信息比较繁琐且对环境适应性和鲁棒性不强,并且也没有达到实时性的要求。
因此,需要一种新型的3D视觉的机械臂分拣抓取系统及方法。
发明内容
本发明的一个目的在于提供一种基于3D视觉的机械臂分拣抓取系统,用于实现未知物体的随机抓取,具有通用性强、成本低、实时性强、适用范围广的特点。
为达到上述目的,本发明采用下述技术方案:
一种基于3D视觉的机械臂分拣抓取系统,其中所述系统包括:
双目图像采集模块,通过所述双目图像采集模块上设置的双目摄像头实时采集左右相机的图像;
深度信息解算模块,经过左右相机标定过的相机参数进行畸变校正,同时经过左右相机平移旋转矩阵进行极线校正,从而进行左右视差解算;
单次目标检测器模块,用于在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素的大小或中心位置;
抓取策略框生成模块,根据神经网络选出最优矩形框抓取策略,再根据物体类别和单次目标检测器模块的位置边框参数,进行神经网络训练,得到最佳抓取框参数,通过机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数;
空间位姿解算模块,用于通过匹配双目解算出的空间深度信息,计算相机坐标系下的空间物体位置信息;及
机械臂抓取模块,用于实施抓取实物的动作;
其中,所述双目图像采集模块和单次目标检测器模块分别与所述深度信息解算模块连接,所述深度信息解算模块与所述空间位姿解算模块连接,所述空间位姿解算模块与所述抓取策略框生成模块连接,所述抓取策略框生成模块与机械臂抓取模块连接。
优选地,所述双目图像采集模块上设置的两个摄像头大小和规格一致,所述两个摄像头在水平支架上以左右排列的方式进行设置。
优选地,所述单次目标检测器模块内设置有单次目标监测器。
优选地,所述机械臂抓取模块包含有机械臂、控制模块及机械臂末端夹爪。
本发明的一个目的在于提供一种基于3D视觉的机械臂分拣抓取方法,所述方法包括以下步骤:
步骤S1图像采集:通过在所述双目图像采集模块上设置的双目摄像头实时采集左右相机的图像;
步骤S2深度信息解算:通过所述深度信息解算模块经过左右相机标定过的相机参数进行畸变校正,同时经过左右相机平移旋转矩阵进行极线校正,从而进行左右视差解算;
步骤S3目标检测:通过单次目标检测器模块在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素的大小或中心位置;
步骤S4空间位姿解算:通过所述空间位姿解算模块,利用匹配双目解算出的空间深度信息以及计算相机坐标系下的空间物体位置信息;
步骤S5抓取策略框生成:利用抓取策略框生成模块根据神经网络选出最优矩形框抓取策略,再根据物体类别和单次目标检测器模块的位置边框参数,进行神经网络训练,得到最佳抓取框参数,通过机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数;
步骤S6抓取实物。
优选地,在所述步骤S1中,通过所述双目图像采集模块采集图像后,获取到左右相机图片信息,然后再经过左右相机标定过的相机参数进行畸变校正,所述畸变校正方法通过opencv库中的initundistortrectifymap()和remap()函数来实现,同时经过左右相机平移旋转矩阵进行极线校正,通过opencv库中的stereoRectify()函数进而实现畸变校正;
优选地,在所述步骤S2中,在对采集到的图片信息进行深度解算时,通过剪裁关键目标图片后再进行左右视差解算,再经过重投影得到物体相对于左相机相平面的空间位置和深度信息参数,通过opencv库中的BM或SGBM类型来实现深度解算,其中所述深度信息参数包含有所采集到图像中的物体的类别和像素、大或位置。
优选地,所述步骤S3中目标检测的方法为:在获取原始图片后,再利用单次目标检测器在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素位置,所述位置包括矩形框宽度Wi、高度Hi、中心像素坐标Xi和Yi,然后利用SSD网络实现目标检测,其中特征提取网络为VGG16网络。
优选地,所述步骤S4中空间位姿解算的方法为:根据物体类别和单次目标检测器模块的位置边框参数,采用神经网络选出的最优矩形框抓取策略,得到最佳抓取框参数,所述抓取框参数包含有像素抓取中心坐标Xg、Yg、夹爪宽度Wg和夹爪旋转角度。
优选地,所述步骤S5中抓取策略框生成方法为:根据RGB图像的最佳抓取框参数和深度信息图进行轮廓关键点匹配后,得到相机坐标系下的空间抓取参数,其中深度信息图取整个待抓取目标范围内的中心点坐标作为参考,深度信息取整个待抓取目标范围深度均值作为参考;
在所述步骤S6中,通过机械臂抓取模块中的机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数,所述抓取参数为空间位置抓取中心坐标Xw、Yw、Zw、夹爪宽度Ww和夹爪旋转角度θw,所述机械臂抓取模块中的机械臂及控制模块得到空间抓取参数对运动指令执行,实施实物抓取动作,其中转换关系通过所述机械臂抓取模块中的机械臂和左相机进行手眼标定计算出相对旋转矩阵和平移矩阵。
本发明的有益效果如下:
本发明通过双目图像采集模块、深度信息解算模块、单次目标检测器模块、抓取策略框生成模块、空间位姿解算模块以及机械臂抓取模块之间的相互配合,实现了未知物体的随机抓取,其具有通用性强、成本低、实时性强的特点。本发明的原理简单、方便实用、极大的缩减了开发时间,大大提高了工业生产的效率。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明;
图1示出了本发明一种基于3D视觉的机械臂分拣抓取系统的结构示意图;及方法;
图2示出了本发明一种基于3D视觉的机械臂分拣抓取方法的流程示意图。
具体实施方式
为了更清楚地说明本发明,下面结合优选实施例和附图对本发明做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本发明的保护范围。
本发明的说明书和权利要求书及上述附图中的属于“第一”、“第二”等是用于区别不同的对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法或设备固有的气体步骤或单元。
如图1所示,一种基于3D视觉的机械臂分拣抓取系统,其中所述系统包括:
双目图像采集模块,通过所述双目图像采集模块上设置的双目摄像头实时采集左右相机的图像;
深度信息解算模块,经过左右相机标定过的相机参数进行畸变校正,同时经过左右相机平移旋转矩阵进行极线校正,从而进行左右视差解算;
单次目标检测器模块,用于在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素的大小或中心位置;
抓取策略框生成模块,根据神经网络选出最优矩形框抓取策略,再根据物体类别和单次目标检测器模块的位置边框参数,进行神经网络训练,得到最佳抓取框参数,通过机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数;
空间位姿解算模块,用于通过匹配双目解算出的空间深度信息,计算相机坐标系下的空间物体位置信息;
机械臂抓取模块,用于实施抓取实物的动作;
其中,所述双目图像采集模块和单次目标检测器模块分别与所述深度信息解算模块连接,所述深度信息解算模块与所述空间位姿解算模块连接,所述空间位姿解算模块与所述抓取策略框生成模块连接,所述抓取策略框生成模块与机械臂抓取模块连接。
通过这种连接关系,使得本发明实现了未知物体的随机抓取,其具有通用性强、成本低、实时性强的特点;本发明的原理简单、方便实用、极大的缩减了开发时间,大大提高了工业生产的效率。
在进一步的实施例中,所述双目图像采集模块上设置的两个摄像头大小和规格一致,所述两个摄像头在水平支架上以左右排列的方式进行设置。
在进一步的实施例中,所述单次目标检测器模块内设置有单次目标监测器。
在进一步的实施例中,所述机械臂抓取模块包含有机械臂、控制模块及机械臂末端夹爪。
如图2所示,一种基于3D视觉的机械臂分拣抓取方法,所述方法包括以下步骤:
步骤S1图像采集:通过在所述双目图像采集模块上设置的双目摄像头实时采集左右相机的图像;
在本步骤中,通过所述双目图像采集模块采集图像后,获取到左右相机图片信息,然后再经过左右相机标定过的相机参数进行畸变校正,所述畸变校正方法通过opencv库中的initundistortrectifymap()和remap()函数来实现,同时经过左右相机平移旋转矩阵进行极线校正,通过opencv库中的stereoRectify()函数进而实现畸变校正
步骤S2深度信息解算:通过所述深度信息解算模块经过左右相机标定过的相机参数进行畸变校正,同时经过左右相机平移旋转矩阵进行极线校正,从而进行左右视差解算;
在本步骤中,在对采集到的图片信息进行深度解算时,通过剪裁关键目标图片后再进行左右视差解算,再经过重投影得到物体相对于左相机相平面的空间位置和深度信息参数,通过opencv库中的BM或SGBM类型来实现深度解算,其中所述深度信息参数包含有所采集到图像中的物体的类别和像素、大或位置。
步骤S3目标检测:通过单次目标检测器模块在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素的大小或中心位置;
在本步骤中,在获取原始图片后,再利用单次目标检测器在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素位置,所述位置包括矩形框宽度Wi、高度Hi、中心像素坐标Xi和Yi,然后利用SSD网络实现目标检测,其中特征提取网络为VGG16网络。
步骤S4空间位姿解算:通过所述空间位姿解算模块,利用匹配双目解算出的空间深度信息以及计算相机坐标系下的空间物体位置信息;
在本步骤中,空间位姿解算的方法为:根据物体类别和单次目标检测器模块的位置边框参数,采用神经网络选出的最优矩形框抓取策略,得到最佳抓取框参数,所述抓取框参数包含有像素抓取中心坐标Xg、Yg、夹爪宽度Wg和夹爪旋转角度。
步骤S5抓取策略框生成:利用抓取策略框生成模块根据神经网络选出最优矩形框抓取策略,再根据物体类别和单次目标检测器模块的位置边框参数,进行神经网络训练,得到最佳抓取框参数,通过机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数;
在本步骤中,抓取策略框生成方法为:根据RGB图像的最佳抓取框参数和深度信息图进行轮廓关键点匹配后,得到相机坐标系下的空间抓取参数,其中深度信息图取整个待抓取目标范围内的中心点坐标作为参考,深度信息取整个待抓取目标范围深度均值作为参考。
步骤S6抓取实物。
在本步骤中,通过机械臂抓取模块中的机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数,所述抓取参数为空间位置抓取中心坐标Xw、Yw、Zw、夹爪宽度Ww和夹爪旋转角度θw,所述机械臂抓取模块中的机械臂及控制模块得到空间抓取参数对运动指令执行,实施实物抓取动作,其中转换关系通过所述机械臂抓取模块中的机械臂和左相机进行手眼标定计算出相对旋转矩阵和平移矩阵。
通过上述实施例,大大提高了抓手抓取策略的实时性和准确性,并且具有以下突出的特点。
一是选用单次目标探测器方法初始对图像中的目标进行探测,经过设计的卷积神经网络,同时得到多种探测目标的类型和边界回归框,再经过抓取策略网络优化,进一步解算;
二是采用双目立体视觉方法对物体进行识别,在RGB图片中检测出抓取位置信息之后,再结合深度信息图进行空间位姿重投影,大幅提高抓取精度。
尽管本公开内容描述了具有特定顺序的步骤的方法和过程,但是适当时可以省略或改变方法和过程中的一个或更多个步骤。适当时一个或更多个步骤可以以除它们被描述的顺序之外的顺序进行。
虽然至少部分地在方法方面描述了本公开内容,但是本领域普通技术人员将理解,本公开内容还涉及用于执行所描述的方法的方面和特征中的至少一些方面和特征的各种部件,通过硬件部件、软件或两者的任何组合成为上述部件。因此,本公开内容的技术方案可以被实施为软件产品的形式。合适的软件产品可以存储在预先记录的存储装置或者其他类似的非易失性或非暂态计算机可读介质中,包括例如DVD、CD-ROM、USB闪存盘、可移动硬盘或其他存储介质。软件产品包括确切地存储在其上的指令,其使得处理装置(例如,个人计算机、服务器或网络装置)能够执行本文公开的方法的示例。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。

Claims (10)

1.一种基于3D视觉的机械臂分拣抓取系统,其特征在于,所述系统包括:
双目图像采集模块,用于通过所述双目图像采集模块上设置的双目摄像头实时采集左右相机的图像;
深度信息解算模块,用于经过左右相机标定过的相机参数进行畸变校正,同时经过左右相机平移旋转矩阵进行极线校正,从而进行左右视差解算;
单次目标检测器模块,用于在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素的大小或中心位置;
抓取策略框生成模块,用于根据神经网络选出最优矩形框抓取策略,再根据物体类别和单次目标检测器模块的位置边框参数,进行神经网络训练,得到最佳抓取框参数,通过机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数;
空间位姿解算模块,用于通过匹配双目解算出的空间深度信息,计算相机坐标系下的空间物体位置信息;及
机械臂抓取模块,用于实施抓取实物的动作;
其中,所述双目图像采集模块和单次目标检测器模块分别与所述深度信息解算模块连接,所述深度信息解算模块与所述空间位姿解算模块连接,所述空间位姿解算模块与所述抓取策略框生成模块连接,所述抓取策略框生成模块与机械臂抓取模块连接。
2.根据权利要求1所述的一种基于3D视觉的机械臂分拣抓取系统,其特征在于,所述双目图像采集模块上设置的两个摄像头大小和规格一致,所述两个摄像头在水平支架上以左右排列的方式进行设置。
3.根据权利要求1所述的一种基于3D视觉的机械臂分拣抓取系统,其特征在于,所述单次目标检测器模块内设置有单次目标监测器。
4.根据权利要求1所述的一种基于3D视觉的机械臂分拣抓取系统,其特征在于,所述机械臂抓取模块包含有机械臂、控制模块及机械臂末端夹爪。
5.一种基于3D视觉的机械臂分拣抓取方法,所述方法利用权利要求1至4任意一项所述的一种基于3D视觉的机械臂分拣抓取系统进行,其特征在于,所述方法包括以下步骤:
步骤S1:图像采集,通过在所述双目图像采集模块上设置的双目摄像头实时采集左右相机的图像;
步骤S2:深度信息解算,通过所述深度信息解算模块经过左右相机标定过的相机参数进行畸变校正,同时经过左右相机平移旋转矩阵进行极线校正,从而进行左右视差解算;
步骤S3:目标检测,通过单次目标检测器模块在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素的大小或中心位置;
步骤S4:空间位姿解算,通过所述空间位姿解算模块,利用匹配双目解算出的空间深度信息以及计算相机坐标系下的空间物体位置信息;
步骤S5:抓取策略框生成,利用抓取策略框生成模块根据神经网络选出最优矩形框抓取策略,再根据物体类别和单次目标检测器模块的位置边框参数,进行神经网络训练,得到最佳抓取框参数,通过机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数;
步骤S6:抓取实物。
6.根据权利要求5所述的一种基于3D视觉的机械臂分拣抓取方法,其特征在于,在所述步骤S1中,通过所述双目图像采集模块采集图像后,获取到左右相机图片信息,然后再经过左右相机标定过的相机参数进行畸变校正,所述畸变校正方法通过opencv库中的initundistortrectifymap()和remap()函数来实现,同时经过左右相机平移旋转矩阵进行极线校正,通过opencv库中的stereoRectify()函数进而实现畸变校正。
7.根据权利要求5所述的一种基于3D视觉的机械臂分拣抓取方法,其特征在于,在所述步骤S2中,在对采集到的图片信息进行深度解算时,通过剪裁关键目标图片后再进行左右视差解算,再经过重投影得到物体相对于左相机相平面的空间位置和深度信息参数,通过opencv库中的BM或SGBM类型来实现深度解算,其中所述深度信息参数包含有所采集到图像中的物体的类别和像素、大或位置。
8.根据权利要求5所述的一种基于3D视觉的机械臂分拣抓取方法,其特征在于,所述步骤S3中目标检测的方法为:
在获取原始图片后,再利用单次目标检测器在特征提取网络结构中选用多尺度特征图来进行综合目标检测,同时检测出图像中物体的类别和像素位置,所述位置包括矩形框宽度Wi、高度Hi、中心像素坐标Xi和Yi,然后利用SSD网络实现目标检测,其中特征提取网络为VGG16网络。
9.根据权利要求5所述的一种基于3D视觉的机械臂分拣抓取方法,其特征在于,所述步骤S4中空间位姿解算的方法为:
根据物体类别和单次目标检测器模块的位置边框参数,采用神经网络选出的最优矩形框抓取策略,得到最佳抓取框参数,所述抓取框参数包含有像素抓取中心坐标Xg、Yg、夹爪宽度Wg和夹爪旋转角度。
10.根据权利要求5所述的一种基于3D视觉的机械臂分拣抓取方法,其特征在于,所述步骤S5中抓取策略框生成方法为:
根据RGB图像的最佳抓取框参数和深度信息图进行轮廓关键点匹配后,得到相机坐标系下的空间抓取参数,其中深度信息图取整个待抓取目标范围内的中心点坐标作为参考,深度信息取整个待抓取目标范围深度均值作为参考;
在所述步骤S6中,通过机械臂抓取模块中的机械臂末端夹爪和左相机像平面坐标系转换关系得到空间抓取参数,所述抓取参数为空间位置抓取中心坐标Xw、Yw、Zw、夹爪宽度Ww和夹爪旋转角度θw,所述机械臂抓取模块中的机械臂及控制模块得到空间抓取参数对运动指令执行,实施实物抓取动作,其中转换关系通过所述机械臂抓取模块中的机械臂和左相机进行手眼标定计算出相对旋转矩阵和平移矩阵。
CN201911346694.3A 2019-12-24 2019-12-24 一种基于3d视觉的机械臂分拣抓取系统及方法 Pending CN111151463A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911346694.3A CN111151463A (zh) 2019-12-24 2019-12-24 一种基于3d视觉的机械臂分拣抓取系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911346694.3A CN111151463A (zh) 2019-12-24 2019-12-24 一种基于3d视觉的机械臂分拣抓取系统及方法

Publications (1)

Publication Number Publication Date
CN111151463A true CN111151463A (zh) 2020-05-15

Family

ID=70558387

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911346694.3A Pending CN111151463A (zh) 2019-12-24 2019-12-24 一种基于3d视觉的机械臂分拣抓取系统及方法

Country Status (1)

Country Link
CN (1) CN111151463A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111590591A (zh) * 2020-06-04 2020-08-28 南京工程学院 基于计算机立体视觉引导机制的垃圾堆自动抓取方法和系统
CN111702760A (zh) * 2020-06-11 2020-09-25 湖北美和易思教育科技有限公司 一种物联网机械手臂协同作业系统及方法
CN111942621A (zh) * 2020-07-17 2020-11-17 北京控制工程研究所 一种基于多任务学习的在轨自主加注控制方法及系统
CN112170233A (zh) * 2020-09-01 2021-01-05 燕山大学 基于深度学习的小型零件分拣方法及其分拣系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106272437A (zh) * 2016-10-12 2017-01-04 吉林大学 一种用于并联机器人双目视觉定位的最优视场求取装置
CN107030693A (zh) * 2016-12-09 2017-08-11 南京理工大学 一种基于双目视觉的带电作业机器人目标跟踪方法
CN108081266A (zh) * 2017-11-21 2018-05-29 山东科技大学 一种基于深度学习的机械臂手部抓取物体的方法
CN109483554A (zh) * 2019-01-22 2019-03-19 清华大学 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN109531584A (zh) * 2019-01-31 2019-03-29 北京无线电测量研究所 一种基于深度学习的机械臂控制方法和装置
CN110211180A (zh) * 2019-05-16 2019-09-06 西安理工大学 一种基于深度学习的机械臂自主抓取方法
US20190321977A1 (en) * 2018-04-23 2019-10-24 General Electric Company Architecture and methods for robotic mobile manipluation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106272437A (zh) * 2016-10-12 2017-01-04 吉林大学 一种用于并联机器人双目视觉定位的最优视场求取装置
CN107030693A (zh) * 2016-12-09 2017-08-11 南京理工大学 一种基于双目视觉的带电作业机器人目标跟踪方法
CN108081266A (zh) * 2017-11-21 2018-05-29 山东科技大学 一种基于深度学习的机械臂手部抓取物体的方法
US20190321977A1 (en) * 2018-04-23 2019-10-24 General Electric Company Architecture and methods for robotic mobile manipluation system
CN109483554A (zh) * 2019-01-22 2019-03-19 清华大学 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN109531584A (zh) * 2019-01-31 2019-03-29 北京无线电测量研究所 一种基于深度学习的机械臂控制方法和装置
CN110211180A (zh) * 2019-05-16 2019-09-06 西安理工大学 一种基于深度学习的机械臂自主抓取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杜学丹等: "一种基于深度学习的机械臂抓取方法", 《机器人》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111590591A (zh) * 2020-06-04 2020-08-28 南京工程学院 基于计算机立体视觉引导机制的垃圾堆自动抓取方法和系统
CN111702760A (zh) * 2020-06-11 2020-09-25 湖北美和易思教育科技有限公司 一种物联网机械手臂协同作业系统及方法
CN111942621A (zh) * 2020-07-17 2020-11-17 北京控制工程研究所 一种基于多任务学习的在轨自主加注控制方法及系统
CN112170233A (zh) * 2020-09-01 2021-01-05 燕山大学 基于深度学习的小型零件分拣方法及其分拣系统

Similar Documents

Publication Publication Date Title
CN111151463A (zh) 一种基于3d视觉的机械臂分拣抓取系统及方法
US9436987B2 (en) Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
CN108555908B (zh) 一种基于rgbd相机的堆叠工件姿态识别及拾取方法
CN104463108B (zh) 一种单目实时目标识别及位姿测量方法
CN107953329B (zh) 物体识别和姿态估计方法、装置及机械臂抓取系统
JP5282717B2 (ja) ロボットシステム
JP5812599B2 (ja) 情報処理方法及びその装置
US10671874B2 (en) Generating a model for an object encountered by a robot
CN107471218B (zh) 一种基于多目视觉的双臂机器人手眼协调方法
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
CN109255813B (zh) 一种面向人机协作的手持物体位姿实时检测方法
CN108629843B (zh) 一种实现增强现实的方法及设备
CN108986161A (zh) 一种三维空间坐标估计方法、装置、终端和存储介质
JP2012101320A (ja) 画像生成装置、画像生成方法、およびプログラム
US20190152054A1 (en) Gripping system with machine learning
CN104760812B (zh) 基于单目视觉的传送带上产品实时定位系统和方法
JP2015212629A (ja) 検出装置およびこの装置を具えたマニプレータの動作制御
KR20180054487A (ko) Dvs 이벤트 처리 방법 및 장치
CN110580725A (zh) 一种基于rgb-d相机的箱体分拣方法及系统
CN110555878B (zh) 物体空间位置形态的确定方法、装置、存储介质及机器人
CN111476841B (zh) 一种基于点云和图像的识别定位方法及系统
CN110434516A (zh) 一种智能焊接机器人系统及焊接方法
Kheng et al. Stereo vision with 3D coordinates for robot arm application guide
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
KR101668649B1 (ko) 주변 환경 모델링 방법 및 이를 수행하는 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination