CN114140526A - 一种基于深度学习的无序工件三维视觉位姿估计方法 - Google Patents
一种基于深度学习的无序工件三维视觉位姿估计方法 Download PDFInfo
- Publication number
- CN114140526A CN114140526A CN202111373613.6A CN202111373613A CN114140526A CN 114140526 A CN114140526 A CN 114140526A CN 202111373613 A CN202111373613 A CN 202111373613A CN 114140526 A CN114140526 A CN 114140526A
- Authority
- CN
- China
- Prior art keywords
- workpiece
- point cloud
- information
- pose
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000000007 visual effect Effects 0.000 title claims abstract description 27
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 230000011218 segmentation Effects 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims description 100
- 238000010606 normalization Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 30
- 238000005070 sampling Methods 0.000 claims description 30
- 238000007667 floating Methods 0.000 claims description 25
- 238000011176 pooling Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 7
- 238000009776 industrial production Methods 0.000 abstract description 3
- 206010063385 Intellectualisation Diseases 0.000 abstract description 2
- 239000002184 metal Substances 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 11
- 230000036544 posture Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004148 unit process Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004392 development of vision Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种基于深度学习的无序工件三维视觉位姿估计方法,采用深度学习思想实现无序工件的点云实例分割、堆叠估计以及位姿估计,将三维视觉传感器的三维重建过程与图像实例分割算法结合实现工件点云实例分割,同时采用深度学习算法估计工件的堆叠关系从而确定无序工件的抓取优先级,进一步的设计深度学习算法根据分割的工件点云估计工件抓取部位相对机器人基座坐标系的位姿信息,适用于工业流水线上无序工件的定位及上下料。本发明的位姿估计方法可广泛应用于汽车工业、电气电子工业、金属机械工业等行业的实际生产,具有广阔的市场应用前景,对提升我国制造业的数字化和智能化水平具有极其重要的现实意义。
Description
技术领域
本发明属于工件位姿估计技术领域,具体涉及一种基于深度学习的无序工件三维视觉位姿估计方法,是用于估计生产流水线上无序工件的位置和姿态的深度学习方法。
背景技术
无序工件的精准抓取及上下料一直都是智能工业机器人领域的重点研究课题之一。该环节普遍配备视觉传感器,通过识别视觉传感器采集的视觉信息,对工件进行位姿估计,进而实现抓取。根据工件放置的相对位置关系,无序工件的摆放方式可分为无序离散和无序堆叠。无序离散是指工件放置在水平面上,且彼此之间无接触和堆叠;无序堆叠是指工件随机无序摆放,且工件与工件之间有重叠或相互接触。多规格无序工件的精准抓取要求系统能够识别视野范围内的无序工件,同时判断工件之间的堆叠关系,估计无重叠且易抓取工件的位置和姿态,并规划机器人的运动路径。
近年来,随着计算机性能的不断提高和视觉传感器及相关算法的高速发展,基于二维视觉的工件位姿估计技术已趋于成熟,也已广泛应用于各种自动上下料系统中。但仅使用二维图像表征三维工件不可避免会造成信息缺失,从而影响无序工件位姿估计的准确性。因此,多规格产品的混线生产必然需要研究无序工件三维视觉位姿估计技术,进一步实现无序工件的精准抓取及上下料。可以说,提升系统的环境感知能力,研究无序工件的智能识别和位姿估计技术,开发适用于多规格无序工件的精准抓取及上下料的智能工业机器人系统至关重要。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于深度学习的无序工件三维视觉位姿估计方法,用于估计生产流水线上无序工件相对于机器人基坐标系的位置和姿态。将本发明的估计方法配合工业机器人使用后,可实现无序工件的上下料。
一种基于深度学习的无序工件三维视觉位姿估计方法,包括以下步骤:
(1)采集无序工件的彩色图像和深度信息;
(2)利用构建的图像实例分割算法处理彩色图像,获取目标检测信息和实例分割信息;
(3)利用目标检测信息裁剪彩色图像,得到每个工件的检测图像;
(4)将检测图像输入至构建的堆叠估计算法,获取所有工件的堆叠估计信息;
(5)根据堆叠估计信息,从实例分割信息中选取堆叠程度最低的工件,形成该工件的掩膜图像;
(6)根据工件的掩膜图像从深度信息中分割出工件点云;
(7)将工件点云输入至构建的位姿估计算法,估计出该工件抓取部位相对机器人基座坐标系的位姿信息。
上述步骤(1)中,采用三维视觉传感器对视野范围内的无序工件进行彩色图像和深度信息(三维点云)的采集。
步骤(2)中,目标检测信息为彩色图像中各个工件的包围框,实例分割信息为彩色图像中各个工件的像素合集。
作为优选,所述图像实例分割算法由深度卷积网络、特征金字塔网络、结果预测网络和后处理模块组成;
所述深度卷积网络从彩色图像中提取高维特征向量,由五组卷积层+池化层的复合结构串联而成,每组复合结构都产生一组特征向量,依次为特征向量1、特征向量2、特征向量3、特征向量4和特征向量5;
所述特征金字塔网络结合卷积操作和上采样操作处理深度卷积网络生成的特征向量,其中,特征向量5经卷积操作后生成特征向量6,特征向量4经卷积操作后与经上采样操作的特征向量6相加形成特征向量7,特征向量3经卷积操作后与经上采样操作的特征向量7相加形成特征向量8,特征向量2经卷积操作后与经上采样操作的特征向量8相加形成特征向量9,特征向量6、特征向量7、特征向量8和特征向量9经卷积操作后依次生成特征向量10、特征向量11、特征向量12和特征向量13;
结果预测网络由两个网络支路组成,对特征向量10、特征向量11、特征向量12和特征向量13共享权重,第一个网络支路由多个深度卷积层和多个全连接层串联组成,回归预测彩色图像中工件的包围框,形成初步的目标检测信息;第二个网络支路由多个深度卷积层串联组成,预测彩色图像中每个像素从属于特定工件的概率(取值为0~1.0),形成初步的实例分割信息;
后处理模块由非极大值抑制单元和阈值滤波单元组成,非极大值抑制单元处理初步的目标检测信息,消除冗余的工件包围框,形成目标检测信息,阈值滤波单元用0.5的阈值滤波初步的实例分割信息,形成实例分割信息。
作为优选,所述堆叠估计算法由多个深度卷积层和多个全连接层串联组成。
作为优选,所述堆叠估计信息为一维矩阵,矩阵中元素的数目与工件检测图像的数目相等,每个元素代表一个工件被堆叠的概率(取值为0~1.0),被堆叠的概率数值越大(越接近于1)对应工件被堆叠的程度越低。
作为优选,所述位姿估计算法包括:
数据前处理模块,所述数据前处理模块对工件点云进行统计滤波和栅格下采样预处理;
点云分类单元,所述点云分类单元对预处理后的工件点云,根据工件的类型及摆放姿态进行分类,并输出点云类别;
类点云融合单元,所述类点云融合单元将预处理后的工件点云与点云类别融合,形成类点云向量;
位姿估计单元,所述位姿估计单元根据类点云向量估计工件抓取部位相对机器人基座坐标系的位姿信息。
作为进一步优选,所述点云分类单元包括:
采样模块,所述采样模块从预处理后的工件点云中随机采样固定数量的点云;
归一化模块,所述归一化模块将采样模块获取的点云中每个点的三维坐标值映射为[-a1,b1]之间的浮点数;其中,a1∈[0.5~1.5]、b1∈[0.5~1.5];
点云分类网络,所述点云分类网络由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的浮点数预测点云类别。
作为进一步优选,形成类点云向量的具体方法为:
先将点云类别转换为独热编码,然后依次与处理后的工件点云中的坐标值结合。
作为进一步优选,位姿估计单元包括位置估计单元和姿态估计单元,所述位姿信息包括位置信息(x,y,z)和姿态信息(rx,ry,rz)。
作为更进一步优选,所述位置估计单元包括:
采样模块,所述采样模块采样类点云向量并形成固定维度的向量;
归一化模块,所述归一化模块计算采样模块采集的向量各维度的均值并将向量中各个数值映射为[-a2,b2]之间的浮点数;其中,a2∈[0.5~1.5]、b2∈[0.5~1.5];
位置估计网络,所述位置估计网络根据归一化模块计算的向量的均值和输出的浮点数,获取获得工件抓取部位相对机器人基座坐标系的位置信息(x,y,z)。
作为优选,所述位置估计网络由两个网络支路组成,其中一个网络支路由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的浮点数形成第一位置估计分量(x1,y1,z1);另一个网络支路为全连接层,根据归一化模块计算的向量均值形成第二位置估计分量(x2,y2,z2);将第一位置估计分量与第二位置估计分量相加,得到工件抓取部位相对机器人基座坐标系的位置信息(x,y,z)。
作为更进一步优选,所述的姿态估计单元包括:
采样模块,所述采样模块采样类点云向量并形成固定维度的向量;
归一化模块,所述归一化模块处理采样模块获取的向量,将向量中各个数值映射为[-a3,b3]之间的浮点数;其中,a3∈[0.5~1.5]、b3∈[0.5~1.5];
姿态估计网络,所述姿态估计网络根据归一化模块输出的浮点数获取工件抓取部位相对机器人基座坐标系的姿态信息(rx,ry,rz)。
作为优选,所述姿态估计网络由两个网络支路组成,两个网络支路均由共享权重的多层感知器、最大池化层和全连接层串联而成;
其中一个网络支路根据归一化模块输出的浮点数估计工件抓取部位相对机器人基座坐标系的绕X轴旋转的角度、绕Y轴旋转的角度以及绕Z轴旋转的角度的绝对值;另一个网络支路根据归一化模块输出的浮点数估计工件抓取部位相对机器人基座坐标系的绕Z轴旋转的方向;综合姿态估计网络的两个网络支路的输出结果,形成工件抓取部位相对机器人基座坐标系的姿态信息(rx,ry,rz)。
与现有技术相比,本发明的有益效果为:
1、本发明的基于深度学习的无序工件三维视觉位姿估计方法,采用深度学习思想实现无序工件的点云实例分割、堆叠估计以及位姿估计,适用于工业流水线上无序工件的定位及上下料。
2、本发明的位姿估计方法将三维视觉传感器的三维重建过程与图像实例分割算法结合,实现工件点云实例分割,大大降低点云实例分割难度,有效提升点云实例分割的速度与精度。
3、本发明的位姿估计方法首次提出采用深度学习算法估计工件的堆叠关系从而确定无序工件的抓取优先级,在位姿估计过程中仅需估计无堆叠易抓取工件的位姿,有效降低工件位姿估计难度,并提高机器人抓取的成功率。
4、本发明的位姿估计方法可广泛应用于汽车工业、电气电子工业、金属机械工业等行业的实际生产,具有广阔的市场应用前景,对提升我国制造业的数字化和智能化水平具有极其重要的现实意义。
附图说明
图1为本发明实施例的流程示意图;
图2为本发明实施例中图像实例分割算法的流程示意图;
图3为本发明实施例中位姿估计算法的流程示意图;
图4为本发明实施例中点云分类单元的流程示意图;
图5为本发明实施例中位置估计单元的流程示意图;
图6为本发明实施例中姿态估计单元的流程示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
如图1所示,一种基于深度学习的无序工件三维视觉位姿估计方法,包括以下步骤:
①将三维视觉传感器设置在工件抓取区域正上方,采集视野范围内无序工件的视觉信息,获取彩色图像和深度信息;
②将彩色图像输入至构建的图像实例分割算法,获得目标检测信息以及实例分割信息,目标检测信息为彩色图像中各个工件的包围框,实例分割信息为彩色图像中各个工件的像素集合;
③用目标检测信息裁剪彩色图像,形成与工件数目相同的每个工件的检测图像;
④将工件的检测图像输入至构建的堆叠估计算法,获取堆叠估计信息,堆叠估计信息为一维矩阵,矩阵中元素的数目与工件检测图像的数目相等,每个元素代表一个工件被堆叠的概率,概率的数值越大对应的工件被堆叠的程度越低;
⑤根据堆叠估计信息,从实例分割信息中选取堆叠程度最低的工件,形成该堆叠程度最低的工件的掩膜图像;
⑥依据工件的掩膜图像从深度信息中分割出工件点云;
⑦将工件点云输入至构建的位姿估计算法,估计出该工件抓取部位相对机器人基座坐标系的位姿信息,其中,位姿信息包括位置信息(x,y,z)和姿态信息(rx,ry,rz)。
如图2所示,图像实例分割算法由深度卷积网络、特征金字塔网络、结果预测网络和后处理模块组成;深度卷积网络从彩色图像中提取高维特征向量,由五组卷积层+池化层的复合结构串联而成,每组复合结构都产生一组特征向量,依次为特征向量1、特征向量2、特征向量3、特征向量4和特征向量5;
特征金字塔网络结合卷积操作和上采样操作处理深度卷积网络生成的特征向量,其中,特征向量5经卷积操作后生成特征向量6,特征向量4经卷积操作后与经上采样操作的特征向量6相加形成特征向量7,特征向量3经卷积操作后与经上采样操作的特征向量7相加形成特征向量8,特征向量2经卷积操作后与经上采样操作的特征向量8相加形成特征向量9,特征向量6、特征向量7、特征向量8和特征向量9经卷积操作后依次生成特征向量10、特征向量11、特征向量12和特征向量13;
结果预测网络由两个网络支路组成,对特征向量10、特征向量11、特征向量12和特征向量13共享权重,第一个网络支路由若干深度卷积层和全连接层串联组成,回归预测彩色图像中工件的包围框,形成初步的目标检测信息;第二个网络支路由若干深度卷积层串联组成,预测彩色图像中每个像素从属于特定工件的概率(取值为0~1.0),形成初步的实例分割信息;
后处理模块由非极大值抑制单元和阈值滤波单元组成,非极大值抑制单元处理初步的目标检测信息,消除冗余的工件包围框,形成目标检测信息,阈值滤波单元用0.5的阈值滤波初步的实例分割信息,形成实例分割信息。
堆叠估计算法由多个深度卷积层和多个全连接层串联组成,预测工件被堆叠的概率(取值为0~1.0);若输出的概率的数值越接近于1,则代表该工件被堆叠的程度越低。
如图3所示,位姿估计算法由数据前处理模块、点云分类单元、类点云融合单元以及位姿估计单元组成;数据前处理单元对工件点云进行统计滤波和栅格下采样的预处理操作,输出处理后的工件点云;点云分类单元接受预处理后的工件点云,根据工件的类型及摆放姿态进行分类,输出点云类别;
类点云融合单元将处理后的工件点云与点云类别融合形成类点云向量,具体方法为,先将点云类别转换为独热编码,然后依次与处理后的工件点云中的坐标值结合;位姿估计单元由位置估计单元和姿态估计单元组成,根据类点云向量估计工件抓取部位相对机器人基座坐标系的位姿信息。
如图4所示,点云分类单元由采样模块、归一化模块和点云分类网络组成;采样模块从处理后的工件点云中随机采样固定数量的点云;归一化模块将采样模块获取的点云中每个点的三维坐标值映射为[-1.0,1.0]之间的浮点数;点云分类网络由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的浮点数预测点云类别。
如图5所示,位置估计单元由采样模块、归一化模块和位置估计网络组成;采样模块采样类点云向量形成固定维度的向量;归一化模块处理采样模块获取的向量,计算向量各维度的均值并将向量中各个数值映射为[-1.0,1.0]之间的浮点数;
位置估计网络由两个网络支路组成,一个网络支路由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的归一化数值(浮点数)形成第一位置估计分量(x1,y1,z1);另一个网络支路为全连接层,根据归一化模块计算的向量均值形成第二位置估计分量(x2,y2,z2);第一位置估计分量与第二位置估计分量相加,获得工件抓取部位相对机器人基座坐标系的位置信息(x,y,z)。
如图6所示,姿态估计单元由采样模块、归一化模块和姿态估计网络组成;采样模块采样类点云向量形成固定维度的向量;归一化模块处理采样模块获取的向量,将向量中各个数值映射为[-1.0,1.0]之间的浮点数;
姿态估计网络由两个网络支路组成,一个网络支路由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的归一化数值(浮点数)估计工件抓取部位相对机器人基座坐标系的绕X轴旋转的角度、绕Y轴旋转的角度以及绕Z轴旋转的角度的绝对值;另一个网络支路由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的归一化数值(浮点数)估计工件抓取部位相对机器人基座坐标系的绕Z轴旋转的方向;综合姿态估计网络的两个网络支路的输出,形成工件抓取部位相对机器人基座坐标系的姿态信息(rx,ry,rz)。
本实施例适用于工业流水线上无序工件的定位及上下料,其具体实施过程包含训练阶段和实施阶段。
本实施例的训练阶段的训练过程如下:
1、搭建机器人三维视觉抓取系统,由机器人、三维视觉传感器、工作台、上位机以及抓手组成;工作台置于机器人的工作空间内,用于放置待抓取的无序工件;三维视觉传感器安装于工作台正上方,用于采集无序工件的视觉信息(包含彩色图像、深度信息(三维点云));抓手安装于机器人末端,用于无序工件的抓取;上位机内设置本发明所述的各种算法,并与三维视觉传感器和机器人交互;
2、图像实例分割算法的构建:选取若干工件无序摆放至工作台上,用三维视觉传感器拍摄若干张无序工件的彩色图像;每次拍摄均需调整工件的数目及摆放方式;在彩色图像上勾勒每个工件的外轮廓(包括目标检测信息和实例分割信息),以彩色图像为输入、目标检测信息和实例分割信息为输出,形成图像实例分割算法的训练数据集;用训练数据集训练图像实例分割算法;
3、堆叠估计算法的构建:将步骤2采集的彩色图像输入至图像实例分割算法,生成目标检测信息,然后依据目标检测信息裁剪彩色图像,形成多张工件检测图像;标注每张工件检测图像中工件的堆叠程度,若工件被堆叠则标为0,若没有堆叠则标为1,以工件检测图像为输入、工件的堆叠程度为输出,形成堆叠估计算法的训练数据集;用训练数据集训练工件的堆叠估计算法;
4、位姿估计算法的构建:选取若干工件无序摆放至工作台上,用三维视觉传感器采集工件的三维点云,示教机器人至工件的抓取位置(抓取部位)并记录机器人的位姿,然后对三维点云预处理,提取工件点云;重复多次,形成位姿估计算法的训练数据集,其中每组数据均包含一组工件点云(作为输入)及其对应的机器人的位姿(作为输出);用训练数据集训练位姿估计算法。
本实施例实施阶段的实施过程如下:
1、选取若干工件无序摆放至工作台上,用三维视觉传感器采集工件的彩色图像和深度信息;
2、将彩色图像和深度信息输入至本实施例的基于深度学习的无序工件三维视觉位姿估计方法,获得一个工件抓取部位相对机器人基座坐标系的位姿信息(包含位置信息和姿态信息);
3、机器人依据本实施例估计的该工件的位姿信息,实现无序工件中该工件的抓取;
4、重复步骤1~3,完成所有无序工件的抓取。
Claims (10)
1.一种基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,包括以下步骤:
(1)采集无序工件的彩色图像和深度信息;
(2)利用构建的图像实例分割算法处理彩色图像,获取目标检测信息和实例分割信息;
(3)利用目标检测信息裁剪彩色图像,得到每个工件的检测图像;
(4)将检测图像输入至构建的堆叠估计算法,获取所有工件的堆叠估计信息;
(5)根据堆叠估计信息,从实例分割信息中选取堆叠程度最低的工件,形成该工件的掩膜图像;
(6)根据工件的掩膜图像从深度信息中分割出工件点云;
(7)将工件点云输入至构建的位姿估计算法,估计出该工件抓取部位相对机器人基座坐标系的位姿信息。
2.根据权利要求1所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述堆叠估计算法由多个深度卷积层和多个全连接层串联组成。
3.根据权利要求1所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述堆叠估计信息为一维矩阵,矩阵中元素的数目与工件检测图像的数目相等,每个元素代表一个工件被堆叠的概率,被堆叠的概率数值越大对应工件被堆叠的程度越低。
4.根据权利要求1所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述位姿估计算法包括:
数据前处理模块,所述数据前处理模块对工件点云进行统计滤波和栅格下采样预处理;
点云分类单元,所述点云分类单元对预处理后的工件点云进行分类并输出点云类别;
类点云融合单元,所述类点云融合单元将预处理后的工件点云与点云类别融合,形成类点云向量;
位姿估计单元,所述位姿估计单元根据类点云向量估计工件抓取部位相对机器人基座坐标系的位姿信息。
5.根据权利要求4所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述点云分类单元包括:
采样模块,所述采样模块从预处理后的工件点云中随机采样固定数量的点云;
归一化模块,所述归一化模块将采样模块获取的点云中每个点的三维坐标值映射为[-a1,b1]之间的浮点数;
点云分类网络,所述点云分类网络由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的浮点数预测点云类别。
6.根据权利要求4所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,位姿估计单元包括位置估计单元和姿态估计单元,所述位姿信息包括位置信息和姿态信息。
7.根据权利要求6所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述位置估计单元包括:
采样模块,所述采样模块采样类点云向量并形成固定维度的向量;
归一化模块,所述归一化模块计算采样模块采集的向量各维度的均值并将向量中各个数值映射为[-a2,b2]之间的浮点数;
位置估计网络,所述位置估计网络根据归一化模块计算的向量的均值和输出的浮点数,获取获得工件抓取部位相对机器人基座坐标系的位置信息。
8.根据权利要求7所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述位置估计网络由两个网络支路组成,其中一个网络支路由共享权重的多层感知器、最大池化层和全连接层串联而成,根据归一化模块输出的浮点数形成第一位置估计分量;另一个网络支路为全连接层,根据归一化模块计算的向量均值形成第二位置估计分量;将第一位置估计分量与第二位置估计分量相加,得到工件抓取部位相对机器人基座坐标系的位置信息。
9.根据权利要求6所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述的姿态估计单元包括:
采样模块,所述采样模块采样类点云向量并形成固定维度的向量;
归一化模块,所述归一化模块处理采样模块获取的向量,将向量中各个数值映射为[-a3,b3]之间的浮点数;
姿态估计网络,所述姿态估计网络根据归一化模块输出的浮点数获取工件抓取部位相对机器人基座坐标系的姿态信息。
10.根据权利要求9所述的基于深度学习的无序工件三维视觉位姿估计方法,其特征在于,所述姿态估计网络由两个网络支路组成,两个网络支路均由共享权重的多层感知器、最大池化层和全连接层串联而成;
其中一个网络支路根据归一化模块输出的浮点数估计工件抓取部位相对机器人基座坐标系的绕X轴旋转的角度、绕Y轴旋转的角度以及绕Z轴旋转的角度的绝对值;另一个网络支路根据归一化模块输出的浮点数估计工件抓取部位相对机器人基座坐标系的绕Z轴旋转的方向;综合姿态估计网络的两个网络支路的输出结果,形成工件抓取部位相对机器人基座坐标系的姿态信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111373613.6A CN114140526A (zh) | 2021-11-19 | 2021-11-19 | 一种基于深度学习的无序工件三维视觉位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111373613.6A CN114140526A (zh) | 2021-11-19 | 2021-11-19 | 一种基于深度学习的无序工件三维视觉位姿估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114140526A true CN114140526A (zh) | 2022-03-04 |
Family
ID=80390105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111373613.6A Pending CN114140526A (zh) | 2021-11-19 | 2021-11-19 | 一种基于深度学习的无序工件三维视觉位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114140526A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114952809A (zh) * | 2022-06-24 | 2022-08-30 | 中国科学院宁波材料技术与工程研究所 | 工件识别和位姿检测方法、系统及机械臂的抓取控制方法 |
CN115082498A (zh) * | 2022-05-24 | 2022-09-20 | 河南中原动力智能制造有限公司 | 一种机器人抓取位姿估计方法、装置、设备及存储介质 |
-
2021
- 2021-11-19 CN CN202111373613.6A patent/CN114140526A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082498A (zh) * | 2022-05-24 | 2022-09-20 | 河南中原动力智能制造有限公司 | 一种机器人抓取位姿估计方法、装置、设备及存储介质 |
CN114952809A (zh) * | 2022-06-24 | 2022-08-30 | 中国科学院宁波材料技术与工程研究所 | 工件识别和位姿检测方法、系统及机械臂的抓取控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11034018B2 (en) | Learning device, learning method, learning model, detection device and grasping system | |
CN110948492B (zh) | 一种基于深度学习的三维抓取平台和抓取方法 | |
CN108171748B (zh) | 一种面向机器人智能抓取应用的视觉识别与定位方法 | |
CN108280856B (zh) | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 | |
CN108010078B (zh) | 一种基于三级卷积神经网络的物体抓取检测方法 | |
CN111046948B (zh) | 点云仿真和深度学习的工件位姿识别及机器人上料方法 | |
CN111695562B (zh) | 一种基于卷积神经网络的机器人自主抓取方法 | |
CN111553949B (zh) | 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法 | |
CN111243017A (zh) | 基于3d视觉的智能机器人抓取方法 | |
CN111368852A (zh) | 基于深度学习的物品识别预分拣系统、方法及机器人 | |
CN110969660B (zh) | 一种基于三维立体视觉和点云深度学习的机器人上料系统 | |
CN114140526A (zh) | 一种基于深度学习的无序工件三维视觉位姿估计方法 | |
CN112509063A (zh) | 一种基于边缘特征匹配的机械臂抓取系统及方法 | |
CN112295933B (zh) | 一种机器人快速分拣货物的方法 | |
CN112669385A (zh) | 基于三维点云特征的工业机器人工件识别与位姿估计方法 | |
CN113034600A (zh) | 基于模板匹配的无纹理平面结构工业零件识别和6d位姿估计方法 | |
CN114581782A (zh) | 一种基于由粗到精检测策略的细微缺陷检测方法 | |
CN115284279A (zh) | 一种基于混叠工件的机械臂抓取方法、装置及可读介质 | |
CN113681552B (zh) | 一种基于级联神经网络的机器人混杂物体五维抓取方法 | |
Abu-Jassar et al. | The Optical Flow Method and Graham’s Algorithm Implementation Features for Searching for the Object Contour in the Mobile Robot’s Workspace | |
CN117381793A (zh) | 一种基于深度学习的物料智能检测视觉系统 | |
Shi et al. | A fast workpiece detection method based on multi-feature fused SSD | |
CN115213122A (zh) | 基于3d深度网络的无序分拣方法 | |
CN113822946B (zh) | 一种基于计算机视觉的机械臂抓取方法 | |
Geng et al. | A Novel Real-time Grasping Method Cobimbed with YOLO and GDFCN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |