CN109461184A - 一种机器人机械臂抓取物体的抓取点自动定位方法 - Google Patents

一种机器人机械臂抓取物体的抓取点自动定位方法 Download PDF

Info

Publication number
CN109461184A
CN109461184A CN201811289800.4A CN201811289800A CN109461184A CN 109461184 A CN109461184 A CN 109461184A CN 201811289800 A CN201811289800 A CN 201811289800A CN 109461184 A CN109461184 A CN 109461184A
Authority
CN
China
Prior art keywords
crawl
robot arm
automatic positioning
depth
positioning method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811289800.4A
Other languages
English (en)
Other versions
CN109461184B (zh
Inventor
郑军
李俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jushi Technology (shanghai) Co Ltd
Original Assignee
Jushi Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jushi Technology (shanghai) Co Ltd filed Critical Jushi Technology (shanghai) Co Ltd
Priority to CN201811289800.4A priority Critical patent/CN109461184B/zh
Publication of CN109461184A publication Critical patent/CN109461184A/zh
Application granted granted Critical
Publication of CN109461184B publication Critical patent/CN109461184B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种机器人机械臂抓取物体的抓取点自动定位方法,包括以下步骤:1)获取物体的RGB彩色图像和深度图像;2)将所述RGB彩色图像和深度图像通过一训练好的深度卷积神经网络模型,识别获取对应的物体区域标记、物体ID和物体朝向;3)根据所述物体ID选取对应物体的先验三维模型,根据所述物体区域标记和物体朝向将所述先验三维模型中最佳抓取点变换至实际观测空间,实现实际观测空间中抓取点的定位。与现有技术相比,本发明具有定位精确可靠等优点,即使抓取点在当前观测视角下由于自遮挡不可见,也能准确定位抓取点的空间位置。

Description

一种机器人机械臂抓取物体的抓取点自动定位方法
技术领域
本发明属于目标识别与机器人机械臂智能抓取领域,尤其是涉及一种机器人机械臂抓取物体的抓取点自动定位方法,是一种基于RGB-D图像的目标识别和抓取点定位技术。
背景技术
随着工业自动化水平的提高,机器人的应用不断深入和完善。机器人协同工作越来越多地受到人们的关注,但现在的工业机器人灵活程度低,只能根据教程完成单一的抓取和安装,无法根据物体不同的位置做成相应的判断,在生产过程中,需要大量的机器人共同进行工作,实现工业生产,这样不仅提高了生产成本,而且大量的机器人共同工作,占有了大量的空间。
机器人机械臂对于物体的智能抓取具有巨大的应用需求,而机器人机械臂对物体的抓取主要涉及两个主要方面,第一个方面主要是视觉检测,包括物体ID的自动识别和抓取点的自动定位,因为不同物体的形态不同抓取点也不同;第二方面是主要是抓取物体的机器人机械臂控制。而现有技术中对于第一个方面的定位还存在不够精确等不足。
现有技术中的一种方法是通过采集RGB-D图像,基于深度学习进行候选区域划分,经过白化处理后输入训练好的神经网络获取抓取位置。该方法在区域划分时每张图片要产生数千个候选区域,将每个候选区域输入卷积神经网络进行检测,计算量大,检测速度慢,不适用于实时性能要求较高的领域。且该方式仅能获取到目标物的抓取候选区域,无法确定目标的三维姿态,因此对于随意放置的目标物难以根据其不同位姿规划出最佳抓取方式。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种。
本发明的目的可以通过以下技术方案来实现:
一种机器人机械臂抓取物体的抓取点自动定位方法,包括以下步骤:
1)获取物体的RGB彩色图像和深度图像;
2)将所述RGB彩色图像和深度图像通过一训练好的深度卷积神经网络模型,识别获取对应的物体区域标记、物体ID和物体朝向;
3)根据所述物体ID选取对应物体的先验三维模型,根据所述物体区域标记和物体朝向将所述先验三维模型中最佳抓取点变换至实际观测空间,实现实际观测空间中抓取点的定位。
进一步地,所述深度卷积神经网络模型包括:
特征提取模块,包括多个卷积子模块,对输入图像进行卷积计算,提取多维特征图谱;
特征池化模块,包括多个池化层,每个池化层对应连接于一所述卷积子模块之后,对所述多维特征图谱进行去最大值下采样;
估算模块,包括多个全连接层,连接于所述特征池化模块之后,用于估算获得物体区域标记、物体ID和物体朝向。
进一步地,所述特征提取模块中,第一个卷积子模块分为两个信息流,一个是对RGB彩色图像进行特征提取,一个是对深度图像进行特征提取,两个信息流合并后输入第二个卷积子模块。
进一步地,所述卷积子模块包括相连接的两层卷积层。
进一步地,所述估算模块包括分别用于估算物体区域标记、物体ID和物体朝向的三个估算子模块,每个所述估算子模块由两个全连接层构成。
进一步地,所述深度卷积神经网络模型中,每个卷积层后设有非线性激活层。
进一步地,所述深度卷积神经网络模型训练时采用的样本数据库通过以下方式获得:
从在线3D模型库中获取各类物体模型,对各物体模型赋予对应物体ID,并标记最佳抓取点,多视角渲染所述物体模型,生成RGB彩色图像集和深度图像集,所述RGB彩色图像集和深度图像集构成样本数据集。
进一步地,进行所述多视角渲染时,渲染背景随机设置为NYU-Depth V2背景图片或者Make-3D室外背景图片。
进一步地,所述根据所述物体区域标记和物体朝向将所述先验三维模型中最佳抓取点变换至实际观测空间具体为:
301)根据估算的物体朝向,对选取的先验三维模型进行渲染得到三维点云P_gt;
302)根据估算的物体区域标记,将输入的深度图像物体标记区域的像素转化为三维点云P_input;
303)将所述三维点云P_gt和P_input配准,获得最优的旋转参数R和平移参数T;
304)根据所述旋转参数R和平移参数T将先验三维模型中的最佳抓取点变换至实际观测空间。
进一步地,所述将所述三维点云P_gt和P_input配准具体为:
将三维点云P_gt和P_input的重心进行配准,采用最近点迭代的方法求解最优的旋转参数R和平移参数T。
与现有技术相比,本发明具有以如下有益效果:
1)本发明通过深度卷积神经网络模型估算物体ID、物体朝向以及物体的二值标记图,根据估算的物体ID标记将对应物体的三维模型配准到观测场景中,并将预先标记的最佳抓取点迁移到观测空间中,实现抓取点的自动定位,使得即使抓取点在当前观测视角下由于自遮挡不可见,也能准确定位抓取点的空间位置,抓取定位更加精确可靠。
2)本发明设计的深度卷积神经网络模型可实现特征提取、特征池化和估算,能够对物体ID、物体朝向以及物体区域标记实现精确估计,进而提高定位精度。
3)本发明深度卷积神经网络模型中,在每个卷积层后加入ReLU非线性激活层,使得整个网络具备模拟高阶非线性函数的能力。
附图说明
图1为本发明的深度卷积神经网络结构示意图;
图2为本发明的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图2所示,本实施例提供一种机器人机械臂抓取物体的抓取点自动定位方法,该机械臂可以立即为工业机器人机械臂,或其它类型机器人的机械臂,或类似的自动化机械机构。
包括以下步骤:
1)获取物体的RGB彩色图像和深度图像;
2)将所述RGB彩色图像和深度图像通过一训练好的深度卷积神经网络模型,识别获取对应的物体区域标记、物体ID和物体朝向;
3)根据所述物体ID选取对应物体的先验三维模型,根据所述物体区域标记和物体朝向将所述先验三维模型中最佳抓取点变换至实际观测空间,实现实际观测空间中抓取点的定位。
如图1所示,本实施例的深度卷积神经网络模型包括:
特征提取模块,包括多个卷积子模块,对输入图像进行卷积计算,提取多维特征图谱;
特征池化模块,包括多个池化层,每个池化层对应连接于一所述卷积子模块之后,对所述多维特征图谱进行去最大值下采样;
估算模块,包括多个全连接层,连接于所述特征池化模块之后,用于估算获得物体区域标记、物体ID和物体朝向。
本实施例的特征提取模块由5个卷积子模块组成,且第一个卷积子模块分为两个信息流,一个是对RGB彩色图像进行特征提取,一个是对深度图像进行特征提取,两个信息流合并后输入第二个卷积子模块。各卷积子模块包括相连接的两层卷积层,2层卷积层的卷积核大小均为3*3,5个模块内每层包含的卷积核个数分别为64,128,256,256,512。特征池化模块对应设置有5个池化层。
估算模块包括分别用于估算物体区域标记、物体ID和物体朝向的三个估算子模块,每个所述估算子模块由两个全连接层构成。
物体朝向的估算子模块输出为一个3维向量,分别为沿x,y,z轴的旋转角度;物体ID的估算子模块输出为一个30维向量,向量每一位表示是该ID物体的概率;物体区域标记的估算子模块输出为一个112x112的二值标记图,而后通过双线性插值恢复成224x224的标记图,用于比较图像中物体占用的像素区域。
深度卷积神经网络模型中,每个卷积层后设有ReLU非线性激活层,使得整个网络具备模拟高阶非线性函数的能力。
上述深度卷积神经网络模型训练时采用的样本数据库通过以下方式获得:
从在线3D模型库中获取各类物体模型,对各物体模型赋予对应物体ID,并标记最佳抓取点,多视角渲染所述物体模型,生成RGB彩色图像集和深度图像集,所述RGB彩色图像集和深度图像集构成样本数据集。
本实施例中,从google warehous中获得共30个物体模型,包括杯子、锁具、台灯、玩具等,并进行ID顺序编号(从1开始,ID标号可视为类别标注);多视角渲染三维物体模型,得到RGB彩色图像和深度图像共10000张,其中包含物体区域,物体朝向和物体ID三类标注;9000张作为训练样本,1000张作为测试样本。进行所述多视角渲染时,渲染背景随机设置为NYU-Depth V2背景图片或者Make-3D室外背景图片。将彩色图像和深度图像裁剪并缩放至224*224图像大小后输入深度卷积神经网络模型。
对深度卷积神经网络模型训练时,设置网络的学习率和动量参数,利用matconvnet训练上述卷积神经网络模型,直至网络收敛。
根据所述物体区域标记和物体朝向将所述先验三维模型中最佳抓取点变换至实际观测空间具体为:
301)根据估算的物体朝向,对选取的先验三维模型进行渲染得到三维点云P_gt;
302)根据估算的物体区域标记,将输入的深度图像物体标记区域的像素转化为三维点云P_input;
303)将所述三维点云P_gt和P_input配准,首先将三维点云P_gt和P_input的重心进行配准,然后采用最近点迭代的方法求解最优的旋转参数R和平移参数T;
304)根据所述旋转参数R和平移参数T将先验三维模型中的最佳抓取点变换至实际观测空间。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,包括以下步骤:
1)获取物体的RGB彩色图像和深度图像;
2)将所述RGB彩色图像和深度图像通过一训练好的深度卷积神经网络模型,识别获取对应的物体区域标记、物体ID和物体朝向;
3)根据所述物体ID选取对应物体的先验三维模型,根据所述物体区域标记和物体朝向将所述先验三维模型中最佳抓取点变换至实际观测空间,实现实际观测空间中抓取点的定位。
2.根据权利要求1所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述深度卷积神经网络模型包括:
特征提取模块,包括多个卷积子模块,对输入图像进行卷积计算,提取多维特征图谱;
特征池化模块,包括多个池化层,每个池化层对应连接于一所述卷积子模块之后,对所述多维特征图谱进行去最大值下采样;
估算模块,包括多个全连接层,连接于所述特征池化模块之后,用于估算获得物体区域标记、物体ID和物体朝向。
3.根据权利要求2所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述特征提取模块中,第一个卷积子模块分为两个信息流,一个是对RGB彩色图像进行特征提取,一个是对深度图像进行特征提取,两个信息流合并后输入第二个卷积子模块。
4.根据权利要求2所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述卷积子模块包括相连接的两层卷积层。
5.根据权利要求2所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述估算模块包括分别用于估算物体区域标记、物体ID和物体朝向的三个估算子模块,每个所述估算子模块由两个全连接层构成。
6.根据权利要求2所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述深度卷积神经网络模型中,每个卷积层后设有非线性激活层。
7.根据权利要求1所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述深度卷积神经网络模型训练时采用的样本数据库通过以下方式获得:
从在线3D模型库中获取各类物体模型,对各物体模型赋予对应物体ID,并标记最佳抓取点,多视角渲染所述物体模型,生成RGB彩色图像集和深度图像集,所述RGB彩色图像集和深度图像集构成样本数据集。
8.根据权利要求7所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,进行所述多视角渲染时,渲染背景随机设置为NYU-Depth V2背景图片或者Make-3D室外背景图片。
9.根据权利要求1所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述根据所述物体区域标记和物体朝向将所述先验三维模型中最佳抓取点变换至实际观测空间具体为:
301)根据估算的物体朝向,对选取的先验三维模型进行渲染得到三维点云P_gt;
302)根据估算的物体区域标记,将输入的深度图像物体标记区域的像素转化为三维点云P_input;
303)将所述三维点云P_gt和P_input配准,获得最优的旋转参数R和平移参数T;
304)根据所述旋转参数R和平移参数T将先验三维模型中的最佳抓取点变换至实际观测空间。
10.根据权利要求9所述的机器人机械臂抓取物体的抓取点自动定位方法,其特征在于,所述将所述三维点云P_gt和P_input配准具体为:
将三维点云P_gt和P_input的重心进行配准,采用最近点迭代的方法求解最优的旋转参数R和平移参数T。
CN201811289800.4A 2018-10-31 2018-10-31 一种机器人机械臂抓取物体的抓取点自动定位方法 Active CN109461184B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811289800.4A CN109461184B (zh) 2018-10-31 2018-10-31 一种机器人机械臂抓取物体的抓取点自动定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811289800.4A CN109461184B (zh) 2018-10-31 2018-10-31 一种机器人机械臂抓取物体的抓取点自动定位方法

Publications (2)

Publication Number Publication Date
CN109461184A true CN109461184A (zh) 2019-03-12
CN109461184B CN109461184B (zh) 2020-11-10

Family

ID=65609138

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811289800.4A Active CN109461184B (zh) 2018-10-31 2018-10-31 一种机器人机械臂抓取物体的抓取点自动定位方法

Country Status (1)

Country Link
CN (1) CN109461184B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111289A (zh) * 2019-04-28 2019-08-09 深圳市商汤科技有限公司 一种图像处理方法及装置
CN110232710A (zh) * 2019-05-31 2019-09-13 深圳市皕像科技有限公司 基于三维相机的物品定位方法、系统及设备
CN110298886A (zh) * 2019-07-01 2019-10-01 中国科学技术大学 一种基于四级卷积神经网络的灵巧手抓取规划方法
CN110455189A (zh) * 2019-08-26 2019-11-15 广东博智林机器人有限公司 一种大尺寸物料的视觉定位方法和搬运机器人
CN111476087A (zh) * 2020-03-02 2020-07-31 深圳市商汤科技有限公司 目标检测方法及其相关的模型训练方法、设备、装置
CN112989881A (zh) * 2019-12-16 2021-06-18 深圳慧智星晨科技有限公司 一种无监督可迁移的3d视觉物体抓取方法
CN113001552A (zh) * 2021-03-16 2021-06-22 中国科学院自动化研究所 面向杂质性目标的机器人操作协同抓取方法、系统及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107053173A (zh) * 2016-12-29 2017-08-18 芜湖哈特机器人产业技术研究院有限公司 机器人抓取系统及抓取工件的方法
CN107748890A (zh) * 2017-09-11 2018-03-02 汕头大学 一种基于深度图像的视觉抓取方法、装置及其可读存储介质
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107053173A (zh) * 2016-12-29 2017-08-18 芜湖哈特机器人产业技术研究院有限公司 机器人抓取系统及抓取工件的方法
CN107748890A (zh) * 2017-09-11 2018-03-02 汕头大学 一种基于深度图像的视觉抓取方法、装置及其可读存储介质
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111289A (zh) * 2019-04-28 2019-08-09 深圳市商汤科技有限公司 一种图像处理方法及装置
CN110232710A (zh) * 2019-05-31 2019-09-13 深圳市皕像科技有限公司 基于三维相机的物品定位方法、系统及设备
CN110298886A (zh) * 2019-07-01 2019-10-01 中国科学技术大学 一种基于四级卷积神经网络的灵巧手抓取规划方法
CN110298886B (zh) * 2019-07-01 2020-12-25 中国科学技术大学 一种基于四级卷积神经网络的灵巧手抓取规划方法
CN110455189A (zh) * 2019-08-26 2019-11-15 广东博智林机器人有限公司 一种大尺寸物料的视觉定位方法和搬运机器人
CN112989881A (zh) * 2019-12-16 2021-06-18 深圳慧智星晨科技有限公司 一种无监督可迁移的3d视觉物体抓取方法
CN111476087A (zh) * 2020-03-02 2020-07-31 深圳市商汤科技有限公司 目标检测方法及其相关的模型训练方法、设备、装置
CN113001552A (zh) * 2021-03-16 2021-06-22 中国科学院自动化研究所 面向杂质性目标的机器人操作协同抓取方法、系统及设备

Also Published As

Publication number Publication date
CN109461184B (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN109461184A (zh) 一种机器人机械臂抓取物体的抓取点自动定位方法
CN109255813B (zh) 一种面向人机协作的手持物体位姿实时检测方法
CN113450408B (zh) 一种基于深度相机的非规则物体位姿估计方法及装置
CN109102547A (zh) 基于物体识别深度学习模型的机器人抓取位姿估计方法
CN108898676B (zh) 一种虚实物体之间碰撞及遮挡检测方法及系统
CN108648233A (zh) 一种基于深度学习的目标识别与抓取定位方法
CN110246159A (zh) 基于视觉和雷达信息融合的3d目标运动分析方法
CN110202583A (zh) 一种基于深度学习的仿人机械手控制系统及其控制方法
CN100407798C (zh) 三维几何建模系统和方法
CN109816725A (zh) 一种基于深度学习的单目相机物体位姿估计方法及装置
CN111553949B (zh) 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN108573221A (zh) 一种基于视觉的机器人目标零件显著性检测方法
CN108536157A (zh) 一种智能水下机器人及其系统、物标跟踪方法
CN107357427A (zh) 一种用于虚拟现实设备的手势识别控制方法
CN106780484A (zh) 基于卷积神经网络特征描述子的机器人帧间位姿估计方法
CN112818925B (zh) 一种城市建筑和树冠识别方法
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN106780631A (zh) 一种基于深度学习的机器人闭环检测方法
Zhuang et al. Instance segmentation based 6D pose estimation of industrial objects using point clouds for robotic bin-picking
CN110751097B (zh) 一种半监督的三维点云手势关键点检测方法
CN107146237A (zh) 一种基于在线状态学习与估计的目标跟踪方法
CN110097574A (zh) 一种已知刚体的实时位姿估计方法
CN114882109A (zh) 一种面向遮挡、杂乱场景下的机器人抓取检测方法及系统
CN114742888A (zh) 一种基于深度学习的6d姿态估计方法
CN109318227A (zh) 一种基于人形机器人的掷骰子方法及人形机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant