CN110298886A - 一种基于四级卷积神经网络的灵巧手抓取规划方法 - Google Patents
一种基于四级卷积神经网络的灵巧手抓取规划方法 Download PDFInfo
- Publication number
- CN110298886A CN110298886A CN201910585483.9A CN201910585483A CN110298886A CN 110298886 A CN110298886 A CN 110298886A CN 201910585483 A CN201910585483 A CN 201910585483A CN 110298886 A CN110298886 A CN 110298886A
- Authority
- CN
- China
- Prior art keywords
- layer
- crawl
- neural networks
- convolutional neural
- dextrous hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于四级串联卷积神经网络的灵巧手抓取规划方法,其步骤包括:获取抓取框数据集以及抓取手势数据集,分别对前三级卷积神经网络和第四级卷积神经网络进行训练,确定网络的参数,得到灵巧手的抓取模型;其中,所提出的四级串联卷积神经网络中,前三级卷积神经网络用于获取目标物的最佳抓取框;第四级用于预测灵巧手的抓取手势,以多输入的网络获取多种抓取特征,从而根据目标物被抓取部位图像信息和灵巧手位姿信息,预测当前状态下的抓取手势。本发明能实现对未知物体的精细抓取,使得灵巧手抓取不受未知物体限制,从而提高灵巧手的抓取成功率。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于四级卷积神经网络的灵巧手抓取规划方法。
背景技术
物体抓取操作作为机器人的基本功能,一直是机器人领域的一个重要的研究方向。一般来说,抓取规划算法分为分析法和经验法。为了实现灵巧手抓取物体,分析法都是通过物体的三维模型来确定灵巧手的抓取位姿和手势,而现实环境中通常难以获取物体三维信息,这就大大限制了它们在实际场景中的应用。之后基于深度学习的经验法被广泛应用于抓取规划,但是其中大部分工作只考虑了简单夹持器的抓取规划。由于灵巧手不能像夹持器一样直接闭合,抓取规划需要考虑灵巧手的抓取手势,因此它们无法用在更加复杂的灵巧手抓取规划中。
发明内容
本发明针对目前灵巧手抓取规划方法的不足之处,提出一种便捷且实用的基于四级卷积神经网络的灵巧手抓取规划方法,以期能实现对未知物体的精细抓取,使得灵巧手抓取不受未知物体限制,从而提高灵巧手的抓取成功率。
本发明为解决技术问题采用如下技术方案:
本发明一种基于四级卷积神经网络的灵巧手抓取规划方法,是应用于由机器人、摄像机、目标物所组成的物体抓取操作中,其特点是,所述灵巧手抓取规划方法是按如下步骤进行:
步骤1:获取抓取框数据集以及抓取手势数据集:
步骤1.1:从网上获取已有的抓取框数据集;
步骤1.2:采集机器人灵巧手的抓取手势和抓取位姿,并获取目标物的深度图,根据所述抓取位姿及所述目标物的深度图,得到目标物被抓取部位的深度图;从而由所述抓取手势和抓取位姿以及目标物的深度图和目标物被抓取部位的深度图共同构成抓取手势数据集;
步骤2:设计卷积神经网络结构,包括四级卷积神经网络;其中,第一级卷积神经网络包括:n1层卷积层、1层金字塔池化层和k1层全连接层;第二级卷积神经网络包括:两个卷积神经网络,第一个卷积神经网络包括:n21层卷积层、1层金字塔池化层和k21层全连接层,第二个卷积神经网络包括:n22层卷积层、m22层最大池化层、1层金字塔池化层和k22层全连接层;第三级卷积神经网络包括:n3层卷积层、m3层最大池化层、1层金字塔池化层和k3层全连接层;第四级卷积神经网络包括:第一输入层、第二融合层和第三全连接层;所述输入层中包含三个输入通道,第一个输入通道包括:n41层卷积层以及m41层最大池化层;第二个输入通道包括:n42层卷积层以及m42层最大池化层;第二个输入通道包括:k43层全连接层;所述第三全连接层包括:k4层全连接层;
设置各个卷积层、最大池化层和全连接层的核大小和步进大小;
步骤3:训练卷积神经网络结构,并得到灵巧手抓取模型:
步骤3.1:使用所述抓取框数据集对前三级卷积神经网络进行训练,确定前三级卷积神经网络的参数;
步骤3.2:使用抓取手势数据集对所述第四级卷积神经网络进行训练,确定第四级卷积神经网络的参数;其中,以所述目标物的深度图作为所述第一个输入通道的输入,以所述目标物被抓取部位的深度图作为所述第二个输入通道的输入,以所述抓取位姿作为所述第三个输入通道的输入;以所述抓取手势作为第四级卷积神经网络的输出;
步骤4:获取目标物被抓取部位的深度图:
步骤4.1:通过所述摄像机获取视角内目标物的彩色图像以及点云数据从而构成目标物的识别图像,并作为灵巧手抓取模型的输入;
步骤4.2:所述识别图像经过前三级卷积神经网络的处理后,得到在识别图像上的最优抓取框,根据所述最优抓取框截取目标物的被抓取部位,从而得到识别图像的目标物被抓取部位的深度图;其中,所述识别图像上的最优抓取框包括最优抓取框的中心位置和旋转角θ;
步骤5:确定识别图像中灵巧手的位姿:
步骤5.1:确定识别图像中灵巧手的位置:
步骤5.1.1:将所述目标物的彩色图像与点云数据进行匹配,得到彩色图像中每个像素值在相机坐标系中的3D值;
步骤5.1.2:根据最优抓取框的中心点,得到手掌中心在相机坐标系中的实际位置;
步骤5.1.3:通过相机坐标系和世界坐标系的转换关系,得到手掌中心在世界坐标系中的实际位置并作为灵巧手的位置;
步骤5.2:确定识别图像中灵巧手的姿态:
步骤5.2.1:建立手掌坐标系P:
以所述手掌中心作为手掌坐标系的原点,以所述灵巧手的中指方向作为手掌坐标系的z轴,以所述灵巧手的大拇指外展方向作为x轴,建立手掌坐标系P;
步骤5.2.2:选取目标物上位于抓取中心附近且不处于同一条直线上的三个点来构建目标物平面;由三个点在相机坐标系下的坐标计算目标物的倾斜平面法向量n1,再计算所述倾斜平面法向量n1与竖直平面法向量n2的夹角余弦值cosα,从而利用式(1)求解反余弦值,得到平面倾斜度α:
步骤5.2.3:由所述最优抓取框的旋转角θ和平面倾斜度α,从而利用式(2)得到手掌坐标系P相对于世界坐标系W的旋转矩阵
步骤5.3:确定灵巧手在世界坐标系中的位姿:
结合所述手掌中心在世界坐标系中的位置和所述手掌坐标系P相对于世界坐标系的旋转矩阵得到灵巧手在世界坐标系中的位姿;
步骤5.4:确定灵巧手在物体坐标系中的位姿:
步骤5.4.1:建立物体坐标系O:
以所述抓取框中心作为物体坐标系O的原点,以水平方向作为物体坐标系的x轴,以竖直方向作为物体坐标系的y轴,从而建立物体坐标系O;
步骤5.4.2:通过物体坐标系O和世界坐标系的转换关系,得到灵巧手在物体坐标系O中的位姿;
步骤6:预测灵巧手的抓取手势:
将所述识别图像作为第四级卷积神经网络中第一个输入通道的输入,将所述识别图像的目标物被抓取部位的深度图作为第四级卷积神经网络中第二个输入通道的输入,将所述灵巧手在物体坐标系O中的位姿作为第四级卷积神经网络中第三个输入通道的输入,从而利用第四级卷积神经网络预测灵巧手的抓取手势。
与已有技术相比,本发明的有益效果体现在:
1、本发明使用了四级卷积神经网络,前三级卷积神经网络搜索目标物图像上的最优抓取框,第四级卷积神经网络根据目标物深度图、由抓取框确定的目标物抓取部位深度图以及灵巧手相对于物体坐标系的位姿,预测灵巧手的抓取手势。本发明只需要目标物的图像信息,就可以实现灵巧手的抓取操作,从而解决了分析法需要构建目标物三维模型的问题,使得灵巧手的抓取规划变得简便且易操作。
2、本发明使用第四级卷积神经网络作为灵巧手抓取手势预测网络,并使用大量数据集进行训练,网络泛化能力较强。网络对被抓取的目标物没有种类要求,可以对任何目标物进行抓取,包括在训练集中没有的目标物,从而解决了分析法无法抓取未知目标物的问题,提高了灵巧手的抓取能力。
3、本发明设计的第四级卷积神经网络,综合考虑了物体的形状信息和灵巧手的位姿信息,可以对任何物体进行任意位姿的抓取操作,从而提高了灵巧手的抓取能力,使得灵巧手能够应对多种抓取任务。
附图说明
图1为本发明第四级神经网络结构图;
图2本发明方法的流程图。
具体实施方式
本实施例中,应用于由机器人、摄像机、目标物所组成的物体抓取操作中的基于四级卷积神经网络的灵巧手抓取规划方法包括:获取抓取框数据集以及抓取手势数据集,设计四级卷积神经网络结构,获取目标物被抓取部位的深度图,确定灵巧手的位置与姿态。其中对四级卷积神经网络,第一二三级用于检测物体的最佳抓取框,获得物体被抓取部位的深度图;第四级网络根据被抓取部位的深度图以及灵巧手的位姿信息,预测灵巧手的抓取手势。具体地说,是按如下步骤进行:
步骤1:获取抓取框数据集以及抓取手势数据集:
步骤1.1:从网上获取已有公开的抓取框数据集,节省数据集准备时间;
步骤1.2:在仿真软件GraspIt!中采集机器人灵巧手的抓取手势和抓取位姿,并在仿真软件Gazebo中获取目标物的深度图,根据抓取位姿及目标物的深度图,得到目标物被抓取部位的深度图;从而由抓取手势和抓取位姿以及目标物的深度图和目标物被抓取部位的深度图共同构成抓取手势数据集;数据集总共拥有1039个抓取实例。在仿真环境中获取数据集,可以实现数据的自动化采集,并且避免了在实际环境中人工采集数据费时费力的缺点。
步骤2:设计卷积神经网络结构,包括四级卷积神经网络。该发明通过大量的实验,并受人类抓取经验启发,从而设计出四级卷积神经网络的结构。其中,第一级卷积神经网络包括:1层卷积层、1层金字塔池化层和1层全连接层,卷积层的核大小为3×3,步进大小为1×1,全连接层大小为1;第二级卷积神经网络包括:两个卷积神经网络,第一个卷积神经网络包括:1层卷积层、1层金字塔池化层和1层全连接层,卷积层的核大小为3×3,步进大小为1×1,全连接层大小为1,第二个卷积神经网络包括:2层卷积层、1层最大池化层、1层金字塔池化层和1层全连接层,第一层卷积层的卷积核大小为5×5,第二层卷积层的卷积核大小为3×3,步进大小均为1×1,全连接层大小为1;第三级卷积神经网络包括:2层卷积层、1层最大池化层、1层金字塔池化层和2层全连接层,第一层卷积层的卷积核大小为5×5,第二层卷积层的卷积核大小为3×3,步进大小均为1×1,第一层全连接层大小为24,第二层全连接层大小为1;第四级卷积神经网络包括:第一输入层、第二融合层和第三全连接层;输入层中包含三个输入通道,第一个输入通道包括:2层卷积层以及1层最大池化层,第一层卷积层的卷积核大小为12×12,第二层卷积层的卷积核大小为6×6,步进大小均为2×2;第二个输入通道包括:2层卷积层以及2层最大池化层,第一层卷积层的卷积核大小为6×6,第二层卷积层的卷积核大小为3×3,步进大小均为2×2;第二个输入通道包括:3层全连接层,全连接层的大小均为32;第三全连接层包括:4层全连接层,前三层全连接层大小均为256,第四层全连接层大小为16,第四层全连接层的大小对应灵巧手的关节数量;从而设置各个卷积层、最大池化层和全连接层的核大小和步进大小;
第一级卷积神经网络能够快速粗略地搜索识别图像上目标物所在区域;第二级卷积神经网络中第一个卷积神经网络搜索目标物识别图像中的预选抓取框,第二个卷积神经网络搜索目标物深度图中的预选抓取框,两者的联合搜索能够避免图像中干扰元素对抓取框搜索的影响;第三级卷积神经网络对预选抓取框进行更近一步地评判,得到最优的抓取框;第四级卷积神经网络的结构如图1所示,第四级卷积神经网络根据目标物深度图、由抓取框确定的目标物抓取部位深度图以及灵巧手相对于物体坐标系的位姿,预测灵巧手的抓取手势;第四级卷积神经网络考虑到了目标物被抓取部位的形状以及灵巧手相对于物体坐标系的位姿对灵巧手抓取手势的影响;每一级卷积神经网络都实现各自的功能,大大减少网络的运行时间。
步骤3:训练卷积神经网络结构,并得到灵巧手抓取模型:
步骤3.1:使用抓取框数据集对前三级卷积神经网络进行训练,确定前三级卷积神经网络的参数;
步骤3.2:使用抓取手势数据集对第四级卷积神经网络进行训练,确定第四级卷积神经网络的参数;其中,以目标物的深度图作为第一个输入通道的输入,以目标物被抓取部位的深度图作为第二个输入通道的输入,以抓取位姿作为第三个输入通道的输入;以抓取手势作为第四级卷积神经网络的输出;
灵巧手的抓取流程图如图2所示,具体实施步骤如下;
步骤4:通过前三级卷积神经网络获取目标物被抓取部位的深度图:
步骤4.1:由通过摄像机获取视角内目标物的彩色图像以及点云数据并构成目标物的识别图像,并作为灵巧手抓取模型的输入;
步骤4.2:识别图像经过前三级卷积神经网络的处理后,得到在识别图像上的最优抓取框,根据最优抓取框截取目标物的被抓取部位,从而得到识别图像的目标物被抓取部位的深度图;其中,识别图像上的最优抓取框包括最优抓取框的中心位置和旋转角θ;
步骤5:确定识别图像中灵巧手的位姿:
步骤5.1:确定识别图像中灵巧手的位置:
步骤5.1.1:将目标物的彩色图像与点云数据进行匹配,得到彩色图像中每个像素值在相机坐标系中的3D值;
步骤5.1.2:根据最优抓取框的中心点,得到手掌中心在相机坐标系中的实际位置;
步骤5.1.3:通过相机坐标系和世界坐标系的转换关系,得到手掌中心在世界坐标系中的实际位置并作为灵巧手的位置;
步骤5.2:确定识别图像中灵巧手的姿态:
步骤5.2.1:建立手掌坐标系P:
以手掌中心作为手掌坐标系的原点,以灵巧手的中指方向作为手掌坐标系的z轴,以灵巧手的大拇指外展方向作为x轴,建立手掌坐标系P;
步骤5.2.2:选取目标物表面上位于抓取中心附近且不处于同一条直线上的三个点来构建物体表面平面;由三个点在相机坐标系下的坐标计算目标物的倾斜平面法向量n1,再计算平面法向量n1与竖直平面法向量n2的夹角余弦值cosα,从而利用式(1)求解反余弦值,得到平面倾斜度α:
步骤5.2.3:由最优抓取框的旋转角θ和平面倾斜度α,计算得到手掌坐标系P相对于世界坐标系W的旋转矩阵从而利用式(2)得到手掌坐标系P相对于世界坐标系的旋转矩阵为
步骤5.3:确定灵巧手在世界坐标系中的位姿:
结合手掌中心在世界坐标系中的位置和手掌坐标系P相对于世界坐标系的旋转矩阵得到灵巧手在世界坐标系中的位姿;根据灵巧手在世界坐标系中的位姿,通过运动学反解计算机械臂每个关节的旋转值,从而使灵巧手到达抓取位姿。
步骤5.4:确定灵巧手在物体坐标系中的位姿:
步骤5.4.1:建立物体坐标系O:
以抓取框中心作为物体坐标系的原点,以水平方向作为物体坐标系的x轴,以竖直方向作为物体坐标系的y轴;
步骤5.4.2:通过物体坐标系和世界坐标系的转换关系,得到灵巧手在物体坐标系中的位姿;将灵巧手在物体坐标系中的位姿,作为第四级卷积神经网络的第三个输入通道的输入;之所以选择灵巧手在物体坐标系中的位姿作为输入而不是灵巧手在世界坐标系中的位姿,是因为当多次抓取同一目标物的同一部位但目标物在世界坐标系中发生移动时,可以保证第四级网络输入的灵巧手位姿不会发生变化,从而使网络预测的灵巧手抓取手势保持一致。
步骤6:预测灵巧手的抓取手势:
将识别图像作为第四级卷积神经网络中第一个输入通道的输入,将识别图像的目标物被抓取部位的深度图作为第四级卷积神经网络中第二个输入通道的输入,将灵巧手在物体坐标系中的位姿作为第四级卷积神经网络中第三个输入通道的输入,预测灵巧手的抓取手势;
步骤7:闭合灵巧手:
灵巧手接近目标物体,并达到预测的抓取手势后,检测灵巧手与物体是否接触;如果还未接触,则继续闭合灵巧手直到接触目标物,完成抓取任务。
Claims (1)
1.一种基于四级卷积神经网络的灵巧手抓取规划方法,是应用于由机器人、摄像机、目标物所组成的物体抓取操作中,其特征是,所述灵巧手抓取规划方法是按如下步骤进行:
步骤1:获取抓取框数据集以及抓取手势数据集:
步骤1.1:从网上获取已有的抓取框数据集;
步骤1.2:采集机器人灵巧手的抓取手势和抓取位姿,并获取目标物的深度图,根据所述抓取位姿及所述目标物的深度图,得到目标物被抓取部位的深度图;从而由所述抓取手势和抓取位姿以及目标物的深度图和目标物被抓取部位的深度图共同构成抓取手势数据集;
步骤2:设计卷积神经网络结构,包括四级卷积神经网络;其中,第一级卷积神经网络包括:n1层卷积层、1层金字塔池化层和k1层全连接层;第二级卷积神经网络包括:两个卷积神经网络,第一个卷积神经网络包括:n21层卷积层、1层金字塔池化层和k21层全连接层,第二个卷积神经网络包括:n22层卷积层、m22层最大池化层、1层金字塔池化层和k22层全连接层;第三级卷积神经网络包括:n3层卷积层、m3层最大池化层、1层金字塔池化层和k3层全连接层;第四级卷积神经网络包括:第一输入层、第二融合层和第三全连接层;所述输入层中包含三个输入通道,第一个输入通道包括:n41层卷积层以及m41层最大池化层;第二个输入通道包括:n42层卷积层以及m42层最大池化层;第二个输入通道包括:k43层全连接层;所述第三全连接层包括:k4层全连接层;
设置各个卷积层、最大池化层和全连接层的核大小和步进大小;
步骤3:训练卷积神经网络结构,并得到灵巧手抓取模型:
步骤3.1:使用所述抓取框数据集对前三级卷积神经网络进行训练,确定前三级卷积神经网络的参数;
步骤3.2:使用抓取手势数据集对所述第四级卷积神经网络进行训练,确定第四级卷积神经网络的参数;其中,以所述目标物的深度图作为所述第一个输入通道的输入,以所述目标物被抓取部位的深度图作为所述第二个输入通道的输入,以所述抓取位姿作为所述第三个输入通道的输入;以所述抓取手势作为第四级卷积神经网络的输出;
步骤4:获取目标物被抓取部位的深度图:
步骤4.1:通过所述摄像机获取视角内目标物的彩色图像以及点云数据从而构成目标物的识别图像,并作为灵巧手抓取模型的输入;
步骤4.2:所述识别图像经过前三级卷积神经网络的处理后,得到在识别图像上的最优抓取框,根据所述最优抓取框截取目标物的被抓取部位,从而得到识别图像的目标物被抓取部位的深度图;其中,所述识别图像上的最优抓取框包括最优抓取框的中心位置和旋转角θ;
步骤5:确定识别图像中灵巧手的位姿:
步骤5.1:确定识别图像中灵巧手的位置:
步骤5.1.1:将所述目标物的彩色图像与点云数据进行匹配,得到彩色图像中每个像素值在相机坐标系中的3D值;
步骤5.1.2:根据最优抓取框的中心点,得到手掌中心在相机坐标系中的实际位置;
步骤5.1.3:通过相机坐标系和世界坐标系的转换关系,得到手掌中心在世界坐标系中的实际位置并作为灵巧手的位置;
步骤5.2:确定识别图像中灵巧手的姿态:
步骤5.2.1:建立手掌坐标系P:
以所述手掌中心作为手掌坐标系的原点,以所述灵巧手的中指方向作为手掌坐标系的z轴,以所述灵巧手的大拇指外展方向作为x轴,建立手掌坐标系P;
步骤5.2.2:选取目标物上位于抓取中心附近且不处于同一条直线上的三个点来构建目标物平面;由三个点在相机坐标系下的坐标计算目标物的倾斜平面法向量n1,再计算所述倾斜平面法向量n1与竖直平面法向量n2的夹角余弦值cosα,从而利用式(1)求解反余弦值,得到平面倾斜度α:
步骤5.2.3:由所述最优抓取框的旋转角θ和平面倾斜度α,从而利用式(2)得到手掌坐标系P相对于世界坐标系W的旋转矩阵
步骤5.3:确定灵巧手在世界坐标系中的位姿:
结合所述手掌中心在世界坐标系中的位置和所述手掌坐标系P相对于世界坐标系的旋转矩阵得到灵巧手在世界坐标系中的位姿;
步骤5.4:确定灵巧手在物体坐标系中的位姿:
步骤5.4.1:建立物体坐标系O:
以所述抓取框中心作为物体坐标系O的原点,以水平方向作为物体坐标系的x轴,以竖直方向作为物体坐标系的y轴,从而建立物体坐标系O;
步骤5.4.2:通过物体坐标系O和世界坐标系的转换关系,得到灵巧手在物体坐标系O中的位姿;
步骤6:预测灵巧手的抓取手势:
将所述识别图像作为第四级卷积神经网络中第一个输入通道的输入,将所述识别图像的目标物被抓取部位的深度图作为第四级卷积神经网络中第二个输入通道的输入,将所述灵巧手在物体坐标系O中的位姿作为第四级卷积神经网络中第三个输入通道的输入,从而利用第四级卷积神经网络预测灵巧手的抓取手势。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910585483.9A CN110298886B (zh) | 2019-07-01 | 2019-07-01 | 一种基于四级卷积神经网络的灵巧手抓取规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910585483.9A CN110298886B (zh) | 2019-07-01 | 2019-07-01 | 一种基于四级卷积神经网络的灵巧手抓取规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298886A true CN110298886A (zh) | 2019-10-01 |
CN110298886B CN110298886B (zh) | 2020-12-25 |
Family
ID=68029780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910585483.9A Active CN110298886B (zh) | 2019-07-01 | 2019-07-01 | 一种基于四级卷积神经网络的灵巧手抓取规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298886B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111085997A (zh) * | 2019-12-17 | 2020-05-01 | 清华大学深圳国际研究生院 | 基于点云获取和处理的抓取训练方法及系统 |
CN111360862A (zh) * | 2020-02-29 | 2020-07-03 | 华南理工大学 | 一种基于卷积神经网络的生成最佳抓取位姿的方法 |
CN112149691A (zh) * | 2020-10-10 | 2020-12-29 | 上海鹰瞳医疗科技有限公司 | 用于双目视觉匹配的神经网络搜索方法及设备 |
CN113420752A (zh) * | 2021-06-23 | 2021-09-21 | 湖南大学 | 基于抓取点检测的三指手势生成方法及系统 |
CN114332209A (zh) * | 2021-12-30 | 2022-04-12 | 华中科技大学 | 一种基于轻量级卷积神经网络的抓取位姿检测方法及设备 |
CN114415507A (zh) * | 2022-01-07 | 2022-04-29 | 浙江工业大学 | 基于深度神经网络的灵巧手抓持过程动力学模型搭建及训练方法 |
WO2022116677A1 (zh) * | 2020-12-02 | 2022-06-09 | 达闼机器人股份有限公司 | 目标物体抓取方法、装置、存储介质及电子设备 |
CN114643586A (zh) * | 2022-05-24 | 2022-06-21 | 中国科学技术大学 | 基于深度神经网络的多指灵巧手抓取手势规划方法 |
CN114820802A (zh) * | 2022-07-01 | 2022-07-29 | 深圳大学 | 高自由度灵巧手抓取规划方法、装置和计算机设备 |
CN115401698A (zh) * | 2022-10-17 | 2022-11-29 | 福州大学 | 一种基于抓取手势检测的机械手灵巧抓取规划方法和系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150174759A1 (en) * | 2012-01-13 | 2015-06-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and computer-program products for evaluating grasp patterns, and robots incorporating the same |
CN106553195A (zh) * | 2016-11-25 | 2017-04-05 | 中国科学技术大学 | 工业机器人抓取过程中的物体6自由度定位方法及系统 |
CN106737692A (zh) * | 2017-02-10 | 2017-05-31 | 杭州迦智科技有限公司 | 一种基于深度投影的机械手爪抓取规划方法及控制装置 |
CN107139179A (zh) * | 2017-05-26 | 2017-09-08 | 西安电子科技大学 | 一种智能服务机器人及工作方法 |
CN107953329A (zh) * | 2016-10-17 | 2018-04-24 | 中国科学院深圳先进技术研究院 | 物体识别和姿态估计方法、装置及机械臂抓取系统 |
CN108010078A (zh) * | 2017-11-29 | 2018-05-08 | 中国科学技术大学 | 一种基于三级卷积神经网络的物体抓取检测方法 |
CN108073851A (zh) * | 2016-11-08 | 2018-05-25 | 株式会社理光 | 一种抓取手势识别的方法、装置及电子设备 |
CN108171141A (zh) * | 2017-12-25 | 2018-06-15 | 淮阴工学院 | 基于注意力模型的级联多模式融合的视频目标跟踪方法 |
CN109461184A (zh) * | 2018-10-31 | 2019-03-12 | 聚时科技(上海)有限公司 | 一种机器人机械臂抓取物体的抓取点自动定位方法 |
-
2019
- 2019-07-01 CN CN201910585483.9A patent/CN110298886B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150174759A1 (en) * | 2012-01-13 | 2015-06-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and computer-program products for evaluating grasp patterns, and robots incorporating the same |
CN107953329A (zh) * | 2016-10-17 | 2018-04-24 | 中国科学院深圳先进技术研究院 | 物体识别和姿态估计方法、装置及机械臂抓取系统 |
CN108073851A (zh) * | 2016-11-08 | 2018-05-25 | 株式会社理光 | 一种抓取手势识别的方法、装置及电子设备 |
CN106553195A (zh) * | 2016-11-25 | 2017-04-05 | 中国科学技术大学 | 工业机器人抓取过程中的物体6自由度定位方法及系统 |
CN106737692A (zh) * | 2017-02-10 | 2017-05-31 | 杭州迦智科技有限公司 | 一种基于深度投影的机械手爪抓取规划方法及控制装置 |
CN107139179A (zh) * | 2017-05-26 | 2017-09-08 | 西安电子科技大学 | 一种智能服务机器人及工作方法 |
CN108010078A (zh) * | 2017-11-29 | 2018-05-08 | 中国科学技术大学 | 一种基于三级卷积神经网络的物体抓取检测方法 |
CN108171141A (zh) * | 2017-12-25 | 2018-06-15 | 淮阴工学院 | 基于注意力模型的级联多模式融合的视频目标跟踪方法 |
CN109461184A (zh) * | 2018-10-31 | 2019-03-12 | 聚时科技(上海)有限公司 | 一种机器人机械臂抓取物体的抓取点自动定位方法 |
Non-Patent Citations (1)
Title |
---|
喻群超 等: ""基于三级卷积神经网络的物体抓取检测"", 《机器人》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111085997A (zh) * | 2019-12-17 | 2020-05-01 | 清华大学深圳国际研究生院 | 基于点云获取和处理的抓取训练方法及系统 |
CN111360862B (zh) * | 2020-02-29 | 2023-03-24 | 华南理工大学 | 一种基于卷积神经网络的生成最佳抓取位姿的方法 |
CN111360862A (zh) * | 2020-02-29 | 2020-07-03 | 华南理工大学 | 一种基于卷积神经网络的生成最佳抓取位姿的方法 |
CN112149691A (zh) * | 2020-10-10 | 2020-12-29 | 上海鹰瞳医疗科技有限公司 | 用于双目视觉匹配的神经网络搜索方法及设备 |
CN112149691B (zh) * | 2020-10-10 | 2021-10-15 | 北京鹰瞳科技发展股份有限公司 | 用于双目视觉匹配的神经网络搜索方法及设备 |
WO2022116677A1 (zh) * | 2020-12-02 | 2022-06-09 | 达闼机器人股份有限公司 | 目标物体抓取方法、装置、存储介质及电子设备 |
CN113420752A (zh) * | 2021-06-23 | 2021-09-21 | 湖南大学 | 基于抓取点检测的三指手势生成方法及系统 |
CN114332209A (zh) * | 2021-12-30 | 2022-04-12 | 华中科技大学 | 一种基于轻量级卷积神经网络的抓取位姿检测方法及设备 |
CN114332209B (zh) * | 2021-12-30 | 2024-09-13 | 华中科技大学 | 一种基于轻量级卷积神经网络的抓取位姿检测方法及设备 |
CN114415507A (zh) * | 2022-01-07 | 2022-04-29 | 浙江工业大学 | 基于深度神经网络的灵巧手抓持过程动力学模型搭建及训练方法 |
CN114415507B (zh) * | 2022-01-07 | 2024-05-28 | 浙江工业大学 | 基于深度神经网络的灵巧手抓持过程动力学模型搭建及训练方法 |
CN114643586A (zh) * | 2022-05-24 | 2022-06-21 | 中国科学技术大学 | 基于深度神经网络的多指灵巧手抓取手势规划方法 |
CN114820802A (zh) * | 2022-07-01 | 2022-07-29 | 深圳大学 | 高自由度灵巧手抓取规划方法、装置和计算机设备 |
CN115401698A (zh) * | 2022-10-17 | 2022-11-29 | 福州大学 | 一种基于抓取手势检测的机械手灵巧抓取规划方法和系统 |
CN115401698B (zh) * | 2022-10-17 | 2024-06-25 | 福州大学 | 一种基于抓取手势检测的机械手灵巧抓取规划方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110298886B (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298886A (zh) | 一种基于四级卷积神经网络的灵巧手抓取规划方法 | |
Chen et al. | A system for general in-hand object re-orientation | |
CN108972494B (zh) | 一种仿人机械手抓取控制系统及其数据处理方法 | |
CN108638054A (zh) | 一种智能排爆机器人五指灵巧手控制方法 | |
CN106078748B (zh) | 一种基于手、眼、臂协调操作的机器人抓取物体的控制方法 | |
CN111602517A (zh) | 一种串型水果分布式视觉主动感知方法及其应用 | |
CN106874914A (zh) | 一种基于深度卷积神经网络的工业机械臂视觉控制方法 | |
Zhang et al. | Robotic grasp detection based on image processing and random forest | |
CN107808143A (zh) | 基于计算机视觉的动态手势识别方法 | |
CN111251294A (zh) | 一种基于视觉位姿感知和深度强化学习的机器人抓取方法 | |
CN110084307A (zh) | 一种基于深度强化学习的移动机器人视觉跟随方法 | |
CN108734194A (zh) | 一种面向虚拟现实的基于单深度图的人体关节点识别方法 | |
CN106909216A (zh) | 一种基于Kinect传感器的仿人机械手控制方法 | |
CN105787478A (zh) | 基于神经网络和灵敏度参数的人脸转向识别方法 | |
CN109045676B (zh) | 一种象棋识别学习算法和基于该算法的机器人智动化系统与方法 | |
CN108196453A (zh) | 一种机械臂运动规划群体智能计算方法 | |
CN104517100B (zh) | 手势预判方法和系统 | |
CN109483534A (zh) | 一种物体抓取方法、装置和系统 | |
CN109739358A (zh) | 基于裸眼3d的手势碰撞检测方法及设备 | |
CN109359514A (zh) | 一种面向deskVR的手势跟踪识别联合策略方法 | |
Chen et al. | Combining reinforcement learning and rule-based method to manipulate objects in clutter | |
CN102830798A (zh) | 单臂机器人基于Kinect的无标记人手跟踪方法 | |
Zhang et al. | Reinforcement learning based pushing and grasping objects from ungraspable poses | |
CN113822933B (zh) | 一种基于ResNeXt的智能机器人抓取方法 | |
CN114998573A (zh) | 一种基于rgb-d特征深度融合的抓取位姿检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |