CN111738261A - 基于位姿估计和校正的单图像机器人无序目标抓取方法 - Google Patents

基于位姿估计和校正的单图像机器人无序目标抓取方法 Download PDF

Info

Publication number
CN111738261A
CN111738261A CN202010619800.7A CN202010619800A CN111738261A CN 111738261 A CN111738261 A CN 111738261A CN 202010619800 A CN202010619800 A CN 202010619800A CN 111738261 A CN111738261 A CN 111738261A
Authority
CN
China
Prior art keywords
image
grabbed
grabbing
camera
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010619800.7A
Other languages
English (en)
Other versions
CN111738261B (zh
Inventor
张辉
赵晨阳
刘理
钟杭
梁志聪
王耀南
毛建旭
朱青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202010619800.7A priority Critical patent/CN111738261B/zh
Publication of CN111738261A publication Critical patent/CN111738261A/zh
Application granted granted Critical
Publication of CN111738261B publication Critical patent/CN111738261B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明具体公开了一种基于位姿估计和校正的单图像机器人无序目标抓取方法,所述方法包括:S1、生成待抓取物体模型的图像数据集;S2、根据步骤S1的图像数据集构建卷积神经网络模型;S3、将待抓取物体的二维图像导入训练好的卷积神经网络模型中提取对应的置信图和向量场;S4、获取待抓取物体的预测平移量和预测旋转量;S5、找到待抓取物体最优抓取点并计算深度相机的测量平移量;S6、根据待抓取物体的预测平移量和深度相机的测量平移量进行抓取安全距离校正,若校正成功则执行校正数据抓取,若校正失败则进入S7;S7、重复步骤S3‑S6。本发明中无序目标抓取方法具有可靠性高、鲁棒性强和实时性好的特点,能够满足现有工业生产要求,具有较高的应用价值。

Description

基于位姿估计和校正的单图像机器人无序目标抓取方法
技术领域
本发明涉及智能机器人技术领域,尤其涉及一种基于位姿估计和校正的单图像机器人无序目标抓取方法。
背景技术
6D位姿估计是人工智能应用,如:增强现实、自动驾驶、机器人操纵等所需的关键技术。它可以帮助机器人掌握目标位置和目标方向以对目标进行抓取。例如,在亚马逊拣货挑战赛中,机器人从仓库货架上捡拾目标货物的任务与快速可靠的位姿估计密不可分。
基于现有的研究,6D姿态估计的方法可大致分为基于模板的方法和基于特征的方法。传统的基于模板的方法先构造对象的刚性模板;然后使用模板扫描输入图像中的不同位置,并在每个模板中计算相似度得分位置;最后,通过比较这些相似性得分,获得最佳匹配。基于模板的匹配方法可以检测出无纹理的目标,但是当目标存在遮挡,截断等情况时,相似度分数通常会较低,导致可靠性较低。传统的基于特征的方法依赖于手工制作的局部特征,并且通过2D图像和3D模型之间的对应关系生成目标位姿估计。基于特征的方法可以处理遮挡、截断等问题,但是手工特征需要目标具有丰富的纹理并且对照明和场景混乱不稳健,鲁棒性较差。
尽管最近有几种新技术将深度信息用于物体位姿估计,而且取得了较好的结果,但是存在以下两个问题:第一,训练深度卷积神经网络通常需要大量的标记数据,包括使用精确的6自由度姿势进行注释的目标对象。与2D检测相比,基于卷积神经网络的3D检测禁止手动标记数据,因为无法保证手动标记数据的准确性。因此,可以使用合成数据来训练深度卷积神经网络,虽然合成数据保证了数据的准确性,但是合成数据最主要的一个缺点是现实差距。第二,由于RGB-D相机在帧率,视野,分辨率和深度范围方面存在局限性,这使较小,较薄或快速移动的目标很难被检测到,同时移动设备上的有源传感器会消耗过多功率。目前单目相机的6D姿态估计仍然是一个具有挑战性的问题,目标的表面会受到照明,复杂场景和遮挡等诸多方面的影响。因此,单目RGB图像姿态估计的研究更加有价值和实用。
基于实际物体的目标检测和精细位姿估计是成功抓取的前提。尽管基于关键点的传统方法可以得到精确的位姿估计,但其在机器人任务上的适用性依赖于受控环境和有细节信息的刚性物体;另一方面,基于CNN的方法在不受控环境中的物体识别能得到较好的结果,如基于类别的粗糙的位姿估计,但其需要大量的全标记的训练图像数据集,因此采用CNN方法进行实际物体的位姿估计会有困难。
鉴于此,本发明采用合成数据去训练神经网络,从而避免对特定数据集分布的过度拟合,产生了一个对光照变化、相机变化和背景都具有鲁棒性的网络,具有可靠性高、鲁棒性强且实时性好的优点。
发明内容
本发明的目的是提供一种可靠性高、鲁棒性强且实时性好的基于位姿估计和校正的单图像机器人无序目标抓取方法。
为解决上述技术问题,本发明提供一种基于位姿估计和校正的单图像机器人无序目标抓取方法,所述方法包括以下步骤:
S1、获取待抓取物体模型的随机图像数据和真实感图像数据,并生成对应图像数据集;
S2、构建卷积神经网络,并将步骤S1中所获取的图像数据集输入卷积神经网络中进行离线训练,得到卷积神经网络模型;
S3、通过深度相机采集待抓取物体的二维图像并将该二维图像导入卷积神经网络模型中,输出对应的置信图和向量场;
S4、对步骤S3中所输出的置信图进行实例检测以选择出置信图的有效投射顶点,并将有效投射顶点的单位向量与向量场的单位向量进行比较输出有效的2D投射顶点,然后根据有效的2D投射顶点并利用PnP算法获取待抓取物体的姿态估计值,包括预测平移量μ1和预测旋转量;
S5、通过步骤S2中卷积神经网络模型获取待抓取物体二维图像的感兴趣区域,并将感兴趣区域与图像模板库进行匹配以找到最优抓取点,然后利用深度相机计算最优抓取点的三维距离,从而得到深度相机的测量平移量μ2
S6、根据步骤S4中得到的预测平移量μ1和步骤S5中得到的测量平移量μ2进行抓取安全距离校正,若校正成功则通过机械臂执行校正数据抓取,若校正失败则进入步骤S7;
S7、重复步骤S3-步骤S6。
优选地,所述步骤S1的具体实现方式包括以下步骤:
S11、制作一个与待抓取物体的物理尺寸及表面纹理均一致的模型;
S12、将接近抓取环境的实验室抓取背景和贴近真实物体场景的户外场景进行1:1结合并与随机背景一起作为虚拟环境的随机图像场景,然后任意选取一组3D模型对待抓取物体模型进行随机遮挡,通过不断调整待抓取物体模型与深度相机之间的距离和角度,获取待抓取物体模型的随机图像数据;
S13、将待抓取物体模型置于具有物理约束的3D背景中获取待抓取物体模型的真实感图像数据;
S14、将步骤S12中获取的随机图像数据与步骤S13中获取的真实感图像数据合并后作为待抓取物体模型的图像数据集。
优选地,所述步骤S2的具体实现方法包括以下步骤:
S21、构建一个具有十二个阶段的卷积神经网络结构,其中前四个阶段为特征提取网络,中间两个阶段为降维处理网络,后六个阶段为任务分支网络;
S22、将图像数据集中待训练的图像数据输入前四个阶段的特征提取网络中进行特征提取,其中前一个特征提取网络的输出为后一个特征提取网络的输入;
S23、将最后一个特征提取网络的输出通过两个降维处理网络中进行降维处理,其中第一个降维处理网络的输出为第二降维处理网络的输入;
S24、将第二个降维处理网络输出的特征输入六个阶段的任务分支网络中,其中前一个任务分支网络的输出为后一个任务分支网络的输入,从而提取出对应图像数据的包括八个投射顶点和一个质心点的置信图以及从八个投射顶点分别到对应质心点方向的向量场,得到卷积神经网络模型。
优选地,所述步骤S4的具体实现方式包括以下步骤:
S41、分别将所述置信图检测到的八个投射顶点与groundtruth进行计算,获取符合设定正态分布的置信度值,其计算公式可表示为:
Figure BDA0002562643710000031
式(1)中,Confidence(Pk)表示置信度,xm1,m2表示数据的标签坐标,Pk表示置信图中检测到的第k个投射顶点坐标,k表示投射顶点的序号,k=1,2,…8,σ2表示设定正态分布的方差;
S42、设定置信度阈值a,将步骤S41中所获得每个投射顶点的置信度值Confidence(Pk)与设定的置信阈值a比较,若Confidence(Pk)≥a,则保留该投射顶点,若Confidence(Pk)<a,则舍去该投射顶点;
S43、计算
Figure BDA0002562643710000041
的正切值
Figure BDA0002562643710000042
Figure BDA0002562643710000043
与设定误差角阈值b比较以判定步骤S42所保留的投射顶点与质心点是否相关联,若
Figure BDA0002562643710000044
时,则判定该投射顶点与质心点相关联,若
Figure BDA0002562643710000045
则判定该投射顶点不与质心点相关联,且需要保证同一个待抓取物体至少有4个投射顶点与质心点相关联,其中
Figure BDA0002562643710000046
的计算公式可表示为:
Figure BDA0002562643710000047
式(2)中,
Figure BDA0002562643710000048
表示两个向量之间的误差,
Figure BDA0002562643710000049
表示从包围框的第k个投射顶点指向质心点的向量,
Figure BDA00025626437100000410
表示第k个投射顶点对应的向量场;
S44、根据步骤S43得到的有效投射顶点并利用PnP算法获取待抓取物体的姿态估计值,即预测平移量μ1和预测旋转量。
优选地,所述步骤S44的具体实现方式包括:
S441、将步骤S43中得到的有效投射顶点在世界坐标系中对应点设为空间参考点Pi w=(xi,yi,zi),其中i=1,2,…n,4≤n≤8,i表示有效投射顶点的序号,n表示空间参考点个数,然后计算出空间参考点Pi w对应向量αij,可用公式表示为:
Figure BDA00025626437100000411
在世界坐标系中,空间参考点可以由4个虚拟控制点表达,利用PnP算法可知,当满足
Figure BDA00025626437100000412
时,可将空间参考点坐标表示为虚拟控制点的加权和,则式(3)可表示为:
Figure BDA00025626437100000413
其中,
Figure BDA00025626437100000414
表示虚拟控制点在世界坐标系中的坐标,j表示虚拟控制点序号(j=1,2,3,4),若
Figure BDA0002562643710000051
表示空间参考点的重心,则
Figure BDA0002562643710000052
λc,j-1表示矩阵ATA的特征值,ν′c,j-1表示矩阵ATA的特征向量,其中矩阵
Figure BDA0002562643710000053
S442、计算空间参考点在相机坐标系中的坐标
Figure BDA0002562643710000054
根据图像坐标系与相机坐标系的关系可得:
Figure BDA0002562643710000055
Figure BDA0002562643710000056
式(4)和式(5)中,ωi表示相机捕捉图像时相机光圈到2D坐标点之间距离与相机光圈到3D坐标点之间距离的比值,K表示相机内参矩阵,(ui,vi)为空间参考点Pi w在图像中的2D投影点,
Figure BDA0002562643710000057
表示相机坐标系中的虚拟控制点,
Figure BDA0002562643710000058
则式(5)可表示为:
Figure BDA0002562643710000059
式(6)中,fu、fv、uc、vc表示相机内参;
由式(6)可得:
Figure BDA00025626437100000510
将n个空间参考点Pi w串起来可得:
Ml=0 (8)
式(8)中,M表示矩阵系数,l表示待求参数,即四个虚拟控制点
Figure BDA0002562643710000062
在相机坐标系中的坐标,且
Figure BDA0002562643710000063
则式(8)可表示为:
Figure BDA0002562643710000064
式(9)中,ν″h表示矩阵MTM对应零特征值的第h个特征向量,h表示矩阵MTM对应零特征值特征向量的序号,N表示矩阵MTM对应零特征值的特征向量的数量,βh表示待定系数,满足
Figure BDA0002562643710000065
其中,j1≠j2且j1∈j,j2∈j,
Figure BDA0002562643710000066
表示相机坐标系与世界坐标系中两个虚拟控制点之间的距离相等;
由(9)可得相机坐标系中的虚拟控制点
Figure BDA0002562643710000067
的计算公式:
Figure BDA0002562643710000068
式(10)中,
Figure BDA00025626437100000614
表示第j个虚拟控制点所占据的3个元素组成的向量;
S443、计算世界坐标系的质心点
Figure BDA0002562643710000069
相关矩阵A、相机坐标系的质心点
Figure BDA00025626437100000610
和相关矩阵B,可用公式表示:
Figure BDA00025626437100000611
Figure BDA00025626437100000612
Figure BDA00025626437100000613
Figure BDA0002562643710000071
S444、根据所述步骤S443得到的相关矩阵A和相关矩阵B,计算矩阵H并对矩阵H进行奇异值分解,可用公式表示为:
H=BTA (15)
H=UCVT (16)
式(16)中,U表示一个n×n的正交矩阵,C表示一个n×3的矩阵,V表示一个3×3的正交矩阵;
S445、根据步骤S444中的矩阵H奇异值分解结果计算旋转矩阵R,并通过旋转矩阵R计算出待抓取物体位姿的平移量T,然后利用高斯-牛顿最优化寻找最优解,从而获取待抓取物体的姿态估计值(Xt,Yt,Zt,Xr,Yr,Zr,Wr),即预测平移量μ1(Xt,Yt,Zt)和预测旋转量(Xr,Yr,Zr,Wr),可用公式表示:
R=UVT (17)
Figure BDA0002562643710000072
Figure BDA0002562643710000073
优选地,所述步骤S5中图像模板库的构建包括以下步骤:
S501、获取最优抓取点处任意旋转方向上的待抓取物体图像;
S502、获取最优抓取点处不平衡光照条件下的待抓取物体图像;
S503、获取最优抓取点处不同缩放比例下的待抓取物体图像;
S504、将步骤S501、步骤S502和步骤S503中所获取的最优抓取点处所有待抓取物体图像保存至模板库中,从而完成图像模板库的构建。
优选地,所述步骤S5的具体实现方式包括以下步骤:
S51、通过所述卷积神经网络模型获取待抓取物体二维图像的感兴趣区域,并将待抓取物体感兴趣区域与图像模板库进行标准相关匹配,可用公式表示为:
Figure BDA0002562643710000081
式(20)中,T′表示图像模板库中模板图像,I′表示待抓取物体图像,R(x,y)表示待抓取物体图像与图像模板库中模板图像之间的匹配程度,(x′,y′)表示图像模板库中模板图像像素点的坐标,T′(x′,y′)表示模板图像在坐标(x′,y′)处的像素值,(x+x′,y+y′)表示待抓取物体图像像素点的坐标,I′(x+x′,y+y′)表示待抓取物体图像在坐标(x+x′,y+y′)处的像素值;
S52、采用矩形框将步骤S51中匹配成功的图像框起来,然后计算该矩形框的质心点,从而找到待抓取物体的最优抓取点及最优抓取点的像素坐标;
S53、将待抓取物体的二维图像与深度相机图像进行匹配,并利用二维图像中最优抓取点像素找到对应深度相机图像的测量距离,从而得到相机的测量平移量μ2
优选地,所述步骤S6中抓取安全距离校正的具体实现方式包括以下步骤:
S61、设定误差阈值Q1与Q2,且Q1<Q2,同时保证最大误差阈值小于物体平面的直径;
S62、通过预测平移量μ1和测量平移量μ2计算平均距离D,可用公式表示为:
Figure BDA0002562643710000082
式(21)中,x1,y1,z1表示预测平移量μ1的坐标值,x2,y2,z2表示测量平移量μ2的坐标值;
S63、根据平均距离D与误差阈值的大小判断是否需要进行抓取安全距离校正,当D<Q1时,则判定姿态估计值较准确,进入步骤S64,当Q1<D<Q2时,则判定姿态估计值存在不构成抓取失败的少许偏差,进入步骤S65;当D>Q2时,则判定姿态估计值存在严重偏差,进入步骤S66;
S64、将预测平移量μ1和预测旋转量输入机械臂中,从而实现待抓取物体的精准抓取;
S65、分别计算预测平移量μ1与测量平移量μ2在三个方向上的平均值,获取待抓取物体相对于深度相机的校正平移量μ′,然后将所获取的校正平移量μ′和预测旋转量输入机械臂中,实现待抓取物体的精准抓取,其中校正平移量μ′的计算公式可表示为:
Figure BDA0002562643710000091
式(22)中,x″,y″,z″表示校正平移量μ′的坐标;
S66、返回步骤S3。
优选地,所述步骤S61中误差阈值Q1=0.02m,Q2=0.04m。
优选地,所述机械臂实现待抓取物体精准抓取的具体实现方式为:将抓取安全距离校正后的平移量和旋转量与相机内外参结合,计算出机器人的抓取控制量,即抓取平移量和抓取旋转量,然后将抓取控制量输入机械臂中实现待抓取物体的精准抓取,抓取控制量的计算公式可表示为:
Figure BDA0002562643710000092
式(23)中,
Figure BDA0002562643710000093
表示抓取平移量,
Figure BDA0002562643710000094
表示抓取旋转量,
Figure BDA0002562643710000095
表示世界坐标系与机器人基坐标系的转换关系,其中:
Figure BDA0002562643710000096
r1表示XW轴的旋转矩阵,
Figure BDA0002562643710000097
θ1表示机器人基坐标系绕XW轴旋转的角度,r2表示YW轴的旋转矩阵,
Figure BDA0002562643710000098
θ2表示机器人基坐标系绕YW轴旋转的角度,r3表示ZW轴的旋转矩阵,
Figure BDA0002562643710000101
θ3表示机器人基坐标系绕ZW轴旋转的角度;
Figure BDA0002562643710000102
Figure BDA0002562643710000103
表示世界坐标系与相机坐标系之间的转换关系,
Figure BDA0002562643710000104
表示相机坐标系与机械手坐标系之间的转换关系,
Figure BDA0002562643710000105
表示机械手坐标系与机器人基坐标系之间的转换关系,
Figure BDA0002562643710000106
Figure BDA0002562643710000107
可通过机器人标定得到,
Figure BDA0002562643710000108
Figure BDA0002562643710000109
表示姿态估计中的旋转矩阵,
Figure BDA00025626437100001010
(Xr,Yr,Zr,Wr)表示预测旋转量,
Figure BDA00025626437100001011
表示姿态估计中的平移向量,
Figure BDA00025626437100001012
X,Y,Z表示进行抓取安全校正后的平移量。
与现有技术比较,本发明通过采用合成数据训练卷积神经网络,从而避免对特定数据集分布的过度拟合,能够产生了一个对光照变化、相机变化和背景都具有鲁棒性的网络,具有可靠性高、鲁棒性强且实时性好的优点。
附图说明
图1是本发明一种基于位姿估计和校正的单图像机器人无序目标抓取方法流程图,
图2是本发明中获取待抓取物体模型图像数据集的方法流程图,
图3是本发明中获取卷积神经网络模型的方法流程图,
图4是本发明中置信图和向量场后期处理并对置信图中顶点进行选择分配的流程图,
图5是本发明中获取待抓取物体姿态估计值的方法流程图,
图6是本发明中图像模板库的构建流程图,
图7是本发明中获取深度相机测量平移量的方法流程图,
图8是本发明中通过抓取安全距离校正实现待抓取物体精准抓取的方法流程图,
图9是本发明中抓取安全距离校正算法示意图,
图10是本发明中机械臂抓取过程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
如图1所示,一种基于位姿估计和校正的单图像机器人无序目标抓取方法,所述方法包括以下步骤:
S1、获取待抓取物体模型的随机图像数据和真实感图像数据,并生成对应图像数据集;
S2、构建卷积神经网络,并将步骤S1中所获取的图像数据集输入卷积神经网络中进行离线训练,得到卷积神经网络模型;
S3、通过深度相机采集待抓取物体的二维图像并将该二维图像导入卷积神经网络模型中,输出对应的置信图和向量场;
S4、对步骤S3中所输出的置信图进行实例检测以选择出置信图的有效投射顶点,并将有效投射顶点的单位向量与向量场的单位向量进行比较输出有效的2D投射顶点,然后根据有效的2D投射顶点并利用PnP算法获取待抓取物体的姿态估计值,包括预测平移量μ1和预测旋转量;
S5、通过步骤S2中卷积神经网络模型获取待抓取物体二维图像的感兴趣区域,并将感兴趣区域与图像模板库进行匹配以找到最优抓取点,然后利用深度相机计算最优抓取点的三维距离,从而得到深度相机的测量平移量μ2
S6、根据步骤S4中得到的预测平移量μ1和步骤S5中得到的测量平移量μ2进行抓取安全距离校正,若校正成功则通过机械臂执行校正数据抓取,若校正失败则进入步骤S7;
S7、重复步骤S3-步骤S6。
本实施例中,为了实现机械臂对待抓取物体的精准抓取,通过采用合成数据去训练神经网络,有效避免了对特定数据集分布的过度拟合,进而产生一个对光照变化、相机变化和背景都具有鲁棒性的网络,然后利用卷积神经网络对待抓取物体的二维图像进行处理以输出待抓取物体的姿态估计值,同时将待抓取物体的二维图像与图像模板库进行匹配获取深度相机的测量平移量,再对预测平移量和测量平移量进行抓取安全距离校正,最后根据校正数据引导机械臂对待抓取物体进行精准抓取,具有可靠性高、鲁棒性强且实时性好的优点。在其他实施例中,也可以采用其他图像获取装置来替代深度相机。其中,所述PnP(Perspective-n-Point)算法是求解3D到2D点对运动的方法。
如图2所示,所述步骤S1的具体实现方式包括以下步骤:
S11、制作一个与待抓取物体的物理尺寸及表面纹理均一致的模型;
S12、将接近抓取环境的实验室抓取背景和贴近真实物体场景的户外场景进行1:1结合并与随机背景一起作为虚拟环境的随机图像场景,然后任意选取一组3D模型对待抓取物体模型进行随机遮挡,通过不断调整待抓取物体模型与深度相机之间的距离和角度,获取待抓取物体模型的随机图像数据;
S13、将待抓取物体模型置于具有物理约束的3D背景中获取待抓取物体模型的真实感图像数据;
S14、将步骤S12中获取的随机图像数据与步骤S13中获取的真实感图像数据合并后作为待抓取物体模型的图像数据集。
本实施例中,所述3D模型包括圆柱体、球体、圆锥等模型,3D背景包括房间、森林和工厂。本实施例主要针对三种不同物体(肥皂、钙片和卫生纸)进行模型制作与数据合成,其中肥皂的尺寸x,y,z分别为:3.2cm,9.4cm和5.8cm,钙片的尺寸x,y,z分别为:4.5cm,4.5cm和8.7cm,卫生纸的尺寸x,y,z分别为10cm,13.5cm和7cm,并将其输入Blender中制作,得到与实际物体尺寸一致的物理模型。通过从复杂背景、遮挡、光照条件、有效抓取距离四个方面考虑将制作数据分为两部分,第一部分是由不同条件进行随机组合的随机化数据;第二部分是放置在真实感场景下的数据。
其中,随机化数据产生过程如下:将接近抓取环境的实验室抓取背景与贴近真实物体场景的户外场景进行1:1结合,作为虚拟环境的随机图像场景;干扰器的数量和类型在一组3D模型(圆柱体、球体、圆锥等)中随机选取,这些3D模型会随机遮挡物体,以保证在这种条件下训练出的神经网络这样可以有效解决抓取中的遮挡问题;在模型与相机之间的距离和角度是在一定范围内不断调整的,因为深度相机捕捉到的深度信息的精度受距离本身的影响,当相机距离目标太近或者太远时,得到的数据不够准确,会影响抓取的成功率。因此,本实施例中将模型与相机之间的范围设定在0.4m-0.8m之间。随机化的优点是不在一个模拟数据集上训练模型,而是以随机的组合方式模拟数据合成,将模型暴露于各种各样的排列数据,并且可以得到完美标记的数据,以便应用于真实世界的图像。
真实感数据生成过程如下:从标准UE4虚拟环境中选择房间、森林和工厂三种3D背景,在这三种背景中获取各种光照条件下的真实感数据,房间背景整体偏暗,用来获取极弱光照条件下的真实感图像;深林背景明暗相间(亮主要来自于阳光,暗主要来自于外界物体的阴影),此背景具有河流、大树等户外常见物体,可以模拟户外场景,会生成在外界物体阴影下的真实感图像;工厂背景整体偏亮,用来获取强光照条件下的真实感图像。在制作数据集时,会在每个背景中随机选取不同位置进行真实感图像采集。
如图3所示,所述步骤S2的具体实现方法包括以下步骤:
S21、构建一个具有十二个阶段的卷积神经网络结构,其中前四个阶段为特征提取网络,中间两个阶段为降维处理网络,后六个阶段为任务分支网络;
S22、将图像数据集中待训练的图像数据输入前四个阶段的特征提取网络中进行特征提取,其中前一个特征提取网络的输出为后一个特征提取网络的输入;
S23、将最后一个特征提取网络的输出通过两个降维处理网络中进行降维处理,其中第一个降维处理网络的输出为第二降维处理网络的输入;
S24、将第二个降维处理网络输出的特征输入六个阶段的任务分支网络中,其中前一个任务分支网络的输出为后一个任务分支网络的输入,从而提取出对应图像数据的包括八个投射顶点和一个质心点的置信图以及从八个投射顶点分别到对应质心点方向的向量场,得到卷积神经网络模型。
本实施例中,所述卷积神经网络的构建步骤如下:整个卷积神经网络结构一共有十二个阶段,前四个阶段属于特征提取网络,中间两阶段用来进行降维处理,后六个阶段属于任务分支网络,特征提取网络用于提取特征,之后两个阶段进行降维处理,以降低模型的复杂度,提高训练效率,同时减少过拟合程度,提高模型的鲁棒性和泛化性,然后将特征输入到任务分支网络分别提取置信图和向量场,最终输出为3D包围框的8个投射顶点和一个质心点,以及从8个投射顶点分别到对应的质心点的方向。任务分支网络每个阶段都使用图像特征和前一阶段的输出作为输入。得到一个越来越到的有效接收域,使网络能够通过在后期合并越来越多的上下文,解决在早期阶段由于接受域小而导致的歧义。
其中,特征提取具体过程包括:
第一次特征提取阶段:按照网络设计顺序,需要训练的图像依次经过:输入层-卷积层-Relu层-卷积层-Relu层;输入层的输入大小为400×400×3;卷积层的卷积核大小设置为3×3,卷积核的数目设置为64,步长设置为1,padding(像素填充)设置为1。第一次特征提取阶段的输出为400×400×64,然后进入第二次特征提取阶段;
第二次特征提取阶段:按照网络设计顺序,需要训练的图像依次经过:最大池化层-卷积层-Relu层-卷积层-Relu层;第二阶段的输入为第一阶段的输出;卷积层的卷积核大小设置为3×3,卷积核的数目设置为128,步长设置为1,padding设置为1;最大池化层大小设置为2×2,步长设置为2。第二次特征提取阶段的输出为200×200×128,然后进入第三次特征提取阶段;
第三次特征提取阶段:按照网络设计顺序,需要训练的图像依次经过:最大池化层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层;第三阶段的输入为第二阶段的输出;卷积层的卷积核大小设置为3×3,卷积核的数目设置为256,步长设置为1,padding设置为1;最大池化层大小设置为2×2,步长设置为2。第三次特征提取阶段的输出为100×100×256,然后进入第四次特征提取阶段。
第四次特征提取阶段:按照网络设计顺序,需要训练的图像依次经过:最大池化层-卷积层-Relu层-卷积层-Relu层;第四阶段的输入为第三阶段的输出;卷积层的卷积核大小设置为3×3,卷积核的数目设置为512,步长设置为1,padding设置为1;最大池化层大小设置为2×2,步长设置为2。第四次特征提取阶段的输出为50×50×512,然后进入第一次降维阶段。
降维处理具体过程包括:
第一次降维处理阶段:按照网络设计顺序,需要训练的图像依次经过:卷积层-Relu层;第一次降维处理阶段的输入为第四次特征提取阶段的输出;卷积层的卷积核大小设置为3×3,卷积核的数目设置为256,步长设置为1,padding设置为1;第一次降维处理阶段的输出为50×50×256,然后进入第二次降维阶段;
第二次降维处理阶段:按照网络设计顺序,需要训练的图像依次经过:卷积层-Relu层;第二次降维处理阶段的输入为第一次降维处理阶段的输出;卷积层的卷积核大小设置为3×3,卷积核的数目设置为128,步长设置为1,padding设置为1;第二次降维处理阶段的输出为50×50×128,即为所得特征图。
从任务分支网络的六个阶段中分别提取置信图和向量场的过程包括:
任务分支阶段一:按照网络设计顺序,需要训练的图像同时进入向量通道与分类通道,分别依次经过:卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层,任务分支阶段一的输入为第二次降维处理阶段的输出,阶段一通过分支产生两个不同输出,分别为置信图和向量场。置信图的输出大小为50×50×9,它包括了3D包围框的8个投射顶点和一个质心点,向量场的输出大小为50×50×16,它表明了从8个顶点分别到对应的质心点的方向,然后将这两个分支的输出与第二次降维处理阶段的输出进行合并,将其维度相加,任务分支阶段一的输出为50×50×153,然后进入任务分支阶段二;
任务分支阶段二:按照网络设计顺序,需要训练的图像同时进入向量通道与分类通道,分别依次经过:卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层,任务分支阶段二的输入为任务分支阶段一的输出,阶段二通过分支产生两个不同输出,分别为置信图和向量场,置信图的输出大小为50×50×9,它包括了3D包围框的8个投射顶点和一个质心点,向量场的输出大小为50×50×16,它表明了从8个顶点分别到对应的质心点的方向,然后将这两个分支的输出与第二次降维处理阶段的输出进行合并,将其维度相加,任务分支阶段二的输出为50×50×153,然后进入任务分支阶段三;
任务分支阶段三:按照网络设计顺序,需要训练的图像同时进入向量通道与分类通道,分别依次经过:卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层,任务分支阶段三的输入为任务分支阶段二的输出,阶段三通过分支产生两个不同输出,分别为置信图和向量场。置信图的输出大小为50×50×9,它包括了3D包围框的8个投射顶点和一个质心点,向量场的输出大小为50×50×16,它表明了从8个顶点分别到对应的质心点的方向,然后将这两个分支的输出与第二次降维处理阶段的输出进行合并,将其维度相加,任务分支阶段三的输出为50×50×153,然后进入任务分支阶段四;
任务分支阶段四:按照网络设计顺序,需要训练的图像同时进入向量通道与分类通道,分别依次经过:卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层,任务分支阶段四的输入为任务分支阶段三的输出,阶段四通过分支产生两个不同输出,分别为置信图和向量场,置信图的输出大小为50×50×9,它包括了3D包围框的8个投射顶点和一个质心点,向量场的输出大小为50×50×16,它表明了从8个顶点分别到对应的质心点的方向,然后将这两个分支的输出与第二次降维处理阶段的输出进行合并,将其维度相加,任务分支阶段四的输出为50×50×153,然后进入任务分支阶段五;
任务分支阶段五:按照网络设计顺序,需要训练的图像同时进入向量通道与分类通道,分别依次经过:卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层,任务分支阶段五的输入为任务分支阶段四的输出,阶段五通过分支产生两个不同输出,分别为置信图和向量场,置信图的输出大小为50×50×9,它包括了3D包围框的8个投射顶点和一个质心点,向量场的输出大小为50×50×16,它表明了从8个顶点分别到对应的质心点的方向,然后将这两个分支的输出与第二次降维处理阶段的输出进行合并,将其维度相加,任务分支阶段五的输出为50×50×153,然后进入任务分支阶段六;
任务分支阶段六:按照网络设计顺序,需要训练的图像同时进入向量通道与分类通道,分别依次经过:卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层-卷积层-Relu层,任务分支阶段六的输入为任务分支阶段五的输出,阶段五通过分支产生两个不同输出,分别为置信图和向量场,置信图的输出大小为50×50×9,它包括了3D包围框的8个投射顶点和一个质心点,向量场的输出大小为50×50×16,它表明了从8个投射顶点分别到对应的质心点的方向。
如图4所示,所述步骤S4的具体实现方式包括以下步骤:
S41、分别将所述置信图检测到的八个顶点与groundtruth(参考标准,即数据的标签坐标)进行计算,获取符合设定正态分布的置信度值,其计算公式可表示为:
Figure BDA0002562643710000161
式(1)中,Confidence(Pk)表示置信度,xm1,m2表示数据的标签坐标,Pk表示置信图中检测到的第k个投射顶点坐标,k表示投射顶点的序号,k=1,2,…8,σ2表示设定正态分布的方差;其中,在进行数据合成过程中会生成描述图片信息的标签文件,每张图像均有与其对应的标签文件,其里面包含了很多该图片的信息(如坐标值,图像名等),所述数据的标签坐标指的是标签文件中所包含的坐标值;
S42、设定置信度阈值a,将步骤S41中所获得每个投射顶点的置信度值Confidence(Pk)与设定的置信阈值a比较,若Confidence(Pk)≥a,则保留该投射顶点,若Confidence(Pk)<a,则舍去该投射顶点,其中置信度阈值a是一个超参数,可根据实际情况进行相应调整,以得到最优的结果,当某一投射顶点置信度越大,则表示该投射顶点的可靠性就越高,从而通过设定置信图阈值可以舍去那些不可靠的置信图投射顶点,有效避免了不可靠的置信图投射顶点对最后结果所造成较大的误差;
S43、计算
Figure BDA0002562643710000171
的正切值
Figure BDA0002562643710000172
Figure BDA0002562643710000173
与设定误差角阈值b比较以判定步骤S42所保留的投射顶点与质心点是否相关联,若
Figure BDA0002562643710000174
时,则判定该投射顶点与质心点相关联,若
Figure BDA0002562643710000175
则判定该投射顶点不与质心点相关联,且需要保证同一个待抓取物体至少有4个投射顶点与质心点相关联,其中
Figure BDA0002562643710000176
的计算公式可表示为:
Figure BDA0002562643710000177
式(2)中,
Figure BDA0002562643710000178
表示两个向量之间的误差,
Figure BDA0002562643710000179
表示从包围框的第k个投射顶点指向质心点的向量,
Figure BDA00025626437100001710
表示第k个投射顶点对应的向量场;
S44、根据步骤S43得到的有效投射顶点利用PnP算法获取待抓取物体的姿态估计值,即预测平移量μ1和预测旋转量。
如图5所示,所述步骤S44的具体实现方式包括:
S441、将步骤S43中得到的有效投射顶点在世界坐标系中对应点设为空间参考点Pi w=(xi,yi,zi),其中i=1,2,…n,4≤n≤8,i表示有效投射顶点的序号,n表示空间参考点个数,然后计算出空间参考点Pi w对应向量αij,可用公式表示为:
Figure BDA00025626437100001711
在世界坐标系中,空间参考点可以由4个虚拟控制点表达,利用PnP算法可知,当满足
Figure BDA00025626437100001712
时,可将空间参考点坐标表示为虚拟控制点的加权和,则式(3)可表示为:
Figure BDA00025626437100001713
其中,
Figure BDA00025626437100001714
表示虚拟控制点在世界坐标系中的坐标,j表示虚拟控制点序号(j=1,2,3,4),若
Figure BDA00025626437100001715
表示空间参考点的重心,则
Figure BDA0002562643710000181
λc,j-1表示矩阵ATA的特征值,ν′c,j-1表示矩阵ATA的特征向量,其中矩阵
Figure BDA0002562643710000182
从而可根据空间参考点Pi w求出虚拟控制点在世界坐标系中的坐标
Figure BDA0002562643710000183
再代入式(3)即可计算出空间参考点Pi w对应向量αij
S442、计算空间参考点Pi w在相机坐标系中的坐标Pi c,根据图像坐标系与相机坐标系的关系可得:
Figure BDA0002562643710000185
Figure BDA0002562643710000186
式(4)和式(5)中,ωi表示相机捕捉图像时相机光圈到2D坐标点之间距离与相机光圈到3D坐标点之间距离的比值,K表示相机内参矩阵,(ui,vi)为空间参考点Pi w在图像中的2D投影点,
Figure BDA0002562643710000187
表示相机坐标系中的虚拟控制点,
Figure BDA0002562643710000188
则式(5)可表示为:
Figure BDA0002562643710000189
式(6)中,fu、fv、uc、vc表示相机内参,由式(6)可分别求出4个虚拟控制点
Figure BDA00025626437100001810
在相机坐标系中的坐标
Figure BDA00025626437100001811
由式(6)可得:
Figure BDA00025626437100001812
将n个空间参考点Pi w串起来可得:
Ml=0 (8)
式(8)中,M表示矩阵系数,l表示待求参数,即四个虚拟控制点
Figure BDA0002562643710000191
在相机坐标系中的坐标,且
Figure BDA0002562643710000192
则式(8)可表示为:
Figure BDA0002562643710000193
式(9)中,ν″h表示矩阵MTM对应零特征值的第h个特征向量,h表示矩阵MTM对应零特征值特征向量的序号,N表示矩阵MTM对应零特征值的特征向量的数量,βh表示待定系数,满足
Figure BDA0002562643710000194
其中,j1≠j2且j1∈j,j2∈j,
Figure BDA0002562643710000195
表示相机坐标系与世界坐标系中两个虚拟控制点之间的距离相等;
由(9)可得相机坐标系中的虚拟控制点
Figure BDA0002562643710000196
的计算公式:
Figure BDA0002562643710000197
式(10)中,
Figure BDA00025626437100001913
表示第j个虚拟控制点所占据的3个元素组成的向量;
S443、计算世界坐标系的质心点
Figure BDA0002562643710000198
相关矩阵A、相机坐标系的质心点
Figure BDA0002562643710000199
和相关矩阵B,可用公式表示:
Figure BDA00025626437100001910
Figure BDA00025626437100001911
Figure BDA00025626437100001912
Figure BDA0002562643710000201
S444、根据所述步骤S443得到的相关矩阵A和相关矩阵B,计算矩阵H并对矩阵H进行奇异值分解,可用公式表示为:
H=BTA (15)
H=UCVT (16)
式(16)中,U表示一个n×n的正交矩阵,矩阵U中的向量称为左奇异向量,C表示一个n×3的矩阵,矩阵C中除了主对角线上以外的元素全为0,且主对角线上的元素称为奇异值,V表示一个3×3的正交矩阵,正交矩阵V中的向量称为右奇异向量;
S445、根据步骤S444中的矩阵H奇异值分解结果计算旋转矩阵R,并通过旋转矩阵R计算出待抓取物体位姿的平移量T,然后利用高斯-牛顿最优化寻找最优解,从而获取待抓取物体的姿态估计值(Xt,Yt,Zt,Xr,Yr,Zr,Wr),即预测平移量μ1(Xt,Yt,Zt)和预测旋转量(Xr,Yr,Zr,Wr),可用公式表示:
R=UVT (17)
Figure BDA0002562643710000202
Figure BDA0002562643710000203
本实施例中,首先计算卷积神经网络模型输出的置信图中顶点的置信度值,并通过设定置信度阈值舍去可靠性不高的置信图投射顶点,以避免最后结果出现较大误差,然后将得到的有效投射顶点的单位向量与卷积神经网络模型输出的向量场的单位向量进行比较,进而输出有效的2D投射顶点,最后根据输出的有效2D投射顶点并利用PnP算法计算出待抓取物体的姿态估计值。
如图6所示,所述步骤S5中图像模板库的构建包括以下步骤:
S501、获取最优抓取点处任意旋转方向上的待抓取物体图像;
S502、获取最优抓取点处不平衡光照条件下的待抓取物体图像;
S503、获取最优抓取点处不同缩放比例下的待抓取物体图像;
S504、将步骤S501、步骤S502和步骤S503中所获取的最优抓取点处所有待抓取物体图像保存至模板库中,从而完成图像模板库的构建。
本实施例中,所述图像模板库的构建过程中,任意旋转方向目的是保证物体的任意旋转角度依然可以识别;不平衡光照目的是解决物体表面反光、暗光和不平衡光照问题,去除对识别产生的干扰影响;尺度缩放的目的是保证在机械臂的有效抓取距离浮动下,依然保证待抓取图像的识别。
其中为了减少计算量,通过图像采集获取一系列不同旋转角度的图像,相比逐度旋转搜索方式,改进方式速度提升;
不平衡光照采取的措施是:针对模板的图像亮度设置了3个梯度,分别是光照降低30%,光照提升20%和50%,同时针对获取图像本来会将亮度降低10%,为了降低反光的严重影响,破坏有效识别;
尺度缩放采取的措施是:设置了两个尺度分别是大小缩小是原来的0.8和扩大是原来的1.2,不能设置过多或者设置更多尺度,因为会导致计算加大和图像缩放的严重变形。
如图7所示,所述步骤S5的具体实现方式包括以下步骤:
S51、通过所述卷积神经网络模型获取待抓取物体二维图像的感兴趣区域,并将待抓取物体感兴趣区域与图像模板库进行标准相关匹配,可用公式表示为:
Figure BDA0002562643710000211
式(20)中,T′表示图像模板库中模板图像,I′表示待抓取物体图像,R(x,y)表示待抓取物体图像与图像模板库中模板图像之间的匹配程度,(x′,y′)表示图像模板库中模板图像像素点的坐标,T′(x′,y′)表示模板图像在坐标(x′,y′)处的像素值,(x+x′,y+y′)表示待抓取物体图像像素点的坐标,I′(x+x′,y+y′)表示待抓取物体图像在坐标(x+x′,y+y′)处的像素值;本实施例中,当模板图像刚开始滑动时,模板图像位于待抓取物体图像的左上角,此时x=0,y=0,通过模板图像逐个像素匹配,即先从像素坐标x′=1,y′=1开始,直至完成所有相应位置匹配程度值R的计算,得到可以代表待抓取图像匹配区域1的匹配程度值,然后在待匹配图像上横向滑动一个像素(即x+1),按照上述过程同样进行逐模板匹配,得到可以代表待抓取图像匹配区域2的匹配程度值,然后继续滑动,计算下一区域的匹配程度,滑动完整行后再换至下一行(即y+1,),依旧从左至右滑动,直至完成所有位置的滑动及其相应区域匹配程度值R的计算。
S52、采用矩形框将步骤S51中匹配成功的图像框起来,然后计算该矩形框的质心点,从而找到待抓取物体的最优抓取点及最优抓取点的像素坐标;
S53、将待抓取物体的二维图像与深度相机图像进行匹配,并利用二维图像中最优抓取点的像素找到对应深度相机图像的测量距离,从而得到相机的测量平移量μ2
本实施例中,将待抓取物体感兴趣区域与图像模板库进行标准相关匹配是通过将模板图像在待匹配的待抓取物体图像(即感兴趣区域)逐个像素滑动,同时计算滑动过程中每一个匹配区域的匹配程度,最终找到模板图像的最佳匹配区域。当R=1表示完美匹配,-1表示糟糕匹配,0表示表示没有任何相关性。
如图8所示,所述步骤S6中抓取安全距离校正的具体实现方式包括以下步骤:
S61、设定误差阈值Q1与Q2,且Q1<Q2,同时保证最大误差阈值小于物体平面的直径;
S62、通过预测平移量μ1和测量平移量μ2计算平均距离D,可用公式表示为:
Figure BDA0002562643710000221
式(21)中,x1,y1,z1表示预测平移量μ1的坐标值,x2,y2,z2表示测量平移量μ2的坐标值;
S63、根据平均距离与误差阈值的大小判断是否需要进行抓取安全距离校正,当D<Q1时,则判定姿态估计值较准确,进入步骤S64,当Q1<D<Q2时,则判定姿态估计值存在不构成抓取失败的少许偏差,进入步骤S65;当D>Q2时,则判定姿态估计值存在严重偏差,进入步骤S66;
S64、将预测平移量μ1和预测旋转量输入机械臂中,从而实现待抓取物体的精准抓取;
S65、分别计算预测平移量μ1与测量平移量μ2在三个方向上的平均值,获取待抓取物体相对于深度相机的校正平移量μ′,然后将所获取的校正平移量μ′和预测旋转量输入机械臂中,实现待抓取物体的精准抓取,其中校正平移量μ′的计算公式可表示为:
Figure BDA0002562643710000231
式(22)中,x″,y″,z″表示校正平移量μ′的坐标;
S66、返回步骤S3。
其中,所述步骤S61中误差阈值Q1=0.02m,Q2=0.04m。
其中,所述机械臂实现待抓取物体精准抓取的具体实现方式为:将抓取安全距离校正后的平移量和旋转量与相机内外参结合,计算出机器人的抓取控制量,即抓取平移量和抓取旋转量,然后将抓取控制量输入机械臂中实现待抓取物体的精准抓取,抓取控制量的计算公式可表示为:
Figure BDA0002562643710000232
式(23)中,
Figure BDA0002562643710000233
表示抓取平移量,
Figure BDA0002562643710000234
表示抓取旋转量,
Figure BDA0002562643710000235
表示世界坐标系与机器人基坐标系的转换关系,其中:
Figure BDA0002562643710000236
表示机器人基坐标系OW-XWYWZW中的XW,YW和ZW三轴旋转效果的和,r1表示XW轴的旋转矩阵,
Figure BDA0002562643710000237
θ1表示机器人基坐标系绕XW轴旋转的角度,r2表示YW轴的旋转矩阵,
Figure BDA0002562643710000238
θ2表示机器人基坐标系绕YW轴旋转的角度,r3表示ZW轴的旋转矩阵,
Figure BDA0002562643710000241
θ3表示机器人基坐标系绕ZW轴旋转的角度;
Figure BDA0002562643710000242
Figure BDA0002562643710000243
表示世界坐标系与相机坐标系之间的转换关系,
Figure BDA0002562643710000244
表示相机坐标系与机械手坐标系之间的转换关系,
Figure BDA0002562643710000245
表示机械手坐标系与机器人基坐标系之间的转换关系,
Figure BDA0002562643710000246
Figure BDA0002562643710000247
可通过机器人标定得到,
Figure BDA0002562643710000248
Figure BDA0002562643710000249
表示姿态估计中的旋转矩阵,
Figure BDA00025626437100002410
(Xr,Yr,Zr,Wr)表示预测旋转量,
Figure BDA00025626437100002411
表示姿态估计中的平移向量,
Figure BDA00025626437100002412
X,Y,Z表示进行抓取安全校正后的平移量。
本实施例中,通过对预测平移量μ1和测量平移量μ2进行抓取安全距离校正后获取机械臂抓取待抓取物体的平移量和旋转量,然后结合相机内外参计算出机械臂的抓取控制量,即抓取平移量
Figure BDA00025626437100002413
和抓取旋转量
Figure BDA00025626437100002414
从而有效保证机械臂对待抓取物体的精准抓取。
以上对本发明所提供的一种基于位姿估计和校正的单图像机器人无序目标抓取方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述方法包括以下步骤:
S1、获取待抓取物体模型的随机图像数据和真实感图像数据,并生成对应图像数据集;
S2、构建卷积神经网络,并将步骤S1中所获取的图像数据集输入卷积神经网络中进行离线训练,得到卷积神经网络模型;
S3、通过深度相机采集待抓取物体的二维图像并将该二维图像导入卷积神经网络模型中,输出对应的置信图和向量场;
S4、对步骤S3中所输出的置信图进行实例检测以选择出置信图的有效投射顶点,并将有效投射顶点的单位向量与向量场的单位向量进行比较输出有效的2D投射顶点,然后根据有效的2D投射顶点并利用PnP算法获取待抓取物体的姿态估计值,包括预测平移量μ1和预测旋转量;
S5、通过步骤S2中卷积神经网络模型获取待抓取物体二维图像的感兴趣区域,并将感兴趣区域与图像模板库进行匹配以找到最优抓取点,然后利用深度相机计算最优抓取点的三维距离,从而得到深度相机的测量平移量μ2
S6、将步骤S4中得到的预测平移量μ1和步骤S5中得到的测量平移量μ2进行抓取安全距离校正,若校正成功则通过机械臂执行校正数据抓取,若校正失败则进入步骤S7;
S7、重复步骤S3-步骤S6。
2.如权利要求1所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S1的具体实现方式包括以下步骤:
S11、制作一个与待抓取物体的物理尺寸及表面纹理均一致的模型;
S12、将接近抓取环境的实验室抓取背景和贴近真实物体场景的户外场景进行1:1结合并与随机背景一起作为虚拟环境的随机图像场景,然后任意选取一组3D模型对待抓取物体模型进行随机遮挡,通过不断调整待抓取物体模型与深度相机之间的距离和角度,获取待抓取物体模型的随机图像数据;
S13、将待抓取物体模型置于具有物理约束的3D背景中获取待抓取物体模型的真实感图像数据;
S14、将步骤S12中获取的随机图像数据与步骤S13中获取的真实感图像数据合并后作为待抓取物体模型的图像数据集。
3.如权利要求2所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S2的具体实现方法包括以下步骤:
S21、构建一个具有十二个阶段的卷积神经网络结构,其中前四个阶段为特征提取网络,中间两个阶段为降维处理网络,后六个阶段为任务分支网络;
S22、将图像数据集中待训练的图像数据输入前四个阶段的特征提取网络中进行特征提取,其中前一个特征提取网络的输出为后一个特征提取网络的输入;
S23、将最后一个特征提取网络的输出通过两个降维处理网络中进行降维处理,其中第一个降维处理网络的输出为第二降维处理网络的输入;
S24、将第二个降维处理网络输出的特征输入六个阶段的任务分支网络中,其中前一个任务分支网络的输出为后一个任务分支网络的输入,从而提取出对应图像数据的包括八个投射顶点和一个质心点的置信图以及从八个投射顶点分别到对应质心点方向的向量场,得到卷积神经网络模型。
4.如权利要求3所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S4的具体实现方式包括以下步骤:
S41、分别将所述置信图检测到的八个投射顶点与groundtruth进行计算,获取符合设定正态分布的置信度值,其计算公式可表示为:
Figure FDA0002562643700000021
式(1)中,Confidence(Pk)表示置信度,xm1,m2表示数据的标签坐标,Pk表示置信图中检测到的第k个投射顶点坐标,k表示投射顶点的序号,k=1,2,…8,σ2表示设定正态分布的方差;
S42、设定置信度阈值a,将步骤S41中所获得每个投射顶点的置信度值Confidence(Pk)与设定的置信阈值a比较,若Confidence(Pk)≥a,则保留该投射顶点,若Confidence(Pk)<a,则舍去该投射顶点;
S43、计算
Figure FDA0002562643700000022
的正切值
Figure FDA0002562643700000023
Figure FDA0002562643700000024
与设定误差角阈值b比较以判定步骤S42所保留的投射顶点与质心点是否相关联,若
Figure FDA0002562643700000025
时,则判定该投射顶点与质心点相关联,若
Figure FDA0002562643700000031
则判定该投射顶点不与质心点相关联,且需要保证同一个待抓取物体至少有4个投射顶点与质心点相关联,其中
Figure FDA0002562643700000032
的计算公式可表示为:
Figure FDA0002562643700000033
式(2)中,
Figure FDA0002562643700000034
表示两个向量之间的误差,
Figure FDA0002562643700000035
表示从包围框的第k个投射顶点指向质心点的向量,
Figure FDA0002562643700000036
表示第k个投射顶点对应的向量场;
S44、根据步骤S43得到的有效投射顶点利用PnP算法获取待抓取物体的姿态估计值,即预测平移量μ1和预测旋转量。
5.如权利要求4所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S44的具体实现方式包括:
S441、将步骤S43中得到的有效投射顶点在世界坐标系中对应点设为空间参考点Pi w=(xi,yi,zi),其中i=1,2,…n,4≤n≤8,i表示有效投射顶点的序号,n表示空间参考点个数,然后计算出空间参考点Pi w对应向量αij,可用公式表示为:
Figure FDA0002562643700000037
在世界坐标系中,空间参考点可以由4个虚拟控制点表达,利用PnP算法可知,当满足
Figure FDA0002562643700000038
时,可将空间参考点坐标表示为虚拟控制点的加权和,则式(3)可表示为:
Figure FDA0002562643700000039
其中,
Figure FDA00025626437000000310
表示虚拟控制点在世界坐标系中的坐标,j表示虚拟控制点序号(j=1,2,3,4),若
Figure FDA00025626437000000311
表示空间参考点的重心,则
Figure FDA00025626437000000312
λc,j-1表示矩阵ATA的特征值,ν′c,j-1表示矩阵ATA的特征向量,其中矩阵
Figure FDA0002562643700000041
S442、计算空间参考点Pi w在相机坐标系中的坐标Pi c,根据图像坐标系与相机坐标系的关系可得:
Figure FDA0002562643700000042
Figure FDA0002562643700000043
式(4)和式(5)中,ωi表示相机捕捉图像时相机光圈到2D坐标点之间距离与相机光圈到3D坐标点之间距离的比值,K表示相机内参矩阵,(ui,vi)为空间参考点Pi w在图像中的2D投影点,
Figure FDA0002562643700000044
表示相机坐标系中的虚拟控制点,
Figure FDA0002562643700000045
则式(5)可表示为:
Figure FDA0002562643700000046
式(6)中,fu、fv、uc、vc表示相机内参;
由式(6)可得:
Figure FDA0002562643700000047
将n个空间参考点Pi w串起来可得:
Ml=0 (8)
式(8)中,M表示矩阵系数,l表示待求参数,即四个虚拟控制点
Figure FDA0002562643700000048
在相机坐标系中的坐标,且
Figure FDA0002562643700000049
则式(8)可表示为:
Figure FDA0002562643700000051
式(9)中,ν″h表示矩阵MTM对应零特征值的第h个特征向量,h表示矩阵MTM对应零特征值特征向量的序号,N表示矩阵MTM对应零特征值的特征向量的数量,βh表示待定系数,满足
Figure FDA0002562643700000052
其中,j1≠j2且j1∈j,j2∈j,
Figure FDA0002562643700000053
表示相机坐标系与世界坐标系中两个虚拟控制点之间的距离相等;
由(9)可得相机坐标系中的虚拟控制点
Figure FDA0002562643700000054
的计算公式:
Figure FDA0002562643700000055
式(10)中,
Figure FDA0002562643700000056
表示第j个虚拟控制点所占据的3个元素组成的向量;
S443、计算世界坐标系的质心点
Figure FDA0002562643700000057
相关矩阵A、相机坐标系的质心点
Figure FDA0002562643700000058
和相关矩阵B,可用公式表示:
Figure FDA0002562643700000059
Figure FDA00025626437000000510
Figure FDA00025626437000000511
Figure FDA00025626437000000512
式中,
Figure FDA00025626437000000513
表示世界坐标系的质心点,
Figure FDA00025626437000000514
表示相机坐标系的质心点;
S444、根据所述步骤S443得到的相关矩阵A和相关矩阵B,计算矩阵H并对矩阵H进行奇异值分解,可用公式表示为:
H=BTA (15)
H=UCVT (16)
式(16)中,U表示一个n×n的正交矩阵,C表示一个n×3的矩阵,V表示一个3×3的正交矩阵;
S445、根据步骤S444中的矩阵H奇异值分解结果计算旋转矩阵R,并通过旋转矩阵R计算出待抓取物体位姿的平移量S,然后利用高斯-牛顿最优化寻找最优解,从而获取待抓取物体的姿态估计值(Xt,Yt,Zt,Xr,Yr,Zr,Wr),即预测平移量μ1(Xt,Yt,Zt)和预测旋转量(Xr,Yr,Zr,Wr),可用公式表示:
R=UVT (17)
Figure FDA0002562643700000061
Figure FDA0002562643700000062
6.如权利要求5所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S5中图像模板库的构建包括以下步骤:
S501、获取最优抓取点处任意旋转方向上的待抓取物体图像;
S502、获取最优抓取点处不平衡光照条件下的待抓取物体图像;
S503、获取最优抓取点处不同缩放比例下的待抓取物体图像;
S504、将步骤S501、步骤S502和步骤S503中所获取的最优抓取点处所有待抓取物体图像保存至模板库中,从而完成图像模板库的构建。
7.如权利要求6所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S5的具体实现方式包括以下步骤:
S51、通过所述卷积神经网络模型获取待抓取物体二维图像的感兴趣区域,并将待抓取物体感兴趣区域与图像模板库进行标准相关匹配,可用公式表示为:
Figure FDA0002562643700000063
式(20)中,T′表示图像模板库中模板图像,I′表示待抓取物体图像,R(x,y)表示待抓取物体图像与图像模板库中模板图像之间的匹配程度,(x′,y′)表示图像模板库中模板图像像素点的坐标,T′(x′,y′)表示模板图像在坐标(x′,y′)处的像素值,(x+x′,y+y′)表示待抓取物体图像像素点的坐标,I′(x+x′,y+y′)表示待抓取物体图像在坐标(x+x′,y+y′)处的像素值;
S52、采用矩形框将步骤S51中匹配成功的图像框起来,然后计算该矩形框的质心点,从而找到待抓取物体的最优抓取点及最优抓取点的像素坐标;
S53、将待抓取物体的二维图像与深度相机图像进行匹配,并利用二维图像中最优抓取点像素找到对应深度相机图像的测量距离,从而得到相机的测量平移量μ2
8.如权利要求7所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S6中抓取安全距离校正的具体实现方式包括以下步骤:
S61、设定误差阈值Q1与Q2,且Q1<Q2,同时保证误差阈值的最大误差小于物体平面的直径;
S62、通过预测平移量μ1和测量平移量μ2计算平均距离D,可用公式表示为:
Figure FDA0002562643700000071
式(21)中,x1,y1,z1表示预测平移量μ1的坐标值,x2,y2,z2表示测量平移量μ2的坐标值;
S63、根据平均距离D与误差阈值的大小判断是否需要进行抓取安全距离校正,当D<Q1时,则判定姿态估计值较准确,进入步骤S64,当Q1<D<Q2时,则判定姿态估计值存在不构成抓取失败的少许偏差,进入步骤S65;当D>Q2时,则判定姿态估计值存在严重偏差,进入步骤S66;
S64、将预测平移量μ1和预测旋转量输入机械臂中,从而实现待抓取物体的精准抓取;
S65、分别计算预测平移量μ1与测量平移量μ2在三个方向上的平均值,获取待抓取物体相对于深度相机的校正平移量μ′,然后将所获取的校正平移量μ′和预测旋转量输入机械臂中,实现待抓取物体的精准抓取,其中校正平移量μ′的计算公式可表示为:
Figure FDA0002562643700000081
式(22)中,x″,y″,z″表示校正平移量μ′的坐标;
S66、返回步骤S3。
9.如权利要求8所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述步骤S61中误差阈值Q1=0.02m,Q2=0.04m。
10.如权利要求9所述的基于位姿估计和校正的单图像机器人无序目标抓取方法,其特征在于,所述机械臂对待抓取物体精准抓取的具体实现方式为:将抓取安全距离校正后的平移量和旋转量与相机内外参结合,计算出机器人的抓取控制量,即抓取平移量和抓取旋转量,然后将抓取控制量输入机械臂中实现待抓取物体的精准抓取,抓取控制量的计算公式可表示为:
Figure FDA0002562643700000082
式(23)中,
Figure FDA0002562643700000083
表示抓取平移量,
Figure FDA0002562643700000084
表示抓取旋转量,
Figure FDA0002562643700000085
表示世界坐标系与机器人基坐标系的转换关系,其中:
Figure FDA0002562643700000086
r1表示XW轴的旋转矩阵,
Figure FDA0002562643700000087
θ1表示机器人基坐标系绕XW轴旋转的角度,r2表示YW轴的旋转矩阵,
Figure FDA0002562643700000088
θ2表示机器人基坐标系绕YW轴旋转的角度,r3表示ZW轴的旋转矩阵,
Figure FDA0002562643700000089
θ3表示机器人基坐标系绕ZW轴旋转的角度;
Figure FDA0002562643700000091
Figure FDA0002562643700000092
表示世界坐标系与相机坐标系之间的转换关系,
Figure FDA0002562643700000093
表示相机坐标系与机械手坐标系之间的转换关系,
Figure FDA0002562643700000094
表示机械手坐标系与机器人基坐标系之间的转换关系,
Figure FDA0002562643700000095
Figure FDA0002562643700000096
可通过机器人标定得到,
Figure FDA0002562643700000097
Figure FDA0002562643700000098
表示姿态估计中的旋转矩阵,
Figure FDA0002562643700000099
(Xr,Yr,Zr,Wr)表示预测旋转量,
Figure FDA00025626437000000910
表示姿态估计中的平移向量,
Figure FDA00025626437000000911
X,Y,Z表示进行抓取安全校正后的平移量。
CN202010619800.7A 2020-06-30 2020-06-30 基于位姿估计和校正的单图像机器人无序目标抓取方法 Active CN111738261B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010619800.7A CN111738261B (zh) 2020-06-30 2020-06-30 基于位姿估计和校正的单图像机器人无序目标抓取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010619800.7A CN111738261B (zh) 2020-06-30 2020-06-30 基于位姿估计和校正的单图像机器人无序目标抓取方法

Publications (2)

Publication Number Publication Date
CN111738261A true CN111738261A (zh) 2020-10-02
CN111738261B CN111738261B (zh) 2023-08-04

Family

ID=72654036

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010619800.7A Active CN111738261B (zh) 2020-06-30 2020-06-30 基于位姿估计和校正的单图像机器人无序目标抓取方法

Country Status (1)

Country Link
CN (1) CN111738261B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112223300A (zh) * 2020-12-15 2021-01-15 佛山隆深机器人有限公司 一种基于双目视觉和姿态优化的工件无序抓取方法
CN112318503A (zh) * 2020-10-26 2021-02-05 中国计量大学 一种机器人校准系统和校准方法
CN112428264A (zh) * 2020-10-26 2021-03-02 中国计量大学 一种机器人臂的矫正方法及系统
CN113011401A (zh) * 2021-04-30 2021-06-22 汇纳科技股份有限公司 人脸图像姿态估计和校正方法、系统、介质及电子设备
CN113378976A (zh) * 2021-07-01 2021-09-10 深圳市华汉伟业科技有限公司 一种基于特征顶点组合的目标检测方法、可读存储介质
CN113436293A (zh) * 2021-07-13 2021-09-24 浙江大学 一种基于条件生成式对抗网络的智能抓取图像生成方法
CN113743287A (zh) * 2021-08-31 2021-12-03 之江实验室 基于脉冲神经网络的机器人自适应抓取控制方法及系统
CN113808205A (zh) * 2021-08-31 2021-12-17 华南理工大学 一种基于检测约束的快速动态目标抓取方法
CN113814970A (zh) * 2021-08-12 2021-12-21 杭州迁移科技有限公司 工件抓取点优化计算方法、装置、设备及存储介质
CN113888631A (zh) * 2021-08-31 2022-01-04 华南理工大学 一种基于目标裁剪区域的指定物体抓取方法
CN114012727A (zh) * 2021-11-11 2022-02-08 江苏昱博自动化设备有限公司 一种机械臂运动规划方法及系统
CN114310954A (zh) * 2021-12-31 2022-04-12 北京理工大学 一种护理机器人自适应升降控制方法和系统
CN114912287A (zh) * 2022-05-26 2022-08-16 四川大学 基于目标6d位姿估计的机器人自主抓取仿真系统及方法
CN115070781A (zh) * 2022-08-24 2022-09-20 绿盛环保材料(集团)有限公司 一种物体抓取方法及双机械臂协作系统
WO2023016340A1 (en) * 2021-08-09 2023-02-16 Zhejiang Huaray Technology Co., Ltd. Methods, systems, and computer-readable storage mediums for positioning target object
WO2023051706A1 (zh) * 2021-09-29 2023-04-06 达闼科技(北京)有限公司 抓取的控制方法、装置、服务器、设备、程序及介质
CN116934970A (zh) * 2023-07-24 2023-10-24 天津大学 一种基于先验知识引导的医学单视图三维重建装置
WO2024067006A1 (zh) * 2022-09-30 2024-04-04 北京思灵机器人科技有限责任公司 无序线材分拣方法、装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063301A (zh) * 2018-07-24 2018-12-21 杭州师范大学 一种基于热力图的单幅图像室内物体姿态估计方法
CN109389156A (zh) * 2018-09-11 2019-02-26 深圳大学 一种图像定位模型的训练方法、装置及图像定位方法
CN109927036A (zh) * 2019-04-08 2019-06-25 青岛小优智能科技有限公司 一种三维视觉引导机械手抓取的方法及系统
CN110796700A (zh) * 2019-10-21 2020-02-14 上海大学 基于卷积神经网络的多物体抓取区域定位方法
US20200086483A1 (en) * 2018-09-15 2020-03-19 X Development Llc Action prediction networks for robotic grasping

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063301A (zh) * 2018-07-24 2018-12-21 杭州师范大学 一种基于热力图的单幅图像室内物体姿态估计方法
CN109389156A (zh) * 2018-09-11 2019-02-26 深圳大学 一种图像定位模型的训练方法、装置及图像定位方法
US20200086483A1 (en) * 2018-09-15 2020-03-19 X Development Llc Action prediction networks for robotic grasping
CN109927036A (zh) * 2019-04-08 2019-06-25 青岛小优智能科技有限公司 一种三维视觉引导机械手抓取的方法及系统
CN110796700A (zh) * 2019-10-21 2020-02-14 上海大学 基于卷积神经网络的多物体抓取区域定位方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112428264B (zh) * 2020-10-26 2021-12-07 中国计量大学 一种机器人臂的矫正方法及系统
CN112318503A (zh) * 2020-10-26 2021-02-05 中国计量大学 一种机器人校准系统和校准方法
CN112428264A (zh) * 2020-10-26 2021-03-02 中国计量大学 一种机器人臂的矫正方法及系统
CN112223300A (zh) * 2020-12-15 2021-01-15 佛山隆深机器人有限公司 一种基于双目视觉和姿态优化的工件无序抓取方法
CN113011401A (zh) * 2021-04-30 2021-06-22 汇纳科技股份有限公司 人脸图像姿态估计和校正方法、系统、介质及电子设备
CN113378976B (zh) * 2021-07-01 2022-06-03 深圳市华汉伟业科技有限公司 一种基于特征顶点组合的目标检测方法、可读存储介质
CN113378976A (zh) * 2021-07-01 2021-09-10 深圳市华汉伟业科技有限公司 一种基于特征顶点组合的目标检测方法、可读存储介质
CN113436293B (zh) * 2021-07-13 2022-05-03 浙江大学 一种基于条件生成式对抗网络的智能抓取图像生成方法
CN113436293A (zh) * 2021-07-13 2021-09-24 浙江大学 一种基于条件生成式对抗网络的智能抓取图像生成方法
WO2023016340A1 (en) * 2021-08-09 2023-02-16 Zhejiang Huaray Technology Co., Ltd. Methods, systems, and computer-readable storage mediums for positioning target object
CN113814970A (zh) * 2021-08-12 2021-12-21 杭州迁移科技有限公司 工件抓取点优化计算方法、装置、设备及存储介质
CN113814970B (zh) * 2021-08-12 2023-05-23 杭州迁移科技有限公司 工件抓取点优化计算方法、装置、设备及存储介质
CN113888631B (zh) * 2021-08-31 2024-05-24 华南理工大学 一种基于目标裁剪区域的指定物体抓取方法
CN113743287A (zh) * 2021-08-31 2021-12-03 之江实验室 基于脉冲神经网络的机器人自适应抓取控制方法及系统
CN113743287B (zh) * 2021-08-31 2024-03-26 之江实验室 基于脉冲神经网络的机器人自适应抓取控制方法及系统
CN113808205B (zh) * 2021-08-31 2023-07-18 华南理工大学 一种基于检测约束的快速动态目标抓取方法
CN113888631A (zh) * 2021-08-31 2022-01-04 华南理工大学 一种基于目标裁剪区域的指定物体抓取方法
CN113808205A (zh) * 2021-08-31 2021-12-17 华南理工大学 一种基于检测约束的快速动态目标抓取方法
WO2023051706A1 (zh) * 2021-09-29 2023-04-06 达闼科技(北京)有限公司 抓取的控制方法、装置、服务器、设备、程序及介质
CN114012727A (zh) * 2021-11-11 2022-02-08 江苏昱博自动化设备有限公司 一种机械臂运动规划方法及系统
CN114310954B (zh) * 2021-12-31 2024-04-16 北京理工大学 一种护理机器人自适应升降控制方法和系统
CN114310954A (zh) * 2021-12-31 2022-04-12 北京理工大学 一种护理机器人自适应升降控制方法和系统
CN114912287B (zh) * 2022-05-26 2023-07-25 四川大学 基于目标6d位姿估计的机器人自主抓取仿真系统及方法
CN114912287A (zh) * 2022-05-26 2022-08-16 四川大学 基于目标6d位姿估计的机器人自主抓取仿真系统及方法
CN115070781B (zh) * 2022-08-24 2022-12-13 绿盛环保材料(集团)有限公司 一种物体抓取方法及双机械臂协作系统
CN115070781A (zh) * 2022-08-24 2022-09-20 绿盛环保材料(集团)有限公司 一种物体抓取方法及双机械臂协作系统
WO2024067006A1 (zh) * 2022-09-30 2024-04-04 北京思灵机器人科技有限责任公司 无序线材分拣方法、装置及系统
CN116934970A (zh) * 2023-07-24 2023-10-24 天津大学 一种基于先验知识引导的医学单视图三维重建装置

Also Published As

Publication number Publication date
CN111738261B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN111738261B (zh) 基于位姿估计和校正的单图像机器人无序目标抓取方法
CN107953329B (zh) 物体识别和姿态估计方法、装置及机械臂抓取系统
Skrypnyk et al. Scene modelling, recognition and tracking with invariant image features
CN108229416B (zh) 基于语义分割技术的机器人slam方法
CN106529538A (zh) 一种飞行器的定位方法和装置
CN111862201A (zh) 一种基于深度学习的空间非合作目标相对位姿估计方法
US20230118864A1 (en) Lifted semantic graph embedding for omnidirectional place recognition
CN111768447B (zh) 一种基于模板匹配的单目相机物体位姿估计方法及系统
CN108364302B (zh) 一种无标记的增强现实多目标注册跟踪方法
KR20180117138A (ko) 텍스쳐가 없는 오브젝트의 포즈를 추정하기 위한 시스템 및 방법
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
Yang et al. Precise measurement of position and attitude based on convolutional neural network and visual correspondence relationship
CN115210763A (zh) 用于包括姿态和大小估计的对象检测的系统和方法
CN110543817A (zh) 基于姿势指导特征学习的行人再识别方法
CN115482556A (zh) 关键点检测模型训练及虚拟角色驱动的方法和对应的装置
Lee et al. Robust recognition and pose estimation of 3d objects based on evidence fusion in a sequence of images
Gadhiya et al. Analysis of deep learning based pose estimation techniques for locating landmarks on human body parts
CN103136513B (zh) 一种改进的asm人脸特征点定位方法
Stefańczyk et al. Mixing deep learning with classical vision for object recognition
WO2022104449A1 (en) Pick and place systems and methods
Masuta et al. Direct perception and action system for unknown object grasping
CN111178299A (zh) 图像处理方法、装置、电子设备和存储介质
Wang et al. An End-to-End Robotic Visual Localization Algorithm Based on Deep Learning
Singh et al. Instance-specific 6-dof object pose estimation from minimal annotations
WO2023241372A1 (zh) 相机内参标定方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant