CN110322510B - 一种利用轮廓信息的6d位姿估计方法 - Google Patents

一种利用轮廓信息的6d位姿估计方法 Download PDF

Info

Publication number
CN110322510B
CN110322510B CN201910569209.2A CN201910569209A CN110322510B CN 110322510 B CN110322510 B CN 110322510B CN 201910569209 A CN201910569209 A CN 201910569209A CN 110322510 B CN110322510 B CN 110322510B
Authority
CN
China
Prior art keywords
target object
prediction
loss function
network
pose estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910569209.2A
Other languages
English (en)
Other versions
CN110322510A (zh
Inventor
杨路
康甲
刘文俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910569209.2A priority Critical patent/CN110322510B/zh
Publication of CN110322510A publication Critical patent/CN110322510A/zh
Application granted granted Critical
Publication of CN110322510B publication Critical patent/CN110322510B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种利用轮廓信息的6D位姿估计方法,包括:基于卷积神经网络设计目标物体6D位姿估计网络;采集和标注不同背景、角度和姿态的目标物体训练样本图片构建数据集,并对训练样本进行数据增强;对目标物体6D位姿估计网络进行训练,得到网络参数模型;调用目标物体6D位姿估计网络参数模型对目标物体图片进行预测,得到目标物体关键点二维投影坐标;由目标物体关键点二维投影坐标,利用EPnP计算出目标物体6D位姿。本发明方法在不需要位姿修正后处理的情况下,通过所设计的6D位姿估计网络,利用目标物体的轮廓信息快速准确地检测出目标物体的6D位姿。

Description

一种利用轮廓信息的6D位姿估计方法
技术领域
本发明涉及物体定位和姿态估计领域,具体涉及一种利用轮廓信息的6D位姿估计方法。
背景技术
近年来深度学习在目标检测领域取得的巨大突破,机器人等领域对目标检测提出了更高的要求,即检测物体的6D位姿(三维位置和三维旋转角),以更高效地进行社会生产活动。工业机器人是面向工业领域的多关节机械手和多自由度的机器装置,它是靠自身动力系统和控制能力来实现工业生产任务的一种机器人。它可以按照预先设定的程序运行,现代工业机器人可以根据人工智能算法制定的决策规则工作。服务机器人是一种半自主或全自主工作的机器人,现已进入半商业化应用。
在机器人等实际应用中,其对周围环境的目标物体检测是非常重要的。在机器人日常的抓取操作任务中,高效精准地检测物体的6D位姿,机器人才可以利用物体的位姿信息规划运动路径并调整机械臂姿态来移动目标物体,可靠地保证机器人操作的高效性和安全性。
随着VGG、Faster R-CNN、YOLO深度学习算法在目标检测领域取得突出进展,越来越多的制造业公司开始利用深度学习方法运用于工件等物体检测,来提高流水线生产的效率和算法的可靠性,极大地提升实际生产效能。然而,面对位姿变化的物体和某些位姿检测精度要求较高的操作任务,现有技术在物体位姿估计任务上不仅存在检测精度较差的问题,而且很难平衡算法在物体位姿检测精确度和检测速度,从而限制了机器人的自动化程度。
发明内容
本发明所要解决的技术问题是提供一种利用轮廓信息的6D位姿估计方法,实时地对目标物体进行6D位姿处理,检测精度高且检测速度快。
为解决上述技术问题,本发明采用的技术方案是:
一种利用轮廓信息的6D位姿估计方法,包括以下步骤:
S1:基于卷积神经网络设计目标物体6D位姿估计网络,包含网络共享层、轮廓预测分支和边界框预测分支;
网络共享层由卷积层和池化层组成,用于提取图片中目标物体特征,得到特征图;
轮廓预测分支由上采样层和卷积层组成,每次上采样之后得到的特征图和网络共享层中相同尺度的特征图拼接得到新的特征图,并作为下一个卷积层的输入;
边界框预测分支由一系列全卷积网络以及一个直连层组成,此分支将输入图片划分为S×S个网格,每个网格对应图片中32×32的区域,每个网格输出包含代表3D边界框的9个关键点投影坐标、类别概率,预测框的置信度;边界框预测分支输出维度大小为S×S×D的张量,其中D=(9×2+N+1),N代表目标物体的类别个数,9个关键点为3D边界框的顶点和边界框的中心;
S2:采用不同背景、角度和姿态的目标物体图片作为训练样本以构建训练集,对训练样本进行数据增强,以及轮廓信息标注、分类信息标注和位姿信息标注;
S3:使用步骤S2构建的训练集对目标物体6D位姿估计网络进行训练,通过最小化设计的损失函数优化网络参数,当训练次数达到预设次数时,停止训练并得到6D位姿估计网络模型;
S4:调用S3得到的6D位姿估计网络模型对目标物体图片进行预测,得到目标物体关键点的二维投影坐标;
S5:利用S4中目标物体预测关键点的投影坐标和目标物体的CAD模型关键点三维坐标,通过EPnP算法计算目标物体相对于相机的位姿。
进一步的,目标物体6D位姿估计网络中轮廓预测分支最后一层采用Sigmoid函数,其余非线性激活函均使用Relu函数,每个卷积层均合并了批归一化层。
进一步的,在步骤2中,轮廓信息以二维张量标注,以区分目标物体和背景,轮廓信息张量的维度与网络输入图片相同;分类信息以数字标注,不同类别的物体以不同大小的整数标注;位姿信息以目标物体的3D边界框的8个顶点和1个中心点标注。
进一步的,步骤S3中所设计的损失函数包括几何约束损失函数、轮廓预测损失函数、关键点坐标误差函数、置信度损失函数和类别预测损失函数,具体是:
几何约束损失函数公式:
Figure BDA0002110491690000031
其中λedge为几何约束损失函数的权值,lij为预测边界框的边长,
Figure BDA0002110491690000032
为预测框第i组的四个对应边的平均长度;
轮廓预测损失函数:
Figure BDA0002110491690000033
其中λmask为轮廓预测损失函数的权值,w为输入图片的宽度像素值,h为输入图片的高度像素值,p为预测像素为目标物体的概率,
Figure BDA0002110491690000034
为标注值,;
关键点坐标误差函数:
Figure BDA0002110491690000035
其中λpc为关键点坐标误差函数的权值,s2为输入图片划分的网格的数目,x,y为预测坐标值,
Figure BDA0002110491690000036
为标注坐标值,
Figure BDA0002110491690000037
表示目标物体的中心落在第i个网格中;
置信度损失函数:
Figure BDA0002110491690000041
其中λobj为置信度损失函数的权值,C为预测置信度,
Figure BDA0002110491690000042
为预测边界框与标注边界框计算得到的置信度,
Figure BDA0002110491690000043
表示目标物体的中心落在第i个网格中,
Figure BDA0002110491690000044
表示目标物体的中心未落在第i个网格中;
类别预测损失函数:
Figure BDA0002110491690000045
其中λid为类别预测损失函数的权值,p(c)为网络预测类别概率,
Figure BDA0002110491690000046
为标注类别;
整体损失函数:L=Ledge+Lmask+Lpc+Lconf+Lid
与现有技术相比,本发明的有益效果是:设计了能利用物体轮廓信息提升位姿检测精度的网络,在模型训练阶段,利用目标物体轮廓信息加强网络特征对目标物体边缘的学习,使获得的目标物体特征信息更鲁棒;同时,所设计的训练损失函数包含的几何约束损失函数约束了预测框投影后的形状,防止了预测框的形变;在不需要位姿修正后处理的情况下,本方法对目标物体位姿估计快速且精确,可以实时地对目标物体进行6D位姿处理。
附图说明
图1是本发明方法的流程示意图;
图2是本发明中目标物体6D位姿估计网络结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。如图1所示,本发明一种利用轮廓信息的6D位姿估计方法,包括以下步骤:
S1:基于卷积神经网络设计目标物体6D位姿估计网络,包括在网络中增加语义分割分支,利用轮廓特权信息约束网络底层特征的学习;
如图2所示,目标物体6D位姿估计网络是基于卷积神经网络进行设计的,其结构一共包括三个部分:网络共享层、轮廓预测分支、边界框预测分支。含目标物体的图片在经过网络共享层后得到特征图,再进入轮廓预测分支和边界框预测分支。其中网络共享层由一系列卷积层和池化层组成,卷积层中使用大小为3×3卷积核,池化层采用最大池化方式压缩特征图。
轮廓预测分支由上采样层和卷积层组成,每次经上采样之后得到的特征图将和共享层中相同尺度的特征图在通道维度上拼接得到新的特征图,前三次拼接的特征图依次通过卷积核为3×3和1×1的卷积层,最后一次的拼接的特征图通过卷积核为3×3的卷积层,再经过Sigmoid层输出目标物体预测轮廓,轮廓预测分支通过和真实轮廓计算交叉熵损失来加强网络底层特征对物体轮廓信息的学习能力。
边界框预测分支由一系列全卷积网络以及一个直连层组成,此分支将输入图片划分为S×S个网格,每个网格对应图片中32×32的区域,每个网格输出包含代表3D边界框的9个关键点投影坐标、类别概率,预测框的置信度。边界框预测分支输出维度大小为S×S×D的张量,其中D=(9×2+N+1),N代表目标物体的类别个数,9个关键点为3D边界框的顶点和边界框的中心。边界预测分支用于计算目标物体分类与位姿信息。
S2:采用不同背景、角度和姿态的目标物体图片作为训练样本,对训练样本进行数据增强,以及轮廓信息标注、分类信息标注和位姿信息标注以构建训练集;
对训练集不同背景、角度和姿态的目标物体图片进行数据增强,可以减少网络过拟合现象,得到泛化能力更强的网络,更好的适应应用场景,具体可对训练样本作如下变换:
1)随机改变训练图片的饱和度和曝光度为原图的1至1.5倍,以及将色调改变为原图的1至1.1倍;
2)随机裁剪训练图片,裁剪尺寸不超过图片大小的10%;
3)以50%的概率将图片水平翻转;
4)随机将训练图片的背景替换成从VOC2012数据集中随机选取出的图片。
训练样本的轮廓信息以二维张量标注,以区分目标物体和背景,轮廓信息张量的维度与网络输入图片相同。目标物体的轮廓张量由其CAD模型计算得出。轮廓张量对应于输入图片背景的区域标注为0,对应于图片中目标物体的区域标注为1。分类信息以不同大小的整数标注,不同类别的物体以不同数字标注。位姿信息以目标物体的3D边界框的8个顶点和1个中心点标注。
S3:使用步骤S2构建的训练集对所述的目标物体6D位姿估计网络进行训练,通过最小化所设计的损失函数优化网络参数,当训练次数达到预设次数时,停止训练并得到6D位姿估计网络模型;
训练过程中模型损失函数包括几何约束损失函数、轮廓预测损失函数、关键点坐标误差函数、置信度损失函数、类别预测损失函数,即:
几何约束损失函数公式:
Figure BDA0002110491690000061
其中λedge为几何约束损失函数的权值,lij为预测边界框的边长,
Figure BDA0002110491690000062
为预测框第i组的四个对应边的平均长度;
轮廓预测损失函数:
Figure BDA0002110491690000063
其中λmask为轮廓预测损失函数的权值,w为输入图片的宽度像素值,h为输入图片的高度像素值,p为预测像素为目标物体的概率,
Figure BDA0002110491690000064
为标注值,;
关键点坐标误差函数:
Figure BDA0002110491690000065
其中λpc为关键点坐标误差函数的权值,s2为输入图片划分的网格的数目,x,y为预测坐标值,
Figure BDA0002110491690000066
为标注坐标值,
Figure BDA0002110491690000067
表示目标物体的中心落在第i个网格中;
置信度损失函数:
Figure BDA0002110491690000071
其中λobj为置信度损失函数的权值,C为预测置信度,
Figure BDA0002110491690000072
为预测边界框与标注边界框计算得到的置信度,
Figure BDA0002110491690000073
表示目标物体的中心落在第i个网格中,
Figure BDA0002110491690000074
表示目标物体的中心未落在第i个网格中;
类别预测损失函数:
Figure BDA0002110491690000075
其中λid为类别预测损失函数的权值,p(c)为网络预测类别概率,
Figure BDA0002110491690000076
为标注类别;
整体损失函数:L=Ledge+Lmask+Lpc+Lconf+Lid
训练过程中采用多尺度输入训练策略,在训练过程中每100个周期之后增大输入网络图片的尺寸。初始学习率0.001,并且在第250个周期后降低为10-4,在第500个周期后降低为10-5,训练800个周期后结束,batch size为16,采用自适应矩估计优化器优化变量。
S4:调用S3得到的6D位姿估计网络模型对目标物体图片进行预测,得到目标物体关键点的二维投影坐标;
通过所述已经训练完成的6D位姿估计的网络,对目标物体图片进行检测;由网络中边界框预测分支的输出得到目标物体9个关键点投影坐标。由于网络中参数已经在训练阶段学习到目标轮廓预测信息,在检测过程中,剪去网络中轮廓预测分支,提升了网络对目标物体的检测速度。
S5:利用S4中目标物体预测关键点的投影坐标和目标物体的CAD模型关键点三维坐标,通过EPnP算法计算目标物体相对于相机的位姿;
在EPnP算法中,世界坐标系中参考点的3D坐标被表示为一组控制点的加权和,首先由3D参考点计算出控制点,再通过高斯-牛顿优化算法确定控制点在相机坐标下的坐标,最后经位姿变换得到目标物体的位姿信息。

Claims (3)

1.一种利用轮廓信息的6D位姿估计方法,其特征在于,包括以下步骤:
S1:基于卷积神经网络设计目标物体6D位姿估计网络,包含网络共享层、轮廓预测分支和边界框预测分支;
网络共享层由卷积层和池化层组成,用于提取图片中目标物体特征,得到特征图;
轮廓预测分支由上采样层和卷积层组成,每次上采样之后得到的特征图和网络共享层中相同尺度的特征图拼接得到新的特征图,并作为下一个卷积层的输入;
边界框预测分支由一系列全卷积网络以及一个直连层组成,此分支将输入图片划分为S×S个网格,每个网格对应图片中32×32的区域,每个网格输出包含代表3D边界框的9个关键点投影坐标、类别概率,预测框的置信度;边界框预测分支输出维度大小为S×S×D的张量,其中D=(9×2+N+1),N代表目标物体的类别个数,9个关键点为3D边界框的顶点和边界框的中心;
S2:采用不同背景、角度和姿态的目标物体图片作为训练样本以构建训练集,对训练样本进行数据增强,以及轮廓信息标注、分类信息标注和位姿信息标注;
S3:使用步骤S2构建的训练集对目标物体6D位姿估计网络进行训练,通过最小化设计的损失函数优化网络参数,当训练次数达到预设次数时,停止训练并得到6D位姿估计网络模型;
S4:调用S3得到的6D位姿估计网络模型对目标物体图片进行预测,得到目标物体关键点的二维投影坐标;
S5:利用S4中目标物体预测关键点的投影坐标和目标物体的CAD模型关键点三维坐标,通过EPnP算法计算目标物体相对于相机的位姿;
步骤S3中所设计的损失函数包括几何约束损失函数、轮廓预测损失函数、关键点坐标误差函数、置信度损失函数和类别预测损失函数,具体是:
几何约束损失函数公式:
Figure FDA0003176768690000021
其中λedge为几何约束损失函数的权值,lij为预测边界框的边长,
Figure FDA0003176768690000022
为预测框第i组的四个对应边的平均长度;
轮廓预测损失函数:
Figure FDA0003176768690000023
其中λmask为轮廓预测损失函数的权值,w为输入图片的宽度像素值,h为输入图片的高度像素值,p为预测像素为目标物体的概率,
Figure FDA0003176768690000024
为标注值;
关键点坐标误差函数:
Figure FDA0003176768690000025
其中λpc为关键点坐标误差函数的权值,S2为输入图片划分的网格的数目,x,y为预测坐标值,
Figure FDA0003176768690000026
为标注坐标值,
Figure FDA0003176768690000027
表示目标物体的中心落在第i个网格中;
置信度损失函数:
Figure FDA0003176768690000028
其中λobj为置信度损失函数的权值,C为预测置信度,
Figure FDA0003176768690000029
为预测边界框与标注边界框计算得到的置信度,
Figure FDA00031767686900000210
表示目标物体的中心落在第i个网格中,
Figure FDA00031767686900000211
表示目标物体的中心未落在第i个网格中;
类别预测损失函数:
Figure FDA00031767686900000212
其中λid为类别预测损失函数的权值,p(c)为网络预测类别概率,
Figure FDA00031767686900000213
为标注类别;
整体损失函数:L=Ledge+Lmask+Lpc+Lconf+Lid
2.如权利要求1所述的一种利用轮廓信息的6D位姿估计方法,其特征在于,目标物体6D位姿估计网络中轮廓预测分支最后一层采用Sigmoid函数,其余非线性激活函数均使用Relu函数,每个卷积层均合并了批归一化层。
3.如权利要求1所述的一种利用轮廓信息的6D位姿估计方法,其特征在于,在步骤2中,轮廓信息以二维张量标注,以区分目标物体和背景,轮廓信息张量的维度与网络输入图片相同;分类信息以数字标注,不同类别的物体以不同大小的整数标注;位姿信息以目标物体的3D边界框的8个顶点和1个中心点标注。
CN201910569209.2A 2019-06-27 2019-06-27 一种利用轮廓信息的6d位姿估计方法 Active CN110322510B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910569209.2A CN110322510B (zh) 2019-06-27 2019-06-27 一种利用轮廓信息的6d位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910569209.2A CN110322510B (zh) 2019-06-27 2019-06-27 一种利用轮廓信息的6d位姿估计方法

Publications (2)

Publication Number Publication Date
CN110322510A CN110322510A (zh) 2019-10-11
CN110322510B true CN110322510B (zh) 2021-08-27

Family

ID=68121222

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910569209.2A Active CN110322510B (zh) 2019-06-27 2019-06-27 一种利用轮廓信息的6d位姿估计方法

Country Status (1)

Country Link
CN (1) CN110322510B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119148B (zh) * 2019-05-14 2022-04-29 深圳大学 一种六自由度姿态估计方法、装置及计算机可读存储介质
CN111144401B (zh) * 2019-11-06 2024-01-26 华能国际电力股份有限公司海门电厂 一种电厂集控室深度学习和视觉伺服的触屏控制操作方法
CN112884820B (zh) * 2019-11-29 2024-06-25 杭州三坛医疗科技有限公司 一种影像初始配准及神经网络的训练方法、装置和设备
CN111126269B (zh) * 2019-12-24 2022-09-30 京东科技控股股份有限公司 三维目标检测方法、装置以及存储介质
CN111175318A (zh) * 2020-01-21 2020-05-19 上海悦易网络信息技术有限公司 屏幕划痕碎裂检测方法及设备
CN111369571B (zh) * 2020-02-27 2023-06-23 北京百度网讯科技有限公司 三维物体位姿准确性判断方法、装置及电子设备
CN111428586B (zh) * 2020-03-09 2023-05-16 同济大学 基于特征融合与样本增强的三维人体姿态估计方法
CN111667535B (zh) * 2020-06-04 2023-04-18 电子科技大学 一种针对遮挡场景下的六自由度位姿估计方法
CN111640167A (zh) * 2020-06-08 2020-09-08 上海商汤智能科技有限公司 一种ar合影方法、装置、计算机设备及存储介质
CN112085789A (zh) * 2020-08-11 2020-12-15 深圳先进技术研究院 位姿估计方法、装置、设备及介质
CN112150551B (zh) * 2020-09-25 2023-07-25 北京百度网讯科技有限公司 物体位姿的获取方法、装置和电子设备
CN112163541A (zh) * 2020-10-09 2021-01-01 上海云绅智能科技有限公司 一种3d目标检测方法、装置、电子设备和存储介质
CN112150546B (zh) * 2020-10-23 2023-11-21 西华大学 一种基于辅助点几何约束的单目视觉位姿估计方法
CN112435297B (zh) * 2020-12-02 2023-04-18 达闼机器人股份有限公司 目标物体位姿确定方法、装置、存储介质及电子设备
CN112634363B (zh) * 2020-12-10 2023-10-03 上海零眸智能科技有限公司 一种货架姿态预估方法
CN112598040B (zh) * 2020-12-16 2021-11-02 浙江方圆检测集团股份有限公司 一种基于深度学习的开关一致性实时检测方法
CN112634367A (zh) * 2020-12-25 2021-04-09 天津大学 一种基于深度神经网络的抗遮挡的物体位姿估计方法
CN113240736A (zh) * 2021-02-23 2021-08-10 广东工业大学 基于yolo6d改进网络的位姿估计方法及装置
CN113436251B (zh) * 2021-06-24 2024-01-09 东北大学 一种基于改进的yolo6d算法的位姿估计系统及方法
CN113793472B (zh) * 2021-09-15 2023-01-20 应急管理部沈阳消防研究所 基于特征深度聚合网络的图像型火灾探测器位姿估计方法
CN114119753A (zh) * 2021-12-08 2022-03-01 北湾科技(武汉)有限公司 面向机械臂抓取的透明物体6d姿态估计方法
CN115019136B (zh) * 2022-08-05 2022-11-25 山东圣点世纪科技有限公司 抗边界点漂移的目标关键点检测模型训练方法及检测方法
CN116012422B (zh) * 2023-03-23 2023-06-09 西湖大学 基于单目视觉的无人机6d位姿估计跟踪方法及其应用
CN116664843B (zh) * 2023-06-05 2024-02-20 北京信息科技大学 一种基于rgbd图像和语义分割的残差拟合抓取检测网络
CN116934970A (zh) * 2023-07-24 2023-10-24 天津大学 一种基于先验知识引导的医学单视图三维重建装置
CN117237451B (zh) * 2023-09-15 2024-04-02 南京航空航天大学 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法
CN117474836A (zh) * 2023-09-27 2024-01-30 深圳市长盈精密技术股份有限公司 形变缺陷的检测方法及装置
CN117542122B (zh) * 2024-01-09 2024-03-22 北京渲光科技有限公司 人体位姿估计与三维重建方法、网络训练方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063301A (zh) * 2018-07-24 2018-12-21 杭州师范大学 一种基于热力图的单幅图像室内物体姿态估计方法
CN109064514A (zh) * 2018-07-03 2018-12-21 北京航空航天大学 一种基于投影点坐标回归的六自由度位姿估计算法
CN109215080A (zh) * 2018-09-25 2019-01-15 清华大学 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置
CN109801337A (zh) * 2019-01-21 2019-05-24 同济大学 一种基于实例分割网络和迭代优化的6d位姿估计方法
CN109816725A (zh) * 2019-01-17 2019-05-28 哈工大机器人(合肥)国际创新研究院 一种基于深度学习的单目相机物体位姿估计方法及装置
CN109903332A (zh) * 2019-01-08 2019-06-18 杭州电子科技大学 一种基于深度学习的目标姿态估计方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491880B (zh) * 2018-03-23 2021-09-03 西安电子科技大学 基于神经网络的物体分类和位姿估计方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109064514A (zh) * 2018-07-03 2018-12-21 北京航空航天大学 一种基于投影点坐标回归的六自由度位姿估计算法
CN109063301A (zh) * 2018-07-24 2018-12-21 杭州师范大学 一种基于热力图的单幅图像室内物体姿态估计方法
CN109215080A (zh) * 2018-09-25 2019-01-15 清华大学 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置
CN109903332A (zh) * 2019-01-08 2019-06-18 杭州电子科技大学 一种基于深度学习的目标姿态估计方法
CN109816725A (zh) * 2019-01-17 2019-05-28 哈工大机器人(合肥)国际创新研究院 一种基于深度学习的单目相机物体位姿估计方法及装置
CN109801337A (zh) * 2019-01-21 2019-05-24 同济大学 一种基于实例分割网络和迭代优化的6d位姿估计方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PoseCNN: A Convolutional Neural Network for 6D Object Pose Estimation in Cluttered Scenes;Yu Xiang等;《Robotics: Science and Systems (RSS)》;20181231;第949-953页 *
Real-time seamless single shot 6D object pose prediction;Bugra Tekin等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;第292-301页 *
SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation;Vijay Badrinarayanan等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20170102;第2481-2495页 *

Also Published As

Publication number Publication date
CN110322510A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
CN110322510B (zh) 一种利用轮廓信息的6d位姿估计方法
CN110135503B (zh) 一种装配机器人零件深度学习识别方法
CN111695562B (zh) 一种基于卷积神经网络的机器人自主抓取方法
CN110930454A (zh) 一种基于边界框外关键点定位的六自由度位姿估计算法
CN111783772A (zh) 一种基于RP-ResNet网络的抓取检测方法
CN111553949B (zh) 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
US11475589B2 (en) 3D pose estimation by a 2D camera
CN111627050B (zh) 一种目标跟踪模型的训练方法和装置
CN112149590A (zh) 一种手部关键点检测方法
CN114757904A (zh) 一种基于ai深度学习算法的表面缺陷检测方法
CN115147488B (zh) 一种基于密集预测的工件位姿估计方法与抓取系统
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
Yang et al. An improved algorithm for the detection of fastening targets based on machine vision
CN114120045A (zh) 一种基于多门控混合专家模型的目标检测方法和装置
Wu et al. A cascaded CNN-based method for monocular vision robotic grasping
US11554496B2 (en) Feature detection by deep learning and vector field estimation
JP2021163502A (ja) 複数の2次元カメラによる3次元の姿勢推定
Ozkahraman et al. Artificial intelligence in foreign object classification in fenceless robotic work cells using 2-D safety cameras
CN115100136A (zh) 基于YOLOv4-tiny模型的工件类别与位姿估计方法
CN114782360A (zh) 基于DCT-YOLOv5模型的实时番茄姿态检测方法
Zhang et al. Object detection and grabbing based on machine vision for service robot
Beknazarova et al. Machine learning algorithms are used to detect and track objects on video images
CN116363085B (zh) 基于小样本学习和虚拟合成数据的工业零件目标检测方法
Fan et al. Multitarget Flexible Grasping Detection Method for Robots in Unstructured Environments.
He et al. Application of Computer Vision and Neural Networks in Feature Extraction and Optimization of Industrial Product Design

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant