CN113284184A - 面向机器人rgbd视觉感知的6d位姿估计方法及系统 - Google Patents

面向机器人rgbd视觉感知的6d位姿估计方法及系统 Download PDF

Info

Publication number
CN113284184A
CN113284184A CN202110565705.8A CN202110565705A CN113284184A CN 113284184 A CN113284184 A CN 113284184A CN 202110565705 A CN202110565705 A CN 202110565705A CN 113284184 A CN113284184 A CN 113284184A
Authority
CN
China
Prior art keywords
feature extraction
module
image
pose estimation
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110565705.8A
Other languages
English (en)
Inventor
李峥嵘
李智勇
陈文锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202110565705.8A priority Critical patent/CN113284184A/zh
Publication of CN113284184A publication Critical patent/CN113284184A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向机器人RGBD视觉感知的6D位姿估计方法,包括获取物体在不同环境和不同光照下的RGBD图片;对得到的RGBD图片进行物体图像分隔;训练分割的物体图像,生成位姿估计模型,对物体进行位姿估计。本发明还提供一种面向机器人RGBD视觉感知的6D位姿估计系统。本发明利用物体图像分割和特征提取进行位姿估计,有效的减少背景对结果的干扰并大大减少计算量,并能够在50ms内快速估计出相机坐标下所有待抓取物体的3D位置和3D旋转,以便做出多样的抓握手势和找出准确的抓取点。

Description

面向机器人RGBD视觉感知的6D位姿估计方法及系统
技术领域
本发明属于计算机视觉处理领域,具体涉及一种面向机器人RGBD视觉感知的6D位姿估计方法及系统。
背景技术
物体6D位姿是指拍摄当前图像时刻,相机坐标系相对于原始物体所在的世界系,发生的平移和旋转变换。近年来,物体6D位姿估计在机器人装配、自动驾驶和增强现实等领域得到了广泛的应用。尤其是在机器人装配领域,由于对实时性和准确性的要求很高,RGBD相机下的物体位姿估计一直是一个具有挑战性的问题。针对物体位姿估计,一直存在如下几个挑战:1、如何满足操作的实时性;2、处理光照变化的影响;3、物体之间的互相遮挡等。在精细化的场景下,普通的3D目标定位技术已经不能满足精确性和实时性的需求。而对目标姿态的精确估计也能允许使用更加灵巧的手势进行柔性抓取与装配。
传统的6D目标估计方法主要分为基于对应的方法和基于模板的方法。基于对应的方法先找到现有三维模型的二维像素点与三维点之间的对应关系,然后采用透视n点(PnP)算法求解姿态,然而,这类方法严重依赖于手工制作的特征,这导致其在无纹理对象上的性能较差。基于模板的方法从标记有地面真实6D物体姿态的模板中找到最相似的模板,但不能适应光照变化和遮挡等复杂环境。
随着近几年来深度学习理论的逐步发展,基于深度学习的3D视觉技术已被成功应用于智能制造、智能驾驶等各个领域并取得了很高的效果。基于卷积神经网络(CNN)的图像特征提取可以使模型学习到最有利的特征,从而避免了手工特征的局限性。有些方法直接使用深度卷积网络来回归对象的3D位置和3D旋转。然而,现有方法大都极度依赖颜色信息而忽略了深度信息,导致了在颜色信息受限时(如极端光照、复杂场景等)的结果不够鲁棒。一方面,由于深度相机的局限性只能获得2.5D的点云信息,并且随着遮挡等问题越来越少,少量的深度信息对于位姿估计的贡献极为有限;另一方面,目前对于深度信息的特征提取技术现在也应用起来较为复杂,不够准确,目前仍需要一种有效的方法将深度信息用于物体的位姿估计。
发明内容
本发明的目的之一在于提供一种面向机器人RGBD视觉感知的6D位姿估计方法,该方法通过多分辨率的物体全局拓扑特征提取模块弥补深度信息匮乏的缺陷,并采用基于投票的机制得到最终位姿;同时本方法高效,便捷。
本发明的目的之二在于提供基于面向机器人RGBD视觉感知的6D位姿估计方法的系统。
本发明提供的这种面向机器人RGBD视觉感知的6D位姿估计方法,包括如下步骤:
S1.获取物体在不同环境和不同光照下的RGBD图片;
S2.对得到的RGBD图片进行物体图像分隔;
S3.训练分割的物体图像,生成位姿估计模型,对物体进行位姿估计。
所述的步骤S2,具体包括如下步骤:
A1.对步骤S1获取的RGBD图片,使用标注工具对不同物体进行标注,制作图像分割训练数据集;
A2.利用步骤A1制作的图像分割训练数据集,对图像分割网络进行训练,使得图像分割网络能够分割出每个物体在图像中的所有像素点;分割过程具体为,获取单帧的RGB图像,输入至分割网络中获得每个物体的前景掩码,并按此前景掩码裁剪出只包含该物体的RGB图像和深度图像。
所述的步骤S3,具体包括如下步骤:
B1.采用步骤S1获取的RGBD图片,使用3D标注工具对图片下的物体的3D位置和3D旋转进行标注,制作位姿估计训练数据集;
B2.利用步骤A2得到的每个物体的RGB图片、深度图片以及该物体的点云模型,分别进行特征提取;
B3.将步骤B2得到的特征进行逐像素级的融合,并输入位姿估计网络中,利用步骤B1制作的位姿估计训练数据集对位姿估计网络进行训练,使得该网络能估计出目标的3D位置和3D旋转。
步骤B2,特征提取具体包括如下步骤:
C1.用基于卷积神经网络的图像特征提取算法提取得到目标的颜色特征;
C2.使用基于PointNet的点云特征提取网络提取得到目标的深度特征;
C3.使用基于多分辨率的点云拓扑特征提取网络提取得到目标的拓扑特征。
步骤B3,训练过程具体为,采用一种基于全连接网络的结构为每一个像素计算出一个长度为7的向量,长度为7的向量分别代表3D的物体偏移、3D的目标旋转和一个置信度,并采用如下损失函数进行训练:
Figure BDA0003080616270000031
其中,Lp为总损失;ci为置信度;N为点的数量;i代表其中一个点;ω为超参数;log为对数符号,用于简便计算;
Li为第i个点的损失,
Figure BDA0003080616270000032
其中,M为像素的数量;j为其中一个像素;k为另一个像素;R为真实的旋转向量;xj为第j个像素的初始位姿;t为真实的平移向量;
Figure BDA0003080616270000033
为估计的旋转向量;xk为第k个像素的初识位姿;
Figure BDA0003080616270000034
为估计的平移向量。
本发明还提供了一种基于面向机器人RGBD视觉感知的6D位姿估计方法的系统,包括图像获取模块、图像分割模块、颜色特征提取模块、深度特征提取模块、拓扑特征提取模块和物体位姿估计模块;图像获取模块连接图像分割模块,图像分割模块分别连接颜色特征模块、深度特征提取模块和拓扑特征提取模块,同时,颜色特征模块、深度特征提取模块和拓扑特征提取模块分别连接物体位姿估计模块;图像获取模块用于获取物体的图像;图像分割模块对获取的图像进行分割,并将分割后的图像发送到颜色特征模块、深度特征提取模块和拓扑特征提取模块中;颜色特征提取模块获取物体的颜色特征;深度特征提取模块用于获取物体的深度特征;拓扑特征提取模块用于获取物体的全局拓扑特征;颜色特征模块、深度特征提取模块和拓扑特征提取模块将获取的特征发送到物体位姿估计模块,物体位姿估计模块对物体进行6D位姿估计。
图像分割模块具体为,利用基于编码器-解码器架构的图像分割网络对图片下的每一个物体进行像素级的分割,以避免杂乱背景造成的影响和减少计算量。
颜色特征提取模块,具体为利用基于卷积神经网络的深度学习模型对分割后的RGB图片进行特征提取,获取该物体的颜色特征;深度特征提取模块,具体为利用基于PointNet的深度学习模型对分割后的点云信息进行特征提取,获得该物体的深度特征;拓扑特征提取模块,具体为利用一种多分辨率的点云特征提取模块的物体模型的全局拓扑特征进行提取,以对不充足的深度信息进行补充。
物体位姿估计模块,具体为将颜色特征、深度特征和拓扑特征进行逐像素融合并为每一个像素都进行回归得到相对于相机坐标的3D位置、3D旋转和一个置信度,最后投票选择置信度最高的像素的位姿作为最终结果。
本发明提供的这种面向机器人RGBD视觉感知的6D位姿估计方法及系统,利用物体图像分割和特征提取进行位姿估计,有效的减少背景对结果的干扰并大大减少计算量,并能够在50ms内快速估计出相机坐标下所有待抓取物体的3D位置和3D旋转,以便做出多样的抓握手势和找出准确的抓取点。
附图说明
图1为本发明方法的流程示意图。
图2为本发明系统的结构示意图。
图3为本发明实施例的结构示意图。
具体实施方式
如图1为本发明方法的流程示意图。本发明提供的这种面向机器人RGBD视觉感知的6D位姿估计方法,包括如下步骤:
S1.获取物体在不同环境和不同光照下的RGBD图片;
S2.对得到的RGBD图片进行物体图像分隔;
S3.训练分割的物体图像,生成位姿估计模型,对物体进行位姿估计。
所述的步骤S2,具体包括如下步骤:
A1.对步骤S1获取的RGBD图片,使用标注工具对不同物体进行标注,制作图像分割训练数据集;
A2.利用步骤A1制作的图像分割训练数据集,对图像分割网络进行训练,使得图像分割网络能够分割出每个物体在图像中的所有像素点;若像素点的数量过少,则无效;否则,根据4个边界切割图片得到该物体的区域;具体为,获取单帧的RGB图像,输入至分割网络中获得每个物体的前景掩码,并按此前景掩码裁剪出只包含该物体的RGB图像和深度图像。
所述的步骤S3,具体包括如下步骤:
B1.采用步骤S1获取的RGBD图片,使用3D标注工具对图片下的物体的3D位置和3D旋转进行标注,制作位姿估计训练数据集;
B2.利用步骤A2得到的每个物体的RGB图片、深度图片以及该物体的点云模型,分别做三部分的特征提取,特征提取包括如下步骤:
C1.用基于卷积神经网络的图像特征提取算法提取得到目标的颜色特征;
C2.使用基于PointNet的点云特征提取网络提取得到目标的深度特征;
C3.使用基于多分辨率的点云拓扑特征提取网络提取得到目标的拓扑特征。
B3.将步骤B2得到的特征进行逐像素级的融合,并输入位姿估计网络中,利用步骤B1制作的位姿估计训练数据集对位姿估计网络进行训练,使得该网络能估计出目标的3D位置和3D旋转。
训练过程具体为,采用一种基于全连接网络的结构为每一个像素计算出一个长度为7的向量,长度为7的向量分别代表3D的物体偏移、3D的目标旋转和一个置信度,并采用如下损失函数进行训练:
Figure BDA0003080616270000051
其中,Lp为总损失;ci为置信度;N为点的数量;i代表其中一个点;ω为超参数;log为对数符号,用于简便计算;
Li为第i个点的损失,
Figure BDA0003080616270000052
其中,M为像素的数量;j为其中一个像素;k为另一个像素;R为真实的旋转向量;xj为第j个像素的初始位姿;t为真实的平移向量;
Figure BDA0003080616270000053
为估计的旋转向量;xk为第k个像素的初识位姿;
Figure BDA0003080616270000054
为估计的平移向量。
如图2为本发明系统的结构图;本发明提供的这种面向机器人RGBD视觉感知的6D位姿估计方法及系统,包括图像获取模块、图像分割模块、颜色特征提取模块、深度特征提取模块、拓扑特征提取模块和物体位姿估计模块;图像获取模块连接图像分割模块,图像分割模块分别连接颜色特征模块、深度特征提取模块和拓扑特征提取模块,同时,颜色特征模块、深度特征提取模块和拓扑特征提取模块分别连接物体位姿估计模块;图像获取模块用于获取物体的图像;图像分割模块对获取的图像进行分割,并将分割后的图像发送到颜色特征模块、深度特征提取模块和拓扑特征提取模块中;颜色特征提取模块获取物体的颜色特征;深度特征提取模块用于获取物体的深度特征;拓扑特征提取模块用于获取物体的全局拓扑特征;颜色特征模块、深度特征提取模块和拓扑特征提取模块将获取的特征发送到物体位姿估计模块,物体位姿估计模块对物体进行6D位姿估计。
图像分割模块,利用基于编码器-解码器架构的图像分割网络对图片下的每一个物体进行像素级的分割,以避免杂乱背景造成的影响和减少计算量。颜色特征提取模块,利用基于卷积神经网络的深度学习模型对分割后的RGB图片进行特征提取,获取该物体的颜色特征。深度特征提取模块,利用基于PointNet的深度学习模型对分割后的点云信息进行特征提取,获得该物体的深度特征。拓扑特征提取模块,利用一种多分辨率的点云特征提取模块的物体模型的全局拓扑特征进行提取,以对不充足的深度信息进行补充。物体位姿估计模块,将颜色特征、深度特征和拓扑特征进行逐像素融合并为每一个像素都进行回归得到相对于相机坐标的3D位置、3D旋转和一个置信度,最后投票选择置信度最高的像素的位姿作为最终结果。
如图3为本发明实施例的结构示意图。在具体实施过程中,包括如下步骤:
步骤一、获取大量待抓握物体在不同环境、不同光照条件下的RGBD图片,并对其进行两部分的标注:
(1)、标注包含所有物体的区域用于实例分割;
(2)、标注所有物体相对于相机的偏移和旋转用于位姿估计。
步骤二、获取单帧的RGB图像,输入至实例分割网络中获得每个物体的前景掩码,并按此掩码裁剪出只包含该物体的RGB图像和深度图像。
步骤三、分别对裁剪后的RGB图像和深度图像进行特征提取;对于RGB图像特征提取,可采用任意一种编码器-解码器架构的网络结构,如PSPNet、SegNet和RefineNet等;对于深度图像的特征提取,本发明先将其转换为点云格式,然后采用pointNet的主干网络进行特征提取,并将其与对应的像素的图像特征进行拼接。
步骤四、采用一种多分辨率的网络结构对物体模型的拓扑特征进行提取;具体为,首先使用最点距离采样方式对物体模型的点云进行三次采样,得到点云数量分别为[256,512,1024]的点云信息,然后采用权值共享的MLP网络对不同分辨率的点云信息进行提取,得到3个128×1的特征向量,进一步将三个特征向量进行横向拼接得到128×3的特征矩阵,再经过一个MLP网络得到一个128×1的特征向量,最终将这个向量复制N份拼接到每一个像素的特征中,这样,每一个像素就获得了一部分物体模型的拓扑特征。
步骤五、采用一种基于全连接网络的结构为每一个像素计算出一个长度为7的向量,分别代表3D的物体偏移、3D的目标旋转和一个置信度,并采用如下损失函数进行训练:
Figure BDA0003080616270000071
其中,Lp为总损失;ci为置信度;N为点的数量;i代表其中一个点;ω为超参数;log为对数符号,用于简便计算;
Li为第i个点的损失,
Figure BDA0003080616270000072
其中,M为像素的数量;j为其中一个像素;k为另一个像素;R为真实的旋转向量;xj为第j个像素的初始位姿;t为真实的平移向量;
Figure BDA0003080616270000073
为估计的旋转向量;xk为第k个像素的初识位姿;
Figure BDA0003080616270000074
为估计的平移向量。
步骤六、训练完成后,将摄像头拍摄到的RGBD图像作为整个系统的输入,为每一个物体得到若干个像素的3D偏移、3D旋转和置信度,然后选取置信度最高的结果作为最终结果。
在具体实施过程中,在步骤二中采用PSPNet作为图像特征提取网络,分别在LineMOD和YCB-Video数据集上进行了实验;本发明在LineMOD和YCB-Video数据集上的实验结果如表1所示:
表1
Figure BDA0003080616270000075
ADD和ADD(S)为两个性能指标(越大越好),Ours为本发明所得出的结果。其中,ADD为估计出的目标与真是目标之间平均距离不超过2cm的准确率,ADD(S)计算方式与ADD一致,但是考虑到了对称目标的旋转。

Claims (9)

1.一种面向机器人RGBD视觉感知的6D位姿估计方法,其特征在于包括如下步骤:
S1.获取物体在不同环境和不同光照下的RGBD图片;
S2.对得到的RGBD图片进行物体图像分隔;
S3.训练分割的物体图像,生成位姿估计模型,对物体进行位姿估计。
2.根据权利要求1所述的面向机器人RGBD视觉感知的6D位姿估计方法,其特征在于所述的步骤S2,具体包括如下步骤:
A1.对步骤S1获取的RGBD图片,使用标注工具对不同物体进行标注,制作图像分割训练数据集;
A2.利用步骤A1制作的图像分割训练数据集,对图像分割网络进行训练,使得图像分割网络能够分割出每个物体在图像中的所有像素点;分割过程具体为,获取单帧的RGB图像,输入至分割网络中获得每个物体的前景掩码,并按此前景掩码裁剪出只包含该物体的RGB图像和深度图像。
3.根据权利要求2所述的面向机器人RGBD视觉感知的6D位姿估计方法,其特征在于所述的步骤S3,具体包括如下步骤:
B1.采用步骤S1获取的RGBD图片,使用3D标注工具对图片下的物体的3D位置和3D旋转进行标注,制作位姿估计训练数据集;
B2.利用步骤A2得到的每个物体的RGB图片、深度图片以及该物体的点云模型,分别进行特征提取;
B3.将步骤B2得到的特征进行逐像素级的融合,并输入位姿估计网络中,利用步骤B1制作的位姿估计训练数据集对位姿估计网络进行训练,使得该网络能估计出目标的3D位置和3D旋转。
4.根据权利要求3所述的面向机器人RGBD视觉感知的6D位姿估计方法,其特征在于步骤B2,特征提取具体包括如下步骤:
C1.用基于卷积神经网络的图像特征提取算法提取得到目标的颜色特征;
C2.使用基于PointNet的点云特征提取网络提取得到目标的深度特征;
C3.使用基于多分辨率的点云拓扑特征提取网络提取得到目标的拓扑特征。
5.根据权利要求4所述的面向机器人RGBD视觉感知的6D位姿估计方法,其特征在于步骤B3,训练过程具体为,采用一种基于全连接网络的结构为每一个像素计算出一个长度为7的向量,长度为7的向量分别代表3D的物体偏移、3D的目标旋转和一个置信度,并采用如下损失函数进行训练:
Figure FDA0003080616260000021
其中,Lp为总损失;ci为置信度;N为点的数量;i代表其中一个点;ω为超参数;log为对数符号,用于简便计算;
Li为第i个点的损失,
Figure FDA0003080616260000022
其中,M为像素的数量;j为其中一个像素;k为另一个像素;R为真实的旋转向量;xj为第j个像素的初始位姿;t为真实的平移向量;
Figure FDA0003080616260000023
为估计的旋转向量;xk为第k个像素的初识位姿;
Figure FDA0003080616260000024
为估计的平移向量。
6.一种基于权利要求1~5之一所述的面向机器人RGBD视觉感知的6D位姿估计方法的系统,其特征在于包括图像获取模块、图像分割模块、颜色特征提取模块、深度特征提取模块、拓扑特征提取模块和物体位姿估计模块;图像获取模块连接图像分割模块,图像分割模块分别连接颜色特征模块、深度特征提取模块和拓扑特征提取模块,同时,颜色特征模块、深度特征提取模块和拓扑特征提取模块分别连接物体位姿估计模块;图像获取模块用于获取物体的图像;图像分割模块对获取的图像进行分割,并将分割后的图像发送到颜色特征模块、深度特征提取模块和拓扑特征提取模块中;颜色特征提取模块获取物体的颜色特征;深度特征提取模块用于获取物体的深度特征;拓扑特征提取模块用于获取物体的全局拓扑特征;颜色特征模块、深度特征提取模块和拓扑特征提取模块将获取的特征发送到物体位姿估计模块,物体位姿估计模块对物体进行6D位姿估计。
7.根据权利要求6所述的系统,其特征在于图像分割模块具体为,利用基于编码器-解码器架构的图像分割网络对图片下的每一个物体进行像素级的分割,以避免杂乱背景造成的影响和减少计算量。
8.根据权利要求7所述的系统,其特征在于颜色特征提取模块,具体为利用基于卷积神经网络的深度学习模型对分割后的RGB图片进行特征提取,获取该物体的颜色特征;深度特征提取模块,具体为利用基于PointNet的深度学习模型对分割后的点云信息进行特征提取,获得该物体的深度特征;拓扑特征提取模块,具体为利用一种多分辨率的点云特征提取模块的物体模型的全局拓扑特征进行提取,以对不充足的深度信息进行补充。
9.根据权利要求8所述的系统,其特征在于物体位姿估计模块,具体为将颜色特征、深度特征和拓扑特征进行逐像素融合并为每一个像素都进行回归得到相对于相机坐标的3D位置、3D旋转和一个置信度,最后投票选择置信度最高的像素的位姿作为最终结果。
CN202110565705.8A 2021-05-24 2021-05-24 面向机器人rgbd视觉感知的6d位姿估计方法及系统 Pending CN113284184A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110565705.8A CN113284184A (zh) 2021-05-24 2021-05-24 面向机器人rgbd视觉感知的6d位姿估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110565705.8A CN113284184A (zh) 2021-05-24 2021-05-24 面向机器人rgbd视觉感知的6d位姿估计方法及系统

Publications (1)

Publication Number Publication Date
CN113284184A true CN113284184A (zh) 2021-08-20

Family

ID=77281176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110565705.8A Pending CN113284184A (zh) 2021-05-24 2021-05-24 面向机器人rgbd视觉感知的6d位姿估计方法及系统

Country Status (1)

Country Link
CN (1) CN113284184A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113674324A (zh) * 2021-08-27 2021-11-19 常州唯实智能物联创新中心有限公司 基于元学习的类级别6d位姿追踪方法、系统及装置
CN113780240A (zh) * 2021-09-29 2021-12-10 上海交通大学 基于神经网络及旋转特征增强的物体位姿估计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法
CN110238852A (zh) * 2019-06-17 2019-09-17 湖南大学 一种机器人臂手遥操作控制方法及系统
CN112270249A (zh) * 2020-10-26 2021-01-26 湖南大学 一种融合rgb-d视觉特征的目标位姿估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法
CN110238852A (zh) * 2019-06-17 2019-09-17 湖南大学 一种机器人臂手遥操作控制方法及系统
CN112270249A (zh) * 2020-10-26 2021-01-26 湖南大学 一种融合rgb-d视觉特征的目标位姿估计方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H. FENG ET AL.: "MixedFusion: 6D Object Pose Estimation from Decoupled RGB-Depth", 《2020 25TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 *
Z. HUANG ET AL.: "PF-Net: Point Fractal Network for 3D Point Cloud Completion", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
陈寂驰 等: "一种基于红外图像序列的深度学习三维重建仿真方法初探", 《空天防御》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113674324A (zh) * 2021-08-27 2021-11-19 常州唯实智能物联创新中心有限公司 基于元学习的类级别6d位姿追踪方法、系统及装置
CN113780240A (zh) * 2021-09-29 2021-12-10 上海交通大学 基于神经网络及旋转特征增强的物体位姿估计方法
CN113780240B (zh) * 2021-09-29 2023-12-26 上海交通大学 基于神经网络及旋转特征增强的物体位姿估计方法

Similar Documents

Publication Publication Date Title
CN109461180B (zh) 一种基于深度学习的三维场景重建方法
CN107292965B (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN111968217B (zh) 基于图片的smpl参数预测以及人体模型生成方法
CN110176032B (zh) 一种三维重建方法及装置
CN108388882B (zh) 基于全局-局部rgb-d多模态的手势识别方法
CN108734194B (zh) 一种面向虚拟现实的基于单深度图的人体关节点识别方法
CN113393522B (zh) 一种基于单目rgb相机回归深度信息的6d位姿估计方法
CN109472828B (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
CN113284184A (zh) 面向机器人rgbd视觉感知的6d位姿估计方法及系统
CN113222940B (zh) 一种基于rgb-d图像和cad模型的机器人自动抓取工件方法
CN110223382B (zh) 基于深度学习的单帧图像自由视点三维模型重建方法
JP7282216B2 (ja) 単眼スチルカメラのビデオにおけるレイヤードモーションの表現と抽出
WO2022228391A1 (zh) 一种终端设备定位方法及其相关设备
WO2020134925A1 (zh) 人脸图像的光照检测方法、装置、设备和存储介质
WO2024012333A1 (zh) 位姿估计方法及相关模型的训练方法、装置、电子设备、计算机可读介质和计算机程序产品
CN115008454A (zh) 一种基于多帧伪标签数据增强的机器人在线手眼标定方法
CN116092178A (zh) 一种面向移动端的手势识别和跟踪方法及系统
CN107909602A (zh) 一种基于深度学习的运动边界估计方法
CN115147488A (zh) 一种基于密集预测的工件位姿估计方法与抓取系统
CN114029952A (zh) 机器人操作控制方法、装置和系统
CN117711066A (zh) 一种三维人体姿态估计方法、装置、设备及介质
CN117115917A (zh) 基于多模态特征融合的教师行为识别方法、设备以及介质
CN113920191B (zh) 一种基于深度相机的6d数据集构建方法
CN113822174B (zh) 视线估计的方法、电子设备及存储介质
CN115272450A (zh) 一种基于全景分割的目标定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination