CN112446919A - 物体位姿估计方法、装置、电子设备及计算机存储介质 - Google Patents
物体位姿估计方法、装置、电子设备及计算机存储介质 Download PDFInfo
- Publication number
- CN112446919A CN112446919A CN202011385260.7A CN202011385260A CN112446919A CN 112446919 A CN112446919 A CN 112446919A CN 202011385260 A CN202011385260 A CN 202011385260A CN 112446919 A CN112446919 A CN 112446919A
- Authority
- CN
- China
- Prior art keywords
- target object
- loss value
- point set
- point
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明涉及人工智能技术,揭露一种目标物体位姿估计方法,包括:根据目标物体的场景深度图得到三维点云;提取所述三维点云中的目标物体点集;根据所述三维点云和目标物体点集,计算目标物体的可见度损失值;通过对所述目标物体点集进行霍夫投票,计算目标物体的关键点损失值;对所述场景深度图的像素点进行语义分割,得到目标物体的语义损失值;根据所述可见度损失值、关键点损失值、语义损失值以及多任务联合模型,计算目标物体的位姿。本发明还提出一种目标物体位姿估计装置、设备及存储介质。本发明还涉及区块链技术,所述场景深度图可存储于区块链节点中。本发明可以准确分析待抓取目标物体的位姿,以提高机械臂的抓取精度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种物体位姿估计方法、装置、电子设备及计算机可读存储介质。
背景技术
随着工业领域上机械臂的不断发展和智能视觉系统的深入应用,搭载有智能视觉系统的机械臂开始承担起智能分拣、柔性制造等复杂任务,成为一种节省人力资源的工业机械。
工业机械臂的抓取、分拣任务主要依靠对待抓取物体的位姿估计。目前,物体的位姿估计方法主要是利用逐点示教或者2D视觉感知的方法。然而在工业环境下,逐点示教的方法既复杂又浪费时间,2D视觉感知的方法又会因为物体存在的摆放杂乱和各物体之间的遮挡问题导致物体的位姿估计不准确。
发明内容
本发明提供一种物体位姿估计方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高物体位姿估计的准确性。
为实现上述目的,本发明提供的一种物体位姿估计方法,包括:
利用预设的摄像装置获取目标物体的场景深度图,根据所述场景深度图中的像素点计算所述场景深度图的三维点云;
利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集;
根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值;
对所述目标物体点集进行霍夫投票,得到关键点集,根据所述关键点集计算所述目标物体的关键点损失值;
对所述场景深度图的像素点进行语义分割,得到所述目标物体的语义损失值;
根据所述可见度损失值、所述关键点损失值、所述语义损失值,以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿。
可选地,所述根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值,包括:
根据所述目标物体点集的点数与所述三维点云中包含的所有物体中的最大点集的点数的比值计算所述目标物体的实际可见度;
通过所述实际可见度与所述目标物体的预测可见度的差的加权计算得到所述目标物体的可见度损失值。
可选地,所述利用深度学习网络所述提取所述三维点云的目标点,得到目标物体点集,包括:
利用预构建的深度学习网络中的卷积、池化以及全连接层提取所述三维点云的特征点集;
利用所述深度学习网络中的分类器将所述特征点集分类为目标点集和非目标点集,并提取其中的目标点集得到目标物体点集。
可选地,所述对所述目标物体点集进行霍夫投票,得到关键点集,包括:
从所述目标物体点集中采样得到采样点集,计算所述采样点集之间的欧式距离偏移,得到偏移量;
根据所述偏移量进行投票,将票数超过预设阈值的点的集合作为关键点集。
可选地,所述对所述场景深度图的像素点进行语义分割,计算得到所述目标物体的语义损失值,包括:
利用如下公式计算得到所述目标物体语义损失Ls;
Ls=-α(1-qi)γlog(qi)
其中,α表示所述摄像装置的平衡参数,γ表示所述摄像装置的焦点参数,qi代表场景深度图中第i个像素点属于前景点还是背景点的置信度。
可选地,所述根据所述可见度损失值、所述关键点损失值、所述语义损失值以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿,包括:
利用下述多任务联合模型计算所述目标物体的最终损失值Lmt:
Lmt=μ1Lkps+μ2Ls+μ3Lv
其中,Lkps代表所述关键点损失值,Ls代表所述语义损失,Lv代表所述可见度损失值,μ01、μ02、μ03代表对所述多任务联合模型训练后得到的权值;
根据所述最终损失值调整所述目标物体的预测旋转矩阵和预测平移矩阵,得到所述目标物体的物姿。
可选地,所述对所述目标点进行多任务联合训练,得到目标物体的位姿之后,还包括:
将所述目标物体的位姿发送给预构建的机械臂,利用所述机械臂执行目标物体的抓取任务。
为了解决上述问题,本发明还提供一种目标物体位姿估计装置,所述装置包括:
三维点云获取模块,用于利用预设的摄像装置获取目标物体的场景深度图,根据所述场景深度图中的像素点计算所述场景深度图的三维点云;
目标物体点集提取模块,用于利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集;
可见度损失值计算模块,用于根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值;
关键点损失值计算模块,用于对所述目标物体点集进行霍夫投票,得到关键点集,根据所述关键点集计算所述目标物体的关键点损失值;
语义损失值计算模块,用于对所述场景深度图的像素点进行语义分割,得到所述目标物体的语义损失值;
位姿计算模块,用于根据所述可见度损失值、所述关键点损失值、所述语义损失值,以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的物体位姿估计方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现上述所述的物体位姿估计方法。
本发明实施例通过获取目标物体的场景深度图计算出所述场景深度图的三维点云,并利用深度学习网络从所述三维点云中提取得到目标物体点集,并根据所述三维点云以及所述目标物体点集计算所述目标物体的可见度损失值、关键点损失值以及语义损失值,最后根据所述可见度损失值、关键点损失值以及语义损失值得到目标物体的位姿。本发明实施例提出的物体位姿估计方法、装置、电子设备及计算机可读存储介质根据可见度、关键点以及语义三个方面的损失对目标物体进行位姿估计,因此,可以提高物体位姿估计的准确性。
附图说明
图1为本发明一实施例提供的物体位姿估计方法的流程示意图;
图2为本发明一实施例提供的物体位姿估计装置的模块示意图;
图3为本发明一实施例提供的实现物体位姿估计方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种物体位姿估计方法。所述物体位姿估计方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述物体位姿估计方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的物体位姿估计方法的流程示意图。在本实施例中,所述物体位姿估计方法包括:
S1、利用预设的摄像装置获取目标物体的场景深度图,根据所述场景深度图中的像素点计算所述场景深度图的三维点云。
本发明实施例中,所述摄像装置可以是一个3D摄像机,以及所述目标物体可以是机械手待抓取的目标物体。所述场景深度图像(depth image)也被称为距离影像(rangeimage),是指将从摄像装置到所述目标物体各点的距离(深度)作为像素值的图像。所述场景深度图经过坐标转换可以计算为点云数据。
本发明其中一个实施例中,所述场景深度图可存储于区块链节点中。
详细地,本发明实施例可以通过以下公式根据所述场景深度图中的像素点计算所述场景深度图的三维点云:
其中,x、y、z是三维点云中点的坐标,u、v为所述场景深度图中像素点所在的行和列,cx和cy是所述场景深度图中像素点二维坐标,fx、fy、d分别为所述摄像装置在x轴、y轴和z轴的焦距。
S2、利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集。
如上述描述可知,所述三维点云是机械手待抓取的目标物体的场景深度图的三维点云。由于所述待抓取的目标物体的场景中会存在很多物体,因此,需要从所述三维点云中提取目标点,得到目标物体点集。
本发明实施例中,所述预构建的深度学习网络为卷积神经网络包括卷积层、池化层、全连接层。所述卷积层利用预设函数对所述三维点云进行特征提取,所述池化层为对特征提取得到的数据进行压缩,简化计算复杂度,提取主要特征数据,所述全连接层为连接所有特征提取得到的数据得到特征点集。进一步地,本发明实施例中,所述深度学习网络还包括一个分类器。详细地,所述分类器为利用给定的类别,利用已知的训练数据学习分类规则,然后对于所述特征点集进行分类,得到所述目标物体点集和非目标物体点集。
详细地,所述利用深度学习网络提取所述三维点云中的目标点,得到目标物体点集,包括:
利用预构建的深度学习网络中的卷积、池化以及全连接层提取所述三维点云的特征点集;
利用所述深度学习网络中的分类器将所述特征点集分类为目标点集和非目标点集,并提取其中的目标点集得到目标物体点集。
S3、根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值。
可以理解,可见度是目标物体能够被正常目力看见的程度。有些物体由于被其他物体遮挡等原因,导致可见度降低,产生了可见度损失值。那些遮挡严重的物体并不是机械臂优先考虑抓取的对象,因为它们大概率位于底部,而且也没有足够的信息进行位姿估计,为了减少这些物体带来的干扰,本发明实施例需要计算物体的可见度损失值。
本发明其中一个实施例可以采用下述方法计算所述目标物体的可见度损失值:
根据所述目标物体点集的点数与所述三维点云中包含的所有物体中的最大点集的点数的比值计算所述目标物体的实际可见度;
通过所述实际可见度与所述目标物体的预测可见度的差的加权计算得到所述目标物体的可见度损失值。
即:
Lv=∑||Vi-Vi *||2
其中,Ni代表目标目标物体i的目标物体点集的点数,Nmax代表三维点云中包含的目标物体中的最大点集的点数,Vi *代表目标目标物体i的预测可见度,即未有任何遮挡情况目标目标物体i的最大可见度。
S4、对所述目标物体点集进行霍夫投票,得到关键点集,计算所述关键点集的关键点损失值。
详细地,所述对所述目标物体点集进行霍夫投票,得到关键点集,包括:
从所述目标物体点集采样得到目标物体采样点集,计算所述目标物体采样点的欧式距离偏移,得到偏移量;
根据所述偏移量进行投票,将票数超过预设阈值的点的集合作为关键点集。
进一步地,本发明实施例根据中心关键点有且只有一个且不会受遮挡影响的性质,将所述关键点集分为普通关键点集和中心关键点,并利用下述公式,采用逐点特征回归算法计算所述关键点集的关键点损失值Lkps:
Lkps=γ1Lkp+γ2Lc
其中,Lkp代表普通关键点损失,N为目标物体点集的点数,M为普通关键点的数量,offi j代表目标物体点集的实际位置偏移,offi j*代表目标物体点集的预测实际位置偏移,Lc代表中心关键点损失,Δxi是普通关键点到中心关键点的实际偏移,是普通关键点到中心关键点的预测偏移,γ1为普通关键点损失的权值、γ2为中心关键点损失的权重。
S5、对所述场景深度图的像素点进行语义分割,得到语义损失值。
详细地,所述语义分割为根据所述场景深度图的像素点,利用如下公式计算得到所述目标物体的语义损失Ls;
Ls=-α(1-qi)γlog(qi)
其中,α表示所述摄像装置的平衡参数,γ表示所述摄像装置的焦点参数,qi代表场景深度图中第i个像素点属于前景点还是背景点的置信度。
S6、根据所述可见度损失值、所述关键点损失值、所述语义损失值,以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿。
详细地,本发明实施例中,所述目标物体的位姿是指三维的旋转矩阵和三维的平移矩阵组成的六维量。
本发明实施例利用下述多任务联合模型计算所述目标物体的最终损失值Lmt:
Lmt=μ1Lkps+μ2Ls+μ3Lv
其中,Lkps代表所述关键点损失值,Ls代表所述语义损失,Lv代表所述可见度损失值,μ01、μ02、μ03代表对所述多任务联合模型训练后得到的权值。
根据所述最终损失值调整所述目标物体的预测旋转矩阵和预测平移矩阵,得到所述目标物体的物姿。
本发明实施例通过获取目标物体的场景深度图计算出所述场景深度图的三维点云,并利用深度学习网络从所述三维点云中提取得到目标物体点集,并根据所述三维点云以及所述目标物体点集计算所述目标物体的可见度损失值、关键点损失值以及语义损失值,最后根据所述可见度损失值、关键点损失值以及语义损失值得到目标物体的位姿。本发明实施例提出的物体位姿估计方法根据可见度、关键点以及语义三个方面的损失对目标物体进行位姿估计,因此,可以提高物体位姿估计的准确性。
如图2所示,是本发明物体位姿估计装置的模块示意图。
本发明所述物体位姿估计装置100可以安装于电子设备中。根据实现的功能,所述物体位姿估计装置可以包括三维点云获取模块101、目标物体点集提取模块102、可见度损失值计算模块103、关键点损失值计算模块104、语义损失值计算模块105和位姿计算模块106。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述三维点云获取模块101,用于利用预设的摄像装置获取目标物体的场景深度图,根据所述场景深度图中的像素点计算所述场景深度图的三维点云。
本发明实施例中,所述摄像装置可以是一个3D摄像机,以及所述目标物体可以是机械手待抓取的目标物体。所述场景深度图像(depth image)也被称为距离影像(rangeimage),是指将从摄像装置到所述目标物体各点的距离(深度)作为像素值的图像。所述场景深度图经过坐标转换可以计算为点云数据。详细地,本发明实施例可以通过以下公式根据所述场景深度图中的像素点计算所述场景深度图的三维点云:
其中,x、y、z是三维点云中点的坐标,u、v为所述场景深度图中像素点所在的行和列,cx和cy是所述场景深度图中像素点二维坐标,fx、fy、d分别为所述摄像装置在x轴、y轴和z轴的焦距。
所述目标物体点集提取模块102,利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集。
如上述描述可知,所述三维点云是机械手待抓取的目标物体的场景深度图的三维点云。由于所述待抓取的目标物体的场景中会存在很多物体,因此,需要从所述三维点云中提取目标点,得到目标物体点集。
本发明实施例中,所述预构建的深度学习网络为卷积神经网络,包括卷积层、池化层、全连接层。所述卷积层利用预设函数对所述三维点云进行特征提取,所述池化层为对特征提取得到的数据进行压缩,简化计算复杂度,提取主要特征数据,所述全连接层为连接所有特征提取得到的数据得到特征点集。进一步地,本发明实施例中,所述深度学习网络还包括一个分类器。详细地,所述分类器为利用给定的类别,利用已知的训练数据学习分类规则,然后对于所述特征点集进行分类,得到所述目标物体点集和非目标物体点集。
详细地,本发明实施例中,所述目标物体点集提取模块102具体用于:
利用预构建的深度学习网络中的卷积、池化以及全连接层提取所述三维点云的特征点集;
利用所述深度学习网络中的分类器将所述特征点集分类为目标点集和非目标物体点集,并提取其中的目标物体点集。
所述可见度损失值计算模块103,用于根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值。
可以理解,可见度是目标物体能够被正常目力看见的程度。有些物体由于被其他物体遮挡等原因,导致可见度降低,产生了可见度损失值。那些遮挡严重的物体并不是机械臂优先考虑抓取的对象,因为它们大概率位于底部,而且也没有足够的信息进行位姿估计,为了减少这些物体带来的干扰,本发明实施例需要计算物体的可见度损失值。
本发明其中一个实施例,所述可见度损失值计算模块103具体用于:
根据所述目标物体的目标物体点集的点数与所述三维点云中包含的所有目标物体中的最大点集的点数的比值计算所述目标物体的实际可见度;
通过所述实际可见度与所述目标物体的预测可见度的差的加权计算得到所述目标物体的可见度损失值。
即:
Lv=∑||Vi-Vi *||2
其中,Ni代表目标目标物体i的目标物体点集的点数,Nmax代表三维点云中包含的目标物体中的最大点集的点数,Vi *代表目标目标物体i的预测可见度,即未有任何遮挡情况目标目标物体i的最大可见度。
所述关键点损失值计算模块104,用于对所述目标物体点集进行霍夫投票,得到关键点集,根据所述关键点集计算所述目标物体的关键点损失值。
详细地,所述对所述目标物体点集进行霍夫投票,得到关键点集,包括:
从所述目标物体点集采样得到目标物体采样点集,计算所述目标物体采样点的欧式距离偏移,得到偏移量;
根据所述偏移量进行投票,将票数超过预设阈值的点的集合作为关键点集。
进一步地,本发明实施例根据中心关键点有且只有一个且不会受遮挡影响的性质,将所述关键点集分为普通关键点集和中心关键点,并利用下述公式,采用逐点特征回归算法计算所述关键点集的关键点损失值Lkps:
Lkps=γ1Lkp+γ2Lc
其中,Lkp代表普通关键点损失,N为目标物体点集的点数,M为普通关键点的数量,offi j代表目标物体点集的实际位置偏移,offi j*代表目标物体点集的预测实际位置偏移,Lc代表中心关键点损失,Δxi是普通关键点到中心关键点的实际偏移,是普通关键点到中心关键点的预测偏移,γ1为普通关键点损失的权值、γ2为中心关键点损失的权重。
所述语义损失值计算模块105,用于对所述场景深度图的像素点进行语义分割,得到所述目标物体的语义损失值。
详细地,所述语义分割为根据所述场景深度图的像素点,利用如下公式计算得到所述目标物体的语义损失Ls;
Ls=-α(1-qi)γlog(qi)
其中,α表示所述摄像装置的平衡参数,γ表示所述摄像装置的焦点参数,qi代表场景深度图中第i个像素点属于前景点还是背景点的置信度。
所述位姿计算模块106,用于根据所述可见度损失值、所述关键点损失值、所述语义损失值,以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿。
详细地,本发明实施例中,所述目标物体的位姿是指三维的旋转矩阵和三维的平移矩阵组成的六维量。
详细地,所述位姿计算模块106利用下述多任务联合模型计算所述目标物体的最终损失值Lmt:
Lmt=μ1Lkps+μ2Ls+μ3Lv
其中,Lkps代表所述关键点损失值,Ls代表所述语义损失,Lv代表所述可见度损失值,μ01、μ02、μ03代表对所述多任务联合模型训练后得到的权值;
本发明实施例进一步根据所述最终损失值调整所述目标物体的预测旋转矩阵和预测平移矩阵,得到所述目标物体的物姿。
进一步地,所述位姿计算模块106将所述目标物体位姿发送给预构建的机械臂,利用所述机械臂执行目标物体抓取任务。
如图3所示,是本发明实现物体位姿估计方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如物体位姿估计程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如物体位姿估计程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行物体位姿估计程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的物体位姿估计程序12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
利用预设的摄像装置获取目标物体的场景深度图,根据所述场景深度图中的像素点计算所述场景深度图的三维点云;
利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集;
根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值;
对所述目标物体点集进行霍夫投票,得到关键点集,根据所述关键点集计算所述目标物体的关键点损失值;
对所述场景深度图的像素点进行语义分割,得到所述目标物体的语义损失值;
根据所述可见度损失值、所述关键点损失值、所述语义损失值以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种物体位姿估计方法,其特征在于,所述方法包括:
利用预设的摄像装置获取目标物体的场景深度图,根据所述场景深度图中的像素点计算所述场景深度图的三维点云;
利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集;
根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值;
对所述目标物体点集进行霍夫投票,得到关键点集,根据所述关键点集计算所述目标物体的关键点损失值;
对所述场景深度图的像素点进行语义分割,得到所述目标物体的语义损失值;
根据所述可见度损失值、所述关键点损失值、所述语义损失值以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿。
2.如权利要求1所述的物体位姿估计方法,其特征在于,所述根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值,包括:
根据所述目标物体点集的点数与所述三维点云中包含的所有物体中的最大点集的点数的比值计算所述目标物体的实际可见度;
通过所述实际可见度与所述目标物体的预测可见度的差的加权计算得到所述目标物体的可见度损失值。
3.如权利要求1所述的物体位姿估计方法,其特征在于,所述利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集,包括:
利用预构建的深度学习网络中的卷积、池化以及全连接层提取所述三维点云的特征点集;
利用所述深度学习网络中的分类器将所述特征点集分类为目标点集和非目标点集,并提取其中的目标点集得到目标物体点集。
4.如权利要求1所述的物体位姿估计方法,其特征在于,所述对所述目标物体点集进行霍夫投票,得到关键点集,包括:
从所述目标物体点集中采样得到采样点集,计算所述采样点集之间的欧式距离偏移,得到偏移量;
根据所述偏移量进行投票,将票数超过预设阈值的点的集合作为关键点集。
5.如权利要求1所述的物体位姿估计方法,其特征在于,所述对所述场景深度图的像素点进行语义分割,得到所述目标物体的语义损失值,包括:
利用如下公式计算得到所述目标物体的语义损失Ls;
Ls=-α(1-qi)γlog(qi)
其中,α表示所述摄像装置的平衡参数,y表示所述摄像装置的焦点参数,qi代表场景深度图中第i个像素点属于前景点还是背景点的置信度。
6.如权利要求1至5中任意一项所述的物体位姿估计方法,其特征在于,所述根据所述可见度损失值、所述关键点损失值、所述语义损失值以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿,包括:
利用下述多任务联合模型计算所述目标物体的最终损失值Lmt:
Lmt=μ1Lkps+μ2Ls+μ3Lv
其中,Lkps代表所述关键点损失值,Ls代表所述语义损失,Lv代表所述可见度损失值,μ01、μ02、μ03代表对所述多任务联合模型训练后得到的权值。
根据所述最终损失值调整所述目标物体的预测旋转矩阵和预测平移矩阵,得到所述目标物体的物姿。
7.如权利要求1至5中任意一项所述的物体位姿估计方法,其特征在于,所述对所述目标点进行多任务联合训练,得到目标物体的位姿之后,还包括:
将所述目标物体的位姿发送给预构建的机械臂,利用所述机械臂执行目标物体的抓取任务。
8.一种物体位姿估计装置,其特征在于,所述装置包括:
三维点云获取模块,用于利用预设的摄像装置获取目标物体的场景深度图,根据所述场景深度图中的像素点计算所述场景深度图的三维点云;
目标物体点集提取模块,用于利用预构建的深度学习网络提取所述三维点云中的目标点,得到目标物体点集;
可见度损失值计算模块,用于根据所述三维点云和所述目标物体点集,计算所述目标物体的可见度损失值;
关键点损失值计算模块,用于对所述目标物体点集进行霍夫投票,得到关键点集,根据所述关键点集计算所述目标物体的关键点损失值;
语义损失值计算模块,用于对所述场景深度图的像素点进行语义分割,得到所述目标物体的语义损失值;
位姿计算模块,用于根据所述可见度损失值、所述关键点损失值、所述语义损失值以及预先训练得到的多任务联合模型,计算得到所述目标物体的位姿。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的物体位姿估计方法。
10.一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的物体位姿估计方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011385260.7A CN112446919A (zh) | 2020-12-01 | 2020-12-01 | 物体位姿估计方法、装置、电子设备及计算机存储介质 |
PCT/CN2021/083083 WO2022116423A1 (zh) | 2020-12-01 | 2021-03-25 | 物体位姿估计方法、装置、电子设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011385260.7A CN112446919A (zh) | 2020-12-01 | 2020-12-01 | 物体位姿估计方法、装置、电子设备及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112446919A true CN112446919A (zh) | 2021-03-05 |
Family
ID=74740242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011385260.7A Pending CN112446919A (zh) | 2020-12-01 | 2020-12-01 | 物体位姿估计方法、装置、电子设备及计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112446919A (zh) |
WO (1) | WO2022116423A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113012291A (zh) * | 2021-04-01 | 2021-06-22 | 清华大学 | 基于机械手参数重建对象三维模型的方法和装置 |
CN113095205A (zh) * | 2021-04-07 | 2021-07-09 | 北京航空航天大学 | 一种基于改进霍夫投票的点云目标检测方法 |
CN113469947A (zh) * | 2021-06-08 | 2021-10-01 | 智洋创新科技股份有限公司 | 一种适合多种地形的测量隐患与输电导线净空距离的方法 |
WO2022116423A1 (zh) * | 2020-12-01 | 2022-06-09 | 平安科技(深圳)有限公司 | 物体位姿估计方法、装置、电子设备及计算机存储介质 |
CN115482279A (zh) * | 2022-09-01 | 2022-12-16 | 北京有竹居网络技术有限公司 | 物体位姿估计方法、装置、介质和设备 |
WO2023088059A1 (zh) * | 2021-11-19 | 2023-05-25 | 腾讯科技(深圳)有限公司 | 三维模型可见度数据的存储方法、装置、设备及存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115546216B (zh) * | 2022-12-02 | 2023-03-31 | 深圳海星智驾科技有限公司 | 一种托盘检测方法、装置、设备及存储介质 |
CN115797565B (zh) * | 2022-12-20 | 2023-10-27 | 北京百度网讯科技有限公司 | 三维重建模型训练方法、三维重建方法、装置及电子设备 |
CN116630394B (zh) * | 2023-07-25 | 2023-10-20 | 山东中科先进技术有限公司 | 一种三维建模约束的多模态目标物体姿态估计方法及系统 |
CN117226854B (zh) * | 2023-11-13 | 2024-02-02 | 之江实验室 | 一种夹取任务的执行方法、装置、存储介质及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989625A (zh) * | 2015-02-04 | 2016-10-05 | 华为技术有限公司 | 数据处理的方法和装置 |
CN107066935B (zh) * | 2017-01-25 | 2020-11-24 | 网易(杭州)网络有限公司 | 基于深度学习的手部姿态估计方法及装置 |
CN108665537B (zh) * | 2018-05-15 | 2020-09-25 | 清华大学 | 联合优化人体体态与外观模型的三维重建方法及系统 |
CN111160280B (zh) * | 2019-12-31 | 2022-09-30 | 芜湖哈特机器人产业技术研究院有限公司 | 基于rgbd相机的目标物体识别与定位方法及移动机器人 |
CN112446919A (zh) * | 2020-12-01 | 2021-03-05 | 平安科技(深圳)有限公司 | 物体位姿估计方法、装置、电子设备及计算机存储介质 |
-
2020
- 2020-12-01 CN CN202011385260.7A patent/CN112446919A/zh active Pending
-
2021
- 2021-03-25 WO PCT/CN2021/083083 patent/WO2022116423A1/zh active Application Filing
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022116423A1 (zh) * | 2020-12-01 | 2022-06-09 | 平安科技(深圳)有限公司 | 物体位姿估计方法、装置、电子设备及计算机存储介质 |
CN113012291A (zh) * | 2021-04-01 | 2021-06-22 | 清华大学 | 基于机械手参数重建对象三维模型的方法和装置 |
CN113012291B (zh) * | 2021-04-01 | 2022-11-25 | 清华大学 | 基于机械手参数重建对象三维模型的方法和装置 |
CN113095205A (zh) * | 2021-04-07 | 2021-07-09 | 北京航空航天大学 | 一种基于改进霍夫投票的点云目标检测方法 |
CN113095205B (zh) * | 2021-04-07 | 2022-07-12 | 北京航空航天大学 | 一种基于改进霍夫投票的点云目标检测方法 |
CN113469947A (zh) * | 2021-06-08 | 2021-10-01 | 智洋创新科技股份有限公司 | 一种适合多种地形的测量隐患与输电导线净空距离的方法 |
CN113469947B (zh) * | 2021-06-08 | 2022-08-05 | 智洋创新科技股份有限公司 | 一种适合多种地形的测量隐患与输电导线净空距离的方法 |
WO2023088059A1 (zh) * | 2021-11-19 | 2023-05-25 | 腾讯科技(深圳)有限公司 | 三维模型可见度数据的存储方法、装置、设备及存储介质 |
CN115482279A (zh) * | 2022-09-01 | 2022-12-16 | 北京有竹居网络技术有限公司 | 物体位姿估计方法、装置、介质和设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2022116423A1 (zh) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112446919A (zh) | 物体位姿估计方法、装置、电子设备及计算机存储介质 | |
CN108197547B (zh) | 人脸姿态估计方法、装置、终端及存储介质 | |
CN111192293B (zh) | 一种运动目标位姿跟踪方法及装置 | |
CN111932547B (zh) | 图像中目标物的分割方法、装置、电子设备及存储介质 | |
CN110363817B (zh) | 目标位姿估计方法、电子设备和介质 | |
CN112528831A (zh) | 多目标姿态估计方法、多目标姿态估计装置及终端设备 | |
CN112507934A (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN112528908A (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN113705462A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN114241338A (zh) | 基于影像识别的建筑物测量方法、装置、设备及存储介质 | |
CN114708461A (zh) | 基于多模态学习模型的分类方法、装置、设备及存储介质 | |
CN116778527A (zh) | 人体模型构建方法、装置、设备及存储介质 | |
CN112132812A (zh) | 证件校验方法、装置、电子设备及介质 | |
CN110222651A (zh) | 一种人脸姿态检测方法、装置、终端设备及可读存储介质 | |
CN112528903A (zh) | 人脸图像获取方法、装置、电子设备及介质 | |
CN112862703A (zh) | 基于移动拍照的图像校正方法、装置、电子设备及介质 | |
CN112329666A (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN115601684A (zh) | 突发事件预警方法、装置、电子设备及存储介质 | |
CN114049676A (zh) | 疲劳状态检测方法、装置、设备及存储介质 | |
CN113887384A (zh) | 基于多轨迹融合的行人轨迹分析方法、装置、设备及介质 | |
CN113869218A (zh) | 人脸活体检测方法、装置、电子设备及可读存储介质 | |
CN114463685A (zh) | 行为识别方法、装置、电子设备及存储介质 | |
CN112541436A (zh) | 专注度分析方法、装置、电子设备及计算机存储介质 | |
CN111915615A (zh) | 图像分割方法、装置、电子设备及计算机可读存储介质 | |
CN114627535B (zh) | 基于双目摄像头的坐标匹配方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |