CN116681755B - 位姿预测方法和装置 - Google Patents
位姿预测方法和装置 Download PDFInfo
- Publication number
- CN116681755B CN116681755B CN202211715247.2A CN202211715247A CN116681755B CN 116681755 B CN116681755 B CN 116681755B CN 202211715247 A CN202211715247 A CN 202211715247A CN 116681755 B CN116681755 B CN 116681755B
- Authority
- CN
- China
- Prior art keywords
- pixel point
- sample
- dimensional
- output data
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000011159 matrix material Substances 0.000 claims abstract description 52
- 238000003709 image segmentation Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 52
- 230000015654 memory Effects 0.000 claims description 22
- 238000004088 simulation Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种位姿预测方法和装置,属于视觉成像技术领域。所述方法包括:获取深度相机检测到的目标区域对应的二维图像和所述二维图像中每个像素点对应的空间坐标;将所述每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据;基于所述输入矩阵数据和训练完成的二维位姿预测模型,确定所述目标区域中每个目标物体的位姿信息,其中,所述二维位姿预测模型采用二维图像分割网格。采用本申请,使得无序的空间坐标变为有序,而有序的输入矩阵数据,可以直接使用二维图像分割网路作为二维位姿预测模型,二维图像分割网络的结构较为简单,极大的降低了其计算量。
Description
技术领域
本申请涉及视觉成像技术领域,特别涉及一种位姿预测方法和装置。
背景技术
在机器人领域内,位姿信息是引导机器人运动的一项重要数据。
当前的位姿预测方法是:获取目标区域内的三维点云数据,然后将三维点云数据输入到训练完成的三维位姿预测模型中,从而得到预测出的目标区域内的各种物体的位姿信息,机器人可以通过物体的位姿信息来进行避障或者拾取操作等等。
但在上述方法中,三维点云数据是无序的多个空间坐标,每两个空间坐标之间没有严格的顺序关系,要基于这种无序的信息预测出准确的位姿信息,就导致了三维位姿预测模型的内部结构较为复杂,其计算量较大,例如,PPR-Net模型、PPR-Net++模型等等,均具有较为复杂的内部结构,计算量较大。
发明内容
本申请实施例提供了一种位姿预测方法,能够解决现有技术中计算量较大的问题。
第一方面,提供了一种位姿预测方法,所述方法包括:
获取深度相机检测到的目标区域对应的二维图像和所述二维图像中每个像素点对应的空间坐标;
将所述每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据;
基于所述输入矩阵数据和训练完成的二维位姿预测模型,确定所述目标区域中每个目标物体的位姿信息,其中,所述二维位姿预测模型采用二维图像分割网格。
在一种可能的实现方式中,所述二维图像分割网络是二维语义分割模型或者二维实例分割模型。
在一种可能的实现方式中,所述基于所述输入矩阵数据和训练完成的二维位姿预测模型,确定所述目标区域中每个目标物体的位姿信息,包括:
对所述输入矩阵数据进行归一化处理,得到归一化处理后的输入矩阵数据;
将所述归一化处理后的输入矩阵数据,输入所述训练完成的二维位姿预测模型,得到所述每个像素点对应的空间坐标与所述空间坐标对应的目标物体的质心坐标之间的预测矢量距离、以及所述每个像素点对应的旋转角信息;
对所述多个像素点对应的预测矢量距离进行聚类处理,得到至少一个目标物体对应的像素点集合;
对于每个目标物体对应的像素点集合,基于所述每个像素点对应的空间坐标和预测矢量距离,确定每个像素点对应的目标物体的质心坐标,计算多个像素点对应的目标物体的质心坐标之间的平均值,作为所述目标物体的质心坐标,计算多个像素点对应的旋转角信息之间的平均值,作为所述目标物体的旋转角信息,其中,所述旋转角信息包括横滚角、俯仰角和偏转角。
在一种可能的实现方式中,所述方法还包括:
使用仿真工具和渲染工具建立具有多个物体模型的模拟场景模型;
获取模拟场景模型中样本区域对应的二维样本图像和二维样本图像中每个样本像素点对应的空间坐标,将所述每个样本像素点对应的空间坐标,按照所述二维样本图像中每个样本像素点的分布进行排列,作为样本输入数据;
基于所述样本区域中的样本物体的位姿信息,确定基准输出数据,其中,所述位姿信息包括所述样本物体的质心坐标和旋转角信息,所述基准输出数据包括每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离、以及所述每个样本像素点对应的旋转角信息;
基于所述样本输入数据和待训练的二维位姿预测模型,得到预测输出数据;
基于所述基准输出数据、所述预测输出数据和损失函数,确定损失值;
基于所述损失值,对所述待训练的二维位姿预测模型进行调参,得到所述训练完成的二维位姿预测模型。
在一种可能的实现方式中,所述预测输出数据包括第一输出数据和第二输出数据,所述损失函数包括质心损失函数和旋转角损失函数;
所述基准输出数据、所述预测输出数据和损失函数,确定损失值,包括:
将所述第一输出数据、以及每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离,输入所述质心损失函数,得到第一损失值;
将所述第二输出数据和所述每个样本像素点对应的旋转角信息,输入所述旋转角损失函数,得到第二损失值;
基于所述第一损失值和所述第二损失值,确定所述损失值。
在一种可能的实现方式中,所述基于所述样本输入数据和待训练的二维位姿预测模型,得到预测输出数据,包括:
基于预设掩膜尺寸,随机选取所述样本输入数据中的多个掩膜像素点对应的空间坐标进行置零处理,得到置零处理后的样本输入数据;
将所述置零处理后的样本输入数据,输入所述待训练的二维位姿预测模型,得到所述预测输出数据;
所述基于所述基准输出数据、所述预测输出数据和损失函数,确定损失值,包括:
将所述基准输出数据中所述多个掩膜像素点对应的矢量距离进行置零处理,得到置零处理后的基准输出数据;
基于所述置零处理后的基准输出数据、所述预测输出数据和所述损失函数,确定所述损失值。
第二方面,提供了一种位姿预测装置,所述装置包括:
获取模块,用于获取深度相机检测到的目标区域对应的二维图像和所述二维图像中每个像素点对应的空间坐标;
排列模块,用于将所述每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据;
确定模块,用于基于所述输入矩阵数据和训练完成的二维位姿预测模型,确定所述目标区域中每个目标物体的位姿信息,其中,所述二维位姿预测模型采用二维图像分割网格。
在一种可能的实现方式中,所述二维图像分割网络是二维语义分割模型或者二维实例分割模型。
在一种可能的实现方式中,所述确定模块,用于:
对所述输入矩阵数据进行归一化处理,得到归一化处理后的输入矩阵数据;
将所述归一化处理后的输入矩阵数据,输入所述训练完成的二维位姿预测模型,得到所述每个像素点对应的空间坐标与所述空间坐标对应的目标物体的质心坐标之间的预测矢量距离、以及所述每个像素点对应的旋转角信息;
对所述多个像素点对应的预测矢量距离进行聚类处理,得到至少一个目标物体对应的像素点集合;
对于每个目标物体对应的像素点集合,基于所述每个像素点对应的空间坐标和预测矢量距离,确定每个像素点对应的目标物体的质心坐标,计算多个像素点对应的目标物体的质心坐标之间的平均值,作为所述目标物体的质心坐标,计算多个像素点对应的旋转角信息之间的平均值,作为所述目标物体的旋转角信息,其中,所述旋转角信息包括横滚角、俯仰角和偏转角。
在一种可能的实现方式中,所述装置还包括训练模块,用于:
使用仿真工具和渲染工具建立具有多个物体模型的模拟场景模型;
获取模拟场景模型中样本区域对应的二维样本图像和二维样本图像中每个样本像素点对应的空间坐标,将所述每个样本像素点对应的空间坐标,按照所述二维样本图像中每个样本像素点的分布进行排列,作为样本输入数据;
基于所述样本区域中的样本物体的位姿信息,确定基准输出数据,其中,所述位姿信息包括所述样本物体的质心坐标和旋转角信息,所述基准输出数据包括每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离、以及所述每个样本像素点对应的旋转角信息;
基于所述样本输入数据和待训练的二维位姿预测模型,得到预测输出数据;
基于所述基准输出数据、所述预测输出数据和损失函数,确定损失值;
基于所述损失值,对所述待训练的二维位姿预测模型进行调参,得到所述训练完成的二维位姿预测模型。
在一种可能的实现方式中,所述预测输出数据包括第一输出数据和第二输出数据,所述损失函数包括质心损失函数和旋转角损失函数;
所述训练模块,用于:
将所述第一输出数据、以及每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离,输入所述质心损失函数,得到第一损失值;
将所述第二输出数据和所述每个样本像素点对应的旋转角信息,输入所述旋转角损失函数,得到第二损失值;
基于所述第一损失值和所述第二损失值,确定所述损失值。
在一种可能的实现方式中,所述训练模块,用于:
基于预设掩膜尺寸,随机选取所述样本输入数据中的多个掩膜像素点对应的空间坐标进行置零处理,得到置零处理后的样本输入数据;
将所述置零处理后的样本输入数据,输入所述待训练的二维位姿预测模型,得到所述预测输出数据;
所述训练模块,用于:
将所述基准输出数据中所述多个掩膜像素点对应的矢量距离进行置零处理,得到置零处理后的基准输出数据;
基于所述置零处理后的基准输出数据、所述预测输出数据和所述损失函数,确定所述损失值。
第三方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,存储器中存储有至少一条指令,指令由处理器加载并执行以实现位姿预测方法所执行的操作。
第四方面,提供了一种计算机可读存储介质,存储介质中存储有至少一条指令,指令由处理器加载并执行以实现位姿预测方法所执行的操作。
第五方面,提供了一种计算机程序产品,所述计算机程序产品中包括至少一条指令,所述至少一条指令由处理器加载并执行以实现位姿预测方法所执行的操作。
本申请实施例提供的技术方案带来的有益效果是:本申请实施例中提到的方案,可以将每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据,然后,基于输入矩阵数据和训练完成的二维位姿预测模型,确定出目标区域中每个目标物体的位姿信息。采用本申请,将空间坐标按照其对应的像素点在二维图像中的分布进行排列,使得无序的空间坐标变为有序,而有序的输入矩阵数据,可以直接使用二维图像分割网路作为二维位姿预测模型,二维图像分割网络的结构较为简单,极大的降低了其计算量。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种位姿预测方法的流程图;
图2是本申请实施例提供的一种位姿预测方法的流程图;
图3是本申请实施例提供的一种位姿预测方法的流程图;
图4是本申请实施例提供的一种二维位姿预测模型的训练方法流程图;
图5是本申请实施例提供的一种位姿预测装置的结构示意图;
图6是本申请实施例提供的一种终端的结构框图;
图7是本申请实施例提供的一种服务器的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例提供了一种位姿预测方法,该方法可以由计算机设备实现。计算机设备可以是终端和服务器等,终端可以是台式计算机、笔记本计算机、平板电脑、手机等。
计算机设备可以包括处理器、存储器、通信部件等。
处理器可以是中央处理器(central processing unit,CPU),处理器可以用于读取指令和对数据进行处理,例如,获取目标区域对应的二维图像和二维图像中每个像素点对应的空间坐标、将每个像素点对应的空间坐标按照二维图像中每个像素点的分布进行排列得到输入矩阵、基于输入矩阵数据和训练完成的二维位姿预测模型确定目标区域中每个目标物体的位姿信息,等等。
存储器可以是各种易失性存储器或非易失性存储器,如固态硬盘(solid statedisk,SSD)、动态随机存取存储器(dynamic random access memory,DRAM)内存等。存储器可以用于数据存储,例如,对获取到的目标区域的二维图像和二维图像中每个像素点对应的空间坐标进行存储、对得到的输入矩阵数据进行存储、对训练完成的二维位姿预测模型对应的数据进行存储、对确定出的目标区域中每个目标物体的位姿信息进行存储,等等。
通信部件可以是有线网络连接器、无线保真(wireless fidelity,WiFi)模块、蓝牙模块、蜂巢网通信模块等。通信部件可以用于与其他设备进行数据传输。
图1是本申请实施例提供的一种位姿预测方法的流程图。参见图1,该实施例包括:
101、获取深度相机检测到的目标区域对应的二维图像和二维图像中每个像素点对应的空间坐标。
在实施中,可以先使用深度相机获取目标区域对应的三维点云数据,然后,获取目标区域对应的二维图像,并在目标区域对应的三维点云数据中确定出二维图像中每个像素点对应的空间坐标。
可以理解的是,该空间坐标是在深度相机的坐标系中的坐标值。
102、将每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据。
在实施中,在二维图像中,每个像素点具有其对应的位置,按照每个像素点在二维图像中的排列,对每个像素点对应的空间坐标进行排列,得到输入矩阵数据。
输入矩阵数据包括每个像素点位置对应的参数,该参数为该位置的像素点对应的空间坐标,将无序的多个空间坐标变为有序,使得在输入矩阵数据中的位置相邻的空间坐标之间具有相关性。
103、基于输入矩阵数据和训练完成的二维位姿预测模型,确定目标区域中每个目标物体的位姿信息。
在实施中,由于输入矩阵数据是有序的多个空间坐标,因此,可以使用二维的位姿预测模型来对目标区域中的每个目标物体的位姿信息进行预测。其中,二维位姿预测模型采用二维图像分割网格。
在深度模型中,特征提取模块的计算量的占比最大,而在三维位姿预测模型中,通常使用的特征提取模块为pointnet或pointnet++,其内部结构极为复杂,计算量较大,从而增大了整个三维位姿预测模型的计算量。而在本申请实施例中采用的二维图像分割网络中,其特征提取模型为resnet(Residual Network,残差网络),其内部结构极为简单,计算量较小。
在一种可能的实现方式中,二维图像分割网络可以是二维语义分割模型或者二维实例分割模型。
在本申请实施例中,确定目标区域中每个目标物体的位姿信息的方法可以有多种,以下为其中的两种:
参见图2,对第一种确定目标区域中每个目标物体的位姿信息的方法进行介绍:
201、对输入矩阵数据进行归一化处理,得到归一化处理后的输入矩阵数据。
在实施中,通过归一化处理,将输入矩阵数据中的参数值归一到0至1之间,或者归一至-1至1之间。
202、将归一化处理后的输入矩阵数据,输入训练完成的二维位姿预测模型,得到每个像素点对应的位姿信息。
其中,位姿信息包括每个像素点对应的空间坐标所属的目标物体的质心坐标和旋转角信息,旋转角信息包括横滚角、俯仰角和偏转角。
203、对多个像素点对应的位姿信息进行聚类处理,得到至少一个目标物体对应的像素点集合。
在实施中,可以基于多个像素点对应的质心坐标和旋转角信息进行聚类处理,从而得到目标物体对应的像素点集合。
或者,由于预测得到的质心坐标较为准确,可以直接对每个像素点对应的质心坐标进行聚类,从而得到至少一个目标物体对应的像素点集合。
204、对于每个目标物体对应的像素点集合,计算像素点集合中多个像素点对应的位姿信息的平均值,作为该目标物体对应的位姿信息。
在实施中,对于每个目标物体对应的像素点集合,计算像素点集合中多个像素点的质心坐标的平均值,作为该目标物体对应的质心坐标,并计算像素点集合中多个像素点的旋转角信息的平均值,作为该目标物体对应的旋转角信息。
通过上述方法计算出的每个目标物体对应的质心坐标和旋转角信息,即为每个目标物体对应的位姿信息。
参见图3,对第二种确定目标区域中每个目标物体的位姿信息的方法进行介绍:
301、对输入矩阵数据进行归一化处理,得到归一化处理后的输入矩阵数据。
步骤301的处理与步骤201的处理相同,在此不再赘述。
302、将归一化处理后的输入矩阵数据,输入训练完成的二维位姿预测模型,得到每个像素点对应的空间坐标与空间坐标对应的目标物体的质心坐标之间的预测矢量距离、以及每个像素点对应的旋转角信息。
其中,像素点对应的预测矢量距离是:像素点对应的空间坐标(x,y,z)与空间坐标对应的目标物体的质心坐标(a,b,c)之间的差值,即为(x-a,y-b,z-c)。
与步骤202不同的是,计算出的数据是每个像素点对应的空间坐标与空间坐标对应的目标物体的质心坐标之间的预测矢量距离,每个像素点对应的预测矢量距离的数值通常小于像素点对应的质心坐标,且其数值在一定范围内,因此,确定预测矢量距离这种具有一定范围的、数值较小的数据,可以提高二维位姿预测模型的预测准确性。
303、对每个像素点对应的预测矢量距离进行聚类处理,得到至少一个目标物体对应的像素点集合。
在实施中,使用数值更为准确的预测矢量距离来进行聚类处理,从而得到目标物体对应的像素点集合。
304、对于每个目标物体对应的像素点集合,基于每个像素点对应的空间坐标和预测矢量距离,确定每个像素点对应的目标物体的质心坐标,计算多个像素点对应的目标物体的质心坐标之间的平均值,作为目标物体的质心坐标,计算多个像素点对应的旋转角信息之间的平均值,作为目标物体的旋转角信息。
其中,旋转角信息包括横滚角、俯仰角和偏转角。
在实施中,对于每个目标物体对应的像素点集合中的每个像素点,将该像素点对应的空间坐标与该像素点对应的预测矢量距离之间的差值,确定为该像素点对应的目标物体的质心坐标。
然后,对于每个目标物体对应的像素点集合,计算该像素点集合中多个像素点的质心坐标的平均值,作为该目标物体对应的质心坐标,并计算像素点集合中多个像素点的旋转角信息的平均值,作为该目标物体对应的旋转角信息。
在本申请实施例中,将每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据,然后,基于输入矩阵数据和训练完成的二维位姿预测模型,确定出目标区域中每个目标物体的位姿信息。采用本申请,将空间坐标按照其对应的像素点在二维图像中的分布进行排列,使得无序的空间坐标变为有序,而有序的输入矩阵数据,可以直接使用二维图像分割网路作为二维位姿预测模型,二维图像分割网络的结构较为简单,极大的降低了其计算量。
在一种可能的实现方式中,如图4所示,在本申请实施例中,二维位姿预测模型的训练方法可以如下:
401、使用仿真工具和渲染工具建立具有多个物体模型的模拟场景模型。
与真实场景相比,使用仿真工具和渲染工具建立的模拟场景模型,更便于从中获取训练数据。
在模拟场景模型中,多个物体模型可以随意堆叠。
402、获取模拟场景模型中样本区域对应的二维样本图像和二维样本图像中每个样本像素点对应的空间坐标,将每个样本像素点对应的空间坐标,按照二维样本图像中每个样本像素点的分布进行排列,作为样本输入数据。
在实施中,可以使用相机模拟器,在模拟场景模型中获取样本区域对应的二维样本图像和二维样本图像中每个样本像素点对应的空间坐标,然后,将每个样本像素点对应的空间坐标,按照二维样本图像中每个样本像素点的分布进行排列,从而得到包括多个有序的空间坐标的样本输入数据。
403、基于样本区域中的样本物体的位姿信息,确定基准输出数据。
其中,位姿信息包括样本物体的质心坐标和旋转角信息,基准输出数据包括每个样本像素点对应的空间坐标与空间坐标对应的样本物体的质心坐标之间的矢量距离、以及每个样本像素点对应的旋转角信息。
在实施中,先获取样本区域中每个样本物体的位姿信息。
然后,对于每个样本物体,计算二维样本图像中该样本物体对应的多个样本像素点的空间坐标,与该样本物体的质心坐标之间的差值,得到该样本物体对应的多个样本像素点对应的矢量距离。
对于每个样本物体,将该样本物体的旋转角信息,确定为该样本物体对应的多个像素点的旋转角信息。
404、基于样本输入数据和待训练的二维位姿预测模型,得到预测输出数据。
405、基于基准输出数据、预测输出数据和损失函数,确定损失值。
在实施中,将基准输出数据和预测输出数据,输入损失函数中,得到损失值。
在一种可能的实现方式中,预测输出数据包括第一输出数据和第二输出数据,损失函数包括质心损失函数和旋转角损失函数。其中,第一输出数据用于表征二维位姿预测模型预测出的每个样本像素点对应的预测矢量距离,第二输出数据用于表征二维位姿预测模型预测出的每个样本像素点对应的旋转角信息。
基于上述数据,确定损失值的方法可以是:将第一输出数据、以及每个样本像素点对应的空间坐标与空间坐标对应的样本物体的质心坐标之间的矢量距离,输入质心损失函数,得到第一损失值。将第二输出数据和每个样本像素点对应的旋转角信息,输入旋转角损失函数,得到第二损失值。基于第一损失值和第二损失值,确定损失值。
在确定出第一损失值和第二损失值之后,可以将第一损失值和第二损失值之间的平均值,确定为损失值。或者,可以分别为第一损失值和第二损失值分配对应的权重,从而得到损失值,本申请实施例对此不作限定。
上述的质心损失函数和旋转角损失函数可以是任意合理的损失函数,例如,可以是L1损失函数、L2损失函数或者Focal Loss损失函数等等,本申请实施例对此不作限定。
406、基于损失值,对待训练的二维位姿预测模型进行调参,得到训练完成的二维位姿预测模型。
在实施中,在得到损失值后,可以判断该损失值是否满足训练完成条件,若不满足,则基于该损失值对待训练的二维位姿预测模型进行调参,若满足,则停止训练,将此时的二维位姿预测模型确定为训练完成的二维位姿预测模型。
其中,训练完成条件可以有多种,例如,训练完成条件可以是:损失值小于预设损失值阈值,其中,预设损失值阈值可以是0.9,或者其他合理数值。
或者,训练完成条件还可以是:训练次数大于预设次数阈值,其中,预设次数阈值可以是300,或者其他合理数值。
本申请实施例对于训练完成条件不作具体限定。
在一种可能的实现方式中,由于在实际应用中,对于目标区域中的一些阴影区域,深度相机会存在深度缺失现象,即深度相机无法检测到二维图像中阴影区域的像素点对应的空间坐标,因此,在步骤101中,可以将这些无法获取到深度信息的像素点的空间坐标全部置零。
对应的,在对待训练的二维位姿预测模型进行训练时,为了适应深度相机的深度缺失现象,可以进行如下处理:
在获取到样本输入数据后,可以先基于预设掩膜尺寸,随机选取样本输入数据中的多个掩膜像素点对应的空间坐标进行置零处理,得到置零处理后的样本输入数据。即:在样本输入数据中,随机选取预设掩膜尺寸的区域,将区域内的像素点确定为掩膜像素点,然后将掩膜像素点对应的空间坐标置零,从而模拟真实场景中深度相机的深度缺失现象。
再将置零处理后的样本输入数据,输入待训练的二维位姿预测模型,从而得到输出的预测输出数据。
在获取到基准输出数据后,将基准输出数据中多个掩膜像素点对应的矢量距离进行置零处理,得到置零处理后的基准输出数据,基于置零处理后的基准输出数据、预测输出数据和损失函数,确定损失值。
通过对基准输出数据中掩膜像素点对应的矢量距离置零,减小掩膜像素点的深度缺失对位姿预测的影响,增大了二维位姿预测模型的适用范围,提高了其精确性。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
本申请实施例中提到的方案,可以将每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据,然后,基于输入矩阵数据和训练完成的二维位姿预测模型,确定出目标区域中每个目标物体的位姿信息。采用本申请,将空间坐标按照其对应的像素点在二维图像中的分布进行排列,使得无序的空间坐标变为有序,而有序的输入矩阵数据,可以直接使用二维图像分割网路作为二维位姿预测模型,二维图像分割网络的结构较为简单,极大的降低了其计算量。
本申请实施例提供了一种位姿预测装置,该装置可以是上述实施例中的计算机设备,如图5所示,所述装置包括:
获取模块510,用于获取深度相机检测到的目标区域对应的二维图像和所述二维图像中每个像素点对应的空间坐标;
排列模块520,用于将所述每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据;
确定模块530,用于基于所述输入矩阵数据和训练完成的二维位姿预测模型,确定所述目标区域中每个目标物体的位姿信息,其中,所述二维位姿预测模型采用二维图像分割网格。
在一种可能的实现方式中,所述二维图像分割网络是二维语义分割模型或者二维实例分割模型。
在一种可能的实现方式中,所述确定模块530,用于:
对所述输入矩阵数据进行归一化处理,得到归一化处理后的输入矩阵数据;
将所述归一化处理后的输入矩阵数据,输入所述训练完成的二维位姿预测模型,得到所述每个像素点对应的空间坐标与所述空间坐标对应的目标物体的质心坐标之间的预测矢量距离、以及所述每个像素点对应的旋转角信息;
对所述多个像素点对应的预测矢量距离进行聚类处理,得到至少一个目标物体对应的像素点集合;
对于每个目标物体对应的像素点集合,基于所述每个像素点对应的空间坐标和预测矢量距离,确定每个像素点对应的目标物体的质心坐标,计算多个像素点对应的目标物体的质心坐标之间的平均值,作为所述目标物体的质心坐标,计算多个像素点对应的旋转角信息之间的平均值,作为所述目标物体的旋转角信息,其中,所述旋转角信息包括横滚角、俯仰角和偏转角。
在一种可能的实现方式中,所述装置还包括训练模块,用于:
使用仿真工具和渲染工具建立具有多个物体模型的模拟场景模型;
获取模拟场景模型中样本区域对应的二维样本图像和二维样本图像中每个样本像素点对应的空间坐标,将所述每个样本像素点对应的空间坐标,按照所述二维样本图像中每个样本像素点的分布进行排列,作为样本输入数据;
基于所述样本区域中的样本物体的位姿信息,确定基准输出数据,其中,所述位姿信息包括所述样本物体的质心坐标和旋转角信息,所述基准输出数据包括每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离、以及所述每个样本像素点对应的旋转角信息;
基于所述样本输入数据和待训练的二维位姿预测模型,得到预测输出数据;
基于所述基准输出数据、所述预测输出数据和损失函数,确定损失值;
基于所述损失值,对所述待训练的二维位姿预测模型进行调参,得到所述训练完成的二维位姿预测模型。
在一种可能的实现方式中,所述预测输出数据包括第一输出数据和第二输出数据,所述损失函数包括质心损失函数和旋转角损失函数;
所述训练模块,用于:
将所述第一输出数据、以及每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离,输入所述质心损失函数,得到第一损失值;
将所述第二输出数据和所述每个样本像素点对应的旋转角信息,输入所述旋转角损失函数,得到第二损失值;
基于所述第一损失值和所述第二损失值,确定所述损失值。
在一种可能的实现方式中,所述训练模块,用于:
基于预设掩膜尺寸,随机选取所述样本输入数据中的多个掩膜像素点对应的空间坐标进行置零处理,得到置零处理后的样本输入数据;
将所述置零处理后的样本输入数据,输入所述待训练的二维位姿预测模型,得到所述预测输出数据;
所述训练模块,用于:
将所述基准输出数据中所述多个掩膜像素点对应的矢量距离进行置零处理,得到置零处理后的基准输出数据;
基于所述置零处理后的基准输出数据、所述预测输出数据和所述损失函数,确定所述损失值。
需要说明的是:上述实施例提供的位姿预测装置在位姿预测时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的位姿预测装置与位姿预测方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6示出了本申请一个示例性实施例提供的终端600的结构框图。该终端可以是上述实施例中的计算机设备。该终端600可以是:智能手机、平板电脑、MP3播放器(movingpicture experts group audio layer III,动态影像专家压缩标准音频层面3)、MP4(moving picture experts group audio layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端600还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端600包括有:处理器601和存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(digital signal processing,数字信号处理)、FPGA(field-programmable gate array,现场可编程门阵列)、PLA(programmable logic array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(central processingunit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以在集成有GPU(graphics processing unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(artificial intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器601所执行以实现本申请中方法实施例提供的位姿预测方法。
在一些实施例中,终端600还可选包括有:外围设备接口603和至少一个外围设备。处理器601、存储器602和外围设备接口603之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口603相连。具体地,外围设备包括:射频电路604、显示屏605、摄像头606、音频电路607、定位组件608和电源609中的至少一种。
外围设备接口603可被用于将I/O(input/output,输入/输出)相关的至少一个外围设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和外围设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和外围设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(radio frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(wireless fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(near field communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏605用于显示UI(user interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置终端600的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在终端600的不同表面或呈折叠设计;在再一些实施例中,显示屏605可以是柔性显示屏,设置在终端600的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(liquidcrystal display,液晶显示屏)、OLED(organic light-emitting diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(virtual reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位终端600的当前地理位置,以实现导航或LBS(locationbased service,基于位置的服务)。定位组件608可以是基于GPS(global positioningsystem,全球定位系统)、北斗系统、格雷纳斯系统或伽利略系统的定位组件。
电源609用于为终端600中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端600还包括有一个或多个传感器610。该一个或多个传感器610包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器613、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以终端600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测终端600的机体方向及转动角度,陀螺仪传感器612可以与加速度传感器611协同采集用户对终端600的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器613可以设置在终端600的侧边框和/或显示屏605的下层。当压力传感器613设置在终端600的侧边框时,可以检测用户对终端600的握持信号,由处理器601根据压力传感器613采集的握持信号进行左右手识别或快捷操作。当压力传感器613设置在显示屏605的下层时,由处理器601根据用户对显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置终端600的正面、背面或侧面。当终端600上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商Logo集成在一起。
光学传感器615用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器615采集的环境光强度,控制显示屏605的显示亮度。具体地,当环境光强度较高时,调高显示屏605的显示亮度;当环境光强度较低时,调低显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器615采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在终端600的前面板。接近传感器616用于采集用户与终端600的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与终端600的正面之间的距离逐渐变小时,由处理器601控制显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与终端600的正面之间的距离逐渐变大时,由处理器601控制显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对终端600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图7是本申请实施例提供的一种服务器的结构示意图,该服务器700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processingunits,CPU)701和一个或一个以上的存储器702,其中,所述存储器702中存储有至少一条指令,所述至少一条指令由所述处理器701加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括指令的存储器,上述指令可由终端中的处理器执行以完成上述实施例中位姿预测方法。该计算机可读存储介质可以是非暂态的。例如,所述计算机可读存储介质可以是ROM(read-only memory,只读存储器)、RAM(random access memory,随机存取存储器)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
需要说明的是,本申请所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号(包括但不限于用户终端与其他设备之间传输的信号等),均为经用户授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。例如,本申请中涉及到的“目标区域对应的二维图像和二维图像中每个像素点对应的空间坐标”都是在充分授权的情况下获取的。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (8)
1.一种位姿预测方法,其特征在于,所述方法包括:
获取深度相机检测到的目标区域对应的二维图像和所述二维图像中每个像素点对应的空间坐标;
将所述每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据;
对所述输入矩阵数据进行归一化处理,得到归一化处理后的输入矩阵数据;
将所述归一化处理后的输入矩阵数据,输入训练完成的二维位姿预测模型,得到所述每个像素点对应的空间坐标与所述空间坐标对应的目标物体的质心坐标之间的预测矢量距离、以及所述每个像素点对应的旋转角信息,其中,所述二维位姿预测模型采用二维图像分割网络;
对所述多个像素点对应的预测矢量距离进行聚类处理,得到至少一个目标物体对应的像素点集合;
对于每个目标物体对应的像素点集合,基于所述每个像素点对应的空间坐标和预测矢量距离,确定每个像素点对应的目标物体的质心坐标,计算多个像素点对应的目标物体的质心坐标之间的平均值,作为所述目标物体的质心坐标,计算多个像素点对应的旋转角信息之间的平均值,作为所述目标物体的旋转角信息,其中,所述旋转角信息包括横滚角、俯仰角和偏转角。
2.根据权利要求1所述的方法,其特征在于,所述二维图像分割网络是二维语义分割模型或者二维实例分割模型。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
使用仿真工具和渲染工具建立具有多个物体模型的模拟场景模型;
获取模拟场景模型中样本区域对应的二维样本图像和二维样本图像中每个样本像素点对应的空间坐标,将所述每个样本像素点对应的空间坐标,按照所述二维样本图像中每个样本像素点的分布进行排列,作为样本输入数据;
基于所述样本区域中的样本物体的位姿信息,确定基准输出数据,其中,所述位姿信息包括所述样本物体的质心坐标和旋转角信息,所述基准输出数据包括每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离、以及所述每个样本像素点对应的旋转角信息;
基于所述样本输入数据和待训练的二维位姿预测模型,得到预测输出数据;
基于所述基准输出数据、所述预测输出数据和损失函数,确定损失值;
基于所述损失值,对所述待训练的二维位姿预测模型进行调参,得到所述训练完成的二维位姿预测模型。
4.根据权利要求3所述的方法,其特征在于,所述预测输出数据包括第一输出数据和第二输出数据,所述损失函数包括质心损失函数和旋转角损失函数;
所述基准输出数据、所述预测输出数据和损失函数,确定损失值,包括:
将所述第一输出数据、以及每个样本像素点对应的空间坐标与所述空间坐标对应的样本物体的质心坐标之间的矢量距离,输入所述质心损失函数,得到第一损失值;
将所述第二输出数据和所述每个样本像素点对应的旋转角信息,输入所述旋转角损失函数,得到第二损失值;
基于所述第一损失值和所述第二损失值,确定所述损失值。
5.根据权利要求3所述的方法,其特征在于,所述基于所述样本输入数据和待训练的二维位姿预测模型,得到预测输出数据,包括:
基于预设掩膜尺寸,随机选取所述样本输入数据中的多个掩膜像素点对应的空间坐标进行置零处理,得到置零处理后的样本输入数据;
将所述置零处理后的样本输入数据,输入所述待训练的二维位姿预测模型,得到所述预测输出数据;
所述基于所述基准输出数据、所述预测输出数据和损失函数,确定损失值,包括:
将所述基准输出数据中所述多个掩膜像素点对应的矢量距离进行置零处理,得到置零处理后的基准输出数据;
基于所述置零处理后的基准输出数据、所述预测输出数据和所述损失函数,确定所述损失值。
6.一种位姿预测装置,其特征在于,所述装置包括:
获取模块,用于获取深度相机检测到的目标区域对应的二维图像和所述二维图像中每个像素点对应的空间坐标;
排列模块,用于将所述每个像素点对应的空间坐标,按照二维图像中每个像素点的分布进行排列,得到输入矩阵数据;
确定模块,用于对所述输入矩阵数据进行归一化处理,得到归一化处理后的输入矩阵数据;将所述归一化处理后的输入矩阵数据,输入训练完成的二维位姿预测模型,得到所述每个像素点对应的空间坐标与所述空间坐标对应的目标物体的质心坐标之间的预测矢量距离、以及所述每个像素点对应的旋转角信息,其中,所述二维位姿预测模型采用二维图像分割网络;对所述多个像素点对应的预测矢量距离进行聚类处理,得到至少一个目标物体对应的像素点集合;对于每个目标物体对应的像素点集合,基于所述每个像素点对应的空间坐标和预测矢量距离,确定每个像素点对应的目标物体的质心坐标,计算多个像素点对应的目标物体的质心坐标之间的平均值,作为所述目标物体的质心坐标,计算多个像素点对应的旋转角信息之间的平均值,作为所述目标物体的旋转角信息,其中,所述旋转角信息包括横滚角、俯仰角和偏转角。
7.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如权利要求1至权利要求5任一项所述的位姿预测方法所执行的操作。
8.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如权利要求1至权利要求5任一项所述的位姿预测方法所执行的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211715247.2A CN116681755B (zh) | 2022-12-29 | 2022-12-29 | 位姿预测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211715247.2A CN116681755B (zh) | 2022-12-29 | 2022-12-29 | 位姿预测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116681755A CN116681755A (zh) | 2023-09-01 |
CN116681755B true CN116681755B (zh) | 2024-02-09 |
Family
ID=87779696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211715247.2A Active CN116681755B (zh) | 2022-12-29 | 2022-12-29 | 位姿预测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116681755B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018185104A1 (fr) * | 2017-04-06 | 2018-10-11 | B<>Com | Procede d'estimation de pose, dispositif, systeme et programme d'ordinateur associes |
CN111462135A (zh) * | 2020-03-31 | 2020-07-28 | 华东理工大学 | 基于视觉slam与二维语义分割的语义建图方法 |
CN111783986A (zh) * | 2020-07-02 | 2020-10-16 | 清华大学 | 网络训练方法及装置、姿态预测方法及装置 |
CN112164115A (zh) * | 2020-09-25 | 2021-01-01 | 清华大学深圳国际研究生院 | 物体位姿识别的方法、装置及计算机存储介质 |
CN112652016A (zh) * | 2020-12-30 | 2021-04-13 | 北京百度网讯科技有限公司 | 点云预测模型的生成方法、位姿估计方法及其装置 |
CN113409384A (zh) * | 2021-08-17 | 2021-09-17 | 深圳市华汉伟业科技有限公司 | 一种目标物体的位姿估计方法和系统、机器人 |
CN113450408A (zh) * | 2021-06-23 | 2021-09-28 | 中国人民解放军63653部队 | 一种基于深度相机的非规则物体位姿估计方法及装置 |
CN113706543A (zh) * | 2021-08-18 | 2021-11-26 | 北京达佳互联信息技术有限公司 | 一种三维位姿的构建方法、设备及存储介质 |
CN113927597A (zh) * | 2021-10-21 | 2022-01-14 | 燕山大学 | 基于深度学习的机器人连接件六自由度位姿估计系统 |
WO2022141376A1 (zh) * | 2020-12-31 | 2022-07-07 | 华为技术有限公司 | 一种位姿估计方法及相关装置 |
CN115147683A (zh) * | 2022-07-08 | 2022-10-04 | 南京人工智能高等研究院有限公司 | 位姿估计网络模型的训练方法、位姿估计方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9607428B2 (en) * | 2015-06-30 | 2017-03-28 | Ariadne's Thread (Usa), Inc. | Variable resolution virtual reality display system |
US10235771B2 (en) * | 2016-11-11 | 2019-03-19 | Qualcomm Incorporated | Methods and systems of performing object pose estimation |
-
2022
- 2022-12-29 CN CN202211715247.2A patent/CN116681755B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018185104A1 (fr) * | 2017-04-06 | 2018-10-11 | B<>Com | Procede d'estimation de pose, dispositif, systeme et programme d'ordinateur associes |
CN111462135A (zh) * | 2020-03-31 | 2020-07-28 | 华东理工大学 | 基于视觉slam与二维语义分割的语义建图方法 |
CN111783986A (zh) * | 2020-07-02 | 2020-10-16 | 清华大学 | 网络训练方法及装置、姿态预测方法及装置 |
CN112164115A (zh) * | 2020-09-25 | 2021-01-01 | 清华大学深圳国际研究生院 | 物体位姿识别的方法、装置及计算机存储介质 |
CN112652016A (zh) * | 2020-12-30 | 2021-04-13 | 北京百度网讯科技有限公司 | 点云预测模型的生成方法、位姿估计方法及其装置 |
WO2022141376A1 (zh) * | 2020-12-31 | 2022-07-07 | 华为技术有限公司 | 一种位姿估计方法及相关装置 |
CN113450408A (zh) * | 2021-06-23 | 2021-09-28 | 中国人民解放军63653部队 | 一种基于深度相机的非规则物体位姿估计方法及装置 |
CN113409384A (zh) * | 2021-08-17 | 2021-09-17 | 深圳市华汉伟业科技有限公司 | 一种目标物体的位姿估计方法和系统、机器人 |
CN113706543A (zh) * | 2021-08-18 | 2021-11-26 | 北京达佳互联信息技术有限公司 | 一种三维位姿的构建方法、设备及存储介质 |
CN113927597A (zh) * | 2021-10-21 | 2022-01-14 | 燕山大学 | 基于深度学习的机器人连接件六自由度位姿估计系统 |
CN115147683A (zh) * | 2022-07-08 | 2022-10-04 | 南京人工智能高等研究院有限公司 | 位姿估计网络模型的训练方法、位姿估计方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116681755A (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992493B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110807361A (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN108363982B (zh) | 确定对象数量的方法及装置 | |
CN111127509B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN112581358B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN109886208B (zh) | 物体检测的方法、装置、计算机设备及存储介质 | |
CN111754386B (zh) | 图像区域屏蔽方法、装置、设备及存储介质 | |
CN112150560B (zh) | 确定消失点的方法、装置及计算机存储介质 | |
CN110705614A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN110991445B (zh) | 竖排文字识别方法、装置、设备及介质 | |
CN110647881A (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN112308103B (zh) | 生成训练样本的方法和装置 | |
CN111931712B (zh) | 人脸识别方法、装置、抓拍机及系统 | |
CN111860064B (zh) | 基于视频的目标检测方法、装置、设备及存储介质 | |
CN113343709B (zh) | 意图识别模型的训练方法、意图识别方法、装置及设备 | |
CN111179628B (zh) | 自动驾驶车辆的定位方法、装置、电子设备及存储介质 | |
CN116681755B (zh) | 位姿预测方法和装置 | |
CN111982293B (zh) | 体温测量方法、装置、电子设备及存储介质 | |
CN112560903A (zh) | 图像美学信息的确定方法、装置、设备及存储介质 | |
CN112990424B (zh) | 神经网络模型训练的方法和装置 | |
CN113689484B (zh) | 深度信息的确定方法、装置、终端及存储介质 | |
CN111381765B (zh) | 文本框的显示方法、装置、计算机设备及存储介质 | |
CN111382771B (zh) | 数据分类方法、装置、设备及存储介质 | |
CN113763486B (zh) | 主色调提取方法、装置、电子设备及存储介质 | |
CN112836714B (zh) | 一种智能模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |