CN114820899A - 一种基于多视角渲染的姿态估计方法和装置 - Google Patents
一种基于多视角渲染的姿态估计方法和装置 Download PDFInfo
- Publication number
- CN114820899A CN114820899A CN202210355511.XA CN202210355511A CN114820899A CN 114820899 A CN114820899 A CN 114820899A CN 202210355511 A CN202210355511 A CN 202210355511A CN 114820899 A CN114820899 A CN 114820899A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- image
- depth
- point cloud
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于多视角渲染的姿态估计方法和装置,所述方法包括以下步骤:在深度图像中检测出对象区域;从深度图像的对象区域中提取出对象的三维点云;在以对象的三维点云为中心的球面上均匀设置多个虚拟相机;通过神经网络从设置的虚拟相机中选择少量适合进行对象姿态估计的虚拟相机;将对象的三维点云投影到选择的虚拟相机上,渲染出多个视角的对象深度图像;使用三维姿态估计网络对多个视角的深度图像进行三维对象姿态估计;融合多个视角的三维对象姿态得到最终的三维对象姿态。经过实际使用验证,本发明具有自动化程度高、精度高和实时性的优点,可满足专业的或者大众化的应用需求。
Description
技术领域
本发明属于计算机视觉、手势识别、人机交互领域,具体涉及到一种基于多视角渲染的姿态估计方法和装置,适用于人体整体或局部(如人体、人手、人脸等)、动物、机器人、一般刚性或非刚性对象。
背景技术
姿态估计尤其是人手姿态估计是计算机视觉和人机交互领域的热点问题,在虚拟现实,智能控制和终端设备上具有广泛的应用。人手姿态估计任务主要是从图像中检测出人手位置并估计所有关节点三维坐标。人手姿态估计分为基于RGB图像的姿态估计方法和基于深度图像的姿态估计方法。相比于基于RGB图像的姿态估计方法,基于深度图像的姿态估计方法的输入包含更多深度信息,可以更为精准地给出三维人手关节坐标。
目前基于深度图像的姿态估计方法主要对深度图像直接提取特征,姿态估计的精度依赖于提取特征的大小。提取过多的特征虽然可以提高精度,但会带来参数量的大幅增加和速度下降。由于深度图像中包含2.5D信息而非3D信息,常用作特征提取的二维卷积不能完整地提取出图像中的深度信息。因此,如何平衡人手姿态估计任务中速度与精度、在保证实时性的情况下提升人手姿态估计的精度是人手姿态估计问题中的关键难点。
发明内容
为了解决上述问题,本发明提供了一种基于多视角渲染的姿态估计方法和装置,适用于人体整体或局部(如人体、人手、人脸等)、动物、机器人、一般刚性或非刚性对象。
本发明提供一种基于多视角渲染的姿态估计方法,所述方法包括以下步骤:
在深度图像中检测出对象区域;
从深度图像的对象区域中提取出对象的三维点云;
在以对象的三维点云为中心的球面上均匀设置多个虚拟相机;
通过神经网络从设置的多个虚拟相机中选择少量适合进行对象姿态估计的虚拟相机;
将对象的三维点云投影到选择的虚拟相机上,渲染出多个视角的对象的深度图像;
通过三维姿态估计网络,对多个视角的对象的深度图像进行三维姿态估计,得到多个视角的三维对象姿态;
融合多个视角的三维对象姿态,得到最终的三维对象姿态。
其中,“对象”是指进行姿态估计的对象,如人体整体或局部(如人体、人手、人脸等)、动物、机器人、其他一般刚性或非刚性对象等。
进一步地,所述在深度图像中检测出对象区域,包括:对深度图像进行对象检测或分割,获得消除背景的对象图像区域。
进一步地,所述从深度图像的对象区域中提取出对象的三维点云,所使用的提取对象的三维点云的公式如下:
其中,u,v,d为深度图像中对象的前景区域上图像点p的图像坐标和深度;K是相机的内部参数矩阵;M是相机的外部参数矩阵,表示相机坐标系和世界坐标系的旋转和平移,表达式为其中R表示相机的旋转矩阵,t表示相机的平移向量;pw=(xw,yw,zw)是图像点p转换到世界坐标系后的三维坐标;将所有位于对象的前景区域的图像点变换到世界坐标系下的点云Pw。
进一步地,所述在以对象的三维点云为中心的球面上均匀设置多个虚拟相机,是将虚拟相机设置在以对象的三维点云的质心为球心的球面上。
进一步地,所述通过神经网络从设置的多个虚拟相机中选择适合进行对象姿态估计的虚拟相机,是使用视角置信度网络选择虚拟相机;所述视角置信度网络从对象的深度图像提取图像特征,并将图像特征映射成预设多个虚拟相机的置信度,选择视角置信度最高的K个虚拟相机进行后续操作。
进一步地,所述渲染出多个视角的对象的深度图像,所使用的多视角渲染的公式如下:
其中,Ik表示第k个虚拟相机渲染的深度图像,Ik(u,v)表示渲染深度图像上位于(u,v)位置处的深度值,将世界坐标系下的对象的点云Pw投影得到第k个虚拟相机图像上,得到图像点集Pk,对于任意点p∈Pk,其深度值记为Dk(p);公式中Sk,u,v∈Pk表示图像点集Pk中像素坐标为(u,v)的点p的集合。
进一步地,所述通过三维姿态估计网络,对多个视角的对象的深度图像进行三维姿态估计,得到多个视角的三维对象姿态,是以渲染的深度图作为输入,使用神经网络分别估计K个视角的三维对象姿态。
进一步地,所述融合多个视角的三维对象姿态,是对K个视角的关键点(对于人体整体或人手、人脸等局部,关键点可以是关节点;对于非人体对象,可以采用表面特征点或关节旋转中心等作为关键点)坐标进行融合,采用的公式如下:
其中,和分别表示第k个视角估计出的三维对象的关键点坐标和融合后的三维对象的关键点坐标,N表示对象的关键点的数量,Rk和tk分别为选择的第k个虚拟相机的旋转矩阵和平移向量,ck为置信度权重,通过K个虚拟相机的置信度值执行SoftMax操作后,得到的第k个视角的置信度权重为ck。
本发明还提供一种基于多视角渲染的姿态估计装置,所述装置包括:
对象检测模块,用于在深度图像中检测出对象区域;
视角选择模块,用于从多个虚拟相机中选择适合进行对象姿态估计的虚拟相机;
多视角渲染模块,用于渲染虚拟相机拍摄到的对象的深度图像,即将对象的三维点云投影到选择的虚拟相机上,渲染出多个视角的对象的深度图像;
三维对象姿态估计模块,用于通过三维姿态估计网络,从多个视角的对象深度图像中估计三维对象姿态,得到多个视角的三维对象姿态;
视角融合模块,用于融合多个视角的三维对象姿态,得到最终的三维对象姿态。
本发明的优点和有益效果是:
本发明主要解决的问题是保证实时性的情况下提升三维姿态估计任务的精度。本发明提供一种从单张深度图像中提取三维姿态估计的方法和装置。从多个视角进行三维姿态估计,可以有效提高估计精度。从均匀设置的虚拟相机中选择选择少量适合进行姿态估计的虚拟相机,在不损失过多精度的情况下大幅度提高姿态估计的速度。经过实际使用验证,本发明具有自动化程度高、精度高和实时性的优点,可满足专业的或者大众化的应用需求。
本发明的姿态估计方法可适用于人体整体、人体局部、动物或机器人、一般刚体或非刚体等;人体局部包括人手、上肢、下肢或人脸等。本姿态估计方法,适用于深度相机、双目相机和激光扫描仪等多种三维视觉传感器的输入数据。
附图说明
图1是本发明的整体架构图。
图2是本发明的使用多个虚拟相机的示意图。
图3是本发明的视角置信度网络的示意图。
图4是本发明的三维人手姿态估计与融合的示意图。
具体实施方式
下面以人手姿态估计为例,具体说明本发明的方法。
图1概述了本发明的方法。本发明使用单张深度图像作为输入。首先对输入的深度图像进行人手检测,获取人手边界框后从深度图像中裁剪出人手区域的深度图。人手区域的深度图像被输入视角置信度网络,计算出多个预设虚拟相机的置信度,选择其中置信度最高的K个虚拟相机。从人手区域的深度图中提取出人手点云,将其投影到选择的K个虚拟相机上,渲染出K个视角的人手深度图像。通过三维姿态估计网络估计K个视角的三维人手关节点坐标,最后将这些三维人手关节点融合得到最终的三维人手关节点坐标。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施例和附图,对本发明做进一步详细说明。
步骤1:从深度图像中提取人手点云
深度图像中人手前景区域(深度值不为0)上的图像点可以映射成三维世界坐标系。设深度图像中人手前景区域上图像点p坐标为(u,v),深度值为d,其中(u,v)表示图像点在图像坐标系下的坐标。设图像点p对应的世界坐标系下的三维点为pw=(xw,yw,zw),则pw的计算公式为:
其中:
K是相机的内部参数矩阵,包含fx,fy,u0,v0等相机内参参数;M是相机的外部参数矩阵,表示相机坐标系与世界坐标系的旋转和平移,R和t分别的旋转矩阵和平移向量。通过人手检测或人手分割方法检测或分割深度图像中人手的位置,从深度图像中裁剪出人手区域,将人手区域的每个深度非0的图像点转换到世界坐标系下,得到世界坐标系下的人手三维点云Pw。
步骤2:设置虚拟相机
以人手点云的质心为球心构建一个球,半径为质心对应像素坐标系上点的深度值。在球面上预设25个虚拟相机,用相机在球面上的方位角α和高度角β表示相机的位置。方位角和高度角过大会导致渲染出的深度图出现比较严重的遮挡和空洞,所以限制25个预设的虚拟相机在限制的区域上呈5×5网格状均匀排布。计算每一个预设的虚拟相机的旋转矩阵R和平移向量t,从而得到每个虚拟相机的外部参数M。虚拟相机效果如图2所示。
步骤3:选择虚拟相机
将剪裁好人手区域深度图像输入到视角置信度网络中,最后可得到25个预设虚拟相机的置信度。置信度网络如图3所示。网络输入为图像I∈RH×W,H和W是裁剪后的图像的高度和宽度,经过图像特征提取网络(如残差神经网络(ResNet18)等)提取得到图像特征,再通过全连接层将特征映射成25个预设虚拟相机的置信度。选取置信度最高的K个虚拟相机视角进行后续操作,其中1≤K≤25,并且K∈Z。K为一个超参数,可根据对计算速度的要求选择K的值,K的值越大,计算速度越慢。
步骤4:多视角渲染
将世界坐标系下的人手点云投影到选择的K个虚拟相机上,即可渲染出K个视角的人手深度图像。设Mk表示第k个选择的虚拟相机的外部参数,根据公式(1)可以将世界坐标系下的人手点云Pw投影得到第k个虚拟相机图像坐标系下的点集Pk,对于任意点p∈Pk,其深度值为Dk(p)。设Sk,u,v∈Pk表示Pk中像素坐标为(u,v)的点p的集合,令第k个虚拟相机渲染出的深度图像为Ik,Ik(u,v)表示位于(u,v)处图像点的深度值,其计算公式为:
步骤5:三维人手姿态估计与融合
使用一个三维人手姿态估计网络分别估计K个视角深度图像的三维人手关节点坐标。然后利用步骤4中计算的置信度对K个人手关节点坐标进行融合,得到最终的三维人手关节点坐标。本发明可以采用A2J网络等作为三维人手姿态估计网络。对步骤4计算得到的K个置信度值执行SoftMax操作后,得到的第k个视角的置信度权重为ck。设和分别表示第k个视角估计出的三维人手关节点坐标和融合后的三维人手关节点坐标,N表示人手关节点的数量。对K个视角的关节点坐标进行融合的公式为:
其中Rk和tk分别为选择的第k个虚拟相机的相机坐标系与世界坐标系的旋转矩阵和平移向量。步骤5的流程如图4所示。
本发明的方案可以通过软件的方式实现,也可以通过硬件的方式来实现,比如:
在一个实施例中,提供一种多视角渲染的人手姿态估计装置,其包括:
人手检测模块,用于在深度图像中检测出人手区域;
视角选择模块,用于从多个虚拟相机中选择适合进行人手姿态估计的虚拟相机;
多视角渲染模块,用于渲染虚拟相机拍摄到的人手深度图像,即将人手三维点云投影到选择的虚拟相机上,渲染出多个视角的人手深度图像;
三维人手姿态估计模块,用于通过三维人手姿态估计网络,从多个视角的人手深度图像中估计三维人手姿态,得到多个视角的三维人手姿态;
视角融合模块,用于融合多个视角的三维人手姿态,得到最终三维人手姿态。
另外,该装置还可包括:
1)数据预处理模块,用于对输入的深度图像进行预处理,通过对输入图像的剪裁和缩放与数据增强,使得视角选择与人手姿态估计更加精确;
2)网络构建与训练模块,负责构建和训练的视角选择网络与人手姿态估计网络。
本发明的方案可以适用于人体整体或局部(如人体、人手、人脸等)、动物、机器人、一般刚性或非刚性对象,也适用于深度相机、双目相机和激光扫描仪等多种三维视觉传感器的输入数据。
在另一个实施例中,提供一种电子装置(计算机、服务器、手机等),其包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行本发明方法中各步骤的指令。
在另一个实施例中,提供一种计算机可读存储介质(如ROM/RAM、磁盘、光盘),所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现本发明方法的步骤。
本发明中,步骤5中的三维人手姿态估计基本网络并不局限于A2J网络,可以更换为其它类似基本网络。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的原理和范围,本发明的保护范围应以权利要求书所述为准。
Claims (10)
1.一种基于多视角渲染的姿态估计方法,其特征在于,包括以下步骤:
在深度图像中检测出对象区域;
从深度图像的对象区域中提取出对象的三维点云;
在以对象的三维点云为中心的球面上均匀设置多个虚拟相机;
通过神经网络从设置的多个虚拟相机中选择适合进行对象姿态估计的虚拟相机;
将对象的三维点云投影到选择的虚拟相机上,渲染出多个视角的对象的深度图像;
通过三维姿态估计网络,对多个视角的对象的深度图像进行三维姿态估计,得到多个视角的三维对象姿态;
融合多个视角的三维对象姿态,得到最终的三维对象姿态。
2.根据权利要求1所述的方法,其特征在于,所述在深度图像中检测出对象区域,包括:对深度图像进行对象检测或分割,获得消除背景的对象图像区域。
4.根据权利要求1所述的方法,其特征在于,所述在以对象的三维点云为中心的球面上均匀设置多个虚拟相机,是将虚拟相机设置在以对象的三维点云的质心为球心的球面上。
5.根据权利要求1所述的方法,其特征在于,所述通过神经网络从设置的多个虚拟相机中选择适合进行对象姿态估计的虚拟相机,是使用视角置信度网络选择虚拟相机;所述视角置信度网络从对象的深度图像提取图像特征,并将图像特征映射成预设多个虚拟相机的置信度,选择视角置信度最高的K个虚拟相机进行后续操作。
7.根据权利要求1所述的方法,其特征在于,所述通过三维姿态估计网络,对多个视角的对象的深度图像进行三维姿态估计,得到多个视角的三维对象姿态,是以渲染的深度图作为输入,使用神经网络分别估计K个视角的三维对象姿态。
9.一种基于多视角渲染的姿态估计装置,其特征在于,包括:
对象检测模块,用于在深度图像中检测出对象区域;
视角选择模块,用于从多个虚拟相机中选择适合进行对象姿态估计的虚拟相机;
多视角渲染模块,用于渲染虚拟相机拍摄到的对象的深度图像,即将对象的三维点云投影到选择的虚拟相机上,渲染出多个视角的对象的深度图像;
三维姿态估计模块,用于通过三维姿态估计网络,从多个视角的对象的深度图像中估计三维对象姿态,得到多个视角的三维对象姿态;
视角融合模块,用于融合多个视角的三维对象姿态,得到最终的三维对象姿态。
10.一种电子装置,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1~8中任一权利要求所述方法的指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2022100783557 | 2022-01-24 | ||
CN202210078355 | 2022-01-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114820899A true CN114820899A (zh) | 2022-07-29 |
Family
ID=82533577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210355511.XA Pending CN114820899A (zh) | 2022-01-24 | 2022-04-06 | 一种基于多视角渲染的姿态估计方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114820899A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117745924A (zh) * | 2024-02-19 | 2024-03-22 | 北京渲光科技有限公司 | 基于深度无偏估计的神经渲染方法、系统及设备 |
-
2022
- 2022-04-06 CN CN202210355511.XA patent/CN114820899A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117745924A (zh) * | 2024-02-19 | 2024-03-22 | 北京渲光科技有限公司 | 基于深度无偏估计的神经渲染方法、系统及设备 |
CN117745924B (zh) * | 2024-02-19 | 2024-05-14 | 北京渲光科技有限公司 | 基于深度无偏估计的神经渲染方法、系统及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112927357B (zh) | 一种基于动态图网络的3d物体重建方法 | |
CN108230240B (zh) | 一种基于深度学习获取图像城市范围内位置及姿态的方法 | |
CN111968217B (zh) | 基于图片的smpl参数预测以及人体模型生成方法 | |
CN111553949B (zh) | 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法 | |
CN113705521A (zh) | 一种结合YOLO-MobilenetV3人脸检测的头部姿态估计方法 | |
CN108921926A (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
CN109887030A (zh) | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 | |
CN114004883B (zh) | 一种冰壶球的视觉感知方法、装置、计算机设备和存储介质 | |
CN110223382B (zh) | 基于深度学习的单帧图像自由视点三维模型重建方法 | |
CN113065546A (zh) | 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统 | |
CN113313732A (zh) | 一种基于自监督学习的前视场景深度估计方法 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN113012122A (zh) | 一种类别级6d位姿与尺寸估计方法及装置 | |
CN116977522A (zh) | 三维模型的渲染方法、装置、计算机设备和存储介质 | |
CN113283525A (zh) | 一种基于深度学习的图像匹配方法 | |
CN114219855A (zh) | 点云法向量的估计方法、装置、计算机设备和存储介质 | |
CN113077519A (zh) | 一种基于人体骨架提取的多相机外参自动标定方法 | |
CN111368733B (zh) | 一种基于标签分布学习的三维手部姿态估计方法、存储介质及终端 | |
CN114036969A (zh) | 一种多视角情况下的3d人体动作识别算法 | |
CN113034581A (zh) | 基于深度学习的空间目标相对位姿估计方法 | |
CN116958420A (zh) | 一种数字人教师三维人脸的高精度建模方法 | |
CN111914595B (zh) | 一种基于彩色图像的人手三维姿态估计方法和装置 | |
CN117218246A (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN114972634A (zh) | 基于特征体素融合的多视角三维可变形人脸重建方法 | |
CN114820899A (zh) | 一种基于多视角渲染的姿态估计方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |