CN113689503A - 目标对象的姿态检测方法、装置、设备及存储介质 - Google Patents

目标对象的姿态检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113689503A
CN113689503A CN202111237957.4A CN202111237957A CN113689503A CN 113689503 A CN113689503 A CN 113689503A CN 202111237957 A CN202111237957 A CN 202111237957A CN 113689503 A CN113689503 A CN 113689503A
Authority
CN
China
Prior art keywords
target object
image
depth
relative
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111237957.4A
Other languages
English (en)
Other versions
CN113689503B (zh
Inventor
于晓璇
林纯泽
王坤
王权
钱晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202111237957.4A priority Critical patent/CN113689503B/zh
Publication of CN113689503A publication Critical patent/CN113689503A/zh
Application granted granted Critical
Publication of CN113689503B publication Critical patent/CN113689503B/zh
Priority to PCT/CN2022/124802 priority patent/WO2023071790A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例提供了一种目标对象的姿态检测方法、装置、设备及存储介质。可以获取从不同角度采集的目标对象的彩色图像以及彩色图像对应的深度图像,可以利用其中一帧彩色图像得到目标对象的三维网格模型,并且基于深度图像对目标对象进行三维重建,即可以确定其他彩色图像中的目标对象与这一帧彩色图像中的目标对象的相对姿态,进而可以确定其他彩色图像中的目标对象相对于该三维网格模型的姿态。通过本公开实施例提供的方法,针对一些无法准确提取关键点的目标对象的彩色图像,也可以准确地确定出彩色图像中目标对象相对于三维网格模型的姿态。

Description

目标对象的姿态检测方法、装置、设备及存储介质
技术领域
本公开涉及人工智能技术领域,尤其涉及一种目标对象的姿态检测方法、装置、设备及存储介质。
背景技术
很多场景都需要对图像中的目标对象进行姿态估计,并基于姿态估计结果进行后续的业务处理。对目标对象进行姿态估计,即估计目标对象相对于参考基准(比如,图像采集装置或其他)的姿态或者朝向。比如,以人脸姿态估计为例,在人脸识别的场景中,可以先通过人脸姿态估计筛选出符合条件的人脸图像(比如,正脸图像),再对筛选出的人脸图像进行识别。目前,在对图像中的目标对象进行姿态估计时,针对图像中提取的关键点数量较少的场景,无法准确的估计该图像中目标对象的姿态。
发明内容
本公开提供一种目标对象的姿态检测方法、装置、设备及存储介质。
根据本公开实施例的第一方面,提供一种目标对象的姿态检测方法,所述方法包括:
获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,所述彩色图像至少包括第一彩色图像和第二彩色图像;
利用所述深度图像对所述目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态;
基于所述相邻两帧深度图像中的目标对象的相对姿态,确定所述第二彩色图像中的目标对象与所述第一彩色图像中的目标对象的第一相对姿态;
基于所述第一相对姿态确定所述第二彩色图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,其中,所述三维网格模型基于所述第一彩色图像中提取的目标对象的关键点确定。
在一些实施例中,获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,包括:
获取图像采集装置从不同角度采集得到的多帧RGBD图像,其中,相邻两帧RGBD图像中存在重叠区域。
在一些实施例中,所述三维网格模型基于所述第一彩色图像中提取的目标对象的关键点确定,包括:
从所述第一彩色图像中提取所述目标对象的关键点;
基于所述关键点和预设的标准三维网格模型拟合得到所述目标对象的三维网格模型。
在一些实施例中,从所述第一彩色图像中提取的目标对象的关键点数量不小于预设数量阈值,所述预设数量阈值基于所述目标对象的目标侧分布的关键点的数量确定,所述目标侧分布的关键点数量大于所述目标对象的其他侧分布的关键点数量。
在一些实施例中,所述利用所述深度图像对目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态,包括:
获取所述深度图像;
针对所获取的任一深度图像,分别执行以下操作:
将所述深度图像对应的点云模型与已重建的点云模型进行配准,得到多对匹配点对;
基于所述多对匹配点对确定所述深度图像中的目标对象与所述深度图像的上一帧深度图像中的目标对象的相对姿态。
在一些实施例中,所述方法还包括:
基于所述深度图像中的目标对象与所述深度图像的上一帧深度图像中的目标对象的相对姿态,将所述深度图像对应的点云模型融合到所述已重建的点云模型中,更新所述已重建的点云。
在一些实施例中,所述将所述深度图像对应的点云模型与已重建的点云模型进行配准,得到多对匹配点对,包括:
确定所述深度图像对应的点云模型中的各点云点的第一属性信息,以及所述已重建的点云模型中各点云点的第二属性信息;
基于所述第一属性信息与所述第二属性信息,对所述深度图像对应的点云模型和所述已重建的点云模型进行配准,得到多对匹配点对。
在一些实施例中,所述第一属性信息或所述第二属性信息包括以下一种或多种:点云点的法向量、点云点的RGB像素值。
在一些实施例中,在基于所述深度图像对所述目标对象进行三维重建的过程中,所述目标对象的第一侧先于所述目标对象的第二侧重建得到,其中,所述第一侧分布的关键点数量多于所述第二侧分布的关键点数量。
在一些实施例中,所述深度图像包括图像采集装置在绕所述目标对象旋转预定角度的过程中采集得到的多帧深度图像,所述利用所述深度图像对所述目标对象进行三维重建,包括:
以包括所述目标对象的目标侧的深度图像作为三维重建的首帧深度图像,沿着所述图像采集装置的旋转方向依次从所述多帧深度图像获取多帧第一深度图像进行三维重建,得到第一点云模型,其中,所述目标侧分布的关键点多于所述目标对象的其他侧分布的关键点;
沿着所述旋转方向的反方向依次从所述多帧深度图像中获取多帧第二深度图像进行三维重建,得到第二点云模型;
将所述第一点云模型和第二点云模型拼接,得到所述目标对象的点云模型。
在一些实施例中,所述多帧第一深度图像与所述多帧第二深度图像存在重叠帧,相邻两帧所述重叠帧中目标对象的相对姿态基于以下方式确定:
在沿着所述旋转方向依次获取多帧第一深度图像进行三维重建的过程中,确定所述相邻两帧重叠帧之间的第三相对姿态;
在沿着所述反方向依次获取多帧第二深度图像进行三维重建的过程中,确定所述相邻两帧重叠帧之间的第四相对姿态;
基于所述第三相对姿态和所述第四相对姿态得到所述相邻两帧重叠帧中目标对象的相对姿态。
在一些实施例中,所述基于所述第三相对姿态和所述第四相对姿态得到所述相邻两帧重叠帧中目标对象的相对姿态,包括:
确定所述第三相对姿态和/或所述第四相对姿态对应的权重,其中,所述第三相对姿态对应的权重正相关于所述重叠帧与目标帧之间间隔的帧数,所述第四相对位姿对应的权重负相关于所述重叠帧与目标帧之间间隔的帧数,所述目标帧为所述多帧第一深度图像中除所述重叠帧以外的任一帧;
基于所述权重对所述第三相对姿态和所述第四相对姿态进行加权处理,得到所述相邻两帧重叠帧中目标对象的相对姿态。
在一些实施例中,所述基于所述第一相对姿态确定所述第二彩色图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,包括:
基于所述第一彩色图像对应的深度图像确定所述目标对象对应的三维点云模型;
确定所述三维点云模型相对于所述三维网格模型的第五相对姿态;
基于所述第一相对姿态和所述第五相对姿态确定所述第二彩色图像中的目标对象相对于所述三维网格模型的第二相对姿态。
在一些实施例中,所述方法还包括:
基于所述第二相对姿态、以及所述图像采集装置的内参确定将所述三维网格模型投影到所述第二彩色图像的投影参数。
在一些实施例中,所述三维网格模型的各网格顶点与所述目标对象的不同部位绑定,所述方法还包括:
利用所述投影参数确定所述三维网格模型中的各网格顶点与所述第二彩色图像中的像素点的对应关系;
基于所述对应关系确定所述目标对象的各部位在所述第二彩色图像中的位置;
基于所述目标对象的各部位在所述第二彩色图像中的位置对所述目标对象进行特效处理。
在一些实施例中,所述基于所述第二相对姿态、以及所述图像采集装置的内参确定将所述三维网格模型投影到所述第二彩色图像的投影参数,包括:
在图像采集装置采集目标对象的彩色图像的过程中,若所述目标对象与所述图像采集装置的距离变化小于预设距离,则所述投影参数包括采用正交投影的方式将所述三维网格模型投影到所述第二彩色图像中对应的投影参数;
若所述目标对象与所述图像采集装置的距离变化大于预设距离,则所述投影参数包括采用透射投影的方式将所述三维网格模型投影到所述第二彩色图像中对应的投影参数。
根据本公开实施例的第二方面,提供一种目标对象的姿态检测装置,所述装置包括:
获取模块,用于获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,所述彩色图像至少包括第一彩色图像和第二彩色图像;
三维重建模块,用于利用所述深度图像对所述目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态;
相对姿态确定模块,用于基于所述相邻两帧深度图像中的目标对象的相对姿态,确定所述第二彩色图像中的目标对象与所述第一彩色图像中的目标对象的第一相对姿态,以及基于所述第一相对姿态确定所述第二彩色图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,其中,所述三维网格模型基于所述第一彩色图像中提取的目标对象的关键点确定。
根据本公开实施例的第三方面,提供一种电子设备,所述电子设备包括处理器、存储器、存储在所述存储器可供所述处理器执行的计算机指令,所述处理器执行所述计算机指令时,可实现上述第一方面提及的方法。
根据本公开实施例的第四方面, 提供一种计算机可读存储介质,所述存储介质上存储有计算机指令,所述计算机指令被执行时实现上述第一方面提及的方法。
本公开实施例中,可以获取从不同角度采集的目标对象的彩色图像以及彩色图像对应的深度图像,基于深度图像对目标对象进行三维重建,即可以得到任意两帧深度图像中的目标对象之间的相对姿态,然后可以获取其中一帧彩色图像,该彩色图像是可以准确提取目标对象的关键点的图像,利用该彩色图像可以得到目标对象的三维网格模型,通过确定其他彩色图像中的目标对象与这一帧彩色图像中的目标对象的相对姿态,即可以确定其他彩色图像中的目标对象相对于该三维网格模型的姿态,进而可以利用确定的姿态进行后续的业务处理和应用。通过本公开实施例提供的方法,针对一些无法准确提取关键点的目标对象的彩色图像,也可以准确地确定出彩色图像中目标对象相对于目标对象的三维网格模型的姿态。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1是本公开实施例的一种人脸姿态的示意图。
图2(a)是本公开实施例的一种目标对象的姿态检测方法的流程图。
图2(b)是本公开实施例的三维重建得到的人脸三维模型的效果图。
图3是本公开实施例的一种基于深度图像对目标对象进行三维重建的示意图。
图4是本公开实施例的一种人脸姿态检测方法的示意图。
图5是本公开实施例的一种利用深度图像进行三维重建的示意图。
图6是本公开实施例的一种目标对象的姿态检测装置的逻辑结构示意图。
图7是本公开实施例的一种设备的逻辑结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
为了使本技术领域的人员更好的理解本公开实施例中的技术方案,并使本公开实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本公开实施例中的技术方案作进一步详细的说明。
对目标对象进行姿态估计广泛应用于各种场景中,以人脸估计为例,在人脸识别场景中,为了保证识别结果的准确性,可以先通过人脸姿态估计筛选出符合条件的人脸图像(比如,正脸图像),或者在一些需要以人脸朝向作为重要判定依据的场景,也需要对人脸图像中的人脸进行姿态估计,比如,在安全驾驶的检测场景中,需要基于采集的驾驶员的人脸图像判定驾驶员是否在左顾右盼等。
对目标对象进行姿态估计可以是估计目标对象相对于某个参考基准的朝向或姿态,进而基于估计结果进行后续的业务处理。比如,如图1所示,可以以图像采集装置作为参考基准,确定目标对象(如图1中的人脸)相对于图像采集装置的姿态,该相对姿态可以利用欧拉角(即在X轴、Y轴、Z轴的旋转角度)表示。
当然,实际使用中,可以基于实际需求选取目标对象姿态的参考基准。比如,为了方便利用所确定的姿态进行后续的业务处理和应用,在对图像中的目标对象进行姿态估计时,也可以从目标对象的图像中提取出关键点,基于关键点拟合得到目标对象的三维网格模型,然后可以以该三维网格模型作为参考基准,确定图像中的目标对象相对于该三维网格模型的姿态。其中,三维网格模型可以是一个标准化的模型,模型中各网格点的连接关系确定,且模型中各网格点与目标对象的各个部位也是绑定的,通过确定图像中的目标对象相对于该三维网格模型的姿态,可以很好地利用三维网格模型中的拓扑关系和其他信息。
举个例子,由于三维网格模型中各网格顶点与目标对象的各个部位是绑定的,在确定图像中的目标对象与三维网格模型的相对姿态后,结合图像的内参,即可以确定将三维网格模型中的各网格顶点投影到图像后,在图像中的对应像素点,进而可以确定目标对象各个部位在图像中的位置,以便进行后续的应用。
但是,由于上述姿态估计方法需要提取图像中目标对象的关键点,基于关键点拟合目标对象的三维网格模型,进而才能确定图像中的目标对象相对于三维网格模型的姿态。因而,对于图像中包含关键点较多的情况,可以准确拟合三维网格模型并估计目标对象相对于三维网格模型的姿态,但是对于图像中关键点较少的情况,由于无法准确拟合得到三维网格模型,则姿态估计得到的结果误差很大。比如,以人脸姿态估计为例,如果拍摄到的是旋转角度较小的人脸(比如,正脸),则可以准确拟合得到人脸网格模型,并确定图像中的人脸相对于人脸网格模型的姿态。但是,如果拍摄到的是旋转角度较大的人脸,或者是背对镜头的场景,这种情况下由于可提取到的关键点数量很少,采用上述方法确定的人脸姿态则存在很大误差。
基于此,本公开实施例提供了一种目标对象的姿态检测方法,可以获取从不同角度采集的目标对象的彩色图像以及彩色图像对应的深度图像,基于深度图像对目标对象进行三维重建,即可以得到任意两帧深度图像(或彩色图像)中的目标对象之间的相对姿态,然后可以获取其中一帧彩色图像,该彩色图像是可以准确提取目标对象的关键点的图像,利用该彩色图像可以得到目标对象的三维网格模型,通过确定其他彩色图像中的目标对象与这一帧彩色图像中的目标对象的相对姿态,即可以确定其他彩色图像中的目标对象相对于该三维网格模型的姿态,进而可以利用确定的姿态进行后续的业务处理和应用。通过本公开实施例提供的方法,针对一些无法准确提取关键点的目标对象的彩色图像,也可以准确地确定出彩色图像中目标对象相对于目标对象的三维网格模型的姿态。
本公开实施例提供的目标对象的姿态检测方法可以通过各种电子设备执行,比如,可以是手机、笔记本电脑、平板、云端服务器或者服务器集群等等,本公开实施例不作限制。
本公开实施例中的目标对象可以是各种需要确定其姿态的对象,比如,可以是人脸、肢体或者人体的其他部位,也可以是其他与物体相关的标识物、标志物等各种对象,本公开实施不作限制。
具体的,本公开实施例中的目标对象的姿态检测方法如图2(a)所示,可包括以下步骤:
S202、获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,所述彩色图像至少包括第一彩色图像和第二彩色图像;
在步骤S202中,可以获取从不同角度采集的目标对象的彩色图像以及每帧彩色图像对应的深度图像。彩色图像对应的深度图像是指深度图像与该彩色图像在同一角度采集得到。深度图像可以通过各类深度传感器采集得到,比如,可以通过深度相机、激光雷达等等。在一些实施例中,可以通过RGBD相机从不同角度对目标对象进行图像采集,同时得到目标对象在不同角度下的彩色图像和深度图像(即RGBD图像)。
彩色图像中至少包括一帧或多帧第一彩色图像,以及一帧或多帧第二彩色图像,当然,还可以包括除第一彩色图像和第二彩色图像以外的其他彩色图像。第一彩色图像可以是图像采集装置从指定角度采集的目标对象的图像,指定角度是可以拍摄到目标对象关键点分布较多的一侧的角度(比如,可以拍摄到人脸正脸的角度),从指定角度采集的目标对象的彩色图像中可以准确提取到较多的关键点。第二彩色图像可以是从不同于该指定角度的其他角度采集到的图像,比如,可以是从目标对象关键点分布较少的一侧采集得到的图像(比如,侧脸图像或者后脑勺图像)。
在一些实施例中,图像采集装置可以是RGBD相机,可以控制RGBD相机从不同角度对目标对象进行图像采集,比如,可以控制RGBD相机绕着目标对象旋转预定的角度(比如,360°),在旋转过程中采集多帧RGBD图像,以得到不同角度下的目标对象的彩色图像以及各彩色图像对应的深度图像。其中,相邻的两帧RGBD图像中存在重叠区域,以便可以基于重叠区域对相邻两帧深度图像进行配准,实现三维重建。
S202、利用所述深度图像对所述目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像之间的相对姿态;
在步骤S202中,可以获取不同角度采集的目标对象的彩色图像对应的深度图像,利用该深度图像对目标对象进行三维重建。其中,该深度图像中包括第一彩色图像对应的深度图像,以及第二彩色图像对应的深度图像,当然,也还可以包括其他的深度图像。由于这些深度图像从目标对象的不同角度采集得到,即这些深度图像的坐标系不一样,因而在利用这些深度图像进行三维重建的过程中,需要统一这些深度图像之间的坐标系,确定采集相邻两帧深度图像时相机的位置变换关系(也就是相邻两帧深度图像中目标对象的相对位姿),进而可以基于该变换关系将多帧深度图像对应的点云模型融合。从而不仅可以得到目标对象的三维重建结果,还可以确定三维重建过程中相邻两帧深度图像各自对应的彩色图像中目标对象的相对姿态。如图2(b)所示,为对多帧从不角度采集得到的人脸深度图像进行重建得到人脸三维模型的效果图。
在一些实施例中,利用深度图像对目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态时,可以获取从不同角度采集的目标对象的深度图像,针对所获取的任一深度图像,可以先确定该深度图像对应的点云模型,将该深度图像对应的点云模型与已重建的点云模型进行配准,确定两个点云模型中表示三维空间中同一个三维点的点对,从而得到多对匹配点对。由于这些深度图像中的相邻两帧深度图像之间存在重叠区域,而已重建的点云模型中已融合了该深度图像的上一帧深度图像对应的点云模型,因而,可以对该深度图像对应的点云模型与已重建的点云模型进行配准,在两个点云模型中找出重叠区域对应的三维点对,即得到多对匹配点对。
在得到该多对匹配点对后,可以利用该多对匹配点对确定该深度图像中的目标对象与该深度图像的上一帧深度图像中的目标对象的相对姿态,进而可以确定任意相邻的两帧深度图像中目标对象的相对姿态。在对两组点云数据进行配准时,可以采用ICP(Iterative Closest Point, 迭代最近点算法)算法或具有类似功能的算法,本公开实施例不作限制。
在一些实施例中,为了使得配准结果更加准确,可以先对该深度图像进行去噪处理(比如,进行双边滤波以去除图像中的噪声),然后再基于去噪后的深度图像得到对应的点云模型,从而可以避免噪声的影响,得到更加准确的配准结果。
在一些实施例中,在将深度图像对应的点云与已重建的点云模型进行配准,确定多对匹配点对时,由于这些匹配点对表征三维空间中的同一个点,因而其属性信息相似程度较高。所以,可以基于两个点云模型中点云点的属性信息进行配准,找出属性信息相似程度较高的点对,作为匹配点对。比如,可以确定该深度图像对应的点云模型中的各点云点的第一属性信息,以及已重建的点云模型中各点云点的第二属性信息,根据第一属性信息与第二属性信息,对该深度图像对应的点云模型和已重建的点云模型进行配准,得到多对匹配点对。
在一些实施例中,第一属性信息或第二属性信息可以是各点云点的法向量、各点云点的RGB像素值等。其中,针对已重建的点云模型,可以利用Marching Cube算法获取各点云点的属性信息。
在一些实施例中,在确定三维重建过程中相邻两帧深度图像之间的相对姿态后,可以基于所确定的相对姿态,将当前帧深度图像对应的点云模型融合至已重建的点云模型中,对已重建的点云模型进行更新,然后再利用更新后的点云模型与下一帧深度图像进行配准,确定下一帧深度图像与该帧深度图像中目标对象的相对姿态。由于已重建的点云模型除了包括当前帧深度图像的信息,还融合了之前多帧深度图像的信息,从已重建的点云模型中提取的各点云点的属性信息也会更加准确,进而在与下一帧深度图像进行配准时,得到的配准结果也会更加准确,即确定的相邻两帧深度图像中目标对象的相对姿态也会更加准确。
当然,由于三维重建过程中,是逐帧深度图像依次重建,误差是逐渐累积的,越往后重建误差越大。而在对目标对象进行三维重建的过程中,通常希望目标对象关键点分布较多的位置重建结果误差尽可能小,以保证其准确性,而对于关键点分布较少的位置,对重建误差要求不那么严格。所以,在一些实施例中,在基于深度图像对目标对象进行三维重建的过程中,目标对象的第一侧先于目标对象的第二侧重建得到,其中,第一侧包含的关键点数量多于第二侧包含的关键点数量。比如,以目标对象为人脸为例,通常正脸位置包含的关键点较多,也是用户比较关注的区域,而后脑勺位置基本不存在关键点,对这个部位的重建结果的精细程度要求也不高,所以,在重建过程中,可以先获取正脸位置的图像,对正脸进行重建,然后再重建后脑勺位置,以保证正脸位置重建结果的精度。
在一些实施例中,获取的深度图像可以是图像采集装置在绕目标对象旋转预定角度的过程中采集得到的多帧深度图像,相邻两帧深度图像存在重叠区域。比如,可以控制图像采集装置绕目标对象旋转360°,旋转过程中按一定的时间间隔采集得到多帧图像,这多帧深度图像中的相邻两帧可以是连续采集得到,也可以间隔若干帧,只要相邻两帧图像之间存在一定的重叠区域即可。
如图3所示,在基于采集得到的多帧深度图像对目标对象进行三维重建时,为了保证目标对象关键点分布较多的位置重建结果的精度,可以包括目标对象的目标侧到的深度图像作为三维重建的首帧深度图像(即图像采集装置正对目标对象的目标侧采集得到的深度图像),其中,目标侧的关键点多于目标对象的其他侧的关键点,即目标侧为目标对象关键点分布最多的一侧。然后可以沿着图像采集装置的旋转方向依次获取采集得到的多帧深度图像(以下称为第一深度图像)进行三维重建,得到第一点云模型,并且沿着该旋转方向的反方向依次获取采集得到的多帧深度图像(以下称为第二深度图像)进行三维重建,得到第二点云模型,然后将分别沿着两个方向重建得到的第一点云模型和第二点云模型拼接,得到目标对象最终的点云模型。以人脸为例,可以以垂直人脸采集的正脸图像作为三维重建首帧图像,然后分别从左右两侧往后脑勺的位置重建,以保证人脸位置的重建结果的精度。
当然,由于沿着图像采集装置的旋转方向依次获取采集的深度图像进行三维重建的过程中误差在累积,而沿着旋转方向的反方向获取采集的深度图像进行三维重建的过程中误差也在累积,因而会导致在目标侧的对侧位置的误差较大。为了保证沿着两个方向分别重建得到的点云模型在拼接处可以平滑过渡,在一些实施例中,沿着旋转方向获取的多帧第一深度图像与沿着旋转方向的反方向获取的多帧第二深度图像中存在重叠帧。对于重叠帧,在确定相邻两帧的重叠帧中目标对象的相对姿态时,可以通过插值的方式得到,以保证平滑过渡。比如,在沿着旋转方向依次获取多帧第一深度图像进行三维重建的过程中,可以确定相邻两帧重叠帧之间的第三相对姿态,在沿着旋转方向的反方向依次获取多帧第二深度图像进行三维重建的过程中,可以确定相邻两帧重叠帧之间的第四相对姿态,然后可以基于第三相对姿态和第四相对姿态得到相邻两帧重叠帧中目标对象的相对姿态。
在一些实施例中,在基于第三相对姿态和第四相对姿态得到相邻两帧重叠帧中目标对象的相对姿态时,可以确定第三相对位姿和/或第四相对位姿对应的权重,其中,当该重叠帧与目标帧之间间隔的帧数越少,则第三相对位姿对应的权重越大,第四相对位姿对应的权重越小,其中,目标帧可以是多帧第一深度图像中除重叠帧以外的任一帧。举个例子,假设沿着图像采集装置在旋转360°过程中获取的深度图像的帧号为1-400帧,可以沿着旋转方向依次获取1-210帧第一深度图像进行三维重建,得到重叠的200-210帧中相邻帧的第三相对姿态,的同时沿着旋转方向的反方向依次获取200-400帧第二深度图像进行三维重建,得到重叠的200-210帧中相邻帧的第四相对姿态。其中,重叠帧与第199帧越靠近,则第三相对姿态对应的权重越大,第四相对姿态对应的权重越小。然后可以基于该权重对第三相对位姿和第四相对位姿进行加权处理,得到相邻两帧重叠帧的相对位姿。通过对拼接处的深度图像之间的相对姿态进行插值处理,可以保证沿着两个方向重建的点云模型在拼接处平滑过渡。
S204、基于三维重建过程中相邻两帧深度图像之间的相对姿态,确定所述第二彩色图像中的目标对象与所述第一彩色图像中的目标对象的第一相对姿态;
在三维重建过程中,可以确定任意相邻的两帧深度图像之间的相对姿态,从而可以得到任意两帧深度图像或深度图像对应的彩色图像中目标对象的相对姿态。进一步地,在步骤S204中,也可以得到第二彩色图像中的目标对象与所述第一彩色图像中的目标对象的相对姿态,以下称为第一相对姿态。
S208、基于所述第一相对姿态确定所述第二深度图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,其中,所述三维模型网格模型基于所述第一彩色图像中提取的目标对象的关键点确定。
在确定图像中目标对象的姿态时,为了方便确定的姿态的后续应用,通常会确定图像中的目标对象相对于目标对象的三维网格模型的姿态。其中,三维网格模型可以是标准化的模型,该模型中各网格点的连接关系固定,各网格点与目标对象各个部位的对应关系也是确定的,比如,一人脸网格模型为例,模型中编号为1的网格点可能对应于眼角位置,编号为8的网格点对应于嘴角位置,这些对应关系是已知的。确定图像中目标对象相对于该三维网格模型的姿态,可以更好的利用该三维网格模型的拓扑关系。
目标对象的三维网格模型的构建需要借助于图像中目标对象的关键点,关键点的分布越多,构建的目标对象的三维网格模型也越准确。由于第一彩色图像中包括目标对象关键点分布较多的一侧,从第一彩色图像中可以准确提取到较多的目标对象的关键点,所以可以利用第一彩色图像确定目标对象的三维网格模型。可以从第一彩色图像中提取的目标对象的关键点,基于这些关键点确定目标对象的三维网格模型。
在一些实施例中,在基于第一彩色图像中提取的目标对象的关键点确定目标对象的三维网格模型时,可以先从第一彩色图像中提取出目标对象的关键点,关键点可以是图像中像素变化较大的点,比如,可以是轮廓点、边缘点、角点等。以人脸图像为例,关键点可以包含106或240或282个人脸关键点,当然也可以包括其他数目的人脸关键点。然后可以基于关键点和预设的标准网格模型拟合得到目标对象的三维网格模型。比如,可以从模板库中获取标准的三维网格模型模板,基于提取到的关键点的位置调整三维网格模型模板中各网格点的位置,从而拟合得到目标对象的三维网格模型。
在一些实施例中,为了确保确定的三维网格模型比较准确,从第一彩色图像中提取的关键点的数量可以不小于预设数量阈值,以确保可以利用足够多的关键点进行拟合,得到准确的三维网格模型。其中,预设数量阈值可以基于目标对象的目标侧分布的关键点的数量确定,其中,目标侧分布的关键点数量大于目标对象的其他侧分布的关键点数量,即目标侧可以是目标对象关键点分布最多的一侧。比如,第一彩色图像可以是正对目标对象关键点分布最多的一侧采集到的图像,或者是目标对象关键点分布最多的一侧相对于图像采集装置的旋转角度小于一定角度时采集的图像。以人脸为例,可以正脸图像,或者人脸旋转角度小于一定角度的图像。预设数量阈值可以是基于目标侧分布的关键点数量确定,举个例子,以人脸为例,分布关键点最多的目标侧为正脸,正脸的关键点数量例如为106个,因而,可以基于正脸关键点的数量确定预设数量阈值,比如,可以取100个或90个,保证最终拟合得到的三维网格模型不会偏差太大。
由于三维网格模型是基于第一彩色图像构建得到,第一彩色图像中的目标对象相对于三维网格模型的姿态是可以确定的。进而,在确定第二彩色图像中的目标对象相对于第一彩色图像中的目标对象的第一相对姿态后,可以基于该第一相对位姿确定第二彩色图像中的目标对象相对于三维网格模型的第二相对姿态。
在一些实施例中,可以先基于该第一彩色图像对应的深度图像确定第一彩色图像中的目标对象对应的三维点云模型,然后确定该三维点云模型相对于三维网格模型的第五相对姿态,以将三维点云模型和三维网格模型对齐,第五相对姿态即为第一彩色图像中的目标对象相对于三维网格模型的姿态。进而,可以根据三维重建过程中的第一相对姿态和该第五相对姿态确定第二彩色图像中的目标对象相对于三维网格模型的第二相对姿态。
当然,三维网格模型是一个三维的模型,在一些场景中,需要确定将三维网格模型投影到各彩色图像中的投影参数,便于后续的应用。所以,在一些实施例中,在确定第二相对姿态后,可以进一步基于图像采集装置的内参数以及该第二相对姿态确定将三维网格模型投影到第二彩色图像中的投影参数。通常,将一个三维物体投影到二维图像中,需要确定外参矩阵和内参矩阵,确定的第二彩色图像中的目标对象相对于三维网格模型的第二相对姿态,即为外参矩阵,进而可以根据图像采集装置的内参确定内参矩阵,从而可以得到将三维网格模型投影到第二彩色图像中的投影参数。
在一些实施例中,在将三维网格模型投影到第二彩色图像中,以确定投影参数时,可以基于图像采集过程中,目标对象与图像采集装置的距离变化确定投影方式。如果目标对象与图像采集装置的距离变化小于预设距离,则可以采用正交投影的方式,正交投影的计算量小,并且在距离变化较小的场景也能得到较为准确的投影结果。如果目标对象与图像采集装置的距离变化大于预设距离,则可以采用透视投影的方式,透视投影的计算量相比于正交投影较大,但是对于距离变化较大的情况下,透视投影结果会更为准确。
由于三维网格模型的各网格顶点与目标对象的不同部位是预先绑定的,即三维网格模型中的每个网格点对应于目标对象的哪个部位是已知的。所以,在一些实施例中,在确定投影参数后,可以利用该投影参数确定三维网格模型中的各网格顶点与第二彩色图像中的像素点的对应关系,然后可以基于对应关系确定目标对象的各部位在第二彩色图像中的位置,进而可以基于该目标对象的各部位在第二彩色图像中的位置对目标对象进行特效处理。比如,举个例子,假设目标对象为人脸,三维网格模型中第1-100个网格顶点表示的是眼睛,因而可以根据投影参数,将这1-100个网格顶点的三维坐标投影到第二彩色图像中,确定对应的像素点,这些像素点表示的即为眼睛。在确定了第二彩色图像中眼睛的位置以后,即可以进行一些后续特效处理,比如,在图像中眼睛位置加一幅眼镜等。
为了进一步解释本公开实施例提供的目标对象姿态估计方法,以下结合一个具体的实施例加以解释。
人脸姿态估计广泛应用于各种场景。目前在进行人脸姿态估计时,通常是从人脸图像中提取出关键点,然后利用提取的关键点拟合得到标准的人脸网格模型,
这种方法对于人脸角度旋转较小,即图像中可以准确提取人脸关键点的场景比较适用,对于人脸旋转角度较大或者背对镜头时,由于提取的关键点信息不再可靠,无法再通过这种方法得到准确的人脸姿态。
基于此,本实施例提供了一种人脸姿态检测方法,可以控制图像采集装置绕人脸旋转360°,在旋转过程中获取不同角度下的人脸的RGBD图像,基于RGBD图像中的深度图像对人脸进行三维重建,从而可以得到任意两帧深度图像(即任意两帧彩色图像)中的目标对象的相对姿态。然后可以基于正脸的彩色图像确定人脸网格模型,基于其他彩色图像与正脸彩色图像的相对姿态确定其他彩色图像中的目标对象相对于人脸网格模型的相对姿态。如图4所示,该人脸姿态检测方法包括以下过程;
1、以正对人脸作为起始位置,控制图像采集装置绕人脸旋转360°的过程中,获取多帧RGBD图像(即彩色图像和彩色图像对应的深度图像),其中,首/尾帧图像均为正脸图像,图像采集过程中人脸无非刚性运动。
2、利用首/尾帧彩色图像确定人脸网格模型。
从首/尾帧彩色图像中提取106个人脸关键点,利用提取的关键点和预设的人脸网格模板拟合得到人脸网格模型。
3、利用深度图像进行三维重建,确定相邻两帧彩色图像中的目标对象的相对姿态。由于三维重建过程中,误差会累积,为了让误差尽可能累积在不明显的后脑勺位置,可以从正脸开始,分别从左右两侧向后脑勺的位置重建,在后脑勺附近可以预留若干帧深度图像,这若干帧深度图像可以同时参与两个方向的重建,并利用两个方向重建确定的相对姿态做插值处理,得到这若干帧相邻两帧的相对姿态,从而可以使得两个方向重建得到的点云模型在拼接时,拼接处可以平滑过渡。
三维重建过程如图5所示,具体如下:
依次获取深度图像,针对每一帧深度图像,都按以下方式进行三维重建:
(1)首先对输入的当前帧深度图像做预处理,使用双边滤波去噪,生成当前帧深度图像对应的点云,以及各点云点的法向量;
(2)基于当前帧深度图像各点云点的法向量,以及已重建的点云模型(利用当前帧之前的深度图像重建得到)中各点云点的法向量,通过ICP算法对当前帧的点云和已重建的点云模型做对齐处理,得到当前帧深度图像与上一帧深度图像中目标对象的相对姿态;
(3)利用上一步确定的相对姿态,将当前帧的点云融合到已重建的点云模型当中,对已重建的点云模型进行更新;
(4)通过 Marching Cube算法确定更新后的已重建点云模型中各点云点的法向量,作为下一次利用ICP算法对已重建点云模型和深度图像进行对齐时的输入。
(5)对从两个方向重建得到点云模型的连接处进行平滑处理。
在后脑勺附近的位置,可以增加k帧深度图像作为平滑区间(k=10-20),这k帧深度图像可以同时参与两个方向的重建。比如,假设一共采集了400帧人脸图像,可以从正脸位置开始按照图像采集装置旋转方向依次获0-210 帧深度图像进行三维重建,确定相邻两帧深度图像中目标对象的相对姿态, 从正脸位置按照图像采集装置旋转方向的反方向依次获取400-200帧深度图像进行三维重建,得到相邻两帧深度图像中目标对象的相对姿态。针对200-210 帧深度图像之间相对姿态,可以由两种方向重建确定相对姿态插值得到,插值方法如下:
首先,可以按照帧的位置计算每个方向重建确定的相对姿态对应的权重,具体公式如下:
Figure 602139DEST_PATH_IMAGE001
y2 =1–y1
其中,y1表示按照旋转方向进行三维重建确定的相对姿态对应的权重,y2表示按照旋转方向的反方向进行三维重建确定的相对姿态对应的权重,overlapframei 为当前帧在重叠帧中的序号,k表示重叠帧的数量。
相邻两帧深度图像中目标对象的相对姿态包括旋转矩阵和平移矩阵,对于旋转矩阵,可以先将旋转矩阵转成四元数,再做插值处理,然后把插值处理得到的四元数转为旋转矩阵。对于平移矩阵,则直接做插值处理。
4、将首/尾帧正脸彩色图像中目标对象的姿态和人脸网格模型对齐。
可以基于首/尾帧正脸彩色图像对应的深度图像重建得到三维点云模型,然后将重建得到的三维点云模型和人脸网格模型对齐,确定首帧正脸彩色图像中的目标对象与人脸网格模型的相对姿态。
基于其他彩色图像中的目标对象和首帧彩色图像中的目标对象的相对姿态,以及首帧正脸彩色图像中的目标对象与人脸网格模型的相对姿态,即可以确定其他彩色图像中的目标对象相对于人脸网格模型的相对姿态。通过这种方式,对于无法准确提取关键点的人脸图像,也可以确定其相对于人脸网格模型的姿态。
相应的,本公开实施例还提供了一种目标对象的姿态检测装置,如图6所示,所述装置60包括:
获取模块61,用于获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,所述彩色图像至少包括第一彩色图像和第二彩色图像;
三维重建模块62,用于利用所述深度图像对所述目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态;
相对姿态确定模块63,用于基于所述相邻两帧深度图像中的目标对象的相对姿态,确定所述第二彩色图像中的目标对象与所述第一彩色图像中的目标对象的第一相对姿态,以及基于所述第一相对姿态确定所述第二彩色图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,其中,所述三维网格模型基于所述第一彩色图像中提取的目标对象的关键点确定。
进一步的,本公开实施例还提供一种设备,如图7所示,所述设备70包括处理器71、存储器72、存储于所述存储器72可供所述处理器71执行的计算机指令,所述处理器71执行所述计算机指令时实现上述实施例中任一项所述的方法。
本公开涉及增强现实领域,通过获取现实环境中的目标对象的图像信息,进而借助各类视觉相关算法实现对目标对象的相关特征、状态及属性进行检测或识别处理,从而得到与具体应用匹配的虚拟与现实相结合的AR效果。示例性的,目标对象可涉及与人体相关的脸部、肢体、手势、动作等,或者与物体相关的标识物、标志物,或者与场馆或场所相关的沙盘、展示区域或展示物品等。视觉相关算法可涉及视觉定位、SLAM、三维重建、图像注册、背景分割、对象的关键点提取及跟踪、对象的位姿或深度检测等。具体应用不仅可以涉及跟真实场景或物品相关的导览、导航、讲解、重建、虚拟效果叠加展示等交互场景,还可以涉及与人相关的特效处理,比如,妆容美化、肢体美化、特效展示、虚拟模型展示等交互场景。可通过卷积神经网络,实现对目标对象的相关特征、状态及属性进行检测或识别处理。上述卷积神经网络是基于深度学习框架进行模型训练而得到的网络模型。
本公开实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前述任一实施例所述的方法。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本说明书实施例可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本说明书实施例各个实施例或者实施例的某些部分所述的方法。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,在实施本说明书实施例方案时可以把各模块的功能在同一个或多个软件和/或硬件中实现。也可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本说明书实施例的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本说明书实施例原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本说明书实施例的保护范围。

Claims (19)

1.一种目标对象的姿态检测方法,其特征在于,所述方法包括:
获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,所述彩色图像至少包括第一彩色图像和第二彩色图像;
利用所述深度图像对所述目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态;
基于所述相邻两帧深度图像中的目标对象的相对姿态,确定所述第二彩色图像中的目标对象与所述第一彩色图像中的目标对象的第一相对姿态;
基于所述第一相对姿态确定所述第二彩色图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,其中,所述三维网格模型基于所述第一彩色图像中提取的目标对象的关键点确定。
2.根据权利要求1所述的方法,其特征在于,获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,包括:
获取图像采集装置从不同角度采集得到的多帧RGBD图像,其中,相邻两帧RGBD图像中存在重叠区域。
3.根据权利要求1或2所述的方法,其特征在于,所述三维网格模型基于所述第一彩色图像中提取的目标对象的关键点确定,包括:
从所述第一彩色图像中提取所述目标对象的关键点;
基于所述关键点和预设的标准三维网格模型拟合得到所述目标对象的三维网格模型。
4.根据权利要求1或2所述的方法,其特征在于,从所述第一彩色图像中提取的目标对象的关键点数量不小于预设数量阈值,所述预设数量阈值基于所述目标对象的目标侧分布的关键点的数量确定,所述目标侧分布的关键点数量大于所述目标对象的其他侧分布的关键点数量。
5.根据权利要求1所述的方法,其特征在于,所述利用所述深度图像对目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态,包括:
获取所述深度图像;
针对所获取的任一深度图像,分别执行以下操作:
将所述深度图像对应的点云模型与已重建的点云模型进行配准,得到多对匹配点对;
基于所述多对匹配点对确定所述深度图像中的目标对象与所述深度图像的上一帧深度图像中的目标对象的相对姿态。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
基于所述深度图像中的目标对象与所述深度图像的上一帧深度图像中的目标对象的相对姿态,将所述深度图像对应的点云模型融合到所述已重建的点云模型中,更新所述已重建的点云模型。
7.根据权利要求5或6所述的方法,其特征在于,所述将所述深度图像对应的点云模型与已重建的点云模型进行配准,得到多对匹配点对,包括:
确定所述深度图像对应的点云模型中的各点云点的第一属性信息,以及所述已重建的点云模型中各点云点的第二属性信息;
基于所述第一属性信息与所述第二属性信息,对所述深度图像对应的点云模型和所述已重建的点云模型进行配准,得到多对匹配点对。
8.根据权利要求7所述的方法,其特征在于,所述第一属性信息或所述第二属性信息包括以下一种或多种:点云点的法向量、点云点的RGB像素值。
9.根据权利要求1或2所述的方法,其特征在于,在基于所述深度图像对所述目标对象进行三维重建的过程中,所述目标对象的第一侧先于所述目标对象的第二侧重建得到,其中,所述第一侧分布的关键点数量多于所述第二侧分布的关键点数量。
10.根据权利要求1或2所述的方法,其特征在于,所述深度图像包括图像采集装置在绕所述目标对象旋转预定角度的过程中采集得到的多帧深度图像,所述利用所述深度图像对所述目标对象进行三维重建,包括:
以包括所述目标对象的目标侧的深度图像作为三维重建的首帧深度图像,沿着所述图像采集装置的旋转方向依次从所述多帧深度图像获取多帧第一深度图像进行三维重建,得到第一点云模型,其中,所述目标侧分布的关键点多于所述目标对象的其他侧分布的关键点;
沿着所述旋转方向的反方向依次从所述多帧深度图像中获取多帧第二深度图像进行三维重建,得到第二点云模型;
将所述第一点云模型和第二点云模型拼接,得到所述目标对象的点云模型。
11.根据权利要求10所述的方法,其特征在于,所述多帧第一深度图像与所述多帧第二深度图像存在重叠帧,相邻两帧所述重叠帧中目标对象的相对姿态基于以下方式确定:
在沿着所述旋转方向依次获取多帧第一深度图像进行三维重建的过程中,确定所述相邻两帧重叠帧之间的第三相对姿态;
在沿着所述反方向依次获取多帧第二深度图像进行三维重建的过程中,确定所述相邻两帧重叠帧之间的第四相对姿态;
基于所述第三相对姿态和所述第四相对姿态得到所述相邻两帧重叠帧中目标对象的相对姿态。
12.根据权利要求11所述的方法,其特征在于,所述基于所述第三相对姿态和所述第四相对姿态得到所述相邻两帧重叠帧中目标对象的相对姿态,包括:
确定所述第三相对姿态和/或所述第四相对姿态对应的权重,其中,所述第三相对姿态对应的权重正相关于所述重叠帧与目标帧之间间隔的帧数,所述第四相对位姿对应的权重负相关于所述重叠帧与目标帧之间间隔的帧数,所述目标帧为所述多帧第一深度图像中除所述重叠帧以外的任一帧;
基于所述权重对所述第三相对姿态和所述第四相对姿态进行加权处理,得到所述相邻两帧重叠帧中目标对象的相对姿态。
13.根据权利要求1或2所述的方法,其特征在于,所述基于所述第一相对姿态确定所述第二彩色图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,包括:
基于所述第一彩色图像对应的深度图像确定所述目标对象对应的三维点云模型;
确定所述三维点云模型相对于所述三维网格模型的第五相对姿态;
基于所述第一相对姿态和所述第五相对姿态确定所述第二彩色图像中的目标对象相对于所述三维网格模型的第二相对姿态。
14.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于所述第二相对姿态、以及所述图像采集装置的内参确定将所述三维网格模型投影到所述第二彩色图像的投影参数。
15.根据权利要求14所述的方法,其特征在于,所述基于所述第二相对姿态、以及所述图像采集装置的内参确定将所述三维网格模型投影到所述第二彩色图像的投影参数,包括:
在图像采集装置采集目标对象的彩色图像的过程中,若所述目标对象与所述图像采集装置的距离变化小于预设距离,则所述投影参数包括采用正交投影的方式将所述三维网格模型投影到所述第二彩色图像中对应的投影参数;
若所述目标对象与所述图像采集装置的距离变化大于预设距离,则所述投影参数包括采用透射投影的方式将所述三维网格模型投影到所述第二彩色图像中对应的投影参数。
16.根据权利要求14或15所述的方法,其特征在于,所述三维网格模型的各网格顶点与所述目标对象的不同部位绑定,所述方法还包括:
利用所述投影参数确定所述三维网格模型中的各网格顶点与所述第二彩色图像中的像素点的对应关系;
基于所述对应关系确定所述目标对象的各部位在所述第二彩色图像中的位置;
基于所述目标对象的各部位在所述第二彩色图像中的位置对所述目标对象进行特效处理。
17.一种目标对象的姿态检测装置,其特征在于,所述装置包括:
获取模块,用于获取从不同角度采集的目标对象的彩色图像以及所述彩色图像对应的深度图像,所述彩色图像至少包括第一彩色图像和第二彩色图像;
三维重建模块,用于利用所述深度图像对所述目标对象进行三维重建,得到三维重建过程中相邻两帧深度图像中的目标对象的相对姿态;
相对姿态确定模块,用于基于所述相邻两帧深度图像中的目标对象的相对姿态,确定所述第二彩色图像中的目标对象与所述第一彩色图像中的目标对象的第一相对姿态,以及基于所述第一相对姿态确定所述第二彩色图像中的目标对象相对于目标对象的三维网格模型的第二相对姿态,其中,所述三维网格模型基于所述第一彩色图像中提取的目标对象的关键点确定。
18.一种设备,其特征在于,所述设备包括处理器、存储器、存储于所述存储器可供所述处理器执行的计算机指令,所述处理器执行所述计算机指令时实现如权利要求1-16任一项所述的方法。
19.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被执行时实现如权利要求1-16任一项所述的方法。
CN202111237957.4A 2021-10-25 2021-10-25 目标对象的姿态检测方法、装置、设备及存储介质 Active CN113689503B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111237957.4A CN113689503B (zh) 2021-10-25 2021-10-25 目标对象的姿态检测方法、装置、设备及存储介质
PCT/CN2022/124802 WO2023071790A1 (zh) 2021-10-25 2022-10-12 目标对象的姿态检测方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111237957.4A CN113689503B (zh) 2021-10-25 2021-10-25 目标对象的姿态检测方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113689503A true CN113689503A (zh) 2021-11-23
CN113689503B CN113689503B (zh) 2022-02-25

Family

ID=78587804

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111237957.4A Active CN113689503B (zh) 2021-10-25 2021-10-25 目标对象的姿态检测方法、装置、设备及存储介质

Country Status (2)

Country Link
CN (1) CN113689503B (zh)
WO (1) WO2023071790A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071790A1 (zh) * 2021-10-25 2023-05-04 上海商汤智能科技有限公司 目标对象的姿态检测方法、装置、设备及存储介质
WO2023103145A1 (zh) * 2021-12-09 2023-06-15 东软睿驰汽车技术(沈阳)有限公司 一种头部姿势真值的获取方法、装置、设备及存储介质
WO2023155532A1 (zh) * 2022-02-17 2023-08-24 上海商汤智能科技有限公司 位姿检测方法及装置、电子设备和存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116935495B (zh) * 2023-09-18 2024-01-05 深圳中宝新材科技有限公司 一种智能键合金丝裁切过程用户姿态检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833270A (zh) * 2017-09-28 2018-03-23 浙江大学 基于深度相机的实时物体三维重建方法
US20180211399A1 (en) * 2017-01-26 2018-07-26 Samsung Electronics Co., Ltd. Modeling method and apparatus using three-dimensional (3d) point cloud
CN108805979A (zh) * 2018-02-05 2018-11-13 清华-伯克利深圳学院筹备办公室 一种动态模型三维重建方法、装置、设备和存储介质
CN109584362A (zh) * 2018-12-14 2019-04-05 北京市商汤科技开发有限公司 三维模型构建方法及装置、电子设备和存储介质
WO2021155308A1 (en) * 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for pose detection and measurement

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830150B (zh) * 2018-05-07 2019-05-28 山东师范大学 一种基于三维人体姿态估计方法及装置
US11176704B2 (en) * 2019-01-22 2021-11-16 Fyusion, Inc. Object pose estimation in visual data
CN113689503B (zh) * 2021-10-25 2022-02-25 北京市商汤科技开发有限公司 目标对象的姿态检测方法、装置、设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180211399A1 (en) * 2017-01-26 2018-07-26 Samsung Electronics Co., Ltd. Modeling method and apparatus using three-dimensional (3d) point cloud
CN107833270A (zh) * 2017-09-28 2018-03-23 浙江大学 基于深度相机的实时物体三维重建方法
CN108805979A (zh) * 2018-02-05 2018-11-13 清华-伯克利深圳学院筹备办公室 一种动态模型三维重建方法、装置、设备和存储介质
CN109584362A (zh) * 2018-12-14 2019-04-05 北京市商汤科技开发有限公司 三维模型构建方法及装置、电子设备和存储介质
WO2021155308A1 (en) * 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for pose detection and measurement

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
侯守明等: "基于Kinect的拉普拉斯网格形变三维人脸建模", 《图学学报》 *
郭清达等: "应用摄像机位姿估计的点云初始配准", 《光学精密工程》 *
陈锐等: "基于优化三维重建技术的快速影像拼接", 《软件导刊》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071790A1 (zh) * 2021-10-25 2023-05-04 上海商汤智能科技有限公司 目标对象的姿态检测方法、装置、设备及存储介质
WO2023103145A1 (zh) * 2021-12-09 2023-06-15 东软睿驰汽车技术(沈阳)有限公司 一种头部姿势真值的获取方法、装置、设备及存储介质
WO2023155532A1 (zh) * 2022-02-17 2023-08-24 上海商汤智能科技有限公司 位姿检测方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN113689503B (zh) 2022-02-25
WO2023071790A1 (zh) 2023-05-04

Similar Documents

Publication Publication Date Title
CN113689503B (zh) 目标对象的姿态检测方法、装置、设备及存储介质
US11238606B2 (en) Method and system for performing simultaneous localization and mapping using convolutional image transformation
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
Wang et al. 360sd-net: 360 stereo depth estimation with learnable cost volume
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
Azad et al. 6-DoF model-based tracking of arbitrarily shaped 3D objects
US10033985B2 (en) Camera pose estimation apparatus and method for augmented reality imaging
CN110276317B (zh) 一种物体尺寸检测方法、物体尺寸检测装置及移动终端
CN113196296A (zh) 使用几何上下文检测人群中的对象
CN108960045A (zh) 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体
US20150243031A1 (en) Method and device for determining at least one object feature of an object comprised in an image
CN108475433A (zh) 用于大规模确定rgbd相机姿势的方法和系统
CN108776976B (zh) 一种同时定位与建图的方法、系统及存储介质
CN104424640A (zh) 对图像进行虚化处理的方法和装置
CN106997617A (zh) 混合现实虚拟呈现方法及装置
US10791321B2 (en) Constructing a user's face model using particle filters
CN114882106A (zh) 位姿确定方法和装置、设备、介质
JP2020201922A (ja) 拡張現実アプリケーションに関するシステム及び方法
CN110188630A (zh) 一种人脸识别方法和相机
CN110009683B (zh) 基于MaskRCNN的实时平面上物体检测方法
Khan et al. Towards monocular neural facial depth estimation: Past, present, and future
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery
Li et al. Research on MR virtual scene location method based on image recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40061840

Country of ref document: HK