CN113506335B - 基于多rgbd相机的实时人体全息重建方法以及装置 - Google Patents

基于多rgbd相机的实时人体全息重建方法以及装置 Download PDF

Info

Publication number
CN113506335B
CN113506335B CN202110610788.8A CN202110610788A CN113506335B CN 113506335 B CN113506335 B CN 113506335B CN 202110610788 A CN202110610788 A CN 202110610788A CN 113506335 B CN113506335 B CN 113506335B
Authority
CN
China
Prior art keywords
truncated
psdf
distance function
image
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110610788.8A
Other languages
English (en)
Other versions
CN113506335A (zh
Inventor
刘烨斌
于涛
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202110610788.8A priority Critical patent/CN113506335B/zh
Publication of CN113506335A publication Critical patent/CN113506335A/zh
Application granted granted Critical
Publication of CN113506335B publication Critical patent/CN113506335B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请提出一种基于多RGBD相机的实时人体全息重建方法、装置和计算机设备。具体实现方案为:预训练基于像素对齐特征的三维重建神经网络,采集多视点场景彩色深度图像,提取多视点彩色深度图像前景,提取多视点彩色深度图像的特征图像,对重建空间进行均匀采样并计算投影符号距离函数值并进行有效采样点筛选,计算采样点的多视点图像特征,并进行多视点特征融合,使用符号距离回归网络推理符号距离函数,从采样点中提取三维模型表面,使用颜色回归网络推理模型顶点颜色,完成全息重建。本申请可以提高全息重建速度,提升网络泛化性能,还可以进一步提升全息重建的质量和精确。

Description

基于多RGBD相机的实时人体全息重建方法以及装置
技术领域
本申请涉及计算机视觉中的三维视觉和人工智能领域,尤其涉及一种基于多RGBD相机的实时人体全息重建方法、装置和计算机设备。
背景技术
全息通讯和全息直播是面向未来的革命性通讯和直播形式,其核心技术包括全息人体重建、全息数据压缩、全息数据传输、全息内容显示。全息人体重建是全息通讯和全息直播的基石。传统全息重建(三维)大多基于稠密视点采集,需要搭建复杂的多相机同步采集系统,造价昂贵,维护困难。深度相机的出现使三维信息的获取变得更加便捷,然而稀疏视点的深度采集系统仍然存在观测局限,无法生成完整的全息三维模型。
近年来,随着深度学习技术和计算机视觉技术的融合与发展,出现了基于深度神经网络的三维重建方法,如PIFu(Pixel-aligned Implicit Function for High-Resolution Clothed Human Digitization,基于像素对齐隐式函数的高分辨率人体数字化方法)等,它们仅使用单张彩色照片即可推理出人体的完整三维模型,极大地降低了全息人体重建技术的采集复杂度。然而,由于高质量三维人体扫描数据的短缺和深度神经网络模型表达能力的局限性,该类方法尚不能处理复杂的人体动作、人与物体的交互、以及实现实时全息重建效率。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于多RGBD相机的实时人体全息重建方法,将深度神经网络三维重建方法引入到色彩-深度相机系统中,可以提高全息重建速度,实现实时全息重建效率,并可以提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景,还可以进一步提升全息重建的质量和精确。
本申请的第二个目的在于提出一种基于多RGBD相机的实时人体全息重建装置。
本申请的第三个目的在于提出一种计算机设备。
为达上述目的,本申请第一方面实施例提出了一种基于多RGBD相机的实时人体全息重建方法,包括:
根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
计算采样点的多视点图像特征,并进行多视点特征融合;
将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
在本申请一些实施例中,所述进行多视点特征融合包括:
通过Transformer网络作为特征融合模块对所述采样点的多视点图像特征进行多视点特征融合。
本申请一些实施例中,通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
本申请一些实施例中,所述根据所述投影符号距离函数值进行有效采样点筛选,包括:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
本申请一些实施例中,通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
为达上述目的,本申请第二方面实施例提出了一种基于多RGBD相机的实时人体全息重建装置,包括:
预训练模块,用于根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
图像处理模块,用于获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
特征提取模块,用于根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
筛选模块,用于对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
特征融合模块,用于计算采样点的多视点图像特征,并进行多视点特征融合;
符号距离函数值获取模块,用于将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
重建模块,用于从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
本申请一些实施例中,所述筛选模块通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
本申请一些实施例中,所述筛选模块具体用于:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
本申请一些实施例中,所述筛选模块通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
为达上述目的,本申请第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现本申请第一方面实施例所述的基于多RGBD相机的实时人体全息重建方法。
本申请实施例的技术方案,利用了深度隐编码表达人体的全息信息,并融合了多视点彩色-深度图像特征和投影符号距离函数值,预测空间中采样点的符号距离函数值和顶点颜色值,由于深度隐编码模型是空间连续模型,因此本申请理论上可以在任意分辨率上进行人体全息模型的重建。本申请的多视点彩色-深度图像特征的提取使用标准卷积神经网路进行实现,与现有方法不同的是,在进行多视点特征融合时,本申请使用Transfomer网络建立不同视点特征之间的相关性,从而实现更加精确的自适应特征融合结果。由此可见,本申请通过将深度神经网络三维重建方法引入到彩色-深度相机系统中,一方面利用深度信息提高重建速度,实现实时全息重建效率,并提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景;另一方面结合多视点信息进一步提升全息重建的质量和精度,使其达到商业可用级别。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建方法的流程图;
图2为本申请实施例所提供的三维重建神经网络的结构示意图;
图3为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建装置的结构示意图;
图4为本申请实施例所提供的一种投影符号距离函数psdf的计算示意图;
图5为本申请实施例所提供的一种基于Transformer网络的特征融合结构图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于多RGBD相机的实时人体全息重建方法、装置和计算机设备。
图1为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建方法的流程示意图。
如图1所示,该基于多RGBD相机的实时人体全息重建方法可以包括如下步骤。
在步骤101中,根据人体扫描数据集渲染多视点训练数据,根据多视点训练数据预训练基于像素对齐特征的三维重建神经网络。
在本申请实施例中,人体扫描数据集可以是预先收集的高精度人体扫描数据。例如,该数据集包括500个高精度人体扫描模型,每个模型随机渲染60个视点的彩色深度图像,图像分辨率根据实际采集系统所用传感器分辨率设计,比如,本申请使用576*576作为图像渲染分辨率,在渲染彩色图像时,为了提升渲染的真实性,本申请使用PRT(PrecomputedRadiance Transfer,预计算的辐射传播场)渲染方法进行渲染。为了模拟真实深度传感器的噪声,本申请在渲染过程中加入了深度相机成像噪声模型。
在本步骤中,可采用高精度人体扫描模型渲染多视点训练数据,之后,利用多视点训练数据训练基于像素对齐特征的三维重建神经网络。其中,在本申请实施例中,如图2所示,三维重建神经网络10可包括RGBD图像特征提取神经网络11、符号距离函数回归神经网络12和颜色回归网络13。
在步骤102中,获取采集到的多视点场景彩色深度图像,并提取多视点场景彩色深度图像之中的多视点彩色深度图像前景。
在步骤103中,根据RGBD图像特征提取神经网络对多视点彩色深度图像进行特征提取,获得多视点彩色深度图像的特征图像。
举例而言,RGBD图像特征提取神经网络可为HRNet(高分辨率网络),其中,该HRNet的最终输出特征图像的尺寸可为64*64*256,其中64为特征图像的长宽,256为特征通道数。
在步骤104中,对重建空间进行均匀采样并计算投影符号距离函数值,并根据投影符号距离函数值进行有效采样点筛选。
在本申请实施例中,在获得多视点彩色深度图像的特征图像时,可对该特征图像在重建空间上进行均匀采样,获得各采样点。
可选地,在对重建空间进行均匀采样时,还可通过以下公式计算各采样点的投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
作为一种示例,图4是投影符号距离函数psdf的计算示意图。图中颜色由浅到深代表psdf值的由低到高,左侧为采样点深度值,中间为投影符号距离函数值,右侧为截断投影符号距离函数值,假设vz是采样点在的Z轴深度值,d是深度相机的深度观测值,则:
psdf=vz-d
为了更好的在神经网络中提取模型表面深度信息特征,并且避免深度特征错误的传播到当前视点不可见的区域,本申请提出使用改进后的截断投影符号距离函数值作为深度特征信息,截断投影符号距离函数值的计算方式如下:
truncatedpsdf=clip(vz-d,-τ,τ),
其中,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。在本申请中,τ=0.02m。
在本申请实施例中,可根据采样点在不同视点的投影符号距离函数值计算采样点的可见性指标,通过该可见性指标对有效采样点进行筛选。其中,通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
由此,根据采样点的可见性指标进行筛选,获得所有有效采样点。
需要说明的是,在使用神经网络进行重建时,本申请选取那些V(p)≥N-1的采样点进行计算,从而极大减小了所需要遍历的采样点个数,提高了系统的重建效率,达到了实时重建的性能。
在步骤105中,计算采样点的多视点图像特征,并进行多视点特征融合。
可选地,在筛选出有效采样点时,可计算采样点的多视点图像特征,并通过Transformer网络作为特征融合模块对所述采样点的多视点图像特征进行多视点特征融合。可见,本申请引入了多视点特征的相关性,提升了多视点特征的融合精度和鲁棒性,使重建结果更加完整精确。
作为一种示例,图5显示了基于Transformer网络的特征融合结构。本申请将多视点特征拼接成一个张量,输入到标准Transfomer网络的编码器结构中,从而引入多视点特征的相关性度量进行编码,保证了最终输出的特征融合结果的稳定性和正确性。图5中n_head代表Transformer网络在单层内的QKV矩阵个数,在本申请中nhead=8,n_layers代表Transformer网络的层数,在本申请中nlaver=4。n为训练时的批处理尺寸,C为特征通道数,N为视点总数。图中的张量基本操作包括reshape(形状重组),transpose(转置),softmax(软最大值取值),matrixproduct(矩阵乘),elementwiseadd(逐元素相加),elementwiseaddinfeaturemaplevel(特征图像的逐元素相加)均为神经网络的基本标准操作。
在本步骤中,可通过将采样点的多视点图像特征与采样点的坐标值与投影符号距离函数值结合,得到该采样点的融合特征值,例如,该点的融合特征值可表示为:F=(f,x,y,z,truncatedpsdf),其中(x,y,z)为采样点的三维坐标,f为Transformer网络的融合特征输出。
在步骤106中,将融合后得到的多视点特征图像输入至符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值。
也就是说,将融合后得到的多视点特征图像作为符号距离函数回归神经网络的输入,直接回归出所有有效采样点的符号距离函数值。
在步骤107中,使用面绘制算法MarchingCubes方法从采样点中提取出完整三维模型表面,并根据颜色回归网络对完整三维模型表面进行模型顶点颜色推理,完成全息重建。
根据本申请实施例的基于多RGBD相机的实时人体全息重建方法,利用了深度隐编码表达人体的全息信息,并融合了多视点彩色-深度图像特征和投影符号距离函数值,预测空间中采样点的符号距离函数值和顶点颜色值,由于深度隐编码模型是空间连续模型,因此本申请理论上可以在任意分辨率上进行人体全息模型的重建。本申请的多视点彩色-深度图像特征的提取使用标准卷积神经网路进行实现,与现有方法不同的是,在进行多视点特征融合时,本申请使用Transfomer网络建立不同视点特征之间的相关性,从而实现更加精确的自适应特征融合结果。由此可见,本申请通过将深度神经网络三维重建方法引入到彩色-深度相机系统中,一方面利用深度信息提高重建速度,实现实时全息重建效率,并提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景;另一方面结合多视点信息进一步提升全息重建的质量和精度,使其达到商业可用级别。
图3为本申请实施例所提供的一种基于多RGBD相机的实时人体全息重建装置的结构示意图。
如图3所示,该基于多RGBD相机的实时人体全息重建装置200可以包括:预训练模块201、图像处理模块202、特征提取模块203、筛选模块204、特征融合模块205、符号距离函数值获取模块206和重建模块207。
具体地,预训练模块201用于根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络。
图像处理模块202,用于获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景。
特征提取模块203,用于根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像。
筛选模块204,用于对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选。
在本申请实施例中,筛选模块204通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
该筛选模块204根据所述投影符号距离函数值进行有效采样点筛选的具体实现过程可如下:根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标,并根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
其中,该筛选模块204通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0if truncatedpsdf≤-δ。
特征融合模块205,用于计算采样点的多视点图像特征,并进行多视点特征融合。
符号距离函数值获取模块206,用于将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值。
重建模块207,用于从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本申请实施例的基于多RGBD相机的实时人体全息重建装置,利用了深度隐编码表达人体的全息信息,并融合了多视点彩色-深度图像特征和投影符号距离函数值,预测空间中采样点的符号距离函数值和顶点颜色值,由于深度隐编码模型是空间连续模型,因此本申请理论上可以在任意分辨率上进行人体全息模型的重建。本申请的多视点彩色-深度图像特征的提取使用标准卷积神经网路进行实现,与现有方法不同的是,在进行多视点特征融合时,本申请使用Transfomer网络建立不同视点特征之间的相关性,从而实现更加精确的自适应特征融合结果。由此可见,本申请通过将深度神经网络三维重建方法引入到彩色-深度相机系统中,一方面利用深度信息提高重建速度,实现实时全息重建效率,并提升网络泛化性能,从而可以处理复杂的人体动作、人与物体的交互场景;另一方面结合多视点信息进一步提升全息重建的质量和精度,使其达到商业可用级别。
为了实现上述实施例,本申请还提出一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,当处理器执行计算机程序时,执行本申请上述任一实施例所述的基于多RGBD相机的实时人体全息重建方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于多RGBD相机的实时人体全息重建方法,其特征在于,包括:
根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
计算采样点的多视点图像特征,并进行多视点特征融合;
将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
2.根据权利要求1所述的方法,其特征在于,所述进行多视点特征融合包括:
通过Transformer网络作为特征融合模块对所述采样点的多视点图像特征进行多视点特征融合。
3.根据权利要求1所述的方法,其特征在于,通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,-τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
4.根据权利要求1所述的方法,其特征在于,所述根据所述投影符号距离函数值进行有效采样点筛选,包括:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
5.根据权利要求4所述的方法,其特征在于,通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1 if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0 if truncatedpsdf≤-δ。
6.一种基于多RGBD相机的实时人体全息重建装置,其特征在于,包括:
预训练模块,用于根据人体扫描数据集渲染多视点训练数据,根据所述多视点训练数据预训练基于像素对齐特征的三维重建神经网络,其中,所述三维重建神经网络包括RGBD图像特征提取神经网络、符号距离函数回归神经网络和颜色回归网络;
图像处理模块,用于获取采集到的多视点场景彩色深度图像,并提取所述多视点场景彩色深度图像之中的多视点彩色深度图像前景;
特征提取模块,用于根据所述RGBD图像特征提取神经网络对所述多视点彩色深度图像进行特征提取,获得所述多视点彩色深度图像的特征图像;
筛选模块,用于对重建空间进行均匀采样并计算投影符号距离函数值,并根据所述投影符号距离函数值进行有效采样点筛选;
特征融合模块,用于计算采样点的多视点图像特征,并进行多视点特征融合;
符号距离函数值获取模块,用于将融合后得到的多视点特征图像输入至所述符号距离函数回归神经网络,获得所有有效采样点的符号距离函数值;
重建模块,用于从所述采样点中提取出完整三维模型表面,并根据所述颜色回归网络对所述完整三维模型表面进行模型顶点颜色推理,完成全息重建。
7.根据权利要求6所述的装置,其特征在于,所述筛选模块通过以下公式计算所述投影符号距离函数值:
truncatedpsdf=clip(vz-d,τ,τ)
其中,truncatedpsdf为所述投影符号距离函数值,vz为采样点在Z轴上的深度值,d为深度相机的深度观测值,clip()为截断函数,用于将输入值vz-d截断至[-τ,τ]的范围内。
8.根据权利要求6所述的装置,其特征在于,所述筛选模块具体用于:
根据采样点在不同视点的投影符号距离函数值计算所述采样点的可见性指标;
根据所述采样点的可见性指标进行筛选,获得所有有效采样点。
9.根据权利要求8所述的装置,其特征在于,所述筛选模块通过以下公式计算所述采样点的可见性指标:
V(p)=∑i∈{0,...,N}ψ(truncatedpsdf,δ)
其中,V(p)为所述采样点可见性指标,i为视点索引值,M为视点总数,ψ(truncatedpsdf,δ)为单视点可见性判断函数,δ为可见性判断阈值,truncatedpsdf为所述投影符号距离函数值;其中,
ψ(truncatedpsdf,δ)=1 if truncatedpsdf>-δ,
ψ(truncatedpsdf,δ)=0 if truncatedpsdf≤-δ。
10.一种计算机设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1至5中任一所述的基于多RGBD相机的实时人体全息重建方法。
CN202110610788.8A 2021-06-01 2021-06-01 基于多rgbd相机的实时人体全息重建方法以及装置 Active CN113506335B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110610788.8A CN113506335B (zh) 2021-06-01 2021-06-01 基于多rgbd相机的实时人体全息重建方法以及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110610788.8A CN113506335B (zh) 2021-06-01 2021-06-01 基于多rgbd相机的实时人体全息重建方法以及装置

Publications (2)

Publication Number Publication Date
CN113506335A CN113506335A (zh) 2021-10-15
CN113506335B true CN113506335B (zh) 2022-12-13

Family

ID=78008829

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110610788.8A Active CN113506335B (zh) 2021-06-01 2021-06-01 基于多rgbd相机的实时人体全息重建方法以及装置

Country Status (1)

Country Link
CN (1) CN113506335B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115082636B (zh) * 2022-07-05 2024-05-17 聚好看科技股份有限公司 基于混合高斯网络的单图像三维重建方法及设备
KR20240079660A (ko) * 2022-11-29 2024-06-05 한국전자기술연구원 단안 컬러 이미지 기반의 실시간 3d 휴먼 객체 복원 장치 및 방법
CN117376541B (zh) * 2023-12-06 2024-03-26 深圳优立全息科技有限公司 一种全息立体画面同步方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462302A (zh) * 2020-03-05 2020-07-28 清华大学 基于深度编码网络的多视点人体动态三维重建方法及系统
CN112330795A (zh) * 2020-10-10 2021-02-05 清华大学 基于单张rgbd图像的人体三维重建方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462302A (zh) * 2020-03-05 2020-07-28 清华大学 基于深度编码网络的多视点人体动态三维重建方法及系统
CN112330795A (zh) * 2020-10-10 2021-02-05 清华大学 基于单张rgbd图像的人体三维重建方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多RGBD摄像机的动态场景实时三维重建系统;段勇等;《北京理工大学学报》;20141115(第11期);全文 *

Also Published As

Publication number Publication date
CN113506335A (zh) 2021-10-15

Similar Documents

Publication Publication Date Title
CN113506335B (zh) 基于多rgbd相机的实时人体全息重建方法以及装置
CN111462329B (zh) 一种基于深度学习的无人机航拍影像的三维重建方法
CN113936139B (zh) 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统
JP2021531582A (ja) 画像視差推定
CN111325693B (zh) 一种基于单视点rgb-d图像的大尺度全景视点合成方法
CN110197505B (zh) 基于深度网络及语义信息的遥感图像双目立体匹配方法
CN110335222B (zh) 基于神经网络的自修正弱监督双目视差提取方法及装置
CN110443874B (zh) 基于卷积神经网络的视点数据生成方法和装置
CN113763231A (zh) 模型生成方法、图像透视图确定方法、装置、设备及介质
CN116468769A (zh) 一种基于图像的深度信息估计方法
CN116778063A (zh) 一种基于特征纹理网格和哈希编码的快速虚拟视点合成方法及装置
CN116721210A (zh) 基于神经有符号距离场的实时高效三维重建方法及装置
CN112927348B (zh) 一种基于多视点rgbd相机高分辨率人体三维重建方法
CN112489103B (zh) 一种高分辨率深度图获取方法及系统
CN117094895B (zh) 图像全景拼接方法及其系统
CN117523100A (zh) 基于神经网络与多视图一致性的三维场景重建方法和装置
CN117501313A (zh) 基于深度神经网络的毛发渲染系统
CN116993926A (zh) 单视图人体三维重建方法
CN112270701A (zh) 基于分组距离网络的视差预测方法、系统及存储介质
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
CN116258756A (zh) 一种自监督单目深度估计方法及系统
CN113920270B (zh) 一种基于多视角全景的布局重建方法及其系统
CN115731345A (zh) 基于双目视觉的人体三维重建方法
Zhou et al. From NeRFLiX to NeRFLiX++: A General NeRF-Agnostic Restorer Paradigm
CN110245553B (zh) 路面测距方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20211015

Assignee: Beijing Yuanke Fangzhou Technology Co.,Ltd.

Assignor: TSINGHUA University

Contract record no.: X2023980052719

Denomination of invention: Real time human holographic reconstruction method and device based on multiple RGBD cameras

Granted publication date: 20221213

License type: Common License

Record date: 20231215