CN115937374B - 一种数字人体建模方法、装置、设备及介质 - Google Patents
一种数字人体建模方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115937374B CN115937374B CN202211683453.XA CN202211683453A CN115937374B CN 115937374 B CN115937374 B CN 115937374B CN 202211683453 A CN202211683453 A CN 202211683453A CN 115937374 B CN115937374 B CN 115937374B
- Authority
- CN
- China
- Prior art keywords
- human body
- neural network
- sampling
- spatial
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000001360 synchronised effect Effects 0.000 claims abstract description 7
- 238000005070 sampling Methods 0.000 claims description 46
- 239000013598 vector Substances 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 12
- 238000009877 rendering Methods 0.000 claims description 10
- PUAQLLVFLMYYJJ-UHFFFAOYSA-N 2-aminopropiophenone Chemical compound CC(N)C(=O)C1=CC=CC=C1 PUAQLLVFLMYYJJ-UHFFFAOYSA-N 0.000 claims description 6
- 230000005855 radiation Effects 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 2
- 230000001568 sexual effect Effects 0.000 claims 1
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种数字人体建模方法、装置、设备及介质,该方法包括:S1、通过多个同步RGB相机对单个人体拍摄多目RGB图像序列;S2、为每帧图像所拍摄到的人体拟合参数化人体模板,以获得所述图像序列中的每帧人体姿态参数,采集到的图像以及拟合的人体姿态参数将作为数据集;S3、为需建模的数字人体搭建基于离散姿态特征空间插值的神经网络,并以上述数据集为监督进行训练;S4、对训练好的神经网络输入新的姿态参数,即可产生新姿态下具有合理动态细节的人体模型本发明所需的输入信息容易采集,且无需人工操作,拥有广阔的应用前景,可以在PC机或工作站等硬件系统上快速实现。
Description
技术领域
本发明属于计算机视觉与计算机图形学技术领域,具体涉及一种数字人体建模方法、装置、设备及介质。
背景技术
虚拟数字人体的建模与驱动是计算机图形学和计算机视觉领域的重点问题,具有广泛的研究和产学结合前景。高质量的虚拟数字人体在影视娱乐、AR/VR、元宇宙等领域有着广泛的应用前景和重要的应用价值。但是目前大部分高质量、具有动态细节的虚拟数字人体通常依赖于复杂昂贵的人工设计成本,无法实现自动化建模,从而难以推广应用。另一方面,现有的从多视点视频中自动创建虚拟数字人体的方法由于其对姿态信息的编码能力不强,导致创建出的虚拟数字人质量欠佳、姿态泛化性差。综上,如何高效地编码姿态信息是虚拟数字人体建模的重点问题,为此,本发明提出基于姿态空间特征插值的虚拟数字人体建模技术以解决上述问题。
发明内容
为了克服现有技术存在的问题,本发明提供一种数字人体建模方法、装置、设备及介质,用于克服目前存在的缺陷。
一种数字人体建模方法,包括以下步骤:
步骤S1、通过多个同步RGB相机对单个人体拍摄多目RGB图像序列;
步骤S2、对图像序列中的为每帧图像所拍摄到的人体拟合参数化人体模板,以获得所述图像序列中的姿态参数,采集到的图像以及拟合的人体姿态参数将作为数据集用来建模数字人体;
步骤S3、为需建模的数字人体搭建基于离散姿态特征空间插值的神经网络,并以上述数据集为监督进行训练;
步骤S4、对训练好的神经网络输入新的姿态参数,即可产生新姿态下具有合理动态细节的人体模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S3搭建基于离散姿态特征空间插值的神经网络包括:
S31.确定所述数字人体所包括多个关节点的离散姿态空间采样点其中,M是采样点的个数,j表示关节点的序号,m表示采样点的序号,/>表示第m个采样点所对应的轴角;
S32.对每个所述姿态空间采样点定义与三个空间维度x,y,z对应三个可优化的特征线段,每一线段上的每一个点表示与该姿态空间采样点和相应空间坐标x或y或z对应的特征向量;
S33.给定所有关节点的轴角Θ*以及空间坐标(x*,y*,z*),通过K个最邻近的采样点所对应的特征线段,来插值出(θ*,x*,y*,z*)所对应的特征向量;
S34.将所述空间坐标(x*,y*,z*)和特征向量f(Θ*,x*,y*,z*)级联在一起,并输入给一个全连接神经网络经过处理后得到基于离散姿态特征空间插值的神经网络。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S31包括采用最远点采样的方式选取M个采样点,所述最远点采样所用到的距离指标表示为
d(θ1,θ2)=|1-quat(θ1)·quat(θ2)|
其中,θ1和θ2分别为两个不同的采样点所对应的轴角,quat(·)代表将轴角转换为四元数,d(θ1,θ2)∈[0,1]代表两个轴角之间的距离。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,S32中的三个特征线段分别为其中,L为线段长度,C为特征向量的维数,/>为实数空间,/>及/>分别为对于应三维空间中x,y,z三个维度的特征线段。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S34中还包括全连接神经网络输出为,包括RGB颜色值c和密度值σ的神经辐射场,之后渲染出颜色图C与真实颜色图Cgt构建误差项,以优化神经网络参数以及可优化的特征。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述特征向量f(Θ*,x*,y*,z*)的表达式如下:f(θ*,x*,y*,z*)=[f(θ*,x*),f(θ*,y*),f(θ*,Z*)],其中,
其中,为加权权重。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S4具体包括,在网络训练完毕后,输入新的姿态参数,以上述姿态空间特征插值和体渲染的方式得到新姿势下的数字人体渲染结果。
本发明还提供了一种数字人体建模装置,所述装置用于实现所述的方法,所述装置包括:
采集模块,用于通过多个同步RGB相机对单个人体拍摄多目RGB图像序列;
拟合模块,用于对图像序列中的为每帧图像所拍摄到的人体拟合参数化人体模板,以获得所述图像序列中的姿态参数,采集到的图像以及拟合的人体姿态参数将作为数据集用来建模数字人体;
搭建模块,用于搭建基于离散姿态特征空间插值的神经网络,并以多目RGB图像序列为监督进行训练;
模型产生模块,用于对训练好的神经网络输入新的姿态参数,产生新姿态下具有合理动态细节的人体模型。
本发明还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现所述的方法。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如上述所述的方法。
本发明的有益效果
与现有技术相比,本发明有如下有益效果:
相较于基于美工设计的虚拟人体建模技术,本发明所有流程均为自动化,无需人工干涉,且建模质量具有高保真性;
相较于现有的自动化虚拟人体建模技术,本发明所提出的姿态空间特征插值方法可以更好的编码姿态信息,提升建模质量以及对不同姿态的泛化性。
附图说明
图1为本发明的方法流程示意图。
具体实施方式
为了更好的理解本发明的技术方案,本发明内容包括但不限于下文中的具体实施方式,相似的技术和方法都应该视为本发明保护的范畴之内。为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
应当明确,本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,本发明提供了一种数字人体建模方法,包括以下步骤:
步骤S1、通过多个同步RGB相机对单个人体拍摄多目RGB图像序列,作为后续数字人体建模和姿态解算的数据集;
步骤S2、对每帧图像所拍摄到的人体拟合参数化人体模板,以获得所述图像序列中的姿态参数,采集到的图像以及拟合的人体姿态参数将作为数据集用来建模数字人体;
步骤S3、为所需建模的数字人体搭建基于离散姿态特征空间插值的神经网络,并以多目RGB图像序列为监督进行训练,以建模数字人体;
步骤S4、对训练好的神经网络输入新的姿态参数,产生新姿态下具有合理动态细节的人体模型,以实现对虚拟数字人体的驱动和动画。
本发明的基于离散姿态特征空间插值的数字人体建模与驱动方法,可以从多目RGB视频中自动地学习出一个可驱动的数字人体,利用多个RGB相机对单个人体进行拍摄以采集多目RGB视频,并基于采集到的视频建模出可驱动的数字人体。该方法所需的输入信息容易采集,且所有步骤都可由软件自动化执行,无需人工操作,拥有广阔的应用前景,可以在PC机或工作站等硬件系统上快速实现。
优选地,所述S3搭建基于离散姿态特征空间插值的神经网络包括:
S31.确定所述数字人体所包括多个关节点的离散姿态空间采样点其中,M是采样点的个数,j表示关节点的序号,m表示采样点的序号,/>表示第m个采样点所对应的轴角;
S32.对每个所述姿态空间采样点定义与三个空间维度x,y,z对应三个可优化的特征线段,每一线段上的每一个点表示与该姿态空间采样点和相应空间坐标x或y或z对应的特征向量;
S33.给定所有关节点的轴角Θ*以及所属空间坐标(x*,y*,z*),通过K个最邻近的采样点所对应的特征线段,来插值出(θ*,x*,y*,z*)所对应的特征向量;
S34.将所述空间坐标(x*,y*,z*)和特征向量f(Θ*,x*,y*,z*)级联在一起,并输入给一个全连接神经网络中经过处理后得到基于离散姿态特征空间插值的神经网络。
S3的具体过程如下:
搭建基于离散姿态特征空间插值的神经网络:包括
假设训练数据中图像帧数为N,所对应的姿态参数为其中为第i帧的参数化模板的姿势向量,J为参数化模型的关节点数量,为第i帧参数化模型的第j个关节点的旋转轴角。
首先,为每个关节点定义离散姿态空间,离散姿态空间可以尽可能的覆盖每一帧的轴角,但同时姿态空间中的样本点是比较少的,为此,可以采用最远点采样的方式选取M个采样点,为每个关节点选取M个采样点,即其中,m表示采样点的序号,/>表示第m个采样点第j个关节点所对应的轴角。为描述不同轴角之间的距离,最远点采样所用到的距离指标表示为
d(θ1,θ2)=|1-quat(θ1)·quat(θ2)|其中θ1和θ2分别为两个不同的采样点所对应的轴角,quat(·)代表将轴角转换为四元数,d(θ1,θ2)∈[0,1]代表两个轴角之间的距离。
在得到离散姿态空间采样点后,为每个姿态空间采样点/>定义三个可优化的特征线段/>分别与人体所在的三维空间的三个维度x,y,z对应,其中L为线段长度,C为特征向量的维数,每条线段上的每一个点代表与该姿态采样点和空间坐标x(或y,z)对应的特征向量。此步骤得到的特征向量用于对姿态的编码,输入神经网络以生成与姿态相关的人体动态细节。
然后,给定一个关节轴角θ*以及其空间中任意点的坐标(x*,y*,z*),通过K个最邻近的采样点所对应的特征线段,来插值出(θ*,x*,y*,z*)所对应的特征向量,即给定任一姿态参数和空间位置在特征空间中插值以获得相应的特征向量。具体地,首先根据θ*来确定K个最邻近的采样点则(θ*x*,y*,z*)所对应的特征向量可表示为f(θ*,x*,y*,z*)=[f(θ*,x*),f(θ*,y*),f(θ*,z*)],f(θ*,x*)、f(θ*,y*),和f(θ*z*)]分别表示对应于x,y,z三个维度的特征向量,
表示在x,y,z三条特征线段上进行线性采样得到的特征向量。
其中,为加权权重,d()为在最远点采样中使用的距离指标。
类似地,给定所有关节点的轴角Θ*以及其空间坐标(x*y*,z*),同样可以得到其对应的特征向量f(Θ*,x*,y*,z*)。
获得了特征向量f(Θ*,x*,y*,z*),将坐标(x*,y*,z*)和特征向量f(Θ*,x*,y*,z*)级联在一起,并输入给一个全连接神经网络中,神经网络输出为辐射场,包含RGB颜色图c和密度值σ以通过体渲染的方式生成不同视角下的渲染图像。随后,通过体渲染的方式渲染出颜色图C与训练数据集中的拍摄图像(即真实颜色图)cgt构建误差项,以通过梯度下降的方式优化全连接神经网络参数以及可优化的特征(即离散姿态空间采样点所对应的特征线段)。该误差项约束渲染出的人体图像与所拍摄到的人体图像一致,从而使得构建的数字人体模型的质量是清晰且逼真的。
在一些示例中,在对神经网络训练完毕后,可以对神经网络输入新的姿态参数,以上述姿态空间特征插值和体渲染的方式得到新姿势下的数字人体渲染图像结果,该结果具有合理的动态细节。
作为优选的实施例,本发明还提供了一种数字人体建模装置,所述装置用于实现本发明所述的方法,所述装置包括:
采集模块,用于通过多个同步RGB相机对单个人体拍摄多目RGB图像序列;
拟合模块,用于对每帧图像所拍摄到的人体拟合参数化人体模板,以获得所述图像序列中的姿态参数;
搭建模块,用于搭建基于离散姿态特征空间插值的神经网络,并以多目RGB图像序列为监督进行训练;
模型产生模块,用于对训练好的神经网络输入新的姿态参数,产生新姿态下具有合理动态细节的人体模型。
作为优选的实施例,本发明还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现本发明所述的方法。
作为优选的实施例,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如本发明的方法。
本发明还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现本发明所述的方法。
本发明还提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现本发明所述的方法。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
上述说明示出并描述了本发明的若干优选实施例,但如前所述,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述申请构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求书的保护范围内。
Claims (7)
1.一种数字人体建模方法,其特征在于,包括以下步骤:
步骤S1、通过多个同步RGB相机对单个人体拍摄多目RGB图像序列;
步骤S2、为每帧图像所拍摄到的人体拟合参数化人体模板,以获得所述图像序列中的每帧人体姿态参数,采集到的图像以及拟合的人体姿态参数将作为数据集;
步骤S3、为需建模的数字人体搭建基于离散姿态特征空间插值的神经网络,并以上述数据集为监督进行训练;
步骤S4、对训练好的神经网络输入新的姿态参数,即可产生新姿态下具有合理动态细节的人体模型;所述S3搭建基于离散姿态特征空间插值的神经网络包括:
S31.确定所述数字人体所包括多个关节点的离散姿态空间采样点其中,M是采样点的个数,j表示关节点的序号,m表示采样点的序号,/>表示第m个采样点所对应的轴角;
S32.对每个所述姿态空间采样点定义与三个空间维度x,y,z对应三个可优化的特征线段,每一线段上的每一个点表示与该姿态空间采样点和相应空间坐标x或y或z对应的特征向量,所述三个特征线段分别为其中,L为线段长度,C为特征向量的维数,/>为实数空间,/>及/>分别为对于应三维空间中x,y,z三个维度的特征线段;
S33.给定所有关节点的轴角Θ*以及空间坐标(x*,y*,z*),通过K个最邻近的采样点所对应的特征线段,来插值出(θ*,x*,y*,z*)所对应的特征向量,具体地,首先根据θ*来确定K个最邻近的采样点则(θ*,x*,y*,z*)所对应的特征向量可表示为(θ*,x*,y*,z*)=[f(θ*,x*),f(θ*,y*),f(θ*,z*)],f(θ*,x*)、f(θ*,y*)和f(θ*,z*)分别表示对应于x,y,z三个维度的特征向量,/> 表示在x,y,z三条特征线段上进行线性采样得到的特征向量,为加权权重,d( )为在最远点采样中使用的距离指标;
S34.将所述空间坐标(x*,y*,z*)和特征向量f(Θ*,x*,y*,z*)级联在一起,并输入给一个全连接神经网络经过处理后得到基于离散姿态特征空间插值的神经网络。
2.根据权利要求1所述的数字人体建模方法,其特征在于,所述S31包括采用最远点采样的方式选取M个采样点,所述最远点采样所用到的距离指标表示为
d(θ1,θ2)=|1-quat(θ1)·quat(θ2)|
其中,θ1和θ2分别为两个不同的采样点所对应的轴角,quat(·)代表将轴角转换为四元数,d(θ1,θ2)∈[0,1]代表两个轴角之间的距离。
3.根据权利要求1所述的数字人体建模方法,其特征在于,所述S34中还包括全连接神经网络输出为,包括RGB颜色值c和密度值σ的神经辐射场,之后渲染出颜色图c与真实颜色图Cgt构建误差项,以优化神经网络参数以及可优化的特征。
4.根据权利要求1所述的数字人体建模方法,其特征在于,所述S4具体包括,在网络训练完毕后,输入新的姿态参数,以上述姿态空间特征插值和体渲染的方式得到新姿势下的数字人体渲染结果。
5.一种数字人体建模装置,所述装置用于实现权利要求1-4任一项所述的方法,其特征在于,所述装置包括:
采集模块,用于通过多个同步RGB相机对单个人体拍摄多目RGB图像序列;
拟合模块,用于对图像序列中的每帧图像所拍摄到的人体拟合参数化人体模板,以获得所述图像序列中的姿态参数;
搭建模块,用于搭建基于离散姿态特征空间插值的神经网络,并以多目RGB图像序列为监督进行训练;
模型产生模块,用于对训练好的神经网络输入新的姿态参数,产生新姿态下具有合理动态细节的人体模型。
6.一种计算机设备,其特征在于,所述计算机设备包括处理器和理器加载并执行以实现如权利要求1至4任一项所述的方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如上述权利要求1至4任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211683453.XA CN115937374B (zh) | 2022-12-27 | 2022-12-27 | 一种数字人体建模方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211683453.XA CN115937374B (zh) | 2022-12-27 | 2022-12-27 | 一种数字人体建模方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115937374A CN115937374A (zh) | 2023-04-07 |
CN115937374B true CN115937374B (zh) | 2023-11-07 |
Family
ID=86648978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211683453.XA Active CN115937374B (zh) | 2022-12-27 | 2022-12-27 | 一种数字人体建模方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115937374B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173368B (zh) * | 2023-10-31 | 2024-01-26 | 杭州新畅元科技有限公司 | 一种人体模板动态表达方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113099208A (zh) * | 2021-03-31 | 2021-07-09 | 清华大学 | 基于神经辐射场的动态人体自由视点视频生成方法和装置 |
CN113096144A (zh) * | 2021-03-23 | 2021-07-09 | 清华大学 | 基于神经网络的动态人体自由视点视频的生成方法和装置 |
CN114119911A (zh) * | 2020-08-27 | 2022-03-01 | 北京陌陌信息技术有限公司 | 一种人体模型神经网络训练方法、设备和存储介质 |
CN114998405A (zh) * | 2022-07-06 | 2022-09-02 | 杭州倚澜科技有限公司 | 基于图像驱动的数字化人体模型构建方法 |
-
2022
- 2022-12-27 CN CN202211683453.XA patent/CN115937374B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119911A (zh) * | 2020-08-27 | 2022-03-01 | 北京陌陌信息技术有限公司 | 一种人体模型神经网络训练方法、设备和存储介质 |
CN113096144A (zh) * | 2021-03-23 | 2021-07-09 | 清华大学 | 基于神经网络的动态人体自由视点视频的生成方法和装置 |
CN113099208A (zh) * | 2021-03-31 | 2021-07-09 | 清华大学 | 基于神经辐射场的动态人体自由视点视频生成方法和装置 |
CN114998405A (zh) * | 2022-07-06 | 2022-09-02 | 杭州倚澜科技有限公司 | 基于图像驱动的数字化人体模型构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115937374A (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921926B (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
CN110728219B (zh) | 基于多列多尺度图卷积神经网络的3d人脸生成方法 | |
CN112887698B (zh) | 基于神经辐射场的高质量人脸语音驱动方法 | |
CN111340944B (zh) | 基于隐式函数和人体模板的单图像人体三维重建方法 | |
CN112465718B (zh) | 一种基于生成对抗网络的两阶段图像修复方法 | |
CN110942512B (zh) | 基于元学习的室内场景重建方法 | |
CN113421328A (zh) | 一种三维人体虚拟化重建方法及装置 | |
CN112927348B (zh) | 一种基于多视点rgbd相机高分辨率人体三维重建方法 | |
CN115953513B (zh) | 一种可驱动三维人头模型重建方法、装置、设备及介质 | |
CN115937374B (zh) | 一种数字人体建模方法、装置、设备及介质 | |
CN116385667B (zh) | 三维模型的重建方法、纹理重构模型的训练方法以及装置 | |
CN117218300B (zh) | 三维模型的构建方法、三维构建模型的训练方法及装置 | |
CN117274501B (zh) | 一种可驱动数字人建模方法、装置、设备及介质 | |
CN114429538A (zh) | 交互式编辑神经辐射场几何的方法 | |
CN115222917A (zh) | 三维重建模型的训练方法、装置、设备及存储介质 | |
EP4285331A1 (en) | Neural radiance field rig for human 3d shape and appearance modelling | |
CN115239857A (zh) | 图像生成方法以及电子设备 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
CN115731344A (zh) | 图像处理模型训练方法以及三维对象模型构建方法 | |
CN114998405A (zh) | 基于图像驱动的数字化人体模型构建方法 | |
CN111932670B (zh) | 基于单个rgbd相机的三维人体自画像重建方法及系统 | |
CN116503517B (zh) | 长文本生成图像的方法及系统 | |
CN117876430A (zh) | 一种全景图像及视频中的扫视路径预测方法、设备及介质 | |
CN118262024A (zh) | 一种装备建模渲染方法 | |
Zeng et al. | Research Status of Speech Driven Virtual Face Animation Methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |