CN114882173A - 一种基于隐式表达的3d单目头发建模方法及装置 - Google Patents
一种基于隐式表达的3d单目头发建模方法及装置 Download PDFInfo
- Publication number
- CN114882173A CN114882173A CN202210448262.9A CN202210448262A CN114882173A CN 114882173 A CN114882173 A CN 114882173A CN 202210448262 A CN202210448262 A CN 202210448262A CN 114882173 A CN114882173 A CN 114882173A
- Authority
- CN
- China
- Prior art keywords
- hair
- implicit
- point
- model
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000004209 hair Anatomy 0.000 title claims abstract description 93
- 230000014509 gene expression Effects 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000010586 diagram Methods 0.000 claims abstract description 26
- 230000003779 hair growth Effects 0.000 claims abstract description 26
- 230000008520 organization Effects 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 44
- 238000012549 training Methods 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008014 freezing Effects 0.000 claims description 3
- 238000007710 freezing Methods 0.000 claims description 3
- 230000003806 hair structure Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004138 cluster model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于隐式表达的3D单目头发建模方法及装置,本发明先构建头部模型并基于输入的单张肖像图像提取对应的头发2D方向图和亮度图;将2D方向图和亮度图输入至一训练好的头发隐式表达模型提取获得头发3D方向场和3D占位场;再利用头发生长算法根据获取的3D方向场和3D占位场获得3D发丝模型;其中头发隐式表达模型采取一种coarse‑to‑fine的策略,设计了一种全新的体素对齐的隐函数(VIFu)来表示头发结构的全局特征,并利用图像所对应的高分辨率亮度图提取细粒度的局部特征,这种方法能生成细节丰富的3D头发几何特征(3D Orientation field和3D Occupancy field),从而实现高分辨率的3D头发建模。
Description
技术领域
本发明属于计算机图形学,计算机视觉领域,尤其涉及一种基于隐式表达的单目3D头发建模方法。
背景技术
头发是人体数字化中重要的组成部分之一,一个真实的3D头发模型可以显著的提高虚拟人的真实性,然而现有的单目头发建模方法不能满足人体数字化灵活,简单和真实的需求。一些基于数据驱动的方法虽然能取得高保真的结果但过程是复杂且不鲁棒的,需要依赖庞大的合成数据集,且匹配搜索过程是复杂耗时的。另一方面,基于学习的方法虽然是轻量且方便部署的,但是现有的方法往往只能取得粗糙的结果。
隐式表达已经被广泛应用于3D形状的几何表示,这种表示方法是简单且高效的,可以利用一个隐式函数来表示一个空间中的表面,在重建该几何时只需要在空间中密集采样即可恢复3D形状的几何。但是,现有的基于推测的隐式表达方法通常只能表示一些简单的几何或是比较光滑的表面,然而头发的几何极其复杂且其外部形状和内部结构都很重要。
Coarse-to-fine的策略常用于生成具有局部细节的高分辨率3D模型。利用低分辨率的输入得到全局特征融合高分辨率图像输入提取到的局部特征重建高分辨率的3D模型,然而由于训练中缺乏成对的训练数据。
传统的头发生长算法在空间中采样3D点然后根据所估计的3D Orientationfield按照统一的步长生长出下一个点。这种方法效率低且不益于端到端的头发建模。
发明内容
本发明基于现有技术的不足,提出了一种基于隐式表达的3D单目头发建模方法,以2D方向图作为输入,提出体素对齐的隐函数来表示复杂的3D头发的全局特征,并结合从高分辨率亮度图中提取的局部特征使用一个解码器解码出相应的Occupancy值和Orientation值。利用得到的3D方向图进一步使用所提出的基于隐函数的头发生长算法高效的合成3D发丝模型。
本发明采用的技术方案如下:
一种基于隐式表达的单目3D头发建模方法,包括:
构建头部模型,基于输入的单张肖像图像提取对应的头发2D方向图和亮度图并与头部模型对齐;
将2D方向图和亮度图输入至一训练好的头发隐式表达模型提取获得头发3D方向场和3D占位场;
利用头发生长算法根据获取的3D方向场和3D占位场在头部模型上生长获得3D发丝模型;
其中,所述头发隐式表达模型包括精模块和粗模块;其中,粗模块包括U-Net架构、多个隐式体素化模块和第一Occupancy解码器、第一Orientation解码器;其中,U-Net架构包含依次连接的多个卷积单元和反卷积单元,所述隐式体素化模块用于对卷积单元输出的每个体素v的特征沿着Z方向复制,将2D的图像特征转换为体素级的3D特征,3D特征再与2D的图像特征对应的卷积单元的上一层反卷积单元输出拼接获得每个体素v的隐式编码F(v),隐式编码F(v)作为下一层反卷积单元的输入;表示如下:
F(v)=θ(I(x),Z(v))+Ir(x)
其中,图像特征I(x)是卷积单元的输出,Ir(x)是I(x)对应卷积单元的上一层的反卷积单元的输出;θ表示隐式体素化模块神经网络的参数,x是空间中体素投影到平面上对应的2D坐标x;
第一Occupancy解码器、第一Orientation解码器分别用于依据每个点p的隐式编码和z坐标解码获得每个点p的第一Occupancy值和第一Orientation值;其中,每个点p的隐式编码采用点p对应体素的隐式编码表示,体素的隐式编码为U-Net架构最后的输出F(v);
所述精模块包括一个用于提取亮度图中点p的局部特征的第二神经网络、第二Occupancy解码器和第二Orientation解码器;第二Occupancy解码器、第二Orientation解码器分别用于依据输入的点p的局部特征、全局特征和z坐标解码获得点p的第二Occupancy值和第二Orientation值,从而获得头发3D方向场和3D占位场;其中,全局特征为第一Occupancy解码器、第一Orientation解码器的中间层输出的特征。
本发明通过体素对齐的隐式表达来更好的表示错综复杂的头发几何,同时高分辨率的亮度图不仅能表示头发的几何结构还保留了头发几何的全部细节同时能弥补与真实数据的大部分数据分布gap,使本发明方法在推测真实数据时依然具有鲁棒性。
进一步地,所述头发隐式表达模型通过将训练数据集的每个样本作为头发隐式表达模型的输入,以最小化损失函数为目标训练获得;其中,所述损失函数为Occupancy值、Orientation值与真值的误差。
进一步地,所述头发隐式表达模型通过将训练数据集的每个样本作为头发隐式表达模型的输入,以最小化损失函数为目标训练获具体为:
先将训练数据集的每个样本作为头发隐式表达模型的输入,将粗模块输出的Occupancy或Orientation值与真值构建损失函数,进行训练,直至损失函数收敛或达到预设的最大训练次数;然后冻结粗模块的参数,将训练数据集的每个样本作为头发隐式表达模型的输入,将粗模块输出的Occupancy或Orientation值与真值构建损失函数,进行训练,直至损失函数收敛或达到预设的最大训练次数。
进一步地,所述损失函数具体如下:
在训练使使用了深度信息为损函数的计算失分配不同的权重,对于看不见的发丝分配较低的权重以学习一个经验性看似合理的结构,对看得见的部分则分配更大的权重使其能保留图像中可见的发丝结构。
进一步地,所述利用头发生长算法根据获取的3D方向场和3D占位场获得3D发丝模型,具体如下:
将3D方向场分为若干个块,将每个块分别输入至一训练好的头发生长模型,结合3D占位场的约束迭代后获得完整的3D发丝模型;
所述头发生长模型包含一个编码器和一个或两个解码器,其中,编码器用于依据3D方向场的块进行编码,获得每个块的隐式编码zi;
所述解码器,用于依据每个块i中任意一点pn,结合其隐式编码zi获得下一个和/或上一个点的位置pn+1/pn-1,如下公式所示:
其中zi,pi分别是第i个块对应的隐式编码和中心点坐标,d是patch的大小。
上述使用一个隐函数模拟头发的生长过程,将3D方向场分为若干patch,在每个patch内独立并行的生长发丝得到最终完整的3D头发模型。不仅使特征更容易解码也使头发生长并行更加方便和高效。特别地,为了生长出完整的发丝,GrowingNet包含两个解码器(MLP)从一个起始点开始双向生长发丝。
进一步地,所述头发生长模型通过将训练数据集的每个样本作为头发生长模型的输入,以最小化损失函数为目标训练获得;其中,所述损失函数为采用点pn经过头发生长模型预测得到的上一个点的真值和下一个点的真值的误差。
进一步地,损失函数表示如下:
其中,||*||1表示一范数。
一种基于隐式表达的单目3D头发建模装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述的基于隐式表达的单目3D头发建模方法。
一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时实现如上述的基于隐式表达的单目3D头发建模方法。
本发明的有益效果是是:
本发明提出了NeuralHDHair,一种全自动的高保真3D头发建模框架,引入了一种coarse-to-fine的建模策略并提出一种新颖的体素对齐的隐函数来表示头发复杂的几何特征。此外,本发明还提取头发的高分辨率的亮度图以补充更多头发几何的局部细节,实现高分辨率的3D头发建模。基于所得到的3D方向场,本发明还提出了一种基于隐函数的头发生长算法,它可以高效并行的将3D方向场转换为3D发丝模型。
附图说明
图1是本发明的网络结构图;
图2是本发明重建的结果。
具体实施方式
下面,结合具体的实施例和附图对本发明方法作进一步说明。
由于头发非常精致、多变和复杂。它由数以千计的细线组成,并受到光照、运动和遮挡的影响,因此难以分析、表示和生成。本发明的目标是给定单张图像,全自动端到端的重建一个高保真的发丝模型。我们采用一种coarse-to-fine的策略并结合所提出的体素对齐的隐式函数及亮度图得到高分辨率的3D头发几何特征再利用所设计的隐式函数实现高效并行的发丝生长。图1说明了本发明中网络的结构及数据流通方向。具体包括如下步骤:
步骤一:对于一张给定的肖像图像I,本发明的目标是得到对应的3D发丝模型。因此首先构建头部模型(Depth Bust map)并基于输入的单张肖像图像提取对应的头发2D方向图(2DOrientation map)和亮度图(luminance map);具体如下:
使用头发分割网络获得头发的掩模(mask),然后使用gabor滤波器提取头发的2D方向图,将图像I转换到CIE XYZ颜色空间再从CIE XYZ转换到LAB颜色空间,得到亮度图。利用3DBust模型渲染得到2D头部模型(Bust map),然后使用landmark将2D方向图和亮度图的人脸与2D头部模型通过计算仿射变换矩阵对齐以统一网络的输入,本实施例中还将2D头部模型组合进2D方向图中,便于后续头发生长。
步骤二:将2D方向图和亮度图输入至一训练好的头发隐式表达模型(IRHairNet)提取获得头发3D方向场和3D占位场;
其中2D方向图用于粗模块(coarse module)的输入,如图1,coarse module包含U-Net架构、多个隐式体素化(Implicit toVoxel)模块和第一Occupancy解码器、第一Orientation解码器,U-Net架构包含依次连接的多个卷积单元和反卷积单元,其中,Implicit toVoxel模块包含一个特征维度扩展和沿着Z方向复制的操作以及一个用于细化特征的第一神经网络,即,将每个体素所对应的z坐标Z(v)及其对应的卷积单元输出的每个体素v的图像特征I(x)拼接作为隐式体素化模块的输入,实现沿着Z方向复制和特征维度扩展,再利用第一神经网络(MLP)细化其特征向量,最后细化的特征向量与对应卷积单元的上一层反卷积单元的输出融合输出每个体素v对应的隐式编码F(v),同时作为下一层反卷积单元的输入;该过程具体表示为:将2D的图像特征转换为体素级的3D特征网格,如下公式所示:
F(v)=θ(I(x),Z(v))+Ir(x)
其中,图像特征I(x)是卷积单元的输出,Ir(x)是I(x)对应卷积单元的上一层的反卷积单元的输出;F(·)也是一个隐函数,它将每个体素v的坐标映射到一个隐式编码,θ表示隐式体素化模块第一神经网络的参数,其中x是空间中体素投影到平面上对应的2D坐标x。因此,经过该模块,特征能从mX*mY*C扩展为mZ*mX*mY*C(本实施例为从8*8*C扩展为6*8*8*C),其中C为特征的通道数,mZ、mX、mY分别表示Z、X、Y三个维度的特征数量;随着U-Net中反卷积decode的进行,最终可以得到2k*mZ*2k*mX*2k*mY*2k*C,k为反卷积的数量;以图中4个反卷积层为例,本实施例最终可以得到96*128*128*C1的3D特征,即空间中每一个体素都对应一个C1维的特征向量(体素对齐的隐函数)。对于空间中的任意点p,可以查询到其对应的体素的隐式编码,将该编码与该点的z坐标拼接作为第一Occupancy解码器、第一Orientation解码器的输入即可解码出该点对应的第一Occupancy和第一Orientation值公式如下:
其中,fc(*)表示第一Occupancy解码器的输出,fr(*)表示第一Orientation解码器的输出;F(vp)表示空间中的任意点p对应的体素的隐式编码,Z(p)表示点p的z坐标。
在同一个体素内可以通过采样更多的点来提高特征的分辨率。
为了生成具有更多细节的3D头发几何特征,将高分辨率的亮度图作为精模块(fine module)的输入,精模块包含一个用于提取亮度图任意点p局部特征的第二神经网络和第二Occupancy解码器、第二Orientation解码器,其中,第二神经网络提取的任意点p的局部特征、第一解码器中间层输出和点p的z坐标作为第二解码器的输入,第二Occupancy解码器、第二Orientation解码器分别解码获得对应的3D方向场和3D占位场、本实施例以Hourglass网络作为第二神经网络为例,如下公式所示:
其中Ωc(p)代表第一Occupancy解码器的中间层输出,Ωr(p)代表第一Orientation解码器的中间层输出,是p点所对应的全局特征,H代表高分辨率,IH(π(p))代表p点投影到二维空间后对应的高分辨率亮度图经第二神经网络提取的局部特征。分别表示第二Occupancy解码器、第二Orientation解码器,用来拟合一个隐函数,它将空间中的坐标及相应的特征向量映射为Occupancy或Orientation值。对整个空间密集采样,将每个点的Orientation和Occupancy值用体素表示得到最终的3D方向场(3D Orientationfield)和3D占位场(3D Occupancy field)。
其中,所述头发隐式表达模型通过将训练数据集的每个样本作为头发隐式表达模型的输入,以最小化损失函数为目标训练获得;所述损失函数为Occupancy值、Orientation值与真值的误差。本实施例中采用粗模块和精模块分别训练,具体地,先将训练数据集的每个样本作为头发隐式表达模型的输入,将粗模块输出的Occupancy或Orientation值与真值构建损失函数,进行训练,直至损失函数收敛或达到预设的最大训练次数;然后冻结粗模块的参数,将训练数据集的每个样本作为头发隐式表达模型的输入,将粗模块输出的Occupancy或Orientation值与真值构建损失函数,进行训练,直至损失函数收敛或达到预设的最大训练次数。
粗模块和精模块的采用的损失函数如下:
其中,表示粗模块或精模块输出的Occupancy值,表示粗模块或精模块输出的Orientation值,D(p)是任意的p点的深度值,τ是阈值,本实施例中取值为10,可根据实际情况调整,λ是正负样本权重因子,本实施例中取值为0.5,Wp表示点p的权重,Z(p)-D(p)大于阈值时,表明点p是被遮挡的点,给予更小的权重,反之亦然。
上述损失对于看不见的发丝分配较低的权重以学习一个经验性看似合理的结构,对看得见的部分则分配更大的权重使其能保留图像中可见的发丝结构。
进一步地,头发生长模型GrowingNet利用8*8*8的网格大小将整个3D方向场分为若干块(patch),每个patch都有其局部的发丝生长趋势,这些patch使用同一个编码器encoder E(包含3个下采样卷积操作)将所有信息存储在一个隐式编码z中,所有patch的隐式编码组成一个特征网格(feature grid),特征网格上每一个点代表一个patch;在对应patch中取任意一个点pn,结合其隐式编码z使用一个或两个解码器decoder输出其下一个点和/或上一个点的空间位置pn+1/pn-1,如下公式所示:
其中,G()、Ginv()分别表示下一个点、上一个点的空间位置解码器,zi,pi分别是第i个patch对应的隐式编码和中心点坐标,d是patch的大小,即对于所有patch都将坐标转换到一个相同的局部坐标系下,因此可以仅使用一个相同的编码器encoder和解码器decoder学习所有块中头发的生长方式。同时可以在整个空间中采样上万个初始点并行计算,结合3D占位场的约束经过迭代后即可得到完整的3D发丝模型。
所提出的GrowingNet将3D Orientation field分为许多小得patch,不仅使特征更容易解码也使头发生长并行更加方便和高效。
优选地,GrowingNet包含两个解码器(MLP)从一个起始点开始双向生长发丝。
其中,||*||1表示一范数。
图2是本发明方法的重建结果,可以看出,本发明重建的发丝模型具有高分辨率。
与前述基于隐式表达的单目3D头发建模方法的实施例相对应,本发明还提供了基于隐式表达的单目3D头发建模方法装置的实施例。
本发明实施例提供的一种基于隐式表达的单目3D头发建模装置,包括一个或多个处理器,用于实现上述实施例中的基于隐式表达的单目3D头发建模方法。
本发明基于隐式表达的单目3D头发建模装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或装置。
装置实施例可以通过软件实现,也以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的;从硬件层面而言,一般包括处理器、内存、网络接口、以及非易失性存储器,除此之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的基于隐式表达的单目3D头发建模方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是任意具备数据处理能力的设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法把所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明的保护范围。
Claims (9)
1.一种基于隐式表达的单目3D头发建模方法,其特征在于,包括:
构建头部模型,基于输入的单张肖像图像提取对应的头发2D方向图和亮度图并与头部模型对齐;
将2D方向图和亮度图输入至一训练好的头发隐式表达模型提取获得头发3D方向场和3D占位场;
利用头发生长算法根据获取的3D方向场和3D占位场获得3D发丝模型;
其中,所述头发隐式表达模型包括精模块和粗模块;其中,粗模块包括U-Net架构、多个隐式体素化模块和第一Occupancy解码器、第一Orientation解码器;其中,U-Net架构包含依次连接的多个卷积单元和反卷积单元,所述隐式体素化模块用于对卷积单元输出的每个体素v的特征沿着Z方向复制,将2D的图像特征转换为体素级的3D特征,3D特征再与2D的图像特征对应的卷积单元的上一层反卷积单元输出拼接获得每个体素v的隐式编码F(v),隐式编码F(v)作为下一层反卷积单元的输入;表示如下:
F(v)=θ(I(x),Z(v))+Ir(x)
其中,图像特征I(x)是卷积单元的输出,Ir(x)是I(x)对应卷积单元的上一层的反卷积单元的输出;θ表示隐式体素化模块神经网络的参数,x是空间中体素投影到平面上对应的2D坐标x;
第一Occupancy解码器、第一Orientation解码器分别用于依据每个点p的隐式编码和z坐标解码获得每个点p的第一Occupancy值和第一Orientation值;其中,每个点p的隐式编码采用点p对应体素的隐式编码表示,体素的隐式编码为U-Net架构最后的输出F(v);
所述精模块包括一个用于提取亮度图中点p的局部特征的第二神经网络、第二Occupancy解码器和第二Orientation解码器;第二Occupancy解码器、第二Orientation解码器分别用于依据输入的点p的局部特征、全局特征和z坐标解码获得点p的第二Occupancy值和第二Orientation值,从而获得头发3D方向场和3D占位场;其中,全局特征为第一Occupancy解码器、第一Orientation解码器的中间层输出的特征。
2.根据权利要求1所述的方法,其特征在于,所述头发隐式表达模型通过将训练数据集的每个样本作为头发隐式表达模型的输入,以最小化损失函数为目标训练获得;其中,所述损失函数为Occupancy值、Orientation值与真值的误差。
3.根据权利要求2所述的方法,其特征在于,所述头发隐式表达模型通过将训练数据集的每个样本作为头发隐式表达模型的输入,以最小化损失函数为目标训练获得;具体为:
先将训练数据集的每个样本作为头发隐式表达模型的输入,将粗模块输出的Occupancy或Orientation值与真值构建损失函数,进行训练,直至损失函数收敛或达到预设的最大训练次数;然后冻结粗模块的参数,将训练数据集的每个样本作为头发隐式表达模型的输入,将粗模块输出的Occupancy或Orientation值与真值构建损失函数,进行训练,直至损失函数收敛或达到预设的最大训练次数。
5.根据权利要求1所述的方法,其特征在于,所述利用头发生长算法根据获取的3D方向场和3D占位场获得3D发丝模型,具体如下:
将3D方向场分为若干个块,将每个块分别输入至一训练好的头发生长模型,结合3D占位场的约束迭代后获得完整的3D发丝模型;
所述头发生长模型包含一个编码器和一个或两个解码器,其中,编码器用于依据3D方向场的块进行编码,获得每个块的隐式编码zi;
所述解码器,用于依据每个块i中任意一点pn,结合其隐式编码zi获得下一个和/或上一个点的位置pn+1/pn-1,如下公式所示:
其中,G()、Ginv()分别表示下一个点、上一个点的空间位置解码器,zi,pi分别是第i个块对应的隐式编码和中心点坐标,d是块的大小。
8.一种基于隐式表达的单目3D头发建模装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的基于隐式表达的单目3D头发建模方法。
9.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时实现如权利要求1-7任一项所述的基于隐式表达的单目3D头发建模方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210448262.9A CN114882173A (zh) | 2022-04-26 | 2022-04-26 | 一种基于隐式表达的3d单目头发建模方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210448262.9A CN114882173A (zh) | 2022-04-26 | 2022-04-26 | 一种基于隐式表达的3d单目头发建模方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114882173A true CN114882173A (zh) | 2022-08-09 |
Family
ID=82671966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210448262.9A Pending CN114882173A (zh) | 2022-04-26 | 2022-04-26 | 一种基于隐式表达的3d单目头发建模方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882173A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115409922A (zh) * | 2022-08-30 | 2022-11-29 | 北京百度网讯科技有限公司 | 三维发型生成方法、装置、电子设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190051048A1 (en) * | 2016-04-19 | 2019-02-14 | Zhejiang University | Method for single-image-based fully automatic three-dimensional hair modeling |
US20200175757A1 (en) * | 2018-12-04 | 2020-06-04 | University Of Southern California | 3d hair synthesis using volumetric variational autoencoders |
CN113129347A (zh) * | 2021-04-26 | 2021-07-16 | 南京大学 | 一种自监督单视图三维发丝模型重建方法及系统 |
CN113379606A (zh) * | 2021-08-16 | 2021-09-10 | 之江实验室 | 一种基于预训练生成模型的人脸超分辨方法 |
CN113538682A (zh) * | 2021-07-19 | 2021-10-22 | 北京的卢深视科技有限公司 | 模型训练、头部重建方法、电子设备及存储介质 |
CN113706670A (zh) * | 2021-08-17 | 2021-11-26 | 复旦大学 | 生成动态三维人体网格模型序列的方法及装置 |
-
2022
- 2022-04-26 CN CN202210448262.9A patent/CN114882173A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190051048A1 (en) * | 2016-04-19 | 2019-02-14 | Zhejiang University | Method for single-image-based fully automatic three-dimensional hair modeling |
US20200175757A1 (en) * | 2018-12-04 | 2020-06-04 | University Of Southern California | 3d hair synthesis using volumetric variational autoencoders |
CN113129347A (zh) * | 2021-04-26 | 2021-07-16 | 南京大学 | 一种自监督单视图三维发丝模型重建方法及系统 |
CN113538682A (zh) * | 2021-07-19 | 2021-10-22 | 北京的卢深视科技有限公司 | 模型训练、头部重建方法、电子设备及存储介质 |
CN113379606A (zh) * | 2021-08-16 | 2021-09-10 | 之江实验室 | 一种基于预训练生成模型的人脸超分辨方法 |
CN113706670A (zh) * | 2021-08-17 | 2021-11-26 | 复旦大学 | 生成动态三维人体网格模型序列的方法及装置 |
Non-Patent Citations (3)
Title |
---|
WU K 等: "Neuralhdhair: Automatic highfidelity hair modeling from a single image using implicit neural representations", 《HTTPS://ARXIV.ORG/ABS/ 2205.04175V1》, 9 May 2022 (2022-05-09), pages 1 - 11 * |
刘涛 , 孙守迁 , 潘云鹤: "面向艺术与设计的虚拟人技术研究", 计算机辅助设计与图形学学报, no. 11, 20 November 2004 (2004-11-20), pages 8 - 17 * |
朱云峰;章毓晋;何永健;: "基于图割及动态片结构的3维人脸多视图体重建", 中国图象图形学报, no. 10, 16 October 2010 (2010-10-16), pages 118 - 124 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115409922A (zh) * | 2022-08-30 | 2022-11-29 | 北京百度网讯科技有限公司 | 三维发型生成方法、装置、电子设备和存储介质 |
CN115409922B (zh) * | 2022-08-30 | 2023-08-29 | 北京百度网讯科技有限公司 | 三维发型生成方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112889092B (zh) | 有纹理的神经化身 | |
Olszewski et al. | Transformable bottleneck networks | |
CN110443842B (zh) | 基于视角融合的深度图预测方法 | |
CN109255831B (zh) | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 | |
Khakhulin et al. | Realistic one-shot mesh-based head avatars | |
CN111652966B (zh) | 一种基于无人机多视角的三维重建方法及装置 | |
KR102602112B1 (ko) | 얼굴 이미지 생성을 위한 데이터 프로세싱 방법 및 디바이스, 및 매체 | |
CN110533712A (zh) | 一种基于卷积神经网络的双目立体匹配方法 | |
Messaoud et al. | Structural consistency and controllability for diverse colorization | |
JP2023526566A (ja) | 高速で深い顔面変形 | |
CN113762147B (zh) | 人脸表情迁移方法、装置、电子设备及存储介质 | |
CN114782634B (zh) | 基于表面隐函数的单目图像着装人体重建方法与系统 | |
CN114863038B (zh) | 基于显式几何形变的实时动态自由视角合成方法及装置 | |
CN113111861A (zh) | 人脸纹理特征提取、3d人脸重建方法及设备及存储介质 | |
CN112396645A (zh) | 一种基于卷积残差学习的单目图像深度估计方法和系统 | |
WO2021228183A1 (en) | Facial re-enactment | |
CN116977522A (zh) | 三维模型的渲染方法、装置、计算机设备和存储介质 | |
CN114943656B (zh) | 一种人脸图像修复方法及系统 | |
RU2713695C1 (ru) | Текстурированные нейронные аватары | |
CN115375839A (zh) | 一种基于深度学习的多视角头发建模方法及系统 | |
CN113129347B (zh) | 一种自监督单视图三维发丝模型重建方法及系统 | |
CN114882173A (zh) | 一种基于隐式表达的3d单目头发建模方法及装置 | |
CN111563944B (zh) | 三维人脸表情迁移方法及系统 | |
CN117274446A (zh) | 一种场景视频处理方法、装置、设备及存储介质 | |
CN110322548B (zh) | 一种基于几何图像参数化的三维网格模型生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |