CN112288851A - 一种基于双支流网络的三维人脸建模方法 - Google Patents
一种基于双支流网络的三维人脸建模方法 Download PDFInfo
- Publication number
- CN112288851A CN112288851A CN202011147653.4A CN202011147653A CN112288851A CN 112288851 A CN112288851 A CN 112288851A CN 202011147653 A CN202011147653 A CN 202011147653A CN 112288851 A CN112288851 A CN 112288851A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- texture
- map
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000010586 diagram Methods 0.000 claims abstract description 71
- 230000014509 gene expression Effects 0.000 claims abstract description 61
- 230000008569 process Effects 0.000 claims abstract description 36
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000001815 facial effect Effects 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 28
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 238000009877 rendering Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000005286 illumination Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000000452 restraining effect Effects 0.000 claims description 2
- 239000004576 sand Substances 0.000 claims description 2
- 230000006870 function Effects 0.000 description 18
- 230000008921 facial expression Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 2
- 241001155961 Baris Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于双支流网络的三维人脸建模方法,该方法包括以下步骤:1)构建基于自编码器结构的人脸形状重建支流,获得身份空间图和表情空间图;2)利用身份空间图和表情空间图分别表达身份属性成分和表情属性成分;3)构建基于语义区域的面部纹理重建支流,获得具有高真实度的面部纹理图;4)构建融合模块,其过程为:将重建的面部形状模型与重建的面部纹理图按照预定义的三维顶点拓扑关系进行对应组合,得到最终重建的三维人脸模型。本发明通过将人脸的身份和表情属性进行解耦学习,并利用双支流网络进行面部形状与面部纹理的处理,实现对具有大幅度表情的精确三维人脸重建。
Description
技术领域
本发明属于计算机视觉和计算机图形学领域,尤其涉及一种基于双支流网络的三维人脸建模方法。
背景技术
单目人脸重建旨在从单张人脸图像中恢复出对应的三维人脸模型。近年来,因为其在实际中的广泛应用,例如人脸对齐,人脸编辑以及虚拟现实等方面,大量的研究工作已经投入到该领域中。
然而,从单张图像中重建出精确的人脸几何形状并恢复出逼真的面部纹理图是一件非常具有挑战性的事情。其中一项难以避免的挑战是人脸表情的多样性,这是一种人类与生俱来的属性。人脸表情的多样性和模糊性成为了三维人脸重建过程中必须要解决的关键问题。
为了提升人脸重建的效果,许多方法采用了基于深度学习的技术并取得了明显的进步。2015年,普林斯顿大学Kyle Genova等人利用卷积神经网络直接从输入图像中回归出人脸形状和面部纹理的3DMM参数用于三维人脸重建任务。但是该方法受限于3DMM的线性基,其表达能力远不足以覆盖真实世界下的人脸外观的多样性,因此导致其不能准确表述带有复杂表情的人脸几何形状,且在面部纹理表达中丢失了高频细节信息。2018年,上海交通大学Yao Feng等人在深度学框架下提出利用二维UV位置图去表达人脸几何形状以避免3DMM线性基的约束,并联合实现三维人脸重建和人脸对齐的任务。但是该方法仅使用一副UV图表达人脸几何形状,没有区分身份成分和表情成分,因此当输入人脸图像中具有大幅度表情时,重建结果仍然不能准确描述原始人脸表情。2019年,帝国理工学院的BarisGecer采用了生成对抗网络在展开的UV空间中去生成高保真的面部纹理图。然而,可用于训练的面部纹理图的数据量十分有限,存在获取困难和成本高的缺点,因此该方法限制了其应用范围。
综上所述,现有的方法要么以线性3DMM的方法,利用神经网络估计出表达能力有限的模型参数;或者利用无约束的三维人脸表达方式,但是没有专门针对人脸表情的属性进行处理,因此会造成在大幅度表情的条件下的预测错误,从而降低最终的三维人脸重建精度。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于双支流网络的三维人脸建模方法。
本发明解决其技术问题所采用的技术方案是:一种基于双支流网络的三维人脸建模方法,包括以下步骤:
1、一种基于双支流网络的三维人脸建模方法,其特征在于,包括以下几个步骤:
(1)预处理待输入的人脸图像;
(2)构建基于深度自编码器的人脸形状重建支流,其过程为:利用形状编码器提取输入图像中人脸对应的隐编码特征向量;构建身份空间图解码器,用于从人脸的隐编码特征向量中预测身份空间图;构建表情空间图解码器,用于从人脸的隐编码特征向量中预测表情空间图;构建人脸参数解码器,用于从人脸的隐编码特征向量中预测一个包含了纹理参数,姿态参数和光照参数的人脸参数集;
然后利用身份空间图和表情空间图以分别表达身份属性成分和表情属性成分,其过程为:首先,分解人脸三维形状为基础成分、身份成分和表情成分;然后,将这三个存在于三维空间中的空间形式表示为二维平面上的图像形式,分别为基础空间图、身份空间图和表情空间图;其中,基础成分对于所有情况下的人脸均保持不变,身份空间图对应于不同的身份人脸形状,表情空间图对应于不同表情的人脸形状;空间图中的R,G和B的值分别记录了对应人脸三维形状的空间位置信息中的x,y和z的值;最终的面部空间图由基础空间图、身份空间图和表情空间图进行叠加而成;
(3)构建基于语义区域的面部纹理重建支流,用于获得具有高真实度的面部纹理图;
(4)利用融合模块将人脸形状重建支流的输出结果面部空间图和面部纹理重建支流的输出结果面部纹理图进行融合,得到最终的三维人脸重建模型。
进一步的,步骤(3)中基于语义区域的面部纹理重建支流的过程处理如下,
构建面部语义区域风格编码提取模块,对输入人脸图像进行面部语义区域的解析,得到n个面部区域的局部语义图;然后对每个局部语义图进行特征提取,得到了一组n个风格语义编码对;
然后构建以U-Net为结构的面部纹理转换网络,对于U-Net中编码器输出的特征图,使用n个风格语义编码对转换网络中表示n个面部局部语义区域的特征进行基于区域的标准化操作;利用参数解码器输出的纹理参数,输入到3DMM获得面部色彩图;将面部色彩图展开至二维平面空间,作为内容图像;输入内容图像至面部纹理转换网络,得到对应于风格语义编码的具有高真实度的面部纹理图。
进一步的,所述步骤(2)中人脸形状重建支流的结构中:形状编码器以多尺度卷积网络结构为基础,基于FaceNet人脸识别网络的主体结构,输出维度为128的隐编码特征向量,该过程如以下公式表示:
fL=ε(I)
其中,ε(·)表示形状编码器,fL表示隐编码特征向量,其对应于输入的人脸图像I。
进一步的,所述步骤(2)中人脸形状重建支流的结构中:具有身份空间图解码器、表情空间图解码器和一个参数解码器,两个空间图解码器具有相同的网络结构,使用“反卷积层+BN批标准化+ReLu激活操作”的八个子结构进行级联,且最后一个激活层为tanh,空间图解码器用于从隐编码特征向量中分别预测身份空间图和表情空间图,该过程如以下公式表示:
参数解码器以多层感知机为结构,用于从隐编码特征向量中预测一个维度为111的参数集合,该参数集合中包含纹理参数,姿态参数和光照参数,该过程如以下公式表示:
进一步的,所述步骤(2)中人脸形状重建支流的训练中,使用了损失函数对预测结果进行约束:
参数损失用来度量预测的参数集合与标定的真实参数集的差异;为了测量该差异,使用欧几里得距离计算参数集中各维度的误差:
空间图损失用来度量预测的人脸空间图与标定的人脸空间图的差异;利用平方误差损失计算人脸空间图中各空间位置的误差;空间图损失包含三个部分,分别是身份空间图损失表情空间图损失和面部空间图损失该过程如下表示:
其中,A和分别表示人脸形状重建支流预测的空间图和训练数据集中标定的空间图;Aid,Aexp,Af分别表示身份空间图、表情空间图和面部空间图;W表示面部区域权重图,用于在计算身份空间图的过程中,利用面部区域权重图,对面部不同区域赋予不同权重值,增强身份空间图的判别性;||·||2表示2范数;
对称损失用来度量预测的身份空间图的对称性,利用其左右对称的特点以一范式的方式进行空间误差的约束:
进一步的,所述步骤(3)中面部纹理重建支流的结构中:面部语义区域风格编码提取模块由预训练的人脸解析器和语义区域风格特征提取器构成,预训练的人脸解析器对输入人脸图像进行面部语义区域解析,得到n个人脸区域图,每个人脸区域图与输入人脸图像中的特定语义区域一一对应;语义区域风格特征提取器由包含了n个滤波器的分组卷积操作构成,用来分别对n个人脸区域图进行特征提取,在特征图经过全连接层的维度变换之后,得到了一组包含n个语义风格编码对的向量,该过程如下表示:
进一步的,所述步骤(3)中面部纹理重建支流的结构中:构建以U-Net为结构的面部纹理转换网络,编码器和解码器具有对称的结构,对应8个卷积层和8个反卷积层,编码器输出的特征图大小为n×16×16;对于该特征图,转换网络首先接受n个风格语义编码对对其进行基于区域的标准化操作;然后,将转换后的特征图送入解码器进行处理,该过程如下表示:
其中,X为纹理转换网络中编码器的输出特征图,和为对应的语义区域的均值和方差,和来自对应区域的风格编码对;n表示面部局部语义区域的数量;为进行了风格转换之后的特征图,用来作为纹理转换网络中解码器的输入。
进一步的,所述步骤(3)中面部纹理重建支流的结构中:构建纹理转换网络的输入图像数据,首先,将参数集中的纹理参数输入到3DMM,并将输出结果展开至二维平面空间得到面部色彩图其中和Bt分别指3DMM中的平均纹理部分和纹理基础部分,pt指的是参数解码器预测的纹理参数;然后,根据面部色彩图自带的区域信息进行划分得到包含了n个语义区域的面部区域图Is;将面部色彩图和面部区域图进行通道上的拼接[Iu,Is],作为数为输入图像数据;面部纹理转换网络对输入图像数据进行处理,得到由风格语义编码对控制的具有高真实度的面部纹理图,该过程如下表示:
进一步的,所述步骤(3)中面部纹理重建支流中,使用了损失函数对预测结果进行约束:
风格损失用来度量生成的面部纹理图与真实的面部纹理图的风格差异;利用预训练的VGG19网络的第二层、第三层、第四层和第五层中卷积操作的特征输出来计算生成的面部纹理图与真实的面部纹理图之间的特征图的差异:
人脸关键点损失用来使生成的面部纹理图中的结构信息与面部色彩图中的结构信息相一致;为了度量差异,使用欧几里得距离计算人脸关键点中各坐标之间的误差:
进一步的,所述步骤(4)中的具体实现方式如下:首先根据预定义的三维顶点拓扑关系,将面部形状重建支流的输出结果人脸形状图和面部纹理重建支流的输出结果人脸纹理图按照逐个顶点的拓扑关系进行一一对应的组合,构成最终的三维人脸重建模型F=[Af,Tf],Af表示面部空间图,Tf表示面部纹理图;
然后利用可微分渲染层将完整的三维人脸模型渲染到二维平面,重构出输入人脸图像pl和ph分别表示参数解码器预测的光照参数和姿态参数;然后,计算重构人脸图像Ir与输入人脸图像I之间的像素值误差,构成自监督训练模式;在此过程中,使用了损失函数对预测结果进行约束:
重构误差损失函数用来度量渲染重构的人脸图像Ir与输入的人脸图像I的差异;利用二范式损失计算人脸图像之间各个对应像素的误差:
其中,COS(·)表示余弦距离计算方式;
对抗损失函数用来使渲染重构的人脸图像Ir在真实度上与输入人脸图像I之间尽可能的接近,通过使用patchGAN的判别器对生成的Ir和原始的I进行判别:
和现有技术相比,本发明的主要有益效果为:本发明通过将完整的人脸面部几何形状解耦为身份属性成分和表情属性成分,并利用人脸形状重建支流进行对应的身份空间图和表情空间图的预测,实现属性分解的面部形状重建;基于语义区域的面部纹理重建支流,结合输入人脸图像的真实纹理与面部区域图,生成高保真的面部纹理图;利用融合模块组合人脸几何重建支流和面部纹理重建支流的输出结果,得到最终的人脸三维重建模型。
本发明可以解决传统三维人脸重建方法中,由于线性3DMM模型表达能力的限制以及非线性3DMM方法中没有对人脸表情属性进行处理,导致对于大幅度表情的条件下的人脸图像重建的误差较大的问题。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为本发明实施例的整体框架示意图。
图2为本发明实施例的人脸空间图合成的示意图,(a)-(e)分别为基础空间图、身份空间图,表情空间图,面部空间图和人脸。
图3为本发明实施例的人脸面部纹理重建支流的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1是本发明的流程图,输入人脸图像经过预处理后,进入双支流网络。对于面部形状重建支流,首先利用形状编码器,对输入的人脸图像提取卷积特征,得到输入人脸图像的隐编码特征向量;然后分别构建身份空间图解码器、表情空间图解码器和一个参数解码器;身份空间图解码器和表情空间图解码器用于从隐编码特征向量中分别预测身份空间图和表情空间图;参数解码器用于从隐编码特征向量中预测一个包含了纹理参数,姿态参数和光照参数的参数集合。对于面部纹理重建支流,首先利用面部语义区域风格编码提取模块对输入人脸图像进行基于语义区域的风格特征提取,得到对应n个面部区域的n个风格编码对;然后再利用基于U-Net的面部纹理转换网络,在编码器的输出位置接受是风格编码对,对输入的面部色彩图进行基于面部语义区域的风格变换,获得具有高真实度的面部纹理图。最后利用融合模块根据预定义的三维顶点拓扑关系,将面部形状重建支流的输出结果面部空间图和面部纹理重建支流的输出结果面部纹理图按照逐个顶点的拓扑关系进行一一对应的组合,形成最终的三维人脸重建模型。
如图1所示,本发明实施例提供的一种基于双支流网络的三维人脸建模方法,具体包括以下步骤:
步骤一:本实例包括合成训练数据和真实训练数据。合成训练数据用于训练人脸形状重建支流,使用公开的人脸数据集300W-LP合成,合成步骤为:首先,使用300W-LP中自带标注的3DMM参数分别得到基础人脸模型、身份人脸模型和表情人脸模型;然后,使用身份人脸模型减去基础人脸模型得到身份属性成分,使用表情人脸模型减去身份人脸模型得到表情属性成分;最后,将基础人脸模型、身份属性成分和表情属性成分分别展开到二维平面空间,得到对应的基础空间图、身份空间图和表情空间图。真实训练数据采用CelebA数据集,用于对整个网络框架进行端到端的自监督训练。以上所有的图像在使用时尺寸都被归一化为256×256。
步骤二:如图1中的人脸形状重建支流结构所示,实现基于人脸形状重建支流的面部空间图的预测。
(1)利用多尺度卷积操作(本实施例采取预训练的FaceNet网络结构的主体部分)作为形状编码器,对输入的人脸图像提取卷积特征,并对其进行全局池化操作输出128维的隐编码特征向量fL=εM(I),以此作为对输入人脸图像的高维特征表示;
(2)构建身份空间图解码器、表情空间图解码器和一个参数解码器。两个空间图解码器具有相同的网络结构,使用“反卷积层+BN批标准化+ReLu激活操作”的八个子结构进行级联,且最后一个激活层为tanh。空间图解码器用于从隐编码特征向量中分别预测身份空间图和表情空间图。最终的面部空间图由基础空间图、身份空间图和表情空间图进行叠加而成;该过程如下表示:
Af=Abase+Aid+Aexp
其中,Af表示最终的面部空间图,Abase表示基础空间图,Aid表示身份空间图,Aexp表示表情空间图。
其中,A和分别表示人脸形状重建支流预测的空间图和训练数据集中标定的空间图;W表示面部区域权重图,用于在计算身份空间图的过程中,利用面部区域权重图,对面部不同区域赋予不同权重值,增强身份空间图的判别性,||·||2表示2范数。
(3)参数解码器以多层感知机为结构,用于从隐编码特征向量中预测一个维度为111的参数集合,该参数集合中包含纹理参数,姿态参数和光照参数。该过程如以下公式表示:
该过程中使用到的损失函数为参数损失函数:
(4)整个人脸形状重建支流的训练中,使用了总损失函数对预测结果进行约束:
对称损失用来度量预测的身份空间图的对称性,利用其左右对称的特点以一范式的方式进行空间误差的约束:
步骤三:如图3中的面部纹理重建支流结构所示,基于面部语义区域风格化的面部纹理图的预测。
(1)面部语义区域风格编码提取模块由预训练的人脸解析器和语义区域风格特征提取器构成,用于对输入人脸图像进行面部语义区域的解析,得到n个面部区域的局部语义图,并对每个局部语义图进行特征提取,得到了一组包含n个风格语义编码对的向量。该过程如下表示:
(2)构建以U-Net为结构的面部纹理转换网络,接受输入的面部色彩图和风格语义编码对,其作用是对面部色彩图进行基于面部语义区域的风格转化,合成具有高真实度的面部纹理图。该过程如下表示:
(3)构建纹理转换网络的输入图像数据,利用纹理参数得到面部色彩图Iu,利用其语义区域信息得到面部区域图Is,将面部色彩图和面部区域图进行通道上的拼接[Iu,Is],作为输入图像数据;纹理转换网络的处理过程如下:
(4)面部纹理重建支流中,使用了损失函数对预测结果进行约束:
风格损失用来度量生成的面部纹理图与真实的面部纹理图的风格差异;利用预训练的VGG19网络的第二层、第三层、第四层和第五层中卷积操作的特征输出来计算生成的面部纹理图与真实的面部纹理图之间的特征图的差异:
人脸关键点损失用来使生成的面部纹理图中的结构信息与面部色彩图中的结构信息相一致;为了度量差异,使用欧几里得距离计算人脸关键点中各坐标之间的误差:
步骤四:如图1中的融合模块所示,利用融合模块得到最终的三维人脸重建模型并实现自监督训练模式。
(1)根据预定义的三维顶点拓扑关系,将面部形状重建支流的输出结果人脸形状图Af和面部纹理重建支流的输出结果人脸纹理图Tf按照逐个顶点的拓扑关系进行一一对应的组合,形成最终的三维人脸重建模型F=[Af,Tf];
(3)为了使重构的人脸图像Ir与输入人脸图像I尽可能的相似,使用身份损失函数对Iid进行约束:身份相似度损失函数用来度量重构的人脸图像Ir与输入人脸图像I之间的身份相似度,
(4)为了使重构的人脸图像Ir在真实度上与输入人脸图像I之间尽可能的接近,对抗损失函数用来使重构的人脸图像Ir在真实度上与输入人脸图像I之间尽可能的接近,通过是用patchGAN的判别器对生成的Ir和原始的I进行判别:
本发明包括训练阶段和测试阶段。在训练阶段,采用“先部分后整体”的策略。首先,固定面部纹理重建支流中的网络权值,使用合成训练数据单独训练人脸形状重建支流,共计训练50个epoch;然后,固定人脸形状重建支流中的网络权值,单独训练面部纹理重建支流,共计训练50个epoch;最后,使用真实训练数据CelebA数据集,对整个网络框架进行端到端的自监督训练,共计训练100个epoch。在测试阶段,采用训练后的双支流网络对输入人脸图像分别获取三维面部空间图和面部纹理图,通过融合模块得到最终的三维人脸重建模型。
应当理解的是,对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于双支流网络的三维人脸建模方法,其特征在于,包括以下几个步骤:
(1)预处理待输入的人脸图像;
(2)构建基于深度自编码器的人脸形状重建支流,其过程为:利用形状编码器提取输入图像中人脸对应的隐编码特征向量;构建身份空间图解码器,用于从人脸的隐编码特征向量中预测身份空间图;构建表情空间图解码器,用于从人脸的隐编码特征向量中预测表情空间图;构建人脸参数解码器,用于从人脸的隐编码特征向量中预测一个包含了纹理参数,姿态参数和光照参数的人脸参数集;
然后利用身份空间图和表情空间图以分别表达身份属性成分和表情属性成分,其过程为:首先,分解人脸三维形状为基础成分、身份成分和表情成分;然后,将这三个存在于三维空间中的空间形式表示为二维平面上的图像形式,分别为基础空间图、身份空间图和表情空间图;其中,基础成分对于所有情况下的人脸均保持不变,身份空间图对应于不同的身份人脸形状,表情空间图对应于不同表情的人脸形状;空间图中的R,G和B的值分别记录了对应人脸三维形状的空间位置信息中的x,y和z的值;最终的面部空间图由基础空间图、身份空间图和表情空间图进行叠加而成;
(3)构建基于语义区域的面部纹理重建支流,用于获得具有高真实度的面部纹理图;
(4)利用融合模块将人脸形状重建支流的输出结果面部空间图和面部纹理重建支流的输出结果面部纹理图进行融合,得到最终的三维人脸重建模型。
2.根据权利要求1所述的一种基于双支流网络的三维人脸建模方法,其特征在于:步骤(3)中基于语义区域的面部纹理重建支流的过程处理如下,
构建面部语义区域风格编码提取模块,对输入人脸图像进行面部语义区域的解析,得到n个面部区域的局部语义图;然后对每个局部语义图进行特征提取,得到了一组n个风格语义编码对;
然后构建以U-Net为结构的面部纹理转换网络,对于U-Net中编码器输出的特征图,使用n个风格语义编码对转换网络中表示n个面部局部语义区域的特征进行基于区域的标准化操作;利用参数解码器输出的纹理参数,输入到3DMM获得面部色彩图;将面部色彩图展开至二维平面空间,作为内容图像;输入内容图像至面部纹理转换网络,得到对应于风格语义编码的具有高真实度的面部纹理图。
3.根据权利要求1所述的一种基于双支流网络的三维人脸建模方法,其特征在于:所述步骤(2)中人脸形状重建支流的结构中:形状编码器以多尺度卷积网络结构为基础,基于FaceNet人脸识别网络的主体结构,输出维度为128的隐编码特征向量,该过程如以下公式表示:
fL=ε(I)
其中,ε(·)表示形状编码器,fL表示隐编码特征向量,其对应于输入的人脸图像I。
4.根据权利要求1所述的一种基于双支流网络的三维人脸建模方法,其特征在于:所述步骤(2)中人脸形状重建支流的结构中:具有身份空间图解码器、表情空间图解码器和一个参数解码器,两个空间图解码器具有相同的网络结构,使用“反卷积层+BN批标准化+ReLu激活操作”的八个子结构进行级联,且最后一个激活层为tanh,空间图解码器用于从隐编码特征向量中分别预测身份空间图和表情空间图,该过程如以下公式表示:
参数解码器以多层感知机为结构,用于从隐编码特征向量中预测一个维度为111的参数集合,该参数集合中包含纹理参数,姿态参数和光照参数,该过程如以下公式表示:
5.根据权利要求1所述的一种基于双支流网络的三维人脸建模方法,其特征在于:所述步骤(2)中人脸形状重建支流的训练中,使用了损失函数对预测结果进行约束:
参数损失用来度量预测的参数集合与标定的真实参数集的差异;为了测量该差异,使用欧几里得距离计算参数集中各维度的误差:
空间图损失用来度量预测的人脸空间图与标定的人脸空间图的差异;利用平方误差损失计算人脸空间图中各空间位置的误差;空间图损失包含三个部分,分别是身份空间图损失表情空间图损失和面部空间图损失该过程如下表示:
其中,A和分别表示人脸形状重建支流预测的空间图和训练数据集中标定的空间图;Aid,Aexp,Af分别表示身份空间图、表情空间图和面部空间图;W表示面部区域权重图,用于在计算身份空间图的过程中,利用面部区域权重图,对面部不同区域赋予不同权重值,增强身份空间图的判别性;||·||2表示2范数;
对称损失用来度量预测的身份空间图的对称性,利用其左右对称的特点以一范式的方式进行空间误差的约束:
6.根据权利要求2所述的一种基于双支流网络的三维人脸建模方法,其特征在于:所述步骤(3)中面部纹理重建支流的结构中:面部语义区域风格编码提取模块由预训练的人脸解析器和语义区域风格特征提取器构成,预训练的人脸解析器对输入人脸图像进行面部语义区域解析,得到n个人脸区域图,每个人脸区域图与输入人脸图像中的特定语义区域一一对应;语义区域风格特征提取器由包含了n个滤波器的分组卷积操作构成,用来分别对n个人脸区域图进行特征提取,在特征图经过全连接层的维度变换之后,得到了一组包含n个语义风格编码对的向量,该过程如下表示:
8.根据权利要求2所述的一种基于双支流网络的三维人脸建模方法,其特征在于:所述步骤(3)中面部纹理重建支流的结构中:构建纹理转换网络的输入图像数据,首先,将参数集中的纹理参数输入到3DMM,并将输出结果展开至二维平面空间得到面部色彩图其中和Bt分别指3DMM中的平均纹理部分和纹理基础部分,pt指的是参数解码器预测的纹理参数;然后,根据面部色彩图自带的区域信息进行划分得到包含了n个语义区域的面部区域图Is;将面部色彩图和面部区域图进行通道上的拼接[Iu,Is],作为数为输入图像数据;面部纹理转换网络对输入图像数据进行处理,得到由风格语义编码对控制的具有高真实度的面部纹理图,该过程如下表示:
9.根据权利要求2所述的一种基于双支流网络的三维人脸建模方法,其特征在于:所述步骤(3)中面部纹理重建支流中,使用了损失函数对预测结果进行约束:
风格损失用来度量生成的面部纹理图与真实的面部纹理图的风格差异;利用预训练的VGG19网络的第二层、第三层、第四层和第五层中卷积操作的特征输出来计算生成的面部纹理图与真实的面部纹理图之间的特征图的差异:
人脸关键点损失用来使生成的面部纹理图中的结构信息与面部色彩图中的结构信息相一致;为了度量差异,使用欧几里得距离计算人脸关键点中各坐标之间的误差:
10.根据权利要求1所述的一种基于双支流网络的三维人脸建模方法,其特征在于:所述步骤(4)的具体实现方式如下:首先根据预定义的三维顶点拓扑关系,将面部形状重建支流的输出结果人脸形状图和面部纹理重建支流的输出结果人脸纹理图按照逐个顶点的拓扑关系进行一一对应的组合,构成最终的三维人脸重建模型F=[Af,Tf],Af表示面部空间图,Tf表示面部纹理图;
然后利用可微分渲染层将完整的三维人脸模型渲染到二维平面,重构出输入人脸图像pl和ph分别表示参数解码器预测的光照参数和姿态参数;然后,计算重构人脸图像Ir与输入人脸图像I之间的像素值误差,构成自监督训练模式;在此过程中,使用了损失函数对预测结果进行约束:
重构误差损失函数用来度量渲染重构的人脸图像Ir与输入的人脸图像I的差异;利用二范式损失计算人脸图像之间各个对应像素的误差:
其中,COS(·)表示余弦距离计算方式;
对抗损失函数用来使渲染重构的人脸图像Ir在真实度上与输入人脸图像I之间尽可能的接近,通过使用patchGAN的判别器对生成的Ir和原始的I进行判别:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011147653.4A CN112288851B (zh) | 2020-10-23 | 2020-10-23 | 一种基于双支流网络的三维人脸建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011147653.4A CN112288851B (zh) | 2020-10-23 | 2020-10-23 | 一种基于双支流网络的三维人脸建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112288851A true CN112288851A (zh) | 2021-01-29 |
CN112288851B CN112288851B (zh) | 2022-09-13 |
Family
ID=74423860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011147653.4A Active CN112288851B (zh) | 2020-10-23 | 2020-10-23 | 一种基于双支流网络的三维人脸建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112288851B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818915A (zh) * | 2021-02-25 | 2021-05-18 | 华南理工大学 | 基于3dmm软生物特征的深度伪造视频检测方法及系统 |
CN112967373A (zh) * | 2021-02-03 | 2021-06-15 | 重庆邮电大学 | 一种基于非线性3dmm的人脸图像特征编码方法 |
CN113470182A (zh) * | 2021-09-03 | 2021-10-01 | 中科计算技术创新研究院 | 人脸几何特征编辑方法及深度人脸重塑编辑方法 |
CN113538221A (zh) * | 2021-07-21 | 2021-10-22 | Oppo广东移动通信有限公司 | 三维人脸的处理方法、训练方法、生成方法、装置及设备 |
CN114241102A (zh) * | 2021-11-11 | 2022-03-25 | 清华大学 | 基于参数化模型的人脸细节重建和编辑方法及装置 |
CN115147556A (zh) * | 2022-08-03 | 2022-10-04 | 西安科技大学 | 三维人脸几何模型、人脸彩色模型的构建方法、装置 |
CN115457611A (zh) * | 2022-10-21 | 2022-12-09 | 中国矿业大学 | 一种基于特征解耦网络的静脉识别方法 |
WO2023050992A1 (zh) * | 2021-09-30 | 2023-04-06 | 广州视源电子科技股份有限公司 | 用于人脸重建的网络训练方法、装置、设备及存储介质 |
CN116310045A (zh) * | 2023-04-24 | 2023-06-23 | 天度(厦门)科技股份有限公司 | 一种三维人脸纹理创建方法、装置及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103034974A (zh) * | 2012-12-07 | 2013-04-10 | 武汉大学 | 基于支撑集驱动稀疏编码的人脸图像超分辨率重建方法 |
US20180158240A1 (en) * | 2016-12-01 | 2018-06-07 | Pinscreen, Inc. | Photorealistic Facial Texture Inference Using Deep Neural Networks |
CN110782503A (zh) * | 2019-09-16 | 2020-02-11 | 中国电子进出口有限公司 | 一种基于两分支深度相关网络的人脸图像合成方法和装置 |
CN111553284A (zh) * | 2020-04-29 | 2020-08-18 | 武汉大学 | 人脸图像处理方法、装置、计算机设备和存储介质 |
CN111753782A (zh) * | 2020-06-30 | 2020-10-09 | 西安深信科创信息技术有限公司 | 一种基于双流网络的假脸检测方法、装置及电子设备 |
-
2020
- 2020-10-23 CN CN202011147653.4A patent/CN112288851B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103034974A (zh) * | 2012-12-07 | 2013-04-10 | 武汉大学 | 基于支撑集驱动稀疏编码的人脸图像超分辨率重建方法 |
US20180158240A1 (en) * | 2016-12-01 | 2018-06-07 | Pinscreen, Inc. | Photorealistic Facial Texture Inference Using Deep Neural Networks |
CN110782503A (zh) * | 2019-09-16 | 2020-02-11 | 中国电子进出口有限公司 | 一种基于两分支深度相关网络的人脸图像合成方法和装置 |
CN111553284A (zh) * | 2020-04-29 | 2020-08-18 | 武汉大学 | 人脸图像处理方法、装置、计算机设备和存储介质 |
CN111753782A (zh) * | 2020-06-30 | 2020-10-09 | 西安深信科创信息技术有限公司 | 一种基于双流网络的假脸检测方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
AYUSH TEWARI: "High-Fidelity Monocular Face reconstruction Based on an Unsupervised Model-Based Face Autoencoder", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
H.LI,J.SUN,Z.XU,AND L.CHEN: "Multimodel 2D+3D facial expression recognition with deep fusion convolutional neural network", 《IEEE TRANS. MULTIMEDIA》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967373A (zh) * | 2021-02-03 | 2021-06-15 | 重庆邮电大学 | 一种基于非线性3dmm的人脸图像特征编码方法 |
CN112818915A (zh) * | 2021-02-25 | 2021-05-18 | 华南理工大学 | 基于3dmm软生物特征的深度伪造视频检测方法及系统 |
CN113538221A (zh) * | 2021-07-21 | 2021-10-22 | Oppo广东移动通信有限公司 | 三维人脸的处理方法、训练方法、生成方法、装置及设备 |
CN113470182A (zh) * | 2021-09-03 | 2021-10-01 | 中科计算技术创新研究院 | 人脸几何特征编辑方法及深度人脸重塑编辑方法 |
WO2023050992A1 (zh) * | 2021-09-30 | 2023-04-06 | 广州视源电子科技股份有限公司 | 用于人脸重建的网络训练方法、装置、设备及存储介质 |
CN114241102B (zh) * | 2021-11-11 | 2024-04-19 | 清华大学 | 基于参数化模型的人脸细节重建和编辑方法 |
CN114241102A (zh) * | 2021-11-11 | 2022-03-25 | 清华大学 | 基于参数化模型的人脸细节重建和编辑方法及装置 |
CN115147556A (zh) * | 2022-08-03 | 2022-10-04 | 西安科技大学 | 三维人脸几何模型、人脸彩色模型的构建方法、装置 |
CN115147556B (zh) * | 2022-08-03 | 2024-09-20 | 西安科技大学 | 三维人脸几何模型、人脸彩色模型的构建方法、装置 |
CN115457611A (zh) * | 2022-10-21 | 2022-12-09 | 中国矿业大学 | 一种基于特征解耦网络的静脉识别方法 |
CN115457611B (zh) * | 2022-10-21 | 2023-04-21 | 中国矿业大学 | 一种基于特征解耦网络的静脉识别方法 |
CN116310045B (zh) * | 2023-04-24 | 2023-08-04 | 天度(厦门)科技股份有限公司 | 一种三维人脸纹理创建方法、装置及设备 |
CN116310045A (zh) * | 2023-04-24 | 2023-06-23 | 天度(厦门)科技股份有限公司 | 一种三维人脸纹理创建方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112288851B (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112288851B (zh) | 一种基于双支流网络的三维人脸建模方法 | |
CN111275518B (zh) | 一种基于混合光流的视频虚拟试穿方法及装置 | |
Wu et al. | Learning shape priors for single-view 3d completion and reconstruction | |
CN113168710A (zh) | 三维对象重建 | |
CN112950775A (zh) | 一种基于自监督学习的三维人脸模型重建方法及系统 | |
Jiang et al. | Dual attention mobdensenet (damdnet) for robust 3d face alignment | |
CN113421328B (zh) | 一种三维人体虚拟化重建方法及装置 | |
CN111950477B (zh) | 一种基于视频监督的单图像三维人脸重建方法 | |
EP2689396A1 (en) | Method of augmented makeover with 3d face modeling and landmark alignment | |
CN113112583B (zh) | 基于红外热成像的3d人体重构方法 | |
CN114049435A (zh) | 一种基于Transformer模型的三维人体重建方法及系统 | |
CN115951784B (zh) | 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法 | |
Kang et al. | Competitive learning of facial fitting and synthesis using uv energy | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
CN113313828A (zh) | 基于单图片本征图像分解的三维重建方法与系统 | |
CN115457197A (zh) | 基于素描草图的人脸三维重建模型训练方法、重建方法及装置 | |
CN117315169A (zh) | 基于深度学习多视密集匹配的实景三维模型重建方法和系统 | |
Wang et al. | PACCDU: Pyramid attention cross-convolutional dual UNet for infrared and visible image fusion | |
CN117522990A (zh) | 基于多头注意力机制和迭代细化的类别级位姿估计方法 | |
Lu et al. | 3D-FHNet: Three-dimensional fusion hierarchical reconstruction method for any number of views | |
CN113538662B (zh) | 一种基于rgb数据的单视角三维物体重建方法及装置 | |
Correia et al. | 3D reconstruction of human bodies from single-view and multi-view images: A systematic review | |
CN114283265A (zh) | 一种基于3d旋转建模的无监督人脸转正方法 | |
Yao et al. | Neural Radiance Field-based Visual Rendering: A Comprehensive Review | |
Yu et al. | Pvnn: A neural network library for photometric vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |