CN114241102B - 基于参数化模型的人脸细节重建和编辑方法 - Google Patents

基于参数化模型的人脸细节重建和编辑方法 Download PDF

Info

Publication number
CN114241102B
CN114241102B CN202111334742.4A CN202111334742A CN114241102B CN 114241102 B CN114241102 B CN 114241102B CN 202111334742 A CN202111334742 A CN 202111334742A CN 114241102 B CN114241102 B CN 114241102B
Authority
CN
China
Prior art keywords
face
coefficient
vertex
age
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111334742.4A
Other languages
English (en)
Other versions
CN114241102A (zh
Inventor
徐枫
凌精望
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202111334742.4A priority Critical patent/CN114241102B/zh
Publication of CN114241102A publication Critical patent/CN114241102A/zh
Application granted granted Critical
Publication of CN114241102B publication Critical patent/CN114241102B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请提出了一种基于参数化模型的人脸细节重建和编辑方法,包括:对人脸图片进行人脸关键点检测获取关键点;求解FaceScape双线性模型的身份系数和表情系数;对求解后的FaceScape双线性模型进行解耦,将人脸图片展开到贴图空间使三维人脸的关键点上每个顶点的颜色值对应于人脸图片的关键点上对应像素的颜色值;根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;将偏置贴图中的灰度值作为每个顶点的变形量,并根据其对三维人脸的关键点上每个顶点的位置信息进行更新,对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果。本申请提升了参数化人脸模型的重建质量,并生成带动态皱纹细节的人脸动画。

Description

基于参数化模型的人脸细节重建和编辑方法
技术领域
本申请涉及图像处理技术领域,尤其涉及一种基于参数化模型的人脸细节重建和编辑方法以及装置。
背景技术
参数化模型,包括morphable model和blendshape model,能够通过身份系数或者表情系数表示训练集以外的身份或表情,并通过对线性人脸基进行插值生成三维人脸。
参数化人脸模型能够通过输入身份系数、表情系数对线性人脸基进行插值,在三维人脸重建、三维人脸动画中有广泛的应用。但是,这些参数化模型只能表达人脸大尺度的形状和变形,生成的三维人脸表面平滑,缺乏真实感,丢失了表面高频的皱纹、眉毛等细节形状。双线性模型结合了morphable model和blendshape model,同时具有身份系数和表情系数,能够表达新用户的不同表情的人脸。
FaceScape模型是最近公开的一个双线性人脸模型,相比之前的双线性人脸模型具有更强的表达能力。但是,即使是FaceScape模型,生成的人脸仍然缺乏皱纹等细节几何,导致渲染出的人脸缺乏真实感。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于参数化模型的人脸细节重建和编辑方法,解决了现有方法生成的三维人脸缺乏真实感的技术问题,通过对人脸细节的身份、表情信息进行解耦处理,使用相同的表情系数控制生成人脸细节对应的表情,使生成的三维人脸具有和输入图片一致的人脸细节,实现了提升参数化人脸模型的重建质量,并生成带动态皱纹细节的人脸动画的目的。本申请通过固定身份系数和年龄系数,将重建的表情系数替换为经过动画师调整后的表情系数,即可生成同身份人脸的不同表情,在原始表情系数和调整后的表情系数间进行线性插值,即可产生平滑过渡的人脸动画,同时本申请支持对人脸细节的年龄进行单独控制,通过固定身份系数和表情系数,增大或减小年龄系数,可以生成同一个身份的人脸变老或者变年轻的效果。
本申请提出了一个从训练数据中对人脸身份、表情、年龄特征进行解耦的方法,一个基于非线性参数化细节模型从图片中的重建算法,和一个对重建结果进行表情、年龄编辑的算法。这些算法共同作用,完成从图片中重建出人脸细节,并通过语义编辑生成人脸动画的任务。
本申请的第二个目的在于提出一种基于参数化模型的人脸细节重建和编辑方法装置。
为达上述目的,本申请第一方面实施例提出了一种基于参数化模型的人脸细节重建和编辑方法,包括:对人脸图片进行人脸关键点检测,获取人脸图片的关键点;求解FaceScape双线性模型的身份系数和表情系数;对求解后的FaceScape双线性模型进行解耦,将人脸图片展开到贴图空间,使得三维人脸的关键点上每个顶点的颜色值对应于人脸图片的关键点上对应像素的颜色值;根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;将偏置贴图中的灰度值作为每个顶点的变形量,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果。
可选地,在本申请的一个实施例中,在对人脸图片进行人脸关键点检测之前,还包括:
训练变分自动编码器,并训练第一判别器和第二判别器;
根据第一判别器和第二判别器,引导变分自动编码器将参数空间划分为互相解耦的身份系数、表情系数和年龄系数。
可选地,在本申请的一个实施例中,训练变分自动编码器,并训练第一判别器和第二判别器,包括:
使用FaceScape的额外标注读取每个训练数据的年龄系数和表情系数;
对年龄系数进行线性归化;
将线性归化后的年龄系数和表情系数与变分自动编码器的原始参数空间进行拼接,根据拼接后的年龄系数、表情系数和原始参数训练变分自动编码器;
将年龄系数、表情系数和变分自动编码器的原始参数作为训练数据对第一判别器和第二判别器进行第一次训练;
从训练数据中取出一个训练批次,对第一判别器和第二判别器进行第二次训练。
可选地,在本申请的一个实施例中,采用随机梯度下降法训练变分自动编码器,第一判别器和第二判别器采用全连接的多层感知机二分类网络的结构。
可选地,在本申请的一个实施例中,第一次训练,包括:
将表情系数和原始参数进行拼接作为第一判别器的输入;
将年龄系数和原始参数进行拼接作为第二判别器的输入;
使用交叉熵损失函数,约束第一判别器和第二判别器的输入,以使第一判别器和第二判别器的输出为假值。
可选地,在本申请的一个实施例中,第二次训练,包括:
将一个训练批次中的表情系数和原始参数进行拼接作为第一判别器的输入;
将一个训练批次中的年龄系数和原始参数进行拼接作为第二判别器的输入;
使用交叉熵损失函数,约束第一判别器和第二判别器的输入,以使第一判别器和所二判别器的输出为真值。
可选地,在本申请的一个实施例中,根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图,包括:
将固定表情系数作为变分自动编码器的解码器的输入,根据作为变量的身份系数和年龄系数计算解码器解码后的偏置贴图。
可选地,在本申请的一个实施例中,变形量包括每个顶点沿着所在位置的法向量,移动所对应的偏置贴图中的灰度值相等的有向距离,其中,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,以得到渲染后的人脸图像,包括:
根据每个顶点的变形量计算每个顶点更新后位置的法向量,将每个顶点更新后位置的法向量代入漫反射的渲染方程以得到渲染后的人脸图像。
可选地,在本申请的一个实施例中,在根据渲染后的人脸图像生成人脸重建结果之后,还包括:
对人脸重建结果进行编辑;
其中,对人脸重建结果进行编辑,包括:将原始表情系数替换为经过调整后的表情系数,在原始表情系数和调整后的表情系数间进行线性插值,以生成人脸动画,人脸动画中人脸图片的身份系数和年龄系数是固定值;
或者,将原始年龄系数替换为经过调整后的年龄系数,在原始年龄系数和调整后的年龄系数间进行线性插值,以生成人脸动画,人脸动画中人脸图片的身份系数和表情系数是固定值。
为达上述目的,本申请第二方面实施例提出了一种基于参数化模型的人脸细节重建和编辑装置,包括:
检测模块,用于对人脸图片进行人脸关键点检测,获取人脸图片的关键点;
确定模块,用于求解FaceScape双线性模型的身份系数和表情系数;
处理模块,用于对求解后的FaceScape双线性模型进行解耦,将人脸图片展开到贴图空间,使得三维人脸的关键点上每个顶点的颜色值对应于人脸图片的关键点上对应像素的颜色值;
计算模块,用于根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;
生成模块,用于将偏置贴图中的灰度值作为每个顶点的变形量,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果。
本申请实施例的基于参数化模型的人脸细节重建和编辑方法和基于参数化模型的人脸细节重建和编辑装置,解决了现有方法生成的三维人脸缺乏真实感的技术问题,通过对人脸细节的身份、表情信息进行解耦处理,使用相同的表情系数控制生成人脸细节对应的表情,使生成的三维人脸具有和输入图片一致的人脸细节,实现了提升参数化人脸模型的重建质量,并生成带动态皱纹细节的人脸动画的目的。本申请通过固定身份系数和年龄系数,将重建的表情系数替换为经过动画师调整后的表情系数,即可生成同身份人脸的不同表情,在原始表情系数和调整后的表情系数间进行线性插值,即可产生平滑过渡的人脸动画,同时本申请支持对人脸细节的年龄进行单独控制,通过固定身份系数和表情系数,增大或减小年龄系数,可以生成同一个身份的人脸变老或者变年轻的效果。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例一所提供的一种基于参数化模型的人脸细节重建和编辑方法的流程图;
图2为本申请实施例二所提供的一种基于参数化模型的人脸细节重建和编辑装置的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于参数化模型的人脸细节重建和编辑方法以及装置。
图1为本申请实施例一所提供的一种基于参数化模型的人脸细节重建和编辑方法的流程图。
如图1所示,该基于参数化模型的人脸细节重建和编辑方法包括以下步骤:
步骤101,对人脸图片进行人脸关键点检测,获取人脸图片的关键点;
步骤102,求解FaceScape双线性模型的身份系数和表情系数;
步骤103,对求解后的FaceScape双线性模型进行解耦,将人脸图片展开到贴图空间,使得三维人脸的关键点上每个顶点的颜色值对应于人脸图片的关键点上对应像素的颜色值;
步骤104,根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;
步骤105,将偏置贴图中的灰度值作为每个顶点的变形量,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果。
本申请实施例的基于参数化模型的人脸细节重建和编辑方法,通过对人脸图片进行人脸关键点检测,获取人脸图片的关键点;求解FaceScape双线性模型的身份系数和表情系数;对求解后的FaceScape双线性模型进行解耦,将人脸图片展开到贴图空间,使得三维人脸的关键点上每个顶点的颜色值对应于人脸图片的关键点上对应像素的颜色值;根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;将偏置贴图中的灰度值作为每个顶点的变形量,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果。由此,能够解决现有方法生成的三维人脸缺乏真实感的技术问题,通过对人脸细节的身份、表情信息进行解耦处理,使用相同的表情系数控制生成人脸细节对应的表情,使生成的三维人脸具有和输入图片一致的人脸细节,实现了提升参数化人脸模型的重建质量,并生成带动态皱纹细节的人脸动画的目的。本申请通过固定身份系数和年龄系数,将重建的表情系数替换为经过动画师调整后的表情系数,即可生成同身份人脸的不同表情,在原始表情系数和调整后的表情系数间进行线性插值,即可产生平滑过渡的人脸动画,同时本申请支持对人脸细节的年龄进行单独控制,通过固定身份系数和表情系数,增大或减小年龄系数,可以生成同一个身份的人脸变老或者变年轻的效果。
构建细节参数化模型,需要从训练数据的三维人脸中提取出细节信息,对细节信息单独建模。FaceScape公开的训练数据,可以提供每个训练人脸数据分离出的细节,表达为一张偏置贴图。使用变分自动编码器对偏置贴图数据集进行数据降维,即可得到人脸细节的非线性参数化模型。这种基本的参数化模型已经可以满足从图片中重建细节的需要,但由于身份、表情和年龄信息没有在参数空间解耦,不能对重建结果进行后续的编辑和动画生成。本申请提出用生成对抗网络的方法改进建模方法,得到具有身份、表情和年龄语义的模型参数空间。
进一步地,在本申请实施例中,在对人脸图片进行人脸关键点检测之前,还包括:
训练变分自动编码器,并训练第一判别器和第二判别器;
根据第一判别器和第二判别器,引导变分自动编码器将参数空间划分为互相解耦的身份系数、表情系数和年龄系数。
训练变分自动编码器的同时,训练两个判别器神经网络,通过判别器的损失函数引导变分自动编码器将参数空间划分为互相解耦的身份系数、表情系数和年龄系数。一旦训练完成,修改表情系数不会改变生成人脸的身份特征和年龄特征,从而实现独立控制。
变分自动编码器、第一判别器和第二判别器共同形成了一个生成对抗网络的结构,从而在训练收敛时,变分自动编码器的原始参数空间不含表情和年龄信息。之后,用原始参数、表情系数和年龄系数共同表示一个人脸细节,将这三者组合空间作为新的模型参数空间。
进一步地,在本申请实施例中,训练变分自动编码器,并训练第一判别器和第二判别器,包括:
使用FaceScape的额外标注读取每个训练数据的年龄系数和表情系数;
对年龄系数进行线性归化;
将线性归化后的年龄系数和表情系数与变分自动编码器的原始参数空间进行拼接,根据拼接后的年龄系数、表情系数和原始参数训练变分自动编码器;
将年龄系数、表情系数和变分自动编码器的原始参数作为训练数据对第一判别器和第二判别器进行第一次训练;
从训练数据中取出一个训练批次,对第一判别器和第二判别器进行第二次训练。
利用FaceScape的额外标注,读取每个训练数据的年龄系数(标量,在16至68之间)和表情系数(29维向量,每维取值在0到1之间)。将年龄系数线性归一化到-1到1之间。使用条件变分自动编码器的技术,将年龄系数、表情系数和变分自动编码器原始的参数空间(256维向量)拼接在一起,形成296维向量,作为变分自动编码器的解码器端输入。
进一步地,在本申请实施例中,采用随机梯度下降法训练变分自动编码器,第一判别器和第二判别器采用全连接的多层感知机二分类网络的结构。
进一步地,在本申请实施例中,第一次训练,包括:
将表情系数和原始参数进行拼接作为第一判别器的输入;
将年龄系数和原始参数进行拼接作为第二判别器的输入;
使用交叉熵损失函数,约束第一判别器和第二判别器在这样的输入下,以使第一判别器和第二判别器的输出为假值。
进一步地,在本申请实施例中,第二次训练,包括以下步骤:
将一个训练批次中的表情系数和原始参数进行拼接作为第一判别器的输入;
将一个训练批次中的年龄系数和原始参数进行拼接作为第二判别器的输入;
使用交叉熵损失函数,约束第一判别器和第二判别器在这样的输入下,以使第一判别器和第二判别器的输出为真值。
进一步地,在本申请实施例中,根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图,包括:
将固定表情系数作为变分自动编码器的解码器的输入,根据作为变量的身份系数和年龄系数计算解码器解码后的偏置贴图。
将固定表情系数作为变分自编码器的解码器的输入,设身份系数和年龄系数作为待求解的变量,通过pytorch可微计算框架计算出解码器解码后的偏置贴图。
进一步地,在本申请实施例中,变形量包括每个顶点沿着所在位置的法向量,移动所对应的偏置贴图中的灰度值相等的有向距离,其中,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,以得到渲染后的人脸图像,包括:
根据每个顶点的变形量计算每个顶点更新后位置的法向量,将每个顶点更新后位置的法向量代入漫反射的渲染方程以得到渲染后的人脸图像。
得到渲染后的人脸图像后,通过L1损失计算渲染图片和输入图片的差异,通过反向传播得到损失函数相对于每个求解变量的梯度。使用以梯度作为输入的LBFGS优化算法求解这个最优化问题,得到最适合表达输入图片的身份系数和年龄系数。最终使用求解的结果输入解码器,得到重建的带细节人脸。
进一步地,在本申请实施例中,在根据渲染后的人脸图像生成人脸重建结果之后,还包括:
对人脸重建结果进行编辑;
其中,对人脸重建结果进行编辑,包括:将原始表情系数替换为经过调整后的表情系数,在原始表情系数和调整后的表情系数间进行线性插值,以生成人脸动画,人脸动画中人脸图片的身份系数和年龄系数是固定值;
或者,将原始年龄系数替换为经过调整后的年龄系数,在原始年龄系数和调整后的年龄系数间进行线性插值,以生成人脸动画,人脸动画中人脸图片的身份系数和表情系数是固定值。
图2为本申请实施例二所提供的一种基于参数化模型的人脸细节重建和编辑装置的结构示意图。
如图2所示,该基于参数化模型的人脸细节重建和编辑装置,包括:
检测模块10,用于对人脸图片进行人脸关键点检测,获取人脸图片的关键点;
确定模块20,用于求解FaceScape双线性模型的身份系数和表情系数;
处理模块30,用于对求解后的FaceScape双线性模型进行解耦,将人脸图片展开到贴图空间,使得三维人脸的关键点上每个顶点的颜色值对应于人脸图片的关键点上对应像素的颜色值;
计算模块40,用于根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;
生成模块50,用于将偏置贴图中的灰度值作为每个顶点的变形量,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果。
本申请实施例的基于参数化模型的人脸细节重建和编辑装置,包括:检测模块,用于对人脸图片进行人脸关键点检测,获取人脸图片的关键点;确定模块,用于求解FaceScape双线性模型的身份系数和表情系数;处理模块,用于对求解后的FaceScape双线性模型进行解耦,将人脸图片展开到贴图空间,使得三维人脸的关键点上每个顶点的颜色值对应于人脸图片的关键点上对应像素的颜色值;计算模块,用于根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;生成模块,用于将偏置贴图中的灰度值作为每个顶点的变形量,根据每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果。由此,能够解决现有方法生成的三维人脸缺乏真实感的技术问题,通过对人脸细节的身份、表情信息进行解耦处理,使用相同的表情系数控制生成人脸细节对应的表情,使生成的三维人脸具有和输入图片一致的人脸细节,实现了提升参数化人脸模型的重建质量,并生成带动态皱纹细节的人脸动画的目的。本申请通过固定身份系数和年龄系数,将重建的表情系数替换为经过动画师调整后的表情系数,即可生成同身份人脸的不同表情,在原始表情系数和调整后的表情系数间进行线性插值,即可产生平滑过渡的人脸动画,同时本申请支持对人脸细节的年龄进行单独控制,通过固定身份系数和表情系数,增大或减小年龄系数,可以生成同一个身份的人脸变老或者变年轻的效果。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (4)

1.一种基于参数化模型的人脸细节重建和编辑方法,其特征在于,包括以下步骤:
对人脸图片进行人脸关键点检测,获取所述人脸图片的关键点;
求解FaceScape双线性模型的身份系数和表情系数;
对求解后的FaceScape双线性模型进行解耦,将所述人脸图片展开到贴图空间,使得三维人脸的关键点上每个顶点的颜色值对应于所述人脸图片的关键点上对应像素的颜色值;
根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图;
将所述偏置贴图中的灰度值作为每个顶点的变形量,根据所述每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,根据渲染后的人脸图像生成人脸重建结果;
其中,在对人脸图片进行人脸关键点检测之前,还包括:
训练变分自动编码器,并训练第一判别器和第二判别器;
根据所述第一判别器和第二判别器,引导所述变分自动编码器将参数空间划分为互相解耦的身份系数、表情系数和年龄系数;
其中,所述训练变分自动编码器,并训练第一判别器和第二判别器,包括:
使用FaceScape的额外标注读取每个训练数据的年龄系数和表情系数;
对年龄系数进行线性归化;
将线性归化后的年龄系数和所述表情系数与变分自动编码器的原始参数空间进行拼接,根据拼接后的年龄系数、表情系数和原始参数训练所述变分自动编码器;
将年龄系数、表情系数和变分自动编码器的原始参数作为训练数据对所述第一判别器和第二判别器进行第一次训练;
从训练数据中取出一个训练批次,对所述第一判别器和所述第二判别器进行第二次训练;
其中,所述第一次训练,包括:
将表情系数和原始参数进行拼接作为所述第一判别器的输入;
将年龄系数和原始参数进行拼接作为所述第二判别器的输入;
使用交叉熵损失函数,约束所述第一判别器和所述第二判别器的输入,以使所述第一判别器和所述第二判别器的输出为假值;
其中,所述第二次训练,包括:
将一个训练批次中的表情系数和原始参数进行拼接作为第一判别器的输入;
将一个训练批次中的年龄系数和原始参数进行拼接作为所述第二判别器的输入;
使用交叉熵损失函数,约束所述第一判别器和所述第二判别器的输入,以使所述第一判别器和所述第二判别器的输出为真值;
其中,所述变形量包括每个顶点沿着所在位置的法向量,移动所对应的所述偏置贴图中的灰度值相等的有向距离,其中,根据所述每个顶点的变形量对三维人脸的关键点上每个顶点的位置信息进行更新,并对更新后的三维人脸的关键点上每个顶点的位置信息进行渲染,以得到渲染后的人脸图像,包括:
根据每个顶点的变形量计算每个顶点更新后位置的法向量,将所述每个顶点更新后位置的法向量代入漫反射的渲染方程以得到所述渲染后的人脸图像。
2.如权利要求1所述的方法,其特征在于,采用随机梯度下降法训练所述变分自动编码器,所述第一判别器和所述第二判别器采用全连接的多层感知机二分类网络的结构。
3.如权利要求1-2任一项所述的方法,其特征在于,所述根据固定表情系数,以及用户设置的身份系数和年龄系数计算偏置贴图,包括:
将固定表情系数作为所述变分自动编码器的解码器的输入,根据作为变量的身份系数和年龄系数计算所述解码器解码后的偏置贴图。
4.如权利要求1所述的方法,其特征在于,在所述根据渲染后的人脸图像生成人脸重建结果之后,还包括:
对所述人脸重建结果进行编辑;
其中,对所述人脸重建结果进行编辑,包括:将原始表情系数替换为经过调整后的表情系数,在所述原始表情系数和调整后的表情系数间进行线性插值,以生成人脸动画,所述人脸动画中人脸图片的身份系数和年龄系数是固定值;
或者,将原始年龄系数替换为经过调整后的年龄系数,在所述原始年龄系数和调整后的年龄系数间进行线性插值,以生成人脸动画,所述人脸动画中人脸图片的身份系数和表情系数是固定值。
CN202111334742.4A 2021-11-11 2021-11-11 基于参数化模型的人脸细节重建和编辑方法 Active CN114241102B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111334742.4A CN114241102B (zh) 2021-11-11 2021-11-11 基于参数化模型的人脸细节重建和编辑方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111334742.4A CN114241102B (zh) 2021-11-11 2021-11-11 基于参数化模型的人脸细节重建和编辑方法

Publications (2)

Publication Number Publication Date
CN114241102A CN114241102A (zh) 2022-03-25
CN114241102B true CN114241102B (zh) 2024-04-19

Family

ID=80749094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111334742.4A Active CN114241102B (zh) 2021-11-11 2021-11-11 基于参数化模型的人脸细节重建和编辑方法

Country Status (1)

Country Link
CN (1) CN114241102B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114882550B (zh) * 2022-04-14 2024-05-14 支付宝(杭州)信息技术有限公司 一种人脸注册留底方法、装置以及设备
CN115330947A (zh) * 2022-08-12 2022-11-11 百果园技术(新加坡)有限公司 三维人脸重建方法及其装置、设备、介质、产品
CN115050087B (zh) * 2022-08-16 2022-11-18 之江实验室 一种人脸关键点身份和表情解耦方法及装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358648A (zh) * 2017-07-17 2017-11-17 中国科学技术大学 基于单张人脸图像的实时全自动高质量三维人脸重建方法
CN108765550A (zh) * 2018-05-09 2018-11-06 华南理工大学 一种基于单张图片的三维人脸重建方法
CN109191507A (zh) * 2018-08-24 2019-01-11 北京字节跳动网络技术有限公司 三维人脸图像重建方法、装置和计算机可读存储介质
CN111091624A (zh) * 2019-12-19 2020-05-01 南京大学 一种从单张图片生成高精度可驱动人脸三维模型的方法
WO2020207270A1 (zh) * 2019-04-09 2020-10-15 五邑大学 一种三维人脸重建方法及其系统、装置、存储介质
CN112085836A (zh) * 2020-09-03 2020-12-15 华南师范大学 一种基于图卷积神经网络的三维人脸重建方法
CN112288851A (zh) * 2020-10-23 2021-01-29 武汉大学 一种基于双支流网络的三维人脸建模方法
CN112541958A (zh) * 2020-12-21 2021-03-23 清华大学 三维人脸的参数化建模方法和装置
CN112669447A (zh) * 2020-12-30 2021-04-16 网易(杭州)网络有限公司 一种模型头像创建方法、装置、电子设备和存储介质
CN112819947A (zh) * 2021-02-03 2021-05-18 Oppo广东移动通信有限公司 三维人脸的重建方法、装置、电子设备以及存储介质
CN112950775A (zh) * 2021-04-27 2021-06-11 南京大学 一种基于自监督学习的三维人脸模型重建方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11748932B2 (en) * 2020-04-27 2023-09-05 Microsoft Technology Licensing, Llc Controllable image generation

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358648A (zh) * 2017-07-17 2017-11-17 中国科学技术大学 基于单张人脸图像的实时全自动高质量三维人脸重建方法
CN108765550A (zh) * 2018-05-09 2018-11-06 华南理工大学 一种基于单张图片的三维人脸重建方法
CN109191507A (zh) * 2018-08-24 2019-01-11 北京字节跳动网络技术有限公司 三维人脸图像重建方法、装置和计算机可读存储介质
WO2020207270A1 (zh) * 2019-04-09 2020-10-15 五邑大学 一种三维人脸重建方法及其系统、装置、存储介质
CN111091624A (zh) * 2019-12-19 2020-05-01 南京大学 一种从单张图片生成高精度可驱动人脸三维模型的方法
CN112085836A (zh) * 2020-09-03 2020-12-15 华南师范大学 一种基于图卷积神经网络的三维人脸重建方法
CN112288851A (zh) * 2020-10-23 2021-01-29 武汉大学 一种基于双支流网络的三维人脸建模方法
CN112541958A (zh) * 2020-12-21 2021-03-23 清华大学 三维人脸的参数化建模方法和装置
CN112669447A (zh) * 2020-12-30 2021-04-16 网易(杭州)网络有限公司 一种模型头像创建方法、装置、电子设备和存储介质
CN112819947A (zh) * 2021-02-03 2021-05-18 Oppo广东移动通信有限公司 三维人脸的重建方法、装置、电子设备以及存储介质
CN112950775A (zh) * 2021-04-27 2021-06-11 南京大学 一种基于自监督学习的三维人脸模型重建方法及系统

Also Published As

Publication number Publication date
CN114241102A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
CN114241102B (zh) 基于参数化模型的人脸细节重建和编辑方法
Zhan et al. Multimodal image synthesis and editing: A survey and taxonomy
Das et al. Speech-driven facial animation using cascaded gans for learning of motion and texture
Liu et al. Semantic-aware implicit neural audio-driven video portrait generation
Ljung et al. State of the art in transfer functions for direct volume rendering
Chuang et al. Mood swings: expressive speech animation
Taylor et al. Factored conditional restricted Boltzmann machines for modeling motion style
Deng et al. Computer facial animation: A survey
EP3874460A1 (en) Computing system for expressive three-dimensional facial animation
CN112541958B (zh) 三维人脸的参数化建模方法和装置
Monnier et al. Share with thy neighbors: Single-view reconstruction by cross-instance consistency
EP4345770A1 (en) Information processing method and apparatus, computer device, and storage medium
Shen et al. Clipgen: A deep generative model for clipart vectorization and synthesis
Liu et al. Learning implicit glyph shape representation
Ju et al. Expressive facial gestures from motion capture data
Huang et al. Fine-grained talking face generation with video reinterpretation
Li et al. Speech driven facial animation generation based on GAN
US20240013464A1 (en) Multimodal disentanglement for generating virtual human avatars
Ueno et al. Continuous and gradual style changes of graphic designs with generative model
Wang et al. Talking faces: Audio-to-video face generation
Zhan et al. Multimodal image synthesis and editing: A survey
CN117152285A (zh) 一种基于音频控制的虚拟人生成方法、装置、设备及介质
Deng et al. Expressive Speech Animation Synthesis with Phoneme‐Level Controls
CN115482557A (zh) 人体图像生成方法、系统、设备及存储介质
Mathew An Overview of Text to Visual Generation Using GAN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant