CN113807265B - 一种多样化的人脸图像合成方法及系统 - Google Patents

一种多样化的人脸图像合成方法及系统 Download PDF

Info

Publication number
CN113807265B
CN113807265B CN202111101932.1A CN202111101932A CN113807265B CN 113807265 B CN113807265 B CN 113807265B CN 202111101932 A CN202111101932 A CN 202111101932A CN 113807265 B CN113807265 B CN 113807265B
Authority
CN
China
Prior art keywords
face
picture
expression
target
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111101932.1A
Other languages
English (en)
Other versions
CN113807265A (zh
Inventor
迟静
代福芸
张琪东
任明国
衣所超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Finance and Economics
Original Assignee
Shandong University of Finance and Economics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Finance and Economics filed Critical Shandong University of Finance and Economics
Priority to CN202111101932.1A priority Critical patent/CN113807265B/zh
Publication of CN113807265A publication Critical patent/CN113807265A/zh
Application granted granted Critical
Publication of CN113807265B publication Critical patent/CN113807265B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了多样化的人脸图像合成方法及系统。其中该方法包括获取源人脸图片、目标人脸图片及属性标签信息;根据源人脸图片、目标人脸图片和人脸合成网络模型,得到具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;人脸合成网络模型包括人脸特征点生成器和几何‑属性感知生成器;人脸特征点生成器用于提取源人脸与目标人脸的特征点作为人脸几何特征信息,并从人脸几何特征信息中提取表情信息,在潜在空间中将任意源人脸的表情信息迁移到目标人脸;几何‑属性感知生成器用于分别从目标人脸和标签中对应提取身份特征和指定属性信息,结合表情信息,生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片。

Description

一种多样化的人脸图像合成方法及系统
技术领域
本发明属于人脸图像合成领域,尤其涉及一种多样化的人脸图像合成方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
人脸图像合成是计算机视觉与计算机图形学领域的一个研究热点和难点问题,在数字娱乐、公共安全和医疗卫生等领域都有着广泛的应用.人脸图像合成的目标是根据输入信息生成具有期望表情和模样(包括五官、发色、年龄、性别等)的高质量的人脸图片。
随着深度学习技术的兴起与发展,基于数据驱动的人脸图像合成技术取得了巨大突破。Susskind等人的研究是人脸图像合成的初步工作之一,他们将深度信念网络(DBN)作为模型,以两个隐含层开始,第二隐含层的输出与身份信息向量以及表情信息向量(面部表情编码系统(FACS)形式)连接在一起,通过有1000个逻辑隐含单元的受限玻尔兹曼机(RBM)学习它们的联合模型,训练好的DBN模型能够生成具有不同身份和表情的人脸图片。闫等人利用卷积神经网络构建参数回归网络模型,基于深度学习和表情AU参数生成人脸。Goodfellow等人于2014年提出了生成式对抗模型GAN(最原始的GAN模型),该模型主要包括两个网络组成部分:生成器和判别器,其原理可以看成两个玩家(生成器和判别器)相互博弈的过程,即在训练过程中,生成器尽量生成真实的图片去欺骗判别器,而判别器尽量能区分出生成的图片和真实的图片。GAN因强大的图片生成能力而被运用到人脸合成中,但是原始GAN存在难以训练,生成器和判别器的损失函数无法指示训练进程,模型易崩塌,生成样本缺乏多样性的缺点。WGAN用Wasserstein距离代替GAN中判别器衡量真实分布与生成分布之间的JS散度,提高了GAN训练的稳定性.随着GAN模型的诞生和改进,很多工作都是对GAN模型的结合和扩展。Pix2Pix将传统GAN的输入从随机噪声改为用户给定的图片,完成成对图像间的转换。IcGAN利用编码器分别将真实图片和属性信息映射到潜在空间,通过修改属性信息的潜在向量,经GAN生成一张新的人脸图片,达到属性编辑的效果。ExprGAN引入了一个表情控制模块,给定一个one-hot向量形式的表情标签和一张人脸图像,模型能够得到不同目标表情强度的人脸图片。G2GAN借助人脸特征点可以生成一组平滑的人脸表情图序列,但是模型对每个不同的人都需要借助该人物的一张中性表情的图作为媒介,来实现表情的合成。这种对中性表情的依赖在一定程度上削减了表情合成的有效性。Qiao等人对G2GAN又进行了扩展,给定一张人脸图片和带有人脸表情信息的人脸标记点,通过编码器将二者映射到潜在空间中得到各自的潜在向量,串联获得的级联向量再经过解码器生成带有指定表情的人脸图片。为了解决方法所需的成对训练数据难以获取的问题,CycleGAN在生成对抗网络框架中引入了一个循环一致性对抗损失函数,不需要成对的人脸表情图片进行训练,但存在的问题是模型训练完成后,只能针对两个特定人物之间进行转换,限制了模型的效率与扩展性。StarGAN利用统一的GAN模型来实现多域之间的转换,并通过one-hot向量实现多数据集的联合训练。但StarGAN不涉及任何隐含表示,使得其更改面部属性的能力受到限制。FReeNet引入了几何信息约束,可以将人脸表情从任意源人脸转移到目标人脸。Wang等人利用U-Net模型保留输入人脸的身份特征和面部细节等信息,实现一对多的表情合成,但这些方法合成的人脸只体现表情属性的修改。
发明人发现,目前基于深度学习的人脸图像合成仍存在以下问题:人脸图像合成时的可控性和多样性均较差,难以得到符合用户期望的具有多种外貌和丰富表情的人脸;合成的人脸不能很好地保持给定的身份特征,且表情不真实自然;人脸图像合成效率和泛化能力均较低。
发明内容
为了解决上述背景技术中存在的技术问题,本发明提供一种多样化的人脸图像合成方法及系统,其可根据任意给定的源人脸图片、目标人脸图片和属性标签,生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图像。
为了实现上述目的,本发明采用如下技术方案:
本发明的第一个方面提供一种多样化的人脸图像合成方法,其包括:
获取源人脸图片、目标人脸图片及属性标签信息;
根据源人脸图片、目标人脸图片和人脸合成网络模型,得到具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;
其中,人脸合成网络模型包括人脸特征点生成器和几何-属性感知生成器;
所述人脸特征点生成器用于提取源人脸与目标人脸的特征点作为人脸几何特征信息,并从人脸几何特征信息中提取表情信息,在潜在空间中将任意源人脸的表情信息迁移到目标人脸;
所述几何-属性感知生成器用于分别从目标人脸和标签中对应提取身份特征和指定属性信息,再结合表情信息生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片。
进一步地,所述人脸特征点生成器包括两个编码器和一个解码器,两个编码器分别用于对源人脸图片和目标人脸图片提取特征,解码器用于对提取的源人脸图片和目标人脸图片特征进行融合,得到两者的偏移量,最后将目标人脸图片特征与偏移量进行显性相加得到带有源表情的目标人脸标记点。
进一步地,所述人脸特征点生成器的总目标损失函数为L1损失函数、循环一致损失函数和对抗损失函数三者的预设权重乘积和。
进一步地,所述几何-属性感知生成器基于StarGAN框架并根据表情和外貌解耦的思想设计得到,可实现表情和外貌的分别控制。
进一步地,所述几何-属性感知生成器由图片编码器,人脸标记点编码器,transformer块以及图片解码器组合而成;三个ResBlock部件组成一个transformer,为在生成的人脸表情图片上增强几何信息,每个transformer都与人脸标记点编码器的输出相连。
进一步地,所述几何-属性感知生成器的总目标损失函数为对抗损失函数、像素级损失函数、软截断三元感知损失函数和域分类损失函数四者的预设权重乘积和。
进一步地,所述软截断三元感知损失函数为:
Figure BDA0003270978910000031
其中,
Figure BDA0003270978910000032
表示由人脸特征点生成器将表情n2迁移到人R上后的人脸标记点图,
Figure BDA0003270978910000033
表示由人脸特征点生成器将表情n2迁移到人T上后的人脸标记点图,v(·)表示用VGG进行的特征提取操作;H(·)表示L2距离;margin表示预设给定的距离;
Figure BDA0003270978910000034
Figure BDA0003270978910000035
分别是几何-属性感知生成器对于输入
Figure BDA0003270978910000036
Figure BDA0003270978910000037
生成的人脸表情图片;
Figure BDA0003270978910000038
Figure BDA0003270978910000039
表示选取的带有表情n1和n2的人物T的图片;
Figure BDA00032709789100000310
表示从人物R中随机选取的带有任意表情n3的图片;c表示属性域的标签。
本发明的第二个方面提供一种多样化的人脸图像合成系统,其包括:
信息获取模块,其用于获取源人脸图片、目标人脸图片及属性标签信息;
人脸图片合成模块,其用于根据源人脸图片、目标人脸图片和人脸合成网络模型,得到具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;
其中,人脸合成网络模型包括人脸特征点生成器和几何-属性感知生成器;
所述人脸特征点生成器用于提取源人脸与目标人脸的特征点作为人脸几何特征信息,并从人脸几何特征信息中提取表情信息,在潜在空间中将任意源人脸的表情信息迁移到目标人脸;
所述几何-属性感知生成器用于分别从目标人脸和标签中对应提取身份特征和指定属性信息,再结合表情信息生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片。
本发明的第三个方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的多样化的人脸图像合成方法中的步骤。
本发明的第四个方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的多样化的人脸图像合成方法中的步骤。
与现有技术相比,本发明的有益效果是:
本发明基于人脸合成网络模型,实现了根据任意给定的源人脸图片、目标人脸图片和属性标签,生成一张具有源人脸表情、目标人脸身份特征以及指定属性的高真实感的人脸图像;
本发明将三元损失和感知损失相结合,形成一种新的软截断三元感知损失函数。该函数可使新模型生成的人脸很好地保持给定的目标人脸身份特征(包括丰富的细节特征),同时具有真实自然的表情;
本发明提出了用于几何-属性感知生成器的新的总损失函数,该函数由对抗损失函数、像素级损失函数、软截断三元感知损失函数和域分类损失函数四项加权构成,该函数能够使合成的人脸很好地保持目标人脸身份特征、复制源人脸表情,同时满足用户指定的外貌属性要求。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明实施例的多样化的人脸图像合成方法流程图;
图2(a)是本发明实施例的软截断三元损失优化过程;
图2(b)是本发明实施例的软截断三元损失与传统三元损失对比函数图;
图3是本发明实施例的软截断三元感知损失函数原理图;
图4是本发明实施例的传统三元损失与改进的软截断三元感知损失效果图对比;
图5是本发明实施例的软截断三元感知损失和传统三元损失的训练收敛对比结果;
图6是本发明实施例对RaFD数据集正面方向的数据进行表情迁移的效果;
图7是本发明实施例对RaFD数据集右侧方向的数据进行表情迁移的效果;
图8是本发明实施例对RaFD数据集左侧方向的数据进行表情迁移的效果;
图9是本发明实施例该方法与Pix2Pix,CycleGAN和FReeNet在RaFD数据集上的对比实验效果图;
图10是图9中的框放大效果;
图11是本发明实施例的在RaFD数据集正面方向的数据上,使用表情信息、身份特征和属性标签合成的人脸图像;
图12是本发明实施例的在RaFD数据集右侧和左侧方向的数据上,使用表情信息、身份特征信息和属性标签合成的人脸图像;
图13是本发明实施例的在KDEF数据集三个方向(45°,90°和135°)的数据上进行表情迁移的效果图;
图14是本发明实施例的在KDEF数据集三个方向(45°,90°和135°)的数据上,使用表情信息,身份特征信息和属性标签合成的人脸图像效果图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本实施例使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本实施例中所使用的人脸图片均是开源数据集中的图片样本。
实施例一
本实施例提供了一种多样化的人脸图像合成方法,其具体包括如下步骤:
步骤1:获取源人脸图片、目标人脸图片及属性标签信息。
其中,属性标签信息包括标签属性的个数以及标签含义,例如设置5个标签,每个标签对应不同的外貌属性,每个标签都是二值的,0或1。
步骤2:根据源人脸图片、目标人脸图片和人脸合成网络模型,得到具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片。
本实施例的人脸合成网络模型可根据给定的源人脸图片、目标人脸图片和属性(如发色、性别、年龄等)标签,生成一张具有源人脸表情、目标人脸身份特征以及指定属性的高真实感的人脸图像。随着给定条件的变化,可得到具有任意外貌和表情的多样化的人脸图像,本实施例还将三元组损失和感知损失相结合,形成一种新的软截断三元感知损失函数,该函数可使新模型生成的人脸很好地保持给定的目标人脸身份特征(包括丰富的细节特征),同时具有真实自然的表情。
如图1所示,本实施例的人脸合成网络模型包括人脸特征点生成器(FacialLandmark Generator,FLMG)和几何-属性感知生成器(Geometry and Attribute awareGenerator,GAAG);
所述人脸特征点生成器用于提取源人脸与目标人脸的特征点作为人脸几何特征信息,并从人脸几何特征信息中提取表情信息,在潜在空间中将任意源人脸的表情信息迁移到目标人脸;
所述几何-属性感知生成器用于分别从目标人脸和标签中对应提取身份特征和指定属性信息,再结合表情信息生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片。
本实施例的人脸合成网络模型引入了人脸几何特征表示表情信息,引入属性标签作为编辑人脸外貌的约束条件,因此可以同时实现人脸表情迁移和人脸属性编辑,生成多样化的人脸图像。
模型的相关数学定义如下:给定目标人脸图片IT,r(∈R3×256×256)与源人脸图片IS,n(∈R3×256×256),使用人脸特征点检测器将它们编码为潜在的人脸特征点空间lT,r(∈R106×2)和lS,n(∈R106×2),其中第一个下标表示身份信息(T表示目标人脸,S表示源人脸),第二个下标表示表情信息(r表示参照表情,n表示任意表情)。本实施例将术语“属性”定义为人脸图像中隐含表达信息的特征(例如头发的颜色、性别及年龄)。
将模型中的人脸特征点生成器记为Ω,几何-属性感知生成器记为Θ。给定一张带有任意表情的源人脸图片IS,n,以及参照表情的目标人脸图片IT,r,人脸特征点生成器Ω从两张图片的人脸特征点lS,n和lT,r的潜在空间中学习到两者之间的偏移量loffset,将loffset叠加到lT,r上得到lT,r中各特征点的新位置,进而得到位置更新后的带有源表情信息的目标人脸特征点向量,记为
Figure BDA0003270978910000071
该过程表示为:
Figure BDA0003270978910000072
然后,几何-属性感知生成器Θ利用输入的表情信息
Figure BDA0003270978910000073
目标人脸的身份特征信息IT,r(∈R3×256×256),以及属性标签c,生成一张人脸图片
Figure BDA0003270978910000074
完成表情迁移和人脸属性编辑的任务。该过程记为:
Figure BDA0003270978910000075
其中,
Figure BDA0003270978910000076
表示根据人脸特征点生成器Ω生成的人脸特征点向量
Figure BDA0003270978910000077
所绘制的人脸特征点图像.下面详细介绍本实施例网络模型的两个组成部分,以及新提出的软截断三元感知损失函数。
人脸特征点生成器(FLMG)用于实现源人脸表情到目标人脸的迁移.由于不同人的脸部身份特征不同,同一表情呈现在不同人脸上,其五官的变形、脸部肌肉的运动等是不同的。FLMG将源表情(以人脸特征点的形式表示)从任意人脸迁移到目标人脸时,可以根据源人脸和目标人脸的几何结构差异自动调整表情信息,使目标人脸的表情与源人脸相同,但又具有自己的个性特征。
如图1所示,所述人脸特征点生成器包括两个编码器(
Figure BDA0003270978910000078
Figure BDA0003270978910000079
)和一个解码器
Figure BDA00032709789100000710
两个编码器
Figure BDA00032709789100000711
Figure BDA00032709789100000712
分别对源人脸标记点lS,n和目标人脸标记点lT,r提取特征,然后通过
Figure BDA00032709789100000713
进行融合得到两者之间的偏移量loffset,最后将lT,r和loffset进行显性相加得到带有源表情的目标人脸标记点
Figure BDA00032709789100000714
整个过程公式表示如下:
Figure BDA00032709789100000715
在具体实施中,所述人脸特征点生成器的总目标损失函数为L1损失函数、循环一致损失函数和对抗损失函数三者的预设权重乘积和。
L1损失函数:
L1损失函数用于计算生成的带有源人脸表情的目标人脸标记点与真实的目标人脸标记点之间的误差,定义为:
Figure BDA00032709789100000716
其中lT,n表示真实的带有源人脸表情的目标人脸标记点。||·||1表示L1范数。
循环一致损失函数:
循环一致损失函数用于计算由
Figure BDA00032709789100000717
逆向生成的源人脸标记点与真实的源人脸标记点之间的误差,以保证生成的
Figure BDA0003270978910000081
能够被准确地逆向生成,定义为:
Lcyc=||Ω(lS,r,Ω(lT,r,lS,n))-lS,n||1 (3)
其中lS,r表示带有参照表情的源人脸标记点。
对抗损失函数:
两个判别器DTF和DS用于保证生成器Ω的准确性和鲁棒性.判别器DTF用于评判生成的人脸标记点是真是假,DS则用来估计人脸标记点之间的特征相似性,两个判别器的损失函数分别定义为:
Figure BDA0003270978910000082
Figure BDA0003270978910000083
其中x表示真实人脸标记点的数据空间,z表示Ω的一组输入。
FLMG的总目标函数:
结合公式(2)-(5),得到FLMG的总目标函数LFLMG,表示如下:
LFLMG=μ1LL12Lcyc3LD (6)
其中,μi,i=1,2,3表示三项损失函数在FLMG中的权重。
几何-属性感知生成器:
几何-属性感知生成器(GAAG)以表情信息端
Figure BDA0003270978910000084
身份特征信息端IT,r和属性标签c作为输入,能够生成具有源表情、目标人脸身份以及指定属性的高真实感人脸图片。本实施例的GAAG是基于StarGAN框架并根据表情和外貌解耦的思想设计而来,可实现表情和外貌的分别控制.每个外貌属性表示为一个域(称为属性域),采用属性标签(one-hot向量)表示指定的属性域信息,并在判别器上引入一个辅助分类器使其能够控制多个域.判别器会产生源图片和域标签的两个概率分布,表示为D:x→{Dsrc(x),Dcls(x)}。其中,Dsrc(x)为源图片的概率分布,Dcls(x)为域标签的概率分布.如图1所示,GAAG由图片编码器σ1,人脸标记点编码器σ2,transformer块σ3以及图片解码器σ4组合而成。三个ResBlock部件组成一个transformer,为在生成的人脸表情图片上增强几何信息
Figure BDA0003270978910000085
每个transformer都与人脸标记点编码器σ2的输出相连,该过程可表示为:
Figure BDA0003270978910000091
在具体实施中,所述几何-属性感知生成器的总目标损失函数为对抗损失函数、像素级损失函数、软截断三元感知损失函数和域分类损失函数四者的预设权重乘积和。
对抗损失函数:
用对抗性损失去减少误差,降低生成图片与真实图片之间的差距:
Figure BDA0003270978910000092
其中x表示真实人脸图片的数据空间,l,k,m分别表示几何-属性感知生成器Θ输入端的表情信息,身份信息,属性信息.由这些输入生成目标人脸图片Θ(l,k,m).判别器D则尝试区分真实人脸图片和生成的人脸图片。
像素级损失函数:
用于计算生成的带有源人脸表情的目标人脸图片和真实目标人脸图片之间的L1误差,定义为:
Figure BDA0003270978910000093
其中IT,n表示真实的带有源人脸表情的目标人脸图片。
域分类损失函数:
GAAG结合StarGAN的思想,对给定的表情信息
Figure BDA0003270978910000094
身份信息IT,r和属性标签c,生成带有源表情、目标身份特征及指定属性的人脸图片,并根据人脸属性的改变情况将其正确地分类到相应的域中。为了保证分类的正确,本实施例在判别器D上加了分类器并定义域分类损失函数如下:
Lcls=Ex,c[-logDcls(c|x)] (10)
其中,x表示生成人脸图片的数据空间,c表示属性域的标签,Dcls(c|x)表示生成图片数据空间下的属性域的概率分布。
GAAG的总目标函数:
由公式(8)-(10),可得GAAG的总目标函数如下:
LGAAG=μadvLadvpixLpixSTPLSTPclsLcls (11)
其中,μadvpixSTP和μcls分别是对抗损失、像素级损失、软截断三元感知损失以及域分类损失函数的权重参数。
软截断三元感知损失函数:
本实施例的软截断三元感知损失函数LSTP,用于对类内相似性和类间相似性进行评估。该函数既能实现对表情和外貌信息的解耦,又能使生成的人脸图片很好地保持原有的细节信息。
由于人脸RGB图片与人脸标记点图片的复杂度不同,这导致几何-属性感知生成器更容易倾向于只学习分布较为简单的人脸标记点图片,继而使得合成人脸的身份特征容易受到源人脸表情信息的影响,难以很好地保持原有目标人脸的身份特征。针对该问题,本实施例结合三元损失函数和感知损失形成一个新的软截断三元感知损失函数,利用该损失函数可进一步缩小样本类内感知分量的差距,同时扩大样本类间感知分量的差距,从而使生成的人脸能够有效地保持目标人脸身份特征。如公式(12)所示,传统的三元损失函数的目的是对于某个样本xa,尽量缩小与它的正样本xp之间的距离,同时增大与它的负样本xn之间的距离。在本实施例中,如果将一张人脸图像作为xa,那么具有相同身份的人脸图像则被视为正样本xp(即xa和xp属于同一类),不同身份的人脸图像则被视为负样本xn(即xa和xn属于不同类)。
LTri=max(||xa-xp||-||xa-xn||+margin,0) (12)
由公式(12)的定义可知,传统的三元损失函数,当类内距离(即xa与xp之间的距离)与类间距离(即xa与xn之间的距离)之间的差值大于或等于预设给定的距离margin时,即停止优化.这种处理方式在“0”的地方属于硬截断,这会导致离得近的正样本不再继续拉近.如图2(a)所示,灰色正样本xp和白色正样本xp所对应的损失函数值LTri均为0,但实际上白色正样本xp可以进一步优化到灰色正样本xp的位置。
为了解决这个问题,本实施例引入软截断思想,使用函数ln(1+exp(·))替代max(·,0).ln(1+exp(·))和max(·,0)的函数图像(·表示||xa-xp||-||xa-xn||+margin)如图2(b)所示,可见:
当·小于或等于0时,max(·,0)直接将结果置为0,停止优化;而ln(1+exp(·))的值则可以随着·的减小进一步减小,继续优化,这个过程可进一步拉近正样本xp与xa的距离,增大负样本xn与xa的距离,即进一步缩小类内距离,扩大类间距离,从而使得GAAG生成的人脸图片可以更好地保持目标人脸的身份特征。
感知损失是对真实图片与生成图片分别提取特征,通过缩小两者的特征信息即高层信息(内容和全局结构)之间的差距,达到优化生成图片的目的。本实施例将上述改进后的软截断三元损失与感知损失相结合,形成一个新的软截断三元感知损失函数。下面将结合本实施例网络模型相关的数学定义,给出新的软截断三元感知损失函数的最终数学定义形式。
如图3所示,有这样三张图片,两张是被随机选取的带有任意表情(n1和n2)的人物T的图片
Figure BDA0003270978910000111
Figure BDA0003270978910000112
另一张是从人物R中随机选取的带有任意表情n3的图片
Figure BDA0003270978910000113
Figure BDA0003270978910000114
Figure BDA0003270978910000115
分别是GAAG对于不同的输入
Figure BDA0003270978910000116
Figure BDA0003270978910000117
生成的人脸表情图片。
Figure BDA0003270978910000118
表示由FLMG将表情n2迁移到人R上后的人脸标记点图,同理得到
Figure BDA0003270978910000119
则本实施例中的软截断的三元感知损失函数可以定义如下:
Figure BDA00032709789100001110
其中v(·)表示用VGG进行的特征提取操作;H(·)表示L2距离,margin表示预设给定的距离。
此外,在软截断三元感知损失函数形式当中,保持三张生成图片
Figure BDA00032709789100001111
Figure BDA00032709789100001112
的表情都是一样的,使得在用VGG提取特征时,可以减少因为表情不同而带来的干扰因素,从而更加关注身份信息即外貌上的差距。
软截断三元感知损失函数这一约束的引入,可使GAAG生成的人脸图片既具有和源人脸一致的表情,又能很好地保持目标人脸的身份特征(如脸部轮廓、五官分布、肤色等)。由于该函数有效缩小了类内(
Figure BDA00032709789100001113
Figure BDA00032709789100001114
)的感知分量,同时增大了类间(
Figure BDA00032709789100001115
Figure BDA00032709789100001116
)的感知分量,所以生成的人脸图片具有更丰富的细节。图4展示了在GAAG中分别使用传统三元损失函数和软截断三元感知损失函数得到的效果比较图。这里未给GAAG输入属性标签,即只实现从源人脸到目标人脸的表情迁移的功能。由图4中的(a)可见,相比于传统的三元损失函数,使用软截断三元感知损失函数生成的人脸图片对源人脸表情的复制度更高且具有更多的细节,如嘴巴的形状更接近真实人脸表情图片,因面部表情而形成的眉间皱纹得到了很好的再现。由图4中的(b)和图4中的(c)可见,使用传统三元损失函数约束生成的人脸无法有效地保持目标人脸的身份特征,如脸部轮廓产生了本不存在的棱角(见框标记部分),而使用软截断三元感知损失函数约束生成的人脸,不仅很好地保持了目标人脸的身份特征,而且具有更加丰富、真实自然的表情细节(如框标记的脸部轮廓,嘴型以及牙齿处)。
另外,大量实验证明使用软截断三元感知损失函数能够使训练更快地收敛,且收敛到更低的值。图5展示了其中一个测试对比结果,在相同条件下(110epoches),可见软截断三元感知损失函数(实线)与传统三元损失(虚线)相比,能够以更快的收敛速度到达较低的界限。
本实施例模型的训练过程主要包含两步:第一步,使用公式(6)中定义的损失函数训练FLMG模块,其中各约束项的权重分别设置为μ1=100,μ2=10,μ3=0.1。第二步,固定训练完的FLMG模块的参数,使用公式(11)定义的损失函数训练GAAG,其中损失权重μadvpixSTP和μcls分别设为0.1、100、0.01和1。
本实施例采用RaFD和KDEF两个数据集进行实验测试:
RaFD:The Radboud Faces Database(RaFD)包含对67位参与者收集的8,040张图像。每个参与者在三个不同的注视方向上做出八种表情,并从三个不同的角度捕获这些表情.本实施例使用其中所有45°,90°和135°的人脸图片,每张人脸图片上的106个人脸标记点利用人脸标记点检测器获得.此外,本实施例手动为每个参与者的5种二值属性(0/1)进行标注:头发颜色(黑色,金色,棕色),性别(男性/女性)和年龄(年轻/年老)。
KDEF:The Karolinska Directed Emotional Faces(KDEF)包含对70位参与者收集的7种不同表情的人脸图片,并从五个角度对每个人的每种表情做了采集.本实施例选取了45°,90°和135°三个角度的人脸表情图片进行实验.每张人脸图片上的106个人脸标记点也是通过人脸标记点检测器获得。同样地,手动为每个参与者的5种二值属性(0/1)进行标注:头发颜色(黑色,金色,棕色),性别(男性/女性)和年龄(年轻/年老)。
实现:在述训练策略下,使用Adam优化FLMG的所有模块,并设置β1=0.99,β2=0.999。初始学习速率设为3e-4,对FLMG训练1000个epochs,batch size为16.对于GAAG,使用Adam优化器并设置β1=0.5,β2=0.999,初始学习速率设置为2e-4
本实施例分别在数据集RaFD和KDEF上进行了一系列实验,包括对比实验,并直观呈现了视觉上的人脸图像合成效果,以表明本实施例方法所生成的人脸图像的高真实感以及模型的灵活性。实验中所有人脸图片尺寸调整为256×256。
首先,为证明本实施例提出的人脸合成模型能够很好地实现脸部身份特征保持的表情迁移,本实施例采用数据集RaFD,且仅使用表情信息
Figure BDA0003270978910000131
和身份信息IT,r作为模型的输入,进行了大量实验,得到了较好的效果。图6至图8展示了部分实验结果,其中第一行为源人脸表情图片,第一列为目标人脸图片,具有不同表情和身份的源人脸图片和目标人脸图片都是从RaFD中随机选择的。图6、图7和图8分别展示了将源人脸的面部表情和动作分别迁移到三种姿态(90°方向,正面;45°方向,右侧;135°方向,左侧)的六个目标人脸上的效果.可见,本实施例方法合成的人脸不仅能够保持与目标人脸一致的身份特征信息(如面部几何结构、五官特点等),且生成的表情真实自然、细节丰富。另外,合成人脸图像还很好地保持了目标人脸图片的姿态、色调和光照。
其次,为证明本实施例方法在人脸身份特征保持以及合成表情的真实感这两个方面的优越性,在RaFD数据集上将本实施例方法与Pix2Pix,CycleGAN和FReeNet进行了对比。图9展示了其中一个实例。其中,行(a)是随机选取的带有不同表情的七个源人脸,第一列是不同身份、不同角度的三个目标人脸,(b)-(d)行是Pix2Pix方法生成的结果图,(e)-(g)行是CycleGAN方法的结果图,(h)-(j)行是FReeNet方法的结果图,(k)-(m)行则是本实施例方法的结果图。Pix2Pix生成的图片无法保持目标人脸的身份特征和姿态,且部分图片出现扭曲;CycleGAN生成的部分人脸图片也出现了扭曲模糊的情况,且表情并不自然;FReeNet方法生成的图片可以较好地保持目标人脸的身份特征和姿态,但对某些源表情的还原度较低、真实感差;而本实施例方法合成的人脸图像不仅能够保持目标人脸的身份特征、姿态以及目标人脸图片的色调等信息,而且在目标人脸上重现的表情更加真实自然,符合目标人脸自身的个体特征。例如,对比框标注的实验结果图,可见由CycleGAN生成的人脸图片嘴部出现了模糊变形,且开心的表情生硬不自然,更像是假笑;FReeNet生成的开心表情整体比较自然,但人眼视线的方向与目标人脸不一致,略显奇怪;而本实施例方法生成的开心表情更加自然,眼睛注视方向也与目标人脸保持一致。对比图9中的(g)与(m)两行中蓝框标注的实验结果图,可见在CycleGAN生成的惊讶表情图片中,下巴会有阴影,图片质量不高,而本实施例方法不仅能够实现身份特征保持,并且迁移后的表情更加真实自然。此外,对于CycleGAN来说,每种表情的迁移都需要重新训练模型,这个过程是非常耗时的。而本实施例中的模型一旦训练完成,即可实现任意不同表情之间的传递,具有更高的效率和鲁棒性。
对比图9中的(c),(f),(i)和(l)四行可见,Pix2Pix生成的图片会受到源人脸外貌的影响,无法保持目标人脸的身份特征,而CycleGAN和FReeNet方法虽能取得优于Pix2Pix的结果,但在很多细节方面的处理效果较差。图10展示了图9中矩形框标注部分的细节放大效果。可见,对于开心表情,CycleGAN生成的人脸中嘴部两侧的笑纹出现小黑块,且下嘴唇有变形;FReeNet生成的人脸笑纹则出现阴影,且脸部轮廓出现本不存在的棱角;而本实施例方法生成的人脸笑纹更加自然,且脸部轮廓特征保持的较好。对于生气表情,相比于CycleGAN生成的人脸在眉眼处的错误结果,以及FReeNet在眉眼处的模糊,本实施例方法生成的人脸保留了丰富且清晰的细节,这也证实了软截断三元感知损失的优势.
最后,为展示本实施例模型在使用属性标签后,能够很好地实现人脸属性编辑的效果,本实施例进行了大量实验,在数据集RaFD中随机选取源人脸图片,目标人脸图片,并给定属性标签作为模型的输入,生成带有源人脸表情,目标人脸身份特征以及指定属性的人脸图像。图11和图12展示了部分实验结果.其中,第一列和第二列分别是目标人脸和源人脸.右侧五列分别是利用本实施例方法合成的带有指定属性(如黑发、棕发等)的人脸图像。实验结果显示,本实施例模型合成的人脸可以很好地保持身份特征、复刻表情,同时满足指定属性的要求.例如,图11中的(a)和(b)两行,当源人脸发生变化时,合成的人脸只体现了源人脸之间表情的变化,其身份特征并不会随源人脸的变化而变化。右侧五列的实验结果仅是根据属性标签(如将头发的颜色或者性别改变)调整的外貌属性,其人脸的身份特征仍然与目标人脸保持一致、表情仍然与源人脸保持一致.可见,本实施例模型很好地实现了外貌和表情解耦的效果。
为进一步证明本实施例方法在不同数据集上的有效性,本实施例又在KDEF数据集上进行了一系列实验,以展示模型在表情迁移以及人脸属性编辑方面的性能。同样地,首先,仅使用表情信息
Figure BDA0003270978910000141
和外貌信息IT,r作为输入进行表情迁移的实验.图13展示了其中一个实验结果,这里,具有不同表情和身份的六张源人脸图片是从KDEF中随机选取的,并将源人脸的面部表情和动作分别转移到三种姿势(45°,90°和135°)的六个目标人脸上。可见,本实施例方法所生成的人脸图片不仅保持了目标人脸的身份特征、姿态以及目标图片的色调、光照信息,而且迁移后的表情与源表情一致,且真实自然。
然后,添加属性标签c,进行表情迁移和外貌编辑同步实现的实验.图14展示了其中一个实验结果.如图14所示,左侧两列分别是目标人脸和源人脸,右侧五列是在KDEF上生成的带有指定属性(如黑发、棕发等)的人脸图像。实验结果表明,本实施例的模型可以保持目标人脸身份特征、复制源人脸表情,同时体现指定属性的外貌效果。
在上述直观视觉效果比较的基础上,本实施例进一步进行量化对比实验,以进一步评价和证明本实施例方法的性能。
评价指标:使用Amazon Mechanical Turk(AMT)评价最终获得的图像的视觉质量.使用结构相似性(SSIM)来衡量生成图像和真实图像之间的相似程度。本实施例借助AmazonMechanical Turk(AMT)外包服务平台来评估不同方法对RaFD数据集中67个目标人脸生成的四种指定属性(表情、发色、性别、年龄)的共1072张人脸图片的真实感.对每一种指定属性,将本实施例方法以及Pix2Pix,CycleGAN和StarGAN四种方法合成的人脸图片作为四个选项,30个答卷者根据图片真实感与质量的高低,以及对人物原始身份特征保持的感知,来选择最佳生成图片,以评估人脸图像合成的效果。表1展示了AMT对每个指定属性,四种方法所合成人脸质量的评价结果.每列对应一个属性,给出了四种方法生成的图片被评价为最佳图片的数量占该列所有图片数量的比重,每列四种方法的比重总和为100%。可见,在所有情况下,本实施例方法均表现最佳.
表1 不同模型的AMT感知评估结果
Figure BDA0003270978910000151
本实施例选择SSIM指标,在KDEF数据集上定量评估本实施例方法的有效性.由于根据指定属性标签合成的人脸图片是原本不存在的,没有与之对应的ground truth,为方便比较,实验中仅使用表情信息
Figure BDA0003270978910000152
身份信息IT,r作为输入,即实现表情的迁移。具体地,从数据集中随机选取100张源人脸图片,再随机选择与源人脸身份不同的另外70张图片作为目标人脸,将源人脸表情迁移到每一个目标人脸上,共得到7000张生成人脸图片。将数据集中这70个目标人脸与源人脸表情相同的图片作为真实图片,计算合成图片的SSIM指标。分别利用Pix2Pix,CycleGAN,FReeNet以及本实施例方法进行上述表情迁移操作和SSIM评估。表2列出了四种方法合成人脸图像的SSIM值。可见Pix2Pix的SSIM值最小,本实施例模型的SSIM值最大,说明本实施例方法合成的人脸图像质量更好。
表2 不同方法的SSIM评估结果
Figure BDA0003270978910000153
实施例二
本实施例提供了一种多样化的人脸图像合成系统,其具体包括如下模块:
信息获取模块,其用于获取源人脸图片、目标人脸图片及属性标签信息;
人脸图片合成模块,其用于根据源人脸图片、目标人脸图片和人脸合成网络模型,得到具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;
其中,人脸合成网络模型包括人脸特征点生成器和几何-属性感知生成器;
所述人脸特征点生成器用于提取源人脸与目标人脸的特征点作为人脸几何特征信息,并从人脸几何特征信息中提取表情信息,在潜在空间中将任意源人脸的表情信息迁移到目标人脸;
所述几何-属性感知生成器用于分别从目标人脸和标签中对应提取身份特征和指定属性信息,再结合表情信息生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片。
此处需要说明的是,本实施例中的各个模块与实施例一中的各个步骤一一对应,其具体实施过程相同,此处不再累述。
实施例三
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的多样化的人脸图像合成方法中的步骤。
实施例四
本实施例提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的多样化的人脸图像合成方法中的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种多样化的人脸图像合成方法,其特征在于,包括:
获取源人脸图片、目标人脸图片及属性标签信息;
根据源人脸图片、目标人脸图片和人脸合成网络模型,得到具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;
其中,人脸合成网络模型包括人脸特征点生成器和几何-属性感知生成器;
所述人脸特征点生成器用于提取源人脸与目标人脸的特征点作为人脸几何特征信息,并从人脸几何特征信息中提取表情信息,在潜在空间中将任意源人脸的表情信息迁移到目标人脸;
所述几何-属性感知生成器用于分别从目标人脸和标签中对应提取身份特征和指定属性信息,再结合表情信息生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;
所述几何-属性感知生成器的总目标损失函数为对抗损失函数、像素级损失函数、软截断三元感知损失函数和域分类损失函数四者的预设权重乘积和;
所述软截断三元感知损失函数为:
Figure FDA0003533952310000011
其中,
Figure FDA0003533952310000012
表示由人脸特征点生成器将表情n2迁移到人R上后的人脸标记点图,
Figure FDA0003533952310000013
表示由人脸特征点生成器将表情n2迁移到人T上后的人脸标记点图,v(·)表示用VGG进行的特征提取操作;H(·)表示L2距离;margin表示预设给定的距离;
Figure FDA0003533952310000014
Figure FDA0003533952310000015
分别是几何-属性感知生成器对于输入
Figure FDA0003533952310000016
Figure FDA0003533952310000017
生成的人脸表情图片;
Figure FDA0003533952310000018
Figure FDA0003533952310000019
表示选取的带有表情n1和n2的人物T的图片;
Figure FDA00035339523100000110
表示从人物R中随机选取的带有任意表情n3的图片;c表示属性域的标签。
2.如权利要求1所述的多样化的人脸图像合成方法,其特征在于,所述人脸特征点生成器包括两个编码器和一个解码器,两个编码器分别用于对源人脸图片和目标人脸图片提取特征,解码器用于对提取的源人脸图片和目标人脸图片特征进行融合,得到两者的偏移量,最后将目标人脸图片特征与偏移量进行显性相加得到带有源表情的目标人脸标记点。
3.如权利要求1所述的多样化的人脸图像合成方法,其特征在于,所述人脸特征点生成器的总目标损失函数为L1损失函数、循环一致损失函数和对抗损失函数三者的预设权重乘积和。
4.如权利要求1所述的多样化的人脸图像合成方法,其特征在于,所述几何-属性感知生成器基于StarGAN框架并根据表情和外貌解耦的思想设计得到,可实现表情和外貌的分别控制。
5.如权利要求1所述的多样化的人脸图像合成方法,其特征在于,所述几何-属性感知生成器由图片编码器,人脸标记点编码器,transformer块以及图片解码器组合而成;三个ResBlock部件组成一个transformer,为在生成的人脸表情图片上增强几何信息,每个transformer都与人脸标记点编码器的输出相连。
6.一种多样化的人脸图像合成系统,其特征在于,包括:
信息获取模块,其用于获取源人脸图片、目标人脸图片及属性标签信息;
人脸图片合成模块,其用于根据源人脸图片、目标人脸图片和人脸合成网络模型,得到具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;
其中,人脸合成网络模型包括人脸特征点生成器和几何-属性感知生成器;
所述人脸特征点生成器用于提取源人脸与目标人脸的特征点作为人脸几何特征信息,并从人脸几何特征信息中提取表情信息,在潜在空间中将任意源人脸的表情信息迁移到目标人脸;
所述几何-属性感知生成器用于分别从目标人脸和标签中对应提取身份特征和指定属性信息,再结合表情信息生成一张具有源人脸表情、目标人脸身份特征以及指定属性的真实感人脸图片;
所述几何-属性感知生成器的总目标损失函数为对抗损失函数、像素级损失函数、软截断三元感知损失函数和域分类损失函数四者的预设权重乘积和;
所述软截断三元感知损失函数为:
Figure FDA0003533952310000031
其中,
Figure FDA0003533952310000032
表示由人脸特征点生成器将表情n2迁移到人R上后的人脸标记点图,
Figure FDA0003533952310000033
表示由人脸特征点生成器将表情n2迁移到人T上后的人脸标记点图,v(·)表示用VGG进行的特征提取操作;H(·)表示L2距离;margin表示预设给定的距离;
Figure FDA0003533952310000034
Figure FDA0003533952310000035
分别是几何-属性感知生成器对于输入
Figure FDA0003533952310000036
Figure FDA0003533952310000037
生成的人脸表情图片;
Figure FDA0003533952310000038
Figure FDA0003533952310000039
表示选取的带有表情n1和n2的人物T的图片;
Figure FDA00035339523100000310
表示从人物R中随机选取的带有任意表情n3的图片;c表示属性域的标签。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一项所述的多样化的人脸图像合成方法中的步骤。
8.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-5中任一项所述的多样化的人脸图像合成方法中的步骤。
CN202111101932.1A 2021-09-18 2021-09-18 一种多样化的人脸图像合成方法及系统 Active CN113807265B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111101932.1A CN113807265B (zh) 2021-09-18 2021-09-18 一种多样化的人脸图像合成方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111101932.1A CN113807265B (zh) 2021-09-18 2021-09-18 一种多样化的人脸图像合成方法及系统

Publications (2)

Publication Number Publication Date
CN113807265A CN113807265A (zh) 2021-12-17
CN113807265B true CN113807265B (zh) 2022-05-06

Family

ID=78896020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111101932.1A Active CN113807265B (zh) 2021-09-18 2021-09-18 一种多样化的人脸图像合成方法及系统

Country Status (1)

Country Link
CN (1) CN113807265B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359034B (zh) * 2021-12-24 2023-08-08 北京航空航天大学 一种基于手绘的人脸图片生成方法及系统
CN114418919B (zh) * 2022-03-25 2022-07-26 北京大甜绵白糖科技有限公司 图像融合方法及装置、电子设备和存储介质
CN114581612B (zh) * 2022-04-28 2022-08-02 南京理工大学 混合动作表示的高保真人脸重现方法
CN114898020A (zh) * 2022-05-26 2022-08-12 唯物(杭州)科技有限公司 一种3d角色实时面部驱动方法、装置、电子设备及存储介质
CN114943656B (zh) * 2022-05-31 2023-02-28 山东财经大学 一种人脸图像修复方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084121A (zh) * 2019-03-27 2019-08-02 南京邮电大学 基于谱归一化的循环生成式对抗网络的人脸表情迁移的实现方法
CN110457994A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 人脸图像生成方法及装置、存储介质、计算机设备
CN111898550A (zh) * 2020-07-31 2020-11-06 平安科技(深圳)有限公司 建立表情识别模型方法、装置、计算机设备及存储介质
CN112766160A (zh) * 2021-01-20 2021-05-07 西安电子科技大学 基于多级属性编码器和注意力机制的人脸替换方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263756A (zh) * 2019-06-28 2019-09-20 东北大学 一种基于联合多任务学习的人脸超分辨率重建系统
CN112233012B (zh) * 2020-08-10 2023-10-31 上海交通大学 一种人脸生成系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084121A (zh) * 2019-03-27 2019-08-02 南京邮电大学 基于谱归一化的循环生成式对抗网络的人脸表情迁移的实现方法
CN110457994A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 人脸图像生成方法及装置、存储介质、计算机设备
CN111898550A (zh) * 2020-07-31 2020-11-06 平安科技(深圳)有限公司 建立表情识别模型方法、装置、计算机设备及存储介质
CN112766160A (zh) * 2021-01-20 2021-05-07 西安电子科技大学 基于多级属性编码器和注意力机制的人脸替换方法

Also Published As

Publication number Publication date
CN113807265A (zh) 2021-12-17

Similar Documents

Publication Publication Date Title
CN113807265B (zh) 一种多样化的人脸图像合成方法及系统
CN109376582B (zh) 一种基于生成对抗网络的交互式人脸卡通方法
Liu et al. Hard negative generation for identity-disentangled facial expression recognition
Zhou et al. Photorealistic facial expression synthesis by the conditional difference adversarial autoencoder
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN112887698B (zh) 基于神经辐射场的高质量人脸语音驱动方法
Sun et al. Facial age synthesis with label distribution-guided generative adversarial network
CN108288072A (zh) 一种基于生成对抗网络的面部表情合成方法
CN110378985A (zh) 一种基于gan的动漫绘画辅助创作方法
CN111783658B (zh) 基于双生成对抗网络的两阶段表情动画生成方法
CN111667559B (zh) 一种基于深度迁移网络的多形态人脸情感生成方法
CN110796593A (zh) 基于人工智能的图像处理方法、装置、介质及电子设备
CN113724354B (zh) 基于参考图颜色风格的灰度图像着色方法
CN114581992A (zh) 一种基于预训练StyleGAN的人脸表情合成方法及系统
CN115170559A (zh) 基于多层级哈希编码的个性化人头神经辐射场基底表示与重建方法
Xia et al. Controllable continuous gaze redirection
CN113486700A (zh) 一种教学场景下基于注意力机制的面部表情分析方法
JP2024506170A (ja) 個人化された3d頭部モデルおよび顔モデルを形成するための方法、電子装置、およびプログラム
CN114820303A (zh) 低清图像重建超分辨率人脸图像的方法、系统及存储介质
Ning et al. ICGNet: An intensity-controllable generation network based on covering learning for face attribute synthesis
CN115914505B (zh) 基于语音驱动数字人模型的视频生成方法及系统
Wu et al. Self-driven dual-path learning for reference-based line art colorization under limited data
CN115457374A (zh) 基于推理模式评估深伪图像检测模型泛化性方法及装置
CN114743241A (zh) 一种人脸表情识别方法、装置、电子设备及存储介质
CN114677312A (zh) 基于深度学习的脸部视频合成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20211217

Assignee: SHANDONG HUADI INTELLIGENT TECHNOLOGY Co.,Ltd.

Assignor: SHANDONG University OF FINANCE AND ECONOMICS

Contract record no.: X2023980037769

Denomination of invention: A Diversified Method and System for Facial Image Synthesis

Granted publication date: 20220506

License type: Common License

Record date: 20230710

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20211217

Assignee: Shandong Shanke Intelligent Technology Co.,Ltd.

Assignor: SHANDONG University OF FINANCE AND ECONOMICS

Contract record no.: X2023980037899

Denomination of invention: A Diversified Method and System for Facial Image Synthesis

Granted publication date: 20220506

License type: Common License

Record date: 20230712

EE01 Entry into force of recordation of patent licensing contract