CN109829959B - 基于人脸解析的表情编辑方法及装置 - Google Patents

基于人脸解析的表情编辑方法及装置 Download PDF

Info

Publication number
CN109829959B
CN109829959B CN201811593470.8A CN201811593470A CN109829959B CN 109829959 B CN109829959 B CN 109829959B CN 201811593470 A CN201811593470 A CN 201811593470A CN 109829959 B CN109829959 B CN 109829959B
Authority
CN
China
Prior art keywords
expressive
expression
facial
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811593470.8A
Other languages
English (en)
Other versions
CN109829959A (zh
Inventor
赫然
张兆翔
卢治合
胡坦浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201811593470.8A priority Critical patent/CN109829959B/zh
Publication of CN109829959A publication Critical patent/CN109829959A/zh
Application granted granted Critical
Publication of CN109829959B publication Critical patent/CN109829959B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及计算机图形学技术领域,具体涉及一种基于人脸解析的表情编辑方法及装置,旨在解决如何在保持人物身份的前提下,更好地对无表情人脸进行表情编辑的技术问题,为此目的,本发明提供的基于人脸解析的表情编辑方法包括:基于预设的人脸解析预测网络并且根据预先获取的无表情人脸图像和表情强度控制编码,获取无表情人脸图像和表情强度控制编码对应的有表情人脸解析图;基于预设的人脸表情编辑网络并且根据有表情人脸解析图和无表情人脸图像,获取目标表情图像。基于上述步骤,可以在保持人物身份信息的前提下,对无表情人脸进行不同强度和不同表情的编辑。

Description

基于人脸解析的表情编辑方法及装置
技术领域
本发明涉及计算机图形学技术领域,具体涉及一种基于人脸解析的表情编辑方法及装置。
背景技术
表情编辑是一种典型的图形学处理技术,其主要任务是在保持人物身份的前提下,将人脸表情从源表情转化到目标表情。然而由于人脸的类别多样、强度变化和纹理形变等问题,使得人脸表情编辑技术仍存在一些具有挑战性的问题。
目前,人脸表情编辑的方法主要包括图像重排序、基于流的方法和三维重建等。图像重排序的方法是利用数据库中图像或图像块进行重新排序以接近目标表情,该方法很难处理表情变化较大的人脸表情编辑。基于流的方法是先计算源域图像和目标域图像之间在流图上的差异,利用差异信息指导合成目标人脸表情,然而其编辑效果并不佳。基于三维重建的人脸表情编辑,其编辑效果和性能表现较好,但是其编辑复杂度高,计算效率低,难以推广应用。
相应地,本领域需要一种新的表情编辑方法来解决上述问题。
发明内容
为了解决现有技术中的上述问题,即为了解决如何在保持人物身份的前提下,更好地对无表情人脸进行表情编辑的技术问题,为此目的,本发明的第一方面,提供了一种基于人脸解析的表情编辑方法,所述表情编辑方法包括:
基于预设的人脸解析预测网络并且根据预先获取的无表情人脸图像和表情强度控制编码,获取所述无表情人脸图像和表情强度控制编码对应的有表情人脸解析图;
基于预设的人脸表情编辑网络并且根据所述有表情人脸解析图和无表情人脸图像,获取目标表情图像;
其中,所述人脸解析预测网络和人脸表情编辑网络均是利用机器学习算法构建的生成对抗网络模型,所述表情强度控制编码包括表情控制编码和强度控制编码。
进一步地,本发明提供的一个优选实施方案为:
在“基于预设的人脸解析预测网络并且根据预先获取的无表情人脸图像和表情强度控制编码,获取所述无表情人脸图像和表情强度控制编码对应的有表情人脸解析图”的步骤之前,所述方法还包括:
基于人脸数据库获取有表情人脸解析图标签以及所述有表情人脸解析图标签对应的无表情人脸图像样本;
获取所述有表情人脸解析图像标签对应的表情强度控制编码;
基于所述无表情人脸图像样本、所述有表情人脸解析图像标签对应的表情强度控制编码与所述有表情人脸解析图标签,并且利用所述机器学习算法训练所述人脸解析预测网络;
其中,所述有表情人脸解析图标签为真实的有表情人脸图像对应的解析图。
进一步地,本发明提供的一个优选实施方案为:
所述人脸解析预测网络包括第一生成器、第一判别器和第二判别器,“利用所述机器学习算法训练所述人脸解析预测网络”的步骤包括:
初始化所述人脸解析预测网络的网络参数;
基于所述第一生成器并且根据所述无表情人脸图像样本与所述有表情人脸解析图像标签对应的表情强度控制编码,生成有表情人脸解析图;
基于所述有表情人脸解析图标签和无表情人脸图像样本构建第一真样本对,基于所述生成的有表情人脸解析图和无表情人脸图像样本构建第一假样本对;
以所述有表情人脸解析图标签作为第二真样本,以所述生成的有表情人脸解析图作为第二假样本;
利用所述第一判别器对所述第一真样本对和第一假样本对进行真假判断,以及利用所述第二判别器对所述第二真样本和第二假样本进行真假判断;
利用所述第一判别器的判断结果和所述第二判别器的判断结果,计算所述人脸解析预测网络的损失函数,并且根据所述损失函数更新所述人脸解析预测网络的网络参数,对更新后的人脸解析预测网络重新进行网络训练,直至满足预设的收敛条件。
进一步地,本发明提供的一个优选实施方案为:
所述人脸解析预测网络的损失函数包括生成器损失函数
Figure BDA0001920818030000031
和判别器损失函数
Figure BDA0001920818030000032
所述生成器损失函数
Figure BDA0001920818030000033
和判别器损失函数
Figure BDA0001920818030000034
分别如下式所示:
Figure BDA0001920818030000035
其中,所述
Figure BDA0001920818030000041
表示与所述第一判别器对应的第一生成器损失函数,所述
Figure BDA0001920818030000042
表示与所述第二判别器的第一生成器损失函数,所述Lpixel1表示预设的基于L1范数的度量函数,所述Ltv表示预设的正则化项,所述
Figure BDA0001920818030000043
表示所述第一判别器对应的损失函数,所述
Figure BDA0001920818030000044
表示所述第二判别器对应的损失函数;
并且其中,所述第一判别器对应的第一生成器损失函数
Figure BDA0001920818030000045
所述
Figure BDA0001920818030000046
表示基于IN在概率分布下的期望,所述DFP1表示所述第一判别器,所述IN表示所述无表情人脸图像样本,所述GFP表示所述第一生成器,所述IL表示所述强度控制编码,所述EL表示所述表情控制编码;
所述第二判别器的第一生成器损失函数
Figure BDA0001920818030000047
所述DFP2表示所述第二判别器;
所述基于L1范数的度量函数
Figure BDA0001920818030000048
所述
Figure BDA0001920818030000051
表示基于IN,FPE在概率分布下的期望,所述FPE表示所述有表情人脸解析图标签,所述“||||1”表示L1范数;
所述正则化项
Figure BDA0001920818030000052
所述C,W,H分别表示所述人脸解析预测网络输入图像的通道、宽度和高度,所述
Figure BDA0001920818030000053
分别表示所述人脸解析预测网络输入图像中在位置(w+1,h,c)、(w,h,c)、(w,h+1,c)处的像素,所述“||”表示求绝对值符号,所述λ1和λ2分别表示预设的权重系数;
所述第一判别器对应的损失函数
Figure BDA0001920818030000054
所述第二判别器对应的损失函数
Figure BDA0001920818030000055
所述
Figure BDA0001920818030000056
表示基于FPE在概率分布下的期望。
进一步地,本发明提供的一个优选实施方案为:
在“基于预设的人脸表情编辑网络并且根据所述有表情人脸解析图和无表情人脸图像,获取目标表情图像”的步骤之前,所述方法还包括:
获取无表情人脸图像样本、有表情人脸解析图样本和有表情人脸图像标签;
基于所述无表情人脸图像样本、生成的有表情人脸解析图样本和有表情人脸图像标签,迭代训练所述人脸编辑网络;
其中,所述有表情人脸解析图样本为所述无表情人脸图像样本对应的有表情人脸解析图,所述有表情人脸图像标签为所述无表情人脸图像样本和有表情人脸解析图样本对应的真实的有表情人脸图像。
进一步地,本发明提供的一个优选实施方案为:
所述人脸表情编辑网络包括第二生成器、第三判别器和第四判别器,“基于所述无表情人脸图像样本、生成的有表情人脸解析图样本和有表情人脸图像标签,迭代训练所述人脸编辑网络”的步骤包括:
初始化所述人脸表情编辑网络的网络参数;
基于所述第二生成器并且根据所述无表情人脸图像样本和有表情人脸解析图样本,生成有表情人脸图像;
基于所述有表情人脸图像标签和无表情人脸图像样本构建第三真样本对,基于所述生成的有表情人脸图像和无表情人脸图像样本构建第三假样本对;
基于所述有表情人脸解析图样本、有表情人脸图像标签和无表情人脸图像样本构建第四真样本对,基于所述有表情人脸解析图样本、生成的有表情人脸图像和无表情人脸图像样本构建第四假样本对;
基于所述第三判别器对所述第三真样本对和第三假样本对进行真假判断,以及基于所述第四判别器对所述第四真样本对和第四假样本对进行真假判断;
基于所述第三判别器的判断结果和所述第四判别器的判断结果,计算所述人脸表情编辑网络的损失函数,并且根据所述损失函数更新所述人脸表情编辑网络的网络参数,对更新后的人脸表情编辑网络重新进行网络训练,直至满足预设的收敛条件。
进一步地,本发明提供的一个优选实施方案为:
在“基于所述第二生成器并且根据所述无表情人脸图像样本和有表情人脸解析图样本,生成有表情人脸图像”的步骤之后,所述方法还包括:
分别提取所述生成的有表情人脸图像的身份特征和无表情人脸图像样本的身份特征;
分别提取所述生成的有表情人脸图像的表情特征和有表情人脸图像标签的表情特征;
计算所述生成的有表情人脸图像的身份特征和无表情人脸图像样本的身份特征的相似度,获取第一相似值;
计算所述生成的有表情人脸图像的表情特征和有表情人脸图像标签的表情特征的相似度,获取第二相似值;
基于所述第一相似值和第二相似值更新所述第二生成器的网络参数。
进一步地,本发明提供的一个优选实施方案为:
所述人脸表情编辑网络的损失函数包括生成器损失函数
Figure BDA0001920818030000071
和判别器损失函数
Figure BDA0001920818030000072
所述生成器损失函数
Figure BDA0001920818030000073
和判别器损失函数
Figure BDA0001920818030000074
分别如下式所示:
Figure BDA0001920818030000075
其中,所述
Figure BDA0001920818030000081
表示与所述第三判别器对应的第二生成器损失函数,所述
Figure BDA0001920818030000082
表示与所述第四判别器对应的第二生成器损失函数,所述Lpixel2表示预设的基于L1范数的度量函数,所述Lip表示预设的身份保持损失函数,所述Lep表示预设的表情保持损失函数,所述Fep表示预设的表情特征提取函数,所述Ltv表示预设的正则化项,所述
Figure BDA0001920818030000083
表示所述第三判别器对应的损失函数,所述
Figure BDA0001920818030000084
表示所述第四判别器对应的损失函数,所述λ3456分别表示预设的权重系数;
并且其中,所述第三判别器对应的第二生成器损失函数
Figure BDA0001920818030000085
所述
Figure BDA0001920818030000086
表示基于IN
Figure BDA0001920818030000087
在概率分布下的期望,所述DFE3表示所述第三判别器,所述IN表示无表情人脸图像样本,所述GFE表示所述第二生成器,所述
Figure BDA0001920818030000088
表示所述生成的有表情人脸解析图样本;
所述第四判别器对应的第二生成器损失函数
Figure BDA0001920818030000089
所述
Figure BDA00019208180300000810
表示基于IN在概率分布下的期望,所述DFE4表示所述第四判别器,所述IL表示所述强度控制编码,所述EL表示所述表情控制编码;
所述基于L1范数的度量函数
Figure BDA0001920818030000091
所述
Figure BDA0001920818030000092
表示基于IN,IE
Figure BDA0001920818030000093
在概率分布下的期望,所述IE表示所述有表情人脸图像标签;
所述身份保持损失函数
Figure BDA0001920818030000094
所述Fip表示预设的身份特征提取函数,所述“||||1”表示表示L1范数;
所述表情保持损失函数
Figure BDA0001920818030000095
所述Fep表示预设的表情特征提取函数;
所述第三判别器对应的损失函数
Figure BDA0001920818030000096
所述
Figure BDA0001920818030000097
示基于IN,IE在概率分布下的期望;
所述第四判别器对应的损失函数
Figure BDA0001920818030000101
本发明的第二方面,还提供了一种存储装置,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的基于人脸解析的表情编辑方法。
本发明的第三方面,还提供了一种控制装置,包括:处理器,适于执行各条程序;存储设备,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的基于人脸解析的表情编辑方法。
与最接近的现有技术相比,上述技术方案至少具有如下有益效果:
本发明提供的基于人脸解析的表情编辑方法主要包括如下步骤:基于预设的人脸解析预测网络并且根据预先获取的无表情人脸图像和表情强度控制编码,获取无表情人脸图像和表情强度控制编码对应的有表情人脸解析图;基于预设的人脸表情编辑网络并且根据有表情人脸解析图和无表情人脸图像,获取目标表情图像。基于上述步骤可以在保持人物身份信息的前提下,对无表情人脸进行不同强度和不同表情的编辑。
进一步地,基于有表情人脸解析图和无表情人脸图像,获取目标表情图像,以有表情人脸解析图作为约束,更能明确地指导多样性表情的编辑合成,其收敛速度更快、编辑合成效果更好,泛化能力更强。
进一步地,在人脸表情编辑网络的损失函数中加入了身份保持损失函数和表情损失函数,即在图像特征层面进行身份约束和表情约束,以提高人脸表情编辑合成的精确度。
附图说明
图1为本发明实施例中一种基于人脸解析的表情编辑方法的主要步骤示意图;
图2为本发明实施例中一种基于人脸解析的表情编辑方法的主要流程示意图;
图3为本发明实施例中一种基于CK+人脸表情数据库的人脸解析预测网络的测试对比示意图;
图4为本发明实施例中一种基于CK+人脸表情数据库的人脸表情编辑网络的测试对比示意图;
图5为本发明实施例中一种人脸解析预测网络和人脸表情编辑网络中不同结构对人脸编辑性能影响的对比示意图。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
为了保证人脸表情编辑后的逼真效果和保持编辑对象的身份特性,本发明基于人脸解析并且设计了端到端的模型进行人脸表情编辑任务。本发明提出了两个生成对抗网络模型,分别是人脸解析预测网络和人脸表情编辑网,通过人脸解析的生成对抗网络学习拟合目标表情图像和无表情人脸图像之间的高度非线性关系,并且在特征层面增加了身份保持约束和表情保持约束,可以很好地保持编辑对象的身份信息和表情信息。下面结合附图对本发明提供的基于人脸解析的表情编辑方法进行详细说明。
参阅附图1,图1示例性示出了基于人脸解析的表情编辑方法的主要步骤,如图1所示,基于人脸解析的表情编辑方法可以包括:
步骤S101:基于预设的人脸解析预测网络并且根据预先获取的无表情人脸图像和表情强度控制编码,获取无表情人脸图像和表情强度控制编码对应的有表情人脸解析图。
步骤S102:基于预设的人脸表情编辑网络并且根据有表情人脸解析图和无表情人脸图像,获取目标表情图像。
具体地,人脸解析预测网络是利用机器学习算法构建的生成对抗网络模型,其以无表情人脸图像和表情强度控制编码作为网络的输入数据,以有表情人脸解析图像作为输出数据。表情强度控制编码包括表情控制编码和强度控制编码,表情控制编码可以是利用数字0和1构建的8位向量编码,例如,以00000001表示表情“笑”,以“00000010”表示表情“怒”,以“00000100”表示表情“哀”,以“00001000”表示表情“哭”等等,每个向量编码表示一种表情,即可以根据所需要编辑的目标表情图像,设置相应的表情控制编码。强度控制编码可以是利用单浮点值编码,从0.1到1设置10个表情强度等级,利用当表情控制编码对应的是表情是“笑”时,0.1表示“微笑”,1表示“大笑”,其他单浮点值依次表示从微笑到大笑的强度递增。又例如当表情控制编码对应的表情是“怒”时,从0.1到1依次表示从微怒到极为愤怒的愤怒程度递增。
人脸解析预测网络可以包括第一生成器、第一判别器和第二判别器。第一生成器可以利用对称卷积神经网络结构先后进行上、下采样操作,以保证生成的有表情人脸解析图大小与真实的有表情人脸解析图大小一致。本实施中,第一生成器的对称卷积神经网络结构由13层卷积层构成,其中每个卷积层都是4×4大小滤波器,步长为2,填充值为1,滤波器的个数先增后减,上、下采样过程中卷积层与其对应的反卷积层在通道通路上进行结合。第一判别器和第二判别器对偶设置,第一判别器和第二判别器可以均采用卷积神经网络结构对其输入数据进行真假判断,并且均是采用分块对抗损失函数来判断真假。本实施中,第一判别器和第二判别器的输入数据大小为14×14。
人脸解析预测网络的网络训练方法可以包括如下步骤:
步骤S201:基于人脸数据库获取有表情人脸解析图标签以及有表情人脸解析图标签对应的无表情人脸图像样本。具体地,有表情人脸解析图标签为真实的有表情人脸图像对应的解析图。为了扩大训练样本的数量,增强人脸解析预测网络的泛化能力,在人脸解析预测网络的训练过程中,对表情人脸解析图标签以及有表情人脸解析图标签对应的无表情人脸图像样本进行随机裁剪得到相同大小训练图像,本实施例中,先将表情人脸解析图标签以及有表情人脸解析图标签对应的无表情人脸图像样本进行脸部68个特征点的提取,提取的特征点包括眼睛、鼻子、嘴巴、眉毛等位置的特征点,根据双眼的特征点获取双眼的位置,根据双眼的位置将训练图像规范化得到统一大小144×144,然后对规范后的训练图像随机裁剪得到128×128大小的训练图像。在人脸解析预测网络的测试阶段,将用于测试的无表情人脸图像样本以图像中心进行裁剪得到128×128大小的图像。
步骤S202:获取有表情人脸解析图像标签对应的表情强度控制编码。具体地,基于有表情人脸解析图像标签对应的表情以及表情强度并且根据预设的表情控制编码和强度控制编码的方法,获取有表情人脸解析图像标签对应的表情强度控制编码。
步骤S203:基于无表情人脸图像样本、有表情人脸解析图像标签对应的表情强度控制编码与有表情人脸解析图标签,并且利用机器学习算法训练人脸解析预测网络。具体地,步骤S203可以包括如下步骤:
步骤S2031:初始化人脸解析预测网络的网络参数;
步骤S2032:基于第一生成器并且根据无表情人脸图像样本与有表情人脸解析图像标签对应的表情强度控制编码,生成有表情人脸解析图;
步骤S2033:基于有表情人脸解析图标签和无表情人脸图像样本构建第一真样本对,基于生成的有表情人脸解析图和无表情人脸图像样本构建第一假样本对;本实施例中,[IN,GFP(IN,IL,EL)]表示第一假样本对,[IN,FPE]表示第一真样本对。
步骤S2034:以有表情人脸解析图标签作为第二真样本,以生成的有表情人脸解析图作为第二假样本;本实施例中,GFP(IN,IL,EL)表示第二假样本,[IN,IE]表示第二真样本。
步骤S2035:利用第一判别器对第一真样本对和第一假样本对进行真假判断,以及利用第二判别器对第二真样本和第二假样本进行真假判断;
利用第一判别器的判断结果和第二判别器的判断结果,计算人脸解析预测网络的损失函数,并且根据损失函数更新人脸解析预测网络的网络参数,对更新后的人脸解析预测网络重新进行网络训练,直至满足预设的收敛条件。
其中,人脸解析预测网络的损失函数包括第一生成器损失函数及其对应的判别器损失函数,第一生成器损失函数如公式(1)所示:
Figure BDA0001920818030000141
其中,
Figure BDA0001920818030000142
表示与第一判别器对应的第一生成器损失函数,并且
Figure BDA0001920818030000143
Figure BDA0001920818030000151
表示基于IN在概率分布下的期望,DFP1表示第一判别器,IN表示无表情人脸图像样本,GFP表示第一生成器,IL表示强度控制编码,EL表示表情控制编码,
Figure BDA0001920818030000152
表示与第二判别器对应的第一生成器损失函数,并且
Figure BDA0001920818030000153
DFP2表示第二判别器,Lpixel1表示预设的基于L1范数的度量函数,并且
Figure BDA0001920818030000154
Figure BDA0001920818030000155
表示基于IN
Figure BDA0001920818030000156
在概率分布下的期望,FPE表示有表情人脸解析图标签,“||||1”表示表示L1范数,Ltv表示预设的正则化项,并且
Figure BDA0001920818030000157
C,W,H分别表示人脸解析预测网络输入图像的通道、宽度和高度,
Figure BDA0001920818030000158
分别表示人脸解析预测网络输入图像中在位置(w+1,h,c)、(w,h,c)、(w,h+1,c)处的像素,所述“||”表示求绝对值符号,所述λ1和λ2分别表示预设的权重系数;本实施中,λ1,λ2分别为10,10-4,批处理的大小为5,学习率为2×10-4
第一生成器损失函数对应的判别器损失函数如公式(2)所示:
Figure BDA0001920818030000161
其中,
Figure BDA0001920818030000162
表示第一判别器对应的损失函数,并且
Figure BDA0001920818030000163
Figure BDA0001920818030000164
表示第二判别器对应的损失函数,并且
Figure BDA0001920818030000165
Figure BDA0001920818030000166
表示基于FPE在概率分布下的期望。
人脸表情编辑网络是利用机器学习算法构建的生成对抗网络模型,其以无表情人脸图像和有表情人脸解析图为输入数据,以目标表情图像作为输出数据。人脸表情编辑网络包括第二生成器、第三判别器和第四判别器,其中,第三判别器和第四判别器为对偶设置。
人脸表情编辑网络的网络训练可以包括如下步骤:
步骤S301:获取无表情人脸图像样本、有表情人脸解析图样本和有表情人脸图像标签。具体地,有表情人脸解析图样本为无表情人脸图像样本对应的有表情人脸解析图,有表情人脸图像标签为无表情人脸图像样本和有表情人脸解析图样本对应的真实的有表情人脸图像。为了增强人脸表情编辑网络的泛化能力,对训练数据进行数据增强处理,即在人脸表情编辑网络的训练阶段,对无表情人脸图像样本、有表情人脸解析图样本和有表情人脸图像标签进行随机裁剪得到相同大小的训练图像。
步骤S302:基于无表情人脸图像样本、生成的有表情人脸解析图样本和有表情人脸图像标签,迭代训练人脸编辑网络;具体地,步骤S302可以包括如下步骤:
步骤S3021:初始化人脸表情编辑网络的网络参数;
步骤S3022:基于第二生成器并且根据所述无表情人脸图像样本和有表情人脸解析图样本,生成有表情人脸图像;
可选的,为了更好的保持编辑对象的身份特征和表情特征,还可以增加一个身份保持约束和表情保持约束,即在步骤S3022之后,还可以包括:分别提取生成的有表情人脸图像的身份特征和无表情人脸图像样本的身份特征;分别提取生成的有表情人脸图像的表情特征和有表情人脸图像标签的表情特征;计算生成的有表情人脸图像的身份特征和无表情人脸图像样本的身份特征的相似度,获取第一相似值;计算生成的有表情人脸图像的表情特征和有表情人脸图像标签的表情特征的相似度,获取第二相似值;基于第一相似值和第二相似值更新第二生成器的网络参数。
步骤S3023:基于有表情人脸图像标签和无表情人脸图像样本构建第三真样本对,基于生成的有表情人脸图像和无表情人脸图像样本构建第三假样本对;本实施例中,
Figure BDA0001920818030000171
表示第三假样本对,[IN,IE]表示第三真样本对。
步骤S3024:基于有表情人脸解析图样本、有表情人脸图像标签和无表情人脸图像样本构建第四真样本对,基于有表情人脸解析图样本、生成的有表情人脸图像和无表情人脸图像样本构建第四假样本对;本实施例中,
Figure BDA0001920818030000181
表示第四假样本对,
Figure BDA0001920818030000182
表示第四真样本对。
步骤S3025:基于第三判别器对第三真样本对和第三假样本对进行真假判断,以及基于第四判别器对所述第四真样本对和第四假样本对进行真假判断;
步骤S3026:基于第三判别器的判断结果和第四判别器的判断结果,计算人脸表情编辑网络的损失函数,并且根据损失函数更新人脸表情编辑网络的网络参数,对更新后的人脸表情编辑网络重新进行网络训练,直至满足预设的收敛条件。
人脸表情编辑网络的损失函数包括第二生成器损失函数及其对应的判别器损失函数,第二生成器损失函数如公式(3)所示:
Figure BDA0001920818030000183
其中,
Figure BDA0001920818030000184
表示与第三判别器对应的第二生成器损失函数,并且
Figure BDA0001920818030000185
Figure BDA0001920818030000186
表示基于IN
Figure BDA0001920818030000187
在概率分布下的期望,DFE3表示第三判别器,IN表示无表情人脸图像样本,GFE表示第二生成器,
Figure BDA0001920818030000188
表示生成的有表情人脸解析图样本,
Figure BDA0001920818030000189
表示与第四判别器对应的第二生成器损失函数,并且
Figure BDA0001920818030000191
DFE4表示第四判别器,IL表示强度控制编码,EL表示表情控制编码,Lpixel2表示预设的基于L1范数的度量函数,并且
Figure BDA0001920818030000192
,所述
Figure BDA0001920818030000193
表示基于IN,IE
Figure BDA0001920818030000194
在概率分布下的期望,所述IE表示有表情人脸图像标签,Lip表示预设的身份保持损失函数,并且
Figure BDA0001920818030000195
,Fip表示预设的身份特征提取函数,||||1表示表示L1范数,Lep表示预设的表情保持损失函数,并且
Figure BDA0001920818030000196
,Fep表示预设的表情特征提取函数,||||1表示L1范数,Ltv表示预设的正则化项,λ345,λ6分别表示预设的权重系数;本实施中,λ3456分别为10,0.01,0.01,10-4,批处理大小为5,学习率为2×10-4
第二生成器损失函数对应的判别器损失函数如公式(4)所示:
Figure BDA0001920818030000197
其中,
Figure BDA0001920818030000201
表示第三判别器对应的损失函数,并且
Figure BDA0001920818030000202
Figure BDA0001920818030000203
表示基于IN,IE在概率分布下的期望,
Figure BDA0001920818030000204
表示第四判别器对应的损失函数,并且
Figure BDA0001920818030000205
最后,基于训练好的人脸解析预测网络和人脸表情编辑网络并且根据预先获取的无表情人脸图像和表情强度控制编码,进行人脸解析预测和表情编辑处理,得到目标表情图像,并对得到的目标表情图像进行人脸指标测试。本实施例中是对目标表情图像的人脸指标测试包括峰值信噪比(PSNR)、结构相似性(SSIM)和人脸验证。
参阅附图2,图2示例性示出了基于人脸解析的表情编辑方法的主要流程,如图2所示是利用训练好的人脸解析预测网络和人脸表情编辑网络进行人脸表情编辑任务。首先将无表情人脸图像和表情强度控制编码输入人脸解析预测网络生成有表情人脸解析图,人脸表情编辑网络根据无表情人脸图像和有表情人脸解析图生成目标表情图像。
为了详细说明本发明的具体实施方式以及验证本发明的有效性,下面以CK+人脸表情数据库为例,说明本发明提供的基于人脸解析的表情编辑方法。CK+人脸表情数据库包括123个人,共593个视频序列,共6种表情,其中表情强度从第一帧到最后一帧逐渐增强。具体地,为了训练人脸解析预测网络和人脸表情编辑网络,从视频序列中选择第一帧和视频序列第六帧后的图像作为训练样本,并按照身份将100对象的图像数据作为训练集,23个对象的图像数据作为测试集。利用脸部关键点提取网络进行关键点提取并进行人脸对齐预处理,然后利用人脸解析预测网络获取有表情人脸解析图。在人脸解析预测网络中,以无表情人脸图像样本和表情强度控制编码结合作为输入,以真实的有表情人脸图像对应的解析图作为有表情人脸解析图像标签,利用生成器和判别器之间的对抗及梯度反传训练该神经网络,直至最后网络收敛,得到训练好的人脸解析预测网络。在人脸表情编辑网络中,以无表情人脸图像样本和有表情人脸解析图样本结合作为输入,以无表情人脸图像样本和有表情人脸解析图样本对应的真实的有表情人脸图像作为有表情人脸图像标签,利用生成器和判别器之间的对抗及梯度反传训练该神经网络,直至最后网络收敛,得到训练好的人脸编辑网络。
参阅附图3,图3示例性示出了基于CK+人脸表情数据库的人脸解析预测网络的测试对比图。如图3所示从上往下数,第一行表示无表情人脸图像,第二行表示真实的有表情人脸图像,第三行表示真实的有表情人脸图像对应的解析图,第四行表示人脸解析预测网络生成的有表情人脸解析图,其中图3中每一列均为同一个编辑对象。通过对比可以发现人脸解析预测网络可以根据无表情人脸图像和表情强度控制编码生成有效的有表情人脸解析图。
参阅附图4,图4示例性示出了基于CK+人脸表情数据库的人脸表情编辑网络的测试对比图,如图4所示从上往下数,第一行表示无表情人脸图像,第二行表示的真实的有表情人脸图像,第三行表示人脸表情编辑网络生成的目标表情图像,其中,图4中的每一列表示同一个编辑对象。通过对比可知人脸表情编辑网络生成的目标表情图像具有有效保持人物身份信息和表情信息的能力。
参阅附图5,图5示例性示出了人脸解析预测网络和人脸表情编辑网络中不同结构对人脸编辑性能影响的对比结果,如图5所示采用三种数据库中数据,分别是Oulu-CASIA、CK+、CAS-PEAL-R1数据库,真正类率为判对样本中的正样本率,假正类率为负样本中的错判率,人脸验证的一般指标为在考虑假正类率为1%和0.1%的情况下真正类率的数值。图5中列出的各项指标为在不同的损失的配置下得到最终人脸验证准确率,包括真实人脸解析,无身份保持(即,无身份保持损失函数),无表情保持(即,无表情损失函数),无全局变量正则化,无身份、表情(即,无身份保持损失函数和无表情损失函数)、无身份、全局(即,无身份保持损失函数和无全局变量正则化),无表情、全局(即,无表情保持损失函数和无全局变量正则化)无表情、身份、全局(即,无表情保持损失函数、无身份保持损失函数和无全局变量正则化)、最终方法(即,本发明基于人脸解析的表情编辑方法的损失函数),从指标上来看,最终方法在大多数情况下性能表现最佳。
上述实施例中虽然将各个步骤按照上述先后次序的方式进行了描述,但是本领域技术人员可以理解,为了实现本实施例的效果,不同的步骤之间不必按照这样的次序执行,其可以同时(并行)执行或以颠倒的次序执行,这些简单的变化都在本发明的保护范围之内。
进一步地,基于上述基于人脸解析的表情编辑方法实施例,本发明还提供了一种存储装置,该存储装置中可以存储有多条程序,程序适于由处理器加载并执行如上述的基于人脸解析的表情编辑方法。
再进一步地,基于上述基于人脸解析的表情编辑方法实施例,本发明还提供了一种处理装置,该处理装置可以包括处理器、存储设备;处理器,适于执行各条程序;存储设备,适于存储多条程序;程序适于由处理器加载并执行如上述的基于人脸解析的表情编辑方法。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的方法步骤及装置,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (10)

1.一种基于人脸解析的表情编辑方法,其特征在于,所述表情编辑方法包括:
基于预设的人脸解析预测网络并且根据预先获取的无表情人脸图像和表情强度控制编码,获取所述无表情人脸图像和表情强度控制编码对应的有表情人脸解析图;
基于预设的人脸表情编辑网络并且根据所述有表情人脸解析图和无表情人脸图像,获取目标表情图像,具体包括:获取无表情人脸图像样本、有表情人脸解析图样本和有表情人脸图像标签;
其中,所述人脸解析预测网络和人脸表情编辑网络均是利用机器学习算法构建的生成对抗网络模型,所述表情强度控制编码包括表情控制编码和强度控制编码;
所述人脸解析预测网络包括第一生成器、第一判别器和第二判别器,利用所述机器学习算法训练所述人脸解析预测网络;其中,所述人脸解析预测网络的损失函数包括与其生成器对应的损失函数和与其各个判别器对应的损失函数;
所述人脸表情编辑网络包括第二生成器、第三判别器和第四判别器,迭代训练所述人脸表情编辑网络;其中,所述人脸表情编辑网络的损失函数包括与其生成器对应的损失函数和与其各个判别器对应的损失函数。
2.根据权利要求1所述的基于人脸解析的表情编辑方法,其特征在于,在“基于预设的人脸解析预测网络并且根据预先获取的无表情人脸图像和表情强度控制编码,获取所述无表情人脸图像和表情强度控制编码对应的有表情人脸解析图”的步骤之前,还包括:
基于人脸数据库获取有表情人脸解析图标签以及所述有表情人脸解析图标签对应的无表情人脸图像样本;
获取所述有表情人脸解析图像标签对应的表情强度控制编码;
基于所述无表情人脸图像样本、所述有表情人脸解析图像标签对应的表情强度控制编码与所述有表情人脸解析图标签;
其中,所述有表情人脸解析图标签为真实的有表情人脸图像对应的解析图。
3.根据权利要求2所述的基于人脸解析的表情编辑方法,其特征在于,“利用所述机器学习算法训练所述人脸解析预测网络”的步骤包括:
初始化所述人脸解析预测网络的网络参数;
基于所述第一生成器并且根据所述无表情人脸图像样本与所述有表情人脸解析图像标签对应的表情强度控制编码,生成有表情人脸解析图;
基于所述有表情人脸解析图标签和无表情人脸图像样本构建第一真样本对,基于所述生成的有表情人脸解析图和无表情人脸图像样本构建第一假样本对;
以所述有表情人脸解析图标签作为第二真样本,以所述生成的有表情人脸解析图作为第二假样本;
利用所述第一判别器对所述第一真样本对和第一假样本对进行真假判断,以及利用所述第二判别器对所述第二真样本和第二假样本进行真假判断;
利用所述第一判别器的判断结果和所述第二判别器的判断结果,计算所述人脸解析预测网络的损失函数,并且根据所述损失函数更新所述人脸解析预测网络的网络参数,对更新后的人脸解析预测网络重新进行网络训练,直至满足预设的收敛条件。
4.根据权利要求3所述的基于人脸解析的表情编辑方法,其特征在于,所述人脸解析预测网络的损失函数,具体包括:
生成器损失函数
Figure FDA0002677795730000038
和判别器损失函数
Figure FDA0002677795730000039
所述生成器损失函数
Figure FDA00026777957300000310
和判别器损失函数
Figure FDA00026777957300000311
分别如下式所示:
Figure FDA0002677795730000031
其中,所述
Figure FDA0002677795730000032
表示与所述第一判别器对应的第一生成器损失函数,所述
Figure FDA0002677795730000033
表示与所述第二判别器的第一生成器损失函数,所述Lpixel1表示预设的基于L1范数的度量函数,所述Ltv表示预设的正则化项,所述
Figure FDA0002677795730000034
表示所述第一判别器对应的损失函数,所述
Figure FDA0002677795730000035
表示所述第二判别器对应的损失函数,所述λ1和λ2分别表示预设的权重系数;
并且其中,所述第一判别器对应的第一生成器损失函数
Figure FDA0002677795730000036
所述
Figure FDA0002677795730000037
表示基于IN在概率分布下的期望,所述DFP1表示所述第一判别器,所述IN表示所述无表情人脸图像样本,所述GFP表示所述第一生成器,所述IL表示所述强度控制编码,所述EL表示所述表情控制编码;
所述第二判别器的第一生成器损失函数
Figure FDA0002677795730000041
所述DFP2表示所述第二判别器;
所述基于L1范数的度量函数
Figure FDA0002677795730000042
所述
Figure FDA0002677795730000043
表示基于IN,FPE在概率分布下的期望,所述FPE表示所述有表情人脸解析图标签,所述“|| ||1”表示L1范数;
所述正则化项
Figure FDA0002677795730000044
所述C,W,H分别表示所述人脸解析预测网络输入图像的通道、宽度和高度,所述
Figure FDA0002677795730000045
分别表示所述人脸解析预测网络输入图像中在位置(w+1,h,c)、(w,h,c)、(w,h+1,c)处的像素,所述“| |”表示求绝对值符号;
所述第一判别器对应的损失函数
Figure FDA0002677795730000046
所述第二判别器对应的损失函数
Figure FDA0002677795730000051
所述
Figure FDA0002677795730000052
表示基于FPE在概率分布下的期望。
5.根据权利要求1所述的基于人脸解析的表情编辑方法,其特征在于,在“基于预设的人脸表情编辑网络并且根据所述有表情人脸解析图和无表情人脸图像,获取目标表情图像”的步骤之前,所述方法还包括:
获取无表情人脸图像样本、有表情人脸解析图样本和有表情人脸图像标签;
基于所述无表情人脸图像样本、生成的有表情人脸解析图样本和有表情人脸图像标签,迭代训练所述人脸表情编辑网络;
其中,所述有表情人脸解析图样本为所述无表情人脸图像样本对应的有表情人脸解析图,所述有表情人脸图像标签为所述无表情人脸图像样本和有表情人脸解析图样本对应的真实的有表情人脸图像。
6.根据权利要求5所述的基于人脸解析的表情编辑方法,其特征在于,“基于所述无表情人脸图像样本、生成的有表情人脸解析图样本和有表情人脸图像标签,迭代训练所述人脸表情编辑网络”的步骤包括:
初始化所述人脸表情编辑网络的网络参数;
基于所述第二生成器并且根据所述无表情人脸图像样本和有表情人脸解析图样本,生成有表情人脸图像;
基于所述有表情人脸图像标签和无表情人脸图像样本构建第三真样本对,基于所述生成的有表情人脸图像和无表情人脸图像样本构建第三假样本对;
基于所述有表情人脸解析图样本、有表情人脸图像标签和无表情人脸图像样本构建第四真样本对,基于所述有表情人脸解析图样本、生成的有表情人脸图像和无表情人脸图像样本构建第四假样本对;
基于所述第三判别器对所述第三真样本对和第三假样本对进行真假判断,以及基于所述第四判别器对所述第四真样本对和第四假样本对进行真假判断;
基于所述第三判别器的判断结果和所述第四判别器的判断结果,计算所述人脸表情编辑网络的损失函数,并且根据所述损失函数更新所述人脸表情编辑网络的网络参数,对更新后的人脸表情编辑网络重新进行网络训练,直至满足预设的收敛条件。
7.根据权利要求6所述的基于人脸解析的表情编辑方法,其特征在于,在“基于所述第二生成器并且根据所述无表情人脸图像样本和有表情人脸解析图样本,生成有表情人脸图像”的步骤之后,所述方法还包括:
分别提取所述生成的有表情人脸图像的身份特征和无表情人脸图像样本的身份特征;
分别提取所述生成的有表情人脸图像的表情特征和有表情人脸图像标签的表情特征;
计算所述生成的有表情人脸图像的身份特征和无表情人脸图像样本的身份特征的相似度,获取第一相似值;
计算所述生成的有表情人脸图像的表情特征和有表情人脸图像标签的表情特征的相似度,获取第二相似值;
基于所述第一相似值和第二相似值更新所述第二生成器的网络参数。
8.根据权利要求7所述的基于人脸解析的表情编辑方法,其特征在于,所述人脸表情编辑网络的损失函数,具体包括:
生成器损失函数
Figure FDA0002677795730000071
和判别器损失函数
Figure FDA0002677795730000072
所述生成器损失函数
Figure FDA0002677795730000073
和判别器损失函数
Figure FDA0002677795730000074
分别如下式所示:
Figure FDA0002677795730000075
其中,所述
Figure FDA0002677795730000076
表示与所述第三判别器对应的第二生成器损失函数,所述
Figure FDA0002677795730000077
表示与所述第四判别器对应的第二生成器损失函数,所述Lpixel2表示预设的基于L1范数的度量函数,所述Lip表示预设的身份保持损失函数,所述Lep表示预设的表情保持损失函数,所述Fep表示预设的表情特征提取函数,所述Ltv表示预设的正则化项,所述
Figure FDA0002677795730000078
表示所述第三判别器对应的损失函数,所述
Figure FDA0002677795730000079
表示所述第四判别器对应的损失函数,所述λ3456分别表示预设的权重系数;
并且其中,所述第三判别器对应的第二生成器损失函数
Figure FDA00026777957300000710
所述
Figure FDA00026777957300000711
表示基于IN
Figure FDA00026777957300000712
在概率分布下的期望,所述DFE3表示所述第三判别器,所述IN表示无表情人脸图像样本,所述GFE表示所述第二生成器,所述
Figure FDA00026777957300000713
表示所述生成的有表情人脸解析图样本;
所述第四判别器对应的第二生成器损失函数
Figure FDA0002677795730000081
所述
Figure FDA0002677795730000082
表示基于IN在概率分布下的期望,所述DFE4表示所述第四判别器,所述IL表示所述强度控制编码,所述EL表示所述表情控制编码;
所述基于L1范数的度量函数
Figure FDA0002677795730000083
所述
Figure FDA0002677795730000084
表示基于IN,IE
Figure FDA0002677795730000087
在概率分布下的期望,所述IE表示所述有表情人脸图像标签;
所述身份保持损失函数
Figure FDA0002677795730000085
所述Fip表示预设的身份特征提取函数,所述“|| ||1”表示表示L1范数;
所述表情保持损失函数
Figure FDA0002677795730000086
所述Fep表示预设的表情特征提取函数;
所述第三判别器对应的损失函数
Figure FDA0002677795730000091
所述
Figure FDA0002677795730000092
表示基于IN,IE在概率分布下的期望;
所述第四判别器对应的损失函数
Figure FDA0002677795730000093
9.一种存储装置,其中存储有多条程序,其特征在于,所述程序适于由处理器加载并执行以实现权利要求1至8中任一项所述的基于人脸解析的表情编辑方法。
10.一种控制装置,包括:
处理器,适于执行各条程序;
存储设备,适于存储多条程序;
其特征在于,所述程序适于由处理器加载并执行以实现权利要求1至8中任一项所述的基于人脸解析的表情编辑方法。
CN201811593470.8A 2018-12-25 2018-12-25 基于人脸解析的表情编辑方法及装置 Active CN109829959B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811593470.8A CN109829959B (zh) 2018-12-25 2018-12-25 基于人脸解析的表情编辑方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811593470.8A CN109829959B (zh) 2018-12-25 2018-12-25 基于人脸解析的表情编辑方法及装置

Publications (2)

Publication Number Publication Date
CN109829959A CN109829959A (zh) 2019-05-31
CN109829959B true CN109829959B (zh) 2021-01-08

Family

ID=66861130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811593470.8A Active CN109829959B (zh) 2018-12-25 2018-12-25 基于人脸解析的表情编辑方法及装置

Country Status (1)

Country Link
CN (1) CN109829959B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427864B (zh) * 2019-07-29 2023-04-21 腾讯科技(深圳)有限公司 一种图像处理方法、装置及电子设备
CN110570383B (zh) * 2019-09-25 2022-05-06 北京字节跳动网络技术有限公司 一种图像处理方法、装置、电子设备及存储介质
CN111008604A (zh) * 2019-12-09 2020-04-14 上海眼控科技股份有限公司 预测图像获取方法、装置、计算机设备和存储介质
CN111145311B (zh) * 2019-12-30 2021-11-26 中国科学院自动化研究所 高分辨率人脸图像的多属性编辑方法、系统、装置
CN111242213B (zh) * 2020-01-13 2023-07-25 上海大学 无标签的自动人脸属性编辑方法
CN111932661B (zh) * 2020-08-19 2023-10-24 上海艾麒信息科技股份有限公司 一种人脸表情编辑系统及方法、终端
CN114783022B (zh) * 2022-04-08 2023-07-21 马上消费金融股份有限公司 一种信息处理方法、装置、计算机设备及存储介质
CN115376195B (zh) * 2022-10-09 2023-01-13 珠海大横琴科技发展有限公司 训练多尺度网络模型的方法及人脸关键点检测方法
CN117115361B (zh) * 2023-10-19 2024-01-19 北京蔚领时代科技有限公司 一种3d写实人像面部表情绑定自动迁移方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423707A (zh) * 2017-07-25 2017-12-01 深圳帕罗人工智能科技有限公司 一种基于复杂环境下的人脸情绪识别方法
CN107437077A (zh) * 2017-08-04 2017-12-05 深圳市唯特视科技有限公司 一种基于生成对抗网络的旋转面部表示学习的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831447B (zh) * 2012-08-30 2015-01-21 北京理工大学 多类别面部表情高精度识别方法
KR20180057096A (ko) * 2016-11-21 2018-05-30 삼성전자주식회사 표정 인식과 트레이닝을 수행하는 방법 및 장치
CN108230239A (zh) * 2017-12-25 2018-06-29 中国科学院自动化研究所 人脸表情图像合成装置
CN108171770B (zh) * 2018-01-18 2021-04-06 中科视拓(北京)科技有限公司 一种基于生成式对抗网络的人脸表情编辑方法
CN108446609B (zh) * 2018-03-02 2022-03-11 南京邮电大学 一种基于生成对抗网络的多角度面部表情识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423707A (zh) * 2017-07-25 2017-12-01 深圳帕罗人工智能科技有限公司 一种基于复杂环境下的人脸情绪识别方法
CN107437077A (zh) * 2017-08-04 2017-12-05 深圳市唯特视科技有限公司 一种基于生成对抗网络的旋转面部表示学习的方法

Also Published As

Publication number Publication date
CN109829959A (zh) 2019-05-31

Similar Documents

Publication Publication Date Title
CN109829959B (zh) 基于人脸解析的表情编辑方法及装置
CN108537271B (zh) 一种基于卷积去噪自编码机防御对抗样本攻击的方法
CN109886881B (zh) 人脸妆容去除方法
CN108520503A (zh) 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法
CN112418292B (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN109087258A (zh) 一种基于深度学习的图像去雨方法及装置
CN109684901A (zh) 图像处理装置和图像处理方法
CN114638767B (zh) 基于生成对抗网络的腹腔镜影像除烟方法
CN112836602B (zh) 基于时空特征融合的行为识别方法、装置、设备及介质
CN117557689B (zh) 图像处理方法、装置、电子设备及存储介质
Liu et al. Facial image inpainting using multi-level generative network
CN117788629A (zh) 一种具有风格个性化的图像生成方法、装置及存储介质
CN114494387A (zh) 一种生成数据集网络模型及雾图生成方法
CN117793371A (zh) 一种基于Swin-Unet架构的多张高分辨率彩色图像隐藏方法
CN111711868B (zh) 基于视听多模态的舞蹈生成方法、系统、装置
Campana et al. Variable-hyperparameter visual transformer for efficient image inpainting
CN116895089A (zh) 一种基于生成对抗网络的人脸多元化补全方法及系统
CN113554047A (zh) 图像处理模型的训练方法、图像处理方法及对应的装置
Wolter Frequency domain methods in recurrent neural networks for sequential data processing
CN116258632A (zh) 一种基于文本辅助的文本图像超分辨率重建方法
CN111898576B (zh) 一种基于人体骨架时空关系的行为识别方法
CN115346259A (zh) 一种结合上下文信息的多粒度学业情绪识别方法
CN111860212B (zh) 人脸图像的超分方法、装置、设备及存储介质
CN113888417A (zh) 基于语义解析生成指导的人脸图像修复方法
CN113111906A (zh) 一种基于单对图像训练的条件生成对抗网络模型的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant