CN111080511A - 一种端到端的高分辨率多特征提取的人脸交换方法 - Google Patents
一种端到端的高分辨率多特征提取的人脸交换方法 Download PDFInfo
- Publication number
- CN111080511A CN111080511A CN201911127533.5A CN201911127533A CN111080511A CN 111080511 A CN111080511 A CN 111080511A CN 201911127533 A CN201911127533 A CN 201911127533A CN 111080511 A CN111080511 A CN 111080511A
- Authority
- CN
- China
- Prior art keywords
- face
- neural network
- feature
- image
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000000605 extraction Methods 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000003062 neural network model Methods 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 7
- 230000004913 activation Effects 0.000 claims abstract description 6
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 239000000463 material Substances 0.000 claims description 13
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 3
- 101001013832 Homo sapiens Mitochondrial peptide methionine sulfoxide reductase Proteins 0.000 claims description 2
- 102100031767 Mitochondrial peptide methionine sulfoxide reductase Human genes 0.000 claims description 2
- 239000003086 colorant Substances 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 6
- 238000013527 convolutional neural network Methods 0.000 abstract description 3
- 230000001815 facial effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000003042 antagnostic effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 241001647769 Mirza Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种端到端的高分辨率多特征提取的人脸交换方法。其步骤为:1)对输入视频进行解帧,图像人脸对齐并提取面部特征点;2)构建网络模型;3)训练网络和更新参数;4)对生成人脸进行融合替换。本发明具有以下优点:使用了一种端到端的高分辨率多特征提取的人脸交换方法,能够生成目标神态表情;采用自编码器模型和残差结构对人脸的特征进行学习,可以提升人脸的细节;采用多特征的卷积神经网络的方法,能够捕捉到人脸的的更多特征,构造的神经网络模型中使用LeakyReLU激活函数提升网络性能;对于产生的结果,使用泊松融合颜色转换等方法使效果更加自然。
Description
技术领域
本发明涉及人脸交换和深度学习领域,尤其涉及一种端到端的高分辨率多特征提取的人脸交换方法。
背景技术
人脸交换技术一直是研究人脸相关技术领域的一大热点。换脸主要应用在娱乐相关或数据生成等领域,其目的为将人脸从源图像转换到目标图像,它可以无缝地替换目标图像中出现的人脸,并产生真实的结果。但是在实际的使用中,目前的方法达到的精度和真实感,并不能满足人们对于人脸交换的预期结果。
人脸交换方法主要分为传统方法和目前的基于深度学习的方法。传统的方法主要是依赖底层的三维人脸特征进行转移和控制面部外观。并且根据输入的图像来估计脸型,将生成的三维人脸特征和输入的图片进行拟合对齐。这种方法需要过程繁琐,需要花费大量的时间,并且生成的效果差。
基于深度学习的方法主要有基于自编码器模型的方法和基于对抗神经网络的方法。对抗神经网络是一种无监督表示学习,主要用于生成自然场景图片。2014年MehdiMirza等人提出的CGAN,在训练集中加入监督信息,能够生成更加逼真图像。2018年RyotaNatsume提出分离人脸的特征到隐空间变量,这些方法将人脸的身份成分从剩余的特征中分解出来,将身份编码为潜在特征向量的表现形式,但是这种方法会导致显著的信息丢失,限制了人脸的识别能力。基于生成对抗网络的方法需要大量的人脸数据去拟合神经网络,获取大量的人脸数据集非常困难,并且在训练的过程中容易过拟合。
基于自编码器(Autoencoder,AE)的方法,是一种利用反向传播算法使得输出值等于输入值的神经网络,它先将输入压缩成潜在空间表征,然后通过这种表征来重构输出。自编码器在其研究早期是为解决表征学习中的“编码器问题(encoder problem)”,即基于神经网络的降维问题而提出的联结主义模型的学习算法。1985年,David H.Ackley、GeoffreyE.Hinton和Terrence J.Sejnowski在玻尔兹曼机上对自编码器算法进行了首次尝试,并通过模型权重对其表征学习能力进行了讨论。自编码器包含编码器(encoder)和解码器(decoder)两部分。按学习范式,自编码器可以被分为收缩自编码器(undercompleteautoencoder)、正则自编码器(regularized autoencoder)和变分自编码器(VariationalAutoEncoder,VAE),其中前两者是判别模型、后者是生成模型。在2018年,网络上出现了Deepfake应用,用于人脸的替换,能够生成以假乱真的图片。但是生成图像的清晰度不足,对于大角度的人脸生成效果差。以上提到的方法在实际使用中具有一定的复杂性。
发明内容
本发明的目的在于克服生成人脸分辨率低的缺点,提供一种端到端的高分辨率多特征提取的人脸交换方法,其需要的数据集少,并且使用多种技术,实现高分辨率逼真的人脸交换结果。
端到端的高分辨率多特征提取的人脸交换方法包括以下步骤:
1、对输入视频进行解帧,标定人脸特征点,得到人脸的面部范围;选择人脸关键点,根据人脸关键点的坐标值进行人脸对齐操作;
2、构建深度神经网络,包括一个编码器和两个解码器;所述编码器包括多个特征提取器,并将多个特征提取器的输出叠加;两个解码器均包括交替连接的多个上采样层和残差块;
3、采集目标人脸样本和素材人脸样本作为训练样本,对深度神经网络进行训练,采用反向传递算法对深度神经网络中的权重进行更新,得到训练好的编码器和两个解码器;将两个解码器的位置对调,得到人脸交换的深度神经网络模型;
4、将待交换的目标人脸和素材人脸的图片序列输入到人脸交换的深度神经网络模型中,生成目标人脸的替换人脸,对生成的替换人脸进行融合以及颜色转换,得到换脸之后的结果。
本发明具备的有益效果是:
(1)使用了一种端到端的高分辨率多特征提取的人脸交换方法,能够生成目标神态表情;
(2)采用多层次特征提取的自编码器模型和残差结构对人脸的特征进行学习,获得更多的人脸特征,产生的结果表现出更多的人脸细节;
(3)采用多特征的卷积神经网络的方法,能够捕捉到人脸的的更多特征,构造的神经网络模型中使用LeakyReLU激活函数提升网络性能;对于产生的结果,使用泊松融合颜色转换等方法使效果更加自然。
附图说明
图1为本发明的步骤展示;
图2为本发明人脸对齐结果图;
图3为本发明的人脸标定图;
图4为本发明换脸效果图,(a)素材(b)目标(c)结果;
图5为本发明眼部细节以及边缘融合处放大图;
图6为本发明的编码器结构示意图;
图7为本发明的解码器结构示意图。
具体实施方式
一种端到端的高分辨率多特征提取的人脸交换方法,其具体实施过程如下:
步骤一、对输入视频进行解帧,图像人脸对齐并提取面部特征点:
1.1)检测人脸bounding box并提取标定点
第一步是从输入视频中拆解出包含人脸的目标图像帧,从图像数据中寻找图像中的人脸位置,并且将人脸上的特征点进行标注。对图像进行多个角度旋转,对不同角度的图像进行提取人脸存在范围。获取四个标定点进行边界框的回归。对于人脸特征点采用级联回归,其中t表示级联序号,rt(·,·)表示当前级的回归器regressor。I为输入图像,为上一级回归器更新之后的shape。对于每一张人脸,围绕眼睛等五官一共标定68个特征点。
1.2)人脸对齐
在获取到标定的人脸之后,需要对比对齐的人脸模型,通过仿射变换进行人脸对齐。选择编号10-37,43-47的关键点(即鼻子,左眼右眼以及嘴唇部分的基准关键点)计算两个点集之间的相似变换矩阵,获取当前人脸图像获取当前人脸图像相对于基准人脸间的旋转角度、缩放系数及应该获取的人脸区域的rect坐标。仿射变换的公式如下所示:
其中T为仿射矩阵,x和y分别为变换前的人脸关键点的坐标值,x′和y′分别为对齐后的坐标值。在获得基准点和对应的面部点坐标之后,如下所示,仿射矩阵为线性变化,易计算得上文所提仿射矩阵T。根据仿射矩阵,可将面部进行对齐。
其中(x1,y1)(x2,y2)(x3,y3)分别为三个基准点的坐标值,(x10,y10)(x20,y20)(x30,y30)分别为与基准点对应的待变换的对应特征点的坐标值。
步骤二、构建深度神经网络模型:
2.1)构建网络层;
所述深度神经网络的网络层包括输入层、隐藏层和输出层;输入层为图像的输入,隐藏层深度设为35层由神经元相互连接构成网络层,节点之间相互联接构成网络层,节点即神经元,神经元分成不同的层次,每个神经元与相邻层的其它神经元相连;每一层神经元都有输入(它的输入为前一层神经元输出)和输出;
2.2)构建隐藏层;
隐藏层结构参考自编码器结构由编码器和解码器组成,编码器通过卷积神经网络,将输入图像卷积之后,宽和高不断的减少,通道数不断增加,最后将人脸卷积到一个大小为32×32×1024的隐空间变量。解码器将隐空间变量转换为人脸的图像。
如图6所示,所述编码器由4个特征提取器、全连接层和上采样层组成组成;每一个特征提取器由4个下采样块组成。不同卷积核对于图像的感受野不同,因此能够捕捉到不同大小的特征,为高分辨率的结果提供面部细节。本发明中设置3种不同尺寸大小的卷积滤波器,分别为3×3,5×5,7×7,对于5×5的卷积滤波器,采用步长为2的空洞卷积。对于单个特征提取器,每一步操作会将特征图的宽高缩小一倍,通道数量变为原来的4倍。一张图片经过一个特征提取器后最终输出大小为32×32×1024。将得到的4个特征向量进行信息串联后得到多特征向量,将多特征向量输入到全连接层中。全连接层可以看作是非线性变化,打乱特征的线性变化,使网络能更好的拟合目标。上采样层由3层网络组成,能够将特征图的宽高扩大一倍,通道数缩小4倍。
如图7所示,所述解码器由残差块和反卷积网络组成,残差块可以用公式xl+1=xl+F(xl,Wl)近似表示,残差块分为两部分,直接映射部分和残差部分,公式中的xl表示输入,而公式后一部分表示残差部分,由两个卷积操作构成。每一个上采样层都经过一个残差层,在解码器中,一共由3层上采样层和残差块组成,每一个上采样层之后跟着一个残差块,最后一个残差块连接一个卷积层,两个解码器的输入为编码器的输出。在本发明中,所有的隐藏层均使用LeakyReLU作为激活函数处理。
LeakyReLU激活函数公式如下:
f(x)表示输入的LeakyReLU函数,x表示输入值,在激活函数中,参数a选择了0.1,保证反向传递时梯度不会消失。
步骤三、训练深度神经网络网络,反向传递更新参数:
3.1)训练网络和更新参数:网络模型采用的训练集为拍摄的视频,用ffmeng将视频分解为图像之后由步骤1.3可以得到对齐之后的人脸用于训练,其中训练的数据建议在1000张以上,素材和目标都是如此。经过对齐之后人脸图像的每一张分辨率大小为(256,256,3)。得到训练样本之后,需要训练一个编码器两个解码器,两个解码器分别对应两个个体,在训练完成时,得到训练好的编码器参数和解码器参数并将参数固定;将两个解码器互换,得到人脸交换的深度神经网络模型。
3.2)反向传播更新参数;
网络模型的中的权重初始化采用MSRA权重初始化,该初始化是均值为0,方差为2/n的高斯分布。该网络对人脸的特征的特征进行学习,在解码器阶段将编码器中隐变量重新生成为人脸。模型中采用反向传递算法(BP)对网络中的权重进行更新。不断的迭代完成训练。
3.3)定义损失函数;
在训练的过程采用像素损失函数和结构相似性损失函数,所述像素损失函数表达式为:
其中,x代表生成的图像,y代表原始图像,对每一个像素进行取L1距离作为像素损失;
所述结构相似性损失函数表达式为:
SSIM(X,Y)=L(X,Y)×C(X,Y)×S(X,Y)
其中,L(X,Y)为亮度对比因子,C(X,Y)为对比度因子,S(X,Y)为结构对比因子。
步骤四、对生成的人脸进行融合以及颜色转换:
4.1)将目标人脸和素材人脸的图片序列输入到训练好的人脸交换的深度神经网络模型中,生成替换人脸,经仿射变换矩阵重新进行人脸对齐操作,调整到正确位置。
4.2)根据目标人脸的面部范围,对对齐后的人脸进行泊松融合,消除面部贴合之间的不真实感,泊松融合需要求解:
使得素材和目标之间融合的提梯度最为接近。
4.3)对融合之后图像进行颜色转换,将源图像转换lαβ色彩空间,对图像的每个像素减去所有像素的均值,得到的新的像素值与参考空间上的像素值的标准差做乘积,得到的新像素加上参考空间像素值的均值,最终得到换脸之后的结果。
通过以上步骤,图1-5给出了本发明在实际使用中的过程以及产生的效果。图1为本发明的本发明的步骤展示;图2为本发明人脸对齐结果图,其中(a)(c)表示原始的素材图片,(b)(d)表示人脸对齐之后的照片;图3为本发明的人脸标定图,可见其面部标定点由步骤2可得;图4为本发明换脸效果图,其中(a)表示再当前例子中使用的人脸素材,(b)表示目标的图像,(c)为换脸之后的结果;图5为本发明眼部细节以及边缘融合处放大图,经过步骤4处理过后的图片,可见眼部细节和边缘融合之处比较柔和。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (5)
1.一种端到端的高分辨率多特征提取的人脸交换方法,其特征在于,包括以下步骤:
1)对输入视频进行解帧,标定人脸特征点,得到人脸的面部范围;选择人脸关键点,根据人脸关键点的坐标值进行人脸对齐操作;
2)构建深度神经网络,包括一个编码器和两个解码器;所述编码器包括多个特征提取器,并将多个特征提取器的输出叠加;两个解码器均包括交替连接的多个上采样层和残差块;
3)采集目标人脸样本和素材人脸样本作为训练样本,对深度神经网络进行训练,采用反向传递算法对深度神经网络中的权重进行更新,得到训练好的编码器和两个解码器;将两个解码器的位置对调,得到人脸交换的深度神经网络模型;
4)将待交换的目标人脸和素材人脸的图片序列输入到人脸交换的深度神经网络模型中,生成目标人脸的替换人脸,对生成的替换人脸进行融合以及颜色转换,得到换脸之后的结果。
2.根据权利要求1所述的一种端到端的高分辨率多特征提取的人脸交换方法,其特征在于,所述的步骤1)具体为:
1.1)人脸检测:
从输入视频中拆解出包含人脸的目标图像帧,得到目标图像和候选框,并采用边框回归的方法校正候选框;对候选框中的人脸上的特征点进行标定,得到多个人脸特征点坐标;对人脸特征点采用级联回归,其中t表示级联序号,rt(·,·)表示当前级的回归器,I为输入图像,为上一级回归器更新之后的特征形状;对于一张目标图像中的人脸,一共标定68个特征点;
1.2)人脸对齐:
选择鼻子、左眼右眼以及嘴唇部分的基准特征点为人脸关键点,根据人脸关键点坐标值将步骤1.1)标定后的人脸通过仿射变换进行人脸对齐,并截取仅包含人脸的图像区域,人脸关键点坐标也根据仿射变换矩阵重新映射到新的坐标。
3.根据权利要求1所述的一种端到端的高分辨率多特征提取的人脸交换方法,其特征在于,所述的步骤2)具体为:
构建深度神经网络,包括输入层、隐藏层和输出层;所述隐藏层由一个编码器和两个相同的解码器组成;所述编码器由4个特征提取器、全连接层和上采样层组成,每一个特征提取器由r个下采样层组成,将经步骤1)预处理后的图像通过输入层同时输入到4个特征提取器中,每一个特征提取器输出一个特征向量,将4个特征向量在通道上做叠加,输入到全连接层中,再经上采样层后输出隐空间变量;所述解码器包括多个上采样层和残差块,每一个上采样层之后连接一个残差块,最后一个残差块连接一个卷积层,两个解码器的输入为编码器的输出;
所述深度神经网络采用LeakyReLU激活函数,公式如下:
f(x)表示输入的LeakyReLU函数,x表示输入值,a为(0,1)区间内的固定参数。
4.根据权利要求1所述的一种端到端的高分辨率多特征提取的人脸交换方法,其特征在于,所述的步骤3)具体为:
搜集拍摄的视频,用ffmeng将视频分解为人脸图像作为训练样本,包括目标人脸样本和素材人脸样本,通过步骤1)对训练样本进行预处理;
将步骤2)建立的深度神经网络采用MSRA权重初始化,该初始化是均值为0,方差为2/n的高斯分布;将预处理后的目标人脸样本和素材人脸样本作为训练样本同时输入到深度学习网络中进行训练,采用反向传递算法对深度神经网络中的权重进行更新,得到训练好的编码器参数和解码器参数并将参数固定;将两个解码器互换,得到人脸交换的深度神经网络模型;
所述训练的过程采用像素损失函数和结构相似性损失函数,所述像素损失函数表达式为:
其中,x代表生成的图像,y代表原始图像,对每一个像素进行取L1距离作为像素损失;
所述结构相似性损失函数表达式为:
SSIM(X,Y)=L(X,Y)×C(X,Y)×S(X,Y)
其中,L(X,Y)为亮度对比因子,C(X,Y)为对比度因子,S(X,Y)为结构对比因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911127533.5A CN111080511B (zh) | 2019-11-18 | 2019-11-18 | 一种端到端的高分辨率多特征提取的人脸交换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911127533.5A CN111080511B (zh) | 2019-11-18 | 2019-11-18 | 一种端到端的高分辨率多特征提取的人脸交换方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111080511A true CN111080511A (zh) | 2020-04-28 |
CN111080511B CN111080511B (zh) | 2020-12-25 |
Family
ID=70311239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911127533.5A Active CN111080511B (zh) | 2019-11-18 | 2019-11-18 | 一种端到端的高分辨率多特征提取的人脸交换方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111080511B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723756A (zh) * | 2020-06-24 | 2020-09-29 | 中国科学技术大学 | 基于自监督和半监督学习的面部特征点跟踪方法 |
CN111738324A (zh) * | 2020-06-12 | 2020-10-02 | 汕头大学 | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 |
CN112184876A (zh) * | 2020-09-28 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN112258388A (zh) * | 2020-11-02 | 2021-01-22 | 公安部第三研究所 | 一种公共安全视图脱敏测试数据生成方法、系统以及存储介质 |
CN112487971A (zh) * | 2020-11-30 | 2021-03-12 | 南京信息工程大学 | 一种面向弱标签数据进行人脸年龄合成的方法 |
CN112613446A (zh) * | 2020-12-29 | 2021-04-06 | 贝壳技术有限公司 | 一种人脸对齐的方法、装置、电子设备及存储介质 |
CN112734631A (zh) * | 2020-12-31 | 2021-04-30 | 北京深尚科技有限公司 | 基于微调模型的视频图像换脸方法、装置、设备及介质 |
CN112766215A (zh) * | 2021-01-29 | 2021-05-07 | 北京字跳网络技术有限公司 | 人脸融合方法、装置、电子设备及存储介质 |
CN112766160A (zh) * | 2021-01-20 | 2021-05-07 | 西安电子科技大学 | 基于多级属性编码器和注意力机制的人脸替换方法 |
CN112967251A (zh) * | 2021-03-03 | 2021-06-15 | 网易(杭州)网络有限公司 | 图片检测方法、图片检测模型的训练方法及装置 |
CN113033442A (zh) * | 2021-03-31 | 2021-06-25 | 清华大学 | 基于StyleGAN的高自由度人脸驱动方法和装置 |
CN113240792A (zh) * | 2021-04-29 | 2021-08-10 | 浙江大学 | 一种基于人脸重建的图像融合生成式换脸方法 |
CN113689527A (zh) * | 2020-05-15 | 2021-11-23 | 武汉Tcl集团工业研究院有限公司 | 一种人脸转换模型的训练方法、人脸图像转换方法 |
US11222466B1 (en) | 2020-09-30 | 2022-01-11 | Disney Enterprises, Inc. | Three-dimensional geometry-based models for changing facial identities in video frames and images |
CN114187165A (zh) * | 2021-11-09 | 2022-03-15 | 阿里巴巴云计算(北京)有限公司 | 图像处理方法和装置 |
CN116704084A (zh) * | 2023-08-01 | 2023-09-05 | 苏州浪潮智能科技有限公司 | 人脸动画生成网络的训练方法、人脸动画生成方法及装置 |
WO2023184817A1 (zh) * | 2022-03-30 | 2023-10-05 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 |
CN117372604A (zh) * | 2023-12-06 | 2024-01-09 | 国网电商科技有限公司 | 一种3d人脸模型生成方法、装置、设备及可读存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016053313A1 (en) * | 2014-09-30 | 2016-04-07 | Hewlett Packard Enterprise Development Lp | Page modification |
CN107316020A (zh) * | 2017-06-26 | 2017-11-03 | 司马大大(北京)智能系统有限公司 | 人脸替换方法、装置及电子设备 |
CN107403185A (zh) * | 2016-05-20 | 2017-11-28 | 北京大学 | 人像颜色转换方法和人像颜色转换系统 |
CN107958246A (zh) * | 2018-01-17 | 2018-04-24 | 深圳市唯特视科技有限公司 | 一种基于新型端到端人脸超分辨率网络的图像对齐方法 |
CN108182657A (zh) * | 2018-01-26 | 2018-06-19 | 深圳市唯特视科技有限公司 | 一种基于循环生成对抗网络的面部图像转换方法 |
CN108647560A (zh) * | 2018-03-22 | 2018-10-12 | 中山大学 | 一种基于cnn的保持表情信息的人脸转移方法 |
CN108711175A (zh) * | 2018-05-16 | 2018-10-26 | 浙江大学 | 一种帧间信息导向的头部姿态估计优化方法 |
CN109063658A (zh) * | 2018-08-08 | 2018-12-21 | 吴培希 | 一种利用深度学习在多移动终端视频人物换脸的方法 |
CN110197462A (zh) * | 2019-04-16 | 2019-09-03 | 浙江理工大学 | 一种人脸图像实时美化与纹理合成方法 |
CN110288513A (zh) * | 2019-05-24 | 2019-09-27 | 北京百度网讯科技有限公司 | 用于改变人脸属性的方法、装置、设备和存储介质 |
-
2019
- 2019-11-18 CN CN201911127533.5A patent/CN111080511B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016053313A1 (en) * | 2014-09-30 | 2016-04-07 | Hewlett Packard Enterprise Development Lp | Page modification |
CN107403185A (zh) * | 2016-05-20 | 2017-11-28 | 北京大学 | 人像颜色转换方法和人像颜色转换系统 |
CN107316020A (zh) * | 2017-06-26 | 2017-11-03 | 司马大大(北京)智能系统有限公司 | 人脸替换方法、装置及电子设备 |
CN107958246A (zh) * | 2018-01-17 | 2018-04-24 | 深圳市唯特视科技有限公司 | 一种基于新型端到端人脸超分辨率网络的图像对齐方法 |
CN108182657A (zh) * | 2018-01-26 | 2018-06-19 | 深圳市唯特视科技有限公司 | 一种基于循环生成对抗网络的面部图像转换方法 |
CN108647560A (zh) * | 2018-03-22 | 2018-10-12 | 中山大学 | 一种基于cnn的保持表情信息的人脸转移方法 |
CN108711175A (zh) * | 2018-05-16 | 2018-10-26 | 浙江大学 | 一种帧间信息导向的头部姿态估计优化方法 |
CN109063658A (zh) * | 2018-08-08 | 2018-12-21 | 吴培希 | 一种利用深度学习在多移动终端视频人物换脸的方法 |
CN110197462A (zh) * | 2019-04-16 | 2019-09-03 | 浙江理工大学 | 一种人脸图像实时美化与纹理合成方法 |
CN110288513A (zh) * | 2019-05-24 | 2019-09-27 | 北京百度网讯科技有限公司 | 用于改变人脸属性的方法、装置、设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
YANHUI GUO ETAL.: ""A Face Replacement Neural Network for Image and Video"", 《ACM》 * |
张雨: ""基于深度神经网络的图像复原与质量评估方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113689527A (zh) * | 2020-05-15 | 2021-11-23 | 武汉Tcl集团工业研究院有限公司 | 一种人脸转换模型的训练方法、人脸图像转换方法 |
CN111738324A (zh) * | 2020-06-12 | 2020-10-02 | 汕头大学 | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 |
CN111738324B (zh) * | 2020-06-12 | 2023-08-22 | 汕头大学 | 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法 |
CN111723756A (zh) * | 2020-06-24 | 2020-09-29 | 中国科学技术大学 | 基于自监督和半监督学习的面部特征点跟踪方法 |
CN111723756B (zh) * | 2020-06-24 | 2022-09-06 | 中国科学技术大学 | 基于自监督和半监督学习的面部特征点跟踪方法 |
CN112184876A (zh) * | 2020-09-28 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备和存储介质 |
US11222466B1 (en) | 2020-09-30 | 2022-01-11 | Disney Enterprises, Inc. | Three-dimensional geometry-based models for changing facial identities in video frames and images |
CN112258388A (zh) * | 2020-11-02 | 2021-01-22 | 公安部第三研究所 | 一种公共安全视图脱敏测试数据生成方法、系统以及存储介质 |
CN112487971A (zh) * | 2020-11-30 | 2021-03-12 | 南京信息工程大学 | 一种面向弱标签数据进行人脸年龄合成的方法 |
CN112613446A (zh) * | 2020-12-29 | 2021-04-06 | 贝壳技术有限公司 | 一种人脸对齐的方法、装置、电子设备及存储介质 |
CN112613446B (zh) * | 2020-12-29 | 2023-03-31 | 贝壳技术有限公司 | 一种人脸对齐的方法、装置、电子设备及存储介质 |
CN112734631A (zh) * | 2020-12-31 | 2021-04-30 | 北京深尚科技有限公司 | 基于微调模型的视频图像换脸方法、装置、设备及介质 |
CN112766160B (zh) * | 2021-01-20 | 2023-07-28 | 西安电子科技大学 | 基于多级属性编码器和注意力机制的人脸替换方法 |
CN112766160A (zh) * | 2021-01-20 | 2021-05-07 | 西安电子科技大学 | 基于多级属性编码器和注意力机制的人脸替换方法 |
CN112766215A (zh) * | 2021-01-29 | 2021-05-07 | 北京字跳网络技术有限公司 | 人脸融合方法、装置、电子设备及存储介质 |
CN112967251B (zh) * | 2021-03-03 | 2024-06-04 | 网易(杭州)网络有限公司 | 图片检测方法、图片检测模型的训练方法及装置 |
CN112967251A (zh) * | 2021-03-03 | 2021-06-15 | 网易(杭州)网络有限公司 | 图片检测方法、图片检测模型的训练方法及装置 |
CN113033442A (zh) * | 2021-03-31 | 2021-06-25 | 清华大学 | 基于StyleGAN的高自由度人脸驱动方法和装置 |
CN113240792B (zh) * | 2021-04-29 | 2022-08-16 | 浙江大学 | 一种基于人脸重建的图像融合生成式换脸方法 |
CN113240792A (zh) * | 2021-04-29 | 2021-08-10 | 浙江大学 | 一种基于人脸重建的图像融合生成式换脸方法 |
CN114187165A (zh) * | 2021-11-09 | 2022-03-15 | 阿里巴巴云计算(北京)有限公司 | 图像处理方法和装置 |
WO2023184817A1 (zh) * | 2022-03-30 | 2023-10-05 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 |
CN116704084A (zh) * | 2023-08-01 | 2023-09-05 | 苏州浪潮智能科技有限公司 | 人脸动画生成网络的训练方法、人脸动画生成方法及装置 |
CN116704084B (zh) * | 2023-08-01 | 2023-11-03 | 苏州浪潮智能科技有限公司 | 人脸动画生成网络的训练方法、人脸动画生成方法及装置 |
CN117372604A (zh) * | 2023-12-06 | 2024-01-09 | 国网电商科技有限公司 | 一种3d人脸模型生成方法、装置、设备及可读存储介质 |
CN117372604B (zh) * | 2023-12-06 | 2024-03-08 | 国网电商科技有限公司 | 一种3d人脸模型生成方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111080511B (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111080511B (zh) | 一种端到端的高分辨率多特征提取的人脸交换方法 | |
Chen et al. | Fsrnet: End-to-end learning face super-resolution with facial priors | |
CN109615582B (zh) | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 | |
Yu et al. | Semantic face hallucination: Super-resolving very low-resolution face images with supplementary attributes | |
CN107977932A (zh) | 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法 | |
Huang et al. | Deep hyperspectral image fusion network with iterative spatio-spectral regularization | |
CN111275518A (zh) | 一种基于混合光流的视频虚拟试穿方法及装置 | |
CN112348743B (zh) | 一种融合判别式网络和生成式网络的图像超分辨率方法 | |
Tuzel et al. | Global-local face upsampling network | |
CN116797488A (zh) | 一种基于特征融合与注意力嵌入的低照度图像增强方法 | |
CN110458906A (zh) | 一种基于深度颜色迁移的医学图像着色方法 | |
CN113112416B (zh) | 一种语义引导的人脸图像修复方法 | |
CN113807265B (zh) | 一种多样化的人脸图像合成方法及系统 | |
JP7462120B2 (ja) | 2次元(2d)顔画像から色を抽出するための方法、システム及びコンピュータプログラム | |
CN113724354B (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
CN115187638A (zh) | 一种基于光流遮罩的无监督单目深度估计方法 | |
CN113538610A (zh) | 一种基于稠密流的虚拟试衣方法 | |
Li et al. | Line drawing guided progressive inpainting of mural damages | |
CN113034388B (zh) | 一种古代绘画虚拟修复方法及修复模型的构建方法 | |
CN113822175B (zh) | 一种基于关键点聚类驱动匹配的虚拟试衣图像生成方法 | |
CN115937150A (zh) | 基于点结构化信息网络的点云质量计算方法 | |
CN115937011A (zh) | 一种基于时滞特征回归的关键帧位姿优化视觉slam方法、存储介质及设备 | |
Chen et al. | Application of generative adversarial network in image color correction | |
CN115018729A (zh) | 一种面向内容的白盒图像增强方法 | |
CN115294182A (zh) | 一种基于双交叉注意力机制的高精度立体匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 310012 4th floor, unit 2, building 4, Fenghuang creative building, Lingfeng street, Xihu District, Hangzhou City, Zhejiang Province Patentee after: Zhejiang Time Coordinate Technology Co.,Ltd. Address before: 310012 4th floor, unit 2, building 4, Fenghuang creative building, Lingfeng street, Xihu District, Hangzhou City, Zhejiang Province Patentee before: HANGZHOU TIMEAXIS FILM AND TELEVISION MEDIA CO.,LTD. |
|
CP01 | Change in the name or title of a patent holder |