CN109325549B - 一种人脸图像融合方法 - Google Patents
一种人脸图像融合方法 Download PDFInfo
- Publication number
- CN109325549B CN109325549B CN201811250280.6A CN201811250280A CN109325549B CN 109325549 B CN109325549 B CN 109325549B CN 201811250280 A CN201811250280 A CN 201811250280A CN 109325549 B CN109325549 B CN 109325549B
- Authority
- CN
- China
- Prior art keywords
- fusion
- image
- encoder
- network model
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 12
- 230000004927 fusion Effects 0.000 claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 50
- 238000009826 distribution Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 4
- 230000000717 retained effect Effects 0.000 claims description 3
- 230000008921 facial expression Effects 0.000 abstract description 3
- 238000007499 fusion processing Methods 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 16
- 230000001815 facial effect Effects 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000037308 hair color Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种人脸图像融合方法,它包括以下步骤:将待融合的原始人脸图像输入到人脸融合网络模型中;在人脸融合网络模型中设置相应的融合偏倚参数;人脸融合网络模型根据输入的偏倚参数将输入的原始图像进行重构融合,输出融合后的目标图像。通过VAE和VGG网络的结合,利用VGG小卷积特征提取优势,获取输入的原始图像和新生成的目标图像的之间信息损失,并使其信息损失最小化,能够将两张人脸图像融合成一张自然完整的新的人脸图像,通过对融合偏倚参数的设置能够进一步的保存完整的头发的颜色、发型、面部表情等细节,且本方法具有融合处理过程简单快捷的特点。
Description
技术领域
本发明涉及一种图像融合方法,特别是涉及一种人脸图像融合方法。
背景技术
人脸图像的融合即将两张不同的人脸图像融合成一张人脸图像,新得到的融合图像应保留有原人脸图像的面部特征。现目前最主流的融合方法是基于面部特征点匹配的方法,其主要依赖于基于人脸的面部特征工程,并已获得了较好的融合效果,但整个过程既复杂又耗时,而且这种方法会模糊目标图像的细节特征,也不具备扩展及多图像泛化的特性。
而由于GAN生成的图像具有清晰和逼真等特性,因此也被广泛应用于图像生成方面,如Alec Radford等人提出了深度卷积性生成对抗网络,在这些网络中,对GAN的卷积性架构拓扑进行了一组约束,使它们在大多数情况下都能稳定地进行训练;但是由于对抗生成网络GAN从随机噪声点生成图像,它不能生成特定细节的图像,另外,生成式对抗模型参照图像中的样子,没有办法强制它所生成的图像必须看起来像图像本身。这就造成了图像的样式不会非常写实。
因此,需要一种新的人脸图像融合方法,去简化融合过程并实现完整保存人脸图像的面部细节的要求。
发明内容
本发明主要解决的技术问题是提供一种人脸图像融合方法,能够解决现有融合方法存在的融合过程复杂耗时以及融合的结果图像不写实的问题。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种人脸图像融合方法,它包括以下步骤:
将待融合的原始人脸图像输入到人脸融合网络模型中;
在人脸融合网络模型中设置相应的融合偏倚参数;
人脸融合网络模型根据输入的偏倚参数将输入的原始图像进行重构融合,输出融合后的目标图像。
在进行所述将待融合的人脸图像输入到人脸融合网络模型中的步骤之前,还需要进行建立人脸融合网络模型;所述的人脸融合网络模型包括变分自动编码器VAE和VGG网络;所述的变分自动编码器包括编码器Vencoder和解码器Vdecoder。
生成解码器Vdecoder的步骤为:在变分自动编码器VAE中引入一个隐藏向量Z,得到解码器Pθ(X|Z),利用隐藏向量Z重构原始图像X。
人脸融合网络模型根据输入的偏倚参数将输入的图像进行融合,输出融合后的图像的具体步骤如下:
对融合得到的目标图像Xab输入到VGG网络中,根据VGG网络进行优化。
根据VGG网络进行优化包括求出度量重构的目标图像和原始图像之间差异性的重构误差以及通过KL散度使编码器Vencoder输出的正态分布向标准正态分布看齐两部分构成。
求出度量重构的目标图像和原始图像之间差异性的重构误差的具体步骤为:
将原始图像Xa和Xb以及目标图像Xab分别单独输入到VGG网络中,并提取原始图像Xa和Xb以及目标图像Xab输出的前三个卷积层;
将原始图像Xa和Xb得到每一个卷积层输出结果进行加权求和;
将加权求和的结果结合目标图像Xab的每一个卷积层输出结果求取均方误差,并将求得的各个均方误差进行求和得到重构误差的值。
融合偏倚参数W1和W2的取值包括0或者1,其中0表示舍弃图像此维度的特征,1表示保留图像此维度的特征;并且两个融合偏移参数W1和W2的和为每个维度值为1的100维列向量。
本发明的有益效果是:区别于现有技术的情况,本发明通过VAE和VGG网络的结合,利用VGG小卷积特征提取优势,获取输入的原始图像和新生成的目标图像的之间信息损失,并使其信息损失最小化,能够将两张人脸图像融合成一张自然完整的新的人脸图像,通过对融合偏倚参数的设置能够进一步的保存完整的头发的颜色、发型、面部表情等细节,且本方法具有融合处理过程简单快捷的特点。
附图说明
图1是本发明的网络结构图;
图2是本发明的第一实验图;
图3是本发明的第二实验图;
图4是本发明的第一对比实验图;
图5是本发明的第二对比实验图;
图6是本发明的第三对比实验图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“上”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
如图1所示,一种人脸图像融合方法,它包括以下步骤:
S1、将待融合的两张不同原始人脸图像输入到人脸融合网络模型中;
S2、在人脸融合网络模型中设置相应的融合偏倚参数;
S3、人脸融合网络模型根据输入的偏倚参数将输入的原始图像进行重构融合,输出融合后的目标图像。
在进行所述将待融合的人脸图像输入到人脸融合网络模型中的步骤之前,还需要进行建立人脸融合网络模型;所述的人脸融合网络模型包括变分自动编码器VAE和VGG网络;所述的变分自动编码器包括编码器Vencoder和解码器Vdecoder。
优选地,在建立好人脸融合网络模型之后,通过数据集CelebA对人脸融合网络模型进行训练,并进行实验来验证对融合结果产生影响的融合偏倚参数。
生成解码器Vdecoder的步骤为:在变分自动编码器VAE中引入一个隐藏向量Z,通过Z来自动生成目标图像,得到解码器Pθ(X|Z),利用隐藏向量Z重构原始图像X。
生成编码器Vencoder的步骤为:根据解码器Pθ(X|Z)得到Pθ(X|Z)的后验分布Pθ(Z|X),认为Pθ(Z|X)是一种标准的正态分布,利用神经网络得到Pθ(Z|X)的正态分布则为编码器Vencoder。
步骤S3人脸融合网络模型根据输入的偏倚参数将输入的原始图像进行融合,输出融合后的目标图像的具体步骤如下:
S34、对融合得到的目标图像Xab输入到VGG网络中,根据VGG网络进行优化。
根据VGG网络进行优化包括求出度量重构的目标图像和原始图像之间差异性的重构误差以及通过KL散度使编码器Vencoder输出的正态分布向标准正态分布看齐两部分构成。
求出度量重构的目标图像和原始图像之间差异性的重构误差的具体步骤为:
A1、将原始图像Xa和Xb以及目标图像Xab分别单独输入到VGG网络中,并提取原始图像Xa和Xb以及目标图像Xab输出的前三个卷积层;
A2、将原始图像Xa和Xb得到每一个卷积层输出结果进行加权求和;
A3、将加权求和的结果结合目标图像Xab的每一个卷积层输出结果求取均方误差,并将求得的各个均方误差进行求和得到重构误差的值。
优选地,设La (i)表示Xa关于第i个卷积层的输出;Lb (i)表示Xb关于第i个卷积层的输出;L(i)是X关于第i个卷积层的输出;其中i的取值范围从1到3;这样在每个卷积层上,加权求和的表达式为:
Pi=W1'×La (i)+W2'×Lb (i)
上式中,W1'和W2'是取值范围在0~1之间,则重构误差可以表示为:
优选地,使用KL散度衡量和Pθ(Z|X)两个分布之间的差异,以使编码器Vencoder输出的正态分布向标准正态分布看齐;对隐藏向量Z进行重参数化,将其定义为Z=u+σ*ε(ε服从标准的正态分布),这样编码器Vencoder中的的参数在梯度下降时可以得到更新;由于数据集(假设x(i)均服从同一分布),所以边界似然是每个独立数据点的边界似然之和,每个数据点的边界似然如下:
因此我们对变分下界进行了一些优化以实现对优化边界的优化。在上式中,右边第一项为正则化器,第二项与重构误差有关。
在进行重构融合图片过程中,希望最小化原始图像和目标图像之间的差距,而由于隐藏向量Z是通过重新采样过的,而不是由编码器Vencoder直接计算出来的,隐藏重构过程受到噪声影响;噪声会增加重构的难度,而这个噪声强度(也就是均方误差)是由神经网络模拟得到的,所以人脸融合网络模型为了降低重构误差,就会尽量让均方误差为0,然后如果均方误差为0时,人脸融合网络模型就会丧失随机性,所以不管怎样采样都只是得到确定的结果(也就是均值),而均值是通过另外一个神经网络计算得到的。
因此,为了解决这个问题,需要让所以的编码器Vencoder真正输出的向量P(Z|X)都向标准正态分布看齐,这样能够防止噪声强度(也就是均方误差)为0,同时保证了人脸融合网络模型具有生成能力。
因此P(Z)服从标准正态分布,这样就可以从N(0,1)中采样生成图像。
最后,根据重构误差和KL散度,VGG网络的误差函数可以表示为:
融合偏倚参数W1和W2的取值包括0或者1,其中0表示舍弃图像此维度的特征,1表示保留图像此维度的特征;并且两个融合偏移参数W1和W2的和为每个维度值为1的100维列向量。
优选地,融合偏倚参数还包括W1'和W2',其取值范围皆在0~1之间,且W1'和W2'之和为1。
现根据以下几个实验来进一步说明本发明的效果以及对人脸融合网络模型进行评估。
实验一:首先将融合偏倚参数W1'和W2'的值都设置为0.5并保持不变为前提,然后将融合偏倚参数W2的前50维的值设置为“1”,后50维的值设置为“0”;由于W1和W2两个向量的和为每个维度值为1的100维列向量,因此融合偏倚参数W1的前50维的值相应设置为“0”,后50维的值相应设置为“1”。
其次,设置W1的前70维度的值为“1”,相应的向量W2中最后30维度的值为“1”。最后将W2每一维度的值设置为“1”,相应的W1每一维度的值设置为“0”。
如图2所示,通过以上三组参数的实验结果可以得知,对于向量W2,随着向量中取值为“1”的维度数的增加,最后的融合结果中有很多的面部特征与下方箭头所指的图片相似;因此,从中可以得知W1和W2中取值为“1”的维度数越多,最后的融合图片中就有更多的面部特征来源于相应的原始图像。
实验二:首先将向量W1的前50维的值设置为“1”,W2的后50的值设置为“1”保持不变为前提;然后对融合偏倚参数W1'和W2'的值进行如下设置:
W1’=0.3,W2’=0.7;
W1’=0.4,W2’=0.6;
W1’=0.5,W2’=0.5;
W1’=0.6,W2’=0.4;
如图3所示,当设置W1'=0.5,W2'=0.5时,可以看到在图片右侧相关的融合结果包含了箭头上下两侧的原始图像的面部特征,但是不能判断融合结果在整体上是与上箭头所指的图片还是与下箭头所指的图片更为相近或者类似;当设置W1'>0.5时,可以看到融合结果的更多面部特征与上箭头所指的图片更为相近,并且整体上也与上箭头所指的图片类似;相反,当设置W1'<0.5时,实验结果刚好与W1'>0.5时相反。并且W1'的值越小,最后的融合结果就会在整体上与下箭头所指的原始图像的图片更加相近或者类似。
因此,当W1和W2中维度值保持不变时,融合偏倚参数W1'和W2'会对融合结果产生影响,其原因在于在训练整个人脸融合网络模型时使用随机梯度下降算法去减小重构误差引起的,如果W1'>W2',则重构误差更多来源于上箭头所指的图片,并且整个VGG网络会尽可能减少这一部分的误差,进而导致最后的融合结果与上箭头所指的图片更加相近或者类似。
所以,从上面的实验中可以得知,融合偏倚参数W1和W2以及W1'和W2'能够影响最后目标图像的融合结果。
为了进一步确定融合偏倚参数W1和W2以及W1'和W2'哪一组参数为影响最后目标图像融合结果的主要因素,进行了以下几组对比实验。
第一组:W1=[1,1,1,…,1,1,1],W2=[0,0,0,…,0,0,0],W1'=W2'=0.5;W1=[1,…,1,0,…,0],W2=[0,…,0,1,…,1],W1'=0.6,W2'=0.4。
第二组:W1=[1,1,1,…,1,1,1],W2=[0,0,0,…,0,0,0],W1'=0.7,W2'=0.3;W1=[1,1,1,…,1,1,1],W2=[0,0,0,…,0,0,0],W1'=1,W2'=0。
第三组:W1=[1,1,1,…,1,1,1],W2=[0,0,0,…,0,0,0],W1'=0.3,W2'=0.7。
如图4所示,在第一组对比实验中将W1的每个维度取值都设置为“1”以及取W1'=W2'=0.5,将W1的前50个维度的取值为“1”,剩下的维度取值为“0”,同时设置W1'=0.6,W2'=0.4,从中可知实验得到的融合图片整体上都与上箭头所指的图片相近或者类似;在第一个取值实验中解码器的100维特征向量中的每一个维度都来源于上箭头所指的图片,而在第二个取值实验中仅仅该向量的前50个维度来源于下箭头所指的图片,但是第二个取值实验的融合效果更好。
如图5所示,在第二组对比实验中,将W1的每一个维度值都设置为“1”,也就意味着这两次实验中的100维特征向量都来源于上箭头所指的图片,另外设置W1'=0.7,W2'=0.3以及W1'=1,W2'=0;从中可以得知两次实验的结果整体都与上箭头所指的图片相近或者类似,但是第二个取值实验在一些面部特征的细节上(如头发的颜色、发型和面部表情等等)表现的更好。
如图6所示,在第三组实验中,输入解码器的100维特征向量的每一个维度都来源于上箭头所指的图片,但是设置W1'<0.5,最后得到的融合结果不与箭头上下两侧的任何一张图片相近或者类似。
因此,最终可以得知融合偏倚参数W1'和W2'是影响最后目标图像融合效果的主要因素。
以上所述仅为本发明/发明的实施例,并非因此限制本发明/发明的专利范围,凡是利用本发明/发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明/发明的专利保护范围内。
Claims (4)
1.一种人脸图像融合方法,其特征在于,它包括以下步骤:
建立人脸融合网络模型;所述的人脸融合网络模型包括变分自动编码器VAE和VGG网络;所述的变分自动编码器包括编码器Vencoder和解码器Vdecoder;
将待融合的原始人脸图像输入到人脸融合网络模型中;
在人脸融合网络模型中设置相应的融合偏倚参数;
人脸融合网络模型根据输入的融合偏倚参数将输入的原始图像进行重构融合,输出融合后的目标图像;VGG网络对融合得到的目标图像进行优化;
其中:
生成解码器Vdecoder的步骤为:在变分自动编码器VAE中引入一个隐藏向量Z,得到解码器Pθ(X|Z),利用隐藏向量Z重构原始图像X;
所述的人脸融合网络模型根据输入的融合偏倚参数将输入的图像进行融合,输出融合后的图像的具体步骤如下:将输入的原始图像Xa和Xb输入到编码器Vencoder中,得到两个服从正态分布的和分布;将两个正态分布进行随机采集和处理得到一个100维特征向量将100维特征向量输入到解码器Vdecoder,得到原始图像Xa和Xb融合后的目标图像Xab;对融合得到的目标图像Xab输入到VGG网络中,根据VGG网络进行优化;
2.根据权利要求1所述的一种人脸图像融合方法,其特征在于,所述根据VGG网络进行优化包括求出度量重构的目标图像和原始图像之间差异性的重构误差以及通过KL散度使编码器Vencoder输出的正态分布向标准正态分布看齐两部分。
3.根据权利要求2所述的一种人脸图像融合方法,其特征在于,所述的求出度量重构的目标图像和原始图像之间差异性的重构误差的具体步骤为:
将原始图像Xa和Xb以及目标图像Xab分别单独输入到VGG网络中,并提取原始图像Xa和Xb以及目标图像Xab输出的前三个卷积层;
将原始图像Xa和Xb得到每一个卷积层输出结果进行加权求和,其中在每个卷积层上,加权求和的表达式为:
Pi=W1’×La (i)+W2’×Lb (i)
上式中,W1'和W2'是取值范围在0~1之间,La (i)表示Xa关于第i个卷积层的输出;Lb (i)表示Xb关于第i个卷积层的输出,i的取值范围从1到3;
将加权求和的结果结合目标图像Xab的每一个卷积层输出结果求取均方误差,并将求得的各个均方误差进行求和得到重构误差的值。
4.根据权利要求1所述的一种人脸图像融合方法,其特征在于,所述的融合偏倚参数W1和W2的取值包括0或者1,其中0表示舍弃图像此维度的特征,1表示保留图像此维度的特征;并且两个融合偏倚参数W1和W2的和为每个维度值为1的100维列向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811250280.6A CN109325549B (zh) | 2018-10-25 | 2018-10-25 | 一种人脸图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811250280.6A CN109325549B (zh) | 2018-10-25 | 2018-10-25 | 一种人脸图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109325549A CN109325549A (zh) | 2019-02-12 |
CN109325549B true CN109325549B (zh) | 2022-03-04 |
Family
ID=65263324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811250280.6A Active CN109325549B (zh) | 2018-10-25 | 2018-10-25 | 一种人脸图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325549B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210209423A1 (en) * | 2020-04-17 | 2021-07-08 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for training face fusion model and electronic device |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919888B (zh) * | 2019-02-26 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
CN110210429B (zh) * | 2019-06-06 | 2022-11-29 | 山东大学 | 一种基于光流、图像、运动对抗生成网络提高焦虑、抑郁、愤怒表情识别正确率的方法 |
CN110222784B (zh) * | 2019-06-13 | 2020-05-26 | 郑州轻工业学院 | 融合短时和长时深度特征的太阳能电池片缺陷检测方法 |
CN110517185B (zh) * | 2019-07-23 | 2024-02-09 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN110415166B (zh) * | 2019-07-29 | 2023-01-06 | 腾讯科技(深圳)有限公司 | 融合图像处理模型的训练方法、图像处理方法、装置及存储介质 |
CN110414437A (zh) * | 2019-07-30 | 2019-11-05 | 上海交通大学 | 基于卷积神经网络模型融合篡改人脸检测分析方法和系统 |
CN110781842A (zh) * | 2019-10-29 | 2020-02-11 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110826627A (zh) * | 2019-11-06 | 2020-02-21 | 广东三维家信息科技有限公司 | 图像相似度测量方法、装置及电子设备 |
CN111209962B (zh) * | 2020-01-06 | 2023-02-03 | 电子科技大学 | 一种联合热图特征回归的基于cnn特征提取网络的联合图像分类方法 |
CN111402352B (zh) * | 2020-03-11 | 2024-03-05 | 广州虎牙科技有限公司 | 人脸重构方法、装置、计算机设备及存储介质 |
CN113449490B (zh) * | 2021-06-22 | 2024-01-26 | 上海明略人工智能(集团)有限公司 | 一种文档信息汇总方法、系统、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194868A (zh) * | 2017-05-19 | 2017-09-22 | 成都通甲优博科技有限责任公司 | 一种人脸图像生成方法及装置 |
CN107230181A (zh) * | 2017-06-05 | 2017-10-03 | 厦门美柚信息科技有限公司 | 实现人脸图像融合的方法及装置 |
CN107240085A (zh) * | 2017-05-08 | 2017-10-10 | 广州智慧城市发展研究院 | 一种基于卷积神经网络模型的图像融合方法及系统 |
CN108288072A (zh) * | 2018-01-26 | 2018-07-17 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的面部表情合成方法 |
CN108520503A (zh) * | 2018-04-13 | 2018-09-11 | 湘潭大学 | 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法 |
-
2018
- 2018-10-25 CN CN201811250280.6A patent/CN109325549B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107240085A (zh) * | 2017-05-08 | 2017-10-10 | 广州智慧城市发展研究院 | 一种基于卷积神经网络模型的图像融合方法及系统 |
CN107194868A (zh) * | 2017-05-19 | 2017-09-22 | 成都通甲优博科技有限责任公司 | 一种人脸图像生成方法及装置 |
CN107230181A (zh) * | 2017-06-05 | 2017-10-03 | 厦门美柚信息科技有限公司 | 实现人脸图像融合的方法及装置 |
CN108288072A (zh) * | 2018-01-26 | 2018-07-17 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的面部表情合成方法 |
CN108520503A (zh) * | 2018-04-13 | 2018-09-11 | 湘潭大学 | 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法 |
Non-Patent Citations (1)
Title |
---|
AttGAN: Facial Attribute Editing by Only Changing What You Want;Zhenliang He,et al.;《arXiv》;20180725;全文 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210209423A1 (en) * | 2020-04-17 | 2021-07-08 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for training face fusion model and electronic device |
US11830288B2 (en) * | 2020-04-17 | 2023-11-28 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for training face fusion model and electronic device |
Also Published As
Publication number | Publication date |
---|---|
CN109325549A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325549B (zh) | 一种人脸图像融合方法 | |
CN109255831B (zh) | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 | |
CN107103331B (zh) | 一种基于深度学习的图像融合方法 | |
CN109934761B (zh) | 基于卷积神经网络的jpeg图像隐写分析方法 | |
CN106910192B (zh) | 一种基于卷积神经网络的图像融合效果评估方法 | |
CN112184554B (zh) | 一种基于残差混合膨胀卷积的遥感图像融合方法 | |
US20200175757A1 (en) | 3d hair synthesis using volumetric variational autoencoders | |
CN110660020B (zh) | 一种基于融合互信息的对抗生成网络的图像超分辨率方法 | |
CN109191376B (zh) | 基于srcnn改进模型的高分辨率太赫兹图像重构方法 | |
CN106067161A (zh) | 一种对图像进行超分辨的方法 | |
Tang et al. | Deep inception-residual Laplacian pyramid networks for accurate single-image super-resolution | |
CN112541864A (zh) | 一种基于多尺度生成式对抗网络模型的图像修复方法 | |
CN106780645A (zh) | 动态mri图像重建方法及装置 | |
CN109859120A (zh) | 基于多尺度残差网络的图像去雾方法 | |
CN112837215B (zh) | 一种基于生成对抗网络的图像形状变换方法 | |
CN111028142A (zh) | 图像处理方法、装置和存储介质 | |
Fan et al. | A segmentation-aware deep fusion network for compressed sensing mri | |
CN113658040A (zh) | 一种基于先验信息和注意力融合机制的人脸超分辨方法 | |
CN114743080A (zh) | 图像处理方法及装置、终端、存储介质 | |
CN109977989A (zh) | 一种图像张量数据的处理方法 | |
CN113724354A (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
CN114757844A (zh) | 一种图像摩尔纹消除方法及装置 | |
CN114092834B (zh) | 基于空谱联合残差修正网络的无监督高光谱图像盲融合方法及系统 | |
Lu et al. | Parallel region-based deep residual networks for face hallucination | |
CN112001865A (zh) | 一种人脸识别方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |