CN110689499B - 一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法 - Google Patents

一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法 Download PDF

Info

Publication number
CN110689499B
CN110689499B CN201910926607.5A CN201910926607A CN110689499B CN 110689499 B CN110689499 B CN 110689499B CN 201910926607 A CN201910926607 A CN 201910926607A CN 110689499 B CN110689499 B CN 110689499B
Authority
CN
China
Prior art keywords
network
convolution
image
coding
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910926607.5A
Other languages
English (en)
Other versions
CN110689499A (zh
Inventor
任坤
范春奇
黄泷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201910926607.5A priority Critical patent/CN110689499B/zh
Publication of CN110689499A publication Critical patent/CN110689499A/zh
Application granted granted Critical
Publication of CN110689499B publication Critical patent/CN110689499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法,该方法首先对人脸公开数据进行预处理得到人脸数据集;其次构建密集扩张卷积自编码对抗网络;然后利用重建损失预训练密集扩张卷积自编码生成网络,接着交替进行以下训练步骤:①用对抗损失训练双判别网络;②用联合损失训练经过预训练的生成网络;之后得到训练好的密集扩张卷积自编码生成网络,最后将待修复图像输入到此生成网络中,将生成图像与缺损图像进行融合,得到最终修复图像。本发明解决了语义信息缺失严重和大面积随机区域缺失的人脸图像修复难题。

Description

一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法
技术领域
本发明属于图像处理技术领域,特别涉及了一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法。
背景技术
图像修复是指利用计算机技术自动估计图像破损区域的信息,填充还原图像。图像在采集、传送、储存等过程中,会存在很多原因破坏图像信息的完整性,而人脸图像不仅蕴含着人物身份信息,也蕴含着丰富的人物表情,心理活动等重要信息,在日常生活中有广泛的应用。如何对破损的人脸图像进行有效修复对于人脸识别尤为重要。
现有图像修复方法可分为学习型和非学习型两大类。非学习型修复方法对小区域破损和简单纹理缺失能取得很好的修复效果,但对语义信息缺失严重的情况无能为力。学习型修复方法通过学习大量图像数据,学习数据的先验和概率分布,可以对语义信息缺失的图像进行修复,但当语义信息缺失严重或存在大面积的随机缺失时,修复图像往往存在模糊、伪影和视觉相似度差等问题。
针对语义信息的修复问题,本发明提出一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法。为了充分挖掘图像完好区域的语义信息,我们将扩张卷积和密集卷积块相结合,设计了密集扩张卷积衔接层;为了使生成图像更加清晰,增强语义信息的重构能力,我们采用了全局和局部判别网络;为了增强修复效果,降低训练难度,我们提出一种首先预训练生成网络,再结合全局和局部判别网络交替训练生成网络和判别网络的训练方法。
发明内容
为了解决上述背景提出的技术问题,本发明提出一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法,将密集卷积块和扩张卷积引入自编码生成网络,在预训练自编码生成网络的基础上,结合全局和局部判别网络,交替训练判别网络和生成网络,显著提高了对人脸图像语义信息的获取和重构能力,解决了语义信息缺失严重的人脸图像修复难的问题。
为了实现上述目的,本发明采用以下技术方案:
(1)对人脸公开数据进行预处理,得到以人脸关键结构为中心的128*128人脸数据集;
(2)构建密集扩张卷积自编码对抗网络,其由两部分组成:密集扩张卷积自编码生成网络,全局和局部判别网络;
(3)利用重建损失单独预训练密集扩张卷积自编码生成网络。
(4)交替训练自编码对抗网络,具体方法为:
①先利用对抗损失优化判别网络。
②再联合重建损失、对抗损失、TV损失优化生成网络。
(5)将缺损图像输入到训练好的自编码生成网络中,得到生成图像,用其与缺损图像合成,得到修复图像。
进一步地,步骤(1)具体过程如下:
对人脸公开数据集进行人脸识别,提取脸部关键信息,剪裁得到剔除背景的人脸图像,将图像尺寸缩放至128*128,得到人脸数据集。
进一步地,步骤(2)中密集扩张卷积自编码对抗网络包含生成网络和判别网络两方面:
(a1)生成网络:卷积自编码生成网络可分为三个部分,编码层、衔接层、解码层。
(a2)编码层:编码层对输入图像进行图像压缩及初步特征提取,网络层级越多其特征的获取能力越强,训练难度也越大,然而编码区只对图像进行初步处理,层级太多反而增加训练难度,因此我们选取三层卷积网络做编码层。卷积核越大卷积的感受域越大,对计算机的性能要求越高,出于兼顾图像修复效果与计算机性能,我们设计第一层卷积采用卷积核为5、步幅为1的卷积对图像特征进行初步提取,二、三层卷积采用卷积核为3、步幅为2的卷积对图像进行压缩感知。其激活函数采用行业内通用的Relu激活函数。
(a3)衔接层:衔接层是获取语义信息的关键。密集卷积块可以对不同层级特征进行融合,扩张卷积可以对远距离的特征进行融合,我们将扩张卷积和密集卷积块相结合,并叠加多个密集扩张卷积块,来充分获取语义信息。衔接层的输入端和输出端各是一个卷积核为3、步幅为1的普通卷积,中间是相叠加的密集卷积块。其中,
Figure BDA0002219118270000031
表示一个密集卷积块,1×1卷积是普通卷积,用来融合不同通道的特征和数据降维,3×3卷积是扩张率为4的扩张卷积,n个这样的卷积组合相叠加构成一个密集扩张卷积。(例如
Figure BDA0002219118270000032
代表3个1×1的普通卷积和3个扩张率为4的3×3卷积相交替的密集卷积块。)衔接层由四个密集卷积块组成,其n值分别为3,6,6,3;激活函数采用Relu。
(a4)解码层:解码层是语义信息重构的关键,由反卷积和卷积组成。反卷积可以实现图像上采样,然而反卷积后的图像往往伴有严重的棋盘效应,因此我们在反卷积后接一层卷积核为3的普通卷积优化生成图像。
(b1)判别网络:包括全局判别网络和局部判别网络。
(b2)全局判别网络:深层卷积网络可以获取图像高级语义信息,在此基础上对图像进行真伪判别,可以得到更加符合人类视觉感知的修复结果;同时,网络层级太深也会降低训练稳定性。综合考虑,我们用五层卷积和一层全连接层构成全局判别网络,卷积激活函数为Relu,全连接激活函数为sigmoid。
(b3)局部判别网络:局部判别网络仅对图像缺失区域进行判别,其输入的局部图像尺寸为64*64,出于和全局判别网络同样的考虑,我们用四层卷积和一层全连接层构成局部判别网络,卷积激活函数为Relu,全连接激活函数为sigmoid。
(c)特别注意的是,上述参数具有通用性,中间衔接层密集扩张卷积块的结构具有充分挖掘人脸图像语义信息的独创性。
进一步地,步骤(3)中预训练具体流程如下:
(A)从训练集中随机抽取人脸图像,随机生成掩码,并逐一在随机位置利用掩码模拟缺失图像。
(B)以模拟缺失图像作为生成网络的输入,结合生成网络的输出,利用重建损失优化生成网络参数。我们将重建损失分为保留区和缺失区两部分,因为图像修复是针对缺失区,所以我们赋予其更大的权重,权重值在实验中调试确定,具体如下:
Lrec=Lrec1+Lrec2
Lrec1=||(x-G(Me x))e M||2
Lrec2=6||(x-G(Me x))e(1-M)||2
其中,x代表原始图像;M是二进制掩码,值为1的部分代表保留区域,值为0的部分代表缺损部分;e代表对应元素相乘;M⊙x模拟图像破损情况;G代表生成网络,G(M⊙x)表示将破损图像输入到生成网络得到生成图像;Lrec代表重建损失,Lrec1代表保留区域重建损失,其权重为1;Lrec2代表缺失区域重建损失,其权重为6;||g||2代表L2范数。
(C)重复步骤(A)(B),迭代训练数据集10次。
进一步地,步骤(4)中交替训练具体流程如下:
(i)从训练集中随机抽取人脸图像,随机生成掩码,并逐一在随机位置利用掩码模拟缺失图像。
(ii)以原图像和生成图像作为全局判别网络的输入,利用全局对抗损失优化全局判别网络:
Figure BDA0002219118270000041
其中Dglobal表示全局判别网络。Dglobal(x)和Dglobal(G(M⊙x))分别表示真实图像和生成图像为真的概率值。
利用局部对抗损失优化局部判别网络:
Figure BDA0002219118270000042
其中Dlocal表示局部判别网络,Dlocal(xlocal)和Dlocal(G(M⊙x)local)分别表示真实图像和生成图像局部为真的概率值。
(iii)重复步骤(i)(ii)五次。
(iv)联合重建损失、全局和局部对抗损失、TV损失优化自编码生成网络一次。TV损失为:
Figure BDA0002219118270000043
其中,i和j表示像素点的位置,M⊙x模拟图像破损情况;G(M⊙x)i,j表示生成图像坐标为(i,j)点的像素值,||g||1表示L1范数。
联合损失为:
Figure BDA0002219118270000044
其中,λ1、λ2、λ3、λ4、λ5分别为1、6、0.05、0.05、le-6。
(V)重复步骤(i)~(iv),迭代训练数据集,得到训练好的密集扩张卷积自编码对抗网络。
进一步地,步骤(5)合成修复图像的公式如下:
y=(1-M)e G(Me x)+Me x
其中,G(M⊙x)表示将破损图像输入到生成网络得到生成图像,M⊙x表示提取缺损图像的完好区域,(1-M)⊙G(M⊙x)表示提取生成图像的待融合区域,y表示得到的修复图像。
采用上述技术方案带来的有益效果:
本发明提出一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法,解决语义信息缺失严重时,修复图像存在模糊、伪影和视觉相似度差等问题;将密集卷积块和扩张卷积引入自编器,其中密集卷积块用于对不同层级特征的融合,而扩张卷积用于对远距离特征的融合,从而增加了特征的表征力与鲁棒性,提高了修复区域在语义和纹理上与周围邻域的一致性;利用全局和局部两个判别网络将全局和局部两个对抗损失,联合重建损失和TV损失共同用于训练生成网络,提高了自编码生成网络的语义信息重构能力。在预训练生成网络的基础上,交替训练判别网络和生成网络,在减少训练时间的同时,提高了网络训练的稳定性。本发明适用于大面积随机区域缺失的人脸图像修复。
附图说明
图1基于密集扩张卷积自编码对抗网络的人脸图像修复方法流程示意图;
图2基于密集扩张卷积自编码对抗网络的人脸图像修复示意图;
图3密集扩张卷积示意图;
具体实施方式
为了使本发明方法的目的,技术方案以及优点更加清楚明白,以下结合附图及实例解释本发明,并不用于限定本发明:
如附图1所示,基于密集扩张卷积自编码对抗网络的人脸图像修复方法包括以下步骤:
步骤1、对人脸公开数据集进行人脸识别,提取脸部关键信息,剪裁得到剔除背景的人脸图像,将其尺寸缩放至128*128,得到人脸数据集。
步骤2、构建密集扩张卷积自编码对抗网络,网络如图2所示,包含生成网络和判别网络两部分。
(1)生成网络包括编码层、衔接层、解码层;生成网络具体结构和参数如表1所示:
表1含密集扩张卷积衔接层的编解码结构的生成网络
Figure BDA0002219118270000061
(a)编码层由一层卷积核为5、步幅为1的卷积,和两层卷积核为3、步幅为2的卷积构成,激活函数为Relu。
(b)衔接层的输入端和输出端各是一个卷积核为3、步幅为1的普通卷积,中间是4块相叠加的密集扩张卷积块,密集扩张卷积如图3所示,每个卷积块的构成为
Figure BDA0002219118270000062
,其中1×1卷积是普通卷积,3×3卷积是扩张率为4的扩张卷积,四个卷积块的n值分别为3、6、6、3,激活函数为Relu。
(c)解码层由两层卷积核为4、步幅为2的反卷积和一层卷积核为3、步幅为1的卷积构成,激活函数为Relu。
(2)全局判别网络和局部判别网络,其结构和参数如表2、表3所示:
表2全局判别网络体系结构
Figure BDA0002219118270000071
表3局部判别网络体系结构
Figure BDA0002219118270000072
(a)全局判别网络由五层卷积和一层全连接层构成,卷积核皆为5,步幅皆为2,激活函数为Relu,全连接层激活函数为sigmoid。
(b)局部判别网络由四层卷积和一层全连接层构成,卷积核皆为5,步幅皆为2,激活函数为Relu,全连接层激活函数为sigmoid。
网络中所有激活函数均为relu激活函数。
步骤3、预训练生成网络:
(A)从训练集中随机抽取64个人脸图像,在25和55之间随机的取值,设置掩码的长和宽,并逐一在随机位置利用掩码模拟缺失图像。
(B)以模拟缺失图像作为生成网络的输入,结合生成网络的输出,利用重建损失优化生成网络参数:
Lrec=Lrec1+Lrec2
Lrec1=||(x-G(Me x))e M||2
Lrec2=6||(x-G(Me x))e(1-M)||2
其中,Lrec代表重建损失,Lrec1代表完好区域的Lrec2像,G代表生成网络,M是二进制掩码,值为1的部分代表保留区域,值为0的部分代表缺损部分,e代表对应元素相乘,||g||2代表L2范数。
(C)重复步骤(A)(B),迭代训练数据集10次以上。
步骤4、交替训练判别网络和生成网络:
(i)从训练集中随机抽取64个人脸图像,在25和55之间随机的取值,设置掩码的长和宽,并逐一在随机位置利用掩码模拟缺失图像。
(ii)以原图像和生成图像作为全局判别网络的输入,利用全局对抗损失优化全局判别网络:
Figure BDA0002219118270000081
其中Dglobal表示全局判别网络。以原图像的缺失区域和生成图像的缺失区域作为局部判别网络的输入,利用局部对抗损失优化局部判别网络:
Figure BDA0002219118270000082
其中Dlocal表示局部判别网络,xlocal表示缺失区域的局部图像,对应二值掩码M中值为0的区域,并将其尺寸缩放为64*64。
(iii)重复步骤(i)(ii)五次;
(iv)联合重建损失、全局和局部对抗损失、TV损失优化自编码生成网络一次。TV损失为:
Figure BDA0002219118270000083
其中,i和j表示像素点的位置。
联合损失为:
Figure BDA0002219118270000084
其中,λ1、λ2、λ3、λ4、λ5为1、6、0.05、0.05、le-6。
(V)重复步骤(i)~(iv),迭代训练集10次;完成训练得到密集扩张卷积自编码对抗网络。
步骤5、将缺损图像(M⊙x)输入到训练好的自编码生成网络G中,得到生成图像
Figure BDA0002219118270000091
用其与缺损图像融合,得到修复图像y;
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (5)

1.一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法,其特征在于,包括以下步骤:
(1)对人脸公开数据集进行预处理,得128*128人脸数据集;
(2)构建密集扩张卷积自编码对抗网络,其由两部分组成:密集扩张卷积自编码生成网络,全局和局部判别网络;具体如下:
(a1)生成网络:密集扩张卷积自编码生成网络分为三个部分,编码层、衔接层、解码层;
(a2)编码层:编码层由一层卷积核为5、步幅为1的卷积,和两层卷积核为3、步幅为2的卷积构成,激活函数为Relu;
(a3)衔接层:输入端和输出端各是一个卷积核为3、步幅为1的普通卷积,中间是4块相叠加的密集扩张卷积块,每个卷积块的构成为
Figure FDA0002219118260000011
其中1×1卷积是普通卷积,3×3卷积是扩张率为4的扩张卷积,四个卷积块的n值分别为3、6、6、3,激活函数为Relu;
(a4)解码层:解码层由两层卷积核为4、步幅为2的反卷积和一层卷积核为3、步幅为1的卷积构成,激活函数为Relu;
(b1)判别网络:包括全局判别网络和局部判别网络;
(b2)全局判别网络:全局判别网络由五层卷积和一层全连接层构成,卷积核皆为5,步幅皆为2,激活函数为Relu,全连接层激活函数为sigmoid;
(b3)局部判别网络:局部判别网络由四层卷积和一层全连接层构成,卷积核皆为5,步幅皆为2,激活函数为Relu,全连接层激活函数为sigmoid;
(3)利用重建损失单独预训练密集扩张卷积自编码生成网络;
(4)交替训练自编码对抗网络,具体方法为:
①先利用对抗损失优化判别网络;
②再联合重建损失、对抗损失、TV损失优化生成网络;
(5)利用生成图像和缺损图像合成修复图像。
2.如权利要求1所述的基于密集扩张卷积自编码对抗网络的人脸图像修复方法,其特征在于,步骤(1)的具体过程如下:
对人脸数据进行预处理,包括人脸剪裁和尺寸缩放,得到人脸数据集。
3.如权利要求1所述的基于密集扩张卷积自编码对抗网络的人脸图像修复方法,其特征在于,步骤(3)中预训练具体流程如下:
(A)从训练集中随机抽取人脸图像,随机生成掩码,并逐一在随机位置利用掩码模拟缺失图像;
(B)以模拟缺失图像作为生成网络的输入,结合生成网络的输出,利用重建损失优化生成网络参数;将重建损失分为保留区和缺失区两部分,因为图像修复是针对缺失区,所以赋予其更大的权重,权重值在实验中调试确定,具体如下:
Lrec=Lrec1+Lrec2
Lrec1=||(x-G(Me x))e M||2
Lrec2=6||(x-G(Me x))e(1-M)||2
其中,x代表原始图像;M是二进制掩码,值为1的部分代表保留区域,值为0的部分代表缺损部分;e代表对应元素相乘;M⊙x模拟图像破损情况;G代表生成网络,G(M⊙x)表示将破损图像输入到生成网络得到生成图像;Lrec代表重建损失,Lrec1代表保留区域重建损失,其权重为1;Lrec2代表缺失区域重建损失,其权重为6;||g||2代表L2范数;
(C)重复步骤(A)(B),迭代训练数据集10次以上。
4.如权利要求1所述的基于密集扩张卷积自编码对抗网络的人脸图像修复方法,其特征在于,步骤(4)中交替训练具体流程如下:
(i)从训练集中随机抽取人脸图像,随机生成掩码,并逐一在随机位置利用掩码模拟缺失图像;
(ii)以原图像和生成图像作为全局判别网络的输入,利用全局对抗损失优化全局判别网络:
Figure FDA0002219118260000021
其中Dglobal表示全局判别网络;Dglobal(x)和Dglobal(G(M⊙x))分别表示真实图像和生成图像为真的概率值;
利用局部对抗损失优化局部判别网络:
Figure FDA0002219118260000031
其中Dlocal表示局部判别网络,Dlocal(xlocal)和Dlocal(G(M⊙x)local)分别表示真实图像和生成图像局部为真的概率值;
(iii)重复步骤(i)(ii)五次;
(iv)联合重建损失、全局和局部对抗损失、TV损失优化自编码生成网络一次;TV损失为:
Figure FDA0002219118260000032
其中,i和j表示像素点的位置,M⊙x模拟图像破损情况;G(M⊙x)i,j表示生成图像坐标为(i,j)点的像素值,||g||1表示L1范数;
联合损失为:
Figure FDA0002219118260000033
其中,λ1、λ2、λ3、λ4、λ5分别为1、6、0.05、0.05、le-6;
(V)重复步骤(i)~(iv),迭代训练数据集10次以上,得到训练好的密集扩张卷积自编码对抗网络。
5.如权利要求1所述的基于密集扩张卷积自编码对抗网络的人脸图像修复方法,其特征在于,步骤(5)合成修复图像的公式如下:
y=(1-M)e G(Me x)+Me x
其中,G(M⊙x)表示将破损图像输入到生成网络得到生成图像,M⊙x表示提取缺损图像的完好区域,(1-M)⊙G(M⊙x)表示提取生成图像的待融合区域,y表示得到的修复图像。
CN201910926607.5A 2019-09-27 2019-09-27 一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法 Active CN110689499B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910926607.5A CN110689499B (zh) 2019-09-27 2019-09-27 一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910926607.5A CN110689499B (zh) 2019-09-27 2019-09-27 一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法

Publications (2)

Publication Number Publication Date
CN110689499A CN110689499A (zh) 2020-01-14
CN110689499B true CN110689499B (zh) 2023-04-25

Family

ID=69110784

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910926607.5A Active CN110689499B (zh) 2019-09-27 2019-09-27 一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法

Country Status (1)

Country Link
CN (1) CN110689499B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242874B (zh) * 2020-02-11 2023-08-29 北京百度网讯科技有限公司 图像修复的方法、装置、电子设备和存储介质
CN111476749B (zh) * 2020-04-03 2023-02-28 陕西师范大学 基于人脸关键点引导式生成对抗网络的人脸修复方法
CN111783494B (zh) * 2020-06-24 2022-11-04 成都理工大学 结合二值分割的卷积自编码器的受损二维码恢复方法
CN111784602B (zh) * 2020-06-28 2022-09-23 江西理工大学 一种生成对抗网络用于图像修复的方法
CN111950525B (zh) * 2020-08-31 2022-09-16 福州大学 一种基于破坏重建学习与GoogLeNet的细粒度图像分类方法
CN112116543B (zh) * 2020-09-25 2022-09-20 中国科学院自动化研究所 基于检测式生成框架的图像修复方法、系统及装置
CN113112416B (zh) * 2021-03-23 2024-05-03 浙江工业大学 一种语义引导的人脸图像修复方法
CN113689360B (zh) * 2021-09-30 2024-02-20 合肥工业大学 一种基于生成对抗网络的图像修复方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
CN110222628A (zh) * 2019-06-03 2019-09-10 电子科技大学 一种基于生成式对抗网络的人脸修复方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
CN110222628A (zh) * 2019-06-03 2019-09-10 电子科技大学 一种基于生成式对抗网络的人脸修复方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"deep structured energy based image inpainting";Fazil Altinel 等;《 2018 24th International Conference on Pattern Recognition (ICPR)》;20181129;全文 *
"Generative Face Completion";Yijun Li 等;《2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20171109;第1-9页 *

Also Published As

Publication number Publication date
CN110689499A (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
CN110689499B (zh) 一种基于密集扩张卷积自编码对抗网络的人脸图像修复方法
CN111968053B (zh) 基于门控卷积生成对抗网络的图像修复方法
CN111127346B (zh) 基于部分到整体注意力机制的多层次图像修复方法
CN108520503B (zh) 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法
CN111047522B (zh) 一种基于边缘生成的图像修复方法
CN113240613B (zh) 一种基于边缘信息重建的图像修复方法
CN108460746A (zh) 一种基于结构和纹理分层预测的图像修复方法
CN114463209B (zh) 一种基于深度多特征协同学习的图像修复方法
CN110689495B (zh) 一种深度学习的图像修复方法
CN109685724A (zh) 一种基于深度学习的对称感知人脸图像补全方法
CN111161158B (zh) 一种基于生成网络结构的图像修复方法
CN112862922B (zh) 一种基于多特征生成网络先验信息引导的图像填充方法
CN114897742B (zh) 一种纹理和结构特征两次融合的图像修复方法
CN112686816A (zh) 一种基于内容注意力机制和掩码先验的图像补全方法
CN112488935B (zh) 基于纹理约束和泊松融合的生成对抗指静脉图像修复方法
CN108537753A (zh) 一种基于上下文特征空间约束的图像修复方法
CN114782265A (zh) 基于对抗多尺度与残差多通道空间注意力的图像修复方法
CN115829880A (zh) 基于上下文结构注意力金字塔网络的图像修复方法
CN114694176A (zh) 一种基于深度学习的轻量级人体姿态估计方法
Liu et al. Facial image inpainting using multi-level generative network
CN114155171A (zh) 一种基于密集多尺度融合的图像修复方法及系统
CN114187191A (zh) 一种基于高频-低频信息融合的图像去模糊方法
CN116523985A (zh) 一种结构和纹理特征引导的双编码器图像修复方法
CN113378980B (zh) 基于自适应上下文注意力机制的口罩遮挡人脸恢复方法
CN116109510A (zh) 一种基于结构和纹理对偶生成的人脸图像修复方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant