CN113240613A - 一种基于边缘信息重建的图像修复方法 - Google Patents

一种基于边缘信息重建的图像修复方法 Download PDF

Info

Publication number
CN113240613A
CN113240613A CN202110629543.XA CN202110629543A CN113240613A CN 113240613 A CN113240613 A CN 113240613A CN 202110629543 A CN202110629543 A CN 202110629543A CN 113240613 A CN113240613 A CN 113240613A
Authority
CN
China
Prior art keywords
image
texture
loss
feature
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110629543.XA
Other languages
English (en)
Other versions
CN113240613B (zh
Inventor
杨鸿宇
郭谢帆
黄迪
王蕴红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110629543.XA priority Critical patent/CN113240613B/zh
Publication of CN113240613A publication Critical patent/CN113240613A/zh
Application granted granted Critical
Publication of CN113240613B publication Critical patent/CN113240613B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于边缘信息重建的图像修复方法,包括步骤:完成图像数据集选取和图像预处理,并进行数据划分;采用生成式对抗网络架构,包含一个生成器和一个鉴别器;生成器接收受损图像,生成修复图像;鉴别器对修复结果进行真伪判别;采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失;采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛;将待修复图像输入到训练所得修复模型中,模型输出即为修复结果。本方法通过边缘信息重建和受损纹理合成相互约束,弥补了现有算法对于图像纹理与结构关系建模不充分的缺陷,拓展了基于深度生成模型的图像修复思路。

Description

一种基于边缘信息重建的图像修复方法
技术领域
本发明属于图像处理技术领域,具体地,涉及一种基于生成式深度神经网络的图像修复方法,特别涉及基于边缘信息重建的图像修复方法。
背景技术
图像修复是指重建图像中丢失或损坏部分的过程,目的是维持原图整体的和谐统一。对于一幅给定的受损图片,实现把缺口四周原有的结构延续到缺口内部,重新绘制缺口内部细节,使得每个填充区域与周边颜色、纹理相匹配,并保证重建图片与原图语义一致。
图像修复技术起源于文艺复兴时期人们对因侵蚀被破坏的艺术珍品的修复。人们利用图像缺失部分的邻域信息和自身对图像语义的理解,通过一系列的修复技术对缺失部分进行修复。由于需要手工进行修复,因而对修复的时间和技术有着很高的要求。随着数字媒体技术的快速发展,信息载体的更新变化,数字图像在存储、压缩、传输等过程中难免会出现信息缺失、破损的情况,数字图像修复技术应运而生。图像修复工作不再需要手工进行,这极大地提高了修复效率。同时,数字图像修复技术也有着广泛的应用场景和巨大的现实意义。小到工作生活中的拍照、文档扫描等,大到医学成像领域中的磁共振成像、航空航天卫星遥感图片等,图像修复技术在各个领域都扮演着重要的角色。
目前,诸如Photoshop等专业的图像处理软件有着很广泛的应用场景。虽然它们可以通过数字图像技术对受损图像进行专业性的修复,相较于传统的人工修复有着更强的容错性,避免了错误修复对原作品的破坏,但是仍对修复工艺和技术有着很高的要求。人们迫切地希望一种简单、易于操作的图像修复技术的出现,降低图像修复的成本,填补图像修复技术的需求缺口。
传统的图像修复技术大致分为两类:基于扩散的图像修复方法和基于样本的图像修复方法。基于扩散的图像修复方法主要依赖于距离场等机制将未受损区域的像素信息传播到受损区域,从而完成图像修复。这类修复方法在小区域缺失的图像修复场景中表现良好,但是不适用于大区域缺失图像和纹理图像的修复场景,扩散迭代次数的增加导致修复区域变得模糊,产生伪影。基于样本的图像修复方法主要通过迭代地从图像的非受损区域或其他图像中搜索相关的补丁来进行图像修复。这类方法在纹理细节修复中有良好的修复效果,但是对于图像的高级语义特征和全局结构却难以捕获,同时需要昂贵的计算成本,所以并不能有效地解决现有的图像修复问题。
近年来,卷积神经网络(Convolutional Neural Networks,CNNs)和生成式对抗网络(Generative Adversarial Networks,GANs)在图像修复领域展现出了令人惊喜的前景。Deepak Pathak等人于2016年提出一种上下文编码器(Context Encoder),对受损图像进行编码,在解码阶段直接生成修复图像,同时使用对抗学习的方法对网络进行训练,是深度学习在图像修复领域的开山之作。为了更好地捕获远距离上下文信息,上下文注意力机制被提出建模图像区域亲和力,引入远距离未受损像素信息细化图像修复细节。Guilin Liu等人于2018年进一步提出部分卷积核掩码更新机制,首次利用卷积神经网络对不规则区域缺失的图像进行修复,通过仅对有效像素建模进一步提升图像修复效果。然而,由于缺少显式的图像结构建模,这些基于深度生成模型的图像修复方法无法有效地修复具有复杂结构的受损图像。Kamyar Nazeri等人于2019年提出EdgeConnect模型,证明引入结构建模能够生成结构合理的修复图像,其包含一个边缘生成器和图像生成器,边缘生成器对图像受损区域的结构进行显式重建,图像生成器基于重建的图像结构进行纹理补全。但是这种多阶段生成模型固有的不稳定性严重限制了模型的修复效果。尽管Jingyuan Li等人于2019年提出的PRVS模型和Hongyu Liu等人于2020年提出的MED模型针对这一问题进行了改良,但是这些方法均采用共享的网络同时建模图像纹理与结构,导致图像结构与纹理之间的关系未能充分挖掘,进而弱化了模型的修复能力。因此,引入结构建模的图像修复模型仍有很大的性能提升空间。
发明内容
针对上述图像修复方法中存在的技术缺陷,本发明的目的在于提出一种基于生成式深度神经网络的图像修复方法,特别涉及基于纹理合成与结构重建相互指导的图像修复方法。基于现有图像修复模型对图像纹理与结构关系提取建模不充分,进一步发现二者的重建过程具有相互促进的正反馈。根据这一图像恢复特性,充分发挥生成式对抗网络对抗学习的优势,合成更具视觉效果的修复图像。
本发明的技术方案如下:
一种基于边缘信息重建的图像修复方法,其特征在于,包括以下步骤:
1)准备图像数据集,完成图像数据集选取和图像预处理,并进行数据划分;
2)构建图像修复模型,采用生成式对抗网络架构,包含一个生成器和一个鉴别器;生成器接收一张受损图像和其对应的受损边缘图,生成修复图像;鉴别器对修复结果进行真伪判别;
3)设置模型训练约束,采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失;
4)训练图像修复模型,采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛;
5)进行图像修复,将受损图像输入到训练所得修复模型中,模型输出即为修复结果。
进一步的,所述的生成器为双流图像修复网络,可同时实现结构信息重建和纹理信息合成,并在深度网络模型的中间阶段,在结构特征和纹理特征之间交换所提取的信息,形成相互约束和指导,进而融合恢复的纹理与结构特征实现受损图像修复。
进一步的,所述生成器结构具体如下:
纹理编码器:从受损图像中提取受损图像的纹理特征;
结构编码器:从受损边缘图中提取受损图像的结构特征;
纹理解码器:通过多层次神经网络解码纹理编码器所提取的多尺度纹理特征,并在本解码器的多个网络层次上融合结构编码器提取的结构先验信息,最终解码出重建图像的纹理特征;结构解码器:通过多层次神经网络解码结构编码器所提取的多尺度结构特征,并在本解码器的多个网络层次上融合纹理编码器提取的纹理特征,最终解码出重建图像的完整结构特征;特征融合阶段:融合纹理解码器输出的纹理特征与结构解码器输出的结构特征,进一步合成修复图像。
进一步的,所述特征融合阶段包括双向门控特征融合模块,用于保证生成的修复结果纹理与结构的一致性;所述双向门控特征融合模块包含两个单向门控特征融合模块,对于输入的纹理特征Ft和结构特征Fs,分别计算纹理特征到结构特征融合的单向门Gt和结构特征到纹理特征融合的单向门Gs,基于Gt和Gs分别执行单向门控操作得到纹理感知的结构特征F′s和结构感知的纹理特征F′t,进一步拼接F′s和F′t得到融合后的特征Fb。具体计算如下:
Figure BDA0003102855440000031
Figure BDA0003102855440000032
Fb=Concat(F′s,F′t),
其中,σ表示Sigmoid激活函数,g和h表示卷积核大小为3的卷积操作,Concat表示特征的通道连接操作,α和β为两个可学习的参数,且初始化为0,⊙和
Figure BDA0003102855440000033
分别表示逐元素乘法和逐元素加法。
进一步的,所述特征融合阶段包括上下文特征聚合模块,用于保证图像内部上下文的一致性;所述上下文特征聚合模块包括区域仿射学习与多尺度特征聚合两个单元,所述区域仿射学习是基于像素块的上下文注意力层,补充模型建模图像长距离依赖的能力;所述多尺度特征聚合提升模型对不同尺度特征的提取融合能力;对于输入特征F,具体操作如下:
区域仿射学习:首先从F中提取大小为3×3的像素块,进一步计算它们之间的余弦相似度:
Figure BDA0003102855440000041
其中,fi和fj分别表示从特征图中提取的第i和j块像素块;
之后通过对相似度做softmax操作计算注意力得分:
Figure BDA0003102855440000042
最后,重新使用提取的像素块重建特征图:
Figure BDA0003102855440000043
其中,
Figure BDA0003102855440000044
表示重建的特征图Frec的第i块像素块;
多尺度特征聚合:利用多尺度空洞卷积和权重自适应分配实现对多尺度特征的提取。对于输入的特征图Frec,利用多尺度空洞卷积提取多尺度特征集合
Figure BDA0003102855440000045
同时为特定尺度的特征自适应地分配权重W*,进而对多尺度特征加权得到聚合后的特征Fc。具体操作如下:
Figure BDA0003102855440000046
W1,W2,W4,W8=Slice(Softmax(Gw(Frec))),
Figure BDA0003102855440000047
其中,Convk表示空洞卷积操作,k表示空洞卷积的扩张率,k∈{1,2,4,8},Softmax表示按通道做softmax操作,Gw包含两层卷积操作,且输出的特征通道数为4,Slice表示按通道做切片操作。
进一步的,所述的鉴别器包含纹理分支与结构分支,分别保证生成的修复图像的纹理逼真程度与结构的真实性,纹理分支与结构分支的输出结果被通过通道连接操作后作为鉴别器的输出结果,实现同时对生成的修复图像纹理与结构的真伪鉴别。
进一步的,所述的联合损失
Figure BDA0003102855440000048
包含重建损失
Figure BDA0003102855440000049
感知损失
Figure BDA00031028554400000410
风格损失
Figure BDA00031028554400000411
对抗损失
Figure BDA00031028554400000412
和中间特征损失
Figure BDA00031028554400000413
具体计算如下:
1)重建损失计算真实图像Igt与修复图像Iout之间的l1距离:
Figure BDA00031028554400000415
2)感知损失计算真实图像Igt与修复图像Iout在ImageNet数据集上预训练的VGG-16网络的特征空间上的l1距离:
Figure BDA00031028554400000417
其中,φi(·)表示VGG-16网络第i个池化层输出的特征图。
3)风格损失同样计算特征图之间的l1距离:
Figure BDA0003102855440000052
其中,ψi(·)=φi(·)Tφi(·),表示格拉姆矩阵;
4)对抗损失,纹理分支鉴别真实图像Igt与修复图像Iout的真伪,结构分支鉴别真实边缘图Egt
和修复边缘图Eout的真伪:
Figure BDA0003102855440000053
5)中间特征损失被施加在结构编码器输出的结构特征Fs和纹理解码器输出的纹理特征Ft以确保准确的特征信息被捕获:
Figure BDA0003102855440000054
其中,BCE表示二分类交叉熵损失,
Figure BDA0003102855440000055
Figure BDA0003102855440000056
表示投影函数,分别将Fs与Ft映射为边缘图与RGB图像;
联合损失被计算为:
Figure BDA0003102855440000057
其中,λrec、λperc、λstyle、λadv和λinter表示损失权衡参数。
本发明的有益效果:
1.本发明提出了边缘信息重建和受损纹理合成相互约束指导的图像修复方法,弥补了现有算法对于图像纹理与结构关系建模不充分的缺陷,拓展了基于深度生成模型的图像修复思路。
2.本发明提出了一个轻量的且有效的双向门控特征融合模块,利用门控操作弥补了特征直接做通道连接融合的不充分性。
3.本发明提出上下文特征聚合模块,扩展上下文注意力层,建模图像内部长距离依赖,并有效提取融合图像多尺度特征,适用范围更广。
附图说明
图1为基于边缘信息重建的图像修复方法的流程示意图。
图2为模型架构示意图。
图3为图像修复效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
一种基于生成式对抗网络的图像修复方法,如图1所示,其步骤包括:
1)准备图像数据集。完成图像数据集选取和图像预处理,并进行数据划分。
2)构建图像修复模型。该模型采用生成式对抗网络架构,包含一个生成器和一个鉴别器。生成器接收一张受损图像和其对应的受损边缘图,生成修复图像;鉴别器对修复图像进行真伪判别。
3)设置模型训练约束。采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失。
4)训练图像修复模型。采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛。
5)进行图像修复。将受损图像输入到训练所得修复模型中,模型输出即为修复结果。
更进一步,如图2所示,所述的生成器为一个新颖的双流图像修复网络,可同时实现结构信息重建和纹理信息合成,并在深度网络模型的中间阶段,在结构特征和纹理特征之间交换所提取的信息,形成相互约束和指导。进而融合恢复的纹理与结构特征实现受损图像修复。
生成器结构具体如下:
1)纹理编码器:从受损图像中提取受损图像的纹理特征;
2)结构编码器:从受损边缘图中提取受损图像的结构特征;
3)纹理解码器:通过多层次神经网络解码纹理编码器所提取的多尺度纹理特征,并在本解码器的多个网络层次上融合结构编码器提取的结构先验信息,最终解码出重建图像的纹理特征;
4)结构解码器:通过多层次神经网络解码结构编码器所提取的多尺度结构特征,并在本解码器的多个网络层次上融合纹理编码器提取的纹理特征,最终解码出重建图像的完整结构特征;
5)特征融合阶段:融合纹理解码器输出的纹理特征与结构解码器输出的结构特征,进一步合成修复图像。
更进一步,这里的特征融合阶段包含双向门控特征融合模块和上下文特征聚合模块,分别进一步保证生成的修复结果纹理与结构的一致性和图像内部上下文的一致性。具体如下:
1)双向门控融合模块:包含两个单向门控特征融合模块。对于输入的纹理特征Ft和结构特征Fs,分别计算纹理特征到结构特征融合的单向门Gt和结构特征到纹理特征融合的单向门Gs,基于Gt和Gs分别执行单向门控操作得到纹理感知的结构特征F′s和结构感知的纹理特征F′t,进一步拼接F′s和F′t得到融合后的特征Fb。具体计算如下:
Figure BDA0003102855440000071
Figure BDA0003102855440000072
Fb=Concat(F′s,F′t),
其中,σ表示Sigmoid激活函数,g和h表示卷积核大小为3的卷积操作,Concat表示特征的通道连接操作,α和β为两个可学习的参数,且初始化为0,⊙和
Figure BDA0003102855440000073
分别表示逐元素乘法和逐元素加法。
2)上下文特征聚合模块:包含区域仿射学习与多尺度特征聚合两个单元。区域仿射学习是一个基于像素块(Patch)的上下文注意力层,补充模型建模图像长距离依赖的能力;多尺度特征聚合提升模型对不同尺度特征的提取融合能力。对于输入特征F,具体操作如下:
区域仿射学习:首先从F中提取大小为3×3的像素块,进一步计算它们之间的余弦相似度:
Figure BDA0003102855440000074
其中,fi和fj分别表示从特征图中提取的第i和j块像素块。之后通过对相似度做softmax操作计算注意力得分:
Figure BDA0003102855440000075
最后,重新使用提取的像素块重建特征图:
Figure BDA0003102855440000076
其中,
Figure BDA0003102855440000077
表示重建的特征图Frec的第i块像素块。
多尺度特征聚合:利用多尺度空洞卷积和权重自适应分配实现对多尺度特征的提取。对于输入的特征图Frec,利用多尺度空洞卷积提取多尺度特征集合
Figure BDA0003102855440000078
同时为特定尺度的特征自适应地分配权重W*,进而对多尺度特征加权得到聚合后的特征Fc。具体操作如下:
Figure BDA0003102855440000079
W1,W2,W4,W8=Slice(Softmax(Gw(Frec))),
Figure BDA00031028554400000710
其中,Convk表示空洞卷积操作,k表示空洞卷积的扩张率,k∈{1,2,4,8},Softmax表示按通道做softmax操作,Gw包含两层卷积操作,且输出的特征通道数为4,Slice表示按通道做切片操作。
更进一步,如图2所示,所述的鉴别器包含纹理分支与结构分支,分别保证生成的修复图像的纹理逼真程度与结构的真实性,纹理分支与结构分支的输出结果被通过通道连接操作后作为鉴别器的输出结果,实现同时对生成的修复图像纹理与结构的真伪鉴别。
更进一步,所述的联合损失
Figure BDA0003102855440000081
包含重建损失
Figure BDA0003102855440000082
感知损失
Figure BDA0003102855440000083
风格损失
Figure BDA0003102855440000084
对抗损失
Figure BDA0003102855440000085
和中间特征损失
Figure BDA0003102855440000086
具体计算如下:
1)重建损失计算真实图像Igt与修复图像Iout之间的l1距离:
Figure BDA0003102855440000088
2)感知损失计算真实图像Igt与修复图像Iout在ImageNet数据集上预训练的VGG-16网络的特征空间上的l1距离:
Figure BDA00031028554400000810
其中,φi(·)表示VGG-16网络第i个池化层输出的特征图。
3)风格损失同样计算特征图之间的l1距离:
Figure BDA00031028554400000812
其中,ψi(·)=φi(·)Tφi(·),表示格拉姆矩阵。
4)对抗损失,纹理分支鉴别真实图像Igt与修复图像Iout的真伪,结构分支鉴别真实边缘图Egt和修复边缘图Eout的真伪:
Figure BDA00031028554400000813
5)中间特征损失被施加在结构编码器输出的结构特征Fs和纹理解码器输出的纹理特征Ft
以确保准确的特征信息被捕获:
Figure BDA00031028554400000814
其中,BCE表示二分类交叉熵损失,
Figure BDA00031028554400000815
Figure BDA00031028554400000816
表示投影函数,分别将Fs与Ft映射为边缘图与RGB图像。
联合损失被计算为:
Figure BDA00031028554400000817
其中,λrec、λperc、λstyle、λadv和λinter表示损失权衡参数。
实施例一
本发明的一种具体实施方式如下,一种基于边缘信息重建的受损图像修复方法,其步骤为:
1.数据集准备。完成数据集选取,数据预处理和数据集划分。
1.1图像数据集选取包含真实图像数据集和掩码图像数据集选取。具体地,为验证模型泛化性,本实施例选取真实图像数据集为二维人脸数据集(CelebA)、街景数据集(ParisStreetView)和自然景观数据集(Places2);选取的掩码数据集来自PConv工作。
1.2图像预处理包括图像增强操作和图像归一化操作。具体地,图像增强操作包括旋转、剪裁、调整大小和反转等,本实施例选取调整图像大小为256×256像素和50%概率随机水平反转两种图像增强方式;图像归一化操作在本实施例中被采用。
1.3数据集划分依据各数据集给定的标准划分。对于CelebA数据集,162,770张图像用于训练,19,876张图像用于验证,19,962张图像用于测试。对于ParisStreetView数据集,14,900张图像用于训练,100张图像用于测试。对于Places2数据集,随机从365中类别中选取10类,使用每个类别中的5,000张训练图像,共计50,000张图像作为训练集;使用每个类别中的100张测试图像,共计1,000张图像作为测试集。
1.4对于图像(受损和非受损)边缘图提取,Canny边缘检测算法被使用,其中σ被设置为2。
2.设计图像修复模型。如图2所示,图像修复模型基于生成式对抗网络架构,包含一个新颖的双流图像修复生成器和对应的双流鉴别器。具体的模型设计已在发明内容中讨论,这里不再赘述。在本实施例中,纹理与结构的编解码器均为U-Net的变形体。
3.设计模型训练约束。采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失。具体的约束设计已在发明内容中讨论,这里不再赘述。联合损失的各个子约束的权衡参数设置为
λrec=10,λperc=0.1,λstyle=250,λadv=0.1,λinter=1
4.训练图像修复模型。采用反向传播算法更新优化网络参数权重,直至模型损失趋于收敛。本实施例中,图像修复模型训练和评估均在PyTorch平台完成。模型被训练在单个NVIDIA GTX 1080TI GPU(11GB),batch size设置为6。使用Adam优化器优化生成器和鉴别器,使用作为初始学习率2×10-4训练生成器模型,之后调整学习率为5×10-5对模型进行微调,微调阶段禁用生成器的批归一化层(Batch NormalizationLayer)。在所有阶段,使用生成器学习率的十分之一训练鉴别器。
4.1对于CelebA数据集:模型训练至拟合需要30轮(epoch),其中微调需要10轮(epoch)。
4.2对于ParisStreetView数据集:模型训练至拟合需要150轮(epoch),其中微调需要50轮(epoch)。
4.3对于Places2数据集:模型训练至拟合需要100轮(epoch),其中微调需要25轮(epoch)。
5.模型训练完成,进行图像修复推理。将待修复图像输入到训练所得修复模型中,模型输出即为修复结果。如图3所示,利用本发明可以有效地完成图像修复任务,且在人脸,街景和自然景观三类数据集上表现泛化性良好。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (7)

1.一种基于边缘信息重建的图像修复方法,其特征在于,包括以下步骤:
1)准备图像数据集,完成图像数据集选取和图像预处理,并进行数据划分;
2)构建图像修复模型,采用生成式对抗网络架构,包含一个生成器和一个鉴别器;生成器接收一张受损图像和其对应的受损边缘图,生成修复图像;鉴别器对修复结果进行真伪判别;
3)设置模型训练约束,采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失;
4)训练图像修复模型,采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛;
5)进行图像修复,将受损图像输入到训练所得修复模型中,模型输出即为修复结果。
2.根据权利要求1所述的图像修复方法,其特征在于,所述的生成器为双流图像修复网络,可同时实现结构信息重建和纹理信息合成,并在深度网络模型的中间阶段,在结构特征和纹理特征之间交换所提取的信息,形成相互约束和指导,进而融合恢复的纹理与结构特征实现受损图像修复。
3.根据权利要求1或2所述的图像修复方法,其特征在于,所述生成器结构具体如下:
纹理编码器:从受损图像中提取受损图像的纹理特征;
结构编码器:从受损边缘图中提取受损图像的结构特征;
纹理解码器:通过多层次神经网络解码纹理编码器所提取的多尺度纹理特征,并在本解码器的多个网络层次上融合结构编码器提取的结构先验信息,最终解码出重建图像的纹理特征;
结构解码器:通过多层次神经网络解码结构编码器所提取的多尺度结构特征,并在本解码器的多个网络层次上融合纹理编码器提取的纹理特征,最终解码出重建图像的完整结构特征;
特征融合阶段:融合纹理解码器输出的纹理特征与结构解码器输出的结构特征,进一步合成修复图像。
4.根据权利要求3所述的图像修复方法,其特征在于,所述特征融合阶段包括双向门控特征融合模块,用于保证生成的修复结果纹理与结构的一致性;所述双向门控特征融合模块包含两个单向门控特征融合模块,对于输入的纹理特征Ft和结构特征Fs,分别计算纹理特征到结构特征融合的单向门Gt和结构特征到纹理特征融合的单向门Gs,基于Gt和Gs分别执行单向门控操作得到纹理感知的结构特征F′s和结构感知的纹理特征F′t,进一步拼接F′s和F′t得到融合后的特征Fb;具体计算如下:
Figure FDA0003102855430000026
Figure FDA0003102855430000027
Fb=Concat(F′s,F′t),
其中,σ表示Sigmoid激活函数,g和h表示卷积核大小为3的卷积操作,Concat表示特征的通道连接操作,α和β为两个可学习的参数,且初始化为0,⊙和
Figure FDA0003102855430000028
分别表示逐元素乘法和逐元素加法。
5.根据权利要求3所述的图像修复方法,其特征在于,所述特征融合阶段包括上下文特征聚合模块,用于保证图像内部上下文的一致性;所述上下文特征聚合模块包括区域仿射学习与多尺度特征聚合两个单元,所述区域仿射学习是基于像素块的上下文注意力层,补充模型建模图像长距离依赖的能力;所述多尺度特征聚合提升模型对不同尺度特征的提取融合能力;对于输入特征F,具体操作如下:区域仿射学习:首先从F中提取大小为3×3的像素块,进一步计算它们之间的余弦相似度:
Figure FDA0003102855430000021
其中,fi和fj分别表示从特征图中提取的第i和j块像素块;
之后通过对相似度做softmax操作计算注意力得分:
Figure FDA0003102855430000022
最后,重新使用提取的像素块重建特征图:
Figure FDA0003102855430000023
其中,
Figure FDA0003102855430000024
表示重建的特征图Frec的第i块像素块;
多尺度特征聚合:利用多尺度空洞卷积和权重自适应分配实现对多尺度特征的提取;对于输入的特征图Frec,利用多尺度空洞卷积提取多尺度特征集合
Figure FDA0003102855430000025
同时为特定尺度的特征自适应地分配权重W*,进而对多尺度特征加权得到聚合后的特征Fc;具体操作如下:
Figure FDA0003102855430000031
W1,W2,W4,W8=Slice(Softmax(Gw(Frec))),
Figure FDA0003102855430000032
其中,Conyk表示空洞卷积操作,k表示空洞卷积的扩张率,k∈{1,2,4,8},Softmax表示按通道做softmax操作,Gw包含两层卷积操作,且输出的特征通道数为4,Slice表示按通道做切片操作。
6.根据权利要求1所述的图像修复方法,其特征在于,所述的鉴别器包含纹理分支与结构分支,分别保证生成的修复图像的纹理逼真程度与结构的真实性,纹理分支与结构分支的输出结果被通过通道连接操作后作为鉴别器的输出结果,实现同时对生成的修复图像纹理与结构的真伪鉴别。
7.根据权利要求1所述的图像修复方法,其特征在于,所述的联合损失
Figure FDA0003102855430000033
包含重建损失
Figure FDA0003102855430000034
感知损失
Figure FDA0003102855430000035
风格损失
Figure FDA0003102855430000036
对抗损失
Figure FDA0003102855430000037
和中间特征损失
Figure FDA0003102855430000038
具体计算如下:
1)重建损失计算真实图像Igt与修复图像Iout之间的l1距离:
Figure FDA0003102855430000039
2)感知损失计算真实图像Igt与修复图像Iout在ImageNet数据集上预训练的VGG-16网络的特征空间上的l1距离:
Figure FDA00031028554300000310
其中,φi(·)表示VGG-16网络第i个池化层输出的特征图;
3)风格损失同样计算特征图之间的l1距离:
Figure FDA00031028554300000311
其中,ψi(·)=φi(·)Tφi(·),表示格拉姆矩阵;
4)对抗损失,纹理分支鉴别真实图像Igt与修复图像Iout的真伪,结构分支鉴别真实边缘图Egt和修复边缘图Eout的真伪:
Figure FDA0003102855430000041
5)中间特征损失被施加在结构编码器输出的结构特征Fs和纹理解码器输出的纹理特征Ft以确保准确的特征信息被捕获:
Figure FDA0003102855430000042
其中,BCE表示二分类交叉熵损失,
Figure FDA0003102855430000043
Figure FDA0003102855430000044
表示投影函数,分别将Fs与Ft映射为边缘图与RGB图像;
联合损失被计算为:
Figure FDA0003102855430000045
其中,λrec、λperc、λstyle、λadv和λinter表示损失权衡参数。
CN202110629543.XA 2021-06-07 2021-06-07 一种基于边缘信息重建的图像修复方法 Active CN113240613B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110629543.XA CN113240613B (zh) 2021-06-07 2021-06-07 一种基于边缘信息重建的图像修复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110629543.XA CN113240613B (zh) 2021-06-07 2021-06-07 一种基于边缘信息重建的图像修复方法

Publications (2)

Publication Number Publication Date
CN113240613A true CN113240613A (zh) 2021-08-10
CN113240613B CN113240613B (zh) 2022-08-30

Family

ID=77136959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110629543.XA Active CN113240613B (zh) 2021-06-07 2021-06-07 一种基于边缘信息重建的图像修复方法

Country Status (1)

Country Link
CN (1) CN113240613B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113628144A (zh) * 2021-08-25 2021-11-09 厦门美图之家科技有限公司 人像修复方法、装置、电子设备及存储介质
CN113674176A (zh) * 2021-08-23 2021-11-19 北京市商汤科技开发有限公司 图像修复方法及装置、电子设备和存储介质
CN113902824A (zh) * 2021-10-12 2022-01-07 哈尔滨工业大学 一种血管内光学相干断层扫描的导丝伪影去除方法
CN114022506A (zh) * 2021-11-16 2022-02-08 天津大学 一种边缘先验融合多头注意力机制的图像修复方法
CN114627006A (zh) * 2022-02-28 2022-06-14 复旦大学 一种基于深度解耦网络的渐进式图像修复方法
CN114677306A (zh) * 2022-03-29 2022-06-28 中国矿业大学 一种基于边缘信息引导的上下文聚合图像去雨方法
CN114972611A (zh) * 2022-07-18 2022-08-30 深圳大学 一种基于引导匹配损失的深度纹理合成方法及相关设备
CN116228994A (zh) * 2023-05-09 2023-06-06 腾讯科技(深圳)有限公司 三维模型获取方法、装置、设备及存储介质
CN116258652A (zh) * 2023-05-11 2023-06-13 四川大学 基于结构注意和文本感知的文本图像修复模型及方法
CN116805360A (zh) * 2023-08-21 2023-09-26 江西师范大学 一种基于双流门控渐进优化网络的显著目标检测方法
CN117036952A (zh) * 2023-08-15 2023-11-10 石河子大学 基于rgb图像重建高光谱图像的红枣水分含量等级检测方法
CN117078921A (zh) * 2023-10-16 2023-11-17 江西师范大学 一种基于多尺度边缘信息的自监督小样本汉字生成方法
CN117132592A (zh) * 2023-10-24 2023-11-28 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于熵融合的工业缺陷检测方法
CN117196981A (zh) * 2023-09-08 2023-12-08 兰州交通大学 一种基于纹理和结构调和的双向信息流方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
CN111047522A (zh) * 2019-11-07 2020-04-21 北京科技大学 一种基于边缘生成的图像修复方法
US20200327675A1 (en) * 2019-04-15 2020-10-15 Adobe Inc. Foreground-aware image inpainting
CN111784602A (zh) * 2020-06-28 2020-10-16 江西理工大学 一种生成对抗网络用于图像修复的方法
CN111861901A (zh) * 2020-06-05 2020-10-30 西安工程大学 一种基于gan网络的边缘生成图像修复方法
CN112541864A (zh) * 2020-09-25 2021-03-23 中国石油大学(华东) 一种基于多尺度生成式对抗网络模型的图像修复方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
US20200327675A1 (en) * 2019-04-15 2020-10-15 Adobe Inc. Foreground-aware image inpainting
CN111047522A (zh) * 2019-11-07 2020-04-21 北京科技大学 一种基于边缘生成的图像修复方法
CN111861901A (zh) * 2020-06-05 2020-10-30 西安工程大学 一种基于gan网络的边缘生成图像修复方法
CN111784602A (zh) * 2020-06-28 2020-10-16 江西理工大学 一种生成对抗网络用于图像修复的方法
CN112541864A (zh) * 2020-09-25 2021-03-23 中国石油大学(华东) 一种基于多尺度生成式对抗网络模型的图像修复方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIEFAN GUO 等: "Image Inpainting via Conditional Texture and Structure Dual Generation", 《COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113674176A (zh) * 2021-08-23 2021-11-19 北京市商汤科技开发有限公司 图像修复方法及装置、电子设备和存储介质
CN113674176B (zh) * 2021-08-23 2024-04-16 北京市商汤科技开发有限公司 图像修复方法及装置、电子设备和存储介质
CN113628144A (zh) * 2021-08-25 2021-11-09 厦门美图之家科技有限公司 人像修复方法、装置、电子设备及存储介质
CN113902824A (zh) * 2021-10-12 2022-01-07 哈尔滨工业大学 一种血管内光学相干断层扫描的导丝伪影去除方法
CN114022506A (zh) * 2021-11-16 2022-02-08 天津大学 一种边缘先验融合多头注意力机制的图像修复方法
CN114022506B (zh) * 2021-11-16 2024-05-17 天津大学 一种边缘先验融合多头注意力机制的图像修复方法
CN114627006A (zh) * 2022-02-28 2022-06-14 复旦大学 一种基于深度解耦网络的渐进式图像修复方法
CN114677306B (zh) * 2022-03-29 2022-11-15 中国矿业大学 一种基于边缘信息引导的上下文聚合图像去雨方法
CN114677306A (zh) * 2022-03-29 2022-06-28 中国矿业大学 一种基于边缘信息引导的上下文聚合图像去雨方法
CN114972611B (zh) * 2022-07-18 2022-11-11 深圳大学 一种基于引导匹配损失的深度纹理合成方法及相关设备
CN114972611A (zh) * 2022-07-18 2022-08-30 深圳大学 一种基于引导匹配损失的深度纹理合成方法及相关设备
CN116228994A (zh) * 2023-05-09 2023-06-06 腾讯科技(深圳)有限公司 三维模型获取方法、装置、设备及存储介质
CN116258652A (zh) * 2023-05-11 2023-06-13 四川大学 基于结构注意和文本感知的文本图像修复模型及方法
CN116258652B (zh) * 2023-05-11 2023-07-21 四川大学 基于结构注意和文本感知的文本图像修复模型及方法
CN117036952A (zh) * 2023-08-15 2023-11-10 石河子大学 基于rgb图像重建高光谱图像的红枣水分含量等级检测方法
CN117036952B (zh) * 2023-08-15 2024-04-12 石河子大学 基于rgb图像重建高光谱图像的红枣水分含量等级检测方法
CN116805360A (zh) * 2023-08-21 2023-09-26 江西师范大学 一种基于双流门控渐进优化网络的显著目标检测方法
CN116805360B (zh) * 2023-08-21 2023-12-05 江西师范大学 一种基于双流门控渐进优化网络的显著目标检测方法
CN117196981A (zh) * 2023-09-08 2023-12-08 兰州交通大学 一种基于纹理和结构调和的双向信息流方法
CN117196981B (zh) * 2023-09-08 2024-04-26 兰州交通大学 一种基于纹理和结构调和的双向信息流方法
CN117078921B (zh) * 2023-10-16 2024-01-23 江西师范大学 一种基于多尺度边缘信息的自监督小样本汉字生成方法
CN117078921A (zh) * 2023-10-16 2023-11-17 江西师范大学 一种基于多尺度边缘信息的自监督小样本汉字生成方法
CN117132592B (zh) * 2023-10-24 2024-01-26 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于熵融合的工业缺陷检测方法
CN117132592A (zh) * 2023-10-24 2023-11-28 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于熵融合的工业缺陷检测方法

Also Published As

Publication number Publication date
CN113240613B (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN113240613B (zh) 一种基于边缘信息重建的图像修复方法
Wang et al. Patchmatchnet: Learned multi-view patchmatch stereo
Guo et al. Image inpainting via conditional texture and structure dual generation
CN110443842B (zh) 基于视角融合的深度图预测方法
CN108460746B (zh) 一种基于结构和纹理分层预测的图像修复方法
Wang et al. Laplacian pyramid adversarial network for face completion
Jiang et al. Multi-scale hybrid fusion network for single image deraining
CN113762147B (zh) 人脸表情迁移方法、装置、电子设备及存储介质
CN111833261A (zh) 一种基于注意力的生成对抗网络的图像超分辨率复原方法
CN117456136A (zh) 一种基于多模态视觉识别的数字孪生场景智能生成方法
CN115829876A (zh) 一种基于交叉注意力机制的真实退化图像盲修复方法
CN115393186A (zh) 一种人脸图像超分辨率重建方法、系统、设备及介质
CN117315169A (zh) 基于深度学习多视密集匹配的实景三维模型重建方法和系统
Zhang et al. Towards unbiased volume rendering of neural implicit surfaces with geometry priors
CN112686822B (zh) 一种基于堆叠生成对抗网络的图像补全方法
CN116523985B (zh) 一种结构和纹理特征引导的双编码器图像修复方法
Chen et al. Recovering fine details for neural implicit surface reconstruction
CN116416161A (zh) 一种改进生成对抗网络的图像修复方法
CN115660979A (zh) 一种基于注意力机制的双判别器图像修复方法
CN116402702A (zh) 基于深度神经网络的老照片修复方法及系统
Liao et al. TransRef: Multi-Scale Reference Embedding Transformer for Reference-Guided Image Inpainting
Guillard et al. Uclid-net: Single view reconstruction in object space
Zeng et al. Swin-CasUNet: cascaded U-Net with Swin Transformer for masked face restoration
CN116152441B (zh) 一种基于深度先验的多分辨率U-net曲面重建方法
Wu et al. Semantic image inpainting based on generative adversarial networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant