CN112465718A - 一种基于生成对抗网络的两阶段图像修复方法 - Google Patents
一种基于生成对抗网络的两阶段图像修复方法 Download PDFInfo
- Publication number
- CN112465718A CN112465718A CN202011354369.4A CN202011354369A CN112465718A CN 112465718 A CN112465718 A CN 112465718A CN 202011354369 A CN202011354369 A CN 202011354369A CN 112465718 A CN112465718 A CN 112465718A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- stage
- input
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 39
- 230000008439 repair process Effects 0.000 claims abstract description 12
- 238000010586 diagram Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 14
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 13
- 230000000694 effects Effects 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 10
- 230000005284 excitation Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000003786 synthesis reaction Methods 0.000 claims description 2
- 238000011426 transformation method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 12
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004153 renaturation Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于生成对抗网络的两阶段图像修复方法,涉及计算机视觉技术领域。本发明通过构建了两阶段的生成对抗网络模型,通过先边缘再整体的修复方法,实现对大面积破损图像的准确修复,利用生成对抗网络,将问题简化为端到端的模型训练,通过加入Ghost模块代替传统卷积层,同时间歇性插入SE模块,使得网络在性能得到提升的同时,网络参数和计算量有了明显下降,同时在训练中使用混合精度训练,提高了网络的收敛速度,提升了网络性能。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于生成对抗网络的两阶段图像修复方法。
背景技术
图像是最直观、最生动、最具体的人们接触最广泛的视觉载体信息。人类接收的感官信息四分之三来自视觉,数字化图像技术已经嵌入到现代生活的方方面面,在消费电子设备、数据采集设备、可视化医疗设备、工业检测设备和遥感等领域都得到了广泛应用。各种数字图像采集设备的普及也促使数字图像数量呈几何级数增长。因为各种原因造成的信息缺失而需要修补的数字图像也在不断增加,比如各种因素造成的信息缺损的图像,对原本就有的划痕或有破损的画作或艺术品数字化后的图像,为了便于观看而需要遮盖的图像和视频中的一部分,在图像和视频的获取处理压缩传输和解压缩过程中因信息丢失造成的信息缺损。为了保证图像和视频信息的完整性,人们迫切希望有一种技术能对数字图像的损坏区域进行自动补全,并使处理后的结果保持很好的视觉观赏性和自然性,使观察者在没有看过原图的情况下无法察觉图像曾经缺损或者被改动过。为了满足以上需求和保证图像信息的完整性,数字图像修复技术孕育而生。
数字图像修复技术是图像复原研究中的一个重要内容,也是目前数字图像处理研究的热点之一。图像修复起源于文艺复兴时期人们对艺术品的修复,重建优美的艺术品,传承国家文化供人们欣赏学习,并称这一过程为“图像修复”,即利用图像缺失区域的邻域信息,按照一定的修复规则实现缺失区域的修复,使得观察者在视觉上无法感知图像曾经破损或己被修复。传统的图像修复是一项工作人员利用自身经验进行主观修复的过程,依赖于人眼对于图像的感知理解,不同的人修复的效果必定存在差异,并且因为这是一个主观过程,修复效果往往与原本效果有较大差异。
20世纪80年代以来,随着计算机人工智能和数字媒体技术的飞速发展,艺术作品的修复己经由传统的纯手工修复,转变为计算机自动检测破损区域并完成修复。这为图像修复再度创作带来了一个极其自由的环境。在2000年,M.Bertalmio等人首次提出这种图像手工的画作修复技能完全可以通过数学理论进行抽象,并通过计算机技术和数字图像处理技术自动加以复现。自2000年被提出以来,图像修复技术是计算机图形学和计算机视觉中的一个热点研究方向。无数相关研究者不断推动着数字修复技术向前发展进步。如今,图像修复技术手段逐渐增多,方法日趋成熟,已经不断深入到各个应用领域。目前数字图像修复技术在文物保护、影视特效制作、虚拟现实、多余物体的剔除(如视频图像中删除部分物体、文字、台标)等方面有着广泛的应用前景和重要的研究价值。
鉴于上述背景,我们提出了一种基于生成对抗网络的两阶段图像修复技术,该技术通过分两步的方法,完成了数字图像的修复任务。其基本思想是:通过构建两个生成对抗网络,将破损图片的灰度图像、掩膜图像和破损图片的边缘检测图联合构成三通道图像作为输入,训练第一个生成网络生成破损图像的边缘修复图,将三通道RGB破损图像和第一个生成网络得到的边缘修复图组成四通道的图像输入,训练第二个生成网络生成完整的RGB三通道图像。
数字图像修复技术的难点在于:
第一:由于缺乏有效构造信息,对于大面积破损图像的修复效果不理想。
第二:不同于传统的回归或者分类问题,采用深度学习方法进行网络修复时用到的端到端模型,存在模型设计复杂、训练困难等问题。
第三:训练成功的模型参数多、计算量大。随着深度学习与工业应用的结合越来越紧密,需要低功耗、少内存、高速度的网络部署在移动设备上。目前的模型在实际进行应用时对于硬件设备的需求较高,这对图像修复技术的大范围应用产生了一定的限制。
发明内容
针对现有技术的不足,本发明提供一种基于生成对抗网络的两阶段图像修复方法,用来解决数字图像修复的问题。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于生成对抗网络的两阶段图像修复方法,包括以下步骤:
步骤1:建立图像修复数据集,所述图像修复数据集包括图片数据集和蒙版数据集;
从网上下载图片数据集和蒙版数据集,Igt为图片数据集中的真实图像,M为蒙版数据集中的蒙版,Cgt和Igray为Igt经过数据处理得到的边缘轮廓图和灰度图,制作经过蒙版遮挡的破损的灰度图像和破损的边缘轮廓图以及蒙版M作为一阶段生成对抗网络当中生成器G1的输入;制作破损的彩色图作为二阶段生成对抗网络的生成器G2输入,⊙表示哈达玛乘积;
步骤2.1:将Igray,M作为输入,输入进一阶段的生成网络中,先经过两个轻量Ghost模块,对于输入至Ghost模块数据卷积操作公式为Y=X*f,为输出的n通道特征图,为该层的卷积核,该Ghost模块的计算量为n·h′·w′·c·k·k,其中h'和w'是输出的特征图的分辨率,k是卷积核尺寸,c为输入特征图的通道个数,h为输入特征图的高,w为输入特征图的宽,n为输出特征图的通道个数;Ghost模块是先通过卷积产生n/s通道的特征图,即内在特征图,运算量为c·h'·w'·n/s·k·k,然后再用线性变换方法去使每张内在特征图产生s-1张相似的特征图,公式为其中y'i表示卷积生成的内在特征图,Φi,j为y'i生成的第j个Ghost特征图的线性变换函数;
所述一阶段生成对抗网络的判别器D1的结构为带有5层卷积层的神经网络;
构建用来训练边缘轮廓修复对抗网络的损失函数如下:
其中,λadv,1=1,λFM=10,它们都是正则化参数。
对抗损失定义为:
其中,E表示期望。
特征损失定义为:
其中,E表示期望,使用预先训练好的VGG网络对输入图像进行判别,Ni是判别器第i层的激活结果,L表示判别器最后一层的卷积层。
步骤2.2:Ghost模块的输出进入八个残差块,所述残差块结构先经过一个卷积核大小为3×3、膨胀率为2的空洞卷积层,之后加上一个SE(Squeeze-and-Excitation)模块以及卷积核大小为3×3、膨胀率为2的空洞卷积层,然后将所得结果与输入残差块的初始输入相加,作为下一个残差块的输入使用;
所述SE模块为特征图加上通道维度的注意力机制,包括Sequeeze以及Excitation;所述Sequeeze为对经过空洞卷积得到的C×H×W进行全局平均池化,得到1×1×C大小的特征图,所述Excitation为用一个全连接神经网络,对Sequeeze之后的结果做一个非线性变换,通过之前得到的参数来为每个特征通道生成一个权重值;通过一个全连接层将特征维度降低到原来的1/r,然后经过ReLU函数激活后通过一个全连接层把特征维度提高到C,再通过sigmoid函数转化为一个0~1的归一化权重。最后进行特征重标定:使用Excitation得到的结果作为权重,乘到输入特征图的每一个通道上,最后通过两个转置卷积层得到边缘轮廓预测图
步骤3:创建图像完成生成对抗网络,将一阶段得到的边缘轮廓预测图和破损的边缘轮廓图结合,得到边缘合成轮廓图Ccomp=Cgt⊙(1-M)+Cpred⊙M。将Ccomp和破损的图像作为输入,输入二阶段的生成对抗网络中生成完整的图片,降低学习率训练网络直至网络模型训练达到收敛。
将边缘轮廓预测图Cpred和破损的边缘轮廓图结合,得到合成轮廓图Ccomp=Cgt⊙(1-M)+Cpred⊙M。将Ccomp和破损的图像作为输入,输入二阶段的图像修复网络中;二阶段的图像修复网络结构在一阶段网络的第一个Ghost模块后增加了一个SE模块,其它部分相同,图像完成网络的判别器D2和D1结构相同,通过二阶段的图像完成网络得到完整的预测图像构建用来训练二阶段网络的损失函数如下:
其中λl1=1,λadv,2=2,λp=0.1,λs=250,均为正则化参数;
步骤4:将第一个生成对抗网络中的判别器D1去除,把一阶段和二阶段的生成对抗网络的生成器连接到一起,进行端到端的网络模型训练,继续降低学习率,直至训练网络达到收敛,在测试数据集上测试网络修复效果,完成图象修复模型的构建。
步骤2、3、4中所述网络模型训练的环节,均采用混合精度训练的方法进行训练。
采用上述技术方案所产生的有益效果在于:
本发明提出了一种基于生成对抗网络的两阶段图像修复方法,通过先边缘再整体的修复方法,实现对大面积缺失原有信息图像的精准修复。利用生成对抗网络,将问题简化为端到端的模型训练。加入Ghost模块代替传统卷积层,同时间歇性插入SE模块,使得网络在性能得到提升的同时,网络参数和计算量有了明显下降,同时在训练中使用混合精度训练,提高了网络的收敛速度,提升了网络性能。
附图说明
图1是本发明两阶段图像修复方法的流程图;
图2是本发明实施例一阶段生成对抗网络结构图;
图3是本发明实施例Ghost模块原理图;
图4是本发明实施例经过改造的残差块结构图;
图5是本发明实施例SE模块原理图;
图6是本发明实施例网络实际效果图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种基于生成对抗网络的两阶段图像修复方法,如图1所示,包括以下步骤:
步骤1:建立图像修复数据集,所述图像修复数据集包括图片数据集和蒙版数据集;用28000张人脸图片和8000张蒙版图片作为训练用数据集,2000张人脸图片和2000张蒙版图片作为测试用数据集;
Igt为图片数据集中的真实图像,M为蒙版数据集中的蒙版,Cgt和Igray为Igt经过数据处理得到的边缘轮廓图和灰度图,制作经过蒙版遮挡的破损的灰度图像和破损的边缘轮廓图以及蒙版M作为一阶段生成对抗网络当中生成器G1的输入;制作破损的彩色图作为二阶段生成对抗网络的生成器G2输入,⊙表示哈达玛乘积,(矩阵对应位置相乘);
本实施例中具体包括以下步骤:
步骤1.1:从github上下载CelebA-HQ人脸数据集,以及Karim Iskakov制作的掩膜数据集。
步骤1.2:制作数据集。两个数据集格式均为JPG,因而无需更改。利用skimage.feature模块中的canny边缘检测方法,高斯模糊参数σ=2,来获得完整边缘轮廓图Cgt;利用skimage.color模块中的rgb2gray方法得到完整的灰度图Igray,通过Hadamard积制作不完整的彩色图不完整的边缘图以及不完整的灰度图
步骤1.3:将图片按照7:2:1分成3部分,分别作为训练集、验证集和测试集,在训练集上训练模型,在验证集上调节超参数,避免过拟合,然后检验效果并决定何时完成训练,在测试集上测试模型的效果。
步骤1.4:对数据进行数据预处理。首先将图片尺寸通过OpenCV中的resize方法统一为256×256,之后对所有数据集中的图片进行归一化,将图片每个通道的像素值[0-255]同时除以255,压缩到至[0,1]之间。
步骤1.5:选择python作为模型编程语言,版本为3.6。基于pytorch框架搭建神经网络,其中,pytorch版本为1.0.1。torchvision版本为0.2.0。由于训练时采用混合精度训练,系统采用ubuntu18.04。因为采用了GPU加速,因此硬件上需要有英伟达支持的显卡模块,cuda版本为10.1。
步骤2.1:输入层为和M组成的三通道,尺寸为256×256的图片,输入进一阶段的生成网络中,网络结构如图2所示,先经过两个轻量Ghost模块,如图3所示,尺寸变为128×128以及64×64,接两个转置卷积层,得到256×256大小的单通道的边缘修复轮廓图Cpred。网络判别器采用五层卷积网络,输入层为大小为256×256的单通道图片,卷积层1的卷积核个数为64,大小设为4,步长设为2,padding设为1;采用LeakyReLU作为激活函数,参数设为0.2,inplace设为True。卷积层2的卷积核个数为128,其余参数设置相同。卷积层3的卷积核个数为256,其余参数设置相同。卷积层4的卷积核个数为512,其余参数设置相同。卷积层5的卷积核只有一个,其余参数相同。输出一个8×8的矩阵,这与传统GAN的判别器输出一个标量是不同的。一阶段是计算特征损失时使用,对矩阵上的每个元素进行概率计算,最后取平均作为输出结果,判定输入的图片是否是真实的边缘轮廓图。采用混合精度训练方法,批次大小为8,使用Adam优化器,参数为β1=0,β2=0.9,生成器学习率为10-4,判别器学习率为生成器的十分之一,在此条件下进行训练,直到loss平缓。
步骤2.2:Ghost模块的输出进入八个残差块,如图4所示,所述残差块结构先经过一个卷积核大小为3×3、膨胀率为2的空洞卷积层,之后加上一个SE(Squeeze-and-Excitation)模块以及卷积核大小为3×3、膨胀率为2的空洞卷积层,然后将所得结果与输入残差块的初始输入相加,作为下一个残差块的输入使用;
所述SE模块如图5所示,为特征图加上通道维度的注意力机制,包括Sequeeze以及Excitation;所述Sequeeze为对经过空洞卷积得到的C×H×W进行全局平均池化,得到1×1×C大小的特征图,所述Excitation为用一个全连接神经网络,对Sequeeze之后的结果做一个非线性变换,通过之前得到的参数来为每个特征通道生成一个权重值;通过一个全连接层将特征维度降低到原来的1/r,然后经过ReLU函数激活后通过一个全连接层把特征维度提高到C,再通过sigmoid函数转化为一个0~1的归一化权重。最后进行特征重标定:使用Excitation得到的结果作为权重,乘到输入特征图的每一个通道上,最后通过两个转置卷积层得到边缘轮廓预测图
步骤3:其生成器G2的结构与边缘轮廓修复网络的生成器G1基本相同,区别在于我们在第一个Ghost模块后增加一个SE模块,这是因为我们最终要得到完整的修复图像,要保证二阶段的生成器具有更加优秀的性能,判别器D2和一阶段的判别器D1的结构完全相同。将一阶段得到的修复后的边缘轮廓图像和破损的边缘轮廓图进行融合,得到合成轮廓图Ccomp=Cgt⊙(1-M)+Cpred⊙M,将Ccomp与三通道RGB破损图像组成四通道的图像作为输入,输入到G2中,将得到的修复图像和真实图像输入,采用混合精度训练方法,批次大小为8,使用Adam优化器,参数为β1=0,β2=0.9,生成器学习率为10-5,判别器学习率为生成器的十分之一,在此条件下同时对两个网络进行训练,直到收敛。
步骤4:将第一个生成对抗网络中的判别器D1去除,把一阶段和二阶段的生成对抗网络的生成器连接到一起,把G1和G2学习率设为10-6,D2学习率设为10-6,其余参数不变,进行端到端的网络模型训练,继续降低学习率,直至训练网络达到收敛,在测试数据集上测试网络修复效果,完成图象修复模型的构建。
步骤2、3、4中所述网络模型训练的环节,均采用混合精度训练的方法进行训练。
整个网络都使用了实例正则化,生成器与判别器都采用了谱归一化(SpectralNormalization,SN)稳定训练,通过对权重的奇异值求解,可以得到这一层网络的谱范数(spectral norm),接着让每一层网络的权重除以这一层网络的谱范数就可以满足1-Lipschitz限制。我们采用幂函数迭代法(power iteration)近似地求解谱范数,在验证数据集上测得模型的平均psnr为28.58,平均ssim为0.857,均优于同类模型。图6为模型实际测试效果图,从左到右依次是破损图片、边缘轮廓修复图片和完整修复图片。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (5)
1.一种基于生成对抗网络的两阶段图像修复方法,其特征在于:包括以下步骤:
步骤1:建立图像修复数据集,所述图像修复数据集包括图片数据集和蒙版数据集;
从网上下载图片数据集和蒙版数据集,Igt为图片数据集中的真实图像,M为蒙版数据集中的蒙版,Cgt和Igray为Igt经过数据处理得到的边缘轮廓图和灰度图,制作经过蒙版遮挡的破损的灰度图像和破损的边缘轮廓图Cgt=Cgt⊙(1-M)以及蒙版M作为一阶段生成对抗网络当中生成器G1的输入;制作破损的彩色图作为二阶段生成对抗网络的生成器G2输入,⊙表示哈达玛乘积;
步骤2.1:将Igray,Cgt,M作为输入,输入进一阶段的生成网络中,先经过两个轻量Ghost模块,对于输入至Ghost模块数据卷积操作公式为Y=X*f,为输出的n通道特征图,为该层的卷积核,该Ghost模块的计算量为n·h′·w′·c·k·k,其中h'和w'是输出的特征图的分辨率,k是卷积核尺寸,c为输入特征图的通道个数,h为输入特征图的高,w为输入特征图的宽,n为输出特征图的通道个数;Ghost模块是先通过卷积产生n/s通道的特征图,即内在特征图,运算量为c·h'·w'·n/s·k·k,然后再用线性变换方法去使每张内在特征图产生s-1张相似的特征图,公式为其中y'i表示卷积生成的内在特征图,Φi,j为y'i生成的第j个Ghost特征图的线性变换函数;
步骤2.2:Ghost模块的输出进入八个残差块,所述残差块结构先经过一个卷积核大小为3×3、膨胀率为2的空洞卷积层,之后加上一个SE(Squeeze-and-Excitation)模块以及卷积核大小为3×3、膨胀率为2的空洞卷积层,然后将所得结果与输入残差块的初始输入相加,作为下一个残差块的输入使用;
步骤3:创建图像完成生成对抗网络,将一阶段得到的边缘轮廓预测图和破损的边缘轮廓图结合,得到边缘合成轮廓图Ccomp=Cgt⊙(1-M)+Cpred⊙M,将Ccomp和破损的图像作为输入,输入二阶段的生成对抗网络中生成完整的图片,降低学习率训练网络直至网络模型训练达到收敛;
步骤4:将第一个生成对抗网络中的判别器D1去除,把一阶段和二阶段的生成对抗网络的生成器连接到一起,进行端到端的网络模型训练,继续降低学习率,直至训练网络达到收敛,在测试数据集上测试网络修复效果,完成图象修复模型的构建。
3.根据权利要求1所述的一种基于生成对抗网络的两阶段图像修复方法,其特征在于,步骤2.2中所述SE模块为特征图加上通道维度的注意力机制,包括Sequeeze以及Excitation;所述Sequeeze为对经过空洞卷积得到的C×H×W进行全局平均池化,得到1×1×C大小的特征图,所述Excitation为用一个全连接神经网络,对Sequeeze之后的结果做一个非线性变换,通过之前得到的参数来为每个特征通道生成一个权重值;通过一个全连接层将特征维度降低到原来的1/r,然后经过ReLU函数激活后通过一个全连接层把特征维度提高到C,再通过sigmoid函数转化为一个0~1的归一化权重;最后进行特征重标定:使用Excitation得到的结果作为权重,乘到输入特征图的每一个通道上,最后通过两个转置卷积层得到边缘轮廓预测图
4.根据权利要求1所述的一种基于生成对抗网络的两阶段图像修复方法,其特征在于,步骤3中将边缘轮廓预测图Cpred和破损的边缘轮廓图结合,得到合成轮廓图Ccomp=Cgt⊙(1-M)+Cpred⊙M;将Ccomp和破损的图像作为输入,输入二阶段的图像修复网络中;二阶段的图像修复网络结构在一阶段网络的第一个Ghost模块后增加了一个SE模块,其它部分相同,图像完成网络的判别器D2和D1结构相同,通过二阶段的图像完成网络得到完整的预测图像构建用来训练二阶段网络的损失函数如下:
其中λl1=1,λadv,2=2,λp=0.1,λs=250,均为正则化参数;
5.根据权利要求1所述的一种基于生成对抗网络的两阶段图像修复方法,其特征在于,步骤2、3、4中所述的网络模型训练,均采用混合精度训练的方法进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011354369.4A CN112465718B (zh) | 2020-11-27 | 2020-11-27 | 一种基于生成对抗网络的两阶段图像修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011354369.4A CN112465718B (zh) | 2020-11-27 | 2020-11-27 | 一种基于生成对抗网络的两阶段图像修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112465718A true CN112465718A (zh) | 2021-03-09 |
CN112465718B CN112465718B (zh) | 2022-07-08 |
Family
ID=74809585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011354369.4A Active CN112465718B (zh) | 2020-11-27 | 2020-11-27 | 一种基于生成对抗网络的两阶段图像修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112465718B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949553A (zh) * | 2021-03-22 | 2021-06-11 | 陈懋宁 | 基于自注意力级联生成对抗网络的人脸图像修复方法 |
CN113362242A (zh) * | 2021-06-03 | 2021-09-07 | 杭州电子科技大学 | 基于多特征融合网络的图像修复方法 |
CN113487512A (zh) * | 2021-07-20 | 2021-10-08 | 陕西师范大学 | 一种基于边缘信息指导的数字图像修复方法及装置 |
CN113537006A (zh) * | 2021-07-01 | 2021-10-22 | 昆明理工大学 | 一种基于卷积神经网络的普洱生茶和熟茶判定方法 |
CN114493781A (zh) * | 2022-01-25 | 2022-05-13 | 工银科技有限公司 | 用户行为预测方法、装置、电子设备及存储介质 |
CN114913588A (zh) * | 2022-06-20 | 2022-08-16 | 电子科技大学 | 一种应用于复杂场景下的人脸图像修复及识别方法 |
CN116681604A (zh) * | 2023-04-24 | 2023-09-01 | 吉首大学 | 一种基于条件生成对抗网络的秦简文字修复方法 |
CN117336057A (zh) * | 2023-10-10 | 2024-01-02 | 中国矿业大学(北京) | 一种基于深度学习的轻量化恶意流量分类方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945140A (zh) * | 2017-12-20 | 2018-04-20 | 中国科学院深圳先进技术研究院 | 一种图像修复方法、装置及设备 |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
CN109559287A (zh) * | 2018-11-20 | 2019-04-02 | 北京工业大学 | 一种基于DenseNet生成对抗网络的语义图像修复方法 |
US20190236759A1 (en) * | 2018-01-29 | 2019-08-01 | National Tsing Hua University | Method of image completion |
CN110189278A (zh) * | 2019-06-06 | 2019-08-30 | 上海大学 | 一种基于生成对抗网络的双目场景图像修复方法 |
CN111047522A (zh) * | 2019-11-07 | 2020-04-21 | 北京科技大学 | 一种基于边缘生成的图像修复方法 |
CN111161158A (zh) * | 2019-12-03 | 2020-05-15 | 河海大学 | 一种基于新生成网络结构的图像修复方法 |
CN111476747A (zh) * | 2020-03-31 | 2020-07-31 | 深圳奥比中光科技有限公司 | 一种消除屏下成像中鬼像的系统及方法 |
CN111553858A (zh) * | 2020-04-28 | 2020-08-18 | 四川大学青岛研究院 | 基于生成对抗网络的图像修复方法、系统及其应用 |
CN111815523A (zh) * | 2020-06-08 | 2020-10-23 | 天津中科智能识别产业技术研究院有限公司 | 一种基于生成对抗网络的图像修复方法 |
CN111861901A (zh) * | 2020-06-05 | 2020-10-30 | 西安工程大学 | 一种基于gan网络的边缘生成图像修复方法 |
US20200349393A1 (en) * | 2019-04-30 | 2020-11-05 | Agora Lab, Inc. | Optimizing Supervised Generative Adversarial Networks via Latent Space Regularizations |
CN111968053A (zh) * | 2020-08-13 | 2020-11-20 | 南京邮电大学 | 基于门控卷积生成对抗网络的图像修复方法 |
-
2020
- 2020-11-27 CN CN202011354369.4A patent/CN112465718B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945140A (zh) * | 2017-12-20 | 2018-04-20 | 中国科学院深圳先进技术研究院 | 一种图像修复方法、装置及设备 |
US20190236759A1 (en) * | 2018-01-29 | 2019-08-01 | National Tsing Hua University | Method of image completion |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
CN109559287A (zh) * | 2018-11-20 | 2019-04-02 | 北京工业大学 | 一种基于DenseNet生成对抗网络的语义图像修复方法 |
US20200349393A1 (en) * | 2019-04-30 | 2020-11-05 | Agora Lab, Inc. | Optimizing Supervised Generative Adversarial Networks via Latent Space Regularizations |
CN110189278A (zh) * | 2019-06-06 | 2019-08-30 | 上海大学 | 一种基于生成对抗网络的双目场景图像修复方法 |
CN111047522A (zh) * | 2019-11-07 | 2020-04-21 | 北京科技大学 | 一种基于边缘生成的图像修复方法 |
CN111161158A (zh) * | 2019-12-03 | 2020-05-15 | 河海大学 | 一种基于新生成网络结构的图像修复方法 |
CN111476747A (zh) * | 2020-03-31 | 2020-07-31 | 深圳奥比中光科技有限公司 | 一种消除屏下成像中鬼像的系统及方法 |
CN111553858A (zh) * | 2020-04-28 | 2020-08-18 | 四川大学青岛研究院 | 基于生成对抗网络的图像修复方法、系统及其应用 |
CN111861901A (zh) * | 2020-06-05 | 2020-10-30 | 西安工程大学 | 一种基于gan网络的边缘生成图像修复方法 |
CN111815523A (zh) * | 2020-06-08 | 2020-10-23 | 天津中科智能识别产业技术研究院有限公司 | 一种基于生成对抗网络的图像修复方法 |
CN111968053A (zh) * | 2020-08-13 | 2020-11-20 | 南京邮电大学 | 基于门控卷积生成对抗网络的图像修复方法 |
Non-Patent Citations (2)
Title |
---|
KAI HAN等: "GhostNet: More Features From Cheap Operations", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
刘波宁: "基于结构约束的生成对抗网络图像修复改进算法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949553A (zh) * | 2021-03-22 | 2021-06-11 | 陈懋宁 | 基于自注意力级联生成对抗网络的人脸图像修复方法 |
CN113362242A (zh) * | 2021-06-03 | 2021-09-07 | 杭州电子科技大学 | 基于多特征融合网络的图像修复方法 |
CN113537006A (zh) * | 2021-07-01 | 2021-10-22 | 昆明理工大学 | 一种基于卷积神经网络的普洱生茶和熟茶判定方法 |
CN113487512A (zh) * | 2021-07-20 | 2021-10-08 | 陕西师范大学 | 一种基于边缘信息指导的数字图像修复方法及装置 |
CN114493781A (zh) * | 2022-01-25 | 2022-05-13 | 工银科技有限公司 | 用户行为预测方法、装置、电子设备及存储介质 |
CN114913588A (zh) * | 2022-06-20 | 2022-08-16 | 电子科技大学 | 一种应用于复杂场景下的人脸图像修复及识别方法 |
CN114913588B (zh) * | 2022-06-20 | 2023-04-25 | 电子科技大学 | 一种应用于复杂场景下的人脸图像修复及识别方法 |
CN116681604A (zh) * | 2023-04-24 | 2023-09-01 | 吉首大学 | 一种基于条件生成对抗网络的秦简文字修复方法 |
CN116681604B (zh) * | 2023-04-24 | 2024-01-02 | 吉首大学 | 一种基于条件生成对抗网络的秦简文字修复方法 |
CN117336057A (zh) * | 2023-10-10 | 2024-01-02 | 中国矿业大学(北京) | 一种基于深度学习的轻量化恶意流量分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112465718B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112465718B (zh) | 一种基于生成对抗网络的两阶段图像修复方法 | |
CN110599395B (zh) | 目标图像生成方法、装置、服务器及存储介质 | |
CN112184554B (zh) | 一种基于残差混合膨胀卷积的遥感图像融合方法 | |
CN112183637A (zh) | 一种基于神经网络的单光源场景光照重渲染方法及系统 | |
CN111582483A (zh) | 基于空间和通道联合注意力机制的无监督学习光流估计方法 | |
CN111986084A (zh) | 一种基于多任务融合的多相机低光照图像质量增强方法 | |
CN115484410B (zh) | 基于深度学习的事件相机视频重建方法 | |
CN113129272A (zh) | 一种基于去噪卷积自编码器的缺陷检测方法及装置 | |
CN110599585A (zh) | 基于深度学习的单图像人体三维重建方法及装置 | |
CN113592715B (zh) | 一种面向小样本图像集的超分辨率图像重构方法 | |
CN112991371B (zh) | 一种基于着色溢出约束的图像自动着色方法及系统 | |
CN115526891B (zh) | 一种缺陷数据集的生成模型的训练方法及相关装置 | |
CN115170915A (zh) | 一种基于端到端注意力网络的红外与可见光图像融合方法 | |
CN112001843A (zh) | 一种基于深度学习的红外图像超分辨率重建方法 | |
CN112163998A (zh) | 一种匹配自然降质条件的单图像超分辨率分析方法 | |
CN111275638A (zh) | 基于多通道注意力选择生成对抗网络的人脸修复方法 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN117391938B (zh) | 一种红外图像超分辨率重建方法、系统、设备及终端 | |
CN114549387A (zh) | 一种基于伪标签的人脸图像高光去除方法 | |
CN111311732B (zh) | 3d人体网格获取方法及装置 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
CN113706400A (zh) | 图像矫正方法、装置、显微镜图像的矫正方法及电子设备 | |
CN115984949B (zh) | 一种带有注意力机制的低质量人脸图像识别方法及设备 | |
CN110782503B (zh) | 一种基于两分支深度相关网络的人脸图像合成方法和装置 | |
CN115937374B (zh) | 一种数字人体建模方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |