CN110473154B - 一种基于生成对抗网络的图像去噪方法 - Google Patents
一种基于生成对抗网络的图像去噪方法 Download PDFInfo
- Publication number
- CN110473154B CN110473154B CN201910700818.7A CN201910700818A CN110473154B CN 110473154 B CN110473154 B CN 110473154B CN 201910700818 A CN201910700818 A CN 201910700818A CN 110473154 B CN110473154 B CN 110473154B
- Authority
- CN
- China
- Prior art keywords
- image
- loss
- output
- network
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 47
- 230000000694 effects Effects 0.000 claims abstract description 16
- 239000000654 additive Substances 0.000 claims abstract description 7
- 230000000996 additive effect Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 83
- 230000004913 activation Effects 0.000 claims description 58
- 238000010606 normalization Methods 0.000 claims description 50
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 36
- 238000011156 evaluation Methods 0.000 claims description 17
- 238000009499 grossing Methods 0.000 claims description 16
- 238000005520 cutting process Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000013441 quality evaluation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开的一种基于生成对抗网络的图像去噪方法,其特征在于,包括以下步骤:步骤1:选取实验数据集;步骤2:选取高斯加性白噪声作为噪声模型;步骤3:搭建生成网络模型,训练生成器网络G用于去噪;步骤4:搭建判别网络模型,判别器D用于对输入图像进行真伪分类;步骤5:构建联合损失函数模型;步骤6:训练生成式对抗网络;步骤7:图像去噪质量评价。本发明一种基于生成对抗网络的图像去噪方法,能够达到保留更多纹理细节和边缘特征的去噪效果。
Description
技术领域
本发明属于图像分析、深度学习和计算机视觉技术领域,具体涉及一种基于生成对抗网络的图像去噪方法。
背景技术
图像作为一种对客观对象的相似性描述,拥有文字等传播媒介无法相比的信息量和直观性,但图像在采集、存储、传输、使用的过程中都不可避免地被噪声污染。噪声的存在,使图像的质量不可控制地下降,甚至丢失图像的重要信息,改变原有图像的像素值,为计算机视觉处理带来极大的负面影响,直接影响了后续的图像处理。因此,如何减少图像的噪声污染,同时既要去除噪声又要从被污染的图像中还原出原始信息,是学者们长久关注的热点问题。
20世纪70年代以来,数字图像处理技术进入了快速发展时期。几十年来,诸多传统去噪算法已被提出并沿用至今,例如中值滤波、均值滤波以及频域去噪算法等。然而这些传统去噪方法大多因为对图像特征的结构、纹理和边缘等细节信息的丢失和忽视,存在边缘模糊、特征不明等缺陷;另一方面,随着计算机硬件水平的提高,深度学习神经网络已进入快速发展时期,不少学者已经将研究的目光转向了深度学习技术在图像处理方面的应用,并取得了一定的成果。虽然还存在很多难题有待攻克,但使用深度学习技术对图像去噪继续进行新的探索与研究仍是十分必要的。
发明内容
本发明的目的在于提供一种基于生成对抗网络的图像去噪方法,能够达到保留更多纹理细节和边缘特征的去噪效果。
本发明所采用的技术方案是:一种基于生成对抗网络的图像去噪方法,包括以下步骤:
步骤1:选取实验数据集,确定与其相关的训练数据集和测试数据集;
步骤2:添加噪声模型,选取高斯加性白噪声作为噪声模型;
步骤3:搭建生成网络模型,训练生成器G用于去噪,输入噪声图像,生成得到去噪图像;
步骤4:搭建判别网络模型,判别器D用于对输入图像进行真伪分类,输入去噪图像和真实图,对二者进行判别,输出映射到[0,1]的概率分数;
步骤5:构建联合损失函数模型,即将像素损失、特征损失、对抗损失和平滑损失与适当的权值相结合,形成新的细化损失函数;
步骤6:训练生成式对抗网络,通过对网络参数进行优化,找到网络性能最优的参数;
步骤7:图像去噪质量评价,使用视觉评价和峰值信噪比PSNR、结构相似性SSIM两种客观评价指标作为综合评价标准,度量去噪性能。
本发明的特点还在于,
步骤1中选用VOC2012数据集作为训练数据来源,通过翻转、水平旋转和垂直旋转的手段扩大数据集,使用Kodak24和CBSD100两种标准图像数据集作为测试数据来源。
步骤2具体包括添加σ=15,25,35,45,55的高斯噪声,与真实图组成20000组大小为256×256的训练图像对,通过使用OpenCV中提供的RNG类,生成符合高斯分布的噪声矩阵,再将此噪声矩阵叠加到无噪图像,得到含有高斯噪声的图像。
步骤3中生成器G输入的是256×256的彩色图像,首先使用三个由卷积层、批量标准化、Lrelu激活函数构成的组合进行特征提取;核心去噪模块由五个残差块组成,每个残差块包含两个卷积层,批量标准化和Lrelu激活函数,使用跳跃连接提高网络的训练效率和收敛性能,跳跃连接将输入提供给深层网络;最后是三个亚像素卷积层,每个亚像素卷积层对应于网络前端的卷积层,图像的大小从64×64调整到128×128,最终图像输出大小被恢复到256×256;具体步骤如下:
第一个卷积层输入256×256的彩色噪声图像,输出尺度为9*3*32*1,卷积核大小为9*9,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个卷积层输入第一层的输出特征,输出尺度为3*32*64*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三个卷积层输入第二层的输出特征,输出尺度为3*64*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三层的输出特征输入到第一个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第一个残差块的输出特征输入到第二个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个残差块的输出特征输入到第三个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三个残差块的输出特征输入到第四个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第四个残差块的输出特征输入到第五个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第一个反卷积层输入第五个残差块的输出特征,输出尺度为3*128*64*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个反卷积层输入第一个反卷积层的输出特征,输出尺度为3*64*32*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数,在第二个反卷积层和第一个卷积层添加跳跃连接;
最后一层为卷积层,输入第二个反卷积层的输出特征,输出尺度为9*32*3*1,卷积和大小为9*9,步幅为1,通过Tanh激活函数输出去噪的图像。
步骤4中的判别器D由5个卷积层组成,使用了卷积层和批量标准化和LReLU激活组合作为基础,从Conv-BN-LReLU集合中计算图像特征,通过在末尾的Sigmoid函数将其映射到归一化为[0,1]的概率分数;具体步骤如下:
第一个卷积层,输入为生成的字体图像和源目标字体图像,输出尺度为4*3*48*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第二个卷积层输入第一层的输出特征,输出尺度为4*48*96*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第三个卷积层输入第二层的输出特征,输出尺度为4*96*192*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第四个卷积层输入第三层的输出特征,输出尺度为4*192*384*1,卷积核大小为4*4,步幅为1,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
最后一个卷积层输入第四层的输出特征,输出尺度为4*384*1*1,卷积核大小为4*4,步幅为1,BatchNorm批量标准化,零填充为1,通过Sigmoid激活函数输出判别结果。
步骤5包括对生成式对抗网络修复过的去噪图像分别进行计算对抗损失和平滑损失,同时将去噪图像与真实图一起输入VGG16网络中进行特征提取并计算之间的欧氏距离获得特征损失,对抗损失、平滑损失和特征损失这三个损失值再与真实图与去噪图像之间的像素损失进行加权计算,最终得到联合损失函数值,具体为:
像素损失是计算生成图像与真实图对应像素之间的欧氏距离,当给定C个通道且大小为W×H的成对图像{x,yb},x表示输入的噪声图像,yb表示相应的真实图,表示训练过的生成器G的输出,像素损失Lp定义为式(3):
特征损失Lf是根据从VGG16网络的Conv2层中提取出的图像特征进行计算,将两张图像分别投入VGG16网络中,然后求解两张特征图像之间的MSE,设某一层的输出大小为Ci×Wi×Hi,同理,特征损失定义为式(4):
平滑损失LS用于防止相邻像素之间的巨大差异,减少图像中的棋盘效应,计算平滑损失是将生成的图像的副本分别向左滑动一个单元和向上滑动一个单元,然后计算在水平方向和垂直方向上移位图像与原图间的欧氏距离,对于C个通道且大小为W×H的图像,平滑损失Ls可以表示为公式(6)的形式:
式中:xl表示将生成图像最左列像素裁剪后所得图像;yr表示将生成图像最右列像素裁剪后所得图像;xu表示将生成图像顶行像素裁剪后所得图像;yd表示将生成图像底行像素裁剪后所得图像。
最终联合损失函数定义如式(7):
L=λaLa+λpLp+λfLf+λSLS (7)
式(7)中,λa、λP、λf、λs依次为对抗损失、像素损失、特征损失、平滑损失的权重系数。
步骤6基于Tensorflow框架完成模型的搭建并在NVIDIA GTX 1080的GPU上训练,具体包括:获取训练样本集其中,N=20000为训练样本总数;初始化训练迭代次数T=200,批处理样本数m=4,学习率设置为0.0002;在训练期间,将数据集中的训练数据作为生成器G输入,通过前向传播算法计算输出;将生成器G输出与对应的真实图同时输入判别器D中,利用前向传播算法获得相应输出;计算判别器D损失和生成器G损失Li;训练过程中使用Adma优化算法进行网络参数的优化,其中β1=0.9,以1:1的比例交替优化生成器G和判别器D,利用Adam算法更新生成器的参数:利用Adam算法更新判别器的参数:通过不断地参数调节,将损失函数的权重设置为λa=0.5,λp=1.0,λf=1.0和λs=0.001;根据迭代次数遍历整个训练样本集,保存训练好的网络模型的结构及参数。
本发明的有益效果是:本发明一种基于生成对抗网络的图像去噪方法,去噪生成对抗网络由生成噪声修复图像的生成器G和判别图像质量的判别器D组成。生成网络通过多层卷积和亚像素层学习到噪声图像到真实图的端对端映射,使用判别网络进行对抗训练,并将平滑损失函数、对抗损失、像素损失和特征损失结合构成联合损失函数,减少图像修复过程中的“棋盘效应”。通过生成网络和判别网络的交替训练,并使用判别网络监督训练生成网络,最终获得能够保留更多纹理细节、边缘特征的去噪效果。
附图说明
图1是本发明一种基于生成对抗网络的图像去噪方法的实施步骤图;
图2是本发明一种基于生成对抗网络的图像去噪方法中的生成对抗网络去噪网络结构图;
图3是本发明一种基于生成对抗网络的图像去噪方法中的生成器网络结构图;
图4是本发明一种基于生成对抗网络的图像去噪方法中的判别器网络结构图;
图5是本发明一种基于生成对抗网络的图像去噪方法中的平滑损失函数结构图;
图6是本发明一种基于生成对抗网络的图像去噪方法中的联合损失函数结构图。
具体实施方式
下面结合附图以及具体实施方式对本发明进行详细说明。
本发明提供了一种基于生成对抗网络的图像去噪方法,如图2所示,生成器通过多层卷积和亚像素层学习噪声图像到真实图的端对端映射,判别器监督和纠正生成器的训练。生成器使用残差学习加深网络层数,防止网络退化,使学习到的特征数增加,联合损失函数减少图像去噪过程中的棋盘效应,当去噪后的图像与无噪声图像相差甚远时会产生较大的损失值,判别器通过该值监督网络向更优的方向训练,使生成器生成的去噪图像更符合无噪图像的分布,提高去噪图像的视觉感受。
本发明方法的实施步骤流程图如附图1所示,具体实施步骤如下:
S1、选取实验数据集,选用VOC2012数据集作为训练数据来源,从VOC2012数据集中筛选出清晰的图像,通过翻转、水平旋转、垂直旋转等手段扩大数据集,使用Kodak24和CBSD100两种标准图像数据集作为测试数据来源。
S2、添加噪声模型,对于普遍的加性噪声,输出图像Y是真实图X与噪声N的叠加。噪声N通常来自于电子噪声、光电子噪声、感光片颗粒噪声,这些噪声可以使用呈高斯分布的加性白噪声来表示,加性的高斯白噪声分布的数学表示为N(0,σ2),σ2表示噪声方差,因此选取高斯加性白噪声作为噪声模型。
具体地,对数据集做翻转、裁剪等手段后,添加σ=15,25,35,45,55的高斯噪声,与真实图组成20000组大小为256×256的训练图像对。通过使用OpenCV中提供的RNG类,生成符合高斯分布的噪声矩阵,再将此噪声矩阵叠加到无噪图像,得到含有高斯噪声的图像。
S3、搭建生成网络模型,训练生成器网络G用于去噪,输入噪声图像,生成得到去噪图像,生成器采用和传统CNN模型相似的对称结构,直接学习从输入的噪声图像到对应的真实图之间的端对端映射。
具体地,如附图3所示,生成器模型的输入是256×256的彩色图像,首先使用三个由卷积层、批量标准化、Lrelu激活函数构成的组合进行特征提取。核心去噪模块由五个残差块组成,每个残差块包含两个卷积层,批量标准化和Lrelu激活函数。使用跳跃连接提高网络的训练效率和收敛性能,这些跳跃连接将输入提供给深层网络,因此每个残差层根据输入调整输出并保留空间信息。最后是三个亚像素卷积层,每个亚像素卷积层对应于网络前端的卷积层,图像的大小从64×64调整到128×128,最终图像输出大小被恢复到256×256。使用亚像素卷积层而不是反卷积层来减少图像中的棋盘效应。由于亚像素卷积类似于反卷积,将这些层称为反卷积层。前两个反卷积层使用Lrelu激活函数,最后一个反卷积层使用Tanh激活函数给出最终输出。对于所有卷积层都将步长设为1。其网络结构可以描述为式(1):
CBL(K)-CBL(2K)-CBL(4K)-CBL(4K)-CBL(4K)-CBL(4K)-
CBL(4K)-CBL(4K)-DBL(2K)-DBL(K)-DB(3)-Tanh (1)
其中,CBL(K)是一组K通道卷积层(K=32),后接批量标准化和Lrelu激活函数;DBL(K)是一组K通道反卷积层,后接批量标准化和Relu激活。每两层添加跳跃连接。
具体步骤如下:
第一个卷积层输入256×256的彩色噪声图像,输出尺度为9*3*32*1,卷积核大小为9*9,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个卷积层输入第一层的输出特征,输出尺度为3*32*64*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三个卷积层输入第二层的输出特征,输出尺度为3*64*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三层的输出特征输入到第一个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第一个残差块的输出特征输入到第二个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个残差块的输出特征输入到第三个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三个残差块的输出特征输入到第四个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第四个残差块的输出特征输入到第五个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第一个反卷积层输入第五个残差块的输出特征,输出尺度为3*128*64*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个反卷积层输入第一个反卷积层的输出特征,输出尺度为3*64*32*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数,在第二个反卷积层和第一个卷积层添加跳跃连接;
最后一层为卷积层,输入第二个反卷积层的输出特征,输出尺度为9*32*3*1,卷积和大小为9*9,步幅为1,通过Tanh激活函数输出去噪的图像。
S4、搭建判别网络模型,判别器网络D则输入去噪图像和真实图,用[0,1]范围内的数字表示输入图像之间的相似度。
具体地,如附图4所示,判别器网络D来分类每个输入图像是真还是假。判别器D使用了5个具有批量标准化和Lrelu激活函数的卷积层用于计算图像特征。通过Sigmoid函数将输出映射归一到[0,1]的概率分数。其结构描述如式(2):
CBL(K2)-CBL(2K2)-CBL(4K2)-CBL(8K2)-C(1)-Sigmoid (2)
其中,CBL(K2)是一组K2通道卷积层(K2=48)后接批量标准化和Lrelu激活函数,C(1)是一组1通道卷积层。
具体步骤如下:
第一个卷积层,输入为生成的字体图像和源目标字体图像,输出尺度为4*3*48*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第二个卷积层输入第一层的输出特征,输出尺度为4*48*96*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第三个卷积层输入第二层的输出特征,输出尺度为4*96*192*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第四个卷积层输入第三层的输出特征,输出尺度为4*192*384*1,卷积核大小为4*4,步幅为1,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
最后一个卷积层输入第四层的输出特征,输出尺度为4*384*1*1,卷积核大小为4*4,步幅为1,BatchNorm批量标准化,零填充为1,通过Sigmoid激活函数输出判别结果。
S5、构建损失函数,如附图6所示,对生成式对抗网络修复过的去噪图像分别进行计算对抗损失和平滑损失,同时将去噪图像与真实图一起输入VGG16网络中进行特征提取并计算之间的欧氏距离获得特征损失,这三个损失值再与真实图与去噪图像之间的像素损失进行加权计算,最终得到联合损失函数值。
具体地,像素损失是计算生成图像与真实图对应像素之间的欧氏距离。当给定C个通道且大小为W×H的成对图像{x,yb},x表示输入的噪声图像,yb表示相应的真实图,表示训练过的生成器G的输出,像素损失Lp定义为式(3):
特征损失Lf是根据从VGG16网络的Conv2层中提取出的图像特征进行计算,将两张图像分别投入VGG16网络中,然后求解两张特征图像之间的MSE。设某一层的输出大小为Ci×Wi×Hi。同理,特征损失定义为式(4):
平滑损失LS用于防止相邻像素之间的巨大差异,减少图像中的棋盘效应。为了计算平滑损失,将生成的图像的副本分别向左滑动一个单元和向上滑动一个单元,然后计算在水平方向和垂直方向上移位图像与原图间的欧氏距离,通过减少相邻像素间的差异,从而达到降低棋盘效应的作用。其组成如图5。对于C个通道且大小为W×H的图像,平滑损失Ls可以表示为公式(6)的形式:
式中:xl表示将生成图像最左列像素裁剪后所得图像;yr表示将生成图像最右列像素裁剪后所得图像;xu表示将生成图像顶行像素裁剪后所得图像;yd表示将生成图像底行像素裁剪后所得图像。
最终联合损失函数定义如式(7):
L=λaLa+λpLp+λfLf+λSLS (7)
其中,λa、λP、λf、λs分别为各损失函数权重系数。
S6、训练模型,基于Tensorflow框架完成模型的搭建并在NVIDIA GTX 1080的GPU上训练,具体包括:获取训练样本集其中,N=20000为训练样本总数;初始化训练迭代次数T=200,批处理样本数m=4,学习率设置为0.0002;在训练期间,将数据集中的训练数据作为生成器G输入,通过前向传播算法计算输出;将生成器G输出与对应的真实图同时输入判别器D中,利用前向传播算法获得相应输出;计算判别器D损失和生成器G损失Li;训练过程中使用Adma优化算法进行网络参数的优化,其中β1=0.9,以1:1的比例交替优化生成器G和判别器D,利用Adam算法更新生成器的参数:利用Adam算法更新判别器的参数:通过不断地参数调节,将损失函数的权重设置为λa=0.5,λP=1.0,λf=1.0和λs=0.001;根据迭代次数遍历整个训练样本集,保存训练好的网络模型的结构及参数。
S7、图像去噪质量评价,视觉评价能得出直观、符合人类视觉习惯的评价结果,客观评价指标是通过客观图像数据衡量图像噪声过滤的干净程度和图像间的结构相似性,两者相辅相成,可以达到更好的评价效果。所以本发明使用视觉评价和峰值信噪比PSNR、结构相似性SSIM两种客观评价指标作为综合评价标准,度量算法的去噪性能。
通过上述方式,本发明利用深度学习方法研究图像去噪处理,提出了一种基于生成式对抗思想的去噪网络,结合ResNet结构加深网络深度,生成器通过多层卷积和亚像素层学习噪声图像到真实图的端对端映射,判别器监督和纠正生成器的训练,训练网络能够根据噪声图像生成与原图结构相似性更高,保留更多特征信息的去噪图像。本发明网络可以较好地保留图像中的纹理细节,有较好的去噪效果。
结果分析
如表1所示,是本发明模型在Kodak24和CBSD100两个测试集上,添加σ=15,25,35,45,55的高斯噪声,分别对24幅图像和100幅图像进行去噪后所得到去噪结果图像的PSNR和SSIM平均值。客观评价指标PSNR的数值能够维持在28dB以上,SSIM平均值也较高,证明了模型修复效果稳定,取得了较好的去噪结果。
表1不同噪声下本文模型的平均PSNR(dB)和SSIM
如表2所示,本发明模型结合SRGAN与ID-CGAN两个模型,在CBSD100测试集中进行实验对比,本发明的PSNR平均比SRGAN和ID-CGAN高出5.12dB和5.69dB,SSIM也高于这两者。证明了模型的去噪有效性和优良表现。
表2不同模型的平均PSNR(dB)和SSIM
如表3所示,为了验证平滑损失降低棋盘效应的有效性,本发明分别训练有平滑损失的模型和没有平滑损失的模型,在CBSD100测试集上进行对比评价。本发明的PSNR值维持在32dB左右,比无平滑损失模型平均高1.59dB,且SSIM值证明有平滑损失的模型其去噪结果图像与原图有着更高的结构相似性,说明具有平滑损失的模型的图像去噪结果拥有良好的图像质量和结构特性。
表3损失函数改进前后模型的平均PSNR(dB)和SSIM
表4和表5是彩色图像去噪算法BM3D,DnCNN以及本发明在Kodak24和CBSD100数据集上对噪声方差为15,25,50的噪声图像进行去噪得到的平均去噪结果。可以明显发现本发明对Kodak24测试集中每幅图像的去噪效果都优于BM3D和DnCNN。
表4图像去噪方法在Kodak24上的平均PSNR(dB)和SSIM
表5图像去噪方法在CBSD100上的平均PSNR(dB)和SSIM
从客观评价指标上来看,各个噪声强度的去噪结果,无论是PSNR还是SSIM都是本发明的评价指标为最高,说明本发明修复的去噪图像质量和结构相似性最好。
Claims (6)
1.一种基于生成对抗网络的图像去噪方法,其特征在于,包括以下步骤:
步骤1:选取实验数据集,确定与其相关的训练数据集和测试数据集;
步骤2:添加噪声模型,选取高斯加性白噪声作为噪声模型;
步骤3:搭建生成网络模型,训练生成器G用于去噪,输入噪声图像,生成得到去噪图像;
步骤4:搭建判别网络模型,判别器D用于对输入图像进行真伪分类,输入去噪图像和真实图,对二者进行判别,输出映射到[0,1]的概率分数;
步骤5:构建联合损失函数模型,即将像素损失、特征损失、对抗损失和平滑损失与适当的权值相结合,形成新的细化损失函数;具体包括对生成式对抗网络修复过的去噪图像分别进行计算对抗损失和平滑损失,同时将去噪图像与真实图一起输入VGG16网络中进行特征提取并计算之间的欧氏距离获得特征损失,对抗损失、平滑损失和特征损失这三个损失值再与真实图与去噪图像之间的像素损失进行加权计算,最终得到联合损失函数值,具体为:
像素损失是计算生成图像与真实图对应像素之间的欧氏距离,当给定C个通道且大小为W×H的成对图像{x,yb},x表示输入的噪声图像,yb表示相应的真实图,表示训练过的生成器G的输出,像素损失Lp定义为式(3):
特征损失Lf是根据从VGG16网络的Conv2层中提取出的图像特征进行计算,将两张图像分别投入VGG16网络中,然后求解两张特征图像之间的MSE,设某一层的输出大小为Ci×Wi×Hi,同理,特征损失定义为式(4):
平滑损失LS用于防止相邻像素之间的巨大差异,减少图像中的棋盘效应,计算平滑损失是将生成的图像的副本分别向左滑动一个单元和向上滑动一个单元,然后计算在水平方向和垂直方向上移位图像与原图间的欧氏距离,对于C个通道且大小为W×H的图像,平滑损失Ls表示为公式(6)的形式:
式中:xl表示将生成图像最左列像素裁剪后所得图像;yr表示将生成图像最右列像素裁剪后所得图像;xu表示将生成图像顶行像素裁剪后所得图像;yd表示将生成图像底行像素裁剪后所得图像;
最终联合损失函数定义如式(7):
L=λaLa+λpLp+λfLf+λSLS (7)
式(7)中,λa、λP、λf、λs依次为对抗损失、像素损失、特征损失、平滑损失的权重系数;
步骤6:训练生成式对抗网络,通过对网络参数进行优化,找到网络性能最优的参数;
步骤7:图像去噪质量评价,使用视觉评价和峰值信噪比PSNR、结构相似性SSIM两种客观评价指标作为综合评价标准,度量去噪性能。
2.如权利要求1所述的一种基于生成对抗网络的图像去噪方法,其特征在于,所述步骤1中选用VOC2012数据集作为训练数据来源,通过翻转、水平旋转和垂直旋转的手段扩大数据集,使用Kodak24和CBSD100两种标准图像数据集作为测试数据来源。
3.如权利要求2所述的一种基于生成对抗网络的图像去噪方法,其特征在于,所述步骤2具体包括添加σ=15,25,35,45,55的高斯噪声,与真实图组成20000组大小为256×256的训练图像对,通过使用OpenCV中提供的RNG类,生成符合高斯分布的噪声矩阵,再将此噪声矩阵叠加到无噪图像,得到含有高斯噪声的图像。
4.如权利要求3所述的一种基于生成对抗网络的图像去噪方法,其特征在于,所述步骤3中生成器G输入的是256×256的彩色图像,首先使用三个由卷积层、批量标准化、Lrelu激活函数构成的组合进行特征提取;核心去噪模块由五个残差块组成,每个残差块包含两个卷积层,批量标准化和Lrelu激活函数,使用跳跃连接提高网络的训练效率和收敛性能,跳跃连接将输入提供给深层网络;最后是三个亚像素卷积层,每个亚像素卷积层对应于网络前端的卷积层,图像的大小从64×64调整到128×128,最终图像输出大小被恢复到256×256;具体步骤如下:
第一个卷积层输入256×256的彩色噪声图像,输出尺度为9*3*32*1,卷积核大小为9*9,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个卷积层输入第一层的输出特征,输出尺度为3*32*64*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三个卷积层输入第二层的输出特征,输出尺度为3*64*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三层的输出特征输入到第一个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第一个残差块的输出特征输入到第二个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个残差块的输出特征输入到第三个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第三个残差块的输出特征输入到第四个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第四个残差块的输出特征输入到第五个残差块中,输出尺度为3*128*128*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第一个反卷积层输入第五个残差块的输出特征,输出尺度为3*128*64*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数;
第二个反卷积层输入第一个反卷积层的输出特征,输出尺度为3*64*32*1,卷积核大小为3*3,步幅为1,BatchNorm批量标准化,LRelu激活函数,在第二个反卷积层和第一个卷积层添加跳跃连接;
最后一层为卷积层,输入第二个反卷积层的输出特征,输出尺度为9*32*3*1,卷积和大小为9*9,步幅为1,通过Tanh激活函数输出去噪的图像。
5.如权利要求4所述的一种基于生成对抗网络的图像去噪方法,其特征在于,所述步骤4中的判别器D由5个卷积层组成,使用了卷积层和批量标准化和LReLU激活组合作为基础,从Conv-BN-LReLU集合中计算图像特征,通过在末尾的Sigmoid函数将其映射到归一化为[0,1]的概率分数;具体步骤如下:
第一个卷积层,输入为生成的字体图像和源目标字体图像,输出尺度为4*3*48*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第二个卷积层输入第一层的输出特征,输出尺度为4*48*96*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第三个卷积层输入第二层的输出特征,输出尺度为4*96*192*2,卷积核大小为4*4,步幅为2,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
第四个卷积层输入第三层的输出特征,输出尺度为4*192*384*1,卷积核大小为4*4,步幅为1,BatchNorm批量标准化,Lrelu激活函数,零填充为1;
最后一个卷积层输入第四层的输出特征,输出尺度为4*384*1*1,卷积核大小为4*4,步幅为1,BatchNorm批量标准化,零填充为1,通过Sigmoid激活函数输出判别结果。
6.如权利要求1所述的一种基于生成对抗网络的图像去噪方法,其特征在于,所述步骤6基于Tensorflow框架完成模型的搭建并在NVIDIA GTX1080的GPU上训练,具体包括:获取训练样本集其中,N=20000为训练样本总数;初始化训练迭代次数T=200,批处理样本数m=4,学习率设置为0.0002;在训练期间,将数据集中的训练数据作为生成器G输入,通过前向传播算法计算输出;将生成器G输出与对应的真实图同时输入判别器D中,利用前向传播算法获得相应输出;计算判别器D损失和生成器G损失Li;训练过程中使用Adma优化算法进行网络参数的优化,其中β1=0.9,以1:1的比例交替优化生成器G和判别器D,利用Adam算法更新生成器的参数:利用Adam算法更新判别器的参数:通过不断地参数调节,将损失函数的权重设置为λa=0.5,λP=1.0,λf=1.0和λs=0.001;根据迭代次数遍历整个训练样本集,保存训练好的网络模型的结构及参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910700818.7A CN110473154B (zh) | 2019-07-31 | 2019-07-31 | 一种基于生成对抗网络的图像去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910700818.7A CN110473154B (zh) | 2019-07-31 | 2019-07-31 | 一种基于生成对抗网络的图像去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110473154A CN110473154A (zh) | 2019-11-19 |
CN110473154B true CN110473154B (zh) | 2021-11-16 |
Family
ID=68509979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910700818.7A Active CN110473154B (zh) | 2019-07-31 | 2019-07-31 | 一种基于生成对抗网络的图像去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110473154B (zh) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047537A (zh) * | 2019-12-18 | 2020-04-21 | 清华大学深圳国际研究生院 | 一种图像去噪中恢复细节的系统 |
CN111190227B (zh) * | 2020-01-09 | 2021-06-04 | 吉林大学 | 基于残差卷积生成对抗模型的低信噪比地震数据消噪方法 |
CN111325239A (zh) * | 2020-01-21 | 2020-06-23 | 上海眼控科技股份有限公司 | 一种基于图像的天气识别的方法及设备 |
WO2021179764A1 (zh) * | 2020-03-10 | 2021-09-16 | Tcl科技集团股份有限公司 | 图像处理模型生成方法、处理方法、存储介质及终端 |
CN111507910B (zh) * | 2020-03-18 | 2023-06-06 | 南方电网科学研究院有限责任公司 | 一种单图像去反光的方法、装置及存储介质 |
CN111383200B (zh) * | 2020-03-30 | 2023-05-23 | 西安理工大学 | 基于生成式对抗神经网络的cfa图像去马赛克方法 |
CN111353995B (zh) * | 2020-03-31 | 2023-03-28 | 成都信息工程大学 | 一种基于生成对抗网络的宫颈单细胞图像数据生成方法 |
CN111598787B (zh) * | 2020-04-01 | 2023-06-02 | 西安电子科技大学 | 生物雷达图像去噪方法、装置、电子设备及其存储介质 |
CN111583135B (zh) * | 2020-04-24 | 2023-04-07 | 华南理工大学 | 一种核预测神经网络蒙特卡罗渲染图像去噪方法 |
CN113643189A (zh) * | 2020-04-27 | 2021-11-12 | 深圳市中兴微电子技术有限公司 | 图像去噪方法、装置和存储介质 |
CN111667424B (zh) * | 2020-05-28 | 2022-04-01 | 武汉大学 | 一种基于无监督的真实图像去噪方法 |
CN111667428B (zh) * | 2020-06-05 | 2024-07-23 | 上饶市纯白数字科技有限公司 | 基于自动搜索的噪声生成方法和装置 |
CN112116601B (zh) * | 2020-08-18 | 2023-04-28 | 河南大学 | 基于生成对抗残差网络的压缩感知采样重建方法及系统 |
CN112070658B (zh) * | 2020-08-25 | 2024-04-16 | 西安理工大学 | 一种基于深度学习的汉字字体风格迁移方法 |
CN112001122B (zh) * | 2020-08-26 | 2023-09-26 | 合肥工业大学 | 基于端到端生成对抗网络的非接触式生理信号测量方法 |
CN112116537B (zh) * | 2020-08-31 | 2023-02-10 | 中国科学院长春光学精密机械与物理研究所 | 图像反射光消除方法及图像反射光消除网络构建方法 |
CN111986240A (zh) * | 2020-09-01 | 2020-11-24 | 交通运输部水运科学研究所 | 基于可见光和热成像数据融合的落水人员检测方法及系统 |
CN112215868B (zh) * | 2020-09-10 | 2023-12-26 | 湖北医药学院 | 基于生成对抗网络的去除手势图像背景的方法 |
CN112132768A (zh) * | 2020-09-30 | 2020-12-25 | 西京学院 | 一种基于多降噪器联合优化降噪的mri图像降噪方法 |
CN112200748A (zh) * | 2020-10-20 | 2021-01-08 | 合肥工业大学 | 一种基于胶囊生成对抗网络的噪声建模的图像盲去噪方法 |
CN112259068B (zh) * | 2020-10-21 | 2023-04-11 | 上海协格空调工程有限公司 | 一种主动降噪空调系统及其降噪控制方法 |
CN112164122B (zh) * | 2020-10-30 | 2022-08-23 | 哈尔滨理工大学 | 一种基于深度残差生成对抗网络的快速cs-mri重建方法 |
CN112270654A (zh) * | 2020-11-02 | 2021-01-26 | 浙江理工大学 | 基于多通道gan的图像去噪方法 |
CN112487914B (zh) * | 2020-11-25 | 2021-08-31 | 山东省人工智能研究院 | 一种基于深度卷积生成对抗网络的ecg降噪方法 |
CN112598759B (zh) * | 2020-12-15 | 2022-09-13 | 太原科技大学 | 抑制低剂量ct图像中伪影噪声的多尺度特征生成对抗网络 |
CN112581396A (zh) * | 2020-12-18 | 2021-03-30 | 南京邮电大学 | 一种基于生成对抗网络的反射消除方法 |
CN112634163A (zh) * | 2020-12-29 | 2021-04-09 | 南京大学 | 基于改进型循环生成对抗网络去图像运动模糊方法 |
CN112634175A (zh) * | 2021-01-05 | 2021-04-09 | 西南石油大学 | 基于双重卷积网络的手机拍摄图像去噪方法 |
CN113096675B (zh) * | 2021-03-31 | 2024-04-23 | 厦门大学 | 一种基于生成式对抗网络的音频风格统一的方法 |
CN115187464A (zh) * | 2021-04-02 | 2022-10-14 | 深圳市奥拓电子股份有限公司 | Micro LED显示图像修复降噪方法装置及系统 |
CN112837247A (zh) * | 2021-04-06 | 2021-05-25 | 哈尔滨理工大学 | 一种融合改进残差网络的gan图像去噪算法 |
CN113158997B (zh) * | 2021-05-22 | 2023-04-18 | 河南工业大学 | 基于深度学习的粮库监控图像去噪方法、装置及介质 |
CN113222960B (zh) * | 2021-05-27 | 2022-06-03 | 哈尔滨工程大学 | 基于特征去噪的深度神经网络对抗防御方法、系统、存储介质及设备 |
CN115442613A (zh) * | 2021-06-02 | 2022-12-06 | 四川大学 | 一种利用gan的基于帧间信息的噪声去除方法 |
CN113240669A (zh) * | 2021-06-11 | 2021-08-10 | 上海市第一人民医院 | 一种基于核磁影像的脊椎图像处理方法 |
CN113723171B (zh) * | 2021-06-16 | 2022-11-11 | 陕西师范大学 | 基于残差生成对抗网络的脑电信号去噪方法 |
CN113487506B (zh) * | 2021-07-06 | 2023-08-29 | 杭州海康威视数字技术股份有限公司 | 基于注意力去噪的对抗样本防御方法、装置和系统 |
CN113744160B (zh) * | 2021-09-15 | 2022-09-02 | 马上消费金融股份有限公司 | 图像处理模型训练方法、图像处理方法、装置及电子设备 |
CN114332446B (zh) * | 2021-10-18 | 2022-07-12 | 北京计算机技术及应用研究所 | 在物理世界下具有旋转鲁棒性的图像对抗样本生成方法 |
CN114399440B (zh) * | 2022-01-13 | 2022-12-13 | 马上消费金融股份有限公司 | 图像处理方法、图像处理网络训练方法、装置及电子设备 |
CN114629592B (zh) * | 2022-02-17 | 2023-05-02 | 深圳市前海新丝路科技有限公司 | 通信电子信号抗干扰优化方法、系统及装置 |
CN114663307B (zh) * | 2022-03-22 | 2023-07-04 | 哈尔滨工业大学 | 基于不确定性网络的集成图像去噪系统 |
CN114757841B (zh) * | 2022-03-30 | 2024-06-25 | 西北核技术研究所 | 一种基于噪声特性的激光诱导荧光图像去噪方法 |
CN114821199A (zh) * | 2022-06-24 | 2022-07-29 | 聊城大学 | 一种美国白蛾幼虫网幕图像数据集增强方法 |
CN115187978A (zh) * | 2022-08-08 | 2022-10-14 | 杭州实在智能科技有限公司 | 一种基于深度学习的复杂背景印章识别方法 |
CN115453619A (zh) * | 2022-09-14 | 2022-12-09 | 中国地质科学院地质力学研究所 | 基于条件生成对抗网络的高分辨率地震成像方法及系统 |
CN116739890B (zh) * | 2023-06-26 | 2024-06-14 | 强联智创(北京)科技有限公司 | 对生成健康血管图像的生成模型进行训练的方法及设备 |
CN117095073A (zh) * | 2023-08-23 | 2023-11-21 | 浙江大学 | 一种基于深度学习的医学图像的去噪方法及装置 |
CN118195940A (zh) * | 2024-03-07 | 2024-06-14 | 北方民族大学 | 一种基于神经网络的泊松图像恢复方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765319A (zh) * | 2018-05-09 | 2018-11-06 | 大连理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN109685072A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 一种基于生成对抗网络的复合降质图像高质量重建方法 |
WO2019090213A1 (en) * | 2017-11-03 | 2019-05-09 | Siemens Aktiengesellschaft | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks |
CN109785243A (zh) * | 2018-11-28 | 2019-05-21 | 西安电子科技大学 | 基于对抗生成网络未配准低剂量ct的去噪方法、计算机 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10572979B2 (en) * | 2017-04-06 | 2020-02-25 | Pixar | Denoising Monte Carlo renderings using machine learning with importance sampling |
CN110020996A (zh) * | 2019-03-18 | 2019-07-16 | 浙江传媒学院 | 一种基于先验知识约束的图像修复方法、系统以及计算机设备 |
CN109902767B (zh) * | 2019-04-11 | 2021-03-23 | 网易(杭州)网络有限公司 | 模型训练方法、图像处理方法及装置、设备和介质 |
-
2019
- 2019-07-31 CN CN201910700818.7A patent/CN110473154B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019090213A1 (en) * | 2017-11-03 | 2019-05-09 | Siemens Aktiengesellschaft | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks |
CN108765319A (zh) * | 2018-05-09 | 2018-11-06 | 大连理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN109785243A (zh) * | 2018-11-28 | 2019-05-21 | 西安电子科技大学 | 基于对抗生成网络未配准低剂量ct的去噪方法、计算机 |
CN109685072A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 一种基于生成对抗网络的复合降质图像高质量重建方法 |
Non-Patent Citations (4)
Title |
---|
Perceptual Losses for Real-Time Style Transfer and Super-Resolution;Justin Johnson et al.;《Computer Vision-ECCV 2016》;20160917;第694-711页 * |
Simultaneous denoising and super-resolution of optical coherence tomography images based on a generative adversarial network;Yongqiang Huang et al.;《OPTICS EXPRESS》;20190429;第27卷(第9期);第1-19页 * |
Unsupervised representation learning with deep convolutional generative adversarial networks;Radford A et al.;《arXiv》;20160107;第1-16页 * |
基于生成式对抗网络的图像修复算法研究;赵立怡;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190115;第23-33页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110473154A (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110473154B (zh) | 一种基于生成对抗网络的图像去噪方法 | |
CN110599409B (zh) | 基于多尺度卷积组与并行的卷积神经网络图像去噪方法 | |
CN111784602B (zh) | 一种生成对抗网络用于图像修复的方法 | |
CN113610719B (zh) | 一种注意力和密集连接残差块卷积核神经网络图像去噪方法 | |
CN106408522A (zh) | 一种基于卷积对神经网络的图像去噪方法 | |
CN112270651B (zh) | 一种基于多尺度判别生成对抗网络的图像修复方法 | |
CN112651917A (zh) | 一种基于生成对抗网络的空间卫星低照度图像增强方法 | |
CN112488934B (zh) | 一种基于cs-tcgan的指静脉图像去噪方法 | |
CN110490816B (zh) | 一种水下异构信息数据降噪方法 | |
CN115147709B (zh) | 一种基于深度学习的水下目标三维重建方法 | |
CN114066747A (zh) | 一种基于光照和反射互补性的低照度图像增强方法 | |
CN115063318A (zh) | 自适应频率分解的低光照图像增强方法与相关设备 | |
CN112801914A (zh) | 一种基于纹理结构感知的二段式图像修复方法 | |
CN111798359A (zh) | 一种基于深度学习的图像去水印方法 | |
CN116523794A (zh) | 一种基于卷积神经网络的低光照图像增强方法 | |
CN113284061A (zh) | 一种基于梯度网络的水下图像增强方法 | |
CN115861094A (zh) | 一种融合注意力机制的轻量级gan水下图像增强模型 | |
CN115272072A (zh) | 一种基于多特征图像融合的水下图像超分辨率方法 | |
CN111476739B (zh) | 水下图像增强方法、系统及存储介质 | |
CN112634168A (zh) | 一种结合边缘信息的图像修复方法 | |
CN117333359A (zh) | 基于可分离卷积网络的山水画图像超分辨率重建方法 | |
CN116563133A (zh) | 基于模拟曝光和多尺度融合的低照度彩色图像增强方法 | |
CN116152107A (zh) | 一种基于细节恢复的单幅图像去雾方法 | |
CN113379641A (zh) | 一种基于自编码卷积神经网络的单幅图像去雨方法及系统 | |
CN113012067A (zh) | 基于Retinex理论和端到端深度网络的水下图像复原方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |