CN114140361A - 融合多级特征的生成式对抗网络图像去雾方法 - Google Patents

融合多级特征的生成式对抗网络图像去雾方法 Download PDF

Info

Publication number
CN114140361A
CN114140361A CN202111514994.5A CN202111514994A CN114140361A CN 114140361 A CN114140361 A CN 114140361A CN 202111514994 A CN202111514994 A CN 202111514994A CN 114140361 A CN114140361 A CN 114140361A
Authority
CN
China
Prior art keywords
image
network
feature map
defogging
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111514994.5A
Other languages
English (en)
Inventor
李佐勇
冯婷
蔡远征
郑祥盘
曾坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minjiang University
Original Assignee
Minjiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minjiang University filed Critical Minjiang University
Priority to CN202111514994.5A priority Critical patent/CN114140361A/zh
Publication of CN114140361A publication Critical patent/CN114140361A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种融合多级特征的生成式对抗网络图像去雾方法。该方法基于深度学习的端到端的去雾算法,在下采样时,针对不同分辨率的有雾图像分别进行特征提取,并将提取的不同的特征图通过SE‑ResNet模块学习,更好地拟合通道间的信息,并防止因网络加深引起性能的退化。将学习后的多级特征图进行拼接,融合更多的图像特征。然后,在上采样时,将下采样融合后的特征图放入SE模块学习,来更好的分配通道权值,增强有用特征。再将学习好的特征图与上采样特征图拼接,融合更多图像信息。最后将网络学习的残差图与输入的有雾图像相加,得到最终的图像去雾结果。实验结果表明,本发明提出的图像去雾方法的去雾性能更佳。

Description

融合多级特征的生成式对抗网络图像去雾方法
技术领域
本发明属于图像处理技术领域,具体涉及一种融合多级特征的生成式对抗网络图像去雾方法。
背景技术
雾霾天气下,相机从场景接收的辐照度沿视线衰减,大气中的浑浊介质会吸收景物图像的光线,导致拍摄到的图像失去对比度和色彩保真度,降低图像的质量,直接影响到诸如视频监控、遥感影像、自动导航与目标识别等任务。因此,通过设计算法模型消除图像中雾霾因素的带来的不利影响,将雾天图像还原成清晰的图像,使得人们能从图像中获取更多所需要的信息。现有的图像去雾算法主要分为两类,即传统图像去雾方法和基于深度学习的去雾方法。
经典的传统去雾方法主要是基于对大气散射模型的构建来获取去雾后图像,但其去雾后的图像整体颜色偏暗沉并且图像边缘容易失真,或者对图像中的天空区域容易失效并且计算量大。由于传统方法求取参数有明显的人为干扰因素,导致去雾效果不太理想,近年来基于深度学习的去雾方法开始兴起。Cai等人[1]提出了一个可训练的网络(DeHazeNet)来估计图像透射率,即输入有雾图像,通过网络输出相应的透射率图。Ren等人[2]设计一个多尺度卷积神经网络架构学习图像特征(MSCNN),先由粗尺度网络估计粗略的场景透射率图,再由精细尺度细化该图。由于大气光值存在人为干扰因素,逐渐出现了不再单独估计透射率和大气光值,而是通过卷积神经网络直接生成去雾结果的网络,即输入有雾图像,通过网络直接输出对应的去雾结果。Li等人[3]首先提出端到端的图像去雾算法(AOD-Net),该算法通过将透射率和大气光值化为一个参数,基于这个参数完成对去雾图像的重构。Ren等人[4]基于编码-解码结构设计了一个端到端的网络(GFN)。该算法首先对给定的有雾图像执行三个预处理操作(即,白平衡,对比度增强,伽马校正)。使用三个预处理结果作为网络输入,并通过网络学习生成相应的特征图,将三个预处理结果与三个特征图融合,以获得最终的图像去雾结果。
基于深度学习的端到端的网络大多是通过学习图形特征来获取图形去雾结果。近年来,生成式对抗网络(GAN)结构在图像-图像的转换中发挥了良好的作用,一些研究人员将这种结构应用于设计图像去雾算法,取得了不错的效果。因此为了获取更多的图形特征来更好的建模有雾图形,本发明提出一个融合多级特征的生成式对抗网络图像去雾算法。
发明内容
本发明的目的在于为了更好的去除图像中的雾气,还原图像细节信息,提供一种融合多级特征的生成式对抗网络图像去雾方法。
为实现上述目的,本发明的技术方案是:一种融合多级特征的生成式对抗网络图像去雾方法,将U-Net的结构嵌入生成式对抗网络的生成器中,提出一种融合多级特征的生成式对抗网络,包括用于生成去雾图像的生成器、用于判别去雾图像与标签图像并反馈结果至生成器的判别器;生成器生成去雾图像方式为:首先,在下采样时,针对不同分辨率的有雾图像分别进行特征提取,并将提取的不同的特征图通过SE-ResNet模块学习;而后,将学习后的多级特征图进行拼接,融合更多图像特征;然后,在上采样时,将融合后的特征图放入SE模块学习,以更好的分配通道权值,增强有用特征;接着,将学习好的特征图与上采样特征图拼接,融合更多图像信息;最后,将网络学习的残差图与输入的有雾图像相加,得到最终的图像去雾结果。
在本发明一实施例中,所述生成器中的卷积核都为3×3。
在本发明一实施例中,所述判别器中,使用9次卷积,每次卷积的卷积核都为5×5,每层的通道数分别为64、64、128、128、256、256、512和512,然后将其折叠成一维数组。
在本发明一实施例中,对于三种分别是256×256、128×128和64×64的分辨率的有雾图像,在下采样时,对每层特征图同等分辨率的有雾图像进行特征提取,然后经过SE-ResNet模块学习,将学习到的特征图与该层原有特征图进行拼接,融合更丰富的图像特征;在下采样第二层中,将下采样中该层原特征图和分辨率为128×128的有雾图像卷积后并经过SE-ResNet模块学习后的特征图进行拼接;在下采样第三和四层中,将三种特征图进行拼接,分别是下采样中该层原特征图、分辨率为128×128的有雾图像卷积并经过SE-ResNet模块学习后的特征图和分辨率为64×64的有雾图像卷积并经过SE-ResNet模块学习后的特征图。
在本发明一实施例中,所述SE-ResNet模块是在残差块中加入SE模块;其中,
残差块结构输入xl和输出xl+1的关系式为:
xl+1=xl+F(xll)
ωl是第l层的权重,F(·)是非线性变换;
SE模块先将输入的特征图经过全局平均池化进行压缩成一维向量后,接着进行激励操作即按全连接层、ReLU层、全连接层、Sigmoid层的顺序组成,更好的构建通道间的相关性,最后通过Scale操作将权重加权到原来的特征上;SE模块通过对通道加权来强调有效信息和淡化无效信息,更好的获取图像特征,提升网络性能。
在本发明一实施例中,所述生成器采用均方差作为损失函数,损失函数公式为:
Figure BDA0003405472180000021
其中,n为图像的像素点数量,y为网络输出的去雾结果,
Figure BDA0003405472180000031
为相应的标签图像。
在本发明一实施例中,所述判别器采用二值交叉熵作为损失函数,判别器公式如下:
Figure BDA0003405472180000032
其中,x代表标签图像,z代表有雾图像,G(z)表示生成器输出的去雾结果,Pdata(x)代表标签图像的数据分布,Pz(z)代表有雾图像的数据分布,E代表这些分布的数学期望,D()代表判别器。
相较于现有技术,本发明具有以下有益效果:
(1)本发明方法将U-Net的结构嵌入生成式对抗网络的生成器中,提出一个融合多级特征的生成式对抗网络图像去雾方法;
(2)本发明方法在提取特征时,不同分辨率的有雾图像进行特征提取,并融合多级特征图来获得更多图像特征;
(3)本发明方法使用SE模块和SE-ResNet模块来进一步学习图像特征和更好的拟合特征图的通道间的相关性,增强有效信息;
本发明方法训练得到模型所生成的去雾图像具有较好的鲁棒性,在无雾与有雾的情况下较之其它六种常见算法均能取得更优的性能,本发明提出的图像去雾方法能更好地提升图像去雾性能。
附图说明
图1为本发明方法流程图。
图2为本发明网络结构图。
图3为本发明残差块结构。
图4为本发明SE-ResNet块结构。
图5为七种图像去雾算法在SOTS中的八张室内有雾图像上获得的图像去雾结果。
图6为七种图像去雾算法在SOTS中的八张室外有雾图像上获得的图像去雾结果。
图7为七种图像去雾算法在六张真实世界有雾图像上获得的图像去雾结果。
图8为无雾图像上的图像去雾结果:第一行为无雾图像,第二行为图像去雾结果。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明一种融合多级特征的生成式对抗网络图像去雾方法,将U-Net的结构嵌入生成式对抗网络的生成器中,提出一种融合多级特征的生成式对抗网络,包括用于生成去雾图像的生成器、用于判别去雾图像与标签图像并反馈结果至生成器的判别器;生成器生成去雾图像方式为:首先,在下采样时,针对不同分辨率的有雾图像分别进行特征提取,并将提取的不同的特征图通过SE-ResNet模块学习;而后,将学习后的多级特征图进行拼接,融合更多图像特征;然后,在上采样时,将融合后的特征图放入SE模块学习,以更好的分配通道权值,增强有用特征;接着,将学习好的特征图与上采样特征图拼接,融合更多图像信息;最后,将网络学习的残差图与输入的有雾图像相加,得到最终的图像去雾结果。
以下为本发明具体实现过程。
如图1所示为本发明方法流程图,受U-Net和生成式对抗网络结构的启发,本发明提出了一个融合多级特征的生成式对抗网络图像去雾方法,该方法的网络模型如图2所示。该模型分为两个部分,一个是生成器,一个是判别器。在生成器中输入有雾图像,然后生成图像去雾结果,再将去雾结果与标签图像输入判别器进行判别,将判别结果反馈至生成器继续训练。
1、网络结构
本发明提出的方法主要对生成器进行改进。整个生成器网络中的卷积核都为3×3。在下采样时,针对三种分辨率的图像进行特征提取,分辨率分别是256×256、128×128和64×64,针对分辨率为128×128图像的三次卷积的步长为1,卷积后的通道数分别为64、128和256,针对分辨率为64×64图像的两次卷积步长为1,卷积后的通道数分别为128和256。分辨率为128×128和64×64的图像卷积后都经过两个SE-ResNet模块学习后,再与该层的其余特征图拼接。下采样过程(图2中用点划线表示)每层特征图的通道数依次为64、128、256和512。最后一层的特征图经过10个SE-ResNet模块学习。然后,进行三次上采样,参数scale_factor都设为2,前两次上采样过程(图2中用虚点线表示)的特征图都要与下采样对应的经过SE模块学习的拼接特征图拼接。最后,将上采样学习到的残差图与输入图像相加,得到图像去雾结果。
在本发明方法的判别器中,使用了9次卷积,每次卷积的卷积核都为5×5,每层的通道数分别为64、64、128、128、256、256、512和512。然后将其折叠成一维数组。
2、下采样
为了获取更丰富的图像特征,对三种不同分辨率的有雾图像进行特征提取,来融合更多的特征图,分别是256×256、128×128和64×64。对于下采样中每层特征图同等分辨率的有雾图像进行特征提取,然后经过SE-ResNet模块学习,将学习到的特征图与该层原有特征图进行拼接,融合更丰富的图像特征。在下采样第二层中,我们将下采样中该层原特征图和分辨率为128×128的有雾图像卷积后并经过SE-ResNet模块学习后的特征图进行拼接。在下采样第三和四层中,我们将三种特征图进行拼接,分别是下采样中该层原特征图、分辨率为128×128的有雾图像卷积并经过SE-ResNet模块学习后的特征图和分辨率为64×64的有雾图像卷积并经过SE-ResNet模块学习后的特征图。
3、SE-ResNet模块
随着网络层数的增加会导致网络性能的退化。而残差网络能防止这种退化。图3是一个残差块结构示例,其中跳跃连接结构将输入与输出相连,组合不同分辨率特征即将浅层的高分辨率特征与深层低分辨率特征相加。
残差块结构输入xl和输出xl+1的关系式为:
xl+1=xl+F(xll)
ωl是第l层的权重,F(·)是非线性变换;
而SE-ResNet模块是在残差块中加入SE(Squeeze-and-Excitation)模块。图4是SE-ResNet模块的结构图。图4中的H、W和C分别表示图片的高、宽和通道数,r表示缩减系数,用来将通道数下降,本发明实验中r设为16。SE模块先将输入的特征图经过全局平均池化进行压缩成一维向量后,接下来就是激励操作,按全连接层、ReLU层、全连接层、Sigmoid层的顺序组成,更好的构建通道间的相关性。最后通过Scale操作(点乘操作)将权重加权到原来的特征上。SE模块通过对通道加权来强调有效信息和淡化无效信息,更好的获取图像特征,提升网络性能。
4、损失函数
损失函数决定了网络训练下降方向,合适的损失函数可以提高网络性能。本发明使用均方差作为网络生成器的损失函数。损失函数公式为:
Figure BDA0003405472180000051
其中,n为图像的像素点数量,y为网络输出的去雾结果,
Figure BDA0003405472180000052
为相应的标签图像。
本发明使用二值交叉熵作为判别器的损失函数,判别器公式如下:
Figure BDA0003405472180000053
其中,x代表标签图像,z代表有雾图像,G(z)表示生成器输出的去雾结果,Pdata(x)代表标签图像的数据分布,Pz(z)代表有雾图像的数据分布,E代表这些分布的数学期望,D()代表判别器。
5、实验数据及评价
为了验证方法的有效性,将通过定性和定量两方面的实验结果来证实。本发明提出的方法将与现有的六种图像去雾算法进行比较,分别是:DCP算法、CAP算法、DeHazeNet算法、MSCNN算法、AOD-Net算法、GFN算法。前两种为传统的图像去雾算法,后四种与本发明提出方法一样是基于深度学习的算法。采用训练和测试网络所使用的RESIDE数据集和评价指标,对网络测试结果进行定性和定量分析,最后对方法的鲁棒性进行测试。
本发明的定量比较使用峰值信噪比(PSNR)和结构相似性(SSIM)两种图像去雾算法通用的评价指标。峰值信噪比是一个衡量图像失真的客观标准,该值越高,则表示图像质量越好。峰值信噪比的数学公式为:
Figure BDA0003405472180000061
Figure BDA0003405472180000062
其中,W和H分别是图像的宽和高,G表示标签图像,y表示网络输出的图像去雾结果。
SSIM是衡量两张图像相似度的指标。SSIM值越高,意味着图像质量越好。SSIM的数学公式为:
Figure BDA0003405472180000063
其中,μ和δ分别表示图像的均值和方差,δG,y表示无雾图像G和网络生成的图像去雾结果y之间的协方差,c1和c2为常量。
6、定量比较
表1和表2分别给出了七种图像去雾算法在室内和室外图片的定量评估结果。其中,测度最高值用粗体表示。
表1 SOTS数据集的室内有雾图像的平均PSNR和SSIM值的定量比较
Figure BDA0003405472180000064
表2 SOTS数据集的室外有雾图像的平均PSNR和SSIM值的定量比较
Figure BDA0003405472180000065
Figure BDA0003405472180000071
7、定性比较
为了进一步定性比较不同算法的去雾效果,图5显示了七种图像去雾算法在SOTS中的四张室内薄雾图像(前四张)和四张室内浓雾图像(后四张)上获得的图像去雾结果。七种图像去雾算法在薄雾图像上都能较好的去除图像雾气,但DCP算法会出现明显的失真,CAP和DeHazeNet算法去雾后的图像明显深于标签图像。MSCNN和AOD-Net算法的去雾图像存在明显雾气,而CAP和DeHazeNet算法与前三种算法相比雾气残留较少,但仍有较明显的存在。GFN和本发明提出的方法的去雾图像相比前五种,更为干净,本发明提出的方法相对于六种对比算法,有更好的去雾效果。
图6显示了七种图像去雾算法在SOTS中的八张室外有雾图像上获得的图像去雾结果。本发明提出的去雾方法更接近标签图像,取得更优的去雾性能,DCP算法有明显失真。CAP和DeHazeNet算法的能较好去除图像中的雾气,但去雾后的结果在整体表观颜色上均深于标签图像。MSCNN和AOD-Net算法的去雾后图像存在明显雾气,去雾效果一般。而采用GFN和本发明方法的去雾后的图像则雾气残留较少。
图7显示了七种图像去雾算法在六张真实世界的有雾图像上获得的图像去雾结果。结果显示本发明方法在去除图像雾气和去雾图像的色彩饱和度上能够取得较好的平衡。DCP算法和CAP算法也有明显的失真,MSCNN和AOD-Net算法的去雾图像雾气存在明显。DeHazeNet、GFN和本发明方法的雾气去除程度较好,但GFN算法去雾后的图像明显过深。
8、鲁棒性检测
为验证本发明方法对无雾图像没有不利影响,本发明分别选取了两张室内和两张室外图像进行比较。图8显示了本发明方法在四张无雾图像上的去雾结果,前两张为室内图像,后两者为室外图像。从图8可以看出,本发明提出的去雾方法不论对室内图像还是室外图像的去雾结果都与原图极为接近,即本发明方法对无雾图像没有明显的不利影响。
参考文献:
[1]He K M,Sun J,Tang X O.Single image haze removal using dark channelprior[C]//Proceedings ofthe IEEE Conference on Computer Vision and PatternRecognition,2009:1956-1963.
[2]Zhu Q,Mai J,Shao L.AFast Single Image Haze RemovalAlgorithm UsingColorAttenuation Prior[J].IEEE Transactions on Image Processing,2015,24(11):3522-3533.
[3]Cai B,Xu X,Jia K,et al.DehazeNet:An End-to-End System for SingleImage Haze Removal[J].IEEE Transactions on Image Processing,2016,25(11):5187-5198.
[4]Ren W.Q,Liu S,Zhang H,et al.Single Image Dehazing via Multi-scaleConvolutional Neural Networks[C]//Proceedings ofthe European Conference onComputer Vision(ECCV),2016:154-169.
[5]Li B.Y,Peng X.L,Wang Z.Y,et al.AOD-Net:All-In-One Dehazing Network[C].Proceedings ofthe IEEE International Conference on Computer Vision(ICCV),2017:4770-4778.
[6]Ren W.Q,Ma L,Zhang J.W,et al.Gated Fusion Network for Single ImageDehazing[C].Proceedings of the IEEE Conference on Computer Vision and PatternRecognition(CVPR),2018:3253-3261.。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (7)

1.一种融合多级特征的生成式对抗网络图像去雾方法,其特征在于,将U-Net的结构嵌入生成式对抗网络的生成器中,提出一种融合多级特征的生成式对抗网络,包括用于生成去雾图像的生成器、用于判别去雾图像与标签图像并反馈结果至生成器的判别器;生成器生成去雾图像方式为:首先,在下采样时,针对不同分辨率的有雾图像分别进行特征提取,并将提取的不同的特征图通过SE-ResNet模块学习;而后,将学习后的多级特征图进行拼接,融合更多图像特征;然后,在上采样时,将融合后的特征图放入SE模块学习,以更好的分配通道权值,增强有用特征;接着,将学习好的特征图与上采样特征图拼接,融合更多图像信息;最后,将网络学习的残差图与输入的有雾图像相加,得到最终的图像去雾结果。
2.根据权利要求1所述的融合多级特征的生成式对抗网络图像去雾方法,其特征在于,所述生成器中的卷积核都为3×3。
3.根据权利要求1所述的融合多级特征的生成式对抗网络图像去雾方法,其特征在于,所述判别器中,使用9次卷积,每次卷积的卷积核都为5×5,每层的通道数分别为64、64、128、128、256、256、512和512,然后将其折叠成一维数组。
4.根据权利要求1所述的融合多级特征的生成式对抗网络图像去雾方法,其特征在于,对于三种分别是256×256、128×128和64×64的分辨率的有雾图像,在下采样时,对每层特征图同等分辨率的有雾图像进行特征提取,然后经过SE-ResNet模块学习,将学习到的特征图与该层原有特征图进行拼接,融合更丰富的图像特征;在下采样第二层中,将下采样中该层原特征图和分辨率为128×128的有雾图像卷积后并经过SE-ResNet模块学习后的特征图进行拼接;在下采样第三和四层中,将三种特征图进行拼接,分别是下采样中该层原特征图、分辨率为128×128的有雾图像卷积并经过SE-ResNet模块学习后的特征图和分辨率为64×64的有雾图像卷积并经过SE-ResNet模块学习后的特征图。
5.根据权利要求1所述的融合多级特征的生成式对抗网络图像去雾方法,其特征在于,所述SE-ResNet模块是在残差块中加入SE模块;其中,
残差块结构输入xl和输出xl+1的关系式为:
xl+1=xl+F(xll)
ωl是第l层的权重,F(·)是非线性变换;
SE模块先将输入的特征图经过全局平均池化进行压缩成一维向量后,接着进行激励操作即按全连接层、ReLU层、全连接层、Sigmoid层的顺序组成,更好的构建通道间的相关性,最后通过Scale操作将权重加权到原来的特征上;SE模块通过对通道加权来强调有效信息和淡化无效信息,更好的获取图像特征,提升网络性能。
6.根据权利要求1所述的融合多级特征的生成式对抗网络图像去雾方法,其特征在于,所述生成器采用均方差作为损失函数,损失函数公式为:
Figure FDA0003405472170000021
其中,n为图像的像素点数量,y为网络输出的去雾结果,
Figure FDA0003405472170000022
为相应的标签图像。
7.根据权利要求1所述的融合多级特征的生成式对抗网络图像去雾方法,其特征在于,所述判别器采用二值交叉熵作为损失函数,判别器公式如下:
Figure FDA0003405472170000023
其中,x代表标签图像,z代表有雾图像,G(z)表示生成器输出的去雾结果,Pdata(x)代表标签图像的数据分布,Pz(z)代表有雾图像的数据分布,E代表这些分布的数学期望,D()代表判别器。
CN202111514994.5A 2021-12-11 2021-12-11 融合多级特征的生成式对抗网络图像去雾方法 Pending CN114140361A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111514994.5A CN114140361A (zh) 2021-12-11 2021-12-11 融合多级特征的生成式对抗网络图像去雾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111514994.5A CN114140361A (zh) 2021-12-11 2021-12-11 融合多级特征的生成式对抗网络图像去雾方法

Publications (1)

Publication Number Publication Date
CN114140361A true CN114140361A (zh) 2022-03-04

Family

ID=80385703

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111514994.5A Pending CN114140361A (zh) 2021-12-11 2021-12-11 融合多级特征的生成式对抗网络图像去雾方法

Country Status (1)

Country Link
CN (1) CN114140361A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114627015A (zh) * 2022-03-15 2022-06-14 南京凯盛国际工程有限公司 一种回转窑火焰图像去沙尘方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114627015A (zh) * 2022-03-15 2022-06-14 南京凯盛国际工程有限公司 一种回转窑火焰图像去沙尘方法

Similar Documents

Publication Publication Date Title
CN111968044B (zh) 基于Retinex和深度学习的低照度图像增强方法
CN111915530B (zh) 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法
CN112233038B (zh) 基于多尺度融合及边缘增强的真实图像去噪方法
CN112184577B (zh) 基于多尺度自注意生成对抗网络的单幅图像去雾方法
Hu et al. Underwater image restoration based on convolutional neural network
CN113673590B (zh) 基于多尺度沙漏密集连接网络的去雨方法、系统和介质
CN110517203B (zh) 一种基于参考图像重建的去雾方法
CN111709888B (zh) 一种基于改进的生成对抗网络的航拍图像去雾方法
CN111539246B (zh) 一种跨光谱人脸识别方法、装置、电子设备及其存储介质
CN116596792B (zh) 一种面向智能船舶的内河雾天场景恢复方法、系统及设备
CN112070688A (zh) 一种基于上下文引导生成对抗网络的单幅图像去雾方法
CN116757986A (zh) 一种红外与可见光图像融合方法及装置
CN115272072A (zh) 一种基于多特征图像融合的水下图像超分辨率方法
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
CN113487509B (zh) 一种像素聚类及透射率融合的遥感图像雾气去除方法
CN113628143A (zh) 一种基于多尺度卷积的加权融合图像去雾方法及装置
Li et al. An end-to-end system for unmanned aerial vehicle high-resolution remote sensing image haze removal algorithm using convolution neural network
CN114140361A (zh) 融合多级特征的生成式对抗网络图像去雾方法
Zheng et al. Overwater image dehazing via cycle-consistent generative adversarial network
CN113421210A (zh) 一种基于双目立体视觉的表面点云重建方法
CN117036182A (zh) 一种单幅图像去雾方法及系统
CN116385293A (zh) 基于卷积神经网络的雾天自适应目标检测方法
CN116862809A (zh) 一种低曝光条件下的图像增强方法
CN117011160A (zh) 一种基于密集循环网络融合注意力机制的单图像去雨方法
CN116542865A (zh) 一种基于结构重参数化的多尺度实时去雾方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination