CN110675328B - 基于条件生成对抗网络的低照度图像增强方法及装置 - Google Patents

基于条件生成对抗网络的低照度图像增强方法及装置 Download PDF

Info

Publication number
CN110675328B
CN110675328B CN201910712561.7A CN201910712561A CN110675328B CN 110675328 B CN110675328 B CN 110675328B CN 201910712561 A CN201910712561 A CN 201910712561A CN 110675328 B CN110675328 B CN 110675328B
Authority
CN
China
Prior art keywords
model
image
low
layer
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910712561.7A
Other languages
English (en)
Other versions
CN110675328A (zh
Inventor
王海峰
陶海军
黄鐄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youzijin Technology Development Co ltd
Original Assignee
Beijing Jushu Digital Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jushu Digital Technology Development Co Ltd filed Critical Beijing Jushu Digital Technology Development Co Ltd
Priority to CN201910712561.7A priority Critical patent/CN110675328B/zh
Publication of CN110675328A publication Critical patent/CN110675328A/zh
Application granted granted Critical
Publication of CN110675328B publication Critical patent/CN110675328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于条件生成对抗网络的低照度图像增强方法及装置,针对在日常的图像采集工作中,由于场景光照条件差或者设备的补光能力不足容易产生低照度图像的问题,采用一个具备编解码功能的卷积神经网络模型(CNN)作为生成模型,同时加入具备二分类功能的CNN作为判别模型,组成生成对抗网络。在模型训练的过程中,以真实的亮图像为条件,依靠判别模型监督生成模型以及结合判别模型与生成模型间的相互博弈,使得网络模型具备更好的低照度图像增强能力。解决了处理后图像的颜色失真和边缘模糊的问题,大大提高了增强后的图像质量,同时图像处理速度快,与其他图像增强方法相比处理时间足够短,能够满足对低照度图像进行实时增强的需求。

Description

基于条件生成对抗网络的低照度图像增强方法及装置
技术领域
本发明涉及计算机图像处理领域,特别涉及基于条件生成对抗网络的低照度图像增强方法及装置。
背景技术
随着科技的发展,视频监控、相机、手机等工具的普及,在如今的生产生活中,人们可以更加方便的获得大量的图像。然而由于受到拍摄场景的光照条件较差或者图像采集设备功能缺乏等因素的影响,非常容易产生低照度图像。这些低照度图像整体成像偏灰暗甚至全暗、信噪比低、使用价值极低,严重影响人们的使用。所以必须采取一些方法处理低照度图像,将低照度图像的内容还原清晰。
过去的几十年里,对于低照度图像增强方法的研究一直在持续。早期的低照度图像增强方法主要由直方图均衡化(HE)和Retinex所主导。随后的一些方法大多是基于这两种方法的改进。这些传统的方法对于低照度图像的处理有一定的效果,但是增强后的图像容易出现颜色失真,边缘模糊等问题。同时,有一些方法在使用过程中还涉及参数调整的问题,应用较为复杂。此外,这类方法对于极低照度的图像增强效果比较差,对大尺寸图像处理速度慢,难以满足实际应用场合的需要。
为了解决传统方法的缺陷,近年来,一些研究开始尝试使用基于深度学习的方法处理低照度图像。不同于传统的单图像对比度增强的方法,深度学习方法利用数据驱动的方法,将大量不同的低照度图像输入模型进行训练,使得深度学习模型具备增强低照度图像的能力。这类方法所使用的模型往往以自动编码器以及卷积神经网络(CNN)两种为主。现有的CNN方法弥补了传统方法的不足,但是还有很大的提升空间。CNN方法采用单个模型独立训练,仅通过损失值判断模型的训练情况,并不能保证模型参数调整到最佳而获得更好的处理效果,并且对于大尺寸图像的处理速度较慢,不能达到对低照度图像的实时增强效果,难以在直接应用到现实的生产和生活环境中。
因此,针对低照度图像的增强问题,如何提高增强后的图像质量,尤其是解决处理后图像的颜色失真、边缘模糊的问题,以及如何加快处理图像的速度,满足低照度图像的实时增强需求,成为亟待解决的技术问题。
发明内容
本发明针对上述技术问题,提出了一种基于条件生成对抗网络的低照度图像增强方法及装置,对低照度图像进行增强处理,以解决处理后图像的颜色失真和边缘模糊的问题,提高增强后的图像质量,同时加快图像的处理速度,以满足对低照度图像的实时增强需求。
为解决上述技术问题,根据本发明的一个方面,提供了基于条件生成对抗网络的低照度图像增强装置,包括:
图像输入装置,用于接收输入图像,所述输入图像为低照度图像和/或其对应的高质量的亮图像;
图像处理装置,采用条件生成对抗网络即CGAN模型对低照度图像进行增强处理得到处理后的增强图像,包括:生成模型单元和判别模型单元;
所述生成模型单元采用卷积神经网络即CNN模型,所述CNN模型包括15层卷积层;所述CNN模型包括一条具有编码功能的缩小路径与一条对称的具有解码功能的放大路径;两条路径相连接构成一个深度为四层的U型结构模型;
采用跳跃连接将两条路径上位于同一层的卷积层相连接;
其中,第二卷积层与第十三卷积层相连接,使得第一、第二、第十三、第十四和第十五的卷积层组成所述U型网络模型的第一层;
第四卷积层与第十一卷积层相连接,使得第三、第四、第十一和第十二卷积层组成所述U型网络模型的第二层;
第六卷积层与第九卷积层相连接,使得第五、第六第九和第十卷积层组成所述U型网络模型的第三层;
第七和第八卷积层组成所述U型网络模型的第四层;
所述判别模型单元为一个二分类CNN模型,所述二分类CNN判别模型包括卷积层、池化层和全连接层;图像输入判别模型后,连续的进行特征提取和下采样操作,使得不同的卷积层提取图像不同尺度的特征;
图像输出装置,输出所述处理后的增强图像。
优选地,所述缩小路径中还包括卷积层与池化操作层;其中,所述池化方法为最大池化,池化窗口大小为2*2,步长为2;每经过一次池化操作,图像缩小为原来的四分之一。
优选地,对于放大路径,采用反卷积操作完成对图像尺寸的复原,同时由卷积层对尺寸复原后的图像做进一步的处理,并且最后一层卷积层作为输出层输出最终增强后的图像数据。
优选地,低照度图像输入判别模型后,先连续的进行特征提取和下采样操作,再经过两个神经元个数分别为256和1的全连接层将卷积层提取的特征汇总输出;通过最终的输出值的大小,判别模型判别输入图像的真伪。
优选地,在生成模型单元和判别模型单元中加入批标准化BN(BatchNormalization)层对生成模型和判别模型进行改进,以避免所述生成模型和判别模型在训练时容易造成的梯度消失和爆炸。
优选地,在每个批标准化层后加入激活层,使用渗漏整流线性单元(Leaky ReLU)作为激活函数,其中函数的负值斜率设为0.2。
优选地,网络模型的损失函数由GAN损失函数和用于计算图像间距离的L1损失函数两部分组成。
优选地,所述GAN损失函数为交叉熵损失函数,分为两部分;第一部分用于判别模型,采用交叉熵损失函数对输入的图像进行分类;第二部分用于生成模型,生成模型需要使得判别模型将生成的图像判别为真,第二部分GAN损失函数用于实现该目的。
优选地,L1损失函数用于生成模型,以减小处理后的低照度图像与参考图像的距离。
优选地,生成模型的损失函数Gloss和判别模型的损失函数Dloss分别写成如下形式:
Figure BDA0002154275080000041
Figure BDA0002154275080000042
其中,G()表示生成模型,D()表示判别模型;Ii dark表示待处理的低照度图像,对应于该低照度图像的高质量亮图像为Ii light,其中i表示图像中的像素点,总和为N;CE()表示经过sigmoid函数激活之后的交叉熵函数,其具体表达式为:
CE(x,z)=max(x,0)-x*z+ln(1+e-||x||)  (5)
其中,x表示输入的数据,z表示该数据的标签。本发明中增强后图像的标签为0,高质量亮图像的标签为1。
根据本发明的另一个方面,提供了基于条件生成对抗网络的低照度图像增强方法,所述方法包括如下步骤:
S1、由图像输入装置接收输入图像,选取一组图像,所述图像包括一张低照度图像和其对应的高质量的亮图像;将所述低照度图像输入生成模型;
S2、根据损失函数计算输出图像与所述其对应的高质量的亮图像的差距,优化器对生成模型的参数进行调整,输出增强后图像;
S3、输出的增强后图像与其对应的高质量的亮图像输入判别模型进行判别;所述判别模型提取图像特征,所述其对应的高质量的亮图像是真实的亮图像,通过所述真实的亮图像与所述增强后图像间的特征差异判断出真伪,反馈给生成模型,从而改善生成模型;
S4、反复执行步骤S2和S3,生成模型与判别模型相互对抗,最终模型之间达到平衡,从而完成训练,得到训练完成的生成模型;
S5、使用模型增强图像的过程中,判别模型不参与处理,仅将低照度图像输入已经训练完成的生成模型,不用提供相对应的高质量亮图像,由已经训练完成的生成模型输出增强后的图像。
优选地,所述改善后的生成模型所增强的低照度图像是比前一次处理的图像更加逼真的图像,据此调整判别模型的判别能力。
本发明的有益效果:
1、在本发明方法使用过程中,无需人工调节参数,图像输入模型后端到端处理并输出结果。
2、将本发明方法与现有方法进行比较。主观上,利用本发明方法增强的图像在亮度、清晰度以及颜色还原度等方面有了较大的提升。客观上,利用图像质量评价指标:峰值信噪比、直方图相似度和结构相似性进行比较,本发明方法比其他方法的最优值分别提高了0.7dB、3.9%和8.2%。在处理时间上,本发明方法处理图像的速度远远超过现有的传统方法,可达到实时增强的要求。
3、通过实验比较了本发明方法与现有方法对于低照度图像的处理效果,本发明方法具有更优的处理效果,同时具有更快的处理速度。
附图说明
附图示出了本发明的示例性实施方式,并与其说明一起用于解释本发明的原理,其中包括了这些附图以提供对本发明的进一步理解,并且附图包括在本说明书中并构成本说明书的一部分。通过结合附图对本发明的实施例进行详细描述,本发明的上述和其它目的、特征、优点将更加清楚。
图1是模型训练流程图;
图2是网络模型使用流程图
图3是网络模型结构;
图4是网络模型参数细节图;
图5是全网络模型与仅生成模型处理结果的客观对比图,其中,(a)是SSIM变化曲线图,(b)是PSNR变化曲线图;
图6是全网络模型与仅生成模型处理结果的主观对比图;
图7是各种不同方法处理结果的主观比较图;
图8是不同方法处理特殊低照度图像的处理结果。
具体实施方式
下面结合附图和实施方式对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施方式仅用于解释相关内容,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分。
需要说明的是,在不冲突的情况下,本发明中的实施方式及实施方式中的特征可以相互组合。下面将参考附图并结合实施方式来详细说明本发明。
生成对抗网络(GAN)是一种特殊的深度学习网络模型,由生成模型和判别模型组成。噪声数据输入生成模型后产生数据样本(数据样本可以是图像、文本和语音信号等),判别模型区分真实数据样本和生成的数据样本。生成模型不断更新网络使得判别模型无法分辨出生成的数据样本,而判别模型也在不断更新网络以获得更准确的判断能力,模型间的相互博弈使得两个模型达到一个动态均衡,从而使整个模型获得好的输出。GAN的数学模型表示为:
Figure BDA0002154275080000071
其中,式(1)的等号左侧符号表示生成模型网络损失最小而判别模型网络鉴别生成图像真伪的能力最大。G表示生成模型,D表示判别模型,z表示输入的噪声数据,z服从Pz分布,x表示真实的数据,x服从Pdata分布,G(z)表示噪声z通过生成模型生成的数据样本,D(x)与D(G(z))表示判别模型分别对真实的数据样本与生成的数据样本进行判别。在模型训练过程中,生成模型的调整其参数使D(G(z))的值增大,而判别模型调整其参数使D(x)的值增大,D(G(z))的值减小。最终两个模型达到动态平衡,完成训练。E表示分布函数,log为对数函数。
由于原始的GAN在训练过程中没有额外的条件进行约束,所以生成的数据样本非常自由,凡是接近或者符合真实数据分布的数据样本都会被生成。使用原始GAN模型产生的结果可能是处理后的图像的亮度被增加了,但图像的内容却发生了改变。因此,需要添加额外的约束条件以解决图像内容改变的问题。
采用条件生成对抗网络(CGAN)对GAN进行扩展,通过向GAN的生成模型和判别模型中添加额外的约束条件,从而起到了监督GAN的作用,从而控制数据样本的输出,使网络转变成有监督的学习。CGAN的数学模型表示为:
Figure BDA0002154275080000072
其中,y表示给予网络的约束条件,式(2)的等号左侧符号表示生成模型网络损失最小而判别模型网络鉴别生成图像真伪的能力最大。G表示生成模型,D表示判别模型,z表示输入的噪声数据,z服从Pz分布,x表示真实的数据,x服从Pdata分布,G(z|y)表示噪声z通过生成模型输入时额外增加了条件y生成的数据样本,D(x|y)与D(G(z|y))表示判别模型分别在输入时额外增加了条件y的情况下对真实的数据样本与生成的数据样本进行判别。在模型训练过程中,生成模型的调整其参数使D(G(z|y))的值增大,而判别模型调整其参数使D(x|y)的值增大,D(G(z|y))的值减小。最终两个模型达到动态平衡,完成训练。E表示分布函数,log为对数函数。可见(2)式与(1)式相比,只在生成模型和判别模型输入时额外增加了条件y。本发明中条件y是低照度图像所对应的高质量亮图像。由于提供了对应的高质量亮图像,使得生成模型在训练过程受到约束,生成模型在训练过程中除了需要尽量对抗博弈过判别模型外,还得使处理后的图像接近所提供的高质量亮图像。因此额外的条件控制了增强后的图像在内容上不会被改变。
基于CGAN的低照度图像增强方法通过训练大量的图像使模型获得处理低照度图像的能力。网络模型分为生成模型和判别模型两部分,生成模型用于对低照度图像进行处理,判别模型用于对处理后的图像进行真假判别。使用两种不同结构的卷积神经网络模型(CNN)作为生成模型和判别模型。
整个训练过程由图1所示,图中将生成模型和判别模型的优化过程整合。训练过程为:首先选取一组图像,包括一张低照度图像和其对应的高质量的亮图像。训练时将低照度图像输入生成模型,图像在模型中进行一系列增强变换操作后输出,根据损失函数计算输出图像与给出的对应亮图像的差距,优化器会对生成模型的参数进行调整。与此同时输出的增强后图像与该幅亮图像输入判别模型进行判别。判别模型提取图像特征,通过真实的亮图像与增强后图像间的特征差异判断出真伪,反馈给生成模型,从而使得生成模型进一步的改善。改善后的生成模型所增强的低照度图像是比前一次处理的图像更加逼真的图像,从而使得判别模型进一步调整其判别能力。反复这一过程,生成模型与判别模型相互对抗,最终模型之间达到平衡,从而完成训练。
图2是网络模型使用流程图。在使用模型增强图像的过程中,判别模型不参与处理,仅将低照度图像输入已经训练完成的生成模型,不提供相对应的高质量亮图像,生成模型端到端处理并输出增强后的图像。由于在训练过程中判别模型的监督以及两组模型间的对抗关系,使得CGAN方法相比于使用一组CNN模型训练处理的方法,更容易使模型的参数调整到最佳,以获得更好的处理效果。
网络模型结构如图3所示。网络模型分成生成模型和判别模型两部分。生成模型采用CNN模型,由一条具有编码功能的缩小路径与一条对称的具有解码功能的放大路径组成;两条路径相连接构成一个深度为四层的U型结构模型。
跳跃连接将两条路径上位于同一层的卷积层相连接。编号为2的卷积层与编号为13的卷积层相连接,使得编号为1,2,13,14,15的卷积层组成了U型网络模型的第一层。
编号为4的卷积层与编号为11的卷积层相连接,使得编号为3,4,11,12的卷积层组成了U型网络模型的第二层。
编号为6的卷积层与编号为9的卷积层相连接,使得编号为5,6,9,10的卷积层组成了U型网络模型的第三层。
第四层则是由连续的编号为7,8的卷积层构成。
同时设计一个二分类CNN作为判别模型。判别模型由卷积层、池化层和全连接层组成。图像输入判别模型后,连续的进行特征提取和下采样操作,使得不同的卷积层可以提取图像不同尺度的特征。
缩小路径中包括了卷积层与池化操作。其中,池化方法为最大池化,池化窗口大小为2*2,步长为2。每经过一次池化操作,图像缩小为原来的四分之一。虽然图像的尺寸大幅度减小,但池化后的图像仍然保留了原图像的最大信息,同时由于每一层的卷积层所处理的图像尺寸减小,使得网络的训练速度以及模型的处理速度加快。对应放大路径,反卷积操作完成了对图像尺寸的复原,同时也有卷积层对尺寸复原后的图像进一步的处理,并且最后一层卷积层作为输出层输出了最终增强后的图像。另外,每一层放大路径上的卷积层与位于同一层的缩小路径上的卷积层进行跳跃连接,跳跃连接将模型中浅层与深层的网络相连接,用于解决梯度在反向传播的过程中难以流动到浅层网络而造成梯度消失的问题。生成模型由15层卷积层连接,也属于深度CNN模型,在模型中加入跳跃连接使梯度传导更加容易。此外,跳跃连接可以有效的将缩小路径上的浅一层卷积提取的特征与放大路径上的深一层卷积提取的特征相融合,使模型获得更好的特征提取能力,同时也可以减少放大路径在解码时产生的损失。本发明模型中的判别模型是一个判别真伪的二分类CNN模型,由卷积层,池化层和全连接层组成。图像输入判别模型后,先连续的进行特征提取和下采样操作,再经过两个神经元个数分别为256和1的全连接层将卷积层提取的特征汇总输出。通过最终的输出值的大小,判别模型判别输入图像的真伪。为了改善GAN难以训练的问题,本发明采用在生成模型和判别模型中加入批标准化BN(Batch Normalization)层对GAN模型进行改进的方法,以避免模型在训练时容易造成的梯度消失和爆炸。同时为了增加模型的非线性性,进一步对GAN模型进行改进,在每个批标准化层后加入激活层,使用渗漏整流线性单元Leaky ReLU作为激活函数,其中函数的负值斜率设为0.2。图4的网络模型参数细节图给出了具体参数,包括各卷积层中卷积核数量、尺寸等参数。
网络模型的损失函数由GAN损失函数和用于计算图像间距离的L1损失函数两部分组成。GAN损失函数为交叉熵损失函数,分为两部分。第一部分用于判别模型,由于判别模型是一个二分类器,需要通过交叉熵函数对输入的图像进行分类。第二部分用于生成模型,生成模型需要使得判别模型将生成的图像判别为真,所以第二部分GAN损失用于实现该目的。L1损失函数用于生成模型,目的为了减小处理后的低照度图像与参考图像的距离,有拟合图像的作用。
如果用x1表示输入模型的图像,ωg为生成模型参数,ωd为判别模型参数,则生成模型表示为G(x1g),判别模型表示为D(x1d)。
生成模型的损失函数Gloss和判别模型的损失函数Dloss可以分别写成如下形式:
Figure BDA0002154275080000111
Figure BDA0002154275080000112
其中,G()表示生成模型,D()表示判别模型;Ii dark表示待处理的低照度图像,对应于该低照度图像的高质量亮图像为Ii light,其中i表示图像中的像素点,总和为N;CE()表示经过sigmoid函数激活之后的交叉熵函数,其具体表达式为:
CE(x,z)=max(x,0)-x*z+ln(1+e-||x||)  (5)
其中,x表示输入的数据,z表示该数据的标签。本发明中增强后图像的标签为0,高质量亮图像的标签为1。
为了验证本发明方法的有效性,实验使用的图像数据是Cai等人(2018)提供的多曝光度图像数据集。该数据集中的图像拍摄于室内以及室外,通过调节相机的EV设置来改变曝光度,从而获得同一幅图像一系列不同低照度的成像。同时该数据集还提供了与每组低照度图像相对应的高质量亮图像作为参考。在该数据集中选取180张图像作为训练集,60张图像作为测试集。但是由于多曝光度图像数据集中的图像尺寸较大,不方便直接输入模型进行训练,所以在训练图像之前,本发明首先在每张训练图像中随机裁剪了100个256*256大小的图像块,同时随机对部分图像块进行左右或上下翻转来增加训练图像的多样性。而用于测试的图像尺寸均调整为900*600像素。
实验所用计算机GPU配置为NVidia Tesla P100,CPU配置为Intel Core i5-4200H。训练所用的深度学习框架为Tensorflow,批大小为30,Epoch为500次。生成模型和判别模型均使用ADAM优化器进行优化,该优化器的一阶矩估计的指数衰减率设为0.5,二阶矩估计的指数衰减率设为0.999,生成模型的学习率为0.002,判别模型的学习率为0.0004,生成模型和判别模型交替优化。
图5记录了处理图像的峰值信噪比(PSNR)和结构相似性(SSIM)经过100个Epoch的变化曲线。可以看出,随着Epoch次数逐渐增加,包含判别模型的整体网络模型所处理图像的两项评价指标要高于单独的生成模型。这表明在训练过程中,判别模型对生成模型起到了监督的作用,进一步优化了生成模型的参数调整,使得生成模型具备更好的增强效果。
图6为全网络模型与仅生成模型处理结果的主观对比图,图6展示了处理后的图像,其中,(a)组表示低照度图像,(b)组为低照度图像对应的高质量参考图像,(c)组表示仅生成模型处理后的图像,(d)组为全网络模型处理后的图像。通过比较可以看出(d)组全网络模型处理的图像更接近于(b)组的参考图像,效果要优于(c)组仅生成模型处理的图像。由此可见,与CNN相比,CGAN方法效果更优。
图7展示了各种不同方法处理结果的主观比较的示例,并对图像细节进行了放大,其中,(a)为低照度图像,(b)为高质量亮图像,(c)为采用MSRCR方法处理的图像,(d)为采用HE方法处理的图像,(e)为采用DHE方法处理的图像,(f)为采用JED方法处理的图像,(g)为采用LIME方法处理的图像,(h)为采用本发明方法处理的图像。通过图7可以看出,本发明整体的处理效果理想,特别是在颜色还原以及细节的处理上,图像颜色还原度高、细节清晰。
为了检验本发明增强方法的处理速度,本发明对于不同方法处理时间进行客观比较,其中采用MSRCR方法的处理时间为0.686s,采用HE方法的处理时间为0.081s,采用DHE方法的处理时间为34.632s,采用JED方法的处理时间为13.346s,采用LIME方法的处理时间为0.454s,而采用本发明的图像增强方法的处理时间为0.030s。各方法使用条件如下:本发明方法使用PYTHON语言,于GPU计算。方法HE,DHE使用PYTHON语言,于CPU计算。方法MSRCR,LIME和JED使用Matlab语言,于CPU计算。由于借助了GPU的加速计算,所以基于GPU处理的方法所用时间要明显小于基于CPU运算的方法。可见,采用本发明的图像增强方法处理时间短、速度快,具有较高的实时性,能够满足图像实时处理的需求。
对于拍摄的照片中存在既有暗的区域又有亮的区域。如图8所示,其中,(a)为低照度图像,(b)为高质量亮图像,(c)为采用MSRCR方法处理的图像,(d)为采用HE方法处理的图像,(e)为采用DHE方法处理的图像,(f)为采用JED方法处理的图像,(g)为采用LIME方法处理的图像,(h)为采用本发明方法处理的图像。可见,对于如其中(a)所示的图像,虽然该图像于建筑物内拍摄,但是场景中有部分建筑物以外的内容,建筑物内的区域属于暗的区域,而建筑物外的区域属于亮的区域。对于此类情况,最好的处理结果是只针对暗的区域进行增强,减少亮的区域被二次增强从而导致过亮的情况出现。然而现有一些方法对于此类低照度图像的处理效果并不好,在增强暗区域的同时过度增强了亮的区域,或者虽然控制了亮区域没有过多的增强,但是对于暗区域的处理会明显不足。而采用本发明的增强方法对于图像中已经亮的区域没有进一步过多的增强,同时对于暗区域的增强效果也比较理想。这是因为:第一,在用于训练模型的图像中,本发明参杂了一些亮度适中的图像,通过这样的处理对过度增强亮区域的情况进行了限制,增加了模型的鲁棒性;第二,判别模型在训练的过程中会将亮区域过度增强的图像也判定为假,从而抑制了生成模型对于图像中亮区域的过度处理。因此,基于条件生成对抗网络的低照度图像增强方法对既有暗的区域又有亮的区域的低照度图像处理效果很好。
综上所述,本发明的基于条件生成对抗网络的低照度图像增强方法及装置,首先,能够对低照度图像进行增强,解决了处理后图像的颜色失真和边缘模糊的问题,大大提高了增强后的图像质量;其次,大大加快了处理图像的速度,满足了低照度图像的实时增强需求。
至此,已经结合附图所示的优选实施方法描述了本发明的技术方案,但是,本领域技术人员应当理解,上述实施方式仅仅是为了清楚地说明本发明,而并非是对本发明的范围进行限定,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (8)

1.一种基于条件生成对抗网络的低照度图像增强装置,其特征在于,包括:
图像输入装置,用于接收输入图像,所述输入图像为低照度图像和/或其对应的高质量的亮图像;
图像处理装置,采用条件生成对抗网络即CGAN模型对低照度图像进行增强处理得到处理后的增强图像,包括:生成模型和判别模型;所述生成模型采用卷积神经网络即CNN模型,所述CNN模型包括15层卷积层;所述CNN模型包括一条具有编码功能的缩小路径与一条对称的具有解码功能的放大路径;两条路径相连接构成一个深度为四层的U型网络模型;采用跳跃连接将两条路径上位于同一层的卷积层相连接;其中,第二卷积层与第十三卷积层相连接,使得第一、第二、第十三、第十四和第十五的卷积层组成所述U型网络模型的第一层;第四卷积层与第十一卷积层相连接,使得第三、第四、第十一和第十二卷积层组成所述U型网络模型的第二层;第六卷积层与第九卷积层相连接,使得第五、第六、第九和第十卷积层组成所述U型网络模型的第三层;第七和第八卷积层组成所述U型网络模型的第四层;所述判别模型为一个二分类CNN判别模型,所述二分类CNN判别模型包括卷积层、池化层和全连接层;图像输入二分类CNN判别模型后,连续地进行特征提取和下采样操作,使得不同的卷积层提取图像不同尺度的特征;以及
图像输出装置,输出所述处理后的增强图像,
其中,
U型网络模型的损失函数由GAN损失函数和用于计算图像间距离的L1损失函数两部分组成;
所述GAN损失函数为交叉熵损失函数,分为两部分;第一部分用于判别模型,采用交叉熵损失函数对输入的图像进行分类;第二部分用于生成模型,生成模型需要使得判别模型将生成的图像判别为真,第二部分的GAN损失函数用于实现该目的;
L1损失函数用于生成模型,以减小处理后的低照度图像与参考图像的距离;
生成模型的损失函数Gloss和判别模型的损失函数Dloss分别为如下:
Figure FDA0004145346780000021
Figure FDA0004145346780000022
其中,G()表示生成模型,D()表示判别模型;Ii dark表示待处理的低照度图像,对应于该低照度图像的高质量亮图像为Ii light,其中i表示图像中的像素点,总和为N;ωg为生成模型参数;ωd为判别模型参数;CE()表示经过sigmoid函数激活之后的交叉熵函数,其具体表达式为:
CE(x,z)=max(x,0)-x*z+ln(1+e-||x||)
其中,x表示输入的数据,z表示该数据的标签,增强后图像的标签为0,高质量亮图像的标签为1。
2.根据权利要求1所述的基于条件生成对抗网络的低照度图像增强装置,其特征在于,
所述缩小路径中还包括卷积层与池化操作层;其中,所述池化操作层的池化方法为最大池化,池化窗口大小为2*2,步长为2;每经过一次池化操作,图像缩小为原来的四分之一。
3.根据权利要求1所述的基于条件生成对抗网络的低照度图像增强装置,其特征在于,
对于放大路径,采用反卷积操作完成对图像尺寸的复原,同时由卷积层对尺寸复原后的图像做进一步的处理,并且最后一层卷积层作为输出层输出最终增强后的图像数据。
4.根据权利要求1所述的基于条件生成对抗网络的低照度图像增强装置,其特征在于,
低照度图像输入判别模型后,先连续地进行特征提取和下采样操作,再经过两个神经元个数分别为256和1的全连接层将卷积层提取的特征汇总输出;通过最终的输出值的大小,判别模型判别输入图像的真伪。
5.根据权利要求1-4中任一项所述的基于条件生成对抗网络的低照度图像增强装置,其特征在于,
在生成模型和判别模型中加入批标准化层对生成模型和判别模型进行改进,以避免所述生成模型和判别模型在训练时容易造成的梯度消失和爆炸。
6.根据权利要求5所述的基于条件生成对抗网络的低照度图像增强装置,其特征在于,
在每个批标准化层后加入激活层,使用渗漏整流线性单元作为激活函数,其中激活函数的负值斜率设为0.2。
7.一种基于条件生成对抗网络的低照度图像增强方法,其特征在于,包括:
S1、由图像输入装置接收输入图像,选取一组图像,所述一组图像包括一张低照度图像和其对应的高质量的亮图像;将所述低照度图像输入生成模型;
S2、根据损失函数计算输出图像与所述其对应的高质量的亮图像的差距,优化器对生成模型的参数进行调整,输出增强后图像;
S3、输出的增强后图像与其对应的高质量的亮图像输入判别模型进行判别;所述判别模型提取图像特征,所述高质量的亮图像是真实的亮图像,通过所述真实的亮图像与所述增强后图像之间的特征差异判断出真伪,反馈给生成模型,从而改善生成模型;
S4、反复执行步骤S2和S3,生成模型与判别模型相互对抗,最终模型之间达到平衡,从而完成训练,得到训练完成的生成模型;
S5、使用模型增强图像的过程中,判别模型不参与处理,仅将低照度图像输入已经训练完成的生成模型,不用提供相对应的高质量的亮图像,由已经训练完成的生成模型输出增强后的图像;
其中,
网络模型的损失函数由GAN损失函数和用于计算图像间距离的L1损失函数两部分组成;
所述GAN损失函数为交叉熵损失函数,分为两部分;第一部分用于判别模型,采用交叉熵损失函数对输入的图像进行分类;第二部分用于生成模型,生成模型需要使得判别模型将生成的图像判别为真,第二部分的GAN损失函数用于实现该目的;
L1损失函数用于生成模型,以减小处理后的低照度图像与参考图像的距离;
生成模型的损失函数Gloss和判别模型的损失函数Dloss分别为如下:
Figure FDA0004145346780000041
Figure FDA0004145346780000042
其中,G()表示生成模型,D()表示判别模型;Ii dark表示待处理的低照度图像,对应于该低照度图像的高质量亮图像为Ii light,其中i表示图像中的像素点,总和为N;ωg为生成模型参数;ωd为判别模型参数;CE()表示经过sigmoid函数激活之后的交叉熵函数,其具体表达式为:
CE(x,z)=max(x,0)-x*z+ln(1+e-||x||)
其中,x表示输入的数据,z表示该数据的标签,增强后图像的标签为0,高质量亮图像的标签为1。
8.根据权利要求7所述的基于条件生成对抗网络的低照度图像增强方法,其特征在于,改善后的生成模型所增强的低照度图像是比前一次处理的图像更加逼真的图像,据此调整判别模型的判别能力。
CN201910712561.7A 2019-08-02 2019-08-02 基于条件生成对抗网络的低照度图像增强方法及装置 Active CN110675328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910712561.7A CN110675328B (zh) 2019-08-02 2019-08-02 基于条件生成对抗网络的低照度图像增强方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910712561.7A CN110675328B (zh) 2019-08-02 2019-08-02 基于条件生成对抗网络的低照度图像增强方法及装置

Publications (2)

Publication Number Publication Date
CN110675328A CN110675328A (zh) 2020-01-10
CN110675328B true CN110675328B (zh) 2023-04-28

Family

ID=69068698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910712561.7A Active CN110675328B (zh) 2019-08-02 2019-08-02 基于条件生成对抗网络的低照度图像增强方法及装置

Country Status (1)

Country Link
CN (1) CN110675328B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242868B (zh) * 2020-01-16 2023-05-02 重庆邮电大学 暗视觉环境下基于卷积神经网络的图像增强方法
CN111383429A (zh) * 2020-03-04 2020-07-07 西安咏圣达电子科技有限公司 建筑工地工人着装检测方法、系统、装置、存储介质
CN111861949B (zh) * 2020-04-21 2023-07-04 北京联合大学 一种基于生成对抗网络的多曝光图像融合方法及系统
CN111968044B (zh) * 2020-07-16 2023-08-11 中国科学院沈阳自动化研究所 基于Retinex和深度学习的低照度图像增强方法
CN111915526B (zh) * 2020-08-05 2024-05-31 湖北工业大学 一种基于亮度注意力机制低照度图像增强算法的摄影方法
CN111915525B (zh) * 2020-08-05 2024-03-01 湖北工业大学 基于改进深度可分离生成对抗网络的低照度图像增强方法
CN112053293A (zh) * 2020-08-10 2020-12-08 广州工程技术职业学院 生成对抗网络训练方法、图像亮度增强方法、装置和介质
CN111951168B (zh) * 2020-08-25 2023-04-07 Oppo(重庆)智能科技有限公司 图像处理方法、图像处理装置、存储介质与电子设备
CN112287779B (zh) * 2020-10-19 2022-03-25 华南农业大学 一种低光照度图像自然光照度补强方法及应用
CN112819707B (zh) * 2021-01-15 2022-05-03 电子科技大学 一种端到端抗块效应低照度图像增强方法
CN113269701B (zh) * 2021-05-08 2024-04-26 大连海事大学 一种基于注意力引导和核选择机制的低照度图像增强方法
CN113449811B (zh) * 2021-07-16 2022-05-13 桂林电子科技大学 一种基于ms-wsda的低照度目标检测方法
CN114926348B (zh) * 2021-12-22 2024-03-01 天翼数字生活科技有限公司 一种去除低照度视频噪声的装置和方法
CN114913086B (zh) * 2022-05-05 2023-05-02 上海云思智慧信息技术有限公司 基于生成对抗网络的人脸图像质量增强方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648197A (zh) * 2018-04-12 2018-10-12 天津大学 一种基于图像背景掩膜的目标候选区域提取方法
CN109636754A (zh) * 2018-12-11 2019-04-16 山西大学 基于生成对抗网络的极低照度图像增强方法
CN109993804A (zh) * 2019-03-22 2019-07-09 上海工程技术大学 一种基于条件生成对抗网络的道路场景去雾方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648197A (zh) * 2018-04-12 2018-10-12 天津大学 一种基于图像背景掩膜的目标候选区域提取方法
CN109636754A (zh) * 2018-12-11 2019-04-16 山西大学 基于生成对抗网络的极低照度图像增强方法
CN109993804A (zh) * 2019-03-22 2019-07-09 上海工程技术大学 一种基于条件生成对抗网络的道路场景去雾方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Low-light Image Enhancement Algorithm Based on Retinex and Generative Adversarial Network;Shi Yangming等;《arXiv》;20190614;第1-9页 *
基于图像融合和深度学习的手掌静脉图像增强方法;袁玲;《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》;20190115;参见第4章 *
基于条件生成对抗网络的图像去雾算法;梁毓明等;《光子学报》;20190327(第05期);第120-128页 *

Also Published As

Publication number Publication date
CN110675328A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
CN110675328B (zh) 基于条件生成对抗网络的低照度图像增强方法及装置
US20220188999A1 (en) Image enhancement method and apparatus
WO2021164731A1 (zh) 图像增强方法以及图像增强装置
US20230214976A1 (en) Image fusion method and apparatus and training method and apparatus for image fusion model
CN108520504B (zh) 一种基于生成对抗网络端到端的模糊图像盲复原方法
WO2021164234A1 (zh) 图像处理方法以及图像处理装置
CN111915525B (zh) 基于改进深度可分离生成对抗网络的低照度图像增强方法
CN110610463A (zh) 一种图像增强方法及装置
Yan et al. Enhanced network optimized generative adversarial network for image enhancement
CN111292264A (zh) 一种基于深度学习的图像高动态范围重建方法
CN111161178A (zh) 基于生成式对抗网络的单幅低光图像增强方法
CN110728633A (zh) 多曝光度高动态范围反色调映射模型构建方法及装置
CN112348747A (zh) 图像增强方法、装置及存储介质
CN111047543A (zh) 图像增强方法、装置和存储介质
CN113159019B (zh) 一种基于光流变换的暗光视频增强方法
CN111242911A (zh) 一种基于深度学习算法确定图像清晰度的方法及系统
CN113822830A (zh) 基于深度感知增强的多曝光图像融合方法
CN112070703B (zh) 一种仿生机器鱼水下视觉图像增强方法及系统
CN115731597A (zh) 一种人脸口罩掩膜图像自动分割与修复管理平台及方法
CN110689478B (zh) 图像风格化处理方法、装置、电子设备及可读介质
CN112102175A (zh) 图像对比度的增强方法、装置、存储介质及电子设备
Fu et al. Low-light image enhancement base on brightness attention mechanism generative adversarial networks
CN117611467A (zh) 一种能同时平衡不同区域细节和亮度的低光图像增强方法
Chen et al. Perception-and-Cognition-Inspired Quality Assessment for Sonar Image Super-Resolution
CN117974459A (zh) 一种融合物理模型和先验的低照度图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231011

Address after: Room 3A15, Building E, No. 33 Dongqi Road, Jiangning District, Nanjing City, Jiangsu Province, 211103 (Nanjing Dongshan Headquarters Park)

Patentee after: Nanjing Denai Data Technology Co.,Ltd.

Address before: Room 402, Building 5, Yard 1, Shangdi East Road, Haidian District, Beijing, 100085

Patentee before: Beijing Vast Digital Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231205

Address after: No. 323 Zhuxinzhuang, Shigezhuang Street, Changping District, Beijing, China, 1962

Patentee after: Beijing Youzijin Technology Development Co.,Ltd.

Address before: Room 3A15, Building E, No. 33 Dongqi Road, Jiangning District, Nanjing City, Jiangsu Province, 211103 (Nanjing Dongshan Headquarters Park)

Patentee before: Nanjing Denai Data Technology Co.,Ltd.

TR01 Transfer of patent right