CN108615226A - 一种基于生成式对抗网络的图像去雾方法 - Google Patents
一种基于生成式对抗网络的图像去雾方法 Download PDFInfo
- Publication number
- CN108615226A CN108615226A CN201810348324.2A CN201810348324A CN108615226A CN 108615226 A CN108615226 A CN 108615226A CN 201810348324 A CN201810348324 A CN 201810348324A CN 108615226 A CN108615226 A CN 108615226A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- feature
- gradient
- articulation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 230000008859 change Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 20
- 238000009826 distribution Methods 0.000 claims description 14
- 239000013618 particulate matter Substances 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 230000004069 differentiation Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 abstract description 7
- 239000010410 layer Substances 0.000 description 22
- 230000007547 defect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000005431 greenhouse gas Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种基于生成式对抗网络的图像去雾方法,采用HOG特征提取方式和加入先验信息的去噪方式,提出依托环境雾霾浓度数据变化而变化的损失函数,从而选择整体最优的解决途径,在很大程度上解决了颜色的偏移等问题,同时防止图像过度去雾化,在尽可能得到清晰结果和降低复杂度之间寻找一种平衡;在一定程度上解决了先验信息制约算法适用范围的问题。
Description
技术领域
本发明涉及图像处理技术领域,尤其是一种基于生成式对抗网络的图像去雾方法。
背景技术
随着信息技术的不断发展与电子设备的普及,人们越来越享受生活,同时也会通过照片记录生活。随着深度神经网络的推进与发展,人们开始应用深度神经网络来解决各种图像问题,例如图像补全、图像去雨雪等。由于近年来雾霾天气的加剧,好的照片也因为雾霾造成的低能见度而受到影响。因此引出了诸如暗通道先验、最大对比度等图像去雾算法。自2014年Goodfellow提出生成式对抗网络,GAN(Generative Adversarial Network)因其生成的图像更加锐利、清晰而被学者所喜爱,将其应用于各个领域,诸如图像去马赛克、图像填充、图像超分辨率等等。
通过吕国豪等人的研究结果我们了解到人为排放的微小颗粒物质(particlemass,PM)分散到大气中形成固体气溶胶,即霾。雾霾的浓度大小将会影响图片拍摄效果,根据清晰度的不同,处理图片所用资源也应当有所不同。雾霾的出现导致图像采集过程中图像对比度降低、场景中部分细节缺损与颜色的偏移,使得图像中部分特征信息发生丢失与改变,直接降低与限制了基于图像特征进行识别、分割和检测等算法的效果。当然,学术界已经提出各种解决图像去雾算法,诸如暗通道先验算法、Tarel算法、He算法、基于Retinex的图像增强方法的单帧图像去雾算法等,但各种算法也有其各自的缺陷。暗通道优先是基于对户外无雾图像统计结果,将暗通道优先原理结合退化模型,我们能够简单而高效的对单幅图像去雾,但是由于暗通道优先是一种统计特性,所以它可能对于一些特殊的图像并不起作用。当场景目标与大气光很相似,而且没有阴影投射到上面时暗通道先验是无效的。另外几种算法虽然有其各自的优越性,但是也有一定的不足之处。当原始图像受到雾霾干扰时会发生模糊不清晰、对比度不高、细节信息不突出的情况,面对这种情况,Tarel算法虽然实现了去雾,但是图中的颜色明显失真并且伴有光晕现象;He算法去雾效果虽然好,颜色也较为正常,但细节信息不突出的这一问题并没有得到很好的解决;而使用基于Retinex的图像增强方法的单帧图像去雾方法,虽然去雾效果很好,同时具备很高的时间效率,但其对不同场景的雾天图像特性尚未充分考虑。图像去雾本质上是一个欠约束问题,这也是导致现有算法取得成果差强人意的根本原因,虽然在一定程度上解决了图像对比度降低、场景中部分细节缺损与颜色偏移等问题,但是解决的不够完美或者说一个算法无法在所有的问题上都能解决的很完美,所以去雾结果就会存在颜色偏移及先验信息制约算法适用范围等。
GAN由生成器G和判别器D组成,通过对抗学习的方式训练数集并生成新的数据样本。2014年Goodfellow发表《Generative Adversarial Networks》一文,使生成式对抗网络在学术界首次亮相,其主要思想来自于博弈论(即二人的利益之和为零,一方的所得正式一方的所失)。此后,GAN被应用于解决各种实际问题,诸如语言、语音处理,棋牌比赛程序等问题的研究。
如图3所示,生成式对抗网络的基本框架包含一对模型:生成模型(G)和判别模型D(x);模型的输入为随机高斯白噪声信号z,该噪声信号经由生成器G映射到某个新的数据空间,得到生成数据G(z);接下来,由判别器D根据真实数据x与生成数据G(z)的输入来分别输出一个概率值,表示D判断输入是真实数据还是生成虚假数据的置信度,以此判断G的产生数据的性能好坏;当最终D不能区分真实数据x和生成数据G(z)时,就认为生成器G达到了最优;D的目标是区分两者,使D(x)尽量大而同时使尽量小D(G(z)),两者差异尽可能大;而G的目标是使自己产生的数据在D上的表现D(G(z))尽量与真实数据的表现D(x)一致,让D不能区分生成数据与真实数据;模块的优化过程是一个相互竞争相互对抗的过程,G&D的性能在迭代过程中不断提高,直到最终D(G(z))与真实数据的表现D(x)一致,此时G和D都不能再进一步优化;该优化过程可建模成朴素Minmax问题:
(以下是GAN的优化目标函数,本专利提出的正则化项(见下的(6)式),结合公式(5)得到公式(3),实现联合优化的目的:
x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片,D(x)表示D网络判断真实图片是否真实的概率,D的值越趋向于1越好,D(G(z))是D网络判断G网络生成图片是否真实的概率,D网络的能力越强,则D(x)越趋向于1,D(G(z))也相应的越小,这时V(D,G)会变大,因此式子对于D网络来说是求最大(maxD)。
如图1所示,CNN(Convolutional Neural Network)含有的层级结构:数据输入层、卷积计算层、激励层、池化层、全连接层。CNN是按照顺序分层的方式,从底层输入到顶层输出,即输入计算机试图进行解释的原始内容,输出计算机的最终结论,底层与顶层的中间层是数学功能层。每一层都将识别的最重要的信息进行压缩,从而传导至下一层。经过第一层传输的数据会被缩减采样层减少数据的复杂度。前几层注重边缘、形状等情况,以此抽取出整体的视觉效果,找出不同的识别特征,将之提取出来以便找出能够将图案与周边环境区分出来的特征。
有监督的卷积网络学习CNN,已经在计算机视觉方面有了广泛的应用。相比之下,无监督学习较少,所以我们将有监督学习和无监督学习组合起来使用,将卷积网络引入到生成式模型当中来做无监督的训练,利用卷积网络强大的特征提取能力来提高生成网络的学习效果,由此对生成对抗网络延伸,即DCGAN(Deep Convolutional GenerativeAdversarial Networks)。
如图2所示,DCGAN在判别器模型中使用strided convolutions来替代空间池化,在生成器模型中使用反卷积层。除了生成器模型的输出层和判别器模型的输入层,在网络其它层上都使用了Batch Normalization,使用BN可以稳定学习,有助于处理初始化不良导致的训练问题。去除了全连接层,而直接使用卷积层连接生成器和判别器的输入层以及输出层。在生成器的输出层使用Tanh激活函数,而在其它层使用ReLU;在判别器上使用leakyReLU。
本发明提出一种新的去雾方法——基于深度卷积对抗网络的去雾,利用卷积神经网络(CNN)和生成对抗网络(GAN)技术,实现图像的去雾。由于DCGAN具有广泛的适应性,不加条件使其自由训练往往会导致很高的时间复杂度和空间复杂度。鉴于以上因素,本发明采用加入先验信息的去噪方式,提出依托环境雾霾浓度数据变化而变化的损失函数,从而选择整体最优的解决途径,防止图像过度去雾化,在尽可能得到清晰结果和降低复杂度之间寻找一种平衡。
发明内容
本发明所要解决的技术问题在于,提供一种基于生成式对抗网络的图像去雾方法,能够在一定程度上解决图像对比度降低、场景中部分细节缺损与颜色偏移等问题,同时也解决了算法适用范围的问题。
为解决上述技术问题,本发明提供一种基于生成式对抗网络的图像去雾方法,通过采用HOG的特征提取方式提高了生成图片的正确性,即使得生成结果更符合预期结果。通过加入先验信息制约算法适用范围,提高了整体网络的鲁棒性,包括如下步骤:
(1)将图像转化为一个x,y,z的灰度图;
(2)标准化gamma空间和颜色空间;将整个图像进行归一化,先转化为灰度图;Gamma压缩公式如下:
I(x,y)=I(x,y)gamma (1)
(3)用[-1,0,1]梯度算子对原图像做卷积运算,得到x方向的梯度分量gradscalx,然后用[1,0,-1]T梯度算子对原图像做卷积运算,得到y方向的梯度分量gradscaly,用下述公式计算梯度;
图像中像素点(x,y)的梯度为:
式中Gx(x,y)、Gy(x,y)、H(x,y)分别表示输入图像中像素点(x,y)处的水平方向梯度,垂直方向梯度和像素值;
(4)为每个细胞单元构建梯度方向直方图;
(5)把细胞单元组合成大的块,块内归一化梯度直方图;
(6)收集HOG特征:
(7)生成网络G和判别网络D学习构建HOG特征分布;
(8)生成网络G学习构建雾霾中悬浮颗粒物浓度到清晰率间的映射网络,得到生成清晰率,并通过判别网络对生成清晰率与最佳清晰率进行判别区分;G*与D*满足
其中,cdist为从训练样本中获取的最佳清晰率,其作为判别过程中判别器D的参考数据判别清晰率,且从样本中得到的判别清晰率cdist满足特征分布pdata;为G*得到的生成清晰率,满足特征分布pc;F为输入特征函数,即雾霾中主要悬浮颗粒物浓度数据作为先验信息约束生成器与判别器,其满足公式:F=λ*P(G,D,Cpm2.5,Cpm10);对于判别网络D*,其功能是最大限度的区分出判别清晰率和生成清晰率;而对于生成网络G*,其作用是最小化(1-D(G(F))),使得网络D*无法正确判断,从而形成整体网络对抗体系;提高整体网络鲁棒性,减少预估结果偏离真实情形的状况。
优选的,采用HOG特征提取方法,其特征在于:雾霾的出现导致图片部分特征信息缺失或损伤,这样将直接降低与限制了基于图像特征进行识别、分割和检测等算法的效果,由于HOG特征是在图像的局部单元格上进行操作,所以它对图像几何和光学的形变都能保持很好的不变性。这样便保证了生成图像的特征分布将更符合预期结果
优选的,通过对图像进行特征提取,进而利用提取的特征,构建特征分布,通过生成网络G学习构建雾霾中悬浮颗粒物浓度到清晰率间的映射网络,从而得到清晰率,得到了针对各种情况采用先验信息进行正则化约束的函数:
λ*P(G,D,Cpm2.5,Cpm10) (6)
λ称为正则化参数,其作用是根据监测到的不同的pm2.5、pm10浓度对P函数进行调节,在尽可能得到清晰结果和降低复杂度之间寻找一种平衡,P函数作为依托监测到的不同的pm2.5、pm10浓度而对优化函数进行微调节的控制函数。
而引用的先验信息是对本模型构建有指导性意义的一切信息,比如以南京为例,南京气象部门统计有南京多年的空气温度、湿度、颗粒物、沙尘、和温室气体排放等数据信息,这些信息都可作为先验信息来指导GAN模型的学习,而事实上每个城市都有其各自的“独特性”,通过先验信息我们可以为每个城市“量身定做”其独有的去雾模型,使得先验信息来矫正GAN的解空间,得到能迎合气候场景的更优秀的GAN模型。
优选的,判别网络对输入的清晰率进行判别分类,得到正确的判别概率。而对于生成清晰率,因其构造中存在偏差,使得生成后的结果不能满足真实场景下的变化规律,无法准确的反应出雾霾中悬浮颗粒物浓度的影响状况。针对于此,可通过卷积神经网络对清晰率进行特征分析并提取,得到表征清晰率变化规则的特征,并用此特征作为清晰率判别标准。
优选的,雾霾图片中清晰率与雾霾中悬浮颗粒物浓度、色调差、暗通道等特征有关,故可利用卷积网络对特征逐层抽象化,结合ReLU对相关信息进行融合与特征提取,得到雾霾场景中清晰率相关抽象特征。为解决网络训练初始化与损失函数下降梯度过小的影响,在生成网络中加入批标准化层。为使生成图片更加拟合真实场景,在生成网络中加入空间池化层,对得到的粗清晰率信息进行稀释处理,以保证生成网络得到最优的清晰率。
优选的,在训练本专利模型时,运用多层感知器构建生成网络。为确保生成网络得到最优清晰率,利用判别网络对生成网络进行反向调节。生成对抗网络通过随机梯度下降法,结合给定数据标签进行网络参数优化,最终训练得到最优网络参数。
本发明的有益效果为:本发明提出利用生成式对抗网络的对抗学习机制解决因雾霾引起的图像对比度下降、场景中部分细节缺损与颜色的偏移等问题,采用HOG特征提取方法使生成图像更加拟合真实情形的特征分布,通过加入先验信息制约算法适用范围,不经加强了整体结构的鲁棒性,减少预估结果偏离真实情形的状况,而且在一定程度上解决了GAN用于小问题时空间复杂度和时间复杂度较大、用于难解决问题时处理力度不够的问题。
附图说明
图1为本发明的CNN流程示意图。
图2为本发明生成器模型的结构示意图。
图3为本发明的GAN改进后结构示意图。
图4为本发明的方法流程示意图。
具体实施方式
如图4所示,一种基于生成式对抗网络的图像去雾方法,包括如下步骤:
(1)将图像转化为一个x,y,z的灰度图;
(2)标准化gamma空间和颜色空间:(首先需要将整个图像进行规范化(归一化),在图像的纹理强度中,为降低局部的表层曝光,通过压缩处理降低图像局部的阴影和光照变化;)Gamma压缩公式如下:
I(x,y)=I(x,y)gamma (1)
(比如可以取Gamma=1/2;)
(3)计算图像梯度:用[-1,0,1]梯度算子对原图像做卷积运算,得到x方向(水平方向,以向右为正方向)的梯度分量gradscalx,然后用[1,0,-1]T梯度算子对原图像做卷积运算,得到y方向(竖直方向,以向上为正方向)的梯度分量gradscaly,用下述公式计算(该像素点的梯度大小和方向);
图像中像素点(x,y)的梯度为:
式中Gx(x,y)、Gy(x,y)、H(x,y)分别表示输入图像中像素点(x,y)处的水平方向梯度,垂直方向梯度和像素值,(像素点(x,y)处的梯度幅度和梯度方向分别为:)
(4)为每个细胞单元构建梯度方向直方图:(首先我们将图像分成若干个“单元格cell”,然后设定每个cell的像素,例如每个cell为6*6个像素。假设我们采用9个bin的直方图来统计这6*6个像素的梯度信息。也就是将cell的梯度方向360度分成9个方向块。通过对cell内每个像素用梯度方向在直方图中进行加权投影,就可以得到这个cell的梯度方向直方图了,而投影的权值作为梯度大小)
(5)把细胞单元组合成大的块,块内归一化梯度直方图:(把各个cell单元组合成大的、空间上联通的区间,)
(6)收集HOG特征;
(7)生成网络G和判别网络D学习构建HOG特征分布;
(8)生成网络G学习构建雾霾中悬浮颗粒物浓度到清晰率间的映射网络,得到生成清晰率,并通过判别网络对生成清晰率与最佳清晰率进行判别区分。G*与D*满足
其中,cdist为从训练样本中获取的最佳清晰率,其作为判别过程中判别器D的参考数据判别清晰率,且从样本中得到的判别清晰率cdist满足特征分布pdata;为G*得到的生成清晰率,满足特征分布pc。F为输入特征函数,即雾霾中主要悬浮颗粒物浓度数据作为先验信息约束生成器与判别器,其满足公式:F=λ*P(G,D,Cpm2.5,Cpm10)。对于判别网络D*,其功能是最大限度的区分出判别清晰率和生成清晰率;而对于生成网络G*,其作用是最小化(1-D(G(F))),使得网络D*无法正确判断,从而形成整体网络对抗体系。提高整体网络鲁棒性,减少预估结果偏离真实情形的状况。
本发明提出利用生成式对抗网络的对抗学习机制解决因雾霾引起的图像对比度下降、场景中部分细节缺损与颜色的偏移等问题,采用HOG特征提取方法使生成图像更加拟合真实情形的特征分布,通过加入先验信息制约算法适用范围,不经加强了整体结构的鲁棒性,减少预估结果偏离真实情形的状况,而且在一定程度上解决了GAN用于小问题时空间复杂度和时间复杂度较大、用于难解决问题时处理力度不够的问题。
Claims (5)
1.一种基于生成式对抗网络的图像去雾方法,其特征在于,包括如下步骤:
(1)将图像转化为一个x,y,z的灰度图;
(2)标准化gamma空间和颜色空间;将整个图像进行归一化,先转化为灰度图;Gamma压缩公式如下:
I(x,y)=I(x,y)gamma (1)
(3)用[-1,0,1]梯度算子对原图像做卷积运算,得到x方向的梯度分量gradscalx,然后用[1,0,-1]T梯度算子对原图像做卷积运算,得到y方向的梯度分量gradscaly,用下述公式计算梯度;
图像中像素点(x,y)的梯度为:
式中Gx(x,y)、Gy(x,y)、H(x,y)分别表示输入图像中像素点(x,y)处的水平方向梯度,垂直方向梯度和像素值;
(4)为每个细胞单元构建梯度方向直方图;
(5)把细胞单元组合成大的块,块内归一化梯度直方图;
(6)收集HOG特征:
(7)生成网络G和判别网络D学习构建HOG特征分布;
(8)生成网络G学习构建雾霾中悬浮颗粒物浓度到清晰率间的映射网络,得到生成清晰率,并通过判别网络对生成清晰率与最佳清晰率进行判别区分,G*与D*满足
其中,cdist为从训练样本中获取的最佳清晰率,其作为判别过程中判别器D的参考数据判别清晰率,且从样本中得到的判别清晰率cdist满足特征分布pdata;为G*得到的生成清晰率,满足特征分布pc;F为输入特征函数,即雾霾中主要悬浮颗粒物浓度数据作为先验信息约束生成器与判别器,其满足公式:F=λ*P(G,D,Cpm2.5,Cpm10);对于判别网络D*,其功能是最大限度的区分出判别清晰率和生成清晰率;而对于生成网络G*,其作用是最小化(1-D(G(F))),使得网络D*无法正确判断,从而形成整体网络对抗体系;提高整体网络鲁棒性,减少预估结果偏离真实情形的状况。
2.如权利要求1所述的基于生成式对抗网络的图像去雾方法,其特征在于,加入先验信息,通过对图像进行特征提取,进而利用提取的特征,构建特征分布,通过生成网络G学习构建雾霾中悬浮颗粒物浓度到清晰率间的映射网络,从而得到清晰率,得到了针对各种情况采用先验信息进行正则化约束的函数:
λ*P(G,D,Cpm2.5,Cpm10) (6)
λ称为正则化参数,其作用是根据监测到的不同的pm2.5、pm10浓度对P函数进行调节,在尽可能得到清晰结果和降低复杂度之间寻找一种平衡,P函数作为依托监测到的不同的pm2.5、pm10浓度而对优化函数进行微调节的控制函数。
3.如权利要求1所述的基于生成式对抗网络的图像去雾方法,其特征在于,判别网络对输入的清晰率进行判别分类,得到正确的判别概率;通过卷积神经网络对清晰率进行特征分析并提取,得到表征清晰率变化规则的特征,并用此特征作为清晰率判别标准。
4.如权利要求1所述的基于生成式对抗网络的图像去雾方法,其特征在于,利用卷积网络对雾霾图片中清晰率的特征逐层抽象化,结合ReLU对相关信息进行融合与特征提取,得到雾霾场景中清晰率相关抽象特征;在生成网络中加入批标准化层和空间池化层。
5.如权利要求1所述的基于生成式对抗网络的图像去雾方法,其特征在于,在训练模型时,运用多层感知器构建生成网络,利用判别网络对生成网络进行反向调节;生成对抗网络通过随机梯度下降法,结合给定数据标签进行网络参数优化,最终训练得到最优网络参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810348324.2A CN108615226B (zh) | 2018-04-18 | 2018-04-18 | 一种基于生成式对抗网络的图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810348324.2A CN108615226B (zh) | 2018-04-18 | 2018-04-18 | 一种基于生成式对抗网络的图像去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108615226A true CN108615226A (zh) | 2018-10-02 |
CN108615226B CN108615226B (zh) | 2022-02-11 |
Family
ID=63660157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810348324.2A Active CN108615226B (zh) | 2018-04-18 | 2018-04-18 | 一种基于生成式对抗网络的图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108615226B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447918A (zh) * | 2018-11-02 | 2019-03-08 | 北京交通大学 | 基于注意力机制的单幅图像去雨方法 |
CN109472818A (zh) * | 2018-10-17 | 2019-03-15 | 天津大学 | 一种基于深度神经网络的图像去雾方法 |
CN109509156A (zh) * | 2018-10-31 | 2019-03-22 | 聚时科技(上海)有限公司 | 一种基于生成对抗模型的图像去雾处理方法 |
CN109523478A (zh) * | 2018-11-09 | 2019-03-26 | 北京智慧眼科技股份有限公司 | 图像去网格方法、存储介质 |
CN109685072A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 一种基于生成对抗网络的复合降质图像高质量重建方法 |
CN109934791A (zh) * | 2019-04-02 | 2019-06-25 | 山东浪潮云信息技术有限公司 | 一种基于风格迁移网络的图像去雾方法及系统 |
CN109993804A (zh) * | 2019-03-22 | 2019-07-09 | 上海工程技术大学 | 一种基于条件生成对抗网络的道路场景去雾方法 |
CN110009580A (zh) * | 2019-03-18 | 2019-07-12 | 华东师范大学 | 基于图片块雨滴密集度的单张图片双向去雨方法 |
CN110163813A (zh) * | 2019-04-16 | 2019-08-23 | 中国科学院深圳先进技术研究院 | 一种图像去雨方法、装置、可读存储介质及终端设备 |
CN110211046A (zh) * | 2019-06-03 | 2019-09-06 | 重庆邮电大学 | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 |
CN111179189A (zh) * | 2019-12-15 | 2020-05-19 | 深圳先进技术研究院 | 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质 |
CN111241725A (zh) * | 2019-12-30 | 2020-06-05 | 浙江大学 | 基于条件生成对抗网络的结构响应重构方法 |
CN112101204A (zh) * | 2020-09-14 | 2020-12-18 | 北京百度网讯科技有限公司 | 生成式对抗网络的训练方法、图像处理方法、装置和设备 |
CN113393386A (zh) * | 2021-05-18 | 2021-09-14 | 电子科技大学 | 一种基于特征解耦的非成对图像对比去雾方法 |
CN114119420A (zh) * | 2021-12-01 | 2022-03-01 | 昆明理工大学 | 一种基于雾迁移和特征聚合的真实场景下有雾图像去雾方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9031345B2 (en) * | 2013-03-11 | 2015-05-12 | Adobe Systems Incorporated | Optical flow accounting for image haze |
CN106127702A (zh) * | 2016-06-17 | 2016-11-16 | 兰州理工大学 | 一种基于深度学习的图像去雾算法 |
CN107767353A (zh) * | 2017-12-04 | 2018-03-06 | 河南工业大学 | 一种基于清晰度评价的自适应图像去雾方法 |
CN107798669A (zh) * | 2017-12-08 | 2018-03-13 | 北京小米移动软件有限公司 | 图像去雾方法、装置及计算机可读存储介质 |
-
2018
- 2018-04-18 CN CN201810348324.2A patent/CN108615226B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9031345B2 (en) * | 2013-03-11 | 2015-05-12 | Adobe Systems Incorporated | Optical flow accounting for image haze |
CN106127702A (zh) * | 2016-06-17 | 2016-11-16 | 兰州理工大学 | 一种基于深度学习的图像去雾算法 |
CN107767353A (zh) * | 2017-12-04 | 2018-03-06 | 河南工业大学 | 一种基于清晰度评价的自适应图像去雾方法 |
CN107798669A (zh) * | 2017-12-08 | 2018-03-13 | 北京小米移动软件有限公司 | 图像去雾方法、装置及计算机可读存储介质 |
Non-Patent Citations (3)
Title |
---|
FLYINGPIG851334799 等: "HOG特征—简介", 《HTTPS://BLOG.CSDN.NET/FLYINGPIG851334799/ARTICLE/DETAILS/46445863》 * |
HE ZHANG 等: "Image De-raining Using a Conditional Generative Adversarial Network", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
李策 等: "生成对抗映射网络下的图像多层感知去雾算法", 《计算机辅助设计与图形学学报》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472818A (zh) * | 2018-10-17 | 2019-03-15 | 天津大学 | 一种基于深度神经网络的图像去雾方法 |
CN109472818B (zh) * | 2018-10-17 | 2021-07-02 | 天津大学 | 一种基于深度神经网络的图像去雾方法 |
CN109509156A (zh) * | 2018-10-31 | 2019-03-22 | 聚时科技(上海)有限公司 | 一种基于生成对抗模型的图像去雾处理方法 |
CN109509156B (zh) * | 2018-10-31 | 2021-02-05 | 聚时科技(上海)有限公司 | 一种基于生成对抗模型的图像去雾处理方法 |
CN109447918A (zh) * | 2018-11-02 | 2019-03-08 | 北京交通大学 | 基于注意力机制的单幅图像去雨方法 |
CN109523478A (zh) * | 2018-11-09 | 2019-03-26 | 北京智慧眼科技股份有限公司 | 图像去网格方法、存储介质 |
CN109523478B (zh) * | 2018-11-09 | 2021-06-04 | 智慧眼科技股份有限公司 | 图像去网格方法、存储介质 |
CN109685072A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 一种基于生成对抗网络的复合降质图像高质量重建方法 |
CN110009580B (zh) * | 2019-03-18 | 2023-05-12 | 华东师范大学 | 基于图片块雨滴密集度的单张图片双向去雨方法 |
CN110009580A (zh) * | 2019-03-18 | 2019-07-12 | 华东师范大学 | 基于图片块雨滴密集度的单张图片双向去雨方法 |
CN109993804A (zh) * | 2019-03-22 | 2019-07-09 | 上海工程技术大学 | 一种基于条件生成对抗网络的道路场景去雾方法 |
CN109934791A (zh) * | 2019-04-02 | 2019-06-25 | 山东浪潮云信息技术有限公司 | 一种基于风格迁移网络的图像去雾方法及系统 |
CN110163813A (zh) * | 2019-04-16 | 2019-08-23 | 中国科学院深圳先进技术研究院 | 一种图像去雨方法、装置、可读存储介质及终端设备 |
CN110163813B (zh) * | 2019-04-16 | 2022-02-01 | 中国科学院深圳先进技术研究院 | 一种图像去雨方法、装置、可读存储介质及终端设备 |
CN110211046A (zh) * | 2019-06-03 | 2019-09-06 | 重庆邮电大学 | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 |
CN110211046B (zh) * | 2019-06-03 | 2023-07-14 | 重庆邮电大学 | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 |
CN111179189A (zh) * | 2019-12-15 | 2020-05-19 | 深圳先进技术研究院 | 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质 |
CN111179189B (zh) * | 2019-12-15 | 2023-05-23 | 深圳先进技术研究院 | 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质 |
CN111241725A (zh) * | 2019-12-30 | 2020-06-05 | 浙江大学 | 基于条件生成对抗网络的结构响应重构方法 |
CN111241725B (zh) * | 2019-12-30 | 2022-08-23 | 浙江大学 | 基于条件生成对抗网络的结构响应重构方法 |
CN112101204A (zh) * | 2020-09-14 | 2020-12-18 | 北京百度网讯科技有限公司 | 生成式对抗网络的训练方法、图像处理方法、装置和设备 |
CN112101204B (zh) * | 2020-09-14 | 2024-01-23 | 北京百度网讯科技有限公司 | 生成式对抗网络的训练方法、图像处理方法、装置和设备 |
CN113393386A (zh) * | 2021-05-18 | 2021-09-14 | 电子科技大学 | 一种基于特征解耦的非成对图像对比去雾方法 |
CN114119420B (zh) * | 2021-12-01 | 2022-12-13 | 昆明理工大学 | 一种基于雾迁移和特征聚合的真实场景下有雾图像去雾方法 |
CN114119420A (zh) * | 2021-12-01 | 2022-03-01 | 昆明理工大学 | 一种基于雾迁移和特征聚合的真实场景下有雾图像去雾方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108615226B (zh) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615226A (zh) | 一种基于生成式对抗网络的图像去雾方法 | |
CN108334848B (zh) | 一种基于生成对抗网络的微小人脸识别方法 | |
CN107742099A (zh) | 一种基于全卷积网络的人群密度估计、人数统计的方法 | |
CN105069472B (zh) | 一种基于卷积神经网络自适应的车辆检测方法 | |
CN111401144B (zh) | 一种基于视频监控的手扶电梯乘客行为识别方法 | |
CN111723654B (zh) | 基于背景建模、YOLOv3与自优化的高空抛物检测方法及装置 | |
CN108345869A (zh) | 基于深度图像和虚拟数据的驾驶人姿态识别方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN109033954B (zh) | 一种基于机器视觉的空中手写识别系统及方法 | |
CN109190475B (zh) | 一种人脸识别网络与行人再识别网络协同训练方法 | |
CN109559302A (zh) | 基于卷积神经网络的管道视频缺陷检测方法 | |
CN107301378B (zh) | 图像中多分类器集成的行人检测方法和系统 | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN107066938A (zh) | 视频分析设备、方法和计算机程序产品 | |
CN110135282B (zh) | 一种基于深度卷积神经网络模型的考生回头抄袭作弊检测方法 | |
CN110415260B (zh) | 基于字典与bp神经网络的烟雾图像分割与识别方法 | |
CN112287827A (zh) | 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统 | |
CN106650617A (zh) | 一种基于概率潜在语义分析的行人异常识别方法 | |
CN109711344A (zh) | 一种前端智能化的特定异常行为检测方法 | |
CN112926522B (zh) | 一种基于骨骼姿态与时空图卷积网络的行为识别方法 | |
CN109241814A (zh) | 基于yolo神经网络的行人检测方法 | |
CN103198330A (zh) | 基于深度视频流的实时人脸姿态估计方法 | |
CN109902613A (zh) | 一种基于迁移学习和图像增强的人体特征提取方法 | |
CN103544478A (zh) | 一种全方位人脸检测的方法及系统 | |
CN113158850A (zh) | 基于深度学习的船舶驾驶员疲劳检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |