CN105719247B - 基于特征学习的单幅图像去雾方法 - Google Patents
基于特征学习的单幅图像去雾方法 Download PDFInfo
- Publication number
- CN105719247B CN105719247B CN201610025389.4A CN201610025389A CN105719247B CN 105719247 B CN105719247 B CN 105719247B CN 201610025389 A CN201610025389 A CN 201610025389A CN 105719247 B CN105719247 B CN 105719247B
- Authority
- CN
- China
- Prior art keywords
- image
- foggy image
- scene depth
- training
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 46
- 239000003595 mist Substances 0.000 claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 239000000284 extract Substances 0.000 claims abstract description 12
- 238000013507 mapping Methods 0.000 claims abstract description 7
- 210000002569 neuron Anatomy 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims 1
- 230000001537 neural effect Effects 0.000 claims 1
- 238000002834 transmittance Methods 0.000 abstract 2
- 230000000694 effects Effects 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000006854 communication Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于特征学习的单幅图像去雾方法,首先通过稀疏自动编码机对有雾图像进行多尺度的纹理结构特征提取,与此同时,抽取各种与雾相关的颜色特征。然后,采用多层神经网络进行样本训练,学习得到雾天条件下纹理结构特征及颜色特征与场景深度间的映射关系,并估算出有雾图像的场景深度图。在此基础上,利用场景深度图近似地估算出透射率图。该透射率能图有效反映了有雾图像中各个局部区域的雾气浓度。最后,结合大气散射模型,根据透射率图进一步复原出无雾图像。本方法能够对有雾图像进行复原,得到更高质量的无雾图像,并且与现有的去雾方法相比,具有更好的场景普适能力。
Description
技术领域
本发明涉及计算机视觉领域,更具体地,涉及到一种基于特征学习的单幅图像去雾方法。
背景技术
在雾、霾等恶劣天气下,大气中存在较多的水滴或尘粒,致使光在传播过程中发生散射或被吸收,此时户外拍摄的图像往往模糊不清,对比度较低。监控设备等依赖于户外图像的系统性能急剧下降,甚至无法正常运作。因此,对图像进行去雾处理具有重要意义。
目前图像去雾的方法主要可分为两类:一类是使用图像增强的方法,即通过增强图像的对比度来达到去雾目的,这类方法可以应用并有针对性地改良已有的成熟图像处理算法,对薄雾图像能够取得较好的去雾效果,但由于没有针对成雾的客观原因,所以不能从根本上实现去雾。另一类是基于物理模型的去雾方法,该类方法通过研究大气成雾以及图像退化的客观机理,构建出大气散射模型,再根据模型对雾天图像复原,从而实现去雾。然而,这两类方法都存在着一个共同的局限性,即只利用了颜色特征,而没有考虑到与雾霾相关的纹理结构特征,致使透射率的估计精度受到限制,因此具有一定的场景局限性。
发明内容
为了更好地利用图像纹理、结构和颜色等特征以提高去雾效果,本方法提出一种基于特征学习的单幅图像去雾方法。首先通过稀疏自动编码机对有雾图像进行多尺度的纹理结构特征提取,同时抽取各种与雾相关的颜色特征。然后采用多层神经网络进行样本训练,学习得到雾天条件下纹理结构特征及颜色特征与场景深度间的映射关系,并估算出有雾图像的场景深度图。最后结合大气散射模型,根据场景深度图复原无雾图像。该方法能够复原出更高质量的无雾图像,且具有更好的场景普适能力。
为了克服现有技术的不足,本发明的技术方案为:
一种基于特征学习的单幅图像去雾方法,包括以下步骤:
S1.获取一组有雾图像Iset及其对应的场景深度图dset作为训练数据集;
S2.利用数据集Iset和dset训练稀疏自动编码机,该稀疏自动编码机用于提取与雾相关的纹理结构特征;
S3.利用训练好的稀疏自动编码机,对Iset中的每一幅有雾图像Ii提取与雾有关的纹理结构特征Ti;
S4.对Iset中的每一幅有雾图像Ii提取与雾有关的颜色特征Di、Ci、Ri、Gi和Bi,分别表示暗原色特征、颜色衰减特征、图像的R通道、图像的G通道和图像的B通道;
S5.以Iset中每一幅有雾图像所提取的特征Ti、Di、Ci、Ri、Gi和Bi作为输入的训练数据,同时以dset中对应的场景深度图di作为训练标签,训练多层神经网络。该网络用于表示不同特征组合与场景深度之间的映射关系,以有雾图像的纹理结构特征及不同的颜色特征作为输入,输出其对应的场景深度;
S6.输入一幅待复原的有雾图像I,利用训练好的稀疏自动编码机提取有雾图像I的与雾相关的纹理结构特征T;
S7.提取有雾图像I的与雾相关的颜色特征D、C、R、G和B;
S8.利用训练好的多层神经网络,以T、D、C、R、G和B作为输入,输出有雾图像I所对应的场景深度图d;
S9.根据大气散射模型,利用d估算出大气光照度A;
S10.结合有雾图像I、场景深度图d和大气光照度A,复原出对应的无雾图像J。
更进一步地,所述步骤S2中的稀疏自动编码机是经过样本训练得到的,具体的训练方法为:
给定一组有雾图像Iset及其对应的场景深度图dset,图1给出了用于提取景物纹理和结构特征的稀疏自动编码机及其训练过程。该自动编码机由两部分组成:第一部分为稀疏编码,用于提取局部块的主要纹理与结构特征,通过一个无监督的自学习神经网络实现,如图1(c)所示,网络的输入是向量化的局部块,S是对输入向量进行降维后所得到的特征,网络的输出为S再次映射到高维时所得到的输出向量;第二部分为一个2层神经网络,用于获得纹理结构特征与场景深度之间的映射关系。稀疏自动编码机中的网络使用sigmoid函数f(x)=1/(1+e-x)作为传输函数,其训练时,首先从训练样本集Iset中,随机组成选取20,000个大小为r×r的局部块作为第一部分的网络输入,进行无监督学习。然后,以第一部分隐含层输出作为第二部分的网络输入。最后,对每一个r×r的局部块,在训练样本集dset中找到相对应的局部块,以其中心位置的场景深度作为标签,进行有监督学习。神经网络中参数的学习通过反向传播算法实现。
更进一步地,所述步骤S4中对于一幅有雾图像I,与雾相关的各种颜色特征的提取方法。具体实现如下:
给定一幅有雾图像I及其对应的大气光照度A,本方法需要提取3类颜色特征,分别是:暗原色特征、颜色衰减特征以及图像的RGB空间下的3个通道分量。
暗原色特征定义如下:
其中,Ω(x)是以x为中心,大小为15×15的局部块,Ic表示有雾图像I在颜色通道c下的分量,D表示局部块尺寸为15×15的暗原色特征。
颜色衰减特征定义如下:
其中,Ival和Isat分别为有雾图像在HSV颜色空间下的亮度分量和饱和度分量,θ0、θ1和θ2为线性系数,θ0=0.1893,θ1=1.0267,θ2=-1.2966。
有雾图像I中RGB空间下的三个分量(R通道分量、G通道分量和B通道分量)也作为本方法的颜色特征,定义如下:
R=Ired,
G=Igreen,
B=Iblue.
上式中,Ired、Igreen和Iblue分别表示有雾图像I在RGB颜色空间上的三个分量。
更进一步地,所述步骤S5中多层神经网络的训练方法,依赖于一组用于训练的有雾图像Iset及其对应的场景深度图dset。具体的训练方法如下:
图2给出了用于场景深度估计的神经网络模型及其训练过程。该网络包含3层(输入层、隐含层和输出层),输入层中神经元的个数与特征图的数目相等,隐含层中的神经元个数是输入层的2倍,输出层只有一个神经元,表示最终输出的场景深度。如图2所示,首先分别对训练样本集Iset中的有雾图像I1,I2,…,In进行特征提取,每一幅有雾图像Ii对应6幅特征图R、G、B、C、D和T。然后,以这些特征作为输入,以训练样本集dset中的真实场景深度di作为标签,采用反向传播算法对网络进行有监督学习。最后得到训练后的神经网络模型。
更进一步地,所述步骤S9中的大气光照度A的估计方法,依赖于一幅有雾图像I及其对应的场景深度图d。具体的估计方法如下:
给定一幅有雾图像I及对应的场景深度图d,其大气光照度A可进一步通过下式估算得出:
其中,x和y用于表示图像中的坐标。
更进一步地,所述步骤S10中利用有雾图像I、大气光照度A和场景深度图d复原出无雾图像的方法。具体的图像复原方法如下:
已知有雾图像I、大气光照度A和场景深度图d,根据大气散射模型,可由下式复原出无雾图像:
其中,β是大气散射系数,一般可取β=2.0。
与现有技术相比,本发明具有以下有益效果:
1)将原本的求解去雾方程问题转化为机器学习的问题,能够从海量的数据中有针对性地学习出与雾相关的特征,获得场景深度的表达,这种特征表达具有相当高的准确性,对无雾图像的复原起到关键作用,大幅度提高了去雾效果,尤其是当图像中有大量纹理结构规则的区域时,本发明的方法具有明显的优越性。
2)结合各种不同类型的与雾相关的颜色特征,使得去雾方法本身具有更强的场景普适能力。这种普适能力主要体现在,本发明的去雾方法不容易受白色物体或大片天空区域影响,而传统去雾方法在处理这些区域时容易失效。
附图说明
图1为本发明的方法中所涉及稀疏自动编码机及其训练过程。
图2为本发明的方法中用于场景深度估计的多层神经网络及其训练过程。
图3为本发明的方法执行步骤示意图。
图4为本发明方法的去雾效果图及估计得出的对应的场景深度图。
具体实施方式
下面结合附图对本发明做进一步的描述,但本发明的实施方式并不限于此。
本发明的方法执行步骤示意图如附图3所示,具体包括如下步骤:
S1.获取一组有雾图像Iset及其对应的场景深度图dset作为训练数据集;
S2.利用数据集Iset和dset训练用于提取与雾相关的纹理结构特征的稀疏自动编码机。图1给出了用于提取景物纹理和结构特征的稀疏自动编码机及其训练过程。该自动编码机由两部分组成:第一部分为稀疏编码,用于提取局部块的主要纹理与结构特征,通过一个无监督的自学习神经网络实现,如图1(c)所示,网络的输入是向量化的局部块,S是对输入的向量进行降维后所得到的特征,网络的输出为S再次映射到高维时所得到的输出向量;第二部分为一个2层神经网络,用于获得纹理结构特征与场景深度之间的映射关系。稀疏自动编码机中的网络使用sigmoid函数f(x)=1/(1+e-x)作为传输函数,其训练时,首先从训练样本集Iset中,随机组成选取20,000个大小为r×r的局部块作为第一部分的网络输入,进行无监督学习。然后,以第一部分隐含层输出作为第二部分的网络输入。最后,对每一个r×r的局部块,在训练样本集dset中找到相对应的局部块,以其中心位置的场景深度作为标签,进行有监督学习。神经网络中参数的学习通过反向传播算法实现。
S3.利用训练好的稀疏自动编码机,对Iset中的每一幅有雾图像Ii提取与雾有关的纹理结构特征Ti;
S4.对Iset中的每一幅有雾图像Ii提取与雾有关的颜色特征Di、Ci、Ri、Gi和Bi,分别表示暗原色特征、颜色衰减特征、图像的R通道、图像的G通道和图像的B通道。
暗原色特征定义如下:
其中,Ω(x)是以x为中心,大小为15×15的局部块,Ic表示有雾图像I在颜色通道c下的分量,D表示局部块尺寸为15×15的暗原色特征。
颜色衰减特征定义如下:
其中,Ival和Isat分别为有雾图像在HSV颜色空间下的亮度分量和饱和度分量,θ0、θ1和θ2为线性系数,θ0=0.1893,θ1=1.0267,θ2=-1.2966。
有雾图像I中RGB空间下的三个分量(R通道分量、G通道分量和B通道分量)也作为本方法的颜色特征,定义如下:
R=Ired,
G=Igreen,
B=Iblue.
上式中,Ired、Igreen和Iblue分别表示有雾图像I在RGB颜色空间上的三个分量。
S5.以Iset中每一幅有雾图像所提取的特征Ti、Di、Ci、Ri、Gi和Bi作为输入的训练数据,同时以dset中对应的场景深度图di作为训练标签,训练多层神经网络。该网络用于表示不同特征组合与场景深度之间的映射关系,以有雾图像的纹理结构特征及不同的颜色特征作为输入,输出其对应的场景深度。图2给出了用于场景深度估计的神经网络模型及其训练过程。该网络包含3层(输入层、隐含层和输出层),输入层中神经元的个数与特征图的数目相等,隐含层中的神经元个数是输入层的2倍,输出层只有一个神经元,表示最终输出的场景深度。如图2所示,首先分别对训练样本集Iset中的有雾图像I1,I2,…,In进行特征提取,每一幅有雾图像Ii对应6幅特征图R、G、B、C、D和T。然后,以这些特征作为输入,以训练样本集dset中的真实场景深度di作为标签,采用反向传播算法对网络进行有监督学习。最后得到训练后的神经网络模型。
S6.输入一幅待复原的有雾图像I,利用训练好的稀疏自动编码机提取有雾图像I的与雾相关的纹理结构特征T;
S7.提取有雾图像I的与雾相关的颜色特征D、C、R、G和B;
S8.利用训练好的多层神经网络,以T、D、C、R、G和B作为输入,输出有雾图像I所对应的场景深度图d;
S9.根据大气散射模型,利用d估算出大气光照度A。给定一幅有雾图像I及对应的场景深度图d,其大气光照度A可进一步通过下式估算得出:
其中,x和y用于表示图像中的坐标。
S10.结合有雾图像I、场景深度图d和大气光照度A,复原出对应的无雾图像J:
其中,β是大气散射系数,一般可取β=2.0。
图4是本发明方法的去雾效果图及估计得出的对应的场景深度图。实验1中,本发明方法有效复原了大部分纹理细节,例如图像右侧的黄色花朵清晰可见,而对于颜色与雾气较为接近的区域(如女士的脸颊),在去雾结果图中并没有出现过度去雾的现象。实验2中,对有雾图像进行去雾处理的同时,保持了物体之间的细节,例如图像中部的灯柱和旁边穿黑色衣服的男士,两者的轮廓区别鲜明。实验3中,尽管原有雾图像存在轻微的偏色,但去雾结果并没有受到响应的影响,依然能清晰地复原出远处的景物,颜色自然。
以上所述的本发明的实施方式,并不构成对本发明保护范围的限定。任何在本发明的精神原则之内所作出的修改、等同替换和改进等,均应包含在本发明的权利要求保护范围之内。
Claims (1)
1.一种基于特征学习的单幅图像去雾方法,其特征在于,包括以下步骤:
S1.获取一组有雾图像Iset及其对应的场景深度图dset作为训练数据集;
S2.利用数据集Iset和dset训练稀疏自动编码机,该稀疏自动编码机用于提取与雾相关的纹理结构特征;
S3.利用训练好的稀疏自动编码机,对Iset中的每一幅有雾图像Ii提取与雾有关的纹理结构特征Ti;
S4.对Iset中的每一幅有雾图像Ii提取与雾有关的颜色特征Di、Ci、Ri、Gi和Bi,分别表示暗原色特征、颜色衰减特征、图像的R通道、图像的G通道和图像的B通道;
S5.以Iset中每一幅有雾图像所提取的特征Ti、Di、Ci、Ri、Gi和Bi作为输入的训练数据,同时以dset中对应的场景深度图di作为训练标签,训练多层神经网络;该网络用于表示不同特征组合与场景深度之间的映射关系,以有雾图像的纹理结构特征及不同的颜色特征作为输入,输出其对应的场景深度;
S6.输入一幅待复原的有雾图像I,利用训练好的稀疏自动编码机提取有雾图像I的与雾相关的纹理结构特征T;
S7.提取有雾图像I的与雾相关的颜色特征D、C、R、G和B;
S8.利用训练好的多层神经网络,以T、D、C、R、G和B作为输入,输出有雾图像I所对应的场景深度图d;
S9.根据大气散射模型,利用d估算出大气光照度A;
S10.结合有雾图像I、场景深度图d和大气光照度A,复原出对应的无雾图像J;对于给定一组有雾图像Iset及其对应的场景深度图dset,所述步骤S2中的稀疏自动编码机是经过样本训练得到的,具体的训练方式为:
自动编码机由两部分组成:第一部分为稀疏编码,用于提取局部块的主要纹理与结构特征,通过一个无监督自学习的3层神经网络实现,网络的输入是向量化的局部块,隐含层的输出S是对输入的向量进行降维后所得到的特征,网络的输出为S再次映射到高维时所得到的输出向量;第二部分为一个2层神经网络,用于获得纹理结构特征与场景深度之间的映射关系;
稀疏自动编码机中的网络使用sigmoid函数f(x)=1/(1+e-x)作为传输函数,其训练时,首先从训练样本集Iset中,随机选取N个大小均为r×r的局部块作为第一部分的网络输入,进行无监督学习;然后,以第一部分隐含层输出作为第二部分的网络输入;最后,对每一个r×r的局部块,在训练样本集dset中找到相对应的局部块,以其中心位置的场景深度作为标签,进行有监督学习;对于一幅有雾图像I,提取与雾有关的颜色特征的提取方法,具体实现如下:
给定一幅有雾图像I及其对应的大气光照度A,提取3类颜色特征,分别是:暗原色特征、颜色衰减特征以及图像的RGB空间下的3个通道分量;
暗原色特征定义如下:
其中,Ω(x)是以x为中心,大小为15×15的局部块,Ic表示有雾图像I在颜色通道c下的分量,D表示局部块尺寸为15×15的暗原色特征;
颜色衰减特征定义如下:
其中,Ival和Isat分别为有雾图像在HSV颜色空间下的亮度分量和饱和度分量,θ0、θ1和θ2为线性系数;
有雾图像I中RGB空间下的三个分量也作为本方法的颜色特征,三个分量分别为R通道分量、G通道分量和B通道分量,定义如下:
R=Ired
G=Igreen
B=Iblue
上式中,Ired、Igreen和Iblue分别表示有雾图像I在RGB颜色空间上的三个分量;所述步骤S5中多层神经网络的训练方法,依赖于一组用于训练的有雾图像Iset及其对应的场景深度图dset;具体的训练方法如下:
多层神经网络包含3层,分别为输入层、隐含层和输出层,输入层中神经元的个数与特征图的数目相等,隐含层中的神经元个数是输入层的2倍,输出层只有一个神经元,表示最终输出的场景深度;其过程为:
首先分别对训练样本集Iset中的有雾图像I1,I2,…,In进行特征提取,每一幅有雾图像Ii对应6幅特征图R、G、B、C、D和T,然后,以这些特征作为输入,以训练样本集dset中的真实场景深度di作为标签,采用反向传播算法对网络进行有监督学习,最后得到训练后的神经网络模型;
所述步骤S9中的大气光照度A的估计方法,依赖于一幅有雾图像I及其对应的场景深度图d;具体的估计方法如下:
给定一幅有雾图像I及对应的场景深度图d,其大气光照度A可进一步通过下式估算得出:
其中,x和y用于表示图像中的坐标;
所述步骤S10中利用有雾图像I、大气光照度A和场景深度图d复原出无雾图像的方法;具体的图像复原方法如下:
已知有雾图像I、大气光照度A和场景深度图d,根据大气散射模型,可由下式复原出无雾图像:
其中,β是大气散射系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610025389.4A CN105719247B (zh) | 2016-01-13 | 2016-01-13 | 基于特征学习的单幅图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610025389.4A CN105719247B (zh) | 2016-01-13 | 2016-01-13 | 基于特征学习的单幅图像去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105719247A CN105719247A (zh) | 2016-06-29 |
CN105719247B true CN105719247B (zh) | 2019-05-17 |
Family
ID=56147886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610025389.4A Active CN105719247B (zh) | 2016-01-13 | 2016-01-13 | 基于特征学习的单幅图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105719247B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156781B (zh) * | 2016-07-12 | 2019-09-10 | 北京航空航天大学 | 排序卷积神经网络构建方法及其图像处理方法与装置 |
CN107292837B (zh) * | 2017-06-05 | 2020-03-17 | 天津大学 | 基于误差补偿的图像去雾方法 |
CN107301624B (zh) * | 2017-06-05 | 2020-03-17 | 天津大学 | 基于区域划分及浓雾预处理的卷积神经网络去雾方法 |
CN107958465A (zh) * | 2017-10-23 | 2018-04-24 | 华南农业大学 | 一种基于深度卷积神经网络的单幅图像去雾方法 |
CN107767354B (zh) * | 2017-12-08 | 2020-07-07 | 福州大学 | 一种基于暗原色先验的图像去雾算法 |
CN108230264B (zh) * | 2017-12-11 | 2020-05-15 | 华南农业大学 | 一种基于ResNet神经网络的单幅图像去雾方法 |
CN108596857A (zh) * | 2018-05-09 | 2018-09-28 | 西安邮电大学 | 用于智能驾驶的单幅图像去雾方法 |
CN109472818B (zh) * | 2018-10-17 | 2021-07-02 | 天津大学 | 一种基于深度神经网络的图像去雾方法 |
CN110390655B (zh) * | 2019-07-30 | 2021-04-06 | 电子科技大学 | 一种基于蓝色通道校正的图像去雾方法 |
CN110738624B (zh) * | 2019-10-18 | 2022-02-01 | 电子科技大学 | 一种区域自适应的图像去雾系统及方法 |
CN110807744B (zh) * | 2019-10-25 | 2023-09-08 | 山东工商学院 | 一种基于卷积神经网络的图像去雾方法 |
CN110766640B (zh) * | 2019-11-05 | 2022-03-25 | 中山大学 | 一种基于深度语义分割的图像去雾方法 |
CN111462002B (zh) * | 2020-03-19 | 2022-07-12 | 重庆理工大学 | 一种基于卷积神经网络的水下图像增强与复原方法 |
CN112419166B (zh) * | 2020-09-24 | 2024-01-05 | 南京晓庄学院 | 一种基于局部区域分割与scn结合的图像去雾方法 |
CN113393386B (zh) * | 2021-05-18 | 2022-03-01 | 电子科技大学 | 一种基于特征解耦的非成对图像对比去雾方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504658A (zh) * | 2014-12-15 | 2015-04-08 | 中国科学院深圳先进技术研究院 | 基于bp神经网络的单一图像去雾方法及装置 |
CN105205807A (zh) * | 2015-08-19 | 2015-12-30 | 西安电子科技大学 | 基于稀疏自动编码机的遥感图像变化检测方法 |
-
2016
- 2016-01-13 CN CN201610025389.4A patent/CN105719247B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504658A (zh) * | 2014-12-15 | 2015-04-08 | 中国科学院深圳先进技术研究院 | 基于bp神经网络的单一图像去雾方法及装置 |
CN105205807A (zh) * | 2015-08-19 | 2015-12-30 | 西安电子科技大学 | 基于稀疏自动编码机的遥感图像变化检测方法 |
Non-Patent Citations (3)
Title |
---|
A Fast Single Image Haze Removal Algorithm Using Color Attenuation Prior;Qingsong Zhu 等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20151231;第24卷(第11期);第3522-3533页 |
Back Propagation Neural Network Dehazing;Jiaming mai 等;《Proceedings of the 2014 IEEE International Conference on Robotics and Biomimetics》;20141210;第1433-1438页 |
图像去雾的最新研究进展;吴迪 等;《自动化学报》;20150227;第41卷(第2期);第221-239页 |
Also Published As
Publication number | Publication date |
---|---|
CN105719247A (zh) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105719247B (zh) | 基于特征学习的单幅图像去雾方法 | |
Sharma et al. | Deep convolutional neural networks for fire detection in images | |
CN103761529B (zh) | 一种基于多色彩模型和矩形特征的明火检测方法和系统 | |
CN110866879B (zh) | 一种基于多密度雨纹感知的图像去雨方法 | |
CN109325954A (zh) | 图像分割方法、装置及电子设备 | |
CN109558806A (zh) | 高分遥感图像变化的检测方法和系统 | |
Li et al. | Single image haze removal based on haze physical characteristics and adaptive sky region detection | |
CN106951869B (zh) | 一种活体验证方法及设备 | |
CN106897673A (zh) | 一种基于retinex算法和卷积神经网络的行人再识别方法 | |
CN107909580A (zh) | 一种行人衣着颜色识别方法、电子设备及存储介质 | |
CN103034983B (zh) | 一种基于各向异性滤波的去雾方法 | |
CN103093203A (zh) | 一种人体再识别方法以及人体再识别系统 | |
CN108416745A (zh) | 一种具有色彩恒常性的图像自适应去雾增强方法 | |
CN106340025A (zh) | 一种基于色适应变换的背景更换视觉传达方法 | |
CN109815653A (zh) | 一种基于深度学习的pdf文本水印提取及比对方法 | |
CN109726669A (zh) | 基于对抗网络的不同光照条件下行人再识别数据生成方法 | |
CN109902613A (zh) | 一种基于迁移学习和图像增强的人体特征提取方法 | |
CN110298893A (zh) | 一种行人衣着颜色识别模型的生成方法及装置 | |
CN107563299A (zh) | 一种利用ReCNN融合上下文信息的行人检测方法 | |
Kumar et al. | Enhancing scene perception using a multispectral fusion of visible–near‐infrared image pair | |
CN109816610A (zh) | 一种图像去雾系统 | |
CN114627269A (zh) | 一种基于深度学习目标检测的虚拟现实安防监控平台 | |
CN104240197B (zh) | 一种保持对比度、颜色一致性和灰度像素特征的消色方法 | |
CN108711160A (zh) | 一种基于hsi增强性模型的目标分割方法 | |
CN102184403A (zh) | 基于优化的本征图像提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |