CN105574827A - 一种图像去雾的方法、装置 - Google Patents
一种图像去雾的方法、装置 Download PDFInfo
- Publication number
- CN105574827A CN105574827A CN201510954043.8A CN201510954043A CN105574827A CN 105574827 A CN105574827 A CN 105574827A CN 201510954043 A CN201510954043 A CN 201510954043A CN 105574827 A CN105574827 A CN 105574827A
- Authority
- CN
- China
- Prior art keywords
- convolutional network
- degree
- layer
- depth convolutional
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 239000003595 mist Substances 0.000 claims description 201
- 230000008030 elimination Effects 0.000 claims description 47
- 238000003379 elimination reaction Methods 0.000 claims description 47
- 238000013507 mapping Methods 0.000 claims description 35
- 230000004913 activation Effects 0.000 claims description 20
- 238000012805 post-processing Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明适用于图像处理技术领域,提供了一种图像去雾的方法、装置,所述方法包括:对不含雾图像进行人工加雾,生成含雾图像;输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的实际透射率之间的误差小于预设的误差阈值;输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率;根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。本发明,可以大大降低白边现象的发生,并且在对比度上有显著提高。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种图像去雾的方法、装置。
背景技术
雾霾天气下空气中除了水分子还存在气溶胶微粒和水滴,对光进行衰减吸收,获取的图像和视频出现清晰度低、对比度下降、颜色整体趋于灰白、颜色偏移和色彩失真现象。
图像去雾技术能够显著提高退化图像的清晰度,增强对比度,矫正色彩偏差。
目前主流的暗通道先验图像去雾算法是基于对大量户外清晰图像的统计规律得出的,即绝大多数清晰图像的非天空局部区域内至少有一个颜色通道的像素值很低趋近于0,然而暗通道先验有其自身的局限性,暗通道先验在天空区域和白色物体区域并不成立、去雾后图像整体偏暗、对深度跳变极剧烈的边界仍存在延伸的白边等现象。
发明内容
有鉴于此,本发明实施例提供一种图像去雾的方法、装置,以解决现有技术提供的图像去雾的方法,去雾后图像整体偏暗、对深度跳变极剧烈的边界仍存在延伸的白边等现象的问题。
第一方面,提供一种图像去雾的方法,包括:
对不含雾图像进行人工加雾,生成含雾图像;
输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的透射率之间的误差小于预设的误差阈值;
输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率;
根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。
进一步地,所述对不含雾图像进行人工加雾,包括:
获取不含雾图像的场景深度;
设定加雾的浓度和大气光值;
将雾的浓度和场景深度转换为透射率;
根据雾天成像模型、大气光值和所述透射率,对不含雾图像进行人工加雾。
进一步地,所述深度卷积网络包括:
多层卷积网络层;
多层全连接的网络层;
每层卷积网络层均采用受限制的非线性激活函数;
非线性激活函数为ReLU触发激活。
进一步地,所述深度卷积网络包括3层卷积网络层,第一层由32个7×7的滤波器构成,第二层由16个5×5的滤波器组成,第三层由1个5×5的滤波器组成。
进一步地,所述深度卷积网络还包括:
拼接层;
所述拼接层将第一层卷积网络层输出的32个特征映射图像与输入至所述深度卷积网络的输入图像在数量维度上串联起来,生成35个特征映射图像,并将所述35个特征映射图像输入到第二层卷积网络层进行卷积。
进一步地,所述多尺度深度卷积网络包括第一深度卷积网络和第二深度卷积网络;
所述第一深度卷积网络和所述第二深度卷积网络均由四层卷积网络层组成;
所述第一深度卷积网络的卷积网络层的卷积核尺寸相比所述第二深度卷积网络的卷积网络层的卷积核尺寸,小但个数多。
进一步地,所述第一深度卷积网络的第一层由48个5×5的滤波器构成,第二层由128个3×3的滤波器组成,第三层由32个3×3的滤波器组成,第四层由1个3×3的滤波器组成;
所述第二深度卷积网络的第一层由64个9×9的滤波器构成,第二层由64个5×5的滤波器组成,第三层由32个5×5的滤波器组成,第四层由1个3×3的滤波器组成。
进一步地,所述第一深度卷积网络还包括:
第一拼接层;
所述第一拼接层将第二层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到第三层卷积网络层进行卷积;
所述第二深度卷积网络还包括:
第二拼接层;
所述第二拼接层将所述第二深度卷积网络的第四层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到所述第二深度卷积网络的第一层卷积网络层进行卷积。
第二方面,提供一种图像去雾的装置,包括:
人工加雾单元,用于对不含雾图像进行人工加雾,生成含雾图像;
模型训练单元,用于输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的透射率之间的误差小于预设的误差阈值;
透射率输出单元,用于输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率;
图像去雾单元,用于根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。
进一步地,所述人工加雾单元,包括:
场景深度获取模块,用于获取不含雾图像的场景深度;
设定模块,用于设定加雾的浓度和大气光值;
转换模块,用于将雾的浓度和场景深度转换为透射率;
人工加雾模块,用于根据雾天成像模型、大气光值和所述透射率,对不含雾图像进行人工加雾。
进一步地,所述深度卷积网络包括:
多层卷积网络层;
多层全连接的网络层;
每层卷积网络层均采用受限制的非线性激活函数;
非线性激活函数为ReLU触发激活。
进一步地,所述深度卷积网络包括3层卷积网络层,第一层由32个7×7的滤波器构成,第二层由16个5×5的滤波器组成,第三层由1个5×5的滤波器组成。
进一步地,所述深度卷积网络还包括:
拼接层;
所述拼接层将第一层卷积网络层输出的32个特征映射图像与输入至所述深度卷积网络的输入图像在数量维度上串联起来,生成35个特征映射图像,并将所述35个特征映射图像输入到第二层卷积网络层进行卷积。
进一步地,所述多尺度深度卷积网络包括第一深度卷积网络和第二深度卷积网络;
所述第一深度卷积网络和所述第二深度卷积网络均由四层卷积网络层组成;
所述第一深度卷积网络的卷积网络层的卷积核尺寸相比所述第二深度卷积网络的卷积网络层的卷积核尺寸,小但个数多。
进一步地,所述第一深度卷积网络的第一层由48个5×5的滤波器构成,第二层由128个3×3的滤波器组成,第三层由32个3×3的滤波器组成,第四层由1个3×3的滤波器组成;
所述第二深度卷积网络的第一层由64个9×9的滤波器构成,第二层由64个5×5的滤波器组成,第三层由32个5×5的滤波器组成,第四层由1个3×3的滤波器组成。
进一步地,所述第一深度卷积网络还包括:
第一拼接层;
所述第一拼接层将第二层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到第三层卷积网络层进行卷积;
所述第二深度卷积网络还包括:
第二拼接层;
所述第二拼接层将所述第二深度卷积网络的第四层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到所述第二深度卷积网络的第一层卷积网络层进行卷积。
在本发明实施例,通过深度卷积网络计算出透射率参数,深度卷积网络是一种监督式的深度学习模型,通过深度卷积网络可以从有雾图像直接回归计算出透射率参数,是像素(图像块)到像素的非线性映射。跟卷积神经网络一样可以直接对原始的图像数据进行训练,而无需对训练图像进行增强拉伸等预处理,初始的无论何种质量的有雾图像都可以直接送到深度卷积网络模型中计算,减少了数据准备的时间和预处理的麻烦,并且相比传统的卷积神经网络,深度卷积神经网络层数更多,能力更强,局部处理复杂图像和复杂变换的能力。另外,多尺度深度卷积网络则是在不同尺度层面对透射率参数进行从粗到细的学习,从而使得网络输出的透射率图像同时具有多尺度的深度信息,更加符合自然场景的深度规律和人对事物的感知,得到的去雾图像整体上更亮且色彩更加自然。
实验中将多尺度深度卷积网络去雾与暗通道结合引导滤波去雾算法进行了比较,发现多尺度深度卷积网络去雾在对比度、色彩鲜艳程度、天空区域、去雾后图像亮度上有相当的优势,在整体图像亮度拉伸和边缘白边现象上均有优势,可以大大降低白边现象的发生,并且在对比度上有显著提高。
附图说明
图1是本发明图像去雾的方法实施例的实现流程图;
图2是本发明图像去雾的方法实施例中,深度卷积网络模型的结构示意图;
图3是本发明图像去雾的方法实施例中,一深度卷积网络的结构示意图;
图4是本发明图像去雾的方法实施例中,另一深度卷积网络的结构示意图;
图5是本发明图像去雾的方法实施例中,多尺度深度卷积网络的结构示意图;
图6是本发明图像去雾的装置实施例的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明实施例中,对不含雾图像进行人工加雾,生成含雾图像;输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的透射率之间的误差小于预设的误差阈值;输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率;根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。
以下结合具体实施例对本发明的实现进行详细描述:
实施例一
图1示出了本发明实施例一提供的图像去雾的方法的实现流程,详述如下:
在步骤S101中,对不含雾图像进行人工加雾,生成含雾图像。
在本发明实施例中,对于有雾图像,很难获取其对应的无雾图像用于训练。为解决这一问题,本发明实施例采用人工加雾的方法对不含雾图像加入雾,生产含雾的图像。
使用人工加雾图像的一个优点是:可以方便的获取有雾图像的透射率用于多尺度深度卷积网络的训练。
其中,可以先获取不含雾图像的场景深度和设定的加雾浓度,再将雾的浓度和该场景深度转换为透射率,最后根据雾天成像模型、大气光值和所述透射率,对不含雾图像进行人工加雾。
具体方法如下:
实验中采用了两个户外数据库,分别是Make3D和KITTI数据库。
Make3D数据库由对齐的清晰图像和场景深度数据组成,彩色场景图像分辨率大小为1704×2272,而场景深度数据分辨率大小为55×305,由于激光扫描仪的精度问题深度数据有缺失。
KITTI数据库由户外视频数据和场景深度数据组成,从提供的视频场景中选择了城市、道路、居民、校园四个场景的视频,每隔50帧截取一幅图像,图像分辨率大小为1392×512,但是深度数据十分稀疏,分辨率为153×46,较远的天空区域以及有遮挡的区域深度数据缺失。
实验中获取到不含雾图像的场景深度后,可以通过将雾的浓度和该场景深度转换为透射率,再通过该透射率对不含雾图像进行人工加雾,生成含雾图像。然后,从含雾图像中随机抽取图像块,构建训练集和测试集,并训练深度卷积网络或者多尺度深度卷积网络得到逐像素估计的端到端的深度卷积网络或者多尺度深度卷积网络。
优选地,为了使加雾效果均匀,采用优化着色法对场景深度数据中的缺失部分进行填充,然后放大2倍场景深度数据的分辨率并采用相同的方法进行填充,最后场景深度数据被填充到原来的4倍分辨率。
透射率与场景深度呈负指数关系t(x)=exp(-βd),场景深度d的数值范围为0~90,为了使变换后的透射率范围在0~1内,将大气散射系数β取值为0.03,为避免部分区域(如天空、白色建筑物等)出现透射率为0的情况,将转换后的透射率限定在0.1~1范围内。
由于场景深度数据本身的不均匀,人工加雾以后得到的含雾图像会呈现不均匀雾,实验中还可以采用引导滤波(guidedfilter)对透射率在清晰场景图像的引导下使其边缘与实际场景更相符。最后按照大气散射模型I(x)=J(x)t(x)+A(1-t(x))对清晰图像进行加雾,其中,大气光参数A取值为[1,1,1],t为透射率,j(x)为不含雾图像,I(x)为含雾图像。
优选地,可以将Make3D数据中重复场景、阴影遮挡面积较大、场景深度数据不可靠等场景删除后选择259幅图像,同样KITTI数据库选择387幅图像。为了增加数据量,可以进行2个操作:(1)将数据库中的图像进行尺度拉伸(拉伸因子为1.2、1.4和1.6)、旋转(+3和-3度旋转)、翻转(上下和左右翻转);(2)人工加雾中加不同浓度的雾,散射系数β取值为0.03、0.05、0.07。
实验中,可以不采用原尺寸大小的图像直接作为深度卷积网络或者多尺度卷积网络的输入数据,而是将图像按非重叠方式间隔抽取33×33的图像块,同样在对应的透射率图像上抽取对应的透射率图像块作为训练标签。数据准备过程中可以从Make3D和KITTI分别抽取了614400个图像块,并随机序列打乱,按照HDF5的格式存储为10个h5文件,并按照4:1的比例分为训练集和测试集。
在步骤S102中,输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的透射率之间的误差小于预设的误差阈值。
在本发明实施例中,去雾质量的高低主要依赖于透射率估计得准确与否,大气光在一定程度上影响图像的整体亮度,相比较而言透射率对去雾效果的好坏起决定作用。
公式t(x)=exp(-βd)表明透射率参数与场景深度呈负指数关系,因此对去雾透射率的估计相当于对场景深度的估计,也属于低层次的图像处理范畴。受深度卷积网络在图像超分辨率、无参图像质量评估和场景深度估计上的成功应用启发,可以通过多尺度深度卷积网络完成对透射率的估计,然后反解大气散射模型即可得到去雾的清晰图像。
其中,深度卷积网络包括:多层卷积网络层;多层全连接的网络层;每层卷积网络层均采用受限制的非线性激活函数,非线性激活函数通常为ReLU触发激活。
图2示出了本本发明实施例所采用的深度卷积网络的结构示意图。输入的是含雾图像,经过中间多层的卷积网络层输出含雾图像对应的透射率,卷积网络层中包含多层的卷积层,卷积层中的每个特征图像都是通过三维滤波器与前一卷积层的所有特征映射图像卷积得到,即卷积层与前一卷积层是全连接的。每个卷积层都采用受限制的非线性激活函数ReLU触发激活,透射率的数值范围在0~1之间,不会出现负值,而ReLU正好可以过滤卷积过程中可能会产生的负值,同时还能增加模型参数的稀疏性加快深度卷积网络的训练速度。输入含雾图像经过多层的卷积层提取特征后,可以直接回归出单通道的透射率图像,是端到端的映射。
在实验探索阶段,可以通过简单的深度卷积网络对透射率进行回归计算,如图3所示,该卷积网络仅由三层卷积层组成,第一层由32个7×7的滤波器构成,第二个卷积层由16个5×5的滤波器组成,第三层由1个5×5的滤波器输出回归的透射率,深度卷积网络中均采用受限制的线性单元ReLU函数激活变换卷积层输出的特征,ReLU不仅可以避免卷积负值在网络中的流动,还能加速深度卷积网络的训练,使其更快达到收敛结果。
实验表明,图3所示的深度卷积网络已经能基本估计出透射率,但是在去雾图像中会存在一定的白边现象,这是由于透射率在边界处不够剧烈变化的原因。
因此,在图3所示的深度卷积网络的基础上可以进行相应改进,如图4所示。相比于图3,该改进的深度卷积网络增加了一个拼接concat层,拼接层将第一层卷积网络层输出的32个特征映射图像与输入至所述深度卷积网络的输入图像在数量维度上串联起来,生成35个特征映射图像,并将所述35个特征映射图像输入到第二层卷积网络层进行卷积。原含雾图像富含丰富的边缘信息,这些边缘跳变代表了深度跳变区域,也就是透射率跳变的区域。拼接层的作用是将原来丰富的边缘深度跳变信息引入到趋向于透射率的特征中,第一层卷积网络层输出的特征映射图像一定程度上代表了透射率的数值范围和内容,原含雾图像的边缘经过卷积后被一定程度的模糊掉而很难传入到输出的透射率中,这时在模糊的特征映射基础上引入原含雾图像的边缘信息可以指导输出透射率的边界。拼接层的做法在某种意义上类似于引导滤波中的引导图像。
多尺度深度卷积网络可以在不同尺度层次上对透射率进行回归计算,在场景深度估计有很好的应用。受此启发思考,可以从不同尺度大小的视野对透射率进行估计,并在上述深度卷积网络的基础上设计了如图5所示的多尺度深度卷积网络。
在图5中,所述多尺度深度卷积网络包括第一深度卷积网络network1和第二深度卷积网络network2。所述第一深度卷积网络和所述第二深度卷积网络均由四层卷积网络层组成;所述第一深度卷积网络的卷积网络层的卷积核尺寸相比所述第二深度卷积网络的卷积网络层的卷积核尺寸,小但个数多。
具体的,所述第一深度卷积网络的第一层由48个5×5的滤波器构成,第二层由128个3×3的滤波器组成,第三层由32个3×3的滤波器组成,第四层由1个3×3的滤波器组成;所述第二深度卷积网络的第一层由64个9×9的滤波器构成,第二层由64个5×5的滤波器组成,第三层由32个5×5的滤波器组成,第四层由1个3×3的滤波器组成。
所述第一深度卷积网络还包括:第一拼接层;所述第一拼接层将第二层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到第三层卷积网络层进行卷积。
所述第二深度卷积网络还包括:第二拼接层;所述第二拼接层将所述第二深度卷积网络的第四层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到所述第二深度卷积网络的第一层卷积网络层进行卷积。
network1的卷积核尺寸小但个数多,能够从较小而较多的局部图像视野角度发现图像的内部细节,加上第一拼接层的细化作用,out1层能够输出具有相当细节信息的透射率图像。Network2在network1输出透射率图像的基础上在原输入图像的引导下进一步在更大的局部视野上观察图像相对全局的信息,主要是完成对透射率整体像素值大小的调整,out2层输出的透射率具有更加全局的深度信息。通过network1和network2在不同尺度视野上对图像的边缘细节信息进行观察和特征提取,从而使得深度卷积网络输出的透射率图像同时具有多尺度的深度信息,更加符合自然场景的深度规律和人对事物的感知。
具体的,对多尺度深度卷积网络进行训练时,首先对network1训练到收敛状态,然后维持network1网络结构的权重不变对network2进行训练,network2的训练过程中network1的学习率为0,误差只向network2反向传播,而不会传播到network1。
由于网络包含众多的参数,为加速训练过程,可使用图形处理器(Graphics_processing_unit,GPU)进行并行加速。
在步骤S103中,输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率。
在本发明实施例中,可以输入待去雾的有雾图像至训练好的所述多尺度深度卷积网络中,输出所述有雾图像的透射率。
在步骤S104中,根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。
在本发明实施例中,根据公式I(x)=J(x)t(x)+A(1-t(x))可以得到最后的去雾图像,其中A有两种选择:(1)A=[1,1,1];(2)取图像中雾浓度最高、最不透明区域的前0.1%最亮像素,实验证明第二种方案估计的大气光值更合理,去雾图像整体上更亮且色彩更加自然。
本实施例,通过深度卷积网络计算出透射率参数,深度卷积网络是一种监督式的深度学习模型,通过深度卷积网络可以从有雾图像直接回归计算出透射率参数,是像素(图像块)到像素的非线性映射。跟卷积神经网络一样可以直接对原始的图像数据进行训练,而无需对训练图像进行增强拉伸等预处理,初始的无论何种质量的有雾图像都可以直接送到深度卷积网络模型中计算,减少了数据准备的时间和预处理的麻烦,并且相比传统的卷积神经网络,深度卷积神经网络层数更多,能力更强,局部处理复杂图像和复杂变换的能力。另外,多尺度深度卷积网络则是在不同尺度层面对透射率参数进行从粗到细的学习,从而使得网络输出的透射率图像同时具有多尺度的深度信息,更加符合自然场景的深度规律和人对事物的感知,得到的去雾图像整体上更亮且色彩更加自然。
应理解,在本发明实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本领域普通技术人员可以理解实现上述各实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,相应的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘或光盘等。
实施例二
图6示出了本发明实施例二提供的图像去雾的装置的具体结构框图,为了便于说明,仅示出了与本发明实施例相关的部分。该图像去雾的装置6包括:人工加雾单元61、模型训练单元62、透射率输出单元63和图像去雾单元64。
其中,人工加雾单元61,用于对不含雾图像进行人工加雾,生成含雾图像;
模型训练单元62,用于输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的透射率之间的误差小于预设的误差阈值;
透射率输出单元63,用于输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率;
图像去雾单元64,用于根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。
进一步地,所述人工加雾单元61,包括:
场景深度获取模块,用于获取不含雾图像的场景深度;
设定模块,用于设定加雾的浓度和大气光值;
转换模块,用于将雾的浓度和场景深度转换为透射率;
人工加雾模块,用于根据雾天成像模型、大气光值和所述透射率,对不含雾图像进行人工加雾。
具体的,所述深度卷积网络包括:
多层卷积网络层;
多层全连接的网络层;
每层卷积网络层均采用受限制的非线性激活函数;
非线性激活函数为ReLU触发激活。
进一步地,所述深度卷积网络包括3层卷积网络层,第一层由32个7×7的滤波器构成,第二层由16个5×5的滤波器组成,第三层由1个5×5的滤波器组成。
进一步地,所述深度卷积网络还包括:
拼接层;
所述拼接层将第一层卷积网络层输出的32个特征映射图像与输入至所述深度卷积网络的输入图像在数量维度上串联起来,生成35个特征映射图像,并将所述35个特征映射图像输入到第二层卷积网络层进行卷积。
进一步地,所述多尺度深度卷积网络包括第一深度卷积网络和第二深度卷积网络;
所述第一深度卷积网络和所述第二深度卷积网络均由四层卷积网络层组成;
所述第一深度卷积网络的卷积网络层的卷积核尺寸相比所述第二深度卷积网络的卷积网络层的卷积核尺寸,小但个数多。
进一步地,所述第一深度卷积网络的第一层由48个5×5的滤波器构成,第二层由128个3×3的滤波器组成,第三层由32个3×3的滤波器组成,第四层由1个3×3的滤波器组成;
所述第二深度卷积网络的第一层由64个9×9的滤波器构成,第二层由64个5×5的滤波器组成,第三层由32个5×5的滤波器组成,第四层由1个3×3的滤波器组成。
进一步地,所述第一深度卷积网络还包括:
第一拼接层;
所述第一拼接层将第二层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到第三层卷积网络层进行卷积;
所述第二深度卷积网络还包括:
第二拼接层;
所述第二拼接层将所述第二深度卷积网络的第四层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到所述第二深度卷积网络的第一层卷积网络层进行卷积。
本发明实施例提供图像去雾的装置可以应用在前述对应的方法实施例一中,详情参见上述实施例一的描述,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (16)
1.一种图像去雾的方法,其特征在于,包括:
对不含雾图像进行人工加雾,生成含雾图像;
输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的透射率之间的误差小于预设的误差阈值;
输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率;
根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。
2.如权利要求1所述的方法,其特征在于,所述对不含雾图像进行人工加雾,包括:
获取不含雾图像的场景深度;
设定加雾的浓度和大气光值;
将雾的浓度和场景深度转换为透射率;
根据雾天成像模型、大气光值和所述透射率,对不含雾图像进行人工加雾。
3.如权利要求1或2所述的方法,其特征在于,所述深度卷积网络包括:
多层卷积网络层;
多层全连接网络层;
每层卷积网络层和全连接的网络层均采用受限制的非线性激活函数;
非线性激活函数为ReLU触发激活。
4.如权利要求3所述的方法,其特征在于,所述深度卷积网络包括3层卷积网络层,第一层由32个7×7的滤波器构成,第二层由16个5×5的滤波器组成,第三层由1个5×5的滤波器组成。
5.如权利要求4所述的方法,其特征在于,所述深度卷积网络还包括:
拼接层;
所述拼接层将第一层卷积网络层输出的32个特征映射图像与输入至所述深度卷积网络的输入图像在数量维度上串联起来,生成35个特征映射图像,并将所述35个特征映射图像输入到第二层卷积网络层进行卷积。
6.如权利要求3所述的方法,其特征在于,所述多尺度深度卷积网络包括第一深度卷积网络和第二深度卷积网络;
所述第一深度卷积网络和所述第二深度卷积网络均由四层卷积网络层组成;
所述第一深度卷积网络的卷积网络层的卷积核尺寸相比所述第二深度卷积网络的卷积网络层的卷积核尺寸,小但个数多。
7.如权利要求6所述的方法,其特征在于,所述第一深度卷积网络的第一层由48个5×5的滤波器构成,第二层由128个3×3的滤波器组成,第三层由32个3×3的滤波器组成,第四层由1个3×3的滤波器组成;
所述第二深度卷积网络的第一层由64个9×9的滤波器构成,第二层由64个5×5的滤波器组成,第三层由32个5×5的滤波器组成,第四层由1个3×3的滤波器组成。
8.如权利要求7所述的方法,其特征在于,所述第一深度卷积网络还包括:
第一拼接层;
所述第一拼接层将第二层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到第三层卷积网络层进行卷积;
所述第二深度卷积网络还包括:
第二拼接层;
所述第二拼接层将所述第二深度卷积网络的第四层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到所述第二深度卷积网络的第一层卷积网络层进行卷积。
9.一种图像去雾的装置,其特征在于,包括:
人工加雾单元,用于对不含雾图像进行人工加雾,生成含雾图像;
模型训练单元,用于输入含雾图像和所述含雾图像的透射率至深度卷积网络或者多尺度深度卷积网络,训练所述深度卷积网络或者所述多尺度深度卷积网络,直至所述深度卷积网络或者所述多尺度深度卷积网络输出的透射率与所述含雾图像的透射率之间的误差小于预设的误差阈值;
透射率输出单元,用于输入待去雾的有雾图像至训练好的所述深度卷积网络或者所述多尺度深度卷积网络中,输出所述有雾图像的透射率;
图像去雾单元,用于根据雾天成像模型、大气光值和所述有雾图像的透射率,将所述有雾图像恢复为无雾图像。
10.如权利要求9所述的装置,其特征在于,所述人工加雾单元,包括:
场景深度获取模块,用于获取不含雾图像的场景深度;
设定模块,用于设定加雾的浓度和大气光值;
转换模块,用于将雾的浓度和场景深度转换为透射率;
人工加雾模块,用于根据雾天成像模型、大气光值和所述透射率,对不含雾图像进行人工加雾。
11.如权利要求9或10所述的装置,其特征在于,所述深度卷积网络包括:
多层卷积网络层;
多层全连接的网络层;
每层卷积网络层均采用受限制的非线性激活函数;
非线性激活函数为ReLU触发激活。
12.如权利要求11所述的装置,其特征在于,所述深度卷积网络包括3层卷积网络层,第一层由32个7×7的滤波器构成,第二层由16个5×5的滤波器组成,第三层由1个5×5的滤波器组成。
13.如权利要求12所述的装置,其特征在于,所述深度卷积网络还包括:
拼接层;
所述拼接层将第一层卷积网络层输出的32个特征映射图像与输入至所述深度卷积网络的输入图像在数量维度上串联起来,生成35个特征映射图像,并将所述35个特征映射图像输入到第二层卷积网络层进行卷积。
14.如权利要求11所述的装置,其特征在于,所述多尺度深度卷积网络包括第一深度卷积网络和第二深度卷积网络;
所述第一深度卷积网络和所述第二深度卷积网络均由四层卷积网络层组成;
所述第一深度卷积网络的卷积网络层的卷积核尺寸相比所述第二深度卷积网络的卷积网络层的卷积核尺寸,小但个数多。
15.如权利要求14所述的装置,其特征在于,所述第一深度卷积网络的第一层由48个5×5的滤波器构成,第二层由128个3×3的滤波器组成,第三层由32个3×3的滤波器组成,第四层由1个3×3的滤波器组成;
所述第二深度卷积网络的第一层由64个9×9的滤波器构成,第二层由64个5×5的滤波器组成,第三层由32个5×5的滤波器组成,第四层由1个3×3的滤波器组成。
16.如权利要求15所述的装置,其特征在于,所述第一深度卷积网络还包括:
第一拼接层;
所述第一拼接层将第二层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到第三层卷积网络层进行卷积;
所述第二深度卷积网络还包括:
第二拼接层;
所述第二拼接层将所述第二深度卷积网络的第四层卷积网络层输出的特征映射图像与输入至所述第一深度卷积网络的输入图像在数量维度上串联起来,并输入到所述第二深度卷积网络的第一层卷积网络层进行卷积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510954043.8A CN105574827B (zh) | 2015-12-17 | 2015-12-17 | 一种图像去雾的方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510954043.8A CN105574827B (zh) | 2015-12-17 | 2015-12-17 | 一种图像去雾的方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105574827A true CN105574827A (zh) | 2016-05-11 |
CN105574827B CN105574827B (zh) | 2018-04-13 |
Family
ID=55884922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510954043.8A Active CN105574827B (zh) | 2015-12-17 | 2015-12-17 | 一种图像去雾的方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105574827B (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127702A (zh) * | 2016-06-17 | 2016-11-16 | 兰州理工大学 | 一种基于深度学习的图像去雾算法 |
CN106204499A (zh) * | 2016-07-26 | 2016-12-07 | 厦门大学 | 基于卷积神经网络的单幅图像去雨方法 |
CN106600560A (zh) * | 2016-12-22 | 2017-04-26 | 福州大学 | 一种适用于行车记录仪的图像去雾方法 |
CN106780356A (zh) * | 2016-11-15 | 2017-05-31 | 天津大学 | 基于卷积神经网络和先验信息的图像去雾方法 |
CN106910175A (zh) * | 2017-02-28 | 2017-06-30 | 武汉大学 | 一种基于深度学习的单幅图像去雾算法 |
CN107256541A (zh) * | 2017-06-15 | 2017-10-17 | 北京航空航天大学 | 一种基于卷积神经网络的多光谱遥感图像去雾方法 |
CN107301625A (zh) * | 2017-06-05 | 2017-10-27 | 天津大学 | 基于亮度融合网络的图像去雾算法 |
CN107301624A (zh) * | 2017-06-05 | 2017-10-27 | 天津大学 | 基于区域划分及浓雾预处理的卷积神经网络去雾算法 |
CN107481209A (zh) * | 2017-08-21 | 2017-12-15 | 北京航空航天大学 | 一种基于卷积神经网络的图像或视频质量增强方法 |
CN107705262A (zh) * | 2017-10-10 | 2018-02-16 | 中山大学 | 一种基于混合先验学习模型的去雾方法 |
CN107845078A (zh) * | 2017-11-07 | 2018-03-27 | 北京航空航天大学 | 一种元数据辅助的无人机图像多线程清晰化方法 |
CN107967671A (zh) * | 2017-10-30 | 2018-04-27 | 大连理工大学 | 结合数据学习和物理先验的图像去雾方法 |
CN108229525A (zh) * | 2017-05-31 | 2018-06-29 | 商汤集团有限公司 | 神经网络训练及图像处理方法、装置、电子设备和存储介质 |
CN108520501A (zh) * | 2018-03-30 | 2018-09-11 | 西安交通大学 | 一种基于多尺度卷积稀疏编码的视频去雨雪方法 |
CN108564549A (zh) * | 2018-04-20 | 2018-09-21 | 福建帝视信息科技有限公司 | 一种基于多尺度稠密连接网络的图像去雾方法 |
CN109102468A (zh) * | 2018-06-27 | 2018-12-28 | 广州视源电子科技股份有限公司 | 图像增强方法、装置、终端设备及存储介质 |
CN109146810A (zh) * | 2018-08-08 | 2019-01-04 | 国网浙江省电力有限公司信息通信分公司 | 一种基于端到端深度学习的图像去雾方法 |
CN109359597A (zh) * | 2018-10-18 | 2019-02-19 | 成都理工大学 | 基于多频融合深度学习的雷达步态识别方法 |
CN109544482A (zh) * | 2018-11-29 | 2019-03-29 | 厦门美图之家科技有限公司 | 一种卷积神经网络模型生成方法及图像增强方法 |
CN109636754A (zh) * | 2018-12-11 | 2019-04-16 | 山西大学 | 基于生成对抗网络的极低照度图像增强方法 |
CN109637187A (zh) * | 2019-01-07 | 2019-04-16 | 合肥工业大学 | 城市路侧停车位无人收费监管方法和系统 |
CN109978799A (zh) * | 2019-04-15 | 2019-07-05 | 武汉理工大学 | 一种基于深度学习的海事无人机视频图像去雾方法 |
CN110088773A (zh) * | 2016-10-06 | 2019-08-02 | 谷歌有限责任公司 | 具有可分离卷积层的图像处理神经网络 |
CN109410144B (zh) * | 2018-10-31 | 2020-11-27 | 聚时科技(上海)有限公司 | 一种基于深度学习的端到端图像去雾处理方法 |
CN112991225A (zh) * | 2021-04-14 | 2021-06-18 | 集美大学 | 一种海面目标图像去雾方法 |
CN113763259A (zh) * | 2021-02-18 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 图像去雾方法和装置 |
CN116631038A (zh) * | 2023-06-06 | 2023-08-22 | 湖南三湘银行股份有限公司 | 基于图像验证银行用户身份的方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130071043A1 (en) * | 2011-09-08 | 2013-03-21 | Fujitsu Limited | Image defogging method and system |
CN103761720A (zh) * | 2013-12-13 | 2014-04-30 | 中国科学院深圳先进技术研究院 | 图像去雾方法以图像去雾装置 |
CN104217404A (zh) * | 2014-08-27 | 2014-12-17 | 华南农业大学 | 雾霾天视频图像清晰化处理方法及其装置 |
CN104732503A (zh) * | 2013-12-24 | 2015-06-24 | 中国科学院深圳先进技术研究院 | 图像去雾增强方法和装置 |
CN104794697A (zh) * | 2015-05-05 | 2015-07-22 | 哈尔滨工程大学 | 一种基于暗原色先验的图像去雾方法 |
-
2015
- 2015-12-17 CN CN201510954043.8A patent/CN105574827B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130071043A1 (en) * | 2011-09-08 | 2013-03-21 | Fujitsu Limited | Image defogging method and system |
CN103761720A (zh) * | 2013-12-13 | 2014-04-30 | 中国科学院深圳先进技术研究院 | 图像去雾方法以图像去雾装置 |
CN104732503A (zh) * | 2013-12-24 | 2015-06-24 | 中国科学院深圳先进技术研究院 | 图像去雾增强方法和装置 |
CN104217404A (zh) * | 2014-08-27 | 2014-12-17 | 华南农业大学 | 雾霾天视频图像清晰化处理方法及其装置 |
CN104794697A (zh) * | 2015-05-05 | 2015-07-22 | 哈尔滨工程大学 | 一种基于暗原色先验的图像去雾方法 |
Non-Patent Citations (2)
Title |
---|
刘楠等: "基于加权暗通道的图像去雾方法", 《光子学报》 * |
李方等: "单一图像的快速去雾算法", 《计算机工程与设计》 * |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127702B (zh) * | 2016-06-17 | 2018-08-14 | 兰州理工大学 | 一种基于深度学习的图像去雾方法 |
CN106127702A (zh) * | 2016-06-17 | 2016-11-16 | 兰州理工大学 | 一种基于深度学习的图像去雾算法 |
CN106204499B (zh) * | 2016-07-26 | 2019-05-24 | 厦门大学 | 基于卷积神经网络的单幅图像去雨方法 |
CN106204499A (zh) * | 2016-07-26 | 2016-12-07 | 厦门大学 | 基于卷积神经网络的单幅图像去雨方法 |
US11593614B2 (en) | 2016-10-06 | 2023-02-28 | Google Llc | Image processing neural networks with separable convolutional layers |
CN110088773A (zh) * | 2016-10-06 | 2019-08-02 | 谷歌有限责任公司 | 具有可分离卷积层的图像处理神经网络 |
US11922288B2 (en) | 2016-10-06 | 2024-03-05 | Google Llc | Image processing neural networks with separable convolutional layers |
CN106780356B (zh) * | 2016-11-15 | 2020-04-28 | 天津大学 | 基于卷积神经网络和先验信息的图像去雾方法 |
CN106780356A (zh) * | 2016-11-15 | 2017-05-31 | 天津大学 | 基于卷积神经网络和先验信息的图像去雾方法 |
CN106600560B (zh) * | 2016-12-22 | 2019-07-12 | 福州大学 | 一种适用于行车记录仪的图像去雾方法 |
CN106600560A (zh) * | 2016-12-22 | 2017-04-26 | 福州大学 | 一种适用于行车记录仪的图像去雾方法 |
CN106910175B (zh) * | 2017-02-28 | 2020-01-24 | 武汉大学 | 一种基于深度学习的单幅图像去雾算法 |
CN106910175A (zh) * | 2017-02-28 | 2017-06-30 | 武汉大学 | 一种基于深度学习的单幅图像去雾算法 |
CN108229525B (zh) * | 2017-05-31 | 2021-12-28 | 商汤集团有限公司 | 神经网络训练及图像处理方法、装置、电子设备和存储介质 |
CN108229525A (zh) * | 2017-05-31 | 2018-06-29 | 商汤集团有限公司 | 神经网络训练及图像处理方法、装置、电子设备和存储介质 |
CN107301625A (zh) * | 2017-06-05 | 2017-10-27 | 天津大学 | 基于亮度融合网络的图像去雾算法 |
CN107301625B (zh) * | 2017-06-05 | 2021-06-01 | 天津大学 | 基于亮度融合网络的图像去雾方法 |
CN107301624B (zh) * | 2017-06-05 | 2020-03-17 | 天津大学 | 基于区域划分及浓雾预处理的卷积神经网络去雾方法 |
CN107301624A (zh) * | 2017-06-05 | 2017-10-27 | 天津大学 | 基于区域划分及浓雾预处理的卷积神经网络去雾算法 |
CN107256541B (zh) * | 2017-06-15 | 2020-01-24 | 北京航空航天大学 | 一种基于卷积神经网络的多光谱遥感图像去雾方法 |
CN107256541A (zh) * | 2017-06-15 | 2017-10-17 | 北京航空航天大学 | 一种基于卷积神经网络的多光谱遥感图像去雾方法 |
CN107481209B (zh) * | 2017-08-21 | 2020-04-21 | 北京航空航天大学 | 一种基于卷积神经网络的图像或视频质量增强方法 |
CN107481209A (zh) * | 2017-08-21 | 2017-12-15 | 北京航空航天大学 | 一种基于卷积神经网络的图像或视频质量增强方法 |
CN107705262A (zh) * | 2017-10-10 | 2018-02-16 | 中山大学 | 一种基于混合先验学习模型的去雾方法 |
CN107967671A (zh) * | 2017-10-30 | 2018-04-27 | 大连理工大学 | 结合数据学习和物理先验的图像去雾方法 |
CN107967671B (zh) * | 2017-10-30 | 2021-05-18 | 大连理工大学 | 结合数据学习和物理先验的图像去雾方法 |
CN107845078A (zh) * | 2017-11-07 | 2018-03-27 | 北京航空航天大学 | 一种元数据辅助的无人机图像多线程清晰化方法 |
CN107845078B (zh) * | 2017-11-07 | 2020-04-14 | 北京航空航天大学 | 一种元数据辅助的无人机图像多线程清晰化方法 |
CN108520501A (zh) * | 2018-03-30 | 2018-09-11 | 西安交通大学 | 一种基于多尺度卷积稀疏编码的视频去雨雪方法 |
CN108564549B (zh) * | 2018-04-20 | 2022-04-05 | 福建帝视信息科技有限公司 | 一种基于多尺度稠密连接网络的图像去雾方法 |
CN108564549A (zh) * | 2018-04-20 | 2018-09-21 | 福建帝视信息科技有限公司 | 一种基于多尺度稠密连接网络的图像去雾方法 |
CN109102468A (zh) * | 2018-06-27 | 2018-12-28 | 广州视源电子科技股份有限公司 | 图像增强方法、装置、终端设备及存储介质 |
CN109102468B (zh) * | 2018-06-27 | 2021-06-01 | 广州视源电子科技股份有限公司 | 图像增强方法、装置、终端设备及存储介质 |
CN109146810A (zh) * | 2018-08-08 | 2019-01-04 | 国网浙江省电力有限公司信息通信分公司 | 一种基于端到端深度学习的图像去雾方法 |
CN109359597B (zh) * | 2018-10-18 | 2021-06-01 | 成都理工大学 | 基于多频融合深度学习的雷达步态识别方法 |
CN109359597A (zh) * | 2018-10-18 | 2019-02-19 | 成都理工大学 | 基于多频融合深度学习的雷达步态识别方法 |
CN109410144B (zh) * | 2018-10-31 | 2020-11-27 | 聚时科技(上海)有限公司 | 一种基于深度学习的端到端图像去雾处理方法 |
CN109544482A (zh) * | 2018-11-29 | 2019-03-29 | 厦门美图之家科技有限公司 | 一种卷积神经网络模型生成方法及图像增强方法 |
CN109636754B (zh) * | 2018-12-11 | 2022-05-31 | 山西大学 | 基于生成对抗网络的极低照度图像增强方法 |
CN109636754A (zh) * | 2018-12-11 | 2019-04-16 | 山西大学 | 基于生成对抗网络的极低照度图像增强方法 |
CN109637187A (zh) * | 2019-01-07 | 2019-04-16 | 合肥工业大学 | 城市路侧停车位无人收费监管方法和系统 |
CN109978799A (zh) * | 2019-04-15 | 2019-07-05 | 武汉理工大学 | 一种基于深度学习的海事无人机视频图像去雾方法 |
CN113763259A (zh) * | 2021-02-18 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 图像去雾方法和装置 |
CN112991225A (zh) * | 2021-04-14 | 2021-06-18 | 集美大学 | 一种海面目标图像去雾方法 |
CN116631038A (zh) * | 2023-06-06 | 2023-08-22 | 湖南三湘银行股份有限公司 | 基于图像验证银行用户身份的方法及系统 |
CN116631038B (zh) * | 2023-06-06 | 2024-05-28 | 湖南三湘银行股份有限公司 | 基于图像验证银行用户身份的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105574827B (zh) | 2018-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105574827A (zh) | 一种图像去雾的方法、装置 | |
KR102134405B1 (ko) | 적대적 생성망을 이용한 저조도 영상 개선을 위한 장치 및 방법 | |
CN103606137B (zh) | 保持背景和细节信息的直方图均衡化方法 | |
CN111539887B (zh) | 一种基于混合卷积的通道注意力机制和分层学习的神经网络图像去雾方法 | |
CN112614077B (zh) | 一种基于生成对抗网络的非监督低照度图像增强方法 | |
CN102663694A (zh) | 一种基于暗原色通道先验的雾效数字滤镜方法 | |
CN110097519A (zh) | 基于深度学习的双监督图像去雾方法、系统、介质和设备 | |
CN107194898A (zh) | 酒店图像的展示方法、存储介质及酒店信息的推送方法 | |
CN103077500B (zh) | 图像数据的去雾方法及装置 | |
CN106127702A (zh) | 一种基于深度学习的图像去雾算法 | |
CN103020917B (zh) | 一种基于显著性检测的中国古代书法绘画图像复原方法 | |
CN108961349A (zh) | 一种风格化图像的生成方法、装置、设备及存储介质 | |
CN106981080A (zh) | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 | |
CN103400342A (zh) | 基于混合色阶映射及压缩系数的高动态范围图像重构方法 | |
US20230051832A1 (en) | Semantic image extrapolation method and apparatus | |
CN106169181A (zh) | 一种图像处理方法及系统 | |
CN114842216A (zh) | 一种基于小波变换的室内rgb-d图像语义分割方法 | |
CN104835196B (zh) | 一种车载红外图像彩色化三维重建方法 | |
CN112686276A (zh) | 一种基于改进RetinaNet网络的火焰检测方法 | |
CN102129576B (zh) | 全天空极光图像占空比参数的提取方法 | |
CN103295205B (zh) | 一种基于Retinex的微光图像快速增强方法和装置 | |
CN113298744A (zh) | 一种端到端的红外与可见光图像融合方法 | |
DE102021203021A1 (de) | Semantisch konsistente erweiterte trainingsdaten zur ampelerkennung | |
CN115841438A (zh) | 基于改进gan网络的红外图像与可见光图像融合方法 | |
CN117830580A (zh) | 图像生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |