CN113674160A - 一种应用于智能交通系统中的卷积网络图像去雾方法 - Google Patents
一种应用于智能交通系统中的卷积网络图像去雾方法 Download PDFInfo
- Publication number
- CN113674160A CN113674160A CN202110530597.0A CN202110530597A CN113674160A CN 113674160 A CN113674160 A CN 113674160A CN 202110530597 A CN202110530597 A CN 202110530597A CN 113674160 A CN113674160 A CN 113674160A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- convolution
- characteristic
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 230000004927 fusion Effects 0.000 claims description 26
- 238000010586 diagram Methods 0.000 claims description 23
- 230000004913 activation Effects 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 8
- 238000012417 linear regression Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 239000006185 dispersion Substances 0.000 claims description 5
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 7
- 238000007689 inspection Methods 0.000 abstract description 2
- 230000003213 activating effect Effects 0.000 abstract 1
- 239000010410 layer Substances 0.000 description 106
- 230000006870 function Effects 0.000 description 37
- 230000000694 effects Effects 0.000 description 22
- 238000012549 training Methods 0.000 description 21
- 238000012360 testing method Methods 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 5
- 238000002834 transmittance Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理技术领域,公开了一种应用于智能交通系统中的卷积网络图像去雾方法,将具有Maxout激活函数增强的暗通道特征层与多尺度并行特征层相结合用于提取更多的雾霾图像特征,保证图像信息完整性;利用混合卷积的残差网络与深度特征融合的方式提高雾霾图像特征层间细节信息的准确与丰富性;在非线性回归重建层中将高维信息从特征空间映射回图像RGB空间;利用目标损失函数调价网络参数,使得预测的图像与实际清晰图像之间的误差不断缩小,实现图像的去雾。本发明去雾后色彩自然,纹理细节丰富。相比暗通道先验算法、多合一去雾算法,在信噪比、平均梯度、结构相似性、信息熵等客观指标上平均提高约9.14%,复原图像整体清晰自然。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种应用于智能交通系统中的卷积网络图像去雾方法。
背景技术
目前,图像是对自然界客观事物的可视化映射,是人类认识与改造世界的重要信息来源。然而在雾天等气象条件不佳的情况下,受悬浮在空气中雾气粒子的散射和吸收作用的影响,导致成像传感器所采集的图像存在对比度低、颜色失真、边缘信息丢失等退化现象。这极大地增加了后续在车牌检测、交通标志与车道线检测、自动驾驶等智能交通领域中的难度。因此,研究图像去雾方法具有重要的理论价值与工程意义。
人工智能的兴起,使得基于深度学习的卷积神经网络(Convolutional NeuralNetwork,CNN)去雾成为了当前的一个研究热点。Cai等人依据暗通道先验的机理,将卷积网络率先应用于去雾研究中,实现了雾霾图像到透射率特征之间的映射,但由于将图像按照固定尺寸进行分块训练,可能造成去雾图像整体出现颜色扭曲,网络的时间复杂度高。为解决Cai去雾算法存在的不足,Ren等人采用粗尺度与细尺度网络相连接的方式,获得雾霾图像细化后的透射率特征,在质量和速度方面取得了良好的去雾效果。但由于该算法是基于室内成对的雾霾图像进行训练,应用到真实场景下去雾效果往往不佳。为提高去雾算法的稳定性,Li等人设计了一个多合一的去雾网络(AOD-Net),将透射率与大气光等未知参数统一求解,实现了从雾霾图像到清晰图像的直接映射过程,处理效率高,但由于重新定义了雾霾图像的退化过程,去雾后局部区域仍含有明显的残雾,图像整体偏暗。
通过上述分析,现有技术存在的问题及缺陷为:现有去雾技术中存在严重的色彩失真,对比度过增强,局部边缘纹理细节信息丢失,图像整体偏暗等问题。
解决以上问题及缺陷的难度为:
1、当前卷积网络图像去雾需要使用大量的雾天图像配对数据集,在一般情况下,选取同一场景、同一光照下的清晰图像与雾霾图像较困难。
2、由于所处场景地物环境的复杂性,使得采集的退化图像所覆盖的雾浓度范围不同,雾霾图像的亮度分布也极其不均匀,对去雾网络的稳定性提出了严峻的考验。
3、退化图像所包含的信息复杂性高,使得卷积网络用于图像去雾时,会面临网络模型的初始参数和层数设置困难。
4、去雾图像中像素点数与训练模型参数的庞大性,对硬件设备的性能提出了较高的要求。
解决以上问题及缺陷的意义为:
本发明通过设计包含暗通道、多尺度并行、残差网络等特征层的卷积图像去雾网络,一定程度上保证了所提取图像细节信息的丰富性,在合成与真实去雾图像上本发明实现了良好的去雾效果。将本发明中的图像去雾技术应用于计算机视觉系统图像的预处理阶段,可以较好地恢复图像的纹理细节信息,有效改善图像的清晰度与饱和度,便于图像后续的特征提取及应用。进一步为解决雾天交通监控视频拍摄模糊,致使图像在识别与跟踪的过程中出现偏差,从而不利于准确记录交通信息等问题提供了有效技术手段,具有一定的工程应用价值。
发明内容
针对现有技术存在的问题,本发明提供了一种应用于智能交通系统中的卷积网络图像去雾方法。
因此,本发明利用暗通道特征像素提取的思想,提出一种卷积网络图像去雾方法,该方法具有结构简单,易操作的特点,在室内外场景下去雾效果稳定,可有效提升去雾图像的层间结构信息。
本发明是这样实现的,一种应用于智能交通系统中的卷积网络图像去雾方法,所述应用于智能交通系统中的卷积网络图像去雾方法,包括:
步骤一,将具有Maxout激活函数增强的暗通道特征层与多尺度并行特征层相结合用于提取更多的雾霾图像特征。其中,含有Maxout激活函数的暗通道特征层可以将暗通道特征像素提取的思想融入到卷积网络中。多尺度并行特征层可提取景深处的雾度、色彩、光强等深层次的细节信息,共同保证提取雾霾图像特征信息的完整性。
步骤二,利用混合卷积的残差网络与深度特征融合的方式可提高雾霾图像特征层间细节信息的准确与丰富性。此方式可改善特征丢失、梯度弥散以及在特征融合时产生的网格晕影等问题,有效加强了去雾网络信息的反向传播能力,去雾效果得到加强。
步骤三,采集设备获取的雾霾图像与清晰图像的空间维度是一致的,然而经过卷积核特征映射后,去雾图像的特征空间高于图像RGB空间维度,为了缩小图像的空间维度,尽可能减小细节信息的损失,利用非线性回归重建层将高维度的特征图映射回图像RGB空间。
步骤四,为保证预测输出图像与清晰图像尽可能接近。在网络训练过程中,利用目标损失函数调价网络参数,使得预测的图像与实际清晰图像之间的误差不断缩小,当达到所允许的误差阈值时即可完成网络的训练,获得雾霾图像与去雾图像之间的映射关系,实现图像的去雾。
进一步,所述步骤一中,暗通道特征层利用卷积滤波核进行雾霾图像的暗通道特征提取,并通过Maxout函数进行激活增强;
暗通道特征层采用尺寸为480×640的标准雾霾图像作为输入,该层的前2个卷积采用输出深度为16,Filter为5×5,Stride为1,外围填充为1单元的卷积核将雾霾图像进行特征预提取并映射成高维特征图;
受暗通道先验在雾霾图像的RGB三通道中采用极值方式获取雾霾特征的启发,该层中最后的卷积模块采用Filter为3×3,Stride为1,深度为16的卷积核,并利用Maxout函数实现暗通道先验局部最小滤波的功能。
进一步,所述激活函数Maxout操作为:将卷积输出深度为16的特征图分为4组,对于每组特征图按照通道极大值的原理,将尺寸为4×4×480×640的特征图映射为4×480×640,得到含有关键雾度特征的浅层雾霾特征信息;
具体表达式如下:
式中,I表示输入网络的标准雾霾图像,i∈[1,16]为前三层输出的卷积特征图数量,j∈[1,k]为Maxout函数输出的特征图数量,k=4为分组数;W1与B1分别表示暗通道层中每个特征图对应滤波器的权重与偏置,conv表示卷积运算,F1表示暗通道特征层的输出结果。
进一步,所述步骤一中,多尺度并行特征层具体过程为:
暗通道层提取后可获得雾霾图像的轮廓、边缘、形状等浅层结构细节特征,但雾霾图像中包含的更多深层细节特征,如景深处的雾度、色彩、光强、纹理等信息无法被提取;
根据卷积核提取特性可知:Filter为1×1的卷积核可以更多地保留特征图的边缘细节信息,Filter为3×3、5×5和7×7的卷积核可以生成不同维度的丰富特征以补偿损失的信息;
使用4组不同尺寸但数量相同的卷积核并行提取深层特征信息,多尺度卷积操作如下:
Fi=Wi×F1+Bi(i∈2,3,4,5);
式中,Wi与Bi分别隶属于多尺度层中不同卷积核的权重与偏置,Fi表示第i层输出的特征图,进一步将多个尺度卷积模块生成的不同特征图F2,F3,F4,F5进行并联(concat1)合并得到尺寸为32×480×640的特征图F6。
进一步,所述步骤二中,混合卷积的残差网络特征层具体为:
残差网络特征层利用膨胀率分别为1,2,3不同大小的卷积块融合成一个混合卷积核引入到残差网络结构中提取细化的特征信息,使得在特征提取时内层卷积核用于保证图像特征信息之间的连续性,外层卷积核用于保证特征空间结构的层次性,而采用的残差单元可以有效缓解梯度弥散问题,提高有效细节特征信息的传播能力;
残差网络特征层通过级联六个残差单元,每个残差单元包括卷积模块、批规范化、激活函数等三个组件;前三个残差块中的卷积核数量都为4,且恒等映射的卷积核大小为4×3×3,输出尺寸为4×480×640的特征图F7;后三个残差块中的卷积核数量为12,恒等映射的卷积核大小为12×3×3,输出尺寸为12×480×640的特征图F8,残差层中卷积的步长均设置为1。
进一步,所述步骤二中,深度特征信息融合层具体为:
深度特征信息融合层采用固定特征图的高、宽维度,以扩展通道维度的方式将不同卷积核提取的特征图进行有效拼接,具体融合规则如下公式所示:
(c,h,w)→(α·c,h,w);
式中,α为通道维度上所增加的特征图数量,深度特征信息融合层将不同残差级别提取得到的细化特征图F7与F8,以及多尺度提取的深层特征图F6,采用上式进行深度融合后得到尺寸为48×480×640的特征图F9,使输出特征图的数量增多,保证每个特征图所含有的雾霾信息丰富性以及有效细节的传递。
进一步,所述步骤三中,非线性回归重建层具体过程为:
非线性回归重建层采用单独的卷积层将高维信息从特征空间映射回图像RGB空间;
为与原始的彩色雾霾图像的通道数保持一致,对输入的特征图F9,采用Filter大小为3×3,Depth为3的卷积核进行特征图像重建,并使用激活函数BReLU让部分神经元的权值为0,提升输出特征的局部非线性能力,得到尺寸为3×480×640的输出图像F10,具体的表达式如下:
F10=min(tmax,max(tmin,W6*F9+B6));
式中,W6与B6是非线性回归重建层中卷积核的权重与偏置参数,tmin=0与tmax=1作为BReLU的临界值;
所述步骤四中,目标损失函数为:
本发明的另一目的在于提供一种接收用户输入程序存储介质,所存储的计算机程序使电子设备执行所述应用于智能交通系统中的卷积网络图像去雾方法包括下列步骤:
步骤一,将具有Maxout激活函数增强的暗通道特征层与多尺度并行特征层相结合用于提取更多的雾霾图像特征,保证图像信息完整性;
步骤二,利用混合卷积的残差网络与深度特征融合的方式提高雾霾图像特征层间细节信息的准确与丰富性;
步骤三,在非线性回归重建层中将高维信息从特征空间映射回图像RGB空间;
步骤四,利用目标损失函数调价网络参数,使得预测的图像与实际清晰图像之间的误差不断缩小,实现图像的去雾。
本发明的另一目的在于提供一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施所述应用于智能交通系统中的卷积网络图像去雾方法。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:针对在雾霾环境下,空气中悬浮的大量微粒会造成场景反射光在传播过程中发生散射现象,导致采集系统获得的图像质量受到不同程度的退化,严重影响了后续图像识别与跟踪的准确性等问题。为此,本发明利用暗通道特征像素提取的思想,提出了一种卷积网络图像去雾方法。该方法将具有Maxout激活函数增强的暗通道特征层与多尺度并行卷积层相结合用于提取更多的雾霾图像特征,保证图像信息完整性,并利用混合卷积的残差网络与深度特征融合的方式提高雾霾图像特征层间细节信息的准确与丰富性,改进了普通空洞卷积在特征融合时会产生网格晕影以及信息丢失等问题,使得去雾图像的纹理细节信息更清晰。本发明在非线性回归重建层中将高维信息从特征空间映射回图像RGB空间,并利用目标损失函数调价网络参数,使得预测的图像与实际清晰图像之间的误差不断缩小,实现图像的去雾。仿真结果表明,该方法去雾后色彩自然,纹理细节丰富。相比暗通道先验算法、多合一去雾算法,在信噪比、平均梯度、结构相似性、信息熵等客观指标上平均提高约9.14%,复原图像整体清晰自然。并结合实际工程应用,在真实的交通雾霾环境中进行了实例测试。实测结果表明,本发明所提卷积网络去雾方法可有效增强图像的质量,为后续提升智能图像处理系统的性能奠定了良好的基础。
附图说明
图1是本发明实施例提供的应用于智能交通系统中的卷积网络图像去雾方法流程图。
图2是本发明实施例提供的暗通道先验的卷积神经网络整体架构示意图。
图3是本发明实施例提供的Concat并联操作的流程示意图。
图4是本发明实施例提供的空洞卷积操作示意图。
图5是本发明实施例提供的混合卷积原理示意图。
图6是本发明实施例提供的混合卷积的残差网络示意图。
图7是本发明实施例提供的BReLU曲线图。
图8是本发明实施例提供的室内外图像上网络的训练loss曲线结果示意图。
图9是本发明实施例提供的不同算法在合成的室内外图像上的去雾结果示意图。
图10是本发明实施例提供的不同算法在真实雾天图像上去雾结果对比示意图。
图11是本发明实施例提供的不同算法在真实雾天图像上去雾结果的客观参数曲线图;
图中:图a、图10中图像1的客观参数曲线;图b、图10中图像2的客观参数曲线;图c、图10中图像3的客观参数曲线;图d、图10中图像4的客观参数曲线。
图12是本发明实施例提供的真实交通场景下去雾结果示意图;
图中:图a、雾霾图像;图b、去雾图像。
图13是本发明实施例提供的可视化去雾系统整体界面图。
图14是本发明实施例提供的去雾系统功能示意图。
具体实施方式
本发明设计了基于Python+Qt designer开发环境组建的图像去雾系统,并通过可视化界面将本发明中的去雾结果与客观性能参数进行更直观的展示。如图13所示。
本发明中设计的去雾系统总共划分为四个功能块:分别为系统简介与使用方法块、客观性能评价参数块,去雾功能选择块以及退出系统块等,如图14所示。
(1)系统简介与使用块
该模块为用户在去雾简介、操作方法、注意事项等方面做了整体的介绍,方便使用者快速准确地使用本发明设计的去雾系统。
(2)系统客观性能评价块
该模块通过采用一系列的客观参数指标如峰值信噪比、结构相似性、平均梯度、信息熵等来对本发明中的去雾图像进行定量评价。
(3)去雾功能选择块
该模块主要提供了载入雾霾图像,卷积网络去雾,图像清除与保存等功能键。注意:本系统支持jpg、jpeg、bmp和png等多种格式的图像导入。
(4)退出系统块
该模块主要在完成对去雾结果进行显示保存后执行的去雾系统退出操作。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种应用于智能交通系统中的卷积网络图像去雾方法,下面结合附图对本发明作详细的描述。
本发明提供的应用于智能交通系统中的卷积网络图像去雾方法业内的普通技术人员还可以采用其他的步骤实施,图1的本发明提供的应用于智能交通系统中的卷积网络图像去雾方法仅仅是一个具体实施例而已。
如图1所示,本发明实施例提供的应用于智能交通系统中的卷积网络图像去雾方法,包括:
S101:将具有Maxout激活函数增强的暗通道特征层与多尺度并行特征层相结合用于提取更多的雾霾图像特征,保证图像信息完整性;
S102:利用混合卷积的残差网络与深度特征融合的方式提高雾霾图像特征层间细节信息的准确与丰富性;
S103:在非线性回归重建层中将高维信息从特征空间映射回图像RGB空间;
S104:利用目标损失函数调价网络参数,使得预测的图像与实际清晰图像之间的误差不断缩小,实现图像的去雾。
本发明实施例提供的S101中,暗通道特征层利用卷积滤波核进行雾霾图像的暗通道特征提取,并通过Maxout函数进行激活增强;
本层采用尺寸为480×640的标准雾霾图像作为输入,前2个卷积采用输出深度为16,Filter大小为5×5,Stride为1,外围填充为1单元的卷积核将雾霾图像进行特征预提取并映射成高维特征图;
受暗通道先验在雾霾图像的RGB三通道中采用极值方式获取雾霾特征的启发,该层中最后的卷积模块采用Filter为3×3,Stride为1,深度为16的卷积核,并利用Maxout函数实现暗通道先验局部最小滤波的功能;
本发明实施例提供的激活函数Maxout操作为:将卷积输出的深度为16的特征图分为4组,对于每组特征图按照通道极大值的原理,将尺寸为4×4×480×640的特征图映射为4×480×640,得到含有关键雾度特征的浅层雾霾特征信息;
具体表达式如下:
式中,I表示输入网络的标准雾霾图像,i∈[1,16]为前三层输出的卷积特征图数量,j∈[1,k]为Maxout函数输出的特征图数量,k=4为分组数;W1与B1分别表示暗通道层中每个特征图对应滤波器的权重与偏置,conv表示卷积运算,F1表示暗通道特征层的输出结果。
本发明实施例提供的S101,多尺度并行特征层具体过程为:
暗通道层提取后可获得雾霾图像的轮廓、边缘、形状等浅层结构细节特征,但雾霾图像中包含的更多深层细节特征,如景深处的雾度、色彩、光强、纹理等信息无法被提取;
根据卷积核提取特性可知:Filter为1×1的卷积核可以更多地保留特征图的边缘细节信息,Filter为3×3、5×5和7×7的卷积核可以生成不同维度的丰富特征以补偿损失的信息;
使用4组不同尺寸但数量相同的卷积核并行提取深层特征信息,多尺度卷积操作如下:
Fi=Wi×F1+Bi(i∈2,3,4,5);
式中,Wi与Bi分别隶属于多尺度层中不同卷积核的权重与偏置,Fi表示第i层输出的特征图,进一步将多个尺度卷积模块生成的不同特征图F2,F3,F4,F5进行并联(concat1)合并得到尺寸为32×480×640的特征图F6。
本发明实施例提供的S102中,混合卷积的残差网络特征层具体为:
残差网络特征层利用膨胀率分别为1,2,3不同大小的卷积块融合成一个混合卷积核引入到残差网络结构中提取细化的特征信息,使得在特征提取时内层卷积核用于保证图像特征信息之间的连续性,外层卷积核用于保证特征空间结构的层次性,而采用的残差单元可以有效缓解梯度弥散问题,提高有效细节特征信息的传播能力;
残差网络特征层通过级联六个残差单元,每个残差单元包括卷积模块、批规范化、激活函数等三个组件;前三个残差块中的卷积核数量都为4,且恒等映射的卷积核大小为4×3×3,输出尺寸为4×480×640的特征图F7;后三个残差块中的卷积核数量为12,恒等映射的卷积核大小为12×3×3,输出尺寸为12×480×640的特征图F8,残差层中卷积的步长均设置为1。
本发明实施例提供的S102中,深度特征信息融合层具体为:
深度特征信息融合层采用固定特征图的高、宽维度,以扩展通道维度的方式将不同卷积核提取的特征图进行有效拼接,具体融合规则如下公式所示:
(c,h,w)→(α·c,h,w);
式中,α为通道维度上所增加的特征图数量,深度特征信息融合层将不同残差级别提取得到的细化特征图F7与F8,以及多尺度提取的深层特征图F6,采用上式进行深度融合后得到尺寸为48×480×640的特征图F9,使输出特征图的数量增多,保证每个特征图所含有的雾霾信息丰富性以及有效细节的传递。
本发明实施例提供的S103中,非线性回归重建层具体过程为:
非线性回归重建层采用单独的卷积层将高维信息从特征空间映射回图像RGB空间;
为与原始的彩色雾霾图像的通道数保持一致,对输入的特征图F9,采用Filter大小为3×3,Depth为3的卷积核进行特征图像重建,并使用激活函数BReLU让部分神经元的权值为0,提升输出特征的局部非线性能力,得到尺寸为3×480×640的输出图像F10,具体的表达式如下:
F10=min(tmax,max(tmin,W6*F9+B6))
式中,W6与B6是非线性回归重建层中卷积核的权重与偏置参数,tmin=0与tmax=1作为BReLU的临界值。
本发明实施例提供的S104中,目标损失函数为:
下面结合具体实施例对本发明的技术方案作详细的描述。
1、网络结构
根据暗通道特征像素提取的思想,提出的一种卷积网络图像去雾方法的整体结构如图2所示,主要包括:暗通道特征层,多尺度并行特征层,残差网络特征层、深度特征信息融合层,非线性回归重建层。
1.1暗通道特征层
该层利用卷积滤波核进行雾霾图像的暗通道特征提取,并通过Maxout函数进行激活增强。本层采用尺寸为480×640的标准雾霾图像作为本发明的输入,前2个卷积采用输出深度为16,Filter为5×5,Stride为1,外围填充为1单元的卷积核将雾霾图像进行特征预提取并映射成高维特征图。受暗通道先验在雾霾图像的RGB三通道中采用极值方式获取雾霾特征的启发,该层中最后的卷积模块采用Filter为3×3,Stride为1,深度为16的卷积核,并利用Maxout函数实现暗通道先验局部最小滤波的功能。激活函数Maxout操作为:将卷积输出的深度为16的特征图分为4组,对于每组特征图按照通道极大值的原理,将尺寸为4×4×480×640的特征图映射为4×480×640,得到含有关键雾度特征的浅层雾霾特征信息,具体表达式如下:
式中,I表示输入网络的标准雾霾图像,i∈[1,16]为前三层输出的卷积特征图数量,j∈[1,k]为Maxout函数输出的特征图数量,k=4为分组数;W1与B1分别表示暗通道层中每个特征图对应滤波器的权重与偏置,conv表示卷积运算,F1表示暗通道特征层的输出结果。
1.2多尺度并行特征层
暗通道层提取后可获得雾霾图像的轮廓、边缘、形状等浅层结构细节特征,但雾霾图像中包含的更多深层细节特征,如景深处的雾度、色彩、光强、纹理等信息无法被提取。根据卷积核提取特性可知:Filter为1×1的卷积核可以更多地保留特征图的边缘细节信息。Filter为3×3、5×5和7×7的卷积核可以生成不同维度的丰富特征以补偿损失的信息。为获取更深层次图像的细节特征信息,并在景深距离增加的同时保持对雾变化的敏感性,保持所提取图像内部细节信息的有效性以及尺度空间的不变性。使用4组不同尺寸但数量相同的卷积核并行提取深层特征信息,如表1所示为多尺度卷积的参数信息。多尺度卷积操作如下:
Fi=Wi×F1+Bi(i∈2,3,4,5)
式中,Wi与Bi分别隶属于多尺度层中不同卷积核的权重与偏置,Fi表示第i层输出的特征图,进一步将多个尺度卷积模块生成的不同特征图F2,F3,F4,F5进行并联(concat1)合并得到尺寸为32×480×640的特征图F6。具体的concat1过程如图3所示。
表1多尺度卷积参数
1.3残差网络特征层
何凯明在VGG19网络的基础上设计了一种残差网络结构,但该结构利用单一卷积核进行雾霾特征提取时,存在残差单元权重参数复杂,图像的层间结构信息丢失,去雾图像视野受限等问题。如图4中单一的Filter为3×3卷积核,当Dilation设置为2时,将达到与Filter为5×5卷积核具有同样范围的感受野,但与单一的Filter为5×5卷积核相比,空洞卷积核的权重参数将大幅减少,且可以扩大图像的视野范围,使得提取的特征具有空间层次结构性。但单独的空洞卷积权重之间并不是连续紧密的,造成感受野不能覆盖所有的图像特征,会导致提取的特征在后续融合时会产生网格晕影,影响去雾后的效果。因此,该层利用膨胀率(Dilation)分别为1,2,3不同大小的卷积块融合成一个混合卷积核(如图5所示)引入到残差网络结构中提取细化的特征信息,使得在特征提取时内层卷积核用于保证图像特征信息之间的连续性,外层卷积核用于保证特征空间结构的层次性,而采用的残差单元可以有效缓解梯度弥散问题,提高有效细节特征信息的传播能力。
该层通过级联如图6所示结构的六个残差单元,每个残差单元包括卷积模块、批规范化、激活函数等三个组件。前三个残差块中的卷积核数量都为4,且恒等映射的卷积核大小为4×3×3,输出尺寸为4×480×640的特征图F7;后三个残差块中的卷积核数量为12,恒等映射的卷积核大小为12×3×3,输出尺寸为12×480×640的特征图F8,残差层中卷积的步长均设置为1。
1.4深度特征信息融合层
通常CNN卷积层输出的每个特征图具有通道数(c)、特征图的高(h)、特征图的宽(w)等三个维度,由于单独的浅层或者深层特征很难保证去雾图像丰富的细节信息。该层采用固定特征图的高(h)、宽(w)维度,以扩展通道维度(c)的方式将不同卷积核提取的特征图进行有效拼接,具体融合规则如下:
(c,h,w)→(α·c,h,w)
式中,α为通道维度上所增加的特征图数量,深度特征信息融合层将不同残差级别提取得到的细化特征图F7与F8,以及多尺度提取的深层特征图F6,采用上式进行深度融合后得到尺寸为48×480×640的特征图F9,使输出特征图的数量增多,保证每个特征图所含有的雾霾信息丰富性以及有效细节的传递。
1.5非线性回归重建层
该层采用单独的卷积层将高维信息从特征空间映射回图像RGB空间。为与原始的彩色雾霾图像的通道数保持一致,对输入的特征图F9,采用Filter大小为3×3,Depth为3的卷积核进行特征图像重建,使用如图7所示的激活函数BReLU让部分神经元的权值为0,提升输出特征的局部非线性能力,得到尺寸为3×480×640的输出图像F10。具体的定义式如下:
F10=min(tmax,max(tmin,W6*F9+B6))
式中,W6与B6是非线性回归重建层中卷积核的权重与偏置参数,tmin=0与tmax=1作为BReLU的临界值;
1.6目标损失函数
目标损失函数可以衡量网络预测的好坏程度。在网络训练过程中,利用目标损失函数调价网络参数,使得预测的图像与实际清晰图像之间的误差不断缩小,实现图像的去雾。具体表达式如下:
下面结合仿真实验对本发明的技术方案作进一步的描述。
1、实验数据集
将真实图像数据集(REalistic Single Image Dehazing,RESIDE)作为卷积去雾网络的数据集,与Middlebury Stereo、NYU-Depth database数据集相比,RESIDE数据集包括了室内、室外等丰富的场景雾霾图像,故而更适合本发明对图像去雾网络的训练与测试。如表2显示了RESIDE各种图像数据源内容,主要分为五个子数据集,每个子集用于不同的训练或评估目的。其中,训练集使用室内数据集ITS(Indoor Training Set,ITS)与室外数据集(Outdoor Training Set,OTS),由于这两个数据集在来源与合成的方式上完全不同,并且已有成对的清晰与有雾图像,使得训练起来更加简单便捷。测试集使用综合目标测试集(Synthetic Objective Testing Set,SOTS)和混合主观测试集(Hybrid SubjectiveTesting Set,HSTS)中的室内外等多个场景下差别各异的有雾图像。
表2数据集RESIDE构成
类型 | 数量 |
室内训练集 | 110000 |
室外训练集 | 313950 |
综合目标测试集 | 1000 |
混合主观测试集 | 20 |
2网络训练
本发明在ITS与OTS数据集中随机选取了8000与2000张分别用于室内外的训练集与验证集。整个网络基于Pytorch框架实现,每层的权重初始化均采用均值为0、方差为0.002的高斯分布进行随机初始化。模型采用Adam优化器进行梯度下降算法的训练,梯度的平均和平方系数为(0.9,0.999),数值稳定性值为1e-8,权重衰减为0.0001,学习率为0.0001。整个网络在NVIDIA GeForce GTX 1080Ti@8GB GPU上总共迭代了21多万次后,完成了模型的训练与收敛。图8显示了本发明所设计的卷积网络去雾方法分别在室内、室外数据集上训练损失值的变化情况,由图8可知:随着迭代次数的增加,由于室外场景下的景深变化剧烈程度明显比室内强,使得室外数据集训练的损失曲线波动更大,在真实场景中的去雾适应能力也更强。
3合成雾霾图像上对比分析
为了更加客观的验证本发明去雾方法的有效性,在完成网络的训练后,本发明在合成的室内外雾图以及户外真实条件下的雾图上分别进行了仿真测试,并与主流的去雾算法(He算法、Cai算法、Ren算法、Li算法),在主观效果以及客观指标两个方面进行了对比与分析。
图9显示了不同算法的去雾结果。其中前三组图像、后三组图像分别为不同算法在室内、室外雾图上的测试结果。从图9中进行观察:He算法应用于某些场景时,由于先验信息会失效,导致去雾效果并不理想。如第一、三、四、五组(c)图像中的墙体、桌椅冰箱、树叶、围栏的边缘均出现了白边效应;对于白色较亮目标物体处理后,如第二组(c)图像中的沙发以及第四组(c)图像中的天空区域均出现了色彩偏移;此外,He算法处理后的图像画面普遍偏暗。Cai算法、Ren算法、Li算法是基于深度学习的去雾算法。其中,Cai算法去雾力度不够理想,如第一、二、三组(d)图像所示。同时,在天空区域出现了色偏现象,如第四、五组(d)图像所示。Ren算法和本发明去雾方法在第一、三、五组图像中的处理结果最接近原始的清晰图像,但本发明去雾方法在第二、六组图像上比Ren算法去雾效果更优一些。此外,在第四组(e)图像中Ren等人的算法处理后在远景区域存在模糊的阴影现象。Li算法去雾后在第四、五、六组(f)图像中的天空区域处理后很不自然,并在第五、六组的(f)图像局部区域还留有一定的残雾。与4种不同去雾算法相比,本发明去雾方法在合成的室内外场景测试图像中去雾效果稳定,复原图像的对比度适中、结构纹理细节清晰,无白色晕影出现,最接近真实的无雾图像。如第三、四、五组(g)图像中的餐桌上的水果、远处亭子、观光塔上的大钟等。
为使实验测试结果更具客观真实性,如表3显示了各算法在六组合成图像上的客观评价指标。从表3中可知:本发明方法在信噪比、平均梯度、结构相似性、信息熵等方面的评价指标都优于对比算法。进一步观察发现:在第二、三、五、六组图像中,本发明去雾方法的峰值信噪比达到了22以上,结构相似性达到了0.90以上,信息熵达到了15以上。结合表3可得:本发明去雾方法的客观参数指标均优于其他4种对比算法,得到的去雾图像与真实的清晰图像相比失真差异小,清晰度高,去雾质量显著提升。
表3各算法在室内外图像上的客观指标对比表
4真实户外雾霾图像对比分析
为了更加有效的验证本发明去雾方法的可靠性,如图10为图像去雾网络分别在薄雾、浓雾、景深、天空等多种真实雾霾场景下的去雾效果图。从图中可得,He算法去雾彻底,但复原后图像整体偏暗,在复杂场景下去雾效果不理想。如图10(a-3)与(a-4)中的天空区域失真偏色。如图10(a-1)中的绿洲、(a-3)中的树枝等边缘处出现了明显的白色晕影现象。如图10(a-2)中的丛林去雾后画面可见度低。Cai算法将卷积网络用于学习有雾图像与透射率之间的映射关系,提高了图像的对比度,但由于并未构建优化大气光的网络结构,导致透射率比实际值偏小,去雾不足,效果不理想。如图10(b)列中的景深区域。Ren算法在粗透射率的基础上,引入细尺度模型进行特征的强化,去雾效果与本发明去雾方法较接近,但在天空区域出现了过增强现象,导致去雾后图像的亮度和饱和度发生了偏移,如图10(c-3)、(c-4)所示。Li算法将大气散射模型进行变形,将透射率与大气光融合为一个模型,设计了一体化去雾网络,模型复杂度低。但并未考虑到深度信息与雾霾的厚度等因素,去雾后残雾明显,如图10(d-1)、(d-2)所示,并在如图10(d-4)中的远景处出现了类似彩虹的条纹。相比之下,本发明方法在自然图像上的去雾效果最好,在多种场景下都取得了令人满意的去雾结果,整体视感清晰自然,更显真实性。如图10(e)列所示。
图11显示了图10中各算法在处理真实场景下雾霾图像的客观指标曲线图。从图中可知,Ren与Li算法的实验客观参数值在4种客观参数指标上逼近于本发明去雾方法的参数指标。而He与Cai算法应用于复杂的场景图像时会表现出不稳定的去雾效果,尤其在景深以及大面积天空图像中客观参数值较低,去雾效果不佳。相比之下,本发明方法通过对4幅真实图像去雾处理后,在客观参数指标上明显位于其他4种去雾算法之上,在信噪比上平均提高9.45%,平均梯度上平均提高10.32%,结构相似性上平均提高11.07%,信息熵上平均提高约5.72%,表明本发明方法的去雾效果较好,符合人们的视觉体验。
5交通场景去雾实测
为验证本发明所提去雾方法的可行性,将相机设备采集的真实雾图通过数据线实时传入入到本地硬盘中进行真实交通场景下的去雾方法实测。如图12为本发明去雾方法的测试效果图。
图12为真实交通场景下的测试结果,去雾后在前景区域轮廓细节恢复清晰,色彩自然,视觉效果好。在景深区域处的雾浓度分布复杂,造成本发明方法在去除残雾后,由于需要保留更多的原始细节信息,使得去雾后存在些许伪影,如图12中的景深处道路与天空接壤区域。此外,本发明去雾方法可较好地避免暗通道先验去雾算法中依赖的众多先验信息以及大气散射模型,使得去雾图像的清晰度得到增强,细节层次更丰富。
本发明利用暗通道的思想,提出了一种卷积网络的图像去雾方法。该网络利用多尺度提取特征的思想,并将混合卷积融入到残差网络中,使得网络对于雾霾图像的细节特征提取更加丰富高效,加快了网络的收敛。通过主客观对比,该方法去雾后色彩过渡自然,轮廓细节信息突出,对比度适中,去雾效果良好。结合实际工程应用,通过实测验证了本发明去雾方法可以有效改善图像的质量,但对实际的雾霾图像进行去雾后在景深区域仍有些许伪影。因此,下一步将收集更多真实场景下的有雾图像补充到数据库中,并重点优化在景深区域去雾的效果,为后续进行有效的图像去雾打好坚实的基础。
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (8)
1.一种应用于智能交通系统中的卷积网络图像去雾方法,其特征在于,所述应用于智能交通系统中的卷积网络图像去雾方法包括:
将具有Maxout激活函数增强的暗通道特征层与多尺度并行特征层相结合用于提取更多的雾霾图像特征,保证图像信息完整性;
利用混合卷积的残差网络与深度特征融合的方式提高雾霾图像特征层间细节信息的准确与丰富性;
在非线性回归重建层中将高维信息从特征空间映射回图像RGB空间。
2.如权利要求1所述应用于智能交通系统中的卷积网络图像去雾方法,其特征在于,暗通道特征层利用卷积滤波核进行雾霾图像的暗通道特征提取,并通过Maxout函数进行激活增强;
暗通道特征层采用尺寸为480×640的标准雾霾图像作为输入,该层的前2个卷积采用输出深度为16,Filter为5×5,Stride为1,外围填充为1单元的卷积核将雾霾图像进行特征预提取并映射成高维特征图;
受暗通道先验在雾霾图像的RGB三通道中采用极值方式获取雾霾特征的启发,该层中最后的卷积模块采用Filter为3×3,Stride为1,深度为16的卷积核,并利用Maxout函数实现暗通道先验局部最小滤波的功能。
3.如权利要求1所述应用于智能交通系统中的卷积网络图像去雾方法,其特征在于,所述多尺度并行特征层具体过程为:
暗通道层提取后可获得雾霾图像的轮廓、边缘、形状等浅层结构细节特征,但雾霾图像中包含的更多深层细节特征,如景深处的雾度、色彩、光强、纹理等信息无法被提取;
根据卷积核提取特性可知:Filter为1×1的卷积核可以更多地保留特征图的边缘细节信息,Filter为3×3、5×5和7×7的卷积核可以生成不同维度的丰富特征以补偿损失的信息;
使用4组不同尺寸但数量相同的卷积核并行提取深层特征信息,多尺度卷积操作如下:
Fi=Wi×F1+Bi(i∈2,3,4,5);
式中,Wi与Bi分别隶属于多尺度层中不同卷积核的权重与偏置,Fi表示第i层输出的特征图,进一步将多个尺度卷积模块生成的不同特征图F2,F3,F4,F5进行并联(concat1)合并得到尺寸为32×480×640的特征图F6。
4.如权利要求1所述应用于智能交通系统中的卷积网络图像去雾方法,其特征在于,所述混合卷积的残差网络特征层具体为:
残差网络特征层利用膨胀率分别为1,2,3不同大小的卷积块融合成一个混合卷积核引入到残差网络结构中提取细化的特征信息,使得在特征提取时内层卷积核用于保证图像特征信息之间的连续性,外层卷积核用于保证特征空间结构的层次性,而采用的残差单元可以有效缓解梯度弥散问题,提高有效细节特征信息的传播能力;
残差网络特征层通过级联六个残差单元,每个残差单元包括卷积模块、批规范化、激活函数三个组件;前三个残差块中的卷积核数量都为4,且恒等映射的卷积核大小为4×3×3,输出尺寸为4×480×640的特征图F7;后三个残差块中的卷积核数量为12,恒等映射的卷积核大小为12×3×3,输出尺寸为12×480×640的特征图F8,残差层中卷积的步长均设置为1。
5.如权利要求1所述应用于智能交通系统中的卷积网络图像去雾方法,其特征在于,所述深度特征信息融合层具体为:
深度特征信息融合层采用固定特征图的高、宽维度,以扩展通道维度的方式将不同卷积核提取的特征图进行有效拼接,具体融合规则如下公式所示:
(c,h,w)→(α·c,h,w);
式中,α为通道维度上所增加的特征图数量,深度特征信息融合层将不同残差级别提取得到的细化特征图F7与F8,以及多尺度提取的深层特征图F6,采用上式进行深度融合后得到尺寸为48×480×640的特征图F9,使输出特征图的数量增多,保证每个特征图所含有的雾霾信息丰富性以及有效细节的传递。
6.如权利要求1所述应用于智能交通系统中的卷积网络图像去雾方法,其特征在于,所述步骤三中,非线性回归重建层具体过程为:
非线性回归重建层采用单独的卷积层将高维信息从特征空间映射回图像RGB空间;
为与原始的彩色雾霾图像的通道数保持一致,对输入的特征图F9,采用Filter大小为3×3,Depth为3的卷积核进行特征图像重建,并使用激活函数BReLU让部分神经元的权值为0,提升输出特征的局部非线性能力,得到尺寸为3×480×640的输出图像F10,具体的表达式如下:
F10=min(tmax,max(tmin,W6*F9+B6));
式中,W6与B6是非线性回归重建层中卷积核的权重与偏置参数,tmin=0与tmax=1作为BReLU的临界值。
7.一种接收用户输入程序存储介质,所存储的计算机程序使电子设备执行权利要求1~6任意一项所述应用于智能交通系统中的卷积网络图像去雾方法包括下列步骤:
步骤一,将具有Maxout激活函数增强的暗通道特征层与多尺度并行特征层相结合用于提取更多的雾霾图像特征,保证图像信息完整性;
步骤二,利用混合卷积的残差网络与深度特征融合的方式提高雾霾图像特征层间细节信息的准确与丰富性;
步骤三,在非线性回归重建层中将高维信息从特征空间映射回图像RGB空间。
8.一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施如权利要求1~6任意一项所述应用于智能交通系统中的卷积网络图像去雾方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110530597.0A CN113674160B (zh) | 2021-05-15 | 2021-05-15 | 一种应用于智能交通系统中的卷积网络图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110530597.0A CN113674160B (zh) | 2021-05-15 | 2021-05-15 | 一种应用于智能交通系统中的卷积网络图像去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113674160A true CN113674160A (zh) | 2021-11-19 |
CN113674160B CN113674160B (zh) | 2024-09-10 |
Family
ID=78538136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110530597.0A Active CN113674160B (zh) | 2021-05-15 | 2021-05-15 | 一种应用于智能交通系统中的卷积网络图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113674160B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114494891A (zh) * | 2022-04-15 | 2022-05-13 | 中国科学院微电子研究所 | 一种基于多尺度并行检测的危险品识别装置和方法 |
CN116129379A (zh) * | 2022-12-28 | 2023-05-16 | 国网安徽省电力有限公司芜湖供电公司 | 一种雾天环境下的车道线检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378849A (zh) * | 2019-07-09 | 2019-10-25 | 闽江学院 | 基于深度残差网络的图像去雾去雨方法 |
AU2020100274A4 (en) * | 2020-02-25 | 2020-03-26 | Huang, Shuying DR | A Multi-Scale Feature Fusion Network based on GANs for Haze Removal |
CN111489302A (zh) * | 2020-03-27 | 2020-08-04 | 武汉理工大学 | 一种雾气环境下海事图像增强方法 |
CN111915531A (zh) * | 2020-08-06 | 2020-11-10 | 温州大学 | 一种多层次特征融合和注意力引导的神经网络图像去雾方法 |
CN112164010A (zh) * | 2020-09-30 | 2021-01-01 | 南京信息工程大学 | 一种多尺度融合卷积神经网络图像去雾方法 |
-
2021
- 2021-05-15 CN CN202110530597.0A patent/CN113674160B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378849A (zh) * | 2019-07-09 | 2019-10-25 | 闽江学院 | 基于深度残差网络的图像去雾去雨方法 |
AU2020100274A4 (en) * | 2020-02-25 | 2020-03-26 | Huang, Shuying DR | A Multi-Scale Feature Fusion Network based on GANs for Haze Removal |
CN111489302A (zh) * | 2020-03-27 | 2020-08-04 | 武汉理工大学 | 一种雾气环境下海事图像增强方法 |
CN111915531A (zh) * | 2020-08-06 | 2020-11-10 | 温州大学 | 一种多层次特征融合和注意力引导的神经网络图像去雾方法 |
CN112164010A (zh) * | 2020-09-30 | 2021-01-01 | 南京信息工程大学 | 一种多尺度融合卷积神经网络图像去雾方法 |
Non-Patent Citations (1)
Title |
---|
徐岩;孙美双;: "基于多特征融合的卷积神经网络图像去雾算法", 激光与光电子学进展, no. 03, 10 March 2018 (2018-03-10) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114494891A (zh) * | 2022-04-15 | 2022-05-13 | 中国科学院微电子研究所 | 一种基于多尺度并行检测的危险品识别装置和方法 |
CN114494891B (zh) * | 2022-04-15 | 2022-07-22 | 中国科学院微电子研究所 | 一种基于多尺度并行检测的危险品识别装置和方法 |
CN116129379A (zh) * | 2022-12-28 | 2023-05-16 | 国网安徽省电力有限公司芜湖供电公司 | 一种雾天环境下的车道线检测方法 |
CN116129379B (zh) * | 2022-12-28 | 2023-11-07 | 国网安徽省电力有限公司芜湖供电公司 | 一种雾天环境下的车道线检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113674160B (zh) | 2024-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | An underwater image enhancement benchmark dataset and beyond | |
CN111709902B (zh) | 基于自注意力机制的红外和可见光图像融合方法 | |
Zhang et al. | Single image defogging based on multi-channel convolutional MSRCR | |
CN110458844A (zh) | 一种低光照场景的语义分割方法 | |
US11935213B2 (en) | Laparoscopic image smoke removal method based on generative adversarial network | |
CN110675462A (zh) | 一种基于卷积神经网络的灰度图像彩色化方法 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
CN113674160A (zh) | 一种应用于智能交通系统中的卷积网络图像去雾方法 | |
Dong et al. | Semi-supervised domain alignment learning for single image dehazing | |
Su et al. | Prior guided conditional generative adversarial network for single image dehazing | |
CN107622503A (zh) | 一种恢复图像遮挡边界的分层分割方法 | |
CN106709504A (zh) | 细节保持的高保真色调映射方法 | |
CN112183448B (zh) | 一种基于三级分类和多尺度fcn的脱荚大豆图像分割方法 | |
Wang et al. | Metalantis: A Comprehensive Underwater Image Enhancement Framework | |
Huang et al. | SIDNet: a single image dedusting network with color cast correction | |
Cui et al. | ECANet: Enhanced context aggregation network for single image dehazing | |
CN103177425A (zh) | 切伦科夫荧光成像中γ射线的去除方法 | |
Gan et al. | Multilevel image dehazing algorithm using conditional generative adversarial networks | |
Fu et al. | Multi-feature-based bilinear CNN for single image dehazing | |
Li et al. | An end-to-end system for unmanned aerial vehicle high-resolution remote sensing image haze removal algorithm using convolution neural network | |
Zhao et al. | A multi-scale U-shaped attention network-based GAN method for single image dehazing | |
Zheng et al. | Overwater image dehazing via cycle-consistent generative adversarial network | |
Cui et al. | Progressive dual-branch network for low-light image enhancement | |
CN117495718A (zh) | 一种多尺度自适应的遥感图像去雾方法 | |
CN116703750A (zh) | 基于边缘注意力和多阶微分损失的图像去雾方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |