CN114240795A - 一种融合偏色校正的图像去沙尘暴方法 - Google Patents
一种融合偏色校正的图像去沙尘暴方法 Download PDFInfo
- Publication number
- CN114240795A CN114240795A CN202111577653.2A CN202111577653A CN114240795A CN 114240795 A CN114240795 A CN 114240795A CN 202111577653 A CN202111577653 A CN 202111577653A CN 114240795 A CN114240795 A CN 114240795A
- Authority
- CN
- China
- Prior art keywords
- image
- sandstorm
- color
- dustare
- color cast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012937 correction Methods 0.000 title claims abstract description 25
- 239000004576 sand Substances 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 239000000428 dust Substances 0.000 claims abstract description 6
- 238000005070 sampling Methods 0.000 claims abstract description 6
- 238000012512 characterization method Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008447 perception Effects 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 4
- 230000000873 masking effect Effects 0.000 claims description 4
- 238000004880 explosion Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005267 amalgamation Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 22
- 238000013135 deep learning Methods 0.000 description 6
- 238000011158 quantitative evaluation Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000007430 reference method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T5/70—
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Abstract
本发明涉及一种融合偏色校正的图像去沙尘暴方法。该方法通过连接多个具有相同结构的沙尘感知表征提取DustAre模块,先对输入沙尘暴图像多次下采样操作,提取图像特征并融合;然后,对所提取的图像特征进行多次上采样操作,还原到原始图像空间,以获得最后的去沙尘暴图像。本发明:(1)针对沙尘暴图像颜色偏差问题,在网络模型训练时对标签图像采用了传统颜色偏色检测与校正策略,从而图像去沙尘暴结果颜色更加自然;(2)基于沙尘暴图像a*和b*颜色分量的色度值均远大于无沙尘暴图像的发现,设计了新的损失函数项来更好地指导网络模型训练;(3)提出了沙尘暴图像生成模型,合成了一个包含室内外带标签的沙尘暴图像数据集,用于网络模型的训练。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种融合偏色校正的图像去沙尘暴方法。
背景技术
沙尘暴天气对户外监测设备的车牌检测、自动驾驶的客观识别技术等监测系统的能力产生 了负面影响。由于光线在沙尘中传播时的散射和吸收,在沙尘暴天气中拍摄的图像往往会呈现 出颜色偏移和低对比度。沙尘暴图像输入将给其他计算机视觉任务带来困难。因此,图像去沙 尘暴作为高级计算机视觉任务的一个预处理步骤,已成为计算机视觉领域的一个重要研究课题。
现有的图像恢复方法可分为传统的颜色偏色校正方法和基于深度学习的方法。传统的颜色 偏色校正方法通常是先将沙尘暴图像转换到CIELAB颜色空间,CIELAB颜色空间包括两个色 度分量和一个亮度分量;然后,在CIELAB颜色空间中对两个色度分量进行偏色校正,对亮度 分量进行细节增强,得到相应的干净图像。然而,传统的图像去沙尘暴方法只注重图像色彩对 比度调整,没有考虑沙尘对图像的影响与图像场景深度之间的关系。因此,传统方法的修复效 果往往存在色彩饱和度低、残留沙尘较多的问题。
近年来,深度学习技术在图像复原方面取得了有效的应用。基于深度学习的方法通常设计 卷积神经网络来学习图像特征,并在大规模图像数据集上训练网络以生成恢复后图像。由于大 多数现有监督学习神经网络都是在合成图像数据集上进行训练,因此基于深度学习的方法很容 易在合成数据集上产生显著的效果,但在真实图像数据集上的效果欠佳。此外,由于缺乏用于 网络训练的沙尘暴图像数据集,大多数现有的图像去沙尘暴研究仍停留在传统的方法上。
与有雾图像类似,沙尘暴对图像的影响也取决于图像场景的深度。在合成沙尘暴图像时, 应考虑沙尘暴图像和干净图像之间的图像场景深度关系以及沙尘暴图像颜色等因素。因此,本 发明根据沙尘暴图像的具体特征来描述沙尘暴图像的形成过程:
I(x)=J(x)d(x)p(x)+C(1-d(x)p(x))
其中I和J分别表示含沙图像和干净图像。符号C表示沙尘暴颜色图,即全局遮掩光。符 号p表示通过预训练单目图像场景深度评估方法获得的图像场景深度图。d表示沙尘暴图像场景 深度和干净图像场景深度之间的关系。
发明内容
本发明的目的在于为了更加有效去除图像沙尘暴,提供一种融合偏色校正的图像去沙尘暴 方法,该方法比当前最先进的图像复原方法具有更好的图像去沙尘暴效果。
为实现上述目的,本发明的技术方案是:一种融合偏色校正的图像去沙尘暴方法,构建图 像去沙尘暴网络,即通过连接多个具有相同结构的沙尘感知表征提取DustAre模块,先对输入 沙尘暴图像多次下采样操作,提取图像特征并融合;然后,对所提取的图像特征进行多次上采 样操作,还原到原始图像空间,以获得最后的去沙尘暴图像。
在本发明一实施例中,所述图像去沙尘暴网络的高度和宽度分别为3和6,用分别表 示图像去沙尘暴网络网络第r行中第i个DustAre模块的输入和输出,那么在下采样操作过程, 第2行和第3行中的第i+1个DustAre模块的输入可以表示为
类似地,在上采样操作过程,第2行和第1行中的第i+1个DustAre模块的输入可以表示为,
其中,↓及↑分别表示下采样操作和上采样操作。
在本发明一实施例中,所述DustAre模块包括两个分支,其中第一分支用于估计全局遮掩 光即散射在视线中的环境光和局部空间信息,第二分支用于生成一张沙尘暴感知图像,并且融 合该沙尘暴感知图像、全局遮掩光和局部空间信息,以得到DustAre模块的输出。
在本发明一实施例中,所述第一分支使用1×1×2矩阵对输入特征进行编码并生成全局遮 掩光表征(βV,γV)和使用H×W×2矩阵生成局部空间信息表征(βS,γS);所述第二分支首先 根据公式(1)和(2)用输入x规范化两组表征,分别记为V和S,并通过实例规范化层和sigmoid 层来生成沙尘暴感知图A;然后,融合A、V和S,得到DustAre模块的输出y;其中,对于DustAre 模块的输入x,V、S和输出y表示为:
其中,μ及σ分别表示x的平均值和标准偏差。
在本发明一实施例中,该方法还引入偏色校正策略,即使用颜色偏色策略检测和校正训练 数据集的标签图像,使得最终去沙尘暴图像颜色更加自然,具体即:
其中λab、λL1以及λper分别设置为0.3、1.2和0.4;
其中N是图像像素的总数,在去沙尘暴结果y的CIELAB颜色空间中,ya和yb分别表示a* 和b*颜色分量,在经过颜色偏色校正后对应清晰图像即标签图像的CIELAB颜色空间中,及分别表示a*和b*颜色分量;
相较于现有技术,本发明具有以下有益效果:
本发明将深度学习技术引入图像去沙尘暴领域,提出了一种融合颜色校正的图像去沙尘暴 方法(SIDNet)。本发明算法通过连接多个具有相同结构的沙尘感知表征提取模块,先对输入沙 尘暴图像进行多次下采样操作以提取和融合图像特征;再对特征图进行多次上采用操作,还原 到图像空间,从而得到图像去沙尘暴结果。具体创新点如下:(1)针对沙尘暴图像颜色偏差问 题,在网络模型训练时对标签图像采用了传统颜色偏色检测与校正策略,从而图像去沙尘暴结 果颜色更加自然;(2)基于沙尘暴图像a*和b*颜色分量的色度值均远大于无沙尘暴图像的发现, 设计了新的损失函数项来更好地指导网络模型训练;(3)提出了沙尘暴图像生成模型,合成了 一个包含室内外带标签的沙尘暴图像数据集,用于网络模型的训练。
附图说明
图1为本发明方法流程图。
图2为本发明方法(SIDNet)的网络结构。
图3为沙尘暴表征提取(DustAre)模块。
图4为一组相似场景下的沙尘暴图像和干净图像的a*,b*分量比较;(a)真实沙尘暴图像, (b)其在CIELAB颜色空间中的a*分量,(c)在CIELAB中的b*分量,(d)其对应的等效圆,(e) 真实干净图像,(f)其对应的a*分量,(g)对应的b*分量,(h)对应的等效圆。
图5为室外合成图像上各种算法的去沙尘暴结果;(a)沙尘暴图像,(b)LPNet算法[1],(c) RGNet算法[2],(d)AODNet算法[3],(e)FFANet算法[4],(f)Wang等人的算法[5],(g)HardGAN 算法[6],(h)FFNet算法[7],(i)SIDNet算法,(j)标签图像。。
图6为室内合成图像上各种算法的去沙尘暴结果;(a)沙尘暴图像,(b)LPNet算法[1],(c) RGNet算法[2],(d)AODNet算法[3],(e)FFANet算法[4],(f)Wang等人的算法[5],(g)HardGAN 算法[6],(h)FFNet算法[7],(i)SIDNet算法,(j)标签图像。
图7为不同方法在真实沙尘暴图像上的去沙尘暴结果图像。
图8为去沙尘暴样本图像的边缘提取结果。
图9为一组相似场景下,不同算法去沙尘暴结果的关键点匹配数量。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
如图1所示,本发明一种融合偏色校正的图像去沙尘暴方法,构建图像去沙尘暴网络,即 通过连接多个具有相同结构的沙尘感知表征提取DustAre模块,先对输入沙尘暴图像多次下采 样操作,提取图像特征并融合;然后,对所提取的图像特征进行多次上采样操作,还原到原始 图像空间,以获得最后的去沙尘暴图像。
以下为本发明具体实现过程。
1、本发明算法的网络结构
如图2所示,本发明提出的图像去沙尘暴网络结构,首先连接多个具有相同结构的沙尘暴 感知表征提取(DustAre)模块,对输入的沙尘暴图像进行多次下采样操作,提取图像特征并融 合;然后,对所提取的图像特征进行多次上采样操作,以生成去沙尘暴结果。网络的高度和宽 度分别为3和6。具体地,用分别表示网络第r行中第i个DustAre模块的输入和输出,那 么在下采样操作过程,第2行和第3行中的第i+1个DustAre模块的输入可以表示为,
类似地,在上采样操作过程,第2行和第1行中的第i+1个DustAre模块的输入可以表示为,
其中,↓及↑分别表示下采样操作和上采样操作。
2、沙尘暴表征提取模块
为了在保留图像细节的同时去除图像中的沙尘暴,对全局遮掩光和局部空间信息的估计尤 为重要。受现有去雾网络的启发,本发明使用沙尘暴表征提取模块来提取它们的表征。沙尘暴 感知表征提取(DustAre)模块结构如图3所示,其主要包含两个分支。第一个分支使用1×1×2 矩阵对输入特征进行编码并生成全局遮掩光表征(记为βV,γv),和H×W×2矩阵生成局部空 间信息表征(记为βS,γS)。第二个分支首先根据公式(1)和(2)用输入x规范化两组表征(分 别记为V和S),并通过实例规范化层和sigmoid层来生成沙尘暴感知图(A);然后,融合A,V 和S,得到DustAre模块的输出y。其中,对于DustAre模块的输入x,V、S和输出y表示为:
其中,μ及σ分别表示x的平均值和标准偏差。
3、偏色校正
大多数现有的基于深度学习的图像恢复方法都存在一个共同的问题,即它们在合成数据集 上取得了显著的效果,而在真实图像上表现出的效果往往较差。其中的一个主要原因是最终的 图像恢复结果过度依赖于训练数据集,甚至由于训练数据集本身的偏色,导致最终真实图像的 去沙尘暴结果颜色不自然。为了解决这一问题,本发明算法SIDNet使用颜色偏色策略检测和校 正训练数据集的标签图像,以提高真实沙尘暴图像的去沙尘暴效果。具体而言,本发明认为当 偏色因子K≥1.5时,该标签图像本身更可能存在偏色。因此,在CIELAB颜色空间中校正这 些图像的a*、b*分量,即最终训练标签图像的表达式为,
4、损失函数
本发明算法SIDNet的总损失函数定义为:
其中λab、λL1以及λper分别设置为0.3、1.2和0.4;
第一项源于对沙尘暴图像和干净图像的观察,由于沙尘暴图像具有严重的颜色偏差,在 CIELAB颜色空间中沙尘暴图像的平均a*,b*色度值通常大于干净图像的平均a*,b*色度值。 图4展示了两个类似的真实室外场景下的沙尘暴图像和干净图像作为样本,以验证这一观察结 果。图4(a)-(d)分别显示了真实沙尘暴图像、其在CIELAB颜色空间中的a*色度分量、CIELAB 中的b*色度分量及对应的等效圆。类似地,图4(e)-(h)分别显示了干净图像,及其对应的a*色 度分量、b*色度分量和对应的等效圆。从图4可以观察到,沙尘暴图像的a*和b*分量比干净图 像的a*和b*分量模糊且更亮,这表明沙尘暴图像的平均a*和b*色度值大于干净图像的平均a* 和b*色度值。这与图4(d)和(h)中给出的数据一致。为了进一步验证这一观察结果,本发明共计 算了50幅真实沙尘暴和干净图像的a*和b*平均色度值。实验数据表明,50幅真实沙尘暴图像 的平均a*、b*色度值分别为13.53和35.69。50张干净图像的平均a*、b*色度值分别为0.28和 2.99。根据这些数据,可以得出结论,沙尘暴图像在CIELAB颜色空间中通常具有较大的平均 a*,b*色度值。因此,可以推断图像去沙尘暴结果的a*,b*色度平均值越小,表明图像去沙尘 暴效果越好。基于上述观察,本发明设计了第一个损失项为,
其中N是图像像素的总数,在去沙尘暴结果y的CIELAB颜色空间中,ya和yb分别表示a* 和b*颜色分量,在经过颜色偏色校正后对应清晰图像即标签图像的CIELAB颜色空间中,及分别表示a*和b*颜色分量;
本发明方法(SIDNet)与现有的7种图像复原方法进行了比较,即LPNet[1]、RGNet[2]、 AOD Net[3]、FFANet[4]、Wang等人的算法[5]、HardGAN[6]、FFNet[7]。所有算法均在合成沙 尘暴数据集上进行训练实验,同时在合成数据集和真实沙尘暴图像上进行去沙尘暴效果测试。 定量比较实验采用PSNR(峰值信噪比)和SSIM(结构相似性)评估合成沙尘暴图像的去沙尘 暴效果;使用基于空间光谱熵的质量(SSEQ)来评估真实沙尘暴图像的去沙尘暴效果。在本发 明中,为了使相关性与峰值信噪比(PSNR)和SSIM度量保持一致,本文对SSEQ值进行了反 转,即在所有指标值越高表明去沙尘暴效果越好。
(1)室外合成图像去沙尘暴结果的定量评价
为了对不同算法进行定量比较,表1列出了各个算法在室外合成图像上的去沙尘暴结果的 平均PSNR、SSIM和SSEQ值。从表1中的定量评价结果表明:在室外合成图像上,本发明方 法的PSNR和SSIM测度值均明显高于其他图像复原算法,这意味着其去沙尘暴算法效果明显 好于其他对比算法。
表1室外合成图像沙尘暴结果的平均PSNR和SSIM测度值
(2)室外合成图像去沙尘暴结果的定性评价
室外合成图像和去沙尘暴结果的定性评价如图5所示。从图5可以观察到,本发明方法获 得的室外图像去沙尘暴结果最接近标签图像情况(即干净无沙尘暴图像)。与其他参考方法相比, HardGAN[6]和FFNet[7]具有更好的去沙尘暴效果。对于某些场景,AODNet[3]无法清除沙尘暴。 LPNet[1]、RGNet[2]和FFANet[4]会导致不同程度的颜色失真。Wang等人的算法[5]校正了沙尘 暴图像的颜色,但是,他们的去沙尘暴结果仍然展现出较低的颜色饱和度。
(3)室内合成图像去沙尘暴结果的定量评价
为了适应现实中多种情况下的图像去沙尘暴,本发明方法还在室内合成图像数据集上进行 实验,该数据集具有色彩丰富、多细节的特点。如表2所示,室内合成图像的去沙尘暴结果的 定量评价表明:本发明方法的去沙尘暴结果上获得了最高的平均PSNR(32.82)和SSIM(0.9432) 值,表明其去沙尘暴效果优于其他参考方法。
表2室内合成图像去沙尘暴结果的平均PSNR和SSIM测度值
(4)室内合成图像去沙尘暴结果的定性评价
对于室内合成图像去沙尘暴结果的定性评价,如图6所示。本发明方法(SIDNet)获得的 去沙尘暴结果与标签图像更为相似,表明图像去沙尘暴效果最佳。HardGAN和FFNet可有效去 除大部分沙尘暴,但其颜色恢复存在一定偏差。Wang等人获得的去沙尘暴结果颜色饱和度较低。 LPNet、RGNet和FFANet则会导致不同的颜色失真。AODNet能够去除少量的沙尘暴,但是有 些去沙尘暴结果颜色饱和度较低,如最后一张图像。
(5)真实图像去沙尘暴结果的定量评价
表3展示了8张具有代表性的真实图像去沙尘暴结果的定量评价。表3中的定量结果表明: 本发明算法SIDNet在大多数真实沙尘暴图像(除了第一张图像,第五张和第八张图像)上均获 得最高的SSEQ值,并在第一张图像上获得次优的SSEQ值。此外,本发明算法具有最高平均 SSEQ值(69.66),表现出最好的去沙尘暴效果。
表3不同方法在8张真实沙尘暴图像获得的去沙尘暴结果的SSEQ值及平均SSEQ值。
(6)真实图像去沙尘暴结果的定性评价
图7展示了8张具有代表性的真实沙尘暴图像的去沙尘暴结果。从图7可以看出,LPNet[1] 和AODNet[3]能去除少量沙尘暴,但它们的去沙尘暴的效果颜色偏暗。RGNet[2]和FFANet[4] 的去沙尘暴结果带有严重的颜色失真。Wang等人的算法[5]的去沙尘暴结果颜色饱和度低。HardGAN[6]和FFNet[7]的去沙尘暴效果更好,但是在其去沙尘暴结果仍有沙尘暴残留,如第3、 4张和最后一张图像。相比而言,本发明方法在较好的图像去沙尘暴效果和高色彩饱和度之间能 够很好的平衡。
(7)鲁棒性测试
为了验证图像去沙尘暴对其他视觉任务的意义,本发明进行了两个潜在的应用,即图像边 缘提取和局部关键点匹配。
(a)图像边缘提取
由于沙尘暴图像的偏色和低对比度,使得沙尘暴图像的边缘提取困难。为了验证SIDNet 对图像边缘提取效果的重要性,本节分析了不同方法对去沙尘暴图像边缘提取的效果。如图8 所示,与其他同类方法相比,SIDNet去沙尘暴效果中的边缘细节明显增加。这验证了SIDNet 可以通过恢复更多细节,从而显著提高图像边缘提取效果。
(b)局部关键点匹配
局部关键点匹配的目的是寻找两个相似场景之间的对应关系。为了验证SIDNet在局部关键 点匹配方面的重要性,本发明使用SIFT(尺度不变的特征转换)算法对一组相似的真实强沙尘 暴图像(同拍摄自某广场),采用不同方法获得的相应去沙尘暴图像对进行关键点匹配。匹配结 果如图9所示,在去沙尘暴图像中,关键点匹配数量明显增加。这验证了本发明方法SIDNet 还可以恢复沙尘暴图像的局部特征。
参考文献:
[1]Fu X,Liang B,Huang Y,Ding X,Paisley J.Lightweight pyramid networksfor image deraining.IEEE Transactions on Neural Networks and Learning Systems2020;31(6):1794-1807.
[2]Fan Z,Wu H,Fu X,Huang Y,Ding X.Residual-guide network for singleimage deraining. 26thACM International Conference on Multimedia 2018:1751–1759.
[3]Li B,Peng X,Wang Z,Xu J,Feng D.Aod-net:All-in-one dehazingnetwork.IEEE International Conference on ComputerVision 2017:4770–4778.
[4]Qin X,Wang Z,Bai Y,Xie X,Jia H.FFA-Net:Feature fusion attentionnetwork for single image dehazing.AAAI Conference onArtificial Intelligence2020;34(7):11908-11915.
[5]Wang J,Pang Y,He Y,Liu C.Enhancement for dust-sand stormimages.International Conference on Springer-VerlagNewYork,Inc 2016:842–849.
[6]Deng Q,Huang Z,Tsai CC,Lin CW.HardGAN:A haze-aware representationdistillation GAN for single image dehazing.European Conference onComputerVision 2020:722–738.
[7]Huang J,Li Z,Wang C,et al.FFNet:A Simple Image Dedusting Networkwith Feature Fusion.Concurrency and Computation:Practice and Experience(CCPE),2021:e6462.。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出 本发明技术方案的范围时,均属于本发明的保护范围。
Claims (6)
1.一种融合偏色校正的图像去沙尘暴方法,其特征在于,构建图像去沙尘暴网络,即通过连接多个具有相同结构的沙尘感知表征提取DustAre模块,先对输入沙尘暴图像多次下采样操作,提取图像特征并融合;然后,对所提取的图像特征进行多次上采样操作,还原到原始图像空间,以获得最后的去沙尘暴图像。
3.根据权利要求1或2所述的一种融合偏色校正的图像去沙尘暴方法,其特征在于,所述DustAre模块包括两个分支,其中第一分支用于估计全局遮掩光即散射在视线中的环境光和局部空间信息,第二分支用于生成一张沙尘暴感知图像,并且融合该沙尘暴感知图像、全局遮掩光和局部空间信息,以得到DustAre模块的输出。
6.根据权利要求5所述的一种融合偏色校正的图像去沙尘暴方法,其特征在于,考虑到沙尘暴图像与干净图像在CIELAB颜色空间的色度差异,该方法还设计一项新的损失函数从而更好地指导网络训练,具体地,所述方法的总损失函数定义为:
其中λab、λL1以及λper分别设置为0.3、1.2和0.4;
其中N是图像像素的总数,在去沙尘暴结果y的CIELAB颜色空间中,ya和yb分别表示a*和b*颜色分量,在经过颜色偏色校正后对应清晰图像即标签图像的CIELAB颜色空间中,及分别表示a*和b*颜色分量;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111577653.2A CN114240795A (zh) | 2021-12-22 | 2021-12-22 | 一种融合偏色校正的图像去沙尘暴方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111577653.2A CN114240795A (zh) | 2021-12-22 | 2021-12-22 | 一种融合偏色校正的图像去沙尘暴方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114240795A true CN114240795A (zh) | 2022-03-25 |
Family
ID=80761046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111577653.2A Pending CN114240795A (zh) | 2021-12-22 | 2021-12-22 | 一种融合偏色校正的图像去沙尘暴方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114240795A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036209A (zh) * | 2023-10-07 | 2023-11-10 | 深圳英美达医疗技术有限公司 | 图像对比度增强方法、装置、计算机设备和存储介质 |
-
2021
- 2021-12-22 CN CN202111577653.2A patent/CN114240795A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036209A (zh) * | 2023-10-07 | 2023-11-10 | 深圳英美达医疗技术有限公司 | 图像对比度增强方法、装置、计算机设备和存储介质 |
CN117036209B (zh) * | 2023-10-07 | 2024-01-26 | 深圳英美达医疗技术有限公司 | 图像对比度增强方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110866879B (zh) | 一种基于多密度雨纹感知的图像去雨方法 | |
CN111047522B (zh) | 一种基于边缘生成的图像修复方法 | |
US9870600B2 (en) | Raw sensor image and video de-hazing and atmospheric light analysis methods and systems | |
CN103093444A (zh) | 基于自相似性和结构信息约束的图像超分辨重建方法 | |
CN111815528A (zh) | 基于卷积模型和特征融合的恶劣天气图像分类增强方法 | |
CN110310238B (zh) | 一种基于重用原始信息的压缩奖惩神经网络的单幅图像去雨方法 | |
CN111179202B (zh) | 一种基于生成对抗网络的单幅图像去雾增强方法和系统 | |
CN102982520A (zh) | 一种基于轮廓先验的鲁棒性人脸超分辨率处理方法 | |
CN111242868B (zh) | 暗视觉环境下基于卷积神经网络的图像增强方法 | |
CN109064419A (zh) | 一种基于wls滤波和多尺度稀疏表达的单幅图像去雨方法 | |
CN112070688A (zh) | 一种基于上下文引导生成对抗网络的单幅图像去雾方法 | |
Jin et al. | Darkvisionnet: Low-light imaging via rgb-nir fusion with deep inconsistency prior | |
CN114897742B (zh) | 一种纹理和结构特征两次融合的图像修复方法 | |
CN114240795A (zh) | 一种融合偏色校正的图像去沙尘暴方法 | |
CN111325688A (zh) | 融合形态学聚类优化大气光的无人机图像去雾方法 | |
CN116912184B (zh) | 一种基于篡改区域分离和区域约束损失的弱监督深度修复图像篡改定位方法及系统 | |
CN113989794A (zh) | 一种车牌检测和识别方法 | |
Choi et al. | Illumination invariant lane color recognition by using road color reference & neural networks | |
CN112215780A (zh) | 基于类特征修复融合的图像取证对抗性攻击防御方法 | |
CN110264434B (zh) | 一种基于低秩矩阵补全的单幅图像去雨方法 | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 | |
CN115760640A (zh) | 基于含噪Retinex模型的煤矿低光照图像增强方法 | |
CN115456910A (zh) | 一种用于严重颜色畸变水下图像的颜色恢复方法 | |
CN114140361A (zh) | 融合多级特征的生成式对抗网络图像去雾方法 | |
Naseeba et al. | KP Visibility Restoration of Single Hazy Images Captured in Real-World Weather Conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |