CN110298809B - 一种图像去雾方法及装置 - Google Patents

一种图像去雾方法及装置 Download PDF

Info

Publication number
CN110298809B
CN110298809B CN201910609690.3A CN201910609690A CN110298809B CN 110298809 B CN110298809 B CN 110298809B CN 201910609690 A CN201910609690 A CN 201910609690A CN 110298809 B CN110298809 B CN 110298809B
Authority
CN
China
Prior art keywords
image
defogged
remote sensing
atmospheric light
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910609690.3A
Other languages
English (en)
Other versions
CN110298809A (zh
Inventor
程良伦
谢靓茹
黄国恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910609690.3A priority Critical patent/CN110298809B/zh
Publication of CN110298809A publication Critical patent/CN110298809A/zh
Application granted granted Critical
Publication of CN110298809B publication Critical patent/CN110298809B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像去雾方法,包括:接收待去雾遥感图像,利用多流密集连接网络提取多尺度特征,根据多尺度特征生成透射图;利用U‑Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图;结合预选区域与平坦分布二值图,得到大气光候选区域,利用大气光候选区域计算大气光图;将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。本发明确保了透射图边缘信息的完整性,避免了图像中高亮物体及高亮噪声对估计大气光值的影响,提升了图像去雾效果。本发明还公开了一种图像去雾装置、设备及存储介质,具有相应技术效果。

Description

一种图像去雾方法及装置
技术领域
本发明涉及图像处理技术领域,特别是涉及一种图像去雾方法、装置、设备及计算机可读存储介质。
背景技术
在有雾天气时,大气中浮游颗粒会极大地吸收和散射光线,成像设备由于受到空气中悬浮颗粒的影响,导致采集的遥感图像的颜色、纹理等特征受到严重的衰弱,图片质量下降,色调趋于灰白,严重影响之后图像处理的效果。因此,需要用去雾算法处理图像来保留以及还原图像中的信息。
现在主流的物理去雾模型是大气散射模型,对于大气散射模型来说关键是估计出最佳的透射图以及大气光值,由于现在被薄雾遮挡的遥感图像的环境较为复杂,加上图像中可能会有高亮物体、高亮噪声,信息量较少,这些因素都会导致估计的大气光值与透射图存在误差,使得去雾效果不佳。
综上所述,如何有效地解决现有的图像去雾方法由于环境复杂、图像中可能会有高亮物体、高亮噪声,信息量较少等导致的去雾效果不佳等问题,是目前本领域技术人员急需解决的问题。
发明内容
本发明的目的是提供一种图像去雾方法,该方法确保了透射图边缘信息保留的完整性,避免了图像中高亮物体及高亮噪声对估计大气光值的影响,较大地提升了图像去雾效果;本发明的另一目的是提供一种图像去雾装置、设备及计算机可读存储介质。
为解决上述技术问题,本发明提供如下技术方案:
一种图像去雾方法,包括:
接收待去雾遥感图像,利用多流密集连接网络提取所述待去雾遥感图像的多尺度特征,并根据所述多尺度特征生成透射图;
利用U-Net网络分割出所述待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;
计算所述待去雾遥感图像的亮度图,对所述亮度图进行平坦性划分,得到平坦分布二值图;
结合所述预选区域与所述平坦分布二值图,得到大气光候选区域,并利用所述大气光候选区域计算大气光图;
将所述透射图和所述大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
在本发明的一种具体实施方式中,利用多流密集连接网络提取所述待去雾遥感图像的多尺度特征,包括:
利用各流分支的密集块内核为空洞卷积核的多流密集连接网络提取所述待去雾遥感图像的多尺度特征。
在本发明的一种具体实施方式中,计算所述待去雾遥感图像的亮度图,包括:
提取所述待去雾遥感图像中R、G、B三个通道的值,得到RGB图像;
将所述RGB图像逐像素转化为灰度图像,得到所述亮度图。
在本发明的一种具体实施方式中,利用所述大气光候选区域计算大气光图,包括:
选取所述大气光候选区域中亮度最大值作为大气光值;
将所述大气光值作为像素值平铺成二维图,得到所述大气光图。
一种图像去雾装置,包括:
透射图生成模块,用于接收待去雾遥感图像,利用多流密集连接网络提取所述待去雾遥感图像的多尺度特征,并根据所述多尺度特征生成透射图;
预选区域分割模块,用于利用U-Net网络分割出所述待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;
二值图获得模块,用于计算所述待去雾遥感图像的亮度图,对所述亮度图进行平坦性划分,得到平坦分布二值图;
大气光图计算模块,用于结合所述预选区域与所述平坦分布二值图,得到大气光候选区域,并利用所述大气光候选区域计算大气光图;
去雾图像获得模块,用于将所述透射图和所述大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
在本发明的一种具体实施方式中,所述透射图生成模块包括特征提取子模块,
所述特征提取子模块,用于利用各流分支的密集块内核为空洞卷积核的多流密集连接网络提取所述待去雾遥感图像的多尺度特征。
在本发明的一种具体实施方式中,所述二值图获得模块包括亮度图计算子模块,所述亮度图计算子模块包括:
RGB图像获得单元,用于提取所述待去雾遥感图像中R、G、B三个通道的值,得到RGB图像;
亮度图获得单元,用于将所述RGB图像逐像素转化为灰度图像,得到所述亮度图。
在本发明的一种具体实施方式中,所述大气光图计算模块包括大气光值获得子模块和大气光图获得子模块,
所述大气光值获得子模块,用于选取所述大气光候选区域中亮度最大值作为大气光值;
所述大气光图获得子模块,用于将所述大气光值作为像素值平铺成二维图,得到所述大气光图。
一种图像去雾设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如前所述图像去雾方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述图像去雾方法的步骤。
应用本发明实施例所提供的方法,接收待去雾遥感图像,利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图;利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图;结合预选区域与平坦分布二值图,得到大气光候选区域,并利用大气光候选区域计算大气光图;将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。通过利用多流密集连接网络的深度学习算法来生成透射图,确保了透射图边缘信息保留的完整性,且能加强特征聚合获得更好的收敛,利用U-Net网络的深度学习方法分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域,避免了图像中高亮物体及高亮噪声对估计大气光值的影响,使得本发明所提供的图像去雾方法,更具有鲁棒性,较大地提升了图像去雾效果。
相应的,本发明实施例还提供了与上述图像去雾方法相对应的图像去雾装置、设备和计算机可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中图像去雾方法的一种实施流程图;
图2为本发明实施例中多流密集连接网络的一个流分支的网络结构图;
图3为本发明实施例中一种U-Net网络的网络结构图;
图4为本发明实施例中一种图像去雾流程的结构框图;
图5为本发明实施例中图像去雾方法的另一种实施流程图;
图6为本发明实施例中一种图像去雾装置的结构框图;
图7为本发明实施例中一种图像去雾设备的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
参见图1,图1为本发明实施例中图像去雾方法的一种实施流程图,该方法可以包括以下步骤:
S101:接收待去雾遥感图像,利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图。
当需要对拍摄到的遥感图像进行去雾操作时,可以将待去雾遥感图像发送给图像去雾系统,图像去雾系统接收待去雾遥感图像,因为不同的遥感图像包含不同的雾气浓度,且不同位置也包含不同的雾气浓度,因此可以利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图,可以更有效地捕获不同位置的透射率,从而能估计出更有效的二维透射图。
多流密集连接网络是基于密集连接卷积网络(DenseNet)上构成的,参见图4,多流密集连接网络中的多流分支可以由Dense1(7*7),Dense2(5*5)和Dense3(3*3)构成,每一个多流分支都建立于密集块(Dense-blocks)上,具有不同的卷积内核大小,大小分别为7*7、5*5和3*3,参见图2,为了获取多尺度特征,Dense1、Dense2以及Dense3分别由6个dense-blocks构成,并且分别由不同的过渡层以及卷积内核构成。Dense1由3层下采样过渡层(transition-down layers)和三层上采样过渡层(transition-up layers)构成;Dense2由两层下采样过渡层(transition-down layers)、两层无采样过渡层(no-samplingtransition layers)以及两层上采样过渡层(transition-up layers)构成;Dense3由一层下采样过渡层(transition-down layers)、四层无采样过渡层(no-sampling transitionlayers)以及一层上采样过渡层(transition-up layers)构成。每个dense-blocks后面都跟着一个过渡层,用于升维或者降维,每一流都能缩放成一样的尺寸,方便之后的计算以及特征图连接。多流密集连接网络中每一流将其中每个密集块的输出特征连接在一起估计透射图,且在不同尺度的特征之间创建短路径(short paths),用于加强特征聚合并获得更好的收敛。
S102:利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域。
可以预先利用遥感图像和标出雾气最浓区域的雾气量化图去训练U-Net网络,从而使得U-Net网络具有能分割出遥感图像中雾气最浓区域的能力。如可以通过利用遥感图像和标出能见度在1公里以上3公里以下雾气区域的雾气量化图去训练U-Net网络来使其具有能分割出遥感图像中能见度在1公里以上3公里以下的雾气区域的能力。因此,在接收到待去雾遥感图像之后,可以利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域。
参见图3,图3为本发明实施例中一种U-Net网络的网络结构图,U-Net网络主要由两部分构成,分别是收缩路径(contracting path)和扩展路径(expanding path)。收缩路径主要用于捕捉待去雾遥感图像中的上下文信息,而与之相对的扩展路径是对待去雾遥感图像中雾气最浓区域部分进行精准定位,为之后的分割打下基础。收缩路径上提取的高像素特征会在上采样的过程中与新的特征图进行结合,最大程度保留之前下采样过程中的重要特征信息。U-Net网络整个过程是没有全连接层的,这样可以很大程度减少需要训练的参数且能使整个网络结构更加高效的运行,U型的网络结构也能更好地保留被薄雾遮挡的遥感图像中的所有信息。
需要说明的是,预设能见度范围可以根据实际情况进行设定和调整,本发明实施例对此不做限定,如可以设置为上述举例中的1公里~3公里。
S103:计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图。
在接收到待去雾遥感图像之后,可以计算待去雾遥感图像的亮度图,并对亮度图进行平坦性划分,得到平坦分布二值图。具体的可以是根据浓雾的平坦特征,将得到的亮度图进行平坦性划分,首先利用边缘算子对亮度图进行梯度检测,可以将梯度阈值设为0.015,从而得到边缘二值图Bedge,将得到的边缘二值图Bedge进行闭运算以及取反运算,得到平坦分布的二值图B,从而区分出纹理区域以及平坦区域,公式如下:
Figure BDA0002121956900000061
其中,Λdilate是尺寸为20的膨胀运算结构,Λerode是尺寸为20的腐蚀运算结构,上述计算通过连接边缘点,区分出纹理区域与平坦区域,从而得到平坦分布的二值图B。
S104:结合预选区域与平坦分布二值图,得到大气光候选区域,并利用大气光候选区域计算大气光图。
在通过分割得到预选区域,并通过划分得到平坦分布二值图之后,可以结合预选区域与平坦分布二值图,得到大气光候选区域,并可以利用大气光候选区域计算大气光图。即预选区域根据区分了纹理区域以及平坦区域的亮度图,将预选区域中满足平坦特征的像素集合作为大气光候选区域B。
S105:将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
在得到透射图和大气光图之后,可以将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
大气散射模型是一种物理驱动模型,它认为有雾图像的形成是被雾削弱的物体反射的光线和被雾反射的大气光进去摄像机共同组成的,我们把雾的削弱和放射性能用t表示,将一幅图中的t都标出来构成的图即为透射图t(x),它与物体到摄像机的景深d(x)有关,对于景深和雾带来的散射系数β有如下式所示:
t(x)=e-βd(x)
所以如果有物体的景深,就可以用随机的散射系数β和大气光图A(x)来从清晰图片J(x)中模拟带雾图片I(x),该模型如下式所示:
I(x)=J(x)t(x)+A(x)(1-t(x));
从而解算出清晰图片J(x):
Figure BDA0002121956900000071
通过将物理模型与深度学习结合起来的方法,利用分阶段学习技术,逐步优化网络的每个部分,然后共同优化整个网络,允许网络能共同估计透射图、大气光图以及去雾后遥感图像。较大地提升了图像去雾效果,能适应不同的去雾环境,并且计算速度更快,所占内存少。
应用本发明实施例所提供的方法,接收待去雾遥感图像,利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图;利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图;结合预选区域与平坦分布二值图,得到大气光候选区域,并利用大气光候选区域计算大气光图;将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。通过利用多流密集连接网络的深度学习算法来生成透射图,确保了透射图边缘信息保留的完整性,且能加强特征聚合获得更好的收敛,利用U-Net网络的深度学习方法分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域,避免了图像中高亮物体及高亮噪声对估计大气光值的影响,使得本发明所提供的图像去雾方法,更具有鲁棒性,较大地提升了图像去雾效果。
需要说明的是,基于上述实施例一,本发明实施例还提供了相应的改进方案。在后续实施例中涉及与上述实施例一中相同步骤或相应步骤之间可相互参考,相应的有益效果也可相互参照,在下文的改进实施例中不再一一赘述。
在一种具体实例应用中,参见图4,图4为本发明实施例中一种图像去雾流程的结构框图,对某一待去雾遥感图像,可以将待去雾遥感图像分别输入到多流密集连接网络、和U-Net网络,并计算待去雾遥感图像的亮度图。多流密集连接网络包括由Dense1(7*7),Dense2(5*5)和Dense3(3*3)三个流分支构成,经过各特征层之后得到多尺度特征图,每一流融合为一个特征图,再将各流的特征图进行融合,得到透射图t(x)。将待去雾遥感图像送入U-Net网络分割出图像中待去雾遥感图像中雾气浓度在预设能见度范围内的区域,得到预选区域A。通过对计算出的亮度图进行平坦性划分,得到平坦分布二值图,将平坦分布二值图与预选区域A结合,得到大气光候选区域B,利用所述大气光候选区域计算大气光图A(x),将所述透射图和所述大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像:
Figure BDA0002121956900000081
实施例二:
参见图5,图5为本发明实施例中图像去雾方法的另一种实施流程图,该方法可以包括以下步骤:
S501:接收待去雾遥感图像,利用各流分支的密集块内核为空洞卷积核的多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图。
在接收到待去雾遥感图像之后,可以利用各流分支的密集块内核为空洞卷积核的多流密集连接网络提取待去雾遥感图像的多尺度特征,从而获取更多的特征,增强网络的感受野。
S502:利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域。
S503:提取待去雾遥感图像中R、G、B三个通道的值,得到RGB图像。
待去雾遥感图像中每个像素都有自己的R值、G值和B值,可以提取待去雾遥感图像中R、G、B三个通道的R值、G值和B值,得到RGB图像。
S504:将RGB图像逐像素转化为灰度图像,得到亮度图。
在得到RGB图之后,可以将RGB图像逐像素转化为灰度图像,得到亮度图。RGB图最终转换为亮度图是在每个像素上进行,公式如下:
Y(亮度)=(0.299*R)+(0.587*G)+(0.114*B);
S505:对亮度图进行平坦性划分,得到平坦分布二值图。
S506:结合预选区域与平坦分布二值图,得到大气光候选区域。
S507:选取大气光候选区域中亮度最大值作为大气光值。
在得到大气光候选区域之后,可以选取大气光候选区域中亮度最大值作为大气光值。
S508:将大气光值作为像素值平铺成二维图,得到大气光图。
在得到大气光值之后,可以将大气光值作为像素值平铺成二维图,得到大气光图。
S509:将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
相应于上面的方法实施例,本发明实施例还提供了一种图像去雾装置,下文描述的图像去雾装置与上文描述的图像去雾方法可相互对应参照。
参见图6,图6为本发明实施例中一种图像去雾装置的结构框图,该装置可以包括:
透射图生成模块61,用于接收待去雾遥感图像,利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图;
预选区域分割模块62,用于利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;
二值图获得模块63,用于计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图;
大气光图计算模块64,用于结合预选区域与平坦分布二值图,得到大气光候选区域,并利用大气光候选区域计算大气光图;
去雾图像获得模块65,用于将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
应用本发明实施例所提供的装置,接收待去雾遥感图像,利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图;利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图;结合预选区域与平坦分布二值图,得到大气光候选区域,并利用大气光候选区域计算大气光图;将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。通过利用多流密集连接网络的深度学习算法来生成透射图,确保了透射图边缘信息保留的完整性,且能加强特征聚合获得更好的收敛,利用U-Net网络的深度学习方法分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域,避免了图像中高亮物体及高亮噪声对估计大气光值的影响,使得本发明所提供的图像去雾方法,更具有鲁棒性,较大地提升了图像去雾效果。
在本发明的一种具体实施方式中,透射图生成模块61包括特征提取子模块,
特征提取子模块,用于利用各流分支的密集块内核为空洞卷积核的多流密集连接网络提取待去雾遥感图像的多尺度特征。
在本发明的一种具体实施方式中,二值图获得模块63包括亮度图计算子模块,亮度图计算子模块包括:
RGB图像获得单元,用于提取待去雾遥感图像中R、G、B三个通道的值,得到RGB图像;
亮度图获得单元,用于将RGB图像逐像素转化为灰度图像,得到亮度图。
在本发明的一种具体实施方式中,大气光图计算模块64包括大气光值获得子模块和大气光图获得子模块,
大气光值获得子模块,用于选取大气光候选区域中亮度最大值作为大气光值;
大气光图获得子模块,用于将大气光值作为像素值平铺成二维图,得到大气光图。
相应于上面的方法实施例,参见图7,图7为本发明所提供的图像去雾设备的示意图,该设备可以包括:
存储器71,用于存储计算机程序;
处理器72,用于执行上述存储器71存储的计算机程序时可实现如下步骤:
接收待去雾遥感图像,利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图;利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图;结合预选区域与平坦分布二值图,得到大气光候选区域,并利用大气光候选区域计算大气光图;将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
对于本发明提供的设备的介绍请参照上述方法实施例,本发明在此不做赘述。
相应于上面的方法实施例,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如下步骤:
接收待去雾遥感图像,利用多流密集连接网络提取待去雾遥感图像的多尺度特征,并根据多尺度特征生成透射图;利用U-Net网络分割出待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;计算待去雾遥感图像的亮度图,对亮度图进行平坦性划分,得到平坦分布二值图;结合预选区域与平坦分布二值图,得到大气光候选区域,并利用大气光候选区域计算大气光图;将透射图和大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本发明提供的计算机可读存储介质的介绍请参照上述方法实施例,本发明在此不做赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置、设备及计算机可读存储介质而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的技术方案及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (9)

1.一种图像去雾方法,其特征在于,包括:
接收待去雾遥感图像,利用多流密集连接网络提取所述待去雾遥感图像的多尺度特征,并根据所述多尺度特征生成透射图;
利用U-Net网络分割出所述待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;
计算所述待去雾遥感图像的亮度图;
按照预设梯度阈值利用边缘算子对所述亮度图进行梯度检测,得到边缘二值图;
对所述边缘二值图进行闭运算以及取反运算,得到平坦分布二值图;
结合所述预选区域与所述平坦分布二值图,得到大气光候选区域,并利用所述大气光候选区域计算大气光图;
将所述透射图和所述大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
2.根据权利要求1所述的图像去雾方法,其特征在于,利用多流密集连接网络提取所述待去雾遥感图像的多尺度特征,包括:
利用各流分支的密集块内核为空洞卷积核的多流密集连接网络提取所述待去雾遥感图像的多尺度特征。
3.根据权利要求1或2所述的图像去雾方法,其特征在于,计算所述待去雾遥感图像的亮度图,包括:
提取所述待去雾遥感图像中R、G、B三个通道的值,得到RGB图像;
将所述RGB图像逐像素转化为灰度图像,得到所述亮度图。
4.根据权利要求3所述的图像去雾方法,其特征在于,利用所述大气光候选区域计算大气光图,包括:
选取所述大气光候选区域中亮度最大值作为大气光值;
将所述大气光值作为像素值平铺成二维图,得到所述大气光图。
5.一种图像去雾装置,其特征在于,包括:
透射图生成模块,用于接收待去雾遥感图像,利用多流密集连接网络提取所述待去雾遥感图像的多尺度特征,并根据所述多尺度特征生成透射图;
预选区域分割模块,用于利用U-Net网络分割出所述待去雾遥感图像中雾气浓度在预设能见度范围内的预选区域;
二值图获得模块,用于计算所述待去雾遥感图像的亮度图;按照预设梯度阈值利用边缘算子对所述亮度图进行梯度检测,得到边缘二值图;对所述边缘二值图进行闭运算以及取反运算,得到平坦分布二值图;
大气光图计算模块,用于结合所述预选区域与所述平坦分布二值图,得到大气光候选区域,并利用所述大气光候选区域计算大气光图;
去雾图像获得模块,用于将所述透射图和所述大气光图输入到大气散射模型中进行去雾运算,得到去雾后遥感图像。
6.根据权利要求5所述的图像去雾装置,其特征在于,所述透射图生成模块包括特征提取子模块,
所述特征提取子模块,用于利用各流分支的密集块内核为空洞卷积核的多流密集连接网络提取所述待去雾遥感图像的多尺度特征。
7.根据权利要求5或6所述的图像去雾装置,其特征在于,所述二值图获得模块包括亮度图计算子模块,所述亮度图计算子模块包括:
RGB图像获得单元,用于提取所述待去雾遥感图像中R、G、B三个通道的值,得到RGB图像;
亮度图获得单元,用于将所述RGB图像逐像素转化为灰度图像,得到所述亮度图。
8.根据权利要求7所述的图像去雾装置,其特征在于,所述大气光图计算模块包括大气光值获得子模块和大气光图获得子模块,
所述大气光值获得子模块,用于选取所述大气光候选区域中亮度最大值作为大气光值;
所述大气光图获得子模块,用于将所述大气光值作为像素值平铺成二维图,得到所述大气光图。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述图像去雾方法的步骤。
CN201910609690.3A 2019-07-08 2019-07-08 一种图像去雾方法及装置 Active CN110298809B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910609690.3A CN110298809B (zh) 2019-07-08 2019-07-08 一种图像去雾方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910609690.3A CN110298809B (zh) 2019-07-08 2019-07-08 一种图像去雾方法及装置

Publications (2)

Publication Number Publication Date
CN110298809A CN110298809A (zh) 2019-10-01
CN110298809B true CN110298809B (zh) 2021-03-30

Family

ID=68030556

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910609690.3A Active CN110298809B (zh) 2019-07-08 2019-07-08 一种图像去雾方法及装置

Country Status (1)

Country Link
CN (1) CN110298809B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651891A (zh) * 2020-12-18 2021-04-13 贵州宇鹏科技有限责任公司 一种基于深度学习的图像去雾方法
CN112801195A (zh) * 2021-02-04 2021-05-14 四川望村网络科技有限公司 一种基于深度学习的雾天能见度预测方法,存储装置及服务器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999883A (zh) * 2011-09-08 2013-03-27 富士通株式会社 图像去雾方法和系统
CN105374013A (zh) * 2014-08-15 2016-03-02 台北科技大学 基于双暗通道先验的图像能见度修复方法及图像处理装置
CN106204459A (zh) * 2014-09-02 2016-12-07 台北科技大学 图像能见度修复的方法及其图像处理装置
WO2017175231A1 (en) * 2016-04-07 2017-10-12 Carmel Haifa University Economic Corporation Ltd. Image dehazing and restoration
CN109300090A (zh) * 2018-08-28 2019-02-01 哈尔滨工业大学(威海) 一种基于亚像素和条件对抗生成网络的单幅图像去雾方法
CN109949242A (zh) * 2019-03-19 2019-06-28 内蒙古工业大学 图像去雾模型的生成方法、装置及图像去雾方法、装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102411774B (zh) * 2011-08-08 2013-05-01 安科智慧城市技术(中国)有限公司 一种基于单幅图像去雾的处理方法、装置及系统
US9361670B2 (en) * 2014-09-04 2016-06-07 National Taipei University Of Technology Method and system for image haze removal based on hybrid dark channel prior
CN104933680B (zh) * 2015-03-13 2017-10-31 哈尔滨工程大学 一种智能的无人艇视觉系统视频快速海雾去除方法
US10325349B2 (en) * 2017-08-11 2019-06-18 Intermap Technologies Inc. Method and apparatus for enhancing 3D model resolution
CN108133462B (zh) * 2017-12-08 2020-06-19 泉州装备制造研究所 一种基于梯度场区域分割的单幅图像的复原方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999883A (zh) * 2011-09-08 2013-03-27 富士通株式会社 图像去雾方法和系统
CN105374013A (zh) * 2014-08-15 2016-03-02 台北科技大学 基于双暗通道先验的图像能见度修复方法及图像处理装置
CN106204459A (zh) * 2014-09-02 2016-12-07 台北科技大学 图像能见度修复的方法及其图像处理装置
WO2017175231A1 (en) * 2016-04-07 2017-10-12 Carmel Haifa University Economic Corporation Ltd. Image dehazing and restoration
CN109300090A (zh) * 2018-08-28 2019-02-01 哈尔滨工业大学(威海) 一种基于亚像素和条件对抗生成网络的单幅图像去雾方法
CN109949242A (zh) * 2019-03-19 2019-06-28 内蒙古工业大学 图像去雾模型的生成方法、装置及图像去雾方法、装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"A factor graph evidence combining approach to image defogging";Lawrence Mutimbu等;《Pattern Recognition》;20181031;第82卷;第56-67页 *
"Haze Density Estimation and Dark Channel Prior Based Image Defogging";Rujun Li等;《2018 International Conference on Wavelet Analysis and Pattern Recognition (ICWAPR)》;20181105;第29-35页 *
"利用大气光图改进暗原色去雾效果";杨寻等;《光电工程》;20150831;第42卷(第8期);第73-78、85页 *
"天空识别的改进暗通道先验单幅图像去雾算法研究";谭龙江;《小型微型计算机系统》;20190131(第1期);第210-214页 *

Also Published As

Publication number Publication date
CN110298809A (zh) 2019-10-01

Similar Documents

Publication Publication Date Title
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
US10353271B2 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN112288658A (zh) 一种基于多残差联合学习的水下图像增强方法
CN108446694B (zh) 一种目标检测方法及装置
CN111754438B (zh) 基于多分支门控融合的水下图像复原模型及其复原方法
CN109118446B (zh) 一种水下图像复原及去噪方法
CN109462747B (zh) 基于生成对抗网络的dibr系统空洞填充方法
CA3137297C (en) Adaptive convolutions in neural networks
CN111899295B (zh) 一种基于深度学习的单目场景深度预测方法
CN111950477A (zh) 一种基于视频监督的单图像三维人脸重建方法
CN110298809B (zh) 一种图像去雾方法及装置
CN111179196B (zh) 一种基于分而治之的多分辨率深度网络图像去高光方法
CN113850900A (zh) 三维重建中基于图像和几何线索恢复深度图的方法及系统
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN110751157B (zh) 图像显著性分割、图像显著性模型训练方法及装置
CN104346782A (zh) 一种实现单幅图像去雾的方法和装置
CN104899821A (zh) 一种用于文档类图像可视水印的擦除方法
CN114926734A (zh) 基于特征聚合和注意融合的固体废弃物检测装置及方法
CN113947538A (zh) 一种多尺度高效卷积自注意力单幅图像除雨方法
CN110599532A (zh) 图像的深度估计模型优化、深度估计处理方法及装置
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
CN114332211B (zh) 一种基于边缘重建和密集融合网络的零件位姿计算方法
CN115564708A (zh) 多通道高质量深度估计系统
CN114898096A (zh) 一种人物图像的分割和标注方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant