CN111986109A - 一种基于全卷积网络的遥感影像去雾方法 - Google Patents
一种基于全卷积网络的遥感影像去雾方法 Download PDFInfo
- Publication number
- CN111986109A CN111986109A CN202010813463.5A CN202010813463A CN111986109A CN 111986109 A CN111986109 A CN 111986109A CN 202010813463 A CN202010813463 A CN 202010813463A CN 111986109 A CN111986109 A CN 111986109A
- Authority
- CN
- China
- Prior art keywords
- image
- model
- convolution network
- full convolution
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000002834 transmittance Methods 0.000 claims abstract description 44
- 238000010586 diagram Methods 0.000 claims abstract description 9
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000013209 evaluation strategy Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Abstract
本发明提供一种基于全卷积网络的遥感影像去雾方法,包括如下步骤:S1:采集原始清晰影像和实拍的带雾影像,将原始清晰影像和实拍的带雾影像合成人工合成的带雾影像;S2:构建HRFCN全卷积网络模型,该模型包括卷积模块和回归模块,将人工合成的带雾影像输入HRFCN全卷积网络模型,经卷积模块进行影像信息提取和回归模块进行回归运算后输出对应的透射率图;S3:根据实拍的带雾影像和对应的透射率图,利用大气散射模型,获得去雾影像。本发明针对其他方法中诸如整体色调过饱和、对白色或浅色目标误判为雾等等的问题,进行了一定的调整,从而避免了这些问题,使获得的去雾影像轮廓更加清晰、更加自然。
Description
技术领域
本发明涉及影像处理领域,特别涉及一种基于全卷积网络的遥感影像去雾方法。
背景技术
由于诸如灰尘,烟雾和雾霾等气溶胶的存在,给遥感影像带来了大量噪声。它大大降低了影像的可见度和对比度,使影像表面颜色变淡,导致影像数据信息量减少。此外,遥感图像如果包含大量的有雾区域,会使许多后续数据处理与解译任务(如影像分割、目标检测和识别、影像分类等)的效果受到大幅影响。
一方面,与清晰影像相比,带雾影像的图像表现力明显下降,极大影响了使用者的视觉感受,从而使得遥感图像的人工解译难度大大增加、精度大大降低。另一方面,影像中的云雾对一系列自动处理任务的精度也会造成很大的影响。如表1所示,在Boyi Li的实验[Li B,Peng X,Wang Z,et al.An All-in-One Network for Dehazing and Beyond[J].2017.]中发现,在不同程度的云雾干扰下,深度学习实现的人工智能自动目标检测模型的平均精度值(mean average precision,mAP)会有很大的降低。对于薄雾、中雾、重雾影像,使用Faster-RCNN算法[Girshick R.Fast R-CNN[J].Computer Science.2015.]进行的目标检测低至50%的精度已不能满足生产工作的需要。值得注意的是,由于云雾的浓度决定了影像数据信息量减少的程度,相比于薄雾影像,厚雾影像的mAP下降更大。而经过AOD-Net算法的去雾处理后,mAP迅速增长到70%左右,同样印证了实现遥感图像去雾的重要性。
表1 目标检测任务在不同影像下的精度
现有的算法,包括经典去雾算法和深度学习去雾算法,大多都基于大气散射模型(Atmospheric Scattering Model,ASM)[Narasimhan,Srinivasa G,Nayar,et al.Visionand the atmosphere[J].International Journal of Computer Vision.2002,48(3):233-254.]。大气散射模型由Koschmieder等人提出,并由Narasimhan和Nayar等人改进,它描述了带雾影像的产生过程,并将求无雾影像这一问题简化为了求大气透射率图的问题。
在自然场景影像中,透射率图t(x)可以使用电磁波波长和传感器到地物距离估计得到,即:
t(x)=e-β(λ)d(x)
其中,d表示传感器到地物的距离,β表示散射系数,一般由波长决定。自然影像的深度学习去雾算法,常常利用这一公式,借助深度的清晰影像来人工合成透射率图,从而合成带雾影像,构造训练数据集。但是在遥感影像中,由于传感器不同,云雾的本质不同,影像尺寸也不同,所以这一公式在遥感影像去雾领域并不适用。
发明内容
本发明的目的在于提供一种基于全卷积网络的遥感影像去雾方法,用于解决遥感影像的去雾问题。
本发明提供一种基于全卷积网络的遥感影像去雾方法,包括如下步骤:
S1:采集原始清晰影像和实拍的带雾影像,将原始清晰影像和实拍的带雾影像合成人工合成的带雾影像;
S2:构建HRFCN全卷积网络模型,该模型包括卷积模块和回归模块,将人工合成的带雾影像输入HRFCN全卷积网络模型,经卷积模块进行影像信息提取和回归模块进行回归运算后输出对应的透射率图;
S3:根据实拍的带雾影像和对应的透射率图,利用大气散射模型,获得去雾影像。
进一步地,还包括步骤S4:评估HRFCN全卷积网络模型,比较去雾影像和原始清晰影像的差异。
进一步地,步骤S1包括:
S1.1:对实拍的带雾影像使用暗通道先验去雾算法估计其对应的预估透射率图;
S1.2:对预估透射率图进行重新采样;
S1.3:对原始清晰影像和重采样的预估透射率图分别单独进行数据增强处理,得到处理透射率图和处理清晰影像;
S1.4:以处理清晰影像作为引导图像,对处理透射率图进行引导滤波,得到人工合成的带雾影像。
进一步地,数据增强处理包括镜像翻转处理、亮度拉伸处理和/或旋转处理。
进一步地,步骤S2包括:
S2.1:卷积模块首先使用两个卷积层提取人工合成的带雾影像的影像特征和低层次信息,然后使用三个池化块将影像采样至指定分辨率;
S2.2:回归模块使用上采样层并辅以均值池化层进行均值滤波,然后使用sigmoid函数回归估计并输出透射率图。
进一步地,每个池化块由一个最大池化层和两个卷积层组成。
进一步地,卷积模块使用上采样层或者转置卷积层对输入的人工合成的带雾影像进行提取。
进一步地,所述大气散射模型为:
I(x)=J(x)t(x)+α(1-t(x))
其中,I(x)和J(x)分别表示在像素点x上实拍的带雾影像和去雾影像,α表示全局大气亮度,t(x)则是在像素点x的透射率图。
进一步地,使用MSE、结构相似性、峰值信噪比、时间消耗四个指标评估HRFCN全卷积网络模型。
进一步地,采集大量的原始清晰影像和实拍的带雾影像,并以此获得大量人工合成的带雾影像,构成包含原始清晰影像和人工合成的带雾影像在内的数据集;将所述数据集中的数据按照70%、15%、15%的数据比例分为三组,分别是模型训练组、模型测试组和模型验证组,模型训练组中的数据用于训练以获得实拍影像所在地区环境的透射率图,模型测试组的数据用于根据实拍的带雾影像和对应的透射率图获取去雾影像,模型验证组中的数据用于评估去雾影像和原始清晰影像的差异。
本发明的有益效果有:本发明设计了构造深度学习训练数据集的方法,并依此得到一个有较强泛化能力的网络模型。本发明针对其他方法中诸如整体色调过饱和、对白色或浅色目标误判为雾等等的问题,进行了一定的调整,从而避免了这些问题,使获得的去雾影像轮廓更加清晰、更加自然。
附图说明
图1是本发明一种基于全卷积网络的遥感影像去雾方法实施的流程图;
图2是图1流程图中步骤S1的分解流程题;
图3是图1流程图中步骤S2的分解流程题;
图4(a)~4(d)是无雾-带雾的影像对;
图5是人工合成的带雾影像集;
图6是HRFCN全卷积网络模型的网络结构示意图;
图7(a)~7(d)是使用MSE、结构相似性、峰值信噪比、时间消耗四个指标评估HRFCN全卷积网络模型的精度对比图;
图8是湖北省上空使用无人机实拍的带雾影像;
图9是对图8进行所述的基于全卷积网络的遥感影像去雾方法处理后的去雾影像。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述。
请参照图1,本发明提供一种基于全卷积网络的遥感影像去雾方法,本方法对于薄雾、中雾、厚雾影像均有非常优秀的去雾效果,去雾后遥感影像可用于目标检测、语义分割、空三测量等等一系列应用,并取得更好的精度。包括如下步骤:
S1:采集原始清晰影像和实拍的带雾影像,将原始清晰影像和实拍的带雾影像合成人工合成的带雾影像。
S2:构建HRFCN全卷积网络模型,该模型包括卷积模块和回归模块,将人工合成的带雾影像输入HRFCN全卷积网络模型,经卷积模块进行影像信息提取和回归模块进行回归运算后输出对应的透射率图。
S3:根据实拍的带雾影像和对应的透射率图,利用大气散射模型,获得去雾影像。
请参照图2,其中,步骤S1包括:
S1.1:对实拍的带雾影像使用暗通道先验去雾算法估计其对应的预估透射率图;
S1.2:对预估透射率图进行重新采样;
S1.3:对原始清晰影像和重采样的预估透射率图分别单独进行数据增强处理,得到处理透射率图和处理清晰影像;
S1.4:以处理清晰影像作为引导图像,对处理透射率图进行引导滤波,得到人工合成的带雾影像。
请参照图3,步骤S2包括:
S2.1:卷积模块首先使用两个卷积层提取人工合成的带雾影像的影像特征和低层次信息,然后使用三个池化块将影像采样至指定分辨率;
S2.2:回归模块使用上采样层并辅以均值池化层进行均值滤波,然后使用sigmoid函数回归估计并输出透射率图。
所述的大气散射模型为:
I(x)=J(x)t(x)+α(1-t(x))
其中,I(x)和J(x)分别表示在像素点x上实拍的带雾影像和去雾影像,α表示全局大气亮度,t(x)则是在像素点x的透射率图。
下面以湖北省为取样地为例进行具体说明:
由于基于深度学习的模型预测精度很大程度上取决于训练样本的质量,因此数据集的质量是算法设计的关键,也是重中之重。因此本发明从AID[Xia G S,Hu J,Hu F,etal.AID:A Benchmark Data Set for Performance Evaluation of Aerial SceneClassification[J].IEEE Transactions on Geoscience&Remote Sensing.2016,PP(99):1-17.],EvLab[Zhang M,Hu X,Zhao L,et al.Learning Dual Multi-Scale ManifoldRanking for Semantic Segmentation of High-Resolution Images[J].RemoteSensing.2017,9(9).]等公开的遥感影像场景分类与语义分割数据集中,采集了3000张2000×2000分辨率的清晰影像作为原始清晰影像备用。然后在某地区比如湖北省上空拍摄得到69张真实的实拍的带雾影像,使用暗通道先验去雾算法估计其一一对应的预估透射率图,然后将这些估透射率图分别重采样并且使其分辨率为480×480。
为了增大数据量,提高样本的丰富性和多样性,防止网络过拟合,分别对原始清晰影像和重采样的预估透射率图进行包括镜像翻转、亮度拉伸、旋转等在内的数据增强,得到处理透射率图和处理清晰影像。再以处理清晰影像作为引导图像,对处理透射率图进行引导滤波,得到人工合成的带雾影像。
根据公式(1)由原始清晰影像合成得到对应的人工合成的带雾影像,这样,就获得了一个如图4(a)~4(d)示的无雾-带雾的影像对,构成数据集。
由于数据增强得到的(69×24)张处理透射率图和(3000×8)张处理清晰影像之间的排列组合,理论上本发明可以得到至少(69×24)×(3000×8)≈40 000 000个影像对,保障了数据集的多样性和丰富性,为全卷积网络模型的训练提供了很好的条件。
本发明为遥感影像问题设计了名为HRFCN的全卷积网络模型,该模型的技术理论依据包括Hinton等人于2006年提出了深度学习概念和Jonathan Long等人2016年首次提出的全卷积网络概念。
本发明所述的构建HRFCN全卷积网络模型,以480×480分辨率的人工合成的带雾影像作为输入(请参照图5的人工合成的带雾影像集),以对应的相同尺寸下的透射率图作为输出。一方面是因为去雾影像与带雾影像之间的差异较小,直接以去雾影像作为输出很容易使得神经网络陷入局部最小点,并不能充分利用训练数据集的大量遥感影像数据来学习复杂的函数;另一方面是因为大气折射模型等人类知识先验的引入,可以在训练数据集样本量较小的情况下显著提升模型精度,使得模型得到最好的预测效果。
HRFCN全卷积网络模型包括卷积模块和回归模块,网络结构如图6和表2所示,由若干个卷积层和池化层组成了卷积模块、池化模块和回归模块,其中卷积模块主要用于提取低层次特征信息,池化模块则用于进一步地提取影像的高层次语义信息,形成特征图,回归模块则根据特征图估计透射率图信息,具体地,回归模块融合各滤波器信息使用sigmoid函数回归估计每个像素的透射率图。由于该网络的轻量级设计,理论上该模型可以在占用较小内存的前提下,得到较快的预测速度。
表2 网络层设计细节
采集大量的原始清晰影像和实拍的带雾影像,并以此获得大量人工合成的带雾影像,构成包含原始清晰影像和人工合成的带雾影像在内的数据集。
卷积模块首先使用两个卷积层提取原始图像的低层次信息,然后使用三个池化块将影像下采样至60×60分辨率,这样避免了网络结构中出现的细节信息过于冗余的情况。每个池化块由一个最大池化层(MaxPooling)和两个卷积层组成。一般来说,为了将图像上采样至原始图像大小,可以使用上采样层(Up-Sampling)或者转置卷积层。在本发明提出的网络中的回归模块中,本发明使用Up-Sampling层并辅以均值池化层(Average-Pooling)作为均值滤波功能,避免“马赛克”现象。而在网络的最后,使用sigmoid函数回归估计结果。除回归层外的所有层都使用了ReLU作为激活函数。此外,为了获取多尺度下更加丰富的影像特征信息,本发明在Conv2和Ave层之间设置了跳跃连接层期待得到更好的效果。
本发明将以此网络结构为基础,对模型进行训练。
为了评估模型质量,比较去雾影像和原始清晰影像的差异,本发明使用MSE、结构相似性(structural similarity,SSIM)、峰值信噪比(peak signal-to-noise Ratio,PSNR)、时间消耗四个指标。由于比对在对影像进行归一化后进行,MSE值域为0到1,指标越大则像素级的差异程度越大;SSIM值域也为0到1,指标越大则相似性的程度越大;PSNR值域为0到正无穷大,指标越大则去雾图像相比于真实图像保真的程度越大。本发明将所述数据集中的数据按照70%、15%、15%的数据比例分为三组,分别是模型训练组、模型测试组和模型验证组,模型训练组中的数据用于训练以获得实拍影像所在地区环境的透射率图,模型测试组的数据用于根据实拍的带雾影像和对应的透射率图获取去雾影像,模型验证组中的数据用于评估去雾影像和原始清晰影像的差异。本文使用Keras框架实现HRFCN模型,以前文所提到的MSE作为损失函数,使用参数为0.005的Adam优化器,在数据集上以24的batch-size训练15个epoch。实验中本文使用带有NVIDIA GeForce GTX 1080Ti显卡的电脑,整个模型训练过程大约花费一个小时。
本实施例以湖北省上空使用无人机拍摄到的影像作为实验对象。实验效果如图8和图9所示。可以看出,影像中原本较为模糊的地物目标在去雾后变得轮廓更加清晰了,影像整体色调经过去雾后也变得更加自然,便于利用。
本发明的有益效果:
(1)本发明将深度学习的方法引入遥感影像去雾的领域,在借鉴了现有模型优势,摒弃现有模型局限性的原则下,设计了基于全卷积神经网络(Fully ConvolutionalNetworks,FCN)的遥感影像去雾网络模型HRFCN;
(2)本发明设计了一种基于全卷积网络的遥感影像去雾合成策略,为HRFCN模型的训练做好充足的准备;
(3)本发明为该模型引入评估策略、设计预测策略,并基于此进行了实验,验证了基于卷积神经网络的遥感影像去雾算法的可行性,并为该模型的进一步改进和优化提供理论基础。从而形成了从设计到训练,再到评估的完整的单张遥感影像去雾算法流程。
如图7(a)~7(d)所示,本文的模型在各个指标上都达到了远高于其他模型的效果。值得一提的是,本文模型指标方差也远低于其他模型,这意味着本文的模型更具有稳定性。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于全卷积网络的遥感影像去雾方法,其特征在于,包括如下步骤:
S1:采集原始清晰影像和实拍的带雾影像,将原始清晰影像和实拍的带雾影像合成人工合成的带雾影像;
S2:构建HRFCN全卷积网络模型,该模型包括卷积模块和回归模块,将人工合成的带雾影像输入HRFCN全卷积网络模型,经卷积模块进行影像信息提取和回归模块进行回归运算后输出对应的透射率图;
S3:根据实拍的带雾影像和对应的透射率图,利用大气散射模型,获得去雾影像。
2.如权利要求1所述的基于全卷积网络的遥感影像去雾方法,其特征在于:还包括步骤S4:评估HRFCN全卷积网络模型,比较去雾影像和原始清晰影像的差异。
3.如权利要求2所述的基于全卷积网络的遥感影像去雾方法,其特征在于:步骤S1包括:
S1.1:对实拍的带雾影像使用暗通道先验去雾算法估计其对应的预估透射率图;
S1.2:对预估透射率图进行重新采样;
S1.3:对原始清晰影像和重采样的预估透射率图分别单独进行数据增强处理,得到处理透射率图和处理清晰影像;
S1.4:以处理清晰影像作为引导图像,对处理透射率图进行引导滤波,得到人工合成的带雾影像。
4.如权利要求3所述的基于全卷积网络的遥感影像去雾方法,其特征在于:数据增强处理包括镜像翻转处理、亮度拉伸处理和/或旋转处理。
5.如权利要求2所述的基于全卷积网络的遥感影像去雾方法,其特征在于:步骤S2包括:
S2.1:卷积模块首先使用两个卷积层提取人工合成的带雾影像的影像特征和低层次信息,然后使用三个池化块将影像采样至指定分辨率;
S2.2:回归模块使用上采样层并辅以均值池化层进行均值滤波,然后使用sigmoid函数回归估计并输出透射率图。
6.如权利要求5所述的基于全卷积网络的遥感影像去雾方法,其特征在于:每个池化块由一个最大池化层和两个卷积层组成。
7.如权利要求5所述的基于全卷积网络的遥感影像去雾方法,其特征在于:卷积模块使用上采样层或者转置卷积层对输入的人工合成的带雾影像进行提取。
8.如权利要求2所述的基于全卷积网络的遥感影像去雾方法,其特征在于:所述大气散射模型为:
I(x)=J(x)t(x)+α(1-t(x)) (1)
其中,I(x)和J(x)分别表示在像素点x上实拍的带雾影像和去雾影像,α表示全局大气亮度,t(x)则是在像素点x的透射率图。
9.如权利要求2所述的基于全卷积网络的遥感影像去雾方法,其特征在于:使用MSE、结构相似性、峰值信噪比、时间消耗四个指标评估HRFCN全卷积网络模型。
10.如权利要求2所述的基于全卷积网络的遥感影像去雾方法,其特征在于:采集大量的原始清晰影像和实拍的带雾影像,并以此获得大量人工合成的带雾影像,构成包含原始清晰影像和人工合成的带雾影像在内的数据集;
将所述数据集中的数据按照70%、15%、15%的数据比例分为三组,分别是模型训练组、模型测试组和模型验证组,模型训练组中的数据用于训练以获得实拍影像所在地区环境的透射率图,模型测试组的数据用于根据实拍的带雾影像和对应的透射率图获取去雾影像,模型验证组中的数据用于评估去雾影像和原始清晰影像的差异。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010813463.5A CN111986109A (zh) | 2020-08-13 | 2020-08-13 | 一种基于全卷积网络的遥感影像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010813463.5A CN111986109A (zh) | 2020-08-13 | 2020-08-13 | 一种基于全卷积网络的遥感影像去雾方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111986109A true CN111986109A (zh) | 2020-11-24 |
Family
ID=73435409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010813463.5A Pending CN111986109A (zh) | 2020-08-13 | 2020-08-13 | 一种基于全卷积网络的遥感影像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986109A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471429A (zh) * | 2022-10-31 | 2022-12-13 | 航天宏图信息技术股份有限公司 | 一种基于全局颜色迁移的遥感影像去雾方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513025A (zh) * | 2015-12-10 | 2016-04-20 | 中国科学技术大学 | 一种改进的快速去雾方法 |
CN109118451A (zh) * | 2018-08-21 | 2019-01-01 | 李青山 | 一种基于卷积回归的航空正射影像去雾算法 |
KR20200065427A (ko) * | 2018-11-30 | 2020-06-09 | 인하대학교 산학협력단 | 악천후에서의 도로 객체 검출을 위한 비 영상 합성 기법 |
-
2020
- 2020-08-13 CN CN202010813463.5A patent/CN111986109A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513025A (zh) * | 2015-12-10 | 2016-04-20 | 中国科学技术大学 | 一种改进的快速去雾方法 |
CN109118451A (zh) * | 2018-08-21 | 2019-01-01 | 李青山 | 一种基于卷积回归的航空正射影像去雾算法 |
KR20200065427A (ko) * | 2018-11-30 | 2020-06-09 | 인하대학교 산학협력단 | 악천후에서의 도로 객체 검출을 위한 비 영상 합성 기법 |
Non-Patent Citations (1)
Title |
---|
LING KE 等: "Haze removal from a single remote sensing image based on a fully convolutional neural network", 《JOURNAL OF APPLIED REMOTE SENSING》, pages 1 - 12 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471429A (zh) * | 2022-10-31 | 2022-12-13 | 航天宏图信息技术股份有限公司 | 一种基于全局颜色迁移的遥感影像去雾方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN112949565B (zh) | 基于注意力机制的单样本部分遮挡人脸识别方法及系统 | |
CN112184577B (zh) | 基于多尺度自注意生成对抗网络的单幅图像去雾方法 | |
CN111145131A (zh) | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 | |
CN110796009A (zh) | 基于多尺度卷积神经网络模型的海上船只检测方法及系统 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN108447041A (zh) | 一种基于增强学习的多源图像融合方法 | |
CN114266977B (zh) | 基于超分辨可选择网络的多auv的水下目标识别方法 | |
CN110349093B (zh) | 基于多级沙漏结构的单幅图像去雾模型构建及去雾方法 | |
CN114782298B (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN111709888B (zh) | 一种基于改进的生成对抗网络的航拍图像去雾方法 | |
CN111046781A (zh) | 一种基于三元注意力机制的鲁棒三维目标检测方法 | |
CN113420794B (zh) | 一种基于深度学习的二值化Faster R-CNN柑橘病虫害识别方法 | |
CN116343144B (zh) | 一种融合视觉感知自适应去雾的实时目标检测方法 | |
CN114120176A (zh) | 远红外与可见光视频图像融合的行为分析方法 | |
CN114897728A (zh) | 图像增强方法、装置、终端设备以及存储介质 | |
CN111598793A (zh) | 一种用于输电线路图像去雾的方法、系统及存储介质 | |
Babu et al. | An efficient image dahazing using Googlenet based convolution neural networks | |
CN116664448B (zh) | 一种基于图像去雾的中高能见度计算方法及计算系统 | |
CN111986109A (zh) | 一种基于全卷积网络的遥感影像去雾方法 | |
CN111680640B (zh) | 一种基于领域迁移的车型识别方法及系统 | |
CN113610109A (zh) | 一种基于放大镜观测效应的可见光伪装目标识别方法 | |
CN116385281A (zh) | 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法 | |
CN115439363A (zh) | 基于对比学习的视频去雾装置与去雾方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20231201 Address after: 430000 Hubei city of Wuhan province Wuchang Luojiashan Applicant after: WUHAN University Address before: Building 5 (1-3), Building 3S Geospatial Information Industry Base, No. 7 Wudayuan Road, Donghu Development Zone, Wuhan City, Hubei Province 430000 Applicant before: Hubei furuier Technology Co.,Ltd. |