CN107256541A - 一种基于卷积神经网络的多光谱遥感图像去雾方法 - Google Patents
一种基于卷积神经网络的多光谱遥感图像去雾方法 Download PDFInfo
- Publication number
- CN107256541A CN107256541A CN201710452054.5A CN201710452054A CN107256541A CN 107256541 A CN107256541 A CN 107256541A CN 201710452054 A CN201710452054 A CN 201710452054A CN 107256541 A CN107256541 A CN 107256541A
- Authority
- CN
- China
- Prior art keywords
- image
- defogging
- network
- mrow
- mist
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000013507 mapping Methods 0.000 claims abstract description 28
- 238000013461 design Methods 0.000 claims abstract description 10
- 239000003595 mist Substances 0.000 claims description 78
- 230000005540 biological transmission Effects 0.000 claims description 56
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 18
- 239000000203 mixture Substances 0.000 claims description 9
- 239000002245 particle Substances 0.000 claims description 6
- 230000000644 propagated effect Effects 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 230000004913 activation Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 2
- 238000013506 data mapping Methods 0.000 claims 1
- 230000008030 elimination Effects 0.000 claims 1
- 238000003379 elimination reaction Methods 0.000 claims 1
- 238000011478 gradient descent method Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- VMXUWOKSQNHOCA-UKTHLTGXSA-N ranitidine Chemical compound [O-][N+](=O)\C=C(/NC)NCCSCC1=CC=C(CN(C)C)O1 VMXUWOKSQNHOCA-UKTHLTGXSA-N 0.000 description 5
- 241001269238 Data Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于卷积神经网络的多光谱遥感图像去雾方法,其特征在于:该方法包括如下步骤:步骤1:多光谱图像去雾波段选择;步骤2:建立去雾模型;步骤3:设计卷积神经网络;步骤4:训练卷积神经网络;步骤5:多光谱遥感图像去雾。本发明通过一个卷积神经网络直接学习有雾图像到清晰图像之间的映射关系,可实现端到端的去雾。卷积网络采用级联的残差结构,可对去雾模型进行有参考的学习,并实现逐步去雾。该方法不仅易于学习和训练,还可以通过加深网络层数实现更高精度的去雾结果。
Description
(一)技术领域:
本发明涉及一种基于卷积神经网络的多光谱遥感图像去雾方法,属于遥感图像处理的技术领域。
(二)背景技术:
多光谱遥感图像不仅可以提供丰富的地物信息,还具备光谱特性,在环境、监测、军事、测绘等领域发挥十分重要的作用。然而,多光谱遥感图像会经常受到雾的干扰,造成图像中地物模糊不清、感兴趣区域信息丢失,这不仅严重影响人眼对图像数据的判读,同时也影响了遥感数据的自动解译。
对遥感图像进行去雾研究可以提高图像的质量,从而为后续的遥感图像处理和应用提供保障。许多遥感图像的去雾算法已经被提出,这些方法主要针对GoogleEarth图像或者多光谱图像中的可见光波段,而对于多光谱图像中更多波段的去雾研究还不深入。本发明针对多光谱遥感图像中存在的雾遮挡问题,提出了一种基于卷积神经网络的去雾方法。该方法将图像去雾看作是回归问题,设计端到端的卷积神经网络来学习有雾图像到清晰图像之间的映射关系,从而在各个波段上都获得了满意的去雾效果,同时保持了地物目标色彩和结构的一致性。
(三)发明内容:
1、目的:本发明的目的在于提供一种基于卷积神经网络的多光谱遥感图像去雾方法,用来实现多光谱图像的雾去除,提升图像质量。
2、技术方案:本发明通过以下技术方案实现。
本发明首先对去雾问题进行建模,并设计一个端到端的卷积神经网络来回归这个模型。然后,通过仿真方式获得足够的带有真值标签的雾图像样本来训练卷积神经网络,进行有雾图像与真值图像之间回归模型的学习。该学习好的模型即可用来对实际的多光谱图像进行去雾。该发明的具体步骤如下:
步骤1:多光谱图像去雾波段选择
本发明针对Landset8陆地成像仪(OLI)采集的多光谱图像进行去雾。Landset8OLI图像有9个波段,其中波段6、7、9三个波段的波长是大于1的,可以穿透水粒子,因此这三个波段不受雾的影响。而剩下的6个波段(波段1至5、以及波段8)分别是海岸、可见光(包括蓝、绿、红三个波段)、近红外以及全色波段,它们的波长是小于1的,会受到雾的影响,因此我们的算法针对这6个受雾影响的波段进行去雾。
步骤2:建立去雾模型
雾天成像模型可描述为:
I(x)=J(x)t(x)+A(1-t(x)) (I)
其中,I(x)为有雾图像,J(x)为对应的清晰图像,A是全局大气光,t(x)为透射图,x表示像素。
去雾问题即是要从有雾图像I(x)中恢复出清晰图像J(x)。根据雾天成像模型,去雾图像和原始带雾图像之间为线性关系。令h代表有雾图像,g表示被恢复的清晰图像,函数F代表有雾图像与对应清晰图像之间的映射关系,则去雾问题可以建模为以下形式(即去雾模型):
g=F(h) (2)
根据公式(1),一旦获得映射关系F,则给定一个有雾图像h,通过函数关系映射便可得到清晰图像,从而实现图像去雾。
本发明采用一个残差卷积网络来拟合有雾图像到清晰图像之间的映射关系F(h)。具有残差结构的卷积神经网络,其输入不仅传递给卷积层,并且在网络末端与卷积层的输出直接相加,形成最终的网络输出。残差网络中卷积层学习到的模型可描述为:
H(h)=F(h)-h (3)
在残差网络中,大部分信息是由网络输入直接提供的,网络学习过程主要是对输入与输出之间的残差部分进行学习。而在去雾问题上,清晰图像和其对应的有雾图像具有相似的纹理和颜色,可以看作是去雾前图像的一个近似,这一点恰好与残差网络的特点相对应。因此,我们用残差卷积网络来回归学习清晰图像,即:网络中的权重层只需要学习有雾图像和清晰图像之间不同的部分(雾成分),相同的地物纹理和颜色信息可以由输入图像直接提供。通过这一有参考的网络结构,将有雾图像到清晰图像之间复杂的映射转化为有雾图像到雾成分之间简单的映射,大大减小了网络学习的难度。
由于雾的浓度和分布是多样的,使用具有一个残差结构的网络模型进行雾成分的学习是很困难的。因此,我们把去雾模型(2)进一步分解为以下多个子任务(即多步去雾模型):
g0=F0(h),g1=F1(g0),……,g=Fn(gn-1) (4)
其中,每个Fi都是相对于F的弱映射。根据该多步去雾模型,输入图像h通过一系列的Fi被逐步去雾,最终恢复为清晰图像。相应的,对于每一个子映射Fi,采用具有残差结构的浅层卷积网络来拟合,将这些残差块级联起来组成一个深度卷积网络,实现雾的逐步去除。
步骤3:设计卷积神经网络
根据步骤2中的多步去雾模型(4),我们设计的网络结构为:
Conv1(3×3×16)→
ResBlock1(3×3×16)→…→ResBlockn(3×3×16)
→Convm(3×3×6)
其中,Conv表示卷积层,ResBlock表示残差块。每个残差块为一个两层的残差卷积结构,即ResBlock(3×3×16)=[Conv(3×3×16),Conv(3×3×16)]。
网络的输入是6个波段的多光谱数据,输出是相应的清晰图像,整个网络是端到端的全卷积结构。根据雾天成像模型,清晰图像和有雾图像之间为线性关系,因此该网络中不包含任何非线性激活单元。考虑到图像每个像素点处的去雾只取决于局部信息,所有的卷积层均采用了3×3小卷积核。网络的第一层卷积核个数为16,实现图像数据的高维映射,使得后续的残差块可以在高维空间学习。网络的最后一层卷积核个数为6,将特征图映射到原始图像维度,实现清晰图像的输出。在第一层和最后一层之间有n个残差块ResBlock,一个残差块对应(4)中的一个弱映射Fi,n个残差块的级联实现雾的逐步去除。
步骤4:训练卷积神经网络
基于学习的去雾方法,需要带标签的雾样本来进行训练。但对于遥感图像,有雾图像及其对应清晰图像(真值)是很难收集的。因此这类方法都是采用仿真的方式来获得足够多的带标签样本。已有的雾仿真方法都是假定雾是波长无关的,对各个波段产生相同浓度的雾。而实际上,雾是波长相关的。本发明仿真生成波长相关的雾作为训练样本来对网络进行训练。
1)训练样本生成
根据雾天成像模型(1)可知,给定一幅清晰图像J,通过调整全局大气光A和透射图t的值,代入到雾天成像模型中即可得到一幅有雾图像。由于多光谱图像各波段的透射图之间具有一定的相关性,为清晰的多光谱图像设置透射图时,不同波段的透射图之间需满足相应的关系。因此,我们先推导不同波段透射图之间的相关性,然后利用这个相关性来生成波长相关的带雾多光谱图像,即仿真得到有雾图像。
①推导不同波段透射图之间的关系
本发明针对Landset8中6个受雾影响的波段去雾,我们先取波段1为基准波段,来推导其他5个波段与波段1之间的透射图相关性。
根据雾成像的物理模型,透射图t可描述为:
t(x)=e-β(x,λ)d(x) (5)
其中,d(x)表示真实场景中的物体到传感器之间的距离,遥感图像中,d(x)可看作是常量。β(x,λ)为衰减系数,反映了光被大气中的粒子散射的程度,与大气中的粒子和波长λ相关。具体地,根据Rayleigh散射模型,衰减系数β可描述为:
其中,参数γ反映了大气中粒子的大小,在雾天情况下,γ的值在[0.5,1]之间。
为了推导不同波段透射图之间的关系,首先对透射图t的表达式两边取自然对数,可得:
lnt=-dβ (7)
由于d为固定的常量,因此波段1与其他波段之间关于lnt的比率为:
lnt1:lnti=β1:βi (8)
其中ti和βi分别是波段i的透射图和衰减系数。进一步变换以上公式可得:
最后,将Rayleigh散射模型(6)代入公式(9),即可得到波段1与其他波段透射图之间的关系表达式:
其中,λi是第i个波段的波长,一般取波段的中间波长即可。γ为Rayleigh散射模型中的参数,取值范围为[0.5,1],值越大,对应的雾越浓。从(10)可以看出,只要给出基准波段的透射图t1以及γ的值,其他5个波段的透射图即可通过(10)计算得到。
②雾合成
为了保证训练集样本的多样性,我们合成不同浓度的雾图像。
令γ的值分别取为0.5、0.7和1,t1的值在(0,1]范围内每隔0.1取值,共取值10次。针对每对(γ,t1),按照公式(10)计算其他5个波段的透射图,共可得到3×10=30组透射图模板(每组6个透射图)。
对于一幅清晰的多光谱图像(真值),设置全局大气光A的值为常量1,将每组透射图模板按照雾天成像模型(1)叠加到清晰图像的各个波段,即可合成带雾的多光谱图像。30组透射图模板共可产生30幅同一场景下不同浓度的带雾多光谱图像。该方法合成的雾保持了各个波段之间的波长相关性,所产生的有雾图像更接近于真实图像。
2)网络训练
在本步骤中,用仿真得到的有雾图像样本对网络进行训练,实现有雾图像到清晰图像之间映射关系的学习。
由于在本发明中,卷积神经网络被用来解决回归问题,网络采用欧式距离作为损失函数:
其中,N为图像个数,为网络的实际输出结果,gn为真值图像。本发明选择随机梯度下降法来优化该损失函数(11),用仿真得到的有雾图像对网络进行迭代学习,更新网络参数,当网络的损失值趋于稳定时,即可结束训练,此时保存的网络参数即为训练好的去雾网络模型。
步骤5:多光谱遥感图像去雾
实现一幅多光谱遥感图像去雾,只需将图像输入到步骤4训练好的去雾网络模型中,通过网络的前向传播,即可在网络的输出端得到被恢复的清晰图像。
本发明是针对Landset8多光谱数据的处理,该方法同样适用于来自其他卫星传感器的多光谱数据。对于其他卫星传感器的多光谱数据,选择波长小于1的波段,按照步骤4生成波长相关的仿真雾来对网络进行训练,即可实现多光谱图像的有效去雾。
3、优点及功效
本发明提出了一个基于卷积神经网络的多光谱遥感图像去雾方法,通过一个卷积神经网络直接学习有雾图像到清晰图像之间的映射关系。卷积网络采用级联的残差结构,可对去雾模型进行有参考的学习,并实现逐步去雾。该方法不仅易于学习和训练,还可以通过加深网络层数实现更高精度的去雾结果。同时,所设计的网络是端到端的,整个去雾过程无需额外的处理,操作简单。
传统的遥感图像去雾方法大多针对可见光波段,本方法可以有效去除多个波段中的雾。在训练过程中,我们推导各波段之间透射图的相关性,合成了波长相关的雾样本,使得被训练的网络能够准确地去除各个波段的雾,并且保持了图像色彩、纹理的一致性,有效还原了遥感图像原本的地物信息。
本发明是针对Landset8多光谱数据的处理,该方法同样适用于来自其他卫星传感器的多光谱数据。对于其他卫星传感器的多光谱数据,选择波长小于1的波段,按照步骤4生成波长相关的仿真雾来对网络进行训练,即可实现多光谱图像的有效去雾。
(四)附图说明
图1本发明所述图像去雾方法的流程图。
图2本发明所设计的卷积神经网络结构图。
图3 Landsat8 OLI遥感图像去雾结果。
图4高分一号遥感图像去雾结果。
(五)具体实施方式
为了更好地理解本发明的技术方案,以下结合附图对本发明的实施方式作进一步描述:
本发明的流程图如图1所示。计算机配置采用:Intel Core i5-6600k处理器,Nvidia GeForce GTX 1080图形处理器,主频3.5GHz,内存16GB,操作系统为ubuntu 16.04。去雾方法的实现基于Caffe工具包。本发明是一种基于卷积神经网络的多光谱图像去雾方法,具体包括以下步骤:
步骤1:多光谱图像去雾波段选择
本发明采用landsat8OLI传感器采集的多光谱遥感图像数据。Landsat8OLI图像共包括9个波段,而其中的海岸波段、可见光波段(蓝波段、绿波段、红波段)、近红外波段、全色波段其波长小于1,容易受到雾的影响。因此,本发明针对以上6个容易受到雾影响的波段进行去雾。
步骤2:建立去雾模型
令h代表有雾图像,g表示恢复的清晰图像,函数F代表有雾图像与对应清晰图像之间的映射关系,则去雾问题被建模为以下形式(即去雾模型):
g=F(h)
根据上式,一旦获得该映射关系F,给定有雾图像h,通过函数关系映射便可得到清晰图像,从而实现图像去雾。
本发明采用一个残差卷积网络来拟合有雾图像到清晰图像之间的映射关系F(h)。在该结构中,网络的输入不仅传递给卷积层,并且在网络末端与卷积层的输出直接相加,形成最终的网络输出。残差网络中卷积层学习到的模型可描述为:
H(h)=F(h)-h
利用具有残差结构的网络学习去雾,网络中的权重层只需要学习有雾图像和清晰图像之间不同的部分H(h)(雾成分),相同的地物纹理和颜色信息可以由输入图像直接提供。通过这一有参考的网络结构,将有雾图像到清晰图像之间复杂的映射转化为有雾图像到雾成分之间简单的映射,大大减小了网络学习的难度。
由于雾的浓度和分布是多样的,使用具有一个残差结构的网络模型进行雾成分的学习是很困难的。因此,去雾模型被进一步分解为以下多个子任务:
g0=F0(h),g1=F1(g0),……,g=Fn(gn-1)
其中,每个Fi都是相对于F的弱映射。有雾图像h通过一系列的Fi被逐步去雾,最终恢复为清晰图像。
步骤3:设计卷积神经网络
根据步骤2建立的去雾模型,设计如图2所示的级联残差卷积网络。
网络的输入是6个波段的多光谱数据,输出是相应的清晰图像,整个网络是端到端的全卷积结构,所有的卷积层均采用了3×3小卷积核。网络的第一层将特征空间映射到高维,输出16个特征图。在第一个卷积层之后为n个残差块,每个残差块是一个两层的残差卷积结构,分别学习去雾模型中的多个子映射。网络的最后一层将特征图映射到原始图像维度,输出6个波段的去雾结果。网络的深度由残差块的个数n决定。通常,网络越深,去雾的准确度越高,而模型的复杂度也越高。考虑到网络精度和时间复杂度两方面因素,本发明选取n=5作为最终的网络结构。
步骤4:训练卷积神经网络
1)训练样本生成
本方法采用仿真的方式获取有雾图像及其真值图像,以此构建训练数据集。具体操作包括以下步骤:
①获取清晰的多光谱图像。从提供免费Landsat8 OLI数据的网站(http://ids.ceode.ac.cn/query.html)上下载多景多光谱遥感图像,保存到本地。对于每景图像,采用ENVI5.0软件将其打开,选取图像中大小为200×200的清晰区域,保存步骤1中确定的6个待去雾波段。通过该步骤操作,共可获得400幅清晰图像,每幅图像具有6个波段,图像大小为200×200。
②合成雾图像。根据雾天成像模型,给定一幅清晰图像,通过调整大气光A和透射图t的值,代入到雾天成像模型中即可得到有雾图像。由于多光谱图像各波段的透射图之间具有一定相关性,根据Rayleigh散射模型,可推导得到波段1与其他波段透射图之间满足以下关系:
其中,λ为各个波段的中心波长。对于Landsat8OLI卫星采集的遥感图像,各波段的中心波长分别为:海岸波段0.448μm,蓝波段0.483μm,绿波段0563μm,红波段0.655μm,近红外波段0.865μm,全色波段0.590μm。可以看出,根据该关系表达式,只要给定波段1的透射图t1以及γ的值,其他5个波段的透射图即可通过该表达式计算得到。
为了合成不同浓度的雾图像,令γ的值分别取为0.5、0.7和1,t1的值在(0,1]范围内每隔0.1取值,共取值10次。针对每对(γ,t1),按照上式计算其他5个波段的透射图,共可得到3×10=30组透射图模板(每组有6个透射图,对应了6个波段)。对于一幅清晰的多光谱图像(真值),设置大气光A的值为常量1,将每组透射图模板按照雾成像模型叠加到清晰图像的各个波段,即可合成带雾的多光谱图像。30组透射图模板共可产生30幅同一场景下不同浓度的带雾多光谱图像。
对于收集的400幅清晰图像,可以产生400*30=12000个带标签的雾样本。这些样本包含了不同的地物场景,并均衡地涵盖了雾浓度的各种情况,保证了训练集中样本的多样性和均衡性。
2)网络训练
由于在本发明中,卷积神经网络被用来解决回归问题,网络采用欧式距离作为损失函数:
其中,N为图像个数,为网络的实际输出结果,gn为真值图像。通过最小化该损失函数,进行网络训练,学习去雾网络模型。
对于12000个仿真有雾图像,将其中的9000个样本作为训练集对网络进行训练,剩余的3000个样本作为验证集进行超参数的调整。为了防止过拟合,损失函数以二范数形式对参数进行正则化约束,正则化系数为0.0001。在开始训练之前,输入图像被归一化到[0,1]之间,卷积核的权重采用均值为0、方差为0.01的高斯函数进行初始化,偏置采用固定值0.01进行初始化。在进行模型优化时,采用随机梯度下降的方式更新网络参数,其中动量参数设为0.9。初始学习率为10-7,并且在损失值达到稳定时减小为原来的一半。整个训练过程在Nvidia GeForce GTX 1080 GPU上进行,训练共迭代170,000次。
步骤5:多光谱遥感图像去雾
本发明设计的多光谱遥感图像去雾方法是端到端的,一旦训练好网络模型,只需将待去雾的多光谱图像输入到网络中,通过网络的前向传播,即可在输出端得到被恢复的清晰图像。图3展示了一个多光谱遥感图像去雾实例,可以看到本发明的方法有效去除了各波段中的雾,真实还原了原始的地物信息。
本发明是针对Landset8多光谱数据的处理,该方法同样适用于来自其他卫星传感器的多光谱数据。对于其他卫星传感器的多光谱数据,选择波长小于1的波段,按照步骤4生成波长相关的仿真雾来对网络进行训练,即可实现多光谱图像的有效去雾。
对不同卫星传感器的去雾,除了训练数据不同、去雾波段选取不同、卷积神经网络的输入输出通道数不同以外,其他基本一致。以下给出了高分一号卫星去雾的实施过程,对于其他卫星的去雾过程也是相同的道理,与landsat8、高分一号的过程一致。以下给出高分一号遥感图像去雾的具体实施例。
高分一号卫星是由我国长征二号丁运载火箭发射并正常运行,是高分辨对地观测系统的首发星。高分一号卫星的多光谱图相机采集的遥感图像共包含4个波段:蓝波段、绿波段、红波段、近红外波段,它们的波长均小于1μm,容易受到雾的影响。因此,高分图像的四个波段均需要去雾处理。
根据上述步骤2和步骤3所述内容构建去雾模型,设计卷积神经网络。对于高分图像,卷积神经网络的输入是4个波段的多光谱数据,输出是相应的清晰图像。整个网络是端到端的全卷积结构,所有的卷积层均采用了3×3小卷积核。网络的第一层将特征空间映射到高维,输出16个特征图。在第一个卷积层之后为5个残差块,每个残差块是一个两层的残差卷积结构,分别学习去雾模型中的多个子映射。网络的最后一层将特征图映射到原始图像维度,输出4个波段的去雾结果。
训练样本同样采用雾仿真的方式生成。
①获取清晰的高分一号遥感图像。从中国资源卫星应用中心网站(http://www.cresda.com/CN/)上下载多景遥感图像,保存到本地。对于每景图像,采用ENVI5.0软件将其打开,选取图像中大小为200×200的清晰区域,保存图像的所有波段。通过该步骤操作,共可获得400幅清晰图像,每幅图像具有4个波段,图像大小为200×200。
②合成雾图像。根据雾天成像模型,给定一幅清晰图像,通过调整大气光A和透射图t的值,代入到雾天成像模型中即可得到有雾图像。由于遥感图像各波段的透射图之间具有一定相关性,根据Rayleigh散射模型,可推导得到波段1与其他波段透射图之间满足以下关系:
其中,λ为各个波段的中心波长。对于高分一号卫星采集的多光谱遥感图像,各波段的中心波长分别为:蓝波段0.485μm,绿波段0.555μm,红波段0.660μm,近红外波段0.830μm。可以看出,根据该表达式,只要给定波段1的透射图t1以及γ的值,其他3个波段的透射图即可通过该表达式计算得到。
为了合成不同浓度的雾图像,令γ的值分别取为0.5、0.7和1,t1的值在(0,1]范围内每隔0.1取值,共取值10次。针对每对(γ,t1),按照上式计算其他3个波段的透射图,共可得到3×10=30组透射图模板(每组有4个透射图,对应4个波段)。对于一幅清晰的高分一号图像(真值),设置大气光A的值为常量1,将每组透射图模板按照雾成像模型叠加到清晰图像的各个波段,即可合成带雾的多光谱图像。30组透射图模板共可产生30幅同一场景下不同浓度的带雾多光谱图像。
对于收集的400幅清晰图像,共可以产生400*30=12000个带标签的雾样本。这些样本包含了不同的地物场景,并均衡地涵盖了雾浓度的各种情况,保证了训练集中样本的多样性和均衡性。
采用合成的高分一号遥感图像数据集进行网络训练,得到相应的去雾网络模型。对于一幅有雾的遥感图像,将它输入到网络中,对网络进行前向传播,即可输出去雾后的结果。图4展示了高分一号图像去雾的结果。
Claims (4)
1.一种基于卷积神经网络的多光谱遥感图像去雾方法,其特征在于:该方法包括如下步骤:
步骤1:多光谱图像去雾波段选择
以下针对Landset8OLI采集的多光谱图像进行去雾,Landset8OLI图像有9个波段,其中波段6、7、9三个波段的波长是大于1的,可以穿透水粒子,因此这三个波段不受雾的影响;而剩下的6个波段即波段1至5、以及波段8分别是海岸、可见光、近红外以及全色波段,它们的波长是小于1的,会受到雾的影响,因此针对这6个受雾影响的波段进行去雾;
步骤2:建立去雾模型
雾天成像模型可描述为:
I(x)=J(x)t(x)+A(1-t(x)) (1)
其中,I(x)为有雾图像,J(x)为对应的清晰图像,A是全局大气光,t(x)为透射图,x表示像素;
根据雾天成像模型,去雾图像和原始带雾图像之间为线性关系,令h代表有雾图像,g表示被恢复的清晰图像,函数F代表有雾图像与对应清晰图像之间的映射关系,则去雾问题可以建模为以下形式,即去雾模型:
g=F(h) (2)
根据公式(1),一旦获得映射关系F,则给定一个有雾图像h,通过函数关系映射便可得到清晰图像,从而实现图像去雾;
采用一个残差卷积网络来拟合有雾图像到清晰图像之间的映射关系F(h);具有残差结构的卷积神经网络,其输入不仅传递给卷积层,并且在网络末端与卷积层的输出直接相加,形成最终的网络输出;残差网络中卷积层学习到的模型可描述为:
H(h)=F(h)-h (3)
由于雾的浓度和分布是多样的,使用具有一个残差结构的网络模型进行雾成分的学习是很困难的,因此,我们把去雾模型(2)进一步分解为以下多个子任务,即多步去雾模型:
g0=F0(h),g1=F1(g0),......,g=Fn(gn-1) (4)
其中,每个Fi都是相对于F的弱映射;根据该多步去雾模型,有雾图像h通过一系列的Fi被逐步去雾,最终恢复为清晰图像;相应的,对于每一个子映射Fi,采用具有残差结构的浅层卷积网络来拟合,将这些残差块级联起来组成一个深度卷积网络,实现雾的逐步去除;
步骤3:设计卷积神经网络
根据步骤2中的多步去雾模型(4),我们设计的网络结构为:
Conv1(3×3×16)→
ResBlock1(3×3×16)→…→ResBlockn(3×3×16)
→Convm(3×3×6)
其中,Conv表示卷积层,ResBlock表示残差块;每个残差块为一个两层的残差卷积结构,即ResBlock(3×3×16)=[Conv(3×3×16),Conv(3×3×16)];
步骤4:训练卷积神经网络
以下仿真生成波长相关的雾作为训练样本来对网络进行训练:
1)训练样本生成
根据雾天成像模型(1)可知,给定一幅清晰图像J,通过调整全局大气光A和透射图t的值,代入到雾天成像模型中即可得到一幅有雾图像;由于多光谱图像各波段的透射图之间具有一定的相关性,为清晰的多光谱图像设置透射图时,不同波段的透射图之间需满足相应的关系;因此,先推导不同波段透射图之间的相关性,然后利用这个相关性来生成波长相关的带雾多光谱图像,即仿真得到有雾图像;
2)网络训练
用上述步骤仿真得到的有雾图像样本对网络进行训练,实现有雾图像到清晰图像之间映射关系的学习;
由于卷积神经网络被用来解决回归问题,网络采用欧式距离作为损失函数:
<mrow>
<mi>L</mi>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<mi>N</mi>
</mrow>
</mfrac>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>n</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</msubsup>
<mo>|</mo>
<mo>|</mo>
<msub>
<mover>
<mi>g</mi>
<mo>^</mo>
</mover>
<mi>n</mi>
</msub>
<mo>-</mo>
<msub>
<mi>g</mi>
<mi>n</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,N为图像个数,为网络的实际输出结果,gn为真值图像;选择随机梯度下降法来优化该损失函数(11),用仿真得到的有雾图像对网络进行迭代学习,更新网络参数,当网络的损失值趋于稳定时,即可结束训练,此时保存的网络参数即为训练好的去雾网络模型;
步骤5:多光谱遥感图像去雾
实现一幅多光谱遥感图像去雾,只需将图像输入到步骤4训练好的去雾网络模型中,通过网络的前向传播,即可在网络的输出端得到被恢复的清晰图像。
2.根据权利要求1所述的一种基于卷积神经网络的多光谱遥感图像去雾方法,其特征在于:步骤3中,网络的输入是6个波段的多光谱数据,输出是相应的清晰图像,整个网络是端到端的全卷积结构;根据雾天成像模型,清晰图像和有雾图像之间为线性关系,因此该网络中不包含任何非线性激活单元;考虑到图像每个像素点处的去雾只取决于局部信息,所有的卷积层均采用了3×3小卷积核;网络的第一层卷积核个数为16,实现图像数据的高维映射,使得后续的残差块可以在高维空间学习;网络的最后一层卷积核个数为6,将特征图映射到原始图像维度,实现清晰图像的输出;在第一层和最后一层之间有n个残差块ResBlock,一个残差块对应多步去雾模型(4)中的一个弱映射Fi(x),n个残差块的级联实现雾的逐步去除。
3.根据权利要求1所述的一种基于卷积神经网络的多光谱遥感图像去雾方法,其特征在于:步骤4中,推导不同波段透射图之间的相关性,具体方法如下:
针对Landset8中6个受雾影响的波段去雾,先取波段1为基准波段,来推导其他5个波段与波段1之间的透射图相关性;
根据雾成像的物理模型,透射图t可描述为:
t(x)=e-β(x,λ)d(x) (5)
其中,d(x)表示真实场景中的物体到传感器之间的距离,遥感图像中,d(x)可看作是常量;β(x,λ)为衰减系数,反映了光被大气中的粒子散射的程度,与大气中的粒子和波长λ相关;具体地,根据Rayleigh散射模型,衰减系数β可描述为:
<mrow>
<mi>&beta;</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
<mi>s</mi>
<mi>t</mi>
<mi>a</mi>
<mi>n</mi>
</mrow>
<msup>
<mi>&lambda;</mi>
<mi>&gamma;</mi>
</msup>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,参数γ反映了大气中粒子的大小,在雾天情况下,γ的值在[0.5,1]之间;
为了推导不同波段透射图之间的关系,首先对透射图t的表达式两边取自然对数,可得:
lnt=-dβ (7)
由于d为固定的常量,因此波段1与其他波段之间关于lnt的比率为:
lnt1∶lnti=β1∶βi (8)
其中ti和βi分别是波段i的透射图和衰减系数;进一步变换以上公式可得:
<mrow>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msub>
<mi>&beta;</mi>
<mi>i</mi>
</msub>
<msub>
<mi>&beta;</mi>
<mn>1</mn>
</msub>
</mfrac>
<mo>)</mo>
<msub>
<mi>lnt</mi>
<mn>1</mn>
</msub>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
最后,将Rayleigh散射模型(6)代入公式(9),即可得到波段1与其他波段透射图之间的关系表达式:
<mrow>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<msup>
<mi>e</mi>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mfrac>
<msub>
<mi>&lambda;</mi>
<mn>1</mn>
</msub>
<msub>
<mi>&lambda;</mi>
<mi>i</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mi>&gamma;</mi>
</msup>
<msub>
<mi>lnt</mi>
<mn>1</mn>
</msub>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,λi是第i个波段的波长,一般取波段的中间波长即可;γ为Rayleigh散射模型中的参数,取值范围为[0.5,1],值越大,对应的雾越浓;从(10)可以看出,只要给出基准波段的透射图t1以及γ的值,其他5个波段的透射图即可通过(10)计算得到。
4.根据权利要求1所述的一种基于卷积神经网络的多光谱遥感图像去雾方法,其特征在于:步骤4中,所述的仿真得到有雾图像,具体方法如下:
为了保证训练集样本的多样性,需合成不同浓度的雾图像;
令γ的值分别取为0.5、0.7和1,t1的值在(0,1]范围内每隔0.1取值,共取值10次;针对每对(γ,t1),按照公式(10)计算其他5个波段的透射图,共可得到3×10=30组透射图模板,每组6个透射图;
对于一幅清晰的多光谱图像,设置全局大气光A的值为常量1,将每组透射图模板按照雾天成像模型(1)叠加到清晰图像的各个波段,即可合成带雾的多光谱图像;30组透射图模板共可产生30幅同一场景下不同浓度的带雾多光谱图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710452054.5A CN107256541B (zh) | 2017-06-15 | 2017-06-15 | 一种基于卷积神经网络的多光谱遥感图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710452054.5A CN107256541B (zh) | 2017-06-15 | 2017-06-15 | 一种基于卷积神经网络的多光谱遥感图像去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107256541A true CN107256541A (zh) | 2017-10-17 |
CN107256541B CN107256541B (zh) | 2020-01-24 |
Family
ID=60024149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710452054.5A Active CN107256541B (zh) | 2017-06-15 | 2017-06-15 | 一种基于卷积神经网络的多光谱遥感图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107256541B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107798667A (zh) * | 2017-11-23 | 2018-03-13 | 中电科新型智慧城市研究院有限公司 | 基于残差学习的人脸增强方法 |
CN107993210A (zh) * | 2017-11-30 | 2018-05-04 | 北京小米移动软件有限公司 | 图像修复方法、装置及计算机可读存储介质 |
CN108022222A (zh) * | 2017-12-15 | 2018-05-11 | 西北工业大学 | 一种基于卷积-反卷积网络的遥感图像薄云去除方法 |
CN108230264A (zh) * | 2017-12-11 | 2018-06-29 | 华南农业大学 | 一种基于ResNet神经网络的单幅图像去雾方法 |
CN108537761A (zh) * | 2018-04-18 | 2018-09-14 | 广东工业大学 | 一种图像去雨模型的训练方法、装置及图像去雨方法 |
CN108564535A (zh) * | 2017-12-15 | 2018-09-21 | 四川大学 | 一种基于深度学习的图像去雾方法 |
CN109087270A (zh) * | 2018-09-04 | 2018-12-25 | 中国矿业大学(北京) | 一种基于改进的卷积匹配追踪管道视频图像去雾增强方法 |
CN109102469A (zh) * | 2018-07-04 | 2018-12-28 | 华南理工大学 | 一种基于卷积神经网络的遥感图像全色锐化方法 |
CN109191400A (zh) * | 2018-08-30 | 2019-01-11 | 中国科学院遥感与数字地球研究所 | 一种使用对抗式生成网络去除遥感图像薄云的方法 |
CN109342703A (zh) * | 2018-12-06 | 2019-02-15 | 燕山大学 | 一种水泥熟料游离钙含量测量方法及系统 |
CN109613006A (zh) * | 2018-12-22 | 2019-04-12 | 中原工学院 | 一种基于端到端神经网络的织物疵点检测方法 |
CN109657077A (zh) * | 2018-10-31 | 2019-04-19 | 百度在线网络技术(北京)有限公司 | 模型训练方法、车道线生成方法、设备及存储介质 |
CN109801232A (zh) * | 2018-12-27 | 2019-05-24 | 北京交通大学 | 一种基于深度学习的单幅图像去雾方法 |
CN109859110A (zh) * | 2018-11-19 | 2019-06-07 | 华南理工大学 | 基于光谱维控制卷积神经网络的高光谱图像全色锐化方法 |
CN109949242A (zh) * | 2019-03-19 | 2019-06-28 | 内蒙古工业大学 | 图像去雾模型的生成方法、装置及图像去雾方法、装置 |
CN110706173A (zh) * | 2019-09-27 | 2020-01-17 | 中国计量大学 | 基于卷积神经网络的原子力显微镜图像盲复原方法 |
CN111383192A (zh) * | 2020-02-18 | 2020-07-07 | 清华大学 | 一种融合sar的可见光遥感图像去雾方法 |
CN111489420A (zh) * | 2020-02-25 | 2020-08-04 | 天津大学 | 一种多光谱遥感卫星影像的雾霾分量模拟方法 |
CN111539891A (zh) * | 2020-04-27 | 2020-08-14 | 高小翎 | 单张遥感图像的波段自适应除雾优化处理方法 |
US10762620B2 (en) | 2017-11-27 | 2020-09-01 | Nvidia Corporation | Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene |
CN109410144B (zh) * | 2018-10-31 | 2020-11-27 | 聚时科技(上海)有限公司 | 一种基于深度学习的端到端图像去雾处理方法 |
US11270161B2 (en) | 2017-11-27 | 2022-03-08 | Nvidia Corporation | Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene |
CN115170443A (zh) * | 2022-09-08 | 2022-10-11 | 荣耀终端有限公司 | 一种图像处理方法、拍摄方法及电子设备 |
US20230026811A1 (en) * | 2021-07-15 | 2023-01-26 | Ping An Technology (Shenzhen) Co., Ltd. | System and method for removing haze from remote sensing images |
CN118071877A (zh) * | 2024-04-19 | 2024-05-24 | 武汉追月信息技术有限公司 | 一种基于遥感图像的城市测绘服务方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217404A (zh) * | 2014-08-27 | 2014-12-17 | 华南农业大学 | 雾霾天视频图像清晰化处理方法及其装置 |
CN105405112A (zh) * | 2015-12-29 | 2016-03-16 | 中国人民解放军信息工程大学 | 多光谱卫星影像距离偏差指数去雾方法 |
CN105574827A (zh) * | 2015-12-17 | 2016-05-11 | 中国科学院深圳先进技术研究院 | 一种图像去雾的方法、装置 |
US20160155218A1 (en) * | 2014-11-28 | 2016-06-02 | Axis Ab | Defogging images and video |
CN106780356A (zh) * | 2016-11-15 | 2017-05-31 | 天津大学 | 基于卷积神经网络和先验信息的图像去雾方法 |
-
2017
- 2017-06-15 CN CN201710452054.5A patent/CN107256541B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217404A (zh) * | 2014-08-27 | 2014-12-17 | 华南农业大学 | 雾霾天视频图像清晰化处理方法及其装置 |
US20160155218A1 (en) * | 2014-11-28 | 2016-06-02 | Axis Ab | Defogging images and video |
CN105574827A (zh) * | 2015-12-17 | 2016-05-11 | 中国科学院深圳先进技术研究院 | 一种图像去雾的方法、装置 |
CN105405112A (zh) * | 2015-12-29 | 2016-03-16 | 中国人民解放军信息工程大学 | 多光谱卫星影像距离偏差指数去雾方法 |
CN106780356A (zh) * | 2016-11-15 | 2017-05-31 | 天津大学 | 基于卷积神经网络和先验信息的图像去雾方法 |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107798667A (zh) * | 2017-11-23 | 2018-03-13 | 中电科新型智慧城市研究院有限公司 | 基于残差学习的人脸增强方法 |
US11270161B2 (en) | 2017-11-27 | 2022-03-08 | Nvidia Corporation | Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene |
US10762620B2 (en) | 2017-11-27 | 2020-09-01 | Nvidia Corporation | Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene |
CN107993210A (zh) * | 2017-11-30 | 2018-05-04 | 北京小米移动软件有限公司 | 图像修复方法、装置及计算机可读存储介质 |
CN108230264B (zh) * | 2017-12-11 | 2020-05-15 | 华南农业大学 | 一种基于ResNet神经网络的单幅图像去雾方法 |
CN108230264A (zh) * | 2017-12-11 | 2018-06-29 | 华南农业大学 | 一种基于ResNet神经网络的单幅图像去雾方法 |
CN108022222A (zh) * | 2017-12-15 | 2018-05-11 | 西北工业大学 | 一种基于卷积-反卷积网络的遥感图像薄云去除方法 |
CN108564535A (zh) * | 2017-12-15 | 2018-09-21 | 四川大学 | 一种基于深度学习的图像去雾方法 |
CN108537761A (zh) * | 2018-04-18 | 2018-09-14 | 广东工业大学 | 一种图像去雨模型的训练方法、装置及图像去雨方法 |
CN109102469A (zh) * | 2018-07-04 | 2018-12-28 | 华南理工大学 | 一种基于卷积神经网络的遥感图像全色锐化方法 |
CN109102469B (zh) * | 2018-07-04 | 2021-12-21 | 华南理工大学 | 一种基于卷积神经网络的遥感图像全色锐化方法 |
CN109191400A (zh) * | 2018-08-30 | 2019-01-11 | 中国科学院遥感与数字地球研究所 | 一种使用对抗式生成网络去除遥感图像薄云的方法 |
CN109087270B (zh) * | 2018-09-04 | 2019-05-14 | 中国矿业大学(北京) | 一种基于改进的卷积匹配追踪管道视频图像去雾增强方法 |
CN109087270A (zh) * | 2018-09-04 | 2018-12-25 | 中国矿业大学(北京) | 一种基于改进的卷积匹配追踪管道视频图像去雾增强方法 |
CN109410144B (zh) * | 2018-10-31 | 2020-11-27 | 聚时科技(上海)有限公司 | 一种基于深度学习的端到端图像去雾处理方法 |
CN109657077A (zh) * | 2018-10-31 | 2019-04-19 | 百度在线网络技术(北京)有限公司 | 模型训练方法、车道线生成方法、设备及存储介质 |
CN109859110A (zh) * | 2018-11-19 | 2019-06-07 | 华南理工大学 | 基于光谱维控制卷积神经网络的高光谱图像全色锐化方法 |
CN109859110B (zh) * | 2018-11-19 | 2023-01-06 | 华南理工大学 | 基于光谱维控制卷积神经网络的高光谱图像全色锐化方法 |
CN109342703A (zh) * | 2018-12-06 | 2019-02-15 | 燕山大学 | 一种水泥熟料游离钙含量测量方法及系统 |
CN109613006A (zh) * | 2018-12-22 | 2019-04-12 | 中原工学院 | 一种基于端到端神经网络的织物疵点检测方法 |
CN109801232A (zh) * | 2018-12-27 | 2019-05-24 | 北京交通大学 | 一种基于深度学习的单幅图像去雾方法 |
CN109949242A (zh) * | 2019-03-19 | 2019-06-28 | 内蒙古工业大学 | 图像去雾模型的生成方法、装置及图像去雾方法、装置 |
CN110706173A (zh) * | 2019-09-27 | 2020-01-17 | 中国计量大学 | 基于卷积神经网络的原子力显微镜图像盲复原方法 |
CN111383192A (zh) * | 2020-02-18 | 2020-07-07 | 清华大学 | 一种融合sar的可见光遥感图像去雾方法 |
CN111383192B (zh) * | 2020-02-18 | 2022-10-18 | 清华大学 | 一种融合sar的可见光遥感图像去雾方法 |
CN111489420A (zh) * | 2020-02-25 | 2020-08-04 | 天津大学 | 一种多光谱遥感卫星影像的雾霾分量模拟方法 |
CN111489420B (zh) * | 2020-02-25 | 2023-05-12 | 天津大学 | 一种多光谱遥感卫星影像的雾霾分量模拟方法 |
CN111539891A (zh) * | 2020-04-27 | 2020-08-14 | 高小翎 | 单张遥感图像的波段自适应除雾优化处理方法 |
US20230026811A1 (en) * | 2021-07-15 | 2023-01-26 | Ping An Technology (Shenzhen) Co., Ltd. | System and method for removing haze from remote sensing images |
CN115170443A (zh) * | 2022-09-08 | 2022-10-11 | 荣耀终端有限公司 | 一种图像处理方法、拍摄方法及电子设备 |
CN115170443B (zh) * | 2022-09-08 | 2023-01-13 | 荣耀终端有限公司 | 一种图像处理方法、拍摄方法及电子设备 |
CN118071877A (zh) * | 2024-04-19 | 2024-05-24 | 武汉追月信息技术有限公司 | 一种基于遥感图像的城市测绘服务方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107256541B (zh) | 2020-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107256541A (zh) | 一种基于卷积神经网络的多光谱遥感图像去雾方法 | |
CN111709902B (zh) | 基于自注意力机制的红外和可见光图像融合方法 | |
Han et al. | Underwater image processing and object detection based on deep CNN method | |
CN108596248B (zh) | 一种基于改进深度卷积神经网络的遥感影像分类方法 | |
CN108537742A (zh) | 一种基于生成对抗网络的遥感图像全色锐化方法 | |
CN103208001B (zh) | 结合形状自适应邻域和纹理特征提取的遥感图像处理方法 | |
CN105975912B (zh) | 基于神经网络的高光谱图像非线性解混方法 | |
CN112529788B (zh) | 一种基于薄云厚度图估计的多光谱遥感图像薄云去除方法 | |
CN106408530A (zh) | 基于稀疏与低秩矩阵逼近的高光谱图像恢复方法 | |
CN108460391A (zh) | 基于生成对抗网络的高光谱图像无监督特征提取方法 | |
CN108921092A (zh) | 一种基于卷积神经网络模型二次集成的黑色素瘤分类方法 | |
CN106023133A (zh) | 一种基于多特征联合处理的高分辨率遥感影像水体提取方法 | |
CN107798661A (zh) | 一种自适应的图像增强方法 | |
CN104346790B (zh) | 一种hcs结合小波变换的遥感图像融合方法 | |
CN107657285A (zh) | 基于三维卷积神经网络的高光谱图像分类方法 | |
CN108932742A (zh) | 一种基于遥感图像分类的大规模红外地形场景实时渲染方法 | |
CN106683102A (zh) | 基于脊波滤波器和卷积结构模型的sar图像分割方法 | |
CN102982517A (zh) | 基于光谱与空间局部相关的遥感影像融合方法 | |
CN103295241A (zh) | 一种基于Gabor小波的频域显著性目标检测方法 | |
CN107341837A (zh) | 基于影像金字塔的栅格‑矢量数据转换及连续尺度表达方法 | |
Xu et al. | Infrared and visible image fusion using a deep unsupervised framework with perceptual loss | |
CN101533475A (zh) | 一种基于形状自适应邻域的遥感图像特征提取方法 | |
CN112464891A (zh) | 一种高光谱图像分类方法 | |
Zhang et al. | Two-step ResUp&Down generative adversarial network to reconstruct multispectral image from aerial RGB image | |
CN117437538A (zh) | 一种热带雨林生态系统时空格局特征提取及预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |