CN113902646A - 基于深浅层特征加权融合网络的遥感影像泛锐化方法 - Google Patents
基于深浅层特征加权融合网络的遥感影像泛锐化方法 Download PDFInfo
- Publication number
- CN113902646A CN113902646A CN202111375371.4A CN202111375371A CN113902646A CN 113902646 A CN113902646 A CN 113902646A CN 202111375371 A CN202111375371 A CN 202111375371A CN 113902646 A CN113902646 A CN 113902646A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- sensing image
- resolution
- index
- fusion network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012360 testing method Methods 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000011156 evaluation Methods 0.000 claims abstract description 9
- 238000012795 verification Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 6
- 230000003595 spectral effect Effects 0.000 claims description 22
- 230000004913 activation Effects 0.000 claims description 15
- 230000003044 adaptive effect Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 9
- 238000001228 spectrum Methods 0.000 claims description 6
- 238000002474 experimental method Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000004088 simulation Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000013441 quality evaluation Methods 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 230000004083 survival effect Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 239000008186 active pharmaceutical agent Substances 0.000 claims 4
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 18
- 238000013461 design Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000003707 image sharpening Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10041—Panchromatic image
Abstract
本发明涉及一种基于深浅层特征加权融合网络的遥感影像泛锐化方法,属于遥感影像处理领域。具体包括如下步骤:步骤1:对原始遥感影像数据进行数据预处理,构造训练集、验证集和测试集;步骤2:构建深浅层特征加权融合网络模型;步骤3:利用上述步骤1中所构造的训练集和验证集训练上述步骤2中所构建的深浅层特征加权融合网络模型;步骤4:利用上述步骤1中所构造的测试集测试上述步骤3中训练好的深浅层特征加权融合网络模型;步骤5:利用不同评价指标评估上述步骤4中深浅层特征加权融合网络模型的测试结果。实验结果表明,本发明所提供的方法不仅具有优异的数值指标表现结果,而且视觉效果也更加突出。
Description
技术领域
本发明属于遥感影像处理技术领域,具体地涉及一种基于深浅层特征加权融合网络的遥感影像全色锐化方法。
背景技术
遥感影像锐化技术是当前遥感影像处理领域的研究热点,受到了国内外学者们的广泛关注。遥感影响锐化是指将高分辨率全色遥感影像和低分辨率多光谱遥感影像进行融合,从而得到高分辨率多光谱遥感影像。而高分辨率全色遥感影像和低分辨率多光谱遥感影像通常都是从遥感卫星拍摄的地面场景中获取。目前关于遥感影像锐化技术的研究可大致分为四类,分别为基于成分替换的方法、基于多分辨率分析的方法、基于变分优化的方法以及深度学习的方法。其中前两种方法通常会引起空间和光谱畸变,从而产生严重的遥感影像失真。基于变分优化的方法利用一些先验知识或遥感影像退化假设,通常可以获得较好的性能。然而,如何提出合理的假设以及确定适当的先验知识是一项艰难的挑战。
近年来,随着深度学习的迅速发展,基于卷积神经网络的遥感影像锐化技术逐渐被提出。这主要是由于神经网络强大的非线性拟合能力,使得基于深度学习方法得到的结果无论是在评价指标还是视觉感知方面都明显优于传统方法。然而,目前大多数网络都是基于常规恒等跳跃连接层的残差块而设计,这使得网络融合浅层特征和深层特征的能力受到限制。
基于以上背景,为了克服现有深度学习模型融合浅层特征和深层特征能力受限的缺陷。本发明通过引入自适应跳跃权重器,设计了一种基于深浅层特征加权融合网络的遥感影像泛锐化方法。
发明内容
本发明针对技术背景中现有深度学习模型融合浅层特征和深层特征能力受限的缺陷,设计了一种基于深浅层特征加权融合网络的遥感影像泛锐化方法。该方法通过引入自适应跳跃权重器来缩放每个残差块的浅层特征,从而与网络中不同深度的特征进行融合。本发明不仅在多光谱遥感影像锐化任务上取得了优异的性能,且相较其他深度学习模型,大大减小了模型参数量,从而为轻量级网络的设计提供了思路。
本发明的技术方案如下:
一种基于深浅层特征加权融合网络的遥感影像泛锐化方法,包括以下步骤:
步骤1:构造数据集:首先对原始遥感影像数据进行裁剪,并根据瓦尔德协议构造包含低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1的实验数据,然后将实验数据划分为训练集、验证集和测试集,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
步骤2:构建深浅层特征加权融合网络模型:网络主干由卷积层和权重跳跃模块交替串联组成。模型输入为低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1,模型的最终输出结果为高分辨率多光谱遥感影像X∈RH×W×B,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
步骤3:训练深浅层特征加权融合网络模型:利用上述步骤1中的训练集和验证集训练所述深浅层特征加权融合网络模型,得到损失函数值最小的网络模型,此时网络参数为全局最优;
步骤4:测试深浅层特征加权融合网络模型:利用上述步骤1中的测试集测试训练好的深浅层特征加权融合网络模型,得到高分辨率多光谱遥感影像X∈RH×W×B;
步骤5:利用不同评价指标评估上述步骤4中模型测试得到的高分辨率多光谱遥感影像X∈RH×W×B的质量。
优选的,所述步骤1包括:
1-1:对一组真实的高分辨多光谱遥感影像GT∈RH×W×B,首先通过卫星相应的调制传递函数进行模糊处理,然后采用最邻近插值获取低分辨多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像P∈RH×W×1,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
1-2:将低分辨率多光谱遥感影像MS∈RH/r×W/r×B、高分辨率全色遥感影像PAN∈RH ×W×1和真实的高分辨率多光谱遥感影像GT∈RH×W×B的尺寸分别裁剪为64×64、16×16×8、64×64×8像素;
1-3:将整个数据集按照7:2:1划分为训练集、验证集和测试集。
优选的,所述步骤2包括:
2-1:所构建的深浅层特征加权融合网络模型包括:卷积层、权重跳跃模块、自适应权重器、激活函数、池化层、全连接层;
2-2:设置网络主干所有卷积层的卷积核大小为3×3,通道数为32;
2-3:构建权重跳跃模块,包括2个自适应权重器和3个卷积块。
优选的,所述步骤2-3包括:
2-3-1:构建自适应权重器,对深层特征进行加权融合:自适应权重器包括1个最大池化层、2个全连接层、1个ReLU激活函数、1个Softmax层;
2-3-2:构造卷积块:卷积块包括1个ReLU激活函数和1个卷积层。
优选的,所述步骤2-3-1包括:
2-3-1-1:设置池化层参数;
2-3-1-2:设置全连接层参数;
2-3-1-3:设置激活函数参数;
2-3-1-4:设置Softmax层参数。
优选的,所述步骤2-3-2包括:
2-3-2-1:设置激活函数参数;
2-3-2-2:设置所有卷积层的卷积核大小为3×3,通道数为32。
优选的,所述步骤3包括:
3-1:将尺寸为16×16×8像素的低分辨率多光谱遥感影像MS∈RH/r×W/r×B通过inter23tap插值得到尺寸为64×64×8的上采样低分辨率多光谱遥感影像LRMS∈RH×W×B,然后再将其与尺寸为64×64×1像素的高分辨率全色遥感影像PAN∈RH×W×1在通道维度进行拼接,最后再将拼接后的遥感影像输入到所构建的深浅层特征加权融合网络,其中r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
3-2:利用网络主干的第一个卷积层提取输入的第一个浅层特征;
3-3:将抽取到的第一个浅层特征经过一个权重跳跃模块实现特征加权融合;
3-4:重复步骤3-2和3-3,实现对网络不同深度特征的加权融合;
3-5:将经过特征加权融合网络得到的遥感影像信息与上采样后尺寸为64×64×8像素的低分辨率多光谱遥感影像进行对应元素相加,从而得到最终尺寸为64×64×8像素的高分辨率多光谱遥感影像;
3-6:利用均方误差损失函数计算网络模型测试输出的高分辨率多光谱遥感影像X∈RH×W×B与参考遥感影像GT∈RH×W×B之间的差异。
优选的,所述步骤3-6包括:
均方误差损失函数的表达式为:
其中,MS∈RH/r×W/r×B为低分辨率多光谱遥感影像,PAN∈RH×W×1为高分辨率全色遥感影像,GT∈RH×W×B为参考遥感影像,Θ为网络模型的参数集,F(·)表示输入为低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1,参数集为Θ的深浅层特征加权融合网络,N表示训练样本数量,||·||F为Frobenius范数,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数。
优选的,所述步骤5包括:
5-1:在仿真实验中,使用光谱角匹配SAM、相对全局误差ERGAS、空间相关系数SCC及Q指标来评估模型测试的输出结果X∈RH×W×B,各指标的具体计算方法如下:
1)光谱角匹配SAM定义如下:
计算通过锐化得到的高分辨率多光谱遥感影像X∈RH×W×B和参考遥感影像GT∈RH ×W×B对应像素之间的角度,该空间将每个光谱通道视为坐标轴以计算相角;设X{i}=[X{i},1,...,X{i},B]为具有B个光谱通道的高分辨率多光谱遥感影像X∈RH×W×B的某个像素向量,类似地定义GT{i}为参考遥感影像GT∈RH×W×B的某个像素向量,其中B为高分辨率多光谱遥感影像X∈RH×W×B的波段数,则X{i}和GT{i}之间的SAM指标定义如下:
其中<·,·>表示内积,||·||表示l2范数,通过对所有像素向量的测量结果求平均值,得到整幅遥感影像的全局SAM值,SAM指标的最优值为0;
2)相对全局误差ERGAS定义如下:
均方根误差RMSE是一种常见的评价两幅图之间误差的指标,当且仅当两图完全相等时,达到最优值0。其中,GT为参考遥感影像,X为通过锐化得到的遥感影像。
其中,GTb为参考遥感影像,Xb为通过锐化得到的遥感影像,Mean(·)表示内积,r表示全色遥感影像PAN与多光谱遥感影像MS空间分辨率的比值,ERGAS综合考虑了所有通道的相对误差,是一种多模态指标,其最优值为0;
3)空间相关系数SCC用来描述几何变形的程度,其表达式如下:
这里,CCS为单张遥感影像间的交叉相关,其计算表达式如下:
其中X为锐化得到的遥感影像,Y为参考遥感影像,Mean(·)表示内积,Q2n是通用遥感影像质量指数(UIQI)的多波段扩展,Q4指标将每个像素X{i}建模为四元数,表示如下:
X{i}=X{i},1+k1X{i},2+k2X{i},3+k3X{i},4
其中k1,k2和k3表示对应通道的线性组合系数,Q4指标计算方法如下:
5-2:在真实数据实验上使用无参考质量评价指标QNR、光谱畸变指标Dλ和空间畸变指标Ds,其具体计算方法如下:
QNR=(1-Dλ)α(1-Ds)β
QNR由两个指标Dλ和Ds的乘积与系数α和β加权组成,这两个指标分别量化光谱和空间失真,QNR指标越高,融合质量越好;当Dλ和Ds均等于0时,该指标达到最大理论值1;其中光谱失真指标Dλ定义为如下形式:
其中di,j(MS,X)=Q(MSi,MS)-Q(Xi,Xj)用于度量网络测试输出结果X与原始多光谱遥感影像MS光谱特征的相似度,B为多光谱遥感影像的波段数;因此,在测试过程中保持MS遥感影像各通道之间的关系;Q指标的计算如上文中所示,用于计算两个通道之间的差异,参数p设置为1;
此外,空间失真指标Ds定义为如下形式:
其中,PLP为全色图PAN的低通部分,B为多光谱遥感影像的波段数量,并且q设置为1。
相对于现有技术,本发明的优点有:
1、本发明设计出了一种基于深浅层特征加权融合网络的遥感影像泛锐化方法,通过引入自适应跳跃权重器来缩放每个残差块的浅层特征,实现与网络中不同深度的特征进行融合,从而克服了现有深度学习模型融合浅层特征和深层特征能力差的缺陷。
2、本发明所设计的深浅层特征加权融合网络大大减小了模型参数量,从而为轻量级卷积神经网络模型的设计提供了思路。
3、本发明在多光谱遥感影像全色锐化任务上取得了优良的性能,具体表现在其优异的评价指标结果和良好的视觉效果。
附图说明
图1为本发明整体实验流程图;
图2为权重跳跃模块WSB以及自适应权重器AW的结构图;
图3为深浅层特征加权融合网络的总体结构图;
图4为本发明在8波段WorldView-3卫星仿真数据集上的全色锐化结果;
图5为本发明在8波段WorldView-3卫星真实数据集上的全色锐化结果。
具体实施方式
针对技术背景中现有深度学习模型融合浅层特征和深层特征能力受限的缺陷,本发明设计了一种基于深浅层特征加权融合网络的遥感影像泛锐化方法。基于深度学习中的残差机制,该方法通过引入自适应跳跃权重器来缩放每个残差块的浅层特征,从而与网络中不同深度的特征进行融合。并最终应用于多光谱遥感影像融合任务,得到评估指标和视觉感知均优于现有深度学习模型的结果。
为使本发明的目的、技术方案和优点更加清楚,以下结合具体实施例和参照附图,对本发明做进一步的详细说明。
一种基于深浅层特征加权融合网络的遥感影像泛锐化方法,其具体实现步骤如下:
(1)步骤1:
构造数据集:首先对原始遥感影像数据进行裁剪,并根据瓦尔德协议构造包含低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1的实验数据,然后将实验数据划分为训练集、验证集和测试集,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;所述步骤1包括:
1-1:对一组真实的高分辨多光谱遥感影像GT∈RH×W×B,首先通过卫星相应的调制传递函数进行模糊处理,然后采用最邻近插值获取低分辨多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像P∈RH×W×1,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
1-2:将低分辨率多光谱遥感影像MS∈RH/r×W/r×B、高分辨率全色遥感影像PAN∈RH ×W×1和真实的高分辨率多光谱遥感影像GT∈RH×W×B的尺寸分别裁剪为64×64、16×16×8、64×64×8像素;
1-3:将整个数据集按照7:2:1划分为训练集、验证集和测试集。
(2)步骤2:
构建深浅层特征加权融合网络模型:网络主干由卷积层和权重跳跃模块交替串联组成。模型输入为低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH ×W×1,模型的最终输出结果为高分辨率多光谱遥感影像X∈RH×W×B,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH /r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;所述步骤2包括:
2-1:所构建的深浅层特征加权融合网络模型包括:卷积层、权重跳跃模块、自适应权重器、激活函数、池化层、全连接层;
2-2:设置网络主干所有卷积层的卷积核大小为3×3,通道数为32;
2-3:构建权重跳跃模块,包括2个自适应权重器和3个卷积块。所述步骤2-3包括:
2-3-1:构建自适应权重器,对深层特征进行加权融合:自适应权重器包括1个最大池化层、2个全连接层、1个ReLU激活函数、1个Softmax层;所述步骤2-3-1包括:
2-3-1-1:设置池化层参数;
2-3-1-2:设置全连接层参数;
2-3-1-3:设置激活函数参数;
2-3-1-4:设置Softmax层参数。
2-3-2:构造卷积块:卷积块包括1个ReLU激活函数和1个卷积层;所述步骤2-3-2包括:
2-3-2-1:设置激活函数参数;
2-3-2-2:设置所有卷积层的卷积核大小为3×3,通道数为32;
(3)步骤3:
训练深浅层特征加权融合网络模型:利用上述步骤1中的训练集和验证集训练所述深浅层特征加权融合网络模型,得到性能最佳的网络模型,此时网络参数为全局最优;所述步骤3包括:
3-1:将尺寸为16×16×8像素的低分辨率多光谱遥感影像MS∈RH/r×W/r×B通过inter23tap插值得到尺寸为64×64×8的上采样低分辨率多光谱遥感影像LRMS∈RH×W×B,然后再将其与尺寸为64×64×1像素的高分辨率全色遥感影像PAN∈RH×W×1在通道维度进行拼接,最后再将拼接后的遥感影像输入到所构建的深浅层特征加权融合网络,其中r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
3-2:利用网络主干的第一个卷积层提取输入的第一个浅层特征;
3-3:将抽取到的第一个浅层特征经过一个权重跳跃模块实现特征加权融合;
3-4:重复步骤3-2和3-3,实现对网络不同深度特征的加权融合;
3-5:将经过特征加权融合网络得到的遥感影像信息与上采样后尺寸为64×64×8像素的低分辨率多光谱遥感影像进行对应元素相加,从而得到最终尺寸为64×64×8像素的高分辨率多光谱遥感影像;
3-6:利用均方误差损失函数计算网络模型测试输出的高分辨率多光谱遥感影像X∈RH×W×B与参考遥感影像GT∈RH×W×B之间的差异。所述步骤3-6包括:
均方误差损失函数的表达式为:
其中,MS∈RH/r×W/r×B为低分辨率多光谱遥感影像,PAN∈RH×W×1为高分辨率全色遥感影像,GT∈RH×W×B为参考遥感影像,Θ为网络模型的参数集,F(·)表示输入为低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1,参数集为Θ的深浅层特征加权融合网络,N表示训练样本数量,||·||F为Frobenius范数,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数。
(4)步骤4:
测试深浅层特征加权融合网络模型:利用上述步骤1中的测试集测试训练好的深浅层特征加权融合网络模型,得到高分辨率多光谱遥感影像X∈RH×W×B;
(5)步骤5:
利用不同评价指标评估上述步骤4中模型测试得到的高分辨率多光谱遥感影像X∈RH×W×B的质量。所述步骤5包括:
5-1:在仿真实验中,使用光谱角匹配SAM、相对全局误差ERGAS、空间相关系数SCC及Q指标来评估模型测试的输出结果X∈RH×W×B,各指标的具体计算方法如下:
1)光谱角匹配SAM定义如下:
计算通过锐化得到的高分辨率多光谱遥感影像X∈RH×W×B和参考遥感影像GT∈RH ×W×B对应像素之间的角度,该空间将每个光谱通道视为坐标轴以计算相角;设X{i}=[X{i},1,...,X{i},B]为具有B个光谱通道的高分辨率多光谱遥感影像X∈RH×W×B的某个像素向量,类似地定义GT{i}为参考遥感影像GT∈RH×W×B的某个像素向量,其中B为高分辨率多光谱遥感影像X∈RH×W×B的波段数,则X{i}和GT{i}之间的SAM指标定义如下:
其中<·,·>表示内积,||·||表示l2范数,通过对所有像素向量的测量结果求平均值,得到整幅遥感影像的全局SAM值,SAM指标的最优值为0;
2)相对全局误差ERGAS定义如下:
均方根误差RMSE是一种常见的评价两幅图之间误差的指标,当且仅当两图完全相等时,达到最优值0。其中,GT为参考遥感影像,X为通过锐化得到的遥感影像。
其中,GTb为参考遥感影像,Xb为通过锐化得到的遥感影像,Mean(·)表示内积,r表示全色遥感影像PAN与多光谱遥感影像MS空间分辨率的比值,ERGAS综合考虑了所有通道的相对误差,是一种多模态指标,其最优值为0;
3)空间相关系数SCC用来描述几何变形的程度,其表达式如下:
这里,CCS为单张遥感影像间的交叉相关,其计算表达式如下:
其中X为锐化得到的遥感影像,Y为参考遥感影像,Mean(·)表示内积,Q2n是通用遥感影像质量指数(UIQI)的多波段扩展,Q4指标将每个像素X{i}建模为四元数,表示如下:
X{i}=X{i},1+k1X{i},2+k2X{i},3+k3X{i},4
其中k1,k2和k3表示对应通道的线性组合系数,Q4指标计算方法如下:
5-2:在真实数据实验上使用无参考质量评价指标QNR、光谱畸变指标Dλ和空间畸变指标Ds,其具体计算方法如下:
QNR=(1-Dλ)α(1-Ds)β
QNR由两个指标Dλ和Ds的乘积与系数α和β加权组成,这两个指标分别量化光谱和空间失真,QNR指标越高,融合质量越好;当Dλ和Ds均等于0时,该指标达到最大理论值1;其中光谱失真指标Dλ定义为如下形式:
其中di,j(MS,X)=Q(MSi,MS)-Q(Xi,Xj)用于度量网络测试输出结果X与原始多光谱遥感影像MS光谱特征的相似度,B为多光谱遥感影像的波段数;因此,在测试过程中保持MS遥感影像各通道之间的关系;Q指标的计算如上文中所示,用于计算两个通道之间的差异,参数p设置为1;
此外,空间失真指标Ds定义为如下形式:
其中,PLP为全色图PAN的低通部分,B为多光谱遥感影像的波段数量,并且q设置为1。
图3为本发明深浅层特征加权融合网络的总体结构图,其由卷积层和权重跳跃模块交替串联组成,损失函数为经典的均方差损失。
图4:为本发明在8波段WorldView-3卫星仿真数据集上的全色锐化结果。第一行从左到右:MS∈RH/4×W/4×B为低分辨率多光谱遥感影像;LRMS∈RH×W×B为inter23tap上采样低分辨率多光谱遥感影像;PAN∈RH×W×1为高分辨率全色遥感影像。第二行从左到右:IHS∈RH×W×B为基于强度-色调-饱和度变换得到的高分辨率多光谱遥感影像;PNN∈RH×W×B为基于普通卷积神经网络得到的高分辨率多光谱遥感影像。第三行从左到右:X∈RH×W×B为本发明得到的高分辨率多光谱遥感影像,其对应各评价指标的平均值为:SAM/ERGAS/SCC/Q8=3.695/2.544/0.958/0.915;GT∈RH×W×B为真实的高分辨率多光谱遥感影像。从图中可以看出,由本发明所设计的深浅层特征加权融合网络得到的高分辨率多光谱遥感影像X∈RH×W×B能较好地保留光谱和空间信息,更接近于真实的高分辨率多光谱遥感影像GT∈RH×W×B。此外,由本发明得到的高分辨率多光谱遥感影像X∈RH×W×B也获得了优异的数值结果。
图5为本发明在在8波段WorldView-3真实数据集上的全色锐化实验结果。其中,第一行从左到右:MS∈RH/4×W/4×B为低分辨率多光谱遥感影像;LRMS∈RH×W×B为inter23tap上采样获得的低分辨率多光谱遥感影像;PAN∈RH×W×1图为高分辨率全色遥感影像。第二行从左到右:IHS∈RH×W×B为基于强度-色调-饱和度变换得到的高分辨率多光谱遥感影像;PNN∈RH ×W×B为基于普通卷积神经网络得到的高分辨率多光谱遥感影像;X∈RH×W×B为本发明所得到的高分辨率多光谱遥感影像,其对应各评价指标的平均值为:QNR/Dλ/Ds=0.964/0.016/0.020。注:由于是真实数据实验,因此无GT图。从图中可以看出,由本发明所设计的深浅层特征加权融合网络在真实数据集上同样表现出了显著的视觉效果。此外,优异的数值结果也进一步表明了本发明所得到的高分辨率多光谱遥感影像X∈RH×W×B与原始低分辨率多光谱遥感影像MS∈RH/4×W/4×B的光谱信息非常接近。
Claims (9)
1.一种基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于:包括以下步骤:
步骤1:构造数据集:首先对原始遥感影像数据进行裁剪,并根据瓦尔德协议构造包含低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1的实验数据,然后将实验数据划分为训练集、验证集和测试集,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
步骤2:构建深浅层特征加权融合网络模型:网络主干由卷积层和权重跳跃模块交替串联组成;模型输入为低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1,模型的最终输出结果为高分辨率多光谱遥感影像X∈RH×W×B,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
步骤3:训练深浅层特征加权融合网络模型:利用上述步骤1中的训练集和验证集训练所述深浅层特征加权融合网络模型,得到损失函数值最小的网络模型,此时网络参数为全局最优;
步骤4:测试深浅层特征加权融合网络模型:利用上述步骤1中的测试集测试训练好的深浅层特征加权融合网络模型,得到高分辨率多光谱遥感影像X∈RH×W×B;
步骤5:利用不同评价指标评估上述步骤4中模型测试得到的高分辨率多光谱遥感影像X∈RH×W×B的质量。
2.如权利要求1所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤1包括:
1-1:对一组真实的高分辨多光谱遥感影像GT∈RH×W×B,首先通过卫星相应的调制传递函数进行模糊处理,然后采用最邻近插值获取低分辨多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像P∈RH×W×1,其中H和W分别表示遥感影像的高和宽,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
1-2:将低分辨率多光谱遥感影像MS∈RH/r×W/r×B、高分辨率全色遥感影像PAN∈RH×W×1和真实的高分辨率多光谱遥感影像GT∈RH×W×B的尺寸分别裁剪为64×64、16×16×8、64×64×8像素;
1-3:将整个数据集按照7:2:1划分为训练集、验证集和测试集。
3.如权利要求1所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤2包括:
2-1:所构建的深浅层特征加权融合网络模型包括:卷积层、权重跳跃模块、自适应权重器、激活函数、池化层、全连接层;
2-2:设置网络主干所有卷积层的卷积核大小为3×3,通道数为32;
2-3:构建权重跳跃模块,包括2个自适应权重器和3个卷积块。
4.如权利要求3所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤2-3包括:
2-3-1:构建自适应权重器,对深层特征进行加权融合:自适应权重器包括1个最大池化层、2个全连接层、1个ReLU激活函数、1个Softmax层;
2-3-2:构造卷积块:卷积块包括1个ReLU激活函数和1个卷积层。
5.如权利要求4所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤2-3-1包括:
2-3-1-1:设置池化层参数;
2-3-1-2:设置全连接层参数;
2-3-1-3:设置激活函数参数;
2-3-1-4:设置Softmax层参数。
6.如权利要求4所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤2-3-2包括:
2-3-2-1:设置激活函数参数;
2-3-2-2:设置所有卷积层的卷积核大小为3×3,通道数为32。
7.如权利要求1所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤3包括:
3-1:将尺寸为16×16×8像素的低分辨率多光谱遥感影像MS∈RH/r×W/r×B通过inter23tap插值得到尺寸为64×64×8的上采样低分辨率多光谱遥感影像LRMS∈RH×W×B,然后再将其与尺寸为64×64×1像素的高分辨率全色遥感影像PAN∈RH×W×1在通道维度进行拼接,最后再将拼接后的遥感影像输入到所构建的深浅层特征加权融合网络,其中r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数;
3-2:利用网络主干的第一个卷积层提取输入的第一个浅层特征;
3-3:将抽取到的第一个浅层特征经过一个权重跳跃模块实现特征加权融合;
3-4:重复步骤3-2和3-3,实现对网络不同深度特征的加权融合;
3-5:将经过特征加权融合网络得到的遥感影像信息与上采样后尺寸为64×64×8像素的低分辨率多光谱遥感影像进行对应元素相加,从而得到最终尺寸为64×64×8像素的高分辨率多光谱遥感影像;
3-6:利用均方误差损失函数计算网络模型测试输出的高分辨率多光谱遥感影像X∈RH ×W×B与参考遥感影像GT∈RH×W×B之间的差异。
8.如权利要求7所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤3-6包括:
均方误差损失函数的表达式为:
其中,MS∈RH/r×W/r×B为低分辨率多光谱遥感影像,PAN∈RH×W×1为高分辨率全色遥感影像,GT∈RH×W×B为参考遥感影像,Θ为网络模型的参数集,F(·)表示输入为低分辨率多光谱遥感影像MS∈RH/r×W/r×B和高分辨率全色遥感影像PAN∈RH×W×1,参数集为Θ的深浅层特征加权融合网络,N表示训练样本数量,||·||F为Frobenius范数,r表示高分辨率全色遥感影像PAN∈RH×W×1与低分辨率多光谱遥感影像MS∈RH/r×W/r×B空间分辨率的比值,B为多光谱遥感影像的波段数。
9.如权利要求1所述的基于深浅层特征加权融合网络的遥感影像泛锐化方法,其特征在于,所述步骤5包括:
5-1:在仿真实验中,使用光谱角匹配SAM、相对全局误差ERGAS、空间相关系数SCC及Q指标来评估模型测试的输出结果X∈RH×W×B,各指标的具体计算方法如下:
1)光谱角匹配SAM定义如下:
计算通过锐化得到的高分辨率多光谱遥感影像X∈RH×W×B和参考遥感影像GT∈RH×W×B对应像素之间的角度,该空间将每个光谱通道视为坐标轴以计算相角;设x{i}=[x{i},1,...,X{i},B]为具有B个光谱通道的高分辨率多光谱遥感影像X∈RH×W×B的某个像素向量,类似地定义GT{i}为参考遥感影像GT∈RH×W×B的某个像素向量,其中B为高分辨率多光谱遥感影像X∈RH×W×B的波段数,则X{i}和GT{i}之间的SAM指标定义如下:
其中<·,·>表示内积,||·||表示l2范数,通过对所有像素向量的测量结果求平均值,得到整幅遥感影像的全局SAM值,SAM指标的最优值为0;
2)相对全局误差ERGAS定义如下:
均方根误差RMSE是一种常见的评价两幅图之间误差的指标,当且仅当两图完全相等时,达到最优值0;其中,GT为参考遥感影像,X为通过锐化得到的遥感影像;
其中,GTb为参考遥感影像,Xb为通过锐化得到的遥感影像,Mean(·)表示内积,r表示全色遥感影像PAN与多光谱遥感影像MS空间分辨率的比值,ERGAS综合考虑了所有通道的相对误差,是一种多模态指标,其最优值为0;
3)空间相关系数SCC用来描述几何变形的程度,其表达式如下:
这里,CCS为单张遥感影像间的交叉相关,其计算表达式如下:
其中X为锐化得到的遥感影像,Y为参考遥感影像,Mean(·)表示内积,Q2n是通用遥感影像质量指数(UIQI)的多波段扩展,Q4指标将每个像素X{i}建模为四元数,表示如下:
X{i}=X{i},1+k1X{i},2+k2X{i},3+k3X{i},4
其中k1,k2和k3表示对应通道的线性组合系数,Q4指标计算方法如下:
5-2:在真实数据实验上使用无参考质量评价指标QNR、光谱畸变指标Dλ和空间畸变指标Ds,其具体计算方法如下:
QNR=(1-Dλ)α(1-DS)β
QNR由两个指标Dλ和DS的乘积与系数α和β加权组成,这两个指标分别量化光谱和空间失真,QNR指标越高,融合质量越好;当Dλ和DS均等于0时,该指标达到最大理论值1;其中光谱失真指标Dλ定义为如下形式:
其中di,j(MS,X)=Q(MSi,MS)-Q(Xi,Xj)用于度量网络测试输出结果X与原始多光谱遥感影像MS光谱特征的相似度,B为多光谱遥感影像的波段数;因此,在测试过程中保持MS遥感影像各通道之间的关系;Q指标的计算如上文中所示,用于计算两个通道之间的差异,参数p设置为1;
此外,空间失真指标DS定义为如下形式:
其中,PLP为全色图PAN的低通部分,B为多光谱遥感影像的波段数量,并且q设置为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111375371.4A CN113902646A (zh) | 2021-11-19 | 2021-11-19 | 基于深浅层特征加权融合网络的遥感影像泛锐化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111375371.4A CN113902646A (zh) | 2021-11-19 | 2021-11-19 | 基于深浅层特征加权融合网络的遥感影像泛锐化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113902646A true CN113902646A (zh) | 2022-01-07 |
Family
ID=79194739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111375371.4A Pending CN113902646A (zh) | 2021-11-19 | 2021-11-19 | 基于深浅层特征加权融合网络的遥感影像泛锐化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113902646A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581347A (zh) * | 2022-01-24 | 2022-06-03 | 中国科学院空天信息创新研究院 | 无参考影像的光学遥感空谱融合方法、装置、设备及介质 |
CN117036987A (zh) * | 2023-10-10 | 2023-11-10 | 武汉大学 | 一种基于小波域交叉配对的遥感影像时空融合方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110136122A (zh) * | 2019-05-17 | 2019-08-16 | 东北大学 | 一种基于注意力深度特征重建的脑mr图像分割方法 |
CN111353424A (zh) * | 2020-02-27 | 2020-06-30 | 中国科学院遥感与数字地球研究所 | 深度递归残差网络的遥感图像空谱融合方法和电子设备 |
CN112184554A (zh) * | 2020-10-13 | 2021-01-05 | 重庆邮电大学 | 一种基于残差混合膨胀卷积的遥感图像融合方法 |
-
2021
- 2021-11-19 CN CN202111375371.4A patent/CN113902646A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110136122A (zh) * | 2019-05-17 | 2019-08-16 | 东北大学 | 一种基于注意力深度特征重建的脑mr图像分割方法 |
CN111353424A (zh) * | 2020-02-27 | 2020-06-30 | 中国科学院遥感与数字地球研究所 | 深度递归残差网络的遥感图像空谱融合方法和电子设备 |
CN112184554A (zh) * | 2020-10-13 | 2021-01-05 | 重庆邮电大学 | 一种基于残差混合膨胀卷积的遥感图像融合方法 |
Non-Patent Citations (1)
Title |
---|
ZI RONG JIN等: "weighted shallow deep feature fusion network for pansharpening" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581347A (zh) * | 2022-01-24 | 2022-06-03 | 中国科学院空天信息创新研究院 | 无参考影像的光学遥感空谱融合方法、装置、设备及介质 |
CN114581347B (zh) * | 2022-01-24 | 2024-03-12 | 中国科学院空天信息创新研究院 | 无参考影像的光学遥感空谱融合方法、装置、设备及介质 |
CN117036987A (zh) * | 2023-10-10 | 2023-11-10 | 武汉大学 | 一种基于小波域交叉配对的遥感影像时空融合方法及系统 |
CN117036987B (zh) * | 2023-10-10 | 2023-12-08 | 武汉大学 | 一种基于小波域交叉配对的遥感影像时空融合方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537742B (zh) | 一种基于生成对抗网络的遥感图像全色锐化方法 | |
CN110415199B (zh) | 基于残差学习的多光谱遥感图像融合方法及装置 | |
CN111127374B (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN110363215B (zh) | 基于生成式对抗网络的sar图像转化为光学图像的方法 | |
CN108830796B (zh) | 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法 | |
CN109727207B (zh) | 基于光谱预测残差卷积神经网络的高光谱图像锐化方法 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及系统 | |
CN109872305B (zh) | 一种基于质量图生成网络的无参考立体图像质量评价方法 | |
CN113222823B (zh) | 基于混合注意力网络融合的高光谱图像超分辨率方法 | |
CN110544212B (zh) | 基于层级特征融合的卷积神经网络高光谱图像锐化方法 | |
Chen et al. | Remote sensing image quality evaluation based on deep support value learning networks | |
CN113673590B (zh) | 基于多尺度沙漏密集连接网络的去雨方法、系统和介质 | |
CN113902646A (zh) | 基于深浅层特征加权融合网络的遥感影像泛锐化方法 | |
CN112488978A (zh) | 基于模糊核估计的多光谱图像融合成像方法及系统 | |
CN113763299B (zh) | 一种全色与多光谱图像融合方法、装置及其应用 | |
CN112067129B (zh) | 一种高光谱处理方法及波段选择方法 | |
CN112949416B (zh) | 一种监督的高光谱多尺度图卷积分类方法 | |
CN115760814A (zh) | 一种基于双耦合深度神经网络的遥感图像融合方法及系统 | |
CN115564692B (zh) | 顾及幅宽差异下的全色-多光谱-高光谱一体化融合方法 | |
CN115272078A (zh) | 基于多尺度空-谱特征学习的高光谱图像超分辨率重建方法 | |
CN115240072A (zh) | 一种基于多方向多尺度光谱-空间残差卷积神经网络的高光谱多类变化检测方法 | |
CN114266957A (zh) | 一种基于多降质方式数据增广的高光谱图像超分辨率复原方法 | |
CN115984110A (zh) | 一种基于Swin-Transformer的二阶光谱注意力高光谱图像超分辨率方法 | |
CN116029930A (zh) | 一种基于卷积神经网络的多光谱图像去马赛克方法 | |
CN105719323A (zh) | 一种基于优化图谱理论的高光谱降维方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220107 |