CN111127374B - 一种基于多尺度密集网络的Pan-sharpening方法 - Google Patents
一种基于多尺度密集网络的Pan-sharpening方法 Download PDFInfo
- Publication number
- CN111127374B CN111127374B CN201911155272.8A CN201911155272A CN111127374B CN 111127374 B CN111127374 B CN 111127374B CN 201911155272 A CN201911155272 A CN 201911155272A CN 111127374 B CN111127374 B CN 111127374B
- Authority
- CN
- China
- Prior art keywords
- image
- scale dense
- scale
- features
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 96
- 230000004927 fusion Effects 0.000 claims abstract description 60
- 230000003595 spectral effect Effects 0.000 claims abstract description 28
- 238000005070 sampling Methods 0.000 claims abstract description 24
- 230000013016 learning Effects 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 5
- 229910000673 Indium arsenide Inorganic materials 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 description 13
- 238000004088 simulation Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000007500 overflow downdraw method Methods 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多尺度密集网络的pan‑sharpening方法,首先将原始多光谱图像上采样后与原始全色图像堆叠,形成网络的输入;然后通过一卷积层提取输入图像中的浅层低级特征;将取到的浅层低级特征作为输入,通过密集连接的多尺度密集块来充分提取原始全色图像中的空间信息和原始多光谱图像中的光谱信息,并将所有输出传递到全局特征融合层,进行特征的学习与融合;最后通过图像重建,利用全局残差学习重建高分辨率多光谱图像。本发明有效利用多尺度特征提取以及密集连接的优点,通过一个端到端的深层卷积神经网络实现pan‑sharpening,最终可获得兼具高空间和高光谱分辨率的融合图像。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于多尺度密集网络的pan-sharpening方法。
背景技术
全色图像和多光谱图像是由光学卫星同时采集的两种类型的遥感图像。两者经常描述相同的场景,而它们具有不同的空间分辨率和光谱分辨率。全色图像具有很少的光谱信息,但空间细节丰富;多光谱图像包含丰富的光谱信息,而空间分辨率较低。
Pan-sharpening是指将全色图像与多光谱图像融合,得到兼具高空间和高光谱分辨率的融合图像,已广泛应用于物体识别、变化检测以及道路提取等应用中。目前,pan-sharpening方法主要分为四类:基于成分替代的方法、基于多分辨率分析的方法、基于变分优化的方法和基于深度学习的方法。成分替代法使用空间变换技术,将不同成分中的空间结构与光谱信息分开,其中包括HIS、PCA和GS等方法。它们通常易于实现并能较好地提高图像的空间分辨率,但可能产生显著的光谱失真。基于多分辨率分析的方法主要基于空间细节的注入,通过全色图像的多分辨率分解获得空间细节,并将细节注入上采样的多光谱图像中。与成分替代法相比,多分辨率分析法可以更好地保留光谱特性,但会产生更严重的空间失真。基于变分优化的方法主要过程通常基于或转换为变分模型的优化,能得到效果较好的融合图像,但是变分优化方法提出的模型并不稳健且效率较低。
近年来提出了基于深度学习的pan-sharpening方法,可以作为新一代的pan-sharpen ing方法。深度学习模型的所有参数都可以在训练样本的监督下更新,因此减少了对先验知识的要求,并且可以预期更高的拟合精度。另外,深度学习模型的映射过程具有强非线性,可以在提高图像空间分辨率的同时确保融合图像的光谱保真度。然而,现有的基于深度学习的pan-sharpening方法的网络结构都相对简单,且验证仅在少数数据集上进行,因此仍有很大的改进空间。
发明内容
针对现有技术中的缺陷和不足,本发明提供了一种基于多尺度密集网络的Pan-shar pening方法,解决现有技术中遥感图像融合质量和融合效率低的问题。
为达到上述目的,本发明采取如下的技术方案:
一种基于多尺度密集网络的pan-sharpening方法,包括以下步骤:
步骤一,提取浅层低级特征
获取原始全色图像与原始多光谱图像,对原始多光谱图像进行上采样处理得到上采样多光谱图像,再将上采样多光谱图像与原始全色图像堆叠后输入一个卷积核大小为5×5的卷积层,提取浅层低级特征F0;
步骤二,深层图像特征提取与融合
将步骤一提取到的浅层低级特征作为输入,采用三个密集连接的多尺度密集块提取深层图像特征,然后将浅层低级特征与每个多尺度密集块的输出传递到一个卷积核大小为1×1的全局特征融合层,进行特征的学习、缩减与融合,得到全局特征融合层的输出FD;
步骤三,图像重建
将步骤二得到的全局特征融合层的输出作为一个卷积核大小为3×3的卷积层的输入,重建残差图像,采用全局残差学习将残差图像添加到上采样多光谱图像,获得融合图像IF。
本发明还包括如下技术特征:
具体的,步骤一所述的对原始多光谱图像进行上采样处理得到上采样多光谱图像是指:
采用双三次线性插值方法将原始多光谱图像上采样p倍得到上采样多光谱图像IMS,其中,p为原始全色图像与原始多光谱图像空间分辨率的比值;且p=4。
具体的,步骤一所述的将上采样多光谱图像与原始全色图像堆叠是指:
将原始全色图像IPAN与上采样多光谱图像IMS在光谱维度方向上连接起来,形成网络的输入图像IIn。
具体的,步骤一所述的输入一个卷积核大小为5×5的卷积层,提取浅层低级特征是指:
将输入图像IIn作为输入,通过一个卷积核大小为5×5的卷积层提取输入图像的浅层低级特征,即
F0=Conv5×5(IIn) (1)
其中,Conv5×5(·)指卷积核大小为5×5的卷积操作,F0是提取到的浅层低级特征。
具体的,步骤二的具体步骤包括:
步骤2.1,采用三个密集连接的多尺度密集块(MSDB)提取深层图像特征;所述多尺度密集块(MSDB)包括四层,前三层设置密集连接的多尺度卷积层用以提取不同比例的图像特征,最后一层是局部特征融合层用以对前三层提取到的多尺度密集特征进行学习与融合,输出最有效的图像特征;每一个多尺度密集块(MSDB)的操作包括:
F1=MSDB1(F0) (2)
F2=MSDB2(F0,F1) (3)
F3=MSDB3(F0,F1,F2) (4)
其中,MSDB代表多尺度密集块,MSDB1(·),MSDB2(·),MSDB3(·)分别代表第1、2、3个多尺度密集块的操作,F1,F2,F3分别代表第1、2、3个多尺度密集块的输出特征;公式(2)中,浅层低级特征F0作为第一个多尺度密集块的输入,得到第一个多尺度密集块的输出特征F1;公式(3)中,浅层低级特征F0和输出特征F1作为第二个多尺度密集块的输入,得到第二个多尺度密集块的输出特征F2;公式(4)中,浅层低级特征F0、输出特征F1和输出特征F2作为第三个多尺度密集块的输入,得到第三个多尺度密集块的输出特征F3;
步骤2.2,将浅层低级特征F0和每个多尺度密集块的输出特征F1、F2和F3传递到一个卷积核大小为1×1的全局特征融合层,进行特征的学习、缩减与融合,具体为:
FD=Conv1×1(F0,F1,F2,F3) (5)
其中,FD是全局特征融合层的输出;Conv1×1(·)指卷积核大小为1×1的卷积操作。
具体的,步骤三的具体步骤包括:
采用全局残差学习,利用一个卷积核大小为3×3的卷积层重建残差图像,通过跳过连接将残差图像添加到上采样多光谱图像IMS,重建高分辨率融合图像IF,即
IF=Recons(FD) (6)
其中,Recons(·)指重建操作,IF是融合图像。
本发明与现有技术相比,有益的技术效果是:
(1)本发明利用多尺度特征提取和密集连接的优势,提出一个新的端到端的深层pan-sharpening网络,能高效地实现全色图像与多光谱图像的融合。
(2)本发明提出一个新的多尺度密集块,采用多尺度卷积层以通过卷积核大小的不同自适应地提取不同尺度的图像特征,增加图像特征的丰富度;采用广泛的密集连接,实现特征的不断复用,以提取到来自先前和当前的更有效特征。
附图说明
图1是本发明方法的框架图;其中,图1(a)为整体方法流程图,图1(b)为提出的多尺度密集块的结构图。
图2是QuickBird卫星模拟实验融合结果;其中,图2(a)为上采样多光谱图像,图2(b)为全色图像,图2(c)为参考图像,图2(d)为GS方法融合图像,图2(e)为Indusion方法融合图像,图2(f)为SR方法融合图像,图2(g)为PNN方法融合图像,图2(h)为PanNet方法融合图像,图2(i)为MSDCNN方法融合图像,图2(j)为MSDNP方法融合图像。
图3是WorldView-2卫星模拟实验融合结果;其中,图3(a)为上采样多光谱图像,图3(b)为全色图像,图3(c)为参考图像,图3(d)为GS方法融合图像,图3(e)为Indusion方法融合图像,图3(f)为SR方法融合图像,图3(g)为PNN方法融合图像,图3(h)为PanNet方法融合图像,图3(i)为MSDCNN方法融合图像,图3(j)为MSDNP方法融合图像。
图4是QuickBird卫星实际实验融合结果;其中,图4(a)为上采样多光谱图像,图4(b)为全色图像,图4(c)为GS方法融合图像,图4(d)为Indusion方法融合图像,图4(e)为SR方法融合图像,图4(f)为PNN方法融合图像,图4(g)为PanNet方法融合图像,图4(h)为MSDCNN方法融合图像,图4(i)为MSDNP方法融合图像。
图5是WorldView-2卫星实际实验融合结果;其中,图5(a)为上采样多光谱图像,图5(b)为全色图像,图5(c)为GS方法融合图像,图5(d)为Indusion方法融合图像,图5(e)为SR方法融合图像,图5(f)为PNN方法融合图像,图5(g)为PanNet方法融合图像,图5(h)为MSDCNN方法融合图像,图5(i)为MSDNP方法融合图像。
具体实施方式
本发明公开了一种基于多尺度密集网络的pan-sharpening方法(A Multi-ScaleDense Network-Based Pan-Sharpening Method,MSDNP),采用一个浅层特征提取层以及多个密集连接的多尺度密集块去充分提取原始全色图像和多光谱图像中的空间与光谱信息,再通过一个特征融合层及全局残差学习重建高分辨率多光谱图像,以在提高图像空间分辨率的同时,尽可能地减少光谱失真。
以下给出本发明的具体实施例,需要说明的是本发明并不局限于以下具体实施例,凡在本申请技术方案基础上做的等同变换均落入本发明的保护范围。下面结合实施例对本发明做进一步详细说明。
实施例1:
本实施例给出结合图1所示的融合框架,本发明提出了一种基于多尺度密集网络的pan-sharpening方法(MSDNP),具体包括如下步骤:
步骤一,提取浅层低级特征
获取原始全色图像与原始多光谱图像,对原始多光谱图像进行上采样处理得到上采样多光谱图像,再将上采样多光谱图像与原始全色图像堆叠后输入一个卷积核大小为5×5的卷积层,提取浅层低级特征F0;上采样处理后的多光谱图像与全色图像的尺寸大小相同,以便后续处理;具体地,本实施例中:采用双三次线性插值方法将原始多光谱图像上采样p倍得到上采样多光谱图像IMS,其中,p为原始全色图像与原始多光谱图像空间分辨率的比值;且p=4。将上采样多光谱图像与原始全色图像堆叠是指:将原始全色图像IPAN与上采样多光谱图像IMS在光谱维度方向上连接起来,形成网络的输入图像IIn。提取浅层低级特征是指:将输入图像IIn作为输入,通过一个卷积核大小为5×5的卷积层提取输入图像的浅层低级特征,即
F0=Conv5×5(IIn) (1)
其中,Conv5×5(·)指卷积核大小为5×5的卷积操作,F0是提取到的浅层低级特征。
步骤二,深层图像特征提取与融合
将步骤一提取到的浅层低级特征作为输入,采用三个密集连接的多尺度密集块提取丰富的深层图像特征,然后将每个多尺度密集块的输出传递到一个卷积核大小为1×1的全局特征融合层,进行特征的学习、缩减与融合,得到全局特征融合层的输出FD;多尺度密集块包含多尺度特征提取与密集连接,能更好地获得原始图像中丰富的图像特征;全局特征融合层,能对每个多尺度密集块提取到的分层特征进行缩减、学习与融合,输出最有效的深层图像特征;具体地:
步骤2.1,采用三个密集连接的多尺度密集块(MSDB)提取丰富的深层图像特征;所述多尺度密集块(MSDB)包括四层,前三层设置密集连接的多尺度卷积层用以提取不同比例的图像特征,最后一层是局部特征融合层用以对前三层提取到的多尺度密集特征进行学习与融合,输出最有效的图像特征;每一个多尺度密集块(MSDB)的操作包括:
F1=MSDB1(F0) (2)
F2=MSDB2(F0,F1) (3)
F3=MSDB3(F0,F1,F2) (4)
其中,MSDB代表多尺度密集块,MSDB1(·),MSDB2(·),MSDB3(·)分别代表第1、2、3个多尺度密集块的操作,F1,F2,F3分别代表第1、2、3个多尺度密集块的输出特征;公式(2)中,浅层低级特征F0作为第一个多尺度密集块的输入,得到第一个多尺度密集块的输出特征F1;公式(3)中,浅层低级特征F0和输出特征F1作为第二个多尺度密集块的输入,得到第二个多尺度密集块的输出特征F2;公式(4)中,浅层低级特征F0、输出特征F1和输出特征F2作为第三个多尺度密集块的输入,得到第三个多尺度密集块的输出特征F3;
在图1(b)中,前三层是密集连接的多尺度卷积层,最后一层是卷积核大小为1×1的局部特征融合层。在第一层多尺度卷积层中,将输入分别通过卷积核大小为3×3、5×5、7×7的卷积层,然后将结果堆叠在一起形成第一层多尺度卷积层的输出;然后将输入与第一层多尺度卷积层的输出一起作为第二层多尺度卷积层的输入,分别通过卷积核大小为3×3、5×5、7×7的卷积层,将结果堆叠在一起形成第二层多尺度卷积层的输出;接着将输入、第一层多尺度卷积层的输出、第二层多尺度卷积层的输出一起作为第三层多尺度卷积层的输入,分别通过卷积核大小为3×3、5×5、7×7的卷积层,将结果堆叠在一起形成第三层多尺度卷积层的输出;最后,将输入、第一层多尺度卷积层的输出、第二层多尺度卷积层的输出、第三层多尺度卷积层的输出一起作为最后一层局部特征融合层的输入,以得到多尺度密集块的输出。
步骤2.2,将浅层低级特征F0和每个多尺度密集块的输出特征F1、F2和F3传递到一个卷积核大小为1×1的全局特征融合层,进行特征的学习、缩减与融合,具体为:
FD=Conv1×1(F0,F1,F2,F3) (5)
其中,FD是全局特征融合层的输出;Conv1×1(·)指卷积核大小为1×1的卷积操作。
步骤三,图像重建
将步骤二得到的全局特征融合层的输出作为输入一个卷积核大小为3×3的卷积层的输入,重建残差图像,采用全局残差学习将残差图像添加到上采样多光谱图像,获得融合图像IF。全局残差学习可以有效提高学习速度,加快网络收敛,并减少由更深层次结构引起的内存消耗;具体操作即
IF=Recons(FD) (6)
其中,Recons(·)指重建操作,IF是融合图像。
本实施例采用2种卫星遥感图像来验证所提融合算法的有效性;QuickBird卫星提供的全色图像和多光谱图像的空间分辨率分别为0.7米和2.8米;WorldView-2卫星可拍摄获取的全色图像和多光谱图像的空间分辨率分别为0.5米和2.0米;实验中采用的全色图像大小为256×256,多光谱图像大小为64×64。
为更好地评估融合方法的实用性,本实施例给出两种实验类型,分别为模拟实验和实际实验,其中,模拟实验是将全色图像与多光谱图像的空间分辨率同时降低4倍,作为待融合的模拟图像数据,将原始的多光谱图像作为标准融合结果进行参考,实际实验是直接将真实图像进行融合。实验中使用TensorFlow软件包训练网络,大约进行250000次迭代,批量大小设置为16。
本实施例主要与六种经典及新颖的图像融合方法进行比较:基于成分替代的方法GS、基于多分辨率分析的方法Indusion、基于稀疏表示的方法SR、基于深度学习的方法PNN、PanNet和MSDCNN。
(一)模拟实验效果分析:
图2为QuickBird卫星模拟实验结果图;图2(a)、(b)分别为上采样多光谱图像和全色图像,图2(c)为参考图像,图2(d)~(i)分别为六种对比方法的融合图像,图2(j)为MSDNP方法的融合图像;通过对融合图像和参考图像进行视觉比较,可以看出所有方法都能提高原始多光谱图像的空间分辨率,但发现图2(d)(e)中GS、Indusion方法产生的融合图像在图像右下角植被区域与参考图像差异较大,图2(f)(g)(i)中SR、PNN、MSDCNN方法产生的融合图像存在明显的光谱失真,图2(h)中PanNet方法融合图像总体不清晰;而从图2(j)中可以看到,本发明获得的融合图像与参考图像差异最小,在有效提高图像空间分辨率的同时,保存更多的光谱信息。
图3为WorldView-2卫星模拟实验结果图;图3(a)、(b)分别为上采样多光谱图像和全色图像,图3(c)为参考图像,图3(d)~(i)分别为六种对比方法的融合图像,图3(j)为MSDNP方法的融合图像;从图3可以看出,图3(d)-(f)中GS、Indusion、SR方法产生的融合图像细节信息不够清晰,图3(g)中PNN方法融合图像整体比较模糊,图3(h)和(i)中PanNet方法和MSDCNN方法产生的融合图像与参考图像有明显差异;但本发明产生的融合图像与参考图像在光谱分辨率和空间分辨率上均保有较小的差异。
单纯依靠主观评价很难对融合结果给出最正确的判断,因此需结合客观指标共同对融合结果进行评估;本发明采用CC、PSNR、Q4、SAM、ERGAS、RMSE、SSIM这七种客观评价指标对图像进行全面地评估;其中,CC表示相关系数,从统计学相关的角度来评估两个图像的各波段图像之间的光谱和空间信息相似程度;PSNR即峰值信噪比,是一种评价图像的客观标准;Q4是一个对融合图像的空间质量和光谱质量进行全面评价的客观指标,最优值为1;SAM表示全局光谱扭曲测量,反映两个图像之间的色彩差异,最优值为0;ERGAS表示融合图像和参考图像之间的差异,值越小代表光谱失真越少;RMSE用于测量融合图像和参考图像之间的偏差,越小值意味着小的偏差;SSIM通过从亮度、对比度和结构这三个方面的比较,实现对参考图像与融合结果中每个波段图像结构相似的度量。
表1 QuickBird卫星图像模拟实验融合结果的客观指标
表2 WorldView-2卫星图像模拟实验融合结果的客观指标
表1和表2分别为QuickBird卫星和WorldView-2卫星模拟实验中不同融合方法结果的客观指标;从表1和表2可以看到,本发明的所有客观指标均优于其他方法,即本发明方法产生的融合图像与参考图像的相关性最强,能很好地提高多光谱图像的空间分辨率,并同时保持光谱特性。
综合视觉评价与客观指标评价,本发明提出的算法能很好地得到兼具高空间和高光谱分辨率的融合图像。
(二)实际实验效果分析:
图4为QuickBird卫星实际实验结果图;图4(a)、(b)分别为上采样多光谱图像和全色图像,图4(c)~(h)分别为六种对比方法的融合图像,图4(i)为MSDNP方法的融合图像;可以看到,图4(c)(f)(h)中GS、PNN、MSDCNN方法融合图像有少许光谱失真,图4(d)和(g)中Indusion、PanNet方法对边缘的提取效果较差;整体上看本发明方法产生的融合图像细节信息丰富,光谱失真也较小。
图5为WorldView-2卫星实际实验结果图;图5(a)、(b)分别为上采样多光谱图像和全色图像,图5(c)~(h)分别为六种对比方法的融合图像,图5(i)为MSDNP方法的融合图像;图5(c)和(d)中GS、Indusion方法融合结果过于锐化,图5(e)(f)(h)中SR、PNN、MSDCNN方法产生的融合图像有明显的颜色变化,图5(g)中融合图像整体空间分辨率不高;从图5(i)看到,本发明得到的融合图像的空间细节信息较其他方法更清晰。
实际图像实验中,由于没有参考图像,为有效客观地评估各融合结果,采用无参考图像的客观评价指标QNR来评价图像融合质量;QNR可以对融合图像与原始图像间的亮度、对比度以及局部相关性进行度量,它包含空间信息损失指标Ds和光谱信息损失指标Dλ,其中,QNR的最优值为1,而Ds和Dλ的最优值为0。
表3 QuickBird卫星图像实际实验融合结果的客观指标
表4 WorldView-2卫星图像实际实验融合结果的客观指标
表3和表4分别为QuickBird和WorldView-2卫星实际实验中不同融合方法结果的客观指标;从表3和表4可以看到,本发明融合过程中产生的空间细节信息损失最少,虽然光谱损失略高一点,但本发明的无参评价指标QNR较其他所有方法都是最优的。
综上所述,本发明在较好保留多光谱图像光谱信息的同时,大大提高了融合图像的空间分辨率。
Claims (5)
1.一种基于多尺度密集网络的pan-sharpening方法,其特征在于,包括以下步骤:
步骤一,提取浅层低级特征
获取原始全色图像与原始多光谱图像,对原始多光谱图像进行上采样处理得到上采样多光谱图像,再将上采样多光谱图像与原始全色图像堆叠后输入一个卷积核大小为5×5的卷积层,提取浅层低级特征F0;
步骤二,深层图像特征提取与融合
将步骤一提取到的浅层低级特征作为输入,采用三个密集连接的多尺度密集块提取深层图像特征,然后将浅层低级特征与每个多尺度密集块的输出传递到一个卷积核大小为1×1的全局特征融合层,进行特征的学习、缩减与融合,得到全局特征融合层的输出FD;步骤二的具体步骤包括:
步骤2.1,采用三个密集连接的多尺度密集块(MSDB)提取深层图像特征;所述多尺度密集块(MSDB)包括四层,前三层设置密集连接的多尺度卷积层用以提取不同比例的图像特征,最后一层是局部特征融合层用以对前三层提取到的多尺度密集特征进行学习与融合,输出最有效的图像特征;每一个多尺度密集块(MSDB)的操作包括:
F1=MSDB1(F0) (2)
F2=MSDB2(F0,F1) (3)
F3=MSDB3(F0,F1,F2) (4)
其中,MSDB代表多尺度密集块,MSDB1(·),MSDB2(·),MSDB3(·)分别代表第1、2、3个多尺度密集块的操作,F1,F2,F3分别代表第1、2、3个多尺度密集块的输出特征;公式(2)中,浅层低级特征F0作为第一个多尺度密集块的输入,得到第一个多尺度密集块的输出特征F1;公式(3)中,浅层低级特征F0和输出特征F1作为第二个多尺度密集块的输入,得到第二个多尺度密集块的输出特征F2;公式(4)中,浅层低级特征F0、输出特征F1和输出特征F2作为第三个多尺度密集块的输入,得到第三个多尺度密集块的输出特征F3;
步骤2.2,将浅层低级特征F0和每个多尺度密集块的输出特征F1、F2和F3传递到一个卷积核大小为1×1的全局特征融合层,进行特征的学习、缩减与融合,具体为:
FD=Conv1×1(F0,F1,F2,F3) (5)
其中,FD是全局特征融合层的输出;Conv1×1(·)指卷积核大小为1×1的卷积操作;
步骤三,图像重建
将步骤二得到的全局特征融合层的输出作为一个卷积核大小为3×3的卷积层的输入,重建残差图像,采用全局残差学习将残差图像添加到上采样多光谱图像,获得融合图像IF。
2.如权利要求1所述的基于多尺度密集网络的pan-sharpening方法,其特征在于,步骤一所述的对原始多光谱图像进行上采样处理得到上采样多光谱图像是指:
采用双三次线性插值方法将原始多光谱图像上采样p倍得到上采样多光谱图像IMS,其中,p为原始全色图像与原始多光谱图像空间分辨率的比值;且p=4。
3.如权利要求2所述的基于多尺度密集网络的pan-sharpening方法,其特征在于,步骤一所述的将上采样多光谱图像与原始全色图像堆叠是指:
将原始全色图像IPAN与上采样多光谱图像IMS在光谱维度方向上连接起来,形成网络的输入图像IIn。
4.如权利要求3所述的基于多尺度密集网络的pan-sharpening方法,其特征在于,步骤一所述的输入一个卷积核大小为5×5的卷积层,提取浅层低级特征是指:
将输入图像IIn作为输入,通过一个卷积核大小为5×5的卷积层提取输入图像的浅层低级特征,即
F0=Conv5×5(IIn) (1)
其中,Conv5×5(·)指卷积核大小为5×5的卷积操作,F0是提取到的浅层低级特征。
5.如权利要求1所述的基于多尺度密集网络的pan-sharpening方法,其特征在于,步骤三的具体步骤包括:
采用全局残差学习,利用一个卷积核大小为3×3的卷积层重建残差图像,通过跳过连接将残差图像添加到上采样多光谱图像IMS,重建高分辨率融合图像IF,即
IF=Recons(FD) (6)
其中,Recons(·)指重建操作,IF是融合图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911155272.8A CN111127374B (zh) | 2019-11-22 | 2019-11-22 | 一种基于多尺度密集网络的Pan-sharpening方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911155272.8A CN111127374B (zh) | 2019-11-22 | 2019-11-22 | 一种基于多尺度密集网络的Pan-sharpening方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111127374A CN111127374A (zh) | 2020-05-08 |
CN111127374B true CN111127374B (zh) | 2022-02-11 |
Family
ID=70496398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911155272.8A Active CN111127374B (zh) | 2019-11-22 | 2019-11-22 | 一种基于多尺度密集网络的Pan-sharpening方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111127374B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111681296B (zh) * | 2020-05-09 | 2024-03-22 | 上海联影智能医疗科技有限公司 | 图像重建方法、装置、计算机设备和存储介质 |
CN111598778B (zh) * | 2020-05-13 | 2023-11-21 | 云南电网有限责任公司电力科学研究院 | 一种绝缘子图像超分辨率重建方法 |
CN113743429A (zh) * | 2020-05-28 | 2021-12-03 | 中国人民解放军战略支援部队信息工程大学 | 一种高光谱影像分类方法及装置 |
CN112700370B (zh) * | 2020-12-29 | 2023-06-13 | 南京理工大学 | 超参数保真与深度先验联合学习的高光谱图像超分辨方法 |
CN113066030B (zh) * | 2021-03-31 | 2022-08-02 | 山东师范大学 | 一种基于空谱融合网络的多光谱图像全色锐化方法及系统 |
CN113191993B (zh) * | 2021-04-20 | 2022-11-04 | 山东师范大学 | 基于深度学习的全色与多光谱图像融合方法 |
CN113160104B (zh) * | 2021-05-20 | 2024-03-12 | 广东工业大学 | 一种基于密集连接网络的图像融合方法 |
CN113284067B (zh) * | 2021-05-31 | 2024-02-09 | 西安理工大学 | 基于深度细节注入网络的高光谱全色锐化方法 |
CN113379661B (zh) * | 2021-06-15 | 2023-03-07 | 中国工程物理研究院流体物理研究所 | 红外与可见光图像融合的双分支卷积神经网络装置 |
CN116563639A (zh) * | 2023-05-24 | 2023-08-08 | 齐鲁工业大学(山东省科学院) | 一种轻量化多尺度密集网络高光谱遥感图像分类方法 |
CN117173422B (zh) * | 2023-08-07 | 2024-02-13 | 广东第二师范学院 | 基于图融合多尺度特征学习的细粒度图像识别方法 |
CN117095265A (zh) * | 2023-09-04 | 2023-11-21 | 黑龙江省网络空间研究中心(黑龙江省信息安全测评中心、黑龙江省国防科学技术研究院) | 基于双分支cnn的sar影像与光学影像的融合方法 |
CN117408893B (zh) * | 2023-12-15 | 2024-04-05 | 青岛科技大学 | 一种基于浅层神经网络的水下图像增强方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064398A (zh) * | 2018-07-14 | 2018-12-21 | 深圳市唯特视科技有限公司 | 一种基于残差密集网络的图像超分辨率实现方法 |
CN109886870A (zh) * | 2018-12-29 | 2019-06-14 | 西北大学 | 基于双通道神经网络的遥感图像融合方法 |
CN110189282A (zh) * | 2019-05-09 | 2019-08-30 | 西北工业大学 | 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法 |
-
2019
- 2019-11-22 CN CN201911155272.8A patent/CN111127374B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064398A (zh) * | 2018-07-14 | 2018-12-21 | 深圳市唯特视科技有限公司 | 一种基于残差密集网络的图像超分辨率实现方法 |
CN109886870A (zh) * | 2018-12-29 | 2019-06-14 | 西北大学 | 基于双通道神经网络的遥感图像融合方法 |
CN110189282A (zh) * | 2019-05-09 | 2019-08-30 | 西北工业大学 | 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法 |
Non-Patent Citations (5)
Title |
---|
A Multiscale and Multidepth Convolutional Neural Network for Remote Sensing Imagery Pan-Sharpening;Qiangqiang Yuan 等;《IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING》;20180331;第11卷(第3期);全文 * |
Densely Connected Convolutional Networks;Gao Huang 等;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171231;全文 * |
Multi-scale Residual Network for Image Super-Resolution;Juncheng Li 等;《Springer》;20181231;全文 * |
Pansharpening Based on Details Injection Model and Online Sparse Dictionary Learning;Jun Wang 等;《IEEE》;20181231;全文 * |
基于深度金字塔网络的Pan-Sharpening 算法;方帅 等;《计算机辅助设计与图形学学报》;20191031;第31卷(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111127374A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127374B (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN110533620B (zh) | 基于aae提取空间特征的高光谱和全色图像融合方法 | |
CN110033410B (zh) | 图像重建模型训练方法、图像超分辨率重建方法及装置 | |
CN109886870B (zh) | 基于双通道神经网络的遥感图像融合方法 | |
CN112734646B (zh) | 一种基于特征通道划分的图像超分辨率重建方法 | |
CN110415199B (zh) | 基于残差学习的多光谱遥感图像融合方法及装置 | |
CN112819737B (zh) | 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法 | |
CN109727207B (zh) | 基于光谱预测残差卷积神经网络的高光谱图像锐化方法 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及系统 | |
CN113673590B (zh) | 基于多尺度沙漏密集连接网络的去雨方法、系统和介质 | |
CN108830796A (zh) | 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法 | |
CN110544212B (zh) | 基于层级特征融合的卷积神经网络高光谱图像锐化方法 | |
CN105761234A (zh) | 一种基于结构稀疏表示的遥感影像融合方法 | |
CN106251320A (zh) | 基于联合稀疏与结构字典的遥感图像融合方法 | |
CN108765280A (zh) | 一种高光谱图像空间分辨率增强方法 | |
CN116309070A (zh) | 一种高光谱遥感图像超分辨率重建方法、装置及计算机设备 | |
CN112669248A (zh) | 基于cnn与拉普拉斯金字塔的高光谱与全色图像融合方法 | |
CN114266957B (zh) | 一种基于多降质方式数据增广的高光谱图像超分辨率复原方法 | |
CN111833261A (zh) | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 | |
CN113256494B (zh) | 一种文本图像超分辨率方法 | |
CN115760814A (zh) | 一种基于双耦合深度神经网络的遥感图像融合方法及系统 | |
CN114511470B (zh) | 一种基于注意力机制的双分支全色锐化方法 | |
CN113902646A (zh) | 基于深浅层特征加权融合网络的遥感影像泛锐化方法 | |
CN113689370A (zh) | 基于深度卷积神经网络的遥感图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |