CN109886870B - 基于双通道神经网络的遥感图像融合方法 - Google Patents

基于双通道神经网络的遥感图像融合方法 Download PDF

Info

Publication number
CN109886870B
CN109886870B CN201811635472.9A CN201811635472A CN109886870B CN 109886870 B CN109886870 B CN 109886870B CN 201811635472 A CN201811635472 A CN 201811635472A CN 109886870 B CN109886870 B CN 109886870B
Authority
CN
China
Prior art keywords
image
full
multispectral
fusion
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811635472.9A
Other languages
English (en)
Other versions
CN109886870A (zh
Inventor
彭进业
刘璐
王珺
阎昆
吴振国
章勇勤
张二磊
罗迒哉
祝轩
李展
艾娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwest University
Original Assignee
Northwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest University filed Critical Northwest University
Priority to CN201811635472.9A priority Critical patent/CN109886870B/zh
Publication of CN109886870A publication Critical patent/CN109886870A/zh
Application granted granted Critical
Publication of CN109886870B publication Critical patent/CN109886870B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于双通道神经网络的遥感图像融合方法,利用ARSIS思想,首先通过一个双通道网络联合学习,去提取全色图像高通滤波后的高频分量中的空间细节信息;然后使用细节注入模型将空间细节信息注入到多光谱图像的各个波段图像,得到所需的高分辨率多光谱图像;本发明有效利用深度学习的优点,通过双通道网络联合训练,学习得到全色图像不同于多光谱图像各波段图像的空间细节信息,充分利用图像内部和图像间的相关性,使得细节重构更为准确;同时,使用细节注入模型有效地控制注入细节的数量,显著提高融合算法的空间信息保存性能,并很好地保持原始多光谱图像的光谱特性。

Description

基于双通道神经网络的遥感图像融合方法
技术领域
本发明属于图像处理技术领域,具体涉及一种基于双通道神经网络的遥感图像融合方法。
背景技术
随着遥感技术的发展,由各种卫星传感器获取的遥感图像数据为人类对地观测提供了丰富的资源,为更深层次地认识世界做出了重要贡献。对于遥感图像,其空间和光谱分辨率彼此矛盾。全色图像空间分辨率很高,但光谱信息较少,无法显示地物色彩;多光谱图像光谱信息丰富,但空间分辨率较低。将全色图像与多光谱图像融合,将会获得兼具高空间和高光谱分辨率的多光谱图像,满足人类需要。
目前,遥感图像融合方法主要分为三类:基于成分替代的方法、基于多分辨率分析的方法和基于优化的方法。成分替代法可很好地保存空间信息,但却会引起一定的光谱失真;多分辨率分析法可被归入ARSIS概念,它能有效地保持光谱信息,缺点是会产生空间失真,并且对全色图像和上采样多光谱图像之间的准确配准要求严格;基于优化的方法提出的模型并不稳健,耗时较长而且可能会产生一些偶然错误。
深度学习模型是近年提出的一种较有前景的算法,它的所有参数都可以在训练样本的监督下更新,因此减少了对先验知识的要求,并且可以预期更高的拟合精度。现有方法中有利用深度学习进行图像融合的方法,虽然融合效果得到极大地提高,但方法的网络结构非常简单,仍有很大的改进空间。
发明内容
为充分利用深度学习的优势,及图像内部、图像间存在的结构特性和相关性,以提高图像融合的准确度,本发明提出一种基于双通道神经网络的遥感图像融合方法(DCCNN),采用ARSIS思想,通过深度学习模型从全色图像中提取空间细节信息,然后使用细节注入模型将细节信息注入到上采样多光谱图像的各波段中,从而获得所需的高分辨率多光谱图像,解决现有技术中遥感图像融合质量低、融合效率低的问题。
为了实现上述任务,本发明采用如下技术方案予以实现:
一种基于双通道神经网络的遥感图像融合方法,包括以下步骤:
步骤1,获取一对同一场景相同角度的全色图像和多光谱图像作为测试数据集中的一个样本;获取多个场景的多对全色图像和多光谱图像,以得到训练数据集;
对于测试数据集中的样本,对样本中多光谱图像进行上采样处理得到上采样多光谱图像;
步骤2,对样本中的全色图像进行高通滤波,得到全色图像的高频分量;
步骤3,将样本中全色图像的高频分量输入到双通道神经网络中,通过学习得到空间细节信息;所述的双通道神经网络包括一个深层残差网络ResNet和一个浅层卷积网络CNN的集合;
步骤4,基于ARSIS融合框架,采用细节注入模型将步骤3得到的空间细节信息注入到步骤1得到的上采样多光谱图像的各波段中,得到融合图像;
细节注入模型为:
Figure BDA0001929942800000021
其中,
Figure BDA0001929942800000022
为初步融合图像的第j个波段图像,
Figure BDA0001929942800000023
为上采样多光谱图像XMS的第j个波段图像,
Figure BDA0001929942800000024
为全色图像中的空间细节信息XD的第j个波段,
Figure BDA0001929942800000025
为上采样多光谱图像XMS的第i个波段图像,k为多光谱图像的总波段个数;
因此,得到融合图像为:
Figure BDA0001929942800000026
步骤5,采用随机梯度下降算法,利用训练数据集对步骤3的双通道神经网络进行训练,得到融合模型;
在随机梯度下降算法训练网络的过程中,不断优化损失函数,直至收敛,损失函数为:
Figure BDA0001929942800000027
其中,
Figure BDA0001929942800000028
为融合图像的第j个波段图像,Xj为与融合图像对应的参考图像的第j个波段图像,k为多光谱图像的总波段个数;
步骤6,针对于某场景的待融合全色图像和多光谱图像,通过步骤1所述的上采样、步骤2所述的高通滤波处理后,利用步骤3经过训练后得到的融合模型学习得到空间细节信息,然后通过步骤4的方法得到融合图像。
进一步地,步骤1所述的进行上采样处理得到上采样多光谱图像,包括:
采用双三次线性插值方法将多光谱图像上采样p倍得到上采样多光谱图像XMS,其中,p为全色图像与多光谱图像空间分辨率的比值,p=4。
进一步地,步骤2所述的对样本中的全色图像进行高通滤波,得到全色图像的高频分量,包括:
采用盒状均值滤波器对全色图像进行处理,得到全色图像中的低频分量,然后从滤波前的全色图像中减去低频内容,从而获得高频分量XHP
进一步地,步骤3所述的学习得到空间细节信息,包括:
步骤3.1,将全色图像的高频分量XHP输入到深层残差网络ResNet中学习,得到深层特征XDeep
步骤3.2,将全色图像的高频分量XHP输入到浅层卷积网络CNN中学习,得到浅层特征XShallow
步骤3.3,将深层特征XDeep和浅层特征XShallow相加,得到全色图像中的空间细节信息XD
本发明与现有技术相比,具有以下优点:
1.本发明采用双通道网络联合学习的方法来提取全色图像不同于多光谱图像各波段图像的空间细节信息,充分利用图像内部特性和图像间的相关性,使得空间细节信息的重构更为准确,进一步提高图像融合的质量。
2.本发明采用ARSIS思想,使用细节注入模型将空间细节信息注入到上采样多光谱图像的各个波段,有效地控制注入细节的数量,显著提高融合算法的空间信息保存性能,并能够很好地保持原始多光谱图像的光谱特性。
3.本发明在建模求解过程中充分考虑全色图像和多光谱图像的各自图像特征与图像之间的关系,使得融合更为全面、有效、准确。
附图说明
图1是本发明方法的框架图。
图2是模拟实验中不同融合方法对IKONOS卫星图像融合结果;其中,图2(a)为上采样多光谱图像,图2(b)为全色图像,图2(c)为参考图像,图2(d)为SR方法融合图像,图2(e)为GS方法融合图像,图2(f)为Indusion方法融合图像,图2(g)为PNN方法融合图像,图2(h)为PanNet方法融合图像,图2(i)为DCCNN方法融合图像。
图3是模拟实验中不同融合方法对QuickBird卫星图像融合结果;其中,图3(a)为上采样多光谱图像,图3(b)为全色图像,图3(c)为参考图像,图3(d)为SR方法融合图像,图3(e)为GS方法融合图像,图3(f)为Indusion方法融合图像,图3(g)为PNN方法融合图像,图3(h)为PanNet方法融合图像,图3(i)为DCCNN方法融合图像。
图4是实际实验中不同融合方法对IKONOS卫星图像融合结果;其中,图4(a)为上采样多光谱图像,图4(b)为全色图像,图4(c)为SR方法融合图像,图4(d)为GS方法融合图像,图4(e)为Indusion方法融合图像,图4(f)为PNN方法融合图像,图4(g)为PanNet方法融合图像,图4(h)为DCCNN方法融合图像。
图5是实际实验中不同融合方法对QuickBird卫星图像融合结果;其中,图5(a)为上采样多光谱图像,图5(b)为全色图像,图5(c)为SR方法融合图像,图5(d)为GS方法融合图像,图5(e)为Indusion方法融合图像,图5(f)为PNN方法融合图像,图5(g)为PanNet方法融合图像,图5(h)为DCCNN方法融合图像。
具体实施方式
结合图1所示的融合框架,本发明提出了一种基于双通道神经网络的遥感图像融合方法(DCCNN),具体包括如下步骤:
步骤1,获取一对同一场景相同角度的全色图像和多光谱图像作为测试数据集中的一个样本;获取多个场景相同角度的多对全色图像和多光谱图像,以得到训练数据集;
对于测试数据集中的样本,对样本中多光谱图像进行上采样处理得到上采样多光谱图像;上采样处理后的多光谱图像与全色图像的尺寸大小相同,以便后续处理;具体地,本实施例中:
采用双三次线性插值方法将多光谱图像上采样p倍得到上采样多光谱图像XMS,其中,p为全色图像与多光谱图像空间分辨率的比值,优选地,p=4。
步骤2,对样本中的全色图像进行高通滤波,得到全色图像的高频分量;
高通滤波可滤除低频分量,保留所需的包含边缘、细节信息的高频分量;具体地,本实施例中,采用盒状均值滤波器对全色图像进行处理,得到全色图像中的低频分量,然后从滤波前的全色图像中减去低频内容,从而获得高频分量XHP
步骤3,将样本中全色图像的高频分量输入到双通道神经网络中,通过学习得到空间细节信息;所述的双通道神经网络包括一个深层残差网络ResNet和一个浅层卷积网络CNN的集合,能更好地获得全色图像中不同于多光谱图像各波段图像的空间细节信息;具体地:
步骤3.1,将全色图像的高频分量XHP输入到深层残差网络ResNet中学习,得到深层特征XDeep
步骤3.2,将全色图像的高频分量XHP输入到浅层卷积网络CNN中学习,得到浅层特征XShallow
步骤3.3,将深层特征XDeep和浅层特征XShallow相加,得到全色图像中的空间细节信息XD,计算公式如下:
XD=DCCNN(XHP,{W,b})
=ResNetDeep(XHP;{WDeep,bDeep})+CNNShallow(XHP;{WShallow,bShallow})
其中,W和b分别为提出的双通道神经网络的权重与偏置矢量,DCCNN()表示双通道神经光网络提取的空间细节信息,WDeep和bDeep分别为深层残差网络的权重与偏置矢量,ResNetDeep()表示深层残差网络学习的深层特征,CNNShallow()表示浅层卷积神经网络学习的浅层特征,WShallow和bShallow分别为浅层卷积神经网络的权重与偏置矢量。
步骤4,基于ARSIS融合框架,采用细节注入模型将步骤3得到的空间细节信息XD注入到步骤1得到的上采样多光谱图像的各波段中,得到融合图像;细节注入模型能有效地控制注入细节的数量,显著提高融合算法的空间信息保存性能,并保持多光谱图像的光谱特性;
细节注入模型为:
Figure BDA0001929942800000061
其中,
Figure BDA0001929942800000062
为初步融合图像的第j个波段图像,
Figure BDA0001929942800000063
为上采样多光谱图像XMS的第j个波段图像,
Figure BDA0001929942800000064
为全色图像中的空间细节信息XD的第j个波段,
Figure BDA0001929942800000065
为上采样多光谱图像XMS的第i个波段图像,k为多光谱图像的总波段个数;
因此,得到融合图像为:
Figure BDA0001929942800000066
步骤5,采用随机梯度下降算法,利用训练数据集对步骤3的双通道神经网络进行训练,得到融合模型;
在随机梯度下降算法训练网络的过程中,不断优化损失函数,直至收敛,损失函数为:
Figure BDA0001929942800000067
其中,
Figure BDA0001929942800000068
为融合图像的第j个波段图像,Xj为与融合图像对应的参考图像的第j个波段图像,k为多光谱图像的总波段个数;融合图像越接近参考图像,表明融合的效果越好。所述的参考图像,即为对于某一个场景的原始高分辨率多光谱图像,而融合图像则是针对于该场景进行全色图像和多光谱图像采集后,利用步骤3、4处理后得到的融合图像。
步骤6,针对于某场景的待融合全色图像和多光谱图像,通过步骤1所述的上采样、步骤2所述的高通滤波处理后,利用步骤3经过训练后得到的融合模型学习得到空间细节信息,然后通过步骤4的方法得到融合图像。
实施例
本发明采用2种卫星遥感图像来验证所提融合算法的有效性;IKONOS卫星可拍摄获取的全色图像和多光谱图像的空间分辨率分别为1米和4米;QuickBird卫星提供的全色图像和多光谱图像的空间分辨率分别为0.7米和2.8米;其中,两卫星获取的多光谱图像均包括红、绿、蓝和近红外四个波段;实验中采用的全色图像大小为256×256,多光谱图像大小为64×64。
为更好地评估融合方法的实用性,本发明给出两种实验类型,分别为模拟图像实验和实际图像实验,其中,模拟图像实验是将全色图像与多光谱图像的空间分辨率同时降低4倍,作为待融合的模拟图像数据,将原始的多光谱图像作为标准融合结果进行参考,实际图像实验是直接将真实图像进行融合。
本发明主要与五种广泛使用的图像融合方法进行比较:基于稀疏表示的方法SR、基于成分替代的方法GS、基于多分辨率分析的方法Indusion、基于深度学习的方法PNN和PanNet。
实验中使用TensorFlow软件包训练网络,大约进行250000次迭代,批量大小设置为32;对于随机梯度下降算法,设置权重衰减为10-7,动量为0.9;本发明设置深层残差网络深度为10,浅层卷积神经网络深度为3。
模拟图像实验效果分析:
图2为IKONOS卫星模拟实验结果图;图2(a)、(b)分别为上采样多光谱图像和全色图像,图2(c)为参考图像,图2(d)~(h)分别为五种对比方法的融合图像,图2(i)为DCCNN方法的融合图像;通过对融合图像和参考图像进行视觉比较,可以看出所有方法都能提高原始多光谱图像的空间分辨率,但明显能发现图2(d)和(h)中SR方法和PanNet方法融合图像的光谱失真严重,图2(g)中PNN方法融合图像的细节不清楚,图2(f)中Indusion方法融合图像在图像右部植被区域锐化现象非常严重;而从图2(i)中可以看到,本发明在提高多光谱图像空间分辨率的同时,很好地保留了源图像的光谱信息,获得的融合图像更好、更为自然。
图3为QuickBird卫星模拟实验结果图;图3(a)、(b)分别为上采样多光谱图像和全色图像,图3(c)为参考图像,图3(d)~(h)分别为五种对比方法的融合图像,图3(i)为DCCNN方法的融合图像;从图3(d)和(g)可以看出,SR方法和PNN方法融合图像的颜色改变非常大,与参考图像有明显光谱差异,从图3(e)、(f)和(h)中发现,GS、Indusion和PanNet方法融合图像在图像右下角裸露的土地区域与参考图像差异较大;但本发明与参考图像在光谱分辨率和空间分辨率上均保有较小的差异。
视觉评价对比可以对融合结果有比较直观的认识,但单纯依靠主观评价很难对融合结果给出最正确的判断,因此需结合客观指标共同对融合结果进行评估;本发明采用CC、PSNR、Q4、SAM、SSIM这五种客观评价指标对图像进行全面地评估;其中,CC表示相关系数,从统计学相关的角度来评估两个图像的各波段图像之间的光谱和空间信息相似程度;PSNR即峰值信噪比,是一种评价图像的客观标准;Q4是一个对融合图像的空间质量和光谱质量进行全面评价的客观指标,最优值为1;SAM表示全局光谱扭曲测量,反映两个图像之间的色彩差异,最优值为0;SSIM通过从亮度、对比度和结构这三个方面的比较,实现对参考图像与融合结果中每个波段图像结构相似的度量。
表1和表2分别为IKONOS和QuickBird卫星模拟图像实验中不同融合方法结果的客观指标;从表1和表2可以看到,本发明的大多数客观指标均优于其他方法,其中,本发明的CC、Q4值远远高于其他方法,即本发明方法融合图像与参考图像的相关性最强,能很好地提高多光谱图像的空间分辨率,并同时保持光谱特性。
综合视觉评价与客观指标评价,本发明提出的算法能很好地得到具有高空间和高光谱分辨率的融合图像。
表1 IKONOS卫星图像模拟实验融合结果的客观指标
Figure BDA0001929942800000081
表2 QuickBird卫星图像模拟实验融合结果的客观指标
Figure BDA0001929942800000082
Figure BDA0001929942800000091
实际图像实验效果分析:
图4为IKONOS卫星实际实验结果图;图4(a)、(b)分别为上采样多光谱图像和全色图像,图4(c)~(g)分别为五种对比方法的融合图像,图4(h)为DCCNN方法的融合图像;可以看到,图4(d)有少许光谱失真,图4(f)看上去非常模糊,图4(e)和(g)对边缘的提取效果较差;整体上看本发明的融合图像空间分辨率较高,光谱失真也较小。
图5为QuickBird卫星实际实验结果图;图5(a)、(b)分别为上采样多光谱图像和全色图像,图5(c)~(g)分别为五种对比方法的融合图像,图5(h)为DCCNN方法的融合图像;图5(c)融合图像过于锐化,图5(d)和(f)融合图像的颜色有明显的变化,图5(e)和(g)融合图像整体空间分辨率不高;从图5(h)看到,本发明得到的融合图像的轮廓较其他方法更清晰。
实际图像实验中,由于没有参考图像,为有效客观地评估各融合结果,采用无参考图像的客观评价指标QNR来评价图像融合质量;QNR可以对融合图像与原始图像间的亮度、对比度以及局部相关性进行度量,它包含空间信息损失指标Ds和光谱信息损失指标Dλ,其中,QNR的最优值为1,而Ds和Dλ的最优值为0。
表3和表4分别为IKONOS和QuickBird卫星实际图像实验中不同融合方法结果的客观指标;从表3和表4可以看到,本发明融合过程中产生的空间细节信息损失最少,虽然光谱损失略高一点,但本发明的无参评价客观指标QNR较其他所有方法都是最优的。
综上所述,本发明在很好保留多光谱图像光谱信息的同时,大大提高了融合图像的空间分辨率。
表3 IKONOS卫星图像实际实验融合结果的客观指标
Figure BDA0001929942800000092
Figure BDA0001929942800000101
表4 QuickBird卫星图像实际实验融合结果的客观指标
Figure BDA0001929942800000102

Claims (1)

1.一种基于双通道神经网络的遥感图像融合方法,其特征在于,包括以下步骤:
步骤1,获取一对同一场景相同角度的全色图像和多光谱图像作为测试数据集中的一个样本;获取多个场景的多对全色图像和多光谱图像,以得到训练数据集;
对于测试数据集中的样本,对样本中多光谱图像进行上采样处理得到上采样多光谱图像;
步骤2,对样本中的全色图像进行高通滤波,得到全色图像的高频分量;
步骤3,将样本中全色图像的高频分量输入到双通道神经网络中,通过学习得到空间细节信息;所述的双通道神经网络包括一个深层残差网络ResNet和一个浅层卷积网络CNN的集合;深层残差网络ResNet的深度为10,浅层卷积网络深度为3;
步骤4,基于ARSIS融合框架,采用细节注入模型将步骤3得到的空间细节信息注入到步骤1得到的上采样多光谱图像的各波段中,得到融合图像;
细节注入模型为:
Figure FDA0004034664260000011
其中,
Figure FDA0004034664260000012
为初步融合图像的第j个波段图像,
Figure FDA0004034664260000013
为上采样多光谱图像XMS的第j个波段图像,
Figure FDA0004034664260000014
为全色图像中的空间细节信息XD的第j个波段,
Figure FDA0004034664260000015
为上采样多光谱图像XMS的第i个波段图像,k为多光谱图像的总波段个数;
因此,得到融合图像为:
Figure FDA0004034664260000016
步骤5,采用随机梯度下降算法,利用训练数据集对步骤3的双通道神经网络进行训练,得到融合模型;
在随机梯度下降算法训练网络的过程中,不断优化损失函数,直至收敛,损失函数为:
Figure FDA0004034664260000021
其中,
Figure FDA0004034664260000022
为融合图像的第j个波段图像,Xj为与融合图像对应的参考图像的第j个波段图像,k为多光谱图像的总波段个数;
步骤6,针对于某场景的待融合全色图像和多光谱图像,通过步骤1所述的上采样、步骤2所述的高通滤波处理后,利用步骤3经过训练后得到的融合模型学习得到空间细节信息,然后通过步骤4的方法得到融合图像;
步骤1所述的进行上采样处理得到上采样多光谱图像,包括:
采用双三次线性插值方法将多光谱图像上采样p倍得到上采样多光谱图像XMS,其中,p为全色图像与多光谱图像空间分辨率的比值,p=4;
步骤2所述的对样本中的全色图像进行高通滤波,得到全色图像的高频分量,包括:
采用盒状均值滤波器对全色图像进行处理,得到全色图像中的低频分量,然后从滤波前的全色图像中减去低频内容,从而获得高频分量XHP
步骤3所述的学习得到空间细节信息,包括:
步骤3.1,将全色图像的高频分量XHP输入到深层残差网络ResNet中学习,得到深层特征XDeep
步骤3.2,将全色图像的高频分量XHP输入到浅层卷积网络CNN中学习,得到浅层特征XShallow
步骤3.3,将深层特征XDeep和浅层特征XShallow相加,得到全色图像中的空间细节信息XD
CN201811635472.9A 2018-12-29 2018-12-29 基于双通道神经网络的遥感图像融合方法 Active CN109886870B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811635472.9A CN109886870B (zh) 2018-12-29 2018-12-29 基于双通道神经网络的遥感图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811635472.9A CN109886870B (zh) 2018-12-29 2018-12-29 基于双通道神经网络的遥感图像融合方法

Publications (2)

Publication Number Publication Date
CN109886870A CN109886870A (zh) 2019-06-14
CN109886870B true CN109886870B (zh) 2023-03-03

Family

ID=66925417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811635472.9A Active CN109886870B (zh) 2018-12-29 2018-12-29 基于双通道神经网络的遥感图像融合方法

Country Status (1)

Country Link
CN (1) CN109886870B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533600B (zh) * 2019-07-10 2022-07-19 宁波大学 一种同/异质遥感影像高保真广义空-谱融合方法
CN110533620B (zh) * 2019-07-19 2021-09-10 西安电子科技大学 基于aae提取空间特征的高光谱和全色图像融合方法
CN111833280B (zh) * 2019-09-30 2024-04-16 东南大学 一种基于中频信号调制和补偿的高保真遥感图像融合方法
CN110930315B (zh) * 2019-10-23 2022-02-11 西北工业大学 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法
CN111127374B (zh) * 2019-11-22 2022-02-11 西北大学 一种基于多尺度密集网络的Pan-sharpening方法
CN111079850B (zh) * 2019-12-20 2023-09-05 烟台大学 波段显著度的深度空谱联合高光谱图像分类方法
CN111353424B (zh) * 2020-02-27 2023-06-09 中国科学院遥感与数字地球研究所 深度递归残差网络的遥感图像空谱融合方法和电子设备
CN111539900B (zh) * 2020-04-24 2023-03-24 河南大学 一种基于引导滤波的ihs遥感图像融合方法
CN111882512B (zh) * 2020-07-20 2022-12-20 北京理工大学 基于深度学习的图像融合方法、装置、设备和存储介质
CN112580670B (zh) * 2020-12-31 2022-04-19 中国人民解放军国防科技大学 基于迁移学习的高光谱空谱联合特征提取方法
CN112819737B (zh) * 2021-01-13 2023-04-07 西北大学 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法
CN115049576A (zh) * 2021-02-26 2022-09-13 北京小米移动软件有限公司 图像的画质评价方法及装置、设备、存储介质
CN113112441B (zh) * 2021-04-30 2022-04-26 中北大学 基于密集网络和局部亮度遍历算子的多波段低分辨率图像同步融合方法
CN113191325B (zh) * 2021-05-24 2023-12-12 中国科学院深圳先进技术研究院 一种图像融合方法、系统及其应用
CN113793289B (zh) * 2021-09-10 2023-06-20 海南大学 基于cnn和nsct的多光谱图像和全色图像模糊融合方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971329A (zh) * 2014-05-26 2014-08-06 电子科技大学 一种基于遗传优化细胞神经网络的多源图像融合方法
CN106251320A (zh) * 2016-08-15 2016-12-21 西北大学 基于联合稀疏与结构字典的遥感图像融合方法
CN107240066A (zh) * 2017-04-28 2017-10-10 天津大学 基于浅层和深层卷积神经网络的图像超分辨率重建算法
CN107463948A (zh) * 2017-07-13 2017-12-12 西安电子科技大学 基于双通道多特征融合网络的多光谱图像分类方法
CN108830796A (zh) * 2018-06-20 2018-11-16 重庆大学 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法
AU2018101634A4 (en) * 2018-10-30 2018-12-06 Macau University Of Science And Technology System and method for processing and merging images
CN109064398A (zh) * 2018-07-14 2018-12-21 深圳市唯特视科技有限公司 一种基于残差密集网络的图像超分辨率实现方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10192288B2 (en) * 2016-12-23 2019-01-29 Signal Processing, Inc. Method and system for generating high resolution worldview-3 images
CN109102469B (zh) * 2018-07-04 2021-12-21 华南理工大学 一种基于卷积神经网络的遥感图像全色锐化方法
CN111985543B (zh) * 2020-08-06 2024-05-10 西北大学 一种高光谱图像分类模型的构建方法、分类方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971329A (zh) * 2014-05-26 2014-08-06 电子科技大学 一种基于遗传优化细胞神经网络的多源图像融合方法
CN106251320A (zh) * 2016-08-15 2016-12-21 西北大学 基于联合稀疏与结构字典的遥感图像融合方法
CN107240066A (zh) * 2017-04-28 2017-10-10 天津大学 基于浅层和深层卷积神经网络的图像超分辨率重建算法
CN107463948A (zh) * 2017-07-13 2017-12-12 西安电子科技大学 基于双通道多特征融合网络的多光谱图像分类方法
CN108830796A (zh) * 2018-06-20 2018-11-16 重庆大学 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法
CN109064398A (zh) * 2018-07-14 2018-12-21 深圳市唯特视科技有限公司 一种基于残差密集网络的图像超分辨率实现方法
AU2018101634A4 (en) * 2018-10-30 2018-12-06 Macau University Of Science And Technology System and method for processing and merging images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Deep Residual Learning for Image Recognition;He K.等;《IEEE Conference on Computer Vision & Pattern Recognition》;20161231;第770-778页 *
PanNet: A deep network architecture for pan-sharpening;Yang J.等;《Proceedings of the IEEE International Conference on Computer Vision》;20171225;第5449-5457页 *
Remote Sensing Image Fusion With Deep Convolutional Neural Network;Zhenfeng Shao 等;《IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING》;20180312;第1656-1669页 *

Also Published As

Publication number Publication date
CN109886870A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN109886870B (zh) 基于双通道神经网络的遥感图像融合方法
CN111127374B (zh) 一种基于多尺度密集网络的Pan-sharpening方法
CN110533620B (zh) 基于aae提取空间特征的高光谱和全色图像融合方法
CN112819737B (zh) 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法
CN110119780B (zh) 基于生成对抗网络的高光谱图像超分辨重建方法
CN110363215B (zh) 基于生成式对抗网络的sar图像转化为光学图像的方法
CN106251320B (zh) 基于联合稀疏与结构字典的遥感图像融合方法
CN111080567A (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
CN101794440B (zh) 图像序列的加权自适应超分辨率重建方法
CN103426200B (zh) 基于无人机航拍序列图像的树木三维重建方法
CN103208102A (zh) 一种基于稀疏表示的遥感图像融合方法
CN105205858A (zh) 一种基于单个深度视觉传感器的室内场景三维重建方法
CN105761234A (zh) 一种基于结构稀疏表示的遥感影像融合方法
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN105550989B (zh) 基于非局部高斯过程回归的图像超分辨方法
CN105513033B (zh) 一种非局部联合稀疏表示的超分辨率重建方法
CN113139902A (zh) 一种高光谱图像超分辨率重建方法、装置及电子设备
CN108090872A (zh) 基于梯度提取的单帧多光谱影像超分辨率重建方法及系统
CN104504672B (zh) 基于NormLV特征的低秩稀疏邻域嵌入超分辨方法
CN105894520A (zh) 一种基于高斯混合模型的卫星影像自动云检测方法
CN111462002B (zh) 一种基于卷积神经网络的水下图像增强与复原方法
CN109886898A (zh) 基于优化启发的神经网络的光谱成像系统的成像方法
CN107169946A (zh) 基于非负稀疏矩阵与超球面彩色变换的图像融合方法
CN109064402A (zh) 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法
CN105608678B (zh) 基于稀疏失真模型表示的深度图像空洞修复和去噪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant