CN109767412A - 一种基于深度残差神经网络的遥感影像融合方法及系统 - Google Patents
一种基于深度残差神经网络的遥感影像融合方法及系统 Download PDFInfo
- Publication number
- CN109767412A CN109767412A CN201811623480.1A CN201811623480A CN109767412A CN 109767412 A CN109767412 A CN 109767412A CN 201811623480 A CN201811623480 A CN 201811623480A CN 109767412 A CN109767412 A CN 109767412A
- Authority
- CN
- China
- Prior art keywords
- image
- residual error
- neural network
- depth residual
- error neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于深度残差神经网络的遥感影像融合方法及系统,对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;构建深度残差神经网络,该网络为深度卷积结构,输入深度残差神经网络的全色影像和多光谱影像依次经过多个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构;利用训练样本与随机梯度下降算法对深度残差神经网络进行训练,对于待融合的多光谱影像与全色影像,分别进行相应倍数的下采样后输入到训练好的深度残差神经网络中,得到融合后的具备高空间分辨率的多光谱影像。本发明能综合两种影像各自的关键信息,提高多光谱影像的空间分辨率。
Description
技术领域
本发明属于遥感影像处理领域,涉及一种对遥感影像进行融合的方法及系统。
背景技术
遥感影像是对地观测卫星承载信息的主要形式,它能够充分记录地表物体的电磁波反射特性,因此可以将其用于城市变化检测,自然灾害监控等重要领域。大部分卫星在对地表进行观测时会同时获得该地区的多光谱影像与全色影像,其中多光谱影像记录了地面目标在多个波段下的电磁波反射特性,而全色影像仅记录了地面目标在单个波段下的电磁波反射特性。虽然多光谱影像的光谱分辨率较为理想,然而受限于传感器的物理特性,其空间分辨率不及全色影像。为了恢复出空间分辨率与光谱分辨率均高的理想影像,需要将多光谱与全色影像进行融合。融合后的影像需要同时具备多光谱影像准确的光谱信息以及全色影像丰富的空间细节信息。
遥感影像的融合算法已积淀了丰富的研究历史,大部分算法可被大致分为基于分量替换的融合算法和于多分辨率分析的融合算法。
基于分量替换的融合算法依赖于关键分量的替换。这类算法往往将低空间分辨率的多光谱影像的某一分量替换为全色影像,从而达成提高空间分辨率的目的。同时,这类算法的优势在于其计算简单,运行速度快捷,因此被广泛使用。基于多分辨率分析的融合算法主要利用了一系列多分辨率的分解获得多光谱影像与全色影像在不同空间尺度下的信息,并在分解后的层面上将全色影像的信息注入到多光谱影像中,从而实现多光谱影像空间分辨率的提升。
发明内容
针对遥感影像融合需要实现的效果,本发明提供了一种遥感影像的融合技术方案,可以对多光谱影像与全色影像进行融合。融合后的影像能够兼具多光谱影像的光谱分辨率与全色影像的空间分辨率。为实现上述目的,本发明的技术方案主要包括图像的深度学习技术。在这个技术的支持下,本发明能够对多光谱影像与全色影像进行有效地融合。
本发明技术方案包括一种基于深度残差神经网络的遥感图像融合方法,包括以下步骤:
步骤a,对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;
步骤b,构建深度残差神经网络,所述深度残差神经网络为深度卷积结构,含有m个卷积模块,输入深度残差神经网络的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出深度残差神经网络的相加结果;
步骤c,利用步骤a中生成的训练样本与随机梯度下降算法对深度残差神经网络进行训练;
步骤d,将待融合的多光谱影像与全色影像输入到步骤c中训练好的深度残差神经网络中,即可得到融合后的具备高空间分辨率的多光谱影像。
而且,步骤a中,将原始的低空间分辨率的多光谱影像作为真值,将下采样后的多光谱影像与全色影像作为深度残差神经网络的输入。
而且,m大于等于20。
而且,步骤c中,对深度残差神经网络进行训练时,损失函数为:
其中,x(t)表示第t个输入影像,由高空间分辨率的全色影像与低空间分辨率的多光谱影像在特征维度上叠加而成,y(t)表示第t个具备高空间分辨率的多光谱影像,t=1,2,…,T,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
本发明还提供一种基于深度残差神经网络的遥感图像融合系统,包括以下模块:
第一模块,用于对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;
第二模块,用于构建深度残差神经网络,所述深度残差神经网络为深度卷积结构,含有m个卷积模块,输入深度残差神经网络的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出深度残差神经网络的相加结果;
第三模块,用于利用第一模块中生成的训练样本与随机梯度下降算法对深度残差神经网络进行训练;
第四模块,用于将待融合的多光谱影像与全色影像输入到第三模块中训练好的深度残差神经网络中,即可得到融合后的具备高空间分辨率的多光谱影像。
而且,第一模块中,将原始的低空间分辨率的多光谱影像作为真值,将下采样后的多光谱影像与全色影像作为深度残差神经网络的输入。
而且,m大于等于20。
而且,第三模块中,对深度残差神经网络进行训练时,损失函数为:
其中,x(t)表示第t个输入影像,由高空间分辨率的全色影像与低空间分辨率的多光谱影像在特征维度上叠加而成,y(t)表示第t个具备高空间分辨率的多光谱影像,t=1,2,…,T,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
本发明的优点在于相比于传统融合方法需要手工定义并提取特征用于融合,可以实现自动学习有利于融合的特征。同时,本发明针对全色图像与多光谱图像使用较深的网络提取更深层次的有效特征,并采用残差结构充分保留光谱信息抑制光谱畸变。
附图说明
图1为本发明实施例的原理图;
图2为本发明实施例的深度残差神经网络结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实例并参照附图,对本发明进一步详细说明。
本发明基于目前正在被研究者们高度关注的深度学习,提出了一种新的遥感影像融合网络——深度残差神经网络。该网络主要利用了卷积神经网络(CNNs),并设计了较为深的残差网络以提取更多的有效信息进行融合。深度残差神经网络的主体由多个卷积层与非线性激活层构成,并在网络的输出层加上残差结构,使网络间接学习输入与输出的关系。
本发明的实施例是卫星WorldView-2获取的多光谱与全色影像构成。全色影像的空间分辨率为0.5米,多光谱影像的空间分辨率为2米并具备蓝、绿、红、近红四个波段。因此,将这两种影像融合,可以获得0.5米的多光谱影像,提高影像的解译能力。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。
本发明实施例的遥感影像融合方法包括以下步骤:
步骤a,对多光谱影像与全色影像分别进行一定倍数的下采样,并将它们在特征维上进行叠加,获得训练样本。
由于与全色影像具备一致空间分辨率的多光谱影像不存在,本发明便会将原始多光谱影像作为真值,将下采样后的全色与多光谱影像作为输入来训练网络。以WorldView-2影像为例,原本的融合任务为将0.5米的全色影像与2米的多光谱影像融合为0.5米的多光谱影像。由于网络需要0.5米的多光谱影像作为真值来引导网络训练,而这一影像实际上并不存在,这会使得训练无法进行。为了缓解这一问题,本发明将0.5米的全色影像与2米的多光谱影像均做4倍下采样,获得2米的全色影像与8米的多光谱影像。此时,融合任务变为将2米的全色影像与8米的多光谱影像融合为2米的多光谱影像,此时2米的多光谱影像的真值是存在的,从而使得整个训练流程能够正常进行。
所述特征维上进行叠加,是指如果多光谱图像是四个通道,全色图像是一个通道,在它们的通道数这一维叠加,结果变成5通道。
步骤b,构建用于融合的深度残差神经网络,所述深度残差神经网络含有m个卷积模块,输入的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出的相加结果即融合结果。
不同于现有神经网络通常只有3~4个卷积模块,本发明提出的深度残差神经网络为深度卷积结构,具备大数量的卷积模块,m取值在20或者以上,使用较深的网络提取更深层次的有效特征。
参见图2,每个卷积模块包含卷积与非线性ReLU激活两个部分,依次有卷积Conv_1与非线性ReLU激活ReLU_1、卷积Conv_2与非线性ReLU激活ReLU_2…卷积Conv_m与非线性ReLU激活ReLU_m。两者的计算可一同表示为式(1):
out(j)=max(0,b(j)+∑ik(i)(j)*n(i)) (1)
其中,k(i)(j)是作用于第i个输入特征图in(i)以得到第j个输出特征图out(j)的卷积核,b(j)表示偏置。符号*表示卷积操作。若该层存在M个输入特征图以及N个输出特征图,则该层对于每一个输出特征图,均存在M个大小为d×d的卷积核(d×d为局部感受野的大小)以及一个偏置项。其中,i=1,2,…,M,i=1,2,…,N。具体实施时,可预设d的取值,实施例中设置为3。
如图1中所示,输入影像会经过深度残差神经网络中的m个卷积模块来提取特征。将提取出的特征与输入的多光谱影像部分相加即可输出融合结果。
步骤c,利用步骤a中生成的训练样本与随机梯度下降算法对步骤b构建的深度残差神经网络进行训练,得到训练好的深度残差神经网络。
深度残差神经网络可用于对输入的步骤a所得训练样本进行特征的提取,最后将提取出的特征与输入的低空间分辨率多光谱图像相加以构成残差结构并获得融合后的影像。
随机梯度下降算法为现有技术,其中,实施例设置损失函数为:
其中,x(t)表示第t个输入影像(由高空间分辨率的全色影像与低空间分辨率的多光谱影像在特征维度上叠加而成),y(t)表示第t个具备高空间分辨率的多光谱影像,t=1,2,…,T。设置训练集f表示训练出的深度残差神经网络,因此f(x(t))表示基于深度残差神经网络融合出的结果。T为训练样本数目。Loss为损失值,用以表示当前网络输出与具备高空间分辨率的多光谱影像的差距。
步骤d,对于待融合的全色与多光谱影像,将两者整合输入到步骤c中训练好的深度残差神经网络中,即可得到融合后的高空间分辨率的多光谱影像。
按照与步骤a一致的方式,对待融合的多光谱影像与全色影像分别进行一定倍数的下采样,并将它们在特征维上进行叠加,即可作为测试样本输入深度残差神经网络,深度残差神经网络的输出即所需融合后的高空间分辨率的多光谱影像。
综上所述,本发明提出的基于深度残差神经网络的遥感影像融合方法,首先需要先对训练数据进行预处理获得可供网络正常训练的训练样本。然后将训练样本送入构建的深度残差神经网络对其进行训练。最后,对于其他待融合的全色与多光谱影像,将两者输入到训练好的深度残差神经网络中,即可得到融合后的高空间分辨率的多光谱影像。具体实施时可采用计算机软件技术实现以上流程的自动运行,也可采用模块化方式提供系统。
本发明实施例提供一种基于深度残差神经网络的遥感图像融合系统,包括以下模块:
第一模块,用于对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;
第二模块,用于构建深度残差神经网络,所述深度残差神经网络为深度卷积结构,含有m个卷积模块,输入深度残差神经网络的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出深度残差神经网络的相加结果;
第三模块,用于利用第一模块中生成的训练样本与随机梯度下降算法对深度残差神经网络进行训练;
第四模块,用于对于待融合的多光谱影像与全色影像,分别进行相应倍数的下采样后输入到第三模块中训练好的深度残差神经网络中,即可得到融合后的具备高空间分辨率的多光谱影像。
具体各模块实现可参见相应步骤,本发明不予赘述。
以下通过仿真实验来验证本发明实施例技术方案的有效性。
以WorldView-2卫星的全色影像与多光谱影像为实验对象,为证明本发明方法在遥感影像上的融合效果,本实验采用基于分量替换与基于多分辨率分析的算法进行对比。这些方法是:(1)利用IHS变换进行的影像融合(IHS);(2)利用BDSD方法进行的影像融合(BDSD);(3)利用A Trous小波变换的影像融合(ATWT)。
本实验中用于输入影像特征提取的深度为20,即m=20,除了输入,其他层的参数设置保持一致:32个大小为3×3×32的滤波器,每个滤波器将对32个波段(特征图)中的每一个波段进行空间大小为3×3的滤波。网路的第一层作用于输入影像上,根据输入影像的波段来确定滤波器的个数。在网络的最后一层上设置4个大小为3×3×32的滤波器,获得输出的特征以后与输入影像的多光谱影像部分相加以获得融合后的多光谱影像(4个波段)。
为了更加客观评价本方法(Proposed)相比于其他方法具有的优越性,本发明主要采用SAM,ERGAS,sCC,UIQI等4种常用的遥感影像融合质量评价指标对融合后的影像进行质量评价。其中,SAM将影像中的每个像元的光谱视为一个高维向量,通过计算两向量间的夹角来度量光谱间的相似性,夹角越小,两光谱越相似;sCC能够评价融合结果的空间细节的丰富程度;ERGAS和UIQI能同时评价融合影像在空间和光谱上的质量。sCC和UIQI的值越大,说明融合结果越好;SAM和ERGAS的值越小,说明融合结果越好。
按照所述仿真内容的仿真结果客观评价结果如下:
表1多光谱与全色影像融合客观质量评价结果
融合方法 | SAM | ERGAS | sCC | UIQI |
IHS | 6.9263 | 9.6112 | 0.3989 | 0.6838 |
BDSD | 7.3675 | 10.5782 | 0.3574 | 0.6731 |
ATWT | 6.9031 | 9.0054 | 0.4531 | 0.7275 |
Proposed | 5.3745 | 3.9316 | 0.9474 | 0.8870 |
从融合影像的客观质量评价结果上分析:
表1中本发明的方法在四项指标上均超过对比的三种方法。说明本发明方法得到的融合影像空间信息丰富,并较好地保留了多光谱影像的光谱信息。
Claims (8)
1.一种基于深度残差神经网络的遥感图像融合方法,其特征在于,包括以下步骤:
步骤a,对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;
步骤b,构建深度残差神经网络,所述深度残差神经网络为深度卷积结构,含有m个卷积模块,输入深度残差神经网络的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出深度残差神经网络的相加结果;
步骤c,利用步骤a中生成的训练样本与随机梯度下降算法对深度残差神经网络进行训练;
步骤d,将待融合的多光谱影像与全色影像输入到步骤c中训练好的深度残差神经网络中,即可得到融合后的具备高空间分辨率的多光谱影像。
2.根据权利要求1所述基于深度残差神经网络的遥感图像融合方法,其特征在于:步骤a中,将原始的低空间分辨率的多光谱影像作为真值,将下采样后的多光谱影像与全色影像作为深度残差神经网络的输入。
3.根据权利要求1所述基于深度残差神经网络的遥感图像融合方法,其特征在于:m大于等于20。
4.根据权利要求1或2或3所述的基于深度残差神经网络的遥感图像融合方法,其特征在于:步骤c中,对深度残差神经网络进行训练时,损失函数为:
其中,x(t)表示第t个输入影像,由高空间分辨率的全色影像与低空间分辨率的多光谱影像在特征维度上叠加而成,y(t)表示第t个具备高空间分辨率的多光谱影像,t=1,2,...,T,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
5.一种基于深度残差神经网络的遥感图像融合系统,其特征在于,包括以下模块:
第一模块,用于对全色影像与多光谱影像分别进行相应倍数的下采样,获得训练样本;
第二模块,用于构建深度残差神经网络,所述深度残差神经网络为深度卷积结构,含有m个卷积模块,输入深度残差神经网络的全色影像和多光谱影像依次经过m个卷积模块所得的输出,与输入的多光谱影像相加构成残差结构,输出深度残差神经网络的相加结果;
第三模块,用于利用第一模块中生成的训练样本与随机梯度下降算法对深度残差神经网络进行训练;
第四模块,用于将待融合的多光谱影像与全色影像输入到第三模块中训练好的深度残差神经网络中,即可得到融合后的具备高空间分辨率的多光谱影像。
6.根据权利要求5所述基于深度残差神经网络的遥感图像融合系统,其特征在于:第一模块中,将原始的低空间分辨率的多光谱影像作为真值,将下采样后的多光谱影像与全色影像作为深度残差神经网络的输入。
7.根据权利要求5所述基于深度残差神经网络的遥感图像融合系统,其特征在于:m大于等于20。
8.根据权利要求5或6或7所述的基于深度残差神经网络的遥感图像融合系统,其特征在于:第三模块中,对深度残差神经网络进行训练时,损失函数为:
其中,x(t)表示第t个输入影像,由高空间分辨率的全色影像与低空间分辨率的多光谱影像在特征维度上叠加而成,y(t)表示第t个具备高空间分辨率的多光谱影像,t=1,2,...,T,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811623480.1A CN109767412A (zh) | 2018-12-28 | 2018-12-28 | 一种基于深度残差神经网络的遥感影像融合方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811623480.1A CN109767412A (zh) | 2018-12-28 | 2018-12-28 | 一种基于深度残差神经网络的遥感影像融合方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109767412A true CN109767412A (zh) | 2019-05-17 |
Family
ID=66450461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811623480.1A Pending CN109767412A (zh) | 2018-12-28 | 2018-12-28 | 一种基于深度残差神经网络的遥感影像融合方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109767412A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415199A (zh) * | 2019-07-26 | 2019-11-05 | 河海大学 | 基于残差学习的多光谱遥感图像融合方法及装置 |
CN110930315A (zh) * | 2019-10-23 | 2020-03-27 | 西北工业大学 | 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法 |
CN111091532A (zh) * | 2019-10-30 | 2020-05-01 | 中国资源卫星应用中心 | 一种基于多层感知机的遥感影像色彩评价方法和系统 |
CN111340080A (zh) * | 2020-02-19 | 2020-06-26 | 济南大学 | 一种基于互补卷积特征的高分辨率遥感影像融合方法及系统 |
CN111353424A (zh) * | 2020-02-27 | 2020-06-30 | 中国科学院遥感与数字地球研究所 | 深度递归残差网络的遥感图像空谱融合方法和电子设备 |
CN111583166A (zh) * | 2019-12-24 | 2020-08-25 | 珠海大横琴科技发展有限公司 | 一种影像融合网络模型构建及训练方法、装置 |
CN111784584A (zh) * | 2020-07-14 | 2020-10-16 | 云南电网有限责任公司昆明供电局 | 一种基于深度学习的绝缘子遥感影像超分辨率方法 |
CN112184554A (zh) * | 2020-10-13 | 2021-01-05 | 重庆邮电大学 | 一种基于残差混合膨胀卷积的遥感图像融合方法 |
CN112508082A (zh) * | 2020-12-02 | 2021-03-16 | 武汉大学 | 一种非监督学习的遥感影像空谱融合方法及系统 |
CN113066037A (zh) * | 2021-03-31 | 2021-07-02 | 山东师范大学 | 基于图注意力机制的多光谱与全色图像融合方法及系统 |
CN113191993A (zh) * | 2021-04-20 | 2021-07-30 | 山东师范大学 | 基于深度学习的全色与多光谱图像融合方法 |
CN113689343A (zh) * | 2021-03-31 | 2021-11-23 | 西安理工大学 | 一种Resnet计算Veil的单幅图像去雾方法 |
CN113689370A (zh) * | 2021-07-27 | 2021-11-23 | 南京信息工程大学 | 基于深度卷积神经网络的遥感图像融合方法 |
CN114240814A (zh) * | 2021-12-19 | 2022-03-25 | 西北工业大学 | 基于金字塔调制注入的多光谱与全色遥感影像融合方法 |
CN115471437A (zh) * | 2022-11-14 | 2022-12-13 | 中国测绘科学研究院 | 一种基于卷积神经网络的影像融合方法以及遥感影像融合方法 |
CN117765361A (zh) * | 2023-12-26 | 2024-03-26 | 西安电子科技大学 | 一种基于残差神经网络检测双时相遥感影像中建筑物变化区域的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104112263A (zh) * | 2014-06-28 | 2014-10-22 | 南京理工大学 | 基于深度神经网络的全色图像与多光谱图像融合的方法 |
CN104616261A (zh) * | 2015-02-09 | 2015-05-13 | 内蒙古科技大学 | 一种基于光谱特性的Shearlet域多光谱与全色图像融合方法 |
CN107832797A (zh) * | 2017-11-17 | 2018-03-23 | 西安电子科技大学 | 基于深度融合残差网的多光谱图像分类方法 |
-
2018
- 2018-12-28 CN CN201811623480.1A patent/CN109767412A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104112263A (zh) * | 2014-06-28 | 2014-10-22 | 南京理工大学 | 基于深度神经网络的全色图像与多光谱图像融合的方法 |
CN104616261A (zh) * | 2015-02-09 | 2015-05-13 | 内蒙古科技大学 | 一种基于光谱特性的Shearlet域多光谱与全色图像融合方法 |
CN107832797A (zh) * | 2017-11-17 | 2018-03-23 | 西安电子科技大学 | 基于深度融合残差网的多光谱图像分类方法 |
Non-Patent Citations (3)
Title |
---|
YANCONG WEI 等: "Boosting The Accuracy of Multi-Spectral Image Pan-sharpening By Learning A Deep Residual Network", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》 * |
YIZHOU RAO 等: "A Residual Convolutional Neural Network for Pan-Shaprening", 《2017 INTERNATIONAL WORKSHOP ON REMOTE SENSING WITH INTELLIGENT PROCESSING(RSIP)》 * |
薛洋 等: "基于卷积神经网络超分辨率重建的遥感图像融合", 《广西师范大学学报(自然科学版)》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415199A (zh) * | 2019-07-26 | 2019-11-05 | 河海大学 | 基于残差学习的多光谱遥感图像融合方法及装置 |
CN110930315A (zh) * | 2019-10-23 | 2020-03-27 | 西北工业大学 | 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法 |
CN110930315B (zh) * | 2019-10-23 | 2022-02-11 | 西北工业大学 | 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法 |
CN111091532A (zh) * | 2019-10-30 | 2020-05-01 | 中国资源卫星应用中心 | 一种基于多层感知机的遥感影像色彩评价方法和系统 |
CN111583166A (zh) * | 2019-12-24 | 2020-08-25 | 珠海大横琴科技发展有限公司 | 一种影像融合网络模型构建及训练方法、装置 |
CN111340080A (zh) * | 2020-02-19 | 2020-06-26 | 济南大学 | 一种基于互补卷积特征的高分辨率遥感影像融合方法及系统 |
CN111340080B (zh) * | 2020-02-19 | 2024-03-29 | 济南大学 | 一种基于互补卷积特征的高分辨率遥感影像融合方法及系统 |
CN111353424A (zh) * | 2020-02-27 | 2020-06-30 | 中国科学院遥感与数字地球研究所 | 深度递归残差网络的遥感图像空谱融合方法和电子设备 |
CN111353424B (zh) * | 2020-02-27 | 2023-06-09 | 中国科学院遥感与数字地球研究所 | 深度递归残差网络的遥感图像空谱融合方法和电子设备 |
CN111784584A (zh) * | 2020-07-14 | 2020-10-16 | 云南电网有限责任公司昆明供电局 | 一种基于深度学习的绝缘子遥感影像超分辨率方法 |
CN111784584B (zh) * | 2020-07-14 | 2023-08-01 | 云南电网有限责任公司昆明供电局 | 一种基于深度学习的绝缘子遥感影像超分辨率方法 |
CN112184554A (zh) * | 2020-10-13 | 2021-01-05 | 重庆邮电大学 | 一种基于残差混合膨胀卷积的遥感图像融合方法 |
CN112184554B (zh) * | 2020-10-13 | 2022-08-23 | 重庆邮电大学 | 一种基于残差混合膨胀卷积的遥感图像融合方法 |
CN112508082A (zh) * | 2020-12-02 | 2021-03-16 | 武汉大学 | 一种非监督学习的遥感影像空谱融合方法及系统 |
CN113066037A (zh) * | 2021-03-31 | 2021-07-02 | 山东师范大学 | 基于图注意力机制的多光谱与全色图像融合方法及系统 |
CN113689343A (zh) * | 2021-03-31 | 2021-11-23 | 西安理工大学 | 一种Resnet计算Veil的单幅图像去雾方法 |
CN113066037B (zh) * | 2021-03-31 | 2022-08-02 | 山东师范大学 | 基于图注意力机制的多光谱与全色图像融合方法及系统 |
CN113191993A (zh) * | 2021-04-20 | 2021-07-30 | 山东师范大学 | 基于深度学习的全色与多光谱图像融合方法 |
CN113191993B (zh) * | 2021-04-20 | 2022-11-04 | 山东师范大学 | 基于深度学习的全色与多光谱图像融合方法 |
CN113689370A (zh) * | 2021-07-27 | 2021-11-23 | 南京信息工程大学 | 基于深度卷积神经网络的遥感图像融合方法 |
CN114240814B (zh) * | 2021-12-19 | 2024-02-23 | 西北工业大学 | 基于金字塔调制注入的多光谱与全色遥感影像融合方法 |
CN114240814A (zh) * | 2021-12-19 | 2022-03-25 | 西北工业大学 | 基于金字塔调制注入的多光谱与全色遥感影像融合方法 |
CN115471437A (zh) * | 2022-11-14 | 2022-12-13 | 中国测绘科学研究院 | 一种基于卷积神经网络的影像融合方法以及遥感影像融合方法 |
CN117765361A (zh) * | 2023-12-26 | 2024-03-26 | 西安电子科技大学 | 一种基于残差神经网络检测双时相遥感影像中建筑物变化区域的方法 |
CN117765361B (zh) * | 2023-12-26 | 2024-06-11 | 西安电子科技大学 | 一种基于残差神经网络检测双时相遥感影像中建筑物变化区域的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109767412A (zh) | 一种基于深度残差神经网络的遥感影像融合方法及系统 | |
He et al. | HyperPNN: Hyperspectral pansharpening via spectrally predictive convolutional neural networks | |
Song et al. | Spatiotemporal satellite image fusion using deep convolutional neural networks | |
CN109146831A (zh) | 基于双支深度学习网络的遥感图像融合方法及系统 | |
CN108537742B (zh) | 一种基于生成对抗网络的遥感图像全色锐化方法 | |
CN110321963B (zh) | 基于融合多尺度多维空谱特征的高光谱图像分类方法 | |
CN104008538B (zh) | 基于单张图像超分辨率方法 | |
Hu et al. | Pan-sharpening via multiscale dynamic convolutional neural network | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN111127374A (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN109272487A (zh) | 一种基于视频的公共区域内人群的数量统计方法 | |
CN110111346B (zh) | 基于视差信息的遥感图像语义分割方法 | |
Dai et al. | A remote sensing spatiotemporal fusion model of landsat and modis data via deep learning | |
CN110490894A (zh) | 基于改进的低秩稀疏分解的视频前背景分离方法 | |
CN116091833A (zh) | 注意力与Transformer高光谱图像分类方法及系统 | |
Lou et al. | Preliminary investigation on single remote sensing image inpainting through a modified GAN | |
Farooq et al. | Transferable convolutional neural network for weed mapping with multisensor imagery | |
Hu et al. | Hyperspectral image super-resolution based on multiscale mixed attention network fusion | |
Chattaraj et al. | Semi-automated object-based landform classification modelling in a part of the Deccan Plateau of central India | |
CN104951800A (zh) | 一种面向资源开采型地区的遥感影像融合方法 | |
Andersson et al. | Combining street-level and aerial images for dengue incidence rate estimation | |
Wang et al. | Convolution-embedded vision transformer with elastic positional encoding for pansharpening | |
CN108764287B (zh) | 基于深度学习和分组卷积的目标检测方法及系统 | |
CN114663777A (zh) | 基于时空联合图注意机制的高光谱影像变化检测方法 | |
Guo et al. | Blind single-image-based thin cloud removal using a cloud perception integrated fast Fourier convolutional network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190517 |