CN113887645A - 一种基于联合注意力孪生网络的遥感图像融合分类方法 - Google Patents
一种基于联合注意力孪生网络的遥感图像融合分类方法 Download PDFInfo
- Publication number
- CN113887645A CN113887645A CN202111190676.8A CN202111190676A CN113887645A CN 113887645 A CN113887645 A CN 113887645A CN 202111190676 A CN202111190676 A CN 202111190676A CN 113887645 A CN113887645 A CN 113887645A
- Authority
- CN
- China
- Prior art keywords
- attention
- image
- output
- net
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000001228 spectrum Methods 0.000 claims abstract description 17
- 230000000694 effects Effects 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000003595 spectral effect Effects 0.000 claims description 34
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 9
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 230000007774 longterm Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于联合注意力孪生网络的遥感图像融合分类方法,包括以下步骤:将高光谱和多光谱图像作为数据集进行处理;构建孪生网络模块,提取高光谱和多光谱图像的共性特征;将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维;添加自注意力模块进行加权操作;将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块;将两部分多层卷积网络提取出的高光谱和多光谱图像特征进行融合,通过全连接层进行分类,获取遥感图像的分类结果。本发明的方法,可以有效提取高光谱和多光谱图像的共性特征,而且通过联合注意力模块使得图像各自的光谱和空间信息得到增强,进而提高融合分类效果。
Description
技术领域
本发明属于遥感图像分类应用,涉及一种基于联合注意力孪生网络的遥感图像融合分类方法。
背景技术
遥感图像分类是指基于不同遥感图像的分类识别任务,是遥感领域的关键组成部分,被广泛应用于自然灾害预防、城乡规划等领域。现阶段遥感领域发展迅猛,多传感器并存,为遥感行业的发展提供了有力的保障。
光学遥感影像具有分辨率高、覆盖范围广和成本低等优点,利用遥感影像进行地物分类多基于光学影像,但当前的遥感应用大多基于单一数据源,未能充分利用多源传感器的综合信息。同一场景的多源遥感图像所观测的地物类型相同,但由于传感器不同,成像机制和物理含义不同,多源信息间存在差异性、冗余性、互补性和协作性,多源遥感图像的融合能够综合利用不同来源获取的地物信息,做到更全面、更具针对性的对地观测,因此多源遥感图像的融合成为遥感图像分类的热点发展方向之一。
由于存在上述问题,针对多源遥感图像融合分类依据提出一些算法,但是效果仍没有达到最佳,性能提升空间很大,因此多源遥感图像融合分类问题依然有很大的研究价值。
发明内容
针对上述技术问题,本发明提供一种基于联合注意力孪生网络的遥感图像融合分类方法,不仅可以有效提取高光谱和多光谱图像的共性特征,而且通过联合注意力模块使得图像各自的光谱和空间信息得到增强,进而提高融合分类效果。
为实现上述目的,本发明采用的技术方案为:
步骤一、将同一区域的高光谱图像和多光谱图像作为数据集进行处理,并划分训练集、测试集和验证集:
步骤101、对多光谱遥感图像和高光谱遥感图像进行配准和标注,并将配准好的图像和标注图像的像素点划分为k×k的像素块大小,利用中心点相邻的像素点特征信息来增强判别能力;
步骤102、对划分好的像素块进行随机分割,构建训练集、测试集和验证集,输入到孪生网络模块;
步骤二、构建孪生网络模块,提取高光谱图像和多光谱图像的共性特征:
步骤201、构建卷积神经网络ResNet-101,包括五个卷积模块,分别为Conv1-x、Conv2-x、Conv3-x、Conv4-x、Conv5-x;
步骤202、采用双分支ResNet-101网络作为孪生网络,分别对高光谱图像和多光谱图像进行特征提取,生成局部特征Fh和Fm,特征提取器之间共享参数,使得模型能够获得更一致的特征图对,并且模型的网络参数也极大减少;
步骤三、将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维:
步骤301、构建卷积神经网络作为联合注意力模块,共包含两部分多层卷积网络H-Net和M-Net,每部分均由两分支三层卷积网络组成,分别为光谱注意力分支和空间注意力分支;
步骤302、Fh作为H-Net的输入,用于实现高光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1-h、Conv2-h、Conv3-h三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Ch1、Ch2、Ch3和Sh1、Sh2、Sh3;
步骤303、Fm作为M-Net的输入,用于实现多光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_m、Conv2_m、Conv3_m三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Cm1、Cm2、Cm3和Sm1、Sm2、Sm3;
步骤四、添加自注意力模块进行加权操作,使网络更多关注有效信息:
步骤401、将H-Net中空间注意力分支第一个卷积层的输出Sh1作为空间注意力模块的输入,其中C为通道数,H为图像像素高度,W为图像像素宽度,通过三个卷积层得到三个新的特征Qh1、Kh1和Vh1,将维度转化为其中N=H×W,N为像素数,在Kh1和Qh1之间进行矩阵乘法,并通过softmax层得到空间注意力图H1,
步骤402、在Vh1和H1之间进行矩阵乘法,通过尺度β进行加权,并与输入Sh1相加,得到最终的空间注意力特征:
其中xji表示通道i对通道j的影响,β被初始化为0,并可逐渐学习,E可以描述长期的相关性并增强特征的可辨别性;
步骤404、将H1'与Ch1进行矩阵相乘,将维度转化后,通过尺度α进行加权,并与输入Ch1相加,得到最终的光谱注意力特征;
其中xji表示通道i对通道j的影响,α被初始化为0,并可逐渐学习,E包含所有通道特征的加权和,可以描述长期的相关性并增强特征的可辨别性;
步骤405、在H-Net和M-Net的每一个卷积层后添加自注意力模块,将空间注意力分支中各卷积层的输出作为空间自注意力模块的输入,同步骤401和步骤402;光谱注意力分支中各卷积层的输出作为光谱自注意力模块的输入,同步骤403和步骤404;
步骤406、将步骤405中每个自注意力模块的输出与该模块的输入相乘,得到注意力加权后的增强特征,并作为下一个卷积层的输入,逐层递进,分别得到H-Net两分支的输出Sh3'和Ch3'、M-Net两分支的输出Sm3'和Cm3',输出特征将高光谱和多光谱中丰富的光谱特征和空间特征提取出来,并过滤了冗余特征,使特征更加突出;
步骤五、将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块,进一步增强特征的表达能力:
步骤501、将H-Net两分支的输出Sh3'和Ch3'相加,得到输出特征Fh1,融合了高光谱的光谱增强特征和空间增强特征,M-Net两分支的输出Sm3'和Cm3'相加,得到M-Net的输出特征Fm1,融合了多光谱的光谱增强特征和空间增强特征;
步骤502、在H-Net中,将光谱注意力分支第三个注意力模块的输出与空间注意力分支第三个卷积层的输出Sh3逐元素相乘,得到融合高光谱图像光谱特征和空间特征的互注意力特征Fh2;
步骤六、将两部分多层卷积网络H-Net和M-Net提取出的高光谱和多光谱图像特征进行融合,并通过全连接层进行分类,以获取遥感图像的分类结果:
步骤601、将步骤五得到的自注意力融合特征Fh1、Fm1和互注意力融合特征Fh2均转化为二维矩阵,并进行拼接;
步骤602、将步骤601输出的拼接特征输入到全连接层进行分类,将全连接层的通道数设置为与遥感图像分类类别M相等,由此可得到图像各个类别的得分,得分最高的类别即为预测的结果。
本发明提供的基于联合注意力孪生网络的遥感图像融合分类方法,与现有技术相比,具有以下特点:
(1)由于本发明采用孪生网络结构,具有两个权值共享的子网络,可以提取高光谱图像和多光谱图像的共性特征,提高了模型的泛化能力。
(2)由于本发明引入自注意力模块和互注意力模块,用于提取遥感图像的光谱特征和空间特征,使模型能够充分利用多源遥感图像的有效信息,从而使模型更具判断力,增强特征的表达能力。
(3)由于本发明采用深度残差网络作为孪生网络的子网络,使模型能够很好的提取局部特征并消除梯度消失问题,有助于提高模型的性能。
附图说明
图1为本发明的流程框图;
具体实施方式
下面结合附图及本发明的实施对本发明的方法作进一步的详细的说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1表示的是一种基于联合注意力孪生网络的遥感图像融合分类方法流程图。
如图1所示,以高光谱图像和多光谱图像数据集作为输入,说明本发明的合理性与有效性,包含具体步骤如下:
步骤一、将同一区域的高光谱图像和多光谱图像作为数据集进行处理,并划分训练集、测试集和验证集:
步骤101、对多光谱遥感图像和高光谱遥感图像进行配准和标注,并将配准好的图像和标注图像的像素点划分为k×k的像素块大小,利用中心点相邻的像素点特征信息来增强判别能力;
步骤102、对划分好的像素块进行随机分割,构建训练集、测试集和验证集,输入到孪生网络模块;
步骤二、构建孪生网络模块,提取高光谱图像和多光谱图像的共性特征:
步骤201、构建卷积神经网络ResNet-101,包括五个卷积模块,分别为Conv1_x、Conv2_x、Conv3_x、Conv4_x、Conv5_x;
步骤202、采用双分支ResNet-101网络作为孪生网络,分别对高光谱图像和多光谱图像进行特征提取,生成局部特征Fh和Fm,特征提取器之间共享参数,使得模型能够获得更一致的特征图对,并且模型的网络参数也极大减少;
步骤三、将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维:
步骤301、构建卷积神经网络作为联合注意力模块,共包含两部分多层卷积网络H-Net和M-Net,每部分均由两分支三层卷积网络组成,分别为光谱注意力分支和空间注意力分支;
步骤302、Fh作为H-Net的输入,用于实现高光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_h、Conv2_h、Conv3_h三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Ch1、Ch2、Ch3和Sh1、Sh2、Sh3;
步骤303、Fm作为M-Net的输入,用于实现多光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_m、Conv2_m、Conv3_m三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Cm1、Cm2、Cm3和Sm1、Sm2、Sm3;
步骤四、添加自注意力模块进行加权操作,使网络更多关注有效信息:
步骤401、将H-Net中空间注意力分支第一个卷积层的输出Sh1作为空间注意力模块的输入,其中C为通道数,H为图像像素高度,W为图像像素宽度,通过三个卷积层得到三个新的特征Qh1、Kh1和Vh1,将维度转化为其中N=H×W,N为像素数,在Kh1和Qh1之间进行矩阵乘法,并通过softmax层得到空间注意力图H1,
步骤402、在Vh1和H1之间进行矩阵乘法,通过尺度β进行加权,并与输入Sh1相加,得到最终的空间注意力特征:
其中xji表示通道i对通道j的影响,β被初始化为0,并可逐渐学习,E可以描述长期的相关性并增强特征的可辨别性;
步骤404、将H1'与Ch1进行矩阵相乘,将维度转化后,通过尺度α进行加权,并与输入Ch1相加,得到最终的光谱注意力特征;
其中xji表示通道i对通道j的影响,α被初始化为0,并可逐渐学习,E包含所有通道特征的加权和,可以描述长期的相关性并增强特征的可辨别性;
步骤405、在H-Net和M-Net的每一个卷积层后添加自注意力模块,将空间注意力分支中各卷积层的输出作为空间自注意力模块的输入,同步骤401和步骤402;光谱注意力分支中各卷积层的输出作为光谱自注意力模块的输入,同步骤403和步骤404;
步骤406、将步骤405中每个自注意力模块的输出与该模块的输入相乘,得到注意力加权后的增强特征,并作为下一个卷积层的输入,逐层递进,分别得到H-Net两分支的输出Sh3'和Ch3'、M-Net两分支的输出Sm3'和Cm3',输出特征将高光谱和多光谱中丰富的光谱特征和空间特征提取出来,并过滤了冗余特征,使特征更加突出;
步骤五、将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块,进一步增强特征的表达能力:
步骤501、将H-Net两分支的输出Sh3'和Ch3'相加,得到输出特征Fh1,融合了高光谱的光谱增强特征和空间增强特征,M-Net两分支的输出Sm3'和Cm3'相加,得到M-Net的输出特征Fm1,融合了多光谱的光谱增强特征和空间增强特征;
步骤502、在H-Net中,将光谱注意力分支第三个注意力模块的输出与空间注意力分支第三个卷积层的输出Sh3逐元素相乘,得到融合高光谱图像光谱特征和空间特征的互注意力特征Fh2;
步骤六、将两部分多层卷积网络H-Net和M-Net提取出的高光谱和多光谱图像特征进行融合,并通过全连接层进行分类,以获取遥感图像的分类结果:
步骤601、将步骤五得到的自注意力融合特征Fh1、Fm1和互注意力融合特征Fh2均转化为二维矩阵,并进行拼接;
步骤602、将步骤601输出的拼接特征输入到全连接层进行分类,将全连接层的通道数设置为与遥感图像分类类别M相等,由此可得到图像各个类别的得分,得分最高的类别即为预测的结果。
Claims (1)
1.一种基于联合注意力孪生网络的遥感图像融合分类方法,其特征在于,包括以下步骤:
步骤一、将同一区域的高光谱图像和多光谱图像作为数据集进行处理,并划分训练集、测试集和验证集:
步骤101、对多光谱遥感图像和高光谱遥感图像进行配准和标注,并将配准好的图像和标注图像的像素点划分为k×k的像素块大小,利用中心点相邻的像素点特征信息来增强判别能力;
步骤102、对划分好的像素块进行随机分割,构建训练集、测试集和验证集,输入到孪生网络模块;
步骤二、构建孪生网络模块,提取高光谱图像和多光谱图像的共性特征:
步骤201、构建卷积神经网络ResNet-101,包括五个卷积模块,分别为Conv1-x、Conv2-x、Conv3-x、Conv4-x、Conv5-x;
步骤202、采用双分支ResNet-101网络作为孪生网络,分别对高光谱图像和多光谱图像进行特征提取,生成局部特征Fh和Fm,特征提取器之间共享参数,使得模型能够获得更一致的特征图对,并且模型的网络参数也极大减少;
步骤三、将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维:
步骤301、构建卷积神经网络作为联合注意力模块,共包含两部分多层卷积网络H-Net和M-Net,每部分均由两分支三层卷积网络组成,分别为光谱注意力分支和空间注意力分支;
步骤302、Fh作为H-Net的输入,用于实现高光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1-h、Conv2-h、Conv3-h三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Ch1、Ch2、Ch3和Sh1、Sh2、Sh3;
步骤303、Fm作为M-Net的输入,用于实现多光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_m、Conv2_m、Conv3_m三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Cm1、Cm2、Cm3和Sm1、Sm2、Sm3;
步骤四、添加自注意力模块进行加权操作,使网络更多关注有效信息:
步骤401、将H-Net中空间注意力分支第一个卷积层的输出Sh1作为空间注意力模块的输入,其中C为通道数,H为图像像素高度,W为图像像素宽度,通过三个卷积层得到三个新的特征Qh1、Kh1和Vh1,将维度转化为其中N=H×W,N为像素数,在Kh1和Qh1之间进行矩阵乘法,并通过softmax层得到空间注意力图H1,
步骤402、在Vh1和H1之间进行矩阵乘法,通过尺度β进行加权,并与输入Sh1相加,得到最终的空间注意力特征:
其中xji表示通道i对通道j的影响,β被初始化为0,并可逐渐学习,E可以描述长期的相关性并增强特征的可辨别性;
步骤404、将H1'与Ch1进行矩阵相乘,将维度转化后,通过尺度α进行加权,并与输入Ch1相加,得到最终的光谱注意力特征;
其中xji表示通道i对通道j的影响,α被初始化为0,并可逐渐学习,E包含所有通道特征的加权和,可以描述长期的相关性并增强特征的可辨别性;
步骤405、在H-Net和M-Net的每一个卷积层后添加自注意力模块,将空间注意力分支中各卷积层的输出作为空间自注意力模块的输入,同步骤401和步骤402;光谱注意力分支中各卷积层的输出作为光谱自注意力模块的输入,同步骤403和步骤404;
步骤406、将步骤405中每个自注意力模块的输出与该模块的输入相乘,得到注意力加权后的增强特征,并作为下一个卷积层的输入,逐层递进,分别得到H-Net两分支的输出Sh3'和Ch3'、M-Net两分支的输出Sm3'和Cm3',输出特征将高光谱和多光谱中丰富的光谱特征和空间特征提取出来,并过滤了冗余特征,使特征更加突出;
步骤五、将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块,进一步增强特征的表达能力:
步骤501、将H-Net两分支的输出Sh3'和Ch3'相加,得到输出特征Fh1,融合了高光谱的光谱增强特征和空间增强特征,M-Net两分支的输出Sm3'和Cm3'相加,得到M-Net的输出特征Fm1,融合了多光谱的光谱增强特征和空间增强特征;
步骤502、在H-Net中,将光谱注意力分支第三个注意力模块的输出与空间注意力分支第三个卷积层的输出Sh3逐元素相乘,得到融合高光谱图像光谱特征和空间特征的互注意力特征Fh2;
步骤六、将两部分多层卷积网络H-Net和M-Net提取出的高光谱和多光谱图像特征进行融合,并通过全连接层进行分类,以获取遥感图像的分类结果:
步骤601、将步骤五得到的自注意力融合特征Fh1、Fm1和互注意力融合特征Fh2均转化为二维矩阵,并进行拼接;
步骤602、将步骤601输出的拼接特征输入到全连接层进行分类,将全连接层的通道数设置为与遥感图像分类类别M相等,由此可得到图像各个类别的得分,得分最高的类别即为预测的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111190676.8A CN113887645B (zh) | 2021-10-13 | 2021-10-13 | 一种基于联合注意力孪生网络的遥感图像融合分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111190676.8A CN113887645B (zh) | 2021-10-13 | 2021-10-13 | 一种基于联合注意力孪生网络的遥感图像融合分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113887645A true CN113887645A (zh) | 2022-01-04 |
CN113887645B CN113887645B (zh) | 2024-02-13 |
Family
ID=79002513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111190676.8A Active CN113887645B (zh) | 2021-10-13 | 2021-10-13 | 一种基于联合注意力孪生网络的遥感图像融合分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113887645B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114863173A (zh) * | 2022-05-06 | 2022-08-05 | 南京审计大学 | 一种面向土地资源审计的自互注意力高光谱图像分类方法 |
CN115984635A (zh) * | 2023-03-21 | 2023-04-18 | 自然资源部第一海洋研究所 | 多源遥感数据分类模型训练方法、分类方法和电子设备 |
CN116189021A (zh) * | 2023-02-27 | 2023-05-30 | 中国人民解放军国防科技大学 | 多分支互交叉注意力增强的无人机多光谱目标检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667489A (zh) * | 2020-04-30 | 2020-09-15 | 华东师范大学 | 基于双分支注意力深度学习的癌症高光谱图像分割方法及系统 |
KR102197297B1 (ko) * | 2019-09-27 | 2020-12-31 | 서울대학교산학협력단 | 순환형 3차원 완전 합성곱망을 활용한 초분광영상의 변화탐지 방법 |
CN112200090A (zh) * | 2020-10-12 | 2021-01-08 | 桂林电子科技大学 | 基于交叉分组空谱特征增强网络的高光谱图像分类方法 |
WO2021012752A1 (zh) * | 2019-07-23 | 2021-01-28 | 中建三局智能技术有限公司 | 一种基于脉冲神经网络的短程跟踪方法及系统 |
CN113255727A (zh) * | 2021-04-25 | 2021-08-13 | 辽宁师范大学 | 可分层密集融合网络的多传感器遥感影像融合分类方法 |
CN113420838A (zh) * | 2021-08-20 | 2021-09-21 | 中国科学院空天信息创新研究院 | 基于多尺度注意力特征融合的sar与光学图像分类方法 |
CN113420798A (zh) * | 2021-06-09 | 2021-09-21 | 中国石油大学(华东) | 基于孪生光谱注意力一致性的高光谱图像分类 |
-
2021
- 2021-10-13 CN CN202111190676.8A patent/CN113887645B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021012752A1 (zh) * | 2019-07-23 | 2021-01-28 | 中建三局智能技术有限公司 | 一种基于脉冲神经网络的短程跟踪方法及系统 |
KR102197297B1 (ko) * | 2019-09-27 | 2020-12-31 | 서울대학교산학협력단 | 순환형 3차원 완전 합성곱망을 활용한 초분광영상의 변화탐지 방법 |
CN111667489A (zh) * | 2020-04-30 | 2020-09-15 | 华东师范大学 | 基于双分支注意力深度学习的癌症高光谱图像分割方法及系统 |
CN112200090A (zh) * | 2020-10-12 | 2021-01-08 | 桂林电子科技大学 | 基于交叉分组空谱特征增强网络的高光谱图像分类方法 |
CN113255727A (zh) * | 2021-04-25 | 2021-08-13 | 辽宁师范大学 | 可分层密集融合网络的多传感器遥感影像融合分类方法 |
CN113420798A (zh) * | 2021-06-09 | 2021-09-21 | 中国石油大学(华东) | 基于孪生光谱注意力一致性的高光谱图像分类 |
CN113420838A (zh) * | 2021-08-20 | 2021-09-21 | 中国科学院空天信息创新研究院 | 基于多尺度注意力特征融合的sar与光学图像分类方法 |
Non-Patent Citations (3)
Title |
---|
刘帅;张旭含;李笑迎;田野;: "基于双分支卷积网络的高光谱与多光谱图像协同土地利用分类", 农业工程学报, no. 14 * |
杨康;宋慧慧;张开华;: "基于双重注意力孪生网络的实时视觉跟踪", 计算机应用, no. 06 * |
石祥滨;钟健;刘翠微;刘芳;张德园;: "小样本高光谱遥感图像深度学习方法", 系统仿真学报, no. 07 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114863173A (zh) * | 2022-05-06 | 2022-08-05 | 南京审计大学 | 一种面向土地资源审计的自互注意力高光谱图像分类方法 |
CN116189021A (zh) * | 2023-02-27 | 2023-05-30 | 中国人民解放军国防科技大学 | 多分支互交叉注意力增强的无人机多光谱目标检测方法 |
CN116189021B (zh) * | 2023-02-27 | 2024-04-09 | 中国人民解放军国防科技大学 | 多分支互交叉注意力增强的无人机多光谱目标检测方法 |
CN115984635A (zh) * | 2023-03-21 | 2023-04-18 | 自然资源部第一海洋研究所 | 多源遥感数据分类模型训练方法、分类方法和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113887645B (zh) | 2024-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113887645B (zh) | 一种基于联合注意力孪生网络的遥感图像融合分类方法 | |
Zhao et al. | Efficient and model-based infrared and visible image fusion via algorithm unrolling | |
Zhou et al. | Pyramid fully convolutional network for hyperspectral and multispectral image fusion | |
Cui et al. | LiteDepthwiseNet: A lightweight network for hyperspectral image classification | |
Fu et al. | Joint camera spectral response selection and hyperspectral image recovery | |
Deng et al. | PSRT: Pyramid shuffle-and-reshuffle transformer for multispectral and hyperspectral image fusion | |
Feng et al. | Mosaic convolution-attention network for demosaicing multispectral filter array images | |
CN110544212B (zh) | 基于层级特征融合的卷积神经网络高光谱图像锐化方法 | |
Yan et al. | When pansharpening meets graph convolution network and knowledge distillation | |
CN115018750B (zh) | 中波红外高光谱及多光谱图像融合方法、系统及介质 | |
CN114998167B (zh) | 一种基于空间-光谱联合低秩的高光谱与多光谱图像融合方法 | |
CN114863173B (zh) | 一种面向土地资源审计的自互注意力高光谱图像分类方法 | |
Fu et al. | Hyperspectral imaging from a raw mosaic image with end-to-end learning | |
CN116128735B (zh) | 基于密集连接残差网络的多光谱图像去马赛克结构及方法 | |
Li et al. | ConvTransNet: A CNN-transformer network for change detection with multi-scale global-local representations | |
Zhang et al. | Semi-supervised multi-spectral land cover classification with multi-attention and adaptive kernel | |
He et al. | Two-branch pure transformer for hyperspectral image classification | |
CN110648332B (zh) | 基于多分支卷积神经网络特征正交的图像可判别区域提取方法 | |
Wu et al. | CTFNet: CNN-Transformer Fusion Network for Remote Sensing Image Semantic Segmentation | |
CN116563187A (zh) | 一种基于图神经网络的多光谱图像融合 | |
Mu et al. | A two-branch network combined with robust principal component analysis for hyperspectral image classification | |
Wu et al. | RepCPSI: Coordinate-Preserving Proximity Spectral Interaction Network With Reparameterization for Lightweight Spectral Super-Resolution | |
Weng et al. | A multisensor data fusion model for semantic segmentation in aerial images | |
CN113887470A (zh) | 基于多任务注意力机制的高分辨率遥感图像地物提取方法 | |
CN114998101A (zh) | 一种基于深度学习的卫星影像超分辨率方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |