CN113887645A - 一种基于联合注意力孪生网络的遥感图像融合分类方法 - Google Patents

一种基于联合注意力孪生网络的遥感图像融合分类方法 Download PDF

Info

Publication number
CN113887645A
CN113887645A CN202111190676.8A CN202111190676A CN113887645A CN 113887645 A CN113887645 A CN 113887645A CN 202111190676 A CN202111190676 A CN 202111190676A CN 113887645 A CN113887645 A CN 113887645A
Authority
CN
China
Prior art keywords
attention
image
output
net
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111190676.8A
Other languages
English (en)
Other versions
CN113887645B (zh
Inventor
蒋雯
周琳
耿杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202111190676.8A priority Critical patent/CN113887645B/zh
Publication of CN113887645A publication Critical patent/CN113887645A/zh
Application granted granted Critical
Publication of CN113887645B publication Critical patent/CN113887645B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于联合注意力孪生网络的遥感图像融合分类方法,包括以下步骤:将高光谱和多光谱图像作为数据集进行处理;构建孪生网络模块,提取高光谱和多光谱图像的共性特征;将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维;添加自注意力模块进行加权操作;将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块;将两部分多层卷积网络提取出的高光谱和多光谱图像特征进行融合,通过全连接层进行分类,获取遥感图像的分类结果。本发明的方法,可以有效提取高光谱和多光谱图像的共性特征,而且通过联合注意力模块使得图像各自的光谱和空间信息得到增强,进而提高融合分类效果。

Description

一种基于联合注意力孪生网络的遥感图像融合分类方法
技术领域
本发明属于遥感图像分类应用,涉及一种基于联合注意力孪生网络的遥感图像融合分类方法。
背景技术
遥感图像分类是指基于不同遥感图像的分类识别任务,是遥感领域的关键组成部分,被广泛应用于自然灾害预防、城乡规划等领域。现阶段遥感领域发展迅猛,多传感器并存,为遥感行业的发展提供了有力的保障。
光学遥感影像具有分辨率高、覆盖范围广和成本低等优点,利用遥感影像进行地物分类多基于光学影像,但当前的遥感应用大多基于单一数据源,未能充分利用多源传感器的综合信息。同一场景的多源遥感图像所观测的地物类型相同,但由于传感器不同,成像机制和物理含义不同,多源信息间存在差异性、冗余性、互补性和协作性,多源遥感图像的融合能够综合利用不同来源获取的地物信息,做到更全面、更具针对性的对地观测,因此多源遥感图像的融合成为遥感图像分类的热点发展方向之一。
由于存在上述问题,针对多源遥感图像融合分类依据提出一些算法,但是效果仍没有达到最佳,性能提升空间很大,因此多源遥感图像融合分类问题依然有很大的研究价值。
发明内容
针对上述技术问题,本发明提供一种基于联合注意力孪生网络的遥感图像融合分类方法,不仅可以有效提取高光谱和多光谱图像的共性特征,而且通过联合注意力模块使得图像各自的光谱和空间信息得到增强,进而提高融合分类效果。
为实现上述目的,本发明采用的技术方案为:
步骤一、将同一区域的高光谱图像和多光谱图像作为数据集进行处理,并划分训练集、测试集和验证集:
步骤101、对多光谱遥感图像和高光谱遥感图像进行配准和标注,并将配准好的图像和标注图像的像素点划分为k×k的像素块大小,利用中心点相邻的像素点特征信息来增强判别能力;
步骤102、对划分好的像素块进行随机分割,构建训练集、测试集和验证集,输入到孪生网络模块;
步骤二、构建孪生网络模块,提取高光谱图像和多光谱图像的共性特征:
步骤201、构建卷积神经网络ResNet-101,包括五个卷积模块,分别为Conv1-x、Conv2-x、Conv3-x、Conv4-x、Conv5-x;
步骤202、采用双分支ResNet-101网络作为孪生网络,分别对高光谱图像和多光谱图像进行特征提取,生成局部特征Fh和Fm,特征提取器之间共享参数,使得模型能够获得更一致的特征图对,并且模型的网络参数也极大减少;
步骤三、将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维:
步骤301、构建卷积神经网络作为联合注意力模块,共包含两部分多层卷积网络H-Net和M-Net,每部分均由两分支三层卷积网络组成,分别为光谱注意力分支和空间注意力分支;
步骤302、Fh作为H-Net的输入,用于实现高光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1-h、Conv2-h、Conv3-h三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Ch1、Ch2、Ch3和Sh1、Sh2、Sh3
步骤303、Fm作为M-Net的输入,用于实现多光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_m、Conv2_m、Conv3_m三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Cm1、Cm2、Cm3和Sm1、Sm2、Sm3
步骤四、添加自注意力模块进行加权操作,使网络更多关注有效信息:
步骤401、将H-Net中空间注意力分支第一个卷积层的输出Sh1作为空间注意力模块的输入,
Figure BDA0003300884060000031
其中C为通道数,H为图像像素高度,W为图像像素宽度,通过三个卷积层得到三个新的特征Qh1、Kh1和Vh1
Figure BDA0003300884060000032
将维度转化为
Figure BDA0003300884060000033
其中N=H×W,N为像素数,在Kh1和Qh1之间进行矩阵乘法,并通过softmax层得到空间注意力图H1
Figure BDA0003300884060000034
步骤402、在Vh1和H1之间进行矩阵乘法,通过尺度β进行加权,并与输入Sh1相加,得到最终的空间注意力特征:
Figure BDA0003300884060000035
其中xji表示通道i对通道j的影响,β被初始化为0,并可逐渐学习,E可以描述长期的相关性并增强特征的可辨别性;
步骤403、将H-Net中光谱注意力分支第一个卷积层的输出Ch1作为光谱注意力模块的输入,
Figure BDA0003300884060000041
在Ch1
Figure BDA0003300884060000042
之间进行矩阵乘法,再通过一个softmax层计算光谱注意力特征H1-
Figure BDA0003300884060000043
步骤404、将H1'与Ch1进行矩阵相乘,将维度转化后,通过尺度α进行加权,并与输入Ch1相加,得到最终的光谱注意力特征;
Figure BDA0003300884060000044
其中xji表示通道i对通道j的影响,α被初始化为0,并可逐渐学习,E包含所有通道特征的加权和,可以描述长期的相关性并增强特征的可辨别性;
步骤405、在H-Net和M-Net的每一个卷积层后添加自注意力模块,将空间注意力分支中各卷积层的输出作为空间自注意力模块的输入,同步骤401和步骤402;光谱注意力分支中各卷积层的输出作为光谱自注意力模块的输入,同步骤403和步骤404;
步骤406、将步骤405中每个自注意力模块的输出与该模块的输入相乘,得到注意力加权后的增强特征,并作为下一个卷积层的输入,逐层递进,分别得到H-Net两分支的输出Sh3'和Ch3'、M-Net两分支的输出Sm3'和Cm3',输出特征将高光谱和多光谱中丰富的光谱特征和空间特征提取出来,并过滤了冗余特征,使特征更加突出;
步骤五、将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块,进一步增强特征的表达能力:
步骤501、将H-Net两分支的输出Sh3'和Ch3'相加,得到输出特征Fh1,融合了高光谱的光谱增强特征和空间增强特征,M-Net两分支的输出Sm3'和Cm3'相加,得到M-Net的输出特征Fm1,融合了多光谱的光谱增强特征和空间增强特征;
步骤502、在H-Net中,将光谱注意力分支第三个注意力模块的输出与空间注意力分支第三个卷积层的输出Sh3逐元素相乘,得到融合高光谱图像光谱特征和空间特征的互注意力特征Fh2
步骤六、将两部分多层卷积网络H-Net和M-Net提取出的高光谱和多光谱图像特征进行融合,并通过全连接层进行分类,以获取遥感图像的分类结果:
步骤601、将步骤五得到的自注意力融合特征Fh1、Fm1和互注意力融合特征Fh2均转化为二维矩阵,并进行拼接;
步骤602、将步骤601输出的拼接特征输入到全连接层进行分类,将全连接层的通道数设置为与遥感图像分类类别M相等,由此可得到图像各个类别的得分,得分最高的类别即为预测的结果。
本发明提供的基于联合注意力孪生网络的遥感图像融合分类方法,与现有技术相比,具有以下特点:
(1)由于本发明采用孪生网络结构,具有两个权值共享的子网络,可以提取高光谱图像和多光谱图像的共性特征,提高了模型的泛化能力。
(2)由于本发明引入自注意力模块和互注意力模块,用于提取遥感图像的光谱特征和空间特征,使模型能够充分利用多源遥感图像的有效信息,从而使模型更具判断力,增强特征的表达能力。
(3)由于本发明采用深度残差网络作为孪生网络的子网络,使模型能够很好的提取局部特征并消除梯度消失问题,有助于提高模型的性能。
附图说明
图1为本发明的流程框图;
具体实施方式
下面结合附图及本发明的实施对本发明的方法作进一步的详细的说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1表示的是一种基于联合注意力孪生网络的遥感图像融合分类方法流程图。
如图1所示,以高光谱图像和多光谱图像数据集作为输入,说明本发明的合理性与有效性,包含具体步骤如下:
步骤一、将同一区域的高光谱图像和多光谱图像作为数据集进行处理,并划分训练集、测试集和验证集:
步骤101、对多光谱遥感图像和高光谱遥感图像进行配准和标注,并将配准好的图像和标注图像的像素点划分为k×k的像素块大小,利用中心点相邻的像素点特征信息来增强判别能力;
步骤102、对划分好的像素块进行随机分割,构建训练集、测试集和验证集,输入到孪生网络模块;
步骤二、构建孪生网络模块,提取高光谱图像和多光谱图像的共性特征:
步骤201、构建卷积神经网络ResNet-101,包括五个卷积模块,分别为Conv1_x、Conv2_x、Conv3_x、Conv4_x、Conv5_x;
步骤202、采用双分支ResNet-101网络作为孪生网络,分别对高光谱图像和多光谱图像进行特征提取,生成局部特征Fh和Fm,特征提取器之间共享参数,使得模型能够获得更一致的特征图对,并且模型的网络参数也极大减少;
步骤三、将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维:
步骤301、构建卷积神经网络作为联合注意力模块,共包含两部分多层卷积网络H-Net和M-Net,每部分均由两分支三层卷积网络组成,分别为光谱注意力分支和空间注意力分支;
步骤302、Fh作为H-Net的输入,用于实现高光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_h、Conv2_h、Conv3_h三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Ch1、Ch2、Ch3和Sh1、Sh2、Sh3
步骤303、Fm作为M-Net的输入,用于实现多光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_m、Conv2_m、Conv3_m三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Cm1、Cm2、Cm3和Sm1、Sm2、Sm3
步骤四、添加自注意力模块进行加权操作,使网络更多关注有效信息:
步骤401、将H-Net中空间注意力分支第一个卷积层的输出Sh1作为空间注意力模块的输入,
Figure BDA0003300884060000081
其中C为通道数,H为图像像素高度,W为图像像素宽度,通过三个卷积层得到三个新的特征Qh1、Kh1和Vh1
Figure BDA0003300884060000082
将维度转化为
Figure BDA0003300884060000083
其中N=H×W,N为像素数,在Kh1和Qh1之间进行矩阵乘法,并通过softmax层得到空间注意力图H1
Figure BDA0003300884060000084
步骤402、在Vh1和H1之间进行矩阵乘法,通过尺度β进行加权,并与输入Sh1相加,得到最终的空间注意力特征:
Figure BDA0003300884060000085
其中xji表示通道i对通道j的影响,β被初始化为0,并可逐渐学习,E可以描述长期的相关性并增强特征的可辨别性;
步骤403、将H-Net中光谱注意力分支第一个卷积层的输出Ch1作为光谱注意力模块的输入,
Figure BDA0003300884060000086
在Ch1
Figure BDA0003300884060000087
之间进行矩阵乘法,再通过一个softmax层计算光谱注意力特征H1'
Figure BDA0003300884060000088
步骤404、将H1'与Ch1进行矩阵相乘,将维度转化后,通过尺度α进行加权,并与输入Ch1相加,得到最终的光谱注意力特征;
Figure BDA0003300884060000089
其中xji表示通道i对通道j的影响,α被初始化为0,并可逐渐学习,E包含所有通道特征的加权和,可以描述长期的相关性并增强特征的可辨别性;
步骤405、在H-Net和M-Net的每一个卷积层后添加自注意力模块,将空间注意力分支中各卷积层的输出作为空间自注意力模块的输入,同步骤401和步骤402;光谱注意力分支中各卷积层的输出作为光谱自注意力模块的输入,同步骤403和步骤404;
步骤406、将步骤405中每个自注意力模块的输出与该模块的输入相乘,得到注意力加权后的增强特征,并作为下一个卷积层的输入,逐层递进,分别得到H-Net两分支的输出Sh3'和Ch3'、M-Net两分支的输出Sm3'和Cm3',输出特征将高光谱和多光谱中丰富的光谱特征和空间特征提取出来,并过滤了冗余特征,使特征更加突出;
步骤五、将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块,进一步增强特征的表达能力:
步骤501、将H-Net两分支的输出Sh3'和Ch3'相加,得到输出特征Fh1,融合了高光谱的光谱增强特征和空间增强特征,M-Net两分支的输出Sm3'和Cm3'相加,得到M-Net的输出特征Fm1,融合了多光谱的光谱增强特征和空间增强特征;
步骤502、在H-Net中,将光谱注意力分支第三个注意力模块的输出与空间注意力分支第三个卷积层的输出Sh3逐元素相乘,得到融合高光谱图像光谱特征和空间特征的互注意力特征Fh2
步骤六、将两部分多层卷积网络H-Net和M-Net提取出的高光谱和多光谱图像特征进行融合,并通过全连接层进行分类,以获取遥感图像的分类结果:
步骤601、将步骤五得到的自注意力融合特征Fh1、Fm1和互注意力融合特征Fh2均转化为二维矩阵,并进行拼接;
步骤602、将步骤601输出的拼接特征输入到全连接层进行分类,将全连接层的通道数设置为与遥感图像分类类别M相等,由此可得到图像各个类别的得分,得分最高的类别即为预测的结果。

Claims (1)

1.一种基于联合注意力孪生网络的遥感图像融合分类方法,其特征在于,包括以下步骤:
步骤一、将同一区域的高光谱图像和多光谱图像作为数据集进行处理,并划分训练集、测试集和验证集:
步骤101、对多光谱遥感图像和高光谱遥感图像进行配准和标注,并将配准好的图像和标注图像的像素点划分为k×k的像素块大小,利用中心点相邻的像素点特征信息来增强判别能力;
步骤102、对划分好的像素块进行随机分割,构建训练集、测试集和验证集,输入到孪生网络模块;
步骤二、构建孪生网络模块,提取高光谱图像和多光谱图像的共性特征:
步骤201、构建卷积神经网络ResNet-101,包括五个卷积模块,分别为Conv1-x、Conv2-x、Conv3-x、Conv4-x、Conv5-x;
步骤202、采用双分支ResNet-101网络作为孪生网络,分别对高光谱图像和多光谱图像进行特征提取,生成局部特征Fh和Fm,特征提取器之间共享参数,使得模型能够获得更一致的特征图对,并且模型的网络参数也极大减少;
步骤三、将孪生网络的输出特征作为联合注意力模块的输入,实现特征降维:
步骤301、构建卷积神经网络作为联合注意力模块,共包含两部分多层卷积网络H-Net和M-Net,每部分均由两分支三层卷积网络组成,分别为光谱注意力分支和空间注意力分支;
步骤302、Fh作为H-Net的输入,用于实现高光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1-h、Conv2-h、Conv3-h三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Ch1、Ch2、Ch3和Sh1、Sh2、Sh3
步骤303、Fm作为M-Net的输入,用于实现多光谱图像的特征降维,光谱注意力分支和空间注意力分支均包含Conv1_m、Conv2_m、Conv3_m三个卷积层,通过CNN实现特征降维,输出降维后的特征图分别为Cm1、Cm2、Cm3和Sm1、Sm2、Sm3
步骤四、添加自注意力模块进行加权操作,使网络更多关注有效信息:
步骤401、将H-Net中空间注意力分支第一个卷积层的输出Sh1作为空间注意力模块的输入,
Figure FDA0003300884050000021
其中C为通道数,H为图像像素高度,W为图像像素宽度,通过三个卷积层得到三个新的特征Qh1、Kh1和Vh1
Figure FDA0003300884050000022
将维度转化为
Figure FDA0003300884050000023
其中N=H×W,N为像素数,在Kh1和Qh1之间进行矩阵乘法,并通过softmax层得到空间注意力图H1
Figure FDA0003300884050000024
步骤402、在Vh1和H1之间进行矩阵乘法,通过尺度β进行加权,并与输入Sh1相加,得到最终的空间注意力特征:
Figure FDA0003300884050000025
其中xji表示通道i对通道j的影响,β被初始化为0,并可逐渐学习,E可以描述长期的相关性并增强特征的可辨别性;
步骤403、将H-Net中光谱注意力分支第一个卷积层的输出Ch1作为光谱注意力模块的输入,
Figure FDA0003300884050000031
在Ch1
Figure FDA0003300884050000032
之间进行矩阵乘法,再通过一个softmax层计算光谱注意力特征H1'
Figure FDA0003300884050000033
步骤404、将H1'与Ch1进行矩阵相乘,将维度转化后,通过尺度α进行加权,并与输入Ch1相加,得到最终的光谱注意力特征;
Figure FDA0003300884050000034
其中xji表示通道i对通道j的影响,α被初始化为0,并可逐渐学习,E包含所有通道特征的加权和,可以描述长期的相关性并增强特征的可辨别性;
步骤405、在H-Net和M-Net的每一个卷积层后添加自注意力模块,将空间注意力分支中各卷积层的输出作为空间自注意力模块的输入,同步骤401和步骤402;光谱注意力分支中各卷积层的输出作为光谱自注意力模块的输入,同步骤403和步骤404;
步骤406、将步骤405中每个自注意力模块的输出与该模块的输入相乘,得到注意力加权后的增强特征,并作为下一个卷积层的输入,逐层递进,分别得到H-Net两分支的输出Sh3'和Ch3'、M-Net两分支的输出Sm3'和Cm3',输出特征将高光谱和多光谱中丰富的光谱特征和空间特征提取出来,并过滤了冗余特征,使特征更加突出;
步骤五、将多层卷积网络输出的特征图与注意力模块得到的增强特征进行连接,并添加互注意力模块,进一步增强特征的表达能力:
步骤501、将H-Net两分支的输出Sh3'和Ch3'相加,得到输出特征Fh1,融合了高光谱的光谱增强特征和空间增强特征,M-Net两分支的输出Sm3'和Cm3'相加,得到M-Net的输出特征Fm1,融合了多光谱的光谱增强特征和空间增强特征;
步骤502、在H-Net中,将光谱注意力分支第三个注意力模块的输出与空间注意力分支第三个卷积层的输出Sh3逐元素相乘,得到融合高光谱图像光谱特征和空间特征的互注意力特征Fh2
步骤六、将两部分多层卷积网络H-Net和M-Net提取出的高光谱和多光谱图像特征进行融合,并通过全连接层进行分类,以获取遥感图像的分类结果:
步骤601、将步骤五得到的自注意力融合特征Fh1、Fm1和互注意力融合特征Fh2均转化为二维矩阵,并进行拼接;
步骤602、将步骤601输出的拼接特征输入到全连接层进行分类,将全连接层的通道数设置为与遥感图像分类类别M相等,由此可得到图像各个类别的得分,得分最高的类别即为预测的结果。
CN202111190676.8A 2021-10-13 2021-10-13 一种基于联合注意力孪生网络的遥感图像融合分类方法 Active CN113887645B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111190676.8A CN113887645B (zh) 2021-10-13 2021-10-13 一种基于联合注意力孪生网络的遥感图像融合分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111190676.8A CN113887645B (zh) 2021-10-13 2021-10-13 一种基于联合注意力孪生网络的遥感图像融合分类方法

Publications (2)

Publication Number Publication Date
CN113887645A true CN113887645A (zh) 2022-01-04
CN113887645B CN113887645B (zh) 2024-02-13

Family

ID=79002513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111190676.8A Active CN113887645B (zh) 2021-10-13 2021-10-13 一种基于联合注意力孪生网络的遥感图像融合分类方法

Country Status (1)

Country Link
CN (1) CN113887645B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863173A (zh) * 2022-05-06 2022-08-05 南京审计大学 一种面向土地资源审计的自互注意力高光谱图像分类方法
CN115984635A (zh) * 2023-03-21 2023-04-18 自然资源部第一海洋研究所 多源遥感数据分类模型训练方法、分类方法和电子设备
CN116189021A (zh) * 2023-02-27 2023-05-30 中国人民解放军国防科技大学 多分支互交叉注意力增强的无人机多光谱目标检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667489A (zh) * 2020-04-30 2020-09-15 华东师范大学 基于双分支注意力深度学习的癌症高光谱图像分割方法及系统
KR102197297B1 (ko) * 2019-09-27 2020-12-31 서울대학교산학협력단 순환형 3차원 완전 합성곱망을 활용한 초분광영상의 변화탐지 방법
CN112200090A (zh) * 2020-10-12 2021-01-08 桂林电子科技大学 基于交叉分组空谱特征增强网络的高光谱图像分类方法
WO2021012752A1 (zh) * 2019-07-23 2021-01-28 中建三局智能技术有限公司 一种基于脉冲神经网络的短程跟踪方法及系统
CN113255727A (zh) * 2021-04-25 2021-08-13 辽宁师范大学 可分层密集融合网络的多传感器遥感影像融合分类方法
CN113420838A (zh) * 2021-08-20 2021-09-21 中国科学院空天信息创新研究院 基于多尺度注意力特征融合的sar与光学图像分类方法
CN113420798A (zh) * 2021-06-09 2021-09-21 中国石油大学(华东) 基于孪生光谱注意力一致性的高光谱图像分类

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021012752A1 (zh) * 2019-07-23 2021-01-28 中建三局智能技术有限公司 一种基于脉冲神经网络的短程跟踪方法及系统
KR102197297B1 (ko) * 2019-09-27 2020-12-31 서울대학교산학협력단 순환형 3차원 완전 합성곱망을 활용한 초분광영상의 변화탐지 방법
CN111667489A (zh) * 2020-04-30 2020-09-15 华东师范大学 基于双分支注意力深度学习的癌症高光谱图像分割方法及系统
CN112200090A (zh) * 2020-10-12 2021-01-08 桂林电子科技大学 基于交叉分组空谱特征增强网络的高光谱图像分类方法
CN113255727A (zh) * 2021-04-25 2021-08-13 辽宁师范大学 可分层密集融合网络的多传感器遥感影像融合分类方法
CN113420798A (zh) * 2021-06-09 2021-09-21 中国石油大学(华东) 基于孪生光谱注意力一致性的高光谱图像分类
CN113420838A (zh) * 2021-08-20 2021-09-21 中国科学院空天信息创新研究院 基于多尺度注意力特征融合的sar与光学图像分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘帅;张旭含;李笑迎;田野;: "基于双分支卷积网络的高光谱与多光谱图像协同土地利用分类", 农业工程学报, no. 14 *
杨康;宋慧慧;张开华;: "基于双重注意力孪生网络的实时视觉跟踪", 计算机应用, no. 06 *
石祥滨;钟健;刘翠微;刘芳;张德园;: "小样本高光谱遥感图像深度学习方法", 系统仿真学报, no. 07 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863173A (zh) * 2022-05-06 2022-08-05 南京审计大学 一种面向土地资源审计的自互注意力高光谱图像分类方法
CN116189021A (zh) * 2023-02-27 2023-05-30 中国人民解放军国防科技大学 多分支互交叉注意力增强的无人机多光谱目标检测方法
CN116189021B (zh) * 2023-02-27 2024-04-09 中国人民解放军国防科技大学 多分支互交叉注意力增强的无人机多光谱目标检测方法
CN115984635A (zh) * 2023-03-21 2023-04-18 自然资源部第一海洋研究所 多源遥感数据分类模型训练方法、分类方法和电子设备

Also Published As

Publication number Publication date
CN113887645B (zh) 2024-02-13

Similar Documents

Publication Publication Date Title
CN113887645B (zh) 一种基于联合注意力孪生网络的遥感图像融合分类方法
Zhao et al. Efficient and model-based infrared and visible image fusion via algorithm unrolling
Zhou et al. Pyramid fully convolutional network for hyperspectral and multispectral image fusion
Cui et al. LiteDepthwiseNet: A lightweight network for hyperspectral image classification
Fu et al. Joint camera spectral response selection and hyperspectral image recovery
Deng et al. PSRT: Pyramid shuffle-and-reshuffle transformer for multispectral and hyperspectral image fusion
Feng et al. Mosaic convolution-attention network for demosaicing multispectral filter array images
CN110544212B (zh) 基于层级特征融合的卷积神经网络高光谱图像锐化方法
Yan et al. When pansharpening meets graph convolution network and knowledge distillation
CN115018750B (zh) 中波红外高光谱及多光谱图像融合方法、系统及介质
CN114998167B (zh) 一种基于空间-光谱联合低秩的高光谱与多光谱图像融合方法
CN114863173B (zh) 一种面向土地资源审计的自互注意力高光谱图像分类方法
Fu et al. Hyperspectral imaging from a raw mosaic image with end-to-end learning
CN116128735B (zh) 基于密集连接残差网络的多光谱图像去马赛克结构及方法
Li et al. ConvTransNet: A CNN-transformer network for change detection with multi-scale global-local representations
Zhang et al. Semi-supervised multi-spectral land cover classification with multi-attention and adaptive kernel
He et al. Two-branch pure transformer for hyperspectral image classification
CN110648332B (zh) 基于多分支卷积神经网络特征正交的图像可判别区域提取方法
Wu et al. CTFNet: CNN-Transformer Fusion Network for Remote Sensing Image Semantic Segmentation
CN116563187A (zh) 一种基于图神经网络的多光谱图像融合
Mu et al. A two-branch network combined with robust principal component analysis for hyperspectral image classification
Wu et al. RepCPSI: Coordinate-Preserving Proximity Spectral Interaction Network With Reparameterization for Lightweight Spectral Super-Resolution
Weng et al. A multisensor data fusion model for semantic segmentation in aerial images
CN113887470A (zh) 基于多任务注意力机制的高分辨率遥感图像地物提取方法
CN114998101A (zh) 一种基于深度学习的卫星影像超分辨率方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant