CN114332649A - 基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法 - Google Patents

基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法 Download PDF

Info

Publication number
CN114332649A
CN114332649A CN202210217440.7A CN202210217440A CN114332649A CN 114332649 A CN114332649 A CN 114332649A CN 202210217440 A CN202210217440 A CN 202210217440A CN 114332649 A CN114332649 A CN 114332649A
Authority
CN
China
Prior art keywords
training
source domain
classifiers
classifier
generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210217440.7A
Other languages
English (en)
Other versions
CN114332649B (zh
Inventor
黄怡
彭江涛
陈娜
宁羽杰
苏涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University
Original Assignee
Hubei University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University filed Critical Hubei University
Priority to CN202210217440.7A priority Critical patent/CN114332649B/zh
Publication of CN114332649A publication Critical patent/CN114332649A/zh
Application granted granted Critical
Publication of CN114332649B publication Critical patent/CN114332649B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,主要包括以下步骤:1、将源域和目标域中的每个样本转化为一个三维数据立体块;2、构建深度对抗迁移学习网络,该网络主要包含一个生成器和两个分类器;将源域样本数据投入网络进行初步训练,得到网络参数;3、训练分类器;4、训练生成器,与步骤3形成对抗训练;5、迭代训练:将步骤2‑4进行反复迭代,更新生成器和分类器;6、预测目标域样本标签并评估:网络迭代收敛后,用对抗网络中分类器对目标域样本进行分类,得到预测标签。本发明可以应用于跨场景遥感图像迁移学习,所提出的方法在跨场景高光谱遥感图像分类问题中优于一些现有的非深度和深度迁移学习方法。

Description

基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习 方法
技术领域
本发明涉及卫星遥感领域领域,具体讲的是一种基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法。
背景技术
目前,世界各国发射了大量遥感卫星,大量的遥感影像历史数据以及在轨数据,为生态环境监测、土壤质量评估、地质矿物填图等实际应用提供了大数据支撑。但是实际应用中仍存在一个关键问题:不同场景对应的遥感影像之间存在较大差异,例如影像分辨率差异、光谱辐射差异、时空差异、地域差异等,导致不同影像之间的知识无法迁移、传递和共用。针对这一问题,本专利采用如下策略:考虑到相似的场景或相同的传感器对应的高光谱数据具有相似的特性,采用迁移学习技术,构建深度对抗迁移学习网络,借助已标记的历史场景影像数据(源域),实现对未标记场景影像(目标域)的自动分类。在这种情况下,如果成功地进行了知识迁移,将避免目标域复杂的数据标记工作,大大提高学习的性能。
这里需要指出的是,迁移学习与传统的分类方法是明显不同的。传统的分类方法,假设训练数据和测试数据具有相同的分布,用训练数据学习模型,然后对测试数据进行分类。但是,在迁移学习中,源域和目标域样本分布是不同的,不符合数据同分布假设;源域学习得到的模型不再适用于目标域,因此不能直接进行分类。本专利提出的基于双通道注意力机制的深度对抗迁移学习模型,结合高光谱遥感影像的数据特点,设计双通道注意力架构,有效提取高光谱数据的空间和光谱联合特征;同时,采用生成对抗网络,逐步更新特征生成器和分类判别器,从而使得源域和目标域特征差异逐渐减小,实现源域和目标域模型共用与迁移。
发明内容
本发明要解决的技术问题是提供一种适用于跨场景高光谱遥感图像分类的深度迁移学习方法。本发明采用以下技术方案:
基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,包括以下步骤:
步骤1、数据预处理,将源域与目标域中的每个样本转换为三维立方块,得到源域样本数据和目标域样本数据;
步骤2、构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果;
步骤3、将步骤1中的源域样本数据输入深度对抗迁移学习网络,对深度对抗迁移学习网络进行预训练,得到预训练后的深度对抗迁移学习网络;
步骤4、固定预训练后的深度对抗迁移学习网络的生成器的参数,对两个分类器进行训练;将步骤1中的源域样本数据和目标域样本数据输入预训练后的的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算每个分类器的源域样本分类损失和两个分类器之间的输出差异,训练两个分类器直到两个分类器之间的输出差异达到最大值且每个分类器的源域样本分类损失均达到最小值后结束训练;训练完毕后,保存训练后的分类器参数得到二次训练后的深度对抗迁移学习网络,转到下一步;
步骤5、固定二次训练后的深度对抗迁移学习网络中两个分类器的参数,对生成器进行训练,与步骤4形成对抗训练;将步骤1中的源域样本数据输入二次训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算两个分类器之间的输出差异,训练生成器,直到两个分类器之间的输出差异达到最小值判断一次训练完成,重复训练直到训练次数达到预设训练次数后判断训练完毕;训练完毕后,保存训练后的生成器参数和上一步训练后的分类器参数,得到本次迭代后的深度对抗迁移学习网络,迭代次数加1,计算本次迭代后的深度对抗迁移学习网络的每个分类器的输出值的总体准确率即OA值,若迭代次数达到预设最大次数或任意一个分类器的OA值大于预设阈值,则转到下一步,否则转到步骤3,并将步骤3中的对抗迁移学习网络更新为本次迭代后的深度对抗迁移学习网络;
步骤6、选择最后一次迭代后的深度对抗迁移学习网络中的生成器和两个生成器中总体准确率更高的一个分类器组成最终深度对抗迁移学习网络。
进一步的,所述步骤3的具体训练方法为:将步骤1中的源域样本数据输入深度对抗迁移学习网络中,生成器提取源域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签,计算每个分类器的源域样本分类损失,训练两个分类器直到每个分类器的源域样本分类损失均达到最小值后结束训练。
进一步的,所述计算源域样本分类损失的方法包括以下步骤:
将提取的源域的光谱与空间联合特征投入分类器,计算得到分类器的源域样本分 类损失的方法为:假设源域样本共有
Figure 261303DEST_PATH_IMAGE001
类,第s类源域样本中包括的样本为
Figure 116127DEST_PATH_IMAGE002
;计算第s类样本的分类损失值T的公式为:
T=
Figure 584279DEST_PATH_IMAGE003
,其中
Figure 917172DEST_PATH_IMAGE004
为源域样本
Figure 918495DEST_PATH_IMAGE005
属于第
Figure 944219DEST_PATH_IMAGE006
类的概率,计算得到 每一类源域样本的分类损失值,并求得所有类别源域样本的分类损失值的平均值即得到源 域样本分类损失,所述
Figure 896739DEST_PATH_IMAGE004
利用
Figure 33322DEST_PATH_IMAGE007
函数计算。
进一步的,所述步骤4和5中计算两个分类器之间的输出差异的方法为:
将提取的目标域样本的光谱与空间联合特征投入两个分类器,假设目标域样本为
Figure 905463DEST_PATH_IMAGE008
,则得到两个分类器对应的预测概率向量分别为
Figure 351357DEST_PATH_IMAGE009
,计算得到针对样本
Figure 43369DEST_PATH_IMAGE008
的分类器输出差异W=
Figure 468796DEST_PATH_IMAGE010
;计算得到所有样本的输出分类器输出差异并求平均值得到两个分类器之间的输出差异。
进一步的,
Figure 929865DEST_PATH_IMAGE007
函数的计算公式为:
Figure 812239DEST_PATH_IMAGE011
其中,
Figure 991548DEST_PATH_IMAGE012
为第
Figure 217736DEST_PATH_IMAGE013
个样本的特征,
Figure 2153DEST_PATH_IMAGE001
为类别数,
Figure 993111DEST_PATH_IMAGE014
表示样本或特征
Figure 144869DEST_PATH_IMAGE015
属于第
Figure 895787DEST_PATH_IMAGE013
类的概率,
Figure 580716DEST_PATH_IMAGE016
为自然常数,分类时,将样本或特征
Figure 555625DEST_PATH_IMAGE015
分到概率最大值对应的类别。
进一步的,所述生成器采用双通道挤压激励注意力机制,其中双通道指光谱与空间通道,挤压激励注意力机制分别用于对光谱信息与空间信息进行注意力加权。
本发明采用以上技术方案后,与现有技术相比,具有以下优点:
本发明所建立的基于双通道注意力机制的跨场景迁移学习模型,适用于高光谱遥感图像跨场景特征迁移与分类。该发明的核心是双通道挤压激励注意力机制和基于最大分类器差异的对抗学习思想;其中双通道注意力机制是依据高光谱数据特点而设计。高光谱数据为一个三维立体矩阵,其同时包含空间维度的信息和光谱维度信息,通过双通道注意力机制可以同时提取光谱和空间联合特征,大大提高模型的分类性能。其次,基于最大分类器差异的对抗学习思想能使两个分类器的性能与生成器的性能达到平衡,从而取得优越特征迁移性能。实验结果表明应用本发明的方法取得了积极的结果,其各项评价指标要明显优于其它的一些现有的非深度和深度迁移学习算法。
下面结合附图和实例对本发明进行详细说明。
附图说明
图1为本发明的流程示意图;
图2为分类器结构示意图;
图3是本发明提出方法以及与现有算法在Houston数据上的分类结果显示对比图;从a-h分别为:Houston18数据真实地表值以及SA算法、JDA算法、DAN算法、DSAN算法、MRAN算法、MCD算法和本发明的算法分类结果图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例(以Houston数据为例的实验),并参照附图,对本发明进一步详细说明。Houston数据集包括Houston2013和Houston2018场景,它们是由休士顿大学校园及其附近的不同传感器在不同年份获得的。Houston2013数据集由349×1905像素组成,包括144个光谱带;波长范围为380-1050nm;图像的空间分辨率为2.5米。Houston2018数据集的波长范围相同,但包含48个光谱带,图像的空间分辨率为1米。它们的场景中有七个一致的类别。我们提取了 48 个光谱带(波长范围0.38-1.05μm) 来自Houston2013 场景对应到Houston2018 场景,选择 209× 955 的重叠区域。表一列出了Houston数据土地覆盖类别的名称和样本数量。
如图1所示,本发明所提出的双通道注意力机制的跨场景迁移学习方法,具体包括以下步骤:
步骤1,输入源域和目标域的高光谱遥感图像数据,将源域与目标域样本提取为三 维矩阵,其大小为
Figure 191749DEST_PATH_IMAGE017
本发明中,以Houston 2013数据作为源域数据,Houston 2018数据作为目标域数 据。这两个数据都对应Houston大学场景,但是采集时间不同,导数影像之间存在较大的光 谱差异,无法直接进行分类。该数据维数
Figure 11938DEST_PATH_IMAGE018
,类别数
Figure 816951DEST_PATH_IMAGE001
=7实验中我们设置
Figure 697183DEST_PATH_IMAGE019
为7,所以每个样本大小为
Figure 89112DEST_PATH_IMAGE020
。在投入网络模型训练之前首先会进行一个数据扩 充的过程,具体操作是将样本数据打乱加倍组合,该组实验中数据扩充倍数为3。
步骤2,构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果,如图2所示为分类器的结构;
步骤3,将源域的样本投入深度对抗迁移学习网络进行预训练;
本发明中,实验训练为分批次进行,批次大小为batch_size = 128, 将源域样本 矩阵分批次投入网络对网络进行预训练,即每次投入数据大小为
Figure 712991DEST_PATH_IMAGE021
;此时 预训练结束后会得到分类器F1、F2对源域数据分类后的分类损失为:
Figure 123244DEST_PATH_IMAGE022
其中,
Figure 689224DEST_PATH_IMAGE023
为源域样本,
Figure 552137DEST_PATH_IMAGE024
意思是所有属于源域的样本按公式计 算求和后求均值,
Figure 461931DEST_PATH_IMAGE025
为源域样本
Figure 726690DEST_PATH_IMAGE026
属于第
Figure 463571DEST_PATH_IMAGE027
类的概率,
Figure 813781DEST_PATH_IMAGE028
Figure 530195DEST_PATH_IMAGE029
为示性函数,当
Figure 649461DEST_PATH_IMAGE030
这一条件满足时函数值为1,否则为0,即求和限定在
Figure 26085DEST_PATH_IMAGE031
的情况下。
该步骤目的是使得源域样本分类损失尽可能的小,即:
Figure 863591DEST_PATH_IMAGE032
以Houston数据为例,源域样本类别数
Figure 632964DEST_PATH_IMAGE001
=7且每类样本个数可见表1:
表1 Houston13和Houston18样本数量及类别
Figure 885697DEST_PATH_IMAGE033
此时
Figure 449534DEST_PATH_IMAGE034
的计算方式是例如第一类即
Figure 289182DEST_PATH_IMAGE035
Figure 596667DEST_PATH_IMAGE036
有345个,就是对这属于 第一类的345个样本计算
Figure 690525DEST_PATH_IMAGE037
并相加,以此类推,分别求得c =1、2、3、4、5、6、7时 对应样本
Figure 441574DEST_PATH_IMAGE038
再求和,最后求该和的均值即用该和除以源域7类样本总数目2530 得到Houston2013数据的分类损失
Figure 988093DEST_PATH_IMAGE034
步骤4,固定步骤3中的生成器模块,训练分类器模块。具体地,用生成器分别提取源域和目标域数据的光谱与空间联合特征,再将提取的特征投入两个分类器,训练分类器模块。
所述步骤4主要包含以下步骤:
步骤4.1,固定步骤3中预训练后的DCSE生成器模块。
步骤4.2,将源域和目标域的样本数据同时投入DCSE生成器模块,提取源域和目标域的光谱空间联合特征,此时投入批量数据大小为
Figure 614116DEST_PATH_IMAGE021
步骤4.3,将提取的特征投入步骤2中预训练后的两个FBRDs分类器,训练网络框架中的判别器模块,此时得到两个分类器F1、F2对目标域数据分类的差异为:
Figure 828059DEST_PATH_IMAGE039
该步骤优化目标为:
Figure 999278DEST_PATH_IMAGE040
]
其中,
Figure 780896DEST_PATH_IMAGE039
Figure 695762DEST_PATH_IMAGE041
Figure 13480DEST_PATH_IMAGE042
Figure 90020DEST_PATH_IMAGE043
分别表示两个分类器对第 c类 的预测概率,
Figure 627443DEST_PATH_IMAGE044
意思是所有属于目标域的样本按公式计算后求和后求均值。优化目标 中
Figure 80421DEST_PATH_IMAGE034
项是约束模型对于源域样本的预测损失,目的是要求模型尽可能准确地预测 源域样本;
Figure 3378DEST_PATH_IMAGE045
项是用于约束两个分类器,此步骤中最大化
Figure 765666DEST_PATH_IMAGE045
是为了使两个 分类器对目标域样本预测的输出差异尽可能大,这样两个分类器在都适用于源域样本分类 的情况下,可以检测出与源域信息不一致的目标域样本,达到调整源域和目标域样本分布 的目的。
以Houston数据为例,
Figure 39653DEST_PATH_IMAGE045
的计算方式为:目标域样本总和53200,即对目标 域53200个样本计算
Figure 614483DEST_PATH_IMAGE046
的值再求和,最后将该和除以总样本个数 53200即得到两个分类器F1、F2对目标域数据分类的差异
Figure 657525DEST_PATH_IMAGE045
步骤5,固定步骤4中训练得到的分类器,训练DCSE生成器使固定的分类器差异最小化;
所述步骤5,首先固定步骤4中训练得到的分类器F1、F2,该步骤目的是训练生成器DCSE,将原始的源域与目标域数据重新投入生成器中生成特征,再将特征投入两个分类器中,但此步骤目的是使两分类器对目标域数据的分类结果尽可能的相似,即训练生成器DCSE使得分类器F1、F2对目标域数据的分类差异尽可能小,即:
Figure 341447DEST_PATH_IMAGE047
该步骤与步骤4形成对抗学习的过程,且该步骤内部进行迭代使得生成器DCSE得到充分训练。
步骤6,根据步骤3、4、5中的各项损失,将步骤3-5迭代重复对抗训练;
步骤6中,主要是重复步骤3-5中的操作,计算各项损失,使算法迭代交替对抗进行,直到满足预定的迭代次数或者连续两次训练对应的网络损失小于给定阈值时,算法停止运行。
步骤7,网络迭代收敛后,用对抗网络中分类器对目标域样本进行预测,得到预测标签;利用总体准确率和kappa系数对网络性能进行评估。
所述步骤7中,当达到设定的迭代次数或连续两次训练对应的网络损失小于给定阈值时,网络停止训练;此时利用训练好的生成器DSCE输出目标域空间和光谱联合特征,再将特征投入两个分类器F1、F2得到目标域样本的预测标签;最后,利用总体准确率(Overallaccuracy, OA)对网络性能进行评估。OA为分类正确的样本个数占所有样本个数的比例,其计算公式为:
Figure 820839DEST_PATH_IMAGE048
OA只考虑了对角线方向上被正确分类的像元数,而kappa 系数同时考虑了对角线以外的各种漏分和错分像元。其计算公式为:
Figure 881199DEST_PATH_IMAGE049
其中,
Figure 529480DEST_PATH_IMAGE050
是每一类正确分类的样本数量之和除以总样本数,也就是总体分类精度;
Figure 853145DEST_PATH_IMAGE051
假设每一类的真实样本个数分别为
Figure 350992DEST_PATH_IMAGE052
,而预测出来的每一类的样本个数分别 为
Figure 683884DEST_PATH_IMAGE053
,总样本个数为
Figure 183742DEST_PATH_IMAGE054
,则有:
Figure 209467DEST_PATH_IMAGE055
由图3中的各算法分类结果对比来看,其中对比数据的真实地表值,SA、JDA并不能很好地区分图中圈出的地域的类别,与Houston18数据真实地表值相比,这三类算法的分类结果误差较大,当采用深度迁移学习网络DAN、DSAN、MRAN、MCD分类时,其能改善该地域错分的问题,但也没有达到很好的效果,而本发明提出的DCAA算法的分类结果与Houston18数据真实地表值相比最接近,说明本发明的方法能很好地对该地域类别样本分类。
下表2为各算法分类性能评估结果,由表2可看出,本发明提出的DCAA算法的OA值和kappa 系数均高于现有算法。
表2:Houston数据算法实验对比表
Figure 679762DEST_PATH_IMAGE056
以上所述为本发明最佳实施方式的举例,其中未详细述及的部分均为本领域普通技术人员的公知常识。本发明的保护范围以权利要求的内容为准,任何基于本发明的技术启示而进行的等效变换,也在本发明的保护范围之内。

Claims (6)

1.基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,包括以下步骤:
步骤1、数据预处理,将源域与目标域中的每个样本转换为三维立方块,得到源域样本数据和目标域样本数据;
步骤2、构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果;
步骤3、将步骤1中的源域样本数据输入深度对抗迁移学习网络,对深度对抗迁移学习网络进行预训练,得到预训练后的深度对抗迁移学习网络;
步骤4、固定预训练后的深度对抗迁移学习网络的生成器的参数,对两个分类器进行训练;将步骤1中的源域样本数据和目标域样本数据输入预训练后的的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算每个分类器的源域样本分类损失和两个分类器之间的输出差异,训练两个分类器直到两个分类器之间的输出差异达到最大值且每个分类器的源域样本分类损失均达到最小值后结束训练;训练完毕后,保存训练后的分类器参数得到二次训练后的深度对抗迁移学习网络,转到下一步;
步骤5、固定二次训练后的深度对抗迁移学习网络中两个分类器的参数,对生成器进行训练,与步骤4形成对抗训练;将步骤1中的源域样本数据输入二次训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算两个分类器之间的输出差异,训练生成器,直到两个分类器之间的输出差异达到最小值判断一次训练完成,重复训练直到训练次数达到预设训练次数后判断训练完毕;训练完毕后,保存训练后的生成器参数和上一步训练后的分类器参数,得到本次迭代后的深度对抗迁移学习网络,迭代次数加1,计算本次迭代后的深度对抗迁移学习网络的每个分类器的输出值的总体准确率即OA值,若迭代次数达到预设最大次数或任意一个分类器的OA值大于预设阈值,则转到下一步,否则转到步骤3,并将步骤3中的对抗迁移学习网络更新为本次迭代后的深度对抗迁移学习网络;
步骤6、选择最后一次迭代后的深度对抗迁移学习网络中的生成器和两个生成器中总体准确率更高的一个分类器组成最终深度对抗迁移学习网络。
2.根据权利要求1所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述步骤3的具体训练方法为:将步骤1中的源域样本数据输入深度对抗迁移学习网络中,生成器提取源域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签,计算每个分类器的源域样本分类损失,训练两个分类器直到每个分类器的源域样本分类损失均达到最小值后结束训练。
3.根据权利要求1所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述计算源域样本分类损失的方法包括以下步骤:
将提取的源域的光谱与空间联合特征投入分类器,计算得到分类器的源域样本分类损失的方法为:假设源域样本共有
Figure 467388DEST_PATH_IMAGE001
类,第s类源域样本中包括的样本为
Figure 712425DEST_PATH_IMAGE002
;计算第s类样本的分类损失值T的公式为:
T=
Figure 305211DEST_PATH_IMAGE003
,其中
Figure 762738DEST_PATH_IMAGE004
为源域样本
Figure 842689DEST_PATH_IMAGE005
属于第
Figure 475271DEST_PATH_IMAGE006
类的概率,计算得到每一类源域样本的分类损失值,并求得所有类别源域样本的分类损失值的平均值即得到源域样本分类损失,所述
Figure 70201DEST_PATH_IMAGE004
利用
Figure 82150DEST_PATH_IMAGE007
函数计算。
4.根据权利要求1所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述步骤4和5中计算两个分类器之间的输出差异的方法为:
将提取的目标域样本的光谱与空间联合特征投入两个分类器,假设目标域样本为
Figure 813346DEST_PATH_IMAGE008
,则得到两个分类器对应的预测概率向量分别为
Figure 823021DEST_PATH_IMAGE009
,计算得到针对样本
Figure 905247DEST_PATH_IMAGE008
的分类器输出差异W=
Figure 455308DEST_PATH_IMAGE010
;计算得到所有样本的输出分类器输出差异并求平均值得到两个分类器之间的输出差异。
5.根据权利要求3所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,
Figure 244272DEST_PATH_IMAGE007
函数的计算公式为:
Figure 736433DEST_PATH_IMAGE011
其中,
Figure 53758DEST_PATH_IMAGE012
为第
Figure 391198DEST_PATH_IMAGE013
个样本的特征,
Figure 50981DEST_PATH_IMAGE001
为类别数,
Figure 448464DEST_PATH_IMAGE014
表示样本或特征
Figure 256014DEST_PATH_IMAGE015
属于第
Figure 397146DEST_PATH_IMAGE013
类的概率,
Figure 160702DEST_PATH_IMAGE016
为自然常数,分类时,将样本或特征
Figure 745398DEST_PATH_IMAGE015
分到概率最大值对应的类别。
6.根据权利要求1-5中任一项所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述生成器采用双通道挤压激励注意力机制,其中双通道指光谱与空间通道,挤压激励注意力机制分别用于对光谱信息与空间信息进行注意力加权。
CN202210217440.7A 2022-03-07 2022-03-07 基于双通道注意力的跨场景遥感图像深度对抗迁移方法 Active CN114332649B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210217440.7A CN114332649B (zh) 2022-03-07 2022-03-07 基于双通道注意力的跨场景遥感图像深度对抗迁移方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210217440.7A CN114332649B (zh) 2022-03-07 2022-03-07 基于双通道注意力的跨场景遥感图像深度对抗迁移方法

Publications (2)

Publication Number Publication Date
CN114332649A true CN114332649A (zh) 2022-04-12
CN114332649B CN114332649B (zh) 2022-05-24

Family

ID=81031312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210217440.7A Active CN114332649B (zh) 2022-03-07 2022-03-07 基于双通道注意力的跨场景遥感图像深度对抗迁移方法

Country Status (1)

Country Link
CN (1) CN114332649B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723994A (zh) * 2022-04-18 2022-07-08 中国矿业大学 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN115082780A (zh) * 2022-05-25 2022-09-20 西北工业大学 基于增量式差异学习网络的多源异质影像变化检测方法
CN115392326A (zh) * 2022-10-27 2022-11-25 中国人民解放军国防科技大学 基于联合多模态信息与域对抗神经网络的调制识别方法
CN116030304A (zh) * 2023-01-09 2023-04-28 宁波拾烨智能科技有限公司 基于加权判别与多分类器的跨域遥感影像对抗迁移方法
CN116070696A (zh) * 2023-01-10 2023-05-05 中国兵器装备集团自动化研究所有限公司 一种跨域数据深度迁移方法、装置、设备及存储介质
CN116910632A (zh) * 2023-09-14 2023-10-20 硕橙(厦门)科技有限公司 基于迁移学习的射频指纹识别方法、装置、设备及介质
CN117811843A (zh) * 2024-02-29 2024-04-02 暨南大学 基于大数据分析和自主学习的网络入侵检测方法及系统
WO2024082796A1 (zh) * 2023-06-21 2024-04-25 西北工业大学 一种面向多域图像的光谱跨域迁移超分重建方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111060318A (zh) * 2020-01-09 2020-04-24 山东科技大学 一种基于深度对抗迁移网络的轴承故障诊断方法
CN111414888A (zh) * 2020-03-31 2020-07-14 杭州博雅鸿图视频技术有限公司 低分辨率人脸识别方法、系统、装置及存储介质
CN111914600A (zh) * 2019-05-08 2020-11-10 四川大学 一种基于空间注意力模型的群组情绪识别方法
EP3745309A1 (en) * 2019-05-27 2020-12-02 Robert Bosch GmbH Training a generative adversarial network
CN112183581A (zh) * 2020-09-07 2021-01-05 华南理工大学 基于自适应迁移神经网络的半监督机械故障诊断方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914600A (zh) * 2019-05-08 2020-11-10 四川大学 一种基于空间注意力模型的群组情绪识别方法
EP3745309A1 (en) * 2019-05-27 2020-12-02 Robert Bosch GmbH Training a generative adversarial network
CN111060318A (zh) * 2020-01-09 2020-04-24 山东科技大学 一种基于深度对抗迁移网络的轴承故障诊断方法
CN111414888A (zh) * 2020-03-31 2020-07-14 杭州博雅鸿图视频技术有限公司 低分辨率人脸识别方法、系统、装置及存储介质
CN112183581A (zh) * 2020-09-07 2021-01-05 华南理工大学 基于自适应迁移神经网络的半监督机械故障诊断方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723994A (zh) * 2022-04-18 2022-07-08 中国矿业大学 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN115082780A (zh) * 2022-05-25 2022-09-20 西北工业大学 基于增量式差异学习网络的多源异质影像变化检测方法
CN115082780B (zh) * 2022-05-25 2024-03-19 西北工业大学 基于增量式差异学习网络的多源异质影像变化检测方法
CN115392326A (zh) * 2022-10-27 2022-11-25 中国人民解放军国防科技大学 基于联合多模态信息与域对抗神经网络的调制识别方法
CN115392326B (zh) * 2022-10-27 2024-03-19 中国人民解放军国防科技大学 基于联合多模态信息与域对抗神经网络的调制识别方法
CN116030304A (zh) * 2023-01-09 2023-04-28 宁波拾烨智能科技有限公司 基于加权判别与多分类器的跨域遥感影像对抗迁移方法
CN116070696A (zh) * 2023-01-10 2023-05-05 中国兵器装备集团自动化研究所有限公司 一种跨域数据深度迁移方法、装置、设备及存储介质
WO2024082796A1 (zh) * 2023-06-21 2024-04-25 西北工业大学 一种面向多域图像的光谱跨域迁移超分重建方法
CN116910632A (zh) * 2023-09-14 2023-10-20 硕橙(厦门)科技有限公司 基于迁移学习的射频指纹识别方法、装置、设备及介质
CN116910632B (zh) * 2023-09-14 2023-12-12 硕橙(厦门)科技有限公司 基于迁移学习的射频指纹识别方法、装置、设备及介质
CN117811843A (zh) * 2024-02-29 2024-04-02 暨南大学 基于大数据分析和自主学习的网络入侵检测方法及系统
CN117811843B (zh) * 2024-02-29 2024-05-03 暨南大学 基于大数据分析和自主学习的网络入侵检测方法及系统

Also Published As

Publication number Publication date
CN114332649B (zh) 2022-05-24

Similar Documents

Publication Publication Date Title
CN114332649B (zh) 基于双通道注意力的跨场景遥感图像深度对抗迁移方法
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
Bai et al. Edge-guided recurrent convolutional neural network for multitemporal remote sensing image building change detection
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN108038445B (zh) 一种基于多视角深度学习框架的sar自动目标识别方法
CN112132149B (zh) 一种遥感影像语义分割方法及装置
CN110135459B (zh) 一种基于双三元组深度度量学习网络的零样本分类方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN112434628B (zh) 基于主动学习和协同表示的小样本图像分类方法
CN113537031B (zh) 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN112990342A (zh) 一种半监督sar目标识别方法
CN113469186A (zh) 一种基于少量点标注的跨域迁移图像分割方法
CN114863091A (zh) 一种基于伪标签的目标检测训练方法
CN114549909A (zh) 一种基于自适应阈值的伪标签遥感图像场景分类方法
CN112529025A (zh) 一种数据处理方法及装置
CN117636183A (zh) 一种基于自监督预训练的小样本遥感图像分类方法
CN116030304A (zh) 基于加权判别与多分类器的跨域遥感影像对抗迁移方法
CN115935187B (zh) 基于核敏感度对齐网络的变工况下机械故障诊断方法
Chen et al. Class-aware domain adaptation for coastal land cover mapping using optical remote sensing imagery
CN115409776A (zh) 一种基于方位推理的输电线路金具图卷积检测方法及系统
Sari et al. Parking Lots Detection in Static Image Using Support Vector Machine Based on Genetic Algorithm.
CN112668403A (zh) 多特征区域的细粒度船舶图像目标识别方法
Chen et al. Differential evolution algorithm with learning selection strategy for SAR image change detection
CN116721278B (zh) 基于胶囊网络的高光谱图像协同主动学习分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant