CN114332649A - 基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法 - Google Patents
基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法 Download PDFInfo
- Publication number
- CN114332649A CN114332649A CN202210217440.7A CN202210217440A CN114332649A CN 114332649 A CN114332649 A CN 114332649A CN 202210217440 A CN202210217440 A CN 202210217440A CN 114332649 A CN114332649 A CN 114332649A
- Authority
- CN
- China
- Prior art keywords
- training
- source domain
- classifiers
- classifier
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,主要包括以下步骤:1、将源域和目标域中的每个样本转化为一个三维数据立体块;2、构建深度对抗迁移学习网络,该网络主要包含一个生成器和两个分类器;将源域样本数据投入网络进行初步训练,得到网络参数;3、训练分类器;4、训练生成器,与步骤3形成对抗训练;5、迭代训练:将步骤2‑4进行反复迭代,更新生成器和分类器;6、预测目标域样本标签并评估:网络迭代收敛后,用对抗网络中分类器对目标域样本进行分类,得到预测标签。本发明可以应用于跨场景遥感图像迁移学习,所提出的方法在跨场景高光谱遥感图像分类问题中优于一些现有的非深度和深度迁移学习方法。
Description
技术领域
本发明涉及卫星遥感领域领域,具体讲的是一种基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法。
背景技术
目前,世界各国发射了大量遥感卫星,大量的遥感影像历史数据以及在轨数据,为生态环境监测、土壤质量评估、地质矿物填图等实际应用提供了大数据支撑。但是实际应用中仍存在一个关键问题:不同场景对应的遥感影像之间存在较大差异,例如影像分辨率差异、光谱辐射差异、时空差异、地域差异等,导致不同影像之间的知识无法迁移、传递和共用。针对这一问题,本专利采用如下策略:考虑到相似的场景或相同的传感器对应的高光谱数据具有相似的特性,采用迁移学习技术,构建深度对抗迁移学习网络,借助已标记的历史场景影像数据(源域),实现对未标记场景影像(目标域)的自动分类。在这种情况下,如果成功地进行了知识迁移,将避免目标域复杂的数据标记工作,大大提高学习的性能。
这里需要指出的是,迁移学习与传统的分类方法是明显不同的。传统的分类方法,假设训练数据和测试数据具有相同的分布,用训练数据学习模型,然后对测试数据进行分类。但是,在迁移学习中,源域和目标域样本分布是不同的,不符合数据同分布假设;源域学习得到的模型不再适用于目标域,因此不能直接进行分类。本专利提出的基于双通道注意力机制的深度对抗迁移学习模型,结合高光谱遥感影像的数据特点,设计双通道注意力架构,有效提取高光谱数据的空间和光谱联合特征;同时,采用生成对抗网络,逐步更新特征生成器和分类判别器,从而使得源域和目标域特征差异逐渐减小,实现源域和目标域模型共用与迁移。
发明内容
本发明要解决的技术问题是提供一种适用于跨场景高光谱遥感图像分类的深度迁移学习方法。本发明采用以下技术方案:
基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,包括以下步骤:
步骤1、数据预处理,将源域与目标域中的每个样本转换为三维立方块,得到源域样本数据和目标域样本数据;
步骤2、构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果;
步骤3、将步骤1中的源域样本数据输入深度对抗迁移学习网络,对深度对抗迁移学习网络进行预训练,得到预训练后的深度对抗迁移学习网络;
步骤4、固定预训练后的深度对抗迁移学习网络的生成器的参数,对两个分类器进行训练;将步骤1中的源域样本数据和目标域样本数据输入预训练后的的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算每个分类器的源域样本分类损失和两个分类器之间的输出差异,训练两个分类器直到两个分类器之间的输出差异达到最大值且每个分类器的源域样本分类损失均达到最小值后结束训练;训练完毕后,保存训练后的分类器参数得到二次训练后的深度对抗迁移学习网络,转到下一步;
步骤5、固定二次训练后的深度对抗迁移学习网络中两个分类器的参数,对生成器进行训练,与步骤4形成对抗训练;将步骤1中的源域样本数据输入二次训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算两个分类器之间的输出差异,训练生成器,直到两个分类器之间的输出差异达到最小值判断一次训练完成,重复训练直到训练次数达到预设训练次数后判断训练完毕;训练完毕后,保存训练后的生成器参数和上一步训练后的分类器参数,得到本次迭代后的深度对抗迁移学习网络,迭代次数加1,计算本次迭代后的深度对抗迁移学习网络的每个分类器的输出值的总体准确率即OA值,若迭代次数达到预设最大次数或任意一个分类器的OA值大于预设阈值,则转到下一步,否则转到步骤3,并将步骤3中的对抗迁移学习网络更新为本次迭代后的深度对抗迁移学习网络;
步骤6、选择最后一次迭代后的深度对抗迁移学习网络中的生成器和两个生成器中总体准确率更高的一个分类器组成最终深度对抗迁移学习网络。
进一步的,所述步骤3的具体训练方法为:将步骤1中的源域样本数据输入深度对抗迁移学习网络中,生成器提取源域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签,计算每个分类器的源域样本分类损失,训练两个分类器直到每个分类器的源域样本分类损失均达到最小值后结束训练。
进一步的,所述计算源域样本分类损失的方法包括以下步骤:
进一步的,所述步骤4和5中计算两个分类器之间的输出差异的方法为:
将提取的目标域样本的光谱与空间联合特征投入两个分类器,假设目标域样本为,则得到两个分类器对应的预测概率向量分别为,计算得到针对样本的分类器输出差异W=;计算得到所有样本的输出分类器输出差异并求平均值得到两个分类器之间的输出差异。
进一步的,所述生成器采用双通道挤压激励注意力机制,其中双通道指光谱与空间通道,挤压激励注意力机制分别用于对光谱信息与空间信息进行注意力加权。
本发明采用以上技术方案后,与现有技术相比,具有以下优点:
本发明所建立的基于双通道注意力机制的跨场景迁移学习模型,适用于高光谱遥感图像跨场景特征迁移与分类。该发明的核心是双通道挤压激励注意力机制和基于最大分类器差异的对抗学习思想;其中双通道注意力机制是依据高光谱数据特点而设计。高光谱数据为一个三维立体矩阵,其同时包含空间维度的信息和光谱维度信息,通过双通道注意力机制可以同时提取光谱和空间联合特征,大大提高模型的分类性能。其次,基于最大分类器差异的对抗学习思想能使两个分类器的性能与生成器的性能达到平衡,从而取得优越特征迁移性能。实验结果表明应用本发明的方法取得了积极的结果,其各项评价指标要明显优于其它的一些现有的非深度和深度迁移学习算法。
下面结合附图和实例对本发明进行详细说明。
附图说明
图1为本发明的流程示意图;
图2为分类器结构示意图;
图3是本发明提出方法以及与现有算法在Houston数据上的分类结果显示对比图;从a-h分别为:Houston18数据真实地表值以及SA算法、JDA算法、DAN算法、DSAN算法、MRAN算法、MCD算法和本发明的算法分类结果图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例(以Houston数据为例的实验),并参照附图,对本发明进一步详细说明。Houston数据集包括Houston2013和Houston2018场景,它们是由休士顿大学校园及其附近的不同传感器在不同年份获得的。Houston2013数据集由349×1905像素组成,包括144个光谱带;波长范围为380-1050nm;图像的空间分辨率为2.5米。Houston2018数据集的波长范围相同,但包含48个光谱带,图像的空间分辨率为1米。它们的场景中有七个一致的类别。我们提取了 48 个光谱带(波长范围0.38-1.05μm) 来自Houston2013 场景对应到Houston2018 场景,选择 209× 955 的重叠区域。表一列出了Houston数据土地覆盖类别的名称和样本数量。
如图1所示,本发明所提出的双通道注意力机制的跨场景迁移学习方法,具体包括以下步骤:
本发明中,以Houston 2013数据作为源域数据,Houston 2018数据作为目标域数
据。这两个数据都对应Houston大学场景,但是采集时间不同,导数影像之间存在较大的光
谱差异,无法直接进行分类。该数据维数,类别数=7实验中我们设置
为7,所以每个样本大小为。在投入网络模型训练之前首先会进行一个数据扩
充的过程,具体操作是将样本数据打乱加倍组合,该组实验中数据扩充倍数为3。
步骤2,构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果,如图2所示为分类器的结构;
步骤3,将源域的样本投入深度对抗迁移学习网络进行预训练;
本发明中,实验训练为分批次进行,批次大小为batch_size = 128, 将源域样本
矩阵分批次投入网络对网络进行预训练,即每次投入数据大小为;此时
预训练结束后会得到分类器F1、F2对源域数据分类后的分类损失为:
的情况下。
该步骤目的是使得源域样本分类损失尽可能的小,即:
表1 Houston13和Houston18样本数量及类别
此时的计算方式是例如第一类即 时有345个,就是对这属于
第一类的345个样本计算并相加,以此类推,分别求得c =1、2、3、4、5、6、7时
对应样本再求和,最后求该和的均值即用该和除以源域7类样本总数目2530
得到Houston2013数据的分类损失。
步骤4,固定步骤3中的生成器模块,训练分类器模块。具体地,用生成器分别提取源域和目标域数据的光谱与空间联合特征,再将提取的特征投入两个分类器,训练分类器模块。
所述步骤4主要包含以下步骤:
步骤4.1,固定步骤3中预训练后的DCSE生成器模块。
步骤4.3,将提取的特征投入步骤2中预训练后的两个FBRDs分类器,训练网络框架中的判别器模块,此时得到两个分类器F1、F2对目标域数据分类的差异为:
其中,且,和分别表示两个分类器对第 c类
的预测概率,意思是所有属于目标域的样本按公式计算后求和后求均值。优化目标
中项是约束模型对于源域样本的预测损失,目的是要求模型尽可能准确地预测
源域样本;项是用于约束两个分类器,此步骤中最大化是为了使两个
分类器对目标域样本预测的输出差异尽可能大,这样两个分类器在都适用于源域样本分类
的情况下,可以检测出与源域信息不一致的目标域样本,达到调整源域和目标域样本分布
的目的。
步骤5,固定步骤4中训练得到的分类器,训练DCSE生成器使固定的分类器差异最小化;
所述步骤5,首先固定步骤4中训练得到的分类器F1、F2,该步骤目的是训练生成器DCSE,将原始的源域与目标域数据重新投入生成器中生成特征,再将特征投入两个分类器中,但此步骤目的是使两分类器对目标域数据的分类结果尽可能的相似,即训练生成器DCSE使得分类器F1、F2对目标域数据的分类差异尽可能小,即:
该步骤与步骤4形成对抗学习的过程,且该步骤内部进行迭代使得生成器DCSE得到充分训练。
步骤6,根据步骤3、4、5中的各项损失,将步骤3-5迭代重复对抗训练;
步骤6中,主要是重复步骤3-5中的操作,计算各项损失,使算法迭代交替对抗进行,直到满足预定的迭代次数或者连续两次训练对应的网络损失小于给定阈值时,算法停止运行。
步骤7,网络迭代收敛后,用对抗网络中分类器对目标域样本进行预测,得到预测标签;利用总体准确率和kappa系数对网络性能进行评估。
所述步骤7中,当达到设定的迭代次数或连续两次训练对应的网络损失小于给定阈值时,网络停止训练;此时利用训练好的生成器DSCE输出目标域空间和光谱联合特征,再将特征投入两个分类器F1、F2得到目标域样本的预测标签;最后,利用总体准确率(Overallaccuracy, OA)对网络性能进行评估。OA为分类正确的样本个数占所有样本个数的比例,其计算公式为:
OA只考虑了对角线方向上被正确分类的像元数,而kappa 系数同时考虑了对角线以外的各种漏分和错分像元。其计算公式为:
由图3中的各算法分类结果对比来看,其中对比数据的真实地表值,SA、JDA并不能很好地区分图中圈出的地域的类别,与Houston18数据真实地表值相比,这三类算法的分类结果误差较大,当采用深度迁移学习网络DAN、DSAN、MRAN、MCD分类时,其能改善该地域错分的问题,但也没有达到很好的效果,而本发明提出的DCAA算法的分类结果与Houston18数据真实地表值相比最接近,说明本发明的方法能很好地对该地域类别样本分类。
下表2为各算法分类性能评估结果,由表2可看出,本发明提出的DCAA算法的OA值和kappa 系数均高于现有算法。
表2:Houston数据算法实验对比表
以上所述为本发明最佳实施方式的举例,其中未详细述及的部分均为本领域普通技术人员的公知常识。本发明的保护范围以权利要求的内容为准,任何基于本发明的技术启示而进行的等效变换,也在本发明的保护范围之内。
Claims (6)
1.基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,包括以下步骤:
步骤1、数据预处理,将源域与目标域中的每个样本转换为三维立方块,得到源域样本数据和目标域样本数据;
步骤2、构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果;
步骤3、将步骤1中的源域样本数据输入深度对抗迁移学习网络,对深度对抗迁移学习网络进行预训练,得到预训练后的深度对抗迁移学习网络;
步骤4、固定预训练后的深度对抗迁移学习网络的生成器的参数,对两个分类器进行训练;将步骤1中的源域样本数据和目标域样本数据输入预训练后的的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算每个分类器的源域样本分类损失和两个分类器之间的输出差异,训练两个分类器直到两个分类器之间的输出差异达到最大值且每个分类器的源域样本分类损失均达到最小值后结束训练;训练完毕后,保存训练后的分类器参数得到二次训练后的深度对抗迁移学习网络,转到下一步;
步骤5、固定二次训练后的深度对抗迁移学习网络中两个分类器的参数,对生成器进行训练,与步骤4形成对抗训练;将步骤1中的源域样本数据输入二次训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算两个分类器之间的输出差异,训练生成器,直到两个分类器之间的输出差异达到最小值判断一次训练完成,重复训练直到训练次数达到预设训练次数后判断训练完毕;训练完毕后,保存训练后的生成器参数和上一步训练后的分类器参数,得到本次迭代后的深度对抗迁移学习网络,迭代次数加1,计算本次迭代后的深度对抗迁移学习网络的每个分类器的输出值的总体准确率即OA值,若迭代次数达到预设最大次数或任意一个分类器的OA值大于预设阈值,则转到下一步,否则转到步骤3,并将步骤3中的对抗迁移学习网络更新为本次迭代后的深度对抗迁移学习网络;
步骤6、选择最后一次迭代后的深度对抗迁移学习网络中的生成器和两个生成器中总体准确率更高的一个分类器组成最终深度对抗迁移学习网络。
2.根据权利要求1所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述步骤3的具体训练方法为:将步骤1中的源域样本数据输入深度对抗迁移学习网络中,生成器提取源域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签,计算每个分类器的源域样本分类损失,训练两个分类器直到每个分类器的源域样本分类损失均达到最小值后结束训练。
6.根据权利要求1-5中任一项所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述生成器采用双通道挤压激励注意力机制,其中双通道指光谱与空间通道,挤压激励注意力机制分别用于对光谱信息与空间信息进行注意力加权。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210217440.7A CN114332649B (zh) | 2022-03-07 | 2022-03-07 | 基于双通道注意力的跨场景遥感图像深度对抗迁移方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210217440.7A CN114332649B (zh) | 2022-03-07 | 2022-03-07 | 基于双通道注意力的跨场景遥感图像深度对抗迁移方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114332649A true CN114332649A (zh) | 2022-04-12 |
CN114332649B CN114332649B (zh) | 2022-05-24 |
Family
ID=81031312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210217440.7A Active CN114332649B (zh) | 2022-03-07 | 2022-03-07 | 基于双通道注意力的跨场景遥感图像深度对抗迁移方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114332649B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723994A (zh) * | 2022-04-18 | 2022-07-08 | 中国矿业大学 | 一种基于双分类器对抗增强网络的高光谱图像分类方法 |
CN115082780A (zh) * | 2022-05-25 | 2022-09-20 | 西北工业大学 | 基于增量式差异学习网络的多源异质影像变化检测方法 |
CN115392326A (zh) * | 2022-10-27 | 2022-11-25 | 中国人民解放军国防科技大学 | 基于联合多模态信息与域对抗神经网络的调制识别方法 |
CN116030304A (zh) * | 2023-01-09 | 2023-04-28 | 宁波拾烨智能科技有限公司 | 基于加权判别与多分类器的跨域遥感影像对抗迁移方法 |
CN116070696A (zh) * | 2023-01-10 | 2023-05-05 | 中国兵器装备集团自动化研究所有限公司 | 一种跨域数据深度迁移方法、装置、设备及存储介质 |
CN116910632A (zh) * | 2023-09-14 | 2023-10-20 | 硕橙(厦门)科技有限公司 | 基于迁移学习的射频指纹识别方法、装置、设备及介质 |
CN117811843A (zh) * | 2024-02-29 | 2024-04-02 | 暨南大学 | 基于大数据分析和自主学习的网络入侵检测方法及系统 |
WO2024082796A1 (zh) * | 2023-06-21 | 2024-04-25 | 西北工业大学 | 一种面向多域图像的光谱跨域迁移超分重建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111060318A (zh) * | 2020-01-09 | 2020-04-24 | 山东科技大学 | 一种基于深度对抗迁移网络的轴承故障诊断方法 |
CN111414888A (zh) * | 2020-03-31 | 2020-07-14 | 杭州博雅鸿图视频技术有限公司 | 低分辨率人脸识别方法、系统、装置及存储介质 |
CN111914600A (zh) * | 2019-05-08 | 2020-11-10 | 四川大学 | 一种基于空间注意力模型的群组情绪识别方法 |
EP3745309A1 (en) * | 2019-05-27 | 2020-12-02 | Robert Bosch GmbH | Training a generative adversarial network |
CN112183581A (zh) * | 2020-09-07 | 2021-01-05 | 华南理工大学 | 基于自适应迁移神经网络的半监督机械故障诊断方法 |
-
2022
- 2022-03-07 CN CN202210217440.7A patent/CN114332649B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914600A (zh) * | 2019-05-08 | 2020-11-10 | 四川大学 | 一种基于空间注意力模型的群组情绪识别方法 |
EP3745309A1 (en) * | 2019-05-27 | 2020-12-02 | Robert Bosch GmbH | Training a generative adversarial network |
CN111060318A (zh) * | 2020-01-09 | 2020-04-24 | 山东科技大学 | 一种基于深度对抗迁移网络的轴承故障诊断方法 |
CN111414888A (zh) * | 2020-03-31 | 2020-07-14 | 杭州博雅鸿图视频技术有限公司 | 低分辨率人脸识别方法、系统、装置及存储介质 |
CN112183581A (zh) * | 2020-09-07 | 2021-01-05 | 华南理工大学 | 基于自适应迁移神经网络的半监督机械故障诊断方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723994A (zh) * | 2022-04-18 | 2022-07-08 | 中国矿业大学 | 一种基于双分类器对抗增强网络的高光谱图像分类方法 |
CN115082780A (zh) * | 2022-05-25 | 2022-09-20 | 西北工业大学 | 基于增量式差异学习网络的多源异质影像变化检测方法 |
CN115082780B (zh) * | 2022-05-25 | 2024-03-19 | 西北工业大学 | 基于增量式差异学习网络的多源异质影像变化检测方法 |
CN115392326A (zh) * | 2022-10-27 | 2022-11-25 | 中国人民解放军国防科技大学 | 基于联合多模态信息与域对抗神经网络的调制识别方法 |
CN115392326B (zh) * | 2022-10-27 | 2024-03-19 | 中国人民解放军国防科技大学 | 基于联合多模态信息与域对抗神经网络的调制识别方法 |
CN116030304A (zh) * | 2023-01-09 | 2023-04-28 | 宁波拾烨智能科技有限公司 | 基于加权判别与多分类器的跨域遥感影像对抗迁移方法 |
CN116070696A (zh) * | 2023-01-10 | 2023-05-05 | 中国兵器装备集团自动化研究所有限公司 | 一种跨域数据深度迁移方法、装置、设备及存储介质 |
WO2024082796A1 (zh) * | 2023-06-21 | 2024-04-25 | 西北工业大学 | 一种面向多域图像的光谱跨域迁移超分重建方法 |
CN116910632A (zh) * | 2023-09-14 | 2023-10-20 | 硕橙(厦门)科技有限公司 | 基于迁移学习的射频指纹识别方法、装置、设备及介质 |
CN116910632B (zh) * | 2023-09-14 | 2023-12-12 | 硕橙(厦门)科技有限公司 | 基于迁移学习的射频指纹识别方法、装置、设备及介质 |
CN117811843A (zh) * | 2024-02-29 | 2024-04-02 | 暨南大学 | 基于大数据分析和自主学习的网络入侵检测方法及系统 |
CN117811843B (zh) * | 2024-02-29 | 2024-05-03 | 暨南大学 | 基于大数据分析和自主学习的网络入侵检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114332649B (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114332649B (zh) | 基于双通道注意力的跨场景遥感图像深度对抗迁移方法 | |
CN111368896B (zh) | 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法 | |
Bai et al. | Edge-guided recurrent convolutional neural network for multitemporal remote sensing image building change detection | |
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN108038445B (zh) | 一种基于多视角深度学习框架的sar自动目标识别方法 | |
CN112132149B (zh) | 一种遥感影像语义分割方法及装置 | |
CN110135459B (zh) | 一种基于双三元组深度度量学习网络的零样本分类方法 | |
CN112347970B (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN112434628B (zh) | 基于主动学习和协同表示的小样本图像分类方法 | |
CN113537031B (zh) | 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法 | |
CN110991257B (zh) | 基于特征融合与svm的极化sar溢油检测方法 | |
CN112990342A (zh) | 一种半监督sar目标识别方法 | |
CN113469186A (zh) | 一种基于少量点标注的跨域迁移图像分割方法 | |
CN114863091A (zh) | 一种基于伪标签的目标检测训练方法 | |
CN114549909A (zh) | 一种基于自适应阈值的伪标签遥感图像场景分类方法 | |
CN112529025A (zh) | 一种数据处理方法及装置 | |
CN117636183A (zh) | 一种基于自监督预训练的小样本遥感图像分类方法 | |
CN116030304A (zh) | 基于加权判别与多分类器的跨域遥感影像对抗迁移方法 | |
CN115935187B (zh) | 基于核敏感度对齐网络的变工况下机械故障诊断方法 | |
Chen et al. | Class-aware domain adaptation for coastal land cover mapping using optical remote sensing imagery | |
CN115409776A (zh) | 一种基于方位推理的输电线路金具图卷积检测方法及系统 | |
Sari et al. | Parking Lots Detection in Static Image Using Support Vector Machine Based on Genetic Algorithm. | |
CN112668403A (zh) | 多特征区域的细粒度船舶图像目标识别方法 | |
Chen et al. | Differential evolution algorithm with learning selection strategy for SAR image change detection | |
CN116721278B (zh) | 基于胶囊网络的高光谱图像协同主动学习分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |