CN116188830B - 基于多层级特征对齐的高光谱图像跨域分类方法 - Google Patents

基于多层级特征对齐的高光谱图像跨域分类方法 Download PDF

Info

Publication number
CN116188830B
CN116188830B CN202211356075.4A CN202211356075A CN116188830B CN 116188830 B CN116188830 B CN 116188830B CN 202211356075 A CN202211356075 A CN 202211356075A CN 116188830 B CN116188830 B CN 116188830B
Authority
CN
China
Prior art keywords
loss
feature
cluster center
stage
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211356075.4A
Other languages
English (en)
Other versions
CN116188830A (zh
Inventor
赵春晖
朱文祥
李凯俊
张强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Chrystar Electronic Technology Co ltd
Original Assignee
Qingdao Chrystar Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Chrystar Electronic Technology Co ltd filed Critical Qingdao Chrystar Electronic Technology Co ltd
Priority to CN202211356075.4A priority Critical patent/CN116188830B/zh
Publication of CN116188830A publication Critical patent/CN116188830A/zh
Application granted granted Critical
Publication of CN116188830B publication Critical patent/CN116188830B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/58Extraction of image or video features relating to hyperspectral data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Remote Sensing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于多层级特征对齐的高光谱图像跨域分类方法,所述分类方法包括两个阶段,在第一阶段,使在SD中取得良好的分类性能,通过交叉熵损失和源域聚类损失进行监督训练;在第二阶段,将的参数迁移到通过三种损失函数,特征到特征(F‑to‑F)的损失,特征到簇中心(F‑to‑C)的损失以及簇中心到簇中心(C‑to‑C)的损失,用TD的样本来训练和微调其中,训练需要提供SD的聚类中心和样本特征。本发明集成了特征到特征、特征到簇中心、簇中心到簇中心的多层级方法,实现了特征在源域和目标域的相同分布,进而对未标记的TD实现了更好的分类精度。

Description

基于多层级特征对齐的高光谱图像跨域分类方法
技术领域
本发明涉及高光谱图像分类的技术领域,具体涉及基于多层级特征对齐的高光谱图像跨域分类方法。
背景技术
遥感技术能够通过接收地面表层发射或反射的各类电磁波并对其进行传输和处理获得地面的感兴趣信息。与地面观测相比,遥感观测具有观测范围大、观测周期短、受地面限制少等优点。遥感图像将人类的直观感觉延伸到高空,成为最为直观的感知地面情况的媒介。高光谱成像仪获得的高光谱图像包含几十甚至几百个波段,具有较高的光谱分辨率,包含了数百个不同的波段,不仅包含丰富的光谱信息,还包含地面物体的空间结构信息。高覆盖的光谱范围与精细的光谱分辨率意味着地物光谱的全局特征将更加完整而局部细微特征将更加明显。高光谱图像数据量大,光谱维度高,信息冗余度高。此外,受到大气、湿度、场景、光照、云层厚度以及像元不纯净等环境因素影响,部分光谱范围内的波段会出现信息丢失或包含严重的影像噪声。高光谱图像分类就是对地面物体进行像素级区分,广泛应用于海洋探测、城市分类、气候预测、林业监测、地质勘探、现代军事以及现代农业等诸多领域。
高光谱遥感图像包含丰富的光谱信息,使得每一类地面物体具有更多的可区分的特征。此外,高光谱图像分类(HSIC)是学习高光谱图像(HSI)中所包含的特征,以实现区分地面物体的过程。
如今,由于深度学习对特征编码的能力令人印象深刻,基于深度学习的HSIC算法逐渐成为主流。然而,大多数基于深度学习的算法需要大量的训练样本,而这些样本的获得是耗时耗力的。此外,基于深度学习的算法还要求测试数据集与训练数据集的分布相同,这意味着训练好的模型在其他场景的高光谱图像上不能达到满意的分类性能。这是因为不同场景的HSI具有明显的光谱移动和分布差异。相应地,域自适应(DA)被提出来以减少跨场景HSI之间的分布差异。总之,域自适应是迁移学习的一种,具体是指源域(SD,有标签)和目标域(TD,无标签)有相同的任务和不同的数据分布。
DA算法主要分为两种类型:基于分类器的,它涉及分类器以适应目标域中的数据;基于特征对齐的,它涉及特征提取器以对齐两个域的特征分布。我们重点讨论基于特征对齐的算法,这是HSIC领域的研究主流。具体来说,基于特征对齐的方法可以细分为:基于对抗性学习的、基于特征距离测量的、基于聚类中心的等。
目前基于特征对齐的算法大多只考虑单层级特征对齐,不能充分利用SD和TD的特征来实现两个领域的特征分布一致。
发明内容
鉴于现有技术的不足,本发明旨在于提供基于多层级特征对齐的高光谱图像跨域分类方法。
为了实现上述目的,本发明采用的技术方案如下:
基于多层级特征对齐的高光谱图像跨域分类方法,所述分类方法包括两个阶段,在第一阶段,使在SD中取得良好的分类性能,通过交叉熵损失和源域聚类损失进行监督训练;在第二阶段,将/>的参数迁移到/>通过三种损失函数,特征到特征(F-to-F)的损失,特征到簇中心(F-to-C)的损失以及簇中心到簇中心(C-to-C)的损失,用TD的样本来训练和微调/>其中,训练/>需要/>提供SD的聚类中心和样本特征。
需要说明的是,特征提取网络由三个block-A、一个block-B和一个全连接层组成。
需要说明的是,在第一阶段包括:
训练是由交叉熵损失和源域损失监督的
其中,Ddis表示欧氏距离,Λ(a,b)表示如果a等于b,输出为1,否则输出为0;/>可以使同类别的样本相互靠近,非同类别的样本相互远离;所以第一阶段的损失函数显示为:
需要说明的是,在第二阶段,多级FA由三个损失函数实现,包括特征到特征(F-to-F)的损失,特征到簇中心(F-to-C)的损失,以及簇中心到簇中心(C-to-C)的损失。
需要说明的是,所述特征到特征的损失用公式表示为:
其中是RKHS中的内核,注意/>是已经训练好的SD网络,所以/>作为预测类别为c的特征输出有很高的预测精度;同样,/>是/>的特征输出,其预测类别(伪标签)是c。
需要说明的是,特征到聚类中心的损失包括经过第一阶段的训练,SD的集群中心ES,可以表示为:
特征到簇中心损失是将每个TD样本的网络输出尽可能地接近相应类别的SD聚类中心,这表示为:
其中Dcos(a,b)表示余弦相似度的计算。
需要说明的是,聚类中心到聚类中心的损失包括在第二阶段的训练中,TD网络每次迭代的输出平均值作为TD聚类中心,通过伪标签作为类别指导计算获得,即,TD聚类中心是动态变化的,在训练过程中逐渐接近SD聚类中心;而TD聚类中心ET,可以表示为:
同时,聚类中心到聚类中心的损失的目标是将SD和TD中每个类别的聚类中心分别对齐,这可以用公式表示:
第二阶段的损失函数显示为:
Lsecond-stage=LF-to-F+LF-to-C+LC-to-C
即,所述分类方法的总体损失函数可以表示为:
Lall=Lfirst-stage+Lsecond-stage
本发明有益效果在于:
与其他算法相比,本发明在三个数据集上的分类精度都达到最高,说明本发明的算法能够提取出更准确的空间-光谱特征。具体来说,本发明的方法在PaviaC数据集上的OA达到88.52%。另一方面,为了更好地展示本发明算法的特征对齐能力,通过实验,以Pavia1-Pavia 2数据集为例展示了每个类别的特征分布。可以看出,SD和TD的特征分布是很好地对齐的。本发明通过两阶段训练和三层特征对齐,实现了SD和TD的特征分布完全一致。
附图说明
图1为本发明的基于多层级特征对齐的高光谱图像跨域分类方法流程示意图;
图2为本发明的Block-A和block-B的详细结构示意图;
图3为本发明所提算法在PaviaU-PaviaC(UC)数据集示意图,其中,图3a为PaviaU假色高光谱图像、图3b为PaviaU真值标签、图3c为PaviaC假色高光谱图像、图3d为PaviaC真值标签;
图4为本发明所提算法在Pavia 1-Pavia 2(PA12)数据集示意图;其中,图4a为Pavia 1假色高光谱图像、图4b为Pavia 1真值标签、图4c为Pavia 2假色高光谱图像、图4d为Pavia 2真值标签;
图5为本发明中所提算法在Houston2013-Houston2018(HS38)数据集的示意图,其中,图5a为Houston2013假色高光谱图、图5b为Houston2013真值标签、图5c为Houston2018假色高光谱图像、图5d为Houston2018真值标签;
图6为本发明的分类精度表;
图7为本发明的PaviaC数据集分类结果示意图;
图8为本发明的Pavia 2数据集分类结果示意图;
图9为本发明的Houston2018数据集分类结果示意图;
图10为本发明Pavia 1-Pavia 2(PA12)数据集的特征分布(t-SNE可视化)。
具体实施方式
下将结合附图对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
本发明为基于多层级特征对齐的高光谱图像跨域分类方法,所述分类方法包括两个阶段,在第一阶段,使在SD中取得良好的分类性能,通过交叉熵损失和源域聚类损失进行监督训练;在第二阶段,将/>的参数迁移到/>通过三种损失函数,特征到特征(F-to-F)的损失,特征到簇中心(F-to-C)的损失以及簇中心到簇中心(C-to-C)的损失,用TD的样本来训练和微调/>其中,训练/>需要/>提供SD的聚类中心和样本特征。
进一步的,如图2所示,本发明的特征提取网络由三个block-A、一个block-B和一个全连接层组成。
进一步的,本发明在第一阶段包括:
训练是由交叉熵损失和源域损失监督的
其中,Ddis表示欧氏距离,Λ(a,b)表示如果a等于b,输出为1,否则输出为0;/>可以使同类别的样本相互靠近,非同类别的样本相互远离;所以第一阶段的损失函数显示为:
进一步的,本发明在第二阶段的多级FA由三个损失函数实现,包括特征到特征(F-to-F)的损失,特征到簇中心(F-to-C)的损失,以及簇中心到簇中心(C-to-C)的损失。
进一步的,本发明所述特征到特征的损失用公式表示为:
其中是RKHS中的内核,注意/>是已经训练好的SD网络,所以/>作为预测类别为c的特征输出有很高的预测精度;同样,/>是/>的特征输出,其预测类别(伪标签)是c。
进一步的,本发明特征到聚类中心的损失包括经过第一阶段的训练,SD的集群中心ES,可以表示为:
特征到簇中心损失是将每个TD样本的网络输出尽可能地接近相应类别的SD聚类中心,这表示为:
其中Dcos(a,b)表示余弦相似度的计算。
进一步的,本发明聚类中心到聚类中心的损失包括在第二阶段的训练中,TD网络每次迭代的输出平均值作为TD聚类中心,通过伪标签作为类别指导计算获得,即,TD聚类中心是动态变化的,在训练过程中逐渐接近SD聚类中心;而TD聚类中心ET,可以表示为:
同时,聚类中心到聚类中心的损失的目标是将SD和TD中每个类别的聚类中心分别对齐,这可以用公式表示:
第二阶段的损失函数显示为:
Lsecond-stage=LF-to-F+LF-to-C+LC-to-C
即,所述分类方法的总体损失函数可以表示为:
Lall=Lfirst-stage+Lsecond-stage
实施例
为了验证本发明的方法的性能,选择了三对跨域数据集,即PaviaU-PaviaC(UC)数据集、Pavia 1-Pavia 2(PA12)数据集和Houston2013-Houston2018(HS38)数据集。MFA-SADC是在PyTorch,初始学习率为0.005,使用SGD优化器。所有算法的主要硬件参数是:1)CPU:Xeon Silver 4210R,2)GPU:GTX-3090,和3)RAM内存:49G。输入patch大小为21*21,epoch设置为20。在SD和TD中随机选择每个类别的180个样本进行训练。实验结果是通过重复实验十次获得的。实验结果采用总体分类精度(OA),平均分类精度(AA)和Kappa系数作为衡量指标,三个指标的值越高表明分类结果越好。
需要指出的是,图1表示了本发明的所提方法的处理流程。其中,“Source data”表示源域高光谱图像数据,“Target data”表示目标域高光谱图像数据,这两个数据为本发明提出的算法提供训练数据和测试数据。表示源域网络,其中,/>表示源域训练样本及其标签,/>表示目标域网络,/>表示目标域无标签的训练样本。Cross-EntropyLoss表示交叉熵损失,Source Cluster Loss表示源域损失监督,以上两种损失函数用于有监督的训练源域网络。
F-to-F Loss表示目标域特征到源域特征的损失,F-to-C Loss表示目标域特征到源域簇中心的损失,以及C-to-C Loss表示目标域簇中心到源域簇中心的损失。这三种损失用于无监督的训练目标域网络。
通过图3展示了为了验证本发明所提算法的有效性所使用的第一个验证数据集。该数据集为本发明所提算法提供训练样本和测试样本。进一步的,图4展示了为了验证本发明所提算法的有效性所使用的第二个验证数据集。该数据集为本发明所提算法提供训练样本和测试样本。更进一步的,图5展示了为了验证本发明所提算法的有效性所使用的第三个验证数据集。该数据集为本发明所提算法提供训练样本和测试样本。图6是为了验证本发明所提算法的有效性和合理性,提供的数据支撑。图7是利用PaviaC数据集分类结果验证本发明所提算法的有效性和合理性,提供分类结果支撑所提算法的性能。图8是利用Pavia 2数据集分类结果验证本发明所提算法的有效性和合理性,提供分类结果支撑所提算法的性能。图9是利用Houston2018数据集分类结果验证本发明所提算法的有效性和合理性,提供分类结果支撑所提算法的性能。
我们以Pavia 1-Pavia 2数据集为例在图10中展示了每个类别的特征分布。可以看出,SD和TD的特征分布是很好地对齐的。本发明通过两阶段训练和三层特征对齐,实现了SD和TD的特征分布完全一致。图10中(b)和(c)可以看出,SD和TD中各种类别的特征都很一致,而且整体的特征分布是一致的。例如,在图10(b)和图10(c)中都处于中心位置的点,从坐标值的角度看,该些点分布也实现了完全重合。
对于本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及变形,而所有的这些改变以及变形都应该属于本发明权利要求的保护范围之内。

Claims (3)

1.基于多层级特征对齐的高光谱图像跨域分类方法,其特征在于,所述分类方法包括两个阶段,在第一阶段,使在SD中取得良好的分类性能,通过交叉熵损失和源域聚类损失进行监督,具体如下,
其中,Ddis表示欧氏距离,Λ(a,b)表示如果a等于b,输出为1,否则输出为0;/>可以使同类别的样本相互靠近,非同类别的样本相互远离;所以第一阶段的损失函数显示为
在第二阶段,将的参数迁移到/>通过三种损失函数,特征到特征F-to-F的损失函数,特征到簇中心F-to-C的损失函数以及簇中心到簇中心C-to-C的损失,用TD的样本来训练和微调/>
所述特征到特征的损失用公式表示为:
其中,φ(·)是RKHS中的函数,注意是已经训练好的源域SD网络,所以/>作为预测类别为c的特征输出有很高的预测精度;同样,/>是目标域模型/>的特征输出,其预测类别即伪标签是c;
特征到聚类中心的损失包括经过第一阶段的训练,SD的集群中心ES,可以表示为:
特征到簇中心损失是将每个TD样本的网络输出尽可能地接近相应类别的SD聚类中心,这表示为:
其中Dcos(a,b)表示余弦相似度的计算;
聚类中心到聚类中心的损失包括在第二阶段的训练中,TD网络每次迭代的输出平均值作为TD聚类中心,通过伪标签作为类别指导计算获得,即,TD聚类中心是动态变化的,在训练过程中逐渐接近SD聚类中心;而TD聚类中心ET,可以表示为:
同时,聚类中心到聚类中心的损失的目标是将SD和TD中每个类别的聚类中心分别对齐,这可以用公式表示:
第一阶段的损失函数显示为:
第二阶段的损失函数显示为:
即,所述分类方法的总体损失函数可以表示为:
其中,训练需要/>提供SD的聚类中心和样本特征。
2.根据权利要求1所述的基于多层级特征对齐的高光谱图像跨域分类方法,其特征在于,特征提取网络由三个block-A、一个block-B和一个全连接层组成。
3.根据权利要求1所述的基于多层级特征对齐的高光谱图像跨域分类方法,其特征在于,在第二阶段,多级FA由三个损失函数实现,包括特征到特征F-to-F的损失,特征到簇中心F-to-C的损失,以及簇中心到簇中心C-to-C的损失。
CN202211356075.4A 2022-11-01 2022-11-01 基于多层级特征对齐的高光谱图像跨域分类方法 Active CN116188830B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211356075.4A CN116188830B (zh) 2022-11-01 2022-11-01 基于多层级特征对齐的高光谱图像跨域分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211356075.4A CN116188830B (zh) 2022-11-01 2022-11-01 基于多层级特征对齐的高光谱图像跨域分类方法

Publications (2)

Publication Number Publication Date
CN116188830A CN116188830A (zh) 2023-05-30
CN116188830B true CN116188830B (zh) 2023-09-29

Family

ID=86439051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211356075.4A Active CN116188830B (zh) 2022-11-01 2022-11-01 基于多层级特征对齐的高光谱图像跨域分类方法

Country Status (1)

Country Link
CN (1) CN116188830B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363122A (zh) * 2019-07-03 2019-10-22 昆明理工大学 一种基于多层特征对齐的跨域目标检测方法
CN111078916A (zh) * 2019-11-01 2020-04-28 天津大学 一种基于多层次特征对齐网络的跨域三维模型检索方法
CN113298189A (zh) * 2021-06-30 2021-08-24 广东工业大学 一种基于无监督域自适应的跨域图像分类方法
CN114494762A (zh) * 2021-12-10 2022-05-13 南通大学 一种基于深度迁移网络的高光谱图像分类方法
KR102437962B1 (ko) * 2022-03-22 2022-08-30 주식회사 스누아이랩 회귀 스케일 인식 교차 도메인 객체 탐지 장치 및 그 장치의 구동방법
CN115035345A (zh) * 2022-06-23 2022-09-09 桂林理工大学 一种基于改进蚁群优化算法的跨域高光谱图像分类技术
CN115170961A (zh) * 2022-07-06 2022-10-11 哈尔滨理工大学 一种基于深度跨域少样本学习的高光谱图像分类方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210150281A1 (en) * 2019-11-14 2021-05-20 Nec Laboratories America, Inc. Domain adaptation for semantic segmentation via exploiting weak labels
CN111723780B (zh) * 2020-07-22 2023-04-18 浙江大学 基于高分辨率遥感图像的跨域数据的定向迁移方法及系统
US20220076074A1 (en) * 2020-09-09 2022-03-10 Beijing Didi Infinity Technology And Development Co., Ltd. Multi-source domain adaptation with mutual learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363122A (zh) * 2019-07-03 2019-10-22 昆明理工大学 一种基于多层特征对齐的跨域目标检测方法
CN111078916A (zh) * 2019-11-01 2020-04-28 天津大学 一种基于多层次特征对齐网络的跨域三维模型检索方法
CN113298189A (zh) * 2021-06-30 2021-08-24 广东工业大学 一种基于无监督域自适应的跨域图像分类方法
CN114494762A (zh) * 2021-12-10 2022-05-13 南通大学 一种基于深度迁移网络的高光谱图像分类方法
KR102437962B1 (ko) * 2022-03-22 2022-08-30 주식회사 스누아이랩 회귀 스케일 인식 교차 도메인 객체 탐지 장치 및 그 장치의 구동방법
CN115035345A (zh) * 2022-06-23 2022-09-09 桂林理工大学 一种基于改进蚁群优化算法的跨域高光谱图像分类技术
CN115170961A (zh) * 2022-07-06 2022-10-11 哈尔滨理工大学 一种基于深度跨域少样本学习的高光谱图像分类方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hyperspectral Image Classification Based on Kernel-Guided Deformable Convolution and Double-Window Joint Bilateral Filter;Chunhui Zhao等;《IEEE Geoscience and Remote Sensing Letters》;1-5 *
基于主动学习的半监督领域自适应方法研究;姚明海;黄展聪;;高技术通讯(08);23-29 *

Also Published As

Publication number Publication date
CN116188830A (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
Zhao et al. Hyperspectral anomaly detection based on stacked denoising autoencoders
CN107316013B (zh) 基于nsct变换和dcnn的高光谱图像分类方法
CN109871902B (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
CN109375186B (zh) 基于深度残差多尺度一维卷积神经网络的雷达目标识别方法
CN110008948B (zh) 基于变分自编码网络的高光谱图像目标检测方法
CN110175615B (zh) 模型训练方法、域自适应的视觉位置识别方法及装置
Delibasoglu et al. Improved U-Nets with inception blocks for building detection
CN111080678B (zh) 一种基于深度学习的多时相sar图像变化检测方法
CN105989597B (zh) 基于像素选择过程的高光谱图像异常目标检测方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN112287983B (zh) 一种基于深度学习的遥感图像目标提取系统和方法
CN114119621A (zh) 基于深度编解码融合网络的sar遥感图像水域分割方法
CN109034213B (zh) 基于相关熵原则的高光谱图像分类方法和系统
CN115713537A (zh) 基于光谱引导与深度注意力的光学遥感图像云雾分割方法
CN105512622A (zh) 一种基于图分割和监督学习的可见光遥感图像海陆分割方法
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN107203779A (zh) 基于空谱信息保持的高光谱降维方法
Zhao et al. Landsat time series clustering under modified Dynamic Time Warping
CN115131580A (zh) 基于注意力机制的空间目标小样本识别方法
CN113361407B (zh) 基于PCANet的空谱特征联合高光谱海冰图像分类方法
CN112784777B (zh) 基于对抗学习的无监督高光谱图像变化检测方法
Wang Remote sensing image semantic segmentation algorithm based on improved ENet network
CN116977747B (zh) 基于多路多尺度特征孪生网络的小样本高光谱分类方法
CN107832793B (zh) 一种高光谱图像的分类方法及系统
CN116188830B (zh) 基于多层级特征对齐的高光谱图像跨域分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant