CN115410088A - 一种基于虚拟分类器的高光谱图像领域自适应方法 - Google Patents

一种基于虚拟分类器的高光谱图像领域自适应方法 Download PDF

Info

Publication number
CN115410088A
CN115410088A CN202211235431.7A CN202211235431A CN115410088A CN 115410088 A CN115410088 A CN 115410088A CN 202211235431 A CN202211235431 A CN 202211235431A CN 115410088 A CN115410088 A CN 115410088A
Authority
CN
China
Prior art keywords
domain
classifier
sample
virtual
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211235431.7A
Other languages
English (en)
Other versions
CN115410088B (zh
Inventor
程玉虎
陈杨
王雪松
孔毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN202211235431.7A priority Critical patent/CN115410088B/zh
Publication of CN115410088A publication Critical patent/CN115410088A/zh
Application granted granted Critical
Publication of CN115410088B publication Critical patent/CN115410088B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Abstract

本发明公开了一种基于虚拟分类器的高光谱图像领域自适应方法,其用于无监督高光谱图像分类任务。首先,通过基于空‑谱近邻图的图卷积网络来提取高光谱图像的领域不变特征;然后,构建一个基于特征相似性度量的虚拟分类器来输出目标域样本的类别概率;此外,通过最小化真实和虚拟分类器之间的分歧,以使不同领域但具有相似特征的像素被分为同一个类别;最后,通过构造一个软原型对比损失并将其最小化,以对齐不同领域特征相似的样本且使不相似的样本互相远离。

Description

一种基于虚拟分类器的高光谱图像领域自适应方法
技术领域
本发明属于高光谱遥感图像处理技术领域,具体涉及一种基于虚拟分类器的软实例级的高光谱图像领域自适应方法。
背景技术
高光谱图像(HSI)包含了能反映地物反射特性的上百个光谱波段,对HSI进行分析能够发现传统视觉难以发现的信息。与多光谱遥感图像相比,HSI不仅在光谱信息的丰富程度上有了极大的提高,也为能够进行更为合理、有效的分析处理技术提供了可能。因此,HSI技术不仅引起了遥感界的关注,同时也引起了其它领域(如城市发展、环境检测、医学、农学、食品)的极大兴趣。HSI分类旨在根据地物独有的光谱特征对每个像素的地物进行分类。然而,标记HSI通常需要专家花费大量时间和精力,这使得只有很少或没有标记像素可用于训练模型。一种合理的解决方案是利用在不同条件下捕获的充分标记和相关的HSI来帮助学习更准确的分类器。另外,由于拍摄条件的多样性(例如大气条件、土壤湿度、光照条件等)导致的光谱偏移,传统的分类方法无法取得令人满意的结果。为此,众多领域自适应方法被应用于多时相和跨场景的HSI分类任务中。领域自适应旨在借助一个包含大量标记像素的HSI(源域)来帮助提高少标记或无标记的HSI(目标域)的分类精度。
随着深度学习的快速发展,深度神经网络凭借其强大的特征提取能力被广泛应用于领域自适应,能够帮助改善传统领域自适应方法在面对HSI迁移任务时因有限的非线性映射能力而面临的欠适配问题。如利用来自辅助数据源的标记HSI数据来最小化跨域类内样本与类间样本在潜在空间中的距离比,对两个域的分布进行适配。再如考虑HSI 不同地物之间潜在的拓扑关系,用卷积神经网络提取的特征来动态构建图,通过图最优传输和最大均值差异(MMD)分别对两个域的拓扑关系和特征分布进行适配。
生成对抗网络在许多领域都有出色的表现,它独特的对抗机制也被应用于领域自适应。例如域对抗神经网络(DANN),通过特征提取器与领域判别器之间的对抗,特征提取器最终可以提取出两个域的域不变特征。然而,DANN主要是对整个源域和目标域分布进行适配,没有考虑数据分布背后复杂的多模结构。再如多对抗领域自适应(MADA) 来捕获数据的多模式结构,实现基于多个领域判别器的不同数据分布的细粒度适配。将这种类级对抗适应网络引入HSI分类任务,提出类级分布适应网络,在MADA的基础上,将基于概率预测MMD方法与类级对抗适应相结合,实现了HSI更精细的无监督分类。然而,使用多个领域判别器会大量增加网络的参数,导致网络的训练需要大量的时间。例如将图神经网络(GNN)和类级相关性对齐(CORAL)引入HSI无监督领域自适应任务中,GNN作为特征提取器,不仅考虑光谱波段之间的信息,还考虑近邻节点之间的关系,同时将联合CORAL领域适应策略引入GNN,用较少的网络参数实现了域级和类级的领域适应。
样本级的信息会比类级的信息更加精细,最近有许多工作通过利用样本级别的相似性来更精细的对跨域样本进行适配。例如,一种基于实例级亲和力的领域自适应方法,通过使用多样本对比损失识别源域和目标域之间的成对相似性关系来执行样本级亲和力感知迁移,成功利用样本级相似性的形式来更精细的改进领域自适应的过程。再如,通过设计基于图的特征传播模块,将样本级和类级结构信息整合到两个邻域,来缓解在潜在空间中样本级和类级的数据结构可能在对抗学习期间被扭曲的问题。大多数现有领域自适应工作专注于在潜在空间中对源域特征和目标域特征进行适配,如用源域类原型来表征每个类的特征,并将目标域特征与源域类原型适配,这样可以避免采样可变性、类不平衡和数据隐私的问题。
然而,上述类级和实例级领域自适应方法有两大局限性,不能直接应用于HSI迁移任务。一方面,它们中的大多数都是通过最小化潜在空间中两个域的相似样本之间的统计距离来减少领域偏移。这些操作的一个直观前提是,如果目标域样本在潜在空间中接近某一类源域簇,则它们应该属于同一类。然而,在不同拍摄条件下获得的高光谱图像往往存在光谱特征偏移现象,从而导致具有相似光谱特征的像素可能属于不同的类别。另一方面,这些方法大多都依赖于伪标签的准确性。不幸的是,伪标签不可能完全可靠,噪声伪标签会导致不相关类之间的负迁移。
发明内容
发明目的:针对上述现有技术,提出一种基于虚拟分类器的软实例级的高光谱图像领域自适应方法。
技术方案:一种基于虚拟分类器的高光谱图像领域自适应方法,包括如下步骤:
步骤1:利用高光谱图像的光谱向量和空间坐标构建空-谱近邻图,并将光谱向量和空-谱近邻图联合输入到图卷积网络中,从而得到高光谱图像的高层特征,所述高层特征包括源域高层特征和目标域高层特征;
步骤2:构建一个基于特征相似性度量的虚拟分类器来输出目标域样本的类别概率,通过最小化真实和虚拟分类器的确定性差异损失来增强真实和虚拟分类器的预测一致性,以使不同领域但具有相似特征的像素被分为同一个类别;
步骤3:为目标域样本的正负样本分配置信系数,构造一个软原型对比损失并将其最小化,以对齐不同领域特征相似的样本且使不相似的样本互相远离;
步骤4:通过领域对抗策略减少两个领域的整体分布差异。
进一步的,所述步骤1中,给定源域高光谱图像
Figure BDA0003882576510000031
及其对应空间坐标
Figure BDA0003882576510000032
其中,
Figure BDA0003882576510000033
为第i个源域样本,
Figure BDA0003882576510000034
Figure BDA0003882576510000035
分别为第i个源域样本的横纵坐标,
Figure BDA0003882576510000036
n(S)为源域样本总数,b为特征维度;定义一个无向图G(S)=(V(S),A(S)),其中V(S)为节点
Figure BDA0003882576510000037
的集合,每个节点
Figure BDA0003882576510000038
表示一个像素的特征向量;
Figure BDA0003882576510000039
为一个对称且稀疏的近邻矩阵,其矩阵元素
Figure BDA00038825765100000310
表示连接节点
Figure BDA00038825765100000311
Figure BDA00038825765100000312
的边的权重;定义度矩阵
Figure BDA00038825765100000313
其中
Figure BDA00038825765100000314
为第i行近邻矩阵A(S)的和;每个节点选择与之相似度最大的k个节点作为其近邻,并用高斯核函数来度量节点之间的相似度,则
Figure BDA00038825765100000315
被定义为:
Figure BDA00038825765100000316
式中,
Figure BDA00038825765100000317
Figure BDA00038825765100000318
近邻点的集合,σ为高斯核函数的带宽,dist(·,·)为距离度量函数,此处采用空-谱距离
Figure BDA00038825765100000319
表示为:
Figure BDA00038825765100000320
式中,
Figure BDA00038825765100000321
为两个节点的光谱向量之间的欧式距离,
Figure BDA00038825765100000322
为两个节点的空间坐标之间的欧式距离,ψ为控制光谱距离和空间距离相对重要程度的权重因子;若两节点越相似,则
Figure BDA00038825765100000323
越小,
Figure BDA00038825765100000324
越大;对近邻矩阵A(S)进行规范化处理:
Figure BDA0003882576510000041
式中,I为单位矩阵,
Figure BDA0003882576510000042
为(A(S)+I)对应的度矩阵;规范化操处理得到的
Figure BDA0003882576510000043
每行的和与每列的和均为1,则第(m+1)层图卷积网络提取到的特征表示为:
Figure BDA0003882576510000044
式中,φ(·)为修正线性单元,H(S)m+1和H(S)m分别表示图卷积网络第(m+1)层的输出和输入特征,H(S)0=X(S);Wm为图卷积网络第m层的滤波器矩阵;最终,经过图卷积网络提取的源域高层特征表示为:
Figure BDA0003882576510000045
式中,
Figure BDA0003882576510000046
为特征提取器,θF为特征提取器的网络参数。
进一步的,所述步骤2中,虚拟分类器能够输出目标域样本与源域每类原型的特征相似度;首先计算一个相似度矩阵
Figure BDA0003882576510000047
其中n(T)是目标域的样本总数,nC是类别总数;
Figure BDA0003882576510000048
表示第i个目标域样本与源域第j类原型的特征相似度;源域类原型的计算方式为:
Figure BDA0003882576510000049
式中,
Figure BDA00038825765100000410
为源域第c类样本,
Figure BDA00038825765100000411
为源域第c类样本总数;利用修改后的归一化的逆欧氏距离来计算目标域样本与源域每类原型的特征相似度:
Figure BDA00038825765100000412
式中,
Figure BDA00038825765100000413
为最小-最大归一化后的欧式距离,
Figure BDA00038825765100000414
为目标域高层特征;虚拟分类器的输出表示为:
Figure BDA00038825765100000415
式中,
Figure BDA0003882576510000051
Figure BDA0003882576510000052
表示虚拟分类器对第i个目标域样本的类别概率预测;
真实分类器对第i个目标域样本的类别预测
Figure BDA0003882576510000053
表示为:
Figure BDA0003882576510000054
式中,
Figure BDA0003882576510000055
为真实分类器,θC为真实分类器的网络参数,
Figure BDA0003882576510000056
为第i个目标域样本,
Figure BDA0003882576510000057
为softmax的概率输出;最小化以下目标函数:
Figure BDA0003882576510000058
式中,
Figure BDA0003882576510000059
表示为交叉熵损失,
Figure BDA00038825765100000510
为第i个源域样本的类别标签,
Figure BDA00038825765100000511
为真实分类器将第i个源域样本分到第c类的概率;构建预测相关矩阵:
Figure BDA00038825765100000512
式中,
Figure BDA00038825765100000513
为真实分类器将第i个目标域样本分到第j类的概率,j=1,2...nC
Figure BDA00038825765100000514
为虚拟分类器将第i个目标域样本分到第j类的概率,j=1,2...nC,最大化
Figure BDA00038825765100000515
的对角线上的元素并最小化剩余的元素,定义真实和虚拟分类器的确定性差异损失:
Figure BDA00038825765100000516
式中,
Figure BDA00038825765100000517
表示
Figure BDA00038825765100000518
的第m行和第n列的元素,
Figure BDA00038825765100000519
进一步的,所述步骤3中,使用相似度矩阵来计算软原型对比损失;将与目标域样本相似度最高的源域类原型作为正样本
Figure BDA00038825765100000520
其中
Figure BDA00038825765100000521
[·]v表示第v个元素;其余的源域类原型作为负样本,真实分类器的输出
Figure BDA00038825765100000522
作为正负样本对相似度的置信系数;软原型对比损失表示为:
Figure BDA0003882576510000061
式中,
Figure BDA0003882576510000062
是目标域样本和正样本之间的相似度,
Figure BDA0003882576510000063
是真实分类器将目标域样本分配给第v类的概率,将
Figure BDA0003882576510000064
作为
Figure BDA0003882576510000065
Figure BDA0003882576510000066
正样本的置信系数。
进一步的,所述步骤4中,领域对抗策略通过领域判别器和特征提取器之间的对抗来实现;领域判别损失定义为:
Figure BDA0003882576510000067
式中,
Figure BDA0003882576510000068
为二元交叉熵损失,di为样本xi的对应领域标签,
Figure BDA0003882576510000069
为领域判别器,θD为领域判别器的网络参数;在领域判别器和特征提取器之间添加梯度反转层,梯度反转层没有可更新的网络参数,只定义了前向和后向传播的计算规则:
R(x)=x
Figure BDA00038825765100000610
式中,R(x)为梯度反转层的伪函数,x为梯度反转层的输入,λ为适应参数,λ从0逐渐变化为1,定义为:
Figure BDA00038825765100000611
式中,α为决定λ从0到1的增长速度的参数,ρ∈[0,1]是当前迭代次数与总迭代次数的比率。
有益效果:基于对抗学习的高光谱图像领域自适应方法通常通过最小化不同高光谱图像中相似像素之间的统计距离来适应概率分布。然而,在不同拍摄条件下获得的高光谱图像往往存在光谱特征偏移现象,从而导致具有相似光谱特征的像素可能属于不同的类别。因此,直接减少潜在空间中相似像素的统计距离将加剧像素误分。为此,本发明提出了一种基于虚拟分类器的软实例级领域自适应方法,并将其用于无监督高光谱图像分类任务。本发明的主要优点:(1)构建一个基于特征相似度度量的虚拟分类器,以输出目标域样本的类别概率作为辅助变量。通过最小化真实和虚拟分类器的确定性差异损失,鼓励具有相似特征的跨域样本归为同一类,从而增强隐藏层特征的可判别性;(2) 为了减少噪声伪标签的影响,将置信系数分配给目标域像素的正样本和负样本。这不仅会减少潜在空间中相似样本之间的距离,还会增强目标域样本的预测确定性。
附图说明
图1是本发明方法的流程图。
具体实施方式
下面结合附图对本发明做更进一步的解释。
如图1所示,一种基于虚拟分类器的高光谱图像领域自适应方法,包括如下步骤:
步骤1:利用高光谱图像的光谱向量和空间坐标构建空-谱近邻图,并将光谱向量和空-谱近邻图联合输入到图卷积网络中,从而得到高光谱图像的高层特征。
步骤1中,给定源域高光谱图像
Figure BDA0003882576510000071
及其对应空间坐标
Figure BDA0003882576510000072
其中,
Figure BDA0003882576510000073
为第i个源域样本,
Figure BDA0003882576510000074
Figure BDA0003882576510000075
分别为第i个源域样本的横纵坐标,
Figure BDA0003882576510000076
n(S)为源域样本总数,b为特征维度;定义一个无向图G(S)=(V(S),A(S)),其中V(S)为节点
Figure BDA0003882576510000077
的集合,每个节点
Figure BDA0003882576510000078
表示一个像素的特征向量;
Figure BDA0003882576510000079
为一个对称且稀疏的近邻矩阵,其矩阵元素
Figure BDA00038825765100000710
表示连接节点
Figure BDA00038825765100000711
Figure BDA00038825765100000712
的边的权重。定义度矩阵
Figure BDA00038825765100000713
其中
Figure BDA00038825765100000714
为第i行近邻矩阵A(S)的和。每个节点选择与之相似度最大的k个节点作为其近邻,并用高斯核函数来度量节点之间的相似度,则
Figure BDA00038825765100000715
被定义为:
Figure BDA00038825765100000716
式中,
Figure BDA00038825765100000717
Figure BDA00038825765100000718
近邻点的集合,σ为高斯核函数的带宽,dist(·,·)为距离度量函数,此处采用空-谱距离
Figure BDA00038825765100000719
表示为:
Figure BDA0003882576510000081
式中,
Figure BDA0003882576510000082
为两个节点的光谱向量之间的欧式距离,
Figure BDA0003882576510000083
为两个节点的空间坐标之间的欧式距离,ψ为控制光谱距离和空间距离相对重要程度的权重因子;若两节点越相似,则
Figure BDA0003882576510000084
越小,
Figure BDA0003882576510000085
越大。相较于只考虑光谱距离的方法,使用基于空-谱近邻图的图卷积神经网络(GCN) 可以缓解由环境、大气、时间等多种因素带来的同物异谱、异物同谱的影响。为避免在卷积运算中可能带来的数值不稳定和梯度消失的问题,对近邻矩阵A(S)进行规范化处理:
Figure BDA0003882576510000086
式中,I为单位矩阵,(A(S)+I)是为了使图卷积操作在聚合周围节点信息时也能保留自身节点的信息,
Figure BDA0003882576510000087
为(A(S)+I)对应的度矩阵;规范化操处理得到的
Figure BDA0003882576510000088
每行的和与每列的和均为1,则第(m+1)层图卷积网络提取到的特征表示为:
Figure BDA0003882576510000089
式中,φ(·)为修正线性单元,H(S)m+1和H(S)m分别表示图卷积网络第(m+1)层的输出和输入特征,H(S)0=X(S);Wm为图卷积网络第m层的滤波器矩阵;最终,经过图卷积网络提取的源域高层特征表示为:
Figure BDA00038825765100000810
式中,
Figure BDA00038825765100000811
为特征提取器,θF为特征提取器的网络参数;目标域高层特征
Figure BDA00038825765100000812
可用相同的方法得到。
步骤2:构建一个基于特征相似性度量的虚拟分类器来输出目标域样本的类别概率,通过最小化真实和虚拟分类器的确定性差异损失来增强真实和虚拟分类器的预测一致性,以使不同领域但具有相似特征的像素被分为同一个类别。
如果目标域样本在潜在空间中与某个类的源域簇接近,则它们应该属于同一类;然而,由于HSI中光谱特征的偏移以及对抗学习会降低特征的判别性的问题,潜在空间中的特征将包含许多对分类无益的信息。这将导致相似的样本可能被分类不同的类别,从而加剧了负迁移的问题。为此,本发明构建了一个虚拟分类器来执行基于特征相似性度量的分类。通过减少真实和虚拟分类器之间的分歧,鼓励具有相似特征的跨域样本被分到同一类中。
虚拟分类器能够输出目标域样本与源域每类原型的特征相似度。首先计算一个相似度矩阵
Figure BDA0003882576510000091
其中n(T)是目标域的样本总数,nC是类别总数;
Figure BDA0003882576510000092
表示第i个目标域样本与源域第j类原型的特征相似度;源域类原型的计算方式为:
Figure BDA0003882576510000093
式中,
Figure BDA0003882576510000094
为源域第c类样本,
Figure BDA0003882576510000095
为源域第c类样本总数;为了使特征之间的差异在不同数量级的计算中更具可比性,利用修改后的归一化的逆欧氏距离来计算目标域样本与源域每类原型的特征相似度:
Figure BDA0003882576510000096
式中,
Figure BDA0003882576510000097
为最小-最大归一化后的欧式距离。此处,softmax函数被加入到虚拟分类器的输出后,从而使得到的向量可以同时表示:1)目标域样本与源域每类原型的相似度;2)目标域样本被分为每个类别的可能性。虚拟分类器的输出表示为:
Figure BDA0003882576510000098
式中,
Figure BDA0003882576510000099
Figure BDA00038825765100000910
表示虚拟分类器对第i个目标域样本的类别概率预测;
真实分类器对第i个目标域样本的类别预测
Figure BDA00038825765100000911
表示为:
Figure BDA00038825765100000912
式中,
Figure BDA00038825765100000913
为真实分类器,θC为真实分类器的网络参数,
Figure BDA00038825765100000914
为第i个目标域样本,
Figure BDA00038825765100000915
为softmax的概率输出。为了减少源域的经验风险,最小化以下目标函数:
Figure BDA00038825765100000916
式中,
Figure BDA0003882576510000101
表示为交叉熵损失,
Figure BDA0003882576510000102
为第i个源域样本的类别标签,
Figure BDA0003882576510000103
为真实分类器将第i个源域样本分到第c类的概率。为了研究真实和虚拟分类器的分歧,构建预测相关矩阵:
Figure BDA0003882576510000104
式中,
Figure BDA0003882576510000105
为真实分类器将第i个目标域样本分到第j类的概率,j=1,2...nC
Figure BDA0003882576510000106
为虚拟分类器将第i个目标域样本分到第j类的概率,j=1,2...nC
Figure BDA0003882576510000107
是由真实和虚拟分类器的预测概率的乘积得到的,因此,ARV可以有效地表示来自虚拟分类器的相似性信息和来自真实分类器的预测可能性之间的关系。然后,为了增强真实和虚拟分类器的预测一致性,需要最大化
Figure BDA0003882576510000108
的对角线上的元素并最小化剩余的元素,定义真实和虚拟分类器的确定性差异(RVCDD)损失:
Figure BDA0003882576510000109
式中,
Figure BDA00038825765100001010
表示
Figure BDA00038825765100001011
的第m行和第n列的元素,
Figure BDA00038825765100001012
Figure BDA00038825765100001013
包含了真实和虚拟分类器预测不一致的所有概率。因此,通过最小化RVCDD损失可以使真实和虚拟分类器的输出一致,从而使隐藏层特征包含更多利于分类的信息。
步骤3:为目标域样本的正负样本分配置信系数,构造一个软原型对比损失并将其最小化,以对齐不同领域特征相似的样本且使不相似的样本互相远离。
大多数类级和实例级领域自适应方法都依赖于伪标签的准确性。然而,伪标签不可能完全可靠。为了减少噪声伪标签的影响,本发明提出了一种软实例级领域自适应方法,它使用相似度矩阵来计算软原型对比损失(SPC)损失。将与目标域样本相似度最高的源域类原型作为正样本
Figure BDA00038825765100001014
其中
Figure BDA00038825765100001015
[·]v表示第v个元素;其余的源域类原型作为负样本,真实分类器的输出
Figure BDA00038825765100001016
作为正负样本对相似度的置信系数;软原型对比损失表示为:
Figure BDA0003882576510000111
式中,
Figure BDA0003882576510000112
是目标域样本和正样本之间的相似度,
Figure BDA0003882576510000113
是真实分类器将目标域样本分配给第v类的概率,将
Figure BDA0003882576510000114
作为
Figure BDA0003882576510000115
Figure BDA0003882576510000116
正样本的置信系数。最小化
Figure BDA0003882576510000117
不仅可以减小目标域样本和正样本之间的距离,还可以增加目标域样本和负样本之间的距离。此外,通过增加置信系数,可以增强分类器的确定性。
与一般的实例级领域自适应方法相比,本发明具有以下优点:1)一般的实例级领域自适应方法会对齐离群源域样本与目标域样本,这将导致类内方差较高。相比之下,本专利将对齐目标域样本和源域的簇中心,降低了对齐离群源域样本与目标域样本的风险;2)一般的对比学习旨在根据伪标签区分正负样本,忽略了噪声伪标签的负面影响。相比之下,本发明为每个正负样本分配相应的置信系数,从而减轻噪声伪标签的影响。
步骤4:通过领域对抗策略减少两个领域的整体分布差异。
领域对抗策略旨在减少源域和目标域之间的整体分布差异,通过领域判别器和特征提取器之间的对抗来实现;领域判别器试图区分源域和目标域特征,而特征提取器试图欺骗领域判别器。领域判别损失定义为:
Figure BDA0003882576510000118
式中,
Figure BDA0003882576510000119
为二元交叉熵损失,di为样本xi的对应领域标签,
Figure BDA00038825765100001110
为领域判别器,θD为领域判别器的网络参数;为了实现领域对抗策略,在领域判别器和特征提取器之间添加了梯度反转层(GRL),梯度反转层没有可更新的网络参数,只定义了前向和后向传播的计算规则:
R(x)=x
Figure BDA00038825765100001111
式中,R(x)为梯度反转层的伪函数,x为梯度反转层的输入,λ为适应参数,为了抑制领域判别器在训练初期真实分类器的影响,λ从0逐渐变化为1,定义为:
Figure BDA0003882576510000121
式中,α为决定λ从0到1的增长速度的参数,ρ∈[0,1]是当前迭代次数与总迭代次数的比率。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种基于虚拟分类器的高光谱图像领域自适应方法,其特征在于,包括如下步骤:
步骤1:利用高光谱图像的光谱向量和空间坐标构建空-谱近邻图,并将光谱向量和空-谱近邻图联合输入到图卷积网络中,从而得到高光谱图像的高层特征,所述高层特征包括源域高层特征和目标域高层特征;
步骤2:构建一个基于特征相似性度量的虚拟分类器来输出目标域样本的类别概率,通过最小化真实和虚拟分类器的确定性差异损失来增强真实和虚拟分类器的预测一致性,以使不同领域但具有相似特征的像素被分为同一个类别;
步骤3:为目标域样本的正负样本分配置信系数,构造一个软原型对比损失并将其最小化,以对齐不同领域特征相似的样本且使不相似的样本互相远离;
步骤4:通过领域对抗策略减少两个领域的整体分布差异。
2.根据权利要求1所述的基于虚拟分类器的高光谱图像领域自适应方法,其特征在于:所述步骤1中,给定源域高光谱图像
Figure FDA0003882576500000011
及其对应空间坐标
Figure FDA0003882576500000012
其中,
Figure FDA0003882576500000013
为第i个源域样本,
Figure FDA0003882576500000014
Figure FDA0003882576500000015
分别为第i个源域样本的横纵坐标,
Figure FDA0003882576500000016
n(S)为源域样本总数,b为特征维度;定义一个无向图G(S)=(V(S),A(S)),其中V(S)为节点
Figure FDA0003882576500000017
的集合,每个节点
Figure FDA0003882576500000018
表示一个像素的特征向量;
Figure FDA0003882576500000019
为一个对称且稀疏的近邻矩阵,其矩阵元素
Figure FDA00038825765000000110
表示连接节点
Figure FDA00038825765000000111
Figure FDA00038825765000000112
的边的权重;定义度矩阵
Figure FDA00038825765000000113
其中
Figure FDA00038825765000000114
为第i行近邻矩阵A(S)的和;每个节点选择与之相似度最大的k个节点作为其近邻,并用高斯核函数来度量节点之间的相似度,则
Figure FDA00038825765000000115
被定义为:
Figure FDA00038825765000000116
式中,
Figure FDA00038825765000000117
Figure FDA00038825765000000118
近邻点的集合,σ为高斯核函数的带宽,dist(·,·)为距离度量函数,此处采用空-谱距离
Figure FDA00038825765000000119
表示为:
Figure FDA00038825765000000120
式中,
Figure FDA0003882576500000021
为两个节点的光谱向量之间的欧式距离,
Figure FDA0003882576500000022
为两个节点的空间坐标之间的欧式距离,ψ为控制光谱距离和空间距离相对重要程度的权重因子;若两节点越相似,则
Figure FDA0003882576500000023
越小,
Figure FDA0003882576500000024
越大;对近邻矩阵A(S)进行规范化处理:
Figure FDA0003882576500000025
式中,I为单位矩阵,
Figure FDA0003882576500000026
为(A(S)+I)对应的度矩阵;规范化操处理得到的
Figure FDA0003882576500000027
每行的和与每列的和均为1,则第(m+1)层图卷积网络提取到的特征表示为:
Figure FDA0003882576500000028
式中,φ(·)为修正线性单元,H(S)m+1和H(S)m分别表示图卷积网络第(m+1)层的输出和输入特征,H(S)0=X(S);Wm为图卷积网络第m层的滤波器矩阵;最终,经过图卷积网络提取的源域高层特征表示为:
Figure FDA0003882576500000029
式中,
Figure FDA00038825765000000210
为特征提取器,θF为特征提取器的网络参数。
3.根据权利要求2所述的基于虚拟分类器的高光谱图像领域自适应方法,其特征在于:所述步骤2中,虚拟分类器能够输出目标域样本与源域每类原型的特征相似度;首先计算一个相似度矩阵
Figure FDA00038825765000000211
其中n(T)是目标域的样本总数,nC是类别总数;
Figure FDA00038825765000000212
表示第i个目标域样本与源域第j类原型的特征相似度;源域类原型的计算方式为:
Figure FDA00038825765000000213
式中,
Figure FDA00038825765000000214
为源域第c类样本,
Figure FDA00038825765000000215
为源域第c类样本总数;利用修改后的归一化的逆欧氏距离来计算目标域样本与源域每类原型的特征相似度:
Figure FDA00038825765000000216
式中,
Figure FDA0003882576500000031
为最小-最大归一化后的欧式距离,
Figure FDA0003882576500000032
为目标域高层特征;虚拟分类器的输出表示为:
Figure FDA0003882576500000033
式中,
Figure FDA0003882576500000034
表示虚拟分类器对第i个目标域样本的类别概率预测;
真实分类器对第i个目标域样本的类别预测
Figure FDA0003882576500000035
表示为:
Figure FDA0003882576500000036
式中,
Figure FDA0003882576500000037
为真实分类器,θC为真实分类器的网络参数,
Figure FDA0003882576500000038
为第i个目标域样本,
Figure FDA0003882576500000039
为softmax的概率输出;最小化以下目标函数:
Figure FDA00038825765000000310
式中,
Figure FDA00038825765000000311
表示为交叉熵损失,
Figure FDA00038825765000000312
为第i个源域样本的类别标签,
Figure FDA00038825765000000313
为真实分类器将第i个源域样本分到第c类的概率;构建预测相关矩阵:
Figure FDA00038825765000000314
式中,
Figure FDA00038825765000000315
为真实分类器将第i个目标域样本分到第j类的概率,j=1,2...nC
Figure FDA00038825765000000316
为虚拟分类器将第i个目标域样本分到第j类的概率,j=1,2...nC,最大化
Figure FDA00038825765000000317
的对角线上的元素并最小化剩余的元素,定义真实和虚拟分类器的确定性差异损失:
Figure FDA00038825765000000318
式中,
Figure FDA00038825765000000319
表示
Figure FDA00038825765000000320
的第m行和第n列的元素,
Figure FDA00038825765000000321
4.根据权利要求3所述的基于虚拟分类器的高光谱图像领域自适应方法,其特征在于:所述步骤3中,使用相似度矩阵来计算软原型对比损失;将与目标域样本相似度最高的源域类原型作为正样本
Figure FDA0003882576500000041
其中
Figure FDA0003882576500000042
[·]v表示第v个元素;其余的源域类原型作为负样本,真实分类器的输出
Figure FDA0003882576500000043
作为正负样本对相似度的置信系数;软原型对比损失表示为:
Figure FDA0003882576500000044
式中,
Figure FDA0003882576500000045
是目标域样本和正样本之间的相似度,
Figure FDA0003882576500000046
是真实分类器将目标域样本分配给第v类的概率,将
Figure FDA0003882576500000047
作为
Figure FDA0003882576500000048
Figure FDA0003882576500000049
正样本的置信系数。
5.根据权利要求1所述的基于虚拟分类器的高光谱图像领域自适应方法,其特征在于:所述步骤4中,领域对抗策略通过领域判别器和特征提取器之间的对抗来实现;领域判别损失定义为:
Figure FDA00038825765000000410
式中,
Figure FDA00038825765000000411
为二元交叉熵损失,di为样本xi的对应领域标签,
Figure FDA00038825765000000412
为领域判别器,θD为领域判别器的网络参数;在领域判别器和特征提取器之间添加梯度反转层,梯度反转层没有可更新的网络参数,只定义了前向和后向传播的计算规则:
R(x)=x
Figure FDA00038825765000000413
式中,R(x)为梯度反转层的伪函数,x为梯度反转层的输入,λ为适应参数,λ从0逐渐变化为1,定义为:
Figure FDA00038825765000000414
式中,α为决定λ从0到1的增长速度的参数,ρ∈[0,1]是当前迭代次数与总迭代次数的比率。
CN202211235431.7A 2022-10-10 2022-10-10 一种基于虚拟分类器的高光谱图像领域自适应方法 Active CN115410088B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211235431.7A CN115410088B (zh) 2022-10-10 2022-10-10 一种基于虚拟分类器的高光谱图像领域自适应方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211235431.7A CN115410088B (zh) 2022-10-10 2022-10-10 一种基于虚拟分类器的高光谱图像领域自适应方法

Publications (2)

Publication Number Publication Date
CN115410088A true CN115410088A (zh) 2022-11-29
CN115410088B CN115410088B (zh) 2023-10-31

Family

ID=84168765

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211235431.7A Active CN115410088B (zh) 2022-10-10 2022-10-10 一种基于虚拟分类器的高光谱图像领域自适应方法

Country Status (1)

Country Link
CN (1) CN115410088B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116403058A (zh) * 2023-06-09 2023-07-07 昆明理工大学 一种遥感跨场景多光谱激光雷达点云分类方法
CN116611001A (zh) * 2023-07-19 2023-08-18 中国海洋大学 基于多维自适应增量图的近红外光谱数据分类方法
CN116883692A (zh) * 2023-06-06 2023-10-13 中国地质大学(武汉) 多光谱遥感图像的光谱特征提取方法、装置及存储介质
CN116910571A (zh) * 2023-09-13 2023-10-20 南京大数据集团有限公司 一种基于原型对比学习的开集域适应方法及系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180365820A1 (en) * 2017-06-19 2018-12-20 ImpactVision, Inc. System and method for hyperspectral image processing to identify object
CN109064502A (zh) * 2018-07-11 2018-12-21 西北工业大学 基于深度学习和人工设计特征相结合的多源图像配准方法
CN109359623A (zh) * 2018-11-13 2019-02-19 西北工业大学 基于深度联合分布适配网络的高光谱图像迁移分类方法
CN109784392A (zh) * 2019-01-07 2019-05-21 华南理工大学 一种基于综合置信的高光谱图像半监督分类方法
CN111814871A (zh) * 2020-06-13 2020-10-23 浙江大学 一种基于可靠权重最优传输的图像分类方法
CN111881987A (zh) * 2020-07-31 2020-11-03 西安工业大学 基于深度学习的苹果病毒识别方法
US20210326660A1 (en) * 2020-04-21 2021-10-21 Google Llc Supervised Contrastive Learning with Multiple Positive Examples
CN113673599A (zh) * 2021-08-20 2021-11-19 大连海事大学 一种基于校正原型学习的高光谱影像分类方法
US20210390686A1 (en) * 2020-06-15 2021-12-16 Dalian University Of Technology Unsupervised content-preserved domain adaptation method for multiple ct lung texture recognition
WO2022011754A1 (zh) * 2020-07-16 2022-01-20 苏州大学 一种基于自适应流形嵌入动态分布对齐的故障诊断方法
US20220138495A1 (en) * 2020-11-05 2022-05-05 University Of Electronic Science And Technology Of China Model and method for multi-source domain adaptation by aligning partial features
CN114723994A (zh) * 2022-04-18 2022-07-08 中国矿业大学 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN114821198A (zh) * 2022-06-24 2022-07-29 齐鲁工业大学 基于自监督和小样本学习的跨域高光谱图像分类方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180365820A1 (en) * 2017-06-19 2018-12-20 ImpactVision, Inc. System and method for hyperspectral image processing to identify object
CN109064502A (zh) * 2018-07-11 2018-12-21 西北工业大学 基于深度学习和人工设计特征相结合的多源图像配准方法
CN109359623A (zh) * 2018-11-13 2019-02-19 西北工业大学 基于深度联合分布适配网络的高光谱图像迁移分类方法
CN109784392A (zh) * 2019-01-07 2019-05-21 华南理工大学 一种基于综合置信的高光谱图像半监督分类方法
US20210326660A1 (en) * 2020-04-21 2021-10-21 Google Llc Supervised Contrastive Learning with Multiple Positive Examples
CN111814871A (zh) * 2020-06-13 2020-10-23 浙江大学 一种基于可靠权重最优传输的图像分类方法
US20210390355A1 (en) * 2020-06-13 2021-12-16 Zhejiang University Image classification method based on reliable weighted optimal transport (rwot)
US20210390686A1 (en) * 2020-06-15 2021-12-16 Dalian University Of Technology Unsupervised content-preserved domain adaptation method for multiple ct lung texture recognition
WO2022011754A1 (zh) * 2020-07-16 2022-01-20 苏州大学 一种基于自适应流形嵌入动态分布对齐的故障诊断方法
CN111881987A (zh) * 2020-07-31 2020-11-03 西安工业大学 基于深度学习的苹果病毒识别方法
US20220138495A1 (en) * 2020-11-05 2022-05-05 University Of Electronic Science And Technology Of China Model and method for multi-source domain adaptation by aligning partial features
CN113673599A (zh) * 2021-08-20 2021-11-19 大连海事大学 一种基于校正原型学习的高光谱影像分类方法
CN114723994A (zh) * 2022-04-18 2022-07-08 中国矿业大学 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN114821198A (zh) * 2022-06-24 2022-07-29 齐鲁工业大学 基于自监督和小样本学习的跨域高光谱图像分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAOYU WANG 等: "Hyperspectral Image Classification Based on Domain Adversarial Broad Adaptation Network", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING ( VOLUME: 60)》 *
付光远;辜弘炀;汪洪桥;: "基于加权K近邻和卷积神经网络的高光谱图像分类", 计算机应用研究, no. 08 *
张婧;袁细国;: "基于小样本学习的高光谱遥感图像分类算法", 聊城大学学报(自然科学版), no. 06 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883692A (zh) * 2023-06-06 2023-10-13 中国地质大学(武汉) 多光谱遥感图像的光谱特征提取方法、装置及存储介质
CN116403058A (zh) * 2023-06-09 2023-07-07 昆明理工大学 一种遥感跨场景多光谱激光雷达点云分类方法
CN116403058B (zh) * 2023-06-09 2023-09-12 昆明理工大学 一种遥感跨场景多光谱激光雷达点云分类方法
CN116611001A (zh) * 2023-07-19 2023-08-18 中国海洋大学 基于多维自适应增量图的近红外光谱数据分类方法
CN116611001B (zh) * 2023-07-19 2023-10-03 中国海洋大学 基于多维自适应增量图的近红外光谱数据分类方法
CN116910571A (zh) * 2023-09-13 2023-10-20 南京大数据集团有限公司 一种基于原型对比学习的开集域适应方法及系统
CN116910571B (zh) * 2023-09-13 2023-12-08 南京大数据集团有限公司 一种基于原型对比学习的开集域适应方法及系统

Also Published As

Publication number Publication date
CN115410088B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
Liu et al. A deep convolutional coupling network for change detection based on heterogeneous optical and radar images
CN110956185B (zh) 一种图像显著目标的检测方法
CN115410088B (zh) 一种基于虚拟分类器的高光谱图像领域自适应方法
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
US8989442B2 (en) Robust feature fusion for multi-view object tracking
Zhao et al. Band-subset-based clustering and fusion for hyperspectral imagery classification
CN112288011B (zh) 一种基于自注意力深度神经网络的图像匹配方法
CN109033978B (zh) 一种基于纠错策略的cnn-svm混合模型手势识别方法
Condessa et al. Performance measures for classification systems with rejection
CN111079847B (zh) 一种基于深度学习的遥感影像自动标注方法
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN108596195B (zh) 一种基于稀疏编码特征提取的场景识别方法
Nishii et al. Supervised image classification by contextual AdaBoost based on posteriors in neighborhoods
CN117237733A (zh) 一种结合自监督和弱监督学习的乳腺癌全切片图像分类方法
CN114139631B (zh) 一种面向多目标训练对象可选择的灰盒的对抗样本生成方法
CN111008652A (zh) 一种基于gan的高光谱遥感影像分类方法
Parate et al. Global-patch-hybrid template-based arbitrary object tracking with integral channel features
CN107423771B (zh) 一种两时相遥感图像变化检测方法
Rekik et al. An optimal unsupervised satellite image segmentation approach based on pearson system and k-means clustering algorithm initialization
Turtinen et al. Contextual analysis of textured scene images.
CN113409351B (zh) 基于最优传输的无监督领域自适应遥感图像分割方法
CN115393631A (zh) 基于贝叶斯层图卷积神经网络的高光谱图像分类方法
Cheng et al. Soft Instance-Level Domain Adaptation with Virtual Classifier for Unsupervised Hyperspectral Image Classification
Cao et al. A multi-label classification method for vehicle video
Ghamisi Spectral and spatial classification of hyperspectral data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant