CN112131967A - 基于多分类器对抗迁移学习的遥感场景分类方法 - Google Patents

基于多分类器对抗迁移学习的遥感场景分类方法 Download PDF

Info

Publication number
CN112131967A
CN112131967A CN202010903347.2A CN202010903347A CN112131967A CN 112131967 A CN112131967 A CN 112131967A CN 202010903347 A CN202010903347 A CN 202010903347A CN 112131967 A CN112131967 A CN 112131967A
Authority
CN
China
Prior art keywords
label
domain
probability distribution
classifier
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010903347.2A
Other languages
English (en)
Other versions
CN112131967B (zh
Inventor
王鑫
冒志鹏
宁晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202010903347.2A priority Critical patent/CN112131967B/zh
Publication of CN112131967A publication Critical patent/CN112131967A/zh
Application granted granted Critical
Publication of CN112131967B publication Critical patent/CN112131967B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多分类器对抗迁移学习的遥感场景分类方法,通过构建源域和目标域,输入特征提取器中得到各个图像的特征图,将特征图输入标签分类器得到每个图像的第一预测标签概率分布、第二预测标签概率分布,做平均化处理得到平均化预测标签概率分布,将平均化预测标签概率分布和各个图像的特征图组合成联合概率分布,将联合概率分布输入到域判别器,得到每个图像的域标签概率分布,计算域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数,根确定总损失函数,使用随机梯度下降法优化总损失函数,以得到目标域最终的分类结果,实现对目标域中遥感图像的场景分类。

Description

基于多分类器对抗迁移学习的遥感场景分类方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于多分类器对抗迁移学习的遥感场景分类方法。
背景技术
遥感图像场景分类是遥感领域的一个研究热点,它可以应用于多个军事和民用领域。随着遥感技术的不断进步,遥感图像的空间分辨率不断提升,使得遥感图像所包含的地物目标细节更加明显、地物光谱特征更加复杂,这导致了早期利用光谱特征进行场景分类的方法,如极大似然法、最小距离法、K-均值聚类法等分类准确率降低。
近年来,随着深度学习理论在图像处理、模式识别、和机器学习领域的不断发展,研究学者开始将深度学习理论应用于遥感图像分类问题中。其中,卷积神经网络作为深度学习中常见的一种前馈型神经网络,善于挖掘数据的局部和全局特征,且这些特征不容易过拟合,具有一定的平移不变性和旋转不变性。因此,可以用于图像的分类问题。
公开号CN108399366A一种遥感图像场景的分类系统,包括采集步骤、灰度处理器、拟合步骤、边缘检测步骤、遥感图像像素分类步骤及神经网络训练器;通过对原始遥感图像进行采集作为样本并传输给灰度处理器,接着采用分量法进行灰度化处理,然后采用低次样条函数对灰度直方图进行拟合,最后采用基于零交叉的方法找到由图像得到的二阶导数的零交叉点来定位边缘。所述的方法采用基于像元的方法对遥感图像分类,能够很好地对遥感图像场景进行分类,但是,该分类方法采用的大多是传统手工特征提取的算法,分类步骤繁琐,且在分类的决策边界处难以判定所属类别。
Li等人在2019年IEEE 4th International Conference on Signal and ImageProcessing上发表论文“Classification of Remote Sensing Scenes Based on NeuralArchitecture Search Network”,该文献针对网络模型的自动设计问题,提出了一种基于神经网络的遥感场景分类方法。进一步利用迁移学习技术,使所设计的网络能够很好地迁移到遥感场景分类数据集中。由于该方法采用神经网络架构搜索的方法,使得训练的工作变得非常麻烦,且实现该分类方法对硬件资源的要求极高,同时训练出的的神经网络架构具有偶然性,泛化能力受数据影响。
综上,现有的遥感图像场景分类方法具有如下特征:
(1)特征提取过程复杂:传统的分类方法需要借助不同的图像特征提取算法,提取图像的各种类型的特征,用于后续的图像分类,特征提取过程复杂,且提取的特征可能存在信息涵盖不全面、存在冗余等现象,导致分类正确率不高;
(2)特征表现力不强:现有的遥感图像场景分类方法通常仅用一种或两种类型的特征作为分类器的输入,当场景图像过于复杂、类别较多时,特征表现力不强,弱化了分类的性能。
(3)分类器参数选择困难:常用的图像分类器,如SVM、KNN(K-Nearest Neighbor)等参数的设置对分类的性能影响很大,为了得到较好的分类结果,需要大量的人工参与进行最优参数的选择,导致算法通用性不强。
可见,现有的遥感图像场景分类方法,往往存在诸多局限性。
发明内容
针对以上问题,本发明提出一种基于多分类器对抗迁移学习的遥感场景分类方法。
为实现本发明的目的,提供一种基于多分类器对抗迁移学习的遥感场景分类方法,包括如下步骤:
S10,构建分别包括多个遥感场景图像数据的源域和目标域;所述源域和目标域的图像类别相同;
S30,将源域的图像和目标域分别输入预先构建的特征提取器中得到各个图像的特征图;
S40,构造一个基于softmax激活函数的全连接层作为标签分类器,将各个图像的特征图输入标签分类器得到每个图像的第一预测标签概率分布,再次将各个图像的特征图输入标签分类器得到每个图像的第二预测标签概率分布;所述第一预测标签概率分布与第二预测标签概率分布不完全一致;
S50,对第一预测标签概率分布与第二预测标签概率分布做平均化处理,得到平均化预测标签概率分布,构造域判别器,以对提取的特征所属的域进行判别;
S60,将平均化预测标签概率分布和各个图像的特征图组合成联合概率分布,将联合概率分布输入到域判别器,得到每个图像的域标签概率分布,根据每个图像的域标签概率分布计算域判别器的损失函数,根据第一预测标签概率分布和第二预测标签概率分布分别计算两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数;
S70,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数,使用随机梯度下降法优化总损失函数,以得到目标域最终的分类结果。
在一个实施例中,步骤S30之前,还包括:
S20,构建特征提取器,以对源域和目标域进行深度特征提取,获得相应图像的特征图。
具体地,构建特征提取器包括:
选用在数据集ImageNet上预训练好的深度卷积神经网络模型,去掉模型最后的全连接层后,得到特征提取器Gf(·)。
在一个实施例中,对第一预测标签概率分布与第二预测标签概率分布做平均化处理包括:
Figure BDA0002660530070000031
式中,
Figure BDA0002660530070000032
表示第一预测标签概率分布,
Figure BDA0002660530070000033
表示第二预测标签概率分布,
Figure BDA0002660530070000034
表示平均化预测标签概率分布。
在一个实施例中,构造域判别器包括:
采用基于sigmoid激活函数的全连接层作为域判别器Gd,其中全连接层的输出节点数量为2。
具体地,所述sigmoid激活函数为:
Figure BDA0002660530070000035
其中,Si为输入样本属于域i的概率,oi表示全连接层第i个节点的输出值。
在一个实施例中,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数包括:
L(θfyd)=LYfy)+αLtfy)-λLDfd),
其中,θf是特征提取器的参数,θy是标签分类器的参数,θd是域判别器的参数。α和λ是权重系数,L(θfyd)为总损失函数,LYfy)为标签分类器的联合损失函数,Ltfy)为标签分类器的不一致性损失函数,LDfd)为域判别器的损失函数。
上述基于多分类器对抗迁移学习的遥感场景分类方法,通过构建分别包括多个遥感场景图像数据的源域和目标域,将源域的图像和目标域分别输入预先构建的特征提取器中得到各个图像的特征图,构造一个基于softmax激活函数的全连接层作为标签分类器,将各个图像的特征图输入标签分类器得到每个图像的第一预测标签概率分布,再次将各个图像的特征图输入标签分类器得到每个图像的第二预测标签概率分布,对第一预测标签概率分布与第二预测标签概率分布做平均化处理,得到平均化预测标签概率分布,构造域判别器,以对提取的特征所属的域进行判别,将平均化预测标签概率分布和各个图像的特征图组合成联合概率分布,将联合概率分布输入到域判别器,得到每个图像的域标签概率分布,根据每个图像的域标签概率分布计算域判别器的损失函数,根据第一预测标签概率分布和第二预测标签概率分布分别计算两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数,使用随机梯度下降法优化总损失函数,以得到目标域最终的分类结果,实现对目标域中遥感图像的场景分类,以使遥感图像场景分类方案适于各类场景,提供其应用全面性。
附图说明
图1是一个实施例的基于多分类器对抗迁移学习的遥感场景分类方法流程图;
图2是一个实施例的多分类器对抗迁移学习网络示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
参考图1所示,图1为一个实施例的基于多分类器对抗迁移学习的遥感场景分类方法流程图,包括如下步骤:
S10,构建分别包括多个遥感场景图像数据的源域和目标域;所述源域和目标域的图像类别相同。
上述步骤构建不同拍摄条件下遥感场景图像数据集,分别称之为源域和目标域,两个域中的图像类别相同,同时制作源域样本的标签集合,样本的标签也就是该样本的类别,其目的就是要根据源域样本及其标签,再结合目标域样本来预测目标域样本的标签。
S30,将源域的图像和目标域分别输入预先构建的特征提取器中得到各个图像的特征图。
上述步骤具体可以将源域和目标域图像输入到特征提取器中得到每张图像的特征向量,进而得到各个图像的特征图。
在一个实施例中,步骤S30之前,还包括:
S20,构建特征提取器,以对源域和目标域进行深度特征提取,获得相应图像的特征图。
具体地,构建特征提取器包括:
选用在数据集ImageNet上预训练好的深度卷积神经网络模型,去掉模型最后的全连接层后,得到特征提取器Gf(·)。
S40,构造一个基于softmax激活函数的全连接层作为标签分类器,将各个图像的特征图输入标签分类器得到每个图像的第一预测标签概率分布,再次将各个图像的特征图输入标签分类器得到每个图像的第二预测标签概率分布;所述第一预测标签概率分布与第二预测标签概率分布不完全一致。
上述步骤可以构造一个基于softmax激活函数的全连接层作为标签分类器,并采用“丢弃法”按一定概率随机丢弃部分节点。将各个图像的特征图输入到标签分类器中得到每张图像的预测标签概率分布(第一预测标签概率分布);再次将各个图像的特征图输入到标签分类器中得到每张图像的另一种预测标签概率分布(第二预测标签概率分布)。
S50,对第一预测标签概率分布与第二预测标签概率分布做平均化处理,得到平均化预测标签概率分布,构造域判别器,以对提取的特征所属的域进行判别。
S60,将平均化预测标签概率分布和各个图像的特征图组合成联合概率分布,将联合概率分布输入到域判别器,得到每个图像的域标签概率分布,根据每个图像的域标签概率分布计算域判别器的损失函数,根据第一预测标签概率分布和第二预测标签概率分布分别计算两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数。
S70,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数,使用随机梯度下降法优化总损失函数,以得到目标域最终的分类结果。
上述基于多分类器对抗迁移学习的遥感场景分类方法,通过构建分别包括多个遥感场景图像数据的源域和目标域,将源域的图像和目标域分别输入预先构建的特征提取器中得到各个图像的特征图,构造一个基于softmax激活函数的全连接层作为标签分类器,将各个图像的特征图输入标签分类器得到每个图像的第一预测标签概率分布,再次将各个图像的特征图输入标签分类器得到每个图像的第二预测标签概率分布,对第一预测标签概率分布与第二预测标签概率分布做平均化处理,得到平均化预测标签概率分布,构造域判别器,以对提取的特征所属的域进行判别,将平均化预测标签概率分布和各个图像的特征图组合成联合概率分布,将联合概率分布输入到域判别器,得到每个图像的域标签概率分布,根据每个图像的域标签概率分布计算域判别器的损失函数,根据第一预测标签概率分布和第二预测标签概率分布分别计算两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数,使用随机梯度下降法优化总损失函数,以得到目标域最终的分类结果,实现对目标域中遥感图像的场景分类,以使遥感图像场景分类方案适于各类场景,提供其应用全面性。
在一个实施例中,对第一预测标签概率分布与第二预测标签概率分布做平均化处理包括:
Figure BDA0002660530070000061
式中,
Figure BDA0002660530070000062
表示目标域的第一预测标签概率分布,
Figure BDA0002660530070000063
表示目标域的第二预测标签概率分布,
Figure BDA0002660530070000064
表示平均化预测标签概率分布。
在一个实施例中,构造域判别器包括:
采用基于sigmoid激活函数的全连接层作为域判别器Gd,其中全连接层的输出节点数量为2,实际上这就是一个二分类器。
具体地,所述sigmoid激活函数为:
Figure BDA0002660530070000065
其中,Si为输入样本属于域i(i=1,2)的概率,oi表示全连接层第i个节点的输出值。
在一个实施例中,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数包括:
L(θfyd)=LYfy)+αLtfy)-λLDfd),
其中,θf是特征提取器的参数,θy是标签分类器的参数,θd是域判别器的参数。α和λ是权重系数,L(θfyd)为总损失函数,LYfy)为标签分类器的联合损失函数,Ltfy)为标签分类器的不一致性损失函数,LDfd)为域判别器的损失函数。
在一个实施例中,构建源域和目标域的方法包括:
构建遥感场景图像数据集源域样本
Figure BDA0002660530070000071
其中ns表示ns个遥感场景图像,
Figure BDA0002660530070000072
表示第i张遥感图像,
Figure BDA0002660530070000073
表示第i张遥感图像的类别标签;
假定在类别相同、拍摄条件不同的情况下,构建遥感场景图像数据集目标域样本
Figure BDA0002660530070000074
其中nt表示nt个遥感场景图像,
Figure BDA0002660530070000075
表示第i张遥感图像。
在一个实施例中,构造一个基于softmax激活函数的全连接层作为标签分类器,并采用“丢弃法”按一定概率随机丢弃部分节点方法可以包括:
softmax激活函数为:
Figure BDA0002660530070000076
其中,Si为输入样本的为第i类的概率,N表示样本的类别数,oi表示全连接层第i个节点的输出值。
“丢弃法”采用的是倒置丢弃法,操作为:
某一层第i个节点的输出为:
Figure BDA0002660530070000077
其中,ωij表示第i个节点的第j个权重,xj表示上一层第j个节点的值,bi是偏差参数。设丢弃概率为p,那么有p的概率oi会被清零,有1-p的概率oi会除以1-p做拉伸。丢弃概率是丢弃法的超参数。具体来说,设随机变量ξi为0和1的概率分别为p和1-p,使用丢弃法时重新计算该层第i个节点的输出为:
Figure BDA0002660530070000081
最后,将此标签分类器记为C。
相应预测标签概率分布(如第一预测标签概率分布与第二预测标签概率分布)的计算过程可以包括:
从特征提取器Gf(·)提取到的源域和目标域的特征(特征图)分别为:
Figure BDA0002660530070000082
其中,
Figure BDA0002660530070000083
表示源域,
Figure BDA0002660530070000084
表示目标域,fi s表示源域的特征,fi t表示目标域的特征。
将源域和目标域的特征输入到标签分类器C中后,分别得到源域和目标域的预测标签概率分布:
Figure BDA0002660530070000085
其中,
Figure BDA0002660530070000086
表示源域的第一预测标签概率分布,
Figure BDA0002660530070000087
表示目标域的第一预测标签概率分布,C1表示此步骤中经过丢弃法后的标签分类器。标签分类器的输出是每个样本属于各个标签(类别)的概率大小组成的一个概率分布。此外,因为丢弃法是随机丢弃部分节点,具有随机性,每次输入标签分类器后得到的输出结果都会因为这种随机性而有所不同。所以此步骤中的标签分类器和下一步骤中的其实是不一样的,故采用不同的下标来加以区分。
在一个示例中,再次将提取到的源域和目标域的特征输入到标签分类器C中后,分别得到源域和目标域的预测标签概率分布(第二预测标签概率分布):
Figure BDA0002660530070000088
其中,
Figure BDA0002660530070000089
表示源域的第二预测标签概率分布,
Figure BDA00026605300700000810
表示目标域的第二预测标签概率分布,C2表示此步骤中经过丢弃法后的标签分类器。具体地,
Figure BDA00026605300700000811
Figure BDA00026605300700000812
均为第一预测标签概率分布,只不过前一个是源域的第一预测标签概率分布,后一个为目标域的。
在一个实施例中,每个图像的域标签概率分布的确定过程包括:
(9.1)克罗内克积定义如下:
设A是一个m×n的矩阵,B是一个p×q的矩阵,克罗内克积
Figure BDA00026605300700000813
就是一个mp×nq的分块矩阵:
Figure BDA0002660530070000091
其中,amn表示矩阵A第m行第n列的元素;
(9.2)将平均化预测标签概率分布和目标域中图像的特征图对应的分布通过克罗内克积组合成联合概率分布
Figure BDA0002660530070000092
(9.3)由于源域的标签是已知的,所以将源域标签分布和源域中图像的特征图对应的分布通过克罗内克积组合成联合概率分布
Figure BDA0002660530070000093
(9.4)为了对抗训练过程变得可执行,在域判别器之前引入梯度逆转层(GRL),GRL可以看作为这样一个函数:
g(f(v);λ)=f(v)
且它的梯度为
Figure BDA0002660530070000094
有了GRL就可以通过标准反向传播来更新网络参数了;
(9.5)将步骤(9.2)得到的联合概率分布经过步骤(9.4)的GRL输入到域判别器Gd中去得到目标域每张图像的域标签预测概率分布:
Figure BDA0002660530070000095
(9.6)将步骤(9.3)得到的联合概率分布经过步骤(9.4)的GRL输入到域判别器Gd中去得到源域每张图像的域标签预测概率分布:
Figure BDA0002660530070000096
在一个实施例中,域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数的计算过程包括:
定义源域图像的真实域标签
Figure BDA0002660530070000097
目标域图像的真实域标签
Figure BDA0002660530070000098
域判别器Gd的损失函数采用交叉熵损失函数,定义为:
Figure BDA0002660530070000099
两个标签分类器C1和C2的联合损失函数,定义为:
Figure BDA0002660530070000101
减少两个标签分类器对目标域类别预测的不一致性使得提取的特征更具有判别性,采用L1距离来衡量两个分类器预测的不一致性大小,不一致性损失函数定义为:
Figure BDA0002660530070000102
其中,LY为标签分类器的联合损失函数,Lt为标签分类器的不一致性损失函数,LD为域判别器的损失函数,ns表示源域的图像总数目,nt表示目标域的图像总数目,符号||||1表示L1距离计算。
具体地,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数包括:
L(θfyd)=LYfy)+αLtfy)-λLDfd),
其中,θf是特征提取器的参数,θy是标签分类器的参数,θd是域判别器的参数。α和λ是权重系数,L(θfyd)为总损失函数,LYfy)为标签分类器的联合损失函数,Ltfy)为标签分类器的不一致性损失函数,LDfd)为域判别器的损失函数。
进一步地,使用随机梯度下降法优化总损失函数,以得到目标域最终的分类结果这一过程可以包括:
总体优化目标是找到总损失函数的一个鞍点
Figure BDA0002660530070000103
使得:
Figure BDA0002660530070000104
Figure BDA0002660530070000105
为找到所需的鞍点,采用随机梯度下降法更新网络参数,不断逼近鞍点:
Figure BDA0002660530070000106
Figure BDA0002660530070000107
Figure BDA0002660530070000111
其中,μ为学习率,也是一个超参数。
网络参数经过N次迭代更新之后,标签分类器输出的目标域标签预测概率分布为
Figure BDA0002660530070000112
这是一个离散概率分布函数,将其分布列记为P{X=k}=pk(k=1,2,L,K),其中,K为类别数,pk为目标域样本为第k类的概率。目标域样本类别判定法则为
Figure BDA0002660530070000113
得到的
Figure BDA0002660530070000114
即为最终的目标域标签预测结果,也即最终的分类结果。
上述基于多分类器对抗迁移学习的遥感场景分类方法,具有如下有益效果:
(1)采用端到端的训练方式,不需要对图像进行复杂的前期预处理,不需要分阶段训练,最终学习得到的深度特征对于目标域来说更具有判别性。
(2)考虑到目标样本与任务特异性决策边界之间关系对特征提取的影响,利用丢弃法来构建两个分类器,最小化两个分类器预测结果的不一致性,使得提取的特征远离任务的决策边界,更具有判别性。
(3)充分利用含标签数据的标签信息,将其和提取的特征分布通过克罗内克积构成联合分布用于域判别器的训练,更有利于域不变特征的提取,增加分类的准确度。
在一个实施例中,多分类器对抗迁移学习网络可以参考图2所示,上述基于多分类器对抗迁移学习的遥感场景分类方法还可以包括:
(1)构建遥感场景图像数据集,并搭建多分类器对抗迁移学习网络。
(1.1)构建遥感场景图像数据集源域样本
Figure BDA0002660530070000115
其中ns表示ns个遥感场景图像,
Figure BDA0002660530070000116
表示第i张遥感图像,
Figure BDA0002660530070000117
表示第i张遥感图像的类别标签。本发明选用遥感场景图像公共数据集AID中6个类别的图像作为源域进行实验。
(1.2)假定在类别相同、拍摄条件不同的情况下,构建遥感场景图像数据集目标域样本
Figure BDA0002660530070000118
其中nt表示nt个遥感场景图像,
Figure BDA0002660530070000119
表示第i张遥感图像。本实施例选用遥感场景图像公共数据集UCMerced中6个类别的图像作为目标域进行实验,所选用的6个类别与源域的相同。
(1.3)搭建一个多分类器对抗迁移学习网络,如附图2所示。该网络由特征提取器、标签分类器和域判别器三大块组成。
(1.3.1)直接选用在大型数据集ImageNet上预训练好的卷积神经网络模型ResNet-50,去掉模型最后的全连接层后,这样即可作为特征提取器Gf(·)。特征提取器Gf(·)的输入也即是整个网络的输入,特征提取器Gf(·)的输出是输入的每个图像的特征向量。
(1.3.2)构造一个基于softmax激活函数的全连接层作为标签分类器,并采用“丢弃法”按一定概率随机丢弃部分节点。标签分类器的输入为特征提取器输出的特征向量,标签分类器的输出为预测得到的图像的类别标签。
(a)softmax激活函数为
Figure BDA0002660530070000121
其中,Si为输入样本的为第i类的概率,N表示样本的类别数,oi表示全连接层第i个节点的输出值。
(b)“丢弃法”采用的是倒置丢弃法,操作为:
某一层第i个节点的输出为:
Figure BDA0002660530070000122
其中,ωij表示第i个节点的第j个权重,xj表示上一层第j个节点的值,bi是偏差参数。设丢弃概率为p,那么有p的概率oi会被清零,有1-p的概率oi会除以1-p做拉伸。丢弃概率是丢弃法的超参数。具体来说,设随机变量ξi为0和1的概率分别为p和1-p,使用丢弃法时重新计算该层第i个节点的输出为:
Figure BDA0002660530070000123
最后,我们将此标签分类器记为C。
(1.3.3)构造一个基于sigmoid激活函数的全连接层作为域判别器Gd,全连接层的输出节点数量为2,实际上这就是一个二分类器。域判别器的输入为特征提取器得到的特征向量和标签分类器得到的预测标签分布组成的联合分布,域判别器的输出为预测得到的图像的域标签。
sigmoid激活函数为:
Figure BDA0002660530070000131
其中,Si为输入样本属于域i(i=1,2)的概率,oi表示全连接层第i个节点的输出值。
(2)将构建的源域和目标域所有图像输入到搭建的网络中去进行训练和预测。
(2.1)将源域和目标域所有遥感图像在输入层中归一化为225×225大小,然后将其输入到特征提取器Gf(·)中去。经过特征提取器提取到图像的深度特征,输出为每个图像的特征,其中源域和目标域每个图像的特征分别为:
Figure BDA0002660530070000132
其中,
Figure BDA0002660530070000133
表示源域,
Figure BDA0002660530070000134
表示目标域,fi s表示源域的特征,fi t表示目标域的特征。
(2.2)将特征fi s和fi t输入到标签分类器C中后,分别得到源域和目标域的标签预测概率分布:
Figure BDA0002660530070000135
其中,
Figure BDA0002660530070000136
表示源域的第一预测标签概率分布,
Figure BDA0002660530070000137
表示目标域的第一预测标签概率分布,C1表示此步骤中经过丢弃法后的标签分类器。因为丢弃法是随机丢弃部分节点,所以此步骤中的标签分类器和下一步骤中的其实是不一样的,故采用不同的下标来加以区分。
(2.3)再将特征fi s和fi t输入到标签分类器C中后,分别得到源域和目标域的标签预测概率分布:
Figure BDA0002660530070000138
其中,
Figure BDA0002660530070000139
表示源域的第二预测标签概率分布,
Figure BDA00026605300700001310
表示目标域的第二预测标签概率分布,C2表示此步骤中经过丢弃法后的标签分类器。
(2.4)将目标域的标签预测概率分布
Figure BDA00026605300700001311
Figure BDA00026605300700001312
做平均化处理,用
Figure BDA00026605300700001313
表示经过平均化处理后的目标域标签预测概率分布,计算为:
Figure BDA00026605300700001314
(2.5)将平均化后目标域标签预测概率分布
Figure BDA0002660530070000141
和目标域特征向量fi t通过克罗内克积组合成目标域联合概率分布
Figure BDA0002660530070000142
由于源域的标签是已知的,所以将源域真实标签分布
Figure BDA0002660530070000143
和源域特征向量fi s通过克罗内克积组合成源域联合概率分布
Figure BDA0002660530070000144
其中,克罗内克积定义如下:
设A是一个m×n的矩阵,B是一个p×q的矩阵,克罗内克积
Figure BDA0002660530070000145
就是一个mp×nq的分块矩阵:
Figure BDA0002660530070000146
其中,amn表示矩阵A第m行第n列的元素。
(2.6)为了对抗训练过程变得可执行,在域判别器Gd之前引入梯度逆转层(GRL),GRL可以看作为这样一个函数:
g(f(v);λ)=f(v)
且它的梯度为
Figure BDA0002660530070000147
有了GRL就可以通过标准反向传播来更新网络参数了。
(2.7)将目标域联合概率分布
Figure BDA0002660530070000148
经过GRL输入到域判别器Gd中去得到目标域每张图像的域标签预测概率分布:
Figure BDA0002660530070000149
(2.8)将源域联合概率分布
Figure BDA00026605300700001410
经过GRL输入到域判别器Gd中去得到源域每张图像的域标签预测概率分布:
Figure BDA00026605300700001411
(2.9)定义源域图像的真实域标签
Figure BDA00026605300700001412
目标域图像的真实域标签
Figure BDA00026605300700001413
计算域判别器Gd的损失函数采用交叉熵损失函数LD
Figure BDA00026605300700001414
(2.10)计算两个标签分类器C1和C2的联合损失函数LY
Figure BDA0002660530070000151
(2.11)减少两个标签分类器对目标域类别预测的不一致性使得提取的特征更具有判别性,采用L1距离来衡量两个分类器预测的不一致性大小,计算不一致性损失函数Lt
Figure BDA0002660530070000152
其中,符号||||1表示L1距离计算。
(2.12)由(2.9)(2.10)(2.11)计算的各个损失函数可以得到总体损失函数为:
L(θfyd)=LYfy)+αLtfy)-λLDfd)
其中,θf是特征提取器的参数,θy是标签分类器的参数,θd是域判别器的参数。α和λ是权重系数,L(θfyd)为总损失函数,LYfy)为标签分类器的联合损失函数,Ltfy)为标签分类器的不一致性损失函数,LDfd)为域判别器的损失函数。
(2.13)总体优化目标是找到(2.12)中总体损失函数的一个鞍点
Figure BDA0002660530070000153
使得:
Figure BDA0002660530070000154
Figure BDA0002660530070000155
(2.14)为找到(2.13)中所需的鞍点,采用随机梯度下降法更新网络参数,不断逼近鞍点:
Figure BDA0002660530070000156
Figure BDA0002660530070000157
Figure BDA0002660530070000158
其中,μ为学习率,也是一个超参数。
(2.15)网络参数经过N次迭代更新之后,标签分类器输出的目标域标签预测概率分布为
Figure BDA0002660530070000161
这是一个离散概率分布函数,将其分布列记为P{X=k}=pk(k=1,2,L,K),其中,K为类别数,pk为目标域样本为第k类的概率。目标域样本类别判定法则为
Figure BDA0002660530070000162
得到的
Figure BDA0002660530070000163
即为最终的目标域标签预测结果,也即最终的分类结果。将目标域中所有图像的标签预测值
Figure BDA0002660530070000164
和它们的真实标签值
Figure BDA0002660530070000165
相比,即可得到整个目标域的分类准确率。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
需要说明的是,本申请实施例所涉及的术语“第一\第二\第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序。应该理解“第一\第二\第三”区分的对象在适当情况下可以互换,以使这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
本申请实施例的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (7)

1.一种基于多分类器对抗迁移学习的遥感场景分类方法,其特征在于,包括如下步骤:
S10,构建分别包括多个遥感场景图像数据的源域和目标域;所述源域和目标域的图像类别相同;
S30,将源域的图像和目标域分别输入预先构建的特征提取器中得到各个图像的特征图;
S40,构造一个基于softmax激活函数的全连接层作为标签分类器,将各个图像的特征图输入标签分类器得到每个图像的第一预测标签概率分布,再次将各个图像的特征图输入标签分类器得到每个图像的第二预测标签概率分布;所述第一预测标签概率分布与第二预测标签概率分布不完全一致;
S50,对第一预测标签概率分布与第二预测标签概率分布做平均化处理,得到平均化预测标签概率分布,构造域判别器,以对提取的特征所属的域进行判别;
S60,将平均化预测标签概率分布和各个图像的特征图组合成联合概率分布,将联合概率分布输入到域判别器,得到每个图像的域标签概率分布,根据每个图像的域标签概率分布计算域判别器的损失函数,根据第一预测标签概率分布和第二预测标签概率分布分别计算两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数;
S70,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数,使用随机梯度下降法优化总损失函数,以得到目标域最终的分类结果。
2.根据权利要求1所述的基于多分类器对抗迁移学习的遥感场景分类方法,其特征在于,步骤S30之前,还包括:
S20,构建特征提取器,以对源域和目标域进行深度特征提取,获得相应图像的特征图。
3.根据权利要求2所述的基于多分类器对抗迁移学习的遥感场景分类方法,其特征在于,构建特征提取器包括:
选用在数据集ImageNet上预训练好的深度卷积神经网络模型,去掉模型最后的全连接层后,得到特征提取器Gf(·)。
4.根据权利要求1所述的基于多分类器对抗迁移学习的遥感场景分类方法,其特征在于,对第一预测标签概率分布与第二预测标签概率分布做平均化处理包括:
Figure FDA0002660530060000021
式中,
Figure FDA0002660530060000022
表示第一预测标签概率分布,
Figure FDA0002660530060000023
表示第二预测标签概率分布,
Figure FDA0002660530060000024
表示平均化预测标签概率分布。
5.根据权利要求1所述的基于多分类器对抗迁移学习的遥感场景分类方法,其特征在于,构造域判别器包括:
采用基于sigmoid激活函数的全连接层作为域判别器Gd,其中全连接层的输出节点数量为2。
6.根据权利要求5所述的基于多分类器对抗迁移学习的遥感场景分类方法,其特征在于,所述sigmoid激活函数为:
Figure FDA0002660530060000025
其中,Si为输入样本属于域i的概率,oi表示全连接层第i个节点的输出值。
7.根据权利要求1所述的基于多分类器对抗迁移学习的遥感场景分类方法,其特征在于,根据域判别器的损失函数、两个标签分类器的联合损失函数、两个标签分类器的不一致性损失函数确定总损失函数包括:
L(θfyd)=LYfy)+αLtfy)-λLDfd),
其中,θf是特征提取器的参数,θy是标签分类器的参数,θd是域判别器的参数。α和λ是权重系数,L(θfyd)为总损失函数,LYfy)为标签分类器的联合损失函数,Ltfy)为标签分类器的不一致性损失函数,LDfd)为域判别器的损失函数。
CN202010903347.2A 2020-09-01 2020-09-01 基于多分类器对抗迁移学习的遥感场景分类方法 Active CN112131967B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010903347.2A CN112131967B (zh) 2020-09-01 2020-09-01 基于多分类器对抗迁移学习的遥感场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010903347.2A CN112131967B (zh) 2020-09-01 2020-09-01 基于多分类器对抗迁移学习的遥感场景分类方法

Publications (2)

Publication Number Publication Date
CN112131967A true CN112131967A (zh) 2020-12-25
CN112131967B CN112131967B (zh) 2022-08-19

Family

ID=73848958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010903347.2A Active CN112131967B (zh) 2020-09-01 2020-09-01 基于多分类器对抗迁移学习的遥感场景分类方法

Country Status (1)

Country Link
CN (1) CN112131967B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112861977A (zh) * 2021-02-19 2021-05-28 中国人民武装警察部队工程大学 迁移学习数据处理方法、系统、介质、设备、终端及应用
CN113095246A (zh) * 2021-04-19 2021-07-09 首都师范大学 一种基于迁移学习和场景感知的跨域自适应人数统计方法
CN113128487A (zh) * 2021-04-06 2021-07-16 中车青岛四方车辆研究所有限公司 一种基于双梯度的弱监督目标定位方法及装置
CN113160219A (zh) * 2021-05-12 2021-07-23 北京交通大学 用于无人机遥感图像的实时铁路场景解析方法
CN113221848A (zh) * 2021-06-09 2021-08-06 中国人民解放军国防科技大学 基于多分类器域对抗网络的高光谱开放集领域自适应方法
CN113378904A (zh) * 2021-06-01 2021-09-10 电子科技大学 一种基于对抗域自适应网络的图像分类方法
CN114511737A (zh) * 2022-01-24 2022-05-17 北京建筑大学 图像识别域泛化模型的训练方法
CN114723994A (zh) * 2022-04-18 2022-07-08 中国矿业大学 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN114821200A (zh) * 2022-06-28 2022-07-29 苏州立创致恒电子科技有限公司 一种应用于工业视觉检测领域的图像检测模型及方法
CN115292532A (zh) * 2022-06-24 2022-11-04 中南大学 基于伪标签一致性学习的遥感图像域适应检索方法
WO2022242076A1 (en) * 2021-05-17 2022-11-24 Huawei Technologies Co., Ltd. Methods and systems for compressing trained neural network and for improving efficiently performing computations of compressed neural network
CN115546626A (zh) * 2022-03-03 2022-12-30 中国人民解放军国防科技大学 面向数据双重不平衡的降偏场景图生成方法及系统
CN116030304A (zh) * 2023-01-09 2023-04-28 宁波拾烨智能科技有限公司 基于加权判别与多分类器的跨域遥感影像对抗迁移方法
CN116128047A (zh) * 2022-12-08 2023-05-16 西南民族大学 一种基于对抗网络的迁移学习方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376620A (zh) * 2018-09-30 2019-02-22 华北电力大学 一种风电机组齿轮箱故障的迁移诊断方法
CN110210545A (zh) * 2019-05-27 2019-09-06 河海大学 基于迁移学习的红外遥感水体分类器构建方法
CN110837850A (zh) * 2019-10-23 2020-02-25 浙江大学 一种基于对抗学习损失函数的无监督域适应方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376620A (zh) * 2018-09-30 2019-02-22 华北电力大学 一种风电机组齿轮箱故障的迁移诊断方法
CN110210545A (zh) * 2019-05-27 2019-09-06 河海大学 基于迁移学习的红外遥感水体分类器构建方法
CN110837850A (zh) * 2019-10-23 2020-02-25 浙江大学 一种基于对抗学习损失函数的无监督域适应方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蒋树龙: "基于深度学习的遥感影像场景分类研究", 《中国优秀博硕士学位论文全文数据库(硕士)》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112861977B (zh) * 2021-02-19 2024-01-26 中国人民武装警察部队工程大学 迁移学习数据处理方法、系统、介质、设备、终端及应用
CN112861977A (zh) * 2021-02-19 2021-05-28 中国人民武装警察部队工程大学 迁移学习数据处理方法、系统、介质、设备、终端及应用
CN113128487A (zh) * 2021-04-06 2021-07-16 中车青岛四方车辆研究所有限公司 一种基于双梯度的弱监督目标定位方法及装置
CN113095246A (zh) * 2021-04-19 2021-07-09 首都师范大学 一种基于迁移学习和场景感知的跨域自适应人数统计方法
CN113160219A (zh) * 2021-05-12 2021-07-23 北京交通大学 用于无人机遥感图像的实时铁路场景解析方法
CN113160219B (zh) * 2021-05-12 2023-02-07 北京交通大学 用于无人机遥感图像的实时铁路场景解析方法
WO2022242076A1 (en) * 2021-05-17 2022-11-24 Huawei Technologies Co., Ltd. Methods and systems for compressing trained neural network and for improving efficiently performing computations of compressed neural network
CN113378904A (zh) * 2021-06-01 2021-09-10 电子科技大学 一种基于对抗域自适应网络的图像分类方法
CN113221848A (zh) * 2021-06-09 2021-08-06 中国人民解放军国防科技大学 基于多分类器域对抗网络的高光谱开放集领域自适应方法
CN114511737A (zh) * 2022-01-24 2022-05-17 北京建筑大学 图像识别域泛化模型的训练方法
CN115546626B (zh) * 2022-03-03 2024-02-02 中国人民解放军国防科技大学 面向数据双重不平衡的降偏场景图生成方法及系统
CN115546626A (zh) * 2022-03-03 2022-12-30 中国人民解放军国防科技大学 面向数据双重不平衡的降偏场景图生成方法及系统
CN114723994A (zh) * 2022-04-18 2022-07-08 中国矿业大学 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN115292532A (zh) * 2022-06-24 2022-11-04 中南大学 基于伪标签一致性学习的遥感图像域适应检索方法
CN115292532B (zh) * 2022-06-24 2024-03-15 中南大学 基于伪标签一致性学习的遥感图像域适应检索方法
CN114821200B (zh) * 2022-06-28 2022-09-13 苏州立创致恒电子科技有限公司 一种应用于工业视觉检测领域的图像检测模型及方法
CN114821200A (zh) * 2022-06-28 2022-07-29 苏州立创致恒电子科技有限公司 一种应用于工业视觉检测领域的图像检测模型及方法
CN116128047A (zh) * 2022-12-08 2023-05-16 西南民族大学 一种基于对抗网络的迁移学习方法
CN116128047B (zh) * 2022-12-08 2023-11-14 西南民族大学 一种基于对抗网络的迁移学习方法
CN116030304A (zh) * 2023-01-09 2023-04-28 宁波拾烨智能科技有限公司 基于加权判别与多分类器的跨域遥感影像对抗迁移方法

Also Published As

Publication number Publication date
CN112131967B (zh) 2022-08-19

Similar Documents

Publication Publication Date Title
CN112131967B (zh) 基于多分类器对抗迁移学习的遥感场景分类方法
Li et al. Classification of high-spatial-resolution remote sensing scenes method using transfer learning and deep convolutional neural network
CN108388927B (zh) 基于深度卷积孪生网络的小样本极化sar地物分类方法
Peng et al. Efficient convolutional neural architecture search for remote sensing image scene classification
CN107330396A (zh) 一种基于多属性和多策略融合学习的行人再识别方法
CN114067160A (zh) 基于嵌入平滑图神经网络的小样本遥感图像场景分类方法
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
Tao et al. Scene context-driven vehicle detection in high-resolution aerial images
CN107133569A (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN109886141A (zh) 一种基于不确定性优化的行人再辨识方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN104680193B (zh) 基于快速相似性网络融合算法的在线目标分类方法与系统
CN108985360A (zh) 基于扩展形态学与主动学习的高光谱分类方法
CN114723994B (zh) 一种基于双分类器对抗增强网络的高光谱图像分类方法
CN114863091A (zh) 一种基于伪标签的目标检测训练方法
CN116310647A (zh) 一种基于增量学习的劳保物品目标检测方法及系统
CN114048843A (zh) 一种基于选择性特征迁移的小样本学习网络
Gómez-Vargas et al. Re-identification of fish individuals of undulate skate via deep learning within a few-shot context
CN113297936A (zh) 一种基于局部图卷积网络的排球群体行为识别方法
CN106447691A (zh) 基于加权多示例学习的加权极限学习机视频目标跟踪方法
Langenkämper et al. COATL-a learning architecture for online real-time detection and classification assistance for environmental data
CN115131671A (zh) 一种跨域高分辨率遥感图像典型目标细粒度识别方法
Hakim et al. Optimization of the Backpropagation Method with Nguyen-widrow in Face Image Classification
CN112801179A (zh) 面向跨领域复杂视觉任务的孪生分类器确定性最大化方法
Xue et al. Fast and unsupervised neural architecture evolution for visual representation learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant