CN116824216A - 一种无源无监督域适应图像分类方法 - Google Patents
一种无源无监督域适应图像分类方法 Download PDFInfo
- Publication number
- CN116824216A CN116824216A CN202310576784.1A CN202310576784A CN116824216A CN 116824216 A CN116824216 A CN 116824216A CN 202310576784 A CN202310576784 A CN 202310576784A CN 116824216 A CN116824216 A CN 116824216A
- Authority
- CN
- China
- Prior art keywords
- target
- classifier
- domain
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 81
- 239000000203 mixture Substances 0.000 claims description 9
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 6
- 230000003042 antagnostic effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000006978 adaptation Effects 0.000 description 14
- 241001051053 Garcinia cowa Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- ZAFNJMIOTHYJRJ-UHFFFAOYSA-N Diisopropyl ether Chemical compound CC(C)OC(C)C ZAFNJMIOTHYJRJ-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 108010037444 diisopropylglutathione ester Proteins 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种无源无监督域适应图像分类方法,使用源域图像及其标签训练一个源域预训练模型,并使用该预训练模型初始化一个目标模型;使用初始化的目标模型计算目标域图像的模型结构级别和数据结构级别的预测分数,将二者结合作为目标域样本的置信分数,并用于目标模型的交叉熵损失加权,引入信息最大化损失来辅助目标模型训练;将目标域样本的图像、伪标签、置信分数混合;计算双分类器的确定性差异距离用于目标模型的最大最小化训练;最后训练模型,计算相应损失并依次迭代更新优化相应的模型参数,从而明确地识别一些不确定分类的目标样本,再引入权重混合策略来充分利用目标域知识,进一步提高目标域分类准确率。
Description
技术领域
本发明涉及迁移学习中的域适应技术领域,特别是涉及一种无源无监督域适应图像分类方法。
背景技术
无监督域适应是利用一个有标记的源域中的知识来帮助学习一个未标记目标域的判别模型,而人们对数据隐私的日益关注给这项任务带来了新的挑战。具体来说,源域和目标域的数据通常被捕获并存储在不同的设备上,并包含私有信息,向目标域公开源数据是有风险的。正是因为无监督域适应在训练过程中需要访问源域数据,所以这也限制了主流的无监督域适应方法在许多现实场景中的应用。
无源无监督域适应的目标是在标记源域不可见的情况下将源域预先训练的模型很好地适应于未标记目标域,它在隐私保护和数据传输方面具有广泛的应用价值,吸引了国内外众多学者的关注。根据适应过程中是否生成伪源数据,又可以分为基于数据生成的无源无监督域适应和基于特征的无源无监督域适应。
现有无源无监督域适应方法大多只使用一个分类器进行决策,但是由于源域数据和目标域数据之间的分布差异,通常会有一些目标实例在决策边界附近,因此产生不确定的分类。除此之外,部分基于置信度评分机制的无源无监督域适应方法只考虑源模型对目标域样本的预测知识,而忽略了目标域样本的内在结构知识,导致目标域信息不能被完全挖掘利用。
发明内容
为了解决以上技术问题,本发明提供一种无源无监督域适应图像分类方法,包括以下步骤
S1、使用源域图像及其标签训练一个源域预训练模型,源域预训练模型包括特征提取器和双分类器,并使用该源域预训练模型初始化一个目标模型用于目标域样本的识别训练,训练过程中源域图像将不可访问;
S2、使用初始化的目标模型计算目标域样本的模型结构级别的预测分数,且计算目标域图像基于高斯混合模型的数据结构级别的预测分数,将两预测分数结合作为目标域样本的置信分数,并用于目标模型的交叉熵损失加权,引入信息最大化损失来辅助目标模型训练;
S3、对目标域样本使用Mixup技术进行权重混合;
S4、计算双分类器的确定性差异距离,并将此确定性差异距离用于目标模型的最大最小化训练;
S5、对目标模型进行总体训练,总体训练包括步骤S5.1、步骤S5.2以及步骤S5.3,并依次迭代更新优化相应的模型参数,通过步骤S5.1、步骤S5.2以及步骤S5.3不断迭代地交替进行完成目标模型的训练,最终对目标域样本进行分类。
本发明进一步限定的技术方案是:
进一步的,步骤S1具体包括以下分步骤
S1.1、假定(xs,ys)为源域有标签样本,xt为目标域无标签样本,源域样本集合目标域样本集合/>其中,ns为源域样本数量,nt为目标域样本数量,/>为源域中第i个样本,/>为该源域样本对应的伪标签,/>为目标域中第i个样本,源域和目标域具有相同的类别数目K;
S1.2、构建一个源域预训练模型Fs,源域预训练模型Fs包括一个特征提取器G、分类器C1以及分类器C2;利用源域有监督数据结合交叉熵损失使分类器对源域样本进行分类,由此产生的分类损失如下式所示:
式中,表示平滑标签,α为平滑系数;
S1.3、使用源域预训练模型Fs初始化目标模型Ft,且将目标模型Ft用于目标域样本的识别训练。
前所述的一种无源无监督域适应图像分类方法,步骤S2中,计算目标域样本的置信分数包括以下步骤
S2.1、根据高斯混合模型获得目标域样本的数据结构级别预测概率,公式如下:
式中,πc、μc、∑c分别代表类别c的混合系数、平均向量以及协方差矩阵,且c,c′∈{1,2,…,K};
S2.2、计算目标域样本的伪标签并分别在分类器C1和分类器C2上计算目标域样本的模型结构级别的预测分数,即MP分数,
式中,m∈{1,2}分别代表分类器C1和分类器C2,/>其中/>和/>分别表示在分类器C1和分类器C2计算得到的MP分数;
S2.3、计算出目标域样本的次伪标签:
式中,a表示次伪标签为第a个类别;
S2.4、计算伪标签和次伪标签的差异:
式中,为目标域样本的次伪标签;
S2.5、将伪标签和次伪标签的差异归一化为目标域样本的数据结构级别的预测分数,即DS分数,
式中,i,j∈{1,2,…,nt};
S2.6、根据目标域样本的MP分数和DS分数,分别在分类器C1和分类器C2上计算目标域样本最终的置信分数:
其中,和/>分别表示在分类器C1和分类器C2计算得到的目标域样本最终的置信分数。
前所述的一种无源无监督域适应图像分类方法,步骤S2中,使用目标域样本的置信分数对目标域样本分类的交叉熵损失进行加权:
式中,是目标域样本分类的交叉熵损失。
前所述的一种无源无监督域适应图像分类方法,步骤S2中,计算信息最大化损失辅助加权的交叉熵损失训练:
式中,表示所有nt个样本被预测为第k个类的平均预测概率,表示第j个目标域样本被预测为第k个类的预测概率。
前所述的一种无源无监督域适应图像分类方法,步骤S3中,将目标域样本的图像、伪标签、置信分数混合,混合目标域样本的过程如下:
式中,η~Beta(α,α)且α∈{0,+∞},为加权参数;和/>为两个随机的目标域样本及其伪标签,样本权重混合损失计算如下:
其中,Lmixup表示样本权重混合损失。
前所述的一种无源无监督域适应图像分类方法,步骤S4中,以对抗性的方式训练分类器C1和分类器C2,以学习目标域上的可转移特征和判别决策边界,两个分类器的输出差异定义如下:
式中,0(.,.)为欧氏距离。
前所述的一种无源无监督域适应图像分类方法,步骤S5中,对目标模型进行总体训练,包括以下步骤
S5.1、利用步骤S2得到的损失训练特征提取器G、分类器C1以及分类器C2,训练的总体损失如下式所示:
式中,β为损失Lim的超参数,θG、以及/>分别表示特征提取器G、分类器C1以及分类器C2的网络参数;
S5.2、固定特征提取器G,利用步骤S3和步骤S4得到的损失训练分类器C1和分类器C2,训练的总体损失如下式所示:
式中,为权重混合损失的超参数,λ为双分类器输出差异损失的超参数;
S5.3、固定分类器C1和分类器C2,利用步骤S4得到的损失训练特征提取器G,训练的总体损失如下式所示:
式中,λ为双分类器输出差异损失的超参数。
本发明的有益效果是:
本发明中,通过计算包含源域和目标域知识的置信分数来加权目标域样本分类的交叉熵损失,防止由于目标域知识的缺失导致置信分数仅包含源域知识而忽略目标域知识的问题;通过将目标域样本的图像、伪标签、置信分数进行混合来充分利用目标域知识;通过设置双分类器进行对抗训练来检测位于决策边界附近且不确定分类的目标样本并完成正确分类;通过三步训练计算相应损失,以对抗的方式交替更新模型参数,对齐源域与目标域分布实现目标域样本的精准分类。
附图说明
图1为本发明的整体框架示意图;
图2为本发明中计算置信分数的框架示意图;
图3为本发明的模型结构示意图。
具体实施方式
本实施例提供的一种无源无监督域适应图像分类方法,如图1至图3所示,包括以下步骤
S1、使用源域图像及其标签训练一个源域预训练模型,源域预训练模型包括特征提取器和双分类器,并使用该源域预训练模型初始化一个目标模型用于目标域样本的识别训练,训练过程中源域图像将不可访问。
步骤S1具体包括以下分步骤
S1.1、在无源无监督域适应中,假定(xs,ys)为源域有标签样本,xt为目标域无标签样本,源域样本集合目标域样本集合/>其中,ns为源域样本数量,nt为目标域样本数量,/>为源域中第i个样本,/>为该源域样本对应的伪标签,/>为目标域中第i个样本,源域和目标域具有相同的类别数目K;
S1.2、构建一个源域预训练模型Fs,源域预训练模型Fs包括一个特征提取器G、分类器C1以及分类器C2;利用源域有监督数据结合交叉熵损失使分类器对源域样本进行分类,由此产生的分类损失如下式所示:
式中,表示平滑标签,α为平滑系数,根据经验我们将α设置为0.1;
S1.3、使用源域预训练模型Fs初始化目标模型Ft,且将目标模型Ft用于目标域样本的识别训练。
S2、如图2所示,使用初始化的目标模型计算目标域样本的模型结构级别的预测分数,且计算目标域图像基于高斯混合模型GMM的数据结构级别的预测分数,将两预测分数结合作为目标域样本的置信分数,并用于目标模型的交叉熵损失加权,引入信息最大化损失来辅助目标模型训练。
计算目标域样本的置信分数包括以下步骤
S2.1、根据高斯混合模型获得目标域样本的数据结构级别预测概率,公式如下:
式中,πc、μc、∑c分别代表类别c的混合系数、平均向量以及协方差矩阵,且c,c′∈{1,2,…,K};
S2.2、计算目标域样本的伪标签并分别在分类器C1和分类器C2上计算目标域样本的模型结构级别的预测分数(简称为MP分数),
式中,m∈{1,2}分别代表分类器C1和分类器C2,/>其中/>和/>分别表示在分类器C1和分类器C2计算得到的MP分数;
S2.3、计算出目标域样本的次伪标签:
式中,a表示次伪标签为第a个类别;
S2.4、计算伪标签和次伪标签的差异:
式中,为目标域样本的次伪标签;
S2.5、将伪标签和次伪标签的差异归一化为目标域样本的数据结构级别的预测分数(简称为DS分数),
式中,i,j∈{1,2,…,nt};
S2.6、根据目标域样本的MP分数和DS分数,分别在分类器C1和分类器C2上计算目标域样本最终的置信分数:
其中,和/>分别表示在分类器C1和分类器C2计算得到的目标域样本最终的置信分数。
使用目标域样本的置信分数对目标域样本分类的交叉熵损失进行加权:
式中,是目标域样本分类的交叉熵损失。
计算信息最大化损失辅助加权的交叉熵损失训练,使目标输出单独确定且全局多样化,
式中,表示所有nt个样本被预测为第k个类的平均预测概率,表示第j个目标域样本被预测为第k个类的预测概率。
S3、对目标域样本使用Mixup技术进行权重混合:
目标域中一些样本经过模型训练后可以得到良好的分类结果,这些被称为高置信样本,而剩下的一些样本使用同样的模型训练后得到的分类结果较差,包含很多噪声,这些被称为低置信样本,虽然低置信度样本的标签包含显著的噪声,但它们也包含很多重要的目标域知识。
将目标域样本的图像、伪标签、置信分数混合,充分利用目标域知识来训练一个更具鲁棒性的目标模型,混合目标域样本的过程如下:
式中,η~Beta(α,α)且α∈{0,+∞},为加权参数;和/>为两个随机的目标域样本及其伪标签,样本权重混合损失计算如下:
其中,Lmixup表示样本权重混合损失。
S4、计算双分类器的确定性差异距离,并将此确定性差异距离用于目标模型的最大最小化训练:
以对抗性的方式训练分类器C1和分类器C2,以学习目标域上的可转移特征和判别决策边界,两个分类器的输出差异定义如下:
式中,d(.,.)为欧氏距离。
首先固定特征提取器G,最大化Lcdd来训练分类器C1和分类器C2,促进多样性预测以便我们可以检测位于决策边界附近且具有不同预测的不确定分类的目标样本;然后再固定分类器C1和分类器C2,最小化Lcdd来训练特征提取器G,鼓励预测一致性并推动源域分布与目标域分布对齐。
S5、对目标模型进行总体训练,总体训练包括步骤S5.1、步骤S5.2以及步骤S5.3,并依次迭代更新优化相应的模型参数,通过步骤S5.1、步骤S5.2以及步骤S5.3不断迭代地交替进行完成目标模型的训练,最终对目标域样本进行分类。
S5.1、利用步骤S2得到的损失训练特征提取器G、分类器C1以及分类器C2,来保证泛化界仍然存在,从而产生不同的输出,训练的总体损失如下式所示:
式中,β为损失Lim的超参数,θG、以及/>分别表示特征提取器G、分类器C1以及分类器C2的网络参数;
S5.2、固定特征提取器G,利用步骤S3和步骤S4得到的损失训练分类器C1和分类器C2,来检测位于决策边界附近且具有不同预测的不确定分类的目标样本,从而使目标模型具有鲁棒性,训练的总体损失如下式所示:
式中,为权重混合损失的超参数,λ为双分类器输出差异损失的超参数,根据经验我们将λ设置为0.01;
S5.3、固定分类器C1和分类器C2,利用步骤S4得到的损失训练特征提取器G,鼓励预测一致性并推动源域分布与目标域分布对齐,训练的总体损失如下式所示:
式中,λ为双分类器输出差异损失的超参数。
为验证本发明图像分类方法的有效性,分别在Office-Home数据集和Office-31数据集上进行实验,其中,Office-Home数据集共包含65个类别以及15500张图片,这些图片分别来自Art(素描、绘画、装饰品等形式的艺术图片)、Clipart(剪贴画图像合集)、Product(无背景物体图像)以及Real-World(普通相机拍摄的物体图像)四个视觉领域;本发明图像分类方法在Ar->Cl、Ar->Pr、Ar->Rw、Cl->Ar、Cl->Pr、Cl->Rw、Pr->Ar、Pr->Cl、Pr->Rw、Rw->Ar、Rw->Cl和Rw->Pr十二组域适应任务中评估本发明方法的有效性。
Office-31数据集共包含31个类别4652张图片,这些图片分别来自Amazon(电商图片)、Webcam(网络摄像头拍摄图片)和DSLR(单反相机拍摄图片)三个视觉领域;本发明图像分类方法在A->W、A->D、D->A、D->W、W->A和W->D六组域适应任务中评估本发明方法的有效性。
实验结果分别如表1和表2所示,其中BCWA为本发明方法,已加粗表示,为了方便显示,我们在Office-Home数据集上把各个任务的名称进行简写,只使用首个字母。
表1本发明方法在Office-Home数据集上的有效性验证
如表1所示,本发明所提方法BCWA平均分类准确率达到了74.0%,除了个别任务的性能略低于其他方法之外,Ar->Pr任务的准确率达到了80.5%,Pr->Ar任务的准确率达到了68.7%,Rw->Ar任务的准确率达到了75.3%,这几个任务上的平均准确率相比于其他方法有极其显著的提升,且BCWA方法总体上平均分类准确率明显优于其他分类方法。
表2本发明方法在Office-31数据集上的有效性验证
Method | DMCD | SHOT | DIPE | NRC | BAIT | ASL | CoWA | BCWA |
A->D | 94.1 | 94.0 | 96.6 | 96.0 | 92.0 | 93.4 | 94.2 | 95.6 |
A->W | 93.5 | 90.1 | 93.1 | 90.8 | 94.6 | 94.1 | 95.7 | 94.7 |
D->A | 76.4 | 74.7 | 75.5 | 75.3 | 74.6 | 76.0 | 77.3 | 78.7 |
D->W | 98.8 | 98.4 | 98.4 | 99.0 | 98.1 | 98.4 | 98.4 | 99.6 |
W->A | 76.4 | 74.3 | 77.2 | 75.0 | 75.2 | 75.0 | 78.0 | 78.8 |
W->D | 100.0 | 99.9 | 99.6 | 100.0 | 100.0 | 99.8 | 99.8 | 100.0 |
Average | 89.9 | 88.6 | 90.1 | 89.4 | 89.1 | 89.5 | 90.6 | 91.2 |
如表2所示,本发明方法BCWA平均分类准确率达到了91.2%,明显优于CoWA的准确率90.6%,BCWA方法在W->D任务上达到了100%的分类准确率;除此之外,在D->A,D->W和W->A三个任务中,BCWA分别达到了78.7%,99.6%和78.8%的分类准确率,明显优于CoWA方法在三个任务上的准确率77.3%,98.4%和78.0%。
除上述实施例外,本发明还可以有其他实施方式。凡采用等同替换或等效变换形成的技术方案,均落在本发明要求的保护范围。
Claims (8)
1.一种无源无监督域适应图像分类方法,其特征在于:包括以下步骤
S1、使用源域图像及其标签训练一个源域预训练模型,源域预训练模型包括特征提取器和双分类器,并使用该源域预训练模型初始化一个目标模型用于目标域样本的识别训练,训练过程中源域图像将不可访问;
S2、使用初始化的目标模型计算目标域样本的模型结构级别的预测分数,且计算目标域图像基于高斯混合模型的数据结构级别的预测分数,将两预测分数结合作为目标域样本的置信分数,并用于目标模型的交叉熵损失加权,引入信息最大化损失来辅助目标模型训练;
S3、对目标域样本使用Mixup技术进行权重混合;
S4、计算双分类器的确定性差异距离,并将此确定性差异距离用于目标模型的最大最小化训练;
S5、对目标模型进行总体训练,总体训练包括步骤S5.1、步骤S5.2以及步骤S5.3,并依次迭代更新优化相应的模型参数,通过步骤S5.1、步骤S5.2以及步骤S5.3不断迭代地交替进行完成目标模型的训练,最终对目标域样本进行分类。
2.根据权利要求1所述的一种无源无监督域适应图像分类方法,其特征在于:所述步骤S1具体包括以下分步骤
S1.1、假定(xs,ys)为源域有标签样本,xt为目标域无标签样本,源域样本集合目标域样本集合/>其中,ns为源域样本数量,nt为目标域样本数量,/>为源域中第i个样本,/>为该源域样本对应的伪标签,/>为目标域中第i个样本,源域和目标域具有相同的类别数目K;
S1.2、构建一个源域预训练模型Fs,源域预训练模型Fs包括一个特征提取器G、分类器C1以及分类器C2;利用源域有监督数据结合交叉熵损失使分类器对源域样本进行分类,由此产生的分类损失如下式所示:
式中,表示平滑标签,α为平滑系数;
S1.3、使用源域预训练模型Fs初始化目标模型Ft,且将目标模型Ft用于目标域样本的识别训练。
3.根据权利要求1所述的一种无源无监督域适应图像分类方法,其特征在于:所述步骤S2中,计算目标域样本的置信分数包括以下步骤
S2.1、根据高斯混合模型获得目标域样本的数据结构级别预测概率,公式如下:
式中,πc、μc、∑c分别代表类别c的混合系数、平均向量以及协方差矩阵,且c,c′∈{1,2,…,K};
S2.2、计算目标域样本的伪标签并分别在分类器C1和分类器C2上计算目标域样本的模型结构级别的预测分数,即MP分数,
式中,m∈{1,2}分别代表分类器C1和分类器C2,其中/>和/>分别表示在分类器C1和分类器C2计算得到的MP分数;
S2.3、计算出目标域样本的次伪标签:
式中,a表示次伪标签为第a个类别;
S2.4、计算伪标签和次伪标签的差异:
式中,为目标域样本的次伪标签;
S2.5、将伪标签和次伪标签的差异归一化为目标域样本的数据结构级别的预测分数,即DS分数,
式中,i,j∈{1,2,…,nt};
S2.6、根据目标域样本的MP分数和DS分数,分别在分类器C1和分类器C2上计算目标域样本最终的置信分数:
其中,和/>分别表示在分类器C1和分类器C2计算得到的目标域样本最终的置信分数。
4.根据权利要求1所述的一种无源无监督域适应图像分类方法,其特征在于:所述步骤S2中,使用目标域样本的置信分数对目标域样本分类的交叉熵损失进行加权:
式中,是目标域样本分类的交叉熵损失。
5.根据权利要求1所述的一种无源无监督域适应图像分类方法,其特征在于:所述步骤S2中,计算信息最大化损失辅助加权的交叉熵损失训练:
式中,表示所有nt个样本被预测为第k个类的平均预测概率,表示第j个目标域样本被预测为第k个类的预测概率。
6.根据权利要求1所述的一种无源无监督域适应图像分类方法,其特征在于:所述步骤S3中,将目标域样本的图像、伪标签、置信分数混合,混合目标域样本的过程如下:
式中,η~Beta(α,α)且α∈{0,+∞},为加权参数;和/>为两个随机的目标域样本及其伪标签,样本权重混合损失计算如下:
其中,Lmixup表示样本权重混合损失。
7.根据权利要求1所述的一种无源无监督域适应图像分类方法,其特征在于:所述步骤S4中,以对抗性的方式训练分类器C1和分类器C2,以学习目标域上的可转移特征和判别决策边界,两个分类器的输出差异定义如下:
式中,d(.,.)为欧氏距离。
8.根据权利要求1所述的一种无源无监督域适应图像分类方法,其特征在于:所述步骤S5中,对目标模型进行总体训练,包括以下步骤
S5.1、利用步骤S2得到的损失训练特征提取器G、分类器C1以及分类器C2,训练的总体损失如下式所示:
式中,β为损失Lim的超参数,θG、以及/>分别表示特征提取器G、分类器C1以及分类器C2的网络参数;
S5.2、固定特征提取器G,利用步骤S3和步骤S4得到的损失训练分类器C1和分类器C2,训练的总体损失如下式所示:
式中,为权重混合损失的超参数,λ为双分类器输出差异损失的超参数;
S5.3、固定分类器C1和分类器C2,利用步骤S4得到的损失训练特征提取器G,训练的总体损失如下式所示:
式中,λ为双分类器输出差异损失的超参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310576784.1A CN116824216A (zh) | 2023-05-22 | 2023-05-22 | 一种无源无监督域适应图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310576784.1A CN116824216A (zh) | 2023-05-22 | 2023-05-22 | 一种无源无监督域适应图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116824216A true CN116824216A (zh) | 2023-09-29 |
Family
ID=88119441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310576784.1A Pending CN116824216A (zh) | 2023-05-22 | 2023-05-22 | 一种无源无监督域适应图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116824216A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117152563A (zh) * | 2023-10-16 | 2023-12-01 | 华南师范大学 | 混合目标域自适应模型的训练方法、装置及计算机设备 |
CN117496191A (zh) * | 2024-01-03 | 2024-02-02 | 南京航空航天大学 | 一种基于模型协作的数据加权学习方法 |
CN117893476A (zh) * | 2023-12-15 | 2024-04-16 | 南京林业大学 | 一种基于非对抗性无监督域适应的植物病害检测方法及系统 |
-
2023
- 2023-05-22 CN CN202310576784.1A patent/CN116824216A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117152563A (zh) * | 2023-10-16 | 2023-12-01 | 华南师范大学 | 混合目标域自适应模型的训练方法、装置及计算机设备 |
CN117152563B (zh) * | 2023-10-16 | 2024-05-14 | 华南师范大学 | 混合目标域自适应模型的训练方法、装置及计算机设备 |
CN117893476A (zh) * | 2023-12-15 | 2024-04-16 | 南京林业大学 | 一种基于非对抗性无监督域适应的植物病害检测方法及系统 |
CN117496191A (zh) * | 2024-01-03 | 2024-02-02 | 南京航空航天大学 | 一种基于模型协作的数据加权学习方法 |
CN117496191B (zh) * | 2024-01-03 | 2024-03-29 | 南京航空航天大学 | 一种基于模型协作的数据加权学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shu et al. | Transferable curriculum for weakly-supervised domain adaptation | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN110569886B (zh) | 一种双向通道注意力元学习的图像分类方法 | |
Feng et al. | Learning view-specific deep networks for person re-identification | |
CN112446423B (zh) | 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 | |
CN116824216A (zh) | 一种无源无监督域适应图像分类方法 | |
CN113076994B (zh) | 一种开集域自适应图像分类方法及系统 | |
CN114492574A (zh) | 基于高斯均匀混合模型的伪标签损失无监督对抗域适应图片分类方法 | |
CN112085055B (zh) | 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法 | |
CN113326731A (zh) | 一种基于动量网络指导的跨域行人重识别算法 | |
CN112232395B (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
CN111695531B (zh) | 一种基于异构卷积网络的跨域行人再识别方法 | |
CN111611909A (zh) | 多子空间域自适应人脸识别方法 | |
CN111931814A (zh) | 一种基于类内结构紧致约束的无监督对抗域适应方法 | |
CN107330448A (zh) | 一种基于标记协方差和多标记分类的联合学习方法 | |
CN114882534B (zh) | 基于反事实注意力学习的行人再识别方法、系统、介质 | |
CN111291705B (zh) | 一种跨多目标域行人重识别方法 | |
CN115761408A (zh) | 一种基于知识蒸馏的联邦域适应方法及系统 | |
CN116452862A (zh) | 基于领域泛化学习的图像分类方法 | |
CN112183464A (zh) | 基于深度神经网络和图卷积网络的视频行人识别方法 | |
CN116433909A (zh) | 基于相似度加权多教师网络模型的半监督图像语义分割方法 | |
CN117152459A (zh) | 图像检测方法、装置、计算机可读介质及电子设备 | |
CN114863176A (zh) | 基于目标域移动机制的多源域自适应方法 | |
CN114495004A (zh) | 一种基于无监督跨模态的行人重识别方法 | |
CN107993311B (zh) | 一种用于半监督人脸识别门禁系统的代价敏感隐语义回归方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |