CN114241239A - 一种基于流形学习的无监督预适应图像分类方法 - Google Patents
一种基于流形学习的无监督预适应图像分类方法 Download PDFInfo
- Publication number
- CN114241239A CN114241239A CN202111522633.5A CN202111522633A CN114241239A CN 114241239 A CN114241239 A CN 114241239A CN 202111522633 A CN202111522633 A CN 202111522633A CN 114241239 A CN114241239 A CN 114241239A
- Authority
- CN
- China
- Prior art keywords
- domain image
- image sample
- target domain
- loss model
- source domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于流形学习的无监督预适应图像分类方法,该方法旨在构建图像分类模型,然后应用图像分类模型,完成待分类图像的分类,该方法包括以下步骤:1.构建图像样本集;2.构建特征提取网络;3.基于流形学习网络,构建特征向量降维网络;4.基于高阶信息匹配网络,构建分类器网络;5.构建源域图像样本的判别性损失模型、目标域图像样本的聚类损失模型、流形一致性损失模型、高阶张量匹配损失模型;6.引入交叉熵损失,获得最终损失模型;7.针对图像分类待训练模型进行训练,获得图像分类模型;该方法结合流形学习网络和高阶信息匹配网络,提取出的图像特征不仅有很好的迁移性,而且兼具很强的判别性,具有更高的分类准确率。
Description
技术领域
本发明涉及图像分类方法,具体涉及一种基于流形学习的无监督预适应图像分类方法。
背景技术
在图像分类任务中,实验室环境采集的图像样本和实际应用环境中采集的图像样本之间的光照条件、图像分辨率、背景颜色等方面都存在着较大的差异,如果直接将实验室内训练好的模型应用在真实场景中,由于域差异的存在,会导致检测效果出现较大幅度的下降。
无监督域适应的任务是学习有标签的源域数据中的知识并将其传递给无标签的目标域数据,来完成在目标域上的任务。现有的很多方法都在使用深度神经网络提取迁移性更好的特征,减小域差异。此外还有一些方法通过对抗训练的方式,通过判别器和特征提取器之间的对抗使得特征提取器能够提取出域不变特征。但是上述这两类方法会导致特征的判别性降低,而且深度神经网络提取出的高维特征在对数据本身存在冗余。本发明将流形学习网络和高阶信息匹配网络相结合,使图像样本的特征兼具判别性和域不变性,能够更好地对目标域的图像样本进行分类。
发明内容
本发明的目的:在于提供一种基于流形学习的无监督预适应图像分类方法,该方法结合流形学习网络和高阶信息匹配网络,提取出的图像特征不仅有很好的迁移性,而且兼具很强的判别性,具有更高的分类准确率。
为实现以上目的,本发明设计一种基于流形学习的无监督预适应图像分类方法,其特征在于:按如下步骤S1-步骤S7,获得图像分类模型,然后应用图像分类模型,完成待分类图像的分类;
S1.基于预设光照强度、分辨率、背景颜色,分别采集预设各类物品图像作为各个源域图像样本,各源域图像样本构成源域图像样本集,并基于其他光照强度、分辨率、背景颜色,采集相对应各物品图像作为目标域图像样本,各目标域图像样本构成目标域图像样本集,并根据各类物品的种类,按预设映射规则,定义各类物品的源域图像样本、目标域图像样本所对应预设各分类中的相应类别,且各相同类物品的源域图像样本、目标域图像样本所对应类别彼此相同;
S2.基于ResNet-50网络,以图像样本为输入,以图像样本的高维特征向量为输出,构建特征提取网络;
S3.基于流形学习网络,以图像样本的高维特征向量为输入,以图像样本的高阶统计信息为输出,构建特征向量降维网络;
S4.基于高阶信息匹配网络,以图像样本的高阶统计信息为输入,图像样本所对应的图像类别为输出,构建分类器网络;
S5.基于特征提取网络、特征向量降维网络、分类器网络,串联构建图像分类待训练模型,同时基于源域图像样本集与目标域图像样本集的参与训练,以特征向量降维网络的输出,构建源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons,以及以分类器网络的输出,构建高阶张量匹配损失模型Lhom;
S6.基于源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons、高阶张量匹配损失模型Lhom,通过引入交叉熵损失Lce,获得最终损失模型L;
S7.基于源域图像样本集与目标域图像样本集中各样本图像,以及各样本图像分别对应预设各分类中的相应类别,以图像样本为输入,图像样本所对应的相应类别为输出,结合最终损失模型L,针对图像分类待训练模型进行训练,获得图像分类模型。
作为发明的一种优选技术方案:所述步骤S5中源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons的构建包括以下步骤:
S51:基于每个源域图像样本在每层流形学习网络上的高维特征向量fi s,通过源域判别性结构学习,获得源域图像样本的判别性损失模型Ldis如下式:
式中,将目标域图像样本的软标签的分量按其值由大至小排列,保留前m个分量,其他分量置为0,为保留分量后中第j个目标域图像样本的软标签的第i个分量,为第l层流形层中目标域图像样本中第i个类别和第j个类别之间的相似性,nt为目标域图像样本的数量;
S53:基于源域图像样本在第l层流形层上通过源域特征计算得出的协方差矩阵目标域图像样本在第l层流形层上通过目标域特征计算得出的协方差矩阵通过流形一致性结构学习,获得流形一致性损失模型Lcons如下式:
作为发明的一种优选技术方案:所述步骤S5中,构建高阶张量匹配损失模型Lhom如下式:
作为发明的一种优选技术方案:基于源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons、高阶张量匹配损失模型Lhom,通过引入交叉熵损失Lce,构建最终损失模型L如下式:
L=Ldis-αLcluster+βLcons+γLhom+ηLce
式中,α、β、γ、η为超参数。
作为发明的一种优选技术方案:所述流形学习网络层数为两层。
有益效果:相对于现有技术,本发明的优点包括:本发明将流形学习网络和高阶信息匹配网络相结合,使图像样本的特征兼具判别性和域不变性,能够更好地对目标域的图像样本进行分类。
附图说明
图1是根据本发明实施例提供的基于流形学习的无监督预适应图像分类方法框架图;
图2是根据本发明实施例提供的基于流形学习的无监督预适应图像分类方法模型图;
图3是根据本发明实施例提供的基于流形学习的无监督预适应图像分类方法高阶信息匹配网络图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
参照图1,本发明实施例提供的一种基于流形学习的无监督预适应图像分类方法按如下步骤S1-步骤S7,获得图像分类模型,然后应用图像分类模型,完成待分类图像的分类;
S1.基于预设光照强度、分辨率、背景颜色,分别采集预设各类物品图像作为各个源域图像样本,各源域图像样本构成源域图像样本集,并基于其他光照强度、分辨率、背景颜色,采集相对应各物品图像作为目标域图像样本,各目标域图像样本构成目标域图像样本集,并根据各类物品的种类,按预设映射规则,定义各类物品的源域图像样本、目标域图像样本所对应预设各分类中的相应类别,且各相同类物品的源域图像样本、目标域图像样本所对应类别彼此相同;在一个实施例中,采用归一化方法对源域图像样本、目标域图像样本作预处理;
S2.基于ResNet-50网络,以图像样本为输入,以图像样本的高维特征向量输出,构建特征提取网络;在一个实施例中,为了避免从零开始训练特征提取网络需要较长的准备时间,采用预先训练好的ResNet-50网络M1提取源域图像样本、目标域图像样本的高维特征向量;
S3.基于流形学习网络M2,以图像样本的高维特征向量为输入,以图像样本的高阶统计信息为输出,构建特征向量降维网络;
其中流形学习网络不仅可以将图像样本的高维特征向量通过多个流形层M={(Mk|k=1,2,…l)},逐层降维到低维,过滤冗余信息,还可以通过对齐流形结构来对齐源域图像样本和目标域图像样本的结构,其中Mk为第k层流形层的简化表示;在一个实施例中,通过流形学习网络来分别对齐源域图像样本和目标域图像样本的边缘分布、源域图像样本和目标域图像样本的条件分布;具体部署到流形学习网络中时,采用两层流形逐层降低图像样本特征向量的维度,将高维特征向量降维,在两层流形学习网络中,增强特征向量的判别性和可迁移性。
S4.基于高阶信息匹配网络,以图像样本的高阶统计信息为输入,图像样本所对应的图像类别为输出,构建分类器网络M3;
S5.基于特征提取网络、特征向量降维网络、分类器网络,串联构建图像分类待训练模型,同时基于源域图像样本集与目标域图像样本集的参与训练,以特征向量降维网络的输出,构建源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons,以及以分类器网络的输出,构建高阶张量匹配损失模型Lhom;
参考图2,源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons的构建包括以下步骤:
S51:基于每个源域图像样本在每层流形学习网络上的高维特征向量fi s,计算出类均值矩阵和特征均值向量其中为第l层流形层中源域图像样本的第i个类别的特征均值向量,dl为第l层流形层的维度,源域图像样本和目标域图像样本的类别数量皆为nc,表示维度为dl×nc;
该步骤是用于增强源域图像样本特征的判别性的源域图像样本判别性结构学习,即将目标域图像样本向源域图像样本靠拢;由于源域图像样本包含标签信息,将源域图像样本的类中心也作为目标域图像样本的类中心,通过拉大不同物品类别图像样本的类中心之间的距离来增强其特征之间的判别性。
再将分类器预测出的目标域图像样本的软标签中的预测信息作为每个类概率的置信度,结合相似度矩阵计算,将目标域图像样本向源域图像样本类中心拉近,形成聚类,构建目标域图像样本的聚类损失模型Lcluster如下式:
式中,将目标域图像样本的软标签的分量按其值由大至小排列,保留前m个分量,其他分量置为0,为保留分量后中第j个目标域图像样本的软标签的第i个分量,为第l层流形层中目标域图像样本中第i个类别和第j个类别之间的相似性,nt为目标域图像样本的数量;
该步骤是用于增强目标域图像样本特征的判别性的目标域判别性结构学习,即将目标域图像样本向其对应的源域图像样本靠近,具体来说,将目标域图像样本软标签中最大的分量对应的类别作为目标域图像样本的类标签,缩小其和源域图像样本对应的类中心之间的距离,最终目标域图像样本将会在源域图像样本类中心周围形成聚类,增强了目标域图像样本特征的判别性。
基于投影正交基Ul,构建流形一致性损失模型Lcons如下式:
参考图3,基于源域图像样本及目标域图像样本中的高阶统计信息进行细粒度的域对齐,构建高阶张量匹配损失模型Lhom如下式:
S6.基于源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons、高阶张量匹配损失模型Lhom,通过引入交叉熵损失Lce,获得最终损失模型L;
构建最终损失模型L如下式:
L=Ldis-αLcluster+βLcons+γLhom+ηLce
式中,α、β、γ、η为超参数;
S7.基于源域图像样本集与目标域图像样本集中各样本图像,以及各样本图像分别对应预设各分类中的相应类别,以图像样本为输入,图像样本所对应的相应类别为输出,结合最终损失模型L,针对图像分类待训练模型进行训练,获得图像分类模型。
通过方向传播更新图像分类模型的参数,最小化最终损失模型L来提高图像分类模型对目标域图像样本的分类准确率。
本发明实施例提供的一种基于流形学习的无监督预适应图像分类方法,所述流形学习网络层数为两层。
上面结合附图对本发明的实施方式作了详细说明,但是发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (5)
1.一种基于流形学习的无监督预适应图像分类方法,其特征在于:按如下步骤S1-步骤S7,获得图像分类模型,然后应用图像分类模型,完成待分类图像的分类;
S1.基于预设光照强度、分辨率、背景颜色,分别采集预设各类物品图像作为各个源域图像样本,各源域图像样本构成源域图像样本集,并基于其他光照强度、分辨率、背景颜色,采集相对应各物品图像作为目标域图像样本,各目标域图像样本构成目标域图像样本集,并根据各类物品的种类,按预设映射规则,定义各类物品的源域图像样本、目标域图像样本所对应预设各分类中的相应类别,且各相同类物品的源域图像样本、目标域图像样本所对应类别彼此相同;
S2.基于ResNet-50网络,以图像样本为输入,以图像样本的高维特征向量为输出,构建特征提取网络;
S3.基于流形学习网络,以图像样本的高维特征向量为输入,以图像样本的高阶统计信息为输出,构建特征向量降维网络;
S4.基于高阶信息匹配网络,以图像样本的高阶统计信息为输入,图像样本所对应的图像类别为输出,构建分类器网络;
S5.基于特征提取网络、特征向量降维网络、分类器网络,串联构建图像分类待训练模型,同时基于源域图像样本集与目标域图像样本集的参与训练,以特征向量降维网络的输出,构建源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons,以及以分类器网络的输出,构建高阶张量匹配损失模型Lhom;
S6.基于源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons、高阶张量匹配损失模型Lhom,通过引入交叉熵损失Lce,获得最终损失模型L;
S7.基于源域图像样本集与目标域图像样本集中各样本图像,以及各样本图像分别对应预设各分类中的相应类别,以图像样本为输入,图像样本所对应的相应类别为输出,结合最终损失模型L,针对图像分类待训练模型进行训练,获得图像分类模型。
2.如权利要求1所述的基于流形学习的无监督预适应图像分类方法,其特征在于,所述步骤S5中源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons的构建包括以下步骤:
S51:基于每个源域图像样本在每层流形学习网络上的高维特征向量fi s,通过源域判别性结构学习,获得源域图像样本的判别性损失模型Ldis如下式:
式中,将目标域图像样本的软标签的分量按其值由大至小排列,保留前m个分量,其他分量置为0,为保留分量后中第j个目标域图像样本的软标签的第i个分量,为第l层流形层中目标域图像样本中第i个类别和第j个类别之间的相似性,nt为目标域图像样本的数量;
S53:基于源域图像样本在第l层流形层上通过源域特征计算得出的协方差矩阵目标域图像样本在第l层流形层上通过目标域特征计算得出的协方差矩阵通过流形一致性结构学习,获得流形一致性损失模型Lcons如下式:
4.如权利要求1所述的基于流形学习的无监督预适应图像分类方法,其特征在于,基于源域图像样本的判别性损失模型Ldis、目标域图像样本的聚类损失模型Lcluster、流形一致性损失模型Lcons、高阶张量匹配损失模型Lhom,通过引入交叉熵损失Lce,构建最终损失模型L如下式:
L=Ldis-aLcluster+βLcons+γLhom+ηLce
式中,α、β、γ、η为超参数。
5.如权利要求1所述的基于流形学习的无监督预适应图像分类方法,其特征在于,所述流形学习网络层数为两层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111522633.5A CN114241239A (zh) | 2021-12-13 | 2021-12-13 | 一种基于流形学习的无监督预适应图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111522633.5A CN114241239A (zh) | 2021-12-13 | 2021-12-13 | 一种基于流形学习的无监督预适应图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114241239A true CN114241239A (zh) | 2022-03-25 |
Family
ID=80755479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111522633.5A Pending CN114241239A (zh) | 2021-12-13 | 2021-12-13 | 一种基于流形学习的无监督预适应图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114241239A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115713669A (zh) * | 2022-11-04 | 2023-02-24 | 北京邮电大学 | 一种基于类间关系的图像分类方法、装置、存储介质及终端 |
-
2021
- 2021-12-13 CN CN202111522633.5A patent/CN114241239A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115713669A (zh) * | 2022-11-04 | 2023-02-24 | 北京邮电大学 | 一种基于类间关系的图像分类方法、装置、存储介质及终端 |
CN115713669B (zh) * | 2022-11-04 | 2023-12-05 | 北京邮电大学 | 一种基于类间关系的图像分类方法、装置、存储介质及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830296B (zh) | 一种改进的基于深度学习的高分遥感影像分类方法 | |
CN109886121B (zh) | 一种遮挡鲁棒的人脸关键点定位方法 | |
Liao et al. | Learning deep parsimonious representations | |
CN111695456B (zh) | 一种基于主动判别性跨域对齐的低分辨人脸识别方法 | |
CN110321967B (zh) | 基于卷积神经网络的图像分类改进方法 | |
CN105138998B (zh) | 基于视角自适应子空间学习算法的行人重识别方法及系统 | |
CN109615008B (zh) | 基于堆叠宽度学习的高光谱图像分类方法和系统 | |
CN112200090B (zh) | 基于交叉分组空谱特征增强网络的高光谱图像分类方法 | |
CN111274869A (zh) | 基于并行注意力机制残差网进行高光谱图像分类的方法 | |
CN110097060B (zh) | 一种面向树干图像的开集识别方法 | |
CN113139512B (zh) | 基于残差和注意力的深度网络高光谱影像分类方法 | |
CN110555060A (zh) | 基于成对样本匹配的迁移学习方法 | |
CN113705446B (zh) | 一种面向辐射源个体的开集识别方法 | |
CN111401426B (zh) | 基于伪标签学习的小样本高光谱图像分类方法 | |
Yang et al. | Cross-domain visual representations via unsupervised graph alignment | |
CN107451545A (zh) | 基于软标签下多通道判别非负矩阵分解的人脸识别方法 | |
CN115019104A (zh) | 基于多源域自注意力的小样本遥感图像分类方法及系统 | |
CN109190511B (zh) | 基于局部与结构约束低秩表示的高光谱分类方法 | |
CN112819039A (zh) | 基于多尺度集成特征编码的纹理识别模型建立方法及应用 | |
CN109034213B (zh) | 基于相关熵原则的高光谱图像分类方法和系统 | |
CN111695455A (zh) | 一种基于耦合判别流形对齐的低分辨人脸识别方法 | |
Shi et al. | ACTL: Asymmetric convolutional transfer learning for tree species identification based on deep neural network | |
CN114241239A (zh) | 一种基于流形学习的无监督预适应图像分类方法 | |
Yang et al. | Attention-based dynamic alignment and dynamic distribution adaptation for remote sensing cross-domain scene classification | |
Xu et al. | Residual spatial attention kernel generation network for hyperspectral image classification with small sample size |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |