CN112232398A - 一种半监督的多类别Boosting分类方法 - Google Patents

一种半监督的多类别Boosting分类方法 Download PDF

Info

Publication number
CN112232398A
CN112232398A CN202011075826.6A CN202011075826A CN112232398A CN 112232398 A CN112232398 A CN 112232398A CN 202011075826 A CN202011075826 A CN 202011075826A CN 112232398 A CN112232398 A CN 112232398A
Authority
CN
China
Prior art keywords
data
class
data set
column
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011075826.6A
Other languages
English (en)
Other versions
CN112232398B (zh
Inventor
许淑华
齐鸣鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wenzhou University of Technology
Original Assignee
Wenzhou University Oujiang College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wenzhou University Oujiang College filed Critical Wenzhou University Oujiang College
Priority to CN202011075826.6A priority Critical patent/CN112232398B/zh
Publication of CN112232398A publication Critical patent/CN112232398A/zh
Application granted granted Critical
Publication of CN112232398B publication Critical patent/CN112232398B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种半监督的多类别Boosting分类方法,把包括标签数据集和无标签数据集的数据集划分为若干个子模块,在数据集上逐列更新边距目标向量,构建具有较好的近似最优边距约束的自调整回归目标;在每个图像块集合上计算稀疏模块化字典;在每个图像块集合上利用基于边距回归目标的模块化稀疏表示学习计算图像块之间的相似性,利用sigmoid加权投票算法把每个图像块集合上学习的相似性结果组合成一个整体;最后根据相似性置信度对无标签数据进行伪标签的分配,按照置信度大小选择一些无标签数据加入训练样本集中对弱分类器进行训练,训练完后把弱分类器组合成最终的分类器,并利用最终的分类器完成测试样本的分类。

Description

一种半监督的多类别Boosting分类方法
技术领域:
本发明涉及图像处理技术领域,具体涉及一种半监督的多类别Boosting分类方法。
背景技术:
随着电子设备的发展,在互联网和日常社会交往中产生的视觉图像数据或非视觉文本数据越来越多。大多数生成的数据是未分类或未标记的,因此很难使用监督方法进行图像和文档分类等操作。因此,半监督学习(SSL)在机器学习和数据挖掘研究中受到越来越多的关注。SSL的核心思想,特别是半监督分类是利用有标签和无标签的数据来学习分类模型。对于给定分类器,半监督Boosting的目标是利用标签数据的监督信息及其与无标签数据之间的关系来提高其分类性能。特别地,在现在Boosting算法中利用无标签数据可以获得更好性能的Boosted分类器。
在半监督Boosting策略中,需要相似度,如图2所示。利用相似度选择可靠的无标签样本训练新的集成(组合)分类器。由于欧氏距离计算简单,大多数策略中使用欧氏距离衡量样本间的相似度。然而,相似度(或距离度量)学习在Boosting任务中起着至关重要的作用,其原因有两个:第一,通常假设两个具有高度相似性的样本属于同一类;其次,由于数据的非线性,欧氏距离不能代表数据的结构非线性关系,特别是在高维空间。在半监督Boosting策略中,使用欧氏距离计算高斯核相似度,然而高斯核相似性中的核宽度如何设置,也是个要解决的问题。
最近,在数据相似性的自适应领域,基于稀疏编码的表示受到广泛的关注,本发明中也使用稀疏表示作为相似度的衡量。在稀疏表示学习中,当构造分类器或其他预测变量时,学习数据的可判别信息和对数据进行有效的可视化表示使得对数据提取信息特征变得更加容易。众所周知,由于传统的稀疏和低秩表示(LRRs)计算量大,不能满足实时应用的要求。此外,学习到的数据表示仍然缺乏捕捉来自不同对象的观察输入的潜在解释因子的可判别属性。而且在很多情况下,图像识别问题会因为图像被遮挡而变得复杂,例如面部图像带了墨镜、头饰、围巾、口罩、面部毛发或手。在这种情况下,使用局部图像信息的识别方法比整体直方图特征具有优势。从遮挡区域提取的特征将丢失,但从未遮挡区域提取的特征不会丢失,并且可能足以对图像进行准确分类。分类决策通常使用最近邻算法、支持向量机或Boosting策略获得。
为了解决上述问题,本发明在半监督Boosting策略中提出了一种边距结构表示的模块化的稀疏表示学习方法(MSPASEMIBOOST)来实现高效、有效地计算图像之间的相似性,本案由此而生。
发明内容:
本发明提供了一种视觉分类方法,实现了一种模块化的基于联合柔性自调整边距目标分析、判别子空间构造和概率图结构自适应的边距视觉表示学习半监督Boosting框架。确保所得到的数据表示法具有明显的判别能力,且具有接近最优的边距,提升了视觉分类的准确性。
为了实现上述目的,本发明所采用的技术方案为:
一种半监督的多类别Boosting分类方法,内容包括如下步骤:
步骤1:把数据集划分为若干个子模块,其中数据集包括标签数据集和无标签数据集;
步骤2:在数据集上逐列更新边距目标向量;
步骤3:在每个图像块集合上计算稀疏模块化字典;
步骤4:在每个图像块集合上利用基于边距回归目标的模块化稀疏表示学习计算图像块之间的相似性;
步骤5:利用sigmoid加权投票算法把每个图像块集合上学习的相似性结果组合成一个整体;
步骤6:根据相似性置信度对无标签数据进行伪标签的分配,按照置信度大小选择一些无标签数据加入训练样本集中并对弱分类器进行训练,训练完后把弱分类器组合成最终的分类器;
步骤7:利用最终的分类器完成测试样本的分类。
进一步,所述步骤1中将数据集X划分为M个子模块,其中包含nl个标签数据集和nu个无标签数据集,标签数据集表示为
Figure BDA0002716737990000037
无标签数据集表示为
Figure BDA0002716737990000031
进一步,所述步骤2中在数据集上逐列更新边距目标向量的内容包括以下步骤:
输入:数据集X、字典D、真实的类标签编号c,其中c∈{1,...,1,2,...,2,...,C,...,C},C为数据的总类别数目;
步骤2.1:设表达式如下:W=DTX,
Figure BDA0002716737990000032
gj=Wj+1-Wc,其中Wj表示W的第j列,Wc表示W的第c列,用ζ表示学习因子,t和j均表示变量,令ζ=0,t=0,j=1,
Figure BDA0002716737990000033
其一阶导数
Figure BDA0002716737990000034
步骤2.2:当j≤C循环;
若j≠c,
若ψ′(ζ)>0,则ζ=ζ+gj,t=t+1;
j=j+1;
步骤2.3:ζ=ζ/(1+t);
步骤2.4:通过下式逐列更新边距目标向量S的第j列,即Sj
Figure BDA0002716737990000035
其中,
Figure BDA0002716737990000036
Ω(·)表示索引运算符。
输出:边距目标向量S。
进一步,所述步骤3中在每个图像块集合上计算稀疏模块化字典,包含以下步骤:
输入:数据集X,划分为M个子模块,其中nl个标签数据集,表示为:
Figure BDA0002716737990000041
nu个无标签数据集,表示为:
Figure BDA0002716737990000042
标签矩阵表示为:L=[Ll;Lu]=[Ll,1,...,Ll,M;Lu,1,...,Lu,M],用λ1、λ2、γ表示正则化参数,用iter表示迭代次数变量,用J表示近邻数:
步骤3.1:设iter=0,在数据集X上使用KSVD初始化字典D1,D2,...,DM,S=L,F和Z是矩阵D的两个分解矩阵,P表示标签数据连接概率矩阵,并将F,Z,P初始值设为单位矩阵,使用X初始化图拉普拉斯矩阵E;
步骤3.2:循环;
步骤3.3:令变量m=1;
步骤3.4:循环;
步骤3.5:Z=FTDm
步骤3.6:
Figure BDA0002716737990000043
其中lu=1,2,...,nl,nl+1,...,nl+nu,Xlu,m表示数据集X的第lu个数据的第m个模块所构成的矩阵,I表示单位矩阵;
步骤3.7:Dm=(K-γFFT)-1Xlu,mST
步骤3.8:[U,∑,VT]=SVD(DmZT);其中,U和V分别表示奇异值分解后的左奇异向量和右奇异向量,Σ为奇异值组成的对角矩阵;
步骤3.9:F=UVT
步骤3.10:使用权利要求1所述的步骤2逐列更新边距目标向量S;
步骤3.11:使用下式逐行更新Pm的第i行,即Pm,i,Pm表示标签数据连接概率矩阵P的第m个模块:
Figure BDA0002716737990000044
其中,pi表示标签数据连接概率矩阵P的第m个模块的第i行,ti表示标签数据连接概率矩阵P每列之和所构成的主对角线矩阵的第i行,max表示求最大数;
Figure BDA0002716737990000051
Wi=DTXi,其中,ti,j表示标签数据连接概率矩阵P每列之和所构成的主对角线矩阵的第i行第j列的值,n表示数据集中数据的总个数,
Figure BDA0002716737990000052
是ti按照升序排好序的向量,J表示近邻数,Xi表示数据集X的第i个数据;
步骤3.12:更新E=diag(sum(Pm))-Pm
步骤3.13:m=m+1;
步骤3.14:直到m>M;
步骤3.15:iter=iter+1;
步骤3.16:直到iter>30或满足收敛条件;
输出:稀疏模块化字典D1,D2,...,DM
进一步,所述步骤4中在每个图像块集合上利用基于边距回归目标的模块化稀疏表示学习计算图像块之间的相似性,以及步骤5中利用sigmoid加权投票算法把每个图像块集合上学习的相似性结果组合成一个整体,具体内容包括如下步骤:
输入:稀疏模块化字典D1,D2,...,DM∈Rd×n,d<n,Rd×n表示d×n的矩阵,稀疏度sparsity=8,数据类别总数C,无标签测试样本y,分成M个子模块y1,y2,...,yM,票数A;
步骤5.1:用正交匹配追踪算法求解测试样本y的M个子模块稀疏系数,即
Figure BDA0002716737990000053
k=1,2,...,M,其中yk表示样本y的第k个模块,Dk表示D的第k个模块,*表示矩阵的乘法运算符号;
步骤5.2:利用式
Figure BDA0002716737990000061
构造类i在测试样本y第k个子模块yk的子模类系数byki,i=1,2,...C,k=1,...,M,其中,
Figure BDA0002716737990000062
为样本y的第k个子模块中第i类训练样本对应的系数;
步骤5.3:构造yk子模类向量byk=[byk1,byk2,...,bykC];
步骤5.4:使用式
Figure BDA0002716737990000063
计算样本y的每个子模块yk的稀疏度syk,k=1,...,M;
步骤5.5:使用式
Figure BDA0002716737990000064
计算yk的残差ryk
步骤5.6:使用sigmoid函数
Figure BDA0002716737990000065
计算样本y的每个子模块yk的稀疏度的可信度权重
Figure BDA0002716737990000069
k=1,...,M,其中,s1和s2为稀疏度的2个安全阈值;
步骤5.7:使用sigmoid函数
Figure BDA0002716737990000066
计算样本y的每个子模块yk的残差的可信度权重
Figure BDA0002716737990000067
k=1,...,M,其中,r1和r2为残差的2个安全阈值;
步骤5.8:使用式
Figure BDA0002716737990000068
计算子模块yk的可信度权重值wyk;如果y所有子模块的可信度权重全部为0,则设置wyk=1;
步骤5.9:计算子模块yk中测试样本与各类训练样本间的残差,即:
Figure BDA0002716737990000071
k=1,2,...,M;
步骤5.10:将测试样本y的第k个子模块的残差ry1,k,ry2,k,...,ryC,k从小到大排序,残差最小的类得到A票数,残差次小的类得到A-1票数,依此类推,直至某类得到1票数,则余下的类别也全都得到1票数;
Figure BDA00027167379900000713
表示第i类在第k个子模块中获得的票数,i=1,2,...,C,k=1,2,...,M;
步骤5.11:通过将测试样本y的所有模块上每类获得的总票数进行加权求和,计算每类获得总票数
Figure BDA0002716737990000072
步骤5.12:计算
Figure BDA0002716737990000073
输出:测试样本y的稀疏表示系数
Figure BDA0002716737990000074
进一步,所述步骤6中根据相似性置信度对无标签数据进行伪标签的分配,按照置信度大小选择一些无标签数据加入训练样本集中并对弱分类器进行训练,训练完后把弱分类器组合成最终的分类器,上述具体内容包括如下步骤:
输入:数据集X,划分为M个子模块,其中具有nl个标签数据集XL,具有nu个无标签数据集XU
Figure BDA0002716737990000075
表示标签数据的标签集,
Figure BDA0002716737990000076
是向量,
Figure BDA0002716737990000077
表示标签数据集中第i个数据;若
Figure BDA0002716737990000078
属于第k类,则
Figure BDA0002716737990000079
的第k个元素为1,即
Figure BDA00027167379900000710
其余元素为0,有
Figure BDA00027167379900000711
H(X)表示分类器,C为数据类别总数;
步骤6.1:分别计算权值:
Figure BDA00027167379900000712
步骤6.2:初始化分类器H(X)=0;
步骤6.3:使用权利要求1所述的步骤4求出数据集X的稀疏系数Olu和无标签数据集XU的稀疏系数Ouu
步骤6.4:计算无标签数据xj归为第k类的置信度,k=1,2,...,C,即:
Figure BDA0002716737990000081
其中,xi和xj分别表示第i个和第j个无标签数据,j∈{1,2,...,nu},k∈{1,2,...,C},
Figure BDA0002716737990000082
表示标签数据中第i个数据和无标签数据中第j个数据的稀疏系数,
Figure BDA0002716737990000083
表示第i和第j个无标签数据的稀疏系数;
步骤6.5:把xj归为置信度最高值所对应的k类,h(xj)=[0,...,0,1,0,...,0],即第k位上的值为1,其余为0,并根据pj,k的绝对值|pj,k|的大小,抽取前10%的无标签数据放入标签数据XL中,h(xj)表示对第j个无标签数据进行分类的结果;
步骤6.6:使用式
Figure BDA0002716737990000084
计算分类器的权值α,其中,
Figure BDA0002716737990000085
步骤6.7:更新分类器:H(X)=H(X)+αh(xj);
输出:最终的分类器H(X)。
进一步,所述步骤7中利用最终的分类器完成测试样本的分类内容如下:
首先,根据最终分类器计算测试样本归为第k类的置信度,k=1,2,...,C;
其次,测试样本的标签就是最大置信度对应的k值。
本发明所公开的视觉分类方法,边距回归目标学习没有使用固定的0-1矩阵作为回归目标,而是直接构建了具有较好的近似最优边距约束的自调整回归目标,可以更准确地测量回归结果;为了捕获具有数据连通性的潜在结构,使用概率图形结构自适应指导边距回归目标的构建,回归结果进一步在数据的判别潜在子空间中进行预测,从而捕捉潜在的相关模式;由此得到的数据表示法具有明显的判别能力,且具有接近最优的边距,进而提升了视觉分类的准确性。
附图说明:
图1为本发明的视觉分类方法的流程示意图;
图2为本发明的视觉分类方法的半监督Boosting策略;
图3为本发明的图像块残差度的权重函数图;
图中:ryk---图像块k的残差,r1和r2---残差的2个安全阈值,
Figure BDA0002716737990000092
---图像块k的残差的可信度权值;
图4为本发明的图像块稀疏度的权重函数图;
图中syk---图像块k的稀疏度,s1和s2---稀疏度的2个安全阈值,
Figure BDA0002716737990000091
---图像块k的稀疏度的可信度权值;
图5为一组本实施例Extended YaleB人脸数据集的示意图;
图6为一组本实施例CMU PIE人脸的示意图;
图7为一组本实施例AR人脸的示意图;
图8为一组本实施例COIL-100数据集的示意图;
图9为本实施例在Extended YaleB人脸集上与其他算法比较的结果图;
图10为本实施例在CMP PIE人脸集上与其他算法比较的结果图;
图11为本实施例在AR人脸集上与其他算法比较的结果图;
图12为本实施例在COIL-100数据集上与其他算法比较的结果图。
具体实施方式:
本实施例公开一种半监督的多类别Boosting分类方法,如图1至图4所示,该方法的内容介绍如下:
步骤1:把数据集X划分为M个子模块,其中包含nl个标签数据集和nu个无标签数据集;
标签数据集表示为XL,即:
Figure BDA0002716737990000101
无标签数据集表示为XU,即:
Figure BDA0002716737990000102
步骤2:在数据集上逐列更新边距目标向量,具体方法如下:
输入:数据集X、字典D、真实的类标签编号c,其中c∈{1,...,1,2,...,2,...,C,...,C},C为数据的总类别数目;
步骤2.1):设表达式如下:W=DTX,
Figure BDA0002716737990000103
gj=Wj+1-Wc,其中Wj表示W的第j列,Wc表示W的第c列,用ζ表示学习因子,t和j均表示变量,令ζ=0,t=0,j=1,
Figure BDA0002716737990000104
其一阶导数
Figure BDA0002716737990000105
步骤2.2):当j≤C循环;
若j≠c,
若ψ′(ζ)>0,则ζ=ζ+gj,t=t+1;
j=j+1;
步骤2.3):ζ=ζ/(1+t);
步骤2.4):通过下式逐列更新边距目标向量S的第j列,即Sj
Figure BDA0002716737990000106
其中,
Figure BDA0002716737990000107
Ω(·)表示索引运算符。
输出:边距目标向量S。
步骤3:在每个图像块集合上计算稀疏模块化字典,具体方法如下:
输入:数据集X,划分为M个子模块,其中nl个标签数据集,表示为:
Figure BDA0002716737990000108
nu个无标签数据集,表示为:
Figure BDA0002716737990000109
标签矩阵表示为:L=[Ll;Lu]=[Ll,1,...,Ll,M;Lu,1,...,Lu,M],用λ1、λ2、γ表示正则化参数,用iter表示迭代次数变量,用J表示近邻数:
步骤3.1):设iter=0,在数据集X上使用KSVD初始化字典D1,D2,...,DM,S=L,F和Z是矩阵D的两个分解矩阵,P表示标签数据连接概率矩阵,并将F,Z,P初始值设为单位矩阵,使用X初始化图拉普拉斯矩阵E;
步骤3.2):循环;
步骤3.3):令变量m=1;
步骤3.4):循环;
步骤3.5):Z=FTDm
步骤3.6):
Figure BDA0002716737990000111
其中lu=1,2,...,nl,nl+1,...,nl+nu,Xlu,m表示数据集X的第lu个数据的第m个模块所构成的矩阵,I表示单位矩阵;
步骤3.7):Dm=(K-γFFT)-1Xlu,mST
步骤3.8):[U,∑,VT]=SVD(DmZT);其中,U和V分别表示奇异值分解后的左奇异向量和右奇异向量,Σ为奇异值组成的对角矩阵;
步骤3.9):F=UVT
步骤3.10):使用权利要求1所述的步骤2逐列更新边距目标向量S;
步骤3.11):使用下式逐行更新Pm的第i行,即Pm,i,Pm表示标签数据连接概率矩阵P的第m个模块:
Figure BDA0002716737990000112
其中,pi表示标签数据连接概率矩阵P的第m个模块的第i行,ti表示标签数据连接概率矩阵P每列之和所构成的主对角线矩阵的第i行,max表示求最大数;
Figure BDA0002716737990000113
Wi=DTXi,其中,ti,j表示标签数据连接概率矩阵P每列之和所构成的主对角线矩阵的第i行第j列的值,n表示数据集中数据的总个数,
Figure BDA0002716737990000121
是ti按照升序排好序的向量,J表示近邻数,Xi表示数据集X的第i个数据;
步骤3.12):更新E=diag(sum(Pm))-Pm
步骤3.13):m=m+1;
步骤3.14):直到m>M;
步骤3.15):iter=iter+1;
步骤3.16):直到iter>30或满足收敛条件;
输出:稀疏模块化字典D1,D2,...,DM
步骤4:在每个图像块集合上利用基于边距回归目标的模块化稀疏表示学习计算图像块之间的相似性;
步骤5:利用sigmoid加权投票算法把每个图像块集合上学习的相似性结果组合成一个整体;
上述步骤4和步骤5的具体操作方法详述如下:
输入:稀疏模块化字典D1,D2,...,DM∈Rd×n,d<n,Rd×n表示d×n的矩阵,稀疏度sparsity=8,数据类别总数C,无标签测试样本y,分成M个子模块y1,y2,...,yM,票数A;
步骤5.1):用正交匹配追踪算法求解测试样本y的M个子模块稀疏系数,即
Figure BDA0002716737990000122
k=1,2,...,M,其中yk表示样本y的第k个模块,Dk表示D的第k个模块,*表示矩阵的乘法运算符号;
步骤5.2):利用式
Figure BDA0002716737990000123
构造类i在测试样本y第k个子模块yk的子模类系数byki,i=1,2,...C,k=1,...,M,其中,
Figure BDA0002716737990000124
为样本y的第k个子模块中第i类训练样本对应的系数;
步骤5.3):构造yk子模类向量byk=[byk1,byk2,...,bykC];
步骤5.4):使用式
Figure BDA0002716737990000131
计算样本y的每个子模块yk的稀疏度syk,k=1,...,M;
步骤5.5):使用式
Figure BDA0002716737990000132
计算yk的残差ryk
步骤5.6):使用sigmoid函数
Figure BDA0002716737990000133
计算样本y的每个子模块yk的稀疏度的可信度权重
Figure BDA0002716737990000134
k=1,...,M,其中,s1和s2为稀疏度的2个安全阈值;
步骤5.7):使用sigmoid函数
Figure BDA0002716737990000135
计算样本y的每个子模块yk的残差的可信度权重
Figure BDA0002716737990000136
k=1,...,M,其中,r1和r2为残差的2个安全阈值;
步骤5.8):使用式
Figure BDA0002716737990000137
计算子模块yk的可信度权重值wyk;如果y所有子模块的可信度权重全部为0,则设置wyk=1;
步骤5.9):计算子模块yk中测试样本与各类训练样本间的残差,即:
Figure BDA0002716737990000141
步骤5.10):将测试样本y的第k个子模块的残差ry1,k,ry2,k,...,ryC,k从小到大排序,残差最小的类得到A票数,残差次小的类得到A-1票数,依此类推,直至某类得到1票数,则余下的类别也全都得到1票数;
Figure BDA0002716737990000142
表示第i类在第k个子模块中获得的票数,i=1,2,...,C,k=1,2,...,M;
步骤5.11):通过将测试样本y的所有模块上每类获得的总票数进行加权求和,计算每类获得总票数
Figure BDA0002716737990000143
步骤5.12):计算
Figure BDA0002716737990000144
输出:测试样本y的稀疏表示系数
Figure BDA0002716737990000145
步骤6:根据相似性置信度对无标签数据进行伪标签的分配,按照置信度大小选择一些无标签数据加入训练样本集中并对弱分类器进行训练,训练完后把弱分类器组合成最终的分类器;此步骤具体内容说明如下:
输入:数据集X,划分为M个子模块,其中具有nl个标签数据集XL,具有nu个无标签数据集XU
Figure BDA0002716737990000146
表示标签数据的标签集,
Figure BDA0002716737990000147
是向量,
Figure BDA0002716737990000148
表示标签数据集中第i个数据;若
Figure BDA0002716737990000149
属于第k类,则
Figure BDA00027167379900001410
的第k个元素为1,即
Figure BDA00027167379900001411
其余元素为0,有
Figure BDA00027167379900001412
H(X)表示分类器,C为数据类别总数;
步骤6.1):分别计算权值:
Figure BDA00027167379900001413
步骤6.2):初始化分类器H(X)=0;
步骤6.3):使用权利要求1所述的步骤4求出数据集X的稀疏系数Olu和无标签数据集XU的稀疏系数Ouu
步骤6.4):计算无标签数据xj归为第k类的置信度,k=1,2,...,C,即:
Figure BDA0002716737990000151
其中,xi和xj分别表示第i个和第j个无标签数据,j∈{1,2,...,nu},k∈{1,2,...,C},
Figure BDA0002716737990000152
表示标签数据中第i个数据和无标签数据中第j个数据的稀疏系数,
Figure BDA0002716737990000153
表示第i和第j个无标签数据的稀疏系数;
步骤6.5):把xj归为置信度最高值所对应的k类,h(xj)=[0,...,0,1,0,...,0],即第k位上的值为1,其余为0,并根据pj,k的绝对值|pj,k|的大小,抽取前10%的无标签数据放入标签数据XL中,h(xj)表示对第j个无标签数据进行分类的结果;
步骤6.6):使用式
Figure BDA0002716737990000154
计算分类器的权值α,其中,
Figure BDA0002716737990000155
步骤6.7):更新分类器:H(X)=H(X)+αh(xj);
输出:最终的分类器H(X)。
步骤7:利用最终的分类器完成测试样本的分类,具体内容如下:
首先,根据最终分类器计算测试样本归为第k类的置信度,k=1,2,...,C;
其次,测试样本的标签就是最大置信度对应的k值。
为了验证上述本发明所公开的分类方法其相对于现有其他算法的优越性,本实施例中分别在Extended YaleB人脸集、CMP PIE人脸集、AR人脸集、COIL-100数据集上应用本发明方法与其他算法进行了比较,以下将以实际验证实施例加以展示(如图5至图12所示)。
在对比实施例中,数据集划分的M个子模块中将M设置为9,Extended YaleB数据集类别数C为38,CMU PIE数据集类别数C为68,AR数据集类别数C为126,COIL-100数据集类别数C为100。每种数据集分别进行四次试验,对于Extended YaleB和CMU PIE,从每名受试者中随机选择10、15、20和25张图像作为训练集,其余的图像作为测试集;对于AR数据集,从每名受试者中随机选择8、11、14和17幅图像作为训练集,其余的图像作为测试集;对于COIL-100数据集,随机选择每个对象10、15、20、25张图像作为训练样本,其余图像作为测试样本。按照上述给出的方法进行步骤3时,本实施例中λ1为0.5,λ2为0.05,γ为0.05,近邻数J为15。
将本发明所公开的视觉分类方法分别与DLSR算法(S.Xiang,F.Nie,G.Meng,C.Panand C.Zhang,“Discriminative least squares regression for multiclassclassification and feature selection,”IEEE Trans.Neural Netw.Learn.Syst.,vol.23,no.11,pp.1738-1754,Nov.2012,10.1109/TNNLS.2012.2212721)、SLRM算法(L.Jing,L.Yang,J.Yu and M.K.Ng,“Semi-supervised low-rank mapping learning formulti-label classification,”in Proc.IEEE Conf.Comput.Vis.Pattern Recognit.,Boston,MA,USA,2015,pp.1483–1491.)、MSRL算法(Z.Zhang,L.Shao,Y.Xu,L.Liu and JianYang,“Marginal Representation Learning With Graph Structure Self-Adaptation,”IEEE Transactions On Neural Networks And Learning Systems,vol.29,no.10,pp.4645-4659,Dec.2018,10.1109/TNNLS.2017.2772264.)、XGBOOST算法(T.Chen and C,Guestrin,“Xgboost:A scalable tree boosting system,”in Proc.ACM SIGKDDInt.Conf.Knowl.Discovery Data Mining,San Francisco,CA,USA,2016,pp.785–794.)进行了对比,如图9至图12所示,附图中的MSPASEMIBOOST表示采用本发明方法。
由图9所展示实验发现,在Extended YaleB人脸数据集上,本发明方法得到的平均的识别率为97.05%,DLSR方法得到的平均的识别率为92.71%,SLRM方法得到的平均的识别率为89.6%,MSRL方法得到的平均的识别率为94.97%,XGBOOST方法得到的平均的识别率为93.78%,与其他算法相比,采用本发明方法识别率平均提升了大约2%,可以看出本发明方法优于其余方法。
由图10所展示实验发现,在CMU PIE人脸数据集上,本发明方法得到的平均的识别率为94.43%,DLSR方法得到的平均的识别率为90.12%,SLRM方法得到的平均的识别率为88.81%,MSRL方法得到的平均的识别率为92.83%,XGBOOST方法得到的平均的识别率为90.63%,与其他算法相比,采用本发明方法识别率平均提升了大约1.6%,可以看出本发明方法优于其余方法。
由图11所展示实验发现,在AR人脸数据集上,本发明方法得到的平均的识别率为97.72%,DLSR方法得到的平均的识别率为91.88%,SLRM方法得到的平均的识别率为92.11%,MSRL方法得到的平均的识别率为94.87%,XGBOOST方法得到的平均的识别率为92.61%,与其他算法相比,采用本发明方法识别率平均提升了大约3%,可以看出本发明方法优于其余方法。
由图12所展示实验发现,在COIL-100人脸数据集上,本发明方法得到的平均的识别率为96.90%,DLSR方法得到的平均的识别率为88.24%,SLRM方法得到的平均的识别率为89.04%,MSRL方法得到的平均的识别率为93.22%,XGBOOST方法得到的平均的识别率为92.10%,与其他算法相比,采用本发明方法识别率平均提升了大约4%,可以看出本发明方法优于其余方法。
本实施例所展示的一种视觉分类方法,在半监督Boosting框架中利用模块化稀疏表示计算无标签样本与标签样本之间的相似性,无缝地将回归目标的局部一致性和全局一致性合并到一个处理数据表示问题的公共框架中。从数据中学习的边距目标为拟合回归任务提供了足够的灵活性。同时,利用数据的潜在信息进行目标预测。与本发明所述的其他表示方法相比,所述学习数据表示方法具有更强的信息和判别能力。通过迭代优化策略有效地解决了问题。此外,在四个数据集上的实验结果表明,本实施例所述的方法优于其他的数据表示算法,这表明了本实施例所述的方法的有效性。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。

Claims (7)

1.一种半监督的多类别Boosting分类方法,其特征在于:内容包括如下步骤:
步骤1:把数据集划分为若干个子模块,其中数据集包括标签数据集和无标签数据集;
步骤2:在数据集上逐列更新边距目标向量;
步骤3:在每个图像块集合上计算稀疏模块化字典;
步骤4:在每个图像块集合上利用基于边距回归目标的模块化稀疏表示学习计算图像块之间的相似性;
步骤5:利用sigmoid加权投票算法把每个图像块集合上学习的相似性结果组合成一个整体;
步骤6:根据相似性置信度对无标签数据进行伪标签的分配,按照置信度大小选择一些无标签数据加入训练样本集中并对弱分类器进行训练,训练完后把弱分类器组合成最终的分类器;
步骤7:利用最终的分类器完成测试样本的分类。
2.根据权利要求1所述的一种半监督的多类别Boosting分类方法,其特征在于:所述步骤1中将数据集X划分为M个子模块,其中包含nl个标签数据集和nu个无标签数据集,标签数据集表示为
Figure FDA0002716737980000011
无标签数据集表示为
Figure FDA0002716737980000012
3.根据权利要求2所述的一种半监督的多类别Boosting分类方法,其特征在于:所述步骤2中在数据集上逐列更新边距目标向量的内容包括以下步骤:
输入:数据集X、字典D、真实的类标签编号c,其中c∈{1,...,1,2,...,2,...,C,...,C},C为数据的总类别数目;
步骤2.1:设表达式如下:W=DTX,
Figure FDA0002716737980000021
gj=Wj+1-Wc,其中Wj表示W的第j列,Wc表示W的第c列,用ζ表示学习因子,t和j均表示变量,令ζ=0,t=0,j=1,
Figure FDA0002716737980000022
其一阶导数
Figure FDA0002716737980000023
步骤2.2:当j≤C循环;
若j≠c,
若ψ′(ζ)>0,则ζ=ζ+gj,t=t+1;
j=j+1;
步骤2.3:ζ=ζ/(1+t);
步骤2.4:通过下式逐列更新边距目标向量S的第j列,即Sj
Figure FDA0002716737980000024
其中,
Figure FDA0002716737980000025
Ω(·)表示索引运算符。
输出:边距目标向量S。
4.根据权利要求3所述的一种半监督的多类别Boosting分类方法,其特征在于:所述步骤3中在每个图像块集合上计算稀疏模块化字典,包含以下步骤:
输入:数据集X,划分为M个子模块,其中nl个标签数据集,表示为:
Figure FDA0002716737980000026
nu个无标签数据集,表示为:
Figure FDA0002716737980000027
标签矩阵表示为:L=[Ll;Lu]=[Ll,1,...,Ll,M;Lu,1,...,Lu,M],用λ1、λ2、γ表示正则化参数,用iter表示迭代次数变量,用J表示近邻数:
步骤3.1:设iter=0,在数据集X上使用KSVD初始化字典D1,D2,...,DM,S=L,F和Z是矩阵D的两个分解矩阵,P表示标签数据连接概率矩阵,并将F,Z,P初始值设为单位矩阵,使用X初始化图拉普拉斯矩阵E;
步骤3.2:循环;
步骤3.3:令变量m=1;
步骤3.4:循环;
步骤3.5:Z=FTDm
步骤3.6:
Figure FDA0002716737980000031
其中lu=1,2,...,nl,nl+1,...,nl+nu,Xlu,m表示数据集X的第lu个数据的第m个模块所构成的矩阵,I表示单位矩阵;
步骤3.7:Dm=(K-γFFT)-1Xlu,mST
步骤3.8:[U,∑,VT]=SVD(DmZT);其中,U和V分别表示奇异值分解后的左奇异向量和右奇异向量,Σ为奇异值组成的对角矩阵;
步骤3.9:F=UVT
步骤3.10:使用权利要求1所述的步骤2逐列更新边距目标向量S;
步骤3.11:使用下式逐行更新Pm的第i行,即Pm,i,Pm表示标签数据连接概率矩阵P的第m个模块:
pi=max(ti+g,0),
Figure FDA0002716737980000034
其中,pi表示标签数据连接概率矩阵P的第m个模块的第i行,ti表示标签数据连接概率矩阵P每列之和所构成的主对角线矩阵的第i行,max表示求最大数;
Figure FDA0002716737980000032
Wi=DTXi,其中,ti,j表示标签数据连接概率矩阵P每列之和所构成的主对角线矩阵的第i行第j列的值,n表示数据集中数据的总个数,
Figure FDA0002716737980000033
是ti按照升序排好序的向量,J表示近邻数,Xi表示数据集X的第i个数据;
步骤3.12:更新E=diag(sum(Pm))-Pm
步骤3.13:m=m+1;
步骤3.14:直到m>M;
步骤3.15:iter=iter+1;
步骤3.16:直到iter>30或满足收敛条件;
输出:稀疏模块化字典D1,D2,...,DM
5.根据权利要求4所述的一种半监督的多类别Boosting分类方法,其特征在于:所述步骤4中在每个图像块集合上利用基于边距回归目标的模块化稀疏表示学习计算图像块之间的相似性,以及步骤5中利用sigmoid加权投票算法把每个图像块集合上学习的相似性结果组合成一个整体,具体内容包括如下步骤:
输入:稀疏模块化字典D1,D2,...,DM∈Rd×n,d<n,Rd×n表示d×n的矩阵,稀疏度sparsity=8,数据类别总数C,无标签测试样本y,分成M个子模块y1,y2,...,yM,票数A;
步骤5.1:用正交匹配追踪算法求解测试样本y的M个子模块稀疏系数,即
Figure FDA0002716737980000041
其中yk表示样本y的第k个模块,Dk表示D的第k个模块,*表示矩阵的乘法运算符号;
步骤5.2:利用式
Figure FDA0002716737980000042
构造类i在测试样本y第k个子模块yk的子模类系数byki,i=1,2,...C,k=1,...,M,其中,
Figure FDA0002716737980000044
为样本y的第k个子模块中第i类训练样本对应的系数;
步骤5.3:构造yk子模类向量byk=[byk1,byk2,...,bykC];
步骤5.4:使用式
Figure FDA0002716737980000043
计算样本y的每个子模块yk的稀疏度syk,k=1,...,M;
步骤5.5:使用式
Figure FDA0002716737980000051
计算yk的残差ryk
步骤5.6:使用sigmoid函数
Figure FDA0002716737980000052
计算样本y的每个子模块yk的稀疏度的可信度权重
Figure FDA0002716737980000053
其中,s1和s2为稀疏度的2个安全阈值;
步骤5.7:使用sigmoid函数
Figure FDA0002716737980000054
计算样本y的每个子模块yk的残差的可信度权重
Figure FDA0002716737980000055
其中,r1和r2为残差的2个安全阈值;
步骤5.8:使用式
Figure FDA0002716737980000056
计算子模块yk的可信度权重值wyk;如果y所有子模块的可信度权重全部为0,则设置wyk=1;
步骤5.9:计算子模块yk中测试样本与各类训练样本间的残差,即:
Figure FDA0002716737980000057
步骤5.10:将测试样本y的第k个子模块的残差ry1,k,ry2,k,...,ryC,k从小到大排序,残差最小的类得到A票数,残差次小的类得到A-1票数,依此类推,直至某类得到1票数,则余下的类别也全都得到1票数;
Figure FDA0002716737980000058
表示第i类在第k个子模块中获得的票数,i=1,2,...,C,k=1,2,...,M;
步骤5.11:通过将测试样本y的所有模块上每类获得的总票数进行加权求和,计算每类获得总票数
Figure FDA0002716737980000061
步骤5.12:计算
Figure FDA0002716737980000062
输出:测试样本y的稀疏表示系数
Figure FDA0002716737980000063
6.根据权利要求5所述的一种半监督的多类别Boosting分类方法,其特征在于:所述步骤6中根据相似性置信度对无标签数据进行伪标签的分配,按照置信度大小选择一些无标签数据加入训练样本集中并对弱分类器进行训练,训练完后把弱分类器组合成最终的分类器,上述具体内容包括如下步骤:
输入:数据集X,划分为M个子模块,其中具有nl个标签数据集XL,具有nu个无标签数据集XU
Figure FDA0002716737980000064
表示标签数据的标签集,
Figure FDA0002716737980000065
是向量,
Figure FDA0002716737980000066
表示标签数据集中第i个数据;若
Figure FDA0002716737980000067
属于第k类,则
Figure FDA0002716737980000068
的第k个元素为1,即
Figure FDA0002716737980000069
其余元素为0,有
Figure FDA00027167379800000610
H(X)表示分类器,C为数据类别总数;
步骤6.1:分别计算权值:
Figure FDA00027167379800000611
步骤6.2:初始化分类器H(X)=0;
步骤6.3:使用权利要求1所述的步骤4求出数据集X的稀疏系数Olu和无标签数据集XU的稀疏系数Ouu
步骤6.4:计算无标签数据xj归为第k类的置信度,k=1,2,...,C,即:
Figure FDA00027167379800000612
其中,xi和xj分别表示第i个和第j个无标签数据,j∈{1,2,...,nu},k∈{1,2,...,C},
Figure FDA00027167379800000613
表示标签数据中第i个数据和无标签数据中第j个数据的稀疏系数,
Figure FDA0002716737980000071
表示第i和第j个无标签数据的稀疏系数;
步骤6.5:把xj归为置信度最高值所对应的k类,h(xj)=[0,...,0,1,0,...,0],即第k位上的值为1,其余为0,并根据pj,k的绝对值|pj,k|的大小,抽取前10%的无标签数据放入标签数据XL中,h(xj)表示对第j个无标签数据进行分类的结果;
步骤6.6:使用式
Figure FDA0002716737980000072
计算分类器的权值α,其中,
Figure FDA0002716737980000073
步骤6.7:更新分类器:H(X)=H(X)+αh(xj);
输出:最终的分类器H(X)。
7.根据权利要求6所述的一种半监督的多类别Boosting分类方法,其特征在于:所述步骤7中利用最终的分类器完成测试样本的分类内容如下:
首先,根据最终分类器计算测试样本归为第k类的置信度,k=1,2,...,C;
其次,测试样本的标签就是最大置信度对应的k值。
CN202011075826.6A 2020-10-10 2020-10-10 一种半监督的多类别Boosting分类方法 Active CN112232398B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011075826.6A CN112232398B (zh) 2020-10-10 2020-10-10 一种半监督的多类别Boosting分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011075826.6A CN112232398B (zh) 2020-10-10 2020-10-10 一种半监督的多类别Boosting分类方法

Publications (2)

Publication Number Publication Date
CN112232398A true CN112232398A (zh) 2021-01-15
CN112232398B CN112232398B (zh) 2024-07-02

Family

ID=74120705

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011075826.6A Active CN112232398B (zh) 2020-10-10 2020-10-10 一种半监督的多类别Boosting分类方法

Country Status (1)

Country Link
CN (1) CN112232398B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649906A (zh) * 2024-01-30 2024-03-05 浙江大学 一体化铝合金结构件铸造质量预测方法、电子设备、介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463202A (zh) * 2014-11-28 2015-03-25 苏州大学 一种多类图像半监督分类方法及系统
CN104933442A (zh) * 2015-06-16 2015-09-23 陕西师范大学 一种基于最小代价路径进行图像标签传播的方法
CN108564107A (zh) * 2018-03-21 2018-09-21 温州大学苍南研究院 基于原子拉普拉斯图正则化的半监督字典学习的样本类别归类方法
CN109522841A (zh) * 2018-11-16 2019-03-26 重庆邮电大学 一种基于群稀疏表示与低秩矩阵恢复的人脸识别方法
CN109933667A (zh) * 2019-03-19 2019-06-25 中国联合网络通信集团有限公司 文本分类模型训练方法、文本分类方法及设备
US20200019817A1 (en) * 2018-07-11 2020-01-16 Harbin Institute Of Technology Superpixel classification method based on semi-supervised k-svd and multiscale sparse representation
CN111539389A (zh) * 2020-06-22 2020-08-14 腾讯科技(深圳)有限公司 人脸防伪识别方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463202A (zh) * 2014-11-28 2015-03-25 苏州大学 一种多类图像半监督分类方法及系统
CN104933442A (zh) * 2015-06-16 2015-09-23 陕西师范大学 一种基于最小代价路径进行图像标签传播的方法
CN108564107A (zh) * 2018-03-21 2018-09-21 温州大学苍南研究院 基于原子拉普拉斯图正则化的半监督字典学习的样本类别归类方法
US20200019817A1 (en) * 2018-07-11 2020-01-16 Harbin Institute Of Technology Superpixel classification method based on semi-supervised k-svd and multiscale sparse representation
CN110717354A (zh) * 2018-07-11 2020-01-21 哈尔滨工业大学 基于半监督k-svd与多尺度稀疏表示的超像元分类方法
CN109522841A (zh) * 2018-11-16 2019-03-26 重庆邮电大学 一种基于群稀疏表示与低秩矩阵恢复的人脸识别方法
CN109933667A (zh) * 2019-03-19 2019-06-25 中国联合网络通信集团有限公司 文本分类模型训练方法、文本分类方法及设备
CN111539389A (zh) * 2020-06-22 2020-08-14 腾讯科技(深圳)有限公司 人脸防伪识别方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
古楠楠;孙湘南;刘伟;李路云;: "基于自步学习与稀疏自表达的半监督分类方法", 系统科学与数学, no. 01, 15 January 2020 (2020-01-15) *
施静兰;常侃;张智勇;覃团发;: "人脸识别中基于系数相似性的字典学习算法", 计算机科学, no. 06, 15 June 2016 (2016-06-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649906A (zh) * 2024-01-30 2024-03-05 浙江大学 一体化铝合金结构件铸造质量预测方法、电子设备、介质
CN117649906B (zh) * 2024-01-30 2024-04-26 浙江大学 一体化铝合金结构件铸造质量预测方法、电子设备、介质

Also Published As

Publication number Publication date
CN112232398B (zh) 2024-07-02

Similar Documents

Publication Publication Date Title
Sankaran et al. Group sparse autoencoder
Quattoni et al. An efficient projection for l 1,∞ regularization
Bilen et al. Integrated perception with recurrent multi-task neural networks
Kavukcuoglu et al. Fast inference in sparse coding algorithms with applications to object recognition
CN110866530A (zh) 一种字符图像识别方法、装置及电子设备
CN114492574A (zh) 基于高斯均匀混合模型的伪标签损失无监督对抗域适应图片分类方法
CN113657425A (zh) 基于多尺度与跨模态注意力机制的多标签图像分类方法
CN111476315A (zh) 一种基于统计相关性与图卷积技术的图像多标签识别方法
CN115410088B (zh) 一种基于虚拟分类器的高光谱图像领域自适应方法
Cholakkal et al. Backtracking spatial pyramid pooling-based image classifier for weakly supervised top–down salient object detection
CN109492610B (zh) 一种行人重识别方法、装置及可读存储介质
Bose et al. Light weight structure texture feature analysis for character recognition using progressive stochastic learning algorithm
Wang et al. Low-rank sparse feature selection for image classification
Liu et al. Tread pattern image classification using convolutional neural network based on transfer learning
Petrini et al. How deep neural networks learn compositional data: The random hierarchy model
Singh et al. Binary face image recognition using logistic regression and neural network
CN112232398B (zh) 一种半监督的多类别Boosting分类方法
Kanungo Analysis of Image Classification Deep Learning Algorithm
CN113592045B (zh) 从印刷体到手写体的模型自适应文本识别方法和系统
Rahman et al. A multiexpert framework for character recognition: a novel application of Clifford networks
Kapp et al. Methodology for the design of NN-based month-word recognizers written on Brazilian bank checks
Sun et al. Improving deep neural networks with multilayer maxout networks
Raab et al. Transfer learning for the probabilistic classification vector machine
Warkar et al. A survey on multiclass image classification based on Inception-v3 transfer learning model
CN112861594A (zh) 基于增量半监督核极限学习机的在线手写体数字识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant