CN109522961A - 一种基于字典深度学习的半监督图像分类方法 - Google Patents
一种基于字典深度学习的半监督图像分类方法 Download PDFInfo
- Publication number
- CN109522961A CN109522961A CN201811407450.7A CN201811407450A CN109522961A CN 109522961 A CN109522961 A CN 109522961A CN 201811407450 A CN201811407450 A CN 201811407450A CN 109522961 A CN109522961 A CN 109522961A
- Authority
- CN
- China
- Prior art keywords
- label data
- dictionary
- cost function
- classification
- softmax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Abstract
本发明公开了一种基于字典深度学习的半监督图像分类方法,该方法步骤如下:根据深度神经网络的Softmax代价函数构建有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P):根据有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P)构建总体模型函数;使用交替优化算法以训练总体模型,训练优化过程包括:基于字典学习和Softmax网络信息的联合类别估计、神经网络和无标签类别估计的联合学习。本发明用字典学习与深度神经网络的Softmax分类器结合,强化了深度神经网络对无标签数据的探索能力,极大地提升网络特征学习能力和分类器学习能力。本发明适用于计算机视觉或模式识别领域。
Description
技术领域
本发明涉及计算机视觉和模式识别领域,更具体的,涉及一种基于字典深度学习的半监督图像分类方法。
背景技术
在计算机视觉和模式识别领域,图片分类是视觉技术中的基础。深度神经网络凭借其强大的特征表示能力和与人类视觉系统的相似架构,在图片分类任务中取得巨大的成功,引起研究者的广泛关注。为了提高图片分类精度,需要不断研发更强大更复杂的深度神经网络。但是,深度神经网络的成功严重依赖于大量有标签数据,而且越复杂的神经网络架构对标签数据的需求越大。但是,有标签数据的获取,需要通过大量人力去进行标注,非常地耗时耗力。当缺乏大量数据时,深度神经网络会出现称为“过拟合”的严重机器学习问题。与此同时,由于传感器与网络媒体技术的发展,无标签数据非常丰富而且更易于获取。因此,如何利用少量的有标签数据和丰富的无标签数据来训练出具有良好性能的深度神经网络非常关键。
因此半监督机器学习方法开始被引入深度学习领域中。传统的半监督方法致力于同时而有效地利用有标签数据和无标签数据,通常分为4类:协同训练方法,基于图的半监督学习,半监督支持向量机,半监督字典学习,尽管这些传统的半监督方法在一定的假设条件下,确实可以提升模型性能,但是传统的半监督方法通常都是在给定的特征下进行,其特征抽取过程独立于分类器的学习过程。在给定特征不满足分类器的假设情况下,半监督方法没有提升模型性能,甚至会出现损害。尽管半监督字典方法可以把无标签数据吸收到判别性字典学习中,但是却无法抽取有效的特征,因此无法很好地估计无标签数据的类别。而现存的半监督深度学习方法,如Lee等在2013年提出的Pseudo-Label,虽然可以高层抽象特征,但却无法探索无标签数据内在的判别性信息。
发明内容
本发明为了解决深度神经网络能获取有标签数据的有效特征,却无法获取无标签数据和半监督字典方法能把无标签数据吸收到判别性字典学习中,却无法抽取无标签数据的有效特征的问题,提供了一种基于字典深度学习的半监督图像分类方法,其使用字典学习与传统深度神经网络的Softmax分类器进行互补,能对无标签数据同时进行特征学习和分类器学习,极大地提升网络性能。
为实现上述本发明目的,采用的技术方案如下:一种基于字典深度学习的半监督图像分类方法,该方法步骤如下:
S1:构建深度神经网络,根据深度神经网络的Softmax代价函数构建有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P),所述无标签数据的代价函数Lu(Zu,P)包括基于字典表示和Softmax网络信息的联合预测联合类别估计p的熵正则项H(pr);
S2:根据有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P)构建总体模型函数;
S3:使用有标签数据的深度特征表示来构建字典,计算字典表示系数和表示残差;
S4:Softmax网络信息在网络的前向传播完成时,根据步骤S3得到的字典表示残差计算根据计算H(pr),预设熵阈值λ,若H(pr)大于预设阈值λ,则pr会被设为0,其监督信号pr将被阻挡;若H(pr)小于等于预设阈值,则其监督信号pr将被传播到深度神经网络,通过反向传播提升深度神经网络性能;
S5:根据上述步骤得到无标签数据的代价函数和有标签数据的代价函数,得到总体模型函数,并通过SGD算法,利用总体模型函数对深度神经网络进行训练;
S6:将完成训练的深度神经网络对未知的无标签数据进行分类处理,完成分类;
其中:(Zl,Yl)={(z1:N,y1:N)}表示有标签数据的深度特征;Yl是有标签数据对应的标签;yji=1表示第j个有标签数据zj属于第i类;N是有标签数据的样本数;C是类别数;Zu={zN+1:N+M}表示无标签数据的深度特征;P={p1:M}是无标签数据的类别估计;M是无标签数据的样本数;表示无标签数据第r类的深度特征;表示无标签数据的Softmax代价函数层前面的全连接层的输出;α表示无标签数据深度特征在子字典上的编码系数;Di表示与第i类有关的子字典。
优选地,步骤S1,根据深度神经网络的Softmax代价函数构建有标签数据的代价函数Ll(Zl,Yl)的过程如下:
A1:Softmax代价函数的Softmax归一化输出表示一个样本在C个可能类别上的概率分布,其公式表示如下:
A2:令表示Softmax代价层前的全连接层的输出,其公式简化如下:
A3:当xj属于第k类的时候,即yji=1且k=i,并有yji=0且k≠i时,有标签数据的代价函数,即Softmax代价函数,如下:
其中:是Softmax代价函数层前面的全连接层;Wk对应于第k个类别;表示W是一个维数为C×d的矩阵;表示的特征属于第k类的线性映射值;b=[b1;…;bk;…;bC]为全连接层的偏置向量;表示来自Softmax分类器的网络预测信息。
优选地,步骤S1,根据深度神经网络的Softmax代价函数构建无标签数据的代价函数Lu(Zu,P)的过程如下:
C1:Softmax代价函数的Softmax归一化输出表示一个样本在C个可能类别上的概率分布,其公式表示如下:
C2:令表示无标签数据的Softmax代价函数层前的全连接层的输出,其公式简化如下:
C3:假设存在一个类别特定的字典D=[D1,D2,…,DC],则无标签数据的代价函数Lu(Zu,P)的表达式如下:
所述无标签数据的代价函数Lu(Zu,P)包括基于字典表示和Softmax网络信息的联合预测、熵正则项H(pr);
其中:是与第i类有关的子字典,d是深度特征的特征维数,ni是第i类有标签样本的个数;表示来自Softmax分类器的网络预测信息;αri是无标签数据的深度特征在子字典Di上的编码系数;是类别估计概率,其第i个元素pr,i表示第r个无标签数据属于第i类的概率,是基于类别特定表示残差;η表示超参数,η∈(0,1];H(pr)联合类别估计p的熵正则;λ表示预设阈值;是信息量,用于衡量网络预测类别估计的不确定度,当为1时,则为0,即确定其预测,β表示熵正则项的权重系数,用以控制熵正则项。
进一步地,基于字典表示和Softmax网络信息的联合预测其表达式如下:
其中:表示测量无标签数据与第i类的不相似性,联合两种不同的信息:来自Softmax分类器的信息,其鼓励不同类别特征间的分离性和来自字典学习的信息其鼓励来自同一类的特征可以很好地相互表示;超参数η∈(0,1]用于平衡来自Softmax分类器的信息和来自字典学习的信息对于无标签训练数据,当概率pr,i值大时,表示该无标签数据的代价需要被重视,其提升无标签数据的预测性能。
进一步地,所述联合类别估计p的熵正则项H(pr),其表达式如下:
为了能挑选高可信的无标签数据的类别估计,以正确地训练网络,提出如下正则:
熵H(pr)的值越大,则联合类别估计pr越不确定;若H(pr)大于预设阈值λ,则pr会被设为0,其监督信号pr将被阻挡;若H(pr)小于等于预设阈值,则其监督信号pr将被传播到网络,通过反向传播提升网络性能;
优选地,所述总体模型的表达式如下:
其中:函数Ψ表示在损失代价层前面的特征抽取;P={p1:M}是无标签数据的类别估计,表示第r个无标签数据的类别概率。
优选地,步骤S3,使用有标签数据的深度特征表示来构建字典,计算字典表示系数和表示残差的过程如下:
D1:使用有标签数据的深度特征表示来构建字典,构建公式如下:
其中:为属于第j类的有标签数据的深度特征;为属于第C类的有标签数据的深度特征;
D2:通过系数编码算法计算表示系数和表示残差,其公式如下:
求得编码表示系数αr后,通过l2范数计算表示残差
其中:κ是l1正则项的权重系数,用以控制系数的稀疏程度。
优选地,步骤S4,为了防止网络训练更新缓慢,对类别估计进行指数移动平均值,
p't+1=γpt+1+(1-γ)p't
其中:p't+1是第t+1次迭代的类别估计pt+1的指数移动平均值;指数移动平均值保持过去的信息,若当前的类别估计与上一次的类别估计不一致时,p'将会趋于均匀分布,而熵H(p')将增加而不挑选该数据;若估计一致,指数移动平均值则会增强预测;
其中:γ是移动平均的衰减率。
优选地,步骤S5,对总体模型函数进行SGD算法,对无标签数据的深度神经网络的估计和无标签数据的深度特征进行反向传播的训练学习:
F1:无标签数据的代价函数对 的偏导,得:
F2:根据有标签数据的代价函数,求得对的偏导
根据上述的无标签数据的代价函数梯度公式及有标签数据的代价函数梯度公式,通过SGD算法,深度神经网络利用联合类别估计p来提升网络对无标签数据的预测,并学习更好的深度特征。
本发明的有益效果如下:
1.本发明有效地结合了字典学习方法和深度神经网络到一个统一的框架中,解决了传统半监督学习中没有特征学习的问题,用字典学习与传统深度神经网络的Softmax分类器进行了互补,强化了网络对无标签数据的探索能力,相对于有监督网络,可以极大地提升网络性能。
2.本发明通过一种熵正则,可以联合地捕捉网络预测信息和字典学习信息来对无标签数据进行预测,并通过挑选高可信的无标签数据进行网络的反向传播训练,可以很好地减少错误估计的风险。
3.本发明通过一种交替优化方法来训练模型,可以有效地计算对无标签数据的联合类别估计,并为模型设计了相应反向传播算法,使得提出的联合类别估计可以有效地帮助网络进行训练学习,提升网络的预测能力和特征学习能力。
附图说明
图1是本发明基于字典深度学习的半监督图像分类方法的流程图。
图2是本发明的总体框架。
图3是本发明与Baseline方法在手写数字数据集MNIST上的对比图。
图4是本发明与Baseline方法在SVHN数据集上的对比图。
具体实施方式
下面结合附图和具体实施方式对本发明做详细描述。
实施例1
如图1所示,一种基于字典深度学习的半监督图像分类方法,该方法步骤如下:
S1:构建深度神经网络,根据深度神经网络的Softmax代价函数构建有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P),所述无标签数据的代价函数Lu(Zu,P)包括基于字典表示和Softmax网络信息的联合预测联合类别估计p的熵正则项H(pr);
S2:根据有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P)构建总体模型函数;
S3:使用有标签数据的深度特征表示来构建字典,计算字典表示系数和表示残差;
S4:Softmax网络信息在网络的前向传播完成时,根据步骤S3得到的字典表示残差计算根据计算H(pr),预设熵阈值λ,若H(pr)大于预设阈值λ,则pr会被设为0,其监督信号pr将被阻挡;若H(pr)小于等于预设阈值,则其监督信号pr将被传播到深度神经网络,通过反向传播提升深度神经网络性能;
S5:根据上述步骤得到无标签数据的代价函数和有标签数据的代价函数,得到总体模型函数,并通过SGD算法,同时利用总体模型函数对深度神经网络进行训练,不但提高对无标签数据的网络的估计和无标签数据的深度特征的学习,而且整体地提升深度神经网络的泛化能力和图像分类能力;
S6:将完成训练的深度神经网络对未知的无标签数据进行分类处理,完成分类;
其中:(Zl,Yl)={(z1:N,y1:N)}表示有标签数据的深度特征;Yl是有标签数据对应的标签;yji=1表示第j个有标签数据zj属于第i类;N是有标签数据的样本数;C是类别数;Zu={zN+1:N+M}表示无标签数据的深度特征;P={p1:M}是无标签数据的类别估计;M是无标签数据的样本数;表示无标签数据第r类的深度特征;表示无标签数据的Softmax代价函数层前面的全连接层的输出;α表示无标签数据深度特征在子字典上的编码系数;Di表示与第i类有关的子字典。
本实施例步骤S1,根据深度神经网络的Softmax代价函数构建有标签数据的代价函数Ll(Zl,Yl)的过程如下:
A1:Softmax代价函数的Softmax归一化输出表示一个样本在C个可能类别上的概率分布,其公式表示如下:
A2:令表示Softmax代价层前的全连接层的输出,其公式简化
如下:
A3:当xj属于第k类的时候,即yji=1且k=i,并有yji=0且k≠i时,有标签数据的代价函数,即Softmax代价函数,如下:
其中:是Softmax代价函数层前面的全连接层;Wk对应于第k个类别;表示W是一个维数为C×d的矩阵;表示的特征属于第k类的线性映射值;b=[b1;…;bk;…;bC]为全连接层的偏置向量;表示来自Softmax分类器的网络预测信息。
本实施例步骤S1,根据深度神经网络的Softmax代价函数构建无标签数据的代价函数Lu(Zu,P)的过程如下:
C1:Softmax代价函数的Softmax归一化输出表示一个样本在C个可能类别上的概率分布,其公式表示如下:
C2:令表示无标签数据的Softmax代价函数层前的全连接层的输出,则无标签数据的Softmax归一化输出为:
C3:假设存在一个类别特定的字典D=[D1,D2,…,DC],则无标签数据的代价函数Lu(Zu,P)的表达式如下:
所述无标签数据的代价函数Lu(Zu,P)包括基于字典学习和Softmax网络信息的联合预测、熵正则项H(pr);
其中:是与第i类有关的子字典,d是深度特征的特征维数,ni是第i类有标签样本的个数;表示来自Softmax分类器的网络预测信息;αri是无标签数据的深度特征在子字典Di上的编码系数;是类别估计概率,其第i个元素pr,i表示第r个无标签数据属于第i类的概率,是基于类别特定表示残差;η表示超参数,η∈(0,1];H(pr)联合类别估计p的熵正则;λ表示预设阈值;是信息量,用于衡量网络预测类别估计的不确定度,当为1时,则为0,即确定其预测,β表示熵正则项的权重系数,用以控制熵正则项。
本实施例中来自Softmax分类器的网络预测信息可以探索网络的判别性信息,来自Softmax分类器的信息鼓励每类的深度特征相互区别。同时,从信息论的观点看,是信息量,衡量了网络预测类别估计的不确定度。当为1时,则为0,此时网络的可以确定其预测。
但是,Softmax分类器仅仅独立地探索在网络深度特征空间中每个数据点的信息,却没有利用无标签数据和有标签数据之间的联系。因此,仅有Softmax分类器缺乏足够的能力去探索具有复杂结构的深度特征空间。而字典学习强大的信息探索能力可以与Softmax分类器形成互补。
来自字典学习的类别信息是基于类别特定表示残差其探索训练数据的判别性信息,且测量无标签数据与属于第i个类的有标签数据构建特征空间的相似性。通过基于l1范数在类别特定字典上进行稀疏编码,无标签数据会被重构在少量类别空间而不是整个特征空间上而获取足够的判别性信息,与字典学习的类别信息相结合,深度特征表示的类别估计能力将得到进一步加强。
所述基于字典学习和Softmax网络信息的联合预测表示如下:
其中:表示测量无标签数据与第i类的不相似性,联合两种不同的信息:来自Softmax分类器的信息,其鼓励不同类别特征间的分离性和来自字典学习的信息其鼓励来自同一类的特征可以很好地相互表示;
超参数η∈(0,1]用于平衡来自Softmax分类器的信息和来自字典学习的信息一个合理的η可以极大地提升预测性能。对于无标签训练数据,当概率pr,i值大时,表示该无标签数据的代价需要被重视,其可以提升无标签数据的预测性能。来自精确的无标签数据类别估计和深度特征的判别性探索的正向反馈,会最终提升半监督深度神经网络的性能。
本实施例所述联合类别估计p的熵正则H(pr),其表达式如下:
由于有标签数据是有限的,难以准确估计所有无标签数据的类别,因此引入熵正则来降低错误估计的风险。为了能挑选高可信的无标签数据的类别估计,以正确地训练网络,提出如下正则:
熵H(pr)的值越大,则联合类别估计pr越不确定;若H(pr)大于预设阈值λ,则pr会被设为0,其监督信号pr将被阻挡;若H(pr)小于等于预设阈值,则其监督信号pr将被传播到网络,通过反向传播提升网络性能;
如图2所示,本实施例根据有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P)构建总体模型函数;给定一个类别个数为C的数据集,令(Zl,Yl)={(z1:N,y1:N)}表示有标签数据的深度特征(即由深度神经网络学习抽取的样本表示),Yl是有标签数据对应的标签,若yji=1表示第j个有标签数据zj属于第i类,N是有标签数据的样本数,令Zu={zN+1:N+M}表示无标签数据的深度特征,M是无标签数据的样本数。则总体模型形如:
函数Ψ表示在损失代价层前面的特征抽取,如卷积池化层、全连接层等。Ll(Zl,Yl)是有标签数据的代价函数,Lu(Zu,P)是无标签数据的代价函数。P={p1:M}是无标签数据的类别估计,表示第r个无标签数据的类别概率。
本实施例步骤S3,使用有标签数据的深度特征表示来构建字典,计算字典表示系数和表示残差的过程如下:
D1:使用有标签数据的深度特征表示来构建字典,构建公式如下:
其中:为属于第j类的有标签数据的深度特征;为属于第C类的有标签数据的深度特征;
D2:通过系数编码算法计算表示系数和表示残差,其公式如下:
求得编码表示系数αr后,通过l2范数计算表示残差
其中:κ是l1正则项的权重系数,用以控制系数的稀疏程度。
D3:Softmax网络信息在网络前向传播时自动计算,若网络的前向传播完成,则根据计算和联合类别估计p;得到联合类别估计p后,将根据预设熵阈值λ挑选高可信的类别估计对网络进行训练更新。
步骤D1~D2也是采用交替优化算法训练模型的一个优化过程:基于字典学习和Softmax网络信息的联合类别估计。
但是,此时会出现前面挑选的无标签样本估计,下次更新时又被移除,这会使得网络更新缓慢。为了防止网络训练更新缓慢,对类别估计进行指数移动平均值,
p't+1=γpt+1+(1-γ)p't
其中:p't+1是第t+1次迭代的类别估计pt+1的指数移动平均值;指数移动平均值保持过去的信息,若当前的类别估计与上一次的类别估计不一致时,p'将会趋于均匀分布,而熵H(p')将增加而不挑选该数据;若估计一致,指数移动平均值则会增强预测;
其中:γ是移动平均的衰减率。
本实施采用交替优化算法训练模型的另一个优化过程:所述所述神经网络与无标签类别估计的联合学习,其方法如下:
神经网络通过随机梯度下降法(SGD)进行训练学习,为了用SGD来训练,本实施例为模型设计了如下的反向传播算法。
对于有标签数据的代价函数,其反向传播算法已经存在,此处仅关注无标签数据的代价函数。
对于无标签数据的代价函数,由于字典是通过直接有标签数据的深度特征进行构造,因此仅需要对无标签数据的网络的估计和无标签数据的深度特征进行反向传播的训练学习,以提升网络对无标签数据的估计和特征学习能力;步骤S5,对总体模型函数进行SGD算法:
F1:无标签数据的代价函数对 的偏导,得:
F2:根据有标签数据的代价函数,求得对的偏导
根据上述的无标签数据的代价函数梯度公式及有标签数据的代价函数梯度公式,通过SGD算法,深度神经网络利用联合类别估计p来提升网络对无标签数据的预测,并学习更好的深度特征。
本实施例通过上述的得到的总体模型对深度神经网络进行训练,将完成训练的深度神经网络对未知的无标签数据进行分类处理,完成分类;
为了更好地解释本发明的效果,进行如下实验:
在手写数字数据集MNIST和街道数字数据集SVHN上进行了与有监督网络,即使用仅用有标签数据进行训练的深度神经网络作为Baseline进行对比。使用Adam优化算法对网络进行优化训练,初始学习率设置为0.001在第一部分的训练,随后在7500和14500次迭代时执行学习率衰减策略,衰减率为0.1。对于提出的半监督深度学习方法,有标签数据和无标签数据的训练批次大小都为64。
在手写数据集MNIST上,从标准训练数据集中每一类别分别随机挑选10和100个样本作为有标签数据集,即总的有标签样本分别为100和1000个,标准训练数据集上余下的所有样本作为无标签数据,整个标准测试数据集用作测试。实验结果如图3所示。
从图3可以看到,对比仅使用有标签数据的半监督网络,提出的半监督深度网络都有明显地提升,特别是有标签样本较小的情况下,在只有100个有标签样本的情况实验中,提出的方法获得了9.43%的效果提升。
在SVHN数据集上,从标准训练数据集中每一类别中分别随机挑选25,50和100个样本作为有标签数据集,即总的有标签样本分别为250,500和1000个,标准训练数据集余下的数据作为无标签数据。实验结果如图4所示。
从图4可以看出,SVHN数据集上,提出的半监督深度学习模型在所有实验上都有至少10%的提升,特别是在仅有250个有标签训练样本的情况下,分类精度的提升幅度达到了19.81%。这是因为SVHN数据集的样本结果更为复杂,深度神经网络判别性不足,而结合了字典学习的联合类别估计有效地利用无标签数据的信息,使得分类精度出现明显的提升,而且可以看到,当有标签训练样本越少的情况下,提出的方法对有监督深度学习网络的提升就越大。
在SVHN数据集实验上,从SVHN数据集上可以看到本发明明显优于其他对比方法,在样本结构更复杂、分类难度更大的SVHN实验中,这种差距非常明显,这说明了提出的半监督深度学习方法有效地利用了无标签数据来提升深度学习网络,同时利用深度神经网络特征的特征抽取能力和字典学习的判别能力,联合概率估计有效地探索无标签内在判别性信息,并通过挑选高可信无标签数据进行网络的反向传播训练,使得深度网络可以性能得到明显提升。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (9)
1.一种基于字典深度学习的半监督图像分类方法,其特征在于:该方法步骤如下:
S1:构建深度神经网络,根据深度神经网络的Softmax代价函数构建有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P),所述无标签数据的代价函数Lu(Zu,P)包括基于字典表示和Softmax网络信息的联合预测联合类别估计p的熵正则项H(pr);
S2:根据有标签数据的代价函数Ll(Zl,Yl)、无标签数据的代价函数Lu(Zu,P)构建总体模型函数;
S3:使用有标签数据的深度特征表示来构建字典,计算字典表示系数和表示残差;
S4:根据步骤S3得到的字典表示残差计算根据计算H(pr);预设熵阈值λ,若H(pr)大于预设阈值λ,则pr会被设为0,其监督信号pr将被阻挡;若H(pr)小于等于预设阈值,则其监督信号pr将被传播到深度神经网络,通过反向传播提升深度神经网络性能;
S5:根据上述步骤得到无标签数据的代价函数和有标签数据的代价函数,得到总体模型函数,并通过SGD算法,利用总体模型函数对深度神经网络进行训练;
S6:将完成训练的深度神经网络对未知的无标签数据进行分类处理,完成分类;
其中:(Zl,Yl)={(z1:N,y1:N)}表示有标签数据的深度特征;Yl是有标签数据对应的标签;yji=1表示第j个有标签数据zj属于第i类;N是有标签数据的样本数;C是类别数;Zu={zN+1:N+M}表示无标签数据的深度特征;P={p1:M}是无标签数据的类别估计;M是无标签数据的样本数;表示无标签数据第r类的深度特征;表示无标签数据的Softmax代价函数层前面的全连接层的输出;α表示无标签数据深度特征在子字典上的编码系数;Di表示与第i类有关的子字典。
2.根据权利要求1所述的基于字典深度学习的半监督图像分类方法,其特征在于:步骤S1,根据深度神经网络的Softmax代价函数构建有标签数据的代价函数Ll(Zl,Yl)的过程如下:
A1:Softmax代价函数的Softmax归一化输出表示一个样本在C个可能类别上的概率分布,其公式表示如下:
A2:令表示Softmax代价层前的全连接层的输出,其公式简化如下:
A3:当xj属于第k类的时候,即yji=1且k=i,并有yji=0且k≠i时,有标签数据的代价函数,即Softmax代价函数,如下:
其中:是Softmax代价函数层前面的全连接层;Wk对应于第k个类别;表示W是一个维数为C×d的矩阵;表示的特征属于第k类的线性映射值;b=[b1;…;bk;…;bC]为全连接层的偏置向量;表示来自Softmax分类器的网络预测信息。
3.根据权利要求1所述的基于字典深度学习的半监督图像分类方法,其特征在于:步骤S1,根据深度神经网络的Softmax代价函数构建无标签数据的代价函数Lu(Zu,P)的过程如下:
C1:Softmax代价函数的Softmax归一化输出表示一个样本在C个可能类别上的概率分布,其公式表示如下:
C2:令表示无标签数据的Softmax代价函数层前的全连接层的输出,其公式简化如下:
C3:假设存在一个类别特定的字典D=[D1,D2,…,DC],则无标签数据的代价函数Lu(Zu,P)的表达式如下:
所述无标签数据的代价函数Lu(Zu,P)包括基于字典表示和Softmax网络信息的联合预测、熵正则项H(pr);
其中:是与第i类有关的子字典,d是深度特征的特征维数,ni是第i类有标签样本的个数;表示来自Softmax分类器的网络预测信息;αri是无标签数据的深度特征在子字典Di上的编码系数;是类别估计概率,其第i个元素pr,i表示第r个无标签数据属于第i类的概率,是基于类别特定表示残差;η表示超参数,η∈(0,1];H(pr)联合类别估计p的熵正则;λ表示预设阈值;是信息量,用于衡量网络预测类别估计的不确定度,当为1时,则为0,即确定其预测;β表示熵正则项的权重系数,用以控制熵正则项。
4.根据权利要求3所述的基于字典深度学习的半监督图像分类方法,其特征在于:基于字典表示和Softmax网络信息的联合预测其表达式如下:
其中:表示测量无标签数据与第i类的不相似性,联合两种不同的信息:来自Softmax分类器的信息,其鼓励不同类别特征间的分离性和来自字典学习的信息其鼓励来自同一类的特征可以很好地相互表示;超参数η∈(0,1]用于平衡来自Softmax分类器的信息和来自字典学习的信息对于无标签训练数据,当概率pr,i值大时,表示该无标签数据的代价需要被重视,其提升无标签数据的预测性能。
5.根据权利要求3所述的基于字典深度学习的半监督图像分类方法,其特征在于:所述联合类别估计p的熵正则项H(pr),其表达式如下:
为了能挑选高可信的无标签数据的类别估计,以正确地训练网络,提出如下正则:
熵H(pr)的值越大,则联合类别估计pr越不确定;若H(pr)大于预设阈值λ,则pr会被设为0,则监督信号pr将被阻挡;若H(pr)小于等于预设阈值,则其监督信号pr将被传播到网络,通过反向传播提升网络性能。
6.根据权利要求1所述的基于字典深度学习的半监督图像分类方法,其特征在于:所述总体模型的表达式如下:
其中:函数Ψ表示在损失代价层前面的特征抽取;P={p1:M}是无标签数据的类别估计,表示第r个无标签数据的类别概率。
7.根据权利要求1所述的基于字典深度学习的半监督图像分类方法,其特征在于:步骤S3,使用有标签数据的深度特征表示来构建字典,计算字典表示系数和表示残差的过程如下:
D1:使用有标签数据的深度特征表示来构建字典,构建公式如下:
其中:为属于第j类的有标签数据的深度特征;为属于第C类的有标签数据的深度特征;
D2:通过系数编码算法计算表示系数和表示残差,其公式如下:
求得编码表示系数αr后,通过l2范数计算表示残差
其中:κ是l1正则项的权重系数,用以控制系数的稀疏程度。
8.根据权利要求1所述的基于字典深度学习的半监督图像分类方法,其特征在于:步骤S4,为了防止网络训练更新缓慢,对类别估计进行指数移动平均值,
p′t+1=γpt+1+(1-γ)p′t
其中:p′t+1是第t+1次迭代的类别估计pt+1的指数移动平均值;指数移动平均值保持过去的信息,若当前的类别估计与上一次的类别估计不一致时,p'将会趋于均匀分布,而熵H(p')将增加而不挑选该数据;若估计一致,指数移动平均值则会增强预测;
其中:γ是移动平均的衰减率。
9.根据权利要求1所述的基于字典深度学习的半监督图像分类方法,其特征在于:步骤S5,对总体模型函数进行SGD算法,对无标签数据的深度神经网络的估计和无标签数据的深度特征进行反向传播的训练学习:
F1:无标签数据的代价函数对的偏导,得:
F2:根据有标签数据的代价函数,求得对的偏导
根据上述的无标签数据的代价函数梯度公式及有标签数据的代价函数梯度公式,通过SGD算法,深度神经网络利用联合类别估计p来提升网络对无标签数据的预测,并学习更好的深度特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811407450.7A CN109522961B (zh) | 2018-11-23 | 2018-11-23 | 一种基于字典深度学习的半监督图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811407450.7A CN109522961B (zh) | 2018-11-23 | 2018-11-23 | 一种基于字典深度学习的半监督图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109522961A true CN109522961A (zh) | 2019-03-26 |
CN109522961B CN109522961B (zh) | 2022-09-13 |
Family
ID=65777716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811407450.7A Active CN109522961B (zh) | 2018-11-23 | 2018-11-23 | 一种基于字典深度学习的半监督图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109522961B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110189305A (zh) * | 2019-05-14 | 2019-08-30 | 上海大学 | 一种多任务舌象自动分析方法 |
CN111327608A (zh) * | 2020-02-14 | 2020-06-23 | 中南大学 | 基于级联深度神经网络的应用层恶意请求检测方法及系统 |
CN112257862A (zh) * | 2020-09-30 | 2021-01-22 | 重庆大学 | 一种基于关系网络标记样本扩充的半监督辨识方法 |
CN112861999A (zh) * | 2021-03-17 | 2021-05-28 | 中山大学 | 一种基于主动半监督字典学习的图像分类方法 |
CN113343235A (zh) * | 2021-06-17 | 2021-09-03 | 长沙市智为信息技术有限公司 | 基于Transformer的应用层恶意有效负载检测方法、系统、设备及介质 |
WO2022062404A1 (zh) * | 2020-09-28 | 2022-03-31 | 平安科技(深圳)有限公司 | 文本分类模型的训练方法、装置、设备及存储介质 |
CN114337849A (zh) * | 2021-12-21 | 2022-04-12 | 上海交通大学 | 基于互信息量估计神经网络的物理层保密方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103412003A (zh) * | 2013-08-21 | 2013-11-27 | 电子科技大学 | 基于半监督领域自适应的气体检测方法 |
JP2014059754A (ja) * | 2012-09-18 | 2014-04-03 | Hitachi Ltd | 情報処理システム、及び、情報処理方法 |
JP2014067174A (ja) * | 2012-09-25 | 2014-04-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像分類装置及び画像識別装置並びにプログラム |
US20140172754A1 (en) * | 2012-12-14 | 2014-06-19 | International Business Machines Corporation | Semi-supervised data integration model for named entity classification |
CN105740911A (zh) * | 2016-02-02 | 2016-07-06 | 温州大学 | 基于保持结构稀疏化的半监督字典学习方法 |
CN106778921A (zh) * | 2017-02-15 | 2017-05-31 | 张烜 | 基于深度学习编码模型的人员再识别方法 |
CN107832772A (zh) * | 2017-09-20 | 2018-03-23 | 深圳大学 | 一种基于半监督字典学习的图像识别方法及装置 |
CN108416370A (zh) * | 2018-02-07 | 2018-08-17 | 深圳大学 | 基于半监督深度学习的图像分类方法、装置和存储介质 |
CN108564107A (zh) * | 2018-03-21 | 2018-09-21 | 温州大学苍南研究院 | 基于原子拉普拉斯图正则化的半监督字典学习的样本类别归类方法 |
-
2018
- 2018-11-23 CN CN201811407450.7A patent/CN109522961B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014059754A (ja) * | 2012-09-18 | 2014-04-03 | Hitachi Ltd | 情報処理システム、及び、情報処理方法 |
JP2014067174A (ja) * | 2012-09-25 | 2014-04-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像分類装置及び画像識別装置並びにプログラム |
US20140172754A1 (en) * | 2012-12-14 | 2014-06-19 | International Business Machines Corporation | Semi-supervised data integration model for named entity classification |
CN103412003A (zh) * | 2013-08-21 | 2013-11-27 | 电子科技大学 | 基于半监督领域自适应的气体检测方法 |
CN105740911A (zh) * | 2016-02-02 | 2016-07-06 | 温州大学 | 基于保持结构稀疏化的半监督字典学习方法 |
CN106778921A (zh) * | 2017-02-15 | 2017-05-31 | 张烜 | 基于深度学习编码模型的人员再识别方法 |
CN107832772A (zh) * | 2017-09-20 | 2018-03-23 | 深圳大学 | 一种基于半监督字典学习的图像识别方法及装置 |
CN108416370A (zh) * | 2018-02-07 | 2018-08-17 | 深圳大学 | 基于半监督深度学习的图像分类方法、装置和存储介质 |
CN108564107A (zh) * | 2018-03-21 | 2018-09-21 | 温州大学苍南研究院 | 基于原子拉普拉斯图正则化的半监督字典学习的样本类别归类方法 |
Non-Patent Citations (1)
Title |
---|
MENG YANG ET AL.: ""Discriminative Semi-Supervised Dictionary Learning with Entropy Regularization for Pattern Classification"", 《PROCEEDINGS OF THE THIRTY-FIRST AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE 》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110189305A (zh) * | 2019-05-14 | 2019-08-30 | 上海大学 | 一种多任务舌象自动分析方法 |
CN110189305B (zh) * | 2019-05-14 | 2023-09-22 | 上海大学 | 一种多任务舌象自动分析方法 |
CN111327608A (zh) * | 2020-02-14 | 2020-06-23 | 中南大学 | 基于级联深度神经网络的应用层恶意请求检测方法及系统 |
WO2022062404A1 (zh) * | 2020-09-28 | 2022-03-31 | 平安科技(深圳)有限公司 | 文本分类模型的训练方法、装置、设备及存储介质 |
CN112257862A (zh) * | 2020-09-30 | 2021-01-22 | 重庆大学 | 一种基于关系网络标记样本扩充的半监督辨识方法 |
CN112257862B (zh) * | 2020-09-30 | 2023-12-05 | 重庆大学 | 一种基于关系网络标记样本扩充的半监督辨识方法 |
CN112861999A (zh) * | 2021-03-17 | 2021-05-28 | 中山大学 | 一种基于主动半监督字典学习的图像分类方法 |
CN112861999B (zh) * | 2021-03-17 | 2023-09-19 | 中山大学 | 一种基于主动半监督字典学习的图像分类方法 |
CN113343235A (zh) * | 2021-06-17 | 2021-09-03 | 长沙市智为信息技术有限公司 | 基于Transformer的应用层恶意有效负载检测方法、系统、设备及介质 |
CN113343235B (zh) * | 2021-06-17 | 2022-05-17 | 长沙市智为信息技术有限公司 | 基于Transformer的应用层恶意有效负载检测方法、系统、设备及介质 |
CN114337849A (zh) * | 2021-12-21 | 2022-04-12 | 上海交通大学 | 基于互信息量估计神经网络的物理层保密方法及系统 |
CN114337849B (zh) * | 2021-12-21 | 2023-03-14 | 上海交通大学 | 基于互信息量估计神经网络的物理层保密方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109522961B (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522961A (zh) | 一种基于字典深度学习的半监督图像分类方法 | |
CN110598029B (zh) | 基于注意力转移机制的细粒度图像分类方法 | |
CN109344736B (zh) | 一种基于联合学习的静态图像人群计数方法 | |
CN106897738B (zh) | 一种基于半监督学习的行人检测方法 | |
CN109299657B (zh) | 基于语义注意力保留机制的群体行为识别方法及装置 | |
CN108133188A (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN110532900A (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN106778921A (zh) | 基于深度学习编码模型的人员再识别方法 | |
CN105741267B (zh) | 聚类引导深度神经网络分类的多源图像变化检测方法 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
Zhang et al. | Unsupervised difference representation learning for detecting multiple types of changes in multitemporal remote sensing images | |
CN104573669A (zh) | 图像物体检测方法 | |
CN109190472B (zh) | 基于图像与属性联合引导的行人属性识别方法 | |
CN108734210A (zh) | 一种基于跨模态多尺度特征融合的对象检测方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
Wang et al. | FE-YOLOv5: Feature enhancement network based on YOLOv5 for small object detection | |
CN105976397B (zh) | 一种目标跟踪方法 | |
CN108447057A (zh) | 基于显著性和深度卷积网络的sar图像变化检测方法 | |
CN105205449A (zh) | 基于深度学习的手语识别方法 | |
CN111832516A (zh) | 基于无监督视频表示学习的视频行为识别方法 | |
CN105989336A (zh) | 基于带权重的解卷积深度网络学习的场景识别方法 | |
CN112070078A (zh) | 基于深度学习的土地利用分类方法及系统 | |
CN105404865A (zh) | 基于概率态受限玻尔兹曼机级联的人脸检测方法 | |
CN104778482A (zh) | 基于张量半监督标度切维数约减的高光谱图像分类方法 | |
CN110348494A (zh) | 一种基于双通道残差神经网络的人体动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |