CN107818327A - 分类器训练方法及装置 - Google Patents

分类器训练方法及装置 Download PDF

Info

Publication number
CN107818327A
CN107818327A CN201610827322.2A CN201610827322A CN107818327A CN 107818327 A CN107818327 A CN 107818327A CN 201610827322 A CN201610827322 A CN 201610827322A CN 107818327 A CN107818327 A CN 107818327A
Authority
CN
China
Prior art keywords
space
sample
samples
feature
dimension
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610827322.2A
Other languages
English (en)
Inventor
梁爽
杭文龙
王琼
秦璟
王平安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201610827322.2A priority Critical patent/CN107818327A/zh
Publication of CN107818327A publication Critical patent/CN107818327A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明适用于智能计算技术领域,提供了一种分类器训练方法及装置,所述方法包括:将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,所述样本包括已标注样本和未标注样本;获取所述已标注样本在所述特征增维空间的增维特征,以及根据所述样本的原特征和隐特征得出所述特征增维空间中的投影矩阵;根据所述已标注样本的原特征和增维特征对分类器进行训练。所述方法相对现有技术能够减少计算量并降低时间复杂度,而且仅利用已标注数据的原特征和增维特征训练分类器,能够提高分类器的训练速度和鲁棒性。

Description

分类器训练方法及装置
技术领域
本发明属于智能计算技术领域,尤其涉及一种分类器训练方法及装置。
背景技术
分类器训练是指利用少量标注样本和大量的未标注样本进行训练并未标注样本分类的问题。分类器训练是模式识别和学习领域研究的重要内容之一。正确利用大量的未标注样本信息辅助分类器的训练过程,对于提高分类器性能具有非常重大的实际意义。
目前利用大量的未标注样本来协助少量已标注样本训练分类器主要基于三种假设:平滑假设、聚类假设和流形假设。即分别假设已标注和未标注样本距离很近、位于同一个聚类内和位于低维流形中的一个局部邻域内,三种情况均具有相同的类标签。然而,在现实情况中的某些待分类数据并不一定满足上述假设,继续利用大量的未标注样本反而会干扰分类器的训练过程,造成分类器的性能下降。
目前,不基于上述假设情况,通过挖掘已标注和未标注数据间蕴含的共享隐特征,是一种更合理地利用未标注样本辅助分类器训练并提高分类性能的方法。该方法假设已标注数据和未标注数据在一个共享隐空间中分布一致,通过迭代方式求解已标注数据和未标注数据投影到该隐空间中的投影矩阵和分类器参数,以提高分类器的学习性能。但该方法利用已标注数据和未标注数据对应在原空间和隐空间的特征训练分类器,其通过迭代方式求解投影矩阵和分类器的参数,导致该类分类器训练方法计算量大、时间复杂度高。
发明内容
有鉴于此,本发明实施例提供了一种分类器训练方法及装置,以解决现有技术中分类器训练方法计算量大、时间复杂度高的问题。
本发明实施例的第一方面,提供了一种分类器训练方法,包括:
将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,所述样本包括已标注样本和未标注样本;
获取所述已标注样本在所述特征增维空间的增维特征,以及根据所述样本的原特征和隐特征得出所述特征增维空间的投影矩阵;
根据所述特征增维空间的投影矩阵,以及所述已标注样本的原特征和增维特征对分类器进行训练。
本发明实施例的第二方面,提供了一种分类器训练装置,包括:
特征空间转换模块,用于将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,所述样本包括已标注样本和未标注样本;
处理模块,用于获取所述已标注样本在所述特征增维空间的增维特征,以及根据所述样本的原特征和隐特征得出所述特征增维空间的投影矩阵;
分类器训练模块,用于根据所述特征增维空间的投影矩阵,以及所述已标注样本的原特征和增维特征对分类器进行训练。
本发明实施例相对于现有技术的有益效果:本发明实施例将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,并在特征增维空间中计算投影矩阵和已标注样本的增维特征,以及根据已标注样本的原特征和增维特征训练分类器,从而避免现有技术中基于隐空间的分类器训练方法通过迭代方式求解分类器的过程,能够大大减少计算量并降低时间复杂度。而且仅利用已标注数据的原特征和增维特训练分类器,能够提高分类器的训练速度和鲁棒性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的分类器训练方法的流程图;
图2是本发明实施例提供的分类器训练装置的框架图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一:
图1示出了本发明实施例一提供的分类器训练方法的实现流程,用于对半监督学习中的分类器进行训练,详述如下:
在步骤S101中,将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,所述样本包括已标注样本和未标注样本。
本实施例中,特征增维空间中的数据可以包括原特征、隐特征和零向量。则所述已标注样本在所述特征增维空间中表示为:
其中,表示第i个已标注样本,0为d维0向量,d为大于或等于2的整数,P∈Rr×d为投影矩阵。
所述未标注样本在所述特征增维空间中表示为:
其中,表示第j个未标注样本,0为d维0向量,P∈Rr×d为投影矩阵。
在步骤S102中,获取所述已标注样本在所述特征增维空间的增维特征,以及根据所述样本的原特征和隐特征得出所述特征增维空间的投影矩阵。
本实施例中,所述投影矩阵的求解过程可以为:
采用密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计,得出:
其中,σ表示高斯函数宽度参数,取值范围为σ>0;Nl的取值范围为0<Nl<N,Nu的取值范围为0<Nu≤N-Nl,N表示样本个数。
通过最小化所述已标注样本与所述未标注样本在所述特征增维空间中的概率密度平方差,得出
结合投影矩阵正交约束,得出求解所述投影矩阵的目标函数:
其中,Id×d表示对角线元素为1的d维对角矩阵。
对于公式(6),可以通过梯度下降法求解投影矩阵,但并不限于此。
优选的,所述采用密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计具体为:采用Parzen密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计。
在步骤S103中,根据所述特征增维空间的投影矩阵,以及所述已标注样本的原特征和增维特征对分类器进行训练。
本步骤中,分类器的求解过程可以为:
利用所述已标注样本及所述已标注样本在所述特征增维空间中的信息,可得出:
其中,w为原空间中分类超平面的法向量;v为隐空间中分类超平面的法向量;C为调节参数,取值范围为C>0;yi((w+PTv)Txi+b)表示样本xi到分类超平面的距离;ξi为分类误差,ξi≥0;b表示偏置,取值范围为b∈(-∞,+∞)。其中,已标注样本在特征增维空间中的信息包括投影矩阵和已标注样本的增维特征。所述已标注样本及所述已标注样本在所述特征增维空间中的信息包括投影矩阵、已标注样本的原特征和增维特征。
根据核函数K(xi,xj)=φ(xi)Tφ(xj)以及表示定理,可得分类器为:
其中,αi表示样本xi的权重,取值范围为αi≥0。
在求得分类器以后,通过分类器对未标注数据进行分类,完成半监督学习。
以下通过15个真实数据集,将本发明实施例与现有技术中的6种常用分类方法SVM、LS-SVM、LapRLS、LapSVM、S4VM、SA-SSCCM进行比较。其中,本发明实施例中的损失函数分别采用hinge-损失函数及square-损失函数进行测试。为方便表述,本发明实施例中的损失函数为hinge-损失函数的方法命名为SSLAHF_h,本发明实施例中的损失函数为square-损失函数的方法命名为SSLAHF_s。
表1使用10%已标注数据训练时分类精度比较(均值±方差)
表1中使用10%已标注数据,重复10次测试实验得到分类精度的均值和方差。试验结果表明,本发明实施例提出的分类器训练方法在15个真实数据集上可以得到较好的分类结果,且明显优于其他六种方法。
上述分类器训练方法,将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,然后在特征增维空间中计算投影矩阵和已标注样本的增维特征,最后根据特征增维空间的投影矩阵以及已标注样本的原特征和增维特征训练分类器,从而能够避免现有技术基于隐空间的分类器训练方法迭代求解分类器的过程,能够减少计算量并降低时间复杂度。而且仅利用已标注数据的原特征和增维特征训练分类器,能够提高分类器的训练速度和鲁棒性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例二:
对应于上文实施例所述的分类器训练方法,图2示出了本发明实施例提供的分类器训练装置的结构框图。为了便于说明,仅示出了与本实施例相关的部分。
参照图2,该装置包括特征空间转换模块201、处理模块202和分类器训练模块203。其中,特征空间转换模块201,用于将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,所述样本包括已标注样本和未标注样本。处理模块202,用于获取所述已标注样本在所述特征增维空间的增维特征,以及根据所述样本的原特征和隐特征得出所述特征增维空间的投影矩阵。分类器训练模块203,用于根据特征增维空间的投影矩阵,以及所述已标注样本的原特征和增维特征对分类器进行训练。
本实施例中,特征增维空间中的数据可以包括原特征、隐特征和零向量。特征空间转换模块201具体用于:将所述已标注样本在所述特征增维空间中表示为:
其中,表示第i个已标注样本,0为d维0向量,d为大于或等于2的整数,P∈Rr×d为投影矩阵;以及
将所述未标注样本在所述特征增维空间中表示为:
其中,表示第j个未标注样本,0为d维0向量,P∈Rr×d为投影矩阵。
本实施例中,处理模块202获取所述投影矩阵的过程为:
采用密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计,得出:
其中,σ表示高斯函数宽度参数,取值范围为σ>0;Nl的取值范围为0<Nl<N,Nu的取值范围为0<Nu≤N-Nl,N表示样本个数;
通过最小化所述已标注样本与所述未标注样本在所述特征增维空间中的概率密度平方差,得出
结合投影矩阵正交约束,得出求解所述投影矩阵的目标函数:
其中,Id×d表示表示对角线元素为1的d维对角矩阵。对于公式(6),可以通过梯度下降法求解投影矩阵,但并不限于此。
优选的,处理模块202可以采用Parzen密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计。
本实施例中,分类器训练模块203求解分类器的过程为:
利用所述已标注样本及所述已标注样本在所述特征增维空间中中的信息,可得出:
其中,w为原空间中分类超平面的法向量;v为隐空间中分类超平面的法向量;C为调节参数,取值范围为C>0;yi((w+PTv)Txi+b)表示样本xi到分类超平面的距离;ξi为分类误差,ξi≥0;b表示偏置,取值范围为b∈(-∞,+∞);
根据核函数K(xi,xj)=φ(xi)Tφ(xj)以及表示定理,可得分类器为:
其中,αi表示样本xi的权重。
上述分类器训练装置,将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,然后在特征增维空间中计算投影矩阵和已标注样本的增维特征,最后根据特征增维空间的投影矩阵以及已标注样本的原特征和增维特征训练分类器,从而能够避免现有技术基于隐空间的分类器训练方法迭代求解分类器的过程,能够减少计算量并降低时间复杂度。而且仅利用已标注数据的原特征和增维特征训练分类器,能够提高分类器的训练速度和鲁棒性。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明实施例各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种分类器训练方法,其特征在于,包括:
将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,所述样本包括已标注样本和未标注样本;
获取所述已标注样本在所述特征增维空间的增维特征,以及根据所述样本的原特征和隐特征得出所述特征增维空间的投影矩阵;
根据所述特征增维空间的投影矩阵,以及所述已标注样本的原特征和增维特征对分类器进行训练。
2.根据权利要求1所述的分类器训练方法,其特征在于,所述已标注样本在所述特征增维空间中表示为:
<mrow> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>Px</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>,</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>,</mo> <mn>0</mn> <mo>&amp;rsqb;</mo> </mrow> <mi>T</mi> </msup> <mo>,</mo> </mrow>
其中,表示第i个已标注样本,0为d维0向量,d为大于或等于2的整数,P∈Rr×d为投影矩阵;
所述未标注样本在所述特征增维空间中表示为:
<mrow> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>Px</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>,</mo> <mn>0</mn> <mo>,</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>&amp;rsqb;</mo> </mrow> <mi>T</mi> </msup> <mo>,</mo> </mrow>
其中,表示第j个未标注样本,0为d维0向量,P∈Rr×d为投影矩阵。
3.根据权利要求2所述的分类器训练方法,其特征在于,所述投影矩阵的求解过程为:
采用密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计,得出:
<mrow> <msub> <mi>P</mi> <mi>L</mi> </msub> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>G</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>,</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>,</mo> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> <mo>&amp;CenterDot;</mo> <msqrt> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> </mrow> </msqrt> <mi>&amp;sigma;</mi> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> </munderover> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <mi>X</mi> <mo>-</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </msup> </mrow>
<mrow> <msub> <mi>P</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>G</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>,</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>,</mo> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> <mo>&amp;CenterDot;</mo> <msqrt> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> </mrow> </msqrt> <mi>&amp;sigma;</mi> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> </munderover> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <mi>X</mi> <mo>-</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </msup> <mo>,</mo> </mrow>
其中,σ表示高斯函数宽度参数,取值范围为σ>0;Nl的取值范围为0<Nl<N,Nu的取值范围为0<Nu≤N-Nl,N表示样本个数;
通过最小化所述已标注样本与所述未标注样本在所述特征增维空间中的概率密度平方差,得出
<mrow> <mi>J</mi> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>-</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>;</mo> </mrow>
结合投影矩阵正交约束,得出求解所述投影矩阵的目标函数:
<mrow> <mtable> <mtr> <mtd> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>P</mi> </munder> </mtd> <mtd> <mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>P</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>-</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msup> <mi>PP</mi> <mi>T</mi> </msup> <mo>=</mo> <msub> <mi>I</mi> <mrow> <mi>d</mi> <mo>&amp;times;</mo> <mi>d</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> <mo>,</mo> </mrow>
其中,Id×d表示对角线元素为1的d维对角矩阵。
4.根据权利要求3所述的分类器训练方法,其特征在于,所述采用密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计具体为:
采用Parzen密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计。
5.根据权利要求3所述的分类器训练方法,其特征在于,所述分类器的求解过程为:
利用所述已标注样本及所述已标注样本在所述特征增维空间中的信息,可得出:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>w</mi> <mo>,</mo> <mi>v</mi> </mrow> </munder> </mtd> <mtd> <mrow> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <mi>w</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mo>|</mo> <mo>|</mo> <mi>v</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mi>C</mi> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>&amp;xi;</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced>
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mo>(</mo> <mrow> <mi>w</mi> <mo>+</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>v</mi> </mrow> <mo>)</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;xi;</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> <mo>;</mo> </mrow>
其中,w为原空间中分类超平面的法向量;v为隐空间中分类超平面的法向量;C为调节参数,取值范围为C>0;yi((w+PTv)Txi+b)表示样本xi到分类超平面的距离;ξi为分类误差,ξi≥0;b表示偏置,取值范围为b∈(-∞,+∞);
根据核函数K(xi,xj)=φ(xi)Tφ(xj)以及表示定理,可得分类器为:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>K</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>+</mo> <mi>K</mi> <mo>(</mo> <mrow> <mi>P</mi> <mi>x</mi> <mo>,</mo> <msub> <mi>Px</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中,αi表示样本xi的权重,取值范围为αi≥0。
6.一种分类器训练装置,其特征在于,包括:
特征空间转换模块,用于将样本对应在原始空间中的原特征以及在隐空间中的隐特征合并到特征增维空间中,所述样本包括已标注样本和未标注样本;
处理模块,用于获取所述已标注样本在所述特征增维空间中的增维特征,以及根据所述样本的原特征和隐特征得出所述特征增维空间的投影矩阵;
分类器训练模块,用于根据所述特征增维空间的投影矩阵,以及所述已标注样本的原特征和增维特征对分类器进行训练。
7.根据权利要求6所述的分类器训练装置,其特征在于,所述特征空间转换模块具体用于:将所述已标注样本在所述特征增维空间中表示为:
<mrow> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>Px</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>,</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>,</mo> <mn>0</mn> <mo>&amp;rsqb;</mo> </mrow> <mi>T</mi> </msup> <mo>,</mo> </mrow>
其中,表示第i个已标注样本,0为d维0向量,d为大于或等于2的整数,P∈Rr×d为投影矩阵;以及
将所述未标注样本在所述特征增维空间中表示为:
<mrow> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>Px</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>,</mo> <mn>0</mn> <mo>,</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>&amp;rsqb;</mo> </mrow> <mi>T</mi> </msup> <mo>,</mo> </mrow>
其中,表示第j个未标注样本,0为d维0向量,P∈Rr×d为投影矩阵。
8.根据权利要求7所述的分类器训练装置,其特征在于,所述处理模块获取所述投影矩阵的过程为:
采用密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计,得出:
<mrow> <msub> <mi>P</mi> <mi>L</mi> </msub> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>G</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>,</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>,</mo> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> <mo>&amp;CenterDot;</mo> <msqrt> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> </mrow> </msqrt> <mi>&amp;sigma;</mi> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> </munderover> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <mi>X</mi> <mo>-</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </msup> </mrow>
<mrow> <msub> <mi>P</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>G</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>,</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>,</mo> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> <mo>&amp;CenterDot;</mo> <msqrt> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> </mrow> </msqrt> <mi>&amp;sigma;</mi> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> </munderover> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <mi>X</mi> <mo>-</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </msup> <mo>,</mo> </mrow>
其中,σ表示高斯函数宽度参数,取值范围为σ>0;Nl的取值范围为0<Nl<N,Nu的取值范围为0<Nu≤N-Nl,N表示样本个数;
通过最小化所述已标注样本与所述未标注样本在所述特征增维空间中的概率密度平方差,得出
<mrow> <mi>J</mi> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>-</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>;</mo> </mrow>
结合投影矩阵正交约束,得出求解所述投影矩阵的目标函数:
<mrow> <mtable> <mtr> <mtd> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>P</mi> </munder> </mtd> <mtd> <mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>P</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>l</mi> </msub> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>u</mi> </msub> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mo>-</mo> <msubsup> <mi>X</mi> <mi>j</mi> <mi>U</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msup> <mi>PP</mi> <mi>T</mi> </msup> <mo>=</mo> <msub> <mi>I</mi> <mrow> <mi>d</mi> <mo>&amp;times;</mo> <mi>d</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> <mo>,</mo> </mrow>
其中,Id×d表示表示对角线元素为1的d维对角矩阵。
9.根据权利要求8所述的分类器训练装置,其特征在于,所述处理模块采用Parzen密度估计方法分别对所述特征增维空间中的所述已标注样本和所述未标注样本进行密度估计。
10.根据权利要求8所述的分类器训练装置,其特征在于,所述分类器训练模块求解分类器的过程为:
利用所述已标注样本及所述已标注样本在所述特征增维空间中的信息,可得出:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>w</mi> <mo>,</mo> <mi>v</mi> </mrow> </munder> </mtd> <mtd> <mrow> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <mi>w</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mo>|</mo> <mo>|</mo> <mi>v</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mi>C</mi> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>&amp;xi;</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced>
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mo>(</mo> <mrow> <mi>w</mi> <mo>+</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>v</mi> </mrow> <mo>)</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;xi;</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> <mo>;</mo> </mrow>
其中,w为原空间中分类超平面的法向量;v为隐空间中分类超平面的法向量;C为调节参数,取值范围为C>0;yi((w+PTv)Txi+b)表示样本xi到分类超平面的距离;ξi为分类误差,ξi≥0;b表示偏置,取值范围为b∈(-∞,+∞);
根据核函数K(xi,xj)=φ(xi)Tφ(xj)以及表示定理,可得分类器为:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>K</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>+</mo> <mi>K</mi> <mo>(</mo> <mrow> <mi>P</mi> <mi>x</mi> <mo>,</mo> <msub> <mi>Px</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中,αi表示样本xi的权重。
CN201610827322.2A 2016-09-14 2016-09-14 分类器训练方法及装置 Pending CN107818327A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610827322.2A CN107818327A (zh) 2016-09-14 2016-09-14 分类器训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610827322.2A CN107818327A (zh) 2016-09-14 2016-09-14 分类器训练方法及装置

Publications (1)

Publication Number Publication Date
CN107818327A true CN107818327A (zh) 2018-03-20

Family

ID=61601425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610827322.2A Pending CN107818327A (zh) 2016-09-14 2016-09-14 分类器训练方法及装置

Country Status (1)

Country Link
CN (1) CN107818327A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335678A (zh) * 2019-05-30 2019-10-15 中国人民解放军总医院 一种高原适应性评估方法及系统
CN110569856A (zh) * 2018-08-24 2019-12-13 阿里巴巴集团控股有限公司 样本标注方法及装置、损伤类别的识别方法及装置
CN111639715A (zh) * 2020-06-01 2020-09-08 重庆大学 基于ls-svm的汽车仪表组装质量预测方法与系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569856A (zh) * 2018-08-24 2019-12-13 阿里巴巴集团控股有限公司 样本标注方法及装置、损伤类别的识别方法及装置
CN110569856B (zh) * 2018-08-24 2020-07-21 阿里巴巴集团控股有限公司 样本标注方法及装置、损伤类别的识别方法及装置
CN110335678A (zh) * 2019-05-30 2019-10-15 中国人民解放军总医院 一种高原适应性评估方法及系统
CN111639715A (zh) * 2020-06-01 2020-09-08 重庆大学 基于ls-svm的汽车仪表组装质量预测方法与系统

Similar Documents

Publication Publication Date Title
Zhou et al. Automatic radar waveform recognition based on deep convolutional denoising auto-encoders
CN111242199B (zh) 图像分类模型的训练方法及分类方法
CN107103326B (zh) 基于超像素聚类的协同显著性检测方法
CN108898181B (zh) 一种图像分类模型的处理方法、装置及存储介质
Shazeeda et al. Finger vein recognition using mutual sparse representation classification
CN113496247A (zh) 估计生成对抗网络的隐含似然
López-Rubio A histogram transform for probabilitydensity function estimation
CN107818327A (zh) 分类器训练方法及装置
Song et al. MPPCANet: A feedforward learning strategy for few-shot image classification
Kajla et al. Additive angular margin loss in deep graph neural network classifier for learning graph edit distance
Xie et al. Progressive shape-distribution-encoder for learning 3D shape representation
CN109685738A (zh) 一种提升图像清晰度的方法及装置
CN109657693B (zh) 一种基于相关熵和迁移学习的分类方法
Liu et al. Bilaterally normalized scale-consistent sinkhorn distance for few-shot image classification
CN114693923A (zh) 一种基于上下文和注意力的三维点云语义分割方法
Bach et al. Analyzing classifiers: Fisher vectors and deep neural networks
Xu et al. Affine non-local Bayesian image denoising algorithm
Chang et al. Face recognition based on stacked convolutional autoencoder and sparse representation
Wang et al. Sparse representation for image classification via paired dictionary learning
Ran et al. Learning optimal inter-class margin adaptively for few-shot class-incremental learning via neural collapse-based meta-learning
Ionescu et al. Large-scale data-dependent kernel approximation
CN108009570A (zh) 一种基于核正负标签传播的数据分类方法及系统
Hamidi et al. Local selected features of dual‐tree complex wavelet transform for single sample face recognition
CN113283469A (zh) 基于视图的三维模型检索的图嵌入无监督特征学习方法
Chen et al. FINC: An efficient and effective optimization method for normalized cut

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180320