CN103903016B - 直接使用样本特征原始数值的广义相关学习矢量量化方法 - Google Patents

直接使用样本特征原始数值的广义相关学习矢量量化方法 Download PDF

Info

Publication number
CN103903016B
CN103903016B CN201410013367.7A CN201410013367A CN103903016B CN 103903016 B CN103903016 B CN 103903016B CN 201410013367 A CN201410013367 A CN 201410013367A CN 103903016 B CN103903016 B CN 103903016B
Authority
CN
China
Prior art keywords
mrow
msup
msubsup
msub
lambda
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410013367.7A
Other languages
English (en)
Other versions
CN103903016A (zh
Inventor
方晖
严莹
张兴敢
柏业超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201410013367.7A priority Critical patent/CN103903016B/zh
Publication of CN103903016A publication Critical patent/CN103903016A/zh
Application granted granted Critical
Publication of CN103903016B publication Critical patent/CN103903016B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种直接使用样本特征原始数值的广义相关学习矢量量化方法,它在训练和识别过程中直接使用输入样本特征的原始数据,不需要对样本特征进行归一化的预处理。在过去的广义相关学习矢量量化方法的基础上,本方法在调整权重系数的公式中加入一个系数,从而使其反映各样本特征原始数值的变化范围。该系数与对应的样本特征原始数值的变化范围(如方差、最大值与最小值之差的平方)成反比。相应的,权重系数的初始值也与对应的样本特征原始数值的方差或均方差成反比。本发明不需要对输入样本的各特征进行归一化预处理,从而能在识别过程中直接使用输入样本特征的原始数值,方法简单高效。

Description

直接使用样本特征原始数值的广义相关学习矢量量化方法
技术领域
本发明涉及一种模式识别方法,具体涉及一种直接使用样本特征原始数值的广义相关学习矢量量化方法。
背景技术
模式识别是让机器具有人类智能的技术,通过对表征事物或现象的信息进行处理和分析,实现对事物或现象进行描述、辨认、分类和解释的过程。无监督的模式识别方法只能压缩问题的信息量。而有监督的模式识别方法学习已有样例的类别和特征信息,在实际应用中可以提供可靠的识别结果。神经网络的自适应性和鲁棒性使之成为模式识别的有力工具。应用于模式识别的神经网络有BP(Back Propagation)网络、径向基(Radial BasisFunction)网络、学习矢量量化(Learning Vector Quantization,LVQ)方法(KohonenT.Self-Organizing Maps.3rd Edition.New York,USA:Springer-Verlag,2001)。其中,学习矢量量化方法是传统的最近邻原型分类器与神经网络的结合。它在学习过程中不断调整作为权向量的神经元,能够使不同类别权向量之间的边界逐步收敛至贝叶斯分类边界。在学习和识别过程中,对获胜神经元(最近邻权向量)的选取是通过计算输入样本和原型向量之间欧氏距离的大小来判断的。
为了克服学习过程中作为目标函数的识别率不连续变化的缺点,人们提出了广义学习矢量量化(Generalized LVQ,GLVQ)方法(Sato A,Yamada K.Generalized LearningVector Quantization.Touretzky D,Mozer M,Hasselmo M,ed.Advances in NeuralInformation Processing Systems.Cambridge,USA:MIT Press,1996,Ⅷ:423-429)。在实际应用中,模式识别需要对提取的物体特征进行甄别,去除对分类没有作用的特征。对于复杂问题这需要有经验的专家完成。而对分类有贡献的特征,其在分类中发挥的重要性也不一样,对此人们提出相关学习矢量量化(Relevance LVQ,RLVQ)方法(Bojer T,Hammer B,Schunk D,et al.Relevance Determination in Learning Vector Quantization.Procof the European Symposium on Artificial Neural Network.Brussels,Belgium,2001:271-276)自动判断各特征在分类中的重要性。将RLVQ与GLVQ结合,形成广义相关学习矢量量化(Generalized Relevance LVQ,GRLVQ)方法(Hammer B,Villmann T.GeneralizedRelevance Learning Vector Quantization.Neural Networks,2002,15:1059-1068)。GRLVQ方法得到了同行的认可,已应用于了卫星高维光谱图像识别(Mendenhall MJ,Merényi E.Relevance-Based Feature Extraction for Hyperspectral Images.IEEETransactions on Neural Networks.2008,19:658-672)、疾病诊断(Zhang Q,Wang YY,Wang WQ,Ma JY,Qian JY,Ge,JB.Discrimination of coronary microcirculatorydysfunction based on generalized relevance LVQ.Liu DR,Fei SM,Hou ZG,Zhang HG,Sun CY,Ed.Advances in Neural Networks-ISNN2007,Pt2,Proceedings,Lecture Notesin Computer Science.2007,4492:1125–1132)、规则提取(Hammer B,Rechtien A,Strickert M,Villmann T.Rule extraction from self-organizing networks.in:International Conference on Artificial Neural Networks,LNCS.2002,2415,pp.877–883)、基因分析(Strickert M,Seiffert U,Sreenivasulu N,Weschke W,Villmann T,Hammer B.Generalized relevance LVQ(GRLVQ)with correlation measures for geneexpression analysis.Neurocomputing.2006,69:651–659)等。
但是同其它模式识别方法一样,目前GRLVQ在学习中需要对输入样本的各特征进行归一化预处理,这样在识别过程中也需要事先对输入样本的各特征进行归一化处理。
发明内容
为了克服现有技术中存在的不足,本发明提供一种直接使用样本特征原始数值的广义相关学习矢量量化方法,不需要对输入样本的各特征进行归一化预处理,从而能在识别过程中直接使用输入样本特征的原始数值,方法简单高效。
为实现上述目的,本发明采取如下技术方案:
一种直接使用样本特征原始数值的广义相关学习矢量量化方法,设在模式识别任务中需要识别C个类别,每个训练样本有n个特征,用X={(xi,yi)∈Rn×{1,2,...,C}|i=1,2,...,m}表示训练样本集,其中,第i个训练样本表示为一个n维向量它属于第yi类。用X训练一组权向量神经元,使之可以对输入样本进行模式识别,权向量集表示为W={(wk,ck)∈Rn×{1,2,...,C}|k=1,2,...,M}。其中,第k个权向量属于第ck类,每类可以有1个或1个以上的权向量。
该方法使用训练样本集X={(xi,yi)∈Rn×{1,2,...,C}|i=1,2,...,m}训练一组权向量神经元W={(wk,ck)∈Rn×{1,2,...,C}|k=1,2,...,M},从而使该组权向量神经元对输入样本进行模式识别;其中C表示模式识别任务中的类别数,m表示训练样本数,M表示权向量神经元数,Rn表示n维向量空间,n表示训练样本集特征的数目;
该方法在训练过程中采用最小化下式的目标函数:
其中,μ(xi)表征训练过程中对xi分类的正确性, 是第i个训练样本xi和其最近的同类权向量wJ之间的加权欧氏距离,是xi和其最近的异类权向量wK之间的加权欧氏距离;
该方法采用迭代方式调整权向量神经元以使公式(1)目标函数S最小化,在迭代过程中,从训练样本集X={(xi,yi)∈Rn×{1,2,...,C}|i=1,2,...,m}中随机选择训练样本xi进行学习,对训练样本xi
其中,γ+、γ-和γλ分别为训练样本xi最近的同类权向量wJ、异类权向量wK和权重系数λj的学习率,wJ new表示调整后的同类权向量wJ,ΔwJ表示wJ的变化值,表示f(μ(xi))对μ(xi)的微分,Λ表示一个对角矩阵,Λ的对角元素Λjj=λj(j=1,2,...,n),Λ的其余元素值为0,wK new表示调整后的异类权向量wK,ΔwK表示wK的变化值,λj,new表示调整后的λj,Δλj表示λj的变化值,Aj表征训练样本集中样本第j个特征的变化范围,并与训练样本集中样本第j个特征的变化范围大小成反比。
更进一步的,Aj与训练样本集中样本第j个特征原始数值的方差成反比,即Aj=A/vj,j=1,2,...,n,其中,A是系数,vj(j=1,2,...,n)为第j个特征原始数值的方差,n表示训练样本集特征的数目。
更进一步的,A为vj(j=1,2,...,n)中的最大值,且Aj≥1(j=1,2,...,n)。
更进一步的,Aj与训练样本集中样本第j个特征原始数值的最大变化范围的平方成反比,即Aj=B/δj 2,j=1,2,...,n,其中B是系数,δj(j=1,2,...,n)为第j个特征原始数值的最大值与最小值之差,n表示训练样本集特征的数目。
更进一步的,B为中的最大值,且Aj≥1(j=1,2,...,n)。
更进一步的,权重系数λj的初始值与训练样本集中样本第j个特征原始数值的方差成反比j=1,2,...,n,n表示训练样本集特征的数目。
更进一步的,权重系数λj的初始值与训练样本集中样本第j个特征原始数值的均方差成反比j=1,2,...,n,n表示训练样本集特征的数目。
有益效果:本发明的模式识别方法在学习过程中不需要对训练样本进行归一化处理,使学习过程更加简单和直观易懂。学习过程自动提取所处理问题的参数,使学习结果更加可靠。
具体实施方式
设在模式识别任务中需要识别C个类别,每个训练样本有n个特征,用X={(xi,yi)∈Rn×{1,2,...,C}|i=1,2,...,m}表示训练样本集,其中,第i个训练样本表示为一个n维向量它属于第yi类。用X训练一组权向量或者原型向量,使之可以对输入样本进行模式识别,权向量集表示为W={(wk,ck)∈Rn×{1,2,...,C}|k=1,2,...,M}。其中,第k个权向量属于第ck类,每类可以有1个或1个以上的权向量。广义相关学习矢量量化方法GRLVQ将输入样本x识别为ck类的条件是wk是距离x最近的权向量。GRLVQ采用加权欧氏距离计算样本x与权向量w之间的距离:
其中,λ={λ12,...,λn}是一个n维向量的权重系数。定义Λ为一个n×n维的对角矩阵,其对角线元素Λjj=λj(j=1,2,...,n)。
GRLVQ在学习过程中采用最小化下式的目标函数:
其中,μ(xi)表征学习过程中对xi分类的正确性, 是第i个训练样本xi和其最近的同类权向量(表示为wJ)之间的加权欧氏距离,是xi和其最近的异类权向量(表示为wK)之间的加权欧氏距离。
GRLVQ用迭代方法调整权向量以使目标函数S最小化,在迭代过程中,它随机选择训练样本进行学习。对训练样本xi
权重系数向量λ调整后要对其各分量进行归一化以保证权重系数的稳定性。其中,γ+、γ-和γλ分别为同类权向量、异类权向量和权重系数的学习率。一般地,λ各分量的初始值均为1/n。
但上述GRLVQ中没有考虑到不同特征具有不同的变化范围,使用时需要对各特征进行归一化预处理。这样,不仅在学习过程中需要归一化各特征,在识别时也需要事先归一化各特征。为了能在识别过程中直接使用输入样本特征的原始数值,本发明在调整权重系数时考虑各特征不同大小的变化范围,这样在识别中将不需要对样本的各特征归一化。
如前所述,权重系数λ调整后要对其各分量进行归一化,这样不同的权重系数会相互影响。如果不对各训练样本特征归一化,则变化范围大的特征对应的权重系数用公式(5)计算Δλj后变化较大。如果这样的因子变大,则随后的权重系数归一化将压缩其它权重系数,而不管它们对应的特征是否重要的,这样,GRLVQ的训练可能会陷入局部最小点,所得到的权重系数不能反映各特征的重要性。
本方法中在公式(5)计算Δλj的公式中加入一项Aj
其中,Aj反映第j个特征的变化范围,为了消除各特征变化范围对权重系数学习的影响,Aj(j=1,2,...,n)应该与对应特征变化范围大小成反比,这样学习结果(权向量集和权重系数向量)可以直接用对象的原始特征数据进行识别。
采用本方法中的计算Δλj的公式,Aj(j=1,2,...,n)与对应特征原始数值的变化范围大小成反比,可以取Aj与训练样本集中样本第j个特征原始数值的方差成反比:Aj=A/vj,j=1,2,...,n,其中,A是系数,vj(j=1,2,...,n)为第j个特征原始数值的方差,为方便起见,A可以设置为vj(j=1,2,...,n)中的最大值,这样可以保证所有Aj(j=1,2,...,n)不小于1。
当然,Aj也可以与训练样本集中样本第j个特征原始数值的最大变化范围的平方成反比,即Aj=B/δj 2,j=1,2,...,n,其中B是系数,δj(j=1,2,...,n)为第j个特征原始数值的最大值与最小值之差,同样,B可以设置为δj 2(j=1,2,…,n)中的最大值。
现有的GRLVQ方法中,由于计算Δλj的公式不考虑各特征的变化范围,因此,各权重系数的初始值均为1/n,采用本专利方法,由于直接采用样本的各特征的原始数据,所以各权重系数的初始值也应该反映样本各特征的变化范围的大小。
采用UCI(University of California,Irvine)机器学习数据库中的例子进行实验表明,λj的初始值与训练样本集中样本第j个特征原始数值的方差或均方差成反比时(j=1,2,…,n),对样本原始数据进行识别的总体效果比较好,如表1所示。
表1对样本原始数据进行预测的正确率
其中,学习方法1:λ中各分量初始值相等,λ的调节未考虑特征变化范围;
学习方法2:λ中各分量初始值与对应特征的均方差成反比,λ的调节公式中Aj与对应特征方差成反比;
学习方法3:λ中各分量初始值与对应特征的方差成反比,λ的调节公式中Aj与对应特征方差成反比;
学习方法4:λ中各分量初始值相等,λ的调节公式中Aj与对应特征方差成反比。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种直接使用样本特征原始数值的广义相关学习矢量量化方法,其特征在于:该方法使用训练样本集X={(xi,yi)∈Rn×{1,2,...,C}|i=1,2,...,m}训练一组权向量神经元W={(wk,ck)∈Rn×{1,2,...,C}|k=1,2,...,M},以使这组权向量神经元对输入样本进行模式识别;其中C表示模式识别任务中的类别数,m表示训练样本数,M表示权向量神经元数,Rn表示n维向量空间,n表示训练样本集特征的数目;
该方法在训练过程中采用最小化下式的目标函数:
<mrow> <mi>S</mi> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>f</mi> <mrow> <mo>(</mo> <mi>&amp;mu;</mi> <mo>(</mo> <msup> <mi>x</mi> <mi>i</mi> </msup> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,μ(xi)表征训练过程中对xi分类的正确性, 是第i个训练样本xi和其最近的同类权向量wJ之间的加权欧氏距离,是xi和其最近的异类权向量wK之间的加权欧氏距离;
该方法采用迭代方式调整权向量神经元以使公式(1)目标函数S最小化,在迭代过程中,从训练样本集X={(xi,yi)∈Rn×{1,2,...,C}|i=1,2,...,m}中随机选择训练样本xi进行学习,对训练样本xi
<mrow> <msub> <msup> <mi>w</mi> <mi>J</mi> </msup> <mrow> <mi>n</mi> <mi>e</mi> <mi>w</mi> </mrow> </msub> <mo>:</mo> <mo>=</mo> <msup> <mi>w</mi> <mi>J</mi> </msup> <mo>+</mo> <msup> <mi>&amp;Delta;w</mi> <mi>J</mi> </msup> <mo>,</mo> <msup> <mi>&amp;Delta;w</mi> <mi>J</mi> </msup> <mo>=</mo> <mfrac> <mrow> <mn>4</mn> <msup> <mi>&amp;gamma;</mi> <mo>+</mo> </msup> <msup> <mi>f</mi> <mo>&amp;prime;</mo> </msup> <msub> <mo>|</mo> <mrow> <mi>&amp;mu;</mi> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mi>i</mi> </msup> <mo>)</mo> </mrow> </mrow> </msub> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>K</mi> </msubsup> </mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>J</mi> </msubsup> <mo>+</mo> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>K</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mfrac> <mi>&amp;Lambda;</mi> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mi>i</mi> </msup> <mo>-</mo> <msup> <mi>w</mi> <mi>J</mi> </msup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <msup> <mi>w</mi> <mi>K</mi> </msup> <mrow> <mi>n</mi> <mi>e</mi> <mi>w</mi> </mrow> </msub> <mo>:</mo> <mo>=</mo> <msup> <mi>w</mi> <mi>K</mi> </msup> <mo>+</mo> <msup> <mi>&amp;Delta;w</mi> <mi>K</mi> </msup> <mo>,</mo> <msup> <mi>&amp;Delta;w</mi> <mi>K</mi> </msup> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mn>4</mn> <msup> <mi>&amp;gamma;</mi> <mo>-</mo> </msup> <msup> <mi>f</mi> <mo>&amp;prime;</mo> </msup> <msub> <mo>|</mo> <mrow> <mi>&amp;mu;</mi> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mi>i</mi> </msup> <mo>)</mo> </mrow> </mrow> </msub> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>J</mi> </msubsup> </mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>J</mi> </msubsup> <mo>+</mo> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>K</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mfrac> <mi>&amp;Lambda;</mi> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mi>i</mi> </msup> <mo>-</mo> <msup> <mi>w</mi> <mi>K</mi> </msup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mi>&amp;lambda;</mi> <mrow> <mi>j</mi> <mo>,</mo> <mi>n</mi> <mi>e</mi> <mi>w</mi> </mrow> </msub> <mo>:</mo> <mo>=</mo> <msub> <mi>&amp;lambda;</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>&amp;Delta;&amp;lambda;</mi> <mi>j</mi> </msub> <mo>,</mo> <msub> <mi>&amp;Delta;&amp;lambda;</mi> <mi>j</mi> </msub> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mn>2</mn> <msup> <mi>&amp;gamma;</mi> <mi>&amp;lambda;</mi> </msup> <msup> <mi>f</mi> <mo>&amp;prime;</mo> </msup> <msub> <mo>|</mo> <mrow> <mi>&amp;mu;</mi> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mi>i</mi> </msup> <mo>)</mo> </mrow> </mrow> </msub> <mrow> <mo>&amp;lsqb;</mo> <mrow> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>K</mi> </msubsup> <msup> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>x</mi> <mi>j</mi> <mi>i</mi> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mi>J</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>J</mi> </msubsup> <msup> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>x</mi> <mi>j</mi> <mi>i</mi> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mi>K</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <mo>&amp;rsqb;</mo> </mrow> </mrow> <msup> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>J</mi> </msubsup> <mo>+</mo> <msubsup> <mi>d</mi> <mi>&amp;lambda;</mi> <mi>K</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mfrac> <msub> <mi>A</mi> <mi>j</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>(</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <mi>n</mi> </mrow> <mo>)</mo> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,γ+、γ-和γλ分别为训练样本xi最近的同类权向量wJ、异类权向量wK和权重系数λj的学习率,wJ new表示调整后的同类权向量wJ,ΔwJ表示wJ的变化值,表示f(μ(xi))对μ(xi)的微分,Λ表示一个对角矩阵,Λ的对角元素Λjj=λj(j=1,2,...,n),Λ的其余元素值为0,wK new表示调整后的异类权向量wK,ΔwK表示wK的变化值,λj,new表示调整后的λj,Δλj表示λj的变化值,Aj表征训练样本集中样本第j个特征的变化范围,并与训练样本集中样本第j个特征的变化范围大小成反比;
是第i个训练样本xi和其最近的同类权向量wJ之间的加权欧氏距离,是xi和其最近的异类权向量wK之间的加权欧氏距离。
2.根据权利要求1所述的直接使用样本特征原始数值的广义相关学习矢量量化方法,其特征在于:所述Aj与训练样本集中样本第j个特征原始数值的方差成反比,即Aj=A/vj,j=1,2,...,n,其中,A是系数,vj(j=1,2,...,n)为第j个特征原始数值的方差,n表示训练样本集特征的数目。
3.根据权利要求2所述的直接使用样本特征原始数值的广义相关学习矢量量化方法,其特征在于:A为vj(j=1,2,...,n)中的最大值,且Aj≥1(j=1,2,...,n)。
4.根据权利要求1所述的直接使用样本特征原始数值的广义相关学习矢量量化方法,其特征在于:所述Aj与训练样本集中样本第j个特征原始数值的最大变化范围的平方成反比,即其中B是系数,δj(j=1,2,...,n)为第j个特征原始数值的最大值与最小值之差,n表示训练样本集特征的数目。
5.根据权利要求4所述的直接使用样本特征原始数值的广义相关学习矢量量化方法,其特征在于:B为δj 2(j=1,2,…,n)中的最大值,且Aj≥1(j=1,2,...,n)。
CN201410013367.7A 2014-01-13 2014-01-13 直接使用样本特征原始数值的广义相关学习矢量量化方法 Active CN103903016B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410013367.7A CN103903016B (zh) 2014-01-13 2014-01-13 直接使用样本特征原始数值的广义相关学习矢量量化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410013367.7A CN103903016B (zh) 2014-01-13 2014-01-13 直接使用样本特征原始数值的广义相关学习矢量量化方法

Publications (2)

Publication Number Publication Date
CN103903016A CN103903016A (zh) 2014-07-02
CN103903016B true CN103903016B (zh) 2017-11-21

Family

ID=50994328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410013367.7A Active CN103903016B (zh) 2014-01-13 2014-01-13 直接使用样本特征原始数值的广义相关学习矢量量化方法

Country Status (1)

Country Link
CN (1) CN103903016B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019222150A1 (en) 2018-05-15 2019-11-21 Lightmatter, Inc. Algorithms for training neural networks with photonic hardware accelerators

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419671A (zh) * 2008-11-10 2009-04-29 北方工业大学 基于模糊支持向量机的人脸性别识别方法
CN101620853A (zh) * 2008-07-01 2010-01-06 邹采荣 一种基于改进模糊矢量量化的语音情感识别方法
CN101667245A (zh) * 2009-09-25 2010-03-10 西安电子科技大学 基于支持向量新颖检测分类器级联的人脸检测方法
CN102740072A (zh) * 2012-05-16 2012-10-17 西安电子科技大学 用于图像重构的二步学习矢量量化码书生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174043B2 (en) * 2003-02-25 2007-02-06 Evernote Corp. On-line handwriting recognizer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101620853A (zh) * 2008-07-01 2010-01-06 邹采荣 一种基于改进模糊矢量量化的语音情感识别方法
CN101419671A (zh) * 2008-11-10 2009-04-29 北方工业大学 基于模糊支持向量机的人脸性别识别方法
CN101667245A (zh) * 2009-09-25 2010-03-10 西安电子科技大学 基于支持向量新颖检测分类器级联的人脸检测方法
CN102740072A (zh) * 2012-05-16 2012-10-17 西安电子科技大学 用于图像重构的二步学习矢量量化码书生成方法

Also Published As

Publication number Publication date
CN103903016A (zh) 2014-07-02

Similar Documents

Publication Publication Date Title
Sun et al. Abnormal event detection for video surveillance using deep one-class learning
CN107871100B (zh) 人脸模型的训练方法和装置、人脸认证方法和装置
Kuo The CNN as a guided multilayer RECOS transform [lecture notes]
CN107194341B (zh) Maxout多卷积神经网络融合人脸识别方法和系统
CN111339988B (zh) 基于动态间隔损失函数和概率特征的视频人脸识别方法
CN107463920A (zh) 一种消除局部遮挡物影响的人脸识别方法
CN109145717A (zh) 一种在线学习的人脸识别方法
CN110781766B (zh) 基于特征谱正则化的格拉斯曼流形判别分析图像识别方法
CN107545243A (zh) 基于深度卷积模型的黄种人脸识别方法
CN112633051A (zh) 一种基于图像搜索的在线人脸聚类方法
Chung et al. Federated unsupervised clustering with generative models
Dong et al. Feature extraction through contourlet subband clustering for texture classification
CN116052218B (zh) 一种行人重识别方法
CN110135520A (zh) 基于图补全和自适应视角权重分配的不完备多视角聚类方法、装置、系统及存储介质
CN107194314A (zh) 融合模糊2dpca和模糊2dlda的人脸识别方法
Cui et al. Face recognition via convolutional neural networks and siamese neural networks
CN101877065B (zh) 小样本条件下的人脸图像非线性鉴别特征抽取和识别方法
Li et al. Class balanced adaptive pseudo labeling for federated semi-supervised learning
CN103903016B (zh) 直接使用样本特征原始数值的广义相关学习矢量量化方法
CN117373062A (zh) 一种基于联合学习的实时端到端跨分辨率行人重识别方法
Ouanan et al. Gabor-zernike features based face recognition scheme
Hollósi et al. Improve the accuracy of neural networks using capsule layers
Jing et al. Face recognition based on local uncorrelated and weighted global uncorrelated discriminant transforms
CN107958241A (zh) 单样本人脸识别方法、装置、设备及计算机可读存储介质
Chan et al. PCA and LDA-based face verification using back-propagation neural network

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant