CN107451545A - 基于软标签下多通道判别非负矩阵分解的人脸识别方法 - Google Patents

基于软标签下多通道判别非负矩阵分解的人脸识别方法 Download PDF

Info

Publication number
CN107451545A
CN107451545A CN201710577592.7A CN201710577592A CN107451545A CN 107451545 A CN107451545 A CN 107451545A CN 201710577592 A CN201710577592 A CN 201710577592A CN 107451545 A CN107451545 A CN 107451545A
Authority
CN
China
Prior art keywords
mrow
msub
matrix
msup
msubsup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710577592.7A
Other languages
English (en)
Other versions
CN107451545B (zh
Inventor
同鸣
马蕾
卜海丽
席圣男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201710577592.7A priority Critical patent/CN107451545B/zh
Publication of CN107451545A publication Critical patent/CN107451545A/zh
Application granted granted Critical
Publication of CN107451545B publication Critical patent/CN107451545B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2133Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on naturality criteria, e.g. with non-negative factorisation or negative correlation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于软标签下多通道判别非负矩阵分解的人脸识别方法,主要解决现有技术对连续遮挡人脸的识别率较低的问题。其技术方案是:1.构造训练集第k个通道的训练数据矩阵;2.由训练数据获得本地标签矩阵,并构造预测标签矩阵及辅助矩阵,通过引入预测标签矩阵的全局损失和中心损失函数,形成新的目标函数;3.对该目标函数优化求解,迭代更新得到基矩阵、辅助矩阵和预测标签矩阵;4.构造测试集第k个通道的测试数据矩阵,将其在基矩阵上投影得到投影系数矩阵;5.用局部分类器计算各通道的贡献度,并构建全局分类器得到测试图像的类别。本发明能够有效提高连续遮挡下的人脸识别率,可应用于身份验证和信息安全领域。

Description

基于软标签下多通道判别非负矩阵分解的人脸识别方法
技术领域
本发明属于图像处理技术领域,具体涉及到人脸识别方法,可应用于身份验证和信息安全领域。
背景技术
随着计算机科学和互联网技术的快速发展,数据正在以指数增长的形式迅速膨胀,虽然这些海量数据能为生活提供便利,但是也为个人的信息安全带来了威胁。因此,传统的身份验证方式,如密码和智能卡等已经不能满足人们的安全需求。而利用人体生物特征如指纹、虹膜、气味等进行验证的方法,具有特征唯一、不易伪造等优点。在所有的生物特征识别技术中,利用人脸特征进行身份验证是最直接、最便捷的手段。这些独特优势使得通过计算机提取人脸特征并根据这些特征进行身份验证的人脸识别成为一种重要的生物特征识别手段,在信息安全领域有着很多实际应用场景,诸如身份识别、监控认证、访问权限等。
通常情况下的人脸样本图像都具有较高的维数,同时样本的个数远远低于其维数值,这就使得高维空间中样本的分布非常稀疏,不利于分类和识别。且直接使用原始人脸图像进行身份鉴别,会使得人脸识别系统的计算量巨大并最终影响的识别结果。为此,人们通常对高维图像进行降维处理,将其投影到低维子空间后再进行识别。传统降维方法有主成分分析、独立成分分析和线性判别分析等,但通过这些方法降维后的数据中通常含有负数值,而负值在很多实际应用中是没有物理意义的,就如人脸图像灰度值就具有非负性,因此需要将这一特性考虑在模型中。
非负矩阵分解NMF是一种要求被分解矩阵及分解后的矩阵都满足非负性的矩阵分解算法,该算法能够有效地降低数据特征的维数,且分解特性符合人体“局部构成整体”的心理学和生理学的认知原理,因此是具有智能特性的;另外,分解结果可解释性强,并具有明确的物理意义,目前已在图像分析、数据挖掘和语音处理等多领域获得了广泛应用。
目前已提出的非负矩阵分解方法主要有:
(1)Lee D D,Seung H S.Learning the parts of objects with nonnegativematrix factorization.Nature,1999,401(6755):788-791。文章提出一种新的矩阵分解方法—非负矩阵分解NMF。非负矩阵分解NMF直接将原始数据矩阵分解为基矩阵和系数矩阵,其中系数矩阵是原始数据矩阵在基矩阵上的投影系数。该方法要求基矩阵和系数矩阵的所有元素都是非负的,这表明非负矩阵分解NMF只存在加性组合,因此,非负矩阵分解NMF可以看作是一个基于部分表示的模型。非负矩阵分解NMF能够提供观测数据的局部结构,但有些情况下,NMF算法也会给出全局特征,导致分类性能受限。
(2)Cai D,He X,Han J,et al.Graph regularized nonnegative matrixfactorization for data representation.IEEE Transactions on Pattern Analysisand Machine Intelligence,2011,33(8):1548-1560。文章提出了一种图正则化的NMF算法(GNMF)来给数据空间的几何信息编码。GNMF设计一个最邻近的图来编码数据的局部流行结构。当标签信息可用,它就能够自然的合并为图结构。特别地,如果两个数据点共享同样的标签,一个大的权重可以被分配到边缘连接它们。如果两个数据点有不同的标签,相应的权重会被设置为0,以此形成了半监督GNMF方法。这个方法的最大缺陷是没有理论依据可以证明同类数据点将会一起映射到新的表示空间,并且目前依旧不清楚如何有原则的去选择权重。
(3)Liu H,Wu Z,Li X,et al.Constrained nonnegative matrix factorizationfor image representation[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2012,34(7):1299-1311。文章提出一种约束的非负矩阵分解CNMF,它将标签信息作为附加的硬性约束。这个方法的中心思想是同类数据点在新的表示空间中具有一致的坐标,在聚类中获得了比GNMF更好的性能。因此,获得的基于部分的表达就和原始的数据有相同的表达。但是该算法所添加的硬性标签矩阵并不能有效提高算法的判别性,因此不能很好的用于数据分类。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于软标签下多通道判别非负矩阵分解的人脸识别方法,以充分利用特定人脸区域的判别信息,提高连续遮挡下的人脸识别率。
为实现上述目的,本发明的技术方案包括如下:
(1)将训练集中的每幅图像等分为W个通道,并构成相应的W个矩阵B(k),k∈[1,W];
(2)由训练数据得到本地标签矩阵C;
(3)定义预测标签矩阵F的全局一致性函数Jgloble_consistency,向该函数中添加标签矩阵F的l2,1范数约束,得到的全局损失函数Jgloble_loss
其中,Ci,j和Fi,j分别为本地标签矩阵C和预测标签矩阵F的第i行第j列元素,c为样本所包含类的总数,n为训练样本总数,l为有标签的样本数,λ1为稀疏正则化参数,||·||2,1表示求取矩阵的l2,1范数;
(4)定义预测标签矩阵F的中心损失函数Jcenter_loss
其中,(F)(i)表示第i类样本的预测标签矩阵,表示(F)(i)的均值向量,ni为第i类样本的总数,λ2为类内正则化参数,λ3为类间正则化参数;
(5)将第k个通道的全局损失函数Jgloble_loss和中心损失函数Jcenter_loss作为约束项,引入到非负矩阵分解模型中,得到软标签下多通道判别非负矩阵分解MDNMF_SL的目标函数:
其中,B(k)为第k个通道的数据矩阵;Z(k)为第k个通道的基矩阵,mk为每幅子图像的维数,fk为分解维数;A(k)为第k个通道的辅助矩阵,F(k)为第k个通道的软约束矩阵,Fi,l(k)为F(k)第i行第l列元素,Ci,l(k)为第k个通道的本地标签矩阵C(k)的第i行第l列元素,(F(k))(i)表示第i类第k个通道的预测标签矩阵,表示(F(k))(i)的均值向量,
(6)对MDNMF_SL的目标函数进行优化求解,实现对第k个通道的数据矩阵B(k)的分解,得到基矩阵Z(k)、辅助矩阵A(k)和预测标签矩阵F(k);
(7)选择g幅人脸图像构成测试集,对测试集中的每幅图像采用与步骤(1)相同的处理方式得到测试集中W个通道的测试图像矩阵V(k);
(8)将第α个训练数据bα(k)和第β个测试数据vβ(k)在基矩阵Z(k)上投影,得到bα(k)和vβ(k)的投影系数向量其中,α=1,2,...,n,β=1,2,...,g;
(9)构造W个最邻近分类器作为局部分类器;
(10)根据各个通道局部分类器的识别率构造全局分类器,并用其找出训练数据集中与第β个测试图像距离最小的图像,将该图像的类别作为第β个测试图像的类别,即完成对第β个测试人脸图像的识别。
本发明与现有技术相比具有以下优点:
1)本发明通过引入软标签矩阵,有效地利用了数据的类别信息,使得数据低维表示与原始数据空间尽可能保持一致;
2)本发明通过构造预测标签矩阵的全局一致性函数,提高标签的预测能力;通过对预测标签添加l2,1范数,有效提高人脸识别的鲁棒性;通过构造预测标签矩阵的中心损失函数,进一步提高了特征判别性。
3)本发明采用多通道图像处理的方式进行非负矩阵分解,通过局部分类器和全局分类器,能够独立地学习图像各区域的判别性特征并充分利用各区域的相关性及信息的互补性,有效提高了有遮挡人脸图像的分类精度。
附图说明
图1是本发明的实现流程图。
具体实施方式
参照图1,本发明的实现步骤如下:
步骤1,对训练数据集中人脸图像进行预处理和多通道化处理,构造第k通道的训练数据矩阵B(k)。
(1.1)对人脸图像进行预处理,即将数据集中的各人脸图像调整为像素大小的图像,以减少内存消耗、提高效率;
(1.2)对人脸图像进行多通道化处理,即将像素大小的图像等分为k个通道,并构成相应的W个矩阵,对第i个图像的第k个矩阵转置后逐列排列,形成一个mk维的列向量bi(k),k=1,2,...,W,其中
(1.3)人脸图像多通道化矩阵构建,即将n个训练图像的第k个通道子图像向量按列顺序排列,得到第k个子图像的训练矩阵
步骤2,由训练数据得到本地标签矩阵C。
(2.1)定义指标矩阵L:
若数据集中包含n个样本{b1,b2,...,bi,...,bl,...,bn},其中,前l个样本b1,b2,...,bi,...bl为属于c个分类的有标签数据,剩余的n-l个样本为无标签数据,则定义指标矩阵在bi属于第σ类时,Lσ,i=1,否则Lσ,i=0,σ=1,2,...,c;
(2.2)构造本地标签矩阵C:
其中,In-l是一个(n-l)×(n-l)的单位矩阵。
步骤3,构造软标签下多通道判别非负矩阵分解MDNMF_SL的目标函数。
(3.1)构造预测标签矩阵F的全局一致性函数;
(3.1a)构造预测标签矩阵F的全局一致性函数Jgloble_consistency
其中,Ci,j和Fi,j分别为本地标签矩阵C和预测标签矩阵F的第i行第j列元素,c为样本所包含类的总数,n为样本总数,l为有标签的样本数;
(3.1b)向全局一致性函数Jgloble_consistency中添加标签矩阵F的l2,1范数约束,得到最终的全局中心损失函数Jgloble_loss
其中,λ1为稀疏正则化参数,||·||2,1表示求取矩阵的l2,1范数;
(3.2)构造预测标签矩阵F的中心损失函数Jcenter_loss
其中,(F)(i)表示第i类样本的预测标签矩阵,表示(F)(i)的均值向量,ni为第i类样本的总数,λ2为类内正则化参数,λ3为类间正则化参数;
(3.3)将第k个通道的全局损失函数Jgloble_loss和中心损失函数Jcenter_loss作为约束项,引入到非负矩阵分解模型中,得到软标签下多通道判别非负矩阵分解MDNMF_SL的目标函数:
其中,B(k)为第k个通道的数据矩阵,k∈[1,W];Z(k)为第k个通道的基矩阵,mk为每幅子图像的维数,fk为分解维数;A(k)为第k个通道的辅助矩阵,F(k)为第k个通道的软约束矩阵,n为样本总数;Fi,l(k)为F(k)第i行第l列元素,Ci,l(k)为第k个通道的标签矩阵C(k)的第i行第l列元素,(F(k))(i)表示第i类第k个通道的预测标签矩阵,表示(F(k))(i)的均值向量,
步骤4,对MDNMF_SL的目标函数进行优化求解,实现对第k个通道的数据矩阵B(k)的分解,得到基矩阵Z(k)、辅助矩阵A(k)和预测标签矩阵F(k)。
(4.1)随机初始化基矩阵Z(0)(k)、辅助矩阵A(0)(k)和预测标签矩阵F(0)(k),使得基矩阵Z(0)(k)中的任意元素满足辅助矩阵A(0)(k)中的任意元素满足预测标签矩阵F(0)(k)中的任意元素满足其中,是基矩阵Z(0)(k)中第i行ψ列元素,i∈[1,mk],ψ∈[1,fk],fk表示分解维数,是系数矩阵A(0)(k)第ψ行u列的元素,u∈[1,c+n-l],是预测标签矩阵F(0)(k)第u行r列的元素,γ∈[1,n];
(4.2)对基矩阵Z(k)中的元素进行更新;
(4.2a)按照如下更新公式得到
其中,为迭代t-1次的基矩阵Z(t-1)(k)的第i行ψ列元素,t∈[1,iter],iter为预先定义的最大迭代次数;
(4.2b)对当前的更新结果进行归一化处理,得到基矩阵Z(k)中元素的最终更新结果
(4.3)按如下公式对辅助矩阵A(k)中的元素进行更新:
为本次对辅助矩阵A(t)(k)中元素的迭代更新结果,为迭代t-1次的辅助矩阵A(t-1)(k)的第ψ行u列的元素;
(4.4)根据步骤(4.2)和步骤(4.3)更新得到的基矩阵Z(t)(k)和辅助矩阵A(t)(k),按如下公式对预测标签矩阵F(t)(k)中的元素进行更新:
其中,为预测标签矩阵F(t)(k)中元素的迭代更新结果,为迭代t-1次的预测标签矩阵F(t-1)(k)的第u行γ列元素,表示第i类样本预测标签矩阵(F(k))(i)的均值向量,μu (i)(k)表示μ(i)(k)的第u个元素,表示第r类第v个样本的标签向量的第k通道的第u个元素,且有u=(r-1)Nr+v,Nr属于第r类的样本总数,Cu,γ(k)为本地标签矩阵C(k)的第u行γ列元素,D(k)为一个对角矩阵,Di,i(k)=1/||Fi(k)||2,Fi(k)表示F(k)的第i行;
(4.5)采用预定义的最大迭代次数iter作为停止迭代条件,当迭代次数t达到iter次后,停止迭代,输出基矩阵Z(iter)(k)、辅助矩阵A(iter)(k)和预测标签矩阵F(iter)(k);否则,返回步骤(4.2)。
步骤5,对测试集中的每幅图像采用与步骤(1)相同的处理方式得到测试集中W个通道的测试子图像矩阵V(k)=[v1(k),v2(k),...,vg(k)],其中,g为测试样本数。
步骤6,计算第k个通道所有测试数据的投影系数向量,并将所有测试数据的投影系数向量组成投影系数矩阵
(6.1)将第k个通道测试矩阵中第β个测试数据vβ(k)在更新得到的基矩阵Z(k)上进行投影,得到投影系数向量其中,表示矩阵的广义逆运算;
(6.2)用第k个通道所有测试数据的投影系数向量组成投影系数矩阵:
步骤7,通过对局部分类器的线性加权组合构建全局分类器,得到测试数据集中第β个测试样本的类别。
(7.1)构建W个最近邻分类器作为局部分类器,其中第k个局部分类器计算测试数据集中第β个测试样本vβ的系数向量和训练集中各图像的系数向量hα(k)的之间的欧氏距离
(7.2)计算第k个局部分类器的线性权重系数αk
其中,nk表示第k个局部分类器的识别率;
(7.3)在全局分类器中,考虑每个通道的特征在进行识别时的贡献度不同,计算测试样本vβ和训练样本bα的加权欧氏距离dβα
(7.4)根据加权欧式距离dβα组成集合{dβ1,dβ2,...,dβξ,...,dβn},从该集合中选择出最小值dβξ,ξ∈{1,2,…,n};
(7.5)从训练数据集中找到最小值dβξ对应的第ξ幅图像,并将第ξ幅图像的类别作为第β幅测试图像的类别。
以上描述仅是本发明的一个具体实例,不构成对本发明的任何约束,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (9)

1.基于软标签下多通道判别非负矩阵分解的人脸识别方法,包括:
(1)将训练集中的每幅图像等分为W个通道,并构成相应的W个矩阵B(k),k∈[1,W];
(2)由训练数据得到本地标签矩阵C;
(3)定义预测标签矩阵F的全局一致性函数Jgloble_consistency,向该函数中添加标签矩阵F的范数约束,得到的全局损失函数Jgloble_loss
<mrow> <msub> <mi>J</mi> <mrow> <mi>g</mi> <mi>l</mi> <mi>o</mi> <mi>b</mi> <mi>l</mi> <mi>e</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>s</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mi>e</mi> <mi>n</mi> <mi>c</mi> <mi>y</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>c</mi> <mo>+</mo> <mi>n</mi> <mo>-</mo> <mi>l</mi> </mrow> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>C</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>
<mrow> <msub> <mi>J</mi> <mrow> <mi>g</mi> <mi>l</mi> <mi>o</mi> <mi>b</mi> <mi>l</mi> <mi>e</mi> <mo>_</mo> <mi>l</mi> <mi>o</mi> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>c</mi> <mo>+</mo> <mi>n</mi> <mo>-</mo> <mi>l</mi> </mrow> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>C</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>1</mn> </msub> <mo>|</mo> <mo>|</mo> <mi>F</mi> <mo>|</mo> <msub> <mo>|</mo> <mrow> <mn>2</mn> <mo>,</mo> <mn>1</mn> </mrow> </msub> </mrow>
其中,Ci,j和Fi,j分别为本地标签矩阵C和预测标签矩阵F的第i行第j列元素,c为样本所包含类的总数,n为训练样本总数,l为有标签的样本数,λ1为稀疏正则化参数,||·||2,1表示求取矩阵的范数;
(4)定义预测标签矩阵F的中心损失函数Jcenter_loss
<mrow> <msub> <mi>J</mi> <mrow> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> <mo>_</mo> <mi>l</mi> <mi>o</mi> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>&amp;lambda;</mi> <mn>2</mn> </msub> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <mi>F</mi> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <mover> <mi>F</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <msup> <mrow> <mo>(</mo> <mi>E</mi> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>-</mo> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <mover> <mi>F</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <mover> <mi>F</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>j</mi> <mo>)</mo> </mrow> </msup> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow>
其中,(F)(i)表示第i类样本的预测标签矩阵,表示(F)(i)的均值向量,ni为第i类样本的总数,λ2为类内正则化参数,λ3为类间正则化参数;
(5)将第k个通道的全局损失函数Jgloble_loss和中心损失函数Jcenter_loss作为约束项,引入到非负矩阵分解模型中,得到软标签下多通道判别非负矩阵分解MDNMF_SL的目标函数:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>J</mi> <mrow> <mi>M</mi> <mi>D</mi> <mi>N</mi> <mi>M</mi> <mi>F</mi> <mo>_</mo> <mi>S</mi> <mi>L</mi> </mrow> </msub> <mo>=</mo> <mo>|</mo> <mo>|</mo> <mi>B</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>Z</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mi>A</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mi>F</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>c</mi> <mo>+</mo> <mi>n</mi> <mo>-</mo> <mi>l</mi> </mrow> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>-</mo> <msub> <mi>C</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>1</mn> </msub> <mo>|</mo> <mo>|</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mrow> <mn>2</mn> <mo>,</mo> <mn>1</mn> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>2</mn> </msub> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <mi>F</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <mover> <mrow> <mi>F</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <msup> <mrow> <mo>(</mo> <mi>E</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>-</mo> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <mover> <mrow> <mi>F</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <mover> <mrow> <mi>F</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>j</mi> <mo>)</mo> </mrow> </msup> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中,B(k)为第k个通道的数据矩阵;Z(k)为第k个通道的基矩阵,mk为每幅子图像的维数,fk为分解维数;A(k)为第k个通道的辅助矩阵,F(k)为第k个通道的软约束矩阵,Fi,l(k)为F(k)第i行第l列元素,Ci,l(k)为第k个通道的本地标签矩阵C(k)的第i行第l列元素,(F(k))(i)表示第i类第k个通道的预测标签矩阵,表示(F(k))(i)的均值向量,
(6)对MDNMF_SL的目标函数进行优化求解,实现对第k个通道的数据矩阵B(k)的分解,得到基矩阵Z(k)、辅助矩阵A(k)和预测标签矩阵F(k);
(7)选择g幅人脸图像构成测试集,对测试集中的每幅图像采用与步骤(1)相同的处理方式得到测试集中W个通道的测试图像矩阵V(k);
(8)将第α个训练数据bα(k)和第β个测试数据vβ(k)在基矩阵Z(k)上投影,得到bα(k)和vβ(k)的投影系数向量其中,α=1,2,...,n,β=1,2,...,g;
(9)构造W个最邻近分类器作为局部分类器;
(10)根据各个通道局部分类器的识别率构造全局分类器,并用其找出训练数据集中与第β个测试图像距离最小的图像,将该图像的类别作为第β个测试图像的类别,即完成对第β个测试人脸图像的识别。
2.根据权利要求1所述方法,其中步骤(1)中将训练集中所有图像等分为W个通道,并构成相应的W个矩阵,按如下步骤进行:
1a)将训练集中的每幅图像重新调整大小,形成像素大小的图像,等分为W个通道后每幅子图像均包含个像素值;
1b)将训练集中第i个图像的第k个通道矩阵转置后逐列排列,形成一个mk维的列向量bi(k);将n个训练图像的第k个通道向量按顺序排列,得到第k个通道的训练矩阵其中i=1,2,...,n。
3.根据权利要求1所述方法,其中步骤(2)中由训练数据得到本地标签矩阵C,按如下步骤获得:
2a)定义指标矩阵L:
若数据集中包含n个样本{b1,b2,...,bi,...,bl,...,bn},其中,前l个样本b1,b2,...,bi,...bl为属于c个分类的有标签数据,剩余的n-l个样本为无标签数据,则定义指标矩阵在bi属于第σ类时,Lσ,i=1,否则Lσ,i=0,σ=1,2,...,c;
2b)构造本地标签矩阵C:
<mrow> <mi>C</mi> <mo>=</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mi>L</mi> </mtd> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <msub> <mi>I</mi> <mrow> <mi>n</mi> <mo>-</mo> <mi>l</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>
其中,In-l是一个(n-l)×(n-l)的单位矩阵。
4.根据权利要求1所述方法,其中步骤(6)中对MDNMF_SL目标函数进行优化求解,得到基矩阵Z(k)、辅助矩阵A(k)和软约束矩阵F(k),按如下步骤进行:
6a)随机初始化基矩阵Z(0)(k)、辅助矩阵A(0)(k)和预测标签矩阵F(0)(k),使得基矩阵Z(0)(k)中的任意元素满足辅助矩阵A(0)(k)中的任意元素满足预测标签矩阵F(0)(k)中的任意元素满足其中,是基矩阵Z(0)(k)中第i行ψ列元素,i∈[1,mk],ψ∈[1,fk],fk表示分解维数,是辅助矩阵A(0)(k)第ψ行u列的元素,u∈[1,c+n-l],是预测标签矩阵F(0)(k)第u行γ列的元素,γ∈[1,n];
6b)对基矩阵Z(k)中的元素进行更新;
6c)对辅助矩阵A(k)中的元素进行更新;
6d)根据更新得到的基矩阵Z(t)(k)和辅助矩阵A(t)(k),更新预测标签矩阵F(t)(k)中的元素
6e)采用预定义的最大迭代次数iter作为停止迭代条件,当迭代次数t达到iter次后,停止迭代,输出基矩阵Z(iter)(k)、辅助矩阵A(iter)(k)和预测标签矩阵F(iter)(k);否则,返回步骤6b)。
5.根据权利要求4所述方法,其中6b)中更新基矩阵Z(k)中的元素具体实施步骤如下:
6b1)按照如下更新公式得到
<mrow> <msubsup> <mi>Z</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>&amp;psi;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <msubsup> <mi>Z</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>&amp;psi;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mfrac> <msubsup> <mrow> <mo>(</mo> <mi>B</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>F</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>A</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mi>i</mi> <mo>,</mo> <mi>&amp;psi;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <msubsup> <mrow> <mo>(</mo> <mi>Z</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>A</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>F</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>F</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>A</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mi>i</mi> <mo>,</mo> <mi>&amp;psi;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mfrac> <mo>,</mo> </mrow>
其中,为迭代t-1次的基矩阵Z(t-1)(k)的第i行ψ列元素,t∈[1,iter],iter为预先定义的最大迭代次数;
6b2)对当前的更新结果进行归一化处理,得到基矩阵Z(k)中元素的最终更新结果
<mrow> <msubsup> <mi>Z</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>&amp;psi;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>Z</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>&amp;psi;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;prime;</mo> </msup> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>m</mi> <mi>k</mi> </msub> </munderover> <msubsup> <mi>Z</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>&amp;psi;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;prime;</mo> </msup> </mrow> </mfrac> <mo>.</mo> </mrow>
6.根据权利要求4所述的方法,按如下公式更新6c)中辅助矩阵A(k)中的元素
<mrow> <msubsup> <mi>A</mi> <mrow> <mi>&amp;psi;</mi> <mo>,</mo> <mi>u</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>A</mi> <mrow> <mi>&amp;psi;</mi> <mo>,</mo> <mi>u</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mfrac> <msubsup> <mrow> <mo>(</mo> <msup> <mi>Z</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>B</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>F</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mi>&amp;psi;</mi> <mo>,</mo> <mi>u</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <msubsup> <mrow> <mo>(</mo> <msup> <mi>Z</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>Z</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>A</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>F</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>F</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mi>&amp;psi;</mi> <mo>,</mo> <mi>u</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mfrac> <mo>,</mo> </mrow>
为本次对辅助矩阵A(t)(k)中元素的迭代更新结果,为迭代t-1次的辅助矩阵A(t-1)(k)的第ψ行u列的元素。
7.根据权利要求4所述方法,6d)中根据6b)和6c)更新得到的基矩阵Z(t)(k)和辅助矩阵A(t)(k),按如下公式更新6d)中预测标签矩阵F(t)(k)中的元素
<mrow> <msubsup> <mi>F</mi> <mrow> <mi>u</mi> <mo>,</mo> <mi>&amp;gamma;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>F</mi> <mrow> <mi>u</mi> <mo>,</mo> <mi>&amp;gamma;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mfrac> <mrow> <msubsup> <mrow> <mo>(</mo> <mn>2</mn> <msup> <mi>A</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>Z</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>B</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mi>u</mi> <mo>,</mo> <mi>&amp;gamma;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <mfrac> <mrow> <mn>4</mn> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> </mrow> <msub> <mi>N</mi> <mi>r</mi> </msub> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;NotEqual;</mo> <mi>r</mi> </mrow> <mi>C</mi> </munderover> <mrow> <mo>(</mo> <msup> <msub> <mi>&amp;mu;</mi> <mi>u</mi> </msub> <mrow> <mo>(</mo> <mi>r</mi> <mo>)</mo> </mrow> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <msup> <msub> <mi>&amp;mu;</mi> <mi>u</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mrow> <msubsup> <mrow> <mo>(</mo> <mn>2</mn> <msup> <mi>A</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <msup> <mi>Z</mi> <mi>T</mi> </msup> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>Z</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>A</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>F</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mi>u</mi> <mo>,</mo> <mi>&amp;gamma;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <mn>2</mn> <mrow> <mo>(</mo> <msubsup> <mi>F</mi> <mrow> <mi>u</mi> <mo>,</mo> <mi>&amp;gamma;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>C</mi> <mrow> <mi>u</mi> <mo>,</mo> <mi>&amp;gamma;</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>)</mo> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>1</mn> </msub> <msubsup> <mrow> <mo>(</mo> <mi>D</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mi>F</mi> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mi>u</mi> <mo>,</mo> <mi>&amp;gamma;</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <mn>2</mn> <msub> <mi>&amp;lambda;</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <msubsup> <mi>&amp;eta;</mi> <mrow> <mi>v</mi> <mo>,</mo> <mi>u</mi> </mrow> <mrow> <mo>(</mo> <mi>r</mi> <mo>)</mo> </mrow> </msubsup> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <msup> <msub> <mi>&amp;mu;</mi> <mi>u</mi> </msub> <mrow> <mo>(</mo> <mi>r</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> </mfrac> </mrow>
其中,为预测标签矩阵F(t)(k)中元素的迭代更新结果,为迭代t-1次的预测标签矩阵F(t-1)(k)的第u行γ列元素,表示第i类样本预测标签矩阵(F(k))(i)的均值向量,μu (i)(k)表示μ(i)(k)的第u个元素,表示第r类第v个样本的标签向量的第k通道的第u个元素,且有u=(r-1)Nr+v,Nr属于第r类的样本总数,Cu,γ(k)为本地标签矩阵C(k)的第u行γ列元素,D(k)为一个对角矩阵,Di,i(k)=1/||Fi(k)||2,Fi(k)表示F(k)的第i行。
8.根据权利要求1所述的方法,其中步骤(9)中构造W个最邻近分类器作为局部分类器,按如下步骤进行:
9a)计算测试集中第β个测试图像的第k个通道投影系数向量和训练集中各图像的第k个通道的系数向量hα(k)的欧氏距离
<mrow> <msubsup> <mi>d</mi> <mrow> <mi>&amp;beta;</mi> <mi>&amp;alpha;</mi> </mrow> <mi>k</mi> </msubsup> <mo>=</mo> <mo>|</mo> <mo>|</mo> <msub> <mover> <mi>h</mi> <mo>^</mo> </mover> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>h</mi> <mi>&amp;alpha;</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>;</mo> </mrow> 3
9b)将作为度量准则,得到第k个通道的局部分类器。
9.根据权利要求1所述的方法,其中步骤(10)中根据各个通道局部分类器的识别率构建全局分类器,并用其找出训练数据集中与第β个测试图像距离最小的图像,并将该图像的类别作为第β个测试图像的类别,按如下步骤进行:
10a)计算第k个局部分类器的线性权重系数ωk
<mrow> <msub> <mi>&amp;omega;</mi> <mi>k</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>n</mi> <mi>k</mi> </msub> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>W</mi> </msubsup> <msub> <mi>n</mi> <mi>k</mi> </msub> </mrow> </mfrac> <mo>,</mo> </mrow>
其中,nk表示第k个局部分类器的识别率;
10b)构造全局分类器,即利用获得的权重系数计算得到第β个测试图像和训练集中各图像之间的加权欧氏距离dβα
<mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mi>d</mi> <mrow> <mi>&amp;beta;</mi> <mi>&amp;alpha;</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>&amp;omega;</mi> <mn>1</mn> </msub> <mo>|</mo> <mo>|</mo> <msub> <mover> <mi>h</mi> <mo>^</mo> </mover> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>h</mi> <mi>&amp;alpha;</mi> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>&amp;omega;</mi> <mn>2</mn> </msub> <mo>|</mo> <mo>|</mo> <msub> <mover> <mi>h</mi> <mo>^</mo> </mover> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>h</mi> <mi>&amp;alpha;</mi> </msub> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>+</mo> <mn>...</mn> <mo>+</mo> <msub> <mi>&amp;omega;</mi> <mi>W</mi> </msub> <mo>|</mo> <mo>|</mo> <msub> <mover> <mi>h</mi> <mo>^</mo> </mover> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>W</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>h</mi> <mi>&amp;alpha;</mi> </msub> <mrow> <mo>(</mo> <mi>W</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;omega;</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>&amp;omega;</mi> <mn>2</mn> </msub> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>&amp;omega;</mi> <mi>W</mi> </msub> <mo>&amp;Element;</mo> <mo>&amp;lsqb;</mo> <mn>0</mn> <mo>,</mo> <mn>1</mn> <mo>&amp;rsqb;</mo> <mo>,</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>W</mi> </msubsup> <msub> <mi>&amp;omega;</mi> <mi>i</mi> </msub> <mo>=</mo> <mn>1</mn> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> </mtable> <mo>;</mo> </mrow>
10c)将加权欧氏距离dβα组成集合,从集合{dβ1,dβ2,...,dβξ,...,dβn}中选择出最小值dβξ,ξ∈{1,2,…,n};
10d)从训练数据集中找到最小值dβξ对应的第ξ幅图像,并将第ξ幅图像的类别作为第β幅测试图像的类别。
CN201710577592.7A 2017-07-15 2017-07-15 基于软标签下多通道判别非负矩阵分解的人脸识别方法 Active CN107451545B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710577592.7A CN107451545B (zh) 2017-07-15 2017-07-15 基于软标签下多通道判别非负矩阵分解的人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710577592.7A CN107451545B (zh) 2017-07-15 2017-07-15 基于软标签下多通道判别非负矩阵分解的人脸识别方法

Publications (2)

Publication Number Publication Date
CN107451545A true CN107451545A (zh) 2017-12-08
CN107451545B CN107451545B (zh) 2019-11-15

Family

ID=60488579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710577592.7A Active CN107451545B (zh) 2017-07-15 2017-07-15 基于软标签下多通道判别非负矩阵分解的人脸识别方法

Country Status (1)

Country Link
CN (1) CN107451545B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657611A (zh) * 2018-12-19 2019-04-19 河南科技大学 一种用于人脸识别的自适应图正则化非负矩阵分解方法
CN110309810A (zh) * 2019-07-10 2019-10-08 华中科技大学 一种基于批次中心相似度的行人重识别方法
CN110569879A (zh) * 2019-08-09 2019-12-13 平安科技(深圳)有限公司 舌头图像提取方法、装置及计算机可读存储介质
CN110781926A (zh) * 2019-09-29 2020-02-11 武汉大学 基于鲁棒辅助信息重构的支持向量机多谱段图像分析方法
CN111581792A (zh) * 2020-04-23 2020-08-25 生态环境部环境规划院 一种基于两阶段非负Lasso模型的大气PM2.5浓度预测方法及系统
CN111832514A (zh) * 2020-07-21 2020-10-27 内蒙古科技大学 基于软多标签的无监督行人重识别方法及装置
CN112233016A (zh) * 2020-10-21 2021-01-15 中国计量大学 基于自组织图约束非负矩阵分解的未见图像特征迁移方法
CN112558757A (zh) * 2020-11-20 2021-03-26 中国科学院宁波材料技术与工程研究所慈溪生物医学工程研究所 一种基于平滑约束非负矩阵分解的肌肉协同提取方法
CN113239741A (zh) * 2021-04-23 2021-08-10 中国计量大学 一种基于存储体非负矩阵分解的人脸识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366182A (zh) * 2013-07-05 2013-10-23 西安电子科技大学 基于全监督非负矩阵分解的人脸识别方法
CN103413117A (zh) * 2013-07-17 2013-11-27 浙江工业大学 一种基于局部保持非负矩阵分解的增量学习人脸识别方法
CN104732248A (zh) * 2015-03-24 2015-06-24 电子科技大学 基于Omega形状特征的人体目标检测方法
CN105469034A (zh) * 2015-11-17 2016-04-06 西安电子科技大学 基于加权式鉴别性稀疏约束非负矩阵分解的人脸识别方法
US20160106311A1 (en) * 2014-10-16 2016-04-21 New York University Method And System For Simultaneous Decomposition Of Multiple Hyperspectral Datasets And Signal Recovery Of Unknown Fluorophores In A Biochemical System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366182A (zh) * 2013-07-05 2013-10-23 西安电子科技大学 基于全监督非负矩阵分解的人脸识别方法
CN103413117A (zh) * 2013-07-17 2013-11-27 浙江工业大学 一种基于局部保持非负矩阵分解的增量学习人脸识别方法
US20160106311A1 (en) * 2014-10-16 2016-04-21 New York University Method And System For Simultaneous Decomposition Of Multiple Hyperspectral Datasets And Signal Recovery Of Unknown Fluorophores In A Biochemical System
CN104732248A (zh) * 2015-03-24 2015-06-24 电子科技大学 基于Omega形状特征的人体目标检测方法
CN105469034A (zh) * 2015-11-17 2016-04-06 西安电子科技大学 基于加权式鉴别性稀疏约束非负矩阵分解的人脸识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JINRONG CUI ET AL: "Discriminant non-negative graph embedding for face recognition", 《NEUROCOMPUTING》 *
XU JIA ET AL: "Image multi-label annotation based on supervised nonnegative matrix factorization with new matching measurement", 《NEUROCOMPUTING》 *
同鸣等: "正交指数约束的平滑非负矩阵分解方法及应用", 《系统工程与电子技术》 *
孙静等: "基于图正则化和稀疏约束的增量型非负矩阵分解", 《计算机科学》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657611B (zh) * 2018-12-19 2022-09-23 河南科技大学 一种用于人脸识别的自适应图正则化非负矩阵分解方法
CN109657611A (zh) * 2018-12-19 2019-04-19 河南科技大学 一种用于人脸识别的自适应图正则化非负矩阵分解方法
CN110309810A (zh) * 2019-07-10 2019-10-08 华中科技大学 一种基于批次中心相似度的行人重识别方法
CN110569879A (zh) * 2019-08-09 2019-12-13 平安科技(深圳)有限公司 舌头图像提取方法、装置及计算机可读存储介质
CN110569879B (zh) * 2019-08-09 2024-03-15 平安科技(深圳)有限公司 舌头图像提取方法、装置及计算机可读存储介质
CN110781926A (zh) * 2019-09-29 2020-02-11 武汉大学 基于鲁棒辅助信息重构的支持向量机多谱段图像分析方法
CN110781926B (zh) * 2019-09-29 2023-09-19 武汉大学 基于鲁棒辅助信息重构的支持向量机多谱段图像分析方法
CN111581792A (zh) * 2020-04-23 2020-08-25 生态环境部环境规划院 一种基于两阶段非负Lasso模型的大气PM2.5浓度预测方法及系统
CN111832514A (zh) * 2020-07-21 2020-10-27 内蒙古科技大学 基于软多标签的无监督行人重识别方法及装置
CN111832514B (zh) * 2020-07-21 2023-02-28 内蒙古科技大学 基于软多标签的无监督行人重识别方法及装置
CN112233016A (zh) * 2020-10-21 2021-01-15 中国计量大学 基于自组织图约束非负矩阵分解的未见图像特征迁移方法
CN112558757B (zh) * 2020-11-20 2022-08-23 中国科学院宁波材料技术与工程研究所慈溪生物医学工程研究所 一种基于平滑约束非负矩阵分解的肌肉协同提取方法
CN112558757A (zh) * 2020-11-20 2021-03-26 中国科学院宁波材料技术与工程研究所慈溪生物医学工程研究所 一种基于平滑约束非负矩阵分解的肌肉协同提取方法
CN113239741A (zh) * 2021-04-23 2021-08-10 中国计量大学 一种基于存储体非负矩阵分解的人脸识别方法

Also Published As

Publication number Publication date
CN107451545B (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
CN107451545B (zh) 基于软标签下多通道判别非负矩阵分解的人脸识别方法
CN105469034B (zh) 基于加权式鉴别性稀疏约束非负矩阵分解的人脸识别方法
CN105913025B (zh) 一种基于多特征融合的深度学习人脸识别方法
Zhou et al. Automatic radar waveform recognition based on deep convolutional denoising auto-encoders
Titsias et al. Spike and slab variational inference for multi-task and multiple kernel learning
CN109308485B (zh) 一种基于字典域适应的迁移稀疏编码图像分类方法
CN103093235B (zh) 一种基于改进距离核主成分分析的手写体数字识别方法
CN107292225B (zh) 一种人脸识别方法
CN105678261B (zh) 基于有监督图的直推式数据降维方法
CN103514443A (zh) 一种基于lpp特征提取的单样本人脸识别迁移学习方法
CN108932501B (zh) 一种基于多核关联集成降维的人脸识别方法
CN106991355A (zh) 基于拓扑保持的解析型字典学习模型的人脸识别方法
SG171858A1 (en) A method for updating a 2 dimensional linear discriminant analysis (2dlda) classifier engine
Wang et al. Probabilistic dimensionality reduction via structure learning
Tao et al. Discriminative information preservation for face recognition
Guzel Turhan et al. Class‐wise two‐dimensional PCA method for face recognition
Wang et al. Hierarchical mixing linear support vector machines for nonlinear classification
CN103456017B (zh) 基于种子集的半监督权重核模糊聚类的图像分割方法
Huang et al. Deep clustering based on embedded auto-encoder
Song et al. MPPCANet: A feedforward learning strategy for few-shot image classification
Wang et al. Unsupervised feature analysis with class margin optimization
Nikan et al. Face recognition using non-negative matrix factorization with a single sample per person in a large database
Li et al. Support cluster machine
Shi et al. Face recognition algorithm based on self-adaptive blocking local binary pattern
Zhu et al. Query set centered sparse projection learning for set based image classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
OL01 Intention to license declared
OL01 Intention to license declared