CN113326791B - 基于鲁棒性自适应图结构学习算法的人脸识别方法 - Google Patents
基于鲁棒性自适应图结构学习算法的人脸识别方法 Download PDFInfo
- Publication number
- CN113326791B CN113326791B CN202110649237.2A CN202110649237A CN113326791B CN 113326791 B CN113326791 B CN 113326791B CN 202110649237 A CN202110649237 A CN 202110649237A CN 113326791 B CN113326791 B CN 113326791B
- Authority
- CN
- China
- Prior art keywords
- matrix
- image data
- face image
- graph structure
- learning algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于鲁棒性自适应图结构学习算法的人脸识别方法,将鲁棒性的自适应图结构学习算法应用在人脸识别任务中,其中的鲁棒性的自适应图结构学习算法,不同于现有的图学习方法,提出的算法利用自表示和自适应近邻方法来挖掘数据的全局结构信息和局部结构信息。同时,为了降低噪声点对图结构的影响,本发明通过引入基于l2,1范数的流形约束来提高算法对噪声的鲁棒性,以达到鲁棒性的图构建目的;该方法充分地挖掘了数据的局部结构信息和全局结构信息,提升了图结构的有效性;同时,将基于l2,1范数的流形约束引入到图学习过程中,增强了图学习的鲁棒性,改善识别效果。
Description
技术领域
本发明公开涉及机器学习的技术领域,尤其涉及一种基于鲁棒性自适应图结构学习算法的人脸识别方法。
背景技术
人脸识别技术作为生物特征识别领域的一个分支,在生物、人机交互和信息安全等领域中得到了广泛的应用,同时使它成为模式识别和计算机视觉领域中一个非常重要的研究课题。尽管已有大量研究者提出了各种相关算法来提高人脸识别系统的性能,但它仍然是一个极具有挑战性的问题。这是因为真实环境下拍摄的人脸图像极其容易受到光照、年龄、姿势、面部表情和伪装等影响。而且,遮挡和噪声等因素也会影响人脸识别算法的性能。如果能够在一定的程度上克服这些因素的影响,可以使人脸识别系统更加具有鲁棒性。
随着信息技术的飞速发展,大多数真实世界的数据可以通过图构建的方式来描述样本之间的相似度关系。因此,图学习在数据挖掘和机器学习领域发挥着重要的作用。近年来,研究者们提出了大量的图学习方法。其中,热核函数是一种应用最广泛的图构造方式。然而,参数的选择十分具有挑战性,将直接影响后续任务的性能。此外,上述方法通常依赖于数据,并且独立于相似度度量,导致构建的图结构对噪声十分敏感。为了解决上述问题,学者们利用稀疏表示来构建l1图或稀疏图。虽然l1图可以揭示单个点与其它点之间的线性关系,但仍然存在如下局限性。首先,l1图过度依赖于较强的假设,即重构字典要求是过完备的,而这在许多实际应用中较难满足,特别是在图学习问题中;其次,l1图仅考虑了数据稀疏性,而忽略了样本之间的相关性,无法对数据进行平滑表示。
在实际应用中,研究人员发现,数据之间的关系往往呈现高维非线性特征,上述线性表示方法很难取得良好的性能。目前,许多研究者更注重揭示感兴趣数据点之间的非线性关系。例如:Yu等人发现稀疏编码的非零系数总是分配给查询样本的近邻样本。为了实现编码的局部性,Peng等人提出了局部性约束的协同表示方法,经实验验证,该方法比传统的非局部性方法取得更好的分类性能。最近,Chen等人将局部性约束和LSR相融合,设计了一种局部性约束的LSR(LCLSR)方法,并将其用于子空间聚类任务。LCLSR方法是从数据点的全局结构和局部线性关系出发,设计一种图学习目标函数,从而使得数据点的表示更倾向于邻域点的选择。虽然LCLSR考虑了数据的局部结构关系,但仍存在以下局限性:一方面,LCLSR的目标函数是基于l2范数,因此该方法对噪声敏感;另一方面,样本重构过程忽略了样本表示之间的关系,即相似的样本应该具有相似的编码表示系数,从而弱化了图学习的有效性。
发明内容
鉴于此,本发明提供了一种基于鲁棒性自适应图结构学习算法的人脸识别方法,以提升图结构的有效性,增强图学习的鲁棒性,改善图像识别的效果。
本发明提供的技术方案,具体为,一种基于鲁棒性自适应图结构学习算法的人脸识别方法,该方法包括如下步骤:
S1:获取多张人脸图像数据;
S2:采用基于鲁棒性自适应图结构学习算法,计算获得所述多张人脸图像数据对应的权值矩阵W;
S3:基于所述权值矩阵W对待识别的人脸图像数据进行分类,完成人脸识别;
步骤S2中所述基于鲁棒性自适应图结构学习算法,具体为:
其中,α和β为平衡参数;X为高维样本集,且X=[x1,x2,...,xN]∈RD×N,N为所述高维样本集中包含的样本个数,每个样本xi的维度为D;
W=(XTGX+αQ+βL)-1XTGX;
Lt+1=Dt+1-Rt+1;
||·||2,1表示矩阵的l2,1范数,||·||2表示为矩阵的l2范数,ε表示一个非常小的非负常数,wi和wj分别为xi和xj的重构稀疏系数,sij表示样本xi和xj的相似性权值,D为对角矩阵,其对角元素为
优选,所述基于鲁棒性自适应图结构学习算法中,α和β的取值均为0.1-1。
进一步优选,步骤S2:采用基于鲁棒性自适应图结构学习算法,计算获得所述多张人脸图像数据对应的权值矩阵W,具体为:
S201:输入人脸图像数据矩阵X=[x1,x2,...,xN],迭代次数T=30,以及两个平衡参数α和β;
S202:初始化时,Gt和Qt均为单位矩阵,W为随机矩阵,t=1;
S203:计算所述输入人脸图像数据矩阵的相似矩阵S;
S204:更新矩阵
S205:计算矩阵和拉普拉斯矩阵Lt+1=Dt+1-Rt+1;
S206:更新矩阵Wt+1=(XTGtX+αQt+βLt+1)-1XTGtX;
S207:更新矩阵
S208:更新矩阵
S208:令t=t+1,重复步骤S204-步骤S208,直至收敛,此时,对应的权值矩阵W为求得的权值矩阵W。
进一步优选,步骤S3:基于所述权值矩阵W对待识别的人脸图像数据进行分类,完成人脸识别,具体为:
S301:在所述权值矩阵W的基础上,采用局部保持投影的方法将待识别的人脸图像数据进行降维;
S302:利用最近邻分类器,对降维后的人脸图像数据进行分类,完成人脸识别。
进一步优选,步骤S301:在所述权值矩阵W的基础上,采用局部保持投影的方法将待识别的人脸图像数据进行降维,具体为:
利用公式y=PTx,将高维的待识别的人脸图像数据x降为低维y;
其中,XLXTp=λXDXTp,X为待识别的人脸图像数据,L=D-W是一个拉普拉斯矩阵,D为对角矩阵,其对角元素为λ为求解出特征向量p所对应的特征值。
本发明提供的基于鲁棒性自适应图结构学习算法的人脸识别方法,将鲁棒性的自适应图结构学习算法应用在人脸识别任务中,其中的鲁棒性的自适应图结构学习算法,不同于现有的图学习方法,提出的算法利用自表示和自适应近邻方法来挖掘数据的全局结构信息和局部结构信息。同时,为了降低噪声点对图结构的影响,本发明通过引入基于l2,1范数的流形约束来提高算法对噪声的鲁棒性,以达到鲁棒性的图构建目的。
本发明提供的基于鲁棒性自适应图结构学习算法的人脸识别方法,充分地挖掘了数据的局部结构信息和全局结构信息,提升了图结构的有效性;同时,将基于l2,1范数的流形约束引入到图学习过程中,增强了图学习的鲁棒性,改善识别效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明的公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1四个标准的人脸图像数据库中的部分人脸图像示例,其中,(a)Yale数据库,(b)AR数据库,(c)CMU PIE数据库,(d)Extended YaleB数据库;
图2本实施方案在不同数据库和不同参数取值情况下的分类准确率直方图,其中,(a)Yale数据库,(b)AR数据库,(c)CMU PIE数据库,(d)Extended YaleB数据库。
具体实施方式
下面将结合具体的实施方案,对本发明进行进一步的解释说明,但是并不用于限制本发明的保护范围。
本实施方案将鲁棒性的自适应图结构学习算法应用在人脸识别任务中,提供了一种基于鲁棒性自适应图结构学习算法的人脸识别方法,该方法包括如下步骤:
获取多张人脸图像数据X作为样本,其中,X=[x1,x2,...,xN]∈RD×N,该人脸图像数据X中包含N个样本,且每个样本xi的维度为D。对于一个矩阵B∈RD×N,该矩阵的l2,1范数定义为
为了使学到的图结构不仅对噪声具有鲁棒性,同时也充分地考虑数据的局部结构信息,为此,本实施方案设计了总体目标函数,具体如下:
其中,α和β为平衡参数,W为图权重矩阵。上述的总体目标函数共包含三大项,其中前两项是约束图结构对噪声的鲁棒性,最后一项是数据局部结构约束项。
为了增强图学习算法对噪声的鲁棒性和图结构的全局判别性,本实施方案将基于l2,1范数的度量准则引入传统最小二乘回归问题中:
其中,||·||2,1表示矩阵的l2,1范数,G和Q分别定义为和ε表示一个非常小的非负常数,防止分母为零。
在重构过程中,为了确保相似样本(如:xi和xj)具有相似的重构稀疏系数(如:wi和wj),从而实现流形结构的有效保持。该过程可通过最小化如下目标函数来实现:
其中,||·||2表示为矩阵的l2范数,sij表示样本xi和xj的相似性权值,矩阵R中的元素定义为D为对角矩阵,其对角元素为/>矩阵L为拉普拉斯矩阵。
算法优化,由于目标函数(1)中涉及l2,1范数,因此,目标函数关于图权重变量W是非凸的。所以本实施方案提出一种迭代优化求解的方法。具体过程如下:
1)固定矩阵G,Q和R,更新矩阵W,从公式(1)中移除不重要的项后,将其约简为:
mintr(XTGX-2WTXTGX+WTXTGXW)+αtr(WTQW)+βtr(WTLW) (4)
2)对公式(4)求导,并令导数等于零,获得如下等式:
-2XTGX+2XTGXW+2αQW+2βLW=0 (5)
3)根据公式(5),W的更新公式如下:
W=(XTGX+αQ+βL)-1XTGX (6)
4)固定W,更新G,Q,和R
基于上述的总体目标函数,计算获得上述多张人脸图像数据对应的权值矩阵W,具体过程为:
1)输入:数据矩阵X=[x1,x2,...,xN],迭代次数T=30,以及两个平衡参数α和β。
2)初始化:Gt和Qt为单位矩阵,W为随机矩阵,t=1。
3)计算样本相似矩阵S;
重复执行如下步骤:
3.1)更新矩阵
3.2)计算矩阵和拉普拉斯矩阵Lt+1=Dt+1-Rt+1;
3.3)更新矩阵Wt+1=(XTGtX+αQt+βLt+1)-1XTGtX;
3.4)更新矩阵
3.5)更新矩阵
3.6)另t=t+1,重复步骤3.13.1)-3.6),直至收敛,此时,对应的权值矩阵W为求得的权值矩阵W。
基于获得的权值矩阵W对人脸图像数据分类:在获得W的基础上,本实施方案采用局部保持投影方法来进行降维,并利用最近邻分类器实现人脸图像分类。具体实施过程如下:
假设给定近邻图权重矩阵W,如果原始高维样本xi和xj是近邻样本,则经过局部近邻保持投影降维后,获得的低维样本yi和yj也应该是近邻关系。对于一个给定的权重矩阵Wij,局部保持投影矩阵的获得可以通过最小化如下目标函数实现:
其中,L=D-W是一个拉普拉斯矩阵,D为对角矩阵,其对角元素为tr(S)表示矩阵S的迹。dii用于测量xi的局部样本密度,其中,dii的值越大,表明yi越重要。因此,得到约束YTDY=I。利用Y=PTX,则上述局部保持投影可以被重新改写为:
投影矩阵P可以由前d个最小非零特征值(λ0,λ1,...,λd-1)所对应的特征向量(p0,p1,...,pd-1)构成,该过程可以通过求解如下等式获得:
XLXTp=λXDXTp (12)
对于一个给定的高维数据x,利用上述获得的投影矩阵P,可以获得对应的低维数据表示y=PTx。在获得的低维表示基础上,通过分类算法,如:最近邻,可以实现样本的分类。
下面结合具体的实施例对本发明进行更进一步的解释说明,但是并不用于限制本发明的保护范围。
本实施例将提出的鲁棒性自适应图结构学习算法应用到人脸图像分类问题中。同时,在目前四个公开的人脸图像数据库中,包括:Yale,AR,CMU PIE以及Extended YaleB,进一步验证提出方案的有效性。四个图像数据库的具体信息如表1所示。
表1:数据库的详细信息
数据库名 | 图像大小 | 样本数 | 类别数 | 每类样本数 |
Yale | 32×32 | 165 | 15 | 11 |
AR | 32×32 | 1400 | 100 | 14 |
CMU PIE | 32×32 | 1632 | 68 | 24 |
Extended YaleB | 32×32 | 2432 | 38 | 64 |
在Yale人脸数据库中,共包含15名测试者的165张面部图像。对于每一个测试者,分别在不同的光照、面部表情以及是眼镜遮挡等情况下,拍摄11张不同的人脸图像。图1(a)中展示的是来自于Yale人脸数据库中属于同一个人的不同人脸图像。
在AR人脸数据库中,一共包含70个男人和56个女人的4000幅正面人脸图像,其中,每一个人都包含来自不同条件下拍摄的26张人脸图像,这些人脸图像中的变化主要体现在光照条件、面部表情和面部遮挡等三个方面。在我们的实验中,选取该数据库中的一个子集,即:选取一个包含50个男人和50个女人的人脸图像集,并将它作为我们实验中的数据集。图1(b)中给出了来自于AR人脸数据库中的部分人脸图像。
在CMU PIE人脸数据库中,共包含68个测试者的41368张面部图像。每个测试者的人脸图像都是在不同的光照、不同的姿势和面部表情条件下拍摄的。图1(c)中给出了来自于CMU PIE人脸数据库中的部分人脸图像。
在Extended YaleB人脸数据库中,共包含38个人,对于每个人,均在不同的光照、微小的头部姿态和面部表情变化条件下拍摄64张正面人脸图像。图1(d)中给出了来自于Extended YaleB人脸数据库中的部分人脸图像。
为了验证上述实施方案提供的算法的有效性,我们将提出的算法与目前比较主流的图构建算法进行比较,包括:KNN,LLE,L1,LRR,LSR,LCLSR和SGLS。实验平台为Intel(R)Core(TM)i7-4790,双核GPU,频率为3.60Hz,内存为8G,系统为64位Windows10系统,全部实验都是基于Matlab 2016编程实现的。在实验中采用局部保持投影子空间学习方法来验证图学习方法的有效性,即采用不同的图作为W进行子空间学习,从而获得样本的低维表示;然后采用最近邻分类器对低维样本进行分类,并将分类准确率作为性能评价指标。对于每个数据库,我们从每个类中随机选取l幅图像作为训练样本,剩下的图像作为测试样本。Yale数据库、AR数据库、CMU PIE数据库和Extended Yale数据库的l值分别设置为{4,5,6}、{4,5,6}、{6,8,10}、{10,15,20}。为了更有效、公正地测试所提方法的性能,将随机样本选择重复20次,以平均分类准确率和标准差作为最终结果进行比较。不同方法在4个人脸数据库上的实验结果,如表2至表5所示。
表2:不同方法在Yale数据库上的平均分类准确率(%)和标准方差(%)
方法 | l=4 | l=5 | l=6 |
KNN+LPP | 74.86±2.70 | 77.56±2.39 | 79.07±3.27 |
LLE+LPP | 77.71±4.22 | 79.78±1.55 | 80.13±3.23 |
L1+LPP | 81.52±2.30 | 84.79±2.19 | 85.07±3.31 |
LRR+LPP | 79.43±2.70 | 82.33±2.59 | 82.93±4.06 |
LSR+LPP | 84.29±4.07 | 86.00±2.58 | 86.40±5.02 |
LCLSR+LPP | 82.57±3.84 | 85.56±2.92 | 85.73±4.71 |
SGLS+LPP | 83.33±4.15 | 85.33±3.18 | 85.20±3.74 |
本实施方案+LPP | 84.95±4.12 | 86.89±1.72 | 86.53±4.14 |
表3:不同方法在AR数据库上的平均分类准确率(%)和标准方差(%)
表4:不同方法在CMU PIE数据库上的平均分类准确率(%)和标准方差(%)
方法 | l=6 | l=8 | l=10 |
KNN+LPP | 85.37±0.81 | 86.56±0.70 | 86.63±0.99 |
LLE+LPP | 87.55±0.92 | 88.05±0.91 | 87.95±0.80 |
L1+LPP | 88.95±0.86 | 88.97±0.73 | 88.09±1.13 |
LRR+LPP | 90.08±0.37 | 90.18±0.87 | 90.11±0.99 |
LSR+LPP | 89.90±0.55 | 90.26±0.81 | 90.21±0.89 |
LCLSR+LPP | 90.32±0.44 | 90.68±0.73 | 90.68±0.83 |
SGLS+LPP | 89.72±0.68 | 90.08±0.57 | 90.09±0.93 |
本实施方案+LPP | 90.46±0.81 | 92.72±0.63 | 93.60±0.48 |
表5:不同方法在Extended YaleB数据库上的平均分类准确率(%)和标准方差(%)
方法 | l=10 | l=15 | l=20 |
KNN+LPP | 65.38±2.33 | 69.62±1.12 | 64.49±1.54 |
LLE+LPP | 73.93±1.71 | 75.00±1.18 | 72.05±1.17 |
L1+LPP | 75.77±4.10 | 75.97±1.84 | 67.70±1.69 |
LRR+LPP | 82.67±1.02 | 85.97±0.71 | 84.53±1.19 |
LSR+LPP | 84.20±0.66 | 86.19±0.84 | 85.14±0.71 |
LCLSR+LPP | 85.59±0.75 | 88.06±0.75 | 87.62±0.62 |
SGLS+LPP | 84.83±0.73 | 86.64±0.73 | 87.09±0.94 |
本实施方案+LPP | 86.14±0.65 | 90.99±0.48 | 92.68±0.54 |
从表2至表5的实验结果中可得到如下结论:
(1)基于KNN和LLE图的分类性能要低于其它构图方法,其主要原因是基于欧式距离的KNN和LLE图对数据中的噪声点、局外点以及参数取值非常敏感。
(2)由于在LRR和LSR的构图过程中考虑了数据的全局结构信息,因此,它们的性能要优于L1图的方法。
(3)由于LRR、LSR和SGLS的图构建方法忽略了数据的局部结构信息,因此,它们分类性能要低于LCLSR方法。
(4)由于提出的算法充分地挖掘了数据的局部结构信息和全局结构信息,提升了图结构的有效性;同时,将基于l2,1范数的流形约束引入到图学习过程中,增强了图学习的鲁棒性。因此,我们的算法在性能上明显地优于全部对比算法。
在提出的算法中包含两个参数α和β。在实验中,我们以网格搜索的方式变化参数α和β的取值,参数的取值范围均为{0.001,0.01,0.1,1,10,100}。图2显示了本算法在不同参数以及不同数据库上的分类准确率。通过观察图2可以得知,当参数α和β取值较小时,提出算法所获得的分类准确率相对较低。随着α和β值的不断增加,提出算法的性能会逐渐提升。当提出的算法取得最佳性能后,算法的性能将会随着α和β值的增加而逐渐下降。综上所述,当参数取中间值时,如:0.1~1区间时,提出算法可以取得最优的分类性能。
与现有的图构建算法相比,本实施方案提出的鲁棒性自适应图结构学习算法可以充分地挖掘数据的局部结构和全局结构信息,提升图结构学习的有效性;同时,本发明将l2,1范数正则化准则引入到图学习过程中,进一步提升图学习模型的鲁棒性。因此,本发明可以通过挖掘数据的结构特性,学习一种高效且鲁棒的图,为后续的数据挖掘和机器学习任务提供核心的技术支撑。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述的内容,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (4)
1.一种基于鲁棒性自适应图结构学习算法的人脸识别方法,其特征在于,包括如下步骤:
S1:获取多张人脸图像数据;
S2:采用基于鲁棒性自适应图结构学习算法,计算获得所述多张人脸图像数据对应的权值矩阵W;
S3:基于所述权值矩阵W对待识别的人脸图像数据进行分类,完成人脸识别;
步骤S2中所述基于鲁棒性自适应图结构学习算法,具体为:
其中,α和β为平衡参数;X为高维样本集,且X=[x1,x2,...,xN]∈RD×N,N为所述高维样本集中包含的样本个数,每个样本xi的维度为D;
W=(XTGX+αQ+βL)-1XTGX;
Lt+1=Dt+1-Rt+1;
||·||2,1表示矩阵的l2,1范数,||·||2表示为矩阵的l2范数,ε表示一个非常小的非负常数,wi和wj分别为xi和xj的重构稀疏系数,sij表示样本xi和xj的相似性权值,D为对角矩阵,其对角元素为
步骤S2:采用基于鲁棒性自适应图结构学习算法,计算获得所述多张人脸图像数据对应的权值矩阵W,具体为:
S201:输入人脸图像数据矩阵X=[x1,x2,...,xN],迭代次数T=30,以及两个平衡参数α和β;
S202:初始化时,Gt和Qt均为单位矩阵,W为随机矩阵,t=1;
S203:计算所述输入人脸图像数据矩阵的相似矩阵S;
S204:更新矩阵
S205:计算矩阵和拉普拉斯矩阵Lt+1=Dt+1-Rt+1;
S206:更新矩阵Wt+1=(XTGtX+αQt+βLt+1)-1XTGtX;
S207:更新矩阵
S208:更新矩阵
S208:令t=t+1,重复步骤S204-步骤S208,直至收敛,此时,对应的权值矩阵W为求得的权值矩阵W。
2.根据权利要求1所述基于鲁棒性自适应图结构学习算法的人脸识别方法,其特征在于,所述基于鲁棒性自适应图结构学习算法中,α和β的取值均为0.1-1。
3.根据权利要求1所述基于鲁棒性自适应图结构学习算法的人脸识别方法,其特征在于,步骤S3:基于所述权值矩阵W对待识别的人脸图像数据进行分类,完成人脸识别,具体为:
S301:在所述权值矩阵W的基础上,采用局部保持投影的方法将待识别的人脸图像数据进行降维;
S302:利用最近邻分类器,对降维后的人脸图像数据进行分类,完成人脸识别。
4.根据权利要求3所述基于鲁棒性自适应图结构学习算法的人脸识别方法,其特征在于,步骤S301:在所述权值矩阵W的基础上,采用局部保持投影的方法将待识别的人脸图像数据进行降维,具体为:
利用公式y=PTx,将高维的待识别的人脸图像数据x降为低维y;
其中,XLXTp=λXDXTp,X为待识别的人脸图像数据,L=D-W是一个拉普拉斯矩阵,D为对角矩阵,其对角元素为λ为求解出特征向量p所对应的特征值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110649237.2A CN113326791B (zh) | 2021-06-10 | 2021-06-10 | 基于鲁棒性自适应图结构学习算法的人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110649237.2A CN113326791B (zh) | 2021-06-10 | 2021-06-10 | 基于鲁棒性自适应图结构学习算法的人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113326791A CN113326791A (zh) | 2021-08-31 |
CN113326791B true CN113326791B (zh) | 2023-09-26 |
Family
ID=77420474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110649237.2A Active CN113326791B (zh) | 2021-06-10 | 2021-06-10 | 基于鲁棒性自适应图结构学习算法的人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326791B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520201A (zh) * | 2018-03-13 | 2018-09-11 | 浙江工业大学 | 一种基于加权混合范数回归的鲁棒人脸识别方法 |
CN111339960A (zh) * | 2020-02-28 | 2020-06-26 | 江南大学 | 一种基于判别低秩回归模型的人脸识别方法 |
CN111931665A (zh) * | 2020-08-13 | 2020-11-13 | 重庆邮电大学 | 一种基于类内变化字典建模的欠采样人脸识别方法 |
CN112115881A (zh) * | 2020-09-21 | 2020-12-22 | 国网重庆市电力公司长寿供电分公司 | 基于鲁棒鉴别特征学习的图像特征提取方法 |
-
2021
- 2021-06-10 CN CN202110649237.2A patent/CN113326791B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520201A (zh) * | 2018-03-13 | 2018-09-11 | 浙江工业大学 | 一种基于加权混合范数回归的鲁棒人脸识别方法 |
CN111339960A (zh) * | 2020-02-28 | 2020-06-26 | 江南大学 | 一种基于判别低秩回归模型的人脸识别方法 |
CN111931665A (zh) * | 2020-08-13 | 2020-11-13 | 重庆邮电大学 | 一种基于类内变化字典建模的欠采样人脸识别方法 |
CN112115881A (zh) * | 2020-09-21 | 2020-12-22 | 国网重庆市电力公司长寿供电分公司 | 基于鲁棒鉴别特征学习的图像特征提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113326791A (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wong et al. | Low-rank embedding for robust image feature extraction | |
Xia et al. | Tensor completion-based incomplete multiview clustering | |
Fan et al. | Multi-view subspace learning via bidirectional sparsity | |
Wang et al. | Constrained low-rank representation for robust subspace clustering | |
Tang et al. | One-step multiview subspace segmentation via joint skinny tensor learning and latent clustering | |
Yin | Nonlinear dimensionality reduction and data visualization: a review | |
CN112115881B (zh) | 基于鲁棒鉴别特征学习的图像特征提取方法 | |
CN111340103A (zh) | 一种基于图嵌入典型相关分析的特征层融合方法及其装置 | |
CN110717519A (zh) | 训练、特征提取、分类方法、设备及存储介质 | |
Zhou et al. | Improved cross-label suppression dictionary learning for face recognition | |
CN111611323A (zh) | 一种面向数据融合的迭代结构化多视图子空间聚类方法,设备及可读存储介质 | |
Chen et al. | LABIN: Balanced min cut for large-scale data | |
CN109871880A (zh) | 基于低秩稀疏矩阵分解、局部几何结构保持和类别信息最大统计相关的特征提取方法 | |
Song et al. | MPPCANet: A feedforward learning strategy for few-shot image classification | |
Zhang et al. | Learning all-in collaborative multiview binary representation for clustering | |
Zhang et al. | Efficient and effective nonconvex low-rank subspace clustering via SVT-free operators | |
CN111325275A (zh) | 基于低秩二维局部鉴别图嵌入的鲁棒图像分类方法及装置 | |
Feng et al. | Principal component analysis based filtering for scalable, high precision k-NN search | |
Liu et al. | Robust region grouping via internal patch statistics | |
Zhou et al. | Structural regularization based discriminative multi-view unsupervised feature selection | |
Yang et al. | The k-sparse LSR for subspace clustering via 0-1 integer programming | |
Li et al. | Dimensionality reduction with sparse locality for principal component analysis | |
You et al. | Robust structure low-rank representation in latent space | |
Gao et al. | Global structure-guided neighborhood preserving embedding for dimensionality reduction | |
Wei et al. | Spectral clustering steered low-rank representation for subspace segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |