CN111914718A - 基于平均影响值数据变换的特征加权pca人脸识别方法 - Google Patents

基于平均影响值数据变换的特征加权pca人脸识别方法 Download PDF

Info

Publication number
CN111914718A
CN111914718A CN202010727958.6A CN202010727958A CN111914718A CN 111914718 A CN111914718 A CN 111914718A CN 202010727958 A CN202010727958 A CN 202010727958A CN 111914718 A CN111914718 A CN 111914718A
Authority
CN
China
Prior art keywords
value
training
sample
data set
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010727958.6A
Other languages
English (en)
Other versions
CN111914718B (zh
Inventor
郭金金
文成林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010727958.6A priority Critical patent/CN111914718B/zh
Publication of CN111914718A publication Critical patent/CN111914718A/zh
Application granted granted Critical
Publication of CN111914718B publication Critical patent/CN111914718B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于平均影响值数据变换的特征加权PCA人脸识别方法。本发明中MIV的计算过程是通过对系统的输入值做等比例增加和减小,得到增加和减少后的数据分别作为系统输入,求解其对应的系统输出值。求取各个输入变量做等比例增加对应的系统输出值减去各个输入变量做等比例减小对应的系统输出值得到系统输入的各个参变量对系统输出的影响程度值及MIV值;采用多次计算求平均值的方式确定各个特征变量最终的MIV值。通过对MIV值一定的等比例放缩,将其用作PCA降维最近邻分类方法输入数据的特征权值来进行人脸识别。通过ORL人脸数据集的仿真测试,验证了本发明的有效性。

Description

基于平均影响值数据变换的特征加权PCA人脸识别方法
技术领域
本发明属于人脸识别领域,具体涉及一种基于平均影响值数据变换的特征加权PCA人脸识别方法。
背景技术
在当代社会服务及工业用途中,人脸识别由于其广阔的应用前景和独特的学术价值,成为模式识别、图像处理、计算机视觉领域的热门课题。人脸识别方法大致可以分为三类:1)基于几何特征的人脸识别方法;2)基于模型的人脸识别方法,如隐马尔可夫模型;3)基于统计的方法,如主成分分析(Principal Component Analysis PCA)。由于PCA算法提取的各主成分之间相互正交,从而可以消除原数据个特征变量之间的相互影响,但正因为相互正交导致没有冗余,导致很难表示出投影的最大方向。且现有的人脸识别方法通常忽略人脸不同特征对识别效果的影响差异,因此基于数据变换的人脸识别方法越来越收人们的重视,然而基于数据变换的方法必然要面临各特征变量在识别过程中的影响程度差异,变量之间存在多样性,几何角度呈均匀分布等问题。尽管后来提出的加权主成分分析(WPCA)、基于多尺度Retinex的特征加权、信息增益等方法来加权特征向量的方法,但因其计算复杂,使得实际应用较为不便。MIV方法在标价理论的基础上,能够反映各输入参数的相关性,计算出各部分特征向量对人脸区分的权重,并对高价值特征向量加权,从而提高特征信息的显示度,MIV符号代表相关方向,绝对值代表影响的相对权重。
发明内容
本发明针对现有技术的不足,设计一种基于平均影响值数据变换的特征加权PCA人脸识别方法。本发明通过运用平均影响值(MIV)算法计算经过各部分特征分量对系统输出的影响程度,根据其数值上的比例关系为各部分特征变量赋权值;然后,采用ORL人脸数据集,根据创建的人脸识别方法进行仿真实验,并在不增加计算复杂度的前提下提高识别精度。
本发明包括以下各步骤:
步骤(1)以ORL人脸库训练集作为输入变量,以训练集整体的降到k维时的特征值贡献率作为对应输出的MIV值,其中MIV值的绝对值大小用于评价当前人脸特征对数据集整体特征值以及特征向量的影响程度,具体计算过程如下:
步骤(1-1)分离训练集与测试集:
ORL人脸数据库包含40个人,每个人包含10张人脸图片,每张图片的尺寸为112*92。假设随机取每个人中的n(n≤9)张图片作为训练数据集,剩余的作为测试数据集。将每张图片化成以行为样本,可以得到训练集尺寸为40n*10304,由于样本数据的特征数太多,故从第1个特征到第10304个特征平均分成16份。即训练数据集X=[X1 X2....Xl],其中l=16。
步骤(1-2)以训练数据集为输入,以训练数据集降到k维时对应的主元贡献率为输出,求出训练数据集每个输入变量对应输出的MIV值,其符号代表相关的方向,绝对值的大小表示对该特征的重要程度;详细步骤如下:
对训练数据集X的某一维度的特征变量进行自增或者自减:
Figure BDA0002598352930000021
Figure BDA0002598352930000022
一般取0.1≤σ≤0.3,表示改变的幅度。
Figure BDA0002598352930000023
表示所有样本的第i个特征分量分别增减σ后的新的样本矩阵;
Figure BDA0002598352930000024
表示第k'个样本数据的第j个特征分量分别增减σ后的向量;xj(k')表示第k'样本数据的第j个特征分量的值,也就是人脸图像的第j个像素值。
k主元贡献率:统计新的训练数据集
Figure BDA0002598352930000025
矩阵的特征值大小,将特征值重新从大到小排序,取前k个特征值,所以对应的k主元贡献率为:
Figure BDA0002598352930000026
k为主元个数,K为人脸图片的特征个数,λi表示第i个特征值,可以得到k个特征值和特征向量p1,p2....pK,并且得到变化矩阵P=[p1,p2....pK],在式子中,CL∈[0,1],该取值为人工取值,根据数据集和应用不同场景一般取值为80%-95%之间。
将训练样本集
Figure BDA0002598352930000027
Figure BDA0002598352930000028
分别作为仿真样本通过求解PCA的k主元贡献率进行仿真,得到两个仿真结果Oi,+和Oi,-,两个仿真结果的差值IVi,即为样本数据中第i个变量的平均影响值;进而求出训练样本数据中每个维度变量的平均影响值,并得到向量IV。
Figure BDA0002598352930000031
IVi=Oi,+-Oi,- (5)
IV=[IV1,IV2,…,IVn]T (6)
IV中的各个参数即为样本数据中各个特征变量对输出的影响值;最后,多次仿真取m组IV值,求取其中对应特征变量IV值的平均值,记作MIV。
Figure BDA0002598352930000033
MIV绝对值的大小表示每一维变量对k主元贡献率影响的相对重要性,比较MIV中各个参数的大小,寻找最大值对应的位置,从而实现对测试样本数据特征的加权。
步骤(2)由步骤(1)得出训练集降到k维时的各输入变量对输出的MIV,其中k分别取20,40。可以得出训练样本数据集中第i份特征对输出最为重要,接着,对原始数据集的第i份特征值放大,并对其他特征缩小,分别取1-9张图片组成训练集矩阵Xtrain,并比较其余作为测试集Xtest,验证并比较原始训练集矩阵X与放大特征后的训练集矩阵Xtrain的类内与类间散度,利用PCA降维,得到基于平均影响值加权特征的训练数据集的映射矩阵P,具体计算过程如下:
步骤(2-1)对原始训练集的X的第i份特征放大,并对其他特征缩小。得到新的训练数据集Xtrain。
步骤(2-2)对新的训练数据集去均值化处理。即所有样本减去样本均值M,并得到去平均后的训练集
Figure BDA0002598352930000034
Figure BDA0002598352930000035
Figure BDA0002598352930000036
在式(8)中,
Figure BDA0002598352930000037
为40*n组样本第i维特征平均值,
Figure BDA0002598352930000038
表示第j个样本数据第i个属性值,
Figure BDA0002598352930000039
表示第i维特征取平均后的向量,
Figure BDA00025983529300000310
表示去平均后的训练数据集矩阵,i=1,2,…,10304,j=1,2,…,40*n。
步骤(2-3)评价类内与类间散度:
Figure BDA0002598352930000041
Figure BDA0002598352930000042
Figure BDA0002598352930000043
其中SW为类内散度矩阵,Sb为类间散度矩阵,∑i表示第i类样本的协方差矩阵分子,Xi表示第i类样本整体,μi表示第i类样本均值,Ni表示第i类样本的样本个数。通过比较初始训练数据集X与特征加权后的Xtrain的类内与类间散度矩阵,评价数据整体的区分度,类内距离越小,类间距离越大,数据按类区分就越明显。
步骤(2-4)计算加强特征并取平均后的训练数据集
Figure BDA0002598352930000044
的协方差矩阵:
Figure BDA0002598352930000045
步骤(2-5)计算特征值λ12,…,λK,并计算特征向量α12,…,αK,取前k个特征向量组成投影矩阵P。
|λE-COVK*K|=0 (15)
|λE-COVK*K|α=0 (16)
P=[α1,····,αk] (17)
步骤(2-6)将原始样本投影到映射空间中。
Figure BDA0002598352930000046
步骤(3)最近邻算法设计
步骤(3-1)在训练样本中找最近邻
原始训练样本数据集经过去均值化并投影到映射空间P中,并计算测试样本中每一个样本x(k'),k'=1,2,…,N,与训练样本之间的欧氏距离,并找到距离它最近的k个近邻样本;
di,j=||x(i)-x(j)||2,i≠j (19)
上式中,N为测试样本总个数,x(i)和x(j)分别表示两个样本,i,j=1,2,…,N步骤(3-2)人脸识别
对于一个新的样本x(k),根据式(19)计算其最近邻;其最近邻所属的类就是测试样本x(k)所属的人脸类别。
本发明的有益效果:利用基于平均影响值数据变换的特征加权方法,在少样本训练集情况下,可使PCA人脸识别方法的准确率最高提高5.9%。
附图说明
图1是本方法的算法实现流程图。
具体实施方式
以下结合附图对本发明作进一步说明。
如图1所示,本发明提出基于平均影响值数据变换的特征加权PCA人脸识别方法,包括以下各步骤:
1、以ORL人脸库训练集作为输入变量,以训练集整体的降到k维时的特征值贡献率作为对应输出的MIV值,其中MIV值的绝对值大小用于评价当前人脸特征对数据集整体特征值以及特征向量的影响程度,具体计算过程如下:
步骤(1-1)分离训练集与测试集:
ORL人脸数据库包含40个人,每个人包含10张人脸图片,每张图片的尺寸为112*92。假设随机取每个人中的n(n≤9)张图片作为训练数据集,剩余的作为测试数据集。将每张图片化成以行为样本,可以得到训练集尺寸为40n*10304,由于样本数据的特征数太多,故从第1个特征到第10304个特征平均分成16份。即训练数据集X=[X1 X2....Xl],其中l=16。
步骤(1-2)以训练数据集为输入,以训练数据集降到k维时对应的主元贡献率为输出,求出训练数据集每个输入变量对应输出的MIV值,其符号代表相关的方向,绝对值的大小表示对该特征的重要程度;详细步骤如下:
对训练数据集X的某一维度的特征变量进行自增或者自减:
Figure BDA0002598352930000051
Figure BDA0002598352930000061
一般取0.1≤σ≤0.3,表示改变的幅度。
Figure BDA0002598352930000062
表示所有样本的第i个特征分量分别增减σ后的新的样本矩阵;
Figure BDA0002598352930000063
表示第k'个样本数据的第j个特征分量分别增减σ后的向量;xj(k')表示第k'样本数据的第j个特征分量的值,也就是人脸图像的第j个像素值。
k主元贡献率:统计新的训练数据集
Figure BDA0002598352930000064
矩阵的特征值大小,将特征值重新从大到小排序,取前k个特征值,所以对应的k主元贡献率为:
Figure BDA0002598352930000065
k为主元个数,K为人脸图片的特征个数,λi表示第i个特征值,可以得到k个特征值和特征向量p1,p2....pK,并且得到变化矩阵P=[p1,p2....pK],在式子中,CL∈[0,1],该取值为人工取值,根据数据集和应用不同场景一般取值为80%-95%之间。
将训练样本集
Figure BDA0002598352930000066
Figure BDA0002598352930000067
分别作为仿真样本通过求解PCA的k主元贡献率进行仿真,得到两个仿真结果Oi,+和Oi,-,两个仿真结果的差值IVi,即为样本数据中第i个变量的平均影响值;进而求出训练样本数据中每个维度变量的平均影响值,并得到向量IV。
Figure BDA0002598352930000068
IVi=Oi,+-Oi,- (5)
IV=[IV1,IV2,…,IVn]T (6)
IV中的各个参数即为样本数据中各个特征变量对输出的影响值;最后,多次仿真取m组IV值,求取其中对应特征变量IV值的平均值,记作MIV。
Figure BDA00025983529300000610
MIV绝对值的大小表示每一维变量对k主元贡献率影响的相对重要性,比较MIV中各个参数的大小,寻找最大值对应的位置,从而实现对测试样本数据特征的加权。
如下表1是通过以上算法求得的输入数据的各特征变量对输出的影响值,由于交叉验证随机选取训练集的数据不同,故造成每次计算得到的各变量的IV值不同,故采用多次计算求平均值的方式确定各个特征变量最终的MIV值。
表1输入数据的各特征变量对输出的影响值
Figure BDA0002598352930000071
2、由上步骤得出训练集降到k维时的各输入变量对输出的MIV,其中k分别取20,40。可以得出训练样本数据集中第i份特征对输出最为重要,接着,对原始数据集的第i份特征值放大,并对其他特征缩小,分别取1-9张图片组成训练集矩阵Xtrain,并比较其余作为测试集Xtest,验证并比较原始训练集矩阵X与放大特征后的训练集矩阵Xtrain的类内与类间散度,利用PCA降维,得到基于平均影响值加权特征的训练数据集的映射矩阵P,具体计算过程如下:
步骤(2-1)对原始训练集的X的第i份特征放大,并对其他特征缩小。得到新的训练数据集Xtrain。
步骤(2-2)对新的训练数据集去均值化处理。即所有样本减去样本均值M,并得到去平均后的训练集
Figure BDA0002598352930000072
Figure BDA0002598352930000073
Figure BDA0002598352930000081
在式(8)中,
Figure BDA0002598352930000082
为40*n组样本第i维特征平均值,
Figure BDA0002598352930000083
表示第j个样本数据第i个属性值,
Figure BDA0002598352930000084
表示第i维特征取平均后的向量,
Figure BDA0002598352930000085
表示去平均后的训练数据集矩阵,i=1,2,…,10304,j=1,2,…,40*n。
步骤(2-3)评价类内与类间散度:
Figure BDA0002598352930000086
Figure BDA0002598352930000087
Figure BDA0002598352930000088
其中SW为类内散度矩阵,Sb为类间散度矩阵,Jd(x)表示基于类内类间距离的判据,∑i表示第i类样本的协方差矩阵分子,Xi表示第i类样本整体,μi表示第i类样本均值,Ni表示第i类样本的样本个数。通过比较初始训练数据集X与特征加权后的Xtrain的类内与类间散度矩阵,评价数据整体的区分度,类内距离越小,类间距离越大,Jd(x)越大,数据按类区分就越明显。
步骤(2-4)计算加强特征并取平均后的训练数据集
Figure BDA0002598352930000089
的协方差矩阵:
Figure BDA00025983529300000810
步骤(2-5)计算特征值λ12,…,λK,并计算特征向量α12,…,αK,取前k个特征向量组成投影矩阵P。
|λE-COVK*K|=0 (15)
|λE-COVK*K|α=0 (16)
P=[α1,····,αk] (17)
步骤(2-6)将原始样本投影到映射空间中。
Figure BDA00025983529300000811
如下表2是通过以上算法求得原始数据与加权数据的类内类间散度判据对比
表2类内类间散度判据
Figure BDA0002598352930000091
3、最近邻算法设计
步骤(3-1)在训练样本中找最近邻
原始训练样本数据集经过去均值化并投影到映射空间P中,并计算测试样本中每一个样本x(k'),k'=1,2,…,N,与训练样本之间的欧氏距离,并找到距离它最近邻样本;
di,j=||x(i)-x(j)||2,i≠j (19)
上式中,N为测试样本总个数,x(i)和x(j)分别表示两个样本,i,j=1,2,…,N步骤(3-2)人脸识别
对于一个新的样本x(k),根据式(19)计算其最近邻;其最近邻所属的类就是测试样本x(k)所属的人脸类别。
4、载入ORL人脸数据集进行人脸识别测试
为验证本发明的有效性,使用ORL数据集进行对比仿真实验,经过对图片的矢量化处理,然后采用交叉验证的方法随机取每个人中的n(n≤9)张图片作为训练数据集,剩余的作为测试数据集,用于计算本发明提出的基于平均影响值数据变换的特征加权PCA人脸识别方法。
样本数据特征加权如下:
1)原始样本数据集的矢量化,将每张图片化成以行为样本,可以得到训练集尺寸为40n*10304,由于样本数据的特征数太多,故从第1个特征到第10304个特征平均分成16份。即对于训练数据集X=[X1 X2....Xl],其中l=16。
2)将矢量化的数据运用MIV进行特征加权,重要特征自增σ,其余自减σ。
针对同一标准ORL数据集,分别采用普通的矢量化处理和MIV加权处理后,用PCA算法降维并结合最近邻算法进行分类。表3为本算法的仿真实验结果。
表3仿真实验结果
Figure BDA0002598352930000101

Claims (1)

1.基于平均影响值数据变换的特征加权PCA人脸识别方法,其特征在于该方法具体包括以下各步骤:
步骤(1)以ORL人脸库训练集作为输入变量,以训练集整体的降到k维时的特征值贡献率作为对输出的MIV,其中MIV的绝对值大小用于评价当前人脸特征对数据集整体特征值以及特征向量的影响程度,具体计算过程如下:
步骤(1-1)分离训练集与测试集:
ORL人脸数据库包含40个人,每个人包含10张人脸图片,每张图片的尺寸为112*92;假设随机取每个人中的n张图片作为训练数据集,n≤9,剩余的作为测试数据集;
将每张图片化成以行为样本,得到训练集尺寸为40n*10304,将第1个特征到第10304个特征平均分成16份,即训练数据集X=[X1 X2....Xl],其中l=16;
步骤(1-2)以训练数据集为输入,以训练数据集降到k维时对应的主元贡献率为输出,求出训练数据集每个输入变量对应输出的MIV值,其符号代表相关的方向,绝对值的大小表示对该特征的重要程度:
对训练数据集X的某一维度的特征变量进行自增或者自减:
Figure FDA0002598352920000011
Figure FDA0002598352920000012
其中σ表示改变的幅度;
Figure FDA0002598352920000013
表示所有样本的第i个特征分量分别增减σ后的新的样本矩阵;
Figure FDA0002598352920000014
表示第k'个样本数据的第j个特征分量分别增减σ后的向量;xj(k')表示第k'样本数据的第j个特征分量的值,也就是人脸图像的第j个像素值;
k主元贡献率:统计新的训练数据集
Figure FDA0002598352920000015
矩阵的特征值大小,将特征值重新从大到小排序,取前k个特征值,所以对应的k主元贡献率为:
Figure FDA0002598352920000016
k为主元个数,K为人脸图片的特征个数,λi表示第i个特征值,得到k个特征值和特征向量p1,p2....pK,并且得到变化矩阵P=[p1,p2....pK],在式子中,CL∈[0,1]为设定值;
将训练样本集
Figure FDA0002598352920000021
Figure FDA0002598352920000022
分别作为仿真样本通过求解PCA的k主元贡献率进行仿真,得到两个仿真结果Oi,+和Oi,-,两个仿真结果的差值IVi,即为样本数据中第i个变量的平均影响值;进而求出训练样本数据中每个维度变量的平均影响值,并得到向量IV;
Figure FDA0002598352920000023
IVi=Oi,+-Oi,- (5)
IV=[IV1,IV2,…,IVn]T (6)
IV中的各个参数即为样本数据中各个特征变量对输出的影响值;最后,多次仿真取m组IV值,求取其中对应特征变量IV值的平均值,记作MIV;
Figure FDA0002598352920000024
MIV绝对值的大小表示每一维变量对k主元贡献率影响的相对重要性,比较MIV中各个参数的大小,寻找最大值对应的位置,从而实现对测试样本数据特征的加权;
步骤(2)由步骤(1)得出训练集降到k维时的各输入变量对输出的MIV,其中k分别取20,40;可以得出训练样本数据集中第i份特征对输出最为重要,接着,对原始数据集的第i份特征值放大,并对其他特征缩小,分别取1-9张图片组成训练集矩阵Xtrain,并比较其余作为测试集Xtest,验证并比较原始训练集矩阵X与放大特征后的训练集矩阵Xtrain的类内与类间散度,利用PCA降维,得到基于平均影响值加权特征的训练数据集的映射矩阵P,具体计算过程如下:
步骤(2-1)对原始训练集的X的第i份特征放大,并对其它特征缩小;得到新的训练数据集Xtrain;
步骤(2-2)对新的训练数据集去均值化处理;即所有样本减去样本均值M,并得到去平均后的训练集
Figure FDA0002598352920000025
Figure FDA0002598352920000026
Figure FDA0002598352920000031
在式(8)中,
Figure FDA0002598352920000032
为40*n组样本第i维特征平均值,
Figure FDA0002598352920000033
表示第j个样本数据第i个属性值,
Figure FDA0002598352920000034
表示第i维特征取平均后的向量,
Figure FDA0002598352920000035
表示去平均后的训练数据集矩阵,i=1,2,···,10304,j=1,2,···,40*n;
步骤(2-3)评价类内与类间散度:
Figure FDA0002598352920000036
Figure FDA0002598352920000037
Figure FDA0002598352920000038
其中SW为类内散度矩阵,Sb为类间散度矩阵,∑i表示第i类样本的协方差矩阵分子,Xi表示第i类样本整体,μi表示第i类样本均值,Ni表示第i类样本的样本个数;通过比较初始训练数据集X与特征加权后的Xtrain的类内与类间散度矩阵,评价数据整体的区分度,类内距离越小,类间距离越大,数据按类区分就越明显;
步骤(2-4)计算加强特征并取平均后的训练数据集
Figure FDA0002598352920000039
的协方差矩阵:
Figure FDA00025983529200000310
步骤(2-5)计算特征值λ12,···,λK,并计算特征向量α12,···,αK,取前k个特征向量组成投影矩阵P;
|λE-COVK*K|=0 (15)
|λE-COVK*K|α=0 (16)
P=[α1,····,αk] (17)
步骤(2-6)将原始样本投影到映射空间中;
Figure FDA00025983529200000311
步骤(3)最近邻算法设计
步骤(3-1)在训练样本中找最近邻
原始训练样本数据集经过去均值化并投影到映射空间P中,并计算测试样本中每一个样本x(k'),与训练样本之间的欧氏距离,并找到距离它最近的k个近邻样本;
di,j=||x(i)-x(j)||2,i≠j (19)
上式中,N为测试样本总个数,x(i)和x(j)分别表示两个样本;
步骤(3-2)人脸识别
对于一个新的样本x(k),根据式(19)计算其最近邻;其最近邻所属的类就是测试样本x(k)所属的人脸类别;
步骤(4)载入ORL人脸数据集进行人脸识别测试。
CN202010727958.6A 2020-07-23 2020-07-23 基于平均影响值数据变换的特征加权pca人脸识别方法 Active CN111914718B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010727958.6A CN111914718B (zh) 2020-07-23 2020-07-23 基于平均影响值数据变换的特征加权pca人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010727958.6A CN111914718B (zh) 2020-07-23 2020-07-23 基于平均影响值数据变换的特征加权pca人脸识别方法

Publications (2)

Publication Number Publication Date
CN111914718A true CN111914718A (zh) 2020-11-10
CN111914718B CN111914718B (zh) 2023-08-18

Family

ID=73280849

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010727958.6A Active CN111914718B (zh) 2020-07-23 2020-07-23 基于平均影响值数据变换的特征加权pca人脸识别方法

Country Status (1)

Country Link
CN (1) CN111914718B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597890A (zh) * 2020-12-21 2021-04-02 杭州电子科技大学 基于多维泰勒网的人脸识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832789A (zh) * 2017-11-01 2018-03-23 杭州电子科技大学 基于平均影响值数据变换的特征加权k近邻故障诊断方法
CN108053093A (zh) * 2017-11-15 2018-05-18 郑州鼎创智能科技有限公司 一种基于平均影响值数据变换的k-近邻故障诊断方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832789A (zh) * 2017-11-01 2018-03-23 杭州电子科技大学 基于平均影响值数据变换的特征加权k近邻故障诊断方法
CN108053093A (zh) * 2017-11-15 2018-05-18 郑州鼎创智能科技有限公司 一种基于平均影响值数据变换的k-近邻故障诊断方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597890A (zh) * 2020-12-21 2021-04-02 杭州电子科技大学 基于多维泰勒网的人脸识别方法

Also Published As

Publication number Publication date
CN111914718B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN108564129B (zh) 一种基于生成对抗网络的轨迹数据分类方法
CN112101426B (zh) 基于自编码器的无监督学习图像异常检测方法
Xu et al. Consistent instance false positive improves fairness in face recognition
US5901244A (en) Feature extraction system and face image recognition system
CN112528928B (zh) 一种基于自注意力深度网络的商品识别方法
CN109948125B (zh) 改进的Simhash算法在文本去重中的方法及系统
CN111428557A (zh) 基于神经网络模型的手写签名的自动校验的方法和装置
CN111611293B (zh) 一种基于特征加权与MapReduce的离群数据挖掘方法
CN110555386A (zh) 一种基于动态贝叶斯的人脸识别身份认证方法
CN115393666A (zh) 图像分类中基于原型补全的小样本扩充方法及系统
CN112541530B (zh) 针对聚类模型的数据预处理方法及装置
CN111914718B (zh) 基于平均影响值数据变换的特征加权pca人脸识别方法
CN109978064A (zh) 基于图像集的李群字典学习分类方法
CN110110673B (zh) 一种基于双向2dpca和级联前向神经网络的人脸识别方法
Liu et al. Fuzzy c-mean algorithm based on Mahalanobis distances and better initial values
CN109948583A (zh) 极限学习机、人脸识别方法、可读存储介质和计算机设备
Li et al. Multi-level Fisher vector aggregated completed local fractional order derivative feature vector for face recognition
WO2010110181A1 (ja) パターン照合装置、パターン照合方法及びパターン照合プログラム
CN113011370A (zh) 一种基于深度学习的多状态人脸识别方法
Arivalagan et al. Face recognition based on a hybrid meta-heuristic feature selection algorithm
CN114842276B (zh) 一种基于多图融合的典型相关分析的降维方法
KR20020074330A (ko) 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치
CN112862000B (zh) 一种基于协同表示的样本不平衡分类方法
CN115329968B (zh) 确定量子机器学习算法公平性的方法、系统和电子设备
CN112633399B (zh) 一种稀疏协同联合表示模式识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant