CN113239917B - 一种基于奇异值分解的鲁棒人脸识别方法 - Google Patents
一种基于奇异值分解的鲁棒人脸识别方法 Download PDFInfo
- Publication number
- CN113239917B CN113239917B CN202110788826.9A CN202110788826A CN113239917B CN 113239917 B CN113239917 B CN 113239917B CN 202110788826 A CN202110788826 A CN 202110788826A CN 113239917 B CN113239917 B CN 113239917B
- Authority
- CN
- China
- Prior art keywords
- matrix
- test sample
- sample
- value decomposition
- residual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人脸识别技术领域,公开一种基于奇异值分解的鲁棒人脸识别方法,包括步骤如下:1、对由灰度图像组成的训练样本矩阵中的每列进行归一化;2、对每类训练样本分别进行奇异值分解;3、提取左奇异矩阵中的前列作为一个投影矩阵;4、利用测试样本和上一步中得到的投影矩阵计算出编码向量;5、计算出相应的残差,最小残差所对应的类别即为测试样本的类别,作为识别结果输出。本发明是在基于稀疏表示的分类方法和基于协同表示的分类方法基础上结合了奇异值分解,利用奇异值分解得到编码向量,代替原来的稀疏表示或者协同表示,不仅使识别精度得到提升,更解决了稀疏表示“计算代价昂贵”和协同表示“对噪声等干扰的鲁棒性差”等问题。
Description
技术领域
本发明涉及人脸识别技术领域,特别涉及了一种基于奇异值分解的鲁棒人脸识别方法。
背景技术
随着我国经济的不断增长和信息科学的快速发展,人们越来越重视自身的信息安全。特别是人工智能和大数据时代的到来,让用户的个人隐私保护和数据安全越来越成为迫切需求,所以研究安全有效的身份识别成为了当务之急。人脸是人体最明显的生物特征之一,具有极强的稳定性、唯一性和难以复制等特点,可以作为身份鉴别的理想依据。现实中我们识别一个人,主要通过观察他的脸部、体型、说话方式等特征,其中脸部特征起到关键性作用。人脸识别系统具有可靠、快速、无需用户进行复杂操作和不易使人抵触等特点,逐渐得到人们的接收和认可,并且现在已经广泛应用于交通、社会安全、智能检索、移动支付等领域。在可预见的未来里,人脸识别将存在于人们生活的方方面面,为人类提供更加安全、可靠、便捷有效的服务。未来随着我国智慧城市的建设以及智慧家居的发展,人脸识别将会拥有更加广阔的发展空间和应用前景。云计算和人脸图像重建技术将会推动人脸识别的深入研究,促进人脸识别行业的快速发展。
人脸识别中的一个基本问题是使用有标签的训练样本来确定一个新的未知标签样本的类别。作为数字图像处理与计算机、模式识别等学科交叉的产物,人脸识别的研究最早可以追溯到上个世纪60年代。早期的研究人员只是从人脸的几何特征入手,将人脸识别问题划分到多分类领域并以此为理论基础进行研究,由于种种原因,一直没有显著成果。到现在已经经历了半个多世纪的发展,计算机技术无论是在硬件还是软件方面都有了日新月异的变化,人们对人脸识别的研究也越来越深入。现阶段,人们已经着手研究不同场景下针对姿态、噪声、遮挡、光照等约束条件下的鲁棒性人脸识别,这也是目前人脸识别领域的研究重点。在过去的几十年里,研究人员们已经提出了许多人脸识别方法,而其中最流行的就是基于表示的分类。
在基于表示的分类框架中,基于稀疏表示的分类(Sparse Representation BasedClassification,SRC)做出了开创性的工作。SRC提出直接将训练集作为字典,并将测试样本表示为给定训练样本的线性组合,然后计算编码向量,最后将测试样本分配给具有最小残差的相应类别。随后的相关研究工作都继承了这个思想。SRC提出测试样本在所有训练样本上的线性表示是稀疏的,因此对编码向量施加范数稀疏性,获得了良好的分类结果,但是对于高维数据,计算时间非常长。虽然SRC在人脸识别领域取得了成功,但对于是否是稀疏表示提高了人脸识别的准确性,仍然存在争议。有研究人员认为,SRC的成功在很大程度上归功于通过使用所有类别的训练样本进行的协同表示。因此,他们提出了一种利用范数正则化的基于协同表示的分类(Collaborative Representation BasedClassification,CRC)方法,该算法能够以较低的计算复杂度获得相似的性能。CRC之所以比SRC快,是因为CRC中的表示系数具有解析解。然而,有相关研究人员通过实验表明,稀疏表示比非稀疏表示对遮挡和噪声具有更好的鲁棒性。虽然之后提出了很多SRC和CRC的变体、改进和应用,但是真正提高人脸识别准确率始终是一个亟待解决的问题。
发明内容
为了解决现有技术中的不足,本发明提供了一种基于奇异值分解的鲁棒人脸识别方法, 针对SRC对编码向量施加范数稀疏性,虽然获得了良好的分类结果和鲁棒性,但是对于高维数据,计算时间非常长。而利用范数正则化的CRC方法,虽然能够以较低的计算复杂度获得相似的识别精度,但是针对噪声、遮挡等干扰的鲁棒性较差。针对SRC和CRC的缺点,将奇异值分解用于人脸识别,通过对训练样本进行奇异值分解来计算编码向量,针对原有的表示方法进行改进以提高人脸识别的精度和对噪声等干扰的鲁棒性。
步骤二、对每类样本进行奇异值分解;
步骤四、使用上述步骤得到的投影矩阵和测试样本计算出编码向量;
进一步,所述步骤二中对每类构造的训练样本矩阵进行奇异值分解,即首先从每一类中随机选取若干张图像组成每一类对应的训练集,然后在每一类构造得到的训练集上执行奇异值分解算法。实验表明,相比在由所有类构造的整个训练集上进行奇异值分解而言,在每一类对应构造的训练集上进行奇异值分解得到的类别投影矩阵能够取得更好的降维效果,更能保存原始数据的判别性能。
进一步,所述步骤三的提取左奇异矩阵中的前列作为投影矩阵,左奇异矩阵是
由上一步的奇异值分解操作得到,提取其前列,为该类别的样本数量,组成一个投影
矩阵;在所述步骤三中,如果某个数据集有个类别,那么此处能够得到个投影矩阵;则该
投影矩阵的主要目的是对测试样本进行降维。有别于其他传统的分类算法,本发明是在每
一类构造的训练集上进行奇异值分解后得到投影矩阵,而不是对所有类构造的训练集进行
操作,之所以这样做的原因在于根据每一类训练集得到的投影矩阵能更好地反映本类别中
所有样本的特点。
进一步,所述步骤四的编码向量,通过将上述步骤三得到的投影矩阵进行转置并
与测试样本相乘计算得出;使用步骤三中得到的每个类别的投影矩阵对测试样本进行降
维,处理后的测试样本维数为,对应的是从第i类中构造训练集时选取的样本个数;如果
数据集中有个类别,那么对于同一个测试样本,最后会得到个编码向量。
进一步,所述步骤四所计算的编码向量,将每类得到的编码向量与对应类别的投
影矩阵进行相乘得到重构的测试样本,并计算重构的测试样本和实际测试样本之间的残
差向量,再将残差向量的范数作为残差值;对于同一个测试样本,会得到个残差值,将
其中最小的残差值对应的类别作为该测试样本的类别,最后将所有测试样本的预测标签
和它的实际标签进行对比,从而得到正确的识别精度。
进一步,所述步骤二中的主对角线元素由大到小排列,值越大,维数越重要,在
使用奇异值分解得到的奇异矩阵时,往往只取前几个列向量作为投影矩阵。这样得到的投
影矩阵更能够反映出原始数据中潜在的特性,并使用每类训练样本得到的投影矩阵对测试
样本进行降维得到对应的编码向量。根据每类得到的编码向量和每类对应的投影矩阵计算
出重构的测试样本,将其与实际测试样本进行对比得到残差向量和残差值,寻找最小残差
值对应的类别即为测试样本的预测标签。
本发明相对于现有技术,具有以下有益效果:
附图说明
图1为本发明数据集PIE_32x32上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图2为本发明数据集UMIST_40x40上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图3为本发明数据集YaleB_32x32上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图4为本发明加入高斯噪声的数据集PIE_32x32上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图5为本发明加入高斯噪声的数据集UMIST_40x40上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图6为本发明加入高斯噪声的数据集YaleB_32x32上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图7为本发明加入椒盐噪声的数据集PIE_32x32上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图8为本发明加入椒盐噪声的数据集UMIST_40x40上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图9为本发明加入椒盐噪声的数据集YaleB_32x32上不同算法的平均分类精度及时间随每类训练样本数量变化的情况;
图10为本发明基于奇异值分解的鲁棒人脸识别算法框图;
图11为本发明图1、图2、图3中所涉及的数据集情况说明;
图12为本发明图1、图2、图3中所涉及的数据集图像示例;
说明书附图中所涉及的方法名称解释如下:
LRC:Linear Regression Based Classification,基于线性回归的分类;
CROC:Collaborative Representation Optimized Classification,协同表示最优化分类;
ProCRC:Probabilistic Collaborative Representation BasedClassification,基于概率协同表示的分类;
NRC:Non-negative Representation Based Classification,基于非负表示的分类;
ANCR:Affine Non-negative Collaborative Representation BasedClassification,基于仿射非负协同表示的分类;
LSRC:Local Sparse Representation Based Classification,基于局部稀疏表示的分类;
SVDVR:Singular Value Decomposition Based Virtual Representation,基于奇异值分解的虚拟表示;
ADWF: Adaptive Weighted Fusion,适应权重融合;
SVDVR2020:Singular Value Decomposition-Based Virtual Representation2020,基于奇异值分解的虚拟表示,2020年版本。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
并且,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1-12所示,本发明在Matlab上进行实现,对数据集中的图像进行分类。
本发明的技术方案包括以下几个部分:
(1)基于稀疏表示的分类
然而,SRC虽然获得了良好的分类结果和鲁棒性,但是对于高维数据,计算时间非常长。而CRC方法利用范数正则化求解编码向量,虽然能够以较低的计算复杂度获得相似的识别精度,但是针对噪声、遮挡等干扰的鲁棒性较差。
(2)奇异值分解
(3)基于奇异值分解的鲁棒人脸识别
将编码向量与相应类别的投影矩阵结合,在这里相应类别的投影矩阵是指公式(5)中的矩阵,它是取公式(4)计算得到的中的前列,对于每一类构造出来的训练样本矩阵都会计算得到一个不同的投影矩阵,所以此处的相应类别的投影矩阵是指根据对应某一类训练样本得到的投影矩阵,通过编码向量与相应类别的投影矩阵计算出与测试样本之间的残差向量,再将残差向量的范数作为残差值,其中最小的残差对应的类别即为测试的类别,用于人脸识别任务;最小的残差对应的类别即为测试的类别,作为识别结果输出。简单举个用于人脸识别任务的实例场景,例如南京邮电大学在新冠疫情期间为了方便教职工和学生进出校园,采用人脸识别系统,每当有人经过门禁时,摄像头会自动捕捉人脸信息并与数据库中存放的标准人脸数据进行对比,找到重构误差最小时对应的类别即为该样本的标签信息。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (5)
1.一种基于奇异值分解的鲁棒人脸识别方法,其特征在于:包括下列步骤:
步骤二、对每类样本进行奇异值分解;
取左奇异矩阵的前列向量形成一个投影矩阵;所述步骤三的提取左奇异矩阵中的前列作为投影矩阵,左奇异矩阵是由上一步的奇异值分解操作得到,提取其前列,为该类别的样本数量,组成一个投影矩阵;在所述步骤三中,如果某个数据集有个类别,那么此处能够得到个投影矩阵;
步骤四、使用上述步骤得到的投影矩阵和测试样本计算出编码向量;
指的是一个未知类别的测试样本,在得到编码向量后,根据SRC或CRC,表示为;所述步骤四所计算的编码向量,将每类得到的编码向量与对应类别的投影矩阵进行相乘得到重构的测试样本,并计算重构的测试样本和实际测试样本之间的残差向量,再将残差向量的范数作为残差值;对于同一个测试样本,会得到个残差值,将其中最小的残差值对应的类别作为该测试样本的类别,最后将所有测试样本的预测标签和它的实际标签进行对比,从而得到正确的识别精度;
步骤五、将投影矩阵和编码向量结合得到测试样本的近似线性表示,计算其与测试样本的残差;
2.根据权利要求 1所述的一种基于奇异值分解的鲁棒人脸识别方法,其特征在于:所述步骤二中对每类构造的训练样本矩阵进行奇异值分解,即首先从每一类中随机选取若干张图像组成每一类对应的训练集,然后在每一类构造得到的训练集上执行奇异值分解算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110788826.9A CN113239917B (zh) | 2021-07-12 | 2021-07-12 | 一种基于奇异值分解的鲁棒人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110788826.9A CN113239917B (zh) | 2021-07-12 | 2021-07-12 | 一种基于奇异值分解的鲁棒人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113239917A CN113239917A (zh) | 2021-08-10 |
CN113239917B true CN113239917B (zh) | 2021-09-28 |
Family
ID=77135375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110788826.9A Active CN113239917B (zh) | 2021-07-12 | 2021-07-12 | 一种基于奇异值分解的鲁棒人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113239917B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073880A (zh) * | 2011-01-13 | 2011-05-25 | 西安电子科技大学 | 利用稀疏表示进行人脸识别的集成方法 |
CN107194920A (zh) * | 2017-05-19 | 2017-09-22 | 山东财经大学 | 一种基于奇异值分解的轮胎缺陷检测方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976360B (zh) * | 2010-10-27 | 2013-02-27 | 西安电子科技大学 | 基于多级分类的稀疏表征人脸识别方法 |
CN105469063B (zh) * | 2015-12-04 | 2019-03-05 | 苏州大学 | 鲁棒的人脸图像主成分特征提取方法及识别装置 |
TWI628601B (zh) * | 2016-05-11 | 2018-07-01 | 國立高雄應用科技大學 | 人臉影像處理方法及其系統 |
US10922379B2 (en) * | 2018-09-10 | 2021-02-16 | City University Of Hong Kong | Method for processing electronic data |
CN109522841A (zh) * | 2018-11-16 | 2019-03-26 | 重庆邮电大学 | 一种基于群稀疏表示与低秩矩阵恢复的人脸识别方法 |
CN112507966B (zh) * | 2020-12-23 | 2024-03-01 | 杭州电子科技大学 | 基于四元数非凸罚稀疏主成分分析的彩色人脸识别方法 |
-
2021
- 2021-07-12 CN CN202110788826.9A patent/CN113239917B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073880A (zh) * | 2011-01-13 | 2011-05-25 | 西安电子科技大学 | 利用稀疏表示进行人脸识别的集成方法 |
CN107194920A (zh) * | 2017-05-19 | 2017-09-22 | 山东财经大学 | 一种基于奇异值分解的轮胎缺陷检测方法 |
Non-Patent Citations (1)
Title |
---|
基于最近正交矩阵的二维鉴别投影及人脸识别应用;殷俊 等;《计算机辅助设计与图形学学报》;20170831;第29卷(第8期);第1457-1464页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113239917A (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Depth-wise separable convolutions and multi-level pooling for an efficient spatial CNN-based steganalysis | |
Fang et al. | Robust latent subspace learning for image classification | |
Pan et al. | Loss functions of generative adversarial networks (GANs): Opportunities and challenges | |
Zeng et al. | Dictionary pair learning on Grassmann manifolds for image denoising | |
Yang et al. | Adaptive method for nonsmooth nonnegative matrix factorization | |
Ren et al. | Learning hybrid representation by robust dictionary learning in factorized compressed space | |
Yuan et al. | Non-negative dictionary based sparse representation classification for ear recognition with occlusion | |
Sudhakar et al. | Cancelable biometrics using deep learning as a cloud service | |
Zhao et al. | Disentangled representation learning and residual GAN for age-invariant face verification | |
CN113361489B (zh) | 基于解耦表示的人脸正面化模型构建方法和训练方法 | |
CN107122725B (zh) | 一种基于联合稀疏判别分析的人脸识别方法及其系统 | |
CN113379597A (zh) | 人脸超分辨率重构方法 | |
Wu et al. | Comparative analysis and application of LBP face image recognition algorithms | |
Hu et al. | Semi-supervised learning based on GAN with mean and variance feature matching | |
Chen et al. | Sparse general non-negative matrix factorization based on left semi-tensor product | |
Ma et al. | Cascade transformer decoder based occluded pedestrian detection with dynamic deformable convolution and Gaussian projection channel attention mechanism | |
Cao et al. | Robust pca for face recognition with occlusion using symmetry information | |
Guarnera et al. | Mastering deepfake detection: A cutting-edge approach to distinguish gan and diffusion-model images | |
Lai et al. | Generative focused feedback residual networks for image steganalysis and hidden information reconstruction | |
Liu et al. | Semi‐supervised uncorrelated dictionary learning for colour face recognition | |
CN113239917B (zh) | 一种基于奇异值分解的鲁棒人脸识别方法 | |
Chen et al. | Attention-aware conditional generative adversarial networks for facial age synthesis | |
Wang et al. | Discovering image semantics in codebook derivative space | |
CN114782995A (zh) | 一种基于自注意力机制的人交互行为检测方法 | |
CN115019378A (zh) | 一种面向协同推理的抗数据审查属性推断攻击方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |