CN108021950B - 基于低秩稀疏表示的图像分类方法 - Google Patents

基于低秩稀疏表示的图像分类方法 Download PDF

Info

Publication number
CN108021950B
CN108021950B CN201711465846.2A CN201711465846A CN108021950B CN 108021950 B CN108021950 B CN 108021950B CN 201711465846 A CN201711465846 A CN 201711465846A CN 108021950 B CN108021950 B CN 108021950B
Authority
CN
China
Prior art keywords
image
matrix
updating
projection matrix
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711465846.2A
Other languages
English (en)
Other versions
CN108021950A (zh
Inventor
刘中华
张琳
陈永刚
刘刚
郑林涛
普杰信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University of Science and Technology
Original Assignee
Henan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University of Science and Technology filed Critical Henan University of Science and Technology
Priority to CN201711465846.2A priority Critical patent/CN108021950B/zh
Publication of CN108021950A publication Critical patent/CN108021950A/zh
Application granted granted Critical
Publication of CN108021950B publication Critical patent/CN108021950B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2136Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

基于低秩稀疏表示的图像分类方法,包括以下步骤:将训练样本A和测试样本Y的每一列分别归一化为单位L2范数;计算投影矩阵P;计算训练样本A的投影矩阵A';计算测试样本Y的投影矩阵Y';使用最近邻分类器完成分类任务。本发明有益效果:本发明将稀疏表示、低秩表示和判别投影集成到一个框架中,并考虑了观测数据的局部和全局结构信息,与其他降维方法相比,该方法对离群点和噪声具有更强的鲁棒性。

Description

基于低秩稀疏表示的图像分类方法
技术领域
本发明涉及图像识别技术领域,具体地说是基于低秩稀疏表示的图像分类方法。
背景技术
图像识别是生物识别,计算机视觉和机器学习中最具吸引力和具有挑战性的研究课题之一。然而,原始的数据图像通常是高维的,这将导致在图像识别过程中需要大量的计算和较高的内存。而且,原始的高维图像数据通常包含大量的噪声信息,这会降低图像识别的性能。为了解决这些问题,提出了许多特征提取方法来降维。最经典且有代表性的降维方法有主成分分析(PCA)和线性判别分析(LDA)。PCA是一种无监督算法,在这个算法中保留了全局方差,且重构误差最小;LDA是一种有监督算法,投影空间中类间散布矩阵(SB)最大化,而类内散布矩阵(SW)最小化。由于PCA和LDA简单有效,所以提出了许多基于PCA或LDA的线性降维算法。模块化图像PCA和加权模块化图像PCA都使用模块化图像分解技术进行特征提取。但是,目前的方法都不能处理新样本,换句话说,这些方法中没有投影矩阵,他们不能处理新的样本。为了解决这个问题,本文提出了局部保持投影(LPP)算法,以获得保存局部信息的嵌入投影轴。
稀疏表示被广泛用于稀疏重构,图像识别,去噪,图像分类等。Wright等人首先将稀疏表示引入图像识别,并给出了一种基于稀疏表示的分类(SRC)算法。在SRC中,所有训练样本用于线性表示新样本。当同一类信息的训练样本与新样本对应的线性表示系数不为零,其余系数均为零时,将获得很好的分类性能。L1范数优化问题可以满足上述要求,这是SRC的关键。受SRC和图像重建的启发,Wei等人提出了一个局部敏感的字典学习算法。稀疏表示不能很好地描述样本的判别信息。为了解决这个问题,提出了基于SRC的Fisher判别准则(SRC-FDC)算法。在SRC-FDC中,局部重建关系和空间欧氏分布都具有很好的特征。Wang等人提出了一种流形正则化局部稀疏表示(mrlsr)算法。通过将流形学习为核心的SRC(改进算法),提出了核局部SRC算法(klsrc)。在这些方法中,每个类对应的重构误差被用来作为分类识别的判别信息。然而,类信息和判别信息没有被强制执行到稀疏编码系数中。
低秩矩阵表示已成为计算机视觉,人工智能和机器学习领域最受欢迎的研究领域之一,引起了人们的高度重视。为了解决子空间聚类问题,恢复观测数据的子空间结构,提出了低秩表示(LRR)算法。通过求解一个基于核范数正则化的优化问题,LRR可以得到所有样本的最低秩表示。数据的局部结构信息对于聚类和分类问题尤为重要。但是,这个信息被LRR忽略。因此,Peng等人建立了一种基于流形学习的新型LRR(MLRR)方法。Zhang等人提出了一种低秩矩阵分解方法,在矩阵分解中引入流形正则化方法。为了得到低秩表示的最大似然估计解,通过求解重新加权的不精确增广拉格朗日乘子算法,提出了一个鲁棒的低秩表示。在低秩表示中,所有子空间都是独立的。但是,这种推定通常不适用,Tang等人提出了一个基于结构约束的LRR(SC-LRR)来解决这个问题。在LRR算法中,预计子空间是独立的,然而,他们并没有像预期的那样独立。此外,SRC和LRR属于无监督的方法,他们不利用类别信息,这对分类是非常重要的。因此,本文提出了一种基于鲁棒低秩稀疏表示的特征提取方法,即基于低稀疏表示的图像分类方法。
发明内容
本发明所要解决的技术问题是提供基于低秩稀疏表示的图像分类方法,解决现有方法不能处理新的样本等问题。
本发明为解决上述技术问题所采用的技术方案是:基于低秩稀疏表示的图像分类方法,包括以下步骤:
步骤一、来自C类训练样本矩阵A=[A1,A2,…,Ac]∈Rm×N,测试样本Y=[y1,y2,…,yM]∈Rm×M,将训练样本A和测试样本Y的每一列分别归一化为单位L2范数,其中N表示训练样本个数,M表示测试样本个数,m表示样本的维数;
步骤二、计算投影矩阵P;
步骤三、计算训练样本A的投影矩阵A':A'=PA;
步骤四、计算测试样本Y的投影矩阵Y':Y'=PY;
步骤五、使用最近邻分类器完成分类任务。
所述步骤二中计算投影矩阵P的方法为:
步骤2.1、初始化:令参数λ>0,γ>0,α>0,η>0,Z0=W0=E0=Y10=Y20=0,P0为随机矩阵,μ0=0.1,μmax=1010,ρ=1.1,ε=10-3,maxiter=1000,k=0,其中μ为惩罚参数,k为迭代次数,η和α为平衡因子,Z、W和E为系数矩阵,Y1k,Y2k为拉格朗日乘数;
步骤2.2、使用公式(1)更新系数矩阵Z:
Figure BDA0001531145660000031
Figure BDA0001531145660000032
Figure BDA0001531145660000033
步骤2.3、使用公式(2)更新系数矩阵W:
Figure BDA0001531145660000034
步骤2.4、使用公式(3)更新系数矩阵E:
Figure BDA0001531145660000035
步骤2.5、使用公式(4)更新拉格朗日乘数:
Y1(k+1)=Y1kk(A-AZk+1-Ek+1),Y2(k+1)=Y2kk(Zk+1-Wk+1) (4);
步骤2.6、使用公式(5)更新惩罚变量μ:
μk+1=min(ρμkmax) (5);
步骤2.7、根据公式(6)更新投影矩阵P:
Figure BDA0001531145660000036
步骤2.8、检查收敛:如果
(||A-AZk+1-Ek+1||<εand||Zk+1-Wk+1||<ε)ork>maxiter,则输出投影矩阵P,否则,令k=k+1,同时返回步骤2.2继续进行循环,直到输出投影矩阵P。
本发明的有益效果是:1)本发明将稀疏表示、低秩表示和判别投影集成到一个框架中,并考虑了观测数据的局部和全局结构信息,数据点的局部结构信息和全局信息都是通过稀疏表示和低秩表示来保存的,而且,观测数据的类别信息被充分利用;2)与其他降维方法相比,该方法对离群点和噪声具有更强的鲁棒性。
附图说明
图1为Yale数据库中同一个对象在不同条件下的面部图像;
图2为Yale数据库中的识别率与相应维度之间的关系图;
图3为CMUPIE数据库中同一个对象在不同条件下的图像;
图4为PIE数据库的识别率与相应维数的关系图;
图5为GeorgiaTech人脸数据库中同一个对象在不同条件下的图像;
图6为GeorgiaTech数据库的识别率与相应维数的关系图;
图7为FERET数据库中同一个对象在不同条件下的图像;
图8为FERET数据库数据库的识别率与相应维数的关系图;
图9为PolyU掌纹数据库中同一个手掌的六个图像;
图10为PolyU掌纹数据库的识别率与相应维数的关系图;
图11为AR数据库中同一个主体在不同条件下的图像;
图12为AR数据库的识别率与相应维数的关系图。
具体实施方式
基于低秩稀疏表示的图像分类方法,包括以下步骤:
步骤一、来自C类训练样本矩阵A=[A1,A2,…,Ac]∈Rm×N,测试样本Y=[y1,y2,…,yM]∈Rm×M,将训练样本A和测试样本Y的每一列分别归一化为单位L2范数,其中N表示训练样本个数,M表示测试样本个数,m表示样本的维数。
步骤二、计算投影矩阵P:
步骤2.1、初始化:令参数λ>0,γ>0,α>0,η>0,Z0=W0=E0=Y10=Y20=0,P0为随机矩阵,μ0=0.1,μmax=1010,ρ=1.1,ε=10-3,maxiter=1000,k=0,其中μ为惩罚参数,k为迭代次数,η和α为平衡因子,Z、W和E为系数矩阵,Y1k,Y2k为拉格朗日乘数;
步骤2.2、使用公式(1)更新系数矩阵Z:
Figure BDA0001531145660000051
Figure BDA0001531145660000052
Figure BDA0001531145660000053
步骤2.3、使用公式(2)更新系数矩阵W:
Figure BDA0001531145660000054
步骤2.4、使用公式(3)更新系数矩阵E:
Figure BDA0001531145660000055
步骤2.5、使用公式(4)更新拉格朗日乘数:
Y1(k+1)=Y1kk(A-AZk+1-Ek+1),Y2(k+1)=Y2kk(Zk+1-Wk+1) (4);
步骤2.6、使用公式(5)更新惩罚变量μ:
μk+1=min(ρμkmax) (5);
步骤2.7、根据公式(6)更新投影矩阵P:
Figure BDA0001531145660000056
步骤2.8、检查收敛:如果
(||A-AZk+1-Ek+1||<εand||Zk+1-Wk+1||<ε)or k>maxiter,则输出投影矩阵P,否则,令k=k+1,同时返回步骤2.2继续进行循环,直到输出投影矩阵P。
步骤三、计算训练样本A的投影矩阵A':A'=PA。
步骤四、计算测试样本Y的投影矩阵Y':Y'=PY。
步骤五、使用最近邻分类器完成分类任务。
实验数据
为了验证本发明方法(简写为DP-LRSR方法)的有效性,在6个公开的图像数据库上进行了大量的光照和姿势变化。为了有所比较,对一些有影响的算法如PCA,LPP,LSDA,DP-SR,LRR-DP和LSPP也进行了实验。通过上述方法提取特征后,采用最近邻分类器完成这些方法的分类任务。为了节省时间,在运行我们的方法和其他对比方法之前,可以通过将PCA应用于训练样本A和测试样本Y=[y1,y2,…,yM]来初始化以减小尺寸,即A=PpcaA,Y=PpcaY。另外,在实验中选择了每个参数的最优值。
(1)Yale图像数据库实验
Yale图像数据库包括165张来自15个人的人脸图像,每个对象在不同的照明条件和不同的面部表情下有11张人脸图像。所有图像在实验中设置为25×20像素。图1显示了同一个对象在不同条件下的面部图像。
在这个实验中,每个人的前五个图像被用作训练集,其余的每个人的图像被用作测试集。对于本发明方法,参数η,λ,γ和α分别设置为10,0.09,1和0.5。对于LPP和LSDA,K最近邻数分别被设置为5和6。DP-SR中的参数λ1和λ2分别设为0.05和0.9。LRR-DP的参数ξ和λ分别设为1和0.5。LSPP的参数k,γI和γE分别设为8,5×10-4和10-4。图2列出了识别率与维度之间的关系。从图2可以看出,本发明方法在所有算法中都达到了最佳识别性能。当维数在35至65之间时,LPP和DP-LRSR方法的识别性能更接近。表1给出了7种算法的最大识别率。从表1可以看出,DP-LRSR在维数为15维时的识别率是98.89%。
表1 Yale人脸库上不同算法的最大识别率(百分比)及其相应的维数
方法 PCA LPP LSDA DP-SR DP-LRSR LRR-DP LSPP
识别率 88.89 96.67 94.44 93.33 98.89 97.78 96.53
维数 20 20 30 15 15 20 30
(2)CMU PIE图像数据库实验
CMU PIE数据库拥有来自68个人的41368张图像。图像是在各种表情,照明和姿势下获得的。本文选择同一个表情和姿势,但是不同照明条件下的21幅面部图像。所有的图像被设置为32×32像素。图3列出了同一个对象在不同条件下的图像。
在这个实验中,每个人的前3个图像被用于训练样本,其余的图像用于测试样本。对于DP-LRSR方法,参数η,λ,γ和α分别设置为10,0.05,1和2。对于LPP和LSDA,K最近邻数设置为5。DP-SR中的参数λ1和λ2分别设为0.005和2.5。LRR-DP的参数ξ和λ分别设为1和0.5。LSPP的参数k,γI和γE分别设为5,5×10-4和10-4。图4给出了识别结果,从图4中可以看出,DP-LRSR方法可以得到与其他算法相当的结果。但它在所有的比较算法中达到了最高的识别率。最大识别率见表2。PCA,LPP,LSDA,DP-SR,DP-LRSR,LRR-DP和LSPP的最高识别率分别为69.12%,95.10%,98.53%,69.12%,99.18%,97.12%和96.98%。
表2所有算法在PIE数据库中的最大识别率(百分比)及其相应的维数
方法 PCA LPP LSDA DP-SR DP-LRSR LRR-DP LSPP
识别率 69.12 95.10 98.53 69.12 99.18 97.12 96.98
维数 65 65 55 70 70 65 65
(3)GeorgiaTech数据库实验
GeorgiaTech数据库(GT)包含来自50个对象的图像数据,这些数据在两到三次会话中被获得。GT数据库是由乔治亚理工学院制作。每个对象都有15张背景混乱的彩色图像。图像数据的大小是640x480像素。不同尺寸下的图像,各种照明和表情可能是正面的和/或倾斜的。每个图像被裁剪到60×50像素。此外,所有彩色图像都被转换成灰度图像。图5显示了同一个对象在不同条件下的图像。表3列出了最大识别率。
在这个实验中,每个人的前7张图像被用作训练样本,剩余的图像被用作测试样本。对于DP-LRSR方法,参数η,λ,γ和α分别设置为1.5,0.09,1和1.5。对于LPP和LSDA,K最近邻数分别被设置为6和8。DP-SR中的参数λ1和λ2分别设为0.005和2。LRR-DP的参数ξ和λ分别设为1和0.5。LSPP的参数k,γI和γE分别设为10,5×10-4和10-4。识别性能如图6所示,从图6可以看出,DP-LRSR的识别性能优于其他方法,且与尺寸的变化无关。表3列出了最大识别率,从表3可以看出,当维数为20时,DP-LRSR的识别率最高。
表3所有算法在Georgia Tech数据库中的最大识别率(百分比)及其相应的维数
方法 PCA LPP LSDA DP-SR DP-LRSR LRR-DP LSPP
识别率 70.25 69 70.63 70.75 72.75 69.82 70.9
维数 40 60 200 150 20 60 170
(4)FERET数据库实验
FERET图像数据库[52]共包含1565个对象的13539个图像。这些图像在不同的面部表情和照明下被捕获。我们选择一个子集,其中包括来自200个对象的1400个图像,每个对象有7个图像。所有的图像被调整为40×40像素。图7显示了同一个对象的在不同条件下的图像。
对于这个实验,每个主体的前3个图像被用作训练样本,剩余的图像被用作测试样本。对于DP-LRSR方法,参数η,λ,γ和α分别设置为10,0.4,1和1.5。对于LPP和LSDA,K最近邻数分别被设置为10和6。DP-SR中的参数λ1和λ2分别设为0.5和1.5。LRR-DP的参数ξ和λ分别设为1和0.5。LSPP的参数k,γI和γE分别设为5,5×10-4和10-4。图8列出了所有方法的识别率。当维数大于20时,DP-LRSR方法的识别率优于其他算法。最大识别率如表4所示。当尺维数为150时,DP-LRSR的最大识别率为55.75%。
表4所有算法在FERET数据库中的最大识别率(百分比)及其相应的维数
方法 PCA LPP LSDA DP-SR DP-LRSR LRR-DP LSPP
识别率 45.87 42.18 51.12 54.25 55.75 51.75 52.87
维数 90 170 160 200 150 50 170
(5)PolyU掌纹数据库实验
在PolyU数据库中,有来自100个不同手掌的600个掌纹图像,每个手掌包含6个图像。每个手掌的所有图像在两个会话中获得,其中每个手掌的前三个图像在第一个会话中获得,并且每个手掌的其余图像在第二个会话中获得。所有图像被调整为64×64像素。图9显示了同一个手掌的6个掌纹图像。
在本实验中,随机选取每个手掌任意三个掌纹图像作为训练样本,其余三个掌纹图像作为测试集。实验重复5次。对于DP-LRSR方法,参数η,λ,γ和α分别设置为0.5,0.09,1和3。对于LPP和LSDA,K最近邻数分别被设置为4和6。DP-SR中的参数λ1和λ2分别设为0.05和0.9。LRR-DP的参数ξ和λ分别设为1和0.5。LSPP的参数k,γI和γE分别设为5,5×10-4和10-4。图10显示了平均识别率。从图10可以看出,DP-LRSR可以在所有方法中具有最好的识别性能。表5显示了最大平均识别率。从表5可知,DP-LRSR方法的最大平均识别率在维数为140时为97.12%。
表5所有算法在PolyU掌纹数据库中的最大识别率(百分比)及其相应的维数
方法 PCA LPP LSDA DP-SR DP-LRSR LRR-DP LSPP
识别率 61 77.67 92.8 69 97.12 95.41 93.98
维数 120 180 200 100 140 120 200
(6)AR图像数据库实验
AR数据库拥有来自126个主体的4000多个彩色图像。每个主体包含26个正面视图,这些图像在各种光照,表情和遮挡条件下被捕捉。来自120个主体的图像在两个会话中被捕获,并且每个会话中有26个彩色人脸图像。所有的图像调整为50×40像素。另外,所有图像都被转换成灰度图像。图11显示了同一个主体的在不同条件下的图像。
在这个实验中,选取了两个会话中每个对象的14个不遮挡图像作为实验对象。随机选取每个对象的7幅面部图像作为训练集,其余的每幅图像用于测试集。每个实验重复5次。对于DP-LRSR方法,参数η,λ,γ和α分别设置为0.5,0.09,1和2。对于LPP和LSDA,K最近邻数设置为7。DP-SR中的参数λ1和λ2分别设为0.05和0.9。LRR-DP的参数ξ和λ分别设为1和0.5。LSPP的参数k,γI和γE分别设为8,5×10-4和10-4。图12显示了平均识别率与维度变化的关系。表6列出了每种方法的最大平均识别率和相应的维数。从图12可以看出,DP-LRSR方法在所有算法中达到了最佳识别性能。DP-LRSR平均最高识别率为67.38%。
表6所有算法在AR数据库中的最大识别率(百分比)及其相应的维数
方法 PCA LPP LSDA DP-SR DP-LRSR LRR-DP LSPP
识别率 63.95 63.93 65.13 65.92 67.38 66.73 65.13
维数 160 140 180 200 100 140 180

Claims (1)

1.基于低秩稀疏表示的图像分类方法,其特征在于:包括以下步骤:
步骤一、来自C类图像训练样本矩阵A=[A1,A2,…,AC]∈Rm×N,图像测试样本Y=[y1,y2,…,yM]∈Rm×M,将图像训练样本A和图像测试样本Y的每一列分别归一化为单位L2范数,其中N表示图像训练样本个数,M表示图像测试样本个数,m表示样本的维数;
步骤二、计算投影矩阵P,具体方法为:
步骤2.1、初始化:令参数λ>0,γ>0,α>0,η>0,Z0=W0=E0=Y10=Y20=0,P0为随机矩阵,μ0=0.1,μmax=1010,ρ=1.1,ε=10-3,maxiter=1000,k=0,其中μ为惩罚参数,k为迭代次数,η和α为平衡因子,Z、W和E为系数矩阵,Y1k,Y2k为拉格朗日乘数;
步骤2.2、使用公式(1)更新系数矩阵Z:
Figure FDA0003011769680000011
Figure FDA0003011769680000012
步骤2.3、使用公式(2)更新系数矩阵W:
Figure FDA0003011769680000013
步骤2.4、使用公式(3)更新系数矩阵E:
Figure FDA0003011769680000014
步骤2.5、使用公式(4)更新拉格朗日乘数:
Y1(k+1)=Y1kk(A-AZk+1-Ek+1),Y2(k+1)=Y2kk(Zk+1-Wk+1) (4);
步骤2.6、使用公式(5)更新惩罚变量μ:
μk+1=min(ρμkmax) (5);
步骤2.7、根据公式(6)更新投影矩阵P:
Figure FDA0003011769680000021
步骤2.8、检查收敛:如果(||A-AZk+1-Ek+1||<εand||Zk+1-Wk+1||<ε)ork>maxiter,则输出投影矩阵P,否则,令k=k+1,同时返回步骤2.2继续进行循环,直到输出投影矩阵P;
步骤三、计算图像训练样本A的投影矩阵A':A'=PA;
步骤四、计算图像测试样本Y的投影矩阵Y':Y'=PY;
步骤五、使用最近邻分类器完成分类任务。
CN201711465846.2A 2017-12-28 2017-12-28 基于低秩稀疏表示的图像分类方法 Active CN108021950B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711465846.2A CN108021950B (zh) 2017-12-28 2017-12-28 基于低秩稀疏表示的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711465846.2A CN108021950B (zh) 2017-12-28 2017-12-28 基于低秩稀疏表示的图像分类方法

Publications (2)

Publication Number Publication Date
CN108021950A CN108021950A (zh) 2018-05-11
CN108021950B true CN108021950B (zh) 2021-05-25

Family

ID=62072075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711465846.2A Active CN108021950B (zh) 2017-12-28 2017-12-28 基于低秩稀疏表示的图像分类方法

Country Status (1)

Country Link
CN (1) CN108021950B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110032704B (zh) * 2018-05-15 2023-06-09 腾讯科技(深圳)有限公司 数据处理方法、装置、终端及存储介质
CN109359525B (zh) * 2018-09-07 2021-01-29 西安电子科技大学 基于稀疏低秩的判别谱聚类的极化sar图像分类方法
CN109754018B (zh) * 2019-01-09 2021-07-30 北京工业大学 一种基于f范数的低秩局部保持投影的图像识别方法
CN110287973B (zh) * 2019-06-19 2022-10-11 安徽工程大学 一种基于低秩鲁棒线性鉴别分析的图像特征提取方法
CN111611293B (zh) * 2020-04-24 2023-09-29 太原太工天宇教育科技有限公司 一种基于特征加权与MapReduce的离群数据挖掘方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056131A (zh) * 2016-05-19 2016-10-26 西安电子科技大学 基于lrr‑lda的图像特征提取方法
CN107145841A (zh) * 2017-07-20 2017-09-08 深圳大学 一种基于矩阵的低秩稀疏人脸识别方法及其系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318261B (zh) * 2014-11-03 2016-04-27 河南大学 一种基于图嵌入低秩稀疏表示恢复的稀疏表示人脸识别方法
US9697614B2 (en) * 2014-12-08 2017-07-04 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting and tracking content in videos using low-dimensional subspaces and sparse vectors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056131A (zh) * 2016-05-19 2016-10-26 西安电子科技大学 基于lrr‑lda的图像特征提取方法
CN107145841A (zh) * 2017-07-20 2017-09-08 深圳大学 一种基于矩阵的低秩稀疏人脸识别方法及其系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Face Recognition Based on Discriminative Low-rank Matrix Recovery with Sparse Constraint;Xue Zhou 等;《2016 12th International Conference on Computational Intelligence and Security》;20170119;全文 *
Low-Rank Embedding for Robust Image Feature Extraction;Wai Keung Wong 等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20170406;第26卷(第6期);全文 *
基于低秩稀疏图的结构保持投影算法;杨国亮 等;《计算机工程与科学》;20150831;第37卷(第8期);全文 *

Also Published As

Publication number Publication date
CN108021950A (zh) 2018-05-11

Similar Documents

Publication Publication Date Title
CN108021950B (zh) 基于低秩稀疏表示的图像分类方法
Yang et al. Sparse representation classifier steered discriminative projection with applications to face recognition
Li et al. Learning robust and discriminative subspace with low-rank constraints
Li et al. Discriminant locally linear embedding with high-order tensor data
He et al. Maximum correntropy criterion for robust face recognition
Guo et al. A study on automatic age estimation using a large database
Shi et al. Rapid face recognition using hashing
Mallouh et al. Utilizing CNNs and transfer learning of pre-trained models for age range classification from unconstrained face images
Liu et al. Learning expressionlets via universal manifold model for dynamic facial expression recognition
Mashhoori et al. Block-wise two-directional 2DPCA with ensemble learning for face recognition
Ptucha et al. Manifold based sparse representation for facial understanding in natural images
CN109241813B (zh) 基于判别稀疏保持嵌入的非约束人脸图像降维方法
Liu et al. Bilinear discriminative dictionary learning for face recognition
Abdi et al. Entropy based dictionary learning for image classification
Maronidis et al. Improving subspace learning for facial expression recognition using person dependent and geometrically enriched training sets
Bao et al. General subspace learning with corrupted training data via graph embedding
Abbad et al. Application of MEEMD in post‐processing of dimensionality reduction methods for face recognition
Perez et al. Local matching Gabor entropy weighted face recognition
Zhao et al. A modular weighted sparse representation based on Fisher discriminant and sparse residual for face recognition with occlusion
CN110956113B (zh) 基于二次协作表示鉴别投影的鲁棒人脸识别方法
Bekhouche Facial soft biometrics: extracting demographic traits
Zhang et al. Kernel dictionary learning based discriminant analysis
CN110287973B (zh) 一种基于低秩鲁棒线性鉴别分析的图像特征提取方法
Zheng et al. Heteroscedastic sparse representation based classification for face recognition
Yao A compressed deep convolutional neural networks for face recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant