CN108596245B - 一种基于多视图协同完整鉴别子空间学习的人脸识别方法 - Google Patents
一种基于多视图协同完整鉴别子空间学习的人脸识别方法 Download PDFInfo
- Publication number
- CN108596245B CN108596245B CN201810364285.5A CN201810364285A CN108596245B CN 108596245 B CN108596245 B CN 108596245B CN 201810364285 A CN201810364285 A CN 201810364285A CN 108596245 B CN108596245 B CN 108596245B
- Authority
- CN
- China
- Prior art keywords
- view
- complete
- subspace
- learning
- solving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
- G06F18/21322—Rendering the within-class scatter matrix non-singular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
- G06F18/21322—Rendering the within-class scatter matrix non-singular
- G06F18/21324—Rendering the within-class scatter matrix non-singular involving projections, e.g. Fisherface techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
技术领域
本发明涉及一种基于多视图协同完整鉴别子空间学习的人脸识别方法。
背景技术
在实际应用中数据通常可以通过多个视图进行表示。例如,在多媒体内容理解中,一段多媒体内容可以通过视频信号和音频信号进行描述;在照片分享网站中,一张图像既可以通过不同的视觉特征进行索引也可以通过用户设定的标签进行索引。通常情况下,不同视图的信息用来描述一个对象不同方面的特征,并且不同视图的信息往往是互补的。因此,仅使用从一个视图中获取的信息往往不能全面的对一个对象进行描述。在诸如分类、聚类和检索应用中,利用视图之间的联系和差异信息来提升性能的做法受到越来越多的关注,并且这些应用都因为使用多视图数据而获得了性能上的提升。为了集成并利用多视图特征,最简单直接的做法是将不同视图的特征向量串联成一个新的向量,然后再使用传统的机器学习方法对新得到的向量进行处理。但是,这种做法往往会引起维数灾难问题。此外,因为每个视图一般都具有不同的统计特性,这种简单串联的特征向量没有明确的物理意义。
近年来,很多有效的多视图子空间学习方法相继被提出并能够很好地应用于人脸识别问题。典型相关分析(Canonical Correlation Analysis,CCA)是较早被提出的经典多视图子空间学习方法。通过将典型相关分析与其它技术(如矩阵分解和无向图模型等)结合在一起,不少基于CCA的多视图子空间学习方法相继被提出。Dhillon等人提出了一种低秩多视图学习方法,该方法对过去和将来两个视图的数据进行典型相关分析来寻找公共的潜在空间结构。为了克服CCA在处理高维向量时的缺陷,Xing等人提出了完整典型相关分析方法。Luo等人提出了张量典型相关分析方法,该方法可以同时对任意数量视图中的数据进行处理。
为了利用多个视图的互补信息,Xia等人提出了一种多视图谱嵌入方法,该方法将多视图特征编码成具有物理意义的嵌入。Guo等人提出了一种基于Cauchy估计器的多视图特征嵌入方法,该方法将多个视图中编码后的互补信息用于学习统一的特征表示和投影矩阵。考虑到不同视图的信息既不完全独立也不完全相关,通过引入正交约束惩罚冗余的潜在特征表示,Salzmann等人提出将待学习的潜在空间分成共享空间和私有空间进行学习。White等人提出了一种凸多视图子空间学习方法来融合多视图互补信息。
通过将最大间隔准则应用于多视图子空间学习,Chen等人提出了一种最大间隔学习框架来寻找具有预见性的潜在子空间。Xu等人提出将高斯过程与最大间隔准则结合用于学习具有鉴别性的潜在子空间。Li等人提出了一种鉴别多视图子空间学习方法,该方法通过最大间隔准则来尽可能地保留特征编码的鉴别信息。
此外,还有大量的基于稀疏表示技术的多视图子空间学习方法被提出。例如,受到结构化稀疏编码技术的启发,Jia等人提出了一种多视图学习方法将潜在的子空间分解成多视图共享的公共空间和每个视图私有的空间。基于Hilbert-Schmidt独立性准则,Gangeh等人提出了多视图监督字典学习方法。
在已有的多视图子空间学习方法中,很多方法需要满足每个视图中包含的信息足以确定每个对象的类别这一条件。事实上,因为每个视图往往描述对象不同方面的特性,因此,每个视图所包含的信息往往不足以用来确定对象的类别。此外,不同视图受到的噪声干扰通常也是不同的。这些问题都使得每个视图在不同学习任务中具有不同的重要性。已有的多视图学习方法大多不重视在多视图学习过程中对每个视图的重要程度进行区分。因此,对多视图协同学习策略进行研究使得不同的视图以合适的权重参与到多视图完整子空间学习中具有重要价值。此外,引入有效的鉴别分析技术来进一步增强潜在完整子空间的鉴别性,进而促进人脸识别精度的提升也就有十分重要的意义。
发明内容
本发明其目的就在于提供一种基于多视图协同完整鉴别子空间学习的人脸识别方法,解决了单个视图信息的不完整性和多视图中的噪声对多视图子空间学习产生不利影响以及增强潜在完整子空间鉴别性问题。
为实现上述目的而采取的技术方案是,一种基于多视图协同完整鉴别子空间学习的人脸识别方法,假设D={zvij|1≤v≤m,1≤i≤c,1≤j≤ni}表示n个训练样本在m个视图中的特征表示,X={xij|1≤i≤c,1≤j≤ni}表示这n个训练样本在潜在完整子空间中的完整特征表示,其中m和c分别表示视图数量和样本的类别数量,ni表示第i类样本的数量,方法包括以下步骤:
(2)鉴于目标函数的非凸性质,通过交替求解的方式得到目标函数的解X、W和Π,即交替地求解如下三个子问题:固定W和Π,求解X;固定X和Π,求解W;固定X和W,求解Π;
(4)基于完整鉴别子空间中测试样本和训练样本之间的欧氏距离,使用最近邻分类器对测试样本进行分类。
有益效果
与现有技术相比本发明具有以下优点。
本发明方法的优点是,在多视图子空间学习过程中可以为不同的视图自动地指定合适的协同学习权重,使不同的视图能够以不同重要程度合理地参与到多视图子空间学习任务中,从而有效地融合利用多视图互补信息进行多视图完整子空间学习。此外,本发明方法中针对完整子空间中的完整特征表示实施的Fisher鉴别分析可以进一步增强潜在完整子空间的鉴别性能,从而能够进一步提升多视图人脸识别性能。
附图说明
以下结合附图对本发明作进一步详述。
图1为本发明方法的工作流程图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明。
一种基于多视图协同完整鉴别子空间学习的人脸识别方法,假设D={zvij|1≤v≤m,1≤i≤c,1≤j≤ni}表示n个训练样本在m个视图中的特征表示,X={xij|1≤i≤c,1≤j≤ni}表示这n个训练样本在潜在完整子空间中的完整特征表示,其中m和c分别表示视图数量和样本的类别数量,ni表示第i类样本的数量,方法包括以下步骤:
(2)鉴于目标函数的非凸性质,通过交替求解的方式得到目标函数的解X、W和Π,即交替地求解如下三个子问题:固定W和Π,求解X;固定X和Π,求解W;固定X和W,求解Π;
(4)基于完整鉴别子空间中测试样本和训练样本之间的欧氏距离,使用最近邻分类器对测试样本进行分类。
步骤(1)中所述的基于Cauchy损失和Fisher鉴别分析的目标函数形式如下:
其中,α为Cauchy损失的尺度参数,λ1和λ2为非负的平衡因子,Wv表示第v个视图的视图生成函数, Π=[π1,...,πv]是由v个非负的协同学习权重构成的向量,tr(·)表示矩阵的迹,(·)T表示转置运算。
步骤(2)中所述的通过交替求解的方式得到目标函数的解X、W和Π,具体为交替地求解如下三个子问题:
(1)固定W和Π,求解X。当固定W和Π后,公式(1)中的目标函数简化为关于完整特征表示X的子问题,即:
(2)固定X和Π,求解W。当固定完整特征表示X和协同学习权重Π后,公式(1)中的目标函数简化为关于视图生成函数W的子问题,即:
(3)固定X和W,求解Π。当固定完整特征表示X和视图生成函数W后,公式(1)中的目标函数简化为关于协同学习权重Π的子问题,即:
步骤(4)中所述的基于完整鉴别子空间中测试样本和训练样本之间的欧氏距离,使用最近邻分类器对测试样本进行分类,具体为求解如下的函数:
其中,xij表示第i类的第j个训练样本在完整子空间的完整特征表示。
具体实施过程主要包括以下步骤:
假设D={zvij|1≤v≤m,1≤i≤c,1≤j≤ni}表示n个训练样本在m个视图中的特征表示,X={xij|1≤i≤c,1≤j≤ni}表示这n个训练样本在潜在完整子空间中的完整特征表示,其中m和c分别表示视图数量和样本的类别数量,ni表示第i类样本的数量,
(1)基于Cauchy损失和Fisher鉴别分析的目标函数构建
特征表示zvij是完整特征表示xij在第v个视图的映射,也就是说有zvij=fv(xij)+εvij成立,其中,εvij是视图独立的噪声。通常情况下,fv(xij)会因为视图信息的不充分而不可逆。对于线性函数fv(xij)=Wvxij,不可逆意味着不是列满秩的。因此,仅使用单个视图的信息往往不能得到样本的完整特征表示。多个视图的信息融合在一起则可以得到样本的完整特征表示。本发明方法的目标是学习对应于v个视图的视图生成函数和n个训练样本在完整子空间的特征表示X={xij|1≤i≤c,1≤j≤ni}。一般情况下,可以通过使用L1或L2损失来最小化经验风险但是,研究表明L1和L2损失对于噪声不具有很好的鲁棒性。而Cauchy损失对于噪声则具有不错的鲁棒性。因此,本发明方法采用Cauchy损失来度量经验风险。
单个视图的信息通常是样本对象某个方面性质的反映,并且不同的视图往往可能受到不同程度的信息损失或噪声污染,因此,在多视图学习中给每个视图指定相同的学习权重是不合理的。此外,因为相关先验知识的缺乏,如何确定哪个视图是最有利于多视图学习的视图并指定合适的权重是非常困难的。为了解决这个问题,本发明方法根据每个视图的重构精度来自动地为不同的视图指定合适的协同学习权重,使各个视图贡献最合适比率的信息,协同地完成子空间学习任务。
在机器学习中,样本的类别标记信息可以有效地指导算法对鉴别信息进行挖掘,进而提升学习到的子空间的鉴别性。Fisher鉴别分析可以有效地结合样本的类别标记信息对鉴别信息进行挖掘。本发明方法将Fisher鉴别分析引入到多视图完整子空间学习中。具体地说,本发明方法通过最小化样本的完整特征表示的类内散度并同时最大化样本的完整特征表示的类间散度来增强样本的完整特征表示的鉴别能力。
根据以上分析,本发明方法的目标函数设计为:
其中,α为Cauchy损失的尺度参数,λ1和λ2为非负的平衡因子,Wv表示第v个视图的视图生成函数, Π=[π1,...,πv]是由v个非负的协同学习权重构成的向量,tr(·)表示矩阵的迹,(·)T表示转置运算。
(2)目标函数的求解
目标函数公式(1)中包含三部分待求解的变量,即:完整特征表示X={xij|1≤i≤c,1≤j≤ni}、视图生成函数和协同学习权重Π=[π1,...,πv]。因为公式(1)中的目标函数是非凸的,因此,无法同时得到三部分待求解变量的解析解。公式(1)中目标函数的解可以通过交替地求解如下三个子问题得到,即:固定W和Π,求解X;固定X和Π,求解W;固定X和W,求解Π。
(a)固定W和Π,求解X
当固定W和Π后,公式(1)中的目标函数简化为关于完整特征表示X的子问题,即:
对公式(3)进行简单的推导可以得到:
通过对J关于xij求导并令导数等于0,可以得到:
进一步推导可以得到:
xij=Θ-1Γ, (7)
其中,
在公式(7)中因为uv又依赖于xij,本发明使用算法1所示的迭代重加权残差(Iteratively Reweighted Residuals,IRR)算法迭代地更新xij直到xij收敛。
算法1迭代重加权残差(IRR)算法
(b)固定X和Π,求解W
当固定完整特征表示X和协同学习权重Π后,公式(1)中的目标函数简化为关于视图生成函数W的子问题。类似于对X进行求解的做法,W的解可以通过求解关于Wv的优化问题来得到,即:
对J求解关于Wv求导,并令导数等于0,可以得到:
对公式(11)进行简单的推导可以得到:
进一步有:
(c)固定X和W,求解Π
当固定完整特征表示X和视图生成函数W后,公式(1)中的目标函数简化为关于协同学习权重Π的子问题,即:
公式(14)中的优化问题可以使用基于Matlab的凸优化问题工具包CVX进行求解。CVX工具包可以通过网址http://cvxr.com/cvx/获取。
(3)测试样本在完整鉴别子空间的完整特征表示的获取
当给定一个测试样本的多视图特征Y={y1,...,ym}时,该测试样本在完整子空间的特征表示y可以通过求解如下的优化问题得到,即:
(4)测试样本的分类
测试样本的所属的类别可以求解通过如下问题得到,即:
其中,xij表示第i类的第j个训练样本在完整子空间的特征表示。
以下结合具体实验对本发明的有益效果进行说明。
LFW数据集包含采集于无约束环境的5749个人的约13000多张图像,其中1680人具有2张或多于2张的图像。在实验中选择每人含有多于10张图像的对象用于实验,并将图像的大小调整为120×120像素。对于选择出来用于实验的对象,每个对象选择10张图像用于构造训练样本集,剩余的图像用于构造测试样本集。在实验中使用Gabor变换特征、Karhunen-Loève(KL)变换特征和局部二进模式(Local Binary Patterns,LBP)特征来构造多视图数据。
对训练样本和测试样本进行5次随机划分来构造5种不同的训练样本集和测试样本集。在每种训练样本集和测试样本集上进行20次实验并报告平均识别率。对于每个方法,本发明通过5折交叉验证来确定合适的参数。对于在LFW数据集上学习得到的潜在空间的维数,本发明经验式地设置为200。
表1总结了本发明提出的方法和相关方法在在LFW数据集上的人脸识别率。其中,凸多视图子空间学习(Convex Multi-view Subspace Learning,CMSL)方法、基于结构化稀疏分解的潜在空间(Factorized Latent Spaces with Structured Sparsity,FLSSS)学习方法和多视图完整空间学习(Multi-view Intact Space Learning,MISL)方法是无监督多视图学习方法;多视图鉴别分析(Multi-view Discriminant Analysis,MvDA)方法、鉴别多视图空间学习(Discriminative Multi-view Space Learning,DMSL)方法和多视图有监督字典学习(Multi-view Supervised Dictionary Learning,MSDL)方法是有监督多视图学习方法。从表1中可以看出有监督多视图子空间学习方法的识别率高于无监督多视图子空间学习方法的识别率,这说明在多视图学习中使用样本的类别标记信息能够更好地指导算法对鉴别信息进行挖掘。需要特别指出的是,在LFW数据集上,本发明方法的识别率比无监督方法分别至少提升7.37%(=95.29%-87.92%)。从表1中还可以看出,本发明方法的识别率高于其它三个有监督多视图子空间学习方法,这说明本发明方法能够更好地将多视图信息和样本的类别标记信息融合在一起用于挖掘更多的鉴别信息。
表1本方法和六个相关方法在LFW数据集上的识别率(%)
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于多视图协同完整鉴别子空间学习的人脸识别方法,其特征在于,假设D={zvij|1≤v≤m,1≤i≤c,1≤j≤ni}表示n个训练样本在m个视图中的特征表示,X={xij|1≤i≤c,1≤j≤ni}表示这n个训练样本在潜在完整子空间中的完整特征表示,其中m和c分别表示视图数量和样本的类别数量,ni表示第i类样本的数量,方法包括以下步骤:
(2)鉴于目标函数的非凸性质,通过交替求解的方式得到目标函数的解X、W和Π,即交替地求解如下三个子问题:固定W和Π,求解X;固定X和Π,求解W;固定X和W,求解Π;
(4)基于完整鉴别子空间中测试样本和训练样本之间的欧氏距离,使用最近邻分类器对测试样本进行分类;
步骤(1)中所述的基于Cauchy损失和Fisher鉴别分析的目标函数形式如下:
2.根据权利要求1所述的一种基于多视图协同完整鉴别子空间学习的人脸识别方法,其特征在于,步骤(2)中所述的通过交替求解的方式得到目标函数的解X、W和Π,具体为交替地求解如下三个子问题:
(1)固定W和Π,求解X;当固定W和Π后,公式(1)中的目标函数简化为关于完整特征表示X的子问题,即:
(2)固定X和Π,求解W;当固定完整特征表示X和协同学习权重Π后,公式(1)中的目标函数简化为关于视图生成函数W的子问题,即:
(3)固定X和W,求解Π;当固定完整特征表示X和视图生成函数W后,公式(1)中的目标函数简化为关于协同学习权重Π的子问题,即:
其中,α为Cauchy损失的尺度参数,λ1和λ2为非负的平衡因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810364285.5A CN108596245B (zh) | 2018-04-20 | 2018-04-20 | 一种基于多视图协同完整鉴别子空间学习的人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810364285.5A CN108596245B (zh) | 2018-04-20 | 2018-04-20 | 一种基于多视图协同完整鉴别子空间学习的人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108596245A CN108596245A (zh) | 2018-09-28 |
CN108596245B true CN108596245B (zh) | 2021-10-15 |
Family
ID=63613870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810364285.5A Active CN108596245B (zh) | 2018-04-20 | 2018-04-20 | 一种基于多视图协同完整鉴别子空间学习的人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108596245B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508686B (zh) * | 2018-11-26 | 2022-06-28 | 南京邮电大学 | 一种基于层次化特征子空间学习的人体行为识别方法 |
CN111860153B (zh) * | 2020-01-09 | 2023-10-13 | 九江学院 | 尺度自适应的高光谱图像分类方法及系统 |
CN111723759B (zh) * | 2020-06-28 | 2023-05-02 | 南京工程学院 | 基于加权张量稀疏图映射的非约束人脸识别方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100463527C (zh) * | 2005-10-18 | 2009-02-18 | 宁波大学 | 一种多视点视频图像视差估计的方法 |
CN101635027B (zh) * | 2009-09-03 | 2011-11-16 | 西安交通大学 | 一种基于集成的局部线性嵌入与线性判别分析结合的多视角车型识别方法 |
CN102063625B (zh) * | 2010-12-10 | 2012-12-26 | 浙江大学 | 一种用于多视角下多目标追踪的改进型粒子滤波方法 |
CN103577841A (zh) * | 2013-11-11 | 2014-02-12 | 浙江大学 | 一种无监督多视图特征选择的人体行为识别方法 |
CN105023006B (zh) * | 2015-08-05 | 2018-05-04 | 西安电子科技大学 | 基于增强型非参数最大边缘准则的人脸识别方法 |
CN106650769A (zh) * | 2016-09-28 | 2017-05-10 | 南京信息工程大学 | 基于线性表示多视图鉴别字典学习的分类方法 |
CN106897669B (zh) * | 2017-01-19 | 2019-12-27 | 同济大学 | 一种基于一致迭代多视角迁移学习的行人再辨识方法 |
CN107316050B (zh) * | 2017-05-19 | 2020-09-29 | 中国科学院西安光学精密机械研究所 | 基于柯西损失函数的子空间自表达模型聚类方法 |
-
2018
- 2018-04-20 CN CN201810364285.5A patent/CN108596245B/zh active Active
Non-Patent Citations (2)
Title |
---|
A Pessimistic Approximation for the Fisher Information Measure;M. S. Stein等;《 IEEE Transactions on Signal Processing》;20170115;第65卷(第2期);第386-396页 * |
Cross-project and within-project semi-supervised software defect prediction problems study using a unified solution;Fei Wu等;《ACM 39th International Conference on Software Engineering Companion (ICSE-C)》;20171231;第195-197页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108596245A (zh) | 2018-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Peng et al. | Learning locality-constrained collaborative representation for robust face recognition | |
Zeng et al. | Learning by associating ambiguously labeled images | |
Fang et al. | Kinship classification by modeling facial feature heredity | |
He et al. | Two-stage nonnegative sparse representation for large-scale face recognition | |
Chi et al. | Classification and boosting with multiple collaborative representations | |
Nie et al. | Adaptive local linear discriminant analysis | |
Liu et al. | Sparse representation using nonnegative curds and whey | |
Zois et al. | A comprehensive study of sparse representation techniques for offline signature verification | |
Laiadi et al. | Tensor cross-view quadratic discriminant analysis for kinship verification in the wild | |
CN108596245B (zh) | 一种基于多视图协同完整鉴别子空间学习的人脸识别方法 | |
Ameur et al. | Fusing Gabor and LBP feature sets for KNN and SRC-based face recognition | |
Ibrahim et al. | Crowdsourcing via pairwise co-occurrences: Identifiability and algorithms | |
Wu et al. | Heterogeneous feature selection by group lasso with logistic regression | |
Chi et al. | Connecting the dots in multi-class classification: From nearest subspace to collaborative representation | |
CN105023006B (zh) | 基于增强型非参数最大边缘准则的人脸识别方法 | |
Prates et al. | Kernel cross-view collaborative representation based classification for person re-identification | |
Yan et al. | Gcfagg: Global and cross-view feature aggregation for multi-view clustering | |
Suo et al. | Structured dictionary learning for classification | |
Zhang et al. | Discriminative tensor sparse coding for image classification. | |
Givens et al. | Biometric face recognition: from classical statistics to future challenges | |
Parde et al. | Closing the gap between single-unit and neural population codes: Insights from deep learning in face recognition | |
Zhao et al. | Novel orthogonal based collaborative dictionary learning for efficient face recognition | |
Zhang et al. | Gender recognition from facial images: two or three dimensions? | |
Ghojogh | Data Reduction Algorithms in Machine Learning and Data Science | |
Zhang et al. | Convolutional dictionary pair learning network for image representation learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221207 Address after: 332001 No. 385, Lushan Road, Xunyang District, Jiujiang City, Jiangxi Province Patentee after: Jiangxi Advance System Engineering Co.,Ltd. Address before: 332000 No. 551 Qianjin East Road, Jiangxi, Jiujiang Patentee before: JIUJIANG University |