CN105608443B - 一种多特征描述及局部决策加权的人脸识别方法 - Google Patents

一种多特征描述及局部决策加权的人脸识别方法 Download PDF

Info

Publication number
CN105608443B
CN105608443B CN201610048294.4A CN201610048294A CN105608443B CN 105608443 B CN105608443 B CN 105608443B CN 201610048294 A CN201610048294 A CN 201610048294A CN 105608443 B CN105608443 B CN 105608443B
Authority
CN
China
Prior art keywords
slgs
pure
face
features
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610048294.4A
Other languages
English (en)
Other versions
CN105608443A (zh
Inventor
任福继
李艳秋
胡敏
许良凤
侯登永
郑瑶娜
余子玺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201610048294.4A priority Critical patent/CN105608443B/zh
Publication of CN105608443A publication Critical patent/CN105608443A/zh
Application granted granted Critical
Publication of CN105608443B publication Critical patent/CN105608443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种多特征描述及局部决策加权的人脸识别方法,包括如下步骤:1、首先利用独立成分分析算法构造全局互补子空间,对待测样本进行粗分类;2、利用提出的统一化局部均值模式结合其他两种纹理描述算法构造局部互补子空间获取粗分类难识别样本的后验概率值;3、根据后验概率值大小设置等级分数,求得待测样本在局部互补子块上的精确决策结果。本发明的意义在于1本发明能有效提高人脸纹理特征表达能力,增强特征表征的精确性;2构造全局和局部两个互补的子空间来描述人脸,仅将难以识别的样本投到局部子空间上进行精确分类,克服了传统方法存在识别率不高或识别时间长的问题。

Description

一种多特征描述及局部决策加权的人脸识别方法
技术领域
本发明涉及到特征提取方法和分类判别,属于模式识别领域,具体地说是一种基于多特征描述及局部决策加权的人脸识别方法。
背景技术
人脸识别是近几年来一个热门的研究课题,人脸图像的描述和分类是人脸识别的两个主要步骤。根据无免费午餐(NFL)定理,不存在某单一算法能在任何情况下都优于其他算法,因此研究图像的多特征和多分类器融合成为当下一个主流的发展方向。
利用全局和局部特征来描述人脸是目前常用的方法。全局特征主要描述和表达人脸整体的属性和信息,局部特征则主要描述面部图像细节变化的信息,往往反映物体的一些内在特征。
相比于全局特征方法,局部特征具有旋转、平移和光照不变性等特点,且具有较高的精度和稳定性,但直接利用局部特征进行图像匹配存在计算量大、不适合用于建立快速高效的人机交互系统等问题。
局部二值模式(Local Binary Pattern,LBP)是一种被广泛应用于人脸识别领域的局部纹理描述算法,具有对光照及表情变化的鲁棒性。近年来,有不少学者对LBP算法提出改进,它们在一定程度上都提高了算法的识别能力,但是它们均是利用邻域点与点之间的局部大小关系来描述纹理信息,而忽略同方向上像素点与中心像素点灰度值的整体关系。当存在随机噪声点或者有光照及边缘变化时,性能就会大大降低。
对称局部图形结构描述子(Symmetric Local Graph Structure,SLGS)算子是最近才被提出的一种纹理描述算法,它是MFA Abdullah在LGS算法上的一种改进,不再局限环形邻域,而且利用较少的像素点来描述纹理特征,但是其仅考虑中心像素点的水平方向,并没有考虑垂直方向,而垂直方向也包括了纹理的众多信息。
发明内容
本发明为避免上述现有技术存在的不足之处,提出一种多特征描述及局部决策融合的人脸识别方法,以期利用不同的特征空间对人脸图像进行充分描述,降低时间复杂度,提高人脸识别的准确率。
本发明为解决技术问题采用如下技术方案:
本发明一种多特征描述及局部决策加权的人脸识别方法的特点是按如下步骤进行:
步骤1、对已知标签的人脸数据库中的人脸图像进行预处理
利用Haar-like小波特征和积分图方法对所述人脸图像中的人脸区域进行检测,并对检测到的人脸区域采用双向灰度积分投影法进行眼睛定位,并对定位后的人脸区域进行归一化处理和直方图均衡化处理,从而获得像素为L×W的纯人脸图像,将所有人脸图像均进行预处理,从而获得纯人脸图像集;
以所述纯人脸图像集作为样本集,选取部分样本作为训练集,剩余部分作为测试集;假设所述训练集中的人脸类别总数为Q;
步骤2、全局互补子空间的构造;
步骤2.1、利用独立成分分析算法对所述训练集中的纯人脸图像进行处理,获得全局独立空间上的变换矩阵;
步骤2.2、将所述训练集投影到所述全局独立空间的变换矩阵上,从而获得训练独立特征集;
步骤2.3、利用线性鉴别分析算法和鉴别共同矢量算法分别对所述训练独立特征集进行处理,获得非零空间上的变换矩阵和零空间上的变换矩阵;由所述非零空间上的变换矩阵和零空间上的变换矩阵构成全局互补子空间;
步骤3、局部互补子空间的构造;
步骤3.1、ULAP局部子空间的构造;
步骤3.1.1、将所述训练集中任意一幅纯人脸图像的任一中心像素点的灰度值记为g(i,j),则所述中心像素点的灰度值g(i,j)的八邻域灰度值分别为g(i-1,j-1)、g(i-1,j)、g(i-1,j+1)、g(i,j-1)、g(i,j+1)、g(i+1,j-1)、g(i+1,j)、g(i+1,j+1);1≤i≤L,1≤j≤W;
步骤3.1.2、利用式(1)获得所述中心像素点的灰度值g(i,j)的局部均值向量[a0,a1,…,ap,…,a7]:
步骤3.1.3、利用式(2)获得所述中心像素点的灰度值g(i,j)的第p个二进制值sp;从而构成所述中心像素点的灰度值g(i,j)的二进制编码[s0,s1,…,sp,…,s7]:0≤p≤7;
步骤3.1.4、将二进制编码[s0,s1,…,sp,…,s7]中首尾两个二进制值进行相连,形成一个环形二进制编码模式;按顺时针方向统计所述环形二进制编码模式中任一相邻的两位二进制值从0到1或从1到0的跳变次数,并判断所述跳变次数是否超过2次,若超过2次,则将所述环形二进制编码模式归为非统一模式,否则,将所述环形二进制编码模式归为统一模式;
步骤3.1.5、利用式(3)获得所述纯人脸图像的中心像素点灰度值g(i,j)的十进制编码值LAP:
步骤3.1.6、将所述训练集中任意一纯人脸图像进行均匀分块,每一分块图像作为一幅子图像,构成纯人脸子图像集;
步骤3.1.7、将所述纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点的灰度值按照步骤3.1.1-步骤3.1.5进行处理,从而获得所述纯人脸子图像的中心像素点的灰度值的十进制编码值LAP;将纯人脸子图像的非统一模式中所有的十进制编码值LAP作为一类;将纯人脸子图像的统一模式中不同的十进制编码值LAP作为不同类;
步骤3.1.8、将纯人脸子图像的统一模式中不同的十进制编码值LAP按升序进行排序,并对排序后的十进制编码值LAP的个数进行统计;对纯人脸子图像的非统一模式中的十进制编码值LAP的个数进行统计;从而获得纯人脸子图像的LAP直方图特征;
步骤3.1.9、重复步骤3.1.7和步骤3.1.8,从而获得所述训练集中任意一纯人脸图像中所有纯人脸子图像的LAP直方图特征,将所有纯人脸子图像的LAP直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得所述训练集中任意一纯人脸图像的ULAP特征;
步骤3.1.10、将所述训练集中所有纯人脸图像按照步骤3.1.6-步骤3.1.9进行处理,从而获得所有纯人脸图像的ULAP特征,并构成ULAP特征集;
步骤3.1.11、利用BP神经网络对ULAP特征集进行训练,得到ULAP局部子空间;
步骤3.2、SLGS局部子空间的构造;
步骤3.2.1、将所述训练集中任意一纯人脸图像的中心像素点的灰度值g(i,j)的水平六邻域灰度值分别记为g(i,j-1)、g(i-1,j-2)、g(i+1,j-2)、g(i,j+1)、g(i-1,j+2)、g(i+1,j+2);
步骤3.2.2、利用式(4)和式(5)获得所述中心像素点的灰度值g(i,j)的二进制编码[s′0,s′1,…,s′p,…,s′7]:
步骤3.2.3、利用式(6)获得所述中心像素点灰度值g(i,j)的十进制编码值SLGS:
步骤3.2.4、按照步骤3.2.1-步骤3.2.3计算所述纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点灰度值g(i,j)的十进制编码值SLGS;
步骤3.2.5、对十进制编码值SLGS按升序进行排序,并对排序后的十进制编码值SLGS的个数进行统计,从而获得纯人脸子图像的SLGS直方图特征;
步骤3.2.6、重复步骤3.2.1和步骤3.2.5,从而获得所述训练集中任意一纯人脸图像中所有纯人脸子图像的SLGS直方图特征,将所有纯人脸子图像的SLGS直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得所述训练集中任意一纯人脸图像的SLGS特征;
步骤3.2.7、将所述训练集中所有纯人脸图像按照步骤3.2.1-步骤3.2.6进行处理,从而获得所有纯人脸图像的SLGS特征,并构成SLGS特征集;
步骤3.2.8、利用BP神经网络对SLGS特征集进行训练,得到SLGS局部子空间;
步骤3.3、V-SLGS局部子空间的构造;
步骤3.3.1、将所述训练集中任意一纯人脸图像的中心像素点的灰度值为g(i,j)的垂直六邻域灰度值分别为g(i-1,j)、g(i-2,j-1)、g(i-2,j+1)、g(i+1,j)、g(i+2,j-1)、g(i+2,j+1);
步骤3.3.2、利用式(5)和式(7)获得所述中心像素点的灰度值g(i,j)的二进制编码[s″0,s″1,…,s″p,…,s″7]:
步骤3.3.3、利用式(8)获得所述中心像素点灰度值g(i,j)的十进制编码值V-SLGS:
步骤3.3.4、按照步骤3.3.1-步骤3.3.3计算所述纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点灰度值g(i,j)的十进制编码值V-SLGS;
步骤3.3.5、对十进制编码值V-SLGS按升序进行排序,并对排序后的十进制编码值V-SLGS的个数进行统计,从而获得纯人脸子图像的V-SLGS直方图特征;
步骤3.3.6、重复步骤3.3.1和步骤3.3.5,从而获得所述训练集中任意一纯人脸图像中所有纯人脸子图像的V-SLGS直方图特征,将所有纯人脸子图像的V-SLGS直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得所述训练集中任意一纯人脸图像的V-SLGS特征;
步骤3.3.7、将所述训练集中所有纯人脸图像按照步骤3.3.1-步骤3.3.6进行处理,从而获得所有纯人脸图像的V-SLGS特征,并构成V-SLGS特征集;
步骤3.3.8、利用BP神经网络对V-SLGS特征集进行训练,得到V-SLGS局部子空间;
步骤3.4、将所述ULAP局部子空间、SLGS局部子空间和V-SLGS局部子空间进行联合,从而构成局部互补子空间;
步骤4、选取所述测试集中的任意一幅纯人脸图像作为测试图像;
步骤4.1、在全局互补子空间上对所述测试图像进行分类识别;
步骤4.1.1、将所述测试图像投影到所述全局独立空间的变换矩阵上,从而获得测试独立特征;
步骤4.1.2、将所述训练独立特征集和测试独立特征分别投影到所述非零空间的变换矩阵上,从而获得训练线性鉴别特征集和测试线性鉴别特征;
步骤4.1.3、将训练独立特征集和测试独立特征分别投影到所述零空间的变换矩阵上,从而获得训练共同矢量特征集和测试共同矢量特征;
步骤4.1.4、求取所述测试线性鉴别特征分别与所述训练线性鉴别特征集中的每个线性鉴别特征的欧式距离,并选取最小欧式距离记为d1;根据所述最小欧式距离d1所对应的训练线性鉴别特征,获得相应的纯人脸图像的标签,记为Lab1
步骤4.1.5、求取所述测试共同矢量特征分别与所述训练共同矢量特征集中的每个共同矢量特征之间的欧式距离,并选取最小欧式距离记为d2;根据所述最小欧式距离d2所对应的训练共同矢量特征,获得相应纯人脸图像的标签,记为Lab2
步骤4.1.6、判断标签Lab1与标签Lab2是否一致,若一致,则将标签Lab1作为测试图像的识别结果;若不一致,则执行步骤4.2;
步骤4.2、利用局部互补子空间对测试图像进行精确分类;
步骤4.2.1、对所述测试图像分别提取ULAP特征、SLGS特征和V-SLGS特征;
步骤4.2.2、将所述测试图像的ULAP特征、SLGS特征和V-SLGS特征分别投影到局部互补子空间上,得到三个特征在所述局部互补空间上属于所述训练集中各个人脸类别的后验概率向量;由三个后验概率向量构成后验概率矩阵;
步骤4.2.3、定义后验概率矩阵中任一元素为yk,q;1≤q≤Q;k表示所述ULAP特征、SLGS特征和V-SLGS特征中的任一特征;1≤k≤3;
步骤4.2.4、初始化k=1;
步骤4.2.5、对第k个特征在所述局部互补空间上的后验概率向量中的元素按升序进行排序,获得了排序后的后验概率向量;
步骤4.2.6、初始化q=1;
步骤4.2.7、令第k行第q个元素yk,q=1/Q-(q-1);
步骤4.2.8、将q+1赋值给q,并判断q>Q是否成立,若成立,则表示获得第k个特征的等级分数,并执行步骤4.2.9;否则,执行步骤4.2.7;
步骤4.2.9、将k+1赋值给k,并判断k>3是否成立,若成立,则表示获得所述测试图像的所有等级分数;否则返回步骤4.2.6执行;
步骤4.2.10、将所述训练集中每个人脸类别所对应的三个特征的等级分数进行累加,获得每个人脸类别的累加值,选择累加值最大的类别作为所述测试图像的所属类别。
与已有技术相比,本发明的有益效果体现在:
1、本发明使用了一种多特征描述及局部决策融合的人脸识别方法,对人脸图像从全局和局部两个角度进行全面的描述,仅将难以识别的样本投到局部子空间上进行精确分类,有效解决了现有的识别方法存在时间复杂度较高和识别精度不高的问题。
2、本发明从“互补”角度对人脸图像进行特征提取,构造了全局和局部两个互补子空间,既考虑到人脸图像的全局性,又兼顾了人脸图像的局部性,相较于以往方法,对人脸图像的描述更加全面。
3、本发明定义了一种新的特征提取算法:局部均值模式,利用水平、垂直以及对角方向灰度值的均值与中心像素点的灰度值大小关系来描述纹理特征。LAP算法能够很好的平滑图像噪声及边缘信息,适用于面部纹理特征的提取,且与现有的纹理特征提取算法相比,具有更好的纹理表征能力。
4、本发明在SLGS算法的基础上,从方向角度对其进行扩充,提出了V-SLGS,弥补SLGS算法在垂直方向纹理信息丢失的缺陷。
5、本发明在进行局部多分类器融合时,避免了传统方法只关注后验概率最大类别的弊端,通过设置等级分数,有效的利用局部互补子空间上不同分类器的类别信息,最终获得精确的分类结果。
6、本发明的测试样本分为两个部分进行测试,首先利用全局特征进行快速匹配,识别出大量样本,针对少量难以识别的样本利用局部互补子空间进行精确匹配,充分利用了全局特征的高效性以及局部特征的精确度高的特点。
附图说明
图1为本发明的流程图;
图2a为ORL数据库的部分样本示意图;
图2b为Yale数据库的部分样本示意图;
图3为本发明人脸图像预处理图;
图4为本发明LAP算子基本思想图;
图5为现有技术中SLGS算子基本思想图;
图6为本发明V-SLGS算子基本思想图;
图7a为ORL库上分块数对两种算法的识别率影响图;
图7b为Yale库上分块数对两种算法的识别率影响图。
具体实施方式
本实施例中,如图1所示,一种多特征描述及局部决策加权的人脸识别方法,包括如下步骤:1、首先利用独立成分分析算法构造全局互补子空间,对待测样本进行粗分类;2、利用提出的统一化局部均值模式结合其他两种纹理描述算法构造局部互补子空间获取粗分类难识别样本的后验概率值;3、根据后验概率值大小设置等级分数,求得待测样本在局部互补子块上的精确决策结果。具体的说是按如下步骤进行:
步骤1、对已知标签的人脸数据库中的人脸图像进行预处理
利用Haar-like小波特征和积分图方法对如图2a或图2b示意的人脸库中的某一幅人脸图像中的人脸区域进行检测,并对检测到的人脸区域采用双向灰度积分投影法进行眼睛定位,并对定位后的人脸区域进行归一化处理和直方图均衡化处理,具体过程如图3所示,从而获得像素为L×W的纯人脸图像,将所有人脸图像都进行预处理,从而获得纯人脸图像集;
以纯人脸图像集作为样本集,选取部分样本作为训练集,剩余部分作为测试集;假设训练集中的人脸类别总数为Q;
步骤2、全局互补子空间的构造;
步骤2.1、利用独立成分分析算法对训练集中的纯人脸图像进行处理,获得全局独立空间上的变换矩阵WICA
假设参加训练的纯人脸图像每类包含N个样本,对每个样本进行展开成一个列向量。表示第i类的第j个样本的列向量,其维数为L×W。假设人脸图像是由一组相互独立的基影像S=[s1,s2,L,sW]T经过矩阵A线性叠加,满足X=AS,利用现有Fast ICA迭代法估计出分离矩阵WICA,满足WICA=A-1
步骤2.2、将训练集投影到所述全局独立空间的变换矩阵上,从而获得训练独立特征集;
步骤2.3、利用线性鉴别分析算法和鉴别共同矢量算法分别对训练独立特征集进行处理,获得非零空间上的变换矩阵和零空间上的变换矩阵;由非零空间上的变换矩阵和零空间上的变换矩阵构成全局互补子空间;
步骤2.3.1在获得的训练独立特征集上,利用式(1)和式(2)所示的线性鉴别分析求取类间散布矩阵Sb和类内散布矩阵Sw
式(1)和式(2)中,pi=Ni/N是每个类的先验概率,Ni是Qi(i=1,2,...,Q)类的训练样本总个数,为Ci类的样本均值,为所有样本的均值,样本类间散布矩阵Sb和类内散布矩阵Sw比值最大的那些正交特征向量构成了最优投影矩阵WLDA,最优投影矩阵WLDA满足式(3):
利用特征值分解的方法求解最优投影矩阵WLDA,如式(4)所示:
SbWLDA=SwWLDAΛ (4)
Fisher准则函数通过求取(Sw)-1Sb前m个较大的特征值对应的特征向量组成的矩阵WLDA
步骤2.3.2、在获得的训练独立特征集上,利用鉴别共同矢量求取投影矩阵WDCV
1)利用式(5)构造第i类差分子空间Bi(i=1,2,...,Q),其列向量张成一个差分子空间:
式(12)中,Bi是第i类的差分子空间,并有:
式(6)中,是第i类的第j个差分矢量,这里是一个参考向量,是从i类随机抽取的一个向量,一般统一选取第一个样本;
式(7)中,B为完备差分子空间;
2)对第i类的差分子空间Bi进行Gram-Schmidt变换得到正交向量集形成一个差分子空间L(Bi);
3)从第i类的任意一个样本投影到正交向量集空间,则有:
第i类的共同矢量为:
共同矢量是唯一的,与k的选取无关,独立于样本它用来表示第i类人脸共有的性质。训练库中有Q个类别,所以这里可以获得Q个共同矢量。
4)利用式(10)和式(11)形成差分共同矢量Bcom
式(10)中,为第i类的差分共同矢量;
对差分共同矢量Bcom进行Gram-Schmidt正交化过程,得到:投影矩阵WDCV=[ω12,L,ωQ-1]
步骤3、局部互补子空间的构造;
步骤3.1、ULAP局部子空间的构造;
步骤3.1.1、LAP算子的计算过程如图4所示:将训练集中任意一幅纯人脸图像的任一中心像素点的灰度值记为g(i,j),则所述中心像素点的灰度值g(i,j)的八邻域灰度值分别为g(i-1,j-1)、g(i-1,j)、g(i-1,j+1)、g(i,j-1)、g(i,j+1)、g(i+1,j-1)、g(i+1,j)、g(i+1,j+1);1≤i≤L,1≤j≤W;
步骤3.1.2、利用式(12)获得中心像素点的灰度值g(i,j)的局部均值向量[a0,a1,…,ap,…,a7]:
步骤3.1.3、利用式(13)获得中心像素点的灰度值g(i,j)的第p个二进制值sp;从而构成中心像素点的灰度值g(i,j)的二进制编码[s0,s1,…,sp,…,s7]:0≤p≤7;
步骤3.1.4、将二进制编码[s0,s1,…,sp,…,s7]中首尾两个二进制值进行相连,形成一个环形二进制编码模式;按顺时针方向统计所述环形二进制编码模式中任一相邻的两位二进制值从0到1或从1到0的跳变次数,并判断跳变次数是否超过2次,若超过2次,则将环形二进制编码模式归为非统一模式,否则,将环形二进制编码模式归为统一模式;非统一模式中,将所有模式类记为一种;非统一模式和统一模式包含的总类数共59种;
步骤3.1.5、利用式(14)获得纯人脸图像的中心像素点灰度值g(i,j)的十进制编码值LAP:
步骤3.1.6、将训练集中任意一纯人脸图像进行均匀分块,每一分块图像作为一幅子图像,构成纯人脸子图像集;
步骤3.1.7、将纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点的灰度值按照步骤3.1.1-步骤3.1.5进行处理,从而获得纯人脸子图像的中心像素点的灰度值的十进制编码值LAP;(对于不存在的邻域点,其灰度值直接记为0)将纯人脸子图像的非统一模式中所有的十进制编码值LAP作为一类;将纯人脸子图像的统一模式中不同的十进制编码值LAP作为不同类;
步骤3.1.8、将纯人脸子图像的统一模式中不同的十进制编码值LAP按升序进行排序,并对排序后的十进制编码值LAP的个数进行统计;对纯人脸子图像的非统一模式中的十进制编码值LAP的个数进行统计;从而获得纯人脸子图像的LAP直方图特征;
步骤3.1.9、重复步骤3.1.7和步骤3.1.8,从而获得训练集中任意一纯人脸图像中所有纯人脸子图像的LAP直方图特征,将所有纯人脸子图像的LAP直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得训练集中任意一纯人脸图像的ULAP特征;
步骤3.1.10、将训练集中所有纯人脸图像按照步骤3.1.6-步骤3.1.9进行处理,从而获得所有纯人脸图像的ULAP特征,并构成ULAP特征集;
步骤3.1.11、利用BP神经网络对ULAP特征集进行训练,得到ULAP局部子空间;
步骤3.2、SLGS局部子空间的构造;
步骤3.2.1、将训练集中任意一纯人脸图像的中心像素点的灰度值g(i,j)的水平六邻域灰度值分别记为g(i,j-1)、g(i-1,j-2)、g(i+1,j-2)、g(i,j+1)、g(i-1,j+2)、g(i+1,j+2);
步骤3.2.2、利用式(15)和式(16)获得所述中心像素点的灰度值g(i,j)的二进制编码[s′0,s′1,…,s′p,…,s′7]:
步骤3.2.3、利用式(17)获得中心像素点灰度值g(i,j)的十进制编码值SLGS:
步骤3.2.4、按照步骤3.2.1-步骤3.2.3计算纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点灰度值g(i,j)的十进制编码值SLGS,图5所示为某一中心像素点的SLGS特征计算示意图;
步骤3.2.5、对十进制编码值SLGS按升序进行排序,并对排序后的十进制编码值SLGS的个数进行统计,从而获得纯人脸子图像的SLGS直方图特征;对于不存在的邻域点,其灰度值直接记为0;
步骤3.2.6、重复步骤3.2.1和步骤3.2.5,从而获得训练集中任意一纯人脸图像中所有纯人脸子图像的SLGS直方图特征,将所有纯人脸子图像的SLGS直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得训练集中任意一纯人脸图像的SLGS特征;
步骤3.2.7、将训练集中所有纯人脸图像按照步骤3.2.1-步骤3.2.6进行处理,从而获得所有纯人脸图像的SLGS特征,并构成SLGS特征集;
步骤3.2.8、利用BP神经网络对SLGS特征集进行训练,得到SLGS局部子空间;
步骤3.3、V-SLGS局部子空间的构造;
步骤3.3.1、将训练集中任意一纯人脸图像的中心像素点的灰度值为g(i,j)的垂直六邻域灰度值分别为g(i-1,j)、g(i-2,j-1)、g(i-2,j+1)、g(i+1,j)、g(i+2,j-1)、g(i+2,j+1);
步骤3.3.2、利用式(16)和式(18)获得中心像素点的灰度值g(i,j)的二进制编码[s″0,s″1,…,s″p,…,s″7]:
步骤3.3.3、利用式(19)获得中心像素点灰度值g(i,j)的十进制编码值V-SLGS:
步骤3.3.4、按照步骤3.3.1-步骤3.3.3计算纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点灰度值g(i,j)的十进制编码值V-SLGS,图6所示为某一中心像素点的V-SLGS特征计算示意图;
步骤3.3.5、对十进制编码值V-SLGS按升序进行排序,并对排序后的十进制编码值V-SLGS的个数进行统计,从而获得纯人脸子图像的V-SLGS直方图特征;
步骤3.3.6、重复步骤3.3.1和步骤3.3.5,从而获得训练集中任意一纯人脸图像中所有纯人脸子图像的V-SLGS直方图特征,将所有纯人脸子图像的V-SLGS直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得训练集中任意一纯人脸图像的V-SLGS特征;
步骤3.3.7、将训练集中所有纯人脸图像按照步骤3.3.1-步骤3.3.6进行处理,从而获得所有纯人脸图像的V-SLGS特征,并构成V-SLGS特征集;
步骤3.3.8、利用BP神经网络对V-SLGS特征集进行训练,得到V-SLGS局部子空间;
步骤3.4、将ULAP局部子空间、SLGS局部子空间和V-SLGS局部子空间进行联合,从而构成局部互补子空间;
步骤4、选取测试集中的任意一幅纯人脸图像作为测试图像;
步骤4.1、在全局互补子空间上对测试图像进行分类识别;
步骤4.1.1、将测试图像投影到全局独立空间的变换矩阵上,从而获得测试独立特征;
步骤4.1.2、将训练独立特征集和测试独立特征分别投影到非零空间的变换矩阵上,从而获得训练线性鉴别特征集和测试线性鉴别特征;
步骤4.1.3、将训练独立特征集和测试独立特征分别投影到所述零空间的变换矩阵上,从而获得训练共同矢量特征集和测试共同矢量特征;
步骤4.1.4、求取测试线性鉴别特征分别与训练线性鉴别特征集中的每个线性鉴别特征的欧式距离,并选取最小欧式距离记为d1;根据最小欧式距离d1所对应的训练线性鉴别特征,获得相应的纯人脸图像的标签,记为Lab1
步骤4.1.5、求取测试共同矢量特征分别与训练共同矢量特征集中的每个共同矢量特征之间的欧式距离,并选取最小欧式距离记为d2;根据最小欧式距离d2所对应的训练共同矢量特征,获得相应纯人脸图像的标签,记为Lab2
步骤4.1.6、判断标签Lab1与标签Lab2是否一致,若一致,则将标签Lab1作为测试图像的识别结果;若不一致,则执行步骤4.2;
步骤4.2、利用局部互补子空间对测试图像进行精确分类;
步骤4.2.1、对测试图像分别提取ULAP特征、SLGS特征和V-SLGS特征;
步骤4.2.2、将测试图像的ULAP特征、SLGS特征和V-SLGS特征分别投影到局部互补子空间上,得到三个特征在所述局部互补空间上属于训练集中各个人脸类别的后验概率向量;由三个后验概率向量构成后验概率矩阵;
步骤4.2.3、定义后验概率矩阵中任一元素为yk,q;1≤q≤Q;k表示所述ULAP特征、SLGS特征和V-SLGS特征中的任一特征;1≤k≤3;
步骤4.2.4、初始化k=1;
步骤4.2.5、对第k个特征在局部互补空间上的后验概率向量中的元素按升序进行排序,获得了排序后的后验概率向量;
步骤4.2.6、初始化q=1;
步骤4.2.7、令第k行第q个元素yk,q=1/Q-(q-1);
步骤4.2.8、将q+1赋值给q,并判断q>Q是否成立,若成立,则表示获得第k个特征的等级分数,并执行步骤4.2.9;否则,执行步骤4.2.7;
步骤4.2.9、将k+1赋值给k,并判断k>3是否成立,若成立,则表示获得测试图像的所有等级分数;否则返回步骤4.2.6执行;
步骤4.2.10、将训练集中每个人脸类别所对应的三个特征的等级分数进行累加,获得每个人脸类别的累加值,选择累加值最大的类别作为所述测试图像的所属类别。
采用ORL人脸库和Yale人脸库作为样本集;ORL人脸库是由英国剑桥AT&T实验室创建,由40个不同年龄、不同性别和不同种族的人组成,每个人有10幅不同的人脸图像,共400幅图像;Yale库由165幅人脸图像,共包含15个人,每个人有11幅不同的人脸图像组成,主要包括光照条件、表情的变化。
实验1不同算法识别率的对比
实验时,随机选取每人的k幅图像构成训练样本集,剩下的图像构成测试样本集。首先将人脸图像进行分块处理,在ORL库上,将人脸图像归一化为96×96大小,分成6×6块;在Yale库上,将人脸图像归一化为95×95大小,分成5×5块。然后对每一块分别进行LAP求取纹理直方图特征,并将其串联。本文采用Chi平方统计法计算直方图特征相似度,最后根据最近邻准则进行分类。对不同人脸库分别进行5次识别实验,最后的识别率均为平均识别率。实验结果如表1所示:
表1 不同算法在不同人脸库上错误率比较(单位:%)
实验2不同分块时,SLGS和V-SLGS算法的识别率对比
实验时,在ORL和Yale人脸库上分别随机选取每人5幅图像作为训练样本,各自剩下的图像作为测试样本。将人脸图像分成K×K块,分别选用最近邻(NN)和BP神经网络作为分类器,每个分类器实验均进行五次,最后的识别率为平均识别率。实验结果如图7a和图7b所示。实验结果表明V-SLGS算法在描述人脸垂直纹理信息上的有效性。
实验3多决策分类结果
实验时,在ORL人脸库上,随机选取每人3-6幅图像作为训练样本,Yale库上随机选取每人4-6幅图像作为训练样本,各自剩下的图像作为测试样本。表2为多决策方法的分类结果。
表2 多决策方法的分类结果(单位:%)
S1表示粗分类结果相同的样本个数,S1中错分样本数表示虽然分类结果相同,但是被错分的样本。从实验结果可以看出,S1中的错分数较少,这说明粗分类时,较难识别的待测样本大多都被分到不同的类。以ORL库为例,当3个训练样本时,错分的样本数是13,其中8个是S1中的样本,另外5个是无法被正确分类的样本。我们注意到,经过全局补空间分类时,最初有29个样本被分到不同的类,经过局部补空间分类后,有24个样本被正确分类。训练样本是4、5、6个时的情况是类似的。从实验结果来看,S1中的错分样本在整体识别错误的样本中占据比较大的比例,虽然逐渐减少,但这部分样本也直接影响着最终的识别率。因此,下一步的研究方向是寻找能使得S1中的错分数更加有效降低的互补算法。
实验4各个算法识别率比较
在ORL和Yale人脸库上均随机选取每人5幅图像作为训练样本,各自剩下的图像作为测试样本。表3为本发明方法与其他算法的识别率对比。
表3 各种方法的识别率比较(单位:%)
针对独立特征缺少分类信息,将FLDA和DCV算法作为互补空间对ICA求取具有鉴别能力的特征,有效提高了独立特征的识别率。本发明利用ULAP、SLGS和V-SLGS构造局部互补子空间,将在全局互补子空间上难以识别的样本投影到局部互补子空间上进一步精确分类,最终多决策方法得到的识别率高于融合之前各个互补子空间上的识别率。与现有方法的比较也表明了本发明方法的有效性。
实验5不同算法特征维数、识别时间的对比
在ORL和Yale库上随机选取每人5幅图像作为训练样本,各自剩下的作为测试样本。在全局互补子空间上特征维数较小,使其训练及分类速度较快。对于粗分类无法识别的样本,利用纹理特征构造的局部互补子空间对其进行再次分类,此时只需识别一个相对较小的子集,而不是整个测试集,有效的减少训练及分类时间。
表4 不同算法特征维数、识别时间的对比(单位:秒)
综上所述,本发明的意义在于:1本发明能有效提高人脸纹理特征表达能力,增强特征表征的精确性;2构造全局和局部两个互补的子空间来描述人脸,仅将难以识别的样本投到局部子空间上进行精确分类,克服了传统方法存在识别率不高或识别时间长的问题。

Claims (1)

1.一种多特征描述及局部决策加权的人脸识别方法,其特征是按如下步骤进行:
步骤1、对已知标签的人脸数据库中的人脸图像进行预处理;
利用Haar-like小波特征和积分图方法对所述人脸图像中的人脸区域进行检测,并对检测到的人脸区域采用双向灰度积分投影法进行眼睛定位,并对定位后的人脸区域进行归一化处理和直方图均衡化处理,从而获得像素为L×W的纯人脸图像,将所有人脸图像均进行预处理,从而获得纯人脸图像集;
以所述纯人脸图像集作为样本集,选取部分样本作为训练集,剩余部分作为测试集;假设所述训练集中的人脸类别总数为Q;
步骤2、全局互补子空间的构造;
步骤2.1、利用独立成分分析算法对所述训练集中的纯人脸图像进行处理,获得全局独立空间上的变换矩阵;
步骤2.2、将所述训练集投影到所述全局独立空间的变换矩阵上,从而获得训练独立特征集;
步骤2.3、利用线性鉴别分析算法和鉴别共同矢量算法分别对所述训练独立特征集进行处理,获得非零空间上的变换矩阵和零空间上的变换矩阵;由所述非零空间上的变换矩阵和零空间上的变换矩阵构成全局互补子空间;
步骤3、局部互补子空间的构造;
步骤3.1、ULAP局部子空间的构造;
步骤3.1.1、将所述训练集中任意一幅纯人脸图像的任一中心像素点的灰度值记为g(i,j),则所述中心像素点的灰度值g(i,j)的八邻域灰度值分别为g(i-1,j-1)、g(i-1,j)、g(i-1,j+1)、g(i,j-1)、g(i,j+1)、g(i+1,j-1)、g(i+1,j)、g(i+1,j+1);1≤i≤L,1≤j≤W;
步骤3.1.2、利用式(1)获得所述中心像素点的灰度值g(i,j)的局部均值向量[a0,a1,…,ap,…,a7]:
步骤3.1.3、利用式(2)获得所述中心像素点的灰度值g(i,j)的第p个二进制值sp;从而构成所述中心像素点的灰度值g(i,j)的二进制编码[s0,s1,…,sp,…,s7]:0≤p≤7;
步骤3.1.4、将二进制编码[s0,s1,…,sp,…,s7]中首尾两个二进制值进行相连,形成一个环形二进制编码模式;按顺时针方向统计所述环形二进制编码模式中任一相邻的两位二进制值从0到1或从1到0的跳变次数,并判断所述跳变次数是否超过2次,若超过2次,则将所述环形二进制编码模式归为非统一模式,否则,将所述环形二进制编码模式归为统一模式;
步骤3.1.5、利用式(3)获得所述纯人脸图像的中心像素点灰度值g(i,j)的十进制编码值LAP:
步骤3.1.6、将所述训练集中任意一纯人脸图像进行均匀分块,每一分块图像作为一幅子图像,构成纯人脸子图像集;
步骤3.1.7、将所述纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点的灰度值按照步骤3.1.1-步骤3.1.5进行处理,从而获得所述纯人脸子图像的中心像素点的灰度值的十进制编码值LAP;将纯人脸子图像的非统一模式中所有的十进制编码值LAP作为一类;将纯人脸子图像的统一模式中不同的十进制编码值LAP作为不同类;
步骤3.1.8、将纯人脸子图像的统一模式中不同的十进制编码值LAP按升序进行排序,并对排序后的十进制编码值LAP的个数进行统计;对纯人脸子图像的非统一模式中的十进制编码值LAP的个数进行统计;从而获得纯人脸子图像的LAP直方图特征;
步骤3.1.9、重复步骤3.1.7和步骤3.1.8,从而获得所述训练集中任意一纯人脸图像中所有纯人脸子图像的LAP直方图特征,将所有纯人脸子图像的LAP直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得所述训练集中任意一纯人脸图像的ULAP特征;
步骤3.1.10、将所述训练集中所有纯人脸图像按照步骤3.1.6-步骤3.1.9进行处理,从而获得所有纯人脸图像的ULAP特征,并构成ULAP特征集;
步骤3.1.11、利用BP神经网络对ULAP特征集进行训练,得到ULAP局部子空间;
步骤3.2、SLGS局部子空间的构造;
步骤3.2.1、将所述训练集中任意一纯人脸图像的中心像素点的灰度值g(i,j)的水平六邻域灰度值分别记为g(i,j-1)、g(i-1,j-2)、g(i+1,j-2)、g(i,j+1)、g(i-1,j+2)、g(i+1,j+2);
步骤3.2.2、利用式(4)和式(5)获得所述中心像素点的灰度值g(i,j)的二进制编码[s′0,s′1,…,s′p,…,s′7]:
步骤3.2.3、利用式(6)获得所述中心像素点灰度值g(i,j)的十进制编码值SLGS:
步骤3.2.4、按照步骤3.2.1-步骤3.2.3计算所述纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点灰度值g(i,j)的十进制编码值SLGS;
步骤3.2.5、对十进制编码值SLGS按升序进行排序,并对排序后的十进制编码值SLGS的个数进行统计,从而获得纯人脸子图像的SLGS直方图特征;
步骤3.2.6、重复步骤3.2.1和步骤3.2.5,从而获得所述训练集中任意一纯人脸图像中所有纯人脸子图像的SLGS直方图特征,将所有纯人脸子图像的SLGS直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得所述训练集中任意一纯人脸图像的SLGS特征;
步骤3.2.7、将所述训练集中所有纯人脸图像按照步骤3.2.1-步骤3.2.6进行处理,从而获得所有纯人脸图像的SLGS特征,并构成SLGS特征集;
步骤3.2.8、利用BP神经网络对SLGS特征集进行训练,得到SLGS局部子空间;
步骤3.3、V-SLGS局部子空间的构造;
步骤3.3.1、将所述训练集中任意一纯人脸图像的中心像素点的灰度值为g(i,j)的垂直六邻域灰度值分别为g(i-1,j)、g(i-2,j-1)、g(i-2,j+1)、g(i+1,j)、g(i+2,j-1)、g(i+2,j+1);
步骤3.3.2、利用式(5)和式(7)获得所述中心像素点的灰度值g(i,j)的二进制编码[s″0,s″1,…,s″p,…,s″7]:
步骤3.3.3、利用式(8)获得所述中心像素点灰度值g(i,j)的十进制编码值V-SLGS:
步骤3.3.4、按照步骤3.3.1-步骤3.3.3计算所述纯人脸子图像集中任意一幅纯人脸子图像的任一中心像素点灰度值g(i,j)的十进制编码值V-SLGS;
步骤3.3.5、对十进制编码值V-SLGS按升序进行排序,并对排序后的十进制编码值V-SLGS的个数进行统计,从而获得纯人脸子图像的V-SLGS直方图特征;
步骤3.3.6、重复步骤3.3.1和步骤3.3.5,从而获得所述训练集中任意一纯人脸图像中所有纯人脸子图像的V-SLGS直方图特征,将所有纯人脸子图像的V-SLGS直方图特征按照由左到右、由上到下的顺序进行级联;从而可获得所述训练集中任意一纯人脸图像的V-SLGS特征;
步骤3.3.7、将所述训练集中所有纯人脸图像按照步骤3.3.1-步骤3.3.6进行处理,从而获得所有纯人脸图像的V-SLGS特征,并构成V-SLGS特征集;
步骤3.3.8、利用BP神经网络对V-SLGS特征集进行训练,得到V-SLGS局部子空间;
步骤3.4、将所述ULAP局部子空间、SLGS局部子空间和V-SLGS局部子空间进行联合,从而构成局部互补子空间;
步骤4、选取所述测试集中的任意一幅纯人脸图像作为测试图像;
步骤4.1、在全局互补子空间上对所述测试图像进行分类识别;
步骤4.1.1、将所述测试图像投影到所述全局独立空间的变换矩阵上,从而获得测试独立特征;
步骤4.1.2、将所述训练独立特征集和测试独立特征分别投影到所述非零空间的变换矩阵上,从而获得训练线性鉴别特征集和测试线性鉴别特征;
步骤4.1.3、将训练独立特征集和测试独立特征分别投影到所述零空间的变换矩阵上,从而获得训练共同矢量特征集和测试共同矢量特征;
步骤4.1.4、求取所述测试线性鉴别特征分别与所述训练线性鉴别特征集中的每个线性鉴别特征的欧式距离,并选取最小欧式距离记为d1;根据所述最小欧式距离d1所对应的训练线性鉴别特征,获得相应的纯人脸图像的标签,记为Lab1
步骤4.1.5、求取所述测试共同矢量特征分别与所述训练共同矢量特征集中的每个共同矢量特征之间的欧式距离,并选取最小欧式距离记为d2;根据所述最小欧式距离d2所对应的训练共同矢量特征,获得相应纯人脸图像的标签,记为Lab2
步骤4.1.6、判断标签Lab1与标签Lab2是否一致,若一致,则将标签Lab1作为测试图像的识别结果;若不一致,则执行步骤4.2;
步骤4.2、利用局部互补子空间对测试图像进行精确分类;
步骤4.2.1、对所述测试图像分别提取ULAP特征、SLGS特征和V-SLGS特征;
步骤4.2.2、将所述测试图像的ULAP特征、SLGS特征和V-SLGS特征分别投影到局部互补子空间上,得到三个特征在所述局部互补空间上属于所述训练集中各个人脸类别的后验概率向量;由三个后验概率向量构成后验概率矩阵;
步骤4.2.3、定义后验概率矩阵中任一元素为yk,q;1≤q≤Q;k表示所述ULAP特征、SLGS特征和V-SLGS特征中的任一特征;1≤k≤3;
步骤4.2.4、初始化k=1;
步骤4.2.5、对第k个特征在所述局部互补空间上的后验概率向量中的元素按升序进行排序,获得了排序后的后验概率向量;
步骤4.2.6、初始化q=1;
步骤4.2.7、令第k行第q个元素yk,q=1/Q-(q-1);
步骤4.2.8、将q+1赋值给q,并判断q>Q是否成立,若成立,则表示获得第k个特征的等级分数,并执行步骤4.2.9;否则,执行步骤4.2.7;
步骤4.2.9、将k+1赋值给k,并判断k>3是否成立,若成立,则表示获得所述测试图像的所有等级分数;否则返回步骤4.2.6执行;
步骤4.2.10、将所述训练集中每个人脸类别所对应的三个特征的等级分数进行累加,获得每个人脸类别的累加值,选择累加值最大的类别作为所述测试图像的所属类别。
CN201610048294.4A 2016-01-22 2016-01-22 一种多特征描述及局部决策加权的人脸识别方法 Active CN105608443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610048294.4A CN105608443B (zh) 2016-01-22 2016-01-22 一种多特征描述及局部决策加权的人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610048294.4A CN105608443B (zh) 2016-01-22 2016-01-22 一种多特征描述及局部决策加权的人脸识别方法

Publications (2)

Publication Number Publication Date
CN105608443A CN105608443A (zh) 2016-05-25
CN105608443B true CN105608443B (zh) 2018-10-02

Family

ID=55988369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610048294.4A Active CN105608443B (zh) 2016-01-22 2016-01-22 一种多特征描述及局部决策加权的人脸识别方法

Country Status (1)

Country Link
CN (1) CN105608443B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326927B (zh) * 2016-08-24 2019-06-04 大连海事大学 一种鞋印新类别检测方法
CN106529504B (zh) * 2016-12-02 2019-05-31 合肥工业大学 一种复合时空特征的双模态视频情感识别方法
CN107229949A (zh) * 2017-05-25 2017-10-03 贵州宇鹏科技有限责任公司 一种复杂光照下图像特征提取方法
CN107832690B (zh) * 2017-10-30 2020-12-08 Oppo广东移动通信有限公司 人脸识别的方法及相关产品
CN112396121B (zh) * 2020-11-30 2024-02-02 北京华正明天信息技术股份有限公司 基于神经网络的烟雾图像分类方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101388075A (zh) * 2008-10-11 2009-03-18 大连大学 基于独立特征融合的人脸识别方法
CN101441716A (zh) * 2008-11-27 2009-05-27 上海交通大学 面向鉴别的整体和局部特征融合识别系统
CN104008375A (zh) * 2014-06-04 2014-08-27 北京工业大学 基于特征融合的集成人脸识别方法
CN104318219A (zh) * 2014-10-31 2015-01-28 上海交通大学 基于局部特征及全局特征结合的人脸识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224042B2 (en) * 2009-03-12 2012-07-17 Seiko Epson Corporation Automatic face recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101388075A (zh) * 2008-10-11 2009-03-18 大连大学 基于独立特征融合的人脸识别方法
CN101441716A (zh) * 2008-11-27 2009-05-27 上海交通大学 面向鉴别的整体和局部特征融合识别系统
CN104008375A (zh) * 2014-06-04 2014-08-27 北京工业大学 基于特征融合的集成人脸识别方法
CN104318219A (zh) * 2014-10-31 2015-01-28 上海交通大学 基于局部特征及全局特征结合的人脸识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Feature Extraction by Fusing Local and Global Discriminant Features: An Application to Face Recognition;Shiladitya Chowdhury et al.;《IEEE International Conference on Computational Intelligence and Computing Research》;20110131;第1-4页 *
基于多特征决策级融合的表情识别方法;黄忠 等;《计算机工程》;20151031;第41卷(第10期);第171-176页 *
基于独立成分分析的人脸识别方法研究;李艳秋;《中国学位论文全文数据库(万方)》;20150730;全文 *

Also Published As

Publication number Publication date
CN105608443A (zh) 2016-05-25

Similar Documents

Publication Publication Date Title
CN106650806B (zh) 一种用于行人检测的协同式深度网络模型方法
Li et al. SHREC’14 track: Extended large scale sketch-based 3D shape retrieval
Zhao et al. Learning mid-level filters for person re-identification
CN105608443B (zh) 一种多特征描述及局部决策加权的人脸识别方法
Liu et al. Extended local binary patterns for texture classification
Cevikalp et al. Efficient object detection using cascades of nearest convex model classifiers
CN102938065B (zh) 基于大规模图像数据的人脸特征提取方法及人脸识别方法
CN109902590A (zh) 深度多视图特征距离学习的行人重识别方法
CN105488809A (zh) 基于rgbd描述符的室内场景语义分割方法
CN108564094A (zh) 一种基于卷积神经网络和分类器组合的材质识别方法
Wang et al. Object proposal by multi-branch hierarchical segmentation
CN104504362A (zh) 基于卷积神经网络的人脸检测方法
CN106127228A (zh) 一种基于决策模板分类器融合的遥感图像船舶检测候选区鉴别方法
CN111414958B (zh) 一种视觉词袋金字塔的多特征图像分类方法及系统
Liu et al. Fusing sorted random projections for robust texture and material classification
CN102034107A (zh) 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法
CN109325507A (zh) 一种结合超像素显著性特征与hog特征的图像分类算法和系统
Zhang et al. Large-scale aerial image categorization using a multitask topological codebook
CN104156690A (zh) 一种基于图像空间金字塔特征包的手势识别方法
Symeonidis et al. Neural attention-driven non-maximum suppression for person detection
Zhao et al. Combining multiple SVM classifiers for adult image recognition
Chen et al. Generalized Haar-like features for fast face detection
Sharma et al. Deep convolutional neural network with ResNet-50 learning algorithm for copy-move forgery detection
CN102129557A (zh) 一种基于lda子空间学习的人脸识别方法
Opelt et al. Fusing shape and appearance information for object category detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant