CN107194364A - 一种基于分治策略的Huffman‑LBP多姿态人脸识别方法 - Google Patents

一种基于分治策略的Huffman‑LBP多姿态人脸识别方法 Download PDF

Info

Publication number
CN107194364A
CN107194364A CN201710407910.5A CN201710407910A CN107194364A CN 107194364 A CN107194364 A CN 107194364A CN 201710407910 A CN201710407910 A CN 201710407910A CN 107194364 A CN107194364 A CN 107194364A
Authority
CN
China
Prior art keywords
mrow
msub
mtd
msup
mtr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710407910.5A
Other languages
English (en)
Other versions
CN107194364B (zh
Inventor
周丽芳
杜跃伟
李伟生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201710407910.5A priority Critical patent/CN107194364B/zh
Publication of CN107194364A publication Critical patent/CN107194364A/zh
Application granted granted Critical
Publication of CN107194364B publication Critical patent/CN107194364B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

本发明请求保护一种基于分治策略的Huffman‑LBP多姿态人脸识别方法,属于模式识别技术领域。所述方法主要包括以下步骤:对输入图像进行预处理(人脸检测,特征点标定);再通过区域选择因子筛选出不同姿态的人脸图像中有益于识别的人脸区域;构建Huffman‑LBP算子对所选择的人脸区域进行特征提取;最终通过基于图像块的SRC融合分类策略进行分类。本发明利用哈夫曼编码评估出了图像邻域中对比度的权重关系,增强了特征的表达能力。此外,人脸表达与分类步骤中均借助了分治策略,提升了本方法在人脸姿态变化时识别的鲁棒性。

Description

一种基于分治策略的Huffman-LBP多姿态人脸识别方法
技术领域
本发明涉及计算机模式识别技术领域,具体地说,是一种人脸识别方法。
背景技术
近年来,人脸识别因其具有无侵犯性,运营设备低,交互力强等独特优点,而受到广大学者的关注,成为模式识别领域最为活跃的研究课题之一。目前,控制环境下的人脸识别技术已经非常成熟,取得了较高的识别率。然而,在实际应用中,人脸图像经常会伴随着姿态、光照、表情和遮挡等因素的影响,严重影响了人脸识别的精度,其中姿态变化是影响人脸识别走向实用化的瓶颈之一。
一些研究人员一直在致力于解决姿态变化下的人脸识别问题,并且已经取得了一些研究成果。基于3D技术的方法的主要思想是:通过评估深度信息和最小化重建差异的方式来拟合出2D人脸对应的3D人脸模型,再通过3D归一化的手段,重建出统一的人脸视图。其最具代表性的方法是3DMM,此类方法从造成姿态变化的根源—3D刚性变换着手,取得了好的识别结果,但是还存在一些缺点:需要大量的离线深度信息,扫描设备复杂,拟合过程困难等。相比3D方法,基于2D技术的方法更容易被实施和应用,2D方法大致可以分为三类,第一类的方法试图通过回归模型找出不同姿态图像之间的关系,此类方法的代表方法有:局部线性回归(Locally Linear Regression,LLR),正交Procrustes回归 (OrthogonalProcrustes Regression,OPR)等。第二类的方法通过重建虚拟视图将不同姿态的人脸图像归一化为统一视图,以便可以使用传统的人脸识别算法进行识别,例如:马尔可夫随机场(Markov random Fields,MRFs)。此类方法重建的虚拟图像往往存在失真和扭曲现象,容易导致误识别。第三类的方法尝试在多姿态的人脸中提取姿态鲁棒的特征,比如:局部Gabor二值模式(Local Gabor Binary Pattern,LGBP),弹性图匹配(Elastic Bunch GraphMatching, EBGM),深度神经网络(Deep Neutral Networks,DNN)等。
由于人脸的姿态偏转会造成图像像素无法对准的情况,所以基于全局的特征提取方法对姿态变化十分敏感,相比之下,局部的特征提取方法只作用在图像的一些孤立区域上,对姿态变化带来的影响有所缓解,在局部特征提取方法中,最具代表的就是局部二值模式(Local Binary Patterns,LBP),LBP不需要精确的模式位置信息,而是用直方图的方式来统计局部区域内的特征信息,它对小于15°范围内的姿态偏转都具有一定的鲁棒性。但是LBP在计算过程中忽略了对对比度信息的评估,有时会造成重要纹理信息的丢失。
从2009年稀疏表达分类(Sparse Representation based Classification,SRC)被引入人脸识别领域以来,SRC因其对图像缺损和遮挡的鲁棒性而受到广大研究者的喜爱,近年来,一些研究者将LBP与SRC相结合,在一定程度上解决了字典的小样本问题,但是对于姿态变化下的识别问题,依旧是个难点。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种有效的提高了算法对姿态变化的容忍能力。本方法获得了较好的识别效果。本发明的技术方案如下:
一种基于分治策略的Huffman-LBP多姿态人脸识别方法,其包括以下步骤:
101、获取人脸图像,并对人脸图像进行预处理,包括人脸检测和特征点标定;
102、再通过区域选择因子筛选出不同姿态的人脸图像中有益于识别的人脸区域;
103、构建Huffman-LBP算子对所选择的有益于识别的人脸区域进行特征提取;
104、最终通过基于图像块的SRC融合分类策略对测试图像进行分类,得到最终人脸识别结果。
进一步的,所述步骤101所述对人脸图像进行预处理包括:
A1、使用基于树模型和稀疏编码直方图特征的方法对图像进行人脸检测,去除图像背景;
A2、利用多任务约束深度卷积网络(Tasks-Constrained Deep ConvolutionalNetwork,TCDCN)对步骤A1中检测后的人脸图像进行特征点标定;
A3、去除人脸轮廓上容易随姿态变化而发生移位的标定点(人脸轮廓上的标定点),并选择脸部器官周围的特征点作为兴趣点。
进一步的,所述步骤102:通过区域选择因子对不同姿态的人脸图像进行划分,并筛选出有益于识别的人脸区域,具体步骤为:
B1、通过连接鼻尖和眉心将人脸划分为左右两个人脸区域;
B2、根据步骤A2标定出的特征点,定位出双眼中心和两鬓的位置;
B3、根据区域选择因子公式,通过右眼中心到右鬓的距离L1以及左眼中心到左鬓的距离L2,求取区域选择因子RSF:
说明左侧人脸区域对识别是有效的,所以左侧人脸区域中的特征将会被提取出来,用来表达人脸;若RSF>α,说明右侧人脸区域是有效的,右侧人脸区域中的特征将会被用来表达人脸;同样的,若整个人脸区域的特征将会被提取出来,用来表达人脸。
进一步的,所述步骤B2通过双眼轮廓上标定点的坐标,求取双眼中心的位置的公式为:
其中,xeyes_center和yeyes_center分别是待求取的眼睛中心的x轴和y轴的坐标,xeye_contours和yeye_contours分别是由眼睛轮廓上标定点的x轴和y轴的坐标组成的集合:xeye_contours={x1,x2...xn},yeye_contours={y1,y2...yn},n为眼睛轮廓上标定点的个数。
进一步的,所述步骤103中Huffman-LBP算子的求取方法为:
C1、在中心像素灰度值为gc,半径为R的图像邻域中,分别求取p个周围像素gt与中心像素gc的灰度差值:gt-gc,t=0,1,...,p-1,
C2、分别对由像素邻域中正负对比度值的绝对值组成的序列进行Huffman 编码:
其中index+={t|gt-gc≥0}={l1,l2,...ln},index-={t|gt-gc<0}={k1,k2,...km};
C3、根据公式(4),通过Huffman编码的长度length(c),求取对比度的权重:
C4、根据公式(5),求取中心像素的Huffman-LBP特征值:
其中s+和s-是阈值函数,定义如下:
进一步的,所述步骤103将所有人脸图像块的Huffman-LBP直方图特征向量进行级联,形成特征池:右侧人脸:{Vj j=1,2,...,25},左侧人脸:{Vj j=18,19,...,42} 和完整人脸:{Vj j=1,2,...,42},其中Vj=[h1,h2,...,hk],j表示每个特征点的标号,hm表示图像块j中第m个小块的Huffman-LBP直方图特征,k表示每个图像块中划分的小块的数量。
进一步的,所述步骤104中基于图像块的SRC融合分类策略,具体步骤为: D1、将从每个训练集图像的相同特征点上的图像块中提取得到的直方图特征向量组成独立的子字典:Dm,Dm+1...,Dn,其中n-m是训练图像上图像块的数量, Di=[v1,i,v2,i,...,vp,i],vj,i是第j类图像上第i个图像块的直方图特征向量,p是图像的类别数;
D2、通过区域选择因子对测试图像进行分而治之的表达(划分图像并筛选出对识别有益的人脸区域),再通过Huffman-LBP进行特征提取,形成特征池: {vs,vs+1,...,vz},其中z-s是测试图像上提取的图像块的数量;
D3、二范数单位化vi和Di的每一列,其中max(m,s)≤i≤min(n,z);
D4、根据公式(7)求解出测试图像上每个图像块的稀疏表达系数:
subject to||Dix-vi||2≤ε (7)
D5、根据公式(8)求取每个图像块的残差向量:
其中j=1,...,p,δj函数的功能是挑选出和第j类相关的稀疏系数;
D6、根据公式(9)将对由所有图像块的残差向量相加得到的扩增残差向量进行排序,得到最终的识别结果:
本发明的优点及有益效果如下:
本发明主要针对目前流行的基于虚拟视图重建的方法存在图像失真的缺陷,设计了一种不改变图像结构,不进行扭转和重建,整个识别过程都只在原始图像上进行的鲁棒的多姿态人脸识别方法。在特征提取阶段,Huffman-LBP算子弥补了局部二值模式(LBP)的缺陷,利用Huffman编码对图像邻域中对比度的权重进行了衡量,提高了算子对人脸局部纹理的表达能力,此外,人脸表达和分类过程中均借鉴了分而治之的思想,区域选择因子(RSF)被用来对不同姿态的人脸图像进行划分,从而确定出人脸中有益于识别的人脸区域,基于图像块的SRC融合分类的策略使得整个识别过程在对姿态变化较为不敏感的图像块上执行,有效的提高了算法对姿态变化的容忍能力。本方法获得了较好的识别效果。
附图说明
图1是本发明提供优选实施例基于分治策略的Huffman-LBP多姿态人脸识别方法流程图;
图2是人脸预处理的流程图;
图3是通过区域选择因子(RSF)进行分而治之的人脸表达的过程;
图4是Huffman-LBP算子的编码过程;
图5是人脸图像上特征点的标签位置展示图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
如附图1所示,一种基于分治策略的Huffman-LBP多姿态人脸识别方法包括以下步骤:
1.如附图2所示,对输入图像进行预处理:
1)使用基于树模型和稀疏编码直方图的方法对训练图像和测试图像进行人脸检测,定位出人脸区域的位置,并去除掉干扰识别的图像背景;
2)利用多任务约束深度卷积网络(Tasks-Constrained Deep ConvolutionalNetwork,TCDCN)对检测后的人脸图像进行特征点标定;
3)去除容易随姿态变化而发生移位的标定点(人脸轮廓上的标定点),并选择脸部器官(眉毛、眼睛、鼻子、嘴巴)周围的特征点作为兴趣点。
2.如附图3所示,通过区域选择因子(RSF)对预处理后的图像进行分而治之的人脸表达:
1)通过连接鼻尖和眉心将人脸划分为左右两个人脸区域;
2)根据公式(1),通过双眼轮廓上标定点的坐标,求取双眼中心的位置:
其中,xeyes_center和yeyes_center分别是待求取的眼睛中心的x轴和y轴的坐标,xeye_contours和yeye_contours分别是由眼睛轮廓上标定点的x轴和y轴的坐标组成的集合:xeye_contours={x1,x2...xn},yeye_contours={y1,y2...yn},n为眼睛轮廓上标定点的个数。
3)根据公式(2),通过右眼到右鬓的距离L1以及左眼到左鬓的距离L2,求取区域选择因子(RSF):
说明左侧人脸区域对识别是有效的,所以左侧人脸区域中的特征将会被提取出来,用来表达人脸;若RSF>α,说明右侧人脸区域是有效的,右侧人脸区域中的特征将会被用来表达人脸;同样的,若整个人脸区域的特征被提取出来,用来表达人脸。阈值α通过实验训练得到。
4)在RSF所确定的有效人脸区域上以每个特征点为中心提取固定边长的图像块,并将每个图像块再次划分为互不重叠的图像小块。
3.通过Huffman-LBP提取每个图像块的特征,编码过程如附图4所示:
1)在中心像素灰度值为gc,半径为R的图像邻域中,分别求取p个周围像素gt与中心像素gc的灰度差值:gt-gc(t=0,1,...,p-1);
2)分别对由像素邻域中正负对比度值的绝对值组成的序列进行Huffman 编码:
其中index+={t|gt-gc≥0}={l1,l2,...ln},index-={t|gt-gc<0}={k1,k2,...km}
3)根据公式(5),通过Huffman编码的长度length(c),求取对比度的权重:
4)根据公式(6),求取中心像素的Huffman-LBP特征值:
其中s+和s-是阈值函数,定义如下:
5)将所有图像块的Huffman-LBP直方图特征向量进行级联,形成特征池:右侧人脸:{Vj j=1,2,...,25},左侧人脸:{Vj j=18,19,...,42}和完整人脸: {Vj j=1,2,...,42},其中Vj=[h1,h2,...,hk],如附图5所示,j表示每个特征点的标号,hm表示图像块j中第m个小块的Huffman-LBP直方图特征,k表示每个图像块中划分的小块的数量。
4.采用基于图像块的SRC融合分类策略对测试图像进行分类,分类流程如下:
为了验证本发明的效果,进行了以下实验:
实验平台:i7处理器,8G内存的计算机。
编程软件:MATLAB 2014b。
实验数据库:CMU PIE、FERET。
实验方法:
1)在CMU PIE数据库上,以C27子集中的正面人脸图像作为训练集,分别以C37、C05、C29和C11子集中不同偏转角度的人脸图像作为测试集,测试了本发明的识别性能,此外,本发明的实验结果还与基于马尔科夫随机场(Markov random fields,MRFs)的方法、局部线性回归(Locally Linear Regression,LLR)以及特征光场(Eigen Light-Field, ELF)进行了比较,对比结果如表1所示,可以看出,本发明在以不同姿态人脸作为测试集的情况下,识别性能都达到了最佳,且较其他方法更具有稳定性。
表1各个方法在CMU PIE数据库上的识别性能对比
2)在FERET数据库上,以ba子集中的正面人脸图像作为训练集,分别以 bc(40°),bd(25°)、be(15°)、bf(-15°)、bg(-25°)和bh(-40°)子集中的人脸图像作为测试集,测试了本发明的识别性能,此外,本发明的实验结果还与基于形变位移场(MorphableDisplacement Field,MDF)的3D方法、堆叠渐进式自动编码器(Stacked ProgressiveAuto-Encoders,SPAE) 以及岭回归与Gabor特征相结合的方法(Ridge Regression withGabor features,RRG)进行了比较,对比结果如表2所示,可以看出,本发明的识别性能在大多数情况下都要优于其他方法,虽然,在以bc子集中的图像作为测试集时,基于形变位移场的方法的识别率要高于本发明,但是需要注意的是,基于形变位移场的方法利用了3D信息,而3D信息的获取在实际应用中是比较困难的。
表2各个方法在FERET数据库上的识别性能对比
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (7)

1.一种基于分治策略的Huffman-LBP多姿态人脸识别方法,其特征在于,包括以下步骤:
101、获取人脸图像,并对人脸图像进行预处理,包括人脸检测和特征点标定;
102、再通过区域选择因子筛选出不同姿态的人脸图像中有益于识别的人脸区域;
103、构建Huffman-LBP算子对所选择的有益于识别的人脸区域进行特征提取;
104、最终通过基于图像块的SRC融合分类策略对测试图像进行分类,得到最终人脸识别结果。
2.根据权利要求1所述的基于分治策略的Huffman-LBP多姿态人脸识别方法,其特征在于,所述步骤101中对人脸图像进行预处理包括:
A1、使用基于树模型和稀疏编码直方图特征的方法对图像进行人脸检测,去除图像背景;
A2、利用多任务约束深度卷积网络TCDCN对步骤A1中检测后的人脸图像进行特征点标定;
A3、去除容易随姿态变化而发生移位的标定点即人脸轮廓上的标定点,并选择脸部器官周围的特征点作为兴趣点。
3.根据权利要求2所述的基于分治策略的Huffman-LBP多姿态人脸识别方法,其特征在于,所述步骤102:通过区域选择因子对不同姿态的人脸图像进行划分,并筛选出有益于识别的人脸区域,具体步骤为:
B1、通过连接鼻尖和眉心将人脸划分为左右两个人脸区域;
B2、根据步骤A2标定出的特征点,定位出双眼中心和两鬓的位置;
B3、根据区域选择因子公式,通过右眼中心到右鬓的距离L1以及左眼中心到左鬓的距离L2,求取区域选择因子RSF:
说明左侧人脸区域对识别是有效的,所以左侧人脸区域中的特征将会被提取出来,用来表达人脸;若RSF>α,说明右侧人脸区域是有效的,右侧人脸区域中的特征将会被用来表达人脸;同样的,若整个人脸区域的特征将会被提取出来,用来表达人脸。
4.根据权利要求3所述的基于分治策略的Huffman-LBP多姿态人脸识别方法,其特征在于,所述步骤B2通过双眼轮廓上标定点的坐标,求取双眼中心的位置的公式为:
<mrow> <msub> <mi>x</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mi>s</mi> <mo>_</mo> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> </mrow> </msub> <mo>=</mo> <mi>min</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>t</mi> <mi>o</mi> <mi>u</mi> <mi>r</mi> <mi>s</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>&amp;lsqb;</mo> <mi>max</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>t</mi> <mi>o</mi> <mi>u</mi> <mi>r</mi> <mi>s</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>min</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>t</mi> <mi>o</mi> <mi>u</mi> <mi>r</mi> <mi>s</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> 1
<mrow> <msub> <mi>y</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mi>s</mi> <mo>_</mo> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> </mrow> </msub> <mo>=</mo> <mi>min</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>t</mi> <mi>o</mi> <mi>u</mi> <mi>r</mi> <mi>s</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>&amp;lsqb;</mo> <mi>max</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>t</mi> <mi>o</mi> <mi>u</mi> <mi>r</mi> <mi>s</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>min</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mrow> <mi>e</mi> <mi>y</mi> <mi>e</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>t</mi> <mi>o</mi> <mi>u</mi> <mi>r</mi> <mi>s</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
其中,xeyes_center和yeyes_center分别是待求取的眼睛中心的x轴和y轴的坐标,xeye_contours和yeye_contours分别是由眼睛轮廓上标定点的x轴和y轴的坐标组成的集合:xeye_contours={x1,x2...xn},yeye_contours={y1,y2…yn},n为眼睛轮廓上标定点的个数。
5.根据权利要求3所述的基于分治策略的Huffman-LBP多姿态人脸识别方法,其特征在于,所述步骤103中Huffman-LBP算子的求取方法为:
C1、在中心像素灰度值为gc,半径为R的图像邻域中,分别求取p个周围像素gt与中心像素gc的灰度差值:gt-gc,t=0,1,...,p-1;
C2、分别对由像素邻域中正负对比度值的绝对值组成的序列进行Huffman编码:
<mrow> <mo>(</mo> <msub> <mi>c</mi> <msub> <mi>l</mi> <mn>1</mn> </msub> </msub> <mo>,</mo> <msub> <mi>c</mi> <msub> <mi>l</mi> <mn>2</mn> </msub> </msub> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>c</mi> <msub> <mi>l</mi> <mi>n</mi> </msub> </msub> <mo>)</mo> <mo>=</mo> <mi>H</mi> <mi>u</mi> <mi>f</mi> <mi>f</mi> <mi>m</mi> <mi>a</mi> <mi>n</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>d</mi> <mi>i</mi> <mi>n</mi> <mi>g</mi> <mo>{</mo> <mo>|</mo> <mrow> <msub> <mi>g</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> </mrow> <mo>|</mo> <mo>|</mo> <mi>t</mi> <mo>&amp;Element;</mo> <msup> <mi>index</mi> <mo>+</mo> </msup> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mo>(</mo> <msub> <mi>c</mi> <msub> <mi>k</mi> <mn>1</mn> </msub> </msub> <mo>,</mo> <msub> <mi>c</mi> <msub> <mi>k</mi> <mn>2</mn> </msub> </msub> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>c</mi> <msub> <mi>k</mi> <mi>m</mi> </msub> </msub> <mo>)</mo> <mo>=</mo> <mi>H</mi> <mi>u</mi> <mi>f</mi> <mi>f</mi> <mi>m</mi> <mi>a</mi> <mi>n</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>d</mi> <mi>i</mi> <mi>n</mi> <mi>g</mi> <mo>{</mo> <mo>|</mo> <mrow> <msub> <mi>g</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> </mrow> <mo>|</mo> <mo>|</mo> <mi>t</mi> <mo>&amp;Element;</mo> <msup> <mi>index</mi> <mo>-</mo> </msup> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中index+={t|gt-gc≥0}={l1,l2,...ln},index-={t|gt-gc<0}={k1,k2,...km};
C3、根据公式(4),通过Huffman编码的长度length(c),求取对比度的权重:
<mrow> <mtable> <mtr> <mtd> <mrow> <msup> <mi>w</mi> <mo>+</mo> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mfrac> <mfrac> <mn>1</mn> <mrow> <mi>l</mi> <mi>e</mi> <mi>n</mi> <mi>g</mi> <mi>t</mi> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>c</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mfrac> <mn>1</mn> <mrow> <mi>l</mi> <mi>e</mi> <mi>n</mi> <mi>g</mi> <mi>t</mi> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>c</mi> <msub> <mi>l</mi> <mi>i</mi> </msub> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> </mfrac> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>t</mi> <mo>&amp;Element;</mo> <msup> <mi>index</mi> <mo>+</mo> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>O</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> <mtd> <mrow> <msup> <mi>w</mi> <mo>-</mo> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mfrac> <mfrac> <mn>1</mn> <mrow> <mi>l</mi> <mi>e</mi> <mi>n</mi> <mi>g</mi> <mi>t</mi> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>c</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mfrac> <mn>1</mn> <mrow> <mi>l</mi> <mi>e</mi> <mi>n</mi> <mi>g</mi> <mi>t</mi> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>c</mi> <msub> <mi>k</mi> <mi>i</mi> </msub> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> </mfrac> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>t</mi> <mo>&amp;Element;</mo> <msup> <mi>index</mi> <mo>-</mo> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>O</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
C4、根据公式(5),求取中心像素的Huffman-LBP特征值:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>H</mi> <mo>_</mo> <msubsup> <mi>LBP</mi> <mrow> <mi>P</mi> <mo>,</mo> <mi>R</mi> </mrow> <mo>+</mo> </msubsup> <mo>=</mo> <mi>r</mi> <mi>o</mi> <mi>u</mi> <mi>n</mi> <mi>d</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>P</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msup> <mi>s</mi> <mo>+</mo> </msup> <mo>(</mo> <mi>t</mi> <mo>)</mo> <msup> <mi>w</mi> <mo>+</mo> </msup> <mo>(</mo> <mi>t</mi> <mo>)</mo> <msup> <mn>2</mn> <mi>t</mi> </msup> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>H</mi> <mo>_</mo> <msubsup> <mi>LBP</mi> <mrow> <mi>P</mi> <mo>,</mo> <mi>R</mi> </mrow> <mo>-</mo> </msubsup> <mo>=</mo> <mi>r</mi> <mi>o</mi> <mi>u</mi> <mi>n</mi> <mi>d</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>P</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msup> <mi>s</mi> <mo>-</mo> </msup> <mo>(</mo> <mi>t</mi> <mo>)</mo> <msup> <mi>w</mi> <mo>-</mo> </msup> <mo>(</mo> <mi>t</mi> <mo>)</mo> <msup> <mn>2</mn> <mi>t</mi> </msup> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中s+和s-是阈值函数,定义如下:
<mrow> <mtable> <mtr> <mtd> <mrow> <msup> <mi>s</mi> <mo>+</mo> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>g</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>O</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mi>t</mi> <mo>=</mo> <mn>0</mn> <mo>,</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <mi>P</mi> <mo>-</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>s</mi> <mo>+</mo> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>g</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>O</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mi>t</mi> <mo>=</mo> <mn>0</mn> <mo>,</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <mi>P</mi> <mo>-</mo> <mn>1</mn> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> <mo>.</mo> </mrow>
6.根据权利要求5所述的基于分治策略的Huffman-LBP多姿态人脸识别方法,其特征在于,所述步骤103将所有人脸图像块的Huffman-LBP直方图特征向量进行级联,形成特征池:右侧人脸:{Vj j=1,2,...,25},左侧人脸:{Vj j=18,19,...,42}和完整人脸:{Vj j=1,2,...,42},其中Vj=[h1,h2,...,hk],j表示每个特征点的标号,hm表示图像块j中第m个小块的Huffman-LBP直方图特征,k表示每个图像块中划分的小块的数量。
7.根据权利要求5所述的基于分治策略的Huffman-LBP多姿态人脸识别方法,其特征在于,所述步骤104中基于图像块的SRC融合分类策略,具体步骤为:
D1、将从每个训练集图像的相同特征点上的图像块中提取得到的直方图特征向量组成独立的子字典:Dm,Dm+1...,Dn,其中n-m是训练图像上图像块的数量,Di=[v1,i,v2,i,...,vp,i],vj,i是第j类图像上第i个图像块的直方图特征向量,p是图像的类别数;
D2、通过区域选择因子对测试图像进行分而治之的表达,即划分图像并筛选出对识别有益的人脸区域,再通过Huffman-LBP进行特征提取,形成特征池:{vs,vs+1,...,vz},其中z-s是测试图像上提取的图像块的数量;
D3、二范数单位化vi和Di的每一列,其中max(m,s)≤i≤min(n,z);
D4、根据公式(7)求解出测试图像上每个图像块的稀疏表达系数:
<mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>=</mo> <mi>arg</mi> <mi> </mi> <mi>min</mi> <mo>|</mo> <mo>|</mo> <mi>x</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> </mrow> </mtd> <mtd> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> <mi>j</mi> <mi>e</mi> <mi>c</mi> <mi>t</mi> <mi> </mi> <mi>t</mi> <mi>o</mi> <mo>|</mo> <mo>|</mo> <msub> <mi>D</mi> <mi>i</mi> </msub> <mi>x</mi> <mo>-</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>&amp;le;</mo> <mi>&amp;epsiv;</mi> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
D5、根据公式(8)求取每个图像块的残差向量:
<mrow> <msub> <mi>r</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>D</mi> <mi>i</mi> </msub> <msub> <mi>&amp;delta;</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
其中j=1,...,p,δj函数的功能是挑选出和第j类相关的稀疏系数;
D6、根据公式(9)将对由所有图像块的残差向量相加得到的扩增残差向量进行排序,得到最终的识别结果:
<mrow> <mi>i</mi> <mi>n</mi> <mi>d</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>i</mi> <mi>t</mi> <mi>y</mi> <mrow> <mo>(</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>arg</mi> <mi> </mi> <msub> <mi>min</mi> <mi>j</mi> </msub> <mo>{</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mi>m</mi> <mo>,</mo> <mi>s</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>,</mo> <mi>z</mi> <mo>)</mo> </mrow> </mrow> </munderover> <msub> <mi>r</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> <mo>.</mo> </mrow> 3
CN201710407910.5A 2017-06-02 2017-06-02 一种基于分治策略的Huffman-LBP多姿态人脸识别方法 Active CN107194364B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710407910.5A CN107194364B (zh) 2017-06-02 2017-06-02 一种基于分治策略的Huffman-LBP多姿态人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710407910.5A CN107194364B (zh) 2017-06-02 2017-06-02 一种基于分治策略的Huffman-LBP多姿态人脸识别方法

Publications (2)

Publication Number Publication Date
CN107194364A true CN107194364A (zh) 2017-09-22
CN107194364B CN107194364B (zh) 2020-08-04

Family

ID=59876866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710407910.5A Active CN107194364B (zh) 2017-06-02 2017-06-02 一种基于分治策略的Huffman-LBP多姿态人脸识别方法

Country Status (1)

Country Link
CN (1) CN107194364B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363047A (zh) * 2018-03-26 2019-10-22 普天信息技术有限公司 人脸识别的方法、装置、电子设备和存储介质
CN111950389A (zh) * 2020-07-22 2020-11-17 重庆邮电大学 一种基于轻量级网络的深度二值特征人脸表情识别方法
CN112200217A (zh) * 2020-09-09 2021-01-08 天津津航技术物理研究所 基于红外图像大数据的识别算法评价方法及系统
CN113469091A (zh) * 2021-07-09 2021-10-01 北京的卢深视科技有限公司 人脸识别方法、训练方法、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799870A (zh) * 2012-07-13 2012-11-28 复旦大学 基于分块一致lbp和稀疏编码的单训练样本人脸识别方法
CN103020138A (zh) * 2012-11-22 2013-04-03 江苏乐买到网络科技有限公司 一种视频检索的方法和装置
CN103971095A (zh) * 2014-05-09 2014-08-06 西北工业大学 基于多尺度lbp和稀疏编码的大规模人脸表情识别方法
US8842889B1 (en) * 2010-12-18 2014-09-23 Luxand, Inc. System and method for automatic face recognition
JP2015041226A (ja) * 2013-08-21 2015-03-02 キヤノン株式会社 画像認識装置、画像認識方法、及びコンピュータプログラム
CN105913025A (zh) * 2016-04-12 2016-08-31 湖北工业大学 一种基于多特征融合的深度学习人脸识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8842889B1 (en) * 2010-12-18 2014-09-23 Luxand, Inc. System and method for automatic face recognition
CN102799870A (zh) * 2012-07-13 2012-11-28 复旦大学 基于分块一致lbp和稀疏编码的单训练样本人脸识别方法
CN103020138A (zh) * 2012-11-22 2013-04-03 江苏乐买到网络科技有限公司 一种视频检索的方法和装置
JP2015041226A (ja) * 2013-08-21 2015-03-02 キヤノン株式会社 画像認識装置、画像認識方法、及びコンピュータプログラム
CN103971095A (zh) * 2014-05-09 2014-08-06 西北工业大学 基于多尺度lbp和稀疏编码的大规模人脸表情识别方法
CN105913025A (zh) * 2016-04-12 2016-08-31 湖北工业大学 一种基于多特征融合的深度学习人脸识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Y. TAI等: "Face recognition with pose variations and misalignment via orthogonal procrustes regression", 《IEEE TRANS.IMAGE PROCESS 》 *
梁淑芬等: "基于LBP和深度学习的非限制条件下人脸识别算法", 《通信学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363047A (zh) * 2018-03-26 2019-10-22 普天信息技术有限公司 人脸识别的方法、装置、电子设备和存储介质
CN110363047B (zh) * 2018-03-26 2021-10-26 普天信息技术有限公司 人脸识别的方法、装置、电子设备和存储介质
CN111950389A (zh) * 2020-07-22 2020-11-17 重庆邮电大学 一种基于轻量级网络的深度二值特征人脸表情识别方法
CN111950389B (zh) * 2020-07-22 2022-07-01 重庆邮电大学 一种基于轻量级网络的深度二值特征人脸表情识别方法
CN112200217A (zh) * 2020-09-09 2021-01-08 天津津航技术物理研究所 基于红外图像大数据的识别算法评价方法及系统
CN112200217B (zh) * 2020-09-09 2023-06-09 天津津航技术物理研究所 基于红外图像大数据的识别算法评价方法及系统
CN113469091A (zh) * 2021-07-09 2021-10-01 北京的卢深视科技有限公司 人脸识别方法、训练方法、电子设备及存储介质
CN113469091B (zh) * 2021-07-09 2022-03-25 北京的卢深视科技有限公司 人脸识别方法、训练方法、电子设备及存储介质

Also Published As

Publication number Publication date
CN107194364B (zh) 2020-08-04

Similar Documents

Publication Publication Date Title
CN109409222B (zh) 一种基于移动端的多视角人脸表情识别方法
CN104850825B (zh) 一种基于卷积神经网络的人脸图像颜值计算方法
CN106960202B (zh) 一种基于可见光与红外图像融合的笑脸识别方法
CN106372581B (zh) 构建及训练人脸识别特征提取网络的方法
CN103605972B (zh) 一种基于分块深度神经网络的非限制环境人脸验证方法
CN105894047B (zh) 一种基于三维数据的人脸分类系统
CN106599854B (zh) 基于多特征融合的人脸表情自动识别方法
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
CN107122752B (zh) 一种人体动作比对方法及装置
CN106897675A (zh) 双目视觉深度特征与表观特征相结合的人脸活体检测方法
CN104123560B (zh) 基于相位编码特征和多度量学习的模糊人脸图像验证方法
CN108830237B (zh) 一种人脸表情的识别方法
CN107194364A (zh) 一种基于分治策略的Huffman‑LBP多姿态人脸识别方法
CN104392246B (zh) 一种基于类间类内面部变化字典的单样本人脸识别方法
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN109543548A (zh) 一种人脸识别方法、装置及存储介质
CN112464865A (zh) 一种基于像素和几何混合特征的人脸表情识别方法
CN109919085B (zh) 基于轻量型卷积神经网络的人人交互行为识别方法
CN110826462A (zh) 一种非局部双流卷积神经网络模型的人体行为识别方法
CN113011253B (zh) 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质
CN104298974A (zh) 一种基于深度视频序列的人体行为识别方法
CN107818299A (zh) 基于融合hog特征和深度信念网络的人脸识别算法
Mudunuri et al. GenLR-Net: Deep framework for very low resolution face and object recognition with generalization to unseen categories
CN113205002B (zh) 非受限视频监控的低清人脸识别方法、装置、设备及介质
CN110738071A (zh) 一种基于深度学习和迁移学习的人脸算法模型训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant