CN109886091B - 基于带权重局部旋度模式的三维人脸表情识别方法 - Google Patents

基于带权重局部旋度模式的三维人脸表情识别方法 Download PDF

Info

Publication number
CN109886091B
CN109886091B CN201910014091.7A CN201910014091A CN109886091B CN 109886091 B CN109886091 B CN 109886091B CN 201910014091 A CN201910014091 A CN 201910014091A CN 109886091 B CN109886091 B CN 109886091B
Authority
CN
China
Prior art keywords
face
point
input
rotation
lcps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910014091.7A
Other languages
English (en)
Other versions
CN109886091A (zh
Inventor
达飞鹏
余璟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910014091.7A priority Critical patent/CN109886091B/zh
Publication of CN109886091A publication Critical patent/CN109886091A/zh
Application granted granted Critical
Publication of CN109886091B publication Critical patent/CN109886091B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明提供一种基于带权重局部旋度模式的三维人脸表情识别方法,首先计算并获取输入人脸的三维向量场,在此向量场中计算人脸各点的旋度向量;其次,将输入人脸的存储格式写成矩阵形式,并将矩阵各元素替换成旋度向量,生成旋度分量图像;对旋度各分量分别进行编码,提取局部旋度模式特征;采用ICNP算法将输入人脸与标准模板人脸进行点对匹配,提取输入人脸的11个子区域;基于最小投影偏差算法计算输入人脸各子区域的表情权重;最后,将输入人脸各区域的原始LCPs特征乘以对应区域的表情权重,得到带权重的LCPs特征,将其输入到分类器中以完成表情识别。本发明的LCPs特征与原始的旋度向量相比,不仅维度降低、便于后续计算,表情识别能力得到较大提升。

Description

基于带权重局部旋度模式的三维人脸表情识别方法
技术领域
本发明属于计算机视觉中三维图像识别的领域,具体涉及一种基于带权重局部旋度模式的三维人脸表情识别方法。
背景技术
三维人脸表情识别技术指的是基于人脸的三维数据,计算机实现对人脸表情识别的技术。这项技术在人机交互和心理学研究等领域具有巨大的应用潜力。与二维数据相比,人脸的三维数据不受光线、姿态、角度等因素的影响,同时包含更丰富的几何信息和拓扑特征,因此基于三维人脸数据的表情识别研究近年来获得了更广泛的关注。三维人脸表情识别算法可分为两类:基于概率模型的识别算法和基于特征的识别算法。前者指的是将不同形式的概率模型(包括通用模型和形变模型等)用于三维人脸的拟合,以提取面部形变信息和表情信息,进而实现表情识别的算法;后者指的是在三维人脸上提取点或曲面的几何特征用于描述表情变化下的人脸形变,以实现表情识别的算法。二者相比,后者具有更低的计算复杂度,同时对拓扑结构的变化(例如嘴部的开合)有更好的鲁棒性,因此具有更高的应用价值。
然而,基于特征的三维人脸表情识别算法研究仍面临多重困难。特征提取是研究中的难题之一。在当前三维人脸表情识别研究中,学者们广泛应用的特征有两类,第一类特征的构造依赖于五官特征点的准确位置,这类特征包括特征点间欧式距离、局部形状分析(Local Shape Analysis,LSA)、梯度方向直方图(Histogram of Oriented Gradients,HOG)、几何散射表示(Geometric Scattering Representation,GSR)、尺度不变特征变换(SIFT)、图形拉普拉斯特征(Graph Laplacian Features,GLF)。然而由于当前三维人脸特征点定位算法的精度仍有较大提升空间,因此这类特征的可靠性不高。第二类特征不需要借助五官特征点的位置,而是基于人脸的三维数据提取能够描述人脸形变的几何特征,这类特征包括法向量、曲率和形状指数等。由于第二类特征的提取避免了特征点定位的步骤,因此这类特征稳定性较好,算法的应用价值较高。然而,法向量、曲率和形状指数等特征对人脸形变的描述仍不够全面,对表情变化的敏感程度不够高,表情识别效果仍有待提升。
特征的权重计算是三维人脸表情识别技术研究中的另一难题。由于人脸不同区域对表情的敏感程度不同,导致不同区域对表情识别的贡献能力有较大差异。通过划分人脸子区域并根据各区域的贡献大小赋予其权重,可以显著提高表情识别的效果。当前最普遍的人脸划分方法是将三维人脸映射到二维灰度图像后,进行规则化的方块式划分。这种做法虽简单易操作,但却破坏了五官的完整结构,模糊了人脸各子区域的边界,削弱了表情权重的可靠性。
发明内容
发明目的:为了解决现有技术的问题,本发明提供一种在无需借助人脸特征点定位的情况下,自动地提取三维人脸的局部旋度模式特征,表征面部的表情信息,提高三维人脸表情识别的准确率的基于带权重局部旋度模式的三维人脸表情识别方法。
技术方案:本发明给出的基于带权重局部旋度模式的三维人脸表情识别方法的步骤如下:
(1)计算输入的人脸各点的三维向量场,设输入的三维人脸点云为P,
P={p1,p2,…,pn},其中点pi的法向量为ni=[nix,niy,niz]T其计算的表达式为:
Figure BDA0001938427460000021
其中
Figure BDA0001938427460000022
是包含pi点在内的pi邻域点集合,即
Figure BDA0001938427460000023
其中1m+1指的是(m+1)×1维的单位矩阵;d指的是平面Si表达式中的常数项;根据最小二乘法求解上式获得ni
(2)根据人脸各点的法向量,计算人脸各点的旋度值;其计算表达式为:
Figure BDA0001938427460000024
其中,ci为旋度,L为点集Qi围成的闭合曲线,S为曲线L所围成闭合区域的面积;根据上式,旋度的方向向量由点的法向量决定;
(3)首先将输入的三维人脸点云P的存储格式写成矩阵形式,生成旋度分量图像;
(4)基于旋度分量图像对旋度进行编码,提取局部旋度模式特征;
(5)采用ICNP算法将输入的人脸与标准模板人脸进行点对匹配,提取输入人脸的11个子区域;
(6)利用最小投影偏差算法计算输入的人脸11个子区域的每一子区域的表情权重,其表情权重w(Pi)表达式为:
Figure BDA0001938427460000031
其,ei为最小投影偏差,其表达式为:
Figure BDA0001938427460000032
其,Pi(LCPsl)和Ri(LCPsl)分别指输入的人脸子区域Pi和标准模板人脸子区域Ri的LCPsl特征值;
(7)将输入的人脸每一区域的局部旋度模式特征乘以对应区域的表情权重,获得带权重的LCPs特征,并将其输入到分类器中完成表情识别。
进一步,所述人脸的任一点的长度标量等于
Figure BDA0001938427460000033
进一步,所述步骤(4)中编码的方法为:
(41)在旋度分量图像中,以人脸上任一点为中心,定位其外层的8个邻域点;
(42)将邻域点的旋度分量值与中心点的旋度分量值相减,如果差值大于等于0,则邻域点的旋度分量编码值为1,反之则邻域点的旋度分量编码值为0,将邻域点的编码值按一定顺序进行连接,得到中心点的局部旋度模式特征值;
(43)重复以上步骤,得到人脸各点的LCPs特征。
进一步,所述的LCPs特征包含x方向、y方向、z方向以及长度分量。
进一步,所述步骤5中基于ICNP的点对匹配方法为:
(51)将标准模板人脸的第1个子区域记为R_1,R_1={r_i}_(i=1)^N,R_1的单位法向量集设为{β_i}_(i=1)^N,其中r_i和β_i分别指R_1中第i个点的三维坐标和单位法向量,N为R_1中点的个数;计算输入人脸P与R_1欧式距离最短的N个点,记为点集〖{p_k^c}〗_(k=1)^N;
(52)以p_1^c点为中心,搜索其邻域内法向量与β_1夹角最小的点,记为p_1^cn,p_1^cn与r_1的欧式距离记为d_1;
(53)将d_1输入到二维维纳滤波器,滤波后的距离记为g(d_1),CNP更新为p_1^cn'=r_1+g(d_1),而当p_1^cn'并不处于P上时,利用KD-Tree算法搜索P中与p_1^cn'欧式距离最短的点替代p_1^cn'作为匹配点;
(54)分别以p_2^c,p_3^c,…,p_N^c为中心重复步骤(51)至(53),得到输入人脸与R_1匹配的N个点,记为输入人脸的第1个子区域P_1=〖{p_z^cn'}〗_(z=1)^N;
(55)重复以上步骤,获得输入人脸与标准模板人脸R_2~R_11匹配的10个点集,完成输入人脸11个子区域的划分。
有益效果:本发明提取三维人脸的旋度向量,并依据局部二值模式(Local BinaryPattern,LBP)的编码原则对其各分量进行编码,得到局部旋度模式特征(Local CurlPatterns,LCPs)。LCPs特征与原始的旋度向量相比,不仅维度降低、便于后续计算,而且其对曲面的描述能力大大增强,表情识别能力得到较大提升。同时,本发明将ICNP算法与最小投影偏差算法结合,分别实现三维人脸子区域的划分与表情权重的计算。ICNP算法基于点对的法向量关系进行配准,鲁棒性较好。采用ICNP算法将输入人脸与事先完成子区域划分的参考人脸进行点对的匹配,可以准确地划分出输入人脸的11个子区域,且划分结果保留了五官结构的完整性。完成划分之后,计算输入人脸与中性表情参考人脸各对应子区域之间的最小投影偏差值,并根据此值为输入人脸各子区域的LCPs特征分配权重。由于最小投影偏差值反映了表情(高兴、惊讶、悲伤、害怕、愤怒和厌恶)与中性表情之间的差异,因此能够较准确地反映输入人脸的表情变化程度,求得权重的可靠性较高。最终,基于带权重的LCPs特征实现人脸的表情识别。本发明针对特征提取和特征的权重分配分别提出了改进,使得识别算法获得了系统化地优化,在识别实验中取得了较好的效果。
附图说明
图1是实验中所用的BU-3DFE人脸库部分人脸的示例图;
图2是本发明的人脸表情识别方法流程图;
图3是本发明的旋度计算的原理图;
图4是本发明的旋度分量图;
图5是本发明的LCPs特征的提取过程示意图;
图6是本发明的基于ICNP算法的三维人脸子区域划分流程图;
图7是本发明的最小投影偏差的示意图;
图8是本发明的人脸识别准确率的验证统计示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明在Windows操作系统下选用Matlab R2015b作为编程工具,基于BinghamtonUniversity于2006年发布的BU-3DFE三维人脸表情库测试本发明所提出的方法。图1展示了BU-3DFE库中某对象的中性表情和6种基本表情的示例图。首先从BU-3DFE库中任选20个对象用于训练分类器,本实例选用本领域研究中最广泛使用的分类器——支持向量机(SVM),作为分类器;完成训练之后,选择库中剩余的80个对象用于测试。同时,每个对象都只选用6种表情的最高强度的人脸样本用于训练和测试。该实例的被测样本个数较为充足(共480张)且包含全部6种表情,证实本专利提出的识别方法的有效性。
如图2所示,本发明的一种基于带权重局部旋度模式的三维人脸表情识别方法的具体识别步骤如下:
步骤1:获取人脸的三维向量场,而三维人脸对应的三维向量场,其本质上是一个包含各点法向量的向量场,因此首先需要计算各点法向量。输入的三维人脸点云记为P,P={p1,p2,…,pn},其中任一点pi的法向量为ni=[nix,niy,niz]T,ni可以视作下面优化问题的解:
minni,J(pi,Qi,ni),
该式中Qi为点pi的m个邻域点的点集{qi1,qi2,…,qim};式中的代价函数J(pi,Qi,ni)取作Qi到局部平面Si=nixx+niyy+nizz+d的距离,其中Si的法向量等于ni。将上式可以转换成下式进行求解:
Figure BDA0001938427460000051
其中
Figure BDA0001938427460000052
是包含pi点在内的pi邻域点集合,即
Figure BDA0001938427460000053
其中1m+1指的是(m+1)×1维的单位矩阵(元素全为1);d指的是平面Si表达式中的常数项。根据最小二乘法求解上式获得ni,即人脸各点的法向量。
步骤2:根据人脸各点的法向量,计算人脸各点的旋度值。如图3所示,求得法向量ni后,任一点pi对应的旋度ci根据下式计算:
Figure BDA0001938427460000054
其中L指的是点集Qi围成的闭合曲线,S指的是曲线L所围成闭合区域的面积。根据上式,旋度的方向向量(X、Y和Z)由点的法向量决定,而长度标量(length)等于
Figure BDA0001938427460000055
步骤3:生成旋度分量图像。首先将输入的人脸点云P的存储格式写成矩阵形式,即P={pij(x,y,z)},其中pij(x,y,z)(1≤i≤m,1≤j≤n)表示点的三维坐标。将上述矩阵元素替换成旋度向量,即得到点云P对应的旋度矩阵:C(P)={c(pij(x,y,z))}m×n,其中c(pij(x,y,z))=(cijx,cijy,cijz,length(cij))T.拆解C(P)的X、Y、Z和length4个分量,生成4个旋度分量矩阵,构成4张旋度分量图像,如图4所示。
步骤4:基于旋度分量图像对旋度进行编码,提取局部旋度模式(Local CurlPatterns,LCPs)特征。
步骤4.1:在旋度分量图像中,以人脸上任一点pij为中心,定位其外层的8个邻域点pijd(d=1,2,…,8);矩阵形式的图像存储格式,使得邻域点定位迅速且准确。
步骤4.2:将邻域点的旋度分量值与中心点的旋度分量值相减,即cijdk-cijk,(其中cijdk和cijk分别表示邻域点pijd和中心点pij的旋度k分量值,k=x,y,z,length),当cijdk-cijk≥0,则pijd位置旋度k分量的编码值为1;反之则为0。将邻域点的编码值按一定顺序进行连接,即可得到中心点pij的局部旋度模式特征值(Local Curl Patterns,LCPs)。对旋度各分量都进行上述编码操作,因此LCPs特征值将包含LCPsx,LCPsy,LCPsz和LCPsl4个分量。图4以LCPsx为例说明编码过程,图中pij点旋度的x分量值为0.45,LCPsx(pij)为(10001000)2,如图5所示。
步骤4.3:重复以上步骤,得到三维人脸各点的LCPs特征。
步骤5:采用ICNP算法将输入的人脸点云P与标准模板人脸进行点对匹配,提取输入人脸的11个子区域。标准模板人脸指的是一张中性表情的人脸,并已事先在线下完成11个子区域的划分。
步骤5.1:人脸模板的第1个子区域为R1
Figure BDA0001938427460000061
R1的单位法向量集设为
Figure BDA0001938427460000062
其中ri和βi分别指R1中第i个点的三维坐标和单位法向量,N为R1中点的个数。计算输入人脸P与R1欧式距离最短的N个点,记为点集
Figure BDA0001938427460000063
步骤5.2:首先以
Figure BDA0001938427460000064
点为中心,搜索其邻域内法向量与β1夹角最小的点,即法向量最近点(Closest normal point,CNP),记为
Figure BDA0001938427460000065
与r1的欧式距离记为d1
步骤5.3:为了去除噪声,将d1输入到二维维纳滤波器,滤波后的距离记为g(d1),CNP更新为
Figure BDA0001938427460000066
而当
Figure BDA0001938427460000067
并不处于P上时,利用KD-Tree算法搜索P中与
Figure BDA0001938427460000068
欧式距离最短的点替代
Figure BDA0001938427460000069
作为匹配点。
步骤5.4:分别以
Figure BDA0001938427460000071
为中心重复步骤5.1至5.3,得到输入人脸与R1匹配的N个点,记为输入人脸的第1个子区域
Figure BDA0001938427460000072
步骤5.5:重复以上步骤,获得输入人脸与参考人脸R2~R11匹配的10个点集,完成输入人脸11个子区域的划分,如图6所示。
步骤6:基于最小投影偏差算法计算输入人脸各子区域的表情权重。设X、Y为两个相同维数的向量,X在Y所在方向的投影为αY,X与αY之间的距离‖X-αY‖2,称作X与Y向量的投影偏差,如图7所示。当X的投影方向使得向量X-αY与Y垂直时,投影偏差取得最小值,即:
Figure BDA0001938427460000073
其中<·,·>表示两向量的内积。将上式中的α值代入‖X-αY‖2,即得最小投影偏差值
Figure BDA0001938427460000074
此值衡量了向量X与向量Y的相似程度。同样地,输入人脸各子区域与标准模板人脸对应子区域的最小投影偏差值ei,反映了输入人脸表情与中性表情的相似程度。由于步骤4中提取到的LCPs特征值,其第4个分量LCPsl在一定程度上代表了人脸形状,故可基于LCPsl特征值计算最小投影偏差值ei
Figure BDA0001938427460000075
其中Pi(LCPsl)和Ri(LCPsl)分别指输入人脸子区域Pi和标准模板人脸子区域Ri的LCPsl特征值。ei值越大,Pi与中性表情的差异越小,对表情识别的贡献越大,对应的表情权重则越大。因此,输入人脸子区域的权重为
Figure BDA0001938427460000076
步骤7:输入人脸各区域的原始LCPs特征乘以对应区域的权重w,获得带权重的LCPs特征,将其输入到分类器中完成表情识别。
对本实施例进行效果验证:选用本领域研究中最广泛使用的分类器——支持向量机(SVM),作为分类器。从BU-3DFE库中任选20个对象用于训练分类器,剩下的80个对象用于测试6类表情的识别率。BU-3DFE是三维人脸表情识别领域中最常用的数据库,其中包含100个对象(其中56个女性、44个男性),每个对象有25张样本,包括:中性表情样本1张;6类基本表情样本,每类表情各有4种强度的人脸样本。每个对象都只选用6种表情的最高强度的人脸样本用于训练和测试,因此训练集样本数为120,测试集样本数为480。为减小误差,重复测试20次,取平均值作为最终的识别率。计算6类表情识别率的平均值,获得平均识别率,为89.67%,如图8所示的验证效果。

Claims (5)

1.基于带权重局部旋度模式的三维人脸表情识别方法,其特征在于:该识别方法包括以下步骤:
(1)计算输入的人脸各点的三维向量场,设输入的三维人脸点云为P,P={p1,p2,...,pn},其中点pi的法向量为ni=[nix,niy,niz]T其计算的表达式为:
Figure RE-FDA0002802477010000011
其中
Figure RE-FDA0002802477010000012
是包含pi点在内的pi邻域点集合,即
Figure RE-FDA0002802477010000013
其中1m+1指的是(m+1)×1维的单位矩阵;d指的是平面Si表达式中的常数项;根据最小二乘法求解上式获得ni
(2)根据人脸各点的法向量,计算人脸各点的旋度值;其计算表达式为:
Figure RE-FDA0002802477010000014
其中,ci为旋度,L为点集Qi围成的闭合曲线,S为曲线L所围成闭合区域的面积;根据上式,旋度的方向向量由点的法向量决定;Qi为点pi的m个邻域点的点集{qi1,qi2,...,qim};
(3)首先将输入的三维人脸点云的存储格式写成矩阵形式,生成旋度分量图像;
(4)基于旋度分量图像对旋度进行编码,提取局部旋度模式特征;
(5)采用ICNP算法将输入的人脸与标准模板人脸进行点对匹配,提取输入人脸的11个子区域;
(6)利用最小投影偏差算法计算输入的人脸11个子区域的每一子区域的表情权重,其表情权重w(Pi)表达式为:
Figure RE-FDA0002802477010000015
其,ei为最小投影偏差,其表达式为:
Figure RE-FDA0002802477010000016
其,Pi(LCPsl)和Ri(LCPsl)分别指输入的人脸子区域Pi和标准模板人脸子区域Ri的LCPsl特征值;
(7)将输入的人脸每一区域的局部旋度模式特征乘以对应区域的表情权重,获得带权重的LCPs特征,并将其输入到分类器中完成表情识别。
2.根据权利要求1 所述的基于带权重局部旋度模式的三维人脸表情识别方法,其特征在于:所述人脸的任一点的长度标量等于
Figure RE-FDA0002802477010000021
3.根据权利要求1所述的基于带权重局部旋度模式的三维人脸表情识别方法,其特征在于:所述步骤(4)中编码的方法为:
(41)在旋度分量图像中,以人脸上任一点为中心,定位其外层的8个邻域点;
(42)将邻域点的旋度分量值与中心点的旋度分量值相减,如果差值大于等于0,则邻域点的旋度分量编码值为1,反之则邻域点的旋度分量编码值为0,将邻域点的编码值按一定顺序进行连接,得到中心点的局部旋度模式特征值;
(43)重复以上步骤,得到人脸各点的LCPs特征。
4.根据权利要求3所述的基于带权重局部旋度模式的三维人脸表情识别方法,其特征在于:所述的LCPs特征包含x方向、y方向、z方向以及长度分量。
5.根据权利要求1所述的基于带权重局部旋度模式的三维人脸表情识别方法,其特征在于:所述步骤( 5) 中基于ICNP的点对匹配方法为:
(51)将标准模板人脸的第1个子区域记为R1
Figure RE-FDA0002802477010000022
R1的单位法向量集设为
Figure RE-FDA0002802477010000023
其中ri和βi分别指R1中第i个点的三维坐标和单位法向量,N为R1中点的个数;计算输入人脸点云P与R1欧式距离最短的N个点,记为点集
Figure RE-FDA0002802477010000024
(52)以
Figure RE-FDA0002802477010000025
点为中心,搜索其邻域内法向量与β1夹角最小的点,记为
Figure RE-FDA0002802477010000026
与r1的欧式距离记为d1
(53)将d1输入到二维维纳滤波器,滤波后的距离记为g(d1),CNP更新为
Figure RE-FDA0002802477010000027
而当
Figure RE-FDA0002802477010000028
并不处于P上时,利用KD-Tree算法搜索P中与
Figure RE-FDA0002802477010000029
欧式距离最短的点替代
Figure RE-FDA00028024770100000210
作为匹配点;
(54)分别以
Figure RE-FDA00028024770100000211
为中心重复步骤(52)至(53),得到输入人脸与R1匹配的N个点,记为输入人脸的第1个子区域
Figure RE-FDA00028024770100000212
(55)重复以上步骤,获得输入人脸与标准模板人脸R2~R11匹配的10个点集,完成输入人脸11个子区域的划分。
CN201910014091.7A 2019-01-08 2019-01-08 基于带权重局部旋度模式的三维人脸表情识别方法 Active CN109886091B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910014091.7A CN109886091B (zh) 2019-01-08 2019-01-08 基于带权重局部旋度模式的三维人脸表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910014091.7A CN109886091B (zh) 2019-01-08 2019-01-08 基于带权重局部旋度模式的三维人脸表情识别方法

Publications (2)

Publication Number Publication Date
CN109886091A CN109886091A (zh) 2019-06-14
CN109886091B true CN109886091B (zh) 2021-06-01

Family

ID=66925749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910014091.7A Active CN109886091B (zh) 2019-01-08 2019-01-08 基于带权重局部旋度模式的三维人脸表情识别方法

Country Status (1)

Country Link
CN (1) CN109886091B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348344B (zh) * 2019-06-28 2021-07-27 浙江大学 一种基于二维和三维融合的特殊人脸表情识别的方法
CN111553195B (zh) * 2020-04-02 2022-11-15 东南大学 基于多位图切平面与多尺度uLBP的三维人脸遮挡判别方法
CN111488888B (zh) * 2020-04-10 2022-12-02 腾讯科技(深圳)有限公司 图像特征提取方法以及人脸特征生成设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739712A (zh) * 2010-01-25 2010-06-16 四川大学 基于视频的3d人脸表情动画驱动方法
CN102254336A (zh) * 2011-07-14 2011-11-23 清华大学 人脸视频合成方法及装置
US9152847B2 (en) * 2012-11-27 2015-10-06 Adobe Systems Incorporated Facial landmark localization by exemplar-based graph matching
CN105069447A (zh) * 2015-09-23 2015-11-18 河北工业大学 一种人脸表情的识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739712A (zh) * 2010-01-25 2010-06-16 四川大学 基于视频的3d人脸表情动画驱动方法
CN102254336A (zh) * 2011-07-14 2011-11-23 清华大学 人脸视频合成方法及装置
US9152847B2 (en) * 2012-11-27 2015-10-06 Adobe Systems Incorporated Facial landmark localization by exemplar-based graph matching
CN105069447A (zh) * 2015-09-23 2015-11-18 河北工业大学 一种人脸表情的识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Extraction of informative regions of a face for facial expression recognition;Sunil Kumar等;《IET Computer Vision》;20160419;第567-576页 *

Also Published As

Publication number Publication date
CN109886091A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN109408653B (zh) 基于多特征检索和形变的人体发型生成方法
Emambakhsh et al. Nasal patches and curves for expression-robust 3D face recognition
Sung Learning and example selection for object and pattern detection
Lu et al. Matching 2.5 D face scans to 3D models
Amor et al. 4-D facial expression recognition by learning geometric deformations
Liu et al. Handwriting recognition: soft computing and probabilistic approaches
CN103218609B (zh) 一种基于隐最小二乘回归的多姿态人脸识别方法及其装置
Zhao et al. Model based separation of overlapping latent fingerprints
Zhao et al. Fingerprint image synthesis based on statistical feature models
CN109886091B (zh) 基于带权重局部旋度模式的三维人脸表情识别方法
CN103984920B (zh) 一种基于稀疏表示与多特征点的三维人脸识别方法
Chowdhary 3D object recognition system based on local shape descriptors and depth data analysis
CN113570684A (zh) 图像处理方法、装置、计算机设备和存储介质
Mirhosseini et al. Human face image recognition: An evidence aggregation approach
Srivastava et al. On advances in differential-geometric approaches for 2D and 3D shape analyses and activity recognition
Song et al. Robust 3D face landmark localization based on local coordinate coding
Cai et al. Accurate eye center localization via hierarchical adaptive convolution
Beymer Pose-Invariant face recognition using real and virtual views
Chandaliya et al. Child face age progression and regression using self-attention multi-scale patch gan
Kim et al. Robust facial landmark extraction scheme using multiple convolutional neural networks
Huang et al. Tracking-by-detection of 3d human shapes: from surfaces to volumes
Li et al. Constructing facial identity surfaces for recognition
Su Statistical shape modelling: automatic shape model building
Hsu A hybrid approach for brain image registration with local constraints
EP1810216B1 (en) 3d object recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant