CN105117703B - 基于矩阵乘法的快速动作单元识别方法 - Google Patents
基于矩阵乘法的快速动作单元识别方法 Download PDFInfo
- Publication number
- CN105117703B CN105117703B CN201510524500.XA CN201510524500A CN105117703B CN 105117703 B CN105117703 B CN 105117703B CN 201510524500 A CN201510524500 A CN 201510524500A CN 105117703 B CN105117703 B CN 105117703B
- Authority
- CN
- China
- Prior art keywords
- motor unit
- image
- matrix
- unit
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉技术领域,具体为基于矩阵乘法的快速动作单元识别方法。本发明通过事先训练,得到针对每个动作单元的模型矩阵;每个矩阵与训练图像的尺寸相同;对于待检测的人脸图像,将其缩放至与训练图像相同尺寸,然后与每个模型矩阵进行点乘,得到的响应对应该动作单元;将得到的所有动作单元对应的响应归一化,然后进行离散化,即得到该动作单元存在与否。本发明由于只涉及矩阵乘法,因此速度非常快。相比于局部二值模式、离散余弦变换、加伯特征等方法,本发明只需要做1次矩阵乘法,具体可以分解为L次向量乘法和1次归一化操作。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及快速动作单元识别方法。
背景技术
面部动作编码系统(Facial Action Coding System,简称FACS),FACS理论于1969年由心理学家提出,其目的是为了客观刻画人的面部表情。该理论使用一组编码描述表情,每个编码称为一个动作单元(Action Unit)。FACS把人的面部表情用一系列动作单元(Action Unit)表示,每个动作单元用一个预先规定的编号表示。例如,一个惊讶的表情包括眉毛内侧上扬、外侧眉毛上扬、上眼睑上扬、下颚张开,这些动作对应的动作单元编号分别是1、2、5和26。因此,可以用这组编码描述该惊讶的表情。动作单元识别可以客观描述人的面部动作,也可以用来分析表情对应的情绪状态。
现有识别算法通常提取通用的计算机视觉特征,对每个动作单元独立建模,并建立一个二分类器来识别该动作单元是否在图像或图像序列中出现;再将识别的结果组合,得到完整的动作单元组合。这样的方法忽略了动作单元之间的关系,如某些动作单元是互斥的,而有些动作单元倾向于同时发生,这在传统框架中都无法对这些现象加以鼓励或者惩罚。同时,现有方法使用的视觉特征通常涉及非线性操作,比较耗时。
该领域已经有不少前人工作,参见文献:【1】--【7】
其中,在[4]中研究人员使用受限局部模型(Constrained Local Model,简称CLM)定位人脸的关键点;针对每个动作单元,选择与其高度相关的关键点,在这些关键点周围选择图像块作为识别依据;具体地,使用非负矩阵分解(Non-negative MatrixFactorization,简称NMF)对每个图像块提取特征;对每个动作编码训练一个支持向量回归(Support Vector Regression,简称SVR)。该方法可以估计每个动作单元的强度。但是根据动作单元选择关键点通常需要领域知识,后者在一定程度上取决于选择者的经验。
另一种方法则不需要特定的领域知识。在[5]中研究人员抽取面部图像的加伯(Gabor)特征,对每个动作单元训练一个二分类的支持向量机(Support Vector Machine,简称SVM)进行对应动作单元的检测。为了降低加伯特征的维度,该方法针对每个动作单元,使用Adaboost选择最优特征,并将所有动作单元对应特征的合集作为最后使用的特征。
另一种方法不使用高维度的加伯特征,如[3]中研究人员使用局部二值模式(Local Binary Pattern,简称LBP)作为特征,对每个动作单元训练二分类的支持向量机,用于识别对应的动作单元。
然而使用这些计算机视觉特征并不能对表情提供可解释性;同时,对每个动作单元单独建模,忽略了动作单元之间的关系:如动作单元24是嘴唇抿紧(lip presser),动作单元25是嘴唇分开(lip apart),这两个动作单元是互斥的,这在独立建模的框架下可能被同时误检测到。此外,由于计算特征和使用支持向量机的过程中牵涉到大量非线性操作,时间性能并不理想。
因此,本发明提出一种简洁的识别方法。它仅对面部图像进行矩阵乘法,对得到的响应进行分析作为检测的依据;同时对所有动作单元协同建模,规避了独立建模的弊端。
发明内容
本发明的目的在于提出一种识别速度快,准确性高的动作单元识别方法。
本发明提出的动作单元识别方法,并不显式提取特征,而是使用一种基于矩阵乘法的识别方法,兼备特征提取和动作单元识别的作用,能极大提升识别速度。同时,该方法对所有动作单元统一建模,该模型可以刻画动作单元之间的分布关系。图1为本发明识别方法的流程图示。其过程为:
首先,通过事先训练,可得到针对每个动作单元的模型矩阵:
M1,M2,…,ML,其中
L是动作单元的数量,m和n分别是训练图像的长和宽。每个矩阵与训练图像的尺寸是相同的。对于待检测的人脸图像,首先将其缩放至与训练图像相同尺寸,然后与每个模型矩阵进行点乘,得到的响应对应该动作单元;将得到的所有动作单元对应的响应归一化,然后进行离散化,即得到该动作单元存在与否。具体地,本发明方法的具体步骤为:
(1)使用预先训练,得到模型矩阵阵列:
(2)对于一幅面部图像,对其进行人脸检测和切割,并缩放成尺寸为m×n的图像,将人脸图像向量化,得到人脸图像向量:
(3)计算模型M对于人脸图像X的响应:
R=XTM (2)
(4)计算归一化的响应:
此步骤将所有相应归一化到[0,1]之间,方便设定有意义的阀值;
(5)识别:找出对应R>0.5的位置,则这些位置对应的动作单元在表情图像X中出现,其他的动作单元没有出现。
其中,模型训练过程见图2所示,具体步骤为:
对数据集中图像进行人脸检测,得到人脸图像向量:为了用M直观地预测动作单元,需进行优化处理:
其中,Ui是Xi对应的动作单元组合,Ui∈{0,1}L,L是动作单元的数量,1表示该动作单元出现,0表示不出现。例如,表示第t1个动作单元在第i个样例中不出现,表示第t2个动作单元在第i个样例中出现。N是样本个数。
但是通常一个表情涉及到的动作单元数量非常少,因此Ui是非常稀疏的,亦即大多数情况下Uit=0,这容易导致正例被错误划分为负例;因此,本发明假定数据集中给出的U(即Ui组成的矩阵)是由完整的动作单元标签经由一定的损失得到的,即每个样例的每个动作单元都有一定概率丢失(无论原先值为0或者1,一律被置为0);并试图用一个扩充矩阵B对U进行扩充,得到完整的动作单元标签。
然而,由于我们对完整的动作单元标签U并不知道,因此,我们对现有的动作单元标签进行损失,并通过B将损失后的标签扩充得到现有标签。其公式为:
其中,是Ui经过一定概率变换得来的,具体地:
即动作单元组合中的每个动作单元以p的概率置为0。
则可以计算重建误差期望:
上式可以重写成:
其中:
S=(1-p)UUT (9)
T=(1-p2)UUT+p(1-p)δ(UUT) (10)。
由此,得到一个带有两项未知数的优化方程:
其中,α,β,γ是各自对应项的权重,在模型训练时取若干值比较分类效果,得到合理的权重组合。
优化算法
由于优化方程包含两个变量,无法直接优化。本发明使用坐标下降法(coordinatedescent),循环地优化两个变量。具体地,给定B的情况下,对M求导数,并令之为0:
M=(BUXT-β)(XXT+NαI) (12)
在给定M的情况下,对B求导数,并令之为0:
B=(γS+MXUT)(γT+UUT)-1 (13)
其中,α,β,γ与(11)式中相同。上述算法并不能保证收敛到全局最优值,因此B的初值选择很重要。因为它等价于给定了动作单元标签到完整动作单元标签的条件分布,在对完整标签并不了解的情况下,我们应当不做特殊假设,将B初始化为一个单位阵。
具体地,我们有如下算法:
(1)将B初始化为单位阵;
(2)求解M:
M=(BUXT-β)(XXT+NαI)
(3)求解B:
B=(γS+MXUT)(γT+UUT)-1
(4)重复步骤(2)-(3)直到M收敛或超出最大步数限制。
时间性能
本发明的核心优势在于识别速度,由于只涉及矩阵乘法,因此速度非常快。表1比较了几种算法的操作数量。假设考虑L的动作单元,图像尺寸都是m×n的。
局部二值模式(Local Binary Pattern,简称LBP)需要比较像素与周围(通常是8个)像素的大小关系,并对L个动作单元进行二分类。因此包含8mn次比较和L次二分类;
离散余弦变换(Discrete Cosine Transformation,简称DCT)包含mn次余弦计算,L次二分类;
加伯特征涉及维数约简,假设对每个动作单元抽取κ个特征,不同动作单元的特征选择存在可能的交集,总操作数需要O(κL)次指数计算和L次二分类,其中κ是每个动作单元对应选择的特征数量。
本发明只需要做1次矩阵乘法,具体可以分解为L次向量乘法,1次归一化操作。
下面进一步介绍本方法在实验数据集上的识别效果。我们采用了四个数据集。
CK+(Cohn-Kanade+)是一个灰度图像数据集,包含了来自123个参与者的593段人脸图像序列,总共10708张图像。图3展示了CK+的一些示例图像。由于每个图像序列仅有一张图像被明确标注,因此只采用被明确标注的图像作为训练和测试的数据集,即数据集包括593个样例。由于样例数量较少,采用留一验证,即每次跳出一张图像作为测试集,其余用作训练。
FERA(Facial Expression Recognition and Analysis)也是一个灰度图像数据集,原先用作表情识别的竞赛。由于测试集的标注已经无法获取,只采用训练集,分割训练和测试数据集。其中包括66个人脸图像序列,总共3900帧图像。由于使用协议的限制,FERA的图像不能展示。
在上述两个数据集的基础上,构建了FERA&CK+数据集,即把FERA和CK+的数据混合,这样的实验是为了测试本发明在多种数据源的分布下的泛化能力。
BOSPHORUS是一个深度图像的表情数据集,包含了4666个样例。这里选择了其中2690张无遮挡的正脸图像用做实验。图4是BOSPHORUS的一些样例。
上述数据集中,除了CK+使用留一验证,其余都适用10折的交叉验证。即把所有样例平均分为10份,每次取其中9份作为训练数据集,1份作为测试数据集。
作为比较方法,我们实现了基于加伯特征的方法,并使用Adaboost进行特征选择。
实验使用F1分数作为性能指标,其定义是这样的:
在上述定义中,tp表示正确分类的正例,tn表示正确分类的负例,fp表示错误分为正例的负例,fn表示错误分为负例的正例。
实验1,表2、表3、表4、表5展示了四个数据集上本发明和基于加伯特征的方法的比较。可以看到本发明和基于加伯特征的方法的性能是接近的,在深度图像数据集BOSPHORUS上,本发明的识别率超过了基于加伯特征的方法。
实验2,图5、图6分别展示了从CK+和BOSPHORUS上学习得到的动作单元模型。CK+的动作单元模型与人脸非常接近,并且模型与对应的动作单元之间存在相关性,即可以从模型可视化的结果上看出对应的动作单元。从BOSPHORUS上的动作单元模型可以看出其主要变化区域在下半脸部。
实验3,图7比较了稀疏项在FERA上的效果。没有稀疏项的目标方程上得到的模型特征大部分值很大(表现为白色),而带有稀疏项的目标方程上得到的模型特征更接近人脸。由于FERA的样本量远大于CK+,因此动作单元模型具有更强的身份无关性,即不是接近特定身份的人脸。
表6比较了带有稀疏项的模型和没有稀疏项的模型在FERA上的识别效果,可以看到稀疏项给识别效果带来了提高。
实验4,本发明的主要优势在于处理速度。在200×200的输入图像上,采用四种方法进行动作单元识别。加伯变换对每个动作单元选择20个特征位,取合集得到333维特征;离散余弦变换将图像分成8×8的图像块,抽取低频分量,得到640维特征;局部二值模式通过映射得到59维特征;本发明把训练图像归一化到50×50,并学习动作单元模型。
图8展示了当前流行方法的速度性能和本发明的速度性能比较。本发明的处理帧率大大超出现有的方法。
附图说明
图1为动作单元识别过程图示。
图2为模型训练过程图示。
图3为CK+数据集样例展示。
图4为BOSPHORUS数据集样例展示。
图5为CK+数据集上学习的动作单元模型,下方数字是动作单元的编号。
图6为BOSPHORUS数据集上学习的动作单元模型,下方数字是动作单元的编号。
图7为FERA数据集上学习的动作单元模型。上排是带有稀疏项的目标方程学习到的模型,下排是没有稀疏项的目标方程学习到的模型。下方数字是动作单元的编号。
图8为不同方法的处理速度比较。纵轴是对数坐标下的每秒帧数。
具体实施方式
本发明提供了一种快速的动作单元检测方法,下面用一个情绪识别的例子说明这种本发明的具体实施方式。
在表情数据集中使用本发明学习动作单元模型M,m和n分别是表情图像的长和宽,L是动作单元的数量。
数据集中每幅表情的情绪为Ei,Eik=1,Eij=0,j≠k表示该表情图像具有第k种情绪。
数据集中每幅表情图像计算的归一化相应为Rmorm-i,情绪为Ei,用线性等式表示归一化相应和情绪的关系:
Rnorm-iθ=Ei
用最小二乘法估计θ:
θ=(RTR)-1RTE
其中E=[E1,E2,…],R=[Rnorm-1,Rnorm-2,…]。
针对一段人脸视频,首先在第一帧中进行人脸检测,得到包含人脸的方框。同时为方框中的人脸建立跟踪器。
在后续的帧中,更新跟踪器的位置,得到人脸的最新位置。并通过方框位置得到人脸图像X,将X的尺寸缩放至m×n。
计算X对M的响应:
R=XTM
通过归一化并设定阀值得到动作单元的组合。
对每帧预测得到的动作单元组合作为线性分类器的输入,得到预测的情绪标记E:
E=Rnormθ
E的每个维度对应一种情绪,选择值最大的维度,其对应情绪就是该表情图像对应的情绪预测值。
为了尽量减小误差,假设人的情绪总存在一定跨度。在一个长度t=2秒的时间窗口中,预测所有帧的情绪标记,并以多数投票的方法得到预测数量最多的情绪标记,作为该时间段的预测情绪。
表1 不同方法操作数比较
方法 | 操作数量 |
局部二值特征 | 8nm次像素值比较,L次二分类 |
离散余弦变换 | nm次余弦计算,L次二分类 |
加伯特征 | O(κL)次指数运算,L次二分类 |
本发明 | L次向量乘法,1次归一化 |
表2 CK+数据集上不同方法的F1打分比较
动作单元 | 本发明 | 基于Gabor的方法 |
1 | 0.65 | 0.67 |
2 | 0.59 | 0.67 |
4 | 0.60 | 0.60 |
5 | 0.53 | 0.49 |
6 | 0.52 | 0.54 |
7 | 0.45 | 0.48 |
9 | 0.56 | 0.60 |
12 | 0.65 | 0.63 |
15 | 0.44 | 0.55 |
17 | 0.70 | 0.70 |
25 | 0.81 | 0.76 |
27 | 0.61 | 0.81 |
平均值 | 0.593 | 0.625 |
表3 FERA数据集上不同方法的F1打分比较
动作单元 | 本发明 | 基于Gabor的方法 |
1 | 0.86 | 0.83 |
2 | 0.83 | 0.73 |
4 | 0.91 | 0.79 |
6 | 0.94 | 0.87 |
7 | 0.87 | 0.87 |
10 | 0.88 | 0.81 |
12 | 0.91 | 0.64 |
15 | 0.81 | 0.92 |
17 | 0.63 | 0.77 |
18 | 0.60 | 0.83 |
25 | 0.57 | 0.72 |
26 | 0.55 | 0.72 |
平均值 | 0.780 | 0.792 |
表4 FERA&CK+数据集上不同方法的F1打分比较
动作单元 | 本发明 | 基于Gabor的方法 |
1 | 0.77 | 0.84 |
2 | 0.74 | 0.78 |
4 | 0.79 | 0.77 |
6 | 0.85 | 0.86 |
7 | 0.82 | 0.83 |
10 | 0.78 | 0.80 |
12 | 0.85 | 0.72 |
15 | 0.70 | 0.71 |
17 | 0.58 | 0.54 |
25 | 0.57 | 0.68 |
平均值 | 0.745 | 0.753 |
表5 BOSPHORUS数据集上不同方法的F1打分比较
动作单元 | 本发明 | 基于Gabor的方法 |
1 | 0.26 | 0.21 |
2 | 0.24 | 0.18 |
4 | 0.26 | 0.21 |
5 | 0.23 | 0.21 |
7 | 0.52 | 0.60 |
12 | 0.30 | 0.26 |
17 | 0.22 | 0.20 |
25 | 0.46 | 0.40 |
26 | 0.25 | 0.22 |
平均值 | 0.304 | 0.277 |
参考文选
[1]P.Ekman and W.V.Friesen.Facial Action Coding System:A Techniquefor the Measurement of Facial Movement.Consulting Psychologists Press,Stanford University,Palo Alto,1978.
[2]M.S.Bartlett,G.C.Littlewort,M.G.Frank,C.Lainscsek,I.R.Fasel,andJ.R.Movellan.Automatic recognition of facial actions in spontaneousexpressions.Journal of Multimedia,1(6):22–35,2006.
[3]S.W.Chew,P.Lucey,S.Lucey,J.Saragih,J.F.Cohn,andS.Sridharan.Person-independent facial expression detection using constrainedlocal models.International Conference on Face and Gesture Recognition,2011.
[4]L.A.Jeni,J.M.Girard,J.F.Cohn,and F.De La Torre.Continuous AUintensity estimation using localized,sparse facial featurespace.International Conference on Face and Gesture Recognition,2013.
[5]G.Littlewort,J.Whitehill,T.Wu,I.Fasel,M.Frank,J.Movellan,andM.Bartlett.The computer expression recognition toolbox(CERT).InternationalConference on Face and Gesture Recognition,2011.
[6]F.Long,T.Wu,J.R.Movellan,M.S.Bartlett,and G.Littlewort.Learningspatiotemporal features by using independent component analysis withapplication to facial expression recognition.Neurocomputing,93:126–132,2012.
[7]L.Zhang and D.Tjondronegoro.Facial expression recognition usingfacial movement features.IEEE Transaction on Affective Computing,2(4):219–229,2011.。
Claims (4)
1.一种基于矩阵乘法的快速动作单元识别方法,其特征在于其过程为:
通过事先训练,得到针对每个动作单元的模型矩阵:
M1,M2,...,ML,其中
L是动作单元的数量,m和n分别是训练图像的长和宽;每个矩阵与训练图像的尺寸相同;对于待检测的人脸图像,将其缩放至与训练图像相同尺寸,然后与每个模型矩阵进行点乘,得到的响应对应该动作单元;将得到的所有动作单元对应的响应归一化,然后进行离散化,即得到该动作单元存在与否;具体步骤为:
(1)使用预先模型训练,得到模型矩阵阵列:
(2)对于一幅面部图像,对其进行人脸检测和切割,并缩放成尺寸为m×n的图像,将人脸图像向量化,得到人脸图像向量:
(3)计算模型M对于人脸图像X的响应:
R=XTM (2)
(4)计算归一化的响应:
此步骤将所有相应归一化到[0,1]之间;
(5)识别:找出对应R>0.5的位置,则这些位置对应的动作单元在表情图像X中出现,其他的动作单元没有出现。
2.根据权利要求1所述的方法,其特征在于所述预先模型训练的具体步骤为:
对数据集中图像进行人脸检测,得到人脸图像向量:为了用M直观地预测动作单元,对其进行优化处理:
其中,Ui是Xi对应的动作单元组合,Ui∈{0,1}L,L是动作单元的数量,1表示该动作单元出现,0表示不出现,N是样本个数;
由于Ui是非常稀疏的,假定数据集中给出的U即Ui组成的矩阵是由完整的动作单元标签经由一定的损失得到的,并用一个扩充矩阵B对U进行扩充,得到完整的动作单元标签;
其公式为:
其中,是Ui经过一定概率变换得来的,具体地:
即动作单元组合中的每个动作单元以p的概率置为0;
计算重建误差期望:
上式可以重写成:
其中:
S=(1-p)UUT (9)
T=(1-p2)UUT+p(1-p)δ(UUT) (10)
由此,得到一个带有两项未知数的优化方程:
其中,α,β,γ是各自对应项的权重。
3.根据权利要求2所述的方法,其特征在于采用坐标下降法对优化方程求解,循环地优化两个变量;具体做法为:
给定B的情况下,对M求导数,并令之为0:
M=(BUXT-β)(XXT+NαI) (12)
在给定M的情况下,对B求导数,并令之为0:
B=(γS+MXUT)(γT+UUT)-1 (13)。
4.根据权利要求3所述的方法,其特征在于将B初始化为一个单位阵,
具体算法如下:
(1)将B初始化为单位阵;
(2)求解M:
M=(BUXT-β)(XXT+NαI)
(3)求解B:
B=(γS+MXUT)(γT+UUT)-1
(4)重复步骤(2)-(3),直到M收敛或超出最大步数限制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510524500.XA CN105117703B (zh) | 2015-08-24 | 2015-08-24 | 基于矩阵乘法的快速动作单元识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510524500.XA CN105117703B (zh) | 2015-08-24 | 2015-08-24 | 基于矩阵乘法的快速动作单元识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105117703A CN105117703A (zh) | 2015-12-02 |
CN105117703B true CN105117703B (zh) | 2018-10-16 |
Family
ID=54665686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510524500.XA Expired - Fee Related CN105117703B (zh) | 2015-08-24 | 2015-08-24 | 基于矩阵乘法的快速动作单元识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105117703B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292218A (zh) * | 2016-04-01 | 2017-10-24 | 中兴通讯股份有限公司 | 一种表情识别方法及装置 |
CN107341432A (zh) * | 2016-05-03 | 2017-11-10 | 中兴通讯股份有限公司 | 一种微表情识别的方法和装置 |
CN108182439B (zh) * | 2017-12-20 | 2022-03-15 | 电子科技大学 | 一种基于多分类增量学习的分窗口计数方法及装置 |
CN109447167B (zh) * | 2018-11-05 | 2021-09-21 | 杭州电子科技大学 | 一种基于非负矩阵分解的智能卷烟配方维护方法 |
CN109829481B (zh) * | 2019-01-04 | 2020-10-30 | 北京邮电大学 | 一种图像分类方法、装置、电子设备及可读存储介质 |
CN111209867A (zh) * | 2020-01-08 | 2020-05-29 | 上海商汤临港智能科技有限公司 | 一种表情识别方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216896A (zh) * | 2008-01-14 | 2008-07-09 | 浙江大学 | 一种基于模版匹配的视点无关的人体动作识别方法 |
CN101561868A (zh) * | 2009-05-19 | 2009-10-21 | 华中科技大学 | 基于高斯特征的人体运动情感识别方法 |
CN102013016A (zh) * | 2010-11-23 | 2011-04-13 | 华东理工大学 | 可用于假肢手控制的基于肌音信号手部动作模式识别方法 |
-
2015
- 2015-08-24 CN CN201510524500.XA patent/CN105117703B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216896A (zh) * | 2008-01-14 | 2008-07-09 | 浙江大学 | 一种基于模版匹配的视点无关的人体动作识别方法 |
CN101561868A (zh) * | 2009-05-19 | 2009-10-21 | 华中科技大学 | 基于高斯特征的人体运动情感识别方法 |
CN102013016A (zh) * | 2010-11-23 | 2011-04-13 | 华东理工大学 | 可用于假肢手控制的基于肌音信号手部动作模式识别方法 |
Non-Patent Citations (1)
Title |
---|
《基于视觉的人体动作识别综述》;胡琼等;《计算机学报》;20131231;第36卷(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN105117703A (zh) | 2015-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105117703B (zh) | 基于矩阵乘法的快速动作单元识别方法 | |
Masood et al. | Prediction of human ethnicity from facial images using neural networks | |
Hemalatha et al. | A study of techniques for facial detection and expression classification | |
Sai et al. | Facial age range estimation with extreme learning machines | |
Islam et al. | Performance of SVM, CNN, and ANN with BoW, HOG, and image pixels in face recognition | |
Jain et al. | Gender identification using frontal facial images | |
De la Torre et al. | Temporal segmentation of facial behavior | |
CN102103690A (zh) | 一种自动的头发区域分割方法 | |
Li et al. | Facial action unit recognition under incomplete data based on multi-label learning with missing labels | |
CN111898550B (zh) | 建立表情识别模型方法、装置、计算机设备及存储介质 | |
Sendik et al. | DeepAge: Deep Learning of face-based age estimation | |
Kamarajugadda et al. | Extract features from periocular region to identify the age using machine learning algorithms | |
Bouchrika et al. | Age estimation from facial images based on hierarchical feature selection | |
Sorci et al. | Modelling human perception of static facial expressions | |
Bouguila | Deriving kernels from generalized Dirichlet mixture models and applications | |
Alugupally et al. | Analysis of landmarks in recognition of face expressions | |
Avraam | Static gesture recognition combining graph and appearance features | |
Barman et al. | Facial expression recognition using distance signature feature | |
Nagaral et al. | Hybrid approach for facial expression recognition using HJDLBP and LBP histogram in video sequences | |
Rajagopalan et al. | Face recognition using multiple facial features | |
Diana et al. | Cognitive-affective emotion classification: Comparing features extraction algorithm classified by multi-class support vector machine | |
Chen et al. | Experiments with rough set approach to face recognition | |
Kherchaoui et al. | Facial expression identification system with Euclidean distance of facial edges | |
Lanitis et al. | On the analysis of factors influencing the performance of facial age progression | |
Schwartz | Scalable people re-identification based on a one-against-some classification scheme |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181016 Termination date: 20210824 |