CN103440509A - 一种有效的微表情自动识别方法 - Google Patents

一种有效的微表情自动识别方法 Download PDF

Info

Publication number
CN103440509A
CN103440509A CN2013103841432A CN201310384143A CN103440509A CN 103440509 A CN103440509 A CN 103440509A CN 2013103841432 A CN2013103841432 A CN 2013103841432A CN 201310384143 A CN201310384143 A CN 201310384143A CN 103440509 A CN103440509 A CN 103440509A
Authority
CN
China
Prior art keywords
micro
expression
tensor
class
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103841432A
Other languages
English (en)
Other versions
CN103440509B (zh
Inventor
贲晛烨
张鹏
杨明强
付希凯
李娟�
刘天娇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201310384143.2A priority Critical patent/CN103440509B/zh
Publication of CN103440509A publication Critical patent/CN103440509A/zh
Application granted granted Critical
Publication of CN103440509B publication Critical patent/CN103440509B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种有效的微表情自动识别方法,包括:微表情帧序列预处理、微表情信息数据学习和微表情识别。微表情帧序列预处理的方法为:检测获取的微表情序列的帧数,提取每帧图像的数据进行灰度化处理,采用线性插值的方法将所有的微表情序列都插值到统一的帧数。微表情信息数据学习方法为:将预处理阶段获得的微表情序列写成张量的形式,然后在张量空间采用张量表达的判别分析方法最小化同一种微表情的类内距离,最大化不同类微表情的类间距离实现对数据降维,将特征数据按照类判别能力降低的顺序进行向量化排序。微表情识别采用最近邻分类器,本发明较MPCA、GTDA、DTSA等方法具有更高的识别率,且本发明对计算机性能要求低,易于实现。

Description

一种有效的微表情自动识别方法
技术领域
本发明属于机器学习和模式识别领域,涉及一种有效的微表情自动识别方法,尤其涉及一种采用线性插值将微表情样本进行归一化和基于张量表达判别分析的微表情自动识别方法。
背景技术
人类的面部表情研究起源于19世纪达尔文[1],最近,Ekman和Erika[2]进行了面部测绘行为的研究,验证了微表情(micro expression)可提供更全面的隐蔽情感的泄露。微表情是一种持续时间仅为1/25秒至1/5秒的非常快速的表情,它表达了人视图压抑与隐藏的真正情感,往往为人所忽略,但在测谎中有重要的应用前景。
在国外,微表情识别研究已经有了几十年的历史,提出并且定义了微表情,在协助司法机关诊断案情、商业谈判、心理咨询等领域多有建树,开始得到一些应用。在国内,对微表情的研究也逐渐涉足加深,认知心理学博士傅小兰教授主持了2011—2013年的国家自然科学基金面上项目“面向自动谎言识别的微表情表达研究”(批准号:61075042),成为国内微表情研究的第一人。2010年,傅小兰等人[3]从心理学研究角度总结了微表情识别能力测验和早期的微表情训练工具,分析了微表情识别在医学临床、情绪智力、谎言识别、国家安全和政治心理学等领域的应用研究。2011年,任衍具等人[4]从心理学角度研究的是微表情的启动效应。2012年,傅小兰和颜文靖等人[5]仍从心理学角度研究了微表情泄露真实表情的持续时间问题。2013年,傅小兰等人[6]简略地总结了三种微表情数据库以及三种微表情自动识别方法,并指出心理学和计算机科学领域专家的协同合作,必将有效地促进微表情研究的不断深入及相关研究成果的广泛应用。微表情自动识别研究刚刚起步,王甦菁和颜文靖等人[7]在处理微表情视频序列时,将多线性主成分分析(Multilinear Principal Component Analysis,MPCA)作为Baseline算法,王甦菁提出了一种判别张量分析(Discriminant Tensor Subspace Analysis,DTSA)算法[8],并将其产生差异特征进一步使用极端学习机(Extreme Learning Machine,ELM)来分类。DTSA的优点是可保留图像的空间结构信息,不需要调谐因子,但是,该方法对计算机性能的要求较高,且识别率不高。本专利提供了一种基于张量表达的判别分析(Discriminant Analysis with Tensor Representation,DATER)的快速微表情自动识别方法,不仅降低了对计算机性能的要求,而且大大地提高了识别率,是一种具有高有效性和鲁棒性的微表情识别方法。
[1]Darwin C.The expression of the emotions in man and animals[M].University of ChicagoPress,1965
[2]Ekman P,and Erika L R.What the face reveals:basic and applied studies of spontaneousexpression using the facial action coding system(FACS)[M].Oxford University Press,1997.
[3]吴奇,申寻兵,傅小兰.微表情研究及其应用[J].心理科学进展,2010,18(9):1359-1368.
[4]吴冉,任衍具.微表情的启动效应研究[J].应用心理学,2011,17(3):241-248.
[5]颜文靖,吴奇,傅小兰.微表情的时长:掩藏时泄露的表情有多快[A].第十五届全国心理学学术会议论文摘要集[C].中国心理学会.2012.
[6]梁静,颜文靖,吴奇,等.微表情研究的进展与展望[J].中国科学基金,2013,27(2):75-78.
[7]Yan W J,Wu Q,Liu Y J,et al.CASME Database:a dataset of spontaneousmicro-expressions collected from neutralized faces[C].10th IEEE Conference on Automatic Faceand Gesture Recognition.Shanghai:IEEE,2013.
[8]Wang S J,Chen H L,Yan W J,et al.Face recognition and micro-expression recognitionbased on discriminant tensor subspace analysis plus extreme learning machine[J].NeuralProcessing Letters,2013:1-19.
目前,大多数研究者将研究重点集中在微表情是否发生,而对于微表情的识别研究甚少。在已有的方法中,MPCA虽然能减少噪声带来的影响,但是识别性能低制约了这种方法的可靠性,DTSA对计算机的性能有很高的要求,且其识别性能依旧不能满足人们的要求。
发明内容
本专利提供了一种基于DATER的快速微表情自动识别方法,该方法建立在已经发生微表情的基础上,使用机器学习的方法判断该微表情的类别。该方法不仅降低了对计算机性能的要求,而且大大的提高了识别性能,是一种真正意义上的实时微表情识别。
本发明是通过如下技术方案来实现的:
一种有效的微表情自动识别方法,包括三个阶段:微表情帧序列预处理、微表情信息数据学习和微表情识别;所述微表情帧序列预处理的方法为:首先,检测获取的微表情序列的帧数,然后,提取每帧图像的数据进行灰度化处理;最后,采用线性插值的方法,将所有的微表情序列都插值到统一的帧数;所述微表情信息数据学习方法为:首先,将预处理阶段获得的微表情序列写成张量的形式,然后在张量空间采用张量表达的判别分析方法最小化同一种微表情的类内距离,最大化不同类微表情的类间距离实现对数据降维,将特征数据按照类判别能力降低的顺序进行向量化排序;所述微表情识别采用最近邻分类器。
所述线性插值方法是根据线性插值压缩率求线性插值系数,使用该系数模拟插值出中间的帧。
所述线性插值方法的具体步骤为:
假设一段微表情序列图像{Si∈Rm×n,i=1,…,P}和欲归一化得到的微表情序列图像{S′j∈Rm×n,j=1,…,Q};其中,P为原始的帧数,m、n分别为图像的行、列维数,Q为归一化后的帧数。定义线性插值压缩率为插值后得到的帧间隔与插值前的图像帧间隔的比值:
rate=(Q-1)/(P-1)   (1)
规定归一化的第一帧S′1和最后一帧S′Q分别为:
S′1=S1,S′Q=SP   (2)
对于归一化后中间的任意一帧j和原始微表情序列图像的某一帧i,若满足关系式(i-1)×rate<=j并且i×rate>j,则插值系数a、b为
a=|(i-1)×rate-(j-1)|/rate   (3)
b=|(i-2)×rate-(j-1)|/rate   (4)
插值后的微表情序列的第j帧图像为
S′j=a×Si-1+b×Si   (5)
所述微表情信息数据学习是指使用张量形式的判别分析进行特征提取,将高维张量数据投影到低维张量子空间中,提取的特征使得不同类微表情特征的类间距离最大,同类微表情特征类内距离最小。
所述微表情信息数据学习的具体步骤为:
M个微表情序列构成的训练样本集可以表示为
Figure BDA0000373429320000033
,其中,第m个训练样本
Figure BDA0000373429320000031
In(n=1,…,N)为张量的“n-模式”的维数。定义投影后的张量为
Figure BDA0000373429320000032
张量表达的判别分析(DATER)就是寻找一组投影矩阵{U(n),n=1,…,N},使样本从高维空间映射到低维空间中。
Figure BDA0000373429320000043
在特征空间中,样本之间的距离可以作为度量样本类别的依据。DATER是通过最大化特征空间的类间散布与类内散布的比值达到最大来实现特征提取的。
{ U ( n ) , n = 1 , . . . , N } = arg U ( n ) , max n = 1 , . . . , N S b ( n ) S w ( n ) - - - ( 7 )
因此,特征提取的目标是通过寻找优化投影矩阵集合{U(n),n=1,…,N},使样本的类内距离最小,类间距离最大,从而实现良好的分类效果。为了保证解的收敛性,这里采用反复迭代求解思想,根据张量运算理论,求n模式投影U(n)时,固定其它N-1个模式投影矩阵{U(n),n=1,…n-1,n+1,…N}不变。
则样本的n模式类内散布为
Figure BDA00003734293200000411
U ~ ( n ) = U ( n + 1 ) ⊗ U ( n + 2 ) ⊗ . . . ⊗ U ( N ) ⊗ U ( 1 ) ⊗ . . . ⊗ U ( n - 1 ) - - - ( 9 )
其中,角标(n)表示张量的n模式,c表示类别总数,
Figure BDA0000373429320000047
表示第i类第j个样本的n模式值,
Figure BDA0000373429320000048
是第i类样本的n模式均值,Ni表示第i类的样本数。
样本的n模式类间散布
S b ( n ) = Σ i = 1 c N i ( M i ( n ) - M ( n ) ) U ~ ( n ) U ~ ( n ) T ( M i ( n ) - M ( n ) ) T - - - ( 10 )
其中,
Figure BDA00003734293200000410
表示整体样本n模式的均值。
所述向量化排序是指将投影后的低维张量转化成一维向量,按照类判别能力降低的顺序进行排序。
所述向量化排序的具体步骤为:
Figure BDA00003734293200000510
投影后的张量特征,
Figure BDA0000373429320000051
为投影后
Figure BDA00003734293200000512
所在类别的类内均值,
Figure BDA0000373429320000052
为投影后第i类的均值,
Figure BDA0000373429320000053
为样本集的整体均值,将类判别能力定义为
Figure BDA0000373429320000054
式中,
Figure BDA0000373429320000055
分别表示
Figure BDA0000373429320000056
Figure BDA0000373429320000057
Figure BDA00003734293200000513
Figure BDA0000373429320000058
张量数据中的每一项。依照式(11)的类判别能力将投影后所得的张量重新按照类判别能力递减的顺序向量化得到ym,保留到取得最佳识别性能时的维数。
所述识别过程是指采用基于欧氏距离的最近邻分类器将测试样本进行判别分类。
所述识别过程的具体步骤为:
令待测试样本为
Figure BDA00003734293200000515
,投影后张量和训练样本投影后形成新的训练集合的欧氏距离Dis,采用最近邻分类器测试识别,若
Figure BDA0000373429320000059
Figure BDA00003734293200000516
属于
Figure BDA00003734293200000517
所在的类别,其中,||||F表示F范数;vec()表示张量特征向量化,并且特征保留到取得最佳识别性能时的维数。
本发明的有益效果是:
1、本发明提供的是一种有效的微表情自动识别方法,其中,引入了线性插值方法,减少了微表情持续帧数对识别性能的影响;
2、本发明提供的一种有效的微表情自动识别方法对噪声具有较高的鲁棒性;
3、本发明引入了监督信息来指导分类,大大地提高了识别性能。
附图说明
图1本发明流程图。
图2CASME库中一个微表情序列。
图3插值到64帧的微表情序列。
图4-图7分别是CASME库中紧张、惊讶、压抑、厌恶四种微表情序列。
具体实施方式
下面结合附图和实例对本发明进行详细的描述。
一种有效的微表情自动识别方法,流程如图1所示,包括三个阶段:微表情帧序列预处理、微表情信息数据学习和微表情识别。微表情帧序列预处理的方法为:首先,检测获取的微表情序列的帧数,然后,提取每帧图像的数据进行灰度化处理;最后,采用线性插值的方法,将所有的微表情序列都插值到统一的帧数。微表情信息数据学习方法为:首先,将预处理阶段获得的微表情序列写成张量的形式,然后在张量空间采用张量表达的判别分析方法最小化同一种微表情的类内距离,最大化不同类微表情的类间距离,实现对数据降维,将特征数据按照类判别能力进行向量化排序处理。微表情识别采用简单有效的最近邻分类器。
所述线性插值方法是根据线性插值压缩率求线性插值系数,使用该系数模拟插值出中间的帧。
假设一段微表情序列图像{Si∈Rm×n,i=1,…,P}和欲归一化得到的微表情序列图像{S′j∈Rm×n,j=1,…,Q}。其中,P为原始的帧数,m、n分别为图像的行、列维数,Q为归一化后的帧数。定义线性插值压缩率为插值后得到的帧间隔(P帧有P-1个帧间隔)与插值前的图像帧间隔的比值:
rate=(Q-1)/(P-1)     (1)
规定归一化的第一帧S′1和最后一帧S′Q分别为:
S′1=S1,S′Q=SP     (2)
对于归一化后中间的任意一帧j和原始微表情序列图像的某一帧i,若满足关系式(i-1)×rate〈=j并且i×rate>j,则插值系数a、b为
a=|(i-1)×rate-(j-1)|/rate     (3)
b=|(i-2)×rate-(j-1)|/rate     (4)
插值后的微表情序列的第j帧图像为
S′j=a×Si-1+b×Si     (5)
如图2所示为CASME库中一个微表情序列,如图3所示是插值到64帧时的微表情序列。
所述微表情信息数据学习是指使用张量形式的判别分析进行特征提取,将高维张量数据投影到低维张量子空间中,提取的特征使得不同类微表情特征的类间距离最大,同类微表情持征类内距离最小。
所述向量化排序是指将投影后的低维张量转化成一维向量,按照类判别能力降低的顺序进行排序。
M个微表情序列构成的训练样本集可以表示为
Figure BDA00003734293200000713
其中,第m个训练样本
Figure BDA00003734293200000710
为张量的“n-模式”的维数。定义投影后的张量为
Figure BDA00003734293200000711
张量表达的判别分析(DATER)就是寻找一组投影矩阵{U(n),n=1,…,N},使样本从高维空间映射到低维空间
Figure BDA0000373429320000072
中。
Figure BDA00003734293200000712
在特征空间中,样本之间的距离可以作为度量样本类别的依据。DATER是通过最大化特征空间的类间散布与类内散布的比值达到最大来实现特征提取的。
{ U ( n ) , n = 1 , . . . , N } = arg max U ( n ) , n = 1 , . . . , N S b ( n ) S w ( n ) - - - ( 7 )
因此,特征提取的目标是通过寻找优化投影矩阵集合{U(n),n=1,…,N},使样本的类内距离最小,类间距离最大,从而实现良好的分类效果。为了保证解的收敛性,这里采用反复迭代求解思想,根据张量运算理论,求n模式投影U(n)时,固定其它N-1个模式投影矩阵{U(n),n=1,…n-1,n+1,…N}不变。则样本的n模式类内散布为
Figure BDA0000373429320000074
U ~ ( n ) = U ( n + 1 ) ⊗ U ( n + 2 ) ⊗ . . . ⊗ U ( N ) ⊗ U ( 1 ) ⊗ . . . ⊗ U ( n - 1 ) - - - ( 9 )
其中,角标(n)表示张量的n模式,c表示类别总数,表示第i类第j个样本的n模式值,
Figure BDA0000373429320000077
是第i类样本的n模式均值,Ni表示第i类的样本数。
样本的n模式类间散布
S b ( n ) = Σ i = 1 c N i ( M i ( n ) - M ( n ) ) U ~ ( n ) U ~ ( n ) T ( M i ( n ) - M ( n ) ) T - - - ( 10 )
其中,
Figure BDA0000373429320000079
表示整体样本n模式的均值。
所述向量化排序是指将投影后的特征张量,按照类判别能力降低的顺序进行向量化处理。令
Figure BDA00003734293200000810
Figure BDA00003734293200000811
投影后的张量特征,
Figure BDA0000373429320000081
为投影后
Figure BDA00003734293200000812
所在类别的类内均值,
Figure BDA0000373429320000082
为投影后第i类的均值,
Figure BDA0000373429320000083
为样本集的整体均值,将类判别能力定义为
Figure BDA0000373429320000084
式中,
Figure BDA0000373429320000085
分别表示
Figure BDA0000373429320000086
Figure BDA0000373429320000087
Figure BDA00003734293200000813
Figure BDA0000373429320000088
张量数据中的每一项。依照式(11)的类判别能力将投影后所得的张量
Figure BDA00003734293200000814
重新按照类判别能力递减的顺序向量化得到ym,保留到取得最佳识别性能时的维数。
所述识别过程是指采用基于欧氏距离的最近邻分类器将测试样本进行判别分类。令待测试样本为
Figure BDA00003734293200000815
,投影后张量和训练样本投影后形成新的训练集合的欧氏距离Dis,采用最近邻分类器测试识别,若
Figure BDA00003734293200000816
属于
Figure BDA00003734293200000817
所在的类别,其中,‖‖F示F范数;vec()表示张量特征向量化,并且特征保留到取得最佳识别性能时的维数。
本实施例的实验结果:
CASME数据库包含195个帧频在60fps的微表情序列。这些微表情样本的起始帧、变化幅度最大的帧、结束帧都被编码,脸部动作单元被标记,并且确定了表情属性。此数据库中的微表情包括持续时间低于500ms的微表情以及面部表情持续时间大于500ms但是开始的持续时间小于250ms的微表情。由于这些微表情产生的环境配置不同以及使用的摄像机不同,它们被分为两组:A组是由BenQ M31摄像机在60fps的条件下拍摄,分辨率是1280×720,并且是在自然光下拍摄;B组是由PointGrey GRAS-03K2C摄像机在60fps的条件下拍摄,分辨率是640×480,拍摄地点是在有两个LED灯的房间里。
我们在中科院提供的CASME数据库下,选取了紧张、压抑、厌恶以及惊讶四种微表情序列作为实验样本,每帧图像都进行人脸检测,并且统一归一到64×64像素大小,如图4-7所示。其中,对于每种微表情随机选择15个样本作为训练样本,剩下的样本作为测试样本,采用线性插值的方法将所有微表情序列都插值到64帧,这样每个微表情序列即为64×64×64大小的张量。再采用DATER将每个样本投影到大小为20×20×20、30×30×30、40×40×40、50×50×50、60×60×60的张量子空间,随机选择20次进行实验,实验结果如表1所示给出每次实验的识别大小以及经张量向量化后的保留到取得最佳识别性能时的维数。
表1本专利所提供的方法的识别性能
Figure BDA0000373429320000091
为了说明本专利所提供方法的优越性,仍然采用线性插值的方法将所有微表情序列都插值到64帧,分别采用Baseline、广义张量判别分析(General tensor discriminant analysis,GTDA)和DSTA将每个样本投影到大小为20×20×20、30×30×30、40×40×40、50×50×50、60×60×60的张量子空间,随机选择20次进行实验,将本专利所提供的方法与Baseline、GTDA和DSTA在平均识别率方面做了比较,如表2所示。
表2本专利所提供的方法的平均识别率(%)与其他方法的比较
Figure BDA0000373429320000101
由表2可知,本专利所提供的方法,微表情张量样本在投影到60×60×60子空间时,平均识别率已经达到了93.09%,远远高于其它方法。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (9)

1.一种有效的微表情自动识别方法,其特征是,包括三个阶段:微表情帧序列预处理、微表情信息数据学习和微表情识别;
所述微表情帧序列预处理的方法为:首先,检测获取的微表情序列的帧数,然后,提取每帧图像的数据进行灰度化处理;最后,采用线性插值的方法,将所有的微表情序列都插值到统一的帧数;
所述微表情信息数据学习方法为:首先,将预处理阶段获得的微表情序列写成张量的形式,然后在张量空间采用张量表达的判别分析方法最小化同一种微表情的类内距离,最大化不同类微表情的类间距离实现对数据降维,将特征数据按照类判别能力降低的顺序进行向量化排序;
所述微表情识别采用最近邻分类器。
2.如权利要求1所述的有效的微表情自动识别方法,其特征是,所述线性插值方法是根据线性插值压缩率求线性插值系数,使用该系数模拟插值出中间的帧。
3.如权利要求2所述的有效的微表情自动识别方法,其特征是,线性插值方法的具体步骤为:
假设一段微表情序列图像{Si∈Rm×n,i=1,…,P}和欲归一化得到的微表情序列图像{S′j∈Rm×n,j=1,…,Q};其中,P为原始的帧数,m、n分别为图像的行、列维数,Q为归一化后的帧数;定义线性插值压缩率为插值后得到的帧间隔与插值前的图像帧间隔的比值:
rate=(Q-1)/(P-1)   (1)
规定归一化的第一帧S′1和最后一帧S′Q分别为:
S′1=S1,S′Q=SP   (2)
对于归一化后中间的任意一帧j和原始微表情序列图像的某一帧i,若满足关系式(i-1)×rate<=j并且i×rate>j,则插值系数a、b为
a=|(i-1)×rate-(j-1)|/rate   (3)
b=|(i-2)×rate-(j-1)|/rate   (4)
插值后的微表情序列的第j帧图像为
S′j=a×Si-1+b×Si   (5)。
4.如权利要求1所述的有效的微表情自动识别方法,其特征是,所述微表情信息数据学习使用张量形式的判别分析进行特征提取,将高维张量数据投影到低维张量子空间中,提取的特征使得不同类微表情特征的类间距离最大,同类微表情特征类内距离最小。
5.如权利要求4所述的有效的微表情自动识别方法,其特征是,所述微表情信息数据学习的具体步骤为:
M个微表情序列构成的训练样本集表示为
Figure FDA00003734293100000212
其中,第m个训练样本
Figure FDA0000373429310000021
In为张量的“n-模式”的维数,n=1,…,N;定义投影后的张量为
Figure FDA0000373429310000022
Pn<In,n=1,2,…,N;张量表达的判别分析就是寻找一组投影矩阵{U(n),n=1,…,N},使样本从高维空间
Figure FDA0000373429310000023
映射到低维空间
Figure FDA0000373429310000024
中;
Figure FDA0000373429310000025
张量表达的判别分析是通过最大化特征空间的类间散布与类内散布的比值达到最大来实现特征提取的;
{ U ( n ) , n = 1 , &CenterDot; &CenterDot; &CenterDot; , N } = arg max U ( n ) , n = 1 , &CenterDot; &CenterDot; &CenterDot; , N S b ( n ) S w ( n ) - - - ( 7 )
因此,特征提取的目标是通过寻找优化投影矩阵集合{U(n),n=1,…,N},使样本的类内距离最小,类间距离最大;求n模式投影U(n)时,固定其它N-1个模式投影矩阵{U(n),n=1,…n-1,n+1,…N}不变;则样本的n模式类内散布为
Figure FDA0000373429310000027
U ~ ( n ) = U ( n + 1 ) &CircleTimes; U ( n + 2 ) &CircleTimes; &CenterDot; &CenterDot; &CenterDot; &CircleTimes; U ( N ) &CircleTimes; U ( 1 ) &CircleTimes; &CenterDot; &CenterDot; &CenterDot; &CircleTimes; U ( n - 1 ) - - - ( 9 )
其中,角标(n)表示张量的n模式,c表示类别总数,
Figure FDA0000373429310000029
表示第i类第j个样本的n模式值,
Figure FDA00003734293100000210
是第i类样本的n模式均值,Ni表示第i类的样本数;
样本的n模式类间散布
S b ( n ) = &Sigma; i = 1 c N i ( M i ( n ) - M ( n ) ) U ~ ( n ) U ~ ( n ) T ( M i ( n ) - M ( n ) ) T - - - ( 10 )
其中,
Figure FDA0000373429310000031
表示整体样本n模式的均值。
6.如权利要求1所述的有效的微表情自动识别方法,其特征是,所述向量化排序是指将投影后的低维张量转化成一维向量,按照类判别能力降低的顺序进行排序。
7.如权利要求6所述的有效的微表情自动识别方法,其特征是,所述向量化排序的具体步骤为:
Figure FDA00003734293100000312
Figure FDA00003734293100000313
投影后的张量特征,为投影后
Figure FDA00003734293100000314
所在类别的类内均值,
Figure FDA0000373429310000033
为投影后第i类的均值,
Figure FDA0000373429310000034
为样本集的整体均值,将类判别能力定义为
Figure FDA0000373429310000035
式中,分别表示
Figure FDA0000373429310000038
Figure FDA00003734293100000318
Figure FDA0000373429310000039
张量数据中的每一项;依照式(11)的类判别能力将投影后所得的张量
Figure FDA00003734293100000319
重新按照类判别能力递减的顺序向量化得到ym,保留到取得最佳识别性能时的维数。
8.如权利要求1所述的有效的微表情自动识别方法,其特征是,所述识别过程采用基于欧氏距离的最近邻分类器将测试样本进行判别分类。
9.如权利要求8所述的有效的微表情自动识别方法,其特征是,所述识别过程的具体步骤为:
令待测试样本为
Figure FDA00003734293100000315
,投影后张量和训练样本投影后形成新的训练集合的欧氏距离Dis,采用最近邻分类器测试识别,若
Figure FDA00003734293100000310
Figure FDA00003734293100000311
Figure FDA00003734293100000316
属于
Figure FDA00003734293100000317
所在的类别,其中,||||F表示F范数;vec()表示张量特征向量化,并且特征保留到取得最佳识别性能时的维数。
CN201310384143.2A 2013-08-28 2013-08-28 一种有效的微表情自动识别方法 Expired - Fee Related CN103440509B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310384143.2A CN103440509B (zh) 2013-08-28 2013-08-28 一种有效的微表情自动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310384143.2A CN103440509B (zh) 2013-08-28 2013-08-28 一种有效的微表情自动识别方法

Publications (2)

Publication Number Publication Date
CN103440509A true CN103440509A (zh) 2013-12-11
CN103440509B CN103440509B (zh) 2016-05-11

Family

ID=49694202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310384143.2A Expired - Fee Related CN103440509B (zh) 2013-08-28 2013-08-28 一种有效的微表情自动识别方法

Country Status (1)

Country Link
CN (1) CN103440509B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103617436A (zh) * 2013-12-17 2014-03-05 山东大学 基于差分切片能量图和Gabor变换的微表情识别方法
CN104008391A (zh) * 2014-04-30 2014-08-27 首都医科大学 一种基于非线性降维的人脸微表情捕捉及识别方法
CN104657718A (zh) * 2015-02-13 2015-05-27 武汉工程大学 一种基于人脸图像特征极限学习机的人脸识别方法
CN104933416A (zh) * 2015-06-26 2015-09-23 复旦大学 基于光流场的微表情序列特征提取方法
CN105469080A (zh) * 2016-01-07 2016-04-06 东华大学 一种人脸表情识别方法
CN105608440A (zh) * 2016-01-03 2016-05-25 复旦大学 基于最小化误差的面部微表情序列特征抽取方法
CN106557749A (zh) * 2016-11-18 2017-04-05 深圳市唯特视科技有限公司 一种基于三维形变人脸模型用于安防的人脸识别方法
CN106599558A (zh) * 2016-12-05 2017-04-26 武汉智普天创科技有限公司 一种基于虚拟现实的认知评估方法及系统
CN106971180A (zh) * 2017-05-16 2017-07-21 山东大学 一种基于语音字典稀疏迁移学习的微表情识别方法
CN107273876A (zh) * 2017-07-18 2017-10-20 山东大学 一种基于深度学习的‘宏to微转换模型’的微表情自动识别方法
CN107403142A (zh) * 2017-07-05 2017-11-28 山东中磁视讯股份有限公司 一种微表情的检测方法
CN108629314A (zh) * 2018-05-07 2018-10-09 山东大学 一种基于主动迁移学习的微表情识别方法
CN108647628A (zh) * 2018-05-07 2018-10-12 山东大学 一种基于多特征多任务字典稀疏迁移学习的微表情识别方法
CN108830222A (zh) * 2018-06-19 2018-11-16 山东大学 一种基于信息性和代表性主动学习的微表情识别方法
CN109543603A (zh) * 2018-11-21 2019-03-29 山东大学 一种基于宏表情知识迁移的微表情识别方法
CN110097020A (zh) * 2019-05-10 2019-08-06 山东大学 一种基于联合稀疏字典学习的微表情识别方法
CN110377775A (zh) * 2019-07-26 2019-10-25 Oppo广东移动通信有限公司 一种图片审核方法及装置、存储介质
CN111368691A (zh) * 2020-02-28 2020-07-03 西南电子技术研究所(中国电子科技集团公司第十研究所) 无监督高光谱遥感图像空谱特征提取方法
CN111582212A (zh) * 2020-05-15 2020-08-25 山东大学 一种基于运动单元的多域融合微表情检测方法
CN112364787A (zh) * 2020-11-13 2021-02-12 江苏汉德天坤数字技术有限公司 一种面部微表情识别方法
CN114842523A (zh) * 2022-03-16 2022-08-02 西南大学 表情识别方法、装置、电子设备及计算机可读取存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100121623A1 (en) * 2008-11-12 2010-05-13 Terra Nova Sciences Llc Methods and systems for constructing and using a subterranean geomechanics model spanning local to zonal scale in complex geological environments
CN103258204A (zh) * 2012-02-21 2013-08-21 中国科学院心理研究所 一种基于Gabor和EOH特征的自动微表情识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100121623A1 (en) * 2008-11-12 2010-05-13 Terra Nova Sciences Llc Methods and systems for constructing and using a subterranean geomechanics model spanning local to zonal scale in complex geological environments
CN103258204A (zh) * 2012-02-21 2013-08-21 中国科学院心理研究所 一种基于Gabor和EOH特征的自动微表情识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贲晛烨: "基于人体运动分析的步态识别算法研究", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103617436B (zh) * 2013-12-17 2017-01-25 山东大学 基于差分切片能量图和Gabor变换的微表情识别方法
CN103617436A (zh) * 2013-12-17 2014-03-05 山东大学 基于差分切片能量图和Gabor变换的微表情识别方法
CN104008391A (zh) * 2014-04-30 2014-08-27 首都医科大学 一种基于非线性降维的人脸微表情捕捉及识别方法
CN104657718A (zh) * 2015-02-13 2015-05-27 武汉工程大学 一种基于人脸图像特征极限学习机的人脸识别方法
CN104657718B (zh) * 2015-02-13 2018-12-14 武汉工程大学 一种基于人脸图像特征极限学习机的人脸识别方法
CN104933416A (zh) * 2015-06-26 2015-09-23 复旦大学 基于光流场的微表情序列特征提取方法
CN104933416B (zh) * 2015-06-26 2018-11-02 复旦大学 基于光流场的微表情序列特征提取方法
CN105608440A (zh) * 2016-01-03 2016-05-25 复旦大学 基于最小化误差的面部微表情序列特征抽取方法
CN105608440B (zh) * 2016-01-03 2019-05-31 复旦大学 基于最小化误差的面部微表情序列特征抽取方法
CN105469080B (zh) * 2016-01-07 2018-09-25 东华大学 一种人脸表情识别方法
CN105469080A (zh) * 2016-01-07 2016-04-06 东华大学 一种人脸表情识别方法
CN106557749A (zh) * 2016-11-18 2017-04-05 深圳市唯特视科技有限公司 一种基于三维形变人脸模型用于安防的人脸识别方法
CN106599558A (zh) * 2016-12-05 2017-04-26 武汉智普天创科技有限公司 一种基于虚拟现实的认知评估方法及系统
CN106971180B (zh) * 2017-05-16 2019-05-07 山东大学 一种基于语音字典稀疏迁移学习的微表情识别方法
CN106971180A (zh) * 2017-05-16 2017-07-21 山东大学 一种基于语音字典稀疏迁移学习的微表情识别方法
CN107403142B (zh) * 2017-07-05 2018-08-21 山东中磁视讯股份有限公司 一种微表情的检测方法
CN107403142A (zh) * 2017-07-05 2017-11-28 山东中磁视讯股份有限公司 一种微表情的检测方法
CN107273876B (zh) * 2017-07-18 2019-09-10 山东大学 一种基于深度学习的‘宏to微转换模型’的微表情自动识别方法
CN107273876A (zh) * 2017-07-18 2017-10-20 山东大学 一种基于深度学习的‘宏to微转换模型’的微表情自动识别方法
CN108647628A (zh) * 2018-05-07 2018-10-12 山东大学 一种基于多特征多任务字典稀疏迁移学习的微表情识别方法
CN108629314A (zh) * 2018-05-07 2018-10-09 山东大学 一种基于主动迁移学习的微表情识别方法
CN108647628B (zh) * 2018-05-07 2021-10-26 山东大学 一种基于多特征多任务字典稀疏迁移学习的微表情识别方法
CN108629314B (zh) * 2018-05-07 2021-08-10 山东大学 一种基于主动迁移学习的微表情识别方法
CN108830222A (zh) * 2018-06-19 2018-11-16 山东大学 一种基于信息性和代表性主动学习的微表情识别方法
CN109543603B (zh) * 2018-11-21 2021-05-11 山东大学 一种基于宏表情知识迁移的微表情识别方法
CN109543603A (zh) * 2018-11-21 2019-03-29 山东大学 一种基于宏表情知识迁移的微表情识别方法
CN110097020A (zh) * 2019-05-10 2019-08-06 山东大学 一种基于联合稀疏字典学习的微表情识别方法
CN110097020B (zh) * 2019-05-10 2023-04-07 山东大学 一种基于联合稀疏字典学习的微表情识别方法
CN110377775A (zh) * 2019-07-26 2019-10-25 Oppo广东移动通信有限公司 一种图片审核方法及装置、存储介质
CN111368691A (zh) * 2020-02-28 2020-07-03 西南电子技术研究所(中国电子科技集团公司第十研究所) 无监督高光谱遥感图像空谱特征提取方法
CN111368691B (zh) * 2020-02-28 2022-06-14 西南电子技术研究所(中国电子科技集团公司第十研究所) 无监督高光谱遥感图像空谱特征提取方法
CN111582212A (zh) * 2020-05-15 2020-08-25 山东大学 一种基于运动单元的多域融合微表情检测方法
CN111582212B (zh) * 2020-05-15 2023-04-18 山东大学 一种基于运动单元的多域融合微表情检测方法
CN112364787A (zh) * 2020-11-13 2021-02-12 江苏汉德天坤数字技术有限公司 一种面部微表情识别方法
CN114842523A (zh) * 2022-03-16 2022-08-02 西南大学 表情识别方法、装置、电子设备及计算机可读取存储介质

Also Published As

Publication number Publication date
CN103440509B (zh) 2016-05-11

Similar Documents

Publication Publication Date Title
CN103440509A (zh) 一种有效的微表情自动识别方法
Ben et al. Learning effective binary descriptors for micro-expression recognition transferred by macro-information
Song et al. Feature selection using principal component analysis
CN103617436A (zh) 基于差分切片能量图和Gabor变换的微表情识别方法
Wei et al. Micro-expression recognition using local binary pattern from five intersecting planes
Guan et al. Sparse representation based discriminative canonical correlation analysis for face recognition
CN103632145A (zh) 一种基于模糊二维非相关判别转换的人脸识别方法
Zhang et al. Motion magnification multi-feature relation network for facial microexpression recognition
Niu et al. Discriminative video representation with temporal order for micro-expression recognition
Tyagi et al. Face recognition using discrete cosine transform and nearest neighbor discriminant analysis
Chen et al. K-means clustering-based kernel canonical correlation analysis for multimodal emotion recognition
Wang et al. Codebook enhancement of VLAD representation for visual recognition
Bottino et al. A new problem in face image analysis-finding kinship clues for siblings pairs
Rabaev et al. Case study in Hebrew character searching
Wang et al. Kernel cross-modal factor analysis for multimodal information fusion
Li et al. Face recognition with Riesz binary pattern
Shao et al. Converted-face identification: using synthesized images to replace original images for recognition
Lin et al. Micro-expression recognition based on spatiotemporal Gabor filters
Li et al. Image classification based on fuzzy support vector machine
Wang et al. Multi-view deep metric learning for volumetric image recognition
Gao et al. A discriminant two-dimensional canonical correlation analysis
Yang et al. A fusing algorithm of Bag-Of-Features model and Fisher linear discriminative analysis in image classification
Chen et al. Learning discriminative subregions and pattern orders for facial gender classification
Xu et al. An efficient method for human face recognition using nonsubsampled contourlet transform and support vector machine
Sheng et al. Sketch‐Based Image Retrieval Using Novel Edge Detector and Feature Descriptor

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160511

Termination date: 20160828

CF01 Termination of patent right due to non-payment of annual fee