CN104298981A - 人脸微表情的识别方法 - Google Patents

人脸微表情的识别方法 Download PDF

Info

Publication number
CN104298981A
CN104298981A CN201410616426.XA CN201410616426A CN104298981A CN 104298981 A CN104298981 A CN 104298981A CN 201410616426 A CN201410616426 A CN 201410616426A CN 104298981 A CN104298981 A CN 104298981A
Authority
CN
China
Prior art keywords
face
micro
expression
cbp
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410616426.XA
Other languages
English (en)
Inventor
郭迎春
薛翠红
师硕
于洋
王英资
张亚娟
阎刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN201410616426.XA priority Critical patent/CN104298981A/zh
Publication of CN104298981A publication Critical patent/CN104298981A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明人脸微表情的识别方法,涉及应用电子设备进行识别图形的方法,是在对人脸微表情图像序列预处理完成之后,使用Birnbaum-Saunders分布曲线建立回归模型,再使用CBP-TOP算法提取人脸微表情序列的动态时空纹理特征,最后使用分类器进行训练和预测,该方法克服了现有人脸微表情的识别方法存在对人脸微表情图像的亮点、边缘和白色噪声微小特征较为敏感,因而识别性能低的缺陷。

Description

人脸微表情的识别方法
技术领域
本发明的技术方案涉及应用电子设备进行识别图形的方法,具体地说是人脸微表情的识别方法。
背景技术
微表情是人类内在的情感信息加工过程,它无法伪造,不受意识控制,是识别谎言的有效线索,可以被广泛的应用于安全、司法、临床等领域。但微表情持续时间短且难以识别。即使是受过良好训练的人,进行微表情识别时,准确率仅在40%左右。因此,研发微表情识别系统,实现计算机自动识别微表情,对微表情的机理研究和实际应用都是非常必要的。
目前,国内外很多团队都在开展微表情研究。Ekman和Friesen于1969首次发现微表情的重要性,并且一直是微表情研究的主要力量之一,但他们的大部分研究工作成果至今并未见到公开发表。日本筑波大学Polikovsky团队使用3D梯度直方图方法进行微表情的检测识别,对200fps的视频序列进行处理,首先将人脸表情按照特定区域进行分块,然后在每一个区域提取3D直方图特征描述运动方向,在检测到微表情之后,根据一些给定的规则诸如FACS编码进行分类,该方法使用的数据库是研究人员自己构建的,参与人员被要求以尽可能低的表情强度、尽可能快的速度做出面部表情,论文并没有给出最终的识别率,该方法的人脸跟踪效果不好,没有足够的测试集进行测试,分类算法无法适应复杂的人脸变化。美国南佛罗里达大学Shreveport团队把光流法用于微表情研究,该方法使用应变模式处理连续的、不断变化的长视频。对面部表情的自动分割,通过对面部划分成的8个兴趣区域计算得到的光学应力与训练等得到的某一阈值进行比较,实现了对表情和微表情的分割。虽然该方法对光照不均匀和大量移动问题是鲁棒性的,但较为依赖于面部皮肤中形变的大小。芬兰奥卢大学的赵国英团队使用时间差值模型和LBP-TOP算法提取微表情序列的特征,通过提取序列图像或视频在时域和空域方向上的动态LBP纹理特征进行微表情的识别,算法测试库样本量相对较小,识别率较低。CN 103258204A公开了一种基于Gabor和EOH特征的自动微表情识别方法,使用Gabor和EOH特征进行微表情特征提取,但Gabor和EOH表征全局的能力较弱,且需要结合改进后的GentleSVM分类器才能进行微表情的分类识别,所需的硬件设备性能要求较高,而识别性能低于人们的期望。总之,现有人脸微表情的识别方法存在对人脸微表情图像的亮点、边缘和白色噪声微小特征较为敏感,因而识别性能低的缺陷。
发明内容
本发明所要解决的技术问题是:提供人脸微表情的识别方法,是在对人脸微表情图像序列预处理完成之后,使用Birnbaum-Saunders分布曲线建立回归模型,再使用CBP-TOP算法提取人脸微表情序列的动态时空纹理特征,最后使用分类器进行训练和预测,该方法克服了现有人脸微表情的识别方法对人脸微表情图像的亮点、边缘和白色噪声这些微小特征较为敏感,因而识别性能低的缺陷。
上述CBP-TOP是Centralized Binary Patterns from Three Orthogonal Panels的缩写。
本发明解决该技术问题所采用的技术方案是:人脸微表情的识别方法,是一种使用CBP-TOP算法提取微表情序列的动态时空纹理特征的人脸微表情的识别方法,具体步骤如下:
第一步,人脸微表情图像预处理:
使用Adaboost算法检测微表情图像中的人脸,并进行裁剪,采用双线性差值算法实现图像的尺寸归一化,经过人脸微表情图像预处理后的人脸微表情图像大小为180×180像素;
第二步,人脸微表情检测:
使用Birnbaum-Saunders分布曲线建立回归模型,用于标记人脸微表情图像序列,其中包括人脸微表情出现的开始帧Apex1,持续时间和结束帧Apex2,由此完成人脸微表情检测;
第三步,使用CBP-TOP算法提取人脸微表情序列的动态时空纹理特征:
利用CBP-TOP算法对第二步标记完成的人脸微表情图像序列进行分块时空域纹理特征的提取,将第二步得到的有效描述人脸微表情序列的8帧图像分成16×16个非重叠的块,在每一子块上提取CBP-TOP特征,并对该子块进行CBP-TOP特征的直方图统计,最后将所有子块的特征直方图串联成整个人脸微表情序列的特征直方图,由此提取人脸微表情序列的动态时空纹理特征,即获取人脸微表情序列在XY平面的形变信息,以及在XT平面和YT平面的运动信息,所述CBP-TOP特征是图像本身存在的纹理特征,提取过程是通过CBP码计算得到的;
第四步,使用ELM分类器进行训练和预测:
使用ELM分类器进行训练和预测,一则是用以验证CBP-TOP算法的有效性,二则是对人脸微表情序列的特征进行分类识别,判断提取的特征究竟属于哪类人脸微表情。
上述人脸微表情的识别方法,所述CBP-TOP算法如下:
CBP - TOP = Σ x , y , t I { f j ( x , y , t ) = i } , i = 0 , . . . , n j - 1 ; j = 0,1,2 - - - ( 1 ) ,
其中:nj为CBP算子在第j个平面产生的模式数目,j=0,1,2分别表示XY、XT和YT平面,fj(x,y,t)表示中心像素点(x,y,t)在第j个平面的CBP码的十进制值,函数I(f)的定义如下:
I ( f ) = 1 , if f is True 0 , if f is False - - - ( 2 ) .
上述人脸微表情的识别方法,所述“Adaboost算法、Birnbaum-Saunders分布曲线、和ELM分类器”都是公知的。
本发明的有益效果是:与现有技术相比,本发明的突出的实质性特点和显著进步如下:
(1)本发明方法采用CBP-TOP算法提取人脸微表情序列特征,考虑中心像素点的作用,并显著降低直方图的维度,并降低白色噪音对识别结果的影响。
(2)本发明方法采用ELM分类器进行人脸微表情的训练和预测,ELM可以直接应用于回归分析和多分类应用。对于数据量非常大的图像序列和多类分类问题,ELM的处理速度和准确率显著高于现有的SVM分类器。
(3)本发明方法克服了现有人脸微表情的识别方法存在对人脸微表情图像的亮点、边缘和白色噪声微小特征较为敏感,因而导致识别性能低的缺陷,并充分考虑中心像素点的作用,给予最高权重,同时降低了白色噪声对图像的影响,最后使用ELM分类器对提取到的特征进行训练和预测,ELM随机产生隐层结点参数,利用得到的外权决定输出,大大简化了传统神经网络复杂的迭代过程,可以直接应用于回归分析和多类分类中,能够描述人脸局部的运动变化信息,分类识别算法大大简化了传统神经网络复杂的迭代过程。
(4)本发明方法提高了人脸微表情识别的准确性,提高了训练的速度和效率,使得人脸微表情识别进入可应用的领域。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明人脸微表情的识别方法的流程示意框图。
图2是本发明人脸微表情的识别方法中的人脸微表情图像预处理前后的对比示意图,其中:2(a)是人脸微表情预处理前的图像;图2(b)是使用Adaboost算法多个弱分类器的叠加进行人脸区域的检测图像;图2(c)是人脸微表情最终处理后的图像。
图3是本发明人脸微表情的识别方法中的人脸微表情检测后的效果示意图,其中,图3(a)是人脸微表情序列的第一帧;图3(b)是图3(a)到图3(c)之间的过渡表情图;图3(c)是人脸微表情出现的第一帧;图3(d)和图3(e)是人脸微表情持续帧;图3(f)是人脸微表情结束的最后一帧;图3(g)是人脸微表情序列的最后一帧。
图4是本发明人脸微表情的识别方法中的CBP-TOP计算过程示意图,其中图4(a)是图像序列中的XY、XT和YT三个平面图;图4(b)是每个平面的直方图;图4(c)是串联后的直方图。
图5是本发明人脸微表情的识别方法中的分块CBP-TOP计算过程示意图,其中,图5(a)是人脸微表情图像序列;图5(b)是人脸微表情序列分块;图5(c)是生成分块CBP-TOP特征的示意图。
图6是本发明人脸微表情的识别方法中的不同分块大小的识别率。
图7是本发明人脸微表情的识别方法中的CBP-TOP取不同阈值D0的实验结果。
具体实施方式
图1所示实施例表明,本发明人脸微表情的识别方法的流程是:开始→人脸微表情图像预处理→人脸微表情检测→使用CBP-TOP算法提取人脸微表情序列的动态时空纹理特征→使用分类器进行训练和预测→结束。
图2所示实施例表明,在本发明方法中,人脸微表情图像预处理前后的对比如下:图2(a)是人脸微表情预处理前的图像,图2(b)是使用Adaboost算法多个弱分类器的叠加进行人脸区域的检测图像,图2(c)是人脸微表情最终处理后的图像,主要过程是对裁剪后的人脸区域,使用双线性差值算法进行图像的尺寸归一化,经过处理后的人脸微表情图像大小为180×180像素。
图3所示实施例显示了本发明人脸微表情的识别方法的人脸微表情检测后的效果,具体地说是使用Birnbaum-Saunders分布曲线建立回归模型,用于标记人脸微表情图像序列,其中包括:人脸微表情出现的开始帧Apex1,持续时间和结束帧Apex2。其中,图3(a)是人脸微表情序列的第一帧;图3(b)是图3(a)到图3(c)之间的过渡表情图;图3(c)是人脸微表情出现的第一帧;图3(d)和图3(e)是人脸微表情持续帧;图3(f)是人脸微表情结束的最后一帧;图3(g)是人脸微表情序列的最后一帧。
图4所示实施例表明,在本发明方法中CBP-TOP特征提取算法的计算过程是,CBP通过比较中心像素点环形邻域中的近邻点对来计算图像的CBP码。CBP码的定义如下:
CBP ( P , R ) = Σ p = 0 ( P / 2 ) - 1 s ( g p - g p + P / 2 ) 2 p + s ( g c - 1 P + 1 ( Σ p = 0 P - 1 g p + g c ) ) 2 P / 2 - - - ( 3 )
其中,P、R分别表示环形邻域中近邻点的个数和半径;gc表示中心像素点的灰度值;gp(p=0,1,...,P-1)表示gc近邻点的灰度值;s(x)为符号函数,定义如下:
s ( x ) = 1 | x | &GreaterEqual; D 0 0 | x | < D 0 D0是阈值常数                    (4)
人脸微表情序列中的每一幅处于中间部分的图像上的每个像素点,都可以看做是XY、XT和YT三个正交平面的交点。因此,对于人脸微表情序列的特征提取,就以图像序列中的一幅处于序列中间部分的图像为基准,计算该图像上每个像素点作为中心像素点分别在XY、XT和YT三个正交平面上的环形邻域的CBP码。如果近邻点对的连线穿过中心像素点,则比较该对近邻点的灰度值。对于那些没有落在像素点中心的近邻点,采用双线性插值法估计灰度值。在XY、XT和YT三个正交平面上提取所有中心像素点的CBP码并进行直方图的统计,分别记作XY-CBP,XT-CBP和YT-CBP;将统计后的直方图串联起来,形成一个直方图,即为Hi={XY-CBP,XT-CBP,YT-CBP}。由于人脸微表情序列的特殊性,设置XY平面的半径等于XT、YT平面的半径是不合理的。如果图像序列是在高分辨率和低帧速的情况下获得的话,在X轴和Y轴方向上图像纹理变化不是很大,但在T轴方向上,图像纹理变化是巨大的,所以对时间和空间的半径需要设置不同的参数。在XY、XT、YT平面上的相邻点的半径和数目分别记作RX,RY和RT,PXY,PXT和PYT,对应的特征表示为
在X-Y-T三维坐标系中,假设中心像素点的坐标为xc、yc和tc(xc∈{0,…,X-1},yc∈{0,…,Y-1},tc∈{0,…,T-1})。中心像素点在各平面的环形邻域上的第p个相邻像素点gXY,P、gXT,P和gYT,P分别记作:
(xc-RX sin(2πp/PXY),yc+RY cos(2πp/PXY),tc),其中P∈{0,1,…,PXY-1};
(xc-RX sin(2πp/PXT),yc,tc-RT cos(2πp/PXT)),其中P∈{0,1,…,PXT-1};
(xc,yc-RY cos(2πp/PYT),tc-RT sin(2πp/PYT)),其中P∈{0,1,…,PYT-1}。
获取中心像素点在三个正交平面上的相邻像素点后,就可以分别计算该中心像素点在三个正交平面上的CBP码了。计算出所有中心像素点在三个正交平面上的CBP码后,再分别统计三个平面的CBP直方图,最后串联起三个直方图,就得到图像序列的直方图,定义如下
Hi,j=Σx,y,tI{fj(x,y,t)=i},i=0,...,nj-1;j=0,1,2.          (5)
其中:nj为CBP算子在第j个平面产生的模式数目,j=0,1,2分别表示XY,XT,YT平面,fi(x,y,t)表示中心像素点(x,y,t)在第j个平面的CBP码的十进制值,函数I(f)的定义如下:
I ( f ) = 1 , if f is True 0 , if f is False - - - ( 6 )
正交化直方图的计算公式为:
N i , j = H i , j &Sigma; k = 0 n j - 1 H k , j - - - ( 7 )
在该直方图中,可以有效获取CBP在各平面的纹理特征。XY平面获得形变信息,XT和YT平面获得水平、垂直方向的运动信息。因此CBP-TOP可以获取图像序列的时空动态纹理特征的全局信息。CBP显著地降低了直方图的维度,通过考虑中心像素点并赋予最高权重,降低了白色噪音的敏感性。图4(a)是图像序列中的XY、XT和YT三个平面图;图4(b)是每个平面的直方图;图4(c)是串联后的直方图。
图5所示实施例表明,本发明人脸微表情的识别方法的分块CBP-TOP计算过程是在考虑像素级、区域级和时间信息后,提出对图像分块并提取CBP-TOP的方法。如果不对图像序列分块而直接使用CBP-TOP算子提取人脸微表情序列特征,这样就不能获取反映人脸部微小变化的位置特征。为了能够描述人脸局部的运动变化信息,要对人脸微表情图像序列进行合理分块,将人脸微表情图像分成4×3的非重叠块。在每一小块上提取CBP-TOP特征并对该小块进行CBP-TOP特征的直方图统计,这样就能获取人脸微表情序列的形变和运动特征。
提取完人脸微表情序列特征之后,本发明使用ELM分类器的Sigmoidal函数作为分类函数,进行多类分类。
本发明在CASME人脸微表情数据库进行实验。从CASME库中,选取142个图像序列进行实验,这些人脸微表情序列总周期小于500ms或者人脸微表情启动时间(从开始帧到最大帧)小于250ms。实验中人脸微表情序列被分为厌恶,高兴,压抑,惊讶和紧张,分别包含32,10,40,17,43个图像序列,每个图像序列包含8帧,共1136幅图像。本发明是在Windows 7环境下的MATLAB R2013a平台上运行完成。图5(a)是人脸微表情图像序列;图5(b)是人脸微表情序列分块;图5(c)是生成分块CBP-TOP特征的示意图。
图6所示人脸微表情的识别方法中的不同分块大小的识别率的实施例表明,在本发明方法中,当分块大小在16×16时,效果最好,识别率能够达到78.5%。实验基础是PXY=PXT=PYT=8,RX=RY=RT=1,阈值常数D0=10。该图中横坐标表示人脸微表情图像序列中每张图片分块的块大小,纵坐标表示对应分块大小的算法识别率(%)。
图7所示人脸微表情的识别方法中的CBP-TOP取不同阈值D0的实验结果的实施例表明,在本发明方法中,阈值在D0=14时,识别率最好,达到80.0%。实验基础是PXY=PXT=PYT=8和块大小16×16。图中横坐标表示CBP-TOP公式中不同的阈值D0,纵坐标表示对应不同阈值的识别率(%)。
确定阈值D0和分块大小后,需要确定中心像素点在各平面的半径和邻域点数量。由于本实施例的每个图像序列是8帧,因此RT最大取2,最小取1。表1表明,PXY=PXT=PYT=8和RT=2,RX=RY=1,即邻域点为8个,XY平面半径为2,XT和YT平面半径为1时,效果是最好的,识别率能达到82.07%。
表1 CBP-TOP在不同的RT,RX,RY的平均识别率
CBP-top参数 平均识别率(%) CBP-top参数 平均识别率(%)
CBP-top8,8,8,1,1,1 78.5 CBP-top4,4,4,1,1,1 76.4
CBP-top8,8,8,2,2,1 80.2 CBP-top4,4,4,2,1,1 79.3
CBP-top8,8,8,2,1,1 82.07
比较VLBP、LBP-TOP和CBP-TOP三种方法在人脸微表情特征提取的结果如表2所示。
表2 在CASME数据库上,不同方法的识别率
方法 厌恶 高兴 压抑 惊讶 紧张 平均识别率(%)
VLBP+ELM 75.00 40.00 81.25 60.00 79.25 67.10
LBP-top+ELM 75.00 50.00 92.86 70.00 81.25 73.82
CBP-top+ELM 83.33 66.67 92.86 80.00 87.50 82.07
结果表明,本发明提取CBP-TOP特征的识别方法明显优于提取VLBP和LBP-TOP特征的识别方法,识别率达到82.07%。
实施例1
人脸微表情的识别方法,是一种使用CBP-TOP算法提取微表情序列的动态时空纹理特征的人脸微表情的识别方法,具体步骤如下:
第一步,人脸微表情图像预处理:
使用Adaboost算法检测微表情图像中的人脸,并进行裁剪,采用双线性差值算法实现图像的尺寸归一化,经过人脸微表情图像预处理后的人脸微表情图像大小为180×180像素;该步人脸微表情图像预处理的结果如上述图2实施例所示。
第二步,人脸微表情检测:
使用Birnbaum-Saunders分布曲线建立回归模型,用于标记人脸微表情图像序列,其中包括人脸微表情出现的开始帧Apex1,持续时间和结束帧Apex2,由此完成人脸微表情检测;该步人脸微表情检测的结果如上述图3实施例所示。
第三步,使用CBP-TOP算法提取人脸微表情序列的动态时空纹理特征:
利用CBP-TOP算法对第二步标记完成的人脸微表情图像序列进行分块时空域纹理特征的提取,将第二步得到的有效描述人脸微表情序列的8帧图像分成16×16个非重叠的块,在每一子块上提取CBP-TOP特征,并对该子块进行CBP-TOP特征的直方图统计,最后将所有子块的特征直方图串联成整个人脸微表情序列的特征直方图,由此提取人脸微表情序列的动态时空纹理特征,即获取人脸微表情序列在XY平面的形变信息,以及在XT平面和YT平面的运动信息,所述CBP-TOP特征是图像本身存在的纹理特征,提取过程是通过CBP码计算得到的;该步使用CBP-TOP算法提取人脸微表情序列的动态时空纹理特征的结果如上述图4-图7实施例所示。
第四步,使用ELM分类器进行训练和预测
使用ELM分类器进行训练和预测,一则是用以验证CBP-TOP算法的有效性,二则是对人脸微表情序列的特征进行分类识别,判断提取的特征究竟属于哪类人脸微表情。
上述人脸微表情的识别方法,所述CBP-TOP算法如下:
CBP - TOP = &Sigma; x , y , t I { f j ( x , y , t ) = i } , i = 0 , . . . , n j - 1 ; j = 0,1,2 - - - ( 1 ) ,
其中:nj为CBP算子在第j个平面产生的模式数目,j=0,1,2分别表示XY、XT和YT平面,fj(x,y,t)表示中心像素点(x,y,t)在第j个平面的CBP码的十进制值,函数I(f)的定义如下:
I ( f ) = 1 , if f is True 0 , if f is False - - - ( 2 ) .
上述实施例中所述Adaboost算法、Birnbaum-Saunders分布曲线和ELM分类器都是公知的。

Claims (2)

1.人脸微表情的识别方法,其特征在于:是一种使用CBP-TOP算法提取微表情序列的动态时空纹理特征的人脸微表情的识别方法,具体步骤如下:
第一步,人脸微表情图像预处理
使用Adaboost算法检测微表情图像中的人脸,并进行裁剪,采用双线性差值算法实现图像的尺寸归一化,经过人脸微表情图像预处理后的人脸微表情图像大小为180×180像素;
第二步,人脸微表情检测
使用Birnbaum-Saunders分布曲线建立回归模型,用于标记人脸微表情图像序列,其中包括人脸微表情出现的开始帧Apex1,持续时间和结束帧Apex2,由此完成人脸微表情检测;
第三步,使用CBP-TOP算法提取人脸微表情序列的动态时空纹理特征
利用CBP-TOP算法对第二步标记完成的人脸微表情图像序列进行分块时空域纹理特征的提取,使用第二步得到的有效描述人脸微表情序列的8帧图像,将其分成16×16个非重叠的块,在每一子块上提取CBP-TOP特征,并对该子块进行CBP-TOP特征的直方图统计,最后将所有子块的特征直方图串联成整个人脸微表情序列的特征直方图,由此提取人脸微表情序列的动态时空纹理特征,即获取人脸微表情序列在XY平面的形变信息,以及在XT平面和YT平面的运动信息,所述CBP-TOP特征是图像本身存在的纹理特征,提取过程是通过CBP码计算得到的;
第四步,使用ELM分类器进行训练和预测
使用ELM分类器进行训练和预测,一则是用以验证CBP-TOP算法的有效性,二则是对人脸微表情序列的特征进行分类识别,判断提取的特征究竟属于哪类人脸微表情。
2.根据权利要求1所述人脸微表情的识别方法,其特征在于所述CBP-TOP算法如下:
CBP - TOP = &Sigma; x , y , t I { f j ( x , y , t ) = i } i = 0 , . . . , n j - 1 ; j = 0 , 1 , 2
其中:nj为CBP算子在第j个平面产生的模式数目,j=0,1,2分别表示XY、XT和YT平面,fj(x,y,t)表示中心像素点(x,y,t)在第j个平面的CBP码的十进制值,函数I(f)的定义如下:
I ( f ) = 1 , iffisTrue 0 , iffisFalse - - - ( 2 ) .
CN201410616426.XA 2014-11-05 2014-11-05 人脸微表情的识别方法 Pending CN104298981A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410616426.XA CN104298981A (zh) 2014-11-05 2014-11-05 人脸微表情的识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410616426.XA CN104298981A (zh) 2014-11-05 2014-11-05 人脸微表情的识别方法

Publications (1)

Publication Number Publication Date
CN104298981A true CN104298981A (zh) 2015-01-21

Family

ID=52318702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410616426.XA Pending CN104298981A (zh) 2014-11-05 2014-11-05 人脸微表情的识别方法

Country Status (1)

Country Link
CN (1) CN104298981A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139004A (zh) * 2015-09-23 2015-12-09 河北工业大学 基于视频序列的人脸表情识别方法
CN105139039A (zh) * 2015-09-29 2015-12-09 河北工业大学 视频序列中人脸微表情的识别方法
CN105404878A (zh) * 2015-12-11 2016-03-16 广东欧珀移动通信有限公司 一种照片分类方法和装置
CN105608440A (zh) * 2016-01-03 2016-05-25 复旦大学 基于最小化误差的面部微表情序列特征抽取方法
CN105913038A (zh) * 2016-04-26 2016-08-31 哈尔滨工业大学深圳研究生院 一种基于视频的动态微表情识别方法
CN106446810A (zh) * 2016-09-12 2017-02-22 合肥工业大学 一种用于精神状态分析的计算机视觉方法
CN106919903A (zh) * 2017-01-19 2017-07-04 中国科学院软件研究所 一种鲁棒的基于深度学习的连续情绪跟踪方法
CN106971180A (zh) * 2017-05-16 2017-07-21 山东大学 一种基于语音字典稀疏迁移学习的微表情识别方法
WO2017190645A1 (zh) * 2016-05-03 2017-11-09 中兴通讯股份有限公司 一种微表情识别的方法、装置及存储介质
CN109241943A (zh) * 2018-10-09 2019-01-18 深圳市三宝创新智能有限公司 非对齐人脸特征提取方法、装置、计算机设备及存储介质
CN109522861A (zh) * 2018-11-28 2019-03-26 西南石油大学 一种人脸多类微表情识别方法
CN109815793A (zh) * 2018-12-13 2019-05-28 平安科技(深圳)有限公司 微表情描述方法、装置、计算机装置及可读存储介质
CN110175526A (zh) * 2019-04-28 2019-08-27 平安科技(深圳)有限公司 狗情绪识别模型训练方法、装置、计算机设备及存储介质
CN110287801A (zh) * 2019-05-29 2019-09-27 中国电子科技集团公司电子科学研究院 一种微表情识别算法
CN112686083A (zh) * 2019-10-18 2021-04-20 复旦大学 基于组合对抗生成网络的人脸微表情深度学习识别系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258204A (zh) * 2012-02-21 2013-08-21 中国科学院心理研究所 一种基于Gabor和EOH特征的自动微表情识别方法
US20130300900A1 (en) * 2012-05-08 2013-11-14 Tomas Pfister Automated Recognition Algorithm For Detecting Facial Expressions
CN103617436A (zh) * 2013-12-17 2014-03-05 山东大学 基于差分切片能量图和Gabor变换的微表情识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258204A (zh) * 2012-02-21 2013-08-21 中国科学院心理研究所 一种基于Gabor和EOH特征的自动微表情识别方法
US20130300900A1 (en) * 2012-05-08 2013-11-14 Tomas Pfister Automated Recognition Algorithm For Detecting Facial Expressions
CN103617436A (zh) * 2013-12-17 2014-03-05 山东大学 基于差分切片能量图和Gabor变换的微表情识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SU-JING WANG 等: "Face Recognition and Micro-expression Recognition Based on Discriminant Tensor Subspace Analysis Plus Extreme Learning Machine", 《NEURAL PROCESSING LETTERS》 *
WEN-JING YAN 等: "How Fast are the Leaked Facial Expressions: The Duration of Micro-Expressions", 《JOURNAL OF NONVERBAL BEHAVIOR》 *
朱勇 等: "基于CBP-TOP特征的人脸表情识别", 《计算机应用研究》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139004B (zh) * 2015-09-23 2018-02-06 河北工业大学 基于视频序列的人脸表情识别方法
CN105139004A (zh) * 2015-09-23 2015-12-09 河北工业大学 基于视频序列的人脸表情识别方法
CN105139039A (zh) * 2015-09-29 2015-12-09 河北工业大学 视频序列中人脸微表情的识别方法
CN105139039B (zh) * 2015-09-29 2018-05-29 河北工业大学 视频序列中人脸微表情的识别方法
CN105404878A (zh) * 2015-12-11 2016-03-16 广东欧珀移动通信有限公司 一种照片分类方法和装置
CN105608440B (zh) * 2016-01-03 2019-05-31 复旦大学 基于最小化误差的面部微表情序列特征抽取方法
CN105608440A (zh) * 2016-01-03 2016-05-25 复旦大学 基于最小化误差的面部微表情序列特征抽取方法
CN105913038A (zh) * 2016-04-26 2016-08-31 哈尔滨工业大学深圳研究生院 一种基于视频的动态微表情识别方法
CN105913038B (zh) * 2016-04-26 2019-08-06 哈尔滨工业大学深圳研究生院 一种基于视频的动态微表情识别方法
WO2017190645A1 (zh) * 2016-05-03 2017-11-09 中兴通讯股份有限公司 一种微表情识别的方法、装置及存储介质
CN106446810A (zh) * 2016-09-12 2017-02-22 合肥工业大学 一种用于精神状态分析的计算机视觉方法
CN106919903B (zh) * 2017-01-19 2019-12-17 中国科学院软件研究所 一种鲁棒的基于深度学习的连续情绪跟踪方法
CN106919903A (zh) * 2017-01-19 2017-07-04 中国科学院软件研究所 一种鲁棒的基于深度学习的连续情绪跟踪方法
CN106971180A (zh) * 2017-05-16 2017-07-21 山东大学 一种基于语音字典稀疏迁移学习的微表情识别方法
CN106971180B (zh) * 2017-05-16 2019-05-07 山东大学 一种基于语音字典稀疏迁移学习的微表情识别方法
CN109241943A (zh) * 2018-10-09 2019-01-18 深圳市三宝创新智能有限公司 非对齐人脸特征提取方法、装置、计算机设备及存储介质
CN109522861A (zh) * 2018-11-28 2019-03-26 西南石油大学 一种人脸多类微表情识别方法
CN109815793A (zh) * 2018-12-13 2019-05-28 平安科技(深圳)有限公司 微表情描述方法、装置、计算机装置及可读存储介质
CN110175526A (zh) * 2019-04-28 2019-08-27 平安科技(深圳)有限公司 狗情绪识别模型训练方法、装置、计算机设备及存储介质
CN110287801A (zh) * 2019-05-29 2019-09-27 中国电子科技集团公司电子科学研究院 一种微表情识别算法
CN110287801B (zh) * 2019-05-29 2021-10-15 中国电子科技集团公司电子科学研究院 一种微表情识别方法
CN112686083A (zh) * 2019-10-18 2021-04-20 复旦大学 基于组合对抗生成网络的人脸微表情深度学习识别系统

Similar Documents

Publication Publication Date Title
CN104298981A (zh) 人脸微表情的识别方法
CN105095856B (zh) 基于掩模的有遮挡人脸识别方法
CN103198303B (zh) 一种基于人脸图像的性别识别方法
CN104050471B (zh) 一种自然场景文字检测方法及系统
CN105139039A (zh) 视频序列中人脸微表情的识别方法
CN105825183B (zh) 基于部分遮挡图像的人脸表情识别方法
CN105069447B (zh) 一种人脸表情的识别方法
CN102663400B (zh) 一种结合预处理的lbp特征提取方法
CN103854016B (zh) 基于方向性共同发生特征的人体行为分类识别方法及系统
CN102521561B (zh) 基于多尺度韦伯局部特征和分层决策融合的人脸识别方法
CN101930549B (zh) 基于第二代曲线波变换的静态人体检测方法
CN106599854A (zh) 基于多特征融合的人脸表情自动识别方法
CN103413119A (zh) 基于人脸稀疏描述子的单样本人脸识别方法
CN105139004A (zh) 基于视频序列的人脸表情识别方法
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN102411711B (zh) 一种基于个性化权重的手指静脉识别方法
CN103020614B (zh) 基于时空兴趣点检测的人体运动识别方法
CN104299009A (zh) 基于多特征融合的车牌字符识别方法
CN105893941B (zh) 一种基于区域图像的人脸表情识别方法
CN106778529A (zh) 一种基于改进ldp的人脸识别方法
CN107944398A (zh) 基于深度特征联合表示图像集人脸识别方法、装置和介质
CN103714340B (zh) 基于图像分块的自适应特征提取方法
CN106529377A (zh) 一种基于图像的年龄估计方法、装置及系统
CN103440471A (zh) 基于低秩表示的人体行为识别方法
CN103745204B (zh) 一种基于斑痣点的体貌特征比对方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150121

RJ01 Rejection of invention patent application after publication