CN106897671B - 一种基于光流和Fisher Vector编码的微表情识别方法 - Google Patents

一种基于光流和Fisher Vector编码的微表情识别方法 Download PDF

Info

Publication number
CN106897671B
CN106897671B CN201710044499.XA CN201710044499A CN106897671B CN 106897671 B CN106897671 B CN 106897671B CN 201710044499 A CN201710044499 A CN 201710044499A CN 106897671 B CN106897671 B CN 106897671B
Authority
CN
China
Prior art keywords
optical flow
micro
matrix
formula
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710044499.XA
Other languages
English (en)
Other versions
CN106897671A (zh
Inventor
贾伟光
贲晛烨
李传烨
牟骏
任亿
庞建华
刘嘉懿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Zhongmagnet Electronics Technology Co., Ltd.
Original Assignee
Jinan Zhongmagnet Electronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Zhongmagnet Electronics Technology Co Ltd filed Critical Jinan Zhongmagnet Electronics Technology Co Ltd
Priority to CN201710044499.XA priority Critical patent/CN106897671B/zh
Publication of CN106897671A publication Critical patent/CN106897671A/zh
Application granted granted Critical
Publication of CN106897671B publication Critical patent/CN106897671B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • G06F18/21322Rendering the within-class scatter matrix non-singular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • G06F18/21322Rendering the within-class scatter matrix non-singular
    • G06F18/21324Rendering the within-class scatter matrix non-singular involving projections, e.g. Fisherface techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

公开了一种基于光流和Fisher Vector编码的微表情识别方法,包括:对测试样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;基于预先训练得到的分类器对第二特征数据F进行识别。本发明通过使用光流特征描述微表情的微弱运动,并使用Fisher Vector对光流特征进行编码,进一步提取了期望信息和方差信息,因此能更加充分地表示微表情特征,降低了局部噪声的影响,提高了微表情特征的鲁棒性,进而提高了微表情识别的识别率。

Description

一种基于光流和Fisher Vector编码的微表情识别方法
技术领域
本发明涉及机器学习和模式识别技术领域,尤其涉及一种基于光流和FisherVector编码的微表情识别方法。
背景技术
人类的面部表情研究起源于19世纪。最近,国外学者Ekman和Erika进行了面部测绘行为的研究,验证了微表情(micro expression)可提供更全面的隐蔽情感信息。与宏观表情不同,微表情是一种持续时间段、强度小的快速表情。虽然持续时间短,但是微表情更能揭露人内心的真实情感,为判断人的内在精神状态提供可靠的依据,因此其在司法系统、临床诊断等方面有着重要应用。
在国外,微表情的研究起步较早,不仅提出、定义了微表情,而且已将微表情的研究成果应用于司法机关诊断案情、商业谈判、心理咨询等领域。在国内,微表情的研究起步较晚。傅小兰教授主持的2011-2013年国家自然科学基金面上项目“面向自动谎言识别的微表情表达研究”,推动了国内对于微表情研究的发展。
然而,现有的微表情识别方法存在鲁棒性差、容易受噪声干扰、识别率低等问题。鉴于此,亟需一种新的微表情识别方法,以降低局部噪声的影响,提高微表情特征的鲁棒性和微表情识别的识别率。
发明内容
本发明的目的在于提出一种新的微表情识别方法,以能更加充分地表示微表情特征,降低了局部噪声的影响,提高了微表情特征的鲁棒性,进而提高了微表情识别的识别率。
本发明提供了一种基于光流和Fisher Vector编码的微表情识别方法,包括:步骤S1、对测试样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};步骤S2、对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;步骤S3、基于预先训练得到的分类器对第二特征数据F进行识别。
优选的,步骤S1包括:S11、计算微表情图像序列中相邻两帧图像之间的光流;S12、进行光流对齐;S13、将微表情图像序列划分成R个时空子块,并且对每个时空子块的光流方向进行加权统计,获取第一特征数据X={x1,…xr,…xR|xr∈RD},其中,
Figure BDA0001214113390000021
为第r个时空子块的光流方向加权直方图向量。
优选的,步骤S2包括:S21、利用高斯混合模型逼近第一特征数据X的分布;
Figure BDA0001214113390000022
Figure BDA0001214113390000023
式中,pk(xr|λ)是第k个高斯分布的概率密度函数,p(xr|λ)是第一特征数据X中的向量xr的分布;
S22、根据EM算法估计高斯混合模型中的参数λ,λ={wkkk,k=1,2,...,K};其中,wk为第k个高斯分布的组合系数,且wk≥0,∑wk=1,μk为第k个高斯分布的均值向量,Σk为第k个高斯分布的协方差矩阵,且Σk满足:
Figure BDA0001214113390000024
S23、根据估计的参数λ计算第一特征数据的Fisher Vector编码向量
Figure BDA0001214113390000025
获取第二特征数据F;
Figure BDA0001214113390000026
Figure BDA0001214113390000031
Figure BDA0001214113390000032
式中,
Figure BDA0001214113390000033
γr(k)为向量xr由第k个高斯分布生成的概率,且γr(k)满足:
Figure BDA0001214113390000034
优选的,在步骤S11之前,步骤S1还包括:S10、对微表情图像序列进行结构纹理分解,保留图像的纹理分量。
优选的,在步骤S10中,根据以下公式对微表情图像序列进行结构纹理分解,
Figure BDA0001214113390000035
式中,
Figure BDA0001214113390000036
表示待处理的灰度图像,
Figure BDA0001214113390000037
表示图像的纹理部分,
Figure BDA0001214113390000038
表示待处理的图像的结构部分,Ω表示整幅图像的像素所在位置坐标的集合,θ为调节系数。
优选的,所述进行光流对齐包括:根据如下公式计算x方向上光流分量的补偿量
Figure BDA0001214113390000039
以及y方向上光流分量的补偿量
Figure BDA00012141133900000310
Figure BDA00012141133900000312
式中,Φ(A)表示矩阵A中等于0的元素的个数,I表示全一矩阵;
根据如下公式计算矫正后的光流分量矩阵;
Figure BDA00012141133900000313
Figure BDA0001214113390000041
式中,为矫正后x方向上的光流分量矩阵,
Figure BDA0001214113390000043
为矫正后y方向上的光流分量矩阵,Ut为矫正前x方向上的光流分量矩阵,Vt为矫正前y方向上的光流分量矩阵。
优选的,所述进行光流对齐包括:根据如下公式计算x方向上光流分量的补偿量
Figure BDA0001214113390000044
以及y方向上光流分量的补偿量
Figure BDA0001214113390000045
Figure BDA0001214113390000046
Figure BDA0001214113390000047
式中,
Figure BDA0001214113390000048
表示光流分量矩阵Ut中元素大小的统计直方图、
Figure BDA0001214113390000049
表示光流分量直方图Vt中元素大小的统计直方图,u、v表示统计直方图中各组取值范围的中值;
根据如下公式计算矫正后的光流分量矩阵;
Figure BDA00012141133900000411
式中,
Figure BDA00012141133900000412
为矫正后x方向上的光流分量矩阵,
Figure BDA00012141133900000413
为矫正后y方向上的光流分量矩阵,Ut为矫正前x方向上的光流分量矩阵,Vt为矫正前y方向上的光流分量矩阵。
优选的,所述分类器的训练过程包括如下步骤:对训练样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;基于第二特征数据F训练分类器。
优选的,所述分类器为径向基函数支持向量机。
从以上技术方案可以看出,本发明通过使用光流特征描述微表情的微弱运动,并使用Fisher Vector对光流特征进行编码,进一步提取了期望信息和方差信息,因此能更加充分地表示微表情特征,降低了局部噪声的影响,提高了微表情特征的鲁棒性,进而提高了微表情识别的识别率。
附图说明
通过以下参照附图而提供的具体实施方式部分,本发明的特征和优点将变得更加容易理解,在附图中:
图1是本发明实施例的微表情识别方法的流程示意图;
图2是图1所示流程中步骤S1的一种实现方法的流程示意图;
图3是对原始图片进行结构纹理分解的示意图;
图4是从图片纹理部分提取光流特征的示意图;
图5是对光流方向进行加权统计的流程示意图;
图6是图1所示流程中步骤S2的一种实现方法的流程示意图。
具体实施方式
下面参照附图对本发明的示例性实施方式进行详细描述。对示例性实施方式的描述仅仅是出于示范目的,而绝不是对本发明及其应用或用法的限制。
为了克服现有微表情识别方法存在的鲁棒性差、容易受噪声干扰、识别率低等问题,本发明的发明人提出了一种新的微表情识别方法。
下面结合附图和具体实施例对本发明的技术方案进行详细说明。图1示出了本发明实施例中的微表情识别方法的流程图。从图1可见,该方法主要包括以下步骤:
步骤S1、对测试样本中的微表情图像序列进行光流方向加权直方图(HOF)特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD}。
图2示出了步骤S1的一种实现方法。如图2所示,步骤S1具体包括步骤S11、S12、S13。
在步骤S11中,计算微表情图像序列中相邻两帧图像之间的光流。
在具体实施时,考虑到微表情图像序列中不同帧之间的光照变化会影响到光流计算的精确性,因此,为了减小光流计算误差,在进行步骤S11之前,还可进行图3所示的图像处理步骤:S10、对微表情图像序列进行结构纹理分解,保留图像的纹理分量。具体实施时,可根据以下公式对微表情图像序列进行结构纹理分解:
Figure BDA0001214113390000051
式中,
Figure BDA0001214113390000052
表示待处理的灰度图像,即待处理的微表情图像序列;
Figure BDA0001214113390000053
表示图像的纹理部分,表示待处理的图像的结构部分,Ω表示整幅图像的像素所在位置坐标的集合,θ为调节系数。
在获取了微表情图像序列的纹理部分之后,可基于纹理部分计算光流。光流,是指两帧图像上像素点移动的速度。其具体计算过程如下:在纹理图像中,假设t时刻(x,y)位置处的像素点灰度值为IT,在t+dt时刻该像素点运动到(x+dx,y+dy)位置处,由灰度恒常约束条件可知:
IT(x,y,t)=IT(x+dx,y+dy,t+dt) 公式2
将上式右边进行泰勒展开,可得,
Figure BDA0001214113390000061
由于τ是高阶无穷小,因此可得,
进而得到,
Figure BDA0001214113390000063
其中,
Figure BDA0001214113390000064
是在x方向上的光流分量,为在y方向上的光流分量。在具体计算光流分量
Figure BDA0001214113390000066
时,可基于公式5、以及增加的假设条件进行求解。比如,可采用图4所示的RLOF方法计算光流。关于RLOF方法的详细介绍,可参考现有文献Robust local opticalflow for feature tracking[J].IEEE Transactions on Circuits and Systems forVideo Technology,2012,22(9):1377-1387.这样,即可求解微表情图像序列在x方向上的光流分量矩阵Ut、以及在y方向上的光流分量矩阵Vt
在步骤S12中,进行光流对齐。
考虑到头部姿态变化引起的光流偏差,在步骤S11之后,还需对所述光流偏差进行补偿,具体包括:首先,根据如下公式计算x方向上光流分量的补偿量
Figure BDA0001214113390000067
以及y方向上光流分量的补偿量
Figure BDA0001214113390000069
式中,Φ(A)表示矩阵A中等于0的元素的个数,I表示全一矩阵。
然后,根据如下公式计算矫正后的光流分量矩阵;
Figure BDA0001214113390000072
Figure BDA0001214113390000073
式中,为矫正后x方向上的光流分量矩阵,为矫正后y方向上的光流分量矩阵,Ut为矫正前x方向上的光流分量矩阵,Vt为矫正前y方向上的光流分量矩阵。
在另一个实施例中,为了简化计算,还可根据如下公式计算x方向上光流分量的补偿量
Figure BDA0001214113390000076
以及y方向上光流分量的补偿量
Figure BDA0001214113390000077
Figure BDA0001214113390000078
Figure BDA0001214113390000079
式中,
Figure BDA00012141133900000710
表示光流分量矩阵Ut中元素大小的统计直方图、
Figure BDA00012141133900000711
表示光流分量直方图Vt中元素大小的统计直方图。该统计直方图中各组的频数表示落在该组取值范围的元素对应像素点的个数,u、v表示统计直方图中各组取值范围的中值。在根据公式10、11得到
Figure BDA00012141133900000712
以后,可根据公式8、9计算矫正后x方向、以及y方向的光流分量矩阵。
在步骤S13中,将微表情图像序列划分成R个时空子块,并且对每个时空子块的光流方向进行加权统计,获取第一特征数据X={x1,…xr,…xR|xr∈RD},其中,
Figure BDA00012141133900000713
为第r个时空子块的光流方向加权直方图向量。
在具体实施时,一个时空尺寸为M×N×T的微表情图像序列可被等分成R个时空子块,R=m×n×num-T。其中,m表示对M划分的块数,n表示对N划分的块数,num_T表示对T划分的块数,每个时空子块的尺寸满足
Figure BDA00012141133900000714
并且,可用(bi,bj,bk)表示每个时空子块所处的时空坐标,bi∈{1,2,...m},bj∈{1,2,...n},bk∈{1,2,...num_T}。在将划分出R个时空子块之后,对每个时空子块的光流方向进行加权统计。
在具体实施时,对每个时空子块的光流方向进行加权统计具体包括:统计时空子块上所有像素点的光流向量在已划分的圆周范围内的各个角度区间内的分布数目,并将每个角度区间内的像素点的光流向量幅值进行累加,获取以累加幅值表示的光流直方图向量。然后,对所有时空子块的光流直方图向量进行归一化,以获取第一特征数据。
下面结合图5对获取光流直方图向量的流程进行详细说明。如图5所示,假设一个时空子块包含9个像素点,9个像素点分别用编号①至⑨表示。并且,编号①至⑨对应的光流向量的大小分别是0.72、0.63、0.74、0.70、1.11、0.57、0.34、0.42、1.20。首先,统计这9个像素点的光流向量在已划分好的8个角度区间的数目。其中,编号为0、1、6、7的角度区间的像素数目均为0;编号为2的角度区间存在两个像素点,即②、③;编号为3的角度区间存在1个像素点,即①;编号为4的角度区间存在3个像素点,即④、⑤、⑦;编号为5的角度区间存在三个像素点,即⑥⑧⑨。然后,对8个角度区间的累加幅值进行统计,即可得到该时空子块对应的加权直方图向量(0,0,1.37,0.72,2.15,2.19,0,0)。
步骤S2、对第一特征数据X进行Fisher Vector编码,获取第二特征数据F。
图6为步骤S2的一种实现方法的流程示意图。如图6所示,步骤S2主要包括步骤S21、S22、S23。
在步骤S21中,利用高斯混合模型逼近第一特征数据X的分布。该步骤具体包括:假设第一特征数据X中的R个向量是独立同分布的,其概率密度函数为p(X|λ),则有:
Figure BDA0001214113390000081
对公式12两边取对数,则有:
Figure BDA0001214113390000091
用高斯混合模型(即K个高斯分布的线性组合)逼近p(xr|λ),则有
Figure BDA0001214113390000092
式中,pk(xr|λ)是第k个高斯分布的概率密度函数,p(xr|λ)是第一特征数据X中的向量xr的分布。
在步骤S22中,根据最大期望算法(EM)估计高斯混合模型中的参数λ,λ={wkkk,k=1,2,...,K}。其中,wk为第k个高斯分布的组合系数,且wk≥0,∑wk=1,μk为第k个高斯分布的均值向量,Σk为第k个高斯分布的协方差矩阵,且Σk满足:
在步骤S23中,根据估计的参数λ计算第一特征数据的Fisher Vector编码向量
Figure BDA0001214113390000095
获取第二特征数据F。该步骤具体包括:分别计算L(X|λ)对均值和协方差的梯度,可得:
Figure BDA0001214113390000096
Figure BDA0001214113390000097
计算梯度归一化系数,即
Figure BDA0001214113390000101
Figure BDA0001214113390000102
利用公式18、19中的归一化系数对
Figure BDA0001214113390000103
进行归一化,上述公式16至19所表示的计算过程可统一表示成如下向量表达式:
Figure BDA0001214113390000104
Figure BDA0001214113390000105
式中,
Figure BDA0001214113390000106
γr(k)为向量xr由第k个高斯分布生成的概率,且γr(k)满足:
通过以上步骤,即可获取第二特征数据F,
Figure BDA0001214113390000108
步骤S3、基于预先训练得到的分类器对第二特征数据F进行识别。
其中,所述分类器的训练过程包括如下步骤:对训练样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;基于第二特征数据F训练分类器。在具体实施时,所述分类器可选用径向基函数支持向量机。
在本发明实施例中,通过采用光流描述微表情图像序列中的细微运动并通过Fisher Vector编码对微表情图像序列的局部光流特征进行编码,形成对微表情序列紧凑的特征表示,更能表征微表情运动的本质,提高微表情识别率。进一步的,通过对微表情图像系列进行结构纹理分解、以及光流对齐,降低了光照和头部抖动对光流的影响,增强了微表情特征对噪声的鲁棒性。
为了进一步体现本发明的技术效果,下面给出一个具体的实验过程。在该实验中,可采用CASMEⅡ数据库中的微表情图像序列进行实验。在具体实验时,采用留一人验证法进行交叉验证,设m=n=10,num-T=3,K=20,并且为降低计算复杂度每次实验从所有训练样本中的第一特征数据中随机选取50000个光流直方图向量用于估计高斯混合模型的参数,分类器选用径向基函数支持向量机。并且,进行了五次实验求取识别率的平均值。表1示出了这五次实验的识别率以及平均识别率。
表1
Figure BDA0001214113390000111
为了证明本技术方案的技术效果,在实验中我们与其他微表情识别方法进行了对比。表2示出了本发明实施例中的方法与其他微表情识别方法的对比结果。
表2
方法 本文方法 FDM LBP-top DTSA
识别率(%) 47.29 42.02 36.50 32.45
从表2可见,与现有的FDM方法、LBP-TOP方法、DTSA方法相比,本发明实施例的方法的识别率提高了5%~15%。
虽然参照示例性实施方式对本发明进行了描述,但是应当理解,本发明并不局限于文中详细描述和示出的具体实施方式,在不偏离权利要求书所限定的范围的情况下,本领域技术人员可以对所述示例性实施方式做出各种改变。

Claims (8)

1.一种基于光流和Fisher Vector编码的微表情识别方法,其特征在于,所述方法包括:
步骤S1、对测试样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};
步骤S2、对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;
步骤S3、基于预先训练得到的分类器对第二特征数据F进行识别;
其中,步骤S2包括:
S21、利用高斯混合模型逼近第一特征数据X的分布;
Figure FDA0002208617360000011
Figure FDA0002208617360000012
式中,pk(xr|λ)是第k个高斯分布的概率密度函数,p(xr|λ)是第一特征数据X中的向量xr的分布;
S22、根据EM算法估计高斯混合模型中的参数λ,λ={wkkk,k=1,2,...,K};其中,wk为第k个高斯分布的组合系数,且wk≥0,∑wk=1,μk为第k个高斯分布的均值向量,Σk为第k个高斯分布的协方差矩阵,且Σk满足:
Figure FDA0002208617360000013
S23、根据估计的参数λ计算第一特征数据的Fisher Vector编码向量
Figure FDA0002208617360000014
获取第二特征数据F;
Figure FDA0002208617360000021
Figure FDA0002208617360000022
Figure FDA0002208617360000023
式中,
Figure FDA0002208617360000024
γr(k)为向量xr由第k个高斯分布生成的概率,且γr(k)满足:
2.如权利要求1所述的方法,其特征在于,步骤S1包括:
S11、计算微表情图像序列中相邻两帧图像之间的光流;
S12、进行光流对齐;
S13、将微表情图像序列划分成R个时空子块,并且对每个时空子块的光流方向进行加权统计,获取第一特征数据X={x1,…xr,…xR|xr∈RD},其中,
Figure FDA0002208617360000026
为第r个时空子块的光流方向加权直方图向量。
3.如权利要求2所述的方法,其特征在于,在步骤S11之前,步骤S1还包括:
S10、对微表情图像序列进行结构纹理分解,保留图像的纹理分量。
4.如权利要求3所述的方法,其特征在于,在步骤S10中,根据以下公式对微表情图像序列进行结构纹理分解,
式中,
Figure FDA0002208617360000032
表示待处理的灰度图像,
Figure FDA0002208617360000033
表示图像的纹理部分,表示待处理的图像的结构部分,Ω表示整幅图像的像素所在位置坐标的集合,θ为调节系数。
5.如权利要求2所述的方法,其特征在于,所述进行光流对齐包括:
根据如下公式计算x方向上光流分量的补偿量以及y方向上光流分量的补偿量
Figure FDA0002208617360000036
Figure FDA0002208617360000037
Figure FDA0002208617360000038
式中,Φ(A)表示矩阵A中等于0的元素的个数,I表示全一矩阵;
根据如下公式计算矫正后的光流分量矩阵;
Figure FDA0002208617360000039
Figure FDA00022086173600000310
式中,
Figure FDA00022086173600000311
为矫正后x方向上的光流分量矩阵,
Figure FDA00022086173600000312
为矫正后y方向上的光流分量矩阵,Ut为矫正前x方向上的光流分量矩阵,Vt为矫正前y方向上的光流分量矩阵。
6.如权利要求2所述的方法,其特征在于,所述进行光流对齐包括:
根据如下公式计算x方向上光流分量的补偿量以及y方向上光流分量的补偿量
Figure FDA00022086173600000314
Figure FDA00022086173600000315
Figure FDA00022086173600000316
式中,
Figure FDA0002208617360000041
表示光流分量矩阵Ut中元素大小的统计直方图、
Figure FDA0002208617360000042
表示光流分量直方图Vt中元素大小的统计直方图,u、v表示统计直方图中各组取值范围的中值;
根据如下公式计算矫正后的光流分量矩阵;
Figure FDA0002208617360000043
式中,
Figure FDA0002208617360000045
为矫正后x方向上的光流分量矩阵,为矫正后y方向上的光流分量矩阵,Ut为矫正前x方向上的光流分量矩阵,Vt为矫正前y方向上的光流分量矩阵。
7.如权利要求1所述的方法,其特征在于,所述分类器的训练过程包括如下步骤:
对训练样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};
对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;
基于第二特征数据F训练分类器。
8.如权利要求7所述的方法,其特征在于,所述分类器为径向基函数支持向量机。
CN201710044499.XA 2017-01-19 2017-01-19 一种基于光流和Fisher Vector编码的微表情识别方法 Active CN106897671B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710044499.XA CN106897671B (zh) 2017-01-19 2017-01-19 一种基于光流和Fisher Vector编码的微表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710044499.XA CN106897671B (zh) 2017-01-19 2017-01-19 一种基于光流和Fisher Vector编码的微表情识别方法

Publications (2)

Publication Number Publication Date
CN106897671A CN106897671A (zh) 2017-06-27
CN106897671B true CN106897671B (zh) 2020-02-25

Family

ID=59199220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710044499.XA Active CN106897671B (zh) 2017-01-19 2017-01-19 一种基于光流和Fisher Vector编码的微表情识别方法

Country Status (1)

Country Link
CN (1) CN106897671B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358206B (zh) * 2017-07-13 2020-02-18 山东大学 一种基于感兴趣区域光流特征的微表情检测方法
CN107832691B (zh) * 2017-10-30 2021-10-26 北京小米移动软件有限公司 微表情识别方法及装置
CN108399370A (zh) * 2018-02-02 2018-08-14 达闼科技(北京)有限公司 表情识别的方法及云系统
CN108921037B (zh) * 2018-06-07 2022-06-03 四川大学 一种基于BN-inception双流网络的情绪识别方法
CN110807394A (zh) * 2019-10-23 2020-02-18 上海能塔智能科技有限公司 情绪识别方法、试驾体验评估方法、装置、设备与介质
CN111274978B (zh) * 2020-01-22 2023-05-09 广东工业大学 一种微表情识别方法及装置
CN111461021A (zh) * 2020-04-01 2020-07-28 中国科学院心理研究所 一种基于光流的微表情检测方法
CN111839490B (zh) * 2020-05-26 2021-04-13 合肥工业大学 非接触式心率监测方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120064541A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 미세 표정 분석을 이용한 사용자 심리 분석 장치 및 방법
CN104933416B (zh) * 2015-06-26 2018-11-02 复旦大学 基于光流场的微表情序列特征提取方法
CN105913038B (zh) * 2016-04-26 2019-08-06 哈尔滨工业大学深圳研究生院 一种基于视频的动态微表情识别方法

Also Published As

Publication number Publication date
CN106897671A (zh) 2017-06-27

Similar Documents

Publication Publication Date Title
CN106897671B (zh) 一种基于光流和Fisher Vector编码的微表情识别方法
CN109726751B (zh) 基于深度卷积神经网络识别脑电成像图的方法
CN103810490B (zh) 一种确定人脸图像的属性的方法和设备
CN103116763B (zh) 一种基于hsv颜色空间统计特征的活体人脸检测方法
CN110399821B (zh) 基于人脸表情识别的顾客满意度获取方法
CN105740945B (zh) 一种基于视频分析的人群计数方法
CN111931758B (zh) 一种结合面部静脉的人脸识别方法及装置
CN109829924B (zh) 一种基于主体特征分析的图像质量评价方法
CN107967695A (zh) 一种基于深度光流和形态学方法的运动目标检测方法
CN106529377A (zh) 一种基于图像的年龄估计方法、装置及系统
CN116311483B (zh) 基于局部面部区域重构和记忆对比学习的微表情识别方法
CN113537008A (zh) 基于自适应运动放大和卷积神经网络的微表情识别方法
CN102236786B (zh) 一种光照自适应的人体肤色检测方法
CN109978907A (zh) 一种面向家居场景的学生坐姿检测方法
CN109543656A (zh) 一种基于dcs-ldp的人脸特征提取方法
CN111611909A (zh) 多子空间域自适应人脸识别方法
CN111611860A (zh) 一种微表情发生检测方法及检测系统
CN114582003A (zh) 一种基于云计算服务的睡眠健康管理系统
CN111508528B (zh) 基于自然音频统计特性的无参考音频质量评价方法和装置
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及系统
CN111652238B (zh) 一种多模型集成方法及系统
CN109165551B (zh) 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法
CN104021387B (zh) 基于视觉建模的人脸图像光照处理方法
CN114419716B (zh) 一种人脸图像面部关键点标定的校准方法
CN112818950B (zh) 一种基于生成对抗网络和时间卷积网络的唇语识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TA01 Transfer of patent application right

Effective date of registration: 20200206

Address after: Room 1201-1, Building 2, Shuntai Square, No. 2000 Shunhua Road, Jinan High-tech Zone, Shandong Province

Applicant after: Jinan Zhongmagnet Electronics Technology Co., Ltd.

Address before: 2 Building No. 1201, Shun Thai Plaza, Ji'nan, Shandong 250101

Applicant before: Shandong China Magnetic Video Co.,Ltd.

TA01 Transfer of patent application right