CN110991348A - 基于光流梯度幅值特征的人脸微表情检测方法 - Google Patents
基于光流梯度幅值特征的人脸微表情检测方法 Download PDFInfo
- Publication number
- CN110991348A CN110991348A CN201911234416.9A CN201911234416A CN110991348A CN 110991348 A CN110991348 A CN 110991348A CN 201911234416 A CN201911234416 A CN 201911234416A CN 110991348 A CN110991348 A CN 110991348A
- Authority
- CN
- China
- Prior art keywords
- frame
- face image
- face
- optical flow
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明基于光流梯度幅值特征的人脸微表情检测方法,涉及用于识别图形记录载体的处理,该方法首先根据人脸关键点拟合人脸边缘提取人脸感兴趣区域,用FlowNet2网络提取视频序列中人脸图像帧间的光流场,然后提取人脸感兴趣区域的光流梯度幅值特征,再计算及处理特征距离并进行噪声消除,完成基于光流梯度幅值特征的人脸微表情检测,克服了在人脸微表情检测的现有技术中,存在提取的人脸图像运动特征中无法捕捉微小的人脸微表情运动,特征中包含过多干扰信息,易受头部偏移,眨眼运动和累积噪声影响及特征距离分析中单帧噪声影响的缺陷。
Description
技术领域
本发明的技术方案涉及用于识别图形记录载体的处理,具体地说是基于光流梯度幅值特征的人脸微表情检测方法。
背景技术
人脸微表情检测在国家安全、临床医学和司法系统多个领域都有广泛应用,如通过人脸微表情检测辨别恐怖分子之类危险人物,使用人脸微表情检测训练软件对精神分裂症患者进行辅助治疗,通过人脸微表情检测分析罪犯的犯罪心理以帮助侦查审讯等。目前,人脸微表情的研究工作多集中于人脸微表情识别,然而用于识别人脸微表情的视频序列帧需要手动标记,不但耗费大量的人力与时间,而且对标记人员要求较高。因此急需使用计算机视觉、人工智能等先进技术进行人脸微表情自动检测,实现人脸微表情片段的精准定位,以提高人脸微表情识别的效率,扩大人脸微表情检测的应用范围。
当前人脸微表情检测方法主要分为基于规则、基于机器学习与基于深度学习的方法。基于规则的人脸微表情检测方法主要是提取纹理和光流特征,使用特征距离分析,手动制定规则进行人脸微表情检测。文献“Towards Reading Hidden Emotions:A ComparativeStudy of Spontaneous Micro-expression Spotting and Recognition Methods”使用LBP特征与HOOF特征进行特征提取,使用特征差异分析方法进行人脸微表情检测。文献“Amain directional maximal difference analysis for spotting facial movementsfrom long-term videos”提出用于人脸微表情检测的主方向最大差异(Main DirectionalMaximal Difference,MDMD)特征,能获得更优的人脸微表情运动信息。但这些基于规则的人脸微表情检测方法所提取特征只能获得一些简单、基本的特征,无法对图像进行深层次的表达。基于机器学习的人脸微表情检测方法同样提取纹理特征、光流特征一类传统特征,使用SVM、随机森林方法进行分类。文献“LTP-ML:micro-expression detection byrecognition of local temporal pattern of facial movements”使用滑动窗口与PCA降维提取局部时间(Local Temporal Pattern,LTP)特征,使用SVM进行分类。机器学习分类需要以固定帧数的视频序列为单位提取特征,但人脸微表情发生时间的长短不固定。基于深度学习的人脸微表情检测方法将神经网络引入人脸微表情检测研究。文献“Micro-expression detection in long videos using optical flow and recurrent neuralnetworks”提取光流特征,使用递归神经网络(RNN)检测包含人脸微表情的视频序列。基于深度学习的人脸微表情检测方法将特征学习融入到了建立模型的过程中,能够减弱手工特征的不完备性,能够提取更具判别性的特征,然而深度学习的人脸微表情检测方法需要大数据集的支撑,人脸微表情数据库的缺乏导致深度学习算法不能很好地用于人脸微表情检测工作。
CN109344744A公开了一种基于深度卷积神经网络的人脸微表情动作单元检测方法,该方法无法保证人脸微表情状态中人脸动作单元组合全覆盖,且仅用于人脸微表情状态判定,无法区分同样含有所定义动作单元组合的普通表情。CN107358206A公开了一种基于感兴趣区域的光流特征矢量模值和角度结合的人脸微表情检测方法,该方法提取的人脸感兴趣中丢失脸颊额头等可能包含人脸微表情运动的区域,提取的特征中可能包含累积噪声,同时监测角度变化与矢量模值变化存在干扰信息,且直接采用最大值计算阈值易受噪声影响。CN104298981A公开了一种人脸微表情的识别方法,方法中使用的CBP-TOP特征存在计算复杂度高,易受噪声影响且只包含图像纹理信息,时序信息利用率低的缺陷。CN105139039B公开了一种视频序列中人脸微表情的识别方法,该方法中使用欧拉视频放大技术以解决人脸微表情变化幅度小的问题,然而,此方法用于人脸微表情检测过程中会造成其他运动及噪声同时放大的缺陷。CN106548149A公开了一种监控视频序列中人脸微表情图像序列的识别方法,其中所提出的SMTCTP-WTOP特征缺乏连续多帧的时序信息,不同运动方向人脸微表情的此种特征为不同模式,不能通过训练得到有助于人脸微表情检测的模型。
总之,在人脸微表情检测的现有技术中,存在提取的人脸图像运动特征中无法捕捉微小的人脸微表情运动,特征中包含过多干扰信息,易受头部偏移,眨眼运动和累积噪声影响及特征距离分析中单帧噪声影响的缺陷。
发明内容
本发明所要解决的技术问题是:提供基于光流梯度幅值特征的人脸微表情检测方法,该方法首先根据人脸关键点拟合人脸边缘提取人脸感兴趣区域,用FlowNet2网络提取视频序列中人脸图像帧间的光流场,然后提取人脸感兴趣区域的光流梯度幅值特征,再计算及处理特征距离并进行噪声消除,完成基于光流梯度幅值特征的人脸微表情检测,克服了在人脸微表情检测的现有技术中,存在提取的人脸图像运动特征中无法捕捉微小的人脸微表情运动,特征中包含过多干扰信息,易受头部偏移,眨眼运动和累积噪声影响及特征距离分析中单帧噪声影响的缺陷。
本发明解决该技术问题所采用的技术方案是:基于光流梯度幅值特征的人脸微表情检测方法,首先根据人脸关键点拟合人脸边缘提取感兴趣区域,用FlowNet2网络提取视频序列中人脸图像帧间光流场,然后提取人脸感兴趣区域的光流梯度幅值特征,再计算及处理特征距离并进行噪声消除,完成基于光流梯度幅值特征的人脸微表情检测,具体步骤如下:
第一步,提取人脸感兴趣区域:
输入人脸图像视频序列,根据人脸关键点拟合人脸边缘提取感兴趣区域,即使用Dlib检测器检测人脸图像中81个标号的人脸关键点,包括在经典Dlib人脸检测器中已有的68个人脸关键点和在此基础上增加的前额13个人脸关键点,其中标号为1-17及69-81的人脸关键点为人脸边缘关键点,使用这些人脸边缘关键点进行椭圆拟合得到椭圆方程Q,椭圆方程Q的拟合目标函数如公式(1)所示,
公式(1)中,[p,q]为用于拟合椭圆的人脸关键点坐标,α,β,χ,δ,ε为椭圆方程Q的系数,F(α,β,χ,δ,ε)为包含系数α,β,χ,δ,ε的拟合目标函数,k表示用于拟合椭圆的第k个关键点,K为用于拟合椭圆的人脸关键点个数,
当以下公式(2)成立时,
得到F(α,β,χ,δ,ε)的最小值,此时求得椭圆方程Q的系数α,β,χ,δ,ε,由此得到椭圆方程Q,
使用眼睛部分标号为37,39,40,42,43,44,47,49的人脸关键点进行眼睛部分区域去除,其中使用标号为37,40的人脸关键点的纵坐标与标号为39,42的人脸关键点的横坐标组成右眼矩形区域,使用标号为43,46的人脸关键点的纵坐标与标号为44,47的人脸关键点的横坐标组成左眼矩形区域,
椭圆方程Q所包含的椭圆区域去除上述右眼矩形区域和左眼矩形区域即为提取的人脸感兴趣区域,所提取的人脸感兴趣区域为拟合人脸边缘的椭圆形感兴趣区域;
第二步,提取人脸图像的光流梯度幅值特征:
对上述第一步所提取的人脸感兴趣区域中的人脸图像提取光流梯度幅值特征,步骤如下,
第(2.1)步,用FlowNet2网络提取视频序列中人脸图像帧间光流场:
首先构建FlowNet2网络的三层堆叠网络,第一层使用FlowNetC网络,第二层和第三层均使用FlowNetS网络,再使用融合网络融合三层堆叠网络结果与根据FlowNetS网络改进的FlowNetSD网络结果得到人脸图像帧间光流场,
将现有的人脸微表情数据库中的人脸图像样本编制为视频序列,其中每个视频序列表示为{f1,...,ft,...,fs},其中s为每个视频序列中所包含的人脸图像的总帧数(以下相同),ft为当前视频序列中的第t帧人脸图像,每个视频序列以第一帧人脸图像为参考帧提取光流场,当FlowNet2网络输入为f1与ft时,得到第t帧人脸图像的光流场,将第一步所提取的人脸感兴趣区域与人脸图像的光流场结合,得到每帧人脸图像感兴趣区域中的光流场由水平光流分量H与垂直光流分量V组成,
水平光流分量H如下公式(3)所示,
公式(3)中,Hi,j为人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量,m为人脸图像感兴趣区域中包含像素的行数(以下相同),n为人脸图像感兴趣区域中包含像素的列数(以下相同),
垂直光流分量V如下公式(4)所示,
公式(4)中,Vi,j为人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量,
由此完成用FlowNet2网络提取人脸图像感兴趣区域的光流场;
第(2.2)步,提取人脸感兴趣区域的光流梯度幅值特征:
用如下公式(5-1)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量Hi,j在x方向的梯度值H(x) i,j,
用如下公式(6-1)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量Hi,j在y方向的梯度值H(y) i,j,
用如下公式(5-2)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j在x方向的梯度值V(x) i,j,
用如下公式(6-2)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j在y方向的梯度值V(y) i,j,
上述公式(5-1)、(5-2)、(6-1)和(6-2)中,i为像素横坐标,j为像素纵坐标,
进一步用如下公式(7)计算坐标为[i,j]像素的水平光流分量Hi,j的梯度幅值M(H) i,j,
进一步用如下公式(8)计算人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j的梯度幅值M(V) i,j,
根据水平光流分量Hi,j的梯度幅值M(H) i,j与垂直光流分量Vi,j的梯度幅值M(V) i,j,通过如下公式(9)计算人脸图像感兴趣区域中坐标为[i,j]像素的光流梯度幅值Mi,j,
根据光流梯度幅值Mi,j计算出第t帧人脸图像感兴趣区域的光流梯度幅值直方图Bt,如下公式(10)所示,
Bt={b1,b2,...,br,...,bc} (10),
公式(10)中,br为第r个组的频数,c为光流梯度幅值直方图中包含的组数;
根据如下公式(11)计算一帧人脸图像感兴趣区域的光流梯度幅值直方图中每组的频数,
br=br+1,当Mi,j∈[minr,maxr] (11),
公式(11)中,br为第r个组的频数,minr为第r个组的左边界值,maxr为第r个组的右边界值;
将第t帧人脸图像感兴趣区域的光流梯度幅值直方图Bt作为第t帧人脸图像的人脸图像特征feat,则每个视频序列的光流梯度幅值特征为如下公式(12)所示,
fea=[fea1,…,feat,…,feas] (12),
公式(12)中,s为每个视频序列样本中所包含人脸图像的总帧数(以下相同),
由此完成提取人脸图像的光流梯度幅值特征;
第三步,光流梯度幅值特征距离分析:
第(3.1)步,计算及处理特征距离:
A.计算特征距离:
根据上述第(2.2)步中求得的每个视频序列的光流梯度幅值特征fea=[fea1,…,feat,…,feas],每个视频序列的特征距离向量表示为diff=[diff1,…,difft,…,diffs],
特征距离由以下公式(13)计算,
difft(v)=E(feat,feat+N/2+v),v=1,2,3,4,5 (13),
公式(13)中,N为由视频序列帧率与人脸微表情持续时间计算的人脸微表情序列最大帧数(以下相同),difft(v)为第t帧人脸图像与第t+N/2+v帧人脸图像之间的特征距离值(以下相同),feat+N/2+v为第t+N/2+v帧的人脸图像特征,v是特指第t+N/2帧后的1-5帧人脸图像,
第t帧人脸图像与第t+N/2+v帧人脸图像之间的特征距离计算如公式(14)所示,
公式(14)中,D为特征向量的维数,feat(r)表示第t帧人脸图像的光流梯度幅值直方图的第r组的频数,feat+N/2+v(r)为第t+N/2+v帧人脸图像的光流梯度幅值直方图的第r组的频数,
根据上述公式(14)求得的第t帧人脸图像与t+N/2+v帧人脸图像之间的特征距离,进行第t帧人脸图像的特征距离值计算,操作方法是,使用第t帧人脸图像与第t+N/2帧人脸图像周围五帧人脸图像的特征距离平均值来代替第t帧人脸图像与第t+N/2帧人脸图像之间的特征距离,如公式(15)所示,
公式(15)中,difft为最终求得的视频序列中第t帧人脸图像的特征距离平均值,
B.处理特征距离:
依据上述A中的每个视频序列的特征距离向量diff=[diff1,…,difft,…,diffs],绘制每个视频序列的特征距离曲线,将所得每个视频序列的特征距离曲线进行高斯平滑,高斯平滑后,得到新的每个视频序列的特征距离向量如下公式(16)所示,
diffnew=[diff1’,…,difft’,…,diffs’] (16),
公式(16)中,diffnew为平滑后的每个视频序列的特征距离向量,
通过以下公式(17)计算特征距离筛选阈值T,
T=mean(diffnew)+ρ×(max(diffnew)-mean(diffnew)),ρ=0.1,0.2,...,1 (17),
公式(17)中,mean(diffnew)为特征距离向量的平均值,max(diffnew)为特征距离向量的最大值,ρ为阈值调节参数,
当difft'低于特征距离筛选阈值T时,则表示第t帧人脸图像不包含在人脸微表情片段内,则将其预测标签设置为0,否则设置为1,由此完成计算及处理特征距离,得到初步人脸图像预测标签label如下公式(18)所示,
label=[label1,label2,...,labelt,...,labels] (18),
公式(18)中,labelt为第t帧人脸图像的初步预测标签;
第(3.2)步,噪声消除:
对上述第(3.1)步得到的初步人脸图像预测标签label,进行消除单帧噪声及持续时间过滤的后续处理,具体操作如下:
A.消除单帧噪声处理:
消除单帧噪声处理是指将在连续预测标签为1的人脸图像帧中存在的单帧预测标签为0的人脸图像帧的单帧预测标签修改为1,和将在连续预测标签为0的人脸图像帧中存在的单帧预测标签为1的人脸图像帧的单帧预测标签修改为0,消除单帧噪声处理的公式(19)如下所示,
labelt'为消除单帧噪声处理后视频序列中第t帧人脸图像的预测标签,labelt-1为视频序列中第t-1帧人脸图像的初步预测标签,labelt+1为视频序列中第t+1帧人脸图像的初步预测标签,
由此得到经过消除单帧噪声处理后的人脸图像预测标签label',如下公式(20)所示,
label'=[label1',label2',...,labelt',...,labels'] (20),
B.持续时间过滤处理:
对上述消除单帧噪声处理后得到的人脸图像预测标签label'进行人脸微表情持续时间过滤处理,根据帧率计算人脸微表情持续帧数,将得到的结果中持续时间在1/25秒~1/3秒的范围外的预测人脸微表情序列滤除,即完成持续时间过滤处理,持续时间过滤处理的公式(21)如下所示,
公式(21)中,labelt”为视频序列中第t帧人脸图像的最终预测标签(以下相同),labelvideo(d)=[labela',labela+1',...,labelb']为视频序列中第d段经过消除单帧噪声处理后的连续的预测标签为1的人脸图像视频序列帧,其中a,b分别为第d段连续预测标签为1的视频序列的起始位置与结束位置,
经过上述第(3.1)步的计算及处理特征距离和第(3.2)步的噪声消除后处理过程,得到视频序列中人脸图像的最终预测标签结果label”如下公式(22)所示,
label”=[label1”,label2”,...,labelt”,...,labels”] (22),
第四步:基于光流梯度幅值特征的人脸微表情检测:
在上述第三步光流梯度幅值特征距离分析中获得人脸图像最终预测结果后,需要将预测标签与实际标签进行对比得到量化结果,考虑存在误差的情况,将视频序列中实际标签为人脸微表情的视频序列帧范围设置为[onset-N/4,offset+N/4],其中onset与offset分别为实际标签中标记的人脸微表情片段的起始帧与结束帧,将每个视频序列在此范围内的视频序列帧标记为正,其他视频序列帧标记为负,再将上述第三步中获得的人脸图像预测标签与实际标签对比,并计算出以下各项评价指标,即用公式(23)计算出预测标签为正的正样本占所有实际为正样本的比例TPR,即召回率REC,用公式(24)计算出预测标签为正的负样本占所有实际为负样本的比例FPR,用公式(25)计算出预测标签为正的正样本占所有预测标签为正的样本的比例PRE,
用公式(26)计算出REC和PRE的调和均值F1,
公式(23)-(26)中,TP为当预测标签为正时,实际标签也为正的视频序列帧数量,FP为当预测标签为正时,实际标签为负的视频序列帧数量,TN为当预测标签为负时,实际标签也为负的视频序列帧数量,FN为当预测标签为负时,实际标签为正的视频序列帧数量;
上述各项评价指标计算完成后,至此全部完成了基于光流梯度幅值特征的人脸微表情检测。
上述基于光流梯度幅值特征的人脸微表情检测方法,所述Dlib检测器及其检测方法和帧率计算的方法是本技术领域公知的,其他操作方法是本技术领域的技术人员所能掌握的。
本发明的有益效果是:与现有技术相比,本发明的突出的实质性特点和显著进步如下:
(1)本发明方法利用FlowNet2网络提取视频序列中人脸图像帧间的光流场,提出的光流梯度幅值特征消除了头部偏移运动噪声,使用的特征距离计算方法,描述了运动产生的特征差异,并取特征距离均值来消除单帧噪声的影响,不包含其他干扰信息,更加适用于人脸微表情检测,并且有效避免了视频序列中的累积误差,克服了现有技术中,存在提取的人脸微表情运动特征中无法捕捉微小的人脸微表情运动,特征中包含过多干扰信息,易受头部偏移,眨眼运动和累积噪声影响及特征距离分析中单帧噪声影响的缺陷。
(2)本发明方法提出人脸边缘81个关键点拟合椭圆提取人脸感兴趣区域,仅提取人脸范围内的特征,有效避免了人脸范围外的运动噪声与眨眼噪声有助于去除人脸区域外及人脸边缘运动噪声,减弱了眼部运动对人脸微表情检测的影响。
(3)本发明方法使用了FlowNet2网络进行光流场的计算,提高了传统光流算法提取光流场的效率。
(4)本发明方法与CN109344744A基于深度卷积神经网络的人脸微表情动作单元检测方法相比,CN109344744A通过检测运动单元组合进行人脸微表情状态判断,无法保证人脸微表情状态中人脸动作单元组合全覆盖,且无法区分同样含有所定义动作单元组合的普通表情。本发明方法检测人脸区域内所有运动,不会出现未定义组合情况,且通过人脸微表情持续时间特性可与普通表情进行区分。
(5)本发明方法与CN107358206A一种基于感兴趣区域的光流特征矢量模值和角度结合的人脸微表情检测方法相比,CN107358206A提取的人脸感兴趣区域中丢失脸颊额头等可能包含人脸微表情运动的区域,且采用最大值计算阈值易受噪声影响。本发明方法提取完整人脸区域,不会丢失人脸微表情运动信息,且提出的阈值计算更加合理。
(6)本发明方法与CN104504366A基于光流特征的笑脸识别系统及方法相比,CN104504366A提取的光流特征仅使用光流角度信息,人脸微表情运动仅通过角度无法进行检测,本发明方法提出的光流梯度幅值特征包含完整的运动信息与时序信息,更加具有判别性,更有利于人脸微表情检测。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明方法的流程示意图。
图2是人脸感兴趣区域提取部分示例图,其中:
图(2-1)是检测的人脸81个关键点示例图。
图(2-2)是提取的人脸感兴趣区域示例图。
图3是提取光流场用的FlowNet2网络结构图。
图4是CASMEⅡ数据库视频序列样本中一帧人脸图像感兴趣区域的光流梯度幅值特征的可视化示例图。
图5是本发明方法中两帧人脸图像之间特征距离计算与后处理过程示例图,其中,(a)为单个视频序列的特征距离曲线,(b)为高斯平滑后的特征距离曲线,(c)为阈值筛选后初步人脸图像预测结果,(d)为噪声消除后人脸图像预测结果。
具体实施方式
图1所示实施例表明,本发明方法基于光流梯度幅值特征的人脸微表情检测方法的流程是:输入人脸图像视频序列→提取人脸感兴趣区域→提取人脸图像的光流梯度幅值特征:用FlowNet2网络提取人脸图像帧间的光流场;提取人脸感兴趣区域的光流梯度幅值特征→光流梯度幅值特征距离分析:计算及处理特征距离;噪声消除→实现基于光流梯度幅值特征的人脸微表情检测。
图2显示了人脸感兴趣区域提取部分,其中,
图(2-1)显示了人脸感兴趣区域提取部分的标号为1-81的人脸81个关键点,其中人脸轮廓关键点的标号为1-18与69-81,眼睛轮廓关键点标号为37-48,是为提取感兴趣区域选用的关键点。
图(2-2)显示了所提取的人脸感兴趣区域为完整拟合人脸边缘的椭圆形感兴趣区域。
图3显示了本发明方法中的提取光流场用的FlowNet2网络结构,输入参考帧图像与当前帧图像→第一层使用FlowNetC网络→第二层FlowNetS网络→第三层FlowNetS网络,得到三层堆叠网络结果,将参考帧图像和当前帧图像输入FlowNet-SD网络得到部分结果→融合网络,两个结果输入融合网络层获得人脸图像帧间光流场。
图4显示了CASMEⅡ数据库视频序列样本中一帧图像感兴趣区域内的光流梯度幅值特征的可视化示例图,椭圆形为人脸感兴趣区域,两个空白矩形为去除的眼睛部分。
图5示例了本发明方法中两帧人脸图像之间特征距离计算与后处理的过程,其中,(a)为单个视频序列的特征距离曲线,横坐标表示视频序列的帧数,纵坐标表示每帧人脸图像的特征距离;(b)为高斯平滑后的特征距离曲线,横坐标表示视频序列的帧数,纵坐标表示每帧人脸图像的特征距离;(c)为阈值筛选后初步人脸图像预测结果,横坐标表示视频序列的帧数,纵坐标为0时,表示预测结果为人脸非微表情帧,纵坐标为1时,表示预测结果为人脸微表情帧;(d)为噪声消除后人脸图像预测结果,横坐标表示视频序列的帧数,纵坐标为0时,表示预测结果为人脸非微表情帧,纵坐标为1时,表示预测结果为人脸微表情帧。
实施例
基于光流梯度幅值特征的人脸微表情检测方法,首先根据人脸关键点拟合人脸边缘提取感兴趣区域,用FlowNet2网络提取视频序列中人脸图像帧间的光流场,然后提取人脸感兴趣区域的光流梯度幅值特征,再计算及处理特征距离并进行噪声消除,完成基于光流梯度幅值特征的人脸微表情检测,具体步骤如下:
第一步,提取人脸感兴趣区域:
输入人脸图像视频序列,根据人脸关键点拟合人脸边缘提取感兴趣区域,即使用Dlib检测器检测人脸图像中81个标号的人脸关键点,包括在经典Dlib人脸检测器中已有的68个人脸关键点和在此基础上增加的前额13个人脸关键点,其中标号为1-17及69-81的人脸关键点为人脸边缘关键点,使用这些人脸边缘关键点进行椭圆拟合得到椭圆方程Q,椭圆方程Q的拟合目标函数如下公式(1)所示,
公式(1)中,[p,q]为用于拟合椭圆的人脸关键点坐标,α,β,χ,δ,ε为椭圆方程Q的系数,F(α,β,χ,δ,ε)为包含系数α,β,χ,δ,ε的拟合目标函数,k表示用于拟合椭圆的第k个关键点,K为用于拟合椭圆的人脸关键点个数,
当以下公式(2)成立时,
得到F(α,β,χ,δ,ε)的最小值,此时求得椭圆方程Q的系数α,β,χ,δ,ε,由此得到椭圆方程Q,
使用眼睛部分标号为37,39,40,42,43,44,47,49的人脸关键点进行眼睛部分区域去除,其中使用标号为37,40的人脸关键点的纵坐标与标号为39,42的人脸关键点的横坐标组成右眼矩形区域,使用标号为43,46的人脸关键点的纵坐标与标号为44,47的人脸关键点的横坐标组成左眼矩形区域,
椭圆方程Q所包含的椭圆区域去除上述右眼矩形区域和左眼矩形区域即为提取的人脸感兴趣区域,所提取的人脸感兴趣区域为拟合人脸边缘的椭圆形感兴趣区域;
第二步,提取人脸图像的光流梯度幅值特征:
对上述第一步所提取的人脸感兴趣区域中的人脸图像提取光流梯度幅值特征,步骤如下,
第(2.1)步,用FlowNet2网络提取视频序列中人脸图像帧间光流场:
首先构建FlowNet2网络的三层堆叠网络,第一层使用FlowNetC网络,第二层和第三层均使用FlowNetS网络,再使用融合网络融合三层堆叠网络结果与根据FlowNetS网络改进的FlowNetSD网络结果得到人脸图像帧间光流场,
将现有的人脸微表情数据库中的人脸图像样本编制为视频序列,其中每个视频序列表示为{f1,...,ft,...,fs},其中s为每个视频序列中所包含的人脸图像的总帧数(以下相同),ft为当前视频序列中的第t帧人脸图像,每个视频序列以第一帧人脸图像为参考帧提取光流场,当FlowNet2网络输入为f1与ft时,得到第t帧人脸图像的光流场,将第一步所提取的人脸感兴趣区域与人脸图像的光流场结合,得到每帧人脸图像感兴趣区域中的光流场,由水平光流分量H与垂直光流分量V组成,本实施例中的人脸微表情数据库为CASMEⅡ数据库,
水平光流分量H如下公式(3)所示,
公式(3)中,Hi,j为人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量,m为人脸图像感兴趣区域中包含像素的行数(以下相同),n为人脸图像感兴趣区域中包含像素的列数(以下相同),
垂直光流分量V如下公式(4)所示,
公式(4)中,Vi,j为人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量,
由此完成用FlowNet2网络提取人脸图像感兴趣区域的光流场;
第(2.2)步,提取人脸感兴趣区域的光流梯度幅值特征:
用如下公式(5-1)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量Hi,j在x方向的梯度值H(x) i,j,
用如下公式(6-1)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量Hi,j在y方向的梯度值H(y) i,j,
用如下公式(5-2)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j在x方向的梯度值V(x) i,j,
用如下公式(6-2)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j在y方向的梯度值V(y) i,j,
上述公式(5-1)、(5-2)、(6-1)和(6-2)中,i为像素横坐标,j为像素纵坐标,
进一步用如下公式(7)计算坐标为[i,j]像素的水平光流分量Hi,j的梯度幅值M(H) i,j,
进一步用如下公式(8)计算人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j的梯度幅值M(V) i,j,
根据水平光流分量Hi,j的梯度幅值M(H) i,j与垂直光流分量Vi,j的梯度幅值M(V) i,j,通过如下公式(9)计算人脸图像感兴趣区域中坐标为[i,j]像素的光流梯度幅值Mi,j,
根据光流梯度幅值Mi,j计算出第t帧人脸图像感兴趣区域的光流梯度幅值直方图Bt,如下公式(10)所示,
Bt={b1,b2,...,br,...,bc} (10),
公式(10)中,br为第r个组的频数,c为光流梯度幅值直方图中包含的组数,本实施例中c=50;
根据如下公式(11)计算一帧人脸图像感兴趣区域的光流梯度幅值直方图中每组的频数,
br=br+1,当Mi,j∈[minr,maxr] (11),
公式(11)中,br为第r个组的频数,minr为第r个组的左边界值,maxr为第r个组的右边界值;
将第t帧人脸图像感兴趣区域的光流梯度幅值直方图Bt作为第t帧人脸图像的人脸图像特征feat,则每个视频序列的光流梯度幅值特征为如下公式(12)所示,
fea=[fea1,…,feat,…,feas] (12),
公式(12)中,s为每个视频序列样本中所包含人脸图像的总帧数(以下相同),
由此完成提取人脸图像的光流梯度幅值特征;
第三步,光流梯度幅值特征距离分析:
第(3.1)步,计算及处理特征距离:
A.计算特征距离:
根据上述第(2.2)步中求得的每个视频序列的光流梯度幅值特征fea=[fea1,…,feat,…,feas],每个视频序列的特征距离向量表示为diff=[diff1,…,difft,…,diffs],
特征距离由以下公式(13)计算,
difft(v)=E(feat,feat+N/2+v),v=1,2,3,4,5 (13),
公式(13)中,N为由视频序列帧率与人脸微表情持续时间计算的人脸微表情序列最大帧数(以下相同),difft(v)为第t帧人脸图像与第t+N/2+v帧人脸图像之间的特征距离值(以下相同),feat+N/2+v为第t+N/2+v帧的人脸图像特征,v是特指第t+N/2帧后的1-5帧人脸图像,本实施例中,CASMEⅡ数据库帧率为200fps,则N=65,
第t帧人脸图像与第t+N/2+v帧人脸图像之间的特征距离计算如公式(14)所示,
公式(14)中,D为特征向量的维数,feat(r)表示第t帧人脸图像的光流梯度幅值直方图的第r组的频数,feat+N/2+v(r)为第t+N/2+v帧人脸图像的光流梯度幅值直方图的第r组的频数,本实施例中D=50;
根据上述公式(14)求得的第t帧人脸图像与t+N/2+v帧人脸图像之间的特征距离,进行第t帧人脸图像的特征距离值计算,操作方法是,使用第t帧人脸图像与第t+N/2帧人脸图像周围五帧人脸图像的特征距离平均值来代替第t帧人脸图像与第t+N/2帧人脸图像之间的特征距离,如公式(15)所示,
公式(15)中,difft为最终求得的视频序列中第t帧人脸图像的特征距离平均值,
B.处理特征距离:
依据上述A中的每个视频序列的特征距离向量diff=[diff1,…,difft,…,diffs],绘制每个视频序列的特征距离曲线,将所得每个视频序列的特征距离曲线进行高斯平滑,高斯平滑后,得到新的每个视频序列的特征距离向量为如下公式(16)所示,
diffnew=[diff1’,…,difft’,…,diffs’] (16),
公式(16)中,diffnew为平滑后的每个视频序列的特征距离向量,
通过以下公式(17)计算特征距离筛选阈值T,
T=mean(diffnew)+ρ×(max(diffnew)-mean(diffnew)),ρ=0.1,0.2,...,1 (17),
公式(17)中,mean(diffnew)为特征距离向量的平均值,max(diffnew)为特征距离向量的最大值,ρ为阈值调节参数,
当difft'低于特征距离筛选阈值T时,则表示第t帧人脸图像不包含在人脸微表情片段内,则将其预测标签设置为0,否则设置为1,由此完成计算及处理特征距离,得到初步人脸图像预测标签label如下公式(18)所示,
label=[label1,label2,...,labelt,...,labels] (18),
公式(18)中,labelt为第t帧人脸图像的初步预测标签;
第(3.2)步,噪声消除:
对上述第(3.1)步得到的初步人脸图像预测标签label,进行消除单帧噪声及持续时间过滤的后续处理,具体操作如下:
A.消除单帧噪声处理:
消除单帧噪声处理是指将在连续预测标签为1的人脸图像帧中存在的单帧预测标签为0的人脸图像帧的单帧预测标签修改为1,和将在连续预测标签为0的人脸图像帧中存在的单帧预测标签为1的人脸图像帧的单帧预测标签修改为0,消除单帧噪声处理的公式(19)如下所示,
公式(19)中,labelt'为消除单帧噪声处理后视频序列中第t帧人脸图像的预测标签,labelt-1为视频序列中第t-1帧人脸图像的初步预测标签,labelt+1为视频序列中第t+1帧人脸图像的初步预测标签,
由此得到经过消除单帧噪声处理后的人脸图像预测标签label'如下公式(20)所示,
label'=[label1',label2',...,labelt',...,labels'] (20),
B.持续时间过滤处理:
对上述消除单帧噪声处理后得到的人脸图像预测标签label'进行人脸微表情持续时间过滤处理,根据帧率计算人脸微表情持续帧数,将得到的结果中持续时间在1/25秒~1/3秒的范围外的预测人脸微表情序列滤除,即完成持续时间过滤处理,持续时间过滤处理的公式(21)如下所示,
公式(21)中,labelt”为视频序列中第t帧人脸图像的最终预测标签(以下相同),labelvideo(d)=[labela',labela+1',...,labelb']为视频序列中第d段经过消除单帧噪声处理后的连续的预测标签为1的人脸图像视频序列帧,其中a,b分别为第d段连续预测标签为1的视频序列的起始位置与结束位置,
经过上述第(3.1)步的计算及处理特征距离和第(3.2)步的噪声消除的后处理过程,得到视频序列中人脸图像的最终预测标签结果label”如公式(22)所示,
label”=[label1”,label2”,...,labelt”,...,labels”] (22),
第四步:基于光流梯度幅值特征的人脸微表情检测:
在上述第三步光流梯度幅值特征距离分析中获得人脸图像最终预测结果之后,需要将预测标签与实际标签进行对比,以得到量化结果,这里考虑存在误差的情况,将视频序列中实际标签为人脸微表情的视频序列帧范围设置为[onset-N/4,offset+N/4],其中onset与offset分别为实际标签中标记的人脸微表情片段的起始帧与结束帧,本实施例中,CASMEⅡ数据库帧率为200fps,则N=65,将每个视频序列在此范围内的视频序列帧标记为正,其他视频序列帧标记为负,再将上述第三步中获得的人脸图像预测标签与实际标签对比,并计算出以下各项评价指标,即用公式(23)计算出预测标签为正的正样本占所有实际为正样本的比例TPR,即召回率REC,用公式(24)计算出预测标签为正的负样本占所有实际为负样本的比例FPR、用公式(25)计算出预测标签为正的正样本占所有预测标签为正的样本的比例PRE,
用如下公式(26)计算出REC和PRE的调和均值F1,
公式(23)-(26)中,TP为当预测标签为正时,实际标签也为正的视频序列帧数量,FP为当预测标签为正时,实际标签为负的视频序列帧数量,TN为当预测标签为负时,实际标签也为负的视频序列帧数量,FN为当预测标签为负时,实际标签为正的视频序列帧数量;
上述各项评价指标计算完成后,至此全部完成基于光流梯度幅值特征的人脸微表情检测。
本实施例中,所述Dlib检测器及其检测方法和帧率计算的方法是本技术领域公知的,其他操作方法是本技术领域的技术人员所能掌握的。
Claims (1)
1.基于光流梯度幅值特征的人脸微表情检测方法,其特征在于:首先根据人脸关键点拟合人脸边缘提取感兴趣区域,用FlowNet2网络提取视频序列中人脸图像帧间光流场,然后提取人脸感兴趣区域的光流梯度幅值特征,再计算及处理特征距离并进行噪声消除,完成基于光流梯度幅值特征的人脸微表情检测,具体步骤如下:
第一步,提取人脸感兴趣区域:
输入人脸图像视频序列,根据人脸关键点拟合人脸边缘提取感兴趣区域,即使用Dlib检测器检测人脸图像中81个标号的人脸关键点,包括在经典Dlib人脸检测器中已有的68个人脸关键点和在此基础上增加的前额13个人脸关键点,其中标号为1-17及69-81的人脸关键点为人脸边缘关键点,使用这些人脸边缘关键点进行椭圆拟合得到椭圆方程Q,椭圆方程Q的拟合目标函数如公式(1)所示,
公式(1)中,[p,q]为用于拟合椭圆的人脸关键点坐标,α,β,χ,δ,ε为椭圆方程Q的系数,F(α,β,χ,δ,ε)为包含系数α,β,χ,δ,ε的拟合目标函数,k表示用于拟合椭圆的第k个关键点,K为用于拟合椭圆的人脸关键点个数,
当以下公式(2)成立时,
得到F(α,β,χ,δ,ε)的最小值,此时求得椭圆方程Q的系数α,β,χ,δ,ε,由此得到椭圆方程Q,
使用眼睛部分标号为37,39,40,42,43,44,47,49的人脸关键点进行眼睛部分区域去除,其中使用标号为37,40的人脸关键点的纵坐标与标号为39,42的人脸关键点的横坐标组成右眼矩形区域,使用标号为43,46的人脸关键点的纵坐标与标号为44,47的人脸关键点的横坐标组成左眼矩形区域,
椭圆方程Q所包含的椭圆区域去除上述右眼矩形区域和左眼矩形区域即为提取的人脸感兴趣区域,所提取的人脸感兴趣区域为拟合人脸边缘的椭圆形感兴趣区域;
第二步,提取人脸图像的光流梯度幅值特征:
对上述第一步所提取的人脸感兴趣区域中的人脸图像提取光流梯度幅值特征,步骤如下,
第(2.1)步,用FlowNet2网络提取视频序列中人脸图像帧间光流场:
首先构建FlowNet2网络的三层堆叠网络,第一层使用FlowNetC网络,第二层和第三层均使用FlowNetS网络,再使用融合网络融合三层堆叠网络结果与根据FlowNetS网络改进的FlowNetSD网络结果得到人脸图像帧间光流场,
将现有的人脸微表情数据库中的人脸图像样本编制为视频序列,其中每个视频序列表示为{f1,...,ft,...,fs},其中s为每个视频序列中所包含的人脸图像的总帧数(以下相同),ft为当前视频序列中的第t帧人脸图像,每个视频序列以第一帧人脸图像为参考帧提取光流场,当FlowNet2网络输入为f1与ft时,得到第t帧人脸图像的光流场,将第一步所提取的人脸感兴趣区域与人脸图像的光流场结合,得到每帧人脸图像感兴趣区域中的光流场由水平光流分量H与垂直光流分量V组成,
水平光流分量H如下公式(3)所示,
公式(3)中,Hi,j为人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量,m为人脸图像感兴趣区域中包含像素的行数(以下相同),n为人脸图像感兴趣区域中包含像素的列数(以下相同),
垂直光流分量V如下公式(4)所示,
公式(4)中,Vi,j为人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量,
由此完成用FlowNet2网络提取人脸图像感兴趣区域的光流场;
第(2.2)步,提取人脸感兴趣区域的光流梯度幅值特征:
用如下公式(5-1)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量Hi,j在x方向的梯度值H(x) i,j,
用如下公式(6-1)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的水平光流分量Hi,j在y方向的梯度值H(y) i,j,
用如下公式(5-2)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j在x方向的梯度值V(x) i,j,
用如下公式(6-2)计算上述第(2.1)步中的人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j在y方向的梯度值V(y) i,j,
上述公式(5-1)、(5-2)、(6-1)和(6-2)中,i为像素横坐标,j为像素纵坐标,
进一步用如下公式(7)计算坐标为[i,j]像素的水平光流分量Hi,j的梯度幅值M(H) i,j,
进一步用如下公式(8)计算人脸图像感兴趣区域中坐标为[i,j]像素的垂直光流分量Vi,j的梯度幅值M(V) i,j,
根据水平光流分量Hi,j的梯度幅值M(H) i,j与垂直光流分量Vi,j的梯度幅值M(V) i,j,通过如下公式(9)计算人脸图像感兴趣区域中坐标为[i,j]像素的光流梯度幅值Mi,j,
根据光流梯度幅值Mi,j计算出第t帧人脸图像感兴趣区域的光流梯度幅值直方图Bt,如下公式(10)所示,
Bt={b1,b2,...,br,...,bc} (10),
公式(10)中,br为第r个组的频数,c为光流梯度幅值直方图中包含的组数;
根据如下公式(11)计算一帧人脸图像感兴趣区域的光流梯度幅值直方图中每组的频数,
br=br+1,当Mi,j∈[minr,maxr] (11),
公式(11)中,br为第r个组的频数,minr为第r个组的左边界值,maxr为第r个组的右边界值;
将第t帧人脸图像感兴趣区域的光流梯度幅值直方图Bt作为第t帧人脸图像的人脸图像特征feat,则每个视频序列的光流梯度幅值特征为如下公式(12)所示,
fea=[fea1,…,feat,…,feas] (12),
公式(12)中,s为每个视频序列样本中所包含人脸图像的总帧数(以下相同),
由此完成提取人脸图像的光流梯度幅值特征;
第三步,光流梯度幅值特征距离分析:
第(3.1)步,计算及处理特征距离:
A.计算特征距离:
根据上述第(2.2)步中求得的每个视频序列的光流梯度幅值特征fea=[fea1,…,feat,…,feas],每个视频序列的特征距离向量表示为diff=[diff1,…,difft,…,diffs],
特征距离由以下公式(13)计算,
difft(v)=E(feat,feat+N/2+v),v=1,2,3,4,5 (13),
公式(13)中,N为由视频序列帧率与人脸微表情持续时间计算的人脸微表情序列最大帧数(以下相同),difft(v)为第t帧人脸图像与第t+N/2+v帧人脸图像之间的特征距离值(以下相同),feat+N/2+v为第t+N/2+v帧的人脸图像特征,v是特指第t+N/2帧后的1-5帧人脸图像,
第t帧人脸图像与第t+N/2+v帧人脸图像之间的特征距离计算如公式(14)所示,
公式(14)中,D为特征向量的维数,feat(r)表示第t帧人脸图像的光流梯度幅值直方图的第r组的频数,feat+N/2+v(r)为第t+N/2+v帧人脸图像的光流梯度幅值直方图的第r组的频数,
根据上述公式(14)求得的第t帧人脸图像与t+N/2+v帧人脸图像之间的特征距离,进行第t帧人脸图像的特征距离值计算,操作方法是,使用第t帧人脸图像与第t+N/2帧人脸图像周围五帧人脸图像的特征距离平均值来代替第t帧人脸图像与第t+N/2帧人脸图像之间的特征距离,如公式(15)所示,
公式(15)中,difft为最终求得的视频序列中第t帧人脸图像的特征距离平均值,
B.处理特征距离:
依据上述A中的每个视频序列的特征距离向量diff=[diff1,…,difft,…,diffs],绘制每个视频序列的特征距离曲线,将所得每个视频序列的特征距离曲线进行高斯平滑,高斯平滑后,得到新的每个视频序列的特征距离向量如下公式(16)所示,
diffnew=[diff1’,…,difft’,…,diffs’] (16),
公式(16)中,diffnew为平滑后的每个视频序列的特征距离向量,
通过以下公式(17)计算特征距离筛选阈值T,
T=mean(diffnew)+ρ×(max(diffnew)-mean(diffnew)),ρ=0.1,0.2,...,1 (17),
公式(17)中,mean(diffnew)为特征距离向量的平均值,max(diffnew)为特征距离向量的最大值,ρ为阈值调节参数,
当difft'低于特征距离筛选阈值T时,则表示第t帧人脸图像不包含在人脸微表情片段内,则将其预测标签设置为0,否则设置为1,由此完成计算及处理特征距离,得到初步人脸图像预测标签label如下公式(18)所示,
label=[label1,label2,...,labelt,...,labels] (18),
公式(18)中,labelt为第t帧人脸图像的初步预测标签;
第(3.2)步,噪声消除:
对上述第(3.1)步得到的初步人脸图像预测标签label,进行消除单帧噪声及持续时间过滤的后续处理,具体操作如下:
A.消除单帧噪声处理:
消除单帧噪声处理是指将在连续预测标签为1的人脸图像帧中存在的单帧预测标签为0的人脸图像帧的单帧预测标签修改为1,和将在连续预测标签为0的人脸图像帧中存在的单帧预测标签为1的人脸图像帧的单帧预测标签修改为0,消除单帧噪声处理的公式(19)如下所示,
labelt'为消除单帧噪声处理后视频序列中第t帧人脸图像的预测标签,labelt-1为视频序列中第t-1帧人脸图像的初步预测标签,labelt+1为视频序列中第t+1帧人脸图像的初步预测标签,
由此得到经过消除单帧噪声处理后的人脸图像预测标签label',如下公式(20)所示,
label'=[label1',label2',...,labelt',...,labels'] (20),
B.持续时间过滤处理:
对上述消除单帧噪声处理后得到的人脸图像预测标签label'进行人脸微表情持续时间过滤处理,根据帧率计算人脸微表情持续帧数,将得到的结果中持续时间在1/25秒~1/3秒的范围外的预测人脸微表情序列滤除,即完成持续时间过滤处理,持续时间过滤处理的公式(21)如下所示,
公式(21)中,labelt”为视频序列中第t帧人脸图像的最终预测标签(以下相同),labelvideo(d)=[labela',labela+1',...,labelb']为视频序列中第d段经过消除单帧噪声处理后的连续的预测标签为1的人脸图像视频序列帧,其中a,b分别为第d段连续预测标签为1的视频序列的起始位置与结束位置,
经过上述第(3.1)步的计算及处理特征距离和第(3.2)步的噪声消除后处理过程,得到视频序列中人脸图像的最终预测标签结果label”如下公式(22)所示,
label”=[label1”,label2”,...,labelt”,...,labels”] (22),
第四步:基于光流梯度幅值特征的人脸微表情检测:
在上述第三步光流梯度幅值特征距离分析中获得人脸图像最终预测结果后,需要将预测标签与实际标签进行对比得到量化结果,考虑存在误差的情况,将视频序列中实际标签为人脸微表情的视频序列帧范围设置为[onset-N/4,offset+N/4],其中onset与offset分别为实际标签中标记的人脸微表情片段的起始帧与结束帧,将每个视频序列在此范围内的视频序列帧标记为正,其他视频序列帧标记为负,再将上述第三步中获得的人脸图像预测标签与实际标签对比,并计算出以下各项评价指标,即用公式(23)计算出预测标签为正的正样本占所有实际为正样本的比例TPR,即召回率REC,用公式(24)计算出预测标签为正的负样本占所有实际为负样本的比例FPR,用公式(25)计算出预测标签为正的正样本占所有预测标签为正的样本的比例PRE,
用公式(26)计算出REC和PRE的调和均值F1,
公式(23)-(26)中,TP为当预测标签为正时,实际标签也为正的视频序列帧数量,FP为当预测标签为正时,实际标签为负的视频序列帧数量,TN为当预测标签为负时,实际标签也为负的视频序列帧数量,FN为当预测标签为负时,实际标签为正的视频序列帧数量;
上述各项评价指标计算完成后,至此全部完成了基于光流梯度幅值特征的人脸微表情检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911234416.9A CN110991348B (zh) | 2019-12-05 | 2019-12-05 | 基于光流梯度幅值特征的人脸微表情检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911234416.9A CN110991348B (zh) | 2019-12-05 | 2019-12-05 | 基于光流梯度幅值特征的人脸微表情检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110991348A true CN110991348A (zh) | 2020-04-10 |
CN110991348B CN110991348B (zh) | 2021-10-15 |
Family
ID=70090432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911234416.9A Active CN110991348B (zh) | 2019-12-05 | 2019-12-05 | 基于光流梯度幅值特征的人脸微表情检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110991348B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626179A (zh) * | 2020-05-24 | 2020-09-04 | 中国科学院心理研究所 | 一种基于光流叠加的微表情检测方法 |
CN111860400A (zh) * | 2020-07-28 | 2020-10-30 | 平安科技(深圳)有限公司 | 人脸增强识别方法、装置、设备及存储介质 |
CN112016410A (zh) * | 2020-08-13 | 2020-12-01 | 武汉理工大学 | 一种微表情识别方法、存储介质及系统 |
CN112329663A (zh) * | 2020-11-10 | 2021-02-05 | 西南大学 | 一种基于人脸图像序列的微表情时刻检测方法及装置 |
CN112990101A (zh) * | 2021-04-14 | 2021-06-18 | 深圳市罗湖医院集团 | 基于机器视觉的面部器官定位方法及相关设备 |
CN113901915A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种轻量网络与MagFace在视频中的表情检测方法 |
CN113902774A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种稠密度光流特征在视频中的面部表情检测方法 |
CN114170201A (zh) * | 2021-12-08 | 2022-03-11 | 山东大学 | 基于边缘光流信息的非接触式呼吸率检测方法及系统 |
CN115937958A (zh) * | 2022-12-01 | 2023-04-07 | 北京惠朗时代科技有限公司 | 一种眨眼检测方法、装置、设备及存储介质 |
CN111860400B (zh) * | 2020-07-28 | 2024-06-07 | 平安科技(深圳)有限公司 | 人脸增强识别方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100232675A1 (en) * | 1999-01-25 | 2010-09-16 | Amnis Corporation | Blood and cell analysis using an imaging flow cytometer |
CN107358206A (zh) * | 2017-07-13 | 2017-11-17 | 山东大学 | 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法 |
CN109034126A (zh) * | 2018-08-31 | 2018-12-18 | 上海理工大学 | 一种基于光流主方向的微表情识别方法 |
CN109299650A (zh) * | 2018-07-27 | 2019-02-01 | 东南大学 | 基于视频的非线性在线表情预检测方法及装置 |
CN109961054A (zh) * | 2019-03-29 | 2019-07-02 | 山东大学 | 一种基于感兴趣区域特征点运动的焦虑、抑郁、愤怒表情识别方法 |
CN110084228A (zh) * | 2019-06-25 | 2019-08-02 | 江苏德劭信息科技有限公司 | 一种基于双流卷积神经网络的危险行为自动识别方法 |
CN110287801A (zh) * | 2019-05-29 | 2019-09-27 | 中国电子科技集团公司电子科学研究院 | 一种微表情识别算法 |
-
2019
- 2019-12-05 CN CN201911234416.9A patent/CN110991348B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100232675A1 (en) * | 1999-01-25 | 2010-09-16 | Amnis Corporation | Blood and cell analysis using an imaging flow cytometer |
CN107358206A (zh) * | 2017-07-13 | 2017-11-17 | 山东大学 | 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法 |
CN109299650A (zh) * | 2018-07-27 | 2019-02-01 | 东南大学 | 基于视频的非线性在线表情预检测方法及装置 |
CN109034126A (zh) * | 2018-08-31 | 2018-12-18 | 上海理工大学 | 一种基于光流主方向的微表情识别方法 |
CN109961054A (zh) * | 2019-03-29 | 2019-07-02 | 山东大学 | 一种基于感兴趣区域特征点运动的焦虑、抑郁、愤怒表情识别方法 |
CN110287801A (zh) * | 2019-05-29 | 2019-09-27 | 中国电子科技集团公司电子科学研究院 | 一种微表情识别算法 |
CN110084228A (zh) * | 2019-06-25 | 2019-08-02 | 江苏德劭信息科技有限公司 | 一种基于双流卷积神经网络的危险行为自动识别方法 |
Non-Patent Citations (3)
Title |
---|
PHILIPP FISCHER.ET AL: ""FlowNet: Learning Optical Flow with Convolutional Networks"", 《ARXIV:1504.06852V2》 * |
QIUYU LI.ET AL: ""Micro-expression Analysis by Fusing Deep Convolutional Neural Network and Optical Flow"", 《IEEE》 * |
于明等: ""基于差分能量图和CGBP的微表情识别"", 《西南交通大学学报》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626179A (zh) * | 2020-05-24 | 2020-09-04 | 中国科学院心理研究所 | 一种基于光流叠加的微表情检测方法 |
CN111626179B (zh) * | 2020-05-24 | 2023-04-28 | 中国科学院心理研究所 | 一种基于光流叠加的微表情检测方法 |
CN111860400A (zh) * | 2020-07-28 | 2020-10-30 | 平安科技(深圳)有限公司 | 人脸增强识别方法、装置、设备及存储介质 |
CN111860400B (zh) * | 2020-07-28 | 2024-06-07 | 平安科技(深圳)有限公司 | 人脸增强识别方法、装置、设备及存储介质 |
CN112016410A (zh) * | 2020-08-13 | 2020-12-01 | 武汉理工大学 | 一种微表情识别方法、存储介质及系统 |
CN112016410B (zh) * | 2020-08-13 | 2023-12-26 | 武汉理工大学 | 一种微表情识别方法、存储介质及系统 |
CN112329663B (zh) * | 2020-11-10 | 2023-04-07 | 西南大学 | 一种基于人脸图像序列的微表情时刻检测方法及装置 |
CN112329663A (zh) * | 2020-11-10 | 2021-02-05 | 西南大学 | 一种基于人脸图像序列的微表情时刻检测方法及装置 |
CN112990101A (zh) * | 2021-04-14 | 2021-06-18 | 深圳市罗湖医院集团 | 基于机器视觉的面部器官定位方法及相关设备 |
CN113902774A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种稠密度光流特征在视频中的面部表情检测方法 |
CN113901915A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种轻量网络与MagFace在视频中的表情检测方法 |
CN113902774B (zh) * | 2021-10-08 | 2024-04-02 | 无锡锡商银行股份有限公司 | 一种稠密度光流特征在视频中的面部表情检测方法 |
CN113901915B (zh) * | 2021-10-08 | 2024-04-02 | 无锡锡商银行股份有限公司 | 一种轻量网络与MagFace在视频中的表情检测方法 |
CN114170201A (zh) * | 2021-12-08 | 2022-03-11 | 山东大学 | 基于边缘光流信息的非接触式呼吸率检测方法及系统 |
CN114170201B (zh) * | 2021-12-08 | 2024-04-26 | 山东大学 | 基于边缘光流信息的非接触式呼吸率检测方法及系统 |
CN115937958A (zh) * | 2022-12-01 | 2023-04-07 | 北京惠朗时代科技有限公司 | 一种眨眼检测方法、装置、设备及存储介质 |
CN115937958B (zh) * | 2022-12-01 | 2023-12-15 | 北京惠朗时代科技有限公司 | 一种眨眼检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110991348B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991348B (zh) | 基于光流梯度幅值特征的人脸微表情检测方法 | |
CN109522793B (zh) | 基于机器视觉的多人异常行为检测与识别方法 | |
CN107958244B (zh) | 一种基于视频多帧人脸特征融合的人脸识别方法及装置 | |
CN109145742B (zh) | 一种行人识别方法及系统 | |
KR101653278B1 (ko) | 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템 | |
CN107911663A (zh) | 一种基于计算机视觉检测的电梯乘客危险行为智能识别预警系统 | |
US20100111375A1 (en) | Method for Determining Atributes of Faces in Images | |
Choi et al. | Driver drowsiness detection based on multimodal using fusion of visual-feature and bio-signal | |
CN107230267A (zh) | 基于人脸识别算法的幼儿园智能签到方法 | |
Shakya et al. | Human behavior prediction using facial expression analysis | |
Bashbaghi et al. | Watch-list screening using ensembles based on multiple face representations | |
Shirsat et al. | Proposed system for criminal detection and recognition on CCTV data using cloud and machine learning | |
Beh et al. | Micro-expression spotting using facial landmarks | |
Hirzi et al. | Literature study of face recognition using the viola-jones algorithm | |
CN107862298A (zh) | 一种基于红外摄像装置下眨眼的活体检测方法 | |
Dahal et al. | Incorporating skin color for improved face detection and tracking system | |
Haque et al. | Constructing facial expression log from video sequences using face quality assessment | |
Starostenko et al. | Real-time facial expression recognition using local appearance-based descriptors | |
KR102423934B1 (ko) | 안면인식 및 유사한 옷 색상의 다수 객체 추적기술을 통한 스마트 휴먼검색 통합 솔루션 | |
Bevilacqua et al. | Face detection by means of skin detection | |
KR101851823B1 (ko) | 영상 이미지에서 신장 대비 머리 높이의 비를 이용하여 어린이와 성인을 구분하는 방법 | |
Zhao et al. | Real-time multiple-person tracking system | |
AthishMon et al. | Recognizing spontaneous emotion from the eye region under different head poses | |
CN112733576A (zh) | 一种通过动态影像进行面部识别的方法 | |
Wang et al. | Face tracking and recognition from stereo sequence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |