CN111626179A - 一种基于光流叠加的微表情检测方法 - Google Patents
一种基于光流叠加的微表情检测方法 Download PDFInfo
- Publication number
- CN111626179A CN111626179A CN202010445486.5A CN202010445486A CN111626179A CN 111626179 A CN111626179 A CN 111626179A CN 202010445486 A CN202010445486 A CN 202010445486A CN 111626179 A CN111626179 A CN 111626179A
- Authority
- CN
- China
- Prior art keywords
- frame
- optical flow
- picture
- video
- micro
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于光流叠加的微表情检测方法,对视频样本图片进行预处理,得到视频中每帧图片的人脸定位区域;建立一个长度为2k的滑动窗口[Fi-k,Fi+k];在滑动窗口中,将计算的稠密光进行光流叠加后得到叠加光流Si和Si+k;计算主方向上叠加光流Si+k与Si的模值差值,计算每帧图片中各个方形区块的光流特征值;根据各方形区块的光流特征值,计算滑动窗口中当前检测帧Fi图片的特征平均值di,并依次得到视频中所有帧图片的特征平均值和相对差值ri;比较相对差值ri和阈值T,找出所有大于阈值T的相对差值ri所对应的帧图片序号i。通过叠加光流可以削弱光流中的随机噪声信息,提高微表情检测方法的性能上限,具有增大检测方法的最大F1‑score的优点。
Description
技术领域
本发明涉及微表情检测技术领域,具体涉及一种基于光流叠加的微表情检测方法。
背景技术
微表情是人们在隐藏自己情绪时所泄露的快速面部表情。在一段视频中,检测是否发生了微表情并且定位微表情发生的时间段,可以用于谎言的检测和说谎时间的定位。F1-score可以有效地平衡一个微表情检测方法的准确率和召回率,从而成为了衡量微表情检测方法性能的通用指标。通常情况下,方法的参数设置会影响F1-score的值,但是这种影响对于F1-score的提升是有上限的。也就是说,F1-score在不同的参数设置中会有一个最大值。在基于光流分析的微表情检测方法中,所计算出的两帧之间的光流有一部分是由于面部运动产生的,另一部分是由于随机噪声产生的,而由于随机噪声产生的光流会使算法的性能下降,从而影响F1-score的提升。
发明内容
为了解决上述所存在的技术问题,本发明通过叠加两张光流特征来减小由于随机噪声产生的光流的模值,从而削弱由于随机噪声导致的检测性能受损,进而提高基于光流分析的微表情检测方法的上限。为此,本发明提供了一种基于光流叠加的微表情检测方法。
所采用的具体方案如下:
一种基于光流叠加的微表情检测方法,所述方法包括如下步骤:
步骤1,对视频样本图片进行预处理,得到视频中每帧图片的人脸定位区域;
步骤2,建立一个包含当前检测帧Fi、长度为2k的滑动窗口[Fi-k,Fi+k],在待检测视频中,沿时间轴方向按步长1帧移动,其中i=k+1,k+2,…,n-k,n为视频中总帧数;
步骤3,在滑动窗口中,计算帧Fi-k到帧Fi之间的稠密光流Oi、帧Fi-k到帧Fi-1之间的稠密光流Oi-1、帧Fi-k到帧Fi+k-1之间的稠密光流Oi+k-1及帧Fi-k到帧Fi+k之间的稠密光流Oi+k;
步骤4,将稠密光流Oi和Oi-1进行光流叠加后得到叠加光流Si,将稠密光流Oi+k-1和Oi+k进行光流叠加后得到叠加光流Si+k;
步骤5,将步骤1中每帧图片的人脸定位区域划分为多个区块,提取各区块上叠加光流Si的光流矢量,计算主方向上叠加光流Si+k与Si的模值差值,得到滑动窗口中当前检测帧Fi的各个区块光流特征值;
步骤6,根据当前检测帧Fi中各区块的光流特征值,计算当前检测帧Fi的特征平均值di;
步骤7,沿视频时间轴方向移动滑动窗口,根据各帧图片的特征平均值di计算当前检测帧Fi的相对差值ri;
步骤8,根据所设定的阈值T,比较相对差值ri和阈值T,找出所有大于阈值T的相对差值ri所对应的帧图片序号i,并输出,得到属于微表情的帧图片。
还包括微表情的筛选步骤9,将步骤8中所得到的连续预测为微表情的帧图片序号i合并起来形成微表情区间,再将持续时间0.2~0.55秒的区间筛选出来,作为检测出的微表情区间。
所述步骤1中对视频样本图片进行预处理的方法是:
步骤1.1,采用dlib检测器检测出视频样本中第一张图片中的人脸68个关键点,并找出68个关键点中的位于最左、最右、最上和最下的四个关键点;
步骤1.2,标记出第19个关键点和第37个关键点的垂直距离d;
步骤1.3,构建一个矩形框,使得矩形框的左边、右边和下边分别经过检测出的最左、最右和最下的人脸关键点,矩形框的上边位于所检测出的最上人脸关键点之上的d距离处;
步骤1.4,再次采用dlib检测器对构建的矩形框内部区域进行68个关键点检测,找出位于最下的人脸关键点并与第一次检测到的最下人脸关键点比较,找出两关键点中靠上的一个,并将其作为新构建矩形框的下边。
所述步骤5中,将每帧图片的人脸定位区域按照6×6的区块划分方式,划分成36个相等大小的方形区块。
所述步骤5中,提取各方形区块上叠加光流Si的光流矢量,计算主方向上叠加光流Si+k与Si的模值差值后,并将各方形区块上的所得到的模值差值按照降序排列,计算排序后的前1/3个差值的平均值,即得到当前检测帧Fi中各方形区块的光流特征值。
所述步骤6中,将所有方形区块的光流特征值按降序排列,取前12个方形区块的光流特征值,并取平均值后得到当前检测帧Fi的特征平均值di。
本发明技术方案具有如下优点:
A.本发明通过对所建立的滑动窗口中的各帧图片进行光流叠加处理,所形成的叠加光流可以削弱光流中的随机噪声信息,同时加强光流中的运动信息,从而提高基于光流分析的微表情检测方法的性能上限,具有可以增大检测方法的最大F1-score的优点。
B.通过在CAS(ME)^2数据集上对比传统的MDMD方法,本发明通过对光流进行叠加后再进行MDMD方法应用,叠加后的光流有效地提高了MDMD检测方法在CAS(ME)^2数据集上的微表情检测性能上限,即有效地增大了检测方法在各种参数p值的设置下的最大F1-score的值,检测性能相比传统的MDMD检测方法提升4%,可以更准确的获取视频中人物的微表情,并定位视频中微表情发生的时间段。
C.本发明对视频图片中的人脸关键点进行了两次关键点检测,通过两次对人脸下部的关键点检测来定位人脸区域,通过构造的矩形框将各帧图片中的待检测的人脸区域剪裁出来,统一缩放成227×227像素,完成对各帧图片的预处理,使检测方法对人脸下部的定位更加准确。
附图说明
为了更清楚地说明本发明具体实施方式,下面将对具体实施方式中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所提供的微表情检测方法原理框图;
图2-1、图2-2、图2-3为本发明所提供的图片预处理过程图示;
图3为本发明所提供的各帧图片区块划分方式图示;
图4为所采用的微表情主光流模式;
图5为高速相机捕捉视频帧及分析检测装置图示。
附图标记说明:
1-高速相机;2-计算机;3-被测试者。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供了一种基于光流叠加的微表情检测方法,包括如下步骤:
【S1】,对视频样本图片进行预处理,得到视频中每帧图片的人脸定位区域。
对于每个视频样本的第一帧图片,首先用开源工具包dlib检测器检测出人脸的68个关键点;找出这68个关键点的最左、最右、最上、最下的四个关键点;记第19个关键点和第37个关键点的垂直距离为d;构造一个矩形框,使矩形框的左、右、下边分别经过检测出的最左、最右、最下人脸关键点;矩形框的上边处于最上关键点的上方,与最上关键点的垂直距离为d,如图2-1所示。构造好矩形框之后,在矩形框所包围的区域内再次用dlib检测器检测68个人脸关键点;找出最下面的人脸关键点,使其与第一次检测的最下面的关键点进行比较,找出两个关键点中靠上的一个,记为点A。构造一个新的矩形框,使其左、右、上边与先前的矩形框的左、右、上边相同,并使其下边经过点A,如图2-2所示。本发明对视频图片中的人脸关键点进行了两次关键点检测,其目的是使检测方法对人脸下部的定位更加准确。通过两次关键点检测来定位人脸区域的处理过程,之后对于该视频样本中的每一帧图片,通过新构造的矩形框,将各帧图片中的待检测的人脸区域剪裁出来,如图2-3所示,优选地统一缩放成227×227像素,完成对各帧图片的预处理。上述的dlib检测器为微表情检测中常用的现有检测手段,在此不再赘述。
【S2】,建立一个包含当前检测帧Fi、长度为2k的滑动窗口[Fi-k,Fi+k],在待检测视频中,沿时间轴方向按步长1帧移动,其中i=k+1,k+2……n-k,n为视频中总帧数。这里的k值优选取帧率的0.4倍,CAS(ME)^2数据集的帧率是30FPS,k设置成0.4*30=12。
在一段预处理好的待检测视频中,记当前检测帧为Fi,它的前一帧为Fi-1,它的前k帧为Fi-k,它的后k帧为Fi+k,它的后k-1帧为Fi+k-1。
【S3】,计算帧Fi-k到帧Fi之间的稠密光流,记为Oi;计算帧Fi-k到帧Fi-1之间的稠密光流,记为Oi-1;计算帧Fi-k到帧Fi+k-1之间的稠密光流,记为Oi+k-1;计算帧Fi-k到帧Fi+k之间的稠密光流,记为Oi+k。
【S4】,将稠密光流Oi和Oi-1进行光流叠加后得到叠加光流Si,将稠密光流Oi+k-1和Oi+k进行光流叠加后得到叠加光流Si+k。
所计算出的光流会包含一些图像中的随机噪声所产生的光流,随机噪声所产生的光流进行叠加以后会互相抵消。因此,计算光流Oi-1和光流Oi的和,记为叠加光流Si;并计算稠密光流Oi+k-1和稠密Oi+k的和,记为叠加光流Si+k。叠加光流Si增强了稠密光流Oi-1和稠密光流Oi中的运动信息,并削弱了随机噪声的影响。同样地,叠加光流Si+k增强了稠密光流Oi+k-1和稠密光流Oi+k中的运动信息,并削弱了随机噪声的影响。
【S5】,将步骤1中每帧图片的人脸定位区域划分为多个区块,提取各区块上叠加光流Si的光流矢量,计算主方向上叠加光流Si+k与Si的模值差值,得到滑动窗口中当前检测帧Fi的各个区块光流特征值。
如图3所示,将预处理好的帧图片优选按照6×6的区块划分方式划分成36个相等大小的方形区块,如图2所示。在每一个区块上,做如下操作:计算光流Si的主方向。图4展示了方向角度的划分方式,找出Si的光流落在主方向区间内的点的位置。在这些点的位置,计算主方向上对应的光流Si+k与Si的模值差值。将这些差值按照降序排列,并计算排序后的前1/3个差值的平均值。将这个平均值做为代表该区块的特征值。
【S6】,根据各方形区块的光流特征值,计算滑动窗口中当前检测帧Fi图片的特征平均值di,沿视频时间轴方向依次得到视频中所有帧图片的特征平均值。
将36个区块的36个特征值按降序排列,计算前12个特征值的平均值,并记该平均值为di。将k值设置成视频帧率的0.4倍,按四舍五入的方式取整。在一般情况下,当微表情肌肉强度最强的帧越是靠近第i帧的时候,di值越大。
【S7】,沿视频时间轴方向移动滑动窗口,根据各帧图片的特征平均值di计算当前检测帧Fi的相对差值ri。
为了更好地比较光流模值特征的差异,按照如下公式将绝对差值di转换成相对差值ri。
ri=di-1/2(di-k+1+di+k-1),i=2k+1,2k+2,…,n-2k,n为该视频的总帧数。
计算这些ri的平均值(共计帧数为n-4k),记为rmean,计算公式如下:
这些ri中的最大值,记为rmax:
【S8】,根据所设定的阈值T,比较相对差值ri和阈值T,找出所有大于阈值T的相对差值ri所对应的帧图片序号i,并输出,得到属于微表情的帧图片。
设置一个阈值T,计算公式如下:
T=rmean+p×(rmax-rmean)。
其中,p∈[0,1]。将所有大于阈值T的ri值所对应的帧的序号i找出来,作为属于微表情的帧,送入检测方法的后处理阶段。
【S9】,将连续预测为微表情的帧图片序号合并起来,形成区间,将对应的持续时间大于0.2秒并且小于0.55秒的区间筛选出来,作为检测方法检测出的微表情区间。当然,这里还可以选取稍大于上述时间区间的其它时间区间。
实施例:
如图5所示,本发明还设计了一个物理系统去捕捉并检测微表情。包括高速相机、计算机及内嵌于计算机中的微表情检测方法。将高速相机连接到计算机上,被测试者(被试)坐在高速相机的镜头面前,高速相机录制被试的面部视频。在计算机中装入实现本发明微表情的检测方法,将录制的视频输入算法进行处理。经微表情检测算法处理之后,将预测的微表情区间输出到计算机上,获得产生微表情的视频时间区域。通过对所拍摄的被试视频,经计算机分别通过现有的MDMD微表情检测方法与本发明所采用的微表情检测方法进行处理,得到两种检测结果如表1所示。
表1原MDMD检测与本发明基于叠加光流的MDMD在CAS(ME)^2数据集上的检测结果。
方法 | 最大F1-score | 对应的参数p的值 |
MDMD | 0.027 | 0.19 |
基于叠加光流的MDMD(本发明) | 0.031 | 0.33 |
上表中列出了在CAS(ME)^2数据集上所做的两种检测方法的实验结果,一种是MDMD检测方法,一种是本发明提出的基于叠加光流的MDMD检测方法。通过对比表格中的数据可以看出,将稠密光流进行叠加以后,削弱光流中的噪声信息、加强光流中的运动信息,有效地提高了MDMD检测方法在CAS(ME)^2数据集上的微表情检测性能上限,具有增大微表情检测在对应的参数p值设置下的最大F1-score值的优点,本发明有效提高微表情检测性能上限,大大提高基于光流分析的微表情检测方法的性能上限。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明的保护范围之中。
Claims (6)
1.一种基于光流叠加的微表情检测方法,其特征在于,所述方法包括如下步骤:
步骤1,对视频样本图片进行预处理,得到视频中每帧图片的人脸定位区域;
步骤2,建立一个包含当前检测帧Fi、长度为2k的滑动窗口[Fi-k,Fi+k],在待检测视频中,沿时间轴方向按步长1帧移动,其中i=k+1,k+2,…,n-k,n为视频中总帧数;
步骤3,在滑动窗口中,计算帧Fi-k到帧Fi之间的稠密光流Oi、帧Fi-k到帧Fi-1之间的稠密光流Oi-1、帧Fi-k到帧Fi+k-1之间的稠密光流Oi+k-1及帧Fi-k到帧Fi+k之间的稠密光流Oi+k;
步骤4,将稠密光流Oi和Oi-1进行光流叠加后得到叠加光流Si,将稠密光流Oi+k-1和Oi+k进行光流叠加后得到叠加光流Si+k;
步骤5,将步骤1中每帧图片的人脸定位区域划分为多个区块,提取各区块上叠加光流Si的光流矢量,计算主方向上叠加光流Si+k与Si的模值差值,得到滑动窗口中当前检测帧Fi的各个区块光流特征值;
步骤6,根据当前检测帧Fi中各区块的光流特征值,计算特征平均值di;
步骤7,沿视频时间轴方向移动滑动窗口,根据各帧图片的特征平均值di计算当前检测帧Fi的相对差值ri;
步骤8,根据所设定的阈值T,比较相对差值ri和阈值T,找出所有大于阈值T的相对差值ri所对应的帧图片序号i,并输出,得到属于微表情的帧图片。
2.根据权利要求1所述的基于光流叠加的微表情检测方法,其特征在于,还包括微表情的筛选步骤9,将步骤8中所得到的连续预测为微表情的帧图片序号i合并起来形成微表情区间,再将持续时间0.2~0.55秒的区间筛选出来,作为检测出的微表情区间。
3.根据权利要求1所述的基于光流叠加的微表情检测方法,其特征在于,所述步骤1中对视频样本图片进行预处理的方法是:
步骤1.1,采用dlib检测器检测出视频样本中第一张图片中的人脸68个关键点,并找出68个关键点中的位于最左、最右、最上和最下的四个关键点;
步骤1.2,标记出第19个关键点和第37个关键点的垂直距离d;
步骤1.3,构建一个矩形框,使得矩形框的左边、右边和下边分别经过检测出的最左、最右和最下的人脸关键点,矩形框的上边位于所检测出的最上人脸关键点之上的d距离处;
步骤1.4,再次采用dlib检测器对构建的矩形框内部区域进行68个关键点检测,找出位于最下的人脸关键点并与第一次检测到的最下人脸关键点比较,找出两关键点中靠上的一个,并将其作为新构建矩形框的下边。
4.根据权利要求1所述的基于光流叠加的微表情检测方法,其特征在于,所述步骤5中,将每帧图片的人脸定位区域按照6×6的区块划分方式,划分成36个相等大小的方形区块。
5.根据权利要求4所述的基于光流叠加的微表情检测方法,其特征在于,所述步骤5中,提取各方形区块上叠加光流Si的光流矢量,计算主方向上叠加光流Si+k与Si的模值差值后,并将各方形区块上的所得到的模值差值按照降序排列,计算排序后的前1/3个差值的平均值,即得到当前检测帧Fi中各方形区块的光流特征值。
6.根据权利要求5所述的基于光流叠加的微表情检测方法,其特征在于,所述步骤6中,将所有方形区块的光流特征值按降序排列,取前12个方形区块的光流特征值,并取平均值后得到当前检测帧Fi的特征平均值di。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010445486.5A CN111626179B (zh) | 2020-05-24 | 2020-05-24 | 一种基于光流叠加的微表情检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010445486.5A CN111626179B (zh) | 2020-05-24 | 2020-05-24 | 一种基于光流叠加的微表情检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111626179A true CN111626179A (zh) | 2020-09-04 |
CN111626179B CN111626179B (zh) | 2023-04-28 |
Family
ID=72272322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010445486.5A Active CN111626179B (zh) | 2020-05-24 | 2020-05-24 | 一种基于光流叠加的微表情检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626179B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183419A (zh) * | 2020-10-09 | 2021-01-05 | 福州大学 | 一种基于光流生成网络和重排序的微表情分类方法 |
CN113408355A (zh) * | 2021-05-20 | 2021-09-17 | 南昌大学 | 一种基于三支决策和光流过滤机制的微表情压缩方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130300900A1 (en) * | 2012-05-08 | 2013-11-14 | Tomas Pfister | Automated Recognition Algorithm For Detecting Facial Expressions |
CN104933416A (zh) * | 2015-06-26 | 2015-09-23 | 复旦大学 | 基于光流场的微表情序列特征提取方法 |
CN107358206A (zh) * | 2017-07-13 | 2017-11-17 | 山东大学 | 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法 |
CN107403142A (zh) * | 2017-07-05 | 2017-11-28 | 山东中磁视讯股份有限公司 | 一种微表情的检测方法 |
CN109635712A (zh) * | 2018-12-07 | 2019-04-16 | 杭州电子科技大学 | 基于同构网络的自发微表情种类判别方法 |
CN109684996A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 基于视频的实时车辆进出识别方法 |
CN110175596A (zh) * | 2019-06-04 | 2019-08-27 | 重庆邮电大学 | 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法 |
CN110191320A (zh) * | 2019-05-29 | 2019-08-30 | 合肥学院 | 基于像素时序运动分析的视频抖动与冻结检测方法及装置 |
CN110287805A (zh) * | 2019-05-31 | 2019-09-27 | 东南大学 | 基于三流卷积神经网络的微表情识别方法及系统 |
CN110991348A (zh) * | 2019-12-05 | 2020-04-10 | 河北工业大学 | 基于光流梯度幅值特征的人脸微表情检测方法 |
-
2020
- 2020-05-24 CN CN202010445486.5A patent/CN111626179B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130300900A1 (en) * | 2012-05-08 | 2013-11-14 | Tomas Pfister | Automated Recognition Algorithm For Detecting Facial Expressions |
CN104933416A (zh) * | 2015-06-26 | 2015-09-23 | 复旦大学 | 基于光流场的微表情序列特征提取方法 |
CN107403142A (zh) * | 2017-07-05 | 2017-11-28 | 山东中磁视讯股份有限公司 | 一种微表情的检测方法 |
CN107358206A (zh) * | 2017-07-13 | 2017-11-17 | 山东大学 | 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法 |
CN109635712A (zh) * | 2018-12-07 | 2019-04-16 | 杭州电子科技大学 | 基于同构网络的自发微表情种类判别方法 |
CN109684996A (zh) * | 2018-12-22 | 2019-04-26 | 北京工业大学 | 基于视频的实时车辆进出识别方法 |
CN110191320A (zh) * | 2019-05-29 | 2019-08-30 | 合肥学院 | 基于像素时序运动分析的视频抖动与冻结检测方法及装置 |
CN110287805A (zh) * | 2019-05-31 | 2019-09-27 | 东南大学 | 基于三流卷积神经网络的微表情识别方法及系统 |
CN110175596A (zh) * | 2019-06-04 | 2019-08-27 | 重庆邮电大学 | 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法 |
CN110991348A (zh) * | 2019-12-05 | 2020-04-10 | 河北工业大学 | 基于光流梯度幅值特征的人脸微表情检测方法 |
Non-Patent Citations (3)
Title |
---|
SERGIU COSMIN NISTOR等: "Micro-Expressions Detection Based on Micro-Motions Dense Optical Flows" * |
张轩阁: "基于动态序列的微表情识别" * |
马浩原等: "平均光流方向直方图描述的微表情识别" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183419A (zh) * | 2020-10-09 | 2021-01-05 | 福州大学 | 一种基于光流生成网络和重排序的微表情分类方法 |
CN112183419B (zh) * | 2020-10-09 | 2022-06-10 | 福州大学 | 一种基于光流生成网络和重排序的微表情分类方法 |
CN113408355A (zh) * | 2021-05-20 | 2021-09-17 | 南昌大学 | 一种基于三支决策和光流过滤机制的微表情压缩方法 |
CN113408355B (zh) * | 2021-05-20 | 2022-04-12 | 南昌大学 | 一种基于三支决策和光流过滤机制的微表情压缩方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111626179B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4273359B2 (ja) | 年齢推定システム及び年齢推定方法 | |
KR100682906B1 (ko) | 부스트 알고리즘을 이용한 영상의 얼굴 검출 장치 및 방법 | |
JP5766564B2 (ja) | 顔認証装置及び顔認証方法 | |
US8233676B2 (en) | Real-time body segmentation system | |
CN110648322B (zh) | 一种子宫颈异常细胞检测方法及系统 | |
US7783106B2 (en) | Video segmentation combining similarity analysis and classification | |
CN107491749B (zh) | 一种人群场景中全局和局部异常行为检测方法 | |
CN102163281B (zh) | 基于AdaBoost框架和头部颜色的实时人体检测方法 | |
US20110007975A1 (en) | Image Display Apparatus and Image Display Method | |
US9262672B2 (en) | Pattern recognition apparatus and pattern recognition method that reduce effects on recognition accuracy, and storage medium | |
CN111626179A (zh) | 一种基于光流叠加的微表情检测方法 | |
US20080253617A1 (en) | Method and Apparatus for Determining the Shot Type of an Image | |
CN108600865A (zh) | 一种基于超像素分割的视频摘要生成方法 | |
CN106611160A (zh) | 一种基于卷积神经网络的图像头发识别方法及其装置 | |
CN107527356B (zh) | 一种基于懒交互方式的视频跟踪方法 | |
EP3767582A1 (en) | Inspection system, discrimination system, and learning data generator | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
CN108010044A (zh) | 一种视频边界检测的方法 | |
CN102495887B (zh) | 一种基于关键区域色彩矩阵的视频镜头分割方法及其应用方法 | |
CN112258403A (zh) | 一种在动态烟雾中提取疑似烟雾区域的方法 | |
US7623694B2 (en) | Method and apparatus for classifying detection inputs in medical images | |
CN109344758B (zh) | 基于改进局部二值模式的人脸识别方法 | |
Fourney et al. | Constructing face image logs that are both complete and concise | |
JP2010277431A (ja) | 対象物検出装置 | |
CN110189365B (zh) | 抗遮挡相关滤波跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |