CN107909020A - 一种基于滤波器设计的光流向量微表情发生阶段检测方法 - Google Patents
一种基于滤波器设计的光流向量微表情发生阶段检测方法 Download PDFInfo
- Publication number
- CN107909020A CN107909020A CN201711096599.3A CN201711096599A CN107909020A CN 107909020 A CN107909020 A CN 107909020A CN 201711096599 A CN201711096599 A CN 201711096599A CN 107909020 A CN107909020 A CN 107909020A
- Authority
- CN
- China
- Prior art keywords
- micro
- expression
- frame
- light stream
- wave filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于滤波器设计的光流向量微表情发生阶段检测方法,包括如下步骤:(1)光流运动特征中心化和归一化;(2)采用信号衰减法进行定位;(3)微表情自动检测和识别。本发明的有益效果为:针对性地采用和微表情发生时肌肉运动相关的人脸关键点区域,既能高效地提取有用的运动特征,也能排除掉一些和微表情发生无关的冗余信息;对光流运动特征进行去中心化和归一化,能有效地减弱拍摄对象与镜头远近以及不同人脸形状带来的影响,消除因头部整体运动带来的误差;参照滤波器设计指标的起始帧和终止帧定位,为微表情检测统一了标准,并且能应用于不同的数据库;检测系统可以实际可视化整个检测过程,简单明了易操作。
Description
技术领域
本发明涉及微表情检测方法技术领域,尤其是一种基于滤波器设计的光流向量微表情发生阶段检测方法。
背景技术
微表情可以用在情感分析中,因为其透露了个人的真实情绪。但是不像面部表情,微表情是微弱的、短暂的、不系统的,并且只出现在面部局部区域,所以微表情分析比表情分析更具挑战性。在计算机视觉中,大部分微表情相关工作集中在识别上,比如识别贴上标签的分割好的从起始帧到终止帧的包含微表情的视频段。然而微表情自动识别的前提是机器能够自动定位出微表情的发生阶段,从而进行下一步的识别。在现实生活场景中,由于时间短暂和强度微弱,人们不容易分辨出微表情。人为判别的不准确性和耗时使计算机微表情自动检测成为热门研究方向。这样的检测技术可以应用在监视,人机交互和机器人互动系统中。
目前而言,微表情检测研究很少,针对自然诱发的微表情数据检测工作更是少之又少,市场上还没有能够自动检测微表情发生阶段的产品或机器。现有的一些研究中,有人是提取小波特征,然后用GentleSVM去定位刻意做出的微表情;有人开发了一种3D梯度算子和K均值聚类的方法来分类刻意做的微表情的起始帧、峰值帧、终止帧;有人用局部二值模式(LBP)的卡方距离通过设定阈值定位自然诱发的微表情。但大部分工作都是采人工设置阈值的方式定位,针对不同数据库需要调节不同的参数,导致检测不能完全自动化,鲁棒的特征算子和统一的定位方法是目前需要的。
发明内容
本发明所要解决的技术问题在于,提供一种基于滤波器设计的光流向量微表情发生阶段检测方法,能够解决微表情发生阶段定位模式无法统一的问题。
为解决上述技术问题,本发明提供一种基于滤波器设计的光流向量微表情发生阶段检测方法,包括如下步骤:
(1)光流运动特征中心化和归一化;定位序列中第一帧人脸关键点,视频序列中其他人脸关键点通过光流法更新;在面部关键点周围建立小的感兴趣区域ROIs,这些区域的平均光流作为当前帧的运动特征,每个关键点周围的光流矢量用FACS系统分组,检测活跃的微表情运动单元AU,这是空间合成;由向量按时间逐帧相加得到时间合成;
(2)采用信号衰减法进行定位;根据步骤(1)的时空合成光流运动特征的幅值变化,确定对应的微表情峰值帧;
(3)微表情自动检测和识别;模拟人脸神态变化场景,根据步骤(2)的结果搭建微表情自动检测识别系统,自动检测包含微表情片段的较长视频中微表情发生的峰值帧、起始帧和终止帧。
优选的,步骤(1)中,在光流运动向量时空合成前加入运动向量的去中心化和归一化;去中心化选取面部与微表情发生不相关的某一相对固定点作为参考点坐标,其它点的运行偏移要减去参考点的偏移;归一化选取面部与微表情发生不相关的一段距离,其它点的运行偏移除以此距离值。
优选的,步骤(1)中,光流运动特征中心化和归一化具体为:a、初始化组合运动向量作为第一帧的运动向量;b、计算每个关键点向量赋值;c、计算每个AU分组的关键点平均赋值;d、通过加上下一帧的运动向量更新组合运动向量;e、重复步骤b-e直至结束。
优选的,步骤(2)中,确定对应的微表情峰值帧中,滤波器通带截止频率在fL和fH之间,截止频率定义在最大幅值衰减3dB处,将终止帧设定为最大幅值向后衰减3dB处,将起始帧设定为低通滤波器阻带截止频率。
优选的,步骤(3)中,系统基于微软Visual Studio的MFC开发,在系统界面上可视化显示检测结果。
本发明的有益效果为:(1)针对性地采用和微表情发生时肌肉运动相关的人脸关键点区域,既能高效地提取有用的运动特征,也能排除掉一些和微表情发生无关的冗余信息;(2)对光流运动特征进行去中心化和归一化,能有效地减弱拍摄对象与镜头远近以及不同人脸形状带来的影响,消除因头部整体运动带来的误差;(3)参照滤波器设计指标的起始帧和终止帧定位,为微表情检测统一了标准,并且能应用于不同的数据库;(4)检测系统可以实际可视化整个检测过程,简单明了易操作。
附图说明
图1为本发明的方法流程示意图。
图2为本发明的人脸关键点分组示意图。
图3为本发明的SMIC数据库中一个包含惊讶视频段样本的示意图。
图4为本发明的去中心化和归一化示意图。
图5为本发明的理想低通滤波器设计指标示意图。
图6为本发明的微表情自动检测和识别系统的功能示意图。
图7为本发明的检测结果显示示意图。
图8为本发明的SMIC-HS数据库的检测结果示意图。
图9为本发明的CASME II数据库的检测结果示意图。
具体实施方式
如图1所示,一种基于滤波器设计的光流向量微表情发生阶段检测方法,包括如下步骤:
(1)光流运动特征中心化和归一化;首先定位序列中第一帧人脸关键点,视频序列中其它人脸关键点通过光流法来更新以达到跟踪目的。在面部关键点周围的建立小的感兴趣区域(ROIs),这些区域的平均光流作为当前帧的运动特征,ROIs建立的目的就是平衡关键点检测算法的不准确性。每个关键点周围的光流矢量可以用FACS系统分组,这样就可以检测活跃的微表情运动单元(AU),这些活跃的运动单元和最大的运动幅度具有一致性,这是空间合成,再由向量按时间逐帧相加得到时间合成。本特征在于在上述光流运动向量时空合成前加入运动向量的去中心化和归一化,降低头部移动等影响。
(2)采用信号衰减法进行定位;根据上一步经过去中心化和归一化后的时空合成光流运动特征的幅值变化可以确定对应的微表情峰值帧。受信号处理中滤波器设计启发,结合光流法运动向量实测轨迹,滤波器设计中通带在截止频率fL和fH之间,截止频率定义在最大幅值衰减3dB处,将终止帧设定为最大幅值向后衰减3dB处,将起始帧设定为低通滤波器阻带截止频率。
(3)微表情自动检测和识别;模拟人脸神态变化场景,根据步骤(2)的结果搭建微表情自动检测识别系统,自动检测包含微表情片段的较长视频中微表情发生的峰值帧、起始帧和终止帧。
对提取到的光流运动特征时空合成前加上去中心化和归一化操作,以降低噪声影响。去中心化就是选取面部与微表情发生不相关的某一相对固定不动点作为参考点坐标,其它点的运行偏移要减去参考点的偏移一消除头部整体运动带来的影响;归一化就是选取面部与微表情发生不相关的一段距离,其它点的运行偏移除以此距离值,以达到消除面部与摄像头距离不一产生的关键点运动偏差和人脸大小不一打来的偏差。
基于光流向量时空合成的微表情检测方法使用运动特征和方向连续来检测自然诱发的微表情发生阶段,该方法主要包括运动特征提取,时空合成与检测,峰值帧检测,起始帧与终止帧计算等过程:(1)初始化组合运动向量作为第一帧的运动向量,(2)计算每个关键点向量赋值,(3)计算每个AU分组的关键点平均幅值,(4)通过加上下一帧的运动向量更新组合运动向量,(5)回到步骤(2)直至结束。图2显示了使用哪些和微表情相关的人脸关键点,并将这些点进行分组,每个分组的光流运动矢量的平均幅值为基本单元,选取平均幅值最大的分组的运动轨迹作为下一步定位的目标。图3展示了一个微表情实例,包括检测的关键点周围小框区域的选取,人工标记的各个发生阶段。
一般微表情发生阶段定位的方法最后采用人工设定阈值去除诸如头部偏移等姿态影响,不能实现完全自动的计算机微表情发生阶段检测;另外上述方法针对不同库人工设定了许多设定,对其它数据库没有推广性和普适性。基于此,提出去中心化和归一化的前期运动向量处理方法来减少头部姿态,头部晃动等影响。
选取面部固定点,如鼻尖关键点,选取固定距离,如鼻梁顶部关键点到鼻尖关键点的距离作为归一化距离。其它处关键点的绝对运动向量值减去固定点的运动偏移值,在除以当帧的固定距离,这样得到的数值作为实际使用的运动向量。中心点选取和归一化距离选取如图4所示。
设原视频图片序列第i帧j关键点的坐标为第i+1帧该关键点的坐标为则原第i帧到第i+1帧j点的光流运动向量x方向计算为:
计算y方向同理。去中心化和归一化第i帧到第i+1帧j点的光流运动向量x方向计算为:
其中为选取的第i+1帧的中心点,队友图4的红色鼻尖点。norm_dist为选取的归一化距离,对应与图4蓝色线段。
一般检测方法采用人工设定阈值的方法弱化头部运动的影响,增加眨眼检测去除眼睑部位影响,比如针对SMIC-VIS-E数据库人为选择检测范围和判定依据。
针对以前微表情检测方法需要调节众多参数,并且只针对与SMIC数据库,一种完全自动的,具有推广性的微表情检测方法成为迫切需求。如图7所示,受信号处理中滤波器设计启发,结合光流法运动向量实测轨迹,本章提出基于滤波器设计指标的微表情起始帧和终止帧的自动检测方法。
图5为一般带通滤波器设计指标示意图,通带在截止频率fL和fH之间,截止频率定义在最大幅值衰减3dB处。根据图7光流运动矢量实际轨迹图和微表情起始终止专家定义,将终止帧设定为最大幅值向后衰减3dB处,将起始帧设定为低通滤波器阻带截止频率(图5ωc处)。
由于微表情强度低、持续时间短、变化难以捕捉等因素,识别率一直难以有较大提升,并且计算耗时,市场上还没有出现相关的微表情识别产品。一个鲁棒的微表情自动识别系统对于刑事审讯、医疗监测、政商谈判等都有重大的意义。本文模拟审讯观测嫌疑人神态变化场景,在前面章节的基础上搭建一个微表情自动检测到识别,可视化的的计算机软件系统。
下面为对应图6的系统界面及功能介绍:
①标注位置为图像显示区域;
②标注位置表情识别模块,由于本文未涉及表情识别,故不做介绍;
③标注位置为微表情检测识别及可视化集成模块;
④标注位置为微表情发生阶段检测按钮。按下此按钮,首先检测视频第一帧人脸关键点,后续帧利用光流法跟踪关键点并且记录运动向量,最后由上述的方法计算检测信息并显示,图7所示;
⑤标注位置为系统进行微表情识别按钮,由于本专利未涉及表情识别,故不做详细介绍;
⑥标注位置为微表情可视化功能模块由于本专利未涉及表情识别,故不做详细介绍;
⑦文本信息显示区域。
SMIC-HS-E检测结果如图8所示,CASMEⅡ如图9所示。SMIC-HS-E为100帧每秒录制,CASMEⅡ为200帧每秒录制,SMIC-HS-E检测结果与人工标定相差5帧以内(包含5帧)视为达标,CASMEⅡ检测结果与人工标定相差10帧以内(包含10帧)视为达标。由SMIC-HS-E数据库检测均值可以看出,起始帧总体较人工标定靠前,终止帧总体较人工标定靠后,从方差看检测结果波动较大,可能由眨眼情况较多引起。CASMEⅡ数据库分析同理。
尽管本发明就优选实施方式进行了示意和描述,但本领域的技术人员应当理解,只要不超出本发明的权利要求所限定的范围,可以对本发明进行各种变化和修改。
Claims (5)
1.一种基于滤波器设计的光流向量微表情发生阶段检测方法,其特征在于,包括如下步骤:
(1)光流运动特征中心化和归一化;定位序列中第一帧人脸关键点,视频序列中其他人脸关键点通过光流法更新;在面部关键点周围建立小的感兴趣区域ROIs,这些区域的平均光流作为当前帧的运动特征,每个关键点周围的光流矢量用FACS系统分组,检测活跃的微表情运动单元AU,这是空间合成;由向量按时间逐帧相加得到时间合成;
(2)采用信号衰减法进行定位;根据步骤(1)的时空合成光流运动特征的幅值变化,确定对应的微表情峰值帧;
(3)微表情自动检测和识别;模拟人脸神态变化场景,根据步骤(2)的结果搭建微表情自动检测识别系统,自动检测包含微表情片段的较长视频中微表情发生的峰值帧、起始帧和终止帧。
2.如权利要求1所述的基于滤波器设计的光流向量微表情发生阶段检测方法,其特征在于,步骤(1)中,在光流运动向量时空合成前加入运动向量的去中心化和归一化;去中心化选取面部与微表情发生不相关的某一相对固定点作为参考点坐标,其它点的运行偏移要减去参考点的偏移;归一化选取面部与微表情发生不相关的一段距离,其它点的运行偏移除以此距离值。
3.如权利要求1所述的基于滤波器设计的光流向量微表情发生阶段检测方法,其特征在于,步骤(1)中,光流运动特征中心化和归一化具体为:a、初始化组合运动向量作为第一帧的运动向量;b、计算每个关键点向量赋值;c、计算每个AU分组的关键点平均赋值;d、通过加上下一帧的运动向量更新组合运动向量;e、重复步骤b-e直至结束。
4.如权利要求1所述的基于滤波器设计的光流向量微表情发生阶段检测方法,其特征在于,步骤(2)中,确定对应的微表情峰值帧中,滤波器通带截止频率在fL和fH之间,截止频率定义在最大幅值衰减3dB处,将终止帧设定为最大幅值向后衰减3dB处,将起始帧设定为低通滤波器阻带截止频率。
5.如权利要求1所述的基于滤波器设计的光流向量微表情发生阶段检测方法,其特征在于,步骤(3)中,系统基于微软Visual Studio的MFC开发,在系统界面上可视化显示检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711096599.3A CN107909020A (zh) | 2017-11-09 | 2017-11-09 | 一种基于滤波器设计的光流向量微表情发生阶段检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711096599.3A CN107909020A (zh) | 2017-11-09 | 2017-11-09 | 一种基于滤波器设计的光流向量微表情发生阶段检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107909020A true CN107909020A (zh) | 2018-04-13 |
Family
ID=61844477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711096599.3A Pending CN107909020A (zh) | 2017-11-09 | 2017-11-09 | 一种基于滤波器设计的光流向量微表情发生阶段检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107909020A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119715A (zh) * | 2019-05-14 | 2019-08-13 | 东北师范大学 | 一种陪伴机器人及情绪识别方法 |
CN110287805A (zh) * | 2019-05-31 | 2019-09-27 | 东南大学 | 基于三流卷积神经网络的微表情识别方法及系统 |
CN110427881A (zh) * | 2019-08-01 | 2019-11-08 | 东南大学 | 基于人脸局部区域特征学习的跨数据库微表情识别方法及装置 |
CN111461021A (zh) * | 2020-04-01 | 2020-07-28 | 中国科学院心理研究所 | 一种基于光流的微表情检测方法 |
CN112950672A (zh) * | 2021-03-03 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 确定关键点的位置的方法、装置和电子设备 |
CN113095183A (zh) * | 2021-03-31 | 2021-07-09 | 西北工业大学 | 一种基于深度神经网络的微表情检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103514441A (zh) * | 2013-09-21 | 2014-01-15 | 南京信息工程大学 | 基于移动平台的人脸特征点定位跟踪方法 |
CN104008391A (zh) * | 2014-04-30 | 2014-08-27 | 首都医科大学 | 一种基于非线性降维的人脸微表情捕捉及识别方法 |
US9036018B2 (en) * | 2010-06-17 | 2015-05-19 | Institute For Information Industry | Facial expression recognition systems and methods and computer program products thereof |
CN105139039A (zh) * | 2015-09-29 | 2015-12-09 | 河北工业大学 | 视频序列中人脸微表情的识别方法 |
US9269012B2 (en) * | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN107292289A (zh) * | 2017-07-17 | 2017-10-24 | 东北大学 | 基于视频时间序列的人脸表情识别方法 |
CN107292218A (zh) * | 2016-04-01 | 2017-10-24 | 中兴通讯股份有限公司 | 一种表情识别方法及装置 |
-
2017
- 2017-11-09 CN CN201711096599.3A patent/CN107909020A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9036018B2 (en) * | 2010-06-17 | 2015-05-19 | Institute For Information Industry | Facial expression recognition systems and methods and computer program products thereof |
US9269012B2 (en) * | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN103514441A (zh) * | 2013-09-21 | 2014-01-15 | 南京信息工程大学 | 基于移动平台的人脸特征点定位跟踪方法 |
CN104008391A (zh) * | 2014-04-30 | 2014-08-27 | 首都医科大学 | 一种基于非线性降维的人脸微表情捕捉及识别方法 |
CN105139039A (zh) * | 2015-09-29 | 2015-12-09 | 河北工业大学 | 视频序列中人脸微表情的识别方法 |
CN107292218A (zh) * | 2016-04-01 | 2017-10-24 | 中兴通讯股份有限公司 | 一种表情识别方法及装置 |
CN107292289A (zh) * | 2017-07-17 | 2017-10-24 | 东北大学 | 基于视频时间序列的人脸表情识别方法 |
Non-Patent Citations (4)
Title |
---|
CHUANGAO TANG ET AL;: "《View-Independent Facial Action Unit Detection》", 《2017 IEEE 12TH INTERNATIONAL CONFERENCE ON AUTOMATIC FACE & GESTURE RECOGNITION》 * |
DEVANGINI PATEL ET AL;: "《Spatiotemporal Integration of Optical Flow Vectors for Micro-expression Detection》", 《16TH INTERNATIONAL CONFERENCE, ACIVS 2015》 * |
李强: "《基于滤波器设计的光流法微表情发生阶段检测》", 《科技展望》 * |
杜杏菁 等;: "《微表情识别技术分析》", 《计算机与数字工程》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119715A (zh) * | 2019-05-14 | 2019-08-13 | 东北师范大学 | 一种陪伴机器人及情绪识别方法 |
CN110119715B (zh) * | 2019-05-14 | 2023-04-18 | 东北师范大学 | 一种陪伴机器人及情绪识别方法 |
CN110287805A (zh) * | 2019-05-31 | 2019-09-27 | 东南大学 | 基于三流卷积神经网络的微表情识别方法及系统 |
CN110287805B (zh) * | 2019-05-31 | 2021-02-09 | 东南大学 | 基于三流卷积神经网络的微表情识别方法及系统 |
CN110427881A (zh) * | 2019-08-01 | 2019-11-08 | 东南大学 | 基于人脸局部区域特征学习的跨数据库微表情识别方法及装置 |
CN110427881B (zh) * | 2019-08-01 | 2021-11-26 | 东南大学 | 基于人脸局部区域特征学习的跨库微表情识别方法及装置 |
CN111461021A (zh) * | 2020-04-01 | 2020-07-28 | 中国科学院心理研究所 | 一种基于光流的微表情检测方法 |
CN112950672A (zh) * | 2021-03-03 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 确定关键点的位置的方法、装置和电子设备 |
CN112950672B (zh) * | 2021-03-03 | 2023-09-19 | 百度在线网络技术(北京)有限公司 | 确定关键点的位置的方法、装置和电子设备 |
CN113095183A (zh) * | 2021-03-31 | 2021-07-09 | 西北工业大学 | 一种基于深度神经网络的微表情检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107909020A (zh) | 一种基于滤波器设计的光流向量微表情发生阶段检测方法 | |
CN105809144B (zh) | 一种采用动作切分的手势识别系统和方法 | |
CN108764071B (zh) | 一种基于红外和可见光图像的真实人脸检测方法及装置 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN109472198B (zh) | 一种姿态鲁棒的视频笑脸识别方法 | |
Gall et al. | Functional categorization of objects using real-time markerless motion capture | |
CN112418095A (zh) | 一种结合注意力机制的面部表情识别方法及系统 | |
Elmezain et al. | A robust method for hand gesture segmentation and recognition using forward spotting scheme in conditional random fields | |
CN111797653A (zh) | 基于高维图像的图像标注方法和装置 | |
Atharifard et al. | Robust component-based face detection using color feature | |
CN108537143B (zh) | 一种基于重点区域特征比对的人脸识别方法与系统 | |
CN109325408A (zh) | 一种手势判断方法及存储介质 | |
Zhang et al. | Multimodal spatiotemporal networks for sign language recognition | |
CN110046544A (zh) | 基于卷积神经网络的数字手势识别方法 | |
CN110232331A (zh) | 一种在线人脸聚类的方法及系统 | |
CN111079465A (zh) | 一种基于三维成像分析的情绪状态综合判定方法 | |
CN113537050A (zh) | 一种基于局部图像增强的动态人脸识别算法 | |
Tathe et al. | Real-time human detection and tracking | |
CN116665313A (zh) | 一种基于深度学习的眼动活体检测方法和系统 | |
JPH1115979A (ja) | 顔検出及び顔追跡方法並びにその装置 | |
CN110929680A (zh) | 一种基于特征融合的人脸活体检测方法 | |
Gürel | Development of a face recognition system | |
Lämsä et al. | Video2IMU: Realistic IMU features and signals from videos | |
Mehrübeoglu et al. | Real-time iris tracking with a smart camera | |
Chuang et al. | Moving object segmentation and tracking using active contour and color classification models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180413 |
|
RJ01 | Rejection of invention patent application after publication |