CN112560812A - 基于融合深度特征的微表情识别方法 - Google Patents

基于融合深度特征的微表情识别方法 Download PDF

Info

Publication number
CN112560812A
CN112560812A CN202110188625.5A CN202110188625A CN112560812A CN 112560812 A CN112560812 A CN 112560812A CN 202110188625 A CN202110188625 A CN 202110188625A CN 112560812 A CN112560812 A CN 112560812A
Authority
CN
China
Prior art keywords
micro
expression
sequence
features
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110188625.5A
Other languages
English (en)
Inventor
陶建华
佘文祥
刘斌
连政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202110188625.5A priority Critical patent/CN112560812A/zh
Publication of CN112560812A publication Critical patent/CN112560812A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及基于融合深度特征的微表情识别方法,包括:输入微表情视频文件,得到仅包含人脸的微表情帧序列;对微表情序列归一化和灰度化,得到微表情预处理序列;掩盖微表情预处理序列中不活跃的区域,得到微表情活跃帧序列;使用光流法对微表情活跃帧序列的相邻帧提取光流,得到光流序列;构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型,将所述微表情活跃帧序列特征和光流序列特征融合得到用于识别微表情的特征;将微表情活跃帧序列以及光流序列作为深度神经网络模型的输入,对深度神经网络模型进行学习优化;将待测试的视频文件经过上述步骤后,送入学习优化后的深度神经网络模型提取特征进行微表情识别。

Description

基于融合深度特征的微表情识别方法
技术领域
本申请涉及图像识别处理领域,尤其涉及基于融合深度特征的微表情识别方法。
背景技术
面部表情是人们在交流过程中信息传递的主要方式之一。相对于宏表情,微表情持续时间短,面部肌肉变化幅度小,其往往是在高压环境下试图隐藏自己情感而无意识流露出来的真实情感。因此微表情具有很大的应用价值,比如警方审讯、医疗辅助、国防安全等领域,但是即使经过专业训练的人员,也无法达到很好的识别效果,相关文献表明只有47%的准确率。随着计算机技术的发展,利用计算机对微表情进行识别的优势得以体现,理论上,无论变化多迅速只要能被摄像机捕获,就能存储下来不断分析,此外,只要得到稳定的微表情识别模型,就能大大的降低人工成本。
现有的微表情识别技术有传统手工特征和深度学习两种,传统手工特征包括LBP-TOP、MDMO等,这些方法需要依靠个人经验设计特征提取算子,且得到是浅层特征,使得结果往往不是最优的。随着深度学习在宏表情上取得了成功,神经网络也被引用到微表情识别中,因此本专利结合神经网络对微表情进行识别。
申请公布号CN 111652159 A开公开了基于多层次特征联合的微表情识别方法及系统,包括:获取待识别的微表情视频,从待识别的微表情视频中提取起始帧和峰值帧;对起始帧和峰值帧分别提取面部区域图像;基于起始帧和峰值帧各自对应的面部区域图像,利用光流法提取峰值帧相对起始帧的光流分量;将峰值帧相对起始帧的光流分量,输入到预先训练好的多层次特征联合网络中,依次进行多层次特征提取和多层次特征融合,最后输出当前关联所对应的微表情分类结果。
申请公布号CN 111738160 A公开了视频微表情识别方法、装置、计算机设备及存储介质,涉及人工智能的生物识别,包括获取用户视频数据中包含微表情的图像帧;在包含微表情的图像帧中获取与经验帧数值相等张数的连续多帧图像,以组成微表情序列;调用权重计算层计算微表情序列中每一帧图像的结合权重值的图像特征向量;将每一帧图像的结合权重值的图像特征向量进行求和,得到对应的综合图像特征向量;将其输入至卷积神经网络得到微表情识别结果;调用事项处理微表情策略,获取对应的事项处理流程信息。实现了采用神经网络在进行微表情分类时充分考虑到微表情在多个连续图像帧之间的时序关系,学习到微表情在图像视频序列中的时域信息,从而更准确获取微表情识别结果。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本申请提供了一种基于融合深度特征的微表情识别方法,包括:
S1:输入微表情视频文件,得到仅包含人脸的微表情帧序列;
S2:对所述微表情帧序列归一化和灰度化,得到微表情预处理序列;
S3:掩盖微表情预处理序列中不活跃的区域,得到微表情活跃帧序列;
S4:使用光流法对微表情活跃帧序列的相邻帧提取光流,得到光流序列;
S5:构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型,将所述微表情活跃帧序列特征和光流序列特征融合得到用于识别微表情的特征;将微表情活跃帧序列以及光流序列作为深度神经网络模型的输入,对深度神经网络模型进行学习优化,得到学习优化后的深度神经网络模型;
S6:将待测试的视频文件经过步骤S1、S2、S3和S4后,送入所述学习优化后的深度神经网络模型提取特征进行微表情识别。
优选地,所述得到仅包含人脸的微表情帧序列的具体方法包括:
S11:利用opencv对微表情视频文件分帧处理,得到微表情帧序列;
S12:利用开源包dlib对微表情帧序列中人脸识别定位,裁剪出人脸。
优选地,所述对微表情帧序列归一化和灰度化的具体方法包括:
S21:对微表情帧序列帧长以及序列中帧的大小归一化,使得微表情帧序列帧长以及序列中帧的大小一致;
S22:对归一化后的微表情帧序列进行灰度化。
优选地,所述得到微表情活跃帧序列的具体方法为,对微表情预处理序列中的每一帧进行分块处理,选取微表情活跃区域所对应的块,排除不活跃区域。
优选地,构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型为双流网络,具体结构为:
S51:微表情活跃帧序列流、光流序列流、融合层、全连接层和softmax层;所述微表情活跃帧序列流和所述光流序列流分别与所述融合层连接,所述融合层与所述全连接层连接,所述全连接层与所述softmax层连接;
对深度神经网络模型进行学习优化的具体方法为:
S52:将预先标注好的微表情活跃帧序列集合和光流序列集合作为训练集送入构建好的双流网路中,对所述双流网路进行迭代更新,得到学习优化后的深度神经网络模型。
优选地,所述微表情活跃帧序列流和所述光流序列流结构相同,包括:三维卷积层、激活层、池化层和注意力层;所述三维卷积层与所述激活层连接,所述激活层与所述池化层连接,所述池化层与所述注意力层连接。
优选地,所述激活层采用ReLU函数:
Figure 921534DEST_PATH_IMAGE001
所述融合层有两个输入,设微表情活跃帧序列特征为w,光流序列特征为v,则融合层的输出A为:
A=w+v
优选地,提取微表情活跃帧序列特征和光流序列特征的具体方法包括:
S511:以光流序列和微表情序列作为输入,然后依次重复通过三维卷积神、最大池化层、激活层2次,得到微表情活跃帧序列的深度特征和光流序列的深度特征;
S512:得到微表情活跃帧序列的深度特征和光流序列的深度特征分别送入注意力模块,得到微表情活跃帧序列的注意力特征和光流序列的注意力特征;所述微表情活跃帧序列的注意力特征即为微表情活跃帧序列特征,所述光流序列的注意力特征即为光流序列特征;
得到用于识别微表情的特征的具体方法包括:
S513:将所述微表情活跃帧序列特征和所述光流序列特征通过所述融合层得到融合特征,并依次通过两层全连接层和softmax层。
优选地,所述步骤S52还包括以下步骤:
S521:将预先标注好的微表情活跃帧序列集合和光流序列集合按照4:1分成测试集和训练集;
S522:利用训练集对深度神经网络模型进行训练,优化深度神经网络模型参数直至收敛,得到微表情识别模型。
优选地,对深度神经网络模型进行训练时采用的损失函数为交叉熵损失函数:
Figure 702162DEST_PATH_IMAGE002
其中
Figure DEST_PATH_IMAGE003
是一个概率分布,每个元素p i 表示样本属于第i类的概率;
Figure 474946DEST_PATH_IMAGE004
是样本标签的onehot表示,当样本属于第类别iy i =1,否则y i =0;c是样本标签。
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:
本申请实施例提供的该方法,对微表情面部序列及光流序列提取深度特征后,对深度特征的时间维度加以注意力机制,考虑时间维度之间的全局关联信息,最后融合两个网络分支的输出得到融合特征,更好的提升微表情识别鲁棒性及识别结果。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于融合深度特征的微表情识别方法流程图。
图2是根据一示例性实施例示出的微表情面部分块及活跃区域选择示意图;
图3是根据一示例性实施例示出的能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型结构框图;
图4是根据一示例性实施例示出的注意力层结构框图。
图中,1-微表情活跃帧序列流,2-光流序列流,3-融合层,4-全连接层,5-softmax层。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例1:
图1,为本申请实施例提供的基于融合深度特征的微表情识别方法,包括:
S1:输入微表情视频文件,得到仅包含人脸的微表情帧序列;
S2:对所述微表情帧序列归一化和灰度化,得到微表情预处理序列;
S3:掩盖微表情预处理序列中不活跃的区域,得到微表情活跃帧序列;
S4:使用光流法对微表情活跃帧序列的相邻帧提取光流,得到光流序列;
S5:构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型,将所述微表情活跃帧序列特征和光流序列特征融合得到用于识别微表情的特征;将微表情活跃帧序列以及光流序列作为深度神经网络模型的输入,对深度神经网络模型进行学习优化,得到学习优化后的深度神经网络模型;
S6:将待测试的视频文件经过步骤S1、S2、S3和S4后,送入所述学习优化后的深度神经网络模型提取特征进行微表情识别。
根据上述方案,进一步,所述得到仅包含人脸的微表情帧序列的具体方法包括:
S11:利用opencv对微表情视频文件分帧处理,得到微表情帧序列;
S12:利用开源包dlib对微表情帧序列中人脸识别定位,裁剪出人脸。
根据上述方案,进一步,所述对微表情帧序列归一化和灰度化的具体方法包括:
S21:对微表情帧序列帧长以及序列中帧的大小归一化,使得微表情帧序列帧长以及序列中帧的大小一致;
S22:对归一化后的微表情帧序列进行灰度化。
根据上述方案,进一步,如图2所示,所述得到微表情活跃帧序列的具体方法为,对微表情预处理序列中的每一帧进行分块处理,选取微表情活跃区域所对应的块,排除不活跃区域。
根据上述方案,进一步,如图3所示构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型为双流网络,具体结构为:
S51:微表情活跃帧序列流1、光流序列流2、融合层3、全连接层4和softmax层5;所述微表情活跃帧序列流1和所述光流序列流2分别与所述融合层连接3,所述融合层3与所述全连接层4连接,所述全连接层4与所述softmax层5连接;
对深度神经网络模型进行学习优化的具体方法为:
S52:将预先标注好的微表情活跃帧序列集合和光流序列集合作为训练集送入构建好的双流网路中,对所述双流网路进行迭代更新,得到学习优化后的深度神经网络模型。
根据上述方案,进一步,所述微表情活跃帧序列流和所述光流序列流结构相同,包括:三维卷积层、激活层、池化层和注意力层;所述三维卷积层与所述激活层连接,所述激活层与所述池化层连接,所述池化层与所述注意力层连接。
根据上述方案,进一步,所述激活层采用ReLU函数:
Figure DEST_PATH_IMAGE005
所述融合层有两个输入,设微表情活跃帧序列特征为w,光流序列特征为v,则融合层的输出A为:
A=w+v
根据上述方案,进一步,提取微表情活跃帧序列特征和光流序列特征的具体方法包括:
S511:以光流序列和微表情序列作为输入,然后依次重复通过三维卷积神、最大池化层、激活层2次,得到微表情活跃帧序列的深度特征和光流序列的深度特征;
S512:得到微表情活跃帧序列的深度特征和光流序列的深度特征分别送入注意力模块,得到微表情活跃帧序列的注意力特征和光流序列的注意力特征;所述微表情活跃帧序列的注意力特征即为微表情活跃帧序列特征,所述光流序列的注意力特征即为光流序列特征;
得到用于识别微表情的特征的具体方法包括:
S513:将所述微表情活跃帧序列特征和所述光流序列特征通过所述融合层得到融合特征,并依次通过两层全连接层和softmax层。
根据上述方案,进一步,所述步骤S52还包括以下步骤:
S521:将预先标注好的微表情活跃帧序列集合和光流序列集合按照4:1分成测试集和训练集;
S522:利用训练集对深度神经网络模型进行训练,优化深度神经网络模型参数直至收敛,得到微表情识别模型。
根据上述方案,进一步,训练深度神经网络模型时采用的损失函数为交叉熵损失函数:
Figure 546807DEST_PATH_IMAGE006
其中
Figure 455857DEST_PATH_IMAGE007
是一个概率分布,每个元素p i 表示样本属于第i类的概率;
Figure 56603DEST_PATH_IMAGE008
是样本标签的onehot表示,当样本属于第类别iy i =1,否则y i =0;c是样本标签。
实施例2:
步骤1、该采用opencv对微表情文件进行分帧处理得到帧序列,采用开源工具包dlib对序列中的每一帧进行人脸识别定位,裁剪出仅包含人脸的微表情序列;
步骤2、对帧序列使用时间插值法让帧长度一致,最终选择32帧作为每个微表情序列的长度,然后将每一帧的大小归一化到84*72像素,最后进行灰度化得到预处理的结果。
步骤3、对微表情序列掩盖不活跃的区域,得到包含活跃区域的微表情序列,具体步骤包括:
步骤3.1、划分将微表情预处理序列划分称14*12个小块,每个小块的长和宽各为6像素;
步骤3.2、生理学研究,微表情的感兴趣区域主要集中在眼睛、眉毛、鼻子、脸颊、嘴巴区域,参照FASE标注的人脸运动单元,选择相对应区域的小块,掩盖不活跃区的小块,可以有效的避免非活跃区域带来的噪声干扰,聚焦细节变化的区域,得到微表情活跃帧序列。具体的,如图2所示,按照从左到右,从上到下的顺序活跃区域依次选择第13~17、20~29、32~41、44~60、66~67、73~108、113~116、124~129、136~141、148~153块。
步骤4、用光流法对微表情预处理序列提取光流序列,这里使用Lucas-Kanade光流法提取微表情相邻帧的光流,得到光流序列;
步骤5、构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型,得到用于识别微表情的特征;将微表情活跃帧序列以及光流序列作为深度神经网络模型的输入,对深度神经网络模型进行学习优化,网络结构如图3所示,其步骤主要包括:
步骤5.1、微表情活跃帧序列流1、光流序列流2、融合层3、全连接层4和softmax层5;所述微表情活跃帧序列流1和所述光流序列流2分别与所述融合层3连接,所述融合层3与所述全连接层4连接,所述全连接层4与所述softmax层5连接;
以光流序列和微表情序列作为输入,然后依次重复通过三维卷积神、最大池化层、激活层2次,得到微表情活跃帧序列的深度特征和光流序列的深度特征;
得到微表情活跃帧序列的深度特征和光流序列的深度特征分别送入注意力模块,得到微表情活跃帧序列的注意力特征和光流序列的注意力特征;所述微表情活跃帧序列的注意力特征即为微表情活跃帧序列特征,所述光流序列的注意力特征即为光流序列特征;
将所述微表情活跃帧序列特征和所述光流序列特征通过所述融合层得到融合特征,并依次通过两层全连接层和softmax层,得到用于识别微表情的特征。
对于输入、三维卷积层、最大池化层、全连接层、softmax具体参数设置如下:
输入参数设置:输入样本有三个参数,分别设输入的高为H、宽为W、帧长为T。
微表情帧序列的参数为H=84,W=72,、T=32;
光流序列的参数为H=84,W=72,、T=31。
三维卷积层参数设置:卷积层有4个参数,分别设卷积核的高为H、宽为W、深度为D,卷积核的个数为N。
三维卷积层_1的参数为H=5,W=5,D=5,N=16;
三维卷积层_2的参数为H=3,W=3,D=3,N=32。
最大池化层参数设置:池化层有5个参数,分别设池化的高为H、宽为W、深度为D,空间步长为S_L, 时间步长为T_L。
最大池化层_1的参数为H=2,W=2,D=2,S_L=2, T_L=2;
最大池化层_2的参数为H=2,W=2,D=1,S_L=2, T_L=1。
全连接层参数设置:全连接层有1个参数,即神经元个数N。
全连接层_1的参数为N=512;
全连接层_2的参数为N=256;
softmax层参数设置:softmax层有1个参数,即微表情标签的类别数量。
注意力模块设置:如图4所示,其类似SENet,不同的是SENet是对特征图的通道加以注意力机制,而此注意力模块是对三维特征图的时间维度加以注意力机制,考虑时序的全局关联信息。图4中W、H、T分别表示三维特征图空间维度的宽,高以及时间维度的长度。
激活层设置:选取的ReLU函数:
Figure 801836DEST_PATH_IMAGE009
融合层设置:融合层有两个输入,设微表情序列得到的特征为w,光流序列得到的特征为v,则融合层的输出A为:
A=w+v
步骤5.2、将预先标注好的微表情活跃帧序列集合和光流序列集合按照4:1分成测试集和训练集;
步骤5.3、将具有标签的训练集送入神经网络进行训练,优化网络参数直至收敛,得到微表情识别模型。
训练模型时采用的损失函数为交叉熵损失函数:
Figure 146230DEST_PATH_IMAGE010
其中
Figure 644207DEST_PATH_IMAGE011
是一个概率分布,每个元素p i 表示样本属于第i类的概率;
Figure 681434DEST_PATH_IMAGE012
是样本标签的onehot表示,当样本属于第类别iy i =1,否则y i =0;c是样本标签;
修正函数选用的是随机梯度下降法;
学习率设为0.001;
批次大小设置为64;
为了防止过拟合,每个全连接层后加了dropout层,丢包率设置为0.5;
训练迭代次数为500,当损失函数降低十分缓慢时,提前终止训练。
步骤6、将待识别的微表情文件,经过步骤1、2、3、4,得到微表情序列和光流序列,将两者输入到训练好的微表情识别模型,进行微表情识别。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.基于融合深度特征的微表情识别方法,其特征在于,包括:
S1:输入微表情视频文件,得到仅包含人脸的微表情帧序列;
S2:对所述微表情帧序列归一化和灰度化,得到微表情预处理序列;
S3:掩盖微表情预处理序列中不活跃的区域,得到微表情活跃帧序列;
S4:使用光流法对微表情活跃帧序列的相邻帧提取光流,得到光流序列;
S5:构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型,将所述微表情活跃帧序列特征和光流序列特征融合得到用于识别微表情的特征;将微表情活跃帧序列以及光流序列作为深度神经网络模型的输入,对深度神经网络模型进行学习优化,得到学习优化后的深度神经网络模型;
S6:将待测试的视频文件经过步骤S1、S2、S3和S4后,送入所述学习优化后的深度神经网络模型提取特征进行微表情识别。
2.根据权利要求1所述的基于融合深度特征的微表情识别方法,其特征在于,所述得到仅包含人脸的微表情帧序列的具体方法包括:
S11:利用opencv对微表情视频文件分帧处理,得到微表情帧序列;
S12:利用开源包dlib对微表情帧序列中人脸识别定位,裁剪出人脸。
3.根据权利要求1所述的基于融合深度特征的微表情识别方法,其特征在于,所述对微表情帧序列归一化和灰度化的具体方法包括:
S21:对微表情帧序列帧长以及序列中帧的大小归一化,使得微表情帧序列帧长以及序列中帧的大小一致;
S22:对归一化后的微表情帧序列进行灰度化。
4.根据权利要求1所述的基于融合深度特征的微表情识别方法,其特征在于,所述得到微表情活跃帧序列的具体方法为,对微表情预处理序列中的每一帧进行分块处理,选取微表情活跃区域所对应的块,排除不活跃区域。
5.根据权利要求1所述的基于融合深度特征的微表情识别方法,其特征在于,构建能够提取微表情活跃帧序列特征和光流序列特征的深度神经网络模型为双流网络,具体结构为:
S51:微表情活跃帧序列流、光流序列流、融合层、全连接层和softmax层;所述微表情活跃帧序列流和所述光流序列流分别与所述融合层连接,所述融合层与所述全连接层连接,所述全连接层与所述softmax层连接;
对深度神经网络模型进行学习优化的具体方法为:
S52:将预先标注好的微表情活跃帧序列集合和光流序列集合作为训练集送入构建好的双流网路中,对所述双流网路进行迭代更新,得到学习优化后的深度神经网络模型。
6.根据权利要求5所述的基于融合深度特征的微表情识别方法,其特征在于,所述微表情活跃帧序列流和所述光流序列流结构相同,包括:三维卷积层、激活层、池化层和注意力层;所述三维卷积层与所述激活层连接,所述激活层与所述池化层连接,所述池化层与所述注意力层连接。
7.根据权利要求6所述的基于融合深度特征的微表情识别方法,其特征在于,所述激活层采用ReLU函数:
Figure 491156DEST_PATH_IMAGE001
所述融合层有两个输入,设微表情活跃帧序列特征为w,光流序列特征为v,则融合层的输出A为:
A=w+v
8.根据权利要求5所述的基于融合深度特征的微表情识别方法,其特征在于,提取微表情活跃帧序列特征和光流序列特征的具体方法包括:
S511:以光流序列和微表情序列作为输入,然后依次重复通过三维卷积神、最大池化层、激活层2次,得到微表情活跃帧序列的深度特征和光流序列的深度特征;
S512:得到微表情活跃帧序列的深度特征和光流序列的深度特征分别送入注意力模块,得到微表情活跃帧序列的注意力特征和光流序列的注意力特征;所述微表情活跃帧序列的注意力特征即为微表情活跃帧序列特征,所述光流序列的注意力特征即为光流序列特征;
得到用于识别微表情的特征的具体方法包括:
S513:将所述微表情活跃帧序列特征和所述光流序列特征通过所述融合层得到融合特征,并依次通过两层全连接层和softmax层。
9.根据权利要求5所述的基于融合深度特征的微表情识别方法,其特征在于,所述步骤S52还包括以下步骤:
S521:将预先标注好的微表情活跃帧序列集合和光流序列集合按照4:1分成测试集和训练集;
S522:利用训练集对深度神经网络模型进行训练,优化深度神经网络模型参数直至收敛,得到微表情识别模型。
10.根据权利要求9所述的基于融合深度特征的微表情识别方法,其特征在于,对深度神经网络模型进行训练时采用的损失函数为交叉熵损失函数:
Figure 15679DEST_PATH_IMAGE002
其中
Figure 35587DEST_PATH_IMAGE003
是一个概率分布,每个元素p i 表示样本属于第i类的概率;
Figure 38178DEST_PATH_IMAGE004
是样本标签的onehot表示,当样本属于第类别iy i =1,否则y i =0;c是样本标签。
CN202110188625.5A 2021-02-19 2021-02-19 基于融合深度特征的微表情识别方法 Pending CN112560812A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110188625.5A CN112560812A (zh) 2021-02-19 2021-02-19 基于融合深度特征的微表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110188625.5A CN112560812A (zh) 2021-02-19 2021-02-19 基于融合深度特征的微表情识别方法

Publications (1)

Publication Number Publication Date
CN112560812A true CN112560812A (zh) 2021-03-26

Family

ID=75035983

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110188625.5A Pending CN112560812A (zh) 2021-02-19 2021-02-19 基于融合深度特征的微表情识别方法

Country Status (1)

Country Link
CN (1) CN112560812A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780993A (zh) * 2021-09-09 2021-12-10 平安科技(深圳)有限公司 数据处理方法、装置、设备及可读存储介质
CN114639136A (zh) * 2022-01-22 2022-06-17 西北工业大学 一种基于浅层网络的长视频微表情检测方法
CN114973374A (zh) * 2022-05-31 2022-08-30 平安银行股份有限公司 基于表情的风险评测方法、装置、设备及存储介质
CN115359534A (zh) * 2022-08-25 2022-11-18 成都信息工程大学 基于多特征融合和双流网络的微表情识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175596A (zh) * 2019-06-04 2019-08-27 重庆邮电大学 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法
CN110516571A (zh) * 2019-08-16 2019-11-29 东南大学 基于光流注意力神经网络的跨库微表情识别方法及装置
CN111652159A (zh) * 2020-06-05 2020-09-11 山东大学 基于多层次特征联合的微表情识别方法及系统
CN111666852A (zh) * 2020-05-28 2020-09-15 天津大学 一种基于卷积神经网络的微表情双流网络识别方法
CN112115796A (zh) * 2020-08-21 2020-12-22 西北大学 一种基于注意力机制的三维卷积微表情识别算法
CN112307958A (zh) * 2020-10-30 2021-02-02 河北工业大学 基于时空外观运动注意力网络的微表情识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175596A (zh) * 2019-06-04 2019-08-27 重庆邮电大学 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法
CN110516571A (zh) * 2019-08-16 2019-11-29 东南大学 基于光流注意力神经网络的跨库微表情识别方法及装置
CN111666852A (zh) * 2020-05-28 2020-09-15 天津大学 一种基于卷积神经网络的微表情双流网络识别方法
CN111652159A (zh) * 2020-06-05 2020-09-11 山东大学 基于多层次特征联合的微表情识别方法及系统
CN112115796A (zh) * 2020-08-21 2020-12-22 西北大学 一种基于注意力机制的三维卷积微表情识别算法
CN112307958A (zh) * 2020-10-30 2021-02-02 河北工业大学 基于时空外观运动注意力网络的微表情识别方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780993A (zh) * 2021-09-09 2021-12-10 平安科技(深圳)有限公司 数据处理方法、装置、设备及可读存储介质
CN114639136A (zh) * 2022-01-22 2022-06-17 西北工业大学 一种基于浅层网络的长视频微表情检测方法
CN114639136B (zh) * 2022-01-22 2024-03-08 西北工业大学 一种基于浅层网络的长视频微表情检测方法
CN114973374A (zh) * 2022-05-31 2022-08-30 平安银行股份有限公司 基于表情的风险评测方法、装置、设备及存储介质
CN115359534A (zh) * 2022-08-25 2022-11-18 成都信息工程大学 基于多特征融合和双流网络的微表情识别方法
CN115359534B (zh) * 2022-08-25 2023-04-07 成都信息工程大学 基于多特征融合和双流网络的微表情识别方法

Similar Documents

Publication Publication Date Title
CN112560812A (zh) 基于融合深度特征的微表情识别方法
CN112560810B (zh) 基于多尺度时空特征神经网络的微表情识别方法
CN113496217B (zh) 视频图像序列中人脸微表情识别方法
CN105069400B (zh) 基于栈式稀疏自编码的人脸图像性别识别系统
CN106372581B (zh) 构建及训练人脸识别特征提取网络的方法
CN112307958A (zh) 基于时空外观运动注意力网络的微表情识别方法
Elaiwat et al. A spatio-temporal RBM-based model for facial expression recognition
CN112800903B (zh) 一种基于时空图卷积神经网络的动态表情识别方法及系统
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
CN112215180A (zh) 一种活体检测方法及装置
CN112800894A (zh) 一种基于时空流间注意力机制的动态表情识别方法及系统
Tiwari et al. Image classification using deep neural network
CN111476178A (zh) 一种基于2d-3d cnn的微表情识别方法
CN112801015A (zh) 一种基于注意力机制的多模态人脸识别方法
CN107944398A (zh) 基于深度特征联合表示图像集人脸识别方法、装置和介质
CN115862120A (zh) 可分离变分自编码器解耦的面部动作单元识别方法及设备
CN110222568B (zh) 一种基于时空图的跨视角步态识别方法
Singh et al. Action recognition in dark videos using spatio-temporal features and bidirectional encoder representations from transformers
CN114743241A (zh) 一种人脸表情识别方法、装置、电子设备及存储介质
Lim et al. Pose transforming network: Learning to disentangle human posture in variational auto-encoded latent space
CN114036553A (zh) 一种结合k匿名的行人身份隐私保护方法
Liu et al. Optimized facial emotion recognition technique for assessing user experience
Yemenoglu et al. Deep convolutional neural networks-based sign language recognition system
Renjith et al. Indian sign language recognition: A comparative analysis using cnn and rnn models
Vyas et al. Face recognition using feature extraction and neuro-fuzzy techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210326

RJ01 Rejection of invention patent application after publication