CN112766112B - 基于时空多特征融合的动态表情识别方法及系统 - Google Patents

基于时空多特征融合的动态表情识别方法及系统 Download PDF

Info

Publication number
CN112766112B
CN112766112B CN202110023841.4A CN202110023841A CN112766112B CN 112766112 B CN112766112 B CN 112766112B CN 202110023841 A CN202110023841 A CN 202110023841A CN 112766112 B CN112766112 B CN 112766112B
Authority
CN
China
Prior art keywords
expression
features
image sequence
image
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110023841.4A
Other languages
English (en)
Other versions
CN112766112A (zh
Inventor
杨明强
闫汝玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202110023841.4A priority Critical patent/CN112766112B/zh
Publication of CN112766112A publication Critical patent/CN112766112A/zh
Application granted granted Critical
Publication of CN112766112B publication Critical patent/CN112766112B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/259Fusion by voting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于时空多特征融合的动态表情识别方法及系统,包括:获取待识别的人脸表情图像序列;对待识别的人脸表情图像序列进行预处理;对预处理后的人脸表情图像序列,提取时空特征;对表情峰值关键帧图像,分别采集纹理特征和几何特征;对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果。本发明方法对LBP‑TOP算子进行改进,增强了特征的表达能力和特征提取速率。本发明提出了一种新的几何特征表达方式,直接将归一化后的人脸关键点作为几何特征,有效地降低特征维度。

Description

基于时空多特征融合的动态表情识别方法及系统
技术领域
本申请涉及图像处理技术领域,特别是涉及基于时空多特征融合的动态表情识别方法及系统。
背景技术
本部分的陈述仅仅是提到了与本申请相关的背景技术,并不必然构成现有技术。
随着人工智能和计算机技术的不断发展,人脸表情识别也成为研究热点。机器通过识别人脸面部表情的变化,分析人类的内在心理活动,从而更好地为人类服务,促进人工智能的进一步发展。通过人脸表情进行情感识别是情感计算中最有效、最直接的方法之一。面部表情以非语言的形式反映人类情感状态,是人类情感表达系统中不可缺少的组成部分。研究表明,在口语交流中,说话者想要传递的情感信息有55%来自面部表情,面部表情包含最多的情感信息。心理学家将人类的情绪划分为六种基本情感,即愤怒、厌恶、恐惧、快乐、悲伤和惊讶,每种情感有其相应的表情。静态和动态方法的融合可以突破各自的局限性,面部表情的峰值帧具有很强的表达能力,而时间信息在特殊的视频分类任务中是必不可少的。而且,单个特征不够全面和丰富,不足以捕获全局信息,因此需要设计一个鲁棒的特征提取算子将多个互补特征进行融合。
目前,表情识别的研究有两种主流方法:基于图像的方法和基于视频的方法。基于图像的方法直接对表情的峰值帧进行分析和提取特征,是一种静态的方法,该方法通常分为两类:基于几何特征的方法和基于外观特征的方法;而基于视频的方法是对图像序列进行处理,提取表情序列中的时间和运动信息,是一种动态的方法。然而,很少有工作将这两种方法结合在一起。
虽然表情识别在人机交互、安全驾驶、医疗诊断等领域已经有了广泛的应用,但是受个体差异、面部遮挡和面部姿势变化的影响,表情识别的精度依然有待于提高。由于人脸表情的变化是一个动态的过程,单一特征的提取具有局限性,导致特征提取不充分,识别准确率不理想。
发明内容
为了解决现有技术的不足,本申请提供了基于时空多特征融合的动态表情识别方法及系统;该方法将时间特征、纹理特征和几何特征相结合,采用集成学习的相对多数投票法,将特征在决策层进行融合,解决单一特征描述子具有局限性的问题,从而提高表情识别准确率。
第一方面,本申请提供了基于时空多特征融合的动态表情识别方法;
基于时空多特征融合的动态表情识别方法,包括:
获取待识别的人脸表情图像序列;
对待识别的人脸表情图像序列进行预处理;
对预处理后的人脸表情图像序列,提取时空特征;对表情峰值关键帧图像,分别采集纹理特征和几何特征;
对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;
对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果。
第二方面,本申请提供了基于时空多特征融合的动态表情识别系统;
基于时空多特征融合的动态表情识别系统,包括:
获取模块,其被配置为:获取待识别的人脸表情图像序列;
预处理模块,其被配置为:对待识别的人脸表情图像序列进行预处理;
特征提取模块,其被配置为:对预处理后的人脸表情图像序列,提取时空特征;对表情峰值关键帧图像,分别采集纹理特征和几何特征;
识别模块,其被配置为:对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;
输出模块,其被配置为:对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果。
第三方面,本申请还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述第一方面所述的方法。
第四方面,本申请还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
第五方面,本申请还提供了一种计算机程序(产品),包括计算机程序,所述计算机程序当在一个或多个处理器上运行的时候用于实现前述第一方面任意一项的方法。
与现有技术相比,本申请的有益效果是:
(1)本发明方法对LBP-TOP算子进行改进,增强了特征的表达能力和特征提取速率。
(2)本发明提出了一种新的几何特征表达方式,直接将归一化后的人脸关键点作为几何特征,有效地降低特征维度。
(3)本发明在决策层进行特征融合,同时考虑到几何外观特征以及动态静态特征,显著地提高表情识别准确率。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明的系统流程图;
图2为本发明采用SDM(Supervised Descent Method)算法检测到的人脸49个关键点位置信息示意图。
图3为本发明对原始图像进行预处理的示意图;
图4为本发明提出的得到改进的LBP-TOP统计直方图特征的过程示意图;
图5为改进的LBP-TOP算子的识别准确率与表情序列所分块数以及在分块过程中是否采用70%重叠率的变化关系示意图;
图6为实施例1中改进的LBP-TOP算子与原始LBP-TOP算子以及其他各个分量识别准确率的比较示意图;
图7(a)-图7(f)为同一人的6种基本表情关键点示意图;
图7(g)-图7(l)为不同女人的6种基本表情关键点示意图;
图7(m)-图7(r)为不同男人的6种基本表情关键点示意图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
术语解释:
LBP-TOP是Local Binary Pattern from Three Orthogonal Planes的缩写,中文含义是三个正交平面上的局部二值模式。
实施例一
本实施例提供了基于时空多特征融合的动态表情识别方法;
如图1所示,基于时空多特征融合的动态表情识别方法,包括:
S101:获取待识别的人脸表情图像序列;
S102:对待识别的人脸表情图像序列进行预处理;
S103:对预处理后的人脸表情图像序列,提取时空特征;对表情峰值关键帧图像,分别采集纹理特征和几何特征;
S104:对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;
S105:对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果。
作为一个或多个实施例,所述获取待识别的人脸表情图像序列,通过摄像头进行采集。
示例性的,本实施例采用扩展的Cohn-Kanade(CK+)数据集进行实验,使用该数据集中包含6种基本表情的309个表情序列。
作为一个或多个实施例,所述S102:对待识别的人脸表情图像序列进行预处理;具体包括:
S1021:对待识别的人脸表情图像序列中的所有帧人脸表情图像,均进行灰度归一化处理;
S1022:对灰度归一化处理后的人脸表情图像,进行裁剪;
S1023:对裁剪得到的人脸表情图像进行几何归一化处理。
示例性的,所述S1021:对待识别的人脸表情图像序列中的所有帧人脸表情图像,均进行灰度归一化处理;具体包括:
采用如下公式(1)对人脸表情图像进行灰度归一化:
Igray=IB×0.114+IG×0.587+IR×0.299, (1)
其中,IB、IG、IR分别代表图像的蓝、绿、红三个颜色通道。
示例性的,所述S1022:对灰度归一化处理后的人脸表情图像,进行裁剪;具体包括:
对灰度归一化后的图像采用SDM算法检测到人脸49个关键点,位置信息如图2所示,确定两只眼睛瞳孔的坐标,这两只眼睛瞳孔之间的距离为d,以两只眼睛瞳孔距离的中点为中心点,将动态人脸图像序列中的每帧人脸图像进行裁剪,裁剪后图片的宽为1.2×d,高为2.25×d,如图3所示。
示例性的,所述S1023:对裁剪得到的人脸表情图像进行几何归一化处理;具体包括:
最后将裁剪后的人脸表情图像几何归一化为M×N。对于改进的LBP-TOP特征,M取256,N取128;对于Gabor特征,为了降低维度,M取112,N取96。
作为一个或多个实施例,所述S103:对预处理后的人脸表情图像序列,提取时空特征;其中,时空特征是指改进的LBP-TOP直方图特征;时空特征的提取步骤具体包括:
S1031:对于一个X×Y×T的图像序列,分别计算图像序列XT平面、YT平面以及峰值帧图像XY平面的LBP直方图向量;
S1032:将表情序列XT和YT平面的LBP直方图向量与XY平面表情峰值帧的LBP直方图向量级联,从而得到改进的LBP-TOP直方图特征。
进一步地,所述峰值帧图像的确定方式为:
(1)对于一个X×Y×T的图像序列,将每一帧灰度图像转化为二维矩阵;
(2)将一个图像序列中的所有二维矩阵按顺序连接为一个三维矩阵;
(3)在三维矩阵中,用N来控制滑动窗口的长度,以每帧的前后-N/2到N/2为一个区间,计算每一个区间的频率;
(4)选取频率最高的区间,此区间的中间帧即为峰值帧图像。
示例性的,所述S1031:对于一个X×Y×T的图像序列,分别计算图像序列XT平面、YT平面以及峰值帧图像XY平面的LBP直方图向量;具体步骤包括:
对于图像序列,用gc表示表示中心像素(xc,yc,tc)的灰度值,gp表示第p个邻域像素的灰度值,P为邻域像素的个数,R决定邻域半径的大小。局部纹理特征LBP(Local BinaryPattern)的计算方式如下:
Figure BDA0002889504580000081
s是二值函数,定义如下:
Figure BDA0002889504580000082
将LBP特征的统计直方图作为特征向量从而将全局信息考虑进去。对于一个X×Y×T的图像序列,分别计算图像序列XT平面、YT平面以及峰值帧图像XY平面的LBP直方图向量:
HXY=I(LBPP,R(xc,yc,tc)=i} (4),
Figure BDA0002889504580000083
Figure BDA0002889504580000084
I是二值函数,定义如下:
Figure BDA0002889504580000085
i表示统计直方图的模式,采用LBP均值模式,因此这里i∈[0,58]。
示例性的,所述S1032:将表情序列XT和YT平面的LBP直方图向量与XY平面表情峰值帧的LBP直方图向量级联,从而得到改进的LBP-TOP直方图特征;具体步骤包括:
将上述三部分的直方图特征分别进行归一化后,级联成一个特征向量。H即为人脸表情序列进行改进的LBP-TOP算子计算后得到的特征向量。
Figure BDA0002889504580000091
应理解的,对得到的归一化后的动态人脸图像序列利用改进的LBP-TOP算子提取时空特征。人脸表情序列是一个三维立体图像,因此可以看作多个二维平面在某个维度上的堆叠。XT和YT平面的图像有更多时间维度信息,并且更好地反应面部肌肉的运动方向,而XY平面的图像只有在表情峰值时才具有最大的表达能力。本发明将原始LBP-TOP算子的XY平面的LBP直方图特征舍弃,保留表情序列XT和YT平面的LBP直方图特征,将其与XY平面表情峰值帧的LBP直方图特征级联,从而得到改进的LBP-TOP算子。该算子不仅保留了原始LBP-TOP在时间维度上的时空纹理特征,而且利用了峰值帧图像表示性强的优点。
图4展示了对于一个局部人脸表情序列块,每个中心像素都在三个平面上,改进的LBP-TOP特征直方图就是分别计算峰值帧图像XY平面的LBP统计直方图特征级联XT和YT平面的LBP统计直方图特征。
改进的LBP-TOP特征识别准确率与表情序列所分块数以及在分块过程中是否采用70%的重叠率有较强的关系,如图5所示。图中的“n1n2”形式,“n1”取“0”表示XY平面峰值帧的直方图特征;n1取“1”表示XT和YT平面表情序列的直方图特征;“n2”取“0”表示不采用70%的重叠率,取“1”表示采用。例如,“00”表示XY平面峰值帧特征及XT和YT平面表情序列的特征均不采用70%的重叠率。根据实验结果,本发明将裁剪后的表情峰值帧图像采用70%的重叠率进行8×4的分块,对分块后的图像提取LBP直方图特征;将裁剪后的动态人脸图像序列进行8×4的分块,不采用70%的重叠率,对分块后的图像序列提取XT和YT平面的LBP-TOP直方图特征。在选择上述参数的情况下,改进的LBP-TOP算子识别准确率最高。
从图6可以看出,在相同条件下,改进的LBP-TOP算子较原始LBP-TOP算子以及其他分量,识别准确率有较大提升。
此外,本实施例还比较了原始LBP-TOP算子和改进的LBP-TOP算子的特征提取速度。实验表明,特征提取时间随表情序列长度和分块数而变化。在表情序列长度(19)和块大小(8×4)相同的条件下,原始LBP-TOP算子的计算时间为3.91s,而改进的LBP-TOP算子的计算时间为3.61s,并且当表情序列长度为39时,原始LBP-TOP算子和改进的LBP-TOP算子的计算时间分别为7.54s和6.36s。随着序列长度和块数的增加,改进的LBP-TOP算子的时间优势更加明显。
作为一个或多个实施例,所述S103:对表情峰值关键帧图像,分别采集纹理特征和几何特征;其中,纹理特征是指Gabor特征;纹理特征的提取步骤具体包括:
采用5个尺度8个方向的Gabor滤波器,对归一化后的表情峰值帧图像提取Gabor幅值特征作为纹理特征。
示例性的,Gabor滤波器的定义如下:
Figure BDA0002889504580000101
其中,z=(x,y),表示图像的像素点,
Figure BDA0002889504580000102
u表示Gabor滤波器的方向,u∈(0,...,7),v表示Gabor滤波器的尺度,v∈(0,...,4),K表示总的方向数。因此,5个尺度8个方向的Gabor滤波可以通过ku,v来描述。其中,kv分别为
Figure BDA0002889504580000103
对应每一个kv
Figure BDA0002889504580000104
分别为0、
Figure BDA0002889504580000105
图像的Gabor表示是图像I(z)与二维Gabor滤波器的卷积:
Fu,v(z)=I*Gu,v(z)(10),
Fu,v(z)是复数,由于Gabor的幅值信息相对相位信息稳定,因此,这里采用Fu,v(z)的幅值作为图像的Gabor纹理特征。
作为一个或多个实施例,所述S103:对表情峰值关键帧图像,分别采集纹理特征和几何特征;几何特征的提取步骤包括:
对表情的峰值帧图像,采用SDM算法检测到人脸49个关键点,将X轴和Y轴的坐标分别进行均值为0,方差为1的标准化操作。
用(xi,yi)表示第i个人脸关键点的坐标,情感e的几何特征向量为:
Ve=[x1,y1,x2,y2,…,xn,yn],n=49 (11),
将这98维特征向量作为人脸表情的几何特征。
作为一个或多个实施例,所述S104:对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;具体包括:
基于训练后的第一基分类器,对时空特征进行表情识别,得到第一识别结果;
基于训练后的第二基分类器,对纹理特征进行表情识别,得到第二识别结果;
基于训练后的第三基分类器,对几何特征进行识别,得到第三识别结果。
进一步地,所述训练后的第一基分类器,其训练步骤包括:
构建基分类器;构建第一训练集,所述第一训练集为已知表情识别结果的时空特征;
将第一训练集输入到基分类器中,输出第一分类结果。
同样的,第二基分类器与第三基分类器的训练步骤与第一基分类器的训练步骤是一样的,不一样的仅仅是训练集不一样;第二基分类器的训练集为已知表情识别结果的纹理特征;第三基分类器的训练集为已知表情识别结果的几何特征。将得到的时空特征、Gabor纹理特征、几何特征分别使用SVM(Support Vector Machine)的多核学习方法得到三个基分类器。
作为一个或多个实施例,所述S105:对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果;具体包括:
通过集成学习的多数投票法得到样本的分类结果。对于每一个样本x,多数投票法的计算方式如下:
Figure BDA0002889504580000121
T是基分类器的个数,
Figure BDA0002889504580000122
代表分类标记,若ht将样本x预测为cj类,则
Figure BDA0002889504580000123
的值为1,否则为0。对样本进行分类时,将票数最多的类别作为最终的分类结果。
采用留一法进行验证。对于N个样本的数据,取1个样本作为测试集,其它N-1个样本作为训练集,将N次测试的平均值作为最终结果。
基于时空多特征融合的动态表情识别方法,是一种将几何-外观特征和动态-静态特征相结合的方法。具体来说,采用改进的LBP-TOP算子作为时空特征,Gabor幅值特征作为纹理特征,人脸关键点作为几何特征。
图7(a)-图7(f)为同一人的6种基本表情关键点示意图;图7(g)-图7(l)为不同女人的6种基本表情关键点示意图;图7(m)-图7(r)为不同男人的6种基本表情关键点示意图,不管是同一个人,不同的女人或不同的男人,同一表情的坐标表示是非常相似的。另外,在嘴巴、眼睛和眉毛这些位置,不同表情的坐标表示存在较大差异。这表明人脸关键点可以去除人脸图像的共同底层结构,消除脸型影响,有效地提取表情的形状属性。
采用留一法进行验证。对于N个样本的数据,取1个样本作为测试集,其它N-1个样本作为训练集,将N次测试的平均值作为最终结果。
表1、在CK+数据集上使用改进的LBP-TOP算子的表情识别准确率
Figure BDA0002889504580000131
表2、在CK+数据集上使用Gabor算子的表情识别准确率
Figure BDA0002889504580000132
Figure BDA0002889504580000141
表3、在CK+数据集上使用几何关键点特征的表情识别准确率
Figure BDA0002889504580000142
表4、在CK+数据集上进行决策层特征融合后的表情识别准确率
Figure BDA0002889504580000143
从表1、表2、表3和表4可以看出,在识别某种特定表情时,总会有一种特征提取算子的性能优于其他。例如,改进的LBP-TOP算子能更好地识别厌恶;Gabor特征在识别悲伤和恐惧方面具有更大的优势;几何特征对惊讶的识别率可以达到100%。因此,在决策级融合时,由于各特征提取算子的优势表情不同,可以有效提高各类表情的识别准确率。
实施例二
本实施例提供了基于时空多特征融合的动态表情识别系统;
基于时空多特征融合的动态表情识别系统,包括:
获取模块,其被配置为:获取待识别的人脸表情图像序列;
预处理模块,其被配置为:对待识别的人脸表情图像序列进行预处理;
特征提取模块,其被配置为:对预处理后的人脸表情图像序列,提取时空特征;对表情峰值关键帧图像,分别采集纹理特征和几何特征;
识别模块,其被配置为:对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;
输出模块,其被配置为:对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果。
此处需要说明的是,上述获取模块、预处理模块、特征提取模块、识别模块和输出模块对应于实施例一中的步骤S101至S105,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
所提出的系统,可以通过其他的方式实现。例如以上所描述的系统实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个系统,或一些特征可以忽略,或不执行。
实施例三
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元及算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
实施例四
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (8)

1.基于时空多特征融合的动态表情识别方法,其特征是,包括:
获取待识别的人脸表情图像序列;
对待识别的人脸表情图像序列进行预处理;
对预处理后的人脸表情图像序列,提取时空特征;对表情峰值关键帧图像,分别采集纹理特征和几何特征;
对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;
对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果;
对预处理后的人脸表情图像序列,提取时空特征;其中,时空特征是指改进的LBP-TOP直方图特征;时空特征的提取步骤具体包括:
S1031:对于一个宽为X、高为Y、帧数为T的图像序列,分别计算图像序列XT平面、YT平面以及峰值帧图像XY平面的LBP直方图向量;
S1032:将表情序列XT和YT平面的LBP直方图向量与XY平面表情峰值帧的LBP直方图向量级联,从而得到改进的LBP-TOP直方图特征;
将裁剪后的表情峰值帧图像采用70%的重叠率进行8×4的分块,对分块后的图像提取LBP直方图特征;将裁剪后的动态人脸图像序列进行8×4的分块,不采用70%的重叠率,对分块后的图像序列提取XT和YT平面的LBP-TOP直方图特征;
对表情峰值关键帧图像,分别采集纹理特征和几何特征;几何特征的提取步骤包括:
对表情的峰值帧图像,采用SDM算法检测到人脸49个关键点,将X轴和Y轴的坐标分别进行均值为0,方差为1的标准化操作;将98维特征向量作为人脸表情的几何特征。
2.如权利要求1所述的基于时空多特征融合的动态表情识别方法,其特征是,对待识别的人脸表情图像序列进行预处理;具体包括:
对待识别的人脸表情图像序列中的所有帧人脸表情图像,均进行灰度归一化处理;
对灰度归一化处理后的人脸表情图像,进行裁剪;
对裁剪得到的人脸表情图像进行几何归一化处理。
3.如权利要求1所述的基于时空多特征融合的动态表情识别方法,其特征是,对灰度归一化处理后的人脸表情图像,进行裁剪;具体包括:
对灰度归一化后的图像采用SDM算法检测到人脸49个关键点,确定两只眼睛瞳孔的坐标,这两只眼睛瞳孔之间的距离为d,以两只眼睛瞳孔距离的中点为中心点,将动态人脸图像序列中的每帧人脸图像进行裁剪,裁剪后图片的宽为1.2×d,高为2.25×d。
4.如权利要求1所述的基于时空多特征融合的动态表情识别方法,其特征是,对表情峰值关键帧图像,分别采集纹理特征和几何特征;其中,纹理特征是指Gabor特征;纹理特征的提取步骤具体包括:
采用5个尺度8个方向的Gabor滤波器,对归一化后的表情峰值帧图像提取Gabor幅值特征作为纹理特征。
5.如权利要求1所述的基于时空多特征融合的动态表情识别方法,其特征是,对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果;具体包括:
对第一、第二和第三识别结果进行多数投票,通过集成学习的多数投票法得到分类结果。
6.基于时空多特征融合的动态表情识别系统,其特征是,包括:
获取模块,其被配置为:获取待识别的人脸表情图像序列;
预处理模块,其被配置为:对待识别的人脸表情图像序列进行预处理;
特征提取模块,其被配置为:对预处理后的人脸表情图像序列,提取时空特征;对表情峰值关键帧图像,分别采集纹理特征和几何特征;
识别模块,其被配置为:对时空特征进行表情识别,得到第一识别结果,对纹理特征进行表情识别,得到第二识别结果;对几何特征进行识别,得到第三识别结果;
输出模块,其被配置为:对第一、第二和第三识别结果进行多数投票,得到最终的表情识别结果;
对预处理后的人脸表情图像序列,提取时空特征;其中,时空特征是指改进的LBP-TOP直方图特征;时空特征的提取步骤具体包括:
S1031:对于一个宽为X、高为Y、帧数为T的图像序列,分别计算图像序列XT平面、YT平面以及峰值帧图像XY平面的LBP直方图向量;
S1032:将表情序列XT和YT平面的LBP直方图向量与XY平面表情峰值帧的LBP直方图向量级联,从而得到改进的LBP-TOP直方图特征;
将裁剪后的表情峰值帧图像采用70%的重叠率进行8×4的分块,对分块后的图像提取LBP直方图特征;将裁剪后的动态人脸图像序列进行8×4的分块,不采用70%的重叠率,对分块后的图像序列提取XT和YT平面的LBP-TOP直方图特征;
对表情峰值关键帧图像,分别采集纹理特征和几何特征;几何特征的提取步骤包括:
对表情的峰值帧图像,采用SDM算法检测到人脸49个关键点,将X轴和Y轴的坐标分别进行均值为0,方差为1的标准化操作;将98维特征向量作为人脸表情的几何特征。
7.一种电子设备,其特征是,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述权利要求1-5任一项所述的方法。
8.一种计算机可读存储介质,其特征是,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-5任一项所述的方法。
CN202110023841.4A 2021-01-08 2021-01-08 基于时空多特征融合的动态表情识别方法及系统 Active CN112766112B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110023841.4A CN112766112B (zh) 2021-01-08 2021-01-08 基于时空多特征融合的动态表情识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110023841.4A CN112766112B (zh) 2021-01-08 2021-01-08 基于时空多特征融合的动态表情识别方法及系统

Publications (2)

Publication Number Publication Date
CN112766112A CN112766112A (zh) 2021-05-07
CN112766112B true CN112766112B (zh) 2023-01-17

Family

ID=75701490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110023841.4A Active CN112766112B (zh) 2021-01-08 2021-01-08 基于时空多特征融合的动态表情识别方法及系统

Country Status (1)

Country Link
CN (1) CN112766112B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113869234B (zh) * 2021-09-29 2024-05-28 中国平安财产保险股份有限公司 人脸表情识别方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408440A (zh) * 2014-12-10 2015-03-11 重庆邮电大学 一种基于两步降维和并行特征融合的人脸表情识别方法
CN106599854A (zh) * 2016-12-19 2017-04-26 河北工业大学 基于多特征融合的人脸表情自动识别方法
CN107491740A (zh) * 2017-07-28 2017-12-19 北京科技大学 一种基于面部表情分析的新生儿疼痛识别方法
CN109409296A (zh) * 2018-10-30 2019-03-01 河北工业大学 将人脸表情识别和语音情感识别融合的视频情感识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619301B (zh) * 2019-09-13 2023-04-18 道和安邦(天津)安防科技有限公司 一种基于双模态信号的情绪自动识别方法
CN111582212B (zh) * 2020-05-15 2023-04-18 山东大学 一种基于运动单元的多域融合微表情检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408440A (zh) * 2014-12-10 2015-03-11 重庆邮电大学 一种基于两步降维和并行特征融合的人脸表情识别方法
CN106599854A (zh) * 2016-12-19 2017-04-26 河北工业大学 基于多特征融合的人脸表情自动识别方法
CN107491740A (zh) * 2017-07-28 2017-12-19 北京科技大学 一种基于面部表情分析的新生儿疼痛识别方法
CN109409296A (zh) * 2018-10-30 2019-03-01 河北工业大学 将人脸表情识别和语音情感识别融合的视频情感识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Combining feature-level and decision-level fusion in a hierarchical classifier for emotion recognition in the wild;Bo Sun et al.,;《J Multimodal User Interfaces》;20151118;第1-13页 *
基于混合特征的人脸表情识别算法研究;吴越;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20190915(第09期);论文第7-56页 *
融合特征基于深度多核学习的动态表情识别;何秀玲 等;《计算机应用与软件》;20180531;第35卷(第5期);第218-223页 *

Also Published As

Publication number Publication date
CN112766112A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
Mäkinen et al. An experimental comparison of gender classification methods
Senechal et al. Combining AAM coefficients with LGBP histograms in the multi-kernel SVM framework to detect facial action units
Samad et al. Extraction of the minimum number of Gabor wavelet parameters for the recognition of natural facial expressions
Khan et al. Gender classification using image processing techniques: A survey
Al-Sumaidaee et al. Facial expression recognition using local Gabor gradient code-horizontal diagonal descriptor
Moallem et al. Fuzzy inference system optimized by genetic algorithm for robust face and pose detection
Saeed A framework for recognition of facial expression using HOG features
George et al. Smile detection from still images using KNN algorithm
Huang et al. A multi-expert approach for robust face detection
CN112766112B (zh) 基于时空多特征融合的动态表情识别方法及系统
Patil et al. Expression invariant face recognition using semidecimated DWT, Patch-LDSMT, feature and score level fusion
Tofighi et al. A robust face recognition system in image and video
Kaushik et al. Recognition of facial expressions extracting salient features using local binary patterns and histogram of oriented gradients
Azizan et al. Facial emotion recognition: a brief review
CN112580527A (zh) 一种基于卷积长短期记忆网络的人脸表情识别方法
Kamarajugadda et al. Stride towards aging problem in face recognition by applying hybrid local feature descriptors
Brahmbhatt et al. Survey and analysis of extraction of human face features
Starostenko et al. Real-time facial expression recognition using local appearance-based descriptors
Piątkowska et al. Computer recognition of facial expressions of emotion
Wijaya et al. Phonographic image recognition using fusion of scale invariant descriptor
Ye et al. Cascaded convolutional neural network for eye detection under complex scenarios
Bayana et al. Gender classification based on fusion of facial components features
Suthar et al. A literature survey on facial expression recognition techniques using appearance based features
Navraan et al. Automatic Facial Emotion Recognition Method Based on Eye Region Changes
Harakannanavar et al. Performance evaluation of Fusion based efficient algorithm for facial expression recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant