CN110738102A - 一种人脸识别方法及系统 - Google Patents

一种人脸识别方法及系统 Download PDF

Info

Publication number
CN110738102A
CN110738102A CN201910832294.7A CN201910832294A CN110738102A CN 110738102 A CN110738102 A CN 110738102A CN 201910832294 A CN201910832294 A CN 201910832294A CN 110738102 A CN110738102 A CN 110738102A
Authority
CN
China
Prior art keywords
feature
facial
expression
action units
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910832294.7A
Other languages
English (en)
Other versions
CN110738102B (zh
Inventor
谢圆
陈添水
蒲韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DMAI Guangzhou Co Ltd
Original Assignee
Dark Matter (hong Kong) Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dark Matter (hong Kong) Intelligent Technology Co Ltd filed Critical Dark Matter (hong Kong) Intelligent Technology Co Ltd
Priority to CN201910832294.7A priority Critical patent/CN110738102B/zh
Publication of CN110738102A publication Critical patent/CN110738102A/zh
Application granted granted Critical
Publication of CN110738102B publication Critical patent/CN110738102B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Abstract

本发明公开了一种人脸表情识别方法及系统,方法包括:获取待识别的人脸图像,人脸图像包括多个面部动作单元,面部动作单元与表情之间及面部动作单元之间存在依赖关系;利用神经网络的主干网络获取表征人脸图像全局特性的第一特征;根据预设人脸动作单元与表情之间关系在第一特征的基础上,提取表征面部动作单元局部特性的第二特征;将第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征;将第三特征与第一特征进行拼接得到第四特征,根据第四特征进行人脸表情预测。本发明实施例通过引入表情‑动作单元的关系和动作单元自身的关系,结合表情和动作单元知识交互来辅助特征的提取,从而做到对人脸表情的更准确的识别。

Description

一种人脸识别方法及系统
技术领域
本发明涉及图像识别技术领域,具体涉及一种人脸识别方法及系统。
背景技术
人脸表情是传达人的情绪的重要信号,自动化的表情识别可以辅助机器人交互,智慧医疗,用户解析等应用,因而长期以来存在大量的研究工作,主要集中于受控环境中七类基本表情(平静,高兴,生气,悲伤,讨厌,惊讶,害怕)的自动化识别。相关地,动作单元定义的是人脸特定区域肌肉的运动,如嘴角肌肉上扬,下巴下落。根据动作单元编码系统,每个基本表情都能精确地被定义为一系列动作单元的组合,因而动作单元在自动化表情识别中也起到了重要作用。
近年来,研究领域开始出现了反映真实场景的大规模数据集。同之前在实验室场景下收集的数据相比,这些数据集由于在姿势,场景,光照等条件下都有很大的变化,所以对识别的方法带来了很大的挑战。以前手工标识的特征由于难以捕捉到真实场景下巨大的差异性信息,特征表达能力不足,在新出现的数据集上的效果比较差。
发明内容
因此,本发明提供的一种人脸识别方法及系统,克服了现有技术中对多样的数据集进行人脸表情识别效果差的缺陷。
第一方面,本发明实施例提供一种人脸表情识别方法,包括如下步骤:获取待识别的人脸图像,所述人脸图像包括多个面部动作单元,所述面部动作单元与表情之间及面部动作单元之间存在依赖关系;利用神经网络的主干网络获取表征所述人脸图像全局特性的第一特征;根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征;将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征;将所述第三特征与所述第一特征进行拼接得到第四特征,根据所述第四特征进行人脸表情预测。
在一实施例中,所述利用神经网络获取表征所述人脸图像全局特性的第一特征的步骤,包括:将待识别的人脸图像的输入神经网络的主干网络,将不同层输出的不同分辨率的特征进行拼接,将得到的初步全局特征作为第一特征。
在一实施例中,所述根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征的步骤,包括:根据先验知识建立动作单元与表情的关系矩阵;利用所述关系矩阵获取与输入表情概率之间的对应关系,得到动作单元的概率分布;将所述动作单元概率作为伪标签对第一局部分支网络进行训练;将第一特征输入训练好的第一局部分支网络得到第二特征。
在一实施例中,所述将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征的步骤,包括:将所述第一特征与第二特征通过低秩化的双线性池化操作进行融合,生成融合特征;将面部动作单元之间的依赖关系作为约束条件,利用表情标签对所述融合特征进行训练,得到特定表情对应的面部动作单元的概率向量;将所述概率向量作为权重对所述第二特征进行加权融合,得到第三特征。
在一实施例中,所述将面部动作单元之间的依赖关系作为约束条件,利用表情标签对所述融合特征进行训练,得到特定表情对应的面部动作单元的概率向量的步骤,包括:设置损失函数,所述损失函数包括表情分类的交叉熵损失及动作单元相关性损失;根据所述损失函数训练第二局部分支网络;将满足所述损失函数约束的第二局部分支网络的输出值作为动作单元的概率向量。
在一实施例中,所述概率向量通过以下公式计算:
Figure BDA0002191105750000031
其中,tanh(·)是非线性激活函数,⊙是像素级别的点乘操作、
Figure BDA0002191105750000032
Figure BDA0002191105750000033
P∈Rd×1均是可学习的参数矩阵,fe为第一特征,fi a为第二特征,b为偏差值,de是表情的种类数量,da是面部动作单元的种类数量,d是中间维度参数。
在一实施例中,所述将所述概率向量作为权重对所述第二特征进行加权融合,得到第三特征的步骤通过以下公式计算:
Figure BDA0002191105750000034
其中,fa是第三特征,
Figure BDA0002191105750000035
是概率向量,fi a是第二特征。
第二方面,本发明实施例提供一种人脸表情识别方法系统,包括:人脸图像获取模块,用于获取待识别的人脸图像,所述人脸图像包括多个面部动作单元,所述面部动作单元与表情之间及面部动作单元之间存在依赖关系;第一特征获取模块,用于利用神经网络的主干网络获取表征所述人脸图像全局特性的第一特征;第二特征获取模块,根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征;第三特征获取模块,将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征;人脸表情预测预测模块,将所述第三特征与所述第一特征进行拼接得到第四特征,根据所述第四特征进行人脸表情预测。
第三方面,本发明实施例提供一种计算机设备,包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行本发明实施例第一方面所述的人脸表情识别方法。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行本发明实施例第一方面所述的人脸表情识别方法。
本发明技术方案,具有如下优点:
本发明实施例提供的一种人脸表情识别方法及系统,获取待识别的人脸图像,人脸图像包括多个面部动作单元,面部动作单元与表情之间及面部动作单元之间存在依赖关系;利用神经网络的主干网络获取表征人脸图像全局特性的第一特征;根据预设人脸动作单元与表情之间关系在第一特征的基础上,提取表征面部动作单元局部特性的第二特征;将第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征;将第三特征与第一特征进行拼接得到第四特征,根据第四特征进行人脸表情预测。本发明实施例通过引入表情-动作单元的关系和动作单元自身的关系,结合表情和动作单元知识交互来辅助特征的提取,从而做到对人脸表情的更准确的识别。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的人脸表情识别方法的一个具体示例的流程图;
图2为本发明实施例提供的表情-动作单元之间的关系的一个示意图;
图3为本发明实施例提供的动作单元之间的关系的一个示意图;
图4为本发明实施例提供的利用神经网络进行特征提取及表情识别过程的示意图;
图5为本发明实施例提供的提取表征面部动作单元局部特性的第二特征的一个具体示例的流程图;
图6为本发明实施例提供的获取第三特征的一个具体示例的流程图;
图7为本发明实施例提供的获取动作单元的概率向量一个具体示例的流程图;
图8为本发明实施例提供的人脸表情识别系统的一个具体示例的组成图;
图9为本发明实施例提供的计算机设备一个具体示例的组成图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1
本发明实施例提供的人脸表情识别方法,可以应用于有人脸表情识别需求的应用领域,例如:智慧医疗,智能交通等,通过终端在获取到人脸图像后对人脸的表情进行识别。如图1所示,该人脸表情识别方法包括如下步骤:
步骤S1:获取待识别的人脸图像,所述人脸图像包括多个面部动作单元,所述面部动作单元与表情之间及面部动作单元之间存在依赖关系。
本发明实施例中,涉及的人脸表情包括:平静,高兴,生气,悲伤,讨厌,惊讶,害怕等;面部动作单元是人脸特定区域肌肉的运动,本发明实施例涉及人脸的17个面部动作单元。人脸相关的研究指出,如图2所示,每个表情都和几个动作单元有关,即每个基本表情都能精确地被定义为一系列动作单元的组合(例如,嘴角上扬和脸颊上提的面部动作组合可以对应“高兴”的表情,例如眉毛下压和嘴巴下拉的面部动作组合可以对应“生气”的表情,等等,以上仅以此举例,不以此为限),因此动作单元在自动化表情识别中起到了重要作用。另外,如图3所示,不同的动作单元AU之间也存在着很强的依赖关系,有一些面部动作单元为正相关关系会经常同时出现(例如,脸颊上提和嘴角上扬),而有的面部动作单元是负相关关系会互斥性出现的(例如,眉毛上扬和嘴角下垂)。
步骤S2:利用神经网络的主干网络获取表征所述人脸图像全局特性的第一特征。
本发明实施例中,如图4所示,将待识别的人脸图像的输入神经网络的主干网络,将不同层输出的不同分辨率的特征进行拼接,将得到的初步全局特征作为第一特征。
在一具体实施例中,人脸图像的输入大小为224x224,包括RGB三个通道。本发明选取了101层的残差网络作为主干网络。该网络的训练方式上使用表情标签作为监督,交叉熵函数作为损失函数,随机梯度下降作为优化器进行训练。根据分辨率的不同,残差网络的输出特征可以分为四组,分辨率分别:A组特征56x56,B组特征28x28,C组特征14x14,D组特征7x7,将这四组特征做两种处理:
1.A、B、C三组特征下采样到7x7的大小,然后和D组特征拼接在一起,作为全局的表情特征fe
2.B、C、D组特征上采样到56x56大小,和A组特征拼接在一起,作为输入步骤S3的初始特征fe′。
步骤S3:根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征。
本发明实施例中,选取了17个和表情任务最相关的动作单元,用17个结构相同,但是不共享权重的局部分支网络进行特征的提取。其中:
网络的结构:卷积层64-3x3,全连接层。
输入:每个动作单元都有对应的区域,可以通过脸部关键点进行定位,根据坐标映射的关系,为每个动作单元在步骤一生成的fe′上截取出对应区域的特征。
训练:用自动生成的动作单元概率伪动作单元标签进行局部分支网络的训练,训练过程中,固定住主干网络的权重,只训练局部分支网络。
步骤S4:将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征。本发明实施例中,引入知识约束的注意力机制对面部动作单元的特征进行有加强效果的融合,基于不同的面部动作单元之间存在的依赖关系的约束得到第三特征。
步骤S5:将所述第三特征与所述第一特征进行拼接得到第四特征,根据所述第四特征进行人脸表情预测。
本发明实施例中,将加强后的动作单元特征与步骤S2的表情特征进行拼接,基于拼接后的特征进行最终的表情预测。
本发明实施例提供的人脸表情识别方法,通过引入表情-动作单元的关系和动作单元自身的关系,结合表情和动作单元知识交互来辅助特征的提取,从而做到对人脸表情的更准确的识别。
在一实施例中,执行步骤S3的具体过程,如图5所示,可以包括以下步骤:
步骤S31:根据先验知识建立动作单元与表情的关系矩阵。
由于每个表情都和几个动作单元有关,这种相关关系可以进一步分为主相关关系和次相关关系。如果出现了某个表情,和该表情有主相关关系的动作单元有极高的出现概率,和该表情有次相关关系的动作单元有较高出现概率,而和该表情无关的动作单元的出现概率较低。根据这样的关系可以建立一个动作单元和表情的关系矩阵WEA,由于涉及的表情为7个,面部动作单元为17个,所以WEA为7*17的矩阵。
步骤S32:利用所述关系矩阵获取所述与输入表情概率之间的对应关系,得到动作单元的概率分布。
通过动作单元和表情的关系矩阵,可以在不需要额外动作单元标注的情况下,对输入的表情概率pe得到比较合理的动作单元的概率分布pa
pa=peWEA
其中pa={pa0,pa1,...,pA-1},每个元素pai表示对应的动作单元AUi的出现概率。本发明实施例中的表情概率pe是事先通过先验知识的统计结果及表情专家知识库进行标记训练得到的,根据表情概率pe和表情概率pe即可得到动作单元的概率分布。
步骤S33:将所述动作单元概率作为伪标签对第一局部分支网络进行训练。
本发明实施例将动作单元概率作为伪标签对局部分支网络进行训练,从而实现对动作单元表达形式领域自适应的学习,经过这个步骤训练后的局部分支网络可以用于动作单元特征的提取。
步骤S34:将第一特征输入训练好的第一局部分支网络得到第二特征。
本发明实施例,将得到的初始全局特征输入到训练好的局部分支网络后可以得到动作单元特征。
在一实施例中,执行步骤S4的具体过程,如图6所示,可以包括以下步骤:
步骤S41:将所述第一特征与第二特征通过低秩化的双线性池化操作进行融合,生成融合特征。
本发明实施例将全局表情特征fe和局部分支网络得到的动作单元特征
Figure BDA0002191105750000101
通过低秩化的双线性池化操作进行融合,在其他实施例中也可以采用其他融合方式,采用本实施例的融合方式效果更优。
步骤S42:将面部动作单元之间的依赖关系作为约束条件,利用表情标签对所述融合特征进行训练,得到特定表情对应的面部动作单元的概率向量。在一实施中,如图7所示,可以具体包括以下步骤:
步骤S421:设置损失函数,所述损失函数包括表情分类的交叉熵损失及动作单元相关性损失。
由于不同的动作单元之间也存在着很强的依赖关系,有一些动作单元会经常同时出现,而有的动作单元是互斥性出现的。因此,学习的注意力系数也应该符合这样的依赖关系才具有合理性,因此需要制定一个损失函数来进行约束:
Figure BDA0002191105750000102
其中,
Figure BDA0002191105750000111
是交叉熵损失,
Figure BDA0002191105750000112
是本发明提出的动作单元相关性损失。具体地,考虑了动作单元的成对的正相关关系和负相关关系来定义
Figure BDA0002191105750000113
对于正相关的动作单元对i,j,它们出现的概率可以通过建模如下:
p(ii|i1)>p(i0|j1)
p(ii|i1)>p(i1|j0)
通过贝叶斯不等式和一系列变换转换后,上述概率公式等价为如下表示:
p(i1,j1)>p(i0,j1)
p(i1,j1)>p(i1,j0)
p(i1,j1)>p(ii)p(j1)
为了使参数模型符合上述关系的约束,正相关关系的损失可以定义为:
Figure BDA0002191105750000114
类似地,负相关关系的损失可以定义为:
Figure BDA0002191105750000115
进而动作单元相关性损失可以定义为以上两种约束的和:
Figure BDA0002191105750000116
步骤S422:根据所述损失函数训练第二局部分支网络。
步骤S423:将满足所述损失函数约束的第二局部分支网络的输出值作为动作单元的概率向量。
所述概率向量通过以下公式计算:
Figure BDA0002191105750000121
其中,tanh(·)是非线性激活函数,⊙是像素级别的点乘操作、
Figure BDA0002191105750000123
P∈Rd×1均是可学习的参数矩阵,fe为第一特征,fi a为第二特征,b为偏差值,de是表情的种类数量,da是面部动作单元的种类数量,d是中间维度参数。
步骤S43:将概率向量作为权重对所述第二特征进行加权融合,得到第三特征。
Figure BDA0002191105750000124
其中,fa是第三特征,
Figure BDA0002191105750000125
是概率向量,fi a是第二特征。所有动作单元特征进行加权融合,得到加强后的动作单元特征,即第三特征。
最终将上述过程得到的加强后的动作单元特征和全局特征通过以下公式进行拼接,进行表情的预测:
pe=fun([fa,fe])
其中,fa加强后的动作单元特征,fe为全局特征。
为了验证本发明实施例提供的人脸表情识别方法的有效性,选取了现有公开数据集中两个具有挑战性的数据集进行评测。这两个数据集是在非受控场景下收集的,难度较大,分别是RAF-DB(Real-world Affective Face Database,真实场景情感相关的人脸数据集),以及SFEW数据集(Static Facial Expressions in the Wild,自然环境下的静态人脸表情)。RAF-DB是现在学术界最大的自然场景的表情数据集之一,包括了29672张差异极大的人脸图片,图片来源于网络。作为最早的一批自然场景表情数据集,被学术界广泛使用,图片总量为1766张。以下对比实验基于这两个数据集的验证集进行评测。和该领域普遍采取的评测指标相同,本方法选择了所有表情类别的平均准确率进行方法之间的对比。
本发明分别在这两个数据集上现在最新的几个达到世界领先水平的方法进行对比。在RAF-DB的基本表情数据上,对比方法有CP(Covariance Pooling,协方差池化法),DLP-CNN(Deep Locality-Preserving Learning,深度局部性保持学习法),MRE-CNN(Multi-Region Ensemble CNN,基于多区域整合的卷积神经网络法)。表1展示了本发明提供的方法和上述对比方法在RAF-DB的基本表情上的预测的准确率的比较。
表1
除了基本表情,本发明还在RAF-DB上难度更高的复合表情数据进行上进行评测,对比的方法有BaseDCNN(基础深度卷积神经网络模型),CenterLoss(中心损失函数法),DLP-CNN(Deep Locality-Preserving Learning,深度局部性保持学习法)。表2展示了本发明提供的方法和上述对比方法在RAF-DB的复合表情数据上的预测的准确率的比较。
表2
方法 BaseDCNN CenterLoss DLP-CNN 本发明
平均准确率 40.2 40.0 44.6 51.1
在SFEW数据集上,对比方法有CP(Covariance Pooling,协方差池化法),DLP-CNN(Deep Locality-Preserving Learning,深度局部性保持学习法),IA-CNN(Identity-Aware Convolutional Neural Network,结合身份信息的卷积神经网络模型),MDNL(Multiple Deep Network Learning,多个深度网络模型结合法)。表3展示了本发明提供的方法和上述对比方法在SFEW的表情数据上的预测的准确率的比较。
表3
Figure BDA0002191105750000141
本发明在两个数据集和其他方法对比准确率都有较大提高,其中,特别是对于困难样本的识别的提升作用更明显。如表3的数据所示,对于其他方法都预测不好的类别,如“厌恶”,“害怕”(准确率特别低,分别不超过5%和15%),本发明的识别效果都有了大幅度的提高(17.4%和25.5%)。另外,复合表情相对于简单表情的识别难度更大,由表2可见本发明的方法和其他方法的准确率相比有大幅度提升。可见,针对现有方法的不足,本发明由于加入了先验的知识,在动作单元信息的辅助下,可以做到更精细化的表情识别。
实施例2
本发明实施例提供一种人脸表情识别方法系统,如图8所示,包括:
人脸图像获取模块1,用于获取待识别的人脸图像,所述人脸图像包括多个面部动作单元,所述面部动作单元与表情之间及面部动作单元之间存在依赖关系。此模块执行实施例1中的步骤S1所描述的方法,在此不再赘述。
第一特征获取模块2,用于利用神经网络的主干网络获取表征所述人脸图像全局特性的第一特征;此模块执行实施例1中的步骤S2所描述的方法,在此不再赘述。
第二特征获取模块3,根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征;此模块执行实施例1中的步骤S3所描述的方法,在此不再赘述。
第三特征获取模块4,将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征;此模块执行实施例1中的步骤S4所描述的方法,在此不再赘述。
人脸表情预测预测模块5,将所述第三特征与所述第一特征进行拼接得到第四特征,根据所述第四特征进行人脸表情预测。此模块执行实施例1中的步骤S5所描述的方法,在此不再赘述。
本发明实施例提供的人脸表情识别系统,通过引入表情-动作单元的关系和动作单元自身的关系,结合表情和动作单元知识交互来辅助特征的提取,从而做到对人脸表情的更准确的识别。
实施例3
本发明实施例提供一种计算机设备,如图9所示,包括:至少一个处理器401,例如CPU(Central Processing Unit,中央处理器),至少一个通信接口403,存储器404,至少一个通信总线402。其中,通信总线402用于实现这些组件之间的连接通信。其中,通信接口403可以包括显示屏(Display)、键盘(Keyboard),可选通信接口403还可以包括标准的有线接口、无线接口。存储器404可以是高速RAM存储器(Ramdom Access Memory,易挥发性随机存取存储器),也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器404可选的还可以是至少一个位于远离前述处理器401的存储装置。其中处理器401可以执行实施例1中的人脸表情识别方法。存储器404中存储一组程序代码,且处理器401调用存储器404中存储的程序代码,以用于执行实施例1中的人脸表情识别方法其中,通信总线402可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。通信总线402可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一条线表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器404可以包括易失性存储器(英文:volatile memory),例如随机存取存储器(英文:random-access memory,缩写:RAM);存储器也可以包括非易失性存储器(英文:non-volatile memory),例如快闪存储器(英文:flash memory),硬盘(英文:hard diskdrive,缩写:HDD)或固降硬盘(英文:solid-state drive,缩写:SSD);存储器404还可以包括上述种类的存储器的组合。
其中,处理器401可以是中央处理器(英文:central processing unit,缩写:CPU),网络处理器(英文:network processor,缩写:NP)或者CPU和NP的组合。
其中,处理器401还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(英文:application-specific integrated circuit,缩写:ASIC),可编程逻辑器件(英文:programmable logic device,缩写:PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(英文:complex programmable logic device,缩写:CPLD),现场可编程逻辑门阵列(英文:fiield-programmable gate array,缩写:FPGA),通用阵列逻辑(英文:generic arraylogic,缩写:GAL)或其任意组合。
可选地,存储器404还用于存储程序指令。处理器401可以调用程序指令,实现如本申请执行实施例1中的人脸表情识别方法。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机可执行指令,该计算机可执行指令可执行实施例1中的人脸表情识别方法。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)、随机存储记忆体(Random Access Memory,RAM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,缩写:HDD)或固降硬盘(Solid-State Drive,SSD)等;所述存储介质还可以包括上述种类的存储器的组合。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.一种人脸表情识别方法,其特征在于,包括如下步骤:
获取待识别的人脸图像,所述人脸图像包括多个面部动作单元,所述面部动作单元与表情之间及面部动作单元之间存在依赖关系;
利用神经网络的主干网络获取表征所述人脸图像全局特性的第一特征;
根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征;
将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征;
将所述第三特征与所述第一特征进行拼接得到第四特征,根据所述第四特征进行人脸表情预测。
2.根据权利要求1所述的人脸表情识别方法,其特征在于,所述利用神经网络获取表征所述人脸图像全局特性的第一特征的步骤,包括:
将待识别的人脸图像的输入神经网络的主干网络,将不同层输出的不同分辨率的特征进行拼接,将得到的初步全局特征作为第一特征。
3.根据权利要求1所述的人脸表情识别方法,其特征在于,所述根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征的步骤,包括:
根据先验知识建立动作单元与表情的关系矩阵;
利用所述关系矩阵获取与输入表情概率之间的对应关系,得到动作单元的概率分布;
将所述动作单元概率作为伪标签对第一局部分支网络进行训练;
将第一特征输入训练好的第一局部分支网络得到第二特征。
4.根据权利要求1所述的人脸表情识别方法,其特征在于,所述将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征的步骤,包括:
将所述第一特征与第二特征通过低秩化的双线性池化操作进行融合,生成融合特征;
将面部动作单元之间的依赖关系作为约束条件,利用表情标签对所述融合特征进行训练,得到特定表情对应的面部动作单元的概率向量;
将所述概率向量作为权重对所述第二特征进行加权融合,得到第三特征。
5.根据权利要求4所述的人脸表情识别方法,其特征在于,所述将面部动作单元之间的依赖关系作为约束条件,利用表情标签对所述融合特征进行训练,得到特定表情对应的面部动作单元的概率向量的步骤,包括:
设置损失函数,所述损失函数包括表情分类的交叉熵损失及动作单元相关性损失;
根据所述损失函数训练第二局部分支网络;
将满足所述损失函数约束的第二局部分支网络的输出值作为动作单元的概率向量。
6.根据权利要求4所述的人脸表情识别方法,其特征在于,所述概率向量通过以下公式计算:
Figure FDA0002191105740000021
其中,tanh(·)是非线性激活函数,⊙是像素级别的点乘操作、
Figure FDA0002191105740000031
Figure FDA0002191105740000032
P∈Rd×1均是可学习的参数矩阵,fe为第一特征,fi a为第二特征,b为偏差值,de是表情的种类数量,da是面部动作单元的种类数量,d是中间维度参数。
7.根据权利要求4所述的人脸表情识别方法,其特征在于,所述将所述概率向量作为权重对所述第二特征进行加权融合,得到第三特征的步骤通过以下公式计算:
Figure FDA0002191105740000033
其中,fa是第三特征,
Figure FDA0002191105740000034
是概率向量,fi a是第二特征。
8.一种人脸表情识别方法系统,其特征在于,包括:
人脸图像获取模块,用于获取待识别的人脸图像,所述人脸图像包括多个面部动作单元,所述面部动作单元与表情之间及面部动作单元之间存在依赖关系;
第一特征获取模块,用于利用神经网络的主干网络获取表征所述人脸图像全局特性的第一特征;
第二特征获取模块,根据预设人脸动作单元与表情之间关系利用神经网络的局部分支网络在所述第一特征的基础上,提取表征面部动作单元局部特性的第二特征;
第三特征获取模块,将所述第一特征与第二特征进行融合后,根据面部动作单元之间的依赖关系得到第三特征;
人脸表情预测预测模块,将所述第三特征与所述第一特征进行拼接得到第四特征,根据所述第四特征进行人脸表情预测。
9.一种计算机设备,其特征在于,包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行权利要求1-7任一所述的人脸表情识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行权利要求1-7任一所述的人脸表情识别方法。
CN201910832294.7A 2019-09-04 2019-09-04 一种人脸表情识别方法及系统 Active CN110738102B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910832294.7A CN110738102B (zh) 2019-09-04 2019-09-04 一种人脸表情识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910832294.7A CN110738102B (zh) 2019-09-04 2019-09-04 一种人脸表情识别方法及系统

Publications (2)

Publication Number Publication Date
CN110738102A true CN110738102A (zh) 2020-01-31
CN110738102B CN110738102B (zh) 2023-05-12

Family

ID=69267785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910832294.7A Active CN110738102B (zh) 2019-09-04 2019-09-04 一种人脸表情识别方法及系统

Country Status (1)

Country Link
CN (1) CN110738102B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626113A (zh) * 2020-04-20 2020-09-04 北京市西城区培智中心学校 一种基于面部动作单元的面部表情识别方法和装置
CN111680639A (zh) * 2020-06-11 2020-09-18 支付宝(杭州)信息技术有限公司 一种人脸识别验证方法、装置和电子设备
CN113095201A (zh) * 2021-04-07 2021-07-09 西北工业大学 基于人脸不同区域间自注意力和不确定性加权多任务学习的au程度估计模型建立方法
CN113486867A (zh) * 2021-09-07 2021-10-08 北京世纪好未来教育科技有限公司 人脸微表情识别方法、装置、电子设备及存储介质
CN113673303A (zh) * 2021-06-28 2021-11-19 中国科学院大学 一种人脸面部动作单元强度回归方法、装置和介质
CN113887487A (zh) * 2021-10-20 2022-01-04 河海大学 一种基于CNN-Transformer的面部表情识别方法及装置
CN115546878A (zh) * 2022-11-23 2022-12-30 华中科技大学 基于注意力机制的面部au检测模型建立方法及其应用
WO2024000233A1 (zh) * 2022-06-29 2024-01-04 中国科学院深圳理工大学(筹) 面部表情识别方法、装置、设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150205997A1 (en) * 2012-06-25 2015-07-23 Nokia Corporation Method, apparatus and computer program product for human-face features extraction
CN109766840A (zh) * 2019-01-10 2019-05-17 腾讯科技(深圳)有限公司 人脸表情识别方法、装置、终端及存储介质
CN110069994A (zh) * 2019-03-18 2019-07-30 中国科学院自动化研究所 基于人脸多区域的人脸属性识别系统、方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150205997A1 (en) * 2012-06-25 2015-07-23 Nokia Corporation Method, apparatus and computer program product for human-face features extraction
CN109766840A (zh) * 2019-01-10 2019-05-17 腾讯科技(深圳)有限公司 人脸表情识别方法、装置、终端及存储介质
CN110069994A (zh) * 2019-03-18 2019-07-30 中国科学院自动化研究所 基于人脸多区域的人脸属性识别系统、方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HUIBIN LI等: "An efficient multimodal 2D + 3D feature-based approach to automatic facial expression recognition", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626113A (zh) * 2020-04-20 2020-09-04 北京市西城区培智中心学校 一种基于面部动作单元的面部表情识别方法和装置
CN111680639A (zh) * 2020-06-11 2020-09-18 支付宝(杭州)信息技术有限公司 一种人脸识别验证方法、装置和电子设备
CN113095201B (zh) * 2021-04-07 2023-08-18 西北工业大学 基于人脸不同区域间自注意力和不确定性加权多任务学习的au程度估计模型建立方法
CN113095201A (zh) * 2021-04-07 2021-07-09 西北工业大学 基于人脸不同区域间自注意力和不确定性加权多任务学习的au程度估计模型建立方法
CN113673303A (zh) * 2021-06-28 2021-11-19 中国科学院大学 一种人脸面部动作单元强度回归方法、装置和介质
CN113673303B (zh) * 2021-06-28 2024-02-02 中国科学院大学 一种人脸面部动作单元强度回归方法、装置和介质
CN113486867A (zh) * 2021-09-07 2021-10-08 北京世纪好未来教育科技有限公司 人脸微表情识别方法、装置、电子设备及存储介质
CN113486867B (zh) * 2021-09-07 2021-12-14 北京世纪好未来教育科技有限公司 人脸微表情识别方法、装置、电子设备及存储介质
CN113887487A (zh) * 2021-10-20 2022-01-04 河海大学 一种基于CNN-Transformer的面部表情识别方法及装置
CN113887487B (zh) * 2021-10-20 2024-03-15 河海大学 一种基于CNN-Transformer的面部表情识别方法及装置
WO2024000233A1 (zh) * 2022-06-29 2024-01-04 中国科学院深圳理工大学(筹) 面部表情识别方法、装置、设备及可读存储介质
CN115546878A (zh) * 2022-11-23 2022-12-30 华中科技大学 基于注意力机制的面部au检测模型建立方法及其应用
CN115546878B (zh) * 2022-11-23 2023-02-03 华中科技大学 基于注意力机制的面部au检测模型建立方法及其应用

Also Published As

Publication number Publication date
CN110738102B (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN110738102A (zh) 一种人脸识别方法及系统
JP6843086B2 (ja) 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体
CN111104962B (zh) 图像的语义分割方法、装置、电子设备及可读存储介质
CN109471945B (zh) 基于深度学习的医疗文本分类方法、装置及存储介质
WO2021169116A1 (zh) 智能化的缺失数据填充方法、装置、设备及存储介质
US10719693B2 (en) Method and apparatus for outputting information of object relationship
CN109993102B (zh) 相似人脸检索方法、装置及存储介质
CN112800903B (zh) 一种基于时空图卷积神经网络的动态表情识别方法及系统
WO2021139191A1 (zh) 数据标注的方法以及数据标注的装置
CN110826596A (zh) 一种基于多尺度可变形卷积的语义分割方法
CN110222718B (zh) 图像处理的方法及装置
WO2022105117A1 (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN111428664B (zh) 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法
WO2022247005A1 (zh) 图像中目标物识别方法、装置、电子设备及存储介质
CN112395979A (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
CN113673482B (zh) 基于动态标签分配的细胞抗核抗体荧光识别方法及系统
CN113408570A (zh) 一种基于模型蒸馏的图像类别识别方法、装置、存储介质及终端
CN111523421A (zh) 基于深度学习融合各种交互信息的多人行为检测方法及系统
JP2015036939A (ja) 特徴抽出プログラム及び情報処理装置
CN111340213B (zh) 神经网络的训练方法、电子设备、存储介质
CN115966010A (zh) 一种基于注意力和多尺度特征融合的表情识别方法
CN113283336A (zh) 一种文本识别方法与系统
CN110390307B (zh) 表情识别方法、表情识别模型训练方法及装置
CN114913923A (zh) 针对单细胞染色质开放性测序数据的细胞类型识别方法
CN112686232B (zh) 基于微表情识别的教学评价方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210310

Address after: 16 / F, No. 37, Jinlong Road, Nansha District, Guangzhou City, Guangdong Province (office only)

Applicant after: DMAI (GUANGZHOU) Co.,Ltd.

Address before: Room 1901, 19 / F, Lee court I, 33 Hysan Road, Causeway Bay, Hong Kong, China

Applicant before: DARK MATTER (HONG KONG) INTELLIGENT TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant