CN113449661B - 一种基于注意力机制的自适应微表情识别方法 - Google Patents
一种基于注意力机制的自适应微表情识别方法 Download PDFInfo
- Publication number
- CN113449661B CN113449661B CN202110758045.5A CN202110758045A CN113449661B CN 113449661 B CN113449661 B CN 113449661B CN 202110758045 A CN202110758045 A CN 202110758045A CN 113449661 B CN113449661 B CN 113449661B
- Authority
- CN
- China
- Prior art keywords
- image
- feature vector
- representing
- micro
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于注意力机制的自适应微表情识别方法,包括如下步骤:对微表情数据库的图像序列进行一系列的预处理工作;每个微表情序列作为一个样本,从每个序列中以一定的间隔选取一定数量的图像,选取的每张图像采用基于运动放大的方法放大1‑9倍;在一组不同的放大图像间添加注意力权重,并将其最终整合成一个特征向量;对于同一序列下的一组图像对应的一组向量,通过注意力机制对这些向量施加不同的注意力权重,再次以相同方式将这些向量整合成一个向量;将最终表示向量送入网络进行训练;获取待识别的微表情图像序列,按照上述方式得到最终表示向量后,输出情感类别。本发明能够获得更高的识别准确率。
Description
技术领域
本发明涉及微表情数据情感识别技术领域,尤其是一种基于注意力机制的自适应微表情识别方法。
背景技术
微表情是指当一个人试图掩藏自己的真实情绪时,不经意泄露出的表情状态。它的持续时间一般在0.065-0.5秒之间,且强度微弱,肉眼难以捕捉。相比于有意识的表情,微表情更能反映人们的真实感受和动机,应用前景广阔。针对微表情微弱的特性,许多研究方法首先采用某种方法对表情强度进行放大,之后基于放大的表情进行识别。而在实际强度放大过程中,不同受试者之间,同一受试者的不同表情之间存在很大差异,对于有的微表情,较小的放大倍数就可以产生比较明显的效果,而对于另外一些微表情,放大倍数则要设置的比较大才能看到效果,传统的方法没有考虑到这一问题,直接对所有的微表情设置同一个放大强度,这极大可能会影响后续的识别性能。
注意力机制是一种将同等看待变为差别对待的方式,结合深度网络的学习过程,可以自动地为有利于提高分类性能的特征赋予更大的注意力权重,在图像识别领域应用广泛。
发明内容
本发明所要解决的技术问题在于,提供一种基于注意力机制的自适应微表情识别方法,能够获得更高的识别准确率。
为解决上述技术问题,本发明提供一种基于注意力机制的自适应微表情识别方法,包括如下步骤:
(1)获取一个微表情数据库,对数据库中的所有图像序列进行人脸检测,人脸校准,面部区域裁剪的工作,最终获得只包含面部区域的图像,数据库中的一个受试者作为测试集,剩下的最为训练集;
(2)从预处理后的每个微表情图像序列中以一定的间隔选取一定数量的图像,每张图像采用基于运动放大的方法依次放大1-9倍;
(3)对单张图像的一组放大图像使用Resnet-18骨干网络进行特征提取,得到每个放大图像对应的特征向量,对这一组特征向量使用注意力机制,注意力机制由一个全连接层和一个sigmoid函数组成,添加了注意力权重的特征向量之后被整合为一个向量;
(4)经过上述步骤,序列中的每张图像都对应有一个特征向量,对同一序列中的这些特征向量再次使用注意力机制,添加了注意力权重的特征向量再次被整合成为一个向量;
(5)将经过上述步骤得到的特征向量经过一个全连接层,全连接层的输出维度与数据库的表情类别数一致,在全连接层后添加softmax层,计算训练数据对应的softmax层输出以及其情感类别标签之间的交叉熵,将该交叉熵作为网络损失,采用反向传播算法更新网络参数,完成网络训练;
(6)将测试数据集以同样的方式进行预处理,得到其对应的特征向量,并将特征向量输入训练好的网络,输出中维数最大的类别即为识别的情感类别。
优选的,步骤(2)中所述放大图像的表示为:
Imagnified=Ionset+(Iseleted-Ionset)×ampi
式中,对于一个微表情序列样本,Imagnified表示放大后图像,Ionset表示微表情序列的起始帧,Iselected表示选取的图像帧,ampi表示放大因子,值设置为1-9。
优选的,步骤(3)中所述使用Resnet-18骨干网络进行特征提取得到方法图像对应的特征向量的计算方法为:
Fi=f(conv(Imagnified,Wc)+bc)
式中,Fi表示放大图像对应的特征向量,Imagnified表示骨干网络的输入,WC、bC分别为权重参数、偏置参数,有一部分通过网络训练得到,另外一部分为骨干网络原始参数不参与更新,conv()表示卷积函数,φ为激活函数,且φ(·)=max(0,·)。
优选的,步骤(3)中所述对每张放大图像施加注意力权重的计算方法为:
优选的,步骤(3)中所述将添加注意力权重的特征向量整合为一个特征向量的计算方法为:
优选的,步骤(4)中所述对序列中每张图像对应的整合后的特征向量施加注意力权重值的计算方法为:
优选的,步骤(4)中所述添加了注意力权重的特征向量再次被整合成为一个向量的计算方法为:
优选的,步骤(5)中所述网络损失的计算方法为:
式中,c表示情感类别数,pi为训练数据库中存储的微表情序列对应的情感类别,qi表示Fv输入到最后的全连接层和softmax层之后,softmax层输出的情感类别,即预测的情感类别。
本发明的有益效果为:本发明提供了一种基于注意力机制的自适应微表情识别方法,该方法针对传统微表情放大过程中由于个体差异导致的效果不理想的问题,采用深度网络结合注意力机制的方法,使网络在训练过程中能够自动为合适的放大强度分配高注意力权重,从而提高模型的识别准确率。
附图说明
图1为本发明的方法流程示意图。
图2为本发明一个微表情序列样本的选取及放大过程示意图。
图3为本发明建立的在放大图像间添加注意力机制的结构示意图。
图4为本发明建立的在特征向量间添加注意力机制的结构示意图。
图5为本发明建立的两种注意力机制结合卷积神经网络进行训练的流程示意图。
具体实施方式
如图1所示,一种基于注意力机制的自适应微表情识别方法,包括如下步骤:
(1)获取一个微表情数据库,对数据库中的所有图像序列进行人脸检测,人脸校准,面部区域裁剪的工作,最终获得只包含面部区域的图像,数据库中的一个受试者作为测试集,剩下的最为训练集;
(2)从预处理后的每个微表情图像序列中以一定的间隔选取一定数量的图像,每张图像采用基于运动放大的方法依次放大1-9倍。整个选取及放大过程如图2所示。
其中,所述放大图像的表示为
Imagnified=Ionset+(Iseleted-Ionset)×ampi
式中,Imagnified表示放大后图像,Ionset表示微表情序列的起始帧,Iselected表示选取的图像帧,ampi表示放大因子,值设置为1-9。
(3)对单张图像的一组放大图像使用Resnet-18骨干网络进行特征提取,得到每个放大图像对应的特征向量,对这一组特征向量使用注意力机制,注意力机制由一个全连接层和一个sigmoid函数组成,添加了注意力权重的特征向量之后被整合为一个向量,具体如图3所示。
其中,所述使用Resnet-18骨干网络进行特征提取得到方法图像对应的特征向量的计算方法为:
Fi=f(conv(Imagnified,Wc)+bc)
式中,Fi表示放大图像对应的特征向量,Imagnified表示骨干网络的输入,WC、bC分别为权重参数、偏置参数,有一部分通过网络训练得到,另外一部分为骨干网络原始参数不参与更新,conv()表示卷积函数,φ为激活函数,且φ(·)=max(0,·)。
所述对每张放大图像的特征向量施加注意力权重的计算方法为:
所述将添加注意力权重的特征向量整合为一个特征向量的计算方法为:
(4)经过上述步骤,序列中的每张图像都对应有一个特征向量,对同一序列中的这些特征向量再次使用注意力机制,添加了注意力权重的特征向量再次被整合成为一个向量,具体如图4所示。
其中,所述对序列中每张图像对应的整合后的特征向量施加注意力权重值的计算方法为:
所述添加了注意力权重的特征向量再次被整合成为一个向量的计算方法为:
(5)将经过上述步骤得到的特征向量经过一个全连接层,全连接层的输出维度与数据库的表情类别数一致,在全连接层后添加softmax层,计算训练数据对应的softmax层输出以及其情感类别标签之间的交叉熵,将该交叉熵作为网络损失,采用反向传播算法更新网络参数,完成网络训练,具体如图5所示。
其中,所述网络损失的计算方法为:
式中,c表示情感类别数,pi为训练数据库中存储的微表情序列对应的情感类别,qi表示Fv输入到最后的全连接层和softmax层之后,softmax层输出的情感类别,即预测的情感类别。
(6)将测试数据集以同样的方式进行预处理,得到其对应的特征向量,并将特征向量输入训练好的网络,输出中维数最大的类别即为识别的情感类别。
下面以CASME II微表情数据库的情感识别人物为例进行验证,验证结果如表1所示:
表1
其中LBP-TOP+AdaBoost、SIP+MOP为基于传统的手工提取表情特征与机器学习方法结合的微表情情感识别方法,CNN+LSTM为未进行表情放大,直接使用卷积神经网络进行特征提取和识别的方法,TSCNN-I,Graph-TCN分别为基于欧拉视频放大和运动放大的方法对微表情进行情感识别的模型,AIAN为基于注意力机制的自适应微表情识别模型。
实验结果表明,基于所使用的注意力机制结合卷积神经网络的模型取得了最高的微表情识别准确率。在CASME II微表情数据的情感识别任务中,本发明提出的模型相对于其它传统的方法起到了更好的识别结果。相较于其他方法,本发明成功地增加了神经网络模型的鲁棒性,提高了微表情情感识别的准确率。
Claims (8)
1.一种基于注意力机制的自适应微表情识别方法,其特征在于,包括如下步骤:
(1)获取一个微表情数据库,对数据库中的所有图像序列进行人脸检测,人脸校准,面部区域裁剪的工作,最终获得只包含面部区域的图像,数据库中的一个受试者作为测试集,剩下的最为训练集;
(2)从预处理后的每个微表情图像序列中以一定的间隔选取一定数量的图像,每张图像采用基于运动放大的方法依次放大1-9倍;
(3)对单张图像的一组放大图像使用Resnet-18骨干网络进行特征提取,得到每个放大图像对应的特征向量,对这一组特征向量使用注意力机制,注意力机制由一个全连接层和一个sigmoid函数组成,添加了注意力权重的特征向量之后被整合为一个向量;
(4)经过上述步骤,序列中的每张图像都对应有一个特征向量,对同一序列中的这些特征向量再次使用注意力机制,添加了注意力权重的特征向量再次被整合成为一个向量;
(5)将经过上述步骤得到的特征向量经过一个全连接层,全连接层的输出维度与数据库的表情类别数一致,在全连接层后添加softmax层,计算训练数据对应的softmax层输出以及其情感类别标签之间的交叉熵,将该交叉熵作为网络损失,采用反向传播算法更新网络参数,完成网络训练;
(6)将测试数据集以同样的方式进行预处理,得到其对应的特征向量,并将特征向量输入训练好的网络,输出中维数最大的类别即为识别的情感类别。
2.如权利要求1所述的基于注意力机制的自适应微表情识别方法,其特征在于,步骤(2)中所述放大图像的表示为:
Imagnified=Ionset+(Iseleted-Ionset)×ampi
式中,Imagnified表示放大后图像,Ionset表示微表情序列的起始帧,Iselected表示选取的图像帧,ampi表示放大因子,值设置为1-9。
3.如权利要求1所述的基于注意力机制的自适应微表情识别方法,其特征在于,步骤(3)中所述使用Resnet-18骨干网络进行特征提取得到方法图像对应的特征向量的计算方法为:
Fi=f(cony(Imagnified,Wc)+bc)
式中,Fi表示放大图像对应的特征向量,Imagnified表示骨干网络的输入,WC、bC分别为权重参数、偏置参数,有一部分通过网络训练得到,另外一部分为骨干网络原始参数不参与更新,conv()表示卷积函数,φ为激活函数,且φ(·)=max(0,·)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110758045.5A CN113449661B (zh) | 2021-07-05 | 2021-07-05 | 一种基于注意力机制的自适应微表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110758045.5A CN113449661B (zh) | 2021-07-05 | 2021-07-05 | 一种基于注意力机制的自适应微表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113449661A CN113449661A (zh) | 2021-09-28 |
CN113449661B true CN113449661B (zh) | 2022-11-25 |
Family
ID=77815065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110758045.5A Active CN113449661B (zh) | 2021-07-05 | 2021-07-05 | 一种基于注意力机制的自适应微表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113449661B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114743235A (zh) * | 2022-03-01 | 2022-07-12 | 东南大学 | 基于稀疏化自注意力机制的微表情识别方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516571A (zh) * | 2019-08-16 | 2019-11-29 | 东南大学 | 基于光流注意力神经网络的跨库微表情识别方法及装置 |
CN112307958A (zh) * | 2020-10-30 | 2021-02-02 | 河北工业大学 | 基于时空外观运动注意力网络的微表情识别方法 |
-
2021
- 2021-07-05 CN CN202110758045.5A patent/CN113449661B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516571A (zh) * | 2019-08-16 | 2019-11-29 | 东南大学 | 基于光流注意力神经网络的跨库微表情识别方法及装置 |
CN112307958A (zh) * | 2020-10-30 | 2021-02-02 | 河北工业大学 | 基于时空外观运动注意力网络的微表情识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113449661A (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106782602B (zh) | 基于深度神经网络的语音情感识别方法 | |
CN113496217B (zh) | 视频图像序列中人脸微表情识别方法 | |
CN109508669B (zh) | 一种基于生成式对抗网络的人脸表情识别方法 | |
CN110188343B (zh) | 基于融合注意力网络的多模态情感识别方法 | |
CN108256482B (zh) | 一种基于卷积神经网络进行分布学习的人脸年龄估计方法 | |
CN111339847B (zh) | 一种基于图卷积神经网络的人脸情绪识别方法 | |
CN112036288B (zh) | 基于跨连接多特征融合卷积神经网络的面部表情识别方法 | |
CN110675859B (zh) | 结合语音与文本的多情感识别方法、系统、介质及设备 | |
CN107203953A (zh) | 一种基于互联网、表情识别和语音识别的教学系统及其实现方法 | |
Senthilkumar et al. | Speech emotion recognition based on Bi-directional LSTM architecture and deep belief networks | |
CN111292765B (zh) | 一种融合多个深度学习模型的双模态情感识别方法 | |
CN112686048B (zh) | 基于语音、语义、面部表情融合的情绪识别方法及装置 | |
CN112131383A (zh) | 特定目标的情感极性分类方法 | |
CN109558935A (zh) | 基于深度学习的情感识别与交互方法及系统 | |
CN110349588A (zh) | 一种基于词嵌入的lstm网络声纹识别方法 | |
CN111242155A (zh) | 一种基于多模深度学习的双模态情感识别方法 | |
CN112580555B (zh) | 一种自发微表情识别方法 | |
CN108877812B (zh) | 一种声纹识别方法、装置及存储介质 | |
CN113449661B (zh) | 一种基于注意力机制的自适应微表情识别方法 | |
CN113243924A (zh) | 基于脑电信号通道注意力卷积神经网络的身份识别方法 | |
CN115393933A (zh) | 一种基于帧注意力机制的视频人脸情绪识别方法 | |
CN110992988A (zh) | 一种基于领域对抗的语音情感识别方法及装置 | |
CN111523367B (zh) | 基于人脸属性分析的智能化人脸表情识别方法与系统 | |
CN111091809B (zh) | 一种深度特征融合的地域性口音识别方法及装置 | |
CN109961152B (zh) | 虚拟偶像的个性化互动方法、系统、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |