CN111797683A - 一种基于深度残差注意力网络的视频表情识别方法 - Google Patents
一种基于深度残差注意力网络的视频表情识别方法 Download PDFInfo
- Publication number
- CN111797683A CN111797683A CN202010436500.5A CN202010436500A CN111797683A CN 111797683 A CN111797683 A CN 111797683A CN 202010436500 A CN202010436500 A CN 202010436500A CN 111797683 A CN111797683 A CN 111797683A
- Authority
- CN
- China
- Prior art keywords
- video
- expression
- network
- depth residual
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000008921 facial expression Effects 0.000 claims abstract description 17
- 238000012360 testing method Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 230000008451 emotion Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 9
- 210000000887 face Anatomy 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 4
- 210000001061 forehead Anatomy 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 9
- 238000012512 characterization method Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000002790 cross-validation Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- LTXREWYXXSTFRX-QGZVFWFLSA-N Linagliptin Chemical compound N=1C=2N(C)C(=O)N(CC=3N=C4C=CC=CC4=C(C)N=3)C(=O)C=2N(CC#CC)C=1N1CCC[C@@H](N)C1 LTXREWYXXSTFRX-QGZVFWFLSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 125000001495 ethyl group Chemical group [H]C([H])([H])C([H])([H])* 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度残差注意力网络的视频表情识别方法,包括以下步骤:S1、对视频样本进行视频数据预处理;S2、采用深度残差注意力网络进行人脸图像的表情特征提取;S3、对步骤S2中提取后的特征进行一定处理后再进行训练和测试,并输出最终的人脸表情的分类结果。本发明采用空间注意力机制实现,通过对输入的特征图生成空间分布上的权重,然后再与特征图加权求和,从而监督网络学习给人脸图像中与表情密切相关的不同区域分配不同的注意力(权重),能够聚焦于人脸图像中与表情密切相关的目标区域的特征学习,从而改善深度残差网络的特征表征能力,进一步提高视频表情识别的性能。
Description
技术领域
本发明涉及图像处理、模式识别的技术领域,尤其涉及一种基于深度残差注意力网络的视频表情识别方法。
背景技术
人与人之间的交流是富有情感的,情感的表达是人最原始的本能,情感的基本元素就是多种表情的聚合物。以往人们通过文字或照片来记录自己的生活。现在大多以视频博客、短视频等方式记录下重要的回忆和情绪的表达,如喜怒哀乐。
特征提取是视频表情识别的一个重要环节。在早期的视频表情识别中,研究者大多采用手工特征用于视频表情的分类。其中,代表性的手工特征主要包括:局部二值模式(LBP)、局部相位量化(LPQ)、梯度方向直方图(HOG)和尺度不变特征(SIFT)等。在动态的视频序列表情识别中,这些方法被更新为LBP-TOP、LPQ-TOP和3D-SIFT。虽然手工特征在视频表情识别领域得到了广泛的应用,但依旧属于低层次的特征。在视频情感识别中,视频含有丰富的情感信息,需要高层次的深度特征进行表达,而手工特征与高层次的主观性情感存在“语义鸿沟”的问题。
为了解决上述手工特征的不足之处,近年来研究者们提出了一系列深度神经网络用于视频表情中的识别。其中,代表性的深度神经网络模型包括:在2012年Imagenet图像分类比赛中获得第一名的AlexNet、通过加深网络层数来提高网络性能的VGG、利用Inception模块加宽网络结构提高网络性能的GoogleNet以及利用残差模块中的恒等映射原理加深网络层数来提升网络性能的深度残差网络ResNet。目前,研究者们已经尝试将上述网络用于视频表情识别,并取得了不错的效果。
虽然现有的深度神经网络拥有较强的特征提取能力,但是忽略了图像中各局部区域情感表示强度方面的差异性,从而限制了深度神经网络的特征表征能力,即现有的深度神经网络没有考虑人脸图像中各局部区域情感表示强度方面的差异性。
例如,一种在中国专利文献上公开的“一种基于混合深度学习的视频序列表情识别方法”(公告号CN201810880749.8),采用两个深度卷积神经网络模型,即时间卷积神经网络和空间卷积神经网络,分别从视频表情序列中提取高层次的时间特征和空间特征,然后采用深度信念网络实现时空特征的深度融合,并做平均池化运算,得到视频序列的全局特征,最后采用支持向量机实现视频表情序列的分类,该方法充分利用视频序列中的时空域信息,但没有考虑到人脸图像中各局部区域情感表示强度方面的差异性,未考虑到视频中的手工特征与主观性情感之间存在语义鸿沟的问题。
发明内容
本发明是为了克服现有技术中的视频表情识别没有考虑到人脸图像中各局部区域情感表示强度方面的差异性,未考虑到视频中的手工特征与主观性情感之间存在语义鸿沟的技术问题,提供一种基于深度残差注意力网络的视频表情识别方法,采用空间注意力机制实现,通过对输入的特征图生成空间分布上的权重,然后再与特征图加权求和,从而监督网络学习给人脸图像中与表情密切相关的不同区域分配不同的注意力(权重),能够聚焦于人脸图像中与表情密切相关的目标区域的特征学习,从而改善深度残差网络的特征表征能力,进一步提高视频表情识别的性能。
为了实现上述目的,本发明采用以下技术方案:
一种基于深度残差注意力网络的视频表情识别方法,所述方法包括以下步骤:
S1、对视频样本进行视频数据预处理;
S2、采用深度残差注意力网络进行人脸图像的表情特征提取;
S3、对步骤S2中提取后的特征进行一定处理后再进行训练和测试,并输出最终的人脸表情的分类结果。
本发明方案采用空间注意力机制实现,采用深度残差注意力网络进行人脸图像的表情特征提取,从而监督网络学习给人脸图像中与表情密切相关的不同区域分配不同的注意力(权重),能够聚焦于人脸图像中与表情密切相关的目标区域的特征学习,从而改善深度残差网络的特征表征能力,进一步提高视频表情识别的性能。
作为优选,所述步骤S1包括以下步骤:
S1.1、首先对每一个视频样本,筛选出峰值强度(apex)时期的图像帧;
S1.2、采用haar-cascades检测模型进行人脸检测。
作为优选,所述步骤S1.2中的人脸检测包括以下步骤:
步骤1、首先将输入的图片转为灰度图像,去除色彩干扰;
步骤2、设置搜索人脸框的大小,依次在输入图像中寻找人脸,找到人脸后截取后保存;
步骤3、根据两只眼睛之间的标准距离大小,从原始人脸表情图像中裁剪出包含嘴巴、鼻子、额头等关键表情部位的图像,作为深度残差注意力网络的输入。
作为优选,所述步骤S2包括以下步骤:
S2.1、建立深度残差注意力网络,并对预处理后的视频数据提取每一帧人脸图像的特征,建立视频情感数据集;
S2.2、利用其它数据集上预训练好的模型对所述的视频表情数据集进行微调训练。
微调被广泛用于计算机视觉中的转移学习,并缓解了数据不足的问题。
作为优选,所述深度残差注意力网络包括三个残差注意模块,所述残差注意模块包括主干分支和掩膜分支,所述主干分支包括残差单元。
由于单纯堆叠残差模块构成的网络结构在训练时梯度回传受阻,并且掩膜分支需要通过sigmoid激活函数输出权重归一化的特征图,再与主干分支特征图进行点积,这样特征图的输出响应会逐渐变小,以至于网络无法进行有效的训练,因此提出残差注意模块,可以促进神经网络提取更有效的人脸特征。
作为优选,所述步骤S2.2包括以下步骤:
步骤1、拷贝在cifar-10数据集上预训练好的深度残差注意力网络模型参数;
步骤2、将cifar-10的10类图像类别数目改为视频情感数据集的表情类别数目;
步骤3、使用反向传播算法重新训练该网络模型,以更新网络模型的权重参数;
步骤4、微调训练结束后,将深度残差注意力网络最后一层全连接层的输出作为学习到的高层次人脸表情特征,用于后续多层感知器的表情分类。
作为优选,所述步骤S2.2中微调训练的流程具体如下公式所示:
X={xi(i=1,2,...,N)} (1)
minH(P(xi),yi)=-∑x(P(xi)logyi) (2)
其中:i代表该视频中的第i帧图片,xi代表第i帧的人脸图像,yi表示该视频的表情标签,H表示最小化损失函数,P(xi)代表输入人脸图像xi时网络模型的输出预测值。
作为优选,所述残差注意模块由如下公式表示:
其中,所述Oi,k,c(x)表示残差注意模块输出特征,Ti,k,c(x)表示主干分支征输出特征,Si,k,c(x)∈[0,1]表示掩膜分支输出特征,(i,k)为特征的空间位置坐标,c∈{0,1,…,C}为特征通道的索引值。
作为优选,所述步骤S3包括以下步骤:完成视频中每一帧人脸图像的特征提取之后,对一个视频中所有帧图像学习到的注意力特征进行平均池化操作,计算出固定长度的全局性视频表情特征参数,将所述全局性视频表情特征参数输入到多层感知器进行训练和测试,获得人脸表情的分类结果。
本发明的有益效果是:通过对输入的特征图生成空间分布上的权重,然后再与特征图加权求和,从而监督网络学习给人脸图像中与表情密切相关的不同区域分配不同的注意力(权重),能够聚焦于人脸图像中与表情密切相关的目标区域的特征学习,从而改善深度残差网络的特征表征能力,进一步提高视频表情识别的性能。
附图说明
图1是本发明的一种流程图。
图2是本发明的一种视频表情识别模型示意图。
图3是本发明BAUM-1s数据集中的一种人脸表情图像。
图4是本发明RML数据集中的一种人脸表情图像。
图5是本发明BAUM-1s数据集上获得最终识别结果的一种混淆矩阵图。
图6是本发明RML数据集上获得最终识别结果的一种混淆矩阵图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例1:本实施例的一种基于深度残差注意力网络的视频表情识别方法,如图1所示,包括以下步骤:
S1、对视频样本进行视频数据预处理;
步骤S1包括以下步骤:
S1.1、首先对每一个视频样本,筛选出峰值强度(apex)时期的图像帧;
S1.2、采用haar-cascades检测模型进行人脸检测;步骤S1.2中的人脸检测包括以下步骤:
步骤1、首先将输入的图片转为灰度图像,去除色彩干扰;
步骤2、设置搜索人脸框的大小,依次在输入图像中寻找人脸,找到人脸后截取后保存;
步骤3、根据两只眼睛之间的标准距离大小,从原始人脸表情图像中裁剪出包含嘴巴、鼻子、额头等关键表情部位的图像,作为深度残差注意力网络的输入。
S2、采用深度残差注意力网络进行人脸图像的表情特征提取;步骤S2包括以下步骤:
S2.1、建立深度残差注意力网络,并对预处理后的视频数据提取每一帧人脸图像的特征,建立视频情感数据集;
如图2所示,深度残差注意力网络包括三个残差注意模块(attention module 1,2,3),残差注意模块包括主干分支(trunk branch)和掩膜分支(soft mask branch),其中主干分支由残差单元(residual unit)组成,主要用于提取人脸特征,而掩膜分支对残差单元使用自下而上(up-sample)的显著式注意力和自上而下(down-sample)的聚焦式注意力相结合的方式输出一个和主干分支特征维度大小相同的掩膜,该掩膜通过卷积(conv)和sigmoid函数输出权重归一化的特征图,再与主干分支的特征图进行点积(element-wiseproduce),然而采用此种单纯堆叠残差注意模块构成的网络结构再训练时候梯度回传容易受阻,特征图的输出相应会变小,针对以上不足,受到残差网络中短接机制的启发,假设输入的人脸图片为x,残差注意模块由如下公式表示:
其中,残差注意模块输出特征为Oi,k,c(x),主干分支输出特征为Ti,k,c(x),掩膜分支输出特征为Si,k,c(x)∈[0,1],其中(i,k)为特征的空间位置坐标,c∈{0,1,…,C}为特征通道的索引值。
残差注意模块中的掩膜分支提供的注意力可以促进神经网络提取更有效的人脸特征,此外,结合短接机制的思想,使得神经网络可以训练的更深,残差注意模块的堆叠方式使得神经网络能提炼出更有效的人脸特征。
本实施例中采用的深度残差注意力网络层数选择92层效果较好。
S2.2、由于视频情感数据集的样本比较少,直接用于训练深度残差注意力网络容易出现“过拟合”现象,故采用迁移学习的方法,利用其它数据集上预训练好的模型对视频表情数据集进行微调(fine-tuning)训练;本实施例采用的是在cifar-10图像数据集预先训练好的深度残差注意力网络模型,其中,该模型输入层的图片分辨率大小为32×32×32,最后一层全连接层的节点个数为1024。
步骤S2.2包括以下步骤:
步骤1、拷贝在cifar-10数据集上预训练好的深度残差注意力网络模型参数;
步骤2、将cifar-10的10类图像类别数目改为视频情感数据集的表情类别数目;
步骤3、使用反向传播算法重新训练该网络模型,以更新网络模型的权重参数;
步骤4、微调训练结束后,将深度残差注意力网络最后一层全连接层的输出作为学习到的高层次人脸表情特征,用于后续多层感知器的表情分类。
微调训练的流程具体如下公式所示:
X={xi|(i=1,2,...,N)} (1)
minH(P(xi),yi)=-∑x(P(xi)logyi) (2)
其中:i代表该视频中的第i帧图片,xi代表第i帧的人脸图像,yi表示该视频的表情标签,H表示最小化损失函数,P(xi)代表输入人脸图像xi时网络模型的输出预测值。这样,在视频情感数据集进行微调训练之后,深度残差注意力网络最后一层全连接层的输出(1024-D)作为学习到的高层次人脸表情特征,用于后续多层感知器(MLP)的表情分类。
S3、对步骤S2中提取后的特征进行一定处理后再进行训练和测试,并输出最终的人脸表情的分类结果:完成视频中每一帧人脸图像的特征提取之后,对一个视频中所有帧图像学习到的注意力特征进行平均池化操作,计算出固定长度(1024-D)的全局性视频表情特征参数,将全局性视频表情特征参数输入到多层感知器(MLP)进行训练和测试,获得人脸表情的分类结果。
使用的MLP的输入层节点等于1024,中间隐藏层有512个节点,输出层的节点数为视频情感数据集的类别数。
实验结果与分析:
采用两个公共的RML和BAUM-1s视频情感数据集用于评价本发明方法的视频表情识别性能。在深度残差注意力网络训练时,将batch的大小设为64,学习速率开始设为0.1,循环(epoch)次数达到10次,学习速率就降低10%,最大循环次数设为40。
实验平台为显存24GB的NVIDIA GPU,实验测试采用与测试对象无关的交叉验证方法。对于超过10个人的BAUM-1s数据集平均分成5组,进行5次交叉验证,而对于包含8个人的RML数据集则采用8次交叉验证,最后,取所有交叉验证结果的平均准确率作为实验的最终结果。
如图3所示,BAUM-1s数据集由31个人的8种基本表情组成,总共有1222个视频片段。本实验只采用其中的6种基本表情,分别为生气(Anger),厌恶(Disgust)、害怕(Fear)、高兴(Joy)、悲伤(Sadness)和惊奇(Surprise),共520个视频片段作为实验对象。视频中每帧图像的原始分辨率大小为720×576×3。
如图4所示,RML数据集由来自不同国家的8个人组成,该数据集共有720个视频片段,包含6种基本表情:生气(Anger)、厌恶(Disgust)、害怕(Fear)、高兴(Joy)、悲伤(Sadness)和惊奇(Surprise),每个视频片段的时长约为5s,视频中每帧图像的原始分辨率大小为:
720×480×3。
为了测试深度残差注意力网络的性能,表1给出了与不带有注意力机制的ResNet和VGG16网络的性能比较。使用的ResNet也含有92层,与上述深度残差注意力网络的层数一致。由表1可知,本发明的方法在BAUM-1s和RML上分别取得了56.72%和68.50%的正确识别率,明显优于不带注意力机制的ResNet和VGG16,这说明在ResNet中添加注意力机制有助于提升该网络模型的特征表达能力。
数据集 | ResNet | VGG16 | Ours |
BAUM-1s | 52.25% | 51.01% | 56.72% |
RML | 62.56% | 64.04% | 68.50% |
表1不同网络模型的识别结果比较
为了进一步说明本方法的有效性,表2列出了本发明方法与现有文献报道中的方法取得的实验结果比较。从表2可知,本发明方法在BAUM-1s取得了56.72%的正确识别率,优于现有文献报道的识别性能。
表2与现有文献报道的结果比较
例如,Shiqing Zhang等人采用3D卷积神经网络(3D-CNN)在BAUM1-s数据集上提取特征进行表情识别取得了50.11%的正确识别率(见文献:Zhang S,Pan X,Cui Y,etal.Learning affective video features for facial expression recognition viahybrid deep learning.IEEE Access,2019,7:32297-32304)。Zhalehpour等人通过提取LPQ特征在BAUM-1s数据集上取得了45.04%的正确识别率(见文献:Zhalehpour S,OnderO,Akhtar Z,et al.BAUM-1:A spontaneous audio-visual face database of affectiveand mental states.IEEE Transactions on Affective Computing,2016,8(3):300-313)。潘仙张等人采用多模深度卷积神经网络在BAUM-1s数据集上提取的深度时空特征取得了52.18%的正确识别率(见文献:潘仙张,张石清,郭文平.多模深度卷积神经网络应用于视频表情识别.光学精密工程,2019,27(04):230-237)。同样,本发明的方法在RML数据集上取得了68.50%,也比其它文献报道的结果要好。例如,Elmadany等人通过提取Gaborwavelet特征在RML数据集上获得的正确识别率为64.58%(见文献:Elmadany N E D,He Y,Guan L.Multiview emotion recognition via multi-set locality preservingcanonical correlation analysis.2016IEEE International Symposium on Circuitsand Systems(ISCAS),2016:590-593)。潘仙张等人在RML数据集上提取的深度时空特征取得了65.72%的正确识别率。可见,通过与上述现有文献报道的方法比较,充分说明了本发明方法的优势。
为了更直观的观察到深度残差注意力网络对各种表情的识别情况,图5和图6分别给出了本发明方法在BAUM-1s和RML数据集上获得最终识别结果的混淆矩阵。由图4可见,高兴(Joy)和惊奇(Surprise)识别效果比较好,正确识别率分别为78.74%和83.67%,而生气(Anger)和害怕(Fear)识别准确率较低,分别为44.12%和42.5%。该两种表情容易被误判为悲伤(Sadness),原因可能是这三种表情的区分度不高,造成网络模型误判。
由图5和图6可以看出,害怕(Fear)表情的识别性能最低,正确识别率为33.04%,而其它表情的识别效果较好,正确识别率超过70%。原因可能是RML数据集中害怕(Fear)表情的样本数目比其它表情样本数目少得多,致使网络模型无法较好地识别此类表情。
本发明在BAUM-1s和RML数据集上取得了较好的正确识别率,这表明结合空间注意力机制和残差网络可有效提高视频表情识别性能。
考虑到人脸图像中各局部区域情感表示强度方面的差异性,本发明提出一种基于深度残差注意力网络的视频表情识别方法,该方法采用空间注意力(权重)机制实现,具体是通过对输入的特征图生成空间分布上的权重,然后再与特征图加权求和,从而监督网络学习给人脸图像中与表情密切相关的不同区域分配不同的注意力(权重)。本发明能够聚焦于人脸图像中与表情密切相关的目标区域的特征学习,从而改善深度残差网络的特征表征能力,进一步提高视频表情识别的性能。
Claims (9)
1.一种基于深度残差注意力网络的视频表情识别方法,其特征在于,所述方法包括以下步骤:
S1、对视频样本进行视频数据预处理;
S2、采用深度残差注意力网络进行人脸图像的表情特征提取;
S3、对步骤S2中提取后的特征进行一定处理后再进行训练和测试,并输出最终的人脸表情的分类结果。
2.根据权利要求1所述的一种基于深度残差注意力网络的视频表情识别方法,其特征在于,所述步骤S1包括以下步骤:
S1.1、首先对每一个视频样本,筛选出apex时期的图像帧;
S1.2、采用haar-cascades检测模型进行人脸检测。
3.根据权利要求2所述的一种基于深度残差注意力网络的视频表情识别方法,其特征在于,所述步骤S1.2中的人脸检测包括以下步骤:
步骤1、首先将输入的图片转为灰度图像,去除色彩干扰;
步骤2、设置搜索人脸框的大小,依次在输入图像中寻找人脸,找到人脸后截取后保存;
步骤3、根据两只眼睛之间的标准距离大小,从原始人脸表情图像中裁剪出包含嘴巴、鼻子、额头等关键表情部位的图像,作为深度残差注意力网络的输入。
4.根据权利要求1所述的一种基于深度残差注意力网络的视频表情识别方法,其特征在于,所述步骤S2包括以下步骤:
S2.1、建立深度残差注意力网络,并对预处理后的视频数据提取每一帧人脸图像的特征,建立视频情感数据集;
S2.2、利用其它数据集上预训练好的模型对所述的视频表情数据集进行微调训练。
5.根据权利要求4所述的一种基于深度残差注意力网络的视频表情识别方法,其特征在于,所述深度残差注意力网络包括三个残差注意模块,所述残差注意模块包括主干分支和掩膜分支,所述主干分支包括残差单元。
6.根据权利要求4所述的一种基于深度残差注意力网络的视频表情识别方法,其特征在于,所述步骤S2.2包括以下步骤:
步骤1、拷贝在cifar-10数据集上预训练好的深度残差注意力网络模型参数;
步骤2、将cifar-10的10类图像类别数目改为视频情感数据集的表情类别数目;
步骤3、使用反向传播算法重新训练该网络模型,以更新网络模型的权重参数;
步骤4、微调训练结束后,将深度残差注意力网络最后一层全连接层的输出作为学习到的高层次人脸表情特征,用于后续多层感知器的表情分类。
7.根据权利要求6所还的一种基于深度残差注意力网络的视朔表情识别万法,具特征在于,所述步骤S2.2中微调训练的流程具体如下公式所示:
X={xi|(i=1,2,...,N)} (1)
minH(P(xi),yi)=-∑x(P(xi)logyi) (2)
其中:i代表该视频中的第i帧图片,xi代表第i帧的人脸图像,yi表示该视频的表情标签,H表示最小化损失函数,P(xi)代表输入人脸图像xi时网络模型的输出预测值。
9.根据权利要求1所述的一种基于深度残差注意力网络的视频表情识别方法,其特征在于,所述步骤S3包括以下步骤:完成视频中每一帧人脸图像的特征提取之后,对一个视频中所有帧图像学习到的注意力特征进行平均池化操作,计算出固定长度的全局性视频表情特征参数,将所述全局性视频表情特征参数输入到多层感知器进行训练和测试,获得人脸表情的分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010436500.5A CN111797683A (zh) | 2020-05-21 | 2020-05-21 | 一种基于深度残差注意力网络的视频表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010436500.5A CN111797683A (zh) | 2020-05-21 | 2020-05-21 | 一种基于深度残差注意力网络的视频表情识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111797683A true CN111797683A (zh) | 2020-10-20 |
Family
ID=72805869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010436500.5A Pending CN111797683A (zh) | 2020-05-21 | 2020-05-21 | 一种基于深度残差注意力网络的视频表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111797683A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415815A (zh) * | 2019-07-19 | 2019-11-05 | 银丰基因科技有限公司 | 深度学习和人脸生物特征信息的遗传病辅助诊断系统 |
CN112329683A (zh) * | 2020-11-16 | 2021-02-05 | 常州大学 | 一种基于注意力机制融合的多通道卷积神经网络人脸表情识别方法 |
CN112381061A (zh) * | 2020-12-04 | 2021-02-19 | 中国科学院大学 | 一种面部表情识别方法及系统 |
CN112541409A (zh) * | 2020-11-30 | 2021-03-23 | 北京建筑大学 | 一种融入注意力的残差网络表情识别方法 |
CN112766172A (zh) * | 2021-01-21 | 2021-05-07 | 北京师范大学 | 一种基于时序注意力机制的人脸连续表情识别方法 |
CN112836589A (zh) * | 2021-01-13 | 2021-05-25 | 苏州元启创人工智能科技有限公司 | 基于特征融合的视频中人脸表情识别方法 |
CN112949570A (zh) * | 2021-03-26 | 2021-06-11 | 长春工业大学 | 一种基于残差注意力机制的指静脉识别方法 |
CN113065402A (zh) * | 2021-03-05 | 2021-07-02 | 四川翼飞视科技有限公司 | 一种基于变形注意力机制的人脸检测方法 |
CN113111779A (zh) * | 2021-04-13 | 2021-07-13 | 东南大学 | 基于注意力机制的表情识别方法 |
CN113158872A (zh) * | 2021-04-16 | 2021-07-23 | 中国海洋大学 | 一种在线学习者情绪识别方法 |
CN113159002A (zh) * | 2021-05-26 | 2021-07-23 | 重庆大学 | 一种基于自注意力权重辅助模块的人脸表情识别方法 |
CN113313048A (zh) * | 2021-06-11 | 2021-08-27 | 北京百度网讯科技有限公司 | 脸部表情识别方法和装置 |
CN113420703A (zh) * | 2021-07-03 | 2021-09-21 | 西北工业大学 | 基于多尺度特征提取和多注意力机制建模的动态面部表情识别方法 |
CN113855020A (zh) * | 2021-09-18 | 2021-12-31 | 中国信息通信研究院 | 用于情绪识别的方法及装置、计算机设备、存储介质 |
CN114038041A (zh) * | 2021-11-17 | 2022-02-11 | 杭州电子科技大学 | 一种基于残差神经网络和注意力机制的微表情识别方法 |
CN114038037A (zh) * | 2021-11-09 | 2022-02-11 | 合肥工业大学 | 基于可分离残差注意力网络的表情标签修正和识别方法 |
WO2022111236A1 (zh) * | 2020-11-24 | 2022-06-02 | 华中师范大学 | 一种结合注意力机制的面部表情识别方法及系统 |
WO2023185243A1 (zh) * | 2022-03-29 | 2023-10-05 | 河南工业大学 | 基于注意力调制上下文空间信息的表情识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503654A (zh) * | 2016-10-24 | 2017-03-15 | 中国地质大学(武汉) | 一种基于深度稀疏自编码网络的人脸情感识别方法 |
US20190311188A1 (en) * | 2018-12-05 | 2019-10-10 | Sichuan University | Face emotion recognition method based on dual-stream convolutional neural network |
CN110363156A (zh) * | 2019-07-17 | 2019-10-22 | 北京师范大学 | 一种姿态无关的面部动作单元识别方法 |
CN110427867A (zh) * | 2019-07-30 | 2019-11-08 | 华中科技大学 | 基于残差注意力机制的面部表情识别方法及系统 |
CN111091045A (zh) * | 2019-10-25 | 2020-05-01 | 重庆邮电大学 | 一种基于时空注意力机制的手语识别方法 |
-
2020
- 2020-05-21 CN CN202010436500.5A patent/CN111797683A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503654A (zh) * | 2016-10-24 | 2017-03-15 | 中国地质大学(武汉) | 一种基于深度稀疏自编码网络的人脸情感识别方法 |
US20190311188A1 (en) * | 2018-12-05 | 2019-10-10 | Sichuan University | Face emotion recognition method based on dual-stream convolutional neural network |
CN110363156A (zh) * | 2019-07-17 | 2019-10-22 | 北京师范大学 | 一种姿态无关的面部动作单元识别方法 |
CN110427867A (zh) * | 2019-07-30 | 2019-11-08 | 华中科技大学 | 基于残差注意力机制的面部表情识别方法及系统 |
CN111091045A (zh) * | 2019-10-25 | 2020-05-01 | 重庆邮电大学 | 一种基于时空注意力机制的手语识别方法 |
Non-Patent Citations (1)
Title |
---|
何俊 等: "基于改进的深度残差网络的表情识别研究", 计算机应用研究, pages 1578 - 1581 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415815A (zh) * | 2019-07-19 | 2019-11-05 | 银丰基因科技有限公司 | 深度学习和人脸生物特征信息的遗传病辅助诊断系统 |
CN112329683A (zh) * | 2020-11-16 | 2021-02-05 | 常州大学 | 一种基于注意力机制融合的多通道卷积神经网络人脸表情识别方法 |
CN112329683B (zh) * | 2020-11-16 | 2024-01-26 | 常州大学 | 一种多通道卷积神经网络人脸表情识别方法 |
US11967175B2 (en) | 2020-11-24 | 2024-04-23 | Central China Normal University | Facial expression recognition method and system combined with attention mechanism |
WO2022111236A1 (zh) * | 2020-11-24 | 2022-06-02 | 华中师范大学 | 一种结合注意力机制的面部表情识别方法及系统 |
CN112541409B (zh) * | 2020-11-30 | 2021-09-14 | 北京建筑大学 | 一种融入注意力的残差网络表情识别方法 |
CN112541409A (zh) * | 2020-11-30 | 2021-03-23 | 北京建筑大学 | 一种融入注意力的残差网络表情识别方法 |
CN112381061B (zh) * | 2020-12-04 | 2022-07-12 | 中国科学院大学 | 一种面部表情识别方法及系统 |
CN112381061A (zh) * | 2020-12-04 | 2021-02-19 | 中国科学院大学 | 一种面部表情识别方法及系统 |
CN112836589A (zh) * | 2021-01-13 | 2021-05-25 | 苏州元启创人工智能科技有限公司 | 基于特征融合的视频中人脸表情识别方法 |
CN112766172B (zh) * | 2021-01-21 | 2024-02-02 | 北京师范大学 | 一种基于时序注意力机制的人脸连续表情识别方法 |
CN112766172A (zh) * | 2021-01-21 | 2021-05-07 | 北京师范大学 | 一种基于时序注意力机制的人脸连续表情识别方法 |
CN113065402A (zh) * | 2021-03-05 | 2021-07-02 | 四川翼飞视科技有限公司 | 一种基于变形注意力机制的人脸检测方法 |
CN112949570A (zh) * | 2021-03-26 | 2021-06-11 | 长春工业大学 | 一种基于残差注意力机制的指静脉识别方法 |
CN113111779A (zh) * | 2021-04-13 | 2021-07-13 | 东南大学 | 基于注意力机制的表情识别方法 |
CN113158872A (zh) * | 2021-04-16 | 2021-07-23 | 中国海洋大学 | 一种在线学习者情绪识别方法 |
CN113159002A (zh) * | 2021-05-26 | 2021-07-23 | 重庆大学 | 一种基于自注意力权重辅助模块的人脸表情识别方法 |
CN113159002B (zh) * | 2021-05-26 | 2023-04-07 | 重庆大学 | 一种基于自注意力权重辅助模块的人脸表情识别方法 |
CN113313048A (zh) * | 2021-06-11 | 2021-08-27 | 北京百度网讯科技有限公司 | 脸部表情识别方法和装置 |
CN113313048B (zh) * | 2021-06-11 | 2024-04-09 | 北京百度网讯科技有限公司 | 脸部表情识别方法和装置 |
CN113420703A (zh) * | 2021-07-03 | 2021-09-21 | 西北工业大学 | 基于多尺度特征提取和多注意力机制建模的动态面部表情识别方法 |
CN113855020A (zh) * | 2021-09-18 | 2021-12-31 | 中国信息通信研究院 | 用于情绪识别的方法及装置、计算机设备、存储介质 |
CN114038037A (zh) * | 2021-11-09 | 2022-02-11 | 合肥工业大学 | 基于可分离残差注意力网络的表情标签修正和识别方法 |
CN114038037B (zh) * | 2021-11-09 | 2024-02-13 | 合肥工业大学 | 基于可分离残差注意力网络的表情标签修正和识别方法 |
CN114038041A (zh) * | 2021-11-17 | 2022-02-11 | 杭州电子科技大学 | 一种基于残差神经网络和注意力机制的微表情识别方法 |
WO2023185243A1 (zh) * | 2022-03-29 | 2023-10-05 | 河南工业大学 | 基于注意力调制上下文空间信息的表情识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111797683A (zh) | 一种基于深度残差注意力网络的视频表情识别方法 | |
CN108520535B (zh) | 基于深度恢复信息的物体分类方法 | |
WO2021043168A1 (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN109815826B (zh) | 人脸属性模型的生成方法及装置 | |
Rahmon et al. | Motion U-Net: Multi-cue encoder-decoder network for motion segmentation | |
CN113496217A (zh) | 视频图像序列中人脸微表情识别方法 | |
US20220148291A1 (en) | Image classification method and apparatus, and image classification model training method and apparatus | |
CN112784763A (zh) | 基于局部与整体特征自适应融合的表情识别方法及系统 | |
CN112464865A (zh) | 一种基于像素和几何混合特征的人脸表情识别方法 | |
Wu et al. | Feedback weight convolutional neural network for gait recognition | |
CN111368672A (zh) | 一种用于遗传病面部识别模型的构建方法及装置 | |
Luo et al. | Shape constrained network for eye segmentation in the wild | |
CN113989890A (zh) | 基于多通道融合和轻量级神经网络的人脸表情识别方法 | |
CN113780249B (zh) | 表情识别模型的处理方法、装置、设备、介质和程序产品 | |
CN112861718A (zh) | 一种轻量级特征融合人群计数方法及系统 | |
KR20190128933A (ko) | 시공간 주의 기반 감정 인식 장치 및 방법 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN115410254A (zh) | 一种基于深度学习的多特征表情识别方法 | |
Lee et al. | Face and facial expressions recognition system for blind people using ResNet50 architecture and CNN | |
CN113076905B (zh) | 一种基于上下文交互关系的情绪识别方法 | |
Ge et al. | Co-saliency-enhanced deep recurrent convolutional networks for human fall detection in E-healthcare | |
CN116311472B (zh) | 基于多层次图卷积网络的微表情识别方法及装置 | |
Liu | RETRACTED ARTICLE: Video Face Detection Based on Deep Learning | |
Uddin et al. | A convolutional neural network for real-time face detection and emotion & gender classification | |
Reddi et al. | CNN Implementing Transfer Learning for Facial Emotion Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |