CN113642505B - 一种基于特征金字塔的人脸表情识别方法及装置 - Google Patents
一种基于特征金字塔的人脸表情识别方法及装置 Download PDFInfo
- Publication number
- CN113642505B CN113642505B CN202110984965.9A CN202110984965A CN113642505B CN 113642505 B CN113642505 B CN 113642505B CN 202110984965 A CN202110984965 A CN 202110984965A CN 113642505 B CN113642505 B CN 113642505B
- Authority
- CN
- China
- Prior art keywords
- feature map
- feature
- attention
- convolution
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000004927 fusion Effects 0.000 claims abstract description 37
- 238000005070 sampling Methods 0.000 claims abstract description 19
- 238000010586 diagram Methods 0.000 claims abstract description 13
- 230000007246 mechanism Effects 0.000 claims abstract description 7
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 238000011176 pooling Methods 0.000 claims description 49
- 230000004913 activation Effects 0.000 claims description 10
- 230000006835 compression Effects 0.000 claims description 4
- 238000007906 compression Methods 0.000 claims description 4
- 239000000956 alloy Substances 0.000 abstract 1
- 229910045601 alloy Inorganic materials 0.000 abstract 1
- 230000014509 gene expression Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000012549 training Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发属于人脸表情识别领域,提供了一种基于特征佥字塔的人脸表情识别方法及装置。本发明目的在于解决人脸表情识别准确度低的问题。主要方案包括:从通道和空间的维度对特征图进行注意力机制,得到注意力特征图;构建一个金字塔网络与卷积注意力模块cbam融合,使得特征金字塔网络关注到对表情识别有用的地方,用于过滤输入图片无用的背景信息,得到尺度注意力特征图;通过上采样或下采样的方式缩放所有得到的尺度注意力特征图,使其分辨率一致,便于特征加权融合;将得到的缩放特征图进行特征加权融合,得到融合特征图序列;将得到的融合特征图送入全连接网络,得到多个预测结果,最后经过投票,得到最后的预测结果。
Description
技术领域
本发明涉及由计算机进行人脸面部表情识别,可通过输入一张图片从而计算所属不同表情的概率,属于深度学习和计算机视觉技术领域。
背景技术
面部表情是人与人进行情感沟通的一种有效方式,可以通过对面部表情的分析,了解一个人大概的心理活动。心理学家研究表明,人们的日常生活中由语言、声音和面部表情这三种主要的方式来表达情感。其中人脸表情表达的信息量占到了总量的55%,声音表达的信息量占到了38%,语言表达的信息量占到了7%,即最主要的情感表达方式是面部表情,其次是声音和语言。面部表情传达了人们大量有效的信息。如果计算机能够收集、分析面部表情并加以运用,将会在很多方面发挥极大的作用,如安全驾驶、在线教育、远程医疗等等。
在国外19世纪就开始了面部表情的研究工作。二十世纪七十年代,Ekman和Friesen以及众多学者不断研究完善后,制定了一个分类准则,将人类的表情划分为7类,即生气、恶心、害怕、高兴、悲伤、惊讶和中性。传统的人类面部表情识别方法首先是进行特征提取,然后在此结果的基础上进行特征分类。有研究人员使用SIFT特征进行面部表情识别,也有结合了LBP和Gabor两种特征。其对表情识别的分类器算法主要选用K-means分类器、贝叶斯分类器、支持向量机、隐式马尔科夫模型等。
传统方法特征提取与表情分类是两个分开的过程,效率较低,且其特征提取受到人为因素影响,容易丢失部分表情特征,特征提取的不完备使得最终分类效果一般。随着深度学习算法的不断发展,众多算法已经被应用到机器视觉领域中。其中,前馈神经网络和卷积神经网络都可以用作面部表情的特征提取,其中的卷积神经网络由于强大的特征学习能力被应用于面部表情识别中,从而极大地提高了面部表情特征提取的效率。但是人脸图片尺度不一致,而卷积神经网络不具有尺度不变性,一般的做法先裁剪出人脸表情,再将其缩放到统一的尺度,最后进行分类,比如使用opencv库的人脸检测器,对人脸图片进行裁剪后再送入网络进行预测。由于人脸角度、光照等对人脸检测器的影响较大,这是提升表情识别准确率的瓶颈。
发明内容
针对上述问题,本发明使用特征金字塔网络来提取不同尺度的人脸表情特征,使用注意力机制重点关注人脸表情特征,而忽略其背景,使用自动调节的权值对不同尺度的人脸表情特征图进行加权,最后网络预测表情种类。
为了解决上述技术问题,本发明采用以下技术方案:
一种基于特征金字塔的人脸表情识别方法,包括以下步骤:
步骤1:构建卷积注意力模块cbam,从通道和空间的维度对特征图进行注意力机制,得到注意力特征图;
步骤2:构建一个金字塔网络与卷积注意力模块cbam融合,使得特征金字塔网络关注到对表情识别有用的地方,用于过滤输入图片无用的背景信息,得到尺度注意力特征图;
步骤3:通过上采样或下采样的方式缩放所有步骤2中得到的尺度注意力特征图,使其分辨率一致,便于特征加权融合;
步骤4:将步骤3得到的缩放特征图进行特征加权融合,得到融合特征图序列;
步骤5:将步骤4得到的融合特征图送入全连接网络,得到多个预测结果,最后经过投票,得到最后的预测结果。
上述技术方案中,步骤1包括以下步骤:
步骤1.1:将输入的特征图分别经过最大池化和平均池化,得到两个特征图,两个特征图分别为最大池化特征图和平均池化特征图;
步骤1.2:将步骤1.1得到的两个特征图通过一个共享权值的多层感知机进行维度压缩后相加;
步骤1.3:经过一个sigmoid函数,得到通道注意力特征图;
步骤1.4:将步骤1.3得到的通道注意力特征图分别进行基于通道的最大池化和平均池化;
步骤1.5:将步骤1.4得到的两个特征图连接后经过一个卷积操作;
步骤1.6:经过一个sigmoid函数得到空间注意力特征图;
通道注意力可以表示为:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))
其中,F表示输入特征图,AvgPool()和MaxPool()表示平均池化和最大池化,MLP()表示多层感知机,σ()表示sigmoid激活函数:
空间注意力可以表示为
Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))
其中,F表示输入特征图,AvgPool()和MaxPool()表示平均池化和最大池化,f7×7表示7×7的卷积,σ()表示sigmoid激活函数。
上述技术方案中,步骤2包括以下步骤:
步骤2.1:构建一个金字塔网络;
步骤2.2:根据网络结构,将金字塔网络每个块后面添加一个步骤1的卷积注意力模块cbam;
步骤2.3:金字塔网络得到尺度注意力特征图。
上述技术方案中,步骤3包括以下步骤:
步骤3.1:对于上采样,先通过一个1×1的卷积,使得尺度注意力特征图的通道数与金字塔网络第l层尺度注意力特征图的通道数一致;
步骤3.2:通过最近邻插值、双线性插值或者是双三次插值的方法进行上采样,得到缩放特征图x1,x2......xl;
步骤3.3:对于下采样,使用步长为2的卷积,使得尺度注意力特征图的通道数与第l层尺度注意力特征图的通道数一致;
步骤3.4:使用池化的操作降低分辨率,得到缩放特征图x1,x2......xl,其中l是指金字塔网络的层数序号;
上述技术方案中,步骤4包括以下步骤:
将步骤3得到的缩放特征图进行特征加权融合,得到特征融合图序列[y1,y2......yl],其中金字塔网络的l层对应的融合特征图yl:
x1,x2......xl中的x的上标大于l,则采用下采样对应的缩放特征图,x上标比l小,则采用上采样对应的缩放特征图,如x上标等于l则采用原有的尺度注意力特征图;
本发明还提供了一种基于特征金字塔的人脸表情识别装置,包括以下模块:
构建卷积注意力模块cbam:从通道和空间的维度对特征图进行注意力机制,得到注意力特征图;
尺度注意力特征图模块:构建一个金字塔网络与卷积注意力模块cbam融合,使得特征金字塔网络关注到对表情识别有用的地方,用于过滤输入图片无用的背景信息,得到尺度注意力特征图;
缩放注意力特征图:通过上采样或下采样的方式缩放所有得到的尺度注意力特征图,使其分辨率一致,便于特征加权融合;
特征融合模块:将得到的缩放特征图进行特征加权融合,得到融合特征图序列;
预测模块:将融合特征图送入全连接网络,得到多个预测结果,最后经过投票,得到最后的预测结果。
上述技术方案中,构建卷积注意力模块cbam的实现包括以下步骤:
步骤1.1:将输入的特征图分别经过最大池化和平均池化,得到两个特征图,两个特征图分别为最大池化特征图和平均池化特征图;
步骤1.2:将步骤1.1得到的两个特征图通过一个共享权值的多层感知机进行维度压缩后相加;
步骤1.3:经过一个sigmoid函数,得到通道注意力特征图;
步骤1.4:将步骤1.3得到的通道注意力特征图分别进行基于通道的最大池化和平均池化;
步骤1.5:将步骤1.4得到的两个特征图连接后经过一个卷积操作;
步骤1.6:经过一个sigmoid函数得到空间注意力特征图;
通道注意力可以表示为:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))
其中,F表示输入特征图,AvgPool()和MaxPool()表示平均池化和最大池化,MLP()表示多层感知机,σ()表示sigmoid激活函数:
空间注意力可以表示为
Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))
其中,F表示输入特征图,AvgPool()和MaxPool()表示平均池化和最大池化,f7×7表示7×7的卷积,σ()表示sigmoid激活函数。
上述技术方案中,尺度注意力特征图模块的实现包括以下步骤:
步骤2.1:构建一个金字塔网络;
步骤2.2:根据网络结构,将金字塔网络每个块后面添加一个步骤1的卷积注意力模块cbam;
步骤2.3:金字塔网络得到尺度注意力特征图。
上述技术方案中,缩放注意力特征图的实现包括以下步骤:
步骤3.1:对于上采样,先通过一个1×1的卷积,使得尺度注意力特征图的通道数与金字塔网络第l层尺度注意力特征图的通道数一致;
步骤3.2:通过最近邻插值、双线性插值或者是双三次插值的方法进行上采样,得到缩放特征图x1,x2......xl;
步骤3.3:对于下采样,使用步长为2的卷积,使得尺度注意力特征图的通道数与第l层尺度注意力特征图的通道数一致;
步骤3.4:使用池化的操作降低分辨率,得到缩放特征图x1,x2......xl,其中l是指金字塔网络的层数序号;
上述技术方案中,特征融合模块的实现包括以下步骤:
将缩放特征图进行特征加权融合,得到特征融合图序列[y1,y2......yl],其中金字塔网络的l层对应的融合特征图yl:
x1,x2......xl中的x的上标大于l,则采用下采样对应的缩放特征图,x上标比l小,则采用上采样对应的缩放特征图,如x上标等于l则采用原有的尺度注意力特征图;
因为本发明采用上述技术手段,因此具备以下有益效果:
1.扩充数据集,使得各类表情的数据量基本平衡,从而使得神经网络识别各类表情准确率相近,减少了神经网络模型过拟合的可能。并且对数据集运用了各种数据增强的方法,进一步提高了面部表情识别的精度以及降低了网络模型过拟合的可能。
2.不同于使用人脸检测器检测人脸图片,裁剪后送入网络预测的方法,本发明通过特征金字塔网络进行人脸检测与识别,实现了端到端的检测形式,使得人脸检测器的精度不再是模型精度的提高的瓶颈,并且更容易训练。
3.使用特征金字塔网络,使得模型能够识别不同尺度的人脸图像。
4.嵌入cbam注意力机制模块,进行图像特征的筛选,使得模型更加关注代表面部表情的特征,提高了一些较难分辨的表情种类。
5.使用步骤3和步骤4得到的动态权重,使得模型自主选择合适尺度的特征图进行分类,而不是直接采用投票的形式,使得模型精度更高,训练收敛更快。
附图说明
图1为Fer2013人脸表情数据集的7种表情示例;
图2为cbam模块图;
图3为人脸面部表情识别的总体框图。
具体实施方式
主要方案包括,1)数据集扩充与增强;2)特征金字塔提取特征;3)获取注意力特征图;4)缩放注意力特征图;5)注意力特征图加权融合;6)分类预测
一、数据集扩充与增强
本发明主要采用的数据集是Fer2013。Fer2013人脸表情数据集由35886张人脸表情图片组成,其中包含愤怒(4953张)、厌恶(547张)、恐惧(5121张)、快乐(8989张)、悲伤(6077张)、惊喜(4002张)和中立(6198张)7类表情,每张图片是由大小固定为48×48的灰度图像组成,分别对应于数字标签0-6,具体表情对应的标签和中英文如下:0-anger-生气;1-disgust-厌恶;2-fear-恐惧;3-happy-开心;4-sad-伤心;5-surprised-惊讶;6-neutral-中性。可以看到各类表情存在类别不均衡的特点。本发明将图片进行了灰度化、旋转、反转以及缩放等数据增强方法将每种表情的图片扩充至相等的数量,并且增加了尺度的信息,能够训练模型使得其获得分辨不同尺度人脸的能力。按照8∶1∶1的比例分为训练集、测试集和验证集。
一、特征金字塔提取特征
主干网络采用ResNet,将预处理好的图片送入网络。自底向上,特征图的语义信息更丰富,但是其感受野也越大。所以高层的特征图更能捕获尺度较大的物体,对于小的特征可能检测不到。而低层的特征图感受野小,但语义信息不够。所以自底向上每一级往上用步长为2的下采样,使得下一级特征图为上一级的特征图分辨率的一半,自顶向下每层进行上采样并与第一级的特征图相加,能够融合低分辨率语义信息较强的特征图和高分辨率语义信息较弱但空间信息丰富的特征图。
二、嵌入cbam模块
在网络每个块后面增加一个卷积注意力模块cbam,将输入的特征图分别经过最大池化和平均池化,再经过一个共享权值的多层感知机后相加,最后经过一个sigmoid函数,得到通道注意力图。将得到的通道注意力特征图分别进行基于通道的最大池化和平均池化,然后将这2个结果连接后经过一个卷积操作,最后经过一个sigmoid函数得到空间注意力特征图。
通道注意力公式
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))
其中,F表示输入特征图,AvgPool()和MaxPool()表示平均池化和最大池化,
MLP()表示多层感知机,σ()表示sigmoid激活函数
空间注意力公式
Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))
其中,F表示输入特征图,AvgPool()和MaxPool()表示平均池化和最大池化,f7×7表示7×7的卷积,σ()表示sigmoid激活函数
三、缩放注意力特征图
通过上采样或下采样的方式缩放所有注意力特征图,使其分辨率一致,便于特征加权融合。对于上采样,先通过一个1×1的卷积,使得特征图的通道数与level l层的一致,然后通过插值的方法进行上采样。对于下采样,使用步长为2的卷积与池化实现特征图分辨率的降低。
四、自适应特征图融合
对于在不同尺度的特征图分类的结果可能不一致,即不同层级之间的特征冲突,往往采用不同尺度特征图预测并投票的方法。但是每张图片有其适合的尺度来检测人脸,并且这种冲突会干扰训练期间的梯度计算,并降低特征金字塔的有效性。所以投票预测结果是不合理的,特征金字塔网络无法选择合适的尺度进行预测,因此需要动态地为每个尺度赋予一个权重,从而让模型自适应地选择合适的尺度。
每层的融合特征图通过以下公式计算
x1,x2......xl中的x上标大于l,则采用下采样对应的缩放特征图,x上标比l小,则采用上采样对应的缩放特征图,如x上标等于l则采用原有的尺度注意力特征图;
得到,其中是由1×1的卷积层与对应的注意力特征图卷积得到,由于权重又是通过softmax函数计算,保证了权重相加为1,并且权重的取值范围是0到1之间。动态权值使得网络能够直接学习如何在其他级别对特征进行空间滤波,从而仅保留有用的信息以进行组合,对于某个级别的特征,首先将其他级别的特征调整为相同的分辨率并简单集成,然后训练以找到最佳的融合方式。在每个空间位置,能够将不同级别的特征自适应地融合在一起。
六、网络模型训练
从训练集里选择图片xi和它对应标签,并将标签用one-hot编码的形式表示为yi,得到一组训练数据(xi,yi)。本发明通过tensorflow框架搭建网络模型,实验共迭代200次,初始学习率设为0.005,批量大小设为64,每次随机选取64组数据,进行训练,逐步减小模型的学习率,并采取早停策略。
训练过程中,采用第一步搭建的预训练模型进行初始化设置,并以交叉熵损失函数作为计算预测值与实际值之间的差异,用于模型的微调。
其中W为权值矩阵,b为偏置,a为预测值,y为真实值
七、表情分类
将得到融合特征图送入全连接网络,得到多个预测结果,最后经过投票,得到最后的预测结果。
Claims (6)
1.一种基于特征金字塔的人脸表情识别方法,其特征在于,包括以下步骤:
步骤1:构建卷积注意力模块cbam,从通道和空间的维度对特征图进行注意力机制,得到注意力特征图;
步骤2:构建一个金字塔网络与卷积注意力模块cbam融合,使得特征金字塔网络关注到对表情识别有用的地方,用于过滤输入图片无用的背景信息,得到尺度注意力特征图;
步骤3:通过上采样或下采样的方式缩放所有步骤2中得到的尺度注意力特征图,使其分辨率一致,便于特征加权融合;
步骤4:将步骤3得到的缩放特征图进行特征加权融合,得到融合特征图序列;
步骤5:将步骤4得到的融合特征图送入全连接网络,得到多个预测结果,最后经过投票,得到最后的预测结果;
步骤1包括以下步骤:
步骤1.1:将输入的特征图分别经过最大池化和平均池化,得到两个特征图,两个特征图分别为最大池化特征图和平均池化特征图;
步骤1.2:将步骤1.1得到的两个特征图通过一个共享权值的多层感知机进行维度压缩后相加;
步骤1.3:经过一个sigmoid函数,得到通道注意力特征图;
步骤1.4:将步骤1.3得到的通道注意力特征图分别进行基于通道的最大池化和平均池化;
步骤1.5:将步骤1.4得到的两个特征图连接后经过一个卷积操作;
步骤1.6:经过一个sigmoid函数得到空间注意力特征图;
通道注意力可以表示为:
空间注意力可以表示为
步骤4包括以下步骤:
2.根据权利要求1所述的一种基于特征金字塔的人脸表情识别方法,其特征在于,步骤2包括以下步骤:
步骤2.1:构建一个金字塔网络;
步骤2.2:根据网络结构,将金字塔网络每个块后面添加一个步骤1的卷积注意力模块cbam;
步骤2.3:金字塔网络得到尺度注意力特征图。
4.一种基于特征金字塔的人脸表情识别装置,其特征在于,包括以下模块:
构建卷积注意力模块:从通道和空间的维度对特征图进行注意力机制,得到注意力特征图;
尺度注意力特征图模块:构建一个金字塔网络与卷积注意力模块融合,使得特征金字塔网络关注到对表情识别有用的地方,用于过滤输入图片无用的背景信息,得到尺度注意力特征图;
缩放注意力特征图模块:通过上采样或下采样的方式缩放所有得到的尺度注意力特征图,使其分辨率一致,便于特征加权融合;
特征融合模块:将得到的缩放特征图进行特征加权融合,得到融合特征图序列;
预测模块:将融合特征图送入全连接网络,得到多个预测结果,最后经过投票,得到最后的预测结果;
构建卷积注意力模块的实现包括以下步骤:
步骤1.1:将输入的特征图分别经过最大池化和平均池化,得到两个特征图,两个特征图分别为最大池化特征图和平均池化特征图;
步骤1.2:将步骤1.1得到的两个特征图通过一个共享权值的多层感知机进行维度压缩后相加;
步骤1.3:经过一个sigmoid函数,得到通道注意力特征图;
步骤1.4:将步骤1.3得到的通道注意力特征图分别进行基于通道的最大池化和平均池化;
步骤1.5:将步骤1.4得到的两个特征图连接后经过一个卷积操作;
步骤1.6:经过一个sigmoid函数得到空间注意力特征图;
通道注意力可以表示为:
空间注意力可以表示为
特征融合模块的实现包括以下步骤:
5.根据权利要求4所述的一种基于特征金字塔的人脸表情识别装置,其特征在于,尺度注意力特征图模块的实现包括以下步骤:
步骤2.1:构建一个金字塔网络;
步骤2.2:根据网络结构,将金字塔网络每个块后面添加一个步骤1的卷积注意力模块cbam;
步骤2.3:金字塔网络得到尺度注意力特征图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110984965.9A CN113642505B (zh) | 2021-08-25 | 2021-08-25 | 一种基于特征金字塔的人脸表情识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110984965.9A CN113642505B (zh) | 2021-08-25 | 2021-08-25 | 一种基于特征金字塔的人脸表情识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113642505A CN113642505A (zh) | 2021-11-12 |
CN113642505B true CN113642505B (zh) | 2023-04-18 |
Family
ID=78423868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110984965.9A Active CN113642505B (zh) | 2021-08-25 | 2021-08-25 | 一种基于特征金字塔的人脸表情识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113642505B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114639165B (zh) * | 2022-03-16 | 2024-05-10 | 平安科技(深圳)有限公司 | 基于人工智能的行人重识别方法、装置、设备及存储介质 |
CN115100709B (zh) * | 2022-06-23 | 2023-05-23 | 北京邮电大学 | 一种特征分离的图像人脸识别与年龄估计方法 |
CN117612168A (zh) * | 2023-11-29 | 2024-02-27 | 湖南工商大学 | 一种基于特征金字塔和注意力机制的识别方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10002286B1 (en) * | 2015-04-28 | 2018-06-19 | Carnegie Mellon University | System and method for face recognition robust to multiple degradations |
CN112766158A (zh) * | 2021-01-20 | 2021-05-07 | 重庆邮电大学 | 基于多任务级联式人脸遮挡表情识别方法 |
CN114783024A (zh) * | 2022-04-18 | 2022-07-22 | 吉林大学 | 基于YOLOv5的公共场所戴口罩的人脸识别系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647834B (zh) * | 2019-09-18 | 2021-06-25 | 北京市商汤科技开发有限公司 | 人脸和人手关联检测方法及装置、电子设备和存储介质 |
-
2021
- 2021-08-25 CN CN202110984965.9A patent/CN113642505B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10002286B1 (en) * | 2015-04-28 | 2018-06-19 | Carnegie Mellon University | System and method for face recognition robust to multiple degradations |
CN112766158A (zh) * | 2021-01-20 | 2021-05-07 | 重庆邮电大学 | 基于多任务级联式人脸遮挡表情识别方法 |
CN114783024A (zh) * | 2022-04-18 | 2022-07-22 | 吉林大学 | 基于YOLOv5的公共场所戴口罩的人脸识别系统 |
Non-Patent Citations (3)
Title |
---|
Qian Guo 等.Scattering Enhanced Attention Pyramid Network for Aircraft Detection in SAR Images.IEEE Transactions on Geoscience and Remote Sensing.2020,7570 - 7587. * |
Yi Cao 等.Identifying the kind behind SMILES—anatomical therapeutic chemical classification using structure-only representations.Briefings in Bioinformatics.2022,全文. * |
毛德乾.复杂条件下的单幅图像去雾方法研究.中国优秀硕士学位论文全文数据库 (信息科技辑).2022,I138-201. * |
Also Published As
Publication number | Publication date |
---|---|
CN113642505A (zh) | 2021-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113642505B (zh) | 一种基于特征金字塔的人脸表情识别方法及装置 | |
Rahman et al. | A new benchmark on american sign language recognition using convolutional neural network | |
CN112784763B (zh) | 基于局部与整体特征自适应融合的表情识别方法及系统 | |
CN112465790A (zh) | 基于多尺度卷积和三线性全局注意力的表面缺陷检测方法 | |
CN114758383A (zh) | 基于注意力调制上下文空间信息的表情识别方法 | |
CN112860888B (zh) | 一种基于注意力机制的双模态情感分析方法 | |
Wang et al. | Research on face recognition based on CNN | |
CN112766159A (zh) | 一种基于多特征融合的跨数据库微表情识别方法 | |
CN114220035A (zh) | 一种基于改进yolo v4的快速害虫检测方法 | |
CN112818861A (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN112818764A (zh) | 一种基于特征重建模型的低分辨率图像人脸表情识别方法 | |
CN111797811B (zh) | 一种基于图像理解的盲人导航系统 | |
CN113361493B (zh) | 一种对不同图像分辨率鲁棒的人脸表情识别方法 | |
CN113870160B (zh) | 一种基于变换器神经网络的点云数据处理方法 | |
CN112633377A (zh) | 一种基于生成对抗网络的人体行为预测方法及系统 | |
CN114724224A (zh) | 一种用于医疗护理机器人的多模态情感识别方法 | |
Rwelli et al. | Gesture based Arabic sign language recognition for impaired people based on convolution neural network | |
CN110782503B (zh) | 一种基于两分支深度相关网络的人脸图像合成方法和装置 | |
Lee et al. | Face and facial expressions recognition system for blind people using ResNet50 architecture and CNN | |
CN115410254A (zh) | 一种基于深度学习的多特征表情识别方法 | |
Dissanayake et al. | Utalk: Sri Lankan sign language converter mobile app using image processing and machine learning | |
CN115457568A (zh) | 一种基于生成对抗网络的历史文档图像降噪方法及系统 | |
CN114550270A (zh) | 一种基于双注意力机制的微表情识别方法 | |
Elbarawy et al. | Facial expressions recognition in thermal images based on deep learning techniques | |
Kumar et al. | Facial emotion recognition and detection using cnn |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |