CN117475490A - 一种基于混合注意力卷积网络的面部表情识别方法 - Google Patents

一种基于混合注意力卷积网络的面部表情识别方法 Download PDF

Info

Publication number
CN117475490A
CN117475490A CN202311118893.5A CN202311118893A CN117475490A CN 117475490 A CN117475490 A CN 117475490A CN 202311118893 A CN202311118893 A CN 202311118893A CN 117475490 A CN117475490 A CN 117475490A
Authority
CN
China
Prior art keywords
model
facial expression
network
attention
mixed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311118893.5A
Other languages
English (en)
Inventor
颜飞
尚育杰
刘云清
李棋
张琼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202311118893.5A priority Critical patent/CN117475490A/zh
Publication of CN117475490A publication Critical patent/CN117475490A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于面部表情识别技术领域,尤其为一种基于混合注意力卷积网络的面部表情识别方法,该方法包括:S10:构建基于混合注意力卷积网络的面部表情识别网络模型;S11:准备数据集,采用面部表情fer2013数据集,将数据集按照9:1的比例划分为训练集和验证集两部分;S12:将所准备数据集的训练集输入至基于混合注意力卷积网络的面部表情识别网络模型中,进行模型训练。本发明针对面部表情识别深度卷积网络参数量多,计算量大的问题,本发明通过将深度可分离卷积块中的普通卷积层替换为深度可分离卷积层,来降低模型的参数量和计算量,同时进一步提升模型的深度。

Description

一种基于混合注意力卷积网络的面部表情识别方法
技术领域
本发明涉及面部表情识别技术领域,具体为一种基于混合注意力卷积网络的面部表情识别方法。
背景技术
面部表情是人类社交活动中表达情绪的主要方式之一,与生理信号相比,具有更加直观的表达情感变化的优势。近几年,面部表情识别领域在智能驾驶,网络远程教学管理,智能监管,临床医疗,人机交互等领域都有着广泛的应用。
目前,关于面部表情识别的研究方法主要是基于卷积网络来进行特征提取和表情分类。为了提高特征提取对于面部表情更重要部分的关注度,研究人员通常在模型中加入注意力机制,通过注意力权重来使模型更加关注于表情识别重要的特征部分,但是注意力机制的引入会增加模型训练过程中梯度爆炸和过拟合的可能性,训练好的模型对于不同尺度和复杂度的图像识别也缺少泛化能力。
针对上述问题,本发明对于面部卷积网络所引用的注意力机制进行改进,提出了一种基于混合注意力卷积网络的面部表情识别方法,对上述问题进行有效改进。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种基于混合注意力卷积网络的面部表情识别方法,解决了上述背景技术中所提出的问题。
(二)技术方案
本发明为了实现上述目的具体采用以下技术方案:
一种基于混合注意力卷积网络的面部表情识别方法,该方法包括:
S10:构建基于混合注意力卷积网络的面部表情识别网络模型;
S11:准备数据集,采用面部表情fer2013数据集,将数据集按照9:1的比例划分为训练集和验证集两部分;
S12:将所准备数据集的训练集输入至基于混合注意力卷积网络的面部表情识别网络模型中,进行模型训练;
S13:将所准备数据集的验证集输入至训练好的网络模型对模型进一步微调,获得最优的训练参数和训练效果;
S14:保存训练和测试后的网络模型以及相关参数。
S15:输入待测人脸图片,输入至模型进行面部表情预测。
进一步地,所述S10中网络模型包含浅层卷积块,深度可分离卷积块,残差和输出模块;
所述浅层卷积块主要是用来提取面部表情的浅层纹理特征和边缘特征,通过逐层卷积等操作捕捉到面部图像中的局部和全局特征,从而帮助模型更好地理解面部表情的结构和变化;
所述深度可分离卷积块主要包含深度可分离卷积部分和所提出的混合注意力部分;所属深度可分离卷积部分主要是对模型进行深层次特征提取,获得更加细腻的面部表情特征,例如面部的微表情、肌肉变化等;所提出的混合注意力部分主要是针对不同的表情可能涉及到不同的面部区域和特征模式,混合注意力可以使模型更集中地关注与当前表情相关的特征;通过使用混合注意力机制来动态地调整特征的权重,使网络可以自适应地关注对于特定任务更重要的特征;
所述残差主要通过残差连接学习上一个模块保留的特征信息,提升特征学习能力,同时限制梯度,有利于避免梯度爆炸,使信息在网络中更容易地传播。
所述输出模块,通过卷积层调整输出维度,利用全局平均池化可以帮助网络汇总整个面部图像中的信息,捕捉到全局的情感特征,从而有助于更准确地进行表情分类。
进一步地,所述S11中,数据集为fer2013数据集,该数据集是从真实世界中收集的,fer2013数据集中的图像分辨率较低,因此可以更好地反映真实场景中的面部表情变化。
进一步地,所述S12中,在训练网络模型时,设置损失函数,训练批次大小,训练次数,优化器,学习率等预值。
进一步地,所述S12中,模型训练损失函数为多分类交叉损失函数,训练批次为300次,优化器为Adam优化器,学习率为0.001。
进一步地,所述S12中,在训练网络模型过程中通过评价指标评估模型训练表情预测分类的准确度。
进一步地,所述S15中,对于待测人脸图片,需要先通过Haar级联分类器从输入图像中检测出人脸信息,校正长宽尺寸,进行人脸分割,最后再输入至模型进行训练预测。
(三)有益效果
与现有技术相比,本发明提供了一种基于混合注意力卷积网络的面部表情识别方法,具备以下有益效果:
(1)针对面部表情识别深度卷积网络参数量多,计算量大的问题,本发明通过将深度可分离卷积块中的普通卷积层替换为深度可分离卷积层,来降低模型的参数量和计算量,同时进一步提升模型的深度。
(2)针对面部表情识别卷积网络引入注意力机制后会增加模型训练过程中梯度爆炸和过拟合的可能性,本发明设计了一种混合注意力模块,可以有效的降低引入注意力机制后带来的梯度爆炸和过拟合的可能性,而且还能有效提高模型的识别精度。
(3)针对面部表情识别卷积网络引入注意力机制后,训练好的模型对于不同尺度和复杂度的图像识别缺少泛化能力的问题,本发明设计的混合注意力机制可以在不同尺度上捕获特征,可以在不同图像场景下自适应地调整其关注度,从而提高了模型对于各种图像输入的适应性,具有更高的泛化能力和鲁棒性。
(4)针对目前面部表情卷积网络引入的注意力机制多数只针对通道相关性加强或者空间位置相关性加强的问题,本发明设计的混合注意力机制通过先加强通道相关性,再对输出进行空间位置相关性加强,使模型在特征提取时,通过通道注意力和空间注意力的联合操作,实现了通道信息和空间信息之间的交互。这有助于模型更好地捕获不同特征之间的关系,提升特征的表达能力。对于模块整体的输入部分进行自注意力加权,将其输出结果与空间位置相关性加权后的结果线性融合,使模型能够更好地进行特征的交互和融合,促使模型在多个层级上进行特征选择和整合,从而提高了模型对不同尺度和层次的信息的敏感性。
附图说明
图1为一种基于混合注意力卷积网络的面部表情识别方法流程图;
图2为一种基于混合注意力卷积网络的面部表情识别方法工作原理图;
图3为本发明所有的浅层卷积块的具体组成示意图;
图4为本发明所有的深度可分离卷积块的具体组成示意图;
图5为本发明所有的混合注意力机制的具体组成示意图;
图6为本发明所有的输出模块的具体组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1-6所示,本发明一个实施例提出的一种基于混合注意力卷积网络的面部表情识别方法,该方法具体包括如下步骤:
S10、构建基于混合注意力卷积网络的面部表情识别网络模型,主要包含输入,浅层卷积块、深度可分离卷积块一、深度可分离卷积块二、深度可分离卷积块三、深度可分离卷积块四,输出;其中,在每个深度可分离卷积块中包含有混合注意力模块,通过通道注意力和空间注意力的联合操作,实现了通道信息和空间信息之间的交互;这有助于模型更好地捕获不同特征之间的关系,提升特征的表达能力;在混合注意力中还引入了自注意力机制,使注意力机制内部能够更好地进行特征的交互和融合,从而更好地捕捉特征之间的关系,增强了特征的表达能力;此外,对每一个深度可分离卷积块添加残差连接,使模型降低过拟合和梯度爆炸的可能性;
S11、准备数据集,对整个模型采用面部表情fer2013数据集进行训练;将数据集打乱,并按照9:1的比例划分为训练集和验证集两部分;
S12、将所准备数据集的训练集输入至基于混合注意力卷积网络的面部表情识别网络模型中,进行模型训练;先将已打乱顺序的训练集进行预处理,通过随机旋转,随机水平平移,随机垂直平移,随机缩放等预处理手段操作进行数据增强,同时增加模型训练时的难度,提升模型的泛化能力;将增强后的训练数据输入至S10构建好的网络模型中,进行模型训练;其中,模型采用Adam优化器,学习率为0.001,patience=30,衰减因子factor=0.1,监控指标为验证集准确率,以多分类交叉损失函数作为模型的损失函数;
S13:将fer2013数据集划分出来的验证集输入至训练好的网络模型对模型进一步微调,得到更加稳定的训练参数,是模型具有更好的鲁棒性和泛化能力,能够更好的应用于真实场景;
S14:保存S13模型优化后的网络模型以及相关参数;将这个最终模型以及相关参数作为以后面部表情预测来使用;
S15:输入待测人脸图片,输入至模型进行面部表情预测;通过Haar级联分类器检测出人脸信息,并将其进行灰度图转换再进行长宽尺寸的校正,使所述人脸图像的长宽调整至预设的尺寸;对所述人脸图像按照预设的人脸部位规则进行分割,最后输入至训练好的模型进行面部表情预测。
实施例2
如图1所示,一种基于混合注意力卷积网络的面部表情识别方法,该方法具体包括如下步骤:
S10,构建基于混合注意力卷积网络的面部表情识别网络模型,如图2所示,一种基于混合注意力卷积网络的面部表情识别网络方法整体框图,具体包括输入,浅层卷积块,残差连接,深层卷积块一,深层卷积块二,深层卷积块三,深层卷积块四,残差连接和输出构成;
如图3所示,浅层卷积块,主要由普通卷积层,批量归一化和Relu激活函数构成,共重复堆叠两次;普通卷积层采用3×3卷积核,步长为一,不填充,对输入图片进行逐层下采样特征提取;通过在普通卷积层后引入批量归一化和Relu激活函数,使模型更加稳定,有助于避免梯度消失和爆炸;而Relu激活函数的非线性变换,帮助神经网络模型学习复杂的映射关系,由于输入为负值时,Relu输出为0;使模型更加稀疏和高效;Relu激活函数公式如下所示:
如图4所示,深度可分离卷积块主要依次包含深度可分离卷积层,批量归一化层和Relu非线性激活函数,共重复两次;深度可分离卷积采用3×3卷积核,步长为一;对于相同的输入图像,深度可分离卷积的计算量为逐通道卷积和驻点卷积两个阶段的计算量之和;通过将深度可分离卷积的计算量与普通卷积的计算量进行比较,可以减少训练参数的计算量和可用的训练参数总数至具体公式如下所示;
由于使用的fer2013数据集属于低画质数据集,图片尺寸仅为48x48,因此深度可分离卷积模块的卷积进行填充,以保证输入输出尺度不变,减少由于信息丢失导致模型性能下降的可能性;在深度可分离卷积块最后添加混合注意力模块,结合了通道注意力和空间注意力,使得模型能够在通道维度和空间维度上同时进行特征关注;通过两者的联合操作,实现了通道信息和空间信息之间的交互,有助于模型更好地捕获不同特征之间的关系,提升特征的表达能力;通过引入自注意力,混合注意力机制可以在层级上更好地融合信息;这样的融合可以促使模型在多个层级上进行特征选择和整合,从而提高了模型对不同尺度和层次的信息的敏感性;
如图5所示,混合注意力模块主要包含6个卷积层,这6个卷积层都采用深度可分离卷积层;首先,通过平均池化和最大池化得到输入特征在通道维度上的池化特征,并对得到的两种不同池化特征进行特征拼接;然后将融合后的特征分别通过3×3和1×1的卷积进行卷积处理,不同分支可以专注于捕捉不同通道的特征,从而提高了模型对多尺度特征的感知能力;将经过两个卷积层提取到的特征进行线性融合,通过批归一化和Sigmoid激活函数得到通道注意力权重,最后将注意力权重应用于输入特征,以强化重要的通道信息;紧接着,将经过通道注意力模块后的输入特征再次输入到带有多分支卷积的空间注意力模块中;通过采用1×1、3×3、5×5的三个不同卷积核的卷积层分支,通过在不同分支中引入多尺度的卷积操作,空间注意力模块可以捕获更广泛的上下文关系;不同分支可以理解不同尺度范围内的上下文信息,从而提高模块对输入特征的理解能力;将三个分支提取到的特征进行线性融合,最后通过批归一化和Sigmoid激活函数得到空间注意力权重,然后将空间注意力权重应用于输入特征,以强化重要的空间信息;通过对输入特征采用1×1的卷积对输入特征进行线性变换来生成新的特征表示;通过批归一化和Sigmoid激活函数得到自注意力权重,并将其应用于输入特征,以强化重要的特征信息;将自注意力模块输出特征与经过通道注意力机制和空间注意力机制的输出特征进行线性融合,形成最终的混合注意力机制模块;其中通道注意力,空间注意力,自注意力,混合注意力的计算公式为:
Mc=σ(k3×3*Concatenate(AvgPool(F)+MaxPool(F))+k1×1*Concatenate(AvgPool(F)+MaxPool(F)))
Fc=Mc*F
Ms=σ(k3×3*Fc+k1×1*Fc+k5×5*Fc)
Ma=σ(k1×1*F)
Mm=Ms+Ma
式中:K表示n×n的卷积核;F表示输入特征图;σ表示激活函数,Mc为通道注意力加权特征图,Ms为空间注意力加权特征图,Fc表示通道注意力加权后的输出特征,作为空间注意力的输入,Ma为自注意力加权特征图,Mm为最后得到的混合注意力特征图;
残差连接,通过引入跨层的直接连接,通过将前一层的输出与当前层的输入相加,然后输入到当前层的非线性激活函数中,使网络能够学习残差部分,即前一层输出与当前层输出之间的差异;可以有效地传递梯度,减轻了梯度消失问题,使得深层网络更容易训练和优化;
如图6所示,输出部分主要是通过一层3×3卷积核的普通卷积进行降维,然后引入自适应平均池化层;通过在特征图上进行平均操作来减少特征图中的细微噪声,减少模型的过拟合风险,提高泛化能力和模型的鲁棒性;而且相比于传统的全连接层,它不会引入额外的参数,从而减少了模型的总参数数量;最后通过softmax激活函数进行面部表情分类;
S11,准备数据集,对整个模型采用面部表情fer2013数据集进行训练;fer2013数据集是一个用于面部表情识别的公开数据集;它包含了来自互联网上不同来源的人脸图像,总共包含35,887张图片;该数据集主要用于面部表情识别任务的训练和评估;将fer2013数据集打乱,并按照9:1的比例划分为训练集和验证集两部分;
S12、将所准备数据集的训练集输入至基于混合注意力卷积网络的面部表情识别网络模型中,进行模型训练;对于训练集部分进行预处理,采用随机旋转,随机水平平移,随机垂直平移,随机缩放等预处理手段操作进行数据增强,扩充数据集,使其能够在训练过程中使模型获得更高的鲁棒性;将增强后的训练数据输入至S10构建好的网络模型中,进行模型训练;其中,模型采用Adam优化器,学习率为0.001,patience=30,衰减因子factor=0.1,监控指标为验证集准确率,以多分类交叉损失函数作为模型的损失函数,并保存最好的模型参数;在超过30次,模型没有准确度提升后,模型会提前终止训练;
S13:将fer2013数据集划分出来的验证集输入至训练好的网络模型对模型进一步微调,确保能够得到更好的验证集预测准确率,并得到更加稳定的训练参数;由于模型最终需要应用于真实场景中,在模型微调过程中,不仅要提高模型预测准确率,也需要使模型具有更好的鲁棒性和泛化能力,能够更好的应用于真实场景;
S14:保存S13模型优化后的网络模型以及相关参数;将这个最终模型以及相关参数作为以后面部表情预测来使用;
S15:输入待测人脸图片,输入至模型进行面部表情预测;先将待识别的人脸数据,利用Haar级联分类器从输入图像中检测出人脸信息,Haar级联分类器在检测人脸时已经对所述人脸图像进行灰度转换,转换为灰度图像;对灰度转换后的人脸图像进行长宽尺寸的校正,使所述人脸图像的长宽调整至预设的尺寸;对所述人脸图像按照预设的人脸部位规则进行分割,将该面部区域所有图像作为数据样本图像输入至S14中训练好的网络模型中进行面部表情预测;
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于混合注意力卷积网络的面部表情识别方法,其特征在于:该方法包括:
S10:构建基于混合注意力卷积网络的面部表情识别网络模型;
S11:准备数据集,采用面部表情fer2013数据集,将数据集按照9:1的比例划分为训练集和验证集两部分;
S12:将所准备数据集的训练集输入至基于混合注意力卷积网络的面部表情识别网络模型中,进行模型训练;
S13:将所准备数据集的验证集输入至训练好的网络模型对模型进一步微调,获得最优的训练参数和训练效果;
S14:保存训练和测试后的网络模型以及相关参数。
S15:输入待测人脸图片,输入至模型进行面部表情预测。
2.根据权利要求1所述的一种基于混合注意力卷积网络的面部表情识别方法,其特征在于:所述S10中网络模型包含浅层卷积块,深度可分离卷积块,残差和输出模块;
所述浅层卷积块主要是用来提取面部表情的浅层纹理特征和边缘特征,通过逐层卷积等操作捕捉到面部图像中的局部和全局特征,从而帮助模型更好地理解面部表情的结构和变化;
所述深度可分离卷积块主要包含深度可分离卷积部分和所提出的混合注意力部分;所属深度可分离卷积部分主要是对模型进行深层次特征提取,获得更加细腻的面部表情特征,例如面部的微表情、肌肉变化等;所提出的混合注意力部分主要是针对不同的表情可能涉及到不同的面部区域和特征模式,混合注意力可以使模型更集中地关注与当前表情相关的特征;通过使用混合注意力机制来动态地调整特征的权重,使网络可以自适应地关注对于特定任务更重要的特征;
所述残差主要通过残差连接学习上一个模块保留的特征信息,提升特征学习能力,同时限制梯度,有利于避免梯度爆炸,使信息在网络中更容易地传播;
所述输出模块,通过卷积层调整输出维度,利用全局平均池化可以帮助网络汇总整个面部图像中的信息,捕捉到全局的情感特征,从而有助于更准确地进行表情分类。
3.根据权利要求1所述的一种基于混合注意力卷积网络的面部表情识别方法,其特征在于:所述S11中,数据集为fer2013数据集,该数据集是从真实世界中收集的,fer2013数据集中的图像分辨率较低,因此可以更好地反映真实场景中的面部表情变化。
4.根据权利要求1所述的一种基于混合注意力卷积网络的面部表情识别方法,其特征在于:所述S12中,在训练网络模型时,设置损失函数,训练批次大小,训练次数,优化器,学习率等预值。
5.根据权利要求1所述的一种基于混合注意力卷积网络的面部表情识别方法,其特征在于:所述S12中,模型训练损失函数为多分类交叉损失函数,训练批次为300次,优化器为Adam优化器,学习率为0.001。
6.根据权利要求1所述的一种基于混合注意力卷积网络的面部表情识别方法,其特征在于:所述S12中,在训练网络模型过程中通过评价指标评估模型训练表情预测分类的准确度。
7.根据权利要求1所述的一种基于混合注意力卷积网络的面部表情识别方法,其特征在于:所述S15中,对于待测人脸图片,需要先通过Haar级联分类器从输入图像中检测出人脸信息,校正长宽尺寸,进行人脸分割,最后再输入至模型进行训练预测。
CN202311118893.5A 2023-09-01 2023-09-01 一种基于混合注意力卷积网络的面部表情识别方法 Pending CN117475490A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311118893.5A CN117475490A (zh) 2023-09-01 2023-09-01 一种基于混合注意力卷积网络的面部表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311118893.5A CN117475490A (zh) 2023-09-01 2023-09-01 一种基于混合注意力卷积网络的面部表情识别方法

Publications (1)

Publication Number Publication Date
CN117475490A true CN117475490A (zh) 2024-01-30

Family

ID=89636835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311118893.5A Pending CN117475490A (zh) 2023-09-01 2023-09-01 一种基于混合注意力卷积网络的面部表情识别方法

Country Status (1)

Country Link
CN (1) CN117475490A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114120424A (zh) * 2021-12-08 2022-03-01 河南科技大学 一种基于注意力机制的轻量级面部情绪识别方法
WO2022111236A1 (zh) * 2020-11-24 2022-06-02 华中师范大学 一种结合注意力机制的面部表情识别方法及系统
CN115937945A (zh) * 2022-12-12 2023-04-07 重庆邮电大学 基于视觉Transformer和卷积网络相融合的人脸表情识别方法
CN116580436A (zh) * 2023-05-08 2023-08-11 长春理工大学 一种带有辅助分类器的轻量化卷积网络面部情绪识别方法
CN116580442A (zh) * 2023-05-31 2023-08-11 平安科技(深圳)有限公司 基于可分离卷积的微表情识别方法、装置、设备及介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022111236A1 (zh) * 2020-11-24 2022-06-02 华中师范大学 一种结合注意力机制的面部表情识别方法及系统
CN114120424A (zh) * 2021-12-08 2022-03-01 河南科技大学 一种基于注意力机制的轻量级面部情绪识别方法
CN115937945A (zh) * 2022-12-12 2023-04-07 重庆邮电大学 基于视觉Transformer和卷积网络相融合的人脸表情识别方法
CN116580436A (zh) * 2023-05-08 2023-08-11 长春理工大学 一种带有辅助分类器的轻量化卷积网络面部情绪识别方法
CN116580442A (zh) * 2023-05-31 2023-08-11 平安科技(深圳)有限公司 基于可分离卷积的微表情识别方法、装置、设备及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李飞等: "结合双注意力模块和ShuffleNet模型的微表情识别", 黑龙江大学自然科学学报, vol. 40, no. 4, 25 August 2023 (2023-08-25) *
高健;林志贤;郭太良;: "基于混合注意力机制的表情识别研究", 信息技术与网络安全, no. 01, 10 January 2020 (2020-01-10) *

Similar Documents

Publication Publication Date Title
CN110458844B (zh) 一种低光照场景的语义分割方法
CN112052886B (zh) 基于卷积神经网络的人体动作姿态智能估计方法及装置
CN112991354B (zh) 一种基于深度学习的高分辨率遥感影像语义分割方法
CN113378906B (zh) 一种特征自适应对齐的无监督域适应遥感图像语义分割方法
CN114758383A (zh) 基于注意力调制上下文空间信息的表情识别方法
CN112446476A (zh) 神经网络模型压缩的方法、装置、存储介质和芯片
CN112347888B (zh) 基于双向特征迭代融合的遥感图像场景分类方法
CN108133188A (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
CN112507898A (zh) 一种基于轻量3d残差网络和tcn的多模态动态手势识别方法
CN112115967B (zh) 一种基于数据保护的图像增量学习方法
CN114898151A (zh) 一种基于深度学习与支持向量机融合的图像分类方法
CN113420794B (zh) 一种基于深度学习的二值化Faster R-CNN柑橘病虫害识别方法
CN116486074A (zh) 一种基于局部和全局上下文信息编码的医学图像分割方法
CN110852199A (zh) 一种基于双帧编码解码模型的前景提取方法
CN116912708A (zh) 一种基于深度学习的遥感影像建筑物提取方法
CN113392711A (zh) 一种基于高层语义与噪声抑制的烟雾语义分割方法及系统
CN112883931A (zh) 基于长短期记忆网络的实时真假运动判断方法
CN115311508A (zh) 一种基于深度u型网络的单帧图像红外弱小目标检测方法
CN117593666B (zh) 一种极光图像的地磁台站数据预测方法及系统
CN114972753A (zh) 基于上下文信息聚合和辅助学习的轻量级语义分割方法及系统
CN114202694A (zh) 基于流形混合插值和对比学习的小样本遥感场景图像分类方法
CN112215241B (zh) 一种基于小样本学习的图像特征提取装置
CN111325149B (zh) 一种基于投票的时序关联模型的视频动作识别方法
CN113221683A (zh) 教学场景下基于cnn模型的表情识别方法
CN113269702A (zh) 基于跨尺度特征融合的低曝光静脉图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination