CN112613479A - 基于轻量流式网络和注意力机制的表情识别方法 - Google Patents

基于轻量流式网络和注意力机制的表情识别方法 Download PDF

Info

Publication number
CN112613479A
CN112613479A CN202110001577.4A CN202110001577A CN112613479A CN 112613479 A CN112613479 A CN 112613479A CN 202110001577 A CN202110001577 A CN 202110001577A CN 112613479 A CN112613479 A CN 112613479A
Authority
CN
China
Prior art keywords
attention mechanism
streaming network
image
network
lightweight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110001577.4A
Other languages
English (en)
Other versions
CN112613479B (zh
Inventor
柯逍
林艳
王俊强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110001577.4A priority Critical patent/CN112613479B/zh
Publication of CN112613479A publication Critical patent/CN112613479A/zh
Application granted granted Critical
Publication of CN112613479B publication Critical patent/CN112613479B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于轻量流式网络和注意力机制的表情识别方法,包括以下步骤:步骤S1:获取表情图像数据集,并预处理;步骤S2:构建包含注意力机制的轻量流式网络,并在网络的最后通过交叉熵损失函数进行分类;步骤S3根据预处理后的表情图像数据集训练包含注意力机制的轻量流式网络;步骤S4:将待测图像数据输入训练后的包含注意力机制的轻量流式网络,得到识别结果。本发明能够有效地对表情图像进行分类,提升了表情图像分类的效果。

Description

基于轻量流式网络和注意力机制的表情识别方法
技术领域
本发明涉及模式识别与计算机视觉领域,具体涉及一种基于轻量流式网络和注意力机制的表情识别方法。
背景技术
随着信息科技和现代社会的高速发展,人工智能技术已经渗透到了社会生活的各个细枝末节,例如智能翻译、智能音箱、智能识别等技术。人类作为信息社
会价值交换的主体,对自身行为的智能分析和研究应用在当今社会条件下显得尤
为重要,人类的面部作为人类身体部位上传达信息最为丰富的区域,更是科学家
们研究的重中之重。除了目前已经被作为生物密码的人脸识别之外,人脸的面部表情也是人类面部可以传达出的重要信息,人脸面部的表情表达通常比语言的表达更具感染力和表现力,而且来自于表情的情感表达历史远远早于语言的兴起。自动的面部表情识别在社交机器人、情感计算和医药医疗领域都有着十分重要的研究意义。因此,近年来人们提出了许多利用计算机视觉和机器学习算法来实现表情自动识别的工作。
发明内容
有鉴于此,本发明的目的在于提供一种基于轻量流式网络和注意力机制的表情识别方法,能够有效地微表情图像进行分类。
为实现上述目的,本发明采用如下技术方案:
一种基于轻量流式网络和注意力机制的表情识别方法,包括以下步骤:
步骤S1:获取表情图像数据集,并预处理;
步骤S2:构建包含注意力机制的轻量流式网络,根据预处理后的表情图像数据集训练包含注意力机制的轻量流式网络;
步骤S3:在网络的最后,通过交叉熵损失函数进行分类;
步骤S4:将待测图像数据输入训练后的包含注意力机制的轻量流式网络,得到识别结果。
进一步的,所述步骤S1具体为:
步骤S11:获取表情图像数据集,并使用级联卷积神经网络进行人脸对齐;
步骤S12:根据步骤S11处理后得到人脸对齐之后的图像,然后进图像进行灰度归一化;
步骤S13:采用增强操作,对归一化后的图像数据进行数据增强,得到预处理后的表情图像数据集。
进一步的,所述级联卷积神经网络包含若干阶段,每个阶段都包含前一阶段的输出作为输入,输出偏置,加上偏置并摆正人脸关键点和输入图,用输出的点生成热力图、最后一层卷积输出的特征图以及摆正后的原图作为下一个阶段的输入,具体的:
第一级的输入是一张人脸的原始图像I,将面部关键点初始化为S0,S0由所有关键点取平均得到,经过卷积神经网络后加上平均形状S0,得到该级的形状估计S1
在第二级中,首先利用S0对人脸原始图像I和S1进行矫正变化,即计算S1相对于S0的仿射矩阵并作用与二者之上,得到矫正后的人脸图像I'和形状S1',并根据S1'生成关键点热力图M';
之后的级联都可以看作是第二级模块的堆叠,即将上一级的全连接层,输出的关键点人力图和校正后的人脸图像作为输入,输出该级的估计。
进一步的,所述图像归一化具体为:
Figure BDA0002881590920000031
其中Vbefore表示转换前的值,Vafter表示转换后的值,MinValue表示样本的最小值,MaxValue表示样本的最大值。
进一步的,所述增强操作具体为:
将图像的随机区域进行剪裁,然后将剪裁出的部分调整为灰度归一化后的大小;
以预设概率对灰度归一化后的图像进行水平翻转;
对灰度归一化后图像进行顺时针或者逆时针的旋转;
在图像中随机加入预设的噪声。
进一步的,所述轻量流式网络构建,具体为:基于MobileNetV2基本块和shuffleNet基本块构建轻量流式网络中的基本构建块,堆叠构成轻量流式网络的主体;在轻量流式网络中加入注意力机制模块;并引入一个流式模块来替代全局平均池化的操作。
进一步的,所述基于MobileNetV2基本块和shuffleNet基本块构建轻量流式网络中的基本构建块具体为:
所述MobileNetV2基本块Inverted Residual Block先使用一个1×1的卷积进行维度的扩张,再使用深度可分离卷积进行特征的提取,最后再使用一个1×1的卷积进行降维;
所述ShuffleNet的构建形式为一个步长为2的基本单元,该基本单元在左侧增加了一个平均池化的操作,平均池化的操作能够嵌入多尺度的信息并且聚合不同感受野的特征,通过3×3的卷积使得左右两个分支的输出形状相同;
所述轻量流式网络的基本单元,借鉴上述MobileNetV2基本块和shuffleNet的基本单,在shortcut部分增加3×3的平均池化操作和1×1的卷积操作。
进一步的,所述注意力机制模块包括通道模块的注意力模块和空间模块的注意力模块;
所述通道注意力模块,输入是一个H×W×C的特征F,先分别进行一个空间的全局平均池化和最大池化得到两个1×1×C的通道描述;接着,再将它们分别送入一个两层的神经网络,第一层激活函数为Relu,第二层神经元个数为C;然后,再将得到的两个特征相加后经过一个Sigmoid激活函数得到权重系数Mc;最后,拿权重系数和原来的特征F相乘即可得到缩放后的新特征;
所述空间注意力模块,给定一个H×W×C的特征F',先分别进行一个通道维度的平均池化和最大池化得到两个H×W×1的通道描述,并将这两个描述按照通道拼接在一起;然后经过一个7×7的卷积层,激活函数为Sigmoid,得到权重系数Ms;最后拿权重系数和特征F'相乘即可得到缩放后的新特征。
进一步的,所述交叉熵损失函数计算公式如下:
Figure BDA0002881590920000041
其中
Figure BDA0002881590920000051
表示第i个样本标签为1的概率,y(i)表示第i个样本标签不为1的概率,Loss表示损失山函数最终的值。
将待测图像数据输入训练后的包含注意力机制的轻量流式网络,得到识别结果。
本发明与现有技术相比具有以下有益效果:
1、本发明能够有效地对表情图像进行分类,提升了表情图像分类的效果。
2、本发明通过引入流式模块,相比传统全局平均池化方法,对人脸相关的任务效果更具鲁棒性,性能更佳。
3、本发明可以在较小的参数代价和计算量下完成一个可用于宏表情识别的轻量模型。
附图说明
图1是本发明方法流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于轻量流式网络和注意力机制的表情识别方法,包括以下步骤:
步骤S1:获取表情图像数据集,并进行人脸对齐、人脸归一化、数据增强等预处理;
步骤S2:构建包含注意力机制的轻量流式网络,根据预处理后的表情图像数据集训练包含注意力机制的轻量流式网络;
步骤S3:在网络的最后,通过交叉熵损失函数进行分类;
步骤S4:将待测图像数据输入训练后的包含注意力机制的轻量流式网络,得到识别结果。
在本实施例中,步骤S1具体为:
步骤S11:获取表情图像数据集,并使用级联卷积神经网络进行人脸对齐;
获取表情数据集,使用级联卷积神经网络进行人脸对齐,级联卷积神经网络包含多个阶段,每个阶段都包含前一阶段的输出作为输入,输出偏置,加上偏执并摆正人脸关键点和输入图,用输出的点生成热力图、最后一层卷积输出的特征图以及摆正后的原图作为下一个阶段的输入,通过这种手段不断地修正,以达到鲁棒性的效果;
优选的,第一级的输入是一张人脸的原始图像I,将面部关键点初始化为S0,S0由所有关键点取平均得到,经过卷积神经网络后加上平均形状S0,得到该级的形状估计S1
在第二级中,首先利用S0对人脸原始图像I和S1进行矫正变化,即计算S1相对于S0的仿射矩阵并作用与二者之上,得到矫正后的人脸图像I'和形状S1',并根据S1'生成关键点热力图M'。
之后的级联都可以看作是第二级模块的堆叠,即将上一级的全连接层,输出的关键点人力图和校正后的人脸图像作为输入,输出该级的估计。初次之外级联卷积神经网络的每一级采用的网络结构都是一样的,即为VGG16的迷你版本,各级的输入是112×112的灰度图,输出的是1×136的关键点坐标。
步骤S12:根据步骤S11处理后得到人脸对齐之后的图像,然后进图像进行灰度归一化,使其像素的灰度值分布在0到255之间,避免图像对比度不足,即图像像素亮度分布不平衡对后续表情识别带来的干扰。图像归一化的原理为:
Figure BDA0002881590920000061
其中Vbefore表示转换前的值,Vafter表示转换后的值,MinValue表示样本的最小值,MaxValue表示样本的最大值。
步骤S13:采用增强操作,对归一化后的图像数据进行数据夸大,得到预处理后的表情图像数据集。例如翻转,旋转,切割等,上述操作称为数据增强。数据增强操作另一大好处是扩大数据库的数据量,使得训练的网络鲁棒性更强。在训练阶段使用到的数据增强方法有:剪裁,将图像的随机区域进行剪裁,然后将剪裁出的部分调整为灰度归一化后的大小;翻转,以0.5的概率对灰度归一化后的图像进行水平翻转;旋转,对灰度归一化后图像进行顺时针或者逆时针的旋转,旋转度为5度;高斯噪声,在图像中随机加入少量的噪声,引入噪声数据能够去除高频特征有效防止过拟合。
在测试阶段,采用一种集成的方法来减少异常值。将图片在左上角,左下角,右上角,右下角,中心进行切割和并做镜像操作,这样的操作使得数据库扩大了10倍,再将这10张图片送入模型。然后将得到的概率取平均,最大的输出分类即为对应表情,这种方法有效地降低了分类错误。
在本实施例中,轻量流式网络构建,具体为:
设计轻量流式网络中的基本构建块,堆叠构成轻量流式网络的主体。基本构建块主要借鉴了MobileNetV2基本块和shuffleNet基本块的思想,ResNe中一个基本构建块BottleNeck,因为中间3×3的空间卷参数的计算量很大,所以其主要通过首端和尾端1×1的卷积降维通道和恢复通道的方式来减少计算量,MobileNetV2基本块Inverted ResidualBlock先使用一个1×1的卷积进行维度的扩张,再使用深度可分离卷积进行特征的提取,最后再使用一个1×1的卷积进行降维,因为引入的深度可分离卷积有效地减少了参数的计算量,所以即使提升了维度仍然不会带来太大参数计算,反而在提升维度之后能够获得更多特征。ShuffleNet的构建形式为一个步长为2的基本单元,该基本单元在左侧增加了一个平均池化的操作,平均池化的操作能够嵌入多尺度的信息并且聚合不同感受野的特征,通过3×3的卷积使得左右两个分支的输出形状相同。借鉴上述MobileNetV2基本块和shuffleNet的基本单元构建轻量流式网络的基本单元,通过结合两种轻量架构的优点,在shortcut部分增加3×3的平均池化操作和1×1的卷积操作,有效地降低了网络的计算量和参数大小,扩大了参数的尺寸;
设计流式模块:虽然全局平均池化的操作拥有良好的降维和防止网络过拟合的能力,被用在很多先进的深度神经网络中,但是在一些人脸相关的问题上,拥有全局平均池化操作的网络通常表现地比那些没有全局平均池化的网络要差。本专利中在网络的最后引入一个流式模块来替代全局平均池化的操作,在不引入更多参数的情况下使得网络能够更加适用于人脸相关的任务。在流式模块的前部有一个步长大于1的深度可分离卷积用于下采样,接着再进行一个1×1的卷积操作,该卷积之后跟一个拉平的操作,将结果展平成一个一维向量。通过该模块就能有效避免全局平均池化带来的相同权重问题,同时与常规的卷积操作相比,有效减少了参数数量和运算成本;
在本实施例中,在轻量流式网络中加入注意力机制模块。该注意力机制模块是一种轻量级的通用模块,主要包含两部分的注意力,分别为通道模块的注意力和空间模块的注意力。
对于通道注意力模块,输入是一个H×W×C的特征F,我们先分别进行一个空间的全局平均池化和最大池化得到两个1×1×C的通道描述。接着,再将它们分别送入一个两层的神经网络,第一层激活函数为Relu,第二层神经元个数为C。然后,再将得到的两个特征相加后经过一个Sigmoid激活函数得到权重系数Mc。最后,拿权重系数和原来的特征F相乘即可得到缩放后的新特征。
对于空间注意力模块,给定一个H×W×C的特征F',我们先分别进行一个通道维度的平均池化和最大池化得到两个H×W×1的通道描述,并将这两个描述按照通道拼接在一起。然后经过一个7×7的卷积层,激活函数为Sigmoid,得到权重系数Ms。最后拿权重系数和特征F'相乘即可得到缩放后的新特征;
在本实施中,所述交叉熵损失函数计算公式如下:
Figure BDA0002881590920000091
其中
Figure BDA0002881590920000092
表示第i个样本标签为1的概率,y(i)表示第i个样本标签不为1的概率,Loss表示损失山函数最终的值。
最后,将待测图像数据输入训练后的包含注意力机制的轻量流式网络,得到识别结果。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (9)

1.一种基于轻量流式网络和注意力机制的表情识别方法,其特征在于,包括以下步骤:
步骤S1:获取表情图像数据集,并预处理;
步骤S2:构建包含注意力机制的轻量流式网络,根据预处理后的表情图像数据集训练包含注意力机制的轻量流式网络;
步骤S3:在网络的最后,通过交叉熵损失函数进行分类;
步骤S4:将待测图像数据输入训练后的包含注意力机制的轻量流式网络,得到识别结果。
2.根据权利要求1所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述步骤S1具体为:
步骤S11:获取表情图像数据集,并使用级联卷积神经网络进行人脸对齐;
步骤S12:根据步骤S11处理后得到人脸对齐之后的图像,然后进图像进行灰度归一化;
步骤S13:采用增强操作,对归一化后的图像数据进行数据增强,得到预处理后的表情图像数据集。
3.根据权利要求2所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述级联卷积神经网络包含若干阶段,每个阶段都包含前一阶段的输出作为输入,输出偏置,加上偏置并摆正人脸关键点和输入图,用输出的点生成热力图、最后一层卷积输出的特征图以及摆正后的原图作为下一个阶段的输入,具体的:
第一级的输入是一张人脸的原始图像I,将面部关键点初始化为S0,S0由所有关键点取平均得到,经过卷积神经网络后加上平均形状S0,得到该级的形状估计S1
在第二级中,首先利用S0对人脸原始图像I和S1进行矫正变化,即计算S1相对于S0的仿射矩阵并作用与二者之上,得到矫正后的人脸图像I'和形状S1',并根据S1'生成关键点热力图M';
之后的级联都可以看作是第二级模块的堆叠,即将上一级的全连接层,输出的关键点人力图和校正后的人脸图像作为输入,输出该级的估计。
4.根据权利要求2所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述图像归一化具体为:
Figure FDA0002881590910000021
其中Vbefore表示转换前的值,Vafter表示转换后的值,MinValue表示样本的最小值,MaxValue表示样本的最大值。
5.根据权利要求2所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述增强操作具体为:
将图像的随机区域进行剪裁,然后将剪裁出的部分调整为灰度归一化后的大小;
以预设概率对灰度归一化后的图像进行水平翻转;
对灰度归一化后图像进行顺时针或者逆时针的旋转;
在图像中随机加入预设的噪声。
6.根据权利要求1所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述轻量流式网络构建,具体为:基于MobileNetV2基本块和shuffleNet基本块构建轻量流式网络中的基本构建块,堆叠构成轻量流式网络的主体;在轻量流式网络中加入注意力机制模块;并引入一个流式模块来替代全局平均池化的操作。
7.根据权利要求6所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述基于MobileNetV2基本块和shuffleNet基本块构建轻量流式网络中的基本构建块具体为:
所述MobileNetV2基本块Inverted Residual Block先使用一个1×1的卷积进行维度的扩张,再使用深度可分离卷积进行特征的提取,最后再使用一个1×1的卷积进行降维;
所述ShuffleNet的构建形式为一个步长为2的基本单元,该基本单元在左侧增加了一个平均池化的操作,平均池化的操作能够嵌入多尺度的信息并且聚合不同感受野的特征,通过3×3的卷积使得左右两个分支的输出形状相同;
所述轻量流式网络的基本单元,借鉴上述MobileNetV2基本块和shuffleNet的基本单,在shortcut部分增加3×3的平均池化操作和1×1的卷积操作。
8.根据权利要求6所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述注意力机制模块包括通道模块的注意力模块和空间模块的注意力模块;
所述通道注意力模块,输入是一个H×W×C的特征F,先分别进行一个空间的全局平均池化和最大池化得到两个1×1×C的通道描述;接着,再将它们分别送入一个两层的神经网络,第一层激活函数为Relu,第二层神经元个数为C;然后,再将得到的两个特征相加后经过一个Sigmoid激活函数得到权重系数Mc;最后,拿权重系数和原来的特征F相乘即可得到缩放后的新特征;
所述空间注意力模块,给定一个H×W×C的特征F',先分别进行一个通道维度的平均池化和最大池化得到两个H×W×1的通道描述,并将这两个描述按照通道拼接在一起;然后经过一个7×7的卷积层,激活函数为Sigmoid,得到权重系数Ms;最后拿权重系数和特征F'相乘即可得到缩放后的新特征。
9.根据权利要求1所述的基于轻量流式网络和注意力机制的表情识别方法,其特征在于,所述交叉熵损失函数计算公式如下:
Figure FDA0002881590910000041
其中
Figure FDA0002881590910000042
表示第i个样本标签为1的概率,y(i)表示第i个样本标签不为1的概率,Loss表示损失山函数最终的值。
CN202110001577.4A 2021-01-04 2021-01-04 基于轻量流式网络和注意力机制的表情识别方法 Active CN112613479B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110001577.4A CN112613479B (zh) 2021-01-04 2021-01-04 基于轻量流式网络和注意力机制的表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110001577.4A CN112613479B (zh) 2021-01-04 2021-01-04 基于轻量流式网络和注意力机制的表情识别方法

Publications (2)

Publication Number Publication Date
CN112613479A true CN112613479A (zh) 2021-04-06
CN112613479B CN112613479B (zh) 2022-07-08

Family

ID=75253438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110001577.4A Active CN112613479B (zh) 2021-01-04 2021-01-04 基于轻量流式网络和注意力机制的表情识别方法

Country Status (1)

Country Link
CN (1) CN112613479B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221698A (zh) * 2021-04-29 2021-08-06 北京科技大学 一种基于深度学习和表情识别的面部关键点定位方法
CN114186632A (zh) * 2021-12-10 2022-03-15 北京百度网讯科技有限公司 关键点检测模型的训练方法、装置、设备、存储介质
CN117237359A (zh) * 2023-11-15 2023-12-15 天津市恒一机电科技有限公司 传送带撕裂检测方法、装置、存储介质和电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190311188A1 (en) * 2018-12-05 2019-10-10 Sichuan University Face emotion recognition method based on dual-stream convolutional neural network
EP3564854A1 (en) * 2018-10-30 2019-11-06 Baidu Online Network Technology (Beijing) Co., Ltd. Facial expression recognition method, apparatus, electronic device, and storage medium
CN110427867A (zh) * 2019-07-30 2019-11-08 华中科技大学 基于残差注意力机制的面部表情识别方法及系统
CN111507224A (zh) * 2020-04-09 2020-08-07 河海大学常州校区 一种基于网络剪枝的cnn人脸表情识别显著性分析方法
CN112101241A (zh) * 2020-09-17 2020-12-18 西南科技大学 一种基于深度学习的轻量级表情识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3564854A1 (en) * 2018-10-30 2019-11-06 Baidu Online Network Technology (Beijing) Co., Ltd. Facial expression recognition method, apparatus, electronic device, and storage medium
US20190311188A1 (en) * 2018-12-05 2019-10-10 Sichuan University Face emotion recognition method based on dual-stream convolutional neural network
CN110427867A (zh) * 2019-07-30 2019-11-08 华中科技大学 基于残差注意力机制的面部表情识别方法及系统
CN111507224A (zh) * 2020-04-09 2020-08-07 河海大学常州校区 一种基于网络剪枝的cnn人脸表情识别显著性分析方法
CN112101241A (zh) * 2020-09-17 2020-12-18 西南科技大学 一种基于深度学习的轻量级表情识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MUHAMAD DWISNANTO PUTRO ET AL.: "A Dual Attention Module for Real-time Facial Expression Recognition", 《IEEE》 *
亢洁等: "基于注意力机制的卷积神经网络人脸表情识别", 《陕西科技大学学报》 *
王韦祥等: "基于改进MobileNet网络的人脸表情识别", 《计算机应用与软件》 *
褚晶辉等: "一种基于注意力模型的面部表情识别算法", 《激光与光电子学进展》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221698A (zh) * 2021-04-29 2021-08-06 北京科技大学 一种基于深度学习和表情识别的面部关键点定位方法
CN113221698B (zh) * 2021-04-29 2023-08-15 北京科技大学 一种基于深度学习和表情识别的面部关键点定位方法
CN114186632A (zh) * 2021-12-10 2022-03-15 北京百度网讯科技有限公司 关键点检测模型的训练方法、装置、设备、存储介质
CN117237359A (zh) * 2023-11-15 2023-12-15 天津市恒一机电科技有限公司 传送带撕裂检测方法、装置、存储介质和电子设备
CN117237359B (zh) * 2023-11-15 2024-02-20 天津市恒一机电科技有限公司 传送带撕裂检测方法、装置、存储介质和电子设备

Also Published As

Publication number Publication date
CN112613479B (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
CN112613479B (zh) 基于轻量流式网络和注意力机制的表情识别方法
CN112307958A (zh) 基于时空外观运动注意力网络的微表情识别方法
CN107085704A (zh) 基于elm自编码算法的快速人脸表情识别方法
CN116645716B (zh) 基于局部特征和全局特征的表情识别方法
US11430255B2 (en) Fast and robust friction ridge impression minutiae extraction using feed-forward convolutional neural network
Xu et al. Face expression recognition based on convolutional neural network
CN111368734B (zh) 一种基于正常表情辅助的微表情识别方法
CN115578589B (zh) 一种无监督超声心动图切面识别方法
CN111291810B (zh) 基于目标属性解耦的信息处理模型生成方法及相关设备
CN115393944A (zh) 一种基于多维特征融合的微表情识别方法
Li et al. FVGNN: A novel GNN to finger vein recognition from limited training data
CN111160327B (zh) 一种基于轻量化卷积神经网络的表情识别方法
Chen et al. A finger vein recognition algorithm based on deep learning
CN116758621B (zh) 基于自注意力机制的遮挡人脸面部表情深度卷积识别方法
CN116884067A (zh) 一种基于改进的隐式语义数据增强的微表情识别方法
CN115100509B (zh) 基于多分支块级注意力增强网络的图像识别方法及系统
Bhattacharya et al. Simplified face quality assessment (sfqa)
CN112784800B (zh) 一种基于神经网络和形状约束的人脸关键点检测方法
Zhou et al. Design of lightweight convolutional neural network based on dimensionality reduction module
CN114283301A (zh) 一种基于Transformer的自适应医学影像分类方法及系统
CN114328991A (zh) 一种基于哈希编码的图像声音检索方法
CN115984911A (zh) 属性生成对抗网络以及基于该网络的人脸图像连续变换方法
TWI722383B (zh) 應用於深度學習之預特徵萃取方法
CN114140848A (zh) 基于knn和dsn的微表情识别方法、系统、设备及存储介质
Norouzi A Survey on Face Recognition Based on Deep Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant