CN113627376B - 基于多尺度密集连接深度可分离网络的人脸表情识别方法 - Google Patents
基于多尺度密集连接深度可分离网络的人脸表情识别方法 Download PDFInfo
- Publication number
- CN113627376B CN113627376B CN202110948629.9A CN202110948629A CN113627376B CN 113627376 B CN113627376 B CN 113627376B CN 202110948629 A CN202110948629 A CN 202110948629A CN 113627376 B CN113627376 B CN 113627376B
- Authority
- CN
- China
- Prior art keywords
- layer
- module
- convolution
- expression recognition
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000014509 gene expression Effects 0.000 claims abstract description 85
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000011176 pooling Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000001965 increasing effect Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000008034 disappearance Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000013519 translation Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 abstract description 10
- 230000007246 mechanism Effects 0.000 abstract description 5
- 230000008901 benefit Effects 0.000 abstract description 2
- 230000010354 integration Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于多尺度密集连接深度可分离网络的人脸表情识别方法,属于图像识别技术领域。本发明包含以下步骤:构建基于多尺度密集连接深度可分离网络的轻量级表情识别网络;训练表情识别网络模型;将经过预处理后的待识别表情图像输入到训练后的表情识别网络;表情识别网络对表情图像进行自动识别并输出所属类别。本发明充分利用了密集连接卷积神经网络在大规模图像识别领域内展现的优势,将分组卷积、多尺度深度可分离卷积及通道注意力机制三种思想相结合,通过减少参数量,有效降低了标准卷积运算的复杂度及网络深度,提升了表情识别的准确率,为设备集成与实际应用部署提供了可能性。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于多尺度密集连接深度可分离网络的人脸表情识别方法。
背景技术
面部表情是人类传达情感状态和意图最普遍自然的途径之一,人脸表情识别在人机交互中扮演着非常重要的角色。
随着深度学习技术的飞速发展,各种深度学习模型被应用在人脸表情识别的研究中。深度学习技术带来识别效果提升的同时也使得运算需求急剧增加,对模型运行所需要的硬件配置也不断增高,过高的配置需求会极大地阻碍模型的实际应用。因此,表情识别技术除了在提高识别准确率方面需要继续深入研究以外,如何降低模型参数量,使模型能够在性能较低的设备上正常运行也是一个重要的研究方向。如今,如何压缩模型使其足够轻量化便于部署对于表情识别技术在远程教育,医疗监护,安全驾驶,娱乐产业等领域的相关应用也有重要意义。
近年来,卷积神经网络(CNN)已成为计算机视觉任务中最常用的算法。通过权重共享和下采样,卷积神经网络可以直接从原始图片中学习特征。目前主要有两种增强卷积神经网络学习能力的方式,一种是通过增加梯度下降的有效优化距离增加模型的深度,典型的例子有ResNet,另一种是通过不同大小的卷积核多尺度的提取特征图进而增加模型的宽度,典型的例子有Inception。无论是增加网络深度还是网络宽度,准确率提升的同时都会带来参数量的大量增加。ResNet的成功表明,只要卷积神经网络的深度足够大,模型准确度就可以一直提高。因此,研究人员购买了许多高性能显卡,并构建了更深层的卷积神经网络。然而这些模型只能在比赛中使用,因为它们需要大量时间进行训练,这限制了它们在现实世界中的应用。
因此,考虑到表情识别实际应用时的硬件成本和实时速度要求,设计了便于部署的轻量级表情识别网络。
发明内容
本发明要解决的技术问题是当人脸表情识别技术被实际应用部署到具体项目时,目前的深度学习网络模型参数量大,泛化能力不够,在满足现有硬件设备的情况下,无法达到较高的精度。为此,本发明提出一种基于密集连接卷积神经网络的轻量化人脸表情识别模型,在满足现有硬件条件下提高精度,进而降低了模型应用部署时的硬件成本。
为实现上述目的,本发明采用如下的技术方案:
一种基于多尺度密集连接深度可分离网络的表情识别方法,包含以下步骤:
步骤1:构建基于人脸表情图像的轻量级表情识别网络;
所述的轻量级表情识别网络包含特征学习模块和表情分类模块,所述特征学习模块包括依次串联的First Conv模块、第一Dense Block模块、第一Transition Layer模块、第二Dense Block模块、第二Transition Layer模块、第三Dense Block模块、第三Transition Layer模块、第四Dense Block模块。
First Conv模块包括依次串联的一个3×3卷积层,BN层,激活层和一个平均池化层。
每个Dense Block模块里包含相互串联的若干个自定义子网络结构BottleneckLayer。
Bottleneck Layer包括四个并行的分支结构,在前三个分支里,输入图像首先经过1×1卷积层进行降维,然后经过SE模块,接下来依次通过不同规模的分组卷积和可分离卷积;最后一个分支依次包含一层1×1卷积层,se模块,一层分组卷积层和最大池化层;将四个分支的输出经过concatenate操作连接后,进行逐点卷积,并最终与Bottleneck Layer的原始输入x连接。
自定义子网络结构Bottleneck Layer中包含分组卷积,多尺度深度可分离卷积和通道注意力模块。深度可分离卷积大幅度降低参数量和计算量;多分支中各分支引入卷积核大小不同的卷积层,可以得到不同尺度的感受野,最终融合多个尺度的特征,有利于模型对不同尺度特征的学习;深度卷积前加入分组卷积,加强通道间信息交互。最后,在各分支中将通道注意力机制和多尺度融合,有利于整个分支有效信息的高效传播,提高模型的分类精度。
Transition Layer模块依次包含BN层、激活层,1×1卷积层和平均池化层。
表情分类模块采用Classification模块,包含BN层,池化层和线性全连接层用于进行表情分类。
进一步地,预处理阶段得到的人脸表情图像输入后,经过First Conv模块,将输入图像变为自定义通道数。然后通过四个串联的Dense Block模块,将增长率设置为12,每个Dense Block模块分别包含3,6,12,8个自定义子结构Bottleneck Layer。相邻Dense Block通过Transition Layer模块进行连接。
进一步地,每个自定义子结构Bottleneck Layer包含分组卷积,多尺度深度可分离卷积和通道注意力模块SE。深度可分离卷积大幅度降低参数量和计算量;多分支中各分支引入卷积核大小不同的卷积层,可以得到不同尺度的感受野,最终融合多个尺度的特征,有利于模型对不同尺度特征的学习;深度卷积前加入分组卷积,加强通道间信息交互。最后,在各分支中将通道注意力机制SE和多尺度融合,有利于整个分支有效信息的高效传播,提高模型的分类精度。
进一步地,分类阶段输出端的分类器设计采用了全卷积神经网络的分类策略,以标准卷积层代替全连接层,加快表情识别速度。
步骤2:训练轻量级表情识别网络模型;
训练轻量级表情识别网络模型的具体步骤为:获取目前表情识别相关挑战赛认可的公共数据集RAF-DB,FER2013,FERPlus,CK+,对数据集中的训练集进行预处理;将经过预处理的图像输入到轻量级表情识别网络模型进行训练。
进一步地,对训练数据集中人脸表情进行预处理的具体方法为:对训练集中的图片进行归一化处理;对训练图片进行数据增强(翻转、平移、颜色抖动等)。
检测到人脸图像后,由于背景,光照,头部姿势等无关因素会对网络训练产生影响,因此需要先对数据进行预处理。主要包括面部对齐,数据增强和归一化。然后对检测到的人脸图像进行裁剪处理,从裁剪的面部区域提取特征并连在一起形成特征矢量,将特征矢量作为特征学习阶段的输入,最后经过分类阶段得到最终的表情识别结果。
进一步地,将经过预处理的人脸数据输入到轻量级表情识别网络模型进行训练,在训练网络模型时,优化器为SGD,epoch设置为350、初始学习率为0.01。
步骤3:将经过预处理后的待识别人脸表情图像输入到训练后的轻量级表情识别模型;
步骤4:轻量级表情识别网络对人脸表情图像进行自动识别并输出所属类别。
对比全连接输出的待识别人脸表情属于各类表情的概率值,自动将待识别表情分类为概率值最高的类别,从而实现表情识别。
本发明与现有技术相比具有以下优点:
1.将密集连接卷积神经网络应用到表情识别中,实现特征图的重用,使网络学习到更多的原始信息,提高模型精度和网络泛化性能的同时减少模型参数量和计算量;
2.引入多尺度深度可分离卷积,多尺度获取融合了不同尺度的特征,对不同分辨率大小的分支使用不同数量的卷积通道,能更充分地利用通道信息,提高模型分类准确率,深度可分离卷积降低了模型的参数量和计算量;
3.加入注意力模块SE提高表情识别准确率,并探究了注意力模块SE与多尺度模块的结合方法,同时引入分组卷积,提高模型计算效率。
附图说明
图1是本发明方法流程图;
图2是轻量级人脸表情识别网络架构图;
图3是Bottleneck Layer结构示意图。
具体实施方式
本发明主要实现的是基于多尺度密集连接深度可分离网络的人脸表情识别。下面将结合附图详细介绍本发明采用的具体方法。
具体而言,基于多尺度密集连接深度可分离网络的人脸表情识别方法的流程如图1所示,包括以下步骤:S1:构建基于多尺度密集连接深度可分离网络的轻量级表情识别网络。S2:训练表情识别网络模型。S3:将经过预处理后的待识别表情图像输入到训练后的表情识别网络。S4:表情识别网络对表情图像进行自动识别并输出所属类别。
对于S1:构建基于多尺度密集连接深度可分离网络的轻量级表情识别网络。
在本发明中,表情识别网络的网络结构设计如图1所示,主要包括First Conv模块,Dense Block模块,Transition Layer模块以及Classification模块。
First Conv模块:输入面部表情图像后,首先对其进行预处理,然后通过FirstConv模块传递,该模块包含一个3×3卷积和一个2×2平均池化层,预处理后的面部表情图像先通过一个3×3卷积,然后再通过一个2×2平均池化层,将输入图像从3通道更改为自定义通道数量。
Dense Block模块:此模块为网络的核心模块,本发明提出的网络结构共包含四个Dense Block模块,每个Dense Block模块里包含若干个自定义子网络结构BottleneckLayer.
子网络结构Bottleneck Layer:Bottleneck Layer的具体网络结构如图3所示。网络一共包括四个分支。在前三个分支里,输入图像首先经过1×1卷积层进行降维,然后经过SE模块,接下来依次通过不同规模的分组卷积和可分离卷积。对于分组卷积而言,卷积核均为3×3,组数为2。对于可分离卷积,三个不同尺度的卷积核大小分别是1×1、3×3和5×5。最后一个分支包含1×1卷积层,se模块,3×3分组卷积层为和最大池化层。将四个分支的输出经过concatenate操作连接后,进行逐点卷积,并最终与原始输入x连接。
Transition Layer模块:相邻Dense Block模块之间通过Transition Layer模块连接,包含BN层、1×1卷积层和2×2平均池化层。
Classification模块:输出端的分类器选择全卷积神经网络的分类策略,使用步长为1、卷积核大小为1×1、输出通道数为表情类别数的标准卷积层来替代全连接层,加快表情识别速度。
特征学习阶段,还可以在深度可分离卷积和分组卷积后增加BN(BatchNormalization)层和激活层。BN层用于对数据进行归一化,以保证每层的数据分布稳定,避免输入数据的偏移造成影响。激活层增加了神经网络各层之间的非线性关系,通过激活函数稀疏后的模型能够更好地提取相关特征、拟合训练数据,同时有效地抑制了梯度消失的问题。
表情识别的整体流程为:检测到人脸图像后对其进行预处理,然后进入特征学习阶段,首先经过图中的FirstConv模块,该模块将输入图片从3通道变为自定义通道数。然后通过四个Dense Block模块,将增长率设置为12,每个模块分别包含3,6,12,8个自定义子结构BottleneckLayer。在BottleneckLayer中,包含1×1卷积,分组卷积,深度可分离卷积以及注意力模块SE。通过四个Dense Block模块进行特征学习后,通过分类模块输出表情所属类别。Dense Block模块应用了密集连接的思路,建立前面所有层与后面层的密集连接,实现特征重用,更好地保留了原始特征,有利于表情分类。深度可分离卷积将标准卷积分解为深度卷积和逐点卷积。深度卷积实际上是分组卷积的极端情况,其中分组的数目等于输入特征图通道的数目,它独立地在输入层的每个通道上执行卷积运算,相比于传统卷积神经网络能大幅度降低模型参数量。在深度可分离卷积的基础上,将原卷积中的单一卷积核替换为多尺度卷积核.不同尺度的卷积可以得到不同尺度的感受野,最后得到融合了不同尺度的特征,有利于模型识别不同尺度的表情图像,提高分类准确率。深度卷积前加入分组卷积,加强通道间信息交互。人脸表情是由面部五官等关键点的肌肉运动决定的,而注意力机制可以让模型具有关注于特定特征的能力,因此在网络模型中引入注意力机制有助于对人脸特征的提取。
对于S2:训练表情识别网络模型。
训练表情识别网络模型的具体步骤为:获取目前计算机视觉领域表情识别相关挑战赛公认的公开数据集,对数据集中的人脸表情图像进行预处理,将经过预处理的表情图像输入到搭建的轻量级表情识别网络中进行训练。
其中,对数据集中的表情图像进行预处理的具体方法是指对图像进行归一化处理及图像增强处理。归一化统一图像分辨率。图像增强包括旋转、平移、颜色抖动等操作,目的是在保证图像特征不变的情况下,扩增数据量,以达到更优的网络训练效果,避免过拟合。
将经过预处理的表情数据输入到通过步骤S1建立的表情识别网络进行训练,优化器为SGD,epoch设置为350、初始学习率为0.01。
对于S3:将经过预处理后的待识别表情图像输入到训练后的表情识别网络。
对待识别的测试集中的人脸图像进行预处理后,输入经过训练的表情识别网络中,在网络中进行特征提取等操作。
对于S4:表情识别网络对表情图像进行自动识别并输出所属类别。
表情识别网络对表情图像进行自动分析后,得到待识别表情属于各类表情的概率值(不同数据集表情类别数不同,总概率和为1),通过对比,自动将待识别表情分类为概率值最高的表情类别,从而实现表情识别。
本实施例中涉及的网络参数均为优选参数,包括但不限于此。
本实施例中提出的网络结构与目前较优的网络结构在表情识别任务中的对比实验结果如表1所示:
表1对比实验结果
由表1可知,本文提出的轻量化模型在各个数据集上与当前较优的其他模型相比,都在保证较高的准确率的同时,压缩了模型大小,降低了模型参数量。
以上具体实施方式仅用于说明本发明的技术方案,而非对其限制。本领域的技术人员应当理解:上述实施方式并不以任何形式限制本发明,凡采用等同替换或等效变换等方式所取得的相似技术方案,均属于本发明的保护范围。
Claims (7)
1.基于多尺度密集连接深度可分离网络的人脸表情识别方法,其特征在于包括以下步骤:
步骤1)构建基于多尺度密集连接深度可分离网络的轻量级表情识别网络;
步骤2)训练轻量级表情识别网络;
步骤3)将经过预处理后的待识别表情图像输入到训练后的轻量级表情识别网络;
步骤4)轻量级表情识别网络对表情图像进行自动识别并输出所属类别;
其中,所述的轻量级表情识别网络主要包含特征学习模块和表情分类模块,所述特征学习模块包括依次串联的First Conv模块、第一Dense Block模块、第一Transition Layer模块、第二Dense Block模块、第二Transition Layer模块、第三Dense Block模块、第三Transition Layer模块、第四Dense Block模块;
First Conv模块包括依次串联的一个3×3卷积层,BN层,激活层和一个平均池化层;
每个Dense Block模块里包含相互串联的若干个自定义子网络结构BottleneckLayer;
Bottleneck Layer包括四个并行的分支结构,在前三个分支里,输入图像首先经过1×1卷积层进行降维,然后经过SE模块,接下来依次通过不同规模的分组卷积和可分离卷积;最后一个分支依次包含一层1×1卷积层,SE模块,一层分组卷积层和最大池化层;将四个分支的输出经过concatenate操作连接后,进行逐点卷积,并最终与Bottleneck Layer的原始输入x连接;
Transition Layer模块依次包含BN层、激活层,1×1卷积层和平均池化层;
表情分类模块采用Classification模块,依次包含BN层,池化层和线性全连接层用于进行表情分类。
2.根据权利要求1所述的基于多尺度密集连接深度可分离网络的人脸表情识别方法,其特征在于,第一至第四Dense Block模块分别包含3,6,12,8个Bottleneck Layer。
3.根据权利要求1所述的基于多尺度密集连接深度可分离网络的人脸表情识别方法,其特征在于,Bottleneck Layer中前三个分支结构中的分组卷积,其卷积核均为3×3,组数为2,对于可分离卷积,三个不同尺度的卷积核大小分别是1×1、3×3和5×5;最后一个分支的卷积层的卷积核大小为1×1,分组卷积层的卷积核大小为3×3;Transition Layer模块包括1×1卷积层和2×2平均池化层。
4.根据权利要求1所述的基于多尺度密集连接深度可分离网络的人脸表情识别方法,其特征在于:Classification模块:输出端的分类器选择全卷积神经网络的分类策略,使用步长为1、卷积核大小为1×1、输出通道数为表情类别数的标准卷积层来替代全连接层,加快表情识别速度。
5.根据权利要求1所述的基于多尺度密集连接深度可分离网络的人脸表情识别方法,其特征在于:在深度可分离卷积和分组卷积后依次增加BN层和激活层,BN层用于对数据进行归一化,以保证每层的数据分布稳定,避免输入数据的偏移造成影响;激活层增加了神经网络各层之间的非线性关系,通过激活函数稀疏后的模型能够更好地提取相关特征、拟合训练数据,同时有效地抑制了梯度消失的问题。
6.根据权利要求1所述的基于多尺度密集连接深度可分离网络的人脸表情识别方法,其特征在于:轻量级表情识别网络的工作过程为:将经过预处理后的人脸图像输入特征学习模块,首先经过First Conv模块将图像由3通道变为自定义通道数,然后依次输入第一Dense Block模块、第一Transition Layer模块、第二Dense Block模块、第二TransitionLayer模块、第三Dense Block模块、第三Transition Layer模块、第四Dense Block模块,最后经过Classification模块完成表情分类。
7.根据权利要求1所述的基于多尺度密集连接深度可分离网络的人脸表情识别方法,其特征在于,预处理包括:
对图片进行归一化处理;
对图片进行数据增强,包括翻转、平移、颜色抖动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110948629.9A CN113627376B (zh) | 2021-08-18 | 2021-08-18 | 基于多尺度密集连接深度可分离网络的人脸表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110948629.9A CN113627376B (zh) | 2021-08-18 | 2021-08-18 | 基于多尺度密集连接深度可分离网络的人脸表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113627376A CN113627376A (zh) | 2021-11-09 |
CN113627376B true CN113627376B (zh) | 2024-02-09 |
Family
ID=78386330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110948629.9A Active CN113627376B (zh) | 2021-08-18 | 2021-08-18 | 基于多尺度密集连接深度可分离网络的人脸表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113627376B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114758383A (zh) * | 2022-03-29 | 2022-07-15 | 河南工业大学 | 基于注意力调制上下文空间信息的表情识别方法 |
CN114884775A (zh) * | 2022-03-31 | 2022-08-09 | 南京邮电大学 | 一种基于深度学习的大规模mimo系统信道估计方法 |
CN115205614B (zh) * | 2022-05-20 | 2023-12-22 | 深圳市沃锐图像技术有限公司 | 一种用于智能制造的矿石x光图像识别方法 |
CN117558050B (zh) * | 2023-11-17 | 2024-05-28 | 西安理工大学 | 面向边缘计算端的实时人脸表情识别方法及人机交互系统 |
CN117456286B (zh) * | 2023-12-22 | 2024-04-16 | 吉林农业大学 | 一种人参分级方法、装置及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304826A (zh) * | 2018-03-01 | 2018-07-20 | 河海大学 | 基于卷积神经网络的人脸表情识别方法 |
CN110929602A (zh) * | 2019-11-09 | 2020-03-27 | 北京工业大学 | 一种基于卷积神经网络的地基云图云状识别方法 |
CN110929603A (zh) * | 2019-11-09 | 2020-03-27 | 北京工业大学 | 一种基于轻量级卷积神经网络的天气图像识别方法 |
-
2021
- 2021-08-18 CN CN202110948629.9A patent/CN113627376B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304826A (zh) * | 2018-03-01 | 2018-07-20 | 河海大学 | 基于卷积神经网络的人脸表情识别方法 |
CN110929602A (zh) * | 2019-11-09 | 2020-03-27 | 北京工业大学 | 一种基于卷积神经网络的地基云图云状识别方法 |
CN110929603A (zh) * | 2019-11-09 | 2020-03-27 | 北京工业大学 | 一种基于轻量级卷积神经网络的天气图像识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113627376A (zh) | 2021-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113627376B (zh) | 基于多尺度密集连接深度可分离网络的人脸表情识别方法 | |
CN108805270B (zh) | 一种基于存储器的卷积神经网络系统 | |
CN112784764B (zh) | 一种基于局部与全局注意力机制的表情识别方法及系统 | |
CN109325443B (zh) | 一种基于多实例多标签深度迁移学习的人脸属性识别方法 | |
CN107766850A (zh) | 基于结合人脸属性信息的人脸识别方法 | |
CN108304826A (zh) | 基于卷积神经网络的人脸表情识别方法 | |
US20230334632A1 (en) | Image recognition method and device, and computer-readable storage medium | |
CN109948692B (zh) | 基于多颜色空间卷积神经网络及随机森林的计算机生成图片检测方法 | |
CN110046575A (zh) | 基于改进残差网络的遥感图像场景分类方法 | |
Aghamaleki et al. | Multi-stream CNN for facial expression recognition in limited training data | |
CN110059593B (zh) | 一种基于反馈卷积神经网络的面部表情识别方法 | |
CN113989890A (zh) | 基于多通道融合和轻量级神经网络的人脸表情识别方法 | |
Xu et al. | Face expression recognition based on convolutional neural network | |
Bouchain | Character recognition using convolutional neural networks | |
CN108664993A (zh) | 一种密集权重连接的卷积神经网络图像分类方法 | |
CN111695513A (zh) | 一种基于深度残差网络的人脸表情识别方法 | |
CN111401156A (zh) | 基于Gabor卷积神经网络的图像识别方法 | |
CN114743014A (zh) | 基于多头自注意力的激光点云特征提取方法及装置 | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
CN114170659A (zh) | 一种基于注意力机制的面部情感识别方法 | |
CN109583406B (zh) | 基于特征关注机制的人脸表情识别方法 | |
CN114863572A (zh) | 一种多通道异构传感器的肌电手势识别方法 | |
CN113469116A (zh) | 一种结合lbp特征和轻量级神经网络的人脸表情识别方法 | |
CN113283530A (zh) | 基于级联特征块的图像分类系统 | |
CN113837263A (zh) | 基于特征融合注意力模块和特征选择的手势图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |