CN115457643B - 一种基于增量技术和注意力机制的公平人脸表情识别方法 - Google Patents

一种基于增量技术和注意力机制的公平人脸表情识别方法 Download PDF

Info

Publication number
CN115457643B
CN115457643B CN202211394678.3A CN202211394678A CN115457643B CN 115457643 B CN115457643 B CN 115457643B CN 202211394678 A CN202211394678 A CN 202211394678A CN 115457643 B CN115457643 B CN 115457643B
Authority
CN
China
Prior art keywords
expression
attention
module
fair
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211394678.3A
Other languages
English (en)
Other versions
CN115457643A (zh
Inventor
古天龙
李映辉
罗义琴
李龙
冯旋
李晶晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan University
Original Assignee
Jinan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan University filed Critical Jinan University
Priority to CN202211394678.3A priority Critical patent/CN115457643B/zh
Publication of CN115457643A publication Critical patent/CN115457643A/zh
Application granted granted Critical
Publication of CN115457643B publication Critical patent/CN115457643B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明提供了一种基于增量技术和注意力机制的公平人脸表情识别方法,包括:构建并训练表情平衡模型,所述表情平衡模型包括:骨干模块、注意力特征融合模块和表情平衡微调模块;将人脸表情图像输入所述骨干模块,提取所述人脸表情图像的表情特征;将所述表情特征输入所述注意力特征融合模块,获取不同表情类别;将所述不同表情类别输入所述表情平衡微调模块,对所述不同表情类别进行调节,输出公平人脸表情识别结果。本发明采用增量技术和注意力机制结合的方式处理表情图像,能够提取代表性不足的表情类别中更细微的特征,从而缓解人脸表情识别中的表情类别偏差,达到公平人脸表情识别的目的。

Description

一种基于增量技术和注意力机制的公平人脸表情识别方法
技术领域
本发明属于深度学习和计算机视觉技术领域,尤其涉及一种基于增量技术和注意力机制的公平人脸表情识别方法。
背景技术
随着人工智能逐渐地融入人们的日常生活中,研究人员对智能情感分析的研究取得了不错的进展。而人脸表情是表达人类意图和情绪的重要信号。因此,人脸表情识别技术得到了深入研究,并已广泛应用于社会分析、医疗保健、安全驾驶等领域。现有的表情识别方法是基于深度神经网络进行分类,同时,深度神经网络在数据和算法上存在偏差。虽然针对人口统计属性偏差的公平表情识别已获得不错的进展,但对于表情类别偏差的研究较少。事实上,在很多应用场景中,表情类别偏差对系统的应用效果有不利影响。例如,在对自闭症儿童的案例研究中,惊讶的识别率远高于恐惧的识别率。同样,在自动驾驶汽车的驾驶员监控案例中,经过训练的神经网络在检测快乐、中立和惊喜方面表现出色,但在识别恐惧和悲伤方面却很弱。所以,需要开展针对表情类别偏差的研究,以满足人们更高的公平要求。
有研究证明平衡采样和公平加权技术可以缓解类别偏差。采样方法指的是在预处理阶段干预数据分布后再进行神经网络训练,而加权方法是在神经网络结构中添加代价敏感层,改变神经网络的偏向性。但是,平衡采样方法容易导致模型过拟合,而公平加权方法可能会为某类别分配不合理的预测值。而注意力机制和增量技术开始成为了近几年的研究热点。注意力机制表明不同图像区域对于预测结果的重要性是不同的。对人脸表情而言,人脸的特殊区域,如眼睛、嘴角、眉毛,对于识别结果更加重要。该机制可以加强地关注代表性低的表情,以减轻深度神经网络的偏差。而增量技术可以敏锐地感知数据分布的变化,确保某个类别不会主导整个神经网络。就表情识别而言,增量技术可以让代表性强的表情类别不再主导神经网络。然而,注意力机制和增量技术对表情类别偏差的缓解方法尚未成熟,对公平人脸表情识别的实现还需进一步完善。
发明内容
为解决上述技术问题,本发明提出了一种基于增量技术和注意力机制的公平人脸表情识别方法,有效地提升代表性低的表情类别的识别性能,减缓人脸表情识别中的类别偏差。
为实现上述目的,本发明提供了一种基于增量技术和注意力机制的公平人脸表情识别方法,包括:
构建并训练表情平衡模型,所述表情平衡模型包括:骨干模块、注意力特征融合模块和表情平衡微调模块;
将人脸表情图像输入所述骨干模块,提取所述人脸表情图像的表情特征;
将所述表情特征输入所述注意力特征融合模块,获取不同表情类别;
将所述不同表情类别输入所述表情平衡微调模块,对不同所述表情类别进行调节,输出公平人脸表情识别结果。
可选地,训练所述表情平衡模型包括:
获取所述人脸表情图像的数据集;
构建交叉注意蒸馏损失函数;
基于所述数据集和所述交叉注意蒸馏损失函数对所述表情平衡模型进行训练。
可选地,所述表情平衡模型还包括:增量记忆内存模块;
所述增量记忆内存模块与所述骨干模块连接;
在所述表情平衡模型的训练过程中,基于所述增量记忆内存模块保留上一训练阶段的预设数量的旧类别数据,减少所述表情平衡模型对代表性不足的表情类别的偏见。
可选地,所述骨干模块包括:一个卷积层、一个池化层和若干相连的残差连接单元;
所述卷积层、池化层和若干所述残差连接单元依次连接;
所述残差连接单元包括:主分支子单元和副分支子单元;
所述主分支子单元,用于提取输入图像的不同特征;所述副分支子单元,用于连接所述残差连接单元的输入和输出。
可选地,所述注意力特征融合模块包括:空间子模块、通道子模块和全连接层子模块;
所述注意力特征融合模块将所述表情特征,从两个维度进行压缩和融合为注意力图,并将所述注意力图输入所述全连接层,获得所述不同表情类别;其中,所述两个维度包括:所述空间子模块提供的空间维度和所述通道子模块提供的通道维度。
可选地,所述空间子模块包括:最大和平均池化层,以及与所述最大和平均池化层连接的三个并联的卷积层;
所述通道子模块包括:若干编码器,以及与所述若干编码器连接的两个并联的池化层。
可选地,所述交叉注意蒸馏损失函数包括:交叉熵损失、注意力分区损失和蒸馏损失;
所述交叉注意蒸馏损失函数为:
其中,为注意力分区损失,为交叉熵损失,为蒸馏损失。
可选地,对所述表情平衡模型进行训练包括:
将所述数据集以类别增量的形式输入所述表情平衡模型中,每批次有一组新类别数据。
可选地,将所述数据集以类别增量的形式输入所述表情平衡模型中包括:
S1.设定第一训练阶段的数据集,其中为第张图像, 为第一训练阶段数据集的图像总数;设定第二或后续阶段的数据集,其中分别为第训练阶段中第张新类别和旧类别的图像,分别为第训练阶段中新类别和旧类别的图像总数;
S2.在所述第训练阶段,采用数据集对所述表情平衡模型进行训练:
S3.选取当前训练阶段的数据集中的预设数量的新类别数据,其中,为每个表情类别运行存放的样本数量;将所述新类别数据放入所述增量记忆内存模块中,完成所述增量记忆内存模块的内存更新;此外,在最后一个训练阶段,不再更新所述增量记忆内存模块的内存。
可选地,所述表情平衡微调模块对所述不同表情类别进行调节包括:
构建一个平衡子集,其中表示第张图像, 为平衡子集中图像的总数;
基于所述平衡子集以预设阈值的学习率对所述表情平衡模型进行调整,保持所述表情平衡模型的识别性能平衡。
与现有技术相比,本发明具有如下优点和技术效果:
本发明采用增量技术来研究人脸表情识别的类别偏差问题,利用增量技术对数据分布敏感的特点,从而克服了不同表情类别在数据量和特征上的分布不平衡的问题,缓解了识别中的表情类别偏差。
本发明搭建了一个表情平衡网络对人脸表情图像中代表性不足的表情类别强化了特征提取,确保表情平衡网络不会被某个表情类别给主导,并将代表性强的特征迁移到不足的类别特征上。同时混合损失函数(交叉注意蒸馏损失),解决了表情平衡网络训练中存在的不稳定问题。最后表情平衡微调模块,有效地减缓模型对代表性强的表情类别的偏向性。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例的表情平衡网络示意图;
图2为本发明实施例的注意力特征融合网络示意图;
图3为本发明实施例的表情平衡微调模块示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例
本发明提供了一种基于增量技术和注意力机制的公平人脸表情识别方法,包括:
构建并训练表情平衡模型,表情平衡模型包括:骨干模块、注意力特征融合模块和表情平衡微调模块;
将人脸表情图像输入骨干模块,提取人脸表情图像的表情特征;
将表情特征输入注意力特征融合模块,获取不同表情类别;
将不同表情类别输入表情平衡微调模块,对不同表情类别进行调节,输出公平人脸表情识别结果。
进一步地,训练表情平衡模型包括:
获取人脸表情图像的数据集;
构建交叉注意蒸馏损失函数;
基于数据集和交叉注意蒸馏损失函数对表情平衡模型进行训练。
进一步地,表情平衡模型还包括:增量记忆内存模块;
在表情平衡模型的训练过程中,基于增量记忆内存模块保留上一训练阶段的预设数量的旧类别数据,减少表情平衡模型对代表性不足的表情类别的偏见。
进一步地,骨干模块包括:一个卷积层、一个池化层和若干相连的残差连接单元;卷积层、池化层和若干所述残差连接单元依次连接;
残差连接单元包括:主分支子单元和副分支子单元;
主分支子单元,用于提取输入图像的不同特征;副分支子单元,用于连接残差连接单元的输入和输出。
进一步地,注意力特征融合模块包括:空间子模块、通道子模块和全连接层子模块;
注意力特征融合模块将表情特征,从两个维度进行压缩和融合为注意力图,并将注意力图输入全连接层,获得不同表情类别;其中,两个维度包括:空间子模块提供的空间维度和通道子模块提供的通道维度。
进一步地,空间子模块包括:最大和平均池化层、三个并联的卷积层和一个激活函数;
通道子模块包括:若干编码器、两个并联的池化层和一个激活函数。
进一步地,交叉注意蒸馏损失函数包括:交叉熵损失、注意力分区损失和蒸馏损失;
交叉注意蒸馏损失函数为:
其中,为注意力分区损失,为交叉熵损失,为蒸馏损失。
进一步地,对表情平衡模型进行训练包括:
将数据集以类别增量的形式输入表情平衡模型中,每批次有一组新类别数据。
如图1所示,为本实施例所构建的基于增量技术和注意力机制的公平人脸表情识别方法的结构流程,本实施例的具体流程如下:
步骤一,从公开表情数据集中收集数据,对数据集中的表情图片进行预处理。
本步骤通过选定某几类特定的表情,从公开的表情数据集中进行采集,并将表情图片经过对齐和裁剪处理后,并检查数据集中的表情标签。人脸图像的尺寸统一为224×224,数据集为,其中表示第张图像, 为图像数据集中人脸图像的总数。
步骤二,搭建一个包括ResNet18、增量记忆内存、注意力特征融合网络和表情平衡微调模块的表情平衡网络。其具体实施流程如下:
S2.1:构建一个具有18层的残差网络(ResNet18)作为骨干网络用于人脸表情特征的提取;骨干网络依次设置有一个卷积层、一个池化层和若干个相连的残差连接单元;残差连接单元包括主分支和副分支,主分支包括有卷积核大小为3×3的三层卷积层,第一个卷积层可能只提取一些如边缘、线条和角的低级特征,越后面的单元能从低级特征中迭代提取更复杂的特征。副分支子单元的构成为1×1的卷积核,副分支用于连接每个残差连接单元的输入和输出。当输入通道数不同时,可以利用副分支1×1的卷积核进行修改匹配;
S2.2:构建一个增量记忆内存用于保留上一个训练阶段的少量旧类别数据,减少模型对代表性不足的表情类别的偏见;
S2.3:构建一个注意力特征融合网络用于生成通道和空间的融合注意力图;如图2所示,注意力特征融合网络包括空间模块和通道模块;空间模块包括最大和平均池化层,三个并联的卷积层和一个激活函数,其中三个并联层的卷积核大小分别为3×1、3×3、1×3的三层卷积,激活函数采用ReLU;通道模块包括多层编码器,两个并联的池化层和一个激活函数,其中两个并联池化层分别为最大池化和平均池化,激活函数采用ReLU;
S2.4:如图3所示,设置一个表情平衡微调模块用于调节不同表情类别。
步骤三,建立混合损失函数(交叉注意蒸馏损失)用于对注意力融合网络进行分区,并提取旧表情类别的网络参数:
S3.1:建立如式(1)所示的交叉熵损失
其中,表示为样本数量,表示为分类数,分别表示为第样本为类表情的真实概率和预测概率;
S3.2:建立如式(2)所示的注意力分区损失
其中,表示为注意力图的通道长度,表示为第样本中第通道上的方差;
S3.3:建立如式(3)所示的蒸馏损失
其中,表示为旧表情的类别数目,表示为蒸馏温度系数,分别表示为第样本为类表情的真实概率和旧模型的预测概率;
S3.4:构建如式(6)混合损失(交叉注意蒸馏损失)
步骤四,将表情数据以类别增量的形式输入模型中,每批次有一组新类别数据:
S4.1:给定第一训练阶段的数据集,其中表示第张图像, 为第一训练阶段数据集的图像总数;第二或后续阶段的数据集,其中分别表示第训练阶段中第张新类别和旧类别的图像,分别为第训练阶段中新类别和旧类别的图像总数;
S4.2:对于第训练阶段,采用数据集对步骤二所构造的表情平衡网络进行训练,训练包括:
S2.1中的骨干网络采用ResNet18的结构,并提取输入数据的表情特征;然后将这些数据特征输入到注意力模块中。
S2.3中的注意力特征融合网络采用空间和通道注意力机制,并将输入数据的特征从空间和通道两个维度进行压缩和融合为注意力图;然后将这些注意力图输入到全连接层,并获得表情标签。
依据这些表情标签和步骤三中的混合损失函数(交叉注意蒸馏损失),计算损失值;然后利用随机梯度下降算法更新骨干网络、注意力特征融合网络的参数值;
S4.3:更新增量记忆内存中的数据:
选取当前训练阶段的数据集中的部分新类别数据为每个表情类别运行存放的样本数量;然后将这些新类别数据放入S2.2中的增量记忆内存中,完成内存更新;此外,在最后一个训练阶段,不再更新内存。
步骤五,如图1和图3所示,采用S2.4中的表情平衡微调模块对模型进行微调:
S5.1:从本地内存中选择数据来构建一个平衡的子集,其中表示第张图像, 为平衡子集中图像的总数。基于平衡子集以较低的学习率对模型进行微调,以获得更平衡的性能,最后结束训练。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (8)

1.一种基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,包括:
构建并训练表情平衡模型,所述表情平衡模型包括:骨干模块、注意力特征融合模块和表情平衡微调模块;
将人脸表情图像输入所述骨干模块,提取所述人脸表情图像的表情特征;
将所述表情特征输入所述注意力特征融合模块,获取不同表情类别;
将所述不同表情类别输入所述表情平衡微调模块,对不同所述表情类别进行调节,输出公平人脸表情识别结果;
对所述表情平衡模型进行训练包括:
将数据集以类别增量的形式输入所述表情平衡模型中,每批次有一组新类别数据;
将所述数据集以类别增量的形式输入所述表情平衡模型中包括:
S1.设定第一训练阶段的数据集,其中为第一训练阶段数据集中的第n张图像;设定第二或后续阶段的数据集,其中为第训练阶段中第m张新类别的图像、为第训练阶段中第l张旧类别的图像;
S2.在所述第训练阶段,采用数据集对所述表情平衡模型进行训练:
S3.选取当前训练阶段的数据集中的预设数量的新类别数据,其中,为每个表情类别运行存放的样本数量;将所述新类别数据放入增量记忆内存模块中,完成所述增量记忆内存模块的内存更新;此外,在最后一个训练阶段,不再更新所述增量记忆内存模块的内存。
2.根据权利要求1所述的基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,训练所述表情平衡模型包括:
获取所述人脸表情图像的数据集;
构建交叉注意蒸馏损失函数;
基于所述数据集和所述交叉注意蒸馏损失函数对所述表情平衡模型进行训练。
3.根据权利要求2所述的基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,所述表情平衡模型还包括:增量记忆内存模块;
所述增量记忆内存模块与所述骨干模块连接;
在所述表情平衡模型的训练过程中,基于所述增量记忆内存模块保留上一训练阶段的预设数量的旧类别数据,减少所述表情平衡模型对代表性不足的表情类别的偏见。
4.根据权利要求1所述的基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,所述骨干模块包括:一个卷积层、一个池化层和若干相连的残差连接单元;
所述卷积层、池化层和若干所述残差连接单元依次连接;
所述残差连接单元包括:主分支子单元和副分支子单元;
所述主分支子单元,用于提取输入图像的不同特征;所述副分支子单元,用于连接所述残差连接单元的输入和输出。
5.根据权利要求1所述的基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,所述注意力特征融合模块包括:空间子模块、通道子模块和全连接层子模块;
所述注意力特征融合模块将所述表情特征,从两个维度进行压缩和融合为注意力图,并将所述注意力图输入所述全连接层,获得所述不同表情类别;其中,所述两个维度包括:所述空间子模块提供的空间维度和所述通道子模块提供的通道维度。
6.根据权利要求5所述的基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,
所述空间子模块包括:最大和平均池化层,以及与所述最大和平均池化层连接的三个并联的卷积层;
所述通道子模块包括:若干编码器,以及与所述若干编码器连接的两个并联的池化层。
7.根据权利要求2所述的基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,所述交叉注意蒸馏损失函数包括:交叉熵损失、注意力分区损失和蒸馏损失;
所述交叉注意蒸馏损失函数为:其中,为注意力分区损失,为交叉熵损失,为蒸馏损失。
8.根据权利要求1所述的基于增量技术和注意力机制的公平人脸表情识别方法,其特征在于,所述表情平衡微调模块对所述不同表情类别进行调节包括:
构建一个平衡子集,其中为平衡子集中的第张图像;
基于所述平衡子集以预设阈值的学习率对所述表情平衡模型进行调整,保持所述表情平衡模型的识别性能平衡。
CN202211394678.3A 2022-11-09 2022-11-09 一种基于增量技术和注意力机制的公平人脸表情识别方法 Active CN115457643B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211394678.3A CN115457643B (zh) 2022-11-09 2022-11-09 一种基于增量技术和注意力机制的公平人脸表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211394678.3A CN115457643B (zh) 2022-11-09 2022-11-09 一种基于增量技术和注意力机制的公平人脸表情识别方法

Publications (2)

Publication Number Publication Date
CN115457643A CN115457643A (zh) 2022-12-09
CN115457643B true CN115457643B (zh) 2023-04-07

Family

ID=84310538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211394678.3A Active CN115457643B (zh) 2022-11-09 2022-11-09 一种基于增量技术和注意力机制的公平人脸表情识别方法

Country Status (1)

Country Link
CN (1) CN115457643B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115631530B (zh) * 2022-12-22 2023-03-28 暨南大学 一种基于人脸动作单元的公平人脸表情识别方法
CN116597486A (zh) * 2023-05-16 2023-08-15 暨南大学 一种基于增量技术和掩码剪枝的人脸表情平衡识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784763A (zh) * 2021-01-27 2021-05-11 南京邮电大学 基于局部与整体特征自适应融合的表情识别方法及系统
CN112800894A (zh) * 2021-01-18 2021-05-14 南京邮电大学 一种基于时空流间注意力机制的动态表情识别方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558851A (zh) * 2018-12-04 2019-04-02 广东智媒云图科技股份有限公司 一种基于面部表情的联合作画方法及系统
CN111291670B (zh) * 2020-01-23 2023-04-07 天津大学 基于注意力机制和网络集成的小目标人脸表情识别方法
CN111709266A (zh) * 2020-03-26 2020-09-25 杭州尚课网络科技有限公司 基于时空融合网络的面部表情识别方法
CN111783621B (zh) * 2020-06-29 2024-01-23 北京百度网讯科技有限公司 人脸表情识别及模型训练的方法、装置、设备及存储介质
CN112990097B (zh) * 2021-04-13 2022-11-04 电子科技大学 一种基于对抗消除的人脸表情识别方法
CN114241564A (zh) * 2021-12-17 2022-03-25 东南大学 一种基于类间差异强化网络的人脸表情识别方法
CN114724219A (zh) * 2022-04-11 2022-07-08 辽宁师范大学 一种基于注意力遮挡机制的表情识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112800894A (zh) * 2021-01-18 2021-05-14 南京邮电大学 一种基于时空流间注意力机制的动态表情识别方法及系统
CN112784763A (zh) * 2021-01-27 2021-05-11 南京邮电大学 基于局部与整体特征自适应融合的表情识别方法及系统

Also Published As

Publication number Publication date
CN115457643A (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
CN115457643B (zh) 一种基于增量技术和注意力机制的公平人脸表情识别方法
CN109325443B (zh) 一种基于多实例多标签深度迁移学习的人脸属性识别方法
CN107122826B (zh) 用于卷积神经网络的处理方法和系统、和存储介质
WO2021057056A1 (zh) 神经网络架构搜索方法、图像处理方法、装置和存储介质
CN113033450B (zh) 多模态连续情感识别方法、服务推理方法及系统
CN113221969A (zh) 一种基于物联网感知的双特征融合的语义分割系统及方法
CN113297955B (zh) 一种基于多模态分层级信息融合的手语词识别方法
CN110110724A (zh) 基于指数型挤压函数驱动胶囊神经网络的文本验证码识别方法
CN110991349B (zh) 一种基于度量学习的轻量级车辆属性识别方法
CN111860046B (zh) 一种改进MobileNet模型的人脸表情识别方法
CN110717921A (zh) 改进型编码解码结构的全卷积神经网络语义分割方法
Paul et al. A modern approach for sign language interpretation using convolutional neural network
CN109508640A (zh) 一种人群情感分析方法、装置和存储介质
Zulkeflie et al. Evaluation of basic convolutional neural network, alexnet and bag of features for indoor object recognition
CN110288603A (zh) 基于高效卷积网络和卷积条件随机场的语义分割方法
CN112016592B (zh) 基于交叉领域类别感知的领域适应语义分割方法及装置
WO2023174256A1 (zh) 一种数据压缩方法以及相关设备
CN111160124A (zh) 一种基于知识重组的深度模型定制方法
CN108229263B (zh) 目标对象的识别方法和装置、机器人
CN113377929B (zh) 专用术语无监督聚类方法、装置和系统
WO2021189321A1 (zh) 一种图像处理方法和装置
CN112069877B (zh) 一种基于边缘信息和注意力机制的人脸信息识别方法
CN110210311B (zh) 一种基于通道特征融合稀疏表示的人脸识别方法
CN114359993A (zh) 模型训练方法、人脸识别方法、装置、设备、介质及产品
Furtado et al. Interactive and Markerless Visual Recognition of Brazilian Sign Language Alphabet

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant