CN114596605A - 一种多特征融合的表情识别方法 - Google Patents

一种多特征融合的表情识别方法 Download PDF

Info

Publication number
CN114596605A
CN114596605A CN202110698674.3A CN202110698674A CN114596605A CN 114596605 A CN114596605 A CN 114596605A CN 202110698674 A CN202110698674 A CN 202110698674A CN 114596605 A CN114596605 A CN 114596605A
Authority
CN
China
Prior art keywords
network
key
model
sample
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110698674.3A
Other languages
English (en)
Inventor
张红英
韩兴
方艳红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University of Science and Technology
Original Assignee
Southwest University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University of Science and Technology filed Critical Southwest University of Science and Technology
Priority to CN202110698674.3A priority Critical patent/CN114596605A/zh
Publication of CN114596605A publication Critical patent/CN114596605A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于自我修正与融合多尺度特征改进VGGNet的表情识别方法。该方法首先在VGGNet16网络前端新增一个多尺度特征提取网络结构,并将不同深度网络提取的多种特征进行支路特征融合,保留更完善的特征信息;然后通过在每个卷积层之后使用批量标准化,并在全连接层之后使用Dropout,以此加快网络模型收敛速率,降低网络模型发生梯度消失与过拟合的概率;最后在网络的后端加入自我修正网络,抑制样本的标注不确定性为网络模型训练带来的影响。该方法可在标注不确定数据集上以更高的精度识别出七种基本的表情。

Description

一种多特征融合的表情识别方法
技术领域
本发明技术属于图像处理、模式识别、人工智能领域,具体来讲,涉及一种采用自我修正与融合多尺度特征改进VGGNet的表情识别方法。
背景技术
人脸面部表情是人类心理状态的直观反映,蕴含着丰富的情感信息,能够直观的映射出一个人的真实想法。在人类的日常交流中,我们不仅可以通过语言与文字来传达信息,我们也会通过一些肢体动作,面部表情来完成人们之间的交流,且研究表明表情与肢体动作往往相比于语言更能传递关键信息。面部表情是一种常见的非语言表达形式,它能够有效的传达个人情感和意图。我们能够通过眼睛观察别人的面部表情信息,然后大脑将得到的信息进行分析得到别人的心理状态,完成人们之间情感的表达与交流。人们交流过程中人脸面部表情能够赋予语言情感色彩,且人脸表情能清晰的展现出一个人的真实情绪,相比于语言更加准确。
人脸表情识别研究至今已经积累了丰富的理论,研究对象也逐渐从实验室场景到现实场景。虽然现如今人脸表情研究取得了很多的研究成果,但是数据集的标注不确定性一直是其存在的重大挑战。深度学习的网络训练需要大量的标准数据驱动,但是对现如今国内外研究机构公开的表情数据集来说,因为每个人对表情的判别往往会存在自己的主观印象,而每个人的主观印象可能受到其文化,生长环境,性格影响,人脸表情数据的标签可能会有错误的情况。因此现有的人脸表情识别数据集质量参差不齐,且现有数据集数据量比较缺乏,这些问题都制约着表情识别精度的提升。当使用了标注错误的表情数据样本训练网络模型时,可能会出现以下几种情况:首先网络可能过度学习到了错误样本数据的特征,从而干扰到了正确样本数据的表情特征学习;其次网络可能过度的去学习错误样本数据上的特征而出现过拟合,如果错误样本过多也会导致网络难以学到真实的各类表情特征而使得网络难以收敛。
发明内容
本发明的目的在于解决表情识别现有人工标注的人脸表情数据集仍具有标注不确定性,卷积神经网络提取特征不完善等问题,实现更精确的人脸表情识别。
为了实现上述目的,本发明提供一种基于自我修正与融合多尺度特征改进VGGNet的表情识别方法,该方法主要包括五个部分:第一部分是对数据集进行预处理;第二部分是对VGGNet16网络进行多尺度特征提取与融合;第三部分是添加批量标准化与Dropout模块;第四部分是在网络的后端加入自我修正网络;第五部分是网络训练与测试。
第一部分包括两个步骤:
步骤1,下载自然场景下的人脸表情数据集(RAF-DB),然后选取数据集中单标签训练集12271张图片和测试集3068张图片作为模型训练测试样本;
步骤2,判断图像是否为灰度图,不是则将其转化为灰度图,然后将其尺寸变换为96×96大小,并对图像经旋转,平移等基础操作增强训练样本集,形成最终的训练集样本;
第二部分包括两个步骤:
步骤3,将步骤2中的训练样本输入VGGNet16网络,在VGGNet16网络前端新增一个多尺度特征提取网络结构作为网络第一层,采用三个不同大小的卷积核对原图像进行特征提取,并将三个不同大小卷积核提取的多种特征进行特征融合,该结构相较只使用3×3卷积核时丢失信息更少,能够保留更完善的特征信息;
步骤4,对步骤3改进后的VGGNet16网络的第二个卷积组和第三个卷积组之间添加快捷连接至全连接层前,构成支路特征融合模块,将不同阶段的特征融合在一起,促使网络学习到更多的特征;
第三部分包括两个步骤:
步骤5,将步骤3、4改进后的VGGNet16网络每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性;
步骤6,将步骤3、4、5改进后的VGGNet16网络在每个全连接层之后使用Dropout,弃置部分神经元,加入部分干扰,增加模型的健壮性,减少模型参数量;
第四部分包括五个步骤:
步骤7,将步骤3、4、5、6改进后的VGGNet16网络提取到的特征通过自我注意力模块进行关键程度加权,通过权重值大小区分出关键样本与非关键样本,优先关注关键的样本,提升网络对关键样本的权重值。
步骤8,将步骤7得到的关键程度权重采用logit模型用于原网络模型使用的交叉熵损失函数加权,避免非关键部分样本对网络学习的误导。
步骤9,对步骤7得到的关键程度权重通过排序正则化模块进行比较,然后将所有权重按照大小从高到低排列,将关键程度权重值按照一定比例划分为关键部分与非关键部分。
步骤10,将步骤9得到的关键部分与非关键部分的权重值进行平均取均值,并通过排序正则化约束关键部分的均值比非关键部分的均值高出一个阈值,将自我注意力模块与排序正则化模块两个损失函数结合得到自我修正网络最终损失函数。
步骤11,将步骤9中得到的非关键部分样本通过再标注模块将最大预测概率与样本原标签的预测概率相减,若两者的差值大于给定的范围参数值,那么该样本则进行标签再标注工作,将其最大预测概率作为其重新标注的正确标签。
第五部分包括两个步骤:
步骤12,调试从步骤3到步骤11的网络结构超参数,并得到最终的训练模型;
步骤13,将步骤1中训练集输入步骤12中的训练模型中,得到表情识别图像结果。
本发明提出一种基于自我修正与融合多尺度特征改进VGGNet的表情识别方法。该方法首先在VGGNet16网络前端新增一个多尺度特征提取网络结构,并将不同深度的网络提取的多种特征进行支路特征融合,保留更完善的特征信息。然后通过在每个卷积层之后使用批量标准化,并在全连接层之后使用Dropout,以此加快网络模型收敛速率,降低网络模型发生梯度消失与过拟合的概率。最后在网络的后端加入自我修正网络,抑制样本的标注不确定性为网络模型训练带来的影响,识别出七种基本的表情。
附图说明
图1为本发明的具体实施整体框图;
图2为本发明的多尺度特征提取结构图;
图3为本发明的批归一化示例图;
图4为本发明的Dropout结构图;
图5为本发明的自我修正网络结构图。
具体实施方式
为了更好的理解本发明,下面结合附图对本发明的基于自我修正与融合多尺度特征改进VGGNet的表情识别方法进行更为详细的描述。在以下的描述中,当前已有技术的详细描述也许会淡化本发明的主题内容,这些描述在这里将被忽略。
图1是本发明的一种具体实施方式的总体框图,具体包括如下13个步骤,按照以下步骤进行:
步骤1,下载自然场景下的人脸表情数据集(RAF-DB),该数据库包含了不同年龄阶段,多种人种与多种肤色的图片。包含各种姿态,光照条件,含有眼镜,头发与自身遮挡等干扰因素,致力于解决真实环境下的人脸表情识别问题。然后选取数据集中单标签训练集12271张图片和测试集3068张图片作为模型训练测试样本。
步骤2,判断图像是否为灰度图,不是则将其转化为灰度图,使得光照对人脸表情识别的影响降到最低。我们首先做一系列的随机变换,包括翻转,旋转,切割等,接着将数据图片尺寸变换为104×104大小,然后随机切割为96×96大小的图像,然后将图片在0~15°之间进行随机旋转并进行水平镜像操作,形成最终的训练集样本。
步骤3,将步骤2中的训练样本输入VGGNet16网络,在VGGNet16网络前端新增一个多尺度特征提取模块结构作为网络第一层,该模块能够在网络起始部分更完整的保留表情图像的特征。如图2所示,其并联了三个卷积模块,包括串联的1×1和3×3卷积、串联的1×1和5×5卷积、串联的1×1和7×7卷积,将并联的三个模块融合提取特征。由于不同尺度的卷积核进行卷积时获得的感受野不同,提取出的图像信息也会有所区别,因此同时并联不同尺寸的卷积核合并所有感受野提取出的图像信息将可以提取到更加完善的图像特征信息。并在每个卷积核支路使用1×1的卷积结构,目的是将每个并联分支网络的特征图进行降维,然后在低维度进行3×3、5×5和7×7卷积提取不同特征信息,此时的参数量大大减少,且避免了网络的起始部分只使用单一卷积核而导致图像特征提取不完整,部分关键特征丢失的情况。
步骤4,对步骤3改进后的VGGNet16网络的第二个卷积组和第三个卷积组之间添加快捷连接至全连接层前,构成支路特征融合模块,将不同阶段的特征融合在一起,促使网络学习到更多的特征。
步骤5,将步骤3、4改进后的VGGNet16网络每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性。批量标准化通过对网络输入数据按照每个批次进行批归一化处理,将样本数据的每个批次归一化为均值为0和方差为1的标准正态分布,下面为批量标准化层的单一批次的计算方法及具体步骤:
计算每一个批次输入数据的均值:
Figure RE-950052DEST_PATH_IMAGE001
计算每一个批次输入数据的方差:
Figure RE-407578DEST_PATH_IMAGE002
对输入数据进行归一化操作,约束输入数据服从正态分布:
Figure RE-956371DEST_PATH_IMAGE003
对输入数据通过线性变换进行平移缩放:
Figure RE-857462DEST_PATH_IMAGE004
其中,m指的是单个批次的样本数量,x i 是单个批次输入样本数据。
Figure RE-124495DEST_PATH_IMAGE005
是单个批次样本均值,
Figure RE-323395DEST_PATH_IMAGE006
是单个批次样本方差,y i 是单个批次输出样本数据,
Figure RE-DEST_PATH_IMAGE007
Figure RE-789012DEST_PATH_IMAGE008
是两个可训练的线性变换参数,该参数使得新的数据分布更逼近样本的真实分布,提高了网络的表达能力。如图3所示为输入数据进行批量标准化后的数据对比图。
步骤6,将步骤3、4、5改进后的VGGNet16网络在每个全连接层之后使用Dropout,在训练过程中概率性丢弃一部分神经元,通常在全连接层之间加入,在一定程度上改变网络的连接方式,破坏特征信息之间的交互作用,相当于认为加入了部分噪声,增强模型的泛化性。图4为Dropout结构图,具体操作为在训练过程的每次迭代中,随机的将部分神经元丢弃,该部分神经元的不再参加前向传播过程与反向传播过程,即该部分神经元的权值和偏置参数都处于强制休眠状态。使得网络将不会对某些具有干扰信息的神经元过度学习,切实提高网络模型的泛化性,大大减少网络的参数数量。
步骤7,对步骤3、4、5、6改进后的VGGNet16网络提取到的特征通过一个线性的全连接层得到关键程度权重,再通过Sigmoid激活函数将该注意力权重映射到0-1之间;令F=[x 1, x 2, . . . , x n ]为n个图片的人脸输入特征图,该模块公式为:
Figure RE-47955DEST_PATH_IMAGE009
其中
Figure RE-802284DEST_PATH_IMAGE010
是第i个样本的关键程度权重,
Figure RE-847951DEST_PATH_IMAGE011
代表自我注意力模块的全连接层参数,
Figure RE-371336DEST_PATH_IMAGE012
是Sigmoid激活函数。
步骤8,将步骤7得到的关键程度权重采用logit模型用于原网络模型使用的交叉熵损失函数加权,避免非关键部分样本对网络学习的误导,V j 为第j个分类器,
Figure RE-801180DEST_PATH_IMAGE013
为加权之后的损失函数,公式如下:
Figure RE-777227DEST_PATH_IMAGE014
步骤9,对步骤7得到的关键程度权重进行比较,然后将所有权重按照大小从高到低排列,将关键程度权重值按照一定比例划分为关键部分与非关键部分。
步骤10,将步骤9得到的关键部分与非关键部分的权重值取均值,并通过排序正则化约束关键部分的均值比非关键部分的均值高出一个阈值,该模块的损失函数公式为:
Figure RE-380246DEST_PATH_IMAGE015
其中D表示一定的阈值范围,该参数能够通过网络自适应取值或者自己人为指定。
Figure RE-23717DEST_PATH_IMAGE016
是关键部分样本均值,
Figure RE-358884DEST_PATH_IMAGE017
是非关键部分样本均值,N是一个批次的样本数量,M为关键部分样本数量。最后,将自我注意力模块与排序正则化模块两个损失函数结合得到自我修正网络最终损失函数:
Figure RE-87805DEST_PATH_IMAGE018
步骤11,将步骤9中得到的非关键部分样本通过再标注模块将最大预测概率与样本原标签的预测概率相减,若两者的差值大于给定的范围参数值,那么该样本则进行标签再标注工作,将其最大预测概率作为其重新标注的正确标签。该模块公式如下:
Figure RE-979669DEST_PATH_IMAGE019
其中,
Figure RE-477646DEST_PATH_IMAGE020
表示修改后的伪标签,D 2为给定的范围参数,P max表示该样本的最大预测概率,P gt为样本的原本标签预测概率,y maxy t 为最大预测概率与原本标签的索引。
步骤12,调试从步骤3到步骤11的网络结构超参数,采用随机梯度下降优化器,训练分为200批次,初始学习率是0.01,从15轮迭代开始,每十轮降一次。在训练过程中,自我修正网络模块将训练图片按照7:3的比例分为关键与非关键样本。并将关键与非关键部分样本的均值的阈值设置为0.15。整体损失函数中交叉熵加权损失函数与排序正则损失函数之间的占比为1:1。训练到第80批次以后加入再标注模块,再标注模块中的最大预测概率与原本标签概率之间的差值范围参数默认为0.2,并得到最终的训练模型;
步骤13,将步骤1中训练集输入步骤12中的训练模型中,得到表情识别图像结果。
尽管上面对本发明说明性的具体实施方式进行了描述,但应当清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (5)

1.一种多特征融合的表情识别方法,其特征在于包含数据集预处理,VGGNet16网络进行多尺度特征提取与融合,添加批量标准化与Dropout模块,在网络的后端加入自我修正网络,网络训练与测试五个部分:
第一部分包括两个步骤:
步骤1,下载自然场景下的人脸表情数据集(RAF-DB),然后选取数据集中单标签训练集12271张图片和测试集3068张图片作为模型训练测试样本;
步骤2,判断图像是否为灰度图,不是则将其转化为灰度图,使得光照对人脸表情识别的影响降到最低;然后将其尺寸变换为96×96大小,并对图像经旋转,平移等基础操作增强训练样本集,形成最终的训练集样本;
第二部分包括两个步骤:
步骤3,将步骤2中的训练样本输入VGGNet16网络,在VGGNet16网络前端新增一个多尺度特征提取网络结构作为网络第一层,采用三个不同大小的卷积核对原图像进行特征提取,并将三个不同大小卷积核提取的多种特征进行特征融合,该结构相较只使用3×3卷积核时丢失信息更少,能够保留更完善的特征信息;
步骤4,对步骤3改进后的VGGNet16网络的第二个卷积组和第三个卷积组之间添加快捷连接至全连接层前,构成支路特征融合模块,将不同阶段的特征融合在一起,促使网络学习到更多的特征;
第三部分包括两个步骤:
步骤5,将步骤3、4改进后的VGGNet16网络每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性;
步骤6,将步骤3、4、5改进后的VGGNet16网络在每个全连接层之后使用Dropout,弃置部分神经元,加入部分干扰,增加模型的健壮性,减少模型参数量;
第四部分包括五个步骤:
步骤7,将步骤3、4、5、6改进后的VGGNet16网络提取到的特征通过自我注意力模块进行关键程度加权,通过权重值大小区分出关键样本与非关键样本,优先关注关键的样本,提升网络对关键样本的权重值;
步骤8,将步骤7得到的关键程度权重采用logit模型用于原网络模型使用的交叉熵损失函数加权,避免非关键部分样本对网络学习的误导;
步骤9,对步骤7得到的关键程度权重通过排序正则化模块进行比较,然后将所有权重按照大小从高到低排列,将关键程度权重值按照一定比例划分为关键部分与非关键部分;
步骤10,将步骤9的每个部分的权重值进行平均取均值,并通过排序正则化约束关键部分的均值比非关键部分的均值高出一个阈值,将自我注意力模块与排序正则化模块两个损失函数结合得到自我修正网络最终损失函数;
步骤11,将步骤9中得到的非关键部分样本通过再标注模块将最大预测概率与样本原标签的预测概率相减,若两者的差值大于给定的范围参数值,那么该样本则进行标签再标注工作,将其最大预测概率作为其重新标注的正确标签;
第五部分包括两个步骤:
步骤12,调试从步骤3到步骤11的网络结构超参数,并得到最终的训练模型;
步骤13,将步骤1中训练集输入步骤12中的训练模型中,得到表情识别图像结果。
2.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于,利用步骤3的多尺度特征提取网络结构,保留更完善的特征信息。
3.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于,步骤5中将每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性。
4.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于,利用步骤6在每个全连接层之后使用Dropout,弃置部分神经元,加入部分干扰,增加模型的健壮性,减少模型参数量。
5.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于步骤7、8、9、10、11中使用自我修正网络,抑制样本的标注不确定性为网络模型训练带来的影响。
CN202110698674.3A 2021-06-23 2021-06-23 一种多特征融合的表情识别方法 Pending CN114596605A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110698674.3A CN114596605A (zh) 2021-06-23 2021-06-23 一种多特征融合的表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110698674.3A CN114596605A (zh) 2021-06-23 2021-06-23 一种多特征融合的表情识别方法

Publications (1)

Publication Number Publication Date
CN114596605A true CN114596605A (zh) 2022-06-07

Family

ID=81803354

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110698674.3A Pending CN114596605A (zh) 2021-06-23 2021-06-23 一种多特征融合的表情识别方法

Country Status (1)

Country Link
CN (1) CN114596605A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861684A (zh) * 2022-11-18 2023-03-28 百度在线网络技术(北京)有限公司 图像分类模型的训练方法、图像分类方法及装置
CN117689998A (zh) * 2024-01-31 2024-03-12 数据空间研究院 非参数自适应的情绪识别模型、方法、系统和存储介质
CN118097314A (zh) * 2024-04-26 2024-05-28 南京航空航天大学 一种用于极小批量流数据的测试时适应图像分类方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861684A (zh) * 2022-11-18 2023-03-28 百度在线网络技术(北京)有限公司 图像分类模型的训练方法、图像分类方法及装置
CN115861684B (zh) * 2022-11-18 2024-04-09 百度在线网络技术(北京)有限公司 图像分类模型的训练方法、图像分类方法及装置
CN117689998A (zh) * 2024-01-31 2024-03-12 数据空间研究院 非参数自适应的情绪识别模型、方法、系统和存储介质
CN117689998B (zh) * 2024-01-31 2024-05-03 数据空间研究院 非参数自适应的情绪识别模型、方法、系统和存储介质
CN118097314A (zh) * 2024-04-26 2024-05-28 南京航空航天大学 一种用于极小批量流数据的测试时适应图像分类方法
CN118097314B (zh) * 2024-04-26 2024-07-16 南京航空航天大学 一种用于极小批量流数据的测试时适应图像分类方法

Similar Documents

Publication Publication Date Title
CN114596605A (zh) 一种多特征融合的表情识别方法
CN105469034B (zh) 基于加权式鉴别性稀疏约束非负矩阵分解的人脸识别方法
Ali et al. Boosted NNE collections for multicultural facial expression recognition
CN108304826A (zh) 基于卷积神经网络的人脸表情识别方法
CN109101938B (zh) 一种基于卷积神经网络的多标签年龄估计方法
CN109359541A (zh) 一种基于深度迁移学习的素描人脸识别方法
CN112036288B (zh) 基于跨连接多特征融合卷积神经网络的面部表情识别方法
CN109815826A (zh) 人脸属性模型的生成方法及装置
CN112464865A (zh) 一种基于像素和几何混合特征的人脸表情识别方法
CN104346607A (zh) 基于卷积神经网络的人脸识别方法
CN109101881B (zh) 一种基于多尺度时序图像的实时眨眼检测方法
CN113221655A (zh) 基于特征空间约束的人脸欺骗检测方法
CN102799872A (zh) 基于面部图像特征的图像处理方法
Xu et al. Face expression recognition based on convolutional neural network
CN116386102A (zh) 一种基于改进残差卷积网络inception块结构的人脸情绪识别方法
CN113158828B (zh) 一种基于深度学习的面部情感校准方法及系统
Aslam et al. Gender classification based on isolated facial features and foggy faces using jointly trained deep convolutional neural network
Srininvas et al. A framework to recognize the sign language system for deaf and dumb using mining techniques
CN111160161B (zh) 一种基于噪声剔除的自步学习人脸年龄估计方法
Tunc et al. Age group and gender classification using convolutional neural networks with a fuzzy logic-based filter method for noise reduction
CN116403252A (zh) 基于双向动态分组的多目标特征选择的人脸识别分类方法
Karthigayan et al. Genetic algorithm and neural network for face emotion recognition
Dembani et al. UNSUPERVISED FACIAL EXPRESSION DETECTION USING GENETIC ALGORITHM.
Rehkha Differentiating monozygotic twins by facial features
CN113343773A (zh) 基于浅层卷积神经网络的人脸表情识别系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination