CN114596605A - 一种多特征融合的表情识别方法 - Google Patents
一种多特征融合的表情识别方法 Download PDFInfo
- Publication number
- CN114596605A CN114596605A CN202110698674.3A CN202110698674A CN114596605A CN 114596605 A CN114596605 A CN 114596605A CN 202110698674 A CN202110698674 A CN 202110698674A CN 114596605 A CN114596605 A CN 114596605A
- Authority
- CN
- China
- Prior art keywords
- network
- key
- model
- sample
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000004927 fusion Effects 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000002372 labelling Methods 0.000 claims abstract description 13
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims abstract description 10
- 230000001965 increasing effect Effects 0.000 claims abstract description 8
- 230000008921 facial expression Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 16
- 210000002569 neuron Anatomy 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 4
- 230000006872 improvement Effects 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 2
- 230000001737 promoting effect Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims 1
- 230000000717 retained effect Effects 0.000 claims 1
- 230000008034 disappearance Effects 0.000 abstract description 2
- 230000002401 inhibitory effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000011160 research Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000006854 communication Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于自我修正与融合多尺度特征改进VGGNet的表情识别方法。该方法首先在VGGNet16网络前端新增一个多尺度特征提取网络结构,并将不同深度网络提取的多种特征进行支路特征融合,保留更完善的特征信息;然后通过在每个卷积层之后使用批量标准化,并在全连接层之后使用Dropout,以此加快网络模型收敛速率,降低网络模型发生梯度消失与过拟合的概率;最后在网络的后端加入自我修正网络,抑制样本的标注不确定性为网络模型训练带来的影响。该方法可在标注不确定数据集上以更高的精度识别出七种基本的表情。
Description
技术领域
本发明技术属于图像处理、模式识别、人工智能领域,具体来讲,涉及一种采用自我修正与融合多尺度特征改进VGGNet的表情识别方法。
背景技术
人脸面部表情是人类心理状态的直观反映,蕴含着丰富的情感信息,能够直观的映射出一个人的真实想法。在人类的日常交流中,我们不仅可以通过语言与文字来传达信息,我们也会通过一些肢体动作,面部表情来完成人们之间的交流,且研究表明表情与肢体动作往往相比于语言更能传递关键信息。面部表情是一种常见的非语言表达形式,它能够有效的传达个人情感和意图。我们能够通过眼睛观察别人的面部表情信息,然后大脑将得到的信息进行分析得到别人的心理状态,完成人们之间情感的表达与交流。人们交流过程中人脸面部表情能够赋予语言情感色彩,且人脸表情能清晰的展现出一个人的真实情绪,相比于语言更加准确。
人脸表情识别研究至今已经积累了丰富的理论,研究对象也逐渐从实验室场景到现实场景。虽然现如今人脸表情研究取得了很多的研究成果,但是数据集的标注不确定性一直是其存在的重大挑战。深度学习的网络训练需要大量的标准数据驱动,但是对现如今国内外研究机构公开的表情数据集来说,因为每个人对表情的判别往往会存在自己的主观印象,而每个人的主观印象可能受到其文化,生长环境,性格影响,人脸表情数据的标签可能会有错误的情况。因此现有的人脸表情识别数据集质量参差不齐,且现有数据集数据量比较缺乏,这些问题都制约着表情识别精度的提升。当使用了标注错误的表情数据样本训练网络模型时,可能会出现以下几种情况:首先网络可能过度学习到了错误样本数据的特征,从而干扰到了正确样本数据的表情特征学习;其次网络可能过度的去学习错误样本数据上的特征而出现过拟合,如果错误样本过多也会导致网络难以学到真实的各类表情特征而使得网络难以收敛。
发明内容
本发明的目的在于解决表情识别现有人工标注的人脸表情数据集仍具有标注不确定性,卷积神经网络提取特征不完善等问题,实现更精确的人脸表情识别。
为了实现上述目的,本发明提供一种基于自我修正与融合多尺度特征改进VGGNet的表情识别方法,该方法主要包括五个部分:第一部分是对数据集进行预处理;第二部分是对VGGNet16网络进行多尺度特征提取与融合;第三部分是添加批量标准化与Dropout模块;第四部分是在网络的后端加入自我修正网络;第五部分是网络训练与测试。
第一部分包括两个步骤:
步骤1,下载自然场景下的人脸表情数据集(RAF-DB),然后选取数据集中单标签训练集12271张图片和测试集3068张图片作为模型训练测试样本;
步骤2,判断图像是否为灰度图,不是则将其转化为灰度图,然后将其尺寸变换为96×96大小,并对图像经旋转,平移等基础操作增强训练样本集,形成最终的训练集样本;
第二部分包括两个步骤:
步骤3,将步骤2中的训练样本输入VGGNet16网络,在VGGNet16网络前端新增一个多尺度特征提取网络结构作为网络第一层,采用三个不同大小的卷积核对原图像进行特征提取,并将三个不同大小卷积核提取的多种特征进行特征融合,该结构相较只使用3×3卷积核时丢失信息更少,能够保留更完善的特征信息;
步骤4,对步骤3改进后的VGGNet16网络的第二个卷积组和第三个卷积组之间添加快捷连接至全连接层前,构成支路特征融合模块,将不同阶段的特征融合在一起,促使网络学习到更多的特征;
第三部分包括两个步骤:
步骤5,将步骤3、4改进后的VGGNet16网络每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性;
步骤6,将步骤3、4、5改进后的VGGNet16网络在每个全连接层之后使用Dropout,弃置部分神经元,加入部分干扰,增加模型的健壮性,减少模型参数量;
第四部分包括五个步骤:
步骤7,将步骤3、4、5、6改进后的VGGNet16网络提取到的特征通过自我注意力模块进行关键程度加权,通过权重值大小区分出关键样本与非关键样本,优先关注关键的样本,提升网络对关键样本的权重值。
步骤8,将步骤7得到的关键程度权重采用logit模型用于原网络模型使用的交叉熵损失函数加权,避免非关键部分样本对网络学习的误导。
步骤9,对步骤7得到的关键程度权重通过排序正则化模块进行比较,然后将所有权重按照大小从高到低排列,将关键程度权重值按照一定比例划分为关键部分与非关键部分。
步骤10,将步骤9得到的关键部分与非关键部分的权重值进行平均取均值,并通过排序正则化约束关键部分的均值比非关键部分的均值高出一个阈值,将自我注意力模块与排序正则化模块两个损失函数结合得到自我修正网络最终损失函数。
步骤11,将步骤9中得到的非关键部分样本通过再标注模块将最大预测概率与样本原标签的预测概率相减,若两者的差值大于给定的范围参数值,那么该样本则进行标签再标注工作,将其最大预测概率作为其重新标注的正确标签。
第五部分包括两个步骤:
步骤12,调试从步骤3到步骤11的网络结构超参数,并得到最终的训练模型;
步骤13,将步骤1中训练集输入步骤12中的训练模型中,得到表情识别图像结果。
本发明提出一种基于自我修正与融合多尺度特征改进VGGNet的表情识别方法。该方法首先在VGGNet16网络前端新增一个多尺度特征提取网络结构,并将不同深度的网络提取的多种特征进行支路特征融合,保留更完善的特征信息。然后通过在每个卷积层之后使用批量标准化,并在全连接层之后使用Dropout,以此加快网络模型收敛速率,降低网络模型发生梯度消失与过拟合的概率。最后在网络的后端加入自我修正网络,抑制样本的标注不确定性为网络模型训练带来的影响,识别出七种基本的表情。
附图说明
图1为本发明的具体实施整体框图;
图2为本发明的多尺度特征提取结构图;
图3为本发明的批归一化示例图;
图4为本发明的Dropout结构图;
图5为本发明的自我修正网络结构图。
具体实施方式
为了更好的理解本发明,下面结合附图对本发明的基于自我修正与融合多尺度特征改进VGGNet的表情识别方法进行更为详细的描述。在以下的描述中,当前已有技术的详细描述也许会淡化本发明的主题内容,这些描述在这里将被忽略。
图1是本发明的一种具体实施方式的总体框图,具体包括如下13个步骤,按照以下步骤进行:
步骤1,下载自然场景下的人脸表情数据集(RAF-DB),该数据库包含了不同年龄阶段,多种人种与多种肤色的图片。包含各种姿态,光照条件,含有眼镜,头发与自身遮挡等干扰因素,致力于解决真实环境下的人脸表情识别问题。然后选取数据集中单标签训练集12271张图片和测试集3068张图片作为模型训练测试样本。
步骤2,判断图像是否为灰度图,不是则将其转化为灰度图,使得光照对人脸表情识别的影响降到最低。我们首先做一系列的随机变换,包括翻转,旋转,切割等,接着将数据图片尺寸变换为104×104大小,然后随机切割为96×96大小的图像,然后将图片在0~15°之间进行随机旋转并进行水平镜像操作,形成最终的训练集样本。
步骤3,将步骤2中的训练样本输入VGGNet16网络,在VGGNet16网络前端新增一个多尺度特征提取模块结构作为网络第一层,该模块能够在网络起始部分更完整的保留表情图像的特征。如图2所示,其并联了三个卷积模块,包括串联的1×1和3×3卷积、串联的1×1和5×5卷积、串联的1×1和7×7卷积,将并联的三个模块融合提取特征。由于不同尺度的卷积核进行卷积时获得的感受野不同,提取出的图像信息也会有所区别,因此同时并联不同尺寸的卷积核合并所有感受野提取出的图像信息将可以提取到更加完善的图像特征信息。并在每个卷积核支路使用1×1的卷积结构,目的是将每个并联分支网络的特征图进行降维,然后在低维度进行3×3、5×5和7×7卷积提取不同特征信息,此时的参数量大大减少,且避免了网络的起始部分只使用单一卷积核而导致图像特征提取不完整,部分关键特征丢失的情况。
步骤4,对步骤3改进后的VGGNet16网络的第二个卷积组和第三个卷积组之间添加快捷连接至全连接层前,构成支路特征融合模块,将不同阶段的特征融合在一起,促使网络学习到更多的特征。
步骤5,将步骤3、4改进后的VGGNet16网络每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性。批量标准化通过对网络输入数据按照每个批次进行批归一化处理,将样本数据的每个批次归一化为均值为0和方差为1的标准正态分布,下面为批量标准化层的单一批次的计算方法及具体步骤:
计算每一个批次输入数据的均值:
计算每一个批次输入数据的方差:
对输入数据进行归一化操作,约束输入数据服从正态分布:
对输入数据通过线性变换进行平移缩放:
其中,m指的是单个批次的样本数量,x i 是单个批次输入样本数据。是单个批次样本均值,是单个批次样本方差,y i 是单个批次输出样本数据,与是两个可训练的线性变换参数,该参数使得新的数据分布更逼近样本的真实分布,提高了网络的表达能力。如图3所示为输入数据进行批量标准化后的数据对比图。
步骤6,将步骤3、4、5改进后的VGGNet16网络在每个全连接层之后使用Dropout,在训练过程中概率性丢弃一部分神经元,通常在全连接层之间加入,在一定程度上改变网络的连接方式,破坏特征信息之间的交互作用,相当于认为加入了部分噪声,增强模型的泛化性。图4为Dropout结构图,具体操作为在训练过程的每次迭代中,随机的将部分神经元丢弃,该部分神经元的不再参加前向传播过程与反向传播过程,即该部分神经元的权值和偏置参数都处于强制休眠状态。使得网络将不会对某些具有干扰信息的神经元过度学习,切实提高网络模型的泛化性,大大减少网络的参数数量。
步骤7,对步骤3、4、5、6改进后的VGGNet16网络提取到的特征通过一个线性的全连接层得到关键程度权重,再通过Sigmoid激活函数将该注意力权重映射到0-1之间;令F=[x 1, x 2, . . . , x n ]为n个图片的人脸输入特征图,该模块公式为:
步骤9,对步骤7得到的关键程度权重进行比较,然后将所有权重按照大小从高到低排列,将关键程度权重值按照一定比例划分为关键部分与非关键部分。
步骤10,将步骤9得到的关键部分与非关键部分的权重值取均值,并通过排序正则化约束关键部分的均值比非关键部分的均值高出一个阈值,该模块的损失函数公式为:
其中D表示一定的阈值范围,该参数能够通过网络自适应取值或者自己人为指定。是关键部分样本均值,是非关键部分样本均值,N是一个批次的样本数量,M为关键部分样本数量。最后,将自我注意力模块与排序正则化模块两个损失函数结合得到自我修正网络最终损失函数:
步骤11,将步骤9中得到的非关键部分样本通过再标注模块将最大预测概率与样本原标签的预测概率相减,若两者的差值大于给定的范围参数值,那么该样本则进行标签再标注工作,将其最大预测概率作为其重新标注的正确标签。该模块公式如下:
步骤12,调试从步骤3到步骤11的网络结构超参数,采用随机梯度下降优化器,训练分为200批次,初始学习率是0.01,从15轮迭代开始,每十轮降一次。在训练过程中,自我修正网络模块将训练图片按照7:3的比例分为关键与非关键样本。并将关键与非关键部分样本的均值的阈值设置为0.15。整体损失函数中交叉熵加权损失函数与排序正则损失函数之间的占比为1:1。训练到第80批次以后加入再标注模块,再标注模块中的最大预测概率与原本标签概率之间的差值范围参数默认为0.2,并得到最终的训练模型;
步骤13,将步骤1中训练集输入步骤12中的训练模型中,得到表情识别图像结果。
尽管上面对本发明说明性的具体实施方式进行了描述,但应当清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (5)
1.一种多特征融合的表情识别方法,其特征在于包含数据集预处理,VGGNet16网络进行多尺度特征提取与融合,添加批量标准化与Dropout模块,在网络的后端加入自我修正网络,网络训练与测试五个部分:
第一部分包括两个步骤:
步骤1,下载自然场景下的人脸表情数据集(RAF-DB),然后选取数据集中单标签训练集12271张图片和测试集3068张图片作为模型训练测试样本;
步骤2,判断图像是否为灰度图,不是则将其转化为灰度图,使得光照对人脸表情识别的影响降到最低;然后将其尺寸变换为96×96大小,并对图像经旋转,平移等基础操作增强训练样本集,形成最终的训练集样本;
第二部分包括两个步骤:
步骤3,将步骤2中的训练样本输入VGGNet16网络,在VGGNet16网络前端新增一个多尺度特征提取网络结构作为网络第一层,采用三个不同大小的卷积核对原图像进行特征提取,并将三个不同大小卷积核提取的多种特征进行特征融合,该结构相较只使用3×3卷积核时丢失信息更少,能够保留更完善的特征信息;
步骤4,对步骤3改进后的VGGNet16网络的第二个卷积组和第三个卷积组之间添加快捷连接至全连接层前,构成支路特征融合模块,将不同阶段的特征融合在一起,促使网络学习到更多的特征;
第三部分包括两个步骤:
步骤5,将步骤3、4改进后的VGGNet16网络每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性;
步骤6,将步骤3、4、5改进后的VGGNet16网络在每个全连接层之后使用Dropout,弃置部分神经元,加入部分干扰,增加模型的健壮性,减少模型参数量;
第四部分包括五个步骤:
步骤7,将步骤3、4、5、6改进后的VGGNet16网络提取到的特征通过自我注意力模块进行关键程度加权,通过权重值大小区分出关键样本与非关键样本,优先关注关键的样本,提升网络对关键样本的权重值;
步骤8,将步骤7得到的关键程度权重采用logit模型用于原网络模型使用的交叉熵损失函数加权,避免非关键部分样本对网络学习的误导;
步骤9,对步骤7得到的关键程度权重通过排序正则化模块进行比较,然后将所有权重按照大小从高到低排列,将关键程度权重值按照一定比例划分为关键部分与非关键部分;
步骤10,将步骤9的每个部分的权重值进行平均取均值,并通过排序正则化约束关键部分的均值比非关键部分的均值高出一个阈值,将自我注意力模块与排序正则化模块两个损失函数结合得到自我修正网络最终损失函数;
步骤11,将步骤9中得到的非关键部分样本通过再标注模块将最大预测概率与样本原标签的预测概率相减,若两者的差值大于给定的范围参数值,那么该样本则进行标签再标注工作,将其最大预测概率作为其重新标注的正确标签;
第五部分包括两个步骤:
步骤12,调试从步骤3到步骤11的网络结构超参数,并得到最终的训练模型;
步骤13,将步骤1中训练集输入步骤12中的训练模型中,得到表情识别图像结果。
2.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于,利用步骤3的多尺度特征提取网络结构,保留更完善的特征信息。
3.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于,步骤5中将每个卷积层之后使用批量标准化,加快网络模型的收敛速率,增加模型泛化性。
4.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于,利用步骤6在每个全连接层之后使用Dropout,弃置部分神经元,加入部分干扰,增加模型的健壮性,减少模型参数量。
5.根据权利要求1所述的一种多特征融合的表情识别方法,其特征在于步骤7、8、9、10、11中使用自我修正网络,抑制样本的标注不确定性为网络模型训练带来的影响。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110698674.3A CN114596605A (zh) | 2021-06-23 | 2021-06-23 | 一种多特征融合的表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110698674.3A CN114596605A (zh) | 2021-06-23 | 2021-06-23 | 一种多特征融合的表情识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114596605A true CN114596605A (zh) | 2022-06-07 |
Family
ID=81803354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110698674.3A Pending CN114596605A (zh) | 2021-06-23 | 2021-06-23 | 一种多特征融合的表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114596605A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861684A (zh) * | 2022-11-18 | 2023-03-28 | 百度在线网络技术(北京)有限公司 | 图像分类模型的训练方法、图像分类方法及装置 |
CN117689998A (zh) * | 2024-01-31 | 2024-03-12 | 数据空间研究院 | 非参数自适应的情绪识别模型、方法、系统和存储介质 |
CN118097314A (zh) * | 2024-04-26 | 2024-05-28 | 南京航空航天大学 | 一种用于极小批量流数据的测试时适应图像分类方法 |
-
2021
- 2021-06-23 CN CN202110698674.3A patent/CN114596605A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861684A (zh) * | 2022-11-18 | 2023-03-28 | 百度在线网络技术(北京)有限公司 | 图像分类模型的训练方法、图像分类方法及装置 |
CN115861684B (zh) * | 2022-11-18 | 2024-04-09 | 百度在线网络技术(北京)有限公司 | 图像分类模型的训练方法、图像分类方法及装置 |
CN117689998A (zh) * | 2024-01-31 | 2024-03-12 | 数据空间研究院 | 非参数自适应的情绪识别模型、方法、系统和存储介质 |
CN117689998B (zh) * | 2024-01-31 | 2024-05-03 | 数据空间研究院 | 非参数自适应的情绪识别模型、方法、系统和存储介质 |
CN118097314A (zh) * | 2024-04-26 | 2024-05-28 | 南京航空航天大学 | 一种用于极小批量流数据的测试时适应图像分类方法 |
CN118097314B (zh) * | 2024-04-26 | 2024-07-16 | 南京航空航天大学 | 一种用于极小批量流数据的测试时适应图像分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114596605A (zh) | 一种多特征融合的表情识别方法 | |
CN105469034B (zh) | 基于加权式鉴别性稀疏约束非负矩阵分解的人脸识别方法 | |
Ali et al. | Boosted NNE collections for multicultural facial expression recognition | |
CN108304826A (zh) | 基于卷积神经网络的人脸表情识别方法 | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
CN109359541A (zh) | 一种基于深度迁移学习的素描人脸识别方法 | |
CN112036288B (zh) | 基于跨连接多特征融合卷积神经网络的面部表情识别方法 | |
CN109815826A (zh) | 人脸属性模型的生成方法及装置 | |
CN112464865A (zh) | 一种基于像素和几何混合特征的人脸表情识别方法 | |
CN104346607A (zh) | 基于卷积神经网络的人脸识别方法 | |
CN109101881B (zh) | 一种基于多尺度时序图像的实时眨眼检测方法 | |
CN113221655A (zh) | 基于特征空间约束的人脸欺骗检测方法 | |
CN102799872A (zh) | 基于面部图像特征的图像处理方法 | |
Xu et al. | Face expression recognition based on convolutional neural network | |
CN116386102A (zh) | 一种基于改进残差卷积网络inception块结构的人脸情绪识别方法 | |
CN113158828B (zh) | 一种基于深度学习的面部情感校准方法及系统 | |
Aslam et al. | Gender classification based on isolated facial features and foggy faces using jointly trained deep convolutional neural network | |
Srininvas et al. | A framework to recognize the sign language system for deaf and dumb using mining techniques | |
CN111160161B (zh) | 一种基于噪声剔除的自步学习人脸年龄估计方法 | |
Tunc et al. | Age group and gender classification using convolutional neural networks with a fuzzy logic-based filter method for noise reduction | |
CN116403252A (zh) | 基于双向动态分组的多目标特征选择的人脸识别分类方法 | |
Karthigayan et al. | Genetic algorithm and neural network for face emotion recognition | |
Dembani et al. | UNSUPERVISED FACIAL EXPRESSION DETECTION USING GENETIC ALGORITHM. | |
Rehkha | Differentiating monozygotic twins by facial features | |
CN113343773A (zh) | 基于浅层卷积神经网络的人脸表情识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |