CN109829441A - 一种基于课程学习的面部表情识别方法及装置 - Google Patents
一种基于课程学习的面部表情识别方法及装置 Download PDFInfo
- Publication number
- CN109829441A CN109829441A CN201910122892.5A CN201910122892A CN109829441A CN 109829441 A CN109829441 A CN 109829441A CN 201910122892 A CN201910122892 A CN 201910122892A CN 109829441 A CN109829441 A CN 109829441A
- Authority
- CN
- China
- Prior art keywords
- expression recognition
- sample
- subset
- expression
- course learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种基于课程学习的面部表情识别方法及装置,该装置基于一种基于课程学习的面部表情识别方法,包括:接收面部样本集,进行数据预处理;构建表情识别网络主模型;将预处理后的面部样本集输入表情识别网络主模型,确定每类表情的聚类中心,并对每类表情样本划分子集;根据划分出的子集,以课程学习的训练策略优化模型;接收待识别面部数据,根据优化后的模型进行面部表情识别。
Description
技术领域
本公开属于计算机视觉的技术领域,涉及一种基于课程学习的面部表情识别方法及装置。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
面部表情识别是图像识别领域一个很重要的问题。近年来,面部表情识别得到了越来越多的关注,其广泛应用于心态分析、医疗诊断、广告效果研究等很多领域。面部表情是人们传达自身情感和意图最有利、最自然、最普遍的信号之一,而面部表情识别是基于面部的七种表情(生气、厌恶、害怕、高兴、伤心、吃惊和中立)来确定人的情感。
面部表情识别的重点在于如何更加有效的提取有区分性的特征,然后利用训练好的分类器进行识别不同的表情,这些特征主要分为基于外观的特征和基于几何的特征。传统的面部表情识别主要基于手工特征,过去广泛使用的基于外观的特征包含像素强度、局部二值特征、直方图特征和小波特征等。然而基于外观的特征是从整个面部提取的,与表情变化高度相关的局部区域,如鼻子、眼睛和嘴巴,都被忽略。
近年来深度学习技术在计算机视觉领域取得了很大的进步,如目标检测、图像分割和图像分类等。深度神经网络可以自动的从输入图像提取高级语义特征,其被认为是最有可能接近人类水平的人工智能技术之一。已经存在的基于手工特征的面部表情识别不能提取高级语义特征,而深度卷积神经网络可以端到端的提取特征。
虽然利用卷积神经网络的技术取得了一定的进步,但是提取有效的、具有区分力的、能够代表每一类表情的特征仍然是一项具有挑战性的任务,发明人认为原因如下:
一方面是因为不同个体的同一类表情之间具有很少的相似性,他们可能利用不同的方式表达同一种表情;
另一方面是因为同一个体的不同表情之间的不同点太少,因为很多表情状态太微妙而不能区分,比如生气、害怕和伤心,都展现出相同的面部肌肉单元的运动。
发明内容
针对现有技术中存在的不足,本公开的一个或多个实施例提供了一种基于课程学习的面部表情识别方法及装置,利用本公开该方法训练好的分类器具可以提取更加有效的、更有区分性的特征,使得模型拥有更好的泛化性能,进而更加有效的识别面部表情。
根据本公开的一个或多个实施例的一个方面,提供一种基于课程学习的面部表情识别方法。
一种基于课程学习的面部表情识别方法,该方法包括:
接收面部样本集,进行数据预处理;
构建表情识别网络主模型;
将预处理后的面部样本集输入表情识别网络主模型,确定每类表情的聚类中心,并对每类表情样本划分子集;
根据划分出的子集,以课程学习的训练策略优化模型;
接收待识别面部数据,根据优化后的模型进行面部表情识别。
进一步地,在该方法中,所述面部样本集中的面部样本数据为面部样本图片,对面部样本图片进行所述数据预处理包括对每幅面部样本图片进行归一化以及对面部样本图片中的每个像素进行归一化。
进一步地,在该方法中,所述表情识别网络主模型包括依次连接的InceptionResnet-V2预训练模型、全局平均池化层、全连接层和分类层;
所述InceptionResnet-V2预训练模型用于提取面部样本集特征;
所述全局平均池化层用于将经过预训练模型得到的特征进行一维化;
所述全连接层包含256个神经元,用于得到面部样本集的256维的特征向量;
所述分类层包含7个神经元,用于对七种表情的分类。
进一步地,在该方法中,所述表情识别网络主模型中的所述全局平均池化层和全连接层后均连接Dropout层,所述Dropout层对神经元的保留概率设置为0.5。
进一步地,在该方法中,所述确定每类表情的聚类中心的具体步骤包括:
计算每类表情中每个样本的欧式距离矩阵;
根据欧式距离矩阵,计算每类表情中每个样本的局部密度值;
根据欧式距离矩阵,计算每类表情中每个样本的距离值;
计算每类表情中每个样本的局部密度值与距离值的乘积,其最大值为该类表情的聚类中心。
进一步地,在该方法中,所述对每类表情样本划分子集的具体步骤包括:计算各个样本到聚类中心欧氏距离的远近,按照一定比例将该类样本分成复杂程度不同的三个子集:简单子集、困难子集、非常困难子集。
进一步地,在该方法中,以课程学习的训练策略优化模型的具体步骤包括:
将每类表情样本划分出的三个子集分别进行混合,得到三个总子集,每个总子集中均包含七种表情,所述总子集包括简单总子集、困难总子集、非常困难总子集;
由简单总子集、困难总子集到非常困难总子集的顺序对表情识别网络主模型进行优化训练,得到最终的表情识别模型。
进一步地,该方法还包括在优化训练过程中,防止模型过拟合,使用学习率衰减对模型进行微调。
根据本公开的一个或多个实施例的一个方面,提供一种计算机可读存储介质。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种基于课程学习的面部表情识别方法。
根据本公开的一个或多个实施例的一个方面,提供一种终端设备。
一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种基于课程学习的面部表情识别方法。
根据本公开的一个或多个实施例的一个方面,提供一种基于课程学习的面部表情识别装置。
一种基于课程学习的面部表情识别装置,基于所述的一种基于课程学习的面部表情识别方法,包括:依次连接的数据预处理模块、主模型构建模块、课程设计模块、课程学习模块和面部表情识别模块;
所述数据预处理模块用于接收面部样本集,进行数据预处理;
所述主模型构建模块用于构建表情识别网络主模型;
所述课程设计模块用于将预处理后的面部样本集输入表情识别网络主模型,确定每类表情的聚类中心,并对每类表情样本划分子集;
所述课程学习模块用于根据划分出的子集,以课程学习的训练策略优化模型;
所述面部表情识别模块用于接收待识别面部数据,根据优化后的模型进行面部表情识别。
本公开的有益效果:
本公开提供的一种基于课程学习的面部表情识别方法及装置,考虑到面部表情的微妙性,不同个体的同一表情相似性太少,同一个体的不同表情的不同点也很少的问题,本公开将课程学习的训练策略引入到面部表情识别,可以提取更加有效的更加有区分力度的特征,使得训练的分类器有更好的泛化性能,提高表情分类效果。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1是根据一个或多个实施例的一种基于课程学习的面部表情识别方法流程图;
图2是根据一个或多个实施例的面部表情识别方法框架示意图;
图3是根据一个或多个实施例的表情识别网络主模型示意图;
图4是根据一个或多个实施例的确定聚类中心的示意图;
图4(a)为生气的表情样本聚类中心确定示意图;图4(b)为确定厌恶的表情样本聚类中心的示意图;图4(c)为确定害怕的表情样本聚类中心的示意图;图4(d)为确定高兴的表情样本聚类中心的示意图;图4(e)为确定伤心的表情样本聚类中心的示意图;图4(f)为确定吃惊的表情样本聚类中心的示意图;图4(g)为确定中立的表情样本聚类中心的示意图;
图5是根据一个或多个实施例的课程学习的对模型优化过程示意图。
具体实施方式:
下面将结合本公开的一个或多个实施例中的附图,对本公开的一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本公开的一个或多个实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本实施例使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
需要注意的是,附图中的流程图和框图示出了根据本公开的各种实施例的方法和系统的可能实现的体系架构、功能和操作。应当注意,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分可以包括一个或多个用于实现各个实施例中所规定的逻辑功能的可执行指令。也应当注意,在有些作为备选的实现中,方框中所标注的功能也可以按照不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,或者它们有时也可以按照相反的顺序执行,这取决于所涉及的功能。同样应当注意的是,流程图和/或框图中的每个方框、以及流程图和/或框图中的方框的组合,可以使用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以使用专用硬件与计算机指令的组合来实现。
在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合,下面结合附图与实施例对本公开作进一步说明。
如图1所示,根据本公开的一个或多个实施例的一个方面,提供一种基于课程学习的面部表情识别方法。
一种基于课程学习的面部表情识别方法,该方法包括:
S101:接收面部样本集,进行数据预处理;
S102:构建表情识别网络主模型;
S103:将预处理后的面部样本集输入表情识别网络主模型,利用density-distance非监督聚类的方法确定每类表情的聚类中心,根据到聚类中心欧式距离的远近,对每类表情样本划分子集(简单子集、困难子集、非常困难子集);
S104:根据划分出的子集,以课程学习的训练策略优化模型;即由简单到困难的训练模型,不断地将困难样本添加进当前训练集以增加复杂程度;
S105:接收待识别面部数据,根据优化后的模型进行面部表情识别。优化过程中,使用Dropout、earlystopping、数据集扩增等机制防止模型过拟合;使用学习率衰减对模型进行微调。
图2给出了基于课程学习的面部表情识别方法框架图:整个方法中主要创新在于最终的表情识别模型的构建,主要分成三个部分:特征提取、课程设计和课程学习。
特征提取阶段是将所有的训练集初始化网络架构,通过fc_256层的输出得到所有训练样本在特征空间的向量表示。
课程设计阶段是基于所有训练样本的特征向量,利用density-distance的非监督聚类方法确定每一类的聚类中心,然后根据各个样本到聚类中心距离的远近将所有训练集分成复杂程度不同的子集。
课程学习阶段是利用已经分好的不同复杂度的子集对模型进行优化的过程。
在本实施例的步骤S101中,所述面部样本集中的面部样本数据为面部样本图片,对面部样本图片进行所述数据预处理包括对每幅面部样本图片进行归一化以及对面部样本图片中的每个像素进行归一化。
在本实施例中进行数据预处理的具体操作步骤:
S1011归一化每一幅图片:从每张图片中减去平均值,然后将标准差设置为3.125;
S1012归一化每一个像素:首先计算一个均值像素值图片,然后对于每一幅图片减去对应位置的均值像素;然后将所有训练集图片的每个像素的标准差设置为1。
在本实施例的步骤S102中,所述表情识别网络主模型包括依次连接的InceptionResnet-V2预训练模型、全局平均池化层、全连接层和分类层;
所述InceptionResnet-V2预训练模型用于提取面部样本集特征;
所述全局平均池化层用于将经过预训练模型得到的特征进行一维化;
所述全连接层包含256个神经元,用于得到面部样本集的256维的特征向量;
所述分类层包含7个神经元,用于对七种表情的分类。
在本实施例的步骤S102中,所述表情识别网络主模型中的所述全局平均池化层和全连接层后均连接Dropout层,所述Dropout层对神经元的保留概率设置为0.5。
在本实施例中图3给出了搭建的模型主架构的示意图。利用InceptionResnet-V2预训练模型,后接全局平均池化层global_average_pooling层,用于将经过预训练模型得到的特征给一维化;再后接含有256个神经元的全连接层,全连接fc_256层,目的是在课程设计阶段的步骤S1031中给出所有训练样本的256维的特征向量;再后接含有7个神经元的分类层,全连接输出fc_7层,后跟softmax激活函数,用于对7种表情的预测分类。在全局平均池化层和全连接层(除输出层外)后均有Dropout层,设置该层对神经元的保留率为0.5。
在本实施例的步骤S103中,所述确定每类表情的聚类中心的具体步骤包括:
S1031:首先将所有的训练集初始化模型,利用fc_256层的输出作为所有训练样本的256维的特征向量,对于输入图像xi,可以得到xi→f(xi);
S1032:计算每类样本到该类其他样本的距离值,则会得到一个欧式距离矩阵
Mij=||f(xi)-f(xj)||2,0≤i≤n,0≤j≤n
S1033:计算每类样本中每个样本的局部密度值。其中S(x)是一个阈值函数,tc是通过对个距离值降序排序,前k%所确定的一个距离值阈值。实际上,ρi就是该类样本中到样本xi的距离小于tc的样本个数。一般来说,我们假设简单的样本相互之间拥有相似的视觉外观特征,相互之间是很接近的,所以这些样本会具有相对较大的局部密度值;相反,困难的样本拥有显著的多样性特征,就会有特征的稀疏分布,则具有相对较小的局部密度值。
S1034:计算每类表情中每个样本的距离值。对于样本xi,如果在该类中不是密度值最大的样本,则该样本的距离值是比该样本密度值大的样本中与该样本距离最近的样本的距离值;如果该样本是该类中密度值最大的样本,则该样本的距离值是与该样本最远的样本的距离。
S1035:计算每类表情中每个样本的局部密度值与距离值的乘积,则在每一类样本中,拥有最大乘积的样本被选择为该类的聚类中心。
zi=ρi×di。
在本实施例的步骤S103中,所述对每类表情样本划分子集的具体步骤包括:计算各个样本到聚类中心欧氏距离的远近,按照一定比例将该类样本分成复杂程度不同的三个子集:简单子集、困难子集、非常困难子集。
图4给出了每类样本聚类中心确定的示意图。早本实施例中根据到聚类中心距离的远近,将该类样本按照6:2:2的比列分成复杂程度不同简单、困难、非常困难三个子集。图4(a)为生气的表情样本聚类中心确定示意图;图4(b)为确定厌恶的表情样本聚类中心的示意图;图4(c)为确定害怕的表情样本聚类中心的示意图;图4(d)为确定高兴的表情样本聚类中心的示意图;图4(e)为确定伤心的表情样本聚类中心的示意图;图4(f)为确定吃惊的表情样本聚类中心的示意图;图4(g)为确定中立的表情样本聚类中心的示意图。
在本实施例的步骤S104中,以课程学习的训练策略优化模型的具体步骤包括:
S1041:将每类表情样本划分出的三个子集分别进行混合,得到三个总子集,每个总子集中均包含七种表情,所述总子集包括简单总子集、困难总子集、非常困难总子集;
在本实施例中将每类样本中的简单、困难、非常困难子集混合成一个包含7种样本的总的简单总子集、困难总子集、非常困难总子集。将每类样本中的简单、困难、非常困难子集混合成一个包含七种样本的总的简单、困难、非常困难的子集,即简单样本集(简单总子集)含有七种表情的简单子集,困难样本集(困难总子集)含有七种表情的困难子集,非常困难样本集(非常困难总子集)含有七种表情的非常困难子集。
S1042:由简单总子集、困难总子集到非常困难总子集的顺序对表情识别网络主模型进行优化训练,得到最终的表情识别模型。
例如:
方式一:先使用简单的样本优化模型,待此时的模型收敛后,将困难的样本混合进当前训练集,待此时的模型收敛后,将非常困难的样本混合进入当前训练集,以此种混合的方式增加训练集的复杂程度。
方式二:先使用简单的样本优化模型,待此时的模型收敛后,将困难样本集作为此时的训练集,然后待此时的模型收敛后,将非常困难的样本集作为此时的训练集,以此种替换的方式增加训练集的复杂程度。
如图5所示为课程学习的过程。
进一步地,在本实施例的步骤S104中,还包括在优化训练过程中,防止模型过拟合,使用学习率衰减对模型进行微调。优化过程中,使用Dropout、earlystopping、数据集扩增等机制防止模型过拟合;使用学习率衰减对模型进行微调。
在本实施例中的优化训练过程中,待第三阶段的模型收敛后,使用所有的样本集对模型进行优化,所有的优化过程均采用交叉熵损失函数。优化过程中,防止模型过拟合,采用early stopping机制,即在训练过程中,在验证集上的损失经过t轮不下降(在本次发明中设置t=5),及时停止本次优化,并将学习率衰减10倍后继续对模型进行微调;微调过程中仍然采用early stopping机制,取得最优模型进行保存。
根据本公开的一个或多个实施例的一个方面,提供一种计算机可读存储介质。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种基于课程学习的面部表情识别方法。
根据本公开的一个或多个实施例的一个方面,提供一种终端设备。
一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种基于课程学习的面部表情识别方法。
这些计算机可执行指令在设备中运行时使得该设备执行根据本公开中的各个实施例所描述的方法或过程。
在本实施例中,计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
本文所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开内容操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开内容的各个方面。
根据本公开的一个或多个实施例的一个方面,提供一种基于课程学习的面部表情识别装置。
一种基于课程学习的面部表情识别装置,基于所述的一种基于课程学习的面部表情识别方法,包括:依次连接的数据预处理模块、主模型构建模块、课程设计模块、课程学习模块和面部表情识别模块;
所述数据预处理模块用于接收面部样本集,进行数据预处理;
所述主模型构建模块用于构建表情识别网络主模型;
所述课程设计模块用于将预处理后的面部样本集输入表情识别网络主模型,确定每类表情的聚类中心,并对每类表情样本划分子集;
所述课程学习模块用于根据划分出的子集,以课程学习的训练策略优化模型;
所述面部表情识别模块用于接收待识别面部数据,根据优化后的模型进行面部表情识别。
应当注意,尽管在上文的详细描述中提及了设备的若干模块或子模块,但是这种划分仅仅是示例性而非强制性的。实际上,根据本公开的实施例,上文描述的两个或更多模块的特征和功能可以在一个模块中具体化。反之,上文描述的一个模块的特征和功能可以进一步划分为由多个模块来具体化。
本公开的有益效果:
本公开提供的一种基于课程学习的面部表情识别方法及装置,考虑到面部表情的微妙性,不同个体的同一表情相似性太少,同一个体的不同表情的不同点也很少的问题,本公开将课程学习的训练策略引入到面部表情识别,可以提取更加有效的更加有区分力度的特征,使得训练的分类器有更好的泛化性能,提高表情分类效果。
本公开提供的一种基于课程学习的面部表情识别方法及装置,考虑到InceptionResnet-V2预训练模型需要大量的有标签数据,优化过程中采用数据集扩增、Dropout和early stopping机制防止过拟合,提高模型的鲁棒性。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于课程学习的面部表情识别方法,其特征在于,该方法包括:
接收面部样本集,进行数据预处理;
构建表情识别网络主模型;
将预处理后的面部样本集输入表情识别网络主模型,确定每类表情的聚类中心,并对每类表情样本划分子集;
根据划分出的子集,以课程学习的训练策略优化模型;
接收待识别面部数据,根据优化后的模型进行面部表情识别。
2.如权利要求1所述的一种基于课程学习的面部表情识别方法,其特征在于,在该方法中,所述面部样本集中的面部样本数据为面部样本图片,对面部样本图片进行所述数据预处理包括对每幅面部样本图片进行归一化以及对面部样本图片中的每个像素进行归一化。
3.如权利要求1所述的一种基于课程学习的面部表情识别方法,其特征在于,在该方法中,所述表情识别网络主模型包括依次连接的InceptionResnet-V2预训练模型、全局平均池化层、全连接层和分类层;
所述InceptionResnet-V2预训练模型用于提取面部样本集特征;
所述全局平均池化层用于将经过预训练模型得到的特征进行一维化;
所述全连接层包含256个神经元,用于得到面部样本集的256维的特征向量;
所述分类层包含7个神经元,用于对七种表情的分类。
优选地,在该方法中,所述表情识别网络主模型中的所述全局平均池化层和全连接层后均连接Dropout层,所述Dropout层对神经元的保留概率设置为0.5。
4.如权利要求1所述的一种基于课程学习的面部表情识别方法,其特征在于,在该方法中,所述确定每类表情的聚类中心的具体步骤包括:
计算每类表情中每个样本的欧式距离矩阵;
根据欧式距离矩阵,计算每类表情中每个样本的局部密度值;
根据欧式距离矩阵,计算每类表情中每个样本的距离值;
计算每类表情中每个样本的局部密度值与距离值的乘积,其最大值为该类表情的聚类中心。
5.如权利要求1所述的一种基于课程学习的面部表情识别方法,其特征在于,在该方法中,所述对每类表情样本划分子集的具体步骤包括:计算各个样本到聚类中心欧氏距离的远近,按照一定比例将该类样本分成复杂程度不同的三个子集:简单子集、困难子集、非常困难子集。
6.如权利要求1所述的一种基于课程学习的面部表情识别方法,其特征在于,在该方法中,以课程学习的训练策略优化模型的具体步骤包括:
将每类表情样本划分出的三个子集分别进行混合,得到三个总子集,每个总子集中均包含七种表情,所述总子集包括简单总子集、困难总子集、非常困难总子集;
由简单总子集、困难总子集到非常困难总子集的顺序对表情识别网络主模型进行优化训练,得到最终的表情识别模型。
7.如权利要求1所述的一种基于课程学习的面部表情识别方法,其特征在于,该方法还包括在优化训练过程中,防止模型过拟合,使用学习率衰减对模型进行微调。
8.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备的处理器加载并执行如权利要求1-7任一项所述的一种基于课程学习的面部表情识别方法。
9.一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行如权利要求1-7任一项所述的一种基于课程学习的面部表情识别方法。
10.一种基于课程学习的面部表情识别装置,基于如权利要求1-7任一项所述的一种基于课程学习的面部表情识别方法,包括:依次连接的数据预处理模块、主模型构建模块、课程设计模块、课程学习模块和面部表情识别模块;
所述数据预处理模块用于接收面部样本集,进行数据预处理;
所述主模型构建模块用于构建表情识别网络主模型;
所述课程设计模块用于将预处理后的面部样本集输入表情识别网络主模型,确定每类表情的聚类中心,并对每类表情样本划分子集;
所述课程学习模块用于根据划分出的子集,以课程学习的训练策略优化模型;
所述面部表情识别模块用于接收待识别面部数据,根据优化后的模型进行面部表情识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910122892.5A CN109829441B (zh) | 2019-02-19 | 2019-02-19 | 一种基于课程学习的面部表情识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910122892.5A CN109829441B (zh) | 2019-02-19 | 2019-02-19 | 一种基于课程学习的面部表情识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109829441A true CN109829441A (zh) | 2019-05-31 |
CN109829441B CN109829441B (zh) | 2020-08-21 |
Family
ID=66863777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910122892.5A Active CN109829441B (zh) | 2019-02-19 | 2019-02-19 | 一种基于课程学习的面部表情识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109829441B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110237372A (zh) * | 2019-07-24 | 2019-09-17 | 南阳医学高等专科学校第一附属医院 | 小儿智能雾化器 |
CN110555417A (zh) * | 2019-09-06 | 2019-12-10 | 福建中科亚创动漫科技股份有限公司 | 一种基于深度学习的视频图像识别系统及方法 |
WO2022001137A1 (zh) * | 2020-06-29 | 2022-01-06 | 浪潮电子信息产业股份有限公司 | 一种行人重识别方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871416A (zh) * | 2017-11-06 | 2018-04-03 | 合肥亚慕信息科技有限公司 | 一种基于面部识别表情捕捉的在线课程学习系统 |
CN108108677A (zh) * | 2017-12-12 | 2018-06-01 | 重庆邮电大学 | 一种基于改进的cnn人脸表情识别方法 |
CN108830287A (zh) * | 2018-04-18 | 2018-11-16 | 哈尔滨理工大学 | 基于残差连接的Inception网络结合多层GRU的中文图像语义描述方法 |
CN109325443A (zh) * | 2018-09-19 | 2019-02-12 | 南京航空航天大学 | 一种基于多实例多标签深度迁移学习的人脸属性识别方法 |
-
2019
- 2019-02-19 CN CN201910122892.5A patent/CN109829441B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871416A (zh) * | 2017-11-06 | 2018-04-03 | 合肥亚慕信息科技有限公司 | 一种基于面部识别表情捕捉的在线课程学习系统 |
CN108108677A (zh) * | 2017-12-12 | 2018-06-01 | 重庆邮电大学 | 一种基于改进的cnn人脸表情识别方法 |
CN108830287A (zh) * | 2018-04-18 | 2018-11-16 | 哈尔滨理工大学 | 基于残差连接的Inception网络结合多层GRU的中文图像语义描述方法 |
CN109325443A (zh) * | 2018-09-19 | 2019-02-12 | 南京航空航天大学 | 一种基于多实例多标签深度迁移学习的人脸属性识别方法 |
Non-Patent Citations (4)
Title |
---|
ELIZABETH TRAN ET AL.: "Facial Expression Recogniton Using a Large Out-of-Context Dataset", 《RESEARCHGATE》 * |
LIANGKE GUI ET AL.: "Curriculum Learning for Facial Expression Recognition", 《2017 IEEE 12TH INTERNATIONAL CONFERENCE ON AUTOMATIC FACE & GESTURE RECOGNITION》 * |
XIBIN JIA ET AL.: "An Improved K - Mode Algorithm for Facial Expression Image Clustering", 《AIIE2016》 * |
侯琦: "深度学习在图像聚类及分类中的应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110237372A (zh) * | 2019-07-24 | 2019-09-17 | 南阳医学高等专科学校第一附属医院 | 小儿智能雾化器 |
CN110237372B (zh) * | 2019-07-24 | 2021-11-09 | 南阳医学高等专科学校第一附属医院 | 小儿智能雾化器 |
CN110555417A (zh) * | 2019-09-06 | 2019-12-10 | 福建中科亚创动漫科技股份有限公司 | 一种基于深度学习的视频图像识别系统及方法 |
WO2022001137A1 (zh) * | 2020-06-29 | 2022-01-06 | 浪潮电子信息产业股份有限公司 | 一种行人重识别方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109829441B (zh) | 2020-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Escalante et al. | Chalearn joint contest on multimedia challenges beyond visual analysis: An overview | |
CN110084281A (zh) | 图像生成方法、神经网络的压缩方法及相关装置、设备 | |
CN107194371B (zh) | 基于层次化卷积神经网络的用户专注度识别方法及系统 | |
CN107251059A (zh) | 用于深度学习的稀疏推理模块 | |
CN110414323A (zh) | 情绪检测方法、装置、电子设备及存储介质 | |
CN109543722A (zh) | 一种基于情感分析模型的情感趋势预测方法 | |
CN109829441A (zh) | 一种基于课程学习的面部表情识别方法及装置 | |
Aung et al. | Face detection in real time live video using yolo algorithm based on Vgg16 convolutional neural network | |
Romero et al. | Multi-view dynamic facial action unit detection | |
CN112699774A (zh) | 视频中人物的情绪识别方法及装置、计算机设备及介质 | |
CN109815920A (zh) | 基于卷积神经网络和对抗卷积神经网络的手势识别方法 | |
CN111160350A (zh) | 人像分割方法、模型训练方法、装置、介质及电子设备 | |
CN109919006A (zh) | 表情检测方法、装置、电子设备及存储介质 | |
Song et al. | Dynamic facial models for video-based dimensional affect estimation | |
CN113704419A (zh) | 对话处理方法及装置 | |
CN115565238B (zh) | 换脸模型的训练方法、装置、设备、存储介质和程序产品 | |
CN116343287A (zh) | 面部表情识别、模型训练方法、装置、设备及存储介质 | |
CN110175588B (zh) | 一种基于元学习的少样本面部表情识别方法及系统 | |
Perikos et al. | Facial expression recognition using adaptive neuro-fuzzy inference systems | |
Savchenko | EmotiEffNets for facial processing in video-based valence-arousal prediction, expression classification and action unit detection | |
CN113343773B (zh) | 基于浅层卷积神经网络的人脸表情识别系统 | |
Yan et al. | Facial beauty assessment under unconstrained conditions | |
Darapaneni et al. | American sign language detection using instance-based segmentation | |
CN113254575A (zh) | 一种基于多步证据推理的机器阅读理解方法与系统 | |
Nigam et al. | Gender, makeup, age and illumination prediction from faces using ensemble modeling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |