CN110610138A - 一种基于卷积神经网络的面部情感分析方法 - Google Patents
一种基于卷积神经网络的面部情感分析方法 Download PDFInfo
- Publication number
- CN110610138A CN110610138A CN201910779634.4A CN201910779634A CN110610138A CN 110610138 A CN110610138 A CN 110610138A CN 201910779634 A CN201910779634 A CN 201910779634A CN 110610138 A CN110610138 A CN 110610138A
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- face
- formula
- normalized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开的一种基于卷积神经网络的面部情感分析方法,包括选择训练样本和验证样本;输入训练样本,得到归一化人脸图像以及归一化人脸特征点;将归一化人脸图像送入卷积神经网络模型提取情感特征,将归一化人脸特征点信息送入全连接层得到位置特征,将情感特征与位置特征进行拼接;将情感特征映射为二维的预测标签,定义损失函数,衡量损失,使网络反向传播,完成模型训练,再通过验证样本验证即可。本发明面部情感分析方法采用卷积神经网络模型和多输出均方根误差提取情感特征,同时加入人脸特征点,即克服了人为定义特征丢失情感信息的问题,又描述情感维度之间的相关性,提高了模型的预测性能准确性。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于卷积神经网络的面部情感分析方法。
背景技术
情感计算的概念最早于上世纪90年代被MIT媒体实验室提出,科学家们试图把“主观的情感”变为计算机可以认知计算的信息,情感计算可以实现人机之间的无障碍交流,使计算机趋向于智能化。情感计算大致可分为识别和传达两个过程,识别即让机器通过学习能准确的分析出人类的情感状态,表达即让机器可以在合适的载体上准确的传达出情感,现阶段研究重心在于如何让机器准确识别面部情感进而分析。
传统基于机器学习的面部情感识别大多主要集中于人脸表情特征的选择与提取方面,按照人为预先定义的对面部情感特征进行分析。但自然状态下的人脸,具有相同情感的两个面部图像往往存在较大的差异(姿态以及人脸固有的外观差异),按照统一预定义的规则提取特征,会造成同种情感的不同样本提取的情感特征差异较大;其次手动提取特征实质就是按照预定义的规则对高维图像降维,这个过程往往会造成情感信息丢失。
随着深度学习的发展,基于深度卷积网络的面部情感逐渐成为热门研究领域,让网络自行学习所需情感特征并进行分析替代了传统人为定义的方式。但当下的深度学习分析方法都忽略了描述情感所用维度之间的相关性,研究面部情感信息时将描述维度Arousal(兴奋度),Valence(活跃度)等独立于彼此进行计算,这导致忽略了两个维度之间的正相关关系,降低了模型的预测性能。
发明内容
本发明的目的是提供一种基于卷积神经网络的面部情感分析方法,解决了现有模型进行面部情感分析时,忽略情感维度之间相关性、降低预测的准确性的问题。
本发明所采用的技术方案是,一种基于卷积神经网络的面部情感分析方法,包括以下步骤:
步骤1,选择训练样本和验证样本;
基于Affect-Net数据库的九种离散标签,选取对应的九类离散样本,每类离散样本均取不少于10500个样本,不少于10000个作为训练样本,不少于500个作为验证样本;因此,选取不少于90000个作为训练样本,不少于4500个作为验证样本,在Affect-Net数据集提供的测试集上测试模型的性能;
步骤2,输入步骤1中的训练样本作为的待处理人脸图像,预处理,得到归一化人脸图像以及归一化人脸特征点;
步骤3,将步骤2的归一化人脸图像送入卷积神经网络模型提取情感特征,并将归一化人脸特征点信息送入卷积神经网络模型全连接层得到位置特征,最终情感特征与位置特征进行拼接;
步骤4,将步骤3得到的情感特征经过全连接层线性映射为二维的预测标签arousal和valence值,定义卷积神经网络的损失函数,衡量损失,使网络反向传播,直至网络模型训练完成;
步骤5,将步骤1中验证样本中的图像作为输入,重复步骤2-4,完成验证。
本发明的特征还在于,
步骤2具体为:
步骤2.1,输入步骤1中的训练样本作为待处理人脸图像,利用决策树人脸特征点检测算法确定人脸的特征点位置landi=(xi,yi)(i=1,2,...,68),利用人脸的特征点位置框出人脸区域,人脸区域由矩形表示:矩形左上顶点坐标记为(X,Y),矩形长度和宽度分别记为W,V,具体如公式(1)所示:
步骤2.2,基于步骤2.1的人脸区域,将人脸归一化为像素96*96,归一化人脸的面部特征点记为new_landi=(new_xi,new_yi),参数s c axl=e96/W、scaley=96/Y分别为X轴和Y轴图像缩放尺寸,得到归一化人脸图像,具体如公式(2)所示,
new_xi=(xi-X)*scalex
new_yi=(yi-Y)*scaley (2)
步骤2.3,将步骤2.2的归一化人脸图像的每个通道的像素值都再次归一化到[-1,1]之间,有利于后续网络的收敛,如公式(3)所示,
I0(x,y)=(I(x,y)-128)/128 (3)
其中参数I(x,y)为归一化人脸图像像素值,参数I0(x,y)为再次归一化后的归一化人脸图像像素值。
步骤3具体为:
步骤3.1,定义卷积神经网络模型结构,卷积神经网络模型结构包括5个卷积层C1、C2、C3、C4、C5,5个池化层S1、S2、S3、S4、S5,以及全连接层F6、F7、F8;
同时按照0为均值,0.01为标准方差的高斯分布来随机初始化所有卷积层的3×3的像素块作为卷积核模板,偏置项统一初始化为0,将经过步骤2再次归一化后的得到的96×96×3的图像送入卷积神经网络模型结构;
5个卷积层C1、C2、C3、C4、C5对应的特征图每个特征图由输入图像或上一层的输出Xi分别与对应个数的卷积模版Kij进行卷积运算,最后再加上偏置项bj,特征图的具体计算公式为公式(4),
其中公式(4)中,参数i=1、2、3、4、5,表示对应的卷积层数;参数j=64、128、256、512、512,表示各个层对应的卷积模版的个数;符号代表步长为1的卷积运算,卷积核大小都为3×3;
步骤3.2,对于步骤3.1中的池化层S1、S2、S3、S4、S5,采用最大值采样对对应的卷积层得到的结果进行采样;
步骤3.3,最终经过步骤3.1中的全连接层F6、F7、F8,得到待处理人脸图像的128维特征表示情感特征;再将步骤2中的归一化人脸特征点输入全连接层F7、F8,最终输出128维特征表示位置特征,最终情感特征与位置特征进行拼接即可。
步骤3.1中卷积神经网络模型结构具体为:
步骤3.2中,每个池化采样区域大小为2×2,步长为2。
步骤4具体为:
将步骤3得到的情感特征经过全连接层线性映射为二维的预测标签arousal和valence值,由损失函数衡量损失,使网络反向传播,共迭代20个epoch,直至网络模型训练完成;
其中,采用的损失函数为多输出均方根误差,具体为公式(6),
公式(6)中参数n为描述情感的维数,令中n=2,P(x)为情感的真实标签,M为映射函数,表示训练得到的深度模型,M(x)为情感估计值,
令L=P(x)-M(x),可得公式(8):
公式(8)中,参数表示兴奋度(arousal)真实值和预测值之间整体的均方误差,参数表示活跃度(valence)真实值和预测值之间整体的均方误差,参数Li*Lj表示情感两个自由度arousal和valence之间的关联关系。
本发明的有益效果是:本发明一种基于卷积神经网络的面部情感分析方法采用卷积神经网络模型,网络的损失函数采用多输出均方根误差,利用网络先对输入的人脸图像提取情感特征,同时在全连接层加入了人脸特征点这一语义信息,一方面克服了人为定义特征丢失情感信息的问题,另一方面在充分利用人脸面部情感信息的同时,也考虑了描述情感信息时情感维度之间的相关性,提高了模型的预测性能准确性,有很好的实用性。
具体实施方式
下面结合具体实施方式对本发明进行详细说明。
本发明一种基于卷积神经网络的面部情感分析方法,包括以下步骤:
步骤1,选择训练样本和验证样本。
本发明基于Affect-Net数据库进行,Affect-Net数据集中提供维度标签和离散标签,其中共有九种离散标签都对应有连续情感标签值。为了保证挑选的训练样本的平衡性,本发明针对九种离散标签,选取九类离散样本,每类离散样本均取10500个样本,10000个作为训练样本,500个作为验证样本;因此,选取90000个作为训练样本,4500个作为验证样本,在Affect-Net数据集提供的测试集上测试模型的性能。
针对九种离散标签,例如其中某些离散类如沮丧、蔑视等样本少于10000的,采用镜像的方法进行数据增强。
步骤2,输入步骤1中的训练样本作为的待处理人脸图像,预处理,得到归一化人脸图像以及归一化人脸特征点。
步骤2.1,输入步骤1中的训练样本作为待处理人脸图像,利用决策树人脸特征点检测算法确定人脸的特征点位置landi=(xi,yi)(i=1,2,...,68),利用人脸的特征点位置框出人脸区域,人脸区域由矩形表示:矩形左上顶点坐标记为(X,Y),矩形长度和宽度分别记为W,V,具体如公式(1)所示:
步骤2.2,基于步骤2.1的人脸区域,将人脸区域图像归一化为像素96*96,归一化人脸的面部特征点记为new_landi=(new_xi,new_yi),参数scalex=96/W、scaley=96/Y分别为X轴和Y轴图像缩放尺寸,得到归一化人脸图像,具体如公式(2)所示,
new_xi=(xi-X)*scalex
new_yi=(yi-Y)*scaley (2)
步骤2.3,将步骤2.2的归一化人脸图像的每个通道的像素值都再次归一化到[-1,1]之间,有利于后续网络的收敛,如公式(3)所示,
I0(x,y)=(I(x,y)-128)/128 (3)
其中参数I(x,y)为归一化人脸图像像素值,参数I0(x,y)为再次归一化后的归一化人脸图像像素值。
步骤3,将步骤2的归一化人脸图像送入卷积神经网络模型提取情感特征,并将归一化人脸特征点信息送入卷积神经网络模型全连接层得到位置特征,最终情感特征与位置特征进行拼接。
步骤3.1,如表1所示,定义了卷积神经网络模型结构,同时按照0为均值,0.01为标准方差的高斯分布来随机初始化所有卷积层的3×3的像素块作为卷积核模板,偏置项统一初始化为0,将经过步骤2再次归一化后的得到的96×96×3的图像送入卷积神经网络模型结构。
表1卷积神经网络模型结构参数表
由表1可知,对于5个卷积层C1、C2、C3、C4、C5,其对应的特征图总数分别为64、128、256、512、512,每个特征图由输入图像或上一层的输出Xi分别与对应个数的卷积模版Kij进行卷积运算,最后再加上偏置项bj。特征图的具体计算公式为公式(4),
其中公式(4)中,参数i=1、2、3、4、5,表示对应的卷积层数;参数j=64、128、256、512、512,表示各个层对应的卷积模版的个数;符号代表步长为1的卷积运算,卷积核大小都为3×3;
步骤3.2,对于表1中池化层S1、S2、S3、S4、S5,采用最大值采样对对应的卷积层得到的结果进行采样,本发明池化采样区域大小为2×2,步长为2。
例如,卷积层C1的第1个特征图谱的第一个采样区域2×2,采样结果得到池化层S1的第1个特征图谱的第一个输入y1,其中采样方法为取2×2区域中的最大值,即如公式(5):
y1=max(x1,x2,x3,x4)(5)
采样后的水平和垂直空间分辨率变为原来的1/2。
步骤3.3,最终经过全连接层F6、F7、F8,得到待处理人脸图像的128维特征表示情感特征;再将步骤2中的归一化人脸特征点输入全连接层F7、F8,最终输出128维特征表示位置特征,最终情感特征与位置特征进行拼接即可。
步骤4,将步骤3得到的情感特征经过全连接层线性映射为二维的预测标签兴奋度(arousal)值和活跃度(valence)值,定义卷积神经网络的损失函数,衡量损失,使网络反向传播,直至网络模型训练完成。具体为:
将步骤3得到的情感特征经过全连接层线性映射为二维的预测标签arousal和valence值,由损失函数衡量损失,使网络反向传播,共迭代20个epoch,直至网络模型训练完成,
其中,本发明采用的损失函数为多输出均方根误差,如公式(6),
公式(6)中参数n为描述情感的维数,本发明中n=2,P(x)为情感的真实标签,M为映射函数,表示训练得到的深度模型,M(x)为情感估计值,整理上式可得:
令L=P(x)-M(x),公式(7)化简为公式(8):
公式(8)中,参数表示兴奋度(arousal)真实值和预测值之间整体的均方误差,参数表示活跃度(valence)真实值和预测值之间整体的均方误差,参数Li*Lj表示情感两个自由度arousal和valence之间的关联关系,通过优化目标项,使得模型的情感预测值与情感真实值误差最小,通过优化目标Li*Lj项,使得模型充分利用arousal维度和valence维度之间的相关性。
步骤5,将步骤1中验证样本中的图像作为输入,重复步骤2-4,完成验证。
本发明通过采用多输出均方根误差损失函数,在充分利用人脸面部情感信息的同时,也考虑了描述情感信息时情感维度之间的相关性,提高了模型的预测性能。
实验结果对比:
1)面部特征点对情感分析的影响
面部特征点是一种有效的情感描述子,特征点的位置对情感具有很强的表征能力,为研究面部特征点对情感分析的作用,本发明分别以face和face+landmark作为输入,损失函数采用均方误差损失函数,卷积网络部分采用VGG16网络模型,实验结果对比如表2所示:
表2不同输入数据对情感分析的影响表
实验结果采用相同的网络结构,相同的参数设置,对比面部特征点对情感识别性能的影响,其中RMSE值越低越好,CORR和ICC越高越好,结果显示采用face+landmark作为输入时,情感分析准确率优于face。由于面部特征点集中分布在嘴巴和眼睛等器官周围,对情感具有很强的表征能力,且面部特征点对光照具有鲁棒性,因此结合了人脸和面部特征点训练的网络对情感的预测能力更强。
2)损失函数对情感分析准确率的影响
以face和landmark作为输入,人脸卷积部分采用VGG16网络模型,相同的实验设置,损失函数分别采用均方损失函数(MSE)和多输出均方损失函数(MMSE),实验结果对比如表3所示:
表3采用不同损失函数结果对比
实验证明采用相同的网络结构,相同的参数设置,对比均方误差损失函数和多输出均方损失函数对情感识别性能的影响,结果显示采用MMSE损失函数结果全面优于MSE损失函数,即利用情感维度之间的相关性能提升情感识别的性能。
3)本发明方法与常用情感方法对比
对比本发明提出的网络情感分析方法、传统基于机器学习的HOG+SVR方法、基于Alex-Net情感分析方法、VGG网络+landmarks情感分析方法,相同的实验设置,训练样本为90000个,测试样本都为4500个,结果对比如表4所示:
表4Affect数据集上不同方法对比
由实验结果可知,由于数据集提供了大量的训练样本,相比于手工特征HOG,深度网络能够学习到更具判别力的特征;相比于Alex-Net网络,本发明方法对情感识别准确率提升显著,其中预测Arousal标签时,预测标签和真实标签之间的皮尔逊相关系数(CORR)提升了10.1%,该指标提升最为显著。
Claims (6)
1.一种基于卷积神经网络的面部情感分析方法,其特征在于,包括以下步骤:
步骤1,选择训练样本和验证样本;
基于Affect-Net数据库的九种离散标签,选取对应的九类离散样本,每类离散样本均取不少于10500个样本,不少于10000个作为训练样本,不少于500个作为验证样本;因此,选取不少于90000个作为训练样本,不少于4500个作为验证样本,在Affect-Net数据集提供的测试集上测试模型的性能;
步骤2,输入步骤1中的训练样本作为的待处理人脸图像,预处理,得到归一化人脸图像以及归一化人脸特征点;
步骤3,将步骤2的归一化人脸图像送入卷积神经网络模型提取情感特征,并将归一化人脸特征点信息送入卷积神经网络模型全连接层得到位置特征,最终情感特征与位置特征进行拼接;
步骤4,将步骤3得到的情感特征经过全连接层线性映射为二维的预测标签arousal和valence值,定义卷积神经网络的损失函数,衡量损失,使网络反向传播,直至网络模型训练完成;
步骤5,将步骤1中验证样本中的图像作为输入,重复步骤2-4,完成验证。
2.根据权利要求1所述的一种基于卷积神经网络的面部情感分析方法,其特征在于,所述步骤2具体为:
步骤2.1,输入步骤1中的训练样本作为待处理人脸图像,利用决策树人脸特征点检测算法确定人脸的特征点位置landi=(xi,yi)(i=1,2,...,68),利用所述人脸的特征点位置框出人脸区域,所述人脸区域由矩形表示:所述矩形左上顶点坐标记为(X,Y),矩形长度和宽度分别记为W,V,具体如公式(1)所示:
步骤2.2,基于步骤2.1的人脸区域,将人脸归一化为像素96*96,归一化人脸的面部特征点记为new_landi=(new_xi,new_yi),参数scalex=96/W、scaley=96/Y分别为X轴和Y轴图像缩放尺寸,得到归一化人脸图像,具体如公式(2)所示,
new_xi=(xi-X)*scalex
new_yi=(yi-Y)*scaley (2)
步骤2.3,将步骤2.2的归一化人脸图像的每个通道的像素值都再次归一化到[-1,1]之间,有利于后续网络的收敛,如公式(3)所示,
I0(x,y)=(I(x,y)-128)/128 (3)
其中参数I(x,y)为归一化人脸图像像素值,参数I0(x,y)为再次归一化后的归一化人脸图像像素值。
3.根据权利要求2所述的一种基于卷积神经网络的面部情感分析方法,其特征在于,所述步骤3具体为:
步骤3.1,定义卷积神经网络模型结构,所述卷积神经网络模型结构包括5个卷积层C1、C2、C3、C4、C5,5个池化层S1、S2、S3、S4、S5,以及全连接层F6、F7、F8;
同时按照0为均值,0.01为标准方差的高斯分布来随机初始化所有卷积层的3×3的像素块作为卷积核模板,偏置项统一初始化为0,将经过步骤2 再次归一化后的得到的96×96×3的图像送入卷积神经网络模型结构;
所述5个卷积层C1、C2、C3、C4、C5对应的特征图每个特征图由输入图像或上一层的输出Xi分别与对应个数的卷积模版Kij进行卷积运算,最后再加上偏置项bj,特征图的具体计算公式为公式(4),
其中公式(4)中,参数i=1、2、3、4、5,表示对应的卷积层数;参数j=64、128、256、512、512,表示各个层对应的卷积模版的个数;符号代表步长为1的卷积运算,卷积核大小都为3×3;
步骤3.2,对于步骤3.1中的池化层S1、S2、S3、S4、S5,采用最大值采样对对应的卷积层得到的结果进行采样;
步骤3.3,最终经过步骤3.1中的全连接层F6、F7、F8,得到待处理人脸图像的128维特征表示情感特征;再将步骤2中的归一化人脸特征点输入全连接层F7、F8,最终输出128维特征表示位置特征,最终情感特征与位置特征进行拼接即可。
4.根据权利要求3所述的一种基于卷积神经网络的面部情感分析方法,其特征在于,所述步骤3.1中卷积神经网络模型结构具体为:
5.根据权利要求4所述的一种基于卷积神经网络的面部情感分析方法,其特征在于,所述步骤3.2中,每个池化采样区域大小为2×2,步长为2。
6.根据权利要求5所述的一种基于卷积神经网络的面部情感分析方法,其特征在于,所述步骤4具体为:
将步骤3得到的情感特征经过全连接层线性映射为二维的预测标签arousal和valence值,由损失函数衡量损失,使网络反向传播,共迭代20个epoch,直至网络模型训练完成;
其中,损失函数为多输出均方根误差,具体为公式(6),
公式(6)中参数n为描述情感的维数,令中n=2,P(x)为情感的真实标签,M为映射函数,表示训练得到的深度模型,M(x)为情感估计值,
令L=P(x)-M(x),可得公式(8):
公式(8)中,参数表示兴奋度(arousal)真实值和预测值之间整体的均方误差,参数表示活跃度(valence)真实值和预测值之间整体的均方误差,参数Li*Lj表示情感两个自由度arousal和valence之间的关联关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910779634.4A CN110610138A (zh) | 2019-08-22 | 2019-08-22 | 一种基于卷积神经网络的面部情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910779634.4A CN110610138A (zh) | 2019-08-22 | 2019-08-22 | 一种基于卷积神经网络的面部情感分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110610138A true CN110610138A (zh) | 2019-12-24 |
Family
ID=68890011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910779634.4A Pending CN110610138A (zh) | 2019-08-22 | 2019-08-22 | 一种基于卷积神经网络的面部情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110610138A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112948554A (zh) * | 2021-02-28 | 2021-06-11 | 西北工业大学 | 基于强化学习和领域知识的实时多模态对话情感分析方法 |
CN113255535A (zh) * | 2021-05-28 | 2021-08-13 | 广州大学 | 一种基于微表情分析的抑郁症识别方法 |
CN114241493A (zh) * | 2021-12-20 | 2022-03-25 | 深圳大学 | 扩增文档分析模型的训练数据的训练方法及训练装置 |
CN117558050A (zh) * | 2023-11-17 | 2024-02-13 | 西安理工大学 | 面向边缘计算端的实时人脸表情识别方法及人机交互系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108846380A (zh) * | 2018-04-09 | 2018-11-20 | 北京理工大学 | 一种基于代价敏感卷积神经网络的人脸表情识别方法 |
-
2019
- 2019-08-22 CN CN201910779634.4A patent/CN110610138A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108846380A (zh) * | 2018-04-09 | 2018-11-20 | 北京理工大学 | 一种基于代价敏感卷积神经网络的人脸表情识别方法 |
Non-Patent Citations (1)
Title |
---|
刘磊: ""连续空间下基于面部图像的情感分析方法研究"", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112948554A (zh) * | 2021-02-28 | 2021-06-11 | 西北工业大学 | 基于强化学习和领域知识的实时多模态对话情感分析方法 |
CN112948554B (zh) * | 2021-02-28 | 2024-03-08 | 西北工业大学 | 基于强化学习和领域知识的实时多模态对话情感分析方法 |
CN113255535A (zh) * | 2021-05-28 | 2021-08-13 | 广州大学 | 一种基于微表情分析的抑郁症识别方法 |
CN114241493A (zh) * | 2021-12-20 | 2022-03-25 | 深圳大学 | 扩增文档分析模型的训练数据的训练方法及训练装置 |
CN117558050A (zh) * | 2023-11-17 | 2024-02-13 | 西安理工大学 | 面向边缘计算端的实时人脸表情识别方法及人机交互系统 |
CN117558050B (zh) * | 2023-11-17 | 2024-05-28 | 西安理工大学 | 面向边缘计算端的实时人脸表情识别方法及人机交互系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510012B (zh) | 一种基于多尺度特征图的目标快速检测方法 | |
CN109359538B (zh) | 卷积神经网络的训练方法、手势识别方法、装置及设备 | |
CN106920243B (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN110610138A (zh) | 一种基于卷积神经网络的面部情感分析方法 | |
CN112800903B (zh) | 一种基于时空图卷积神经网络的动态表情识别方法及系统 | |
US20210271862A1 (en) | Expression recognition method and related apparatus | |
WO2020108362A1 (zh) | 人体姿态检测方法、装置、设备及存储介质 | |
CN108629338B (zh) | 一种基于lbp和卷积神经网络的人脸美丽预测方法 | |
CN108304357B (zh) | 一种基于字体流形的中文字库自动生成方法 | |
CN110188343A (zh) | 基于融合注意力网络的多模态情感识别方法 | |
CN108256421A (zh) | 一种动态手势序列实时识别方法、系统及装置 | |
CN110728209A (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
CN111814611B (zh) | 一种嵌入高阶信息的多尺度人脸年龄估计方法及系统 | |
CN107578007A (zh) | 一种基于多特征融合的深度学习人脸识别方法 | |
CN107679513B (zh) | 图像处理方法、装置及服务器 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN109033978B (zh) | 一种基于纠错策略的cnn-svm混合模型手势识别方法 | |
CN112784763A (zh) | 基于局部与整体特征自适应融合的表情识别方法及系统 | |
CN104484658A (zh) | 一种基于多通道卷积神经网络的人脸性别识别方法及装置 | |
CN106599810B (zh) | 一种基于栈式自编码的头部姿态估计方法 | |
CN114299559A (zh) | 基于轻量级融合全局与局部特征网络的指静脉识别方法 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
Kishore et al. | Visual-verbal machine interpreter for sign language recognition under versatile video backgrounds | |
CN109344713A (zh) | 一种姿态鲁棒的人脸识别方法 | |
CN109815920A (zh) | 基于卷积神经网络和对抗卷积神经网络的手势识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191224 |