CN109657586B - 一种基于排序卷积神经网络的人脸表情分析方法及系统 - Google Patents
一种基于排序卷积神经网络的人脸表情分析方法及系统 Download PDFInfo
- Publication number
- CN109657586B CN109657586B CN201811505978.8A CN201811505978A CN109657586B CN 109657586 B CN109657586 B CN 109657586B CN 201811505978 A CN201811505978 A CN 201811505978A CN 109657586 B CN109657586 B CN 109657586B
- Authority
- CN
- China
- Prior art keywords
- expression
- sequence
- training
- intensity
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 24
- 238000012163 sequencing technique Methods 0.000 title claims abstract description 24
- 230000008921 facial expression Effects 0.000 title claims abstract description 22
- 238000010195 expression analysis Methods 0.000 title claims abstract description 16
- 230000014509 gene expression Effects 0.000 claims abstract description 190
- 238000012549 training Methods 0.000 claims description 66
- 238000012360 testing method Methods 0.000 claims description 41
- 230000007935 neutral effect Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 claims 1
- 238000005070 sampling Methods 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 abstract description 3
- 238000003909 pattern recognition Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 3
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 230000009466 transformation Effects 0.000 description 10
- 230000008451 emotion Effects 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于排序卷积神经网络的人脸表情分析方法及系统,属于图像处理与模式识别领域。本发明将感兴趣的表情与其它类别的表情进行拼接,从拼接的人脸表情序列中选取任意两帧图像作为输入,采用排序卷积神经网络训练表情强度排序模型,单一的表情强度排序模型能够实现对感兴趣表情的强度估计,联合多个表情强度排序模型能够实现对表情类别的估计。本发明能够同时对表情的类别和强度进行估计,在最大化保留人脸表情信息的同时消除个体差异以及环境噪声,从而提高表情分析的正确性和鲁棒性,具有极强的现实应用前景。
Description
技术领域
本发明属于图像处理和模式识别技术领域,具体涉及一种基于排序卷积神经网络的人脸表情分析方法及系统。
背景技术
人脸表情分析是一个涉及模式识别、图像处理、人工智能等多学科的综合性课题。所谓人脸表情分析,是指让计算机对给定的表情图像进行特征提取,并结合人类已有的先验知识,展开学习、推理、判断,进而理解人类情绪的过程。人脸表情分析广泛应用于情感计算、人机交互、情感机器人、医疗保健等领域,是当前的研究热点。
人脸表情分析主要由表情识别和表情强度估计两个部分组成。表情识别的工作主要是分类六类基本表情,包括:生气、厌恶、恐惧、高兴、悲伤、惊讶;而表情强度估计则主要判断情绪的表达强弱程度。心理学研究指出,仅仅分类基本表情并不能完全理解人的情绪。为了全面的理解人的情绪,有必要同时估计表情的类别和强度。
表情强度估计面临的主要困难在于无法获得足够的有强度标记的表情样本,无法通过有监督的方法来估计表情的强度。为了解决这一问题,可以将表情强度估计问题转化为排序问题,利用表情序列的顺序信息作为约束条件来训练排序模型,从而估计序列中任意两张表情的强弱关系。目前在该领域已开展了诸多研究,但依旧存在表情强度估计精度低,易受噪声干扰等问题。
发明内容
针对现有技术存在的问题和改进需求,本发明提供了一种人脸表情分析方法及系统,利用排序卷积神经网络对表情的类别和强度进行估计,能有效抑制个体差异、光照条件等干扰,提高准确率。
一种基于排序卷积神经网络的人脸表情分析方法,包括离线训练部分和在线分析部分;
所述述离线训练部分包括以下步骤:
(S1)提取N个人的训练人脸图像序列,记录每张训练图像的表情类型;
(S2)以第j种表情类型作为感兴趣表情,对第i个人的训练人脸图像序列进行抽取拼接,由此建立第j种表情类型与训练人脸图像子序列的映射关系,i=1,…,N,j=1,…,M,M为表情类型数量;
所述抽取拼接是指从第i个人的训练人脸图像序列中分别抽取第z种和第j种表情图像序列,并将抽取的两种表情图像序列拼接,z∈{1,…,M},z≠j,其中,第z种表情图像序列按照表情强度值由峰值逐渐减小到中性值的顺序排列,第j种表情图像序列按照表情强度值由中性值逐渐增大到峰值的顺序排列;
(S3)在第j种表情的N*M个训练人脸子图像子序列中,两两不同帧组合为训练样本对;
(S4)将组合得到的多个训练样本对作为排序卷积神经网络的输入,训练得到第j种表情的强度排序模型;
所述在线分析部分包括以下步骤:
(T1)采集待测人员的测试人脸图像序列;
(T2)从测试人脸图像序列中提取任意一帧与参考中性表情图像组成表情测试样本对;
(T3)将表情测试样本对送入第j种表情的强度排序模型,j=1,…,M,强度排序模型的输出值中最大者对应的表情类型即为待测人员的表情类型;
(T4)在测试人脸图像序列中,两两不同帧图像组合为表情强度测试样本对;
(T5)将表情强度测试样本对送入待测人员表情类型的强度排序模型,获得表情强度变化状态。
一种基于排序卷积神经网络的人脸表情分析系统,包括离线训练部分和在线分析部分;
所述述离线训练部分包括以下模块:
样本提取模块,用于提取N个人的训练人脸图像序列,记录每张训练图像的表情类型;
映射构建模块,用于以第j种表情类型作为感兴趣表情,对第i个人的训练人脸图像序列进行抽取拼接,由此建立第j种表情类型与训练人脸图像子序列的映射关系,i=1,…,N,j=1,…,M,M为表情类型数量;
所述抽取拼接是指从第i个人的训练人脸图像序列中分别抽取第z种和第j种表情图像序列,并将抽取的两种表情图像序列拼接,z∈{1,…,M},z≠j,其中,第z种表情图像序列按照表情强度值由峰值逐渐减小到中性值的顺序排列,第j种表情图像序列按照表情强度值由中性值逐渐增大到峰值的顺序排列;
样本对构建模块,用于在第j种表情的N*M个训练人脸子图像子序列中,两两不同帧组合为训练样本对;
模型训练模块,用于将组合得到的多个训练样本对作为排序卷积神经网络的输入,训练得到第j种表情的强度排序模型;
所述在线分析部分包括以下模块:
采集模块,用于采集待测人员的测试人脸图像序列;
表情测试样本对组建模块,用于从测试人脸图像序列中提取任意一帧与参考中性表情图像组成表情测试样本对;
表情判定模块,用于将表情测试样本对送入第j种表情的强度排序模型,j=1,…,M,强度排序模型的输出值中最大者对应的表情类型即为待测人员的表情类型;
表情强度测试样本对组建模块,用于在测试人脸图像序列中,两两不同帧图像组合为表情强度测试样本对;
强度判定模块,用于将表情强度测试样本对送入待测人员表情类型的强度排序模型,获得表情强度变化状态。
进一步地,所述抽取拼接得到的训练人脸图像子序列中,抽取的第z种表情图像序列排在前,抽取的第j种表情图像序列排在后;定义从图像子序列中提取的样本对为Xp和Xq,其中p和q为序列的帧号且满足1≤p<q≤L,L表示拼接序列的总长度,将顺序排列的样本对(Xp,Xq)作为正样本,将逆序排列的样本对(Xp,Xq)作为负样本。
进一步地,所述抽取拼接得到的训练人脸图像子序列中,抽取的第j种表情图像序列排在前,抽取的第z种表情图像序列排在后;定义从图像子序列中提取的样本对为Xp和Xq,其中p和q为序列的帧号且满足1≤p<q≤L,L表示拼接序列的总长度,将顺序排列的样本对(Xi,Xj)作为负样本,将逆序排列的样本对(Xj,Xi)作为正样本。
进一步地,所述排序卷积神经网络是VGGNET、GoogleNet、ResNet中的任意一种。
进一步地,所述表情类型包括生气、厌恶、恐惧、高兴、悲伤和惊讶。
与现有技术相比,本发明的优点和效果在于:
1、本发明利用表情序列的顺序训练排序模型,无需花费大量的人力对表情图像的强度进行手工标定,有利于解决训练表情强度估计模型时表情强度标签不足的问题;
2、本发明采用端到端的排序卷积神经网络来估计表情强度,无需手工提取图像特征,能在最大化保留人脸表情信息的同时,消除个体差异以及环境噪声,所用方法大大提高了表情强度的估计的正确率和鲁棒性;
3、本发明能同时估计表情的类别和强度,有利于计算机更好的理解人类的情绪,具有较强的现实应用。
附图说明
图1为本发明人脸表情强度估计方法的实现流程图;
图2为本发明人脸表情拼接序列图;
图3为本发明基于VGG-Face的差分卷积神经网络结构图;
图4为本发明VGG-Face模型的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
附图1为本发明人脸表情分析方法的实现流程图。基于排序卷积神经网络的人脸表情分析方法,包括训练部分和测试部分。
所述训练部分包括以下步骤:
(S1)提取N个人的训练人脸图像序列,记录每张训练图像的表情类型。
可对训练数据预处理。使用现有人脸检测技术提取每张表情图像的人脸区域;对提取的人脸图像进行仿射变换,实现图像尺度归一化和人脸对齐。变换后,所有图像的尺寸保持一致,所有图像中眼睛的眼睛中心坐标保持一致。然后采用现有的任何技术识别和记录表情类型。
仿射变换将原坐标(x,y)变换为新坐标(x′,y′)计算公式如下:
x′=m11*x+m12*y+m13
y′=m21*x+m22*y+m23
其中,(m11,m12,m13;m21,m22,m23)为仿射变换矩阵中的变换参数,通过上面公式可以计算出原图像经过变换后的对齐图像。
(S2)(S2)以第j种表情类型作为感兴趣表情,对第i个人的训练人脸图像序列进行抽取拼接,由此建立第j种表情类型与训练人脸图像子序列的映射关系,i=1,…,N,j=1,…,M,M为表情类型数量。
在训练数据中,同一人有多种基本表情序列,本发明以六种表情示例说明,即生气、厌恶、恐惧、高兴、悲伤、惊讶。每一个表情序列都满足“中性—峰值”的演化模式,即面部肌肉从完全松弛状态到极限拉伸状态,将处于中性值的表情图像称为中性表情图像。
本发明将六种基本表情中的一种设置为感兴趣表情,分别与其他五种表情进行拼接。
拼接的第一种具体方式为:选取一种其他表情序列倒序排列,使其满足“峰值—中性”的演化模式,然后连接顺序排列的感兴趣表情序列,使得整个序列由“其他表情峰值”到“中性表情”再到“感兴趣表情峰值”。拼接序列参见附图2,图2中将高兴作为感兴趣表情,拼接时将生气峰值排在首帧,然后慢慢减弱,到不生气状态,接着慢慢变为高兴,最终到达高兴峰值。
拼接的第二种具体方法为:选取感兴趣表情倒序排列,使其满足“峰值—中性”的演化模式,然后连接顺序排列的其他一种表情序列,使得整个序列由“感兴趣表情峰值”到“中性表情”再到“其他一种表情峰值”。
(S3)在第j种表情的N*M个训练人脸子图像子序列中,两两不同帧组合为训练样本对。
按照一种优选的方式,对拼接的序列进行等间隔采样,选择采样后的序列中任意两帧作为训练样本对,这样由于邻近样本之间表情强度变化不明显,具有较少无效训练样本的好的技术效果。
定义从图像子序列中提取的样本对为Xp和Xq,其中p和q为序列的帧号且满足1≤p<q≤L,L表示拼接序列的总长度。对应拼接的第一种具体方式,将顺序排列的样本对(Xp,Xq)作为正样本,标记为1;将逆序排列的样本对(Xp,Xq)作为负样本,标记为0。或者,对应拼接的第二种具体方式,将顺序排列的样本对(Xi,Xj)作为负样本,将逆序排列的样本对(Xj,Xi)作为正样本。
(S4)将组合得到的多个训练样本对作为排序卷积神经网络的输入,训练得到第j种表情的强度排序模型。
构建排序卷积神经网络模型,构建的模型可同时处理两张图像所构成的样本对,模型前端为特征主干网,由多个卷积层和池化层构成,通过参数共享方式用于分别从两张图像中提取特征,然后经过差分层计算二者之间的差分特征,最后输入全连接层,用于实现由差分特征映射到样本对标记。网络模型参见附图3。网络模型的参数由预训练的模型进行初始化。
所述步骤(S4)所采用的排序卷积神经网络可以是VGGNET、GoogleNet、ResNet中的一种。其中,VGGNET是牛津大学计算机视觉组和DeepMind公司共同研发一种深度卷积网络。GoogLeNet(也称InceptionNet)是2014年Christian Szegedy提出的一种全新的深度学习结构,它使用1x1的卷积来进行升降维同时在多个尺寸上进行卷积再聚合,能更高效的利用计算资源,在相同的计算量下能提取到更多的特征,从而提升训练结果。ResNet在2015年被微软研究院团队研究员何恺明提出,在ImageNet的classification、detection、localization以及COCO的detection和segmentation上均斩获了第一名的成绩。
对步骤(S3)组建的样本输入步骤(S4)构建的排序卷积神经网络进行训练,训练过程使用SGD算法对交叉熵损失函数进行最优化,得到感兴趣表情的排序模型。
分别设置六种基本表情作为感兴趣表情,重复步骤(S1)(S2)(S3)(S4)(S5)训练六种基本表情的强度排序模型。
所述在线测试部分包括以下步骤:
(T1)采集待测人员的测试人脸图像序列。对测试图像序列的每一帧进行人脸检测和人脸对齐,得到表情序列。
(T2)从测试人脸图像序列中提取任意一帧与参考中性表情图像组成表情测试样本对。
(T3)将表情分类测试样本对分别送入六类感兴趣表情对应的模型中,得到的强度最大值的模型,则样本的类别即为模型的感兴趣表情类别。即按照以下公式计算图像的类别:
其中,M为估计的图像类别,Sm为第m个表情强度排序模型的SoftMax层输出。
(T4)在测试人脸图像序列中,两两不同帧图像组合为表情强度测试样本对。
(T5)将表情强度测试样本对送入待测人员表情类型的强度排序模型,获得表情强度变化状态。
(T5)将表情强度估计测试样本对输入表情强度排序模型,表情强度排序模型的类别由步骤(T3)的输出决定,模型的输出可以判断强度估计测试样本对之间的表情强弱关系。如以下公式所示:
其中,R(x)为样本x的表情强度,Y为表情强度排序模型的输出。
实例:
采用卡内基梅隆大学创建的CK+表情库,包含123个18-30岁的成年人,共计593个表情序列,其中65%为女性,35%为男性。本发明从123个人中选择选取96个人,每人至少含有2个基本表情序列可用于拼接,选择其中64个人用于训练,其余32个人用于测试。具体实现步骤如下:
1.对人脸表情图像进行预处理
(1.1)使用Viola和Jones提出的类Haar特征和adaboost学习算法来检测每张表情图像的人脸区域;
(1.2)对步骤(1.1)提取的人脸图像进行仿射变换,实现图像尺度归一化和人脸对齐。变换后,所有图像的尺寸归一化至224×224,所有图像中眼睛的中心坐标保持一致,图中左眼坐标均为(63,63),右眼坐标均为(161,63);根据变换前后眼睛的坐标求取变换参数(m11,m12,m13;m21,m22,m23)。仿射变换将原坐标(x,y)变换为新坐标(x′,y′),计算公式如下:
x′=m11*x+m12*y+m13
y′=m21*x+m22*y+m23
通过上面公式可以计算出原图像经过变换后的新图像。
2.将同一人的感兴趣表情序列与其它表情序列拼接得到新的序列,组建训练样本库。
将用于训练的64个人的序列进行拼接,按照步骤(S2)所述方法,分别将高兴、生气、恐惧、悲伤、厌恶、惊讶6类表情设置为感兴趣表情,建立6类拼接序列库,按照步骤(S3)方法按间隔3进行采用,采样后的样本两两组对,得到训练样本库。
3.训练排序卷积神经网络
排序卷积神经网络的输入为来自训练样本对的两张图片(Xi,Xj)。网络的前端为特征提取主干网,使用VGG-Face深度模型,VGG-Face模型来自牛津大学VGG小组的工作,由VGG-16深度卷积神经网络对百万数量级的人脸样本训练得到,VGG-face结构参见附图4,包含多个卷积层和一个全连接层(FC1),分别提取图片Xi和Xj的特征,所提取的特征用f(Xi;θ)和f(Xj;θ)表示,其中f表示经过特征提取主干网(卷积层和FC1层)对图像进行的一系列特征提取操作,θ为特征主干网中的网络权值。将两个FC1层的输出相减构成差分层,差分层的输出为:dij=f(Xj;θ)-f(Xi;θ)。差分层后再接两个全连接层(FC2和FC3)。
两个全连接层的操作用g表示,用于对表情强度的排序。整个差分卷积神经网络的输出可表示为:
4.利用排序卷积神经网络估计表情类别和强度
将用于测试的32个人按照步骤(T2)组建表情分类测试样本,分别输入6个表情强度模型,根据步骤(T4)估计表情的类别;按照步骤(T3)组建表情强度测试样本对,输入根据(T5)估计表情类别对应的表情强度排序模型,估计测试样本对的表情强弱关系。
应用上述步骤得到的分类器进行表情分析,在CK+库上的表情识别率为91.5%,强度排序正确率为86.2%,优于现有利用深度模型得到的结果,表明本发明有效的抑制种族、性别、年龄等人体差异对表情识别造成的干扰。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于排序卷积神经网络的人脸表情分析方法,其特征在于,包括离线训练部分和在线分析部分;
所述离线训练部分包括以下步骤:
(S1)提取N个人的训练人脸图像序列,记录每张训练图像的表情类型;
(S2)以第j种表情类型作为感兴趣表情,对第i个人的训练人脸图像序列进行抽取拼接,由此建立第j种表情类型与训练人脸图像子序列的映射关系,i=1,…,N,j=1,…,M,M为表情类型数量;
所述抽取拼接是指从第i个人的训练人脸图像序列中分别抽取第z种和第j种表情图像序列,并将抽取的两种表情图像序列拼接,z∈{1,...,M},z≠j,第z种表情图像序列按照表情强度值由峰值逐渐减小到中性值的顺序排列,第j种表情图像序列按照表情强度值由中性值逐渐增大到峰值的顺序排列;
(S3)分别在第j种表情的N*M个训练人脸子图像子序列中,将两两不同帧组合为训练样本对;
(S4)将组合得到的多个训练样本对作为排序卷积神经网络的输入,训练得到第j种表情的强度排序模型;
所述在线分析部分包括以下步骤:
(T1)采集待测人员的测试人脸图像序列;
(T2)从测试人脸图像序列中提取任意一帧与参考中性表情图像组成表情测试样本对;
(T3)将表情测试样本对送入第j种表情的强度排序模型,j=1,…,M,强度排序模型的输出值中最大者对应的表情类型即为待测人员的表情类型;
(T4)在测试人脸图像序列中,两两不同帧图像组合为表情强度测试样本对;
(T5)将表情强度测试样本对送入待测人员表情类型的强度排序模型,获得表情强度变化状态。
2.根据权利要求1所述的基于排序卷积神经网络的人脸表情分析方法,其特征在于,所述抽取拼接得到的训练人脸图像子序列中,抽取的第z种表情图像序列排在前,抽取的第j种表情图像序列排在后;定义从图像子序列中提取的样本对为Xp和Xq,其中p和q为序列的帧号且满足1≤p<q≤L,L表示拼接序列的总长度,将顺序排列的样本对(Xp,Xq)作为正样本,将逆序排列的样本对(Xp,Xq)作为负样本;或者,
所述抽取拼接得到的训练人脸图像子序列中,抽取的第j种表情图像序列排在前,抽取的第z种表情图像序列排在后;定义从图像子序列中提取的样本对为Xp和Xq,其中p和q为序列的帧号且满足1≤p<q≤L,L表示拼接序列的总长度,将顺序排列的样本对(Xi,Xj)作为负样本,将逆序排列的样本对(Xj,Xi)作为正样本。
3.根据权利要求1或2所述的基于排序卷积神经网络的人脸表情分析方法,其特征在于,所述在第j种表情的N*M个训练人脸子图像子序列中,等间隔采样,从采样后得到的序列中将两两不同帧组合为训练样本对。
4.根据权利要求1所述的基于排序卷积神经网络的人脸表情分析方法,其特征在于,所述排序卷积神经网络是VGGNET、GoogleNet、ResNet中的任意一种。
5.根据权利要求1所述的基于排序卷积神经网络的人脸表情分析方法,其特征在于,所述表情类型包括生气、厌恶、恐惧、高兴、悲伤和惊讶。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811505978.8A CN109657586B (zh) | 2018-12-10 | 2018-12-10 | 一种基于排序卷积神经网络的人脸表情分析方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811505978.8A CN109657586B (zh) | 2018-12-10 | 2018-12-10 | 一种基于排序卷积神经网络的人脸表情分析方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109657586A CN109657586A (zh) | 2019-04-19 |
CN109657586B true CN109657586B (zh) | 2022-02-18 |
Family
ID=66113185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811505978.8A Active CN109657586B (zh) | 2018-12-10 | 2018-12-10 | 一种基于排序卷积神经网络的人脸表情分析方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109657586B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188708A (zh) * | 2019-06-03 | 2019-08-30 | 西安工业大学 | 一种基于卷积神经网络的人脸表情识别方法 |
CN110765873B (zh) * | 2019-09-19 | 2022-08-16 | 华中师范大学 | 一种基于表情强度标签分布的面部表情识别方法与装置 |
EP4220546A4 (en) * | 2020-09-25 | 2023-10-25 | Fujitsu Limited | MACHINE LEARNING PROGRAM, MACHINE LEARNING METHOD AND INFERENCE DEVICE |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975916A (zh) * | 2016-04-28 | 2016-09-28 | 西安电子科技大学 | 基于多输出卷积神经网络和有序回归的年龄估计方法 |
CN106156781A (zh) * | 2016-07-12 | 2016-11-23 | 北京航空航天大学 | 排序卷积神经网络构建方法及其图像处理方法与装置 |
CN107808113A (zh) * | 2017-09-13 | 2018-03-16 | 华中师范大学 | 一种基于差分深度特征的人脸表情识别方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10459928B2 (en) * | 2016-12-14 | 2019-10-29 | Microsoft Technology Licensing, Llc | Dynamic tensor attention for information retrieval scoring |
-
2018
- 2018-12-10 CN CN201811505978.8A patent/CN109657586B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975916A (zh) * | 2016-04-28 | 2016-09-28 | 西安电子科技大学 | 基于多输出卷积神经网络和有序回归的年龄估计方法 |
CN106156781A (zh) * | 2016-07-12 | 2016-11-23 | 北京航空航天大学 | 排序卷积神经网络构建方法及其图像处理方法与装置 |
CN107808113A (zh) * | 2017-09-13 | 2018-03-16 | 华中师范大学 | 一种基于差分深度特征的人脸表情识别方法及系统 |
Non-Patent Citations (3)
Title |
---|
《Neural Aggregation Network for Video Face Recognition》;Jiaolong Yang等;《 2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171109;全文 * |
《Using Ranking-CNN for Age Estimation》;Shixing Chen等;《 2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171109;全文 * |
《基于多级子网络和排序性Dropout机制的人脸属性识别》;高淑蕾 等;《数据采集与处理》;20180930;第33卷(第5期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109657586A (zh) | 2019-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765873B (zh) | 一种基于表情强度标签分布的面部表情识别方法与装置 | |
CN112800903B (zh) | 一种基于时空图卷积神经网络的动态表情识别方法及系统 | |
CN110188615B (zh) | 一种人脸表情识别方法、装置、介质及系统 | |
CN105975916B (zh) | 基于多输出卷积神经网络和有序回归的年龄估计方法 | |
CN109657586B (zh) | 一种基于排序卷积神经网络的人脸表情分析方法及系统 | |
CN109543526B (zh) | 基于深度差异性特征的真假面瘫识别系统 | |
CN110532900A (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN110097115B (zh) | 一种基于注意力转移机制的视频显著性物体检测方法 | |
CN111985538A (zh) | 基于语义辅助注意力机制的小样本图片分类模型及方法 | |
CN111027377B (zh) | 一种双流神经网络时序动作定位方法 | |
CN116645716B (zh) | 基于局部特征和全局特征的表情识别方法 | |
CN115966010A (zh) | 一种基于注意力和多尺度特征融合的表情识别方法 | |
CN111814713A (zh) | 一种基于bn参数迁移学习的表情识别方法 | |
CN110889335B (zh) | 基于多通道时空融合网络人体骨架双人交互行为识别方法 | |
CN112686117B (zh) | 一种基于隐变量分析的人脸表情强度识别方法及系统 | |
Hosseini et al. | Convolution neural network for pain intensity assessment from facial expression | |
CN112800979B (zh) | 一种基于表征流嵌入网络的动态表情识别方法及系统 | |
CN109583406B (zh) | 基于特征关注机制的人脸表情识别方法 | |
CN115757855A (zh) | 一种基于图结构匹配的图像检索方法 | |
CN112200093B (zh) | 一种基于不确定性估计的行人再识别方法 | |
Rabea et al. | IdentiFace: A VGG based multimodal facial biometric system | |
CN114821632A (zh) | 一种遮挡行人重识别方法 | |
Andujar et al. | Recognition of Feline Epidermal Disease using Raspberry-Pi based Gray Level Co-occurrence Matrix and Support Vector Machine | |
CN113269079A (zh) | 基于视频层次化比对分析和等级行为范式的儿童孤独症早期评估装置及系统 | |
Lazo | Segmentation of skin lesions and their attributes using generative adversarial networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |