CN105608447A - 对人体面部微笑表情深度卷积神经网络的检测方法 - Google Patents
对人体面部微笑表情深度卷积神经网络的检测方法 Download PDFInfo
- Publication number
- CN105608447A CN105608447A CN201610089191.2A CN201610089191A CN105608447A CN 105608447 A CN105608447 A CN 105608447A CN 201610089191 A CN201610089191 A CN 201610089191A CN 105608447 A CN105608447 A CN 105608447A
- Authority
- CN
- China
- Prior art keywords
- layer
- image
- face
- convolutional neural
- smile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种对人体面部微笑表情深度卷积神经网络的检测方法,由训练步骤和测试步骤组成。训练步骤为:对训练样本图像进行预处理、训练卷积神经网、训练支持向量机分类器步骤;测试步骤为:对测试样本图像进行预处理,用预处理后的测试样本输入到卷积神经网络中提取测试样本的多尺度特征,将多尺度特征输入到支持向量机分类器中,得到检测结果,即是否微笑。本发明从大量样本图像中自动地提取微笑特征,避免了人工设计特征的复杂性和片面性,再利用支持向量机分类器进行微笑检测,提高了检测的准确率,可用于新产品用户体验评价、服务人员微笑服务评价、相机微笑快门控制及照片选择等。
Description
技术领域
本发明属于图像处理及模式识别的技术领域,具体地涉及一种对人体面部微笑表情深度卷积神经网络的检测方法。
背景技术
作为人类情感表达的重要方式之一,微笑常常代表着人们快乐、欢喜、满意等情绪。人们能够一眼看出其他人的快乐心情,如果计算机也能自动解读人的情绪,计算机将会为人类提供更全面的服务。近年来,微笑自动检测技术逐渐得到研究人员和服务行业的关注,并渗透于人们日常生活的各个技术领域。例如,2013年,巴塞罗那一家喜剧俱乐部Teatreneu利用平板电脑通过识别人脸表情实行“按微笑收费”,这种创新实效的举措赢得了用户的青睐,并使得俱乐部的收入飙涨。再如,2007年,在索尼公司的SONYT200数码相机中,提供了由索尼和欧姆龙公司合作开发出来“微笑快门”用来捕捉刹那间笑容。此后,索尼爱立信将该功能引入到Cyber-shot系列手机W61S。但是,一般来说“微笑快门”灵敏度尚不理想。
目前,人们对微笑表情识别方法开始考虑遮挡和噪声的影响,比如身份、年龄、性别、姿态、光照、遮挡、拍摄环境、图像质量等因素。由于面部微笑表情易受多种客观因素影响,使得微笑表情特征复杂多变,难以人为的设计特征,因此,微笑表情识别成为一项具有挑战性的研究课题。
现有人脸表情识别多是对人脸正面成像的图像进行分析,用一种或多种特征融合的方法识别人脸表情,因此特征提取和选择算法不可避免的损失了部分信息,且易受人脸角度姿态、尺度变化和噪声干扰。
发明内容
本发明所要解决的技术问题在于克服现有技术的缺点,提供一种设计特征简单、全面、检测准确率高、检测速度快的对人体面部微笑表情深度卷积神经网络的检测方法。
解决上述技术问题所采用的技术方案它是由训练步骤和测试步骤组成,本发明的训练步骤为:
(1)对训练样本图像进行预处理
包括图像灰度化、嘴巴子图定位、大小归一化以及亮度调节步骤;
图像灰度化:用(1)式对被训练的样本图像进行灰度化处理,将彩色图像转为灰度图像:
I=Wr×R+Wg×G+Wb×B(1)
式中I为灰度化后的亮度,R为彩色图像的红色分量,G为彩色图像的绿色分量,B为彩色图像的蓝色分量,Wr为彩色图像的红色分量的权重,Wg为彩色图像的绿色分量的权重,Wb为彩色图像的蓝色分量的权重。
嘴巴子图定位:用五个关键点横坐标的平均值作为中心点的横坐标x,用五个关键点纵坐标的平均值作为中心点的纵坐标y,用欧式距离或曼哈顿距离或棋盘距离计算五个关键点到中心点的距离;计算上述五个距离的最大距离D或平均距离D或最小距离D,以((x-(0.75~0.77)D),y)为左上角,裁剪成宽为(1.5~1.58)D、高为(1.7~1.78)D的矩形,得到嘴巴子图。
嘴巴子图大小归一化:将上述嘴巴子图用双三次插值法或B样条插值法或三次样条插值法或等距插值法或四次样条插值法或拉格朗日插值法,归一化为32×32嘴巴子图,像素总个数为322。
对嘴巴子图进行亮度调节:采用自适应亮度调节法或分段线性拉伸法或直方图均衡化算法,获得亮度调节后的嘴巴子图。
自适应亮度调节法,用(4)式计算32×32嘴巴子图的直方图h(x)累加和与像素总个数的比值cdf(x):
式中x∈[0,255],在cdf(x)中寻找第一个大于0.01的索引值ilow和第一个大于0.99的索引值ihigh。
用(5)式得到亮度范围[low,high]:
low=(ilow-1)/255,high=(ihigh-1)/255(5)
用(6)式计算调节后的亮度值J
J=(tmp-low)/(high-low)(6)
式中tmp=max(low,min(high,I)),I为灰度化后的亮度,得到32×32标准嘴巴图像。
(2)训练卷积神经网络
将训练样本预处理后得到的32×32标准嘴巴图像输入卷积神经网络,经前向传播和反向传播两个步骤反复循环至达到设定的最大迭代次数,得到卷积神经网络和训练样本的多尺度特征。
(3)训练支持向量机分类器
把多尺度特征输入支持向量机,支持向量机根据多尺度特征寻找最优分类超平面,得到支持向量机分类器,该分类器的输出是1或0,1为微笑,0为不微笑。
本发明的测试步骤为:
(1)对测试样本图像进行预处理
测试样本图像的预处理与对训练样本图像进行预处理步骤(1)相同。
(2)用预处理后的测试样本输入到卷积神经网络中,提取测试样本的多尺度特征。
(3)将多尺度特征输入到支持向量机分类器中,得到检测结果,即是否微笑。
本发明的卷积神经网络的结构为:输入层是32×32的标准嘴巴图像;C1层是第一个卷积层,有10个28×28的特征图,每个特征图中的1个像素点与输入层的1个5×5区域相连接,共(5×5+1)×10=260个训练参数;S2层是下2采样层,有10个14×14特征图,每个特征图中的1个像素点与C1层相应特征图的1个2×2区域相连接,共1×10个偏置参数;C3层是第二个卷积层,有12个10×10的特征图,每个特征图中的1个像素点与S2层相应的1个5×5区域相连接,共(5×5+1)×10×12=3120个参数;S4层为第二个下2采样层,有12个5×5的特征图,共1×12个偏置参数;F5层是S4中12个5×5的特征图以列序为主序依次排列生成的1个300维的多尺度特征;输出层由2个结点1和0组成,F5层与输出层之间全连接,共300×2=600个参数;该深度卷积神经网络共260+10+3120+12+600=4002个参数,通过前向传播和反向传播反复循环至达到设定的最大迭代次数,确定网络参数。
本发明的支持向量机为:支持向量机的核函数选择径向基函数,其参数gamma=0.05,支持向量机的输入是从卷积神经网络得到的多尺度特征,输出是1或0,1为微笑,0为不微笑。
本发明的多尺度特征的生成过程为:将32×32的标准嘴巴图像输入到卷积神经网络的输入层中,经C1层、S2层、C3层和S4层的2次卷积和下2采样,得到12个5×5的特征图,以列序为主序依次排列生成的1个300维的多尺度特征。
本发明针对真实场景下拍摄的不同姿态、光照和胡须等干扰的人脸图像,采用卷积神经网络的自动学习能力,从大量样本图像中自动地提取微笑特征,避免了人工设计特征的复杂性和片面性,再利用支持向量机分类器进行微笑检测,提高了检测的准确率,可用于新产品用户体验评价、服务人员微笑服务评价、相机微笑快门控制及照片选择等。
附图说明
图1是本发明实施例1对人体面部微笑表情深度卷积神经网络的检测方法流程图。
图2是图1中测试步骤的流程图。
图3是经过预处理后部分32×32的标准嘴巴图像。
图4是深度卷积神经网络的结构图。
图5是非正面成像的测试样本人体面部微笑表情的检测结果图。
图6是人体面部有胡须的测试样本微笑表情的检测结果图。
具体实施方式
下面结合具体附图和实例对本发明进行进一步的说明,但本发明不限于下述实例。
实施例1
本实施例的人脸图像来自多任务人脸标注(theMulti-TaskFacialLandmark,MTFL)数据库,该库包括12995幅人脸图像,其中10000幅图像为训练样本,2995幅图像为测试样本。
本实施例微笑表情深度卷积神经网络的检测方法由训练步骤和测试步骤组成,训练步骤如下:
1、对10000幅训练样本图像进行预处理
包括图像灰度化、嘴巴子图定位、大小归一化以及亮度调节步骤;
10000幅图像灰度化:用(1)式对被训练的样本图像进行灰度化处理,将彩色图像转为灰度图像:
I=0.2989×R+0.5870×G+0.1140×B(1)
式中I为灰度化后的亮度,R为彩色图像的红色分量,G为彩色图像的绿色分量,B为彩色图像的蓝色分量。
10000幅嘴巴子图定位:用五个关键点横坐标的平均值作为中心点的横坐标x,用五个关键点纵坐标的平均值作为中心点的纵坐标y,用(2)式计算五个关键点到中心点的欧式距离:
di=((xi-x)2+(yi-y)2)0.5(2)
式中i=1,2,3,4,5,分别为左眼、右眼、左嘴角、右嘴角和鼻子五个关键点,di分别为五个关键点到中心点的欧式距离,xi分别为五个关键点的横坐标,yi分别为五个关键点的纵坐标。用(3)式计算上述五个距离的最大距离:
D=max(d1,d2,d3,d4,d5)(3)
以((x-0.75D),y)为左上角,裁剪成宽为1.5D、高为1.7D的矩形,得到嘴巴子图。
10000幅嘴巴子图大小归一化:将上述嘴巴子图用双三次插值法归一化为32×32的图像,像素总个数为322。
对10000幅嘴巴子图进行亮度调节:采用自适应亮度调节法,用(4)式计算32×32嘴巴子图的直方图h(x)累加和与像素总个数的比值cdf(x):
式中x∈[0,255],在cdf(x)中寻找第一个大于0.01的索引值ilow和第一个大于0.99的索引值ihigh。
用(5)式得到亮度范围[low,high]:
low=(ilow-1)/255,high=(ihigh-1)/255(5)
用(6)式计算调节后的亮度值J
J=(tmp-low)/(high-low)(6)
式中tmp=max(low,min(high,I)),I为灰度化后的亮度,得到10000幅32×32标准嘴巴图像。
2、训练卷积神经网络
训练卷积神经网络的参数设定为:10000幅训练样本分批训练,每批图像50幅,学习步长设为0.8,最大迭代次数为200。
将10000幅训练样本预处理后得到的10000幅32×32标准嘴巴图像输入卷积神经网络,经前向传播和反向传播两个步骤反复循环至达到设定的最大迭代次数,得到卷积神经网络和10000幅训练样本的多尺度特征,多尺度特征的生成过程按照卷积神经网络进行具体设计。
本实施例的卷积神经网络的结构为:输入层是10000幅32×32的标准嘴巴图像;C1层是第一个卷积层,有10个28×28的特征图,每个特征图中的1个像素点与输入层的1个5×5区域相连接,共(5×5+1)×10=260个训练参数;S2层是下2采样层,有10个14×14特征图,每个特征图中的1个像素点与C1层相应特征图的1个2×2区域相连接,共1×10个偏置参数;C3层是第二个卷积层,有12个10×10的特征图,每个特征图中的1个像素点与S2层相应的1个5×5区域相连接,共(5×5+1)×10×12=3120个参数;S4层为第二个下2采样层,有12个5×5的特征图,共1×12个偏置参数;F5层是S4中12个5×5的特征图以列序为主序依次排列生成的1个300维的多尺度特征。输出层由2个结点1和0组成,F5层与输出层之间全连接,共300×2=600个参数;该深度卷积神经网络共260+10+3120+12+600=4002个参数,通过前向传播和反向传播反复循环至达到设定的最大迭代次数,确定网络参数。这种网络结构一方面保存了更多的表情细节,另一方面降低了网络的复杂度,减少了运算量。
本实施例的多尺度特征的生成过程为:将32×32的标准嘴巴图像输入到卷积神经网络的输入层中,经C1层、S2层、C3层和S4层的2次卷积和下2采样,得到12个5×5的特征图,以列序为主序依次排列生成的1个300维的多尺度特征。这种通过卷积神经网络自动提取的特征避免了人为选择特征的片面性和复杂性。
3、训练支持向量机分类器
支持向量机的核函数选择径向基函数,其参数gamma=0.05。
把10000幅训练样本的多尺度特征输入支持向量机,支持向量机根据多尺度特征寻找最优分类超平面,得到支持向量机分类器,该分类器的输出是1或0,1为微笑,0为不微笑;10000幅样本图像的多尺度特征训练支持向量机的时间为30秒。
测试步骤如下:
1、对测试样本图像进行预处理
2995幅测试样本图像的预处理与10000幅训练样本图像的预处理步骤相同。
2、用预处理后的2995幅测试样本输入到卷积神经网络中,提取2995幅测试样本的多尺度特征;
从每个测试样本的C1层得到10个28×28的特征图,S2层得到10个14×14的特征图,C3层得到12个10×10的特征图,S4层得到12个5×5的特征图,F5层得到1个300维的多尺度特征。对2995幅样本图像特征提取时间为20秒。
3、将2995幅测试样本图像的多尺度特征输入到支持向量机分类器中,得到检测结果,即是否微笑。2995幅测试样本图像的平均分类时间为2.3毫秒/每幅。
本实施例中,从2995幅测试样本图像中选2幅测试样本图像结果,见图5、图6,图5是非正面成像的测试样本人体面部微笑表情的检测结果,支持向量机分类器的输出为1,人体面部呈现微笑表情。图6是人体面部有胡须的测试样本微笑表情的检测结果,支持向量机分类器的输出为0,人体面部呈现非微笑表情。
实施例2
本实施例的人脸图像来自多任务人脸标注(theMulti-TaskFacialLandmark,MTFL)数据库。该库包括12995幅人脸图像,其中10000幅图像为训练样本,2995幅图像为测试样本。
本实施例微笑表情深度卷积神经网络的检测方法由训练步骤和测试步骤组成,训练步骤如下:
1、对10000幅训练样本图像进行预处理
包括图像灰度化、嘴巴子图定位、大小归一化以及亮度调节步骤;
10000幅图像灰度化:用(7)式对被训练的样本图像进行灰度化处理,将彩色图像转为10000幅灰度图像:
I=(R+G+B)/3(7)
式中I为灰度化后的亮度,R为彩色图像的红色分量,G为彩色图像的绿色分量,B为彩色图像的蓝色分量。
10000幅嘴巴子图定位:用五个关键点横坐标的平均值作为中心点的横坐标x,用五个关键点纵坐标的平均值作为中心点的纵坐标y,用(8)式计算五个关键点到中心点的曼哈顿距离:
di=|xi-x|+|yi-y|(8)
式中i=1,2,3,4,5,分别为左眼、右眼、左嘴角、右嘴角和鼻子五个关键点,di分别为五个关键点到中心点的曼哈顿距离,xi分别为五个关键点的横坐标,yi分别为五个关键点的纵坐标。
用(9)式计算上述五个距离的平均距离:
D=(d1+d2+d3+d4+d5)/5(9)
以((x-0.76D),y)为左上角,裁剪成宽为1.54D、高为1.74D的矩形,得到10000幅嘴巴子图。
10000幅嘴巴子图大小归一化:将上述嘴巴子图用B样条插值法,归一化为32×32的图像,像素总个数为322。也可用三次样条插值法,也可用等距插值法,也可用四次样条插值法,还可用拉格朗日插值法等,得到归一化为32×32的图像,像素总个数为322。
对10000幅嘴巴子图进行亮度调节:采用分段线性拉伸法对10000幅嘴巴子图进行亮度调节,还可以用直方图均衡化算法对10000幅嘴巴子图进行亮度调节,得到10000幅32×32标准嘴巴图像。
2、训练卷积神经网络
训练卷积神经网络的参数设定为:10000幅训练样本分批训练,每批图像100幅,学习步长设为0.5,最大迭代次数为100。
将10000幅训练样本预处理后得到的10000幅32×32标准嘴巴图像输入卷积神经网络,经前向传播和反向传播两个步骤反复循环至达到设定的最大迭代次数,得到卷积神经网络和训练样本的多尺度特征,多尺度特征的生成过程按照卷积神经网络进行具体设计。
本实施例的卷积神经网络的结构与实施例1相同,多尺度特征的生成过程与实施例1相同,得到10000个300维的多尺度特征。这种通过卷积神经网络自动提取的特征避免了人为选择特征的片面性和复杂性。
3、训练支持向量机分类器
训练支持向量机分类器步骤与实施例1相同。
本实施例的测试步骤与实施例1相同。
实施例3
本实施例的人脸图像来自多任务人脸标注(theMulti-TaskFacialLandmark,MTFL)数据库。该库包括12995幅人脸图像,其中10000幅图像为训练样本,2995幅图像为测试样本。
本实施例微笑表情深度卷积神经网络的检测方法由训练步骤和测试步骤组成,训练步骤如下:
1、对10000幅训练样本图像进行预处理
包括图像灰度化、嘴巴子图定位、大小归一化以及亮度调节步骤。
10000幅图像灰度化:该步骤与实施例1相同,得到10000幅灰度图像。
10000幅嘴巴子图定位:用五个关键点横坐标的平均值作为中心点的横坐标x,用五个关键点纵坐标的平均值作为中心点的纵坐标y,用(10)式计算五个关键点到中心点的棋盘距离:
di=max(|xi-x|,|yi-y|)(10)
式中i=1,2,3,4,5,分别为左眼、右眼、左嘴角、右嘴角和鼻子五个关键点,di分别为五个关键点到中心点的棋盘距离,xi分别为五个关键点的横坐标,yi分别为五个关键点的纵坐标。
用(11)式计算上述五个距离的最小距离:
D=min(d1,d2,d3,d4,d5)(11)
以((x-0.77D),y)为左上角,裁剪成宽为1.58D、高为1.78D的矩形,得到10000幅嘴巴子图。
10000幅嘴巴子图大小归一化、对10000幅嘴巴子图进行亮度调节步骤与实施例1相同,得到10000幅32×32标准嘴巴图像。
2、训练卷积神经网络
训练卷积神经网络的参数设定为:10000幅训练样本分批训练,每批图像150幅,学习步长设为1.0,最大迭代次数为300。
将10000幅训练样本预处理后得到的10000幅32×32标准嘴巴图像输入卷积神经网络,经前向传播和反向传播两个步骤反复循环至达到设定的最大迭代次数,得到卷积神经网络和10000幅训练样本的多尺度特征,多尺度特征的生成过程按照卷积神经网络进行具体设计。
本实施例的卷积神经网络的结构与实施例1相同,多尺度特征的生成过程与实施例1相同,得到10000个300维的多尺度特征。这种通过卷积神经网络自动提取的特征避免了人为选择特征的片面性和复杂性。
3、训练支持向量机分类器
训练支持向量机分类器步骤与实施例1相同。
本实施例的测试步骤与实施例1相同。
Claims (4)
1.一种对人体面部微笑表情深度卷积神经网络的检测方法,它是由训练步骤和测试步骤组成,所述的训练步骤为:
(1)对训练样本图像进行预处理
包括图像灰度化、嘴巴子图定位、大小归一化以及亮度调节步骤;
图像灰度化:用(1)式对被训练的样本图像进行灰度化处理,将彩色图像转为灰度图像:
I=Wr×R+Wg×G+Wb×B(1)
式中I为灰度化后的亮度,R为彩色图像的红色分量,G为彩色图像的绿色分量,B为彩色图像的蓝色分量,Wr为彩色图像的红色分量的权重,Wg为彩色图像的绿色分量的权重,Wb为彩色图像的蓝色分量的权重;
嘴巴子图定位:用五个关键点横坐标的平均值作为中心点的横坐标x,用五个关键点纵坐标的平均值作为中心点的纵坐标y,用欧式距离或曼哈顿距离或棋盘距离计算五个关键点到中心点的距离;计算上述五个距离的最大距离D或平均距离D或最小距离D,以((x-(0.75~0.77)D),y)为左上角,裁剪成宽为(1.5~1.58)D、高为(1.7~1.78)D的矩形,得到嘴巴子图;
嘴巴子图大小归一化:将上述嘴巴子图用双三次插值法或B样条插值法或三次样条插值法或等距插值法或四次样条插值法或拉格朗日插值法,归一化为32×32嘴巴子图,像素总个数为322;
对嘴巴子图进行亮度调节:采用自适应亮度调节法或分段线性拉伸法或直方图均衡化算法,获得亮度调节后的嘴巴子图;
自适应亮度调节法,用(4)式计算32×32嘴巴子图的直方图h(x)累加和与像素总个数的比值cdf(x):
式中x∈[0,255],在cdf(x)中寻找第一个大于0.01的索引值ilow和第一个大于0.99的索引值ihigh;
用(5)式得到亮度范围[low,high]:
low=(ilow-1)/255,high=(ihigh-1)/255(5)
用(6)式计算调节后的亮度值J
J=(tmp-low)/(high-low)(6)
式中tmp=max(low,min(high,I)),I为灰度化后的亮度,得到32×32标准嘴巴图像;
(2)训练卷积神经网络
将训练样本预处理后得到的32×32标准嘴巴图像输入卷积神经网络,经前向传播和反向传播两个步骤反复循环至达到设定的最大迭代次数,得到卷积神经网络和训练样本的多尺度特征;
(3)训练支持向量机分类器
把多尺度特征输入支持向量机,支持向量机根据多尺度特征寻找最优分类超平面,得到支持向量机分类器,该分类器的输出是1或0,1为微笑,0为不微笑;
所述的测试步骤为:
(1)对测试样本图像进行预处理
测试样本图像的预处理与对训练样本图像进行预处理步骤(1)相同;
(2)用预处理后的测试样本输入到卷积神经网络中,提取测试样本的多尺度特征;
(3)将多尺度特征输入到支持向量机分类器中,得到检测结果,即是否微笑。
2.根据权利要求1所述的对人体面部微笑表情深度卷积神经网络的检测方法,其特征在于所述的卷积神经网络的结构为:输入层是32×32的标准嘴巴图像;C1层是第一个卷积层,有10个28×28的特征图,每个特征图中的1个像素点与输入层的1个5×5区域相连接,共(5×5+1)×10=260个训练参数;S2层是下2采样层,有10个14×14特征图,每个特征图中的1个像素点与C1层相应特征图的1个2×2区域相连接,共1×10个偏置参数;C3层是第二个卷积层,有12个10×10的特征图,每个特征图中的1个像素点与S2层相应的1个5×5区域相连接,共(5×5+1)×10×12=3120个参数;S4层为第二个下2采样层,有12个5×5的特征图,共1×12个偏置参数;F5层是S4中12个5×5的特征图以列序为主序依次排列生成的1个300维的多尺度特征;输出层由2个结点1和0组成,F5层与输出层之间全连接,共300×2=600个参数;该深度卷积神经网络共260+10+3120+12+600=4002个参数,通过前向传播和反向传播反复循环至达到设定的最大迭代次数,确定网络参数。
3.根据权利要求1所述的对人体面部微笑表情深度卷积神经网络的检测方法,其特征在于所述的支持向量机为:支持向量机的核函数选择径向基函数,其参数gamma=0.05,支持向量机的输入是从卷积神经网络得到的多尺度特征,输出是1或0,1为微笑,0为不微笑。
4.根据权利要求1或2或3所述的对人体面部微笑表情深度卷积神经网络的检测方法,其特征在于所述的多尺度特征的生成过程为:将32×32的标准嘴巴图像输入到卷积神经网络的输入层中,经C1层、S2层、C3层和S4层的2次卷积和下2采样,得到12个5×5的特征图,以列序为主序依次排列生成的1个300维的多尺度特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610089191.2A CN105608447B (zh) | 2016-02-17 | 2016-02-17 | 对人体面部微笑表情深度卷积神经网络的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610089191.2A CN105608447B (zh) | 2016-02-17 | 2016-02-17 | 对人体面部微笑表情深度卷积神经网络的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105608447A true CN105608447A (zh) | 2016-05-25 |
CN105608447B CN105608447B (zh) | 2018-12-07 |
Family
ID=55988373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610089191.2A Active CN105608447B (zh) | 2016-02-17 | 2016-02-17 | 对人体面部微笑表情深度卷积神经网络的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105608447B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127139A (zh) * | 2016-06-21 | 2016-11-16 | 东北大学 | 一种mooc课程中学生面部表情的动态识别方法 |
CN107798318A (zh) * | 2017-12-05 | 2018-03-13 | 四川文理学院 | 一种机器人识别面部快乐微表情的方法及其装置 |
CN107871098A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 人脸特征点的获取方法和装置 |
CN108197602A (zh) * | 2018-01-30 | 2018-06-22 | 厦门美图之家科技有限公司 | 一种卷积神经网络生成方法及表情识别方法 |
CN109409424A (zh) * | 2018-10-16 | 2019-03-01 | 广东工业大学 | 一种外观缺陷检测模型建模方法和装置 |
CN109871751A (zh) * | 2019-01-04 | 2019-06-11 | 平安科技(深圳)有限公司 | 基于人脸表情识别的服务态度评估方法、装置及存储介质 |
CN109872183A (zh) * | 2019-01-16 | 2019-06-11 | 深圳壹账通智能科技有限公司 | 智能服务评价方法、计算机可读存储介质和终端设备 |
CN109920514A (zh) * | 2019-03-11 | 2019-06-21 | 重庆科技学院 | 一种基于卡尔曼滤波神经网络的自闭症拥抱机体验评价方法及系统 |
CN110188673A (zh) * | 2019-05-29 | 2019-08-30 | 京东方科技集团股份有限公司 | 表情识别方法和装置 |
CN110622042A (zh) * | 2017-05-10 | 2019-12-27 | 日本电气株式会社 | 分析设备、地层断代设备、分析方法、地层断代方法和程序 |
CN110766502A (zh) * | 2018-07-27 | 2020-02-07 | 北京京东尚科信息技术有限公司 | 商品评价方法和系统 |
CN110895796A (zh) * | 2019-03-19 | 2020-03-20 | 李华 | 移动终端功耗管理方法 |
CN110895685A (zh) * | 2019-11-25 | 2020-03-20 | 创新奇智(上海)科技有限公司 | 基于深度学习的微笑服务质量评价系统及评价方法 |
CN111458688A (zh) * | 2020-03-13 | 2020-07-28 | 西安电子科技大学 | 一种基于三维卷积网络的雷达高分辨距离像目标识别方法 |
CN113069080A (zh) * | 2021-03-22 | 2021-07-06 | 上海交通大学医学院附属第九人民医院 | 一种基于人工智能的困难气道评估方法及装置 |
CN113315904A (zh) * | 2020-02-26 | 2021-08-27 | 北京小米移动软件有限公司 | 拍摄方法、拍摄装置及存储介质 |
CN114170540A (zh) * | 2020-08-21 | 2022-03-11 | 四川大学 | 一种融合表情和姿态的个体情绪识别方法 |
US11308348B2 (en) | 2017-10-06 | 2022-04-19 | Sensing Feeling Limited | Methods and systems for processing image data |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5832183A (en) * | 1993-03-11 | 1998-11-03 | Kabushiki Kaisha Toshiba | Information recognition system and control system using same |
US7062073B1 (en) * | 1999-01-19 | 2006-06-13 | Tumey David M | Animated toy utilizing artificial intelligence and facial image recognition |
CN102314592A (zh) * | 2010-06-30 | 2012-01-11 | 北京中星微电子有限公司 | 一种笑脸图像的识别方法和识别装置 |
CN102314611A (zh) * | 2010-06-30 | 2012-01-11 | 北京中星微电子有限公司 | 一种笑脸图像的识别方法和识别装置 |
-
2016
- 2016-02-17 CN CN201610089191.2A patent/CN105608447B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5832183A (en) * | 1993-03-11 | 1998-11-03 | Kabushiki Kaisha Toshiba | Information recognition system and control system using same |
US7062073B1 (en) * | 1999-01-19 | 2006-06-13 | Tumey David M | Animated toy utilizing artificial intelligence and facial image recognition |
CN102314592A (zh) * | 2010-06-30 | 2012-01-11 | 北京中星微电子有限公司 | 一种笑脸图像的识别方法和识别装置 |
CN102314611A (zh) * | 2010-06-30 | 2012-01-11 | 北京中星微电子有限公司 | 一种笑脸图像的识别方法和识别装置 |
Non-Patent Citations (2)
Title |
---|
PATRICK O. GLAUNER: ""Deep Convolutional Neural Networks for Smile Recognition"", 《IMPERIAL COLLEGE LONDON DEPARTMENT OF COMPUTING》 * |
陈俊: ""笑脸表情分类识别的研究"", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127139A (zh) * | 2016-06-21 | 2016-11-16 | 东北大学 | 一种mooc课程中学生面部表情的动态识别方法 |
CN106127139B (zh) * | 2016-06-21 | 2019-06-25 | 东北大学 | 一种mooc课程中学生面部表情的动态识别方法 |
CN107871098A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 人脸特征点的获取方法和装置 |
US11448634B2 (en) | 2017-05-10 | 2022-09-20 | Nec Corporation | Analysis apparatus, stratum age estimation apparatus, analysis method, stratum age estimation method, and program |
CN110622042A (zh) * | 2017-05-10 | 2019-12-27 | 日本电气株式会社 | 分析设备、地层断代设备、分析方法、地层断代方法和程序 |
US11308348B2 (en) | 2017-10-06 | 2022-04-19 | Sensing Feeling Limited | Methods and systems for processing image data |
CN107798318A (zh) * | 2017-12-05 | 2018-03-13 | 四川文理学院 | 一种机器人识别面部快乐微表情的方法及其装置 |
CN108197602A (zh) * | 2018-01-30 | 2018-06-22 | 厦门美图之家科技有限公司 | 一种卷积神经网络生成方法及表情识别方法 |
CN110766502A (zh) * | 2018-07-27 | 2020-02-07 | 北京京东尚科信息技术有限公司 | 商品评价方法和系统 |
CN109409424B (zh) * | 2018-10-16 | 2021-09-17 | 广东工业大学 | 一种外观缺陷检测模型建模方法和装置 |
CN109409424A (zh) * | 2018-10-16 | 2019-03-01 | 广东工业大学 | 一种外观缺陷检测模型建模方法和装置 |
CN109871751A (zh) * | 2019-01-04 | 2019-06-11 | 平安科技(深圳)有限公司 | 基于人脸表情识别的服务态度评估方法、装置及存储介质 |
CN109872183A (zh) * | 2019-01-16 | 2019-06-11 | 深圳壹账通智能科技有限公司 | 智能服务评价方法、计算机可读存储介质和终端设备 |
CN109920514A (zh) * | 2019-03-11 | 2019-06-21 | 重庆科技学院 | 一种基于卡尔曼滤波神经网络的自闭症拥抱机体验评价方法及系统 |
CN110895796A (zh) * | 2019-03-19 | 2020-03-20 | 李华 | 移动终端功耗管理方法 |
CN110188673B (zh) * | 2019-05-29 | 2021-07-30 | 京东方科技集团股份有限公司 | 表情识别方法和装置 |
CN110188673A (zh) * | 2019-05-29 | 2019-08-30 | 京东方科技集团股份有限公司 | 表情识别方法和装置 |
CN110895685A (zh) * | 2019-11-25 | 2020-03-20 | 创新奇智(上海)科技有限公司 | 基于深度学习的微笑服务质量评价系统及评价方法 |
CN113315904A (zh) * | 2020-02-26 | 2021-08-27 | 北京小米移动软件有限公司 | 拍摄方法、拍摄装置及存储介质 |
CN113315904B (zh) * | 2020-02-26 | 2023-09-26 | 北京小米移动软件有限公司 | 拍摄方法、拍摄装置及存储介质 |
CN111458688A (zh) * | 2020-03-13 | 2020-07-28 | 西安电子科技大学 | 一种基于三维卷积网络的雷达高分辨距离像目标识别方法 |
CN111458688B (zh) * | 2020-03-13 | 2024-01-23 | 西安电子科技大学 | 一种基于三维卷积网络的雷达高分辨距离像目标识别方法 |
CN114170540A (zh) * | 2020-08-21 | 2022-03-11 | 四川大学 | 一种融合表情和姿态的个体情绪识别方法 |
CN114170540B (zh) * | 2020-08-21 | 2023-06-13 | 四川大学 | 一种融合表情和姿态的个体情绪识别方法 |
CN113069080A (zh) * | 2021-03-22 | 2021-07-06 | 上海交通大学医学院附属第九人民医院 | 一种基于人工智能的困难气道评估方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105608447B (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105608447A (zh) | 对人体面部微笑表情深度卷积神经网络的检测方法 | |
CN109614921B (zh) | 一种基于对抗生成网络的半监督学习的细胞分割方法 | |
CN110163235A (zh) | 图像增强模型的训练、图像增强方法、装置和存储介质 | |
JP7386545B2 (ja) | 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置 | |
US8692830B2 (en) | Automatic avatar creation | |
CN107123088B (zh) | 一种自动更换证件照背景颜色的方法 | |
CN108288027A (zh) | 一种图像质量的检测方法、装置及设备 | |
CN108710893B (zh) | 一种基于特征融合的数字图像相机源模型分类方法 | |
CN109214327A (zh) | 一种基于pso的反人脸识别方法 | |
CN106056064A (zh) | 一种人脸识别方法及人脸识别装置 | |
CN109657554A (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN106303233A (zh) | 一种基于表情融合的视频隐私保护方法 | |
CN111008971B (zh) | 一种合影图像的美学质量评价方法及实时拍摄指导系统 | |
CN110046574A (zh) | 基于深度学习的安全帽佩戴识别方法及设备 | |
CN111222433B (zh) | 自动人脸稽核方法、系统、设备及可读存储介质 | |
CN110569780A (zh) | 一种基于深度迁移学习的高精度人脸识别方法 | |
CN111985554A (zh) | 一种模型训练方法、手镯识别方法及对应装置 | |
CN108647696B (zh) | 图片颜值确定方法及装置、电子设备、存储介质 | |
US11308313B2 (en) | Hybrid deep learning method for recognizing facial expressions | |
Du et al. | Boundary-sensitive network for portrait segmentation | |
Marzan et al. | Automated tobacco grading using image processing techniques and a convolutional neural network | |
WO2015064292A1 (ja) | 画像の特徴量に関する処理システム、処理方法及びプログラム | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
US11036970B2 (en) | Hybrid deep learning method for gender classification | |
WO2018137226A1 (zh) | 指纹提取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220809 Address after: 213164 5th floor, Jiangnan modern industry research institute, Wujin science and Education City, Changzhou City, Jiangsu Province Patentee after: Jiangsu Siyuan integrated circuit and Intelligent Technology Research Institute Co.,Ltd. Address before: 710062 No. 199 South Changan Road, Shaanxi, Xi'an Patentee before: Shaanxi Normal University |