CN112668378A - 一种基于图像融合与卷积神经网络结合的人脸表情识别方法 - Google Patents

一种基于图像融合与卷积神经网络结合的人脸表情识别方法 Download PDF

Info

Publication number
CN112668378A
CN112668378A CN201910985912.1A CN201910985912A CN112668378A CN 112668378 A CN112668378 A CN 112668378A CN 201910985912 A CN201910985912 A CN 201910985912A CN 112668378 A CN112668378 A CN 112668378A
Authority
CN
China
Prior art keywords
image
facial expression
fusion
convolutional neural
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910985912.1A
Other languages
English (en)
Inventor
孙崐
张彬
郑凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201910985912.1A priority Critical patent/CN112668378A/zh
Publication of CN112668378A publication Critical patent/CN112668378A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像融合与卷积神经网络结合的人脸表情识别方法,本方法首先从JAFFE和CK+人脸表情库中获取人脸表情图像进行图像预处理操作;其次,采用局部二值模式提取人脸表情图像的纹理特征;再次,将局部二值模型编码图与表情灰度图像进行基于像素灰度值加权平均方法的融合,并输入到卷积神经网络中,最后通过softmax分类器计算表情识别概率。在此基础上,通过在人脸表情库上的实验,得出了不同人脸表情库下的最佳卷积神经网络层数和最佳融合权值,并完成了与多种人脸表情识别方法的对比实验。本发明采用局部二值模式用于特征提取并与人脸表情灰度图像进行像素值加权平均融合,能够获得更丰富有效的特征信息,具有较高的识别率,对于样本数较少时,也具有较好的鲁棒性。

Description

一种基于图像融合与卷积神经网络结合的人脸表情识别方法
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于图像融合与卷积神经网络结合的人脸表情识别方法。
背景技术
随着信息化社会的不断发展,人脸表情识别广泛应用于生活中,如疲劳驾驶监测仪、公安专用测谎仪和VR技术等,具有采集方便、无法侵犯等优点。因此提高人脸表情识别准确率,可以很大程度地促进人机交互系统的发展以及提高计算机进行图像识别的水平,在肢体语言与自然语言的融合,构建表情与语言的连接模型中具有重大的意义。
基于手工统计特征的传统人脸表情识别方法,需要人工干预定位选取,对于不同的人脸表情库需要采用不同的特征提取算法,不具有普遍性,从而使得识别率较低。基于卷积神经网络下的人脸表情识别方法,忽略人脸表情图像的局部信息,从而影响人脸表情识别率。而将能提取图像纹理信息的局部二值模式算法与卷积神经网络结合进行人脸表情识别,同样会导致表情灰度图像信息利用率较低,进而影响人脸表情识别率。
发明内容
本发明针对目前技术发展的需求和不足之处,提出一种基于图像融合与卷积神经网络结合的人脸表情识别方法,具有很好的识别效果。
本发明为解决上述问题提出了一种基于图像融合与卷积神经网络结合的人脸表情识别方法,采用的具体方案步骤如下。
S1、获取人脸表情图像:从人脸表情图像库中下载人脸表情图像。
S2、图像预处理:将人脸表情数据集分为测试集和训练集,对训练集和测试集分别进行数据增强、归一化和人脸检测。
S3、根据局部二值模式的编码规则,对人脸表情图像提取纹理特征,特征值用d表示。
S4、将局部二值模式编码图与表情灰度图像进行基于像素灰度值加权平均方法的融合,融合后像素值记为:
x=(x1,x2,...,xn) (1)
公式(1)中,n为融合后表情图像的像素值宽度。
S5、将融合后的图像输入到CNN模型的第一层卷积层,输出用h1,α表示:
Figure BDA0002235318890000011
公式(2)中,第α个卷积面h1,α的卷积核为w1,α、偏置为b1,α,公式(3)中,R(x)为激活函数。
R(x)=ReLU(x)=max(0,x) (3)
S6、重复步骤S5,卷积2-3次。将卷积后的输出,输入进池化层中,用h2,α表示。
Figure BDA0002235318890000012
公式(4)中,第α个池化面h2,α是通过对h1,α的下采样计算的。
S7、重复S5和S6操作n次,其输出进入全连接层中,用hn+1表示。
hn+1=R(∑αWn+1,αh2,α+bn+1) (5)
S8、将全连接层输出到CNN输出层中,用o表示,计算得出表情识别概率。
o=softmax(Wn+2hn+1+bn+2) (6)
公式(6)中,Wn+2为权值矩阵。
优先地,步骤S3中所述局部二值模型通过比较中心像素点与邻域8个相邻域(即pc和pi(i=0,1,…,7))的灰度值大小。当中心像素点的灰度值大于邻域的8个的灰度值时,记为1,反之记为0。将获得的数值按顺时针方向连接成8位二进制数,然后将二进制编码数转换为十进制编码数,得到中心像素点的局部二值模式的编码值,如公式(7)和(8)所示:
Figure BDA0002235318890000021
Figure BDA0002235318890000022
公式(7)中,pc是中心像素点(xc,yc)的灰度值,pi是K邻域中第i个点的灰度值。公式(8)中,f(x)为符号函数。
优先地,步骤S4中对于输入的图像每一位置的像素值,确定权值比重,对其线性加权计算,如式(9)和(10)所示:
Figure BDA0002235318890000023
Figure BDA0002235318890000024
在(9)中,In(i,j)为任意位置的灰度值,融合后该位置的像素标记为I(i,j),公式(10)表示的权重系数之和为1。其中,取N=2为两张图像进行融合,融合后的像素值为:
I(d1,o1)=w*d+(1-w)*o (11)
公式(11)中,局部二值模型进行特征提取后任一位置的像素值记为d,表情灰度原图像的任一位置的像素值记为o,融合权重为w,图像融合后该位置的像素为I(d1,o1)。
优先地,步骤S5-S8采用反向传播算法,学习步骤的伪代码算法如下所示:
输入:训练集{(xl,yl),1≤l≤L},学习率η,网络结构,迭代次数epoch
输出:所有权值和偏置
Figure BDA0002235318890000025
本发明的一种基于图像融合与卷积神经网络结合的人脸表情识别方法,与现有技术相比具有以下优点。
本发明能够有效地提高图像信息利用率。由以上技术方案可以看出,图像融合将局部二值模式提取的特征图与表情灰度图像进行像素灰度值加权平均融合,图像局部纹理特征信息丰富、图像利用率高、具有旋转不变性及灰度不变性。
本发明使用卷积神经网络进行人脸表情识别,其可以自动地学习人脸表情特征,减小手工提取特征的复杂程度。
本发明设计16层结构的卷积神经网络模型,避免因为卷积神经网络模型复杂导致运算缓慢和过拟合现象的发生,同时保证了人脸表情识别率。
本发明具有较好的鲁棒性。当样本个数较小时,实验结果优于传统人脸表情识别方法。
附图说明
图1为本发明实施例的流程框图。
图2为JAFFE人脸数据库示意图。
图3为CK+人脸数据库示意图。
图4为图像预处理结果图。
图5为局部二值模式特征提取流程图。
图6为像素灰度值加权平均算法示意图。
图7为人脸表情图像融合结果示意图。
图8为JAFFE表情库不同卷积层数对识别率的影响示意图。
图9为CK+表情库不同卷积层数对识别率的影响示意图。
图10为JAFFE不同融合权值下对识别率的影响示意图。
图11为CK+不同融合权值下对识别率的影响示意图。
图12为人脸表情识别不同方法在JAFFE和CK+上的对比实验结果
图13为不同样本条件下,JAFFE数据库中,多种方法对比试验结果。
图14为不同样本条件下,CK+数据库中,多种方法对比试验结果。
具体实施方式
为使本发明的技术方案、特征及技术效果更加清楚明白,以下将参考附图详细结合示例性的实施例对本发明的技术方案进行更加清楚、具体的描述,本发明的技术方案步骤如图1所示。
实施例。
步骤一:获取人脸表情图像;本发明所采用的的人脸表情图像是从JAFFE人脸表情数据库和CK+人脸表情数据库这两个常用人脸表情数据库中下载的,其人脸图像示意图依次如图2及图3所示。
步骤二:将所有的人脸表情图像分为训练集和测试集,并对其进行图像预处理。包括数据增强:随机旋转小角度和随即翻转。归一化:数值归一化和尺寸归一化。人脸检测:Haar-like框架。如图4所示
步骤三:利用局部二值模式的编码规则,对人脸表情图像提取纹理特征值,特征值用d表示,其局部二值模式特征提取流程图如图5所示。
步骤四:将局部二值模式提取的特征图与表情灰度图像进行基于像素灰度值加权平均方法的融合。图像融合示意图如图6所示,融合结果如图7所示。
步骤五:将融合后的图像输入到CNN模型的第一层卷积层,卷积核为3×3,,步长为1。
步骤六:重复步骤S5,卷积2-3次。将卷积后的输出,输入进池化层中,池化方式选取最大池化,池化窗大小为2×2,步长为2。
步骤七:重复步骤五和六n次(n由步骤几实验确定),将输出输入至全连接层中。卷积神经网络采用反向传播算法,将人脸表情训练集输入,设置学习率为0.001,迭代次数为100。首先进行权重W的随机初始化;而后进行迭代,每次迭代中,通过链式法则计算反向传播误差,然后计算梯度;若梯度的模足够小,则停止;否则用学习率和梯度重新更新权重和偏置。
步骤八:将全连接层的输出到卷积神经网络输出层中,用softmax分类器计算表情识别概率。
综上所述,本发明实施例(FERFC)能够对人脸表情图像进行有效地分类,通过对JAFFE和CK+人脸表情库进行实验验证,识别准确率达到95.65%。首先发明进行卷积层数实验,卷积层数会影响表情识别率。若卷积层数过多,会导致CNN模型过拟合;卷积层数过少,会导致表情特征提取不全面,达不到预期效果。卷积层数选取实验结果在JAFFE和CK+上的结果如图8和9所示。然后进行图像融合权值选取实验,取权值α为LBP图像的权重,α每次递增0.1。当α=0时,为表情灰度图像。α=1时,为LBP特征提取图像,实验结果在JAFFE和CK+上的结果如图10和11所示,本发明与其他传统人脸表情识别方法(基于卷积神经网络的人脸表情识别(FERCN)和基于局部二值模式和卷积神经网络结合(FERLC)的人脸表情识别)的对比试验结果如图12所示。最后验证本发明的鲁棒性,取最佳权值α,当样本数量较少时,实验对比结果在JAFFE和CK+上的结果如图13和14所示。由于实施例相似于方法步骤,所以描述得比较简单,以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。

Claims (4)

1.一种基于图像融合和卷积神经网络结合的人脸表情识别方法,其特征在于,该方法包括如下步骤:
S1、获取人脸表情图像:从人脸表情图像库中下载人脸表情图像;
S2、图像预处理:将人脸表情数据集分为测试集和训练集,对训练集和测试集分别进行数据增强、归一化和人脸检测;
S3、根据局部二值模式的编码规则,对人脸表情图像提取纹理特征,特征值用d表示;
S4、将局部二值模式提取的特征图与表情灰度图像进行基于像素灰度值加权平均融合,融合后像素值记为:
x=(x1,x2,...,xn) (1)
公式(1)中,n为融合后表情图像的像素值宽度;
S5、将融合后的图像输入到CNN模型的第一层卷积层,输出用h1,α表示:
Figure FDA0002235318880000011
公式(2)中,第α个卷积面h1,α的卷积核为w1,α、偏置为b1,α;公式(3)中,R(x)为激活函数;
R(x)=ReLU(x)=max(0,x) (3)
S6、重复步骤S5,卷积2-3次,将卷积后的输出,输入进池化层中,用h2,α表示:
Figure FDA0002235318880000012
公式(4)中,第α个池化面h2,α是通过对h1,α的下采样计算的;
S7、重复S5和S6操作n次,其输出进入全连接层中,用hn+1表示,如公式(5):
hn+1=R(∑αWn+1,αh2,α+bn+1) (5)
S8、将全连接层输出到CNN输出层中,用o表示,计算得出表情识别概率;
o=softmax(Wn+2hn+1+bn+2) (6)
公式(6)中,Wn+2为权值矩阵。
2.根据权利要求1所述的基于图像融合和卷积神经网络结合的人脸表情识别方法,其特征在于:步骤S3中所述局部二值模型通过比较中心像素点与邻域8个相邻域(即pc和pi(i=0,1,…,7))的灰度值大小;当中心像素点的灰度值大于邻域的8个的灰度值时,记为1,反之记为0;将获得的数值按顺时针方向连接成8位二进制数,然后将二进制编码数转换为十进制编码数,得到中心像素点的局部二值模的编码值,如公式(7)和(8)所示:
Figure FDA0002235318880000013
Figure FDA0002235318880000014
公式(7)中,pc是中心像素点(xc,yc)的灰度值,pi是K邻域中第i个点的灰度值;公式(8)中,f(x)为符号函数。
3.根据权利要求1所述的基于图像融合和卷积神经网络结合的人脸表情识别方法,其特征在于:步骤S4中对于输入的图像每一位置的像素值,确定权值比重,对其线性加权计算,如式(9)和(10)所示:
Figure FDA0002235318880000015
Figure FDA0002235318880000016
在(9)中,In(i,j)为任意位置的灰度值,融合后该位置的像素标记为I(i,j),公式(10)表示的权重系数之和为1;其中,取N=2为两张图像进行融合,融合后的像素值为:
I(d1,o1)=w*d+(1-w)*o (11)
式(11)中,局部二值模型进行特征提取后任一位置的像素值记为d,表情灰度原图像的任一位置的像素值记为o,融合权重为w,图像融合后该位置的像素为I(d1,o1)。
4.根据权利要求1所述的基于图像融合和卷积神经网络结合的人脸表情识别方法,其特征在于:步骤S5-S8采用反向传播算法,学习算法伪代码步骤如下所示:
输入:训练集{(xl,yl),1≤l≤L},学习率η,网络结构,迭代次数epoch;
输出:所有权值和偏置;
Figure FDA0002235318880000021
CN201910985912.1A 2019-10-16 2019-10-16 一种基于图像融合与卷积神经网络结合的人脸表情识别方法 Pending CN112668378A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910985912.1A CN112668378A (zh) 2019-10-16 2019-10-16 一种基于图像融合与卷积神经网络结合的人脸表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910985912.1A CN112668378A (zh) 2019-10-16 2019-10-16 一种基于图像融合与卷积神经网络结合的人脸表情识别方法

Publications (1)

Publication Number Publication Date
CN112668378A true CN112668378A (zh) 2021-04-16

Family

ID=75400700

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910985912.1A Pending CN112668378A (zh) 2019-10-16 2019-10-16 一种基于图像融合与卷积神经网络结合的人脸表情识别方法

Country Status (1)

Country Link
CN (1) CN112668378A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553911A (zh) * 2021-06-25 2021-10-26 复旦大学 融合surf特征和卷积神经网络的小样本人脸表情识别方法
CN113792572A (zh) * 2021-06-17 2021-12-14 重庆邮电大学 一种基于局部表征的面部表情识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792572A (zh) * 2021-06-17 2021-12-14 重庆邮电大学 一种基于局部表征的面部表情识别方法
CN113553911A (zh) * 2021-06-25 2021-10-26 复旦大学 融合surf特征和卷积神经网络的小样本人脸表情识别方法

Similar Documents

Publication Publication Date Title
El-Sawy et al. Arabic handwritten characters recognition using convolutional neural network
CN110189334B (zh) 基于注意力机制的残差型全卷积神经网络的医学图像分割方法
US11645835B2 (en) Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications
CN109471895B (zh) 电子病历表型抽取、表型名称规范化方法及系统
Ahmad et al. Offline Urdu Nastaleeq optical character recognition based on stacked denoising autoencoder
CN110188827B (zh) 一种基于卷积神经网络和递归自动编码器模型的场景识别方法
CN111639558A (zh) 一种基于ArcFace Loss和改进残差网络的指静脉身份验证方法
CN111898461B (zh) 一种时序行为片段生成方法
CN111310766A (zh) 基于编解码和二维注意力机制的车牌识别方法
CN111079514A (zh) 一种基于clbp和卷积神经网络的人脸识别方法
CN113920516B (zh) 一种基于孪生神经网络的书法字骨架匹配方法及系统
CN110969089A (zh) 噪声环境下的轻量级人脸识别系统及识别方法
CN112668378A (zh) 一种基于图像融合与卷积神经网络结合的人脸表情识别方法
CN116258874A (zh) 基于深度条件扩散网络的sar识别数据库样本姿态扩充方法
Wang et al. Building correlations between filters in convolutional neural networks
CN111310820A (zh) 基于交叉验证深度cnn特征集成的地基气象云图分类方法
CN114882278A (zh) 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置
CN108470209B (zh) 一种基于格拉姆矩阵正则化的卷积神经网可视化方法
CN113870286A (zh) 一种基于多级特征和掩码融合的前景分割方法
CN111814693A (zh) 一种基于深度学习的海上船舶识别方法
CN116434347A (zh) 一种基于掩码图自编码器的骨架序列识别方法及系统
CN116977694A (zh) 一种基于不变特征提取的高光谱对抗样本防御方法
CN116503320A (zh) 高光谱图像异常检测方法、装置、设备及可读存储介质
CN113392814B (zh) 一种字符识别模型的更新方法、装置及存储介质
KR102538209B1 (ko) 얼굴 인식을 위한 심층 소프트맥스 협업 표현 분류 장치 및 그 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210416