CN103488974A - 基于模拟生物视觉神经网络的人脸表情识别方法及系统 - Google Patents
基于模拟生物视觉神经网络的人脸表情识别方法及系统 Download PDFInfo
- Publication number
- CN103488974A CN103488974A CN201310419079.7A CN201310419079A CN103488974A CN 103488974 A CN103488974 A CN 103488974A CN 201310419079 A CN201310419079 A CN 201310419079A CN 103488974 A CN103488974 A CN 103488974A
- Authority
- CN
- China
- Prior art keywords
- facial expression
- image
- histogram
- expression image
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明提出一种基于模拟生物视觉神经网络的人脸表情识别方法及系统,其中方法包括以下步骤:构造表情图像库,并对表情图像库中的原始人脸图像进行归一化以得到表情图像;提取表情图像的局部二值化直方图特征和梯度直方图描述子;分别根据表情图像和局部二值化直方图特征以及表情图像和梯度直方图描述子构造第一分类器和第二分类器;以及对第一分类器的分类结果和第二分类器的分类结果进行融合以识别表情图像的表情。根据本发明实施例的方法,通过表情图像的二值化直方图特征和梯度直方图描述子构造两个分类器,并对两个分类器的分类结果进行融合对表情图像进行精确的识别,提高了识别的准确率和鲁棒性,同时识别结果的融合增加了识别的可扩展性。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种基于模拟生物视觉神经网络的人脸表情识别方法及系统。
背景技术
人脸表情识别技术能够让计算机做到看人的脸色行事,从而营造真正和谐的人机环境。表情识别方法主要包含两个步骤:特征提取和分类器构建。常用的特征提取方法为:Haar特征、LBP特征、Gabor特征、SIF。常用的分类器构建方法为:神经网络、支持向量机、Adaboost、主成分分析、隐马尔科夫模型。传统的表情识别方法在人脸表情识别中得到了广泛的应用,尤其在识别干净人脸图像时可以达到非常好的效果。但是在实际的识别过程中人脸表情图像可能存在遮挡和噪声,例如,在照相的过程中后排人脸很容易被前排人的肩膀或者手部分遮挡;相机在采集人脸图像由于受到光学设备影响会产生马赛克等噪声。因此研究出一种鲁棒的人脸表情识别方法成为一个难题。近年来,针对这一难题有许多的文献和专利提出了鲁棒的表情分类方法,其主要流程为对人脸表情图像进行分区,对每个小的分区提取常用特征,然后将这些局部特征与传统的分类方法结合构成新的表情识别方法,由于提取了大量的面部局部特征,传统的分类器能够通过人脸中非遮挡部位的特征信息对表情进行分类,因此对遮挡具有一定的鲁棒性。但是这一流程仍然只是传统模式识别方法的一种扩展,并且存在以下两种缺陷:(1)局部特征提取的方法非常多样且缺乏理论依据;(2)传统的模式识别方法依赖局部特征提供的信息达到对遮挡的鲁棒,而其本身并不能够对遮挡和噪声鲁棒。
由于人眼的视觉神经系统能够非常轻易的消除表情识别中的遮挡与噪声的影响,因此模拟生物视觉系统的表情识别方法不但提出了一种有别于传统表情识别方法的理论框架,而且解决了一些经典模式识别方法中容易受到噪声和遮挡影响的固有缺陷,提出了一套解决表情识别中能够对遮挡和噪声的鲁棒的新方法和新技术。辐射编码模型为模拟生物对刺激图像的视网膜到视觉皮层的映射过程,因此采用辐射编码模型来提取人脸表情图像的局部特征解决了传统鲁棒表情识别方法中局部特征提取方法缺乏理论依据的缺陷;而基于稀疏编码的分类方法是一种模拟生物视觉感知系统的分类器,稀疏编码认为每幅图像都可以看成是多个基函数的线性组合,当图像在某一频率和方向上有最明显的特征时,与之对应的神经元会有最大的响应,因此基于稀疏编码的分类方法具有人眼视觉系统的特性能够对部分遮挡鲁棒。
发明内容
本发明的目的旨在至少解决上述的技术缺陷之一。
为此,本发明的一个目的在于提出一种基于模拟生物视觉神经网络的人脸表情识别方法。所述人脸表情识别方法具有识别的准确率高的优点。
本发明的另一目的在于提出一种基于模拟生物视觉神经网络的人脸表情识别系统。
为达到上述目的,本发明一方面的实施例提出一种基于模拟生物视觉神经网络的人脸表情识别方法,包括以下步骤:构造表情图像库,并对所述表情图像库中的原始人脸图像进行归一化以得到表情图像;提取所述表情图像的局部二值化直方图特征和梯度直方图描述子;分别根据所述表情图像和所述局部二值化直方图特征以及所述表情图像和所述梯度直方图描述子构造第一分类器和第二分类器;以及对所述第一分类器的分类结果和所述第二分类器的分类结果进行融合以识别所述表情图像的表情。
根据本发明实施例的方法,通过表情图像的二值化直方图特征和梯度直方图描述子构造两个分类器,并对两个分类器的分类结果进行融合对表情图像进行精确的识别,提高了识别的准确率和鲁棒性,同时识别结果的融合增加了识别的可扩展性。
在本发明的一个实施例中,所述提取所述表情图像的局部二值化直方图特征,具体包括:通过二值化算子计算所述表情图像的二值化特征;将所述表情图像分割成多个图像块,并使相邻图像块部分重叠;以及连接所述多个图像块的二值化特征,以获得局部二值化直方图特征。
在本发明的一个实施例中,所述提取所述表情图像的梯度直方图描述子,具体包括:将所述表情图像转化为灰度图,并计算所述灰度图的梯度;将所述灰度图分割成多个单元格,并选择在单元格梯度投影中梯度直方图的方向,其中,所述多个单元格的相邻单元格部分重叠;以及对所述多个单元格的梯度进行归一化,并根据所述梯度直方图的方向获得梯度直方图描述子。
在本发明的一个实施例中,所述第一分类器和第二分类器分别根据稀疏编码系数对所述表情图像进行分类。
在本发明的一个实施例中,所述表情图像的表情包括:愤怒、厌恶、恐惧、高兴、悲伤和惊讶。
为达到上述目的,本发明的实施例另一方面提出一种基于模拟生物视觉神经网络的人脸表情识别系统,包括:归一化模块,用于构造表情图像库,并对所述表情图像库中的原始人脸图像进行归一化以得到表情图像;提取模块,用于提取所述表情图像的局部二值化直方图特征和梯度直方图描述子;构造模块,用于分别根据所述表情图像和所述局部二值化直方图特征以及所述表情图像和所述梯度直方图描述子构造第一分类器和第二分类器;以及识别模块,用于对所述第一分类器的分类结果和所述第二分类器的分类结果进行融合以识别所述表情图像的表情。
在本发明的一个实施例中,所述提取模块进一步包括:计算单元,用于通过二值化算子计算所述表情图像的二值化特征;第一分割单元,用于将所述表情图像分割成多个图像块,并使相邻图像块部分重叠;以及第一获取单元,用于连接所述多个图像块的二值化特征,以获得局部二值化直方图特征。
根据本发明实施例的系统,通过表情图像的二值化直方图特征和梯度直方图描述子构造两个分类器,并对两个分类器的分类结果进行融合对表情图像进行精确的识别,提高了识别的准确率和鲁棒性,同时识别结果的融合增加了识别的可扩展性。
在本发明的一个实施例中,所述提取模块进一步还包括:转化单元,用于将所述表情图像转化为灰度图,并计算所述灰度图的梯度;第二分割单元,用于将所述灰度图分割成多个单元格,并选择在单元格梯度投影中梯度直方图的方向,其中,所述多个单元格的相邻单元格部分重叠;以及第二获取单元,用于对所述多个单元格的梯度进行归一化,并根据所述梯度直方图的方向获得梯度直方图描述子。
在本发明的一个实施例中,所述构造模块还用于根据稀疏编码系数对所述表情图像进行分类。
在本发明的一个实施例中,所述表情图像的表情包括:愤怒、厌恶、恐惧、高兴、悲伤和惊讶。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于模拟生物视觉神经网络的人脸表情识别方法的流程图;
图2为根据本发明一个实施例的基于模拟生物视觉神经网络的人脸表情识别的示意图;
图3为根据本发明一个实施例的通过辐射编码模型和稀疏编码模拟生物视觉处理表情图像的示意图;
图4为根据本发明一个实施例的提取表情图像LBP特征所采用的LBP算子的示意图;以及
图5为根据本发明一个实施例的基于模拟生物视觉神经网络的人脸表情识别系统结构框图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
图1为根据本发明一个实施例的基于模拟生物视觉神经网络的人脸表情识别方法的流程图。图2为根据本发明一个实施例的基于模拟生物视觉神经网络的人脸表情识别的示意图。如图1和图2所示,根据本发明实施例的基于模拟生物视觉神经网络的人脸表情识别方法包括以下步骤:
步骤101,构造表情图像库,并对表情图像库中的原始人脸图像进行归一化以得到表情图像。
在本发明的一个实施例中,由于亚洲人的表情比较内敛而欧美人的表情比较夸张,因此对于亚洲人采用JAFFE表情图像库,对于欧美人采用Cohn-Kanade表情图像库。
步骤102,提取表情图像的局部二值化直方图特征和梯度直方图描述子。
在本发明的一个实施例中,首先通过二值化算子计算表情图像的二值化特征。然后将表情图像分割成多个图像块,并使相邻图像块部分重叠。之后连接多个图像块的二值化特征,以获得局部二值化直方图特征。
图3为根据本发明一个实施例的通过辐射编码模型和稀疏编码模拟生物视觉处理表情图像的示意图。通过对表情图像进行处理以提取表情图像的LBP特征(即二值化特征)。逐行扫描表情图像库的原始人脸图像,并采用LBP算子对图像中的每一个像素点进行计算二值化图像,即以该点的灰度作为阈值,对其周围3×3的8邻域进行二值化,按照一定的顺序将二值化的结果组成一个8位二进制数,并以该二进制数的值作为该点的响应。其中,所选取的LBP算子如图4所示。
使用LBP算子计算后得到的LBP特征(即二值化特征)作为表情图像的一阶统计特征。由于一阶统计特征无法描述图像的结构信息,而图像各个区域的局部特征往往差异较大,如果仅对整个图像生成一个LBP直方图,这些局部的差异信息就会丢失。因此,需要采用辐射编码模型提取局部分区的LBP特征。具体地,将图像分割成4×4的小块,并将相邻小块之间具有25%的重叠,并对每个小块统计其灰度直方图,最后再将所有块的二值化直方图特征链接成一个复合的特征向量作为代表整个图像的LBP直方图特征。
在本发明的一个实施例中,将表情图像转化为灰度图,并计算灰度图的梯度。之后将灰度图分割成多个单元格,并选择在单元格梯度投影中梯度直方图的方向,其中,多个单元格的相邻单元格部分重叠。再对多个单元格的梯度进行归一化,并根据梯度直方图的方向获得梯度直方图描述子。
具体地,提取HOG特征主要包括以下几步:
第一步,标准化Gamma空间和颜色空间。
为了减少光照因素的影响,首先需要将整个图像进行规范化。在图像的纹理强度中,局部的表层曝光贡献的比重较大,所以,这种压缩处理能够有效地降低图像局部的阴影和光照变化。因为颜色信息作用不大,通常先转化为灰度图。Gamma压缩公式为,I(x,y)=I(x,y)gamma,其中,I(x,y)为图像中位于x,y位置处的灰度值,x,y分别为图像的横坐标和纵坐标,单位为像素,gamma为一个系数可以按照需求设定。
第二步,计算梯度。
在这里我们采用3×3的Sobel算子来计算梯度。Sobel算子是一阶导数的边缘检测算子,在算法实现过程中,通过3×3模板作为该图像中的每个像素点做卷积和运算,然后选取合适的阈值以提取边缘。
Sobel算子主要包含两组3×3的矩阵,分辨为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值。如果以A表示原始图像,GX和GY分别表示经横向及纵向边缘检测的图像,其公式如下:
第三步,采用辐射编码模型将图像窗口分割成多个小区域,即多个单元格。然后将每个单元格中所有像素的一维梯度直方图或者边缘方向累加。将基本方向直方图映射到固定的角度上,就形成了最终的梯度特征。其中,将表情图像分割成961个单元格,每个单元格大小为4×4,并且相邻的单元格具有50%的重叠。在实际应用中考虑到耗时和信息冗余等因素,因此在单元格梯度投影中直方图方向的选择也很重要。直方图的方向不宜选取的过多,在本发明中选取的方向数量为9(360度平分)。
第四步,对多个单元格进行归一化以获得梯度直方图描述子。归一化能够进一步地对光照、阴影和边缘进行压缩。通常,每个单元格由多个不同的块共享,但它的归一化是基于不同块的,所以计算结果也不一样。因此,一个单元格的特征会以不同的结果多次出现在最后的向量中。将归一化之后的块描述符称之为HOG描述符。在这里我们的每个块取2×2个单元格。将检测窗口中所有重叠的块进行梯度特征的提取,并将梯度特征结合成最终的特征向量即梯度直方图特征为分类表情图像而使用。
步骤103,分别根据表情图像和局部二值化直方图特征以及表情图像和梯度直方图描述子构造第一分类器和第二分类器。
第一分类器和第二分类器分别根据稀疏编码系数对表情图像进行分类。
具体地,输入一个测试样本y,并采用训练样本构造一个字典D。第二步,计算测试样本y和D中每个训练样本的梯度。第三步,从y和D提取二值化直方图特征和梯度直方图描述子,此时二值化直方图特征和梯度直方图描述子的提取过程可以看作是样本空间到特征空间的一个投影,以P来代表该投影方式。第四步,将P应用到公式的两端就可以得到,P·y=P·D·x,其中,x为稀疏编码系数。第五步,根据基于稀疏表达分类方法的理论,计算出稀疏编码系数x,min||x||1s.t.PDx=Py。第六步,通过稀疏编码系数x判别出测试样本y的归属的表情类别。identify(Py)=argmini||Py-PDδi(x)||2,其中,Py为测试样本的特征,PDδi(x)为根据稀疏编码系数重构后图像的特征,i表示表情的类别。
步骤104,对第一分类器的分类结果和第二分类器的分类结果进行融合以识别表情图像的表情。表情图像的表情包括:愤怒、厌恶、恐惧、高兴、悲伤和惊讶。
具体地,采用基于贝叶斯理论的多分类器融合方法,将第一分类器和第二分类器的识别结果进行决策上的融合,从而得到表情图像的最终识别结果。其融合过程为,将第一分类器和第二分类器的识别率作为后验概率P(wk|xi),其中,k表示表情的类别,i表示不同分类器得出的最终结果矩阵,最后根据贝叶斯理论采用Sum规则将两个分类器的结果进行决策级上的融合并对待识别的人脸表情图像Y进行最终分类。将Y归为wj类当且仅当: 其中,wj表示某一类表情,wk表示所有表情类别,xi表示第i个分类器的结果,R表示分类器的个数,P(wj|xi)表示第i个分类器结果中将Y判别为wj类的识别率。
由于两个分类器都使用基于稀疏编码的分类方法,因此具有相同的先验概率P(wk)。
根据本发明实施例的方法,通过表情图像的二值化直方图特征和梯度直方图描述子构造两个分类器,并对两个分类器的分类结果进行融合对表情图像进行精确的识别,提高了识别的准确率和鲁棒性,同时识别结果的融合增加了识别的可扩展性。
图5为根据本发明一个实施例的基于模拟生物视觉神经网络的人脸表情识别系统结构框图。如图5所示,根据本发明实施例的基于模拟生物视觉神经网络的人脸表情识别系统包括:归一化模块100、提取模块200、构造模块300和识别模块400。
其中,归一化模块100用于构造表情图像库,并对表情图像库中的原始人脸图像进行归一化以得到表情图像。
提取模块200用于提取表情图像的局部二值化直方图特征和梯度直方图描述子。
在本发明的一个实施例中,提取模块200具体包括:计算单元210、第一分割单元220、第一获取单元230、转化单元240、第二分割单元250、第二获取单元260。
计算单元210用于通过二值化算子计算表情图像的二值化特征。
第一分割单元220用于将表情图像分割成多个图像块,并使相邻图像块部分重叠。
第一获取单元230用于连接多个图像块的二值化特征,以获得局部二值化直方图特征。
转化单元240用于将表情图像转化为灰度图,并计算灰度图的梯度。
第二分割单元250用于将灰度图分割成多个单元格,并选择在单元格梯度投影中梯度直方图的方向,其中,多个单元格的相邻单元格部分重叠。
第二获取单元260用于对多个单元格的梯度进行归一化,并根据梯度直方图的方向获得梯度直方图描述子。
在本发明的一个实施例中,计算单元210对表情图像进行处理以提取表情图像的LBP特征(即二值化特征)。逐行扫描表情图像库的原始人脸图像,并采用LBP算子对图像中的每一个像素点进行计算二值化图像,即以该点的灰度作为阈值,对其周围3×3的8邻域进行二值化,按照一定的顺序将二值化的结果组成一个8位二进制数,并以该二进制数的值作为该点的响应。其中,所选取的LBP算子如图4所示。
使用LBP算子计算后得到的LBP特征(即二值化特征)作为表情图像的一阶统计特征。第一分割单元220将表情图像分割成4×4的多个图像块,并将相邻图像块之间具有25%的重叠,并对每个图像块统计其灰度直方图。第一获取单元203再将所有块的二值化直方图特征链接成一个复合的特征向量作为代表整个图像的LBP直方图特征。
提取梯度直方图描述子的过程如下所示:
为了减少光照因素的影响,首先需要将整个图像进行规范化。在图像的纹理强度中,局部的表层曝光贡献的比重较大,所以,这种压缩处理能够有效地降低图像局部的阴影和光照变化。因为颜色信息作用不大,由转化单元240将表情图像转化为灰度图。Gamma压缩公式为,I(x,y)=I(x,y)gamma,其中,I(x,y)为图像位于x,y位置处的灰度值,x,y分别为图像的横坐标和纵坐标,单位为像素,gamma为一个系数可以按照需求设定。
采用3×3的Sobel算子来计算梯度。Sobel算子是一阶导数的边缘检测算子,在算法实现过程中,通过3×3模板作为该图像中的每个像素点做卷积和运算,然后选取合适的阈值以提取边缘。
Sobel算子主要包含两组3×3的矩阵,分辨为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值。如果以A表示原始图像,GX和GY分别表示经横向及纵向边缘检测的图像,其公式如下:
第二分割单250采用辐射编码模型将图像窗口分割成多个小区域,即多个单元格,并将每个单元格中所有像素的一维梯度直方图或者边缘方向累加。将基本方向直方图映射到固定的角度上,就形成了最终的梯度特征。其中,将表情图像分割成961个单元格,每个单元格大小为4×4,并且相邻的单元格具有50%的重叠。在单元格梯度投影中直方图方向的选择也很重要,在本发明中选取的方向数量为9(360度平分)。
第二获取单元对多个单元格的梯度进行度归一化以获得梯度直方图描述子。归一化能够进一步地对光照、阴影和边缘进行压缩。一个单元格的特征会以不同的结果多次出现在最后的向量中。将归一化之后的块描述符称之为HOG描述符。在这里我们的每个块取2×2个单元格。将检测窗口中所有重叠的块进行梯度特征的提取,并将梯度特征结合成最终的特征向量即梯度直方图特征为分类表情图像而使用。
构造模块300用于分别根据表情图像和局部二值化直方图特征以及表情图像和梯度直方图描述子构造第一分类器和第二分类器。构造模块300还用于根据稀疏编码系数对表情图像进行分类。
具体地,输入一个测试样本y,并采用训练样本构造一个字典D。第二步,计算测试样本y和D中每个训练样本的梯度。第三步,从y和D提取二值化直方图特征和梯度直方图描述子,此时二值化直方图特征和梯度直方图描述子的提取过程可以看作是样本空间到特征空间的一个投影,以P来代表该投影方式。第四步,将P应用到公式的两端就可以得到,P·y=P·D·x,其中,x为稀疏编码系数。第五步,根据基于稀疏表达分类方法的理论,计算出稀疏编码系数x,min||x||1s.t.PDx=Py。第六步,通过稀疏编码系数x判别出测试样本y的归属的表情分类。
识别模块400用于对第一分类器的分类结果和第二分类器的分类结果进行融合以识别表情图像的表情。
具体地,采用基于贝叶斯理论的多分类器融合方法,将第一分类器和第二分类器的识别结果进行决策上的融合,从而得到表情图像的最终识别结果。其融合过程为,将第一分类器和第二分类器的识别率作为后验概率P(wk|xi),其中,k表示表情的类别,i表示不同分类器得出的最终结果矩阵,最后根据贝叶斯理论采用Sum规则将两个分类器的结果进行决策级上的融合并对待识别的人脸表情图像Y进行最终分类。
根据本发明实施例的系统,通过表情图像的二值化直方图特征和梯度直方图描述子构造两个分类器,并对两个分类器的分类结果进行融合对表情图像进行精确的识别,提高了识别的准确率和鲁棒性,同时识别结果的融合增加了识别的可扩展性。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于模拟生物视觉神经网络的人脸表情识别方法,其特征在于,包括以下步骤:
构造表情图像库,并对所述表情图像库中的原始人脸图像进行归一化以得到表情图像;
提取所述表情图像的局部二值化直方图特征和梯度直方图描述子;
分别根据所述表情图像和所述局部二值化直方图特征以及所述表情图像和所述梯度直方图描述子构造第一分类器和第二分类器;以及
对所述第一分类器的分类结果和所述第二分类器的分类结果进行融合以识别所述表情图像的表情。
2.如权利要求1所述的基于模拟生物视觉神经网络的人脸表情识别方法,其特征在于,所述提取所述表情图像的局部二值化直方图特征,具体包括:
通过二值化算子计算所述表情图像的二值化特征;
将所述表情图像分割成多个图像块,并使相邻图像块部分重叠;以及
连接所述多个图像块的二值化特征,以获得局部二值化直方图特征。
3.如权利要求1所述的基于模拟生物视觉神经网络的人脸表情识别方法,其特征在于,所述提取所述表情图像的梯度直方图描述子,具体包括:
将所述表情图像转化为灰度图,并计算所述灰度图的梯度;
将所述灰度图分割成多个单元格,并选择在单元格梯度投影中梯度直方图的方向,其中,所述多个单元格的相邻单元格部分重叠;以及
对所述多个单元格的梯度进行归一化,并根据所述梯度直方图的方向获得梯度直方图描述子。
4.如权利要求1所述的基于模拟生物视觉神经网络的人脸表情识别方法,其特征在于,所述第一分类器和第二分类器分别根据稀疏编码系数对所述表情图像进行分类。
5.如权利要求1所述的基于模拟生物视觉神经网络的人脸表情识别方法,其特征在于,所述表情图像的表情包括:愤怒、厌恶、恐惧、高兴、悲伤和惊讶。
6.一种基于模拟生物视觉神经网络的人脸表情识别系统,其特征在于,包括:
归一化模块,用于构造表情图像库,并对所述表情图像库中的原始人脸图像进行归一化以得到表情图像;
提取模块,用于提取所述表情图像的局部二值化直方图特征和梯度直方图描述子;
构造模块,用于分别根据所述表情图像和所述局部二值化直方图特征以及所述表情图像和所述梯度直方图描述子构造第一分类器和第二分类器;以及
识别模块,用于对所述第一分类器的分类结果和所述第二分类器的分类结果进行融合以识别所述表情图像的表情。
7.如权利要求6所述的基于模拟生物视觉神经网络的人脸表情识别系统,其特征在于,所述提取模块进一步包括:
计算单元,用于通过二值化算子计算所述表情图像的二值化特征;
第一分割单元,用于将所述表情图像分割成多个图像块,并使相邻图像块部分重叠;以及
第一获取单元,用于连接所述多个图像块的二值化特征,以获得局部二值化直方图特征。
8.如权利要求6所述的基于模拟生物视觉神经网络的人脸表情识别系统,其特征在于,所述提取模块进一步还包括:
转化单元,用于将所述表情图像转化为灰度图,并计算所述灰度图的梯度;
第二分割单元,用于将所述灰度图分割成多个单元格,并选择在单元格梯度投影中梯度直方图的方向,其中,所述多个单元格的相邻单元格部分重叠;以及
第二获取单元,用于对所述多个单元格的梯度进行归一化,并根据所述梯度直方图的方向获得梯度直方图描述子。
9.如权利要求6所述的基于模拟生物视觉神经网络的人脸表情识别系统,其特征在于,所述构造模块还用于根据稀疏编码系数对所述表情图像进行分类。
10.如权利要求6所述的基于模拟生物视觉神经网络的人脸表情识别系统,其特征在于,所述表情图像的表情包括:愤怒、厌恶、恐惧、高兴、悲伤和惊讶。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310419079.7A CN103488974A (zh) | 2013-09-13 | 2013-09-13 | 基于模拟生物视觉神经网络的人脸表情识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310419079.7A CN103488974A (zh) | 2013-09-13 | 2013-09-13 | 基于模拟生物视觉神经网络的人脸表情识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103488974A true CN103488974A (zh) | 2014-01-01 |
Family
ID=49829183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310419079.7A Pending CN103488974A (zh) | 2013-09-13 | 2013-09-13 | 基于模拟生物视觉神经网络的人脸表情识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103488974A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971095A (zh) * | 2014-05-09 | 2014-08-06 | 西北工业大学 | 基于多尺度lbp和稀疏编码的大规模人脸表情识别方法 |
CN104284252A (zh) * | 2014-09-10 | 2015-01-14 | 康佳集团股份有限公司 | 一种自动生成电子相册的方法 |
CN105139004A (zh) * | 2015-09-23 | 2015-12-09 | 河北工业大学 | 基于视频序列的人脸表情识别方法 |
CN105844221A (zh) * | 2016-03-18 | 2016-08-10 | 常州大学 | 一种基于Vadaboost筛选特征块的人脸表情识别方法 |
CN106485219A (zh) * | 2016-10-11 | 2017-03-08 | 吉林大学 | 格拉斯曼流形上基于原型和Simile的表情识别方法 |
CN107194371A (zh) * | 2017-06-14 | 2017-09-22 | 易视腾科技股份有限公司 | 基于层次化卷积神经网络的用户专注度识别方法及系统 |
CN107423727A (zh) * | 2017-08-14 | 2017-12-01 | 河南工程学院 | 基于神经网络的人脸复杂表情识别方法 |
CN107506718A (zh) * | 2017-08-17 | 2017-12-22 | 南昌航空大学 | 基于mb‑2dpca特征的人脸表情识别方法 |
CN107506725A (zh) * | 2017-08-22 | 2017-12-22 | 杭州远鉴信息科技有限公司 | 基于神经网络的高压隔离开关定位与状态图像识别算法 |
CN107742117A (zh) * | 2017-11-15 | 2018-02-27 | 北京工业大学 | 一种基于端到端模型的人脸表情识别方法 |
CN107886110A (zh) * | 2017-10-23 | 2018-04-06 | 深圳云天励飞技术有限公司 | 人脸检测方法、装置及电子设备 |
CN108009478A (zh) * | 2017-11-17 | 2018-05-08 | 天津大学 | 一种基于局部特征投影的表情识别方法 |
CN109165551A (zh) * | 2018-07-13 | 2019-01-08 | 广东工业大学 | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 |
WO2019033573A1 (zh) * | 2017-08-17 | 2019-02-21 | 平安科技(深圳)有限公司 | 面部情绪识别方法、装置及存储介质 |
CN109753942A (zh) * | 2019-01-14 | 2019-05-14 | 河南理工大学 | 基于空间金字塔fhog特征的人脸表情识别方法和装置 |
CN110249360A (zh) * | 2017-02-01 | 2019-09-17 | 三星电子株式会社 | 用于推荐产品的装置和方法 |
CN110569741A (zh) * | 2019-08-19 | 2019-12-13 | 昆山琪奥智能科技有限公司 | 一种基于人工智能的表情识别系统 |
CN110569742A (zh) * | 2019-08-19 | 2019-12-13 | 昆山琪奥智能科技有限公司 | 一种微表情分析研判系统 |
CN111128178A (zh) * | 2019-12-31 | 2020-05-08 | 上海赫千电子科技有限公司 | 一种基于面部表情分析的语音识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101699470A (zh) * | 2009-10-30 | 2010-04-28 | 华南理工大学 | 一种对人脸图片进行笑脸识别的提取方法 |
CN101777131B (zh) * | 2010-02-05 | 2012-05-09 | 西安电子科技大学 | 双模人脸识别方法及装置 |
CN101950355B (zh) * | 2010-09-08 | 2012-09-05 | 中国人民解放军国防科学技术大学 | 基于数字视频的驾驶员疲劳状态检测方法 |
CN101968853B (zh) * | 2010-10-15 | 2013-06-05 | 吉林大学 | 基于改进的免疫算法优化支持向量机参数的表情识别方法 |
-
2013
- 2013-09-13 CN CN201310419079.7A patent/CN103488974A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101699470A (zh) * | 2009-10-30 | 2010-04-28 | 华南理工大学 | 一种对人脸图片进行笑脸识别的提取方法 |
CN101777131B (zh) * | 2010-02-05 | 2012-05-09 | 西安电子科技大学 | 双模人脸识别方法及装置 |
CN101950355B (zh) * | 2010-09-08 | 2012-09-05 | 中国人民解放军国防科学技术大学 | 基于数字视频的驾驶员疲劳状态检测方法 |
CN101968853B (zh) * | 2010-10-15 | 2013-06-05 | 吉林大学 | 基于改进的免疫算法优化支持向量机参数的表情识别方法 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971095B (zh) * | 2014-05-09 | 2017-02-01 | 西北工业大学 | 基于多尺度lbp和稀疏编码的大规模人脸表情识别方法 |
CN103971095A (zh) * | 2014-05-09 | 2014-08-06 | 西北工业大学 | 基于多尺度lbp和稀疏编码的大规模人脸表情识别方法 |
CN104284252A (zh) * | 2014-09-10 | 2015-01-14 | 康佳集团股份有限公司 | 一种自动生成电子相册的方法 |
CN105139004B (zh) * | 2015-09-23 | 2018-02-06 | 河北工业大学 | 基于视频序列的人脸表情识别方法 |
CN105139004A (zh) * | 2015-09-23 | 2015-12-09 | 河北工业大学 | 基于视频序列的人脸表情识别方法 |
CN105844221A (zh) * | 2016-03-18 | 2016-08-10 | 常州大学 | 一种基于Vadaboost筛选特征块的人脸表情识别方法 |
CN106485219A (zh) * | 2016-10-11 | 2017-03-08 | 吉林大学 | 格拉斯曼流形上基于原型和Simile的表情识别方法 |
CN110249360A (zh) * | 2017-02-01 | 2019-09-17 | 三星电子株式会社 | 用于推荐产品的装置和方法 |
US11151453B2 (en) | 2017-02-01 | 2021-10-19 | Samsung Electronics Co., Ltd. | Device and method for recommending product |
CN107194371A (zh) * | 2017-06-14 | 2017-09-22 | 易视腾科技股份有限公司 | 基于层次化卷积神经网络的用户专注度识别方法及系统 |
CN107194371B (zh) * | 2017-06-14 | 2020-06-09 | 易视腾科技股份有限公司 | 基于层次化卷积神经网络的用户专注度识别方法及系统 |
CN107423727A (zh) * | 2017-08-14 | 2017-12-01 | 河南工程学院 | 基于神经网络的人脸复杂表情识别方法 |
CN107506718A (zh) * | 2017-08-17 | 2017-12-22 | 南昌航空大学 | 基于mb‑2dpca特征的人脸表情识别方法 |
WO2019033573A1 (zh) * | 2017-08-17 | 2019-02-21 | 平安科技(深圳)有限公司 | 面部情绪识别方法、装置及存储介质 |
CN107506725A (zh) * | 2017-08-22 | 2017-12-22 | 杭州远鉴信息科技有限公司 | 基于神经网络的高压隔离开关定位与状态图像识别算法 |
CN107886110A (zh) * | 2017-10-23 | 2018-04-06 | 深圳云天励飞技术有限公司 | 人脸检测方法、装置及电子设备 |
CN107742117A (zh) * | 2017-11-15 | 2018-02-27 | 北京工业大学 | 一种基于端到端模型的人脸表情识别方法 |
CN108009478B (zh) * | 2017-11-17 | 2020-03-06 | 天津大学 | 一种基于局部特征投影的表情识别方法 |
CN108009478A (zh) * | 2017-11-17 | 2018-05-08 | 天津大学 | 一种基于局部特征投影的表情识别方法 |
CN109165551A (zh) * | 2018-07-13 | 2019-01-08 | 广东工业大学 | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 |
CN109165551B (zh) * | 2018-07-13 | 2021-08-31 | 广东工业大学 | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 |
CN109753942A (zh) * | 2019-01-14 | 2019-05-14 | 河南理工大学 | 基于空间金字塔fhog特征的人脸表情识别方法和装置 |
CN109753942B (zh) * | 2019-01-14 | 2022-11-04 | 河南理工大学 | 基于空间金字塔fhog特征的人脸表情识别方法和装置 |
CN110569741A (zh) * | 2019-08-19 | 2019-12-13 | 昆山琪奥智能科技有限公司 | 一种基于人工智能的表情识别系统 |
CN110569742A (zh) * | 2019-08-19 | 2019-12-13 | 昆山琪奥智能科技有限公司 | 一种微表情分析研判系统 |
CN111128178A (zh) * | 2019-12-31 | 2020-05-08 | 上海赫千电子科技有限公司 | 一种基于面部表情分析的语音识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103488974A (zh) | 基于模拟生物视觉神经网络的人脸表情识别方法及系统 | |
CN112967243B (zh) | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 | |
WO2019169816A1 (zh) | 一种用于精细化识别车辆属性的深度神经网络及训练方法 | |
CN103761531B (zh) | 基于形状轮廓特征的稀疏编码车牌字符识别方法 | |
WO2019080203A1 (zh) | 一种机器人的手势识别方法、系统及机器人 | |
CN107301378B (zh) | 图像中多分类器集成的行人检测方法和系统 | |
CN109902602B (zh) | 一种基于对抗神经网络数据增强的机场跑道异物材料识别方法 | |
CN103971106B (zh) | 多视角人脸图像性别识别方法及装置 | |
CN103136516A (zh) | 可见光与近红外信息融合的人脸识别方法及系统 | |
CN109506628A (zh) | 一种基于深度学习的卡车环境下目标物测距方法 | |
CN104408469A (zh) | 基于图像深度学习的烟火识别方法及系统 | |
CN105005765A (zh) | 一种基于Gabor小波和灰度共生矩阵的人脸表情识别方法 | |
CN103268485A (zh) | 基于稀疏正则化的实现多波段人脸图像信息融合的人脸识别方法 | |
CN102332086A (zh) | 一种基于双阈值局部二进制模式的人脸识别方法 | |
CN104036284A (zh) | 基于Adaboost算法的多尺度行人检测方法 | |
CN111813997A (zh) | 入侵分析方法、装置、设备及存储介质 | |
TW200529093A (en) | Face image detection method, face image detection system, and face image detection program | |
CN103679187A (zh) | 图像识别方法和系统 | |
CN104951795A (zh) | 图像分类识别判断方法 | |
Xie et al. | Fabric defect detection method combing image pyramid and direction template | |
CN103186776A (zh) | 基于多特征和深度信息的人体检测方法 | |
CN106570503A (zh) | 识别车身颜色的方法和系统 | |
CN114495010A (zh) | 一种基于多特征学习的跨模态行人重识别方法及系统 | |
WO2020119624A1 (zh) | 一种基于深度学习的类别敏感型边缘检测方法 | |
CN105354547A (zh) | 一种结合纹理和彩色特征的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140101 |