CN109919055B - 一种基于AdaBoost-KNN的动态人脸情感识别方法 - Google Patents

一种基于AdaBoost-KNN的动态人脸情感识别方法 Download PDF

Info

Publication number
CN109919055B
CN109919055B CN201910139587.7A CN201910139587A CN109919055B CN 109919055 B CN109919055 B CN 109919055B CN 201910139587 A CN201910139587 A CN 201910139587A CN 109919055 B CN109919055 B CN 109919055B
Authority
CN
China
Prior art keywords
knn
adaboost
training
knn classifier
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910139587.7A
Other languages
English (en)
Other versions
CN109919055A (zh
Inventor
陈略峰
吴敏
李敏
苏婉娟
王亚午
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Geosciences
Original Assignee
China University of Geosciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Geosciences filed Critical China University of Geosciences
Priority to CN201910139587.7A priority Critical patent/CN109919055B/zh
Publication of CN109919055A publication Critical patent/CN109919055A/zh
Application granted granted Critical
Publication of CN109919055B publication Critical patent/CN109919055B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于AdaBoost‑KNN的动态人脸情感识别方法,该方法包括:采用Candide‑3模型对动态人脸进行定位追踪,并提取追踪到的表情的多个情感特征点;该多个情感特征点组成一个训练子样本,所有训练子样本构成训练样本;基于AdaBoost‑KNN算法,建立由M个KNN分类器进行加权组合构成AdaBoost‑KNN分类器;通过训练样本训练和交叉验证方法验证,得到各个KNN分类器的权重系数,并确定所述AdaBoost‑KNN分类器的K值和人脸情感类别阈值,最终加权组合为最终的AdaBoost‑KNN分类器;以最终的AdaBoost‑KNN分类器,对动态人脸情感类别进行识别。本发明的有益效果是:提高了动态人脸情感的识别速度以及动态人脸情感的正确识别率。

Description

一种基于AdaBoost-KNN的动态人脸情感识别方法
技术领域
本发明涉及模式识别技术领域,尤其涉及一种基于AdaBoost-KNN的动态人脸情感识别方法。
背景技术
随着人机交互、情感计算等理论与技术的高速发展,人们普遍希望机器人具有识别、理解和生成人类情感的能力,从而实现和谐、友好、顺畅的人机交流。由于人类情感的多样性与相应行为之间的复杂性,当前的人机交互仍面临着关于情感计算(包括识别、理解和表达情感的情感计算能力)领域的一些难题。研究基于人脸表情、语音、手势、生理信号等信息的情感识别等已成为人机交互中的重点。人脸表情识别是情感计算领域的关键技术,将人脸表情识别嵌入人机交互系统,可使机器更好地理解人类情感,建立人性化的交互模式,将会在客户体验、智能驾驶、远程教育等领域获得广泛应用。
人脸情感识别由人脸检测与定位、情感特征提取、人脸情感分类三部分组成。其中,人脸情感特征提取与人脸情感分类算法是人脸表情算法的关键,动态的人脸情感特征提取是研究中的难点。然而己有的一些机器学习算法对人脸表情特征进行训练与识别的过程中往往容易忽略情感特征变化的动态信息,缺少随时间序列计算的能力,实时性较差,因此更具动态性的情感特征提取以及具有随时间计算能力的分类器设计是提高人脸情感识别率的关键。
目前对于人脸情感识别技术虽日趋完善,但如何在保持识别功能动态性的同时,保有很强的实时性是研究中存在的主要问题。KNN方法是一种最直接的用来分类未知数据的方法,而且算法可以随时间序列进行计算,而AdaBoost算法可以将不具备加权机制的KNN算法组合成带权重的识别模型,将AdaBoost级联KNN的识别算法,在人脸情感识别中也有很好的前景。
发明内容
为了解决上述问题,本发明提供了一种基于AdaBoost-KNN的动态人脸情感识别方法主要包括以下步骤:
S1:采用Candide-3模型对动态人脸进行定位追踪,并提取追踪到的表情的多个情感特征点;该多个情感特征点组成一个训练子样本,所有训练子样本构成训练样本;
S2:基于AdaBoost-KNN算法,建立AdaBoost-KNN分类器,所述AdaBoost-KNN分类器由M个KNN分类器进行加权组合构成;其中,M为大于1的正整数;
首先,以所述训练样本训练所述M个KNN分类器,得到每个KNN分类器的权重系数;
然后,根据得到的每个KNN分类器的权重系数,采用交叉验证的方法,得到更新后的每个KNN分类器的权重系数,确定出所述AdaBoost-KNN分类器的人脸情感类别阈值及每个KNN分类器的K值,得到最终的AdaBoost-KNN分类器;其中,所述人脸情感类别阈值由公式
Figure GDA0002637210770000021
计算得到;其中,αP为每个KNN分类器的权重系数,P为正整数,1≤P≤M;n(i)表示人脸情感类别标签,i表示第i个训练子样本,1≤i≤N,N为训练子样本的数量;K值为每个KNN分类器的固有参数,K>0,K值的取值决定了KNN分类器的识别率;
S3:将待识别样本输入到最终的AdaBoost-KNN分类器,对动态人脸情感类别进行识别;所述待识别样本为实际追踪到的动态人脸表情对应的情感特征点。
进一步地,步骤S1中,所述Candide-3模型是由113个点和184个面片组成的一个参数化的模型,用于追踪和提取动态人脸情感的特征点;该模型如公式(1)所示:
g=SR(g0+AT+ST)+t (1)
其中,S为放大系数,R为旋转矩阵,g0为标准模型,A和S分别代表运动单元和形状单元,T为对应的变化参数,t为转换向量。
进一步地,确定所述AdaBoost-KNN分类器中每个KNN分类器的权重系数的过程如下:
1)初始化训练样本{(X(1),n(1)),...,(X(i),n(i)),...,(X(N),n(N))},使训练样本中的每一个训练子样本都具有相同的权重;其中,X(i)表示一个训练子样本,i表示第i个训练子样本,N为训练子样本的数量,1≤i≤N;n(i)表示训练子样本X(i)所属人脸情感类别的标签,n(i)∈{1,2,…,7};
2)将训练样本输入到各个KNN分类器GP(X),根据得到的所有训练子样本被正确分类的数目和错误分类的数量,计算出各个KNN分类器GP(X)的分类误差率eP,根据分类误差率eP计算得到各个KNN分类器GP(X)的权重系数αP
Figure GDA0002637210770000031
P为正整数,1≤P≤M,M表示KNN分类器的数量;
3)根据KNN分类器的权重系数αP,按照步骤2)中得到的所有训练子样本被正确分类及错误分类的情况,调整每个训练子样本的样本权重,得到新的训练样本;
4)根据所述新的训练样本,再次对各个KNN分类器GP(X)进行训练,更新各个KNN分类器GP(X)的权重系数αP
5)按照步骤3)和步骤4)的操作对各个KNN分类器GP(X)的权重系数αP多次进行更新,直到各个KNN分类器GP(X)的分类误差率小于设定误差阈值,更新得到最终的KNN分类器的权重系数αP;将每个KNN分类器按照最终的权重系数加权组合成所述AdaBoost-KNN分类器G(X):
Figure GDA0002637210770000032
进一步地,步骤S2中,确定所述AdaBoost-KNN分类器中的K值和人脸情感类别阈值的过程如下:
(1)利用交叉验证方法,将训练样本平均分成七组,对所述AdaBoost-KNN分类器进行七折交叉验证,即对M个KNN分类器依次进行七折交叉验证;
(2)根据每次七折交叉验证得到的识别结果,再次更新各个KNN分类器GM(X)的权重系数αM,分别得到7类人脸情感类别阈值:第1类人脸情感类别的阈值G1为:
Figure GDA0002637210770000033
第2类人脸情感类别阈值G2为:
Figure GDA0002637210770000034
第3类人脸情感类别阈值G3为:
Figure GDA0002637210770000041
第4类人脸情感类别阈值G4为:
Figure GDA0002637210770000042
第5类人脸情感类别阈值G5为:
Figure GDA0002637210770000043
第6类人脸情感类别阈值G6为:
Figure GDA0002637210770000044
第7类人脸情感类别阈值G7为:
Figure GDA0002637210770000045
(3)确定7类人脸情感类别的阈值后,以试凑法确定所述AdaBoost-KNN分类器识别率最高时对应的K值,即将K值的取值从1开始增加变化,则随着K值的变化,所述AdaBoost-KNN分类器的识别率进行相应的变化,记录所述AdaBoost-KNN分类器的识别率最高时的K值,该K值即为所述AdaBoost-KNN分类器中确定下来的K值,从而得到最终的AdaBoost-KNN分类器。
进一步地,步骤S3中,所述最终的AdaBoost-KNN分类器输出的是人脸情感类别所对应的标签。
本发明提供的技术方案带来的有益效果是:提高了动态人脸情感的识别速度以及动态人脸情感的正确识别率。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例中基于AdaBoost-KNN的动态人脸情感识别方法的流程图;
图2是本发明实施例中AdaBoost-KNN分类器的结构图;
图3是本发明实施例中Candide-3模型的情感特征点跟踪效果图;
图4是本发明实施例中七折交叉验证原理图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
本发明的实施例提供了一种基于AdaBoost-KNN的动态人脸情感识别方法。
请参考图1和图2,图1是本发明实施例中一种基于AdaBoost-KNN的动态人脸情感识别方法的流程图,图2是本发明实施例中动态人脸情感识别方法的结构图,具体包括如下步骤:
S1:采用Candide-3模型对动态人脸进行多次定位追踪,并提取追踪到的相应表情的多个情感特征点;该相应表情对应的多个情感特征点组成一个训练子样本,所有训练子样本构成训练样本;
根据动态人脸图像序列,选择图像序列帧数,基于Candide-3模型对人脸情感特征点进行跟踪,选择则同时直接提取出人脸情感特征点坐标,获得不同情感之间有差异且容易处理的特征数据,并存储特征数据,以便后续进行特征识别。
其中,Candide-3模型是由113个点和共计184个面片组成的一个参数化的模型,用于对不同头部姿态、大小和位置的人脸进行跟踪,该模型为:
g=SR(g0+AT+ST)+t (1)
其中,S为放大系数,R为旋转矩阵,g0为标准模型,A和S分别代表运动单元和形状单元,T为对应的变化参数,t为模型的空间转换向量;
在跟踪过程中,提取稳定状态时追踪到的相应表情的多个情感特征点,该多个情感特征点组成一个训练子样本,所有训练子样本构成训练样本;本实施方式中,提取了100个情感特征点;
即便是在较昏暗的环境中,测试者呈现不同的头部姿态,Candide-3模型都能很好的实现对人脸情感特征点的跟踪,请参考图3,图3是本发明实施例中Candide-3模型的情感特征点跟踪效果图。
S2:基于AdaBoost-KNN算法,建立AdaBoost-KNN分类器,所述AdaBoost-KNN分类器由M个KNN分类器进行加权组合构成;其中,M为大于1的正整数,表示KNN分类器的数量;在本实施例中M的取值为7;
首先,以所述训练样本训练所述M个KNN分类器,得到每个KNN分类器的权重系数;
然后,根据得到的每个KNN分类器的权重系数,采用交叉验证的方法,得到更新后的每个KNN分类器的权重系数,确定出所述AdaBoost-KNN分类器的人脸情感类别阈值及每个KNN分类器的K值,得到最终的AdaBoost-KNN分类器;其中,所述人脸情感即指表情;所述人脸情感类别包括:开心、悲伤、平静、还怕、惊讶、厌恶和恐惧,这7类人脸情感类别的标签分别用数值1-7表示,所述人脸情感类别阈值由公式
Figure GDA0002637210770000051
计算得到;其中,αP为每个KNN分类器的权重系数,P为正整数,1≤P≤M;n(i)表示人脸情感类别标签,n(i)∈{1,2,…,7},i表示第i个训练子样本,1≤i≤N,N为训练子样本的数量;K值为每个KNN分类器的固有参数,K>0,K值的取值决定了KNN分类器的识别率;请参考图4,图4是本发明实施例中AdaBoost-KNN分类器的结构图,首先,以所述训练样本训练所述AdaBoost-KNN分类器,确定所述AdaBoost-KNN分类器中每个KNN分类器的权重系数的过程如下:
1)初始化训练样本{(X(1),n(1)),...,(X(i),n(i)),...,(X(N),n(N))},使训练样本中的每一个训练子样本都具有相同的权重;其中,X(i)表示一个训练子样本,i表示第i个训练子样本,N为训练子样本的数量,1≤i≤N;n(i)表示训练子样本X(i)所属人脸情感类别的标签,n(i)∈{1,2,…,7};
通过公式(2)得到初始化处理后的训练样本中的每一个训练子样本都具有相同的权重
Figure GDA0002637210770000069
Figure GDA0002637210770000061
Figure GDA0002637210770000062
其中,
Figure GDA0002637210770000063
为每个训练子样本的初始样本权重,每个训练子样本在开始时都有相同的权重1/N;公式(3)中的D1是用于存储训练样本输入到第一个KNN分类器G1(X)后训练子样本的样本权重
Figure GDA0002637210770000064
的数组。
2)将训练样本输入到各个KNN分类器GP(X),根据得到的所有训练子样本被正确分类的数目和错误分类的数量,计算出各个KNN分类器GP(X)的分类误差率eP,根据分类误差率eP计算得到各个KNN分类器GP(X)的权重系数αP
Figure GDA0002637210770000065
P为正整数,1≤P≤M,M表示KNN分类器的数量;公式(4)和公式(5)计算每个KNN分类器的分类误差率eP和KNN分类器GP(X)的权重系数:
Figure GDA0002637210770000066
Figure GDA0002637210770000067
其中,eP为每个KNN分类器的分类误差率,
Figure GDA0002637210770000068
为经过7个KNN分类器后的训练样本的训练子样本的样本权重,αP为KNN分类器的权重系数。
3)根据KNN分类器的权重系数αP,按照步骤2)中得到的所有训练子样本被正确分类及错误分类的情况,调整每个训练子样本的样本权重,得到新的训练样本;
4)根据所述新的训练样本,再次对各个KNN分类器GP(X)进行训练,更新各个KNN分类器GP(X)的权重系数αP
5)按照步骤3)和步骤4)的操作对各个KNN分类器GP(X)的权重系数αP多次进行更新,直到各个KNN分类器GP(X)的分类误差率小于设定误差阈值,更新得到最终的KNN分类器的权重系数αP;将每个KNN分类器按照最终的权重系数加权组合成所述AdaBoost-KNN分类器G(X):
Figure GDA0002637210770000071
采用公式(6)、公式(7)和公式(8),更新训练样本的样本权重和各个KNN分类器GP(X)的权重系数:
Figure GDA0002637210770000072
Figure GDA0002637210770000073
Figure GDA0002637210770000074
其中,i=1,2,...,N,Q为正整数,且0<Q<M;P为正整数,1≤P≤M,M表示KNN分类器的数量;ZM为规范化因子,0<ZM<1,用于调整各个KNN分类器的权重系数的和,使其和为1.0,以保证训练样本的样本权重是概率分布向量。
训练样本中的训练子样本的样本权重在每次更新后均会发生改变,每个KNN分类器的权重系数也会随之更新,将每个KNN分类器按照权重系数加权组合成所述AdaBoost-KNN分类器;
然后,采用交叉验证的方法,对AdaBoost-KNN分类器中的K值和人脸情感类别阈值进行调整,提高人脸情感识别算法的识别率,使AdaBoost-KNN分类器的分类效果达到最优,确定出所述AdaBoost-KNN分类器的K值和人脸情感类别阈值后,得到最终的AdaBoost-KNN分类器;确定所述AdaBoost-KNN分类器中的K值和人脸情感类别阈值的过程如下:
(1)利用交叉验证方法,将训练样本平均分成七组,对所述AdaBoost-KNN分类器进行七折交叉验证,即是对M个KNN分类器依次进行七折交叉验证;
(2)根据每次七折交叉验证得到的识别结果,分别得到7类人脸情感类别阈值:第1类人脸情感类别的阈值G1为:
Figure GDA0002637210770000081
第2类人脸情感类别阈值G2为:
Figure GDA0002637210770000082
第3类人脸情感类别阈值G3为:
Figure GDA0002637210770000083
第4类人脸情感类别阈值G4为:
Figure GDA0002637210770000084
第5类人脸情感类别阈值G5为:
Figure GDA0002637210770000085
第6类人脸情感类别阈值G6为:
Figure GDA0002637210770000086
第7类人脸情感类别阈值G7为:
Figure GDA0002637210770000087
(3)确定人脸情感类别的阈值后,保持阈值不变,改变K值的数值,以试凑法确定所述AdaBoost-KNN分类器识别率最高时对应的K值;即将K值的数值从1开始增加变化,则所述AdaBoost-KNN分类器的识别率对应的由低到高再降低变化,记录识别率最高时的K值,即确定出了所述AdaBoost-KNN分类器中的K值,从而得到最终的AdaBoost-KNN分类器;最后根据公式(9)将每个KNN分类器根据其权重系数组合成AdaBoost-KNN分类器:
Figure GDA0002637210770000088
进行七折交叉验证时,训练样本分为训练集和测试集;当测试集样本进入KNN分类器时,分类器先计算训练集样本与测试集样本之间的欧氏距离,按照升序排列,从训练集中,选取训练集样本与测试集样本间欧式距离最小的K个点;
通过公式(10)计算欧氏距离:
Figure GDA0002637210770000089
其中,A,B为m维空间中的两个点,ρ(A,B)为这两点间的欧氏距离,即m维空间中两点之间的实际距离,也即是自然向量长度,对于自然向量x=(x1,x2,...,xm)而言,其自然长度定义如式(11)所示:
Figure GDA00026372107700000810
确定K个点所对应的类别出现的频率,并记录K个点的标签值中出现频率最高的结果,将其作为测试集样本的识别结果进行输出。
若测试集样本属于第1类表情,则其所对应的识别结果在识别正确的情况下应为1,则最终识别结果
Figure GDA0002637210770000091
若测试样本为第2类表情,则
Figure GDA0002637210770000092
第3类则为
Figure GDA0002637210770000093
以此类推,若测试集样本为第7类表情,则
Figure GDA0002637210770000094
即各类别所对应的7种阈值,则为
Figure GDA0002637210770000095
n(i))∈{1,2,…,7};
请参考图5,图5是本发明实施例中七折交叉验证原理图;对K值的数值进行调整后,所述AdaBoost-KNN分类器的识别率变化如表1所示,由表1可知,随着K值的数值的增加,测试时间逐渐增长,所述AdaBoost-KNN分类器的识别率在K=7时达到了最高。综合考虑K值对识别时间和识别率的影响,本实施例中选用K=7,从而有效的降低识别时间,并获得良好的识别效果。
表1 AdaBoost-KNN中K值对识别效果和时间的影响
Figure GDA0002637210770000096
同时,将所提出的基于AdaBoost-KNN的动态人脸情感识别方法与基于KNN分类器的人脸情感识别方法进行对比,训练样本选自日本JAFFE人脸表情数据库,此数据库共有213张人脸表情图像,包括10个对象和7类表情;其中7类表情为自然、高兴、愤怒、悲伤、吃惊、厌恶、恐惧。每幅灰度图像的分辨率为256×256,各个对象都有3-4幅无遮挡光照良好的正面表情灰度图像,提取出图像中的情感特征。识别结果如表2所示:
表2 K值相同时两种方法的识别效果
Figure GDA0002637210770000097
如表2所示,采用基于Adaboost-KNN的动态人脸情感识别方法得到的识别结果的准确率达到88.57%,基于KNN分类器的人脸情感识别方法得到的识别结果的准确率达到72.71%,人脸情感的识别率提高了16.71%。
S3:将待识别样本输入到最终的AdaBoost-KNN分类器,当待识别样本进入时,遍历每一个KNN分类器,得出7个识别结果,将这7个识别结果进行带权重的投票统计,判断计算得到的数值属于哪个阈值范围,输出该范围所对应的标签值,即为待识别样本的识别结果,完成对动态人脸情感的识别;所述待识别样本为实际追踪到的动态人脸表情对应的情感特征点。所述带权重的投票统计是指将7个识别结果分别乘以对应的KNN分类器,乘积相加;例如,将待识别样本输入最终的AdaBoost-KNN分类器,通过遍历7个KNN分类器,得到7个标签值,如7个标签值分别为2、3、2、2、2、2和2,这7个标签值分别乘以对应KNN分类器的权重系数,乘积相加,如Y=(0.2*2+0.1*2+...+0.25*2),若1*(0.2+0.1+...+0.25)<Y<2*(0.2+0.1+...+0.25),则最终的AdaBoost-KNN分类器输出标签值2;若标签值2表示高兴,则得到的待识别样本的人脸情感识别结果为高兴,即完成了动态人脸情感的识别。
本发明的有益效果是:提高了动态人脸情感的识别速度以及动态人脸情感的正确识别率。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于AdaBoost-KNN的动态人脸情感识别方法,其特征在于:包括以下步骤:
S1:采用Candide-3模型对动态人脸进行定位追踪,并提取追踪到的表情的多个情感特征点;该多个情感特征点组成一个训练子样本,所有训练子样本构成训练样本;
S2:基于AdaBoost-KNN算法,建立AdaBoost-KNN分类器,所述AdaBoost-KNN分类器由M个KNN分类器进行加权组合构成;其中,M为大于1的正整数;
首先,以所述训练样本训练所述M个KNN分类器,得到每个KNN分类器的权重系数;
然后,根据得到的每个KNN分类器的权重系数,采用交叉验证的方法,得到更新后的每个KNN分类器的权重系数,确定出所述AdaBoost-KNN分类器的人脸情感类别阈值及每个KNN分类器的K值,得到最终的AdaBoost-KNN分类器;其中,所述人脸情感类别阈值由公式
Figure FDA0002637210760000011
计算得到;其中,αP为每个KNN分类器的权重系数,P为正整数,1≤P≤M;n(i)表示人脸情感类别标签,i表示第i个训练子样本,1≤i≤N,N为训练子样本的数量;K值为每个KNN分类器的固有参数,K>0,K值的取值决定了KNN分类器的识别率;
S3:将待识别样本输入到最终的AdaBoost-KNN分类器,对动态人脸情感类别进行识别;所述待识别样本为实际追踪到的动态人脸表情对应的情感特征点。
2.如权利要求1所述的基于AdaBoost-KNN的动态人脸情感识别方法,其特征在于:步骤S1中,所述Candide-3模型是由多个点和多个面片组成的一个参数化的模型,用于追踪和提取动态人脸情感的特征点;该模型如公式(1)所示:
g=SR(g0+AT+ST)+t (1)
其中,S为放大系数,R为旋转矩阵,g0为标准模型,A和S分别代表运动单元和形状单元,T为对应的变化参数,t为转换向量。
3.如权利要求1所述的基于AdaBoost-KNN的动态人脸情感识别方法,其特征在于:步骤S2中,确定所述AdaBoost-KNN分类器中每个KNN分类器的权重系数的过程如下:
1)初始化训练样本{(X(1),n(1)),...,(X(i),n(i)),...,(X(N),n(N))},使训练样本中的每一个训练子样本都具有相同的权重;其中,X(i)表示一个训练子样本,i表示第i个训练子样本,N为训练子样本的数量,1≤i≤N;n(i)表示训练子样本X(i)所属人脸情感类别的标签,n(i)∈{1,2,…,7};
2)将训练样本输入到各个KNN分类器GP(X),根据得到的所有训练子样本被正确分类的数目和错误分类的数量,计算出各个KNN分类器GP(X)的分类误差率eP,根据分类误差率eP计算得到各个KNN分类器GP(X)的权重系数αP
Figure FDA0002637210760000021
P为正整数,1≤P≤M,M表示KNN分类器的数量;
3)根据KNN分类器的权重系数αP,按照步骤2)中得到的所有训练子样本被正确分类及错误分类的情况,调整每个训练子样本的样本权重,得到新的训练样本;
4)根据所述新的训练样本,再次对各个KNN分类器GP(X)进行训练,更新各个KNN分类器GP(X)的权重系数αP
5)按照步骤3)和步骤4)的操作对各个KNN分类器GP(X)的权重系数αP多次进行更新,直到各个KNN分类器GP(X)的分类误差率小于设定误差阈值,更新得到最终的KNN分类器的权重系数αP;将每个KNN分类器按照最终的权重系数加权组合成所述AdaBoost-KNN分类器G(X):
Figure FDA0002637210760000022
4.如权利要求3所述的基于AdaBoost-KNN的动态人脸情感识别方法,其特征在于:步骤S2中,确定所述AdaBoost-KNN分类器中的K值和人脸情感类别阈值的过程如下:
(1)利用交叉验证方法,将训练样本平均分成七组,对所述AdaBoost-KNN分类器进行七折交叉验证,即对M个KNN分类器依次进行七折交叉验证;
(2)根据每次七折交叉验证得到的识别结果,再次更新各个KNN分类器GM(X)的权重系数αM,分别得到7类人脸情感类别阈值:第1类人脸情感类别的阈值G1为:
Figure FDA0002637210760000023
第2类人脸情感类别阈值G2为:
Figure FDA0002637210760000024
第3类人脸情感类别阈值G3为:
Figure FDA0002637210760000031
第4类人脸情感类别阈值G4为:
Figure FDA0002637210760000032
第5类人脸情感类别阈值G5为:
Figure FDA0002637210760000033
第6类人脸情感类别阈值G6为:
Figure FDA0002637210760000034
第7类人脸情感类别阈值G7为:
Figure FDA0002637210760000035
(3)确定7类人脸情感类别的阈值后,以试凑法确定所述AdaBoost-KNN分类器识别率最高时对应的K值,即将K值的取值从1开始增加变化,则随着K值的变化,所述AdaBoost-KNN分类器的识别率进行相应的变化,记录所述AdaBoost-KNN分类器的识别率最高时的K值,该K值即为所述AdaBoost-KNN分类器中确定下来的K值,从而得到最终的AdaBoost-KNN分类器。
5.如权利要求1所述的基于AdaBoost-KNN的动态人脸情感识别方法,其特征在于:步骤S3中,所述最终的AdaBoost-KNN分类器输出的是人脸情感类别所对应的标签。
CN201910139587.7A 2019-02-26 2019-02-26 一种基于AdaBoost-KNN的动态人脸情感识别方法 Active CN109919055B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910139587.7A CN109919055B (zh) 2019-02-26 2019-02-26 一种基于AdaBoost-KNN的动态人脸情感识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910139587.7A CN109919055B (zh) 2019-02-26 2019-02-26 一种基于AdaBoost-KNN的动态人脸情感识别方法

Publications (2)

Publication Number Publication Date
CN109919055A CN109919055A (zh) 2019-06-21
CN109919055B true CN109919055B (zh) 2020-11-24

Family

ID=66962269

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910139587.7A Active CN109919055B (zh) 2019-02-26 2019-02-26 一种基于AdaBoost-KNN的动态人脸情感识别方法

Country Status (1)

Country Link
CN (1) CN109919055B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112153000B (zh) * 2020-08-21 2023-04-18 杭州安恒信息技术股份有限公司 网络流量异常的检测方法、装置、电子装置和存储介质
CN112132009A (zh) * 2020-09-22 2020-12-25 湖南惟楚有才教育科技有限公司 课堂行为分析方法、系统及电子设备
CN112507918B (zh) * 2020-12-16 2024-05-21 康佳集团股份有限公司 一种手势识别方法
CN113314209B (zh) * 2021-06-11 2023-04-18 吉林大学 一种基于加权knn的人体意图识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136539B (zh) * 2013-03-08 2015-10-07 西安科技大学 接地网腐蚀速率等级预测方法
CN109145837A (zh) * 2018-08-28 2019-01-04 厦门理工学院 人脸情感识别方法、装置、终端设备和存储介质

Also Published As

Publication number Publication date
CN109919055A (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN109919055B (zh) 一种基于AdaBoost-KNN的动态人脸情感识别方法
CN108564129B (zh) 一种基于生成对抗网络的轨迹数据分类方法
CN112800891B (zh) 一种用于微表情识别的鉴别性特征学习方法与系统
CN114898151A (zh) 一种基于深度学习与支持向量机融合的图像分类方法
CN113076994A (zh) 一种开集域自适应图像分类方法及系统
CN107358172B (zh) 一种基于人脸朝向分类的人脸特征点初始化方法
CN112381047B (zh) 一种人脸表情图像的增强识别方法
SG171858A1 (en) A method for updating a 2 dimensional linear discriminant analysis (2dlda) classifier engine
JP2010039778A (ja) 次元削減方法、パターン認識用辞書生成装置、及びパターン認識装置
CN103778913A (zh) 一种病理嗓音的识别方法
CN111144462B (zh) 一种雷达信号的未知个体识别方法及装置
EP2535787A2 (en) 3D free-form gesture recognition system for character input
CN113378949A (zh) 一种基于胶囊网络和混合注意力的双重生成对抗学习方法
CN112883931A (zh) 基于长短期记忆网络的实时真假运动判断方法
CN114373194A (zh) 基于关键帧与注意力机制的人体行为识别方法
Yao Application of higher education management in colleges and universities by deep learning
CN110070070B (zh) 一种动作识别方法
CN109409231B (zh) 基于自适应隐马尔可夫的多特征融合手语识别方法
CN115511012B (zh) 一种最大熵约束的类别软标签识别训练方法
CN112465054B (zh) 一种基于fcn的多变量时间序列数据分类方法
Yang et al. Sign language recognition system based on weighted hidden Markov model
Hachaj et al. Application of hidden markov models and gesture description language classifiers to oyama karate techniques recognition
CN104933440A (zh) 一种基于PCA技术的AdaBoost优化方法
CN111444787A (zh) 一种性别约束的全智能化人脸表情识别方法及系统
Yang et al. Combining classifiers with particle swarms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant