CN109670406B - 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法 - Google Patents

一种结合心率与面部表情面向游戏用户的非接触式情感识别方法 Download PDF

Info

Publication number
CN109670406B
CN109670406B CN201811411596.9A CN201811411596A CN109670406B CN 109670406 B CN109670406 B CN 109670406B CN 201811411596 A CN201811411596 A CN 201811411596A CN 109670406 B CN109670406 B CN 109670406B
Authority
CN
China
Prior art keywords
heart rate
representing
sensor
emotion
lstm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811411596.9A
Other languages
English (en)
Other versions
CN109670406A (zh
Inventor
杜广龙
梁殷浩
李方
张平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201811411596.9A priority Critical patent/CN109670406B/zh
Publication of CN109670406A publication Critical patent/CN109670406A/zh
Application granted granted Critical
Publication of CN109670406B publication Critical patent/CN109670406B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,包括步骤:(1)信息采集:采集玩家的面部信息;(2)心率训练:计算玩家的心率频率范围,识别心率包含的情感,最后实现心率模式的分类;(3)面部表情训练:对采集到的人脸视频帧实时分割出ROI,接着进行Gabor特征提取和LDA降维,再融合成的强分类器实现面部表情的分类;(4)情感判定:对玩家的情感初步判断;再利用模糊积分融合心率和面部表情进行情感判定。本发明只需Kinect2的摄像头可完成对玩家面部信息的非侵入式采集,另外红外摄像头保证输入信息不受光照条件影响,给游戏开发者提供有用的经验,从而设计出最大化用户体验的游戏。

Description

一种结合心率与面部表情面向游戏用户的非接触式情感识别 方法
技术领域
本发明属于情感识别领域,特别涉及一种结合心率与面部表情面向游戏用户的非接触 式情感识别方法。
背景技术
游戏由于呈现的消息具有互动性和有趣性而吸引了越来越多的用户,游戏的主要目标 就是为用户提供情感体验,如乐趣和兴奋等,而情感识别能够得到用户在游戏过程中的实 时情感来调整游戏难度或内容从而保证用户的参与度,以增强游戏体验。目前情感识别主要通过两种途径实现,一是通过获取被测试对象的情感行为,如面部表情,面部微动作, 语音等;二是通过检测被测试对象的生理信号,如心率、心率变异性等。然而,人的表情可以受到自身控制,仅依靠表情判断其情感状态的真实性和可靠性较低。通常生理信号不受主观意识支配,用来进行情感识别更具客观性。研究表明结合面部信息与生理信号能得到更好的识别效果。对游戏用户进行情感识别,需要做到不干扰用户的游戏进程以保持他/她的参与度从而得到用户的真实情感。一方面目前大量的情感识别方法都是侵入式的,导致被测者产生一定的心理负担,使识别结果与被测者真实的情感有所偏差;另一方面人的情感是通过持续的方式感知的,因此以连续的方式判别人的情感更为准确。
发明内容
本发明的目的在于获得用户的真实情感以及时调整游戏的行为以最大化用户的娱乐 或学习,提出了一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,包括心 率的频率计算和模式分类,人脸面部表情的识别以及融合心率与面部表情的情感判定,它可以实现对“兴奋”、“愤怒”、“悲伤”、“平静”四种情绪的非接触式识别并达到了87.3% 的平均识别准确率,同时心率频率反映了情感的强烈程度。
一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,包括心率的频率计 算和模式分类,人脸面部表情的识别以及融合心率与面部表情的情感判定;该方法包括如 下步骤:
S1.信息采集阶段:使用Kinect 2的RGB(red-green-blue)颜色摄像头和红外摄像头采集玩 家的面部信息;
S2.心率训练阶段:对采集的RGB数据和红外数据利用JADE(Joint ApproximationDiagonalization of Eigen-matrices,特征矩阵联合相似对角化)算法和FFT(FastFourier Transform,快速傅里叶变换)计算出玩家的心率频率范围,再通过RNN(RecurrentNeural Network,递归神经网络)和Bi-LSTM-CRF(Bidirectional Long and Short TermMemory Network Conditional Random Field,双向长短期记忆网络条件随机场)识别心率包含的情感, 最后通过Softmax分类器实现心率模式的分类;
S3.面部表情训练阶段:利用Kinect AMM算法对采集到的人脸视频帧实时分割出ROI(Region of Interest,感兴趣区),接着对经过预处理的ROI进行Gabor函数特征提取和LDA(Linear Discriminant Analysis,线性判别分析)降维,再通过SVM(support vectormachine,支持向量机)和Adaboost(迭代算法)融合成的强分类器实现面部表情的分类;S4.情感判定阶段:先利用心率频率和面部表情识别结果根据情感判定规则(如表1所示)对玩家的情感进行初步判断,提前检测最终识别情感的正确性;再利用模糊积分融合心率和面部表情进行情感判定。
表1情感判定规则
Figure SMS_1
进一步的,所述步骤S1具体包括:待玩家(身体状况良好)的心率趋于正常值后,玩家在环境光条件下保持身体正直坐于电脑前进行游戏,玩家位于Kinect2的检测范围内同时保持玩家的面部能被Kinect2的摄像头捕捉到,使用RGB颜色摄像头和红外摄像头 以30fps(frame per second,帧/秒)的工作频率,连续采集玩家30秒内的面部信息。
进一步的,所述步骤S2包括以下步骤:对从RGB和红外四个通道采集到数据的信号进行归一化,再使用JADE算法对四个通道信号的归一化值进行独立分量分析实现信号的分离,独立分量分析的步骤如下所示:
①形成样本协方差
Figure SMS_2
并计算出白化矩阵/>
Figure SMS_3
②形成白化过程
Figure SMS_4
的样本四阶累积量/>
Figure SMS_5
计算n对最重要的特征对
Figure SMS_6
Figure SMS_7
③通过归一化矩阵
Figure SMS_8
对集合/>
Figure SMS_9
进行联合对角化;
④可以估计
Figure SMS_10
再对经过分离的四个独立分量信号调用FFT得到匹配的心率频率范围。我们使用RNN 将具有速度和方向的连续动作心率信号点序列(N个采集点)编码为矢量并将其记录为{hN}。当前的输出是由视频序列、当前输入和先前状态确定的。一般情况下,假定当前 给定的输入由下列等式表示:x={x1,x2,…,xt,…,xT},在这个方程中,t代表第t帧,T代表 总帧数。我们可以得到:
ht=σh(Wxhxt+Whhht-1+bh)
式中ht表示隐藏层在t时刻的输出,Wxh表示代表从输入层到隐藏层的权重矩阵,Whh表示 来自隐藏层的权重矩阵,bh表示隐藏层的偏差,σh表示激活函数,最后我们可以得出下式:
yt=σy(Whoht+bo)
式中yt表示第t个序列的预测标签,Who表示从隐藏层到输出的权重矩阵,bo代表了输出的 偏差,σy表示激活函数。
除了外部RNN循环,LSTM还具有内部“LSTM细胞”循环(自循环)。因此,LSTM不 会简单地将非线性元素应用于输入和循环单元的变换。然而,自循环本身的权重(或相关 的时间常数)由遗忘门
Figure SMS_11
(时间t和细胞i)控制,并且权重由sigmoid函数设置为0和 1:
Figure SMS_12
式中x(t)是当前的输入矢量,h(t)是当前隐藏层的矢量并且包含LSTM细胞的所有输出,bf,Uf和Wf分别为偏置,输入权重和遗忘门的循环权重。因此,LSTM细胞的内部状态如下更 新,其中存在条件自环权重
Figure SMS_13
Figure SMS_14
式中b,U和W分别是LSTM细胞中遗忘门的偏差,输入权重和循环权重,外部输入门单 元
Figure SMS_15
类似于遗忘门(用sigmoid函数设置一个介于0和1之间的值)但具有其自身的参数。
Figure SMS_16
LSTM细胞的输出
Figure SMS_17
也可以由输出门/>
Figure SMS_18
关闭(sigmoid是输出门/>
Figure SMS_19
的门控制):
Figure SMS_20
式中b°,U°和W°分别是偏置,输入权重和遗忘门的循环权重,在b°,U°和W°这些变量中, 你可以选择使用细胞状态
Figure SMS_21
作为附加输入(及其权重)并进入单元i的输入门,遗忘门, 输出门;尽管LSTM可以捕获长期序列信息,但它只考虑一个方向,即LSTM中的当前 帧仅受当前状态的影响,为了加强心率序列的双边关系,即处理当前帧时也考虑下一帧。 Bi-LSTM包括前向LSTM和后向LSTM,最终输出结果可以由以下公式得出:
Figure SMS_22
yt=σ(ht)
式中
Figure SMS_23
表示前向LSTM层的输出,前向LSTM层将从x1到xT的序列作为输入,/>
Figure SMS_24
表示后向LSTM层的输出,前向LSTM层将从xT到x1的序列作为输入,α和β表示前向LSTM 和后向LSTM的重要性(α+β=1),ht表示两个Softmax函数/>
Figure SMS_25
的元素总和,yt表示 预测标签。由于Bi-LSTM可以捕获更多结构信息,因此它比单向LSTM的性能更好。再利用CRF(conditional random field algorithm,条件随机场算法)对输出结果进行优化, CRF更关注整个序列的局部特征的线性加权组合(通过特征模板扫描整个序列),关键点 是CRF的模型是p(y|x,w),是对序列y=(y1,y2,...,yn)进行优化,而不是特定时间点的序列yt, 当y=(y1,y2,...,yn|x,w)取最大值时便可找到具有最高概率的序列y=(y1,y2,...,yn)。p(y|x,w) 代表一个联合概率并优化整个序列(最终目标),而不是每次最佳拼接。最后,CRF的 输出结果被融合到Softmax中以获得最终的分类结果。
进一步的,所述步骤S3包括以下步骤:利用Kinect AMM算法对捕捉的人脸图像帧实时分割出ROI,ROI由5个面部特征点确定:左眼、右眼、鼻子和左右嘴角5个特征点; 再对ROI进行图像灰度化,几何归一化,图像滤波这些预处理,成为归一化的标准图像, 再用圆形高斯包络Gabor小波变换对标准图像进行特征提取,Gabor小波变换的内核函数定义如下:
Figure SMS_26
式中i是复数运算符,σ是高斯窗口的宽度与正弦波波长的比值,
Figure SMS_27
是一个给定像素的坐 标,/>
Figure SMS_28
是一个高斯包络函数,/>
Figure SMS_29
用来消除Gabor小波变换的图像分量的 影响,k是滤波器的中心频率,定义如下:
Figure SMS_30
式中
Figure SMS_31
定义小波尺度,/>
Figure SMS_32
定义小波方向。
再采用线性鉴别分析算法进行降维,LDA算法可以从高维特征空间里提取出最具有判 别能力的低维特征,这些特征能帮助将同一个类别的所有样本聚集在一起,并将不同类的 样本尽量地分开,即选择使得样本类间离散度和样本类内离散度的比值最大的特征。LDA 算法如下:设一组训练样本的列矢量集为:
Figure SMS_33
其中:Ni为第 i类训练样本的个数;C为训练样本的类别数目。假设每类的先验概率为Pi,每类训练样本的平均矢量为ui,所有训练样本的平均矢量为u,则类内散射矩阵Sw和类间散射矩阵Sb。分别为:
Figure SMS_34
Figure SMS_35
定义训练样本的类间与类内距离之比为:
Figure SMS_36
LDA的目标就是要求出J(WL)取最大值时对应的特征向量。因此,对J(WL)按变量WL求 导并令其为∧,即可得出所要求的WL,WL也可由如下等式求出。
SbWL=SwWL
人脸图像帧经过Gabor的特征提取和LDA的降维后,需要对其进行分类才能得到面部表情识别结果。SVM的基本思想是将训练样本经非线性变换映射到另一高维空间中, 在变换后的高维空间内寻找一个最优的分界面,不但能将训练样本无错误或接近无错误分开,而且使类与类之间的间隙最大化,利用SVM的优势可以解决小样本数据的分类问题, 但对于新增训练样本的分类,往往需要借助较为复杂的算法提高其准确度。AdaBoost训 练以分类最小错误率为标准,不断加大分类错误类别的权值,经过T次迭代,逐渐加强分类器的分类能力,对SVM有较好的的提升效果。
假设有两类训练样本m个,在某维空间Rn线性可分,则将训练样本分开的平面(超平 面)满足:
w·x+b=0,w∈Rn
在满足条件的超平面中,找到能较好分开两类训练样本且错误率较小的平面,即
Figure SMS_37
式中:ξ为松弛变量,C为使用者选定的正参数,求出最优解w*和b*,得到SVM的决策函 数:
Figure SMS_38
式中,
Figure SMS_39
是Lagrange乘子,yi是类别标识,取一1或1。由此可以看到该决策函数只与训 练和测试样本的内积有关。若线性不可分,把低维空间映射到高维,根据泛函相关知识,用核函数K(x,y)可很好地表示内积,则决策函数改写为
Figure SMS_40
本发明采用的核函数是径向基核函数:K(xi,x)=exp(-‖xi-xj2/2σ2),由于只有一个参数, 可降低计算复杂度。将SVM推广到多类,在每一对类别之间都训练一个SVM,按照投票方式得出结果。再利用AdaBoost训练加强SVM分类器的分类能力。首先归一化各个 SVM分类器的权重:
Figure SMS_41
对每个分类器hj(x)计算错误率εj
εj=∑jwj|hj(x)-yj|
式中yj是训练样本,在计算的所有错误率中求出最小错误率εmin,若分类错误,按下式更 新权重:
Figure SMS_42
经过T次上述更新权重的步骤后,错误率小的分类器被赋以较小的权值,错误率高的 分类器被赋以较大的权值,从而提升了分类器的分类能力,进而使得识别率得到有效的提 高。
所述步骤S4包括以下步骤:
首先利用心率频率和面部表情识别结果根据情感判定规则(如表1所示)对玩家的情 感进行初步判断,提前检测最终识别情感的正确性;再利用模糊积分将两种不同模态的决 策信息(心率和面部表情)进行融合,得到最终的情感识别结果,模糊积分的关键是模糊密度的确定和判决模糊密度刻画分类器在融合过程中的重要性,本发明利用训练样本先验静态信息结合各传感器判决包含的动态信息对模糊密度进行自适应动态赋值,原理如下:
设总共有N个传感器{s1,s2,…,sN},M类目标{w1,w2,…,wM},对一待 识别目标x,传感器si输出的识别结果Di(x)=[di1(x),di2(x),…,diM(x)]是目标x属于各 类目标的信度,利用Sugeno模糊积分进行融合,对模糊密度进行自适应动态赋值的过程如 下:
(1)根据各传感器对训练样本的识别结果对每个传感器定义一个系ai(x),ai(x)表示了传 感器si对目标x的识别结果的置信度系数,反映了目标x在传感器si的特征空间中处于非重 叠区域的可能性;
Figure SMS_43
其中
Figure SMS_44
(2)模糊密度
Figure SMS_45
表示在判决目标属于类别wj时传感器si的重要性。我们采用基 于混淆矩阵确定各传感器模糊密度,对于M类目标,传感器si的归一化混淆矩阵是一M×M 矩阵/>
Figure SMS_46
其中/>
Figure SMS_47
表示传感器si将训练样本中第k类目标识别为第l类的比率, 得到模糊密度/>
Figure SMS_48
如下式所示:
Figure SMS_49
根据训练样本采用式(2)对各传感器的模糊密度确定初始值,设为
Figure SMS_50
i=1,2,…,N,j=1,2,…,M。
(3)对待识别目标x,根据各传感器识别结果利用式(1)计算各传感器的系数ai(x);
(4)将各传感器模糊密度的初始值乘于各自对应的系数ai(x)作为对目标x进行融合识别 时各传感器的模糊密度
Figure SMS_51
即/>
Figure SMS_52
数值越低,则相应传感器对目标x的 识别结果的置信度越低,对目标x进行融合识别时,该传感器的重要性越低。
本发明相对于现有技术具有如下的优点及效果:
本发明提出了一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,用 Kinect2的RGB颜色摄像头和红外摄像头实现了玩家面部信息的非接触式采集并且红外摄像头减少了光照条件的干扰,融合了心率与面部表情提高了情感识别的准确度和可靠性, 对玩家进行连续30秒的情感识别符合人的情感被持续感知的特点,这些都增强了情感识 别结果的真实性,它可以实现对“兴奋”、“愤怒”、“悲伤”、“平静”四种情绪的非接触式识别并达到了较高的平均识别准确率,同时心率频率反映了情感的强烈程度。
附图说明
图1是面向游戏评估结合心率与面部表情的非接触式情感识别方法流程图。
具体实施方式
以下结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此,以下 若有未特别详细说明之处,均是本领域技术人员可参照现有技术实现或理解的。
一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,包括如下步骤:
S1.信息采集阶段:使用Kinect 2的RGB(red-green-blue)颜色摄像头和红外摄像头采集玩 家的面部信息;
S2.心率训练阶段:对采集的RGB数据和红外数据利用JADE(Joint ApproximationDiagonalization of Eigen-matrices)算法和FFT(Fast Fourier Transform)计算出玩家的心率频率范围,再通过RNN(Recurrent Neural Network)和Bi-LSTM-CRF(BidirectionalLong and Short Term Memory Network Conditional Random Field)识别心率包含的情感,最后通过 Softmax实现心率模式的分类;
S3.面部表情训练阶段:利用Kinect AMM算法对采集到的人脸视频帧实时分割出ROI(Region of Interest),接着对经过预处理的ROI进行Gabor特征提取和LDA(LinearDiscriminant Analysis)降维,再通过SVM(support vector machine)+Adaboost融合成的强分 类器实现面部表情的分类;
S4.情感判定阶段:先利用心率频率和面部表情识别结果根据我们的情感判定规则(如表 1所示)对玩家的情感进行初步判断,提前检测最终识别情感的正确性;再利用模糊积分 融合心率和面部表情进行情感判定。
所述步骤S1具体包括:
待玩家(身体状况良好)的心率趋于正常值后,玩家在环境光条件下保持身体正直坐 于电脑前进行游戏,玩家位于Kinect2的检测范围内同时保持玩家的面部能被Kinect2的 摄像头捕捉到,使用RGB颜色摄像头和红外摄像头以50fps(frame per second)的工作频率连续采集玩家30秒内的面部信息。
进一步的,所述步骤S2包括以下步骤:对从RGB和红外四个通道采集到的数据信号进行归一化,再使用JADE算法对其进行独立分量分析实现信号的分离,独立分量分析 的步骤如下所示:
①形成样本协方差
Figure SMS_53
并计算出白化矩阵/>
Figure SMS_54
②形成白化过程
Figure SMS_55
的样本四阶累积量/>
Figure SMS_56
计算n对最重要的特征对
Figure SMS_57
Figure SMS_58
③通过归一化矩阵
Figure SMS_59
对集合/>
Figure SMS_60
进行联合对角化;
④可以估计
Figure SMS_61
再对经过分离的四个独立分量信号调用FFT得到匹配的心率频率范围。我们使用RNN 将具有速度和方向的连续动作心率信号点序列(N个采集点)编码为矢量并将其记录为{hN}。当前的输出是由视频序列、当前输入和先前状态确定的。一般情况下,假定当前 给定的输入由下列等式表示:x={x1,x2,…,xt,…,xT},在这个方程中,t代表第t帧,T代表 总帧数。我们可以得到:
ht=σh(Wxhxt+Whhht-1+bh)
式中ht表示隐藏层在t时刻的输出,Wxh表示代表从输入层到隐藏层的权重矩阵,Whh表示 来自隐藏层的权重矩阵,bh表示隐藏层的偏差,σh表示激活函数,最后我们可以得出下式:
yt=σy(Whoht+bo)
式中yt表示第t个序列的预测标签,Who表示从隐藏层到输出的权重矩阵,bo代表了输出的 偏差,σy表示激活函数。
除了外部RNN循环,LSTM还具有内部“LSTM细胞”循环(自循环)。因此,LSTM不 会简单地将非线性元素应用于输入和循环单元的变换。然而,自循环本身的权重(或相关 的时间常数)由遗忘门
Figure SMS_62
(时间t和细胞i)控制,并且权重由sigmoid函数设置为0和1:
Figure SMS_63
式中x(t)是当前的输入矢量,h(t)是当前隐藏层的矢量并且包含LSTM细胞的所有输出,bf,Uf和Wf分别为偏置,输入权重和遗忘门的循环权重。因此,LSTM细胞的内部状态如下更 新,其中存在条件自环权重
Figure SMS_64
Figure SMS_65
式中b,U和W分别是LSTM细胞中遗忘门的偏差,输入权重和循环权重,外部输入门单 元
Figure SMS_66
类似于遗忘门(用sigmoid函数设置一个介于0和1之间的值)但具有其自身的参数。
Figure SMS_67
LSTM细胞的输出
Figure SMS_68
也可以由输出门/>
Figure SMS_69
关闭(用sigmoid控制门):
Figure SMS_70
式中b°,U°和W°分别是偏置,输入权重和遗忘门的循环权重,在b°,U°和W°变量中,你可 以选择使用细胞状态
Figure SMS_71
作为附加输入(及其权重)并进入单元i的输入门,遗忘门,输出门;尽管LSTM可以捕获长期序列信息,但它只考虑一个方向,即LSTM中的当前帧 仅受当前状态的影响,我们希望加强心率序列的双边关系,即处理当前帧时也考虑下一帧。 Bi-LSTM包括前向LSTM和后向LSTM,因此适用于此场景,最终输出结果可以由以下 公式得出:
Figure SMS_72
yt=σ(ht)
式中
Figure SMS_73
表示前向LSTM层的输出,前向LSTM层将从x1到xT的序列作为输入,/>
Figure SMS_74
表示后 向LSTM层的输出,前向LSTM层将从xT到x1的序列作为输入,α和β分别表示前向 LSTM和后向LSTM的重要性(α+β=1),ht表示两个/>
Figure SMS_75
函数的元素总和,yt表示预测标签。由于Bi-LSTM可以捕获更多结构信息,因此它比单向LSTM的性能 更好。再利用CRF对输出结果进行优化,CRF更关注整个句子的局部特征的线性加权组 合(通过特征模板扫描整个序列),关键点是CRF的模型是p(y|x,w),是对序列 y=(y1,y2,...,yn)进行优化,而不是特定时间点的序列yt,当y=(y1,y2,...,yn|x,w)取最大值时可 找到具有最高概率的序列y=(y1,y2,...,yn)。p(y|x,w)代表一个联合概率并优化整个序列(最 终目标),而不是每次最佳拼接。最后,CRF的输出结果被融合到Softmax中以获得最 终的分类结果。
所述步骤S3包括以下步骤:
利用Kinect AMM算法对捕捉的人脸图像帧实时分割出ROI,ROI由5个面部特征点确定:左眼、右眼、鼻子和左右嘴角5个特征点;再对ROI进行图像灰度化,几何归一化,图像滤波预处理,使图像成为归一化的标准图像,再用圆形高斯包络Gabor小波变换 进行特征提取,Gabor小波变换的内核函数定义如下:
Figure SMS_76
式中i是复数运算符,σ是高斯窗口的宽度与正弦波波长的比值,
Figure SMS_77
是一个给定像素的坐 标,/>
Figure SMS_78
是一个高斯包络函数,/>
Figure SMS_79
用来消除Gabor小波变换的图像分量的 影响,k是滤波器的中心频率,定义如下:
Figure SMS_80
式中
Figure SMS_81
定义小波尺度,/>
Figure SMS_82
定义小波方向。
再采用线性鉴别分析(Linear Discriminant Analysis,LDA)算法进行降维,LDA算 法可以从高维特征空间里提取出最具有判别能力的低维特征,这些特征(左右眼,鼻子,左右嘴角)能帮助将同一个类别的所有样本聚集在一起,别的样本尽量地分开,即选择使得样本类间离散度和样本类内离散度的比值最大的特征。LDA算法如下:设一组训练样 本的列矢量集为:
Figure SMS_83
其中:Ni为第i类训练样本的个数;C 为训练样本的类别数目。假设每类的先验概率为Pi,每类训练样本的平均矢量为ui,所有 训练样本的平均矢量为u,则类内散射矩阵Sw和类间散射矩阵Sb分别为:
Figure SMS_84
Figure SMS_85
定义训练样本的类间与类内距离之比为:
Figure SMS_86
LDA的目标就是要求出J(WL)取最大值时对应的特征向量。因此,对J(WL)按变量WL求 导并令其为∧,即可得出所要求的WL,就是满足如下等式的解。
Figure SMS_87
人脸图像帧经过Gabor的特征提取和LDA的降维后,需要对其进行分类才能得到面部表情识别结果。SVM的基本思想是将训练样本经非线性变换映射到另一高维空间中, 在变换后的高维空间内寻找一个最优的分界面,不但能将训练样本无错误或接近无错误分开,而且使类与类之间的间隙最大化,利用SVM的优势可以解决小样本数据的分类问题,但对于新增样本的分类,往往需要借助较为复杂的算法提高其准确度。AdaBoost训练以 分类最小错误率为标准,不断加大分类错误类别的权值,经过T次迭代,逐渐加强分类 器的分类能力,对SVM有较好的的提升效果。
假设有两类训练样本m个,在某维空间Rn线性可分,则将训练样本分开的平面(超平 面)满足:
w·x+b=0,w∈Rn
在满足条件的超平面中,找到能较好分开两类样本且错误率较小的平面,即
Figure SMS_88
式中:ξ为松弛变量,C为使用者选定的正参数,求出最优解w*和b*,得到SVM的决策函 数:
Figure SMS_89
式中,
Figure SMS_90
是Lagrange乘子,yi是类别标识,取一1或1。由此可以看到该决策函数只与训 练和测试样本的内积有关。若线性不可分,把低维空间映射到高维,根据泛函相关知识,用核函数K(x,y)可很好地表示内积,则决策函数改写为
Figure SMS_91
本发明采用的核函数是径向基核函数:K(xi,x)=exp(-‖xi-xj2/2σ2),由于只有一个参数, 可降低计算复杂度。将SVM推广到多类,在每一对类别之间都训练一个SVM,按照投票方式得出结果。再利用AdaBoost训练加强SVM分类器的分类能力。首先归一化各个 SVM分类器的权重:
Figure SMS_92
对每个分类器hj(x)计算错误率εj
εj=∑jwj|hj(x)-yj|
式中yj是训练样本,在计算的所有错误率中求出最小错误率εmin,若分类错误,按下式更 新权重:
Figure SMS_93
经过T次上述更新权重的步骤后,错误率小的分类器被赋以较小的权值,错误率高的 分类器被赋以较大的权值,从而提升了分类器的分类能力,进而使得识别率得到有效的提 高。
所述步骤S4包括以下步骤:
首先利用心率频率和面部表情识别结果根据情感判定规则(如表1所示)对玩家的情 感进行初步判断,提前检测最终识别情感的正确性;再利用模糊积分将两种不同模态的决 策信息(心率和面部表情)进行融合,得到最终的情感识别结果,模糊积分的关键是模糊密度的确定和判决模糊密度刻画分类器在融合过程中的重要性,本发明利用训练样本先验静态信息结合各传感器判决包含的动态信息对模糊密度进行自适应动态赋值,原理如下:
设总共有N个传感器{s1,s2,…,sN},M类目标{w1,w2,…,wM},对一待 识别目标x,传感器si输出的识别结果Di(x)=[di1(x),di2(x),…,diM(x)]是目标x属于各 类目标的信度,利用Sugeno模糊积分进行融合,对模糊密度进行自适应动态赋值的过程如 下:
(1)根据各传感器对训练样本的识别结果对每个传感器定义一个系ai(x),ai(x)表示了传 感器si对目标x的识别结果的置信度系数,反映了目标x在传感器si的特征空间中处于非重 叠区域的可能性;
Figure SMS_94
其中
Figure SMS_95
(2)模糊密度
Figure SMS_96
表示在判决目标属于类别wj时传感器si的重要性。我们采用基 于混淆矩阵确定各传感器模糊密度,对于M类目标,传感器si的归一化混淆矩阵是一M×M 矩阵/>
Figure SMS_97
其中/>
Figure SMS_98
表示传感器si将训练样本中第k类目标识别为第l类的比率, 得到模糊密度/>
Figure SMS_99
如下式所示:
Figure SMS_100
根据训练样本采用式(2)对各传感器的模糊密度确定初始值,设为
Figure SMS_101
i=1,2,…,N,j=1,2,…,M。
(3)对待识别目标x,根据各传感器识别结果利用式(1)计算各传感器的系数ai(x);
(4)将各传感器模糊密度的初始值乘于各自对应的系数ai(x)作为对目标x进行融合识别 时各传感器的模糊密度
Figure SMS_102
即/>
Figure SMS_103
表示的含义是传感器对目标x的识别结 果的置信度越低,对目标x进行融合识别时,该传感器的重要性越低。
经过步骤S1,S2,S3,S4后,结合心率与面部表情面向游戏用户的非接触式情感识别方法在实验测试中得到如表2所示的识别准确率。
表2四种情感的识别准确率
Figure SMS_104
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制, 其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均 应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,其特征在于,该方法包括如下步骤:
S1.信息采集阶段:使用Kinect 2的RGB颜色摄像头和红外摄像头采集玩家的面部信息;
S2.心率训练阶段:对采集的RGB数据和红外数据利用JADE算法和FFT计算出玩家的心率频率范围,再通过RNN和Bi-LSTM-CRF识别心率包含的情感,最后通过Softmax实现心率模式的分类;包括以下步骤:
对从RGB和红外四个通道采集到的数据进行归一化,再使用JADE算法对四个通道的归一化值进行独立分量分析实现信号的分离,独立分量分析的步骤如下所示:
(1)求出观察信号的样本协方差
Figure FDA0004139723070000011
并计算出白化矩阵/>
Figure FDA0004139723070000012
x是由来自四个通道信号组成观察信号矩阵;
(2)形成白化过程
Figure FDA0004139723070000013
的样本四阶累积量/>
Figure FDA0004139723070000014
x(t)是某一时刻的观测信号矩阵;计算n对最重要的特征对的集合/>
Figure FDA0004139723070000015
r表示第r个特征对,n表示特征对总数;
(3)通过归一化矩阵
Figure FDA0004139723070000016
对集合/>
Figure FDA0004139723070000017
进行联合对角化;
(4)估计混合矩阵
Figure FDA0004139723070000018
Figure FDA0004139723070000019
再对经过分离的四个独立分量信号调用FFT得到匹配的心率频率范围;使用RNN将具有速度和方向的连续动作心率信号点序列即N个采集点编码为矢量并记录为{hN},当前的输出是由视频序列、当前输入和先前状态确定的;假定当前给定的输入由下列等式表示:x={x1,x2,...,xt,...,xT},等式中的t代表第t帧,T代表总帧数,得到:
ht=σh(Wxhxt+Whhht-1+bh)
式中x代表输入信号向量,h,hh均代表隐藏层,ht表示隐藏层在t时刻的输出,Wxh表示代表从输入层到隐藏层的权重矩阵,Whh表示来自隐藏层的权重矩阵,bh表示隐藏层的偏差,σh表示隐藏层的激活函数,最后得出下式:
yt=σy(Whoht+bo)
式中o表示输出,yt表示第t个序列的预测标签,Who表示从隐藏层到输出的权重矩阵,bo代表了输出的偏差,σy表示预测标签的激活函数;
除了外部RNN循环,长短期记忆网络(LSTM)还具有内部LSTM细胞循环即自循环;自循环的权重或时间常数,由遗忘门
Figure FDA0004139723070000021
控制,并且权重由sigmoid函数设置为0和1,S型生长曲线,记作σ:
Figure FDA0004139723070000022
式中t表示第t个时刻,i表示第i个细胞,f表示遗忘门,σ代表sigmoid函数,x(t)是当前的输入矢量,h(t)是当前隐藏层的矢量并且包含LSTM细胞的所有输出,bf,Uf和Wf分别为偏置,输入权重和遗忘门的循环权重;j为输入门和遗忘门的循环次数,LSTM细胞的内部状态如下更新,其中存在条件自环权重
Figure FDA0004139723070000023
Figure FDA0004139723070000024
式中b,U和W分别是LSTM细胞中遗忘门的偏差,输入权重和循环权重,h代表隐藏层,外部输入门单元
Figure FDA0004139723070000025
用sigmoid函数设置一个介于0和1之间的值且具有自身的参数:
Figure FDA0004139723070000026
通过输出门
Figure FDA0004139723070000027
sigmoid函数控制输出门/>
Figure FDA0004139723070000028
来关闭LSTM细胞的输出/>
Figure FDA0004139723070000029
Figure FDA0004139723070000031
式中bo,Uo,和Wo分别是偏置、输入权重和遗忘门的循环权重,在bo,Uo和Wo这些变量中,使用细胞状态
Figure FDA0004139723070000032
作为附加输入及细胞的权重进入单元i的输入门,遗忘门,输出门;/>
Figure FDA0004139723070000033
表示在t时刻第j次循环的输入信号,所述LSTM当前帧仅受当前状态的影响,处理当前帧时需要考虑下一帧,Bi-LSTM包括前向LSTM和后向LSTM,最终输出结果由以下公式得出:
Figure FDA0004139723070000034
yt=σ(ht)
式中f表示前向LSTM层,b表示后向LSTM层,前向LSTM层把从x1到xT的序列作为输入,
Figure FDA0004139723070000035
表示前向LSTM层的输出,后向LSTM层把从xT到x1的序列作为输入,/>
Figure FDA0004139723070000036
表示后向LSTM层的输出;α和β分别表示前向LSTM和后向LSTM的重要性,α+β=1;ht表示/>
Figure FDA0004139723070000037
和/>
Figure FDA0004139723070000038
两个Softmax函数的元素总和,yt表示预测标签;再利用CRF对输出结果进行优化,CRF的模型为p(y|x,w),p(y|x,w)代表一个联合概率并以优化整个序列为最终目标;CRF对序列y=(y1,y2,...,yn)进行优化,当y=(y1,y2,...,yn|x,w)取最大值时可以找到具有最高概率y=(y1,y2,...,yn)的序列;最后,CRF的输出结果被融合到Softmax分类器中以获得最终的分类结果;
S3.面部表情训练阶段:利用基于Kinect的主动外观模型(Kinect AMM)算法对采集到的人脸视频帧实时分割出ROI,接着对经过预处理的ROI进行Gabor函数特征提取和LDA降维,再通过SVM和Adaboost融合成的强分类器实现面部表情的分类;
S4.情感判定阶段:先利用心率频率和面部表情识别结果根据情感判定规则对玩家的情感进行初步判断,提前检测最终识别情感的正确性;再利用模糊积分融合心率和面部表情进行情感判定。
2.根据权利要求1所述的一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,其特征在于,所述步骤S1具体包括:
待玩家的心率趋于正常值后,玩家在环境光条件下保持身体正直坐于电脑前进行游戏,玩家位于Kinect2的检测范围内同时保持玩家的面部能被Kinect2的摄像头捕捉到,使用RGB颜色摄像头和红外摄像头以设定的工作频率30fps,连续采集玩家30秒内的面部信息。
3.根据权利要求1所述的一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,其特征在于,所述步骤S3包括以下步骤:
利用Kinect AMM算法对捕捉的人脸图像帧实时分割出ROI,ROI由5个面部特征点确定:左眼、右眼、鼻子和左右嘴角5个特征点;再对ROI进行图像灰度化、几何归一化、图像滤波预处理,使ROI成为归一化的标准图像,再用圆形高斯包络Gabor小波变换对归一化的标准图像进行特征提取,Gabor小波变换的内核函数定义如下:
Figure FDA0004139723070000041
式中i是复数运算符,j代表第j个特征分量值,σ是高斯窗口的宽度与正弦波波长的比值,
Figure FDA0004139723070000047
是一个给定像素的坐标,/>
Figure FDA0004139723070000042
是一个高斯包络函数,/>
Figure FDA0004139723070000043
用来消除Gabor小波变换的图像分量的影响,k是滤波器的中心频率,定义如下:
Figure FDA0004139723070000044
式中
Figure FDA0004139723070000045
定义小波尺度,/>
Figure FDA0004139723070000046
定义小波方向,(u,v)定义了正弦平面波的时域频率;
再采用线性鉴别分析算法进行降维,LDA算法从高维特征空间里提取出最具有判别能力的低维特征如左右眼,鼻子,左右嘴角特征,特征将同一个类别的所有样本聚集在一起,并将不同类的样本分开,即选择使得样本类间离散度和样本类内离散度的比值最大的特征;LDA算法如下:设一组训练样本的列矢量集为:
Figure FDA0004139723070000051
其中:Ni为第i类训练样本的个数;N为特征维数,T表示对矩阵求转置,C为训练样本的类别数目;假设每类的先验概率为Pi,每类训练样本的平均矢量为ui,所有训练样本的平均矢量为u,则类内散射矩阵Sw和类间散射矩阵Sb,分别为:
Figure FDA0004139723070000052
Figure FDA0004139723070000053
定义训练样本的类间与类内距离之比为:
Figure FDA0004139723070000054
最后求出J(WL)取最大值时对应的特征向量,对J(WL)按变量WL,任一L维列向量,求导并令求导值为∧,得出所要求的WL满足如下等式的解:
SbWL=SwWL
人脸图像帧经过Gabor的特征提取和LDA的降维后,需要对降维后的人脸图像进行分类才能得到面部表情识别结果;SVM将训练样本经非线性变换映射到另一高维空间中,在变换后的高维空间内寻找一个最优的分界面,使训练样本分开,并使类与类之间的间隙最大化;利用SVM解决小样本数据的分类问题;AdaBoost训练用于分类错误率,加大分类错误类别的权值,经过T次迭代,加强分类器的分类能力,提升SVM的效果;
假设有两类训练样本m个,在某维空间Rn线性可分,则将训练样本分开的超平面满足:w·x+b=0,w∈Rn
式中w是表示超平面的方程的斜率,x表示训练样本,b是斜率,Rn代表任意n维数据空间;
在满足条件的超平面中,找到能分开两类训练样本的平面,即
Figure FDA0004139723070000061
式中:ξ为松弛变量,C为使用者选定的正参数,i表示第i维数据空间,N表示总共的数据空间维数,求出最优解w*和b*,得到SVM的决策函数:
Figure FDA0004139723070000062
式中,
Figure FDA0004139723070000063
是Lagrange乘子(拉格朗日乘子),yi是类别标识,取-1或1,xi表示第i个训练样本;
若线性不可分,则把低维空间映射到高维,用核函数K(x,y)表示内积,则决策函数改写为:
Figure FDA0004139723070000064
采用的核函数为径向基核函数:K(xi,x)=exp(-||xi-xj||2/2σ2),σ表示sigmoid函数,xi,xj分别表示第i,j个训练样本,将SVM推广到多类,在每一对类别之间都训练一个SVM,按照投票方式得出结果;再利用AdaBoost训练加强SVM分类器的分类能力,首先归一化各个SVM分类器的权重:
Figure FDA0004139723070000065
对每个分类器hj(x)计算错误率εj
Figure FDA0004139723070000066
式中yj是训练样本,在计算的所有错误率中求出最小错误率εmin,若分类错误,按下式更新权重:
Figure FDA0004139723070000071
经过T次上述更新权重的步骤后,错误率小的分类器被赋以较小的权值,错误率高的分类器被赋以较大的权值,从而提升分类器的分类能力,使得识别率得到有效的提高。
4.根据权利要求1所述的一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,其特征在于,所述步骤S4包括以下步骤:
首先利用心率频率和面部表情识别结果根据情感判定规则对玩家的情感进行初步判断,提前检测最终识别情感的正确性;再利用模糊积分将心率和面部表情的模态决策信息进行融合,得到最终的情感识别结果;模糊积分的关键是模糊密度的确定和判决模糊密度刻画分类器在融合过程中的重要性,利用训练样本先验静态信息,结合各传感器,传感器包括RGB摄像头和红外摄像头,判决包含的动态信息对模糊密度进行自适应动态赋值,原理如下:
设总共有N个传感器{s1,s2,…,sN},M类目标{w1,w2,…,wM};对待识别目标x,传感器si输出的识别结果Di(x)=[di1(x),di2(x),...,diM(x)]是目标x属于各类目标的信度,利用T-S型Sugeno模糊积分进行融合,对模糊密度进行自适应动态赋值的过程如下:
(1)根据各传感器对训练样本的识别结果对每个传感器定义一个系ai(x),ai(x)表示了传感器si对目标x识别结果的置信度系数,反映目标x在传感器si的特征空间中处于非重叠区域的可能性;
Figure FDA0004139723070000072
其中dil(x)=maxj=1M(dij(x));
(2)模糊密度
Figure FDA0004139723070000073
表示在判决目标属于类别wi时传感器si的重要性,采用基于混淆矩阵确定各传感器模糊密度,对于M类目标,传感器si的归一化混淆矩阵是一M×M矩阵
Figure FDA0004139723070000081
其中/>
Figure FDA0004139723070000082
表示传感器si将训练样本中第k类目标识别为第l类的比率,/>
Figure FDA0004139723070000083
表示传感器si将训练样本中第k类目标识别为第j类的比率,/>
Figure FDA0004139723070000084
表示传感器si将训练样本中第j类目标识别为第j类的比率,得到模糊密度/>
Figure FDA0004139723070000085
如下式所示:
Figure FDA0004139723070000086
根据训练样本采用式(2)对各传感器的模糊密度确定初始值,设为
Figure FDA0004139723070000087
i=1,2,…,N,j=1,2,…,M;
(3)对待识别目标x,根据各传感器识别结果利用式(1)计算各传感器的系数ai(x);
(4)将各传感器模糊密度的初始值乘于各自对应的系数ai(x)作为对目标x进行融合识别时各传感器的模糊密度
Figure FDA0004139723070000088
即/>
Figure FDA0004139723070000089
Figure FDA00041397230700000810
数值越低相应传感器对目标x的识别糊积分进行融合结果的置信度越低,在对目标x进行融合识别时,该传感器的重要性越低。结果的置信度越低,在对目标x进行融合识别时,该传感器的重要性越低。
CN201811411596.9A 2018-11-25 2018-11-25 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法 Active CN109670406B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811411596.9A CN109670406B (zh) 2018-11-25 2018-11-25 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811411596.9A CN109670406B (zh) 2018-11-25 2018-11-25 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法

Publications (2)

Publication Number Publication Date
CN109670406A CN109670406A (zh) 2019-04-23
CN109670406B true CN109670406B (zh) 2023-06-20

Family

ID=66142754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811411596.9A Active CN109670406B (zh) 2018-11-25 2018-11-25 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法

Country Status (1)

Country Link
CN (1) CN109670406B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113853161A (zh) * 2019-05-16 2021-12-28 托尼有限责任公司 用于识别和测量情感状态的系统和方法
CN111530081B (zh) * 2020-04-17 2023-07-25 成都数字天空科技有限公司 游戏关卡设计方法、装置、存储介质及电子设备
CN112370058A (zh) * 2020-11-11 2021-02-19 西北工业大学 一种基于移动端对用户的情感进行识别与监测方法
CN112686094B (zh) * 2020-12-03 2021-08-10 华中师范大学 一种基于毫米波雷达的非接触式身份识别方法及系统
CN113143274B (zh) * 2021-03-31 2023-11-10 中国科学院心理研究所 基于摄像头的情绪预警方法
CN113827240B (zh) * 2021-09-22 2024-03-22 北京百度网讯科技有限公司 情绪分类方法和情绪分类模型的训练方法、装置及设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5842194A (en) * 1995-07-28 1998-11-24 Mitsubishi Denki Kabushiki Kaisha Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions
CN101609549B (zh) * 2009-07-24 2011-08-10 河海大学常州校区 视频模糊图像的多尺度几何分析超分辨处理方法
CN101887721A (zh) * 2010-07-19 2010-11-17 东南大学 一种基于心电信号与语音信号的双模态情感识别方法
CN104268507A (zh) * 2014-09-15 2015-01-07 南京邮电大学 一种基于rgb-d图像的手语字母识别方法
DE102016110903A1 (de) * 2015-06-14 2016-12-15 Facense Ltd. Head-Mounted-Devices zur Messung physiologischer Reaktionen
CN106264568B (zh) * 2016-07-28 2019-10-18 深圳科思创动实业有限公司 非接触式情绪检测方法和装置
CN107066956B (zh) * 2017-03-24 2020-06-19 北京科技大学 一种基于体域网的多源情感识别机器人
CN107239738A (zh) * 2017-05-05 2017-10-10 南京邮电大学 一种融合眼动技术与心率检测技术的情感分析方法
CN107239769A (zh) * 2017-06-16 2017-10-10 西南大学 一种使用多通道信息融合的个人情感效价识别方法

Also Published As

Publication number Publication date
CN109670406A (zh) 2019-04-23

Similar Documents

Publication Publication Date Title
CN109670406B (zh) 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法
Angulu et al. Age estimation via face images: a survey
Wysoski et al. Fast and adaptive network of spiking neurons for multi-view visual pattern recognition
Abdullah et al. Facial expression recognition based on deep learning convolution neural network: A review
Hassan et al. Soft biometrics: A survey: Benchmark analysis, open challenges and recommendations
CN106529504B (zh) 一种复合时空特征的双模态视频情感识别方法
Nandakumar Integration of multiple cues in biometric systems
Bu Human motion gesture recognition algorithm in video based on convolutional neural features of training images
Lamba et al. Multimodal human eye blink recognition method using feature level fusion for exigency detection
Lima et al. Simple and efficient pose-based gait recognition method for challenging environments
Saleem et al. Real-life dynamic facial expression recognition: a review
Spivak et al. Approach to Recognizing of Visualized Human Emotions for Marketing Decision Making Systems.
Sarin et al. Cnn-based multimodal touchless biometric recognition system using gait and speech
Aslam et al. Gender classification based on isolated facial features and foggy faces using jointly trained deep convolutional neural network
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
Yuan et al. Research on intelligent algorithm of identity authentication based on facial features
Jien et al. Age-based facial recognition using convoluted neural network deep learning algorithm
Wang Examination on face recognition method based on type 2 blurry
Fernandez Biometric sample quality and its application to multimodal authentication systems
Jan Deep learning based facial expression recognition and its applications
Zuobin et al. Effective feature fusion for pattern classification based on intra-class and extra-class discriminative correlation analysis
Prasanth et al. Fusion of iris and periocular biometrics authentication using CNN
Abinaya et al. Classification of Facial Expression Recognition using Machine Learning Algorithms
Sulaiman et al. A systematic review on Evaluation of Driver Fatigue Monitoring Systems based on Existing Face/Eyes Detection Algorithms
CN112241680A (zh) 基于静脉相似图像知识迁移网络的多模态身份认证方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant