CN102968643A - 一种基于李群论的多模态情感识别方法 - Google Patents

一种基于李群论的多模态情感识别方法 Download PDF

Info

Publication number
CN102968643A
CN102968643A CN2012104662933A CN201210466293A CN102968643A CN 102968643 A CN102968643 A CN 102968643A CN 2012104662933 A CN2012104662933 A CN 2012104662933A CN 201210466293 A CN201210466293 A CN 201210466293A CN 102968643 A CN102968643 A CN 102968643A
Authority
CN
China
Prior art keywords
region
matrix
human
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012104662933A
Other languages
English (en)
Other versions
CN102968643B (zh
Inventor
王天江
刘芳
许春燕
杨勇
龚立宇
邵光普
舒禹程
曹守刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201210466293.3A priority Critical patent/CN102968643B/zh
Publication of CN102968643A publication Critical patent/CN102968643A/zh
Application granted granted Critical
Publication of CN102968643B publication Critical patent/CN102968643B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于李群论的多模态情感识别方法,包括以下步骤:获取视频,并提取视频帧中图像区域的高斯型特征描述子,基于高斯型特征描述子对视频中的图像区域进行跟踪,根据视频子序列构建ARMA模型获取ARMA模型间的距离,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,根据人体、脸部和手部的情感类别概率对人进行情感识别。本发明根据视频中所包含的人体姿态运动信息、手势和脸部表情信息来判断人的情感状态,是一个将视频数据映射到人体运动特征、手势特征和脸部表情特征,再从人体运动特征空间和脸部表情特征映射到状态空间的过程,并提出利用李群论进行多模态情感识别,提高模型进行情感识别的精确性。

Description

一种基于李群论的多模态情感识别方法
技术领域
本发明属于情感识别领域,更具体地,涉及一种基于李群论的多模态情感识别方法。
背景技术
现有的情感识别方法,通产包括:人体、脸部等对象的跟踪、基于图像的情感分类、决策级融合等步骤。
对象跟踪从视频中跟踪目标得到它在每一帧中的位置。Ying Wu等使用两层的马尔科夫场来表示人体特征,进行人体跟踪。Dalal和Triggs采用方向梯度直方图来描述人的轮廓,通过使用不同位置和分辨率的窗口从图像中梯度方向直方图组合成特征向量,然后将特征向量输入支持向量机分类检测出人体并跟踪。Qiang Zhu等对Dalal等的方法进行改进,在计算方向梯度直方图时使用可变大小的块代替前者固定大小的块,使得性能有所改善。Pfinder系统通过特定的姿势分析出脸部、手、脚等位置,对每个区域用空间位置和颜色建模,然后用颜色对这些区域进行跟踪。其中如何抽取图像特征,建立跟踪模版,对跟踪对象进行准确跟踪是情感识别中一个重要问题。
情感模式挖掘从时间序列中挖掘出代表基本情感的运动特征模式。目前,从时间序列中进行数据挖掘有两类方法:一类是先对时间序列提取更高级的特征向量,再对特征向量进行分析。如Daniel Weinland等人提出的行为识别方法。但是,提取高层特征的过程通常伴随着信息的丢失,寻找一种合适的高层特征也需要先验知识。另一类方法是采用面向时间序列的机器学习方法,直接对时间序列进行挖掘,主要有隐式马尔科夫模型等方法。但是人体运动特征中的情感模式比较隐蔽,如何恰当地设计模型及其度量,是情感识别的一个难点。
发明内容
针对现有技术的缺陷,本发明的目的在于提供一种基于李群论的多模态情感识别方法,其根据视频中所包含的人体姿态运动信息、手势和脸部表情信息来判断人的情感状态,是一个将视频数据映射到人体运动特征、手势特征和脸部表情特征,再从人体运动特征空间和脸部表情特征映射到状态空间的过程,并提出利用李群论进行多模态情感识别,提高模型进行情感识别的精确性。
为实现上述目的,本发明提供了一种基于李群论的多模态情感识别方法,包括以下步骤:
步骤一,获取视频,并提取视频帧中图像区域的高斯型特征描述子,包括下述子步骤:
(1.1)对于图像区域中的每个像素点而言,计算一个d维特征向量F(x,y),该特征向量 F ( x , y ) = [ R , G , B , x , y , | I x | , | I y | , I x 2 + I y 2 ] , 其中d为正整数,R,G,B是像素点的颜色信息,x,y是像素点在水平和垂直方向的位置信息,|Ix|,|Iy|分别是像素点在水平方向和垂直方向的梯度信息,该图像区域所有像素点的特征向量构成图像的特征向量集合;
(1.2)确定该图像区域对应的均值d维向量μ和协方差d维方阵,其中协方差矩阵
Figure BDA00002417487900023
Fk是图像区域中第k个像素点的特征向量,n是图像区域内像素点的总和,T表示矩阵的转置。
(1.3)基于步骤(1.1)和(1.2)的结果并结合李群论构建高斯型特征描述子;
步骤二,基于步骤一中得到的高斯型特征描述子,对视频中的图像区域进行跟踪,包括下述子步骤:
(2.1)在视频的第一帧中选取脸部区域、手部区域和人体区域;
(2.2)根据选取的脸部区域、手部区域和人体区域结合高斯型特征描述子构建跟踪模版;
(2.3)根据构建的跟踪模版,利用粒子滤波方法对脸部区域、手部区域和人体区域进行跟踪,根据跟踪结果更新跟踪模版,并记录跟踪结果,以得到脸部区域、手部区域和人体区域对应的视频子序列X,该视频子序列的长度为b;;
步骤三,根据步骤二得到的视频子序列构建ARMA模型;
步骤四,获取ARMA模型间的距离;具体包括以下子步骤:
(4.1)根据ARMA模型的参数获取估计观测矩阵 O b T = [ C T , ( CA ) T , ( CA 2 ) T , . . . , ( CA b ) T ] ;
(4.2)对于任何两个视频子序列对应的观测正交矩阵C1和C2,约束L为正定矩阵,在任何两个ARMA模型之间最短的欧氏距离可以表示为:
D(X1,X2)2=minM||(C1-C2L)T(C1-C2L)||F
=minM||C1 TC1-C1 TC2L-LTC2 TC1+LTC2 TC2L||F
=minM||I-C1 TC2L-LTC2 TC1+LTL||F
其中,‖‖F代表Frobenius矩阵范式,I表示单位矩阵。
(4.3)根据拉格朗日乘子法获得L=C2 TC1,即ARMA模型之间的距离可表示为:D(X1,X2)2=||I-LTL||F
步骤五,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,具体包括以下子步骤:
(5.1)构建核函数K(X1,X2)=exp(-γD(X1,X2)),其中γ是缩放常量;
(5.2)基于此核函数,并利用SVM分类器,对人体、脸部和手部区域对应的视频子序列分别进行分类,以分别产生人体、脸部和手部的情感类别概率;
步骤六,根据人体、脸部和手部的情感类别概率对人进行情感识别,具体包括以下子步骤:
(6.1)SVM根据人体、脸部和手部的情感类别概率对每种情感状态得到一个后验概率,用pmn表示,其中m=1,2,3分别代表人体特征、手部特征和面部表情,n=1,2,…8分别代表不同的情感状态;
(6.2)根据后验概率利用加权决策准则确定最终的情感状态,具体为,加权准则分别对每种情感状态由三种特征得到的概率求加权平均值,取加权平均值最大的情感状态作为最终输出的情感状态,具体公式如下:
f = arg max n ( Σ m = 1,2,3 w m p mn )
其中用w1、w2和w3分别表示人体运动特征、声音特征和面部表情对应的权值,f最大的情感状态作为最终输出的情感状态。
步骤(1.3)具体为,利用Cholesky分解将矩阵∑分解成一个下三角矩阵P和上三角矩阵PT的乘积,即:∑=PPT,且任何一个图像区域的协方差矩阵∑对应着一个下三角矩阵P,其后,利用得到的下三角矩阵P和步骤(1.2)中得到的均值d维向量μ,构建该图像区域的高斯型特征描述子 M = P μ 0 1 .
步骤(2.3)具体为,确定脸部区域、手部区域和人体区域的高斯型特征描述子与跟踪模版之间的距离,dit=||log(Mi -1Mt)||,其中Mi是在第i帧中跟踪的脸部区域、手部区域和人体区域的高斯型特征描述子,Mt是跟踪模版,log()表示矩阵对数,‖‖表示向量求模运算。
步骤三包括下述子步骤:
(3.1)对于视频子序列中的每一帧提取PHOG特征向量f(t),其维数为a;
(3.2)根据PHOG特征向量f(t)构建视频子序列对应的ARMA模型:
(3.3)对ARMA模型的参数求解。
步骤(3.2)具体采用以下公式:
f ( t ) = Cz ( t ) + w ( t ) z ( t + 1 ) = Az ( t ) + v ( t )
其中,t表示时间,C是a*b维的观测矩阵,z(t)是b维的隐状态向量,A是b*b维的转移矩阵,,w(t)和v(t)是干扰噪声组件,其分别服从均值为0、协方差矩阵分别为R和Q的正态分布。
步骤(3.3)具体为,对于给定的视频子序列,视频子序列的a*b维特征矩阵
Figure BDA00002417487900052
Figure BDA00002417487900053
代表奇异值分解。
C=U
Z 1 b = WV T
Figure BDA00002417487900055
Q = 1 b - 1 Σ i = 1 b - 1 v i v i T
其中,
Figure BDA00002417487900057
Figure BDA00002417487900058
Figure BDA00002417487900059
的伪逆矩阵,vi=z(ti)-Az(ti-1)。
ARMA模型之间的距离度量满足对称性,正定型和三角不等性这度量函数的三个属性。
情感状态包括愤怒、悲伤、害怕、高兴、喜爱、惊讶、厌恶、害羞。
通过本发明所构思的以上技术方案,与现有技术相比,本发明具有以下的有益效果:
1、提高跟踪精确度:由于采用了步骤一和步骤二,即基于李群论的对图像区域提取高斯型图像特征描述子,因此可对目标对象进行有效跟踪;
2、构建跟踪对象视频子序列模型:由于采用了步骤三,人体运动特征中的情感模式比较隐蔽,本发明对视频子序列构建ARMA模型;
3、模型间高效的度量:由于采用了步骤四、五和六,即构建ARMA模型间的距离度量,因此可降低其时间复杂度,提高基于其核函数的情感识别的准确性。
附图说明
图1为本发明基于李群论的多模态情感识别方法的流程示意图。
图2为本发明方法中步骤一的细化流程图。
图3为本发明方法中步骤二的细化流程图。
图4为本发明方法中步骤三的细化流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明以基于拍摄到的高清跟踪视频为素材,仿真平台是MATLABR2010a。
如图1所示,本发明基于李群论的多模态情感识别方法包括以下步骤:
步骤一,获取视频,并提取视频帧中图像区域的高斯型特征描述子,包括下述子步骤:
(1.1)对于图像区域中的每个像素点而言,计算一个d维特征向量F(x,y),该特征向量 F ( x , y ) = [ R , G , B , x , y , | I x | , | I y | , I x 2 + I y 2 ] , 其中d为正整数,R,G,B是像素点的颜色信息,x,y是像素点在水平和垂直方向的位置信息,|Ix|,|Iy|分别是像素点在水平方向和垂直方向的梯度信息,该图像区域所有像素点的特征向量构成图像的特征向量集合;
(1.2)确定该图像区域对应的均值d维向量μ和协方差d维方阵,其中
Figure BDA00002417487900062
协方差矩阵
Figure BDA00002417487900063
Fk是图像区域中第k个像素点的特征向量,n是图像区域内像素点的总和,T表示矩阵的转置。
(1.3)基于步骤(1.1)和(1.2)的结果并结合李群论构建高斯型特征描述子;
具体而言,由于协方差d维方阵∑是正定对称的,可利用Cholesky分解将矩阵∑分解成一个下三角矩阵P和上三角矩阵PT的乘积,即:∑=PPT,且任何一个图像区域的协方差矩阵∑对应着一个下三角矩阵P。
其后,利用得到的下三角矩阵P和步骤(1.2)中得到的均值d维向量μ,构建该图像区域的高斯型特征描述子 M = P μ 0 1 ;
步骤二,基于步骤一中得到的高斯型特征描述子,对视频中的图像区域进行跟踪,包括下述子步骤:
(2.1)在视频的第一帧中选取脸部区域、手部区域和人体区域;
(2.2)根据选取的脸部区域、手部区域和人体区域结合高斯型特征描述子构建跟踪模版;
(2.3)根据构建的跟踪模版,利用粒子滤波方法对脸部区域、手部区域和人体区域进行跟踪,根据跟踪结果更新跟踪模版,并记录跟踪结果,以得到脸部区域、手部区域和人体区域对应的视频子序列X,该视频子序列的长度为b;;
在对脸部区域、手部区域和人体区域进行跟踪时,需要确定脸部区域、手部区域和人体区域的高斯型特征描述子与跟踪模版之间的距离,dit=||log(Mi -1Mt)||,其中Mi是在第i帧中跟踪的脸部区域、手部区域和人体区域的高斯型特征描述子,Mt是跟踪模版,log()表示矩阵对数,‖‖表示向量求模运算。
步骤三,根据步骤二得到的视频子序列构建自回归滑动平均(Autoregressive moving average model,简称ARMA)模型,包括下述子步骤:
(3.1)对于视频子序列中的每一帧提取金字塔梯度直方图(PyramidHistogram of Orientated Gradient,简称PHOG)特征向量f(t),其维数为a;
(3.2)根据PHOG特征向量f(t)构建视频子序列对应的ARMA模型:
f ( t ) = Cz ( t ) + w ( t ) z ( t + 1 ) = Az ( t ) + v ( t )
其中,t表示时间,C是a*b维的观测矩阵,z(t)是b维的隐状态向量,A是b*b维的转移矩阵,,w(t)和v(t)是干扰噪声组件,其分别服从均值为0、协方差矩阵分别为R和Q的正态分布。
(3.3)对ARMA模型的参数求解;
具体而言,对于给定的视频子序列,视频子序列的a*b维特征矩阵
Figure BDA00002417487900082
Figure BDA00002417487900083
代表奇异值分解。
C=U
Z 1 b = WV T
Figure BDA00002417487900085
Q = 1 b - 1 Σ i = 1 b - 1 v i v i T
其中,
Figure BDA00002417487900088
Figure BDA00002417487900089
的伪逆矩阵,vi=z(ti)-Az(ti-1)。
步骤四,获取ARMA模型间的距离;具体包括以下子步骤:
(4.1)根据ARMA模型的参数获取估计观测矩阵 O b T = [ C T , ( CA ) T , ( CA 2 ) T , . . . , ( CA b ) T ] ;
(4.2)对于任何两个视频子序列对应的观测正交矩阵C1和C2,约束L为正定矩阵,在任何两个ARMA模型之间最短的欧氏距离可以表示为:
D(X1,X2)2=minM ||(C1-C2L)T(C1-C2L)||F
=minM ||C1 TC1-C1 TC2L-LTC2 TC1+LTC2 TC2L||F
=minM ||I-C1 TC2L-LTC2 TC1+LTL||F
其中,‖‖F代表Frobenius矩阵范式,I表示单位矩阵。
(4.3)根据拉格朗日乘子法获得L=C2 TC1,即ARMA模型之间的距离可表示为:
D(X1,X2)2=||I-LTL||F.
此距离度量满足对称性,正定型和三角不等性这度量函数的三个属性。
步骤五,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,具体包括以下子步骤:
(5.1)构建核函数K(X1,X2)
具体而言,K(X1,X2)=exp(-γD(X1,X2)),其中γ是缩放常量。
因为D(X1,X2)=D(X2,X1),所以K(X1,X2)=K(X2,X1),此核函数满足对称性,同时满足正定性。
(5.2)基于此核函数,并利用SVM分类器,对人体、脸部和手部区域对应的视频子序列分别进行分类,以分别产生人体、脸部和手部的情感类别概率。
步骤六,根据人体、脸部和手部的情感类别概率对人进行情感识别,具体包括以下子步骤:
(6.1)SVM根据人体、脸部和手部的情感类别概率对每种情感状态得到一个后验概率,用pmn表示(其中m=1,2,3分别代表人体特征、手部特征和面部表情,n=1,2,…8分别代表愤怒、悲伤、害怕、高兴、喜爱、惊讶、厌恶、害羞共八种情感状态,例如p31表示根据面部表情判断情感状态为愤怒的概率);
(6.2)根据后验概率利用加权决策准则确定最终的情感状态,具体为,加权准则分别对每种情感状态由三种特征得到的概率求加权平均值,取加权平均值最大的情感状态作为最终输出的情感状态,具体公式如下:
f = arg max n ( Σ m = 1,2,3 w m p mn )
其中用w1、w2和w3分别表示人体运动特征、声音特征和面部表情对应的权值,f最大的情感状态作为最终输出的情感状态。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于李群论的多模态情感识别方法,其特征在于,包括以下步骤:
步骤一,获取视频,并提取视频帧中图像区域的高斯型特征描述子,包括下述子步骤:
(1.1)对于图像区域中的每个像素点而言,计算一个d维特征向量F(x,y),该特征向量 F ( x , y ) = [ R , G , B , x , y , | I x | , | I y | , I x 2 + I y 2 ] , 其中d为正整数,R,G,B是像素点的颜色信息,x,y是像素点在水平和垂直方向的位置信息,|Ix|,|Iy|分别是像素点在水平方向和垂直方向的梯度信息,该图像区域所有像素点的特征向量构成图像的特征向量集合;
(1.2)确定该图像区域对应的均值d维向量μ和协方差d维方阵,其中
Figure FDA00002417487800012
协方差矩阵Fk是图像区域中第k个像素点的特征向量,n是图像区域内像素点的总和,T表示矩阵的转置。
(1.3)基于步骤(1.1)和(1.2)的结果并结合李群论构建高斯型特征描述子;
步骤二,基于步骤一中得到的高斯型特征描述子,对视频中的图像区域进行跟踪,包括下述子步骤:
(2.1)在视频的第一帧中选取脸部区域、手部区域和人体区域;
(2.2)根据选取的脸部区域、手部区域和人体区域结合高斯型特征描述子构建跟踪模版;
(2.3)根据构建的跟踪模版,利用粒子滤波方法对脸部区域、手部区域和人体区域进行跟踪,根据跟踪结果更新跟踪模版,并记录跟踪结果,以得到脸部区域、手部区域和人体区域对应的视频子序列X,该视频子序列的长度为b;;
步骤三,根据步骤二得到的视频子序列构建ARMA模型;
步骤四,获取ARMA模型间的距离;具体包括以下子步骤:
(4.1)根据ARMA模型的参数获取估计观测矩阵 O b T = [ C T , ( CA ) T , ( CA 2 ) T , . . . , ( CA b ) T ] ;
(4.2)对于任何两个视频子序列对应的观测正交矩阵C1和C2,约束L为正定矩阵,在任何两个ARMA模型之间最短的欧氏距离可以表示为:
D(X1,X2)2=minM||(C1-C2L)T(C1-C2L)||F
=minM||C1 TC1-C1 TC2L-LTC2 TC1+LTC2 TC2L||F
=minM||I-C1 TC2L-LTC2 TC1+LT||LF
其中,‖‖F代表Frobenius矩阵范式,I表示单位矩阵。
(4.3)根据拉格朗日乘子法获得L=C2 TC1,即ARMA模型之间的距离可表示为:D(X1,X2)2=||I-LTL||F
步骤五,根据ARMA模型之间的距离构建核函数,并进行情感表达分类,具体包括以下子步骤:
(5.1)构建核函数K(X1,X2)=exp(-γD(X1,,X2)),其中γ是缩放常量;
(5.2)基于此核函数,并利用SVM分类器,对人体、脸部和手部区域对应的视频子序列分别进行分类,以分别产生人体、脸部和手部的情感类别概率;
步骤六,根据人体、脸部和手部的情感类别概率对人进行情感识别,具体包括以下子步骤:
(6.1)SVM根据人体、脸部和手部的情感类别概率对每种情感状态得到一个后验概率,用pmn表示,其中m=1,2,3分别代表人体特征、手部特征和面部表情,n=1,2,…8分别代表不同的情感状态;
(6.2)根据后验概率利用加权决策准则确定最终的情感状态,具体为,加权准则分别对每种情感状态由三种特征得到的概率求加权平均值,取加权平均值最大的情感状态作为最终输出的情感状态,具体公式如下:
f = arg max n ( Σ m = 1,2,3 w m p mn )
其中用w1、w2和w3分别表示人体运动特征、声音特征和面部表情对应的权值,f最大的情感状态作为最终输出的情感状态。
2.根据权利要求1所述的多模态情感识别方法,其特征在于,步骤(1.3)具体为,利用Cholesky分解将矩阵∑分解成一个下三角矩阵P和上三角矩阵PT的乘积,即:∑=PPT,且任何一个图像区域的协方差矩阵∑对应着一个下三角矩阵P,其后,利用得到的下三角矩阵P和步骤(1.2)中得到的均值d维向量μ,构建该图像区域的高斯型特征描述子 M = P μ 0 1 .
3.根据权利要求1所述的多模态情感识别方法,其特征在于,步骤(2.3)具体为,确定脸部区域、手部区域和人体区域的高斯型特征描述子与跟踪模版之间的距离,dit=||log(Mi -1Mt)||,其中Mi是在第i帧中跟踪的脸部区域、手部区域和人体区域的高斯型特征描述子,Mt是跟踪模版,log()表示矩阵对数,‖‖表示向量求模运算。
4.根据权利要求1所述的多模态情感识别方法,其特征在于,步骤三包括下述子步骤:
(3.1)对于视频子序列中的每一帧提取PHOG特征向量f(t),其维数为a;
(3.2)根据PHOG特征向量f(t)构建视频子序列对应的ARMA模型:
(3.3)对ARMA模型的参数求解。
5.根据权利要求4所述的多模态情感识别方法,其特征在于,步骤(3.2)具体采用以下公式:
f ( t ) = Cz ( t ) + w ( t ) z ( t + 1 ) = Az ( t ) + v ( t )
其中,t表示时间,C是a*b维的观测矩阵,z(t)是b维的隐状态向量,A是b*b维的转移矩阵,,w(t)和v(t)是干扰噪声组件,其分别服从均值为0、协方差矩阵分别为R和Q的正态分布。
6.根据权利要求4所述的多模态情感识别方法,其特征在于,步骤(3.3)具体为,对于给定的视频子序列,视频子序列的a*b维特征矩阵 G 1 b = [ f ( t 1 ) , f ( t 2 ) , . . . , f ( t b ) ] , G 1 b = UWV T 代表奇异值分解。
C=U
Z 1 b = WV T
Figure FDA00002417487800044
Q = 1 b - 1 Σ i = 1 b - 1 v i v i T
其中,
Figure FDA00002417487800046
Figure FDA00002417487800047
Figure FDA00002417487800048
的伪逆矩阵,vi=z(ti)-Az(ti-1)。
7.根据权利要求1所述的多模态情感识别方法,其特征在于,ARMA模型之间的距离度量满足对称性,正定型和三角不等性这度量函数的三个属性。
8.根据权利要求1所述的多模态情感识别方法,其特征在于,情感状态包括愤怒、悲伤、害怕、高兴、喜爱、惊讶、厌恶、害羞。
CN201210466293.3A 2012-11-16 2012-11-16 一种基于李群论的多模态情感识别方法 Expired - Fee Related CN102968643B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210466293.3A CN102968643B (zh) 2012-11-16 2012-11-16 一种基于李群论的多模态情感识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210466293.3A CN102968643B (zh) 2012-11-16 2012-11-16 一种基于李群论的多模态情感识别方法

Publications (2)

Publication Number Publication Date
CN102968643A true CN102968643A (zh) 2013-03-13
CN102968643B CN102968643B (zh) 2016-02-24

Family

ID=47798774

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210466293.3A Expired - Fee Related CN102968643B (zh) 2012-11-16 2012-11-16 一种基于李群论的多模态情感识别方法

Country Status (1)

Country Link
CN (1) CN102968643B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015161776A1 (en) * 2014-04-22 2015-10-29 Tencent Technology (Shenzhen) Company Limited Hand motion identification method and apparatus
CN105868694A (zh) * 2016-03-24 2016-08-17 中国地质大学(武汉) 基于面部表情和眼球动作的双模态情感识别方法及系统
CN105929944A (zh) * 2016-04-15 2016-09-07 济南大学 一种三维人机交互方法
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知系统
CN107808146A (zh) * 2017-11-17 2018-03-16 北京师范大学 一种多模态情感识别分类方法
CN108154169A (zh) * 2017-12-11 2018-06-12 北京小米移动软件有限公司 图像处理方法及装置
CN108171208A (zh) * 2018-01-17 2018-06-15 百度在线网络技术(北京)有限公司 信息获取方法和装置
CN109376711A (zh) * 2018-12-06 2019-02-22 深圳市淘米科技有限公司 一种基于iltp的人脸情绪预判方法
CN110234018A (zh) * 2019-07-09 2019-09-13 腾讯科技(深圳)有限公司 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN110929631A (zh) * 2019-11-19 2020-03-27 武汉大学 一种基于Lie-AdaBoost遥感影像的场景分类方法
CN111126485A (zh) * 2019-12-24 2020-05-08 武汉大学 一种基于李群机器学习核函数的Lie-KFDA场景分类方法和系统
CN112220479A (zh) * 2020-09-04 2021-01-15 陈婉婷 基于遗传算法的被审讯单体情绪判断方法、装置和设备
CN115047824A (zh) * 2022-05-30 2022-09-13 青岛海尔科技有限公司 数字孪生多模态设备控制方法、存储介质及电子装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596039B (zh) * 2018-03-29 2020-05-05 南京邮电大学 一种基于3d卷积神经网络的双模态情感识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101561868A (zh) * 2009-05-19 2009-10-21 华中科技大学 基于高斯特征的人体运动情感识别方法
CN101625763A (zh) * 2009-04-17 2010-01-13 华中科技大学 空间颜色直方图相似度度量方法
CN102467668A (zh) * 2010-11-16 2012-05-23 鸿富锦精密工业(深圳)有限公司 情绪侦测及舒缓系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101625763A (zh) * 2009-04-17 2010-01-13 华中科技大学 空间颜色直方图相似度度量方法
CN101561868A (zh) * 2009-05-19 2009-10-21 华中科技大学 基于高斯特征的人体运动情感识别方法
CN102467668A (zh) * 2010-11-16 2012-05-23 鸿富锦精密工业(深圳)有限公司 情绪侦测及舒缓系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李新仕等: "基于高斯混合模型的视频运动对象自动分割算法", 《计算机科学》, vol. 36, no. 1, 31 January 2009 (2009-01-31), pages 205 - 207 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015161776A1 (en) * 2014-04-22 2015-10-29 Tencent Technology (Shenzhen) Company Limited Hand motion identification method and apparatus
US10248854B2 (en) 2014-04-22 2019-04-02 Beijing University Of Posts And Telecommunications Hand motion identification method and apparatus
CN105868694B (zh) * 2016-03-24 2019-03-08 中国地质大学(武汉) 基于面部表情和眼球动作的双模态情感识别方法及系统
CN105868694A (zh) * 2016-03-24 2016-08-17 中国地质大学(武汉) 基于面部表情和眼球动作的双模态情感识别方法及系统
CN105929944A (zh) * 2016-04-15 2016-09-07 济南大学 一种三维人机交互方法
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知系统
CN107808146A (zh) * 2017-11-17 2018-03-16 北京师范大学 一种多模态情感识别分类方法
CN107808146B (zh) * 2017-11-17 2020-05-05 北京师范大学 一种多模态情感识别分类方法
CN108154169A (zh) * 2017-12-11 2018-06-12 北京小米移动软件有限公司 图像处理方法及装置
CN108171208A (zh) * 2018-01-17 2018-06-15 百度在线网络技术(北京)有限公司 信息获取方法和装置
CN109376711A (zh) * 2018-12-06 2019-02-22 深圳市淘米科技有限公司 一种基于iltp的人脸情绪预判方法
CN110234018A (zh) * 2019-07-09 2019-09-13 腾讯科技(深圳)有限公司 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN110929631A (zh) * 2019-11-19 2020-03-27 武汉大学 一种基于Lie-AdaBoost遥感影像的场景分类方法
CN111126485A (zh) * 2019-12-24 2020-05-08 武汉大学 一种基于李群机器学习核函数的Lie-KFDA场景分类方法和系统
CN112220479A (zh) * 2020-09-04 2021-01-15 陈婉婷 基于遗传算法的被审讯单体情绪判断方法、装置和设备
CN115047824A (zh) * 2022-05-30 2022-09-13 青岛海尔科技有限公司 数字孪生多模态设备控制方法、存储介质及电子装置

Also Published As

Publication number Publication date
CN102968643B (zh) 2016-02-24

Similar Documents

Publication Publication Date Title
CN102968643B (zh) 一种基于李群论的多模态情感识别方法
US7308112B2 (en) Sign based human-machine interaction
CN108171112A (zh) 基于卷积神经网络的车辆识别与跟踪方法
CN107748873A (zh) 一种融合背景信息的多峰目标跟踪方法
CN108171133B (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN105139039A (zh) 视频序列中人脸微表情的识别方法
Wan et al. Facial expression recognition in video sequences
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
Li et al. Dynamic Hand Gesture Recognition Using Multi-direction 3D Convolutional Neural Networks.
CN110674741A (zh) 一种基于双通道特征融合的机器视觉中手势识别方法
Goldenberg et al. Behavior classification by eigendecomposition of periodic motions
CN103336967B (zh) 一种手部运动轨迹检测方法及装置
Danelakis et al. An effective methodology for dynamic 3D facial expression retrieval
Si et al. Hand-raising gesture detection in real classrooms using improved R-FCN
Xu et al. Deep regionlets: Blended representation and deep learning for generic object detection
Xu et al. D-STC: Deep learning with spatio-temporal constraints for train drivers detection from videos
Lee et al. Head and body orientation estimation using convolutional random projection forests
Kumar et al. A scheme of features fusion for facial expression analysis: A facial action recognition
CN105809713A (zh) 基于在线Fisher判别机制增强特征选择的目标跟踪方法
Habermann et al. Road junction detection from 3d point clouds
CN103593661A (zh) 一种基于排序方法的人体动作识别方法
Chen et al. Learning to locate for fine-grained image recognition
Wu et al. Realtime single-shot refinement neural network with adaptive receptive field for 3D object detection from LiDAR point cloud
Chiu et al. See the difference: Direct pre-image reconstruction and pose estimation by differentiating hog
Yu et al. Multi-task deep learning for image understanding

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160224

Termination date: 20191116