CN106250855B - 一种基于多核学习的多模态情感识别方法 - Google Patents
一种基于多核学习的多模态情感识别方法 Download PDFInfo
- Publication number
- CN106250855B CN106250855B CN201610627333.6A CN201610627333A CN106250855B CN 106250855 B CN106250855 B CN 106250855B CN 201610627333 A CN201610627333 A CN 201610627333A CN 106250855 B CN106250855 B CN 106250855B
- Authority
- CN
- China
- Prior art keywords
- kernel
- modal
- fusion
- emotion
- core
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多核学习的多模态情感识别方法,该方法首先对多模态情感数据库中每种模态的样本数据提取情感特征,如表情特征、语音特征和生理特征等,然后对每种模态分别构建多个不同的核矩阵,将不同模态对应的核矩阵组进行融合,得到融合的多模态情感特征,最后使用多核支持向量机作为分类器进行训练和识别,能够有效地识别出生气、恶心、害怕、高兴、悲伤和惊讶等基本情感。
Description
技术领域
本发明涉及信号处理及模式识别领域,特别是一种基于多核学习的多模态情感识别方法。
背景技术
情感识别一直是模式识别领域的热门话题,它有利于人们的社会沟通和活动。在人们的生活和交往的过程中,包含各种表达内心情感的方式,然而面部表情和语音是其中最直接、最容易和最具表现力的方式并且容易被研究者们获取。目前针对表情或者语音的单模态的情感识别技术已经相对成熟,但因其信息的单一性使得识别效果往往不够可靠精确。所以,利用不同性质的多模态特征的相关性以及互补性实现更加可靠稳定的情感识别系统值得进一步研究。
多模态情感识别的融合方法包含特征层融合以及决策层融合。前者通过一定的方法将多种模态的特征通过一定的线性或非线性变换形成新特征;后者分别对多种模态的特征进行训练,分类,得出分类结果,并在决策层通过相应的加权模型综合得出最终的结果。
继支持向量机出现后,核方法得到了广泛的关注,相继出现了核主成分分析(KPCA)、核判别分析(KDA)以及核典型相关分析(KCCA)等。尽管这些方法在包括多模态情感识别在内的众多领域得到了广泛的应用,但其终究是基于单个特征空间的单核方法。面对多种模态的情感特征,使用单个核函数无法解决特征空间分布不均以及特征冗余的问题,并且,不同的核函数性质不一样,在运用不同核函数时得到的效果往往差别很大,由此出现了多核学习,在以往的多核学习应用中,往往是给予不同特征不一样的核函数再加以训练得到核函数对应的权值实现特征融合,仍旧需要考虑不同特征所需要选择的核函数的种类以及参数。
发明内容
本发明所要解决的技术问题是克服现有技术的不足而提供一种基于多核学习的多模态情感识别方法,从视频中提取面部表情图像和人们说话的语音信息,提取相应的特征,并对多种特征进行处理,分别创建不同的核函数形成相应的核矩阵,将多模态特征进行融合,运用多核学习结合支持向量机进行训练和识别,获得更准确可靠的识别效果。
本发明为解决上述技术问题采用以下技术方案:
根据本发明所述的一种基于多核学习的多模态情感识别方法,包含以下步骤:
步骤一、构建一个多模态情感数据库,该数据库的总样本数为N,对于数据库中的每一个样本,提取其L种不同模态的情感特征;
步骤二、从步骤一构建的多模态情感数据库中随机选取n个样本作为训练样本,n<N,采用M个不同种类不同参数的基础核函数,对每一种模态的情感特征分别构建M个核矩阵,每个核矩阵大小为n×n;
步骤三、将不同模态特征的核矩阵进行融合,每种模态特征均有M个核矩阵,用其各自的第m个核矩阵的元素进行模态间加权和融合或乘法融合,得到第m个融合后的核矩阵Km第i行第j列的元素Km(xi,xj),Km(xi,xj)即代表xi和xj两个样本特征的第m个模态间融合核;其中,i=1,2,3,…,n,j=1,2,3,…,n,m=1,2,3,…,M;
步骤四、利用步骤三中所产生的M个模态间融合核的线性组合构建成一个新的核,采用该新的核代替支持向量机分类器中的单个基础核;
步骤五、利用多核学习算法训练支持向量机,得到多核的最优融合权值、多核支持向量机的决策判别函数;
步骤六、通过计算测试样本的基础核矩阵,再根据步骤三中所采用的模态间的融合方法得到测试样本的模态间融合核,再而通过步骤五中训练得到的最优融合权值计算出最终融合核,并将该最终融合核代入步骤五得到的决策判别函数中,采用一对多或一对一的多分类SVM判别方法识别情感。
作为本发明所述的一种基于多核学习的多模态情感识别方法进一步优化方案,步骤一中的情感特征为表情特征、语音特征和生理特征。
其中,vl(xi)为第i个训练样本xi的第l种模态的情感特征,vl(xj)为第j个训练样本xj的第l种模态的情感特征,为第i个和第j个样本第l种模态特征利用第m个核函数计算所得的核,l=1,2,3,…,L。
作为本发明所述的一种基于多核学习的多模态情感识别方法进一步优化方案,M1+M2=M,M1为不同参数的高斯核函数个数,M2为不同参数的多项式核函数个数。
作为本发明所述的一种基于多核学习的多模态情感识别方法进一步优化方案,步骤三中加权和融合的方法如下:
其中,ω1…ωL的取值为满足ω1+ω2+…+ωL=1的一组自定义的数值。
作为本发明所述的一种基于多核学习的多模态情感识别方法进一步优化方案,步骤三中乘法融合的方法如下:
作为本发明所述的一种基于多核学习的多模态情感识别方法进一步优化方案,步骤四中新的核K(xi,xj)具体如下:
其中,βm为第m个模态间融合核前的融合权值。
作为本发明所述的一种基于多核学习的多模态情感识别方法进一步优化方案,步骤五中,利用多核学习算法训练支持向量机,优化问题变为:
其中,fm代表分类超平面,C为惩罚系数,ζi为松弛变量,b为分类超平面的偏移量,yi为样本标签;
通过求解上式的优化问题,学习训练过程中得到多核的最优融合权值,最终得到多核支持向量机的决策判别函数为:
其中,αi为拉格朗日乘子,K(x,xi)为根据测试样本与第i个训练样本特征数据以及步骤三中所采用的模态间的融合方法计算得到的模态间融合核。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
(1)采用多种模态情感特征进行情感识别;
(2)采用特征层融合提高识别效果;
(3)运用多核矩阵先进行模态间特征融合,再将其得到的多个核通过多核学习得到各核对应的权值,线性组合之后构建一个新的核,运用到多分类支持向量机中进行识别得到更好的效果。
附图说明
图1是基于多核学习的多模态情感识别方法的流程示意图;
图2是核矩阵特征融合示意图;
图3是表情和语音的双模态情感识别流程图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明是一种基于多核学习的多模态情感识别方法,以表情和语音的双模态情感识别为例,具体流程图如图1,图2是核矩阵特征融合示意图,图3是表情和语音的双模态情感识别流程图。它的实现有如下步骤:
1.处理表情和语音的情感数据库,获取表情图像以及语音信息
本发明实验基于Enterface’05情感数据库,选取其中信息全面的42个短视频资料作为情感数据源,42个专业的男女演员,演员们分别表演生气、恶心、害怕、高兴、难过和惊讶六种基本情绪,并说出相对应的台词。每种情绪包含五句台词,也就是说,每种情绪有五段短视频资料。因此,总样本个数为1260个,每类情绪样本有210个。对这1260个短视频资料进行图像和语音的分离,然后对视频进行分帧转化为图片,每段视频选取其中一张图片作为表情样本,统一图像的大小为180*144。因此,最终获得1260个表情样本和语音样本。
2.提取情感特征
情感特征的好坏对后续的识别效果造成很大的影响,本发明采用的是表情和语音两种表达最为明显直接且容易被获取的两种模态特征作为情感特征;
(2-1)提取面部表情的Gabor特征:Gabor特征具有良好的空间局部性和方向选择性,而且对光照、姿态具有一定的鲁棒性。对所有表情样本进行预处理转为灰度图之后,采用5个尺度8个方向的Gabor滤波器对所有样本进行纹理特征提取,提取的特征为12800维;
(2-2)Open Smile工具箱提取INTERSPEECH 2013ComParE语音特征集,特征集中包含各种低层特征描述子和特征统计函数共计6373维;
3.情感特征降维与选择:由于所提取的表情和语音维数过大,造成冗余信息过多,
影响识别的效率,所以需要对所获得的特征进行特征降维和选择。
(3-1)特征降维意义在于避免维数灾难,获取本质的特征,目前在机器学习领域中的四大降维方法分别为主成分分析法(PCA)、线性判别分析法(LDA)、局部线性嵌入(LLE)和拉普拉斯特征映射。本发明使用PCA对Gabor面部纹理特征进行降维,计算表情特征矩阵的协方差矩阵,并将特征值由大到小排列,提取特征值贡献率之和大于90%的前几个特征值对应的特征向量构成新的特征矩阵,最终表情特征为246维;
(3-2)优化选择语音特征,选取包括基频、梅尔倒谱系数(MFCC)、帧能量、频率微扰、振幅微扰等的算数平均值共计71维。
4.产生多个核矩阵进行融合
(4-1)、经过上述步骤,所构建的双模态情感数据库,样本数为N,表示为{x1,x2,x3,…,xN},包含六种情感类别,对于每一个样本,对已经提取表情和语音两种模态的特征,特征使用v表示,则第r个样本的第l种模态的特征表示为vl(xr),l=1,2;r=1,2,…,N;
本发明采用的核函数为高斯核函数和多项式核函数,其表达式如下:
Kploy(a1,a2)=(<a1,a2>+1)d (2)
a1,a2表示两个样本数据;
(4-2)、随机选取n个样本作为训练样本,n<N,采用M个不同种类不同参数的基础核函数,例如,采用M1个不同参数的高斯核函数和M2个不同参数的多项式核函数,M1+M2=M,根据经验,设定高斯核参数σ=(0.5,1,2,5,7,10,12,15,17,20),多项式核参数d=(1,2,3),对不同模态的特征分别构建了13个核矩阵,每个核矩阵大小为n×n,设第l种模态特征的第m个核矩阵为:
其中,vl(xi)为第i个训练样本xi的第l种模态的情感特征,vl(xj)为第j个训练样本xj的第l种模态的情感特征,为第i个和第j个样本第l种模态特征利用第m个核函数计算所得的核,j=1,2,3,…,n,i=1,2,3,…,n,m=1,2,3,…,13;l=1,2;
(4-3)、本实验中采用将不同模态特征的核矩阵内的核元素进行加权和融合,每种模态特征均有13个核矩阵,用其各自的第m个核矩阵的元素进行模态间融合的公式如下:
这里,Km(xi,xj)即为第m个特征融合后的核矩阵第i行第j列的元素,首先固定一组ω1,ω2的值,将其设置为0.1-0.9范围内的数值,根据最终的识别结果可进行调整;
(4-4)、利用所产生的M个模态间融合核的线性组合构建成一个新的核,即:
5.利用多核学习改善支持向量机训练与识别
产生的多核支持向量机的优化问题变为:
其中,fm代表分类超平面,C为惩罚系数,ζi为松弛变量,b为分类超平面的偏移量,yi为样本标签;
使用拉格朗日乘子法和wolf对偶对(6)式的优化问题进行转换,形成相应的对偶问题,即:
其中,αi,αj为拉格朗日乘子;
因此,根据其强对偶条件,目标函数变为:
αi *,αj *即分别为αi,αj的最优解;
计算J*(β)对βm偏导数求得可行的梯度下降方向不断更新βm,上式得最大值的最优解等同于原目标函数最小值的最优解。
因此,最终的多核支持向量机的决策函数变为:
6.识别结果
本发明随机选取每类样本的百分之八十作为训练样本,即每类训练样本有168张,剩余42张作为测试样本,得到的识别率如下,表1是不同识别方法的识别率对比:
表1
从表1可以看出,较单模态情感识别,表情和语音的双模态情感识别的识别效果有一定的提升;采用多核的SVM相较于SVM更是提高了近七个百分点;然而本发明在前者的基础上使用多核矩阵的特征层融合方法,又将结果提升了近两个百分点,比起单模态的情感识别,具有十分明显优势。本发明中,每类测试样本为42张,识别结果的混沌矩阵如表2所示:
表2
生气 | 恶心 | 害怕 | 高兴 | 难过 | 惊讶 | |
生气 | 35 | 3 | 1 | 1 | 1 | 1 |
恶心 | 3 | 36 | 2 | 1 | 0 | 0 |
害怕 | 3 | 1 | 34 | 1 | 3 | 0 |
高兴 | 0 | 1 | 0 | 38 | 1 | 2 |
难过 | 0 | 0 | 1 | 0 | 40 | 1 |
惊讶 | 1 | 0 | 2 | 1 | 2 | 36 |
由表2得出识别率分别为:生气83.33%,恶心85.71%,害怕80.95%,高兴90.48%,难过95.23%以及惊讶85.71%。
本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (3)
1.一种基于多核学习的多模态情感识别方法,其特征在于,包含以下步骤:
步骤一、构建一个多模态情感数据库,该数据库的总样本数为N,对于数据库中的每一个样本,提取其L种不同模态的情感特征;
步骤二、从步骤一构建的多模态情感数据库中随机选取n个样本作为训练样本,n<N,采用M个不同种类不同参数的基础核函数,对每一种模态的情感特征分别构建M个核矩阵,每个核矩阵大小为n×n;
其中,vl (xi)为第i个训练样本xi的第l种模态的情感特征,vl (xj)为第j个训练样本xj的第l种模态的情感特征,为第i个和第j个样本第l种模态特征利用第m个核函数计算所得的核,l=1,2,3,…,L;M1+M2=M,M1为不同参数的高斯核函数个数,M2为不同参数的多项式核函数个数;
步骤三、将不同模态特征的核矩阵进行融合,每种模态特征均有M个核矩阵,用其各自的第m个核矩阵的元素进行模态间加权和融合或乘法融合,得到第m个融合后的核矩阵Km第i行第j列的元素Km(xi,xj),Km(xi,xj) 即代表xi和xj两个样本特征的第m个模态间融合核;其中,i=1,2,3,…,n,j=1,2,3,…,n,m=1,2,3,…,M;
步骤三中加权和融合的方法如下:
其中,ω1…ωL的取值为满足ω1+ω2+…+ωL=1的一组自定义的数值;
步骤三中乘法融合的方法如下:
步骤四、利用步骤三中所产生的M个模态间融合核的线性组合构建成一个新的核,采用该新的核代替支持向量机分类器中的单个基础核;
步骤五、利用多核学习算法训练支持向量机,得到多核的最优融合权值、多核支持向量机的决策判别函数;
步骤六、通过计算测试样本的基础核矩阵,再根据步骤三中所采用的模态间的融合方法得到测试样本的模态间融合核,再而通过步骤五中训练得到的最优融合权值计算出最终融合核,并将该最终融合核代入步骤五得到的决策判别函数中,采用一对多或一对一的多分类SVM判别方法识别情感。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610627333.6A CN106250855B (zh) | 2016-08-02 | 2016-08-02 | 一种基于多核学习的多模态情感识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610627333.6A CN106250855B (zh) | 2016-08-02 | 2016-08-02 | 一种基于多核学习的多模态情感识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106250855A CN106250855A (zh) | 2016-12-21 |
CN106250855B true CN106250855B (zh) | 2022-01-28 |
Family
ID=57605924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610627333.6A Active CN106250855B (zh) | 2016-08-02 | 2016-08-02 | 一种基于多核学习的多模态情感识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106250855B (zh) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803098A (zh) * | 2016-12-28 | 2017-06-06 | 南京邮电大学 | 一种基于语音、表情与姿态的三模态情感识别方法 |
CN107169409A (zh) * | 2017-03-31 | 2017-09-15 | 北京奇艺世纪科技有限公司 | 一种情感识别方法及装置 |
CN106991172B (zh) * | 2017-04-05 | 2020-04-28 | 安徽建筑大学 | 一种多模态情感交互数据库的建立方法 |
CN108735232A (zh) * | 2017-04-24 | 2018-11-02 | 北京理工大学 | 一种性格识别方法和装置 |
CN108735233A (zh) * | 2017-04-24 | 2018-11-02 | 北京理工大学 | 一种性格识别方法和装置 |
CN107092895A (zh) * | 2017-05-09 | 2017-08-25 | 重庆邮电大学 | 一种基于深度信念网络的多模态情感识别方法 |
CN107180236B (zh) * | 2017-06-02 | 2020-02-11 | 北京工业大学 | 一种基于类脑模型的多模态情感识别方法 |
CN107256392A (zh) * | 2017-06-05 | 2017-10-17 | 南京邮电大学 | 一种联合图像、语音的全面情绪识别方法 |
CN107609572B (zh) * | 2017-08-15 | 2021-04-02 | 中国科学院自动化研究所 | 基于神经网络和迁移学习的多模态情感识别方法、系统 |
CN107944473A (zh) * | 2017-11-06 | 2018-04-20 | 南京邮电大学 | 一种基于多分类器主客观融合的生理信号情感识别方法 |
CN107943299B (zh) * | 2017-12-07 | 2022-05-06 | 上海智臻智能网络科技股份有限公司 | 情感呈现方法和装置、计算机设备及计算机可读存储介质 |
US10783329B2 (en) | 2017-12-07 | 2020-09-22 | Shanghai Xiaoi Robot Technology Co., Ltd. | Method, device and computer readable storage medium for presenting emotion |
CN108596039B (zh) * | 2018-03-29 | 2020-05-05 | 南京邮电大学 | 一种基于3d卷积神经网络的双模态情感识别方法及系统 |
CN109190699B (zh) * | 2018-08-29 | 2022-12-30 | 西安电子科技大学 | 一种基于多任务学习的多疾病联合测定方法 |
CN109584885A (zh) * | 2018-10-29 | 2019-04-05 | 李典 | 一种基于多模情感识别技术的音视频输出方法 |
US11087091B2 (en) | 2018-12-27 | 2021-08-10 | Wipro Limited | Method and system for providing contextual responses to user interaction |
CN109829713B (zh) * | 2019-01-28 | 2020-09-15 | 重庆邮电大学 | 一种基于知识与数据共同驱动的移动支付方式识别方法 |
CN109767788A (zh) * | 2019-02-25 | 2019-05-17 | 南京信息工程大学 | 一种基于lld和dss融合特征的语音情感识别方法 |
CN110047506B (zh) * | 2019-04-19 | 2021-08-20 | 杭州电子科技大学 | 一种基于卷积神经网络和多核学习svm的关键音频检测方法 |
CN110113709B (zh) * | 2019-04-24 | 2020-07-24 | 南京邮电大学 | 一种基于支持向量机的超宽带室内定位误差消除算法 |
CN110301920B (zh) * | 2019-06-27 | 2020-06-02 | 清华大学 | 用于心理压力检测的多模态融合方法及装置 |
CN110490095A (zh) * | 2019-07-31 | 2019-11-22 | 中国人民解放军战略支援部队信息工程大学 | 一种基于神经网络的多模态特征融合调制识别方法和系统 |
CN110717410A (zh) * | 2019-09-23 | 2020-01-21 | 湖南检信智能科技有限公司 | 语音情感和面部表情双模态识别系统 |
CN111340754B (zh) * | 2020-01-18 | 2023-08-25 | 中国人民解放军国防科技大学 | 一种基于飞机蒙皮表面缺陷检测和分类的方法 |
CN111723838A (zh) * | 2020-04-21 | 2020-09-29 | 中国人民解放军火箭军工程大学 | 一种多核机器学习融合多尺度特征的高光谱地物分类方法 |
CN111813894A (zh) * | 2020-06-30 | 2020-10-23 | 郑州信大先进技术研究院 | 一种基于深度学习的自然语言情感识别方法 |
CN111950592B (zh) * | 2020-07-10 | 2022-09-23 | 南京邮电大学 | 一种基于监督最小二乘多类核典型相关分析的多模态情感特征融合方法 |
CN112101401B (zh) * | 2020-07-10 | 2022-08-26 | 南京邮电大学 | 一种基于稀疏监督最小二乘多类核典型相关分析的多模态情感识别方法 |
CN111920420B (zh) * | 2020-07-28 | 2023-08-08 | 复旦大学 | 一种基于统计学习的患者行为多模态分析与预测系统 |
CN112668609B (zh) * | 2020-12-07 | 2024-08-02 | 深圳先进技术研究院 | 一种基于核方法的触觉模态识别方法 |
CN112418166B (zh) * | 2020-12-10 | 2022-11-11 | 南京理工大学 | 一种基于多模态信息的情感分布学习方法 |
CN112820071B (zh) * | 2021-02-25 | 2023-05-05 | 泰康保险集团股份有限公司 | 一种行为识别方法和装置 |
CN113361592B (zh) * | 2021-06-03 | 2022-11-08 | 哈尔滨工业大学 | 一种基于公共子空间表示学习的声学事件识别方法 |
CN116543445B (zh) * | 2023-06-29 | 2023-09-26 | 新励成教育科技股份有限公司 | 一种演讲者面部表情分析方法、系统、设备及存储介质 |
CN117349792B (zh) * | 2023-10-25 | 2024-06-07 | 中国人民解放军空军军医大学 | 一种基于面部特征与语音特征的情绪识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361313A (zh) * | 2014-10-16 | 2015-02-18 | 辽宁石油化工大学 | 一种基于多核学习异构特征融合的手势识别方法 |
-
2016
- 2016-08-02 CN CN201610627333.6A patent/CN106250855B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361313A (zh) * | 2014-10-16 | 2015-02-18 | 辽宁石油化工大学 | 一种基于多核学习异构特征融合的手势识别方法 |
Non-Patent Citations (5)
Title |
---|
Automatic Chinese Dialog Acts Recognition with Multiple Kernel Learning;Xuxiao Wang 等;《Proceedings of the 2015 International Conference on Machine Learning and Cybernetics》;20150715;正文第605页第2.1节第1-2段,右栏第1段,第2.2节第1-2段,第3节第1-2段,第606页左栏第1-2段,第4节第1段,第4.1节第1-2段,第4.2节第1-2段,第607页第1段 * |
Emotion Recognition in the Wild with Feature Fusion and Multiple Kernel Learning;Junkai Chen 等;《Proceedings of the 16th International Conference on Multimodal Interaction》;20141116;508-513 * |
Novel feature fusion method for speech emotion recognition based on multiple kernel learning;Jin Yun 等;《Journal of Southeast University (English Edition)》;20130630;第29卷(第2期);129-133 * |
SimpleMKL;Alain Rakotomamonjy 等;《Journal of Machine Learning Research》;20081108;正文第2497页第3节第2段 * |
Xuxiao Wang 等.Automatic Chinese Dialog Acts Recognition with Multiple Kernel Learning.《Proceedings of the 2015 International Conference on Machine Learning and Cybernetics》.2015, * |
Also Published As
Publication number | Publication date |
---|---|
CN106250855A (zh) | 2016-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106250855B (zh) | 一种基于多核学习的多模态情感识别方法 | |
Poria et al. | A review of affective computing: From unimodal analysis to multimodal fusion | |
Wen et al. | Ensemble of deep neural networks with probability-based fusion for facial expression recognition | |
Zhang et al. | Deep learning-based multimodal emotion recognition from audio, visual, and text modalities: A systematic review of recent advancements and future prospects | |
Barros et al. | Developing crossmodal expression recognition based on a deep neural model | |
CN112818861B (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
Dobrišek et al. | Towards efficient multi-modal emotion recognition | |
CN112784798A (zh) | 一种基于特征-时间注意力机制的多模态情感识别方法 | |
CN109508375A (zh) | 一种基于多模态融合的社交情感分类方法 | |
CN108830237B (zh) | 一种人脸表情的识别方法 | |
Zhong et al. | A Lightweight Model Based on Separable Convolution for Speech Emotion Recognition. | |
CN106096642B (zh) | 基于鉴别局部保持投影的多模态情感特征融合方法 | |
CN111274955A (zh) | 一种基于视听特征相关性融合的情感识别方法及系统 | |
Noroozi et al. | Fusion of classifier predictions for audio-visual emotion recognition | |
Fu et al. | Multimodal shared features learning for emotion recognition by enhanced sparse local discriminative canonical correlation analysis | |
Chattopadhyay et al. | A feature selection model for speech emotion recognition using clustering-based population generation with hybrid of equilibrium optimizer and atom search optimization algorithm | |
Singh et al. | Improved TOPSIS method for peak frame selection in audio-video human emotion recognition | |
CN110569869A (zh) | 一种用于多模态情绪检测的特征级融合方法 | |
Byun et al. | Human emotion recognition based on the weighted integration method using image sequences and acoustic features | |
Jaratrotkamjorn et al. | Bimodal emotion recognition using deep belief network | |
Sahu et al. | Modeling feature representations for affective speech using generative adversarial networks | |
Huijuan et al. | Coarse-to-fine speech emotion recognition based on multi-task learning | |
Sreevidya et al. | Elder emotion classification through multimodal fusion of intermediate layers and cross-modal transfer learning | |
Cho et al. | Non-contrastive self-supervised learning of utterance-level speech representations | |
Yu et al. | A multilayer pyramid network based on learning for vehicle logo recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |