CN115099311B - 基于脑电时空频特征和眼动特征的多模态情绪分类方法 - Google Patents

基于脑电时空频特征和眼动特征的多模态情绪分类方法 Download PDF

Info

Publication number
CN115099311B
CN115099311B CN202210633218.5A CN202210633218A CN115099311B CN 115099311 B CN115099311 B CN 115099311B CN 202210633218 A CN202210633218 A CN 202210633218A CN 115099311 B CN115099311 B CN 115099311B
Authority
CN
China
Prior art keywords
electroencephalogram
neural network
data
eye movement
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210633218.5A
Other languages
English (en)
Other versions
CN115099311A (zh
Inventor
张玉梅
廖胜利
李丽娜
吴晓军
朱昀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN202210633218.5A priority Critical patent/CN115099311B/zh
Publication of CN115099311A publication Critical patent/CN115099311A/zh
Application granted granted Critical
Publication of CN115099311B publication Critical patent/CN115099311B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

一种基于脑电时空频特征和眼动特征的多模态情绪分类方法,由获取脑电信号和眼动特征数据集、脑电信号数据集预处理、选取数据样本、增强脑电数据、脑电数据标准化、划分训练集和测试集以及验证集、构建三维卷积神经网络和深度神经网络、训练三维卷积神经网络和深度神经网络、多模态决策融合、测试网络性能步骤组成。本发明采用多模态方法从决策级融合层次将脑电信号和眼动信息两种模态进行融合,进行情绪分类;针对脑电信号数据集训练了三维卷积神经网络,针对眼动特征数据训练了深度卷积神经网络,将脑电信号在时间域、空间域和频率域特征三种特征进行融合,对脑电信号和眼动信息模态进行情绪分类,提高了情绪分类的准确率。

Description

基于脑电时空频特征和眼动特征的多模态情绪分类方法
技术领域
本发明属于脑电技术领域,具体涉及到脑电情绪分类方法。
技术背景
情绪影响着人们的行为,在日常生活中扮演着非常重要的角色,很多精神疾病都与情绪有紧密的关联;情绪识别主要分为基于生理信号的情绪识别和基于非生理信号的情绪识别,非生理信号,例如面部表情具有一定的伪装性,导致根据面部表情等非生理信号的情绪分类准确率不高;生理信号,例如脑电信号,能够从内在脑电信号反应人的生理机能和身体状态是否正常,同时也能反应人的情绪、心情、心理活动,因此脑电可以作为情绪识别的一种有效方法。使用脑电信号进行情绪分类,关注到脑电信号的多种特征,包括空间特征、时间特征、频率特征;同时,研究者也进行了很多基于图像、文本、音乐等的多媒体刺激,目的是为了更好地激发人们的情绪。现有的研究中大多只关注一种脑电特征或者两种脑电特征的结合,没有充分利用脑电的多种特征,现有的方法多基于一种模态进行情绪分类,不能充分的解码情绪。
脑电信号分类有很多种方法,常见的有诸如支持向量机、K近邻等机器学习方法和诸如深度神经网络、卷积神经网络等深度学习方法。传统的机器学习方法具有分类精确度不高、需要手动提取特征、成本较高、效果不佳等缺点。
在脑电信号情绪识别技术领域,当前需迫切解决的一个技术问题是提供一种多特征、多模态、准确率更高、泛化能力强的基于脑电时空频特征和眼动特征的多模态情绪分类方法。
发明内容
本发明所要解决的技术问题在于克服上述现有技术问题的缺点,提供一种融合多模态、多特征、分类准确率高的基于脑电时空频特征和眼动特征的多模态情绪分类方法。
解决上述技术问题采用的技术方案是由下述步骤组成:
(1)获取脑电信号和眼动特征数据集
从上海交通大学仿脑计算和机理实验室提供的多模态情绪脑电数据集SEED-V 中选取一维脑电信号特征数据、眼动特征数据。
(2)脑电信号数据集预处理
将一维脑电信号特征数据通过二维的电极拓扑结构映射为三维脑电信号特征数据。
(3)选取数据样本
1)选取脑电信号样本
从三维脑电信号特征数据中选取脑电样本集S{s1,s2,...,sm},m为样本数量, m∈[1,20],脑电样本集S中每一个数据样本的维度为9×9×800。
2)选取眼动特征数据样本
从眼动特征数据中选取眼动特征数据样本集合E{e1,e2,...,em},眼动特征数据样本集合E中每一个数据样本的维度为1×594。
(4)增强脑电数据
采用滑动窗口方法扩展脑电信号数据集,该方法的窗口尺寸为4秒,窗口重叠为 2秒。
(5)脑电数据标准化
将脑电样本集S按下式进行数据标准化s′:
其中为脑电数据的平均值,v为脑电数据的方差且不为0。
(6)划分训练集和测试集以及验证集
将脑电信号数据样本集S划分成脑电信号训练集、脑电信号验证集、脑电信号测试集,脑电信号训练集与脑电信号验证集、脑电信号测试集的划分比例为7∶2∶1;眼动特征数据样本集E划分成对应的眼动数据训练集、眼动数据验证集、眼动数据测试集,眼动数据训练集与眼动数据验证集、眼动数据测试集的划分比例为7∶2∶1。
(7)构建三维卷积神经网络和深度神经网络
1)构建三维卷积神经网络
三维卷积神经网络由第一三维卷积层C1与第一最大池化层M1、第二三维卷积层C2、第二最大池化层M2、第一全连接层F1、第二全连接层F2、激活函数Softmax 层依次串联构成。
2)构建深度神经网络
深度神经网络由第一全连接层FC1与第二全连接层FC2、第三全连接层FC3、第四全连接层FC4、第五全连接层FC5、激活函数Softmax层依次串联构成。
(8)训练三维卷积神经网络和深度神经网络
将脑电信号数据样本集S中的训练集输入到三维卷积神经网络,眼动特征数据样本集E中的训练集输入到深度神经网络中,进行网络训练,采用Adam优化方法更新神经网络的权重和偏置参数,损失函数使用类别交叉熵损失函数Loss:
其中,yi表示数据样本对应的真实标签,y′i表示数据样本的预测值;训练三维卷积神经网络时每次输入到神经网络的数据样本批量为16,训练深度神经网络时每次输入到神经网络的数据样本批量为32,训练至类别交叉熵损失函数Loss收敛;得到三维卷积神经网络和深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态的分类准确率P:
其中,TP表示预测正确的数据样本总数,FP表示预测错误的数据样本总数。
(9)多模态决策融合
采用多模态决策级融合方法对三维卷积神经网络和深度卷积神经网络的预测结果进行融合,得到情绪分类结果。
(10)测试网络性能
将脑电信号测试集输入到训练好的三维卷积神经网络中进行测试,眼动数据测试集输入到训练好的深度神经网络中进行测试。
在本发明的(7)构建三维卷积神经网络和深度神经网络步骤的1)构建三维卷积神经网络中,所述的第一三维卷积层C1是带激活函数RELU的三维卷积层,有 32个滤波器,卷积核的大小为3×3×4,步长为1;第一最大池化层M1是最大池化层,卷积核的大小为1×1×2,步长为1;第二三维卷积层C2是带激活函数RELU 的三维卷积层,有64个滤波器,卷积核的大小为3×3×4,步长为1;第二最大池化层M2是最大池化层,卷积核的大小为1×1×2,步长为1;第一全连接层F1是全连接层,输出维数为1024;第二全连接层F2是全连接层,输出维数为5。
在本发明的(7)构建三维卷积神经网络和深度神经网络的2)构建深度神经网络步骤中,所述的第一全连接层FCl的输出维数为256;第二全连接层FC2的输出维数为800;第三全连接层FC3的输出维数为64;第四全连接层FC4的输出维数为32;第五全连接层FC5的输出维数为5。
在本发明的(9)多模态决策融合步骤中,所述的多模态决策级融合方法为:
1)将三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P1
P1=(P11,P12,...,P15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P2
P2=(P21,P22,...,P25)T
2)将分类准确率P1构成权重矩阵W1
分类准确率P2构成权重矩阵W2
3)三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C1
C1=(c11,…,c15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C2
C2=(c21,…,c25)T
4)按下式确定多模态融合情绪分类的结果C:
5)按下式确定最终的分类结果:
其中k为1~5整数。
本发明与现有技术相对具有以下优点:
本发明采用多模态方法从决策级融合层次将脑电信号和眼动信息两种模态进行融合,进行情绪分类;针对脑电信号数据集训练了三维卷积神经网络,针对眼动特征数据训练了深度卷积神经网络;与现有的情绪分类方法相比,该方法将脑电信号在时间域、空间域和频率域特征三种特征进行融合,并且采用了脑电信号和眼动信息两种模态进行情绪分类,提高了情绪分类的分类准确率。
附图说明
图1是本发明实施例1的流程图。
图2是三维卷积神经网络的结构示意图。
图3是深度卷积神经网络的结构示意图。
图4是实施例1多模态融合方法进行情绪分类的准确率曲线。
图5是实施例1多模态融合方法进行情绪分类的模型损失曲线。
具体实施方式
下面结合附图和实施例对本发明进一步详细说明,但本发明不限于下述的实施方式。
实施例1
本实施例的基于脑电时空频特征和眼动特征的多模态情绪分类方法由以下步骤组成(参见图1):
(1)获取脑电信号和眼动特征数据集
从上海交通大学仿脑计算和机理实验室提供的多模态情绪脑电数据集SEED-V 中选取一维脑电信号特征数据、眼动特征数据。
(2)脑电信号数据集预处理
将一维脑电信号特征数据通过二维的电极拓扑结构映射为三维脑电信号特征数据。
(3)选取数据样本
1)选取脑电信号样本
从三维脑电信号特征数据中选取脑电样本集S{s1,s2,...,sm},m为样本数量, m∈[1,20],本实施例的m取值为10,脑电样本集S中每一个数据样本的维度为9×9×800。
2)选取眼动特征数据样本
从眼动特征数据中选取眼动特征数据样本集合E{e1,e2,...,em},本实施例的m 取值为10,眼动特征数据样本集合E中每一个数据样本的维度为1×594。
(4)增强脑电数据
采用滑动窗口方法扩展脑电信号数据集,该方法的窗口尺寸为4秒,窗口重叠为 2秒。
(5)脑电数据标准化
将脑电样本集S按下式进行数据标准化s′:
其中为脑电数据的平均值,v为脑电数据的方差且不为0。
(6)划分训练集和测试集以及验证集
将脑电信号数据样本集S划分成脑电信号训练集、脑电信号验证集、脑电信号测试集,脑电信号训练集与脑电信号验证集、脑电信号测试集的划分比例为7∶2∶1;眼动特征数据样本集E划分成对应的眼动数据训练集、眼动数据验证集、眼动数据测试集,眼动数据训练集与眼动数据验证集、眼动数据测试集的划分比例为7∶2∶1。
(7)构建三维卷积神经网络和深度神经网络
1)构建三维卷积神经网络
在图2中,本实施例的三维卷积神经网络由第一三维卷积层C1与第一最大池化层M1、第二三维卷积层C2、第二最大池化层M2、第一全连接层F1、第二全连接层F2、激活函数Softmax层依次串联构成。
本实施例的第一三维卷积层C1是带激活函数RELU的三维卷积层,有32个滤波器,卷积核的大小为3×3×4,步长为1。第一最大池化层M1是最大池化层,卷积核的大小为1×1×2,步长为1。第二三维卷积层C2是带激活函数RELU的三维卷积层,有64个滤波器,卷积核的大小为3×3×4,步长为1。第二最大池化层M2 是最大池化层,卷积核的大小为1×1×2,步长为1。第一全连接层F1是全连接层,输出维数为1024。第二全连接层F2是全连接层,输出维数为5。
2)构建深度神经网络
在图3中,本实施例的深度神经网络由第一全连接层FC1与第二全连接层FC2、第三全连接层FC3、第四全连接层FC4、第五全连接层FC5、激活函数Softmax层依次串联构成。
本实施例的第一全连接层FC1的输出维数为256。第二全连接层FC2的输出维数为800。第三全连接层FC3的输出维数为64。第四全连接层FC4的输出维数为32。第五全连接层FC5的输出维数为5。
(8)训练三维卷积神经网络和深度神经网络
将脑电信号数据样本集S中的训练集输入到三维卷积神经网络,眼动特征数据样本集E中的训练集输入到深度神经网络中,进行网络训练,采用Adam优化方法更新神经网络的权重和偏置参数,损失函数使用类别交叉熵损失函数Loss:
其中,yi表示数据样本对应的真实标签,y′i表示数据样本的预测值;本实施例的训练三维卷积神经网络时每次输入到神经网络的数据样本批量为16,训练深度神经网络时每次输入到神经网络的数据样本批量为32,训练至类别交叉熵损失函数Loss 收敛;得到三维卷积神经网络和深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态的分类准确率P:
其中,TP表示预测正确的数据样本总数,FP表示预测错误的数据样本总数。
(9)多模态决策融合
采用多模态决策级融合方法对三维卷积神经网络和深度卷积神经网络的预测结果进行融合,得到情绪分类结果。
本实施例的多模态决策级融合方法如下:
1)将三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P1
P1=(P11,P12,...,P15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P2
P2=(P21,P22,...,P25)T
2)将分类准确率P1构成权重矩阵W1
分类准确率P2构成权重矩阵W2
3)三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C1
C1=(c11,…,c15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C2
C2=(c21,…,c25)T
4)按下式确定多模态融合情绪分类的结果C:
5)按下式确定最终的分类结果:
其中k为1~5整数,本实施例的k取值为3。
(10)测试网络性能
将脑电信号测试集输入训练好的三维卷积神经网络中进行测试,眼动数据测试集输入到训练好的深度神经网络中进行测试。
实施例2
本实施例的基于脑电时空频特征和眼动特征的多模态情绪分类方法由以下步骤组成:
(1)获取脑电信号和眼动特征数据集
该步骤与实施例1相同。
(2)脑电信号数据集预处理
该步骤与实施例1相同。
(3)选取数据样本
1)选取脑电信号样本
从三维脑电信号特征数据中选取脑电样本集S{s1,s2,...,sm},m为样本数量, m∈[1,20],本实施例的m取值为1,脑电样本集S中每一个数据样本的维度为 9×9×800。
2)选取眼动特征数据样本
从眼动特征数据中选取眼动特征数据样本集合E{e1,e2,...,em},本实施例的m 取值为1,眼动特征数据样本集合E中每一个数据样本的维度为1×594。
(4)~(8)步骤与实施例1相同。
(9)多模态决策融合
采用多模态决策级融合方法对三维卷积神经网络和深度卷积神经网络的预测结果进行融合,得到情绪分类结果。
本实施例的多模态决策级融合方法如下:
1)将三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P1
P1=(P11,P12,...,P15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P2
P2=(P21,P22,...,P25)T
2)将分类准确率P1构成权重矩阵W1
分类准确率P2构成权重矩阵W2
3)三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类得分类结果C1
C1=(c11,…,c15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C2
C2=(c21,…,c25)T
4)按下式确定多模态融合情绪分类的结果C:
5)按下式确定最终的分类结果:
其中k为1~5整数,本实施例的k取值为1。
其它步骤与实施例1相同。完成基于脑电时空频特征和眼动特征的多模态情绪分类方法。
实施例3
本实施例的基于脑电时空频特征和眼动特征的多模态情绪分类方法由以下步骤组成:
(1)获取脑电信号和眼动特征数据集
该步骤与实施例1相同。
(2)脑电信号数据集预处理
该步骤与实施例1相同。
(3)选取数据样本
1)选取脑电信号样本
从三维脑电信号特征数据中选取脑电样本集S{s1,s2,...,sm},m为样本数量, m∈[1,20],本实施例的m取值为20,脑电样本集S中每一个数据样本的维度为 9×9×800。
2)选取眼动特征数据样本
从眼动特征数据中选取眼动特征数据样本集合E{e1,e2,...,em},本实施例的m 取值为20,眼动特征数据样本集合E中每一个数据样本的维度为1×594。
(4)~(8)步骤与实施例1相同。
(9)多模态决策融合
采用多模态决策级融合方法对三维卷积神经网络和深度卷积神经网络的预测结果进行融合,得到情绪分类结果。
本实施例的多模态决策级融合方法如下:
1)将三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P1
P1=(P11,P12,...,P15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P2
P2=(P21,P22,...,P25)T
2)将分类准确率P1构成权重矩阵W1
分类准确率P2构成权重矩阵W2
3)三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C1
C1=(c11,…,c15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C2
C2=(c21,…,c25)T
4)按下式确定多模态融合情绪分类的结果C:
5)按下式确定最终的分类结果:
其中k为1~5整数,本实施例的k取值为5。
其它步骤与实施例1相同。完成基于脑电时空频特征和眼动特征的多模态情绪分类方法。
为了验证本发明的效果,发明人采用实施例1的方法进行了仿真实验,实验情况如下:
1、仿真条件
软件环境:PyCharm 2019.3.1x64
硬件条件:1台台式电脑(Nvidia1650显卡)
电脑配置:
1)处理器:Intel(R)Core(TM)i7-10700CPU@2.90GHz 2.90GHz。
2)内存:24.0GB。
软件平台:tensorflow2.4.1。
其它第三方库:numpy1.19.5、os、pickle、matplotlib、glob。
2、仿真内容与结果
在上述仿真条件下进行实验,结果见图4、图5。在图4中,横轴表示三维卷积神经网络和深度卷积神经网络的迭代次数,纵轴表示三维卷积神经网络和深度卷积神经网络的分类准确率,上面一条曲线表示网络在训练集上进行分类的准确率,下面一条曲线表示网络在测试集上进行分类的准确率;用分类网络在测试集上的分类准确率用来衡量网络的分类性能,在测试集上的分类准确率越高,表示网络的性能越好。在图5中,横轴表示分类网络的迭代次数,纵轴表示分类网络的损失,上面一条曲线表示分类网络在训练集上进行分类的损失,下面一条曲线表示网络在测试集合上进行分类的损失;通常,网络在测试集上的损失大于等于网络在训练集上的损失,训练集损失和测试集损失越接近,表明网络拟合的越好。由图5可见,随着迭代次数的增加,网络的损失逐渐下降,网络的分类准确率逐渐上升,当迭代次数达到25时分类网络开始收敛,损失值和分类准确率趋于稳定,表明本发明使用的情绪分类方法切实可行。
与现有技术相比,本发明具有以下优点:
本发明采用多模态方法从决策级融合层次将脑电信号和眼动信息两种模态进行融合,进行情绪分类;针对脑电信号数据集训练了三维卷积神经网络,针对眼动特征数据训练了深度卷积神经网络;与现有的情绪分类方法相比,该方法将脑电信号在时间域、空间域和频率域特征三种特征进行融合,并且采用了脑电信号和眼动信息两种模态进行情绪分类,提高了情绪分类的分类准确率。

Claims (3)

1.一种基于脑电时空频特征和眼动特征的多模态情绪分类方法,其特征在于它是由下述步骤组成:
(1)获取脑电信号和眼动特征数据集
从上海交通大学仿脑计算和机理实验室提供的多模态情绪脑电数据集SEED-V中选取一维脑电信号特征数据、眼动特征数据;
(2)脑电信号数据集预处理
将一维脑电信号特征数据通过二维的电极拓扑结构映射为三维脑电信号特征数据;
(3)选取数据样本
1)选取脑电信号样本
从三维脑电信号特征数据中选取脑电样本集S{s1,s2,...,sm},m为样本数量,m∈[1,20],脑电样本集S中每一个数据样本的维度为9×9×800;
2)选取眼动特征数据样本
从眼动特征数据中选取眼动特征数据样本集合E{e1,e2,...,em},眼动特征数据样本集合E中每一个数据样本的维度为1×594;
(4)增强脑电数据
采用滑动窗口方法扩展脑电信号数据集,该方法的窗口尺寸为4秒,窗口重叠为2秒;
(5)脑电数据标准化
将脑电样本集S按下式进行数据标准化s′:
其中为脑电数据的平均值,v为脑电数据的方差且不为0;
(6)划分训练集和测试集以及验证集
将脑电信号数据样本集S划分成脑电信号训练集、脑电信号验证集、脑电信号测试集,脑电信号训练集与脑电信号验证集、脑电信号测试集的划分比例为7:2:1;眼动特征数据样本集E划分成对应的眼动数据训练集、眼动数据验证集、眼动数据测试集,眼动数据训练集与眼动数据验证集、眼动数据测试集的划分比例为7:2:1;
(7)构建三维卷积神经网络和深度神经网络
1)构建三维卷积神经网络
三维卷积神经网络由第一三维卷积层C1与第一最大池化层M1、第二三维卷积层C2、第二最大池化层M2、第一全连接层F1、第二全连接层F2、激活函数Softmax层依次串联构成;
2)构建深度神经网络
深度神经网络由第一全连接层FC1与第二全连接层FC2、第三全连接层FC3、第四全连接层FC4、第五全连接层FC5、激活函数Softmax层依次串联构成;
(8)训练三维卷积神经网络和深度神经网络
将脑电信号数据样本集S中的训练集输入到三维卷积神经网络,眼动特征数据样本集E中的训练集输入到深度神经网络中,进行网络训练,采用Adam优化方法更新神经网络的权重和偏置参数,损失函数使用类别交叉熵损失函数Loss:
其中,yi表示数据样本对应的真实标签,y′i表示数据样本的预测值;训练三维卷积神经网络时每次输入到神经网络的数据样本批量为16,训练深度神经网络时每次输入到神经网络的数据样本批量为32,训练至类别交叉熵损失函数Loss收敛;得到三维卷积神经网络和深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态的分类准确率P:
其中,TP表示预测正确的数据样本总数,FP表示预测错误的数据样本总数;
(9)多模态决策融合
采用多模态决策级融合方法对三维卷积神经网络和深度卷积神经网络的预测结果进行融合,得到情绪分类结果;
所述的多模态决策级融合方法为:
1)将三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P1
P1=(P11,P12,...,P15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类准确率P2
P2=(P21,P22,...,P25)T
2)将分类准确率P1构成权重矩阵W1
分类准确率P2构成权重矩阵W2
3)三维卷积神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C1
C1=(c11,…,c15)T
深度神经网络对高兴、伤心、厌恶、中立、害怕不同情绪状态进行分类,得分类结果C2
C2=(c21,…,c25)T
4)按下式确定多模态融合情绪分类的结果C:
5)按下式确定最终的分类结果:
其中k为1~5整数;
(10)测试网络性能
将脑电信号测试集输入到训练好的三维卷积神经网络中进行测试,眼动数据测试集输入到训练好的深度神经网络中进行测试。
2.根据权利要求1所述的基于脑电时空频特征和眼动特征的多模态情绪分类方法,其特征在于:在(7)构建三维卷积神经网络和深度神经网络步骤的1)构建三维卷积神经网络中,所述的第一三维卷积层C1是带激活函数RELU的三维卷积层,有32个滤波器,卷积核的大小为3×3×4,步长为1;第一最大池化层M1是最大池化层,卷积核的大小为1×1×2,步长为1;第二三维卷积层C2是带激活函数RELU的三维卷积层,有64个滤波器,卷积核的大小为3×3×4,步长为1;第二最大池化层M2是最大池化层,卷积核的大小为1×1×2,步长为1;第一全连接层F1是全连接层,输出维数为1024;第二全连接层F2是全连接层,输出维数为5。
3.根据权利要求1所述的基于脑电时空频特征和眼动特征的多模态情绪分类方法,其特征在于:在(7)构建三维卷积神经网络和深度神经网络的2)构建深度神经网络步骤中,所述的第一全连接层FC1的输出维数为256;第二全连接层FC2的输出维数为800;第三全连接层FC3的输出维数为64;第四全连接层FC4的输出维数为32;第五全连接层FC5的输出维数为5。
CN202210633218.5A 2022-06-06 2022-06-06 基于脑电时空频特征和眼动特征的多模态情绪分类方法 Active CN115099311B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210633218.5A CN115099311B (zh) 2022-06-06 2022-06-06 基于脑电时空频特征和眼动特征的多模态情绪分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210633218.5A CN115099311B (zh) 2022-06-06 2022-06-06 基于脑电时空频特征和眼动特征的多模态情绪分类方法

Publications (2)

Publication Number Publication Date
CN115099311A CN115099311A (zh) 2022-09-23
CN115099311B true CN115099311B (zh) 2024-03-19

Family

ID=83288329

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210633218.5A Active CN115099311B (zh) 2022-06-06 2022-06-06 基于脑电时空频特征和眼动特征的多模态情绪分类方法

Country Status (1)

Country Link
CN (1) CN115099311B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2017105271A3 (zh) * 2017-02-17 2018-08-17
CN112364697A (zh) * 2020-10-14 2021-02-12 陕西师范大学 基于r-lstm模型的脑电信号情绪识别方法
CN112861778A (zh) * 2021-03-05 2021-05-28 南京邮电大学 一种基于多模态融合的情绪分类识别方法
CN113569997A (zh) * 2021-08-31 2021-10-29 山东海量信息技术研究院 基于图卷积神经网络的情绪分类方法及系统
CN113705398A (zh) * 2021-08-17 2021-11-26 陕西师范大学 基于卷积-长短期记忆网络音乐脑电时空特征分类方法
CN114091599A (zh) * 2021-11-16 2022-02-25 上海交通大学 模态间密集交互深度神经网络情绪识别方法
CN114224342A (zh) * 2021-12-06 2022-03-25 南京航空航天大学 一种基于时空融合特征网络的多通道脑电信号情绪识别方法
WO2022067524A1 (zh) * 2020-09-29 2022-04-07 香港教育大学 自动情绪识别方法、系统、计算设备及计算机可读存储介质
CN114305415A (zh) * 2021-11-25 2022-04-12 广东电网有限责任公司 一种跨被试和跨模态的多模态紧张情绪识别方法及系统
CN114431862A (zh) * 2021-12-22 2022-05-06 山东师范大学 基于脑功能连接网络的多模态情绪识别方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468288B2 (en) * 2020-07-28 2022-10-11 Oken Technologies, Inc. Method of and system for evaluating consumption of visual information displayed to a user by analyzing user's eye tracking and bioresponse data

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2017105271A3 (zh) * 2017-02-17 2018-08-17
WO2022067524A1 (zh) * 2020-09-29 2022-04-07 香港教育大学 自动情绪识别方法、系统、计算设备及计算机可读存储介质
CN112364697A (zh) * 2020-10-14 2021-02-12 陕西师范大学 基于r-lstm模型的脑电信号情绪识别方法
CN112861778A (zh) * 2021-03-05 2021-05-28 南京邮电大学 一种基于多模态融合的情绪分类识别方法
CN113705398A (zh) * 2021-08-17 2021-11-26 陕西师范大学 基于卷积-长短期记忆网络音乐脑电时空特征分类方法
CN113569997A (zh) * 2021-08-31 2021-10-29 山东海量信息技术研究院 基于图卷积神经网络的情绪分类方法及系统
CN114091599A (zh) * 2021-11-16 2022-02-25 上海交通大学 模态间密集交互深度神经网络情绪识别方法
CN114305415A (zh) * 2021-11-25 2022-04-12 广东电网有限责任公司 一种跨被试和跨模态的多模态紧张情绪识别方法及系统
CN114224342A (zh) * 2021-12-06 2022-03-25 南京航空航天大学 一种基于时空融合特征网络的多通道脑电信号情绪识别方法
CN114431862A (zh) * 2021-12-22 2022-05-06 山东师范大学 基于脑功能连接网络的多模态情绪识别方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的脑电情绪识别研究;张俊晓;薄华;;现代计算机(专业版);20180815(23);14-18 *
结合人脸图像和脑电的情绪识别技术;黄泳锐;杨健豪;廖鹏凯;潘家辉;;计算机系统应用;20180215(02);11-17 *

Also Published As

Publication number Publication date
CN115099311A (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
CN111414393B (zh) 一种基于医学知识图谱的语义相似病例检索方法及设备
CN111553295B (zh) 基于自注意力机制的多模态情感识别方法
CN112800998B (zh) 融合注意力机制和dmcca的多模态情感识别方法及系统
CN110197729A (zh) 基于深度学习的静息态fMRI数据分类方法和装置
CN114469120B (zh) 一种基于相似度阈值迁移的多尺度Dtw-BiLstm-Gan心电信号生成方法
CN113392918A (zh) 一种基于多源信息融合的抑郁障碍相关因素识别方法
CN115691786A (zh) 基于电子病历的眼科疾病信息提取方法和辅助诊断装置
CN117494013B (zh) 一种多尺度权值共享卷积神经网络及其脑电情感识别方法
CN114781441A (zh) Eeg运动想象分类方法及多空间卷积神经网络模型
Al-Otaibi et al. [Retracted] A Novel Method for Parkinson’s Disease Diagnosis Utilizing Treatment Protocols
CN117056536B (zh) 一种基于知识图谱驱动的虚拟医生系统及其操作方法
Wang et al. Interpret neural networks by extracting critical subnetworks
CN112116669B (zh) 一种基于颜色和谐和平面构成的图像美学预测方法
CN115099311B (zh) 基于脑电时空频特征和眼动特征的多模态情绪分类方法
CN117609863A (zh) 基于脑电微状态的长时脑电情绪识别方法
Prasath et al. A comparative and comprehensive study of prediction of parkinson’s disease
CN116797817A (zh) 基于自监督图卷积模型的自闭症疾病预测技术
CN116350234A (zh) 基于gcnn-lstm模型的ecg心律失常分类方法及系统
KR102092633B1 (ko) 스마트 시니어 인지반응 기반의 모델링 방법 및 장치
CN115186731A (zh) 基于多层次特征融合的深度tsk模糊分类器
Yu et al. Research on face recognition method based on deep learning
CN115512721A (zh) 基于pdan的跨库语音情感识别方法及装置
Mishra et al. Heart disease predictions using numerous classification techniques and dynamic LSTM model
Chou et al. Text mining technique for Chinese written judgment of criminal case
Alazaidah et al. A comprehensive analysis of eye diseases and medical data classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant