CN113673434A - 一种基于高效卷积神经网络和对比学习的脑电情绪识别方法 - Google Patents
一种基于高效卷积神经网络和对比学习的脑电情绪识别方法 Download PDFInfo
- Publication number
- CN113673434A CN113673434A CN202110968421.3A CN202110968421A CN113673434A CN 113673434 A CN113673434 A CN 113673434A CN 202110968421 A CN202110968421 A CN 202110968421A CN 113673434 A CN113673434 A CN 113673434A
- Authority
- CN
- China
- Prior art keywords
- sample
- layer
- electroencephalogram
- convolution
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 22
- 230000006870 function Effects 0.000 claims abstract description 35
- 230000008451 emotion Effects 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 8
- 239000000203 mixture Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 239000011541 reaction mixture Substances 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- PIZHFBODNLEQBL-UHFFFAOYSA-N 2,2-diethoxy-1-phenylethanone Chemical compound CCOC(OCC)C(=O)C1=CC=CC=C1 PIZHFBODNLEQBL-UHFFFAOYSA-N 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000037007 arousal Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000013604 expression vector Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
本发明公开了一种基于高效卷积神经网络和对比学习的脑电情绪识别方法,其步骤包括:1,建立一种适应于脑电信号的高效卷积神经网络模型;2,建立基于监督对比损失和交叉熵损失的混合损失函数;3,在公开脑电情绪数据集上采用十折交叉方法训练建立的混合损失的卷积神经网络模型;4,利用建立好的网络模型实现脑电情绪分类任务。本发明能够实现高精度情绪识别,从而能提高识别率。
Description
技术领域
本发明涉及情感计算领域,具体的说是一种基于高效卷积神经网络和对比学习的脑电情绪识别方法。
背景技术
情绪是人对客观事物的态度体验及相应的行为反应,在人类社会和生活中扮演者有不可或缺的地位。情绪识别是理解和提取人类当前心里状态或思维方式的过程。随着人工智能技术的进步,情绪识别已经成为神经科学、计算机科学、认知科学和医学研究领域中非常重要的一个环节。近几年涌现出许多研究情绪识别的方法,例如面部表情、身体运动和手势等,但是这些通过人类表面运动的变化并不能够真实的反应一个人真正的情绪,而脑电信号(Electroencephalogram,EEG)是不能够通过人为因素改变的,脑电信号最具有真实性,最能够准确的显示一个人的情绪,所以从自发的脑电信号中提取原始情绪具有重要意义。EEG情绪识别算法主要分为两类:传统算法和基于深度学习的算法。
传统基于EEG信号的情绪识别的算法中,通常是先从EEG信号中设计提取特征,再将提取得到的特征训练分类器进行识别任务。所以选择什么样的特征进行情绪识别非常关键,这些特征主要是从时域、频域或信息熵等方面提取单一的脑电特征,因此导致了最终的识别效果并不理想。
近年来,基于深度学习的脑电情绪识别方法引起广泛关注,人们采用各种深度学习网络作为分类器应用于从EEG信号提取得到的特征。除此之外,也有人将深度学习网络直接用于原始EEG信号中,将特征提取与分类同时进行,从而实现端到端的情绪识别研究。一般的深度学习网络使用多层卷积池化操作的原因,导致所携带的网络参数量非常大,由于大量的数据导致计算量增大,使得网络训练速度缓慢,深度学习所以成本很高,并且现在很多应用还不适合在便携式设备上使用。
发明内容
本发明为克服现有技术的不足之处,提出一种基于卷积神经网络和对比学习的脑电信号情绪识别方法,以期能够实现高精度情绪识别,从而能提高识别率。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于高效卷积神经网络和对比学习的脑电情绪识别方法的特点是按如下步骤进行:
步骤1、获取任一受试者A的带有P种情绪标签的脑电信号数据并进行去基线和样本分割处理的预处理操作,从而得到受试者A的N个脑电数据样本,记为Y={y1,y2,…,yi,…,yN}其中,yi∈Rm×n表示第i个脑电信号样本,m表示脑电信号的通道数,n表示采样点数,i=1,2,…,N;
步骤2、建立由特征提取模型fθ(·)和分类器模型c(·)组成的高效卷积神经网络结构;以及由所述特征提取模型fθ(·)和投影模型g(·)组成的特征映射网络结构;
步骤2.1、所述特征提取模型fθ(·)包括:标准卷积模块、block模块、池化层、标准化层、降维层和全连接层;
所述标准卷积模块包括:一个卷积核大小为k×k,步长为s,填充为p的卷积层、一个标准化层和一个ReLU激活函数层;
所述block模块包括:具有相同的结构r个block结构,其中,每个block结构包括四层卷积结构、四个标准化层和四个LeakyReLU的激活函数层,且每层卷积结构依次与一个标准化层和一个LeakyReLU的激活函数层相连;
第一层卷积结构是由一个卷积核大小为k1×k2,步长为s1,填充为p1的结构组成;第二层卷积结构是由一个卷积核大小为k3×k4,步长为s2,填充为p2和一个最大池化层的结构组成;第三层卷积结构是由一个卷积核大小k5×k6,步长为s3,填充为p3的结构组成;第四层卷积结构是由一个卷积核大小为k7×k8,步长为s4,填充为p4的结构组成;
所述降维层是将经过block层的三维样本特征拉直成具有a个节点数的一维特征;
所述全连接层是将具有a个节点数的一维特征压缩成具有b个节点数的一维特征,其中b≤a;
步骤2.2、所述分类器模型c(·)为一个全连接层,是将具有b个节点数的一维特征压缩成具有2个节点数的一维样本特征,其中,输出的一维样本特征作为两种情绪状态的概率值;利用所述分类器模型c(·)得到的一维样本特征和对应样本标签计算交叉熵损失函数Lc;
步骤2.3、所述投影模型g(·)为一个全连接层,是将具有b个节点数的一维特征压缩成具有c个节点数的一维样本特征,其中c≤b;利用所述投影模型g(·)得到的一维样本特征和对应样本标签计算对比损失函数Ls;
步骤2.4、利用交叉熵损失Lc和对比损失Ls构建混合损失L;
步骤3、联合优化框架的训练:
步骤3.1、利用式(1)构建交叉熵损失函数Lc:
步骤3.2、利用式(2)构建对比损失函数Ls:
式(2)中,Y′是N个脑电数据样本Y经过特征提取模型fθ(·)后输出的样本特征向量,且Y′={p(ya)+q(yb)},p(ya)是与第i个脑电信号样本yi具有相同标签的样本集合,并作为正样本集;q(yb)是与第i个脑电信号样本yi具有不同标签的样本集合,并作为负样本集;H(yi)是所述正样本集中的样本数量;yi·ym是度量第i个脑电信号样本yi和第m个脑电信号样本ym之间的余弦相似性,且T是转置,τ是控制训练过程中负样本作用的参数;
步骤3.3、利用式(3)构建混合损失函数L:
L=λLc+(1-λ)Ls (3)
式(3)中,λ是正则化参数,指两个损失函数的正则化权重;
步骤3.4、基于N个脑电数据样本Y对所述高效卷积神经网络结构和特征映射网络结构进行训练,采用AdamW优化器对所述混合损失函数L进行最小化求解,从而对网络结构中的所有参数进行优化,并得到最优识别网络模型,用于实现对脑电情绪的识别。
与已有技术相比,本发明的有益效果体现在:
1、本发明利用深度可分离卷积操作替换标准卷积操作,使得整个模型能够显著降低网络计算的负担,解决了数据压缩的问题。
2、本发明提出了一种高效卷积神经网络结构能够很好的提取脑电情绪样本的特征,此网络结构在保证识别精度基本不变的情况下,同时实现携带的网络参数和占用的内存更少,使得整个模型训练和测试过程更加迅速,花费时间更少,效率更高,运行时间更短,可以在经济高效的硬件上运行,从更加容易集成到便携式设备。
3、本发明将自我监督的批对比方法扩展到完全监督的领域,这样能够有效地利用样本标签信息,使用多个相同标签的正样本适应对比学习的全监督设置。在提取样本表示特征之后将其嵌入到单位球面空间中,利用对比损失函数将属于同一类的样本点簇拉到一起,同时将来自不同类的样本簇分开,使得在表示空间应用对比损失将不同类的样本相互分离,最终实现高准确率的脑电情绪识别。
4、本发明提出了一种基于交叉熵损失函数和对比损失函数的混合损失函数,利用混合损失函数训练的神经网络模型优于使用相同结构的单一损失,提高了网络模型的泛化能力以及识别准确性。
附图说明
图1为本发明方法流程示意图;
图2为本发明一种基于高效卷积神经网络和对比学习的脑电情绪识别方法的结构图;
图3为本发明卷积神经网络结构中特征提取模型的结构图;
图4为本发明特征表示模型中block层结构图;
图5为DEAP数据库中效价维度上32名受试者的平均识别精度图;
图6为DEAP数据库中唤醒度维度上32名受试者的平均识别精度图。
具体实施方式
本实施例中,一种基于高效卷积神经网络和对比学习的脑电情绪识别方法,首先对脑电样本进行去基线和样本分割,然后利用特征提取模型对预处理好的脑电样本进行提取特征向量,最后利用并行的分类器模型和投影模型对脑电特征向量进一步处理;分类器模型最终得到节点数为2的特征向量,表示模型对样本的分类结果,以及与样本标签共同计算交叉熵损失;投影模型最终得到节点数为c特征向量,利用此特征向量和样本标签计算对比损失;如图1所示,具体的说,该方法是按照如下步骤进行:
步骤1、获取任一受试者A的带有P种情绪标签的脑电信号数据进行去基线和样本分割处理的预处理操作,从而得到受试者A的N个脑电信号样本,记为Y={y1,y2,...,yi,...,yN},其中yi∈Rm×n表示第i个脑电信号样本,m表示脑电信号的通道数,n表示采样点数,i=1,2,…,N;本实例中使用的是公开数据库DEAP中脑电数据做训练和测试,数据集包含了32名受试者,分别观看了40段一分钟的视频后采集的脑电信号,每位受试者一次trial采集的脑电信号Y∈R32×8064,其中前3s的数据是基线数据,标签是由受试者一次trial后的评分,包含了两种情绪维度Arousal和Valence,每种情绪分为两类high和low;
对每个受试者的40段脑电信号进行预处理,包括:
假定一次trial的原始EEG信号为Y∈Rm×n,m是脑电信号的通道数,n是采样点数,其中基线信号是yi∈Rm×L,i=1,2,...,s.在DEAP数据集中,每位受试者的基线时长s=3。
去基线:计算1s的平均基线数据如式(1)所示:
为了减小静息状态脑电的干扰,使用平均基线数据对脑电信号做去基线预处理如式(2)所示:
式(2)中,y′j表示第j个脑电信号样本去除基线信号后的数据,yj表示第j个脑电信号样本。
样本分割:为了扩大样本数量,将一位受试者60s的脑电信号用3s的滑动窗分割,相应的样本标签也随之增加,最终每位受试者的脑电样本。实验采用十折交叉验证方法,随机选择90%的样本作为训练集,剩余10%样本作为测试集,在测试集上进行十次实验后的平均识别率作为最终识别精度。
步骤2、如图2所示,建立由特征提取模型fθ(·)和分类器模型c(·)组成的高效卷积神经网络结构;以及由特征提取模型fθ(·)和投影模型g(·)组成的特征映射网络结构;本发明的联合优化框架包含三个部分:特征提取模型、投影模型和分类器模型。如图3所示,特征提取模型由标准卷积模块、block模块、池化层、降维层、全连接层组成;分类器模型由一个线性全连接层组成,生成具有节点数为2的特征向量;投影模型由一个线性全连接层组成,具有节点数为128的特征向量;
步骤2.1、特征提取模型fθ(·)包括:标准卷积模块、block模块、池化层、标准化层、降维层和全连接层;
标准卷积模块包括:一个卷积核大小为k×k=3×3,步长为s=1,填充为p=0的卷积层、一个标准化层和一个ReLU激活函数层,此模块的作用是对脑电样本进行不同维度的采样,得到丰富的脑电样本特征;
block模块包括:具有相同结构的三个block结构,记为block1、block2、block3;如图4所示,其中每个block包括四层卷积结构、四个标准化层和四个LeakyReLU的激活函数层,且每层卷积结构依次与一个标准化层和一个LeakyReLU的激活函数层相连;
第一个卷积结构由一个卷积核大小k1×k2=1×1,步长为s1=1,行列填充都为p1=1的结构组成,此步不改变数据大小,目的是得到新的样本的特征映射;第二个卷积结构由一个卷积核大小为k3×k4=1×3,步长为s2=1,在行填充为0,在列填充为1的卷积和一个最大池化层结构的结构组成、第三个卷积结构由一个卷积核大小k5×k6=3×1,步长为s3=1,在行填充为1,在列填充为0的结构组成;第四层卷积结构由一个卷积核大小为k7×k8=1×2,步长为s4=1,填充为p4=0的结构组成;block层的作用是利用深度可分离卷操作积替换标准卷积操作,不仅能够实现减少网络层的参数量和计算量,同时实现更高的分类准确性;
为了有效说明本发明所提出的block结构的高效性,如表1所示与标准卷积结构进行比较,表中比较了两个结构的参数量和模型的复杂度,由表显示,标准卷积模块的参数量为本发明卷积模块参数量的3.54倍,模型的复杂度为2.13倍;
表1本发明提出的block结构与标准卷积结构比较
表1中FLOPs是floatingpoint operations的缩写(s表复数),意指浮点运算数,理解为计算量,可以用来衡量算法/模型的复杂度,数值越大表明模型越复杂;BN为标准化;DW代表深度可分离卷积;mp为最大池化;
降维层是将经过block层的三维特征样本拉直成具有a=32768个节点数的一维特征;
全连接层是将经过具有a=32768个节点数的一维特征压缩成具有b=128个节点数的一维特征;
步骤2.2、分类器模型c(·)为一个与情绪分类数量一样多的隐藏单元构成线性全连接层,是利用线性全连接层将特征提取模型的输出具有b=128个节点数的一维特征压缩成具有2个节点数的一维特征,其中,分类器模型输出的一维样本特征作为两种情绪状态的概率值,用于实现分类结果;同时利用分类器模型c(·)得到的一维样本特征以及和将样本标签经过一个热编码器得到标签的二值化向量,两者共同计算交叉熵损失Lc;
步骤2.3、投影模型g(·)为一个全连接层,是将特征提取模型的输出具有b=128个节点数的一维向量压缩成具有c=64个节点数的一维样本特征;利用投影模型g(·)得到的一维样本特征和对应样本标签计算对比损失Ls;对比损失的构建是基于正负样本之间的区别,本发明根据样本的标签来构建正对和负对样本,由于所面对的是二分类问题,所以选择正负样本是根据投影模型随机选取的。首先利用特征提取模型将样本yi映射到特征表示向量hi,这里再利用投影模型将特征表示向量hi线性映射到具有较低维度的空间中,即Dg<<Df;最后将投影模型输出的特征表示向量标准化到单位超球面上,利用对比损失来测量投影空间中各样本之间的距离,同时通过优化整个模型的参数将正负样本之间的距离尽可能的拉大;
步骤2.4、利用交叉熵损失Lc和对比损失Ls构建混合损失L;
步骤3、联合优化框架的训练:
步骤3.1、分类器模型使用节点数为b=128的特征表示向量作为输入,并输出属于每个样本的概率,同时使用一个热编码器将样本标签二值化,利用分类器模型输出的样本概率与样本真实标签计算交叉熵损失,利用式(3)构建交叉熵损失函数Lc:
步骤3.2、投影模型将特征提取模型输出的节点数为128的表征向量作为输入,将表征向量进一步映射到低维空间中以此来计算对比损失,利用式(4)构建对比损失函数Ls:
式(4)中,Y′是指N个脑电样本Y经过特征提取模型fθ(·)后输出的样本特征向量,且Y′={p(ya)+q(yb)},p(ya)是指与第i个脑电信号样本yi具有相同标签的样本的集合,定义为正样本集;q(yb)是指与第i个脑电信号样本yi具有不同标签的样本的集合,定义为负样本集;H(yi)是指正样本集中样本的数量;yi·ym是度量样本yi和样本ym之间的余弦相似性,其T是转置,τ是控制训练过程中负样本作用的参数;
步骤3.3、利用式(5)构建对比损失和交叉熵损失的混合损失函数L:
L=λLs+(1-λ)Lc, (5)
式(5)中,Ls是指对比损失,Lc是指交叉熵损失,λ为正则化参数,指交叉熵损失和对比损失两个损失所占的正则化权重;
步骤3.4、基于N个脑电数据样本Y对高效卷积神经网络结构和特征映射网络结构进行训练,本发明采用AdamW优化器,AdamW优化器利用权重衰减与L2正则化有效的解决了网络收敛速度和参数过拟合等问题,将特征提取模型、分类器模型和投影模型中所涉及到的所有参数都利用AdamW优化器进行参数优化,对混合损失函数L进行最小化求解,从而对网络结构中的所有参数进行优化,并得到最优识别网络模型,用于实现对脑电情绪的识别。
步骤3.5、使用提出的联合优化策略来解决脑电情绪分类问题如图1所示,建立混合损失函数L,通过向损失减小的方向更新网络参数以达到高分类准确性证明是可行的;
具体实施中,联合优化框架下的网络模型,给交叉熵损失和对比损失不同的正则化权重进行对比,将测试集的平均识别精度作为评价指标,当识别精度越高,说明模型的识别能力越好,实验证明混合损失的正则化参数λ=0.5的时候可以达到最佳效果,这表明,通过交叉熵损失和对比损失的相等贡献的时候可以获得更高的精度,并且当这两个损失函数互补时,模型对脑电情绪识别的效果最好。
表2.DEAP数据库上不同模型两种情绪的平均识别结果
方法 | Vanlance | Arousal |
SVM | 88.65±6.08 | 89.07±5.79 |
3DCNN | 90.24±4.02 | 89.45±3.34 |
DGCNN | 92.55±3.57 | 93.50±3.30 |
OURS | 98.35±1.27 | 98.50±1.20 |
由表2可知,本发明表明,将这种组合损失应用到所提出的高效卷积神经网络模型中能够提高模型的泛化能力以及能够达到最佳的识别精度。
32名受试者的十折交叉验证结果如图5和图6所示。结果分析:
实验结果表明,传统方法SVM和深度学习方法3DCNN与DGCNN相比,本发明提出的基于高效卷积神经网络模型和对比学习的脑电情绪识别方法在两种情绪维度(效价和唤醒度)的识别精度都有明显的提升,验证了对比学习方法能够将具有不同标签的样本在单位空间中相互分离,相同标签的样本之间在单位空间中相互靠近,从而增强了模型的识别结果。此外,从图5,6中可以发现,本发明提出的脑电情绪识别方法对32名受试者的识别效果均最佳,更小的标准差表明了该模型的稳定性更好,对不同受试者有更好的泛化能力。
综上所述,本发明充分利用EEG原始信号所包含的相关信息,使用本发明所提出的组合网络模型与联合优化框架,能够达到卷积神经网络模型在公共数据集DEAP中top-1的识别准确率,且在所有受试者上的识别效果更加稳定。
Claims (1)
1.一种基于高效卷积神经网络和对比学习的脑电情绪识别方法,其特征是按如下步骤进行:
步骤1、获取任一受试者A的带有P种情绪标签的脑电信号数据并进行去基线和样本分割处理的预处理操作,从而得到受试者A的N个脑电数据样本,记为Y={y1,y2,…,yi,…,yN}其中,yi∈Rm×n表示第i个脑电信号样本,m表示脑电信号的通道数,n表示采样点数,i=1,2,…,N;
步骤2、建立由特征提取模型fθ(·)和分类器模型c(·)组成的高效卷积神经网络结构;以及由所述特征提取模型fθ(·)和投影模型g(·)组成的特征映射网络结构;
步骤2.1、所述特征提取模型fθ(·)包括:标准卷积模块、block模块、池化层、标准化层、降维层和全连接层;
所述标准卷积模块包括:一个卷积核大小为k×k,步长为s,填充为p的卷积层、一个标准化层和一个ReLU激活函数层;
所述block模块包括:具有相同的结构r个block结构,其中,每个block结构包括四层卷积结构、四个标准化层和四个LeakyReLU的激活函数层,且每层卷积结构依次与一个标准化层和一个LeakyReLU的激活函数层相连;
第一层卷积结构是由一个卷积核大小为k1×k2,步长为s1,填充为p1的结构组成;第二层卷积结构是由一个卷积核大小为k3×k4,步长为s2,填充为p2和一个最大池化层的结构组成;第三层卷积结构是由一个卷积核大小k5×k6,步长为s3,填充为p3的结构组成;第四层卷积结构是由一个卷积核大小为k7×k8,步长为s4,填充为p4的结构组成;
所述降维层是将经过block层的三维样本特征拉直成具有a个节点数的一维特征;
所述全连接层是将具有a个节点数的一维特征压缩成具有b个节点数的一维特征,其中b≤a;
步骤2.2、所述分类器模型c(·)为一个全连接层,是将具有b个节点数的一维特征压缩成具有2个节点数的一维样本特征,其中,输出的一维样本特征作为两种情绪状态的概率值;利用所述分类器模型c(·)得到的一维样本特征和对应样本标签计算交叉熵损失函数Lc;
步骤2.3、所述投影模型g(·)为一个全连接层,是将具有b个节点数的一维特征压缩成具有c个节点数的一维样本特征,其中c≤b;利用所述投影模型g(·)得到的一维样本特征和对应样本标签计算对比损失函数Ls;
步骤2.4、利用交叉熵损失Lc和对比损失Ls构建混合损失L;
步骤3、联合优化框架的训练:
步骤3.1、利用式(1)构建交叉熵损失函数Lc:
步骤3.2、利用式(2)构建对比损失函数Ls:
式(2)中,Y′是N个脑电数据样本Y经过特征提取模型fθ(·)后输出的样本特征向量,且Y′={p(ya)+q(yb)},p(ya)是与第i个脑电信号样本yi具有相同标签的样本集合,并作为正样本集;q(yb)是与第i个脑电信号样本yi具有不同标签的样本集合,并作为负样本集;H(yi)是所述正样本集中的样本数量;yi·ym是度量第i个脑电信号样本yi和第m个脑电信号样本ym之间的余弦相似性,且T是转置,τ是控制训练过程中负样本作用的参数;
步骤3.3、利用式(3)构建混合损失函数L:
L=λLc+(1-λ)Ls (3)
式(3)中,λ是正则化参数,指两个损失函数的正则化权重;
步骤3.4、基于N个脑电数据样本Y对所述高效卷积神经网络结构和特征映射网络结构进行训练,采用AdamW优化器对所述混合损失函数L进行最小化求解,从而对网络结构中的所有参数进行优化,并得到最优识别网络模型,用于实现对脑电情绪的识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110968421.3A CN113673434B (zh) | 2021-08-23 | 2021-08-23 | 一种基于高效卷积神经网络和对比学习的脑电情绪识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110968421.3A CN113673434B (zh) | 2021-08-23 | 2021-08-23 | 一种基于高效卷积神经网络和对比学习的脑电情绪识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113673434A true CN113673434A (zh) | 2021-11-19 |
CN113673434B CN113673434B (zh) | 2024-02-20 |
Family
ID=78545113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110968421.3A Active CN113673434B (zh) | 2021-08-23 | 2021-08-23 | 一种基于高效卷积神经网络和对比学习的脑电情绪识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113673434B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114533084A (zh) * | 2022-02-09 | 2022-05-27 | 北京师范大学 | 脑电特征提取方法、装置、电子设备和存储介质 |
CN114595725A (zh) * | 2022-03-15 | 2022-06-07 | 合肥工业大学 | 一种基于加法网络和监督对比学习的脑电信号分类方法 |
CN116701917A (zh) * | 2023-07-28 | 2023-09-05 | 电子科技大学 | 一种基于生理信号的开放集情感识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399857A (zh) * | 2019-08-01 | 2019-11-01 | 西安邮电大学 | 一种基于图卷积神经网络的脑电情感识别方法 |
US20190347476A1 (en) * | 2018-05-09 | 2019-11-14 | Korea Advanced Institute Of Science And Technology | Method for estimating human emotions using deep psychological affect network and system therefor |
CN110610168A (zh) * | 2019-09-20 | 2019-12-24 | 合肥工业大学 | 一种基于注意力机制的脑电情绪识别方法 |
WO2020140386A1 (zh) * | 2019-01-02 | 2020-07-09 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
CN112766355A (zh) * | 2021-01-13 | 2021-05-07 | 合肥工业大学 | 一种标签噪声下的脑电信号情绪识别方法 |
KR102275436B1 (ko) * | 2020-01-20 | 2021-07-09 | 인하대학교 산학협력단 | 실시간 감정인식을 위한 영상 및 eeg 신호의 융합 기술 |
CN113128353A (zh) * | 2021-03-26 | 2021-07-16 | 安徽大学 | 面向自然人机交互的情绪感知方法及其系统 |
-
2021
- 2021-08-23 CN CN202110968421.3A patent/CN113673434B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190347476A1 (en) * | 2018-05-09 | 2019-11-14 | Korea Advanced Institute Of Science And Technology | Method for estimating human emotions using deep psychological affect network and system therefor |
WO2020140386A1 (zh) * | 2019-01-02 | 2020-07-09 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
CN110399857A (zh) * | 2019-08-01 | 2019-11-01 | 西安邮电大学 | 一种基于图卷积神经网络的脑电情感识别方法 |
CN110610168A (zh) * | 2019-09-20 | 2019-12-24 | 合肥工业大学 | 一种基于注意力机制的脑电情绪识别方法 |
KR102275436B1 (ko) * | 2020-01-20 | 2021-07-09 | 인하대학교 산학협력단 | 실시간 감정인식을 위한 영상 및 eeg 신호의 융합 기술 |
CN112766355A (zh) * | 2021-01-13 | 2021-05-07 | 合肥工业大学 | 一种标签噪声下的脑电信号情绪识别方法 |
CN113128353A (zh) * | 2021-03-26 | 2021-07-16 | 安徽大学 | 面向自然人机交互的情绪感知方法及其系统 |
Non-Patent Citations (1)
Title |
---|
张俊晓;薄华;: "基于卷积神经网络的脑电情绪识别研究", 现代计算机(专业版), no. 23, 15 August 2018 (2018-08-15), pages 14 - 18 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114533084A (zh) * | 2022-02-09 | 2022-05-27 | 北京师范大学 | 脑电特征提取方法、装置、电子设备和存储介质 |
CN114595725A (zh) * | 2022-03-15 | 2022-06-07 | 合肥工业大学 | 一种基于加法网络和监督对比学习的脑电信号分类方法 |
CN114595725B (zh) * | 2022-03-15 | 2024-02-20 | 合肥工业大学 | 一种基于加法网络和监督对比学习的脑电信号分类方法 |
CN116701917A (zh) * | 2023-07-28 | 2023-09-05 | 电子科技大学 | 一种基于生理信号的开放集情感识别方法 |
CN116701917B (zh) * | 2023-07-28 | 2023-10-20 | 电子科技大学 | 一种基于生理信号的开放集情感识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113673434B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110610168B (zh) | 一种基于注意力机制的脑电情绪识别方法 | |
CN114052735B (zh) | 一种基于深度领域自适应的脑电情绪识别方法及系统 | |
CN113673434A (zh) | 一种基于高效卷积神经网络和对比学习的脑电情绪识别方法 | |
CN110472649B (zh) | 基于多尺度分析和集成树模型的脑电情感分类方法及系统 | |
CN112489769B (zh) | 基于深度神经网络的慢性病智慧中医诊断与药物推荐系统 | |
CN112364697B (zh) | 基于r-lstm模型的脑电信号情绪识别方法 | |
CN114469120B (zh) | 一种基于相似度阈值迁移的多尺度Dtw-BiLstm-Gan心电信号生成方法 | |
CN107766898A (zh) | 基于svm的三分类情绪概率判断方法 | |
Jinliang et al. | EEG emotion recognition based on granger causality and capsnet neural network | |
CN117198468B (zh) | 基于行为识别和数据分析的干预方案智慧化管理系统 | |
Yao et al. | A feature-fused convolutional neural network for emotion recognition from multichannel EEG signals | |
CN114595725B (zh) | 一种基于加法网络和监督对比学习的脑电信号分类方法 | |
CN115919330A (zh) | 基于多层次se注意力和图卷积的eeg情绪状态分类方法 | |
Shen et al. | A high-precision feature extraction network of fatigue speech from air traffic controller radiotelephony based on improved deep learning | |
Salamatian et al. | Automatic sleep stage classification using 1D convolutional neural network | |
Li et al. | Facial emotion recognition via stationary wavelet entropy and Biogeography-based optimization | |
Immanuel et al. | Analysis of different emotions with bio-signals (EEG) using deep CNN | |
CN114398991A (zh) | 基于Transformer结构搜索的脑电信号情绪识别方法 | |
Mehta | Brain tumor detection using artificial neural network | |
CN111860463B (zh) | 一种基于联合范数的情感识别方法 | |
Li et al. | Few-shot EEG sleep staging based on transductive prototype optimization network | |
CN115238744A (zh) | 一种基于数据不确定性的脑电情绪识别方法 | |
Tasnim et al. | Emotion recognition from facial expression of autism spectrum disordered children using image processing and machine learning algorithms | |
Kabra et al. | A comparative analysis for detecting Alzheimer’s by CNN and SVM Algorithm | |
CN111176446B (zh) | 一种基于多图卷积神经网络的可穿戴复杂人类活动识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |