CN113128552A - 一种基于深度可分离因果图卷积网络的脑电情绪识别方法 - Google Patents

一种基于深度可分离因果图卷积网络的脑电情绪识别方法 Download PDF

Info

Publication number
CN113128552A
CN113128552A CN202110231114.7A CN202110231114A CN113128552A CN 113128552 A CN113128552 A CN 113128552A CN 202110231114 A CN202110231114 A CN 202110231114A CN 113128552 A CN113128552 A CN 113128552A
Authority
CN
China
Prior art keywords
channel
electroencephalogram
convolution
matrix
depth separable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110231114.7A
Other languages
English (en)
Other versions
CN113128552B (zh
Inventor
孔万增
仇敏
张建海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110231114.7A priority Critical patent/CN113128552B/zh
Publication of CN113128552A publication Critical patent/CN113128552A/zh
Application granted granted Critical
Publication of CN113128552B publication Critical patent/CN113128552B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Public Health (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Fuzzy Systems (AREA)

Abstract

本发明公开了一种基于深度可分离因果图卷积网络的脑电情绪识别方法。现有用于识别脑电情绪的神经网络缺乏通道间定向功能性关系的考虑。本发明如下:一、采集被测者的脑电数据。二、构建邻接矩阵。三、计算脑电数据对应的正则化拉普拉斯矩阵。四、利用深度可分离因果图卷积模型进行特征提取和情绪分类。本发明采用格兰杰因果关系对EEG信号通道间的关系进行建模,构建出一个有向的非对称矩阵,充分考虑了通道间的因果关系,与真实的脑电信号产生情况一致,故能够有效提高情绪类型识别的准确率。此外,本发明采用深度可分离卷积充分提取了脑电数据中的局部特征,从而进一步提高了分类准确率。

Description

一种基于深度可分离因果图卷积网络的脑电情绪识别方法
技术领域
本发明属于脑电情绪识别领域,涉及一种基于GC_DSGCN(depthwise separablegraph convolutional neural networkbased on Granger causality基于格兰杰因果关系的深度可分离图卷积算法)的脑电情绪分类方法。
背景技术
情绪在人们的日常交流、工作学习和认知决策过程中具有信息传递与行为调控的作用,识别出正确的情绪,能够帮助人们掌握正确的信息。近几年人工智能有了很大的发展,已经拥有了很完善的逻辑体系和算法结构,但情绪的识别部分仍然存在缺陷,因此情绪识别领域也就受到了广泛的重视,情绪的正确识别将会有助于人机协同的进一步提高。
目前情绪识别的技术主要采用面部表情、语音信号,心理学常用量表和心理信号等。前三种技术虽然实施过程简单,也比较易于获得,但其可靠性、有效性却不能够保证,因为主体可以通过控制面部表情、语音语调和心理变化来掩盖真实的情绪,甚至有些时候主题也不能很正确的表达其真实的心理感受。心理信号则主要包含脑电图(EEG)、心电图(ECG)和肌电图(EMG)等,其中采取脑电图的设备是最轻便,易于获得的,获得信号的速度也十分的快速,采取过程对人体无任何伤害,价格也是最便宜的,这也使在情绪识别领域上EEG的使用最为普遍。
脑电信号提供了一个人的大量的信息,同时也被运用到大量的实际应用中,如为某些脑疾病提供诊断依据,甚至可以提供更有效的治疗手段,近年来大量研究人员借助脑电信号,来实现人机交互。而脑电信号能够更客观地反应人的情绪,因此能为提高人机交互性能提供更大的帮助。
现已经有了卷积神经网络(CNN)、循环神经网络(RNN)、支持向量机(SVM)等方法来识别脑电情绪,也都得到了十分可观的结果,也有对EEG通道间信息的提取的图神经网络(GNN),但缺乏通道间定向功能性关系的考虑,故需要提出一种方法能够将该信息加入到输入中,同时能够提高情绪分类准确率的方法。
发明内容
本发明针对现有技术的不足,提供一种基于GC_DSGCN的脑电情绪识别方法,通过格兰杰因果关系计算出EEG通道间的定向影响因子,建立模型所需要的拓扑图,通过图卷积提取出空间特征,再通过深度可分离卷积提取出局部特征,用平均池化层将提取出的局部特征总合成新的特征,最后输入全连接层,实现脑电情绪的分类。
本发明的具体步骤如下:
步骤一、获取被测者的脑电数据。
步骤二、构建邻接矩阵。
计算脑电数据中包括任意两通道格兰杰因果关系值;任意两通道c1、c2的格兰杰因果关系值如式(2.5)、(2.6)所示。
Figure BDA0002958154750000021
Figure BDA0002958154750000022
其中,GCc2→c1为通道c2映射到通道c1格兰杰因果关系值;其中,GCc1→c2为通道c1映射到通道c2格兰杰因果关系值;
Figure BDA0002958154750000023
分别为通道c1、c2的预测误差的方差,其表达式如式(2.3)所示;
Figure BDA0002958154750000024
分别为通道c1对通道c2之间的预测误差的方差、通道c1对通道c2,其表达式如式(2.4)所示。
Figure BDA0002958154750000025
Figure BDA0002958154750000026
其中,
Figure BDA0002958154750000027
X1、X2分别为数据样本的任意两个通道c1、c2的前P段时间序列;P为自回归模型的阶数;Y1、Y2分别表示P到T时刻中通道c1、通道c2的时间序列;T为总时间段数量;
Figure BDA0002958154750000028
为通道c1、通道c2的单变量自回归系数,其表达式如式(2.1)所示;
Figure BDA0002958154750000029
为通道c1与通道c2之间的双变量回归系数,其表达式如式(2.2)所示。
Figure BDA00029581547500000210
Figure BDA0002958154750000031
用将脑电数据内的各通道数据相互之间的格兰杰因果关系值组成邻接矩阵A。
步骤三、计算脑电数据对应的正则化拉普拉斯矩阵L如式(3.1)。
L=IN-D-1/2AD-1/2 式(3.1)
其中,IN是单位矩阵,D是对应的邻接矩阵A的度矩阵。
步骤四、利用深度可分离因果图卷积模型进行特征提取和情绪分类。
所述的深度可分离因果图卷积模型首先利用步骤三得到的正则化拉普拉斯矩阵L,对脑电数据图卷积运算。再通过深度可分离卷积层提取局部特征,提取出频谱能量特征;然后通过平均池化层,将提取到的局部特征整合成新的特征;最后通过全连接层进行情绪分类,确定被测者在脑电采集时的情绪类型。深度可分离因果图卷积模型经过多个已有标签的脑电数据的训练。
作为优选,步骤一中所述的情绪类别包括积极,中性,消极。被试者的情绪类别通过观看不同的电影片段来引导。
作为优选,脑电数据为通过10-20国际标准导联系统采集的62通道脑电信号。
作为优选,所有脑电数据均经过去趋势化、去均值、一阶差分处理。
作为优选,步骤四中的图卷积运算通过切比雪夫滤波器进行。
作为优选,步骤四中,深度可分离因果图卷积模型对脑电数据的具体处理过程如下:提取脑电数据x与滤波器θ的卷积y如式(4.3)所示。
Figure BDA0002958154750000032
其中,θk是切比雪夫多项式的系数;
Figure BDA0002958154750000033
通过递归表达式计算得到,
Figure BDA0002958154750000034
λmax是正则化拉普拉斯矩阵L的最大特征值。IN为单位矩阵。K为切比雪夫滤波器的阶数。
再将提取出的卷积y输入至深度可分离卷积网络,即先通过逐通道卷积,一个卷积核负责一个通道;再通过一个逐点卷积,将上一步的特征在深度方向上进行加权组合,生成新的局部特征,最后用平均池化层将局部特征总合为新的特征。新的特征输入全连接层即得到情绪类型。
作为优选,构建脑电数据x与滤波器θ的卷积y的表达式的过程如下:
4-1.将脑电数据x与滤波器θ的卷积定义为:y=gθ(L)x;其中,gθ(·)是图信号的滤波函数。
4-2.将正则化拉普拉斯矩阵L分解为:L=UΛUT;其中,U是正交矩阵,由L的特征向量组成;Λ为对角矩阵,其各对角元素分别为正则化拉普拉斯矩阵L的各个特征值。进而将样本数据x与滤波器θ的卷积y重新定义为式(4.1)。
y=gθ(L)x=Ugθ(Λ)UTx 式(4.1)
4-3.利用K阶切比雪夫多项式来计算滤波函数gθ(Λ)如式(4.2)所示。
Figure BDA0002958154750000041
其中,
Figure BDA0002958154750000042
Figure BDA0002958154750000043
通过递归表达式进行计算,
Figure BDA0002958154750000044
根据式(4.2)进一步将卷积y的表达式优化为式(4.3)。
本发明的有益效果是:
1、本发明采用格兰杰因果关系对EEG信号通道间的关系进行建模,构建出一个有向的非对称矩阵,充分考虑了通道间的因果关系,与真实的脑电信号产生情况一致,故能够有效提高情绪类型识别的准确率。
2、本发明采用深度可分离卷积充分提取了脑电数据中的局部特征,从而进一步提高了分类准确率。
附图说明
图1是本发明获取格兰杰因果关系构建邻接矩阵的流程图;
图2是本发明提出的深度可分离因果图卷积模型的网络框架图。
具体实施方式
为使本发明的目的、技术方案和要点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
一种基于深度可分离因果图卷积网络的脑电情绪识别方法,包括以下步骤:
步骤一、建立数据集。
本实施例使用上海交大提供的情绪脑电SEED数据集,该数据集由15个被试(7名男性,8名女性)分别观看来自6部电影的15个片段,引起的不同的情绪(积极,中性,消极)所产生,因此每次实验得到15个样本数据;每个被试做三次实验,每个实验相隔大约一周;一共有15×3=45个实验。而每个实验取前9个片段作为训练集,后6个片段作为测试集。
步骤二、邻接矩阵构建。
本发明的数据集采用了国际10-20系统的62个通道,每个通道定义为c,如果通道c1的某些或者全部滞后阶对通道c2产生了显著的影响(或c2的滞后阶也可能对c1造成影响),那么利用c1去预测c2(或c2去预测c1)的变化就成为了可能,也就是说变量c1是导致变量c2的格兰杰原因。对于通道c1的时间序列和通道c2的时间序列,使用c1的自回归模型(AR)和c1、c2共同的自回归模型来预测两通道见的影响因素。基于这一情况,本发明将每一个通道作为模型的节点,计算出每个节点之间以及该节点对自身的格兰杰因果关系,构建模型所需要的有向邻接矩阵,如图2所示。
如图1所示,将数据集内的各个数据样本分别进行去趋势化、去均值、一阶差分处理,通过最小二乘法估计回归模型的系数,
计算每个数据样本中各通道的P阶AR模型的单变量自回归系数
Figure BDA0002958154750000051
如式(2.1)所示。P为AR模型的阶数。
Figure BDA0002958154750000052
其中,X1表示数据样本的任意通道c1的前P段时间序列;
Figure BDA0002958154750000053
c1(i)是通道c1当前时刻向前的第i个时间段的数据;Y1表示P到T时刻中通道c1的时间序列;T为总时间段数量;
Figure BDA0002958154750000054
计算联合回归模型的双变量回归系数
Figure BDA0002958154750000055
如式(2.2)所示。
Figure BDA0002958154750000056
其中,
Figure BDA0002958154750000057
X1、X2分别为数据样本的任意两个通道c1、c2的前P段时间序列。
计算每个数据样本中各通道的自回归模型的预测误差的方差
Figure BDA0002958154750000058
如式(2.3)所示。
Figure BDA0002958154750000061
其中,var(·)为方差函数;c1表示数据样本的任意通道数据;var(·)为方差函数;ec1为单变量AR模型的预测误差。
计算每个数据样本中两两通道之间的自回归模型的预测误差的方差
Figure BDA0002958154750000062
如式(2.4)所示。
Figure BDA0002958154750000063
其中,ec1c2则是双变量的预测误差。
计算两通道互相的格兰杰因果关系值如式(2.5)、(2.6)所示。
Figure BDA0002958154750000064
Figure BDA0002958154750000065
其中,GCc2→c1为通道c2映射到通道c1格兰杰因果关系值;其中,GCc1→c2为通道c1映射到通道c2格兰杰因果关系值.
62个通道数据两两组合(包括自身对自身的影响)的格兰杰因果关系值组成62×62的邻接矩阵A。
步骤三、正则化矩阵。
根据正则化拉普拉斯矩阵的定义,计算各样本数据对应的正则化拉普拉斯矩阵L如式(3.1)。
L=IN-D-1/2AD-1/2 (3.1)
其中,IN是单位矩阵,D∈RN*N是邻接矩阵A的度矩阵,D可以通过
Figure BDA0002958154750000066
计算得到;而A就是步骤二得到的邻接矩阵。
步骤四、特征提取
脑电信号中的每个通道无时无刻不因为其他通道的影响而在改变着自己的状态直到最终的平衡,这也就需要一个网络,能够考虑到信号的结构关系。图卷积神经网络其实和卷积神经网络一样,是一个用于图数据的特征提取器,但和卷积神经网络不同的是,卷积神经网络无论kernel窗口平移到哪里,其内部结构都是一样的,但图数据的结构一般来说是十分不规则的,所以它没有平移不变性。每一个节点的周围结构可能都是独一无二的。这里就需要步骤三中的正则化拉普拉斯矩阵。
如图2所示,建立深度可分离因果图卷积模型,其首先将脑电数据通过切比雪夫滤波器进行图卷积运算,再将其输出输入到深度可分离卷积层提取局部特征,提取出频谱能量特征,再通过一层平均池化层,将提取到的局部特征整合成新的特征,最后输入全连接层,实现脑电情绪的分类。
在图卷积神经网络上,样本数据x与图的滤波器θ的卷积定义为:y=gθ(L)x,gθ(·)是图信号的滤波函数。
正则化拉普拉斯矩阵L的奇异值分解为:L=UΛUT;其中,U是正交矩阵,由L的特征向量组成,U=[u0,u1,···,uN-1]∈RN×N,Λ为对角矩阵,其各对角元素分别为正则化拉普拉斯矩阵L的各个特征值。Λ=diag([λ01,···,λN-1]);x∈RN*F是输入信号,F是样本数据x的特征数。
因此:样本数据x与图的滤波器θ的卷积y重新定义为式(4.1)。
y=gθ(L)x=Ugθ(Λ)UTx (4.1)
然而为了简化计算,我们引入了K阶切比雪夫多项式来计算滤波函数gθ(Λ),
Figure BDA0002958154750000071
其中,θk是切比雪夫多项式的系数;
Figure BDA0002958154750000072
λmax是对角矩阵Λ的最大元素;
Figure BDA0002958154750000073
可以通过递归表达式进行计算,即
Figure BDA0002958154750000074
卷积y变为式(4.3)。
Figure BDA0002958154750000075
其中,
Figure BDA0002958154750000076
再将公式(3.1)的正则化拉普拉斯矩阵L代入,就得到了最终的图卷积公式(4.3)。
Figure BDA0002958154750000077
再将提取出的卷积y输入至深度可分离卷积网络,即先通过逐通道卷积,一个卷积核负责一个通道;再通过一个逐点卷积(类似于普通的卷积),这一层卷积运算会将上一步的特征在深度方向上进行加权组合,生成新的局部特征(即特征图),最后用平均池化层将局部特征总合为新的特征。
步骤五、根据步骤4提取的特征用全连接层进行分类,获得样本数据x对应的情绪类型。
本发明经过训练集训练后使用测试集进行准确率测试,所得结果与现有技术(SVM、GCNN、P_GCN、DGCNN)对比的情况如下表1所示。在对比中,取每个被试的任意两次实验结果进行测试;并用得到的所有准确率数据的平均值来衡量模型的效果。本发明主要选取SEED数据集中预处理后的的DE特征进行实验。
表1 SEED数据集上平均准确率和标准偏差的比较
Figure BDA0002958154750000081
从表1可以发现,本发明比SVM、GCNN、P_GCN、DGCNN方法的准确率都要高,且在beta、gamma频段和全频带的表现更为突出,个体差异也有了一定的缩小。

Claims (7)

1.一种基于深度可分离因果图卷积网络的脑电情绪识别方法,其特征在于:步骤一、获取被测者的脑电数据;
步骤二、构建邻接矩阵;
计算脑电数据中包括任意两通道格兰杰因果关系值;任意两通道c1、c2的格兰杰因果关系值如式(2.5)、(2.6)所示;
Figure FDA0002958154740000011
Figure FDA0002958154740000012
其中,GCc2→c1为通道c2映射到通道c1格兰杰因果关系值;其中,GCc1→c2为通道c1映射到通道c2格兰杰因果关系值;
Figure FDA0002958154740000013
分别为通道c1、c2的预测误差的方差,其表达式如式(2.3)所示;
Figure FDA0002958154740000014
分别为通道c1对通道c2之间的预测误差的方差、通道c1对通道c2,其表达式如式(2.4)所示;
Figure FDA0002958154740000015
Figure FDA0002958154740000016
其中,
Figure FDA0002958154740000017
X1、X2分别为数据样本的任意两个通道c1、c2的前P段时间序列;P为自回归模型的阶数;Y1、Y2分别表示P到T时刻中通道c1、通道c2的时间序列;T为总时间段数量;
Figure FDA0002958154740000018
为通道c1、通道c2的单变量自回归系数,其表达式如式(2.1)所示;
Figure FDA0002958154740000019
为通道c1与通道c2之间的双变量回归系数,其表达式如式(2.2)所示;
Figure FDA00029581547400000110
Figure FDA00029581547400000111
用将脑电数据内的各通道数据相互之间的格兰杰因果关系值组成邻接矩阵A;
步骤三、计算脑电数据对应的正则化拉普拉斯矩阵L如式(3.1);
L=IN-D-1/2AD-1/2 式(3.1)
其中,IN是单位矩阵,D是对应的邻接矩阵A的度矩阵;
步骤四、利用深度可分离因果图卷积模型进行特征提取和情绪分类;
所述的深度可分离因果图卷积模型首先利用步骤三得到的正则化拉普拉斯矩阵L,对脑电数据图卷积运算;再通过深度可分离卷积层提取局部特征,提取出频谱能量特征;然后通过平均池化层,将提取到的局部特征整合成新的特征;最后通过全连接层进行情绪分类,确定被测者在脑电采集时的情绪类型;深度可分离因果图卷积模型经过多个已有标签的脑电数据的训练。
2.根据权利要求1所述的一种基于深度可分离因果图卷积网络的脑电情绪识别方法,其特征在于:步骤一中所述的情绪类别包括积极,中性,消极;被试者的情绪类别通过观看不同的电影片段来引导。
3.根据权利要求1所述的一种基于深度可分离因果图卷积网络的脑电情绪识别方法,其特征在于:脑电数据为通过10-20国际标准导联系统采集的62通道脑电信号。
4.根据权利要求1所述的一种基于深度可分离因果图卷积网络的脑电情绪识别方法,其特征在于:所有脑电数据均经过去趋势化、去均值、一阶差分处理。
5.根据权利要求1所述的一种基于深度可分离因果图卷积网络的脑电情绪识别方法,其特征在于:步骤四中的图卷积运算通过切比雪夫滤波器进行。
6.根据权利要求1所述的一种基于深度可分离因果图卷积网络的脑电情绪识别方法,其特征在于:步骤四中,深度可分离因果图卷积模型对脑电数据的具体处理过程如下:提取脑电数据x与滤波器θ的卷积y如式(4.3)所示;
Figure FDA0002958154740000021
其中,θk是切比雪夫多项式的系数;
Figure FDA0002958154740000022
通过递归表达式计算得到,
Figure FDA0002958154740000023
λmax是正则化拉普拉斯矩阵L的最大特征值;IN为单位矩阵;K为切比雪夫滤波器的阶数;
再将提取出的卷积y输入至深度可分离卷积网络,即先通过逐通道卷积,一个卷积核负责一个通道;再通过一个逐点卷积,将上一步的特征在深度方向上进行加权组合,生成新的局部特征,最后用平均池化层将局部特征总合为新的特征;新的特征输入全连接层即得到情绪类型。
7.根据权利要求6所述的一种基于深度可分离因果图卷积网络的脑电情绪识别方法,其特征在于:构建脑电数据x与滤波器θ的卷积y的表达式的过程如下:
4-1.将脑电数据x与滤波器θ的卷积定义为:y=gθ(L)x;其中,gθ(·)是图信号的滤波函数;
4-2.将正则化拉普拉斯矩阵L分解为:L=UΛUT;其中,U是正交矩阵,由L的特征向量组成;Λ为对角矩阵,其各对角元素分别为正则化拉普拉斯矩阵L的各个特征值;进而将样本数据x与滤波器θ的卷积y重新定义为式(4.1);
y=gθ(L)x=Ugθ(Λ)UTx 式(4.1)
4-3.利用K阶切比雪夫多项式来计算滤波函数gθ(Λ)如式(4.2)所示;
Figure FDA0002958154740000031
其中,
Figure FDA0002958154740000032
Figure FDA0002958154740000033
通过递归表达式进行计算,
Figure FDA0002958154740000034
Figure FDA0002958154740000035
根据式(4.2)进一步将卷积y的表达式优化为式(4.3)。
CN202110231114.7A 2021-03-02 2021-03-02 一种基于深度可分离因果图卷积网络的脑电情绪识别方法 Active CN113128552B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110231114.7A CN113128552B (zh) 2021-03-02 2021-03-02 一种基于深度可分离因果图卷积网络的脑电情绪识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110231114.7A CN113128552B (zh) 2021-03-02 2021-03-02 一种基于深度可分离因果图卷积网络的脑电情绪识别方法

Publications (2)

Publication Number Publication Date
CN113128552A true CN113128552A (zh) 2021-07-16
CN113128552B CN113128552B (zh) 2024-02-02

Family

ID=76772371

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110231114.7A Active CN113128552B (zh) 2021-03-02 2021-03-02 一种基于深度可分离因果图卷积网络的脑电情绪识别方法

Country Status (1)

Country Link
CN (1) CN113128552B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822188A (zh) * 2021-09-13 2021-12-21 合肥工业大学 一种时间因果诱导的斗殴行为的识别方法
CN113962433A (zh) * 2021-09-10 2022-01-21 国网江苏省电力有限公司电力科学研究院 一种融合因果卷积与可分离时间卷积的风电预测方法及系统
CN114052735A (zh) * 2021-11-26 2022-02-18 山东大学 一种基于深度领域自适应的脑电情绪识别方法及系统
CN114176600A (zh) * 2021-12-28 2022-03-15 上海交通大学 基于因果分析的心电图st段异常判别系统
CN114343676A (zh) * 2021-12-28 2022-04-15 东南大学 基于自适应层次图神经网络的脑电情感识别方法及装置
CN114510966A (zh) * 2022-01-14 2022-05-17 电子科技大学 一种基于图神经网络的端到端大脑因果网络构建方法
CN114611556A (zh) * 2022-03-08 2022-06-10 中国人民解放军国防科技大学 一种基于图神经网络的多类别运动想象任务识别方法
CN114664452A (zh) * 2022-05-20 2022-06-24 之江实验室 一种基于因果校验数据生成的全科多疾病预测系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018014436A1 (zh) * 2016-07-18 2018-01-25 天津大学 一种提高情绪识别模型时间鲁棒性的情绪脑电识别方法
KR20190035368A (ko) * 2017-09-26 2019-04-03 연세대학교 산학협력단 뇌 신호로부터 변환한 이미지 기반의 감정 인식 방법 및 장치
CN110399857A (zh) * 2019-08-01 2019-11-01 西安邮电大学 一种基于图卷积神经网络的脑电情感识别方法
KR20190128978A (ko) * 2018-05-09 2019-11-19 한국과학기술원 인간 감정 인식을 위한 딥 생리적 정서 네트워크를 이용한 인간 감정 추정 방법 및 그 시스템
KR20200071807A (ko) * 2018-11-30 2020-06-22 인하대학교 산학협력단 영상 및 eeg 신호 융합을 이용한 인간 감정상태 인식 방법 및 시스템
CN112120716A (zh) * 2020-09-02 2020-12-25 中国人民解放军军事科学院国防科技创新研究院 一种可穿戴式多模态情绪状态监测装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018014436A1 (zh) * 2016-07-18 2018-01-25 天津大学 一种提高情绪识别模型时间鲁棒性的情绪脑电识别方法
KR20190035368A (ko) * 2017-09-26 2019-04-03 연세대학교 산학협력단 뇌 신호로부터 변환한 이미지 기반의 감정 인식 방법 및 장치
KR20190128978A (ko) * 2018-05-09 2019-11-19 한국과학기술원 인간 감정 인식을 위한 딥 생리적 정서 네트워크를 이용한 인간 감정 추정 방법 및 그 시스템
KR20200071807A (ko) * 2018-11-30 2020-06-22 인하대학교 산학협력단 영상 및 eeg 신호 융합을 이용한 인간 감정상태 인식 방법 및 시스템
CN110399857A (zh) * 2019-08-01 2019-11-01 西安邮电大学 一种基于图卷积神经网络的脑电情感识别方法
CN112120716A (zh) * 2020-09-02 2020-12-25 中国人民解放军军事科学院国防科技创新研究院 一种可穿戴式多模态情绪状态监测装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113962433A (zh) * 2021-09-10 2022-01-21 国网江苏省电力有限公司电力科学研究院 一种融合因果卷积与可分离时间卷积的风电预测方法及系统
CN113822188A (zh) * 2021-09-13 2021-12-21 合肥工业大学 一种时间因果诱导的斗殴行为的识别方法
CN113822188B (zh) * 2021-09-13 2024-06-11 合肥工业大学 一种时间因果诱导的斗殴行为的识别方法
CN114052735A (zh) * 2021-11-26 2022-02-18 山东大学 一种基于深度领域自适应的脑电情绪识别方法及系统
CN114176600A (zh) * 2021-12-28 2022-03-15 上海交通大学 基于因果分析的心电图st段异常判别系统
CN114343676A (zh) * 2021-12-28 2022-04-15 东南大学 基于自适应层次图神经网络的脑电情感识别方法及装置
CN114343676B (zh) * 2021-12-28 2023-09-29 东南大学 基于自适应层次图神经网络的脑电情感识别方法及装置
CN114176600B (zh) * 2021-12-28 2023-10-20 上海交通大学 基于因果分析的心电图st段异常判别系统
CN114510966A (zh) * 2022-01-14 2022-05-17 电子科技大学 一种基于图神经网络的端到端大脑因果网络构建方法
CN114611556A (zh) * 2022-03-08 2022-06-10 中国人民解放军国防科技大学 一种基于图神经网络的多类别运动想象任务识别方法
CN114611556B (zh) * 2022-03-08 2024-03-15 中国人民解放军国防科技大学 一种基于图神经网络的多类别运动想象任务识别方法
CN114664452A (zh) * 2022-05-20 2022-06-24 之江实验室 一种基于因果校验数据生成的全科多疾病预测系统

Also Published As

Publication number Publication date
CN113128552B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN113128552A (zh) 一种基于深度可分离因果图卷积网络的脑电情绪识别方法
CN109726751B (zh) 基于深度卷积神经网络识别脑电成像图的方法
CN114052735B (zh) 一种基于深度领域自适应的脑电情绪识别方法及系统
CN111709267B (zh) 深度卷积神经网络的脑电信号情感识别方法
CN111407243B (zh) 一种基于深度学习的脉搏信号压力识别方法
CN113065526B (zh) 一种基于改进深度残差分组卷积网络的脑电信号分类方法
CN109598222B (zh) 基于eemd数据增强的小波神经网络运动想象脑电分类方法
CN108921141B (zh) 一种基于深度自编码神经网络的脑电信号eeg特征提取方法
CN110175510B (zh) 基于脑功能网络特征的多模式运动想象识别方法
CN108647584B (zh) 基于稀疏表示和神经网络的心律不齐识别分类方法
CN109871831B (zh) 一种情感识别方法及系统
CN110399846A (zh) 一种基于多通道肌电信号相关性的手势识别方法
WO2021184599A1 (zh) 一种基于ms-cnn的p300信号识别方法、装置及存储介质
CN111832431A (zh) 一种基于cnn的情绪脑电分类方法
CN109325410B (zh) 一种基于卷积神经网络的脑电信号eeg特征提取方法
CN109009098B (zh) 一种运动想象状态下的脑电信号特征识别方法
CN113723557A (zh) 一种基于多频带时空卷积网络的抑郁脑电分类系统
Ganguly et al. EEG based mental arithmetic task classification using a stacked long short term memory network for brain-computer interfacing
CN113180659A (zh) 一种基于三维特征和空洞全卷积网络的脑电情感识别系统
CN115238796A (zh) 基于并行damscn-lstm的运动想象脑电信号分类方法
CN113128384B (zh) 一种基于深度学习的脑卒中康复系统脑机接口软件关键技术方法
CN116919422A (zh) 基于图卷积的多特征情感脑电识别模型建立方法及装置
Zhang et al. Movement recognition via channel-activation-wise sEMG attention
CN115281676A (zh) 基于gru神经网络和ecg信号的疲劳检测方法
Zhao et al. GTSception: a deep learning eeg emotion recognition model based on fusion of global, time domain and frequency domain feature extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant