CN111297380A - 一种基于时空卷积核心块的情绪识别方法 - Google Patents
一种基于时空卷积核心块的情绪识别方法 Download PDFInfo
- Publication number
- CN111297380A CN111297380A CN202010088355.6A CN202010088355A CN111297380A CN 111297380 A CN111297380 A CN 111297380A CN 202010088355 A CN202010088355 A CN 202010088355A CN 111297380 A CN111297380 A CN 111297380A
- Authority
- CN
- China
- Prior art keywords
- layer
- space
- convolution core
- convolutional
- emotion recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Psychiatry (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physiology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Psychology (AREA)
- Fuzzy Systems (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
本发明公开一种基于时空卷积核心块的情绪识别方法,应用于人机交互、远程教育、医疗保健等领域,针对现有技术存在的问题,本发明充分考虑EEG信号的时间维度以及空间维度特征信息,通过融合时间依赖性以及不同电极位置间的空间依赖性来增强情绪识别的准确性;具体的:首先获取DEAP情绪公开数据集并实现数据预处理,采用低通滤波器完成去噪操作,将数据输入STCB_CNN模型进行训练,训练好的模型用于情绪识别;本发明的方法能达到较高的识别精度。
Description
技术领域
本发明属于人机交互、远程教育、医疗保健等领域,特别涉及一种情感识别技术。
背景技术
情绪是人类复杂的一种生理反应,积极情绪有助于改善人体健康和工作效率,而消极情绪可能会导致健康问题。如今,情感识别在人机交互、远程教育、医疗保健等诸多科技领域得到了广泛的应用,受到了学术界的广泛关注。
目前,有两类不同的方式来识别人类的情绪。①基于非生理数据的情绪识别,该类方法采用语音、面部表情、手势、文本等非生理信号构建分类模型来实现分类。尽管这类方法以非侵入性的方式获取数据,适合于实际应用,但是如果一个人刻意掩盖其真实的情感,这类方式则无法识别用户的真实情绪。②基于生理信号的情绪识别,包括自主神经系统(ANS)信号和中枢神经系统(CNS)信号。ANS方法主要是通过心率、皮肤电导率、呼吸等来识别情绪,然而,这些研究缺乏合理的评价标准和准确性。CNS则主要利用脑电图(EEG)信号对情绪进行分类,该信号属于大脑活动的直接反应,具有良好的时间分辨率。因此,近年来越来越多的学者开始研究基于EEG信号的情绪识别。
针对EEG信号的情绪识别根据采用的技术主要分为两类。①基于传统机器学习的方法。该类方法使用大量人工设计的特征(如信号的振幅、中位数、最大值等),结合机器学习算法,如支持向量机(Support Vector Machine,SVM)等,构建有监督的分类或回归模型,实现不同情绪状态的分类。比如,Bhardwaj(A.Bhardwaj,A.Gupta,P Jain,etal.Classification of human emotions from EEG signals using SVM and LDAClassifiers[C].2015 2nd International Conference on Signal Processing andIntegrated Networks(SPIN),2015,pp.180-185.)等采用独立分量分析去除数据噪声并提取功率谱密度、频谱能量等特征,结合SVM和线性判别分析实现脑电信号的七种情绪分类,最终分类精度达到66.50%。②基于深度学习的脑电信号情绪识别,比如,Li(J.Li,Z.Zhang,H.He,et al.Hierarchical Convolutional Neural Networks for EEG-BasedEmotion Recognition[J].Cognitive Computation,2018,10(2):368–380.)等使用分层卷积神经网络(HCNN)来区分积极、中性和消极情绪状态,将来自不同通道EEG信号的差分熵特征组织为二维映射以训练HCNN,来提取脑电信号中的时序特征。
上述技术存在以下缺陷:
基于传统机器学习的方法,(1)高度依赖人工抽取特征的质量,在做分类任务时,系统的泛化性和迁移性较差;另外,人工提取特征任务繁琐,耗时较大;(2)在人工提取特征时,目前方法主要集中于提取EEG信号中的时间维度特征,而忽略了不同电极位置之间的空间维度信息。
基于深度学习的研究方法存在如下问题:(1)目前研究仍然是主要从EEG信号的时间维度去提取特征,与传统机器学习方法类似,其忽略了不同电极位置之间的空间维度信息;(2)许多深度学习方法,如深度信念网络(DBN)和堆叠自编码器(SAE),处理二维数据能力较差;常规的卷积神经网络(CNN)在卷积EEG信号时,参数较多。
发明内容
为解决上述技术问题,本发明提出一种基于时空卷积核心块的情绪识别方法,基于EEG信号的时空核心块的卷积神经网络(STCB_CNN),该模型不仅可以提取数据时间维度上的特征,同时还提取不同电极之间的空间特征,有助于提高情绪识别精度。
本发明采用的技术方案为:一种基于时空卷积核心块的情绪识别方法,包括:
S1、获取脑电信号;
S2、对步骤S1获取的脑电信号进行预处理;
S3、构建神经网络模型;
所述神经网络模型包括多个时空卷积核心块与至少一个全连接层,所述时空卷积核心块用于提取脑电信号时间维度特征与空间维度特征;所述全连接层根据时空卷积核心块输出的特征进行情绪分类;
S4、采用步骤S2处理后的数据对神经网络模型进行训练;
S5、根据步骤S4训练好的神经网络模型进行情绪识别。
步骤S2所述预处理具体为采用带通滤波器去除步骤S1所获取的脑电信号中的噪声。
步骤S3所述神经网络模型包括三个时空卷积核心块。
步骤S3所述时空卷积核心块包括六层卷积层,依次记为第一层卷积层、第二层卷积层、第三层卷积层、第四层卷积层、第五层卷积层以及第六层卷积层,前四层卷积层用于提取时间维度的特征,后两层卷积层用于提取空间维度的特征。
所述前四层卷积层采用1*3的卷积核,后两层卷积层采用3*1的卷积核。
步骤S3所述神经网络模型包括2个全连接层。
步骤S3所述全连接层采用softmax实现情绪的分类。
本发明的有益效果:与现有技术相比,本发明考虑了采用多个时空核心块融合了EEG信号时间维度特征和电极间空间位置信息对情绪识别的影响,实验采用公开数据集DEAP中的32通道的脑电信号进行验证,多用户交叉分类精度效价和唤醒识别准确率分别达到87.56%、88.61%,远高于传统机器学习背景技术方案的69.10%、71.99%和深度学习背景技术方案的76.83%、75.92%。另外,针对于单用户的分类精度效价和唤醒识别准确率如图3所示,同样高于背景技术方案的识别精度;
本发明的优点包括:
①采用多个时空核心块实现时间以及空间特征的提取以及融合;
②运用非对称卷积方式,可以有效减少参数,减少模型训练时间。
附图说明
图1为本发明实施例提供的EEG信号电极通道选择图;
图2为本发明实施例提供的时空卷积的EEG信号情绪识别流程图;
图3为本发明实施例提供的单用户效价觉醒情绪识别精度图。
具体实施方式
为便于本领域技术人员理解本发明的技术内容,下面结合附图1-3对本发明内容进一步阐释。
本发明技术方案首先获取DEAP情绪公开数据集并实现数据预处理,采用低通滤波器完成去噪操作,将数据输入STCB_CNN模型进行训练,训练好的模型用于情绪识别。具体步骤如下。
步骤一:数据预处理
本发明采用伦敦玛丽女王大学Koelstra等人2012年发表的DEAP公开数据集。DEAP数据集包含32个受试者(男、女各16人,年龄19~37岁之间,平均年龄26.9岁)的脑电图和32个通道的周围生理信号。电极位置如图1所示,采用32通道的biemi ActiveTwo系统,采样频率512Hz。每位受试者观看40个不同情绪倾向的音乐视频,每个视频时长约1分钟。受试者每看完一个视频后填写一份关于效价、唤醒、喜好和支配能力四个部分的自我评估量表,分值为:效价从1到9(1代表悲伤,9代表快乐),唤醒从1到9(1代表平静,9代表兴奋),喜好度衡量的是一个被试是否喜欢这个视频,分值从1到9(1表示不喜欢,9表示被试非常喜欢)。表1总结了DEAP数据集的主要内容。
表1 DEAP数据集描述
用户数量 | 32 |
视频数量 | 40 |
EEG通道数量 | 32 |
其他通道数量 | 8 |
评定量表 | 效价、唤醒、支配、喜欢 |
评定值 | 1~9,其中1为最弱,9为最强 |
记录信号 | 原始信号采样频率为512HZ |
本发明为了去除原信号数据在采集中如眨眼等动作带来的噪声,将信号通过一个4.0~45.0Hz的低通滤波器实现去燥,同时将信号降采样至128Hz。去噪后每条脑电图信号持续时间为63秒,并包含8064个数据点。本发明在时域内将63秒脑电图信号分割为63个1秒的时段,并将对应的数据标签进行了扩展。每个受试者40次试验脑电图epochs总数为40*63=2520,最终每个用户数据被划分为128(数据点)*32(通道)*1*2520(epochs)。基于每个视频的情绪等级值的范围为1~9,这里将中位数5作为阈值将唤醒和效价分为两类:超过5则标签为1,表示高唤醒/效价;小于或等于5则标签为0,表示低唤醒/效价。最后得到与脑电信号相对应的1*2520维的标签数据。同时本发明随机抽取30%的EEG信号数据和对应标签作为测试数据,其余70%作为训练数据。
步骤二:特征提取
本方案的情绪识别采用基于时空核心块的卷积神经网络STCB_CNN模型结构如图2所示。
本发明引入核心块的概念,通过时间维度的卷积池化和空间维度的卷积池化两个部分来实现时空特征的融合。时间维度特征提取采用1*3的卷积核进行卷积和最大池化,空间维度特征提取采用3*1的卷积和最大池化。这种非对称卷积方式,相比于一般的卷积方式可以有效减少参数,常规的3*3卷积核一次产生9个参数,而非对称卷积一次产生2*(1*3)=6个参数。模型首先将多个epochs的32*128的二维矩阵作为输入,经过三个时空卷积核心块进行特征提取,然后将核心块输出的特征矩阵平铺放入两个全连接层中,最终运用softmax实现情绪的分类。
STCB_CNN中每一神经单元用xl,k,(m,n)表示,其中l代表网络的层数,k表示第k个特征集,(m,n)代表该单元所在特征集中的位置。同样,σl,k,(m,n)表示为一组输入神经元之间的标量积。这样xl,k,(m,n)可以被表示为:
xl,k,(m,n)=f(σl,k,(m,n))
其中,f使用的是修正线性单元函数ReLU,该激活函数应用于神经网络各层。
卷积层中每个特征集的神经元都拥有相同的权值集合,其目的是减少权值参数的数量。它们附着在前一层神经元的一个子集上,这取决于这个神经元的位置。确切地说,神经元的权重被独立地训练到它们相应的接受域。在本发明的网络结构中,三个核心块的计算过程非常相似,因此这里介绍第一个块以及全连接层部分,每个核心块包含6层,其中前四层用于提取时间维度的特征,后两层用于提取空间维度的特征,即不同电极位置之间的特征提取。
这里层数n用Ln表示,网络结构一共包含20层,则网络信息传递过程如下:
1)第一层L1:
其中,b1,k,0是第一层偏置的参数,ω1,k,i是第一层权重参数的集合,且1≤i≤A(A=3),A表示L1的卷积核大小,Im+i-1,n表示(m,n)位置神经元的原始输入值。该层设计用于在所有电极之间提取更有效的时间特征。
2)第二层L2:
其中,b2,k,0是第二层偏置的参数,ω2,k,i是第二层权重参数的集合,N1为L1层特征集合个数,B为L2的卷积核大小,X1表示第一层σ1经过ReLU激活函数后的结果。该层通过卷积进一步处理L1提取的时间维度特征。
3)第三层L3:
其中,b3,k,0是第三层偏置的参数,ω3,k,i是第三层权重参数的集合,N2为L2层特征集合个数,C为L3的核大小,X2表示第二层σ2经过ReLU激活函数后的结果。该层基于L2层的特征映射来提取时间依赖关系的高级信息特征。
4)第四层L4:
σ4,k,(m,n)=max(x3,k,(i,n),x3,k,(i+1,n))
这一层没有参数,k是固定的,x3,k,(i,n)表示第三层第k个特征集中第n行的第i个神经元,x3,k,(i+1,n)表示对应的第i+1个神经元。池化层将特征集合的维数减少了一半,这是为了减少过度拟合。
5)第五层L5:
其中,b5,k,0是第五层偏置的参数,ω5,k,i是第五层权重参数的集合,N3为L3层特征集合个数,D为L5的核大小,σ4代表第四层的输出结果。该层基于L4层的特征映射来提取不同电极间空间依赖关系的特征。
6)第六层L6:
σ6,k,(m,n)=max(x5,k,(m,i),x5,k,(m,i+1))
其中,x5,k,(m,i)表示第五层第k个特征集中第n行的第i个神经元,x5,k,(m,i+1)表示对应的第i+1个神经元。该层属于池化层,没有其他参数,实现空间维度信息的池化。
本发明模型结构第二和第三核心块(L7-L12和L13-L18)遵循第一核心块(L1-L6)相同的规则,可类似推导。
7)第十九层L19:
该层属于卷积神经网络中的全连接层,其中b19,0,n是全连接层的偏置参数,ω19,n是第十九层的权重参数,N18表示上一层特征集合的数量,E为L18层的卷积核大小,X18,i,j表示第十八层σ18经过ReLU激活函数后的结果。此外,本层拥有n个神经元,与L18层平铺后的所有神经单元进行全连接。
8)第二十层L20:
b20,0,n是本全连接层的偏置参数,ω20,n是本全连接层的权重参数,N19表示L19层的神经元数量,X19,i表示第十九层σ19经过ReLU激活函数后的结果。这里L19与L20进行全连接,该层的目的是选择有效的整合时空信息后的特征用于情绪分类。
步骤三:模型训练
本发明通过softmax函数将上面提取的特征进行分类,计算公式如下:
其中,xi代表网络最后一层第i个神经元的输出,yi代表预测为第i个类的概率,Z代表情感的类别数,最终将概率最大的标签设置为分类结果。
本发明使用交叉熵目标函数作为损失函数来估计模型性能,损失函数如下:
其中,gi为真实结果,yi为预测输出结果,λr为L2正则化的系数,Θ表示模型中所有参数的集合,θ代表参数集中的某一个参数,并采用经典的反向传播作为学习算法来调整网络的偏置和权值从而完成模型的训练,反向传播公式如下:
其中,η为模型的学习率,J(Θ)表示模型中带有参数的函数。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (7)
1.一种基于时空卷积核心块的情绪识别方法,其特征在于,包括:
S1、获取脑电信号;
S2、对步骤S1获取的脑电信号进行预处理;
S3、构建神经网络模型;
所述神经网络模型包括多个时空卷积核心块与至少一个全连接层,所述时空卷积核心块用于提取脑电信号时间维度特征与空间维度特征;所述全连接层根据时空卷积核心块输出的特征进行情绪分类;
S4、采用步骤S2处理后的数据对神经网络模型进行训练;
S5、根据步骤S4训练好的神经网络模型进行情绪识别。
2.根据权利要求1所述的一种基于时空卷积核心块的情绪识别方法,其特征在于,步骤S2所述预处理具体为采用带通滤波器去除步骤S1所获取的脑电信号中的噪声。
3.根据权利要求2所述的一种基于时空卷积核心块的情绪识别方法,其特征在于,步骤S3所述神经网络模型包括三个时空卷积核心块。
4.根据权利要求3所述的一种基于时空卷积核心块的情绪识别方法,其特征在于,步骤S3所述时空卷积核心块包括六层卷积层,依次记为第一层卷积层、第二层卷积层、第三层卷积层、第四层卷积层、第五层卷积层以及第六层卷积层,前四层卷积层用于提取时间维度的特征,后两层卷积层用于提取空间维度的特征。
5.根据权利要求4所述的一种基于时空卷积核心块的情绪识别方法,其特征在于,所述前四层卷积层采用1*3的卷积核,后两层卷积层采用3*1的卷积核。
6.根据权利要求5所述的一种基于时空卷积核心块的情绪识别方法,其特征在于,步骤S3所述神经网络模型包括2个全连接层。
7.根据权利要求6所述的一种基于时空卷积核心块的情绪识别方法,其特征在于,步骤S3所述全连接层采用softmax实现情绪的分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010088355.6A CN111297380A (zh) | 2020-02-12 | 2020-02-12 | 一种基于时空卷积核心块的情绪识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010088355.6A CN111297380A (zh) | 2020-02-12 | 2020-02-12 | 一种基于时空卷积核心块的情绪识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111297380A true CN111297380A (zh) | 2020-06-19 |
Family
ID=71150934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010088355.6A Pending CN111297380A (zh) | 2020-02-12 | 2020-02-12 | 一种基于时空卷积核心块的情绪识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111297380A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111938660A (zh) * | 2020-08-13 | 2020-11-17 | 电子科技大学 | 一种基于阵列肌电的卒中患者手部康复训练动作识别方法 |
CN112488002A (zh) * | 2020-12-03 | 2021-03-12 | 重庆邮电大学 | 基于n170的情绪识别方法及识别系统 |
CN113598791A (zh) * | 2021-07-13 | 2021-11-05 | 杭州电子科技大学 | 基于静息态脑电图使用时空卷积神经网络的意识障碍分类方法 |
CN114190950A (zh) * | 2021-11-18 | 2022-03-18 | 电子科技大学 | 一种针对含有噪声标签的心电图智能分析方法及心电仪 |
CN114424940A (zh) * | 2022-01-27 | 2022-05-03 | 山东师范大学 | 基于多模态时空特征融合的情绪识别方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070016095A1 (en) * | 2005-05-10 | 2007-01-18 | Low Philip S | Automated detection of sleep and waking states |
US20160242690A1 (en) * | 2013-12-17 | 2016-08-25 | University Of Florida Research Foundation, Inc. | Brain state advisory system using calibrated metrics and optimal time-series decomposition |
CN106503799A (zh) * | 2016-10-11 | 2017-03-15 | 天津大学 | 基于多尺度网络的深度学习模型及在脑状态监测中的应用 |
CN107463874A (zh) * | 2017-07-03 | 2017-12-12 | 华南师范大学 | 情绪识别方法及系统、及应用该方法的智能看护系统 |
CN108664947A (zh) * | 2018-05-21 | 2018-10-16 | 五邑大学 | 一种基于表情识别的疲劳驾驶预警方法 |
CN109271964A (zh) * | 2018-10-11 | 2019-01-25 | 刘仕琪 | 基于深度学习模型与长短记忆网络的情绪识别方法及系统 |
CN110584597A (zh) * | 2019-07-15 | 2019-12-20 | 天津大学 | 基于时空卷积神经网络的多通道脑电信号监测方法及应用 |
-
2020
- 2020-02-12 CN CN202010088355.6A patent/CN111297380A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070016095A1 (en) * | 2005-05-10 | 2007-01-18 | Low Philip S | Automated detection of sleep and waking states |
US20160242690A1 (en) * | 2013-12-17 | 2016-08-25 | University Of Florida Research Foundation, Inc. | Brain state advisory system using calibrated metrics and optimal time-series decomposition |
CN106503799A (zh) * | 2016-10-11 | 2017-03-15 | 天津大学 | 基于多尺度网络的深度学习模型及在脑状态监测中的应用 |
CN107463874A (zh) * | 2017-07-03 | 2017-12-12 | 华南师范大学 | 情绪识别方法及系统、及应用该方法的智能看护系统 |
CN108664947A (zh) * | 2018-05-21 | 2018-10-16 | 五邑大学 | 一种基于表情识别的疲劳驾驶预警方法 |
CN109271964A (zh) * | 2018-10-11 | 2019-01-25 | 刘仕琪 | 基于深度学习模型与长短记忆网络的情绪识别方法及系统 |
CN110584597A (zh) * | 2019-07-15 | 2019-12-20 | 天津大学 | 基于时空卷积神经网络的多通道脑电信号监测方法及应用 |
Non-Patent Citations (1)
Title |
---|
杨硕,丁建清,王磊,刘帅: "卷积神经网络在脑疲劳检测中的研究", 《信号处理》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111938660A (zh) * | 2020-08-13 | 2020-11-17 | 电子科技大学 | 一种基于阵列肌电的卒中患者手部康复训练动作识别方法 |
CN112488002A (zh) * | 2020-12-03 | 2021-03-12 | 重庆邮电大学 | 基于n170的情绪识别方法及识别系统 |
CN113598791A (zh) * | 2021-07-13 | 2021-11-05 | 杭州电子科技大学 | 基于静息态脑电图使用时空卷积神经网络的意识障碍分类方法 |
CN113598791B (zh) * | 2021-07-13 | 2024-04-02 | 杭州电子科技大学 | 基于静息态脑电图使用时空卷积神经网络的意识障碍分类方法 |
CN114190950A (zh) * | 2021-11-18 | 2022-03-18 | 电子科技大学 | 一种针对含有噪声标签的心电图智能分析方法及心电仪 |
CN114424940A (zh) * | 2022-01-27 | 2022-05-03 | 山东师范大学 | 基于多模态时空特征融合的情绪识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111297380A (zh) | 一种基于时空卷积核心块的情绪识别方法 | |
Li et al. | Emotion recognition from EEG based on multi-task learning with capsule network and attention mechanism | |
Tang et al. | Hidden-layer visible deep stacking network optimized by PSO for motor imagery EEG recognition | |
Chen et al. | Multiattention adaptation network for motor imagery recognition | |
Gümüslü et al. | Emotion recognition using EEG and physiological data for robot-assisted rehabilitation systems | |
Deng et al. | EEG-based emotion recognition via capsule network with channel-wise attention and LSTM models | |
Anwar et al. | EEG signal classification using convolutional neural networks on combined spatial and temporal dimensions for BCI systems | |
Huang et al. | Classification of motor imagery EEG based on time-domain and frequency-domain dual-stream convolutional neural network | |
Hou et al. | EEG-based emotion recognition for hearing impaired and normal individuals with residual feature pyramids network based on time–frequency–spatial features | |
Fedjaev | Decoding eeg brain signals using recurrent neural networks | |
Bhandari et al. | Emotion recognition and classification using EEG: A review | |
Niu et al. | A brain network analysis-based double way deep neural network for emotion recognition | |
Zhou et al. | Speech2eeg: Leveraging pretrained speech model for eeg signal recognition | |
Leite et al. | Adaptive gaussian fuzzy classifier for real-time emotion recognition in computer games | |
Hwang et al. | Brain lateralisation feature extraction and ant colony optimisation‐bidirectional LSTM network model for emotion recognition | |
Islam et al. | Virtual image from EEG to recognize appropriate emotion using convolutional neural network | |
Jose | Frame Work For EEG Based Emotion Recognition Based On Hybrid Neural Network | |
Rammy et al. | Sequence-to-sequence deep neural network with spatio-spectro and temporal features for motor imagery classification | |
Bhanumathi et al. | Feedback artificial shuffled shepherd optimization-based deep maxout network for human emotion recognition using EEG signals | |
Luo et al. | A Dual-Branch Spatio-Temporal-Spectral Transformer Feature Fusion Network for EEG-Based Visual Recognition | |
CN114145745B (zh) | 基于图的多任务自监督情绪识别方法 | |
CN114052734A (zh) | 基于渐进式图卷积神经网络的脑电情感识别方法 | |
Partovi et al. | A Self-Supervised Task-Agnostic Embedding for EEG Signals | |
Nakisa | Emotion classification using advanced machine learning techniques applied to wearable physiological signals data | |
Zhao et al. | GTSception: a deep learning eeg emotion recognition model based on fusion of global, time domain and frequency domain feature extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200619 |
|
RJ01 | Rejection of invention patent application after publication |