CN113408697B - 一种基于强化学习自编码器的脑电数据重建方法 - Google Patents
一种基于强化学习自编码器的脑电数据重建方法 Download PDFInfo
- Publication number
- CN113408697B CN113408697B CN202110599847.6A CN202110599847A CN113408697B CN 113408697 B CN113408697 B CN 113408697B CN 202110599847 A CN202110599847 A CN 202110599847A CN 113408697 B CN113408697 B CN 113408697B
- Authority
- CN
- China
- Prior art keywords
- data
- encoder
- self
- reinforcement learning
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于强化学习自编码器的脑电数据重建方法。本发明采用Openvibe搭建运动想象范式平台,在被试操作游戏情况下采集获得波动态情绪下的脑电数据集和常态情绪下的控制数据集;使用自动编码器作为数据重构方法,强化学习作为重要处理方式,通过对EEG信号进行编码及学习然后对数据重建。首先获取数据并预处理;其次自编码器对数据编码;然后用强化学习得到更好的向量用于解码重建数据。与传统的机器学习、深度学习方法和基于线性全联接的变分自编码器方法相比,强化学习自编码器拥有更好的数据重建效果。
Description
技术领域
本发明涉及生物特征领域中的脑电信号,具体涉及一种基于脑电数据重建的方法。
背景技术
脑电图(EEG)是通过精密的电子仪器,从头皮上将脑部的自发性生物电位加以放大记录得到的图形。脑电图中有大量的大脑神经元活动的信息,可以利用这些信息获取人的精神状态。通常,脑电数据经过编码后用于各种模型做情绪、性别、疾病等的分类。然而对于编码后的数据能够重建回原数据的工作很少。自编码器(AE)是一种将数据编码后,再解码回原数据的模型。然而这种模型再解码回原数据往往会有数据上的损失。
强化学习是智能体(Agent)以试错的方式进行学习,通过与环境进行交互获得赏罚指导的行为,目标在于使智能体获得最大的奖赏。它不同于监督学习的地方,主要表现在强化信号上,强化学习中由环境提供的强化信号是对产生动作好坏作一种评价,而不是告诉强化学习系统如何去产生正确的动作。
基于以上模型技术特点,将强化学习与自编码器相结合,组成强化学习自编码器模型,促使自编码器拥有更好数据重建效果。
发明内容
本发明的目的是提供一种基于强化学习自编码器的脑电数据重建方法,实现本发明所采用的技术方案是:
步骤S1.原始数据采集:
用Openvibe搭建模拟平台,设计模拟道路行走的P300信号刺激范式。同时选取N名同一年龄段的被试青年,在模拟道路上行走,采集其在行走过程中突然出现的金币刺激下的长度为T的脑电数据。
步骤S2.数据处理:
对采集到的原始脑电数据进行预处理,采用高通滤波和低通滤波消除噪音干扰。用独立成分分析(ICA)消除眼电干扰。再消除干扰的伪记,得到用于后续模型训练的脑电数据。
步骤S3.网络EEG-RL-AE模型的构建与训练:
S3-1:初始化:
网络EEG-RL-AE模型包括自编码器AE和强化学习自编码器以及数据判别器D,初始化自编码器AE的参数和强化学习自编码器的参数。
S3-2:训练自编码器:
将脑电数据作为训练集输入,然后用自编码器训练输入的脑电数据,更新自编码器AE的参数,获得较好的参数模型。
S3-3:训练强化学习自编码器:
将脑电数据作为训练集输入,然后用强化学习自编码器训练输入的脑电数据,更新强化学习自编码器参数,获得更优的参数模型。
S3-4:反馈结果:
输入测试数据经过自编码器和强化学习自编码器的作用,得到结果,然后用比较器比较这两个编码器的输出与输入数据的相似度,取相似度更高的那个数据作为最终结果。
步骤S4.评估结果:
用重建出来的数据与原数据比较相似度,来评估该模型数据重建的效果。
本发明的有益效果是:
本发明通过强化学习自编码器进行训练,经过不断的迭代使得数据重建的效果越来越好。解决了常规机器学习及深度学习方法用于基于脑电进行数据恢复效果不佳的问题。并且本发明使用了一个判别器模块用来比较用强化学习自编码器重建的数据集和直接用自编码器重建的数据集,具有良好的泛化性,适用于任何自编码器。
总之,本发明在脑电数据重建方面取得了较好的效果,同时也期待在实际的脑机交互中有更加广泛的应用前景。
附图说明
图1是本发明流程图
图2是本发明采用的网络结构图
图3是本发明采用的强化学习的算法结构图
具体实施方式
下面结合附图和实施例对本发明作进一步说明,以使本发明的优点和特征能够更加容易的被本领域技术人员理解,从而对本发明的保护范围做出更加清楚的明确界定。
本发明以自动编码器(AE)作为数据重构方法,用强化学习的 DDPG算法去更新自动编码器的参数,最后通过判别器获取强化学习自编码器和普通自编码比较获得更好的数据重构结果。
步骤S1.原始数据采集:
用Openvibe搭建模拟平台,设计模拟道路行走的P300信号刺激范式。本次模拟系统的数据由数字监控系统(德国Beain Products GmbH)记录,采样频率为250Hz,所有61个EEG通道均参考接地到FCz 通道的两个耳垂,并且保持其阻抗在10KQ以下。
基于此系统,选取了N名同一年龄段的青年作为被试,采集脑电信号。任务是被试坐在椅子上,然后戴上脑电帽,再用按键根据地图上的提示在模拟道路上行走。在行走的过程中会出现金币,从而给被试一种事件相关电位的刺激。出现金币的地点和时间是随机,当被试在模拟系统中走到终点后,任务即结束。该实验包含多组实验采集(不少于6次)。
步骤S2.数据预处理:
利用EEGlab脚本将获取到的原始数据进行预处理。包括凹陷滤波、高通滤波与低通滤波等算法,将50赫兹的市电及高频噪声滤波,并去除伪迹。然后将数据切分成若干个时间T等长的序列,存放在文件中,用于后续模型训练。
步骤S3.根据AE网络和强化学习设计思想,设计训练相应的,取名为EGG-RL-AE网络模型,如图2所示。具体实现如下:
S3-1:初始化
EEG-RL-AE模型由自编码器AE,和强化学习自编码器RL-AE以及数据判别器D三个模块组成,分别将两个编码器的参数μAE、μRL-AE进行初始化操作;
自编码器AE和强化学习自编码器RL-AE网络各层的激活函数为 ELU函数,其中x代表样本,其公式如下:
ELU(x)=max(0,x)+min(0,α*(exp(x)-1)) #(1)
其中α是超参数,默认为1.0;
自编码器AE训练时均使用MESloss平均平方误差作为损失函数,其中x代表输入的数据样本,y代表训练模型产生的样品,i代表样本矩阵中的每个值,如公式(2)所示:
Loss(xi,yi)=(xi-y)2 #(2)
AE与RL-AE最后一层的激活函数是Tanh,如公式(3)所示:
另外数据判别器D是用MESloss去比较AE和RL-AE产生的数据与输入数据的相似度。
S3-2:训练自编码器
读取文件夹里的脑电数据,导入自编码器中。然后开始如下工作:
编码:第一步利用卷积神经网络从输入图象中提取特征。具体采用三层一维卷积层,其中前两层每层一维卷积层采用长度为3的卷积核(kernel)滑动窗口,并设置步长(Stride)为1,填充(Padding) 值为1,最后一层采用卷积核为4,步长为1,填充为1的设置,用于特征的提取编码。
解码:利用反卷积层完成从特征向量中还原出低级特征的工作,这里采用三层一维反卷积层,其中第一个卷积层的卷积核为4,步长为1,填充为1,中间个反卷积层后进行归一化并用ReLU函数激活,其中每层一维卷积层采用长度为3的卷积核滑动窗口,并设置步长为 1,填充值为1,最后一层反卷积后采用Tanh激活函数,最后得到生成EEG数据。
训练完如上操作后保存自编码器模型参数。
S3-3:训练强化学习自编码器
强化学习自编码器使用的算法是DDPG(Deep Deterministic Policy Gradient)算法,如图3所示。
DDPG算法主要有四个网络模型。
Actor在线策略网络:负责策略网络参数θ的迭代更新,负责根据当前状态S选择当前动作A,用于和环境交互生成下一次状态S′,奖励函数R
Actor目标策略网络:负责根据经验回放池中采样的下一状态 S′选择最优下一动作A′,网络参数θ′定期从θ复制
Critic在线得分网络:负责价值网络参数w的迭代更新,折扣因子γ,负责计算当前Q值Q(S,A,w)。理想状态下的目标Q*值公式如公式(4)所示:
Q*=R+γQ’(S’,A’,w’) #(4)
Critic目标得分网络:负责计算目标Q*值中的部分。网络参数 w′定期从w复制。
此外,DDPG为了学习过程可以增加一些随机性,增加学习的覆盖,该模型对选择出来的动作A会增加一定的矩阵向量N,即最终和环境交互的动作A的表达式如公式(5)所示:
A=πθ(S)+N#(5)
其中π表示当前选择的策略,θ为网络参数,S为当前状态。关于DDPG算法的损失函数,其使用的损失函数采用的是均方误差。
本发明中,对奖励函数R作了改进,x为输入的测试数据样本,其中α为折扣系数(0-1),Lt为DDPG模型本次得到的数据与原数据的平方均误差;Lt-1为DDPG模型上次得到的数据与原数据的平方均误差;LAE为测试数据直接在自编码器得到的数据与原数据的平方误差。公式如公式(6)所示:
R(x)=-(α*(Lt-Lt-1)+(1-α)*(Lt-LAE)) #(6)
读取文件夹里的脑电数据,导入强化学习自编码器中。然后开始如下工作:
编码:第一步利用卷积神经网络从输入图象中提取特征。具体采用三层一维卷积层,其中前两层每层一维卷积层采用长度为3的卷积核(kernel)滑动窗口,并设置步长(Stride)为1,填充(Padding) 值为1,最后一层采用卷积核为4,步长为1,填充为1的设置,用于特征的提取编码。
解码:利用反卷积层完成从特征向量中还原出低级特征的工作,这里采用三层一维反卷积层,其中第一个卷积层的卷积核为4,步长为1,填充为1,中间个反卷积层后进行归一化并用ReLU函数激活,其中每层一维卷积层采用长度为3的卷积核滑动窗口,并设置步长为 1,填充值为1,最后一层反卷积后采用Tanh激活函数,最后得到生成EEG数据。
强化学习DDPG算法参数训练:训练完编码和解码模型后,保存模型参数。将数据导入编码模型中,然后经过编码模型,得到矩阵向量,进入强化学习DDPG算法中,训练编码后的矩阵向量,加入新的矩阵向量值,然后将矩阵向量放入解码模型中,最后得到生成EEG数据。
S3-4:反馈结果
判别器D的工作内容:将上述S3-2和S3-3的模型生成的数据载入判别器中,通过平方均误差公式分别与输入的测试数据比较,平方均误差值更小的数据作为最终EEG结果输出。
经过上面的步骤,得到训练完的模型;用输入测试数据集到训练完的模型中,然后分别通过自编码器和强化学习自编码器得到生成的 EEG数据,然后将这两个得到的数据输入判别器D中,得到最终的EEG 数据结果。
步骤S4.评估结果:
用重建出来的数据与原数据显示在同一张图片上,按同一时刻点对点比较相似度,来评估该模型数据重建的效果。
Claims (1)
1.一种基于强化学习自编码器的脑电数据重建方法,其特征在于包括如下步骤:
步骤S1.原始数据采集:
用Openvibe搭建模拟平台,设计模拟道路行走的P300信号刺激范式;同时选取N名同一年龄段的被试青年,在模拟道路上行走,采集其在行走过程中突然出现的金币刺激下的长度为T的脑电数据;
步骤S2.数据处理:
对采集到的原始脑电数据进行预处理,采用高通滤波和低通滤波消除噪音干扰;用独立成分分析消除眼电干扰;再消除干扰的伪记,得到用于后续模型训练的脑电数据;
步骤S3.网络EEG-RL-AE模型的构建与训练:
S3-1:初始化:
网络EEG-RL-AE模型包括自编码器AE和强化学习自编码器以及数据判别器D,初始化自编码器AE的参数和强化学习自编码器的参数;
S3-2:训练自编码器:
将脑电数据作为训练集输入,然后用自编码器训练输入的脑电数据,更新自编码器AE的参数,获得较好的参数模型;
S3-3:训练强化学习自编码器:
将脑电数据作为训练集输入,然后用强化学习自编码器训练输入的脑电数据,更新强化学习自编码器参数,获得更优的参数模型;
S3-4:反馈结果:
输入测试数据经过自编码器和强化学习自编码器的作用,得到结果,然后用数据判别器D判别这两个编码器的输出与输入数据的相似度,取相似度更高的那个数据作为最终结果;
步骤S4.评估结果:
用重建出来的数据与原数据比较相似度,来评估该模型数据重建的效果;
步骤S3具体实现如下:
S3-1:初始化
EEG-RL-AE模型由自编码器AE和强化学习自编码器RL-AE以及数据判别器D三个模块组成,分别将两个编码器的参数μAE、μRL-AE进行初始化操作;
自编码器AE和强化学习自编码器RL-AE网络各层的激活函数为ELU函数,其中x代表样本,其公式如式(1)所示:
ELU(x)=max(0,x)+min(0,α′*(exp(x)-1)) (1)
其中α′是超参数,默认为1.0;
自编码器AE训练时均使用MSEloss均方误差作为损失函数,其中x代表输入的数据样本,y代表训练模型产生的样品,i代表样本矩阵中的每个值,如公式(2):
MSELoss(xi,yi)=(xi-yi )2 (2)
AE与RL-AE最后一层的激活函数是Tanh,如公式(3):
另外数据判别器D是用MSEloss去比较AE和RL-AE产生的数据与输入数据的相似度;
S3-2:训练自编码器
读取文件夹里的脑电数据,导入自编码器中;然后开始如下工作:
编码:第一步利用卷积神经网络从输入图象中提取特征;具体采用三层一维卷积层,其中前两层每层一维卷积层采用长度为3的卷积核滑动窗口,并设置步长为1,填充值为1,最后一层采用卷积核为4,步长为1,填充值为1的设置,用于特征的提取编码;
解码:利用反卷积层完成从特征向量中还原出低级特征的工作,这里采用三层一维反卷积层,其中第一个卷积层的卷积核为4,步长为1,填充值为1,经过第一个反卷积层后进行归一化并用ReLU函数激活,其他每层一维卷积层采用长度为3的卷积核滑动窗口,并设置步长为1,填充值为1,最后一层反卷积后采用Tanh激活函数,最后得到生成EEG数据;
训练完如上操作后保存自编码器模型参数;
S3-3:训练强化学习自编码器
强化学习自编码器使用的算法是DDPG,DDPG算法包括四个网络模型;
Actor在线策略网络:负责策略网络参数θ的迭代更新,负责根据当前状态S选择当前动作A,用于和环境交互生成下一次状态S′,奖励函数R;
Actor目标策略网络:负责根据经验回放池中采样的下一状态S′选择最优下一动作A′,网络参数θ′定期从θ复制;
Critic在线得分网络:负责价值网络参数w的迭代更新,折扣因子γ,负责计算当前Q值Q(S,A,w);理想状态下的目标Q*值公式如式(4)所示:
Q*=R+γQ′(S',A',w') (4)
Critic目标得分网络:负责计算目标Q*值中的部分;网络参数w′定期从w复制,此外,DDPG为了学习过程增加一些随机性,增加学习的覆盖,该模型对选择出来的动作A会增加矩阵向量N,即最终和环境交互的动作A的表达式如式(5)所示:
A=πθ(S)+N (5)
其中π表示当前选择的策略,θ为网络参数,S为当前状态;关于DDPG算法的损失函数,其使用的损失函数采用的是均方误差;
同时对奖励函数R作改进,x为输入的测试数据样本,其中α为折扣系数,Lt为DDPG模型本次得到的数据与原数据的均方误差;Lt-1为DDPG模型上次得到的数据与原数据的均方误差;LAE为测试数据直接在自编码器得到的数据与原数据的均方误差;公式如(6)所示:
R(x)=-(α*(Lt-Lt-1)+(1-α)*(Lt-LAE)) (6)
读取文件夹里的脑电数据,导入强化学习自编码器中;然后开始如下工作:
编码:第一步利用卷积神经网络从输入图象中提取特征;具体采用三层一维卷积层,其中前两层每层一维卷积层采用长度为3的卷积核滑动窗口,并设置步长为1,填充值为1,最后一层采用卷积核为4,步长为1,填充值为1的设置,用于特征的提取编码;
解码:利用反卷积层完成从特征向量中还原出低级特征的工作,这里采用三层一维反卷积层,其中第一个卷积层的卷积核为4,步长为1,填充值为1,经过第一个反卷积层进行归一化并用ReLU函数激活,其他每层一维卷积层采用长度为3的卷积核滑动窗口,并设置步长为1,填充值为1,最后一层反卷积后采用Tanh激活函数,最后得到生成EEG数据;
强化学习DDPG算法参数训练:训练完编码和解码模型后,保存模型参数;将数据导入编码模型中,然后经过编码模型,得到矩阵向量,进入强化学习DDPG算法中,训练编码后的矩阵向量,加入新的矩阵向量,然后将矩阵向量放入解码模型中,最后得到生成EEG数据;
S3-4:反馈结果
数据判别器D的工作内容:将上述S3-2和S3-3的模型生成的数据载入数据判别器D中,通过均方误差公式分别与输入的测试数据比较,均方误差值更小的数据作为最终EEG结果输出;
经过上面的步骤,得到训练完的模型;用输入测试数据集到训练完的模型中,然后分别通过自编码器和强化学习自编码器得到生成的EEG数据,然后将这两个得到的数据输入数据判别器D中,得到最终的EEG数据结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110599847.6A CN113408697B (zh) | 2021-05-31 | 2021-05-31 | 一种基于强化学习自编码器的脑电数据重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110599847.6A CN113408697B (zh) | 2021-05-31 | 2021-05-31 | 一种基于强化学习自编码器的脑电数据重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113408697A CN113408697A (zh) | 2021-09-17 |
CN113408697B true CN113408697B (zh) | 2022-09-16 |
Family
ID=77675329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110599847.6A Active CN113408697B (zh) | 2021-05-31 | 2021-05-31 | 一种基于强化学习自编码器的脑电数据重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408697B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114176610B (zh) * | 2021-12-31 | 2024-05-07 | 杭州电子科技大学 | 一种面向轻度认知功能障碍患者诊断的工作负荷评估方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108810272A (zh) * | 2018-06-07 | 2018-11-13 | 郑州信大先进技术研究院 | 基于移动终端多传感器的行为识别模型训练方法及装置 |
CN110393525A (zh) * | 2019-06-18 | 2019-11-01 | 浙江大学 | 一种基于深度循环自编码器的大脑活动检测方法 |
CN112861625A (zh) * | 2021-01-05 | 2021-05-28 | 深圳技术大学 | 一种堆叠去噪自编码器模型确定方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242443B2 (en) * | 2016-11-23 | 2019-03-26 | General Electric Company | Deep learning medical systems and methods for medical procedures |
CN111062250B (zh) * | 2019-11-12 | 2023-05-23 | 西安理工大学 | 基于深度特征学习的多受试者运动想象脑电信号识别方法 |
CN111031051B (zh) * | 2019-12-17 | 2021-03-16 | 清华大学 | 一种网络流量异常检测方法及装置、介质 |
CN111539331B (zh) * | 2020-04-23 | 2023-03-28 | 西安科技大学 | 一种基于脑机接口的视觉图像重建系统 |
CN111242948B (zh) * | 2020-04-29 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 图像处理、模型训练方法、装置、设备和存储介质 |
-
2021
- 2021-05-31 CN CN202110599847.6A patent/CN113408697B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108810272A (zh) * | 2018-06-07 | 2018-11-13 | 郑州信大先进技术研究院 | 基于移动终端多传感器的行为识别模型训练方法及装置 |
CN110393525A (zh) * | 2019-06-18 | 2019-11-01 | 浙江大学 | 一种基于深度循环自编码器的大脑活动检测方法 |
CN112861625A (zh) * | 2021-01-05 | 2021-05-28 | 深圳技术大学 | 一种堆叠去噪自编码器模型确定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113408697A (zh) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112667080B (zh) | 基于深度卷积对抗网络的脑电信号无人平台智能控制方法 | |
CN114266276B (zh) | 一种基于通道注意力和多尺度时域卷积的运动想象脑电信号分类方法 | |
CN111046824A (zh) | 一种时间序列信号高效去噪和高精度重构建模方法及系统 | |
US20230301542A1 (en) | Brain atlas individualization method and system based on magnetic resonance and twin graph neural network | |
CN110393525B (zh) | 一种基于深度循环自编码器的大脑活动检测方法 | |
CN112037179B (zh) | 一种脑疾病诊断模型的生成方法、系统及设备 | |
CN112990008B (zh) | 基于三维特征图和卷积神经网络的情绪识别方法及系统 | |
CN114648048B (zh) | 基于变分自编码和PixelCNN模型的心电信号降噪方法 | |
CN112450885B (zh) | 一种面向癫痫脑电的识别方法 | |
CN113408697B (zh) | 一种基于强化学习自编码器的脑电数据重建方法 | |
Lou et al. | Chaotic signal denoising based on simplified convolutional denoising auto-encoder | |
CN116304815A (zh) | 一种基于自注意力机制和并行卷积的运动想象脑电信号分类方法 | |
CN113842115B (zh) | 一种改进的eeg信号特征提取方法 | |
Wang et al. | A novel model based on a 1D-ResCNN and transfer learning for processing EEG attenuation | |
CN117574059A (zh) | 高分辨率脑电信号深度神经网络压缩方法及脑机接口系统 | |
CN110738093B (zh) | 基于改进小世界回声状态网络肌电的分类方法 | |
Gabardi et al. | A multi-artifact EEG denoising by frequency-based deep learning | |
CN116596046A (zh) | 一种利用脑电信号和视觉特征进行图像重构的方法 | |
CN114428555B (zh) | 一种基于皮层源信号的脑电运动意图识别方法及系统 | |
CN116720056A (zh) | 一种基于增强解码的ae-gan的ecg信号重建方法 | |
CN114463459B (zh) | 一种pet图像的部分容积校正方法、装置、设备及介质 | |
CN115462803A (zh) | 一种基于BG-Attention的脑电信号去噪方法、装置及存储介质 | |
CN111493864B (zh) | Eeg信号混合噪声处理方法、设备和存储介质 | |
CN114947740A (zh) | 基于量子cnn-gru预测癫痫发作的方法 | |
CN114081492A (zh) | 一种基于可学习邻接矩阵的脑电情绪识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |