CN112446289A - 一种提高p300拼写器性能的方法 - Google Patents

一种提高p300拼写器性能的方法 Download PDF

Info

Publication number
CN112446289A
CN112446289A CN202011026768.8A CN202011026768A CN112446289A CN 112446289 A CN112446289 A CN 112446289A CN 202011026768 A CN202011026768 A CN 202011026768A CN 112446289 A CN112446289 A CN 112446289A
Authority
CN
China
Prior art keywords
output
speller
neural network
layer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011026768.8A
Other languages
English (en)
Other versions
CN112446289B (zh
Inventor
张智军
孙健声
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202011026768.8A priority Critical patent/CN112446289B/zh
Publication of CN112446289A publication Critical patent/CN112446289A/zh
Application granted granted Critical
Publication of CN112446289B publication Critical patent/CN112446289B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种提高P300拼写器性能的方法。所述方法如下:对P300拼写器的信号数据集进行预处理得到样本集;将样本集进行主成分分析特征提取,得到特征集;将特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;将若干个神经网络识别分类输出值进行集成平均得到P300拼写器的信号分类结果;将P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。本发明使用神经动力学公式进行参数矩阵的更新,具有更好的收敛性的同时拥有更快的收敛速度。本发明采用滑动平均滤波来优化信号,本发明使用自主构建的动态收敛微分神经网络替代原有的SVM分类器,提高信号分类准确率和处理速度。

Description

一种提高P300拼写器性能的方法
技术领域
本发明涉及脑电信号识别控制领域,特别涉及一种提高P300拼写器性能的方法。
背景技术
在脑机接口系统中,脑电图(EEG)信号应用于身体残疾、脑损伤或其他运动障碍的人。目前,无创BCI系统一般基于感觉运动节律(SMR)、慢皮层电位 (SCP)和P300事件相关电位(ERP)。在上述信号中,P300信号在BCI中有着广泛的应用,如拼写器、神经反馈训练工具、脑控移动平台。P300信号在拼写器中面临的主要挑战是低信噪比、高维数、分类器变异性以及过拟合问题导致分类困难。
现有的系统中(S.Kundu and S.Ari,"P300 detection with brain-computerinterface application using PCA and ensemble of weighted SVMs,"IETE Journalof Research,vol.64,no.3,pp.406–414,2018.)预处理采用降采样的方法对原始信号进行处理,容易导致信号失真。
发明内容
本发明的目的在于克服一般技术的不足,提供了一种提高P300拼写器性能的方法。
本发明的目的至少通过如下技术方案之一实现。
一种提高P300拼写器性能的方法,包括如下步骤:
S1、对P300拼写器的信号数据集进行预处理得到样本集;
S2、将步骤S1中得到的样本集进行主成分分析特征提取,得到特征集;
S3、将步骤S2中得到的特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;
S4、将步骤S3中得到的若干个神经网络识别分类输出值进行集成平均得到 P300拼写器的信号分类结果;
S5、将步骤S4中得到的P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。
进一步地,步骤S1中,所述预处理包括时间窗截取、带通滤波、滑动平均滤波和训练集平衡,具体包括以下步骤:
首先对采集得到的信号设定0~667ms的时间窗来捕捉视觉刺激后300ms出现的P300信号正峰,然后对此时间段的信号进行带通滤波和滑动平均滤波,最后对正负类不平衡的训练集以排列组合方式做平衡处理,得到样本集。
进一步地,步骤S2中,对样本集进行主成分分析提取关键特征,得到特征集,减少数据维度。
进一步地,步骤S3中,动态收敛微分神经网络为三层前馈网络,网络的输入为xi(i=1,2,...,m),其中m为输入层神经元的数量;隐含层的输入输出关系表示为:
Figure RE-GDA0002914255980000021
Oh(j)=g(Ih(j)),j=1,2,...,n;
式中,n为隐含层神经元个数,vij、bh(j)分别为第j个神经元的权值和偏置;隐含层激活函数采用softsign函数,即:
g(x)=x/(1+|x|).;
输出层的输入和输出表示为:
Figure RE-GDA0002914255980000022
Oo(r)=f(Io(r)),r=1,2,...,p;
式中,p为输出层神经元数量,wjr、bo(r)分别为第r个神经元的权值和偏置;f(·)作为输出层的激活函数,也使用了softsign激活函数;
为了更好地表示得到的状态方程,定义了一些新的符号,具体如下:
X=(x1,x2,...,xm,1)T
表示网络的输入;
Figure RE-GDA0002914255980000023
表示输入层与隐含层之间的权值矩阵;
Figure RE-GDA0002914255980000024
表示隐含层与输出层之间的权值矩阵;
H=(Oh(1),...,Oh(j),...,Oh(n),1)T
表示隐含层的输出;
O=(Oo(1),...,Oo(r),...,Oo(p),1)T
表示输出层的输出。
进一步地,动态收敛微分神经网络需要通过如下三个步骤构建:
S3.1、定义向量误差函数ε(t)=f(W(t)H(t))-Y=O(t)-Y,其中Y为样本集的标签,H(t)=g(V(t)X)为隐含层的输出;
S3.2、为使误差收敛于零,选取神经动力学公式
Figure RE-GDA0002914255980000031
其中,设计参数为λ>0,具体根据实验的需要适当设置,Φ(·)代表一个单调递增的奇激活函数;
S3.3、根据向量误差函数和神经动力学公式,得到隐式动力学方程的神经动力学模型
Figure RE-GDA0002914255980000032
其中H(t)=g(V(t)X)为隐含层的输出;由于所有的计算都是在计算机中进行的,所以需要上述所有变量的离散形式,具体包括H(t)被定义为H(k):
Figure RE-GDA0002914255980000033
式中k为迭代历元和步长Δk=1;
为了计算权矩阵V(k)和W(k),利用控制变量法交替得到权矩阵V(k)和 W(k)。
进一步地,利用控制变量法交替得到权矩阵V(k)和W(k),包括以下步骤:
S3.3.1、假设V(k)是相邻迭代中的一个恒定向量,W(k+1)的更新过程如下:
Figure RE-GDA0002914255980000034
W(k+1)=W(k)+ΔW(k);
式中H+(k)为H(k)的伪逆;
S3.3.2、固定
Figure RE-GDA0002914255980000035
则V(k+1)的更新过程如下:
Figure RE-GDA0002914255980000036
V(k+1)=V(k)+ΔV(k);
式中X+为网络输入X的伪逆,W+(k)为W(k)的伪逆。
进一步地,步骤S4中,采用集成分类器的方法消除分类器变异性,具体通过集成平均方法将每个分类器即动态收敛微分神经网络的输出进行平均,得到一个稳定输出即P300拼写器的信号分类结果。
进一步地,步骤S5中,通过P300拼写器的信号分类结果中最大的两个值确定预测字符的行和列,结合P300拼写界面得到预测字符。
相比于现有技术,本发明的优点在于:
本发明使用神经动力学公式进行参数矩阵的更新,且整个神经网络只包含一层隐藏层,因此具有更好的收敛性的同时拥有更快的收敛速度。本发明采用滑动平均滤波来优化信号,此外,本发明使用自主构建的动态收敛微分神经网络替代原有的SVM分类器,提高信号分类准确率和处理速度。
附图说明
图1为P300拼写器用户界面示意图,其中图1a为拼写器屏幕示意图,图 1b为字符所在行列位置信息示意图;
图2为本发明一种提高P300拼写器性能的方法的总体流程图;
图3为本发明的数据预处理流程图;
图4为本发明提出的动态收敛微分神经网络算法原理图。
具体实施方式
下面结合附图和实施例对本发明的具体实施做进一步的说明。
实施例:
本实施例中,图1所示为P300拼写器用户界面。用户界面由36个字符(6× 6矩阵)组成。拼写原则描述如下:字符的位置由矩阵的行和列的交点决定。用户始终将注意力放在需要的字符上。在这个过程中,字符矩阵的所有行和列都被依次随机点亮。当所需字符的行或列被点亮时,由于视觉刺激产生P300信号。通过检测用户的P300信号,可以得到所需字符的位置。对于一个epoch或一轮,有12个闪烁(每次一行或一列,拼字板有六行六列),所需字符只需要其中两行。一个历元重复15次。此外,每次闪烁表示单行或列点亮100ms,空白75ms。由64通道数据采集系统采集,所有信号以240hz采样,从0.1到60hz滤波。
本实施例中,对BCI竞赛II和III数据集进行测试。BCI竞赛II数据集包括来自单一对象的数据,包括42个训练字符和31个测试字符。BCI2000系统收集的BCI竞赛III数据集包含来自两个对象的数据,即分别给出了85个训练字符和100个测试字符。
一种提高P300拼写器性能的方法,如图2所示,包括如下步骤:
S1、对P300拼写器的信号数据集进行预处理得到样本集;
如图3所示,所述预处理包括时间窗截取、带通滤波、滑动平均滤波和训练集平衡,具体包括以下步骤:
本实施例中,根据P300拼写器的信号的定义,在视觉刺激后约300ms出现一个P300信号的正峰。0~667ms的时间窗范围足以获得关于P300拼写器的信号的有用信息。首先对采集得到的信号设定0~667ms的时间窗来捕捉视觉刺激后300ms出现的P300拼写器的信号正峰,然后对此时间段的信号进行带通滤波和滑动平均滤波,每个通道的信号使用一个0.1~20Hz的8阶Chebyshev类型I滤波器。由于原始信号在667ms期间以240hz采样,因此每个单通道获得160个样本。对于64通道,每个数据样本的维数为64×160=10240。然后,以5个离散样本为间隔,进行滑动平均滤波,以减小数据维数,保证所有信号工作。现在,单个数据样本的维度是10240/5=2048,这是P300或非P300对象的维度。因为一个周期包含12个闪烁,其中两个包含所需的P300信号。这样,可以在一个周期内获得2个P300目标和10个非P300目标。显然,训练数据集是不平衡的。为了平衡类的分布,基于所有的P300正样本和随机的10个非P300负样本构建单一数据集。为了减少分类器的可变性,所有原始训练数据的可能组合被使用。最后对正负类不平衡的训练集以排列组合方式做平衡处理,从10个非P300 目标中随机选择2个,有45种不同的组合,得到样本集C10 2=45个数据集。
S2、将步骤S1中得到的样本集进行主成分分析特征提取关键特征,本实施例中,以99%的贡献率对样本集中属性的主成分进行提取得到特征集,减少数据维度;
S3、将步骤S2中得到的特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;
动态收敛微分神经网络为三层前馈网络,网络的输入为xi(i=1,2,...,m),其中m为输入层神经元的数量;隐含层的输入输出关系表示为:
Figure RE-GDA0002914255980000051
Oh(j)=g(Ih(j)),j=1,2,...,n (2)
式中,n为隐含层神经元个数,vij、bh(j)分别为第j个神经元的权值和偏置;隐含层激活函数采用softsign函数,即:
g(x)=x/(1+|x|).;
输出层的输入和输出表示为:
Figure RE-GDA0002914255980000052
Oo(r)=f(Io(r)),r=1,2,...,p (4)
式中,p为输出层神经元数量,wjr、bo(r)分别为第r个神经元的权值和偏置; f(·)作为输出层的激活函数,也使用了softsign激活函数;
为了更好地表示得到的状态方程,定义了一些新的符号,具体如下:
X=(x1,x2,...,xm,1)T
表示网络的输入;
Figure RE-GDA0002914255980000061
表示输入层与隐含层之间的权值矩阵;
Figure RE-GDA0002914255980000062
表示隐含层与输出层之间的权值矩阵;
H=(Oh(1),...,Oh(j),...,Oh(n),1)T
表示隐含层的输出;
O=(Oo(1),...,Oo(r),...,Oo(p),1)T
表示输出层的输出。
动态收敛微分神经网络需要通过如下三个步骤构建:
S3.1、与梯度下降法使用的标量误差函数不同,定义如下向量误差函数:
ε(t)=f(W(t)H(t))-Y=O(t)-Y (5)
其中Y为样本集的标签,H(t)=g(V(t)X)为隐含层的输出;事实上,V(t)、 W(t)、H(t)和O(t)是显示时间t下的矩阵V、W、H、O。该学习算法的目标是通过修正权矩阵V(t)和W(t)来最小化误差ε(t)。
S3.2、为使误差收敛于零,选取神经动力学公式即:
Figure RE-GDA0002914255980000063
其中,设计参数为λ>0,具体根据实验的需要适当设置;Φ(·)代表一个单调递增的奇激活函数,本实施例中,采用能量激活函数,即:
Figure RE-GDA0002914255980000064
式中,设计参数n≥2和r≥2为整数。本实施例中,参数r=2和n=4。
S3.3、根据向量误差函数和神经动力学公式,得到隐式动力学方程的神经动力学模型:
Figure RE-GDA0002914255980000071
其中H(t)=g(V(t)X)为隐含层的输出;在实验中,V(t)和W(t)从初始随机矩阵 V(0)和W(0)开始收敛到式(7)的理论解V*(t)和W*(t)。
由于所有的计算都是在计算机中进行的,所以需要上述所有变量的离散形式,具体包括H(t)被定义为H(k):
Figure RE-GDA0002914255980000072
式中k为迭代历元和步长Δk=1;
为了计算权矩阵V(k)和W(k),利用控制变量法交替得到权矩阵V(k)和W(k),包括以下步骤:
S3.3.1、假设V(k)是相邻迭代中的一个恒定向量,即
Figure RE-GDA00029142559800000713
Figure RE-GDA00029142559800000714
式(7) 可转化为
Figure RE-GDA0002914255980000073
由于步长Δk=1,因此
Figure RE-GDA0002914255980000074
W(k+1)的更新过程如下:
Figure RE-GDA0002914255980000075
W(k+1)=W(k)+ΔW(k) (11)
式中H+(k)为H(k)的伪逆。
S3.3.2、固定
Figure RE-GDA0002914255980000076
式(7)可变换为
Figure RE-GDA0002914255980000077
其中
Figure RE-GDA0002914255980000078
是隐含层输出的导数,可以表示为
Figure RE-GDA0002914255980000079
式中I(k)=V(k)X为隐含层的输入,
Figure RE-GDA00029142559800000710
为隐含层激活函数的导数。
将式(13)代入式(12)并且
Figure RE-GDA00029142559800000711
则V(k+1)的更新过程为
Figure RE-GDA00029142559800000712
V(k+1)=V(k)+ΔV(k) (15)
式中X+为网络输入X的伪逆,W+(k)为W(k)的伪逆。
至此,提出的动态收敛微分神经网络构建完毕。
S4、将步骤S3中得到的若干个神经网络识别分类输出值进行集成平均得到 P300拼写器的信号分类结果;
采用集成分类器的方法消除分类器变异性,具体通过集成平均方法将每个分类器即动态收敛微分神经网络的输出进行平均,得到一个稳定输出即P300拼写器的信号分类结果。
本实施例中,在预处理阶段,对于45个不同的数据集,45个动态收敛微分神经网络模型被训练。对于每一个数据集,构造单一的网络模型,用主成分分析提取特征。
训练完成后,将测试数据输入到所有的分类器中,对分类器的得分进行平均。假设第k个分类器的输出分数为fk,其维数为12。也就是说,fk表示第k 个分类器的6行与6列的输出分数。
S5、将步骤S4中得到的P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。
通过P300拼写器的信号分类结果中最大的两个值确定预测字符的行和列,结合P300拼写界面得到预测字符。
在平均45个分类器输出后的12个结果中,最大的2个分数是最有可能的行和列,因为所需的字符位置是由行和列的交叉位置提供的。
具体来说,每个周期之后,所有行和列的输出分数fk都由第k个分类器计算。然后将所有分类器的平均分数Sr|c定义为
Figure RE-GDA0002914255980000081
其中J=15和K=45分别表示周期数和分类器的数量,
Figure RE-GDA0002914255980000082
表示第j个epoch中PCA后所有行和列的测试集。在那之后,字符的位置可以确定如下:
Figure RE-GDA0002914255980000083
Figure RE-GDA0002914255980000084
其中Cpos和Rpos分别表示预测字符的列号和行号。

Claims (8)

1.一种提高P300拼写器性能的方法,其特征在于,包括如下步骤:
S1、对P300拼写器的信号数据集进行预处理得到样本集;
S2、将步骤S1中得到的样本集进行主成分分析特征提取,得到特征集;
S3、将步骤S2中得到的特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;
S4、将步骤S3中得到的若干个神经网络识别分类输出值进行集成平均得到P300拼写器的信号分类结果;
S5、将步骤S4中得到的P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。
2.根据权利要求1所述的一种提高P300拼写器性能的方法,其特征在于,步骤S1中,所述预处理包括时间窗截取、带通滤波、滑动平均滤波和训练集平衡,具体包括以下步骤:
首先对采集得到的信号设定0~667ms的时间窗来捕捉视觉刺激后300ms出现的P300信号正峰,然后对此时间段的信号进行带通滤波和滑动平均滤波,最后对正负类不平衡的训练集以排列组合方式做平衡处理,得到样本集。
3.根据权利要求2所述的一种提高P300拼写器性能的方法,其特征在于,步骤S2中,对样本集进行主成分分析提取关键特征,得到特征集,减少数据维度。
4.根据权利要求3所述的一种提高P300拼写器性能的方法,其特征在于,步骤S3中,动态收敛微分神经网络为三层前馈网络,网络的输入为xi(i=1,2,...,m),其中m为输入层神经元的数量;隐含层的输入输出关系表示为:
Figure RE-FDA0002914255970000011
Oh(j)=g(Ih(j)),j=1,2,...,n;
式中,n为隐含层神经元个数,vij、bh(j)分别为第j个神经元的权值和偏置;隐含层激活函数采用softsign函数,即:
g(x)=x/(1+|x|).;
输出层的输入和输出表示为:
Figure RE-FDA0002914255970000012
Oo(r)=f(Io(r)),r=1,2,...,p;
式中,p为输出层神经元数量,wjr、bo(r)分别为第r个神经元的权值和偏置;f(·)作为输出层的激活函数,也使用了softsign激活函数;
为了更好地表示得到的状态方程,定义了一些新的符号,具体如下:
X=(x1,x2,...,xm,1)T
表示网络的输入;
Figure RE-FDA0002914255970000021
表示输入层与隐含层之间的权值矩阵;
Figure RE-FDA0002914255970000022
表示隐含层与输出层之间的权值矩阵;
H=(Oh(1),...,Oh(j),...,Oh(n),1)T
表示隐含层的输出;
O=(Oo(1),...,Oo(r),...,Oo(p),1)T
表示输出层的输出。
5.根据权利要求4所述的一种提高P300拼写器性能的方法,其特征在于,动态收敛微分神经网络需要通过如下三个步骤构建:
S3.1、定义向量误差函数ε(t)=f(W(t)H(t))-Y=O(t)-Y,其中Y为样本集的标签,H(t)=g(V(t)X)为隐含层的输出;
S3.2、为使误差收敛于零,选取神经动力学公式
Figure RE-FDA0002914255970000023
其中,设计参数为λ>0,具体根据实验的需要适当设置,Φ(·)代表一个单调递增的奇激活函数;
S3.3、根据向量误差函数和神经动力学公式,得到隐式动力学方程的神经动力学模型
Figure RE-FDA0002914255970000024
其中H(t)=g(V(t)X)为隐含层的输出;H(t)被定义为H(k):
Figure RE-FDA0002914255970000025
式中k为迭代历元和步长Δk=1;
为了计算权矩阵V(k)和W(k),利用控制变量法交替得到权矩阵V(k)和W(k)。
6.根据权利要求5所述的一种提高P300拼写器性能的方法,其特征在于,利用控制变量法交替得到权矩阵V(k)和W(k),包括以下步骤:
S3.3.1、假设V(k)是相邻迭代中的一个恒定向量,W(k+1)的更新过程如下:
Figure RE-FDA0002914255970000031
W(k+1)=W(k)+ΔW(k);
式中H+(k)为H(k)的伪逆;
S3.3.2、固定
Figure RE-FDA0002914255970000032
则V(k+1)的更新过程如下:
Figure RE-FDA0002914255970000033
V(k+1)=V(k)+ΔV(k);
式中X+为网络输入X的伪逆,W+(k)为W(k)的伪逆。
7.根据权利要求6所述的一种提高P300拼写器性能的方法,其特征在于,步骤S4中,采用集成分类器的方法消除分类器变异性,具体通过集成平均方法将每个分类器即动态收敛微分神经网络的输出进行平均,得到一个稳定输出即P300拼写器的信号分类结果。
8.根据权利要求7所述的一种提高P300拼写器性能的方法,其特征在于,步骤S5中,通过P300拼写器的信号分类结果中最大的两个值确定预测字符的行和列,结合P300拼写界面得到预测字符。
CN202011026768.8A 2020-09-25 2020-09-25 一种提高p300拼写器性能的方法 Active CN112446289B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011026768.8A CN112446289B (zh) 2020-09-25 2020-09-25 一种提高p300拼写器性能的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011026768.8A CN112446289B (zh) 2020-09-25 2020-09-25 一种提高p300拼写器性能的方法

Publications (2)

Publication Number Publication Date
CN112446289A true CN112446289A (zh) 2021-03-05
CN112446289B CN112446289B (zh) 2023-08-22

Family

ID=74735897

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011026768.8A Active CN112446289B (zh) 2020-09-25 2020-09-25 一种提高p300拼写器性能的方法

Country Status (1)

Country Link
CN (1) CN112446289B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887374A (zh) * 2021-09-27 2022-01-04 华南理工大学 一种基于动态收敛微分神经网络的脑控喝水系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101520857A (zh) * 2009-03-31 2009-09-02 天津大学 一种基于神经网络的永磁球形电动机逆运动学求解方法
CN103204193A (zh) * 2013-04-08 2013-07-17 浙江大学 一种欠驱动双足机器人行走控制方法
CN103472725A (zh) * 2013-09-18 2013-12-25 河海大学常州校区 一种基于名义控制器的神经网络全调节的控制方法
CN104656442A (zh) * 2014-12-30 2015-05-27 河海大学常州校区 微陀螺仪神经网络动态pid全局滑模控制方法
CN107463250A (zh) * 2017-07-11 2017-12-12 天津大学 提高脑力负荷状态下p300拼写器使用效果的方法
CN108304917A (zh) * 2018-01-17 2018-07-20 华南理工大学 一种基于lstm网络的p300信号检测方法
CN108960182A (zh) * 2018-07-19 2018-12-07 大连理工大学 一种基于深度学习的p300事件相关电位分类识别方法
CN109389059A (zh) * 2018-09-26 2019-02-26 华南理工大学 一种基于cnn-lstm网络的p300检测方法
CN110458219A (zh) * 2019-08-01 2019-11-15 北京邮电大学 一种基于stft-cnn-rvfl的φ-otdr振动信号识别算法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101520857A (zh) * 2009-03-31 2009-09-02 天津大学 一种基于神经网络的永磁球形电动机逆运动学求解方法
CN103204193A (zh) * 2013-04-08 2013-07-17 浙江大学 一种欠驱动双足机器人行走控制方法
CN103472725A (zh) * 2013-09-18 2013-12-25 河海大学常州校区 一种基于名义控制器的神经网络全调节的控制方法
CN104656442A (zh) * 2014-12-30 2015-05-27 河海大学常州校区 微陀螺仪神经网络动态pid全局滑模控制方法
CN107463250A (zh) * 2017-07-11 2017-12-12 天津大学 提高脑力负荷状态下p300拼写器使用效果的方法
CN108304917A (zh) * 2018-01-17 2018-07-20 华南理工大学 一种基于lstm网络的p300信号检测方法
CN108960182A (zh) * 2018-07-19 2018-12-07 大连理工大学 一种基于深度学习的p300事件相关电位分类识别方法
CN109389059A (zh) * 2018-09-26 2019-02-26 华南理工大学 一种基于cnn-lstm网络的p300检测方法
CN110458219A (zh) * 2019-08-01 2019-11-15 北京邮电大学 一种基于stft-cnn-rvfl的φ-otdr振动信号识别算法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887374A (zh) * 2021-09-27 2022-01-04 华南理工大学 一种基于动态收敛微分神经网络的脑控喝水系统
CN113887374B (zh) * 2021-09-27 2024-04-16 华南理工大学 一种基于动态收敛微分神经网络的脑控喝水系统

Also Published As

Publication number Publication date
CN112446289B (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
Bagnall et al. The UEA multivariate time series classification archive, 2018
CN108304917B (zh) 一种基于lstm网络的p300信号检测方法
CN108960182B (zh) 一种基于深度学习的p300事件相关电位分类识别方法
CN106886792B (zh) 一种基于分层机制构建多分类器融合模型的脑电情感识别方法
CN109820525A (zh) 一种基于cnn-lstm深度学习模型的驾驶疲劳识别方法
Qi et al. A speedy calibration method using Riemannian geometry measurement and other-subject samples on a P300 speller
WO2021184599A1 (zh) 一种基于ms-cnn的p300信号识别方法、装置及存储介质
CN110263606A (zh) 基于端到端卷积神经网络的头皮脑电特征提取分类方法
Thenmozhi et al. Feature selection using extreme gradient boosting Bayesian optimization to upgrade the classification performance of motor imagery signals for BCI
CN109009098B (zh) 一种运动想象状态下的脑电信号特征识别方法
CN113017645B (zh) 一种基于空洞卷积神经网络的p300信号检测方法
CN109685071A (zh) 基于共同空间模式特征宽度学习的脑电分类方法
CN110503082A (zh) 一种基于深度学习的模型训练方法以及相关装置
Lee et al. A comparative analysis of multi-class EEG classification for brain computer interface
Kundu et al. Fusion of convolutional neural networks for P300 based character recognition
Lu et al. The detection of p300 potential based on deep belief network
Wang et al. ST-CapsNet: linking spatial and temporal attention with capsule network for P300 detection improvement
CN112884063A (zh) 基于多元时空卷积神经网络的p300信号检测识别方法
CN112446289B (zh) 一种提高p300拼写器性能的方法
Kwon et al. Friend-guard adversarial noise designed for electroencephalogram-based brain–computer interface spellers
Zhang et al. A new dynamically convergent differential neural network for brain signal recognition
CN112381124B (zh) 一种基于动态逆学习网络的提高脑机接口性能的方法
Sharma et al. Quantification of Mental Workload Using a Cascaded Deep One-dimensional Convolution Neural Network and Bi-directional Long Short-Term Memory Model
Wang et al. A shallow convolutional neural network for classifying MI-EEG
Du et al. InceptionSSVEP: a multi-scale convolutional neural network for steady-state visual evoked potential classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant