CN112381120A - 基于支持向量神经网络提高p300拼写器性能的方法 - Google Patents

基于支持向量神经网络提高p300拼写器性能的方法 Download PDF

Info

Publication number
CN112381120A
CN112381120A CN202011170494.XA CN202011170494A CN112381120A CN 112381120 A CN112381120 A CN 112381120A CN 202011170494 A CN202011170494 A CN 202011170494A CN 112381120 A CN112381120 A CN 112381120A
Authority
CN
China
Prior art keywords
neural network
electroencephalogram
quadratic programming
programming problem
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011170494.XA
Other languages
English (en)
Other versions
CN112381120B (zh
Inventor
张智军
陈广强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202011170494.XA priority Critical patent/CN112381120B/zh
Publication of CN112381120A publication Critical patent/CN112381120A/zh
Application granted granted Critical
Publication of CN112381120B publication Critical patent/CN112381120B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • G06F17/12Simultaneous equations, e.g. systems of linear equations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2451Classification techniques relating to the decision surface linear, e.g. hyperplane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Analysis (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Optimization (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Operations Research (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

本发明提供了一种基于支持向量神经网络提高P300拼写器性能的方法。所述方法包括如下步骤:对P300脑电信号数据集进行预处理;将脑电信号和其对应的分类标签组成特征向量,基于分类间隔最大化的思想,将脑电信号的分类问题转化为对应的二次型规划问题,进而转换为分段线性投影方程;基于分段线性投影方程设计递归神经网络求解器求解二次型规划问题;将递归神经网络的求解结果传递给脑电信号的期望值估计函数,从而得到脑电信号是否包括P300信号的期望值;将得到的最大期望值的脑电信号所对应的行列信息映射到P300拼写器的字符表得到最终的字符拼写结果。本发明不涉及复杂的矩阵逆运算、网络参数并行更新、收敛速度快、准确率高。

Description

基于支持向量神经网络提高P300拼写器性能的方法
技术领域
本发明涉及脑电信号识别控制领域,特别涉及一种基于支持向量神经网络提高P300拼写器性能的方法。
背景技术
随着经济的发展,重度残疾人的自主护理问题越来越引起研究人员与市场的重视。脑计算机接口(BCI)P300拼写器可以帮助重度残疾的患者与外界进行交流并控制外部机器或机器人来完成任务,因此P300脑电图信号(EEG)的分类方法在BCI系统和技术的开发中起着重要作用。脑电信号的信噪比很低使得对于P300脑电信号的分类变得困难。之前的研究说明在P300脑电信号的分类上,支持向量机和卷积神经网络的应用取得了比较好的效果。但是传统的支持向量机是一种串行训练的方法,在大数据集下训练速度缓慢(Kundu S,Ari S.P300 Detection with Brain–Computer Interface Application Using PCA andEnsemble of Weighted SVMs[J].IETE Journal of Research,2017,64(3):406-414.);而卷积神经网络因为网络参数庞大,训练时对于硬件资源的需求大(Liu M,Wu W,Gu Z,etal.Deep Learning Based on Batch Normalization for P300 Signal Detection[J].NEUROCOMPUTING,2017:S0925231217314601.)。
发明内容
本发明的目的在于克服一般技术的不足,提供一种计算量小、实时性强、分类准确率高的基于支持向量神经网络的P300脑电信号分类解决方案,提高P300拼写器的性能。
本发明的目的至少通过如下技术方案之一实现。
基于支持向量神经网络提高P300拼写器性能的方法,包括如下步骤:
S1、对P300脑电信号数据集进行预处理;
S2、将步骤S1中预处理完成的脑电信号和其对应的分类标签组成特征向量,基于分类间隔最大化的思想,将脑电信号的分类问题转化为对应的二次型规划问题;
S3、将步骤S2中二次型规划问题转换为分段线性投影方程;
S4、基于步骤S3中的分段线性投影方程设计递归神经网络求解器求解二次型规划问题;
S5、将步骤S4中递归神经网络的求解结果传递给脑电信号的期望值估计函数,从而得到脑电信号是否包括P300信号的期望值;
S6、将步骤S5得到的最大期望值的脑电信号所对应的行列信息映射到P300拼写器的字符表得到最终的字符拼写结果。
进一步地,步骤S1中,给定一个包括m个样本的P3000脑电信号数据集:
S={(α1,y1),(α2,y2),…,(αi,yi),…,(αm,ym)} (1)
其中,αi是第i个脑电信号的特征向量,αi∈Rn,其中n代表特征向量αi所包括的特征维度,yi是第i个脑电信号的类别标签,yi∈{-1,1},i=1,2,...,m;对P300脑电信号数据集进行预处理的操作包括带通滤波和z-score归一化,使得处理后的数据均值为0、标准差为1。
进一步地,步骤S2中,P300脑电信号分类的决策函数为f(α)=sgn(ωT.α)+b),其中ω∈Rn是分类超平面方向的法向量,其中n代表特征向量α所包括的特征维度,b是位移项;设y=(y1,y2,...,ym)T∈Rm,q=(-1,-1,...,-1)T∈Rm
Figure BDA0002747137140000021
Figure BDA0002747137140000022
其中K(αi,αj)是两个样本的高斯核函数计算结果;基于分类间隔最大化的思想,由P300脑电信号数据构建的二次型规划问题如下:
Figure BDA0002747137140000023
s.t.yTx=0,x≥0 (5)
0≤x≤C (6)
其中,x∈Rm是拉格朗日乘子,W=A·B∈Rm×m是权重矩阵,参数C是表示间隔和容错性的相对重要性的惩罚因子;若求解出二次型规划问题,则P300脑电信号分类决策函数的最优参数ω*和b*均可以由x计算得出,具体如下:
Figure BDA0002747137140000024
Figure BDA0002747137140000025
进一步地,步骤S3中,二次型规划问题可转化为分段线性投影方程,包括以下步骤:
S3.1、将二次型规划问题转化为一个线性变分不等式,具体如下:
二次型规划问题中的公式(4)、公式(5)和公式(6)等价于下列形式的方程:
Figure BDA0002747137140000031
其中,u∈R是对应于约束公式(5)的对偶决策变量,向量[x*,u*]T是需要寻找的最优解;方程(7)可变换为一个线性变分不等式问题;假设二次型规划问题存在最优解x*,则存在一个以下线性变分不等式的最优解d*={d|ζ-≤d≤ζ+}使得:
(d-d*)T(Hd*+p)≥0 (8)
其中的矩阵和向量是由方程(7)简写而来,定义如下:
Figure BDA0002747137140000032
Figure BDA0002747137140000033
其中,d是原对偶决策向量,d*是需要根据已知条件求解的包括最优解x*的向量;
Figure BDA0002747137140000034
Figure BDA0002747137140000035
是决策向量d的上界和下界,
Figure BDA0002747137140000036
是一个足够大的正数用来代替+∞,1d∈Rm+1是一个与d维数相同的向量且每个元素均为1;
S3.2、将线性变分不等式转化为分段线性投影方程,具体如下:
线性变分不等式(8)可以等价地转化为如下分段线性投影方程:
PΩ(d-(Hd+p))-d=0 (11)
其中,PΩ(d)=[[PΩ(d)]1,[PΩ(d)]2,…,[PΩ(d)]m+1]T∈Rm+1是一个分段投影函数,其定义如下:
Figure BDA0002747137140000037
因此,求解二次型规划问题的公式(4)、公式(5)和公式(6)等价于分段线性投影方程问题(11),也相当于找到d*使得误差函数E(d)=PΩ(d-(Hd+p))-d收敛到零。
进一步地,步骤S4中,递归神经网络求解器的动力学方程如下:
Figure BDA0002747137140000038
其中β>0是设计参数,用于衡量递归神经网络的收敛率,I∈R(m+1)×(m+1)是单位矩阵;关于递归神经网络求解器的收敛性,有以下两个性质:
(1)假设二次规划问题(4)-(6)存在最优解x*,则对于任意初始值d(0),该递归神经网络都可以收敛到一个平衡点d*,且最优解x*是这个平衡点d*的前m个元素;
(2)如果存在一个常数η>0满足条件
Figure BDA0002747137140000041
Figure BDA0002747137140000042
那么问题(13)呈指数收敛于平衡点d*,并且收敛速度与βη成正比。
进一步地,步骤S5中,给定初值d(0)进行迭代,根据递归神经网络求解器及收敛理论,最终可以得到最优解d*,且二次型规划问题的最优解x*是d*的前m个元素,相应的P300脑电信号分类决策函数的最优参数ω*和b*也可以求出;对脑电信号是否包括有P300信号的期望值估计函数f(α)=ω*T·α+b*进行分类判断,f(α)越大,α对应的脑电信号包括P300信号可能性越高。
进一步地,步骤S6中,得到脑电信号的包括P300信号的期望值后,在用户拼写一个字符时,一共会产生6个包括字符表行信息的脑电信号,6个包括字符表列信息的脑电信号;设每个脑电信号包括P300信号的期望值为sr|c,根据以下公式:
Figure BDA0002747137140000043
Figure BDA0002747137140000044
其中rpos和cpos分别表示预测字符的列号和行号;将对应的行号和列号映射到P300拼写器的字符表得到最终的字符拼写结果。
相比于现有技术,本发明的优点在于:
本发明能有效克服现有P300拼写器识别准确率不高的问题,提供一种具有创新性、能并行计算、计算负担小、收敛速度快,准确率高、鲁棒性和实时性更好的基于支持向量神经网络的P300脑电信号的期望值估计方法,提高P300拼写器的性能。
附图说明
图1为本发明实施例中基于支持向量神经网络提高P300拼写器性能的方法的流程图;
图2为本发明实施例中P300拼写器在实验中使用的电极名称和通道分配编号示意图;
图3为实现本发明的支持向量神经网络框架的示意图;
图4为本发明实施例中P300拼写器对应的字符拼写表示意图。
具体实施方式
下面结合附图和实施例对本发明的具体实施做进一步的说明。
实施例:
本实施例中,如图2、图4所示的是P300拼写器在实验中使用的电极名称和通道分配编号和P300拼写器对应的字符拼写表。字符拼写表共有6行6列,用户在字符拼写时这6行6列都会被随机点亮并只点亮一次,用户在看到自己期望拼写字符被点亮时会产生一个刺激信号,这个信号大概在用户受到刺激后的300ms产生,被称为P300信号。每次拼写时需要使用分类器识别出包括有P300信号的脑电信号的行和列,对应P300拼写器的字符表得到最终的字符拼写结果。
基于支持向量神经网络提高P300拼写器性能的方法,如图1所示,包括如下步骤:
S1、对P300脑电信号数据集进行预处理;
给定一个包括m个样本的P3000脑电信号数据集:
S={(α1,y1),(α2,y2),…,(αi,yi),…,(αm,ym)} (1)
其中,αi是第i个脑电信号的特征向量,αi∈Rn,其中n代表特征向量αi所包括的特征维度,yi是第i个脑电信号的类别标签,yi∈{-1,1},i=1,2,...,m;对脑电信号数据集进行预处理的操作包括带通滤波和z-score归一化,使得处理后的数据均值为0、标准差为1。
S2、如图3所示,将步骤S1中预处理完成的脑电信号和其对应的分类标签组成特征向量,基于分类间隔最大化的思想,将脑电信号的分类问题转化为对应的二次型规划问题;
P300脑电信号分类的决策函数为f(α)=sgn(ωT·α)+b),其中ω∈Rn是分类超平面方向的法向量,其中n代表特征向量α所包括的特征维度,b是位移项;设y=(y1,y2,…,ym)T∈Rm,q=(-1,-1,…,-1)T∈Rm
Figure BDA0002747137140000051
Figure BDA0002747137140000052
其中K(αi,αj)是两个样本的高斯核函数计算结果;基于分类间隔最大化的思想,由P300脑电信号数据构建的二次型规划问题如下:
Figure BDA0002747137140000053
s.t.yTx=0,x≥0 (5)
0≤x≤C (6)
其中,x∈Rm是拉格朗日乘子,W=A·B∈Rm×m是权重矩阵,参数C是表示间隔和容错性的相对重要性的惩罚因子;若求解出二次型规划问题,则P300脑电信号分类决策函数的最优参数ω*和b*均可以由x计算得出,具体如下:
Figure BDA0002747137140000061
Figure BDA0002747137140000062
S3、如图3所示,将步骤S2中二次型规划问题转换为分段线性投影方程,包括以下步骤:
S3.1、将二次型规划问题转化为一个线性变分不等式,具体如下:
二次型规划问题中的公式(4)、公式(5)和公式(6)等价于下列形式的方程:
Figure BDA0002747137140000063
其中,u∈R是对应于约束公式(5)的对偶决策变量,向量[x*,u*]T是需要寻找的最优解;方程(7)可变换为一个线性变分不等式问题;假设二次型规划问题存在最优解x*,则存在一个以下线性变分不等式的最优解d*={d|ζ-≤d≤ζ+}使得:
(d-d*)T(Hd*+p)≥0 (8)
其中的矩阵和向量是由方程(7)简写而来,定义如下:
Figure BDA0002747137140000064
Figure BDA0002747137140000065
其中,d是原对偶决策向量,d*是需要根据已知条件求解的包括最优解x*的向量;
Figure BDA0002747137140000066
Figure BDA0002747137140000067
是决策向量d的上界和下界,
Figure BDA0002747137140000068
是一个足够大的正数用来代替+∞,1d∈Rm+1是一个与d维数相同的向量且每个元素均为1;
S3.2、将线性变分不等式转化为分段线性投影方程,具体如下:
线性变分不等式(8)可以等价地转化为如下分段线性投影方程:
PΩ(d-(Hd+p))-d=0 (11)
其中,PΩ(d)=[[PΩ(d)]1,[PΩ(d)]2,…,[PΩ(d)]m+1]T∈Rm+1是一个分段投影函数,其定义如下:
Figure BDA0002747137140000069
因此,求解二次型规划问题的公式(4)、公式(5)和公式(6)等价于分段线性投影方程问题(11),也相当于找到d*使得误差函数E(d)=PΩ(d-(Hd+p))-d收敛到零。
S4、如图3所示,基于步骤S3中的分段线性投影方程设计递归神经网络求解器求解二次型规划问题;
递归神经网络求解器的动力学方程如下:
Figure BDA0002747137140000071
其中β>0是设计参数,用于衡量递归神经网络的收敛率,I∈R(m+1)×(m+1)是单位矩阵;关于递归神经网络求解器的收敛性,有以下两个性质:
(1)假设二次规划问题(4)-(6)存在最优解x*,则对于任意初始值d(0),该递归神经网络都可以收敛到一个平衡点d*,且最优解x*是这个平衡点d*的前m个元素;
(2)如果存在一个常数η>0满足条件
Figure BDA0002747137140000072
Figure BDA0002747137140000073
那么问题(13)呈指数收敛于平衡点d*,并且收敛速度与βη成正比。
S5、将步骤S4中递归神经网络的求解结果传递给脑电信号的期望值估计函数,从而得到脑电信号是否包括P300信号的期望值;
给定初值d(0)进行迭代,根据递归神经网络求解器及收敛理论,最终可以得到最优解d*,且二次型规划问题的最优解x*是d*的前m个元素,相应的P300脑电信号分类决策函数的最优参数ω*和b*也可以求出;对脑电信号是否包括有P300信号的期望值估计函数f(α)=ω*T·α+b*进行分类判断,f(α)越大,α对应的脑电信号包括P300信号可能性越高。
S6、将步骤S5得到的最大期望值的脑电信号所对应的行列信息映射到P300拼写器的字符表得到最终的字符拼写结果;
得到脑电信号的包括P300信号的期望值后,在用户拼写一个字符时,一共会产生6个包括字符表行信息的脑电信号,6个包括字符表列信息的脑电信号;设每个脑电信号包括P300信号的期望值为sr|c,根据以下公式:
Figure BDA0002747137140000074
Figure BDA0002747137140000075
其中rpos和cpos分别表示预测字符的列号和行号;将对应的行号和列号映射到图4的P300拼写器字符表得到最终的字符拼写结果。
本实施例中,基于支持向量神经网络提高P300拼写器性能的方法应用于第二届BCI竞赛数据集IIb和第三届的BCI竞赛数据集II,分别实现了100%和98%的字符拼写准确率。

Claims (7)

1.基于支持向量神经网络提高P300拼写器性能的方法,其特征在于,包括如下步骤:
S1、对P300脑电信号数据集进行预处理;
S2、将步骤S1中预处理完成的脑电信号和其对应的分类标签组成特征向量,基于分类间隔最大化的思想,将脑电信号的分类问题转化为对应的二次型规划问题;
S3、将步骤S2中二次型规划问题转换为分段线性投影方程;
S4、基于步骤S3中的分段线性投影方程设计递归神经网络求解器求解二次型规划问题;
S5、将步骤S4中递归神经网络的求解结果传递给脑电信号的期望值估计函数,从而得到脑电信号是否包括P300信号的期望值;
S6、将步骤S5得到的最大期望值的脑电信号所对应的行列信息映射到P300拼写器的字符表得到最终的字符拼写结果。
2.根据权利要求1所述的基于支持向量神经网络提高P300拼写器性能的方法,其特征在于,步骤S1中,给定一个包括m个样本的P3000脑电信号数据集:
S={(α1,y1),(α2,y2),…,(αi,yi),…,(αm,ym)} (1)
其中,αi是第i个脑电信号的特征向量,αi∈Rn,其中n代表特征向量αi所包括的特征维度,yi是第i个脑电信号的类别标签,yi∈{-1,1},i=1,2,…,m;对P300脑电信号数据集进行预处理的操作包括带通滤波和z-score归一化,使得处理后的数据均值为0、标准差为1。
3.根据权利要求2所述的基于支持向量神经网络提高P300拼写器性能的方法,其特征在于,步骤S2中,P300脑电信号分类的决策函数为f(α)=sgn(ωT·α)+b),其中ω∈Rn是分类超平面方向的法向量,其中n代表特征向量α所包括的特征维度,b是位移项;设y=(y1,y2,…,ym)T∈Rm,q=(-1,-1,…,-1)T∈Rm
Figure FDA0002747137130000011
Figure FDA0002747137130000012
其中K(αij)是两个样本的高斯核函数计算结果;基于分类间隔最大化的思想,由P300脑电信号数据构建的二次型规划问题如下:
Figure FDA0002747137130000021
s.t. yTx=0,x≥0 (5)
0≤x≤C (6)
其中,x∈Rm是拉格朗日乘子,W=A·B∈Rm×m是权重矩阵,参数C是表示间隔和容错性的相对重要性的惩罚因子;若求解出二次型规划问题,则P300脑电信号分类决策函数的最优参数ω*和b*均可以由x计算得出,具体如下:
Figure FDA0002747137130000022
Figure FDA0002747137130000023
4.根据权利要求3所述的基于支持向量神经网络提高P300拼写器性能的方法,其特征在于,步骤S3中,二次型规划问题可转化为分段线性投影方程,包括以下步骤:
S3.1、将二次型规划问题转化为一个线性变分不等式,具体如下:
二次型规划问题中的公式(4)、公式(5)和公式(6)等价于下列形式的方程:
Figure FDA0002747137130000024
其中,u∈R是对应于约束公式(5)的对偶决策变量,向量[x*,u*]T是需要寻找的最优解;方程(7)可变换为一个线性变分不等式问题;假设二次型规划问题存在最优解x*,则存在一个以下线性变分不等式的最优解d*={d|ζ-≤d≤ζ+}使得:
(d-d*)T(Hd*+p)≥0 (8)
其中的矩阵和向量是由方程(7)简写而来,定义如下:
Figure FDA0002747137130000025
Figure FDA0002747137130000026
其中,d是原对偶决策向量,d*是需要根据已知条件求解的包括最优解x*的向量;
Figure FDA0002747137130000027
Figure FDA0002747137130000028
是决策向量d的上界和下界,
Figure FDA0002747137130000029
是一个足够大的正数用来代替+∞,1d∈Rm+1是一个与d维数相同的向量且每个元素均为1;
S3.2、将线性变分不等式转化为分段线性投影方程,具体如下:
线性变分不等式(8)可以等价地转化为如下分段线性投影方程:
PΩ(d-(Hd+p))-d=0 (11)
其中,PΩ(d)=[[PΩ(d)]1,[PΩ(d)]2,…,[PΩ(d)]m+1]T∈Rm+1是一个分段投影函数,其定义如下:
Figure FDA0002747137130000031
因此,求解二次型规划问题的公式(4)、公式(5)和公式(6)等价于分段线性投影方程问题(11),也相当于找到d*使得误差函数E(d)=PΩ(d-(Hd+p))-d收敛到零。
5.根据权利要求4所述的基于支持向量神经网络提高P300拼写器性能的方法,其特征在于,步骤S4中,递归神经网络求解器的动力学方程如下:
Figure FDA0002747137130000032
其中β>0是设计参数,用于衡量递归神经网络的收敛率,I∈R(m+1)×(m+1)是单位矩阵;关于递归神经网络求解器的收敛性,有以下两个性质:
(1)假设二次规划问题(4)-(6)存在最优解x*,则对于任意初始值d(0),该递归神经网络都可以收敛到一个平衡点d*,且最优解x*是这个平衡点d*的前m个元素;
(2)如果存在一个常数η>0满足条件
Figure FDA0002747137130000033
Figure FDA0002747137130000034
那么问题(13)呈指数收敛于平衡点d*,并且收敛速度与βη成正比。
6.根据权利要求5所述的基于支持向量神经网络提高P300拼写器性能的方法,其特征在于,步骤S5中,给定初值d(0)进行迭代,根据递归神经网络求解器及收敛理论,最终可以得到最优解d*,且二次型规划问题的最优解x*是d*的前m个元素,相应的P300脑电信号分类决策函数的最优参数ω*和b*也可以求出;对脑电信号是否包括有P300信号的期望值估计函数f(α)=ω*T·α+b*进行分类判断,f(α)越大,α对应的脑电信号包括P300信号可能性越高。
7.根据权利要求6所述的基于支持向量神经网络提高P300拼写器性能的方法,其特征在于,步骤S6中,得到脑电信号的包括P300信号的期望值后,在用户拼写一个字符时,一共会产生6个包括字符表行信息的脑电信号,6个包括字符表列信息的脑电信号;设每个脑电信号包括P300信号的期望值为sr|c,根据以下公式:
Figure FDA0002747137130000035
Figure FDA0002747137130000036
其中rpos和cpos分别表示预测字符的列号和行号;将对应的行号和列号映射到P300拼写器的字符表得到最终的字符拼写结果。
CN202011170494.XA 2020-10-28 2020-10-28 基于支持向量神经网络提高p300拼写器性能的方法 Active CN112381120B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011170494.XA CN112381120B (zh) 2020-10-28 2020-10-28 基于支持向量神经网络提高p300拼写器性能的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011170494.XA CN112381120B (zh) 2020-10-28 2020-10-28 基于支持向量神经网络提高p300拼写器性能的方法

Publications (2)

Publication Number Publication Date
CN112381120A true CN112381120A (zh) 2021-02-19
CN112381120B CN112381120B (zh) 2023-07-18

Family

ID=74577786

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011170494.XA Active CN112381120B (zh) 2020-10-28 2020-10-28 基于支持向量神经网络提高p300拼写器性能的方法

Country Status (1)

Country Link
CN (1) CN112381120B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107174203A (zh) * 2017-05-10 2017-09-19 东华大学 一种脑电信号的识别方法
CN107463250A (zh) * 2017-07-11 2017-12-12 天津大学 提高脑力负荷状态下p300拼写器使用效果的方法
CN107784180A (zh) * 2017-11-13 2018-03-09 华南理工大学 一种时变凸二次规划求解器设计方法
CN108015766A (zh) * 2017-11-22 2018-05-11 华南理工大学 一种非线性约束的原对偶神经网络机器人动作规划方法
CN109508735A (zh) * 2018-10-29 2019-03-22 华南理工大学 一种基于神经动力学的软间隔支持向量机分类方法
US20190201691A1 (en) * 2017-12-31 2019-07-04 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
US20190247662A1 (en) * 2017-12-04 2019-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107174203A (zh) * 2017-05-10 2017-09-19 东华大学 一种脑电信号的识别方法
CN107463250A (zh) * 2017-07-11 2017-12-12 天津大学 提高脑力负荷状态下p300拼写器使用效果的方法
CN107784180A (zh) * 2017-11-13 2018-03-09 华南理工大学 一种时变凸二次规划求解器设计方法
CN108015766A (zh) * 2017-11-22 2018-05-11 华南理工大学 一种非线性约束的原对偶神经网络机器人动作规划方法
US20190247662A1 (en) * 2017-12-04 2019-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US20190201691A1 (en) * 2017-12-31 2019-07-04 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
CN109508735A (zh) * 2018-10-29 2019-03-22 华南理工大学 一种基于神经动力学的软间隔支持向量机分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHUNHUI ZHAO 等: "An EEG-based Mind Controlled Virtual-Human Obstacle-Avoidance Platform in Three Dimensional Virtual Environment", 《8TH INTERNATIONAL IEEE EMBS CONFERENCE ON NEURAL ENGINEERING》, pages 387 - 390 *

Also Published As

Publication number Publication date
CN112381120B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
US10827981B2 (en) System and method for evaluating a cognitive load on a user corresponding to a stimulus
Chaurasiya et al. Binary DE-based channel selection and weighted ensemble of SVM classification for novel brain–computer interface using Devanagari script-based P300 speller paradigm
Yang et al. Efficient and robust MultiView clustering with anchor graph regularization
CN112529638B (zh) 基于用户分类和深度学习的服务需求动态预测方法及系统
Oveisi et al. Tree-structured feature extraction using mutual information
CN109330613A (zh) 基于实时脑电的人体情绪识别方法
CN110851783B (zh) 一种用于脑机接口校准的异构标签空间迁移学习方法
Das et al. Approximate information discriminant analysis: A computationally simple heteroscedastic feature extraction technique
Moin et al. Emotion recognition framework using multiple modalities for an effective human–computer interaction
CN114003636A (zh) 一种基于变量相关性的多元时间序列相似性搜索方法
Dai et al. Classification of electroencephalogram signals using wavelet-CSP and projection extreme learning machine
Bi et al. Multi-domain fusion deep graph convolution neural network for EEG emotion recognition
Zhang et al. Transfer learning algorithm design for feature transfer problem in motor imagery brain-computer interface
CN112381120A (zh) 基于支持向量神经网络提高p300拼写器性能的方法
Deng et al. A minimax probabilistic approach to feature transformation for multi-class data
CN114626408A (zh) 脑电信号分类方法、装置、电子设备、介质及产品
CN114529911A (zh) 基于改进yolo9000算法的验证码识别方法及系统
Niu et al. Efficient multiple kernel learning algorithms using low-rank representation
CN112884038A (zh) 基于多距离度量学习的多标签特征选择方法
Zhang et al. An optimized self-adjusting model for EEG data analysis in online education processes
CN110174947A (zh) 基于分形几何和概率协作的运动想象任务识别方法
WO2024055385A1 (zh) 一种基于黎曼空间的手部自然动作脑电数据迁移方法
CN117575745B (zh) 基于ai大数据的课程教学资源个性推荐方法
Wang et al. Motor imaginary eeg signals classification based on deep learning
Shuai et al. Handwritten Tibetan Digital Words Recognition Based on improved Convolutional Neural Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant