CN113326736A - 一种基于仿生群智能iwoa-elm脑电分类方法 - Google Patents

一种基于仿生群智能iwoa-elm脑电分类方法 Download PDF

Info

Publication number
CN113326736A
CN113326736A CN202110481848.0A CN202110481848A CN113326736A CN 113326736 A CN113326736 A CN 113326736A CN 202110481848 A CN202110481848 A CN 202110481848A CN 113326736 A CN113326736 A CN 113326736A
Authority
CN
China
Prior art keywords
iter
elm
woa
ind
electroencephalogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110481848.0A
Other languages
English (en)
Inventor
段立娟
连召洋
乔元华
王卓峥
苗军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110481848.0A priority Critical patent/CN113326736A/zh
Publication of CN113326736A publication Critical patent/CN113326736A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

一种基于仿生群智能IWOA‑ELM脑电分类方法属于生物信息学领域。WOA‑VELM和WOA‑MLELM,用于更好的改善分类模型中存在的病态随机单隐层前馈神经网络的问题。在预处理和特征提取后,为了避免WOA‑ELM分类模型中最佳个体的误判,在WOA‑VELM中选出了前几名较好个体,并对其进行投票。WOA‑MLELM通过气泡网攻击策略和收缩包围机制等不同的仿生策略优化输入层节点和隐层节点之间的初始连接权值和偏置,并在不同层引入不同的正则化机制,生成合适的稀疏权值矩阵,提高WOA‑MLELM的泛化性能。结果表明,该方法的平均准确率在脑电分类数据集上优于其他方法。

Description

一种基于仿生群智能IWOA-ELM脑电分类方法
技术领域
本发明涉及运动想象任务中脑电信号的分类识别领域以及生物信息学领域。
背景技术
脑电信号分类技术的突破,将引发人机交互技术的又一次技术革命,这将对医疗保健、 智能汽车和仿人机器人产生重要影响。
经过预处理和特征提取后的数据主要用于脑电信号的分类和识别,因此,选择合适的 分类器来验证提取特征的有效性有利于我们对脑电信号的分析研究。常用的分类器是支持 向量机,它以结构风险最小化理论为基础,在特征空间中构造最优分割超平面。利用非线 性核映射算法,将低维输入空间的线性不可分样本转换为高维特征空间,使其线性可分, 并将基于支持向量机的算法用于脑电信号分类。然而,支持向量机对缺失数据非常敏感, 对非线性问题没有通用的解决方案。对于一些复杂的非线性问题,很难找到合适的核函数,
黄提出了一种用于分类的单隐层前馈神经网络模型,称为极限学习机(ELM)。 ML-ELM(Multi-Layer Extreme Learning Machine)通过添加隐藏层,将基础的极限学习机(ELM)引深到深层网络结构。分层极限学习机(HELM,Hierarchical ELM)通过结合稀 疏自动编码器(SAE-ELM)将其引入到深层网络结构中,提高了分类准确率。采用PCA 和LDA提取特征后,分别采用ELM、约束CELM(CELM,Constrained ELM)、ML-ELM 和HELM对脑电信号进行分类并取得了相对不错的结果。
虽然基于ELM及改进算法在脑电信号的分类任务中已经取得了不错的结果,但是基 于不同ELM分类模型的权值和偏置都是随机初始化的,容易导致产生病态随机单隐层前馈神经网络(IRSLFN,Ill-conditioned Random Single-Hidden-Layer FeedforwardNetwork) 的问题。群智能优化算法是一种仿生的随机概率启发式搜索算法,相对传统算法比较容易 跳出局部最优解,如何结合较新的群体智能算法以及各种有效的仿生策略来优化不同ELM 算法的初始化权重、偏置是一个需要解决的问题。
发明内容
针对上述背景,本发明提出采用提出结合群体智能算法以及多种高效的仿生策略优化 不同ELM算法的初始化权重、偏置等,用于提升脑电信号中分类识别准确率。
具体技术方案如下:
包括模型预处理、特征提取和分类识别模块。具体包括以下步骤:
步骤(1)脑电信号预处理
把得到脑电数据随机打乱并归一化,并用交叠的滑动时间窗口对数据分段,得到分段 后的子数据。
步骤(2)提取脑电结合特征
1)通过PCA在分段数据内提取主成分特征,并消除冗余噪声。
2)通过LDA在分段数据内提取考虑训练数据标签信息的判别性特征。
3)得到PCA和LDA后的线性结合特征。
步骤(3)脑电信号分类识别
IWOA-ELM分类模型的过程如下:
1)对问题进行建模,并产生初始种群。
2)利用仿生策略更新距离度量和位置。
3)与改进的IELM算法结合计算准确率并将其转换为适应值。
4)更新最优解及对应准确率。
有益效果
本发明了基于改进的仿生群智能IWOA-ELM脑电分类方法:WOA-VELM和 WOA-MLELM。为了避免WOA-ELM中最佳个体的误判,在WOA-VELM中选出了前几 名较好个体,并对其进行投票。WOA-MLELM通过气泡网攻击策略(BNAS,Bubble Net Attack Strategy)和收缩包围机制(SEM,Shrink and Encirclement predation Mechanism)等 不同的仿生策略优化输入层节点和隐层节点之间的初始连接权值和偏置,并在不同层引入 不同的正则化机制,生成合适的稀疏权值矩阵,提高WOA-MLELM的泛化性能。结果表 明,该方法的平均准确率在脑电分类数据集上优于其他方法。
附图说明
图1为本发明所涉及方法的整体结构图。
图2为关于IWOA-ELM分类模块的详细结构图;
图3a是IWOA-ELM算法的性能对比图;b是IWOA-ELM算法的性能图。
具体实施方式
步骤(1)脑电信号预处理
首先,把得到脑电数据随机打乱并归一化。然后,考虑脑电信号的复杂性和不稳定性, 我们用交叠的滑动窗口分段来保留脑电信号中的有用信息。基于实验室早期的工作,也选 择A1和A2优势电极,每个电极有896维。每个电极的数据通过一个500ms的时间窗口和125ms的交叠窗口被分成9段子数据,A1和A2两个电极一共18段子数据,每个子数 据段有128维。
步骤(2)提取脑电结合特征
通过PCA和LDA获得线性结合特征。
1)首先分别对每段分段数据进行PCA降维。
通过优化目标函数LP(WP)获得权重WP
Figure BDA0003048782980000031
其中Cvar是输入子数据段XP的协方差,λP为特征向量wP对应的特征值,权重WP矩阵由 对应的一系列特征向量wP组成。
通过子数据XP和获得的WP得到YP
YP=XPWP
其中,N为样本数,M每个脑电样本中每个分段经过PCA处理前的输入维数,
Figure BDA0003048782980000032
Figure BDA0003048782980000033
对每个样本中18个数据段中的每个子数据进行PCA并降低到D=16维,此时累计贡献率大于99%。
2)其次,分别对PCA降维后的每段分段数据进行LDA转换。
通过优化目标函数LPL(wPL)获得权重WPL
Figure BDA0003048782980000034
其中SW和SB分别是经过LDA后的分段子特征XPL,即YP,的类内和类间协方差,λPL为特征向量wPL对应的特征值,权重WPL矩阵由对应的一系列特征向量wPL组成。
通过输入子特征XPL和获得的WPL得到LDA的输出特征YPL
Figure BDA0003048782980000035
对每个样本中的18个数据段的每个子数据XPL分别进行LDA操作得到YPL。由于实验数据集是一个二分类问题,因此每个16维特征子数据被映射到1维空间。
3)得到PCA和LDA后的线性结合特征。
每个样本有18个1维特征子数据,这18个1维特征子数据结合成一个18维特征向量, 这个18维特征向量便是线性组合特征,所有样本的非线性组合特征记作YPLC
步骤(3)脑电信号分类识别
1)对问题进行建模,并产生初始种群。
提取的特征Xfea即YPLC和初始权重Wi(iter)、偏置bi(iter),作为IWOA-ELM的输入,编码为初始总体的个体Xind(iter-1)。
Xind(iter-1)=fen(W(iter-1),b(iter-1))
式中,Xind(iter-1)是第iter-1次迭代的种群中个体,约束为1≤iter≤Niter+1,迭代 次数Niter=50,ind为个体的序号,个体总数60。W(iter-1)和b(iter-1)分别是权重矩阵和 偏置,由WOA随机初始化和优化。fen是IWOA-ELM中从权重Wi(iter)和偏置bi(iter)到个体Xind(iter-1)的编码函数,其中Xfea会在后面步骤(3)的3)中用到。
2)利用仿生策略更新距离度量和位置。
利用仿生策略BNAS和SEM更新种群中个体的距离度量D1或D2和位置Xind(iter)。
根据判定参数Aiter,选择进入开采利用阶段或开发和探索阶段。
Figure BDA0003048782980000041
Aiter=2·aiter·pr-aiter
式中,pr是一个随机值,约束为0<pr<1。中间变量aiter从2线性减少到0,并且与Niter相关。Aiter是-aiter到aiter之间的随机系数向量。
如果|Aiter|≤NA,NA=1,刚算法进入开采利用阶段。
a.开采利用阶段
Figure BDA0003048782980000042
式中,
Figure BDA0003048782980000043
和Xind(iter-1)分别是第iter-1次迭代时的局部最优解和当前解位 置。D1度量当前
Figure BDA0003048782980000044
与最优Xind(iter-1)解之间的距离,以影响算法朝当前最优解
Figure BDA0003048782980000045
之间的距离。
根据判定参数qr选择SEM 1或BNAS更新策略。
SEM 1更新策略如下:
如果qr<Np,Np=0.5则通过SEM 1更新个体的位置Xind(iter),并且qr是具有0<qr<1 约束的随机值。
Figure BDA0003048782980000051
BNAS更新策略如下:
如果qr≥Np,则通过螺旋式BNAS更新个体的位置Xind(iter)。
Figure BDA0003048782980000052
式中,常数b与螺旋曲线的变化有关,b=1。lr为随机值,约束条件为-1<1r<1。
如果|Aiter|>NA,刚算法进入开发和搜索阶段,并通过SEM 2更新个体的位置。
SEM 2策略更新如下:
b.开发和搜索阶段
Figure BDA0003048782980000053
式中,C为2pr,Xind(iter-1)和
Figure BDA0003048782980000054
分别是在第iter-1次迭代时当前个体和 其他随机选择的个体的位置。在第iter-1次迭代时,D2度量当前Xind(iter-1)和其他随机 选择的解
Figure BDA0003048782980000055
之间的距离,以促进算法有效地逃离局部最优解。
3)与改进的IELM算法:包括V-ELM和ML-ELM,结合计算准确率并将其转换为 适应值。
a.与V-ELM结合
为了避免对最佳个体的误判,选出前12名较好的个体并投票做最终决定。
Figure BDA0003048782980000056
式中,zn是投票器个数。根据适合度值选择前个zn=12个体
Figure BDA0003048782980000057
其中,1≤z≤zn,fde是个体的解码函数,Y1(iter),…,Yz(iter),…,Yzn(iter)是单隐层ELM的 估计值。
Figure BDA0003048782980000058
式中,felm是关于基本的ELM分类方法的函数,Xfea即YPLC是线性组合特征。其中felm函数操作如下:
fde为WOA-ELM中的个体解码函数,H是隐藏层的输出,定义如下:
H(iter)=g(Wz(iter)Xfea+bz(iter))
其中,g(·)是激活函数,Xfea是输入的线性组合特征,迭代iter处的隐藏层权重β(iter)定 义如下:
β(iter)=(C0I+H(iter)H(iter)T)-1H(iter)Tlabel-
其中,C0是正则化系数,C0=101,I为单位矩阵,Tlabel是真实标签。Y(iter)是WOA-ELM 算法的估计值。通过估计值Y(iter)和真标签Tlabel,我们可以得到分类准确率和适应值。Y(iter) 定义如下:
Yz(iter)=H(iter)β(iter)
对较优个体的单隐层ELM的估计值Y1(iter),…,Yz(iter),…,Yzn(iter)投票:
Yv(iter)=fvote(Y1(iter),…,Yz(iter),…Yzn(iter))
fvote是投票函数,根据较优个体的估计值Y1(iter),…,Yz(iter),…,Yzn(iter),采用少数服 从多数的投票策略,如果票数相同,则取最优个体的结果。通过训练集的投票评估后的值 Yv(iter)和真实的标签值Tlabel,估计准确率并计算适应度值。
b.与ML-ELM结合
ML-ELM基于多层神经网络,原始ML-ELM中的输入层节点Xfea与隐藏层节点之间 的初始连接权重Wi(iter)和偏置bi(iter)遵循随机设置方法;而在WOA-MLELM中则通过 BNAS和SEM优化初始权重和偏置,在不同的隐藏层间引入不同的正则化机制Ci、Ck+1来生成合适的稀疏权重矩阵,提高WOA-MLELM的泛化性能。
[W1(iter),b1(iter),…,Wk(iter),bk(iter)]=fde(Xind(iter))
式中,fen是从连接权重Wi(iter)和偏置bi(iter)到WOA-MLELM中的个体Xind(iter)的解 码函数,H是隐藏层的输出,定义如下:
Figure BDA0003048782980000061
式中,g(·)是激活函数,Xfea是输入的线性组合特征。当0≤i≤k=2时,通过伪逆计 算的隐藏层权重βi(iter)定义如下:
Figure BDA0003048782980000062
Figure BDA0003048782980000063
式中,r0=0.05是常系数,I为单位矩阵,j是Hi(iter)矩阵中的行序号,rj是Hi(iter)矩 阵中行向量的平均值,Ci是第i层隐藏层处的正则化因子,C1=101和Ck=C2=104,LH是 一个对角矩阵,由Hi(iter)Hi(iter)T矩阵中每个行向量中的最大值组成的对角矩阵。
βk+1(iter)=(Ck+1I+Hk(iter)Hk(iter)T)-1Hk(iter)Tlabel.
式中,I为单位矩阵,通过在隐藏层k+1处的正则化因子和真实标签Tlabel,得到WOA-MLELM算法的估计值Yml(iter),进而估计准确率并计算适应度值。其中 Ck+1=C3=102
Yml(iter)=Hk(iter)βk+1(iter)
4)更新最优解及对应准确率。
更新当前迭代最优解
Figure BDA0003048782980000071
及对应的准确率,获得全局历史迭代最优解和准确 率。通过该方法可以完成测试集中脑电信号的分类,通过输入EEG信号获得输出估计值 Yml(iter)和Yv(iter),与阈值0做对比,预测值大于0,刚为类别1,预测值小于0,则为类别2,从而判断测试集中该信号的在二分类问题中的类别。
为了验证IWOA-ELM算法的有效性,采用BCI(Brain Computer Interface)脑机接口竞 赛第二届Ia数据集,每个样本中有6个电极,每段有896个采样点,有用的时间段为3.5s。
我们通过实验验证了IWOA-ELM算法的性能,结果见表1和图3,括号内和括号外的值分别是最高分类准确率ACCmax和平均分类准确率ACCavg。首先,采用慢皮层电位(SCP) 和伽玛带功率(GBP)作为特征提取,线性分类器的准确率为88.70%。神经网络作为分类 器,β带比能(BBSE)结合SCP作为特征提取方法,准确率为91.47%;小波包树(WPT) 作为特征提取方法,准确率为90.80%。将谱质心(SC)与SCP相结合作为特征提取方法, Bayes作为分类器,准确率为90.44%。将二阶多项式(CSOP)的系数与KNN相结合,准 确率为92.15%。
另外,PCA结合LDA作为特征提取,基于ELM的改进算法作为分类器。作为分类器。当采用基础原始的ELM分类器时,ACCmax是92.83%,ACCavg是89.2%;当采用CELM作 为分类器时,ACCmax是92.78%;当V-ELM用作分类器时,ACCmax为93.52%,而ACCavg为 92.30%;MLELM用作分类器时,ACCmax是94.20%,而ACCavg是89.83%;当使用HELM 作为分类器时,ACCmax是94.54%,而ACCavg是90.94%。
最后,PCA结合LDA作为特征提取,采用群智能优化的ELM改进方法作为分类器。 当BA-ELM作为分类器时,ACCmax为95.21%,比原ELM算法高2.38%;ACCavg为91.12%, 比原ELM算法高1.92%;当WOA-ELM算法作为分类器时,ACCmax为95.89%,而ACCavg为 91.77%;当WOA-VELM算法作为分类器时,ACCmax为95.89%,平均准确率ACCavg为93.36%; 当WOA-MLELM作为分类器时,ACCmax为95.89%,而ACCavg为93.67%。
表1 IWOA-ELM与其他方法在BCI数据测试集上的对比结果
Figure BDA0003048782980000081
WOA-ELM、WOA-VELM和WOA-MLELM的最高分类准确率分别比ELM、VELM 和MLELM高3.06%、2.37%、2.38%;WOA-ELM、WOA-VELM和WOA-MLELM的平均 分类准确率分别比ELM、VELM和MLELM高2.57%、1.06%、3.84%;因此,WOA优化 的ELM算法优于随机初始化的ELM算法。WOA-VELM的平均分类准确率ACCavg比 WOA-ELM高1.9%;因此,选择前几名的较好的精英个体并投票做决策,可以避免最佳个 体的误判,而且比没加投票策略前更好。WOA-MLELM的最高分类准确率ACCmax比 WOA-ELM高0.69%,WOA-MLELM的平均分类准确率ACCavg比WOA-ELM高1.59%;因 此,在不同的层中引入不同的正则化机制是有效的,并且比未引入的正则化机制的算法效 果更好。如表1和图3所示,与其他经典的特征提取和分类方法相比,该方法取得了较佳 的分类效果。

Claims (4)

1.基于改进的仿生群智能IWOA-ELM脑电分类方法,包括模型预处理、特征提取和分类识别模块;具体包括以下步骤:
A.步骤(1)脑电信号预处理
把得到脑电数据随机打乱并归一化,并用交叠的滑动时间窗口对数据分段,得到分段后的子数据;
B.步骤(2)提取脑电结合特征
1)通过PCA在分段数据内提取主成分特征,并消除冗余噪声;
2)通过LDA在分段数据内提取考虑训练数据标签信息的判别性特征;
3)得到PCA和LDA后的线性结合特征;
C步骤(3)脑电信号分类识别
IWOA-ELM分类模型的过程如下:
1)对问题进行建模,并产生初始种群;
2)利用仿生策略更新距离度量和位置;
3)与改进的IELM算法结合计算准确率并将其转换为适应值;
4)更新最优解及对应准确率。
2.根据权利要求1所述的基于改进的仿生群智能IWOA-ELM脑电分类方法,其特征在于:步骤(1)所述模型预处理具体为:
首先,把得到脑电数据随机打乱并归一化;然后,考虑脑电信号的复杂性和不稳定性,用交叠的滑动窗口分段来保留脑电信号中的有用信息;基于实验室早期的工作,也选择A1和A2优势电极,每个电极有896维;每个电极的数据通过一个500ms的时间窗口和125ms的交叠窗口被分成9段子数据,A1和A2两个电极一共18段子数据,每个子数据段有128维。
3.根据权利要求1所述的基于改进的仿生群智能IWOA-ELM脑电分类方法,其特征在于:步骤(2)所述提取结合特征具体为:
通过PCA和LDA获得线性结合特征;
1)首先分别对每段分段数据进行PCA降维;
通过优化目标函数LP(wP)获得权重WP
Figure FDA0003048782970000021
其中Cvar是输入子数据段XP的协方差,λP为特征向量wP对应的特征值,权重WP矩阵由对应的一系列特征向量wP组成;
通过子数据XP和获得的WP得到YP
YP=XPWp
其中,N为样本数,M每个脑电样本中每个分段经过PCA处理前的输入维数,
Figure FDA0003048782970000022
对每个样本中的18个数据段中的每个子数据进行PCA并降低到D=16维,此时累计贡献率大于99%;
2)其次,分别对PCA降维后的每段分段数据进行LDA转换;通过优化目标函数LPL(wPL)获得权重WPL
Figure FDA0003048782970000023
其中SW和SB分别是经过LDA后的分段子特征XPL,即YP,的类内和类间协方差,λPL为特征向量wPL对应的特征值,权重WPL矩阵由对应的一系列特征向量wPL组成;
通过输入子特征XPL和获得的WPL得到LDA的输出特征YPL
Figure FDA0003048782970000024
对每个样本中的18个数据段的每个子数据XPL分别进行LDA操作得到YPL;由于实验数据集是一个二分类问题,因此每个16维特征子数据被映射到1维空间;
3)得到PCA和LDA后的线性结合特征;
每个样本有18个1维特征子数据,这18个1维特征子数据结合成一个18维特征向量,这个18维特征向量便是线性组合特征,所有样本的非线性组合特征记作YPLC
4.根据权利要求1所述的基于改进的仿生群智能IWOA-ELM脑电分类方法,其特征在于:步骤(3)所述脑电信号分类识别由以下方法构建:
1)对问题进行建模,并产生初始种群;
提取的特征Xfea即YPLC和初始权重Wi(iter)、偏置bi(iter),作为IWOA-ELM的输入,编码为初始总体的个体Xind(iter-1);
Xind(iter-1)=fen(W(iter-1),b(iter-1))
式中,Xind(iter-1)是第iter-1次迭代的种群中个体,约束为1≤iter≤Niter+1,迭代次数Niter=50,ind为个体的序号,个体总数60;W(iter-1)和b(iter-1)分别是权重矩阵和偏置,由WOA随机初始化和优化;fen是IWOA-ELM中从权重Wi(iter)和偏置bi(iter)到个体Xind(iter-1)的编码函数,其中Xfea会在后面步骤(3)的3)中用到;
2)利用仿生策略更新距离度量和位置;
利用仿生策略BNAS和SEM更新种群中个体的距离度量D1或D2和位置Xind(iter);
根据判定参数Aiter,选择进入开采利用阶段或开发和探索阶段;
Figure FDA0003048782970000031
Aiter=2·aiter·pr-aiter
式中,pr是一个随机值,约束为0<pr<1;中间变量aiter从2线性减少到0,并且与Niter相关;Aiter是-aiter到aiter之间的随机系数向量;
如果|Aiter|≤NA,NA=1,刚算法进入开采利用阶段;
a.开采利用阶段
Figure FDA0003048782970000032
式中,
Figure FDA0003048782970000033
和Xind(iter-1)分别是第iter-1次迭代时的局部最优解和当前解位置;D1度量当前
Figure FDA0003048782970000034
与最优Xind(iter-1)解之间的距离,以影响算法朝当前最优解
Figure FDA0003048782970000035
之间的距离;
根据判定参数qr,选择SEM 1或BNAS更新策略;
SEM 1更新策略如下:
如果qr<Np,Np=0.5则通过SEM 1更新个体的位置Xind(iter),并且qr是具有0<qr<1约束的随机值;
Figure FDA0003048782970000036
BNAS更新策略如下:
如果qr≥Np,则通过螺旋式BNAS更新个体的位置Xind(iter);
Figure FDA0003048782970000041
式中,常数b与螺旋曲线的变化有关,b=1;lr为随机值,约束条件为-1<1r<1;
如果|Aiter|>NA,刚算法进入开发和搜索阶段,并通过SEM 2更新个体的位置;
SEM 2策略更新如下:
b.开发和搜索阶段
Figure FDA0003048782970000046
式中,C为2pr,Xind(iter-1)和
Figure FDA0003048782970000047
分别是在第iter-1次迭代时当前个体和其他随机选择的个体的位置;在第iter-1次迭代时,D2度量当前Xind(iter-1)和其他随机选择的解
Figure FDA0003048782970000044
之间的距离;
3)改进的IELM算法:包括V-ELM和ML-ELM,结合计算准确率并将其转换为适应值;
a.与V-ELM结合
为了避免对最佳个体的误判,选出前12名较好的个体并投票做最终决定;
Figure FDA0003048782970000042
式中,zn是投票器个数;根据适合度值选择前个zn=12个体
Figure FDA0003048782970000043
其中,1≤z≤zn,fde是个体的解码函数,Y1(iter),…,Yz(iter),…,Yzn(iter)是单隐层ELM的估计值;
[Y1(iter),…,Yz(iter),…,Yzn(iter)]=felm(W1(iter),b1(iter),…,Wz(iter),bz(iter),…,Wzn(iter),bzn(iter),Xfea)
式中,felm是关于基本的ELM分类方法的函数,Xfea即YPLC是线性组合特征;其中felm函数操作如下:
fde从WOA-ELM中的个体
Figure FDA0003048782970000045
到连接权重Wi(iter)和偏置bi(iter)的解码函数,H是隐藏层的输出,定义如下:
H(iter)=g(Wz(iter)Xfea+bz(iter))
其中,g(·)是激活函数,Xfea是输入的线性组合特征,迭代iter处的隐藏层权重β(iter)定义如下:
β(iter)=(C0I+H(iter)H(iter)T)-1H(iter)Tlabel.
其中,C0是正则化系数,C0=101,I为单位矩阵,Tlabel是真实标签;Y(iter)是WOA-ELM算法的估计值;通过估计值Y(iter)和真标签Tlabel,得到分类准确率和适应值;Y(iter)定义如下:
Yz(iter)=H(iter)β(iter)
对较优个体的单隐层ELM的估计值Y1(iter),…,Yz(iter),…,Yzn(iter)投票:
Yv(iter)=fvote(Y1(iter),…,Yz(iter),…Yzn(iter))
fvote是投票函数,根据较优个体的估计值Y1(iter),…,Yz(iter),…,Yzn(iter),采用少数服从多数的投票策略,如果票数相同,则取最优个体的结果;通过训练集的投票评估后的值Yv(iter)和真实的标签值Tlabel,估计准确率并计算适应度值;
b.与ML-ELM结合
ML-ELM基于多层神经网络,原始ML-ELM中的输入层节点Xfea与隐藏层节点之间的初始连接权重Wi(iter)和偏置bi(iter)遵循随机设置方法;而在WOA-MLELM中则通过BNAS和SEM优化初始权重和偏置,在不同的隐藏层间引入不同的正则化机制Ci、Ck+1来生成合适的稀疏权重矩阵,提高WOA-MLELM的泛化性能;
[W1(iter),b1(iter),…,Wk(iter),bk(iter)]=fde(Xind(iter))
式中,fen是从连接权重Wi(iter)和偏置bi(iter)到WOA-MLELM中的个体Xind(iter)的解码函数,H是隐藏层的输出,定义如下:
Figure FDA0003048782970000051
式中,g(·)是激活函数,Xfea是输入的线性组合特征;当0≤i≤k=2时,通过伪逆计算的隐藏层权重βi(iter)定义如下:
Figure FDA0003048782970000052
Figure FDA0003048782970000053
式中,r0=0.05是常系数,I为单位矩阵,j是Hi(iter)矩阵中的行序号,rj是Hi(iter)矩阵中行向量的平均值,Ci是第i层隐藏层处的正则化因子,C1=101和Ck=C2=104,LH是一个对角矩阵,由Hi(iter)Hi(iter)T矩阵中每个行向量中的最大值组成的对角矩阵;
βk+1(iter)=(Ck+1I+Hk(iter)Hk(iter)T)-1Hk(iter)Tlabel.
式中,I为单位矩阵,通过在隐藏层k+1处的正则化因子和真实标签Tlabel,得到WOA-MLELM算法的估计值Yml(iter),进而估计准确率并计算适应度值;其中Ck+1=C3=102
Yml(iter)=Hk(iter)βk+1(iter)
4)更新最优解及对应准确率;
更新当前迭代最优解
Figure FDA0003048782970000061
及对应的准确率,获得全局历史迭代最优解和准确率;通过该方法完成测试集中脑电信号的分类,通过输入EEG信号获得输出估计值Yml(iter)和Yv(iter),与阈值0做对比,预测值大于0,刚为类别1,预测值小于0,则为类别2,从而判断测试集中该信号的在二分类问题中的类别。
CN202110481848.0A 2021-04-30 2021-04-30 一种基于仿生群智能iwoa-elm脑电分类方法 Pending CN113326736A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110481848.0A CN113326736A (zh) 2021-04-30 2021-04-30 一种基于仿生群智能iwoa-elm脑电分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110481848.0A CN113326736A (zh) 2021-04-30 2021-04-30 一种基于仿生群智能iwoa-elm脑电分类方法

Publications (1)

Publication Number Publication Date
CN113326736A true CN113326736A (zh) 2021-08-31

Family

ID=77414020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110481848.0A Pending CN113326736A (zh) 2021-04-30 2021-04-30 一种基于仿生群智能iwoa-elm脑电分类方法

Country Status (1)

Country Link
CN (1) CN113326736A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503616A (zh) * 2016-09-20 2017-03-15 北京工业大学 一种基于分层超限学习机的运动想象脑电信号分类方法
CN110680313A (zh) * 2019-09-30 2020-01-14 北京工业大学 一种基于脉冲群智能算法并结合stft-psd和pca的癫痫时期分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503616A (zh) * 2016-09-20 2017-03-15 北京工业大学 一种基于分层超限学习机的运动想象脑电信号分类方法
CN110680313A (zh) * 2019-09-30 2020-01-14 北京工业大学 一种基于脉冲群智能算法并结合stft-psd和pca的癫痫时期分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHAOYANG LIAN等: "The Improved ELM Algorithms Optimized by Bionic WOA for EEG Classification of Brain Computer Interface", 《IEEE ACCESS》, 28 April 2021 (2021-04-28), pages 1 - 13 *

Similar Documents

Publication Publication Date Title
Wang et al. A review on extreme learning machine
Shiri et al. A comprehensive overview and comparative analysis on deep learning models: CNN, RNN, LSTM, GRU
Ghasedi Dizaji et al. Deep clustering via joint convolutional autoencoder embedding and relative entropy minimization
Chen Deep learning with nonparametric clustering
Wang et al. Research on Healthy Anomaly Detection Model Based on Deep Learning from Multiple Time‐Series Physiological Signals
Yang et al. Combined wireless network intrusion detection model based on deep learning
CN110472817A (zh) 一种结合深度神经网络的XGBoost集成信用评价系统及其方法
Li et al. A novel double incremental learning algorithm for time series prediction
CN109919364A (zh) 基于自适应降噪和集成lstm的多变量时间序列预测方法
Yang et al. Real-time intrusion detection in wireless network: A deep learning-based intelligent mechanism
CN112270345B (zh) 基于自监督字典学习的聚类算法
CN112528804A (zh) 基于生成对抗网络的肌电信号降噪和分类方法
Yin Nonlinear dimensionality reduction and data visualization: a review
CN105023006B (zh) 基于增强型非参数最大边缘准则的人脸识别方法
CN112529638B (zh) 基于用户分类和深度学习的服务需求动态预测方法及系统
Li et al. Robust and structural sparsity auto-encoder with L21-norm minimization
Ouyang Feature learning for stacked ELM via low-rank matrix factorization
CN111144500A (zh) 基于解析高斯机制的差分隐私深度学习分类方法
CN116738330A (zh) 一种半监督域自适应脑电信号的分类方法
Hu et al. An efficient Long Short-Term Memory model based on Laplacian Eigenmap in artificial neural networks
Zhang et al. An intrusion detection method based on stacked sparse autoencoder and improved gaussian mixture model
Bhadoria et al. Bunch graph based dimensionality reduction using auto-encoder for character recognition
CN108388918B (zh) 具有结构保持特性的数据特征选择方法
Ma et al. sEMG‐based neural network prediction model selection of gesture fatigue and dataset optimization
CN117093924A (zh) 基于域适应特征的旋转机械变工况故障诊断方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination