CN113326736A - 一种基于仿生群智能iwoa-elm脑电分类方法 - Google Patents
一种基于仿生群智能iwoa-elm脑电分类方法 Download PDFInfo
- Publication number
- CN113326736A CN113326736A CN202110481848.0A CN202110481848A CN113326736A CN 113326736 A CN113326736 A CN 113326736A CN 202110481848 A CN202110481848 A CN 202110481848A CN 113326736 A CN113326736 A CN 113326736A
- Authority
- CN
- China
- Prior art keywords
- iter
- elm
- woa
- ind
- electroencephalogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 239000011664 nicotinic acid Substances 0.000 title claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 230000007246 mechanism Effects 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims abstract description 5
- 238000013145 classification model Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 14
- 101100042258 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) sem-1 gene Proteins 0.000 claims description 6
- 238000011161 development Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000005065 mining Methods 0.000 claims description 5
- 101100042265 Caenorhabditis elegans sem-2 gene Proteins 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000003592 biomimetic effect Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 claims description 2
- 150000001875 compounds Chemical class 0.000 claims description 2
- VWDWKYIASSYTQR-UHFFFAOYSA-N sodium nitrate Chemical compound [Na+].[O-][N+]([O-])=O VWDWKYIASSYTQR-UHFFFAOYSA-N 0.000 claims description 2
- 235000001968 nicotinic acid Nutrition 0.000 claims 3
- 238000004364 calculation method Methods 0.000 claims 2
- 230000008602 contraction Effects 0.000 abstract description 2
- 210000004556 brain Anatomy 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
一种基于仿生群智能IWOA‑ELM脑电分类方法属于生物信息学领域。WOA‑VELM和WOA‑MLELM,用于更好的改善分类模型中存在的病态随机单隐层前馈神经网络的问题。在预处理和特征提取后,为了避免WOA‑ELM分类模型中最佳个体的误判,在WOA‑VELM中选出了前几名较好个体,并对其进行投票。WOA‑MLELM通过气泡网攻击策略和收缩包围机制等不同的仿生策略优化输入层节点和隐层节点之间的初始连接权值和偏置,并在不同层引入不同的正则化机制,生成合适的稀疏权值矩阵,提高WOA‑MLELM的泛化性能。结果表明,该方法的平均准确率在脑电分类数据集上优于其他方法。
Description
技术领域
本发明涉及运动想象任务中脑电信号的分类识别领域以及生物信息学领域。
背景技术
脑电信号分类技术的突破,将引发人机交互技术的又一次技术革命,这将对医疗保健、 智能汽车和仿人机器人产生重要影响。
经过预处理和特征提取后的数据主要用于脑电信号的分类和识别,因此,选择合适的 分类器来验证提取特征的有效性有利于我们对脑电信号的分析研究。常用的分类器是支持 向量机,它以结构风险最小化理论为基础,在特征空间中构造最优分割超平面。利用非线 性核映射算法,将低维输入空间的线性不可分样本转换为高维特征空间,使其线性可分, 并将基于支持向量机的算法用于脑电信号分类。然而,支持向量机对缺失数据非常敏感, 对非线性问题没有通用的解决方案。对于一些复杂的非线性问题,很难找到合适的核函数,
黄提出了一种用于分类的单隐层前馈神经网络模型,称为极限学习机(ELM)。 ML-ELM(Multi-Layer Extreme Learning Machine)通过添加隐藏层,将基础的极限学习机(ELM)引深到深层网络结构。分层极限学习机(HELM,Hierarchical ELM)通过结合稀 疏自动编码器(SAE-ELM)将其引入到深层网络结构中,提高了分类准确率。采用PCA 和LDA提取特征后,分别采用ELM、约束CELM(CELM,Constrained ELM)、ML-ELM 和HELM对脑电信号进行分类并取得了相对不错的结果。
虽然基于ELM及改进算法在脑电信号的分类任务中已经取得了不错的结果,但是基 于不同ELM分类模型的权值和偏置都是随机初始化的,容易导致产生病态随机单隐层前馈神经网络(IRSLFN,Ill-conditioned Random Single-Hidden-Layer FeedforwardNetwork) 的问题。群智能优化算法是一种仿生的随机概率启发式搜索算法,相对传统算法比较容易 跳出局部最优解,如何结合较新的群体智能算法以及各种有效的仿生策略来优化不同ELM 算法的初始化权重、偏置是一个需要解决的问题。
发明内容
针对上述背景,本发明提出采用提出结合群体智能算法以及多种高效的仿生策略优化 不同ELM算法的初始化权重、偏置等,用于提升脑电信号中分类识别准确率。
具体技术方案如下:
包括模型预处理、特征提取和分类识别模块。具体包括以下步骤:
步骤(1)脑电信号预处理
把得到脑电数据随机打乱并归一化,并用交叠的滑动时间窗口对数据分段,得到分段 后的子数据。
步骤(2)提取脑电结合特征
1)通过PCA在分段数据内提取主成分特征,并消除冗余噪声。
2)通过LDA在分段数据内提取考虑训练数据标签信息的判别性特征。
3)得到PCA和LDA后的线性结合特征。
步骤(3)脑电信号分类识别
IWOA-ELM分类模型的过程如下:
1)对问题进行建模,并产生初始种群。
2)利用仿生策略更新距离度量和位置。
3)与改进的IELM算法结合计算准确率并将其转换为适应值。
4)更新最优解及对应准确率。
有益效果
本发明了基于改进的仿生群智能IWOA-ELM脑电分类方法:WOA-VELM和 WOA-MLELM。为了避免WOA-ELM中最佳个体的误判,在WOA-VELM中选出了前几 名较好个体,并对其进行投票。WOA-MLELM通过气泡网攻击策略(BNAS,Bubble Net Attack Strategy)和收缩包围机制(SEM,Shrink and Encirclement predation Mechanism)等 不同的仿生策略优化输入层节点和隐层节点之间的初始连接权值和偏置,并在不同层引入 不同的正则化机制,生成合适的稀疏权值矩阵,提高WOA-MLELM的泛化性能。结果表 明,该方法的平均准确率在脑电分类数据集上优于其他方法。
附图说明
图1为本发明所涉及方法的整体结构图。
图2为关于IWOA-ELM分类模块的详细结构图;
图3a是IWOA-ELM算法的性能对比图;b是IWOA-ELM算法的性能图。
具体实施方式
步骤(1)脑电信号预处理
首先,把得到脑电数据随机打乱并归一化。然后,考虑脑电信号的复杂性和不稳定性, 我们用交叠的滑动窗口分段来保留脑电信号中的有用信息。基于实验室早期的工作,也选 择A1和A2优势电极,每个电极有896维。每个电极的数据通过一个500ms的时间窗口和125ms的交叠窗口被分成9段子数据,A1和A2两个电极一共18段子数据,每个子数 据段有128维。
步骤(2)提取脑电结合特征
通过PCA和LDA获得线性结合特征。
1)首先分别对每段分段数据进行PCA降维。
通过优化目标函数LP(WP)获得权重WP
其中Cvar是输入子数据段XP的协方差,λP为特征向量wP对应的特征值,权重WP矩阵由 对应的一系列特征向量wP组成。
通过子数据XP和获得的WP得到YP
YP=XPWP
对每个样本中18个数据段中的每个子数据进行PCA并降低到D=16维,此时累计贡献率大于99%。
2)其次,分别对PCA降维后的每段分段数据进行LDA转换。
通过优化目标函数LPL(wPL)获得权重WPL
其中SW和SB分别是经过LDA后的分段子特征XPL,即YP,的类内和类间协方差,λPL为特征向量wPL对应的特征值,权重WPL矩阵由对应的一系列特征向量wPL组成。
通过输入子特征XPL和获得的WPL得到LDA的输出特征YPL
对每个样本中的18个数据段的每个子数据XPL分别进行LDA操作得到YPL。由于实验数据集是一个二分类问题,因此每个16维特征子数据被映射到1维空间。
3)得到PCA和LDA后的线性结合特征。
每个样本有18个1维特征子数据,这18个1维特征子数据结合成一个18维特征向量, 这个18维特征向量便是线性组合特征,所有样本的非线性组合特征记作YPLC。
步骤(3)脑电信号分类识别
1)对问题进行建模,并产生初始种群。
提取的特征Xfea即YPLC和初始权重Wi(iter)、偏置bi(iter),作为IWOA-ELM的输入,编码为初始总体的个体Xind(iter-1)。
Xind(iter-1)=fen(W(iter-1),b(iter-1))
式中,Xind(iter-1)是第iter-1次迭代的种群中个体,约束为1≤iter≤Niter+1,迭代 次数Niter=50,ind为个体的序号,个体总数60。W(iter-1)和b(iter-1)分别是权重矩阵和 偏置,由WOA随机初始化和优化。fen是IWOA-ELM中从权重Wi(iter)和偏置bi(iter)到个体Xind(iter-1)的编码函数,其中Xfea会在后面步骤(3)的3)中用到。
2)利用仿生策略更新距离度量和位置。
利用仿生策略BNAS和SEM更新种群中个体的距离度量D1或D2和位置Xind(iter)。
根据判定参数Aiter,选择进入开采利用阶段或开发和探索阶段。
Aiter=2·aiter·pr-aiter
式中,pr是一个随机值,约束为0<pr<1。中间变量aiter从2线性减少到0,并且与Niter相关。Aiter是-aiter到aiter之间的随机系数向量。
如果|Aiter|≤NA,NA=1,刚算法进入开采利用阶段。
a.开采利用阶段
根据判定参数qr,选择SEM 1或BNAS更新策略。
SEM 1更新策略如下:
如果qr<Np,Np=0.5则通过SEM 1更新个体的位置Xind(iter),并且qr是具有0<qr<1 约束的随机值。
BNAS更新策略如下:
如果qr≥Np,则通过螺旋式BNAS更新个体的位置Xind(iter)。
式中,常数b与螺旋曲线的变化有关,b=1。lr为随机值,约束条件为-1<1r<1。
如果|Aiter|>NA,刚算法进入开发和搜索阶段,并通过SEM 2更新个体的位置。
SEM 2策略更新如下:
b.开发和搜索阶段
式中,C为2pr,Xind(iter-1)和分别是在第iter-1次迭代时当前个体和 其他随机选择的个体的位置。在第iter-1次迭代时,D2度量当前Xind(iter-1)和其他随机 选择的解之间的距离,以促进算法有效地逃离局部最优解。
3)与改进的IELM算法:包括V-ELM和ML-ELM,结合计算准确率并将其转换为 适应值。
a.与V-ELM结合
为了避免对最佳个体的误判,选出前12名较好的个体并投票做最终决定。
式中,felm是关于基本的ELM分类方法的函数,Xfea即YPLC是线性组合特征。其中felm函数操作如下:
fde为WOA-ELM中的个体解码函数,H是隐藏层的输出,定义如下:
H(iter)=g(Wz(iter)Xfea+bz(iter))
其中,g(·)是激活函数,Xfea是输入的线性组合特征,迭代iter处的隐藏层权重β(iter)定 义如下:
β(iter)=(C0I+H(iter)H(iter)T)-1H(iter)Tlabel-
其中,C0是正则化系数,C0=101,I为单位矩阵,Tlabel是真实标签。Y(iter)是WOA-ELM 算法的估计值。通过估计值Y(iter)和真标签Tlabel,我们可以得到分类准确率和适应值。Y(iter) 定义如下:
Yz(iter)=H(iter)β(iter)
对较优个体的单隐层ELM的估计值Y1(iter),…,Yz(iter),…,Yzn(iter)投票:
Yv(iter)=fvote(Y1(iter),…,Yz(iter),…Yzn(iter))
fvote是投票函数,根据较优个体的估计值Y1(iter),…,Yz(iter),…,Yzn(iter),采用少数服 从多数的投票策略,如果票数相同,则取最优个体的结果。通过训练集的投票评估后的值 Yv(iter)和真实的标签值Tlabel,估计准确率并计算适应度值。
b.与ML-ELM结合
ML-ELM基于多层神经网络,原始ML-ELM中的输入层节点Xfea与隐藏层节点之间 的初始连接权重Wi(iter)和偏置bi(iter)遵循随机设置方法;而在WOA-MLELM中则通过 BNAS和SEM优化初始权重和偏置,在不同的隐藏层间引入不同的正则化机制Ci、Ck+1来生成合适的稀疏权重矩阵,提高WOA-MLELM的泛化性能。
[W1(iter),b1(iter),…,Wk(iter),bk(iter)]=fde(Xind(iter))
式中,fen是从连接权重Wi(iter)和偏置bi(iter)到WOA-MLELM中的个体Xind(iter)的解 码函数,H是隐藏层的输出,定义如下:
式中,g(·)是激活函数,Xfea是输入的线性组合特征。当0≤i≤k=2时,通过伪逆计 算的隐藏层权重βi(iter)定义如下:
式中,r0=0.05是常系数,I为单位矩阵,j是Hi(iter)矩阵中的行序号,rj是Hi(iter)矩 阵中行向量的平均值,Ci是第i层隐藏层处的正则化因子,C1=101和Ck=C2=104,LH是 一个对角矩阵,由Hi(iter)Hi(iter)T矩阵中每个行向量中的最大值组成的对角矩阵。
βk+1(iter)=(Ck+1I+Hk(iter)Hk(iter)T)-1Hk(iter)Tlabel.
式中,I为单位矩阵,通过在隐藏层k+1处的正则化因子和真实标签Tlabel,得到WOA-MLELM算法的估计值Yml(iter),进而估计准确率并计算适应度值。其中 Ck+1=C3=102。
Yml(iter)=Hk(iter)βk+1(iter)
4)更新最优解及对应准确率。
更新当前迭代最优解及对应的准确率,获得全局历史迭代最优解和准确 率。通过该方法可以完成测试集中脑电信号的分类,通过输入EEG信号获得输出估计值 Yml(iter)和Yv(iter),与阈值0做对比,预测值大于0,刚为类别1,预测值小于0,则为类别2,从而判断测试集中该信号的在二分类问题中的类别。
为了验证IWOA-ELM算法的有效性,采用BCI(Brain Computer Interface)脑机接口竞 赛第二届Ia数据集,每个样本中有6个电极,每段有896个采样点,有用的时间段为3.5s。
我们通过实验验证了IWOA-ELM算法的性能,结果见表1和图3,括号内和括号外的值分别是最高分类准确率ACCmax和平均分类准确率ACCavg。首先,采用慢皮层电位(SCP) 和伽玛带功率(GBP)作为特征提取,线性分类器的准确率为88.70%。神经网络作为分类 器,β带比能(BBSE)结合SCP作为特征提取方法,准确率为91.47%;小波包树(WPT) 作为特征提取方法,准确率为90.80%。将谱质心(SC)与SCP相结合作为特征提取方法, Bayes作为分类器,准确率为90.44%。将二阶多项式(CSOP)的系数与KNN相结合,准 确率为92.15%。
另外,PCA结合LDA作为特征提取,基于ELM的改进算法作为分类器。作为分类器。当采用基础原始的ELM分类器时,ACCmax是92.83%,ACCavg是89.2%;当采用CELM作 为分类器时,ACCmax是92.78%;当V-ELM用作分类器时,ACCmax为93.52%,而ACCavg为 92.30%;MLELM用作分类器时,ACCmax是94.20%,而ACCavg是89.83%;当使用HELM 作为分类器时,ACCmax是94.54%,而ACCavg是90.94%。
最后,PCA结合LDA作为特征提取,采用群智能优化的ELM改进方法作为分类器。 当BA-ELM作为分类器时,ACCmax为95.21%,比原ELM算法高2.38%;ACCavg为91.12%, 比原ELM算法高1.92%;当WOA-ELM算法作为分类器时,ACCmax为95.89%,而ACCavg为 91.77%;当WOA-VELM算法作为分类器时,ACCmax为95.89%,平均准确率ACCavg为93.36%; 当WOA-MLELM作为分类器时,ACCmax为95.89%,而ACCavg为93.67%。
表1 IWOA-ELM与其他方法在BCI数据测试集上的对比结果
WOA-ELM、WOA-VELM和WOA-MLELM的最高分类准确率分别比ELM、VELM 和MLELM高3.06%、2.37%、2.38%;WOA-ELM、WOA-VELM和WOA-MLELM的平均 分类准确率分别比ELM、VELM和MLELM高2.57%、1.06%、3.84%;因此,WOA优化 的ELM算法优于随机初始化的ELM算法。WOA-VELM的平均分类准确率ACCavg比 WOA-ELM高1.9%;因此,选择前几名的较好的精英个体并投票做决策,可以避免最佳个 体的误判,而且比没加投票策略前更好。WOA-MLELM的最高分类准确率ACCmax比 WOA-ELM高0.69%,WOA-MLELM的平均分类准确率ACCavg比WOA-ELM高1.59%;因 此,在不同的层中引入不同的正则化机制是有效的,并且比未引入的正则化机制的算法效 果更好。如表1和图3所示,与其他经典的特征提取和分类方法相比,该方法取得了较佳 的分类效果。
Claims (4)
1.基于改进的仿生群智能IWOA-ELM脑电分类方法,包括模型预处理、特征提取和分类识别模块;具体包括以下步骤:
A.步骤(1)脑电信号预处理
把得到脑电数据随机打乱并归一化,并用交叠的滑动时间窗口对数据分段,得到分段后的子数据;
B.步骤(2)提取脑电结合特征
1)通过PCA在分段数据内提取主成分特征,并消除冗余噪声;
2)通过LDA在分段数据内提取考虑训练数据标签信息的判别性特征;
3)得到PCA和LDA后的线性结合特征;
C步骤(3)脑电信号分类识别
IWOA-ELM分类模型的过程如下:
1)对问题进行建模,并产生初始种群;
2)利用仿生策略更新距离度量和位置;
3)与改进的IELM算法结合计算准确率并将其转换为适应值;
4)更新最优解及对应准确率。
2.根据权利要求1所述的基于改进的仿生群智能IWOA-ELM脑电分类方法,其特征在于:步骤(1)所述模型预处理具体为:
首先,把得到脑电数据随机打乱并归一化;然后,考虑脑电信号的复杂性和不稳定性,用交叠的滑动窗口分段来保留脑电信号中的有用信息;基于实验室早期的工作,也选择A1和A2优势电极,每个电极有896维;每个电极的数据通过一个500ms的时间窗口和125ms的交叠窗口被分成9段子数据,A1和A2两个电极一共18段子数据,每个子数据段有128维。
3.根据权利要求1所述的基于改进的仿生群智能IWOA-ELM脑电分类方法,其特征在于:步骤(2)所述提取结合特征具体为:
通过PCA和LDA获得线性结合特征;
1)首先分别对每段分段数据进行PCA降维;
通过优化目标函数LP(wP)获得权重WP
其中Cvar是输入子数据段XP的协方差,λP为特征向量wP对应的特征值,权重WP矩阵由对应的一系列特征向量wP组成;
通过子数据XP和获得的WP得到YP
YP=XPWp
对每个样本中的18个数据段中的每个子数据进行PCA并降低到D=16维,此时累计贡献率大于99%;
2)其次,分别对PCA降维后的每段分段数据进行LDA转换;通过优化目标函数LPL(wPL)获得权重WPL
其中SW和SB分别是经过LDA后的分段子特征XPL,即YP,的类内和类间协方差,λPL为特征向量wPL对应的特征值,权重WPL矩阵由对应的一系列特征向量wPL组成;
通过输入子特征XPL和获得的WPL得到LDA的输出特征YPL
对每个样本中的18个数据段的每个子数据XPL分别进行LDA操作得到YPL;由于实验数据集是一个二分类问题,因此每个16维特征子数据被映射到1维空间;
3)得到PCA和LDA后的线性结合特征;
每个样本有18个1维特征子数据,这18个1维特征子数据结合成一个18维特征向量,这个18维特征向量便是线性组合特征,所有样本的非线性组合特征记作YPLC。
4.根据权利要求1所述的基于改进的仿生群智能IWOA-ELM脑电分类方法,其特征在于:步骤(3)所述脑电信号分类识别由以下方法构建:
1)对问题进行建模,并产生初始种群;
提取的特征Xfea即YPLC和初始权重Wi(iter)、偏置bi(iter),作为IWOA-ELM的输入,编码为初始总体的个体Xind(iter-1);
Xind(iter-1)=fen(W(iter-1),b(iter-1))
式中,Xind(iter-1)是第iter-1次迭代的种群中个体,约束为1≤iter≤Niter+1,迭代次数Niter=50,ind为个体的序号,个体总数60;W(iter-1)和b(iter-1)分别是权重矩阵和偏置,由WOA随机初始化和优化;fen是IWOA-ELM中从权重Wi(iter)和偏置bi(iter)到个体Xind(iter-1)的编码函数,其中Xfea会在后面步骤(3)的3)中用到;
2)利用仿生策略更新距离度量和位置;
利用仿生策略BNAS和SEM更新种群中个体的距离度量D1或D2和位置Xind(iter);
根据判定参数Aiter,选择进入开采利用阶段或开发和探索阶段;
Aiter=2·aiter·pr-aiter
式中,pr是一个随机值,约束为0<pr<1;中间变量aiter从2线性减少到0,并且与Niter相关;Aiter是-aiter到aiter之间的随机系数向量;
如果|Aiter|≤NA,NA=1,刚算法进入开采利用阶段;
a.开采利用阶段
根据判定参数qr,选择SEM 1或BNAS更新策略;
SEM 1更新策略如下:
如果qr<Np,Np=0.5则通过SEM 1更新个体的位置Xind(iter),并且qr是具有0<qr<1约束的随机值;
BNAS更新策略如下:
如果qr≥Np,则通过螺旋式BNAS更新个体的位置Xind(iter);
式中,常数b与螺旋曲线的变化有关,b=1;lr为随机值,约束条件为-1<1r<1;
如果|Aiter|>NA,刚算法进入开发和搜索阶段,并通过SEM 2更新个体的位置;
SEM 2策略更新如下:
b.开发和搜索阶段
式中,C为2pr,Xind(iter-1)和分别是在第iter-1次迭代时当前个体和其他随机选择的个体的位置;在第iter-1次迭代时,D2度量当前Xind(iter-1)和其他随机选择的解之间的距离;
3)改进的IELM算法:包括V-ELM和ML-ELM,结合计算准确率并将其转换为适应值;
a.与V-ELM结合
为了避免对最佳个体的误判,选出前12名较好的个体并投票做最终决定;
[Y1(iter),…,Yz(iter),…,Yzn(iter)]=felm(W1(iter),b1(iter),…,Wz(iter),bz(iter),…,Wzn(iter),bzn(iter),Xfea)
式中,felm是关于基本的ELM分类方法的函数,Xfea即YPLC是线性组合特征;其中felm函数操作如下:
H(iter)=g(Wz(iter)Xfea+bz(iter))
其中,g(·)是激活函数,Xfea是输入的线性组合特征,迭代iter处的隐藏层权重β(iter)定义如下:
β(iter)=(C0I+H(iter)H(iter)T)-1H(iter)Tlabel.
其中,C0是正则化系数,C0=101,I为单位矩阵,Tlabel是真实标签;Y(iter)是WOA-ELM算法的估计值;通过估计值Y(iter)和真标签Tlabel,得到分类准确率和适应值;Y(iter)定义如下:
Yz(iter)=H(iter)β(iter)
对较优个体的单隐层ELM的估计值Y1(iter),…,Yz(iter),…,Yzn(iter)投票:
Yv(iter)=fvote(Y1(iter),…,Yz(iter),…Yzn(iter))
fvote是投票函数,根据较优个体的估计值Y1(iter),…,Yz(iter),…,Yzn(iter),采用少数服从多数的投票策略,如果票数相同,则取最优个体的结果;通过训练集的投票评估后的值Yv(iter)和真实的标签值Tlabel,估计准确率并计算适应度值;
b.与ML-ELM结合
ML-ELM基于多层神经网络,原始ML-ELM中的输入层节点Xfea与隐藏层节点之间的初始连接权重Wi(iter)和偏置bi(iter)遵循随机设置方法;而在WOA-MLELM中则通过BNAS和SEM优化初始权重和偏置,在不同的隐藏层间引入不同的正则化机制Ci、Ck+1来生成合适的稀疏权重矩阵,提高WOA-MLELM的泛化性能;
[W1(iter),b1(iter),…,Wk(iter),bk(iter)]=fde(Xind(iter))
式中,fen是从连接权重Wi(iter)和偏置bi(iter)到WOA-MLELM中的个体Xind(iter)的解码函数,H是隐藏层的输出,定义如下:
式中,g(·)是激活函数,Xfea是输入的线性组合特征;当0≤i≤k=2时,通过伪逆计算的隐藏层权重βi(iter)定义如下:
式中,r0=0.05是常系数,I为单位矩阵,j是Hi(iter)矩阵中的行序号,rj是Hi(iter)矩阵中行向量的平均值,Ci是第i层隐藏层处的正则化因子,C1=101和Ck=C2=104,LH是一个对角矩阵,由Hi(iter)Hi(iter)T矩阵中每个行向量中的最大值组成的对角矩阵;
βk+1(iter)=(Ck+1I+Hk(iter)Hk(iter)T)-1Hk(iter)Tlabel.
式中,I为单位矩阵,通过在隐藏层k+1处的正则化因子和真实标签Tlabel,得到WOA-MLELM算法的估计值Yml(iter),进而估计准确率并计算适应度值;其中Ck+1=C3=102;
Yml(iter)=Hk(iter)βk+1(iter)
4)更新最优解及对应准确率;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110481848.0A CN113326736A (zh) | 2021-04-30 | 2021-04-30 | 一种基于仿生群智能iwoa-elm脑电分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110481848.0A CN113326736A (zh) | 2021-04-30 | 2021-04-30 | 一种基于仿生群智能iwoa-elm脑电分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113326736A true CN113326736A (zh) | 2021-08-31 |
Family
ID=77414020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110481848.0A Pending CN113326736A (zh) | 2021-04-30 | 2021-04-30 | 一种基于仿生群智能iwoa-elm脑电分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326736A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503616A (zh) * | 2016-09-20 | 2017-03-15 | 北京工业大学 | 一种基于分层超限学习机的运动想象脑电信号分类方法 |
CN110680313A (zh) * | 2019-09-30 | 2020-01-14 | 北京工业大学 | 一种基于脉冲群智能算法并结合stft-psd和pca的癫痫时期分类方法 |
-
2021
- 2021-04-30 CN CN202110481848.0A patent/CN113326736A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503616A (zh) * | 2016-09-20 | 2017-03-15 | 北京工业大学 | 一种基于分层超限学习机的运动想象脑电信号分类方法 |
CN110680313A (zh) * | 2019-09-30 | 2020-01-14 | 北京工业大学 | 一种基于脉冲群智能算法并结合stft-psd和pca的癫痫时期分类方法 |
Non-Patent Citations (1)
Title |
---|
ZHAOYANG LIAN等: "The Improved ELM Algorithms Optimized by Bionic WOA for EEG Classification of Brain Computer Interface", 《IEEE ACCESS》, 28 April 2021 (2021-04-28), pages 1 - 13 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | A review on extreme learning machine | |
Shiri et al. | A comprehensive overview and comparative analysis on deep learning models: CNN, RNN, LSTM, GRU | |
Ghasedi Dizaji et al. | Deep clustering via joint convolutional autoencoder embedding and relative entropy minimization | |
Chen | Deep learning with nonparametric clustering | |
Wang et al. | Research on Healthy Anomaly Detection Model Based on Deep Learning from Multiple Time‐Series Physiological Signals | |
Yang et al. | Combined wireless network intrusion detection model based on deep learning | |
CN110472817A (zh) | 一种结合深度神经网络的XGBoost集成信用评价系统及其方法 | |
Li et al. | A novel double incremental learning algorithm for time series prediction | |
CN109919364A (zh) | 基于自适应降噪和集成lstm的多变量时间序列预测方法 | |
Yang et al. | Real-time intrusion detection in wireless network: A deep learning-based intelligent mechanism | |
CN112270345B (zh) | 基于自监督字典学习的聚类算法 | |
CN112528804A (zh) | 基于生成对抗网络的肌电信号降噪和分类方法 | |
Yin | Nonlinear dimensionality reduction and data visualization: a review | |
CN105023006B (zh) | 基于增强型非参数最大边缘准则的人脸识别方法 | |
CN112529638B (zh) | 基于用户分类和深度学习的服务需求动态预测方法及系统 | |
Li et al. | Robust and structural sparsity auto-encoder with L21-norm minimization | |
Ouyang | Feature learning for stacked ELM via low-rank matrix factorization | |
CN111144500A (zh) | 基于解析高斯机制的差分隐私深度学习分类方法 | |
CN116738330A (zh) | 一种半监督域自适应脑电信号的分类方法 | |
Hu et al. | An efficient Long Short-Term Memory model based on Laplacian Eigenmap in artificial neural networks | |
Zhang et al. | An intrusion detection method based on stacked sparse autoencoder and improved gaussian mixture model | |
Bhadoria et al. | Bunch graph based dimensionality reduction using auto-encoder for character recognition | |
CN108388918B (zh) | 具有结构保持特性的数据特征选择方法 | |
Ma et al. | sEMG‐based neural network prediction model selection of gesture fatigue and dataset optimization | |
CN117093924A (zh) | 基于域适应特征的旋转机械变工况故障诊断方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |