CN111144443A - 一种基于智能优化算法改进超限学习机解决分类问题的方法 - Google Patents

一种基于智能优化算法改进超限学习机解决分类问题的方法 Download PDF

Info

Publication number
CN111144443A
CN111144443A CN201911224537.5A CN201911224537A CN111144443A CN 111144443 A CN111144443 A CN 111144443A CN 201911224537 A CN201911224537 A CN 201911224537A CN 111144443 A CN111144443 A CN 111144443A
Authority
CN
China
Prior art keywords
optimization algorithm
intelligent optimization
acc
hidden layer
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911224537.5A
Other languages
English (en)
Inventor
赵亮
赵伟莨
林娜
拱长青
石峻岭
郦铸辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Aerospace University
Original Assignee
Shenyang Aerospace University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Aerospace University filed Critical Shenyang Aerospace University
Priority to CN201911224537.5A priority Critical patent/CN111144443A/zh
Publication of CN111144443A publication Critical patent/CN111144443A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于智能技术领域,具体涉及一种智能优化算法改进超限学习机解决分类问题的通用方法。包括以下步骤:步骤1:初始化在线超限学习机(OS‑ELM)的参数,包括训练集,验证集,隐层节点的个数,激活函数类型,隐层的输入矩阵IW以及隐层神经元的阈值Bias矩阵。步骤2:初始化智能优化算法的参数,包括智能优化算法的终止条件,待优化数据的维度以及各维度的上下限(范围)步骤3:初始决策模型的获取,这部分进行初始化训练来获取最初的决策模型。步骤4:在线更新决策模型,这部分使用新的数据集来对现有模型更新,可以分批次的训练。本发明可以有效地提升OS‑ELM的学习能力,具体表现为提高测试的精准度。

Description

一种基于智能优化算法改进超限学习机解决分类问题的方法
技术领域
本发明属于智能技术领域,具体涉及一种基于智能优化算法改进超限学习机解决分类问题的方法。
背景技术
智能优化算法一般是指受自然现象启发的可以解决连续函数优化问题或组合优化问题的算法,这些自然现象包括生物现象、物理现象、化学现象等。常见的智能优化算法有粒子群算法(PSO)、蚁群算法(ACO)、人工蜂群算法(ABC)、遗传算法(GA)、引力搜索算法(GSA)、模拟退火算法(SAA)等。智能优化算法被广泛的应用于科学研究和工程领域,能够有效解决一些复杂优化问题。
人工神经网络是受启发于生物学中的神经网络,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。最近几年,人工神经网络的应用更加广泛,可以实现预测估计、模式识别、自动控制等。人工神经网络已经与人们的生活息息相关。
超限学习机(ELM)是一种单隐层前馈人工神经网络。它是由输入层,隐层和输出层构成的,结构简单,可以应用于监督学习,其一些衍生的版本也可以用于半监督学习和非监督学习中。ELM具有学习速度快,泛华能力强的优点,但是由于其输入权重和隐层的阈值都是随机产生的值,所以给网络带来一定的不稳定性。在线超限学习机(OS-ELM)是在ELM的基础上实现了在线训练,可以分批次的对数据进行训练以改进决策模型,其输入权重和隐层阈值也是随机的,所以为了提高OS-ELM的稳定性,有效提高其学习能力,本专利使用智能优化算法优化其输入权重和隐层阈值。
发明内容
针对在线超限学习机的随机生成输入权重和隐层阈值使的神经网络不稳定,对数据拟合能力较差的问题,本发明采用了智能优化算法作为外层框架来对其进行选取优化,提高对OS-ELM的学习能力。
本发明提供了一种基于智能优化算法改进超限学习机解决分类问题的方法,包括以下步骤:
步骤1:初始化在线超限学习机OS-ELM的参数,初始化参数包括训练集,验证集,隐层节点的个数,激活函数类型,隐层的输入权重矩阵IW以及隐层神经元的阈值Bias矩阵;
步骤2:初始化智能优化算法的参数,初始化智能优化算法的参数包括智能优化算法的终止条件,待优化数据的维度以及各维度的上下限范围;
步骤3:初始决策模型的获取,原始的OS-ELM可分为了初始化和在线学习两个阶段,两个阶段都只有训练集参与训练过程。本发明将初始的训练集和验证集进行融合的训练,通过对训练集的训练可以得到初始的决策模型,验证集用于对决策模型进行优化改进。具体的方法为,由训练集得到的决策模型作用于验证集可以得到一个验证精度ACCv,通过公式(1)所示的适应度值函数可以反馈了当前决策模型(IW,Bias,η)的优劣程度。智能优化算法根据适应度值函数的反馈来调整隐层输入矩阵IW和隐层的阈值Bias的值,Fitness越接近0代表IW,Bias 的值越好;
Fitness=1-ACCtn×ACCv+|ACCtn-ACCv| 公式(1)
其中,ACCtn和ACCv分别代表了训练集的训练精度和验证集的验证精度,这两个值均是介于0和1之间的值;ACCtn×ACCv的值域为[0,1],|ACCtn-ACCv|则是反映训练精度和验证精度的差值;
步骤4:在线更新决策模型,OS-ELM的在线学习部分对现有的决策模型(IW, Bias,η)进行更新,本发明加入了智能优化算法作为外层框架来优化决策模型的选取过程,这个优化过程与步骤3是类似的,原始OS-ELM中的在线学习部分被转化成了评估函数的形式,评估决策模型优劣的适应度值的函数同样采用公式(1)。
进一步地,所述的步骤1中,训练集和验证集是通过预处理得到的,在执行监督学习时,数据集的中的数据条目包括了分类的类别以及各个特征数据项,所有的特征数据项都会经过归一化处理,公式(2)为采用的归一化的公式;此外,初始化时隐层的输入矩阵IW以及隐层神经元的阈值Bias矩阵的每一个元素都是介于-1到1之间的随机数;
Figure RE-GDA0002397064840000031
进一步地,所述的步骤2中,待优化数据的维度指由IW和Bias构成的待优化数据IB的维度。OS-ELM中IW的维度为(Nhd,Nip),而Bias的维度为(Nhd,1),其中Nhd,Nip分别为隐层节点个数和输入层节点个数,将IW和Bias共同构成一个待优化的量IB,IB的维度为(1,Nhd×(Nip+1)),IB保留了IW和Bias的所有信息,只不过改变的矩阵的表现形式,在初始化时IB的每一元素都是一个介于 -1到1之间的随机值。
本发明所提出的智能优化算法改进在线超限学习机解决分类问题的通用框架可以有效地提升OS-ELM的学习能力,具体表现为提高测试的精准度。此外,这种改进的思想可以应用于许多其它类型的人工神经网络,可以实现参数的自适应调节,降低人工调参的工作量。
附图说明
图1为本发明的流程图;
图2为OS-ELM的结构示意图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参考图1-2,本发明提供了一种基于智能优化算法改进超限学习机解决分类问题的方法,包括以下步骤:
步骤1:初始化在线超限学习机(OS-ELM)的参数;
在步骤1中,初始化OS-ELM参数包括训练集,验证集,隐层节点的个数,激活函数类型,输入层到隐层的输入矩阵IW以及隐层神经元的阈值Bias矩阵。训练集和验证集是通过预处理得到的,在执行监督学习时,数据集中的数据条目包括了分类的类别以及各个特征项,各个特征项都会经过归一化处理的。输入层到隐层的输入矩阵IW以及隐层神经元的阈值Bias矩阵的每一个元素都是介于-1 到1之间的随机数。公式(2)为可采用的归一化的公式。
Figure RE-GDA0002397064840000041
Figure RE-GDA0002397064840000042
步骤2:初始化智能优化算法的参数;
步骤2中初始化的智能优化算法的参数包括智能优化算法的终止条件,待优化数据的维度以及各维度的上下限(范围)。这里的终止条件可以预先设定,依据具体的情况来设定,可以是智能算法中迭代的次数或者是需要达到的精度。待优化的数据是指IW以及Bias,OS-ELM中IW的维度为(Nhd,Nip),而Bias的维度为(Nhd,1),其中Nhd,Nip分别为隐层节点个数和输入层节点个数,本方案中将IW和Bias共同构成一个待优化的量IB,IB的维度为(1,Nhd×(Nip+1)), IB中每个元素的取值范围是-1到1,在初始化时IB的每一元素都是一个介于上下限之间的随机值。
步骤3:初始决策模型的获取;
步骤3中OS-ELM使用初始的训练集和验证集进行融合的训练,训练集用于得到初始的决策模型,而验证集则用于对决策模型进行优化改进,在训练的过程中智能优化算法将优化决策模型的过程转化成了一个连续函数优化问题。智能优化算法可以对OS-ELM中随机生成的输入矩阵IW和隐层的阈值Bias进行调整,找到最优解,通过公式(1)所示的适应度值函数,可以调节智能优化算法对于IW,Bias的选取过程,有效地避免欠拟合和过拟合.
Fitness=1-ACCtn×ACCv+|ACCtn-ACCv| 公式(1)
在公式(1)中,ACCtn和ACCv分别代表了训练集的训练精度和验证集的验证精度,这两个值均是介于0和1之间的值。该公式的适应度值越小,代表选取的IB更优。ACCtn×ACCv的值域为[0,1],当ACCtn和ACCv都趋近于1时, 1-ACCtn×ACCv的值越小,表示IB更优,而|ACCtn-ACCv|则是反映训练精度和验证精度的差值,两者差异越大,说明发生了过拟合或者欠拟合的概率就越大,1-ACCtn×ACCv和|ACCtn-ACCv|相加会使得公式(1)的值变大。由此可见,公式(1)能够调节IB的选取过程,保证ACCtn和ACCv尽可能大的同时,缩小二者的差异,减少发生过拟合和欠拟合的概率。
为了便于描述适应度值函数的获取,首先对OS-ELM的过程进行简单概述。 OS-ELM可以分为两个部分,第一部分是初始化学习阶段,第二部分是对现有的模型进行在线更新阶段,数据可以分批次的进行训练。在ELM中,隐层和输出层之间的权重计算公式如下:
Figure RE-GDA0002397064840000061
其中
Figure RE-GDA0002397064840000062
为隐层的输出矩阵H的广义逆矩阵,T为包含数据标签信息的的矩阵。
OS-ELM相比于ELM实现了在线学习,DSinit和DSblock分别是初始训练的数据集和用于更新模型的数据集。Ni表示数据集的条目数量。xi是一条数据的特征项,ti是对应于xi的标签。
Figure RE-GDA0002397064840000063
然后,将问题转换为最小化公式(5),从初始训练数据导出H0和T0,同时从新数据集获得H1和T1
Figure RE-GDA0002397064840000064
通过一系列的矩阵运算,可以得到隐层输出权重η的更新公式
Figure RE-GDA0002397064840000065
Figure RE-GDA0002397064840000066
其中
Figure RE-GDA0002397064840000067
Ri的迭代公式为公式(8)和公式(9)
Figure RE-GDA0002397064840000068
Figure RE-GDA0002397064840000069
从以上的步骤可以获取η的迭代公式,η正是通过训练新数据需要更新的的模型。智能优化算法改进在线超限极限学习机的主要思想是将问题转化成连续函数优化问题。OS-ELM初始化训练和在线学习得到模型的评判均可用适应度函数来表示。
初始化训练适应度值的计算如算法1所示:
算法1初始化学习的函数描述如下,
[01]将初始训练集DSinit的标签T和特征数据P分离
[02]根据P的维度获取训练集条目数量Ntn和输入节点数量Nip
[03]构建一个维度为(Ntn,Nip)的零矩阵T',Ntn为数据集的条目数量,Nip为输入神经元数量,也是数据标签的类别数量。
[04]对于n等于1到n等于Ntn,执行[05],n变化的步长为1
[05]令T'中的每个标签位置1,即:T'[n,T[n,0]]=1
[06]将对应标签的位置置1,其它数据为则置为-1,即:T=T'*2-1
[07]把IB调整成维度是(Nhd,Nip+1)的矩阵IB'
[08]将矩阵IB'进行分割,其中IW为IB'的1到Nip列,Bias为IB'的第Nip+1列
[09]使用激活函数Actfunc计算H0,即:H0=Actfun(P,IW,Bias)
[10]通过公式(8)计算R0
[11]通过公式(3)计算η
[12]通过类似于[01]-[06]的步骤得到Tv,Pv,Tv,Pv分别为由验证集DSv得到的标签和特征数据矩阵
[13]使用激活函数Actfunc计算Hv,即:Hv=Actfunc(Pv,IW,Bias)
[14]计算训练集和验证集的预测标签矩阵Y,Yv,即:Y=H0η,Yv=Hvη
[15]通过对比预测标签矩阵与真实标签T,Tv,计算ACCtn和ACCv
[16]通过公式(1)计算适应度值
[17]返回Fitness,η,P0
在算法(1)中,Actfunc为适应度值函数,DSv为验证集,Tv,Pv分别为由验证集分离得到的标签和特征项矩阵,Y,Yv分别为包含训练集和验证集预测标签信息的矩阵。
步骤4:在线更新决策模型
在线更新决策模型的过程是以OS-ELM的在线训练过程为基础,智能优化算法作为外层框架,通过在线更新决策模型的适应度值函数的反馈来调节决策模型的选取过程,可以实现分批次的训练。
在线更新决策模型的适应度值计算的过程根据算法2的[01]到[17]执行
算法(2)在线学习函数描述如下:
[01]将从智能算法中获取的IB进行格式调整,使IB'成为(Nhd,Nip+1)的矩阵
[02]将矩阵IB'进行分割,其中IW为IB'的1到Nip列,Bias为IB'的第Nip+1列
[03]将新的数据集DSblock的标签和特征数据分割成两个矩阵,分别为Tb,Pb
[04]获取的DSblock的条目数Nb,并构建一个维度为(Nb,Nip)的零矩阵T′b
[05]对于n等于1到n等于Nb,执行[06],n变化的步长为1
[06]令T'中的每个标签位置1,即:T′b[n,Tb[n,0]]=1
[07]将对应标签的位置置1,其它数据为则置为-1,即:Tb=T′b*2-1
[08]使用激活函数计算Hi,即:Hi=ActfunC(Pb,IW,Bias)
[09]通过公式(8)或者公式(9)计算Ri+1
[10]Pi+1=Ri+1 -1
[11]通过公式(7)计算η
[12]通过类似于[01]-[06]的步骤得到Tv,Pv,Tv,Pv分别为由验证集DSv得到的标签和特征数据矩阵
[13]使用激活函数Actfunc计算Hv,即:Hv=Actfunc(Pv,IW,Bias)
[14]计算训练集和验证集的预测标签矩阵Y,Yv,即:Y=Hiη,Yv=Hvη
[15]通过对比预测标签矩阵与真实标签T,Tv,计算ACCtn和ACCv
[16]通过公式(1)计算适应度值
[17]返回Fitness,η,Pi+1
算法(1)和算法(2)均嵌入在智能优化算法中,作为适应度值函数,智能优化算法会通过适应度值的变化来调节IB各个元素的值,使得得到的决策模型更优。
步骤3和步骤4均将OS-ELM的优化问题转化成连续函数优化问题,外层使用了智能算法对其权值进行调优,标准OS-ELM的初始化决策模型和在线更新决策模型的部分均转化成适应度值函数的计算来调整整个训练过程。
图2展示的OS-ELM的基本结构图,OS-ELM包括了输入层,隐层和输出层。输入层到隐层的权值以及隐层的阈值都是随机产生的,隐层的输出权值通过训练来获取。在解决分类问题时,输出层的输出为包含每条数据类别信息的矩阵。
表1为多种智能优化算法改进的OS-ELM与改进前的OS-ELM进行对比实验表。测试的智能优化算法包括粒子群算法(PSO),引力搜索算法(GSA),灰狼优化算法(GWO),鲸鱼算法(WOA),花授粉算法(FPA)。对比实验中采用的数据集来自公开的UCI机器学习数据库,为了在同一条件下进行对比,实验中的隐层神经元数量设置为20,激活函数为sigmoid。本发明提出的智能优化算法改进在线超限学习机的通用框架可以有效提升OS-ELM的学习能力,提高模型的泛化能力,具体表现为提升了对于测试集的测试精准度。每一种通过智能优化算法改进的OS-ELM均比标准的OS-ELM的测试精准度更高。不同的智能优化算法改进的OS-ELM的性能不同是由于不同的智能优化算法解决连续函数优化问题的能力不同,这种差异来源于智能算法本身。
Figure RE-GDA0002397064840000101
表1
对比实验证明了本发明提出的智能优化算法改进在线超限学习机的通用框架的有效性。本发明不局限于优化OS-ELM,对于人工神经网络的优化均有一定的借鉴意义,智能优化算法可以用于人工神经网络的自动调参,使人工神经网络能够发挥出最佳性能。
上面对本发明的实施方式做了简要说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (5)

1.一种基于智能优化算法改进超限学习机解决分类问题的方法,其特征在于,包括如下步骤;
步骤1:初始化在线超限学习机OS-ELM的参数,参数包括训练集、验证集、隐层节点的个数、激活函数类型、隐层的输入矩阵IW以及隐层神经元的阈值Bias矩阵;
步骤2:初始化智能优化算法的参数,包括初始化智能优化算法的终止条件,待优化数据的维度以及各维度的上下限范围;
步骤3:初始决策模型的获取,由初始训练集和验证集的融合训练得到的隐层输入矩阵IW,隐层阈值Bias以及隐层的输出矩阵η;使用初始的训练集和验证集进行融合的训练,其中,验证集用于对决策模型进行优化改进,智能优化算法作为外层的框架可以对OS-ELM中随机生成的输入矩阵IW和隐层的阈值Bias进行调整,找到最优解;
步骤4:在线更新决策模型,本步骤使用新的数据集来对现有决策模型更新,可以实现分批次的进行训练;OS-ELM算法的在线学习部分实现了对现有的决策模型(IW,Bias,η)的更新;加入智能优化算法作为外层框架来优化决策模型的选取过程,实现数据的分批次训练。
2.如权利要求1所述的一种基于智能优化算法改进超限学习机解决分类问题的方法,其特征在于,所述的步骤1中,训练集和验证集是通过预处理得到的,预处理得到的数据集中包含了分类的类别以及各种特征数据项,这些特征数据项需要进行归一化处理,公式(2)为采用的归一化的公式;初始化时隐层的输入矩阵IW以及隐层神经元的阈值Bias矩阵的每一个元素都是介于-1到1之间的随机数;
Figure FDA0002301781200000021
3.如权利要求1所述的一种基于智能优化算法改进超限学习机解决分类问题的方法,其特征在于,所述的步骤2中,待优化数据的维度指由IW和Bias构成的待优化数据IB的维度;OS-ELM中IW的维度为(Nhd,Nip),而Bias的维度为(Nhd,1),其中Nhd,Nip分别为隐层节点个数和输入层节点个数,将IW和Bias共同构成一个待优化的量IB,IB的维度为(1,Nhd×(Nip+1)),IB保留了IW和Bias的所有信息,在初始化时IB的每一元素都是一个介于-1到1之间的随机值。
4.如权利要求1所述的一种基于智能优化算法改进超限学习机解决分类问题的方法,其特征在于,本方案通过公式(1)所示的适应度值函数,调节智能优化算法对于IW,Bias的选取过程,Fitness的值越接近于0代表得到的决策模型越好;
Fitness=1-ACCtn×ACCv+|ACCtn-ACCv| 公式(1)
其中,ACCtn和ACCv分别代表了训练集的训练精度和验证集的验证精度,这两个值均是介于0和1之间的值;ACCtn×ACCv的值域为[0,1],|ACCtn-ACCv|则是反映训练精度和验证精度的差值。
5.如权利要求1所述的一种基于智能优化算法改进超限学习机解决分类问题的方法,其特征在于,评估决策模型优劣的适应度值的函数同样采用公式(1)。
CN201911224537.5A 2019-12-04 2019-12-04 一种基于智能优化算法改进超限学习机解决分类问题的方法 Pending CN111144443A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911224537.5A CN111144443A (zh) 2019-12-04 2019-12-04 一种基于智能优化算法改进超限学习机解决分类问题的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911224537.5A CN111144443A (zh) 2019-12-04 2019-12-04 一种基于智能优化算法改进超限学习机解决分类问题的方法

Publications (1)

Publication Number Publication Date
CN111144443A true CN111144443A (zh) 2020-05-12

Family

ID=70517603

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911224537.5A Pending CN111144443A (zh) 2019-12-04 2019-12-04 一种基于智能优化算法改进超限学习机解决分类问题的方法

Country Status (1)

Country Link
CN (1) CN111144443A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210406369A1 (en) * 2020-06-30 2021-12-30 Mcafee, Llc Methods and apparatus to provide and monitor efficacy of artificial intelligence models
CN114282440A (zh) * 2021-12-27 2022-04-05 淮阴工学院 一种抽水蓄能机组调节系统鲁棒辨识方法
CN116646078A (zh) * 2023-07-19 2023-08-25 中国人民解放军总医院 一种基于人工智能的心血管急危重症临床决策支持系统及设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210406369A1 (en) * 2020-06-30 2021-12-30 Mcafee, Llc Methods and apparatus to provide and monitor efficacy of artificial intelligence models
US11847217B2 (en) * 2020-06-30 2023-12-19 Mcafee, Llc Methods and apparatus to provide and monitor efficacy of artificial intelligence models
CN114282440A (zh) * 2021-12-27 2022-04-05 淮阴工学院 一种抽水蓄能机组调节系统鲁棒辨识方法
CN114282440B (zh) * 2021-12-27 2023-08-25 淮阴工学院 一种抽水蓄能机组调节系统鲁棒辨识方法
CN116646078A (zh) * 2023-07-19 2023-08-25 中国人民解放军总医院 一种基于人工智能的心血管急危重症临床决策支持系统及设备
CN116646078B (zh) * 2023-07-19 2023-11-24 中国人民解放军总医院 一种基于人工智能的心血管急危重症临床决策支持系统及设备

Similar Documents

Publication Publication Date Title
CN109639710B (zh) 一种基于对抗训练的网络攻击防御方法
WO2022121289A1 (en) Methods and systems for mining minority-class data samples for training neural network
WO2022088972A1 (zh) 面向带权异质图的恶意行为识别方法、系统和存储介质
CN111144443A (zh) 一种基于智能优化算法改进超限学习机解决分类问题的方法
Gu et al. TOSELM: timeliness online sequential extreme learning machine
CN108898213B (zh) 一种面向深度神经网络的自适应激活函数参数调节方法
CN110263236B (zh) 基于动态多视图学习模型的社交网络用户多标签分类方法
CN112765461A (zh) 一种基于多兴趣胶囊网络的会话推荐方法
Yang et al. Transductive transfer learning based on broad learning system
CN111353534B (zh) 一种基于自适应分数阶梯度的图数据类别预测方法
CN115272774A (zh) 基于改进自适应差分进化算法的对抗样本攻击方法及系统
CN114757169A (zh) 基于albert模型自适应小样本学习智能纠错方法
Dai et al. An opposition-based differential evolution clustering algorithm for emotional preference and migratory behavior optimization
You et al. Online learning from incomplete and imbalanced data streams
Zheng et al. Learning associative memories by error backpropagation
Muthukannan et al. A GA_FFNN algorithm applied for classification in diseased plant leaf system
Li et al. Extreme learning machine for supervised classification with self-paced learning
Hu et al. An integrated classification model for incremental learning
Wu et al. High-accuracy handwriting recognition based on improved CNN algorithm
CN115601578A (zh) 基于自步学习与视图赋权的多视图聚类方法及系统
Zhu et al. Incremental classifier learning based on PEDCC-loss and cosine distance
Cosovic et al. Cultural heritage image classification
Kepesiova et al. Comparison of Optimization Techniques for Process Recognition Using Deep Neural Network
CN110619372A (zh) 一种高效精准的循环强化模糊分层目标识别方法
Gong et al. Surrogate models based on individual's interval fitness in interactive genetic algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200512