CN109034278A - 一种基于极限学习机的elm-in-elm框架集成学习算法 - Google Patents

一种基于极限学习机的elm-in-elm框架集成学习算法 Download PDF

Info

Publication number
CN109034278A
CN109034278A CN201810800629.2A CN201810800629A CN109034278A CN 109034278 A CN109034278 A CN 109034278A CN 201810800629 A CN201810800629 A CN 201810800629A CN 109034278 A CN109034278 A CN 109034278A
Authority
CN
China
Prior art keywords
elm
model
output
models
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810800629.2A
Other languages
English (en)
Inventor
马宏宾
费庆
克莱
李楠楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gongji (beijing) Intelligent Technology Co Ltd
Original Assignee
Gongji (beijing) Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gongji (beijing) Intelligent Technology Co Ltd filed Critical Gongji (beijing) Intelligent Technology Co Ltd
Priority to CN201810800629.2A priority Critical patent/CN109034278A/zh
Publication of CN109034278A publication Critical patent/CN109034278A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于极限学习机的ELM‑IN‑ELM框架集成学习算法,ELM‑IN‑ELM框架能够自动学习组合不同的单个极限学习机模型,本方法采用ELM算法学习到的参数来组合不同的ELM输出计算最后的结果,它包括两个阶段:单个的ELM训练和融合参数学习。本发明所述ELM‑IN‑ELM框架自动地学习怎样组合不同的ELM分类器在小网络上以实现更高的性能,通过最小化分类误差和网络权重范数,将会在一个更紧凑的神经网络上获得更好的泛化性能。其他的ELM集成模型可以视为ELM‑IN‑ELM的特殊情况,使得ELM‑IN‑ELM成为基于ELM集成的一个统一的框架。几个修改和扩展应用到ELM‑IN‑ELM模型中,可以改善模型性能以解决其他问题。

Description

一种基于极限学习机的ELM-IN-ELM框架集成学习算法
技术领域
本发明涉及人工智能及机器学习技术领域,具体而言是一种基于极限学习机的ELM-IN-ELM框架集成学习算法,用于解决分类、回归、聚类和学习表示等问题。
背景技术
从数据中学习以解决现实世界中的问题已经成为人工智能和机器学习领域的一个发展趋势。用不同种类的模型去处理大量的可获得数据及其性质,比如神经网络、基因算法和支持向量机。神经网络可以视为最强大的数据驱动方法。他们通常采用BP算法来训练。然而,由于极限学习机(ELM)的出现,怎样去训练一个单层前馈神经网络(SLFN)的理解已经发生转变,调整隐藏节点的说服力也被推翻。
在ELM的背景下,黄广斌等人证实无需迭代调整参数即可进行SLFN的训练。实际上,输入权重可以根据任意的连续分布函数随机产生,输出权重通过一个线性系统的最小化范数解被解析地计算。这个解析解以及隐藏节点参数的随机性使得SLFN的训练相比于其他已存在的基于训练过程的方法(比如BP)非常快。而且,根据Bartlett理论,最小范数解确保了一个很好的泛化性能。并且基于ELM的SLFN可以在紧集上逼近任意连续目标函数。
由于速度、泛化和通用的逼近能力这些内在特征,ELM已经被广泛地应用于分类、回归、聚类和学习表示。在不同的领域已经有很多成功的应用,比如计算机视觉、控制系统、和人机接口。具有多个一致方案的神经网络的性能比单个模型要好。除此之外,在ELM学习算法的情况下,随机隐藏节点或许产生错分样本,特别是那些临近分类边界的样本,可以在实验中通过多个实现的高方差被观测到。因此结合多个ELM模型将会进一步改善泛化性能。
发明内容
本发明的目的是提供一种基于极限学习机的ELM-IN-ELM框架集成学习算法,改善泛化性能、降低基于极限学习机(ELM)集成的网络复杂度、提高训练速度,提出一个统一的学习框架,使得其能够自动学习如何组合不同的单个ELM模型。
为实现上述目的,本发明所采取的技术方案为:
一种基于极限学习机的ELM-IN-ELM框架集成学习算法,ELM-IN-ELM框架能够自动学习组合不同的单个极限学习机模型,本方法采用ELM算法学习多个ELM模型的融合参数,进而通过组合各个单个ELM模型的输出来计算最后的结果,它包括两个阶段:
第一阶段是单个的ELM训练,训练M个独立的ELM模型,
输入:数据集X,目标T,单个模型数目M,隐含层节点数L
输出:ELM-IN-ELM模型参数
产生随机输入权重W(m)和偏差b(m)
计算隐含层输出矩阵H(m)=G(XW(m)+b(m))
计算输出权重
计算输出O(m)=H(m)β(m),m=1,2,……,M
其中G(·)是任意非线性分段连续函数,同时满足ELM通用逼近能力定理;
第二阶段是基于第一个阶段的学习,计算每一个模型的输出值,然后学习多个ELM模型的融合参数;将所有单个模型输出的级联作为一个全部ELM模型的隐藏矩阵Hg
Hg=[O(1)O(2)...O(M)]
式中O(m)是第m个模型的输出;
如果所有的ELM模型有同样的大小,则Hg是一个N*MC矩阵;所计算的融合参数为全部ELM模型的输出权重是一个MC*C的矩阵,表示M个不同ELM模型贡献给最后结果的组合权重;ELM-IN-ELM模型被其参数W(m),b(m),β(m),m=1,2,...M以及输出权重F完全定义;每一个输出权重Fm是一个C×C矩阵,表示第m个单个模型和最后输出之间的连接,
ELM-IN-ELM的输出为:
ELM-IN-ELM输出是不同ELM输出的线性组合。
优选的,所述数据集X是一个N×D维矩阵表示训练数据,目标T是一个N×C维的矩阵表示类别标签的类别矩阵,目标向量进行了One-hot编码;C表示类别数,D表示特征数或者属性数,N表示训练样本数。
优选的,所有的ELM模型的输出权重Fm均为单位矩阵,最后的决策是所有单个ELM模型的和或者累加,等价于多数表决制,即基于ELM的表决制。
优选的,所有的ELM模型的输出权重Fm时,最后的决策是所有单个ELM模型输出的平均。
本发明的有益效果为:
本发明所述的ELM-IN-ELM统一框架能够自动地学习怎样组合不同的ELM分类器在小网络上以实现更高的性能,它甚至可以学到拒绝低劣的模型以消除他们在模型中的不良影响,这在传统的基于ELM的集成的模型中是不存在的。
本发明所述的算法的主要优势是它可以学习不同ELM的一个优化组合,通过最小化分类误差和网络权重范数,将会在一个更紧凑的神经网络上获得更好的泛化性能。而且,很多其他的ELM集成模型可以视为ELM-IN-ELM的特殊情况,使得ELM-IN-ELM成为基于ELM集成的一个统一的框架。几个修改和扩展应用到ELM-IN-ELM模型中,可以改善模型性能以解决其他问题。例如,ELM-IN-ELM算法可以直接应用到回归问题并且可以适应在线序列学习。
附图说明
图1(a)是ELM-IN-ELM模型整体框架示意图;
图1(b)是第m个单个ELM模型示意图;
图2是Digits dataset测试精度;
图3是Mnist dataset测试精度;
图4是Spambase测试精度;
图5是Digits dataset训练时间;
图6是Mnist dataset训练时间;
图7是Spambase训练时间。
具体实施方式
下面结合附图对本发明做进一步详细的说明。
一种基于极限学习机的ELM-IN-ELM框架集成学习算法,ELM-IN-ELM框架能够自动学习组合不同的单个极限学习机模型,本方法采用ELM算法学习多个ELM模型的融合参数,进而通过组合各个单个ELM模型的输出来计算最后的结果,它包括两个阶段:
第一阶段是单个的ELM训练,训练M个独立的ELM模型,
输入:数据集X,目标T,单个模型数目M,隐含层节点数L
输出:ELM-IN-ELM模型参数
产生随机输入权重W(m)和偏差b(m)
计算隐含层输出矩阵H(m)=G(XW(m)+b(m))
计算输出权重
计算输出O(m)=H(m)β(m),m=1,2,……,M
其中G(·)是任意非线性分段连续函数,同时满足ELM通用逼近能力定理;
第二阶段是基于第一个阶段的学习,计算每一个模型的输出值,然后学习多个ELM模型的融合参数;将所有单个模型输出的级联作为一个全部ELM模型的隐藏矩阵Hg
Hg=[O(1)O(2)...O(M)]
式中O(m)是第m个模型的输出;
如果所有的ELM模型有同样的大小,则Hg是一个N*MC矩阵;所计算的融合参数为全部ELM模型的输出权重是一个MC*C的矩阵,表示M个不同ELM模型贡献给最后结果的组合权重;ELM-IN-ELM模型被其参数W(m),b(m),β(m),m=1,2,...M以及输出权重F完全定义;每一个输出权重Fm是一个C×C矩阵,表示第m个单个模型和最后输出之间的连接,
ELM-IN-ELM的输出为:
ELM-IN-ELM输出是不同ELM输出的线性组合。
数据集X是一个N×D维矩阵表示训练数据,目标T是一个N×C维的矩阵表示类别标签的类别矩阵,目标向量进行了One-hot编码;C表示类别数,D表示特征数或者属性数,N表示训练样本数。
所有的ELM模型的输出权重Fm均为单位矩阵,最后的决策是所有单个ELM模型的和或者累加,等价于多数表决制,即基于ELM的表决制。
所有的ELM模型的输出权重Fm时,最后的决策是所有单个ELM模型输出的平均。
图1清晰地展示了根据F的大小,融合参数矩阵可以被分为M个块,每一个块相应于单个ELM模型对于最后结果的贡献。也就是说每一个Fm是一个C×C矩阵,表示第m个单个模型和最后输出之间的连接。
以Digits,mnist和Spambase三个数据集为例,图2、图3、图4展示了ELM-IN-ELM模型相对于ELM数目M和隐含节点L的测试精度;图5、图6、图7展示了ELM-IN-ELM模型相对于单个ELM数量M和隐藏节点数目L的训练时间。显然,当单个模型的数量或者隐含节点的数目增加时,性能和训练时间都会增加。为了获得较好的泛化性能和快速的训练速度,使用中等规模的网络(较少的单个模型和一个平均的隐藏节点数)。
本发明所述的算法的主要优势是它可以学习不同ELM的一个优化组合,通过最小化分类误差和网络权重范数,将会在一个更紧凑的神经网络上获得更好的泛化性能。而且,很多其他的ELM集成模型可以视为ELM-IN-ELM的特殊情况,使得ELM-IN-ELM成为基于ELM集成的一个统一的框架。几个修改和扩展应用到ELM-IN-ELM模型中,可以改善模型性能以解决其他问题。例如,ELM-IN-ELM算法可以直接应用到回归问题并且可以适应在线序列学习。
实验评估
为了验证本发明所述的算法,在不同的真实世界中的数据集上进行了广泛的实验,见表1的详细信息。所有的数据集来自UCI机器学习仓库和LIBSVM数据。
表1大数据集的详细基准表
数据集 属性数 类别数 训练集 测试集
A9a 123 2 32561 16281
Colon 2000 2 40 22
Connect-4 126 3 50000 17557
Covtype 54 3 300000 280000
DNA 180 3 1400 1186
Duke 7129 2 29 15
Gisette 5000 2 6000 1000
Hill 100 2 606 606
Leukemia 7129 2 38 34
Mnist 784 10 40000 30000
Mushrooms 112 3 4000 4124
Protein 357 3 17766 6621
Sonar 60 2 150 58
USPS 256 10 7291 2007
将本发明所述ELM-IN-ELM框架的计算结果和三个不同的分类器进行比较,三个分类器分别是:第一个是基于ELM集成的算法,以V-ELM为例;第二个是带有子网络隐藏节点的ELM,以ELM-SHN为例;第三个是传统的分类器,选择一些标准的算法,比如SVM,KNN,DT,boosting and bagging。
(1)与V-ELM进行比较
将所本发明所述的模型ELM-IN-ELM在表2小数据集的详细基准表中的18个真实世界的数据集上,在泛化性能和网络复杂度上同V-ELM进行比较,采用交叉验证方法选择参数,进行50次试验选取平均结果,所有ELM模型采用加性sigmoid激活函数,输入权重根据正态分布随机产生。仿真环境采用matlab2015a,Intel i5 CPU2.67GHz,4G内存的笔记本电脑。
表2小数据集的详细基准表
泛化性能
在表3中,展现了同样试验的多次测试的平均测试精度和标准方差。给出了三个主要结果:第一、集成的模型(V-ELM,ELM-IN-ELM)总是比单个的模型(标准ELM)性能好,第二、V-ELM实现与原始的V-ELM有相似的结果,第三、ELM-IN-ELM的性能与V-ELM相似或者更优。例如,在Balance、Wine数据及上获得相似的结果,在Hayes和Monk3上,ELM-IN-ELM的性能更好。
表3 ELM-IN-ELM与V-ELM的性能比较
网络复杂度。
本发明中网络复杂度指的是单个ELM模型的个数M,隐藏节点的个数L,时间因子TF,它是ELM-IN-ELM或者V-ELM与一个参考(标准ELM)的训练时间的训练时间率。表4表明了相应于表3的四个算法的网络复杂度。结果表明,ELM-IN-ELM极大地改善了网络的紧凑性,例如,在Ecoli数据集上,在ELM-IN-ELM模型中,我们只使用M=2,L=16,而V-ELM采用M=7,L=24。关于训练速度,也有所改善,比如在Breast-can,Sonar数据集上ELM-IN-ELM分别比V-ELM快2倍和3倍。
表4 ELM-IN-ELM与V-ELM的网络复杂度比较
通过以上分析以及表3和表4的结果可以得出ELM-IN-ELM模型的性能在泛化性能上相似于或者优于V-ELM。在网络复杂度上(单个模型数,隐藏节点数,训练速度),它也优于V-ELM。
(2)与具有子网络隐藏节点的ELM进行比较
将本发明所述的结果在15个真实世界的数据集在泛化性能方面与最近发表的结果(带有子网络隐藏节点的ELM)相比较。仿真环境为matlab2016a,台式电脑配置为Inteli7 CPU和32G内存。比对结果见表5。
表5 ELM-IN-ELM与带有子网络隐藏节点的ELM的性能比较
表中L表示隐藏节点数,M表示ELM个体数。
上表给出了ELM-SHN,V-ELM,ELM-IN-ELM的测试精度和他们相应的网络架构。ELM-SHN的主要优势是网络的紧凑性,但是ELM-IN-ELM在很多数据集上泛化性能都优于ELM-SHN。在Mushrooms,Hill,Colon,and Duke数据集上性能分别比EL-SHN改善了11%,6%,4%,2%。
(3)与传统分类器进行比较
将ELM-IN-ELM模型与传统的分类器进行比较,线性支持向量机,KNN,DT,boostedDT,以及a bootstrap-aggregated ensemble bagged DT。对比结果如表6所示。
表6 ELM-IN-ELM与其他分类器的比较
表6揭示了ELM-IN-ELM训练特别快并且可以达到非常高的泛化性能。
(4)ELM-IN-ELM模型的分析
这一部分的目的是分析所述的ELM-IN-ELM模型相对于其超参数的行为:单个模型的数目M,隐藏节点的数目L,在32个数据集的泛化性能和训练速度。因此使用如下的设置在所有数据集上进行一系列的实验。对于大数据集或者高维数据集ELM的个数从1逐渐地增长到10,对于小数据集ELM的个数从1逐渐地增长到20。隐藏节点的数目也是渐近地增长到最大值,最大值依赖于数据集。对于大数据集最大值固定到1000。
由上述结果可以获知,本发明所述的算法性能在某些情况下比传统的分类器性能提高了10%,在某些数据集上网络结构简化了2-3倍。在训练和测试阶段运行的更快。

Claims (4)

1.一种基于极限学习机的ELM-IN-ELM框架集成学习算法,其特征在于:ELM-IN-ELM框架能够自动学习组合不同的单个极限学习机模型,本方法采用ELM算法学习多个ELM模型的融合参数,进而通过组合各个单个ELM模型的输出来计算最后的结果,它包括两个阶段:
第一阶段是单个的ELM训练,训练M个独立的ELM模型,
输入:数据集X,目标T,单个模型数目M,隐含层节点数L
输出:ELM-IN-ELM模型参数
产生随机输入权重W(m)和偏差b(m)
计算隐含层输出矩阵H(m)=G(XW(m)+b(m))
计算输出权重
计算输出O(m)=H(m)β(m),m=1,2,……,M
其中G(·)是任意非线性分段连续函数,同时满足ELM通用逼近能力定理;
第二阶段是基于第一个阶段的学习,计算每一个模型的输出值,然后学习多个ELM模型的融合参数;将所有单个模型输出的级联作为一个全部ELM模型的隐藏矩阵Hg,
Hg=[O(1)O(2)…O(M)]
式中O(m)是第m个模型的输出;
如果所有的ELM模型有同样的大小,则Hg是一个N*MC矩阵;所计算的融合参数为全部ELM模型的输出权重是一个MC*C的矩阵,表示M个不同ELM模型贡献给最后结果的组合权重;ELM-IN-ELM模型被其参数W(m),b(m)(m),m=1,2,...M以及输出权重F完全定义;每一个输出权重Fm是一个C×C矩阵,表示第m个单个模型和最后输出之间的连接,
ELM-IN-ELM的输出为:
ELM-IN-ELM输出是不同ELM输出的线性组合。
2.根据权利要求1所述的一种基于极限学习机的ELM-IN-ELM框架集成学习算法,其特征在于:所述数据集X是一个N×D维矩阵表示训练数据,目标T是一个N×C维的矩阵表示类别标签的类别矩阵,目标向量进行了One-hot编码;C表示类别数,D表示特征数或者属性数,N表示训练样本数。
3.根据权利要求1所述的一种基于极限学习机的ELM-IN-ELM框架集成学习算法,其特征在于:当所有的ELM模型的输出权重Fm均为单位矩阵,最后的结果是所有单个ELM模型的和或者累加,等价于多数表决制,即基于ELM的表决制。
4.根据权利要求1所述的一种基于极限学习机的ELM-IN-ELM框架集成学习算法,其特征在于:当所有的ELM模型的输出权重Fm时,最后的决策是所有单个ELM模型输出的平均。
CN201810800629.2A 2018-07-19 2018-07-19 一种基于极限学习机的elm-in-elm框架集成学习算法 Pending CN109034278A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810800629.2A CN109034278A (zh) 2018-07-19 2018-07-19 一种基于极限学习机的elm-in-elm框架集成学习算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810800629.2A CN109034278A (zh) 2018-07-19 2018-07-19 一种基于极限学习机的elm-in-elm框架集成学习算法

Publications (1)

Publication Number Publication Date
CN109034278A true CN109034278A (zh) 2018-12-18

Family

ID=64644499

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810800629.2A Pending CN109034278A (zh) 2018-07-19 2018-07-19 一种基于极限学习机的elm-in-elm框架集成学习算法

Country Status (1)

Country Link
CN (1) CN109034278A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783845A (zh) * 2020-06-12 2020-10-16 浙江工业大学 一种基于局部线性嵌入和极限学习机的隐匿虚假数据注入攻击检测方法
CN111796519A (zh) * 2020-06-14 2020-10-20 武汉理工大学 一种基于极限学习机的多输入多输出系统自动控制方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783845A (zh) * 2020-06-12 2020-10-16 浙江工业大学 一种基于局部线性嵌入和极限学习机的隐匿虚假数据注入攻击检测方法
CN111783845B (zh) * 2020-06-12 2024-04-16 浙江工业大学 一种基于局部线性嵌入和极限学习机的隐匿虚假数据注入攻击检测方法
CN111796519A (zh) * 2020-06-14 2020-10-20 武汉理工大学 一种基于极限学习机的多输入多输出系统自动控制方法
CN111796519B (zh) * 2020-06-14 2022-05-06 武汉理工大学 一种基于极限学习机的多输入多输出系统自动控制方法

Similar Documents

Publication Publication Date Title
Alam et al. A dynamic ensemble learning algorithm for neural networks
US20180025271A1 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
De Ridder et al. Sammon's mapping using neural networks: A comparison
WO2019011093A1 (zh) 机器学习模型训练方法和装置、表情图像分类方法和装置
Ju et al. Effects of synaptic connectivity on liquid state machine performance
Raitoharju et al. Training radial basis function neural networks for classification via class-specific clustering
CN106326984A (zh) 用户意图识别方法和装置、自动应答系统
Langone et al. Incremental kernel spectral clustering for online learning of non-stationary data
CN105844508B (zh) 一种基于动态周期神经网络的商品推荐方法
Soria et al. A comparison of three different methods for classification of breast cancer data
Cheng et al. Classification of long sequential data using circular dilated convolutional neural networks
CN109670927A (zh) 信用额度的调整方法及其装置、设备、存储介质
CN105574213A (zh) 一种基于数据挖掘技术的微博推荐方法及装置
KR20190049286A (ko) Cnn 학습 기반의 멀웨어 분석 장치, 이를 수행하는 cnn 학습 기반의 멀웨어 분석 방법 및 이를 저장하는 기록매체
John et al. Real-time hand posture and gesture-based touchless automotive user interface using deep learning
CN109034278A (zh) 一种基于极限学习机的elm-in-elm框架集成学习算法
CN104077408B (zh) 大规模跨媒体数据分布式半监督内容识别分类方法及装置
Wang et al. Training TS norm neural networks to refine weights for fuzzy if–then rules
McKennoch et al. Spike-timing error backpropagation in theta neuron networks
CN104573726B (zh) 基于四等分及各成分重构误差最优组合的人脸图像识别方法
CN110263808A (zh) 一种基于lstm网络和注意力机制的图像情感分类方法
Coelho et al. Inducing multi-objective clustering ensembles with genetic programming
Qiao et al. SRS-DNN: a deep neural network with strengthening response sparsity
Parvin et al. A new method for constructing classifier ensembles
Fontenla-Romero et al. An incremental non-iterative learning method for one-layer feedforward neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181218