CN105469142A - 一种基于样本增量驱动的神经网络增量型前馈算法 - Google Patents

一种基于样本增量驱动的神经网络增量型前馈算法 Download PDF

Info

Publication number
CN105469142A
CN105469142A CN201510778688.0A CN201510778688A CN105469142A CN 105469142 A CN105469142 A CN 105469142A CN 201510778688 A CN201510778688 A CN 201510778688A CN 105469142 A CN105469142 A CN 105469142A
Authority
CN
China
Prior art keywords
sample
increment
hidden layer
neural network
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510778688.0A
Other languages
English (en)
Inventor
牛培峰
马云鹏
李国强
武怀勤
李霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN201510778688.0A priority Critical patent/CN105469142A/zh
Publication of CN105469142A publication Critical patent/CN105469142A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于样本增量驱动的神经网络增量型前馈算法,神经网络的输入权值和隐层阈值根据输入样本的特性,采用最小二乘方法计算所得,完成模型参数初始化;模型的输入权值和隐层阈值根据新样本与旧样本之间的增量进行更新,建立模型参数与输入样本之间的函数关系,实现样本自适应性和在线前馈调整的功能。本发明算法具有预测精度高、泛化能力强、可在线前馈调节等优点。

Description

一种基于样本增量驱动的神经网络增量型前馈算法
技术领域
本发明涉及在线学习神经网络领域,尤其是一种在线学习单隐层前馈神经网络的算法。
背景技术
从上个世纪八十年代至今,神经网络已经衍生出多种模型结构和学习规则,像最早提出的基于误差反传学习方式的BP神经网络、径向基神经网络、离散和连续型Hopfield神经网络、SOM神经网络等。上述各种神经网络可用于分类和回归问题,而且都取得了很好的模型效果。近年来提出的极端学习机算法成为研究热点,其属于一种单隐层前馈神经网络,单隐层前馈神经网络具有良好的非线性辨识能力,而且具有结构简单、可调参数少、学习速度快、模型精度高等优点,单隐层前馈神经网络既可用于基于数据块的离线学习模式,也可用于时间序列数据的在线学习模式,在各个领域得到广泛应用。
目前,所有的实际工程应用系统建模都是基于时间序列数据的,而且大部分的神经网络的输入权值和隐层阈值都是随机初始化产生的,产生的模型参数与实际系统的输入样本数据没有内在的规律性,这导致神经网络的预测效果和稳定性较差。因此建立一种在线学习模式神经网络具有很强的应用使用价值。
发明内容
本发明目的在于提供一种模型稳定性高、预测精度高、泛化能力强、具有前馈调节功能的基于样本增量驱动的神经网络增量型前馈算法。
为实现上述目的,采用了以下技术方案,本发明所述算法步骤如下:
步骤1,在神经网络中,选取任意时刻L0个训练样本进行模型参数初始化;
步骤2,计算得出输入权值和隐层阈值;
步骤3,再计算得出隐层输出矩阵H0
步骤4,根据最小二乘法和MP广义逆法计算得出输出权值矩阵β0
步骤5,引入新样本X1,计算新样本与初始训练样本的第L0个样本之间是否有增量,如果有样本增量,根据样本增量对输入权值和隐层阈值进行更新;如果没有样本增量,则不修改输入权值和隐层阈值,不进行更新;
步骤6,计算新样本的隐层输出矩阵;
步骤7,动态更新输出权值矩阵,计算得到模型输出权值矩阵;
步骤8,判断所有样本是否测试完毕,若测试完毕,则模型建立完成,否则返回步骤5重新检测新旧样本增量继续学习;
建立模型参数与输入样本之间的函数关系,根据样本增量对优化模型的输入权值和隐层阈值进行在线前馈调节。
在步骤5中,当样本增量的秩等于0时,即样本增量为0,此时输入权值和隐层阈值不进行更新;当样本增量的秩不等于0时,输入权值和隐层阈值进行更新。
在步骤8中,当有新增样本时,需删除远端的旧样本,使输出权值只依赖于限定个数的最新数据信息。
与现有技术相比,本发明具有如下优点:
1、建立了输入权阈值和输入样本之间的函数关系,根据输入样本确定模型参数,实现模型参数的样本自适应性,即根据不同的样本,产生不同的模型。
2、本发明算法是在线学习模式,神经网络的输入权值和隐层阈值也会随着样本的序列增加,实现模型参数在线更新。相对于模型输出误差反传机制更新方式,样本增量驱动的神经网络具有前馈调节功能。
3、本发明算法提高了模型的稳定性,提高了神经网络模型的预测精度和泛化能力,满足了变工况运行时的动态优化控制要求。
附图说明
图1是本发明算法的流程图。
具体实施方式
下面结合附图对本发明做进一步说明:
如图1所示,本发明所述算法步骤如下:
步骤1,在神经网络中,选取任意时刻L0个训练样本进行模型参数初始化;随机设置一个m×n的矩阵P,m为隐层节点个数,n为输入节点个数。计算复合矩阵
步骤2,计算得出输入权值和隐层阈值;
步骤3,再计算得出隐层输出矩阵H0
步骤4,根据最小二乘法和MP广义逆法计算得出输出权值矩阵β0;设置参数k=0,k为样本增加的序列数。
步骤5,引入新样本X1,计算新样本与初始训练样本的第L0个样本之间是否有增量,如果有样本增量,根据样本增量对输入权值和隐层阈值进行更新;如果没有样本增量,则不修改输入权值和隐层阈值,不进行更新;当样本增量的秩等于0时,即样本增量为0,此时输入权值和隐层阈值不进行更新;当样本增量的秩不等于0时,输入权值和隐层阈值进行更新。
步骤6,计算新样本的隐层输出矩阵;
步骤7,动态更新输出权值矩阵,计算得到模型输出权值矩阵;
步骤8,判断所有样本是否测试完毕,若测试完毕,则模型建立完成。否则,设置k=k+1,返回步骤5重新检测新旧样本增量继续学习;当有新增样本时,需删除远端的旧样本,使输出权值只依赖于限定个数的最新数据信息。
建立模型参数与输入样本之间的函数关系,根据样本增量对优化模型的输入权值和隐层阈值进行在线前馈调节。
详细推导过程如下:
模型参数推导:
对于任意的N个随机样本(xi,ti),xi=[xi1,xi2,…,xin]T∈Rn,n为输入层节点个数,ti=[ti1,ti2,…,til]T∈Rl,输出层节点数为l个,隐藏层激励函数为g(x),则数学模型如下所示:
Σ j = 1 m β j g j ( x i ) = Σ j = 1 m β j g ( ω j × x i + b j ) = t i - - - ( 1 )
式(1)中,(i=1,2,…,N),ωj=[ωj1j2,…,ωjn]T为第j个隐层节点与输入节点之间的权值,第j个隐层节点阈值为bj,输出层节点与第j个隐层节点的连接权值为βj=[βj1j2,…,βjm]T。上述N个方程可以简写为:
H = g ( ω 1 x 1 + b 1 ) ... g ( ω m x 1 + b m ) . . . . . . g ( ω 1 x N + b 1 ) ... g ( ω m x N + b m ) N × m - - - ( 2 )
β = [ β 1 , β 2 , ... , β k ] k × m T - - - ( 3 )
T = [ t 1 , t 2 , ... , t N ] k × N T - - - ( 4 )
H被称作隐藏层输出矩阵,β是输出层权值矩阵,T是期望输出,k是输出层节点个数。
根据上述方程的最小范数二乘解的求法可得:
隐层输出矩阵可以作如下变形:
其中,参数表示如下:
首先,假设隐藏层激活函数g(x)为可逆函数,则式(6)可表示为:
假设存在一个矩阵Pm×n,使得
PX=g-1(Tβ+)(10)
则由式(9)和(10)可知:
由式(11)可以通过下式分析计算得到:
根据最小二乘法的原理可以计算出:
由以上推导可以得出输出权值和隐层阈值:
上述模型参数推导过程为根据最小二乘法初始化神经网络的输入权值和隐层阈值。在输入权值和隐藏层阈值确定的过程中,虽然矩阵P是随机设定的,但是采用最小二乘法确定模型参数使随机数从(n+1)×m降到了m×n,所以在保证模型的训练精度的前提下,减小了随机数的影响。
根据模型参数推导过程,样本增量驱动的神经网络增量型前馈算法如下:
(1)初始化阶段
首先,任选L个初始化训练样本X0,随机设置矩阵P,根据公式(13)求取复合权值矩阵:
由复合矩阵求得初始输入权值和隐层阈值,分别记作ω0和b0
然后,根据公式(2)计算隐层输出矩阵H0
最后,计算输出权值矩阵β0
β 0 = ( H 0 H 0 T ) - 1 H 0 T T 0 - - - ( 19 )
(2)序列学习阶段
该方法采用单个样本采样方式,加入新样本,根据公式(20)计算复合矩阵
令增益矩阵得到的复合矩阵如公式(21)所示。
在公式(21)的基础上,引入样本增量,即根据新样本与旧样本之间的增量调整复合矩阵,如公式(22)所示。
式中
得到的输入权值和隐层阈值分别如式(25)、(26)所示:
当样本增量Δx1的秩等于0时,即样本增量为零,此时输入权值和隐层阈值不进行更新;相反则根据公式(22)进行更新。当样本增加到第k个时,复合矩阵、输入权值矩阵和隐层阈值计算如下所示:
根据公式(30)计算输出权值。
β 1 = ( H 1 T H 1 ) - 1 H 1 T T 1 = ( H 0 h L + 1 T H 0 h L + 1 ) - 1 H 0 h L + 1 T T 0 t L + 1 = ( H 0 T H 0 + h L + 1 T h L + 1 ) - 1 ( H 0 T T 0 + h L + 1 T t L + 1 ) = Q 1 - 1 ( Q 0 Q 0 - 1 H 0 T T 0 + h L + 1 T t L + 1 ) = Q 1 - 1 ( Q 0 β 0 + h L + 1 T t L + 1 ) = Q 1 - 1 ( ( Q 1 - h L + 1 T h L + 1 ) β 0 + h L + 1 T t L + 1 ) = β 0 + Q 1 - 1 h L + 1 T ( t L + 1 - h L + 1 β 0 ) - - - ( 30 )
Q 1 = H 0 T H 0 + h L + 1 T h L + 1 = Q 0 + h L + 1 T h L + 1 - - - ( 31 )
式中为隐层输出矩阵,hL+1为新增样本的隐层输出向量,tL+1为新增样本的目标值。
当样本增加到第k个时,输出权值矩阵的更新公式如下所示:
β k + 1 = β k + Q k + 1 - 1 h L + k + 1 T ( t L + k + 1 - h L + k + 1 β k ) - - - ( 32 )
随着样本的增加,增益矩阵有可能趋近于零,逐渐失去修正能力,使得输出权值出现病态情况。为了防止这种情况发生,当新增样本时,删除远端的旧样本,使输出权值只依赖于限定个数的最新数据信息。
β 2 = ( H 2 T H 2 ) - 1 H 2 T T 2 = Q 2 - 1 ( Q 1 β 1 - h 1 T t 1 ) = Q 2 - 1 [ ( Q 2 + h 1 T h 1 ) β 1 - h 1 T t 1 ] = β 1 + Q 2 - 1 h 1 T ( h 1 β 1 - t 1 ) - - - ( 33 )
H 1 = h 1 T H 2 T T - - - ( 34 )
T 1 = t 1 T t 2 T T - - - ( 35 )
Q 2 = H 2 T H 2 - - - ( 36 )
上式中,h1为最远端删除样本的隐层输出,t1为最远端删除样本对应的目标输出。
当样本增加到第k个时,输出权值矩阵的更新公式如下所示:
β k + 2 = β k + 1 + Q k + 2 - 1 h T ( hβ k + 1 - t ) - - - ( 37 )
公式(37)中,h为最远端删除样本的隐层输出,t为最远端删除样本对应的目标输出。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (3)

1.一种基于样本增量驱动的神经网络增量型前馈算法,其特征在于,所述算法步骤如下:
步骤1,在神经网络中,选取任意时刻L0个训练样本进行模型参数初始化;
步骤2,计算得出输入权值和隐层阈值;
步骤3,再计算得出隐层输出矩阵H0
步骤4,根据最小二乘法和MP广义逆法计算得出输出权值矩阵β0
步骤5,引入新样本X1,计算新样本与初始训练样本的第L0个样本之间是否有增量,如果有样本增量,根据样本增量对输入权值和隐层阈值进行更新;如果没有样本增量,则不修改输入权值和隐层阈值,不进行更新;
步骤6,计算新样本的隐层输出矩阵;
步骤7,动态更新输出权值矩阵,计算得到模型输出权值矩阵;
步骤8,判断所有样本是否测试完毕,若测试完毕,则模型建立完成,否则返回步骤5重新检测新旧样本增量继续学习;
建立模型参数与输入样本之间的函数关系,根据样本增量对优化模型的输入权值和隐层阈值进行在线前馈调节。
2.根据权利要求1所述的一种基于样本增量驱动的神经网络增量型前馈算法,其特征在于:在步骤5中,当样本增量的秩等于0时,即样本增量为0,此时输入权值和隐层阈值不进行更新;当样本增量的秩不等于0时,输入权值和隐层阈值进行更新。
3.根据权利要求1所述的一种基于样本增量驱动的神经网络增量型前馈算法,其特征在于:在步骤8中,当有新增样本时,需删除远端的旧样本,使输出权值只依赖于限定个数的最新数据信息。
CN201510778688.0A 2015-11-13 2015-11-13 一种基于样本增量驱动的神经网络增量型前馈算法 Pending CN105469142A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510778688.0A CN105469142A (zh) 2015-11-13 2015-11-13 一种基于样本增量驱动的神经网络增量型前馈算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510778688.0A CN105469142A (zh) 2015-11-13 2015-11-13 一种基于样本增量驱动的神经网络增量型前馈算法

Publications (1)

Publication Number Publication Date
CN105469142A true CN105469142A (zh) 2016-04-06

Family

ID=55606812

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510778688.0A Pending CN105469142A (zh) 2015-11-13 2015-11-13 一种基于样本增量驱动的神经网络增量型前馈算法

Country Status (1)

Country Link
CN (1) CN105469142A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919980A (zh) * 2017-01-24 2017-07-04 南京大学 一种基于神经节分化的增量式目标识别系统
CN107730289A (zh) * 2016-08-11 2018-02-23 株式会社理光 一种用户行为分析方法及用户行为分析装置
CN108154237A (zh) * 2016-12-06 2018-06-12 华为技术有限公司 一种数据处理系统及方法
CN109063359A (zh) * 2018-08-16 2018-12-21 燕山大学 一种循环流化床锅炉燃烧过程的动态建模方法
CN111382874A (zh) * 2018-12-28 2020-07-07 第四范式(北京)技术有限公司 实现线上机器学习模型的更新迭代的方法和装置
CN116324827A (zh) * 2020-09-15 2023-06-23 惠普发展公司,有限责任合伙企业 图像中的眩光减少

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107730289A (zh) * 2016-08-11 2018-02-23 株式会社理光 一种用户行为分析方法及用户行为分析装置
CN108154237A (zh) * 2016-12-06 2018-06-12 华为技术有限公司 一种数据处理系统及方法
CN108154237B (zh) * 2016-12-06 2022-04-05 华为技术有限公司 一种数据处理系统及方法
CN106919980A (zh) * 2017-01-24 2017-07-04 南京大学 一种基于神经节分化的增量式目标识别系统
CN106919980B (zh) * 2017-01-24 2020-02-07 南京大学 一种基于神经节分化的增量式目标识别系统
CN109063359A (zh) * 2018-08-16 2018-12-21 燕山大学 一种循环流化床锅炉燃烧过程的动态建模方法
CN111382874A (zh) * 2018-12-28 2020-07-07 第四范式(北京)技术有限公司 实现线上机器学习模型的更新迭代的方法和装置
CN111382874B (zh) * 2018-12-28 2024-04-12 第四范式(北京)技术有限公司 实现线上机器学习模型的更新迭代的方法和装置
CN116324827A (zh) * 2020-09-15 2023-06-23 惠普发展公司,有限责任合伙企业 图像中的眩光减少

Similar Documents

Publication Publication Date Title
CN105469142A (zh) 一种基于样本增量驱动的神经网络增量型前馈算法
Ou et al. Comparison between PSO and GA for parameters optimization of PID controller
CN111308896B (zh) 基于可变误差的非线性系统自适应最优控制方法
CN104698842B (zh) 一种基于内点法的lpv模型非线性预测控制方法
CN110009528B (zh) 一种基于最优结构多维泰勒网的参数自适应更新方法
CN108287471A (zh) Mimo偏格式无模型控制器基于系统误差的参数自整定方法
CN101986564A (zh) 基于Backlash算子和神经网络的自适应滤波器
Song et al. Multi-objective optimal control for a class of unknown nonlinear systems based on finite-approximation-error ADP algorithm
Burse et al. Improved back propagation algorithm to avoid local minima in multiplicative neuron model
CN115179295A (zh) 一种多欧拉-拉格朗日系统鲁棒二分一致性跟踪控制方法
CN108181809B (zh) Miso紧格式无模型控制器基于系统误差的参数自整定方法
Takatani et al. Neural network-based construction of inverse kinematics model for serial redundant manipulators
CN108153151A (zh) Mimo全格式无模型控制器基于系统误差的参数自整定方法
CN110084324B (zh) 基于极限学习机的卡尔曼滤波参数自适应更新方法
CN106970533A (zh) 一种基于rbf‑arx模型稳定参数估计的非线性系统建模方法
Kamalasadan et al. A neural network based intelligent model reference adaptive controller
CN112346342B (zh) 一种非仿射动力学系统的单网络自适应评价设计方法
CN108154231B (zh) Miso全格式无模型控制器基于系统误差的参数自整定方法
CN114202063A (zh) 一种基于遗传算法优化的模糊神经网络温室温度预测方法
Marchesano et al. Deep Reinforcement Learning Approach for Maintenance Planning in a Flow-Shop Scheduling Problem
CN108107715B (zh) Miso全格式无模型控制器基于偏导信息的参数自整定方法
CN108181808B (zh) Miso偏格式无模型控制器基于系统误差的参数自整定方法
Chowdhury A new approach to real‐time training of dynamic neural networks
CN112859598B (zh) 一种重组式经验变换型迭代学习控制方法
Yao et al. Approaches to model and control nonlinear systems by RBF neural networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160406