CN101567838A - 一种函数链神经网络的自校正方法 - Google Patents

一种函数链神经网络的自校正方法 Download PDF

Info

Publication number
CN101567838A
CN101567838A CNA2008100724845A CN200810072484A CN101567838A CN 101567838 A CN101567838 A CN 101567838A CN A2008100724845 A CNA2008100724845 A CN A2008100724845A CN 200810072484 A CN200810072484 A CN 200810072484A CN 101567838 A CN101567838 A CN 101567838A
Authority
CN
China
Prior art keywords
subsystem
centerdot
formula
input
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2008100724845A
Other languages
English (en)
Inventor
林小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Sunnada Communication Co Ltd
Original Assignee
Fujian Sunnada Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Sunnada Communication Co Ltd filed Critical Fujian Sunnada Communication Co Ltd
Priority to CNA2008100724845A priority Critical patent/CN101567838A/zh
Publication of CN101567838A publication Critical patent/CN101567838A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Abstract

本发明涉及一种函数链神经网络的自校正方法,根据其系统结构和组成特点,可以将原本比价复杂的非线性系统分解成若干个相对简单的子系统,用单个的人工函数链神经网络来建立子系统模型,根据子系统的参数、输入量、输出量得到各个子系统的神经元模型后,按照各个子系统间的相关关系来构建一个相对复杂的一个函数链神经网络系统,系统记忆并存储一些子系统的历史的参数、输入量/输出量,当某个子系统函数链神经网络发生异常时,系统能根据以前的各个子系统间的关系,重新恢复该子系统同其他子系统间的关系。本发明借助凸优化思想提出了一个更为快速、容量更高的函数链神经网络学习算法。

Description

一种函数链神经网络的自校正方法
【技术领域】
本发明涉及一种函数链神经网络自校正方法,是一种对复杂的非线性函数链神经网络进行自校正的方法。
【背景技术】
现代信息技术的三大基础是信息的采集、传输和处理技术。传感器技术是信息技术系统的“感官”,是信息采集系统最前端的首要部件。对比电子计算机技术的飞跃发展,向电脑传送信息的传感器技术却相对落后了。因此,传感器技术已成为各国竞相发展的技术,而现代的控制系统通常采用多传感器技术利用函数链神经网络来实现对系统的多方面、多层次的、多方位的监控。现代控制系统对函数链神经网络的精度、稳定性和工作条件提出了很高的要求,希望其输出信息与输入信息之间呈线性关系。
为此,人们不得不采取一些中间补偿和修正措施即自校正技术,如用热敏电阻等设计电路进行温度补偿;用差动电路抵消非线性;用折线拟合或反函数变换技术,通过硬件非线性反馈实现线性化;利用ROM存贮非线性特性,再用查表方法校正;用非线性编码解码方法实现非线性补偿等。这些方法往往精度不够,在应用上灵活性欠佳,同时存在非线性、温度影响及其它干扰影响时难以处理,当元件老化或使用环境变化时需重新调整。
【发明内容】
本发明的要解决的技术问题在于提供一种方法精度高、使用灵活而算法简明、易于硬件实现的函数链神经网络的自校正方法。
本发明为解决上述技术问题采用以下技术方案:
一种函数链神经网络的自校正方法,包括以下步骤:
步骤一:根据系统的结构与组成特点,将原系统按类分成若干个子系统;
步骤二:使用函数链神经元来建立子系统,把与子系统相关的结构参数、输入量、输出量存储构建一个动态数据库即存贮非线性特性,运用学习算法分别对各个子系统的神经元模型进行训练,使之逼近各个子系统的输入/输出关系,得到各子系统的神经元模型;
步骤三:将所得到的各个子系统的神经元模型按一种相关的关系连接组合起来,得到原系统的基于结构的神经网络模型;
步骤四:在各神经元中与结构参数相对应的输入变量之前,增加一个输入值为1的新输入层,得到与系统结构参数想对应的新输入层权值,重新训练,求出高精度模型,构成新模型;
步骤五:将新的模型按照先前构建的动态数据库即存贮非线性特性,重新生成新的子系统,并将其与其他的子系统构建相关的关系网;
步骤六:将动态数据库即存贮非线性特性进行实时更新。
本发明提出采用自校正技术的函数链神经网络方法,利用神经网络的非线性逼近能力和自适应特性,发挥其训练、学习能力,实现传感器建模。采用函数链人工神经网络进行非线性函数变换,逼近传感器的非线性特性曲线,采用自校正技术保持各个子系统间的相关,解决老化问题或运行条件改变时各个子系统间关系的紊乱。其突出的优点是可以同时考虑环境温度状况、各种干扰输入的影响、传感器本身的非线性及其交互作用。这种方法比现有方法精度提高、使用灵活而算法简明、易于硬件实现。为进一步提高线性化精度,可以重新训练,求出高精度模型。解决老化问题或运行条件改变时,也可以重新训练,确定新的网络权值,构成新模型。
【附图说明】
图1是本发明函数链神经网络结构示意图。
【具体实施方式】
本发明提出一种采用自校正技术的函数链神经网络,借助凸优化思想提出了一个更为快速、容量更高的函数链神经网络学习算法,通过一组稳态方程来构造一个凸集优化问题,从而获得了更高的学习速度及更高的存储容量,而所存模式的吸引盆可由一组松驰参量加以控制,使网络更具有灵活性。
一个比较复杂庞大的非线性现代系统通常都将其分割成若干个子系统,各个子系统根据一定的相关算法进行关联来构成一个复杂的函数链神经网络。因此要研究复杂非线性的函数链神经网络要将对分解成若干各相对简单的子系统,在分别对各个子系统进行研究,得出其相应的参数、输入量、输出量,建立起子模型,然后根据神经网络算法将各个子系统关联起来,如图1所示。
基于自校正的函数链神经网络是这种思想的具体体现。具体讲,就是原本比较复杂的非线性系统根据系统的结构与组成特点,将原系统按类分成若干个子系统。使用函数链神经元来建立子系统,把与子系统相关的结构参数、输入量、输出量存储构建一个动态数据库即存贮非线性特性,充分运用学习算法分别对各个子系统的神经元模型进行训练,使之逼近各个子系统的输入/输出关系,得到各子系统的神经元模型。将所得到的各个子系统的神经元模型按一种相关的关系连接组合起来,得到原系统的基于结构的神经网络模型。在各神经元中与结构参数相对应的输入变量之前,增加一个输入值为1的新输入层,得到与系统结构参数想对应的新输入层权值,为进一步提高线性化精度,可以重新训练,求出高精度模型。解决老化问题或运行条件改变时,也可以重新训练,确定新的网络权值,构成新模型。将新的模型按照先前构建的动态数据库即存贮非线性特性,重新生成新的子系统,并将其与其他的子系统构建相关的关系网。将动态数据库即存贮非线性特性进行实时更新,对σ学习规则进行改进,借助凸集优化思想,利用最陡梯度下降技术获得了更高的存储容量和更快速的学习速度,使得各个子系统之间的相关性能得到更准确的校正。
本发明的建模与自校正方法按如下步骤进行:
1、子系统的划分和各个子系统的关系构建
在建立具有自校正技术的函数链神经网络,首先需要对原本复杂的系统按类进行正确划分。即据系统的结构与组成特点,将原系统按类分成若干个子系统,子系统越简单越有优势,通常尽可能将复杂的系统分解成简单的单输出子系统。
一般的非线性系统或全局问题可以描述成这样:
设第i个样本输入为xi、ti,通过函数型连接F后,获得函数型输入fi1,□,fin,同时引入一个+1作为传感器可能的零点迁移,因而有:
y i = Σ j = 0 n w j f ij
其中fi0=1,上式可写成
y i = W T F i = F I T W
式中
W=[w0,w1…wn]T
Fi=[fi0,fi1,…fin]T
令传感器的期望输出为di,误差为
ϵ i = 1 2 ( d i - y i ) 2 = 1 2 ( d i - f i T W ) 2
= 1 2 ( d i 2 - 2 F i T W d i + W T F i T W ) - - - ( 4 )
E ( ϵ i ) = 1 2 E ( d i 2 ) - F i T d i W + 1 2 W T E ( F i F i T ) W
= 1 2 E ( d i 2 ) - R f T d i W + 1 2 W T R f f W - - - ( 5 )
式中Rfd和Rff为Fi与di的互相关及Fi的自相阵.用梯度法调节权系数W使误差最小,令
▿ i = ▿ E ( ϵ i ) = [ ∂ E ( ϵ i ) ∂ v 0 , · · · ∂ E ( ϵ i ) ∂ vn ] T - - - ( 6 )
= - R fd + R ff W = 0
即可求得W.但Rfd和Rff无法预先知道,故采用LM S算法进行自适应训练,因
▿ ( ϵ i ) = ( d i - F i W ) ▿ ( d i - W T F i )
= ( d i - F i T W ) ( - F i ) - - - ( 7 )
对给定的W,
Figure A20081007248400113
的数学期望为
E [ ▿ ( ϵ i ) ] = E [ - F i ( d i - F i T W ) ]
= - R fd + R ff W - - - ( 8 )
比较式(8)与式(6)知,
Figure A20081007248400116
作为梯度估计是无偏的.于是根据自适应最小摄动的基本思想,权系数矢量迭代公式为
W(k)=W(k-1)+ΔW(k),                (9)
ΔW = - η ▿ ( ϵ i ) = η ( d i - F i T W ) F i - - - ( 10 )
其中G为步长,通常0<G<1.0,为减小过调量,引入惯性项:
W ( k ) = W ( k - 1 ) + η ( d i - F i T W ) F i +
α [ W ( k - 1 ) - W ( k - 2 ) ] - - - ( 11 )
式中0<A<1为动量因子.为进一步加快收敛速度采用变步长算法,引入G(k),令
E = 1 2 [ Σ i = 1 I ( d i - y i ) 2 ] - - - ( 12 )
式中I为总样本数,考虑较全面反映误差变化趋势的量
ΔE ( k ) E ( k ) = E ( k ) - E ( k - 1 ) E ( k ) - - - ( 13 )
η ( k + 1 ) = η ( k ) - β ΔE ( k ) E ( k ) - - - ( 14 )
式中0<B<1为常量.运算过程中可以试舍去绝对值最小的权系数对应的函数项,多次循环后,求出最简单的函数型连接F。
算法具体步骤如下:
(1)确定初始函数型连接F及函数链网络结构;
(2)网络权值初始化,随机设wj,通常 u ^ wj u ^ < 1 ;
(3)输入训练数据样本xi,ti,计算fi1,□,fin,i=1,2,□,I;
(4)求yi,计算E(k),如误差满足要求,则转;
(8)如迭代限定次数后仍不满足误差要求则转(9),否则继续;
(5)由式(9)求G(k),并加判断,如G(k)<0,则G(k)=Gmin,(Gmin为选定的G最小值);
(6)计算wj(k),修正所有连接;
(7)返回,重复(4)~(7);
(8)找出wj绝对值最小者,舍去对应的函数项,转(2)重新计算;
(9)如前面曾舍去函数项则取最后一次误差满足要求的结果输出;否则,增加后一函数项,转(2)重新计算;如原设计最后函数项也已利用,则输出建模不成功信息或修改误差指标再运行。
最后,得到子系统的模型
y = f ( x , t ) = w 0 + &Sigma; i = 1 n w j f j ( x , t ) - - - ( 15 )
2、各个子系统通过训练、学习来构建动态数据库即非线性特征
FLN是一个仅含输入层和输出层的单层神经网络不计输入层,输入层的输入是原输入向量的扩展,扩展一般取作函数式扩展,即通过一组预先取定的线性无关的函数正交更好,将原输入向量展开,所得的模式作为输入向量。如下所示,原输入向量x是n维的,扩展函数组为f1,f2,f3....fn。
Figure A20081007248400123
扩展的本意是通过一组线性无关函数将维向量空间映射到更高的维向量空间,以期提高原输人向量间的正交性程度,最终改善网络的非线性映射能力。尽管扩展不会带来新的信息,但扩展向量中包含了原输入向量的结构信息。
FLN网络采用σ学习规则,收敛速度快,学习过程不会陷于局部最小,网络的逼近能力取决于扩展形式项,已被广泛地应用于模式识别、控制等应用领域。
FLN的σ学习规则实质上是最陡梯度下降法,目的是使网络的连接权值通过有限步迭趋向稳定,从而完整的学习过。
网络的学习目的是使学习过的输入模式尽可能多地被记忆。设有M对模式(X(1),Y(1)),(X(2),Y(2)),...,(X(M),Y(M)),X(i)∈{-1,1}n,Y(i)∈{-1,1}m,i=1,2,...,M。要使网络让每对输入输出成为稳态点,则必须满足:
y k ( i ) = sgn ( &Sigma; j = 1 N T jk f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; x n ( i ) ) )
它等价于:
&Sigma; j = 1 m T jk f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; x n ( xi ) ) > 0
其中,i=1,2,...,M,k=1,2,...,m。Tjk是连接权值,定义:
g ( i , k ) = &Sigma; j = 1 N T jk f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; x n ( i ) ) - &sigma; i
上式中,σi(i=1,2,...,m)为小正数,它们可看成是松弛变量。为了求得满足(8)式的Tjk,定义费用函数为:
&phi; ( T ) = 1 2 &Sigma; i = 1 M &Sigma; k = 1 m ( G ( i , k ) ) 2
其中G(i,k)=min{0,g(i,k)}。
上式中的每一项G(i,k)表示一项惩罚。若(8)式中以σi取代零且约束成立,则有
G(i,k)=0;若(8)式的约束被破坏,则G(i,k)为负且等于g(i,k),故Φ(t)为下有界。若方程(8)(或约束(8))存在一个解,则Φ(T)的最小值为零。另外,由于(G(i,k))2是T的凸函数,故Φ(T)关于T也是凸的,从而意味着Φ(T)存在一个唯一的最小点T*,满足 &dtri; &Phi; ( T * ) = 0 且为Φ(T)的全局最小点。由此可知,通过最陡梯度下降法,能保证关于T的迭代在有限步内趋于T*,因此有:
T jk ( n + 1 ) = h ( T jk ( n ) - &eta; &PartialD; &phi; ( T ) &PartialD; T jk ( n ) )
= h ( T jk ( n ) - &eta; &Sigma; i = 1 M G ( i , k ) &PartialD; G ( i , k ) &PartialD; T jk ( n ) )
= h ( T jk ( n ) - &eta; &Sigma; i = 1 M G ( i , k ) f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; xn ( i ) y k i )
上式中,η仍表示收敛因子,h(x)为:
h ( x ) = - 1 x < - 1 x | x | &le; 1 1 x > 1
h(x)的作用是使{Tjk}有界,{σi}为自由参数,它可调节被存模式的吸引盆的大小,从而影响着网络的联想性能,σi越小、吸引盆越大,σi越大,会导致存储量的下降。
3、自校正函数链神经网络生成
经过步骤1、2,会生成相应的各个子系统相关关系的动态数据库即非线性特征,利用神经网络的非线性逼近能力和自适应特性,发挥其训练、学习能力,实现传感器建模。采用函数链人工神经网络进行非线性函数变换,逼近传感器的非线性特性曲线,采用自校正技术保持各个子系统间的相关,解决老化问题或运行条件改变时各个子系统间关系的紊乱。为进一步提高线性化精度,可以重新训练,求出高精度模型。解决老化问题或运行条件改变时,也可以重新训练,确定新的网络权值,构成新模型。这样就能完成非线性特征的实时更新,各个子系统按照这个动态数据库就可以同周围的子系统建立其新的关系。
本发明提供的具有自校正的函数链神经网络比现有的函数链神经网络相比,具有系统建模和自校正的双重功能,其优点如下:
基于自校正的函数链神经网络在本质上是结构化的,这体现在各个子系统结构又系统的各个结构是相对应的。
基于自校正的函数链神经网络中的神经元数量是确定的,这主要取决与划分系统时所划分的子系统数量。
基于自校正的函数链神经网络中的神经元即各个子系统不是随便相连的,是根据函数链神经网络的具体算法来指导各个子系统相连的。
借助凸优化思想提出了一个更为快速、容量更高的函数链神经网络学习算法,通过一组稳态方程来构造一个凸集优化问题,从而获得了更高的学习速度及更高的存储容量,而所存模式的吸引盆可由一组松驰参量加以控制,使网络更具有灵活性。基于自校正的函数链神经网络具有极强的非线性映射能力。
又有利于新系统的开发,如果利用本发明建立一个新的子系统模型,那么当设计一个系统时,只要从动态的数据库中选出最优的相关算法来构建一个新的子系统,如果子系统连接方式不同,还能通过训练将新的相关算法加入到动态数据库中,这对开发新的系统也是十分有益的。
总之本发明借助凸优化思想提出了一个更为快速、容量更高的函数链神经网络学习算法,通过一组稳态方程来构造一个凸集优化问题,从而获得了更高的学习速度及更高的存储容量,这样大大丰富了动态数据库中的各个子系统间的相关关系算法,而所存模式的吸引盆可由一组松驰参量加以控制,使网络更具有灵活性。

Claims (2)

1、一种函数链神经网络的自校正方法,其特征在于:包括以下步骤:
步骤一:根据系统的结构与组成特点,将原系统按类分成若干个子系统;
步骤二:使用函数链神经元来建立子系统,把与子系统相关的结构参数、输入量、输出量存储构建一个动态数据库即存贮非线性特性,运用学习算法分别对各个子系统的神经元模型进行训练,使之逼近各个子系统的输入/输出关系,得到各子系统的神经元模型;
步骤三:将所得到的各个子系统的神经元模型按一种相关的关系连接组合起来,得到原系统的基于结构的神经网络模型;
步骤四:在各神经元中与结构参数相对应的输入变量之前,增加一个输入值为1的新输入层,得到与系统结构参数想对应的新输入层权值,重新训练,求出高精度模型,构成新模型;
步骤五:将新的模型按照先前构建的动态数据库即存贮非线性特性,重新生成新的子系统,并将其与其他的子系统构建相关的关系网;
步骤六:将动态数据库即存贮非线性特性进行实时更新。
2、如权利要求1所述的一种函数链神经网络的自校正方法,其特征在于:所述步骤一具体为:
一般的非线性系统或全局问题按以下方式描述:
设第i个样本输入为xi、ti,通过函数型连接F后,获得函数型输入fi1,□,fin,同时引入一个+1作为传感器可能的零点迁移,因而有:
y i = &Sigma; j = 0 n w j f ij
其中fi0=1,上式可写成
y i = W T F i = F I T W
式中
W=[w0,w1…wn]T
Fi=[fi0,fi1,…fin]T
令传感器的期望输出为di,误差为
&epsiv; i = 1 2 ( d i - y i ) 2 = 1 2 ( d i - f i T W ) 2
= 1 2 ( d i 2 - 2 F i T W d i + W T F i T W )
E ( &epsiv; i ) = 1 2 E ( d i 2 ) - F i T d i W + 1 2 W T E ( F i F i T ) W
= 1 2 E ( d i 2 ) - R f T d i W + 1 2 W T R f f W
式中Rfd和Rff为Fi与di的互相关及Fi的自相阵.用梯度法调节权系数W使误差最小,令
&dtri; i = &dtri; E ( &epsiv; i ) = [ &PartialD; E ( &epsiv; i ) &PartialD; v 0 , &CenterDot; &CenterDot; &CenterDot; &PartialD; E ( &epsiv; i ) &PartialD; vn ] T
= - R fd + R ff W = 0
即可求得W.但Rfd和Rff无法预先知道,故采用LM S算法进行自适应训练,因
&dtri; ( &epsiv; i ) = ( d i - F i W ) &dtri; ( d i - W T F i )
= ( d i - F i T W ) ( - F i )
对给定的W,
Figure A2008100724840003C9
(Ei)的数学期望为
E [ &dtri; ( &epsiv; i ) ] = E [ - F i ( d i - F i T W ) ]
= - R fd + R ff W
比较式(8)与式(6)知,
Figure A2008100724840003C12
(Ei)作为梯度估计是无偏的.于是根据自适应最小摄动的基本思想,权系数矢量迭代公式为
W(k)=W(k-1)+ΔW(k),            (9)
&Delta;W = - &eta; &dtri; ( &epsiv; i ) = &eta; ( d i - F i T W ) F i - - - ( 10 )
其中G为步长,通常0<G<1.0,为减小过调量,引入惯性项:
W ( k ) = W ( k - 1 ) + &eta; ( d i - F i T W ) F i +
&alpha; [ W ( k - 1 ) - W ( k - 2 ) ]
式中0<A<1为动量因子.为进一步加快收敛速度采用变步长算法,引入G(k),令
E = 1 2 [ &Sigma; i = 1 I ( d i - y i ) 2 ]
式中I为总样本数,考虑较全面反映误差变化趋势的量
&Delta;E ( k ) E ( k ) = E ( k ) - E ( k - 1 ) E ( k )
&eta; ( k + 1 ) = &eta; ( k ) - &beta; &Delta;E ( k ) E ( k )
式中0<B<1为常量.运算过程中可以试舍去绝对值最小的权系数对应的函数项,多次循环后,求出最简单的函数型连接F。
算法具体步骤如下:
(1)确定初始函数型连接F及函数链网络结构;
(2)网络权值初始化,随机设wj,通常 u ^ wj u ^ < 1 ;
(3)输入训练数据样本xi,ti,计算fi1,□,fin,i=1,2,□,I;
(4)求yi,计算E(k),如误差满足要求,则转;
(8)如迭代限定次数后仍不满足误差要求则转(9),否则继续;
(5)由式(9)求G(k),并加判断,如G(k)<0,则G(k)=Gmin,(Gmin为选定的G最小值);
(6)计算wj(k),修正所有连接;
(7)返回,重复(4)~(7);
(8)找出wj绝对值最小者,舍去对应的函数项,转(2)重新计算;
(9)如前面曾舍去函数项则取最后一次误差满足要求的结果输出;否则,增加后一函数项,转(2)重新计算;如原设计最后函数项也已利用,则输出建模不成功信息或修改误差指标再运行;
最后,得到子系统的模型
y = f ( x , t ) = w 0 + &Sigma; i = 1 n w j f j ( x , t )
所述步骤二具体为:
FLN是一个仅含输入层和输出层的单层神经网络不计输入层,输入层的输入是原输入向量的扩展,扩展一般取作函数式扩展,即通过一组预先取定的线性无关的函数正交更好,将原输入向量展开,所得的模式作为输入向量。如下所示,原输入向量x是n维的,扩展函数组为f1,f2,f3....fn。
Figure A2008100724840005C2
设有M对模式(X(1),Y(1)),(X(2),Y(2)),…,(X(M),Y(M)),X(i)∈{-1,1}n,Y(i)∈{-1,1}m,i=1,2,…,M。要使网络让每对输入输出成为稳态点,则必须满足:
y k ( i ) = sgn ( &Sigma; j = 1 N T jk f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; x n ( i ) ) )
它等价于:
&Sigma; j = 1 m T jk f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; x n ( xi ) ) > 0
其中,i=1,2,…,M,k=1,2,…,m。Tjk是连接权值,定义:
g ( i , k ) = &Sigma; j = 1 N T jk f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; x n ( i ) ) - &sigma; i
上式中,σi(i=1,2,…,m)为小正数,它们可看成是松弛变量。为了求得满足(8)式的Tjk,定义费用函数为:
&phi; ( T ) = 1 2 &Sigma; i = 1 M &Sigma; k = 1 m ( G ( i , k ) ) 2
其中G(i,k)=min{0,g(i,k)}。
上式中的每一项G(i,k)表示一项惩罚。若(8)式中以σi取代零且约束成立,则有
G(i,k)=0;若(8)式的约束被破坏,则G(i,k)为负且等于g(i,k),故Φ(t)为下有界。若方程(8)(或约束(8))存在一个解,则Φ(T)的最小值为零。另外,由于(G(i,k))2是T的凸函数,故Φ(T)关于T也是凸的,从而意味着Φ(T)存在一个唯一的最小点T*,满足 &dtri; &Phi; ( T * ) = 0 且为Φ(T)的全局最小点。由此可知,通过最陡梯度下降法,能保证关于T的迭代在有限步内趋于T*,因此有:
T jk ( n + 1 ) = h ( T jk ( n ) - &eta; &PartialD; &phi; ( T ) &PartialD; T jk ( n ) )
= h ( T jk ( n ) - &eta; &Sigma; i = 1 M G ( i , k ) &PartialD; G ( i , k ) &PartialD; T jk ( n ) )
= h ( T jk ( n ) - &eta; &Sigma; i = 1 M G ( i , k ) f j ( x 1 ( i ) , &CenterDot; &CenterDot; &CenterDot; xn ( i ) y k i )
上式中,η仍表示收敛因子,h(x)为:
h ( x ) = - 1 x < - 1 x | x | &le; 1 1 x > 1
h(x)的作用是使{Tjk}有界,{σi}为自由参数,它可调节被存模式的吸引盆的大小。
CNA2008100724845A 2008-12-27 2008-12-27 一种函数链神经网络的自校正方法 Pending CN101567838A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNA2008100724845A CN101567838A (zh) 2008-12-27 2008-12-27 一种函数链神经网络的自校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNA2008100724845A CN101567838A (zh) 2008-12-27 2008-12-27 一种函数链神经网络的自校正方法

Publications (1)

Publication Number Publication Date
CN101567838A true CN101567838A (zh) 2009-10-28

Family

ID=41283798

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2008100724845A Pending CN101567838A (zh) 2008-12-27 2008-12-27 一种函数链神经网络的自校正方法

Country Status (1)

Country Link
CN (1) CN101567838A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103065192A (zh) * 2012-12-20 2013-04-24 华南理工大学 一种基于确定学习理论的海量时态数据建模方法
CN110324091A (zh) * 2019-06-17 2019-10-11 电子科技大学 一种基于函数链神经网络的非线性均衡器
CN111459202A (zh) * 2020-03-04 2020-07-28 深圳大学 输出气压调节方法、装置、设备及计算机可读存储介质
CN113532263A (zh) * 2021-06-09 2021-10-22 厦门大学 一种面向柔性传感器时序性能变化的关节角度预测方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103065192A (zh) * 2012-12-20 2013-04-24 华南理工大学 一种基于确定学习理论的海量时态数据建模方法
CN103065192B (zh) * 2012-12-20 2015-09-02 华南理工大学 一种基于确定学习理论的海量时态数据建模方法
CN110324091A (zh) * 2019-06-17 2019-10-11 电子科技大学 一种基于函数链神经网络的非线性均衡器
CN110324091B (zh) * 2019-06-17 2022-05-03 电子科技大学 一种基于函数链神经网络的非线性均衡器
CN111459202A (zh) * 2020-03-04 2020-07-28 深圳大学 输出气压调节方法、装置、设备及计算机可读存储介质
CN111459202B (zh) * 2020-03-04 2022-11-08 深圳大学 输出气压调节方法、装置、设备及计算机可读存储介质
CN113532263A (zh) * 2021-06-09 2021-10-22 厦门大学 一种面向柔性传感器时序性能变化的关节角度预测方法

Similar Documents

Publication Publication Date Title
US10984308B2 (en) Compression method for deep neural networks with load balance
CN107330514B (zh) 一种基于集成极限学习机的空气质量预测方法
CN111027772B (zh) 基于pca-dbilstm的多因素短期负荷预测方法
Agarwal et al. Runoff modelling through back propagation artificial neural network with variable rainfall-runoff data
CN104951836A (zh) 基于神经网络技术的发帖预测系统
CN104376214A (zh) 基于数据驱动的脉动风速模拟方法
CN114118375B (zh) 一种基于时序图Transformer的连续动态网络表征学习方法
CN112418482A (zh) 一种基于时间序列聚类的云计算能耗预测方法
CN102510059A (zh) 基于bp神经网络的超短期风电功率预测方法
CN106127330A (zh) 基于最小二乘支持向量机的脉动风速预测方法
CN105184398A (zh) 一种电力最大负荷小样本预测方法
CN101567838A (zh) 一种函数链神经网络的自校正方法
CN115293050A (zh) 流体流动降阶模型的建立方法、装置及系统和存储介质
CN109146131A (zh) 一种日前风力发电预测方法
Assaleh et al. Modeling nonlinear behavior of Buckling-Restrained Braces via different artificial intelligence methods
CN109840348B (zh) 一种三重加速的拓扑优化方法
CN117910120A (zh) 基于轻量化Transformer的风-桥系统抖振响应预测方法
CN110738363A (zh) 一种光伏发电功率预测模型及其构建方法和应用
CN113341696A (zh) 一种运载火箭姿态控制参数智能整定方法
Tao et al. Chaotic time series prediction based on radial basis function network
CN112132328A (zh) 一种光伏输出功率超短期局域情绪重构神经网络预测方法
KR102624710B1 (ko) Gru 기반 구조물 시계열 응답 예측 방법
CN110829434B (zh) 一种提高深度神经网络潮流模型扩展性的方法
CN114221334A (zh) 一种基于图神经网络的快速状态估计方法
Zhang et al. Development of a novel wave-force prediction model based on deep machine learning algorithms

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20091028