JPH09265463A - ニューラルネットワークの学習装置 - Google Patents

ニューラルネットワークの学習装置

Info

Publication number
JPH09265463A
JPH09265463A JP8076541A JP7654196A JPH09265463A JP H09265463 A JPH09265463 A JP H09265463A JP 8076541 A JP8076541 A JP 8076541A JP 7654196 A JP7654196 A JP 7654196A JP H09265463 A JPH09265463 A JP H09265463A
Authority
JP
Japan
Prior art keywords
output
neural network
function
learning
weighted sum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8076541A
Other languages
English (en)
Inventor
Norihiro Fujioka
典宏 藤岡
Tatsuya Nakamura
達矢 中村
Akira Ishida
明 石田
Masuo Takigawa
益生 瀧川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP8076541A priority Critical patent/JPH09265463A/ja
Publication of JPH09265463A publication Critical patent/JPH09265463A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】 階層型ニューラルネットワーク(N.N)の学
習において、学習課程における局所的最小値状態を回避
して、最適最小値状態に収束させる。 【解決手段】 N.N演算手段1には学習対象の学習デ
ータXが入力され、N.Nの演算を行いN.N出力Yが算
出される。ペナルティ関数算出手段2では、N.Nの非
線形関数をもつ素子の出力が極値のときに、出力値が最
大となるようなペナルティ関数の値を求め、第1重み付
け和算出手段3で算出したN.N出力と教師信号との2
乗誤差と前記ペナルティ関数値の重み付け和を評価関数
として、結合係数更新手段4によりバックプロパゲーシ
ョン法によりN.Nの結合係数を求めることにより、学
習課程における局所的最小値状態を回避して、最適最小
値状態に収束する学習をさせることができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ニューラルネット
ワーク(以下、単にN.Nという)の学習装置に関するも
ので、特に非線形でパラメータが未知な対象の特性をそ
の対象の入出力データからN.Nに学習するために用い
られるものである。
【0002】
【従来の技術】以下、図面を参照しながら、「Parallel
Distributed Processing」 Vol.1 TheMIT Press 1986や
特開平2−201607号公報等に示されている従来のニュー
ラルネットワークの学習装置であるバックプロパゲーシ
ョン学習則について説明する。
【0003】図5は、従来のN.Nの学習装置の構成図
を示すものである。図5において、51はN.N演算手
段、52は結合係数更新手段である。図6は、図5で構成
されているN.N演算手段51の説明図である。図6に示
すように、m入力s出力の3層N.Nであり、中間層素
子数nで、中間層の出力関数は非線形連続関数、入出力
層の出力関数は線形関数である。以後、図6に示す3層
N.Nを例として従来例を説明する。
【0004】図5において、上記N.N演算手段51には
正規化された学習データXが入力され、N.N出力Yが
算出される。まず、N.Nへの入力であるp番目の学習
データX(p)をX1(p),X2(p)…,Xm(p)とすると、中
間層のj番目の素子への入力Uj(p)は、閾値をθwj、i
番目の入力層素子からj番目の中間層素子への結合係数
Wijとして
【0005】
【数1】
【0006】と算出される。ここで、W0j=θwj、X0
(p)=1としている。
【0007】中間層のj番目の素子の出力Hj(p)は、中
間層の出力関数をfとすると
【0008】
【数2】Hj(p)= f(Uj(p)) となる。
【0009】次にr番目の出力層への入力Orは、閾値
をθvr、j番目の中間層素子からr番目の出力層素子へ
の結合係数Vjrとすると
【0010】
【数3】
【0011】と算出される。ここで、V0r=θvr、H0
(p)=1としている。
【0012】r番目の出力層素子の出力Yr(p)は、
【0013】
【数4】Yr(p)= Or(p) と算出される。
【0014】次に前記結合係数更新手段52では、前記
N.N演算手段51の出力と教師信号53との2乗誤差の和
【0015】
【数5】
【0016】を評価関数として、バックプロパゲーショ
ン法により2乗誤差の和Eを極小化するようにN.Nの
結合係数を算出する。ここで、dr(p)は、r番目の出力
層素子の出力Yr(p)に対する教師信号である。i番目の
入力層素子からj番目の中間層素子への結合係数Wij
は、(数6)のように
【0017】
【数6】
【0018】更新される。
【0019】
【外1】
【0020】
【数7】
【0021】ここで、f´(Uj(p))は、出力関数f(Uj
(p))の微分値である。
【0022】j番目の中間層素子からr番目の出力層素
子への結合係数Vjrは、(数8)のように
【0023】
【数8】
【0024】と更新される。
【0025】
【外2】
【0026】
【数9】
【0027】上記(数6),(数8)のnは学習回数、Pは
学習データ総数であり、μは学習係数(0<μ)、λはモ
ーメント係数(0<λ<1)であり、通常、学習開始時に
設定しておく。
【0028】この学習を繰り返し行い、前記2乗誤差の
和Eが十分小さくなった時点で学習を終了する。
【0029】
【発明が解決しようとする課題】しかしながら、前記に
示すような従来のN.Nの学習装置では、出力関数の微
分値が0付近の値になるような結合係数をとると誤差勾
配が微小な値になるため、学習誤差が大きくても結合係
数がほとんど更新されない状態、すなわち局所最小値に
陥った状態になり、2乗誤差の和Eが十分に小さくなら
ないといった問題があった。
【0030】本発明は、バックプロパゲーション法に従
ったN.Nの学習装置において、学習課程における局所
的最小値状態を回避して、最適最小値状態に収束させる
ことを目的とするものである。
【0031】
【課題を解決するための手段】本発明は、上記課題を解
決し目的を達成するためにN.Nの素子の出力関数が非
線形関数である素子に対して、素子出力が極値をとると
きに、出力値が最大となるペナルティ関数を求めるペナ
ルティ関数算出手段と、N.N演算手段の出力と教師信
号との2乗誤差とペナルティ関数値の重み付け和を算出
する第1重み付け和算出手段と、結合係数更新手段を有
し、前記重み付け和を評価関数としてバックプロパゲー
ション法により結合係数の更新を結合係数更新手段でも
って行うようにしたものである。
【0032】これによれば、学習課程における局所的最
小値状態を回避して、最適最小値状態に収束する学習を
させることができる。
【0033】
【発明の実施の形態】請求項1記載の発明の実施の形態
は、学習対象の入力を学習データとしてN.Nの演算を
行うN.N演算手段と、前記N.Nの非線形出力関数をも
つ素子の出力が極値をとるときに、出力値が最大となる
ペナルティ関数を算出するペナルティ関数算出手段と、
前記N.N演算手段の出力と教師信号との2乗誤差と前
記ペナルティ関数値の重み付け和を求める第1重み付け
和算出手段と、前記第1重み付け和算出手段から得られ
る重み付け和を評価関数としてバックプロパゲーション
法によりN.Nの結合係数を求める結合係数更新手段を
有することを特徴とするものであり、学習課程において
各素子の出力関数の微分値が0付近の値をとることによ
って生じる局所的最小値状態を回避して、最適最小値状
態に収束する学習をさせることができるという作用を有
する。
【0034】請求項2記載の発明の実施の形態は、学習
対象の入力を学習データとしてN.Nの演算を行うN.N
演算手段と、前記N.Nの非線形出力関数をもつ素子の
出力が極値をとるときに、出力値が最大となるペナルテ
ィ関数を算出するペナルティ関数算出手段と、前記N.
N演算手段の出力と教師信号との誤差の大きさに応じて
重み付け係数を変更する重み付け係数変更手段と、前記
重み付け係数に応じて前記N.N演算手段の出力と教師
信号との2乗誤差と前記ペナルティ関数値との重み付け
和を求める第2重み付け和算出手段と、前記第2重み付
け和算出手段から得られる重み付け和を評価関数として
バックプロパゲーション法によりN.Nの結合係数を求
める結合係数更新手段を有することを特徴とするもので
あり、学習課程において各素子の出力関数の微分値が0
付近の値をとることによって生じる局所的最小値状態を
回避して、高速、かつ精度よく最適最小値状態に収束す
る学習をさせることができるという作用を有する。
【0035】以下、本発明の各実施の形態について、図
1から図4、及び図6を用いて説明する。なお、本発明
の実施の形態1および2では、従来例と同様に図6に示
すm入力s出力の3層ニューラルネットワーク(N.N)
を用いて説明し、中間層素子数nで、中間層の出力関数
は非線形連続関数、入出力層の出力関数は線形関数とす
る。
【0036】(実施の形態1)図1は、本発明の実施の形
態1におけるN.Nの学習装置の構成図を示すものであ
る。図1において、1はN.N演算手段、2はペナルテ
ィ関数算出手段、3は第1重み付け和算出手段、4は結
合係数更新手段である。
【0037】N.N演算手段1には、従来例と同様に正
規化された学習データXが入力され、N.N出力Yが算
出される。ペナルティ関数算出手段2では、N.Nの素
子の出力関数が非線形関数である素子に対して、素子出
力が極値をとるときに、出力値が最大となるペナルティ
関数の値を前記N.N演算手段1から得られる各素子の
入出力値等から算出する。
【0038】ここで、非線形出力関数が(数10)に示すシ
グモシド型関数のように連続関数であり、最大,最小の
極限値をとるときに微分値の極限値が0となる関数なら
ば、ペナルティ関数gは(数11)のように求められる。
【0039】
【数10】 f(Uj(p))=2/{1+exp(−2Uj(p))}+1
【0040】
【数11】
【0041】ここで、Uj(p)は学習データpに対するj
番目の中間層素子への入力である。なお、sin関数の
ように最大,最小値をとるときに微分値が0とする関数
が出力関数の場合にも同様にペナルティ関数値を求める
ことができる。
【0042】次に第1重み付け和算出手段3で、前記
N.N演算手段1から得られるN.N出力Yr(p)と教師信
号dr(p)の2乗誤差Eと前記ペナルティ関数gの重み付
け和E2を(数12)のように求める。
【0043】
【数12】
【0044】ここで、βは重み付け定数(0<β)であ
り、学習開始時に設定しておく。結合係数更新手段4で
は、前記重み付け和E2を評価関数として、バックプロ
パゲーション法に従って結合係数を更新する。
【0045】次にi番目の入力層素子からj番目の中間
層素子への結合係数Wijは、(数13)のように
【0046】
【数13】
【0047】更新され、Pは学習データ総数である。
【0048】
【外3】
【0049】
【数14】
【0050】ここで、Xi(p)はi番目の入力層素子への
入力、f′(Uj(p))は出力関数f(Uj(p))の微分値であ
る。
【0051】次にj番目の中間層素子からr番目の出力
層素子への結合係数Vjrは、(数15)のように
【0052】
【数15】
【0053】更新される。
【0054】
【外4】
【0055】
【数16】
【0056】上記(数13),(数15)のnは学習回数、Pは
学習データ総数であり、μは学習係数(0<μ)であり、
通常、学習開始時に設定しておく。
【0057】図2は上述した図1の学習処理のフローを
示し、この処理は、全学習データの2乗誤差の総和Esu
mが予め定めた規定値より小さくなるまで繰り返され
る。
【0058】まず、S21で従来例で示した前記(数1)か
ら(数4)のN.Nの演算を学習データに対して行い、N.
N出力を算出する。
【0059】次に、S22では、全学習データに対する
N.N出力と教師信号との2乗誤差の総和Esumを(数17)
のように算出する。
【0060】
【数17】
【0061】S23では、2乗誤差の総和Esumと学習開
始時に設定した学習終了誤差εを比較して、2乗誤差の
総和Esumが学習終了誤差ε以下であれば、学習を終了
する。S23で学習終了条件に達していなければ、S24に
進み、ペナルティ関数値gを(数11)のように算出する。
【0062】S25では、N.N出力Yr(p)と教師信号dr
(p)の2乗誤差Eと前記ペナルティ関数gの重み付け和
E2を(数12)から算出し、S26で、バックプロパゲーシ
ョン法により、i番目の入力層素子からj番目の中間層
素子への結合係数Wijは、前記(数13)のように更新し、
j番目の中間層素子からr番目の出力層素子への結合係
数Vjrは、前記(数15)のように更新する。S26を終了
後、S21に戻る。
【0063】なお、本発明は、多入力多出力、または多
入力1出力の3層以上の階層型ニューラルネットワーク
の学習にも同様に用いることが可能であり、また、出力
層の出力関数が非線形関数の場合にも用いることが可能
である。
【0064】以上のような処理を行うことにより、局所
的最小値状態を回避して、最適最小値状態に収束する学
習をさせることができる。
【0065】(実施の形態2)図3は本発明の実施の形態
2におけるN.Nの学習装置の構成図を示すものであ
る。図3において、31はN.N演算手段、32はペナルテ
ィ関数算出手段、33は重み付け係数更新手段、34は第2
重み付け和算出手段、35は結合係数更新手段である。
【0066】N.N演算手段31には、従来例と同様に正
規化された学習データXが入力され、N.N出力Yが算
出される。ペナルティ関数算出手段32では、前記実施の
形態1と同様にして、N.Nの素子の出力関数が非線形
関数である素子に対して、素子出力が極値をとるとき
に、出力値が最大となるペナルティ関数gの値を前記
(数11)より算出する。
【0067】次に重み付け係数更新手段33では、前記
N.N演算手段31のN.N出力Yr(p)と教師信号dr(p)の
誤差eの大きさに応じて、(数18)のように重み付け係数
βを変更する。
【0068】
【数18】
【0069】ここで、γは定数(γ>0)であり、学習開
始時に設定しておく。なお、重み付け係数βは、誤差e
の大きさを前回の結合係数更新時に求めた誤差eoldの
大きさと比較して(数19)のように求めても良い。
【0070】
【数19】 |e|−|eold|>0ならば β(p)=β(p)+b1 |e|−|eold|≦0ならば β(p)=β(p)−b2・
β(p) ここでb1,b2は定数(0<b1,0<b2<1)であ
り、β(p)の初期値(β(p)>0)とb1,b2は学習開始
時に設定しておく。
【0071】次に第2重み付け和算出手段34で、前記
N.N演算手段31から得られるN.N出力Yr(p)と教師信
号dr(p)の2乗誤差Eと前記ペナルティ関数gの重み付
け和E2を前記重み付け係数更新手段33から得られた重
み付け係数β(p)を用いて、前記(数12)のように求め
る。
【0072】結合係数更新手段35では、前記重み付け和
E2を評価関数として、バックプロパゲーション法に従
い、前記(数13)から(数15)を用いて結合係数を更新す
る。
【0073】図4は上述した図3の学習処理のフローを
示し、この処理は、全学習データの2乗誤差の総和Esu
mが予め定めた規定値より小さくなるまで繰り返され
る。
【0074】まず、S41で従来例で示した前記(数1)か
ら(数4)のN.Nの演算を学習データに対して行い、N.
N出力を算出する。
【0075】次にS42では、全学習データに対するN.
N出力と教師信号との2乗誤差の総和Esumを(数17)の
ように算出して、S43で、2乗誤差の総和Esumが学習
開始時に設定した学習終了誤差ε以下であれば、学習を
終了する。S43で学習終了条件に達していなければ、S
44に進み、ペナルティ関数値gを(数11)から算出する。
【0076】S45では、重み付け係数β(p)をN.N出力
と教師信号との誤差eの大きさに応じて、(数18)、また
は(数19)から算出する。S46では、N.N出力Yr(p)と
教師信号dr(p)の2乗誤差Eと前記ペナルティ関数gの
重み付け和E2を(数12)で算出し、S47で、バックプロ
パゲーション法により、i番目の入力層素子からj番目
の中間層素子への結合係数Wijは、前記(数13)のように
更新し、j番目の中間層素子からr番目の出力層素子へ
の結合係数Vjrは、前記(数15)のように更新する。S47
を終了後、S41に戻る。
【0077】なお、本発明は、多入力多出力、または多
入力1出力の3層以上の階層型ニューラルネットワーク
の学習にも同様に用いることが可能であり、また、出力
層の出力関数が非線形関数の場合にも用いることが可能
である。
【0078】以上のような処理を行うことにより、局所
的最小値状態を回避して、高速、かつ精度良く最適最小
値状態に収束する学習をさせることができる。
【0079】
【発明の効果】以上説明したように本発明のN.Nの学
習装置はN.Nの素子の出力関数が非線形関数である素
子に対して、素子出力が極値をとるときに、出力値が最
大となるペナルティ関数の値とN.N出力と教師信号の
2乗誤差の重み付け和を評価関数として、バックプロパ
ゲーション法を用いて結合係数の更新を行うことによ
り、学習課程における局所的最小値状態を回避して、最
適最小値状態に収束する学習をさせることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1におけるニューラルネッ
トワークの学習装置の構成図である。
【図2】図1の学習処理のフロー図である。
【図3】本発明の実施の形態2におけるニューラルネッ
トワークの学習装置の構成図である。
【図4】図3の学習処理のフロー図である。
【図5】従来のニューラルネットワークの学習装置の構
成図である。
【図6】ニューラルネットワークの説明図である。
【符号の説明】
1,31…N.N演算手段、 2,32…ペナルティ関数算
出手段、 3…第1重み付け和算出手段、 4,35…結
合係数更新手段、 33…重み付け係数更新手段、34…第
2重み付け和算出手段。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 瀧川 益生 大阪府門真市大字門真1006番地 松下電器 産業株式会社内

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 学習対象の入力を学習データとしてニュ
    ーラルネットワークの演算を行うニューラルネットワー
    ク演算手段と、前記ニューラルネットワークの非線形関
    数をもつ素子の出力が極値をとるときに、出力が最大と
    なるペナルティ関数を算出するペナルティ関数算出手段
    と、前記ニューラルネットワーク演算手段の出力と教師
    信号との2乗誤差と前記ペナルティ関数値の重み付け和
    を求める第1重み付け和算出手段と、前記第1重み付け
    和算出手段から得られる重み付け和を評価関数としてバ
    ックプロパゲーション法によりニューラルネットワーク
    の結合係数を求める結合係数更新手段を有することを特
    徴とするニューラルネットワークの学習装置。
  2. 【請求項2】 学習対象の入力を学習データとしてニュ
    ーラルネットワークの演算を行うニューラルネットワー
    ク演算手段と、前記ニューラルネットワークの非線形関
    数をもつ素子の出力が極値をとるときに、出力値が最大
    となるペナルティ関数を算出するペナルティ関数算出手
    段と、前記ニューラルネットワーク演算手段の出力と教
    師信号との誤差の大きさに応じて重み付け係数を変更す
    る重み付け係数変更手段と、前記重み付け係数に応じて
    前記ニューラルネットワーク演算手段の出力と教師信号
    との2乗誤差と前記ペナルティ関数値との重み付け和を
    求める第2重み付け和算出手段と、前記第2重み付け和
    算出手段から得られる重み付け和を評価関数としてバッ
    クプロパゲーション法によりニューラルネットワークの
    結合係数を求める結合係数更新手段を有することを特徴
    とするニューラルネットワークの学習装置。
JP8076541A 1996-03-29 1996-03-29 ニューラルネットワークの学習装置 Pending JPH09265463A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8076541A JPH09265463A (ja) 1996-03-29 1996-03-29 ニューラルネットワークの学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8076541A JPH09265463A (ja) 1996-03-29 1996-03-29 ニューラルネットワークの学習装置

Publications (1)

Publication Number Publication Date
JPH09265463A true JPH09265463A (ja) 1997-10-07

Family

ID=13608137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8076541A Pending JPH09265463A (ja) 1996-03-29 1996-03-29 ニューラルネットワークの学習装置

Country Status (1)

Country Link
JP (1) JPH09265463A (ja)

Similar Documents

Publication Publication Date Title
Bodyanskiy et al. Hybrid adaptive wavelet-neuro-fuzzy system for chaotic time series identification
Chuntao et al. A neural networks model for hysteresis nonlinearity
EP1021752B1 (en) Model-free adaptive process control
US5943660A (en) Method for feedback linearization of neural networks and neural network incorporating same
Boulkroune et al. Indirect adaptive fuzzy control scheme based on observer for nonlinear systems: A novel SPR-filter approach
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
Li et al. Hybrid adaptive fuzzy control for uncertain MIMO nonlinear systems with unknown dead-zones
Li A sigma-pi-sigma neural network (SPSNN)
Kambhampati et al. Inverse model control using recurrent networks
Ramacher Hamiltonian dynamics of neural networks
JPH07121498A (ja) ニューラルネットワーク構築方法
Ren et al. Optimal output feedback control of nonlinear partially-unknown constrained-input systems using integral reinforcement learning
JPH09265463A (ja) ニューラルネットワークの学習装置
Lv et al. Adaptive neural finite-time control of nonlinear systems subject to sensor hysteresis
Canelon et al. A new approach for neural control of nonlinear discrete dynamic systems
Lee et al. Neural Network
Ayoubi Comparison between the dynamic multi-layered perceptron and the generalised Hammerstein model for experimental identification of the loading process in diesel engines
JP2674167B2 (ja) 神経回路網モデルを用いたプロセス制御方法
Cannas et al. Performance analysis of locally recurrent neural networks
JPH0981535A (ja) ニューラルネットワークの学習方法
JPH09138786A (ja) ニューラルネットワークの学習装置
Koivisto Minimum prediction error neural controller
Xu et al. A robust recurrent simultaneous perturbation stochastic approximation training algorithm for recurrent neural networks
Wang et al. Minimal model dimension/order determination algorithms for recurrent neural networks
Rodriguez et al. Identification of nonlinear dynamical systems by means of complex-valued fuzzy-neural multi-model