JPH0363870A - 学習方法及びニューラル ネットワーク構造 - Google Patents

学習方法及びニューラル ネットワーク構造

Info

Publication number
JPH0363870A
JPH0363870A JP2150083A JP15008390A JPH0363870A JP H0363870 A JPH0363870 A JP H0363870A JP 2150083 A JP2150083 A JP 2150083A JP 15008390 A JP15008390 A JP 15008390A JP H0363870 A JPH0363870 A JP H0363870A
Authority
JP
Japan
Prior art keywords
layer
neuron
learning
output
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2150083A
Other languages
English (en)
Inventor
Sherif Makram-Ebeid
シエリフ マクラム‐エビード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Gloeilampenfabrieken NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Gloeilampenfabrieken NV filed Critical Philips Gloeilampenfabrieken NV
Publication of JPH0363870A publication Critical patent/JPH0363870A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 技逝光立 本発明は、ニューラル ネットワークにおいて、エラー
 グラディエント バック プロパゲーション アルゴ
リズムによって、実例を基としてシナプス係数を定める
学習相(フェース)を遂行する学習方法に関するもので
ある。さらに本発明はニューラル ネットワーク構造及
び上述の方法を遂行するようプログラムされたコンピュ
ータにも関するものである。
宜景挟歪 ニューラル ネットワークはイメージ プロセシング、
スピーチ プロセシング等に用いられる。
ニューラル ネットワークは、対応のシナプス係数を有
するシナプスによって相互接続されている自動装置であ
る。これらのものは、従来のシーケンシャル コンピュ
ータでは解を得ることが困難であった問題の解を導きう
る。
所定のプロセス オペレーションを行うために、ニュー
ラル ネットワークは、前もってかかるオペレーション
(演算)を如何にして行うかを学習する必要がある。こ
のいわゆる学習(ラーニング)フェースは実際の例(エ
クザンブル)を用いるが、学習ではある入力データに対
し、出力に得られるべき結果が前もって判明している。
第1周期では、ニューラル ネットワークは未だ所望の
任務を遂行するに適して居らず、不正確な結果を生ずる
次で得られた結果と、得られるべき結果の間のエラーE
pを決定し、適用化(アダブチ−ジョン)の原理に基づ
いて、シナプス係数を変化させ、ニューラル ネットワ
ークがある選択した例を学習しうるようにする。ニュー
ラル ネットワークが満足な学習を行うに必要と考えら
れるだけの数の例に対し、このステップを反復して行う
かかる適応化を行うため、広く行われている方法は、グ
ラディエント バック・プロパゲーションである。前位
のエラーE9  (最終相りで計算されたもの)のグラ
ディエントgj、Lの成分を、次で各ニューロン状態x
、、 Lに対して決定する。
これらの成分を次でニューラル ネットワーク内にバッ
ク・プロパゲーションを行わせる。これはまずすべての
内部成分g=、t  (f≠L)を決定するため、その
出力より出発し、次で関連のニューロンのシナプス係数
’ij+Lに加えるべき修正について行う。この方法は
、例えば次の文献に記載されている。
デイ−・イー・ルーメルハート(D、EjRumelh
art)デイ−・イーヒントン(D、EjHinton
)及びアール・ジェー・ウィリアムス(R,J、Wil
liams)著”Learning Internal
 Representation by ErrorP
ropagation デイ−・イー・ルーメルハート(D、EjRumelh
art)ジエー・エルーマyクレランド(J、L、Mc
Clelland)著”Parallel Distr
ibuted Processtng : Explo
rationin the Microstructu
re of Cogntion ” VoI!、、 I
Foundations、 MIT Press (1
986)デイ−・ジェー・バール(D、J、Burr 
)”Experiments on neural n
et recognition ofspoken a
nd written text ” 、 TEEE 
Trans、 onAcoustic、 5peech
 and signal processing+ V
ol。
36、 No、7.1988年7月1162頁。
しかしこれらの方法がニューラル ネットワーク内で行
われると、ある特定用途に対し学習期間が極めて長くな
る。例えばパリティ問題のとき、かかる困難が生ずる。
パリティ問題は、例えば、入力が2進信号I1項にリン
クし、出力は、入力“′1”の数が奇数のとき状態lを
出力し、反対に偶数のとき状態Oを出力するようになっ
ているニューラル ネットワークで生ずる。この場合の
学習の問題は、入力のうちの僅か1つが状態を変化する
と出力の状態を変化させる必要があり、かつ偶数個の入
力状態が変化したときは出力は変化してはならないとい
う規定に起因する。
さらに、例えばニューラル・ネットワークを分類(クラ
シフィケーション)問題に使用するとき、最小距離の間
が小であるクラスを分離させることが困難である問題が
ある。これはこれらのクラスを弁別するのにニューラル
・ネットワークが学習に長時間を必要とするからである
。この欠陥により、連続的に符号化される入力データの
分離が困難となり、とくに例のいくつかが異なるクラス
に属する場合で、入力が互に極く僅かしか相違しないと
きこれは困難である。
発里生盟主 従って本発明の課題は、必要とする追加のハードウェア
を最小としながら、ニューラル・ネットワークの学習時
間を減少させるというにある。
本発明は、 L層よりなるニューラル ネットワークに
より行われる学習方法であって、次の各ステップすなわ
ち、 ・Nlのニューロンにシナプス係数W(j+L′で接続
されている前位の層のニューロンより供給される出力電
位Yi+L−1を基とするか、あるいは層e=1に対す
る入力データYj、。を基として、層lのニューロンの
状態Xj、Lを、 Xj+L”’ΣiJ+f ’  Yt++−+で決定す
るステップと、 ・非直線関数Fを用いて次の如く、出力ニューロンの電
位Yj1.を決定するステップで、Yi、、i =F 
(X、t ) ここにおいて、 l:1≦i≦Lのときの層のインデックスj:出力層l
のニューロンのインデックスに入力層乏−1のニューロ
ンのインデックスであるステ・・・ブを具える方法であ
って、本方法はニューラル ネットワークの入力に連続
的に供給されるPの例の反復による学習相を有し、かつ
これら学習相は。
6ニユーラル ネットワークのシナプス係数のマトリッ
クスWij+1の設定、 ・学習しようどする各例pの入力データyj、。の導入
、 ・部分エラー Ejを規定する為入力に提供されるこの
例pに対し7直視される出力Yjによ10、各層り内に
得られる結果Yj、Lの比較、・各出力ニューロン及び
各例pに対し観察される・出力層りに対する状1.Xi
、t、に関するエラーEの各グラディエント戊分 g44.−θE /’θXj+( の決定 ・グラディエントの成分glt、のバック プロパゲー
ション方法を行い、これによりニューラルネソトワーク
による、置換されたシナプス係数71リクスを基として
他の層に対するグラディエントの成分g1Lの決定、 ・ニューラル ネットワークに適用するため、対応の係
数g11.の符号と逆の符号を有する次の変化ΔXj、
 Lの決定、 ・変化ΔXj+ Lを基として、シナプス係数のア・7
プデートの各相を含んでいる学習方法において、ニュー
ロン状態の次の変化を決定するため、グラディエント成
分gj,Lにパラメータθ1Lを乗するステップを有し
、これによって−θ1゜gl、′に比例する変化ΔXj
+Lを計算すること、ここにおいて、θ、、は層lのニ
ューロンjの状態に応じて定まり、また 0≦θ1゛≦1で、 g19.とXj+Lが異なる符号を有するときは、θj
+ 1 =1であり、 gj+ t とXjrLが同じ符号を有するときは、θ
j+L=θL+である ことを特徴とする。
学習工程中において、所定の例pが提示される。
例pに付属し、ニューラル・ネットワークの入力を通じ
て導入されるデータは、ネットワークの最終層りにおい
て、所定の出力ニューロンjに結果Yj+ Lを生ずる
。このとき、スタート点で遂行すべき結果YJが判明し
ている。このため、エラーは例えば次の如くして計算で
きる。
この式は自乗平均エラーに対する式である。他の比較基
準を用いることもできる。
既知のグラディエント パック・プロパゲーション方法
によると、エラー グラディエントの成分g、t は、
ニューロンの状態XjrLの各貢献に対し決定される。
従って gj、 t = a E’7θx、、 LここでXj、
L は非直線関数適用前のニューロンの状態を表わす。
従って、成分 gj、L=θE’/θXj、L は出力層りに関するものであり、このため、gj、t、
 = (yj、t、 −Yj)  ・ P’j+L と
なる。
ここでF’j+Lは非直線出力関数の導関数である。
このときニューラル・ネットワークは、置換されたシナ
プス係数マトリクス’ji+Lをロードされ、成分g、
Lはネットワークの出力よりパック・プロパゲートされ
る。ネットワークはこれによって、l≠Lにおけるグラ
ディエントの他の成分を決定する。これらの成分g=+
tを変化ΔXj+Lの決定のために使用し、これを用い
てシナプス係数Wij+1を修正し、ネットワークを関
連の例(エクザンプル)に適合させる。
一般に云って、この既知の修正方法は、次の如くなるよ
うにして行う。
W=j、t (new) =Wi 1t (old) 
+ k ・ΔXj、 、’ Yi、L−1本発明によれ
ば、成分gj+ t は既知の方法の上述の如くは使用
せず、各戒Lj1・は、所定のニューロンjの符号、す
なわち、 ・このニューロン状態Xj+を及び ・グラディエントgJ、L の成分の符号にもとづいて
定まる関連のパラメータθj+Lによって前もって増倍
しておく。
これらのパラメータは、 glt とXjrLが異なる符号のときは、θ1゜であ
り、 −g、、とXjrLが同じ符号で、0≦θ1゛≦】のと
きは、θj+L””θ1 である。
しかし学習プロセスを促進するため、第1学習反復中に
おいて、各所定例に対し、θL+を零に近くまたは零に
選定するを可とする。
さらに、後の学習反復コースにおいて、θ。
が各所定例に対し1に向って増加する。
本発明における符号の応用は、学習の開始時においては
、観察されるエラーの符号を考慮して修正を行い、かつ
学習が進むにつれ、より高精度で、より粗の程度の小な
い修正が徐々に行われるようにするを可とする。
出力電位を決定する非直線関数は僅かな非直線、または
強度の非直線に選定しうる。本発明による符号の採用の
効率を増加させるため、非直線関数の選択を学習工程中
に変更することができる。し。
かし、グラディエント パック・プロパゲーション方法
により得られる変化Δx47.は、シナプス係数に過剰
の変化を生じさせることはない。従って本発明による補
間バージョンでは、標準化が行われ、このためシナプス
係数の自乗の和は準・−定のままとなる。
このため、学習の開始時における非直線関数は僅かな非
直線に選択し、学習の終りには符号形に近づくようにす
る。この選択を可能にするため、シナプス係数は、所定
のニューロンjに向って収斂する標準の、 Σ (Yi7.t)2 の準安定値を保つようにする。
非直線関数Fが、Yjt = tanh (XJ、t/
Tt)型であり、ここにT+ は層に関するパラメータ
で、層lの温度と称されるパラメータである。
非直線関数の非直線性の程度について、学習中に印加さ
れた変化は、各層に対するパラメータTLの変化より得
られる如くした。
本発明による符号の応用原理は、エラー符号によって優
先的に粗修正(θ゛が小でかつ正)を行い、次で高精度
で修正を行うため、lに近いパラメータβ゛によって精
密修正を行い、構造全体のレベルにおいて類似の効果を
生せしめる。このたメータηj+Lで増倍する。これに
より、すべてのニューロン状態に関し同時に加えられる
修正(パラメータηj+L)は、各状態(パラメータθ
+)に対し行われる各個別修正に重畳される。
前もって提出された符号の効果により、最終層りの各出
力ニューロンjに応じた修正係数ηj+Lを導入するこ
とができる。この場合のエラーHpは次式で定まる。
!g  =’A  (YJY4.L)2である。
このエラーは自乗関数となる。
一般的に云って、層L(所定の例pに対し)の各出力ニ
ューロンjに対し、このエラーEJ は、EJ= H(
Y7   Ylt ) となり、 ここで、 Hは得られた結果Yj+Lと所期の結果YJとの差の関
数である。
かく得られた、エラーEpを上述の如くして形成された
グラディエントの成分gj、L及びgj+ L(ただし
l≠L)を決定するに使用する。
本発明方法は、グラディエントgj+Lの成分を決定す
るため、前もって、最終層のニューロンjによって定ま
る修正係数ηj+Lを加えることにより、エラーE2を
決定するステップを有し、これにより ここで、 j=1 として、学習の開始を有利にするステップを設ける。た
だし、 E:及びyj、 Lが異なる符号のときはη3.t=1
、Yj及びYj、Lが同じ符号のときはηj+L”η“
であり、ここに 0≦η3≦l である。
現在の場合には、η、1=θj+Lである。
を可とする。
本発明の補足的バー・ジッダによれば9戦略はニューラ
ル ネットワークの各層のレベルにおいて展開させるこ
とができる。学習は、入力層に対して付託された有力な
役割を考慮して、入力層に対しては加速し、出力層に対
しては減速するようにする。
グラディエント バンク プロパゲーション方法の一般
の適用において、ニューロンXj、Lの状態はグラデイ
エン)gJ、tの対応する成分を考慮した量−ΔXj、
L により修正している。これはニューロン ネットワ
ークのすべての層に対して同一の比例係数(propo
rtionality coefficient )に
よりグラディエントg41.の各成分を増倍することに
より起る。
また補足的バージョンによれば、本発明は各階層の各ニ
ューロンに比例係数βj+Lを割当てることにより修正
を行い、各修正−ΔXj、Lをβ5.。
gllに比例させるようにすることを提案している。
パラメータβj+L は、修正値Δχ41.を決定する
のに役立つパラメータθj+L に比例するようそれを
設定することにより上述の符号戦略に関連させる。
このようにして、β41.はβ、・θj+Lに比例する
。ここで、β、は任意の所定の層lに対して同一である
。この補足バージョンによるときは、入力層における学
習速度の出力層における学習速度に対する制御を可能に
するパラメータβ、を各層lに割当てるようにしている
。したがって、パラメータβ、は、lが入力層から出力
層に向かって増加するにしたがって減少する。
このように、本発明方法は、各層に応じて定まる定数β
、によって、成分θ12.・ gj+tを倍数するステ
ップを有し、このステップによって−ΔX59.をβ1
 ・θj+L  ’  gj、tに比例させ、ここでβ
、は入力層よ10、各層に向って層の数に応じて厳密に
減少する如くし、このためニューロン状態に加えられる
修正が、入力層の学習を加速し、かつ出力層の学習を減
速することを確保する。
〔実施例〕
以下図面により本発明を説明する。
第1図はそれぞれ入力信号Yl+ L−1+ YZ+ 
L−1+y、 (L−11,L−1をその状態がXj+
1の単一の出力ニューロンに供給する複数のニューロン
10+101(1−11を含む入力層により形成した単
体のニューロン ネットワークにより行われる一般の作
動図を示す。この場合、上記の状態は計算手段1工によ
り次のように決定される。
Xj・1=ΣWi+j・、′Y・・L−1この状態χ4
1.は非直線関数(ブロック12)の影響を受け、この
関数Fを適用された後、出力ポテンシャルY4..を与
える。
Yj、L= F (X1t ) したがって、この出力ポテンシャルY41.は後続の層
に対する入力状態として役立つことができる。
かくして、入力層i=1、隠蔽層(hidden 1a
yer)1=2.3および出力層1=Lを含む第2図に
示すような複数の層が得られる。層のニューロンはシナ
プス係数’ij+Lを介して後続の層のニューロンに排
他的に連接(リンク)させるようにする。
各ニューロンの状態は層2=1からスタートして前述の
式により決められる。
学習プロセスを実行するため、すなわち、所定のタスク
に対してシナプス係数を適応させるため、出力層上の結
果yjが前もって分っているような例(イグザンブル)
を入力に提供し、各実例に関して、すべての出力状態に
対しエラーEpを計算した後、各中間状態の微小変数θ
Xj、Lに関してその変数を決定する。この場合、グラ
ディエント成分gj、Lは次式で与えられる。
gjl、=θEp/θxj1 かくして、出力層内の成分g4.Lは計算された後、ニ
ューロン ネットワークに逆転Tti(パックプロパゲ
ート)され、そこでエラー グラディエントの他の成分
gj+tが復元される。これらの成分はニューラル ネ
ットワークを直面するタスクに適応させるため、状態χ
11.用としてそれから推論される変数Δχj+Lを決
定することを可能にする。この作動は、前述のように、
シナプス係数W==、tの更新に先立って行われる。
本発明方法のこれらのステップは第3図に示すような専
用のニューロン ネットワーク構造または本方法を実行
するようプログラムされたコンピュータ内で行うように
する。
メモリ30は、例えば入力手段29により最初に供給さ
れるシナプス係数マトリックス−15,および順序を逆
にしたマトリックス−5i1.を記憶する。
シナプス係数は、前の層から入力ポテンシャルYi+L
−1を受信する計算手段31に供給されるようにし、こ
れらの手段31は Xj+L=Σ wtj、t ’  Yi+L−1を決定
する。
ネットワークの入力には、入力ニューロン状態Yi+L
−1をベースにして、イグザンプル(例)Yよ、。
を供給する。これらの例はイグザンプル メモリ(実例
メモリ)32により供給されるようにする。
セレクタ33はこの選定を可能にする技能を有する。
また、前記イグザンプル メモリ32は各イグザンブル
pおよし各出力ポテンシャルj用として得られるべき結
果Yjをも記憶する。
出力ニューロンの状態X、、 t はメンバー34にお
いて非直線関数に従わせる。前記メンバー34は各イグ
ザンプルに対してシステムにより供給されるような最後
の層りの出力ポテンシャルYj、 Lを供給する。層l
の出力ポテンシャルYj+Lは、1つの層から他の層へ
の中間計算ステップの実行のためこれを状態メモリ(ス
テート メモリ)37に一時記憶させ、次の層に対する
入力状態として使用しうるようにする。各ポテンシャル
Yj+Lは比較器35において意図する状態Yjと比較
する。前記比較器35はさらにすべての検出エラーEJ
を記憶し、これらのエラーを加算して各イグザンブルに
関するエラーEpを与える。
グラディエントgj+Lの成分はホスト コンピュータ
36により決定するようにする。これがため、コンピュ
ータは、エラーE11出力ポテンシャルYj+Lおよび
意図する状態y、を受信する。ホスト コンピュータ3
6に次式が成立するよう成分gj+tを決定する。
g;+t”θj+L  ・(Yj、t −Yj)  ・
F’j+しただし、1≦j≦I(L)、 また、F’j+Lは出力層の各非直線関数の導関数であ
る。
これらの成分gj、Lはグラディエント逆伝搬方法(ク
ラデイエンド パック プロパゲーション方法)の実行
を可能にする計算手段31に一供給するようにする。す
なわち、成分gj+Lは出力層に供給され、これらの効
果が入力層に逆伝搬されるようにする。
かしくて、グラディエントgj、、=θE9/θし、。
(ただし、l−#L)は計算手段31を用い、エラーE
’のグラディエントの逆伝搬により決定される。
この成分gj、t は各ニューロン状態に対して次の変
数ΔXj,Lを決定するためホスト コンピュータ36
に供給するようにする。この目的のため本発明の場合、
コンピュータ36は各成分gj+tをそのパラメータθ
4..により増倍させるようにする。
すべての変数ΔXj+L はこれらを更新メンバー38
に供給する。前記更新メンバー38は新しいシナプス係
数Wij+1を決定し、これらの係数をメモリ3項に供
給する機能を有する。
このプロセスは全学習フェーズを実行するため反復する
ようにする。その課程において、ホストコンピュータ3
6は最初の反復に対し、項に等しいか、項にほぼ等しい
修正パラメータ(コレクション パラメータ)θどを供
給することができ、その後コンピュータ36は爾後にお
ける反復の課程においてこのパラメータを値1に近付け
るよう増加させることができる。さらに、ホスト コン
ピュータ36は計算手段31においてグラディエント逆
伝搬を行わせるため、成分gj、tを計算する前にEj
のパラメータη1Lによる増倍を実施する。
β、・θj+L  ’  gj+Lに比例する変数−Δ
×1.Lを決定するため各層に関する定数β、を修正値
θ18.・ gj+ 1に供給する場合、ホスト コン
ピュータは更新メンバー38によるシナプス係数’1i
rtの更新前に進行する。
かくして、本発明による階層状のニューラルネットワー
ク構造は上述の学習方法を実行するための手段を含み、
その目的のため前記構造は一シナプス係数(連続係数)
を記憶する手段と、−学習し、ニューラル ネットワー
ク内に導入すべきイグザンブル(例)を記憶する手段と
、−各イグザンプルごとに、出力に得られるニューロン
 ポテンシャルを各実例に対して直面する結果と比較し
、観察された差に一致するエラーを供給するための手段
と、 一人カニューロン ポテンシャルをベースにして出力ニ
ューロン状態を計算し、かつ該エラーのグラディエント
逆伝搬を行って、該グラディエントの成分g1..を与
えるための手段と、−出力において非直線関数を供給す
るための手段と、 一グラディエントの成分gj,Lおよび本方法に関する
乗算器パラメータを考慮に入れて新しいシナプス係数を
計算し、反復サイクルの所定の反復に割当てられたシグ
ニフィカンス(significance)あるいはニ
ューラル ネットワークの所定のニューロンまたは所定
の層に割当てられたシグニ入れて新規なシナプス係数を
可能にする手段とを含む。
第3図示システムはホスト コンピュータにより制御す
るようにした機能ブロックよりなるニューラル ネット
ワーク構造の形で与えるようにしたもので、この場合、
実現すべき機能にコンピュータそれ自体の中に集積する
ことが好ましい。その場合には、本発明は前述の方法の
各ステップを実施するプロゲラミンクされたコンピュー
タにも関する。
表1は本発明によるプログラムの例の主要なスチップを
含むフローチャートを示す。
−2j二乙1」−は小さい正の値にη゛およびθ°を初
期設定し、温度TLを固定する。層(レア)j2=lに
対しては値TLはイグザンプル(例)pに関する入力の
絶対値の平均に等しく、層l≠1に対しては、値TLは
1のオーダーである(loop to 1 )。
シナプス係数−ij+Lは無作為選択により初期設定す
るか、既知の値に設定する(loop to i an
d j )。
−ステップ2はイグザンプルpに対する入力値Yi、。
をニューラル ネットワーク内に挿入する。
−表土ヱ1工は状態X41.および出力ポテンシャルY
j+Lを計算する。状態Xj+1の計算はスレショール
ビS11.を含む。前記スレショールドは非直線関数F
内に導くこともできる。
−2乙j二と1」ユは出力エラーに符号戦略(sign
 strategy)を供給する。この目的のため積(
プロダクト)Yj−Yj、Lを形威し、その符号を考慮
する。積が負またはOの場合は、ηj+Lは値1をとり
、反対の場合、ηj+Lは値η゛をとる。
出力層におけるエラーE’を決定し、グラディエントg
j、Lの成分を計算する。
−ステップ5 非直線関数の導関数F’j+Lを計算す
る。次に、グラディエントの逆伝搬によりグラディエン
ト gj、L−1の成分を計算する。積(プロダクト)
   glt  ・ X49.をチエツクする。この積
が負または0の場合、θ、Lは1に等しくこの積が正の
場合、θ51.はθ° (ただし0≦θ1≦1)に等し
い。次に、β1.を計算する。
−ステップ6 次の変数ΔXj+Lを決定するため、グ
ラディエントgj,Lの成分を使用する。このステップ
は、成分gj、 Lに変数ΔX、、 Lへの影響をもた
せることを可能にする自動応用関数例(auto−ad
aptiue function example )
の選択を与える。
この関数はグラディエントgj,LのモジュラスG2、
修正の振幅を制御する因子γ、ξおよび種々のニューロ
ンに関連する環β5..の平均値Tを含む。
−ステップ7 このステップはイグザンプルPに対して
計算された変数ΔXj+ Lのシナプス係数−□j+L
問およびスレショールドSj+L間の分配を可能にする
。分配係数(ディストリビューションファクタ)は基準
(norm) ΣY□、。
を適用するパラメータσ、により制御される。このステ
ップ7は、シナプス係数の基準を所定の出力ニューロン
に対して準一定値に保持することを可能にする分配の例
を表わす。変化はできるだけ、小さいスレショールドお
よび重み(ウェイト)のバリエーションにより実現され
る必要がある。
−ステップ8 すべてのイグザンプルに対する影表1 さい場合は、学習を終了する。このエラーがεより大き
い場合は、次のステップにより手順を継続する。
一ステップ9 温度TLを僅かに低下させる。したがっ
て、初期値はOないし1間のパラメータe。
により増倍される。
一ステップ10  η゛およびθ“の値を再調整する。
−去±エフ”ll  他のイグザンプルp′を選定し、
ステップ2により作動を再開させる。
【図面の簡単な説明】
第1図は入力ニューロンの層および単一出力ニューロン
を含む構造により実行される処理のメカニズムを示す図
、 第2図は複数の層、すなわち入力層、隠蔽層および出力
層を含む構造を示す図、 第3図は本発明方法を実行するニューラル ネットワー
ク構造を示す図 である。 10+、 10g−−−101(L−1)”’ニーL−
ロン(神経の細胞)11、31・・・計算手段 12・・・非直線関数 29・・・入力手段 30・・・メモリ 32・・・イグザンプル メモリ(実例メモリ)33・
・・セレクタ 34・・・非線形メンバー 35・・・比較器 36・・・ホスト コンピュータ 37・・・状態メモリ 38・・・更新メンバー

Claims (1)

  1. 【特許請求の範囲】 1、L層よりなるニューラルネットワークにより行われ
    る学習方法であって、次の各ステップすなわち、 ・層lのニューロンにシナプス係数W_i_j_,_L
    ′で接続されている前位の層のニューロンより供給され
    る出力電位Y_i_,_L_−_1を基とするか、ある
    いは層l=1に対する入力データY_i_,_0を基と
    して、層lのニューロンの状態X_j_,_Lを、 X_j_,_L=Σij,l・Y_i_,_L_−_1
    で決定するステップと、 ・非直線関数Fを用いて次の如く、出力ニューロンの電
    位Y_i_,_Lを決定するステップで、Y_i_,_
    L=F(X_j_,_L) ここにおいて、 l:1≦l≦Lのときの層のインデックス j:出力層lのニューロンのインデックス i:入力層l−1のニューロンのインデックスであるス
    テップを具える方法であって、 本方法はニューラルネットワークの入力 に連続的に供給されるpの例の反復による学習相を有し
    、かつこれら学習相は、 ・ニューラルネットワークのシナプス係数 のマトリックスW_i_j_,_Lの設定、・学習しよ
    うとする各例pの入力データY_j_,_0の導入、 ・部分エラーE_jを規定する為入力に提供されるこの
    例pに対し直視される出力Y_jにより出力層L内に得
    られる結果Y_j_,_Lの比較、・各出力ニューロン
    及び各例pに対し観察されるすべての部分エラーE_j
    の和Eの決定、・出力層Lに対する状態X_j_,_L
    に関するエラーEの各グラディエント成分 g_j_,_L=∂E/∂X_j_,_L の決定 ・グラディエントの成分g_j_,_Lのバックプロパ
    ゲーション方法を行い、これによりニューラルネットワ
    ークによる、置換されたシ ナプス係数マトリクスを基として他の層に対するグラデ
    ィエントの成分g_j_,_Lの決定、・ニューラルネ
    ットワークに適用するため、対応の係数g_j_,_L
    の符号と逆の符号を有する次の変化ΔX_j_,_Lの
    決定、 ・変化ΔX_j_,_Lを基として、シナプス係数のア
    ップデートの各相を含んでいる学習方法において、 ニューロン状態の次の変化を決定するため、グラディエ
    ント成分g_j_,_Lにパラメータθ_j_,_Lを
    乗するステップを有し、これによって−θ_j_,_L
    ・g_j_,_L′に比例する変化ΔX_j_,_Lを
    計算すること、 ここにおいて、θ_j_,_Lは層lのニューロンjの
    状態に応じて定まり、また 0≦θ_1^+≦1で、 −g_j_,_LとX_j_,_Lが異なる符号を有す
    るときは、θ_j_,_L=1であり、 −g_j_,_LとX_j_,_Lが同じ符号を有する
    ときは、θ_j_,_L=θ_L^+である ことを特徴とする学習方法。 2、第1学習反復θ_L^+をほぼ零に等しくするか、
    各所定値に対しほぼ零とするかの何れかとする請求項1
    記載の方法。 3、後の学習反復コースにおいて、θ_L^+が各所定
    例に対し1に向って増加する如くした請求項2記載の方
    法。 4、非直線関数を、学習の初めにおいて僅かな非直線に
    選択し、然る後学習の終りにおいて符号形関数に近づく
    如くし、またかかる選択を許容するため、所定のニュー
    ロンjに向って収斂するシナプス係数が、基準Σ(W_
    i_j_,_L)^2準定数を維持する如くした請求項
    1ないし3のうちの1項記載の方法。 5、非直線関数Fが、Y_j_,_L=tanh(X_
    j_,_L/T_L)型であり、ここにT_Lは層に関
    するパラメータで、層lの温度と称されるパラメータで
    ある請求項4記載の方法。 6、非直線関数の非直線性の程度について、学習中に印
    加された変化は、各層に対するパラメータT_Lの変化
    より得られる如くした請求項5記載の方法。 7、グラディエントg_j_,_Lの成分を決定するた
    め、本方法は、前もって、最終層のニューロンjによっ
    て定まる修正係数η_j_,_Lを加えることにより、
    エラーE^pを決定するステップを有し、これにより E^p≒Σ^I^(^L^)_j_=_1η_j_,_
    L・E^p_jとして、学習の開始を有利にするステッ
    プ、ただし、 E_j及びY_j_,_Lが異なる符号のときはη_j
    _,_L=1、Y_j及びY_j_,_Lが同じ符号の
    ときはη_j_,_L=η^+であり、ここに 0≦η^+≦1 である請求項1ないし6のいずれか1項に記載の方法。 8、η_j_,_L=θ_j_,_Lとする請求項7記
    載の方法。 9、部分エラーE_jが、自乗エラー 1/2(Y_j−Y_j_,_L)^2 である請求項1ないし8のいずれか1項記載の方法。 10、各層に応じて定まる定数β_Lによって、成分θ
    _j_,_L・g_j_,_Lを倍数するステップを有
    し、このステップによって−ΔX_j_,_Lをβ_L
    ・θ_j_,_L・g_j_,_Lに比例させ、ここで
    β_Lは入力層より出力層に向って層の数に応じて厳密
    に減少する如くし、このためニューロン状態に加えられ
    る修正が、入力層の学習を加速し、かつ出力層の学習を
    減速することを確保する請求項1ないし9のいずれか1
    項に記載の方法。 11、請求項1ないし10に記載の学習方法を行う手段
    を有するニューラルネットワークにおいて、 ・シナプス係数を蓄積する手段、 ・学習すべき各例を蓄積し、これらの例をニューラルネ
    ットワークに導入する手段、 ・各例に対し、ニューロンの出力に得られるニューロン
    の電位を各例に対して直視される結果と比較し、観察さ
    れた差に対応するエラーを供給する手段、 ・入力ニューロン電位を基礎として出力ニューロン状態
    を計算し、前記エラーのグラディエントバック・プロパ
    ゲーションを遂行し、当該グラディエントの成分g_j
    _,_L及び当該方法に割当られた増倍パラメータを考
    慮に入れて新規なシナプス係数を計算し、これによって
    反復サイクルの所定反復に貢献するシグニフィカンスの
    制御を行うか、または所定の層またはニューラルネット
    ワークの所定のニ ューロンに割当られたシグニフィカンスの制御を行う手
    段を有することを特徴とするニューラルネットワーク構
    造。 12、請求項1ないし10のいずれかに記載の学習方法
    を遂行するようプログラムされたコンピュータ。
JP2150083A 1989-06-09 1990-06-11 学習方法及びニューラル ネットワーク構造 Pending JPH0363870A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR8907662A FR2648251B1 (fr) 1989-06-09 1989-06-09 Methode d'apprentissage et structure de reseau de neurones
FR8907662 1989-06-09

Publications (1)

Publication Number Publication Date
JPH0363870A true JPH0363870A (ja) 1991-03-19

Family

ID=9382564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2150083A Pending JPH0363870A (ja) 1989-06-09 1990-06-11 学習方法及びニューラル ネットワーク構造

Country Status (5)

Country Link
US (1) US5630020A (ja)
EP (1) EP0401927B1 (ja)
JP (1) JPH0363870A (ja)
DE (1) DE69029538T2 (ja)
FR (1) FR2648251B1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0466022A3 (en) * 1990-07-12 1993-08-25 Allen-Bradley Company, Inc. Teaching method for recurrent neural networks
JP3515267B2 (ja) * 1996-02-29 2004-04-05 株式会社東芝 多層神経回路網学習装置
US6871195B2 (en) * 2000-09-13 2005-03-22 E-Promentor Method and system for remote electronic monitoring and mentoring of computer assisted performance support
US6981958B1 (en) * 2001-05-02 2006-01-03 Glaukos Corporation Implant with pressure sensor for glaucoma treatment
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
DE102012009502A1 (de) * 2012-05-14 2013-11-14 Kisters Ag Verfahren zum Trainieren eines künstlichen neuronalen Netzes
US11037054B2 (en) * 2016-12-20 2021-06-15 Intel Corporation Trace-based neuromorphic architecture for advanced learning
CN109165275B (zh) * 2018-07-24 2021-03-02 国网浙江省电力有限公司电力科学研究院 基于深度学习的智能变电站操作票信息智能搜索匹配方法
CN109814389A (zh) * 2019-02-01 2019-05-28 浙江大学 参数自整定的mimo异因子紧格式无模型控制方法
CN113515043B (zh) * 2021-06-18 2024-04-19 上海源矩技术有限公司 一种基于bp神经网络的干熄焦烧损率实时计算方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1287175C (en) * 1987-03-12 1991-07-30 Analog Intelligence Corporation Back propagation system
FR2625347B1 (fr) * 1987-12-23 1990-05-04 Labo Electronique Physique Structure de reseau de neurones et circuit et arrangement de reseaux de neurones
US4933872A (en) * 1988-11-15 1990-06-12 Eastman Kodak Company Method and system for wavefront reconstruction

Also Published As

Publication number Publication date
DE69029538T2 (de) 1997-06-19
DE69029538D1 (de) 1997-02-13
FR2648251B1 (fr) 1991-09-13
FR2648251A1 (fr) 1990-12-14
EP0401927A1 (fr) 1990-12-12
EP0401927B1 (fr) 1997-01-02
US5630020A (en) 1997-05-13

Similar Documents

Publication Publication Date Title
CN107689224B (zh) 合理使用掩码的深度神经网络压缩方法
Fels et al. Glove-TalkII-a neural-network interface which maps gestures to parallel formant speech synthesizer controls
Williams et al. An efficient gradient-based algorithm for on-line training of recurrent network trajectories
Pearlmutter Gradient calculations for dynamic recurrent neural networks: A survey
EP0360674B1 (en) Signal processing system and learning processing system
Thimm et al. Neural network initialization
Bohnstingl et al. Online spatio-temporal learning in deep neural networks
CN107688855A (zh) 针对于复杂神经网络的分层量化方法与装置
Zhang et al. Convergence of gradient method with momentum for two-layer feedforward neural networks
JPH0363870A (ja) 学習方法及びニューラル ネットワーク構造
CN108573275B (zh) 一种在线分类微服务的构建方法
JPH05128284A (ja) ニユーロプロセツサ
CN114139677A (zh) 一种基于改进gru神经网络的非等间隔时序数据预测方法
FI103304B (fi) Assosiatiivinen neuroni
CN108196882A (zh) 一种针对神经网络计算的加速方法及装置
Valishevsky Comparative analysis of different approaches towards multilayer perceptron training
JPH07104848B2 (ja) ニューラルネットの学習効率化方法
WO1991000591A1 (en) Pattern recognition
JP3276035B2 (ja) 神経回路網モデルの逐次型加速化学習方法
Chaturvedi Factors affecting the performance of artificial neural network models
JPH09138786A (ja) ニューラルネットワークの学習装置
Pham et al. A novel self-organising neural network for control chart pattern recognition
Bilcu et al. Application of the neural networks for text-to-phoneme mapping
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
Sun et al. Heuristic and hybrid methods for finding the global minimum of the error function in artificial neural networks