JPH02244255A - ニユーロコンピユータ - Google Patents

ニユーロコンピユータ

Info

Publication number
JPH02244255A
JPH02244255A JP1063733A JP6373389A JPH02244255A JP H02244255 A JPH02244255 A JP H02244255A JP 1063733 A JP1063733 A JP 1063733A JP 6373389 A JP6373389 A JP 6373389A JP H02244255 A JPH02244255 A JP H02244255A
Authority
JP
Japan
Prior art keywords
learning
pattern
patterns
value
error energy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1063733A
Other languages
English (en)
Inventor
Katsumasa Matsuura
松浦 克昌
Katsuaki Kikuchi
勝昭 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1063733A priority Critical patent/JPH02244255A/ja
Publication of JPH02244255A publication Critical patent/JPH02244255A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像1文字、音声などのパターン認識を利用し
たロボット、各種機械の故障診断装置。
マンマシンインタフェース、データ圧縮(通信)、各種
エキスパートシステムに適用できるニューラルネットワ
ークの効果的な構成方法に関する。
〔従来の技術〕
1950年代初頭より神経回路モデルによる脳能カシス
テムの開発研究が開始されたが、1957年プリンシプ
ル オブ ニューロダイナミックス、スパー用5219
61年(Principles of Neur。
dgnamics、5partan 1961)著者 
エフ・ローゼンブラット(F、Rogenblatt)
は最初のパターン学習能力を持つ″パーセプトロン″を
開発、成功した。
このモデルは多層構造にはなっているが、人力層と中間
層の結合は固定で、最終端出力層のみシナプス荷重(信
号がニューロンに伝わるときの重み)がIIIf塑的に
形成できる構造であった。1949年ヘブ()Iebb
)はニューロンが興奮すると、シナプス荷重はその入力
信号と出力信号(学習信号)の積に比例して増加すると
いうHebbの学習側を提案した(膜電位学習法)、バ
ーセプトロンでは出力信号に対して教師信号を外部から
与え1両者の差を学習信号δとしてδと入力信号の積の
大きさに比例してシナプス荷重を変化、自己組織化する
学習方式(直交学習)を用いた。バーセプトロンは一時
期待されたが、出力層のシナプスウェイト自己組織化だ
けでは排他的論理和演算ができないなど限界が指摘(証
明)され、ニューロコンピュータは1時停滞した。19
86年ラメルう−ト()lumelhart)らは隠れ
ユニット(Hidden Unit)と呼ばれる中間層
への学習信号の逆伝搬方式(δルール)を提案した。こ
れは、ラーニング プレゼンテーション バイ バック
 プロパゲイジョン エラーズ、ネイチャー323,5
33頁から536頁、1986年デー・イー・ラメルハ
ート。
ジー・イー ヒントン 共著(Learhing He
presentation by Back−Prop
agation Hvors、Nature323、P
533−P536 (1986)l)、E。
)1umalhart、 G 、 E 、)Iinto
n)に記載されている。この方法は上記誤差信号の2乗
和の半分で示される誤差エネルギを最急降下的に0に近
づけてゆく学習方式でバーセブトロンと同じものである
が、最小化を数理的に可能にするため、二ニーロンモデ
ルの興奮(発火)は完全ないき値関数ではなく、いき値
付近が微分可能な単調増加関数で発生する。
バックプロパゲーションと呼ばれるこの方式はパターン
の多重記憶、M別が可能であり、多くの成功例を生んで
いる6本発明は本発明の問題点を解決する方法に関する
0本方式は今後のニューロコンピュータの本命と思われ
る。
〔発明が解決しようとする課題〕
上記従来技術は入力されるパターン信号に対して教師信
号通りの出力値に収斂させる手法が確立されていない点
に問題があった1通常パターン認識は複数パターンに対
する識別能力を必要とするが、ここでは全パターンを一
括して与え、パターンを万一なく変えながら繰りかえし
学習させる方法に関する。ニューラルネットワークは多
層構造で隣接する層間は全てのニューロンがシナプスに
より静合されている。信号伝搬は前方から後方に、学習
信号は後方から前方に並列的に伝搬されるが、これらの
結合数は各層ニューロン数の積で与えられる為演算は膨
大になる。できるだけ少ない繰りかえし学習で収斂させ
る必要があるが、実際には決った方法がなく、試行錯誤
で現在行っている。
この方法を確立すべく長時間収斂しない場合を分析した
結果、収斂しないパターン入力によるシナプス荷重両構
築の刺激、学習エネルギが不足していることが一要因と
考えられた。
本発明の目的はパターン認識演算を商法化できるニュー
ロコンピュータを提供することにある。
〔課題を解決するための手段〕
各パターン入力は中間層を介して出力層信号となるが、
教師信号との誤差エネルギがここで計算される。認識演
算開始直後はどのパターンも誤差エネルギELが大きい
が、ある程度の学習が進むとパターンのうちで誤差エネ
ルギがO近い微少値(正数)Cより小さくなるものがで
てくる。
本発明は全パターンに対する収斂を促進するため、次の
3点の工夫を行ったものである。
(1)誤差エネルギELがC以下の収斂の早いパターン
に対しては学習信号逆伝搬によるシナプス荷重の補正を
行わず、ε以上の誤差エネルギのパターンのみシナプス
補正を行う、この結果荷型補正のないパターンの誤差エ
ネルギがC以上になる場合が発生するが、このときはこ
のパターンの荷重補正が再開される。これにより全パタ
ーンに対する学習エネルギの平滑化、バランスが保たれ
、全パターンの収斂を飛躍的に増大させる。
(2)パターンを順送りにして1回の全パターン学習を
1ステツプと定義する。ステップ毎の全パターン学習に
おいて、各パターンの誤差エネルギEt、が微小値とよ
り大きいパターンの数NPを一定する。NP=Oのとき
は全パターンが収斂したことであり、学習を修了する。
学習演算開始直後はネットワークは未完成であり、出力
はブタラメな値となり、NPは入力パターン数に近い値
となる。ある程度学習が進むと、教師信号と同じ出力の
パターンがでてくる。この場合、NPは常に低下すると
は限らない、誤差エネルギの大きいパターンによるネッ
トワーク補正を行うと今まで収斂状態にあったパターン
がネットワークに適合しなくなり、大きな誤差エネルギ
を生じる。この場合は再度誤差逆伝搬による学習を行う
、これを繰りかえしながら全体の誤差エネルギレベル和
を下げてゆき、全体のパターンを認識するネットワーク
が形成される。
以上の方法はεの設定レベルによっても左右されるが、
識別する入力パターンの数が多い場合に特に効果的に収
斂する。
〔作用〕
各パターンの誤差エネルギELがEL>εのときのみシ
ナプスの荷重補正をすることはそのパターン向きのネッ
トワーク形成が進むことであり、当然補正されないパタ
ーンのネットワークによる識別レベルは低ドする。すで
にできている一方のレベルを下げて、識別できていない
方のレベルを上げることによりネットワークの自己組織
化を全パターンでバランスする様に動作するので収斂が
飛躍的に促進される。−担収斂したパターンでも他のパ
ターン学習の結果誤差エネルギが増大すれば直ちにその
パターンの学習を開始するので全パターンが完全に収斂
するまでNP=Oとならず、g動作することはない、N
P=Oは学習完了の必要十分条件である。
【実施例〕 以下、本発明の一実施例を第1図により説明する。第1
図はニューラルネットワークとして、3層構造の場合の
パターン認識・学習回路のブロックダイヤグラムを示す
、入力、中間、出力の3層をI、J、に層と呼ぶ、I、
J、に層を構成するニューロン数をIN、JN、KNと
する。ηはシナプス荷重補正をするための学習定数、α
は安定化定数である。NEは全パターンの学習を1ステ
ツプとしたときのステップ数Nの上限値を示す。
第1図の1はこれらのデータ入力装置を示す、2は対象
とする複数パターンを人力し、記憶する人力・バッフ、
ア装置を示す、第2図はI、J、に層からなるニューラ
ルネットワークのシナプスによる結合状態を示す、WI
J、WJKはI−J、J−に層各ニューロン間のシナプ
ス荷重、前段出力X1.XJにこの荷重をかけて、ニュ
ーロン内部レベルに加算される。第1図3はこれらのシ
ナプス荷重および&重補正鴬の初期値設定器である。初
期値の設定の仕方はtsmルーチンの収斂速度に大きく
影響し、重要であるが、ここでは説明を省略する。4は
カウンタ5および11の初期値設定器である。5から1
4は複数の対象パターンを順送りに学習させる反復ルー
チンである。Lはパターン番号で、LNはパターン総数
を示す、6では2のパターンバッファからIJt目の入
力パターンを取出しデータセットする。入力1層のニュ
ーロン数INは1つのパターンを構成するビット数nよ
り1つ大きくなっている。これは第2図に示すとと<、
I、J層の工NIJN#目は1.0  ト固定して与え
る為である。この理由は第311’flで説明する。ニ
ューロンの内部状態Uは入力Xtとシナプス荷重W息の
積を加算して求まる。各ニューロンにはそれぞれ独立の
興111(発火)レベルuoがあり、U < U Oで
は変化せず、U ) U Oで一定レベルの出力を示す
、この様子はUを の形に書き直すと第3図(fi)の如く、U=Oの前段
で出力yが急激に変化するいき値関数で与えられる。ニ
ューラルネットワークはこのシナプス荷重WIが学習の
繰りかえしによって自己組織化し、パターン認識能力を
得る。ニューロンのしきい値uoは初期値によって与え
てもよいが学習の収斂に影響し、1つ1つしきい値を与
えるのがわずられしい、そこで(1)式のuoを uo=−Wll+1・XIl+1       ・・・
(2)とし、Xn+1=1.0とすればW n + 1
は他のシナプス荷重と同等に学習で自動設定され、uo
が自動的に決定されることになる。この方がプログラム
が簡単になるメリットもある。
第1図の演算器7ではパターン信号X1がシナプス荷重
WIJを掛けて加算され、いき値関数を介してJ層出力
X−となる(第3図参照) 、 Xaは更にに層出力X
hとなる。8では5番目パターンの教師信号T k(L
)がデータセットされる。第2図に示すごとく、この学
習ではパターン出力Xhに対応して教師信号1゛糺が与
えられる0両信号の誤差を学習信号δ−として出力層か
ら人力方向へ逆伝搬する。各ニューロンへの入力信号と
学習信号の積に比例してシナプス荷重が変化し、ネット
ワークを徐々に自己組織化し、認識能力を高めてゆく、
これはすでに確立されている従来の手法であり、第1図
の演算器12.13がこの仕事をするルーチンである。
本発明では従来の手法に対してブロック9゜10.11
を付加したことを1つの特徴とする。
先ず、演算器9で5番目パターン出力の誤差エネで計算
する。比較器10は5番目パターンの誤差エネルギEL
がOに収斂しているかどうか判定する。ELが正の微小
値Eより大きいときはカウンタ11で収斂していないパ
ターン数NPを1つカウントアツプする0次で誤差逆伝
搬、シナプス荷重補正を行う演算器12.13へと進む
、この後比較器14でパターン番号りがパターン総数L
Nを越えているかどうか判定し、パターン総数を越えて
いなければカウンタ5に戻り、次のパターンによる学習
を行う、比較器1oで誤差エネルギELが1以゛ドのと
きはカウンタ11、演算器12゜13を無視して比較器
14ヘジヤンプする。これは本発明のキーポイントの1
つである。これにより誤差の大きくなったパターンの学
習エネルギを常時大きく保つ、全パターンに対して硬直
をなくし、バランスのとれた軟らかなネットワーク結合
を形成させ、全パターンの収斂(学習々得)を飛躍的に
促進する。
比較器14でパターン番号りがパターン総数LNを越え
ると比較器15へと進む。比較器15ではカウンタ11
で一定された誤差エネルギの大きいパターン数NPがO
と比較される。NP=0であれば今パターンの誤差エネ
ルギが微小値ε以下に収斂したことを意味するため、演
算は完了となる。NP≠0であれば十分収斂していない
パターンが少なくとも1つ存在することを示す、この場
合はカウンタ16でステップ数Nをカウントアツプする
0次の比較器17でステップ数Nがその上限設定値NE
以上であれば演算を中止、完了する。Nが設定値以下で
あれば初期値設定器4でカウンタ5,11を初期化し、
全パターンによる学習演算を続行する。
第1図に示す本発明の一実施例ではカウンタ5、比較器
14間にパターンを順送りし、学習させる一括パターン
認識方式を採用しているが、本発明の要点は2つある。
1つは各パターンの誤差エネルギを微小値εと比較する
比較器10を設けたこと(前述)である、他の1つは各
パターンの誤差エネルギが規準値以上で、学習によるネ
ットワーク補正を必要とするパターン個数NPを一定す
るカウンタ11と全パターン学習後のカウント数N P
を0と比較する比較器15を設けたことである。
これにより全パターンの収斂が明確に判定でき、信頼性
の高いニューロコンピュータとできる。
〔発明の効果〕
本発明によれば入力パターン数が大きい場合のネットワ
ークの学習収斂を効率的に促進でき、全体の学習のため
の演算回路、時間を大幅に低減できる効果がある。ニュ
ーラルネットワークでは対象とするパターンすべてを認
識できることが必要であるが従来の方法では1つのパタ
ーンだけ残り、時間をかけてもできないという問題が多
発した。
本発明では収斂できないパターンに学習エネルギを集中
する為このような失敗は余り心配しなくて済む(但し初
期値の影響は皆無ではない)。
【図面の簡単な説明】
第1図は本発明の1実施例回路を含むニューロコンピュ
ータ演算制御ブロックダイヤグラム、第2図は3層構造
ニューラルネットワークのシナプス結合概説図、第3図
はニューロン内部状態説明図といき値開数機能の概説図
である。

Claims (2)

    【特許請求の範囲】
  1. 1.相隣るニューロン層間の個々のニューロンがシナプ
    スを介してランダムに結合する多層階層構造ニューラル
    ネツトワークを有し、入力パターン信号が出力端に向つ
    て各層を伝搬するとともに、出力端出力パターンに対す
    る教師パターンが与えられ、両パターンの差を学習(誤
    差)信号として、これを入口層に向つて逆伝搬し、学習
    信号と入力信号の積に比例して個々のニューロンのシナ
    プス荷重値を自己補正し、ネツトワーク全体を信号に応
    答して自己組織化学習するニューロコンピュータにおい
    て、各入力パターンに対する出力値のその教師信号値か
    ら誤差エネルギE_Lを求める演算器9と0に近い正の
    微小値εとE_Lを比較する比較器10を設け、E_L
    >εのときは誤差逆伝搬とシナプス荷重補正によるネツ
    トワークの学習を行うとともに、E_L≦εのときはネ
    ツトワークの学習ルーチンを無視する分枝回路を設けた
    ことを特徴とするニューロコンピュータ。
  2.  2.請求項1記載のニューロコンピュータにおいて、
    学習対象である複数パターンのうち、誤差エネルギE_
    Lが微小値εより大きくなる(未収斂)パターン個数N
    Pを一定するカウンタ回路11を設けるとともに、NP
    とOを比較する比較器15を設け、全パターン演算後の
    NPが一個以上のときはパターンおよびNPカウンタを
    初期状態に戻し、学習演算ルーチンを繰りかえすととも
    に、NP=0の全パターン収斂状態のときは学習演算を
    修了する分枝制御回路を有することを特徴とするニュー
    ロコンピュータ。
JP1063733A 1989-03-17 1989-03-17 ニユーロコンピユータ Pending JPH02244255A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1063733A JPH02244255A (ja) 1989-03-17 1989-03-17 ニユーロコンピユータ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1063733A JPH02244255A (ja) 1989-03-17 1989-03-17 ニユーロコンピユータ

Publications (1)

Publication Number Publication Date
JPH02244255A true JPH02244255A (ja) 1990-09-28

Family

ID=13237902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1063733A Pending JPH02244255A (ja) 1989-03-17 1989-03-17 ニユーロコンピユータ

Country Status (1)

Country Link
JP (1) JPH02244255A (ja)

Similar Documents

Publication Publication Date Title
US5093899A (en) Neural network with normalized learning constant for high-speed stable learning
US5524176A (en) Fuzzy expert system learning network
JPH0738186B2 (ja) 自己拡張形ニユーラル・ネットワーク
JPH03288285A (ja) データ処理装置の学習方法
CN111582470B (zh) 基于stdp的自适应非监督学习图像识别方法及系统
JPH02244255A (ja) ニユーロコンピユータ
JP2540654B2 (ja) ニュ―ラルネットワ―クの学習装置
JPH04237388A (ja) ニューロプロセッサ
JPH05342189A (ja) ネットワーク型情報処理装置の学習システム
JPH02231670A (ja) ニューラル・ネットワークの学習装置
Lin et al. A pseudo-Gaussian-based compensatory neural fuzzy system
Dadios et al. Application of neural networks to the flexible pole-cart balancing problem
JPH03288258A (ja) データ処理装置の学習方法
JP2738343B2 (ja) 圧延機の形状制御方法および装置
JP2654686B2 (ja) ニューラルネットワーク
Lin et al. Using context‐sensitive neuro‐fuzzy systems for nonlinear system identification
JPH0281161A (ja) 信号処理装置
JPH0991264A (ja) ニューラルネットワーク構造最適化装置ならびに方法
JPH05159086A (ja) ニューラルネットワークの学習方式
JPH0283656A (ja) 学習処理装置
Moreau et al. Post-training for Deep Learning
Moreau et al. Post Training in Deep Learning with Last Kernel
JPH05128086A (ja) ネツトワーク型情報処理システム
JPH04102163A (ja) ネットワーク構成データ処理装置の学習処理方式
Zhou et al. Computational Neural Networks