JPH04501327A - パターン伝達ニューラルネットワーク - Google Patents
パターン伝達ニューラルネットワークInfo
- Publication number
- JPH04501327A JPH04501327A JP2511553A JP51155390A JPH04501327A JP H04501327 A JPH04501327 A JP H04501327A JP 2511553 A JP2511553 A JP 2511553A JP 51155390 A JP51155390 A JP 51155390A JP H04501327 A JPH04501327 A JP H04501327A
- Authority
- JP
- Japan
- Prior art keywords
- output
- neuron
- neural network
- neurons
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。
Description
【発明の詳細な説明】
パターン伝達ニューラルネットワーク
この発明は、特徴を取り出し、パターンを認識する装置に係り、特に、信号にお
ける特徴の同一性を確認する為に必要なアルゴリズムを内部で発達できるか、又
は「学習」することができるニューラルネットワークに関する。
2、検討
パターン認識の能力は、生物学的のシステムの知覚能力にマツチした人ニジステ
ムの開発の大きな部分である。スピーチ、及び視覚パターン認識の2分野は、従
来のコンピュータでは非常に不十分な領域である。これらや他の仕事を行うこと
のできる人ニジステムを開発する努力において、信号から特徴を抽出する信号処
理(proces@ing)技術は、多数開発されている。これらの技術は、典
型的に広範な処理を必要とする。このような処理には、例えば、パルス幅計測、
増幅、上昇下降時間、周波数などが必要である。これらの特徴が抽出されると、
これらは信号の分類や同一性を確認する為に収納されたパターンと照合させるこ
とができる。これらのステップを達成する為に要求されるソフトウェアは非常に
複雑であり、開発に時間がかかる。更に、従来のデジタル信号処理は、視覚パタ
ーンが傾いたり、スピーチを認識する際に話す人が違うなどの入力信号のわずか
な変化をも許容することができない。
近年での直列処理を行う通常のノイマン(N!umano)型のコンピュータは
、脳のような生物学的システムで行われている並列処理とは殆ど類似していない
。従来の信号処理技術は、人類の知覚による仕事を正確には行うことができない
のは、当然である。したがって、脳のニューラルモデルに基いた新しい方法が知
覚の仕事を行う為に開発されている。
これらのシステムは、ニューラルネットワーク、神経形状(nCuromorp
hic)システム、学習機械、平行分配プロセッサ、自己組織化システム、又は
適応論理回路など種々知られている。このような名前の種々のモデルは、並列処
理で操作され、生物学的ニューラルネットワークの回想されるパターンが配置さ
れる、多数の非線形計算部材を利用している。各計算部材又は「ニューロン」は
、動作を改良する為にトレーニングの間に典型的に適合される重み(weigh
t)又は「シナプス」を介して接続される。よって、これらのシステムは、特別
な入力に応じて正確な出力が得られるまでシナプスの重みを変化させて自己学習
を行う。一旦トレーニングさせると、ニューラルネットは、ターゲット信号を認
識することができ、入力が不完全であったり、背景(background)ノ
イズに埋もれていても要求された出力を出すことができる。また、ニューラルネ
ットは、個々の部分接続を有する多数の処理ノード(nodりがあるので、ノイ
マン型のシーケンシャルコンピュータよりもより荒く、失敗を許容するように振
る舞う。幾らかのノード又はリンクス(links)が障害を受けても、全ての
動作が重大に悪くなることがない。
種々の位相数学(topologies)、ニューロン特性、トレーニング、又
は学習ルールを用いた広い種類のニューラルネ・ソトモデルがある。学習ルール
は、動作を良くする為に、内部セット重みを指定し、用いられている間又は、ト
レーニングの間にいかに重みを適合できるか示す。イラストにより、これらのニ
ューラルネットモデルの幾つかは以下の資料に記載されている。F6 ルーゼン
ブラット(Rosenbls(1)氏に与えられた米国特許第3,287,64
9号公報に記載られたノく−セプトロン(t’etceptton)、J、ホ’
ンプフィールド(Bop[1eld)氏に与えられた米国特許、第4,660,
166号公報、及び第4.719.591号公報に記載されたホ・ツブフィール
ドネット(Bopfield Nrt)、IEEE ASSP7ガジンの198
7年4月号4〜22ページに記載された[ニューラルネットにより計算するイン
トロダクション(Am I+Itoducliomto Computing
with Neural Nets)Jと題されたRoす・ツブマン(Lipp
man)氏による/Xミングネ・ントおよびコホホネン自己組織化マツプ(jh
CRamming Net ■d Kohohonen s*lf−organ
ixing Llips)、平行分配処理(Pars山I Distribut
edProcessing)に記載された「エラー伝ばんによる内部表現学習(
LCarning In1trnil Represenlx目oss b7
ErrorPropBilion)Jと題され、D、E、ルメル/1ルト(Ru
melhart)氏とJ、L、マッククレランド(McCICllind)氏(
Eds、)により編集され、ルメルハルト(Rumelharり氏、ヒルトン(
Bitlon)氏、ウィリアムス(Willixms)氏らにより記述された多
層化されたバーセブトロンの為の一般化されたデルタ規則(lh<Gcners
liud Dclla Ru1e rot Mul目IBered Petcc
pjtons)、MITプレス(1986年)のボリューム1の基礎編([ou
ndxlions)の平行微小構造による認識に記載される探究(Explor
ations)。
ニューラルネットワークの実際の例での障害の1つは、正確に問題を解決する為
のネットワークの訓練には、広範囲のトレーニングが必要である。他の障害は、
かなり複雑な問題を解決する為には比較的サイズが大きく、複雑なネットワーク
が必要となる。特に、多数のニューロンと接続部とが必要であるので、高価で、
大きいなどのためシステムは製造するのが難しい。
よって、従来のニューラルネットワークよりもトレーニングに要求される時間が
短いニューラルネットワークが要求されている。更に、ニューロン及び接続部の
必要な数における複雑さを減少させたニューラルネットワークを提供する必要が
ある。
発明の概要
この発明の説明において、パターン伝達ニューラルネットワーク(Patter
n Propagation Neutil Nelwork 、PPNN)は
、入力ニューロンにトレーニング入力を示し、出力ニューロンにトレーニング出
力を示してトレーニングする。加えて、同様の必要な出力が内部ニューロンに同
様に示される。この方法では、パターン伝達ニューラルネットワークは「学び」
、そして出力ニューロンだけでなく、内部ニューロンでも同様に入力に応じて必
要な出力を適合させる。
実施例の詳細な説明
この発明の説明について、方法及び装置は、ニューラルネットワークのトレーニ
ングの為に設けられる。この発明の目的の1つは、ある特定の問題を解決する為
にネットワークに必要なトレーニング及びニューラルネットワーク装置を提供す
ることにある。
図1は、従来のニューラルネットワーク10を示した図である。ニューラルネッ
トワーク10は、多層パーセブトロン(psrerplron)として知られた
通常の分類の配列に配置されている、複数の列の独立したプロセッサ、又は「ニ
ューロン」を有している。この発明の実施例が多層バーセプトロンに適用されて
いるが、この発明の技術は、他のニューラルネットワークアーキテクチャにも同
様に適用できる。図1に示された、多層パーセブトロン10において、ニューロ
ンは、3つ或いはそれ以上にの層内に配置されている。各ニューロンハ、その入
力による所定の幾つかの機能に応じた出力を発生させる。第1又は入力層は、入
力ニューロン12と呼ばれるニューロンを有し、最終層は、出力ニューロン14
と呼ばれるニューロンを有する。これらのニューロン12.14は、種々の従来
のデジタル又はアナログデバイスから構成されている。
例えば、オペアンプ(op amp)を有する回路がニューロン12.14に用
いられる。1つ又はそれ以上の内部層は、内部又は隠れニューロン16と呼ばれ
る付加ニューロンを有している。
各層内での僅かな数のニューロンが図1で示され、解決されるべき問題の複雑さ
に応じて幾つかの数のニューロンが用いられるのが理解できる。多層パーセブト
ロンの特性に応じて、各層内の各ニューロンは、各々近接した各ニューロンに接
続される。よって、各入力ニューロン12は、近接した層の各隠れニューロン1
6に接続されている。同様に、各隠れニューロン16は、次の近接した層内の各
ニューロンに接続される。この次の層は、隠れニューロン16を有するか、又は
、出力ニューロン14を有している。多層バーセプトロンにおいて、特筆すべき
は、同一層でのニューロンは接続できるにもかかわらず、同一層の他のニューロ
ンには接続されていない。
ニューロンの間の各々の接続は、重み付けされた「シナプス(s7nmptic
) J接続である。これらのシナプス接続18は、ゲインを可変できるアンプと
、キャパシタを有するFET制御デバイスと、又は他の適切な回路との間の抵抗
を可変できる。シナプス接続18は、ニューロンの間の接続の強さを増加、或い
は減少させることができる。シナプス接続18は、1本の接続で示されているが
、トレーニング処置の間に必要な、2つの独立した線が2つの方向に信号を伝達
させる為に用いられているのが理解できる。各シナプス接続18の接続の強さの
値は、所定の最大値からゼロまで変化させることができる。重みがゼロのとき、
実際に2つのニューロンの間は接続されていない。シナプス重みの動作効果は、
本来正負の両方の強さを示す。
特別な信号を認識する為のニューラルネットワーク10をトレーニングする過程
は、特別な入力に反応して必要な出力が発生されるまで、反復形態で各シナプス
接続18の接続の強さの適合を要求する。更には、この実施例において、この発
明は、後方(backwatd)エラー伝達と呼ばれる技術を用いている。この
後方エラー伝達技術は、この参照例として示されたルメルヘルト(Rumelh
art)とりツブマン(Lippman)による上述の従来技術に詳しく説明さ
れる。トレーニングの間、この後方エラー伝達技術により、知られた波形又はタ
ーゲット波形20を含む信号は、入力ニューロン12に送られる。この入力信号
は、入力ニューロン12に供給される一連の2進数又は連続的な入力値を有する
。例えば、ニューラルネットワーク10がスピーチを認識する装置として使われ
るなら、入力は、ある時間の間の取り出されるフィルターバンクスペクトラルア
ナライザからの出力エンベロープ量であろうし、出力信号により識別された分類
が、異なった母音を示す。イメージ分類において、人力は、画像の各ピクセルの
グレイスケールレベルであり、分類分けは、異なった対象物(oJ*cts)を
示す。入力信号20の性質にかかわらず、この入力に応じて、各ニューロンにお
ける処理と、各シナプス接続18の重み量との関数により出力ニューロン14か
ら特定の出力が発生される。
図2に示された1つの例の従来のトレーニングアルゴリズムにおいて、出力ニュ
ーロン14の出力は、必要な出力と比較され、動作出力と必要な出力との間の差
が、計算される。
必要な出力と動作出力とを比較する工程は、出力ニューロン14での影により示
される。必要な出力22は、各出力ニューロン14への2進数墓として示されて
いる。必要な出力は、所定の範囲内の連続的な値であるのは重要なことである。
必要な出力と動作の出力との差に基づいて、エラー信号が発生され、エラー信号
はエラーの量を減少させるようにシナプス接続18を適合させるように用いられ
る。各出力ニューロン14へのエラー信号は、前に置かれた覆われた層での各ニ
ューロンに伝達され、シナプス接続18の次の層での重みは、それらの眉へ計算
されたこれらのエラー信号に応じて適合される。新しいエラー信号は前のエラー
信号と前の重みとを合せた関数(function)である。
従来の後方伝達トレーニングアルゴリズムにおいて、エラー信号が受容できるレ
ベルへ減少できるまで、上述の処理が繰り返され、ニューラルネットワーク10
がトレーニング入力20に応じた必要な出力を発生させる。トレーニングが開始
されると、トレーニング信号20が導かれる方法と同様な方法により、識別され
るか分類されるべき信号は入力ニューロン12へ送られる。識別されるべき信号
は、トレーニング信号を含むか含まないか、又は、トレーニング信号20の雑音
が多いか品位が低いかの種類を有する。トレーニング信号20が幾つかの形態で
あるなら、トレーニングされたニューラルネットワーク10は、トレーニングの
間、トレーニング信号20に応じた出力に応じて反応する。トレーニング信号2
0が存在していないなら、異なった反応を発生させるか又は発生させないであろ
う。
後方エラー伝達技術の説明の間に、出力ニューロン14の動作出力は、出力ニュ
ーロン14内に影で示される必要な出力22と比較されるのが思い出される。エ
ラー信号がこの差に基づいて計算されると、エラー信号は、ニューロンによって
のみ変更されて各々の上にあるニューロンへ伝達され、シナプス接続18の重み
は、信号が伝達されるニューロンを移動される。よって、必要な出力のみが出力
ニューロン14に与えられる。必要な出力が出力ニューロン14で動作されると
き要求されるので、このアプローチは一般に知られている。
しかしながら、出願人は驚くべきことに、必要な出力が出力ニューロン14だけ
でなく、内部ニューロン16にも示されたなら、ニューラルネットワークの学習
、及び動作は非常に改良されることを見出だした。
図2では、この発明に係るパターン伝達ニューラルネツトワーク(Pa目ern
Ptopxgajion Neural Nejwotk、 P P N N
)30が示されている。PPNN30は、図2でのこれらのニューロンの全部の
影で示される出力ニューロン14と同様に内部ニューロン16へ必要な出力22
を与えることによりトレーニングされる。必要な出力22、内部ニューロン16
、及び出力ニューロン14が示されたとき、各ニューロンの動作出力と必要な出
力22との間の差の機能がエラー信号を発生させる。よって、PPNN30は、
必要な出力により近くなるように出力層と同様に、内部層へ出力を変化させるよ
うに重みを適合させる。ニューラルネットのトレーニングの従来のアプローチは
、必要な出力22を発生させる為に出力ニューロン14に必要であり、出力ニュ
ーロン14による必要な出力を最もよく達成させる為に幾つかの他の出力が内部
ニューロン16により発生されるべきであるとゆう仮定に基づいていることが注
目される。
この発明に係る上述の実施例におけるPPNN30のトレーニングの技術は、以
下により詳しく説明する。図2を参照すると、入力ニューロン12、内部ニュー
ロン16、出力ニューロン14は、1つ又はそれ以上の入力を有し、1つの出力
信号を発生する類似の処理装置を全て有している。各ニューロンは、連続的に異
ならしめる入力の非線形又は準線形の機能である出力を発生させる。放射(ac
tivilion)関数と呼ばれるこの関数は、S字形(sigmoid)論理
非線形の一般的な式:
y′ は層iのニューロンjの出力であり、(ij)
Σi ”jiy(ij)は、前の層からのニューロンjへ入力の合計であり、y
(ii)は、前の層での各ニューロンjの出力であり、wl、は、各ニューロン
jへの前の層でのニューロンの間の各へ同様に残され、各シナプス接続18の重
みは変調される。
みは以下の式により変調され:
δ、はその線に沿って入力を受容する認識できるニューロ!
ンヘエラー信号であり、y、は、その線に沿った動作を送るニューロンの出力で
あり、ηは、学習率と呼ばれる割合墓である。
エラー信号δの測定は、出力装置による開始による。第1に、トレーニング信号
20は、入力ニューロン12に伝達される。出力信号が発生されるまで、これに
より、PPNN30を通って信号が伝えられるようになる。この出力は、必要な
出力と比較される。これは、線23により、内部ニューロン16と同様に出力ニ
ューロンへ必要な出力22を示すことにより達成される。例えば、特定のトレー
ニング信号2゜に応じて、出力ニューロン24の1つが“オン”、他が“オフ”
であるような、図2に示された出力22のような2進数には、必要な値は1かゼ
ロであるが、例えば1.1や、9の世がターゲットの値として用いられる。各出
力ニューロン14により各内部ニューロン16へ発生された動作出力は、必要な
出力と比較され、エラー信号は、この差から計算される。この計算は、ニューロ
ン14.16へ内、又は外で計算される。全てのニューロン14.16において
、=y、(1−y、) (d、−y−)
16と同様に出力ニューロン14へ用いられるのは特筆すべきことである。従来
の後部伝達技術において、等式(3)は、ューロン16へ計算される。
等式(2)において、学習率ηは、エラー信号δが伝達される各時間を変える重
みがいくらかであるかに影響するかがわかる。より大きい学習率では、重みがよ
り大きく変化し、学習率も早く変化する。もし、学習率が大きくなりすぎたら、
システムは発信することができる。発信は、モーメント項便を用いて大きい学習
率においてもやめさせることができる。
例えば:
(4) Δ實、−ηδ、+(支)ΔW、 ここで、θく(支)くl+1 1
Δw、はシナプス接続18への前の重みの変化量である。
定数■は、効率的に高い周波数変化を除く重み空間での動きの流れ方向での後の
重み変化を決める。
図4では、内部ニューロン16の1つの層のみを有するPPNN30の1つの実
施例が示されている。加えて、内部ニューロン16とは数が異なる出力ニューロ
ン14がある。
この場合、与えられる出力ニューロン14へ与えられた必要な出力22の1部分
が内部ニューロン16よりも大きい。
図3にPPNN30のトレーニングアルゴリズムの全体が示される。第1に、重
みW及びθのようなニューロンオフセットは、ちいさなランダムな値である(ス
テップ34)。トレーニング信号20は、入力ニューロン12に示される(ステ
ップ36)。トレーニング信号20はニューロンの各層に伝達されたあと、全て
のニューロンへの出力及び重みの結果により、出力値は各出力ニューロンから出
力される。次に、動作出力は必要な各出力ニューロン14への必要な出力22と
比較され、等式(3)でのエラー信号 が計算される(ステップ40)。エラー
信号は、プリセットされたしきい値と比較される(ステップ42)。エラーが許
容量よりも大きいなら、等式(2)、(4)により各出力ニューロン14へのシ
ナプス接続18への重みの新しい値を決めるためにエラー信号が用いられる(ス
テップ44)。
次に、判定ダイヤモンド(decision dixmond)46での、PP
NN30は、次の層が入力層であるか否かを判断する。
もし、次の層が入力層であるなら、エラーが受容できるレベルへ減少されるまで
トレーニング信号20が再び提供され、重みは再び適合される(ステップ36−
44)。ステップ46において、次の層が入力層でないときは、次の層の各ニュ
ーロンの動作出力は、必要な出力と比較され、等式(3)によりエラー信号が発
生される(ステップ48)。次に、このエラー信号はこの(currenl)層
内の全ての重みを適合させる為に用いられる(ステップ44)。ステップ44か
らステップ48までは入力層に到達するまで繰り返され、トレーニングステップ
(ステップ36−48)が繰り返される。出力層でのエラー信号が遂にプリセッ
トされた許容量よりも小さくなったとき(ステップ42)、トレーニング信号2
0のトレーニング順序が完了する(ステップ50)。
PPNN30は次に新しいトレーニング信号により再びトレーニングする。全て
のトレーニング信号によるトレーニングが完了すると、知られていない信号が入
力ニューロン12に入力される(ステップ52)。ネットワークにこの信号が伝
達された後、出力ニューロン14は出力信号を発生させるであろう。もし、知ら
れていない信号にいくつかの形においてトレーニング信号20が存在していたな
ら、PPNN30は入力を正確に識別または、分類して必要な出力22を発生さ
せる(ステップ54)。
上述の1次元及び2次元の問題を解決した後、PPNN30は、検知データ混合
([uston)、自然言語処理、リアルタイム(エキスパートを必要としない
)総合エキスパートシステム、多次元最適化分類の問題、結合メモリアプリケー
ションを有する他の古典的なパターン認識問題、などの多次元の問題に適合でき
る。PPNN30の基本構成は、ソフトウェアによるか、又はアナログVLS
I回路と同様な従来のアナログか、デジタルの電気回路による。同様に、光学装
置をPPNN30の機能の幾つか又は全てとして用いることができる。光学装置
の例は、ホログラフィの記憶(bologrsphicstorage)、相接
合(phase conjugalt)光学、波面変調及び混合などの領域に近
年発達しているので、実行できる。加えて、PPNN30は特別の波面を認識さ
せる為に、一旦トレーニングさせると、PPNN30は、すでにトレーニングさ
れたPPNN30と同じ固定されたシナプス重みを有するPPNN30の正確な
コピーを作ることによりいくらでも再生産できる。この方法では、PPNN30
の大量生産が再度のトレーニング工程なしに可能である。
前の記述から、この発明が、ソフトウェアなしで低価格の構成で複雑でなく自己
学習ができる高い速度のパターン伝達ニューラルネットワーク30が提供できる
ことが評価できるであろう。従来の信号プロセッサよりも誤りの許容量が増加し
、粗削りな方法でターゲットを識別できる。PPNN30は、ターゲットの全て
新しい分類へも再度トレーニングさせることができる。この発明におけるPPN
N30の学習順序は、必要なトレーニングの時間が減少でき、問題を解決するた
めに必要なネットワークの複雑さを減少させることができる。この技術に習熟し
た当業者は、この発明を用いることにより他の利点が得られると共に、明細書、
図面、及び請求の範囲を学んだ後、この発明の観点から外れることなく変形する
ことができる。
図面の簡単な説明
この発明の種々の利点は、以下に示された図面、以下に記載された明細書により
、明らかにされるであろう。
図1は、従来技術のニューラルネットワークトレーニングの手順を示した図であ
り;
図2は、この発明で用いられるトレーニング技術の段階を示した図であり:
図3は、この発明に係るニューラルネットワークのトレーニング技術の段階のフ
ローチャートを示した図であり;図4は、この発明に係るニューラルネットワー
クの1実施例を示した図である。
悶IflI審縮牛
Claims (7)
- 1.少なくとも3層のニューロン(12、14、16)を有し、 入力信号(20)を受けるために適合される入力層と、1つ又はそれ以上の内部 層と、 出力を発生させるために適合される出力層とを含み、入力に応じて上記シナプス の重みの量を変化させて必要な出力を発生させる為に適合させることができるニ ューラルネットワーク(30)において、 上記3層のニューロン(12、14、16)は、トレーニング中の間に上記必要 な出力を発生させる為に上記重みを変化させる手段と、トレーニング(23)の 間出力ニューロンと入力ニューロンとの両方に上記必要な出力を与える手段と、 上記複数回のトレーニング中の後、上記ニューラルネットワーク(30)は、上 記トレーニング入力(20)に類似の新しい入力信号に応じては上記必要な出力 を与えることを特徴とするニューラルネットワーク。
- 2.上記重みを変化させる手段は、トレーニングの間内部ニューロン及び出力ニ ューロンの動作出力と上記必要な出力との差を計算する手段と、上記動作出力と 必要な出力との差を最小にさせる為に上記重みを適合させる手段とを更に有して いることを特徴とする請求項1に記載のニューラルネットワーク。
- 3.上記必要な出力(22)は上記出力ニューロン(14)の選ばれた1つによ り発生された2進数信号であることを特徴とする請求項1に記載のニューラルネ ットワーク。
- 4.上記必要な出力は、上記出力ニューロン(14)の選ばれた1つにより発生 された連続量信号であることを特徴とする請求項1に記載のニューラルネットワ ーク。
- 5.上記層内のニューロン(12、14、16)は、以下に記載されたシグモイ ド(sigmoid)非線形関数により、出力が発生され、 ▲数式、化学式、表等があります▼ y′(ii)は、ニューロンが接続された前の層内の各ニューロンの出力であり 、W(ij)は、前の層内のニューロンと与えられた層内のニューロンとを接続 する各シナプスに設けられた重みであり、θjは一定のしきい値であることを特 徴とする請求項1に記載のニューラルネットワーク。
- 6.出力ニューロンと内部ニューロンと(12、14、16)の動作出力と、上 記必要な出力との差を計算する上記手段は、以下に記載された式によるエラー項 を発生させ、δj=yj(l−yj)(dj−yj)yjはニューロンの動作出 力であり、djはニューロンの必要な出力であることを特徴とする請求項2に記 載のニューラルネットワーク。
- 7.上記必要な出力と、動作出力(12、14、16)との差を最小にさせる為 に重みを適合させる上記手段は、以下の式により計算されるΔWによりシナプス 重みを適合させる手段を有し、 ΔW=ηδjyi ηは、ゲイン項であり、yiはシナプス接続に沿って伝えられる信号のニューロ ンの出力であることを特徴とする請求項2に記載のニューラルネットワーク。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US39269089A | 1989-08-11 | 1989-08-11 | |
US392,690 | 1989-08-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04501327A true JPH04501327A (ja) | 1992-03-05 |
Family
ID=23551617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2511553A Pending JPH04501327A (ja) | 1989-08-11 | 1990-08-09 | パターン伝達ニューラルネットワーク |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0438573A1 (ja) |
JP (1) | JPH04501327A (ja) |
WO (1) | WO1991002322A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2520331B2 (ja) * | 1991-03-25 | 1996-07-31 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | ニュ―ラルネットワ―クの学習方法 |
AUPN431595A0 (en) * | 1995-07-24 | 1995-08-17 | Co-Operative Research Centre For Sensor Signal And Information Processing | Selective attention adaptive resonance theory |
US5983210A (en) * | 1995-12-27 | 1999-11-09 | Kabushiki Kaisha Toshiba | Data processing system, system-build system, and system-build method |
DE19653554A1 (de) * | 1996-12-20 | 1998-06-25 | Siemens Nixdorf Advanced Techn | Verfahren zum Trainieren eines neuronalen Netzes mit Trainingsdaten und Anordnung eines künstlichen neuronalen Netzes |
US10546242B2 (en) | 2017-03-03 | 2020-01-28 | General Electric Company | Image analysis neural network systems |
-
1990
- 1990-08-09 JP JP2511553A patent/JPH04501327A/ja active Pending
- 1990-08-09 EP EP90912378A patent/EP0438573A1/en not_active Withdrawn
- 1990-08-09 WO PCT/US1990/004483 patent/WO1991002322A1/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
WO1991002322A1 (en) | 1991-02-21 |
EP0438573A1 (en) | 1991-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5003490A (en) | Neural network signal processor | |
Jin et al. | Stable dynamic backpropagation learning in recurrent neural networks | |
Pandya et al. | Pattern recognition with neural networks in C++ | |
Uhrig | Introduction to artificial neural networks | |
US5150323A (en) | Adaptive network for in-band signal separation | |
US5588091A (en) | Dynamically stable associative learning neural network system | |
Fu et al. | An ensemble unsupervised spiking neural network for objective recognition | |
Hart | Using neural networks for classification tasks–some experiments on datasets and practical advice | |
CN114186672A (zh) | 一种用于脉冲神经网络的高效高精度训练算法 | |
RU2193797C2 (ru) | Устройство ассоциативной памяти (варианты) и способ распознавания образов (варианты) | |
GB2245401A (en) | Neural network signal processor | |
WO1991002323A1 (en) | Adaptive network for classifying time-varying data | |
JPH04501327A (ja) | パターン伝達ニューラルネットワーク | |
CA2002681A1 (en) | Neural network signal processor | |
JPH0581227A (ja) | 神経系回路網信号処理装置及び信号処理方法 | |
KR20210146002A (ko) | 다층 스파이킹 뉴럴 네트워크의 학습 방법 및 장치 | |
US20230298573A1 (en) | Apparatus for classifying sounds based on neural code in spiking neural network and method thereof | |
Larsen et al. | Artificial neural networks for plasma x‐ray spectroscopic analysis | |
Ryland | Modeling Integrated Cortical Learning: Explorations of Cortical Map Development, Unit Selectivity, and Object Recognition | |
Ritter et al. | Noise tolerant dendritic lattice associative memories | |
JPH02165285A (ja) | パターン認識装置 | |
Castillo et al. | Introduction to Neural Networks | |
JP2023163775A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
AU620959B2 (en) | Neural network signal processor | |
BESHA | INTELLIGENT FACIAL EXPRESSIONS RECOGNITION SYSTEM |