JPH0581227A - 神経系回路網信号処理装置及び信号処理方法 - Google Patents

神経系回路網信号処理装置及び信号処理方法

Info

Publication number
JPH0581227A
JPH0581227A JP80000490A JP80000490A JPH0581227A JP H0581227 A JPH0581227 A JP H0581227A JP 80000490 A JP80000490 A JP 80000490A JP 80000490 A JP80000490 A JP 80000490A JP H0581227 A JPH0581227 A JP H0581227A
Authority
JP
Japan
Prior art keywords
input
output
signal
neuron
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP80000490A
Other languages
English (en)
Inventor
Patrick F Castelaz
パトリツク・エフ・キヤステラズ
E Mills Dwight
ドウワイト・イー・ミルズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Hughes Aircraft Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hughes Aircraft Co filed Critical Hughes Aircraft Co
Priority to JP80000490A priority Critical patent/JPH0581227A/ja
Publication of JPH0581227A publication Critical patent/JPH0581227A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 電子出願以前の出願であるので 要約・選択図及び出願人の識別番号は存在しない。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は特徴抽出及びパターン認識装置に関 し、特に、入力センサー信号から直接的に特徴の 確認のために必要なアルゴリズムを内部的に明ら かにする、すなわち“学習”出来る神経系回路網 (ニューラル・ネットワーク)の信号処理装置に 関する。
(従来の技術) パターンを認識する能力は、現在生物学的組 織のみが遂行できる知覚的タスクを遂行すること が出来る人工的システムの開発に向かう重大な弟 一段階である。音声パターン認識と視覚パターン 認識は、通常のコンピュータで実行することが非 常に困難な二つの分野である。これら及びその他 のタスクを遂行できる人工システムを開発する努 力においては、信号から特徴を抽出するために多 くの信号処理技術が開発されてきた。これらの技 術は、一般に広範囲に亘る前処理を必然的に伴う。
この様な前処理は、例えば、パルス幅、パルス振 幅、パルス立ち上がり及び立ち下がり時間、パル ス周波数等々を計測することを必要とする。これ らの特徴が一度び抽出されると、それらはその信 号の類別と識別のため蓄積されたパターンとの整 合がとられる。これらの段階を遂行するのに必要 なソフトウエアーは、しばしば複雑で且つ開発す るのに長時間を要する。その上、通常のデジタル 信号処理装置は視覚パターンの位置付けにおける 変化、又は音声認識の場合には、話者の相違のよ うな入力信号のある変動を許容することが出来な い。最近では、逐次的に作動する通常のフォン・ ニューマン型コンピュータは、脳のような生物学 的組織で起こる並列処理に殆ど類時点を持たない ということが十分理解されてきた。それ故、通常 の信号処理技術が当然人間の知覚に関連したタス クを適切に遂行することは出来ないことは驚くに 当たらない。従って、脳の神経系モデルに基づい た新しい方法が、知覚的なタスクを遂行するため 開発されつつある。これらのシステムは、神経系 回路網、神経形態を持つシステム、学習マシン、 並列分散型処理装置、自主的組織結成型システム 又は適応性論理システムとして、種々知られてい る。その名称が何であれ、これらのモデルは並列 に作動する多くの非線形演算要素を利用し、これ らは生物学的な神経系ネットワークに類似するパ ターンに配列されている。各演算要素すなわち “ニューロン”は、一般に動作を改善するため調 整中に適応させられるウエイトすなわち“シナプ ス”を経由して接続されている。従って、これら のシステムは、その正しい出力が特別な入力に応 答して達成されるまで、それ等のシナプス上のウ エイトを変更することにより、自己学習機能を示 す。一度び調整されると、神経系回路網は目標を 認識して、その入力が不十分であったり又は背景 雑音に隠されている場合であって、望ましい出力 を生ずることが出来る。又、神経系回路網には各 々が主として局部的な接続を持つより処理能力の ある多数のノードがあるため、フォン・ニューマ ン型直列型コンピュータよりも、神経系回路網は より大きな堅牢性又は故障への耐性を示す。少数 のノード又はリンクへの損傷は、全体に亘る特性 を著しく損なうことはない。
各種のトポロジー、ニューロンの特性及び調 整や学習規則を用いる広範囲の各種の神経系回路 網モデルがある。学習規則はウエイトの内部集合 を規定して、特性を改善するために、使用中又は 調整中にウエイトが如何に適用されるべきかをを 示す。図解による説明のために、これら神経系回 路網モデルのあるものは、F.Rosenblattに交付さ れた米国特許第3,287,649号に記述されたパーセ プトロン(Perceptoron);J.Hopfieldに交付され た米国特許第4,660,166及び4,719,591号に記述 されたホップフィールド網(Hopfield Net);R.Li ppmanの“神経系回路網を用いる演算への手引き” ,IEEE ASSP Magazine,April 1987,P.4-22)に記 述されている、ハミング網(Hamming Net)及びコ ホーネン(Kohohonen)自主的組織マップ;及びRu melhart,Hinton,& Williamsの“エラー伝搬によ る学習の内部表現”(D.E.Rumelhart& J.L.McCle lland(Eds.)の並列分散型処理;認識力に関する マイクロ構造での探求,Vol.1:基礎.MIT Press( 1986)に記述された多重層構造型パーセプトロン に対する一般化されたデルタ規則(Delta Rule)を 含む。
これらモデルの各々が、それが最も良く適し ている特別の知覚的なタスクで異なった成功の程 度を達成しているが、これらシステムに要求され た並列入力は実時間のハードウエア実現のため、 特種目的の前処理装置を必要とすると考えられて いる。(R.Lippmannによる上述の論文を参照のこ と)。例えば、Rosenblattのパーセプトロン(米 国特許第3,287,649号)では、各入力は別個の周 波数帯のアナログ音声信号を受信する。音声認識 に対する極く最近の生理学に基づいた前処理装置 のアルゴリズムは聴覚神経で有用なものと同じ様 な情報を提供しようと試みている。従って、神経 系回路網は自己学習及びソフトウエアの除去とい う明確な利点を提供しているが、ある量の前処理 が依然として神経系回路網の前段に要求されてい た。従来の神経系回路網はデジタル処理装置より も、より少ない前処理で済むかもしれないが、そ れらは依然としてこの欠点すなわち前処理を必要 とする欠点を通常のデジタル信号処理装置と分担 している。それ故、必要とされた前処理装置を除 去又は相当減少する実時間信号処理が可能な神経 系回路網を提供することが望まれるだろう。
(発明の要約) 本発明によれば、神経系回路網の信号処理装 置(NSP)は、前処理装置を必要としないが、その 代わり、生のセンサー信号データを受信して分析 することが出来る様に構成されている。このデー タは一次元又は多次元の光学、音響又はその他の 種類のデータから構成さている。このNSPは、特 徴抽出及び入力として生のセンサー信号を受信で き、事前に実例により学習したアルゴリズムの特 徴を使用することにより目標の特徴波形を識別で きるパターン確認装置である。
本発明によれば、このNSPは、一層の入力処 理装置、すなわち同じ様なニューロンのその他の 層に接続された“ニューロン”から成る。ニュー ロンは、採用された特殊な神経系回路網のモデル に従って、重み付けられた接続子すなわち“シナ プス”を通して相互に接続される。入力層のニュ ーロンは、分析されるべき信号を受信するセンサ ー又はその他の信号生成手段に接続される。この 信号は確認されるべき目標信号を含み、又はそれ は、例えば、無関係の信号、不完全な目標信号、 又はその目標信号の変化によりその生の信号に覆 い隠されていた目標信号を含む。
この神経系回路網を“認識する”ために“調 整する”ため、すなわち目標入力に応答して正し い出力と対応するため、目標又は調整用入力が繰 り返しNSPに送られ、その回路網が望ましい方法 で応答するまで、回路網はそのニューロン間の相 互接続を適合させる。特別な調整アルゴリズムは 採用された特殊な神経系回路網のモデルに特有の ものとなるだろう。例えば、望ましい出力は、或 る出力ニューロンが目標信号が現れた時に応答し、 又その信号が無い時は応答しないと言う様な二進 型の応答出力であろう。NSPは一つ以上の目標信 号に応答するよう調整され得るということは当然 注目されるべきである。このNSPにおける“知識” はその接続にあるので、与えられた調整期間中に 十分な相互接続があるなら、その回路網は多くの 異なった目標の類別で調整されだろう。一度調整 されると、この回路網はその目標を包含している 入力信号がその回路網に供給されると、入力が雑 音を含んでいるか又は不明瞭であっても、正しい 出力を出力するだろう。
本発明によれば、調整中及び未知の信号の確 認中に、入力信号がこのNSPの入力ニューロンに 直接供給される。段階的なやり方で、入力ニュー ロンを横切って入力信号を移動供給することによ って、これは遂行される。サンプリング・ホール ド回路の様な蓄積手段を採用している回路が、各 々の独立した段階に対し信号を“停止”するのに 使用される。単一又は静的な一組の入力が単一の 出力を生ずるよう調整する場合に使用される調整 策を採用しないで、本発明では、回路網は入力波 形の連続している部分から成る変化入力に応答し て、単一の出力状態を生ずるように調整される。
従って、入力の変化状態が回路網に単一の出力応 答を生ずるように教えるので、一種の動的な学習 が採用される。
好適な実施例では、この調整手順は次のよう である。最初に、システムは休止しておりニュー ロン間のそのウエイトは種々の小さなランダム値 にセットされる。次ぎに、入力信号の最初の部分 が最初のニューロンに供給される。入力ニューロ ンはその入力信号の或る関数である応答を生ずる。
この応答は重み付けられた接続子を通して連続層 にニューロンに伝えられる。この信号は出力が出 力層のニューロンにより発生されるまで、NSPを 通して伝達される。“代表的な”神経系回路網の モデルでは、学習アルゴリズムは、ニューロン間 のシナプス的ウエイトの変更に影響を与えること により、実際の出力と望ましい出力間の相違を最 小化しようとする。
次に、入力信号は、最初の出力ニューロンが 入力信号の第二の部分を受信するように、サンプ リング回路を通して一段階進められる。その信号 は回路網を通って再び伝達される。新しい出力が 作り出されてウエイトが実際の出力と正しい出力 間の相違を減少する様に再び調整される。この方 法では、入力信号の各段階が入力ニューロンを横 切った後、ウエイトが調整される。
最初の入力ニューロンが入ってきた後のある 時点で、入力信号は第二のそれに続く入力ニュー ロンに進行する。従って、数段階の後に、入力信 号の最初の部分が第二の入力ニューロンに供給さ れて、残りの部分が最初の入力ニューロンに供給 される。この段階では、最初及び第二の入力ニュ ーロンに導入された信号は、ただちに回路網を通 して処理される。入力信号の長さ及び入力層の入 力ニューロンの数の如何により、後の段階で、入 力信号の異なった連続的な部分が同時に入力ニュ ーロンの各々に供給されるかもしれない。その結 果、信号の各部分は同時に回路網を通して処理さ れるであろう。一度び、完全な信号が各入力ニュ ーロンを通して段階的な方法で移動すると、最初 の調整サイクルが完了する。通常、NSPが適切に 正しい応答を生ずるように調整される前に、多く の調整サイクルが要求されると言うことを注目す べきである。そして、付加的な調整サイクルが、 NSPにより類別されされるのが望ましい他の目標 信号に対して採用さても良い。この様に、NSPは 各々の異なった目標信号に対し異なった応答を生 ずるよう調整される。要求された調整サイクルの サイクル数は、神経系回路網のモデルの種類、ニ ューロンの数、目標信号の複雑さ、等々を含む多 くの要因に左右されるだろう。
全ての調整が完了すると、ある長さの未知信 号がNSPに供給される。入力機構は調整中に採用 されたものと同等である。すなわち、全部の入力 信号が各入力ニューロンを通過するまで、信号は 一連の異なった段階の入力層の各ニューロンを通 過する。しかし、ウエイトは通常、調整サイクル 中でのみ変えられる。調整中に使用された各々の 段階を省略して、その代わりに未知の信号を連続 的に供給することも可能である。
未知の信号が或る形式の目標信号のを含む場 合、回路網はその目標に対応して調整中に出力し た所定の出力を出力するだろう。例え雑音が存在 しても又は純粋な目標信号から変更されていても、 神経系回路網は応答するだろう。従って、NSPは どんな信号処理アルゴリズムにも無関係である構 造を採用している。それは何等の前処理も、何等 のソフトウエアも必要とせず、本質的に故障に耐 えることができ、その標準構造は高速動作が可能 であり構造が簡単で、比較的低価格となる。
(実施例) 第1図には、通常の信号処理装置10のブロツ ク図が示されている。生のアナログ信号12はセン サー又はその他の信号発生装置の出力からなり、 信号処理装置10に供給される。次いで、特徴抽出 段階14の信号12から特徴を抽出するため、多くの 動作が遂行される。これらの段階はパルス幅、パ ルス振幅、パルス立ち上がり及び立ち下がり時間、 パルス周波数、等々の計測を必然的に伴う。特徴 抽出処理の結果が、パターン認識段16で分析され て、蓄積記憶された特徴が抽出された特徴と比較 される。そして信号処理装置10が整合のためサー チを実行する。整合が見出されると、この処理装 置10は正確な類別を実行する。
この様な通常の信号処理装置は多くの欠点を 持つ。これらは、その問題が十分に理解されるこ と及び明白且つ複雑なアルゴリズムが明らかにさ れねばならないという要求条件を含んでいる。ま た、通常の信号処理を遂行するのに必要なハード ウエアは、特に実時間処理に対しては高価且複雑 である。本発明は、アルゴリズムが調整を通して その処理装置自身により作り出されるため、何等 のソフトウエアも必要としない神経系回路網信号 処理装置(NSP)を提供する。第2図には、NSPの 実施例のブロツク図20が示されている。NSP20は 個々の処理装置の複雑の行すなわち多層パーセプ トロン(Perceptron)として知られた一般的な集合 の構成で配列された“ニューロン”から成ってい る。多層パーセプトロンでは、ニューロンは三層 又はそれ以上の層に配列されている。各ニューロ ンはその入力の予め決められた或る関数である出 力を生ずる。最初のすなわち入力層はその入力ニ ューロン22と呼ばれているニューロンからなり、 最終層のニューロンは、出力ニューロン24と呼ば れている。これらのニューロン22,24は各種の通 常のデジタル又はアナログ装置から構成される。
例えば、オペ・アンプをニューロン22,24に使用 しても良い。一つ又はそれ以上の内部層は隠され たニューロン26と呼ばれているニューロンから成 っている。第2図には僅か三個のニューロンだけ が各層に示されているにすぎないが、任意の数の ニューロンが解決されるべき問題に従ってて採用 され得ると言うことが理解されるだろう。各層の 各ニューロンは、隣接の層の各ニューロンに接続 される。すなわち、各々の入力ニューロン22は隣 接の内部層の隠された各ニューロン26に接続され る。同様に、内部の各ニューロン26は次段の隣接 層の各ニューロンに接続される。この次段層は付 加的な内部ニューロン26を構成する場合もあり、 又は、第2図に示された様に、次段の層は出力ニ ューロン24を構成する場合もある。パーセプトロ ンでは、ニューロンは同じ層内の他のニューロン には接続されないと言うことに注意しなけらばな らない。
ニューロン間の接続27の各々はウエイトすな わち“シナプス”28を含む。(混乱を避けるため 第2図においては、接続27とシナプス28の或るも ののみ番号を付している。しかし、数字27と28は 示された全ての接続27とシナプス28を含むことを 意味している。) これらシナプス28は可変抵抗、可変利得を持 つ増幅器、又はキャパシターを利用するFET接続 制御装置と共に実装される。シナプス28はニュー ロン間の接続の強さを減少又は増大するために用 いられる。接続27は一本の線で示されているが、 調整手順中に要求されるならば、二本の個々の線 がそれぞれ二つの方向に信号を伝送するように用 いても良い事が理解されるだろう。各シナプス28 の接続強度の値は或る予め決められた最大値から 零まで変更される。そのウエイトが零である時は、 結果的に二つのニューロン間には何の接続も無い。
NSP20をある信号を認識するように調整する 手順は、望ましい出力がそのある入力に応答して 発生されるまで、反復的なやり方で各シナプス28 の接続強度を調整することを伴う。なお特に、調 整中、既知の波形を含んでいる生の信号、又は調 整用目標信号30が、その入力層のニューロン22に 供給される。本発明による特殊な入力機構が以下 により詳細に説明されるだろう。この目標信号30 は入力層の各ニューロン22に供給されて、各ニュ ーロンによる処理及び各シナプスの重み付け値の 関数である出力が発生される。出力ニューロン24 からのこの出力が所望の出力と比較されて、実際 の出力と所望の出力との間の相違が計算される。
この相違に基づいて、出力エラーの値を減少する ように、各シナプス28のウエイトを調整するのに 用いられるエラー信号が発生される。
上述の調整手順はそのエラー信号が受入れ可 能なレベルに減少されるまで繰り返され、そして NSP20がその目標入力信号30に応答して所望の出 力を生ずる。一度び調整されると、識別又は類別 されるべき生の信号32が、調整用の目標信号30が 導入された方法と同じ方法で入力ニューロン22に 供給される。識別されるべき信号32は目標信号30 を含んでいるかも知れないし含んでいないかも知 れない。又はそれはその目標信号30の退化したす なわち雑音を含んだ信号を含むかもしれない。そ の目標が或る様式有するなら、NSP20は調整中に 目標信号30に対応した出力に対応する出力を発生 するだろう。目標信号が存在しないなら、異なっ た応答又は何等の応答も発生されないだろう。
NSP20は二以上の目標信号30を認識するよう に調整されても良い。NSP20が認識できる目標の 数は、ニューロンの数、層の数及びその目標信号 の複雑さの様な各種の要素に依存するだろう。
NSP20が連続的な目標で調整されている時、その ニューロンを通る各目標の有効な“経路”はその ニューロンを接続している異なったウエイトによ り異なるから、NSP20は多重目標を認識できる。
しかし、より多くの目標が導入されるにつれ、そ の後の調整手順は初期の目標を認識するためのNS P20の能力を部分的に消去又は機能低下させるよ う、以前の調整からウエイトを変えるから、目標 の数には限界がある。
第4図を参照して、、本発明によるNSP20の動 作をより詳細に検討しよう。入力ニューロン22, 隠されたニューロン26,及び出力ニューロン24の 各々は一つ又はそれ以上の入力を持ち且つ単一の 出力信号を生ずる同じ様な処理ユニットから成る。
好適な実施例においては、Rumelhartによる上述 の論文の記述された後方伝達調整アルゴリズムの 修正された改訂版が採用されている。このアルゴ リズムは、各ニューロンがその入力の連続微分可 能な非線型又は半線型関数である出力を生ずる。
この関数は活性化関数と呼ばれ、次の一般型のS 字状記号(Signoid)論理的非線型関数であること が望まれる。
ここに、y(ij)は層iのニューロンjの出力 で、Σwji(ij)はその前の層からのニュ ーロンjへの入力の合計であり、y(ij)はそ の前の層の各ニューロンの出力であり、wijは その前の層のニューロンをニューロンjに接続し ている各シナプスに関連したウエイトであり、 θはスレッショルドに関数的に類似のバイアス である。このS字状関数y(ij)の一般形状は 第3図に示されている。
netij=Σwij(ij)+θjに関するこの 関数y(ij)の微分関数は、次式で与えられる。
従って、この活性化関数が微分可能であると言 う要求条件が満たされる。
調整中、この活性化関数y(ij)は各ニュ ーロンに対し同じであるが、各シナプス28のウエ イトは修正される。従って、接続パターンは経験 の関数として修正される。各シナプス28のウエイ トは次式に従って修正される。
(3) Δwij=ηδ(ik)(ij) ここに、δ(ik)はそのラインに沿った入力 を受信しているニューロンに得られるエラー信号 であり、y(ij)はそのラインに沿う活性化関 数を送るユニットの出力であり、またηは比例常 数であり学習率と呼ばれる。
このエラー信号の決定はその出力ユニットで 始まる反復処理によって行われる。先ず、目標信 号30が入力ニューロン22に送信される。これは出 力信号が発生されるまでNSP20を通して信号を伝 達する。この出力はそれから所望の出力と比較さ れる。例えば、二進出力は、ある目標信号30に応 答して、出力ニューロン24の或る一つが“オン” でその他が“オフ”であってもよい。活性化関数 y(ij)は無限大のウエイト無しに1か0の極 限値に達することは出来ないと言うことは当然で あり、それ故、所望の出力が0又は1であること として、0.1及び0.9の値が目標値として使用さ れ得る。各出力ニューロン24により生じた実際の 出力は所望の出力と比較されて、そのエラー信号 はこの相違から計算される。出力ユニットに対し ては、 (4) δij=(tij−yij)x (dyij)/(dnetij) 従って、式(2)から (5) δij=(tij=yij)(yij)(1-y(ij)) 隠されたニューロン26に何等の規定された目 標は無い、よって、エラー信号はそれが直接に接 続されているニューロン及びこれらに接続のウエ イト・エラー信号の項に対しては、反復的に決め られる。従って、無出力のニューロンに対しては、 (6) δij=y(ij)(1-yij)Σδik(jk) 式(3)から、学習率ηは、そのエラー信号δ が伝達されるごとに幾つかのウエイトの変更を遂 行すると言うことが分かる。学習率ηが大きくな ればなるほど、ウエイトの変化が大きくなり、そ の学習率は早くなる。しかし、学習率が余りにも 大きくされると、システムは発振してしまう。運 動量常数αを用いる事により大きな学習率であっ ても発振は避けられる。
(7) Δw(i,j,k)=ηδy(ij) +αΔw(i,j,k) ウエイト空間の高い周波数の変化を効果的に 濾過するウエイト空間の一種の運動量を提供して、 常数αはウエイト空間の現在の移動の方向に過去 のウエイト変化の結果を決める。
後方伝達調整アルゴリズムの概略が第5図に 示されている。まず最初に、ウエイトwとニュー ロン・オフセットが小さなランダム値に設定され る(段階34)。次ぎに目標入力信号30の一部分が 入力ニューロンに供給されその所望の出力が確定 される(段階36)。入力信号30がニューロンの各 層を通して伝達された後、出力値が式(1)に示さ れたS字状活性化関数y(ij)に基づいて各出 力ニューロン24に対し計算される。次ぎに、実際 の出力が生成供給されて(段階38)各出力ニュー ロン24に対する望ましい出力と比較され、式(5) のエラー信号δが計算される(段階40)。このエ ラー信号はそれから予め決められた許容値と比較 される(段階42)。エラー信号が許容値よりも大 きいなら、エラー信号は回路網を通して後方へ通 過され、各ウエイトは式(7)で定義されたように 量Δwだけ変更させられる(段階44)。目標信号 30が再び供給されてエラーが受入れ可能なレベル まで減少されるまで、ウエイトは再び段階36-44 を繰り返して調整される。このエラー信号が予め 決められた許容値よりも小さい時は(段階42)、 目標信号30に対するその調整手順は完了する(段 階46)。次いで、NSP20は新しい目標信号で再調 整される。目標信号の全てに対し一度調整が完了 すると、未知の信号32が入力ニューロン22に供給 される(段階48)。その信号がネットワークを通 して伝搬されると、出力ニューロンは出力信号を 生ずる。もし目標信号が入力に供給されるなら、 NSP20はその目標信号を正しく認識するよう望ま しい応答を生ずるだろう(段階50)。
本発明に従って、入力ニューロン22への入力 信号の特別な入力機構を説明する。第4図を参照 すると、目標入力30又は類別されるべき未知の信 号32を構成する入力信号が入力ライン51に導かれ る。この入力信号は各種の発生源から生ずるアナ ログ信号である。例えば、入力信号は、赤外線、 レーダ、ソナー、及び音声センサーのような種々 の信号発生センサーの一つから発生された一次元 の情報を含む。又は、その信号は目標検出及び捜 索、偵察の確認、等々の様な問題解決のための二 次元のデータを含む。
ある場合には、入力信号はセンサーから直接 発生される生の信号を含む事があり、その他の場 合には、それはセンサーから引きだされたドップ ラー・データの利用の様に或る種の処理を遂行す るのが望ましい。
どんな場合においても、入力データ信号は一 連のサンプリング回路52,54,56,の第一段に送ら れる。サンプル・ホールド回路の様な各種のサン プリング回路が所望の機能を遂行する様に構築さ れる事が望まれる。これらのサンプリング回路の 目的は、入力ニューロン22にある多くのサンプル を含むサンプルされた信号データの窓口と共に、 入力ニューロン22を提供することである。最初に、 入力信号の前縁のサンプルが最初のサンプリング 回路52に入れられる。この入力信号は出力が出力 ニューロン24により発生されるまで、NSP20を通 して伝搬させられる。次の段階で、その入力信号 の次の部分が最初のサンプリング回路52によりサ ンプルされて、前段階のサンプリング回路52によ り受信された部分が次の段のサンプリング回路54 に送られる。従って、両サンプリング回路52,54 から生じている二つの信号は同時にNSP20を通し て伝搬される。これらのサンプリング回路はクロ ック回路58からのパスルにより同期させられる。
その後、入力ニューロン22の全てが同時に入力信 号の異なった部分を受信し、NSP20が各段階ごと に単一出力状態となる。最終的に、全入力信号が 第4図のNSP20を通して右から左に段階的に伝搬 する。調整モードでは、ある所望の状態が出力に 現れるまで、その調整アルゴリズムが各段階の後、 ウエイトを調整する。調整モードにない時は、NS P20はウエイトを調整しなが、入力信号32に対応 する出力状態を生ずる。未知の信号32を分析する ためにウエイトに何等の調整も必要ではないので、 より小さな段階を用いて、又はサンプリング回路 52,54,及び56による連続的な方法で信号は交互に 入力される。
信号の幅及び振幅、サンプルされた段階での 幅、及び入力ニューロン22、隠されたニューロン 26及び出力ニューロン24の数、の様な種々の変数 は分析されるべき信号の種類と共に変わる。NSP2 0のソフトウエア・シミュレーションの結果が三 層のネットワーク信号処理装置20により二つの目 標パターンの識別を実証している第6図にグラフ 的に図解されている。
上述したように一乃至二次元の問題を解決す るだけでなく、NSP20は予め検出されたデータの 融合、自然言語処理、実時間の総合的エキスパー ト(専門家を必要としない)システム、多次元最 適化類別の諸問題、及びその他の古典的パターン 認識問題のような多次元の諸問題に適用可能であ る。NSP20の基本的構成要素は通常のアナログ又 はデジタル電気回路で構成され、またアナログVL SI(超大規模集積)回路でも実現される。光学的 デバイスも又NSP20の機能の或もの又は全てに使 用できる。光学的な実用例はホログラフ蓄積、位 相複合型光学、及びウエーブフロント変調やミキ シングの様な分野の最近の進展により実現可能で ある。更に、NSP20が一度びある波形を認識する ように調整されると、調整されたNSP20と同じで あるが固定したシナプスのウエイト値を持つ調整 されたNSP20の正確なコピーを作ることにより、 NSPは無制限に再提供される。この方法において は、NSP20の量産が調整手順を繰り返すこと無く 可能である。
前述の説明から、本発明は自己学習が出来、 複雑でなく低価格の構成要素で実現されしかもソ フトウエアー無しで実現され得る高速度神経系回 路網の信号処理装置20を提供する。それは通常の 信号処理装置の様に破損を受け易いこと無く且つ 堅実な方法で目標の識別を遂行できる。一度調整 されても、NSP20は全ての新しい種類の目標に対 しその後も再調整可能である。この技術に熟練し た当業者にとって、その他の利点がこの発明の使 用から得られると言うこと、又明細書、図面及び 請求書の記載を参照すれば、本発明の技術的思想 から離脱すること無く変更修正が行われ得ると言 う事は明らかである。
【図面の簡単な説明】
第1図は汎用のデジタル信号処理装置のブロ ツク図; 第2図は本発明による神経系回路網信号処理 装置のブロツク図; 第3図は本発明に関連する代表的なS字状活 性化関数のグラフ; 第4図は一層当たり三つのニューロンをもつ 三層の本発明による神経系回路網のブロツク図; 第5図は本発明による調整のための後方エラ ー伝達手段の段階を示すフロー・チャート; 第6図は二つの目標信号の確認を示す神経系 回路網の信号処理装置のコンピュータ・シミュレ ーション結果を示す模式図である。

Claims (27)

    【特許請求の範囲】
  1. 【請求項1】 信号を受信して出力を生ずる複数のニュ
    ー ロン、及び前記ニューロン間にウエイト付け(重 み付け)された結合を提供する複数の接続シナプ スを有する神経系回路網であって、前記ウエイト の値を変化することにより入力に応答して所望の 出力を生ずる様にそれ自身を適応調整させること の出来る神経系回路網において: 外部入力信号を受信するの複数の入力ニュー ロン; 前記入力信号の順次的に選択された部分を前 記入力ニューロンに伝えるための手段; 始めから終わりまで全入力信号が前記入力ニ ューロンの各々に伝えられように前記入力信号を 進行するための手段;及び 調整手順中に、調整入力の一部分が前記入力 ニューロンに供えられる度ごとに、前記所望の出 力を生ずる様に前記ウエイトを変更するための手 段を含み、それにより、前記複数の調整手順の後、 前記神経系回路網が前記調整入力の或る様式を含 む入力信号に応答して前記所望の出力を出力する ことを特徴とする神経系回路網。
  2. 【請求項2】 前記複数の入力ニューロンが前記入力信
    号 の異なった部分を同時に受信する事を特徴とする 請求項1記載の神経系回路網。
  3. 【請求項3】 伝えるための前記手段は複数のサンプリ
    ン グ回路を含み、該サンプリング回路の各々は、前 記入力信号に一部分を前記入力ニューロンに伝え るように一つの入力ニューロンに接続されている 事を特徴とする請求項1記載の神経系回路網。
  4. 【請求項4】 入力信号を進行するための前記手段は、 各サンプリング回路の出力信号を次ぎに連な るサンプリング回路の入力に伝達するための手段; 及び 各サンプリング回路からの出力信号の伝達の 同期をとるためのタイミング手段を含む事を特徴 とする請求項1記載の神経系回路網。
  5. 【請求項5】 前記ウエイトを変更するための手段は、 前記所望の出力と調整中の実際の出力との間の相 違を計算するための手段;及び前記所望の出力と 実際の出力との間の相違を最小化するための手段 を含む事を特徴とする請求項1記載の神経系回路 網。
  6. 【請求項6】 前記入力信号がセンサーから生ずるアナ
    ロ グ波形から成る事を特徴とする請求項1記載の神 経系回路網。
  7. 【請求項7】 前記所望の出力が前記複数のニューロン
    に より生じた二進信号である事を特徴とする請求項 1記載の神経系回路網。
  8. 【請求項8】 前記ニューロンが更に:一層から成る入
    力 ニューロン層;少なくとも一層から成る内部ニュ ーロン層;及び一層から成る出力ニューロンの層 から成り、前記シナプスが各ニューロンと各隣接 層の各ニューロンとの間に重み付けられた結合を 提供する事を特徴とする請求項1記載の神経系回 路網。
  9. 【請求項9】 前記ニューロンは、 なお:y(ij)は前段の層の各ニューロンの出力、 w(ji)は前段の層のニューロンをニューロ ンjに接続している各シナプスに関連したウエイ ト、 θは固定されたバイアスをとる活性化関 数に従う出力を生ずる事を特徴とする請求項1記 載の神経系回路網。
  10. 【請求項10】 前記所望の出力と実際の出力との間の
    相違 を計算するための前記手段は各ニューロンに伝搬 されるエラー信号δijを生じ、前記エラー信号は δij=(tij−yij)y(ij)(1−yic) で表され、前記所望の出力と実際の出力との間の 相違を最小化するための前記手段は、 Δw=ηδ(ij)+αΔw(ijk) に従って計算されるΔwにより、ウエイトを調整 する事を特徴とする請求項5記載の神経系回路網。
  11. 【請求項11】 ある入力信号に応答して所望の出力を
    生ず るための神経系回路網において: 信号を受信して出力を生ずる複数のニューロ ン; 前記ニューロン間に重み付けられた結合を生 ずる複数の接続シナプス; 前記神経系回路網は、前記重み付けられた接 続の強度を変えることにより調整入力に応答して 所望の出力を生ずるよう調整手順中それ自身を適 用調整させることができ; 前記ニューロンの選定された一つであって、 外部入力信号を受信する入力ニューロン; 前記入力信号の順次的に選定された部分を直 接前記入力ニューロンに伝えるための手段; 始めから終りまで全入力信号が前記入力ニュ ーロンの各々に伝えられるように、前記入力信号 を進行するための手段;及び 調整入力が前記入力ニューロンを通して進行 している間、調整手順中に前記所望の出力を生ず るよう前記ウエイトを変更するための手段を含み、 それにより前記調整手順後、前記神経系回路網は 前記調整入力の或る形を含む入力信号に応答して 所望の出力を生ずる事を特徴とする神経系回路網。
  12. 【請求項12】 前記複数の入力ニューロンが前記入力
    信号 の異なった部分を同時に受信する請求項11記載の 神経系回路網。
  13. 【請求項13】 伝えるための前記手段は、複数のサン
    プリ ング回路を含み、該サンプリング回路の各々は前 記入力信号の一部分を前記入力ニューロンに伝え るように一つの入力ニューロンに接続され手いる 事を特徴とする請求項11記載の神経系回路網。
  14. 【請求項14】 前記入力信号を進行するための前記手
    段が 更に; 各サンプリング回路の出力信号を次段サンプ リング回路の入力に伝達するための手段;及び 各サンプリング回路からの出力信号の伝達の 同期をとるためのタイミング手段から成る事を特 徴とする請求項11記載の神経系回路網。
  15. 【請求項15】 前記ウエイトを変更するための前記手
    段が 更に: 前記所望の出力と調整中の実際の出力との間 の相違を計算するための手段;及び 前記所望の出力と実際の出力との間の相違を 最小化するための手段を含む事を特徴とする請求 項11記載の神経系回路網。
  16. 【請求項16】 前記入力信号がセンサーから生ずるア
    ナロ グ波形から成る事を特徴とする請求項11記載の神 経系回路網。
  17. 【請求項17】 前記所望の出力が前記複数のニューロ
    ンに より生じた二進信号である事を特徴とする請求項 11記載の神経系回路網。
  18. 【請求項18】 前記ニューロンが更に;一層から成る
    入力 ニューロン層;少なくとも一層から成る内部ニュ ーロン層;及び一層から成る出力ニューロンの層 を含み、前記シナプスが各ニューロンと各隣接層 の各ニューロンとの間に重み付けられた結合を提 供する事を特徴とする請求項11記載の神経系回路 網。
  19. 【請求項19】 前記ニューロンが なお:y(ij)は前段の層の各ニューロンの出力 w(ji)は前段の層のニューロンをニューロ ンjに接続している各シナプスに関連したウエイ ト、 θは固定されたバイアス をとる活性化関数に従う出力を生ずる請求項11記 載の神経系回路網。
  20. 【請求項20】 前記所望の出力と実際の出力との間の
    相違 を計算するための前記手段は各ニューロンに伝搬 されるエラー信号δijを生じ、前記エラー信号は δij=(tij−yij)y(ij)(1−yic) で表され、前記所望の出力と実際の出力との間の 相違を最小化するための前記手段は、 Δw=ηδ(ij)+αΔw(ijk) に従って計算されるΔwにより、ウエイトを調整す る事を特徴とする請求項15記載の神経系回路網。
  21. 【請求項21】 入力波形を類別するための多層型パー
    セプ トロンにおいて、 前記入力波形を受信し前記入力波形のS字型 関数である出力を生ずる複数の入力ニューロン; 前記入力ニューロンから前記入力信号を受信 し前記受信した信号のS字型関数である出力信号 を生ずる複数の内部ニューロン; 前記受信した信号のS字型関数である前記内 部ニューロンからの前記出力信号を受信する複数 の出力ニューロン; 前記入力波形の順次的に選定された部分を前 記入力ニューロンに伝えるため、それぞれ一つの 入力ニューロンに接続された複数のサンプリング 回路; 始めから終りまでの全入力波形がそれぞれの 段階で前記入力ニューロンの各々に伝えられる様 に、各サンプリング回路の出力を次段サンプリン グ回路の入力に伝達するための手段; 各サンプリング回路からの出力信号の伝達の 同期をとるためのタイミングの手段; 前記所望の出力と調整中のその実際の出力と の間の相違を計算するための手段及び前記所望の 出力と実際の出力との間の相違を最小化するため の手段を含み、調整入力の一部分が前記入力ニュ ーロンに伝えられる度ごとに所望の出力を生ずる よう前記パーセプトロンを調整するための手段か ら成り、 それにより複数の前記調整手順の後、前記パ ーセプトロンは前記調整入力の或る形を含む入力 波形に応答して前記所望の出力生じることを特徴 とする多層型パーセプトロン。
  22. 【請求項22】 ある特性波形を持つ入力信号を類別す
    るた めの方法において: 処理ユニットのネットワークにより前記入力 信号を受信し; 前記入力信号の複数の順次部分を同時にサン プリングし; 前記処理ユニットの複数に前記入力信号の前 記サンプルされた部分を伝え; 前記入力信号のサンプルされた部分を全体の 入力信号がサンプルされるまで前記処理ユニット の従続している処理ユニットを通して進行し; 前記入力信号の前記サンプルされた部分の関 数であって関連した重み付け関数である複数の中 間信号を前記処理ユニットにより生じ; 少なくとも前記中間信号の一つに依存する出 力応答を生じ; 既知の入力信号に応答して生じた前記出力を 所望の出力と比較し且つ生じた出力と前記所の出 力との間の相違を減少するよう前記重み付け関数 を修正する事により前記ネットワークを調整し、 未知の入力に応答して生じた出力と前記所望 の出力とを比較して、生じた出力が前記所望の出 力と整合する時、前記未知の信号が類別される段 階から成ることを特徴とする方法。
  23. 【請求項23】 前記入力を進行する前記段階が個々の
    段階 で完遂され、前記重み付け関数が調整段階中に各 個々の段階の後修正される事を特徴とする請求項 22記載の方法。
  24. 【請求項24】 複数の中間信号を生ずる段階及び出力
    応答 を生ずる段階の両段階は更に活性化関数 に従う信号を生ずる段階を含む事を特徴とする 請求項22記載の方法。
  25. 【請求項25】 前記重み付け関数を修正する前記段階
    が Δw=ηδ(ik)+αΔw(ijk)ただし、 δ(ij)=(tij-yij)y(ij)(1-yic) によりその重み付け関数を変更することを特 徴とする請求項22記載の方法。
  26. 【請求項26】 処理ユニットのネットワークにより入
    力信 号を受信し; 前記入力信号の複数の順次部分を同時にサン プリングし; 前期入力信号の前記サンプルされた部分を複数の前
    記処理ユニットに伝え; 入力信号のサンプルされた部分を全体の入力 信号がサンプルされるまで、従続している前記処 理ユニットを通し進行させ; 入力信号の前記サンプルされた部分の関数で あって関連した重み付け関数である複数の中間信 号を前記処理ユニットにより発生し; 少なくとも前記中間的信号の一つに依存して いる出力応答を生じ; 既知の入力信号に応答して生じた前記出力を 所望の出力と比較し且つ生じた出力と前記所望の 出力との間の相違を減少するよう前記重み付け関 数を修正することによって前記ネットワークを調 整し; 未知の入力に応答して生じた出力と前記所望 の出力とを比較して、生じた前記出力が前記望ま しい出力と整合する時前記未知の信号が類別され ることができるように構成される方法に従って入 力信号を類別するめの情報処理装置。
  27. 【請求項27】 入力信号を類別するための情報処理方
    法に おいて 処理ユニットのネットワークにより前記入力 信号を受信し; 前記入力信号の複数の順次部分を同時にサン プリングし; 前記処理ユニットの複数に前記入力信号の前 記サンプルされた部分を伝え; 前記入力信号のサンプルされた部分をその全 体の入力信号がサンプルされるまで従続している 前記処理ユニットを通して進行させ; 前記入力信号の前記サンプルされた部分の関 数であって関連した重み付け関数である複数の中 間信号を前記処理ユニットにより発生し; 少なくとも前記中間信号の一つに依存してい る出力応答を生じ; 既知の入力信号に応答して生じた前記出力を 所望の出力と比較し且つ生じた出力と前記所望の 出力との間の相違を減少するよう前記重み付け関 数を修正することによって前記ネットワークを調 整し; 未知の入力に応答して生じた出力と前記所望 の出力とを比較して、前記生じた出力が前記所望 の出力と整合する時前記未知の信号が類別される ようにし; 調整されたネットワークにおけるウエイトと 同一となる様に第二のネットワークのウエイトを 設定し、それにより、単一の調整されたネットワ ークから任意の数の調整されたネットワークを形 成する各段階からなる信号処理方法。
JP80000490A 1990-03-16 1990-03-16 神経系回路網信号処理装置及び信号処理方法 Pending JPH0581227A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP80000490A JPH0581227A (ja) 1990-03-16 1990-03-16 神経系回路網信号処理装置及び信号処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP80000490A JPH0581227A (ja) 1990-03-16 1990-03-16 神経系回路網信号処理装置及び信号処理方法

Publications (1)

Publication Number Publication Date
JPH0581227A true JPH0581227A (ja) 1993-04-02

Family

ID=18528251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP80000490A Pending JPH0581227A (ja) 1990-03-16 1990-03-16 神経系回路網信号処理装置及び信号処理方法

Country Status (1)

Country Link
JP (1) JPH0581227A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016414A (ja) * 2015-07-01 2017-01-19 株式会社リコー 学習方法、プログラム及び学習装置
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5035379A (ja) * 1973-07-27 1975-04-04
JPH027154A (ja) * 1988-06-27 1990-01-11 Matsushita Electric Ind Co Ltd 神経ネットワーク回路
JPH0239286A (ja) * 1988-07-28 1990-02-08 Ricoh Co Ltd 物体認識方式

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5035379A (ja) * 1973-07-27 1975-04-04
JPH027154A (ja) * 1988-06-27 1990-01-11 Matsushita Electric Ind Co Ltd 神経ネットワーク回路
JPH0239286A (ja) * 1988-07-28 1990-02-08 Ricoh Co Ltd 物体認識方式

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016414A (ja) * 2015-07-01 2017-01-19 株式会社リコー 学習方法、プログラム及び学習装置
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
US5003490A (en) Neural network signal processor
US5150323A (en) Adaptive network for in-band signal separation
Islam et al. An overview of neural network
Eesa et al. A normalization methods for backpropagation: a comparative study
CA2642041C (en) Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
Yao et al. Pattern recognition by a distributed neural network: An industrial application
US6009418A (en) Method and apparatus for neural networking using semantic attractor architecture
US6038338A (en) Hybrid neural network for pattern recognition
Stornetta et al. A dynamical approach to temporal pattern processing
GB2245401A (en) Neural network signal processor
Barreto et al. A taxonomy for spatiotemporal connectionist networks revisited: The unsupervised case
Hart Using neural networks for classification tasks–some experiments on datasets and practical advice
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
WO1991002323A1 (en) Adaptive network for classifying time-varying data
JPH0581227A (ja) 神経系回路網信号処理装置及び信号処理方法
CA2002681A1 (en) Neural network signal processor
WO1991002322A1 (en) Pattern propagation neural network
AU620959B2 (en) Neural network signal processor
KR20210146002A (ko) 다층 스파이킹 뉴럴 네트워크의 학습 방법 및 장치
Perantonis et al. Efficient perceptron learning using constrained steepest descent
Ivanov Development of an Approach to Implementation of a Model Based on a Generalized Artificial Neural Network Concept
Tarasenko A general framework for development of the cortex-like visual object recognition system: waves of spikes, predictive coding and universal dictionary of features
Kovalev et al. Constructive algorithms as a method of achieving plasticity of ANNs
Zhang et al. Supervised Learning based on Local Recurrent Spiking Neural Networks
Martinez-Navarro et al. Comparison of Neural Networks for Emotion Detection