JPH04264665A - デジタル・ニューラル・ネットワーク - Google Patents
デジタル・ニューラル・ネットワークInfo
- Publication number
- JPH04264665A JPH04264665A JP3295019A JP29501991A JPH04264665A JP H04264665 A JPH04264665 A JP H04264665A JP 3295019 A JP3295019 A JP 3295019A JP 29501991 A JP29501991 A JP 29501991A JP H04264665 A JPH04264665 A JP H04264665A
- Authority
- JP
- Japan
- Prior art keywords
- digital
- neuron
- input
- signal
- feedforward
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 48
- 238000004364 calculation method Methods 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 27
- 239000004020 conductor Substances 0.000 claims abstract description 19
- 210000002569 neuron Anatomy 0.000 description 164
- 210000000225 synapse Anatomy 0.000 description 24
- 230000000694 effects Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 230000001537 neural effect Effects 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 230000000946 synaptic effect Effects 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 235000009413 Ratibida columnifera Nutrition 0.000 description 4
- 241000510442 Ratibida peduncularis Species 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000000118 neural pathway Anatomy 0.000 description 4
- 238000007667 floating Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- YBJHBAHKTGYVGT-ZKWXMUAHSA-N (+)-Biotin Chemical compound N1C(=O)N[C@@H]2[C@H](CCCCC(=O)O)SC[C@@H]21 YBJHBAHKTGYVGT-ZKWXMUAHSA-N 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- FEPMHVLSLDOMQC-UHFFFAOYSA-N virginiamycin-S1 Natural products CC1OC(=O)C(C=2C=CC=CC=2)NC(=O)C2CC(=O)CCN2C(=O)C(CC=2C=CC=CC=2)N(C)C(=O)C2CCCN2C(=O)C(CC)NC(=O)C1NC(=O)C1=NC=CC=C1O FEPMHVLSLDOMQC-UHFFFAOYSA-N 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008904 neural response Effects 0.000 description 1
- 238000012536 packaging technology Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 102220043963 rs372152495 Human genes 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【0001】
【産業上の利用分野】この発明は、一般的には、ニュー
ラル・ネットワークに関し、かつ、より特定的には、相
互通信のために接続されたフィードフォワードおよびフ
ィードバック処理エレメントを有するデジタル人工ニュ
ーラル・ネットワークに関する。
ラル・ネットワークに関し、かつ、より特定的には、相
互通信のために接続されたフィードフォワードおよびフ
ィードバック処理エレメントを有するデジタル人工ニュ
ーラル・ネットワークに関する。
【0002】この発明は、1990年10月22日に、
ロバート・エム・ガードナー他によって出願された、「
人工ニューラル・ネットワークにおけるデジタル処理エ
レメント」と題する、同時係属の米国特許出願第07/
600,784号、代理人整理番号CR07007に関
連し、該出願は本件出願と同じ譲受人、すなわちモトロ
ーラ・インコーポレイテッドに譲渡されている。この発
明はさらに、1990年10月22日に、ロバート・エ
ム・ガードナー他により出願され、かつ本件出願と同じ
譲受人、すなわちモトローラ・インコーポレイテッドに
譲渡された、「デジタル・ニューラル・ネットワーク計
算リング」と題する、同時係属の米国特許出願第07/
600,892号、代理人整理番号CR06992に関
連している。
ロバート・エム・ガードナー他によって出願された、「
人工ニューラル・ネットワークにおけるデジタル処理エ
レメント」と題する、同時係属の米国特許出願第07/
600,784号、代理人整理番号CR07007に関
連し、該出願は本件出願と同じ譲受人、すなわちモトロ
ーラ・インコーポレイテッドに譲渡されている。この発
明はさらに、1990年10月22日に、ロバート・エ
ム・ガードナー他により出願され、かつ本件出願と同じ
譲受人、すなわちモトローラ・インコーポレイテッドに
譲渡された、「デジタル・ニューラル・ネットワーク計
算リング」と題する、同時係属の米国特許出願第07/
600,892号、代理人整理番号CR06992に関
連している。
【0003】
【従来の技術】生物学的なニューロンは、シナプスとし
て知られている重み付けがされた入力を通して刺激に反
応する1つの処理エレメントとして形成することができ
る。重み付けがされた刺激は典型的には加算されかつニ
ューロンに関連するシグモイド関数のような特定の非線
形性を通して処理される。すなわち、ニューロンの出力
信号は入力信号ベクトルと前記シグモイド関数によって
処理されるシナプスの重みとの積の合計として表わすこ
とができる。ニューロンの出力は典型的にはニューラル
・ネットワークとして知られる相互接続を形成する他の
ニューロンのシナプスに結合され、前記ニューラル・ネ
ットワークは並列様式で情報パターンを学習しかつ認識
する能力を含む多くの望ましい特性を有する。ニューラ
ル・ネットワークは特定のパターンを教えられ、かつ後
に同じパターンの歪みを受けた複写から該パターンを認
識するために求めることができる。
て知られている重み付けがされた入力を通して刺激に反
応する1つの処理エレメントとして形成することができ
る。重み付けがされた刺激は典型的には加算されかつニ
ューロンに関連するシグモイド関数のような特定の非線
形性を通して処理される。すなわち、ニューロンの出力
信号は入力信号ベクトルと前記シグモイド関数によって
処理されるシナプスの重みとの積の合計として表わすこ
とができる。ニューロンの出力は典型的にはニューラル
・ネットワークとして知られる相互接続を形成する他の
ニューロンのシナプスに結合され、前記ニューラル・ネ
ットワークは並列様式で情報パターンを学習しかつ認識
する能力を含む多くの望ましい特性を有する。ニューラ
ル・ネットワークは特定のパターンを教えられ、かつ後
に同じパターンの歪みを受けた複写から該パターンを認
識するために求めることができる。
【0004】技術者は長い間生物学的ニューロンの有利
な性質をその行為を電子的にエミュレートする試みにお
いて学習してきた。多くのニューラルネットワークはア
ナログ回路により実施され、そこでは複数のアナログ入
力信号が同時に各々のニューロンに印加されかつ同じ数
のシナプスの重み(synaptic weight
s)によって乗算され、その結果が加算されて非線形関
数により処理される。従って、各シナプスに対しアナロ
グ入力信号を受けるように結合された対応する入力端子
および該アナログ入力信号およびシナプスの積を与える
ための物理的な乗算器が存在する。該乗算器は従って物
理的に同じ数のシナプスに割り当てられ、後者はMOS
トランジスタのフローティングゲートのようなアナログ
メモリ・ロケーションによって与えることができる。例
えば、アナログニューラル・ネットワークの64ニュー
ロンの構成においては、従来技術は64×80アレイの
釣合ったシナプスおよび乗算器を使用する。乗算器およ
びシナプスは典型的には大きな領域を必要とするから、
ニューロン・ネットワークの物理的なサイズは、非常に
大規模な集積設計技術をもってしても、ニューロンの数
が増加するに応じて急速に増大する。256程度のニュ
ーロンにより単一集積回路パッケージの使用が不可能に
なるが、それはシナプスおよび乗算器によって要求され
る過剰な領域のためである。実際のニューラル・ネット
ワークはしばしば単一の有用な機能を達成するために何
千ものニューロンを使用しかつより複雑な活動のために
膨大な数のニューロンを使用する。従って、伝統的なニ
ューラル・ネットワークのためのアナログ構造はこの技
術の将来の成長に対し望ましくない実際上の制限を課す
かもしれない。アナログ構成では普通の物理的なマッピ
ングの冗長な性質によって妨害を受けないより効率的な
ニューラル・アーキテクチャが必要である。
な性質をその行為を電子的にエミュレートする試みにお
いて学習してきた。多くのニューラルネットワークはア
ナログ回路により実施され、そこでは複数のアナログ入
力信号が同時に各々のニューロンに印加されかつ同じ数
のシナプスの重み(synaptic weight
s)によって乗算され、その結果が加算されて非線形関
数により処理される。従って、各シナプスに対しアナロ
グ入力信号を受けるように結合された対応する入力端子
および該アナログ入力信号およびシナプスの積を与える
ための物理的な乗算器が存在する。該乗算器は従って物
理的に同じ数のシナプスに割り当てられ、後者はMOS
トランジスタのフローティングゲートのようなアナログ
メモリ・ロケーションによって与えることができる。例
えば、アナログニューラル・ネットワークの64ニュー
ロンの構成においては、従来技術は64×80アレイの
釣合ったシナプスおよび乗算器を使用する。乗算器およ
びシナプスは典型的には大きな領域を必要とするから、
ニューロン・ネットワークの物理的なサイズは、非常に
大規模な集積設計技術をもってしても、ニューロンの数
が増加するに応じて急速に増大する。256程度のニュ
ーロンにより単一集積回路パッケージの使用が不可能に
なるが、それはシナプスおよび乗算器によって要求され
る過剰な領域のためである。実際のニューラル・ネット
ワークはしばしば単一の有用な機能を達成するために何
千ものニューロンを使用しかつより複雑な活動のために
膨大な数のニューロンを使用する。従って、伝統的なニ
ューラル・ネットワークのためのアナログ構造はこの技
術の将来の成長に対し望ましくない実際上の制限を課す
かもしれない。アナログ構成では普通の物理的なマッピ
ングの冗長な性質によって妨害を受けないより効率的な
ニューラル・アーキテクチャが必要である。
【0005】さらに、アナログ入力信号を並列に処理す
るニューラル・ネットワークのために必要な多くの外部
ピン数を考慮する必要がある。64ニューロンの集積回
路パッケージの前の例は電源およびいろいろな制御信号
のための端子を考慮した場合、200またはそれ以上の
ピンを使用するかもしれない。多数のピンは主として各
々のシナプスのための乗算器の物理的マッピングにより
駆動され、各々のシナプスに対し専用の入力端子および
それらの間に結合された導体を必要とする。技術が進歩
しかつ集積回路あたりのニューロンの数が増大するに応
じて、外部ピン数はそれに応じて十中八九増大するであ
ろう。ニューロンの数が例えば256に増大すると、集
積回路パッケージのピン数は300ピンを超えるように
なり、これは、すべてではないにしても、大部分の伝統
的な集積回路パッケージ技術において受け入れ難いもの
である。アナログ入力信号を時間多重する試みは実際上
非常に困難であることがわかっている。従って、ニュー
ラルネットワークのアナログバージョンは一般に有用な
ニューラル・ネットワークにおいて並列アナログ入力信
号の有り得る巨大なアレイをサポートするために必要な
集積回路の物理的領域および外部ピン数に関する制約に
よりその中に含まれるニューロンの数に対して課せられ
る制限を被る。
るニューラル・ネットワークのために必要な多くの外部
ピン数を考慮する必要がある。64ニューロンの集積回
路パッケージの前の例は電源およびいろいろな制御信号
のための端子を考慮した場合、200またはそれ以上の
ピンを使用するかもしれない。多数のピンは主として各
々のシナプスのための乗算器の物理的マッピングにより
駆動され、各々のシナプスに対し専用の入力端子および
それらの間に結合された導体を必要とする。技術が進歩
しかつ集積回路あたりのニューロンの数が増大するに応
じて、外部ピン数はそれに応じて十中八九増大するであ
ろう。ニューロンの数が例えば256に増大すると、集
積回路パッケージのピン数は300ピンを超えるように
なり、これは、すべてではないにしても、大部分の伝統
的な集積回路パッケージ技術において受け入れ難いもの
である。アナログ入力信号を時間多重する試みは実際上
非常に困難であることがわかっている。従って、ニュー
ラルネットワークのアナログバージョンは一般に有用な
ニューラル・ネットワークにおいて並列アナログ入力信
号の有り得る巨大なアレイをサポートするために必要な
集積回路の物理的領域および外部ピン数に関する制約に
よりその中に含まれるニューロンの数に対して課せられ
る制限を被る。
【0006】しばしば、新しい問題を解決しかつそれに
より資源のより効率のよい使用を行なうためにシナプス
の重みおよび人工ニューラル・ネットワークのニューラ
ル相互接続の再プログラミングを行なうことが望ましい
。不幸にして、上に述べたアナログニューラル・ネット
ワークはまた、MOSトランジスタのフローティングゲ
ートに電荷として蓄積された重み付け値が変化するのに
数ミリセカンドを必要とする点で、シナプスの重みおよ
びニューラル構造の相互接続を動的に再規定することに
関しいくらか柔軟性を欠く傾向にある。MOSトランジ
スタのフローティングゲートは各々のシナプスに対し整
合されたものでありかつ典型的には直列にプログラムさ
れ、従ってニューラル・ネットワーク内のすべての重み
を調整するためには数秒を必要とするかもしれない。 電子的な条件では、数秒は極めて長い時間であり、多く
の音声およびパターン認識の用途において使用するため
にはあまりにも長すぎる。その上、アナログニューラル
・ネットワークの物理的なマッピングおよびハードワイ
ヤーの相互接続はしばしば予め規定されておりかつ柔軟
性を欠き、学習および行動的な変更を困難にする。さら
に、アナログ要素は一般に温度に依存し易くそのような
装置をシナプスの重みおよび乗算操作に対する高い分解
能で設計することを困難にする。アナログニューラル・
ネッツトワークは典型的には非常に高速であるが、その
ようなアーキテクチャは大きさ、柔軟性および精度にお
いて制約され、それにより技術上、デジタル手法のよう
な、他のアーキテクチャを探求する必要性を与える。
より資源のより効率のよい使用を行なうためにシナプス
の重みおよび人工ニューラル・ネットワークのニューラ
ル相互接続の再プログラミングを行なうことが望ましい
。不幸にして、上に述べたアナログニューラル・ネット
ワークはまた、MOSトランジスタのフローティングゲ
ートに電荷として蓄積された重み付け値が変化するのに
数ミリセカンドを必要とする点で、シナプスの重みおよ
びニューラル構造の相互接続を動的に再規定することに
関しいくらか柔軟性を欠く傾向にある。MOSトランジ
スタのフローティングゲートは各々のシナプスに対し整
合されたものでありかつ典型的には直列にプログラムさ
れ、従ってニューラル・ネットワーク内のすべての重み
を調整するためには数秒を必要とするかもしれない。 電子的な条件では、数秒は極めて長い時間であり、多く
の音声およびパターン認識の用途において使用するため
にはあまりにも長すぎる。その上、アナログニューラル
・ネットワークの物理的なマッピングおよびハードワイ
ヤーの相互接続はしばしば予め規定されておりかつ柔軟
性を欠き、学習および行動的な変更を困難にする。さら
に、アナログ要素は一般に温度に依存し易くそのような
装置をシナプスの重みおよび乗算操作に対する高い分解
能で設計することを困難にする。アナログニューラル・
ネッツトワークは典型的には非常に高速であるが、その
ようなアーキテクチャは大きさ、柔軟性および精度にお
いて制約され、それにより技術上、デジタル手法のよう
な、他のアーキテクチャを探求する必要性を与える。
【0007】
【発明が解決しようとする課題】従って、ニューロンあ
たりのシナプスの数にかかわりなく所定の数のデータ入
力端子を有するデジタルアーキテクチャを使用する改良
されたニューラル・ネットワークに対する必要性が存在
し、該デジタルアーキテクチャはシナプスの重みおよび
ニューラル相互接続を他の問題を解決するために動的に
再割当てできるようにしながら単位領域あたりにより多
くのニューロンを提供するためにニューロンごとの乗算
器の数を低減しそれにより利用可能な資源のより効率的
な使用を提供する。
たりのシナプスの数にかかわりなく所定の数のデータ入
力端子を有するデジタルアーキテクチャを使用する改良
されたニューラル・ネットワークに対する必要性が存在
し、該デジタルアーキテクチャはシナプスの重みおよび
ニューラル相互接続を他の問題を解決するために動的に
再割当てできるようにしながら単位領域あたりにより多
くのニューロンを提供するためにニューロンごとの乗算
器の数を低減しそれにより利用可能な資源のより効率的
な使用を提供する。
【0008】従って、本発明の目的は改良されたニュー
ラル・ネットワークを提供することにある。
ラル・ネットワークを提供することにある。
【0009】本発明の他の目的は、デジタル・アーキテ
クチャを使用する改良されたニューラル・ネットワーク
を提供することにある。
クチャを使用する改良されたニューラル・ネットワーク
を提供することにある。
【0010】本発明のさらに他の目的は、構築可能なフ
ィードフォワード・プロセッサを有する改良されたニュ
ーラル・ネットワークであってシナプスの重みおよび実
効ニューラル相互接続が資源の効率的な使用を提供する
ために動的に再割当てできるものを提供することにある
。
ィードフォワード・プロセッサを有する改良されたニュ
ーラル・ネットワークであってシナプスの重みおよび実
効ニューラル相互接続が資源の効率的な使用を提供する
ために動的に再割当てできるものを提供することにある
。
【0011】本発明のさらに他の目的は、複雑なニュー
ラル・フィードバック構成を処理するためにデジタル計
算リングまたデータバスと相互接続されたフィードバッ
ク・プロセッサを有する改良されたニューラル・ネット
ワークを提供することにある。
ラル・フィードバック構成を処理するためにデジタル計
算リングまたデータバスと相互接続されたフィードバッ
ク・プロセッサを有する改良されたニューラル・ネット
ワークを提供することにある。
【0012】本発明のさらに他の目的は、ニューロンあ
たりのシナプスの数にかかわりなく所定の数のデータ入
力端子を有する改良されたニューラル・ネットワークを
提供することにある。
たりのシナプスの数にかかわりなく所定の数のデータ入
力端子を有する改良されたニューラル・ネットワークを
提供することにある。
【0013】本発明のさらに他の目的は、複数のシナプ
スが共通の乗算器を共用しかつそれによりニューラル・
ネットワークの物理的領域を低減する改良されたニュー
ラル・ネットワークを提供することにある。
スが共通の乗算器を共用しかつそれによりニューラル・
ネットワークの物理的領域を低減する改良されたニュー
ラル・ネットワークを提供することにある。
【0014】
【課題を解決するための手段および作用】上記および他
の目的によれば、それらの間でデジタル出力信号を通す
ための少なくとも1つの導体によって相互接続された複
数のデジタル処理エレメントを具備するデジタル・アー
キテクチャを有する人工ニューラル・ネットワークが提
供され、前記デジタル処理エレメントの内の所定のもの
は前記導体の1つにおいてデジタル出力信号を提供する
ために第2のデジタル入力信号と組合わせて第1のデジ
タル入力信号に対し計算を行なうために第1および第2
のデジタル入力バスに結合されている。第1のデジタル
処理エレメントは前記第1のデジタル入力信号を受ける
ように結合された第1の入力、前記第2のデジタル入力
信号を受けるように結合された第2の入力および前記複
数のデジタル処理エレメントの内の1つから第2のデジ
タル出力信号を受けるために前記導体の内の第1のもの
に結合された第3の入力を含む。第1のデジタル処理エ
レメントの出力は前記導体の内の第2のものに結合され
、この場合第1のデジタル出力信号は第1の状態の制御
信号の発生時に前記導体の内の前記第2のものに与えら
れかつ前記複数のデジタル処理エレメントの内の1つか
らの前記第2のデジタル出力信号は前記制御信号の第2
の状態の発生時に前記導体の内の第2のものへと通過す
る。
の目的によれば、それらの間でデジタル出力信号を通す
ための少なくとも1つの導体によって相互接続された複
数のデジタル処理エレメントを具備するデジタル・アー
キテクチャを有する人工ニューラル・ネットワークが提
供され、前記デジタル処理エレメントの内の所定のもの
は前記導体の1つにおいてデジタル出力信号を提供する
ために第2のデジタル入力信号と組合わせて第1のデジ
タル入力信号に対し計算を行なうために第1および第2
のデジタル入力バスに結合されている。第1のデジタル
処理エレメントは前記第1のデジタル入力信号を受ける
ように結合された第1の入力、前記第2のデジタル入力
信号を受けるように結合された第2の入力および前記複
数のデジタル処理エレメントの内の1つから第2のデジ
タル出力信号を受けるために前記導体の内の第1のもの
に結合された第3の入力を含む。第1のデジタル処理エ
レメントの出力は前記導体の内の第2のものに結合され
、この場合第1のデジタル出力信号は第1の状態の制御
信号の発生時に前記導体の内の前記第2のものに与えら
れかつ前記複数のデジタル処理エレメントの内の1つか
らの前記第2のデジタル出力信号は前記制御信号の第2
の状態の発生時に前記導体の内の第2のものへと通過す
る。
【0015】
【実施例】図1を参照すると、伝統的な集積回路CMO
Sプロセスを用いて集積回路形式で製造にするのに適し
た人工ニューラル・ネッワーク10が示されている。8
ビットのデジタル入力信号が入力バス12に印加されか
つニューロン・スライス14,16,18,20,22
および24の第1のデータ入力に導かれる。さらに、3
ビットのアドレスワードがアドレスバス26を介してニ
ューロンスライス14−24のアドレス入力に印加され
、一方8ビットのデジタル・スケールファクタ(sca
le factor)が入力バス28に印加され各ニ
ューロンスライスの第2のデータ入力に導かれる。ニュ
ーロンスライス14−24は図示の如く端子32から、
ニューロンスライス14,16および18を通りかつル
ープを回ってニューロンスライス20,22および24
を通り8ビットの計算リング(computation
ring)30により相互接続されている。計算リ
ング30の端子34は端子32に結合してループを完成
することができる。1つの実施例においては、計算リン
グ30は複数の電気的に分離されたセクションを具備し
、各セクションは隣接する対のニューロンスライス14
−24を結合する8個の導体を有する。例えば、計算リ
ング30の第1のセクションはニューロンスライス24
および14の間に結合され、かつ第2のセクションはニ
ューロンスライス22および24の間に結合され、かつ
同様にしてニューロンスライス16および14の間を結
合する第6のセクションに至る。従って、計算リング3
0の各セクションは独自のデータを含むことができかつ
典型的には独自のデータを含む。あるいは、ニューロン
スライス14−24の相互接続は後に示されるようにそ
れぞれのバスインタフェース回路を介してそこに結合さ
れる隣接データバスを具備することができる。
Sプロセスを用いて集積回路形式で製造にするのに適し
た人工ニューラル・ネッワーク10が示されている。8
ビットのデジタル入力信号が入力バス12に印加されか
つニューロン・スライス14,16,18,20,22
および24の第1のデータ入力に導かれる。さらに、3
ビットのアドレスワードがアドレスバス26を介してニ
ューロンスライス14−24のアドレス入力に印加され
、一方8ビットのデジタル・スケールファクタ(sca
le factor)が入力バス28に印加され各ニ
ューロンスライスの第2のデータ入力に導かれる。ニュ
ーロンスライス14−24は図示の如く端子32から、
ニューロンスライス14,16および18を通りかつル
ープを回ってニューロンスライス20,22および24
を通り8ビットの計算リング(computation
ring)30により相互接続されている。計算リ
ング30の端子34は端子32に結合してループを完成
することができる。1つの実施例においては、計算リン
グ30は複数の電気的に分離されたセクションを具備し
、各セクションは隣接する対のニューロンスライス14
−24を結合する8個の導体を有する。例えば、計算リ
ング30の第1のセクションはニューロンスライス24
および14の間に結合され、かつ第2のセクションはニ
ューロンスライス22および24の間に結合され、かつ
同様にしてニューロンスライス16および14の間を結
合する第6のセクションに至る。従って、計算リング3
0の各セクションは独自のデータを含むことができかつ
典型的には独自のデータを含む。あるいは、ニューロン
スライス14−24の相互接続は後に示されるようにそ
れぞれのバスインタフェース回路を介してそこに結合さ
れる隣接データバスを具備することができる。
【0016】ニューラル・ネットワーク10のアーキテ
クチャは端子32および34の間に直列に結合されるニ
ューロンスライスの数が特定のアプリケーションのため
に容易に増加されることを許容する。各々の付加される
ニューロンスライスはニューロンスライス14−24と
同様に計算リング30に直列に結合されかつさらに、そ
れぞれ、入力バス12および28から第1のデータ入力
信号およびデジタル・スケールファクタを、そしてアド
レスバス26を介してアドレスワードを受けるよう結合
される。単一のデータバスの場合、追加されるニューロ
ンはそこにバスインタフェース回路を介して接続される
であろう。さらに、ニューラル・ネットワーク10はモ
ノリシック集積回路チップとして製造できるから、端子
34は第2のデジタルニューラル・ネットワーク集積回
路の32のような端子に結合でき、そして該第2のデジ
タルニューラル・ネットワーク集積回路の34のような
端子はニューラル・ネットワーク10の端子32に結合
し戻され、それによりニューロンスライスの数および2
つの集積回路を含むために計算リング30の長さを拡張
する。まさに、あるフィードバック構成は全体のスルー
プットをスローダウンさせるかもしれないが実際に任意
の数のニューロンスライスを計算リング30に結合する
ことができ、この特徴に関するさらなる説明を後に行な
う。従って、計算リング30の長さおよび14−24の
ようなニューロンスライスの数は特定のアプリケーショ
ンに対し増大することができかつここに述べるデジタル
・アーキテクチャによって一般には制限を受けない。実
際に、ニューラル・ネットワーク10は、場合によって
は他の同様のデジタル・ニューラル・ネットワーク集積
回路と組合わせて、有用な計算を行なうためにモノリシ
ック集積回路上に配置された非常に多くのニューロンス
ライスを含むことができる。
クチャは端子32および34の間に直列に結合されるニ
ューロンスライスの数が特定のアプリケーションのため
に容易に増加されることを許容する。各々の付加される
ニューロンスライスはニューロンスライス14−24と
同様に計算リング30に直列に結合されかつさらに、そ
れぞれ、入力バス12および28から第1のデータ入力
信号およびデジタル・スケールファクタを、そしてアド
レスバス26を介してアドレスワードを受けるよう結合
される。単一のデータバスの場合、追加されるニューロ
ンはそこにバスインタフェース回路を介して接続される
であろう。さらに、ニューラル・ネットワーク10はモ
ノリシック集積回路チップとして製造できるから、端子
34は第2のデジタルニューラル・ネットワーク集積回
路の32のような端子に結合でき、そして該第2のデジ
タルニューラル・ネットワーク集積回路の34のような
端子はニューラル・ネットワーク10の端子32に結合
し戻され、それによりニューロンスライスの数および2
つの集積回路を含むために計算リング30の長さを拡張
する。まさに、あるフィードバック構成は全体のスルー
プットをスローダウンさせるかもしれないが実際に任意
の数のニューロンスライスを計算リング30に結合する
ことができ、この特徴に関するさらなる説明を後に行な
う。従って、計算リング30の長さおよび14−24の
ようなニューロンスライスの数は特定のアプリケーショ
ンに対し増大することができかつここに述べるデジタル
・アーキテクチャによって一般には制限を受けない。実
際に、ニューラル・ネットワーク10は、場合によって
は他の同様のデジタル・ニューラル・ネットワーク集積
回路と組合わせて、有用な計算を行なうためにモノリシ
ック集積回路上に配置された非常に多くのニューロンス
ライスを含むことができる。
【0017】図2にニューロンスライス14をさらに詳
細に示し、同図のニューロンスライス14はアドレスバ
ス26に印加された3ビットのアドレスワードAiを受
けかつ該アドレスワードAiに応じて2の補数、4象限
型(four quadrant−type)乗算器
44の第1の入力に8ビットのデジタル重み値Wiを提
供するように結合された重みメモリ42を含むフィード
フォワード・プロセッサ40を備え、この場合iは1か
ら8の範囲に及ぶ。重みメモリ42は所定の数の8ビッ
トのメモリロケーション、W1−W8を含み、かつRA
M、ROM、EPROM、EEPROMまたは任意の他
の適切なデジタルメモリ装置として実施できる。重みW
iは入力バス46を介して伝統的な方法で重みメモリ4
2に書込まれる。乗算器44の第2の入力は入力バス1
2に印加される第1のデジタル入力信号Iiを受けるよ
う結合され、それによりデジタル入力信号Iiおよび重
みメモリ42の1つのロケーションからのデジタル重み
Wiの積が累算器48の入力に与えられかつその前の内
容と加算される。乗算器44および累算器48の幅は典
型的には各々16ビットとされ後者がオーバーフローな
しにいくつかの値を累算できるようにする。いったんI
i×Wiの8つの積が累積されると、累算器48の出力
信号はその出力レジスタの最上位8ビットとしてとられ
かつフィードバック・プロセッサ52のマルチプレクサ
50の第1の入力に印加される。重みメモリ42はいく
つかの論理領域に分割でき複数組の重みWiが同時に記
憶されかつ必要に応じて異なる入力信号シリーズIiに
よってアクセスできるようにすることが知られている。 これは物理的ニューロン(重みメモリ42を除く)が時
間多重様式でいくつかの多分区別可能なニューラル・ア
プリケーションに対して働きかけることを許容しそれに
より重みWiの組の過剰なスワッピングを避けることに
よりニューラル・ネットワーク10の動作速度を増大す
る。これは特に魅力的であるが、その理由は典型的な構
成において純粋のメモリは非常に低速であるからである
。
細に示し、同図のニューロンスライス14はアドレスバ
ス26に印加された3ビットのアドレスワードAiを受
けかつ該アドレスワードAiに応じて2の補数、4象限
型(four quadrant−type)乗算器
44の第1の入力に8ビットのデジタル重み値Wiを提
供するように結合された重みメモリ42を含むフィード
フォワード・プロセッサ40を備え、この場合iは1か
ら8の範囲に及ぶ。重みメモリ42は所定の数の8ビッ
トのメモリロケーション、W1−W8を含み、かつRA
M、ROM、EPROM、EEPROMまたは任意の他
の適切なデジタルメモリ装置として実施できる。重みW
iは入力バス46を介して伝統的な方法で重みメモリ4
2に書込まれる。乗算器44の第2の入力は入力バス1
2に印加される第1のデジタル入力信号Iiを受けるよ
う結合され、それによりデジタル入力信号Iiおよび重
みメモリ42の1つのロケーションからのデジタル重み
Wiの積が累算器48の入力に与えられかつその前の内
容と加算される。乗算器44および累算器48の幅は典
型的には各々16ビットとされ後者がオーバーフローな
しにいくつかの値を累算できるようにする。いったんI
i×Wiの8つの積が累積されると、累算器48の出力
信号はその出力レジスタの最上位8ビットとしてとられ
かつフィードバック・プロセッサ52のマルチプレクサ
50の第1の入力に印加される。重みメモリ42はいく
つかの論理領域に分割でき複数組の重みWiが同時に記
憶されかつ必要に応じて異なる入力信号シリーズIiに
よってアクセスできるようにすることが知られている。 これは物理的ニューロン(重みメモリ42を除く)が時
間多重様式でいくつかの多分区別可能なニューラル・ア
プリケーションに対して働きかけることを許容しそれに
より重みWiの組の過剰なスワッピングを避けることに
よりニューラル・ネットワーク10の動作速度を増大す
る。これは特に魅力的であるが、その理由は典型的な構
成において純粋のメモリは非常に低速であるからである
。
【0018】マルチプレクサ50の出力信号は乗算器5
6の第1の入力および加算器58の第1の入力に対する
印加のためレジスタ54に記憶される。乗算器56の第
2の入力は入力バス60によってデジタル・ゲインファ
クタを受けるよう結合されている。乗算器56の出力信
号はルックアップテーブル62のアドレス入力に印加さ
れ、該ルックアップテーブル62は所定の数の8ビット
のメモリロケーション、L1−L256を具備し、かつ
またRAM、ROM、EPROM、EEPROMあるい
は任意の他の適切なデジタルメモリ装置として実施でき
る。値Li入力バス63を介して伝統的な方法でルック
アップテーブル62に書込まれる。ルックアップテーブ
ル62からのアドレスされた値はマルチプレクサ64の
第1の入力に印加され、一方マルチプレクサ64の出力
は計算リング30の第6の電気的に分離されたセクショ
ンを介しニューロンスライス16に結合される。上述の
各エレメントは実質的にニューロンスライス14の完全
なフィードフォワード経路を記述する。
6の第1の入力および加算器58の第1の入力に対する
印加のためレジスタ54に記憶される。乗算器56の第
2の入力は入力バス60によってデジタル・ゲインファ
クタを受けるよう結合されている。乗算器56の出力信
号はルックアップテーブル62のアドレス入力に印加さ
れ、該ルックアップテーブル62は所定の数の8ビット
のメモリロケーション、L1−L256を具備し、かつ
またRAM、ROM、EPROM、EEPROMあるい
は任意の他の適切なデジタルメモリ装置として実施でき
る。値Li入力バス63を介して伝統的な方法でルック
アップテーブル62に書込まれる。ルックアップテーブ
ル62からのアドレスされた値はマルチプレクサ64の
第1の入力に印加され、一方マルチプレクサ64の出力
は計算リング30の第6の電気的に分離されたセクショ
ンを介しニューロンスライス16に結合される。上述の
各エレメントは実質的にニューロンスライス14の完全
なフィードフォワード経路を記述する。
【0019】フィードバック動作に対しては、ニューロ
ンスライス24は計算リング30の第1のセクションを
介してシフトレジスタ68の入力に結合され、かつシフ
トレジスタ68の出力は乗算器70の第1の入力に結合
され、一方該乗算器の第2の入力は入力バス28からデ
ジタル・スケーリングファクタを受けるように結合され
ている。該スケーリングファクタS1−S6はニューロ
ン14から離れてメモリ72に集中的に記憶され、該メ
モリ72はそのアドレス入力に結合されたカウンタ74
の制御のもとに動作し、カウンタ74が所定の範囲の値
を反復的に循環する時メモリ72の内容が入力バス28
にシステマティックに印加されるようにする。さらに、
カウンタ74はその値の各々の変化時にシフトレジスタ
68のためのクロック信号を提供し、メモリ72からの
所定のデジタル・スケーリングファクタが乗算器70の
第1および第2の入力に所望のオペランドを提供するた
めにシフトレジスタ68の動作と同期するようになる。 乗算器70の出力信号は加算器58の第2の入力に印加
され、該加算器58の出力はマルチプレクサ50の第2
の入力に結合されている。乗算器56および70は、そ
れぞれ入力バス28および60から2の整数乗として制
御信号を受け取るマルチプレクサとして実施できること
が理解される。マルチプレクサ50は制御バス66に印
加される第1の制御信号に応答して前記第1の制御信号
の第1の状態の発生時に累算器48から読取りかつ前記
第1の制御信号の第2の状態の発生に応じて加算器58
の出力から読取るためにその入力を切替え、一方マルチ
プレクサ64は制御バス66からの第2の制御信号に応
答し前記第2の制御信号の第1の状態の発生時にルック
アップテーブル62の出力から読取りかつ該第2の制御
信号の第2の状態の発生時にシフトレジスタ68の出力
から読取るようにその入力を切替える。ニューロンスラ
イス16−24はニューロンスライス14について説明
したのと同様に構成され、すなわち、各ニューロンスラ
イスは重みメモリ42、乗算器44、累算器48、マル
チプレクサ50、ルックアップテーブル62、マルチプ
レクサ64、シフトレジスタ68、その他のような上に
述べたのと同じエレメントを具備する。
ンスライス24は計算リング30の第1のセクションを
介してシフトレジスタ68の入力に結合され、かつシフ
トレジスタ68の出力は乗算器70の第1の入力に結合
され、一方該乗算器の第2の入力は入力バス28からデ
ジタル・スケーリングファクタを受けるように結合され
ている。該スケーリングファクタS1−S6はニューロ
ン14から離れてメモリ72に集中的に記憶され、該メ
モリ72はそのアドレス入力に結合されたカウンタ74
の制御のもとに動作し、カウンタ74が所定の範囲の値
を反復的に循環する時メモリ72の内容が入力バス28
にシステマティックに印加されるようにする。さらに、
カウンタ74はその値の各々の変化時にシフトレジスタ
68のためのクロック信号を提供し、メモリ72からの
所定のデジタル・スケーリングファクタが乗算器70の
第1および第2の入力に所望のオペランドを提供するた
めにシフトレジスタ68の動作と同期するようになる。 乗算器70の出力信号は加算器58の第2の入力に印加
され、該加算器58の出力はマルチプレクサ50の第2
の入力に結合されている。乗算器56および70は、そ
れぞれ入力バス28および60から2の整数乗として制
御信号を受け取るマルチプレクサとして実施できること
が理解される。マルチプレクサ50は制御バス66に印
加される第1の制御信号に応答して前記第1の制御信号
の第1の状態の発生時に累算器48から読取りかつ前記
第1の制御信号の第2の状態の発生に応じて加算器58
の出力から読取るためにその入力を切替え、一方マルチ
プレクサ64は制御バス66からの第2の制御信号に応
答し前記第2の制御信号の第1の状態の発生時にルック
アップテーブル62の出力から読取りかつ該第2の制御
信号の第2の状態の発生時にシフトレジスタ68の出力
から読取るようにその入力を切替える。ニューロンスラ
イス16−24はニューロンスライス14について説明
したのと同様に構成され、すなわち、各ニューロンスラ
イスは重みメモリ42、乗算器44、累算器48、マル
チプレクサ50、ルックアップテーブル62、マルチプ
レクサ64、シフトレジスタ68、その他のような上に
述べたのと同じエレメントを具備する。
【0020】ニューロンスライス14−24の特徴はい
くつかの有用なニューラル・ネットワーク動作のための
簡易な構成を許容する。1つのそのような動作はフィー
ドバックなしの厳格なフィードフォワード型ニューラル
計算であり、この場合入力バス12からのデジタル入力
信号Iiが計算に介在する。厳格なフィードフォワード
処理のためには、フィードバックプロセッサ52は部分
的にディスエーブルされ、その部分は乗算器70および
加算器58を含むフィードバック計算エレメントである
。他のより複雑なフィードバック構成は後に説明するが
、しかしながら最初に多分外部ニューラル・ネットワー
ク計算シミュレーションから計算される所望の重みによ
って重みメモリ42が入力バス46を介してプレロード
される例につき考察する。この例に対しては、所望のニ
ューラル計算はデジタル入力信号シリーズI1−I8と
重みW1−W8のドット積の組合わせであり累算器48
に16ビットの値V48を次のようにして生み出す。 V48=I1×W1+I2×W2+I3×W3+I
4×W4+I5×W5 +I6×W
6+I7×W7+I8×W8
(1)式(1)による1つの計算シリーズ
に対しては、累算器48はゼロにされその後第1の8ビ
ットのデジタル入力信号、I1、が入力バス12を介し
て乗算器44の第2の入力に印加され、一方アドレスワ
ード、A1、がアドレスバス26により重みメモリ42
のアドレス入力に印加される。アドレスワードA1の値
は重みメモリ42から8ビットの重みW1を取出しかつ
それを乗算器44の第1の入力に印加する。デジタル入
力信号I1および重みW1の積が累算器48に置かれる
。次に、第2のアドレスワード、A2、が重みW2を取
出しかつその8ビットの値を乗算器44の第1の入力に
印加した時、第2のデジタル入力信号、I2、が乗算器
44の第2の入力に印加される。デジタル入力信号I2
および重みW2の第2の乗算の結果は累算器48の前の
内容(I1×W1)に加算される。このプロセスが第3
、第4、第5、第6、第7および第8のデジタル入力信
号I3−I8および重みW3−W8の組合わせに対し式
(1)に従って続けられ累算器48に16ビットの値V
48を残す。
くつかの有用なニューラル・ネットワーク動作のための
簡易な構成を許容する。1つのそのような動作はフィー
ドバックなしの厳格なフィードフォワード型ニューラル
計算であり、この場合入力バス12からのデジタル入力
信号Iiが計算に介在する。厳格なフィードフォワード
処理のためには、フィードバックプロセッサ52は部分
的にディスエーブルされ、その部分は乗算器70および
加算器58を含むフィードバック計算エレメントである
。他のより複雑なフィードバック構成は後に説明するが
、しかしながら最初に多分外部ニューラル・ネットワー
ク計算シミュレーションから計算される所望の重みによ
って重みメモリ42が入力バス46を介してプレロード
される例につき考察する。この例に対しては、所望のニ
ューラル計算はデジタル入力信号シリーズI1−I8と
重みW1−W8のドット積の組合わせであり累算器48
に16ビットの値V48を次のようにして生み出す。 V48=I1×W1+I2×W2+I3×W3+I
4×W4+I5×W5 +I6×W
6+I7×W7+I8×W8
(1)式(1)による1つの計算シリーズ
に対しては、累算器48はゼロにされその後第1の8ビ
ットのデジタル入力信号、I1、が入力バス12を介し
て乗算器44の第2の入力に印加され、一方アドレスワ
ード、A1、がアドレスバス26により重みメモリ42
のアドレス入力に印加される。アドレスワードA1の値
は重みメモリ42から8ビットの重みW1を取出しかつ
それを乗算器44の第1の入力に印加する。デジタル入
力信号I1および重みW1の積が累算器48に置かれる
。次に、第2のアドレスワード、A2、が重みW2を取
出しかつその8ビットの値を乗算器44の第1の入力に
印加した時、第2のデジタル入力信号、I2、が乗算器
44の第2の入力に印加される。デジタル入力信号I2
および重みW2の第2の乗算の結果は累算器48の前の
内容(I1×W1)に加算される。このプロセスが第3
、第4、第5、第6、第7および第8のデジタル入力信
号I3−I8および重みW3−W8の組合わせに対し式
(1)に従って続けられ累算器48に16ビットの値V
48を残す。
【0021】累算器48の幅は典型的には大きく、例え
ば16ビット、とされ、式(1)の計算シリーズの予期
される長さに対しオーバフローなしに累算が継続できる
ようにする。しかしながら、累算器48の内容がロール
オーバなしに単に飽和した場合には、オーバフロー状態
はいくらかのデータは失われるかもしれないが一般に問
題ではなく、それは大部分のシグモイド形関数は上限ま
たは下限に収束する傾向を有するからである。方程式(
1)に従って第1の計算シリーズの完了によって得られ
る累算器48の出力信号は全体で16ビットの累算の内
の8つの最上位ビットである。第1の制御信号が第1の
状態にセットされ、それにより累算器48の出力信号が
マルチプレクサ50を介してレジスタ54に導かれかつ
記憶される。
ば16ビット、とされ、式(1)の計算シリーズの予期
される長さに対しオーバフローなしに累算が継続できる
ようにする。しかしながら、累算器48の内容がロール
オーバなしに単に飽和した場合には、オーバフロー状態
はいくらかのデータは失われるかもしれないが一般に問
題ではなく、それは大部分のシグモイド形関数は上限ま
たは下限に収束する傾向を有するからである。方程式(
1)に従って第1の計算シリーズの完了によって得られ
る累算器48の出力信号は全体で16ビットの累算の内
の8つの最上位ビットである。第1の制御信号が第1の
状態にセットされ、それにより累算器48の出力信号が
マルチプレクサ50を介してレジスタ54に導かれかつ
記憶される。
【0022】厳格なフィードフォワードの例によって説
明を続けると、レジスタ54に格納された累算器48の
上位8ビットはルックアップテーブル62のためのアド
レスワードを発生するために乗算器56によって尺度変
更される(scaled)。乗算器56は任意選択的な
ものでありかつレジスタ54の出力信号のために入力バ
ス60に印加されるデジタル信号からゲインファクタを
提供する。技術上オペランドの値を増大または減少させ
るためにどのようにしてデジタル信号を使用するかはよ
く理解されている。もしルックアップテーブル62の内
容が例えば非線形シグモイド関数を与えておれば、乗算
器56によって提供されるゲインファクタはシグモイド
関数のスロープを変えるであろう。乗算器56の出力信
号値は従ってそれに関連する非線形関数に従って出力値
を提供するためのルックアップテーブル62へのスケー
ラブル・アドレスである。ルックアップテーブル62の
ための関数の他の例はステップ応答、ランプ(ramp
)およびピースワイズなリニアモデルである。第2のデ
ジタル制御信号はその第1の状態にセットされ、それに
よりマルチプレクサ64の第1の入力に印加されたルッ
クアップテーブル62のアドレスされたロケーションの
内容はニューロンスライス16のシフトレジスタ68の
入力における計算リング30の第6のセクションにおい
て得られる8ビットデジタル信号(フィードフォワード
出力)となる。
明を続けると、レジスタ54に格納された累算器48の
上位8ビットはルックアップテーブル62のためのアド
レスワードを発生するために乗算器56によって尺度変
更される(scaled)。乗算器56は任意選択的な
ものでありかつレジスタ54の出力信号のために入力バ
ス60に印加されるデジタル信号からゲインファクタを
提供する。技術上オペランドの値を増大または減少させ
るためにどのようにしてデジタル信号を使用するかはよ
く理解されている。もしルックアップテーブル62の内
容が例えば非線形シグモイド関数を与えておれば、乗算
器56によって提供されるゲインファクタはシグモイド
関数のスロープを変えるであろう。乗算器56の出力信
号値は従ってそれに関連する非線形関数に従って出力値
を提供するためのルックアップテーブル62へのスケー
ラブル・アドレスである。ルックアップテーブル62の
ための関数の他の例はステップ応答、ランプ(ramp
)およびピースワイズなリニアモデルである。第2のデ
ジタル制御信号はその第1の状態にセットされ、それに
よりマルチプレクサ64の第1の入力に印加されたルッ
クアップテーブル62のアドレスされたロケーションの
内容はニューロンスライス16のシフトレジスタ68の
入力における計算リング30の第6のセクションにおい
て得られる8ビットデジタル信号(フィードフォワード
出力)となる。
【0023】ニューロンスライス14が先に述べた計算
を行なっている間に、ニューロンスライス16−24は
同時に式(1)のような計算を、たとえ42のような重
みメモリの予め記憶された値に従って異なる重みを用い
るとしても、同じデジタル入力信号シーケンスI1−I
8に対して行なっている。各々の計算シリーズの結果は
ニューロンスライス14−24の64のような各マルチ
プレクサを介して導かれ、従って68のようなシフトレ
ジスタに計算リング30の周りに格納されかつその第1
〜第6のセクションにおいて得られる6個の独自の8ビ
ットのデジタル信号(フィードフォワード出力F1−F
6)がある。参照のため、フィードフォワード出力F1
はニューロンスライス24のマルチプレクサ64を通り
かつニューロンスライス14のシフトレジスタ68の入
力における計算リング30の第1のセクションにおいて
得ることができるようになり、同様にニューロンスライ
ス22,20,18,16および14の64のようなマ
ルチプレクサは、それぞれ、フィードフォワード出力F
2、F3、F4、F5およびF6を計算リング30の第
2、第3、第4、第5および第6のセクションに転送す
る。8ビットのフィードフォワード出力F1は、マイク
ロプロセッサ(図示せず)のような外部コントローラに
よってさらに処理するために、所定のタップ点、例えば
端子34、において計算リング30から読取ることがで
きる。外部マイクロプロセッサからの要求に応じて、カ
ウンタ74が増分され、それによりニューロンスライス
14−24の各シフトレジスタ68にクロックを供給し
かつ各ニューロンスライスの8ビットのフィードフォワ
ード出力を次のニューロンスライスのシフトレジスタ6
8へ計算リング30に沿って1ポジションシフトする。 例えば、ニューロンスライス14のフィードフォワード
出力F6はニューロンスライス16のシフトレジスタ6
8に転送され、一方ニューロンスライス16のフィード
フォワード出力F5はニューロンスライス18のシフト
レジスタ68に回転し、以下同様にループの周りを回転
する。ニューロンスライス22から発生したフィードフ
ォワード出力F2は前記第1のシフトに続きニューロン
スライス24のマルチプレクサ64の出力において端子
34から読むことができる。ニューロンスライス14−
24のマルチプレクサ64はいまやルックアップテーブ
ル62の代りにシフトレジスタ68の出力から読むため
に制御バス66に印加された第2の制御信号によって切
替えられる。カウンタ74による計算リング30の周り
の第2のシフトはフィードフォワード出力F3−F6を
それぞれニューロンスライス24,22,20および1
8のシフトレジスタ68に移動させ、フィードフォワー
ド出力F3が端子34から読まれるようにする。計算リ
ング30の周りの回転はカウンタ74からのクロックに
よってフィードフォワード出力F4、F5およびF6が
端子34から読まれるまで続く。これはフィードフォワ
ード・プロセッサ40によりデジタル入力信号I1−I
8および重みW1−W8のドット積の組合わせを用いて
1つの厳格なフィードフォワード計算シリーズを完了す
る。
を行なっている間に、ニューロンスライス16−24は
同時に式(1)のような計算を、たとえ42のような重
みメモリの予め記憶された値に従って異なる重みを用い
るとしても、同じデジタル入力信号シーケンスI1−I
8に対して行なっている。各々の計算シリーズの結果は
ニューロンスライス14−24の64のような各マルチ
プレクサを介して導かれ、従って68のようなシフトレ
ジスタに計算リング30の周りに格納されかつその第1
〜第6のセクションにおいて得られる6個の独自の8ビ
ットのデジタル信号(フィードフォワード出力F1−F
6)がある。参照のため、フィードフォワード出力F1
はニューロンスライス24のマルチプレクサ64を通り
かつニューロンスライス14のシフトレジスタ68の入
力における計算リング30の第1のセクションにおいて
得ることができるようになり、同様にニューロンスライ
ス22,20,18,16および14の64のようなマ
ルチプレクサは、それぞれ、フィードフォワード出力F
2、F3、F4、F5およびF6を計算リング30の第
2、第3、第4、第5および第6のセクションに転送す
る。8ビットのフィードフォワード出力F1は、マイク
ロプロセッサ(図示せず)のような外部コントローラに
よってさらに処理するために、所定のタップ点、例えば
端子34、において計算リング30から読取ることがで
きる。外部マイクロプロセッサからの要求に応じて、カ
ウンタ74が増分され、それによりニューロンスライス
14−24の各シフトレジスタ68にクロックを供給し
かつ各ニューロンスライスの8ビットのフィードフォワ
ード出力を次のニューロンスライスのシフトレジスタ6
8へ計算リング30に沿って1ポジションシフトする。 例えば、ニューロンスライス14のフィードフォワード
出力F6はニューロンスライス16のシフトレジスタ6
8に転送され、一方ニューロンスライス16のフィード
フォワード出力F5はニューロンスライス18のシフト
レジスタ68に回転し、以下同様にループの周りを回転
する。ニューロンスライス22から発生したフィードフ
ォワード出力F2は前記第1のシフトに続きニューロン
スライス24のマルチプレクサ64の出力において端子
34から読むことができる。ニューロンスライス14−
24のマルチプレクサ64はいまやルックアップテーブ
ル62の代りにシフトレジスタ68の出力から読むため
に制御バス66に印加された第2の制御信号によって切
替えられる。カウンタ74による計算リング30の周り
の第2のシフトはフィードフォワード出力F3−F6を
それぞれニューロンスライス24,22,20および1
8のシフトレジスタ68に移動させ、フィードフォワー
ド出力F3が端子34から読まれるようにする。計算リ
ング30の周りの回転はカウンタ74からのクロックに
よってフィードフォワード出力F4、F5およびF6が
端子34から読まれるまで続く。これはフィードフォワ
ード・プロセッサ40によりデジタル入力信号I1−I
8および重みW1−W8のドット積の組合わせを用いて
1つの厳格なフィードフォワード計算シリーズを完了す
る。
【0024】資源の効率的な使用のため、フィードバッ
ク・プロセッサ52が計算リング30の周りに前の計算
シリーズをシフトしかつ端子34を介して出力している
間に、それによってフィードフォワード・プロセッサ4
0がデジタル入力信号I1−I8および重みW1−W8
の1つの計算シリーズのドット積の組合わせに対し働き
かけることができる異なるクロック源によるものの、計
算リング30を含むフィードフォワード・プロセッサ4
0およびフィードバック・プロセッサ52は同時に動作
することができる。従って、フィードバック・プロセッ
サ52はフィードフォワード・プロセッサ40の後に少
なくとも1つのシリーズのデジタル入力信号I1−I8
で動作し続けそれにより各々による等しい計算遅延を仮
定すると全体のスループットを少なくとも倍にする。
ク・プロセッサ52が計算リング30の周りに前の計算
シリーズをシフトしかつ端子34を介して出力している
間に、それによってフィードフォワード・プロセッサ4
0がデジタル入力信号I1−I8および重みW1−W8
の1つの計算シリーズのドット積の組合わせに対し働き
かけることができる異なるクロック源によるものの、計
算リング30を含むフィードフォワード・プロセッサ4
0およびフィードバック・プロセッサ52は同時に動作
することができる。従って、フィードバック・プロセッ
サ52はフィードフォワード・プロセッサ40の後に少
なくとも1つのシリーズのデジタル入力信号I1−I8
で動作し続けそれにより各々による等しい計算遅延を仮
定すると全体のスループットを少なくとも倍にする。
【0025】以上より、重みメモリ42、乗算器44お
よび累算器48の相互作用は非線形シグモイドより少な
い複数のシナプスを有する人工ニューロンとして振舞う
ことを理解すべきである。重みメモリ42のメモリロケ
ーションの数およびデジタル入力信号シリーズIiの長
さは任意であるから、フィードフォワード・プロセッサ
40は実際に任意の数のシナプスを有するニューロンの
機能を提供することができる。さらに、各ニューロンス
ライスは共通の入力バス12に結合されていることに注
意を要する。従って、ニューラル・ネットワーク10の
デジタル・アーキテクチャは、ニューロンのシナプスの
数またはネットワークにおけるニューロンの数にかかわ
りなく、所定の数のデータ入力端子、例えば入力バス1
2に対し8個の導体、を含む。これは実質的に集積回路
構成において外部ピン数を低減する。さらに、フィード
フォワード・プロセッサ40は重みメモリ42における
格納ロケーションの数にかかわりなく、デジタル入力信
号Iiおよび重みWiを結合するために単一の乗算器4
4のみを利用する。この特徴は1つのニューロンの物理
的サイズを低減し集積回路あたりにつきより多くのニュ
ーロンおよびより有用な計算を許容する。本発明のデジ
タル構成は完全に並列のアナログ・アーキテクチャより
低速で動作するかもしれないが、それでもそれはニュー
ラル・ネットワークのアプリケーションに対しては適切
である。
よび累算器48の相互作用は非線形シグモイドより少な
い複数のシナプスを有する人工ニューロンとして振舞う
ことを理解すべきである。重みメモリ42のメモリロケ
ーションの数およびデジタル入力信号シリーズIiの長
さは任意であるから、フィードフォワード・プロセッサ
40は実際に任意の数のシナプスを有するニューロンの
機能を提供することができる。さらに、各ニューロンス
ライスは共通の入力バス12に結合されていることに注
意を要する。従って、ニューラル・ネットワーク10の
デジタル・アーキテクチャは、ニューロンのシナプスの
数またはネットワークにおけるニューロンの数にかかわ
りなく、所定の数のデータ入力端子、例えば入力バス1
2に対し8個の導体、を含む。これは実質的に集積回路
構成において外部ピン数を低減する。さらに、フィード
フォワード・プロセッサ40は重みメモリ42における
格納ロケーションの数にかかわりなく、デジタル入力信
号Iiおよび重みWiを結合するために単一の乗算器4
4のみを利用する。この特徴は1つのニューロンの物理
的サイズを低減し集積回路あたりにつきより多くのニュ
ーロンおよびより有用な計算を許容する。本発明のデジ
タル構成は完全に並列のアナログ・アーキテクチャより
低速で動作するかもしれないが、それでもそれはニュー
ラル・ネットワークのアプリケーションに対しては適切
である。
【0026】次に、より複雑なニューラル・ネットワー
ク構成を考察し、該ニューラル・ネットワーク構成では
最終的な出力が現在の計算シリーズのフィードフォワー
ド出力F1−F6および所定のスケーリング・ファクタ
S1−S6によって修正された前の計算シリーズのフィ
ードフォワード出力の双方に依存するものとする。その
ようなニューロン・ネットワークの一例はよく知られた
コホーネン(Kohonen)の特徴マップ(feat
ure map)であり、そこでは各ニューロンの出
力信号がそのおよび2次元特徴マップの他のニューロン
の1つまたはそれ以上のシナプスへの入力信号としてフ
ィードバックされる。このプロセスが何度か繰り返され
た後、活動のバブルがニューロン(単数または複数)の
周りに形成し入力信号ベクトルの競争に勝つ、すなわち
そこに印加された重みおよび入力信号が与えられれば最
も高い出力信号レベルを提供する。例えば、基準ニュー
ロンを、例えば特徴マップの中心に取り、かつその出力
信号を受けるように結合された計算リング30上の他の
ニューロンスライスのシナプスの重み分布を考える。近
隣のニューロンのフィードバック・シナプスは一般に基
準ニューロンからより離れたニューロンのシナプスより
重く重み付けされる。これは与えられた入力信号ベクト
ルの最も強い反応を経験しているニューロン(単数また
は複数)の周りのバブルと称される。基準ニューロンか
らの距離に対する1つのそのような重みの分布は一般に
図3に示されるように、その形状の性質により「メキシ
カンハット」分布と文献に記載されており、それは近隣
のニューロンに対するシナプスはメキシカンハットの中
心における基準ニューロンと同じ入力信号ベクトルを支
持する(favor)ために強く重み付けされる。フィ
ードバック・シナプスは基準ニューロンからの各方向に
おける距離の増加に伴ない減少しかつその結果負になり
それにより入力信号を好まなくなる(disfavor
ing)。特徴マップの外側エッジのニューロンに対す
るシナプスは典型的には「メキシカンハットのつば」に
対応するゼロの重みに収束しかつ基準ニューロンからフ
ィードバックされる出力信号に対しニューラル反応を提
供する。これは「メキシカンハット」機能を備えたニュ
ーロン活動のコンボリューションと等価であり該ニュー
ロンの元の活動の「コントラスト増強」としての結果を
与えることが知られている。重み分布はまた他のタイプ
のY−軸対称関数に従うことができる。
ク構成を考察し、該ニューラル・ネットワーク構成では
最終的な出力が現在の計算シリーズのフィードフォワー
ド出力F1−F6および所定のスケーリング・ファクタ
S1−S6によって修正された前の計算シリーズのフィ
ードフォワード出力の双方に依存するものとする。その
ようなニューロン・ネットワークの一例はよく知られた
コホーネン(Kohonen)の特徴マップ(feat
ure map)であり、そこでは各ニューロンの出
力信号がそのおよび2次元特徴マップの他のニューロン
の1つまたはそれ以上のシナプスへの入力信号としてフ
ィードバックされる。このプロセスが何度か繰り返され
た後、活動のバブルがニューロン(単数または複数)の
周りに形成し入力信号ベクトルの競争に勝つ、すなわち
そこに印加された重みおよび入力信号が与えられれば最
も高い出力信号レベルを提供する。例えば、基準ニュー
ロンを、例えば特徴マップの中心に取り、かつその出力
信号を受けるように結合された計算リング30上の他の
ニューロンスライスのシナプスの重み分布を考える。近
隣のニューロンのフィードバック・シナプスは一般に基
準ニューロンからより離れたニューロンのシナプスより
重く重み付けされる。これは与えられた入力信号ベクト
ルの最も強い反応を経験しているニューロン(単数また
は複数)の周りのバブルと称される。基準ニューロンか
らの距離に対する1つのそのような重みの分布は一般に
図3に示されるように、その形状の性質により「メキシ
カンハット」分布と文献に記載されており、それは近隣
のニューロンに対するシナプスはメキシカンハットの中
心における基準ニューロンと同じ入力信号ベクトルを支
持する(favor)ために強く重み付けされる。フィ
ードバック・シナプスは基準ニューロンからの各方向に
おける距離の増加に伴ない減少しかつその結果負になり
それにより入力信号を好まなくなる(disfavor
ing)。特徴マップの外側エッジのニューロンに対す
るシナプスは典型的には「メキシカンハットのつば」に
対応するゼロの重みに収束しかつ基準ニューロンからフ
ィードバックされる出力信号に対しニューラル反応を提
供する。これは「メキシカンハット」機能を備えたニュ
ーロン活動のコンボリューションと等価であり該ニュー
ロンの元の活動の「コントラスト増強」としての結果を
与えることが知られている。重み分布はまた他のタイプ
のY−軸対称関数に従うことができる。
【0027】フィードバックプロセッサ52は図3に示
されるようなフィードフォワード出力の重み分布を達成
するよう構成されかつ動作することができる。第1の計
算シリーズはフィードフォワード・プロセッサ40を介
して処理されかつ厳格なフィードフォワードの例の説明
と同様にニューロンスライス14のレジスタ54に置か
れる。レジスタ54の出力信号はゲイン乗算器56によ
って処理されシグモイド関数におけるデータポイントを
識別するためのルックアップテーブル62へのアドレス
を形成する。ニューロンスライス14のルックアップテ
ーブル62のアドレスされた内容(フィードフォワード
出力F6)はニューロンスライス14のマルチプレクサ
64の出力において計算リング30の第6のセクション
に置かれる。同様に、ドット積計算シリーズからのフィ
ードフォワード出力F1−F5はそれぞれニューロンス
ライス24,22,20,18および16のマルチプレ
クサ64の出力において得ることができる。カウンタ7
4がメモリ72のスケールファクタS1のアドレスロケ
ーションにセットされかつさらに各シフトレジスタ68
に対し同時にクロック信号を提供し、それによりフィー
ドフォワード出力F1−F6がいまやそれぞれニューロ
ンスライス14,24,22,20,18および16の
68のようなシフトレジスタにあるように計算リング3
0を1ポジション回転させる。ニューロンスライス14
−24の64のようなマルチプレクサはルックアップテ
ーブル62の代りにシフトレジスタ68の出力から読む
ために制御バス66に印加される第2の制御信号によっ
て切替えられる。ニューロンスライス16および24は
図1に示されるようにニューロンスライス14の近傍に
あるものと考えられ、従って比較的大きなスケールファ
クタS1(S2およびS3と比較して)がメモリ72か
ら入力バス28に印加される。ニューロンスライス14
のシフトレジスタ68におけるフィードフォワード出力
F1が乗算器70の第1の入力に印加されかつそこで入
力バス28からのデジタル・スケールファクタS1によ
って重み付けされる。乗算器70の出力信号が加算器5
8によりレジスタ54の内容と加算されかつマルチプレ
クサ50を介してレジスタ54に戻って格納され前の内
容をオーバライトする。
されるようなフィードフォワード出力の重み分布を達成
するよう構成されかつ動作することができる。第1の計
算シリーズはフィードフォワード・プロセッサ40を介
して処理されかつ厳格なフィードフォワードの例の説明
と同様にニューロンスライス14のレジスタ54に置か
れる。レジスタ54の出力信号はゲイン乗算器56によ
って処理されシグモイド関数におけるデータポイントを
識別するためのルックアップテーブル62へのアドレス
を形成する。ニューロンスライス14のルックアップテ
ーブル62のアドレスされた内容(フィードフォワード
出力F6)はニューロンスライス14のマルチプレクサ
64の出力において計算リング30の第6のセクション
に置かれる。同様に、ドット積計算シリーズからのフィ
ードフォワード出力F1−F5はそれぞれニューロンス
ライス24,22,20,18および16のマルチプレ
クサ64の出力において得ることができる。カウンタ7
4がメモリ72のスケールファクタS1のアドレスロケ
ーションにセットされかつさらに各シフトレジスタ68
に対し同時にクロック信号を提供し、それによりフィー
ドフォワード出力F1−F6がいまやそれぞれニューロ
ンスライス14,24,22,20,18および16の
68のようなシフトレジスタにあるように計算リング3
0を1ポジション回転させる。ニューロンスライス14
−24の64のようなマルチプレクサはルックアップテ
ーブル62の代りにシフトレジスタ68の出力から読む
ために制御バス66に印加される第2の制御信号によっ
て切替えられる。ニューロンスライス16および24は
図1に示されるようにニューロンスライス14の近傍に
あるものと考えられ、従って比較的大きなスケールファ
クタS1(S2およびS3と比較して)がメモリ72か
ら入力バス28に印加される。ニューロンスライス14
のシフトレジスタ68におけるフィードフォワード出力
F1が乗算器70の第1の入力に印加されかつそこで入
力バス28からのデジタル・スケールファクタS1によ
って重み付けされる。乗算器70の出力信号が加算器5
8によりレジスタ54の内容と加算されかつマルチプレ
クサ50を介してレジスタ54に戻って格納され前の内
容をオーバライトする。
【0028】同時に、ニューロン・スライス16は計算
リング30の第1のシフトの時にそのシフトレジスタ6
8に置かれたフィードフォワード出力F6に対してのみ
同様の計算を行なっている。ニューロンスライス14お
よび18はニューロンスライス16に対し近傍にあり、
従って入力バス28に印加される同じ大きなスケールフ
ァクタが依然として適切である。デジタル・スケールフ
ァクタ倍のニューロンスライス16のシフトレジスタ6
8からのフィードフォワード出力F6の積がそのレジス
タ54の内容に加算されかつロードし戻される。同様に
、ニューロンスライス24,22,20および18はそ
れぞれフィードフォワード出力F2−F5をスケーリン
グすることによりフィードバック計算を行なっており、
かつ結果を54のようなレジスタの内容に加算している
。従って、ニューロンスライス14−24は52のよう
なフィードバック・プロセッサにより(1の距離だけ離
れた)近傍のフィードフォワード出力を処理している。
リング30の第1のシフトの時にそのシフトレジスタ6
8に置かれたフィードフォワード出力F6に対してのみ
同様の計算を行なっている。ニューロンスライス14お
よび18はニューロンスライス16に対し近傍にあり、
従って入力バス28に印加される同じ大きなスケールフ
ァクタが依然として適切である。デジタル・スケールフ
ァクタ倍のニューロンスライス16のシフトレジスタ6
8からのフィードフォワード出力F6の積がそのレジス
タ54の内容に加算されかつロードし戻される。同様に
、ニューロンスライス24,22,20および18はそ
れぞれフィードフォワード出力F2−F5をスケーリン
グすることによりフィードバック計算を行なっており、
かつ結果を54のようなレジスタの内容に加算している
。従って、ニューロンスライス14−24は52のよう
なフィードバック・プロセッサにより(1の距離だけ離
れた)近傍のフィードフォワード出力を処理している。
【0029】カウンタ74はメモリ72におけるスケー
ルファクタS2のアドレスロケーションに増分され、そ
れにより68のようなシフトレジスタに対し他のクロッ
ク信号を発生しかつフィードフォワード出力F1−F6
がそれぞれニューロンスライス16,14,24,22
,20および18のシフトレジスタ68に移動するよう
に計算リング30をもう1つのポジションだけ回転させ
る。この第2のシフトに対し、各フィードバック・プロ
セッサ52は距離2だけ離れたかつ従って真近でないニ
ューロンスライスから発生するフィードフォワード出力
に対し働きかけている。従って、入力バス28に印加さ
れるデジタル・スケールファクタS2はスケールファク
タS1よりずっと小さく、フィードバック信号を受けて
いるニューロンが基準ニューロンの近傍から離れるにつ
れて前に述べた「メキシカンハット」分布が降下するに
応じて小さくなる。より小さなスケールファクタS2に
より、ニューロンスライス14のシフトレジスタ68に
おけるフィードフォワード出力F2は結果は依然として
そこに記憶し戻されるが加算器58を介してレジスタ5
4の内容に少ししか貢献しない。
ルファクタS2のアドレスロケーションに増分され、そ
れにより68のようなシフトレジスタに対し他のクロッ
ク信号を発生しかつフィードフォワード出力F1−F6
がそれぞれニューロンスライス16,14,24,22
,20および18のシフトレジスタ68に移動するよう
に計算リング30をもう1つのポジションだけ回転させ
る。この第2のシフトに対し、各フィードバック・プロ
セッサ52は距離2だけ離れたかつ従って真近でないニ
ューロンスライスから発生するフィードフォワード出力
に対し働きかけている。従って、入力バス28に印加さ
れるデジタル・スケールファクタS2はスケールファク
タS1よりずっと小さく、フィードバック信号を受けて
いるニューロンが基準ニューロンの近傍から離れるにつ
れて前に述べた「メキシカンハット」分布が降下するに
応じて小さくなる。より小さなスケールファクタS2に
より、ニューロンスライス14のシフトレジスタ68に
おけるフィードフォワード出力F2は結果は依然として
そこに記憶し戻されるが加算器58を介してレジスタ5
4の内容に少ししか貢献しない。
【0030】ニューロンスライス16は計算リング30
の第2のシフトにおいてそのシフトレジスタ68に置か
れたフィードフォワード出力F1に対し同様の計算を行
なっている。フィードフォワード出力F1の発信者であ
るニューロンスライス24はニューロンスライス16の
直近にはなく、入力バス28に印加される低減されたス
ケールファクタが使用される。デジタル・スケールファ
クタとニューロンスライス16のシフトレジスタ68か
らのフィードフォワード出力F1との積はレジスタ54
の内容に加えられかつマルチプレクサ50を介してレジ
スタ54にロードし戻される。同様に、ニューロンスラ
イス24,22,20および18は、それぞれ、フィー
ドフォワード出力F3−F5をスケーリングすることに
よりフィードバック計算を行なっており、かつその結果
を54のようなレジスタの内容に加算する。従って、ニ
ューロンスライス14−24の52のようなフィードバ
ック・プロセッサは距離2だけ離れたニューロンスライ
スから発生するフィードフォワード出力を処理している
。
の第2のシフトにおいてそのシフトレジスタ68に置か
れたフィードフォワード出力F1に対し同様の計算を行
なっている。フィードフォワード出力F1の発信者であ
るニューロンスライス24はニューロンスライス16の
直近にはなく、入力バス28に印加される低減されたス
ケールファクタが使用される。デジタル・スケールファ
クタとニューロンスライス16のシフトレジスタ68か
らのフィードフォワード出力F1との積はレジスタ54
の内容に加えられかつマルチプレクサ50を介してレジ
スタ54にロードし戻される。同様に、ニューロンスラ
イス24,22,20および18は、それぞれ、フィー
ドフォワード出力F3−F5をスケーリングすることに
よりフィードバック計算を行なっており、かつその結果
を54のようなレジスタの内容に加算する。従って、ニ
ューロンスライス14−24の52のようなフィードバ
ック・プロセッサは距離2だけ離れたニューロンスライ
スから発生するフィードフォワード出力を処理している
。
【0031】プロセスはカウンタ74がスケールファク
タS3−S6をアドレスしかつフィードフォワード出力
F1−F6が完全に計算リング30の周りをシフトし各
々が処理ニューロンのフィードフォワード出力の発生の
近傍と釣り合ったレジスタ54の内容に対しその部分を
提供するまで続けられる。これは計算リング30の1回
転を完了しその後ニューロンスライス14−24のレジ
スタ54の内容が各々再びルックアップテーブル62を
アドレスしかつそのアドレスされた値をマルチプレクサ
64を介して転送し、もし必要であれば、スケールファ
クタS1で始まる他の回転のためのステージを設定する
。計算リング30の回転を例えば5回繰返しニューロン
スライス14−24のマルチプレクサ50の内容が最終
値に落着くようにすることも普通に行なわれる。ニュー
ロンスライス14−24のレジスタ54の内容はルック
アップテーブル62をもう一度アドレスしかつそのアド
レスされた値をマルチプレクサ64を介して前に述べた
ようにして計算リング30から除去するために転送する
。全回転数は余分の処理がニューラル・ネットワーク1
0のスループットを低くするから最少に保たれるべきで
ある。
タS3−S6をアドレスしかつフィードフォワード出力
F1−F6が完全に計算リング30の周りをシフトし各
々が処理ニューロンのフィードフォワード出力の発生の
近傍と釣り合ったレジスタ54の内容に対しその部分を
提供するまで続けられる。これは計算リング30の1回
転を完了しその後ニューロンスライス14−24のレジ
スタ54の内容が各々再びルックアップテーブル62を
アドレスしかつそのアドレスされた値をマルチプレクサ
64を介して転送し、もし必要であれば、スケールファ
クタS1で始まる他の回転のためのステージを設定する
。計算リング30の回転を例えば5回繰返しニューロン
スライス14−24のマルチプレクサ50の内容が最終
値に落着くようにすることも普通に行なわれる。ニュー
ロンスライス14−24のレジスタ54の内容はルック
アップテーブル62をもう一度アドレスしかつそのアド
レスされた値をマルチプレクサ64を介して前に述べた
ようにして計算リング30から除去するために転送する
。全回転数は余分の処理がニューラル・ネットワーク1
0のスループットを低くするから最少に保たれるべきで
ある。
【0032】もしニューロンがN×Mのトーラスに配列
されかつ物理的ニューロンによって正しく識別されれば
「近接性(closeness)」の正しい関係もまた
計算リング30にわたり維持できる。これはコホーネン
の出版物に述べられたような2次元の特徴マップを構成
するために重要である。
されかつ物理的ニューロンによって正しく識別されれば
「近接性(closeness)」の正しい関係もまた
計算リング30にわたり維持できる。これはコホーネン
の出版物に述べられたような2次元の特徴マップを構成
するために重要である。
【0033】次の表はニューロンスライス14−24に
対し離れた距離に対するニューロンスライス14に関し
スケールファクタS1−S6の例を与えるものであり、
図3を参照されたい。例えば、ニューロンスライス16
および24はニューロンスライス14から距離1だけ離
れており、一方ニューロンスライス18および22は距
離2だけ離れておりかつニューロンスライス20はニュ
ーロンスライス14から距離3だけ離れている。スケー
リングファクタS1−S6に対する値は適切な収束特性
が維持されるようにデジタル・フィルタ係数と同様にし
て選択されている。以下の値はスケールファクタS1−
S6に対する2の補数表現を表わす。 スケールファクタ 値
距離間隔
S1 “0101111
1” 1 S2
“00110000”
2 S3 “
10011111” 3 S
4 “00110000”
2 S5
“01011111” 1
S6 “00
000000” 0表1 距離に対す
るスケールファクタの重み分布
対し離れた距離に対するニューロンスライス14に関し
スケールファクタS1−S6の例を与えるものであり、
図3を参照されたい。例えば、ニューロンスライス16
および24はニューロンスライス14から距離1だけ離
れており、一方ニューロンスライス18および22は距
離2だけ離れておりかつニューロンスライス20はニュ
ーロンスライス14から距離3だけ離れている。スケー
リングファクタS1−S6に対する値は適切な収束特性
が維持されるようにデジタル・フィルタ係数と同様にし
て選択されている。以下の値はスケールファクタS1−
S6に対する2の補数表現を表わす。 スケールファクタ 値
距離間隔
S1 “0101111
1” 1 S2
“00110000”
2 S3 “
10011111” 3 S
4 “00110000”
2 S5
“01011111” 1
S6 “00
000000” 0表1 距離に対す
るスケールファクタの重み分布
【0034】あるいは、
ニューロンスライス14の計算リング30とのフィード
フォワード・プロセッサ40およびフィードバック・プ
ロセッサ52の組合わせはフィードフォワード計算によ
って始まる以下の方程式によって定量的に見ることがで
きる。 この場合、Rk(0)は最初の(0)ドット積の組合わ
せの後のレジスタ64の内容であり、kはニューロンス
ライス基準(すなわち、ニューロンスライス14に対し
てはk=1、ニューロンスライス16に対してはk=2
、その他)であり、pはフィードフォワード・プロセッ
サ40に対するドット積シリーズにおけるエレメントの
数であり、Ijは入力バス12からのデジタル入力信号
であり、Wjは重みメモリ42のアドレス可能な重みで
ある。
ニューロンスライス14の計算リング30とのフィード
フォワード・プロセッサ40およびフィードバック・プ
ロセッサ52の組合わせはフィードフォワード計算によ
って始まる以下の方程式によって定量的に見ることがで
きる。 この場合、Rk(0)は最初の(0)ドット積の組合わ
せの後のレジスタ64の内容であり、kはニューロンス
ライス基準(すなわち、ニューロンスライス14に対し
てはk=1、ニューロンスライス16に対してはk=2
、その他)であり、pはフィードフォワード・プロセッ
サ40に対するドット積シリーズにおけるエレメントの
数であり、Ijは入力バス12からのデジタル入力信号
であり、Wjは重みメモリ42のアドレス可能な重みで
ある。
【0035】
入力信号I1−I8および重みW1−W8のドット積の
組合わせ(dot product combin
ation)を行なうフィードフォワード・プロセッサ
40によって提供される。最初のドット積の組合わせの
後、レジスタ54の内容はルックアップテーブル62に
よって変換され、計算リング30上に置かれかつその周
りを1ポジションシフトされる。シフトレジスタ68の
出力信号はスケールファクタSmによって乗算されかつ
レジスタ54の前の内容と次のように加算される。 この場合、Rk(1)は一回転(6回のシフト)の後の
レジスタ54の内容であり、 σ()はシグモイド関数であり、 qはニューロンスライスの数であり、 nはモジュロqのm+kであり、Smは表1に従う各々
の各フィードフォワード出力に対するスケールファクタ
である。
組合わせ(dot product combin
ation)を行なうフィードフォワード・プロセッサ
40によって提供される。最初のドット積の組合わせの
後、レジスタ54の内容はルックアップテーブル62に
よって変換され、計算リング30上に置かれかつその周
りを1ポジションシフトされる。シフトレジスタ68の
出力信号はスケールファクタSmによって乗算されかつ
レジスタ54の前の内容と次のように加算される。 この場合、Rk(1)は一回転(6回のシフト)の後の
レジスタ54の内容であり、 σ()はシグモイド関数であり、 qはニューロンスライスの数であり、 nはモジュロqのm+kであり、Smは表1に従う各々
の各フィードフォワード出力に対するスケールファクタ
である。
【0036】より一般的には、“i+1”の回転の後の
レジスタ54の内容は、 となり、かつ5回の回転の後のマルチプレクサ64の最
終出力信号は次のように要約される。
レジスタ54の内容は、 となり、かつ5回の回転の後のマルチプレクサ64の最
終出力信号は次のように要約される。
【0037】フィードフォワードおよびフィードバック
計算の先の説明は実例により与えられていることが理解
される。本発明は伝統的な2層フィードフォワード・ネ
ットワークおよび種々の特徴マップのような多くの他の
構成を提供するのに十分柔軟性がある。さらに、ニュー
ロンスライス14−24の重みメモリ42にロードされ
た重みWiは外部マイクロプロセッサからの入力バス4
6を介して迅速に変更できかつデジタル入力信号Iiお
よび重みWiの処理順序は制御でき、それによりニュー
ラル相互接続および計算が資源の効率的な使用を提供す
るために動的に再割り当てできる。
計算の先の説明は実例により与えられていることが理解
される。本発明は伝統的な2層フィードフォワード・ネ
ットワークおよび種々の特徴マップのような多くの他の
構成を提供するのに十分柔軟性がある。さらに、ニュー
ロンスライス14−24の重みメモリ42にロードされ
た重みWiは外部マイクロプロセッサからの入力バス4
6を介して迅速に変更できかつデジタル入力信号Iiお
よび重みWiの処理順序は制御でき、それによりニュー
ラル相互接続および計算が資源の効率的な使用を提供す
るために動的に再割り当てできる。
【0038】フィードバック・プロセッサ52の他の実
施例が図4に示されている。フィードフォワード・プロ
セッサ40は図2に関連してテキストで説明されたと同
様にして動作する。マルチプレクサ50の出力信号はレ
ジスタ54に格納されかつ加算器58の第1の入力に印
加され、該加算器58の出力はマルチプレクサ50の第
2の入力および乗算器56の第1の入力に結合されてお
り、一方乗算器56の出力信号はルックアップテーブル
62のアドレス入力に印加される。マルチプレクサ50
は制御バス66に印加される第1の制御信号に応答して
該第1の制御信号の第1の状態の発生時に累算器48か
ら読みかつ該第1の制御信号の第2の状態の発生時に加
算器58の出力から読むためにその入力を切替える。乗
算器56の第2の入力は入力バス60によりデジタル・
ゲインファクタを受けるように結合されている。ルック
アップテーブル62からのアドレス値はトライステート
・バスインタフェース76を介してデータバス78に印
加される。トライステート・バスインタフェース76は
また乗算器70の第1の入力に印加するためにデータバ
ス78からデータを取り除き、一方該乗算器70の出力
は加算器58の第2の入力に結合されている。乗算器7
0の第2の入力はマイクロプロセッサからのアドレス入
力79に印加されるデジタルアドレス信号に応じてメモ
リ72からの値を受けるように結合されている。図4の
実施例は図2に対し各々のニューロンスライス14−2
4に対する72のような別個のメモリに対処するもので
あり、この場合共通メモリ72は計算リング30のシフ
トと同期してデジタル入力バス28により同時的にデジ
タル・スケーリングファクタS1−S6を送信する。メ
モリ72をローカルに配置することにより、スケールフ
ァクタS1−S6は各ニューロンスライスに対して異な
ってもよく柔軟性あるフィードバック計算が可能になる
。加算器58および乗算器56および70の構成そして
計算リング30またはデータバス78と共にメモリ72
を使用することは各々マイクロプロセッサからの適切な
制御シーケンス論理によって図2および図4の実施例の
間で相互に交換可能であることが理解される。同じ機能
を有する残りの構成要素は図2に使用されているのと同
じ参照番号が付されており、かつニューロンスライス1
6−24はニューロンスライス14について説明したの
と同様の構成に従う。
施例が図4に示されている。フィードフォワード・プロ
セッサ40は図2に関連してテキストで説明されたと同
様にして動作する。マルチプレクサ50の出力信号はレ
ジスタ54に格納されかつ加算器58の第1の入力に印
加され、該加算器58の出力はマルチプレクサ50の第
2の入力および乗算器56の第1の入力に結合されてお
り、一方乗算器56の出力信号はルックアップテーブル
62のアドレス入力に印加される。マルチプレクサ50
は制御バス66に印加される第1の制御信号に応答して
該第1の制御信号の第1の状態の発生時に累算器48か
ら読みかつ該第1の制御信号の第2の状態の発生時に加
算器58の出力から読むためにその入力を切替える。乗
算器56の第2の入力は入力バス60によりデジタル・
ゲインファクタを受けるように結合されている。ルック
アップテーブル62からのアドレス値はトライステート
・バスインタフェース76を介してデータバス78に印
加される。トライステート・バスインタフェース76は
また乗算器70の第1の入力に印加するためにデータバ
ス78からデータを取り除き、一方該乗算器70の出力
は加算器58の第2の入力に結合されている。乗算器7
0の第2の入力はマイクロプロセッサからのアドレス入
力79に印加されるデジタルアドレス信号に応じてメモ
リ72からの値を受けるように結合されている。図4の
実施例は図2に対し各々のニューロンスライス14−2
4に対する72のような別個のメモリに対処するもので
あり、この場合共通メモリ72は計算リング30のシフ
トと同期してデジタル入力バス28により同時的にデジ
タル・スケーリングファクタS1−S6を送信する。メ
モリ72をローカルに配置することにより、スケールフ
ァクタS1−S6は各ニューロンスライスに対して異な
ってもよく柔軟性あるフィードバック計算が可能になる
。加算器58および乗算器56および70の構成そして
計算リング30またはデータバス78と共にメモリ72
を使用することは各々マイクロプロセッサからの適切な
制御シーケンス論理によって図2および図4の実施例の
間で相互に交換可能であることが理解される。同じ機能
を有する残りの構成要素は図2に使用されているのと同
じ参照番号が付されており、かつニューロンスライス1
6−24はニューロンスライス14について説明したの
と同様の構成に従う。
【0039】フィードフォワード動作に対しては、デジ
タル信号“00000000”がメモリ72から読取ら
れかつ乗算器70の第2の入力に印加されてシフトレジ
スタ68の出力信号と組合わせ加算器58の第2の入力
にゼロのデジタル信号を発生し、それによりレジスタ5
4の出力信号には何も加えられない。従って、累算器4
8の最上位8ビットがマルチプレクサ50を介してレジ
スタ54にロードされ、加算器58からのゼロと加算さ
れかつ乗算器56によって尺度変更されルックアップテ
ーブル62のためのアドレスワードを発生する。ルック
アップテーブル62のアドレスされたロケーションの内
容がトライステート・バスインタフェース76を介して
データバス78に印加されかつ8ビットのデジタル・フ
ォワード出力F6となる。
タル信号“00000000”がメモリ72から読取ら
れかつ乗算器70の第2の入力に印加されてシフトレジ
スタ68の出力信号と組合わせ加算器58の第2の入力
にゼロのデジタル信号を発生し、それによりレジスタ5
4の出力信号には何も加えられない。従って、累算器4
8の最上位8ビットがマルチプレクサ50を介してレジ
スタ54にロードされ、加算器58からのゼロと加算さ
れかつ乗算器56によって尺度変更されルックアップテ
ーブル62のためのアドレスワードを発生する。ルック
アップテーブル62のアドレスされたロケーションの内
容がトライステート・バスインタフェース76を介して
データバス78に印加されかつ8ビットのデジタル・フ
ォワード出力F6となる。
【0040】図2に示されるような計算リング30を介
するフィードフォワード出力F1−F6の同期した回転
に対し、図4のフィードバック・プロセッサ52の動作
は1度に1つのフィードフォワード出力、例えば最初に
F6、をデータバス78に与え、そこでニューロンスラ
イス14−24はトライステート・バスインタフェース
76を介してその値を読取りかつ乗算器70のためにロ
ーカルメモリ72から適切なスケールファクタSiをア
ドレスする。ニューロンスライス14は残りのニューロ
ンスライスから同じ距離にないから、アドレスバス79
に印加されるアドレス信号は適切なスケールファクタを
抽出するために72のような各メモリに対し制御されな
ければならない。例えば、ニューロンスライス16およ
び24は、それぞれ、スケールファクタS1およびS5
をアドレスすべきであり、かつニューロンスライス18
および22はスケールルファクタS2およびS4をアド
レスすべきであり、一方ニューロンスライス20および
14はスケールファクタS3およびS6をアドレスする
。あるいは、共通のアドレス信号がアドレスバス79を
介してニューロンスライス14−24に送られ一方スケ
ールルファクタS1−S6は前に述べた組合わせを達成
するために各メモリ72に配置されている。ニューロン
スライス14,16,18,20,22および24は各
々乗算器70内で、それぞれ、デジタル・スケールファ
クタS6,S1,S2,S3,S4およびS5によって
フィードフォワード出力F6を乗算する。乗算器70の
出力信号は加算器58を介してレジスタ54の内容と加
算されかつマルチプレクサ50によってレジスタ54に
格納し戻され前の内容にオーバライトする。次のフィー
ドフォワード出力、例えばF5、がデータバス78に置
かれニューロンスライス14−24がそれを76のよう
なトライステート・バスインタフェースを介して読取り
かつローカルメモリ72からの適切なスケールファクタ
Siをアドレスできるようにする。いまや、ニューロン
スライス14および18はそれぞれスケールファクタS
1およびS5をアドレスすべきであり、かつニューロン
スライス20および24はスケールファクタS2および
S4をアドレスすべきであり、一方ニューロンスライス
22および16はスケールファクタS3およびS6をア
ドレスする。ニューロンスライス14はスケールファク
タS1をフィードフォワード出力F5によって乗算し、
一方ニューロンスライス16はスケールファクタS6を
F5によって乗算し、かつニューロンスライス18はス
ケールファクタS5をF6と組合わせ、以下同様である
。再び、乗算器70の出力信号が加算器58によってレ
ジスタ54の内容と加算されかつレジスタ54に格納し
戻される。このプロセスはフィードフォワード出力F4
−F1に対し同様にして続けられる。一般に、メモリ7
2におけるデジタル・スケールファクタS1−S5のロ
ーカルな格納は、各ニューロンスライスがスケールファ
クタSiに関し他のものと独立に動作できるから柔軟性
あるフィードバック・アーキテクチャが実現できるよう
になる。
するフィードフォワード出力F1−F6の同期した回転
に対し、図4のフィードバック・プロセッサ52の動作
は1度に1つのフィードフォワード出力、例えば最初に
F6、をデータバス78に与え、そこでニューロンスラ
イス14−24はトライステート・バスインタフェース
76を介してその値を読取りかつ乗算器70のためにロ
ーカルメモリ72から適切なスケールファクタSiをア
ドレスする。ニューロンスライス14は残りのニューロ
ンスライスから同じ距離にないから、アドレスバス79
に印加されるアドレス信号は適切なスケールファクタを
抽出するために72のような各メモリに対し制御されな
ければならない。例えば、ニューロンスライス16およ
び24は、それぞれ、スケールファクタS1およびS5
をアドレスすべきであり、かつニューロンスライス18
および22はスケールルファクタS2およびS4をアド
レスすべきであり、一方ニューロンスライス20および
14はスケールファクタS3およびS6をアドレスする
。あるいは、共通のアドレス信号がアドレスバス79を
介してニューロンスライス14−24に送られ一方スケ
ールルファクタS1−S6は前に述べた組合わせを達成
するために各メモリ72に配置されている。ニューロン
スライス14,16,18,20,22および24は各
々乗算器70内で、それぞれ、デジタル・スケールファ
クタS6,S1,S2,S3,S4およびS5によって
フィードフォワード出力F6を乗算する。乗算器70の
出力信号は加算器58を介してレジスタ54の内容と加
算されかつマルチプレクサ50によってレジスタ54に
格納し戻され前の内容にオーバライトする。次のフィー
ドフォワード出力、例えばF5、がデータバス78に置
かれニューロンスライス14−24がそれを76のよう
なトライステート・バスインタフェースを介して読取り
かつローカルメモリ72からの適切なスケールファクタ
Siをアドレスできるようにする。いまや、ニューロン
スライス14および18はそれぞれスケールファクタS
1およびS5をアドレスすべきであり、かつニューロン
スライス20および24はスケールファクタS2および
S4をアドレスすべきであり、一方ニューロンスライス
22および16はスケールファクタS3およびS6をア
ドレスする。ニューロンスライス14はスケールファク
タS1をフィードフォワード出力F5によって乗算し、
一方ニューロンスライス16はスケールファクタS6を
F5によって乗算し、かつニューロンスライス18はス
ケールファクタS5をF6と組合わせ、以下同様である
。再び、乗算器70の出力信号が加算器58によってレ
ジスタ54の内容と加算されかつレジスタ54に格納し
戻される。このプロセスはフィードフォワード出力F4
−F1に対し同様にして続けられる。一般に、メモリ7
2におけるデジタル・スケールファクタS1−S5のロ
ーカルな格納は、各ニューロンスライスがスケールファ
クタSiに関し他のものと独立に動作できるから柔軟性
あるフィードバック・アーキテクチャが実現できるよう
になる。
【0041】フィードフォワード・プロセッサ40の他
の特徴が図5に学習回路80として示されており、該学
習回路80は第1の入力が重みメモリ42の出力に与え
られる重みWiを受けるよう結合されかつ第2の出力が
入力バス84からのデジタル信号を受けるよう結合され
ている減算回路82を含む。減算回路82の出力信号は
乗算器86の第1の入力に印加され、一方乗算器86の
第2の入力は入力バス88を介してデジタル信号を受け
るよう結合されている。乗算器86の出力は加算器90
の第1の入力に結合されかつ加算器90の第2の入力は
重みメモリ42からの重みWiを受けるよう結合されて
いる。加算器90の出力は入力バス46における重みメ
モリ42のデータ入力ポートに結合されそれによりその
内容が学習回路80の計算から更新できるようになって
いる。同じ機能を有する回路エレメントには図2で使用
されたものと同じ参照番号が割り当てられている。
の特徴が図5に学習回路80として示されており、該学
習回路80は第1の入力が重みメモリ42の出力に与え
られる重みWiを受けるよう結合されかつ第2の出力が
入力バス84からのデジタル信号を受けるよう結合され
ている減算回路82を含む。減算回路82の出力信号は
乗算器86の第1の入力に印加され、一方乗算器86の
第2の入力は入力バス88を介してデジタル信号を受け
るよう結合されている。乗算器86の出力は加算器90
の第1の入力に結合されかつ加算器90の第2の入力は
重みメモリ42からの重みWiを受けるよう結合されて
いる。加算器90の出力は入力バス46における重みメ
モリ42のデータ入力ポートに結合されそれによりその
内容が学習回路80の計算から更新できるようになって
いる。同じ機能を有する回路エレメントには図2で使用
されたものと同じ参照番号が割り当てられている。
【0042】ニューラル・ネットワーク10の重要な特
徴は外部環境の変化に応じてその行ないを変更するため
にシナプスの重みを調整する能力である。学習回路80
は次のような所定の学習規則に従って動作する。 NWi=OWi+(PIi−OWi)PA
(6)この
場合、NWiは重みメモリ42に格納されるべき新しい
重みであり、PAは可塑性−活動(plasticit
y−activity)ファクタであり、OWiは重み
メモリ42に現在格納されている古い重みであり、PI
iは前のデジタル入力信号Iiである。
徴は外部環境の変化に応じてその行ないを変更するため
にシナプスの重みを調整する能力である。学習回路80
は次のような所定の学習規則に従って動作する。 NWi=OWi+(PIi−OWi)PA
(6)この
場合、NWiは重みメモリ42に格納されるべき新しい
重みであり、PAは可塑性−活動(plasticit
y−activity)ファクタであり、OWiは重み
メモリ42に現在格納されている古い重みであり、PI
iは前のデジタル入力信号Iiである。
【0043】重みWiが乗算器44を介して現在のデジ
タル入力信号I1−I8との組合わせのためにアドレス
バス26に印加されたアドレスワードAiを介してアド
レスされた時、各々はまた減算回路82の第1の入力お
よび加算器90の第2の入力にも印加される。デジタル
入力信号I1−I8はフィードフォワード・プロセッサ
40およびフィードバック・プロセッサ52を介し処理
されかつ一時的にューラル・ネットワーク10の外部に
記憶され式(3)によって減算回路82の第2の入力に
入力バス84を介して順次再印加される前のデジタル入
力信号PI1−PI8となる。古い重みOWiおよび前
のデジタル入力信号PIiは順次減算され、例えば、古
い重みOW1が前のデジタル入力信号PI1から減算さ
れかつ古い重みOW2が前のデジタル入力信号PI2か
ら減算される。OWiおよびPIiの間の差は可塑性−
活動ファクタPAによって乗算されかつその結果は重み
メモリ42からの古い重みOWiに加算され同じロケー
ションに格納し戻される。
タル入力信号I1−I8との組合わせのためにアドレス
バス26に印加されたアドレスワードAiを介してアド
レスされた時、各々はまた減算回路82の第1の入力お
よび加算器90の第2の入力にも印加される。デジタル
入力信号I1−I8はフィードフォワード・プロセッサ
40およびフィードバック・プロセッサ52を介し処理
されかつ一時的にューラル・ネットワーク10の外部に
記憶され式(3)によって減算回路82の第2の入力に
入力バス84を介して順次再印加される前のデジタル入
力信号PI1−PI8となる。古い重みOWiおよび前
のデジタル入力信号PIiは順次減算され、例えば、古
い重みOW1が前のデジタル入力信号PI1から減算さ
れかつ古い重みOW2が前のデジタル入力信号PI2か
ら減算される。OWiおよびPIiの間の差は可塑性−
活動ファクタPAによって乗算されかつその結果は重み
メモリ42からの古い重みOWiに加算され同じロケー
ションに格納し戻される。
【0044】可塑性−活動ファクタPAはニューロンス
ライス14−24の可塑性および現在の活動性または可
動度の関数でありかつ外部マイクロプロセッサにより計
算リング30から抽出された出力信号から計算される。 典型的には、学習はいくつかのシリーズのデジタル入力
信号Iiに対しゆっくり行なわれる。従って、可塑性−
活動ファクタPAは小さくされそれにより前記差が新し
い重みNWiに不当に影響を与えないようにする。実際
に、学習回路80はデジタルゼロを入力バス88に印加
することにより完全にディスエーブルできる。例えば、
もし前のシリーズ計算の結果が低い活動性(ニューロン
スライス14−24のマルチプレクサ64からの最終的
なフィードフォワード出力に対し低い値)を示せば、そ
れがシナプスの知識ベース(重み)と整合しないから入
力データは学習の価値がないであろう。従って、低い活
動性によって、可塑性−活動ファクタPAはデジタルゼ
ロにセットされるであろう。減算回路82の出力信号は
従って乗算器86によりゼロによって乗算されかつ古い
重みには何も加えられない。逆に、もし前のシリーズ計
算の結果が高い活動性を示しておれば、学習は典型的に
は1/4,1/8,1/16その他のデジタル等価物の
ような可塑性−活動ファクタによって決定されるレート
で進行する。デジタル回路は制御信号をマルチプレクサ
回路にセットすることにより4,8および16によって
除算できることが理解される。古い重みOWiおよび可
塑性−活動ファクタPAによって乗算された前のシリー
ズのデジタル入力信号PIiの差は古い重みOWiと加
算されかつ重みメモリ42のアドレスされたロケーショ
ンに格納し戻される。とりわけ、学習はフィードフォワ
ード処理40と同じ速度で連続的に動作できるから、外
部環境の変化に応じて重みメモリ42のリアルタイムの
更新を提供する。付加的な利益として、もし重みメモリ
42がDRAMによって実施されれば、学習回路80は
またDRAMをリフレッシュできるが、それは各メモリ
エレメントはサイクリックにアクセスされるからである
。
ライス14−24の可塑性および現在の活動性または可
動度の関数でありかつ外部マイクロプロセッサにより計
算リング30から抽出された出力信号から計算される。 典型的には、学習はいくつかのシリーズのデジタル入力
信号Iiに対しゆっくり行なわれる。従って、可塑性−
活動ファクタPAは小さくされそれにより前記差が新し
い重みNWiに不当に影響を与えないようにする。実際
に、学習回路80はデジタルゼロを入力バス88に印加
することにより完全にディスエーブルできる。例えば、
もし前のシリーズ計算の結果が低い活動性(ニューロン
スライス14−24のマルチプレクサ64からの最終的
なフィードフォワード出力に対し低い値)を示せば、そ
れがシナプスの知識ベース(重み)と整合しないから入
力データは学習の価値がないであろう。従って、低い活
動性によって、可塑性−活動ファクタPAはデジタルゼ
ロにセットされるであろう。減算回路82の出力信号は
従って乗算器86によりゼロによって乗算されかつ古い
重みには何も加えられない。逆に、もし前のシリーズ計
算の結果が高い活動性を示しておれば、学習は典型的に
は1/4,1/8,1/16その他のデジタル等価物の
ような可塑性−活動ファクタによって決定されるレート
で進行する。デジタル回路は制御信号をマルチプレクサ
回路にセットすることにより4,8および16によって
除算できることが理解される。古い重みOWiおよび可
塑性−活動ファクタPAによって乗算された前のシリー
ズのデジタル入力信号PIiの差は古い重みOWiと加
算されかつ重みメモリ42のアドレスされたロケーショ
ンに格納し戻される。とりわけ、学習はフィードフォワ
ード処理40と同じ速度で連続的に動作できるから、外
部環境の変化に応じて重みメモリ42のリアルタイムの
更新を提供する。付加的な利益として、もし重みメモリ
42がDRAMによって実施されれば、学習回路80は
またDRAMをリフレッシュできるが、それは各メモリ
エレメントはサイクリックにアクセスされるからである
。
【0045】
【発明の効果】従って、上に述べたものは複雑なニュー
ラル・フィードバック構成を処理するためのフィードフ
ォワードおよびフィードバック・プロセッサを有しかつ
デジタル計算リングまたはデータバスを含むデジタル・
アーキテクチャを用いた新規な人工ニューラル・ネット
ワークである。フィードフォワードおよびフィードバッ
ク・プロセッサは多くの異なるニューラル計算を行なう
よう構成でき、一方学習回路がリアルタイム様式で環境
における変化を反映するためにフィードフォワード・プ
ロセッサの重みを更新するために提供される。
ラル・フィードバック構成を処理するためのフィードフ
ォワードおよびフィードバック・プロセッサを有しかつ
デジタル計算リングまたはデータバスを含むデジタル・
アーキテクチャを用いた新規な人工ニューラル・ネット
ワークである。フィードフォワードおよびフィードバッ
ク・プロセッサは多くの異なるニューラル計算を行なう
よう構成でき、一方学習回路がリアルタイム様式で環境
における変化を反映するためにフィードフォワード・プ
ロセッサの重みを更新するために提供される。
【図1】本発明の好ましい実施例として動作する複数の
ニューロンスライスを含むデジタル・アーキテクチャを
示すブロック図である。
ニューロンスライスを含むデジタル・アーキテクチャを
示すブロック図である。
【図2】フィードフォワードおよびフィードバック・プ
ロセッサを備えたニューロンスライスの好ましい実施例
を示す単純化したブロック図である。
ロセッサを備えたニューロンスライスの好ましい実施例
を示す単純化したブロック図である。
【図3】前記フィードバック・プロセッサのためのスケ
ールファクタ分布のグラフである。
ールファクタ分布のグラフである。
【図4】フィードフォワードおよびフィードバック・プ
ロセッサを備えたニューロンスライスの別の実施例を示
す単純化したブロック図である。
ロセッサを備えたニューロンスライスの別の実施例を示
す単純化したブロック図である。
【図5】図2のフィードフォワード・プロセッサのため
の学習回路を示すブロック図である。
の学習回路を示すブロック図である。
10 人工ニューラル・ネットワーク12 入力バ
ス 14,16,18,20,22,24 ニューロンス
ライス 26 アドレスバス 28 入力バス 30 計算リング 32,34 端子 40 フィードフォワード・プロセッサ42 重み
メモリ 44,56,70 乗算器 48 累算器 50,64 マルチプレクサ 52 フィードバック・プロセッサ 54 レジスタ 58 加算器 62 ルックアップテーブル 68 シフトレジスタ 72 メモリ 74 カウンタ 76 トライステート・バスインタフェース80
学習回路
ス 14,16,18,20,22,24 ニューロンス
ライス 26 アドレスバス 28 入力バス 30 計算リング 32,34 端子 40 フィードフォワード・プロセッサ42 重み
メモリ 44,56,70 乗算器 48 累算器 50,64 マルチプレクサ 52 フィードバック・プロセッサ 54 レジスタ 58 加算器 62 ルックアップテーブル 68 シフトレジスタ 72 メモリ 74 カウンタ 76 トライステート・バスインタフェース80
学習回路
Claims (5)
- 【請求項1】 第1のデジタル入力信号を受けるよう
に結合された第1のデジタル入力バス(12)、第2の
デジタル入力信号を受けるように結合された第2のデジ
タル入力バス(26)、そしてそれらの間にデジタル出
力信号を通すために少なくとも1つの導体によって相互
接続された複数のデジタル処理エレメント(14−24
)であって、前記複数のデジタル処理エレメントの内の
所定のものは前記第1のデジタル入力バスおよび前記第
2のデジタル入力バスに結合されて前記少なくとも1つ
の導体に前記デジタル出力信号を提供するために前記第
2のデジタル入力信号と組合わせて前記第1のデジタル
入力信号に対し計算を行なうもの、を具備することを特
徴とするデジタル・ニューラル・ネットワーク。 - 【請求項2】 前記少なくとも1つの導体は前記複数
のデジタル処理エレメントによって電気的に分離された
複数の導体(30)を含むことを特徴とする請求項1に
記載のデジタル・ニューラル・ネットワーク。 - 【請求項3】 前記複数のデジタル処理エレメントは
第1、第2および第3の入力を有しかつ出力を有する第
1のデジタル処理エレメント(14)を含み、前記第1
の入力は前記第1のデジタル入力信号を受けるよう結合
され、前記第2の入力は前記第2のデジタル入力信号を
受けるよう結合され、前記第3の入力は前記複数の導体
(32)の内の第1のものに結合され前記複数のデジタ
ル処理エレメントの内の1つから第2のデジタル出力信
号を受け、前記出力信号は前記複数の導体(34)の内
の第2のものに結合されていることを特徴とする請求項
2に記載のデジタル・ニューラル・ネットワーク。 - 【請求項4】 前記デジタル出力信号は第1の状態の
制御信号の発生により前記複数の導体の内の前記第2の
ものに与えられることを特徴とする請求項3に記載のデ
ジタル・ニューラル・ネットワーク。 - 【請求項5】 前記複数のデジタル処理エレメントの
内の前記1つからの前記第2のデジタル出力信号は前記
制御信号の第2の状態の発生により前記複数の導体の内
の前記第2のものに通過することを特徴とする請求項4
に記載のデジタル・ニューラル・ネットワーク。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US60108590A | 1990-10-22 | 1990-10-22 | |
US601,085 | 1990-10-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04264665A true JPH04264665A (ja) | 1992-09-21 |
Family
ID=24406166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3295019A Pending JPH04264665A (ja) | 1990-10-22 | 1991-10-15 | デジタル・ニューラル・ネットワーク |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP0482376A3 (ja) |
JP (1) | JPH04264665A (ja) |
-
1991
- 1991-09-26 EP EP19910116405 patent/EP0482376A3/en not_active Withdrawn
- 1991-10-15 JP JP3295019A patent/JPH04264665A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP0482376A2 (en) | 1992-04-29 |
EP0482376A3 (en) | 1993-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5208900A (en) | Digital neural network computation ring | |
US5216751A (en) | Digital processing element in an artificial neural network | |
US5617512A (en) | Triangular scalable neural array processor | |
US4739474A (en) | Geometric-arithmetic parallel processor | |
Kajitani et al. | A gate-level EHW chip: Implementing GA operations and reconfigurable hardware on a single LSI | |
EP0570359B1 (en) | Heuristic processor | |
EP0422348A2 (en) | Two-dimensional systolic array for neural networks, and method | |
JPH04293151A (ja) | 並列データ処理方式 | |
JPH0713950A (ja) | 人工ニューロンおよびその使用方法 | |
JPH08297716A (ja) | ニューラル・ネットワーク用の適応型重み調整回路 | |
EP0459222A2 (en) | Neural network | |
US5742741A (en) | Reconfigurable neural network | |
US5276773A (en) | Digital neural network executed in integrated circuit technology | |
JPH04264666A (ja) | 人工ニューラル・ネットワークにおけるデジタル処理エレメント | |
JPH04342058A (ja) | 複数のデジタル処理エレメントの間で信号を受け渡す方法 | |
US5751913A (en) | Reconfigurable neural network and difference-square neuron | |
JPH04264665A (ja) | デジタル・ニューラル・ネットワーク | |
EP4155901A1 (en) | Systems and methods for sparsity operations in a specialized processing block | |
US5146420A (en) | Communicating adder tree system for neural array processor | |
EP0661645A2 (en) | Neural network | |
GB2206428A (en) | Computer | |
US20240248684A1 (en) | Semiconductor device | |
International Neural Network Society (INNS), the IEEE Neural Network Council Cooperating Societies et al. | Implementation of back-propagation on a VLSI asynchronous cellular architecture | |
Hendrich | A scalable architecture for binary couplings attractor neural networks | |
Blight et al. | Self-organizing Kohonen maps for FPGA placement |