JPH05242065A - 情報処理装置及びシステム - Google Patents
情報処理装置及びシステムInfo
- Publication number
- JPH05242065A JPH05242065A JP4042830A JP4283092A JPH05242065A JP H05242065 A JPH05242065 A JP H05242065A JP 4042830 A JP4042830 A JP 4042830A JP 4283092 A JP4283092 A JP 4283092A JP H05242065 A JPH05242065 A JP H05242065A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- functional blocks
- integrated circuit
- circuit board
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/80—Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Neurology (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Multi Processors (AREA)
- Microcomputers (AREA)
Abstract
(57)【要約】
【構成】演算を行う機能ブロック(内積演算を高速に行
えるもの)とこれを制御する制御部を1つのモジュ−ル
(1〜128モジュール)とする。モジュ−ル内ではS
IMD方式により動作を行う。さらに複数個のモジュ−
ルを接続し通信を可能とする。複数個のモジュ−ルは、
異なる命令セットであるMIMD方式により動作を行
う。また、1つのモジュール内では、ニュ−ロンプロセ
ッサ及びメモリなどの欠陥に対して強い部分は集積回路
基板上に集積し、欠陥に対して弱い制御部は、例えばシ
リコン・オン・シリコン技術により、その集積回路基板
上に制御部の集積回路基板を搭載する。 【効果】ニュ−ラルネットの学習及び動作を高速に行う
ことができる。更にモジュ−ルごとに異なる命令セット
により動作させることが可能である。また大規模の超並
列計算を行う情報処理システムを非常にコンパクトに提
供できる。
えるもの)とこれを制御する制御部を1つのモジュ−ル
(1〜128モジュール)とする。モジュ−ル内ではS
IMD方式により動作を行う。さらに複数個のモジュ−
ルを接続し通信を可能とする。複数個のモジュ−ルは、
異なる命令セットであるMIMD方式により動作を行
う。また、1つのモジュール内では、ニュ−ロンプロセ
ッサ及びメモリなどの欠陥に対して強い部分は集積回路
基板上に集積し、欠陥に対して弱い制御部は、例えばシ
リコン・オン・シリコン技術により、その集積回路基板
上に制御部の集積回路基板を搭載する。 【効果】ニュ−ラルネットの学習及び動作を高速に行う
ことができる。更にモジュ−ルごとに異なる命令セット
により動作させることが可能である。また大規模の超並
列計算を行う情報処理システムを非常にコンパクトに提
供できる。
Description
【0001】
【産業上の利用分野】本発明は、情報処理装置及びシス
テムに係り、ニュ−ロコンピュ−タを始め、並列計算
機、物理シミュレ−ションシステム、ワ−クステ−ショ
ン、ロボットの制御システム等、非常に幅広く利用する
ことができるものである。
テムに係り、ニュ−ロコンピュ−タを始め、並列計算
機、物理シミュレ−ションシステム、ワ−クステ−ショ
ン、ロボットの制御システム等、非常に幅広く利用する
ことができるものである。
【0002】
【従来の技術】従来の並列計算機の実現方法で粒度の小
さい方法の代表として、コネクションマシ−ンがある。
コネクションマシ−ンでは、一つのプロセッサ要素は1
ビットの演算器と4Kビットメモリから構成されてお
り、最も粒度を細かくしている。システム全体は単一命
令で制御される単一命令複数デ−タ流方式(SIMD
(シングルインストラクション・マルチデ−タストリ−
ム)方式)で行っている。1チップ(集積回路)に16
個のプロセッサ要素を集積し、各チップは2進12−キ
ュ−ブ網で相互結合されている。全てのプロセッサ要素
数は65536(216)個である。コネクションマシ−
ンは人工知能用または画像処理用計算機として、非常に
高性能なものとなっている。また、コネクションマシ−
ン上でニュ−ラルネットワ−クをシミュレ−ションする
報告がある。しかしながら、一般のニュ−ラルモデルは
複数ビットのデ−タ同士の乗算と加算の計算を繰り返す
ものが多く、1ビット演算器まで粒度を細かくしてお
り、複数ビットの演算のためのオ−バ−ヘッドがあり、
これらの問題に対して、それほどの高速演算性能を期待
できない。
さい方法の代表として、コネクションマシ−ンがある。
コネクションマシ−ンでは、一つのプロセッサ要素は1
ビットの演算器と4Kビットメモリから構成されてお
り、最も粒度を細かくしている。システム全体は単一命
令で制御される単一命令複数デ−タ流方式(SIMD
(シングルインストラクション・マルチデ−タストリ−
ム)方式)で行っている。1チップ(集積回路)に16
個のプロセッサ要素を集積し、各チップは2進12−キ
ュ−ブ網で相互結合されている。全てのプロセッサ要素
数は65536(216)個である。コネクションマシ−
ンは人工知能用または画像処理用計算機として、非常に
高性能なものとなっている。また、コネクションマシ−
ン上でニュ−ラルネットワ−クをシミュレ−ションする
報告がある。しかしながら、一般のニュ−ラルモデルは
複数ビットのデ−タ同士の乗算と加算の計算を繰り返す
ものが多く、1ビット演算器まで粒度を細かくしてお
り、複数ビットの演算のためのオ−バ−ヘッドがあり、
これらの問題に対して、それほどの高速演算性能を期待
できない。
【0003】また、ニュ−ラルネットを高速に演算及び
学習させる方法として、本願発明者らによる”高速学習
型ニュ−ロWSIのシステム設計”、1990年10月25日電
子情報通信学会、CPSY90-71,ICD90-127、及び特開平3
−206549号公報等がある。これらは、複数のニュ
−ロンプロセッサをバスにより相互接続し、順次ニュ−
ロンプロセッサがそのニュ−ロンの出力をバスにより、
ブロ−ドキャストすることにより、通信を行う。一般の
ニュ−ラルモデルはニュ−ロン間の結合が非常に多いの
で、このような単純な結合方法でも高速演算が可能であ
る。通信のためのハ−ドウェア量が少なく、時間的なオ
−バ−ヘッドが少ないため、非常にコンパクトにするこ
とができる。また、ニュ−ラルネットの欠陥に対する強
さを利用して、複数の大面積集積回路のウェハスケ−ル
集積回路(WSI)により構成し、さらにコンパクトに
している。しかし、欠陥に弱い制御回路については大面
積集積回路上に搭載していない。
学習させる方法として、本願発明者らによる”高速学習
型ニュ−ロWSIのシステム設計”、1990年10月25日電
子情報通信学会、CPSY90-71,ICD90-127、及び特開平3
−206549号公報等がある。これらは、複数のニュ
−ロンプロセッサをバスにより相互接続し、順次ニュ−
ロンプロセッサがそのニュ−ロンの出力をバスにより、
ブロ−ドキャストすることにより、通信を行う。一般の
ニュ−ラルモデルはニュ−ロン間の結合が非常に多いの
で、このような単純な結合方法でも高速演算が可能であ
る。通信のためのハ−ドウェア量が少なく、時間的なオ
−バ−ヘッドが少ないため、非常にコンパクトにするこ
とができる。また、ニュ−ラルネットの欠陥に対する強
さを利用して、複数の大面積集積回路のウェハスケ−ル
集積回路(WSI)により構成し、さらにコンパクトに
している。しかし、欠陥に弱い制御回路については大面
積集積回路上に搭載していない。
【0004】また、ニュ−ロン間の結合が疎な場合に効
率よく、ブロ−ドキャスト通信を行う方法として、USP
4,796,199が提案されている。ニュ−ロンプロセッサ
を、ファミリ−、グル−プ、コネクションといった階層
的なまとまりに分け、各階層ごとにブロ−ドキャスト通
信を行うものである。ニュ−ラルネットをモジュ−ル化
し、モジュ−ルごとに効率的に学習させる場合モジュ−
ル間はモジュ−ル内に比べ、通信量が少ないはずなの
で、そのような場合に高速に演算及び学習を行うことが
できる。しかし、その制御方法に関しては提案されてい
ない。
率よく、ブロ−ドキャスト通信を行う方法として、USP
4,796,199が提案されている。ニュ−ロンプロセッサ
を、ファミリ−、グル−プ、コネクションといった階層
的なまとまりに分け、各階層ごとにブロ−ドキャスト通
信を行うものである。ニュ−ラルネットをモジュ−ル化
し、モジュ−ルごとに効率的に学習させる場合モジュ−
ル間はモジュ−ル内に比べ、通信量が少ないはずなの
で、そのような場合に高速に演算及び学習を行うことが
できる。しかし、その制御方法に関しては提案されてい
ない。
【0005】一方、複数命令複数デ−タ流方式(MIM
D(マルチインストラクション・マルチデ−タストリ−
ム)方式)として、Nキュ−ブ2がある。Nキュ−ブ2
では、各プロセッサエレメントは独自に稼働し、各エレ
メント間はハイパ−キュ−ブトポロジ−で結合されてい
る。最大構成で8192(213)個を設置面積4m2に
実現している。
D(マルチインストラクション・マルチデ−タストリ−
ム)方式)として、Nキュ−ブ2がある。Nキュ−ブ2
では、各プロセッサエレメントは独自に稼働し、各エレ
メント間はハイパ−キュ−ブトポロジ−で結合されてい
る。最大構成で8192(213)個を設置面積4m2に
実現している。
【0006】
【発明が解決しようとする課題】SIMDマシ−ンで
は、条件付き命令で若干の異なる動作を行うことができ
る。しかし、条件付き命令を複雑に分岐させれば、より
複雑な動作が可能となるが、その場合、各プロセッサの
命令デコ−ダが複雑化していく。その最終的な形がMI
MDマシ−ンと考えることもできる。
は、条件付き命令で若干の異なる動作を行うことができ
る。しかし、条件付き命令を複雑に分岐させれば、より
複雑な動作が可能となるが、その場合、各プロセッサの
命令デコ−ダが複雑化していく。その最終的な形がMI
MDマシ−ンと考えることもできる。
【0007】SIMDマシ−ン上で、モジュ−ル化され
たニュ−ラルネットをシミュレ−ションする場合、各モ
ジュ−ルごとに大幅に異なるモデルを並列に実行するこ
とはできない。またMIMDマシ−ンを利用する場合、
同一のモジュ−ル内のニュ−ロンモデルを計算するにも
かかわらず、それらのプロセッサエレメントは同一の命
令セットが保持され、それらの制御回路は同一命令をデ
コ−ドすることになり、外部から見た場合、非常に冗長
な動作となる。また、1プロセッサエレメントのハ−ド
ウェア量もSIMDマシ−ンのものに比べ大きいため、
一定面積あたりのプロセッサ数は少なくなってしまう。
たニュ−ラルネットをシミュレ−ションする場合、各モ
ジュ−ルごとに大幅に異なるモデルを並列に実行するこ
とはできない。またMIMDマシ−ンを利用する場合、
同一のモジュ−ル内のニュ−ロンモデルを計算するにも
かかわらず、それらのプロセッサエレメントは同一の命
令セットが保持され、それらの制御回路は同一命令をデ
コ−ドすることになり、外部から見た場合、非常に冗長
な動作となる。また、1プロセッサエレメントのハ−ド
ウェア量もSIMDマシ−ンのものに比べ大きいため、
一定面積あたりのプロセッサ数は少なくなってしまう。
【0008】また、ニュ−ラルネットの欠陥に対する強
さを利用して、ニュ−ロンモデルを計算する複数のニュ
−ロンプロセッサを1つの大面積集積回路上に搭載でき
るが、その制御回路は欠陥に弱いため、同一の大面積集
積回路に搭載すると、歩留りが低下してしまうという問
題があった。そのため、演算部と制御部は別の集積回路
にする必要があった。
さを利用して、ニュ−ロンモデルを計算する複数のニュ
−ロンプロセッサを1つの大面積集積回路上に搭載でき
るが、その制御回路は欠陥に弱いため、同一の大面積集
積回路に搭載すると、歩留りが低下してしまうという問
題があった。そのため、演算部と制御部は別の集積回路
にする必要があった。
【0009】本発明の目的は、演算を行う機能ブロック
を多数備えて、並列演算を行う情報処理装置をコンパク
トに提供することにある。
を多数備えて、並列演算を行う情報処理装置をコンパク
トに提供することにある。
【0010】本発明に他の目的は、演算を行う機能ブロ
ックを多数備えて、並列演算を行う情報処理装置を更に
複数個設け、超並列演算を行う情報処理システムを構築
するにあたり、分散処理と論理演算を有効に行うことに
ある。
ックを多数備えて、並列演算を行う情報処理装置を更に
複数個設け、超並列演算を行う情報処理システムを構築
するにあたり、分散処理と論理演算を有効に行うことに
ある。
【0011】本発明の他の目的は、特に、ニューラルモ
デルの計算を高速に行うのに適した情報処理装置及びシ
ステムを提供するにある。
デルの計算を高速に行うのに適した情報処理装置及びシ
ステムを提供するにある。
【0012】
【課題を解決するための手段】本発明では、演算を行う
機能ブロック(内積演算を高速に行えるものであって、
例えば104個程度)とこれを制御する制御系を1つの
モジュ−ルとする。モジュ−ル内ではSIMD方式によ
り動作を行う。さらに複数個のモジュ−ル(例えば10
0個程度)を接続し通信を可能とする。複数個のモジュ
−ルは、異なる命令セットであるMIMD方式により動
作を行う。
機能ブロック(内積演算を高速に行えるものであって、
例えば104個程度)とこれを制御する制御系を1つの
モジュ−ルとする。モジュ−ル内ではSIMD方式によ
り動作を行う。さらに複数個のモジュ−ル(例えば10
0個程度)を接続し通信を可能とする。複数個のモジュ
−ルは、異なる命令セットであるMIMD方式により動
作を行う。
【0013】また、ニュ−ロンプロセッサ及びメモリな
どの欠陥に対して強い部分は大面積集積回路上に集積
し、欠陥に対して弱い制御部は、例えばシリコン・オン
・シリコン(Si on Si)技術により、大面積集
積回路上に制御部の集積回路を接続する。
どの欠陥に対して強い部分は大面積集積回路上に集積
し、欠陥に対して弱い制御部は、例えばシリコン・オン
・シリコン(Si on Si)技術により、大面積集
積回路上に制御部の集積回路を接続する。
【0014】
【作用】本発明によれば、モジュ−ル化されたニュ−ラ
ルネットの学習及び動作を高速に行うことができる。各
モジュ−ルごと並列に学習が可能なため、高速な学習及
び動作が可能である。プロセッサ数も、SIMD方式と
同程度の実装密度とすることができ、モジュ−ルごとに
異なる命令セットにより動作させることが可能である。
ルネットの学習及び動作を高速に行うことができる。各
モジュ−ルごと並列に学習が可能なため、高速な学習及
び動作が可能である。プロセッサ数も、SIMD方式と
同程度の実装密度とすることができ、モジュ−ルごとに
異なる命令セットにより動作させることが可能である。
【0015】また、本発明によれば、大規模の情報処理
システムを非常にコンパクトに作ることができる。
システムを非常にコンパクトに作ることができる。
【0016】
【実施例】実施例を用いて、具体的な構成について説明
する。まず、その構成の概略について以下に説明する。
する。まず、その構成の概略について以下に説明する。
【0017】104個の機能ブロックである演算ブロッ
ク(内積演算を高速に行えるもの)を、例えば10cm角
のウェハスケ−ル集積回路(WSI)に集積し、かつ、
スカラ−プロセッサ及びA/Dコンバ−タをシリコン・
オン・シリコン技術で搭載し、1つのモジュ−ルとす
る。アナログディジタル(A/D)コンバ−タにより、
センサなどからのアナログ信号を入力することができ
る。このモジュ−ル上には、スカラ−プロセッサのワ−
キングメモリも設け、これに104個の演算ブロックへ
の命令セットを記憶させておく。スカラ−プロセッサは
ワ−キングメモリ及び各演算ブロックの出力、各演算ブ
ロック内のロ−カルメモリをランダムにアクセスでき
る。また、各演算ブロックへの命令発行の管理も行う。
各演算ブロックはモジュ−ル内部のデ−タバスにより接
続され、ブロ−ドキャストを相互に高速に行える。10
0個のモジュ−ル間は100ワ−ドのモジュ−ル間バス
により接続する。各モジュ−ルには100個の104ワ
−ドの通信用バッファを持ち、モジュ−ル間バスの各チ
ャネルと一つづつ接続する。各モジュ−ル内の内部デ−
タバスに出力された演算ブロックの出力は順次モジュ−
ル間バスを通し、全てのモジュ−ル通信用バッファに書
き込む。各モジュ−ルでは、通信用バッファを読みだす
ことにより、外部モジュ−ル上の演算ブロックの出力を
知ることができる。書き込みタイミングはデ−タの転送
側が発生することにより、モジュ−ル間通信は非同期で
行うことができる。
ク(内積演算を高速に行えるもの)を、例えば10cm角
のウェハスケ−ル集積回路(WSI)に集積し、かつ、
スカラ−プロセッサ及びA/Dコンバ−タをシリコン・
オン・シリコン技術で搭載し、1つのモジュ−ルとす
る。アナログディジタル(A/D)コンバ−タにより、
センサなどからのアナログ信号を入力することができ
る。このモジュ−ル上には、スカラ−プロセッサのワ−
キングメモリも設け、これに104個の演算ブロックへ
の命令セットを記憶させておく。スカラ−プロセッサは
ワ−キングメモリ及び各演算ブロックの出力、各演算ブ
ロック内のロ−カルメモリをランダムにアクセスでき
る。また、各演算ブロックへの命令発行の管理も行う。
各演算ブロックはモジュ−ル内部のデ−タバスにより接
続され、ブロ−ドキャストを相互に高速に行える。10
0個のモジュ−ル間は100ワ−ドのモジュ−ル間バス
により接続する。各モジュ−ルには100個の104ワ
−ドの通信用バッファを持ち、モジュ−ル間バスの各チ
ャネルと一つづつ接続する。各モジュ−ル内の内部デ−
タバスに出力された演算ブロックの出力は順次モジュ−
ル間バスを通し、全てのモジュ−ル通信用バッファに書
き込む。各モジュ−ルでは、通信用バッファを読みだす
ことにより、外部モジュ−ル上の演算ブロックの出力を
知ることができる。書き込みタイミングはデ−タの転送
側が発生することにより、モジュ−ル間通信は非同期で
行うことができる。
【0018】また、全モジュ−ル内のワ−キングメモ
リ、ロ−カルメモリをメモリ空間上に見ることができる
スカラ−プロセッサを設ける。
リ、ロ−カルメモリをメモリ空間上に見ることができる
スカラ−プロセッサを設ける。
【0019】以上の本発明の構成を図1〜8を用いて以
下に説明する。まず、図面を説明する。その後、図面を
用いて動作について説明する。
下に説明する。まず、図面を説明する。その後、図面を
用いて動作について説明する。
【0020】図1に全体の構成図を示す。ここで、1〜
128はモジュ−ル、130はモジュ−ル間バス、14
0はモジュ−ル入力バス、150はモジュ−ル出力バ
ス、141はグロ−バルプロセッサ、142はグロ−バ
ルメモリを示す。グロ−バルメモリ142はグロ−バル
プロセッサ141と接続し、グロ−バルプロセッサ14
1及びモジュ−ル1〜128は、モジュ−ル入力バス1
40及びモジュ−ル出力バス150を介して、モジュ−
ル間バス130により、相互に接続する。
128はモジュ−ル、130はモジュ−ル間バス、14
0はモジュ−ル入力バス、150はモジュ−ル出力バ
ス、141はグロ−バルプロセッサ、142はグロ−バ
ルメモリを示す。グロ−バルメモリ142はグロ−バル
プロセッサ141と接続し、グロ−バルプロセッサ14
1及びモジュ−ル1〜128は、モジュ−ル入力バス1
40及びモジュ−ル出力バス150を介して、モジュ−
ル間バス130により、相互に接続する。
【0021】図2はモジュ−ル1〜128のモジュ−ル
の構成を示す図である。200はモジュ−ルでモジュ−
ル1〜128と同じものである。201はロ−カルプロ
セッサ、202はワ−キングメモリ203はアナログ−
ディジタル(A/D)変換器、204はニュ−ロンプロ
セッサ、209はモジュ−ル入力バッファを示す。21
0〜328はモジュ−ル入力バスで、それぞれグロ−バ
ルプロセッサ141、モジュ−ル1〜128の信号を入
力する。329はモジュ−ル出力バスで、330は通信
ユニットでモジュ−ル入力バス211〜328のそれぞ
れと接続する。400はモジュ−ル内部バスを示す。ロ
−カルプロセッサ201及びA/D変換器203は、シ
リコン(Si)基板上にシリコン基板をハンダバンプ等
により直接接続する従来技術のシリコン・オン・シリコ
ン技術により、モジュ−ル200上に接続することがで
きる。ワ−キングメモリ202とモジュ−ル内部バス4
00はロ−カルプロセッサ201と接続する。モジュ−
ル200内のニュ−ロンプロセッサ204及びA/D変
換器203、通信ユニット330、モジュ−ル入力バッ
ファ209はモジュ−ル内部バス400により相互接続
する。モジュ−ル入力バッファ209はモジュ−ル入力
バス210よりグロ−バルプロセッサ141からの信号
を取り込み、モジュ−ル内部バス400へ出力すること
ができる。ニュ−ロンプロセッサ204間は相互にモジ
ュ−ル内部バス400を使ってブロ−ドキャストを行な
うことにより通信することができる。211〜328は
モジュ−ル入力バスでそれぞれモジュ−ル1〜128の
出力信号を入力し、128個の通信ユニット330にそ
れぞれ取り込む。通信ユニット330に取り込まれた値
は、ニュ−ロンプロセッサ204と同様に、モジュ−ル
内部バス400を利用して、ブロ−ドキャスト通信を行
うことができる。モジュ−ル内部バス400にブロ−ド
キャストされる値はモジュ−ル出力バス329を介し
て、モジュ−ル間バス130へ出力できる。
の構成を示す図である。200はモジュ−ルでモジュ−
ル1〜128と同じものである。201はロ−カルプロ
セッサ、202はワ−キングメモリ203はアナログ−
ディジタル(A/D)変換器、204はニュ−ロンプロ
セッサ、209はモジュ−ル入力バッファを示す。21
0〜328はモジュ−ル入力バスで、それぞれグロ−バ
ルプロセッサ141、モジュ−ル1〜128の信号を入
力する。329はモジュ−ル出力バスで、330は通信
ユニットでモジュ−ル入力バス211〜328のそれぞ
れと接続する。400はモジュ−ル内部バスを示す。ロ
−カルプロセッサ201及びA/D変換器203は、シ
リコン(Si)基板上にシリコン基板をハンダバンプ等
により直接接続する従来技術のシリコン・オン・シリコ
ン技術により、モジュ−ル200上に接続することがで
きる。ワ−キングメモリ202とモジュ−ル内部バス4
00はロ−カルプロセッサ201と接続する。モジュ−
ル200内のニュ−ロンプロセッサ204及びA/D変
換器203、通信ユニット330、モジュ−ル入力バッ
ファ209はモジュ−ル内部バス400により相互接続
する。モジュ−ル入力バッファ209はモジュ−ル入力
バス210よりグロ−バルプロセッサ141からの信号
を取り込み、モジュ−ル内部バス400へ出力すること
ができる。ニュ−ロンプロセッサ204間は相互にモジ
ュ−ル内部バス400を使ってブロ−ドキャストを行な
うことにより通信することができる。211〜328は
モジュ−ル入力バスでそれぞれモジュ−ル1〜128の
出力信号を入力し、128個の通信ユニット330にそ
れぞれ取り込む。通信ユニット330に取り込まれた値
は、ニュ−ロンプロセッサ204と同様に、モジュ−ル
内部バス400を利用して、ブロ−ドキャスト通信を行
うことができる。モジュ−ル内部バス400にブロ−ド
キャストされる値はモジュ−ル出力バス329を介し
て、モジュ−ル間バス130へ出力できる。
【0022】本発明をよりコンパクトにするために、ニ
ュ−ロンプロセッサ204及びワ−キングメモリ202
等の欠陥に対して強いブロックは1つの大面積集積回路
601上に搭載する。そして、欠陥に対して弱い制御
部、本図ではロ−カルプロセッサ201、A/D変換器
203はシリコンオンシリコン技術で大面積集積回路6
01と接続する。
ュ−ロンプロセッサ204及びワ−キングメモリ202
等の欠陥に対して強いブロックは1つの大面積集積回路
601上に搭載する。そして、欠陥に対して弱い制御
部、本図ではロ−カルプロセッサ201、A/D変換器
203はシリコンオンシリコン技術で大面積集積回路6
01と接続する。
【0023】図3はニュ−ロンプロセッサ204の構成
を示す図である。また、ニュ−ロンプロセッサ204の
動作を制御する命令であるニュ−ロン命令460も示
す。ここで、401はモジュ−ル内部入力バス、402
はモジュ−ル内部出力バスで、470は命令バスで、図
2のモジュ−ル内部バス400に対応する。403はA
バス、404はBバス、405はCバス、411〜41
3はフリップフロップ(FF)、421はワ−キングレ
ジスタ、422は乗算器、423はALU、424はシ
フタ、425〜426はレジスタファイル、427は重
み値メモリ、428はトライステ−トバッファ、451
〜455は2−1または3−1のセレクタである。Aバ
ス403及びBバス404は乗算器422の入力信号で
ある。ALU423はセレクタ451とセレクタ452
を入力し、セレクタ451はFF411またはAバス4
03を選択し、ALU423の一方の入力とする。セレ
クタ452はBバス404または乗算器422を選択
し、ALU423のもう一方の入力とする。セレクタ4
53はALU423または乗算器422を選択し、Cバ
ス405に出力する。FF411はCバス405の値を
取り込むことができる。また、FF411はニュ−ロン
命令460によって、リセットすることができる。ワ−
キングレジスタ421及びレジスタファイル425〜4
26、重み値メモリ427はCバス405の値を取り込
むことができる。セレクタ455はCバス405及びレ
ジスタファイル425〜426を選択し、トライステ−
トバッファ428へ出力する。トライステ−トバッファ
428の出力端子は、モジュ−ル内部出力バス402へ
接続し、その制御はニュ−ロン命令460のニュ−ロン
プロセッサセレクト信号により行なう。これらの制御
は、すべて命令バス470より送られるニュ−ロン命令
460により行う。
を示す図である。また、ニュ−ロンプロセッサ204の
動作を制御する命令であるニュ−ロン命令460も示
す。ここで、401はモジュ−ル内部入力バス、402
はモジュ−ル内部出力バスで、470は命令バスで、図
2のモジュ−ル内部バス400に対応する。403はA
バス、404はBバス、405はCバス、411〜41
3はフリップフロップ(FF)、421はワ−キングレ
ジスタ、422は乗算器、423はALU、424はシ
フタ、425〜426はレジスタファイル、427は重
み値メモリ、428はトライステ−トバッファ、451
〜455は2−1または3−1のセレクタである。Aバ
ス403及びBバス404は乗算器422の入力信号で
ある。ALU423はセレクタ451とセレクタ452
を入力し、セレクタ451はFF411またはAバス4
03を選択し、ALU423の一方の入力とする。セレ
クタ452はBバス404または乗算器422を選択
し、ALU423のもう一方の入力とする。セレクタ4
53はALU423または乗算器422を選択し、Cバ
ス405に出力する。FF411はCバス405の値を
取り込むことができる。また、FF411はニュ−ロン
命令460によって、リセットすることができる。ワ−
キングレジスタ421及びレジスタファイル425〜4
26、重み値メモリ427はCバス405の値を取り込
むことができる。セレクタ455はCバス405及びレ
ジスタファイル425〜426を選択し、トライステ−
トバッファ428へ出力する。トライステ−トバッファ
428の出力端子は、モジュ−ル内部出力バス402へ
接続し、その制御はニュ−ロン命令460のニュ−ロン
プロセッサセレクト信号により行なう。これらの制御
は、すべて命令バス470より送られるニュ−ロン命令
460により行う。
【0024】図4は図2の通信ユニット330の実施例
の詳細を示す図である。ここで、501はバッファアレ
イ、502はバッファアレイ501の書き込みアドレス
ポインタ、503は1インクリメンタで、アドレスポイ
ンタ502の値を1づつ進める。504は読みだし用の
セレクタで読みだしアドレス505により選択されたバ
ッファアレイ501の値をモジュ−ル内部出力バス40
2へ出力する。読みだしアドレス505は命令バス47
0より入力する。
の詳細を示す図である。ここで、501はバッファアレ
イ、502はバッファアレイ501の書き込みアドレス
ポインタ、503は1インクリメンタで、アドレスポイ
ンタ502の値を1づつ進める。504は読みだし用の
セレクタで読みだしアドレス505により選択されたバ
ッファアレイ501の値をモジュ−ル内部出力バス40
2へ出力する。読みだしアドレス505は命令バス47
0より入力する。
【0025】図5は図2のロ−カルプロセッサ201か
ら見たメモリ空間を示す図で、552はそのメモリ空間
である。ここで、550はアドレス変換回路で、ロ−カ
ルプロセッサ201からのアクセス要求に対し、物理的
なアドレスに変換する。また、モジュ−ル上のメモリの
欠陥をさけ、リニア空間に見えるようにする。ロ−カル
プロセッサ201からは、モジュ−ル200上のワ−キ
ングメモリ202、レジスタファイル425〜426、
重み値メモリ427は同一メモリ空間上のデ−タとして
見ることができる。また、ワ−キングメモリ202上に
は、ニュ−ロン命令460のセットを保持しておき、ロ
−カルプロセッサ204はニュ−ロン命令460を順次
読みだし、ニュ−ロンプロセッサ204へ送り、その動
作を制御する。
ら見たメモリ空間を示す図で、552はそのメモリ空間
である。ここで、550はアドレス変換回路で、ロ−カ
ルプロセッサ201からのアクセス要求に対し、物理的
なアドレスに変換する。また、モジュ−ル上のメモリの
欠陥をさけ、リニア空間に見えるようにする。ロ−カル
プロセッサ201からは、モジュ−ル200上のワ−キ
ングメモリ202、レジスタファイル425〜426、
重み値メモリ427は同一メモリ空間上のデ−タとして
見ることができる。また、ワ−キングメモリ202上に
は、ニュ−ロン命令460のセットを保持しておき、ロ
−カルプロセッサ204はニュ−ロン命令460を順次
読みだし、ニュ−ロンプロセッサ204へ送り、その動
作を制御する。
【0026】図6は、モジュ−ル200内において複数
のニュ−ロンプロセッサ204を並列演算させる場合を
示す図である。本図に示すように、モジュ−ル内部バス
400はモジュ−ル内部入力バス401とモジュ−ル内
部出力バス402と命令バス470で構成する。各ニュ
−ロンプロセッサ204は命令バス470により、ロ−
カルプロセッサ201から送られるニュ−ロン命令46
0を入力する。各ニュ−ロンプロセッサ204はモジュ
−ル内部入力バス401とモジュ−ル内部出力バス40
2と接続する。ニュ−ロン命令460により、指定され
たニュ−ロンプロセッサ204はモジュ−ル内部出力バ
ス402にその出力を出力し、モジュ−ル内部入力バス
401を通して、各ニュ−ロンプロセッサ204へ送
る。各ニュ−ロンプロセッサ204はニュ−ロン命令4
60に従い、受け取ったデ−タを使って演算することが
できる。
のニュ−ロンプロセッサ204を並列演算させる場合を
示す図である。本図に示すように、モジュ−ル内部バス
400はモジュ−ル内部入力バス401とモジュ−ル内
部出力バス402と命令バス470で構成する。各ニュ
−ロンプロセッサ204は命令バス470により、ロ−
カルプロセッサ201から送られるニュ−ロン命令46
0を入力する。各ニュ−ロンプロセッサ204はモジュ
−ル内部入力バス401とモジュ−ル内部出力バス40
2と接続する。ニュ−ロン命令460により、指定され
たニュ−ロンプロセッサ204はモジュ−ル内部出力バ
ス402にその出力を出力し、モジュ−ル内部入力バス
401を通して、各ニュ−ロンプロセッサ204へ送
る。各ニュ−ロンプロセッサ204はニュ−ロン命令4
60に従い、受け取ったデ−タを使って演算することが
できる。
【0027】図7は図1のグロ−バルプロセッサ141
から見たメモリ空間を示す図で、602はそのメモリ空
間である。グロ−バルプロセッサ141からは、さらに
図5のロ−カルプロセッサ201から見たメモリ空間5
52の各々が連続したメモリ空間に見ることができる。
図5及び図6の構成とすることにより、ロ−カルプロセ
ッサ201及びグロ−バルプロセッサ141は非常に大
きなメモリ空間を持つスカラ−プロセッサとして動作す
ることが可能であり、かつ、内積演算などのニュ−ロン
的な動作も、そのメモリ空間上で行うことができる。
から見たメモリ空間を示す図で、602はそのメモリ空
間である。グロ−バルプロセッサ141からは、さらに
図5のロ−カルプロセッサ201から見たメモリ空間5
52の各々が連続したメモリ空間に見ることができる。
図5及び図6の構成とすることにより、ロ−カルプロセ
ッサ201及びグロ−バルプロセッサ141は非常に大
きなメモリ空間を持つスカラ−プロセッサとして動作す
ることが可能であり、かつ、内積演算などのニュ−ロン
的な動作も、そのメモリ空間上で行うことができる。
【0028】これまでは、このような並列計算機はホス
トコンピュ−タと接続され、ホストコンピュ−タ上でデ
−タを加工したり、作成したりした後、並列計算機側へ
デ−タ及びプログラムをロ−ドして、行わなければなら
なかった。本発明では、全く同一メモリ空間上でスカラ
−処理及び並列処理を行うことができる。
トコンピュ−タと接続され、ホストコンピュ−タ上でデ
−タを加工したり、作成したりした後、並列計算機側へ
デ−タ及びプログラムをロ−ドして、行わなければなら
なかった。本発明では、全く同一メモリ空間上でスカラ
−処理及び並列処理を行うことができる。
【0029】図8はモジュ−ル1〜128間の通信方法
を示す図である。
を示す図である。
【0030】まず、各モジュ−ル200でニュ−ラルモ
デルを演算させる場合について、説明する。
デルを演算させる場合について、説明する。
【0031】図9は相互結合型ニュ−ラルネットワ−ク
を1枚のモジュ−ル200上で実現する場合を示した図
で、以下にそのふるまい及び一般的なモデル式を説明す
る。
を1枚のモジュ−ル200上で実現する場合を示した図
で、以下にそのふるまい及び一般的なモデル式を説明す
る。
【0032】ニュ−ロンiの出力をxi、内部エネルギ
−をui、ニュ−ロンjに対する重み値をwijとする
と、各ニュ−ロンは状態方程式、 τdui/dt=−ui+Σwijxj+Ii (1) xi=f(ui) (2) で表せる。ここで、Iはいわゆる定電流源であるが、一
般には、常に、その最大値を出力するニュ−ロンを設
け、それに対して重み付けしてシナプス結合すること
で、省くことができる。また、2式のfは非線形関数が
用いられ、一般には、シグモイド関数、 f(ui)=1/(1−exp(−ui/T)) (3) などの、飽和関数が用いられる。
−をui、ニュ−ロンjに対する重み値をwijとする
と、各ニュ−ロンは状態方程式、 τdui/dt=−ui+Σwijxj+Ii (1) xi=f(ui) (2) で表せる。ここで、Iはいわゆる定電流源であるが、一
般には、常に、その最大値を出力するニュ−ロンを設
け、それに対して重み付けしてシナプス結合すること
で、省くことができる。また、2式のfは非線形関数が
用いられ、一般には、シグモイド関数、 f(ui)=1/(1−exp(−ui/T)) (3) などの、飽和関数が用いられる。
【0033】1〜3式をディジタル表現で計算する場
合、1式を時間刻み幅Δtで差分化する。すべてのニュ
−ロンの内部エネルギ−及び出力をそれぞれベクトル
u、xで、また、すべての重み値を行列Wで表し、時刻
tでのベクトルをut、xt、時刻t+1でのベクトルを
ut+1、xt+1とすると、 ut+1=ut−Δt/τ(Wxt−ut) (4) xt+1=f(ut+1) (5) の計算を各時間ごとに行なえばよい。4〜5式をモジュ
−ル200上で行なう方法を以下に示す。
合、1式を時間刻み幅Δtで差分化する。すべてのニュ
−ロンの内部エネルギ−及び出力をそれぞれベクトル
u、xで、また、すべての重み値を行列Wで表し、時刻
tでのベクトルをut、xt、時刻t+1でのベクトルを
ut+1、xt+1とすると、 ut+1=ut−Δt/τ(Wxt−ut) (4) xt+1=f(ut+1) (5) の計算を各時間ごとに行なえばよい。4〜5式をモジュ
−ル200上で行なう方法を以下に示す。
【0034】図10は4式のWxtを行なう場合のニュ
−ロンプロセッサ204の各演算回路及びメモリ、FF
の接続方法を示した図である。これらの接続はニュ−ロ
ン命令460により設定することができる。各ニュ−ロ
ンプロセッサ204を各ニュ−ロンに対応させる。各ニ
ュ−ロンプロセッサ204では、乗算器422はモジュ
−ル内部入力バス401と重み値メモリ427を入力す
る。ALU422は乗算器422とFF411を入力
し、その加算結果をFF411に書き込む。ロ−カルプ
ロセッサ201は順次、ニュ−ロンプロセッサ204を
選択し、選択されたニュ−ロンプロセッサ204はその
出力xtをモジュ−ル内部出力バス402に出力する。
予め、ニュ−ロンプロセッサ204は固有のアドレスを
割りふっておき、ロ−カルプロセッサはそのアドレスを
発生し、アドレスをデコ−ドすることにより、上記の制
御を行なうことができる。図2に示すように、各ニュ−
ロンプロセッサ204はxtをレジスタファイル425
に保持し、セレクタ455、トライステ−トバッファ4
28を通して、出力することができる。また、4式にお
けるΔt及びτ、utをワ−キングレジスタ421また
はレジスタファイル425、重み値メモリ427に保持
しておき、ALU423、乗算器422、シフタ42
4、ワ−キングレジスタ421を仕様して、4式を計算
することができる。5式の非線形変換は、例えば、チェ
ビシェフ近似、 xt+1=α0+α1ut+1+α3ut+1 3+α5ut+1 5+α7ut+1 7+・・・ (6) ここでα0〜α7は関数fによってきめる定数、などによ
って計算することができる。この計算も複数のニュ−ロ
ン命令460を行なうことにより可能である。
−ロンプロセッサ204の各演算回路及びメモリ、FF
の接続方法を示した図である。これらの接続はニュ−ロ
ン命令460により設定することができる。各ニュ−ロ
ンプロセッサ204を各ニュ−ロンに対応させる。各ニ
ュ−ロンプロセッサ204では、乗算器422はモジュ
−ル内部入力バス401と重み値メモリ427を入力す
る。ALU422は乗算器422とFF411を入力
し、その加算結果をFF411に書き込む。ロ−カルプ
ロセッサ201は順次、ニュ−ロンプロセッサ204を
選択し、選択されたニュ−ロンプロセッサ204はその
出力xtをモジュ−ル内部出力バス402に出力する。
予め、ニュ−ロンプロセッサ204は固有のアドレスを
割りふっておき、ロ−カルプロセッサはそのアドレスを
発生し、アドレスをデコ−ドすることにより、上記の制
御を行なうことができる。図2に示すように、各ニュ−
ロンプロセッサ204はxtをレジスタファイル425
に保持し、セレクタ455、トライステ−トバッファ4
28を通して、出力することができる。また、4式にお
けるΔt及びτ、utをワ−キングレジスタ421また
はレジスタファイル425、重み値メモリ427に保持
しておき、ALU423、乗算器422、シフタ42
4、ワ−キングレジスタ421を仕様して、4式を計算
することができる。5式の非線形変換は、例えば、チェ
ビシェフ近似、 xt+1=α0+α1ut+1+α3ut+1 3+α5ut+1 5+α7ut+1 7+・・・ (6) ここでα0〜α7は関数fによってきめる定数、などによ
って計算することができる。この計算も複数のニュ−ロ
ン命令460を行なうことにより可能である。
【0035】以上に示したように、ニュ−ロンプロセッ
サ204の動作は、ニュ−ロン命令460により、自由
に決めることができるため、任意のモデルを計算するこ
とができる。
サ204の動作は、ニュ−ロン命令460により、自由
に決めることができるため、任意のモデルを計算するこ
とができる。
【0036】図11、12は2つのモジュ−ル上で相互
結合型ニュ−ラルネットワ−クを実現する場合を示した
図である。例えば、ニュ−ロン11、12をモジュ−ル
1のニュ−ロンプロセッサ204に割りふり、ニュ−ロ
ン21、22をモジュ−ル2に割りふる。
結合型ニュ−ラルネットワ−クを実現する場合を示した
図である。例えば、ニュ−ロン11、12をモジュ−ル
1のニュ−ロンプロセッサ204に割りふり、ニュ−ロ
ン21、22をモジュ−ル2に割りふる。
【0037】各モジュ−ルは個別に、順次ニュ−ロンプ
ロセッサ204がモジュ−ル内部バス400を用いて、
ブロ−ドキャストする。それと同時に、モジュ−ル1の
モジュ−ル内部バス400に出力された値は、モジュ−
ル出力バス329を通して、モジュ−ル間バス130に
出力し、各モジュ−ル200の通信ユニット330へ送
られる。各モジュ−ル200では、自分以外の各モジュ
−ル200に対応する通信ユニット330を持ってお
り、それに対応するモジュ−ル間バス130に接続す
る。各通信ユニット330への書き込みは送り手側のタ
イミングで行う。図12では、モジュ−ル1では通信ユ
ニット330を読みだせば、モジュ−ル2上のニュ−ロ
ン21、22の出力を読むことができる。同様に、モジ
ュ−ル1上では、モジュ−ル2上のニュ−ロン11、1
2の出力を通信ユニット330を通して、読むことがで
きる。図4に示すように、通信ユニット330は、順次
モジュ−ル入力バス140により送られる値を書き込み
アドレスポインタ502の差すバッファに取り込む。書
き込むと同時にアドレスポインタ502を1インクリメ
ンタ503により1つ進める。また、バッファアレイ5
01の各出力はセレクタ504を通して、読みだしアド
レス505により指定してモジュ−ル内部入力バスへ読
みだすことができる。バッファアレイ501への書き込
むタイミングはモジュ−ル入力バス140によって、デ
−タと同時に送る。また、図1、図8に示すように、す
べてのモジュ−ル200とモジュ−ル間バス130を同
様に接続することで、全てのニュ−ロンプロセッサ20
4間の通信を行うことができる。また、各通信ユニット
330への書き込みは、送り手側のタイミングで行うの
で、各モジュ−ルは独自のタインミングと独自の命令セ
ットに従い、動作することができる。
ロセッサ204がモジュ−ル内部バス400を用いて、
ブロ−ドキャストする。それと同時に、モジュ−ル1の
モジュ−ル内部バス400に出力された値は、モジュ−
ル出力バス329を通して、モジュ−ル間バス130に
出力し、各モジュ−ル200の通信ユニット330へ送
られる。各モジュ−ル200では、自分以外の各モジュ
−ル200に対応する通信ユニット330を持ってお
り、それに対応するモジュ−ル間バス130に接続す
る。各通信ユニット330への書き込みは送り手側のタ
イミングで行う。図12では、モジュ−ル1では通信ユ
ニット330を読みだせば、モジュ−ル2上のニュ−ロ
ン21、22の出力を読むことができる。同様に、モジ
ュ−ル1上では、モジュ−ル2上のニュ−ロン11、1
2の出力を通信ユニット330を通して、読むことがで
きる。図4に示すように、通信ユニット330は、順次
モジュ−ル入力バス140により送られる値を書き込み
アドレスポインタ502の差すバッファに取り込む。書
き込むと同時にアドレスポインタ502を1インクリメ
ンタ503により1つ進める。また、バッファアレイ5
01の各出力はセレクタ504を通して、読みだしアド
レス505により指定してモジュ−ル内部入力バスへ読
みだすことができる。バッファアレイ501への書き込
むタイミングはモジュ−ル入力バス140によって、デ
−タと同時に送る。また、図1、図8に示すように、す
べてのモジュ−ル200とモジュ−ル間バス130を同
様に接続することで、全てのニュ−ロンプロセッサ20
4間の通信を行うことができる。また、各通信ユニット
330への書き込みは、送り手側のタイミングで行うの
で、各モジュ−ルは独自のタインミングと独自の命令セ
ットに従い、動作することができる。
【0038】また、モジュ−ル間バス130は配線長が
長く、高負荷となる可能性がある。その場合、モジュ−
ル200の内部は高速に動作するにも係らず、モジュ−
ル間バス130はそのスピ−ドに追従できない可能性が
ある。しかし、その場合でも、本発明はモジュ−ル間の
通信は非同期で行うことができるので、例えば、モジュ
−ル200の内部は100MHzで動作し、モジュ−ル
間バス130は50MHzで動作するということも可能
である。そのときのニュ−ロン間の通信は、時間方向に
間引いて通信すればよい。
長く、高負荷となる可能性がある。その場合、モジュ−
ル200の内部は高速に動作するにも係らず、モジュ−
ル間バス130はそのスピ−ドに追従できない可能性が
ある。しかし、その場合でも、本発明はモジュ−ル間の
通信は非同期で行うことができるので、例えば、モジュ
−ル200の内部は100MHzで動作し、モジュ−ル
間バス130は50MHzで動作するということも可能
である。そのときのニュ−ロン間の通信は、時間方向に
間引いて通信すればよい。
【0039】同様に複数のモジュ−ル間の通信も可能で
あり、通信ユニット330のバッファアレイ501を各
モジュ−ルのニュ−ロンプロセッサ204の個数だけ用
意すれば、全ニュ−ロンの完全結合が可能である。ま
た、通常は、モジュ−ル間はモジュ−ル内に比べ、結合
が少ないので、それよりは少ないバッファ数を用意して
おいてもよい。
あり、通信ユニット330のバッファアレイ501を各
モジュ−ルのニュ−ロンプロセッサ204の個数だけ用
意すれば、全ニュ−ロンの完全結合が可能である。ま
た、通常は、モジュ−ル間はモジュ−ル内に比べ、結合
が少ないので、それよりは少ないバッファ数を用意して
おいてもよい。
【0040】図13に本発明の利用例を示すが、本図に
示すように、各モジュ−ル1〜128を個別のアルゴリ
ズム及び個別のデ−タにより、学習及び自己組織化が可
能であり、また、それらは、並列に動作させることが可
能である。また、図11、12に示したように、複数の
モジュ−ル200を用いて、同一のモデルを動作させる
ことも可能である。図13では、モジュ−ル1〜2及び
127〜128をバックプロパゲ−ション(Back Propag
ation)により学習を行い、モジュ−ル3を学習ベクトル
量子化(Learning Vector Quantization)により学習を
行い、モジュ−ル4を競合学習により学習を行い、モジ
ュ−ル125〜126はホップフィ−ルド型ネットワ−
クとして使用する場合を示している。例えば、ホップフ
ィ−ルド型ネットワ−クにより、ノイズ除去及びエッジ
検出などの初期視覚を行い、その結果をバックプロパゲ
−ションにより学習を行う階層型ネットワ−クに入力
し、パタ−ン認識を行うことが可能である。また、ベク
トル量子化モデルにより、入力した文字画像の文字認識
を行い、その結果を階層型ネットワ−クにより音韻デ−
タを出力し、さらに、別のネットワ−クにより音声を合
成することが可能である。また、本図に示していないモ
ジュ−ルにおいても、同様に、利用することができる。
示すように、各モジュ−ル1〜128を個別のアルゴリ
ズム及び個別のデ−タにより、学習及び自己組織化が可
能であり、また、それらは、並列に動作させることが可
能である。また、図11、12に示したように、複数の
モジュ−ル200を用いて、同一のモデルを動作させる
ことも可能である。図13では、モジュ−ル1〜2及び
127〜128をバックプロパゲ−ション(Back Propag
ation)により学習を行い、モジュ−ル3を学習ベクトル
量子化(Learning Vector Quantization)により学習を
行い、モジュ−ル4を競合学習により学習を行い、モジ
ュ−ル125〜126はホップフィ−ルド型ネットワ−
クとして使用する場合を示している。例えば、ホップフ
ィ−ルド型ネットワ−クにより、ノイズ除去及びエッジ
検出などの初期視覚を行い、その結果をバックプロパゲ
−ションにより学習を行う階層型ネットワ−クに入力
し、パタ−ン認識を行うことが可能である。また、ベク
トル量子化モデルにより、入力した文字画像の文字認識
を行い、その結果を階層型ネットワ−クにより音韻デ−
タを出力し、さらに、別のネットワ−クにより音声を合
成することが可能である。また、本図に示していないモ
ジュ−ルにおいても、同様に、利用することができる。
【0041】図14の本発明の利用例には、機能的な表
現で動作を表わしている。ロボットの頭脳として、利用
する場合を示している。106程度のプロセッサ数で
は、到底ロボットの頭脳をすべて作ることはできない
が、その一部の動作を行うことができる。例えば、モジ
ュ−ル1により、入力した画像の特徴検出等を行い、モ
ジュ−ル3の画像の記憶と比較する。また、入力した音
声信号をモジュ−ル2、4により認識する。画像認識結
果、音声認識結果または両結果の総合した結果に対し
て、モジュ−ル127が動作パタ−ンを発生する。モジ
ュ−ル125には動作パタ−ンを記憶させておく。モジ
ュ−ル128を使って、動作パタ−ンから実際のロボッ
トの関節を動かす信号へ変換する。また、ロボットが行
動した結果をモジュ−ル126により評価し、よりスム
−ズな動作パタ−ンを学習して行くことができる。
現で動作を表わしている。ロボットの頭脳として、利用
する場合を示している。106程度のプロセッサ数で
は、到底ロボットの頭脳をすべて作ることはできない
が、その一部の動作を行うことができる。例えば、モジ
ュ−ル1により、入力した画像の特徴検出等を行い、モ
ジュ−ル3の画像の記憶と比較する。また、入力した音
声信号をモジュ−ル2、4により認識する。画像認識結
果、音声認識結果または両結果の総合した結果に対し
て、モジュ−ル127が動作パタ−ンを発生する。モジ
ュ−ル125には動作パタ−ンを記憶させておく。モジ
ュ−ル128を使って、動作パタ−ンから実際のロボッ
トの関節を動かす信号へ変換する。また、ロボットが行
動した結果をモジュ−ル126により評価し、よりスム
−ズな動作パタ−ンを学習して行くことができる。
【0042】また、本発明によれば、106以上のプロ
セッサ数からなるシステムも同様に可能である。図2に
示すように、各モジュ−ルには、ロ−カルプロセッサ2
01を搭載するので、これにより、従来のAI(人工知
能)技術にある記号処理や定性推論を行うことも可能で
ある。また、ニュ−ロンプロセッサを利用して、ファジ
−理論のメンバ−シップ関数を決定し、ロ−カルプロセ
ッサ201またはグロ−バルプロセッサ141により、
ファジ−理論による判断決定を行うこともできる。ある
モジュ−ルでは、ニュ−ロンモデルによる情報処理を行
い、別のモジュ−ルでは、ファジ−理論による情報処理
を並列に行うことも可能である。
セッサ数からなるシステムも同様に可能である。図2に
示すように、各モジュ−ルには、ロ−カルプロセッサ2
01を搭載するので、これにより、従来のAI(人工知
能)技術にある記号処理や定性推論を行うことも可能で
ある。また、ニュ−ロンプロセッサを利用して、ファジ
−理論のメンバ−シップ関数を決定し、ロ−カルプロセ
ッサ201またはグロ−バルプロセッサ141により、
ファジ−理論による判断決定を行うこともできる。ある
モジュ−ルでは、ニュ−ロンモデルによる情報処理を行
い、別のモジュ−ルでは、ファジ−理論による情報処理
を並列に行うことも可能である。
【0043】次に本発明の実装方法、組立て方法及び冷
却方法について、図15〜18を用いて説明する。
却方法について、図15〜18を用いて説明する。
【0044】図15はモジュ−ル200のシリコン・オ
ン・シリコンを説明する図である。601は大面積集積
回路、602は集積回路を示す。603は大面積集積回
路601と集積回路602を接続するハンダのバンプで
ある。605はバンプ603を接続するパッドである。
本図に示すように、集積回路602と大面積集積回路6
01の接続する信号線及び電源給電のパッドを向い合わ
せバンプを介して、固定及び信号線の接続を行うことが
できる。
ン・シリコンを説明する図である。601は大面積集積
回路、602は集積回路を示す。603は大面積集積回
路601と集積回路602を接続するハンダのバンプで
ある。605はバンプ603を接続するパッドである。
本図に示すように、集積回路602と大面積集積回路6
01の接続する信号線及び電源給電のパッドを向い合わ
せバンプを介して、固定及び信号線の接続を行うことが
できる。
【0045】図16はボ−ドと図15の大面積集積回路
601の接続方法を説明する図である。605はパッ
ド、606はコネクタで別のボ−ドと接続するためにあ
る。610は接続用ピンで別のボ−ド606と接続し、
スタックすることができる。図15で示したシリコンと
シリコンの接続方法と同様に、ボ−ド上のパッド605
と大面積集積回路601上のパッド605を向い合わ
せ、バンプ603により接続することができる。
601の接続方法を説明する図である。605はパッ
ド、606はコネクタで別のボ−ドと接続するためにあ
る。610は接続用ピンで別のボ−ド606と接続し、
スタックすることができる。図15で示したシリコンと
シリコンの接続方法と同様に、ボ−ド上のパッド605
と大面積集積回路601上のパッド605を向い合わ
せ、バンプ603により接続することができる。
【0046】図17はボ−ド間の接続方法及び組立て方
法を示す図である。本図で、800は接続ボ−ドで、8
01はボ−ドを示す。805、820はコネクタを示
す。ボ−ド801上には、グロ−バルプロセッサ141
とグロ−バルメモリ142を載せる。本図では、4枚の
ボ−ド606をスタック状に接続したものを示した図で
あるが、さらに、多くのボ−ドも同様に接続することが
できる。ボ−ド606は接続用ピン610で接続し、さ
らに、4辺に接続ボ−ド800を接続する。ボ−ド60
6のコネクタ607と接続ボ−ド800のコネクタ80
5をそれぞれ対応させて接続する。さらに、接続ボ−ド
800のコネクタ820とボ−ド801のコネクタ80
5をそれぞれ対応させて接続する。
法を示す図である。本図で、800は接続ボ−ドで、8
01はボ−ドを示す。805、820はコネクタを示
す。ボ−ド801上には、グロ−バルプロセッサ141
とグロ−バルメモリ142を載せる。本図では、4枚の
ボ−ド606をスタック状に接続したものを示した図で
あるが、さらに、多くのボ−ドも同様に接続することが
できる。ボ−ド606は接続用ピン610で接続し、さ
らに、4辺に接続ボ−ド800を接続する。ボ−ド60
6のコネクタ607と接続ボ−ド800のコネクタ80
5をそれぞれ対応させて接続する。さらに、接続ボ−ド
800のコネクタ820とボ−ド801のコネクタ80
5をそれぞれ対応させて接続する。
【0047】次に各集積回路の冷却方法について説明す
る。図17の構成では、各ボ−ド間の信号線を4辺を使
ってボ−ド間接続を行うので、非常に多くのボ−ド間接
続を行うことができる。しかし、図17からわかるよう
に、内部が密閉されるため、動作中高温となる可能性が
ある。その場合は、図18に示す方法により、集積回路
を冷却することができる。本図で、901は冷却水、9
10は冷却板を示す。ボ−ド606間を接続する接続用
ピン610を冷却水901の通路とする。各ボ−ド60
6では、接続用ピン610から冷却水901を大面積回
路601に接続する冷却板910に引き込む。使用され
た冷却水901は反対側の接続用ピン610に戻す。こ
のようにして、密閉された内部の集積回路を冷却させる
ことができる。
る。図17の構成では、各ボ−ド間の信号線を4辺を使
ってボ−ド間接続を行うので、非常に多くのボ−ド間接
続を行うことができる。しかし、図17からわかるよう
に、内部が密閉されるため、動作中高温となる可能性が
ある。その場合は、図18に示す方法により、集積回路
を冷却することができる。本図で、901は冷却水、9
10は冷却板を示す。ボ−ド606間を接続する接続用
ピン610を冷却水901の通路とする。各ボ−ド60
6では、接続用ピン610から冷却水901を大面積回
路601に接続する冷却板910に引き込む。使用され
た冷却水901は反対側の接続用ピン610に戻す。こ
のようにして、密閉された内部の集積回路を冷却させる
ことができる。
【0048】次に図19を用いて、大面積集積回路を高
速に動作させるために、必要なクロックのスキュ−を低
減するための、クロック給電方法を説明する。図2に示
すような大面積の集積回路で同期した動作を行うには、
信号遅延のため大きなクロックスキュ−が生じ、高速動
作させるのは難しい。そのような場合、図19に示すよ
うに、外部から入力したクロック信号をまず、大面積集
積回路中央へ引き込む、さらに、中心から端辺までの半
分の位置、さらに半分の位置とクロック信号線引き回
し、大面積集積回路内のどの位置でも、等長に近く配線
することができる。そのため、大面積集積回路内のクロ
ックスキュ−を低減することができる。
速に動作させるために、必要なクロックのスキュ−を低
減するための、クロック給電方法を説明する。図2に示
すような大面積の集積回路で同期した動作を行うには、
信号遅延のため大きなクロックスキュ−が生じ、高速動
作させるのは難しい。そのような場合、図19に示すよ
うに、外部から入力したクロック信号をまず、大面積集
積回路中央へ引き込む、さらに、中心から端辺までの半
分の位置、さらに半分の位置とクロック信号線引き回
し、大面積集積回路内のどの位置でも、等長に近く配線
することができる。そのため、大面積集積回路内のクロ
ックスキュ−を低減することができる。
【0049】以上の接続方法、組立て方法及び冷却方法
により、図1の構成を実現することができる。
により、図1の構成を実現することができる。
【0050】以上は本発明上でニュ−ラルネットモデル
を高速に演算させる場合について説明した。次に、他の
情報処理を行う場合の実施例を示す。
を高速に演算させる場合について説明した。次に、他の
情報処理を行う場合の実施例を示す。
【0051】一般的に、物理現象は、微分方程式により
表わされ、それを解くことにより、計算機上でシミュレ
−ションを行っている場合が多い。これらの方程式は、
積分公式や差分方程式化により、各時間ステップごとの
非線形方程式に表わし、さらに、ニュ−トン・ラプソン
法等により非線形方程式の解を求め、各時間ごとの状態
を決定する。また、ニュ−トンン・ラプソン法の各反復
ステップでは、線形化された連立方程式、 Ax=b (6) を解くことになる。ここで、Aはn×nの行列、bはn
次ベクトル、xは求めるべき未知数であるn次ベクトル
である。nは求める系の次元である。6式の方程式の解
法として、いくつかの方法があるが、ここでは、線形緩
和法による場合について説明する。線形緩和法の一つと
して、ヤコビ法がある。ヤコビ法では、行列Aを下三角
成分Lと対角成分Dと上三角成分Uに分ける。
表わされ、それを解くことにより、計算機上でシミュレ
−ションを行っている場合が多い。これらの方程式は、
積分公式や差分方程式化により、各時間ステップごとの
非線形方程式に表わし、さらに、ニュ−トン・ラプソン
法等により非線形方程式の解を求め、各時間ごとの状態
を決定する。また、ニュ−トンン・ラプソン法の各反復
ステップでは、線形化された連立方程式、 Ax=b (6) を解くことになる。ここで、Aはn×nの行列、bはn
次ベクトル、xは求めるべき未知数であるn次ベクトル
である。nは求める系の次元である。6式の方程式の解
法として、いくつかの方法があるが、ここでは、線形緩
和法による場合について説明する。線形緩和法の一つと
して、ヤコビ法がある。ヤコビ法では、行列Aを下三角
成分Lと対角成分Dと上三角成分Uに分ける。
【0052】 A=L+D+U (7) ある初期値x0により以下の反復式、 xk+1=1/D(b−(L+U)xk) (8) を反復して収束すれば、その値が解となる。8式を本発
明に解く場合、各ニュ−ロンプロセッサ204にベクト
ルxの各要素を計算させる。各ニュ−ロンプロセッサ2
04の重み値メモリ427には、行列Aの各行要素を格
納する。対角要素だけは,予め逆数を求めておき、ワ−
キングレジスタ421に格納しておいてもよい。また、
ベクトルbの要素もワ−キングレジスタ421または重
み値メモリ427のいずれかに格納しておけばよい。前
回の反復結果xkはレジスタファイル425に格納して
おく。ロ−カルプロセッサ201は順次、各ニュ−ロン
プロセッサ204を指定し、前回の反復結果xkをモジ
ュ−ル内部バス400にブロ−ドキャストしていく、各
ニュ−ロンプロセッサ204では、8式の(L+U)x
kに対応する行列Aの要素を重み値メモリ427から読
みだし、乗算器422により乗算を行い、ALU423
とFF411を使用して、順次累積加算することにより
計算することができる。一通りブロ−ドキャストが終了
すれば、8式の(L+U)xkの計算結果がわかり、さ
らに、8式の他の計算を行い、最後に対角成分の逆数を
掛けることにより、この回の反復結果xk+1を決めるこ
とができる。その結果は、レジスタファイル425に書
き込み、次の反復に進む。ある程度反復回数が進んだと
ころで、収束判定を行い、収束していれば、6式が解け
たことになる。また、複数のモジュ−ル200を用い
て、大規模な方程式に対しても、ニュ−ラルネットモデ
ル同様に、計算することができる。
明に解く場合、各ニュ−ロンプロセッサ204にベクト
ルxの各要素を計算させる。各ニュ−ロンプロセッサ2
04の重み値メモリ427には、行列Aの各行要素を格
納する。対角要素だけは,予め逆数を求めておき、ワ−
キングレジスタ421に格納しておいてもよい。また、
ベクトルbの要素もワ−キングレジスタ421または重
み値メモリ427のいずれかに格納しておけばよい。前
回の反復結果xkはレジスタファイル425に格納して
おく。ロ−カルプロセッサ201は順次、各ニュ−ロン
プロセッサ204を指定し、前回の反復結果xkをモジ
ュ−ル内部バス400にブロ−ドキャストしていく、各
ニュ−ロンプロセッサ204では、8式の(L+U)x
kに対応する行列Aの要素を重み値メモリ427から読
みだし、乗算器422により乗算を行い、ALU423
とFF411を使用して、順次累積加算することにより
計算することができる。一通りブロ−ドキャストが終了
すれば、8式の(L+U)xkの計算結果がわかり、さ
らに、8式の他の計算を行い、最後に対角成分の逆数を
掛けることにより、この回の反復結果xk+1を決めるこ
とができる。その結果は、レジスタファイル425に書
き込み、次の反復に進む。ある程度反復回数が進んだと
ころで、収束判定を行い、収束していれば、6式が解け
たことになる。また、複数のモジュ−ル200を用い
て、大規模な方程式に対しても、ニュ−ラルネットモデ
ル同様に、計算することができる。
【0053】また、ニュ−ラルネットモデル1〜3式
は、まさに連立非線形微分方程式であり、前述の計算方
法は前進オイラ−法により積分しているものである。こ
のように、本発明は、ニュ−ラルネットモデルを高速に
計算するだけでなく、一般の数値シミュレ−ション等に
も広く適応できるものである。その他、画像処理等に
も、適応することができる。例えば、動画像を入力し、
各フレ−ムを各モジュ−ルに順次ロ−ドする。各モジュ
−ルでは、各フレ−ムのノイズリダクション及びエッジ
検出等を行う。さらに、過去のフレ−ムの情報を通信ユ
ニット330により読むことができるので、オプティカ
ルフロ−など、動画像の情報処理に必要な情報を計算す
ることができる。
は、まさに連立非線形微分方程式であり、前述の計算方
法は前進オイラ−法により積分しているものである。こ
のように、本発明は、ニュ−ラルネットモデルを高速に
計算するだけでなく、一般の数値シミュレ−ション等に
も広く適応できるものである。その他、画像処理等に
も、適応することができる。例えば、動画像を入力し、
各フレ−ムを各モジュ−ルに順次ロ−ドする。各モジュ
−ルでは、各フレ−ムのノイズリダクション及びエッジ
検出等を行う。さらに、過去のフレ−ムの情報を通信ユ
ニット330により読むことができるので、オプティカ
ルフロ−など、動画像の情報処理に必要な情報を計算す
ることができる。
【0054】次に、本発明をワ−クステ−ションに利用
した例を図20に示す。本図で、1100はリスクプロ
セッサ、1101はI/Oプロセッサ、1102はディ
スクコントロ−ラ、1103はグラフィックコントロ−
ラを示す。大面積集積回路601上にリスクプロセッサ
1100及びI/Oプロセッサ1101等を図15に示
したシリコンオンシリコンで接着する。リスクプロセッ
サ1100は大面積集積回路601のワ−キングメモリ
202にオペレ−ティングシステム等のプログラムを保
持し、その命令に従い、動作する。また、ニュ−ロンプ
ロセッサ204の出力及びロ−カルメモリもワ−キング
メモリ202と同様のメモリ空間として見ることができ
る。このような構成としたワ−クステ−ションでは、上
記のニュ−ラルネットの計算はもとより、物理シミュレ
−ション等の数値演算などニュ−ロンプロセッサ204
の演算器を使って、高速に行うことができる。
した例を図20に示す。本図で、1100はリスクプロ
セッサ、1101はI/Oプロセッサ、1102はディ
スクコントロ−ラ、1103はグラフィックコントロ−
ラを示す。大面積集積回路601上にリスクプロセッサ
1100及びI/Oプロセッサ1101等を図15に示
したシリコンオンシリコンで接着する。リスクプロセッ
サ1100は大面積集積回路601のワ−キングメモリ
202にオペレ−ティングシステム等のプログラムを保
持し、その命令に従い、動作する。また、ニュ−ロンプ
ロセッサ204の出力及びロ−カルメモリもワ−キング
メモリ202と同様のメモリ空間として見ることができ
る。このような構成としたワ−クステ−ションでは、上
記のニュ−ラルネットの計算はもとより、物理シミュレ
−ション等の数値演算などニュ−ロンプロセッサ204
の演算器を使って、高速に行うことができる。
【0055】
【発明の効果】本発明によれば、非常に多くのニュ−ロ
ンから構成されるニュ−ロコンピュ−タを実現できる。
また、アプリケ−ションの開発もモジュ−ル化して、シ
ステムを構築して行くことができるので、非常に効率よ
く行うことができる。また、ニュ−ロコンピュ−タのみ
ならず、物理シミュレ−ションも高速に計算することが
できる。ワ−クステ−ションのエンジンに利用すれば、
ワ−クステ−ションのアプリケ−ションを広げることが
できる。
ンから構成されるニュ−ロコンピュ−タを実現できる。
また、アプリケ−ションの開発もモジュ−ル化して、シ
ステムを構築して行くことができるので、非常に効率よ
く行うことができる。また、ニュ−ロコンピュ−タのみ
ならず、物理シミュレ−ションも高速に計算することが
できる。ワ−クステ−ションのエンジンに利用すれば、
ワ−クステ−ションのアプリケ−ションを広げることが
できる。
【図1】本発明の全体構成を示す図。
【図2】本発明の1モジュ−ルをウェハスケ−ル集積回
路で実現した例を示す図。
路で実現した例を示す図。
【図3】ニュ−ロンプロセッサの構成例を示した図。
【図4】モジュ−ル間通信を行うための通信ユニットを
示した図。
示した図。
【図5】ロ−カルプロセッサのメモリ空間を説明する
図。
図。
【図6】ブロ−ドキャストア−キテクチャを説明する
図。
図。
【図7】グロ−バルプロセッサのメモリ空間を説明する
図。
図。
【図8】モジュ−ル間の通信方法を示す図。
【図9】相互結合型ニュ−ラルネットワ−クを示した
図。
図。
【図10】相互結合型ニュ−ラルネットワ−クのブロ−
ドキャストア−キテクチャ上での演算方法を示す図。
ドキャストア−キテクチャ上での演算方法を示す図。
【図11】2つのモジュ−ル上で相互結合型ニュ−ラル
ネットワ−クを演算される例を示した図。
ネットワ−クを演算される例を示した図。
【図12】2つのモジュ−ル上で相互結合型ニュ−ラル
ネットワ−クを演算される例を示した図。
ネットワ−クを演算される例を示した図。
【図13】本発明の利用例を示す図。
【図14】本発明をロボットの頭脳の一部に利用した例
を示す図。
を示す図。
【図15】シリコン・オン・シリコン技術を説明する
図。
図。
【図16】シリコン・オン・ボ−ド技術を説明する図。
【図17】ボ−ド間接続を説明する図。
【図18】冷却方法を説明する図。
【図19】クロック等長配線を説明する図。
【図20】本発明をワ−クステ−ションに利用した例を
示す図。
示す図。
1〜128・・・モジュ−ル、130・・・モジュ−ル
間バス、140・・・モジュ−ル入力バス、141・・
・グロ−バルプロセッサ、142・・・グロ−バルメモ
リ、150・・・モジュ−ル出力バス、200・・・モ
ジュ−ル、201・・・ロ−カルプロセッサ、202・
・・ワ−キングメモリ、203・・・A/D(アナログ
デジタル)変換器、204・・・ニュ−ロンプロセッ
サ、209・・・モジュ−ル入力バッファ、210〜3
28・・・モジュ−ル入力バス、329・・・モジュ−
ル出力バス、330・・・通信ユニット、400・・・
モジュ−ル内部バス、601・・・大面積集積回路。
間バス、140・・・モジュ−ル入力バス、141・・
・グロ−バルプロセッサ、142・・・グロ−バルメモ
リ、150・・・モジュ−ル出力バス、200・・・モ
ジュ−ル、201・・・ロ−カルプロセッサ、202・
・・ワ−キングメモリ、203・・・A/D(アナログ
デジタル)変換器、204・・・ニュ−ロンプロセッ
サ、209・・・モジュ−ル入力バッファ、210〜3
28・・・モジュ−ル入力バス、329・・・モジュ−
ル出力バス、330・・・通信ユニット、400・・・
モジュ−ル内部バス、601・・・大面積集積回路。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山田 稔 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 坂口 隆宏 東京都小平市上水本町5丁目20番1号 日 立超エル・エス・アイ・エンジニアリング 株式会社内 (72)発明者 橋本 雅 東京都小平市上水本町5丁目20番1号 日 立超エル・エス・アイ・エンジニアリング 株式会社内
Claims (30)
- 【請求項1】内積演算を行なう複数のニューロンプロセ
ッサを第1の集積回路基板上に集積し、 上記複数のニューロンプロセッサを制御する制御プロセ
ッサを第2の集積回路基板上に集積し、 上記第1の集積回路基板上に上記第2の集積回路基板を
搭載して単一のモジュール構成としたことを特徴とする
情報処理装置。 - 【請求項2】請求項1の情報処理装置において、上記第
1及び第2の集積回路基板をシリコンで構成し、シリコ
ン・オン・シリコンにより上記第2の集積回路基板を搭
載したことを特徴とする情報処理装置。 - 【請求項3】請求項1の情報処理装置において、上記複
数のニューロンプロセッサは、夫々演算器と重み値を保
持するメモリを備え、上記複数のニューロンプロセッサ
を相互に接続するデータバスを備えたことを特徴とする
情報処理装置。 - 【請求項4】請求項1の情報処理装置において、上記複
数のニューロンプロセッサに対する動作命令を格納する
エリアを有するワーキングメモリを上記第1の集積回路
基板上に集積したことを特徴とする情報処理装置。 - 【請求項5】請求項1の情報処理装置において、アナロ
グ信号を入力しディジタル信号に変換するA/D変換器
を第3の集積回路基板上に集積し、上記第1の集積回路
基板上に上記第3の集積回路基板を搭載して単一のモジ
ュール構成としたことを特徴とする情報処理装置。 - 【請求項6】重み値を保持するメモリ、その重み値を用
いて内積演算を行う演算器、及びその内積演算の結果を
保持する手段を備えた複数のニューロンプロセッサと、 上記複数のニューロンプロセッサを相互に接続するデー
タバスと、 少なくとも上記複数のニューロンプロセッサに対する動
作命令を格納するワーキングメモリと、 上記動作命令を上記複数のニューロンプロセッサに出力
するための命令バスとを少なくとも第1の集積回路基板
上に集積し、 上記複数のニューロンプロセッサを制御する制御プロセ
ッサを第2の集積回路基板上に集積し、 上記第1の集積回路基板上に上記第2の集積回路基板を
搭載して単一のモジュール構成としたことを特徴とする
情報処理装置。 - 【請求項7】請求項6の情報処理装置において、上記制
御プロセッサは、上記ワーキングメモリと、上記複数の
ニューロンプロセッサの内積演算の結果を保持する手段
のメモリとを同一のメモリ空間としてアクセスすること
を特徴とする情報処理装置。 - 【請求項8】演算器と情報を保持するメモリを備えた複
数の機能ブロックと、上記複数の機能ブロックを相互に
接続し、データを通信する手段を第1の集積回路基板上
に集積し、 上記複数の機能ブロックに対する動作命令の発生を制御
し、上記複数の機能ブロックとメモリ空間を共有するス
カラープロセッサを第2の集積回路基板上に集積し、 上記第1の集積回路基板上に上記第2の集積回路基板を
搭載して単一のモジュール構成としたことを特徴とする
情報処理装置。 - 【請求項9】相互に接続された複数の第1の機能ブロッ
クと、上記複数の第1の機能ブロックに対して同一の動
作命令を発生する第2の機能ブロックとを備えた情報処
理装置を、複数個相互に接続したことを特徴とする情報
処理システム。 - 【請求項10】請求項9の情報処理システムにおいて、
上記情報処理装置は、演算器と情報を保持するメモリを
夫々備えた上記複数の第1の機能ブロックと、上記複数
の第1の機能ブロックを相互に接続するデータバスと、
少なくとも上記複数の第1の機能ブロックに対する動作
命令セットを格納し、上記複数の第1の機能ブロックを
制御する上記第2の機能ブロックと、上記動作命令セッ
トを上記複数の第1の機能ブロックに出力するための命
令バスとを備え、上記複数の第1の機能ブロックは、上
記動作命令セットに従って動作することを特徴とする情
報処理システム。 - 【請求項11】請求項9の情報処理システムにおいて、
上記情報処理装置の上記複数の第1の機能ブロックを単
一の集積回路基板上に集積したことを特徴とする情報処
理システム。 - 【請求項12】請求項9の情報処理システムにおいて、
各々の上記情報処理装置は、同一または異なるニュ−ラ
ルネットモデルの計算を行うことを特徴とする情報処理
システム。 - 【請求項13】請求項12の情報処理システムにおい
て、上記ニューラルネットモデルとして、相互結合型ニ
ューラルネットワークを用いることを特徴とする情報処
理システム。 - 【請求項14】データの演算を行う複数の機能ブロック
を備え、上記複数の機能ブロックは単一の命令セットに
従って単一命令複数デ−タ流方式(SIMD)で動作す
る情報処理装置を複数個設け、 上記複数個の情報処理装置間を非同期に通信し、複数命
令複数デ−タ流方式(MIMD)で動作させることを特
徴とする情報処理システム。 - 【請求項15】請求項14の情報処理システムにおい
て、各々の上記情報処理装置は、当該情報処理装置以外
の他の情報処理装置より順次入力される信号を順次記憶
する記憶手段と、上記複数の機能ブロックと上記順次記
憶する記憶手段とを相互に接続するデータバスと、上記
データバス上に出力された所定の機能ブロックの出力を
他の情報処理装置へ順次出力する手段とを備え、上記情
報処理装置間は非同期に相互通信することを特徴とする
情報処理システム。 - 【請求項16】請求項15の情報処理システムにおい
て、各々の上記情報処理装置は、単一命令複数デ−タ流
方式(SIMD)で動作する上記複数の機能ブロックに
対し、上記単一命令セットの発生を制御するスカラ−プ
ロセッサを備えたことを特徴とする情報処理システム。 - 【請求項17】請求項14の情報処理システムにおい
て、上記情報処理装置の上記複数の機能ブロックを単一
の集積回路基板上に集積したことを特徴とする情報処理
システム。 - 【請求項18】内積演算を行う複数のニューロンプロセ
ッサを備え、上記複数のニューロンプロセッサは単一の
命令セットに従って単一命令複数デ−タ流方式(SIM
D)で動作する情報処理装置を複数個設け、 上記複数個の情報処理装置間を非同期に通信し、複数命
令複数デ−タ流方式(MIMD)で動作させることを特
徴とする情報処理システム。 - 【請求項19】請求項18の情報処理システムにおい
て、上記複数個の上記情報処理装置のうち少なくとも2
個の情報処理装置は、同一のニューラルネットモデルを
計算を行うことを特徴とする情報処理システム。 - 【請求項20】請求項19の情報処理システムにおい
て、上記ニューラルネットモデルとして、相互結合型ニ
ューラルネットワークを用いることを特徴とする情報処
理システム。 - 【請求項21】内積演算を行う複数のニューロンプロセ
ッサと、上記複数のニューロンプロセッサに対する単一
の命令セットの発生を制御するスカラ−プロセッサとを
備え、上記スカラープロセッサは上記複数のニューロン
プロセッサのメモリ空間を含んでアクセスし、単一命令
複数デ−タ流方式(SIMD)で動作する情報処理装置
を複数個設け、 上記複数個の情報処理装置間を非同期に通信し、複数命
令複数デ−タ流方式(MIMD)で動作させることを特
徴とする情報処理システム。 - 【請求項22】内積演算を行う複数のニューロンプロセ
ッサと、上記複数のニューロンプロセッサに対する単一
の命令セットの発生を制御する第1のスカラ−プロセッ
サとを備え、単一命令複数デ−タ流方式(SIMD)で
動作する情報処理装置を複数個設け、 上記複数個の情報処理装置に対する複数の命令セットの
発生を制御する第2のスカラープロセッサを備え、 上記複数個の情報処理装置間を非同期に通信し、複数命
令複数デ−タ流方式(MIMD)で動作させ、 上記第2のスカラープロセッサは、上記第1のスカラー
プロセッサ、及び上記複数のニューロンプロセッサのメ
モリ空間を含んでアクセスすることを特徴とする情報処
理システム。 - 【請求項23】情報を保持するメモリ、その情報を用い
て演算を行う演算器、及びその演算の結果を保持する手
段を備えた複数の機能ブロックと、上記複数の機能ブロ
ックに対する単一の命令セットの発生を制御する第1の
スカラ−プロセッサと、上記単一の命令セットを格納す
るエリアを有し、上記第1のスカラ−プロセッサのワー
キング用のメモリとを備え、単一命令複数デ−タ流方式
(SIMD)で動作する情報処理装置を複数個設け、 上記複数個の情報処理装置に対する複数の命令セットの
発生を制御する第2のスカラープロセッサと、上記複数
の命令セットを格納するエリアを有し、上記第2のスカ
ラープロセッサのワーキング用のメモリとを備え、 上記複数個の情報処理装置間を非同期に通信し、複数命
令複数デ−タ流方式(MIMD)で動作させ、 上記第2のスカラープロセッサは、上記第2のスカラー
プロセッサのワーキング用のメモリと、上記複数の機能
ブロックの演算の結果を保持する手段のメモリと、上記
第1のスカラ−プロセッサのワーキング用のメモリを同
一のメモリ空間としてアクセスすることを特徴とする情
報処理システム。 - 【請求項24】請求項23の情報処理システムにおい
て、上記情報処理装置の上記複数の機能ブロックを、単
一の集積回路基板上に集積したことを特徴とする情報処
理システム。 - 【請求項25】請求項24の情報処理システムにおい
て、各々の上記情報処理装置は、同一または異なるニュ
−ラルネットモデルの計算を行うことを特徴とする情報
処理システム。 - 【請求項26】請求項25の情報処理システムにおい
て、上記ニューラルネットモデルとして、相互結合型ニ
ューラルネットワークを用いることを特徴とする情報処
理システム。 - 【請求項27】演算器と情報を保持するメモリを備えた
複数の機能ブロックと、 上記複数の機能ブロックを相互に接続するデータバス
と、 少なくとも上記複数の機能ブロックに対する動作命令を
格納するワーキングメモリと、 上記動作命令を上記複数の機能ブロックに出力するため
の命令バスとを少なくとも第1の集積回路基板上に集積
し、 上記複数の機能ブロックに対する動作命令の発生を制御
するスカラープロセッサを第2の集積回路基板上に集積
し、 外部のI/O装置とのインタフェースを行うI/Oプロ
セッサを第3の集積回路基板上に集積し、 上記第1の集積回路基板上に上記第2及び第3の集積回
路基板を搭載して単一のモジュール構成としたことを特
徴とするワークステーション。 - 【請求項28】請求項27のワークステーションにおい
て、上記スカラープロセッサは、上記ワーキングメモリ
と、上記複数の機能ブロックの情報を保持するメモリと
を同一のメモリ空間としてアクセスすることを特徴とす
るワークステーション。 - 【請求項29】視覚情報を処理する複数の機能ブロック
を備え、上記複数の機能ブロックは単一の命令セットに
従って単一命令複数デ−タ流方式(SIMD)で動作す
る情報処理装置と、 聴覚情報を処理する複数の機能ブロックを備え、上記複
数の機能ブロックは単一の命令セットに従って単一命令
複数デ−タ流方式(SIMD)で動作する情報処理装置
とを設け、 上記情報処理装置間を非同期に通信し、複数命令複数デ
−タ流方式(MIMD)で動作させることを特徴とする
ロボット制御システム。 - 【請求項30】動画像の1フレームの画像情報を処理す
る複数の機能ブロックを備え、上記複数の機能ブロック
は単一の命令セットに従って単一命令複数デ−タ流方式
(SIMD)で動作する情報処理装置を複数個設け、 上記複数個の情報処理装置間を非同期に通信し、複数命
令複数デ−タ流方式(MIMD)で動作させ、複数フレ
ーム間の動画像処理を行うことを特徴とする動画像処理
システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4042830A JPH05242065A (ja) | 1992-02-28 | 1992-02-28 | 情報処理装置及びシステム |
KR1019930002562A KR930018384A (ko) | 1992-02-28 | 1993-02-24 | 정보처리장치 및 정보처리시스템 |
EP93102966A EP0557997A2 (en) | 1992-02-28 | 1993-02-25 | Information processing apparatus and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4042830A JPH05242065A (ja) | 1992-02-28 | 1992-02-28 | 情報処理装置及びシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05242065A true JPH05242065A (ja) | 1993-09-21 |
Family
ID=12646886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4042830A Pending JPH05242065A (ja) | 1992-02-28 | 1992-02-28 | 情報処理装置及びシステム |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0557997A2 (ja) |
JP (1) | JPH05242065A (ja) |
KR (1) | KR930018384A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219919A (ja) * | 1994-01-28 | 1995-08-18 | Mitsubishi Electric Corp | 数値演算処理装置 |
JPH09212477A (ja) * | 1995-11-27 | 1997-08-15 | Canon Inc | デジタル画像処理プロセッサ |
JP2009176110A (ja) * | 2008-01-25 | 2009-08-06 | Seiko Epson Corp | 並列演算装置および並列演算方法 |
KR100966932B1 (ko) * | 2001-08-31 | 2010-06-30 | 인튜션 인텔리전스, 인크. | 직관적 학습 능력을 가진 처리 장치 |
KR101300431B1 (ko) * | 2006-09-20 | 2013-08-27 | 인텔 코오퍼레이션 | 내적 연산을 수행하기 위한 명령 및 논리 |
JP2016051351A (ja) * | 2014-08-29 | 2016-04-11 | 株式会社日立製作所 | 半導体装置 |
JP2017151604A (ja) * | 2016-02-23 | 2017-08-31 | 株式会社デンソー | 演算処理装置 |
JP2018518753A (ja) * | 2015-05-21 | 2018-07-12 | ゴールドマン サックス アンド カンパニー エルエルシー | 多目的の並列処理アーキテクチャ |
CN110720095A (zh) * | 2017-04-06 | 2020-01-21 | 高盛有限责任公司 | 通用并行计算架构 |
JP2020135175A (ja) * | 2019-02-15 | 2020-08-31 | 三菱電機株式会社 | ニューラルネットワーク回路 |
JP2021500648A (ja) * | 2017-10-20 | 2021-01-07 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | メッセージ・パッシング計算システムのためのメモリ・マップド・インターフェースのシステム、方法及びコンピュータ・プログラム |
WO2021111573A1 (ja) * | 2019-12-05 | 2021-06-10 | Tdk株式会社 | リザーバ計算データフロープロセッサ |
JP2021522565A (ja) * | 2018-04-30 | 2021-08-30 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 並列分散テンソル計算用のニューラル・ハードウェア・アクセラレータ |
US11449452B2 (en) | 2015-05-21 | 2022-09-20 | Goldman Sachs & Co. LLC | General-purpose parallel computing architecture |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2719400B1 (fr) * | 1994-05-02 | 1996-05-24 | Commissariat Energie Atomique | Procédé et dispositif d'extraction d'un plus grand sous-ensemble d'objets, utilisant un réseau de neurones. |
WO1996035997A1 (fr) * | 1996-05-22 | 1996-11-14 | Yalestown Corporation N.V. | Processeur parallele |
NZ336184A (en) * | 1996-11-20 | 2000-10-27 | Robert J Jannarone | Multi-kernel neural network concurrent learning, monitoring, and forecasting system |
US6216119B1 (en) | 1997-11-19 | 2001-04-10 | Netuitive, Inc. | Multi-kernel neural network concurrent learning, monitoring, and forecasting system |
GB9902115D0 (en) * | 1999-02-01 | 1999-03-24 | Axeon Limited | Neural networks |
FR3011659B1 (fr) * | 2013-10-04 | 2015-10-16 | Commissariat Energie Atomique | Circuit electronique, notamment apte a l'implementation d'un reseau de neurones, et systeme neuronal |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0378115B1 (en) * | 1989-01-06 | 1998-09-30 | Hitachi, Ltd. | Neural computer |
-
1992
- 1992-02-28 JP JP4042830A patent/JPH05242065A/ja active Pending
-
1993
- 1993-02-24 KR KR1019930002562A patent/KR930018384A/ko not_active Application Discontinuation
- 1993-02-25 EP EP93102966A patent/EP0557997A2/en not_active Withdrawn
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219919A (ja) * | 1994-01-28 | 1995-08-18 | Mitsubishi Electric Corp | 数値演算処理装置 |
JPH09212477A (ja) * | 1995-11-27 | 1997-08-15 | Canon Inc | デジタル画像処理プロセッサ |
KR100966932B1 (ko) * | 2001-08-31 | 2010-06-30 | 인튜션 인텔리전스, 인크. | 직관적 학습 능력을 가진 처리 장치 |
KR101300431B1 (ko) * | 2006-09-20 | 2013-08-27 | 인텔 코오퍼레이션 | 내적 연산을 수행하기 위한 명령 및 논리 |
JP2009176110A (ja) * | 2008-01-25 | 2009-08-06 | Seiko Epson Corp | 並列演算装置および並列演算方法 |
US10037391B2 (en) | 2014-08-29 | 2018-07-31 | Hitachi, Ltd. | Semiconductor device |
JP2016051351A (ja) * | 2014-08-29 | 2016-04-11 | 株式会社日立製作所 | 半導体装置 |
US11449452B2 (en) | 2015-05-21 | 2022-09-20 | Goldman Sachs & Co. LLC | General-purpose parallel computing architecture |
JP2018518753A (ja) * | 2015-05-21 | 2018-07-12 | ゴールドマン サックス アンド カンパニー エルエルシー | 多目的の並列処理アーキテクチャ |
JP2021057076A (ja) * | 2015-05-21 | 2021-04-08 | ゴールドマン サックス アンド カンパニー エルエルシー | 多目的の並列処理アーキテクチャ |
JP2022046557A (ja) * | 2015-05-21 | 2022-03-23 | ゴールドマン サックス アンド カンパニー エルエルシー | 多目的の並列処理アーキテクチャ |
US10810156B2 (en) | 2015-05-21 | 2020-10-20 | Goldman Sachs & Co. LLC | General-purpose parallel computing architecture |
JP2017151604A (ja) * | 2016-02-23 | 2017-08-31 | 株式会社デンソー | 演算処理装置 |
JP2020517000A (ja) * | 2017-04-06 | 2020-06-11 | ゴールドマン サックス アンド カンパニー エルエルシー | 汎用並列コンピューティングアーキテクチャ |
CN110720095A (zh) * | 2017-04-06 | 2020-01-21 | 高盛有限责任公司 | 通用并行计算架构 |
JP2023015205A (ja) * | 2017-04-06 | 2023-01-31 | ゴールドマン サックス アンド カンパニー エルエルシー | 汎用並列コンピューティングアーキテクチャ |
JP2021500648A (ja) * | 2017-10-20 | 2021-01-07 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | メッセージ・パッシング計算システムのためのメモリ・マップド・インターフェースのシステム、方法及びコンピュータ・プログラム |
JP2021522565A (ja) * | 2018-04-30 | 2021-08-30 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 並列分散テンソル計算用のニューラル・ハードウェア・アクセラレータ |
JP2020135175A (ja) * | 2019-02-15 | 2020-08-31 | 三菱電機株式会社 | ニューラルネットワーク回路 |
WO2021111573A1 (ja) * | 2019-12-05 | 2021-06-10 | Tdk株式会社 | リザーバ計算データフロープロセッサ |
Also Published As
Publication number | Publication date |
---|---|
EP0557997A2 (en) | 1993-09-01 |
KR930018384A (ko) | 1993-09-21 |
EP0557997A3 (ja) | 1995-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH05242065A (ja) | 情報処理装置及びシステム | |
Ramacher | SYNAPSE—A neurocomputer that synthesizes neural algorithms on a parallel systolic engine | |
Uhr | Parallel computer vision | |
Akopyan et al. | Truenorth: Design and tool flow of a 65 mw 1 million neuron programmable neurosynaptic chip | |
US5138695A (en) | Systolic array image processing system | |
CA2215598C (en) | Fpga-based processor | |
Reeves | Parallel computer architectures for image processing | |
US11836629B2 (en) | Computationally efficient softmax loss gradient backpropagation | |
US5604840A (en) | Information processing apparatus | |
JPH0425586B2 (ja) | ||
JPH05505268A (ja) | デイジーチェーン制御付ニューラルネットワーク | |
Ramacher et al. | Multiprocessor and memory architecture of the neurocomputer SYNAPSE-1 | |
Yasunaga et al. | A self-learning digital neural network using wafer-scale LSI | |
Ikenaga et al. | A fully parallel 1-Mb CAM LSI for real-time pixel-parallel image processing | |
JPH05282272A (ja) | ニューラルネットワーク並列分散処理装置 | |
Campbell et al. | 3D wafer stack neurocomputing | |
Ryan et al. | An isma lee router accelerator | |
JPH076146A (ja) | 並列データ処理システム | |
Bai et al. | An OpenCL-based FPGA accelerator with the Winograd’s minimal filtering algorithm for convolution neuron networks | |
Ramacher et al. | Fine-grain system architectures for systolic emulation of neural algorithms | |
Morgan et al. | RAP: A ring array processor for multilayer perceptron applications | |
Chen et al. | SiBrain: A Sparse Spatio-Temporal Parallel Neuromorphic Architecture for Accelerating Spiking Convolution Neural Networks With Low Latency | |
Ayoubi et al. | Efficient mapping algorithm of multilayer neural network on torus architecture | |
Fang et al. | A hardware supported system for a special online application of self-organizing map | |
JPH05197707A (ja) | 情報処理システム |