JPH05501467A - ニューロ計算システム - Google Patents

ニューロ計算システム

Info

Publication number
JPH05501467A
JPH05501467A JP3511108A JP51110891A JPH05501467A JP H05501467 A JPH05501467 A JP H05501467A JP 3511108 A JP3511108 A JP 3511108A JP 51110891 A JP51110891 A JP 51110891A JP H05501467 A JPH05501467 A JP H05501467A
Authority
JP
Japan
Prior art keywords
coefficients
neurocomputation
read
input signal
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3511108A
Other languages
English (en)
Inventor
ヴィニョール ジャン―ミシェル
レフレジェ フィリップ
ポティエ ドミニク
ウィニャール ジャン―ピエール
Original Assignee
トムソン―セーエスエフ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トムソン―セーエスエフ filed Critical トムソン―セーエスエフ
Publication of JPH05501467A publication Critical patent/JPH05501467A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 ニューロ計算システム 本発明は、非常に多くの数の演算を高速に実行することのてきるニューロ計算シ ステム(system of neuralcomputing)に関する。
ニューロ回路網(neuron networks)は、詳しくは、マトリック スの計算の形態での、多数の演算を実行するシステムを構成する。それらは、例 えば、100OX100O次元の画像単位(あるいは、画素)を有する高品位画 像の処理に利用することができる。
ニューロ回路網(neural networks)は、一般的に、神経細胞の いくつかの層から形成される構造で、1つの層の神経細胞からの出力は次の層の すべての神経細胞の入力に結合される。このような条件において、神経細胞間の 内部結合の数は相当の数である。106画素からなる画像を例に取ると、10’ 個の入力神経細胞の103個の出力神経細胞への完全な結合は109の内部結合 を与えることとなる。
ニューロ回路網において、神経細胞間の内部結合はシナプス係数か適用された( シナプス重み(synapticWeightSJとも呼ばれる)シナプスの結 合を構成することか知られている。神経細胞は、実際上、それぞれのシナプス係 数によって重み付けられた入力信号の加算を実行する計算部材である。これらの シナプス係数は、特に、学習段階中に変更される。これらは固定記憶装置(pe rmanent meIIory)に保持されねばならない。したがって、神経 細胞間の10’の内部結合の場合、記憶されるべき同数のシナプス係数か存在す る。もし結合がバイナリ−であるとすると、このことは少なくとも100Mby teのメモリーを必要とすることになる。ゆえに、シナプス係数を大容量記憶装 置(bulk memories) (例えば、光ディスク、磁気ディスク、あ るいは磁気テープのような)に格納することが適切である。
それらの応用(例えば、)にターン認識のような)において、ニューロ回路網か 非常に高速で計算を実行することが要求されている。この形態の記憶装置の比較 的に長いアクセス時間のために、この高速性への要求は、もっばら大容量記憶装 置に存在するシナプス係数の記憶装置とは両立しない。
このことが、ある定義された計算を行うときに、この計算に必要なシナプス係数 を格納するために、計算機のランダムアクセスメモリー(作業用メモリー(wo rkingmemory) )を一般に利用する基本方針の理由であり、係数が この大容量記憶装置の一部分から選択される。
ニューロ計算はマトリックスの形態であり、大きな型の複数のマトリックスに及 ぶのて、非常に多くの数のシナプス係数か同時に必要とされる。
したがって、ランダムアクセスメモリーは非常に太きな容量と非常に短いアクセ ス時間の両方を有することか必要である。これが経費上の解決法である。
一方、シナプス係数がニューロ計算中にしばしば変更される場合には、大容量記 憶装置から新しい係数を探索する必要がある。この場合、大容量記憶装置とラン ダムアクセスメモリーとの間のデータの流れには、提供することの困難な電気的 な通信が要求される。放射の問題のために、伝送路によつて20Mbits/s の速度を越えることは簡単ではない。
本発明の1つの目的は、これらの欠点を回避するために、ニューロ計算システム の構造を改善することにある。
このために、本発明によれば、シナプス係数を取り込んだ大容量記憶装置を備え た計算機を組み込んだニューロ計算システムと、大容量記憶装置を順次に読み出 すシステムと、が提案され、 −読み出しヘッドが並列に動作し、一連のシナプス係数を順次に読み出すことの できる一連の読み出しヘッドを組み込んだ読み出しシステムと、 −大容量記憶装置を読み出すためのヘッドと計算機の間に置かれた計算回路を組 み込んだニューロ計算システムであって、これらの回路は、 ・ 一方で、処理される入力信号と、他方で、これらの信号に対応し読み出しヘ ットから入力するシナプス係数とを同期して受信することができ、・ 同時に受 信されるシナプス係数によって重み付けされる入力信号を加算し、 ・ 計算した重み付けされた加算値を計算機に転送する、前記のニューロ計算シ ステムと、 を特徴とする。
実際に、計算機は、計算機に転送される信号か記憶されるランダムアクセルメモ リー(作業用メモリー)を組み込んでΣす、計算され重み付けされた加算値がこ のランダムアクセスメモリーに転送される。
入力信号は計算機によって送出されるか、あるいは、他のどんなソース(センサ ー、もう1つの計算機、その他)からも入力する。
このようにして、すなわち、入力信号の受信時点において、同一の時点において の大容量記憶装置から読み出されたいくつかのシナプス係数を用いることによっ て、ニューロ計算の一部が直接に“活動状iji (on themove)″ にされるのである。入力信号は連続して次から次に到着し、シナプス係数もまた 、入力信号の到着に同期して、それぞれの読み出しヘッドによって連続的に読み 出されるか、並列に動作する多くの読み出しヘッドがあるのである。予備の計算 の結果のみか計算機のランダムアクセスメモリーに転送される。ニューロ計算の その他の部分は、ランダムアクセスメモリーに格納された結果から、計算機で達 成される。しかし、シナプス係数は計算機のランダムアクセスメモリーに転送さ れない。
予備の計算に非常に多くのシナプス係数が使用されたとしても、計算機のランダ ムアクセスメモリーに転送される結果の数はシナプス係数の数に比較して非常に 減少せしめられる。多量に減少せしめられるランダムアクセスメモリーの容量に おける利点か実現される。
他方、大容量記憶装置から計算機のランダムアクセスメモリーへ転送されるデー タの流れの観点からのより小さな問題か存在する。それは、もはや、多量のシナ プス係数を非常に高速で転送する必要かないことであり、事実上、シナプス係数 の読み出しと同時にもたらされる計算の結果のみか転送されるということである 。
ここで、有効な数の読み出しヘッドを備えた大容量記憶装置(磁気テープ、磁気 ディスク、あるいは、光デイスク上の)を読み出すためのシステムをどのように 製作するかが分かるであろう。そのようなシステムは、各トラックで少なくとも I Mbit/seaの速度で並列に1000 )−ラックを読み出す能力のあ る約1000個の読み出しヘッドの列を備える。したかって、1000の即座の 計算が、すべてのこれらのヘッドによって読み出されたシナプス係数によって重 み付けされた1000の入力信号に、並列になされる。
本発明はまた、それらのメモリーが多量の異なるワード(並列に読み出されたシ ナプス係数)を同時に転送するように、そしてそれらかランダムアクセスでなく 高速に順次アクセスによって読み出されるように配置されるという条件下で、集 積回路の大容量固定メモリー(EEPROM me++ories)にも適用で きる。多くの数の並列出力を有するEEFROMメモリー、あるいは並列にアド レスされるEEFROMメモリーの列が適切であろう。
読み出しヘットと計算機のランダムアクセスメモリーの間に置かれる計算回路が 、読み出しヘッドの隣接する近接に配置されることは有益である。
それは、モノリシック基板に集積化されたヘッドの場合、読み出しヘッドに集積 化することも可能である。
なるべくなら、計算回路は、処理されるべき入力信号とシナプス係数を同時に受 信してそれらの乗算をもたらすように、それぞれの読み出しヘッドに関連した小 さな処理装置を組み込むほうがよい。
1つの特定のアーキテクチャ−においては、その処理装置は、この処理装置に関 連する読み出しヘッドによって引き出される係数のフローレート(flow r ate)に等しいフローレートで新しい入力信号を受信し、乗算だけをもたらす たけでなく、一連の連続する入力信号によってもたらされた積の蓄積(accu n+ulation)をももたらす(行によるマトリックス計算のアーキテクチ ャ−)。
もう1つのアーキテクチャ−においては、異なる処理装置か、それぞれ、演算を 達成することが望まれるベクトル成分のなかから得られるそれぞれの入力信号を 並列に受信し、各処理装置か、この信号と、この処理装置に関連する読み出しヘ ッドによって連続して転送されるそれぞれの一連のシナプス係数と、の間の一連 の連続する乗算を実行する。好ましくは、与えられた時点に同時に計算された積 の和をすべての処理装置によって生成するために、加算器が処理装置の出力に接 続される。
本発明の他の特徴と利点が、添付の図面を参照して以下で記載される詳細な説明 を読むことによりて理解されるであろう。
図1は、本発明によるニューロシステムの概略のアーキテクチャ−を示す。
図2は、本発明を用いた第1の実施例を示す。
図3は、もう1つの実施例を示す。
それぞれ次の形態のマトリックスの乗算を達成し、Y=AX ここで、Yはn個の成分からなるベクトル(yt、y2、−・φyn)、 Xはm個の成分からなるベクトル(X 1、x2.・拳・Xヨ)、 AはnXmのシナプス係数A1.Jのマトリックス、である。
このようなマトリックスの乗算はニューロ計算機では典型的なものである。結果 のYは、計算の明確な結果か、あるいは他の計算から達成された中間結果のいず れかである。
このマトリックスの乗算を達成するために、次の積のn個の和を計算する必要が ある。
3/I =At、+ X+ +At、t X2 + 0110 +A1.+a  X。
ここで、添字iは1〜nの値である。
ニューロ計算システムの一般的なアーキテクチャ−が図1に示される。
処理されるべき入力信号は、ベクトルXの成分xJで表されているか、独特の電 気的な回路C8に適用され、それは、これらの成分の重み付けされた和をもたら そうとするものである。
回路C8は、さらに、並列に動作しているいくつかの読み出しヘッドTL、 、 TL* 、・・・TL工、・・・TL、 、によって係数が引き出される大容量 記憶装置MM(磁気テープ、ディジタル光ディスク、等の)から入力するそれら の係数の値A i、jを直接に受信する。好ましくは、m個の読み出しヘットか 存在するか強制はされない。もし、マトリックスAの行あるいは列より少ない読 み出しヘッドか存在するのであれば、マトリックスの計算は幾つかの一連の演算 に再分割されるであろう。
入力信号XJの到着は、いかなる場合でも、大容量記憶装置から引き出される係 数A H,Jの到着に同期せしめられる。この同期せしめられる方法は後はど言 及されるであろう。
重み付けされた和(xJA+Jの和)は、読み出し専用メモリーから係数A t Jを並列に読み出すのと同期してそれ自身かもたらされる入力信号Xjの到着に 同期して回路C8にもたらされる。計算は即座にもたらされるので、係数A l  + Jはランダムアクセスメモリーに格納されず、さらに正確には、回路C8 のバッファーレジスタに一時的に格納されるので、それらは、ランダムアクセス によって作業用メモリーに格納されないと言うことか1 できる。
重み付けされた和かもたらされるやいなや、この和の結果y、は、ランダムアク セスメモリーMVに格納される結果y、からニューロ計算を実行する計算機CM Pの(アドレス指定可能な)ランダムアクセスメモリーMVに転送される。
扱われる入力信号XJはいくつかのソースによって送出される。例えば、それら は、センサ(CCD画像センサのような)、電気的処理装置(画像処理回路のよ うな)、計算機、あるいは、図1に破線で示されるように、計算機CMPそれ自 身から、入力する。閾値機能を介しての入力Xjへの結果y、の直接の再ループ が付加的に提供される。
独特の回路C8は、このようにして、並列で動作する複数の読み出しヘッドによ って順次に係数A 、、、か読み出されるのと同時に、計算か活動状態にされる のである。この回路C8はシステムの集積化部分として都合よく形成され、大容 量記憶装置MMを読み出す。この読み出しのシステムかモノリシック集積化され たシステムである場合、回路C8のすへであるいは一部は読み出しヘットとして 同一のモノリシックブロックに集積化されることが、特に、試みられるだろう。
それは、半導体基板に集積化された複数の磁気読み出しヘッドの場合、特に、可 能である。大容量記憶装置か順次アクセスによる並列でのワードの出力である大 容量のEEFROMメモリーの場合、あるいは、同期して動作する順次アクセス によるEEPROMメモリーの構造の場合もまた、特に、都合か良い。事実、回 路C8に存在する計算回路は非常に簡単なものであり、ゆえに大きさが小さい大 容量のメモリーである。
回路C5か読み出しのシステム内にモノリシックな方法で集積化されてなくとも 、それがこのシステムの隣接する近接に配置されていることは好都合である。
図2は本発明の第1の実施例を示す。この実施例において、読み出しヘッドと計 算機のランダムアクセスメモリーとの間に置かれた電気的回路C8は並列に数個 の処理装置PL(TL読み出しヘッドと同数の、例えば、処理装置Pのような) を備え、そのそれぞれは、積X j A i、 jの添字J(Jは1〜pの値) の和であるそれぞれの信号ytを引き出す。図2の場合には、4つの処理装置P 1、P2、P3、P4か存在する。
各処理装置Piは2つの入力を有し、その一方は入力信号xJ (信号x、は連 続した列で次々に到着する)を受信し、他方はそれぞれの読み出しヘットTLi に接続される。
同一の添字の処理装’77 P i E結合される添字iの読み出しヘッドは、 大容量記憶装置MMのトラックiを読み出し、第1の添字としての添字iに対応 する係数A89、を送出するのみである。係数A 、、Jは、トラックiに次か ら次に格納されており、同一の添字Jに対応する入力信号Xjの到着に同期して 順次に読み出される。もう1つの考え方では、係数AH,1、A□、2 、 A 1.3 、A□、4は、処理装置P1に対応する読み出しヘッドTLIによって 読み出される1つのトラック1にすべて次から次に格納され、処理装置でのこれ らの係数AH,1、A工、2、A□、3、A□、4の到着は信号x、、x2、x 、 、x4それぞれの到着に同期せしめられる。
同じように、係数A2.z 、All 、A13、At、<は、処理装置P2に 対応する読み出しヘッドTL2によって読み出される1つのトラック2にすべて 次から次に順次格納され、処理装置でのこれらの係数A2,1、A 2,2 、 A 2,3 、A 2,4の到着もまた、信号X□、X * 、X * 、X  4それぞれの到着に同期せしめられる。
すべての読み出しヘッドは並列に動作する。
各処理装置は同期して受信される係数によって重み付けされる入力信号X1〜X 4の和を生成することを意図する。そのために、処理装置は、包括的に、積Al 、jx、を生成する乗算器と、その乗算の連続する結果の和をとるためのアキュ ームレータと、を備える。
図2に示される例において、処理装置は、入力信号XJを受信する第1のバッフ ァーレジスタ12、この人力信号に同期して読み出される係数を受信する第2の バッファーレジスタ10、積X JA 、、 Jをもたらす乗算器11、乗算の 結果を格納するレジスタ14、その積を前に計算された積の和に加算する加算器 16、その加算結果を格納するレジスタ18、とを備え、レジスタ18を更新す るために、入力信号xjの新しいそれぞれの到着によって、前もってレジスタ1 8に格納された積の和に基づいて、加算器16は、入力として、一方でレジスタ 14の出力を受信し、他方で、レジスタ18の出力を受信する。
計算動作の最後で、つまりm個の入力信号Xjとm個の係数A t、Jが受信さ れ、そして処理されとき、処理装置のレジスタ18は、望む結果y、を、つまり m個の入力信号の重み付けされた和を含むのである。この計算は、ランダムアク セスメモリーに係数A 、、、を格納することなく実行される。
結果y、は計算機CMPのランダムアクセスメモリーMVに転送される。好まし くは、結果y1の転送は単一の転送回線に多重化される。これの終端て、出力イ ンタフェース回路ISは、並列に、異なった結果y、を受信し、それらを直列で 計算機CMPのランダムアクセスメモリーに転送する。
マトリックスの計算が1〜nの添字iを使用すれば、2個の読み出しヘットと2 個の関達す葛処理装置かあっても、ここてρはnより小さい、そのことは、いく つかの計算動作を再度実行する必要があることか分かるであろう。最初の計算動 作ですでに使用された入力信号x。
か再度処理装置に送出されが、このときは、それらは、今回は、p+1から2p まで、そして2p+1から3pまで、等の、nまでの範囲の添字iに対応する、 最初の計算動作では読み出されていない他の係数A i 、 Jによって乗算が なされる。これらの係数は、それらのそれぞれの添字iに対応するトラック上に 、すでに使用された係数の後に格納される。
実際には、係数A 、、Jと入力信号Xjがバイナリ−の値であれば、その機能 が上述された処理装置Pkは極端に簡単な態様て製作される。乗算器11は、非 常に簡単なりロック信号に関連したANDゲートであり、バイナリ−のfllX jAi、jが1であるときに毎回短いクロックパルスを送出する。その積の蓄積 は、それらのパルスを受信しカウントする非同期のカウンタによって簡単になさ れる。
当然のことながら、マトリックスの計算か、バイナリ−ではないシナプス係数お よび(あるいは)バイナリ−ではない入力信号を用いる場合、好ましくは、バイ ナリ−で動作する要素的な処理装置Pkによってそれらの値を個別にバイナリ− の重みに変換することによってバイナリ−の形態に到達することか試みられる。
もう1つのアーキテクチャ−ては、マトリックスの計算は、図2の場合のように 行ごとにもたらされるのではなく、列ごとにもたらされる。
図3は対応する実施例を示す。ここでは、q個の読み出しヘッドTLI〜TLq  (ここでは4つ)と、それぞれか各読み出しヘッドに関連するq個の処理装置 P’ kと、が存在する。
各処理装置P’には、入力信号Xkと、関連する読み出しヘッドによって引き出 された係数と、を同時に受信する。1〜mで変化する連続する添字jのすべて信 号xjを処理装置Piが連続して受信する図2とは対照的に、ここでは、処理袋 fiP’ kは添字にの信号Xkのみを受信する。
その結果として、信号xkが連続して到着すると、デマルチプレクサ(demu ltipLexer)が提供され、それぞれの入力信号をそれか意図する処理装 置に向けるのである。このデマルチプレクサは参照記号IEによって示される入 力インタフェース回路に組み込まれる。
処理装置P’kに対応する読み出しヘッドTLkは、2番目の添字がkである、 つまり係数Ai、にである異なった係数を連続して送出する。その他の読み出し ヘッドは並列に動作しその他の係数を送出する。図2の場合には、各読み出しヘ ッドはマトリックスの行に対応する係数を送出するのに対して、ここては、各読 み出しヘッドはマトリックスAの列に対応する係数を送出する。
q個の処理装置の出力は、重み付けされた和y、を連続的に送出する包括的な加 算器ADにおいて、結合される。
実際には、第1の処理装置は積XlAl、1を計算し、第2の処理装置は積x2 A□、2を計算し、同様に、それぞれ計算する。これらのすべての計算は、同時 になされ、加算によってy□が送出され、入力信号xkが常に処理装置P’kに 存在しても、新しい係数の列、A2.1 、A2,2 、等が処理装置にもたら され、積の加算によってy、が送出される。
各処理装置P’には、好ましくは、第1のバッファーレジスタ2o、第2のバッ ファーレジスタ22、乗算器24、第3のバッファーレジスタ26、を備える。
レジスタ20は連続する係数Ai、kを受信する。レジスタ22は入力信号Xk を受信し、トラックkから入力する係数A=、にの1つの列のすべてを読み出す まではレジスタ22はその内容が変化しない。レジスタ26は乗算の結果の積を 格納し、処理装置への出力レジスタを構成する。
好ましくは、また、処理装置の出力の加算を2つずつ実行するために、加算器は ツリー構造を有する。
加算器ADの出力は一連の結果y工を表し、与えられた時点で読み出し専用メモ リーに並列で読み出された係数はすべて、事実上、同一の第1の添字iを有する 。
これらの結果は加算器ADによって連続して送出され、計算機のランダムアクセ スメモリーMVに転送される。
しかしながら、読み出しヘッドの数9はマトリックスAの列の数mより小さくて もよい。この場合、当然、マトリックスの計算をいくつかの段階で行う必要があ り、第1の段階では、最初のq個の信号x1〜XQが引き出され、それらは大容 量記憶装置から読み出された対応する係数と結合せしめられる。そして、後の段 階では、続く入力信号xq、1、等が引き出され、それらは大容量記憶装置から 引き出された他の係数と結合せしめられる。
各動作周期ての加算器ADの出力は部分的な加算のみであり、最終的な結果y、 を送出するために、異なった段階での結果を組み合わせる必要がある。この組み 合わせは計算機かあるいは回路C8でなされ、回路C8の場合は、ループレジス タか必要て、それは、相補的な結果をそれに加算するまで、加算の部分的な結果 をメモリーに保持する。
データの到着と発行の同期は、図2の場合と図3の場合では同一ではないことに 注意されたい0図2の場合は、入力信号は、大容量記憶装置からの係数A、5. の連続的な引き出しと同し速度て、処理装置PLに連続的に到着する。図3の場 合は、一連の信号X1〜X、が到着し、一連のn個の係数A 、、、かそれぞれ のレジスタ20を介して到来する間、入力レジスタに格納されたままである。
トラック1 トラック2 トラック3 トラック4要 約 書 本発明はニューロ計算器に関する。ニューロ計算器では入力信号Xj及びシナプ ス係数A 、、Jの大量のマトリクス計算か必要である。システムが複雑な場合 には、係数の値は109にも達し、係数は磁気テープ、光ディスク等のバルクメ モリMMに格納される。計算はコンピュータ(CMP)で行なわれる0本発明は 、マトリクス計算の際、係数をランダムアクセスメモリ(MV)に格納するため に読み出し専用メモリの中で係数をサーチする代りに、読み出し専用メモリから 係数を順次読み出しすると同時にXjとAt、Jの乗算を動的に行なう。さらに 多量の係数はマルチヘッド(TL、、TL2 。
・・・)により同時に読み出される。従って、読み出し専用メモリに係数を大量 に高速に格納しなければならない点か除去される。
第2図 国際調査報告 1″m+++a′le″l^−””” PCT/FR91100483国際調査 報告

Claims (11)

    【特許請求の範囲】
  1. 1.シナプス係数(Ai,j)を格納する大容量記憶装置(MM)を備えた計算 機(CMP)と、前記大容量記憶装置を順次に読み出す装置(TL1、TL2、 ・・・)と、を組み込んだニューロ計算システムであって、−前記読み出す装置 が、読み出しヘッドが同時に並列で動作し一連のシナプス係数を順次に読み出す ことのできる一連の読み出しヘッドを組み込み、−前記ニューロ計算システムが 、大容量記憶装置を読み出すためのヘッドと計算機の間に置かれた計算回路(C S)を組み込み、これらの計算回路は、・一方で、処理される入力信号(Xj) と、他方で、これらの信号に対応し読み出しヘッドから入力するシナプス係数と 、を同期して受信することができ、 ・同時に受信されるシナプス係数によって重み付けされる入力信号の和を計算す ることができ、・計算した重み付けされた和を計算機に転送することができる、 ことを特徴とするニューロ計算システム。
  2. 2.前記大容量記憶装置が、順次読み出しと複数の並列に動作するヘッドに基づ く、ディスク記憶装置、磁気テープ記憶装置、あるいは光ディスク記憶装置であ る、ことを特徴とする請求の範囲第1項に記載のニューロ計算システム。
  3. 3.前記大容量記憶装置が、順次アクセスと複数ワードの並列の出力に基づく、 少なくとも1つのEEPROM集積回路を備えたことを特徴とする請求の範囲第 1項に記載のニューロ計算システム。
  4. 4.入力信号が、センサ、計算機(CMP)自身、あるいは他の計算機、から入 力することを特徴とする請求の範囲第1項〜第3項のいずれかに記載のニューロ 計算システム。
  5. 5.重み付けされた信号を計算する前記計算回路が、読み出しヘッドの隣接する 近傍に置かれることを特徴とする請求の範囲第1項〜第4項のいずれかに記載の ニューロ計算システム。
  6. 6.前記計算回路が、読み出しヘッドを組み込んだモノリシック基板に集積化さ れることを特徴とする請求の範囲第1項〜第5項のいずれかに記載のニューロ計 算システム。
  7. 7.前記計算回路がそれぞれの読み出しヘッドに関連して処理装置を組み込み、 この処理装置が、一方で、処理される入力信号と、他方で、大容量記憶装置から 入力するシナプス係数と、を受信し、これらの2つの値を乗算することができる 、ことを特徴とする請求の範囲第1項〜第6項のいずれかに記載のニューロ計算 システム。
  8. 8.前記処理装置が、この処理装置に対応する読み出しヘッドによって転送され る係数Ai,jのデータ転送速度と同じデータ転送速度で新しい入力信号Xjを 順次に受信する、ことを特徴とする請求の範囲第7項に記載のニューロ計算シス テム。
  9. 9.前記処理装置が、同時に受信される入力信号Xjと対応する係数Ai,jと を乗算する乗算器(11)と、連続する信号Xjの列によってもたらされる積の 累積の和を生成するアキュームレータと、を組み込んだことを特徴とする請求の 範囲第8項に記載のニューロ計算システム。
  10. 10.異なった複数の処理装置それぞれが、処理される入力信号の列から得られ るそれぞれの入力信号Xkを並列に受信し、そして、前記複数の処理装置それぞ れは、受信されたそれぞれの入力信号Xkと、前記処理装置に対応する読み出し ヘッドから順次に受信される係数の列のそれぞれの係数Ai,kとを乗算するこ とができる、ことを特徴とする請求の範囲第7項に記載のニューロ計算システム 。
  11. 11.前記複数の処理装置それぞれが、処理装置によって与えられた時点で同時 に計算される積の和を生成することのできる加算器のそれぞれの入力の1つに接 続される1つの出力を組み込んだ、ことを特徴とする請求の範囲第10項に記載 のニューロ計算システム。
JP3511108A 1990-06-29 1991-06-18 ニューロ計算システム Pending JPH05501467A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR90/08228 1990-06-29
FR9008228A FR2664072A1 (fr) 1990-06-29 1990-06-29 Systeme de calcul neuronal.

Publications (1)

Publication Number Publication Date
JPH05501467A true JPH05501467A (ja) 1993-03-18

Family

ID=9398162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3511108A Pending JPH05501467A (ja) 1990-06-29 1991-06-18 ニューロ計算システム

Country Status (4)

Country Link
EP (1) EP0489885A1 (ja)
JP (1) JPH05501467A (ja)
FR (1) FR2664072A1 (ja)
WO (1) WO1992000571A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10698860B2 (en) 2018-03-12 2020-06-30 Kabushiki Kaisha Toshiba Arithmetic device
JP2021144750A (ja) * 2016-06-14 2021-09-24 タータン エーアイ リミテッド ディープニューラルネットワーク用のアクセラレータ

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1182609A1 (de) * 2000-08-25 2002-02-27 Peter Bezler Schaltungsanordnung zur Simulation neuronaler Netzwerke und zur positionsunabhängigen Mustererkennung

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4477853A (en) * 1981-04-15 1984-10-16 Eastman Kodak Company Multitrack magnetic head

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144750A (ja) * 2016-06-14 2021-09-24 タータン エーアイ リミテッド ディープニューラルネットワーク用のアクセラレータ
US10698860B2 (en) 2018-03-12 2020-06-30 Kabushiki Kaisha Toshiba Arithmetic device

Also Published As

Publication number Publication date
EP0489885A1 (fr) 1992-06-17
WO1992000571A1 (fr) 1992-01-09
FR2664072A1 (fr) 1992-01-03

Similar Documents

Publication Publication Date Title
US5594916A (en) Neural network processing system using semiconductor memories and processing paired data in parallel
US5617512A (en) Triangular scalable neural array processor
US5089983A (en) Charge domain vector-matrix product processing system
JPH04293151A (ja) 並列データ処理方式
US5146543A (en) Scalable neural array processor
US5167008A (en) Digital circuitry for approximating sigmoidal response in a neural network layer
JP2010015578A (ja) 前の及び次の連合を表現する重みとカウントのべき級数を含む人工ニューロン
WO1993000653A1 (en) Neural network architecture
US5799134A (en) One dimensional systolic array architecture for neural network
US5065339A (en) Orthogonal row-column neural processor
CN113792010A (zh) 存算一体芯片及数据处理方法
US5148515A (en) Scalable neural array processor and method
KR900008395A (ko) 데이터 셀 장치 및 그 장치를 이용한 신경 네트워크 시스템
TWI417798B (zh) High - speed reverse transfer neural network system with elastic structure and learning function
JPH06502265A (ja) 信号処理におけるマトリクス演算の計算回路装置
KR102290531B1 (ko) 재조직 가능한 뉴럴 네트워크 컴퓨팅 장치
US5115492A (en) Digital correlators incorporating analog neural network structures operated on a bit-sliced basis
US11803737B2 (en) Memory-augmented spiking neural network system
JPH05501467A (ja) ニューロ計算システム
CN113811900A (zh) 算术运算装置和算术运算系统
JPH076146A (ja) 並列データ処理システム
CN109583577B (zh) 运算装置及方法
CN112949834A (zh) 一种概率计算脉冲式神经网络计算单元和架构
US3988605A (en) Processors for the fast transformation of data
US20240054330A1 (en) Exploitation of low data density or nonzero weights in a weighted sum computer