JPH06110864A - 学習処理装置 - Google Patents

学習処理装置

Info

Publication number
JPH06110864A
JPH06110864A JP4285349A JP28534992A JPH06110864A JP H06110864 A JPH06110864 A JP H06110864A JP 4285349 A JP4285349 A JP 4285349A JP 28534992 A JP28534992 A JP 28534992A JP H06110864 A JPH06110864 A JP H06110864A
Authority
JP
Japan
Prior art keywords
output
learning
learning processing
calculation
switching means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4285349A
Other languages
English (en)
Inventor
Shigeru Kurosu
茂 黒須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP4285349A priority Critical patent/JPH06110864A/ja
Publication of JPH06110864A publication Critical patent/JPH06110864A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)

Abstract

(57)【要約】 【構成】 2次元メッシュのトーラス結合構造を有する
ローカル結合方式の学習装置において、横方向の結合軸
又は縦方向の結合軸に切り換え手段を設け、該切り換え
手段を、アプリケーション問題のサイズや計算量に応じ
て切り換え制御する。上記切り換え手段は、該切り換え
手段の設けられた列のノードからの出力及び一段違いの
列のノードからの出力を切り換え選択して出力し、ま
た、該切り換え手段の設けられた行のノードからの出力
及び一段違いの行のノードからの出力を切り換え選択し
て出力する。 【効果】 アプリケーション問題のサイズや計算量に応
じて、1つの計算を分割して行うことができ、計算速度
の高速化を図ることができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、それぞれニューロンに
対応する信号処理を行う複数のユニットにより構成され
た、いわゆるニューラルネットワーク(Neural Network
: 神経回路網) を用いた信号処理部に対して、バック
プロパゲーション(Back propagation :逆伝播) 学習則
に従った学習処理を施す学習処理装置に関し、特に上記
複数のユニットのうち縦方向のユニット又は横方向のユ
ニットを、アプリケーション問題のサイズや計算量に応
じて分割して並列的に計算を行わせることより、計算速
度の高速化を図った学習処理装置に関する。
【0002】
【従来の技術】それぞれニューロンに対応する信号処理
を行う複数のユニットにより構成された所謂ニューラル
ネットワークを用いた信号処理部に対する学習処理の手
法として、「Parallel Distributed Processing 」Vol.
1 The MIT Press 1986や日経エレクトロニクス1987年8
月10日号,No.427.pp115−124等にお
いて、バックプロパゲーション学習則が提案されてい
る。
【0003】そして、上記バックプロパゲーション学習
則は、図6に示すように、入力層11と出力層13の間
に中間層12を有する多層構造のニューラルネットワー
クにより構成される信号処理部10に適用され、高速画
像処理やパターン認識等の各種の信号処理への応用が試
みられている。
【0004】すなわち、図6に示すように、このニュー
ラルネットワークを構成する各ユニット(Uj )は、ユ
ニット(Ui ) からユニット(Uj )への結合係数Wji
で結合されるユニット(Ui ) の出力値Oi の総和ne
j を例えば sigmoid関数等の所定の関数fで変換され
た値Oj を出力する。
【0005】パターンpの値が入力層の各ユニット(U
j ) に入力値としてそれぞれ供給されたとき、中間層お
よび出力層の各ユニット(Uj ) の出力値Opjは、
【0006】
【数1】
【0007】なる第1式で表される。
【0008】そして、上記入力層11から上記出力層1
3へ向かって、各ニューロンに対応するユニット
(Uj ) の出力値を順次計算していくことで、上記出力
層13のユニット(Uj ) の出力値Opjが得られる。
【0009】バックプロパゲーション学習アルゴリズム
においては、上記信号処理部10に対して、学習処理部
20により、入力パターンpを与えたときの、上記出力
層13の各ユニット(Uj ) の実際の出力値Opjと望ま
しい出力値Tpj、すなわち教師信号との二乗誤差の総和
p は、
【0010】
【数2】
【0011】を極小化するように、結合係数Wjiを変え
る学習処理を上記出力層13から入力層11へ向かって
順次に行うことによって、教師信号の値Tpjに最も近い
出力値Opjが上記出力層13のユニット(Uj ) から出
力されるようになる。
【0012】そして、二乗誤差の総和Ep を小さくする
結合係数Wjiの変化量ΔWjiを、
【0013】
【数3】
【0014】と決めると、上記第3式は、
【0015】
【数4】
【0016】に変形することができる(この過程は上述
の文献を参照)。
【0017】ここで、ηは学習レート(定数)で、ユニ
ットの数や層の数さらには入出力の値等から経験的に決
定される。また、δpjはユニット(Uj ) のもつ誤差値
である。
【0018】従って、上記変化量ΔWjiを決定するため
には、上記誤差値δpjをネットワークの出力層から入力
層に向かって逆向きに求めていけば良い。出力層のユニ
ット(Uj ) の誤差値δpjは、
【0019】
【数5】
【0020】なる第5式で与えられ、中間層のユニット
(Uj ) の誤差値δpjは、そのユニット(Uj ) が結合
されている各ユニット(Uk ) (この例では出力層の各
ユニット)の結合係数Wkjおよび誤差値δpkを用いて、
【0021】
【数6】
【0022】なる再帰関数により計算される(上記第5
式および第6式を求める過程は上述の文献を参照)。な
お、上記f' j (netj )は、出力関数fj (net
j )の微分値である。
【0023】そして、変化量ΔWjiは、上記第5式およ
び第6式の結果を用いて上述の第4式によって求められ
るが、前回の学習結果を用いて、
【0024】
【数7】
【0025】なる第7式により求めることで、より安定
した結果が得られる。なお、αはエラーの振動を減ら
し、収束を速めるための安定化定数である。
【0026】そして、この学習を繰り返し行い、出力値
pjと教師信号の値Tpjとの二乗誤差の総和Ep が十分
に小さくなった時点で学習を完了する。
【0027】このようなニューラルネットワークを利用
して画像処理や音声認識などの分野において実用に適し
た装置を実現するためには各相のユニット、すなわちニ
ューロンの数を増やし、ネットワークの規模を大きくす
ることが必要とされ、それに伴い結合係数の学習に膨大
な計算量が必要となる。
【0028】従来より、ニューラルネットワークを利用
した装置では、ニューラルネットワークにおける計算処
理は元来並列処理であることから、並列処理によって計
算速度を高める試みがなされている。並列化の方法とし
ては、1つのニューロンを1つの計算素子に対応させる
方法や、複数のニューロンを担当するプロセッサを結合
して用いる方法があるが、前者はハードウェアが大きく
なり、現在の技術で大規模なネットワークを実現するの
は実用的でない。
【0029】従って、現在提案されているシステムは、
その多くが後者に基づいており、プロセッサとしては信
号処理プセッサ(DSP)、汎用のマイクロプロセッサ
専用のチップを用いたもの等がある。いずれも、複数の
プロセッサが、互いに通信しながら並列的にニューラル
ネットワークの計算処理を実行する。また、ニューラル
ネットワークの並列処理方式としては、ネットワークを
複数に分割して処理を行うネットワーク分割法やデータ
を複数のプロセッサに分散させて処理を行うデータ分割
法が知られている。
【0030】
【発明が解決しようとする課題】しかし、従来の学習処
理装置は、アプリケーション問題のサイズや計算量に応
じて効率良く計算を行うために、限られたプロセッサの
数を最適なトポロジで配置してある等のように、結合ト
ポロジが固定されているため、上記アプリケーション問
題のサイズや計算量が異なってくると計算効率が悪くな
るという問題を生じていた。
【0031】本発明は、上述の問題点に鑑みてなされた
ものであり、アプリケーション問題のサイズや計算量が
異なる場合でも、それに応じて効率良く且つ迅速に計算
を行うことができるような学習処理装置の提供を目的と
する。
【0032】
【課題を解決するための手段】本発明に係る学習処理装
置は、2次元メッシュのトーラス結合構造を有するロー
カル結合方式の学習処理装置において、横方向の結合軸
に設けられた切り換え手段を有し、上記切り換え手段
は、該切り換え手段の設けられた列のノードからの出力
及び一段違いの列のノードからの出力を切り換え選択し
て出力することを特徴として上述の課題を解決する。
【0033】また、本発明に係る学習処理装置は、2次
元メッシュのトーラス結合構造を有するローカル結合方
式の学習処理装置において、縦方向の結合軸に設けられ
た切り換え手段を有し、上記切り換え手段は、該切り換
え手段の設けられた行のノードからの出力及び一段違い
の行のノードからの出力を切り換え選択して出力するこ
とを特徴として上述の課題を解決する。
【0034】また、本発明に係る学習処理装置は、2次
元メッシュのトーラス結合構造のニューラルネットワー
クを用いて構成することを特徴として上述の課題を解決
する。
【0035】
【作用】本発明に係る学習処理装置は、2次元メッシュ
のトーラス結合構造を有するローカル結合方式の学習処
理装置において、横方向の結合軸に切り換え手段が設け
られており、この切り換え手段を、アプリケーション問
題のサイズや計算量に応じて切り換え制御する。これに
より、上記切り換え手段は、該切り換え手段の設けられ
た列のノードからの出力及び一段違いの列のノードから
の出力を切り換え選択して出力する。
【0036】また、本発明に係る学習処理装置は、2次
元メッシュのトーラス結合構造を有するローカル結合方
式の学習処理装置において、縦方向の結合軸に切り換え
手段が設けられており、この切り換え手段を、アプリケ
ーション問題のサイズや計算量に応じて切り換え制御す
る。これにより、上記切り換え手段は、該切り換え手段
の設けられた行のノードからの出力及び一段違いの行の
ノードからの出力を切り換え選択して出力する。
【0037】また、本発明に係る学習処理装置は、2次
元メッシュのトーラス結合構造のニューラルネットワー
クを用いて構成し、上記切り換え手段の切り換えをアプ
リケーション問題のサイズや計算量に応じて制御する。
【0038】
【実施例】以下、本発明に係る学習処理装置の実施例に
ついて、図面を参照しながら詳細に説明する。本実施例
に係る学習処理装置は、上述の図6に示したそれぞれニ
ューロンに対応する信号処理を行う複数のユニット(ニ
ューラルネットワーク)により構成された入力層11、
中間層12および出力層13を備える信号処理部10に
対する上記各ユニットの間の結合の強さの係数をバック
プロパゲーション学習則に従って上記学習処理部20に
より行う学習処理装置に本発明を適用したものである。
【0039】具体的な構成としては、図1に示すよう
に、それぞれ垂直リング結合用のデータ転送メモリVM
(0) 〜VM(N-1) と、水平リング結合用のデータ転送メ
モリHM(0) 〜HM(D-1) と、上記垂直リング結合用の
データ転送メモリVM(0) 〜VM(N-1) 及び水平リング
結合用のデータ転送メモリHM(0) 〜HM(D-1) を介し
てメッシュ結合されたN×D個のプロセッシング・エレ
メントPE(0,0) 〜PE(D-1,N-1) と、上記水平リング
結合をなす結合軸にそれぞれ設けられた切り換え手段で
ある第1〜第nの切り換えスイッチ30〜n(n:自然
数)とを備え、ネットワークをN分割し、入力データを
Dグループに分散させて、上記メッシュ結合されたN×
D個のプロセッシング・エレメントPE(0,0) 〜PE
(D-1,N-1) にバックプロパゲーション学習処理アルゴリ
ズムをマッピングしてなる。
【0040】上記各プロセッシング・エレメントPE
(0,0) 〜PE(D-1,N-1) には、図2に示すように、例え
ば、Intel社によって開発された64ビット、RI
SCタイプの汎用マイクロプロセッサ(80860)が
それぞれ用いられ、ニューロン間の結合の重み、すなわ
ち結合係数や出力をストアするために4Mバイトのロー
カルメモリRAMが設けられている。また、上記垂直リ
ング結合用の各データ転送メモリVM(0) 〜VM(N-1)
及び水平リング結合用の各データ転送メモリHM(0)
HM(D-1) としては、FIFO(First in First out)メ
モリがそれぞれ用いられている。
【0041】また、上記各プロセッシング・エレメント
PE(0,0) 〜PE(D-1,N-1) は、隣接する4つのプロセ
ッシング・エレメントPEとFIFOによるデータ転送
メモリVM,HMを介して結合されており、上記データ
転送メモリVM,HMを介して上記隣接する4つのプロ
セッシング・エレメントPEと非同期に通信を行うこと
ができるようになっている。
【0042】上記N×D個のプロセッシング・エレメン
トPE(0,0) 〜PE(D-1,N-1) をそれぞれ垂直リング結
合用のデータ転送メモリVM(0) 〜VM(N-1) と水平リ
ング結合用の各データ転送メモリHM(0) 〜HM(D-1)
とを介してメッシュ結合してなるこの実施例の学習処理
装置において、その垂直方向のリングは、ネットワーク
をN分割しており、その垂直リング内の各プロセッシン
グ・エレメントPE(0) 〜PE(N-1) は異なった結合係
数を持ち、上記信号処理部10の中間層12の出力値及
び逆伝播での上記中間層12の誤差計算の中間結果が転
送される。また、水平方向のリングは、入力データをD
グループに分散させており、その水平リング内の各プロ
セッシング・エレメントPE(0) 〜PE(D-1) は異なっ
たデータを持ち、全データの結合係数Wijに対する変化
量ΣΔWijと更新された結合係数Wijのみが転送され
る。
【0043】上記各切り換えスイッチ30〜nは、各出
力端が、第1行目の垂直リング内の各プロセッシング・
エレメントPE(0,0) 〜PE(0,N-1) の入力端にそれぞ
れ接続されている。また、上記各切り換えスイッチ30
〜nは、一方の入力端Aが、最後の行の各プロセッシン
グ・エレメントPE(0,0) 〜PE(0,N-1) の出力端に接
続された水平リング結合用の各データ転送メモリHM
(D-1,0) 〜HM(D-1,N-1) の出力端にそれぞれ接続され
ている。また、上記各切り換えスイッチ30〜nの一方
の入力端Aは、次の列の切り換えスイッチの他方の入力
端Bに接続されている。また、第nの切り返えスイッチ
nの一方の入力端Aが、第1の切り換えスイッチ30の
他方の出力端Bに接続されている。
【0044】そして、上記各切り換えスイッチ30〜n
は、該各切り換えスイッチ30〜nの設けられた列のノ
ードからの出力及び一段違いの列のノードからの出力
を、アプリケーション問題のサイズや計算量に応じて切
り換え選択するように制御されるようになっている。
【0045】次に、この学習処理装置は、上述の図6に
示した入力層11、中間層12及び出力層13を備える
3層構造のニューラルネッットワークに対して、例えば
ネットワークを4(N=4)分割して、以下に説明する
処理アルゴリズムに従って学習処理を行う。
【0046】入力データIを与えたときの中間層12の
ユニットUj への入力の総和netj は、
【0047】
【数8】
【0048】により求める。
【0049】上記中間層12のユニットUj の出力Hj
は、
【0050】
【数9】
【0051】により求める。
【0052】上記出力層13のユニットUj への入力
は、上記第8式と同様な積和演算の中間結果netj
図3の (t1),(t2),(t3),(t4) に示すように上記垂
直リング上を転送することにより各プロセッシング・エ
レメントPE(0),PE(1),PE(2),PE(3) で求める。
【0053】上記出力層13のユニットUj の出力Oj
は、上記第9式と同様に求める。
【0054】上記出力層13の誤差値δojは、上記出力
層13のユニットUj の出力Oj と教師信号Tj とか
ら、
【0055】
【数10】
【0056】により求める。
【0057】上記中間層12の誤差値δhjは、上記出力
層13の誤差値δojを図4の(t1),(t2 ),(t3
),(t4 )に示すように上記垂直リング上を転送し
ながら、各プロセッシング・エレメントPE(0),PE
(1),PE(2),PE(3) で、
【0058】
【数11】
【0059】により求める。
【0060】m番目入力データに対する結合係数の変化
量ΔWij(m)を各層について、
【0061】
【数12】
【0062】により求める。
【0063】ここで、全データ数をADとすると、上記
mは、m=1,・・・,AD/Dである。
【0064】分割された全データに対して(AD/D)
回上記〜の処理を繰り返し行う。
【0065】水平リングを使い、データ分割された結合
係数の変化量の総和を求める。
【0066】結合係数Wij(t) を更新する。
【0067】
【数13】
【0068】
【数14】
【0069】ここで、ηは学習定数、αは安定化定数、
tは学習回数である。
【0070】水平リングを使い、更新された結合係数W
ij(t) をデータ分割された他のプロセッシング・エレメ
ントPEに転送する。
【0071】出力層の誤差値が目標値以下になるまで、
このような処理アルゴリズムを繰り返し実行する。
【0072】これにより、例えば入力層が256ユニッ
ト、中間層が80ユニット、出力層が32ユニットで構
成され3層構造のニューラルネットにおいて、5120
パターンの学習処理を行う場合、ネットワークを4分割
(N=4)し、入力データを32PEグループ(D=3
2)に分散して、メッシュ結合された128個のプロセ
ッシング・エレメントに上述した処理アルゴリズムであ
るバックプロパゲーション学習処理アルゴリズムをマッ
ピングし、各プロセッシング・エレメントを50MHz
で動作させると1GCPSの学習速度を得ることができ
る。
【0073】ここで、このような計算処理は、アプリー
ケーション問題のサイズや計算量に応じて分割して行っ
たほうが効率の良い場合がある。このため、本実施例に
係る学習処理装置は、アプリーケーション問題のサイズ
や計算量に応じて、上記第1〜第nの切り換えスイッチ
30〜nが一斉に同じ方向に切り換え制御されるように
なっている。
【0074】一例として、y=Σ(A・Bj)の計算を
本実施例に係る学習処理装置で行うとする。なお、j=
1〜D,AはP×Qのマトリクス、BはQ×1のマトリ
クスとする。また、BxはD個のサンプルがあり、f
(X)の計算量は内積計算と比較してはるかに大きいも
のとする。
【0075】まず、上記Pが非常に大きく、マトリクス
Aのサイズが1個のプロセッシング・エレメントの記憶
容量を越えている場合、上記各切り換えスイッチ30〜
nは、A側の出力を選択するように一斉に切り換え制御
される。これにより、M×N個の2次元メッシュのトー
ラス結合構造の並列計算機が構成されることとなる。
【0076】上記マトリクスAを、M個の(P/M)×
Nの大きさのマトリクスA, に分割して垂直方向の各プ
ロセッシング・エレメントに格納する。このとき、水平
方向の各プロセッシング・エレメントには、全て同じ内
容の(P/M)×Nのマトリクスを格納する。
【0077】一方、上記マトリクスBについては、D個
のサンプルを、D/N個をN個のグループに分割して、
D/N個を水平方向の各プロセッシング・エレメントに
格納する。このとき、垂直方向の各プロセッシング・エ
レメントには、全て同じ内容のサンプル群を格納する。
【0078】このような状態において、本実施例に係る
学習処理装置は、まず、上記各プロセッシング・エレメ
ントが、C, =A, ・Bの計算を行う。
【0079】次に、1×(P/M)のマトリクスC,
上記垂直方向の各プロセッシング・エレメントに転送す
る。これを、P/M回繰り返すことにより、各プロセッ
シング・エレメントにはC=A・Bのデータが揃う。
【0080】次に、上記Cのデータを上記水平方向の各
プロセッシング・エレメントに転送する。これにより、
上記水平方向の各プロセッシング・エレメントに、f
(C)が累積され、D/N回後に計算結果が得られる。
【0081】これに対して、マトリクスAのサイズが、
1個のプロセッシング・エレメントの記憶容量に対して
小さいときは、上述のような垂直方向への分割は不要で
ある。
【0082】このため、本実施例に係る学習処理装置
は、上記各切り換えスイッチ30〜nをB側に切り換え
て、当該学習処理装置を1次元のリング型結合の構成と
する。なお、この場合は、上記垂直方向の各プロセッシ
ング・エレメントの結合軸は使用されない。
【0083】この場合、プロセッシング・エレメントの
数はM×N個となり、BのサンプルはD/(M×N)個
に分割されるため、前者と比較して並列度はM倍にな
り、計算速度の高速化を図ることができる。
【0084】以上の説明から明らかなように、本実施例
に係る学習処理装置は、アプリーケーション問題のサイ
ズや計算量に応じて、上記第1〜第nの切り換えスイッ
チ30〜nを切り換え制御することにより、計算速度の
高速化を図ることができる。
【0085】次に、本発明に係る学習処理装置の他の実
施例の説明をする。上述の実施例の説明では、図1に示
したように、水平リング結合をなす結合軸にそれぞれ第
1〜第nの切り換えスイッチ30〜nを設けたが、この
他の実施例に係る学習処理装置では、図5に示すよう
に、垂直リング結合をなす結合軸にそれぞれ第1〜第n
の切り換えスイッチ50〜nを設けた。
【0086】なお、上述の実施例と同様の構成を示す箇
所には同符号を付し、その説明を省略する。
【0087】すなわち、上記第1の切り換えスイッチ5
0の出力端は第1のプロセッシング・エレメントP
(0, N-1)の入力端に接続され、上記第2の切り換えス
イッチ51の出力端は第1のプロセッシング・エレメン
トPE(1, N-1)の入力端に接続される等のように、各切
り換えスイッチ50〜n及びプロセッシング・エレメン
トPE(0, N-1),PE(1, N-1)・・・が接続されてい
る。
【0088】また、上記第1の切り換えスイッチ50の
一方の入力端Aは上記第2の切り換えスイッチ51の他
方の入力端Bに接続されており、上記第2の切り換えス
イッチ51の一方の入力端Aは上記第3の切り換えスイ
ッチ52の他方の入力端Bに接続されている等のよう
に、各切り返スイッチ50〜nの一方の入力端A及び他
方の入力端Bが接続されている。
【0089】また、各垂直リング上の最後の各データ転
送メモリVM(0,0) 〜VM(D-1,0)の各出力端は、上記
第1〜第nの切り換えスイッチ50〜nの各一方の入力
端Aにそれぞれ接続されている。そして、上記第nの切
り換えスイッチnの一方の入力端Aは、第1の切り換え
スイッチ50の他方の入力端Bに接続されている。
【0090】このように、垂直リング結合をなす結合軸
にそれぞれ第1〜第nの切り換えスイッチ50〜nを設
けた他の実施例に係る学習処理装置も、上述の実施例に
係る学習処理装置と同様に、アプリーケーション問題の
サイズや計算量に応じて、上記第1〜第nの切り換えス
イッチ50〜nを切り換え制御することにより、計算速
度の高速化を図ることができる。
【0091】
【発明の効果】本発明に係る学習処理装置は、2次元メ
ッシュのトーラス結合構造を有するローカル結合方式の
学習処理装置において、横方向の結合軸に、その列のノ
ードからの出力及び一段違いの列のノードからの出力が
供給されるように切り換え手段を設け、この切り換え手
段を、アプリケーション問題のサイズや計算量に応じて
切り換え制御することにより、該アプリケーション問題
のサイズや計算量に応じて1つの計算を分割して行うこ
とができるため、計算速度の高速化を図ることができ
る。
【0092】また、本発明に係る学習処理装置は、2次
元メッシュのトーラス結合構造を有するローカル結合方
式の学習処理装置において、縦方向の結合軸に、その行
のノードからの出力及び一段違いの行のノードからの出
力が供給されるように切り換え手段を設け、この切り換
え手段を、アプリケーション問題のサイズや計算量に応
じて切り換え制御することにより、該アプリケーション
問題のサイズや計算量に応じて1つの計算を分割して行
うことができるため、計算速度の高速化を図ることがで
きる。
【0093】また、本発明に係る学習処理装置は、2次
元メッシュのトーラス結合構造のニューラルネットワー
クを用いて構成することにより、上記アプリケーション
問題のサイズや計算量に応じて、上記切り換え手段をよ
り最適に切り換え制御することができるため、計算速度
をさらに高速化することができる。
【図面の簡単な説明】
【図1】本発明に係る学習処理装置の実施例の構成を概
念的に示すブロック図である。
【図2】上記学習処理装置を構成するプロセッシング・
エレメントの構成を概念的に示すブロック図である。
【図3】上記学習処理装置の垂直リング上の各プロセッ
シング・エレメントによるバックプロパゲーション学習
処理の前向きの学習処理過程における動作説明図であ
る。
【図4】上記垂直リング上の各プロセッシング・エレメ
ントによるバックプロパゲーション学習処理の後向きの
学習処理過程における動作説明図である。
【図5】本発明に係る学習処理装置の他の実施例の構成
を概念的に示すブロック図である。
【図6】本発明を適用する3層構造のニーラルネットワ
ークによる信号処理部を備える学習処理装置の構成を概
念的に示すブロック図である。
【符号の説明】
10・・・・・・・・・・・・・・・・・・信号処理部 11・・・・・・・・・・・・・・・・・・入力層 12・・・・・・・・・・・・・・・・・・中間層 13・・・・・・・・・・・・・・・・・・出力層 20・・・・・・・・・・・・・・・・・・学習処理部 PE(0,0) 〜PE(D-1,N-1) ・・・・・・・プロセッシ
ング・エレメント VM(0,0) 〜VM(D-1,N-1) ・・・・・・・垂直転送用
データ転送メモリ HM(0,0) 〜HM(D-1,N-1) ・・・・・・・水平転送用
データ転送メモリ 30〜n・・・・・・・・・・・・・・・・切り換えス
イッチ 50〜n・・・・・・・・・・・・・・・・切り換えス
イッチ

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 2次元メッシュのトーラス結合構造を有
    するローカル結合方式の学習処理装置において、 横方向の結合軸に設けられた切り換え手段を有し、 上記切り換え手段は、該切り換え手段の設けられた列の
    ノードからの出力及び一段違いの列のノードからの出力
    を切り換え選択して出力することを特徴とする学習処理
    装置。
  2. 【請求項2】 2次元メッシュのトーラス結合構造を有
    するローカル結合方式の学習処理装置において、 縦方向の結合軸に設けられた切り換え手段を有し、 上記切り換え手段は、該切り換え手段の設けられた行の
    ノードからの出力及び一段違いの行のノードからの出力
    を切り換え選択して出力することを特徴とする学習処理
    装置。
  3. 【請求項3】 2次元メッシュのトーラス結合構造のニ
    ューラルネットワークを用いて構成することを特徴とす
    る請求項1又は請求項2記載の学習処理装置。
JP4285349A 1992-09-30 1992-09-30 学習処理装置 Withdrawn JPH06110864A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4285349A JPH06110864A (ja) 1992-09-30 1992-09-30 学習処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4285349A JPH06110864A (ja) 1992-09-30 1992-09-30 学習処理装置

Publications (1)

Publication Number Publication Date
JPH06110864A true JPH06110864A (ja) 1994-04-22

Family

ID=17690412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4285349A Withdrawn JPH06110864A (ja) 1992-09-30 1992-09-30 学習処理装置

Country Status (1)

Country Link
JP (1) JPH06110864A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020508532A (ja) * 2017-02-23 2020-03-19 セレブラス システムズ インク. 加速化ディープラーニング
US10657438B2 (en) 2017-04-17 2020-05-19 Cerebras Systems Inc. Backpressure for accelerated deep learning
JP2020517030A (ja) * 2017-04-17 2020-06-11 セレブラス システムズ インク. ディープラーニング加速化のためのデータ構造記述子
US11488004B2 (en) 2017-04-17 2022-11-01 Cerebras Systems Inc. Neuron smearing for accelerated deep learning

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020508532A (ja) * 2017-02-23 2020-03-19 セレブラス システムズ インク. 加速化ディープラーニング
US11934945B2 (en) 2017-02-23 2024-03-19 Cerebras Systems Inc. Accelerated deep learning
JP2021082317A (ja) * 2017-02-23 2021-05-27 セレブラス システムズ インク. 加速化ディープラーニング
US10699189B2 (en) 2017-02-23 2020-06-30 Cerebras Systems Inc. Accelerated deep learning
JP2020205067A (ja) * 2017-04-17 2020-12-24 セレブラス システムズ インク. 加速化ディープラーニングのニューロンスメアリング
US10762418B2 (en) 2017-04-17 2020-09-01 Cerebras Systems Inc. Control wavelet for accelerated deep learning
US10726329B2 (en) 2017-04-17 2020-07-28 Cerebras Systems Inc. Data structure descriptors for deep learning acceleration
JP2020517030A (ja) * 2017-04-17 2020-06-11 セレブラス システムズ インク. ディープラーニング加速化のためのデータ構造記述子
US11062200B2 (en) 2017-04-17 2021-07-13 Cerebras Systems Inc. Task synchronization for accelerated deep learning
US11157806B2 (en) 2017-04-17 2021-10-26 Cerebras Systems Inc. Task activating for accelerated deep learning
US11232347B2 (en) 2017-04-17 2022-01-25 Cerebras Systems Inc. Fabric vectors for deep learning acceleration
US11232348B2 (en) 2017-04-17 2022-01-25 Cerebras Systems Inc. Data structure descriptors for deep learning acceleration
US11475282B2 (en) 2017-04-17 2022-10-18 Cerebras Systems Inc. Microthreading for accelerated deep learning
US11488004B2 (en) 2017-04-17 2022-11-01 Cerebras Systems Inc. Neuron smearing for accelerated deep learning
US10657438B2 (en) 2017-04-17 2020-05-19 Cerebras Systems Inc. Backpressure for accelerated deep learning

Similar Documents

Publication Publication Date Title
US5506998A (en) Parallel data processing system using a plurality of processing elements to process data and a plurality of trays connected to some of the processing elements to store and transfer data
EP0421639B1 (en) Parallel data processing system
US5465375A (en) Multiprocessor system with cascaded modules combining processors through a programmable logic cell array
CN107301456B (zh) 基于向量处理器的深度神经网络多核加速实现方法
US5812993A (en) Digital hardware architecture for realizing neural network
EP0505179A2 (en) A parallel data processing system
JP2002533823A (ja) 重み付けされたシナプスアレイを最大限に使用する入力アーキテクチャを備えたニューラル処理モジュール
JPH06131308A (ja) 多次元シストリックアレイ処理装置及び方法
US5799134A (en) One dimensional systolic array architecture for neural network
CN113159285A (zh) 神经网络加速器
WO1993003443A1 (en) Signal processor and learning method thereof
JP2810170B2 (ja) 多層型ネットワークの学習装置
JPH05346914A (ja) ニューロプロセッサ
JPH06110864A (ja) 学習処理装置
US5627944A (en) Parallel data processing system
JPH0590141A (ja) 荷電ビーム描画用データ作成装置
JPH04344970A (ja) ニューラルネット処理装置
CN112115665B (zh) 存算一体存储阵列及其卷积运算方法
CN114724595A (zh) 一种卷积运算加速器及卷积运算方法
JP2825133B2 (ja) 並列データ処理方式
Jenq et al. Feedforward backpropagation artificial neural networks on reconfigurable meshes
JP3271186B2 (ja) 学習処理装置
Kumar et al. Algorithmic mapping of neural network models onto parallel SIMD machines
Jing-Fu Jenq Artificial Neural Networks on Reconfigurable Meshes
Jenq et al. Artificial neural networks on reconfigurable meshes

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19991130