JPH03123959A - 学習処理装置 - Google Patents

学習処理装置

Info

Publication number
JPH03123959A
JPH03123959A JP1261486A JP26148689A JPH03123959A JP H03123959 A JPH03123959 A JP H03123959A JP 1261486 A JP1261486 A JP 1261486A JP 26148689 A JP26148689 A JP 26148689A JP H03123959 A JPH03123959 A JP H03123959A
Authority
JP
Japan
Prior art keywords
learning
processing
layer
input
learning processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1261486A
Other languages
English (en)
Other versions
JP3271186B2 (ja
Inventor
Atsunobu Hiraiwa
平岩 篤信
Shigeru Arisawa
繁 有沢
Shigeru Kurosu
黒須 茂
Makoto Inoue
真 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP26148689A priority Critical patent/JP3271186B2/ja
Publication of JPH03123959A publication Critical patent/JPH03123959A/ja
Application granted granted Critical
Publication of JP3271186B2 publication Critical patent/JP3271186B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 A 産業上の利用分野 本発明は、それぞれニューロンに対応する信号処理を行
う複数のユニットにより構成された所謂ニューラルネッ
トワーク(Neural Network :神経回路
網)を用いた信号処理部に対して、ハックプロパゲーシ
ョン(Back propagation :逆転tl
)学習則に従った学習処理を施す学習処理装置に関する
B 発明の概要 本発明は、ニューラルネントワークによる信号処理部に
対してパックプロパゲーション学習則に従った学習処理
を行う学習処理装置において、多数のプロセッシング・
エレメントをメツシュ結合して並列処理により高速学習
処理を実現したものである。
C従来の技術 それぞれニューロンに対応する信号処理を行う複数のユ
ニットにより構成された所謂ニューラルネットワークを
用いた信号処理部に対する学習処理の手法として、rP
arallel Distributed Pr。
cessing J Vol、I The MIT P
ress 1986や日経エレクトロニクス1987年
8月10日号、No、427.ppH5−124等にお
いて、バンクプロパゲーション学習器が提案されている
そして、上記バンクプロパゲーション学習器は、第5図
に示すように、入力層(11)と出力層(13)の間に
中間層(12)を有する多層構造のニューラルネットワ
ークにより構成される信号処理部(10)に適用され、
高速画像処理やパターン認識等の各種の信号処理への応
用が試みられている。
すなわち、第5図に示すように、このニューラルネット
ワークを構成する各ユニット(Uj)は、ユニット(U
、)からユニット(U、)への結合係数W4.で結合さ
れるユニット(U、)の出力値0゜の総和net、を例
えばsigmoid関数などの所定の関数rで変換され
た値0.を出力する。すなわち、パターンpの値が入力
層の各ユニット(UJ)に入力値としてそれぞれ供給さ
れたとき、中間層および出力層の各ユニッ)(Uj)の
出力値○2、は、0pj= r j  (netDJ) −fJ(ΣWJ、、Op、。)・、・・・第1式なる第
1式で表される。
そして、人力!(11)から出力層(13)へ向かって
、各ニューロンに対応するユニット(U、)の出力値を
順次計算していくことで、上記出力層(13)のユニッ
ト(U、)の出力値Opjが得られる。
バンクプロパゲーション学習アルゴリズムにおいては、
上記信号処理部(10)に対して、学習処理部(20)
により、入カバターンpを与えたときの、出力層(13
)の各ユニット(U、)の実際の出力値09、と望まし
い出力値T9Jすなわち教師信号との二乗誤差の総和E
Ep=−Σ(Tpj−0,j)”  ・・・・・・・第
2式を極小化するように、結合係数W j iを変える
学習処理を出力層(13)から入力層(11)へ向かっ
て順次に行うことによって、教師信号の値T9.に最も
近い出力値Opjが上記出力層(13)のユニット(U
、)から出力されるようになる。
そして、二乗誤差の総和E、を小さくする結合係数W 
j iの変化量ΔW4、を、 ΔWJt□q  9Ep/aW7+  、−・i[と決
めると、上記第3式は、 ΔW、、=η・δ2、・0,8  ・・・・・・・・・
・第4式に変形することができる(この過程は上述の文
献を参照)。
ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには入出力の値等から経験的に決定される。ま
た、δpJはユニッ)(tJJ)のもつ誤差値である。
従って、上記変化量ΔW j iを決定するためには、
上記誤差値δP1をネットワークの出力層から入力層に
向かって逆向きに求めていけば良い。出力層のユニット
(UJ)の誤差値δ2.は、δ、J= (Tp=  0
p=) r ’J(neJ) =・・・第5式なる第5
式で与えられ、中間層のユニット(Ujの誤差値δp1
は、そのユニッI−(U、)が結合されている各ユニッ
ト(Uk)  (この例では出力層の各ユニット)の結
合係数W3.および誤差値δ、を用いて、 δpJ= f ’=(net;)Σδ9 k W k、
・・・・・第6式なる再帰関数により計算される(上記
第5式および第6式を求める過程は上述の文献を参照)
なお、上記” = (neJ)は、出力関数f J(n
et、)の微分値である。
そして、変化量ΔW=tは、上記第5式および第6式の
結果を用いて上述の第4式によって求められるが、前回
の学習結果を用いて、 ΔWJ、fnll=η・δpJ・Op++α・ΔWji
fn+・・・・・・第7式 なる第7式により求めることで、より安定した結果が得
られる。なお、αはエラーの振動を減らし、収束を速め
るための安定化定数である。
そして、この学習を繰り返し行い、出力値09゜と教師
信号の値TpJとの二乗誤差の総和Epが十分に小さく
なった時点で学習を完了する。
このようなニューラルネットワークを利用して画像処理
や音声認識などの分野において実用に適した装置を実現
するためには、各相のユニットすなわちニューロンの数
を増やし、ネットワークの規模を大きくすることが必要
とされ、それに伴い結合係数の学習に膨大な計算量が必
要となる。
従来より、ニューラルネットワークを利用した装置では
、ニューラルネットワークにおける計算処理は元来並列
処理であることから、並列処理によって計算速度を高め
る試みがなされている。並列化の方法としては、1つの
ニューロンを1つの計算素子に対応させる方法や、複数
のニューロンを担当するプロセッサを結合して用いる方
法があるが、前者はハードウェアが大きくなり、現在の
技術で大規模なネットワークを実現するのは実用的でな
い。
従って、現在提案されているシステムは、その多くが後
者に基づいており、プロセッサとしては信号処理プセッ
サ(DSP)、汎用のマイクロプロセッサ専用のチップ
を用いたもの等がある。いずれも、複数のプロセンサが
、互いに通信しながら並列的にニューラルネットワーク
の計算処理を実行する。また、ニューラルネットワーク
の並列処理方式としては、ネットワークを複数に分割し
て処理を行うネットワーク分割法やデータを複数のプロ
セッサに分散させて処理を行うデータ分割法が知られて
いる。
D 発明が解決しようとする課題 ところで、上述の如き多層型のニューラルネットワーク
に対するバックプロパゲーション学習量に従った結合重
みの学習処理にネットワーク分割法を採用した場合、ネ
ットワークの分割数すなわちプロセッサ数が多くなると
、プロセッサ間の通信時間が増大し、性能の向上が期待
できなくなる9また、データ分割法を採用した場合には
、大量の学習量が必要であり、データの分割数すなわち
プロセッサ数が例えば100以上になると、プロセッサ
間の通信時間が増大し、性能の向上が期待できなくなる
そこで、本発明は、上述の如き従来の実情に鑑み、多数
のプロセッサによる並列処理によって、高速且つ少ない
オーバーヘッドでニューラルネットワークに対するバッ
クプロパゲーション学習量に従った結合重みの学習処理
を効率良く行うことができるようにした学習処理装置を
堤供することを目的とする。
E 課題を解決するための手段 本発明は、上述の目的を達成するために、それぞれニュ
ーロンに対応する信号処理を行う複数のユニットにより
構成された入力層、中間層および出力層を備える信号処
理部と、上記入力層に入力される入力信号パターンに対
する上記出力層の出力値と教師信号として与えられる所
望の出力値との誤差情報に基づいて上記各ユニットの間
の結合の強さの係数を上記出力層側から上記入力層側に
向かって順次に繰り返し計算し、上記結合の強さの係数
の学習処理を行う学習処理部とを備えて成る学習処理装
置において、それぞれ垂直リング結合用のデータ転送メ
モリと水平リング結合用のデータ転送メモリとを介して
メツシュ結合されたN×D個のプロセッシング・エレメ
ントを備え、ネットワークをN分割し、入力データをD
グループに分散させて、上記メツシュ結合されたN×D
個のプロセッシング・エレメントに学習処理アルゴリズ
ムをマツピングしたことを特徴とするものである。
F 作用 本発明に係る学習処理装置において、メツシュ結合され
た各プロセンシング・エレメントは、周囲の4つのプロ
セッシング・エレメントとの間で通信は非同期にデータ
の通信を行う。また、同一プロセッシング・エレメント
を結合する構成のためシステムの拡張が容易となる。
G 実施例 以下、本発明の実施例について、図面を参照しながら詳
細に説明する。
本発明に係る学習処理装置は、第1図に示すように、そ
れぞれ垂直リング結合用のデータ転送メモリVM(。)
〜VM(、−、)と水平リング結合用のデータ転送メモ
’月(M +。+ 〜HM 、o−nとを介してメツシ
ュ結合されたN×D個のプロセッシング・エレメントP
Ef。、。、〜P E fD−1,N−11を備え、ネ
・ソトワークをN分割し、入力データをDグループに分
散させて、上記メツシュ結合されたN×D個のプロセン
シング・エレメントPE+。、。、〜P E t。
N−11にバックプロパゲーション学習処理アルゴリズ
ムをマツピングしてなる。
この実施例の学習処理装置は、上述の第5図に示したそ
れぞれニューロンに対応する信号処理を行う複数のユニ
ットにより構成された入力層(11)、中間層(12)
および出力層(13)を備える信号処理部(10)に対
する上記各ユニットの間の結合の強さの係数をバックプ
ロパゲージジン学習則に従って上記学習処理部(20)
により行う学習処理装置に本発明を適用したものである
上記各プロセッシング・エレメントP E fO+ o
+〜PEND〜I+N−11には、第2図に示すように
、例えば、InLe1社によって開発された64ビット
; Rtscタイプの汎用マイクロプロセッサ(808
60)がそれぞれ用いられ、ニューロン間の結合の重み
すなわち結合係数や出力をストアするために4Mバイト
のローカルメモリRAMが設けられている。また、上記
垂直リング結合用の各データ転送メモリVM、。、〜V
M(、−H及び水平リング結合用の各データ転送メモリ
HM 、。)〜HM +n−n  としては、F I 
F 0(First in Firstout)メモリ
がそれぞれ用いられている。
そして、上記各プロセッシング・エレメントPE、。、
。、〜PEf。−l+N−11は、隣接する4つのプロ
セッシング・エレメントPEとFIFOによるデータ転
送メモリVM、HMを介して結合されており、上記デー
タ転送メモリVM、HMを介して上記隣接する4つのプ
ロセッシング・エレメントPEと非同期に通信を行うこ
とができる。
上記N×D個のプロセッシング・エレメントPE、。、
。、〜P E u+−1+ M−nをそれぞれ垂直リン
グ結合用のデータ転送メモリVM+o+〜VM+ト++
と水平リング結合用の各データ転送メモリHMf。、〜
HMco−I+  とを介してメツシュ結合してなるこ
の実施例の学習処理装置において、その垂直方向のリン
グは、ネットワークをN分割しており、その垂直リング
内の各プロセッシング・エレメントPE、。、〜P E
 tN−uは異なった結合係数を持ち、上記信号処理部
(10)の中間層(12)の出力値及び逆伝播での上記
中間1 (12)の誤差計算の中間結果が転送される。
また、水平方向のリングは、入力データをDグループに
分散させており、その水平リング内の各プロセッシング
・エレメントPEf。、〜P E Lo−n  は異な
ったデータを持ち、全データの結合係数W 、に対する
変化量ΣΔW + =と更新された結合係数W3.のみ
が転送される。
次に、この学習処理装置は、上述の第5図に示した入力
層(11)、中間層(12)及び出力層(13)を備え
る3層構造のニューラル不ソットワークに対して、例え
ばネットワークを4 (N=4)分割して、次の処理ア
ルゴリズム(1)〜021に従って学習処理を行う。
(1)゛ 入力データIを与えたときの中間層(12)
のユニットUJへの入力の総和net7は、netJ=
  Σw、Jr。
により求める。
(2)中間層(12χのユニットU1の出力H,は、1
+e により求める。
(3)出力層(13)のユニットU4への入力は、上記
(1)と同様な積和演算の中間結果netJを第3図の
(1+)、(む2)、(t 3L(t 4)  に示す
ように上記垂直リング上を転送することにより各プロセ
ッシング・エレメントP E +。r、 P E t、
+、 P E u+。
PE、3.で求める。
(4)出力層(13)のユニットUJの出力O4は、上
記(2)と同様に求める。
(5)出力層(13)の誤差値δ。□は、上記出力層、
(13)のユニットU、の出力O4と教師信号T、とか
ら、 δ。、=(T、−0j)OJ(1−0J)により求める
(6)中間層(12)の誤差値δ5.は、上記出力層(
13)の誤差値δ。、を第4図の(t +)、(t z
)、(t 3)(L4)に示すように上記垂直リング上
を転送しながら、各プロセッシング・エレメントPE+
。)。
P E (11,P E cz+、 P E +s、で
、δ、、=H,(1−HJ)(Σδ。kWア、)により
求める。
(7)m番目入力データに対する結合係数の変化量ΔW
、、(m)を各層について ΔW、(m)=δIOJ+ΔWtJ(m−1)により求
める。
ここで、全データ数をADとすると、上記mは、m=1
.− ・−、AD/Dである。
(8)分割された全データに対して(AD/D)間上記
(1)〜(7)の処理を繰り返し行う。
(9)水平リングを使い、データ分割された結合係数の
総和を求める。
00)結合係数W 、 、 (t)を更新する。
ΔWij(t)−ηΣδW、(AD/D)十αΔWtJ
(t−1) LJ(t)−八WB(t)+W;=(t−1)ここで、
ηは学習定数、αは安定化定数、Lは学習回数である。
01)水平リングを使い、更新された結合係数W i 
j(1)をデータ分割された他のプロセッシングエレメ
ントPEに転送する。
θり 出力層の誤差値が目標値以下になるまで、−に記
(1)〜(11)の処理を繰り返し行う。
上述の如き構成の学習処理装置では、例えば入力層が2
56ユニツト、中間層が80ユニツト、出力層が32ユ
ニツトで構成され3層構造のニューラルネットにおいて
、5120パターンの学習処理を行う場合、ネットワー
クを4 (N=4)分割し、入力データを32 (D=
32)PEグループに分散して、メツシュ結合された1
28個のプロセッシング・エレメントに上述の(1)〜
面の学習処理を行うバックプロパゲーション学習処理ア
ルゴリズムをマツピングし、各プロセッシング・エレメ
ントを50MHzで動作させるとIGcPsの学習速度
が得られる。
H発明の効果 上述のように、本発明に係る学習処理装置では、メソシ
ュ結合された各プロセッシング・エレメントが周囲の4
つのプロセンシング・エレメントとの間で非同期にデー
タの通信を行うことにより、プロセンサのオーバーヘッ
ドを小さく抑えることができる。また、同一プロセッシ
ング・エレメントを結合する構成のためシステムの拡張
が容易であり、プロセッシング・エレメント数を多くす
ることによって、全体の処理能力を向上することができ
る。
従って、本発明によれば、多数のプロセッサによる並列
処理によって、ニューラルネットワークに対するバック
プロパゲーション学習則に従った結合係数の学習処理を
高速且つ少ないオーバーヘッドで行う学習処理装置を実
現することができる。
【図面の簡単な説明】
第1図は本発明に係る学習処理装置の構成を概念的に示
すブロック図、第2図は上記学習処理装置を構成するプ
ロセッシング・エレメントの構成概念的に示すブロック
図、第3図は上記学習処理装置の垂直リング上の各プロ
センシング・エレメントによるバンクプロパゲーション
学習処理の前向きの学習処理過程における動作説明図、
第4図は、同じく上記垂直リング上の各プロセッシング
・エレメントによるバンクプロパゲーション学習処理の
後向きの学習処理過程における動作説明図、第5図は本
発明を適用する3層構造の二−ラル不ノドワークによる
信号処理部を備える学習処理装置の構成を概念的に示す
ブロフク図である。 (10)・・・・・・信号処理部 (11)・・・・・・入力層 (12)・・・・・・中間層 (13)・・・・・・出力層 (20)・・・・・・学習処理部 PE、。、。l、PE(。1.〜PE+o、□14N−
11・・・・プロセッシング・エレメント VM +O+61+ VM (11,11〜VM(D−
1,N・・・・垂直転送用データ転送メモリ HM 、。、。+ 、 HM (。1.〜l−I M 
to−+−N・・・水平転送用データ転送メモリ

Claims (1)

  1. 【特許請求の範囲】 それぞれニューロンに対応する信号処理を行う複数のユ
    ニットにより構成された入力層、中間層および出力層を
    備える信号処理部と、上記入力層に入力される入力信号
    パターンに対する上記出力層の出力値と教師信号として
    与えられる所望の出力値との誤差情報に基づいて上記各
    ユニットの間の結合の強さの係数を上記出力層側から上
    記入力層側に向かって順次に繰り返し計算し、上記結合
    の強さの係数の学習処理を行う学習処理部とを備えて成
    る学習処理装置において、 それぞれ垂直リング結合用のデータ転送メモリと水平リ
    ング結合用のデータ転送メモリとを介してメッシュ結合
    されたN×D個のプロセッシング・エレメントを備え、 ネットワークをN分割し、入力データをDグループに分
    散させて、上記メッシュ結合されたN×D個のプロセッ
    シング・エレメントに学習処理アルゴリズムをマッピン
    グしたことを特徴とする学習処理装置。
JP26148689A 1989-10-06 1989-10-06 学習処理装置 Expired - Fee Related JP3271186B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26148689A JP3271186B2 (ja) 1989-10-06 1989-10-06 学習処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26148689A JP3271186B2 (ja) 1989-10-06 1989-10-06 学習処理装置

Publications (2)

Publication Number Publication Date
JPH03123959A true JPH03123959A (ja) 1991-05-27
JP3271186B2 JP3271186B2 (ja) 2002-04-02

Family

ID=17362579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26148689A Expired - Fee Related JP3271186B2 (ja) 1989-10-06 1989-10-06 学習処理装置

Country Status (1)

Country Link
JP (1) JP3271186B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091189A (zh) * 2017-12-14 2020-05-01 中科寒武纪科技股份有限公司 集成电路芯片装置及相关产品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102414583B1 (ko) 2017-03-23 2022-06-29 삼성전자주식회사 머신 러닝을 수행하는 전자 장치 및 머신 러닝 수행 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091189A (zh) * 2017-12-14 2020-05-01 中科寒武纪科技股份有限公司 集成电路芯片装置及相关产品
CN111091189B (zh) * 2017-12-14 2023-08-29 中科寒武纪科技股份有限公司 集成电路芯片装置及相关产品

Also Published As

Publication number Publication date
JP3271186B2 (ja) 2002-04-02

Similar Documents

Publication Publication Date Title
US5574827A (en) Method of operating a neural network
Zhang et al. An efficient implementation of the back-propagation algorithm on the connection machine CM-2
Hagan et al. Training feedforward networks with the Marquardt algorithm
Gorinevsky et al. Comparison of some neural network and scattered data approximations: The inverse manipulator kinematics example
Wu et al. Parallelizing the self-organizing feature map on multiprocessor systems
Chinn et al. Systolic array implementations of neural nets on the MasPar MP-1 massively parallel processor
JP2810170B2 (ja) 多層型ネットワークの学習装置
JPH03123959A (ja) 学習処理装置
JPH076146A (ja) 並列データ処理システム
JPH07210534A (ja) ニューラルネットワーク
JP2897220B2 (ja) 信号処理装置
Sudhakar et al. Efficient mapping of backpropagation algorithm onto a network of workstations
JP2699447B2 (ja) 信号処理装置
JPH05197705A (ja) ニューラルネットワークの学習システム
JPH06110864A (ja) 学習処理装置
Ghorbani et al. Incremental communication for multilayer neural networks
JPH02266458A (ja) ニューラルネットワークシミュレーション装置
Hiraiwa et al. Implementation of ANN on RISC processor array
JP2877413B2 (ja) 余剰ニューロン決定処理方式
Oglesby et al. Dynamic scheduling for feed-forward neural nets using transputers
Maria et al. 1d and 2d systolic implementations for radial basis function networks
JP3417574B2 (ja) ファジィ論理演算用ニューロン素子
Jenq et al. Artificial neural networks on reconfigurable meshes
Ghorbani et al. Incremental communication for artificial neural networks
Bachiller-Burgos OPTIMIZING AND LEARNING ALGORITHM FOR FEEDFORWARD NEURAL NETWORKS AND ITS IMPLEMENTATION BY SYSTOLIC ARRAY

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees