JPH03118656A - ネットワーク構成データ処理装置の重み更新量保持方式 - Google Patents

ネットワーク構成データ処理装置の重み更新量保持方式

Info

Publication number
JPH03118656A
JPH03118656A JP1253745A JP25374589A JPH03118656A JP H03118656 A JPH03118656 A JP H03118656A JP 1253745 A JP1253745 A JP 1253745A JP 25374589 A JP25374589 A JP 25374589A JP H03118656 A JPH03118656 A JP H03118656A
Authority
JP
Japan
Prior art keywords
update amount
weight
previous
current
instruction means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1253745A
Other languages
English (en)
Other versions
JP3047411B2 (ja
Inventor
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Ryusuke Masuoka
竜介 益岡
Yuri Oowada
大和田 有理
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1253745A priority Critical patent/JP3047411B2/ja
Publication of JPH03118656A publication Critical patent/JPH03118656A/ja
Application granted granted Critical
Publication of JP3047411B2 publication Critical patent/JP3047411B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概    要〕 ニューラルネットワークの学習時における重みの更新に
際して、今回の重み更新量などを次回の重み更新に備え
て保持するためのネットワーク構成データ処理装置の重
み更新量保持方式に関し、重み更新量のデータ転送を省
略する機構を提供することによって、ネットワークの学
習速度を向上させることを目的とし、 前段層からの1つまたは複数の入力と該入力に対してそ
れぞれ乗算されるべき重みとの積の和をとり、該和に対
して出力を得るユニットを基本単位として、1つまたは
複数個のユニットから構成される入力層を1段、1つま
たは複数個のユニットから構成される中間層を1段また
は複数段、1つまたは複数個のユニットから構成される
出力層を1段備え、入力層と最前段の中間層の間、隣接
する中間層の間、最後段の中間層と出力層の間にユニッ
ト相互間の内部結合を構成し、該内部結合にそれぞれ重
みを割当てることによって階層ネットワークを構成する
データ処理装置において、前記階層ネットワーク内の各
内部結合にそれぞれ割当てられる重みの今回更新量、前
回の更新量、および前々回更新量をそれぞれ連続した領
域に記憶する重み更新量記憶手段と、該重み更新量記憶
手段内で重みの今回更新量記憶領域の先頭アドレスを保
持する今回更新量アドレス指示手段と、該重み更新量記
憶手段内で重みの前回更新量記憶領域の先頭アドレスを
保持する前回更新量アドレス指示手段と、該重み更新量
記憶手段内で重みの前々回更新量記憶領域の先頭アドレ
スを保持する前々回更新量アドレス指示手段とを備え、
前記今回更新量アドレス指示手段、前回更新量アドレス
指示手段、および前々回更新量アドレス指示手段の指示
に基づき前記ネットワーク内の各内部結合に割当てられ
た重みを更新した後に、今回更新量アドレス指示手段の
内容を前回更新量アドレス指示手段に、前回更新量アド
レス指示手段の内容を前々回更新量アドレス指示手段に
、また前々回更新量アドレス指示手段の内容を今回更新
量アドレス指示手段にそれぞれ転送するように構成する
〔産業上の利用分野〕
本発明はネットワーク構成データ処理装置の学習処理方
式に係り、さらに詳しくは例えばニューラルネットワー
クの学習時における重みの更新に際して、今回の重み更
新量などを次回の重み更新に備えて保持するためのネッ
トワーク構成データ処理装置の重み更新量保持方式に関
する。
従来の逐次処理コンピュータ、すなわちノイマン型コン
ピュータでは使用方法や環境の変化に応じてコンピュー
タのデータ処理機能を調節することが難しく、このため
適応性を有するデータ処理方式として階層ネットワーク
による並列分散処理方式が提唱されてきている。特にバ
ックプロパゲーション法と呼ばれる処理方式がその実用
性の高さから注目されている。
〔従来の技術〕
階層ネットワーク、例えばパーセプトロン型ネy’rワ
ークは幾つかの層から成る階層的なもので、各層は適当
な数のユニットから成り、層内の結合はなく、眉間の結
合は入力層(第1N)から出力層(最終層)へ向けての
1方向の結合のみである。
入力層を除く各層のユニットは、前の層のユニットから
の重み付き人力を受けてその総和を求め、その総和に対
する適当な関数値を出力する。関数としては例えば総和
の値がある値より大きい時に1、小さい時に0となる闇
値関数などが用いられる。
このような階層ネットワーク、例えばニューラルネット
ワークにおける学習処理においては、入力層にある既知
のパターンを与えた時に、出力層が正しいパターンを出
力するように入力層と中間層、二つの中間層の間、およ
び中間層と出力層の間の内部結合に対する重みが修正さ
れる。そしてこの重み更新を多数回繰返すことによって
正しい出カバターンが得られるようになった時点で、そ
のパターンに対する学習は終了する。例えば3N構成の
ネットワークにおいて、この重み更新時にまず出力層に
正しい出カバターンを与えて中間層から出力層への内部
結合に割当てられる重みを修正し、その後入力層から中
間層への内部結合の重みを修正する、いわゆるバックプ
ロパゲーション法が用いられることが多い。このバック
プロパゲーション法では、重みを更新するにあたって現
在の誤差の微分値と前回の重み更新量を基にして新しい
更新量が決定され、この更新量を用いて重みが更新され
る。
第6図は重み更新量保持方式の従来例である。
同図において、従来例はネッ[・ワーク内の全ての内部
結合に対する重みを格納する重みデータメモリ11、各
内部結合に対する今回の重み更新量を格納する今回更新
量メモリ12、重み更新量にあたって用いられる前回の
重み更新量を格納する前回更新量メモリ13.2つの加
算器14.15.2つの乗算器16.17、後述する学
習パラメータを記憶する2つのパラメータレジスタ18
,19、重み更新時のタイミングを作成するための3つ
のデイレイ20,2L  22、および重み更新後に今
回更新量メモリ12の内容を前回更新量メモリ13にシ
フトするためのシフト機構23から成っている。
第6図の従来例の動作を重みの初期設定、重みの読出し
、および重みの更新に分けて説明する。
まず重みの初期設定時にはクリア信号1がオンとされて
、今回更新量メモリ12と前回更新量メモリ13の全内
容がOにされる。重み選択信号3、すなわち層、ユニッ
ト、結線(内部結合)の番号を指定することにより重み
の1つを特定する信号と、その特定された重みの初期値
7がセットされ、初期値設定信号6、すなわち初期値書
込み信号がオンとされて重みデータメモリ11の指定さ
れた重みの内容が初期化される。これを全ての層、ユニ
ット、結線について行うことにより、重みデータメモリ
11の全内容の初期化が行われる。
次に学習パレメータ9としてパラメータレジスタ18に
一ε、パラメータレジスタ19にαを与える。これは前
述のようにバックブロパゲーショんりれるためである。
・ ・ ・ ・(1) ここでΔW(t−1)は前回の重み更新量である。
重みデータメモリ11に格納された重みに対しては、重
み選択信号3をセットした後に重み読出し信号4をオン
することにより、指定された重み5が読出される。
次に重みの更新時の動作を説明する。重み選択内に■か
ら■で示したタイミングにおいて以下の動作が行われる
まず重み更新信号10が入力した時点、すなわちタイミ
ング■において乗算器16によってパラメータレジスタ
19に格納されているαの値と前回更新量メモリ13に
格納されている特定された重みの前回更新量とが乗算さ
れ、また乗算器17次にデイレイ20によってタイミン
グ■から1タイミング遅らされたタイミング■において
、加算器15によって乗算器16と乗算器17の出力と
が加算され、今回の重み更新量が(1)弐のように求め
られる。
デイレイ21によってタイミング■より1タイミング遅
らされたタイミング■において加算器15の出力、すな
わち今回の更新量が今回更新量メモリ12に格納される
と同時に、加算器14によって重みデータメモリ11に
格納されている前回更新された結果の重みW(t−1)
と加算器15の出力が加算され、今回の重みデータとし
て次式%式% (2) 最後にタイミング■よりさらに1タイミング遅れたタイ
ミング■において加算器14の出力、すなわち今回更新
された重みデータが重みデータメモリ11に格納される
。以上の動作が全ての層、ユニット、結線について行わ
れ、重みデータメモリ11および今回更新量メモリ12
の内容が更新される。
以上で1回の学習が終わったことになり、重みデータが
更新されたのでシフト信号2がオンとされ、シフト機構
23によって今回更新量メモリ12の内容が前回更新量
メモリ13にシフトされる。
これには例えばDMAによる転送やMPUによる転送が
用いられる。
〔発明が解決しようとする課題〕
上述のような重み更新は階層ネットワークの学習処理に
おいて数千〜数十刃口と非常に多数回行われる。そこで
重み更新量の管理はネットワークの学習速度に大きな影
響を及ぼす。ここで例えば入力層が1 、000個、中
間層が10個、出力層が20個のユニットで構成される
3Nのネットワークの場合には重み更新量は 1.000  x10+10x20=10,200ワー
ドとなり、学習1回毎に10,200ワードのデータ転
送を行う必要があり学習処理に時間がかかるという問題
があった。
本発明は、この重み更新1のデータ転送を省略する機構
を提供することによって、ネットワークの学習速度を向
上させることを目的とする。
〔課題を解決するための手段〕
第1図は本発明の原理ブロック図である。同図は前段層
からの1つまたは複数の入力と、その入力に対して乗算
されるべき重みとの積を合計し、その和の関数、例えば
闇値関数の値を求め、それを出力とするユニット、例え
ばニューロンを基本単位として、1段の入力層、1段ま
たは複数段の中間層、1段の出力層を備えて、入力層と
最前段の中間層の間、隣接する中間層の間、および最後
段の中間層と出力層の間にユニット相互の内部結合を構
成し、その内部結合にそれぞれ重みを割当てることによ
って階層ネットワークを構成するデータ処理装置におけ
る重み保持方式の原理プロソり図である。入力層、各中
間層、および出力層はそれぞれ1つまたは複数個のユニ
ットから構成される。
第1図(a)は第1の発明、すなわち後述するように前
回の重み更新量に加えて前々回の重み更新量をも使用し
て新しい重み更新量を求める場合における重み更新量保
持方式の原理ブロック図である。
同図において、重み更新量記憶手段26は階層ネットワ
ーク、例えばニューラルネットワーク内の各内部結合に
それぞれ割当てられる重みの今回更新量、前回更新量お
よび前々回更新量をそれぞれ連続した領域に記憶する。
すなわち例えば入力層が1 、000個、中間層が10
個、出力層が20個のユニ・ノドで構成されるネットワ
ークの場合には合計10゜200個の今回更新量が連続
した領域に記憶される。
今回更新量アドレス指示手段27は、重み更新量記憶手
段26内で重みの今回更新量を記憶している連続領域の
先頭アドレスを保持し、前回更新量アドレス指示手段2
8は同様に重みの前回更新量記憶領域の先頭アドレスを
、さらに前々回更新貴アドレス指示手段29は重みの前
々回更新量記憶領域の先頭アドレスを保持する。
第1図(b)は第2の発明、すなわち前々回の重み更新
量を用いることなく前回の重み更新量に基づいて新しい
重み更新量を求める場合の重み更新量保持方式の原理ブ
ロック図である。同図を第1の発明を示す第1図(al
と比較すると、前々回更新量アドレス指示手段29が存
在しないことと、重み更新量記憶手段30が重みの今回
更新量と前回更新量とをそれぞれ連続した領域に記憶す
る点が異なっている。
〔作    用〕
階層ネットワーク、例えばニューラルネットワークの学
習時にネットワーク内の各内部結合にそれぞれ割当てら
れた重みの更新処理において、第1の発明では後述する
ように重みの前回更新量に加えて前々回更新量が用いら
れる。すなわち前回更新量アドレス指示手段28と前々
回更新量アドレス指示手段29の指示に基づいて求めら
れた重み更新量を用いて、今回の重み更新量が求められ
、重みが更新されるとともに、今回更新量が重み更新量
記憶手段26内の今回更新量記憶領域に格納される。
その後今回更新量アドレス指示手段27の内容が前回更
新量アドレス指示手段28に、前回更新量アドレス指示
手段28の内容が前々回更新量アドレス指示手段29に
、また前々回更新量アドレス指示手段29の内容が今回
更新量アドレス指示手段27にサイクリックに転送され
る。
これによって更新量記憶手段26に記憶されている記憶
内容をシフトさせることな(、例えば今回の重み更新量
は次の重み更新時には前回の重み更新量として用いられ
ることになる。第2の発明においては前々回の重み更新
量が今回の重み更新量の計算に用いられない点を除いて
はその作用は第1の発明におけると全く同様である。
以上のように、本発明においては重み更新量記憶手段2
6、または30の内容の書替え(転送)を行うことなく
更新量アレス指示手段27.28.29の内容をサイク
リックに転送することにより、重み更新量の保持が行わ
れる。
〔実  施  例〕
第2図は本発明の実施例の基本概念を示すブロック図で
ある。同図において、実施例は重みの更新量を保持する
3つの記憶装置の番号またはアドレスを保持する記憶装
置指定レジスタ31、加算器32、今回、前回および前
々回の重み更新量を保持するための3つの記憶装置33
〜35.3つの記憶装置33〜35に対して重みデータ
を人出力するためのバス36から成る。なお記憶装置3
3〜35は3つの記憶装置に分かれるものとしたがこれ
を1つの記憶装置とし、3つの記憶領域の先頭アドレス
を記憶装置指定レジスタ31によって指示することもで
きることは当然である。
第2図においては、従来例の第6図と異なり、更新量の
種類と記憶装置との対応を取るための記憶装置指定レジ
スタ31が用いられているために、例えば第1の発明に
おいて、今回更新量、前回更新量、前々回更新量を第1
から第3の記憶装置33〜35のどれに割当てるかを変
更できる点に特徴がある。
第1の発明においては今回の重み更新量は次式によって
求められる。
一βΔW(t−2)  ・ ・ ・(3)する項である
本来今回の重み更新量を計算するにあたって前ものであ
り、第1項の更新量に対し、前回の更新量の影響を残す
ために用いられる。第1の発明においては、重み更新量
を求めるにあたってさらに前々回の重み更新量をΔW(
t−2)をも用いるものとし、第3項が付は加えられる
。ここで第3項は例えば第2項と符号を逆にすることに
よって、第2項とは逆の影□響を第1項に与えることに
なる。
第2図において記憶装置指定レジスタ31に与えられる
種類選択番号、すなわち今回、前回、前々回のいずれの
重み更新量であるかを示す番号によってレジスタ31の
内容が選択され、その出力と第6図で説明した重み選択
信号とが加算器32によって加算され、ネットワーク内
のどの内部結合かを示すアドレスが出力されて、そのア
ドレスに格納されている重み更新量を用いて重みの更新
が行われる。1回の学習が終ると記憶装置指定レジスタ
31の内容はサイクリックにシフトされ、例えば現在、
今回を第1、前回を第2、前々回を第3の記憶装置に割
付けていたとすると、学習終了後には今回を第3、前回
を第1、前々回を第2に割付けることになる。
第2の発明においては重みの更新は前述の(1)式に従
って行われる。すなわち、第2の発明においては前々回
の重み更新量は用いられないために、更新量を記憶する
記憶装置は2つでよく、また記憶装置指定レジスタ31
は2つの記憶装置の番号、またはアドレスを保持するの
みでよい。
第3図は本発明の重み更新量保持方式を用いるネットワ
ークシステムの実施例の全体構成図である。同図におい
てシステムはネットワークにおける学習処理などを実行
するネットワーク実行部37、学習時の入カバターン、
および正しい出力信号としての教師信号パターンを保持
する学習パターン保持部38、重みの更新を行う重み更
新部391.ネットワークの出力と正しい出力信号、す
な内の入力信号保持部38aからそのパターンの入力信
号がネットワーク実行部37に、また教師信号保持部3
8bから正しい出力信号としての教師信号が誤差算出部
40に与えられる。
そして主制御回路41からの実行信号の入力によって、
ネットワーク実行部37は出力を誤差算出部40に与え
、また主制御回路41がらの誤差算出信号によって誤差
算出部4oは誤差を算出する。主制御回路41からの偏
微分選択信号が誤差算出部40に入力されるまで、パタ
ーン選択信号の入力毎に前述と同様の動作が行われ、誤
差算出信号の入力によって誤差算出部4oに誤差がため
御を行う主制御回路41から成る。
ネットワークの学習処理においては、まず主制御回路4
1から誤差算出部40へ誤差クリア信号が与えられる。
これによって誤差算出部40のクリアが行われる。その
後制御回路41からのパターン選択信号によって、学習
パターン保持部38行う。
この更新処理については後述するが、第6図の従来例に
おけると同様に主制御回路41がらの制御信号としての
クリア信号、シフト信号、重み選択信号、重み読出し信
号、初期値設定信号、初朋値、学習パラメータ、重み更
新信号を用いて重みが更新され、新しい重みW (t)
が重み更新部39からネットワーク実行部37に出力さ
れる。
第4図は重み更新部39の実施例の詳細構成ブロック図
であり、従来例の第6図に対応するものである。同図に
おいて、まず重み更新部39と外部との間で入出力され
るクリア信号lから重み更新信号IOまでの作用は、学
習パラメータ9に前々回の重み更新量との積をとるパラ
メータ “−β゛が追加される点を除いては第6図の従
来例におけると 全く同様である。そして今回更新量メ
モリ12、前回更新量メモリ13、およびシフト機構2
3の代わりに重み更新量指定レジスタ42、重み更新量
記憶装置(RAM)43.3つのレジスタ44〜46、
およびデータバス47が設けられ、さらに乗算器48と
学習パラメーターβを格納するためのパラメータレジス
タ49、およびデイレイ50が追加されている。
第4図の重み更新量指定レジスタ42は第2図の記憶装
置指定レジスタ31に相当し、第1の発明においては3
つのレジスタから成り、重み更新量記憶装置43を3等
分したそれぞれの領域の先頭アドレスを保持している。
そしてシフト信号2の入力時点で、今回更新量レジスタ
の内容が前回更新量レジスタに、前回更新量レジスタの
内容が前々回更新量レジスタに、前々回更新量レジスタ
の内容が今回更新量レジスタに転送される。
また重み更新量記憶装置43は例えばRAMで構成され
、重みの今回更新量、前回更新量、前々回更新量をネッ
トワーク内の全ての内部結合について記憶するだけの容
量を持っている。その内容はクリア信号の入力時点で全
てOにされる。そして加算器44.45.46のいずれ
かの出力をアドレスとしてリードライト信号R/W(0
でリード、1でライト)によってRAM43のアクセス
が行われ、データバス47との間で重み更新量データの
入出力が行われる。
加算器44は前々回更新量指定レジスタの内容と重み選
択信号3とを加算して、求める特定の重みのアドレスを
出力する。加算器45および46はそれぞれ加算器44
と同様に前回更新量レジスタ、今回更新量レジスタの内
容と重み選択信号を加算して求める重みのアドレスを出
力する。
乗算器48は(3)式の右辺第3項を求めるためのもの
で、パラメータレジスタ49に格納されているーβと前
々回重み更新量との積をとる。デイレイ50はタイミン
グ■をさらに1タイミングだけ遅らせたタイミング信号
■を得るためのものである。
本発明における初期設定と重みの読出しは第6図におけ
る従来例と同様に行われるが、パラメータレジスタ49
に追加された学習パラメーターβが格納される点だけが
異なっている。
重みの更新処理においては、重み選択信号3と偏微分8
とがセットされ、さらに重み更新信号10がセットされ
ると、まず加算器44によって前々回更新量指定レジス
タの内容と重み選択信号3とが加算されて前々回重み更
新量のアドレスが求められ、これに続いて第4図におい
て■から■で示されたタイミングにおいて以下の動作が
行われる。
まずタイミング■2こおいて、重み更新量記憶装置43
から重みの前々回更新量がデータバス47に出力され、
また加算器45によって前回更新量指定レジスタの内容
と重み選択信号3とが加算され前回重み更新量のアドレ
スが求められる。それと同時に乗算器48によってデー
タバス47の出力とパラメータレジスタ49の内容との
積がとられ、(3)式の第3項が、また乗算器エフによ
って偏微分8とパラメータレジスタ18の内容との積が
とられ(3)式の第1項が求められる。
重み更新信号10の入力時点、すなわちタイミング■か
ら1タイミングだけデイレイ2oによって遅らされたタ
インミング■においては、重み更新量記憶装置43から
前回更新量がデータバス47に出力され、乗算器16に
よってこの出力とパラメータレジスタ19の内容との積
がとられ、(3)式の第2項が求められる。
次のタイミング■においては、加算器15によって乗算
器16.17および18の出力の和とじて(3)式の重
み更新量が求められる。同時に加算器46によって今回
更新量指定レジスタの内容と重み選択信号3とが加算さ
れ、今回更新量のアドレスが求められ、またこのタイミ
ングに合わせて外部から重み読出し信号4が与えられる
タイミング■において重み更新量記憶装置43は加算器
15の出力、すなわち今回の重み更新量をデータバス4
7を介して読込み、これを所定のアドレスに記憶する。
また加算器14によって重みデータメモリ11内の更新
前の重みW(t−1)と加算器15の出力の和Δw (
t)との和として、更新された重みW (t)が求めら
れる。
最後にタイミング■において、加算器14の出力、すな
わち新しい重みW (t)が重みデータメモリ11の所
定のアドレスに書込まれる。以上の動作が全ての層、ユ
ニット、結線について行われ、重みデータメモリ11、
および重み更新量記憶装置13内の今回更新量記憶領域
の内容が更新される。その後シフト信号2がオンとされ
、重み更新量指定レジスタ42の内容が前述のようにサ
イクリツクに転送される。
第5図は本発明における主制御回路の処理実施例のフロ
ーチャートである。処理がスタートすると、まずステッ
プ51から58で初期設定が行われる。ステップ51で
重み更新量記憶装置43の全ての内容をOにするクリア
信号1がオンとされ、ステップ52から56で全ての重
みについて重みデータメモリIIの初期化が行われる。
すなわちステップ53で重み選択信号3がセットされ、
初期化されるべき重みが特定された後に、ステップ54
で初期値7がセットされ、ステップ55で初期値設定信
号6がオンとされ、特定された重みに初期値7の値が書
込まれる。その後ステップ56で重み読出し信号4がオ
ンとされた後にステップ52に戻り、全ての重みについ
てステップ53から56の処理が行われる。
全ての重みについてこれらの処理が終わると、ステップ
57で学習パラメータ9の値−ε、α、−βがそれぞれ
パラメータレジスタ18.19.49にセットされ、ス
テップ58で第3図の誤差算出部40に対するクリア信
号がオンとされる。
ステップ59から学習処理に移行するが、まずステップ
59から62において学習パターンに対する誤差の計算
処理が行われる。まずステップ60でパターン選択信号
が学習パターン保持部38に与えられ、その後ステップ
61で実行信号がネットワーク実行部37に与えられ、
ネットワークからの出力が誤差算出部4oに与えられる
。その後ステップ62で誤差算出信号が誤差算出部4゜
に入力され、パターン選択信号によってステップ60で
選択された学習パターンに対する誤差が誤差算出部40
によって計算され、ステップ59に戻る。ステップ59
で全ての学習パターンについてステップ60から62の
処理が繰返され、全ての学習パターンについての誤差が
計算された後にステップ63に移行する。
ステップ63から67の処理は重みの更新処理である。
まずステップ64で偏微分選択信号が誤差算出部40に
与えられ、ステップ65で重み選択信号3がセットされ
、どの内部結合に対する重みを更新するかが特定される
。ステップ66で重み更新信号10がセントされ、第4
図で詳述したように重みの更新が行われ、ステップ67
でネットワークに新しい重みを送るために重み読出し信
号4がオンとされ、ステップ63に戻る。
ステップ63で全ての重みについてステップ64から6
7の処理が繰返された後に、ステップ68でシフト信号
2がセットされ、重み更新量指定レジスタ42の内容の
シフトが行われる。そしてステップ69で学習が完了し
たと判定されるまでステップ59からの学習処理が繰返
される。
〔発明の効果〕
以上詳細に説明したように、本発明によれば重み更新量
の実際の値を転送することなく重み更新量記憶装置の番
号または記憶装置内アドレスのみを転送するだけでよく
、学習1回毎のデータ転送量を大幅に減らすことができ
、学習速度の向上に寄与するところが大きい。
【図面の簡単な説明】
第1図(al、 (b)は本発明の原理ブロック図、第
2図は本発明の実施例の基本概念を示すブロック図、 第3図は本発明の重み更新量保持方式を用いるネットワ
ークシステムの実施例の構成ブロック図、第4図は重み
更新部の実施例の詳細構成を示すブロック図、 第5図は主制御回路の処理実施例のフローチャートを示
す図、 第6図は重み更新量保持方式の従来例を示す図である。 11・・・重みデータメモリ、 31・・・記憶装置指定レジスタ、 33.34.35・・・記憶装置、 37・・・ネットワーク実行部、 38・・・学習パターン保持部、 39・・・重み更新部、 40・・・誤差算出部、 41・・・主制御回路、 3 ・・重み更新量指定レジスタ、 ・・重み更新量記憶装置(RAM)

Claims (1)

  1. 【特許請求の範囲】 1)前段層からの1つまたは複数の入力と該入力に対し
    てそれぞれ乗算されるべき重みとの積の和をとり、該和
    に対して出力を得るユニットを基本単位として、1つま
    たは複数個のユニットから構成される入力層を1段、1
    つまたは複数個のユニットから構成される中間層を1段
    または複数段、1つまたは複数個のユニットから構成さ
    れる出力層を1段備え、入力層と最前段の中間層の間、
    隣接する中間層の間、最後段の中間層と出力層の間にユ
    ニット相互間の内部結合を構成し、該内部結合にそれぞ
    れ重みを割当てることによって階層ネットワークを構成
    するデータ処理装置において、前記階層ネットワーク内
    の各内部結合にそれぞれ割当てられる重みの今回更新量
    、前回の更新量、および前々回更新量をそれぞれ連続し
    た領域に記憶する重み更新量記憶手段(26)と、 該重み更新量記憶手段(26)内で重みの今回更新量記
    憶領域の先頭アドレスを保持する今回更新量アドレス指
    示手段(27)と、 該重み更新量記憶手段(26)内で重みの前回更新量記
    憶領域の先頭アドレスを保持する前回更新量アドレス指
    示手段(28)と、 該重み更新量記憶手段(26)内で重みの前々回更新量
    記憶領域の先頭アドレスを保持する前々回更新量アドレ
    ス指示手段(29)とを備え、前記今回更新量アドレス
    指示手段(27)、前回更新量アドレス指示手段(28
    )、および前々回更新量アドレス指示手段(29)の指
    示に基づき前記ネットワーク内の各内部結合に割当てら
    れた重みを更新した後に、今回更新量アドレス指示手段
    (27)の内容を前回更新量アドレス指示手段(28)
    に、前回更新量アドレス指示手段(28)の内容を前々
    回更新量アドレス指示手段(29)に、また前々回更新
    量アドレス指示手段(29)の内容を今回更新量アドレ
    ス指示手段(27)にそれぞれ転送することを特徴とす
    るネットワーク構成データ処理装置の重み更新量保持方
    式。 2)前段層からの1つまたは複数の入力と該入力に対し
    てそれぞれ乗算されるべき重みとの積の和をとり、該和
    に対して出力を得るユニットを基本単位として、1つま
    たは複数個のユニットから構成される入力層を1段、1
    つまたは複数個のユニットから構成される中間層を1段
    または複数段、1つまたは複数個のユニットから構成さ
    れる出力層を1段備え、入力層と最前段の中間層の間、
    隣接する中間層の間、最後段の中間層と出力層の間にユ
    ニット相互間の内部結合を構成し、該内部結合にそれぞ
    れ重みを割当てることによって階層ネットワークを構成
    するデータ処理装置において、前記階層ネットワーク内
    の各内部結合にそれぞれ割当てられる重みの今回更新量
    、および前回更新量をそれぞれ連続した領域に記憶する
    重み更新量記憶手段(30)と、 該重み更新量記憶手段(30)内で重みの今回更新量記
    憶領域の先頭アドレスを保持する今回更新量アドレス指
    示手段(27)と、 該重み更新量記憶手段(30)内で重みの前回更新量記
    憶領域の先頭アドレスを保持する前回更新量アドレス指
    示手段(28)とを備え、 前記今回更新量アドレス指示手段(27)、および前回
    更新量アドレス指示手段(28)の指示に基づき前記ネ
    ットワーク内の各内部結合に割当てられた重みを更新し
    た後に、今回更新量アドレス指示手段(27)の内容を
    前回更新量アドレス指示手段(28)に、また前回更新
    量アドレス指示手段(28)の内容を今回更新量アドレ
    ス指示手段(27)にそれぞれ転送することを特徴とす
    るネットワーク構成データ処理装置の重み更新量保持方
    式。
JP1253745A 1989-09-30 1989-09-30 ネットワーク構成データ処理装置の重み更新量保持方式 Expired - Fee Related JP3047411B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1253745A JP3047411B2 (ja) 1989-09-30 1989-09-30 ネットワーク構成データ処理装置の重み更新量保持方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1253745A JP3047411B2 (ja) 1989-09-30 1989-09-30 ネットワーク構成データ処理装置の重み更新量保持方式

Publications (2)

Publication Number Publication Date
JPH03118656A true JPH03118656A (ja) 1991-05-21
JP3047411B2 JP3047411B2 (ja) 2000-05-29

Family

ID=17255552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1253745A Expired - Fee Related JP3047411B2 (ja) 1989-09-30 1989-09-30 ネットワーク構成データ処理装置の重み更新量保持方式

Country Status (1)

Country Link
JP (1) JP3047411B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904682B2 (ja) * 2015-10-23 2021-07-21 株式会社半導体エネルギー研究所 半導体装置および電子機器

Also Published As

Publication number Publication date
JP3047411B2 (ja) 2000-05-29

Similar Documents

Publication Publication Date Title
KR101959376B1 (ko) 멀티 코어 최적화된 순환 신경망을 위한 시스템 및 방법
US5517600A (en) Neuro-chip and neurocomputer having the chip
US20160196488A1 (en) Neural network computing device, system and method
JPH04293151A (ja) 並列データ処理方式
TWI525558B (zh) Resilient high - speed hardware reverse transfer and feedback type neural network system
JPH02144674A (ja) 論理回路シミュレーション装置
Jokar et al. An efficient uniform-segmented neuron model for large-scale neuromorphic circuit design: Simulation and FPGA synthesis results
JP2575565B2 (ja) Spin:順次パイプライン式ニューロコンピュータ
CN110580519A (zh) 一种卷积运算结构及其方法
JP2931097B2 (ja) 並列処理アレイの動作をシミュレートするデジタルプロセッサ
CN112446460A (zh) 用于处理数据的方法、装置以及相关产品
JP3177996B2 (ja) ニューロプロセッサ
JPH03118656A (ja) ネットワーク構成データ処理装置の重み更新量保持方式
JPH076146A (ja) 並列データ処理システム
EP0722592B1 (en) A data processing apparatus comprising means to model production rule systems
JP2825133B2 (ja) 並列データ処理方式
JPH05159087A (ja) ニューロプロセッサ
JP2679731B2 (ja) パイプライン処理を用いたニューラルアーキテクチュア
JPS5926970B2 (ja) デイジタル微分解析機
Ichikawa et al. Realization model for brain computing
JPH04364525A (ja) 並列演算装置
JP2765903B2 (ja) 情報処理装置
JP3127492B2 (ja) アドレッシング演算回路
Garth A dedicated computer for simulation of large systems of neural nets
Hadley The performance enhancement of a run-time reconfigurable FPGA system through partial reconfiguration

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees