JPH01248268A - 神経回路網学習装置 - Google Patents

神経回路網学習装置

Info

Publication number
JPH01248268A
JPH01248268A JP63076895A JP7689588A JPH01248268A JP H01248268 A JPH01248268 A JP H01248268A JP 63076895 A JP63076895 A JP 63076895A JP 7689588 A JP7689588 A JP 7689588A JP H01248268 A JPH01248268 A JP H01248268A
Authority
JP
Japan
Prior art keywords
layer
output
hidden
shared memory
problem data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63076895A
Other languages
English (en)
Inventor
Ryohei Nakano
良平 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63076895A priority Critical patent/JPH01248268A/ja
Publication of JPH01248268A publication Critical patent/JPH01248268A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 「産業上の利用分野」 この発明は、神経回路網の抽象化モデルである多層ネッ
トワークに対する正解付き問題データの学習過程におい
て、問題データを情報源とした前向き伝播処理、及び出
力値の誤差を情報源とした後向き伝4処理を、幾つかの
基本演算要素に分解し、更に、重みの同期修正機構と、
処理の中間結果を格納するスタックを付加した構成にて
、高速に学習を実行することを可能とする神経回路網学
習装置に関するものである。
「従来の技術」 多層ネットワークに正解付き問題データを与えて学習さ
せるアルゴリズムは後向き誤差伝播法(backpro
paga t 1on)として知られている0例えば、
” Parallel Distributed Pr
ocessing VolビD、 Rumelhart
他著(MIT Press)第8章に詳しい。
それは、以下のように大きく、前向き伝播処理と後向き
伝播処理に分けられる。今、以下のように記号を定める
。なお、入力層、隠れ層、出力層を構成するノードを、
各々、入力ノード、隠れノード、出力ノードと呼ぶ。
j:着目したノード(隠れノードまたは出力ノード) p:問題データと正解データの1(パターンと呼ぶ) Wハ:ノードlからノードjへの結合の重みθj 二ノ
ードjのバイアス 0、−二パターンpにおけるノード」の出力値t2.:
パターンpにおいて出力ノードjが出力すべき値(正解
データ) Δ、WJ、 :パターンpにおける重みWjムの修正■
η;定数 〔前向き伝播処理〕 :パターンpにおけるノードjの
出力値Opjを求める手順 5eJ−ΣW、、O,ム+θ。
0sj= 1 / (1+1llX11(−S□))〔
後向き伝tS処理〕 :パターンpにおける重みW、1
の修正量Δ、Wハを求める手順 Δ、Wj、=ηδpJ Opi 但し、ノードjが出力層にあるときにはδpj−Opj
(l  0pj)(LejOpj)また、ノードjが隠
れ層にあるときにはδeA−Opj(10,j)Σδp
 k W * jなお、学習の終了条件は一般に、特に
規定されていないが、各出力ノードの誤差の平方和(ま
たは、絶対(t!りの全パターンに渡る総和が減少しな
くなったときく学習の飽和状態)、または出力ノ−ドの
誤差がいずれもある値以下になったとき(100%学習
完了)に完了することとする。
多層ネットワークに対する正解付き問題データの学習過
程に関する従来技術は、各パターンについて、前記の前
向き伝播処理と後向き伝播処理を逐次に実行し、更に、
パターン間についても、1パターンずつ逐次に処理して
いた。
従来技術(3層ネットワーク)を第2図に示す。
学習処理の開始に先立ち、問題データ、正解データを、
各々、問題データ格納共用メモリ11と正解データ格納
共用メモリ12に格納しておく、また、入力層・隠れ層
間重みの初期値及び隠れ層・出力層間重みの初期値を、
各々、入力層・隠れ層間重み格納共用メモリ9、隠れ層
・出力層間重み格納共用メモリlOに格納する。その後
、学習開始指示者1の学習開始の合図により、学習制御
n機構2は学習処理を開始する。即ち、問題データ格納
共用メモリ11から問題データを一組読み込み、隠れ回
前向き評価機構4、出力層前向き評価機構5を顆に実行
し、その問題データに対する出力値を計算する(前向き
伝播処理)0次いで、正解データ格納共用メモリ12か
ら正解データを読み込み、前向き伝播処理で計算した出
力値と正解データとの誤差を求め1.出力層重み修正量
af価機構7、隠れ層重み修正■評価機構8にて、誤差
を後向きに伝tIlシ、重みの修正■を求める。その後
、次の問題データを読み込み、同様の処理を行う、この
ようにして問題データを−通りスキャンした後、学習詞
ma横2は学習の終了条件を満たしているかどうかをチ
エツクし、満たしていないときには、再度、スキャンを
始める。このように、従来の技術では、問題データを逐
次的に、また、前向き伝播処理と後向き伝播処理も逐次
的に処理しているため、ネットワーク規模とスキャン回
数が大きくなると、学習に要する時間が長大になるとい
う欠点があった。
本発明の目的は、神経回路網の抽象化モデルである多層
ネットワークに対する正解付き問題データの学習過程が
大型計算機を走らせ続けても何日もかかる稈長時間を要
していたという問題点を、学習機構の並列化とパイプラ
イン化により解決し、学習時間を大幅に短縮することに
ある。
「課題を解決するための手段」 この発明によれば、問題データを人力する入力層(1層
)、結果を出力する出力N(1層)、両者の間にある隠
れ層(1111以上)、及び隣接する層間をメツシュ状
に重み付きで結合する結合網から成る多層ネットワーク
に対する正解付き問題データの学習過程において、正解
付き問題データを共用メモリに格納し、問題データを情
報源として、入力層、隠れ層、出力層の順(前向き)に
、情報を伝播させて出力を計算する処理、及びその結果
得られる出力と正解データとの食い違い(誤差)を情報
源として、出力層から後向きに重みの修正■を計算して
いく処理を、乗算、加算、指数関数計算、重み修正量計
算等の基本演算要素に分解し、それらを多数配置し、更
に、重みを同期して一度に修正する同期機構と、処理の
中間結果を格納するスタックを付加した構成にて、前向
き、後向きの学習処理を全体として並列化かつパイプラ
イン化することにより、全体の学習処理を高速化する。
ここでは以下、3層ネットワークを例にとって説明する
が、従来の技術の項で説明した学習法が本来41ff1
以上にも適用できることと対応して、4層以上において
も同様の議論が成立する。
「実施例」 この発明の実施例(3層ネットワーク)を第1図に示す
、学習処理の開始に先立ち、問題データ、正解データを
、各々、問題データ格納共用メモリ11と正解データ格
納共用メモリ12に格納しておく、また、入力層・隠れ
層間重みの初期値及び隠れ層・出力層間重みの初M値を
、各々、入力層・隠れ層間重み格納共用メモリ9、隠れ
層・出力層間重み格納共用メモリIOに格納する。その
後、学習開始指示者1の学習開始の合図により、学習制
御機構2は学習処理を開始する。
乗算回路21aは学習開始指示者1から学習開始の合図
により、問題データ格納共用メモリ11から問題データ
0.ゑを、入力層・隠れ層間重み格納共用メモリ9から
入力層・隠れ層間重みWj!を読み込み、両者の積wJ
、o、、を求める。収集加算回路22aは、それら積を
収集し、加算する。即ち、Σwj、o、、を求める。加
算・指数計算回路23aは収集加算結果にθjを加えて
S++Jを得、次いで1 / (1+exp  (−s
pJ))の計算をして、隠れノードの出力値Opjを求
める。その結果は問題データのidと対にして隠れノー
ド出力値スタック32に格納する。
2番目の乗算回路21bは、隠れノードの出力値Opj
と、隠れ層・出力層間重み格納共用メモリ10から読み
込んだ隠れ層・出力層間重みW J −)ら両者のl!
iwハ0.ムを求める。2番目の収集加算回路22bは
、それら積を収集加算し、Σ−JIOplを求める。2
番目の加算・指数計算回路23bは収集加算結果にθj
を加えてSpjを得、次いで1 / (1+exp  
(−31))の計算をして、出力ノードの出力値Opj
を求める。
出力ノードデルタ評価回路24は、出力ノードの出力値
Opjと、正解データ格納共用メモリ12から読み込ん
だ正解データt、jを元に、O*ノ(1Opj)(L 
pjOIIJ)を計算し、δ9.を求める。
重み修正量計算回路25aは、出力ノードデルタ評価回
路24からδpkjを、隠れノード出力値スタック32
から現在処理中の問題データのidに対応する隠れノー
ド1の出力値Opiを、各々受け取り、ηδ2.OHを
計算し、隠れ層・出力層間重み修正量Δ、W4.を求め
、結果を重み修正同期回路31に送る。
3番目の乗〕γ回路21cは、出力ノードデルタ評価回
路24からδpkを、隠れ層・出力層間重み格納共用メ
モリ10から隠れ層・出力層間重みW□を、各々、受け
取り、両者の積δpk、W、jを計算する。3番目の収
集加算回路22cは、それら禎を収集加算し、Σδpk
、W、、を求める。隠れノードデルタif価回路26は
、収集加算回路22からΣδpk、W、、を、阻れノー
ド出力値スタック32から現在処理中の問題データのi
dに対応する隠れノード出力値Opjを、各々得て、0
9J (I  O2,)Σδe k W k jを計算
し、δ2.を得る。2番目の重み修正量計算回路25b
は、隠れノードデルタ評価回路26からδ2.を、問題
データ格納共用メモリ11から現在処理中の問題データ
のldに対応する(入力ノードiへ入力する)問題デー
タo、1を、各々受け取り、ηδ*jOsiを計算し、
入力層・隠れ層間重み修正量Δ、Wjムを求め、結果を
重み修正同期回路31に送る。
重み修正同期回路31は、問題データのidに対応する
隠れ層・出力層間重み修正量と入力層・隠れ層間重み修
正量が全て転送されてくると、それらを各々、隠れ層・
出力層間重み格納共用メモリ10と入力層・隠れ層間重
み格納共用メモリ9に古き出す。
以上のように、前向き伝播処理及び後向き伝播処理を基
本的な幾つかの演算回路に分解し、それらを各々ノード
の数だけ用意し、更に、重み修正同期回路31と、隠れ
ノード出力値スタック32を追加することにより、多数
の演算回路を並列に動作させ、更には、一つの問題デー
タの処理の終了を待つことなく、つぎつぎとパイプライ
ン動作させることにより、問題データをインクリーブし
て処理することができ、基本回路の間に処理時間のバラ
ツキがないとすれば、基本的には、用意する回路の数だ
けの高速化が図れる。
学習制御機構2ば、出力ノードデルタ評価回路24から
、出力値の誤差Ctvj Opノ)を求めておき、問題
データを−通りスキャンする度に、学習の終了条件を満
たしているかどうかをチエツクし、満たしていないとき
には、再度、スキャンを始める。
この発明によれば、n番目の問題データの誤差による重
みの修正はすぐ(つまり、n+1番目の問題データの処
理)には反映されず、パイプラインの深さだけ後になっ
て反映されるが、その点は別設問題とはならない。
この発明の実現法としては、勿論、具体的な多層ネット
ワーク対応に上記の通りに回路を組んでもよい、あるい
は、処理要素(PE)を高速な結合網(例えば、ハイパ
ーキエーブ)で多数結合した高並列計算機(例えば、C
onnection Machine。
NCUB[りにおいて、各処理要素に上記の基本演算回
路を対応させることによっても、この発明は実現できる
「発明の効果」 この発明によれば、前向き伝播処理及び後向き伝播処理
を基本的な幾つかの演算回路に分解し、それらを各々多
数用意して並列に動作させ、更に、それらをパイフライ
ン動作させることにより、問題データを次々とインクリ
ープして処理することができ、基本回路の間に処理時間
のバラツキがないとすれば、基本的には、用意する回路
の数だけの高速化が図れる。I!jち、例えば1000
個の処理ユニットに基本回路の処理を分散すれば、従来
技術での処理と比べ、PEの計算スピード(クロック)
が同じとすれば、約1000倍の高速化が得られる。
【図面の簡単な説明】
第1図は3層ネットワークに対するこの発明の実施例を
示すブロック図、第2図は3層ネットワークに対する従
来学習装置を示すブロック図である。

Claims (1)

    【特許請求の範囲】
  1. (1)問題データを入力する入力層、結果を出力する出
    力層、両者の間にある隠れ層、及び隣接する層間をメッ
    シュ状に重み付きで結合する結合網から成る多層ネット
    ワークに対する正解付き問題データを学習する神経回路
    網学習装置において、問題データが格納される問題デー
    タ格納共用メモリと、 正解データが格納される正解データ格納共用メモリと、 入力層・隠れ層間重みが格納される入力層・隠れ層間重
    み格納共用メモリと、 隠れ層・出力層間重みが格納される隠れ層・出力層間重
    み格納共用メモリと、 上記問題データ格納共用メモリからの問題データO_p
    _iと上記入力層・隠れ層間重み格納共用メモリからの
    入力層・隠れ層間重みW_j_iを読み込み両者の積W
    _j_iO_p_iを求める第1乗算手段と、その積を
    収集加算してΣW_j_iO_p_iを求める第1収集
    加算手段と、 その収集加算結果にバイアスθ_jを加えてS_p_j
    を得、次いで1/(1+exp(−S_p_j))を計
    算して隠れノードの出力値O_p_jを求める第1加算
    ・指数計算手段と、 その出力値が問題データidと対にして格納される隠れ
    ノード出力値スタックと、 上記隠れノードの出力値O_p_jと上記隠れ層・出力
    層間重み格納共用メモリからの隠れ層・出力層間重みW
    _j_iとの積W_j_iO_p_jを求める第2乗算
    手段と、 その積を収集加算してΣW_j_iO_p_jを求める
    第2収集加算手段と、 その収集加算結果にバイアスθ_jを加えてS_p_j
    を得、次いで1/(1+exp(−S_p_j))を計
    算して出力ノードの出力値O_p_jを求める第2加算
    ・指数計算手段と、 上記出力ノードの出力値O_p_jと上記正解データ格
    納共用メモリからの正解データt_p_jを元にO_p
    _j(1−O_p_j)(t_p_j−O_p_j)を
    計算してδ_p_jを求める出力ノードデルタ評価手段
    と、 そのδ_p_jと、上記隠れノード出力スタックからの
    現在処理中の問題データidに対応する隠れノード出力
    値O_p_iとを受け取り、ηδ_p_jO_p_iを
    計算して隠れ層・出力層間重み修正量Δ_pW_j_i
    を求める第1重み修正量計算手段と、 上記出力ノードデルタ評価回路からのδ_p_kと、上
    記隠れ層・出力層間重み格納共用メモリからの隠れ層・
    出力層間重みW_k_jを受け取り、両者の積δ_p_
    kW_k_jを計算する第3乗算手段と、その積を収集
    加算してΣδ_p_kW_k_jを求める第3収集加算
    手段と、 そのΣδ_p_kW_k_jと、上記隠れノード出力値
    スタックの現在処理中の問題データに対応する隠れノー
    ド出力値O_p_jとを得てO_p_j(1−O_p_
    j)Σδ_p_kW_k_jを計算してδ_p_jを得
    る隠れノードデルタ評価手段と、 そのδ_p_jと、上記問題データ格納共用メモリから
    現在処理中の問題データidと対応する問題データO_
    p_iとを受け取り、ηδ_p_lO_p_jを計算し
    て入力層・隠れ層間重み修正量Δ_W_j_iを求める
    第2重み修正量計算手段と、 上記第1重み修正量計算手段からの隠れ層・出力層間重
    み修正量と、上記第2重み修正量計算手段からの入力層
    ・隠れ層間重み修正量とを受けとり、それらを上記隠れ
    層・出力層間重み格納共用メモリ、上記入力層・隠れ層
    間重み格納共用メモリに書き出す重み修正同期手段とを
    具備する神経回路網学習装置。
JP63076895A 1988-03-30 1988-03-30 神経回路網学習装置 Pending JPH01248268A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63076895A JPH01248268A (ja) 1988-03-30 1988-03-30 神経回路網学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63076895A JPH01248268A (ja) 1988-03-30 1988-03-30 神経回路網学習装置

Publications (1)

Publication Number Publication Date
JPH01248268A true JPH01248268A (ja) 1989-10-03

Family

ID=13618384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63076895A Pending JPH01248268A (ja) 1988-03-30 1988-03-30 神経回路網学習装置

Country Status (1)

Country Link
JP (1) JPH01248268A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021526670A (ja) * 2018-06-08 2021-10-07 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co.,Ltd. 汎用機械学習モデル、モデルファイルの生成および解析方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021526670A (ja) * 2018-06-08 2021-10-07 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co.,Ltd. 汎用機械学習モデル、モデルファイルの生成および解析方法
US11726754B2 (en) 2018-06-08 2023-08-15 Shanghai Cambricon Information Technology Co., Ltd. General machine learning model, and model file generation and parsing method

Similar Documents

Publication Publication Date Title
KR950008840B1 (ko) 뉴로 칩(neuro chip)
JP2810202B2 (ja) ニューラルネットワークによる情報処理装置
JPH0713949A (ja) ニューラルネットワークおよびその使用方法
JP3178884B2 (ja) ニューラルネットワーク装置
JP2021086371A (ja) 学習プログラム、学習方法および学習装置
JP3247803B2 (ja) ファジィ・ニューラルネットワーク・システム
JPH01248268A (ja) 神経回路網学習装置
JPH07210534A (ja) ニューラルネットワーク
JPH0272491A (ja) 画像変換処理装置
JPH04237388A (ja) ニューロプロセッサ
JPH05128284A (ja) ニユーロプロセツサ
JPH05159087A (ja) ニューロプロセッサ
KR102090109B1 (ko) 학습 및 추론 장치 및 그 방법
JP2979562B2 (ja) 学習処理装置
JPH0281160A (ja) 信号処理装置
JPH05128285A (ja) ニユーロプロセツサ
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
JP7055211B2 (ja) データ処理システムおよびデータ処理方法
JP2559879B2 (ja) ファジィ制御器
JPH07306845A (ja) 神経系学習装置用の並列処理装置
JP2766858B2 (ja) ニューラルネットワーク並列シミュレーション方法及びそれに用いる装置
JP2813567B2 (ja) 推論規則決定装置及び推論規則決定方法
JPH11175494A (ja) ニューラルネットワーク
JPH06215021A (ja) 関数近似計算方法
JPH06110860A (ja) 信号処理装置