JPH04195251A - ニューラルネットの学習計算方法 - Google Patents

ニューラルネットの学習計算方法

Info

Publication number
JPH04195251A
JPH04195251A JP2265496A JP26549690A JPH04195251A JP H04195251 A JPH04195251 A JP H04195251A JP 2265496 A JP2265496 A JP 2265496A JP 26549690 A JP26549690 A JP 26549690A JP H04195251 A JPH04195251 A JP H04195251A
Authority
JP
Japan
Prior art keywords
learning
neural network
layer
calculation
accelerator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2265496A
Other languages
English (en)
Inventor
Hiroyuki Tsuzuki
都築 裕之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2265496A priority Critical patent/JPH04195251A/ja
Publication of JPH04195251A publication Critical patent/JPH04195251A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概要] ニューラルネットのバックプロパゲーションの学習計算
を行うのに、汎用計算機に、ディジタルシグナルプロセ
ッサ(DSP)を具備したアクセラレータを接続して行
う方法に関し、 ニューラルネットのバックプロパゲーションの学習計算
を高速に行うことを目的とし、ニューラルネットの各層
間の出力を計算する前向き処理を、各入力パターンにつ
いて実行し、その出力値を、上記人カバターンに対応し
てメモリに記憶することを、全ての入力パターンに対し
て実行した後、上記記憶されている各層間の出力値を用
いて、入力パターンと教師パターンとの差を求める各層
間のデルタ計算処理と、各層間の重み更新処理を実行す
るとともに、上記ディジタルシグナルプロセッサ(DS
P)が具備している、積和演算と、メモリからのデータ
転送とを並行して行う複合演算命令を使用して、上記パ
ックプロパゲーションの学習計算中の積和演算を実行す
るように構成する。
〔産業上の利用分野〕
本発明は、ニューラルネットのパックプロパゲーション
の学習計算を行うのに、汎用計算機に、ディジタルシグ
ナルプロセンサ(DSP)を具備したアクセラレータを
接続して行う方法に関する。
近年、コンピュータ技術の進歩に伴って、高速なデータ
処理が可能になって(ると共に、知的な情報処理のニー
ズが高まっている。
特に、最近、注目されている技術に、ニューラルネット
がある。
該ニューラルネットは、音声や画像などのパターン認識
、ロボットなどの機械制御、エキスバー  ゛トシステ
ムなどの知識処理2等々、非常に広い応用分野が考えら
れ、近年、関連研究が盛んに行われている。
現在、ニューラルネットの開発には、多数のコンピュー
タが使用されているが、最近のパーソナルコンピュータ
(パソコン)の性能の向上と共に、該パソコン上でニュ
ーラルネットのシミュレーションを行って、該学習を行
う例が多くなっている。
この場合、該パソコンに、ディジタルシグナルプロセッ
サ(DSP) と、メモリとを備えたアクセラレータと
呼ばれるハードウェアを付加しで、高速に該ニューラル
ネットの学習を行わせる。
この方法は、該ニューラルネットの学習には、多くの繰
り返し演算が必要であることから、上記アクセラレータ
内に記憶された、ニューラルネットの学習を行うファー
ムウェアにより、高速に、該ニューラルネットの学習を
行わせようとするものであるため、該コニ一うルネット
の学習計算中の主要部を占める繰り返し演算を効果的に
行い、より高速に学習できる計算方式が要求される。
〔従来の技術と発明が解決しようとする課H]第3図は
ニューラルネットの従来の学習計算方式 誘を説明する図であり、(al) 、 (a2) 、 
(a31) 〜(a33)は、ニューラルネットのパッ
クプロパゲーション学習の理論を概念的に示し、(b)
は従来の計算手順を示している。
パックプロパゲーション法を通用するニューラルネット
は、(al) 、 (a2)図に示したように、多層(
本例では、入力層、中間層、出力層の3層)のネットワ
ークである。
各層は多くのユニットi、j、にで構成されており、各
層のユニット間は、互いに、ある重み(Wji、 Wk
j)で結合されている。
このネットワークに入力パターンp(ypi) と、望
ましい出カバターン(教師信号)(dpk)の組を与え
ることによって、ネットワークの重みを学習させること
ができる。
該学習は、以下のようにして進められる。
ニューラルネットにある入力パターン(ypi)を与え
、出力(ypk)を得る。その出力が正しくなければ、
正しい(望ましい)出力値(dpk)を、該ニューラル
ネットに教える。
すると、ニューラルネットは、正しい出力と実際の出力
値との差(Ep)が減少するように、該ニューラルネッ
トの内部構造(上記結合の強さ=重み)を調整する。
この処理を何度も繰り返すことにより、該ニューラルネ
ットは、ある入出力関係を満たすような重みを、自動的
に学習していく。この学習アルゴリズムをバックプロパ
ゲーション法という。
このバックプロパゲーション法による学習計算式の例を
(a31)〜(a33)図に示す。
上記の(al)図は、該計算式の各用語の定義を示して
おり、(a2)図は、前述のように、該ニューラルネッ
ト (但し、3層ニューラルネット)の構成例を示して
いる。
上記の計算式において、0〜0式までが、各層の出力を
計算する、前向き処理を示し、■〜■弐。
及び、■〜[相]式が、入力パターン(y pi)と教
師パターン(dpk) との差を求めるデルタ計算を示
し、@〜[相]、及び、[相]〜O式が各層間の結合重
みを更新する計算式を示している。
(b)図は上記(a31)〜(a33)図に示したバッ
クプロパゲーションの学習計算を行う時の手順の一例を
示している。
即ち、全ての入力パターン(ypi)について、該ニュ
ーラルネットの各層の出力を計算する前向き処理110
.111と、各入力パターン(ypi)と教師出力(d
pk)との差を計算するデルタ計算112゜113とを
実行した後、各層間の結合重みの更新処理114.11
5を行うことを繰り返し、該入力パターン(ypi)と
教師出力(dpk)との差が、例えば、ある程度以上小
さ(ならなくなり、該学習が収束した時点、或いは、予
め、定められている最大学習回数を学習した時点で、学
習の終了とする手順で計算を行うのが、−船釣な手法で
あった。
然して、(a31)〜(a33)図に示したニューラル
ネットの学習計算では、図示されている如くに、多くの
積和演算処理(ΣwXy)が繰り返される。
前述のアクセラレータが備えているディジタルシグナル
プロセッサ(以下、DSPという)は、上記積和演算処
理(ΣwXy)を、汎用のプロセッサ(CPU)に比較
して、非常に高速に処理することができる。
その為、該DSPを搭載したアクセラレータをパソコン
に接続してニューラルネットの学習させることで、該ハ
ックプロパゲーションの学習計算を高速に行うことがで
きることが予想されるが、上記(b)図に示した、従来
の計算の手順では、多くの積和演算を含む前向き処理と
、該積和演算を含まないデルタ計算とをシリアルに計算
する処理である為、該DSPの性能をフルに引き出せな
い問題があった。
本発明は上記従来の欠点に鑑み、ニューラルネットのハ
ックプロパゲーションの学習計算を行うのに、DSPを
具備したアクセラレータを接続した汎用計算機で行う方
式において、該DSPの性能をフルに引き出して、該ニ
ューラルネットのバックプロパゲーションの学習計算を
高速に行うことができる方法を提供することを目的とす
るものである。
〔課題を解決するための手段〕
第1図は本発明の原理構成図であり、(a)はDspの
複合演算命令の実行形式の例を示し、(b)は計算手順
を示す動作フローである。
上記の問題点は下記の如く構成したニューラルネットの
学習計算方法によって解決される。
(1)ニューラルネットのバックプロパゲーションの学
習計算を、汎用計算機に、ディジタルシグナルプロセッ
サ(DSP)を具備したアクセラレータ1を接続して行
う方法であって、 上記ディジタルシグナルプロセッサ(DSP) 10が
具備している、積和演算と、メモリ11がらのデータ転
送とを並行して行う複合演算命令を使用して、上記ハッ
クプロパゲーションの学習計算中の積和演算を実行する
ようしに構成する。
(2)ニューラルネットのバックプロパゲーションの学
習計算を行うのに、汎用計算機に、ディジタルシグナル
プロセッサ(DSP)を具備したアクセラレータ1を接
続して行う方法であって、ニューラルネットの各層間の
出力を計算する前向き処理110.Illを、各人カバ
ターンについて実行し、その出力値を、上記人カバター
ンに対応してメモリ 11に記憶することを、全ての入
力パターンに対して実行した後、 上記記憶されている各層間の出方値を用いて、入力パタ
ーンと教師パターンとの差を求める各層間のデルタ計算
処理112.113と、各層間の結合重み更新処理11
4,115を実行するように構成する。
〔作用〕
第1図(a)は、DSPでの複合演算命令の実行形式を
示した図である。
アクセラレータlに具備されている、DSP 10にお
いては、本図に示したように、レジスタAとレジスタB
との掛は算を行い、その結果をレジスタPに格納し、即
、レジスタCで積和する動作と並行に、メモリ11の記
憶領域MDの内容をレジスタAに格納する。即ち、一つ
の積和演算と1次のデータの、メモリ 11からの転送
とを並行して行うことができる。
本発明は、該DSP 10が備えている、上記複合演算
命令に着目し、上記、第3図(a31)〜(a33)に
示したバックプロパゲーション学習計算式中の、例えば
、■式で示した積和演算、 Xpi=ΣWji−ypi を実行させるものである。
このとき、ユニットiの中間層出力ypiは固定値であ
るので、該積和計算に先立って、上記レジスタBに設定
しておき、ユニットj〜ユニットiの結合重みWjiを
メモリ 11から順次読み出し、レジスタAに記憶する
ことで、該■式を高速に実行することができる。
この積和演算を、より効果的に行う為に、バックプロパ
ゲーション学習計算の手順を、第1図(b)に示した、
動作フローに従って行うようにする。
即ち、積和演算を含む各層の前向き処理110,111
のみを、全ての入力パターンについて実行し、その結果
をメモリ 11に、該入力パターン毎に記憶しておくこ
を全ての入力パターンについて終了した後、入力パター
ンと教師パターンとの差の計算を含むデルタ計算112
.113と、該計算された差に基づいて、各層間の結合
重みを更新する処理114、115を行うようにするこ
とにより、該積和演算が主体である前向き処理を高速に
実行することができ、その結果として、高速(例えば、
第3図(b)に示した従来方式に比較して、約1.5倍
程度の高速化)に、ニューラルネットの学習計算を実行
することができる効果がある。
〔実施例〕
以下本発明の実施例を図面によって詳述する。
前述の第1図が、本発明の原理構成図であり、第2図は
本発明の一実施例を示した図であり、パソコンに、アク
セラレータ1を接続し、該アクセラレータ1に備えられ
ているDSP 10を用いて、ニューラルネットのバッ
クプロパゲーション学習の計算を行うのに、該DSP 
10が備えている複合演算命令を使用して、該バックプ
ロパゲーション学習計算中の積和演算を高速に行う手段
が、本発明を実施するのに必要な手段である。尚、全図
を通して同じ符号は同じ対象物を示している。
以下、第1図を参照しながら、第2図によって、本発明
のニューラルネットのバックプロパゲージタンの学習計
算方法を説明する。
第2図に示した実施例として、パソコンの共通バスに、
アクセラレータ1を接続したシステムを例に挙げる。
このアクセラレータ1内の、図示されていない制御メモ
リに、第1図(b)に示した本発明のニューラルネット
のバックプロパゲーション学習計算手順を指示するファ
ームウェアがロードされる。
パソコンの中央処理装置(CPU)から、このファーム
ウェアを制御する為に、該アクセラレータlのリセット
、ニューラルネットの構造パラメータ定義(例えば、第
3図(a2)に示した3層ニューラルネットの入力層、
中間層、出力層の各ユニット数Lj+k) 、学習パラ
メータ定義(例えば、第3図(a3)に示したハックプ
ロパゲーション学習計算式中の0式のε、αとか、最大
学習回数等)。
学習データ(入力パターン)の書き込み等を行った後、
学習の開始指示、学習の終了監視を行い、該バックプロ
パゲーション学習計算の全てが終了した時点で、学習結
果、例えば、出力層の出力を読み出すことを行う。
このようにして、アクセラレータ1は、第1図(b)に
示したフローに基づいて、バックプロパゲーション学習
計算を、高速に実行することができる。
即ち、本発明は、パソコンに、アクセラレータ1を接続
し、該アクセラレータ1に備えられているDSP 10
を用いて、ニューラルネットのバックプロパゲーション
学習の計算を行うのに、該DSP10が備えている複合
演算命令を使用して、該バックプロパゲーション学習計
算中の積和演算を効率良く実行する、即ち、全ての入力
パターンに対して、各層の出力を求める前向き処理を実
行した後、入力パターンと教師パターンとの差を求める
デルタ計算と、その差に基づいて、各層間の結合重みの
更新処理を行うようにしものである。
〔発明の効果〕
以上、詳細に説明したように、本発明のニューラルネッ
トのバックプロパゲーション学習方法は、例えば、パソ
コンに、DSPを具備したアクセラレータを接続し、そ
のアクセラレータにおいて、ニューラルネットの各層間
の出力を計算する前向き処理を、全ての入力パターンに
ついて実行し、その出力値を、上記入力パターンに対応
してメモリに記憶することを、全ての入力パターンに対
して実行した後、上記記憶されている各層間の出力値を
用いて、入力パターンと教師パターンとの差を求める各
層間のデルタ計算処理と、各層間の重み更新処理を実行
するとともに、上記DSPが具備している、積和演算と
、メモリからのデータ転送とを並行して行う複合演算命
令を使用して、上記バックプロパゲーションの学習計算
中の積和演算を効率よく実行するようにしたものである
ので、従来の学習計算手順に比較して、約、1.5倍程
度の高速化が図れる効果がある。
【図面の簡単な説明】
第1図は本発明の原理構成図。 第2図は本発明の実施例を示した図。 第3図はニューラルネットの従来の学習計算方式を説明
する図。 である。 図面において、 lはアクセラレータ。 10はディジタルシグナルプロセッサ(DSP) 。 11はメモリ。 110〜115は処理ステップ。 ■〜@は計算式。 をそれぞれ示す。  DSP 第 1 図(そのl) 第 1 図(その2) 第2図 (al) ニューラルネットの構成(3層ニューラル不フト)(a
2) ニューラルネットの従来の学習計夏方式を説明する図第
 3 図 (そのl) e O■ e ・タニ >X>X ゝ − し−一一一一一」 L−一一一一一」

Claims (2)

    【特許請求の範囲】
  1. (1)ニューラルネットのバックプロパゲーションの学
    習計算を、汎用計算機に、ディジタルシグナルプロセッ
    サ(DSP)(10)を具備したアクセラレータ(1)
    を接続して行う方法であって、 上記ディジタルシグナルプロセッサ(DSP)(10)
    が具備している、積和演算と,メモリ(11)からのデ
    ータ転送とを並行して行う複合演算命令を使用して、上
    記バックプロパゲーションの学習計算中の積和演算を実
    行することを特徴とするニューラルネットの学習計算方
    法。
  2. (2)ニューラルネットのバックプロパゲーションの学
    習計算を行うのに、ディジタルシグナルプロセッサ(D
    SP)(10)を具備したアクセラレータ(1)を接続
    した汎用計算機で行う方法であって、ニューラルネット
    の各層間の出力を計算する前向き処理(110,111
    )を、各入力パターンについて実行し、その出力値を、
    上記入力パターンに対応してメモリ(11)に記憶する
    ことを、全ての入力パターンに対して実行した後、 上記記憶されている各層間の出力値を用いて、入力パタ
    ーンと教師パターンとの差を求める各層間のデルタ計算
    処理(112,113)と,各層間の結合重み更新処理
    (114,115)を実行することを特徴とするニュー
    ラルネットの学習計算方法。
JP2265496A 1990-10-03 1990-10-03 ニューラルネットの学習計算方法 Pending JPH04195251A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2265496A JPH04195251A (ja) 1990-10-03 1990-10-03 ニューラルネットの学習計算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2265496A JPH04195251A (ja) 1990-10-03 1990-10-03 ニューラルネットの学習計算方法

Publications (1)

Publication Number Publication Date
JPH04195251A true JPH04195251A (ja) 1992-07-15

Family

ID=17417992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2265496A Pending JPH04195251A (ja) 1990-10-03 1990-10-03 ニューラルネットの学習計算方法

Country Status (1)

Country Link
JP (1) JPH04195251A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042782A (ja) * 2018-08-10 2020-03-19 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 人工知能チップに適用される算出方法および人工知能チップ
CN111291880A (zh) * 2017-10-30 2020-06-16 上海寒武纪信息科技有限公司 计算装置以及计算方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291880A (zh) * 2017-10-30 2020-06-16 上海寒武纪信息科技有限公司 计算装置以及计算方法
JP2020042782A (ja) * 2018-08-10 2020-03-19 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 人工知能チップに適用される算出方法および人工知能チップ

Similar Documents

Publication Publication Date Title
Chinn et al. Systolic array implementations of neural nets on the MasPar MP-1 massively parallel processor
Guo et al. Customisable control policy learning for robotics
Puskorius et al. Truncated backpropagation through time and Kalman filter training for neurocontrol
Seow et al. Recurrent neural network as a linear attractor for pattern association
JPH04195251A (ja) ニューラルネットの学習計算方法
JP3168204B2 (ja) ネットワーク構成データ処理装置
JPH04237388A (ja) ニューロプロセッサ
Murali et al. A New Crab Shell Search Algorithm for Optimal Assembly Sequence Generation
JP2606317B2 (ja) 学習処理装置
Li et al. Covid-19 Epidemic Trend Prediction Based on CNN-StackBiLSTM
Berke Application of artificial neural networks to the design optimization of aerospace structural components
KR20190125694A (ko) 학습 및 추론 장치 및 그 방법
JPH04291662A (ja) 階層ネットワーク構成演算素子
JPH05128285A (ja) ニユーロプロセツサ
JP2877413B2 (ja) 余剰ニューロン決定処理方式
Ichikawa et al. Realization model for brain computing
Wang et al. Neural network simulation on shared-memory vector multiprocessors
Turchenko Fine-grain approach to development of parallel training algorithm of multi-layer perceptron
Samad Neurocontrol: Concepts and applications
JPH04180152A (ja) ニューラルネットワークシステム
JP3137669B2 (ja) 階層ネットワーク構成演算素子
JPH05197702A (ja) 神経回路網シミュレータ装置
JPH03123959A (ja) 学習処理装置
CN115481688A (zh) 基于特征自适应迁移强化学习的机器人装配方法及系统
Belikov et al. Calculation of the control signal in MIMO NN-based ANARX models: Analytical approach