JPH06231106A - リカレント型ニューラルネットワーク学習方法及び装置 - Google Patents

リカレント型ニューラルネットワーク学習方法及び装置

Info

Publication number
JPH06231106A
JPH06231106A JP5034722A JP3472293A JPH06231106A JP H06231106 A JPH06231106 A JP H06231106A JP 5034722 A JP5034722 A JP 5034722A JP 3472293 A JP3472293 A JP 3472293A JP H06231106 A JPH06231106 A JP H06231106A
Authority
JP
Japan
Prior art keywords
learning
time
data
section
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5034722A
Other languages
English (en)
Inventor
Hisao Ogata
日佐男 緒方
Masahiro Abe
正博 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5034722A priority Critical patent/JPH06231106A/ja
Publication of JPH06231106A publication Critical patent/JPH06231106A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 リカレント型ニューラルネットワークの学習
において、長い時系列データの学習の際にも安定で、し
かも高速な学習を実現する。 【構成】 ネットワークに入力する入力データとしての
時系列データとネットワーク出力の目標値である教師デ
ータとしての時系列データからなる学習データを用い、
時系列データの初期学習区間として、学習データとして
予め用意した時系列の全体の長さよりも短い時系列区間
を設定し、該設定した時系列区間の時系列データを用い
て学習を行ない、該時系列区間を用いた学習が終了した
時点で、次の学習を行なうために学習に用いる時系列区
間の長さを拡大し、拡大された時系列区間を用いて再度
学習を行ない、時系列区間の長さが、予め用意した学習
データの全体の時系列の長さになるまで、時系列区間の
長さの拡大と該拡大した時系列区間を用いた学習を繰り
返す。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、各ユニット間において
任意の結合を許すリカレント型ニューラルネットワーク
を用いて、パターン認識や予測などを行なう処理分野に
おいて、学習データを使用したネットワークの重みの学
習を行なう方法に関する。
【0002】
【従来の技術】ニューラルネットワークとは、人間の脳
における神経回路網を簡略化したモデルであり、それは
神経細胞ニューロンが、一方向にのみ信号が通過するシ
ナプスを介して結合されているネットワークである。ニ
ューロン間の信号の伝達は、このシナプスを通して行な
われ、シナプスの抵抗、すなわち重みを適当に調整する
ことにより、様々な情報処理が可能となる。各ニューロ
ンでは、結合されている他のニューロンからの出力をシ
ナプスの重み付けをして入力し、それらの総和を非線形
応答関数の変形を加えて、再度他のニューロンへ出力す
る。ニューラルネットワークの構造の一つに、図2に示
すような多層型ネットワークがある。このタイプのネッ
トワークは層構造を持っており、層間に渡る結合のみが
許され、層内の結合や自己回帰的な結合は存在しない。
この多層型ネットワークは、空間的に広がるパターンの
認識や、情報圧縮に適していると考えられている。
【0003】一方、図3に示すように、ネットワークの
構造にそのような制限を設けず、各ユニット間において
任意の結合を許すリカレント型ネットワークがある。厳
密に言うと、リカレント型ネットワークには層の概念は
ないが、ここでは多層型ネットワークとの対応をつける
ために、便宜的に層という概念を取り入れる。以下で
は、入力データが入力されるユニット群を入力層、ネッ
トワークの出力を出すユニット群を出力層、その他のユ
ニット群を中間層と呼ぶ。リカレント型ネットワークで
は、各ユニットの過去の出力がネットワーク内の他のユ
ニット、或いは自分自身に戻される結合がある。そのた
め、時間に依存して各ニューロンの状態が変化するダイ
ナミックスをネットワークの内部に持つ。このように、
ネットワーク内に時間を持ったシステムであるので、リ
カレント型ネットワークは時系列パターンの認識や予測
に適していると考えられている。多層型ネットワークと
リカレント型ネットワークについて、ネットワークの形
状を比較すると、前者は後者の特別な場合と見ることが
できる。本発明は、リカレント型ニューラルネットワー
クに関わる。時系列パターンの認識や予測に、リカレン
ト型ニューラルネットワークを用いる場合、ネットワー
クが正しい出力を出すように、時系列データである入力
データと、同じく時系列データである教師データが対に
なった学習データを用意し、それらを用いてネットワー
クの重みを予め学習しておく必要がある。これには通
常、バックプロパゲーション法と呼ばれる最適化手法を
用いて行なわれる。この手法に関しては、例えば、A
Learning Algorism to Teac
h Spatiotemporal Patterns
to Recurrent Neural Netw
orks, Biological Cybernet
ics 62(1990年)第259頁から第263頁
において論じられている。
【0004】次式はt0からtnに渡る有限時間区間にお
ける誤差(各時刻における誤差を全部加え合わせたも
の)を示すものであり、この手法の特徴は、この誤差を
小さくするように、最急降下法に基づき重みを修正する
ことである。
【0005】
【数1】
【0006】ここで、E(w)は誤差であり、Yk(t)は
ユニットkに提示される教師データであり、yk(t)は出
力層の出力である。但し、kは出力層に属するユニット
群を示す。重みの修正量を計算する際に用いられる最急
降下方向は次式で与えられる。
【0007】
【数2】
【0008】ここでyi(t)、Pi(t)はそれぞれユニット
iの出力値と逆伝搬誤差である。出力値yi(t)は数3、
数4に従って計算される。
【0009】
【数3】
【0010】
【数4】
【0011】ここで、xi(t)、xj(t)は時刻tにおける
ユニットi、ユニットjの内部電位であり、yi(t)、y
j(t)は内部電位を非線形変換して決められる。なお、x
iはxi(t)のことであり、yiはyi(t)のことである。ま
た、τi、Xiはそれぞれユニットiの時定数、外部入力
であり、wijはユニットjからユニットiへの結合の重
みである。Nは総ユニット数である。xi(t)はt0→tn
の時間の順方向に計算される。すなわち、数3でxi(t)
を求め、求めたxi(t)用いて数4でyi(t)を求め、この
yi(t)を用いて数3で次のxi(t)を求め、以下、これを
繰り返す。逆伝搬誤差は数5に従って計算される。
【0012】
【数5】
【0013】ここで、Yi(t)は時刻tにおけるユニット
iに対する教師データであり、δikはクロネッカーのデ
ルタ記号である。但し、kは出力層のユニットの番号を
表す。また、PiはPi(t)のことである。数5では、出
力層に属するニューロンの逆伝搬誤差は、他のニューロ
ンからの逆伝搬誤差と重みの総和以外に、各時刻毎に出
力値の誤差が加算される形になっている。また、df
(xi)/dxi、(yi(t)−Yi(t))は、xi(t)、yi(t)
が決まらないと計算できない。そこで、xi(t)、yi(t)
を時間の順方向に計算した後、時刻tn では逆伝搬誤差
は0であると仮定して、次式で与えられる境界条件を設
定し、逆伝搬誤差誤差をtn→t0の時間の逆方向に計算
する。
【0014】
【数6】
【0015】最急降下方向の計算の手順は以下のように
行なう。まず各ユニットの出力の初期値を適当に設定し
た後、数3、数4に従って各時刻の出力値を計算し、そ
の値を保存しておく。次に、数6で与えられる逆伝搬誤
差の境界条件を設定する。その後、先程計算した出力値
を用いて、数5に従って時間に逆行しながら各時刻の逆
伝搬誤差を計算し保存する。最後に、求められた各時刻
の出力値と逆伝搬誤差を用いて数2で与えられる最急降
下方向を計算する。
【0016】バックプロパゲーション学習の処理手順の
詳細を、図4を用いて示す。まず図4内の学習データ1
0について説明する。これは、例えば図3のような2つ
の入力層ニューロンと、1つの出力層ニューロンを持つ
ネットワークに対する学習データである。学習データは
入力データと教師データからなり、それぞれ(入力層ニ
ューロン数×時系列サンプル点数)、(出力層ニューロ
ン数×時系列サンプル点数)だけのデータ数を持つ。ス
テップ20では、適当な乱数などを用いて重みの初期値
を設定する。ステップ22では、適当な出力の初期条件
を設定した後、数3、数4に従い入力データを用いて時
間の順方向に各ユニットの出力値を計算して、それを保
存する。ステップ23では、まず数6の境界条件を設定
する。その後、数5に従い教師データを用いて、時間の
逆方向に各ユニットの逆伝搬誤差Pi(t)を計算し、それ
を保存する。ステップ24では、ステップ22で求めた
出力値と、ステップ23で求めた逆伝搬誤差を用いて、
数2に従い最急降下方向を計算する。ステップ25で
は、ステップ24で求めた最急降下方向と、前回の重み
の修正量により次式に従って今回の重みの修正量を計算
する。
【0017】
【数7】
【0018】ここでηは学習係数、αはモーメント係
数、mは学習回数である。右辺第2項はモーメント項と
呼ばれ、学習を加速するために経験的に加える項であ
る。ステップ26では、次式に従い各ユニットの重みを
修正する。
【0019】
【数8】
【0020】ステップ21では、誤差が一定の値以下に
収束するまでステップ22からステップ26の処理を繰
り返す。以上が、バックプロパゲーションによる学習の
原理である。
【0021】
【発明が解決しようとする課題】このリカレント型ニュ
ーラルネットワークの、バックプロパゲーション学習の
問題点として、学習を行なう時系列データの長さが長く
なると、学習がなかなか収束しなくなるということが挙
げられる。この問題点について詳細に説明する。リカレ
ント型ニューラルネットワークは、ネットワーク内部に
時間を持つ非線形動力学系である。重みの学習とは、こ
の非線形動力学系のパラメータを調整することに対応す
る。非線形動力学系では、パラメータを変えていくと、
ある値で系の振る舞いが突然大きく変わる分岐という現
象がある。そのため、学習係数を大きく取っていると、
この分岐現象のために、徐々に減少していた誤差が急に
大きくなる、という不安定な現象がしばしば起こる。一
方、誤差は重みに依存しているので、重みの関数と見る
ことができる。そこで、学習とは誤差を減少させるよう
に重みを調整するので、重み空間の中で誤差関数の最小
点を探索することである、と言い替えることができる。
学習を行なう時系列の長さを長くすることは、ネットワ
ーク内の各ユニットの描く軌道に、それだけ多くの拘束
を与えることになる。非線形動力学系ではパラメータを
少し変えると、先程説明した分岐現象や軌道の不安定性
のために、軌道は大きく変化することがある。そのた
め、学習を行なう時系列の長さを長くして、描く軌道に
多くの拘束を与えた場合、重みを少し変えただけでも軌
道が大きく変わるので、結果として誤差も大きく変化す
る。これは、軌道に多くの拘束を与えた場合、それだけ
重み空間の中での誤差関数の構造を複雑にすることに対
応する。この結果、学習させる時系列の長さが長くなれ
ば、誤差関数の構造が複雑になるため、多くの山や谷、
そしてローカルミニマムが存在することになり、なかな
か学習が収束しなくなる。本発明の目的は、リカレント
型ニューラルネットワークのバックプロパゲーション学
習において、長い時系列データの学習の際にも安定で、
しかも高速な学習を実現するための方法および装置を提
供することである。
【0022】
【課題を解決するための手段】上記目的は、初めから長
い時系列データを一度に学習させるのではなく、最初は
学習データの一部である短い時系列データを用いて学習
を行ない、学習が収束する度に、少しづつ学習させる時
系列データの長さを長くしながら、学習させることで達
成される。すなわち、時系列データの初期学習区間とし
て、学習データとして予め用意した時系列の全体の長さ
よりも短い時系列区間を設定し、その設定した区間の時
系列データを用いて学習を行ない、その時系列区間を用
いた学習が終了した時点で、次の学習を行なうために学
習に用いる時系列区間の長さを、一定の長さだけ拡大
し、拡大された時系列区間を用いて再度学習を行ない、
時系列区間の長さが、予め用意した全体の学習データの
時系列の長さになるまで、時系列区間の長さの拡大とこ
の拡大された時系列区間を用いた学習を繰り返すように
している。
【0023】
【作用】上記方法により、長い時系列データの学習の際
にも、最初はその一部の短い時系列データを用いて学習
を行なうことになる。そのため、誤差関数の構造があま
り複雑にならないので、学習が進行する。そして、最初
の時系列データの学習が終了した後、得られた重み値を
用いて、学習させる時系列の長さを一定の長さだけ長く
し、学習を再度行なう。その結果、最初の学習で用いた
時系列データの部分に関しては、既に収束しているの
で、比較的小さな重みの変更で、拡大された長さの時系
列データの学習が収束することになる。これは言い替え
ると、最初の学習で部分的な時系列データを用いて収束
させることは、全体の長さの時系列データを学習させる
前段階として、重み空間の中である程度最小点近傍まで
近付けておくことに対応する。よって、学習させる時系
列データの長さの拡大と学習を繰り返すことで、長い時
系列データの学習も可能になる。更に、学習させる時系
列の長さを長くしていく場合、それまで学習した時系列
部分に関しては既に収束しているので、学習は主として
拡大された部分の時系列について行なわれることにな
る。拡大された部分の時系列の長さを、あまり長くしな
ければ、この部分の学習にはさほど時間はかからない。
よって、短時間の学習で学習させる時系列の長さを次々
に長くできるので、最初から長い時系列を学習させるよ
り、高速に学習を行なうことが可能になる。
【0024】
【実施例】以下、本発明の第1の実施例を、図1、図
3、図5、図6を用いて説明する。図1は実施例の処理
全体の流れを示したものであり、本発明の特徴は下線を
つけて表している。図3はリカレント型ニューラルネッ
トワークの一例を示す図である。厳密に言うとリカレン
ト型ネットワークには層の概念はないが、ここでは便宜
的に入力データが入力されるユニット群を入力層、ネッ
トワークの出力を出すユニット群を出力層、その他のユ
ニット群を中間層と呼ぶ。図5は重み学習を行なうため
の学習データ10の詳細を示す図である。これは、例え
ば図3のような2つの入力層ニューロンと、1つの出力
層ニューロンを持つネットワークに対する学習データで
ある。学習データは入力データと教師データからなり、
それぞれ(入力層ニューロン数×時系列データサンプル
数)、(出力層ニューロン数×時系列データサンプル
数)だけのデータ数を持つ。図6は学習させる時系列デ
ータの長さの拡大、すなわち学習区間の拡大の例を示し
た図である。
【0025】次に図1を用いて本実施例の動作を説明す
る。図においてステップ2及びステップ3が本発明の特
徴となっている。ステップ1では、学習を始めるために
適当な乱数を用いて重みの初期値を設定する。ステップ
2では、最初に学習を行なう時系列データの学習区間を
設定する。ステップ5では、適当な出力の初期値を設定
した後、入力データを用い数3、数4に従って、時間の
順方向に各ユニットの出力値を計算してそれを保存す
る。ステップ6では、まず数6の境界条件を設定する。
その後、数5に従い教師データを用いて、時間の逆方向
に各ユニットの逆伝搬誤差Pi(t)を計算し、それを
保存する。ステップ7では、ステップ5で求めた出力値
と、ステップ6で求めた逆伝搬誤差を用いて、数2に従
い最急降下方向を計算する。ステップ8では、ステップ
7で求めた最急降下方向と、前回の重みの修正量によ
り、数7に従って今回の重みの修正量を計算する。数7
においてηは学習係数、αはモーメント係数、mは学習
回数である。右辺第2項はモーメント項と呼ばれ、学習
を加速するために経験的に加える項である。ステップ9
では、数8に従い各ユニットの重みを修正する。ステッ
プ4では、各時刻において全ての出力層に属するユニッ
トの誤差が、一定の値以下に収束するまで、ステップ5
からステップ9の処理を繰り返す。ステップ3では、学
習区間を一定の長さだけ拡大し、ステップ4で得られた
各ユニットの重みを重みの初期値として設定し、予め用
意した学習させる時系列データの長さになるまで、ステ
ップ4を繰り返す。
【0026】さらに図6を用いてこの手法を説明する。
学習区間の初期設定として第1段階の学習区間(時間t
0からt41まで)を設定する。そして、その区間の時
系列データについて学習を行なう。なお、説明のため、
t0〜t41、t41〜t42、t42〜t43、t4
3〜t44の各時間区間を夫々区分区間1、2、3、4
と呼ぶ。第1段階の学習区間の学習が収束すると学習区
間を拡大し、第2段階の学習区間(区分区間1、2)に
ついて学習を行なう。以下同様に第3段階(区分区間
1、2、3)、第4段階(区分区間1、2、3、4)と
学習区間を拡大しながら学習を進めていく。なお、図6
では区分区間を4区間としたが、これに限られるもので
ないことはいうまでもない。この様な手法により、短い
学習区間から学習を始め、徐々に学習区間を広げていく
ので、初めから長い学習区間を学習させるより安定で高
速な学習が可能になる。例えば、次式の数9に示す非線
形振動の時系列データを用いて、学習を行なった場合、
時系列データの長さが100サンプル点を超えた場合
は、1.2Mflopsのワークステーションを用い
て、2時間掛けても収束しなかった。それに対し、本手
法を用いて20サンプルづつ学習区間を拡大しながら学
習を行なった場合は、200サンプル点を約10分で学
習することができた。これにより学習区間は2.0倍の
拡大とを行なうことができ、更に学習時間は12倍以上
の短縮を図ることが可能になった。
【0027】
【数9】
【0028】なお、リカレント型ニューラルネットワー
クの学習の手法は、時間に逆行する処理を必要とする逆
伝搬誤差を用いた本実施例のものに限るものではなく、
例えば、フォワード計算をしながら、同時に最急降下法
に基づき重みを修正していく実時間で学習できる手法、
変分原理を用いた手法、及び共役勾配法、準ニュートン
法等の非線形最適化手法を採用してもよい。最初の二つ
の手法に関しては、例えば、リカレントニューラルネッ
トワークの各学習則に関する検討および学習曲面の形
状、電子情報通信学会論文誌D−II Vol.j74−
D−II No.12(1991年12月)第1776頁
から第1787頁において論じられている。また、学習
区間の拡大の仕方も本実施例のものに限るものではな
く、例えば、拡大する回数と共に指数的に長くしてもよ
い。更に、次の学習区間に移るための学習収束の条件
は、本実施例のものに限るものでなく、現在の学習区間
から次に拡大される区間の増加分の区間に移るときのの
学習誤差が最小になる時点、すなわち、減少から増大に
転じる時点としてもよい。また、学習区間の拡大は必ず
しも時系列データの初期時刻より始める必要は無く、上
述の学習方法を用いて時系列データの任意の時点より拡
大を行なってもよい。図6では第1段階の学習区間を区
分区間1としているが、第1段階の学習区間をどの区分
区間としてもよい。例えば、第1段階の学習区間を区分
区間2とし、第2段階の学習区間を区分区間2、3(あ
るいは区分区間1、2)とし、第3段階の学習区間を区
分区間1、2、3あるいは区分区間2、3、4(第2段
階の学習区間を区分区間1、2とした場合は区分区間
1、2、3)とし、第4段階の学習区間を区分区間1、
2、3、4とするようにしてもよい。また、本実施例で
は、各時刻のネットワーク出力値を時間の順方向に計算
した後、各時間の伝搬誤差を時間の逆方向に計算する学
習方法を用いた。しかし、数3、数4、数5より時間に
ついてこれと逆の処理を行なう学習方法も可能である。
すなわち、時間の逆方向にネットワークの出力値を計算
し、時間の順方向に伝搬誤差を計算する学習も可能であ
る。この学習方法を用いて、学習区間を拡大しながら学
習を行なうようにしてもよい。加えてリカレント型ネッ
トワークのモデルは、本実施例のものに限るものでな
く、シナプスの特性が重み値だけでなく、遅延特性をも
持つモデルとしても良い。
【0029】次に図7を用いて第2の実施例を説明す
る。図7は第2の実施例の学習装置の構成全体を示した
ブロック図であり、特に本発明の特徴を示すブロックに
は下線をつけて示している。学習データ記憶部40は入
力データと教師データを格納している。学習区間制御部
41は、学習を行なう時系列データの学習区間を設定
し、制御信号によりこの学習区間を学習部60に出力す
るものである。最初に学習を行なう時系列データの学習
区間を設定し、この学習区間に対する学習が学習部60
で行なわれ収束、終了すると、この終了信号を学習部6
0から受け、次に学習を行なう時系列データの学習区間
を設定し、制御信号によりこの学習区間を学習部60に
出力する。重み初期化部43が学習を始めるために適当
な乱数を用いて重みの初期値を設定する。重み値記憶部
42は重み値を記憶するものであり、最初は前記設定し
た初期値を記憶し、以後は、各学習区間での学習が収
束、終了したときの重み値を記憶する。学習部60は、
出力値計算部44、逆伝搬誤差計算部45、収束判定部
46、最急降下方向計算部47、重み修正量計算部4
8、重み修正部49、出力値記憶部50、逆伝搬誤差記
憶部51、最急降下方向記憶部52、重み修正量記憶部
53を有する。
【0030】学習区間制御部41が出力値計算部44、
逆伝搬誤差計算部45、最急降下方向計算部47に制御
信号を出し、最初に学習を行なう時系列データの学習区
間を設定すると、出力値計算部44は適当な出力の初期
値を設定した後、学習データ記憶部40から入力データ
を読み出し、数3、数4に従って時間の順方向に各ユニ
ットの出力値を計算し、それを出力値記憶部50に記憶
する。逆伝搬誤差計算部45は、まず数6の境界条件を
設定する。その後、学習データ記憶部40から教師デー
タを読み出し、数5に従って時間の逆方向に各ユニット
の逆伝搬誤差Pi(t)を計算し、それを逆伝搬誤差記
憶部51に記憶する。そして、出力層に属するユニット
の各時刻の出力値の誤差を、収束判定部46に送る。
最急降下法方向計算部47は、出力値記憶部50から出
力値を読み出し、逆伝搬誤差記憶部51から逆伝搬誤差
を読み出す。次に最急降下法方向計算部47は、それら
のデータを用いて数2に従い最急降下方向を計算し、そ
れを最急降下方向記憶部52に記憶する。重み修正量計
算部48は、最急降下方向記憶部52から最急降下方向
データを読み出し、重み修正量記憶部53から前回の重
み修正量を読み出す。次に重み修正量計算部48は、そ
れらのデータを用いて数7に従い、今回の重みの修正量
を計算し、重み修正量記憶部53に記憶する。重み修正
部49は、重み記憶部42から重みデータを読み出し、
重み修正量記憶部53から重み修正量を読み出す。次
に、重み修正部49は、数8に従い各ユニットの重みを
修正し、新しい重みデータを重み値記憶部42に記憶す
る。収束判定部46は、逆伝搬誤差計算部45から送ら
れてきた各時刻の誤差を判定し、一定の値以下に収束す
るまで、設定された学習区間での学習処理を繰り返すよ
う制御する。設定された学習区間での学習が収束、終了
すると、学習区間制御部41は終了信号を受け、出力値
計算部44、逆伝搬誤差計算部45、最急降下方向計算
部47に制御信号を出し、学習区間を一定の長さだけ拡
大する。学習部60は、新たな学習区間おける学習を実
行する。そして、予め用意した学習させる時系列データ
の長さになるまで、上記した処理を実行する。
【0031】
【発明の効果】以上説明したように本発明によれば、長
い時系列データの学習の際にも、重み値の収束に要する
学習時間を大幅に短縮することができ、また、学習時間
を増大させることなく学習に用いる時系列データを長く
することができ、高速な学習を可能とする。
【図面の簡単な説明】
【図1】本発明の第1の実施例の処理全体を示すPAD
である。
【図2】多層型ニューラルネットワークの例を示す図で
ある。
【図3】リカレント型ニューラルネットワークの例を示
す図である。
【図4】従来のリカレント型ニューラルネットワークの
学習における処理を示すPADである。
【図5】学習データの詳細を示す図である。
【図6】学習区間拡大の例を示す図である。
【図7】本発明の第2の実施例である装置の構成全体を
示すブロック図である。
【符号の説明】
40 学習データ記憶部 41 学習区間制御部 42 重み値記憶部 43 重み初期化部 44 出力値計算部 45 逆伝搬誤差計算部 46 収束判定部 47 再急降下方向計算部 48 重み修正量計算部 49 重み修正部 50 出力値記憶部 51 逆伝搬誤差記憶部 52 再急降下方向記憶部 53 重み修正量記憶部 60 学習部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 結合されている他の基本ユニットからの
    出力を重み付けして総和し、総和した結果に非線形変換
    を施して出力する機能を具備した基本ユニットを有し、
    任意の基本ユニット間の結合を許すリカレント型ニュー
    ラルネットワークに対する、ネットワークに入力する入
    力データとしての時系列データとネットワーク出力の目
    標値である教師データとしての時系列データからなる学
    習データを用いるリカレント型ニューラルネットワーク
    学習方法において、 時系列データの初期学習区間として、学習データとして
    予め用意した時系列の全体の長さよりも短い時系列区間
    を設定するステップと、 該設定した時系列区間の時系列データを用いて学習を行
    なうステップと、 該時系列区間を用いた学習が終了した時点で、次の学習
    を行なうために学習に用いる時系列区間の長さを拡大す
    るステップと、 拡大された時系列区間を用いて再度学習を行なうステッ
    プと、 時系列区間の長さが、予め用意した学習データの全体の
    時系列の長さになるまで、時系列区間の長さの拡大と該
    拡大した時系列区間を用いた学習を繰り返すステップ
    と、を有することを特徴とするリカレント型ニューラル
    ネットワーク学習方法。
  2. 【請求項2】 結合されている他の基本ユニットからの
    出力を重み付けして総和し、総和した結果に非線形変換
    を施して出力する機能を具備した基本ユニットを有し、
    任意の基本ユニット間の結合を許すリカレント型ニュー
    ラルネットワークに対する、ネットワークに入力する入
    力データとしての時系列データとネットワーク出力の目
    標値である教師データとしての時系列データからなる学
    習データを用いる最急降下法に基づくバックプロパゲー
    ション学習を行なうリカレント型ニューラルネットワー
    ク学習方法において、 時系列データの初期学習区間として、学習データとして
    予め用意した時系列の全体の長さよりも短い時系列区間
    を設定するステップと、 該設定した時系列区間の時系列データを用いて学習を行
    なうステップと、 該時系列区間を用いた学習が終了した時点で、次の学習
    を行なうために学習に用いる時系列区間の長さを拡大す
    るステップと、 拡大された時系列区間を用いて再度学習を行なうステッ
    プと、 時系列区間の長さが、予め用意した学習データの全体の
    時系列の長さになるまで、時系列区間の長さの拡大と該
    拡大した時系列区間を用いた学習を繰り返すステップ
    と、を有することを特徴とするリカレント型ニューラル
    ネットワーク学習方法。
  3. 【請求項3】 結合されている他の基本ユニットからの
    出力を重み付けして総和し、総和した結果に非線形変換
    を施して出力する機能を具備した基本ユニットを有し、
    任意の基本ユニット間の結合を許すリカレント型ニュー
    ラルネットワークに対する、ネットワークに入力する入
    力データとしての時系列データとネットワーク出力の目
    標値である教師データとしての時系列データからなる学
    習データを用いる最急降下法に基づくバックプロパゲー
    ション学習を行なうリカレント型ニューラルネットワー
    ク学習方法において、 時系列データの初期学習区間として、学習データとして
    予め用意した時系列の全体の長さよりも短い時系列区間
    を設定するステップと、 該設定した時系列区間の時系列データを用いて学習を行
    なうステップと、 該時系列区間を用いた学習が終了した時点で、次の学習
    を行なうために学習に用いる時系列区間の長さを一定の
    長さだけ拡大するステップと、 拡大された時系列区間を用いて再度学習を行なうステッ
    プと、 時系列区間の長さが、予め用意した学習データの全体の
    時系列の長さになるまで、時系列区間の長さの拡大と該
    拡大した時系列区間を用いた学習を繰り返すステップ
    と、を有することを特徴とするリカレント型ニューラル
    ネットワーク学習方法。
  4. 【請求項4】 請求項3記載のリカレント型ニューラル
    ネットワーク学習方法において、前記バックプロパゲー
    ション学習を逆伝搬誤差が時間に遡る処理を伴うバック
    プロパゲーション学習とすることを特徴とするリカレン
    ト型ニューラルネットワーク学習方法。
  5. 【請求項5】 入力データとしての時系列データとネッ
    トワーク出力の目標値である教師データとしての時系列
    データからなる学習データを記憶する学習データ記憶部
    と、重み初期化部と、重み値記憶部、学習部を備え、前
    記重み初期化部で初期設定され前記重み値記憶部に記憶
    された重み値と、前記学習データ記憶部に記憶された学
    習データに基づき前記学習部で学習を行ない、学習の結
    果得られた重み値を前記重み値記憶部に格納するリカレ
    ント型ニューラルネットワーク学習装置において、 学習区間制御部を設け、該学習区間制御部は、時系列デ
    ータの初期学習区間として、学習データとして予め用意
    した時系列の全体の長さよりも短い時系列区間を設定し
    て前記学習部に出力し、該学習部が前記設定した時系列
    区間での学習を終了した時点で次の学習を行なうために
    学習に用いる時系列区間の長さを拡大して前記学習部に
    出力し、時系列区間の長さが予め用意した学習データの
    全体の時系列の長さになるまで、該学習部が前記学習を
    終了する度に時系列区間の長さを拡大して前記学習部に
    出力し、 前記学習部は、学習区間制御部により設定された時系列
    区間での学習を終了する度に、得られた重み値により前
    記重み記憶部に記憶された重み値を更新記憶し、次に学
    習区間制御部により設定された時系列区間での学習を、
    前記重み値記憶部に更新記憶された重み値と前記学習デ
    ータ記憶部に記憶された学習データに基づき行なうよう
    にしたことを特徴とするリカレント型ニューラルネット
    ワーク学習装置。
JP5034722A 1993-01-29 1993-01-29 リカレント型ニューラルネットワーク学習方法及び装置 Pending JPH06231106A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5034722A JPH06231106A (ja) 1993-01-29 1993-01-29 リカレント型ニューラルネットワーク学習方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5034722A JPH06231106A (ja) 1993-01-29 1993-01-29 リカレント型ニューラルネットワーク学習方法及び装置

Publications (1)

Publication Number Publication Date
JPH06231106A true JPH06231106A (ja) 1994-08-19

Family

ID=12422225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5034722A Pending JPH06231106A (ja) 1993-01-29 1993-01-29 リカレント型ニューラルネットワーク学習方法及び装置

Country Status (1)

Country Link
JP (1) JPH06231106A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1667107A1 (en) 2004-12-06 2006-06-07 Sony Corporation Method and apparatus for learning data, method and apparatus for recognizing data, method and apparatus for generating data and computer program
JP2013003929A (ja) * 2011-06-19 2013-01-07 Masafumi Hagiwara 異常事象検知ルール自動抽出方法、異常事象検知ルール自動抽出装置
JP2013205235A (ja) * 2012-03-28 2013-10-07 Mitsubishi Heavy Ind Ltd 電波反射特性評価システム及び電波反射特性評価方法
JP2017003673A (ja) * 2015-06-06 2017-01-05 和彦 木戸 学習支援置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1667107A1 (en) 2004-12-06 2006-06-07 Sony Corporation Method and apparatus for learning data, method and apparatus for recognizing data, method and apparatus for generating data and computer program
JP2013003929A (ja) * 2011-06-19 2013-01-07 Masafumi Hagiwara 異常事象検知ルール自動抽出方法、異常事象検知ルール自動抽出装置
JP2013205235A (ja) * 2012-03-28 2013-10-07 Mitsubishi Heavy Ind Ltd 電波反射特性評価システム及び電波反射特性評価方法
JP2017003673A (ja) * 2015-06-06 2017-01-05 和彦 木戸 学習支援置

Similar Documents

Publication Publication Date Title
EP0384689B1 (en) A learning system and learning method for a data processing apparatus
JP3178884B2 (ja) ニューラルネットワーク装置
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
US5845051A (en) Learning method for multilayer perceptron neural network with N-bit data representation
CN115972211A (zh) 基于模型不确定性与行为先验的控制策略离线训练方法
JPH06231106A (ja) リカレント型ニューラルネットワーク学習方法及び装置
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
JPH086916A (ja) リカレント型ニューラルネットワーク学習方法及びその装置
KR102624710B1 (ko) Gru 기반 구조물 시계열 응답 예측 방법
Yam et al. Accelerated training algorithm for feedforward neural networks based on least squares method
JP3262340B2 (ja) 情報処理装置
JP2606317B2 (ja) 学習処理装置
JP3172164B2 (ja) ニューラルネットワークにおける結合のグループ単位逐次学習方式
JPH11175494A (ja) ニューラルネットワーク
JP7055211B2 (ja) データ処理システムおよびデータ処理方法
JP3172163B2 (ja) ニューラルネットワークにおける結合のグループ単位学習調整方式
Gunaseeli et al. A constructive approach of modified standard backpropagation algorithm with optimum initialization for feedforward neural networks
JPH10187649A (ja) ニューラルネットワーク
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
Tsoi et al. Building MLP networks by construction
JP3393511B2 (ja) 文字認識装置及び方法
JP2654686B2 (ja) ニューラルネットワーク
JP2559879B2 (ja) ファジィ制御器
JPH04323763A (ja) ニューラルネットワーク学習方法
Li et al. An improved training approach for feedforward neural networks