JPH086916A - Method and device for learning recurrent neural network - Google Patents

Method and device for learning recurrent neural network

Info

Publication number
JPH086916A
JPH086916A JP6139859A JP13985994A JPH086916A JP H086916 A JPH086916 A JP H086916A JP 6139859 A JP6139859 A JP 6139859A JP 13985994 A JP13985994 A JP 13985994A JP H086916 A JPH086916 A JP H086916A
Authority
JP
Japan
Prior art keywords
learning
time
data
section
initial state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6139859A
Other languages
Japanese (ja)
Inventor
Hisao Ogata
日佐男 緒方
Takeshi Karaki
武志 唐木
Yumiko Kitagawa
由美子 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Solutions East Japan Ltd
Original Assignee
Hitachi Ltd
Hitachi Tohoku Software Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Tohoku Software Ltd filed Critical Hitachi Ltd
Priority to JP6139859A priority Critical patent/JPH086916A/en
Publication of JPH086916A publication Critical patent/JPH086916A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain stable and quick learning by learning only an initial state until the reduction of errors becomes less than a threshold in the case of extending a learning section in a past direction and learning it again, and then learning a weight value and a time constant also. CONSTITUTION:At the time of judging that a learning section is extended in a time-retroactive direction, a learning section control part 41 outputs a control signal to a learning control part 54 and the control part 54 receiving the signal outputs a control signal to a most nose diving direction calculating part 47, a network parameter correction quantity calculating part 48 and a network parameter correcting part 49. Immediately after extending the learning section in the time-retroactive direction, a convergence deciding part 46 decides an error at each time sent from a reverse propagation error calculating part 45 and the control part 41 learns only the initial state by the use of the extended time-sequential data without updating an already learned weight value and a time constant until the quantity of error reduction becomes less than a threshold. After its reduction less than the threshold, the control part 41 learns the weight value and the time constant in addition to the initial state.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、各ユニット間において
任意の結合を許すリカレント型ニューラルネットワーク
を用いて、パターン認識や予測などを行う処理分野にお
いて、学習データを使用したネットワークの重みの学習
を行う方法およびその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention uses a recurrent neural network that allows arbitrary connections between units to perform learning of network weights using learning data in the processing field of pattern recognition and prediction. The present invention relates to a method and an apparatus therefor.

【0002】[0002]

【従来の技術】ニューラルネットワークとは、人間の脳
における神経回路網を簡略化したモデルであり、それは
神経細胞ニューロンが、一方向にのみ信号が通過するシ
ナプスを介して結合されているネットワークである。ニ
ューロン間の信号の伝達は、このシナプスを通して行わ
れ、シナプスの抵抗、すなわち、重みを適当に調整する
ことにより、様々な情報処理が可能となる。各ニューロ
ンでは、結合されている他のニューロンからの出力をシ
ナプスの重み付けをして入力し、それらの総和を非線形
応答関数の変形を加えて、再度、他のニューロンへ出力
する。
2. Description of the Related Art A neural network is a simplified model of a neural network in the human brain, which is a network in which neuron neurons are connected via synapses through which signals pass in only one direction. . Signal transmission between neurons is performed through this synapse, and various information processing can be performed by appropriately adjusting the resistance of the synapse, that is, the weight. In each neuron, the output from the other connected neuron is input with synaptic weighting, the sum is added to the modified nonlinear response function, and the result is output again to the other neuron.

【0003】ニューラルネットワークの構造の一つに、
図2に示すような多層型ネットワークがある。このタイ
プのネットワークは層構造を持っており、層間の結合の
みが許され、層内の結合や自己回帰的な結合は存在しな
い。この多層型ネットワークは、空間的に広がるパター
ンの認識や、情報圧縮に適していると考えられている。
One of the structures of the neural network is
There is a multi-layer network as shown in FIG. This type of network has a layered structure, only inter-layer connections are allowed, no intra-layer or auto-regressive connections exist. This multi-layer network is considered to be suitable for recognition of spatially spreading patterns and information compression.

【0004】一方、図3に示すように、ネットワークの
構造にそのような制限を設けず、各ユニット間で任意の
結合を許すリカレント型ネットワークがある。厳密に言
うと、リカレント型ネットワークには層の概念はない
が、ここでは多層型ネットワークとの対応をつけるため
に、便宜的に層という概念を取り入れる。以下では、入
力データが入力されるユニット群を入力層、ネットワー
クの出力を出すユニット群を出力層、その他のユニット
群を中間層と呼ぶ。
On the other hand, as shown in FIG. 3, there is a recurrent network which does not impose such a restriction on the network structure and allows arbitrary coupling between units. Strictly speaking, there is no concept of layer in the recurrent network, but here, in order to make correspondence with the multilayer network, the concept of layer is taken in for convenience. In the following, a unit group to which input data is input is called an input layer, a unit group that outputs a network output is called an output layer, and other unit groups are called an intermediate layer.

【0005】リカレント型ネットワークでは、各ユニッ
トの過去の出力がネットワーク内の他のユニット、或い
は自分自身に戻される結合がある。そのため、時間に依
存して各ニューロンの状態が変化するダイナミックスを
ネットワークの内部に持つ。このように、ネットワーク
内に時間を持ったシステムであるので、リカレント型ネ
ットワーク時系列パターンの認識や予測に適していると
考えられている。多層型ネットワークとリカレント型ネ
ットワークについて、ネットワークの形状を比較する
と、前者は後者の特別な場合と見ることができる。
In recurrent networks, there is a coupling in which the past output of each unit is returned to another unit in the network or to itself. Therefore, the network has dynamics in which the state of each neuron changes depending on time. As described above, since the system has time in the network, it is considered to be suitable for recognizing and predicting a recurrent network time series pattern. Comparing the network shapes of the multilayer network and the recurrent network, the former can be seen as a special case of the latter.

【0006】リカレント型ニューラルネットワークの各
ニューロンの従う状態方程式は次の数1,数2で与えら
れる。
A state equation followed by each neuron of the recurrent neural network is given by the following equations 1 and 2.

【0007】[0007]

【数1】 [Equation 1]

【0008】[0008]

【数2】 [Equation 2]

【0009】ここで、xi(t)は時刻tにおけるユニッ
トiの内部状態であり、出力値yiは内部状態を非線形
変換して決められる。また、τi,Xiはそれぞれユニッ
トiの時定数,外部入力であり、wijはユニットjから
ユニットiへの結合の重みである。Nは総ユニット数で
ある。
Here, x i (t) is the internal state of the unit i at time t, and the output value y i is determined by nonlinearly converting the internal state. Further, τ i and X i are the time constant and the external input of the unit i, respectively, and w ij is the weight of the connection from the unit j to the unit i. N is the total number of units.

【0010】時刻t0から時刻tnまでの各時刻における
ネットワークの状態を求める場合は次の手順により求め
ることができる。まず、初期状態として時刻t0 におけ
るネットワークの内部状態と出力値を適当に設定する。
その後、数1,数2を時間の順方向にt0からtnまで解
く。
The state of the network at each time from time t 0 to time t n can be obtained by the following procedure. First, as an initial state, the internal state of the network and the output value at time t 0 are set appropriately.
Then, the equations 1 and 2 are solved in the forward direction of time from t 0 to t n .

【0011】時系列パターンの認識や予測に、リカレン
ト型ニューラルネットワークを用いる場合、ネットワー
クが正しい出力を出すように、時系列データである入力
データと、同じく時系列データである教師データが対に
なった学習データを用意し、それらを用いてネットワー
クの重み値,時定数,初期状態を予め学習しておく必要
がある。これには通常、バックプロパゲーション法と呼
ばれる最適化手法を用いて行われる。この手法に関して
は、例えば、アラーニング アルゴリズム トウ ティ
ーチ スパティオテンポラル パターンズ トゥ リカ
レント ニューラル ネットワークス,バイオロジカル
サイバネティックス(A Learning Algorithm to Te
ach Spatiotemporal Patterns to Recurrent Neural Ne
tworks,Biological Cybernetics 62(1990年))の第2
59頁から第263頁で論じられている。
When a recurrent neural network is used for recognizing or predicting a time series pattern, input data, which is time series data, and teacher data, which is also time series data, are paired so that the network outputs a correct output. It is necessary to prepare learning data and use them to learn the weight value, time constant, and initial state of the network in advance. This is usually done using an optimization technique called the backpropagation method. As for this method, for example, learning algorithm to teaches patio temporal patterns to recurrent neural networks, biological cybernetics (A Learning Algorithm to Te
ach Spatiotemporal Patterns to Recurrent Neural Ne
2nd of tworks, Biological Cybernetics 62 (1990)
Discussed at pages 59-263.

【0012】この手法の特徴は、数3で与えられるよう
なt0からtnにわたる有限時間区間における誤差を小さ
くするように、最急降下法に基づき重みを修正すること
である。
The feature of this method is to correct the weight based on the steepest descent method so as to reduce the error in the finite time interval from t 0 to t n as given by the equation (3).

【0013】[0013]

【数3】 (Equation 3)

【0014】ここで、Yk(t) は時刻tにおけるユニッ
トkに提示される教師データである。但し、kは出力層
に属するユニット群、Nv は出力層に属するユニット数
を示す。
Here, Y k (t) is teacher data presented to the unit k at time t. Here, k represents a unit group belonging to the output layer, and N v represents the number of units belonging to the output layer.

【0015】重み値,時定数,初期状態の修正量を計算
する際に用いられる最急降下方向は次の数4,数5,数
6で与えられる。
The steepest descent direction used in calculating the weight value, the time constant, and the correction amount in the initial state is given by the following equations 4, 5, and 6.

【0016】[0016]

【数4】 [Equation 4]

【0017】[0017]

【数5】 (Equation 5)

【0018】[0018]

【数6】 (Equation 6)

【0019】ここでPi(t) はそれぞれユニットiの逆
伝搬誤差である。逆伝搬誤差は数7に従って計算され
る。
Here, P i (t) is the back propagation error of unit i, respectively. The back-propagation error is calculated according to Equation 7.

【0020】[0020]

【数7】 (Equation 7)

【0021】ここで、δikはクロネッカーのデルタ記号
である。数7では、出力層に属するニューロンの逆伝搬
誤差は、他のニューロンからの逆伝搬誤差と重みの総和
以外に、各時刻毎に出力値の誤差が加算される形になっ
ている。また、df(xi)/dxi,(yi(t)−Yi(t))
は、xi(t),yi(t) が決まらないと計算できない。
そこで、xi(t),yi(t)を時間の順方向に計算した
後、時刻tn では逆伝搬誤差は0であると仮定して、数
8で与えられる境界条件を設定し、逆伝搬誤差をtn
0の時間の逆方向に計算する。
Here, δ ik is the Kronecker delta symbol. In Expression 7, the back propagation error of the neuron belonging to the output layer is in a form in which the error of the output value is added at each time in addition to the back propagation error from other neurons and the sum of the weights. Also, df (x i ) / dx i , (y i (t) −Y i (t))
Cannot be calculated unless x i (t) and y i (t) are determined.
Therefore, after calculating x i (t) and y i (t) in the forward direction of time, it is assumed that the back propagation error is 0 at time t n , and the boundary condition given by Equation 8 is set, The back propagation error is t n
Calculate in the opposite direction of the time of t 0 .

【0022】[0022]

【数8】 [Equation 8]

【0023】最急降下方向の計算の手順は以下のように
行う。すなわち、まず時刻t0 における各ユニットの初
期状態を適当に設定した後、数1,数2に従って各時刻
の内部状態と出力値を計算し、その値を保存しておく。
次に、時刻tn における数8で与えられる逆伝搬誤差の
境界条件を設定する。その後、先程計算した内部状態と
出力値を用いて、数7に従って時間に逆行しながら各時
刻の逆伝搬誤差を計算し保存する。最後に、求められた
各時刻の出力値と逆伝搬誤差を用いて数4,数5,数6
で与えられる最急降下方向を計算する。
The procedure for calculating the steepest descent direction is as follows. That is, first, after properly setting the initial state of each unit at time t 0 , the internal state and output value at each time are calculated according to equations 1 and 2, and the values are stored.
Next, the boundary condition of the back propagation error given by the equation 8 at the time t n is set. After that, using the internal state and the output value calculated earlier, the backward propagation error at each time is calculated and stored while moving backward in time according to Equation 7. Finally, using the obtained output value at each time and the back propagation error,
Calculate the steepest descent direction given by.

【0024】バックプロパゲーション学習の処理手順の
詳細を、図4を用いて示す。
Details of the processing procedure of the back propagation learning will be described with reference to FIG.

【0025】まず、図4内の学習データ8について説明
する。これは、例えば、図3のような二つの入力層ニュ
ーロンと、一つの出力層ニューロンを持つネットワーク
に対する学習データである。学習データは図5に示すよ
うに、入力データと教師データからなり、それぞれ(入
力層ニューロン数×時系列サンプル点数),(出力層ニュ
ーロン数×時系列サンプル点数)だけのデータ数を持
つ。
First, the learning data 8 in FIG. 4 will be described. This is, for example, learning data for a network having two input layer neurons and one output layer neuron as shown in FIG. As shown in FIG. 5, the learning data is made up of input data and teacher data, and has data numbers of (the number of input layer neurons × the number of time series sample points) and (the number of output layer neurons × the number of time series sample points), respectively.

【0026】ステップ20では、適当な乱数などを用い
て重み値,時定数,初期状態の初期値を設定する。
In step 20, the weight value, the time constant, and the initial value of the initial state are set by using an appropriate random number or the like.

【0027】ステップ22では、適当にネットワークの
初期状態、すなわち、ネットワークの内部状態と出力値
を設定した後、数1,数2に従い入力データを用いて時
間の順方向に各ユニットの内部状態,出力値を計算して
それを保存する。
In step 22, after properly setting the initial state of the network, that is, the internal state of the network and the output value, the internal state of each unit is calculated in the forward direction of time using the input data according to Equations 1 and 2. Calculate the output value and save it.

【0028】ステップ23では、まず数8の境界条件を
設定する。その後、数7に従い教師データを用いて、時
間の逆方向に各ユニットの逆伝搬誤差Pi(t)を計算
し、それを保存する。
In step 23, the boundary conditions of equation 8 are first set. After that, the back propagation error P i (t) of each unit is calculated in the backward direction of time using the teacher data according to Formula 7, and the calculated back propagation error P i (t) is stored.

【0029】ステップ24では、ステップ22で求めた
内部状態,出力値と、ステップ23で求めた逆伝搬誤差
を用いて、数4,数5,数6に従い最急降下方向を計算
する。
In step 24, the steepest descent direction is calculated according to equations (4), (5) and (6) using the internal state and output value obtained in step 22 and the back propagation error obtained in step 23.

【0030】ステップ25では、ステップ24で求めた
最急降下方向と、前回の重みの修正量により数9,数1
0,数11に従って今回の重みの修正量を計算する。
In step 25, the equation 9 and the equation 1 are obtained according to the steepest descent direction obtained in step 24 and the correction amount of the previous weight.
The correction amount of the current weight is calculated according to 0 and 11.

【0031】[0031]

【数9】 [Equation 9]

【0032】[0032]

【数10】 [Equation 10]

【0033】[0033]

【数11】 [Equation 11]

【0034】ここでηは学習係数、αはモーメント係
数、nは学習回数である。右辺第2項はモーメント項と
呼ばれ、学習を加速するために経験的に加える項であ
る。
Here, η is a learning coefficient, α is a moment coefficient, and n is the number of times of learning. The second term on the right side is called a moment term and is an term added empirically to accelerate learning.

【0035】ステップ26では、次の数12,数13,
数14に従い、各ユニットの重みを修正する。
In step 26, the following equation 12, equation 13,
According to equation 14, the weight of each unit is modified.

【0036】[0036]

【数12】 [Equation 12]

【0037】[0037]

【数13】 [Equation 13]

【0038】[0038]

【数14】 [Equation 14]

【0039】ステップ21では、誤差が一定の値以下に
収束するまでステップ22からステップ26の処理を繰
り返す。
In step 21, the processing from step 22 to step 26 is repeated until the error converges below a certain value.

【0040】このリカレント型ニューラルネットワーク
の、バックプロパゲーション学習の問題点として、学習
を行う時系列データの長さが長くなると、学習がなかな
か収束しなくなるということが挙げられる。この問題点
について詳細に説明する。
A problem of the back propagation learning of the recurrent neural network is that the learning does not easily converge when the length of time series data for learning becomes long. This problem will be described in detail.

【0041】リカレント型ニューラルネットワークは、
ネットワーク内部に時間を持つ非線形動力学系である。
重み値,時定数,初期状態の学習とは、この非線形動力
学系のパラメータを調整することに対応する。非線形動
力学系では、パラメータを変えていくと、ある値で系の
振舞が突然大きく変わる分岐という現象がある。そのた
め、学習係数を大きく取っていると、この分岐現象のた
めに、徐々に減少していた誤差が急に大きくなるという
不安定な現象がしばしば起こる。
The recurrent neural network is
It is a nonlinear dynamical system with time inside the network.
The learning of the weight value, the time constant, and the initial state corresponds to adjusting the parameters of this nonlinear dynamic system. In a non-linear dynamics system, there is a phenomenon called bifurcation in which the behavior of the system suddenly greatly changes at certain values as the parameters are changed. Therefore, when the learning coefficient is set to a large value, an unstable phenomenon in which the gradually decreasing error suddenly increases due to this branching phenomenon often occurs.

【0042】一方、誤差は重み値,時定数,初期状態に
依存しているので、それらパラメータの関数と見ること
ができる。そこで、学習とは誤差を減少させるようにパ
ラメータを調整するので、パラメータ空間の中で誤差関
数の最小点を探索することであると言い替えることがで
きる。一方、学習とは教師データに追従するようにネッ
トワークの描く軌道に拘束を与えようとすることであ
り、パラメータを調整してそれらの拘束を満足させるこ
とである。そのため、学習させる時系列の長さを長くす
ることは、それだけ多くの拘束を満足するようなパラメ
ータを探索することになる。ネットワークの軌道に拘束
が多くなれば、誤差関数の曲面はそれだけ複雑になり、
多くの山や谷、そしてローカルミニマムが存在すること
になるため、なかなか学習が収束しなくなる。
On the other hand, the error depends on the weight value, the time constant, and the initial state, and can be regarded as a function of those parameters. Therefore, learning can be rephrased as searching the minimum point of the error function in the parameter space because the parameter is adjusted so as to reduce the error. On the other hand, learning is to give constraints to the trajectory drawn by the network so as to follow the teacher data, and to adjust the parameters to satisfy those constraints. Therefore, increasing the length of the time series to be learned will search for parameters that satisfy more constraints. The more constrained the trajectory of the network, the more complicated the error function surface becomes,
There will be many peaks and valleys and local minimums, so it will be difficult for learning to converge.

【0043】この問題点を解決するために、初めから長
い時系列データを一度に学習させるのではなく、最初は
学習データの一部である短い時系列データを用いて学習
を行い、学習が収束する度に、少しずつ学習させる時系
列データの長さを長くしながら、学習させる方式が提案
された。これを図6を用いて説明する。
In order to solve this problem, instead of learning long time series data at once from the beginning, learning is first performed using short time series data that is a part of the learning data, and the learning converges. A method was proposed in which each time the learning was performed, the length of the time-series data was made to gradually increase and the learning was performed. This will be described with reference to FIG.

【0044】初めは第1段階の学習区間について重み
値,時定数,初期状態の学習を行う。その区間の学習が
収束すると学習区間を拡大し、第1段階で学習した重み
値や時定数などを出発点として、第2段階の学習区間に
ついて再度学習を行う。以下同様に第3段階,第4段階
と学習区間を拡大しながら学習を進めていく。時間が進
む方向に学習区間を拡大する場合は、それぞれの学習区
間に対して常に時刻tの状態がネットワークの初期状
態になる。そのため、学習区間を拡大しても拡大する前
に学習した初期状態をそのまま使うことができる。
At first, the weight value, the time constant, and the initial state are learned in the learning section of the first stage. When the learning of the section converges, the learning section is expanded, and the learning value of the second step is learned again with the weight value and the time constant learned in the first step as a starting point. Similarly, the learning is advanced while expanding the learning section in the third stage and the fourth stage. When expanding in the time direction in the learning section proceeds always state at the time t a is the initial state of the network for each of the learning period. Therefore, even if the learning section is expanded, the initial state learned before the expansion can be used as it is.

【0045】[0045]

【発明が解決しようとする課題】一方、ローカルミニマ
ムなどの問題点を回避するには、学習区間は図6のよう
に時間が進む方向に拡大するとは限らず、図7に示すよ
うに学習区間を過去の方向に拡大してもよい。しかし、
この場合は初期状態の学習について問題点が生じる。
On the other hand, in order to avoid problems such as the local minimum, the learning section does not always expand in the direction of time progress as shown in FIG. 6, and as shown in FIG. May be expanded in the past. But,
In this case, there is a problem in learning the initial state.

【0046】これを図7を用いて説明する。第1段階の
学習が収束した時点では、時刻tの状態が初期状態と
して学習によって得られる。次に学習区間を拡大して第
2段階の学習区間について学習を行うとする。その場合
は初期状態としてtc の時刻の状態が必要となるが、第
1段階の学習では得られないので、適当な初期状態を設
定して学習し直さなければならない。
This will be described with reference to FIG. When the learning in the first stage has converged, the state at time t d is obtained by learning as the initial state. Next, it is assumed that the learning section is expanded and learning is performed on the second-step learning section. In that case, the state at time t c is required as the initial state, but since it cannot be obtained by the first stage learning, it is necessary to set an appropriate initial state and perform learning again.

【0047】一方、リカレント型ニューラルネットワー
クの状態は数1,数2で示すように非線形微分方程式に
よって決定される。それゆえ、ネットワークの状態が描
く軌道は方程式のパラメータである重み値や時定数だけ
でなく、初期状態にも大きく依存する。そのため、重み
値や時定数が同じであったとしても、初期状態が違えば
描く軌道は大きく異なる場合がある。この結果、第2段
階に学習区間を拡大するときに初期状態を適当に初期設
定すると、学習によって折角教師信号に追従していた第
1段階の学習区間の軌道さえも大きくずれることにな
る。
On the other hand, the state of the recurrent neural network is determined by a non-linear differential equation as shown in equations 1 and 2. Therefore, the trajectory drawn by the state of the network largely depends not only on the weight values and time constants that are the parameters of the equation, but also on the initial state. Therefore, even if the weight value and the time constant are the same, the trajectory drawn may differ greatly if the initial state is different. As a result, if the initial state is appropriately initialized when the learning section is expanded to the second stage, even the trajectory of the learning section of the first stage, which has followed the turning angle teacher signal due to learning, is significantly deviated.

【0048】その場合、第1段階の学習区間についても
軌道が大きくずれた状態から、第2段階の学習区間につ
いて学習を始めることになる。結果として、第1段階か
ら第2段階に学習区間が拡大された時に、tcからtd
区間を追加学習をすると言うよりは初めから第2段階の
学習区間について学習を行う形に近くなる。
In this case, the learning for the second stage learning section is started from the state where the trajectory is largely deviated also for the first stage learning section. As a result, when the learning section is expanded from the first stage to the second stage, it becomes closer to the form of performing learning for the learning section of the second stage from the beginning rather than performing additional learning of the section from t c to t d. .

【0049】これを防ぐために、第2段階に学習区間を
拡大した時点で、td の状態を出発点として時間をさか
のぼる方向に数1,数2を解いて、tc の状態を計算す
る方法が考えられる。しかし、時間を遡る方向に計算す
ることは方程式の形から軌道が不安定になりやすく実用
的ではない。
In order to prevent this, at the time when the learning section is expanded to the second stage, the state of t c is calculated by solving equations 1 and 2 in the direction backward from the state of t d as a starting point. Can be considered. However, calculating backwards in time is not practical because the trajectory becomes unstable due to the form of the equation.

【0050】本発明は、リカレント型ニューラルネット
ワークのバックプロパゲーション学習で、ローカルミニ
マムを回避するために、時間を遡る方向に学習区間を拡
大する場合にも、安定で高速な学習を実現するための方
法を提供することである。
The present invention is a method for back propagation learning of a recurrent neural network, which realizes stable and high-speed learning even when a learning section is expanded in a backward direction in order to avoid a local minimum. Is to provide a method.

【0051】[0051]

【課題を解決するための手段】上記課題は、過去方向に
学習区間を拡大して再度学習を行う場合には、学習区間
を拡大した直後は、誤差の減少する量がしきい値以下に
なるまで、重み値や時定数は更新せず初期状態のみを学
習し、その後初期状態も含めて重み値や時定数を学習す
ることで解決される。
The above problem is that when the learning section is expanded in the past direction and learning is performed again, immediately after the learning section is expanded, the amount of error reduction is equal to or less than the threshold value. Up to this point, the weight value and time constant are not updated, only the initial state is learned, and then the weight value and the time constant including the initial state are learned.

【0052】すなわち、時系列データの初期学習区間と
して、学習データとして予め用意した時系列の全体の長
さよりも短い時系列区間を設定するステップと、その設
定された時系列区間に対する境界条件として、初期状態
を設定するステップと、その設定した区間の時系列デー
タを用いて、ネットワークの状態方程式を時間が進む方
向に解き、目標軌道である教師データに近づくように、
初期状態,重み値,時定数の学習を行うステップと、そ
の時系列区間を用いた学習が終了した時点で、次の学習
を行うために学習に用いる時系列区間の長さを時間が遡
る方向に拡大するステップと、前記拡大された時系列区
間に対して、新しく初期状態を設定するステップと、前
記拡大された時系列区間に対して、新しく設定された初
期状態に基づき、時間が進む方向にネットワークの状態
方程式を解き、拡大された時系列区間の教師データに近
づくように、設定した初期状態のみを誤差の減少する量
がしきい値以下になるまで再度学習を行うステップと、
初期状態のみの学習が終了した後、初期状態,重み値,
時定数を学習するステップと、時系列区間の長さが、予
め用意した学習データの全体の時系列の長さになるま
で、上記のことを繰り返すステップと、を含むことを特
徴とするリカレント型ニューラルネットワーク学習方法
によって解決される。
That is, a step of setting a time series section shorter than the entire length of the time series prepared in advance as learning data as an initial learning section of the time series data, and a boundary condition for the set time series section, Using the step of setting the initial state and the time series data of the set section, solve the state equation of the network in the direction of time, so that it approaches the teacher data that is the target trajectory,
At the step of learning the initial state, the weight value, and the time constant, and at the time when the learning using the time series section is completed, the length of the time series section used for learning for the next learning is traced back in time. A step of expanding, a step of setting a new initial state for the expanded time series section, and a step of setting a new initial state for the expanded time series section based on the newly set initial state Solving the state equation of the network and performing learning again until the amount of error reduction of the set initial state is less than or equal to the threshold value so as to approach the teacher data in the expanded time series interval,
After learning only the initial state, the initial state, weight value,
A recurrent type characterized by including a step of learning a time constant and a step of repeating the above until the length of the time series section becomes the length of the entire time series of the training data prepared in advance. It is solved by a neural network learning method.

【0053】[0053]

【作用】上記方法により、学習区間を時間を遡る方向に
拡大して初期状態を新たに設定する必要があるとして
も、拡大された時系列区間に対して、一定学習回数の間
初期状態のみを学習することで、拡大された学習区間の
新しい初期状態を得ることができる。この初期状態は、
拡大される前の時系列区間で学習した重み値や時定数を
用いて、拡大した後の時系列データに最も近づくように
再度設定されている。それゆえ、初期状態が不適当に設
定されてしまうために、ネットワークが描く軌道が教師
データから大きくはずれてしまうことがなくなる。結果
として、軌道が大きくはずれて、拡大する前の時系列区
間の学習が無駄になることを防ぐことができ、高速な学
習を実現することができる。
According to the above method, even if it is necessary to expand the learning section in the direction going back in time and set a new initial state, only the initial state is maintained for a fixed number of learning times for the expanded time series section. By learning, a new initial state of the expanded learning section can be obtained. This initial state is
The weight values and time constants learned in the time series section before expansion are set again so as to be closest to the time series data after expansion. Therefore, the trajectory drawn by the network does not deviate significantly from the teacher data because the initial state is set inappropriately. As a result, it is possible to prevent the trajectory from being greatly deviated, and the learning of the time series section before expansion is wasted, and it is possible to realize high-speed learning.

【0054】[0054]

【実施例】以下、本発明の第1の実施例を、図1,図
3,図4,図5,図7,図8を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to FIGS. 1, 3, 4, 5, 7, and 8.

【0055】図1は実施例の処理フローチャートであ
り、本発明の特徴は下線をつけて表している。
FIG. 1 is a processing flowchart of the embodiment, and the features of the present invention are underlined.

【0056】図3はリカレント型ニューラルネットワー
クの一例を示す説明図である。厳密に言うとリカレント
型ネットワークには層の概念はないが、ここでは便宜的
に入力データが入力されるユニット群を入力層,ネット
ワークの出力を出すユニット群を出力層、その他のユニ
ット群を中間層と呼ぶ。
FIG. 3 is an explanatory diagram showing an example of the recurrent neural network. Strictly speaking, there is no concept of layers in the recurrent network, but here, for convenience, the unit group to which input data is input is the input layer, the unit group that outputs the network output is the output layer, and the other unit groups are intermediate. Call it a layer.

【0057】図4はリカレントネットワークの重み値,
時定数,初期状態に対するバックプロパゲーション学習
の処理のフローチャートである。
FIG. 4 shows the weight value of the recurrent network,
It is a flow chart of processing of back propagation learning to a time constant and an initial state.

【0058】図5は重み学習を行うための学習データ8
の詳細を示す説明図である。これは、例えば図3のよう
な二つの入力層ニューロンと、一つの出力層ニューロン
を持つネットワークに対する学習データである。学習デ
ータは入力データと教師データからなり、それぞれ(入
力層ニューロン数×時系列データサンプル数),(出力
層ニューロン数×時系列データサンプル数)だけのデー
タ数を持つ。
FIG. 5 shows learning data 8 for performing weight learning.
It is an explanatory view showing the details of. This is learning data for a network having two input layer neurons and one output layer neuron as shown in FIG. 3, for example. The learning data is composed of input data and teacher data, and has a number of data equal to (the number of input layer neurons × the number of time series data samples) and (the number of output layer neurons × the number of time series data samples).

【0059】次に図1,図4,図8を用いて本実施例の
動作を説明する。図1においてステップ4,5が本発明
の特徴となっている。
Next, the operation of this embodiment will be described with reference to FIGS. 1, 4 and 8. In FIG. 1, steps 4 and 5 characterize the present invention.

【0060】ステップ1では、学習を始めるために適当
な乱数を用いてネットワークの重み値や時定数、及び初
期状態の初期値を設定する。
In step 1, an appropriate random number is used to start learning, and a weight value of the network, a time constant, and an initial value of an initial state are set.

【0061】ステップ2では、最初に学習を行う時系列
データの初期学習区間を設定する。
In step 2, the initial learning section of the time series data to be learned first is set.

【0062】ステップ4では、学習区間が時間が遡る方
向に拡大されたか判断を行う。初期学習区間を設定した
場合、或いは時間が進む方向に学習区間が拡大されれば
そのままステップ7に進む。時間が遡る方向に学習区間
が拡大されれば、ステップ5に進む。
At step 4, it is judged whether the learning section has been expanded in the backward direction. When the initial learning section is set, or when the learning section is expanded in the direction in which time advances, the process directly proceeds to step 7. If the learning section is expanded in the direction going back in time, the process proceeds to step 5.

【0063】ステップ5では、既に学習された重み値と
時定数、及び拡大された時系列データを用いて初期状態
の学習を行う。ステップ5の詳細を図8を用いて説明す
る。
In step 5, the initial state is learned using the already learned weight value and time constant, and the expanded time series data. Details of step 5 will be described with reference to FIG.

【0064】ステップ31では、ネットワークの初期状
態を設定した後、学習区間を拡大された入力データを用
いて、数1,数2に従い時間が進む方向に各ユニットの
出力値を計算してそれを保存する。
In step 31, after the initial state of the network is set, the output value of each unit is calculated in the direction of time progress according to equations 1 and 2 by using the input data whose learning section has been expanded, and the calculated value is calculated. save.

【0065】ステップ32では、まず数8の境界条件を
設定する。その後、数7に従い教師データを用いて、時
間の逆方向に各ユニットの逆伝搬誤差Pi(t)を計算
し、それを保存する。
In step 32, the boundary conditions of equation 8 are first set. After that, the back propagation error P i (t) of each unit is calculated in the backward direction of time using the teacher data according to Formula 7, and the calculated back propagation error P i (t) is stored.

【0066】ステップ33では、ステップ30で求めた
出力値と、ステップ31で求めた逆伝搬誤差を用いて、
数6に従い初期状態に対する最急降下方向を計算する。
In step 33, using the output value obtained in step 30 and the back propagation error obtained in step 31,
The steepest descent direction with respect to the initial state is calculated according to Equation 6.

【0067】ステップ34では、ステップ32で求めた
最急降下方向と、前回の修正量により、数11に従って
今回の初期状態の修正量を計算する。数11においてη
は学習係数、αはモーメント係数、nは学習回数であ
る。右辺第2項はモーメント項と呼ばれ、学習を加速す
るために経験的に加える項である。
In step 34, the correction amount in the initial state this time is calculated according to the equation 11 by the steepest descent direction obtained in step 32 and the correction amount in the previous time. In Equation 11, η
Is a learning coefficient, α is a moment coefficient, and n is the number of times of learning. The second term on the right side is called a moment term and is an term added empirically to accelerate learning.

【0068】ステップ35では、数14に従い初期状態
を修正する。
In step 35, the initial state is corrected according to the equation (14).

【0069】ステップ30では、誤差の減少する量が一
定のしきい値以下になるまで、ステップ31からステッ
プ35を繰り返す。
In step 30, steps 31 to 35 are repeated until the amount of error reduction becomes equal to or less than a certain threshold value.

【0070】以上のステップ30からステップ35の処
理により、学習区間拡大直後の初期状態の学習が行わ
れ、新しい初期状態が設定される。
Through the processing of steps 30 to 35 described above, the initial state immediately after the learning section is expanded is learned, and a new initial state is set.

【0071】ステップ7では、拡大された学習区間につ
いてステップ5で学習した初期状態を出発点としてネッ
トワークの重み値,時定数,初期状態を学習する。ステ
ップ7の詳細を図4のステップ22からステップ26を
用いて説明する。
In step 7, the weight value, time constant, and initial state of the network are learned with the initial state learned in step 5 as the starting point for the expanded learning section. Details of step 7 will be described using steps 22 to 26 in FIG.

【0072】ステップ22では、ネットワークの初期状
態を設定した後、入力データを用いて数1,数2に従っ
て時間が進む方向に各ユニットの内部状態,出力値を計
算してそれを保存する。
In step 22, after the initial state of the network is set, the internal state and output value of each unit are calculated in accordance with the equations 1 and 2 using the input data, and the output values are stored.

【0073】ステップ23では、まず数8の境界条件を
設定する。その後、数7に従い教師データを用いて、時
間の逆方向に各ユニットの逆伝搬誤差Pi(t)を計算
し、それを保存する。
In step 23, first, the boundary conditions of equation 8 are set. After that, the back propagation error P i (t) of each unit is calculated in the backward direction of time using the teacher data according to Equation 7, and the calculated back propagation error P i (t) is stored.

【0074】ステップ24では、ステップ22で求めた
出力値と、ステップ23で求めた逆伝搬誤差を用いて、
数4,数5,数6に従い、それぞれ重み値,時定数,初
期状態に対する最急降下方向を計算する。
In step 24, using the output value obtained in step 22 and the back propagation error obtained in step 23,
The weight value, the time constant, and the steepest descent direction for the initial state are calculated according to the equations 4, 5, and 6, respectively.

【0075】ステップ25では、ステップ24で求めた
最急降下方向と前回の修正量により、数9,数10,数
11に従ってそれぞれ今回の重み値,時定数,初期状態
の修正量を計算する。
In step 25, the current weight value, time constant, and initial state correction amount are calculated in accordance with equations 9, 10, and 11 based on the steepest descent direction obtained in step 24 and the previous correction amount.

【0076】ステップ26では、数12,数13,数1
4に従い、それぞれ重み値,時定数,初期状態を修正す
る。
In step 26, the number 12, the number 13, the number 1
4, the weight value, the time constant, and the initial state are corrected.

【0077】以上のステップ22からステップ26の処
理により、重み値,時定数,初期状態の修正が行われ
る。
The weight value, the time constant, and the initial state are corrected by the processing of steps 22 to 26 described above.

【0078】ステップ6では、各時刻において全ての出
力層に属するユニットの誤差が、予め設定された値以下
に収束するまで、或は各時刻における出力層ユニットの
平均二乗誤差が予め設定された値以下に収束するまで、
ステップ7の処理を繰り返す。
In step 6, the error of the units belonging to all the output layers at each time converges to be equal to or less than a preset value, or the mean square error of the output layer units at each time is set to a preset value. Until it converges to
The process of step 7 is repeated.

【0079】ステップ3では、学習区間を一定の長さだ
け拡大し、予め用意した学習させる時系列データの長さ
になるまで、ステップ4からステップ7を繰り返す。
In step 3, the learning section is expanded by a certain length, and steps 4 to 7 are repeated until the length of the time-series data prepared in advance is reached.

【0080】この様な手法により、短い学習区間から学
習を始め、徐々に学習区間を時間が遡る方向に広げてい
くので、初めから長い学習区間を学習させるより安定で
高速な学習が可能になる。
With such a method, learning is started from a short learning section, and the learning section is gradually widened in a direction going back in time. Therefore, stable and high-speed learning is possible as compared with learning a long learning section from the beginning. .

【0081】なお、リカレント型ニューラルネットワー
クの学習の手法は、時間に逆行する処理を必要とする逆
伝搬誤差を用いた本実施例のものに限るものではなく、
例えば、フォワード計算をしながら、同時に最急降下法
に基づき重みを修正していく実時間で学習できる手法,
変分原理を用いた手法、及び共役勾配法,準ニュートン
法等の非線形最適化手法を採用してもよい。最初の二つ
の手法に関しては、例えば、リカレントニューラルネッ
トワークの各学習則に関する検討および学習曲面の形
状、電子情報通信学会論文誌D−II Vol.j74−D−I
I No.12(1991年12月)第1776頁から第1787頁において論
じられている。
The learning method of the recurrent neural network is not limited to that of the present embodiment using the back propagation error which requires a process that goes backward in time.
For example, while performing forward calculation, at the same time a method that can learn in real time by modifying the weight based on the steepest descent method,
A method using the variational principle and a non-linear optimization method such as a conjugate gradient method or a quasi-Newton method may be adopted. Regarding the first two methods, for example, a study on each learning rule of the recurrent neural network, the shape of the learning surface, the Institute of Electronics, Information and Communication Engineers D-II Vol.j74-DI
I No. 12 (December 1991) pp. 1776 to 1787.

【0082】また、学習区間の拡大の仕方も本実施例の
ものに限るものではなく、例えば、拡大する回数と共に
指数的に長くしてもよい。更に、次の学習区間に移るた
めの学習収束の条件は、本実施例のものに限るものでな
く、現在の学習区間から次に拡大される区間の増加分の
区間の学習誤差が最小になる時点、或いは平均二乗誤差
が一定のしきい値以下になった場合としてもよい。
The method of expanding the learning section is not limited to that in this embodiment, and may be exponentially lengthened with the number of times of expansion, for example. Further, the learning convergence condition for moving to the next learning section is not limited to that of the present embodiment, and the learning error of the increment of the section to be expanded next from the current learning section is minimized. Alternatively, the time point or the mean square error may be equal to or less than a certain threshold value.

【0083】加えてリカレント型ネットワークのモデル
は、本実施例のものに限るものでなく、シナプスの特性
が重み値だけでなく、遅延特性をも持つモデルとしても
良い。
In addition, the model of the recurrent network is not limited to that of this embodiment, and the synapse characteristic may have not only the weight value but also the delay characteristic.

【0084】次に図1と図9を用いて第2の実施例の動
作を説明する。
Next, the operation of the second embodiment will be described with reference to FIGS. 1 and 9.

【0085】図9は第2の実施例の装置の機能構成全体
を示したものであり、特に本発明の特徴を示す機能ブロ
ックは下線をつけて示している。
FIG. 9 shows the entire functional structure of the apparatus of the second embodiment. In particular, the functional blocks showing the features of the present invention are underlined.

【0086】ステップ1では、ネットワークパラメータ
初期化部43が学習を始めるために適当な乱数を用い
て、ネットワークの重み値,時定数,初期状態の初期値
を設定し、ネットワークパラメータ記憶部42に記憶す
る。
In step 1, the network parameter initialization unit 43 sets the weight value of the network, the time constant, and the initial value of the initial state by using an appropriate random number to start learning, and stores them in the network parameter storage unit 42. To do.

【0087】ステップ2では、学習区間制御部41がネ
ットワーク状態計算部44,逆伝搬誤差計算部45,最
急降下方向計算部47に制御信号を出し、最初に学習を
行う時系列データの学習区間を設定する。
In step 2, the learning section control unit 41 outputs a control signal to the network state calculation unit 44, the back propagation error calculation unit 45, and the steepest descent direction calculation unit 47 to set the learning section of the time-series data for the first learning. Set.

【0088】ステップ4では、学習区間制御部41が学
習区間が時間が遡る方向に拡大されたか判断を行う。初
期学習区間を設定した場合、或いは時間が進む方向に学
習区間が拡大された場合はそのままステップ7に進む。
時間が遡る方向に学習区間が拡大されれば、ステップ5
に進む。
In step 4, the learning section control unit 41 determines whether or not the learning section has been expanded in the direction going back in time. When the initial learning section is set, or when the learning section is expanded in the direction in which time advances, the process directly proceeds to step 7.
If the learning section is expanded in the backward direction, step 5
Proceed to.

【0089】ステップ5では、既に学習された重み値と
時定数、及び拡大された時系列データを用いて初期状態
の学習を行う。そのために、学習区間制御部41が学習
制御部54に制御信号を出す。そして、制御信号を受け
た学習制御部54は最急降下方向計算部47,ネットワ
ークパラメータ修正量計算部48,ネットワークパラメ
ータ修正部49に制御信号を出し、初期状態の学習を行
う。ステップ5の詳細を図8を用いて説明する。
In step 5, the initial state is learned using the weight values and time constants already learned and the expanded time series data. Therefore, the learning section control unit 41 outputs a control signal to the learning control unit 54. Upon receipt of the control signal, the learning control unit 54 outputs a control signal to the steepest descent direction calculation unit 47, the network parameter correction amount calculation unit 48, and the network parameter correction unit 49 to learn the initial state. Details of step 5 will be described with reference to FIG.

【0090】ステップ31では、ネットワーク状態計算
部44がネットワークの初期状態を設定した後、学習デ
ータ記憶部40から現在の学習区間に対応する入力デー
タを読み出し、数1,数2に従って時間の順方向に各ユ
ニットの内部状態と出力値を計算し、それをネットワー
ク状態記憶部50に記憶する。
In step 31, after the network state calculation unit 44 sets the initial state of the network, the input data corresponding to the current learning section is read from the learning data storage unit 40, and the forward direction of time is calculated according to the equations 1 and 2. Then, the internal state and output value of each unit are calculated and stored in the network state storage unit 50.

【0091】ステップ32では、逆伝搬誤差計算部45
がまず数8の境界条件を設定する。その後、学習データ
記憶部40から現在の学習区間に対応する教師データを
読み出し、数7に従って時間の逆方向に各ユニットの逆
伝搬誤差Pi(t)を計算し、それを逆伝搬誤差記憶部5
1に記憶する。そして、出力層に属するユニットの各時
刻の出力値の誤差を、収束判定部46に送る。
In step 32, the back propagation error calculation section 45
First sets the boundary condition of Eq. After that, the teacher data corresponding to the current learning section is read from the learning data storage unit 40, the back propagation error P i (t) of each unit is calculated in the backward direction of time according to Equation 7, and the back propagation error P i (t) is calculated. 5
Store in 1. Then, the error of the output value at each time of the units belonging to the output layer is sent to the convergence determination unit 46.

【0092】ステップ33では、まず最急降下法方向計
算部47が、ネットワークパラメータ記憶部50から時
定数を読み出し、逆伝搬誤差記憶部51から初期時刻に
おける逆伝搬誤差を読み出す。次に最急降下法方向計算
部47は、それらのデータを用いて数6に従い最急降下
方向を計算し、それを最急降下方向記憶部52に記憶す
る。
In step 33, the steepest descent method direction calculation unit 47 first reads the time constant from the network parameter storage unit 50, and reads the back propagation error at the initial time from the back propagation error storage unit 51. Next, the steepest descent method direction calculation unit 47 calculates the steepest descent direction according to Equation 6 using these data, and stores it in the steepest descent direction storage unit 52.

【0093】ステップ34では、まず修正量計算部48
が、最急降下方向記憶部52から最急降下方向データを
読み出し、修正量記憶部53から前回の初期状態の修正
量を読み出す。次に修正量計算部48は、それらのデー
タを用いて数11に従い、今回の初期状態の修正量を計
算し、修正量記憶部53に記憶する。
In step 34, first, the correction amount calculation unit 48
However, the steepest descent direction data is read from the steepest descent direction storage unit 52, and the correction amount in the previous initial state is read from the correction amount storage unit 53. Next, the correction amount calculation unit 48 calculates the correction amount in the current initial state using these data according to the equation 11, and stores it in the correction amount storage unit 53.

【0094】ステップ35では、まず、ネットワークパ
ラメータ修正部49が、ネットワークパラメータ記憶部
42から初期状態データを読み出し、ネットワークパラ
メータ修正量記憶部53から初期状態の修正量を読み出
す。次に、修正部49は、数14に従い各ユニットの初
期状態を修正し、新しい初期状態データをネットワーク
パラメータ記憶部42に記憶する。
In step 35, the network parameter correction unit 49 first reads the initial state data from the network parameter storage unit 42 and the initial state correction amount from the network parameter correction amount storage unit 53. Next, the correction unit 49 corrects the initial state of each unit according to Equation 14, and stores new initial state data in the network parameter storage unit 42.

【0095】ステップ30では、収束判定部46がステ
ップ32で逆伝搬誤差計算部45から送られてきた各時
刻の誤差を判定し、一定の値以下に収束するまで、ステ
ップ31からステップ35の処理を繰り返す。
In step 30, the convergence determination section 46 determines the error at each time sent from the back propagation error calculation section 45 in step 32, and the processing from step 31 to step 35 is performed until it converges to a certain value or less. repeat.

【0096】以上のステップ30からステップ35の処
理により、学習区間拡大直後の初期状態の学習が行わ
れ、新しい初期状態が設定される。
By the above processing from step 30 to step 35, learning of the initial state immediately after the expansion of the learning section is performed, and a new initial state is set.

【0097】ステップ7では、現在の学習区間について
ネットワークの初期状態,重み値,時定数を学習する。
ステップ7の詳細を図4のステップ22からステップ2
6を用いて説明する。
In step 7, the initial state of the network, the weight value, and the time constant are learned for the current learning section.
For details of step 7, see step 22 to step 2 in FIG.
This will be described using 6.

【0098】ステップ22では、ネットワーク状態計算
部44がネットワークの初期状態を設定した後、学習デ
ータ記憶部40から現在の学習区間に対応する入力デー
タを読み出し、数1,数2に従って時間の順方向に各ユ
ニットの内部状態と出力値を計算し、それをネットワー
ク状態記憶部50に記憶する。
In step 22, after the network state calculation unit 44 sets the initial state of the network, the input data corresponding to the current learning section is read from the learning data storage unit 40, and the forward direction of time is calculated according to the equations 1 and 2. Then, the internal state and output value of each unit are calculated and stored in the network state storage unit 50.

【0099】ステップ23では、逆伝搬誤差計算部45
がまず数8の境界条件を設定する。その後、学習データ
記憶部40から現在の学習区間に対応する教師データを
読み出し、数7に従って時間の逆方向に各ユニットの逆
伝搬誤差Pi(t)を計算し、それを逆伝搬誤差記憶部5
1に記憶する。そして、出力層に属するユニットの各時
刻の出力値の誤差を収束判定部46に送る。
In step 23, the back propagation error calculation section 45
First sets the boundary condition of Eq. After that, the teacher data corresponding to the current learning section is read from the learning data storage unit 40, the back propagation error P i (t) of each unit is calculated in the backward direction of time according to Equation 7, and the back propagation error P i (t) is calculated. 5
Store in 1. Then, the error of the output value at each time of the units belonging to the output layer is sent to the convergence determination unit 46.

【0100】ステップ24では、まず最急降下法方向計
算部47が、ネットワーク状態記憶部50から内部状態
と出力値を読み出し、逆伝搬誤差記憶部51から逆伝搬
誤差を読み出す。次に最急降下法方向計算部47は、そ
れらのデータを用いて数4,数5,数6に従いそれぞれ
重み値,時定数,初期状態の最急降下方向を計算し、そ
れを最急降下方向記憶部52に記憶する。
In step 24, the steepest descent method direction calculation unit 47 first reads the internal state and the output value from the network state storage unit 50, and reads the back propagation error from the back propagation error storage unit 51. Next, the steepest descent method direction calculation unit 47 calculates the weight value, the time constant, and the steepest descent direction in the initial state, respectively, using these data in accordance with Formula 4, Formula 5, and Formula 6, and stores them in the steepest descent direction storage unit. Store in 52.

【0101】ステップ25では、まずネットワークパラ
メータ修正量計算部48が、最急降下方向記憶部52か
ら最急降下方向データを読み出し、ネットワークパラメ
ータ修正量記憶部53から前回の修正量を読み出す。次
にネットワークパラメータ修正量計算部48は、それら
のデータを用いて数9,数10,数11に従い、それぞ
れ今回の重み値,時定数,初期状態の修正量を計算し、
ネットワークパラメータ修正量記憶部53に記憶する。
In step 25, first, the network parameter correction amount calculation unit 48 reads the steepest descent direction data from the steepest descent direction storage unit 52 and the previous correction amount from the network parameter correction amount storage unit 53. Next, the network parameter correction amount calculation unit 48 calculates the weight value, the time constant, and the correction amount in the initial state of this time, respectively, in accordance with Formulas 9, 10, and 11 using these data,
It is stored in the network parameter correction amount storage unit 53.

【0102】ステップ26では、まずネットワークパラ
メータ修正部49が、ネットワークパラメータ記憶部4
2からそれぞれ重み値,時定数,初期状態データを読み
出し、修正量記憶部53からそれぞれ重み値,時定数,
初期状態の修正量を読み出す。次に、ネットワークパラ
メータ修正部49は数12,数13,数14に従い各ユ
ニットの重みを修正し、新しい値をネットワークパラメ
ータ記憶部42に記憶する。
In step 26, first, the network parameter correction unit 49 causes the network parameter storage unit 4
The weight value, the time constant, and the initial state data are read from 2 respectively, and the weight value, the time constant, and the constant are read from the correction amount storage unit 53, respectively.
Read the correction amount in the initial state. Next, the network parameter correction unit 49 corrects the weight of each unit according to Formula 12, Formula 13, and Formula 14, and stores a new value in the network parameter storage unit 42.

【0103】ステップ6では、収束判定部46がステッ
プ23で逆伝搬誤差計算部45から送られてきた各時刻
の誤差を判定し、一定の値以下に収束するまで、ステッ
プ22からステップ26の処理を繰り返す。
In step 6, the convergence determination section 46 determines the error at each time sent from the back propagation error calculation section 45 in step 23, and the processing from step 22 to step 26 is performed until it converges to a certain value or less. repeat.

【0104】ステップ3では、学習区間制御部41がネ
ットワーク状態計算部44,逆伝搬誤差計算部45,最
急降下方向計算部47に制御信号を出し、学習区間を一
定の長さだけ拡大する。そして、予め用意した学習させ
る時系列データの長さになるまで、ステップ4からステ
ップ7を繰り返す。
In step 3, the learning section control unit 41 outputs a control signal to the network state calculation unit 44, the back propagation error calculation unit 45, and the steepest descent direction calculation unit 47 to expand the learning section by a certain length. Then, steps 4 to 7 are repeated until the length of the time-series data to be learned prepared is reached.

【0105】[0105]

【発明の効果】本発明によれば、学習区間を時間を遡る
方向に拡大して初期状態を新たに設定する必要があると
しても、拡大された時系列区間に対して、誤差の減少量
が一定のしきい値以下になるまで初期状態のみを学習す
ることで、重み値や時定数を再学習するために使用する
新しい初期状態を得ることができる。この初期状態は、
拡大される前の時系列区間で学習した重み値や時定数を
用いて、拡大した後の時系列データに最も近づくように
再度最適な値が設定されている。それゆえ、初期状態が
不適当に設定されてしまうために、ネットワークが描く
軌道が教師データから大きくはずれてしまうことがなく
なる。結果として、軌道が大きくはずれて、拡大する前
の時系列区間の学習が無駄になることを防ぐことがで
き、高速な学習を実現することができる。
According to the present invention, even if it is necessary to expand the learning section in the direction going back in time and newly set the initial state, the reduction amount of the error is reduced with respect to the expanded time series section. By learning only the initial state until it becomes a certain threshold value or less, a new initial state used for re-learning the weight value and the time constant can be obtained. This initial state is
The optimum value is set again so as to be closest to the time series data after expansion using the weight value and the time constant learned in the time series section before expansion. Therefore, the trajectory drawn by the network does not deviate significantly from the teacher data because the initial state is set inappropriately. As a result, it is possible to prevent the trajectory from being greatly deviated, and the learning of the time series section before expansion is wasted, and it is possible to realize high-speed learning.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例の処理のフローチャー
ト。
FIG. 1 is a flowchart of a process according to a first embodiment of this invention.

【図2】多層型ニューラルネットワークの例を示す説明
図。
FIG. 2 is an explanatory diagram showing an example of a multilayer neural network.

【図3】リカレント型ニューラルネットワークの例を示
す説明図。
FIG. 3 is an explanatory diagram showing an example of a recurrent neural network.

【図4】リカレントニューラルネットワークの重み値,
時定数,初期状態に対するバックプロパゲーション学習
の処理フローチャート。
FIG. 4 is a weight value of a recurrent neural network,
The processing flowchart of back propagation learning with respect to a time constant and an initial state.

【図5】学習データの詳細を示す説明図。FIG. 5 is an explanatory diagram showing details of learning data.

【図6】時間が進む方向への学習区間拡大の例を示す説
明図。
FIG. 6 is an explanatory diagram showing an example of expansion of a learning section in a direction in which time advances.

【図7】時間が遡る方向への学習区間拡大の例を示す説
明図。
FIG. 7 is an explanatory diagram showing an example of expansion of a learning section in a direction going back in time.

【図8】初期状態の学習の処理のフローチャート。FIG. 8 is a flowchart of learning processing in an initial state.

【図9】本発明の第2の実施例の装置のブロック図。FIG. 9 is a block diagram of an apparatus according to a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…重み値,時定数,初期状態の初期設定、2…学習区
間の初期設定、3…学習区間の拡大、5…ネットワーク
の初期状態の学習、7…重み値,時定数,初期状態の修
正、8…学習データ。
1 ... weight value, time constant, initial setting of initial state, 2 ... initial setting of learning section, 3 ... expansion of learning section, 5 ... learning of initial state of network, 7 ... correction of weight value, time constant, initial state , 8 ... Learning data.

フロントページの続き (72)発明者 北川 由美子 宮城県仙台市青葉区一番町二丁目4番1号 日立東北ソフトウエア株式会社内Front page continuation (72) Inventor Yumiko Kitagawa 2-4-1, Ichibancho, Aoba-ku, Sendai City, Miyagi Prefecture Hitachi Tohoku Software Co., Ltd.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】結合されている他の基本ユニットからの出
力を重み付けして総和し、総和した結果に非線形変換を
施して出力する機能を具備した基本ユニットを有し、任
意の基本ユニット相互間の結合を許すリカレント型ニュ
ーラルネットワークに対し、 ネットワークに入力する入力データとしての時系列デー
タと、ネットワーク出力の目標値である教師データとし
ての時系列データからなる学習データを用いる教師付き
学習方法において、 前記時系列データの初期学習区間として、学習データと
して予め用意した時系列の全体の長さよりも短い時系列
区間を設定するステップと、 その設定した区間の時系列データを用いて、目標軌道で
ある前記教師データに近づくように、境界状態を含むネ
ットワークのパラメータの学習を行うステップと、 その時系列区間を用いた学習が終了した時点で、次の学
習を行うために学習に用いる時系列区間の長さを拡大す
るステップと、 前記拡大された時系列区間に対して、新しく境界状態を
設定するステップと、 前記拡大された時系列区間を用いて、予め設定された条
件を満たすまでネットワークの境界状態のみを再度学習
を行うステップと、 境界状態のみの学習が終了した後、境界状態も含めてネ
ットワークが持つパラメータを学習するステップと、 前記時系列区間の長さが、予め用意した学習データの全
体の時系列の長さになるまで、上記を繰り返すステップ
と、を含むことを特徴とするリカレント型ニューラルネ
ットワーク学習方法。
1. A basic unit having a function of weighting and summing outputs from other combined basic units, and performing a non-linear conversion on the summed result and outputting the result, between arbitrary basic units. In the supervised learning method using the learning data composed of the time-series data as the input data to be input to the network and the time-series data as the teacher data, which is the target value of the network output, for the recurrent neural network that allows the connection of As the initial learning section of the time series data, a step of setting a time series section shorter than the entire length of the time series prepared in advance as learning data, and using the time series data of the set section, a target trajectory is obtained. Learning network parameters including boundary states so as to approach the teacher data; When the learning using the time-series interval is completed, a step of expanding the length of the time-series interval used for learning to perform the next learning, and a new boundary state is added to the expanded time-series interval. Setting again, using the expanded time-series interval, re-learning only the boundary states of the network until a preset condition is satisfied, and after learning only the boundary states, the boundary states are also Including the step of learning the parameters that the network has, and the step of repeating the above until the length of the time series section becomes the length of the entire time series of the training data prepared in advance. Recurrent neural network learning method.
【請求項2】結合されている他の基本ユニットからの出
力を重み付けして総和し、総和した結果に非線形変換を
施して出力する機能を具備した基本ユニットを有し、任
意の基本ユニット相互間の結合を許すリカレント型ニュ
ーラルネットワークに対し、 ネットワークに入力する入力データとしての時系列デー
タと、ネットワーク出力の目標値である教師データとし
ての時系列データからなる学習データを用いる教師付き
学習方法において、 前記時系列データの初期学習区間として、学習データと
して予め用意した時系列の全体の長さよりも短い時系列
区間を設定するステップと、 その設定した区間の時系列データを用いて、ネットワー
クの状態方程式を時間が進む方向に解き、目標軌道であ
る前記教師データに近づくように、初期状態を含むネッ
トワークのパラメータの学習を行うステップと、 その時系列区間を用いた学習が終了した時点で、次の学
習を行うために学習に用いる時系列区間の長さを時間が
遡る方向に拡大するステップと、 前記拡大された時系列区間に対して、新しく初期状態を
設定するステップと、 前記拡大された時系列区間に対して、新しく設定された
ネットワークの初期状態のみを、誤差が減少する量が一
定のしきい値以下になるまで再度学習を行うステップ
と、 初期状態のみの学習が終了した後、初期状態も含めたネ
ットワークが持つ全てのパラメータを学習するステップ
と、 前記時系列区間の長さが、予め用意した学習データの全
体の時系列の長さになるまで、上記のことを繰り返すス
テップと、を含むことを特徴とするリカレント型ニュー
ラルネットワーク学習方法。
2. A base unit having a function of weighting and summing outputs from other combined base units, and performing a non-linear conversion on the summed result and outputting the result, between arbitrary base units. For a recurrent neural network that allows the connection of the As the initial learning section of the time series data, a step of setting a time series section shorter than the entire length of the time series prepared in advance as learning data, and a state equation of the network using the time series data of the set section Is solved in the direction of time, and the initial state is included so that it approaches the teacher data, which is the target trajectory. A step of learning the parameters of the network, and a step of expanding the length of the time series section used for learning to carry out the next learning in a direction going back in time, when the learning using the time series section is completed, A step of setting a new initial state for the expanded time series section; and a step of setting an error reduction amount only for the initial state of the newly set network for the expanded time series section The step of learning again until it becomes less than or equal to the threshold value, the step of learning all the parameters of the network including the initial state after the learning of only the initial state is finished, and the length of the time series section is A recurrent neural network characterized by including the steps of repeating the above until the length of the entire time series of the training data prepared in advance. Network learning method.
【請求項3】結合されている他の基本ユニットからの出
力を重み付けして総和し、総和した結果に非線形変換を
施して出力する機能を具備した基本ユニットを有し、任
意の基本ユニット相互間の結合を許すリカレント型ニュ
ーラルネットワークに対し、ネットワークに入力する入
力データとしての時系列データと、ネットワーク出力の
目標値である教師データとしての時系列データからなる
学習データを用いる教師付き学習方法において、 前記時系列データの初期学習区間として、学習データと
して予め用意した時系列の全体の長さよりも短い時系列
区間を設定するステップと、 その設定された時系列区間に対する境界条件として、初
期状態を設定するステップと、 その設定した区間の時系列データを用いて、ネットワー
クの状態方程式を時間が進む方向に解き、目標軌道であ
る教師データに近づくように、初期状態,重み値,時定
数の学習を行うステップと、 その時系列区間を用いた学習が終了した時点で、次の学
習を行うために学習に用いる時系列区間の長さを時間が
遡る方向に拡大するステップと、 前記拡大された時系列区間に対して、新しく初期状態を
設定するステップと、 前記拡大された時系列区間に対して、新しく設定された
初期状態に基づき、時間が進む方向にネットワークの状
態方程式を解き、拡大された時系列区間の教師データに
近づくように、設定した初期状態のみを誤差が減少する
量が一定のしきい値以下になるまで再度学習を行うステ
ップと、 初期状態のみの学習が終了した後、初期状態,重み値,
時定数を学習するステップと、 時系列区間の長さが、予め用意した学習データの全体の
時系列の長さになるまで、上記のことを繰り返すステッ
プと、を含むことを特徴とするリカレント型ニューラル
ネットワーク学習方法。
3. A basic unit having a function of weighting and summing outputs from other combined basic units, performing a non-linear conversion on the summed result, and outputting the result. In a supervised learning method that uses learning data composed of time-series data as input data to be input to the network and time-series data as teacher data that is the target value of the network output, for a recurrent neural network that allows the connection of As the initial learning section of the time series data, a step of setting a time series section shorter than the entire length of the time series prepared in advance as learning data, and an initial state is set as a boundary condition for the set time series section. And the time series data of the set section, the state equation of the network is calculated. Steps for learning the initial state, weight values, and time constants to solve the problem in the direction of progress and approach the teacher data, which is the target trajectory, and the next learning at the time when learning using the time series interval ends. Expanding the length of the time series section used for learning in order to go back in time, setting a new initial state for the expanded time series section, and the expanded time series section On the other hand, based on the newly set initial state, the state equation of the network is solved in the direction of time progress, and the error is reduced only in the set initial state so that it approaches the teacher data in the expanded time series section. The step of performing learning again until is below a certain threshold, and after learning only the initial state, the initial state, the weight value,
A recurrent type characterized by including a step of learning a time constant and a step of repeating the above until the length of the time series section becomes the length of the entire time series of the training data prepared in advance. Neural network learning method.
【請求項4】請求項3において、バックプロパゲーショ
ン学習を逆伝搬誤差が時間に遡る処理を伴うバックプロ
パゲーション学習とするリカレント型ニューラルネット
ワーク学習方法。
4. The recurrent neural network learning method according to claim 3, wherein the backpropagation learning is backpropagation learning with a process in which a back propagation error goes back in time.
【請求項5】結合されている他の基本ユニットからの出
力を重み付けして総和し、総和した結果に非線形変換を
施して出力する機能を具備した基本ユニットを有し、任
意の基本ユニット相互間の結合を許すリカレント型ニュ
ーラルネットワークに対し、 ネットワークに入力する入力データとしての時系列デー
タと、ネットワーク出力の目標値である教師データとし
ての時系列データからなる、学習データを用いる教師付
き学習装置において、 時系列データの初期学習区間として、学習データとして
予め用意した時系列の全体の長さよりも短い時系列区間
を設定する手段と、 その設定された時系列区間に対する境界条件として、初
期状態を設定する手段と、 その設定した区間の時系列データを用いて、ネットワー
クの状態方程式を時間が進む方向に解き、目標軌道であ
る教師データに近づくように、初期状態,重み値,時定
数の学習を行う手段と、 その時系列区間を用いた学習が終了した時点で、次の学
習を行うために学習に用いる時系列区間の長さを時間が
遡る方向に拡大する手段と、 前記拡大された時系列区間に対して、新しく初期状態を
設定する手段と、 前記拡大された時系列区間に対して、新しく設定された
初期状態に基づき、時間が進む方向にネットワークの状
態方程式を解き、拡大された時系列区間の教師データに
近づくように、設定した初期状態のみを設定した初期状
態のみを、誤差が減少する量が一定のしきい値以下にな
るまで再度学習を行う手段と、 初期状態のみの学習が終了した後、初期状態,重み値,
時定数を学習する手段と、 時系列区間の長さが、予め用意した学習データの全体の
時系列の長さになるまで、上記のことを繰り返す手段
と、を含むことを特徴とするリカレント型ニューラルネ
ットワーク学習装置。
5. A basic unit having a function of weighting and summing outputs from other combined basic units, and performing a non-linear conversion on the summed result and outputting the result, between arbitrary basic units. In a supervised learning device using learning data, which consists of time-series data as input data to be input to the network and time-series data as teacher data that is the target value of the network output, for a recurrent neural network that allows the connection of , Means for setting a time series section that is shorter than the entire length of the time series prepared in advance as learning data as the initial learning section of the time series data, and an initial state is set as a boundary condition for the set time series section And the time-series data of the set section to advance the state equation of the network A method for learning the initial state, weight values, and time constants so that they are solved in the direction and approach the teacher data, which is the target trajectory, and for the next learning when the learning using the time-series interval ends. Means for expanding the length of the time-series interval used for learning in a backward direction of time, means for setting a new initial state for the expanded time-series interval, and for the expanded time-series interval , Based on the newly set initial state, solve the state equation of the network in the direction of time progress, and set only the initial state set so that it approaches the teacher data of the expanded time series interval. Means for performing learning again until the amount of decrease is less than or equal to a certain threshold, and after the learning of only the initial state is completed, the initial state, the weight value,
A recurrent type characterized by including means for learning a time constant and means for repeating the above until the length of the time series section becomes the length of the entire time series of the training data prepared in advance. Neural network learning device.
JP6139859A 1994-06-22 1994-06-22 Method and device for learning recurrent neural network Pending JPH086916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6139859A JPH086916A (en) 1994-06-22 1994-06-22 Method and device for learning recurrent neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6139859A JPH086916A (en) 1994-06-22 1994-06-22 Method and device for learning recurrent neural network

Publications (1)

Publication Number Publication Date
JPH086916A true JPH086916A (en) 1996-01-12

Family

ID=15255207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6139859A Pending JPH086916A (en) 1994-06-22 1994-06-22 Method and device for learning recurrent neural network

Country Status (1)

Country Link
JP (1) JPH086916A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108885249A (en) * 2016-03-23 2018-11-23 株式会社电装 Carry angle learning device
JP2019095861A (en) * 2017-11-17 2019-06-20 株式会社東芝 Neural network device
CN110163389A (en) * 2019-05-27 2019-08-23 上海电气泰雷兹交通自动化系统有限公司 Apply to the Neural Networks Learning Algorithm in predictive maintenance management
WO2023189445A1 (en) * 2022-03-31 2023-10-05 株式会社ブリヂストン Estimation device, estimation method, program, and learning model generation device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108885249A (en) * 2016-03-23 2018-11-23 株式会社电装 Carry angle learning device
CN108885249B (en) * 2016-03-23 2022-05-17 株式会社电装 Carry on angle learning device
JP2019095861A (en) * 2017-11-17 2019-06-20 株式会社東芝 Neural network device
CN110163389A (en) * 2019-05-27 2019-08-23 上海电气泰雷兹交通自动化系统有限公司 Apply to the Neural Networks Learning Algorithm in predictive maintenance management
WO2023189445A1 (en) * 2022-03-31 2023-10-05 株式会社ブリヂストン Estimation device, estimation method, program, and learning model generation device

Similar Documents

Publication Publication Date Title
EP0384689B1 (en) A learning system and learning method for a data processing apparatus
Jin et al. Stable dynamic backpropagation learning in recurrent neural networks
CN107679617A (en) The deep neural network compression method of successive ignition
CN107729999A (en) Consider the deep neural network compression method of matrix correlation
JPH0738186B2 (en) Self-expanding neural network
WO1990014631A1 (en) Dynamically stable associative learning neural system
CN108791302B (en) Driver behavior modeling system
CN114037047A (en) Training method of impulse neural network
JPH04262453A (en) Neurolearning control method and equipment
US5845051A (en) Learning method for multilayer perceptron neural network with N-bit data representation
KR100850914B1 (en) method for controlling game character
CN109886405A (en) It is a kind of inhibit noise based on artificial neural network structure's optimization method
JPH086916A (en) Method and device for learning recurrent neural network
JPH07282168A (en) Chaos-recurrent neuronetwork and its learning method
JPH06231106A (en) Method and device for learning recurrent type neural network
JP2609760B2 (en) Neural network, neural network recall or learning method, and fuzzy inference apparatus using neural network
CN111582461A (en) Neural network training method and device, terminal equipment and readable storage medium
JPH04501327A (en) pattern transfer neural network
JPH0991264A (en) Method and device for optimizing neural network structure
JPH11175494A (en) Neural network
JPH05314090A (en) Method and device for recognizing pattern by using neural network
JPH10187649A (en) Neural network
JP2979562B2 (en) Learning processing device
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
CN113870945A (en) Method for predicting links among proteins by dynamic protein network model based on attenuation coefficient