JPH10283335A - Prediction method in recurrent network - Google Patents

Prediction method in recurrent network

Info

Publication number
JPH10283335A
JPH10283335A JP9205397A JP9205397A JPH10283335A JP H10283335 A JPH10283335 A JP H10283335A JP 9205397 A JP9205397 A JP 9205397A JP 9205397 A JP9205397 A JP 9205397A JP H10283335 A JPH10283335 A JP H10283335A
Authority
JP
Japan
Prior art keywords
network
prediction
data
error
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9205397A
Other languages
Japanese (ja)
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP9205397A priority Critical patent/JPH10283335A/en
Publication of JPH10283335A publication Critical patent/JPH10283335A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To reduce an error appearing in the head of predicted time-sequential data, and to attain highly precise prediction by preventing the storage and increase of the error. SOLUTION: In this method, feedback connection is attained, and prediction by a recurrent network learning time-sequential data is operated. In this case, the network is initialized at first (S1). Then, prediction is operated by the network as a pre-processing until the continuous points of output data being a target, and the state of the network at the time of ending the prediction is preserved (S2A). Thus, the predication is operated by the network from the state of the preserved network (S2).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、各種の情報処理分
野において使用される、フィードバック構造を持ったリ
カレントネットワークによる予測方法に関する。
The present invention relates to a prediction method using a recurrent network having a feedback structure, which is used in various information processing fields.

【0002】[0002]

【従来の技術】各種情報処理分野において、時系列デー
タを学習したニューラルネットワークにより予測を行う
場合に、リカレントネットワークが用いられている。こ
のリカレントネットワークモデルには、図10に示すよ
うな入力層及び出力層からなるWilliams & Zipserモデ
ル、図11に示す入力層、コンテクスト層、中間層、出
力層からなるElmanモデルがある。
2. Description of the Related Art In various information processing fields, a recurrent network is used when performing prediction using a neural network that has learned time-series data. The recurrent network model includes a Williams & Zipser model composed of an input layer and an output layer as shown in FIG. 10, and an Elman model composed of an input layer, a context layer, a middle layer and an output layer shown in FIG.

【0003】図10のWilliams & Zipserモデルは相互
結合形ニューラルネットワークであり、すべての出力が
入力側にフィードバックされている。入力層は外部入力
及びフィードバック入力からなっており、実時間リカレ
ント学習(RTRL)と呼ばれる学習アルゴリズム等に
より学習を行う。図11のElmanモデルでは、中間層の
一次遅れの状態をコンテクスト層にフィードバックして
いる。中間層は通常、入出力層の状態を反映して学習の
進行と共に過去の情報を含んだものとなっていくため、
コンテクスト層は入出力の履歴を十分に反映したものと
なる。
[0003] The Williams & Zipser model of FIG. 10 is an interconnected neural network, and all outputs are fed back to the input side. The input layer includes an external input and a feedback input, and performs learning using a learning algorithm called real-time recurrent learning (RTRL). In the Elman model in FIG. 11, the state of the first-order lag of the hidden layer is fed back to the context layer. Since the middle layer usually reflects the state of the input / output layer and contains past information as learning progresses,
The context layer reflects the input / output history sufficiently.

【0004】これらのリカレントネットワークモデルは
内部にフィードバック結合を有しており、1周期前の情
報をネットワーク内に持つことで、時系列データの履歴
の把握が可能である。上記リカレントネットワークへの
入力情報は、外部入力としての時系列データと、ネット
ワーク内部からのフィードバック入力(ネットワーク出
力の一部でもある)としての1周期前のデータとに大別
される。
[0004] These recurrent network models have a feedback connection inside, and it is possible to grasp the history of time-series data by having information one cycle before in the network. The input information to the recurrent network is roughly classified into time-series data as an external input and data one cycle before as a feedback input from the inside of the network (also a part of the network output).

【0005】[0005]

【発明が解決しようとする課題】ここで問題になるの
は、リカレントネットワークでは上記の如くフィードバ
ック入力を用いるため、ネットワークを動作させなくて
はフィードバック入力を得ることができないということ
である。このため従来では、時刻t=0における時系列
先頭データは、内部からのフィードバックデータの代わ
りに0または0.5等の値を入力していた。
The problem here is that the feedback input is used in the recurrent network as described above, so that the feedback input cannot be obtained without operating the network. For this reason, conventionally, as the time series head data at time t = 0, a value such as 0 or 0.5 is input instead of the feedback data from the inside.

【0006】また、時刻t=0の後において、出力デー
タには通常、誤差が含まれる。この場合、出力データを
そのままフィードバックして入力すると、誤差のあるデ
ータを用いて予測を行うことになり、次周期の予測値は
更に多くの誤差を含み、予測のたびにこの誤差が蓄積さ
れていくことになる。
After time t = 0, the output data usually includes an error. In this case, if the output data is directly fed back and input, prediction is performed using data having an error, and the prediction value of the next cycle includes more errors, and this error is accumulated for each prediction. Will go.

【0007】本発明は上記の問題点に鑑みてなされたも
ので、特にリカレントネットワークのフィードバック情
報の取り扱いに着目し、時刻t=0においてまだ存在し
ないフィードバックデータを適切に扱い、しかも、時刻
t=0より後のフィードバックデータの蓄積誤差を解消
して高精度な予想が行えるようにしたリカレントネット
ワークによる予測方法を提供しようとするものである。
[0007] The present invention has been made in view of the above problems, and particularly focuses on handling feedback information of a recurrent network, appropriately handles feedback data that does not yet exist at time t = 0, and furthermore, handles time t = It is an object of the present invention to provide a prediction method using a recurrent network that can perform a highly accurate prediction by eliminating an accumulation error of feedback data after 0.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の発明は、フィードバック構造を持
ち、かつ時系列データを学習したリカレントネットワー
クにより予測を行う予測方法において、ネットワークを
初期化する第1ステップと、目的とする出力のデータの
連続点まで、前処理としてネットワークにより予測を行
い、予測終了時のネットワークの状態を保存する第2ス
テップと、第2ステップにより保存されたネットワーク
の状態から当該ネットワークにより予測を行う第3ステ
ップとからなるものである。
In order to solve the above-mentioned problems, the invention according to claim 1 is a prediction method for performing prediction using a recurrent network having a feedback structure and learning time-series data, wherein a network is initialized. A first step of performing a prediction as a pre-process by a network up to a continuous point of target output data, and storing a state of the network at the end of the prediction; And a third step of making a prediction from the state by the network.

【0009】請求項2記載の発明は、フィードバック構
造を持ち、かつ時系列データを学習したリカレントネッ
トワークにより予測を行う予測方法において、ネットワ
ークに外部データとフィードバックデータとを入力する
第1ステップと、ネットワークにより予測を行う第2ス
テップと、ネットワークから出力された予測値の誤差を
検出する第3ステップと、上記誤差に応じてネットワー
クのフィードバック入力データを修正する第4ステップ
とからなるものである。
According to a second aspect of the present invention, there is provided a prediction method for performing prediction using a recurrent network having a feedback structure and learning time-series data, wherein a first step of inputting external data and feedback data to the network, , A third step of detecting an error in a predicted value output from the network, and a fourth step of correcting feedback input data of the network according to the error.

【0010】[0010]

【発明の実施の形態】始めに、請求項1に記載した発明
の実施形態を説明する。図1はリカレントネットワーク
を用いた従来の予測処理手順(図1(a))と本実施形
態の処理手順(図1(b))とを示したものである。本
実施形態は、ネットワークの初期化を行う第1ステップ
(S1)と、前処理としての予測を行う第2ステップ
(S2A)と、実際の予測(想起)を行う第3ステップ
(S2)とからなっており、前処理のステップ(S2
A)の有無の点で従来の処理手順と異なっている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, an embodiment of the present invention described in claim 1 will be described. FIG. 1 shows a conventional prediction processing procedure using a recurrent network (FIG. 1A) and a processing procedure of the present embodiment (FIG. 1B). The present embodiment includes a first step (S1) for initializing a network, a second step (S2A) for performing prediction as preprocessing, and a third step (S2) for performing actual prediction (recall). And the pre-processing step (S2
It differs from the conventional processing procedure in the presence or absence of A).

【0011】以下、本実施形態における各ステップの処
理内容を説明する。 (1)第1ステップ(S1):初期化 このステップは、既に学習済みのネットワークの重みの
読み込み、及び、入出力データや内部ポテンシャルの初
期化を行うステップである。ネットワークは多数のニュ
ーロン(脳細胞)の結合から成り立っており、各ニュー
ロンの入出力(刺激・興奮度)を例えば0,0.5に初
期化する。
Hereinafter, the processing contents of each step in the present embodiment will be described. (1) First Step (S1): Initialization This step is a step of reading the weight of the already learned network and initializing the input / output data and the internal potential. The network is made up of a connection of many neurons (brain cells), and initializes the input / output (stimulus / excitation degree) of each neuron to, for example, 0.5.

【0012】(2)第2ステップ(S2A):前処理 このステップでは、前処理として通常の予測を行う。例
えば、図2に示すsin波のような周期関数を予測する
場合、データの先頭以前はすべて0となり、時刻t=0
は不連続点となっている。このような周期関数の場合、
1周期後、2周期後……の値は同一で連続点となってい
るので、前処理としてこのデータの連続点(例えば1周
期後)まで予測を行う。また、予測を終了したネットワ
ークの重み、入出力データ、内部ポテンシャル等、ネッ
トワークの状態をすべて保存する。
(2) Second Step (S2A): Preprocessing In this step, normal prediction is performed as preprocessing. For example, when predicting a periodic function such as a sine wave shown in FIG.
Is a discontinuity point. For such a periodic function,
After one cycle, after two cycles,..., The values are the same and are continuous points, so prediction is performed as a pre-process up to the continuous point of this data (for example, one cycle later). In addition, the state of the network, such as the weight, input / output data, and internal potential of the network for which prediction has been completed, is all stored.

【0013】(3)第3ステップ(S2):予測(想
起) このステップは、本来の予測処理である。従来では、予
測前に入出力データや内部ポテンシャル等をすべて初期
化する(図1(a)におけるステップS1)が、本実施
形態における第3ステップ(S2)の予測は、前もって
初期化せずに、第2ステップ(S2A)の終了時に保存
されたネットワークの重み、入出力データ、内部ポテン
シャル等、ネットワークの状態をそのまま維持しながら
予測を行う。
(3) Third Step (S2): Prediction (Recall) This step is an original prediction process. Conventionally, all input / output data, internal potentials, and the like are initialized before prediction (step S1 in FIG. 1A), but the prediction in the third step (S2) in the present embodiment is performed without initializing in advance. The prediction is performed while maintaining the state of the network, such as the network weight, input / output data, internal potential, etc., stored at the end of the second step (S2A).

【0014】これにより、従来の方法で図3(a)の時
刻t=0において発生する不連続点が、図3(b)の如
く仮想的に連続点となり、良好な予測を行うことができ
る。つまり、sin波を入力してsin波を出力させる
図4のネットワーク(Williams & Zipserモデル)にお
いて、初期化する際のフィードバック入力には前述の第
1ステップ(S1)により0や0.5といった値を与え
るが、本実施形態では第2ステップ(S2A)の前処理
により、本来の予測時に第2ステップ終了時の値である
−0.1等の値をフィードバック入力に与えることによ
り、時系列の先頭データの連続性を保って良好な予測を
行うことができる。このため、時刻t=0における予測
不良を回避することが可能になる。
Thus, the discontinuous point generated at time t = 0 in FIG. 3A by the conventional method becomes a virtual continuous point as shown in FIG. 3B, and good prediction can be performed. . In other words, in the network of FIG. 4 (Williams & Zipser model) in which a sine wave is input and a sine wave is output, a feedback input at the time of initialization is a value such as 0 or 0.5 in the first step (S1) described above. In the present embodiment, a value such as −0.1 at the end of the second step at the time of the original prediction is given to the feedback input by the pre-processing of the second step (S2A), so that the time series Good prediction can be performed while maintaining the continuity of the leading data. Therefore, it is possible to avoid the prediction failure at the time t = 0.

【0015】次に、請求項2に記載した発明の実施形態
を説明する。この実施形態は、予測開始後の誤差の蓄積
を回避するためのものであり、特に、ネットワークによ
って予測のたびごとに実績値が判明するような用途(電
力需要予測、平均株価予測等)に最適である。
Next, an embodiment of the present invention will be described. This embodiment is for avoiding accumulation of errors after the start of forecasting, and is particularly suitable for applications (such as power demand forecasting, average stock price forecasting, etc.) in which actual values are determined by the network each time forecasting is performed. It is.

【0016】図5は従来技術によりネットワークの出力
値をそのままフィードバック入力とした場合(図5
(a))と、出力値をそのままフィードバック入力とせ
ずに、本実施形態により修正してフィードバック入力と
した場合(図5(b))との予測値及び実績値を示して
いる。従来技術により出力値y0(t),y0(t+
1),……をそのままフィードバック入力とすると、予
測を繰り返すにつれて予測値y0(t),y0(t+
1),……と実績値(教師値)T0(t),T0(t+
1),……との間の誤差は大きくなる一方である。
FIG. 5 shows a case where the output value of the network is directly used as a feedback input according to the prior art (FIG. 5).
FIG. 5A shows the predicted value and the actual value when the output value is corrected as a feedback input according to the present embodiment without being used as the feedback input as it is (FIG. 5B). Output values y0 (t) and y0 (t +
1),... As feedback input as they are, the predicted values y0 (t), y0 (t +
1),... And the actual value (teacher value) T0 (t), T0 (t +
The errors between 1),... Are increasing.

【0017】しかるに、図6に示す如く、例えば時刻
(t+1)における予測値y0(t+1),y1(t+
1)そのものでなく、それらの実績値(教師値)T0
(t+1),T1(t+1)をフィードバックさせて1
周期前のT0(t),T1(t)として入力すれば、図
5(b)に示すように予測値y0(t),y0(t+
1),……と実績値(教師値)T0(t),T0(t+
1),……との間の誤差は拡大するおそれがない。
However, as shown in FIG. 6, for example, the predicted values y0 (t + 1) and y1 (t +
1) Not the actual values but their actual values (teacher values) T0
(T + 1) and T1 (t + 1) are fed back to 1
If input as T0 (t) and T1 (t) before the cycle, the predicted values y0 (t) and y0 (t +) as shown in FIG.
1),... And the actual value (teacher value) T0 (t), T0 (t +
There is no possibility that the error between 1),.

【0018】図7はこの実施形態の処理手順を示すフロ
ーチャートである。すなわち、本実施形態は、データを
入力する第1ステップ(S21)と、実際に予測を行っ
て予測値を出力する第2ステップ(S22)と、誤差の
有無を判断する第3ステップ(S23)と、誤差がある
ときにフィードバック入力を修正し最適化する第4ステ
ップ(S24)とからなっている。
FIG. 7 is a flowchart showing the processing procedure of this embodiment. That is, in the present embodiment, a first step (S21) of inputting data, a second step (S22) of actually performing prediction and outputting a predicted value, and a third step (S23) of determining whether there is an error. And a fourth step (S24) of correcting and optimizing the feedback input when there is an error.

【0019】以下、本実施形態における各ステップの処
理内容を説明する。 (1)第1ステップ(S21):データ入力 このステップでは、リカレントネットワークの入力層に
外部データ及びフィードバックデータを入力する。この
場合、フィードバックデータとしてはリカレントネット
ワークの出力である予測値をそのまま用いる。
The processing contents of each step in this embodiment will be described below. (1) First Step (S21): Data Input In this step, external data and feedback data are input to the input layer of the recurrent network. In this case, a predicted value output from the recurrent network is used as it is as feedback data.

【0020】(2)第2ステップ(S22):予測値出
力 このステップでは、ネットワークを動作させて予測値を
出力させる。
(2) Second Step (S22): Output of Predicted Value In this step, the network is operated to output a predicted value.

【0021】(3)第3ステップ(S23):誤差の有
無判断 図5(a)に示したような予測値と実績値との間の誤差
があるが否かを判断する。誤差がある(または許容値を
超える)場合には次の第4ステップに移行し、誤差がな
い(または許容値以下の)場合には第1ステップに戻
る。
(3) Third Step (S23): Determination of presence or absence of error It is determined whether or not there is an error between the predicted value and the actual value as shown in FIG. When there is an error (or exceeds the allowable value), the process proceeds to the next fourth step, and when there is no error (or below the allowable value), the process returns to the first step.

【0022】(4)第4ステップ(S24):フィード
バック入力の最適化 第3ステップで誤差ありと判断された場合に、ネットワ
ークの出力値(予測値)をそのままフィードバック入力
とせずに、実績値等をフィードバック入力とするべく修
正し、最適化する。
(4) Fourth Step (S24): Optimization of Feedback Input When it is determined that there is an error in the third step, the output value (predicted value) of the network is not directly used as the feedback input, but the actual value or the like is used. And optimize it as a feedback input.

【0023】その結果、予測値と実績値との関係は図5
(b)のようになり、図5(a)に示したように予測の
たびに誤差が拡大していくことが回避され、高精度な予
測が可能になる。
As a result, the relationship between the predicted value and the actual value is shown in FIG.
As shown in FIG. 5B, as shown in FIG. 5A, the error is prevented from expanding every time prediction is performed, and highly accurate prediction can be performed.

【0024】[0024]

【実施例】【Example】

(1)請求項1記載の発明の実施例 学習データは表1に示すとおりであり、sin波をco
s波に変換する学習アルゴリズムとした。なお、表1に
おいて、t=0, π/18,2π/18,……,6π
(108データ)である。
(1) The embodiment of the invention according to claim 1 The learning data is as shown in Table 1, and the sine wave is
A learning algorithm for converting to s-wave was used. In Table 1, t = 0, π / 18, 2π / 18,.
(108 data).

【0025】[0025]

【表1】 [Table 1]

【0026】学習・予測に用いたリカレントネットワー
クの構造は、図8に示すとおりである。また、学習条件
を表2に示す。
The structure of the recurrent network used for learning and prediction is as shown in FIG. Table 2 shows the learning conditions.

【0027】[0027]

【表2】 [Table 2]

【0028】図9はこの実施例による予測結果を示して
おり、図9(a)は出力値、図9(b)は誤差である。
これらの図から、従来技術では予測開始時点において大
きな誤差が現れるが、本実施例によれば、予測開始時点
から誤差が少なく良好な予測を行えることが明らかであ
る。
FIG. 9 shows a prediction result according to this embodiment. FIG. 9A shows an output value, and FIG. 9B shows an error.
From these figures, it is apparent that a large error appears at the prediction start time in the related art, but according to the present embodiment, good prediction can be performed with a small error from the prediction start time.

【0029】(2)請求項2記載の発明の実施例 学習データを表3に、また、予測データを表4に示す。
実験値などの値には通常、測定誤差が含まれ、理論値と
異なる場合があることから、この実施例では学習データ
に僅かなノイズを含ませてある。なお、ここではリカレ
ントネットワークモデルとしてWilliams & Zipserモデ
ルを用いた。
(2) Embodiment of the Invention According to Claim 2 Table 3 shows learning data and Table 4 shows prediction data.
Since values such as experimental values usually include measurement errors and may differ from theoretical values, in this embodiment, the learning data includes a slight noise. Here, the Williams & Zipser model was used as the recurrent network model.

【0030】[0030]

【表3】 [Table 3]

【0031】[0031]

【表4】 [Table 4]

【0032】従来技術によりフィードバック入力を修正
しない場合と本実施例によりフィードバック入力を修正
(最適化)した場合の、学習誤差の最大値(MAX)、最
小値(MIN)、平均値(ABG)、移動平均値(ABSAVG)、標準偏
差(STD)を表5に示す。なお、学習データ数の1セット
は108個のデータである。
The maximum value (MAX), the minimum value (MIN), the average value (ABG) of the learning error, when the feedback input is not corrected by the conventional technique and when the feedback input is corrected (optimized) according to the present embodiment. Table 5 shows the moving average (ABSAVG) and the standard deviation (STD). One set of the number of learning data is 108 data.

【0033】[0033]

【表5】 [Table 5]

【0034】表5から明らかなように、1セット(10
8個)のデータで学習したケースと10セット(108
0個)のデータで学習したケースの何れの場合も、本実
施例によれば予測誤差を減少させることができる。
As apparent from Table 5, one set (10
(8) data and 10 sets (108
According to the present embodiment, the prediction error can be reduced in any of the cases where the learning is performed using the (0) data.

【0035】[0035]

【発明の効果】以上のように請求項1記載の発明によれ
ば、時系列データの先頭にしばしば現れる誤差を低減さ
せることができる。また、請求項2記載の発明によれ
ば、予測を繰り返すにつれて拡大、累積されていく誤差
を低減することができる。
As described above, according to the first aspect of the present invention, it is possible to reduce an error that often appears at the beginning of time-series data. According to the second aspect of the present invention, it is possible to reduce errors that are enlarged and accumulated as prediction is repeated.

【0036】例えば、リカレントネットワークにより電
力需要量を予測する場合において、過去数年間の春季の
データを用いて予め学習し、本年の春季の電力需要量を
予測することがある。従来では、本年の春季の始めの数
日間は予測値が安定せず、高精度な予測を行うことがで
きなかったが、請求項1の発明によれば、予測期間の初
日から予測を行うことができる。また、請求項2の発明
を電力需要量の予測に用いた場合、毎日判明する実績値
を誤差のある予測値に代えてフィードバック入力に用い
れば高精度な予測が可能になる。
For example, when predicting the power demand by the recurrent network, the power demand in the spring of this year may be predicted by learning in advance using the spring data of the past several years. Conventionally, the predicted value was not stable during the first few days of the spring of this year, and high-precision prediction could not be performed. According to the invention of claim 1, the prediction is performed from the first day of the prediction period. be able to. In addition, when the invention of claim 2 is used for the prediction of the power demand, a highly accurate prediction can be made by using the actual value found every day for the feedback input instead of the predicted value having an error.

【図面の簡単な説明】[Brief description of the drawings]

【図1】リカレントネットワークを用いた従来の予測処
理手順(図1(a))及び本発明の実施形態の処理手順
(図1(b))を示すフローチャートである。
FIG. 1 is a flowchart showing a conventional prediction processing procedure using a recurrent network (FIG. 1A) and a processing procedure of an embodiment of the present invention (FIG. 1B).

【図2】予測される周期関数の説明図である。FIG. 2 is an explanatory diagram of a predicted periodic function.

【図3】従来技術(図3(a))及び請求項1の発明の
実施形態(図3(b))により予測される周期関数の説
明図である。
FIG. 3 is an explanatory diagram of a periodic function predicted according to the related art (FIG. 3A) and the embodiment (FIG. 3B) of the first embodiment of the present invention;

【図4】請求項1の発明の実施形態で使用されるリカレ
ントネットワークの構造を示す図である。
FIG. 4 is a diagram showing a structure of a recurrent network used in the first embodiment of the present invention;

【図5】従来技術により出力値をそのままフィードバッ
ク入力とした場合(図5(a))と、請求項2の発明の
実施形態により出力値を修正してフィードバック入力と
した場合(図5(b))の予測値及び実績値を示す図で
ある。
FIG. 5 shows a case where the output value is directly used as a feedback input according to the prior art (FIG. 5 (a)) and a case where the output value is corrected and used as a feedback input according to the embodiment of the present invention (FIG. 5 (b)). It is a figure which shows the predicted value and actual value of)).

【図6】請求項2の発明の実施形態におけるフィードバ
ック入力の修正処理を示す概念図である。
FIG. 6 is a conceptual diagram showing a process of correcting a feedback input in the embodiment of the second invention.

【図7】請求項2の発明の実施形態における処理手順を
示すフローチャートである。
FIG. 7 is a flowchart showing a processing procedure in the embodiment of the second invention.

【図8】請求項1の発明の実施例で使用されるリカレン
トネットワークの構造を示す図である。
FIG. 8 is a diagram showing the structure of a recurrent network used in an embodiment of the present invention.

【図9】請求項1の発明の実施例と従来技術による出力
値(図9(a))及び誤差(図9(b))をそれぞれ比
較して示した図である。
FIG. 9 is a diagram showing an output value (FIG. 9 (a)) and an error (FIG. 9 (b)) of the embodiment according to the first aspect of the present invention and a conventional technique, respectively.

【図10】Williams & Zipserモデルの概念図である。FIG. 10 is a conceptual diagram of a Williams & Zipser model.

【図11】Elmanモデルの概念図である。FIG. 11 is a conceptual diagram of an Elman model.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 フィードバック結合を持ち、かつ時系列
データを学習したリカレントネットワークにより予測を
行う予測方法において、 ネットワークを初期化する第1ステップと、 目的とする出力のデータの連続点まで、前処理としてネ
ットワークにより予測を行い、予測終了時のネットワー
クの状態を保存する第2ステップと、 第2ステップにより保存されたネットワークの状態から
当該ネットワークにより予測を行う第3ステップと、 からなることを特徴とするリカレントネットワークによ
る予測方法。
1. A prediction method for performing prediction using a recurrent network having feedback coupling and learning time-series data, comprising: a first step of initializing the network; A second step of performing prediction by a network and storing the state of the network at the time of completion of the prediction, and a third step of performing prediction by the network from the state of the network stored in the second step. Forecasting method using a recurrent network.
【請求項2】 フィードバック結合を持ち、かつ時系列
データを学習したリカレントネットワークにより予測を
行う予測方法において、 ネットワークに外部データとフィードバックデータとを
入力する第1ステップと、 ネットワークにより予測を行う第2ステップと、 ネットワークから出力された予測値の誤差を検出する第
3ステップと、 上記誤差に応じてネットワークのフィードバック入力デ
ータを修正する第4ステップと、 からなることを特徴とするリカレントネットワークによ
る予測方法。
2. A prediction method for performing prediction using a recurrent network having feedback coupling and learning time-series data, comprising: a first step of inputting external data and feedback data to the network; and a second step of performing prediction using the network. And a third step of detecting an error of a predicted value output from the network; and a fourth step of correcting feedback input data of the network according to the error. .
JP9205397A 1997-04-10 1997-04-10 Prediction method in recurrent network Withdrawn JPH10283335A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9205397A JPH10283335A (en) 1997-04-10 1997-04-10 Prediction method in recurrent network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9205397A JPH10283335A (en) 1997-04-10 1997-04-10 Prediction method in recurrent network

Publications (1)

Publication Number Publication Date
JPH10283335A true JPH10283335A (en) 1998-10-23

Family

ID=14043777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9205397A Withdrawn JPH10283335A (en) 1997-04-10 1997-04-10 Prediction method in recurrent network

Country Status (1)

Country Link
JP (1) JPH10283335A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248835A (en) * 2010-05-31 2011-12-08 Toshiba Corp Prediction method for plant state variables and plant kinetics simulator using the same, plant state monitoring device, and plant prediction control device
JP2015128129A (en) * 2013-11-29 2015-07-09 株式会社日立ハイテクノロジーズ Data processing method, data processor and processor
CN112561115A (en) * 2019-09-25 2021-03-26 云南电网有限责任公司瑞丽供电局 Active power distribution network user power consumption behavior variable weight combination prediction model and prediction method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248835A (en) * 2010-05-31 2011-12-08 Toshiba Corp Prediction method for plant state variables and plant kinetics simulator using the same, plant state monitoring device, and plant prediction control device
JP2015128129A (en) * 2013-11-29 2015-07-09 株式会社日立ハイテクノロジーズ Data processing method, data processor and processor
CN112561115A (en) * 2019-09-25 2021-03-26 云南电网有限责任公司瑞丽供电局 Active power distribution network user power consumption behavior variable weight combination prediction model and prediction method

Similar Documents

Publication Publication Date Title
Nelson et al. Time series forecasting using neural networks: Should the data be deseasonalized first?
EP0454037B1 (en) Neural network for processing a plurality of informations and learning method
US5519647A (en) Apparatus for and method of generating an approximation function
US10970632B2 (en) Generating a score for a runbook or a script
CN111353828B (en) Method and device for predicting number of people coming to store at website
Mostafa Robust federated learning through representation matching and adaptive hyper-parameters
Wilson An Adaptive Phase-Amplitude Reduction Framework without O(ϵ) Constraints on Inputs
Rubies-Royo et al. Fast neural network verification via shadow prices
CN112803398A (en) Load prediction method and system based on empirical mode decomposition and deep neural network
JPH10283335A (en) Prediction method in recurrent network
JP2004094437A (en) Data prediction method and data prediction system
US20020178131A1 (en) Data processing apparatus and method, recording medium, and program
US20100030732A1 (en) System and method to create process reference maps from links described in a business process model
US5630020A (en) Learning method and neural network structure
Thibault Feedforward neural networks for the identification of dynamic processes
CN113516454B (en) Enterprise information management system and method based on cloud computing platform
JPH05204887A (en) Internal combination method in neural network
JPWO2006009043A1 (en) Data verification method, data verification device, and data verification program
KR20230022005A (en) Device and method for extracting compound information
JP2518007B2 (en) Dynamic neural network with learning mechanism
JPH05128082A (en) Data processor constituting hierarchical network and its learning processing method
Štrba et al. An application of neural network in method for use case based effort estimation
JP3027420B2 (en) Project management equipment
JPH10283334A (en) Input layer optimizing method for neural network
JP4440828B2 (en) Prediction apparatus and method for performing prediction based on similar cases

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040706