JPH03134703A - Demand pattern predicting method and plant operating method - Google Patents

Demand pattern predicting method and plant operating method

Info

Publication number
JPH03134703A
JPH03134703A JP1271680A JP27168089A JPH03134703A JP H03134703 A JPH03134703 A JP H03134703A JP 1271680 A JP1271680 A JP 1271680A JP 27168089 A JP27168089 A JP 27168089A JP H03134703 A JPH03134703 A JP H03134703A
Authority
JP
Japan
Prior art keywords
layer
pattern
day
demand pattern
demand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1271680A
Other languages
Japanese (ja)
Inventor
Kenji Baba
研二 馬場
Ichirou Enbutsu
伊智朗 圓佛
Shoji Watanabe
昭二 渡辺
Toshio Yahagi
矢萩 捷夫
Harumi Matsuzaki
松崎 晴美
Hiroshi Matsumoto
弘 松本
Makoto Shimoda
誠 下田
Takuji Nishitani
西谷 卓史
Hiromitsu Kurisu
宏充 栗栖
Naoki Hara
直樹 原
Mikio Yoda
幹雄 依田
Toshio Hata
俊夫 畑
Takeo Kasai
笠井 武郎
Yoshihiro Shinyuu
義弘 信友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1271680A priority Critical patent/JPH03134703A/en
Publication of JPH03134703A publication Critical patent/JPH03134703A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To execute an operation adapted to an actual result performed by an operator and the previous instance without necessitating much labor by inputting the predicted value of a disturbance factor on that day to a learned neural net and predicting a demand pattern on that day. CONSTITUTION:A leaning neural net 71 is allowed to learn a disturbance factor and an actual result demand pattern at plural time points in the past. The constitution of the neural net 71 is a hierarchical structure consisting of an input layer 710 constituted, based on a neuron model as a foundation, an intermediate layer 720 of at least one layer, an output layer 730, a comparison layer 740, and a teacher layer 750, and learning is executed by an error reverse propagation method. Subsequently, a disturbance factor predicted value on that day is inputted the input layer 710 of a learned neural net (predicting neural net) 72 and the output layer 730 is allowed to output a demand pattern on that day and it is predicted. In such a manner, the operation adapted to an actual result performed by an operator and the previous instance can be executed without executing a large quantity of data analysis and an interview to the operator.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、水需要や下水処理場の流入水量など1日ある
いは1週間を単位とする需要パターンを予測する方法及
び、これら予測結果に基づき供給プラントの運転方法を
制御する方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a method for predicting demand patterns on a daily or weekly basis, such as water demand and the amount of water flowing into a sewage treatment plant, and a method based on the results of these predictions. The present invention relates to a method for controlling the operation of a supply plant.

〔従来の技術〕[Conventional technology]

水需要や下水処理場の流入水量などは人間の社会活動を
反映して1日あるいは1週間単位で需要パターンが変動
する。例えば、1日でみると昼間は需要量が多く、逆に
夜間は低くなるパターンとなる。
Demand patterns for water demand and the amount of water flowing into sewage treatment plants fluctuate on a daily or weekly basis, reflecting human social activities. For example, in a day, demand is high during the day, and conversely, it is low at night.

水供給プラントなどはあらかじめこれらの予測値に基づ
いて供給量の運転計画が立てられるので、これらの予測
は重要である。これら需要パターンは、当日の天候や気
温など外乱因子の不確定要素の影響を強く受けるだけで
なく、前日の実績パターンの影響が当日も残る特性(1
!歴性)がある。従来法では、自己回帰モデルなどの統
計的手法があり、また、供給プラントのオペレータの経
験を活かした知識工学による予測手法がある。
These predictions are important because water supply plants and the like use these predicted values to make operational plans for supply amounts in advance. These demand patterns are not only strongly influenced by uncertain factors such as the day's weather and temperature, but also have the characteristic that the influence of the previous day's actual pattern remains on the day (1
! history). Conventional methods include statistical methods such as autoregressive models, and predictive methods based on knowledge engineering that utilize the experience of supply plant operators.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来の統計的手法を用いるには事前に多量の実績データ
を整理して解析する必要がある。一方、知識工学を適用
する方法は、知識ルールを作成、修正、改良、追加する
ためにオペレータにインタビューを行ない、経験的知識
を矛盾なく整理する必要がある。このように従来法は多
大の労力を必−要とした。また、知識工学の方法では、
矛盾する結論が同時に出た場合には最終結論が出なし)
欠点があった。
In order to use conventional statistical methods, it is necessary to organize and analyze a large amount of actual data in advance. On the other hand, the method of applying knowledge engineering requires interviews with operators to create, modify, improve, and add knowledge rules, and to organize empirical knowledge without contradiction. As described above, the conventional method required a great deal of labor. In addition, in the knowledge engineering method,
If contradictory conclusions are reached at the same time, no final conclusion can be drawn)
There were drawbacks.

〔課題を解決するための手段〕[Means to solve the problem]

本発明では、過去の実績に基づく需要ノ(ターン予測を
ニューラルネット(神経回路モデル)で行なうことを特
徴とする。オペレータは天候や気温など外乱因子が需要
パターンに影響する度合いや、需要パターンの履歴性を
考慮して、需要予測を経験的に行なっている。オペレー
タの脳の中ではこれら「過去の実績」に基づいた予測が
行なわれており、この作用をニューラルネットで実現す
る。ここで、「過去の実績」とは、過去の複数の時点で
の代表的な需要パターンである。
The present invention is characterized by using a neural network (neural circuit model) to predict the demand turn based on past performance.The operator can determine the degree to which disturbance factors such as weather and temperature affect the demand pattern, and Demand forecasting is done empirically, taking into account historical characteristics.In the operator's brain, predictions are made based on these "past results," and this action is realized using a neural network.Here, , "Past performance" is a typical demand pattern at multiple points in the past.

そこで、まず、ニューラルネットに過去の複数時点での
外乱因子と実績需要パターンとを学習させる。これを実
行するニューラルネットの具体的構成は、ニューロン素
子モデルを基本として構成される入力層、少なくとも1
層の中間層、出力層、比較層、並びに教師層からなる階
層構造であり。
Therefore, first, the neural network is made to learn disturbance factors and actual demand patterns at multiple points in the past. The specific configuration of the neural network that executes this is to have at least one input layer based on a neuron element model.
It has a hierarchical structure consisting of an intermediate layer, an output layer, a comparison layer, and a teacher layer.

具体的学習方法は公知の誤差逆伝搬法により行なう。次
に、学習済みのニューラルネットの入力層に当日の外乱
因子予測値を入力して出力層に当日の需要パターンを出
力させるようにした。この動作が予測である。また、学
習は随時自動的に行なうか、またはオペレータが任意に
行ない、予測が常時的確に行なえるようにした。さらに
、予測した需要パターンに基づき供給の運転計画を立案
したり、供給量の目標値を制御するなど運転方法に反映
させるようにした。
A specific learning method is a known error backpropagation method. Next, the predicted value of the disturbance factor for the day was input into the input layer of the trained neural network, and the output layer outputted the demand pattern for the day. This action is prediction. In addition, learning can be performed automatically or arbitrarily by the operator, so that predictions can be made accurately at all times. Furthermore, the predicted demand pattern is reflected in the operation method, such as by formulating a supply operation plan and controlling the target value of supply amount.

〔作用〕[Effect]

本発明では、ニューラルネットによる学習予測能力を需
要パターンの予測に適用した。すなわち、まずニューラ
ルネットに外乱因子と需要パターンとの履歴を学習させ
る。この時ニューラルネットの重み係数の分布が変化す
る。このことは、オペレータが過去の種々の実績を記憶
することに相当する。このような学習済みニューラルネ
ットに当日の外乱因子の予想値を入力することで、当日
の需要パターンを予測することができる。このことは、
オペレータが過去の種々の実績を勘案して需要パターン
を予測する方法を模擬したものである。
In the present invention, the learning prediction ability of a neural network is applied to predicting demand patterns. That is, first, the neural network is made to learn the history of disturbance factors and demand patterns. At this time, the distribution of weighting coefficients of the neural network changes. This corresponds to the operator memorizing various past achievements. By inputting predicted values of disturbance factors for the day into such a trained neural network, the demand pattern for the day can be predicted. This means that
This simulates the method by which an operator predicts demand patterns by taking into account various past results.

〔実施例〕〔Example〕

本発明は、ニューラルネットに過去の外乱因子と実績需
要パターンを複数側学習させ、学習済みニューラルネッ
トに当日の外乱因子を入力して当日の需要パターンを連
想させるようにしたものである。実行工程は、(1)学
習用神経回路モデル(学習用ニューラルネット)による
学習工程、(2)学習済みニューラルネット(予測用ニ
ューラルネット)の連想による需要パターンの予測工程
、(3)予測結果に基づく供給量の運転制御工程からな
る。
The present invention allows a neural network to learn past disturbance factors and actual demand patterns on a plurality of sides, and inputs the current day's disturbance factors into the learned neural network to associate the same day's demand pattern. The execution process consists of (1) a learning process using a learning neural network model (learning neural network), (2) a demand pattern prediction process by association of a trained neural network (prediction neural network), and (3) a process based on the prediction results. It consists of an operation control process based on the supply amount.

適用光は浄水場の水需要パターン予測や下水処理場の流
入下水量予測などである。ここでは、浄水場の水需要パ
ターン予測を例に第1図の実施例で構成と動作を説明す
る。
Applications include predicting water demand patterns at water treatment plants and the amount of sewage flowing into sewage treatment plants. Here, the configuration and operation will be explained using the embodiment shown in FIG. 1, taking as an example the water demand pattern prediction of a water purification plant.

まず、第1口金体の構成を説明する。第1図において、
浄水場で製造された塩素注入済みの浄水が配水池21に
貯留される。配水池21の浄水は配管21P1によりポ
ンプ22に送られ、次に配管21P2により需要家に配
水される。なお、図示しないが配管21P2には圧力と
流量との制御のためにバルブを設置する。ポンプ22の
運転データである流量の時系列データは、予ig運転制
御装置80の中の履歴パターンデータファイル71Fに
順次記憶される。予測運転制御装置8oはコンピュータ
システムであり本発明の説明、を容易にするために第1
図には処理のフロー図を示しである。
First, the configuration of the first cap body will be explained. In Figure 1,
Chlorine-injected purified water produced at a water treatment plant is stored in a water distribution reservoir 21. Purified water in the distribution reservoir 21 is sent to the pump 22 through a pipe 21P1, and then distributed to consumers through a pipe 21P2. Although not shown, a valve is installed in the pipe 21P2 to control pressure and flow rate. The time series data of the flow rate, which is the operation data of the pump 22, is sequentially stored in the history pattern data file 71F in the pre-ignition operation control device 80. The predictive operation control device 8o is a computer system, and in order to facilitate the explanation of the present invention, the first
The figure shows a flow diagram of the process.

また、図中ネットワークと記載されている部分は第4図
の実線702に相当する。
In addition, the portion described as network in the figure corresponds to the solid line 702 in FIG. 4.

流量信号22Qの時系列は、1時間ごとの積算量を22
0として値Q (t、i) (ここで、t:日Hl a
時間)を記憶する。一方、オペレータ101はデイスプ
レーとキーボード、または音声入出力装置などからなる
交信手段46を通じて、天候、曜日、平均気温、最高気
温、代表時間での気温、日射量、イベントの有無やその
程度などを外乱信号46Gとして、予測運転制御装置8
0の中の履歴パターンデータファイル71Fに入力する
。また、交信手段46には通信線46Iを通じて外部よ
り前記天候などのデータ信号を入力することもできる。
The time series of the flow rate signal 22Q shows the integrated amount per hour as 22Q.
0 and the value Q (t, i) (where t: day Hl a
time). On the other hand, the operator 101 communicates information such as the weather, day of the week, average temperature, maximum temperature, temperature at representative times, amount of solar radiation, presence or absence of an event and its degree, etc. through a communication means 46 consisting of a display, keyboard, or voice input/output device. As the disturbance signal 46G, the predictive operation control device 8
0 to the history pattern data file 71F. Furthermore, data signals such as the weather information can be inputted to the communication means 46 from the outside through the communication line 46I.

なお、外乱信号46Gが自動計測器で計測される場合に
は自動入力とすることは勿論である。このようにして、
流量信号22Qと外乱信号46Gは履歴パターンデータ
ファイル71Fに順次記憶される。
Note that when the disturbance signal 46G is measured by an automatic measuring instrument, it is of course automatically input. In this way,
The flow rate signal 22Q and the disturbance signal 46G are sequentially stored in the history pattern data file 71F.

履歴パターンデータファイル71Fの中から自動的にま
たは交信手段46からの指示71Sにより、流量信号2
2Qの選択されたデータ列Qと外乱信号46Gの選択さ
れたデータ列Gとが各々学習用ニューラルネット71に
出力される。これらデータQとGを用いて学習が実行さ
れ、実行結果71S1と71S2とが予測用ニューラル
ネット72に出力される。予測用ニューラルネット72
では実行結果71S1と71S2を受けると共に。
The flow rate signal 2 is automatically generated from the history pattern data file 71F or by an instruction 71S from the communication means 46.
The selected data string Q of 2Q and the selected data string G of the disturbance signal 46G are each output to the learning neural network 71. Learning is executed using these data Q and G, and execution results 71S1 and 71S2 are output to the prediction neural network 72. Prediction neural network 72
Then, receive the execution results 71S1 and 71S2.

履歴パターンデータファイル71Fの中から予測に必要
な流量信号22Qのデータ列と外乱信号46Gのデータ
列とを選択して予測に使用する。
The data string of the flow rate signal 22Q and the data string of the disturbance signal 46G necessary for prediction are selected from the history pattern data file 71F and used for the prediction.

予測結果は予測信号72Sとして交信手段46に表示す
ると共に、運転制御工程75に出力する。
The prediction result is displayed on the communication means 46 as a prediction signal 72S, and is also output to the operation control process 75.

運転制御工程75は予測信号72Sを受けて流量の目標
値信号75Sをポンプ22に出力して流量を制御する。
The operation control process 75 receives the prediction signal 72S and outputs a flow rate target value signal 75S to the pump 22 to control the flow rate.

同時に、目標値の流量信号75Sを交信手段46に表示
して、必要に応じてオペレータ101の選択により実際
の流量を補正する。補正値は再び流量信号75Sとして
ポンプ22に出力する。
At the same time, the flow rate signal 75S of the target value is displayed on the communication means 46, and the actual flow rate is corrected as required by the operator 101's selection. The correction value is again output to the pump 22 as a flow rate signal 75S.

次に、第1図を用い本発明の詳細な説明する。Next, the present invention will be explained in detail using FIG.

同時に、詳細構成と動作の説明には第2図以降を用いる
At the same time, FIG. 2 and subsequent figures will be used to explain the detailed configuration and operation.

まず、履歴パターンデータを履歴パターンデータファイ
ル71Fへ記憶する方法について説明する。履歴パター
ンデータは流量信号22Qと外乱信号46Gからなる。
First, a method of storing historical pattern data in the historical pattern data file 71F will be explained. The history pattern data consists of a flow rate signal 22Q and a disturbance signal 46G.

ポンプ22の流量信号22QをQ(t、i)(ここで、
を二日、j:時間)とすると、当日(1=0)の1時か
ら24時まで(j=1〜24)のデータQ(0,1)、
Q(0,2)、Q(0,3)、・、Q(0,24)は第
2図のようになる。これらのデータを履歴パターンデー
タファイル71Fに出力する。
The flow rate signal 22Q of the pump 22 is expressed as Q(t,i) (where,
is two days, j: time), then data Q (0, 1) from 1 o'clock to 24 o'clock (j = 1 to 24) on that day (1 = 0),
Q(0,2), Q(0,3), . . . Q(0,24) are as shown in FIG. These data are output to the history pattern data file 71F.

これを毎日繰り返すと、t=o、−1,−2,・・・の
データが順次記憶されていく。一方、交信手段46を通
じて入力される外乱信号46GをG(tlj)(ここで
、t:日、j:外乱の番号)とすると、当日(1=0)
の天候=G(0,1)、曜日=G(0,2)、平均気温
= G (0、3>、最高気温=G(0,4)、代表時
間での気温= G (0、5)、日射量=G(0,6)
、イベントの有無=G(0,7)や程度=G(0,8)
などが数値化されて第2図のようになる。これらのデー
タを履歴パターンデータファイル71Fに出方する。
If this is repeated every day, data of t=o, -1, -2, . . . will be stored sequentially. On the other hand, if the disturbance signal 46G input through the communication means 46 is G(tlj) (here, t: day, j: disturbance number), on the current day (1=0)
weather = G (0, 1), day of the week = G (0, 2), average temperature = G (0, 3>, maximum temperature = G (0, 4), temperature at representative time = G (0, 5) ), solar radiation = G (0,6)
, presence or absence of event = G (0, 7) and degree = G (0, 8)
etc. are converted into numerical values as shown in Figure 2. These data are output to the history pattern data file 71F.

続いて、学習工程における学習用ニューラルネット71
の動作を以下に説明する。学習用ニューラルネット71
では、履歴パターンデータファイル71Fの中から選択
されたデータを受ける。このデータ選択方法を以下に第
1図と第3図とを用いて説明する。外乱信号G(t、j
)については第1図の学習用ニューラルネット71のブ
ロックと第3図に示すように1選択された時間(日)1
=11゜tzttat・・・につぃて、tがら過去へさ
かのぼって任意の日数分を用いる。日1(1=1工#t
2jt31・・・)においては入力層710にG(t、
1)、・・・+a(t+a)を入力し、前日については
G(t−1,1)、・・・、 G (t−1,8)を入
力する。ただし、天候G (0、1)、曜日G(0゜2
)イベントの有無G(0,7)やイベントの程度G(0
,8)については、記号化または数値化を行なって入力
する。他方、流量Q(t、i)については日しく1=1
□+tztt□、・・・)における24時間分の流量Q
(t、1)。
Next, the learning neural network 71 in the learning process
The operation will be explained below. Learning neural network 71
Now, data selected from the history pattern data file 71F is received. This data selection method will be explained below using FIGS. 1 and 3. Disturbance signal G(t, j
), the block of the learning neural network 71 in Figure 1 and the selected time (day) 1 as shown in Figure 3.
=11°tzttat..., go back from t and use an arbitrary number of days. Day 1 (1=1 work#t
2jt31...), G(t,
1), . . . +a (t+a) are input, and for the previous day, G (t-1, 1), . . . , G (t-1, 8) are input. However, weather G (0, 1), day of the week G (0°2
) The presence or absence of an event G(0,7) and the degree of the event G(0
, 8) are input by converting them into symbols or numbers. On the other hand, for the flow rate Q(t, i), 1=1
Flow rate Q for 24 hours at □+tztt□,...)
(t, 1).

・・・、Q(t、24)は教師信号層750に入力する
。一方、入力層710に対しては前日(t=−1)の値
Q(t−1,1)。
..., Q(t, 24) are input to the teacher signal layer 750. On the other hand, for the input layer 710, the value Q(t-1,1) of the previous day (t=-1).

・・、 Q (t−1,24)と前日以前の値を過去へ
さかのぼって任意の日数分pを入力する。この日数ρが
多ければ予測精度が向上するが、実用的には前日(t=
−1)と前々日(t=−2)程度のデータで良い。また
、過去の9個からなる複数時点を1=1工1t21t3
t・・・t、とすると、第3図のように、学習するパタ
ーンデータを時間t、(i=1.2.・・・)について
入力する。
..., Q (t-1, 24) and the values before the previous day are entered in the past for an arbitrary number of days. If the number of days ρ is large, the prediction accuracy will improve, but in practical terms, the previous day (t=
-1) and data from the day before (t=-2) are sufficient. In addition, multiple points in time consisting of nine past points are 1 = 1 t 2 1 t 3
t...t, pattern data to be learned is input at time t, (i=1.2...) as shown in FIG.

このようにして設定した入力層710の各データ、並び
に教師層750に対して、中間/!!720、出力/1
1730、比較層740により学習が実行される。この
学習方法における信号処理方法を以下に第4図を用いて
説明する。第4図の構成と信号処理方法とは、前述した
入力データの設定法を除し)て公知である。すなわち、
第4図の構成と信号処理方法とはRumelhartら
によって考案された公知技術であり、詳細は文献(Pa
rallell DistributedProces
sing、MIT Press、 Vol、1.(19
86))を参照されたい。
For each data of the input layer 710 set in this way and the teacher layer 750, intermediate/! ! 720, output/1
1730, learning is performed by comparison layer 740. The signal processing method in this learning method will be explained below using FIG. 4. The configuration and signal processing method shown in FIG. 4 are well known, except for the input data setting method described above. That is,
The configuration and signal processing method shown in FIG. 4 are publicly known techniques devised by Rumelhart et al.
rallell DistributedProces
sing, MIT Press, Vol. 1. (19
86)).

第4図の構成と動作の概略を説明する。まず、第4図の
記号を説明する。Oはニューロン素子モデル701であ
り、OとOとを連結する実m702はニューロン素子モ
デル701間の情報のやりとりがあることを示す。ここ
で、各層は有限数のニューロン素子モデルからなり、隣
接する各層のニューロン素子モデル間が全て連結される
。中間層720は複数層あって良いが、本実施例では説
明の簡単のため中間層の数が一つの例を示す。第4図に
示す構成をニューラルネット(神経回路モデル)と称す
る。
The configuration and operation of FIG. 4 will be outlined. First, the symbols in FIG. 4 will be explained. O is a neuron element model 701, and a real m702 connecting O and O indicates that information is exchanged between the neuron element models 701. Here, each layer consists of a finite number of neuron element models, and all neuron element models in adjacent layers are connected. Although there may be a plurality of intermediate layers 720, this embodiment shows an example in which the number of intermediate layers is one for ease of explanation. The configuration shown in FIG. 4 is called a neural network (neural circuit model).

次に、ニューロン素子モデル701の基本演算について
第5図を用いて説明していく。第4図で入力層710に
入力するデータは前述したように、G(tyj)(t=
tyt  1.・・・; j=1+・・・、8)とQ 
(Li) (t=t−1,t−2,・・・; x=1.
・・・、24)であるが、汎用的に説明するために−G
 (t、j)とQ(Li)とを−括(全部でn個あると
する)して、第5図に示すようにn個の変数値をYi〜
Ynとする。入力された信号値Y□〜Ynの各々に重み
係数Wjiを乗じ、さらにこれらを加算する演算(積和
演算)を(1)式で計算する。
Next, basic operations of the neuron element model 701 will be explained using FIG. As mentioned above, the data input to the input layer 710 in FIG. 4 is G(tyj)(t=
tyt 1. ...; j=1+..., 8) and Q
(Li) (t=t-1, t-2,...; x=1.
..., 24), but for general explanation -G
(t, j) and Q(Li) (assuming that there are n in total), the n variable values are expressed as Yi~ as shown in Figure 5.
Let it be Yn. An operation (sum-of-products operation) in which each of the input signal values Y□ to Yn is multiplied by a weighting coefficient Wji and then added together is calculated using equation (1).

ここで、Yi(1):入力層(第1層)のYiの値、W
ji(2←1)二人力層(第1.W)のi番目の変数か
ら中間層(第2N)のj番目の三ニーロン素子モデルへ
の重み係数、Zj(2):中間層(第2層)のj番目の
ニューロン素子モデルへの入力総和値、である。
Here, Yi (1): the value of Yi of the input layer (first layer), W
ji (2←1) Weighting coefficient from the i-th variable of the two-person layer (1st W) to the j-th three-neelon element model of the intermediate layer (2N), Zj (2): is the input summation value to the j-th neuron element model of layer).

ニューロン素子モデル701では、Zj(2)の大小に
応じてここでの出力値が(2)式で計算される。
In the neuron element model 701, the output value here is calculated using equation (2) depending on the magnitude of Zj(2).

(2)式の計算内容は第6図のような関係である。The calculation details of equation (2) are as shown in FIG.

計算値Yj(2)は、さらに出力層へ送られ、出力層で
も同様の計算が実行される。
The calculated value Yj(2) is further sent to the output layer, and the same calculation is performed in the output layer.

次に、ニューラルネットでの計算方法の概要について説
明する。前述した変数値Yi(1)は第4図の入力層7
10に入力され、この信号値は中間層720のニューロ
ン素子モデルに出力される。中間層720のニューロン
素子モデルではこれら出力値Yi(1)と重み係数Wi
j(2←1)との積和Zj(2)を(1)式で計算し、
この大小に応じて出力層730への出力値Yj(2)を
(2)式で決定する。同様にして、中間層720の出力
値Yj(2)はさらに中間層(第2層)720と出力層
(第3層)730との重み係数Wij(3←2)との積
和Zj(3)を(3)式で計算する。
Next, an overview of the calculation method using a neural network will be explained. The variable value Yi(1) mentioned above is input to the input layer 7 in FIG.
10, and this signal value is output to the neuron element model of the hidden layer 720. In the neuron element model of the intermediate layer 720, these output values Yi(1) and weighting coefficients Wi
Calculate the sum of products Zj (2) with j (2←1) using formula (1),
Depending on the magnitude, the output value Yj(2) to be output to the output layer 730 is determined using equation (2). Similarly, the output value Yj(2) of the intermediate layer 720 is further calculated as the sum of products Zj(3 ) is calculated using equation (3).

ここで、Yi(2):中間層(第2層)の値、Wji(
3←2):中間層(第2N)のi番目の変数から出力層
(第3層)のj番目のニューロン素子モデルへの重み係
数、Zj(3):出力層(第3層)のj番目のニューロ
ン素子モデルへの入力総和値、である。
Here, Yi(2): value of the middle layer (second layer), Wji(
3←2): Weighting coefficient from the i-th variable of the intermediate layer (2Nth layer) to the j-th neuron element model of the output layer (3rd layer), Zj (3): j of the output layer (3rd layer) is the total input value to the th neuron element model.

さらに、Zj(3)の大小に応じて出力M730への出
力値Yj(3)を(4)式で計算する。
Furthermore, the output value Yj(3) to be outputted to the output M730 is calculated using equation (4) depending on the magnitude of Zj(3).

このようにして、出力層の計算値Yj(3)が得られる
。Yj(3)のパターンが第1図ではQ(t、1)*1
Q(t、2)本、・・・IQ(tT24)本である。
In this way, the calculated value Yj(3) of the output layer is obtained. In Figure 1, the pattern of Yj(3) is Q(t, 1)*1
Q(t, 2) books, . . . IQ(tT24) books.

ニューラルネットでの学習を実行するには、出力層73
0の後に、さらに比較層740と教師信号層750とを
設け、出力層730の信号730sと教師信号/l 7
50の教師信号750Sとが比較M740にはいり、こ
こで出力信号730SであるQ (t、1)*(ただし
Cl−24)と教師信号750SであるQ(t、i)(
ただしC1−24)との大小が各々比較される。この偏
差が小さくなるように、重み係数Wji(3←2)及び
Wji(2←1)の大きさを修正する。この修正値を用
いて再度、(1)−(4)式の計算を実行し、出力信号
730Sと教師信号750Sとの大小を比較すると、同
様に偏差がでてくる。この偏差に基づいて再度重み係数
<Vji(3←2)及びWji(2←1)の大きさを修
正していく。このようにして、重み係数Wjiを繰返し
修正していき、偏差があらかじめ決められた値以下にな
るまで続ける。最初は重み係数は乱数の発生によりラン
ダムに与えられるので、偏差は当然大きいが、出力信号
値は次第に教師信号値に近づいていく。この時、(1)
−(4)式において値が変更されるのは重み係数値Wj
iだけであるから、学習結果はWji値の分布に反映し
ていく。
To perform learning with a neural network, the output layer 73
After 0, a comparison layer 740 and a teacher signal layer 750 are further provided, and the signal 730s of the output layer 730 and the teacher signal /l7
50 teacher signal 750S enters the comparison M740, where the output signal 730S Q (t, 1) * (however, Cl-24) and the teacher signal 750S Q (t, i) (
However, the size is compared with C1-24). The magnitudes of the weighting coefficients Wji (3←2) and Wji (2←1) are corrected so that this deviation becomes smaller. When the calculations of equations (1) to (4) are executed again using this corrected value and the magnitudes of the output signal 730S and the teacher signal 750S are compared, a deviation similarly appears. Based on this deviation, the magnitudes of the weighting coefficients <Vji (3←2) and Wji (2←1) are corrected again. In this way, the weighting coefficient Wji is repeatedly corrected until the deviation becomes equal to or less than a predetermined value. Initially, the weighting coefficients are randomly given by generating random numbers, so the deviation is naturally large, but the output signal value gradually approaches the teacher signal value. At this time, (1)
- In equation (4), the value that is changed is the weighting coefficient value Wj
Since there is only i, the learning result is reflected in the distribution of Wji values.

このように偏差を修正していく方法は誤差逆伝搬法とよ
ばれ、Rumelhartらによって考案された公知技
術を利用する。詳細は文献(Parallell Di
stributed Processing、MIT 
Press、 Vol、1.(1986))を参照され
たい。このような、学習方法そのものは公知であるが、
本発明は、特に異なる複数時点の履歴パターンデータ群
を繰返し学習させて、オペレータの過去の経験に匹敵す
るパターン把握能力がニューラルネットの重み係数wj
jの分布に蓄積記憶されていく。これにより、オペレー
タの過去の経験と同等の作用を持たせるようにした。
The method of correcting the deviation in this manner is called the error backpropagation method, and uses a known technique devised by Rumelhart et al. For details, see the literature (Parallel Di
distributed processing, M.I.T.
Press, Vol. 1. (1986)). Although this learning method itself is well known,
In particular, the present invention repeatedly learns a group of historical pattern data at different points in time, and the weighting coefficient w
It is accumulated and stored in the distribution of j. This allows the system to have the same effect as the operator's past experience.

複数時点1=1□+t21t3?・・・t、における履
歴パターンデータ群の学習方法を以下に説明する。複数
の履歴パターンデータ群は日tを任意に変えて学習する
。この日tよ1t21t3t・・・t、はオペレータが
選択する場合と、自動的に選択する場合があり、以下に
両者を説明する。
Multiple time points 1=1□+t21t3? ... t, a learning method for the historical pattern data group will be described below. A plurality of historical pattern data groups are learned by arbitrarily changing the date t. This day t, 1t21t3t...t may be selected by the operator or automatically, and both will be explained below.

オペレータが選択する場合とは、後で運転に反映させた
いと考えるような、変数値Y工〜Ynの代表的なパター
ンや、後日参考にしたい異常時のパターンである。結果
的に、ニューラルネットはこれら学習した内容に応じて
結果を出力するので、この選択は重要である。オペレー
タに選択をまかせるのは、このオペレータの持つ経験的
で総合的なデータ判断能力に頼るものである。この場合
、学習させるパターンは、異なる日におけるパターンで
あり、複数のパターンを繰返し学習させる。
The operator's selection is a typical pattern of variable values Y~Yn that he/she would like to reflect in the operation later, or a pattern for an abnormality that he/she would like to refer to later. As a result, the neural network outputs results according to what it has learned, so this selection is important. Leaving the selection to the operator relies on the operator's empirical and comprehensive ability to judge data. In this case, the patterns to be learned are patterns on different days, and a plurality of patterns are repeatedly learned.

これによりオペレータの過去の経験に匹敵するパターン
把握能力をニューラルネットが身につける。
This gives the neural network the ability to grasp patterns comparable to the operator's past experience.

オペレータによる日tの設定は交信手段46を介するマ
ンマシン会話により行う。例えば、1月の代表的パター
ンから12月の代表的なパターンまで12パターンを各
々学習する。
The operator sets the date t through man-machine conversation via the communication means 46. For example, 12 patterns are learned from a typical pattern for January to a typical pattern for December.

他方、自動的に行う場合には、事前にデータ列の統計解
析を必要とする。すなわち、統計解析により最も発生頻
度が高い場合を求めて正常時の代表例とみなしてこれを
学習させ、一方で、発生頻度が低い場合を異常時の代表
例とみなしてこれらを学習させる。
On the other hand, when it is performed automatically, statistical analysis of the data string is required in advance. That is, the case with the highest frequency of occurrence is determined by statistical analysis and is regarded as a representative example of normal conditions, and this is learned, while the case of low occurrence frequency is regarded as a typical example of abnormal conditions and these are learned.

このようにオペレータまたは自動により選択された複数
時点t”ti lt2 Ft3 、・・・t、における
履歴パターンデータ群は第3図に示すようになる。
The history pattern data group at multiple time points t"ti lt2 Ft3, . . . t, selected by the operator or automatically in this way is shown in FIG.

次に、(2)の予測用ニューラルネット72による予測
工程を説明する。予測用ニューラルネット72の構成を
第7図に示す。第1図に示したように、予測用ニューラ
ルネット72では学習用ニューラルネット71での学習
結果、すなわち、重み係数値Wjiの分布に基づいて需
要パターンを予測するものである。学習の結果得られた
重み係数Wji(3←2)及びWji(2←1)の値が
予測用ニューラルネット72に出力される。これらを用
いて予測を行なう。この方法を第8図を用いて説明する
。第8図に示すように、まず入力層710に入力層パタ
ーンとして、当日(t=0)を基準に設定した変数値Y
 i(Gの当日予想値と、GとQとの前日、前々日の値
)を入力I 710に入力する。次に、(1)−(4)
式を用いた計算により出力N730に需要パターンが出
力層パターンとして出方される。需要パターンとは第1
図中の出力層730のQ (o、i)*(ただしCI 
−24)である。本実施例では、この計算を「予測」と
いう。予測による計算値は、学習したパターンに依存す
るので、学習するパタ−ンは異なる時刻において代表的
なパターン、あるいは注目すべき異常時のパターンで、
なければならないことは前述した通りである。
Next, the prediction process using the prediction neural network 72 (2) will be explained. The configuration of the prediction neural network 72 is shown in FIG. As shown in FIG. 1, the prediction neural network 72 predicts a demand pattern based on the learning results of the learning neural network 71, that is, the distribution of weighting coefficient values Wji. The values of weighting coefficients Wji (3←2) and Wji (2←1) obtained as a result of learning are output to the prediction neural network 72. Predictions are made using these. This method will be explained using FIG. 8. As shown in FIG. 8, first, as an input layer pattern in the input layer 710, a variable value Y is set based on the current day (t=0).
Input i (the predicted value of G for the current day, and the values of G and Q from the previous day and the day before the previous day) to the input I 710. Next, (1)-(4)
A demand pattern is output as an output layer pattern at the output N730 by calculation using the formula. What is the demand pattern?
Q (o, i) * (however, CI
-24). In this embodiment, this calculation is called "prediction." The calculated value by prediction depends on the learned pattern, so the pattern to be learned is a typical pattern at different times or a pattern at a noteworthy abnormality.
What must be done is as described above.

この予測操作は、当日の運転開始前(普通は前日)に行
なう。すなわち、前々日までのQとGとのパターンを2
日分と、当日の外乱因子の予想値とを入力すると、当日
の需要パターンがニューラルネットにより予測される。
This prediction operation is performed before the start of the day's operation (usually the day before). In other words, the pattern of Q and G up to two days ago is 2
By inputting the number of days and the expected value of the disturbance factor for that day, the neural network predicts the demand pattern for that day.

運転制御工程75では、この需要パターンQ (0,i
)本(ただしCl−24)の信号72Sを受けて、流量
の目標値信号75Sをポンプ22に出力して流量を制御
する。需要パターンQ (0,i)*は本実施例では1
時間毎の流量であるが、この時間単位は任意に設定でき
る。勿論、時間間隔が小さければ予測精度は向上する。
In the operation control process 75, this demand pattern Q (0,i
) Upon receiving the signal 72S (Cl-24), a target flow rate signal 75S is output to the pump 22 to control the flow rate. Demand pattern Q (0, i)* is 1 in this example
Although the flow rate is for each hour, the time unit can be set arbitrarily. Of course, the smaller the time interval, the better the prediction accuracy.

設定した時間間隔(本実施例では1時間)が長いために
短い時間(例えば1分間)の流量を予測できない場合に
は、数学的な補間により予測する。
If the set time interval (one hour in this embodiment) is too long to predict the flow rate over a short period of time (for example, one minute), the prediction is performed by mathematical interpolation.

同時に、目標値(予測結果)の流量信号75Sを交信手
段46に表示して、必要に応じてオペレータ101の選
択により実際の流量を補正する。例えば、予測流量に対
して比例係数に工を乗じ、定数に2を加算するなどの補
正を行ない、この補正値を再び流量信号75Sとしてポ
ンプ22に出力し、この流量だけポンプ22が水を供給
する。
At the same time, the flow rate signal 75S of the target value (prediction result) is displayed on the communication means 46, and the actual flow rate is corrected according to selection by the operator 101 as necessary. For example, the predicted flow rate is corrected by multiplying the proportional coefficient by the factor and adding 2 to the constant, and outputs this correction value again to the pump 22 as the flow rate signal 75S, and the pump 22 supplies water by this flow rate. do.

本実施例の効果について以下に述べる。従来の統計的予
測方法や知識工学による需要パターン予測方法では、多
量のデータ解析やオペレータへのインタビューなど多く
の労力を要していたが、本発明を適用すれば、これらを
行なわずに、オペレータが実施している「実績と前例に
即した運転」を行なうことができる。また、知識工学で
は結論が出ないような場合にも需要パターンを予想する
ことができる。さらには、学習を随時行なうことが可能
であるので、状況の変化に迅速に追随して学習しかつ予
測することができる。
The effects of this embodiment will be described below. Conventional statistical forecasting methods and demand pattern forecasting methods using knowledge engineering required a lot of effort such as analyzing large amounts of data and interviewing operators, but by applying the present invention, operators can It is possible to carry out ``operation in line with actual results and precedents,'' which is carried out by the company. Furthermore, knowledge engineering can predict demand patterns even in cases where no conclusion can be drawn. Furthermore, since learning can be performed at any time, it is possible to quickly follow changes in the situation, learn and predict.

次に、他の実施例を第9図を用いて説明する。この実施
例は先に説明した第1図の実施例と同様の構成であるが
、ニューラルネットの構成が曜日毎に分割されている点
が異なる。これは、需要パターンが曜日毎に特徴的なパ
ターンを示すことに着目して、曜日ごとに学習パターン
を用意した実施例である。第8図に示すように、学習工
程におけるニューラルネットは月曜日の学習用ニューラ
ルネットを7101、火曜日を71D2、水曜日を71
D3、木標日を71D4、金曜日を71D5、土曜日を
71D6、日曜日を71D7として構成される。71D
1−7107はそれぞれ第1図の71に相当する。同様
に予測工程では、予測用ニューラルネットの72DI 
−72D7までを用意する。
Next, another embodiment will be described using FIG. 9. This embodiment has the same configuration as the previously described embodiment shown in FIG. 1, except that the neural network configuration is divided for each day of the week. This is an example in which learning patterns are prepared for each day of the week, focusing on the fact that the demand pattern shows a characteristic pattern for each day of the week. As shown in Figure 8, the neural networks in the learning process are 7101 for Monday, 71D2 for Tuesday, and 71D for Wednesday.
D3, wooden marker day as 71D4, Friday as 71D5, Saturday as 71D6, and Sunday as 71D7. 71D
1-7107 respectively correspond to 71 in FIG. Similarly, in the prediction process, the 72DI of the prediction neural network
Prepare up to -72D7.

これらのニューラルネットにより各々曜日毎に学習と予
測を行なう。運転制御工程75は第1図の実施例と同様
である。第9図の実施例では曜日毎の需要パターン変化
を精度良く予想できる効果がある。
These neural networks perform learning and prediction for each day of the week. The operation control process 75 is similar to the embodiment of FIG. The embodiment shown in FIG. 9 has the effect of being able to accurately predict changes in demand patterns for each day of the week.

第10図の実施例は、天候毎にネットを分割した実施例
である。学習用ニューラルネットは晴れのパターンを学
習するニューラルネットを71T1、曇りのパターンを
学習するニューラルネットを71T2、雨(雪を含む)
のパターンを学習するニューラルネットを71D3とし
て構成される。71T1−71T3はそれぞれ第1図の
71に相当する。同様に予測用ニューラルネットとして
72T1−72T3までを用意する。これらのニューラ
ルネットにより各々天候毎に学習と予測を行なう。運転
制御工程75は第1図の実施例と同様である。第10図
の実施例では天候毎の需要パターン変化を精度良く予想
できる効果がある。
The embodiment shown in FIG. 10 is an embodiment in which the net is divided according to weather. The learning neural networks are 71T1, a neural network that learns sunny patterns, 71T2, a neural network that learns cloudy patterns, and rain (including snow).
The neural network that learns the pattern is configured as 71D3. 71T1-71T3 correspond to 71 in FIG. 1, respectively. Similarly, neural networks 72T1 to 72T3 are prepared as prediction neural networks. These neural networks perform learning and prediction for each weather type. The operation control process 75 is similar to the embodiment of FIG. The embodiment shown in FIG. 10 has the effect of accurately predicting changes in demand patterns depending on the weather.

以上、本発明の一実施例を水需要パターン予測と水供給
プラント運転方法への適用を例に説明した。同様の方法
は、過去の履歴や運転実績に応じて運転がなされている
プラント、例えば下水処理場の流入量予測などの予測と
運転制御へ適用できる。具体的に説明すると、下水処理
プラントの流入下水流量パターン予測では、流入下水流
量と外乱因子を履歴パターンデータファイル71Fに記
憶し、第1図の実施例のQが流入下水流量となる。
An embodiment of the present invention has been described above, taking as an example the application to water demand pattern prediction and a water supply plant operating method. A similar method can be applied to prediction and operation control of plants that are operated according to past history and operation results, such as inflow prediction of sewage treatment plants. Specifically, in predicting the inflow sewage flow rate pattern of a sewage treatment plant, the inflow sewage flow rate and disturbance factors are stored in the history pattern data file 71F, and Q in the embodiment of FIG. 1 is the inflow sewage flow rate.

〔発明の効果〕〔Effect of the invention〕

従来の統計的予測方法や知識工学による需要パターン予
測方法では、多量のデータ解析やオペレータへのインタ
ビューなど多くの労力を要していた。本発明を適用すれ
ば、多量のデータ解析やオペレータへのインタビューを
行なわずに、オペレータが実施している「実績と前例に
即した運転」を行なうことができる。また、知識工学で
は結論が出ないような場合にも需要パターンを予想する
ことができる。また、学習を随時行なうことが可能であ
るので、状況の変化に迅速に追随して予測することがで
きる。さらには、需要パターンの曜日毎の特徴や天候毎
の特徴を考慮して予測することができるので、従来法よ
り精度が高い予測を行なうことができる。
Conventional statistical forecasting methods and demand pattern forecasting methods using knowledge engineering require a lot of effort, such as analyzing large amounts of data and interviewing operators. By applying the present invention, it is possible to "operate in accordance with actual results and precedents" that operators are currently implementing, without analyzing a large amount of data or interviewing operators. Furthermore, knowledge engineering can predict demand patterns even in cases where no conclusion can be drawn. Furthermore, since learning can be performed at any time, changes in the situation can be quickly followed and predicted. Furthermore, since predictions can be made taking into consideration the characteristics of the demand pattern for each day of the week and the characteristics for each weather, it is possible to perform predictions with higher accuracy than conventional methods.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例を示す構成図、第2図は履歴デ
ータファイルを説明する説明図、第3図は学習パターン
の説明図、第4図はニューラルネットの構成図、第5図
はニューロン素子モデルを示す説明図、第6図はニュー
ロン素子モデルでの信号変換を示す特性図、第7図と第
8図は予測工程を説明する説明図、第9図と第10図は
本発明の他の実施例を示す構成図である。 21・・・配水池、22・・・ポンプ、46・・・交信
手段、101・・・オペレータ、71F・・・履歴パタ
ーンデータファイル、71・・・学習工程、72・・・
予測工程、75・・・運転制御工程、710・・・入力
層、720・・・中間層、730・・・出力層、740
・・・比較層、750・・・教師層、701・・ニュー
ロン素子モデル。 第2因 第3図 第7図 第8図 ±h 入力層 第5図 第4図 第9図 7Rり 第6図
Fig. 1 is a configuration diagram showing an embodiment of the present invention, Fig. 2 is an explanatory diagram explaining a history data file, Fig. 3 is an explanatory diagram of a learning pattern, Fig. 4 is a configuration diagram of a neural network, and Fig. 5 is an explanatory diagram showing the neuron element model, Fig. 6 is a characteristic diagram showing signal conversion in the neuron element model, Figs. 7 and 8 are explanatory diagrams explaining the prediction process, and Figs. 9 and 10 are from this book. FIG. 3 is a configuration diagram showing another embodiment of the invention. 21... Water distribution reservoir, 22... Pump, 46... Communication means, 101... Operator, 71F... History pattern data file, 71... Learning process, 72...
Prediction process, 75... Operation control process, 710... Input layer, 720... Middle layer, 730... Output layer, 740
... Comparison layer, 750 ... Teacher layer, 701 ... Neuron element model. 2nd factor Figure 3 Figure 7 Figure 8 ±h Input layer Figure 5 Figure 4 Figure 9 Figure 7R Figure 6

Claims (1)

【特許請求の範囲】 1、時間と共に変化する複数の外乱変数値の予想値に応
じて対応する需要パターンを予測する方法であって、 入力層、少なくとも1層の中間層、および出力層からな
る階層構造の神経回路モデルを備え、プラントの過去の
異なる、複数の実績需要パターンと複数の実績外乱変数
値とを入力すると共に、当該入力に対応する実績需要パ
ターンを教師パターンとして、前記神経回路モデルを学
習させ、 該学習した神経回路モデルに、未学習の複数の外乱変数
値の予想値を入力することにより、対応する需要パター
ンを予測することを特徴とする需要パターン予測方法。 2、請求項1で予測する需要パターンは、水供給プラン
トの水需要パターンであることを特徴とする需要パター
ン予測方法。 3、請求項1で予測する需要パターンは、下水処理場プ
ラントの流入水量パターンであることを特徴とする需要
パターン予測方法。 4、請求項1〜3のいずれか1項において、予測した需
要パターンを目標パターンとして、水供給プラントまた
は下水処理場プラントの運転を制御することを特徴とす
るプラント運転方法。
[Claims] 1. A method for predicting a corresponding demand pattern according to expected values of a plurality of disturbance variable values that change over time, comprising an input layer, at least one intermediate layer, and an output layer. The neural circuit model is equipped with a neural circuit model having a hierarchical structure, and inputs a plurality of different actual demand patterns and a plurality of actual disturbance variable values from the past of the plant, and uses the actual demand pattern corresponding to the input as a teacher pattern. A demand pattern prediction method comprising: learning a neural circuit model; and inputting expected values of a plurality of unlearned disturbance variable values into the learned neural circuit model to predict a corresponding demand pattern. 2. A demand pattern prediction method, wherein the demand pattern predicted in claim 1 is a water demand pattern of a water supply plant. 3. A demand pattern prediction method, wherein the demand pattern predicted in claim 1 is an inflow water flow rate pattern of a sewage treatment plant. 4. A plant operating method according to any one of claims 1 to 3, characterized in that the operation of a water supply plant or a sewage treatment plant is controlled using the predicted demand pattern as a target pattern.
JP1271680A 1989-10-20 1989-10-20 Demand pattern predicting method and plant operating method Pending JPH03134703A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1271680A JPH03134703A (en) 1989-10-20 1989-10-20 Demand pattern predicting method and plant operating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1271680A JPH03134703A (en) 1989-10-20 1989-10-20 Demand pattern predicting method and plant operating method

Publications (1)

Publication Number Publication Date
JPH03134703A true JPH03134703A (en) 1991-06-07

Family

ID=17503376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1271680A Pending JPH03134703A (en) 1989-10-20 1989-10-20 Demand pattern predicting method and plant operating method

Country Status (1)

Country Link
JP (1) JPH03134703A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372046A (en) * 1991-06-20 1992-12-25 Hitachi Ltd Method and device for predicting demand amount
JPH05119808A (en) * 1991-10-25 1993-05-18 Toshiba Corp Water distribution quantity pattern predicting device
JPH05303407A (en) * 1992-04-28 1993-11-16 Hitachi Ltd Method and device for controlling the number of running pumps in drainage pump station
US5448476A (en) * 1993-06-17 1995-09-05 Kabushiki Kaisha Toshiba Distributed water flow predicting device
JP2007047945A (en) * 2005-08-08 2007-02-22 Matsushita Electric Ind Co Ltd Prediction device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372046A (en) * 1991-06-20 1992-12-25 Hitachi Ltd Method and device for predicting demand amount
JPH05119808A (en) * 1991-10-25 1993-05-18 Toshiba Corp Water distribution quantity pattern predicting device
JPH05303407A (en) * 1992-04-28 1993-11-16 Hitachi Ltd Method and device for controlling the number of running pumps in drainage pump station
US5448476A (en) * 1993-06-17 1995-09-05 Kabushiki Kaisha Toshiba Distributed water flow predicting device
JP2007047945A (en) * 2005-08-08 2007-02-22 Matsushita Electric Ind Co Ltd Prediction device

Similar Documents

Publication Publication Date Title
Piras et al. Heterogeneous artificial neural network for short term electrical load forecasting
Tasadduq et al. Application of neural networks for the prediction of hourly mean surface temperatures in Saudi Arabia
Srinivasan et al. A neural network short-term load forecaster
Srinivasan et al. Demand forecasting using fuzzy neural computation, with special emphasis on weekend and public holiday forecasting
Hsu et al. Regional load forecasting in Taiwan––applications of artificial neural networks
AlFuhaid et al. Cascaded artificial neural networks for short-term load forecasting
US5448476A (en) Distributed water flow predicting device
Yazdani-Chamzini et al. Forecasting gold price changes by using adaptive network fuzzy inference system
Huang et al. A new artificial intelligent peak power load forecaster based on non-fixed neural networks
Senjyu et al. Next day load curve forecasting using recurrent neural network structure
JPH0315902A (en) Method and system for supporting process operation
US7403928B2 (en) Identify data sources for neural network
Choueiki et al. Building a'quasi optimal'neural network to solve the short-term load forecasting problem
Luthuli et al. Short term load forecasting using artificial intelligence
JPH03134703A (en) Demand pattern predicting method and plant operating method
Rashid et al. Auto-regressive recurrent neural network approach for electricity load forecasting
CN109146191B (en) Short-term power load prediction method and system based on generic implication model
JP3321308B2 (en) Plant prediction controller
Marwala et al. Univariate modelling of electricity consumption in South Africa: neural networks and neuro-fuzzy systems
CN107464015A (en) A kind of short term and power predicating method that possess fusing mechanism based on electricity consumption behavior
Al-Tabtabai et al. Construction project control using artificial neural networks
JP2000163394A (en) Method for predicting water distribution demand amount
Barzamini et al. Short term load forecasting for iran national power system and its regions using multi layer perceptron and fuzzy inference systems
JPH04220758A (en) Time sequence data prediction and prediction recognition method
JP2698692B2 (en) Water distribution flow prediction system