JP2564405B2 - Knowledge acquisition method and process operation support method - Google Patents

Knowledge acquisition method and process operation support method

Info

Publication number
JP2564405B2
JP2564405B2 JP1271677A JP27167789A JP2564405B2 JP 2564405 B2 JP2564405 B2 JP 2564405B2 JP 1271677 A JP1271677 A JP 1271677A JP 27167789 A JP27167789 A JP 27167789A JP 2564405 B2 JP2564405 B2 JP 2564405B2
Authority
JP
Japan
Prior art keywords
layer
value
input
fuzzy rule
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1271677A
Other languages
Japanese (ja)
Other versions
JPH03134704A (en
Inventor
研二 馬場
伊智朗 圓佛
昭二 渡辺
捷夫 矢萩
晴美 松崎
直樹 原
幹雄 依田
智則 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1271677A priority Critical patent/JP2564405B2/en
Publication of JPH03134704A publication Critical patent/JPH03134704A/en
Application granted granted Critical
Publication of JP2564405B2 publication Critical patent/JP2564405B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、一般プロセスの運転支援制御にかかわり、
特に、ファジィ応用システムのためのファジィルール自
動獲得、並びにそれを利用した運転支援と制御に関す
る。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of application] The present invention relates to driving support control of a general process,
In particular, it relates to automatic acquisition of fuzzy rules for fuzzy application systems, and driving support and control using them.

〔従来の技術〕[Conventional technology]

従来のプロセス制御法として、プロセスの数学的モデ
ル化が構築困難な場合には、人間の思考をモデル化する
方法が用いられる。この方法のひとつにファジィ論理を
応用した方法が知られている。ファジィ論理を応用する
場合には、人間のあいまいな感覚を定量的に取り扱うこ
とがポイントになり、この定量化関数をメンバーシップ
関数という。また、あいまなルール(知識)を用いて、
推論を行ない、人間のようにあいまいな結論を導くこと
ができる。
As a conventional process control method, a method of modeling human thought is used when mathematical modeling of a process is difficult to construct. A method applying fuzzy logic to one of the methods is known. When applying fuzzy logic, the point is to deal with human vague sense quantitatively, and this quantification function is called membership function. Also, using Aimana rules (knowledge),
You can make inferences and draw ambiguous conclusions like humans.

〔発明が解決しようとする課題〕[Problems to be Solved by the Invention]

ファジィ応用システムでは、ポイントとなるメンバー
シップ関数の設定は試行錯誤に異存しており、論理的な
決定方法は確立されていない。また、ファジィルールに
ついてもあいまいな「もし…ならば…せよ」といった関
係を確信度を用いて表現(これを「確信度付きファジィ
ルール」という)するが、この方法はオペレータへのイ
ンタビューを通してなされている。このようにして得ら
れたメンバーシップ関数と確信度付きファジルールは両
者がうまく調和しないと制御への応用が困難である。
In the fuzzy application system, the setting of the membership function, which is the point, exists by trial and error, and the logical decision method has not been established. Also, regarding fuzzy rules, the ambiguous "if ... if ..." relation is expressed using certainty (this is called "fuzzy rule with certainty"), and this method is performed through interviews with operators. There is. It is difficult to apply the membership function and the fuzzy rule with certainty obtained in this way to control unless the two are well matched.

このため、システム運用前には前述の作業に経験と多
大の労力とを必要とする。さらに、システム運用後には
メンバーシップ関数とファジィルールの追加、削除、改
良などソフトウェアメンテナンスにも多大の労力を要す
る。
Therefore, before the operation of the system, the above-mentioned work requires experience and much labor. Furthermore, after system operation, much effort is required for software maintenance such as addition, deletion and improvement of membership functions and fuzzy rules.

一例として下水処理場では、オペレータはプラントの
操作を行なう際、過去の経験と運転実績に着目すると共
に、現時点の状況を踏まえて行なっており、煩雑で継続
的な監視と手動制御が不可欠であった。
As an example, at a sewage treatment plant, when operating the plant, the operator pays attention to past experience and operating records, and also takes into consideration the current situation, which makes complicated and continuous monitoring and manual control indispensable. It was

〔課題を解決するための手段〕[Means for solving the problem]

本発明は、未知のメンバーシップ関数の確信度付きフ
ァジィルールとの内、メンバーシップ関数を人間が設定
すると、確信度付きファジィルールが自動生成すること
を第1の目的とし、これらを利用した運転支援制御を行
なうことを第2の目的とする。これを達成するために、
ニューラルネット(神経回路モデル)を利用する。
The first object of the present invention is to automatically generate a fuzzy rule with a certainty factor when a human being sets a membership function among the fuzzy rules with a certainty factor of an unknown membership function. The second purpose is to perform support control. To achieve this,
Uses a neural network (neural circuit model).

本発明では、過去の実績に基づくプラント評価と操作
(制御)をニューラルネット行なうことを特徴とする。
The present invention is characterized by performing a neural network for plant evaluation and operation (control) based on past results.

本発明では、具体的には、入力層と少なとも1層の中
間層及び出路層を有する階層構造の神経回路モデルを用
い、入力層にプロセスの過去を任意の時刻tにおける計
測値とそれより過去にさかのぼって複数時点での計測値
と操作量をメンバーシップ値に変換して入力し、教師信
号値には、プロセスの前記時刻tにおける操作量をメン
バーシップ値に変換したものを用いて、神経回路モデル
の出力層からの出力値と教師信号値との差が小さくなる
ように重み係数の大きさを修正することにより入力値と
教師信号値との関係を学習する。
In the present invention, specifically, a neural network model having a hierarchical structure having an input layer and at least one intermediate layer and an outgoing layer is used, and the past of the process is measured in the input layer at an arbitrary time t and The measured values and the manipulated variables at a plurality of time points are converted back into the membership value and inputted, and the teacher signal value is obtained by converting the manipulated variable at the time t of the process into the membership value. The relationship between the input value and the teacher signal value is learned by modifying the magnitude of the weighting coefficient so that the difference between the output value from the output layer of the neural network model and the teacher signal value becomes small.

そして、学習済みの前記神経回路モデルの入力層から
中間層に至る重み係数と中間層から出力層に至る重み係
数とに基づいて、入力信号と教師信号との間の知識をフ
ァジィルールとして獲得する。
Then, based on the weighting coefficient from the input layer to the intermediate layer and the weighting coefficient from the intermediate layer to the output layer of the learned neural circuit model, knowledge between the input signal and the teacher signal is acquired as a fuzzy rule. .

得られたファジルールに基づき、推論を実行し運転操
作を支援または制御する。
Based on the obtained fuzzy rules, inference is executed to support or control driving operation.

〔作用〕 本発明では、ニューラルネットによる学習・予測能力
をファジィ制御における確信度付きファジィルールの自
動獲得方法とその利用に適用した。
[Operation] In the present invention, the learning / prediction ability by the neural network is applied to an automatic acquisition method of a fuzzy rule with confidence in fuzzy control and its use.

本発明では、予め設定したメンバーシップ関数を用い
て変換されたメンバーシップ値をニューラルネットに入
力し、過去の履歴を学習するようにしたので、オペレー
タの持つあいまいな推理を自動的に行ない得るものであ
る。
In the present invention, the membership value converted by using the preset membership function is input to the neural net to learn the past history, so that the vague reasoning possessed by the operator can be automatically performed. Is.

〔実施例〕〔Example〕

本発明は、まず、過去の複数時点での外乱、プロ
セス状態量、評価量、プロセス操作量を、予め設定
したメンバーシップ関数でメンバーシップ値に変換し、
この変換値をニューラルネットに入力して〜の関係
を学習する。学習済みニューラルネットの重み係数分布
から、確信度付きファジィルールを導出し、これに基づ
き推論を実行し運転操作を支援または制御するものであ
る。この実行工程は以下のとおりである。
The present invention first converts disturbance, process state amount, evaluation amount, process operation amount at past multiple time points into a membership value by a preset membership function,
This converted value is input to the neural network to learn the relationship between. A fuzzy rule with certainty factor is derived from the weight coefficient distribution of the learned neural network, and inference is performed based on this to support or control the driving operation. This execution process is as follows.

(1)メンバーシップ関数で〜の値をメンバーシッ
プ値に変換 (2)学習用ニューラルネットによる学習工程 (3)学習済みニューラルネットからの確信度付きファ
ジィルール獲得工程 (4)ファジィルール診断工程 (5)ファジィ推論工程 (6)学習済みニューラルネットの予測工程 (7)プロセス運転操作制御工程からなる。
(1) Converting the value of ~ into a membership value with a membership function (2) Learning process by a learning neural network (3) Process of acquiring a fuzzy rule with certainty from a learned neural network (4) Fuzzy rule diagnosis process ( 5) Fuzzy inference process (6) Prediction process of learned neural network (7) Process operation control process.

本発明を下水処理プロセスに適用した実施例を第1図
を用いて説明する。
An embodiment in which the present invention is applied to a sewage treatment process will be described with reference to FIG.

下水処理プロセスの構成と動作を以下に説明する。最
初沈殿池9では、流入下水中の浮遊物質の一部が重力沈
降により除去される。曝気槽15には最初沈殿池9から越
流した下水と返送汚泥管16P1からの返送汚泥が流入す
る。曝気槽15にはブロワー17から制御バルブ17A,17Bを
経て空気が供給され、下水と返送汚泥が混合攪拌され
る。返送汚泥(活性汚泥)は供給された空気中の酸素を
吸収し、下水中の有機物が分解されて最終沈殿池16に導
かれる。最終沈殿池16では活性汚泥の重力沈降により活
性汚泥が沈降し上澄水は放流される。最終沈殿池16内に
沈降した活性汚泥は引き抜かれて、大部分の活性汚泥
は、返送汚泥として返送汚泥ポンプ16C1から返送汚泥管
16P1を通して曝気槽15に返送される。残りは余剰汚泥と
して余剰汚泥管16P2と余剰汚泥ポンプ16C2により排出さ
れる。
The structure and operation of the sewage treatment process will be described below. First, in the sedimentation basin 9, a part of the suspended matter in the inflowing sewage is removed by gravity sedimentation. First, the sewage overflowed from the settling tank 9 and the returned sludge from the returned sludge pipe 16P1 flow into the aeration tank 15. Air is supplied to the aeration tank 15 from the blower 17 through the control valves 17A and 17B, and the sewage and the returned sludge are mixed and stirred. The returned sludge (activated sludge) absorbs oxygen in the supplied air, decomposes the organic matter in the sewage, and guides it to the final settling tank 16. In the final settling tank 16, the activated sludge is settled down by gravity and the supernatant water is discharged. The activated sludge settled in the final settling tank 16 is pulled out, and most of the activated sludge is returned as sludge from the returned sludge pump 16C1.
Returned to the aeration tank 15 through 16P1. The rest is discharged as excess sludge by the excess sludge pipe 16P2 and the excess sludge pump 16C2.

次に計測器について説明する。最初沈殿池9、曝器槽
15、最終沈殿池16には各々計測器9M,15M,16Mが設置され
る。計測項目は、流入下水量、浮遊物質濃度、化学的酸
素要求量、pH、窒素濃度、アンモニア濃度、硝酸性窒素
濃度、亜硝酸性窒素濃度、リン濃度、溶存酸素濃度、汚
泥界面高さ(SVI:Sludge Volume Index,など)、並びに
微生物や浮遊性物質の画像情報などである。
Next, the measuring instrument will be described. First settling tank 9, exposure tank
15 and final sedimentation tank 16 are equipped with measuring instruments 9M, 15M and 16M, respectively. Measurement items include inflow sewage, suspended solids concentration, chemical oxygen demand, pH, nitrogen concentration, ammonia concentration, nitrate nitrogen concentration, nitrite nitrogen concentration, phosphorus concentration, dissolved oxygen concentration, sludge interface height (SVI : Sludge Volume Index, etc.), and image information of microorganisms and airborne substances.

続いて、予測運転制御装置80の構成を説明する。予測
運転制御装置80のコンピュータシステムであり本発明の
説明を容易にするために第1図には処理のフロー図を示
してある。まず、履歴パターンデータファイル71Fは計
測器9M,15M,16Mのデータを順次記憶し、選択されたデー
タ列をメンバーシップ変換工程69に出力する。メンバー
シップ変換工程69は〜の値をメンバーシップ値に変
換しこの信号を学習用ニューラルネット71に出力する。
予測用ニューラルネット72は学習用ニューラルネット71
から信号71S1と71S2を受けて信号72Sを出力する。一
方、ファジィルール獲得工程73は学習用ニューラルネッ
ト71から信号71S1と71S2を受ける。ファジィルール診断
工程74は交信手段46からの信号とファジィルール獲得工
程73から信号を受け、ファジィルール候補ベース60Bま
たはファジイルールベース60Aに記憶する。ファジィ論
理機構61はファジィルールベース60A,60Cからの信号を
受けて運転制御工程75に信号61Sを出力する。運転制御
工程75は信号61Sと信号72Sを受けて信号75Sを出力し、
余剰汚泥ポンプ16C2、返送汚泥ポンプ16C1、ブロワー1
7、制御バルブ17A,17Bを制御する。交信手段46はオペレ
ータ101の介在により履歴パターンデータファイル71F、
学習用ニューラルネット71、予測用ニューラルネット7
2、運転制御工程75及びファジィルール診断工程74と交
信する。なお、図中「ネットワーク」と記載されている
部分は後述する第5図の実線702に相当する多数の配線
(または情報の連絡経路)を示す。
Next, the configuration of the predictive operation control device 80 will be described. The computer system of the predictive operation control device 80 is shown in FIG. 1 to facilitate the explanation of the present invention. First, the history pattern data file 71F sequentially stores the data of the measuring instruments 9M, 15M, 16M, and outputs the selected data string to the membership conversion process 69. The membership conversion step 69 converts the value of to a membership value and outputs this signal to the learning neural net 71.
The prediction neural network 72 is a learning neural network 71.
From which signals 71S1 and 71S2 are received and a signal 72S is output. On the other hand, the fuzzy rule acquisition step 73 receives signals 71S1 and 71S2 from the learning neural network 71. The fuzzy rule diagnosis step 74 receives a signal from the communication means 46 and a signal from the fuzzy rule acquisition step 73, and stores it in the fuzzy rule candidate base 60B or the fuzzy rule base 60A. The fuzzy logic mechanism 61 receives signals from the fuzzy rule bases 60A and 60C and outputs a signal 61S to the operation control process 75. The operation control process 75 receives the signal 61S and the signal 72S and outputs the signal 75S,
Excess sludge pump 16C2, Return sludge pump 16C1, Blower 1
7. Control valves 17A and 17B. The communication means 46 is a history pattern data file 71F, with the intervention of the operator 101.
Learning neural network 71, prediction neural network 7
2. Communicate with the operation control process 75 and the fuzzy rule diagnosis process 74. In addition, the part described as "network" in the drawing indicates a large number of wirings (or information communication paths) corresponding to a solid line 702 in FIG. 5 described later.

次に、予測運転制御装置80の動作を説明する。 Next, the operation of the predictive operation control device 80 will be described.

履歴パターンデータファイル71Fは、計測器9Mで計
測した外乱特性、計測器15Mで計測したプロセス状態
量、計測器16Mで計測したプロセス評価量、余剰汚
泥ポンプ16C2、返送汚泥ポンプ16C1、ブロワー17、制御
バルブ17A,17Bなどのプロセス操作量、以上〜の時
系列データを記憶する。
The history pattern data file 71F is a disturbance characteristic measured by the measuring instrument 9M, a process state amount measured by the measuring instrument 15M, a process evaluation amount measured by the measuring instrument 16M, a surplus sludge pump 16C2, a returning sludge pump 16C1, a blower 17, a control. The process operation amount of the valves 17A, 17B, etc., and time series data of the above are stored.

メンバーシップ変更工程69は、履歴パターンデータフ
ァイル71Fの中から自動的にまたは交信手段46からの指
示71Sにより、外管特性、プロセス状態量、プロ
セス評価量、プロセス操作量、以上〜の各々から
選択されたデータ列D1,D2,D3,D4を受け、メンバーシッ
プ値に変換する。各データ列は実際には複数の項目を含
むが、本実施例では説明を容易にするため代表の記号D1
〜D4で表すものとする。
The membership changing step 69 is selected from the history pattern data file 71F automatically or by the instruction 71S from the communication means 46 from the outer pipe characteristic, the process state amount, the process evaluation amount, the process operation amount, and each of the above items. The converted data strings D1, D2, D3, D4 are received and converted into membership values. Although each data string actually includes a plurality of items, in the present embodiment, the representative symbol D1 is used for ease of explanation.
It shall be represented by ~ D4.

学習用ニューラルネット71は変換されたメンバーシッ
プ値を用いて学習を実行し、実行結果71S1と71S2とが、
ファジィルール獲得工程73と予測用ニューラルネット72
とに出力される。
The learning neural network 71 executes learning using the converted membership value, and the execution results 71S1 and 71S2 are
Fuzzy rule acquisition process 73 and prediction neural network 72
And output to.

ファジィルール獲得工程73では71S1と71S2に基づいて
前記〜に関するファジィルール候補を記号または言
葉に変換する。ファジィルール診断工程74では、ファジ
ィルール獲得工程73で得たファジィルールを交信手段46
からの指示によりファジィルール候補ベース60Bまたは
ファジィルールベース60Aに格納する。ファジィ推論機
構61はファジィルールベース60Aと、あらかじめ入力し
たファジィルールベース60Cを受けて推論を実行し、運
転制御工程75に信号61Sを出力する。
In the fuzzy rule acquisition step 73, the fuzzy rule candidates related to the above are converted into symbols or words based on 71S1 and 71S2. In the fuzzy rule diagnosis process 74, the fuzzy rule obtained in the fuzzy rule acquisition process 73 is used as a communication means 46.
It is stored in the fuzzy rule candidate base 60B or the fuzzy rule base 60A according to the instruction from. The fuzzy inference mechanism 61 receives the fuzzy rule base 60A and the fuzzy rule base 60C input in advance, executes inference, and outputs a signal 61S to the operation control process 75.

一方、予測用ニューラルネット72では履歴パターンデ
ータファイル71Fの中から予測に必要なデータを選択し
て予測に使用する。予測結果の信号72Sは交信手段46に
表示すると共に、運転制御工程75に出力する。
On the other hand, the prediction neural network 72 selects data required for prediction from the history pattern data file 71F and uses it for prediction. The prediction result signal 72S is displayed on the communication means 46 and is output to the operation control process 75.

運転制御工程75は予測信号72Sと信号61Sとを受け、信
号75Sを出力して余剰汚泥ポンプ16C、返送汚泥ポンプ
16C1、ブロワー17、制御バルブ17A,17Bなどのプロセス
操作量を制御する。同時に、制御目標値信号75Sを交信
手段46に表示して、必要に応じてオペレータ101の選択
により実際の制御量を補正する。補正値は再び出力す
る。
The operation control process 75 receives the prediction signal 72S and the signal 61S and outputs the signal 75S to output the excess sludge pump 16C and the return sludge pump.
It controls the process operation amount of 16C1, blower 17, control valves 17A, 17B, etc. At the same time, the control target value signal 75S is displayed on the communication means 46, and the actual control amount is corrected by the selection of the operator 101 if necessary. The correction value is output again.

次に、第1図を用い本発明の動作を詳細に説明する。
説明には第2図以降を用いる。
Next, the operation of the present invention will be described in detail with reference to FIG.
2 and subsequent figures will be used for the description.

まず、データを履歴パターンデータファイル71Fへ記
憶する方法について第2図を用いて説明する。時刻t=
0の履歴パターンデータD1(0)〜D4(0)を履歴パタ
ーンデータファイル71Fに記憶する。これを繰り返して
t=0,−1,−2,…のデータを順次記憶する。時間間隔は
例えば1時間であるがこの時間設定により本発明の実施
は制約を受けない。
First, a method of storing data in the history pattern data file 71F will be described with reference to FIG. Time t =
The history pattern data D1 (0) to D4 (0) of 0 are stored in the history pattern data file 71F. By repeating this, the data of t = 0, -1, -2, ... Is sequentially stored. The time interval is, for example, one hour, but the implementation of the present invention is not restricted by this time setting.

メンバーシップ変換工程69を第3図を用いて説明す
る。第3図は予め設定したメンバーシップ関数の変換例
を表す。第3図ではD2の代表が溶存酸素濃度(以下DOと
略称する)の場合を例示し、DOの「高い」「普通」「低
い」という状態を各々メンバーシッ変換機能691H,691M,
691Lで変換して変換値D2H,D2M,D2Lとする。なお、変換
値D2H,D2M,D2Lを一括総称して記号でDF2と記す。変換機
能の横軸はプロセス状態量であるDOを示し、縦軸はそ
の度合いを0〜1の値で表す。一例としてメンバーシッ
プ変換機能691Lについて説明すると、DO値=0.5のメン
バーシップ値=0.9であり、このことは、DO値=0.5なら
ば0.9の度合い(メンバーシップ値)で「DOが低い」こ
とを表す。このようにして、全ての変数についてメンバ
ーシップ関数を予め定義しておき、データ例D1,D2,D3,D
4にメンバーシップ値に変換してDF1,DF2,DF3,DF4を得
る。なお、本例では「高い」「普通」「低い」の3つに
分類したが分類数は任意である。
The membership conversion process 69 will be described with reference to FIG. FIG. 3 shows a conversion example of a preset membership function. FIG. 3 illustrates the case where the representative of D2 is the dissolved oxygen concentration (hereinafter abbreviated as DO), and the states of “high”, “normal”, and “low” of the DO are respectively converted into member shift functions 691H, 691M,
Converted by 691L to obtain converted values D2H, D2M, D2L. The converted values D2H, D2M, D2L are collectively referred to as a symbol DF2. The horizontal axis of the conversion function shows DO which is the process state quantity, and the vertical axis shows the degree with a value of 0 to 1. To explain the membership conversion function 691L as an example, the membership value = 0.9 when the DO value = 0.5. This means that if the DO value = 0.5, "DO is low" with a degree of 0.9 (membership value). Represent In this way, membership functions are defined in advance for all variables, and data examples D1, D2, D3, D
Convert to a membership value of 4 to get DF1, DF2, DF3, DF4. It should be noted that in this example, there are three categories of “high”, “normal”, and “low”, but the number of categories is arbitrary.

続いて、学習工程における学習用ニューラルネット71
の動作を以下に説明する。学習用ニューラルネット71は
メンバーシップ値を受けて学習を実行する。このデータ
選択と学習方法を第4図を用いて以下に説明する。第4
図に示すように、DF1(すなわちD1H,D1M,D1L)〜DF4
(すなわちD4H,D4M,D4L)について任意の時刻t=t1
基準に過去にさかのぼってt1−1,t1−2,…をまず学習す
る。同様に、t=t2(t2≠t1)を基準にしてt2−1,t2
2,…のパターンデータを学習し、合計q個のパターンデ
ータを学習する。q個のパターン選択は過去の代表的な
パターンが望ましい。時刻tiは任意の時刻であるので、
常時学習を行えば新たな状況に対応する新たなファジィ
ルールを自動獲得できる。
Then, the learning neural network 71 in the learning process.
The operation of will be described below. The learning neural network 71 receives the membership value and executes learning. This data selection and learning method will be described below with reference to FIG. Fourth
As shown, DF1 (ie D1H, D1M, D1L) ~ DF4
(That is, D4H, D4M, D4L), first t 1 -1, t 1 -2, ... Similarly, t 2 −1, t 2 − based on t = t 2 (t 2 ≠ t 1 ).
The pattern data of 2, ... Are learned, and a total of q pieces of pattern data are learned. It is desirable to select a typical pattern in the past for selecting q patterns. Since the time ti is an arbitrary time,
If you constantly learn, you can automatically acquire new fuzzy rules corresponding to new situations.

学習はこれら一群のデータを入力用データと教師用デ
ータとに分けて行なう。第4図に示すように、入力層71
0には任意の時刻t(ただしt=t1,t2,…)におけるDF1
(t),DF2(t)と、時刻tから過去にさかのぼってDF
1(t−1)〜DF4(t−1)を順次入力する。ここで、
DF3(t−1),DF4(t−1)が追加されることに注意
されたい。以下t=t−2,t−3,…について同様であ
る。一方、教師層750には、DF3(t),DF4(t)を入力
する。学習は、入力層710、中間層720、出力層730、比
較層740、教師層750からなる構成の学習用ニューラルネ
ット71で行なう。
Learning is performed by dividing these groups of data into input data and teacher data. As shown in FIG. 4, the input layer 71
DF1 at any time t (where t = t 1 , t 2 , ...) Is 0
(T), DF2 (t) and DF going back to the past from time t
1 (t-1) to DF4 (t-1) are sequentially input. here,
Note that DF3 (t-1) and DF4 (t-1) are added. The same applies to t = t−2, t−3, ... On the other hand, DF3 (t) and DF4 (t) are input to the teacher layer 750. Learning is performed by the learning neural net 71 having a structure including an input layer 710, an intermediate layer 720, an output layer 730, a comparison layer 740, and a teacher layer 750.

学習の信号処理方法を以下に第5図を用いて説明す
る。第5図の構成と信号処理方法とは、前述した入力デ
ータと教師層750の設定法を除いて公知である。すなわ
ち、第5図の構成と信号処理方法はRumelhartによって
考案された公知技術(詳細は文献:Parallell Distribut
ed Processing,MIT Press,Vol.1,(1986))を参照され
たい。
A signal processing method for learning will be described below with reference to FIG. The configuration of FIG. 5 and the signal processing method are publicly known except for the input data and the setting method of the teacher layer 750 described above. That is, the configuration and signal processing method shown in FIG. 5 are well-known techniques devised by Rumelhart (for details, refer to the reference: Parallelell Distribut
ed Processing, MIT Press, Vol.1, (1986)).

第5図の構成と動作を説明する。第5図で○は、積分
演算とシグモイド変換機能を有するニューロン素子モデ
ル701であり、○と○とを連結する実線702はニューロン
素子モデル701間の情報のやりとりがあることを示す。
ここで、各層は有限数のニューロン素子モデルからな
り、隣接する各層のニューロン素子モデル間が全て連結
される。中間層720は複数層あって良いが、本実施例で
は説明の簡単のため中間層の数が一つの例を示す。ま
た、第5図において出力層730、比較層740、教師層750
はDF3(t),DF4(t)の2つであるが、一般的な表現
として複数の場合を図示した。第5図の構成をニューラ
ルネット(神経回路モデル)と称する。
The configuration and operation of FIG. 5 will be described. In FIG. 5, a circle indicates a neuron element model 701 having an integration operation and a sigmoid transformation function, and a solid line 702 connecting the circle and the circle indicates that information is exchanged between the neuron element models 701.
Here, each layer is composed of a finite number of neuron element models, and the neuron element models of adjacent layers are all connected. The intermediate layer 720 may have a plurality of layers, but in this embodiment, an example in which the number of intermediate layers is one is shown for simplicity of explanation. Also, in FIG. 5, the output layer 730, the comparison layer 740, and the teacher layer 750.
Are DF3 (t) and DF4 (t), but a plurality of cases are shown as general expressions. The configuration of FIG. 5 is called a neural network (neural circuit model).

次に、ニューロン素子モデル701の基本演算を第6図
で説明する。入力層710に入力するデータDF1〜DF4の各
々の時系列を一括(全部でn個あるとする)して第6図
に示すようにn個の変数値Y1〜Ynと記す。入力された信
号値Y1〜Ynの各々に重み係数Wjiを乗じ、さらにこれら
を加算する演算(積和演算)を(1)式で計算する。
Next, the basic operation of the neuron element model 701 will be described with reference to FIG. Batch time series of each of the data DF1~DF4 applied to the input layer 710 (total is n is) and referred to by the 6 n-number of variable values Y 1 -Yn as shown in FIG. Each of the input signal values Y 1 to Yn is multiplied by the weighting coefficient Wji, and the addition operation (sum of products operation) is calculated by the equation (1).

ここで、Yi(1):入力層(第1層)のYi値、Wji
(2←1):入力層(第1層)のi番目の変数から中間
層(第2層)のj番目のニューロン素子モデルへの重み
係数、Zj(2):中間層(第2層)のj番目のニューロ
ン素子モデルへの入力総和値である。
Where Yi (1): Yi value of the input layer (first layer), Wji
(2 ← 1): Weighting coefficient from the i-th variable of the input layer (first layer) to the j-th neuron element model of the intermediate layer (second layer), Zj (2): Intermediate layer (second layer) Is a sum total value of inputs to the j-th neuron element model of.

ニューロン素子モデル701では、Zj(2)の大小に応
じてここでの出力値を(2)式(シグモンド変換)で計
算する。
In the neuron element model 701, the output value here is calculated by the equation (2) (Sigmond transform) according to the magnitude of Zj (2).

Yj(2)=1/(1−e-Zj(2)) …(2) (2)式の計算内容は第7図のような非線形変換であ
るが、線形変換を適用しても同等の効果がえられる。計
算値Yj(2)は、さらに出力層へ送られ、出力層でも同
様の計算を実行する。
Yj (2) = 1 / (1-e- Zj (2) ) (2) The calculation contents of equation (2) are non-linear transformations as shown in FIG. The effect can be obtained. The calculated value Yj (2) is further sent to the output layer, and the output layer also performs the same calculation.

次に、ニューラルネットでの計算方法の概要について
説明する。前述した変数値Yi(1)は第5図の入力層71
0に入力され、この信号値は中間層720のニューロン素子
モデルに出力される。中間層720のニューロン素子モデ
ルではこれら出力値Yi(1)と重み係数Wij(2←1)
との積和Zj(2)を(1)式で計算し、この大小に応じ
て出力層730への出力値Yj(2)を(2)式で決定す
る。同様にして、中間層720の出力値Yj(2)はさらに
中間層(第2層)720と出力層(第3層)730との重み係
数Wij(3←2)との積和Zj(3)を(3)式で計算す
る。
Next, the outline of the calculation method in the neural network will be described. The above-mentioned variable value Yi (1) is the input layer 71 of FIG.
This signal value is input to 0, and this signal value is output to the neuron element model of the intermediate layer 720. In the neuron element model of the intermediate layer 720, these output values Yi (1) and weighting factors Wij (2 ← 1)
The sum of products Zj (2) is calculated by the equation (1), and the output value Yj (2) to the output layer 730 is determined by the equation (2) according to the magnitude. Similarly, the output value Yj (2) of the intermediate layer 720 is further the product sum Zj (3) of the weight coefficient Wij (3 ← 2) of the intermediate layer (second layer) 720 and the output layer (third layer) 730. ) Is calculated by the equation (3).

ここで、Yi(2):中間層(第2層)の値、Wji(3
←2):中間層(第2層)のi番目の変数からの出力層
(第3層)のj番目のニューロン素子モデルへの重み係
数、Zj(3):出力層(第3層)のj番目のニューロン
素子モデルへの入力総和値である。
Here, Yi (2): value of the intermediate layer (second layer), Wji (3
← 2): Weighting coefficient from the i-th variable of the intermediate layer (second layer) to the j-th neuron element model of the output layer (third layer), Zj (3): of the output layer (third layer) It is a sum total value input to the j-th neuron element model.

さらに、Zj(3)の大小に応じて出力層730への出力
値Yj(3)を(4)式で計算する。
Further, the output value Yj (3) to the output layer 730 is calculated by the equation (4) according to the magnitude of Zj (3).

Yj(3)=1/(1−e-Zj(3)) …(4) このようにして、出力層の計算値Yj(3)が得られ
る。Yj(3)は本実施例でDF3(t)*,DF4(t)*で
あり、*はニューラルネットの出力信号を表す。
Yj (3) = 1 / (1-e- Zj (3) ) (4) In this way, the calculated value Yj (3) of the output layer is obtained. Yj (3) is DF3 (t) *, DF4 (t) * in this embodiment, and * represents the output signal of the neural network.

ニューラルネットでの学習手段を説明する。まず、比
較層740で出力層730の信号740Sと教師信号層750の教師
信号750Sとを比較する。例えば、出力信号730SであるDF
4(t)*と教師信号750SであるDF4(t)との大小が各
々比較される。両者の誤差が小さくなるように、重み係
数Wji(3←2)及びWji(2←1)の大きさを修正す
る。この修正を用いて再度(1)−(4)式の計算を実
行し新たなDF4(t)*値を得る。この繰返しにより誤
差があらかじめ決められた値以下になるまで続ける。最
初は重み係数は乱数の発生によりランダムに与えるの
で、誤差は大きいが、出力信号値は次第に教師信号値に
近づく。この時、(1)−(4)式において値が変更さ
れるのは重み係数値Wjiだけであるから、学習結果はWji
値の分布に反映していくことに注意されたい。なお、予
測工程ではこのWji値を用いる。
A learning means using a neural network will be described. First, the comparison layer 740 compares the signal 740S of the output layer 730 with the teacher signal 750S of the teacher signal layer 750. For example, DF which is the output signal 730S
The magnitudes of 4 (t) * and DF4 (t), which is the teacher signal 750S, are compared. The magnitudes of the weighting factors Wji (3 ← 2) and Wji (2 ← 1) are corrected so that the error between them becomes small. Using this modification, the calculation of equations (1)-(4) is executed again to obtain a new DF4 (t) * value. This process is repeated until the error becomes equal to or less than a predetermined value. Initially, since the weighting coefficient is given randomly by the generation of random numbers, the error is large, but the output signal value gradually approaches the teacher signal value. At this time, since only the weighting coefficient value Wji is changed in the equations (1) to (4), the learning result is Wji.
Note that it will be reflected in the distribution of values. This Wji value is used in the prediction process.

このように誤差を修正していく方法は誤差逆伝搬法と
よばれ、Rumelhartらによって考案された前記公知技術
を利用する。この学習方法は公知であるが、本発明は特
に、異なる複数時刻(t=t1,t2,t3,…tq)の履歴パタ
ーンデータ群をメンバーシップ値に変換後繰返し学習さ
せる。この時、教師信号がアナロゲ値であることに特に
注意されたい。この結果、オペレータの過去の経験に匹
敵するパターン把握能力がニューラルネットの各重み係
数Wjiに蓄積記憶され、オペレータの過去の経験学習と
同等の作用を持たせるようにした。
A method of correcting an error in this way is called an error back-propagation method, and the known technique devised by Rumelhart et al. Is used. Although this learning method is known, in the present invention, in particular, the history pattern data groups at different times (t = t 1 , t 2 , t 3 , ..., T q ) are converted into membership values and then repeatedly learned. At this time, especially note that the teacher signal is an analog value. As a result, the pattern grasping ability comparable to the operator's past experience is accumulated and stored in each weight coefficient Wji of the neural network, and the same effect as the operator's past experience learning is provided.

複数時刻t=t1,t2,t3,…tqにおける履歴パターンデ
ータ群の学習方法を以下に説明する。複数の履歴パター
ンデータ群は時刻tを任意に変えて学習する。この日
t1,t2,t3,…tqはオペレータが選択する場合と、自動的
に選択する場合とがあり、以下に両者を説明する。
A method of learning the history pattern data group at a plurality of times t = t 1 , t 2 , t 3 , ... T q will be described below. A plurality of history pattern data groups are learned by arbitrarily changing the time t. This day
There are cases in which the operator selects t 1 , t 2 , t 3 , ..., T q and cases in which they are automatically selected, and both will be described below.

オペレータが選択する場合とは、後で運転に反映させ
たいと考えるような、変数値Y1〜Ynの代表的なパターン
や後日参考にしたい異常時のパターンである。オペレー
タによる時刻の設定は交信手段46を介してマンマシン会
話により行う。例えば、1月の代表的パターンから12月
の代表的なパターンまで12パターンを各々学習する。特
に、代表的な流入水質の時に、最終沈殿池16の計測器16
Mで計測した処理水質(浮遊物質濃度,有機物濃度な
ど)が良好な(基準を最低満たしている)時のパターン
を学習する。つまり、処理が良好な時にはどのような操
作が行なわれたかを学習する。なお、異常時のみを選択
的に学習することができることは言うまでもない。異常
時学習は異常診断に好適である。
The case where the operator selects is a typical pattern of the variable values Y 1 to Yn that is desired to be reflected in the operation later or an abnormal pattern that is to be referred to at a later date. The time is set by the operator through man-machine conversation via the communication means 46. For example, 12 patterns are learned from a typical pattern in January to a typical pattern in December. Especially when the typical inflow water quality is
Learn the pattern when the treated water quality measured in M (concentration of suspended solids, concentration of organic matter, etc.) is good (minimum criteria are met). That is, what kind of operation is performed when the processing is good is learned. Needless to say, it is possible to selectively learn only when there is an abnormality. Abnormality learning is suitable for abnormality diagnosis.

他方、自動的に行う場合には、事前にデータ列の統計
解析を行う。すなわち、統計解析により最も発生頻度が
高いパターンを求めて正常時の代表例とみなしてこれを
学習させ、一方で、発生頻度が低い場合を異常時のパタ
ーンの代表例とみなしてこれらを学習させる。なお、第
1図の実施例ではニューラルネットはひとつであるが、
正常時用ニューラルネットと異常時用ニューラルネット
とに分けて適用すればさらに効果的である。
On the other hand, when it is automatically performed, the statistical analysis of the data string is performed in advance. That is, the pattern with the highest occurrence frequency is obtained by statistical analysis, and it is considered as a typical example in a normal time to learn it. On the other hand, the case with a low occurrence frequency is considered as a typical example in a pattern in an abnormal case and these are learned. . Although the number of neural networks is one in the embodiment shown in FIG.
It is more effective if they are separately applied to the normal time neural network and the abnormal time neural network.

次に、ファジィルール獲得工程73では71S1と71S2に基
づいて前記間のファジィルールを記号または言
葉に変換する。入力層710に設定する変数iと出力層730
に設定する変数jとに関するルールの確信度を(5)式
で計算する。なお、(5)式は数学的な解析により独自
に導かれた。
Next, in the fuzzy rule acquisition step 73, the fuzzy rules between the above are converted into symbols or words based on 71S1 and 71S2. Variable i set in input layer 710 and output layer 730
The confidence factor of the rule with respect to the variable j to be set to The equation (5) was independently derived by mathematical analysis.

ここで、Ijiは確信度、mは中間層のニューロン素子
モデル数。
Where Iji is the certainty factor and m is the number of neuron element models in the intermediate layer.

(5)式の決算は、入力層から出力層にいたるすべて
の経路の重み係数の積分をとる計算である。i番目の入
力とj番目の出力との関係を表すルールは、Ijiの確信
度に対応してそのルールが成立する。入力層と出力層と
の全ての組み合わせについてIjiを計算し、結果をファ
ジィルール候補として日本語に変換する。例えば、 [ファジィルール候補]:「i番目の入力値が大であれ
ばj番目の出力値は確信度Ijiで大きい。」 この変換は確信度Ijiが大きいルールから順に出力
し、次に示すように組み合わせたルール候補に変換する
こともできる。
The settlement of the equation (5) is a calculation of integrating the weighting coefficients of all the paths from the input layer to the output layer. The rule representing the relationship between the i-th input and the j-th output is established according to the certainty factor of Iji. Iji is calculated for all combinations of input layer and output layer, and the results are converted into Japanese as fuzzy rule candidates. For example, [fuzzy rule candidate]: “If the i-th input value is large, the j-th output value is large with the certainty factor Iji.” This conversion is output in order from the rule with the largest certainty factor Iji. It can also be converted into a rule candidate combined with.

[ファジィルール候補]:「i番目の入力値が大で、か
つk番目の入力値も大であればj番目の出力値は確信度
=(Iji+Ijk)/2で大きい。」 ファジィルール診断工程74では、ファジィルール獲得
工程73で得たファジィルール候補をオペレータ101と交
信手段46からの指示により妥当性を判定し、妥当と判断
された前記ファジィルール候補はファジィルールベース
60Aに記憶し、そうでないルールはファジィルール候補
ベース60Bに記憶する。一旦、ファジィルール候補ベー
ス60Bに記憶されたファジィルール候補でも複数回起こ
る場合には、生起回数をカウントして所定回数(例えば
2回)を越えたら、交信手段46によりオペレータ101に
再度問い合わせ、ファジィルール診断工程74を繰り返
す。
[Fuzzy rule candidate]: “If the i-th input value is large and the k-th input value is also large, the j-th output value is large with certainty factor = (Iji + Ijk) / 2.” Fuzzy rule diagnosis step 74 Then, the validity of the fuzzy rule candidates obtained in the fuzzy rule acquisition step 73 is judged by an instruction from the operator 101 and the communication means 46, and the fuzzy rule candidates judged to be valid are fuzzy rule bases.
It is stored in 60A, and the other rules are stored in the fuzzy rule candidate base 60B. If the fuzzy rule candidates stored in the fuzzy rule candidate base 60B occur once more than once, the occurrence frequency is counted, and when the number of occurrences exceeds a predetermined number (for example, 2 times), the communication means 46 again inquires of the operator 101, and fuzzy The rule diagnosis process 74 is repeated.

本実施例のファジィルールベースとしては、どのよう
な外乱、プロセス状態量の時、どのような評価量
となり、結果としてプロセスをどう操作すればよいか
という関係が得られる。
As the fuzzy rule base of this embodiment, there is obtained a relation of what kind of disturbance and process state quantity, what kind of evaluation quantity, and how to operate the process as a result.

ファジィ推論機構61はファジィルールベース60Aとフ
ァジィルールベース60Cとを受けて推論を実行し、運転
制御工程75に信号61Sを出力する。ファジィルールベー
ス60Cはオペレータ101に対し従来手法であるインタビュ
ーによって予め獲得したプロダクションルールあるいは
ファジィルールを記憶しておき必要に応じて補助的に利
用する。ファジィ推論機構61はルールに基づく前向きま
たは後向き推論を実行する。
The fuzzy inference mechanism 61 receives the fuzzy rule base 60A and the fuzzy rule base 60C, executes inference, and outputs a signal 61S to the operation control process 75. The fuzzy rule base 60C stores the production rules or fuzzy rules previously acquired by an interview, which is a conventional method, with respect to the operator 101 and uses them as an auxiliary when necessary. The fuzzy reasoning mechanism 61 performs rule-based forward or backward inference.

次に、予測用ニューラルネット72による予測工程を説
明する。予測用ニューラルネット72の構成を第8図に示
す。第1図に示したように、予測用ニューラルネット72
では学習用ニューラルネット71での学習結果、すなわ
ち、重み係数値Wji(3←2)及びWji(2←1)の値を
信号71S1と71S2として受ける。なお、第1図では学習用
ニューラルネット71と予測用ニューラルネット72とは処
理フローの説明のために別々に記載されているが、同一
のニューラルネットを用いて良いことは勿論である。
Next, the prediction process by the prediction neural network 72 will be described. The structure of the prediction neural network 72 is shown in FIG. As shown in FIG. 1, the prediction neural network 72
Then, the learning result in the learning neural network 71, that is, the values of the weighting coefficient values Wji (3 ← 2) and Wji (2 ← 1) are received as signals 71S1 and 71S2. Although the learning neural network 71 and the prediction neural network 72 are separately illustrated in FIG. 1 for the purpose of explaining the processing flow, it goes without saying that the same neural network may be used.

次に、予測用ニューラルネット72の動作を第8図を用
いて説明する。第8図に示すように、予測用ニューラル
ネット72は学習用ニューラルネット71から比較層740と
教師層750を除いた構成である。予測用ニューラルネッ
ト72では、前記に対応して、未知の前記を予測
するものである。このために、まず入力層710に入力層
パターンとして、t=0を基準に設定した変数値Yj(DF
1(0),DF2(0))と、t=−1,−2,…を基準に設定
した変数値Yi(DF1(i)〜DF4(i),i=−1,−2,…)
を入力層710に入力する。この変数値Yiは第8図に示す
ように、(1)現時点で既知の、(2)過去(t=
−1,−2,…)における〜である。これらは全て実績
値あるいは既知のデータであることに注意されたい。こ
れらの値に基づいて前述の(1)−(4)式の計算を実
行し、未知のプロセス状態評価量(処理水質)DF3
(0)*とプロセス操作量(返送/余剰汚泥量,曝気
空気量)DF4(0)*とを出力層730に出力する。前記
については交信手段46にガイダンス表示し、について
は制御信号72Sを運転制御工程75に出力する。
Next, the operation of the prediction neural network 72 will be described with reference to FIG. As shown in FIG. 8, the prediction neural network 72 has a configuration in which the comparison layer 740 and the teacher layer 750 are removed from the learning neural network 71. The prediction neural network 72 predicts the unknown, corresponding to the above. For this purpose, first, as the input layer pattern in the input layer 710, the variable value Yj (DF
1 (0), DF2 (0)) and a variable value Yi (DF1 (i) to DF4 (i), i = -1, -2, ...) Set based on t = -1, -2, ...
Into the input layer 710. This variable value Yi is, as shown in FIG. 8, (1) known at present, (2) past (t =
In -1, -2, ...). Please note that these are all actual values or known data. Based on these values, the calculation of the above equations (1)-(4) is executed, and the unknown process state evaluation amount (treated water quality) DF3
(0) * and the process operation amount (return / excess sludge amount, aeration air amount) DF4 (0) * are output to the output layer 730. For the above, guidance is displayed on the communication means 46, and for the above, the control signal 72S is output to the operation control step 75.

続いて運転制御工程75を以下に説明する。運転制御工
程75では、DF5(0)*の信号72Sとファジィ推論機構61
の信号61Sとを受けて、まず両者の整合性を調べる。信
号72Sが61Sと矛盾しなければ、プロセス操作量の目標値
として信号75Sを余剰汚泥ポンプ16C、返送汚泥ポンプ16
C1、ブロワー17、制御バルブ17A,17Bなどに出力する。
逆に矛盾すれば交信手段46を通してオペレータ101に報
知し、修正を加える。なお、制御頻度は本実施例では1
時間毎であるが、この時間単位は任意に設定できる。勿
論、時間間隔が小さければ予測制度は向上する。設定し
た時間間隔(本実施例で1時間)が長いために短い時間
(例えば1分間)の塩素注入量を予測できない場合に
は、数学的な補間により予測する。同時に、目標値(予
測結果)の注入量目標値信号75Sを交信手段46に表示
し、必要に応じてオペレータ101の選択により実際の操
作を補正する。
Next, the operation control process 75 will be described below. In the operation control process 75, the signal 72S of DF5 (0) * and the fuzzy inference mechanism 61
First, the signal 61S is received and the matching between the two is checked. If the signal 72S does not conflict with 61S, the signal 75S is used as the target value of the process operation amount, and the excess sludge pump 16C and the return sludge pump 16C
Output to C1, blower 17, control valves 17A, 17B, etc.
On the contrary, if there is a contradiction, the operator 101 is notified through the communication means 46 to make a correction. The control frequency is 1 in this embodiment.
Although it is every hour, this time unit can be set arbitrarily. Of course, if the time interval is small, the prediction system will improve. When the chlorine injection amount in a short time (for example, 1 minute) cannot be predicted because the set time interval (1 hour in this embodiment) is long, it is predicted by mathematical interpolation. At the same time, the injection amount target value signal 75S of the target value (prediction result) is displayed on the communication means 46, and the actual operation is corrected by the selection of the operator 101 if necessary.

なお、本発明を下水処理プロセスを実施例に説明した
が、一般のプロセスに適用できることはいうまでもな
い。
Although the present invention has been described by using the sewage treatment process as an example, it goes without saying that it can be applied to a general process.

〔発明の効果〕〔The invention's effect〕

本発明の効果について以下に述べる。一般のプロセス
も同様であるが、下水処理場の従来の制御方法は、多量
のデータ解析、オペレータへのインタビューによるファ
ジィルール獲得、さらには推論ルールの作成、追加、修
正、削除、改良などに多くの労力を要していた。また従
来の方法では、獲得するファジィルールは特定の人の主
観的判断に依存していた。しかし、本発明では、過去の
実績データからファジィルールを自動獲得し、かつ、ニ
ューラルネットの予測により運転ガイダンス及び制御を
行ない得る。したがって、本発明を適用すれば、より少
ない労力で、オペレータが実施している「実績と前例に
即した、しかしあいまいな運転」を工学的に容易に行な
うことができる。また学習を随時行なうことが可能であ
るので、状況の変化に迅速に追随して学習しかつ制御す
ることができる。
The effects of the present invention will be described below. Although the general process is the same, the conventional control method for sewage treatment plants is often used for analyzing a large amount of data, acquiring fuzzy rules by interviewing operators, and creating, adding, modifying, deleting, and improving inference rules. Labor was required. Further, in the conventional method, the fuzzy rule to be acquired depends on the subjective judgment of a specific person. However, in the present invention, fuzzy rules can be automatically acquired from past performance data, and driving guidance and control can be performed by prediction of a neural network. Therefore, if the present invention is applied, it is possible to easily perform “a vague operation in accordance with the actual results and the previous example” performed by the operator from an engineering point with less labor. In addition, since learning can be performed at any time, it is possible to quickly follow changes in the situation and learn and control.

特に、本発明では、流入水の物理的・化学的・生物
的特性、プロセス状態量、プロセス状態評価量、
プロセス操作量に着目し、過去のに基づいてプロ
セス評価量とプロセス操作量を予測することができる
ので、オペレータと同等の操作を行ない得る。
Particularly, in the present invention, the physical / chemical / biological characteristics of the inflow water, the process state quantity, the process state evaluation quantity,
Since the process evaluation amount and the process operation amount can be predicted based on the past by paying attention to the process operation amount, the same operation as the operator can be performed.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の実施例の構成図、第2図は履歴パター
ンデータファイル詳細を示す説明図、第3図はメンバー
シップ変換工程を表す説明図、第4図は学習パターンの
説明図、第5図はニューラルネットの構成図、第6図は
ニューロン素子モデルを示す説明図、第7図はニューロ
ン素子モデルでの信号変換を示す特性図、第8図は予測
工程を説明する説明図である。 9……最初沈殿池、15……曝気層、16……最終沈殿池、
17……ブロワー、16C1……返送汚泥ポンプ、16C2……余
剰ポンプ、9M,15M,16M……計測器、46……交信手段、10
1……オペレータ、71F……履歴パターンデータファイ
ル、69……メンバーシップ変換工程、71……学習用ニュ
ーラルネット、72……予測用ニューラルネット、73……
ファジィルール獲得工程、74……ファジィルール診断工
程、75……運転制御工程、61……ファジィ推論機構、71
0……入力層、720……中間層、730……出力層、740……
比較層、750……教師層、701……ニューロン素子モデ
ル。
1 is a configuration diagram of an embodiment of the present invention, FIG. 2 is an explanatory diagram showing details of a history pattern data file, FIG. 3 is an explanatory diagram showing a membership conversion process, FIG. 4 is an explanatory diagram of a learning pattern, FIG. 5 is a configuration diagram of a neural network, FIG. 6 is an explanatory diagram showing a neuron element model, FIG. 7 is a characteristic diagram showing signal conversion in the neuron element model, and FIG. 8 is an explanatory diagram explaining a prediction process. is there. 9 …… First sedimentation tank, 15 …… Aeration layer, 16 …… Final sedimentation tank,
17 …… Blower, 16C1 …… Returning sludge pump, 16C2 …… Surplus pump, 9M, 15M, 16M …… Measuring instrument, 46 …… Communication means, 10
1 …… Operator, 71F …… History pattern data file, 69 …… Membership conversion process, 71 …… Learning neural network, 72 …… Prediction neural network, 73 ……
Fuzzy rule acquisition process, 74 …… Fuzzy rule diagnosis process, 75 …… Operation control process, 61 …… Fuzzy reasoning mechanism, 71
0 …… Input layer, 720 …… Middle layer, 730 …… Output layer, 740 ……
Comparison layer, 750 ... Teacher layer, 701 ... Neuron element model.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 矢萩 捷夫 茨城県日立市久慈町4026番地 株式会社 日立製作所日立研究所内 (72)発明者 松崎 晴美 茨城県日立市久慈町4026番地 株式会社 日立製作所日立研究所内 (72)発明者 原 直樹 茨城県日立市大みか町5丁目2番1号 株式会社日立製作所大みか工場内 (72)発明者 依田 幹雄 茨城県日立市大みか町5丁目2番1号 株式会社日立製作所大みか工場内 (72)発明者 金子 智則 茨城県日立市大みか町5丁目2番1号 株式会社日立製作所大みか工場内 (56)参考文献 特開 平1−224804(JP,A) 特開 昭62−274301(JP,A) 特開 平2−178704(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yasuo Yahagi 4026 Kuji Town, Hitachi City, Hitachi, Ibaraki Prefecture Hitachi Research Laboratory, Hitachi Ltd. (72) Harumi Matsuzaki 4026 Kuji Town, Hitachi City, Ibaraki Hitachi Research Institute, Hitachi Ltd. In-house (72) Inventor Naoki Hara 5-2-1 Omika-cho, Hitachi City, Ibaraki Hitachi, Ltd. Omika Plant, Hitachi Ltd. (72) In-house Mikio Yoda 5-2-1 Omika-cho, Hitachi City, Ibaraki Hitachi, Ltd. Omika Factory (72) Inventor Tomonori Kaneko 5-2-1 Omika-cho, Hitachi City, Ibaraki Hitachi, Ltd. Omika Factory (56) Reference JP-A-1-224804 (JP, A) JP-A-62- 274301 (JP, A) JP-A-2-178704 (JP, A)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力層と少なくとも1層の中間層及び出力
層を有する階層構造の神経回路モデルの学習によりファ
ジィルールを獲得する知識獲得方法であって、 プロセスの過去の任意の時刻tにおける計測値とそれよ
り過去にさかのぼって複数時点での計測値と操作量をメ
ンバーシップ値に変換して前記入力層に入力し、 プロセスの前記時刻tにおける操作量をメンバーシップ
値に変換して教師信号値とし、 前記出力層からの出力値と教師信号値との差が小さくな
るように重み係数の大きさを修正することにより入力値
と教師信号値との関係を学習し、 学習済みの前記神経回路モデルの入力層から中間層に至
る重み係数と中間層から出力層に至る重み係数とに基づ
いて入力信号と教師信号との間の知識をファジィルール
として獲得することを特徴とする知識獲得方法。
1. A knowledge acquisition method for acquiring a fuzzy rule by learning a hierarchical neural circuit model having an input layer, at least one intermediate layer, and an output layer, the measurement being performed at an arbitrary time t in the past of the process. Value and the measured values and the manipulated variables at a plurality of time points back in the past are converted into membership values and input to the input layer, and the manipulated variables at the time t of the process are converted into membership values and the teacher signal And learning the relationship between the input value and the teacher signal value by correcting the magnitude of the weighting coefficient so that the difference between the output value from the output layer and the teacher signal value becomes small. Based on the weighting factors from the input layer to the intermediate layer and the weighting factors from the intermediate layer to the output layer of the circuit model, it is possible to acquire knowledge between the input signal and the teacher signal as a fuzzy rule. Characteristic knowledge acquisition method.
【請求項2】請求項1に記載の前記ファジィルールを利
用してプロセス運転を支援または制御することを特徴と
するプロセス運転支援方法。
2. A process operation support method for supporting or controlling a process operation by using the fuzzy rule according to claim 1.
JP1271677A 1989-10-20 1989-10-20 Knowledge acquisition method and process operation support method Expired - Lifetime JP2564405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1271677A JP2564405B2 (en) 1989-10-20 1989-10-20 Knowledge acquisition method and process operation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1271677A JP2564405B2 (en) 1989-10-20 1989-10-20 Knowledge acquisition method and process operation support method

Publications (2)

Publication Number Publication Date
JPH03134704A JPH03134704A (en) 1991-06-07
JP2564405B2 true JP2564405B2 (en) 1996-12-18

Family

ID=17503338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1271677A Expired - Lifetime JP2564405B2 (en) 1989-10-20 1989-10-20 Knowledge acquisition method and process operation support method

Country Status (1)

Country Link
JP (1) JP2564405B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0553604A (en) * 1991-08-21 1993-03-05 Nkk Corp Learning method by automatic correction of operation example
JPH06131188A (en) * 1992-10-22 1994-05-13 Hitachi Ltd Fuzzy rule acquisition method and fuzzy inference system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01224804A (en) * 1988-03-04 1989-09-07 Toshiba Corp Ai process monitor and control equipment

Also Published As

Publication number Publication date
JPH03134704A (en) 1991-06-07

Similar Documents

Publication Publication Date Title
JP2533942B2 (en) Knowledge extraction method and process operation support system
Papageorgiou et al. Fuzzy cognitive map learning based on nonlinear Hebbian rule
Jang et al. Neuro-fuzzy modeling and control
Suykens et al. NL/sub q/theory: checking and imposing stability of recurrent neural networks for nonlinear modeling
Khan et al. Neufuz: Neural network based fuzzy logic design algorithms
EP0646879A1 (en) Method for structuring an expert system utilizing one or more neural networks
Nie et al. Rule-based modeling: Fast construction and optimal manipulation
Horikawa et al. Composition methods of fuzzy neural networks
McKim Neural network applications to cost engineering
Fernandez et al. Use of neurofuzzy networks to improve wastewater flow-rate forecasting
JPH03134706A (en) Knowledge acquiring method for supporting operation of sewage-treatment plant
Wong et al. A stock selection strategy using fuzzy neural networks
Hayashi et al. NEURAL NETWORK DRIVEN FUZZY
JP2564405B2 (en) Knowledge acquisition method and process operation support method
EP0646878A1 (en) Method for converting an existing expert system into one utilizing one or more neural networks
Suja Malar et al. MODELLING OF CONTINUOUS STIRRED TANK REACTOR USING ARTIFICIAL INTELLIGENCE TECHNIQUES.
Chun-Mei Using fuzzy cognitive map for system control
Slim Neuro-fuzzy network based on extended Kalman filtering for financial time series
JPH02260002A (en) Fuzzy controller
JP2553725B2 (en) Reasoning device
Furuhashi et al. An application of fuzzy neural networks to a stability analysis of fuzzy control systems
Marumo et al. Modelling plant control strategies and their applications into a knowledge-based system
Pfeiffer Identification of fuzzy rules from learning data
Figueiredo et al. A fuzzy neural network: Structure and learning
JP2865738B2 (en) Process control method