JP3565380B2 - Mill characteristic measuring device - Google Patents

Mill characteristic measuring device Download PDF

Info

Publication number
JP3565380B2
JP3565380B2 JP1972696A JP1972696A JP3565380B2 JP 3565380 B2 JP3565380 B2 JP 3565380B2 JP 1972696 A JP1972696 A JP 1972696A JP 1972696 A JP1972696 A JP 1972696A JP 3565380 B2 JP3565380 B2 JP 3565380B2
Authority
JP
Japan
Prior art keywords
data
error
output
input
mill
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1972696A
Other languages
Japanese (ja)
Other versions
JPH09212207A (en
Inventor
功 四郎丸
秀樹 木通
茂樹 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chugoku Electric Power Co Inc
Original Assignee
Chugoku Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chugoku Electric Power Co Inc filed Critical Chugoku Electric Power Co Inc
Priority to JP1972696A priority Critical patent/JP3565380B2/en
Publication of JPH09212207A publication Critical patent/JPH09212207A/en
Application granted granted Critical
Publication of JP3565380B2 publication Critical patent/JP3565380B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、石炭焚ボイラに微粉炭を供給するミルの特性変化予測装置に関する。
【0002】
【従来の技術】
従来火力発電用ボイラには微粉炭が燃料として多量に使用されている。この微粉炭は、原炭を粉砕しローラにより微粉炭とするミルにより供給される。ミルにより供給される微粉炭は通常サービスタンクに一時貯蔵され、その後ボイラへ供給されるが、サービスタンクの容量は大きくないので、ボイラの燃料消費量に合わせた微粉炭の供給が必要となる。このためミルの入炭量などの入力データに対する出炭量などの出力データを正確に予測する必要がある。
【0003】
【発明が解決しようとする課題】
このため、ミルのシミュレータを作成し、出炭量等の予測が行われている。「火力発電Vol.46,No1.頁47−頁58、能代火力発電所1号機における最新の制御技術」にはその頁55にミルシミュレータによる出炭の予測方法が開示されている。石炭の場合、産地によって炭種が異なり、この炭種が異なるとミルへ供給する原炭量が同じでも炭量が変化する。このため、上記ミルシミュレータの場合、炭種が変わるごとにシミュレータ係数変化を予め求めておく必要があるが、入力するデータは入炭量の外にも多数あり、これらに対応した係数変化を全て求めることは困難である。また、このシミュレータは学習機能がないため、予め設定した条件と異なると予測精度が低下する。特に過渡状態の予測精度は良くない場合が多い。
【0004】
本発明は、上述の問題点に鑑みてなされたもので、ミル稼働中にシミュレーションモデルのパラメータを学習可能とし、さらに定常状態の変化から過渡状態の変化を推定可能とすることを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するため、請求項1の発明では、原炭を粉砕しローラにより微粉炭にするミルの特性計測装置であって、ミルの入力データと出力データとを入力し、定常状態と過渡状態のデータを分別するデータ分別手段と、このデータ分別手段から定常状態入出力データを入力して、定常状態の特徴量を算出する特徴量演算手段と、前記データ分別手段より過渡状態入力データを入力し、パラメータに基づいて過渡状態出力データを予測した予測データを出力するシミュレーションモデルと、前記データ分別手段からの過渡状態出力データと前記予測データとの誤差を求める誤差演算器と、前記定常状態特徴量と前記誤差を入力して前記シミュレーションモデルに前記パラメータを出力するニューラルネットワークと、前記誤差を入力しこの誤差が所定値を越える時、前記ニューラルネットワークに前記誤差が零になるように学習開始を指示する誤差判定手段とを備える。
【0006】
上記構成により、シミュレーションモデルは現在定まっているパラメータを用いて、過渡状態の入力データに基づき過渡状態の予測データを出力する。誤差演算器ではこの予測データと過渡状態出力データとの誤差を演算し、この誤差をニューラルネットワークに出力している。ニューラルネットワークは定常状態の特徴量を入力し、シミュレーションモデルのパラメータを出力する。ニューラルネットワークでは、定常状態の入力データが変化し、次の定常状態となった入力データの特徴量を入力してシミュレーションモデルのパラメータを出力し、シミュレーションモデルではこの定常状態の変化による過渡状態の入力データとこの出力されたパラメータとから予測データを出力し、誤差判定手段では、この予測データとデータ分別手段からの過渡状態出力データとの誤差を調べこの誤差が所定値より大きくなるとニューラルネットワークにこの誤差を零とするように学習を指示する。このようにして学習することにより誤差は小さくなり、適切なパラメータが出力されるようになる。このような学習はミル稼働中も行われ、これにより定常状態の特徴量から過渡状態のシミュレーションモデルのパラメータを生成することができる。このパラメータによりシミュレーションモデルは過渡状態の変化を予測することができる。
【0007】
請求項2の発明では、請求項1の発明において、前記誤差演算器の出力する誤差データを前記パラメータと同一次元のデータに変換する変換器を設け、その出力を前記ニューラルネットワークに出力する。ニューラルネットワークは誤差が出力データであるパラメータと同じ次元でないと学習できないのでこの変化器による変換が行われる。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
図1は本発明の実施の形態を示すブロック図である。本実施の形態のミル特性計測装置は、原炭より微粉炭を生成するミルの特性を計測すると共に出力を予測する。ミルは原炭を破砕しローラにより微粉炭にする装置であり、本ミル特性計測装置はミルへの入力データとミルの出力データを計測すると共に入力データから、出力データを予測する。定常状態における入力データから定常状態の出力データの予測は試験や同種プラントの実績から精度よく行われるので、本実施の形態では定常状態の入力データの変化に対する過渡状態の予測を精度よく行う。
【0009】
入力データとしては原炭供給量、ローラレベル、ミル圧力損失などがあり、出力データとしては出炭量、粒度分布などがある。図2はこのような入出力データの一例を示す。横軸は時間をとり、縦軸はそれぞれの項目の値を示す。a〜cは入力データを示し、dは出力データを示す。また、実線部分が定常状態のデータを示し破線部分が過渡状態のデータを示す。aは原炭供給量である。炭種変化はこの時点で石炭の産地が変化したことを示す。炭種が変化しても原炭供給量は一定であるが、他のデータに変化が生じるものもあり、これにより炭種切り換えを自動的に判別できる。bはローラレベルでこれは破砕した石炭を微粉化するローラのレベルを表す。この場合、定常特性値は炭種変化により変化している。これにより炭種切り換えを判定できる。cはミル圧力損失を示し、変化の少ないデータとなっている。dは出炭量を示す。この出炭量の過渡状態における動特性変化をシミュレーションモデルが正しく予測できるようなパラメータをニューラルネットワークが出力できるようにするため、実績データと予測データの誤差を零とするように学習が行われる。
【0010】
図3は、図1に示したブロックを実現するコンピュータの構成を示すブロック図である。ROM1はプログラムなどの基本データを格納する不揮発性メモリである。CPU2はROM1に格納されたプログラムに従い全体を制御する。RAM3はROM1より読み出されたプログラムを格納すると共に、このプログラムに従い動作するCPU2の作業エリアとなる。パネル操作部4はオペレータが指示やデータを入力するもので、テンキーやファンクションキーなどを有する。表示部5はオペレータの入力値やCPU2による演算結果などを画面表示する。入出力インターフェース6は外部とのデータ取り合いを行う。
【0011】
図1において、データ分別手段10は図2で示したような入力データと出力データを入力し、定常状態入出力データ、過渡状態入力データおよび過渡状態出力データに分別する。特徴量演算手段11は定常状態入出力データを入力し定常状態の特徴量を出力する。シミュレーションモデル12はミルの数学的モデルで入力データを与えると予測データを出力するが、定常状態、過渡状態に応じたパラメータが必要であり、このパラメータは後述するニューラルネットワーク16から与えられる。誤差演算器13はデータ分別手段10からの過渡状態出力データと、シミュレーションモデルの過渡状態入力データに対する予測データとの差を誤差データとして出力する。変換器14は誤差データを、ニューラルネットワーク16に与えるためニューラルネットワーク16の出力信号であるパラメータと同じ次元に変換する。誤差判定手段15は誤差データを入力し、この値が所定の値を越えた時、パラメータは適切になっていないとして誤差データが零となるようにニューラルネットワーク16に学習を指令する。なお、特徴量の一例をあげると、定常状態では平均値などが用いられ、過渡状態では原炭供給量と出炭供給量の誤差積分、むだ時間、時定数などが用いられる。
【0012】
ニューラルネットワーク16は一般に用いられる3層のバックプロパゲーションモデルを使用する。図4はこのようなバックプロパゲーションモデルを示し、入力層、中間層、出力層の3層から構成されている。また、図5はニューラルネットワーク16を構成するニューロ演算素子の構成を示す。ニューロ演算素子は各入力iに対し、重み係数Wiにより重み付けをし内部に取り込んでその和を取り、その和がしきい値(シグモイド関数)を越えたとき1を出力する。このようなニューロ演算素子を3層にし、各層間のニューロ演算素子を接続する。図4において重み修正回路は誤差を零にするように一定の方法により中間層と出力層の各ニューロ演算素子の重み係数Wijを変化させる。この一定の方法とは誤差が零に近づけば、そのとき信号を伝えている結合の重みを少し増やし、零より遠ざかると、その時信号を伝えている結合の重みを少し減少させるといった操作を繰り返し、誤差を零にしてゆく方法である。
【0013】
次に変換器14の動作について説明する。図1において、過渡状態出力データYTを教師信号、シミュレーションモデル12の予測データを評価値YSとする。ニューラルネットワーク16での学習はある評価値YSと教師信号YTとの誤差を最小化するように学習してゆく。ここでは教師信号YTと比較する評価値YSとニューラルネットワーク16の出力(パラメータ)が異なるために次のような方法を採用することによりバックプロパゲーションを行う。評価値の誤差(学習の成果)Eを次式のような二次形式で表す。
【0014】
【数1】

Figure 0003565380
【0015】
標準Δ則に基づいているバックプロパゲーションでは、重み係数Wijの変化量をΔWijとすると次式のようになる。
【0016】
【数2】
Figure 0003565380
【0017】
ニューラルネットワーク16の出力と、評価値YSと教師出力YTとの誤差が同一の次元ではないので次式のような修正を行う。Eを重み係数の関数として(1)式を次のように偏微分する。なお、YTにはWijの成分は含まれていないのでYTのWijによる偏微分は0となっている。
【0018】
【数3】
Figure 0003565380
【0019】
(3)式において、
【0020】
【数4】
Figure 0003565380
【0021】
このような変換のもとに(2)式へと導入でき、バックプロパゲーションにより重み係数Wijを変化することができる。なお、(4)式においてC61はニューラルネットワーク16の出力するパラメータは6要素あるとし、これをC61〜C66で表したものである。
【0022】
ここで(4)式の右辺の縦ベクトルが次元の変換を表す関数F(・)を表している。この縦ベクトルの各要素について、パラメータとシミュレーションモデル12の出力YS間の感度解析を以下のように行うことにより求めることができる。教師信号YTをN要素あるとし、ニューラルネットワーク16からの出力信号であるパラメータは上述したように6要素(これは一般にM要素としてもよい)であるとする。パラメータの平衡値をおおよそ決める。そして5つのパラメータをその平衡点で固定し、1つのパラメータを上下に値を振れさせた時のシミュレーションモデル12の出力値YSのN個の変動を求める。この値を求め終えたら、パラメータC6i(i=1〜6)に対する出力値YSの微係数(傾き)を求める。これをパラメータC6iの全て(6個)に適用することにより(4)式の右辺の縦ベクトル、つまり変換関数F(・)を求めることができる。
【0023】
図6は実施の形態の学習動作を示す動作フロー図である。まずニューラルネットワーク16に定常状態の特徴量を入力し、1回のフォワード計算、つまり図4に示す入力層に入力を与えたときの出力の算出を行いシミュレーションモデル12のパラメータを出力する(S1)。次にシミュレーションモデル12にニューラルネットワーク16で求めたパラメータを入力する(S2)。次に過渡状態入力をシミュレーションモデル12に入力し、この出力値YSを求める(S3)。なおこの過渡状態入力データは、ニューラルネットワーク16に入力した特徴量の定常状態から移行した過渡状態の入力データである。一方この過渡状態入力データによるミル装置の過渡状態出力データYTを入力する。このYTは教師信号と言われる。このYTとYSとの差を誤差eとし、この誤差eを次のようにして評価する(S4)。
【0024】
誤差判定ブロック15は(1)式に示した誤差eの自乗を求め、この値が所定の小さな正数以下になったかを調べ(S5)、以下となった場合には、ニューラルネットワーク16の出力したパラメータは真の値またはそれに近いものとしてその値を採用し学習を中止する(S6)。しかし、所定の値まで小さくならない場合には(S5)、(4)式で示した変換F(・)を誤差eに施し、εに変換する(S7)。これによりニューラルネットワーク16と同じ次元となるので、εを用いたバックプロパゲーションによりニューラルネットワーク内の重み係数Wijを変化させる(S8)。この重み係数Wijの変化はεが零に近づけばそのとき信号を伝えている結合の重みを少し増やし、零より遠ざかると、その時信号を伝えている結合の重みを少し減少させるといった操作を行う。次にステップS1〜S4を繰り返しステップS5で判定を行う。判定の結果所定の小さな正数より小さくならないときは、小さくなるまでステップS1〜S5、S7〜S8を繰り返し、小さくなった時、学習を終了する(S6)。
【0025】
このように過渡状態におけるシミュレーションモデル12の出力YSと、ミル装置の実測データYTとの誤差eの自乗eが最小となるようニューラルネットワーク16は定常状態の特徴量を入力し、シミュレーションモデル12のパラメータを出力しながら学習を行う。また、ニューラルネットワーク16の出力であるパラメータは定常状態の特徴量と関連づけるようにして学習が行われるので、定常状態の変化から過渡状態の変化を予測することができる。また、このような学習はミル稼働中も可能である。
【0026】
【発明の効果】
以上の説明より明らかなように、本発明は、シミュレーションモデルのパラメータをニューラルネットワークより出力し、シミュレーションモデルの出力とミルの出力との誤差が最小となるパラメータを出力するようニューラルネットワークは学習を行う。ニューラルネットワークには定常状態の特徴量を入力し、シミュレーションモデルには過渡状態の入力データを入力して、定常状態の変化から過渡状態の変化を予測できるようにしている。ニューラルネットワークはミル稼働中もシミュレーションモデルのパラメータの学習を可能としたので、シミュレーションモデルの予測精度が向上する。
【図面の簡単な説明】
【図1】本発明の実施の形態のミル特性計測装置の構成を示すブロック図である。
【図2】入出力データの一例を示す図である。
【図3】図1に示したブロックを実現するコンピュータの構成を示す図である。
【図4】ニューラルネットワークのバックプロパゲーションモデルを示す図である。
【図5】ニューロ演算素子の構成を示す図である。
【図6】実施の形態の学習動作を示す動作フロー図である。
【符号の説明】
10 データ分別手段
11 特徴量演算手段
12 シミュレーションモデル
13 誤差演算器
14 変換器
15 誤差判別手段
16 ニューラルネットワーク[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a device for estimating a characteristic change of a mill for supplying pulverized coal to a coal-fired boiler.
[0002]
[Prior art]
Conventionally, pulverized coal has been used in large quantities as fuel in boilers for thermal power generation. This pulverized coal is supplied by a mill that pulverizes raw coal and converts it into pulverized coal by a roller. The pulverized coal supplied by the mill is usually temporarily stored in a service tank and then supplied to the boiler. However, since the capacity of the service tank is not large, it is necessary to supply pulverized coal in accordance with the fuel consumption of the boiler. Therefore, it is necessary to accurately predict output data such as the amount of coal output with respect to input data such as the amount of coal input to the mill.
[0003]
[Problems to be solved by the invention]
For this reason, a simulator for a mill is created to predict the amount of coal output and the like. "The latest control technology in Noshiro thermal power plant No. 1" in Thermal power generation Vol. 46, No. 1, page 47-page 58 discloses a method for predicting coal output by a mill simulator. In the case of coal, the type of coal differs depending on the production area. If the type of coal differs, the amount of coal changes even if the amount of raw coal supplied to the mill is the same. For this reason, in the case of the above-mentioned mill simulator, it is necessary to obtain the simulator coefficient change in advance every time the coal type changes.However, there are many input data other than the coal input amount, and the coefficient changes corresponding to these are all calculated. It is difficult to ask. Further, since this simulator does not have a learning function, the prediction accuracy is reduced if the conditions are different from preset conditions. Particularly, the prediction accuracy of the transient state is often not good.
[0004]
The present invention has been made in view of the above-described problems, and has as its object to enable simulation model parameters to be learned during operation of a mill, and to enable estimation of a change in a transient state from a change in a steady state.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, according to the first aspect of the present invention, there is provided a device for measuring the characteristics of a mill which pulverizes raw coal and converts it into pulverized coal by a roller. Data classification means for classifying state data, steady state input / output data from the data classification means, a characteristic quantity calculation means for calculating a characteristic quantity in a steady state, and transient state input data from the data classification means. A simulation model for inputting and outputting predicted data obtained by predicting transient state output data based on parameters; an error calculator for calculating an error between the transient state output data from the data classification means and the predicted data; A neural network that inputs a feature amount and the error and outputs the parameter to the simulation model; When the error exceeds a predetermined value, and a prediction error decision means the error in the neural network instructs the learning start to become zero.
[0006]
With the above configuration, the simulation model outputs transient state prediction data based on input data of the transient state using currently determined parameters. The error calculator calculates an error between the prediction data and the transient state output data, and outputs the error to the neural network. The neural network inputs a feature amount in a steady state and outputs parameters of a simulation model. In the neural network, the input data in the steady state changes, and the features of the input data in the next steady state are input to output the parameters of the simulation model. In the simulation model, the input of the transient state due to the change in the steady state is input. The prediction data is output from the data and the output parameters, and the error determination means checks an error between the prediction data and the transient state output data from the data classification means, and when the error is larger than a predetermined value, the error is transmitted to the neural network. The learning is instructed to make the error zero. By learning in this manner, the error is reduced, and an appropriate parameter is output. Such learning is performed even during the operation of the mill, whereby the parameters of the simulation model in the transient state can be generated from the feature values in the steady state. This parameter allows the simulation model to predict changes in the transient state.
[0007]
According to a second aspect of the present invention, in the first aspect of the present invention, there is provided a converter for converting the error data output from the error calculator into data of the same dimension as the parameter, and outputs the output to the neural network. Since the neural network cannot learn unless the error has the same dimension as the parameter that is the output data, the conversion by this changer is performed.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an embodiment of the present invention. The mill characteristic measuring device according to the present embodiment measures the characteristics of a mill that produces pulverized coal from raw coal and predicts the output. A mill is a device that crushes raw coal and converts it into pulverized coal by a roller. The mill characteristic measuring device measures input data to the mill and output data of the mill and predicts output data from the input data. Since the prediction of the output data of the steady state from the input data in the steady state is accurately performed based on the results of the test and the plant of the same type, in the present embodiment, the prediction of the transient state with respect to the change of the input data in the steady state is performed accurately.
[0009]
Input data includes raw coal supply, roller level, mill pressure loss, and the like, and output data includes coal output, particle size distribution, and the like. FIG. 2 shows an example of such input / output data. The horizontal axis indicates time, and the vertical axis indicates the value of each item. a to c indicate input data, and d indicates output data. A solid line indicates data in a steady state, and a broken line indicates data in a transient state. a is the raw coal supply. The change in coal type indicates that the coal producing area has changed at this point. Even if the coal type is changed, the raw coal supply amount is constant, but there is also a change in other data, so that switching of the coal type can be automatically determined. b is the roller level, which represents the level of the roller that pulverizes the crushed coal. In this case, the steady-state characteristic value changes due to a change in the type of coal. Thereby, it is possible to determine the switching of the coal type. c indicates the mill pressure loss, which is data with little change. d indicates the amount of coal output. In order for the neural network to output a parameter that enables the simulation model to correctly predict the dynamic characteristic change in the transient state of the coal output, learning is performed so that the error between the actual data and the predicted data is set to zero.
[0010]
FIG. 3 is a block diagram showing a configuration of a computer for realizing the blocks shown in FIG. The ROM 1 is a non-volatile memory that stores basic data such as programs. The CPU 2 controls the whole according to a program stored in the ROM 1. The RAM 3 stores the program read from the ROM 1 and serves as a work area for the CPU 2 operating according to the program. The panel operation unit 4 is used by an operator to input instructions and data, and has ten keys and function keys. The display unit 5 displays the input value of the operator, the calculation result by the CPU 2, and the like on a screen. The input / output interface 6 exchanges data with the outside.
[0011]
In FIG. 1, a data classification means 10 receives input data and output data as shown in FIG. 2 and classifies them into steady state input / output data, transient state input data and transient state output data. The feature value calculating means 11 inputs the steady state input / output data and outputs a steady state feature value. The simulation model 12 outputs predicted data when input data is given by a mill mathematical model, but requires parameters corresponding to a steady state and a transient state, and these parameters are given from a neural network 16 described later. The error calculator 13 outputs the difference between the transient state output data from the data classification means 10 and the predicted data of the simulation model with respect to the transient state input data as error data. The converter 14 converts the error data into the same dimension as a parameter which is an output signal of the neural network 16 so as to provide the error data to the neural network 16. The error judging means 15 inputs the error data, and when this value exceeds a predetermined value, it judges that the parameter is not appropriate and instructs the neural network 16 to perform learning so that the error data becomes zero. As an example of the characteristic amount, an average value or the like is used in a steady state, and an error integration between a raw coal supply amount and a coal supply amount, a dead time, a time constant, and the like are used in a transient state.
[0012]
The neural network 16 uses a commonly used three-layer backpropagation model. FIG. 4 shows such a back propagation model, which is composed of three layers: an input layer, an intermediate layer, and an output layer. FIG. 5 shows a configuration of a neural operation element constituting the neural network 16. The neuro operation element weights each input i with a weighting factor Wi, takes in the inside, takes the sum, and outputs 1 when the sum exceeds a threshold value (sigmoid function). Such neuro operation elements are formed into three layers, and the neuro operation elements between the respective layers are connected. In FIG. 4, the weight correction circuit changes the weight coefficient Wij of each neuro operation element of the intermediate layer and the output layer by a constant method so as to make the error zero. With this constant method, if the error approaches zero, the weight of the coupling transmitting the signal is slightly increased at that time, and if the error goes away from zero, the operation of slightly decreasing the weight of the coupling transmitting the signal at that time is repeated, This is a method to reduce the error to zero.
[0013]
Next, the operation of the converter 14 will be described. In FIG. 1, the transient state output data YT is a teacher signal, and the prediction data of the simulation model 12 is an evaluation value YS. Learning in the neural network 16 is performed so as to minimize the error between a certain evaluation value YS and the teacher signal YT. Here, since the evaluation value YS to be compared with the teacher signal YT and the output (parameter) of the neural network 16 are different, back propagation is performed by employing the following method. The error E (result of learning) of the evaluation value is expressed in a quadratic form as in the following equation.
[0014]
(Equation 1)
Figure 0003565380
[0015]
In back propagation based on the standard Δ law, the following equation is obtained when the amount of change in the weight coefficient Wij is ΔWij.
[0016]
(Equation 2)
Figure 0003565380
[0017]
Since the output of the neural network 16 and the error between the evaluation value YS and the teacher output YT do not have the same dimension, the following correction is performed. Equation (1) is partially differentiated as follows, using E as a function of the weight coefficient. Since the YT does not include the Wij component, the partial differentiation of the YT by Wij is zero.
[0018]
(Equation 3)
Figure 0003565380
[0019]
In equation (3),
[0020]
(Equation 4)
Figure 0003565380
[0021]
Under such a conversion, it can be introduced into the equation (2), and the weight coefficient Wij can be changed by back propagation. In equation (4), C61 is a parameter output from the neural network 16 and has six elements, which are represented by C61 to C66.
[0022]
Here, the vertical vector on the right side of the equation (4) represents a function F (•) representing a dimension conversion. The sensitivity analysis between the parameters and the output YS of the simulation model 12 can be obtained for each element of the vertical vector as follows. It is assumed that the teacher signal YT has N elements, and the parameter which is the output signal from the neural network 16 is 6 elements (this may be generally M elements) as described above. Approximately determine the equilibrium value of the parameter. Then, the five parameters are fixed at their equilibrium points, and N variations of the output value YS of the simulation model 12 when one parameter fluctuates up and down are obtained. When this value is obtained, the differential coefficient (slope) of the output value YS with respect to the parameter C6i (i = 1 to 6) is obtained. By applying this to all (six) parameters C6i, a vertical vector on the right side of equation (4), that is, a conversion function F (•) can be obtained.
[0023]
FIG. 6 is an operation flowchart showing a learning operation according to the embodiment. First, the steady-state feature value is input to the neural network 16, and one forward calculation is performed, that is, the output when the input is given to the input layer shown in FIG. 4 is calculated, and the parameters of the simulation model 12 are output (S1). . Next, the parameters obtained by the neural network 16 are input to the simulation model 12 (S2). Next, the transient state input is input to the simulation model 12, and the output value YS is obtained (S3). This transient state input data is input data of a transient state that has shifted from the steady state of the feature amount input to the neural network 16. On the other hand, the transient state output data YT of the mill device based on the transient state input data is input. This YT is called a teacher signal. The difference between YT and YS is defined as an error e, and the error e is evaluated as follows (S4).
[0024]
The error determination block 15 obtains the square of the error e shown in the equation (1) and checks whether or not this value has become a predetermined small positive number or less (S5). The learned parameter is adopted as the true value or a value close to the true value and learning is stopped (S6). However, if the value does not decrease to the predetermined value (S5), the conversion F (·) shown in the expression (4) is applied to the error e and converted to ε (S7). As a result, the dimension becomes the same as that of the neural network 16, and the weight coefficient Wij in the neural network is changed by back propagation using ε (S8). The change of the weight coefficient Wij is such that when ε approaches zero, the weight of the connection transmitting the signal at that time is slightly increased, and when the distance goes beyond zero, the weight of the connection transmitting the signal at that time is slightly reduced. Next, steps S1 to S4 are repeated, and a determination is made in step S5. If the result of the determination is that the value does not become smaller than a predetermined small positive number, steps S1 to S5 and S7 to S8 are repeated until the value becomes smaller, and when it becomes smaller, the learning is terminated (S6).
[0025]
An output YS of the simulation model 12 in a transient state in this manner, the neural network 16 so that the square e 2 of the error e is minimized between the measured data YT mill device inputs the feature quantity of the steady state, the simulation model 12 Learning is performed while outputting parameters. Further, since learning is performed by associating the parameter which is the output of the neural network 16 with the steady-state feature value, it is possible to predict a change in the transient state from a change in the steady state. Such learning is also possible during operation of the mill.
[0026]
【The invention's effect】
As is clear from the above description, according to the present invention, the neural network performs learning so as to output the parameters of the simulation model from the neural network and to output a parameter that minimizes the error between the output of the simulation model and the output of the mill. . Steady state features are input to the neural network, and transient state input data is input to the simulation model, so that changes in the transient state can be predicted from changes in the steady state. The neural network enables learning of the parameters of the simulation model even during operation of the mill, so that the prediction accuracy of the simulation model is improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a mill characteristic measuring device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of input / output data.
FIG. 3 is a diagram illustrating a configuration of a computer that realizes the blocks illustrated in FIG. 1;
FIG. 4 is a diagram showing a back propagation model of a neural network.
FIG. 5 is a diagram showing a configuration of a neuro operation element.
FIG. 6 is an operation flowchart showing a learning operation of the embodiment.
[Explanation of symbols]
Reference Signs List 10 data classification means 11 feature calculation means 12 simulation model 13 error calculation unit 14 converter 15 error determination means 16 neural network

Claims (2)

原炭を粉砕しローラにより微粉炭にするミルの特性計測装置であって、ミルの入力データと出力データとを入力し、定常状態と過渡状態のデータを分別するデータ分別手段と、このデータ分別手段から定常状態入出力データを入力して、定常状態の特徴量を算出する特徴量演算手段と、前記データ分別手段より過渡状態入力データを入力し、パラメータに基づいて過渡状態出力データを予測した予測データを出力するシミュレーションモデルと、前記データ分別手段からの過渡状態出力データと前記予測データとの誤差を求める誤差演算器と、前記定常状態特徴量と前記誤差を入力して前記シミュレーションモデルに前記パラメータを出力するニューラルネットワークと、前記誤差を入力しこの誤差が所定値を越える時、前記ニューラルネットワークに前記誤差が零になるように学習開始を指示する誤差判定手段とを備えることを特徴とするミル特性計測装置。A device for measuring the characteristics of a mill that pulverizes raw coal and converts it into pulverized coal by a roller, which inputs input data and output data of the mill and separates data in a steady state and in a transient state; The steady state input / output data is input from the means, the characteristic amount calculating means for calculating the steady state characteristic amount, and the transient state input data is input from the data classification means, and the transient state output data is predicted based on the parameters. A simulation model for outputting prediction data, an error calculator for calculating an error between the transient state output data from the data classification means and the prediction data, and inputting the steady state feature value and the error to the simulation model. A neural network for outputting a parameter, and an input of the error, and when the error exceeds a predetermined value, the neural network. Mill characteristic measurement apparatus; and a prediction error decision unit that instructs learning start so that the error in the work becomes zero. 前記誤差演算器の出力する誤差データを前記パラメータと同一次元のデータに変換する変換器を設け、その出力を前記ニューラルネットワークに出力することを特徴とする請求項1記載のミル特性計測装置。2. The mill characteristic measuring device according to claim 1, further comprising a converter for converting error data output from the error calculator into data having the same dimension as the parameter, and outputting the output to the neural network.
JP1972696A 1996-02-06 1996-02-06 Mill characteristic measuring device Expired - Lifetime JP3565380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1972696A JP3565380B2 (en) 1996-02-06 1996-02-06 Mill characteristic measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1972696A JP3565380B2 (en) 1996-02-06 1996-02-06 Mill characteristic measuring device

Publications (2)

Publication Number Publication Date
JPH09212207A JPH09212207A (en) 1997-08-15
JP3565380B2 true JP3565380B2 (en) 2004-09-15

Family

ID=12007322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1972696A Expired - Lifetime JP3565380B2 (en) 1996-02-06 1996-02-06 Mill characteristic measuring device

Country Status (1)

Country Link
JP (1) JP3565380B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209405A (en) * 2000-01-24 2001-08-03 Hitachi Ltd Plant control method and equipment
DE102007006092A1 (en) * 2007-02-07 2008-08-14 Polysius Ag Process for comminuting regrind with a roller mill
WO2020227383A1 (en) * 2019-05-09 2020-11-12 Aspen Technology, Inc. Combining machine learning with domain knowledge and first principles for modeling in the process industries
CN110135058A (en) * 2019-05-14 2019-08-16 北京工业大学 Mill load parameter prediction method based on multi-modal feature subset selection integrated moulding
US11782401B2 (en) 2019-08-02 2023-10-10 Aspentech Corporation Apparatus and methods to build deep learning controller using non-invasive closed loop exploration
WO2021076760A1 (en) 2019-10-18 2021-04-22 Aspen Technology, Inc. System and methods for automated model development from plant historical data for advanced process control

Also Published As

Publication number Publication date
JPH09212207A (en) 1997-08-15

Similar Documents

Publication Publication Date Title
JP5005814B2 (en) Battery long-term characteristic prediction system and method
Solak et al. Derivative observations in Gaussian process models of dynamic systems
CN102792234B (en) Method for the computer-aided control of a technical system
JP5313250B2 (en) Battery long-term characteristic prediction system and method
JP7098411B2 (en) Power system supply and demand adjustment monitoring device
CN101542542B (en) Degree-of-stain judging device and degree-of-stain judging method
JP3565380B2 (en) Mill characteristic measuring device
CN111554353A (en) On-line prediction method for parameters of copper smelting process of oxygen bottom-blowing furnace
Franceschini et al. Control chart for linguistic variables: a method based on the use of linguistic quantifiers
CN112926770A (en) Unified data metering and collecting system based on digital twins
CN108388703A (en) For non-linear and random process flexible measurement method
He et al. Development of a fuzzy-neuro system for parameter resetting of injection molding
CN111983140B (en) Carbon monoxide measuring system and method for dry quenching production
CN113533622A (en) Coal quality prediction method for coal mill based on neural network
JP3560406B2 (en) Mill characteristic measuring device
KR100328937B1 (en) Method for predicting blowing of converter using neural network
JPH06106009B2 (en) Optimal power load distribution system by neural network
CN113036801B (en) Distributed multi-energy system considering time characteristics and control method thereof
JP3160693B2 (en) Heat load prediction device
CN114399024B (en) Oil gas concentration big data intelligent detection system
WO2022158037A1 (en) Quality prediction system, model-generating device, quality prediction method, and quality prediction program
KR20220025511A (en) Method and apparatus for managing energy of smart factory
JPH06304724A (en) Method and device for quality control
JP4379603B2 (en) Color processing apparatus, color processing program, and storage medium
JPH07107667A (en) Monitoring apparatus for electric power system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040603

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140618

Year of fee payment: 10

EXPY Cancellation because of completion of term