JPH0637648B2 - Blast furnace furnace heat prediction method - Google Patents

Blast furnace furnace heat prediction method

Info

Publication number
JPH0637648B2
JPH0637648B2 JP63322187A JP32218788A JPH0637648B2 JP H0637648 B2 JPH0637648 B2 JP H0637648B2 JP 63322187 A JP63322187 A JP 63322187A JP 32218788 A JP32218788 A JP 32218788A JP H0637648 B2 JPH0637648 B2 JP H0637648B2
Authority
JP
Japan
Prior art keywords
data
layer
output
furnace heat
blast furnace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63322187A
Other languages
Japanese (ja)
Other versions
JPH02170904A (en
Inventor
勇之輔 牧
康男 増田
寿郎 沢田
敬司 小林
暢宏 高島
Original Assignee
川崎製鉄株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎製鉄株式会社 filed Critical 川崎製鉄株式会社
Priority to JP63322187A priority Critical patent/JPH0637648B2/en
Publication of JPH02170904A publication Critical patent/JPH02170904A/en
Publication of JPH0637648B2 publication Critical patent/JPH0637648B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は高炉炉熱予測方法に関し、高炉炉熱制御および
それを含む高炉操業方法に関する。
TECHNICAL FIELD The present invention relates to a blast furnace heat prediction method, and more particularly to a blast furnace heat control and a blast furnace operation method including the same.

〔従来の技術〕[Conventional technology]

溶銑温度に代表される高炉内温度を推定し、かつそれを
管理制御する方法は、従来から高炉操業者が高炉に設置
された種々のセンサからの情報を定性的に判定して、高
炉炉熱レベルおよびその推移を推定評価し、操業因子の
最適な調整を行うという方法が取られている。
The method of estimating the temperature inside the blast furnace, which is represented by the hot metal temperature, and managing and controlling it is the conventional method in which a blast furnace operator qualitatively determines information from various sensors installed in the blast furnace to determine the blast furnace temperature. The method is to estimate and evaluate the level and its transition, and to adjust the operation factor optimally.

ところがその評価や推定の結果には操業者の能力や経験
等による個人差があり、操業方法を標準化することが難
しいと共に、評価が定量的でないため、常に適切なアク
ションが取られていたわけではなかった。このうち特に
炉熱レベルの将来推移を予測することは、現状炉熱レベ
ルの認識以上に操業者の経験と判断によるところが大き
く、正確に予測し、アクションをとることはより難しい
という問題点があった。
However, there are individual differences in the evaluation and estimation results due to the ability and experience of operators, and it is difficult to standardize the operation method, and since the evaluation is not quantitative, appropriate actions were not always taken. It was Of these, the prediction of future changes in the furnace heat level is due in large part to the experience and judgment of operators, beyond the recognition of the current furnace heat level, and there is the problem that it is more difficult to accurately predict and take action. It was

このような問題点を解決するため、特開昭62−270
708では、知識工学の手法を応用し、炉熱レベルおよ
び炉熱推移を推論し、高炉に対するアクション量を決定
する炉熱制御システムが提案されている。
In order to solve such a problem, JP-A-62-270
In 708, a furnace heat control system is proposed which applies a knowledge engineering technique to infer the furnace heat level and the furnace heat transition to determine the action amount for the blast furnace.

ここでの炉熱推移は、 溶鉄温度の過去から現在までの推移に基づく判定ル
ール、 羽口埋込温度、荷下り、送風圧力、ガス利用率、ソ
リューションロス量、炉頂温度等のレベルと推移に基づ
く判定ルール、および 炉況の推移に基づく判定ルール などから総合的に求められた5段階の推移評価レベルと
それぞれの確信度から判定するようになっている。
The transition of the furnace heat here is the level of the judgment rule based on the transition of the molten iron temperature from the past to the present, the tuyere embedded temperature, the unloading pressure, the blast pressure, the gas utilization rate, the solution loss amount, the furnace top temperature, etc. Judgment rules are based on the five-stage transition evaluation level, which is obtained comprehensively from the judgment rules based on the above, and the judgment rules based on the transition of reactor conditions, and the respective confidence factors.

炉熱レベルの変化は、このように多くの要因によって引
き起こされ、かつ、観測されるもので従来のオペレータ
の経験則をプロダクションルールで表現することによっ
て問題を解決しようとしている。
Changes in the furnace heat level are caused and observed by many factors as described above, and the problem is solved by expressing the rule of thumb of the conventional operator in the production rule.

しかしながら、前記各種データと、炉熱推移の因果関係
は熟練オペレータと言えども十分把握しているわけでは
ない。従って、前記〜の判定ルールやそれぞれに定
められた確信度の精度は十分でなく、ひいては炉熱制御
のアクションが適切でないタイミングに取られたりアク
ション量が適切でないという機能低下を招く危険性があ
った。また、炉熱推移の予測精度を維持するには、判定
ルールや確信度を常時修正してチューニングしてやる必
要があり、システムのメンテナンス負荷が高かった。
However, the causal relationship between the above-mentioned various data and the furnace heat transition is not sufficiently understood even by a skilled operator. Therefore, the accuracy of the above-mentioned judgment rules and certainty factors set for each is not sufficient, and there is a risk that the action of the furnace heat control is taken at an inappropriate timing or the action amount is not appropriate. It was Further, in order to maintain the accuracy of predicting the furnace heat transition, it is necessary to constantly revise the judgment rules and certainty factors and tune them, and the maintenance load on the system was high.

また、特開昭60−248804、特公昭60−187
21、特開昭60−204813、特開昭61−254
853などはいずれも統計的推定、指数平均、周波数解
析など数式モデルによって炉熱を予測する方法である。
これらの方法は数式モデルの精度に依存しており、モデ
ル式を精度良く組立てるのは困難であった。その精度維
持のためのメンテナンス負荷も同様に高くなってしま
う。
Also, JP-A-60-248804 and JP-B-60-187.
21, JP-A-60-204813, JP-A-61-254.
853 and the like are methods of predicting furnace heat by a mathematical model such as statistical estimation, exponential averaging, and frequency analysis.
These methods depend on the precision of the mathematical model, and it is difficult to assemble the model formula accurately. The maintenance load for maintaining the accuracy also increases.

〔発明が解決しようとする課題〕 本発明はこのように従来のエキスパートシステムにおけ
るプロダクションンルールや数式モデルによる炉熱の推
移予測方法のもつ次のような問題点を解決するために開
発されたものである。
[Problems to be Solved by the Invention] The present invention was developed in order to solve the following problems with the method for predicting the transition of the furnace heat by the production rule and the mathematical model in the conventional expert system as described above. Is.

(1) 各種観測データと炉熱レベル推移の因果関係が
不明確であり、定式化したロジックが組立てにくい。そ
のため、予測精度が不十分である。
(1) The causal relationship between various observation data and changes in reactor heat level is unclear, and it is difficult to assemble a formulated logic. Therefore, the prediction accuracy is insufficient.

(2) システムの性能を維持するためのメンテナンス
負荷が高い。パラメータチューニング等に時間がかかり
かつ、そのパラメータも変化することがある。
(2) Maintenance load is high for maintaining system performance. Parameter tuning takes time and the parameters may change.

〔課題を解決するための手段〕[Means for Solving the Problems]

本発明で、高炉炉熱レベルの現在から将来にむけての推
移を予測する方法は、 (a) 高炉操業データを各ユニットに入力できるよう
にした入力層をもち、炉熱がどのくらいの確率で将来上
昇してゆくか、現状維持するのか、下がってゆくのかと
いう炉熱レベルの推移予測結果を出力する出力層をも
ち、予め学習させた、2層以上の階層型のニューラルネ
ットワークを用意しておく。
In the present invention, the method of predicting the transition of the blast furnace heat level from the present time to the future is as follows: (a) It has an input layer that allows the blast furnace operation data to be input to each unit, and the probability of the furnace heat Prepare a pre-learned layered neural network of two or more layers, which has an output layer that outputs the predicted result of the transition of the furnace heat level whether it rises in the future, maintains the current state, or decreases. deep.

(b) 高炉に設置された各種センサを基に作られた、
炉熱を予測するのに必要で、少なくとも高炉の荷下り状
況、ガス成分状況、現在の炉熱レベル、炉体温度や圧損
状況、過去のアクション履歴を表わすものを含んだ各種
データを所定のタイミングで読み込む。
(B) Made based on various sensors installed in the blast furnace,
It is necessary to predict the furnace heat, and various data including at least the unloading status of the blast furnace, the gas composition status, the current furnace heat level, the furnace body temperature and pressure loss status, and the past action history data are provided at a predetermined timing. Read with.

(c) これらのデータからそれぞれが最近数時間の間
にどのような変化をしたか、どのような履歴を経ている
かを表わす各種データに加工する。例えばガス性分の状
況を示すデータとしてηCOの変化量やNの変化量を
測定したガス分析値から計算処理によって求める。
(C) The data is processed into various data representing what kind of change each of these data has made in the last few hours and what kind of history has passed. For example, the amount of change in η CO or the amount of change in N 2 is calculated as a data indicating the state of the gaseous component by a calculation process from the measured gas analysis value.

(d) 加工されたデータをニューラルネットワークの
入力層に入力する。ネットワーク内部では、各層の各ユ
ニットが全ユニットからのリンクを入力して総和を取
り、その結果にある内部関数を乗じて1つの出力を求
め、それを次の層の全ユニットに出力し、最終的に出力
層に設けた少なくとも1つのユニットから、炉熱レベル
が将来上昇していくのか、現状維持であるのか、または
低下していくのかを定量的に出力する。
(D) Input the processed data to the input layer of the neural network. Inside the network, each unit in each layer inputs the links from all units, sums them, multiplies the result by an internal function to obtain one output, outputs it to all units in the next layer, and finally outputs At least one unit provided in the output layer quantitatively outputs whether the furnace heat level is going to increase in the future, is maintained as it is, or is going down.

(e) さらに、前記ニューラルネットワークを学習さ
せるに当り、炉熱レベルの維移実績を溶銑温度等炉熱を
代表する測定値の最近の変化量で定量化し、該変化量が
正方向に大きいときは炉熱が上昇したと判定し、負方向
に大きいときは炉熱が低下したと判定することにより、
ネットワーク予測結果(ニューラルネットワークの出
力)の教師データを作り、そのときの参照入力データと
実予測結果出力とともにネットワークを学習させること
により、ニューラルネットワークの相互結合係数を自動
生成あるいは修正する。
(E) Further, in learning the neural network, the transition record of the furnace heat level is quantified by the recent change amount of the measured value representative of the furnace heat such as the hot metal temperature, and when the change amount is large in the positive direction. Determines that the furnace heat has increased, and when it is large in the negative direction, it is determined that the furnace heat has decreased,
By creating teaching data of the network prediction result (output of the neural network) and learning the network together with the reference input data and the actual prediction result output at that time, the mutual coupling coefficient of the neural network is automatically generated or modified.

ここでニューラルネットワークについて日経エレクトロ
ニクス(1987.8.10)115〜124頁を参照して簡単に説明す
る。
Here, the neural network will be briefly described with reference to pages 115 to 124 of Nikkei Electronics (1987.8.10).

ニューラルネットワークは、人間の脳を真似たネットワ
ークである。脳のニューロンに対応したユニットが複数
個、複雑に接続し合っている。各ユニットの動作および
ユニット間の接続形態をうまく決めることによって、パ
ターン認識機能、知識処理機能を埋め込むことができ
る。
A neural network is a network that imitates the human brain. Multiple units corresponding to brain neurons are connected intricately. The pattern recognition function and the knowledge processing function can be embedded by properly determining the operation of each unit and the connection form between the units.

ユニットの構造はニューロンをモデル化したものでこれ
を第4図に模式的に示した。構造は単純で、他のユニッ
トから入力を受ける部分、入力を一定の規則で変換する
部分、結果を出力する部分から成る。
The structure of the unit is a model of a neuron, which is shown schematically in FIG. The structure is simple and consists of a part that receives input from other units, a part that converts the input according to a certain rule, and a part that outputs the result.

他のユニットとを結合部には、それぞれ可変の重みW
ijを付ける。結合の強さを表わすためである。この値
を変えるとネットワークの構造が変わる。ネットワーク
の学習とは、この値を変えることである。Wは、正、ゼ
ロ、負の値をとる。ゼロは結合のないことを表わす。
A variable weight W is provided for each of the other units and the connecting portion.
Add ij . This is to show the strength of the bond. Changing this value changes the network structure. Learning the network means changing this value. W takes positive, zero, and negative values. Zero means no bond.

あるユニットが複数ユニットから入力を受けた場合、そ
の総和を入力値とする。入力の総和netは、 である。
When a unit receives input from multiple units, the total sum is used as the input value. The sum of input net is Is.

各ユニットは入力の総和netを関数fに適用し変換す
る。この入出力特性は各ユニットごとに違っていい。し
かし、一般には第4図(b)または(c)の関数を使う
ことが多い。第4図(c)はsigmoid関数と呼ぶ。微分
可能な、擬似線形関数で、 で表すことができる。領域は0〜1で、入力値が大きく
なるにつれ1に、小さくなるにつれ0に近づく。入力が
0のときは0.5となる。しきに値θを加えて、 とする場合もある。
Each unit applies the total sum net of inputs to the function f and converts it. This input / output characteristic may differ for each unit. However, generally, the function shown in FIG. 4 (b) or (c) is often used. FIG. 4 (c) is called a sigmoid function. Is a differentiable, pseudo-linear function, Can be expressed as The area is 0 to 1, and approaches 1 as the input value increases and approaches 0 as the input value decreases. When the input is 0, it becomes 0.5. Add the value θ to the threshold, In some cases.

ネットワークは第5図に示すような階層構造を採る。入
力層、出力層の間に中間層をもたせている。この中間層
を穏れ層と呼ぶ。他の構造のニューラルネットもあるが
ここではパックプロパゲーション・アルゴリズムが使え
る階層構造のネットワークに限定する。
The network has a hierarchical structure as shown in FIG. An intermediate layer is provided between the input layer and the output layer. This intermediate layer is called a relaxation layer. There are neural nets with other structures, but here we limit ourselves to hierarchical networks that can use the pack propagation algorithm.

ネットワークは入力層、中間層、出力層の方向に結合し
ている。各層内での経合はない。出力層から入力層に向
かう結合もない。フィードフォワードつまり前向きのネ
ットワークである。
The networks are connected in the direction of the input layer, the middle layer and the output layer. There is no account within each layer. There is also no coupling from the output layer to the input layer. It is a feedforward or positive network.

パーセプトロンと似た構造だが、中間層を設け、また各
ユニットの入出力特性を非線形にしたことで能力は格段
に向上している。
Although it has a structure similar to that of the Perceptron, the capacity is significantly improved by providing an intermediate layer and making the input / output characteristics of each unit non-linear.

ネットワークは次のように学習させる。入力層の各ユニ
ットに入力データを与える。この信号は各ユニットで変
換され、中間層に伝わり、最後に出力層から出てくる。
その出力値と、望ましい出力値を比べ、その差を減らす
ように結合の強さを変える。
The network is trained as follows. Input data is given to each unit of the input layer. This signal is converted in each unit, propagates to the intermediate layer, and finally emerges from the output layer.
The output value is compared with the desired output value, and the coupling strength is changed so as to reduce the difference.

中間層があると学習は難しい。どのW(結合の強さ)が
エラー原因がわからないためである。バックプロパゲー
ションは、こうした多層のネットワークの学習アルゴリ
ズムである。1986年にカリフォルニア大学のラメル
ハートらが提案した。
Learning is difficult with the middle class. This is because it is not known which W (coupling strength) causes the error. Backpropagation is a learning algorithm for such multi-layer networks. It was proposed by Ramel Hart et al. Of the University of California in 1986.

あるパターンpを与えたとき、実際の出力値(Opj
と望ましい出力値(tpj)の差を と定義する。これは出力ユニットjのエラーを表す。t
pjは人間が与える教師データである。
Actual output value (O pj ) when given pattern p
And the desired output value (t pj ) It is defined as This represents an error in output unit j. t
pj is teacher data given by a human.

学習させるには、このエラーを減らすようにすべての結
合の強さを変えればいい。ここでは、パターンpを与え
た時のWijの変化量を、 と決める。
To train, you can change the strength of all bonds to reduce this error. Here, the change amount of W ij when the pattern p is given is Decide.

この式(5)を変形していくことで、ΔWを定式化する
ことができる。結果は、 ΔpWij=ηδpjpj…(6) である。ここで、Opiはユニットiからユニットjへ
の入力値、δpjはユニットjが出力ユニットか中間ユ
ニットかで異なる。出力ユニットの場合は、 δpj=(tpj−σpj)fi′(netpj) …(7) 中間ユニットの場合は、 である。式(8)はδの再帰関数となる。
By modifying this formula (5), ΔW can be formulated. The result is ΔpW ij = ηδ pj O pj (6). Here, O pi is an input value from the unit i to the unit j, and δ pj is different depending on whether the unit j is the output unit or the intermediate unit. In the case of the output unit, δ pj = (t pj −σ pj ) fi ′ (net pj ) (7) In the case of the intermediate unit, Is. Expression (8) is a recursive function of δ.

ΔWの計算は、出力層のユニットから始めて、中間層の
ユニットに移る。中間ユニットでは、ΔWはその前段の
ΔWが決まらないと計算できない。従って、最後の入力
層までさかのぼって初めて計算が可能となる。このよう
に、学習は入力データの処理とは逆方向、つまり後ろ向
き(バックワード)に進む。
The calculation of ΔW starts with units in the output layer and moves to units in the intermediate layer. In the intermediate unit, ΔW cannot be calculated unless the preceding ΔW is determined. Therefore, the calculation can be performed only by going back to the last input layer. In this way, learning proceeds in the opposite direction to the processing of the input data, that is, backward (backward).

従って、バックプロパゲーションによる学習は以下のよ
うに進む。学習用のデータを入力し、結果を出力する
(前向き)。結果のエラーを減らすように、結合の強さ
を変える(後ろ向き)。再び学習用データを入力する。
これを収束するまで繰り返す。
Therefore, learning by backpropagation proceeds as follows. Input learning data and output the results (forward). Change the strength of the bond (backward) to reduce the resulting error. Input the learning data again.
This is repeated until it converges.

ΔWを一般的に定式化したのが、 ΔWij(n+1) =ηδpjpj+αΔWij(n) である。nは学習の回数を表す。右辺の第1項は今求め
たΔWであり、第2項はエラーの振動を減らし、収束を
速めるために加えている。
A general formula of ΔW is ΔW ij (n + 1) = ηδ pj O pj + αΔW ij (n). n represents the number of times of learning. The first term on the right side is ΔW just obtained, and the second term is added to reduce the error vibration and accelerate the convergence.

〔作用〕[Action]

本発明の作用は各種の高炉操業データから、前述の手段
によって、高炉炉熱レベルの推移を定性的かつ定量的に
予測することであり、また予測精度を向上させるための
前記学習手段によりネットワークの相互結合係数を自動
生成あるいは修正することである。
The operation of the present invention is to predict the transition of the blast furnace heat level qualitatively and quantitatively from the various blast furnace operation data by the above-mentioned means, and also to use the learning means to improve the prediction accuracy of the network. The automatic generation or modification of the mutual coupling coefficient.

〔実施例〕〔Example〕

次に、さらに詳細な実施例を図面に基いて説明する。 Next, a more detailed embodiment will be described with reference to the drawings.

第1図は本発明方法を実施するたもめの高炉炉熱予測シ
ステムの入出力及び処理の過程を説明したブロック図で
ある。
FIG. 1 is a block diagram for explaining the process of input / output and processing of a thermal prediction system for a blast furnace for carrying out the method of the present invention.

図中、円形の枠はシステムの入力と出力を示し、矩形の
ブロックはシステム内部の処理を示している。
In the figure, a circular frame shows the input and output of the system, and a rectangular block shows the processing inside the system.

このシステムは当然高炉プロセス用計算機によって具現
化されるものであるが、計算機の規模、台数、構成等は
本発明の制約するところではない。しかし、高炉操業デ
ータの入力や予測結果を炉熱制御に使う場合の出力は十
分なリアルタイム性をもっている必要がある。
This system is, of course, embodied by a blast furnace process computer, but the size, number, configuration, etc. of the computer are not restricted by the present invention. However, the input of blast furnace operation data and the output when the prediction result is used for furnace heat control must have sufficient real-time property.

さて第1図において、高炉操業データ1は各種センサに
よる測定データを基にした操業データであり、これらは
データ入力手段2を通してシステムに取り込まれ、デー
タ加工手段3によって炉熱を判断するために必要な観測
事象に加工される。従来、オペレータは高炉操業の現在
値だけを見て、炉熱の推移を予測していたわけではな
く、過去数時間前から現在に至るまでの測定データのト
レンドを見て予測していたことから、過去から現在への
一定時間の変化量等時間的ファクターを含んだ情報に加
工処理するわけである。
Now, in FIG. 1, the blast furnace operation data 1 is operation data based on the measurement data by various sensors, and these are taken in the system through the data input means 2 and necessary for judging the furnace heat by the data processing means 3. It is processed into various observation events. Conventionally, the operator did not predict only the current value of the blast furnace operation and predicted the transition of the furnace heat, but rather predicted by looking at the trend of measurement data from the past several hours to the present, It is processed into information that includes a temporal factor such as the amount of change over a certain period from the past to the present.

これらのデータはニューラルネットワーク4に渡され、
ニューラルネットワーク4は予測結果5をアウトプット
する。
These data are passed to the neural network 4,
The neural network 4 outputs the prediction result 5.

予測結果5は(a)熱くなるだろう、(b)そのまま変
わらないだろう、(c)若くなるだろうという3段階の
情報とした。(a)〜(c)の各アイテムは0か1かの
デジタル情報にしてもよいが、より定量的な扱いができ
るよう0〜1の間にある数字でもって確信度を表わすこ
ととしている。
Prediction result 5 has three levels of information: (a) it will become hot, (b) it will not change, and (c) it will become younger. Each of the items (a) to (c) may be digital information of 0 or 1, but the certainty is represented by a number between 0 and 1 so that it can be handled more quantitatively.

これとは別にネットワークの学習のため、参照入力デー
タ6と教師出力7をシステムに与える。参照入力データ
6は高炉操業データ1と形式的には同じであり、教師出
力7は予測結果5と形式的には同じであるが、教師出力
7は参照入力データ6に対する出力として正確な情報で
ある必要がある。熟練オペレータが教師となり、教師出
力7のデータを与えることになるが、本発明では後述す
るようにこの教師データをも自動作成する方法を提案す
る。学習用パターン作成処理8は単に参照入力データ
6、教師出力7をニューラルネットワークが学習しやす
いようなパターンに変換しているだけのものである。
Separately, reference input data 6 and teacher output 7 are given to the system for network learning. The reference input data 6 is formally the same as the blast furnace operation data 1, and the teacher output 7 is the same form as the prediction result 5, but the teacher output 7 is accurate information as an output for the reference input data 6. Need to be Although the skilled operator will be the teacher and will provide the data of the teacher output 7, the present invention proposes a method of automatically creating this teacher data as described later. The learning pattern creation process 8 simply converts the reference input data 6 and the teacher output 7 into a pattern that is easy for the neural network to learn.

以上の構成からなる炉熱予測方法をさらに詳細に説明す
る。
The furnace heat prediction method having the above configuration will be described in more detail.

先ず第1図のデータ入力手段2に与える高炉操業データ
1は下記のものである。
First, the blast furnace operation data 1 given to the data input means 2 in FIG. 1 is as follows.

一方的指数 この指数は差指間隔が速くなっているか遅くなっている
かを示す指数である。
One-sided index This index is an index that indicates whether the index finger interval is faster or slower.

装入回数 現在が当日何回目のチャージかを示す番号 ガス利用率(ηCOCO、CO:炉頂ガス成分 N成分(N) 炉頂ガスの[N]分析値 炉熱指数(H) 銑鉄スラグの加熱に用いられる熱量を表わし、いわゆる
炉熱の指数として使われているものである。羽口前の発
生熱量からソリューションロス反応、Hによる還元反
応、CaCOの分解反応による吸熱を差別したもので
ある。
Number of charges Number indicating how many times the current charge is on the day Gas utilization rate (η CO ) CO, CO 2 : Top gas component N 2 component (N 2 ) [N 2 ] analysis value of top gas Furnace heat index (H 0 ) Represents the amount of heat used to heat the pig iron slag, and is used as a so-called furnace heat index. It is used. It distinguishes the heat loss due to the solution loss reaction, the reduction reaction by H 2 , and the decomposition reaction of CaCO 3 from the amount of heat generated before the tuyere.

ソリューションロスカーボン量(CSOL)直接還
元によりガス化したカーボン量 ステーブ熱負荷(STL):ステーブからの抜熱量
を示すもので下式で表わされる。
Solution loss Carbon amount (CSOL) Carbon amount gasified by direct reduction Stave heat load (STL): Shows the amount of heat removed from the stave and is represented by the following formula.

STL=F×(T−T)×k 但し、 k:定数 F:ステーブ冷却水量 T:出口水温 T:入口水温 炉下部圧損(DPL) DPL=(熱風圧力) −(シャフト圧力下段) シャフト圧力測定点が複数個の場合、DPLもいくつか
ある。
STL = F × (T 0 −T i ) × k where k: constant F: stave cooling water amount T 0 : outlet water temperature T i : inlet water temperature lower pressure loss (DPL) DPL = (hot air pressure) − (shaft pressure lower stage) ) If there are multiple shaft pressure measurement points, there are some DPLs.

上記データのうち、、は荷下りに関するデータ、
、はガス成分に関するデータ、、は炉熱そのも
のに関するデータ、、は炉体の温度と圧力に関する
データであり、従来オペレータが炉熱予測の手掛かりと
して監視していたものを採用している。
Of the above data, is data regarding unloading,
, Are data on gas components, are data on furnace heat itself, are data on temperature and pressure of the furnace body, which are conventionally monitored by operators as clues for predicting furnace heat.

次に第1図のデータ加工処理3の実施例を説明する。前
記〜に対応して次のようなデータ加工を行う。
Next, an embodiment of the data processing process 3 in FIG. 1 will be described. The following data processing is performed corresponding to the above items.

′「一方的指数」はその変化量に加工する。最新5チ
ャージの平均とその前5チャージの平均との差を一方的
指数の変化量とする。
′ “One-way index” is processed into the amount of change. The difference between the average of the latest 5 charges and the average of the preceding 5 charges is defined as the change amount of the unilateral index.

′「装入回数」は装入回数の差に加工する。最新8時
間の装入回数と、前回推定時に使った同値との差を装入
回数の差とする。
′ “Number of charging” is processed to the difference of charging number. The difference between the charging number in the latest 8 hours and the same value used in the previous estimation is the difference in the charging number.

′「ηCO」はηCOの変化量に加工する。直近30
分のηCO平均値と直近2時間のηCO平均値との差を
ηCOの変化量とする。
′ “Η CO ” is processed into the amount of change in η CO . Last 30
The difference between eta CO average value of minute eta CO mean and last 2 hours and the amount of change in eta CO.

′「(N)」はNの変化量に加工する。加工方法
は′と同じ。
′ “(N 2 )” is processed into the amount of change in N 2 . The processing method is the same as ′.

′「H」はHの変化量に加工する。30分毎H
の平均の直近3時間の移動平均と5〜7時間前の移動平
均との差をHの変化量とする。
′ “H 0 ” is processed into the change amount of H 0 . H 0 every 30 minutes
The difference between the moving average of the latest 3 hours and the moving average of 5 hours to 7 hours before is the change amount of H 0 .

′「ソリューションロスC量」はソリューションロス
C量の変化量とする。加工方法は′と同じ。
'The amount of solution loss C is the amount of change in the amount of solution loss C. The processing method is the same as ′.

′「STL」はSTLの変化量に加工する。直近30
分のSTL平均値と1〜2時間前のSTL平均値の差を
STLの変化量とする。
'"STL" is processed into the amount of change in STL. Last 30
The difference between the STL average value of minutes and the STL average value of 1 to 2 hours ago is defined as the STL change amount.

′「DPL」はDPL変化量に加工する。加工方法は
′と同じ。
'"DPL" is processed into the DPL change amount. The processing method is the same as ′.

このようなデータ加工の方法は本例だけでなくあらゆる
方法が考えられる。炉熱の変化を予測できる情報であり
さえすればよい。
Not only this example, but various methods of data processing can be considered. It only needs to be information that can predict changes in furnace heat.

第2図はニューラルネットワークの構成例を示したもの
である。第1図のデータ加工手段3で加工されたデータ
を受け入れる入力層と、予測結果の出力層の間に隠れ層
を一つおいた3層構造とした。ニューラルネットワーク
2層構造では線形であるのに対し、3層以上では非線形
になり情報加工能力が格段に向上する。従って、一般的
には中間層(隠れ層)を設けた3層以上のネットワーク
を使うところが多い。本実施例では出力層は3ユニット
で前述の「熱くなるだろう」、「現状の維持」、「若く
なるだろう」の3つの情報にそれぞれ一つのユニットを
対応させている。
FIG. 2 shows a configuration example of the neural network. A three-layer structure having one hidden layer between the input layer that receives the data processed by the data processing means 3 in FIG. 1 and the output layer of the prediction result is adopted. The two-layer structure of the neural network is linear, whereas the three-layer structure or more is non-linear and the information processing capability is significantly improved. Therefore, in general, a network having three or more layers with an intermediate layer (hidden layer) is used. In the present embodiment, the output layer has three units, and one unit is associated with each of the above-mentioned three pieces of information "will be hot", "maintain the current state", and "will be young".

隠れ層は、入力層のデータが荷下りに関するもの、ガス
成分に関するもの、炉熱に関するもの、炉体温度・圧力
に関するものに分類できるのでそれぞれに対して一つの
ユニット(合計4ユニット)を対応させている。各ユニ
ットは第3図に示すように、第k層、第iユニットを考
えると、まず、第k−1層の各ユニット出力、 にそれぞれの重み(相互結合係数) をかけたものの総和、 をとり、これに関数 但し、T:定数 をかけたものを出力 とするものである。
For the hidden layer, the input layer data can be classified into those related to unloading, those related to gas components, those related to furnace heat, and those related to furnace body temperature / pressure, so one unit (total 4 units) should be associated with each. ing. As shown in FIG. 3, when considering the k-th layer and the i-th unit, first, each unit output of the k−1-th layer, To each weight (mutual coupling coefficient) The sum of those multiplied by, Take a function However, output the product of T: constant It is what

但し、θはしきい値である。 However, θ is a threshold value.

常時1をとるユニットを入力側に設けておき、その重み
係数を−θとすることによって、上記(12)式に反映
させ、しきい値も学習による修正が可能なようにした。
A unit that always takes 1 is provided on the input side, and its weighting coefficient is set to −θ so that it is reflected in the above formula (12), and the threshold value can be corrected by learning.

関数は上記(13)式のようなシグモイド関数としてい
るので、しきい値は第6図のようにf(x)=0.5とな
るところにくる。また、このようなシグモイド関数にす
ることで、各ユニットの出力はすべて0〜1のある値を
とるようになる。ノルマライズするとともに、出力層で
は確信度の概念と一致させることが狙いである。
Since the function is a sigmoid function as in the above equation (13), the threshold value comes to a position where f (x) = 0.5 as shown in FIG. Further, by using such a sigmoid function, all the outputs of each unit take a value of 0 to 1. In addition to normalizing, the aim is to match the concept of confidence in the output layer.

入力層に、第2図に示すようなデータが与えられると各
層、各ユニットは、上記(14)式に従って、出力を順
次低位の層から上位の層に伝播的に計算していく。
When data as shown in FIG. 2 is given to the input layer, each layer and each unit sequentially propagates the output from the lower layer to the upper layer in accordance with the equation (14).

出力層のアウトプットを時系列データとしてみた場合の
例を第7図に示す。3つのユニットの出力をトレンドで
示してある。それぞれ前述のように0〜1の値をもって
おり、値が1に近いほどその確率が高く0に近いほどそ
の確率が低いことを意味する。この値によって炉熱の推
移が定性的かつ定量的に予測できるわけである。
FIG. 7 shows an example in which the output of the output layer is viewed as time series data. The output of the three units is shown as a trend. As described above, each has a value of 0 to 1, and the closer the value is to 1, the higher the probability is, and the closer to 0, the lower the probability is. With this value, the transition of furnace heat can be predicted qualitatively and quantitatively.

以上は予測の実施例であるが、ネットワークの相互結合
係数の学習は、次のようにして行われる。
Although the above is the embodiment of prediction, learning of the mutual coupling coefficient of the network is performed as follows.

学習方法はルンメルハルトらのバックプロパゲーション
法である。
The learning method is the backpropagation method of Rummelhardt et al.

学習則は次式による。The learning rule is as follows.

修正量 但し、 ε、α:定数 t時刻の第k−1層jユニットから第K層iユニットへ
の重み係数の修正量 学習係数 dは第3層iユニットの教師出力をyとした場合、
出力層では、 それ以外では、 であり、fがシグモイド関数の場合、 f′(x)=f(x)(1−f(x)) ……(18) になるため、 でよい。
Correction amount Where ε and α are constants Amount of correction of the weighting factor from the j-th layer j unit to the K-th layer i unit at time t When the teacher output of the third layer i unit is y i , the learning coefficient d i is
In the output layer, Otherwise, And f is a sigmoid function, f ′ (x) = f (x) (1-f (x)) (18) Good.

修正は、出力層から入力層に向って逆転伝播的に進む。
一般的に学習は入力層へ与えた参照入力データと、教師
出力をもとに、順方向伝播と逆方向伝播を複数回繰返し
計算することによって収束する。
The correction proceeds counter-propagating from the output layer to the input layer.
In general, learning converges by iteratively calculating forward propagation and backward propagation multiple times based on reference input data given to the input layer and teacher output.

まず、学習用の教師出力データを次のようにして作る。
炉熱レベル推移の予測は、その実績を溶銑温度(HMT
と略)の実トレンドで評価する。例えば、第8図のよう
にHMTと予測結果のトレンドが得られたとする。予測
は何時間先のものかあらかじめ定めておく。ここでは3
時間とする。現在のHMTをHMT、3時間前のHM
TをHMTt−3とすると、その差 HMT−HMTt−3 を実積として評価することができる。
First, the teacher output data for learning is created as follows.
For the prediction of furnace heat level transition, the actual results are used to determine the hot metal temperature (HMT
(Abbreviated) is evaluated by the actual trend. For example, assume that the trend of HMT and the prediction result is obtained as shown in FIG. Predetermine how many hours ahead the forecast will be. 3 here
Time. Current HMT to HMT t , HM 3 hours ago
When the T and HMT t-3, it is possible to evaluate the difference HMT t -HMT t-3 as Jitsuseki.

この値を第9図のような関数にかける。第9図には区間
[0.1]の間の値をもつFf、f、fの関数が
用意してある。それぞれの意味は、 f:熱くなった f:そのままだった f:若くなった である。第8図の例では、HMT−HMTt−3は+
15℃であり、このとき f=0.5、f=0.5、f=0 である。すなわち、これが教師出力となる。
This value is multiplied by the function shown in FIG. In FIG. 9, the functions of Ff 1 , f 2 and f 3 having values in the interval [0.1] are prepared. The respective meanings are: f 1 : became hot f 2 : remained unchanged f 3 : became younger. In the example of FIG. 8, HMT t −HMT t-3 is +
The temperature is 15 ° C., and at this time, f 1 = 0.5, f 2 = 0.5, and f 3 = 0. That is, this is the teacher output.

そして、3時間前の入力データと予測結果の出力データ
をまたもってきて、上記教師出力とともにネットワーク
の学習計算にかける。
Then, the input data three hours ago and the output data of the prediction result are brought over again and subjected to the learning calculation of the network together with the teacher output.

これをある周期で実施すれば、その周期ごとにネットワ
ークの相互結合係数を自動生成することができる。この
例ではHMT実績値を教師出力データの生成に用いた
が、炉熱の状態を表わすインデックスは他にも多い。炉
熱指数Hなどでもよい。定周期にもこだわらない。よ
い教師データが生成された時に学習を起動させてもよ
い。
If this is performed in a certain cycle, the mutual coupling coefficient of the network can be automatically generated in each cycle. In this example, the HMT actual value was used to generate the teacher output data, but there are many other indexes that represent the state of furnace heat. The furnace heat index H 0 or the like may be used. Don't worry about the fixed cycle. Learning may be triggered when good teacher data is generated.

学習はいったん初期の重み係数を作ってしまったら、後
は微修正でよいため、修正のための学習頻度は比較的少
なくてよい。
Once the initial weighting coefficient has been created for learning, the frequency of learning for modification can be relatively low since fine modification is sufficient thereafter.

第10図に全体のフローを示す。通常の予測フローは定
周期起動、学習フローも定周期起動とした。実施例では
前者は20分毎後者は1日毎の定周期起動とした。
FIG. 10 shows the overall flow. The normal prediction flow is a fixed cycle start, and the learning flow is also a fixed cycle start. In the embodiment, the former is activated every 20 minutes and the latter is activated at regular intervals of every day.

第11図に本発明方法による予測結果のトレンドと実操
業のHMT推移の結果のトレンドを示す。正確に予測で
きていることがわかる。また、この予測結果に基づいて
送風温度のアクションをとったときのトレンドを第12
図に示す。溶銑温度が適正なレベルのコントロールされ
るようになった。
FIG. 11 shows the trend of the prediction result by the method of the present invention and the trend of the result of the HMT transition in the actual operation. It can be seen that the prediction is accurate. Moreover, based on this prediction result, the trend when the action of the blast temperature is taken
Shown in the figure. The hot metal temperature is now controlled to the proper level.

〔発明の効果〕〔The invention's effect〕

本発明によって、炉熱の予測精度が向上し、これを利用
して炉熱の制御モデルを構築して送風温度、コークス比
のアクションを適切にとったとき、溶銑温度が安定に適
正レベルでコントロールできるようになった。
INDUSTRIAL APPLICABILITY According to the present invention, the prediction accuracy of furnace heat is improved, and when this is used to construct a furnace heat control model and the blast temperature and coke ratio actions are appropriately taken, the hot metal temperature is stably controlled at an appropriate level. I can do it now.

また、予測システムにニューラルネットワークの学習方
法を使っているため、従来のモデルと比較して、パラメ
ータチューニングなどの保守性および開発効率が向上し
た。
In addition, since the learning method of neural network is used for the prediction system, maintainability such as parameter tuning and development efficiency are improved compared with the conventional model.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明方法を実施するためのシステムのブロッ
ク図、第2図はニューラルネットワークの実施例の説明
図、第3図はニューラルネットワークのユニットの構造
の説明図、第4図はニューラルネットワークの模式図、
第5図はニューラルネットワークの階層構造図、第6図
はニューラルネットワークのユニットの内部関数のグラ
フ、第7図はニューラルネットワークの出力層アウトプ
ットの例を示すグラフ、第8図は炉熱レベルと溶銑温度
のトレンドを示すグラフ、第9図は教師出力の基準とな
る関数のグラフ、第10図は実施例のフローチャート、
第11図、第12図は実施例における予測結果を示すグ
ラフである。 1……高炉操業データ 2……入力手段 3……加工手段 4……ニューラルネットワーク 5……ネットワークの予測結果 6……学習用参照入力データ 7……学習用教師出力 8……学習用パターン作成処理。
FIG. 1 is a block diagram of a system for carrying out the method of the present invention, FIG. 2 is an explanatory diagram of an embodiment of a neural network, FIG. 3 is an explanatory diagram of the structure of a unit of the neural network, and FIG. 4 is a neural network. Schematic diagram of
Fig. 5 is a hierarchical structure diagram of the neural network, Fig. 6 is a graph of the internal function of the unit of the neural network, Fig. 7 is a graph showing an example of the output layer output of the neural network, and Fig. 8 is the furnace heat level. FIG. 9 is a graph showing a trend of the hot metal temperature, FIG. 9 is a graph of a function serving as a reference of teacher output, and FIG.
11 and 12 are graphs showing the prediction results in the examples. 1 ... Blast furnace operation data 2 ... Input means 3 ... Processing means 4 ... Neural network 5 ... Network prediction result 6 ... Learning reference input data 7 ... Learning teacher output 8 ... Learning pattern creation processing.

フロントページの続き (72)発明者 小林 敬司 千葉県千葉市川崎町1番地 川崎製鉄株式 会社千葉製鉄所内 (72)発明者 高島 暢宏 東京都千代田区内幸町2丁目2番3号 川 崎製鉄株式会社東京本社内Front page continuation (72) Inventor Keiji Kobayashi 1 Kawasaki-cho, Chiba-shi, Chiba Kawasaki Steel Co., Ltd. Chiba Works (72) Inventor Nobuhiro Takashima 2-3-2 Uchisaiwaicho, Chiyoda-ku, Tokyo Kawasaki Steel Co., Ltd. Tokyo Head office

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】高炉炉熱レベルの将来推移を予測する方法
において、 高炉操業データを入力する入力層と、炉熱レベルの推移
予測結果を出力する出力層をもち予め学習させた、2層
以上の階層型ニューラルネットワークを用意しておき、
高炉に設置された各種のセンサから高炉操業データを所
定のタイミングで読み込み、これらのデータをそれぞれ
最近の変動状況を示す各種データに加工処理して前記ニ
ューラルネットワークの入力層に入力し、ニューラルネ
ットワークの内部において各層の各ユニットが前層の全
ユニットからのリンクを入力して総和を取り、その結果
にある内部関数を乗じて1つの出力を求め、その出力を
次の層の全ユニットに出力し、最終的に出力層に設けた
少なくとも1つのユニットから予測結果を定量的に出力
し、炉熱レベルの将来推移を定量的かつ定性的に予測す
ることを特徴とする高炉炉熱予測方法。
1. A method for predicting a future transition of blast furnace heat level, comprising two or more layers pre-learned with an input layer for inputting blast furnace operation data and an output layer for outputting a transition heat level prediction result. Prepare a hierarchical neural network of
The blast furnace operation data is read from various sensors installed in the blast furnace at a predetermined timing, and these data are processed into various data indicating the recent fluctuation status and input to the input layer of the neural network, Internally, each unit in each layer inputs the links from all units in the previous layer, sums them, multiplies the result by an internal function to obtain one output, and outputs the output to all units in the next layer. A blast furnace heat prediction method characterized by quantitatively and qualitatively predicting the future transition of the furnace heat level by quantitatively outputting the prediction result from at least one unit finally provided in the output layer.
【請求項2】請求項1記載の予測方法において、炉熱レ
ベルの推移実績を炉熱を代表する測定値の最近の変化量
で定量化し、該変化量が正方向に大きいときは炉熱が上
昇したと判定し、負方向に大きいときは炉熱が低下した
と判定することにより、ネットワーク予測結果の教師デ
ータを作り、そのときの入力値とネットワークによる実
予測結果とともに、ニューラルネットワークの学習用デ
ータを自動的に生成させ、このデータにより実際に学習
させてニューラルネットワークの相互結合係数を自動生
成させることを特徴とした高炉炉熱予測方法。
2. The predicting method according to claim 1, wherein the actual results of transition of the furnace heat level are quantified by the recent change amount of the measured value representing the furnace heat, and when the change amount is large in the positive direction, the furnace heat is It is determined that the temperature has risen, and when it is large in the negative direction, it is determined that the furnace heat has decreased, and teacher data of the network prediction result is created, along with the input value at that time and the actual prediction result by the network, for learning the neural network. A method for predicting heat in a blast furnace characterized in that data is automatically generated, and learning is actually performed using this data to automatically generate the mutual coupling coefficient of the neural network.
JP63322187A 1988-12-22 1988-12-22 Blast furnace furnace heat prediction method Expired - Lifetime JPH0637648B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63322187A JPH0637648B2 (en) 1988-12-22 1988-12-22 Blast furnace furnace heat prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63322187A JPH0637648B2 (en) 1988-12-22 1988-12-22 Blast furnace furnace heat prediction method

Publications (2)

Publication Number Publication Date
JPH02170904A JPH02170904A (en) 1990-07-02
JPH0637648B2 true JPH0637648B2 (en) 1994-05-18

Family

ID=18140914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63322187A Expired - Lifetime JPH0637648B2 (en) 1988-12-22 1988-12-22 Blast furnace furnace heat prediction method

Country Status (1)

Country Link
JP (1) JPH0637648B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020027385A1 (en) * 2018-08-01 2020-02-06 주식회사 포스코 System for predicting residual tapping amount of blast furnace and method therefor

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2512328B2 (en) * 1989-03-31 1996-07-03 新日本製鐵株式会社 Automatic determination system for blast furnace pattern data
US5204872A (en) * 1991-04-15 1993-04-20 Milltech-Hoh, Inc. Control system for electric arc furnace
CN103160626B (en) * 2011-12-14 2014-11-05 鞍钢股份有限公司 Method for determining cold blast furnace hearth
CN103160629B (en) * 2011-12-14 2014-11-05 鞍钢股份有限公司 Method for prediction of blast furnace heat tendency
US10604814B2 (en) 2017-09-27 2020-03-31 International Business Machines Coporation Manufacturing process control with deep learning-based predictive model for hot metal temperature of blast furnace
JP7044822B2 (en) * 2019-09-09 2022-03-30 株式会社タクマ Combustion control system, combustion control method, information processing device, program and recording medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
APPLIED OPTICS=1987 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020027385A1 (en) * 2018-08-01 2020-02-06 주식회사 포스코 System for predicting residual tapping amount of blast furnace and method therefor

Also Published As

Publication number Publication date
JPH02170904A (en) 1990-07-02

Similar Documents

Publication Publication Date Title
Liu et al. Remaining useful life prediction using a novel feature-attention-based end-to-end approach
CN109685252B (en) Building energy consumption prediction method based on cyclic neural network and multi-task learning model
Chen et al. Fuzzy forecasting based on two-factors second-order fuzzy-trend logical relationship groups and particle swarm optimization techniques
US5859773A (en) Residual activation neural network
JP2000510265A (en) Method and apparatus for modeling dynamic and steady state processes for prediction, control and optimization
CN108876044B (en) Online content popularity prediction method based on knowledge-enhanced neural network
Kayri An Intelligent Approach to Educational Data: Performance Comparison of the Multilayer Perceptron and the Radial Basis Function Artificial Neural Networks.
CN114282443B (en) Residual service life prediction method based on MLP-LSTM supervised joint model
Barzola-Monteses et al. Energy consumption of a building by using long short-term memory network: a forecasting study
CN112270442A (en) IVMD-ACMPSO-CSLSTM-based combined power load prediction method
CN113849020A (en) Billet heating curve design method and device based on artificial intelligence algorithm
JPH0637648B2 (en) Blast furnace furnace heat prediction method
Ma et al. Urban natural gas consumption forecasting by novel wavelet-kernelized grey system model
Xiao et al. A noise-boosted remaining useful life prediction method for rotating machines under different conditions
Hajirahimi et al. A novel class of reliability-based parallel hybridization (RPH) models for time series forecasting
CN116562454A (en) Manufacturing cost prediction method applied to BIM long-short-time attention mechanism network
Wang Data preprocessing for soft sensor using generative adversarial networks
Wang et al. Time series prediction with incomplete dataset based on deep bidirectional echo state network
Aliev et al. Fuzzy time series prediction method based on fuzzy recurrent neural network
Chen et al. Research on prediction algorithm of ship equipment heath condition
CN113128666A (en) Mo-S-LSTMs model-based time series multi-step prediction method
Huang et al. Neural network prediction modeling for a continuous, snack food frying process
Hota et al. An empirical net asset value forecasting model based on optimised ANN using elephant herding strategy
JPH0695880A (en) Example base inference device
JPH0637650B2 (en) Blast furnace blast flow control method