JPH07121206A - Method for control by neural network, and internal control unit - Google Patents

Method for control by neural network, and internal control unit

Info

Publication number
JPH07121206A
JPH07121206A JP5262673A JP26267393A JPH07121206A JP H07121206 A JPH07121206 A JP H07121206A JP 5262673 A JP5262673 A JP 5262673A JP 26267393 A JP26267393 A JP 26267393A JP H07121206 A JPH07121206 A JP H07121206A
Authority
JP
Japan
Prior art keywords
neural network
value
output
input
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5262673A
Other languages
Japanese (ja)
Other versions
JP3040901B2 (en
Inventor
Yoichi Sugita
洋一 杉田
Masahiro Shikayama
昌宏 鹿山
Yasuo Morooka
泰男 諸岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5262673A priority Critical patent/JP3040901B2/en
Publication of JPH07121206A publication Critical patent/JPH07121206A/en
Application granted granted Critical
Publication of JP3040901B2 publication Critical patent/JP3040901B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To reduce the output error of a 1st neural network corresponding to a specified value by regarding the value, obtained by canceling the output error with the output of a 2nd neural network, as the output of a neural network arithmetic means. CONSTITUTION:The neural network arithmetic means 101 has 1st and 2nd neural networks 301 and 302; and the neural network 301 calculates a correction quantity of, for example, a total heat absorption coefficient and the neural network 302 calculates the error quantity calculated by the network 301. To reduce the difference, the correction quantity of the total heat absorption coefficient is calculated and outputted to a model. The model varies the total heat absorption coefficient as an indeterminate parameter constituting a mathematical expression on the basis of the inputted correction quantity. Namely, the value obtained by subtracting the difference from the output of the network 302 from the output of the network 301 becomes the output of the neural network arithmetic means 101, and consequently the total heat absorption coefficient of the model is corrected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、各種制御対象の制御
に、ニューラルネットを適用する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for applying a neural network to control various controlled objects.

【0002】[0002]

【従来の技術】従来、各種制御対象の制御に使用される
ニューラルネットワークにおいて、ニューラルネットワ
ークからの出力は、そのまま、制御対象に接続して設け
られた、制御対象を制御するためのコントローラへ送出
される指令値や、制御対象に送出される操作量等になっ
ていた。
2. Description of the Related Art Conventionally, in a neural network used to control various controlled objects, the output from the neural network is sent as it is to a controller for controlling the controlled object, which is provided in connection with the controlled object. Command value, the amount of operation sent to the controlled object, etc.

【0003】すなわち、例えば、ニューラルネットワー
クに、所定の入力信号を入力し、ニューラルネットワー
クからの出力と、前記入力信号に対する望ましい出力と
の誤差が、ある所定値以下になるまで、ニューラルネッ
トワークの学習を行い、かかる学習が完了したニューラ
ルネットワークを制御対象の制御項目の制御に使用して
いた。
That is, for example, a predetermined input signal is input to a neural network, and learning of the neural network is performed until an error between an output from the neural network and a desired output with respect to the input signal becomes a predetermined value or less. Then, the neural network that has been subjected to such learning is used to control the control items to be controlled.

【0004】かかる学習は、例えば、制御量を前記入力
信号とし、これに対応するニューラルネットワークの出
力を、制御量に対応する操作量としたものである。
In this learning, for example, a control amount is used as the input signal, and the output of the neural network corresponding thereto is used as the operation amount corresponding to the control amount.

【0005】そして、学習が完了したニューラルネット
ワークに、ある制御量を入力せしめ、そのときのニュー
ラルネットワークからの出力を操作量とし、これを制御
装置に備えられたコントローラに、直接入力して制御対
象の制御項目を制御するものであった。
Then, a certain control amount is input to the learned neural network, and the output from the neural network at that time is used as an operation amount, which is directly input to the controller provided in the control device to be controlled. It controlled the control items.

【0006】[0006]

【発明が解決しようとしている課題】しかしながら、上
記の従来技術には、例えば、以下のような問題が存在し
ていた。
However, the above-mentioned conventional techniques have the following problems, for example.

【0007】ニューラルネットワークからの出力が、直
接、制御対象を制御するためのコントローラに対する指
令値や、制御対象に送出される操作量に対応しているた
め、ニューラルネットワークの出力誤差が、そのまま指
令値や操作量の誤差に含まれてしまい、制御の精度を、
著しく低下させたり、当該誤差により制御系を不安定化
させていた。
Since the output from the neural network directly corresponds to the command value to the controller for controlling the controlled object and the operation amount sent to the controlled object, the output error of the neural network is the command value as it is. And the accuracy of control is
It was significantly reduced, and the control system was destabilized by the error.

【0008】そこで、本発明の目的は、ニューラルネッ
トワークの出力誤差を低減し、高精度に制御対象を制御
するためのニューラルネットを内蔵した制御手段方法を
提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a control means method having a built-in neural net for reducing the output error of the neural network and controlling the controlled object with high accuracy.

【0009】[0009]

【問題を解決するための手段】上記問題を解決するため
に、以下の手段が考えられる。
[Means for Solving the Problems] In order to solve the above problems, the following means can be considered.

【0010】入力層、中間層、出力層を有して構成さ
れ、制御対象の制御目標値との偏差量である、少なくと
も1以上の第1の入力値および制御対象が有する状態量
である、少なくとも1以上の第2の入力値を入力層が受
け付け、制御対象に与える操作量を出力層から出力する
ニューラルネットワークを備えたニューラルネットワー
ク内蔵制御装置において、入力層、中間層、出力層を有
して構成した、新たなニューラルネットと、減算手段と
を備え、前記新たなニューラルネットワークの入力層
は、前記第2の入力値、および、前記第1の入力値に対
応して予め定めた特定値を受け付け、受け付けた値に基
づいて、中間層および出力層が行う演算により、出力値
を出力層から出力し、前記減算手段は、前記2つのニュ
ーラルネットワークの出力値の差分を演算し、前記操作
量として出力する装置である。
It is configured to have an input layer, an intermediate layer, and an output layer, and is a deviation amount from a control target value of a control target, which is at least one or more first input value and a state amount which the control target has. A neural network built-in control device having a neural network that receives at least one second input value from an input layer and outputs an operation amount given to a controlled object from an output layer, having an input layer, an intermediate layer, and an output layer. And a subtraction means, the input layer of the new neural network has a predetermined specific value corresponding to the second input value and the first input value. Is received, the output value is output from the output layer by the calculation performed by the intermediate layer and the output layer based on the received value, and the subtraction unit outputs the output value of the two neural networks. Calculates the difference between the force value is a device that outputs as the operation amount.

【0011】また、以下のような制御方法も考えられ
る。
The following control method is also conceivable.

【0012】すなわち、入力層、中間層、出力層を有し
て構成されるニューラルネットワークを使用し、制御対
象の制御目標値との偏差量である、少なくとも1以上の
第1の入力値および制御対象が有する状態量である、少
なくとも1以上の第2の入力値を入力層に与え、制御対
象に与える操作量を出力層から出力させるニューラルネ
ットワークによる制御方法において、入力層、中間層、
出力層を有して構成した、新たなニューラルネットとを
用意し、前記新たなニューラルネットワークの入力層
に、前記第2の入力値、および、前記第1の入力値に対
応して予め定めた特定値を与え、受け付けた値に基づい
て中間層、出力層が行う演算により、出力値を出力層か
ら出力させ、前記2つのニューラルネットワークの出力
値の差分を演算し、前記操作量として出力するニューラ
ルネットワークによる制御方法である。
That is, a neural network having an input layer, an intermediate layer, and an output layer is used, and at least one first input value and control which is a deviation amount from a control target value of a controlled object are used. In a control method by a neural network in which at least one second input value, which is a state quantity of an object, is given to an input layer and an operation amount given to a controlled object is outputted from an output layer, an input layer, an intermediate layer,
A new neural network having an output layer is prepared, and the input layer of the new neural network is set in advance corresponding to the second input value and the first input value. A specific value is given, and the output value is output from the output layer by the calculation performed by the intermediate layer and the output layer based on the received value, and the difference between the output values of the two neural networks is calculated and output as the manipulated variable. This is a control method using a neural network.

【0013】[0013]

【作用】上述した手段のように、本発明は、通常のニュ
ーラルネット演算を行う第1のニューラルネットワーク
に加えて、新たに、第1のニューラルネットワークの出
力誤差を算出する第2のニューラルネットワークを備え
ることによって解決される。
As described above, according to the present invention, in addition to the first neural network which performs a normal neural network operation, a second neural network which newly calculates the output error of the first neural network is newly provided. It is solved by preparing.

【0014】第2のニューラルネットワークは、予め設
定された入力値の近傍で、第1のニューラルネットワー
クの出力誤差を算出する。第1のニューラルネットワー
クの出力から第2のニューラルネットワークの出力を減
じた値が、最終的な出力信号となり、これが制御対象を
制御するためのコントローラに対する指令値や、制御対
象に送出される操作量に対応ずけられる。
The second neural network calculates the output error of the first neural network near the preset input value. The value obtained by subtracting the output of the second neural network from the output of the first neural network becomes the final output signal, which is the command value for the controller for controlling the controlled object and the operation amount sent to the controlled object. Can be dealt with.

【0015】これにより、第2のニューラルネットワー
クで、制御系を安定する上で最も重要な、入力に対する
誤差を算出させれば、この入力値近傍に対応した正確な
出力値を、ニューラルネットワークは、高精度に算出で
き、制御系の制御性能が向上する。
As a result, if the second neural network calculates the error with respect to the input, which is the most important for stabilizing the control system, the neural network obtains an accurate output value corresponding to this input value neighborhood. It can be calculated with high accuracy and the control performance of the control system is improved.

【0016】[0016]

【実施例】以下、本発明の実施例を図面を参照して説明
する。
Embodiments of the present invention will be described below with reference to the drawings.

【0017】図1に、本発明にかかるニューラルネット
制御装置の構成例を示す。
FIG. 1 shows a configuration example of a neural network control device according to the present invention.

【0018】ニューラルネット制御装置100は、制御
対象104に与える望ましい指令値を算出し、コントロ
ーラ103に、当該指令値を出力する装置である。
The neural network control device 100 is a device that calculates a desired command value to be given to the controlled object 104 and outputs the command value to the controller 103.

【0019】ニューラルネット制御装置100は、ニュ
ーラルネット演算手段101、目標値格納部107、指
令値算出手段102を有して構成され、さらに、入力手
段108を備えた構成になっている。
The neural network control device 100 comprises a neural network computing means 101, a target value storage section 107, a command value calculating means 102, and an input means 108.

【0020】ニューラルネット演算手段101、目標値
格納部107、指令値算出手段102は、例えばCP
U、ROM(所定の処理を行うプログラムが、予め内蔵
されている)、RAM、各種CMOS等の電子デバイス
によって実現される。入力手段108は、例えば、キー
ボード、マウス等によって実現できる。
The neural network calculation means 101, the target value storage section 107, and the command value calculation means 102 are, for example, CP.
It is realized by an electronic device such as U, ROM (a program that performs a predetermined process is built in in advance), RAM, and various CMOSs. The input unit 108 can be realized by, for example, a keyboard or a mouse.

【0021】なお、特に図示しないが、前記指令値等の
各種情報を表示する表示手段を備えた構成も考えられ
る。この場合、表示手段は、例えば、CRT、ELディ
スプレイ、液晶ディスプレイ等によって実現される。
Although not shown in the drawing, it is also possible to consider a structure provided with a display means for displaying various information such as the command value. In this case, the display means is realized by, for example, a CRT, EL display, liquid crystal display, or the like.

【0022】また、ニューラルネット演算手段101
は、2つのニューラルネットワークを備えており、指令
値算出手段102には、モデル105を備えている。
The neural network computing means 101
Is equipped with two neural networks, and the command value calculation means 102 is equipped with a model 105.

【0023】モデル105は、制御対象を、不確定なパ
ラメータを含む数式で表現したものであり、この数式を
使用して、制御目標値に対する操作量を決定することが
可能である。
The model 105 expresses the controlled object by a mathematical expression including an uncertain parameter, and the mathematical expression can be used to determine the manipulated variable with respect to the control target value.

【0024】コントローラ103は、ニューラルネット
制御装置100により与えられた指令値に基ずいて制御
対象104に備えられた、アクチュエータ106に、指
令値を出力する。
The controller 103 outputs a command value to the actuator 106 provided in the controlled object 104 based on the command value given by the neural network control device 100.

【0025】コントローラ103は、例えばCPU、R
OM(所定の処理を行うプログラムが、予め内蔵されて
いる)、RAM、各種CMOS等の電子デバイスによっ
て実現される。
The controller 103 is, for example, a CPU or R
It is realized by an electronic device such as an OM (a program that performs a predetermined process is built-in in advance), a RAM, and various CMOSs.

【0026】制御対象104には、制御量を検出する第
1のセンサ109および制御量以外の制御対象104の
状態を検出する第2のセンサ110が備えられており、
これらのセンサにより検出された信号は、ニューラルネ
ット制御装置100に送出される。
The controlled object 104 is provided with a first sensor 109 for detecting the controlled variable and a second sensor 110 for detecting the state of the controlled object 104 other than the controlled variable.
The signals detected by these sensors are sent to the neural network control device 100.

【0027】なお、制御対象、第1、第2のセンサ、ア
クチュエータの具体例は、後に具体的な実施例に即して
説明する。
Specific examples of the controlled object, the first and second sensors, and the actuator will be described later with reference to specific examples.

【0028】ニューラルネット学習装置111は、光フ
ァイバ等をデータ伝送手段として使用したLAN112
によって、ニューラルネット制御装置100に接続され
ている。
The neural network learning device 111 is a LAN 112 using an optical fiber or the like as a data transmission means.
Is connected to the neural network control device 100.

【0029】ニューラルネット学習装置111は、例え
ばCPU、ROM(所定の処理を行うプログラムが、予
め内蔵されている)、RAM、各種CMOS等の電子デ
バイスによって実現される。これは、1チップ化してL
SI等により実現しても良い。
The neural network learning device 111 is realized by an electronic device such as a CPU, a ROM (a program for performing a predetermined process is previously built in), a RAM, various CMOSs and the like. This is one chip and L
It may be realized by SI or the like.

【0030】もちろん、ニューラルネット学習装置11
1は、ニューラルネット制御装置100内に備えた構成
にしても良い。
Of course, the neural network learning device 11
1 may be provided in the neural network control device 100.

【0031】ニューラルネット学習装置111は、ニュ
ーラルネット制御装置に備えられているニューラルネッ
ト演算手段101の演算内容を決定し、その内容をLA
N112を介して、ニューラルネット演算手段101に
送出する。
The neural network learning device 111 determines the operation content of the neural network operation means 101 provided in the neural network control device, and the content is LA.
It is sent to the neural network computing means 101 via N112.

【0032】さて、まず、ニューラルネット制御装置1
00の処理の流れを説明する。
First, the neural network control device 1
The processing flow of 00 will be described.

【0033】前述のように、ニューラルネット制御装置
100は、指令値算出手段102、目標値格納部10
6、ニューラルネットにより演算を行なうニューラルネ
ット演算手段101を有して構成される。目標値格納部
106には、制御対象104の目標とする制御量である
値が格納されており、その値は、例えば、入力手段10
8を介して設定、変更すればよい。
As described above, the neural network control device 100 includes the command value calculation means 102 and the target value storage unit 10.
6. It is configured to have a neural network computing means 101 for computing by a neural network. The target value storage unit 106 stores a value that is a target control amount of the controlled object 104, and the value is, for example, the input unit 10.
It is only necessary to set and change the setting via 8.

【0034】指令値算出手段102は、制御対象104
を、数式を使用してモデル化したモデル105にもとづ
いて、制御対象104の出力が、制御目標値と一致する
ように、コントローラ103へ出力する指令値を算出す
る。
The command value calculation means 102 is a controlled object 104.
Is calculated based on the model 105 using a mathematical expression so that the command value to be output to the controller 103 is calculated so that the output of the controlled object 104 matches the control target value.

【0035】ニューラルネット演算手段101は、第1
の入力値である、第1のセンサ109により取り込んだ
制御量とモデル105を使用して算出された制御量との
差分を使用して、この差分を減少させるように、モデル
105の、不確定なパラメータを修正する。
The neural network computing means 101 is the first
Using the difference between the control amount captured by the first sensor 109 and the control amount calculated using the model 105, which is the input value of, the uncertainty of the model 105 is determined so as to reduce this difference. Correct the correct parameters.

【0036】前記差分と前記パラメータの修正量の関係
に、制御対象の状態を表す他の値(例えば、温度等の物
理量)が影響を与えている場合には、図1に示すよう
に、影響を与えている値を第2の入力値として、第2の
センサ110により取り込み、ニューラルネット演算手
段101に入力する。この第2のセンサ110により取
り込まれた物理量は、第1および第2のニューラルネッ
トワークに、全く等しく入力されている。
If another value (for example, a physical quantity such as temperature) representing the state of the controlled object has an influence on the relationship between the difference and the correction amount of the parameter, as shown in FIG. Is taken as the second input value by the second sensor 110 and input to the neural network computing means 101. The physical quantity taken in by the second sensor 110 is input to the first and second neural networks exactly the same.

【0037】指令値算出手段102は、モデル105、
すなわち、数式の不確定パラメータが修正される度に、
修正されたモデル105にもとづいて、指令値を再計算
し、計算結果を新たな指令値としてコントローラ103
に出力する。
The command value calculation means 102 comprises a model 105,
That is, each time the uncertain parameter of the formula is modified,
The command value is recalculated based on the modified model 105, and the calculation result is used as a new command value in the controller 103.
Output to.

【0038】次に、各部の詳細な構成および処理につい
て説明する。
Next, the detailed configuration and processing of each unit will be described.

【0039】制御対象104として、本実施例では、熱
間圧延における加熱炉プラントを採用するものとする。
In this embodiment, as the controlled object 104, a heating furnace plant in hot rolling is adopted.

【0040】図2に、加熱炉の構成例を示す。加熱炉2
00では、加熱される材料であるスラブ204が、加熱
炉入り口より挿入され、加熱炉出側に移動する間に、ガ
スバーナ201により加熱される。図1の構成との対応
において、アクチュエータ106は、ガスバーナ201
に対応し、第1のセンサ109は、スラブ204の出口
での表面温度を測定する温度計203に対応する。ま
た、第2のセンサ110は、スラブ204の挿入温度を
測定する温度計205、加熱炉200の炉内温度を測定
する温度計202に対応している。
FIG. 2 shows a structural example of the heating furnace. Heating furnace 2
At 00, the slab 204, which is the material to be heated, is inserted from the heating furnace inlet and heated by the gas burner 201 while moving to the heating furnace exit side. In correspondence with the configuration of FIG. 1, the actuator 106 is a gas burner 201.
The first sensor 109 corresponds to the thermometer 203 that measures the surface temperature at the outlet of the slab 204. The second sensor 110 corresponds to a thermometer 205 that measures the insertion temperature of the slab 204 and a thermometer 202 that measures the temperature inside the heating furnace 200.

【0041】加熱炉プラントでは、スラブ204の出口
での表面温度を、ガスバーナ201の適切な操作によ
り、目標温度にすることが制御目標となる。
In the heating furnace plant, the control target is to bring the surface temperature at the outlet of the slab 204 to the target temperature by appropriately operating the gas burner 201.

【0042】指令値算出手段102が備えるモデル10
5には、スラブ204に与えられる輻射伝熱量がモデル
化されている。輻射伝熱量に対応したモデルは、ステフ
ァンボルツマンの熱伝導方程式が代表的である。次式
(1)に、一般的なステファンボルツマンの熱伝導方程
式を示す。
Model 10 provided in command value calculation means 102
In FIG. 5, the amount of radiant heat transfer given to the slab 204 is modeled. A model corresponding to the amount of radiant heat transfer is represented by Stefan Boltzmann's heat conduction equation. The following equation (1) shows a general Stefan Boltzmann heat conduction equation.

【0043】[0043]

【数1】 [Equation 1]

【0044】ここで、Qは、炉からスラブへの伝熱量、
Tは、炉内温度であり、温度計202により検出され
る。θは、スラブ204の温度φcgは、総括熱吸収係
数と呼ばれる伝熱係数である。総括熱吸収係数の値は、
厳密に算出するのは一般に非常に困難であり、本実施例
では、ニューラルネット演算手段101により、この総
括熱吸収係数を、加熱炉200の総括熱吸収係数と一致
するようにチューニングするのが目的である。
Here, Q is the amount of heat transfer from the furnace to the slab,
T is the temperature inside the furnace, which is detected by the thermometer 202. θ is the temperature φcg of the slab 204, and is the heat transfer coefficient called the overall heat absorption coefficient. The value of the overall heat absorption coefficient is
It is generally very difficult to calculate exactly, and in the present embodiment, it is the purpose of the neural network computing means 101 to tune this overall heat absorption coefficient to match the overall heat absorption coefficient of the heating furnace 200. Is.

【0045】指令値算出手段102は、このモデル10
5にもとづいて、スラブ204の加熱炉出口での温度
が、目標温度を満足するような炉温指令値を算出し、計
算結果をコントローラ103に出力する。コントローラ
103は、炉温と指令値が一致するようにガスバーナ2
01の燃料流量を制御する。
The command value calculating means 102 is the model 10
Based on 5, the furnace temperature command value is calculated so that the temperature at the heating furnace outlet of the slab 204 satisfies the target temperature, and the calculation result is output to the controller 103. The controller 103 controls the gas burner 2 so that the furnace temperature and the command value match.
01 fuel flow rate is controlled.

【0046】図3に、ニューラルネット演算手段101
の構成例を示す。
FIG. 3 shows the neural network computing means 101.
A configuration example of is shown.

【0047】ニューラルネット演算手段101は、第1
のニューラルネットワーク301と第2のニューラルネ
ットワーク302を有して構成される。
The neural network computing means 101 is the first
And a second neural network 302.

【0048】第1のニューラルネットワーク301で
は、総括熱吸収係数の修正量が、第2のニューラルネッ
トワーク302では、第1のニューラルネットワーク3
01によって計算された修正量の誤差分が計算される。
In the first neural network 301, the correction amount of the overall heat absorption coefficient is used, and in the second neural network 302, the correction amount of the first neural network 3 is used.
The error amount of the correction amount calculated by 01 is calculated.

【0049】第1のニューラルネットワーク301に
は、第1の入力値として、温度計203から実際に取り
込んだ制御量と、モデル105を使用して算出された制
御量との差分が入力される。また、第2の入力値とし
て、温度計202と205によって、それぞれ取り込ん
だ、炉内温度とスラブ202の挿入温度、さらにモデル
105で現在設定されている総括熱吸収係数の値が入力
される。
As a first input value, the first neural network 301 receives the difference between the control amount actually taken in from the thermometer 203 and the control amount calculated using the model 105. Further, as the second input values, the in-furnace temperature and the insertion temperature of the slab 202, which are respectively taken in by the thermometers 202 and 205, and the value of the overall heat absorption coefficient currently set in the model 105 are input.

【0050】そして、差分を減少させるために、総括熱
吸収係数の修正量を算出し、モデル105に出力する。
モデル105では、入力された修正量にもとづいて、数
式を構成する不確定パラメータである総括熱吸収係数を
変更する。
Then, in order to reduce the difference, the correction amount of the overall heat absorption coefficient is calculated and output to the model 105.
In the model 105, the overall heat absorption coefficient, which is an uncertain parameter forming the mathematical formula, is changed based on the input correction amount.

【0051】第2のニューラルネットワーク302は、
第1のニューラルネットワーク301と同一の構成とな
っており、温度計203から検出された制御量と、モデ
ル105を使用して算出された制御量の差分である、修
正量が「0」のときの第1のニューラルネットワークの
出力誤差が算出される。したがって、温度計203から
検出された制御量と、モデル105を使用して算出され
た制御量との差分に対応する入力に、「0」が入力さ
れ、他の入力に関しては、第1のニューラルネットワー
ク301と同一の値である第2の入力値が入力されるよ
うにしておく。
The second neural network 302 is
When the correction amount, which is the difference between the control amount detected by the thermometer 203 and the control amount calculated using the model 105, has the same configuration as the first neural network 301 and is “0”. The output error of the first neural network is calculated. Therefore, “0” is input to the input corresponding to the difference between the control amount detected from the thermometer 203 and the control amount calculated using the model 105, and the other inputs are the first neural network. The second input value which is the same value as the network 301 is input.

【0052】第1のニューラルネットワーク301の出
力から、第2のニューラルネットワーク302の出力と
の差分をとったものが、ニューラルネット演算手段10
1の出力となり、この値にしたがって、モデル105の
総括熱吸収係数が修正されることになる。
The difference between the output of the first neural network 301 and the output of the second neural network 302 is taken to obtain the neural network computing means 10
The output is 1, and the overall heat absorption coefficient of the model 105 is corrected according to this value.

【0053】このように、第1、第2のニューラルネッ
トワークが同一構成のため、第1のニューラルネットワ
ーク301の入力信号である「制御量−モデルによる制
御量」に対応して、特定の値「0」を第2のニューラル
ネットワーク302に入力したとき、このときのニュー
ラルネットワーク302の出力が、第1のニューラルネ
ットワーク301の誤差量となることを利用して、誤差
を減少させる。
As described above, since the first and second neural networks have the same structure, a specific value "corresponding to" control amount-control amount by model "which is an input signal of the first neural network 301 is specified. When "0" is input to the second neural network 302, the error is reduced by utilizing the fact that the output of the neural network 302 at this time becomes the error amount of the first neural network 301.

【0054】次に、図4に、ニューラルネット演算手段
101が行なう、処理のフローチャートを示す。
Next, FIG. 4 shows a flowchart of the processing performed by the neural network computing means 101.

【0055】まず、s4−1で、温度計203で検出さ
れた制御量(以下、「y」とする)とモデル105を使
用して算出した制御量(以下、「yd」とする)の差分
および、制御量以外のパラメータ群である(第2の入力
値に相当する)、炉内温度、挿入温度、総括熱吸収係数
等を第1のニューラルネットワーク301に入力し、そ
の演算結果を修正量1とする。
First, in s4-1, the difference between the control amount detected by the thermometer 203 (hereinafter referred to as "y") and the control amount calculated using the model 105 (hereinafter referred to as "yd"). In addition, a parameter group other than the control amount (corresponding to the second input value), such as the furnace temperature, the insertion temperature, the overall heat absorption coefficient, etc., is input to the first neural network 301, and the calculation result is corrected Set to 1.

【0056】次に、s4−2で、「y−yd」に対応し
た入力に、「0」を入力し、第2のニューラルネットワ
ーク302に、演算を実行させる。このときの演算結果
を、誤差量とする。
Next, in s4-2, "0" is input to the input corresponding to "y-yd", and the second neural network 302 is caused to execute the operation. The calculation result at this time is the error amount.

【0057】次に、s4−3では、s4−1で得られた
修正量1から、s4−2で得られた誤差量を引いたもの
を、修正量2とする。そして、s4−4で修正量2を出
力して、処理が終了となる。
Next, in s4-3, the correction amount 2 is obtained by subtracting the error amount obtained in s4-2 from the correction amount 1 obtained in s4-1. Then, the correction amount 2 is output in s4-4, and the process ends.

【0058】次に、ニューラルネットワーク301(本
実施例では、第1のニューラルネットワークと第2のニ
ューラルネットワークは同一構成のため、第1のニュー
ラルネットワークの説明のみ行う)について詳細な説明
を行なう。
Next, the neural network 301 (in this embodiment, the first neural network and the second neural network have the same configuration, only the first neural network will be described) will be described in detail.

【0059】図5に、第1のニューラルネットワーク3
01の構成例を示す。
FIG. 5 shows the first neural network 3
A configuration example of 01 is shown.

【0060】本ニューラルネットワークは、入力層、中
間層、出力層を有して構成される。
This neural network has an input layer, an intermediate layer, and an output layer.

【0061】第1のニューラルネットワーク301は、
ニューロン501が、シナプス502により層状に連結
されて構成される。図5に示す例では、入力層503、
中間層504、出力層505からなる3層構造のネット
ワークを示しているが、中間層504を複数備えた4層
以上のネットワークを構築してもよいことは言うまでも
ない。
The first neural network 301 is
Neurons 501 are configured by being connected in layers by synapses 502. In the example shown in FIG. 5, the input layer 503,
Although a network having a three-layer structure including the intermediate layer 504 and the output layer 505 is shown, it goes without saying that a network having four or more layers including a plurality of intermediate layers 504 may be constructed.

【0062】入力層503に入力された入力をIi、中間
層504の出力をMjとすれば、IiとMjの関係は、例え
ば、次式で与えられる。
If the input input to the input layer 503 is Ii and the output of the intermediate layer 504 is Mj, the relationship between Ii and Mj is given by the following equation.

【0063】[0063]

【数2】 [Equation 2]

【0064】[0064]

【数3】 [Equation 3]

【0065】[0065]

【数4】 [Equation 4]

【0066】Wij(jは、中間層ニューロンの番号)は、
i番目の入力ニューロンとj番目の中間層ニューロンを
結ぶシナプス502に与えられている重み、θjは、ニ
ューロンjに対応した定数、f(uj)は、一般に微分可能な
単調飽和関数が使用されるが、通常(2)式のような、
シグモイド関数が使用される。さらに、このように得ら
れたMjを使用すると、出力層505におけるk番目のニ
ューロンの出力Okは、
Wij (j is the number of the hidden layer neuron) is
The weight given to the synapse 502 connecting the i-th input neuron and the j-th hidden layer neuron, θj is a constant corresponding to the neuron j, and f (uj) is generally a differentiable monotone saturation function. However, normally, like the formula (2),
A sigmoid function is used. Further, using Mj thus obtained, the output Ok of the kth neuron in the output layer 505 is

【0067】[0067]

【数5】 [Equation 5]

【0068】[0068]

【数6】 [Equation 6]

【0069】[0069]

【数7】 [Equation 7]

【0070】となる。Vjkは、j番目の中間層ニューロ
ンと、k番目の出力層ニューロンを結ぶ重み、θkは、出
力層ニューロンに対応した定数である。
It becomes Vjk is a weight connecting the jth intermediate layer neuron and the kth output layer neuron, and θk is a constant corresponding to the output layer neuron.

【0071】以上のようにして、ニューラルネット演算
手段103では、入力Iiに対応した出力Okを決定する演
算が行なわれる。
As described above, the neural network calculation means 103 performs the calculation for determining the output Ok corresponding to the input Ii.

【0072】ニューラルネット演算手段101では、第
2のニューラルネットワーク302を第1のニューラル
ネットワーク301と同一構造としていたが、温度計2
03より検出した制御量とモデル105を使用して算出
した制御量との差分に対応する入力層503でのニュー
ロンと、これに繋がるシナプスを欠落させた構成でもよ
い。
In the neural network computing means 101, the second neural network 302 has the same structure as the first neural network 301, but the thermometer 2
A configuration in which the neuron in the input layer 503 corresponding to the difference between the control amount detected from 03 and the control amount calculated using the model 105 and the synapse connected to this neuron may be omitted.

【0073】図6に、ニューラルネット学習装置111
の構成例を示す。
FIG. 6 shows a neural network learning device 111.
A configuration example of is shown.

【0074】ニューラルネット学習装置111には、第
1のニューラルネットワーク301と同一の構造を有す
るニューラルネットワーク603に加えて、記憶手段6
01、学習手段602、入力手段604、出力手段60
5が備えられた構成になっている。これらは、バス60
6を介して結合され、必要な信号の授受を行なう。
In the neural network learning device 111, in addition to the neural network 603 having the same structure as the first neural network 301, the storage means 6
01, learning means 602, input means 604, output means 60
5 is provided. These are buses 60
They are coupled via 6 to exchange necessary signals.

【0075】記憶手段601は、例えば、RAM、記憶
媒体であるディスクを装着したディスクドライブ装置に
よって実現され、学習手段602は、例えばCPU、R
OM(所定の処理を行うプログラムが、予め内蔵されて
いる)、RAM、各種CMOS等の電子デバイスによっ
て実現される。また、入力手段604は、例えば、キー
ボード、マウス等により、出力手段605は、例えば、
CRT、ELディスプレイ、液晶ディスプレイ等によっ
て実現される。
The storage means 601 is realized by, for example, a RAM or a disk drive device equipped with a disk as a storage medium, and the learning means 602 is, for example, a CPU or R.
It is realized by an electronic device such as an OM (a program that performs a predetermined process is built-in in advance), a RAM, and various CMOSs. The input unit 604 is, for example, a keyboard, a mouse, etc., and the output unit 605 is, for example,
It is realized by CRT, EL display, liquid crystal display and the like.

【0076】記憶手段601には、ニューラルネットワ
ーク603に学習させたい入力信号と出力信号が(以
下、「入出力ペア」と称する)が少なくとも1個以上格
納されている。
The storage means 601 stores at least one input signal and output signal (hereinafter referred to as “input / output pair”) to be learned by the neural network 603.

【0077】学習手段602は、記憶手段601から入
出力ペアを一つづつ、バス606を介して取り込み、こ
れらのうち入力信号を、同様にバス606を介して、ニ
ューラルネットワーク603に与える。ニューラルネッ
トワーク603は、与えられた入力信号に基ずいて、演
算を行ない、演算結果を、学習手段602に送出する。
The learning means 602 fetches one input / output pair from the storage means 601 one by one via the bus 606, and applies an input signal among them to the neural network 603 similarly via the bus 606. The neural network 603 performs an operation based on the input signal given thereto, and sends the operation result to the learning means 602.

【0078】学習手段602は、送られてきた出力と入
出力ペアの出力信号との誤差を検出し、検出された誤差
に従って、ニューラルネットワーク603の重みWij、V
jkを誤差が減少するように修正する。
The learning means 602 detects an error between the sent output and the output signal of the input / output pair, and weights Wij, V of the neural network 603 according to the detected error.
Modify jk to reduce the error.

【0079】Wj,Vjの修正方法は、種々の方法が提案さ
れている。
Various methods have been proposed for correcting Wj and Vj.

【0080】代表的手法として最急降下法を用いた誤差
逆伝搬学習法がある。この学習方法は、入出力ペアの出
力信号と、それに対応したニューラルネットワーク60
3の出力との誤差量の総和を与えるエネルギー関数をも
とに、最適解探索法の一つである最急降下法により、こ
の関数を減少させる方向に、重みWj,Vjを修正する方法
である。
As a typical method, there is an error back-propagation learning method using the steepest descent method. This learning method is performed by the output signal of the input / output pair and the neural network 60 corresponding thereto.
This is a method of modifying the weights Wj and Vj in the direction of decreasing this function by the steepest descent method, which is one of the optimal solution search methods, based on the energy function that gives the sum of the error amounts with the output of 3. .

【0081】次式に、このエネルギー関数を示す。The following equation shows this energy function.

【0082】[0082]

【数8】 [Equation 8]

【0083】Tkは、出力Okに対応した、入出力ペアの
出力信号である。最急降下法による重みWj,Vjの修正手
順の一例を、(9)、(10)式に示す。Wj(n),Vj(n)
は、n回目の修正による重みを表す。
Tk is an output signal of the input / output pair corresponding to the output Ok. An example of a procedure for correcting the weights Wj and Vj by the steepest descent method is shown in equations (9) and (10). Wj (n), Vj (n)
Represents the weight by the n-th correction.

【0084】[0084]

【数9】 [Equation 9]

【0085】[0085]

【数10】 [Equation 10]

【0086】上式の処理を全ての重みについて行うこと
により、(n+1)回目の修正が終了する。
By performing the processing of the above equation for all weights, the (n + 1) th correction is completed.

【0087】この手法の詳細は、例えば、雑誌(David
E. Rumelhart. geoffrey e. Hinton& ronald J. willia
ms. "Learning representations by back-propagating
error." Nature. Vol.323. No.9. 第533項〜第536項.
10月. 1986年)に記載されている。
Details of this method are described in, for example, a magazine (David
E. Rumelhart. Geoffrey e. Hinton & ronald J. willia
ms. "Learning representations by back-propagating
error. "Nature. Vol.323. No.9. Item 533-Item 536.
October. 1986).

【0088】さて、学習手段602は、記憶手段601
に蓄えられている入出力ペアを次々と取り込み、上記の
操作を繰り返す処理を行う。最終的に、ニューラルネッ
トワーク603には、記憶手段601の、入力と出力と
の関係が蓄えられることになる。
Now, the learning means 602 has the storage means 601.
The input / output pairs stored in are sequentially fetched and the above-mentioned operation is repeated. Finally, the neural network 603 stores the relationship between the input and the output of the storage unit 601.

【0089】入力手段604は、ユーザが記憶手段60
1に、入出力ペアを入力したり、学習手段602の学習
パラメータを変更するための手段である。出力手段60
5は、入出力ペアのモニタとして、または、ニューラル
ネットワーク301の構造を表示したり、学習の進み具
合(例えば、その時点におけるモデルのパラメータを表
示出力する等)を把握するための手段である。
The input means 604 is stored in the storage means 60 by the user.
1 is a means for inputting an input / output pair and changing a learning parameter of the learning means 602. Output means 60
Reference numeral 5 is a means for monitoring the input / output pairs, or for displaying the structure of the neural network 301 and for grasping the progress of learning (for example, displaying and outputting the model parameters at that time).

【0090】以上の処理により、学習の終了したニュー
ラルネットワーク603の重みWij、Vjkは、ニューラル
ネット演算手段101に送信され、第1のニューラルネ
ットワーク301および第2のニューラルネットワーク
302は、送信された「重み」に基ずいて、演算を行な
う。
By the above processing, the weights Wij and Vjk of the neural network 603 for which learning has been completed are transmitted to the neural network computing means 101, and the first neural network 301 and the second neural network 302 are transmitted. Calculation is performed based on the "weight".

【0091】次に、記憶手段601の入出力ペアの値の
設定方法の一例を、図7に示す。
Next, FIG. 7 shows an example of a method of setting the value of the input / output pair of the storage means 601.

【0092】まず、s7−1で、モデル105に、チュ
ーニングの対象である総括熱吸収係数の値(以下、φc
gとする)を設定する。
First, in s7-1, the value of the overall heat absorption coefficient to be tuned (hereinafter, φc
g)) is set.

【0093】次に、s7−2で、φcgが設定されたモ
デル105から制御量(抽出温度)t0を計算する。
Next, in s7-2, the control amount (extraction temperature) t0 is calculated from the model 105 for which φcg is set.

【0094】s7−3では、s7−1で設定したパラメ
ータφcgに、パラメータ誤差Δφcgを加える。
At s7-3, the parameter error Δφcg is added to the parameter φcg set at s7-1.

【0095】s7−4でパラメータ誤差Δφcgを加え
られた、新たなパラメータφcgを使用して制御量t1
を計算する。
The controlled variable t1 is added using the new parameter φcg to which the parameter error Δφcg is added in s7-4.
To calculate.

【0096】s7−5では、s7−2で算出した制御量
t0と、s7−4で算出した制御量t1との差をとり、
s7−3で算出した「t1−t0」とパラメータ誤差Δ
φcgを入出力ペアとして、記憶手段に記憶する。s7
−6で、パラメータφcgが、パラメータの上限φcg
maxを越えたか否かを判定する。
At s7-5, the difference between the control amount t0 calculated at s7-2 and the control amount t1 calculated at s7-4 is calculated,
"t1-t0" calculated in s7-3 and the parameter error Δ
φcg is stored in the storage means as an input / output pair. s7
At −6, the parameter φcg is the upper limit φcg of the parameter.
It is judged whether or not it exceeds max.

【0097】越えていれば終了し、そうでなければs7
−3に処理を移す。以上の操作で、記憶手段601に入
出力ペアが作成、記憶される。
If it exceeds, it ends. If not, s7
The process is moved to -3. By the above operation, the input / output pair is created and stored in the storage unit 601.

【0098】上述の説明では、ニューラルネット演算手
段101と、ニューラルネット学習装置111は、別の
装置として構成したが、一つの装置としてもよい。すな
わち、例えば、ニューラルネット演算手段101にニュ
ーラルネット学習装置111を内蔵した構成でも良い。
In the above description, the neural network computing means 101 and the neural network learning device 111 are configured as separate devices, but they may be configured as one device. That is, for example, a configuration in which the neural network learning device 111 is built in the neural network computing means 101 may be used.

【0099】図8に、ニューラルネット演算手段101
において、第2のニューラルネットワーク302の出力
を遮断するためのスイッチ801を設けたの構成例を示
す。
FIG. 8 shows the neural network computing means 101.
In, a configuration example of a switch 801 for cutting off the output of the second neural network 302 is shown.

【0100】本実施例では、スイッチ801を、第2の
ニューラルネットワーク302の出力側に設け、スイッ
チ801が切られているときは、第2のニューラルネッ
トワーク302の出力は無効となり、第1のニューラル
ネットワーク301の出力が、そのまま修正量としてニ
ューラルネット演算手段101から出力されることにな
る。
In this embodiment, the switch 801 is provided on the output side of the second neural network 302, and when the switch 801 is turned off, the output of the second neural network 302 becomes invalid and the first neural network 302 is disabled. The output of the network 301 is directly output from the neural network computing means 101 as the correction amount.

【0101】なお、スイッチ801は、例えば、アナロ
グスイッチ(所定以上の電圧が入力されたときオン状態
になる手段である)等の電子デバイスによって実現し、
スイッチ801の開閉は、入力手段108を介してユー
ザが任意に設定したとき、その設定を受けて、前記アナ
ログスイッチに所定の信号を与える構成にしておけば良
い。
The switch 801 is realized by an electronic device such as an analog switch (means that is turned on when a voltage higher than a predetermined value is input),
The opening and closing of the switch 801 may be configured to give a predetermined signal to the analog switch in response to the setting made by the user through the input means 108.

【0102】また、温度計203で検出した制御量が目
標値に近ずいたことを検知して、自動的にオンする構成
も考えられる。かかる自動的な制御は、例えばCPU、
ROM(所定のプログラムが予め内蔵されている)、R
AM等を有して構成される手段によって実現できる。
Further, a configuration in which the control amount detected by the thermometer 203 is detected to be close to the target value and is automatically turned on is also conceivable. Such automatic control is performed by, for example, a CPU,
ROM (predetermined program built in), R
It can be realized by means including an AM or the like.

【0103】次に、図9に、スイッチ801を自動的に
開閉する処理のフローチャートを示す。
Next, FIG. 9 shows a flowchart of processing for automatically opening and closing the switch 801.

【0104】まず、s9−1で、温度計203で検出さ
れた制御量(以下、「y」)とモデル105を使用して
算出される制御量(以下、「yd」)の差分および、制
御量以外のパラメータ群である、炉内温度、挿入温度、
総括熱吸収係数を、ニューラルネットワーク301に入
力し、演算結果を、修正量1として保存する。
First, in s9-1, the difference between the controlled variable (hereinafter "y") detected by the thermometer 203 and the controlled variable (hereinafter "yd") calculated using the model 105, and the control Parameter group other than quantity, furnace temperature, insertion temperature,
The overall heat absorption coefficient is input to the neural network 301, and the calculation result is saved as the correction amount 1.

【0105】s9−2では、スイッチ801を「オン」
するか否かの判定を行なう。
At s9-2, the switch 801 is turned "on".
It is determined whether or not to do it.

【0106】判定するための計算式の一例として、次式
が考えられる。
The following equation can be considered as an example of the equation for the determination.

【0107】[0107]

【数11】 [Equation 11]

【0108】ここで、Δythは、スイッチのオン、オ
フを判定するためのしきい値であり、「y−yd」が上
式を満たしたときに、スイッチがオンとなるように構成
しておけば良い。
Here, Δyth is a threshold value for judging whether the switch is on or off, and should be constructed so that the switch is turned on when “y-yd” satisfies the above equation. Good.

【0109】上記判定式に従うと、第2のニューラルネ
ッワーク302で算出される誤差の精度が良くない、零
近傍(入力値が「0」の近傍である場合)から離れた入
力値では、第1のニューラルネットワーク301の出力
が直接制御量となり、第2のニューラルネットワーク3
02が、高精度に誤差を算出できる零近傍入力値で、第
2のニューラルネットワーク302の出力が減算される
ことになる。
According to the above judgment formula, the accuracy of the error calculated by the second neural network 302 is not good, and the first value is detected when the input value is far from near zero (when the input value is near "0"). The output of the neural network 301 of FIG.
02 is a near-zero input value capable of calculating an error with high accuracy, and the output of the second neural network 302 is subtracted.

【0110】次に、s9−2で、オフすべき判定の場合
は、s9−5に処理を移し、修正量1を修正量2とし
て、モデル105に出力する。オンすべき判定の場合
は、s9−3に処理が移り、「y−yd」に対応する入
力に、「0」を入力し、第2のニューラルネットワーク
302に演算させる。
Next, in s9-2, if it is determined to be turned off, the process proceeds to s9-5, and the correction amount 1 is output as the correction amount 2 to the model 105. If it is determined to be turned on, the process proceeds to s9-3, "0" is input to the input corresponding to "y-yd", and the second neural network 302 is caused to operate.

【0111】s9−4では、s9−1で保存されている
修正量1から、s9−3で得られた演算結果である誤差
量を引いたものを、修正量2とする。そして、s9−5
で修正量2を出力して、処理は終了となる。
At s9-4, the correction amount 2 is obtained by subtracting the error amount which is the calculation result obtained at s9-3 from the correction amount 1 stored at s9-1. And s9-5
Then, the correction amount 2 is output, and the process ends.

【0112】次に、ニューラルネット演算手段101の
出力が、入出力ペアで与えた出力信号の出力範囲を越え
ないように制限する、リミッタを備えた実施例を示す。
Next, an embodiment provided with a limiter for limiting the output of the neural network computing means 101 so as not to exceed the output range of the output signal given by the input / output pair will be described.

【0113】図10に、このときのニューラルネット演
算手段101の構成例を示す。
FIG. 10 shows a configuration example of the neural network computing means 101 at this time.

【0114】リミッタ1001は、第1のニューラルネ
ットワークと第2のニューラルネットワークによる演算
結果が入力される。リミッタ1001の処理は、例え
ば、上述した演算結果が入出力ペアのうち出力信号の最
大値または最小値を越えたときに、ニューラルネット演
算手段101の出力を前記出力信号の最大値または最小
値とし、越えていなければ演算結果をそのままニューラ
ルネット演算手段101の出力とするものである。
The limiter 1001 receives the calculation results of the first neural network and the second neural network. The processing of the limiter 1001, for example, sets the output of the neural network calculation means 101 to the maximum value or the minimum value of the output signal when the above-mentioned calculation result exceeds the maximum value or the minimum value of the output signal of the input / output pair. If not, the calculation result is directly output from the neural network calculation means 101.

【0115】次式に、このときのリミッタ1001の出
力を決定する式の例を示す。
The following equation shows an example of an equation for determining the output of the limiter 1001 at this time.

【0116】なお、かかるリミッタ1001は、オペレ
ーションアンプ、抵抗等の電子デバイスを使用して、全
てハードウエアで実現するものや、ROM、CPU、R
AMを有した構成にし、ROMに記憶されたプログラム
により処理を実行するようにしてもよい。
The limiter 1001 is realized by hardware, using an electronic device such as an operational amplifier and a resistor, a ROM, a CPU, and an R.
The configuration may be such that the AM is provided and the processing may be executed by the program stored in the ROM.

【0117】[0117]

【数12】 [Equation 12]

【0118】[0118]

【数13】 [Equation 13]

【0119】[0119]

【数14】 [Equation 14]

【0120】ここで、Oは、第1のニューラルネットワ
ークと第2のニューラルネットワークによる演算結果で
あり、Ymax、Yminは、それぞれ入出力ペアのう
ち出力信号の最大値、最小値である。上式に従えば、ニ
ューラルネット演算手段101の出力範囲を限定できる
ため、制御系の安定性が保証されることになる。
Here, O is the calculation result by the first neural network and the second neural network, and Ymax and Ymin are the maximum and minimum values of the output signal of the input / output pair, respectively. According to the above equation, the output range of the neural network computing means 101 can be limited, so that the stability of the control system is guaranteed.

【0121】次に、図11に、本実施例のニューラルネ
ット制御装置100による、モデルのパラメータのチュ
ーニングシミュレーション結果を示す。
Next, FIG. 11 shows a result of tuning simulation of model parameters by the neural network control device 100 of this embodiment.

【0122】本シミュレーションでは、実炉の有する総
括熱吸収係数φcgの値を、「0.5」とし、モデル10
5に設定されている、総括熱吸収係数φcgを「0.65」
に設定した。
In this simulation, the value of the overall heat absorption coefficient φcg of the actual furnace is set to "0.5", and the model 10
Set the overall heat absorption coefficient φcg set to 5 to "0.65"
Set to.

【0123】本図は、本発明にかかるニューラルネット
演算手段101が、モデル105のφcgを、実炉のφ
cgに、チューニングしていく様子を示している。
In this figure, the neural network computing means 101 according to the present invention calculates φcg of the model 105 as φ of the actual furnace.
The tuning is shown in cg.

【0124】比較の対象として、ニューラルネット演算
手段101が第1のニューラルネットワーク301のみ
で構成された、ニューラルネット制御装置を従来手段と
して採用した。
As a comparison target, a neural network control device in which the neural network calculation means 101 is composed of only the first neural network 301 is adopted as a conventional means.

【0125】δθoutは、スラブ204の測定温度と目
標温度との抽出温度誤差であり、目標温度達成時に0と
なる。
Δθout is an extraction temperature error between the measured temperature of the slab 204 and the target temperature, and becomes 0 when the target temperature is reached.

【0126】従来手段によるチューニング結果では、モ
デル105のφcgが、実炉のφcgからずれた値に収
束し、抽出温度誤差が残ったままの状態になっているの
に対して、本発明によれば、チューニング回数の増加に
伴い、実炉のφcgが再現されてゆき、最終的に、抽出
温度誤差がほぼ「0」となり、チューニングが成功して
いる。
According to the tuning result of the conventional means, φcg of the model 105 converges to a value deviated from φcg of the actual furnace and the extraction temperature error remains. For example, as the number of times of tuning increases, φcg of the actual furnace is reproduced, and finally the extraction temperature error becomes almost “0”, and the tuning is successful.

【0127】なお、上記実施例では、ニューラルネット
演算手段の出力が1つであるが、出力値が複数となる
(例えば、修正量または操作量が複数必要な制御対象を
考慮した場合)構成にしてもよい。このことは、全ての
実施例において言える。
In the above embodiment, the neural network computing means has one output, but the output value is plural (for example, in the case of considering a control object requiring a plurality of correction amounts or operation amounts). May be. This is true in all the examples.

【0128】また、図1には2つニューラルネットワー
クを有した構成を示したが、第1のニューラルネットワ
ークのほかに、第2のニューラルネットワークを備え
ず、第1のニューラルネットワークにより、まず、所定
の値(第2のニューラルネットワークが出力する、特定
値に対応する出力値)を求めておき、この値をニューラ
ルネットワークの出力値から、減ずる構成でも良い。
Although FIG. 1 shows a configuration having two neural networks, the first neural network is not provided with a second neural network in addition to the first neural network. May be obtained (the output value corresponding to the specific value output by the second neural network), and this value may be subtracted from the output value of the neural network.

【0129】次に、図12に、本発明によるニューラル
ネット制御装置を、フィードバックコントローラとして
使用した実施例を示す。
Next, FIG. 12 shows an embodiment in which the neural network control device according to the present invention is used as a feedback controller.

【0130】ニューラルネット制御装置1200は、ニ
ューラルネット演算手段101と目標値格納部106と
を有して構成される。
The neural network control device 1200 is constructed to have a neural network computing means 101 and a target value storage unit 106.

【0131】ニューラルネット演算手段101は、第1
のニューラルネットワーク301と第2のニューラルネ
ットワーク302を備えて構成される。
The neural network computing means 101 has a first
The neural network 301 and the second neural network 302 are included.

【0132】また、目標値格納部106には、制御量の
目標値が格納されており、例えば、RAM等によって実
現される。
Further, the target value storage unit 106 stores the target value of the control amount, which is realized by, for example, a RAM or the like.

【0133】ニューラルネット制御装置1200は、第
1のセンサ1203より取り込んだ制御量から、目標値
を減じて得られる偏差を、第1の入力値として、第2の
センサ1204より取り込んだ制御量以外の制御対象1
201の状態量を、第2の入力値として、第1のニュー
ラルネットワーク301に与える。また、前記第2の入
力値と、前記第1の入力値に対して、与えた「0」を、
第2のニューラルネットワーク302に与える。
The neural network control device 1200 uses the deviation obtained by subtracting the target value from the control amount fetched from the first sensor 1203 as the first input value, except for the control amount fetched from the second sensor 1204. Control target 1
The state quantity 201 is given to the first neural network 301 as the second input value. In addition, “0” given to the second input value and the first input value is
It is given to the second neural network 302.

【0134】そして、ニューラルネット演算手段は、第
1と第2のニューラルネットワークの出力の差を、制御
量を目標値と一致させる操作量として、制御対象120
1が備えるアクチュエータ1202に出力する。
Then, the neural network computing means uses the difference between the outputs of the first and second neural networks as the manipulated variable for matching the controlled variable with the target value, and the controlled object 120.
1 is output to the actuator 1202.

【0135】さて、ニューラルネット制御装置1200
を、浄水プラントの薬品注入制御に適用した応用例を採
用して、ニューラルネット制御装置1200の動作を詳
細に説明する。
Now, the neural network control device 1200
The operation of the neural network control device 1200 will be described in detail by adopting an application example in which is applied to the chemical injection control of the water purification plant.

【0136】図13に、制御対象1201に対応した、
浄水プラントの構成図を示す。
FIG. 13 shows the control target 1201 corresponding to
The block diagram of a water purification plant is shown.

【0137】図12のアクチュエータ1202は、凝固
材を第1の層1304に挿入する凝固材注入器1301
に対応する。また、第1のセンサ1203は、凝固材濃
度および不純物濃度を検出するセンサ1303に対応
し、第2のセンサ1204は、浄水プラント1300の
温度を検出するセンサ1302に対応している。
The actuator 1202 of FIG. 12 is a coagulant injector 1301 for inserting a coagulant into the first layer 1304.
Corresponding to. Further, the first sensor 1203 corresponds to the sensor 1303 that detects the coagulant concentration and the impurity concentration, and the second sensor 1204 corresponds to the sensor 1302 that detects the temperature of the water purification plant 1300.

【0138】源水を注入されたプラントは、第一の層1
304で凝固材を、凝固材注入器1301により注入
し、源水に含まれる不純物を凝固させる。
The plant injected with the source water is the first layer 1
At 304, the coagulant is injected by the coagulant injector 1301 to coagulate impurities contained in the source water.

【0139】第2の層1305、第3の層1306で沈
殿物を濾過し、水道水として精製する。
The precipitate is filtered through the second layer 1305 and the third layer 1306 and purified as tap water.

【0140】第3の層1306で、センサ1302によ
り抽出された水の不純物濃度と凝固材濃度を検出する。
In the third layer 1306, the impurity concentration of the water extracted by the sensor 1302 and the coagulant concentration are detected.

【0141】また、プラントの温度を、センサ1302
により取り込む。浄水プラントでは、不純物濃度と凝固
材濃度が制御量となり、ニューラルネット制御装置12
00は、不純物濃度と凝固材濃度が「0」になるまで、
凝固材注入器1301に操作量を送る。
Further, the temperature of the plant is detected by the sensor 1302.
Take in by. In the water purification plant, the impurity concentration and the coagulant concentration are control amounts, and the neural network control device 12
00 is until the impurity concentration and the coagulant concentration become “0”,
The operation amount is sent to the coagulant injector 1301.

【0142】図14に、ニューラルネット制御装置13
00の処理の流れを示す。
FIG. 14 shows the neural network control device 13
00 shows the flow of processing.

【0143】本実施例では第2のニューラルネットワー
ク302で、制御量が目標値と一致したときの誤差を算
出する場合を説明する。
In this embodiment, a case will be described in which the second neural network 302 calculates an error when the control amount matches the target value.

【0144】まず、s14−1では、第1のニューラル
ネットワーク301に、第1の入力値である、センサ1
303により取り込んだ不純物濃度および凝固材濃度と
目標値(本実施例では「0」)との偏差が入力される。
さらに、偏差とこれに対応した適切な操作量の関係に影
響を与える信号として、センサ1302により取り込ん
だプラントの温度を、第2の入力値として入力し、演算
結果を、操作量1として保存する。
First, in s14-1, the sensor 1 which is the first input value is input to the first neural network 301.
Deviations between the impurity concentration and coagulant concentration captured by 303 and the target value (“0” in this embodiment) are input.
Further, the temperature of the plant captured by the sensor 1302 is input as a second input value as a signal that affects the relationship between the deviation and the appropriate manipulated variable, and the calculation result is saved as the manipulated variable 1. .

【0145】次に、s14−2で、第2のニューラルネ
ットワーク302に、s14−1で入力した不純物濃度
および凝固材濃度と、目標値との偏差に対応した入力
に、「0」を入力し、同様の演算を行なう。
Next, in s14-2, "0" is input to the second neural network 302 in the input corresponding to the deviation between the impurity concentration and the coagulant concentration input in s14-1 and the target value. , Perform the same calculation.

【0146】演算結果は、誤差量として保存する。The calculation result is saved as an error amount.

【0147】s14−3で、s14−1で保存された操
作量1の値から、s14−2で算出された誤差量を引い
たものを、操作量2とする。そして、s14−4で、操
作量2の値をプラントに(具体的には、アクチュエータ
に対応する1301に)を出力する。
At s14-3, the operation amount 2 is obtained by subtracting the error amount calculated at s14-2 from the value of the operation amount 1 stored at s14-1. Then, in s14-4, the value of the manipulated variable 2 is output to the plant (specifically, to 1301 corresponding to the actuator).

【0148】第1のニューラルネットワーク301の学
習に使用する記憶手段601の入出力ペアは、実際のプ
ラントで、入力信号と、これに対応して、例えば熟練運
転者の操作量にもとづいて作成すれば良い。また、浄水
プラント1300を対象としたモデルが作成されている
場合は、これを使用したシミュレーション、実験等によ
って、入出力ペアを作成することも可能である。
The input / output pair of the storage means 601 used for learning of the first neural network 301 is prepared in the actual plant based on the input signal and corresponding to it, for example, based on the operation amount of the skilled driver. Good. Further, when a model for the water purification plant 1300 is created, it is also possible to create an input / output pair by simulation, experiment, etc. using this model.

【0149】次に、ニューラルネットワーク101の出
力が、制御量のみで決定される実施例について説明す
る。
Next, an embodiment in which the output of the neural network 101 is determined only by the control amount will be described.

【0150】図15に、本実施例の構成例を示す。FIG. 15 shows a structural example of this embodiment.

【0151】ニューラルネット制御装置1500は、ニ
ューラルネットワーク301、オフセット記憶手段15
01、目標値格納部107を備えている。
The neural network control device 1500 comprises a neural network 301 and an offset storage means 15.
01, the target value storage unit 107.

【0152】オフセット記憶手段1501、目標値格納
部107は、例えば、RAMによって実現される。
The offset storage means 1501 and the target value storage unit 107 are realized by, for example, a RAM.

【0153】まず、全体の処理について説明する。First, the overall processing will be described.

【0154】ニューラルネットワーク301は、センサ
1504より取り込んだ制御量から、目標値を減じた値
を取り入れて、この値を減少させるのに適当な操作量を
算出する。
The neural network 301 takes in a value obtained by subtracting the target value from the control amount taken in by the sensor 1504, and calculates an operation amount suitable for reducing this value.

【0155】算出された操作量から、オフセット記憶手
段1501に予め記憶されているオフセット値を差し引
いて、その値を制御対象1502が備えるアクチュエー
タ1503に、出力する。
The offset value stored in advance in the offset storage means 1501 is subtracted from the calculated operation amount, and the value is output to the actuator 1503 included in the controlled object 1502.

【0156】オフセット記憶手段1501には、ニュー
ラルネットワーク301に、偏差として「0」が入力さ
れたときの出力値が予め記憶されている。
The offset storage means 1501 stores in advance the output value when the deviation "0" is input to the neural network 301.

【0157】図16に、オフセット記憶手段1501の
構成方法を示す。
FIG. 16 shows a method of constructing the offset storage means 1501.

【0158】まず、s16−1で、各制御量が目標値と
一致したときの値である「0」を、ニューラルネットワ
ーク301に入力する。
First, in s16-1, the value "0" when each control amount matches the target value is input to the neural network 301.

【0159】次に、s16−2において、このときのニ
ューラルネットワーク301の出力を、オフセット記憶
手段1501に保存する。
Next, in s16-2, the output of the neural network 301 at this time is stored in the offset storage means 1501.

【0160】以上の処理により、オフセット記憶手段1
501に記憶されるオフセット値のデータがが作成、記
憶される。
By the above processing, the offset storage means 1
The offset value data stored in 501 is created and stored.

【0161】次に、このニューラルネット制御装置15
00を、倒立振子の倒立制御に適用した実施例を示す。
Next, the neural network control unit 15
An example in which 00 is applied to the inverted control of the inverted pendulum will be described.

【0162】図17に、制御対象1502の構成例を示
す。倒立振子1700は、台車1701の上に取付けら
れ、角度θ、角速度dθ/dtは、センサ1404に相
当する角度センサ1703により取り込まれる。角度セ
ンサとしては、例えば、角速度が検出可能なジャイロを
使用すれば良い。
FIG. 17 shows a configuration example of the controlled object 1502. The inverted pendulum 1700 is mounted on the carriage 1701, and the angle θ and the angular velocity dθ / dt are captured by the angle sensor 1703 corresponding to the sensor 1404. As the angle sensor, for example, a gyro that can detect the angular velocity may be used.

【0163】アクチュエータ1503に相当する駆動部
1702により発生する力Fによって、角度θ、角速度
dθ/dtが、「0」となるように制御される。
The force F generated by the drive unit 1702 corresponding to the actuator 1503 controls the angle θ and the angular velocity dθ / dt to be “0”.

【0164】倒立振子の場合、制御量は、角度θと、角
速度dθ/dtであり、制御量の目標値は、それぞれ
「0」、操作量は、力Fである。
In the case of the inverted pendulum, the controlled variables are the angle θ and the angular velocity dθ / dt, the target value of the controlled variable is “0”, and the manipulated variable is the force F.

【0165】また、例えば、駆動部1702は、モータ
と該モータによって駆動される駆動輪を備えて構成され
る場合、前記操作量である力Fは、モータの出力トルク
等によって与えられ、これを与えるためには、例えば、
所定の駆動電流をモータに注入すれば良い。
Further, for example, when the drive section 1702 is constituted by a motor and drive wheels driven by the motor, the force F, which is the operation amount, is given by the output torque of the motor and the like. To give, for example,
It suffices to inject a predetermined drive current into the motor.

【0166】次に、図18に、ニューラルネット制御装
置1500による処理の流れを示す。
Next, FIG. 18 shows the flow of processing by the neural network control device 1500.

【0167】まず、s18−1で、目標値と、角度セン
サ1302により取り込まれた角度θ、角速度dθ/d
tとの、それぞれの偏差を、ニューラルネットワーク3
01に入力し、得られた演算結果を算出する。
First, in s18-1, the target value, the angle θ captured by the angle sensor 1302, and the angular velocity dθ / d.
The respective deviations from t are calculated by the neural network 3
Input to 01 and calculate the obtained operation result.

【0168】次に、s18−2で、オフセット記憶手段
1501に保存されている値を、演算結果から差し引
き、差し引いたものを操作量Fとする。
Next, in s18-2, the value stored in the offset storage means 1501 is subtracted from the calculation result, and the subtracted value is taken as the manipulated variable F.

【0169】次に、s18−3で、操作量Fを制御対象
1502の駆動部1702に出力する。
Next, in s18-3, the operation amount F is output to the drive section 1702 of the controlled object 1502.

【0170】すなわち、例えば、操作量Fを与えるよう
に、モータに電流を注入する。
That is, for example, a current is injected into the motor so as to give the manipulated variable F.

【0171】本実施例では、ソフトウェアによって、ニ
ューラルネット制御装置1500を実現する方法を述べ
たが、ニューラルネットワーク301とオフセット記憶
手段1501を個別に設けた構成にし、それらを各種C
MOS等の論理素子によって、ハードウェアで実現して
も良い。
In this embodiment, the method of realizing the neural network control device 1500 by software has been described. However, the neural network 301 and the offset storage means 1501 are individually provided, and these various C
It may be realized by hardware by a logic element such as MOS.

【0172】また、前述した実施例と同様に、オフセッ
ト記憶手段1501に保存されるオフセット値を、状況
に応じて差し引くか否かを選択可能とするスイッチ80
1を設けても良い。
Further, similar to the above-described embodiment, the switch 80 which makes it possible to select whether or not to subtract the offset value stored in the offset storage means 1501 depending on the situation.
1 may be provided.

【0173】次に、ニューラルネットワーク301の出
力が複数ある場合の実施例を示す。
Next, an example in which the neural network 301 has a plurality of outputs will be described.

【0174】図19に、本発明をPID(Pは比例、I
は積分、Dは微分を表し、この3動作を組み合わせた制
御方式を称する)ゲインパラメータのオートチューニン
グに適用した実施例を示す。
FIG. 19 shows the PID (P is proportional, I
Represents an integral and D represents a derivative, and refers to a control system in which these three operations are combined.) An example applied to the automatic tuning of a gain parameter is shown.

【0175】ニューラルネット制御装置1900は、P
IDコントローラ1901、入力波形発生部1903、
解析部1904、ニューラルネットワーク301、オフ
セット記憶手段1501、目標値格納部107を有して
構成される。また、キーボード、マウス等で実現される
入力手段108も備えられている。
The neural network control device 1900 uses P
ID controller 1901, input waveform generator 1903,
It comprises an analysis unit 1904, a neural network 301, an offset storage unit 1501, and a target value storage unit 107. Further, input means 108 realized by a keyboard, a mouse, etc. is also provided.

【0176】各構成要素は、例えば、CPU、ROM
(所定の処理を行うプログラムを予め記憶しておく)、
RAM、各種CMOS等の電子デバイスにて実現可能で
ある。
Each component is, for example, a CPU or a ROM.
(A program for performing a predetermined process is stored in advance),
It can be realized by electronic devices such as RAM and various CMOSs.

【0177】まず、全体の処理を説明する。First, the overall processing will be described.

【0178】本実施例では一例として、入力波形として
ステップ入力を行う場合について説明する。
In the present embodiment, as an example, a case of performing step input as an input waveform will be described.

【0179】入力波形発生部1903から発生されるス
テップ入力に対する、制御対象1902の出力波形が理
想応答と一致するように、PIDコントローラ1901
のゲインkP、kI、kDをチューニングする必要があ
る。
The PID controller 1901 is arranged so that the output waveform of the controlled object 1902 corresponds to the ideal response to the step input generated from the input waveform generating section 1903.
It is necessary to tune the gains kP, kI, and kD of.

【0180】入力手段108を介して、目標値格納部1
07に、理想ステップ応答の応答波形が予め記憶されて
いる。
The target value storage unit 1 is input via the input means 108.
In 07, the response waveform of the ideal step response is stored in advance.

【0181】制御対象1902の制御量は、解析部19
04に入力され、出力波形が抽出される。
The control amount of the controlled object 1902 is calculated by the analysis unit 19
It is input to 04, and an output waveform is extracted.

【0182】出力波形の抽出法は、入力波形の発生法や
目標値の格納の仕方にも関係するが、例えば、ナイキス
ト間隔で波形をサンプリングすることや、周波数スペク
トルの分布を調べ、当該分布において、所定の周波数間
隔でスペクトルの大きさをサンプリングしていく方法
等、各種の方法が考えられ、波形を再現できるように抽
出するのであれば、いかなる方法でも良い。
The method of extracting the output waveform is related to the method of generating the input waveform and the method of storing the target value. For example, sampling the waveform at Nyquist intervals or examining the distribution of the frequency spectrum, Various methods such as a method of sampling the magnitude of the spectrum at a predetermined frequency interval are conceivable, and any method may be used as long as the waveform can be extracted so as to be reproduced.

【0183】このように抽出された出力波形と理想波形
との差が、ニューラルネットワーク301に入力される
ことになる。ニューラルネットワーク301は、ゲイン
修正量ΔkP、ΔkI、ΔkDを出力するが、オフセッ
ト記憶手段1501に記憶されている、ゲインkP、k
I、kD、のそれぞれに対応した、オフセット値を、修
正量ΔkP、ΔkI、ΔkDから差し引いたものを、P
IDコントローラ1901のゲインに加える処理を行
う。
The difference between the output waveform thus extracted and the ideal waveform is input to the neural network 301. The neural network 301 outputs the gain correction amounts ΔkP, ΔkI, ΔkD, but the gains kP, k stored in the offset storage means 1501.
The offset value corresponding to each of I and kD is obtained by subtracting the correction amounts ΔkP, ΔkI, and ΔkD from P
Processing for adding to the gain of the ID controller 1901 is performed.

【0184】オフセット記憶手段1501に格納されて
いるオフセット値は、出力波形と理想波形の偏差とし
て、「0」が入力されたときのニューラルネットワーク
301の出力値である。
The offset value stored in the offset storage means 1501 is the output value of the neural network 301 when "0" is input as the deviation between the output waveform and the ideal waveform.

【0185】ゲインを表すパラメータの修正を受けた、
PIDコントローラ1901から、制御対象1902
に、操作量が送られ、制御対象1902の制御量が、再
度解析部1904に入力される。
The parameter representing the gain is modified,
From the PID controller 1901 to the control target 1902
The control amount of the controlled object 1902 is input to the analysis unit 1904 again.

【0186】以上のような処理を繰り返し、ゲインパラ
メータのチューニングが行われる。
The gain parameters are tuned by repeating the above processing.

【0187】図20に、本実施例のオフセット記憶手段
による処理のフローチャートを示す。
FIG. 20 shows a flowchart of processing by the offset storage means of this embodiment.

【0188】まず、s20−1で、ニューラルネットワ
ーク301による演算結果が、ゲインパラメータの修正
量として、ΔkP、ΔkI、ΔkDに記憶される。
First, in s20-1, the calculation result by the neural network 301 is stored in ΔkP, ΔkI, and ΔkD as the correction amount of the gain parameter.

【0189】次に、s20−2で、オフセット記憶手段
1501に記憶されている値、ΔkP0、ΔkI0、Δ
kD0を取り出し、修正量として記憶されている、Δk
P、ΔkI、ΔkDから取り出したΔkP0、ΔkI
0、ΔkD0を、それぞれ減じた値を、修正量ΔkP、
ΔkI、ΔkDとする。
Next, in s20-2, the values stored in the offset storage means 1501, ΔkP0, ΔkI0, Δ.
Δk stored in kD0 as a correction amount
ΔkP0, ΔkI extracted from P, ΔkI, ΔkD
The values obtained by subtracting 0 and ΔkD0 from each other are used as correction amounts ΔkP and
Let ΔkI and ΔkD.

【0190】そして、s20−3で、修正量ΔkP、Δ
kI、ΔkDを、制御対象1902に出力すれば、一連
の処理が完了する。
Then, in s20-3, the correction amounts ΔkP and Δ
When kI and ΔkD are output to the control target 1902, a series of processing is completed.

【0191】[0191]

【発明の効果】本発明によれば、指定された値に対する
第1のニューラルネットワークの出力誤差を、第2のニ
ューラルネットワークの出力で相殺した値を、ニューラ
ルネット演算手段の出力とすることにより、指定された
入力値の近傍での出力誤差を低減することができる。こ
のため、ニューラルネット制御装置は、指令値、操作量
等を高精度に出力することが可能となる。
According to the present invention, a value obtained by canceling the output error of the first neural network with respect to the designated value by the output of the second neural network is used as the output of the neural network calculation means. The output error in the vicinity of the specified input value can be reduced. Therefore, the neural network control device can output the command value, the operation amount, and the like with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明にかかるニューラルネット制御装置例の
構成図である。
FIG. 1 is a configuration diagram of an example of a neural network control device according to the present invention.

【図2】制御対象である加熱炉の構成図である。FIG. 2 is a configuration diagram of a heating furnace which is a control target.

【図3】ニューラルネット演算手段の構成図である。FIG. 3 is a configuration diagram of a neural network computing unit.

【図4】ニューラルネット演算手段の処理アルゴリズム
を示すフローチャ−トである。
FIG. 4 is a flow chart showing a processing algorithm of the neural network computing means.

【図5】ニューラルネットワークの一例の構成図であ
る。
FIG. 5 is a configuration diagram of an example of a neural network.

【図6】ニューラルネット学習装置の構成図である。FIG. 6 is a configuration diagram of a neural network learning device.

【図7】入出力ペアの作成アルゴリズムを示すフローチ
ャ−トである。
FIG. 7 is a flowchart showing an input / output pair creation algorithm.

【図8】スイッチを設けたニューラルネット制御装置例
の構成図である。
FIG. 8 is a configuration diagram of an example of a neural network control device provided with a switch.

【図9】スイッチ操作のアルゴリズムを示すフローチャ
−トである。
FIG. 9 is a flow chart showing an algorithm of switch operation.

【図10】リミッタを設けたニューラルネット演算手段
の構成図である。
FIG. 10 is a configuration diagram of a neural network operation unit provided with a limiter.

【図11】シミュレーション結果の説明図である。FIG. 11 is an explanatory diagram of simulation results.

【図12】本発明をコントローラに適用した実施例の構
成図である。
FIG. 12 is a configuration diagram of an embodiment in which the present invention is applied to a controller.

【図13】浄水プラントの構成図である。FIG. 13 is a configuration diagram of a water purification plant.

【図14】ニューラルネット演算手段のアルゴリズムを
示すフローチャ−トである。
FIG. 14 is a flow chart showing an algorithm of a neural network computing means.

【図15】オフセット記憶手段を組み込んだニューラル
ネット制御装置の構成図である。
FIG. 15 is a configuration diagram of a neural network control device incorporating offset storage means.

【図16】オフセット記憶手段のアルゴリズムを示すフ
ローチャ−トである。
FIG. 16 is a flow chart showing an algorithm of offset storage means.

【図17】倒立振子の構成図である。FIG. 17 is a configuration diagram of an inverted pendulum.

【図18】ニューラルネット演算手段のアルゴリズムを
示すフローチャ−トである。
FIG. 18 is a flow chart showing an algorithm of the neural network computing means.

【図19】本発明をPIDコントローラに適用した実施
例の構成図である。
FIG. 19 is a configuration diagram of an embodiment in which the present invention is applied to a PID controller.

【図20】ニューラルネット演算手段のアルゴリズムを
示すフローチャ−トである。
FIG. 20 is a flow chart showing an algorithm of the neural network computing means.

【符号の説明】[Explanation of symbols]

100…ニューラルネット制御装置、101…ニューラ
ルネット演算手段、102…指令値算出手段、105…
モデル、111…ニューラルネット学習装置、301…
第1のニューラルネットワーク、302…第2のニュー
ラルネットワーク、801…スイッチ、1001…リミ
ッタ、1501…オフセット記憶手段
Reference numeral 100 ... Neural network control device, 101 ... Neural network calculation means, 102 ... Command value calculation means, 105 ...
Model, 111 ... Neural network learning device, 301 ...
1st neural network, 302 ... 2nd neural network, 801, ... switch, 1001 ... limiter, 1501 ... offset storage means

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】入力層、中間層、出力層を有して構成さ
れ、制御対象の制御目標値との偏差量である、少なくと
も1以上の第1の入力値および制御対象が有する状態量
である、少なくとも1以上の第2の入力値を入力層が受
け付け、制御対象に与える操作量を出力層から出力する
ニューラルネットワークを備えたニューラルネットワー
ク内蔵制御装置において、 入力層、中間層、出力層を有して構成した、新たなニュ
ーラルネットと、減算手段とを備え、 前記新たなニューラルネットワークの入力層は、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた特定値を受け付け、受け付けた値に基づいて、中
間層および出力層が行う演算により、出力値を出力層か
ら出力し、 前記減算手段は、前記2つのニューラルネットワークの
出力値の差分を演算し、前記操作量として出力すること
を特徴とするニューラルネットワーク内蔵制御装置。
1. At least one first input value which is a deviation amount from a control target value of a controlled object and a state quantity which the controlled object has, which is configured by having an input layer, an intermediate layer and an output layer. In a control device with a built-in neural network that has a neural network that receives at least one or more second input values from the input layer and outputs the amount of operation given to the controlled object from the output layer, the input layer, the intermediate layer, and the output layer are A new neural network having the above configuration and a subtracting means are provided, and the input layer of the new neural network is predetermined in correspondence with the second input value and the first input value. A specific value is received, and an output value is output from the output layer by a calculation performed by the intermediate layer and the output layer based on the received value. It calculates the difference between the output values, the neural network internal controller and outputs as the operation amount.
【請求項2】入力層、中間層、出力層を有して構成され
るニューラルネットワークを使用し、制御対象の制御目
標値との偏差量である、少なくとも1以上の第1の入力
値および制御対象が有する状態量である、少なくとも1
以上の第2の入力値を入力層に与え、制御対象に与える
操作量を出力層から出力させるニューラルネットワーク
による制御方法において、 入力層、中間層、出力層を有して構成した、新たなニュ
ーラルネットとを用意し、 前記新たなニューラルネットワークの入力層に、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた特定値を与え、受け付けた値に基づいて中間層、
出力層が行う演算により、出力値を出力層から出力さ
せ、 前記2つのニューラルネットワークの出力値の差分を演
算し、前記操作量として出力することを特徴とするニュ
ーラルネットワークによる制御方法。
2. A neural network having an input layer, an intermediate layer, and an output layer is used, and at least one or more first input value and control which are deviation amounts from a control target value of a controlled object are used. At least 1, which is the state quantity that the subject has
In the control method by the neural network in which the second input value is given to the input layer and the operation amount given to the controlled object is outputted from the output layer, a new neural network having an input layer, an intermediate layer and an output layer is provided. A net is provided, and a predetermined specific value corresponding to the second input value and the first input value is given to the input layer of the new neural network, and an intermediate value is obtained based on the received value. layer,
An output value is output from the output layer by an operation performed by the output layer, a difference between the output values of the two neural networks is calculated, and the difference is output as the operation amount.
【請求項3】入力層、中間層、出力層を有して構成さ
れ、制御対象の制御目標値との偏差量である、少なくと
も1以上の入力値を入力層が受け付け、制御対象に与え
る操作量を出力層に出力するニューラルネットワークを
備えたニューラルネットワーク内蔵制御装置において、 予め、与えられ特定の値と、これに対応するオフセット
値の組を少なくとも1以上記憶するオフセット格納手段
とオフセット演算手段を備えオフセット演算手段は、ニ
ューラルネットワークに与えられた値が、前記オフセッ
ト格納手段に格納される特定の値と一致するとき、ニュ
ーラルネットワークの出力値と前記特定の値に対応する
オフセット値との差分を演算し、これを前記操作量とし
て出力することを特徴とするニューラルネットワーク内
蔵制御装置。
3. An operation configured to have an input layer, an intermediate layer, and an output layer, the input layer receiving at least one input value, which is a deviation amount from a control target value of a control target, and giving it to the control target. In a neural network built-in control device having a neural network for outputting a quantity to an output layer, an offset storing means and an offset calculating means for storing at least one set of a given specific value and an offset value corresponding thereto in advance are provided. The offset calculation means comprises a difference between the output value of the neural network and the offset value corresponding to the specific value when the value given to the neural network matches the specific value stored in the offset storage means. A control device with a built-in neural network, which calculates and outputs the calculated amount as the operation amount.
【請求項4】入力層、中間層、出力層を有して構成され
るニューラルネットワークを使用し、制御対象の制御目
標値との偏差量である、少なくとも1以上の入力値を入
力層に与え、制御対象に与える操作量を出力層に出力さ
せるニューラルネットワークによる制御方法において、 予め、与えられ特定の値と、これに対応するオフセット
値の組を少なくとも1以上記憶するオフセット格納手段
を用意し、 ニューラルネットワークに与えられた値が、前記オフセ
ット格納手段に格納される特定の値と一致するとき、ニ
ューラルネットワークの出力値と前記特定の値に対応す
るオフセット値との差分を演算し、これを前記操作量と
して出力することを特徴とするニューラルネットワーク
による制御方法。
4. A neural network having an input layer, an intermediate layer, and an output layer is used, and at least one input value, which is a deviation amount from a control target value of a controlled object, is given to the input layer. In a control method by a neural network that outputs an operation amount given to a controlled object to an output layer, an offset storage means is prepared in advance for storing at least one set of a given specific value and an offset value corresponding thereto, When the value given to the neural network matches the specific value stored in the offset storage means, the difference between the output value of the neural network and the offset value corresponding to the specific value is calculated, and the difference is calculated. A control method by a neural network characterized by outputting as an operation amount.
【請求項5】請求項1において、前記新たなニューラル
ネットワークに、該ニューラルネットワークの出力値
を、前記減算手段に接続するか否かを選択するための選
択手段を備えたことを特徴とするニューラルネットワー
ク内蔵制御装置。
5. The neural network according to claim 1, wherein the new neural network is provided with a selecting means for selecting whether to connect the output value of the neural network to the subtracting means. Network built-in control device.
【請求項6】請求項2において、前記オフセット演算手
段を起動させるか否かの選択が可能な選択手段を備えた
ことを特徴とするニューラルネットワーク内蔵制御装
置。
6. The neural network built-in control device according to claim 2, further comprising selection means capable of selecting whether or not to activate the offset calculation means.
【請求項7】請求項5および6のいずれにおいて、予め
定めたタイミングで、予め定めた選択項目を選択するよ
うに前記選択手段を起動する起動手段を備えたことを特
徴とするニューラルネットワーク内蔵制御装置。
7. The neural network built-in control according to any one of claims 5 and 6, further comprising: a starting unit that starts the selecting unit so as to select a predetermined selection item at a predetermined timing. apparatus.
【請求項8】請求項1、5および7のいずれかにおい
て、さらに、リミッタ手段を備え、 該リミッタ手段は、前記減算手段からの出力値の、上限
値および下限値のうちいずれか一方を制限することを特
徴とするニューラルネットワーク内蔵制御装置。
8. The limiter means according to claim 1, further comprising limiter means for limiting either one of an upper limit value and a lower limit value of an output value from the subtraction means. A controller with a built-in neural network, which is characterized by:
【請求項9】請求項2、6および7のいずれかにおい
て、さらに、リミッタ手段を備え、 該リミッタ手段は、前記オフセット演算手段からの出力
値の、上限値および下限値のうちいずれか一方を制限す
ることを特徴とするニューラルネットワーク内蔵制御装
置。
9. The method according to claim 2, further comprising a limiter means, wherein the limiter means sets one of an upper limit value and a lower limit value of an output value from the offset computing means. A control device with a built-in neural network characterized by being limited.
【請求項10】入力層、中間層、出力層を有して構成さ
れるニューラルネットワークと、制御対象を、正確には
分からないパラメータを含む数式によるモデルで表現し
たとき、該モデルを表現する数式によって、制御対象の
制御量が制御目標値と一致するように、制御対象に操作
量を与える指令値算出手段とを具備し、 前記入力層は、制御対象の制御目標値との偏差量である
第1の入力値および制御対象の状態量である第2の入力
値を受け付け、前記中間層および出力層は、受け付けた
値に基づいて、制御対象の制御目標量とモデルによる制
御量との偏差を減少させるように、前記パラメータの修
正値を前記出力層から出力することを特徴とする、ニュ
ーラルネットワーク内蔵制御装置装置。
10. A mathematical expression representing a model when a neural network including an input layer, an intermediate layer, and an output layer and a controlled object are expressed by a mathematical model including parameters that are not exactly known. According to the control amount of the controlled object, a command value calculation means for giving an operation amount to the controlled object is provided so as to match the controlled target value, and the input layer is a deviation amount from the controlled target value of the controlled object. The first input value and the second input value which is the state quantity of the controlled object are accepted, and the intermediate layer and the output layer deviate from the control target quantity of the controlled object and the controlled variable by the model based on the accepted values. A controller with a built-in neural network, wherein a modified value of the parameter is output from the output layer so as to reduce
【請求項11】入力層、中間層、出力層を有して構成さ
れ、制御対象を、正確には分からないパラメータを含む
数式で表現するモデルで表したとき、制御目標値との偏
差量である、少なくとも1以上の第1の入力値および制
御対象が有する状態量である、少なくとも1以上の第2
の入力値を入力層が受け付け、受け付けた値に基づいて
前記中間層および出力層が行う演算により、前記モデル
のパラメータの修正量を出力層に出力するニューラルネ
ットワークを具備し、 入力層、中間層、出力層を有して構成した、新たなニュ
ーラルネットと、減算手段とを備え、 前記新たなニューラルネットワークの入力層は、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた特定値を受け付け、受け付けた値に基づいて、中
間層および出力層が行う演算により、所定の出力値を出
力層から出力し、 前記減算手段は、前記2つのニューラルネットワークの
出力値の差分を演算し、前記パラメータの修正量として
演算結果を出力することを特徴とするニューラルネット
ワーク内蔵制御装置。
11. A deviation amount from a control target value when a control target is expressed by a model including an input layer, an intermediate layer, and an output layer and expressed by a mathematical expression including a parameter that is not exactly known. There is at least one or more first input values and at least one or more second quantities that are state quantities possessed by the controlled object.
The input layer accepts an input value of, and a neural network that outputs the correction amount of the parameter of the model to the output layer by an operation performed by the intermediate layer and the output layer based on the received value is provided. A new neural network having an output layer and subtraction means, wherein an input layer of the new neural network corresponds to the second input value and the first input value. A predetermined specific value is received, and a predetermined output value is output from the output layer by an operation performed by the intermediate layer and the output layer based on the received value, and the subtraction unit outputs the output values of the two neural networks. Is calculated, and the calculation result is output as the correction amount of the parameter.
【請求項12】入力層、中間層、出力層を有して構成さ
れるニューラルネットワークを使用し、制御対象の制御
目標値との偏差量である、少なくとも1以上の第1の入
力値および制御対象が有する状態量である、少なくとも
1以上の第2の入力値を入力層に与え、制御対象に与え
る操作量を出力層から出力させるニューラルネットワー
クによる制御方法において、 まず、前記ニューラルネットワークの入力層に、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた特定値を与え、受け付けた値に基づいて中間層、
出力層が行う演算により、出力値を出力層から出力さ
せ、当該出力値を記憶しておき、 次に、前記ニューラルネットワークの出力値と、前記記
憶してある出力値との差分を演算し、前記操作量として
出力することを特徴とするニューラルネットワークによ
る制御方法。
12. A neural network comprising an input layer, an intermediate layer and an output layer is used, and at least one or more first input value and control which are deviation amounts from a control target value of a controlled object are used. In a control method by a neural network in which at least one second input value, which is a state quantity of an object, is given to an input layer and an operation amount given to a controlled object is outputted from an output layer, first, an input layer of the neural network To the second input value, and a predetermined specific value corresponding to the first input value, the intermediate layer based on the received value,
By the operation performed by the output layer, the output value is output from the output layer, the output value is stored, and then the difference between the output value of the neural network and the stored output value is calculated, A control method using a neural network, wherein the control value is output as the operation amount.
JP5262673A 1993-10-20 1993-10-20 Control method by neural network and built-in control device Expired - Lifetime JP3040901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5262673A JP3040901B2 (en) 1993-10-20 1993-10-20 Control method by neural network and built-in control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5262673A JP3040901B2 (en) 1993-10-20 1993-10-20 Control method by neural network and built-in control device

Publications (2)

Publication Number Publication Date
JPH07121206A true JPH07121206A (en) 1995-05-12
JP3040901B2 JP3040901B2 (en) 2000-05-15

Family

ID=17379013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5262673A Expired - Lifetime JP3040901B2 (en) 1993-10-20 1993-10-20 Control method by neural network and built-in control device

Country Status (1)

Country Link
JP (1) JP3040901B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204203A (en) * 1996-01-24 1997-08-05 Hitachi Ltd Method and device for calculating control command
JP2014059900A (en) * 1999-10-04 2014-04-03 Fisher Rosemount Systems Inc Integrated advanced control block in process control system
JP2020105623A (en) * 2018-12-28 2020-07-09 株式会社日立製作所 Plating adhesion amount control device and control method
JP6869589B1 (en) * 2019-12-24 2021-05-12 株式会社エイシング Information processing equipment, methods and programs
WO2021131210A1 (en) * 2019-12-24 2021-07-01 株式会社エイシング Information processing device, method, and program
WO2022124281A1 (en) * 2020-12-11 2022-06-16 キヤノン株式会社 Control device, adjustment method, lithography device, and method for manufacturing article

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204203A (en) * 1996-01-24 1997-08-05 Hitachi Ltd Method and device for calculating control command
JP2014059900A (en) * 1999-10-04 2014-04-03 Fisher Rosemount Systems Inc Integrated advanced control block in process control system
JP2020105623A (en) * 2018-12-28 2020-07-09 株式会社日立製作所 Plating adhesion amount control device and control method
JP6869589B1 (en) * 2019-12-24 2021-05-12 株式会社エイシング Information processing equipment, methods and programs
WO2021131210A1 (en) * 2019-12-24 2021-07-01 株式会社エイシング Information processing device, method, and program
JP2021108172A (en) * 2019-12-24 2021-07-29 株式会社エイシング Information processing device, method, and program
WO2022124281A1 (en) * 2020-12-11 2022-06-16 キヤノン株式会社 Control device, adjustment method, lithography device, and method for manufacturing article

Also Published As

Publication number Publication date
JP3040901B2 (en) 2000-05-15

Similar Documents

Publication Publication Date Title
Perrusquía et al. Identification and optimal control of nonlinear systems using recurrent neural networks and reinforcement learning: An overview
Zhao et al. Model-free optimal control for affine nonlinear systems with convergence analysis
CA2414707C (en) Computer method and apparatus for constraining a non-linear approximator of an empirical process
JPH04127205A (en) Process controller
JP2000514217A (en) Automatic tuner with nonlinear approximation mechanism
CN111045326A (en) Tobacco shred drying process moisture prediction control method and system based on recurrent neural network
US5369567A (en) Furnace temperature cascade control apparatus using adjustment input
Zhao et al. Event-triggered H∞ optimal control for continuous-time nonlinear systems using neurodynamic programming
CN105867138A (en) Stable platform control method and device based on PID controller
JPH04262453A (en) Neurolearning control method and equipment
JP3040901B2 (en) Control method by neural network and built-in control device
JP3798239B2 (en) Multivariable model predictive control apparatus, method, and storage medium thereof
US6768927B2 (en) Control system
Barhaghtalab et al. Design of an adaptive fuzzy-neural inference system-based control approach for robotic manipulators
JP3012716B2 (en) Process control method and its control device
CN113485099B (en) Online learning control method of nonlinear discrete time system
JP3367214B2 (en) Neural network control method and device
JPH0924449A (en) Method for controlling cooling in continuous casting machine and device therefor
Saleem et al. Robustification of the state-space MRAC law for under-actuated systems via fuzzy-immunological computations
JPH08121704A (en) Steam temperature control apparatus for boiler
Lin et al. An extended inverse reinforcement learning control for target-expert systems with different parameters
JP2000054032A (en) Device for controlling combustion for annealing furnace
Upadhyay et al. ANN based intelligent controller for inverted pendulum system
Tao et al. Application of fuzzy logic and neural network to the control of a flame process
Ernoult et al. Continual weight updates and convolutional architectures for equilibrium propagation

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090303

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100303

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110303

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120303

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130303

Year of fee payment: 13