JP3040901B2 - Control method by neural network and built-in control device - Google Patents
Control method by neural network and built-in control deviceInfo
- Publication number
- JP3040901B2 JP3040901B2 JP5262673A JP26267393A JP3040901B2 JP 3040901 B2 JP3040901 B2 JP 3040901B2 JP 5262673 A JP5262673 A JP 5262673A JP 26267393 A JP26267393 A JP 26267393A JP 3040901 B2 JP3040901 B2 JP 3040901B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- value
- output
- input
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Feedback Control In General (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、各種制御対象の制御
に、ニューラルネットを適用する技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for applying a neural network to control of various control objects.
【0002】[0002]
【従来の技術】従来、各種制御対象の制御に使用される
ニューラルネットワークにおいて、ニューラルネットワ
ークからの出力は、そのまま、制御対象に接続して設け
られた、制御対象を制御するためのコントローラへ送出
される指令値や、制御対象に送出される操作量等になっ
ていた。2. Description of the Related Art Conventionally, in a neural network used for controlling various controlled objects, an output from the neural network is sent as it is to a controller for controlling the controlled object provided connected to the controlled object. Command value, the amount of operation transmitted to the control target, and the like.
【0003】すなわち、例えば、ニューラルネットワー
クに、所定の入力信号を入力し、ニューラルネットワー
クからの出力と、前記入力信号に対する望ましい出力と
の誤差が、ある所定値以下になるまで、ニューラルネッ
トワークの学習を行い、かかる学習が完了したニューラ
ルネットワークを制御対象の制御項目の制御に使用して
いた。That is, for example, a predetermined input signal is input to a neural network, and learning of the neural network is performed until an error between an output from the neural network and a desired output for the input signal becomes equal to or less than a predetermined value. The learned neural network is used for controlling the control items to be controlled.
【0004】かかる学習は、例えば、制御量を前記入力
信号とし、これに対応するニューラルネットワークの出
力を、制御量に対応する操作量としたものである。In such learning, for example, a control amount is used as the input signal, and an output of the neural network corresponding to the input signal is used as an operation amount corresponding to the control amount.
【0005】そして、学習が完了したニューラルネット
ワークに、ある制御量を入力せしめ、そのときのニュー
ラルネットワークからの出力を操作量とし、これを制御
装置に備えられたコントローラに、直接入力して制御対
象の制御項目を制御するものであった。[0005] Then, a certain control amount is input to the neural network in which learning has been completed, and the output from the neural network at that time is used as an operation amount, which is directly input to a controller provided in the control device to be controlled. Control items.
【0006】[0006]
【発明が解決しようとしている課題】しかしながら、上
記の従来技術には、例えば、以下のような問題が存在し
ていた。However, the above prior art has, for example, the following problems.
【0007】ニューラルネットワークからの出力が、直
接、制御対象を制御するためのコントローラに対する指
令値や、制御対象に送出される操作量に対応しているた
め、ニューラルネットワークの出力誤差が、そのまま指
令値や操作量の誤差に含まれてしまい、制御の精度を、
著しく低下させたり、当該誤差により制御系を不安定化
させていた。[0007] Since the output from the neural network directly corresponds to a command value for the controller for controlling the control target and the manipulated variable sent to the control target, the output error of the neural network directly changes the command value. And the accuracy of the control amount,
The control system was degraded significantly or the error caused the control system to become unstable.
【0008】そこで、本発明の目的は、ニューラルネッ
トワークの出力誤差を低減し、高精度に制御対象を制御
するためのニューラルネットを内蔵した制御手段方法を
提供することにある。It is an object of the present invention to provide a control method incorporating a neural network for controlling an output of a neural network with high accuracy while reducing the output error of the neural network.
【0009】[0009]
【問題を解決するための手段】上記問題を解決するため
に、以下の手段が考えられる。[Means for Solving the Problems] In order to solve the above problems, the following means are conceivable.
【0010】入力層、中間層、出力層を有して構成さ
れ、制御対象の制御目標値との偏差量である、少なくと
も1以上の第1の入力値および制御対象が有する状態量
である、少なくとも1以上の第2の入力値を入力層が受
け付け、制御対象に与える操作量を出力層から出力する
ニューラルネットワークを備えたニューラルネットワー
ク内蔵制御装置において、入力層、中間層、出力層を有
して構成した、新たなニューラルネットと、減算手段と
を備え、前記新たなニューラルネットワークの入力層
は、前記第2の入力値、および、前記第1の入力値に対
応して予め定めた特定値を受け付け、受け付けた値に基
づいて、中間層および出力層が行う演算により、出力値
を出力層から出力し、前記減算手段は、前記2つのニュ
ーラルネットワークの出力値の差分を演算し、前記操作
量として出力する装置である。[0010] At least one first input value, which is a deviation amount from a control target value of the control object, and a state quantity of the control object, which is constituted by having an input layer, an intermediate layer, and an output layer. A control device with a built-in neural network including a neural network that receives at least one or more second input values from an input layer and outputs an operation amount given to a control target from an output layer, the control device including an input layer, an intermediate layer, and an output layer The input layer of the new neural network includes a second input value and a predetermined value corresponding to the first input value. And outputs an output value from the output layer by an operation performed by the intermediate layer and the output layer based on the received value, and the subtraction unit outputs the output value of the two neural networks. Calculates the difference between the force value is a device that outputs as the operation amount.
【0011】また、以下のような制御方法も考えられ
る。The following control method is also conceivable.
【0012】すなわち、入力層、中間層、出力層を有し
て構成されるニューラルネットワークを使用し、制御対
象の制御目標値との偏差量である、少なくとも1以上の
第1の入力値および制御対象が有する状態量である、少
なくとも1以上の第2の入力値を入力層に与え、制御対
象に与える操作量を出力層から出力させるニューラルネ
ットワークによる制御方法において、入力層、中間層、
出力層を有して構成した、新たなニューラルネットとを
用意し、前記新たなニューラルネットワークの入力層
に、前記第2の入力値、および、前記第1の入力値に対
応して予め定めた特定値を与え、受け付けた値に基づい
て中間層、出力層が行う演算により、出力値を出力層か
ら出力させ、前記2つのニューラルネットワークの出力
値の差分を演算し、前記操作量として出力するニューラ
ルネットワークによる制御方法である。That is, a neural network having an input layer, an intermediate layer, and an output layer is used, and at least one or more first input values, which are deviation amounts from a control target value of a control object, and control. In a control method using a neural network in which at least one or more second input values, which are state quantities of an object, are given to an input layer, and an operation amount given to a control object is output from an output layer, the input layer, the intermediate layer,
A new neural network configured with an output layer is prepared, and an input layer of the new neural network is predetermined in correspondence with the second input value and the first input value. A specific value is given, an output value is output from the output layer by a calculation performed by the intermediate layer and the output layer based on the received value, a difference between the output values of the two neural networks is calculated, and output as the manipulated variable. This is a control method using a neural network.
【0013】[0013]
【作用】上述した手段のように、本発明は、通常のニュ
ーラルネット演算を行う第1のニューラルネットワーク
に加えて、新たに、第1のニューラルネットワークの出
力誤差を算出する第2のニューラルネットワークを備え
ることによって解決される。As described above, according to the present invention, in addition to the first neural network for performing a normal neural network operation, a second neural network for newly calculating the output error of the first neural network is provided. It is solved by preparing.
【0014】第2のニューラルネットワークは、予め設
定された入力値の近傍で、第1のニューラルネットワー
クの出力誤差を算出する。第1のニューラルネットワー
クの出力から第2のニューラルネットワークの出力を減
じた値が、最終的な出力信号となり、これが制御対象を
制御するためのコントローラに対する指令値や、制御対
象に送出される操作量に対応ずけられる。The second neural network calculates an output error of the first neural network near a preset input value. A value obtained by subtracting the output of the second neural network from the output of the first neural network becomes a final output signal, which is a command value for a controller for controlling the controlled object and an operation amount transmitted to the controlled object. Can be handled.
【0015】これにより、第2のニューラルネットワー
クで、制御系を安定する上で最も重要な、入力に対する
誤差を算出させれば、この入力値近傍に対応した正確な
出力値を、ニューラルネットワークは、高精度に算出で
き、制御系の制御性能が向上する。Thus, if the second neural network calculates the error with respect to the input, which is the most important for stabilizing the control system, the neural network can calculate an accurate output value corresponding to the vicinity of the input value. Calculation can be performed with high accuracy, and the control performance of the control system is improved.
【0016】[0016]
【実施例】以下、本発明の実施例を図面を参照して説明
する。Embodiments of the present invention will be described below with reference to the drawings.
【0017】図1に、本発明にかかるニューラルネット
制御装置の構成例を示す。FIG. 1 shows a configuration example of a neural network control device according to the present invention.
【0018】ニューラルネット制御装置100は、制御
対象104に与える望ましい指令値を算出し、コントロ
ーラ103に、当該指令値を出力する装置である。The neural network control device 100 is a device that calculates a desired command value to be given to the control target 104 and outputs the command value to the controller 103.
【0019】ニューラルネット制御装置100は、ニュ
ーラルネット演算手段101、目標値格納部107、指
令値算出手段102を有して構成され、さらに、入力手
段108を備えた構成になっている。The neural network control device 100 comprises a neural network operation means 101, a target value storage unit 107, and a command value calculation means 102, and further comprises an input means 108.
【0020】ニューラルネット演算手段101、目標値
格納部107、指令値算出手段102は、例えばCP
U、ROM(所定の処理を行うプログラムが、予め内蔵
されている)、RAM、各種CMOS等の電子デバイス
によって実現される。入力手段108は、例えば、キー
ボード、マウス等によって実現できる。The neural network operation means 101, the target value storage unit 107, and the command value calculation means 102 are, for example, CP
It is realized by electronic devices such as U, ROM (a program for performing a predetermined process is pre-installed), RAM, and various CMOSs. The input unit 108 can be realized by, for example, a keyboard, a mouse, and the like.
【0021】なお、特に図示しないが、前記指令値等の
各種情報を表示する表示手段を備えた構成も考えられ
る。この場合、表示手段は、例えば、CRT、ELディ
スプレイ、液晶ディスプレイ等によって実現される。Although not particularly shown, a configuration having a display means for displaying various information such as the command value may be considered. In this case, the display means is realized by, for example, a CRT, an EL display, a liquid crystal display, or the like.
【0022】また、ニューラルネット演算手段101
は、2つのニューラルネットワークを備えており、指令
値算出手段102には、モデル105を備えている。Further, the neural network operation means 101
Has two neural networks, and the command value calculation means 102 has a model 105.
【0023】モデル105は、制御対象を、不確定なパ
ラメータを含む数式で表現したものであり、この数式を
使用して、制御目標値に対する操作量を決定することが
可能である。The model 105 expresses the control target by a mathematical expression including an uncertain parameter, and it is possible to determine the operation amount with respect to the control target value using the mathematical expression.
【0024】コントローラ103は、ニューラルネット
制御装置100により与えられた指令値に基ずいて制御
対象104に備えられた、アクチュエータ106に、指
令値を出力する。The controller 103 outputs a command value to an actuator 106 provided in the control target 104 based on the command value given by the neural network control device 100.
【0025】コントローラ103は、例えばCPU、R
OM(所定の処理を行うプログラムが、予め内蔵されて
いる)、RAM、各種CMOS等の電子デバイスによっ
て実現される。The controller 103 includes, for example, a CPU, an R
It is realized by an electronic device such as an OM (a program for performing a predetermined process is stored in advance), a RAM, and various CMOSs.
【0026】制御対象104には、制御量を検出する第
1のセンサ109および制御量以外の制御対象104の
状態を検出する第2のセンサ110が備えられており、
これらのセンサにより検出された信号は、ニューラルネ
ット制御装置100に送出される。The control target 104 is provided with a first sensor 109 for detecting a control amount and a second sensor 110 for detecting a state of the control target 104 other than the control amount.
The signals detected by these sensors are sent to the neural network control device 100.
【0027】なお、制御対象、第1、第2のセンサ、ア
クチュエータの具体例は、後に具体的な実施例に即して
説明する。Specific examples of the control target, the first and second sensors, and the actuator will be described later with reference to specific examples.
【0028】ニューラルネット学習装置111は、光フ
ァイバ等をデータ伝送手段として使用したLAN112
によって、ニューラルネット制御装置100に接続され
ている。The neural network learning device 111 is a LAN 112 using an optical fiber or the like as data transmission means.
Is connected to the neural network control device 100.
【0029】ニューラルネット学習装置111は、例え
ばCPU、ROM(所定の処理を行うプログラムが、予
め内蔵されている)、RAM、各種CMOS等の電子デ
バイスによって実現される。これは、1チップ化してL
SI等により実現しても良い。The neural network learning device 111 is realized by an electronic device such as a CPU, a ROM (a program for performing a predetermined process is pre-installed), a RAM, and various CMOSs. This is made into one chip and L
It may be realized by SI or the like.
【0030】もちろん、ニューラルネット学習装置11
1は、ニューラルネット制御装置100内に備えた構成
にしても良い。Of course, the neural network learning device 11
1 may be configured to be provided in the neural network control device 100.
【0031】ニューラルネット学習装置111は、ニュ
ーラルネット制御装置に備えられているニューラルネッ
ト演算手段101の演算内容を決定し、その内容をLA
N112を介して、ニューラルネット演算手段101に
送出する。The neural network learning device 111 determines the computation content of the neural network computing means 101 provided in the neural network control device and converts the content to LA.
The data is sent to the neural network operation means 101 via N112.
【0032】さて、まず、ニューラルネット制御装置1
00の処理の流れを説明する。First, the neural network control device 1
The flow of the process of 00 will be described.
【0033】前述のように、ニューラルネット制御装置
100は、指令値算出手段102、目標値格納部10
6、ニューラルネットにより演算を行なうニューラルネ
ット演算手段101を有して構成される。目標値格納部
106には、制御対象104の目標とする制御量である
値が格納されており、その値は、例えば、入力手段10
8を介して設定、変更すればよい。As described above, the neural network control device 100 includes the command value calculation means 102 and the target value storage 10
6. It has a neural network operation means 101 for performing an operation by a neural network. The target value storage unit 106 stores a value that is a target control amount of the control target 104, and the value is stored in, for example, the input unit 10.
8 may be set and changed.
【0034】指令値算出手段102は、制御対象104
を、数式を使用してモデル化したモデル105にもとづ
いて、制御対象104の出力が、制御目標値と一致する
ように、コントローラ103へ出力する指令値を算出す
る。The command value calculation means 102 controls the control object 104.
Is calculated based on a model 105 that is modeled using a mathematical expression, so that the output of the control target 104 matches the control target value.
【0035】ニューラルネット演算手段101は、第1
の入力値である、第1のセンサ109により取り込んだ
制御量とモデル105を使用して算出された制御量との
差分を使用して、この差分を減少させるように、モデル
105の、不確定なパラメータを修正する。The neural network operation means 101 includes a first
The difference between the control amount acquired by the first sensor 109 and the control amount calculated using the model 105, which is the input value of Modify the parameters.
【0036】前記差分と前記パラメータの修正量の関係
に、制御対象の状態を表す他の値(例えば、温度等の物
理量)が影響を与えている場合には、図1に示すよう
に、影響を与えている値を第2の入力値として、第2の
センサ110により取り込み、ニューラルネット演算手
段101に入力する。この第2のセンサ110により取
り込まれた物理量は、第1および第2のニューラルネッ
トワークに、全く等しく入力されている。When another value (for example, a physical quantity such as temperature) representing the state of the control object affects the relationship between the difference and the correction amount of the parameter, as shown in FIG. Is input by the second sensor 110 as a second input value, and is input to the neural network operation means 101. The physical quantity captured by the second sensor 110 is input to the first and second neural networks exactly the same.
【0037】指令値算出手段102は、モデル105、
すなわち、数式の不確定パラメータが修正される度に、
修正されたモデル105にもとづいて、指令値を再計算
し、計算結果を新たな指令値としてコントローラ103
に出力する。The command value calculation means 102 includes a model 105,
That is, every time the uncertain parameter of the formula is corrected,
The command value is recalculated based on the corrected model 105, and the calculation result is used as a new command value in the controller 103.
Output to
【0038】次に、各部の詳細な構成および処理につい
て説明する。Next, a detailed configuration and processing of each section will be described.
【0039】制御対象104として、本実施例では、熱
間圧延における加熱炉プラントを採用するものとする。In this embodiment, a heating furnace plant for hot rolling is employed as the control object 104.
【0040】図2に、加熱炉の構成例を示す。加熱炉2
00では、加熱される材料であるスラブ204が、加熱
炉入り口より挿入され、加熱炉出側に移動する間に、ガ
スバーナ201により加熱される。図1の構成との対応
において、アクチュエータ106は、ガスバーナ201
に対応し、第1のセンサ109は、スラブ204の出口
での表面温度を測定する温度計203に対応する。ま
た、第2のセンサ110は、スラブ204の挿入温度を
測定する温度計205、加熱炉200の炉内温度を測定
する温度計202に対応している。FIG. 2 shows a configuration example of the heating furnace. Heating furnace 2
At 00, the slab 204, which is the material to be heated, is inserted from the inlet of the heating furnace and heated by the gas burner 201 while moving to the exit side of the heating furnace. In the correspondence with the configuration of FIG.
And the first sensor 109 corresponds to the thermometer 203 that measures the surface temperature at the outlet of the slab 204. Further, the second sensor 110 corresponds to a thermometer 205 for measuring the insertion temperature of the slab 204 and a thermometer 202 for measuring the temperature inside the heating furnace 200.
【0041】加熱炉プラントでは、スラブ204の出口
での表面温度を、ガスバーナ201の適切な操作によ
り、目標温度にすることが制御目標となる。In the heating furnace plant, the control target is to bring the surface temperature at the outlet of the slab 204 to the target temperature by appropriately operating the gas burner 201.
【0042】指令値算出手段102が備えるモデル10
5には、スラブ204に与えられる輻射伝熱量がモデル
化されている。輻射伝熱量に対応したモデルは、ステフ
ァンボルツマンの熱伝導方程式が代表的である。次式
(1)に、一般的なステファンボルツマンの熱伝導方程
式を示す。Model 10 provided in command value calculation means 102
In FIG. 5, the amount of radiation heat transferred to the slab 204 is modeled. A typical model corresponding to the amount of radiation heat transfer is the Stefan-Boltzmann heat conduction equation. The following equation (1) shows a general Stefan-Boltzmann heat conduction equation.
【0043】[0043]
【数1】 (Equation 1)
【0044】ここで、Qは、炉からスラブへの伝熱量、
Tは、炉内温度であり、温度計202により検出され
る。θは、スラブ204の温度φcgは、総括熱吸収係
数と呼ばれる伝熱係数である。総括熱吸収係数の値は、
厳密に算出するのは一般に非常に困難であり、本実施例
では、ニューラルネット演算手段101により、この総
括熱吸収係数を、加熱炉200の総括熱吸収係数と一致
するようにチューニングするのが目的である。Here, Q is the amount of heat transferred from the furnace to the slab,
T is the furnace temperature, which is detected by the thermometer 202. θ is the temperature φcg of the slab 204 and the heat transfer coefficient called the overall heat absorption coefficient. The value of the overall heat absorption coefficient is
In general, it is very difficult to calculate exactly. In this embodiment, the purpose is to tune the overall heat absorption coefficient by the neural network operation means 101 so as to match the overall heat absorption coefficient of the heating furnace 200. It is.
【0045】指令値算出手段102は、このモデル10
5にもとづいて、スラブ204の加熱炉出口での温度
が、目標温度を満足するような炉温指令値を算出し、計
算結果をコントローラ103に出力する。コントローラ
103は、炉温と指令値が一致するようにガスバーナ2
01の燃料流量を制御する。The command value calculation means 102 calculates the model 10
5, a furnace temperature command value such that the temperature of the slab 204 at the heating furnace outlet satisfies the target temperature is calculated, and the calculation result is output to the controller 103. The controller 103 controls the gas burner 2 so that the furnace temperature matches the command value.
01 is controlled.
【0046】図3に、ニューラルネット演算手段101
の構成例を示す。FIG. 3 shows a neural network operation means 101.
An example of the configuration will be described.
【0047】ニューラルネット演算手段101は、第1
のニューラルネットワーク301と第2のニューラルネ
ットワーク302を有して構成される。The neural network operation means 101 comprises:
, And a second neural network 302.
【0048】第1のニューラルネットワーク301で
は、総括熱吸収係数の修正量が、第2のニューラルネッ
トワーク302では、第1のニューラルネットワーク3
01によって計算された修正量の誤差分が計算される。In the first neural network 301, the correction amount of the overall heat absorption coefficient is changed, and in the second neural network 302, the first neural network 3
The error amount of the correction amount calculated by 01 is calculated.
【0049】第1のニューラルネットワーク301に
は、第1の入力値として、温度計203から実際に取り
込んだ制御量と、モデル105を使用して算出された制
御量との差分が入力される。また、第2の入力値とし
て、温度計202と205によって、それぞれ取り込ん
だ、炉内温度とスラブ202の挿入温度、さらにモデル
105で現在設定されている総括熱吸収係数の値が入力
される。The first neural network 301 receives, as a first input value, a difference between a control amount actually taken in from the thermometer 203 and a control amount calculated using the model 105. Further, as the second input values, the temperature inside the furnace and the insertion temperature of the slab 202, which are respectively taken by the thermometers 202 and 205, and the value of the overall heat absorption coefficient currently set in the model 105 are input.
【0050】そして、差分を減少させるために、総括熱
吸収係数の修正量を算出し、モデル105に出力する。
モデル105では、入力された修正量にもとづいて、数
式を構成する不確定パラメータである総括熱吸収係数を
変更する。Then, in order to reduce the difference, the correction amount of the overall heat absorption coefficient is calculated and output to the model 105.
In the model 105, the overall heat absorption coefficient, which is an uncertain parameter constituting the equation, is changed based on the input correction amount.
【0051】第2のニューラルネットワーク302は、
第1のニューラルネットワーク301と同一の構成とな
っており、温度計203から検出された制御量と、モデ
ル105を使用して算出された制御量の差分である、修
正量が「0」のときの第1のニューラルネットワークの
出力誤差が算出される。したがって、温度計203から
検出された制御量と、モデル105を使用して算出され
た制御量との差分に対応する入力に、「0」が入力さ
れ、他の入力に関しては、第1のニューラルネットワー
ク301と同一の値である第2の入力値が入力されるよ
うにしておく。The second neural network 302
It has the same configuration as the first neural network 301, and when the correction amount is “0”, which is the difference between the control amount detected from the thermometer 203 and the control amount calculated using the model 105. The output error of the first neural network is calculated. Therefore, “0” is input to the input corresponding to the difference between the control amount detected from the thermometer 203 and the control amount calculated using the model 105, and the other input is the first neural network. A second input value that is the same value as that of the network 301 is input.
【0052】第1のニューラルネットワーク301の出
力から、第2のニューラルネットワーク302の出力と
の差分をとったものが、ニューラルネット演算手段10
1の出力となり、この値にしたがって、モデル105の
総括熱吸収係数が修正されることになる。The difference between the output of the first neural network 301 and the output of the second neural network 302 is obtained by the neural network operation means 10.
The output is 1, and the overall heat absorption coefficient of the model 105 is corrected according to this value.
【0053】このように、第1、第2のニューラルネッ
トワークが同一構成のため、第1のニューラルネットワ
ーク301の入力信号である「制御量−モデルによる制
御量」に対応して、特定の値「0」を第2のニューラル
ネットワーク302に入力したとき、このときのニュー
ラルネットワーク302の出力が、第1のニューラルネ
ットワーク301の誤差量となることを利用して、誤差
を減少させる。As described above, since the first and second neural networks have the same configuration, a specific value “corresponding to the“ control amount-control amount by model ”which is an input signal of the first neural network 301 is used. When "0" is input to the second neural network 302, the error is reduced by utilizing the fact that the output of the neural network 302 at this time becomes the error amount of the first neural network 301.
【0054】次に、図4に、ニューラルネット演算手段
101が行なう、処理のフローチャートを示す。Next, FIG. 4 shows a flowchart of a process performed by the neural network operation means 101.
【0055】まず、s4−1で、温度計203で検出さ
れた制御量(以下、「y」とする)とモデル105を使
用して算出した制御量(以下、「yd」とする)の差分
および、制御量以外のパラメータ群である(第2の入力
値に相当する)、炉内温度、挿入温度、総括熱吸収係数
等を第1のニューラルネットワーク301に入力し、そ
の演算結果を修正量1とする。First, in s4-1, the difference between the control amount (hereinafter, referred to as “y”) detected by the thermometer 203 and the control amount (hereinafter, referred to as “yd”) calculated using the model 105. Further, a parameter group other than the control amount (corresponding to the second input value), such as the furnace temperature, the insertion temperature, the overall heat absorption coefficient, and the like are input to the first neural network 301, and the calculation result is corrected. Let it be 1.
【0056】次に、s4−2で、「y−yd」に対応し
た入力に、「0」を入力し、第2のニューラルネットワ
ーク302に、演算を実行させる。このときの演算結果
を、誤差量とする。Next, in s4-2, "0" is input to the input corresponding to "y-yd", and the second neural network 302 executes an operation. The calculation result at this time is defined as an error amount.
【0057】次に、s4−3では、s4−1で得られた
修正量1から、s4−2で得られた誤差量を引いたもの
を、修正量2とする。そして、s4−4で修正量2を出
力して、処理が終了となる。Next, in s4-3, the correction amount 2 is obtained by subtracting the error amount obtained in s4-2 from the correction amount 1 obtained in s4-1. Then, the correction amount 2 is output in s4-4, and the process ends.
【0058】次に、ニューラルネットワーク301(本
実施例では、第1のニューラルネットワークと第2のニ
ューラルネットワークは同一構成のため、第1のニュー
ラルネットワークの説明のみ行う)について詳細な説明
を行なう。Next, a detailed description will be given of the neural network 301 (in the present embodiment, the first neural network and the second neural network have the same configuration, so only the first neural network will be described).
【0059】図5に、第1のニューラルネットワーク3
01の構成例を示す。FIG. 5 shows the first neural network 3
01 shows a configuration example.
【0060】本ニューラルネットワークは、入力層、中
間層、出力層を有して構成される。This neural network has an input layer, an intermediate layer, and an output layer.
【0061】第1のニューラルネットワーク301は、
ニューロン501が、シナプス502により層状に連結
されて構成される。図5に示す例では、入力層503、
中間層504、出力層505からなる3層構造のネット
ワークを示しているが、中間層504を複数備えた4層
以上のネットワークを構築してもよいことは言うまでも
ない。The first neural network 301 is
A neuron 501 is configured by being connected in layers by a synapse 502. In the example shown in FIG. 5, the input layer 503,
Although a three-layer network including the intermediate layer 504 and the output layer 505 is shown, it goes without saying that a network having four or more layers including a plurality of intermediate layers 504 may be constructed.
【0062】入力層503に入力された入力をIi、中間
層504の出力をMjとすれば、IiとMjの関係は、例え
ば、次式で与えられる。Assuming that the input input to the input layer 503 is Ii and the output of the intermediate layer 504 is Mj, the relationship between Ii and Mj is given by the following equation, for example.
【0063】[0063]
【数2】 (Equation 2)
【0064】[0064]
【数3】 (Equation 3)
【0065】[0065]
【数4】 (Equation 4)
【0066】Wij(jは、中間層ニューロンの番号)は、
i番目の入力ニューロンとj番目の中間層ニューロンを
結ぶシナプス502に与えられている重み、θjは、ニ
ューロンjに対応した定数、f(uj)は、一般に微分可能な
単調飽和関数が使用されるが、通常(2)式のような、
シグモイド関数が使用される。さらに、このように得ら
れたMjを使用すると、出力層505におけるk番目のニ
ューロンの出力Okは、Wij (j is the number of the hidden neuron) is
The weight given to the synapse 502 connecting the i-th input neuron and the j-th hidden neuron, θj is a constant corresponding to the neuron j, and f (uj) is generally a differentiable monotone saturation function. But usually, as in equation (2),
A sigmoid function is used. Further, using Mj thus obtained, the output Ok of the k-th neuron in the output layer 505 becomes
【0067】[0067]
【数5】 (Equation 5)
【0068】[0068]
【数6】 (Equation 6)
【0069】[0069]
【数7】 (Equation 7)
【0070】となる。Vjkは、j番目の中間層ニューロ
ンと、k番目の出力層ニューロンを結ぶ重み、θkは、出
力層ニューロンに対応した定数である。Is obtained. Vjk is the weight connecting the j-th intermediate layer neuron and the k-th output layer neuron, and θk is a constant corresponding to the output layer neuron.
【0071】以上のようにして、ニューラルネット演算
手段103では、入力Iiに対応した出力Okを決定する演
算が行なわれる。As described above, the neural network computing means 103 performs the computation for determining the output Ok corresponding to the input Ii.
【0072】ニューラルネット演算手段101では、第
2のニューラルネットワーク302を第1のニューラル
ネットワーク301と同一構造としていたが、温度計2
03より検出した制御量とモデル105を使用して算出
した制御量との差分に対応する入力層503でのニュー
ロンと、これに繋がるシナプスを欠落させた構成でもよ
い。In the neural network operation means 101, the second neural network 302 has the same structure as the first neural network 301.
A configuration in which the neuron in the input layer 503 corresponding to the difference between the control amount detected from the control unit 03 and the control amount calculated using the model 105 and the synapse connected thereto may be omitted.
【0073】図6に、ニューラルネット学習装置111
の構成例を示す。FIG. 6 shows a neural network learning device 111.
An example of the configuration will be described.
【0074】ニューラルネット学習装置111には、第
1のニューラルネットワーク301と同一の構造を有す
るニューラルネットワーク603に加えて、記憶手段6
01、学習手段602、入力手段604、出力手段60
5が備えられた構成になっている。これらは、バス60
6を介して結合され、必要な信号の授受を行なう。The neural network learning device 111 has a storage unit 6 in addition to the neural network 603 having the same structure as the first neural network 301.
01, learning means 602, input means 604, output means 60
5 is provided. These are buses 60
6 for transmitting and receiving necessary signals.
【0075】記憶手段601は、例えば、RAM、記憶
媒体であるディスクを装着したディスクドライブ装置に
よって実現され、学習手段602は、例えばCPU、R
OM(所定の処理を行うプログラムが、予め内蔵されて
いる)、RAM、各種CMOS等の電子デバイスによっ
て実現される。また、入力手段604は、例えば、キー
ボード、マウス等により、出力手段605は、例えば、
CRT、ELディスプレイ、液晶ディスプレイ等によっ
て実現される。The storage means 601 is realized by, for example, a RAM, a disk drive device having a disk as a storage medium mounted thereon, and the learning means 602 is realized by, for example,
It is realized by an electronic device such as an OM (a program for performing a predetermined process is stored in advance), a RAM, and various CMOSs. The input unit 604 is, for example, a keyboard, a mouse, or the like. The output unit 605 is, for example, a keyboard, a mouse, or the like.
This is realized by a CRT, an EL display, a liquid crystal display, or the like.
【0076】記憶手段601には、ニューラルネットワ
ーク603に学習させたい入力信号と出力信号が(以
下、「入出力ペア」と称する)が少なくとも1個以上格
納されている。The storage means 601 stores at least one input signal and at least one output signal (hereinafter referred to as an “input / output pair”) that the neural network 603 wants to learn.
【0077】学習手段602は、記憶手段601から入
出力ペアを一つづつ、バス606を介して取り込み、こ
れらのうち入力信号を、同様にバス606を介して、ニ
ューラルネットワーク603に与える。ニューラルネッ
トワーク603は、与えられた入力信号に基ずいて、演
算を行ない、演算結果を、学習手段602に送出する。The learning means 602 fetches one input / output pair from the storage means 601 one by one via the bus 606, and supplies an input signal among them to the neural network 603 via the bus 606. The neural network 603 performs an operation based on the given input signal, and sends out the operation result to the learning means 602.
【0078】学習手段602は、送られてきた出力と入
出力ペアの出力信号との誤差を検出し、検出された誤差
に従って、ニューラルネットワーク603の重みWij、V
jkを誤差が減少するように修正する。The learning means 602 detects an error between the transmitted output and the output signal of the input / output pair, and, according to the detected error, weights Wij, Vij of the neural network 603.
Modify jk to reduce the error.
【0079】Wj,Vjの修正方法は、種々の方法が提案さ
れている。Various methods have been proposed for correcting Wj and Vj.
【0080】代表的手法として最急降下法を用いた誤差
逆伝搬学習法がある。この学習方法は、入出力ペアの出
力信号と、それに対応したニューラルネットワーク60
3の出力との誤差量の総和を与えるエネルギー関数をも
とに、最適解探索法の一つである最急降下法により、こ
の関数を減少させる方向に、重みWj,Vjを修正する方法
である。As a representative method, there is an error back propagation learning method using the steepest descent method. This learning method is based on an output signal of an input / output pair and a neural network 60 corresponding to the output signal.
In this method, the weights Wj and Vj are corrected in the direction of decreasing the function by the steepest descent method, which is one of the optimal solution search methods, based on the energy function that gives the sum of the error amount with the output of No. 3. .
【0081】次式に、このエネルギー関数を示す。The energy function is shown in the following equation.
【0082】[0082]
【数8】 (Equation 8)
【0083】Tkは、出力Okに対応した、入出力ペアの
出力信号である。最急降下法による重みWj,Vjの修正手
順の一例を、(9)、(10)式に示す。Wj(n),Vj(n)
は、n回目の修正による重みを表す。Tk is an output signal of an input / output pair corresponding to the output Ok. An example of a procedure for correcting the weights Wj and Vj by the steepest descent method is shown in equations (9) and (10). Wj (n), Vj (n)
Represents the weight of the n-th correction.
【0084】[0084]
【数9】 (Equation 9)
【0085】[0085]
【数10】 (Equation 10)
【0086】上式の処理を全ての重みについて行うこと
により、(n+1)回目の修正が終了する。By performing the processing of the above equation for all weights, the (n + 1) th correction is completed.
【0087】この手法の詳細は、例えば、雑誌(David
E. Rumelhart. geoffrey e. Hinton& ronald J. willia
ms. "Learning representations by back-propagating
error." Nature. Vol.323. No.9. 第533項〜第536項.
10月. 1986年)に記載されている。The details of this method are described in, for example, a magazine (David
E. Rumelhart. Geoffrey e. Hinton & ronald J. willia
ms. "Learning representations by back-propagating
error. "Nature. Vol.323. No.9. Paragraphs 533-536.
Oct. 1986).
【0088】さて、学習手段602は、記憶手段601
に蓄えられている入出力ペアを次々と取り込み、上記の
操作を繰り返す処理を行う。最終的に、ニューラルネッ
トワーク603には、記憶手段601の、入力と出力と
の関係が蓄えられることになる。Now, the learning means 602 includes the storage means 601
The input / output pairs stored in the memory are successively taken in, and the above operation is repeated. Finally, the relationship between the input and the output of the storage means 601 is stored in the neural network 603.
【0089】入力手段604は、ユーザが記憶手段60
1に、入出力ペアを入力したり、学習手段602の学習
パラメータを変更するための手段である。出力手段60
5は、入出力ペアのモニタとして、または、ニューラル
ネットワーク301の構造を表示したり、学習の進み具
合(例えば、その時点におけるモデルのパラメータを表
示出力する等)を把握するための手段である。The input means 604 allows the user to
1 is a unit for inputting an input / output pair and changing a learning parameter of the learning unit 602. Output means 60
Reference numeral 5 denotes a unit for monitoring an input / output pair, displaying the structure of the neural network 301, and grasping the progress of learning (for example, displaying and outputting model parameters at that time).
【0090】以上の処理により、学習の終了したニュー
ラルネットワーク603の重みWij、Vjkは、ニューラル
ネット演算手段101に送信され、第1のニューラルネ
ットワーク301および第2のニューラルネットワーク
302は、送信された「重み」に基ずいて、演算を行な
う。With the above processing, the weights Wij and Vjk of the trained neural network 603 are transmitted to the neural network calculating means 101, and the first neural network 301 and the second neural network 302 transmit The calculation is performed based on the “weight”.
【0091】次に、記憶手段601の入出力ペアの値の
設定方法の一例を、図7に示す。Next, an example of a method of setting the value of the input / output pair of the storage means 601 is shown in FIG.
【0092】まず、s7−1で、モデル105に、チュ
ーニングの対象である総括熱吸収係数の値(以下、φc
gとする)を設定する。First, in s7-1, the value of the overall heat absorption coefficient (hereinafter, φc
g).
【0093】次に、s7−2で、φcgが設定されたモ
デル105から制御量(抽出温度)t0を計算する。Next, in s7-2, a control amount (extraction temperature) t0 is calculated from the model 105 in which φcg is set.
【0094】s7−3では、s7−1で設定したパラメ
ータφcgに、パラメータ誤差Δφcgを加える。At s7-3, a parameter error Δφcg is added to the parameter φcg set at s7-1.
【0095】s7−4でパラメータ誤差Δφcgを加え
られた、新たなパラメータφcgを使用して制御量t1
を計算する。The control amount t1 is calculated using the new parameter φcg to which the parameter error Δφcg has been added in s7-4.
Is calculated.
【0096】s7−5では、s7−2で算出した制御量
t0と、s7−4で算出した制御量t1との差をとり、
s7−3で算出した「t1−t0」とパラメータ誤差Δ
φcgを入出力ペアとして、記憶手段に記憶する。s7
−6で、パラメータφcgが、パラメータの上限φcg
maxを越えたか否かを判定する。In s7-5, the difference between the control amount t0 calculated in s7-2 and the control amount t1 calculated in s7-4 is calculated.
“t1-t0” calculated in s7-3 and parameter error Δ
φcg is stored in the storage means as an input / output pair. s7
At −6, the parameter φcg becomes the upper limit φcg of the parameter.
It is determined whether or not max has been exceeded.
【0097】越えていれば終了し、そうでなければs7
−3に処理を移す。以上の操作で、記憶手段601に入
出力ペアが作成、記憶される。If it exceeds, the process ends, otherwise, s7
The processing is shifted to -3. With the above operation, the input / output pair is created and stored in the storage unit 601.
【0098】上述の説明では、ニューラルネット演算手
段101と、ニューラルネット学習装置111は、別の
装置として構成したが、一つの装置としてもよい。すな
わち、例えば、ニューラルネット演算手段101にニュ
ーラルネット学習装置111を内蔵した構成でも良い。In the above description, the neural network operation means 101 and the neural network learning device 111 are configured as separate devices, but may be configured as one device. That is, for example, a configuration in which the neural network learning device 111 is incorporated in the neural network operation means 101 may be employed.
【0099】図8に、ニューラルネット演算手段101
において、第2のニューラルネットワーク302の出力
を遮断するためのスイッチ801を設けたの構成例を示
す。FIG. 8 shows a neural network operation means 101.
5 shows a configuration example in which a switch 801 for cutting off the output of the second neural network 302 is provided.
【0100】本実施例では、スイッチ801を、第2の
ニューラルネットワーク302の出力側に設け、スイッ
チ801が切られているときは、第2のニューラルネッ
トワーク302の出力は無効となり、第1のニューラル
ネットワーク301の出力が、そのまま修正量としてニ
ューラルネット演算手段101から出力されることにな
る。In this embodiment, the switch 801 is provided on the output side of the second neural network 302. When the switch 801 is turned off, the output of the second neural network 302 becomes invalid and the first neural network 302 becomes invalid. The output of the network 301 is output as it is from the neural network operation means 101 as a correction amount.
【0101】なお、スイッチ801は、例えば、アナロ
グスイッチ(所定以上の電圧が入力されたときオン状態
になる手段である)等の電子デバイスによって実現し、
スイッチ801の開閉は、入力手段108を介してユー
ザが任意に設定したとき、その設定を受けて、前記アナ
ログスイッチに所定の信号を与える構成にしておけば良
い。The switch 801 is realized by an electronic device such as an analog switch (which is turned on when a predetermined voltage or more is input).
Opening and closing of the switch 801 may be configured such that, when the user arbitrarily sets the switch 801 through the input unit 108, a predetermined signal is supplied to the analog switch in response to the setting.
【0102】また、温度計203で検出した制御量が目
標値に近ずいたことを検知して、自動的にオンする構成
も考えられる。かかる自動的な制御は、例えばCPU、
ROM(所定のプログラムが予め内蔵されている)、R
AM等を有して構成される手段によって実現できる。Further, a configuration is also conceivable in which the control amount detected by the thermometer 203 approaches the target value and is automatically turned on. Such automatic control includes, for example, a CPU,
ROM (predetermined program is pre-installed), R
It can be realized by means configured to have AM and the like.
【0103】次に、図9に、スイッチ801を自動的に
開閉する処理のフローチャートを示す。Next, FIG. 9 shows a flowchart of processing for automatically opening and closing the switch 801.
【0104】まず、s9−1で、温度計203で検出さ
れた制御量(以下、「y」)とモデル105を使用して
算出される制御量(以下、「yd」)の差分および、制
御量以外のパラメータ群である、炉内温度、挿入温度、
総括熱吸収係数を、ニューラルネットワーク301に入
力し、演算結果を、修正量1として保存する。First, in s9-1, the difference between the control amount (hereinafter, “y”) detected by the thermometer 203 and the control amount (hereinafter, “yd”) calculated using the model 105, and the control Parameters other than the quantity, furnace temperature, insertion temperature,
The overall heat absorption coefficient is input to the neural network 301, and the calculation result is stored as the correction amount 1.
【0105】s9−2では、スイッチ801を「オン」
するか否かの判定を行なう。In s9-2, the switch 801 is turned on.
It is determined whether or not to perform.
【0106】判定するための計算式の一例として、次式
が考えられる。The following equation can be considered as an example of a calculation equation for the determination.
【0107】[0107]
【数11】 [Equation 11]
【0108】ここで、Δythは、スイッチのオン、オ
フを判定するためのしきい値であり、「y−yd」が上
式を満たしたときに、スイッチがオンとなるように構成
しておけば良い。Here, Δyth is a threshold value for determining whether the switch is on or off, and the switch should be turned on when “y−yd” satisfies the above equation. Good.
【0109】上記判定式に従うと、第2のニューラルネ
ッワーク302で算出される誤差の精度が良くない、零
近傍(入力値が「0」の近傍である場合)から離れた入
力値では、第1のニューラルネットワーク301の出力
が直接制御量となり、第2のニューラルネットワーク3
02が、高精度に誤差を算出できる零近傍入力値で、第
2のニューラルネットワーク302の出力が減算される
ことになる。According to the above-mentioned determination formula, when the accuracy of the error calculated by the second neural network 302 is not good, when the input value is far from near zero (when the input value is near “0”), the first The output of the neural network 301 is directly a control amount, and the second neural network 3
02 is a near-zero input value from which an error can be calculated with high accuracy, and the output of the second neural network 302 is subtracted.
【0110】次に、s9−2で、オフすべき判定の場合
は、s9−5に処理を移し、修正量1を修正量2とし
て、モデル105に出力する。オンすべき判定の場合
は、s9−3に処理が移り、「y−yd」に対応する入
力に、「0」を入力し、第2のニューラルネットワーク
302に演算させる。Next, if it is determined in s9-2 that the power should be turned off, the process proceeds to s9-5, and the correction amount 1 is output to the model 105 as the correction amount 2. If it is determined that the power should be turned on, the process proceeds to s9-3, where "0" is input to the input corresponding to "y-yd", and the second neural network 302 performs an operation.
【0111】s9−4では、s9−1で保存されている
修正量1から、s9−3で得られた演算結果である誤差
量を引いたものを、修正量2とする。そして、s9−5
で修正量2を出力して、処理は終了となる。In s9-4, the correction amount 2 is obtained by subtracting the error amount that is the calculation result obtained in s9-3 from the correction amount 1 stored in s9-1. And s9-5
To output the correction amount 2, and the process ends.
【0112】次に、ニューラルネット演算手段101の
出力が、入出力ペアで与えた出力信号の出力範囲を越え
ないように制限する、リミッタを備えた実施例を示す。Next, an embodiment having a limiter for limiting the output of the neural network operation means 101 so as not to exceed the output range of the output signal given by the input / output pair will be described.
【0113】図10に、このときのニューラルネット演
算手段101の構成例を示す。FIG. 10 shows a configuration example of the neural network operation means 101 at this time.
【0114】リミッタ1001は、第1のニューラルネ
ットワークと第2のニューラルネットワークによる演算
結果が入力される。リミッタ1001の処理は、例え
ば、上述した演算結果が入出力ペアのうち出力信号の最
大値または最小値を越えたときに、ニューラルネット演
算手段101の出力を前記出力信号の最大値または最小
値とし、越えていなければ演算結果をそのままニューラ
ルネット演算手段101の出力とするものである。[0114] The limiter 1001 receives the results of calculations by the first neural network and the second neural network. The processing of the limiter 1001 is, for example, when the above-mentioned operation result exceeds the maximum value or the minimum value of the output signal of the input / output pair, the output of the neural network operation means 101 is set to the maximum value or the minimum value of the output signal. If not, the calculation result is output directly from the neural network calculation means 101.
【0115】次式に、このときのリミッタ1001の出
力を決定する式の例を示す。The following equation shows an example of an equation for determining the output of the limiter 1001 at this time.
【0116】なお、かかるリミッタ1001は、オペレ
ーションアンプ、抵抗等の電子デバイスを使用して、全
てハードウエアで実現するものや、ROM、CPU、R
AMを有した構成にし、ROMに記憶されたプログラム
により処理を実行するようにしてもよい。The limiter 1001 may be realized by hardware using electronic devices such as an operation amplifier and a resistor, or may be a ROM, a CPU, an R, or the like.
A configuration having an AM may be used, and the processing may be executed by a program stored in the ROM.
【0117】[0117]
【数12】 (Equation 12)
【0118】[0118]
【数13】 (Equation 13)
【0119】[0119]
【数14】 [Equation 14]
【0120】ここで、Oは、第1のニューラルネットワ
ークと第2のニューラルネットワークによる演算結果で
あり、Ymax、Yminは、それぞれ入出力ペアのう
ち出力信号の最大値、最小値である。上式に従えば、ニ
ューラルネット演算手段101の出力範囲を限定できる
ため、制御系の安定性が保証されることになる。Here, O is the operation result by the first neural network and the second neural network, and Ymax and Ymin are the maximum value and the minimum value of the output signal of the input / output pair, respectively. According to the above equation, the output range of the neural network operation means 101 can be limited, so that the stability of the control system is guaranteed.
【0121】次に、図11に、本実施例のニューラルネ
ット制御装置100による、モデルのパラメータのチュ
ーニングシミュレーション結果を示す。Next, FIG. 11 shows a simulation result of tuning of model parameters by the neural network control device 100 of the present embodiment.
【0122】本シミュレーションでは、実炉の有する総
括熱吸収係数φcgの値を、「0.5」とし、モデル10
5に設定されている、総括熱吸収係数φcgを「0.65」
に設定した。In this simulation, the value of the overall heat absorption coefficient φcg of the actual furnace was set to “0.5” and the model 10
The overall heat absorption coefficient φcg set to 5 is “0.65”
Set to.
【0123】本図は、本発明にかかるニューラルネット
演算手段101が、モデル105のφcgを、実炉のφ
cgに、チューニングしていく様子を示している。This figure shows that the neural network operating means 101 according to the present invention replaces φcg of the model 105 with φ of the actual furnace.
The state of tuning is shown in cg.
【0124】比較の対象として、ニューラルネット演算
手段101が第1のニューラルネットワーク301のみ
で構成された、ニューラルネット制御装置を従来手段と
して採用した。As a comparison object, a neural network control device in which the neural network operation means 101 is composed of only the first neural network 301 is employed as conventional means.
【0125】δθoutは、スラブ204の測定温度と目
標温度との抽出温度誤差であり、目標温度達成時に0と
なる。Δθout is an extraction temperature error between the measured temperature of the slab 204 and the target temperature, and becomes 0 when the target temperature is reached.
【0126】従来手段によるチューニング結果では、モ
デル105のφcgが、実炉のφcgからずれた値に収
束し、抽出温度誤差が残ったままの状態になっているの
に対して、本発明によれば、チューニング回数の増加に
伴い、実炉のφcgが再現されてゆき、最終的に、抽出
温度誤差がほぼ「0」となり、チューニングが成功して
いる。According to the result of tuning by the conventional means, φcg of the model 105 converges to a value deviating from φcg of the actual furnace, and the extraction temperature error remains, whereas the present invention provides For example, as the number of times of tuning increases, φcg of the actual furnace is reproduced, and finally the extraction temperature error becomes almost “0”, and tuning is successful.
【0127】なお、上記実施例では、ニューラルネット
演算手段の出力が1つであるが、出力値が複数となる
(例えば、修正量または操作量が複数必要な制御対象を
考慮した場合)構成にしてもよい。このことは、全ての
実施例において言える。In the above embodiment, the neural network operation means has one output, but the output value is plural (for example, when a control object requiring a plurality of correction amounts or operation amounts is considered). You may. This is true for all embodiments.
【0128】また、図1には2つニューラルネットワー
クを有した構成を示したが、第1のニューラルネットワ
ークのほかに、第2のニューラルネットワークを備え
ず、第1のニューラルネットワークにより、まず、所定
の値(第2のニューラルネットワークが出力する、特定
値に対応する出力値)を求めておき、この値をニューラ
ルネットワークの出力値から、減ずる構成でも良い。FIG. 1 shows a configuration having two neural networks. However, in addition to the first neural network, the second neural network is not provided. (An output value corresponding to a specific value output by the second neural network) may be obtained in advance, and this value may be subtracted from the output value of the neural network.
【0129】次に、図12に、本発明によるニューラル
ネット制御装置を、フィードバックコントローラとして
使用した実施例を示す。Next, FIG. 12 shows an embodiment in which the neural network control device according to the present invention is used as a feedback controller.
【0130】ニューラルネット制御装置1200は、ニ
ューラルネット演算手段101と目標値格納部106と
を有して構成される。[0130] The neural network control device 1200 includes the neural network operation means 101 and the target value storage section 106.
【0131】ニューラルネット演算手段101は、第1
のニューラルネットワーク301と第2のニューラルネ
ットワーク302を備えて構成される。[0131] The neural network operation means 101
, And a second neural network 302.
【0132】また、目標値格納部106には、制御量の
目標値が格納されており、例えば、RAM等によって実
現される。The target value storage unit 106 stores a target value of the control amount, and is realized by, for example, a RAM.
【0133】ニューラルネット制御装置1200は、第
1のセンサ1203より取り込んだ制御量から、目標値
を減じて得られる偏差を、第1の入力値として、第2の
センサ1204より取り込んだ制御量以外の制御対象1
201の状態量を、第2の入力値として、第1のニュー
ラルネットワーク301に与える。また、前記第2の入
力値と、前記第1の入力値に対して、与えた「0」を、
第2のニューラルネットワーク302に与える。The neural network control device 1200 uses the deviation obtained by subtracting the target value from the control amount taken from the first sensor 1203 as a first input value other than the control amount taken from the second sensor 1204. Control target 1
The state quantity 201 is given to the first neural network 301 as a second input value. Further, given “0” to the second input value and the first input value,
It is provided to the second neural network 302.
【0134】そして、ニューラルネット演算手段は、第
1と第2のニューラルネットワークの出力の差を、制御
量を目標値と一致させる操作量として、制御対象120
1が備えるアクチュエータ1202に出力する。Then, the neural network operation means determines the difference between the outputs of the first and second neural networks as an operation amount for making the control amount equal to the target value, and
1 is output to the actuator 1202 included in 1.
【0135】さて、ニューラルネット制御装置1200
を、浄水プラントの薬品注入制御に適用した応用例を採
用して、ニューラルネット制御装置1200の動作を詳
細に説明する。Now, the neural network control device 1200
The operation of the neural network control device 1200 will be described in detail by using an application example in which is applied to chemical injection control of a water purification plant.
【0136】図13に、制御対象1201に対応した、
浄水プラントの構成図を示す。FIG. 13 shows a diagram corresponding to the control target 1201.
The block diagram of the water purification plant is shown.
【0137】図12のアクチュエータ1202は、凝固
材を第1の層1304に挿入する凝固材注入器1301
に対応する。また、第1のセンサ1203は、凝固材濃
度および不純物濃度を検出するセンサ1303に対応
し、第2のセンサ1204は、浄水プラント1300の
温度を検出するセンサ1302に対応している。The actuator 1202 shown in FIG. 12 is a solidified material injector 1301 for inserting the solidified material into the first layer 1304.
Corresponding to The first sensor 1203 corresponds to the sensor 1303 for detecting the solidified material concentration and the impurity concentration, and the second sensor 1204 corresponds to the sensor 1302 for detecting the temperature of the water purification plant 1300.
【0138】源水を注入されたプラントは、第一の層1
304で凝固材を、凝固材注入器1301により注入
し、源水に含まれる不純物を凝固させる。[0138] The plant into which the source water was injected is the first layer 1
At 304, the solidified material is injected by the solidified material injector 1301 to solidify impurities contained in the source water.
【0139】第2の層1305、第3の層1306で沈
殿物を濾過し、水道水として精製する。The precipitate is filtered through the second layer 1305 and the third layer 1306, and purified as tap water.
【0140】第3の層1306で、センサ1302によ
り抽出された水の不純物濃度と凝固材濃度を検出する。In the third layer 1306, the concentration of impurities and the concentration of solidified material of water extracted by the sensor 1302 are detected.
【0141】また、プラントの温度を、センサ1302
により取り込む。浄水プラントでは、不純物濃度と凝固
材濃度が制御量となり、ニューラルネット制御装置12
00は、不純物濃度と凝固材濃度が「0」になるまで、
凝固材注入器1301に操作量を送る。The temperature of the plant is measured by a sensor 1302.
Capture by In the water purification plant, the concentration of impurities and the concentration of solidified material are controlled amounts, and the neural network controller 12
00 is the time until the impurity concentration and the solidification material concentration become “0”.
The operation amount is sent to the coagulating material injector 1301.
【0142】図14に、ニューラルネット制御装置13
00の処理の流れを示す。FIG. 14 shows the neural network controller 13.
00 shows the flow of processing.
【0143】本実施例では第2のニューラルネットワー
ク302で、制御量が目標値と一致したときの誤差を算
出する場合を説明する。In this embodiment, a case will be described in which the second neural network 302 calculates an error when the control amount matches the target value.
【0144】まず、s14−1では、第1のニューラル
ネットワーク301に、第1の入力値である、センサ1
303により取り込んだ不純物濃度および凝固材濃度と
目標値(本実施例では「0」)との偏差が入力される。
さらに、偏差とこれに対応した適切な操作量の関係に影
響を与える信号として、センサ1302により取り込ん
だプラントの温度を、第2の入力値として入力し、演算
結果を、操作量1として保存する。First, in s14-1, the first neural network 301 sends the first input value, the sensor 1
At 303, a deviation between the acquired impurity concentration and solidified material concentration and a target value (“0” in this embodiment) is input.
Further, the temperature of the plant taken by the sensor 1302 is input as a second input value as a signal affecting the relationship between the deviation and an appropriate operation amount corresponding to the deviation, and the calculation result is stored as the operation amount 1. .
【0145】次に、s14−2で、第2のニューラルネ
ットワーク302に、s14−1で入力した不純物濃度
および凝固材濃度と、目標値との偏差に対応した入力
に、「0」を入力し、同様の演算を行なう。Next, in s14-2, "0" is input to the second neural network 302 as an input corresponding to the deviation between the impurity concentration and the solidified material concentration input in s14-1 and the target value. Perform the same operation.
【0146】演算結果は、誤差量として保存する。The operation result is stored as an error amount.
【0147】s14−3で、s14−1で保存された操
作量1の値から、s14−2で算出された誤差量を引い
たものを、操作量2とする。そして、s14−4で、操
作量2の値をプラントに(具体的には、アクチュエータ
に対応する1301に)を出力する。In s14-3, the value obtained by subtracting the error amount calculated in s14-2 from the value of the operation amount 1 stored in s14-1 is set as the operation amount 2. Then, in s14-4, the value of the manipulated variable 2 is output to the plant (specifically, to 1301 corresponding to the actuator).
【0148】第1のニューラルネットワーク301の学
習に使用する記憶手段601の入出力ペアは、実際のプ
ラントで、入力信号と、これに対応して、例えば熟練運
転者の操作量にもとづいて作成すれば良い。また、浄水
プラント1300を対象としたモデルが作成されている
場合は、これを使用したシミュレーション、実験等によ
って、入出力ペアを作成することも可能である。An input / output pair of the storage means 601 used for learning of the first neural network 301 is created in an actual plant based on input signals and correspondingly, for example, operation amounts of a skilled driver. Good. When a model for the water purification plant 1300 is created, an input / output pair can be created by simulation, experiment, or the like using the model.
【0149】次に、ニューラルネットワーク101の出
力が、制御量のみで決定される実施例について説明す
る。Next, an embodiment in which the output of the neural network 101 is determined only by the control amount will be described.
【0150】図15に、本実施例の構成例を示す。FIG. 15 shows a configuration example of this embodiment.
【0151】ニューラルネット制御装置1500は、ニ
ューラルネットワーク301、オフセット記憶手段15
01、目標値格納部107を備えている。The neural network control device 1500 includes the neural network 301, the offset storage unit 15
01, a target value storage unit 107 is provided.
【0152】オフセット記憶手段1501、目標値格納
部107は、例えば、RAMによって実現される。The offset storage unit 1501 and the target value storage unit 107 are realized by, for example, a RAM.
【0153】まず、全体の処理について説明する。First, the overall processing will be described.
【0154】ニューラルネットワーク301は、センサ
1504より取り込んだ制御量から、目標値を減じた値
を取り入れて、この値を減少させるのに適当な操作量を
算出する。The neural network 301 fetches a value obtained by subtracting the target value from the control amount fetched from the sensor 1504, and calculates an operation amount appropriate for reducing this value.
【0155】算出された操作量から、オフセット記憶手
段1501に予め記憶されているオフセット値を差し引
いて、その値を制御対象1502が備えるアクチュエー
タ1503に、出力する。The offset value stored in the offset storage means 1501 is subtracted from the calculated operation amount, and the value is output to the actuator 1503 of the controlled object 1502.
【0156】オフセット記憶手段1501には、ニュー
ラルネットワーク301に、偏差として「0」が入力さ
れたときの出力値が予め記憶されている。In the offset storage means 1501, an output value when "0" is input as a deviation to the neural network 301 is stored in advance.
【0157】図16に、オフセット記憶手段1501の
構成方法を示す。FIG. 16 shows a configuration method of the offset storage means 1501.
【0158】まず、s16−1で、各制御量が目標値と
一致したときの値である「0」を、ニューラルネットワ
ーク301に入力する。First, in s16-1, "0" which is the value when each control amount matches the target value is input to the neural network 301.
【0159】次に、s16−2において、このときのニ
ューラルネットワーク301の出力を、オフセット記憶
手段1501に保存する。Next, in s16-2, the output of the neural network 301 at this time is stored in the offset storage means 1501.
【0160】以上の処理により、オフセット記憶手段1
501に記憶されるオフセット値のデータがが作成、記
憶される。With the above processing, the offset storage means 1
The data of the offset value stored in 501 is created and stored.
【0161】次に、このニューラルネット制御装置15
00を、倒立振子の倒立制御に適用した実施例を示す。Next, the neural network controller 15
In this embodiment, 00 is applied to the inverted pendulum control.
【0162】図17に、制御対象1502の構成例を示
す。倒立振子1700は、台車1701の上に取付けら
れ、角度θ、角速度dθ/dtは、センサ1404に相
当する角度センサ1703により取り込まれる。角度セ
ンサとしては、例えば、角速度が検出可能なジャイロを
使用すれば良い。FIG. 17 shows a configuration example of the control target 1502. The inverted pendulum 1700 is mounted on a carriage 1701, and the angle θ and the angular velocity dθ / dt are captured by an angle sensor 1703 corresponding to the sensor 1404. For example, a gyro capable of detecting an angular velocity may be used as the angle sensor.
【0163】アクチュエータ1503に相当する駆動部
1702により発生する力Fによって、角度θ、角速度
dθ/dtが、「0」となるように制御される。The angle θ and the angular velocity dθ / dt are controlled to be “0” by the force F generated by the driving unit 1702 corresponding to the actuator 1503.
【0164】倒立振子の場合、制御量は、角度θと、角
速度dθ/dtであり、制御量の目標値は、それぞれ
「0」、操作量は、力Fである。In the case of an inverted pendulum, the control amount is an angle θ and an angular velocity dθ / dt, the target value of the control amount is “0”, and the operation amount is a force F.
【0165】また、例えば、駆動部1702は、モータ
と該モータによって駆動される駆動輪を備えて構成され
る場合、前記操作量である力Fは、モータの出力トルク
等によって与えられ、これを与えるためには、例えば、
所定の駆動電流をモータに注入すれば良い。Further, for example, when the driving section 1702 is provided with a motor and driving wheels driven by the motor, the force F, which is the operation amount, is given by the output torque of the motor and the like. To give, for example,
What is necessary is just to inject a predetermined drive current into a motor.
【0166】次に、図18に、ニューラルネット制御装
置1500による処理の流れを示す。Next, FIG. 18 shows a flow of processing by the neural network control device 1500.
【0167】まず、s18−1で、目標値と、角度セン
サ1302により取り込まれた角度θ、角速度dθ/d
tとの、それぞれの偏差を、ニューラルネットワーク3
01に入力し、得られた演算結果を算出する。First, in s18-1, the target value, the angle θ and the angular velocity dθ / d captured by the angle sensor 1302 are obtained.
The respective deviation from t is calculated using the neural network 3
01 and calculate the obtained operation result.
【0168】次に、s18−2で、オフセット記憶手段
1501に保存されている値を、演算結果から差し引
き、差し引いたものを操作量Fとする。Next, in s18-2, the value stored in the offset storage means 1501 is subtracted from the calculation result, and the subtracted value is set as the operation amount F.
【0169】次に、s18−3で、操作量Fを制御対象
1502の駆動部1702に出力する。Next, in s18-3, the operation amount F is output to the drive section 1702 of the control target 1502.
【0170】すなわち、例えば、操作量Fを与えるよう
に、モータに電流を注入する。That is, for example, a current is injected into the motor so as to give the operation amount F.
【0171】本実施例では、ソフトウェアによって、ニ
ューラルネット制御装置1500を実現する方法を述べ
たが、ニューラルネットワーク301とオフセット記憶
手段1501を個別に設けた構成にし、それらを各種C
MOS等の論理素子によって、ハードウェアで実現して
も良い。In this embodiment, the method of realizing the neural network control device 1500 by software has been described. However, the neural network 301 and the offset storage means 1501 are provided separately,
It may be realized by hardware using a logic element such as a MOS.
【0172】また、前述した実施例と同様に、オフセッ
ト記憶手段1501に保存されるオフセット値を、状況
に応じて差し引くか否かを選択可能とするスイッチ80
1を設けても良い。Further, similarly to the above-described embodiment, a switch 80 for selecting whether or not to subtract the offset value stored in the offset storage means 1501 depending on the situation.
1 may be provided.
【0173】次に、ニューラルネットワーク301の出
力が複数ある場合の実施例を示す。Next, an embodiment in the case where there are a plurality of outputs of the neural network 301 will be described.
【0174】図19に、本発明をPID(Pは比例、I
は積分、Dは微分を表し、この3動作を組み合わせた制
御方式を称する)ゲインパラメータのオートチューニン
グに適用した実施例を示す。FIG. 19 shows a PID (P is proportional, I
Represents an integral, and D represents a derivative, and refers to a control method combining these three operations.) An embodiment applied to automatic tuning of a gain parameter is shown.
【0175】ニューラルネット制御装置1900は、P
IDコントローラ1901、入力波形発生部1903、
解析部1904、ニューラルネットワーク301、オフ
セット記憶手段1501、目標値格納部107を有して
構成される。また、キーボード、マウス等で実現される
入力手段108も備えられている。The neural network control device 1900 calculates P
ID controller 1901, input waveform generator 1903,
It comprises an analysis unit 1904, a neural network 301, an offset storage unit 1501, and a target value storage unit 107. Further, an input unit 108 realized by a keyboard, a mouse, or the like is also provided.
【0176】各構成要素は、例えば、CPU、ROM
(所定の処理を行うプログラムを予め記憶しておく)、
RAM、各種CMOS等の電子デバイスにて実現可能で
ある。Each component is, for example, a CPU, a ROM,
(A program for performing a predetermined process is stored in advance),
It can be realized by an electronic device such as a RAM or various CMOSs.
【0177】まず、全体の処理を説明する。First, the overall processing will be described.
【0178】本実施例では一例として、入力波形として
ステップ入力を行う場合について説明する。In this embodiment, as an example, a case where step input is performed as an input waveform will be described.
【0179】入力波形発生部1903から発生されるス
テップ入力に対する、制御対象1902の出力波形が理
想応答と一致するように、PIDコントローラ1901
のゲインkP、kI、kDをチューニングする必要があ
る。The PID controller 1901 is controlled so that the output waveform of the controlled object 1902 in response to the step input generated from the input waveform generator 1903 matches the ideal response.
It is necessary to tune the gains kP, kI, and kD.
【0180】入力手段108を介して、目標値格納部1
07に、理想ステップ応答の応答波形が予め記憶されて
いる。The target value storage unit 1 is input via the input unit 108.
At 07, the response waveform of the ideal step response is stored in advance.
【0181】制御対象1902の制御量は、解析部19
04に入力され、出力波形が抽出される。The control amount of the control object 1902 is
04 and an output waveform is extracted.
【0182】出力波形の抽出法は、入力波形の発生法や
目標値の格納の仕方にも関係するが、例えば、ナイキス
ト間隔で波形をサンプリングすることや、周波数スペク
トルの分布を調べ、当該分布において、所定の周波数間
隔でスペクトルの大きさをサンプリングしていく方法
等、各種の方法が考えられ、波形を再現できるように抽
出するのであれば、いかなる方法でも良い。The method of extracting the output waveform is related to the method of generating the input waveform and the manner of storing the target value. For example, sampling the waveform at the Nyquist interval, examining the distribution of the frequency spectrum, and Various methods, such as a method of sampling the magnitude of the spectrum at predetermined frequency intervals, can be considered, and any method may be used as long as the waveform is extracted so as to be reproduced.
【0183】このように抽出された出力波形と理想波形
との差が、ニューラルネットワーク301に入力される
ことになる。ニューラルネットワーク301は、ゲイン
修正量ΔkP、ΔkI、ΔkDを出力するが、オフセッ
ト記憶手段1501に記憶されている、ゲインkP、k
I、kD、のそれぞれに対応した、オフセット値を、修
正量ΔkP、ΔkI、ΔkDから差し引いたものを、P
IDコントローラ1901のゲインに加える処理を行
う。The difference between the output waveform extracted in this way and the ideal waveform is input to the neural network 301. The neural network 301 outputs the gain correction amounts ΔkP, ΔkI, and ΔkD, and the gains kP, k stored in the offset storage unit 1501 are output.
The value obtained by subtracting the offset value corresponding to each of I, kD from the correction amounts ΔkP, ΔkI, ΔkD is P
Processing to be added to the gain of the ID controller 1901 is performed.
【0184】オフセット記憶手段1501に格納されて
いるオフセット値は、出力波形と理想波形の偏差とし
て、「0」が入力されたときのニューラルネットワーク
301の出力値である。The offset value stored in the offset storage means 1501 is the output value of the neural network 301 when "0" is input as the deviation between the output waveform and the ideal waveform.
【0185】ゲインを表すパラメータの修正を受けた、
PIDコントローラ1901から、制御対象1902
に、操作量が送られ、制御対象1902の制御量が、再
度解析部1904に入力される。The parameter representing the gain has been corrected.
From the PID controller 1901, the control target 1902
Then, the operation amount is transmitted, and the control amount of the control target 1902 is input to the analysis unit 1904 again.
【0186】以上のような処理を繰り返し、ゲインパラ
メータのチューニングが行われる。The above processing is repeated to tune the gain parameter.
【0187】図20に、本実施例のオフセット記憶手段
による処理のフローチャートを示す。FIG. 20 shows a flowchart of the processing by the offset storage means of this embodiment.
【0188】まず、s20−1で、ニューラルネットワ
ーク301による演算結果が、ゲインパラメータの修正
量として、ΔkP、ΔkI、ΔkDに記憶される。First, in s20-1, the calculation result by the neural network 301 is stored in ΔkP, ΔkI, and ΔkD as the correction amount of the gain parameter.
【0189】次に、s20−2で、オフセット記憶手段
1501に記憶されている値、ΔkP0、ΔkI0、Δ
kD0を取り出し、修正量として記憶されている、Δk
P、ΔkI、ΔkDから取り出したΔkP0、ΔkI
0、ΔkD0を、それぞれ減じた値を、修正量ΔkP、
ΔkI、ΔkDとする。Next, at s20-2, the values ΔkP0, ΔkI0, ΔkP0 stored in the offset storage means 1501 are set.
kD0 is taken out and stored as a correction amount, Δk
ΔkP0, ΔkI extracted from P, ΔkI, ΔkD
0 and ΔkD0 are subtracted from the correction amount ΔkP,
Let ΔkI and ΔkD.
【0190】そして、s20−3で、修正量ΔkP、Δ
kI、ΔkDを、制御対象1902に出力すれば、一連
の処理が完了する。Then, in s20-3, the correction amounts ΔkP, ΔkP
If kI and ΔkD are output to the control target 1902, a series of processing is completed.
【0191】[0191]
【発明の効果】本発明によれば、指定された値に対する
第1のニューラルネットワークの出力誤差を、第2のニ
ューラルネットワークの出力で相殺した値を、ニューラ
ルネット演算手段の出力とすることにより、指定された
入力値の近傍での出力誤差を低減することができる。こ
のため、ニューラルネット制御装置は、指令値、操作量
等を高精度に出力することが可能となる。According to the present invention, the value obtained by canceling the output error of the first neural network with respect to the designated value by the output of the second neural network is used as the output of the neural network operation means. An output error near the designated input value can be reduced. Therefore, the neural network control device can output the command value, the operation amount, and the like with high accuracy.
【図面の簡単な説明】[Brief description of the drawings]
【図1】本発明にかかるニューラルネット制御装置例の
構成図である。FIG. 1 is a configuration diagram of an example of a neural network control device according to the present invention.
【図2】制御対象である加熱炉の構成図である。FIG. 2 is a configuration diagram of a heating furnace to be controlled.
【図3】ニューラルネット演算手段の構成図である。FIG. 3 is a configuration diagram of a neural network operation unit.
【図4】ニューラルネット演算手段の処理アルゴリズム
を示すフローチャ−トである。FIG. 4 is a flowchart showing a processing algorithm of a neural network operation means.
【図5】ニューラルネットワークの一例の構成図であ
る。FIG. 5 is a configuration diagram of an example of a neural network.
【図6】ニューラルネット学習装置の構成図である。FIG. 6 is a configuration diagram of a neural network learning device.
【図7】入出力ペアの作成アルゴリズムを示すフローチ
ャ−トである。FIG. 7 is a flowchart showing an algorithm for creating an input / output pair.
【図8】スイッチを設けたニューラルネット制御装置例
の構成図である。FIG. 8 is a configuration diagram of an example of a neural network control device provided with a switch.
【図9】スイッチ操作のアルゴリズムを示すフローチャ
−トである。FIG. 9 is a flowchart showing an algorithm of a switch operation.
【図10】リミッタを設けたニューラルネット演算手段
の構成図である。FIG. 10 is a configuration diagram of a neural network operation unit provided with a limiter.
【図11】シミュレーション結果の説明図である。FIG. 11 is an explanatory diagram of a simulation result.
【図12】本発明をコントローラに適用した実施例の構
成図である。FIG. 12 is a configuration diagram of an embodiment in which the present invention is applied to a controller.
【図13】浄水プラントの構成図である。FIG. 13 is a configuration diagram of a water purification plant.
【図14】ニューラルネット演算手段のアルゴリズムを
示すフローチャ−トである。FIG. 14 is a flowchart showing the algorithm of the neural network operation means.
【図15】オフセット記憶手段を組み込んだニューラル
ネット制御装置の構成図である。FIG. 15 is a configuration diagram of a neural network control device incorporating an offset storage means.
【図16】オフセット記憶手段のアルゴリズムを示すフ
ローチャ−トである。FIG. 16 is a flowchart showing an algorithm of the offset storage means.
【図17】倒立振子の構成図である。FIG. 17 is a configuration diagram of an inverted pendulum.
【図18】ニューラルネット演算手段のアルゴリズムを
示すフローチャ−トである。FIG. 18 is a flowchart showing the algorithm of the neural network operation means.
【図19】本発明をPIDコントローラに適用した実施
例の構成図である。FIG. 19 is a configuration diagram of an embodiment in which the present invention is applied to a PID controller.
【図20】ニューラルネット演算手段のアルゴリズムを
示すフローチャ−トである。FIG. 20 is a flowchart showing the algorithm of the neural network operation means.
100…ニューラルネット制御装置、101…ニューラ
ルネット演算手段、102…指令値算出手段、105…
モデル、111…ニューラルネット学習装置、301…
第1のニューラルネットワーク、302…第2のニュー
ラルネットワーク、801…スイッチ、1001…リミ
ッタ、1501…オフセット記憶手段100: Neural network control device, 101: Neural network operation means, 102: Command value calculation means, 105 ...
Model, 111 ... neural network learning device, 301 ...
1st neural network, 302 ... 2nd neural network, 801 ... switch, 1001 ... limiter, 1501 ... offset storage means
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−181506(JP,A) 特開 平5−197401(JP,A) 特開 平5−150803(JP,A) 特開 平4−15704(JP,A) 特開 平5−333902(JP,A) (58)調査した分野(Int.Cl.7,DB名) G05B 11/00 - 13/04 G06F 15/18 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP 5-181506 (JP, A) JP 5-197401 (JP, A) JP 5-150803 (JP, A) JP 4-A 15704 (JP, A) JP-A-5-333902 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G05B 11/00-13/04 G06F 15/18
Claims (12)
れ、制御対象の制御目標値と検出した制御量との偏差量
である、少なくとも一つ以上の第1の入力値および制御
対象が有する状態量である、少なくとも一つ以上の第2
の入力値を入力層が受け付け、制御対象に与える操作量
を出力層から出力するニューラルネットワークを備えた
ニューラルネットワーク内蔵制御装置において、 入力層、中間層、出力層を有して構成した、新たなニュ
ーラルネットと、減算手段とを備え、 前記新たなニューラルネットワークの入力層は、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた特定値を受け付け、受け付けた値に基づいて、中
間層および出力層が行う演算により、出力値を出力層か
ら出力し、 前記減算手段は、前記2つのニューラルネットワークの
出力値の差分を演算し、前記操作量として出力すること
を特徴とするニューラルネットワーク内蔵制御装置。At least one or more first input values and control values, each having an input layer, an intermediate layer, and an output layer, and being a deviation amount between a control target value of a control target and a detected control amount. At least one or more second states that are the state quantities of the subject
A neural network-equipped control device including a neural network that receives an input value of (i) from an input layer and outputs an operation amount given to a control target from an output layer, comprising a new input layer, an intermediate layer, and an output layer. An input layer of the new neural network receives the second input value and a predetermined value corresponding to the first input value, and receives the received value. Output from the output layer by an operation performed by the intermediate layer and the output layer based on the subtraction means, wherein the subtraction means calculates the difference between the output values of the two neural networks and outputs the result as the manipulated variable. A control device with a built-in neural network.
るニューラルネットワークを使用し、制御対象の制御目
標値と検出した制御量との偏差量である、少なくとも一
つ以上の第1の入力値および制御対象が有する状態量で
ある、少なくとも一つ以上の第2の入力値を入力層に与
え、制御対象に与える操作量を出力層から出力させるニ
ューラルネットワークによる制御方法において、 入力層、中間層、出力層を有して構成した、新たなニュ
ーラルネットとを用意し、 前記新たなニューラルネットワークの入力層に、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた特定値を与え、受け付けた値に基づいて中間層、
出力層が行う演算により、出力値を出力層から出力さ
せ、 前記2つのニューラルネットワークの出力値の差分を演
算し、前記操作量として出力することを特徴とするニュ
ーラルネットワークによる制御方法。2. A method using a neural network having an input layer, an intermediate layer, and an output layer, wherein at least one of a deviation amount between a control target value of a control target and a detected control amount is used.
One or more, which is the first input value and the state quantity with the controlled object, at least given one or more second input values to the input layer, the control by the neural network to output an operation amount to be given to the controlled object from the output layer A new neural network comprising an input layer, a hidden layer, and an output layer is provided, wherein the second input value and the first neural network are provided in an input layer of the new neural network. Given a predetermined specific value corresponding to the input value, based on the received value, the middle layer,
A control method using a neural network, comprising: outputting an output value from an output layer by an operation performed by an output layer; calculating a difference between output values of the two neural networks; and outputting the difference as an operation amount.
れ、少なくとも一つ以上の入力値を入力層が受け付け、
制御対象に与える操作量を出力層に出力するニューラル
ネットワークを備えたニューラルネットワーク内蔵制御
装置において、予め定めた一の特定値を入力値としたときの前記ニュー
ラルネットワークの出力値をオフセット値として記憶す
るオフセット格納手段と、 前記ニューラルネットワークの出力値と前記オフセット
値との差分を演算し、これを前記操作量として出力する
オフセット演算手段と、 を備える ことを特徴とするニューラルネットワーク内蔵
制御装置。Wherein the input layer, an intermediate layer, is configured to have an output layer, the input layer accepts one or more input values even without low,
In a neural network built-in control device having a neural network that outputs an operation amount given to a control target to an output layer, the neural network is configured such that a predetermined specific value is used as an input value.
Store output value of neural network as offset value
Offset storage means, the output value of the neural network and the offset
Calculate the difference with the value and output this as the manipulated variable
A neural network built-in control device , comprising: an offset calculating means .
るニューラルネットワークを使用し、少なくとも一つ以
上の入力値を入力層に与え、制御対象に与える操作量を
出力層に出力させるニューラルネットワークによる制御
方法において、 予め定めた一つの特定値を入力値としたときの前記ニュ
ーラルネットワークの出力値をオフセット値として記憶
するオフセット格納手段を用意し、 前記ニューラルネットワークの出力値と前記オフセット
値との差分を演算し、これを前記操作量として出力する
ことを特徴とするニューラルネットワークを用いた制御
方法。4. Using a neural network having an input layer, a hidden layer, and an output layer, providing at least one or more input values to the input layer, and outputting an operation amount given to the control target to the output layer. In a control method using a neural network, an offset storage unit that stores an output value of the neural network as an offset value when a predetermined specific value is set as an input value is provided, and the output value of the neural network and the offset are provided. Control using a neural network, which calculates a difference from the value and outputs the calculated value as the manipulated variable.
How .
ネットワークに、該ニューラルネットワークの出力値
を、前記減算手段に接続するか否かを選択するための選
択手段を備えたことを特徴とするニューラルネットワー
ク内蔵制御装置。5. The neural network according to claim 1, wherein said new neural network is provided with selecting means for selecting whether or not to connect an output value of said neural network to said subtracting means. Control device with built-in network.
段を起動させるか否かの選択が可能な選択手段を備えた
ことを特徴とするニューラルネットワーク内蔵制御装
置。6. The control device with built-in neural network according to claim 3 , further comprising selection means for selecting whether to activate said offset calculation means.
め定めたタイミングで、予め定めた選択項目を選択する
ように前記選択手段を起動する起動手段を備えたことを
特徴とするニューラルネットワーク内蔵制御装置。7. The built-in neural network according to claim 5, further comprising: a starting unit that starts the selecting unit so as to select a predetermined selection item at a predetermined timing. Control device.
て、さらに、リミッタ手段を備え、 該リミッタ手段は、前記減算手段からの出力値の、上限
値および下限値のうちいずれか一方を制限することを特
徴とするニューラルネットワーク内蔵制御装置。8. The apparatus according to claim 1, further comprising limiter means, wherein said limiter means limits one of an upper limit value and a lower limit value of an output value from said subtraction means. A control device with a built-in neural network.
て、さらに、リミッタ手段を備え、 該リミッタ手段は、前記オフセット演算手段からの出力
値の、上限値及び下限値のうちいずれか一方を制御する
ことを特徴とするニューラルネットワーク内蔵制御装
置。9. The apparatus according to claim 3 , further comprising limiter means, wherein the limiter means sets one of an upper limit value and a lower limit value of an output value from said offset calculating means. A control device with a built-in neural network, which is controlled.
との偏差量であり、 前記定めた一の特定値は、0であることを特徴とするニ
ューラルネットワーク内蔵制御装置。10. The method according to claim 5 , wherein the input value is a deviation amount between a control target value of a control target and a detected control amount, and the predetermined specific value is zero. Control device with built-in neural network.
れ、制御対象を、正確には分からないパラメータを含む
数式で表現するモデルで表したとき、制御目標値と検出
した制御量との偏差量である、少なくとも一つ以上の第
1の入力値および制御対象が有する状態量である、少な
くとも一つ以上の第2の入力値を入力層が受け付け、受
け付けた値に基づいて前記中間層および出力層が行う演
算により、前記モデルのパラメータの修正量を出力層に
出力するニューラルネットワークを具備し、 入力層、中間層、出力層を有して構成した、新たなニュ
ーラルネットと、減算手段とを備え、 前記新たなニューラルネットワークの入力層は、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた特定値を受け付け、受け付けた値に基づいて、中
間層および出力層が行う演算により、所定の出力値を出
力層から出力し、 前記減算手段は、前記2つのニューラルネットワークの
出力値の差分を演算し、前記パラメータの修正量として
演算結果を出力することを特徴とするニューラルネット
ワーク内蔵制御装置。11. When a control target is represented by a model having an input layer, a middle layer, and an output layer, and a control target is represented by a mathematical expression including parameters that cannot be accurately determined, a control target value and a detection target value are detected.
The input layer accepts at least one or more first input values that are deviation amounts from the controlled amount and at least one or more second input values that are state quantities of the controlled object. A new neural network comprising an input layer, an intermediate layer, and an output layer, comprising a neural network that outputs a correction amount of the parameter of the model to an output layer by an operation performed by the intermediate layer and the output layer based on the neural network. And a subtraction means. The input layer of the new neural network receives the second input value and a predetermined value corresponding to the first input value, and sets the received value to the received value. A predetermined output value is output from the output layer by an operation performed by the intermediate layer and the output layer based on the output value. The subtraction means calculates a difference between the output values of the two neural networks, Neural network internal control device and outputs the operation result as a correction amount of parameters.
れるニューラルネットワークを使用し、制御対象の制御
目標値と検出した制御量との偏差量である、少なくとも
一つ以上の第1の入力値および制御対象が有する状態量
である、少なくとも一つ以上の第2の入力値を入力層に
与え、制御対象に与える操作量を出力層から出力させる
ニューラルネットワークによる制御方法において、 まず、前記ニューラルネットワークの入力層に、前記第
2の入力値、および、前記第1の入力値に対応して予め
定めた一の特定値を与え、受け付けた値に基づいて中間
層、出力層が行う演算により、出力値を出力層から出力
させ、当該出力値を記憶しておき、 次に、前記ニューラルネットワークの出力値と、前記記
憶してある出力値との差分を演算し、前記操作量として
出力することを特徴とするニューラルネットワークによ
る制御方法。12. A method using a neural network having an input layer, a middle layer, and an output layer, wherein at least a deviation between a control target value of a control target and a detected control amount is determined.
A state quantity with the one or more first input value and the controlled object, using a neural network to output at least given one or more second input values to the input layer, an output layer with the operation amount applied to the control object in the control method, first, to the input layer of the neural network, the second input value, and gives one specific value determined in advance in correspondence to the first input value, based on the values accepted intermediate The output value is output from the output layer by the operation performed by the layer and the output layer, and the output value is stored. Next, the difference between the output value of the neural network and the stored output value is calculated. And outputting the manipulated variable as the manipulated variable.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5262673A JP3040901B2 (en) | 1993-10-20 | 1993-10-20 | Control method by neural network and built-in control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5262673A JP3040901B2 (en) | 1993-10-20 | 1993-10-20 | Control method by neural network and built-in control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07121206A JPH07121206A (en) | 1995-05-12 |
JP3040901B2 true JP3040901B2 (en) | 2000-05-15 |
Family
ID=17379013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5262673A Expired - Lifetime JP3040901B2 (en) | 1993-10-20 | 1993-10-20 | Control method by neural network and built-in control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3040901B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09204203A (en) * | 1996-01-24 | 1997-08-05 | Hitachi Ltd | Method and device for calculating control command |
US6445963B1 (en) * | 1999-10-04 | 2002-09-03 | Fisher Rosemount Systems, Inc. | Integrated advanced control blocks in process control systems |
JP7145755B2 (en) * | 2018-12-28 | 2022-10-03 | 株式会社日立製作所 | Plating deposition control device and control method |
WO2021131210A1 (en) * | 2019-12-24 | 2021-07-01 | 株式会社エイシング | Information processing device, method, and program |
US20220383194A1 (en) * | 2019-12-24 | 2022-12-01 | Aising Ltd. | Information processing device, method, and program |
JP7536626B2 (en) * | 2020-12-11 | 2024-08-20 | キヤノン株式会社 | CONTROL DEVICE, ADJUSTMENT METHOD, LITHOGRAPHIC APPARATUS, AND METHOD FOR MANUFACTURING ARTICLE - Patent application |
-
1993
- 1993-10-20 JP JP5262673A patent/JP3040901B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH07121206A (en) | 1995-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Perrusquía et al. | Identification and optimal control of nonlinear systems using recurrent neural networks and reinforcement learning: An overview | |
CA2414707C (en) | Computer method and apparatus for constraining a non-linear approximator of an empirical process | |
JP2000514217A (en) | Automatic tuner with nonlinear approximation mechanism | |
JP2654328B2 (en) | Cascade furnace temperature control device using adjustment input | |
JPH04127205A (en) | Process controller | |
Zhao et al. | Event-triggered H∞ optimal control for continuous-time nonlinear systems using neurodynamic programming | |
JP3040901B2 (en) | Control method by neural network and built-in control device | |
JP3798239B2 (en) | Multivariable model predictive control apparatus, method, and storage medium thereof | |
Nguyen et al. | On-policy and off-policy Q-learning strategies for spacecraft systems: An approach for time-varying discrete-time without controllability assumption of augmented system | |
Barhaghtalab et al. | Design of an adaptive fuzzy-neural inference system-based control approach for robotic manipulators | |
US6768927B2 (en) | Control system | |
CN104597753A (en) | Method and device for intelligently controlling asphalt and crushed stone spreading of synchronous chip sealer | |
Wang et al. | Model-free nonlinear robust control design via online critic learning | |
CN116430708A (en) | Temperature control method based on PID and extended state observer | |
CN113485099B (en) | Online learning control method of nonlinear discrete time system | |
JP3367214B2 (en) | Neural network control method and device | |
JPH08110802A (en) | Pid controller | |
JPH0924449A (en) | Method for controlling cooling in continuous casting machine and device therefor | |
JP3340923B2 (en) | SAC controller | |
JP3240564B2 (en) | Control knowledge generation method and apparatus | |
Jia et al. | Fuzzy adaptive stabilization control for nonlinear systems with FSCs | |
Kumar et al. | Stabilization of Inverted Pendulum using Neural Network Controller | |
CN116772284A (en) | Heating furnace temperature control method | |
Tao et al. | Application of fuzzy logic and neural network to the control of a flame process | |
JP4155508B2 (en) | Control parameter adjustment method for control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090303 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100303 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110303 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120303 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130303 Year of fee payment: 13 |