JPH0511806A - Process dynamic characteristic learning device - Google Patents

Process dynamic characteristic learning device

Info

Publication number
JPH0511806A
JPH0511806A JP3163087A JP16308791A JPH0511806A JP H0511806 A JPH0511806 A JP H0511806A JP 3163087 A JP3163087 A JP 3163087A JP 16308791 A JP16308791 A JP 16308791A JP H0511806 A JPH0511806 A JP H0511806A
Authority
JP
Japan
Prior art keywords
learning
neural network
recurrence formula
coefficient
dynamic characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3163087A
Other languages
Japanese (ja)
Inventor
Kenzo Yonezawa
憲造 米沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP3163087A priority Critical patent/JPH0511806A/en
Publication of JPH0511806A publication Critical patent/JPH0511806A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To improve the fixing ability for process dynamic characteristics and reverse dynamic characteristics and to secure excellent and stable control characteristics by determining the network constitution of an NN and the initial value of a total weight coefficient according to a specific primary delay recurrence formula. CONSTITUTION:When a process is estimated or approximated with the primary delay of y={K/(1+T.s)}.X previously and the dynamic characteristics of the process are learnt by using a neural network, the neural network is constituted with the primary delay recurrence formula based upon a calculation period DELTAt shown by an equation I. The coefficient of the equation I is given as the initial value of the coefficient of coupling weight between respective neuron elements when the dynamic characteristics of the process begin to be learnt in the same meaning. In the equation I, X is a process input, (y) a process output, K a process gain estimated value, T a process time constant estimated value, (s) a Laplacean, and a suffix (n) a variable at a point n.DELTAt of time.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クの学習能力を利用してプロセスの動特性、逆動特性な
どを同定しその結果を制御に反映させるプロセス動特性
学習装置に係わり、特にプロセスの状態を把握した上で
ニューラルネットワークの最適構成および各ニューロン
素子間の結合重み係数の初期値を決定するプロセス動特
性学習装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a process dynamic characteristic learning device for identifying a dynamic characteristic or a reverse dynamic characteristic of a process by utilizing a learning ability of a neural network and reflecting the result in control, and particularly to a process dynamic characteristic learning device. The present invention relates to a process dynamic characteristic learning device that determines the optimal configuration of a neural network and the initial value of the coupling weight coefficient between each neuron element after grasping the state.

【0002】[0002]

【従来の技術】プロセス制御方式の中には、例えば適応
制御やスミスムダ時間補償制御などのようにプロセスの
動特性,逆動特性を同定しその結果を制御に反映させる
方式のものがある。
2. Description of the Related Art Among process control methods, there are methods such as adaptive control and Smith-Muda time compensation control which identify the dynamic characteristics and reverse dynamic characteristics of a process and reflect the results in the control.

【0003】ところで、近年、プロセスの動特性を同定
するに際し、ニューラルネットワーク(以下、NNと略
称する)の学習能力を利用して実現することが大きく期
待されている。このNNは、人間の脳などの神経細胞
(ニューロン)を工学的にモデル化した多数のニューロ
ン素子と、これらニューロン素子から望ましい出力が得
られるように各ニューロン素子どうしの結合重み係数を
決定する係数学習手段とによって構成され、個々のニュ
ーロン素子が単純な動作を行いながら、NN全体として
高次の機能を実現するものである。特に、NNは、各ニ
ューロン素子間の結合重み係数を変化させながら学習を
行うことができ、その学習能力によって環境の変化もN
Nに取り込んで柔軟に適応することができる。
By the way, in recent years, in identifying the dynamic characteristics of a process, it is greatly expected to be realized by utilizing the learning ability of a neural network (hereinafter abbreviated as NN). This NN is a coefficient that determines a large number of neuron elements that have been modeled as a model of nerve cells (neurons) such as the human brain, and the coupling weight coefficient for each neuron element so that a desired output can be obtained from these neuron elements. It is configured by a learning means, and each neuron element realizes a higher-order function as a whole while performing a simple operation. In particular, the NN can perform learning while changing the connection weighting coefficient between each neuron element, and the learning ability can change the environment by N.
It can be flexibly adapted to N.

【0004】このNNの構成モデルは、大別して階層型
ネットワークと相互結合型ネットワークとに分けられる
が、前者の階層型NNは図11に示すように入力層a,
中間層bおよび出力層cの3つの部分からなり、各層
a,b,cとも複数個のニューロン素子によって構成さ
れ、必要に応じて中間層bとして2層以上設けることも
ある。この階層型NNの信号経路は図示矢印の如く入力
側から出力側の方向に流れていくことからフィードフォ
ワードタイプと考えられ、同じ層内のニューロン素子ど
うしの結合は存在しない。一方、後者の相互結合型NN
は、階層型NNと異なって層の区別がなく、お互いにニ
ューロン素子が自由に結合でき、信号経路が出力側から
入力側に入力することもあることからフィードバックタ
イプと考えられている。
The configuration model of this NN is roughly divided into a hierarchical network and an interconnected network. The former hierarchical NN is, as shown in FIG.
The intermediate layer b and the output layer c are composed of three parts. Each of the layers a, b, and c is composed of a plurality of neuron elements, and two or more intermediate layers b may be provided as necessary. The signal path of this hierarchical NN is considered to be a feedforward type because it flows from the input side to the output side as shown by the arrow in the figure, and there is no coupling between neuron elements in the same layer. On the other hand, the latter interconnected NN
Unlike the hierarchical type NN, there is no distinction of layers, neuron elements can be freely coupled to each other, and a signal path may be input from an output side to an input side, and is therefore considered to be a feedback type.

【0005】通常、この種の階層型NNの学習アルゴリ
ズムは、NNに望ましい変換の例を繰り返し提示するこ
とによってニューロン素子間の結合重み係数を適切な値
に設定するように動作するアルゴリズムであり、その中
でもバックプロパゲーション(逆伝搬)学習則のアルゴ
リズムが広く利用されている。このバックプロパゲーシ
ョン学習則は、適宜な入力信号を入力層に導入した後、
各層のニューロン素子で順次信号変換し、得られたNN
の出力結果と望ましい出力との差、つまり誤差情報が小
さくなるように各層のニューロン素子への結合重み係数
を逐次修正する処理を行うものである。
Usually, this type of hierarchical NN learning algorithm operates so as to set the coupling weight coefficient between neuron elements to an appropriate value by repeatedly presenting an example of a desirable transformation to the NN. Among them, the algorithm of back propagation (back propagation) learning rule is widely used. This back-propagation learning rule is that after introducing an appropriate input signal into the input layer,
NN obtained by sequentially converting signals by the neuron elements of each layer
The difference between the output result and the desired output, that is, the processing for sequentially correcting the connection weighting coefficient to the neuron element of each layer so that the error information becomes small is performed.

【0006】さらに、バックプロパゲーション学習則に
ついて図12を参照して具体的に説明する。このNN
は、第1段が入力層a、第2段が中間層b、第3段が出
力層cであって、第1段のj番目のニューロン素子から
第2段のi番目のニューロン素子への結合重み係数をw
i,j 2,1 で表し、第2段のi番目のニューロン素子から
第3段のk番目のニューロン素子への結合重み係数をw
k,i 3,2 で表す。そして、以上のようなNNにおいてバ
ックプロパゲーション学習則は、出力層のk番目のニュ
ーロン素子の出力をyk 、そのときの入力信号に対する
当該素子kの望ましい出力(教師信号)をdk とすれ
ば、その二乗誤差Eは、
Further, the back propagation learning rule will be specifically described with reference to FIG. This NN
The first stage is the input layer a, the second stage is the intermediate layer b, and the third stage is the output layer c. From the j-th neuron element of the first stage to the i-th neuron element of the second stage, The connection weight coefficient is w
i, j 2,1 , And the coupling weight coefficient from the i-th neuron element in the second stage to the k-th neuron element in the third stage is w
k, i 3,2 It is represented by. In the above NN, the back propagation learning rule is that the output of the k-th neuron element in the output layer is y k , and the desired output (teacher signal) of the element k with respect to the input signal at that time is d k. Then, the squared error E is

【0007】[0007]

【数3】 [Equation 3]

【0008】で表される。従って、このバックプロパゲ
ーション学習則は、二乗誤差Eを極小化すること、すな
わち実際の出力が望ましい出力に可能な限り近づくよう
にニューロン素子への結合重み係数を変化させることに
ある。なお、結合重み係数を修正するアルゴリズムは二
乗誤差Eに関する一種の最急降下法を用いて行う。この
ようにニューロン素子への結合重み係数の学習は信号の
伝搬と逆に出力層から入力層に向かって進行するが、こ
れがバックプロパゲーション(逆伝搬)学習則の名称の
由来でもある。
It is represented by Therefore, the back-propagation learning rule is to minimize the squared error E, that is, to change the coupling weight coefficient to the neuron element so that the actual output is as close to the desired output as possible. The algorithm for correcting the coupling weight coefficient is performed by using a kind of steepest descent method regarding the squared error E. As described above, the learning of the coupling weight coefficient to the neuron element progresses from the output layer to the input layer, contrary to the propagation of the signal, and this is also the origin of the name of the back propagation (back propagation) learning rule.

【0009】さて、プロセス制御システムに用いられる
NNの代表的なものは階層型NNであるが、このタイプ
のNNは静的空間パターンを表現することにとどまり、
このままではプロセス制御の問題で本質的なシステムの
ダイナミックスは直接表現できない。そこで、通常は、
図13の例に示すようにn個の遅延器を用意し、入力層
ニューロン素子の間に過去のn個のデータ列(時系列パ
ターン)を並列に挿入することによってダイナミックス
を表現する方法がとられている。図13の例ではn=7
であって、遅延器は11 〜17 である。a1〜a8は入
力層ニューロン素子、b1〜b4は中間層ニューロン素
子、c1は出力層ニューロン素子である。
A typical NN used in a process control system is a hierarchical NN, but this type of NN is limited to expressing a static space pattern.
As it is, the essential system dynamics cannot be directly expressed due to the process control problem. So usually,
As shown in the example of FIG. 13, there is a method of expressing dynamics by preparing n delay devices and inserting past n data strings (time series patterns) in parallel between the input layer neuron elements. It is taken. In the example of FIG. 13, n = 7
And the delay devices are 1 1 to 17 . a1 to a8 are input layer neuron elements, b1 to b4 are intermediate layer neuron elements, and c1 is an output layer neuron element.

【0010】このNNのプロセス制御システムへの具体
的な応用方法は多数あるが、例えば次の2つの例を上げ
ることができる。その1つは、もし仮にNNを用いてプ
ロセスの伝達関数Gp(s) の完全な逆ダイナミックスモ
デルGp-1(s) が得らるものであれば、図14に示すよ
うにプロセスの入力側にNN2を適用することが可能と
なる。この場合には全体の伝達関数が「1」になるの
で、目標値R(t) =制御量Y(t) となり、制御量を目標
値に迅速に追従させることができる。しかし、実際上,
完全な逆モデルを作ることは困難であるので、何らかの
形でフィードバックループを加えて、NNの逆モデルの
不完全性を吸収させる方式を用いる。これにはいろいろ
な方式が考えられるが、よく用いられるのが図15に示
す方式である。この方式は、図中上段に示すように入力
信号としてのプロセス制御量をNN3に取り込み、当該
NN3によって得られた出力と操作量である教師信号と
の差に基づいてNN3の結合重み係数を変更しながらプ
ロセスの逆モデル(逆動特性)Gp-1(s) を学習する。
そして、この学習後のNN3を図中下段に示すようにフ
ィードフォワード補償器3′として適用するものであ
る。
There are many concrete application methods of this NN to the process control system, and the following two examples can be given as examples. One is that if NN is used to obtain a complete inverse dynamics model Gp -1 (s) of the transfer function Gp (s) of the process, as shown in FIG. It becomes possible to apply NN2 to the side. In this case, since the entire transfer function becomes "1", the target value R (t) = control amount Y (t), and the control amount can be made to quickly follow the target value. But in practice,
Since it is difficult to make a perfect inverse model, a method of adding a feedback loop in some form to absorb imperfections of the NN inverse model is used. Although various methods are conceivable for this, the method shown in FIG. 15 is often used. In this method, as shown in the upper part of the figure, the process control amount as an input signal is taken into NN3, and the coupling weight coefficient of NN3 is changed based on the difference between the output obtained by the NN3 and the teacher signal which is the operation amount. While learning the inverse model (reverse dynamics) Gp −1 (s) of the process.
The learned NN3 is applied as a feedforward compensator 3'as shown in the lower part of the figure.

【0011】他の1つは、以上のようなプロセスの逆モ
デルを学習させて適用する以外に、プロセスの動特性
(順ダイナミックスモデル)Gp(s) の同定にNNを適
用し、その結果を制御に反映させる試みがなされてい
る。例えば図16に示すようなムダ時間補償制御のスミ
ス法におけるプロセス同定に用いる方法などがある(特
願平1−321295号)。この制御装置は、PID制
御等の主制御部4とNNを用いたスミス法プロセスモデ
ル部5とからなり、このプロセスモデル部5でスミスの
条件が成立するように制御しムダ時間をもつプロセス制
御系から等価的にムダ時間のないプロセス制御系に近似
させ、プロセス全体を単純化して実プロセス6を制御す
る構成である。
The other one is to apply the NN to the identification of the dynamic characteristic (forward dynamics model) Gp (s) of the process in addition to learning and applying the above inverse model of the process, and the result Attempts have been made to reflect this in control. For example, there is a method used for process identification in the Smith method of waste time compensation control as shown in FIG. 16 (Japanese Patent Application No. 1-321295). This control device comprises a main control unit 4 such as PID control and a Smith method process model unit 5 using an NN. Process control is performed so that the Smith condition is satisfied in this process model unit 5 and process control with a dead time is performed. This is a configuration in which the system is equivalently approximated to a process control system with no dead time, the entire process is simplified, and the actual process 6 is controlled.

【0012】[0012]

【発明が解決しようとする課題】従って、以上のような
NNでは、プロセスを同定するNNの学習能力がプロセ
ス制御の適用上重要なポイントとなってくる。しかしな
がら、NNの学習アルゴリズムとしてよく利用されてい
るバックプロパゲーション学習則の場合には次のような
問題点が指摘されている。1.NNの出力結果が望まし
い出力へ収束するまでには、多数回にわたって学習を繰
り返す必要があること。
Therefore, in the above-mentioned NN, the learning ability of the NN for identifying the process becomes an important point in applying the process control. However, the following problems have been pointed out in the case of the back-propagation learning rule, which is often used as a learning algorithm for NNs. 1. It is necessary to repeat learning many times before the output result of the NN converges to the desired output.

【0013】2.二乗誤差Eに関する最急降下法を用い
て適正な結合重み係数を学習する方法をとっているが、
この学習過程において極小値に達する前の途中のローカ
ルミニマムの状態で収束する可能性があり、学習能力に
今1つの感があること。
2. Although the method of learning an appropriate coupling weight coefficient is used by using the steepest descent method regarding the squared error E,
In this learning process, there is a possibility of convergence in the state of local minimum before reaching the minimum value, and there is another feeling in the learning ability.

【0014】以上のような問題の生ずる原因の1つに
は、NNを用いて学習を開始するとき各ニューロン素子
どうしの結合重み係数の初期値をランダムに与えなけれ
ばならないということである。つまり、プロセス制御シ
ステムにNNを適用するに際し、プロセスの特性がある
程度推定できたとしても、この推定値とNNの結合重み
係数とを関連付けるような指針がないので、学習を始め
るに当って結合重み係数の初期値をランダムに与えざる
を得ないためである。その結果、多次元の重み位相空間
の出発点と到達すべき真の状態点とが遠く離れているこ
とになる。
One of the causes of the above problem is that the initial value of the coupling weight coefficient of each neuron element must be given at random when starting learning using NN. That is, when the NN is applied to the process control system, even if the characteristics of the process can be estimated to some extent, there is no guideline for associating this estimated value with the NN coupling weight coefficient. This is because the initial value of the coefficient must be given randomly. As a result, the starting point of the multidimensional weighted phase space and the true state point to be reached are far apart.

【0015】このことは、学習回数を増やすことになる
だけでなく、真の状態点(誤差最小点)でない点、すな
わちローカルミニマムに陥る確率が高いこと。それを防
ぐためには、多数の教師パターンを用意し、さらに多数
回の学習を繰り返えさなければならない。因みに、図1
3のようなニューロン素子数の構成の場合、通常、1つ
の教師信号に対し、収束のために200回程度の学習を
繰り返し行う必要がある。
This means that not only the number of learnings is increased, but also the point which is not the true state point (the point of minimum error), that is, the probability of falling into the local minimum is high. In order to prevent this, it is necessary to prepare many teacher patterns and repeat learning many times. By the way, Figure 1
In the case of the configuration with the number of neuron elements such as 3, usually, it is necessary to repeatedly perform learning about 200 times for one teacher signal for convergence.

【0016】さらに、各種のプロセスにNNを適用する
に際しどのようなNN構成とすべきかの指針がないの
で、入力層および中間層の適切なニューロン素子数が不
明であること。これは遅延時間にも関連してくる。よっ
て、ニューロン素子数も試行錯誤的に決めなければなら
ない。
Further, since there is no guideline as to what kind of NN structure should be adopted when applying the NN to various processes, it is unclear the appropriate number of neuron elements in the input layer and the intermediate layer. This also relates to the delay time. Therefore, the number of neuron elements must be decided by trial and error.

【0017】本発明は上記実情にかんがみてなされたも
ので、プロセスの性質を把握しながらネットワーク構成
およびNNの結合重み係数の初期値を決定でき、これに
よってプロセス動特性,逆動特性の同定能力を高め得、
より良好で安定した制御特性を確保でき、NNの制御へ
の適用範囲を拡大しうるプロセス動特性学習装置を提供
することを目的とする。
The present invention has been made in view of the above situation, and it is possible to determine the initial values of the network configuration and the coupling weight coefficient of the NN while grasping the characteristics of the process, and thereby the ability to identify the process dynamic characteristics and the reverse dynamic characteristics. Can increase
It is an object of the present invention to provide a process dynamic characteristic learning device capable of ensuring better and stable control characteristics and expanding the range of application to NN control.

【0018】[0018]

【課題を解決するための手段】先ず、請求項1に対応す
る発明は、プロセスが予めy={k/(1+T・s)}
・xの一次遅れによって推定或いは近似される場合、当
該プロセスの動特性をニューラルネットワークを用いて
学習するプロセス動特性学習装置において、
First, in the invention corresponding to claim 1, the process is performed in advance with y = {k / (1 + T · s)}.
In the process dynamic characteristic learning device that learns the dynamic characteristic of the process using a neural network when estimated or approximated by the first-order lag of x,

【0019】[0019]

【数4】 [Equation 4]

【0020】なる△tの計算周期による一次遅れ漸化式
に基づいて前記ニューラルネットワークを構成するとと
もに、前記プロセスの動特性の学習を開始する場合の各
ニューロン素子間の結合重み係数の初期値として前記一
次遅れ漸化式の係数を与えるプロセス動特性学習装置で
ある。なお、上式においてxはプロセス入力、yはプロ
セス出力、kはプロセスゲイン推定値、Tはプロセス時
定数推定値、sはラプラス演算子である。また、サフィ
ックスnは時点n・△tにおける変数を表す。
The neural network is constructed on the basis of the first-order lag recurrence formula based on the calculation period of Δt, and as the initial value of the coupling weight coefficient between the neuron elements when learning the dynamic characteristics of the process is started. It is a process dynamic characteristic learning device that gives the coefficient of the first-order lag recurrence formula. In the above equation, x is a process input, y is a process output, k is a process gain estimated value, T is a process time constant estimated value, and s is a Laplace operator. The suffix n represents a variable at the time point n · Δt.

【0021】次に、請求項2に対応する発明では、プロ
セスが一次遅れ+ムダ時間によって推定或いは近似され
る場合であって、この場合の構成としては請求項1のニ
ューラルネットワークに新たにムダ時間用ニューロン素
子を追加したものである。
Next, in the invention corresponding to claim 2, the process is estimated or approximated by the first-order delay + the dead time, and in this case, the neural network of claim 1 has a new waste time. This is the addition of a neuron element for use.

【0022】さらに、請求項3に対応する発明は、プロ
セスが予めy={k/(T2 ・s2 +2τ・T・s+
1)}・xの二次遅れによって推定或いは近似される場
合、ニューラルネットワークを用いてプロセスの動特性
を学習するが、このときのニューラルネットワークとし
ては、 zn+1 =zn +△z yn+1 =yn +△y △z=(k・xn −2・τ・T・zn −yn )・(△t
/T2 ) △y=zn ・△t
Furthermore, the invention corresponding to claim 3 is a professional
Set y = {k / (T2 ・ S2 + 2τ ・ T ・ s +
1)} · x is estimated or approximated by the secondary delay of x
The dynamics of the process using a neural network
, But with the neural network at this time
Is zn + 1= Zn+ △ z yn + 1= Yn+ △ y Δz = (k · xn-2, τ, T, zn-Yn) ・ (△ t
/ T2 ) △ y = zn・ △ t

【0023】なる△tの計算周期による二次遅れ漸化式
に基づいて構成し、かつ、プロセスの動特性の学習を開
始する場合の各ニューロン素子間の結合重み係数の初期
値として前記二次遅れ漸化式の係数を与えるプロセス動
特性学習装置とすることにある。なお、上式においてτ
はプロセス減衰比である。
The quadratic value is used as the initial value of the connection weighting coefficient between the neuron elements when the learning is performed based on the quadratic delay recurrence formula based on the calculation period of Δt. It is to be a process dynamic characteristic learning device which gives a coefficient of a delay recurrence formula. In the above equation, τ
Is the process damping ratio.

【0024】さらに、請求項4に対応する発明は、プロ
セスが二次遅れ+ムダ時間によって推定或いは近似され
る場合であって、この場合の構成としては請求項3のニ
ューラルネットワークに新たにムダ時間用ニューロン素
子を追加する構成である。さらに、請求項5に対応する
発明は、プロセスが予め二次遅れ或いは一時遅れで推定
或いは近似させる場合に、次式の逆動特性y=k′(1
+T1 ・s+T2 ・s2 )・xを、ニューラルネットワ
ークを用いて学習するプロセス動特性学習装置におい
て、
Further, the invention corresponding to claim 4 is a case where the process is estimated or approximated by a second-order lag + waste time. In this case, the neural network of claim 3 has a new waste time. This is a configuration in which a dedicated neuron element is added. Further, in the invention corresponding to claim 5, when the process is estimated or approximated in advance with a secondary delay or a temporary delay, the inverse dynamic characteristic y = k '(1
+ T 1 · s + T 2 · s 2 ) .X in a process dynamic characteristic learning device for learning using a neural network,

【0025】[0025]

【数5】 [Equation 5]

【0026】なる△tの計算周期による漸化式に基づい
て前記ニューラルネットワークを構成するとともに、前
記プロセスの逆動特性の学習を開始する場合の各ニュー
ロン素子間の結合重み係数の初期値として前記漸化式の
係数を与えるプロセス動特性学習装置の構成である。上
式においてxはプロセス出力、yはプロセス入力、k′
=1/k,kはプロセスゲイン推定値、T1 ,T2はプ
ロセスパラメータ推定値であって、一次遅れの場合には
2 =0、T1 :時定数、二次遅れの場合にはT1 =2
・τ・T、T2 =T2 、sはラプラス演算子である。
The neural network is constructed on the basis of the recurrence formula of the calculation cycle of Δt, and the initial value of the connection weighting coefficient between the neuron elements is set as the initial value when learning the inverse dynamic characteristic of the process is started. 1 is a configuration of a process dynamic characteristic learning device that gives a coefficient of a recurrence formula. In the above equation, x is the process output, y is the process input, k ′
= 1 / k, k is the process gain estimation value, T 1 and T 2 are the process parameter estimation values, and in the case of first-order delay, T 2 = 0, T 1 : time constant, and in the case of second-order delay, T 1 = 2
・ Τ ・ T, T 2 = T 2 , S are Laplace operators.

【0027】さらに、請求項6に対応する発明は、プロ
セスの動特性(逆動特性)が予め△tの計算周期による
漸化式(前記請求項1〜5の漸化式を除く)で近似的に
表せる場合、当該漸化式を用いてニューラルネットワー
クを構成し、かつ、当該漸化式の係数をプロセスの動特
性(逆動特性)の学習を開始する場合の各ニューロン素
子間の結合重み係数の初期値とする構成である。
Further, in the invention corresponding to claim 6, the process dynamic characteristic (reverse dynamic characteristic) is approximated in advance by a recurrence formula (excluding the recurrence formulas of claims 1 to 5) according to a calculation cycle of Δt. If it can be expressed in a similar manner, a neural network is constructed by using the recurrence formula, and the weight of each neuron element when the learning of the dynamic characteristic (reverse dynamic characteristic) of the process is started by using the coefficient of the recursive equation. This is a configuration in which initial values of coefficients are used.

【0028】[0028]

【作用】従って、本発明は以上のような手段を講じたこ
とにより、プロセス制御システムにおけるサンプリング
周期の計算による漸化式に基づいてNNの構成を決定す
る一方、その漸化式の係数を学習開始時の結合重み係数
の初期値とすることにより、NNの各層のニューロン素
子数を前記漸化式から容易に決定でき、しかもランダム
な結合重み係数の初期値から学習を開始するのと異なっ
て最適な収束値に近い結合重み係数の近傍から学習を開
始するので、学習のために与える教師パターンの種類や
学習回数を大幅に減らすことができ、ローカルミニマム
に陥る確率を低くすることができる。
Therefore, by taking the above means, the present invention determines the configuration of the NN based on the recurrence formula by the calculation of the sampling period in the process control system, while learning the coefficient of the recurrence formula. By setting the initial value of the connection weight coefficient at the start, the number of neuron elements in each layer of the NN can be easily determined from the above recurrence formula, and unlike the case where the learning is started from the random initial value of the connection weight coefficient. Since learning is started in the vicinity of the coupling weight coefficient close to the optimum convergence value, the types of teacher patterns to be given for learning and the number of times of learning can be significantly reduced, and the probability of falling into a local minimum can be reduced.

【0029】さらに、漸化式に表れていないニューロン
素子間の結合も付加されているので、(但し、その結合
重みの学習開始時の値は0とおく)、実プロセスと予め
推定した特性との間にある誤差もNNの学習によって補
正することが可能であり、同定能力を高めてプロセスの
動(逆動)特性の同定を良好に行うことができる。すな
わち、冗長性がある。また、このようなNNを制御装置
に組み込むことにより、良好で安定した制御が実現でき
る。
Furthermore, since the connection between the neuron elements which is not expressed in the recurrence formula is also added (however, the value of the connection weight at the start of learning is set to 0), the real process and the pre-estimated characteristic It is also possible to correct the error between the two by learning the NN, and it is possible to enhance the identification ability and to identify the dynamic (reverse) characteristic of the process satisfactorily. That is, there is redundancy. Further, by incorporating such an NN in the control device, good and stable control can be realized.

【0030】[0030]

【実施例】先ず、請求項1,2に係わる発明の一実施例
について図1を参照して説明する。同図において11は
制御対象となるプロセスであって、このプロセス11と
並列的にNN12が設けられている。このNN12は、
プロセス11が一次遅れ+ムダ時間によって推定或いは
近似される場合には後述する計算周期による一次遅れの
漸化式で構成するとともに、各層のニューロン素子への
結合重み係数として漸化式の係数を与えて学習を開始す
る構成となっている。13は誤差演算手段であって、こ
こでは教師信号であるプロセス11の制御量とNN12
の出力とから二乗誤差を求め、かつ、この二乗誤差を極
小化するようにニューロン素子間の結合重み係数を可変
とする機能をもっている。14は遅延手段である。
First, an embodiment of the invention according to claims 1 and 2 will be described with reference to FIG. In the figure, 11 is a process to be controlled, and an NN 12 is provided in parallel with this process 11. This NN12 is
When the process 11 is estimated or approximated by the first-order lag + waste time, it is configured by the recurrence formula of the first-order lag by the calculation period described later, and the coefficient of the recurrence formula is given as the coupling weight coefficient to the neuron element of each layer. It is configured to start learning. Reference numeral 13 denotes an error calculating means, which is a control signal of the process 11 which is a teacher signal and NN12.
It has a function of obtaining a squared error from the output of and the variable connection weight coefficient between the neuron elements so as to minimize the squared error. Reference numeral 14 is a delay means.

【0031】しかして、図1に示すようなNN12は以
下のような根拠に基づいて構成されるものとする。今、
プロセス11が予め下記する(2)式で定める一次遅れ
+ムダ時間で推定或いは近似されるものとする。 y={k/(1+Ts)}e-Ls ・x ……(2)
However, the NN 12 as shown in FIG. 1 is constructed on the basis of the following. now,
It is assumed that the process 11 is estimated or approximated in advance by the first-order delay + waste time defined by the following equation (2). y = {k / (1 + Ts)} e -Ls ・ X …… (2)

【0032】この式においてxはプロセス入力、yはプ
ロセス出力、kはプロセスゲイン、Tはプロセス時定
数、Lはプロセスムダ時間(Lは零でもよい)、sはラ
プラス演算子である。なお、前記(2)式においてムダ
時間がない場合、 y={k/(1+Ts)}x ……(3) で表される。この一次遅れのプロセス11は請求項1に
係わる発明に適用されるものである。さらに、前記
(3)式に基づいて微分方程式を解くと、 T(dy/dt)+y=k・x ……(4) のようになる。
In this equation, x is a process input, y is a process output, k is a process gain, T is a process time constant, L is a process waste time (L may be zero), and s is a Laplace operator. When there is no dead time in the equation (2), it is represented by y = {k / (1 + Ts)} x (3). This first-order lag process 11 is applied to the invention according to claim 1. Further, when the differential equation is solved based on the equation (3), T (dy / dt) + y = k · x (4)

【0033】そこで、この(4)式をサンプリング計算
周期△tによる漸化式で求めてみる。今、計算周期△t
間の出力変化量を△yとすると、前記(4)式は下記す
る(5)式に置換できる。 T(△y/△t)+yn =k・xn ……(5) ここで、サフィックスnは時点n・△tにおける変数で
ある。さらに、(5)式を変形して△yを求めると、 △y=(△t/T)・(k・xn −yn ) ……(6) となる。ここで、この(6)式に yn+1 =yn +△y ……(7) なる関係式を代入すれば、次のような漸化式が得られ
る。 yn+1 =yn +(△t/T)・(k・xn −yn ) ……(8) さらに、計算周期△tごとに(8)式を用いて計算を繰
り返して解を求めていく。従って、(8)式の漸化式は
下記のような式に分解できる。
Therefore, the equation (4) will be obtained by a recurrence equation based on the sampling calculation period Δt. Now, the calculation cycle Δt
When the output change amount is Δy, the above equation (4) can be replaced with the following equation (5). T (Δy / Δt) + y n = k · x n (5) Here, the suffix n is a variable at the time point n · Δt. Further, when the equation (5) is modified to obtain Δy, Δy = (Δt / T) · (k · x n −y n ) ... (6) Here, by substituting the relational expression of y n + 1 = y n + Δy (7) into the equation (6), the following recurrence equation is obtained. y n + 1 = y n + (Δt / T) · (k · x n −y n ) ... (8) Furthermore, the calculation is repeated for each calculation period Δt using the formula (8) to obtain a solution. To seek. Therefore, the recurrence formula of the formula (8) can be decomposed into the following formula.

【0034】[0034]

【数6】 [Equation 6]

【0035】そこで、以上のような一次遅れ漸化式が得
られたならば、この漸化式に基づいてNN12の構成を
具現化する。図1の構成例はプロセス11のムダ時間L
がほぼ2△tと事前に推定されている場合、入力層のニ
ューロン素子a1 〜a3 の間に挿入されている2つの遅
延器がこのムダ時間2△t用のものである。さらに、前
記(9)式から明らかなように現在時刻のNN出力y
n+1 の計算式の中に、xの履歴値以外に出力yの履歴値
も含まれていることから、出力層の出力がフィードバッ
クライン15を介して△tの遅延手段14,14で遅延
した後NN12の入力側に入力する構成となる。
Therefore, if the above first-order lag recurrence formula is obtained, the configuration of the NN 12 is embodied based on this recurrence formula. In the configuration example of FIG. 1, the waste time L of the process 11 is
Is estimated to be approximately 2Δt, the two delay elements inserted between the neuron elements a 1 to a 3 in the input layer are for this dead time 2Δt. Further, as is clear from the equation (9), the NN output y at the current time is
Since the n + 1 calculation expression includes the history value of the output y in addition to the history value of the x, the output of the output layer is delayed by the delay means 14 and 14 of Δt via the feedback line 15. After that, the data is input to the input side of the NN 12.

【0036】そして、バックプロパゲーション法による
プロセス同定の学習を行う場合、各ニューロン素子間の
結合重み係数の初期値は(9)式最後段の式から下記の
ような値,つまり一次遅れ漸化式の係数を与えるものと
する。 w11 21=0 、w11 32=0 w22 21=0 、w12 32=0 w33 21=(△t/T)k 、w13 32=1 w44 21=(1−△t/T)・(△t/T)・k 、w14 32=1 w55 21=(1−△t/T)2 ・(△t/T)・k、w15 32=1 w66 21=(1−△t/T)3 、w16 32=1
When learning the process identification by the back propagation method, the initial value of the coupling weight coefficient between the neuron elements is the following value from the equation in the last stage of equation (9), that is, the first-order delay recurrence. The coefficients of the equation shall be given. w 11 21 = 0, w 11 32 = 0 w 22 21 = 0, w 12 32 = 0 w 33 21 = (Δt / T) k, w 13 32 = 1 w 44 21 = (1-Δt / T ) · (Δt / T) · k, w 14 32 = 1 w 55 21 = (1−Δt / T) 2 ・ (Δt / T) ・ k, w 15 32 = 1 w 66 21 = (1-Δt / T) 3 , W 16 32 = 1

【0037】なお、入力層の各ニューロン素子と中間層
の各ニューロン素子の間の相互の接合は図1で示されて
いる以外にもすべて接合されているが、これらの初期値
の結合重み係数が零として与えるために、結合線は省略
してある。
Note that the mutual connection between each neuron element in the input layer and each neuron element in the intermediate layer is not limited to that shown in FIG. 1, but the connection weight coefficient of these initial values is used. The bond line is omitted because the value is given as zero.

【0038】さらに、請求項1に係わる発明の具体例お
よびその応答特性について図2ないし図7を参照して説
明する。先ず、図2はプロセス動特性学習装置の具体例
を示す構成図である。この学習装置は、適用対象となる
プロセス11がムダ時間なしで、かつ、 {1/(1+20・s)} ……(10)
Further, a concrete example of the invention according to claim 1 and its response characteristic will be described with reference to FIGS. First, FIG. 2 is a configuration diagram showing a specific example of the process dynamic characteristic learning device. In this learning device, the process 11 to be applied has no dead time, and {1 / (1 + 20 · s)} (10)

【0039】で表す一次遅れのみの系とする。一方、N
N12の構成は、図1よりもニューロン素子数を減ら
し、例えば入力層が3個のニューロン素子、中間層が3
個のニューロン素子、出力層が1個のニューロン素子か
らなっている。これは前記(9)式に基づいて、
A system with only a first-order delay represented by On the other hand, N
The configuration of N12 has a smaller number of neuron elements than that of FIG. 1, and for example, the input layer has three neuron elements and the intermediate layer has three.
Each neuron element, and the output layer consists of one neuron element. This is based on the above equation (9),

【0040】[0040]

【数7】 [Equation 7]

【0041】の分解式を採用した場合である。そして、
前記(10)式で表すプロセス11について学習する場
合には次の手順で行う。今、(10)式で表すプロセス
11の推定伝達関数としては、予め {1/(1+50・s)} ……(12) と仮定し、前記(11)式から図2の結合重み係数の初
期値は下記のような値となる。なお、△tとして1se
cを用いた。 w11 21=(△t/T)k=1/50 、w11 32=1 w22 21={1−(△t/T)}・(△t/T)・k ={1−(1/50)}・(1/50) 、w12 32=1 w33 21={1−(△t/T)}2 ={1−(1/50)}2 、w13 32=1 その他の結合重み係数の初期値はすべて零とする。
This is the case when the decomposition formula of is adopted. And
When learning the process 11 represented by the equation (10), the following procedure is performed. Now, assuming that the estimated transfer function of the process 11 represented by the equation (10) is {1 / (1 + 50 · s)} (12) in advance, the initial weighting coefficient of FIG. The values are as follows. In addition, 1t is set as Δt
c was used. w 11 21 = (Δt / T) k = 1/50, w 11 32 = 1 w 22 21 = {1- (Δt / T)} · (Δt / T) · k = {1- (1 / 50)} · (1/50) , w 12 32 = 1 w 33 21 = {1- (△ t / T)} 2 = {1- (1/50)} 2 , W 13 32 = 1 The initial values of the other coupling weight coefficients are all zero.

【0042】次に、以上のようにして実現した学習装置
について実際にNN12に信号を入れてその応答特性を
見てみる。なお、図3,図4は学習の段階の応答特性で
ある。先ず、図3ではプロセス11およびNN12に
0.5レベルステップの信号を入力したとする。なお、
同図(a)はプロセス11の入・出力応答特性を示し、
同図(b)はNN12の学習前の入・出力応答特性を示
す。これは(12)式の応答特性を計算周期△t=1s
ecの精度で近似計算したものに相当する。なお、シグ
モイド関数は、
Next, let's look at the response characteristics of the learning device realized as described above by actually inserting a signal into the NN 12. 3 and 4 are response characteristics at the learning stage. First, in FIG. 3, it is assumed that signals of 0.5 level steps are input to the process 11 and the NN 12. In addition,
FIG. 7A shows the input / output response characteristics of process 11,
FIG. 7B shows input / output response characteristics of the NN 12 before learning. This is the calculation cycle Δt = 1s for the response characteristic of equation (12).
This corresponds to an approximate calculation with the accuracy of ec. The sigmoid function is

【0043】[0043]

【数8】 を用いた。また、学習方法はバックプロパゲーション学
習則を用い、次の2段階に従って学習するものとする。
(I) 図3に示す操作量MVをプロセス11およびN
N12に入力して繰り返し50回学習させる。(II)
次に、(I)の学習によって得られた結合重み係数を初
期値として図4に示す正弦波入力、すなわち 0.5sin{(2π/40)・t} ……(14)
[Equation 8] Was used. The learning method uses a back propagation learning rule, and learning is performed according to the following two stages.
(I) The manipulated variable MV shown in FIG.
Input to N12 and learn 50 times repeatedly. (II)
Next, the sine wave input shown in FIG. 4 is used as an initial value with the coupling weight coefficient obtained by learning of (I), that is, 0.5 sin {(2π / 40) · t} (14)

【0044】をプロセス11およびNN12に入力し、
(I)と同様にバックプロパゲーションを用いて50回
学習させる。なお、図4(a)は図3(a)と同様にプ
ロセス11の応答特性、図4(b)は(11)式の係数
をNN12の結合重み係数として与えた場合,すなわち
(12)式の応答特性を示す。
To process 11 and NN12,
As in (I), the learning is performed 50 times using back propagation. 4 (a) is the response characteristic of the process 11 as in FIG. 3 (a), and FIG. 4 (b) is the case where the coefficient of equation (11) is given as the coupling weight coefficient of NN12, that is, equation (12). Shows the response characteristics of.

【0045】その結果、前記(II)の学習結果の重み
を、NN12の結合重み係数として与えたとき、図5〜
図7のような応答特性が得られた。なお、これら図の
(a)はプロセス11の入・出力応答特性、(b)はN
N12の入・出力応答特性である。つまり、図5は0.
5レベルステップ、図6は正弦波を入力したとき、プロ
セス11およびNN12′から共に等しく、かつ、迅速
に収束する応答特性が得られ、また、図7は1.0レベ
ルステップの信号を入力した例であるが、この場合も
1.0レベルステップについては全く学習しなかったに
も拘らず、図5,図6と同様に正しい応答が得られてい
る。
As a result, when the weight of the learning result of (II) is given as the coupling weight coefficient of the NN 12,
The response characteristics as shown in FIG. 7 were obtained. In addition, (a) of these figures is the input / output response characteristic of the process 11, and (b) is N.
It is the input / output response characteristic of N12. That is, FIG.
5 level steps, FIG. 6 shows that when a sine wave is input, process 11 and NN 12 ′ both have equal and rapidly converging response characteristics, and FIG. 7 inputs a 1.0 level step signal. As an example, even in this case, the correct response is obtained as in FIGS. 5 and 6, although the 1.0 level step is not learned at all.

【0046】一方、従来のようにNNにランダムな結合
重み係数を与えて学習した場合はどうか。先ず、NNの
入力層の必要素子数について検討する。ステップ入力が
△tの瞬間のみ変化するだけであってその後は一定であ
るため、△tが1sec、かつ、プロセスの時定数(前
記(10)式参照)が20secであるので、入力層の
素子数は20個以上必要となる。なぜならば、通常はN
Nにフィードバック入力がないので、NNの入力層の各
素子に同じ入力が入ってくると、NNの出力も一定にな
ってしまうためである。
On the other hand, what about the case where learning is performed by giving a random connection weighting coefficient to the NN as in the conventional case? First, the required number of elements in the NN input layer will be examined. Since the step input changes only at the moment of Δt and is constant thereafter, Δt is 1 sec and the process time constant (see the above equation (10)) is 20 sec. 20 or more are required. Because usually N
This is because N does not have a feedback input, and therefore, if the same input is input to each element of the input layer of NN, the output of NN also becomes constant.

【0047】さらに、入力層の素子数が20個以上とな
れば、それに応じて中間層の素子数も当然増やさなけれ
ばならない。こうなると、益々多くの厄介な問題が出て
くる。例えば結合重み係数の爆発的な増大による計算時
間、学習回数の増大などが上げられる。
Furthermore, if the number of elements in the input layer is 20 or more, the number of elements in the intermediate layer must be increased accordingly. When this happens, many more complications arise. For example, the calculation time and the number of learning increases due to the explosive increase of the coupling weight coefficient.

【0048】その点、本装置では、一次遅れ漸化式から
容易に素子数を見つけ出せるので、その素子数を必要最
小限にしてNNを構成でき、しかも素子どうしの結合重
み係数の初期値も漸化式から決定して与えるので、非常
に少ない学習回数でプロセス11を同定できる。次に、
請求項3,4に係わる発明の一実施例について説明す
る。この実施例装置は、プロセスが予め y={k/(T2 ・s2 +2τ・T・s+1)}e-Ls ・x…(15)
In this respect, since the number of elements can be easily found from the first-order lag recurrence formula in the present apparatus, the number of elements can be minimized to construct the NN, and moreover, the initial value of the coupling weighting coefficient between the elements is also gradually increased. Since it is determined and given from the chemical formula, the process 11 can be identified with a very small number of learnings. next,
An embodiment of the invention according to claims 3 and 4 will be described. In the device of this embodiment, the process is performed by y = {k / (T 2 ・ S 2 + 2τ ・ T ・ s + 1)} e -Ls ・ X… (15)

【0049】の二次遅れ+ムダ時間で推定或いは近似さ
れる場合、このプロセスについてNNを用いて同定する
ことにあり、具体的には図8に示すようなNN12の構
成を採用する。なお、(15)式においてkはプロセス
ゲイン、Tはプロセスパラメータ(時定数的なもの)、
τはプロセス減衰比である。但し、(15)式において
ムダ時間L=0の場合には、 y={k/(T2 ・s2 +2τ・T・s+1)}・x ……(16) で表される。
When it is estimated or approximated by the second-order lag + waste time, this process is identified by using NN, and specifically, the configuration of NN12 as shown in FIG. 8 is adopted. In the equation (15), k is a process gain, T is a process parameter (time constant),
τ is the process damping ratio. However, when the dead time L = 0 in the equation (15), y = {k / (T 2 ・ S 2 + 2τ · T · s + 1)} · x (16)

【0050】従って、以下、ムダ時間L=0の場合につ
いて説明するが、L≠0の場合には図1と同様にLの推
定値の大きさに応じてムダ時間用ニューロン素子(例え
ば図1のa1 ,a2 )を適当に追加すればよい。先ず、
前記(16)式を微分方程式で解くと、 T2 (d2 y/dt2 )+2τ・T(dy/dt)+y=kx…(17) となり、ここで、 z=dy/dt ……(18) とおくと、 T2 (dz/dt)+2τ・T・z+y=kx ……(19) となる式に置換できる。さらに、(19)式を、微小量
△z、△y、△tなどを用いて変形すると、 △z=(kxn −2τ・T・zn −yn )△t/T2 ……(20) △y=zn ・△t ……(21) が得られ、さらに zn+1 =zn +△z ……(22) yn+1 =yn +△y ……(23)
Therefore, the case of the dead time L = 0 will be described below. However, when L ≠ 0, the neuron element for the dead time (for example, FIG. 1) is used in accordance with the magnitude of the estimated value of L as in FIG. A 1 , a 2 ) of the above may be appropriately added. First,
Solving equation (16) with a differential equation gives T 2 (D 2 y / dt 2 ) + 2τ · T (dy / dt) + y = kx (17), where z = dy / dt (18) gives T 2 (Dz / dt) + 2τ · T · z + y = kx (19) can be substituted. Further, when the equation (19) is modified by using minute amounts Δz, Δy, Δt, etc., Δz = (kx n −2τ · T · z n −y n ) Δt / T 2 (20) Δy = z n · Δt (21) is obtained, and further, z n + 1 = z n + Δz (22) y n + 1 = y n + Δy (23)

【0051】なる関係にある。そこで、これら(20)
式〜(23)式からなる二次遅れ漸化式を用いてNNを
構成し、かつ、前述した一次遅れと同様に繰り返し計算
をすれば、yが得られる。
There is a relationship of So, these (20)
If the NN is constructed using the second-order lag recurrence formula consisting of the formulas (23), and y is repeatedly calculated in the same manner as the first-order lag described above, y is obtained.

【0052】従って、図8に示す学習装置は前記(2
0)式〜(23)式に基づいて構成したものである。そ
して、この学習装置を用いてプロセス同定の学習を行う
場合、各ニューロン素子どうしの結合重み係数の初期値
には下記するように前記二次遅れ漸化式の係数を与える
ものとする。 w11 21=k・△t/T2 、 w21 32=1 w22 21=1 、 w12 32=1 w32 21=−(△t/T2 ) 、 w23 32=1 w43 21=−(2τ・T・△t/T2 )、 w24 32=1 w53 21=1 、 w25 32=1 w15 32=△t
Therefore, the learning device shown in FIG.
It is configured based on the equations (0) to (23). When learning for process identification is performed using this learning device, the initial value of the connection weighting coefficient between the neuron elements is given by the coefficient of the second-order lag recurrence formula as described below. w 11 21 = k · Δt / T 2 , W 21 32 = 1 w 22 21 = 1, w 12 32 = 1 w 32 21 = − (Δt / T 2 ), W 23 32 = 1 w 43 21 =-(2τ · T · Δt / T 2 ), W 24 32 = 1 w 53 21 = 1, w 25 32 = 1 w 15 32 = Δt

【0053】その他の結合重み係数の初期値はすべて零
とする。また、入力層と中間層、中間層と出力層とのニ
ューロン素子間の結合は、図に示す以外にもすべて結合
されているが、初期値の重みを零として与えるものは結
合線を省略してある。また、ムダ時間がある場合には入
力層の素子数を適当に増やし、かつ、入力xn を図1と
同様に遅延すればよい。また、出力層c1 出力の学習用
教師信号にはプロセス11の出力である制御量を用い、
出力層c2 出力の学習用教師信号には微分手段16を設
けて制御量の微分△PV/△tを用いる。
The initial values of the other coupling weight coefficients are all zero. The connections between the neuron elements of the input layer and the intermediate layer, and between the intermediate layer and the output layer are all connected in addition to those shown in the figure, but those that give initial weights as zero omit the connecting line. There is. If there is a dead time, the number of elements in the input layer may be appropriately increased, and the input x n may be delayed as in FIG. Further, the control amount which is the output of the process 11 is used for the learning teacher signal of the output layer c 1 output,
Differentiating means 16 is provided for the learning teacher signal of the output layer c 2 and the differential ΔPV / Δt of the control amount is used.

【0054】次に、請求項5に係わる発明の実施例につ
いて説明する。この実施例装置は、プロセスが予め二次
遅れ或いは一次遅れで推定或いは近似される場合、その
逆動特性をNNを用いて同定するものである。今、逆動
特性の伝達関数を、 y=k′(1+T1 ・s+T2 2 )・x ……(24) で表すものとする。但し、k′=1/k、kはプロセス
ゲインである。なお、以下の説明においてプロセスが一
次遅れの場合にはT2 =0とおけばよい。そして、この
(24)式について微分方程式を解くと、 y=k′x+k′T1 (dx/dt) +k′T2 (d2 x/dt2 ) ……(25) となる。そこで、この(25)式において△tの計算周
期とサフィックスnを用いた式に書き換えると、
Next, an embodiment of the invention according to claim 5 will be described. In this embodiment, when the process is estimated or approximated by a second-order lag or a first-order lag in advance, its inverse dynamic characteristic is identified using NN. Now, the transfer function of the reverse dynamic characteristic is expressed as y = k ′ (1 + T 1 s + T 2 s 2 ) .X ... (24) However, k '= 1 / k, and k is a process gain. In the following description, if the process is a first-order delay, T 2 = 0 may be set. Then, when the differential equation is solved for the equation (24), y = k'x + k'T 1 (dx / dt) + k'T 2 (d 2 x / dt 2 ) …… (25) Therefore, if this equation (25) is rewritten into an equation using the calculation cycle of Δt and the suffix n,

【0055】[0055]

【数9】 なる漸化式が得られる。[Equation 9] The following recurrence formula is obtained.

【0056】図9はかかる漸化式を用いた学習装置の構
成図である。この装置は逆動特性の同定を学習する観点
から、プロセス11の制御量がNN12に入力され、操
作量がNN12の教師信号として与えられる。また、点
線枠部分はプロセス11が二次遅れ或いは一次遅れから
ずれている場合などの補正用としてニューロン素子を追
加したものであり、補正を必要としない場合には当該点
線枠部分はなくてもよい。
FIG. 9 is a block diagram of a learning device using such a recurrence formula. In this apparatus, from the viewpoint of learning the identification of the reverse dynamic characteristic, the control amount of the process 11 is input to the NN 12, and the operation amount is given as a teacher signal of the NN 12. Further, the dotted line frame portion is a neuron element added for correction when the process 11 is deviated from the second-order lag or the first-order lag, and if the correction is not required, the dotted line frame portion may be omitted. Good.

【0057】この学習装置を用いてプロセス同定の学習
を行う場合、各ニューロン素子どうしの結合重み係数の
初期値には(26)式に示す漸化式の係数を与えるもの
である。 w11 21=k′+(k′T1 /△t)+(k′T2 /△t2 ) 、w11 32=1 w22 21=−{(k′T1 /△t)+(2k′T2 /△t2 )}、w12 32=1 w33 21=(k′T2 /△t2 ) 、w13 32=1
When learning for process identification is performed using this learning device, the coefficient of the recurrence formula shown in the formula (26) is given to the initial value of the coupling weight coefficient of each neuron element. w 11 21 = k '+ (k'T 1 / Δt) + (k'T 2 / Δt 2 ), W 11 32 = 1 w 22 21 = − {(k′T 1 / Δt) + (2k′T 2 / Δt 2 )}, W 12 32 = 1 w 33 21 = (k′T 2 / Δt 2 ), W 13 32 = 1

【0058】その他の結合重み係数の初期値はすべて零
とする。また、入力層と中間層のニューロン素子間の結
合は図9に示す以外にもすべて結合されているが、初期
値の重みを0として与えるため、それらの接合線は省略
してある。
The initial values of the other coupling weight coefficients are all zero. In addition, all the connections between the neuron elements in the input layer and the intermediate layer are connected in addition to those shown in FIG. 9. However, since the weight of the initial value is given as 0, their connecting lines are omitted.

【0059】従って、この実施例の構成においても、漸
化式から容易に素子数を見つけ出せるので、その素子数
を必要最小限にしてNNを構成でき、しかも素子どうし
の結合重み係数の初期値も漸化式から決定して与えるの
で、非常に少ない学習回数でプロセス11の同定を行う
ことができる。
Therefore, also in the configuration of this embodiment, since the number of elements can be easily found from the recurrence formula, the number of elements can be minimized to construct the NN, and the initial value of the coupling weight coefficient between the elements is also set. Since it is determined and given from the recurrence formula, the process 11 can be identified with a very small number of learnings.

【0060】なお、本発明は上記実施例に限定されるも
のではない。すなわち、図1,図2,図8,図9等で
は、プロセスが一次遅れ或いは二次遅れで近似され、或
いはそれにムダ時間を含む場合であって、その動特性或
いは逆動特性をNNを用いて同定する例であるが、プロ
セスの動特性が入・出力の過去のデータ列およびそれら
微分による漸化式で表されるものであれば、容易に適用
できることは明らかである。
The present invention is not limited to the above embodiment. That is, in FIG. 1, FIG. 2, FIG. 8, FIG. 9, etc., when the process is approximated by a first-order lag or a second-order lag, or a waste time is included therein, its dynamic characteristic or reverse dynamic characteristic is NN. However, if the dynamic characteristics of the process are represented by a past input / output data string and a recurrence formula based on their differentiation, it is obvious that the process can be easily applied.

【0061】また、図1に示す中間層はそのニューロン
素子数を減らし、例えばb1 とb2,b3 とb4 ,b5
とb6 をそれぞれまとめて3個とすることもできる。ま
た、フィードバック入力として、図1では(9)式の最
後の式に基づいてyn-2 のみを採用しているが、補正入
力として例えば図10に示すようにyn、yn-1 、つまり
補正用ニューロン素子a7 、a8 を追加してもよい。こ
れらの追加した補正用ニューロン素子a7、a8 の結合
重み係数は0としておく。
In the intermediate layer shown in FIG. 1, the number of neuron elements is reduced to, for example, b 1 and b 2 , b 3 and b 4 , b 5.
It is also possible to combine b 6 and b 6 into three. Further, although only y n-2 is adopted as the feedback input based on the last formula of the formula (9) in FIG. 1, as the correction input, for example, as shown in FIG. 10, y n , y n-1 , That is, the correction neuron elements a 7 and a 8 may be added. The coupling weight coefficient of these added correction neuron elements a 7 and a 8 is set to 0.

【0062】さらに、図1の装置では、ムダ時間の推定
近似値Lが2△tの場合について示したが、ムダ時間が
大きくなればなるほどムダ時間用入力層ニューロン素子
が増えてくる。例えば20△tの場合にはムダ時間用入
力層ニューロン素子だけで20個必要となる。そこで、
このような場合にはムダ時間用入力層ニューロン素子へ
の遅延時間(図1におけるa1 とa2 、a2 とa3 )の
み、他の遅延時間よりも大きくすることにより、ムダ時
間用ニューロン素子を減らすことができる。
Further, the apparatus of FIG. 1 shows the case where the estimated approximate value L of the dead time is 2Δt, but the larger the dead time, the more the waste time input layer neuron elements. For example, in the case of 20Δt, 20 are required for the input layer neuron elements for waste time only. Therefore,
In such a case, only the delay time (a 1 and a 2 , a 2 and a 3 in FIG. 1) to the waste time input layer neuron element is made larger than the other delay times, so that the waste time neuron The number of elements can be reduced.

【0063】一方、ニューロン素子の個数を増やすこと
により、推定からのずれの補正効果を高めることができ
る。例えば図8の装置では、(20)式〜(23)式の
漸化式に基づいてニューロン素子の数を少なくして構成
したが、この漸化式をさらに以前の時刻{(n−1)△
t,(n−2)△t,…}まで分解し、これに伴ってニ
ューロン素子の個数を増やすことにより、予め推定した
特性からのずれを良好に補正して学習させることもでき
る。その他、本発明はその要旨を逸脱しない範囲で種々
変形して実施できる。
On the other hand, the effect of correcting the deviation from the estimation can be enhanced by increasing the number of neuron elements. For example, in the apparatus of FIG. 8, the number of neuron elements is reduced based on the recurrence formulas of formulas (20) to (23). △
By decomposing up to t, (n−2) Δt, ...} And increasing the number of neuron elements accordingly, it is possible to satisfactorily correct the deviation from the pre-estimated characteristic and perform learning. In addition, the present invention can be modified in various ways without departing from the scope of the invention.

【0064】[0064]

【発明の効果】以上説明したように本発明によれば、プ
ロセスの状況を事前に把握しつつ、プロセス同定の漸化
式からある程度のNNの構成を決定するとともに、当該
漸化式の係数に基づいてそのNNの構成の結合重み係数
の初期値を与えるようにしたので、プロセスを同定する
学習能力とスピードとを大幅に向上でき、よって制御性
能を高めることができ、しかも各種制御システムへのN
Nの適用範囲の拡大を図ることができる。
As described above, according to the present invention, while grasping the state of the process in advance, the composition of the NN is determined to some extent from the recurrence formula of process identification, and the coefficient of the recurrence formula is determined. Since the initial value of the coupling weight coefficient of the NN configuration is given based on the above, the learning ability and speed for identifying the process can be greatly improved, and thus the control performance can be improved, and moreover, various control systems can be provided. N
The applicable range of N can be expanded.

【図面の簡単な説明】[Brief description of drawings]

【図1】 請求項1,2に係わる発明の一実施例とし
て、プロセスが一次遅れ+ムダ時間で近似される場合の
装置の構成図。
FIG. 1 is a configuration diagram of an apparatus when a process is approximated by a first-order delay + a waste time, as an embodiment of the invention according to claims 1 and 2.

【図2】 プロセスが一次遅れで近似される場合の装置
の具体的な構成図。
FIG. 2 is a specific configuration diagram of an apparatus when a process is approximated by a first-order delay.

【図3】 本発明装置を実際のプロセスに適用して学習
させたときの応答特性図。
FIG. 3 is a response characteristic diagram when the device of the present invention is applied to an actual process for learning.

【図4】 同じく本発明装置を実際のプロセスに適用し
て学習させたときの応答特性図。
FIG. 4 is a response characteristic diagram when the device of the present invention is similarly applied to an actual process for learning.

【図5】 同じく本発明装置を実際のプロセスに適用し
て学習させたときの応答特性図。
FIG. 5 is a response characteristic diagram when the device of the present invention is similarly applied to an actual process for learning.

【図6】 同じく本発明装置を実際のプロセスに適用し
て学習させたときの応答特性図。
FIG. 6 is a response characteristic diagram when the device of the present invention is also applied to an actual process for learning.

【図7】 同じく本発明装置を実際のプロセスに適用し
て学習させたときの応答特性図。
FIG. 7 is a response characteristic diagram when the device of the present invention is also applied to an actual process for learning.

【図8】 請求項3,4に係わる発明の一実施例とし
て、プロセスが二次遅れで近似される場合の装置の構成
図。
FIG. 8 is a block diagram of an apparatus when a process is approximated by a second-order delay as an embodiment of the invention according to claims 3 and 4.

【図9】 請求項5に係わる発明の一実施例として、プ
ロセスが二次遅れ或いは一次遅れで近似される場合であ
って、かつ、その逆動特性を同定する学習装置の構成
図。
FIG. 9 is a block diagram of a learning device for identifying a reverse dynamic characteristic when a process is approximated by a second-order lag or a first-order lag, as an embodiment of the invention according to claim 5;

【図10】 本発明装置の他の実施例を説明する構成
図。
FIG. 10 is a configuration diagram illustrating another embodiment of the device of the present invention.

【図11】 従来の一般的な階層型NNを示す構成図。FIG. 11 is a configuration diagram showing a conventional general hierarchical NN.

【図12】 バックプロパゲーション学習則を説明する
図。
FIG. 12 is a diagram illustrating a back propagation learning rule.

【図13】 時系列処理を行う従来のNNの構成図。FIG. 13 is a configuration diagram of a conventional NN that performs time series processing.

【図14】 従来および本発明装置におけるNNの制御
への具体的な応用例を説明する図。
FIG. 14 is a view for explaining a concrete application example of NN control in a conventional device and the device of the present invention.

【図15】 同じく従来および本発明装置におけるNN
の制御への具体的な応用例を説明する図。
FIG. 15 is also a NN in the conventional device and the device of the present invention.
FIG. 6 is a diagram illustrating a specific application example of the control of FIG.

【図16】 同じく従来および本発明装置におけるNN
の制御への具体的な応用例を説明する図。
FIG. 16 is also a NN in the conventional device and the device of the present invention.
FIG. 6 is a diagram illustrating a specific application example of the control of FIG.

【符号の説明】[Explanation of symbols]

11…プロセス(制御対象)、12…NN(ニューラル
ネットワーク)、13、13a…誤差演算手段、14…
遅延手段、16…微分手段。
11 ... Process (control target), 12 ... NN (neural network), 13, 13a ... Error calculation means, 14 ...
Delay means, 16 ... Differentiation means.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 プロセスが予めy={k/(1+T・
s)}・xの一次遅れによって推定或いは近似される場
合、当該プロセスの動特性をニューラルネットワークを
用いて学習するプロセス動特性学習装置において、 下記する△tの計算周期による一次遅れ漸化式 【数1】 に基づいて前記ニューラルネットワークを構成するとと
もに、前記プロセスの動特性の学習を開始する場合の各
ニューロン素子間の結合重み係数の初期値として前記一
次遅れ漸化式の係数を与えることを特徴とするプロセス
動特性学習装置。なお、上式においてxはプロセス入
力、yはプロセス出力、kはプロセスゲイン推定値、T
はプロセス時定数推定値、sはラプラス演算子である。
また、サフィックスnは時点n・△tにおける変数を表
す。
1. A process in which y = {k / (1 + T ·
s)} · x is estimated or approximated by a first-order lag, in a process dynamic-characteristic learning device that learns the dynamic characteristics of the process using a neural network, the following first-order lag recurrence formula with a calculation cycle of Δt Number 1] The neural network is configured based on the above, and the coefficient of the first-order lag recurrence formula is given as an initial value of the coupling weight coefficient between the neuron elements when learning the dynamic characteristics of the process is started. Process dynamics learning device. In the above equation, x is a process input, y is a process output, k is a process gain estimated value, T
Is the process time constant estimate and s is the Laplace operator.
The suffix n represents a variable at the time point n · Δt.
【請求項2】 プロセスが予めy={k/(1+T・
s)}e-Ls ・xの一次遅れ+ムダ時間によって推定或
いは近似される場合、当該プロセスの動特性をニューラ
ルネットワークを用いて学習するプロセス動特性学習装
置において、前記△tの計算周期による一次遅れ漸化式
に基づいて前記ニューラルネットワークを構成するとと
もに、前記プロセスの動特性の学習を開始する場合の各
ニューロン素子間の結合重み係数の初期値として前記一
次遅れ漸化式の係数を与え、かつ、前記ニューラルネッ
トワークにムダ時間用ニューロン素子を設けたことを特
徴とするプロセス動特性学習装置。但し、上式において
xはプロセス入力、yはプロセス出力、kはプロセスゲ
イン推定値、Tはプロセス時定数推定値、sはラプラス
演算子、Lはプロセスムダ時間。
2. A process in which y = {k / (1 + T ·
s)} e-Ls ・ Estimated by first order delay of x + waste time or
Or approximate the dynamics of the process.
Process dynamics learning device that learns using a virtual network
, The first-order lag recurrence formula according to the calculation period of Δt
When the neural network is constructed based on
At the same time, when starting learning the dynamics of the process,
As the initial value of the coupling weight coefficient between neuron elements,
The coefficient of the second-order lag recurrence formula is given, and the neural network
A special feature is that a dead time neuron element is provided in the network.
A device for learning process dynamic characteristics. However, in the above formula
x is process input, y is process output, k is process
In estimate, T is process time constant estimate, s is Laplace
Operator, L is process waste time.
【請求項3】 プロセスが予めy={k/(T2 ・s2
+2τ・T・s+1)}・xの二次遅れによって推定或
いは近似される場合、当該プロセスの動特性をニューラ
ルネットワークを用いて学習するプロセス動特性学習装
置において、 下記する△tの計算周期による二次遅れ漸化式 zn+1 =zn +△z yn+1 =yn +△y △z=(k・xn −2・τ・T・zn −yn )・(△t
/T2 ) △y=zn ・△t に基づいて前記ニューラルネットワークを構成するとと
もに、前記プロセスの動特性の学習を開始する場合の各
ニューロン素子間の結合重み係数の初期値として前記二
次遅れ漸化式の係数を与えることを特徴とするプロセス
動特性学習装置。上式においてxはプロセス入力、yは
プロセス出力、kはプロセスゲイン推定値、Tはプロセ
スパラメータ推定値、τはプロセス減衰比推定値、sは
ラプラス演算子である。また、サフィックスnは時点n
・△tにおける変数を表す。
3. The process is performed by y = {k / (T 2 ・ S 2
+ 2τ · T · s + 1)} · x, the process dynamic characteristic learning device that learns the dynamic characteristic of the process using a neural network can calculate Next-lag recurrence formula z n + 1 = z n + Δz y n + 1 = y n + Δy Δz = (k · x n −2 · τ · T · z n −y n ) · (Δt
/ T 2 ) The neural network is constructed based on Δy = z n · Δt, and the second-order lag recurrence is used as an initial value of a connection weighting coefficient between the neuron elements when learning the dynamic characteristics of the process is started. A process dynamic characteristic learning device characterized by giving a coefficient of an equation. In the above equation, x is a process input, y is a process output, k is a process gain estimated value, T is a process parameter estimated value, τ is a process damping ratio estimated value, and s is a Laplace operator. The suffix n is the time point n
・ Indicates the variable in Δt.
【請求項4】 プロセスが予めy={k/(T2 ・s2
+2τ・T・s+1)}e-Ls ・xの二次遅れ+ムダ時
間によって推定或いは近似される場合、当該プロセスの
動特性をニューラルネットワークを用いて学習するプロ
セス動特性学習装置において、 前記△tの計算周期による二次遅れ漸化式に基づいて前
記ニューラルネットワークを構成するとともに、前記プ
ロセスの動特性の学習を開始する場合の各ニューロン素
子間の結合重み係数の初期値として前記二次遅れ漸化式
の係数を与え、かつ、前記ニューラルネットワークにム
ダ時間用ニューロン素子を設けたことを特徴とするプロ
セス動特性学習装置。上式においてxはプロセス入力、
yはプロセス出力、kはプロセスゲイン推定値、Tはプ
ロセスパラメータ推定値、τはプロセス減衰比推定値、
sはラプラス演算子、Lはプロセスムダ時間である。
4. The process is performed with y = {k / (T 2 ・ S 2
+ 2τ ・ T ・ s + 1)} e -Ls In a process dynamic characteristic learning device that learns the dynamic characteristic of the process using a neural network when estimated or approximated by the secondary delay of x + waste time, a quadratic delay recurrence formula based on the calculation cycle of Δt Based on the above, the neural network is configured based on, and the coefficient of the second-order lag recurrence formula is given as an initial value of the coupling weight coefficient between the neuron elements when learning of the dynamic characteristics of the process is started, and A process dynamic characteristic learning device characterized in that a dead time neuron element is provided in a neural network. Where x is the process input,
y is the process output, k is the process gain estimate, T is the process parameter estimate, τ is the process damping ratio estimate,
s is a Laplace operator and L is a process waste time.
【請求項5】 プロセスが予め二次遅れ或いは一次遅れ
によって推定或いは近似される場合、当該プロセスの逆
動特性 y=k′(1+T1 ・s+T2 ・s2 )x をニューラルネットワークを用いて学習するプロセス動
特性学習装置において、 下記する△tの計算周期による漸化式 【数2】 に基づいて前記ニューラルネットワークを構成するとと
もに、前記プロセスの逆動特性の学習を開始する場合の
各ニューロン素子間の結合重み係数の初期値として前記
漸化式の係数を与えることを特徴とするプロセス動特性
学習装置。上式においてxはプロセス出力、yはプロセ
ス入力、k′=1/k,kはプロセスゲイン推定値、T
1 ,T2 はプロセスパラメータ推定値であって、一次遅
れの場合にはT2 =0、T1 :時定数、 二次遅れの場
合にはT1 =2・τ・T、T2 =T2 、sはラプラス演
算子である。また、サフィックスnは時点n・△tにお
ける変数を表す。
5. The process has a secondary delay or a primary delay in advance.
The inverse of the process, if estimated or approximated by
Dynamic characteristics y = k '(1 + T1・ S + T2・ S2 ) X Dynamics of learning neural networks using neural networks
In the characteristic learning device, Recurrence formula based on Δt calculation cycle [Equation 2] When the neural network is constructed based on
If we start learning the reverse characteristic of the process,
As the initial value of the connection weight coefficient between the neuron elements,
Process dynamics characterized by giving recurrence coefficients
Learning device. In the above equation, x is the process output and y is the process
Input, k '= 1 / k, k is the process gain estimate, T
1, T2Is the process parameter estimate,
In this case T2= 0, T1: Time constant, secondary delay
In case of T1= 2 · τ · T, T2= T2 , S is Laplace
It is an arithmetic. Also, the suffix n is at the time point n / Δt.
Represents a variable.
【請求項6】 プロセスの動特性(逆動特性)が予め△
tの計算周期による漸化式(前記請求項1〜5の漸化式
を除く)で近似的に表せる場合、当該プロセスの動特性
(逆動特性)をニューラルネットを用いて学習するプロ
セス動特性学習装置において、 前記漸化式(請求項1〜5の漸化式を除く)に基づいて
前記ニューラルネットワークを構成するとともに、前記
プロセスの動特性(逆動特性)の学習を開始する場合の
各ニューロン素子間の結合重み係数の初期値として前記
漸化式(請求項1〜5の漸化式を除く)の係数を与える
ことを特徴とするプロセス動特性学習装置。
6. The process dynamic characteristic (reverse dynamic characteristic) is previously Δ.
When it can be approximately represented by a recurrence formula (excluding the recurrence formulas of claims 1 to 5) according to the calculation cycle of t, the process dynamics that learns the dynamics (reverse dynamics) of the process using a neural network. In the learning device, the neural network is configured based on the recurrence formula (excluding the recurrence formulas of claims 1 to 5), and learning of the dynamic characteristic (reverse dynamic characteristic) of the process is started. A process dynamic characteristic learning device, wherein a coefficient of the recurrence formula (excluding the recurrence formula of claims 1 to 5) is given as an initial value of a coupling weight coefficient between neuron elements.
JP3163087A 1991-07-03 1991-07-03 Process dynamic characteristic learning device Pending JPH0511806A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3163087A JPH0511806A (en) 1991-07-03 1991-07-03 Process dynamic characteristic learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3163087A JPH0511806A (en) 1991-07-03 1991-07-03 Process dynamic characteristic learning device

Publications (1)

Publication Number Publication Date
JPH0511806A true JPH0511806A (en) 1993-01-22

Family

ID=15766940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3163087A Pending JPH0511806A (en) 1991-07-03 1991-07-03 Process dynamic characteristic learning device

Country Status (1)

Country Link
JP (1) JPH0511806A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020510862A (en) * 2017-02-24 2020-04-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Sound Discrimination Using Periodic Display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020510862A (en) * 2017-02-24 2020-04-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Sound Discrimination Using Periodic Display

Similar Documents

Publication Publication Date Title
Jin et al. Adaptive fault-tolerant consensus for a class of leader-following systems using neural network learning strategy
Zhang et al. Adaptive neural network control for strict-feedback nonlinear systems using backstepping design
Yazdizadeh et al. Adaptive time delay neural network structures for nonlinear system identification
WO2022222229A1 (en) Coupled neural network bounded cluster projection synchronization adjustment control method and system
Lu et al. Adaptive fuzzy output feedback control for nonlinear systems based on event-triggered mechanism
Zhao et al. Event-triggered H∞ optimal control for continuous-time nonlinear systems using neurodynamic programming
Duan et al. Decentralized adaptive NN state-feedback control for large-scale stochastic high-order nonlinear systems
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
Ramezani et al. Neuro-adaptive backstepping control of SISO non-affine systems with unknown gain sign
Zheng et al. Prescribed finite-time consensus with severe unknown nonlinearities and mismatched disturbances
Moradvandi et al. Adaptive finite-time fault-tolerant controller for a class of uncertain MIMO nonlinear switched systems subject to output constraints and unknown input nonlinearities
Abiyev et al. Identification and control of dynamic plants using fuzzy wavelet neural networks
Ye et al. Dynamic system identification using recurrent radial basis function network
Tafti et al. Recurrent interval type-2 fuzzy wavelet neural network with stable learning algorithm: application to model-based predictive control
CN112034712B (en) Sliding mode fault-tolerant control method based on event triggering
CN113820954A (en) Fault-tolerant control method of complex nonlinear system under generalized noise
Sun et al. RESO-based distributed bipartite tracking control for stochastic MASs with actuator nonlinearity
Kumar et al. Comparative study of neural networks for control of nonlinear dynamical systems with lyapunov stability-based adaptive learning rates
Zhang et al. Deterministic learning from neural control for uncertain nonlinear pure‐feedback systems by output feedback
Zhang et al. Finite time controller design of nonlinear quantized systems with nonstrict feedback form
JPH0511806A (en) Process dynamic characteristic learning device
Al-Dabooni et al. Convergence of recurrent neuro-fuzzy value-gradient learning with and without an actor
JPH0635510A (en) Model norm adaptive controller using neural network
Peng et al. Adaptive fixed-time consensus control of nonlinear multiagent systems with dead-zone output
Treesatayapun Fuzzy rules emulated network and its application on nonlinear control systems