JPH06109498A - Detector for unsteady and abnormal state - Google Patents

Detector for unsteady and abnormal state

Info

Publication number
JPH06109498A
JPH06109498A JP4260311A JP26031192A JPH06109498A JP H06109498 A JPH06109498 A JP H06109498A JP 4260311 A JP4260311 A JP 4260311A JP 26031192 A JP26031192 A JP 26031192A JP H06109498 A JPH06109498 A JP H06109498A
Authority
JP
Japan
Prior art keywords
plant
state
abnormal state
series data
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4260311A
Other languages
Japanese (ja)
Inventor
Hisaya Miyamoto
久也 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP4260311A priority Critical patent/JPH06109498A/en
Publication of JPH06109498A publication Critical patent/JPH06109498A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To detect the unsteady and abnormal state of a plant accurately even if noise is included in time series data or irregular disturbance is generated. CONSTITUTION:The history of the observation signal of a plant 2 is kept in a storage 3 for storing as time-series data. The behavior of the plant 2 is estimated by two antoregressive models 4 and 5. Both antoregressive models 4 and 5 are constituted by a neural network in three-layer structure of input layer, middle layer, and output layer. Also, the number of middle layer units of antoregressive models 4 and 5 differs. In the case of the neural network where the number of middle layer units differs, a nearly equal estimation value is obtained in normal state. On the other hand, a different estimation value is obtained in abnormal state. Therefore, by comparing the estimation values of antoregressive models 4 and 5 with an arithmetic unit 6, the abnormal state of the plant 2 can be detected simply and readily.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、非定常および異常状態
の検出装置に係り、特に、複雑かつノイズ、不規則な外
乱の影響を受ける発電プラントや化学プラント等におい
て、リアルタイムでプラントを監視する際に用いるのに
好適な非定常および異常状態の検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting unsteady and abnormal states, and in particular, it monitors a plant in real time in a power plant, a chemical plant or the like which is affected by complicated noise, irregular disturbances. The present invention relates to an unsteady state and abnormal state detection device suitable for use in the case.

【0002】[0002]

【従来の技術】プラントの状態を予測する目的から、旧
来より統計的手法である自己回帰モデルが用いられてい
る。自己回帰モデルを用いた非定常および異常状態の検
出は、実時系列データと自己回帰モデルとの予測誤差
(以下、残差と称す)を監視することにより行なわれて
いる。システム診断のように膨大な統計計算が必要な場
合を除いて、非定常および異常状態の検出にはオンライ
ンでの処理が望まれる。オンライン処理での計算量には
自と限界があり、膨大な時系列データに対する分散等の
統計処理は余り行なわれず、残差の値が予め定められた
閾値よりも高い値を示した場合、非定常および異常との
判断を下している。
2. Description of the Related Art For the purpose of predicting the state of a plant, an autoregressive model, which is a statistical method, has been used for a long time. The detection of unsteady state and abnormal state using the autoregressive model is performed by monitoring the prediction error (hereinafter referred to as the residual) between the real time series data and the autoregressive model. On-line processing is desired for detection of unsteady and abnormal states, except when enormous statistical calculations are required such as system diagnosis. There is a limit to the amount of calculation in online processing, statistical processing such as variance for enormous time series data is rarely performed, and when the residual value shows a value higher than a predetermined threshold, It is judged to be steady and abnormal.

【0003】[0003]

【発明が解決しようとする課題】従来の非定常および異
常状態の検出装置においては、システムから得られる時
系列データが高いレベルのノイズを含んでいる場合、あ
るいは不規則な外乱が発生する場合、モデルあてはめの
精度は確実に悪化し、非定常状態および異常状態検出の
ための残差に対する閾値も当然ながら高いレベルに設定
しなければならず、したがって、非定常状態検出にもそ
れ相当の遅れが生じるという問題がある。本発明は、上
述した事情を考慮してなされたもので、得られた時系列
データがノイズによって汚されており、かつ不規則な外
乱によりモデルのあてはめおよびモデルによる推定の精
度が低い場合であっても、オンラインで、しかも早期に
プラントの非定常状態および発散的な異常状態を検出す
ることができる非定常および異常状態の検出装置を提供
することを目的とする。
In the conventional non-steady state and abnormal state detecting device, when the time series data obtained from the system contains a high level of noise, or when an irregular disturbance occurs, The accuracy of the model fitting certainly deteriorates, and the threshold for residuals for detecting non-steady state and abnormal state must be set to a high level as a matter of course.Therefore, there is a considerable delay in non-steady state detection. There is a problem that it will occur. The present invention has been made in consideration of the above-mentioned circumstances, and is a case where the obtained time series data is contaminated by noise and the accuracy of the model fitting and the estimation by the model is low due to irregular disturbance. Even if, however, it is an object of the present invention to provide an unsteady state and abnormal state detection device that can detect an unsteady state and a divergent abnormal state of a plant online and at an early stage.

【0004】[0004]

【課題を解決するための手段】本発明に係る非定常およ
び異常状態の検出装置は、上記課題を解決するために、
監視対象となるプラントの観測信号の履歴を時系列デー
タとして記憶する記憶装置と、入出力層および任意数の
中間層を有する階層型をなし、かつ中間層の構造を相互
に異にするニューラルネットワークでそれぞれ構成さ
れ、前記記憶装置からの時系列データの入力によりプラ
ントの挙動を推定する複数の自己回帰モデルと、これら
各自己回帰モデルから出力されるプラントの挙動の推定
値を相互に比較し、非定常および発散的な異常状態を判
定する演算装置とを具備するものである。
In order to solve the above-mentioned problems, an unsteady state and abnormal state detecting apparatus according to the present invention comprises:
A neural network having a storage device that stores the history of observation signals of a plant to be monitored as time-series data, a hierarchical type having an input / output layer and an arbitrary number of intermediate layers, and different intermediate layer structures. Each of which is configured with a plurality of autoregressive models for estimating the behavior of the plant by inputting the time series data from the storage device, and mutually comparing the estimated values of the behavior of the plant output from each of these autoregressive models, And an arithmetic unit for determining an unsteady state and a divergent abnormal state.

【0005】[0005]

【作用】本発明に係る非定常および異常状態の検出装置
は、複数の自己回帰モデルが用いられ、これら各自己回
帰モデルから出力されるプラントの挙動の推定値を相互
に比較することにより、プラントの非定常および発散的
な異常状態が検出される。
The unsteady state and abnormal state detecting apparatus according to the present invention uses a plurality of autoregressive models, and the estimated values of the behavior of the plant output from these autoregressive models are compared with each other to obtain the plant. Unsteady and divergent abnormal conditions of are detected.

【0006】ところで、中間層構造を相互に異にする複
数のニューラルネットワークは、定常状態に見られるシ
ステムの挙動に対しては、ほぼ同等の予測値を出力する
ことができる。このため、モデル、ノイズ、不規則な外
乱によって生じる残差への影響を考慮する必要がない。
By the way, a plurality of neural networks having mutually different intermediate layer structures can output almost the same predicted value for the behavior of the system seen in the steady state. Therefore, it is not necessary to consider the influence on the residual error caused by the model, noise, and irregular disturbance.

【0007】一方、非定常状態および発散的な異常状態
に対しては、中間層構造の違いが出力の差異となって現
われ、その比較により非定常状態および発散的な異常状
態の検出が可能となる。しかも、閾値を極く低いレベル
に設定できるため、従来に比較して早期検出が可能とな
る。
On the other hand, for the unsteady state and the divergent abnormal state, the difference in the structure of the intermediate layer appears as a difference in the output, and the comparison makes it possible to detect the unsteady state and the divergent abnormal state. Become. Moreover, since the threshold value can be set to an extremely low level, it is possible to detect it earlier than in the conventional case.

【0008】なおここで、非定常とは、落着きのない状
態を称し、また発散的とは、通常見られない状態の揺ぎ
よりも大きな振動を伴う現象を称する。
The term "unsteady" as used herein means a state in which the user is unsteady, and the term "divergent" means a phenomenon involving a larger vibration than a shaking that is not normally seen.

【0009】[0009]

【実施例】以下、本発明の一実施例を図面を参照して説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0010】図1は、本発明に係る非定常および異常状
態の検出装置を示すもので、この検出装置1は、監視対
象となる発電プラントや化学プラント等のプラント2の
観測信号の履歴を時系列データとして記憶する記憶装置
3を備えており、この記憶装置3に記憶されている時系
列データは、中間層構造を相互に異にするニューラルネ
ットワークで構成される2つの自己回帰モデル4,5に
それぞれ入力され、これら各自己回帰モデル4,5によ
りプラント2の挙動が推定されるようになっている。そ
して、各自己回帰モデル4,5からのプラント2の挙動
の推定値は、演算装置6において相互に比較され、プラ
ント2が定常状態であるか、あるいは非定常および発散
的な異常状態(以下、単に非定常状態と称す)であるか
が判定されるようになっている。
FIG. 1 shows an unsteady state and abnormal state detecting apparatus according to the present invention. This detecting apparatus 1 records the history of observation signals of a plant 2 to be monitored, such as a power plant or a chemical plant. The storage device 3 for storing as series data is provided, and the time-series data stored in the storage device 3 are two autoregressive models 4, 5 composed of neural networks having mutually different intermediate layer structures. The behavior of the plant 2 is estimated by each of the autoregressive models 4 and 5. Then, the estimated values of the behavior of the plant 2 from the respective autoregressive models 4 and 5 are compared with each other in the arithmetic unit 6, and the plant 2 is in a steady state, or an unsteady state and a divergent abnormal state (hereinafter, It is determined whether or not it is a non-steady state).

【0011】各自己回帰モデル4,5を構築するニュー
ラルネットワークは基本的には入力層、出力層および任
意数の中間層の3層構造からなる階層型として構成され
ており、かつ入出力層は線形特性を持つと共に、中間層
は非線形特性(一般にはシグモイド函数が用いられる)
を持つものとして構成されている。
The neural network for constructing each autoregressive model 4 and 5 is basically constructed as a hierarchical type having a three-layer structure of an input layer, an output layer and an arbitrary number of intermediate layers, and the input / output layers are In addition to having linear characteristics, the middle layer has nonlinear characteristics (a sigmoid function is generally used)
Is configured as having.

【0012】ここで、一変量もしくは多変量ベクトルを
シンボルxで表すと、ある時刻tにおけるプラントの状
態量z(t)は、サンプリングタイムΔtでサンプリン
グされた過去の状態量{x(t−Δt),……,x(t
−mΔt)}から、
When a univariate or multivariate vector is represented by a symbol x, the state quantity z (t) of the plant at a certain time t is the past state quantity {x (t-Δt) sampled at the sampling time Δt. ), ……, x (t
-MΔt)},

【数1】 (但し、fはニューラルネットワークが獲得する入出力
関係、εは残差である。)と表現され、これを自己回帰
モデルと呼んでいる。本実施例では、数1に示したm個
の測定値によって構成されるm次自己回帰モデルをニュ
ーラルネットワーク上に構築するため、図2に示すよう
な構造を採用している。
[Equation 1] (However, f is the input / output relationship acquired by the neural network, and ε is the residual.), Which is called an autoregressive model. In this embodiment, a structure as shown in FIG. 2 is adopted in order to construct an m-th order autoregressive model composed of m measurement values shown in Expression 1 on the neural network.

【0013】また、本実施例における各自己回帰モデル
4,5は、同数の入出力層ユニット(この場合、入力層
はm個のユニット、出力層は1個のユニット)および異
なる数の中間層ユニットから構成されており、中間層ユ
ニット数の違いは、ニューラルネットワークの表現する
函数形の違いになって現われる。これを式で表現すれ
ば、自己回帰モデル4は、
Further, each of the autoregressive models 4 and 5 in this embodiment has the same number of input / output layer units (in this case, the input layer has m units and the output layer has one unit) and different numbers of intermediate layers. It is composed of units, and the difference in the number of units in the middle layer appears as the difference in the function form expressed by the neural network. If this is expressed by an equation, the autoregressive model 4 becomes

【数2】 (但し、ε1 (t)は残差である。)また、自己回帰モ
デル5は、
[Equation 2] (However, ε 1 (t) is the residual.) Further, the autoregressive model 5 is

【数3】 (但し、ε2 (t)は残差である。)と表現される。[Equation 3] (However, ε 2 (t) is a residual.)

【0014】数2式および数3式において、中間層構造
の異なるニューラルネットワークの函数f1 ,f2 は、
時系列の学習により獲得されたもので、定常状態に見ら
れるシステムの挙動(振幅)に対しては、ほぼ同等の予
測値を出力することができる。しかしながら、未学習で
かつ定常状態には見られない振幅が入力された場合に
は、両ニューラルネットワークは異なる予測値を出力す
る。予測値が異なるのは、両函数f1 ,f2 を表現する
非線形に違いがあるからである。図3は、函数f1 ,f
2 の関係を模式的に示したもので、定常状態において
は、函数f1 ,f2は汎函数であると言える。
In equations (2) and (3), the functions f1 and f2 of the neural networks having different intermediate layer structures are
It is obtained by time-series learning, and it is possible to output almost the same predicted value for the behavior (amplitude) of the system seen in the steady state. However, both neural networks output different prediction values when an unlearned and amplitude that is not found in the steady state is input. The prediction values are different because there is a difference in the non-linearity expressing both functions f1 and f2. FIG. 3 shows the functions f1 and f
This is a schematic representation of the relationship of 2, and it can be said that the functions f1 and f2 are functionals in the steady state.

【0015】次に、入力層ユニット数の決定について説
明する。
Next, the determination of the number of input layer units will be described.

【0016】対象とする時系列データが線形である場
合、ニューラルネットワークは、線形自己回帰モデル
When the target time series data is linear, the neural network uses a linear autoregressive model.

【数4】 (但し、wはシステムを特徴付ける係数である。)と同
等の構造を学習によって獲得する。入出力層に線形ユニ
ットを用いるニューラルネットワークにおいて中間層を
省略した場合、上記の式のwi (i=1,……m)は入
出力層ユニット間の結合係数に一致する。したがって、
一般的な線形自己回帰モデルのあてはめに倣い、AIC
最小となる次数を入力層ユニット数として採用する。
[Equation 4] (However, w is a coefficient that characterizes the system.) A structure equivalent to that is acquired by learning. When the intermediate layer is omitted in the neural network using the linear unit for the input / output layer, w i (i = 1, ..., M) in the above equation matches the coupling coefficient between the input / output layer units. Therefore,
Following the fitting of a general linear autoregressive model, AIC
The smallest order is adopted as the number of input layer units.

【0017】ここで、AIC最小となる次数とは、次の
ようなことである。すなわち、自己回帰モデルの構造を
決定する基準にAIC(赤池情報基準Akaike Informati
onCriterion)がある。
Here, the minimum order of AIC is as follows. That is, the AIC (Akaike Information Standard Akaike Informati) is used as a criterion for determining the structure of the autoregressive model.
onCriterion).

【0018】その定義式は、The definitional expression is

【数5】 で与えられる。ここで尤度とはそのモデルの「確からし
さ」を意味するもので問題に依存する。
[Equation 5] Given in. Likelihood here means the "probability" of the model and depends on the problem.

【0019】「AIC最小」とは定義式からモデルの確
からしさが大きく、しかもモデルを記述するパラメータ
の数(従来の線形自己回帰モデルではその次数、ニュー
ラルネットワークではニューロンユニットの結合数)が
少ないことを意味する。そしてこの自己回帰モデルが、
無駄のない最適なモデルであると考えられる。
The "AIC minimum" means that the model has a high probability from the definitional expression and that the number of parameters describing the model (the order in the conventional linear autoregressive model, the number of connected neuron units in the neural network) is small. Means And this autoregressive model
It is considered to be an optimal model with no waste.

【0020】一方、対象とする時系列データが非線形で
ある場合は、フラクタル次元を求めてそのフラクタル次
元を包含する最小の整数次元を入力層ユニット数として
採用する。
On the other hand, when the target time-series data is non-linear, the fractal dimension is obtained and the smallest integer dimension including the fractal dimension is adopted as the number of input layer units.

【0021】ここで、フラクタル次元とは、次元を一般
化した概念で、通常の次元が整数値(例えば2次元とい
った小数点を含まない値)を採るのに対し、フラクタル
次元は実数値(例えば2.07次元といった小数点を含
む値)を採る。ある形状のフラクタル次元を計るために
は、その形状を単一で単純な図形(線分、円、長方形、
球、立方体等、これをメトリックと言う。)で覆うこと
を考える。覆うのに要したメトリックの数Nがメトリッ
クの大きさrに対してN(r)〜rνなる関係があると
き、この指数νをフラクタル次元と呼ぶ。測定対象が整
数次元の形状(立方体等)であれば、フラクタル次元ν
も整数値を採る。
Here, the fractal dimension is a generalized concept of the dimension. While the ordinary dimension takes an integer value (for example, a value that does not include a decimal point such as two dimensions), the fractal dimension has a real value (for example, two values). Value including a decimal point such as .07 dimension). In order to measure the fractal dimension of a shape, the shape must be a single simple figure (segment, circle, rectangle,
This is called a metric, such as a sphere or a cube. ) Consider covering with. When the number N of metrics required for covering has a relationship of N (r) to r ν with respect to the metric size r, this exponent ν is called a fractal dimension. If the measurement target is an integer-dimensional shape (such as a cube), the fractal dimension ν
Also takes an integer value.

【0022】フラクタル次元の収束が得られるとき、時
系列データから構造を持ったトラジェクトリが再構成で
きる。このトラジェクトリの構造をニューラルネットワ
ークに学習させることによって高い精度の推定が可能と
なる。一方、フラクタル次元の収束が得られない場合は
線形時系列データに準ずる。なお、ここで、トラジェク
トリとは、システムの状態(あるいは位置)の移り変り
を示すもので、「軌道」もその1つである。
When convergence of the fractal dimension is obtained, a trajectory having a structure can be reconstructed from the time series data. Highly accurate estimation is possible by learning the structure of this trajectory in a neural network. On the other hand, if the convergence of the fractal dimension cannot be obtained, the linear time series data is used. Here, the trajectory is a transition of the state (or position) of the system, and the "orbit" is one of them.

【0023】次に、非定常検出手法について説明する。Next, the unsteady detection method will be described.

【0024】中間層ユニット数の異なる2つのニューラ
ルネットワークに対し、同一の定常時系列データを学習
させて入出力関係fを獲得する。同一の定常時系列デー
タを学習させることにより、構造の異なる自己回帰モデ
ルであっても定常状態においてはほぼ等しい推定値を得
ることができる。しかし非定常状態においては構造の違
いから状態予測能力に差が生ずるため、それぞれの自己
回帰モデルは異なった推定値を出力する。そこで構造の
異なる自己回帰モデル(ニューラルネットワーク)の出
力差を監視することによって非定常状態を検出すること
ができる。
The input / output relationship f is acquired by learning the same stationary time series data for two neural networks having different numbers of intermediate layer units. By learning the same stationary time series data, it is possible to obtain almost the same estimated value in the stationary state even with autoregressive models having different structures. However, in the non-steady state, the difference in structure causes a difference in the state prediction ability, so that each autoregressive model outputs different estimated values. Therefore, a non-steady state can be detected by monitoring the output difference of autoregressive models (neural networks) having different structures.

【0025】具体的には構造の異なる自己回帰モデル
(ニューラルネットワーク)の出力差に対して閾値を設
け、その出力差が閾値を超えた場合非定常もしくは異常
状態と判断する。図2に示すようにニューラルネットワ
ーク上へ自己回帰モデルを構築する。各入力層ユニット
にサンプリングタイムΔtでサンプリングされた過去の
状態量{x(t−Δt),……,x(t−mΔt)}を
入力するこの手法に従えばニュラルネットワークに直接
時間を入力する必要がなく、入出力層に線形と特性を持
たすため、自己回帰モデルへの入力{x(t−Δt),
……,x(t−mΔt)}は中間層の出力範囲(一般
に、シグモイド函数であれば[0,1])に規格化する
必要がない。また、AICおよびフラクタル次元によ
り、対象の時系列の性質に合せた入力層ユニット数の最
適化がなされる。
Specifically, a threshold value is set for the output difference of the autoregressive model (neural network) having a different structure, and when the output difference exceeds the threshold value, it is judged as an unsteady state or an abnormal state. As shown in FIG. 2, an autoregressive model is constructed on the neural network. Input the past state quantities {x (t-Δt), ..., x (t-mΔt)} sampled at the sampling time Δt to each input layer unit. According to this method, the time is directly input to the neural network. Input and output to the autoregressive model {x (t-Δt),
.., x (tm-t)} does not need to be standardized to the output range of the intermediate layer (generally, [0, 1] for a sigmoid function). Also, the number of input layer units is optimized according to the characteristics of the target time series by the AIC and the fractal dimension.

【0026】次に、具体例について説明する。Next, a specific example will be described.

【0027】異なる中間層構造を持つ2つのニューラル
ネットワークの定常未学習および非定常データに対する
出力を比較する。図4にその際用いた時系列データを示
す。この時系列データには定常および非定常な挙動が記
録されている。時系列データを構造の異なるニューラル
ネットワークを通した場合の残差の絶対値を図5および
図6に示す。また、両ニューラルネットワークの出力差
の絶対値を図7に示す。
We compare the outputs for stationary unlearned and non-stationary data of two neural networks with different hidden layer structures. FIG. 4 shows the time series data used at that time. Steady and non-steady behaviors are recorded in this time series data. FIG. 5 and FIG. 6 show the absolute values of residuals when time-series data is passed through neural networks having different structures. The absolute value of the output difference between both neural networks is shown in FIG.

【0028】なお、図5は、入出力層が線形ユニットで
中間層が非線形ユニットであり、ユニット数は、入力層
20、中間層1および出力層1のニューラルネットワー
クの場合の残差の絶対値であり、また図6は、入出力層
が線形ユニットで中間層が非線形ユニットであり、ユニ
ット数は、入力層20、中間層1および出力層1のニュ
ーラルネットワークの場合の残差の絶対値である。
In FIG. 5, the input / output layer is a linear unit and the intermediate layer is a non-linear unit, and the number of units is the absolute value of the residual error in the case of the neural network of the input layer 20, the intermediate layer 1 and the output layer 1. 6 is a linear unit in the input / output layer and a non-linear unit in the intermediate layer, and the number of units is the absolute value of the residual in the case of the neural network of the input layer 20, the intermediate layer 1 and the output layer 1. is there.

【0029】図8は、発散的異常の場合のニューラルネ
ットワークへの入力時系列データの拡大図を示し、図9
は、この時系列データに対するニュラルネットワークの
予測値を示す。図9において、+は中間層ユニット数1
の場合の予測値、実線は中間層ユニット数16の場合の
予測値である。
FIG. 8 is an enlarged view of the input time series data to the neural network in the case of divergent abnormality, and FIG.
Indicates the prediction value of the neural network for this time series data. In FIG. 9, + is the number of intermediate layer units 1
The predicted value in the case of, and the solid line is the predicted value in the case of 16 hidden layer units.

【0030】図9から明らかなように、非定常に対して
構造の異なるニューラルネットワークが異なる予測値を
出力することが判る。これは、学習によって獲得される
ニューラルネットワーク7の入出力関係を、中間層ユニ
ットの非線形函数の和によって表現させるからである。
As is apparent from FIG. 9, it can be seen that neural networks having different structures output different prediction values for non-stationary states. This is because the input / output relationship of the neural network 7 acquired by learning is expressed by the sum of the nonlinear functions of the intermediate layer units.

【0031】図10および図11は、これをさらに拡大
したものである。すなわち、図10は、定常状態におけ
るニューラルネットワークの予測値を示し、また図11
は、非定常状態におけるニューラルネットワークの予測
値を示す。なお、両図において、太線は中間層ユニット
数1の場合の予測値、細線は中間層ユニット数16の場
合の予測値である。
FIG. 10 and FIG. 11 are enlarged views of this. That is, FIG. 10 shows the predicted value of the neural network in the steady state, and FIG.
Indicates the prediction value of the neural network in the non-steady state. In both figures, the thick line is the predicted value when the number of intermediate layer units is 1, and the thin line is the predicted value when the number of intermediate layer units is 16.

【0032】定常状態の場合には、図10からも明らか
なように予測値が両者ほぼ同一で区別することができな
いが、非定常状態の場合には、図11からも明らかなう
に、両者の予測値がずれており、図11中の矢印の部分
で異常を検出することが可能となる。この検出は、図1
の演算装置6で行なわれる。
In the steady state, the predicted values are almost the same as shown in FIG. 10 and cannot be distinguished, but in the non-steady state, both are as shown in FIG. Since the predicted values are deviated, it becomes possible to detect the abnormality in the portion indicated by the arrow in FIG. This detection is shown in FIG.
Is performed by the arithmetic unit 6 of.

【0033】図12は、演算装置6における処理の流れ
を示すものである。
FIG. 12 shows the flow of processing in the arithmetic unit 6.

【0034】演算装置6はまず、ステップS1におい
て、両自己回帰モデル4,5のニューラルネットワーク
の予測値を比較するとともにステップS2において、予
測値の差の最大値を検出する。そして、ステップS2に
おいて、その予測値の差の最大値が、閾値を超えたか否
かを判別し、超えていない場合には、ステップS4にお
いて正常状態と判定すると共に、超えている場合には、
ステップS5において異常状態と判定する。
The computing device 6 first compares the predicted values of the neural networks of the two autoregressive models 4 and 5 in step S1 and detects the maximum difference between the predicted values in step S2. Then, in step S2, it is determined whether or not the maximum value of the difference between the predicted values exceeds the threshold value. If not, it is determined in step S4 that it is in the normal state.
In step S5, it is determined that the state is abnormal.

【0035】しかして、定常状態において両ニューラル
ネットワークの出力はほぼ等しいことが示される。つま
り、構造の異なる自己回帰モデルの出力を比較すること
によってモデル、ノイズ、不規則な外乱に対しては、中
間層構造の違いが出力の差異となって現われるため、構
造の異なる自己回帰モデルの出力を比較することによっ
て非定常状態の検出が可能となる。しかも定常状態にお
ける両ニューラルネットワークの出力差は極く小さいも
のであり、非定常状態検出に用いるニューラルネットワ
ークの出力差に対する閾値を極く低いレベルに設定でき
る。このことから非定常検出は従来の手法に比べ早期に
可能となる。
Thus, it is shown that the outputs of both neural networks are almost equal in the steady state. In other words, by comparing the outputs of autoregressive models with different structures, the difference in the structure of the middle layer appears as a difference in the output for models, noise, and irregular disturbances. It is possible to detect the non-steady state by comparing the outputs. Moreover, the output difference between both neural networks in the steady state is extremely small, and the threshold value for the output difference of the neural network used for non-steady state detection can be set to an extremely low level. From this, unsteady detection becomes possible earlier than the conventional method.

【0036】図5において、定常状態における最大残差
0.861の1.2倍である1.033を非定常状態検
出のための閾値とした場合、338.125秒で非定常
状態を検出した。図7において、定常状態におけるニュ
ーラルネットワークの最大出力差0.080の1.2倍
である0.016を非定常状態検出のための閾値とした
場合、318.250秒て非定常状態を検出した。この
ことから、この手法はオンラインにおける非常定常状態
の早期検出に有効であることが判る。
In FIG. 5, when 1.033, which is 1.2 times the maximum residual 0.861 in the steady state, is used as the threshold for detecting the non-steady state, the non-steady state is detected in 338.125 seconds. . In FIG. 7, when 0.016, which is 1.2 times the maximum output difference 0.080 of the neural network in the steady state, is used as the threshold for detecting the non-steady state, the non-steady state is detected in 318.250 seconds. . From this, it is found that this method is effective for early detection of an online steady state.

【0037】[0037]

【発明の効果】以上説明したように、本発明によれば、
得られた時系列データがノイズによって汚されており、
かつ不規則な外乱によりモデルのあてはめおよびモデル
による推定の精度が低い場合であっても、オンライン
で、しかも早期にプラントの非定常状態および異常状態
を検出することができる。
As described above, according to the present invention,
The obtained time series data is polluted by noise,
Moreover, even when the accuracy of the model fitting and the estimation by the model is low due to the irregular disturbance, the unsteady state and abnormal state of the plant can be detected online and early.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る非定常および異常状態
の検出装置を示す全体構成図。
FIG. 1 is an overall configuration diagram showing an unsteady state and abnormal state detecting apparatus according to an embodiment of the present invention.

【図2】ニューラルネットワークによる自己回帰モデル
の構築を示す説明図。
FIG. 2 is an explanatory diagram showing construction of an autoregressive model using a neural network.

【図3】中間層構造の異なる2つのニューラルネットワ
ークの函数の関係を模式的に示すグラフ。
FIG. 3 is a graph schematically showing a relationship between functions of two neural networks having different intermediate layer structures.

【図4】ニューラルネットワークに通した時系列データ
の一例を示すグラフ。
FIG. 4 is a graph showing an example of time series data passed through a neural network.

【図5】中間層ユニット数1のニューラルネットワーク
の残差の絶対値を示すグラフ。
FIG. 5 is a graph showing absolute values of residuals of a neural network having one hidden layer unit.

【図6】中間層ユニット数16のニューラルネットワー
クの残差の絶対値を示すグラフ。
FIG. 6 is a graph showing absolute values of residuals of a neural network having 16 hidden layer units.

【図7】中間層数が1と16の2つのニューラルネット
ワークの推定値間の差の絶対値を示すグラフ。
FIG. 7 is a graph showing the absolute value of the difference between the estimated values of two neural networks having the number of hidden layers of 1 and 16.

【図8】発散的な異常状態のニューラルネットワークへ
の入力時系列データの要部を示すグラフ。
FIG. 8 is a graph showing a main part of input time series data to a neural network in a divergent abnormal state.

【図9】中間層数が1と16の2つのニューラルネット
ワークの図8のデータに対する予測値をそれぞれ示すグ
ラフ。
9 is a graph showing predicted values for the data in FIG. 8 of two neural networks having the number of hidden layers of 1 and 16, respectively.

【図10】中間層数が1と16の2つのニューラルネッ
トワークの定常状態における予測値をそれぞれ示すグラ
フ。
FIG. 10 is a graph showing predicted values in a steady state of two neural networks having 1 and 16 hidden layers.

【図11】図10と同様のニューラルネットワークの非
定常状態における予測値をそれぞれ示すグラフ。
11 is a graph showing prediction values in a non-steady state of the neural network similar to FIG.

【図12】演算装置における処理の手順を示すフローチ
ャート。
FIG. 12 is a flowchart showing a processing procedure in the arithmetic device.

【符号の説明】[Explanation of symbols]

1 検出装置 2 プラント 2 記憶装置 4,5 自己回帰モデル 6 演算装置 1 Detection Device 2 Plant 2 Storage Device 4,5 Autoregressive Model 6 Computing Device

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 監視対象となるプラントの観測信号の履
歴を時系列データとして記憶する記憶装置と、入出力層
および任意数の中間層を有する階層型をなし、かつ中間
層の構造を相互に異にするニュートラルネットワークで
それぞれ構成され、前記記憶装置からの時系列データの
入力によりプラントの挙動を推定する複数の自己回帰モ
デルと、これら各自己回帰モデルから出力されるプラン
トの挙動の推定値を相互に比較し、非定常および発散的
な異常状態を判定する演算装置とを具備することを特徴
とする非定常および異常状態の検出装置。
1. A storage device for storing the history of observation signals of a plant to be monitored as time-series data, and a hierarchical structure having an input / output layer and an arbitrary number of intermediate layers, and the structures of the intermediate layers are mutually mutual. A plurality of autoregressive models each of which is composed of different neutral networks and estimates the behavior of the plant by inputting the time series data from the storage device, and an estimated value of the behavior of the plant output from each of these autoregressive models. An unsteady state and abnormal state detection device, comprising: a computing device that compares the states with each other to determine an unsteady state and a divergent abnormal state.
JP4260311A 1992-09-29 1992-09-29 Detector for unsteady and abnormal state Pending JPH06109498A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4260311A JPH06109498A (en) 1992-09-29 1992-09-29 Detector for unsteady and abnormal state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4260311A JPH06109498A (en) 1992-09-29 1992-09-29 Detector for unsteady and abnormal state

Publications (1)

Publication Number Publication Date
JPH06109498A true JPH06109498A (en) 1994-04-19

Family

ID=17346266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4260311A Pending JPH06109498A (en) 1992-09-29 1992-09-29 Detector for unsteady and abnormal state

Country Status (1)

Country Link
JP (1) JPH06109498A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10176949A (en) * 1996-12-10 1998-06-30 Caterpillar Inc Apparatus and method for testing mechanical component using neural network processing vibration data analysis
JP2004502932A (en) * 2000-07-05 2004-01-29 ロールス・ロイス・ピーエルシー Power unit condition monitoring
JP2006330797A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Abnormal image detection method, abnormal image detection device and abnormal image detection program
JP2008268182A (en) * 2007-04-23 2008-11-06 Mitsubishi Electric Research Laboratories Inc Method for detecting changes in sample stream acquired by sensor
WO2020071066A1 (en) * 2018-10-01 2020-04-09 株式会社椿本チエイン Abnormality determination device, signal feature value predictor, abnormality determination method, learning model generation method, and learning model
US11366627B2 (en) * 2017-12-18 2022-06-21 Mitsubishi Electric Corporation Display control device, display system, display device, and display method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10176949A (en) * 1996-12-10 1998-06-30 Caterpillar Inc Apparatus and method for testing mechanical component using neural network processing vibration data analysis
JP2004502932A (en) * 2000-07-05 2004-01-29 ロールス・ロイス・ピーエルシー Power unit condition monitoring
JP4859328B2 (en) * 2000-07-05 2012-01-25 オプティマイズド システムズ アンド ソリューションズ リミテッド Power plant condition monitoring
JP2006330797A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Abnormal image detection method, abnormal image detection device and abnormal image detection program
JP4641450B2 (en) * 2005-05-23 2011-03-02 日本電信電話株式会社 Unsteady image detection method, unsteady image detection device, and unsteady image detection program
JP2008268182A (en) * 2007-04-23 2008-11-06 Mitsubishi Electric Research Laboratories Inc Method for detecting changes in sample stream acquired by sensor
US11366627B2 (en) * 2017-12-18 2022-06-21 Mitsubishi Electric Corporation Display control device, display system, display device, and display method
WO2020071066A1 (en) * 2018-10-01 2020-04-09 株式会社椿本チエイン Abnormality determination device, signal feature value predictor, abnormality determination method, learning model generation method, and learning model
JP2020057165A (en) * 2018-10-01 2020-04-09 株式会社椿本チエイン Abnormality determination device, signal feature amount predictor, abnormality determination method, learning model generation method, and learning model

Similar Documents

Publication Publication Date Title
US10914608B2 (en) Data analytic engine towards the self-management of complex physical systems
JP6609050B2 (en) Anomalous fusion in temporal causal graphs
Vemuri et al. Robust nonlinear fault diagnosis in input-output systems
US9122273B2 (en) Failure cause diagnosis system and method
US7415328B2 (en) Hybrid model based fault detection and isolation system
US9245235B2 (en) Integrated approach to model time series dynamics in complex physical systems
Alexandridis Evolving RBF neural networks for adaptive soft-sensor design
Baghernezhad et al. Computationally intelligent strategies for robust fault detection, isolation, and identification of mobile robots
KR102025145B1 (en) Apparatus and Method for Predicting Plant Data
Sheppard et al. A Bayesian approach to diagnosis and prognosis using built-in test
CN108427400B (en) Aircraft airspeed head fault diagnosis method based on neural network analytic redundancy
JP2005299646A (en) Device for estimating parameter based on plurality of redundant signals and its method
Zhang et al. Fault detection and diagnosis based on particle filters combined with interactive multiple-model estimation in dynamic process systems
Sankararaman et al. Uncertainty quantification in structural damage diagnosis
KR20170127430A (en) Method and system for detecting, classifying and / or mitigating sensor error
Bektas et al. Reducing dimensionality of multi-regime data for failure prognostics
CN115979310A (en) Inertial navigation system performance degradation evaluation method and system, electronic device and medium
JPH06109498A (en) Detector for unsteady and abnormal state
CN112128950B (en) Machine room temperature and humidity prediction method and system based on multiple model comparisons
Purintrapiban et al. Neural networks for detecting cyclic behavior in autocorrelated process
US7269536B1 (en) Method and apparatus for quantitatively determining severity of degradation in a signal
Urmanov Electronic prognostics for computer servers
Basak et al. Scalable Causal Learning for Predicting Adverse Events in Smart Buildings.
Timotheou et al. Moving horizon fault-tolerant traffic state estimation for the cell transmission model
WO2021219467A1 (en) Sensor anomaly detection