JP2020201890A - Abnormality detection device and abnormality detection method - Google Patents

Abnormality detection device and abnormality detection method Download PDF

Info

Publication number
JP2020201890A
JP2020201890A JP2019110547A JP2019110547A JP2020201890A JP 2020201890 A JP2020201890 A JP 2020201890A JP 2019110547 A JP2019110547 A JP 2019110547A JP 2019110547 A JP2019110547 A JP 2019110547A JP 2020201890 A JP2020201890 A JP 2020201890A
Authority
JP
Japan
Prior art keywords
sensor
sensor group
similarity
sensors
abnormality detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019110547A
Other languages
Japanese (ja)
Other versions
JP7344015B2 (en
Inventor
渋谷 久恵
Hisae Shibuya
久恵 渋谷
陸樹 古賀
Mutsuki Koga
陸樹 古賀
淳 岡部
Atsushi Okabe
淳 岡部
俊弘 本屋
Toshihiro Motoya
俊弘 本屋
敦久 鈴木
Atsuhisa Suzuki
敦久 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Solutions Corp
Original Assignee
Hitachi High Tech Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Solutions Corp filed Critical Hitachi High Tech Solutions Corp
Priority to JP2019110547A priority Critical patent/JP7344015B2/en
Publication of JP2020201890A publication Critical patent/JP2020201890A/en
Priority to JP2023079191A priority patent/JP2023106472A/en
Application granted granted Critical
Publication of JP7344015B2 publication Critical patent/JP7344015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)

Abstract

To improve abnormality detection sensitivity in an abnormality detection device, even for abnormality detection target equipment having many sensors.SOLUTION: An abnormality detection apparatus comprises: a first sensor signal input unit 104 to which a plurality of time-series sensor signals output from a plurality of sensors are input; a sensor group setting unit 105 which obtains a degree of similarity among the plurality of sensor signals input to the first sensor signal input unit and sets a sensor group on the basis of the degree of similarity; a second sensor signal input unit 107 to which a plurality of sensor signals output from the plurality of sensors are input; a characteristic vector extraction unit 108 which, for each sensor group, extracts a characteristic vector at each clock time from the plurality of sensor signals input to the second sensor signal input unit; an abnormality measure calculation unit 109 which, for each sensor group, calculates an abnormality measure at each clock time using, as learning data, a characteristic vector between specified leaning periods; and an abnormality detection unit 112 which, for each sensor group, determines whether a sensor signal at each clock time is normal or abnormal by comparing the abnormality measure with a predetermine threshold.SELECTED DRAWING: Figure 1

Description

本発明は、異常検知装置及び異常検知方法に関する。 The present invention relates to an abnormality detection device and an abnormality detection method.

電力会社では、ガスタービンの廃熱などを利用して地域暖房用温水を供給したり、工場向けに高圧蒸気や低圧蒸気を供給したりしている。石油化学会社では、ガスタービンなどを電源設備として運転している。このようにガスタービンなどを用いた各種プラントや設備において、設備の不具合またはその兆候を検知する異常検知は、社会へのダメージを最小限に抑えるためにも極めて重要である。 Electric power companies use waste heat from gas turbines to supply hot water for district heating, and supply high-pressure steam and low-pressure steam to factories. Petrochemical companies operate gas turbines and other equipment as power supply equipment. In various plants and equipment using gas turbines and the like, abnormality detection for detecting equipment malfunctions or signs thereof is extremely important for minimizing damage to society.

ガスタービンや蒸気タービンのみならず、水力発電所での水車、原子力発電所の原子炉、風力発電所の風車、航空機や重機のエンジン、鉄道車両や軌道、エスカレータ、エレベータ、機器及び部品レベルでも搭載電池の劣化及び寿命など、上記予防保全を必要とする設備は枚挙に暇がない。 Not only gas turbines and steam turbines, but also water turbines at hydropower plants, nuclear reactors at nuclear power plants, wind turbines at wind power plants, engines for aircraft and heavy machinery, railroad vehicles and tracks, escalator, elevators, equipment and parts level There is no time to list the equipment that requires the above preventive maintenance such as deterioration and life of the battery.

このため、対象設備やプラントでは様々な物理情報を取得する複数のセンサを取り付け、センサ毎の監視基準に従って対象設備やプラントが正常か異常かを判定する。 Therefore, a plurality of sensors for acquiring various physical information are attached to the target equipment or plant, and it is determined whether the target equipment or plant is normal or abnormal according to the monitoring standard for each sensor.

特許文献1には、過去の正常データの学習に基づいて算出される異常測度をしきい値と比較することによって異常の有無を検知する異常検知方法が開示されている。さらに、異常検知感度を阻害するセンサを除外することを目的として、センサ信号の二次元の分布に基づいて算出した評価値に基づいてセンサを除外する方法が開示されている。ここに、異常測度とは、複数のセンサによる測定値を1つのベクトル値として表現し、正常状態のベクトル値からの偏移量のことである。 Patent Document 1 discloses an abnormality detection method for detecting the presence or absence of an abnormality by comparing an abnormality measure calculated based on learning of past normal data with a threshold value. Further, for the purpose of excluding the sensor that hinders the abnormality detection sensitivity, a method of excluding the sensor based on the evaluation value calculated based on the two-dimensional distribution of the sensor signal is disclosed. Here, the abnormality measure is an amount of deviation from the vector value in the normal state by expressing the value measured by a plurality of sensors as one vector value.

特開2016−200949号公報Japanese Unexamined Patent Publication No. 2016-240919

特許文献1では、感度を阻害するセンサを適切に除外することが可能であり、異常検知感度を向上させることができる。しかし、設備のセンサ数が多いとセンサ1個当たりの影響が小さくなって異常検知感度が低下してしまう。異常検知対象とするセンサを30個程度に減らせば対象とするセンサの異常検知感度は向上する。しかし、例えば、もとのセンサ数が100個であれば、70個程度が異常検知対象とはならず、それらのセンサに発生した異常は検知できなくなってしまい異常検知感度が低下する。 In Patent Document 1, it is possible to appropriately exclude the sensor that hinders the sensitivity, and it is possible to improve the abnormality detection sensitivity. However, if the number of sensors in the equipment is large, the influence of each sensor becomes small and the abnormality detection sensitivity decreases. If the number of sensors targeted for abnormality detection is reduced to about 30, the abnormality detection sensitivity of the target sensors will be improved. However, for example, if the original number of sensors is 100, about 70 are not targeted for abnormality detection, and the abnormality generated in those sensors cannot be detected, and the abnormality detection sensitivity is lowered.

本発明の目的は、異常検知装置において、設備のセンサ数が多い場合においても異常検知感度を向上させることにある。 An object of the present invention is to improve the abnormality detection sensitivity in an abnormality detection device even when the number of sensors in the equipment is large.

本発明の一態様の異常検知装置は、設備に装着された複数のセンサから出力される複数の時系列のセンサ信号が入力される第1のセンサ信号入力部と、前記第1のセンサ信号入力部に入力された複数の前記センサ信号の間の類似度を求め、前記類似度に基づいてセンサグループを設定するセンサグループ設定部と、前記複数のセンサから出力される複数の前記センサ信号が入力される第2のセンサ信号入力部と、前記センサグループ毎に、前記第2のセンサ信号入力部に入力された複数の前記センサ信号から時刻毎に特徴ベクトルを抽出する特徴ベクトル抽出部と、前記センサグループ毎に、指定された学習期間の前記特徴ベクトルを学習データとして、各時刻の異常測度を算出する異常測度算出部と、前記センサグループ毎に、前記異常測度を所定のしきい値と比較することにより各時刻の前記センサ信号が正常か異常かを判定する異常検出部とを有することを特徴とする。 The abnormality detection device of one aspect of the present invention includes a first sensor signal input unit for inputting a plurality of time-series sensor signals output from a plurality of sensors mounted on the equipment, and the first sensor signal input. A sensor group setting unit that obtains the similarity between a plurality of the sensor signals input to the unit and sets a sensor group based on the similarity, and a plurality of the sensor signals output from the plurality of sensors are input. A second sensor signal input unit to be generated, a feature vector extraction unit that extracts a feature vector at each time from a plurality of the sensor signals input to the second sensor signal input unit for each sensor group, and the above. For each sensor group, the feature vector of the specified learning period is used as training data, and the abnormality measurement unit that calculates the abnormality measurement at each time is used, and the abnormality measurement is compared with a predetermined threshold value for each sensor group. It is characterized by having an abnormality detecting unit for determining whether the sensor signal at each time is normal or abnormal.

本発明の一態様の異常検知方法は、設備に装着された複数のセンサから出力される複数の時系列のセンサ信号を入力し、複数の前記センサ信号の間の類似度を求め、前記類似度に基づいてセンサグループを設定し、前記センサグループ毎に、複数の前記センサ信号から時刻毎に特徴ベクトルを抽出し、前記センサグループ毎に、指定された学習期間の前記特徴ベクトルを学習データとして、各時刻の異常測度を算出し、前記センサグループ毎に、前記異常測度を所定のしきい値と比較することにより各時刻の前記センサ信号が正常か異常かを判定することを特徴とする。 In the abnormality detection method of one aspect of the present invention, a plurality of time-series sensor signals output from a plurality of sensors mounted on the equipment are input, the similarity between the plurality of sensor signals is obtained, and the similarity is obtained. A sensor group is set based on the above, a feature vector is extracted from a plurality of the sensor signals for each time for each sensor group, and the feature vector for a specified learning period is used as training data for each sensor group. It is characterized in that an abnormality measurement at each time is calculated, and for each of the sensor groups, it is determined whether the sensor signal at each time is normal or abnormal by comparing the abnormality measurement with a predetermined threshold value.

本発明に一態様によれば、設備のセンサ数が多い場合においても、全センサを対象として異常検知の感度を向上させてセンサに発生した異常を検知することができる。 According to one aspect of the present invention, even when the number of sensors in the equipment is large, it is possible to improve the sensitivity of abnormality detection for all the sensors and detect the abnormality generated in the sensors.

実施形態の異常検知装置の一構成例を示す図である。It is a figure which shows one configuration example of the abnormality detection apparatus of embodiment. 複数のセンサ信号をリスト化して表形式に表した例を示す図である。It is a figure which shows the example which listed a plurality of sensor signals and represented them in a table format. 実施形態の異常検知装置の行う全体の処理フローを示す図である。It is a figure which shows the whole processing flow performed by the abnormality detection apparatus of embodiment. 実施例1のセンサグループ設定処理のフローを示す図である。It is a figure which shows the flow of the sensor group setting process of Example 1. FIG. 二次元頻度分布算出処理のフローを示す図である。It is a figure which shows the flow of the two-dimensional frequency distribution calculation processing. 二次元頻度分布画像作成方法を説明する図である。It is a figure explaining the method of creating a two-dimensional frequency distribution image. センサ間の類似度を算出する方法を説明する図である。It is a figure explaining the method of calculating the similarity between sensors. 二次元頻度分布画像の例を示す図である。It is a figure which shows the example of the two-dimensional frequency distribution image. 二次元頻度分布画像の例を示す図である。It is a figure which shows the example of the two-dimensional frequency distribution image. 二次元頻度分布画像の例を示す図である。It is a figure which shows the example of the two-dimensional frequency distribution image. 実施例2のセンサグループ設定処理のフローを示す図である。It is a figure which shows the flow of the sensor group setting process of Example 2. 実施例3のセンサグループ設定処理のフローを示す図である。It is a figure which shows the flow of the sensor group setting process of Example 3. FIG. 学習時の異常測度算出処理のフローを示す図である。It is a figure which shows the flow of the abnormality measure calculation processing at the time of learning. 局所部分空間法による異常測度算出処理を説明する図である。It is a figure explaining the anomaly measure calculation process by a local subspace method. 異常検知処理のフローを示す図である。It is a figure which shows the flow of abnormality detection processing. センサグループ設定条件を設定するGUIの例を示す図である。It is a figure which shows the example of GUI which sets a sensor group setting condition. 分布画像表示画面の例を示す図である。It is a figure which shows the example of the distribution image display screen. センサ信号表示画面の例を示す図である。It is a figure which shows the example of the sensor signal display screen. オフライン解析条件を設定するGUIの例を示す図である。It is a figure which shows the example of the GUI which sets the offline analysis condition. オンライン解析結果の表示対象を指定するGUIの例を示す図である。It is a figure which shows the example of the GUI which specifies the display target of the online analysis result. 解析結果全体表示画面の例を示す図である。It is a figure which shows the example of the analysis result whole display screen. 解析結果拡大表示画面の例を示す図である。It is a figure which shows the example of the analysis result enlarged display screen.

以下、図面を用いて実施形態について説明する。 Hereinafter, embodiments will be described with reference to the drawings.

図1を参照して、実施形態の異常検知装置の一構成例について説明する。
異常検知装置100は、検知対象である設備101に装着された複数のセンサから出力されるセンサ信号102を、所定時間ごとに(周期的に)取得する。取得したセンサ信号102は、一旦センサ信号蓄積部103に蓄積される。信号入力部(第1のセンサ信号入力部)104は、センサ信号蓄積部103からセンサ信号102を入力し、センサグループ設定部105へ送る。センサグループ設定部105は、センサ信号間の類似性(類似度)に基づきセンサグループを設定し、結果をグループ情報蓄積部106に保存する。
An example of a configuration of the abnormality detection device of the embodiment will be described with reference to FIG.
The abnormality detection device 100 acquires sensor signals 102 output from a plurality of sensors mounted on the equipment 101 to be detected (periodically) at predetermined time intervals. The acquired sensor signal 102 is temporarily stored in the sensor signal storage unit 103. The signal input unit (first sensor signal input unit) 104 inputs the sensor signal 102 from the sensor signal storage unit 103 and sends it to the sensor group setting unit 105. The sensor group setting unit 105 sets the sensor group based on the similarity (similarity) between the sensor signals, and stores the result in the group information storage unit 106.

信号入力部(第2のセンサ信号入力部)107は、センサ信号蓄積部103から、あるいは設備101に装着されたセンサから直接にセンサ信号102を入力し、特徴ベクトル抽出部108へ送る。特徴ベクトル抽出部108は、グループ情報蓄積部106からセンサグループの情報を入力し、設定されたグループ毎に、センサ信号102をもとに特徴ベクトルを抽出し異常測度算出部109へ送る。異常測度算出部109は、予め指定された学習期間の特徴ベクトルを用いて、所定時間毎(以下、各時刻と表現する場合もある)の特徴ベクトル毎に異常測度を算出する。 The signal input unit (second sensor signal input unit) 107 directly inputs the sensor signal 102 from the sensor signal storage unit 103 or from the sensor mounted on the equipment 101, and sends the sensor signal 102 to the feature vector extraction unit 108. The feature vector extraction unit 108 inputs sensor group information from the group information storage unit 106, extracts a feature vector based on the sensor signal 102 for each set group, and sends the feature vector to the abnormality measure calculation unit 109. The anomaly measure calculation unit 109 calculates an anomaly measure for each feature vector at predetermined time intervals (hereinafter, may be expressed as each time) by using the feature vector of the learning period designated in advance.

しきい値算出部110は、異常測度算出部109による学習データの異常測度に基づいてしきい値を算出する。特徴ベクトル抽出部108で抽出された学習期間の特徴ベクトル、しきい値算出部110で算出されたしきい値ほか、異常検知時に必要となるデータは学習結果として学習結果蓄積部111に保存される。異常検出部112は、異常測度算出部109から送られる各特徴ベクトルの異常測度と、しきい値算出部110で算出したしきい値とを比較することで、設備101の異常を検出する。異常検出部112で検出された検知結果は出力部113に出力される。 The threshold value calculation unit 110 calculates the threshold value based on the abnormality measure of the learning data by the abnormality measure calculation unit 109. The feature vector of the learning period extracted by the feature vector extraction unit 108, the threshold value calculated by the threshold value calculation unit 110, and other data required for abnormality detection are stored in the learning result storage unit 111 as learning results. .. The abnormality detection unit 112 detects an abnormality in the equipment 101 by comparing the abnormality measure of each feature vector sent from the abnormality measure calculation unit 109 with the threshold value calculated by the threshold value calculation unit 110. The detection result detected by the abnormality detection unit 112 is output to the output unit 113.

ここで、以下で用いる用語の簡単な説明を行う。特徴ベクトルとは、複数のセンサによる測定値を1つのベクトル値として表現したものである。異常測度とは、注目する特徴ベクトルの、指定された期間の特徴ベクトルからの偏移量のことである。つまり、異常測度とは、複数のセンサによる測定値を1つのベクトル値として表現し、正常状態のベクトル値からの偏移量のことである。 Here, a brief description of the terms used below will be given. The feature vector is a representation of the values measured by a plurality of sensors as one vector value. The anomalous measure is the amount of offset of the feature vector of interest from the feature vector over a specified time period. That is, the anomaly measure is an amount of deviation from the vector value in the normal state by expressing the value measured by a plurality of sensors as one vector value.

異常検知の対象とする設備101は、例えば、ガスタービンや蒸気タービンなどの設備やプラントである。設備101は、その状態を表すセンサ信号102を出力する。センサ信号102はセンサ信号蓄積部103に蓄積される。 The equipment 101 to be detected for abnormality is, for example, equipment or a plant such as a gas turbine or a steam turbine. The equipment 101 outputs a sensor signal 102 indicating the state. The sensor signal 102 is stored in the sensor signal storage unit 103.

図2は、複数のセンサ信号102をリスト化して表形式に表した例である。
センサ信号102は、物理特性の異なる複数の物理情報が所定間隔毎に取得される多次元時系列信号である。図2に示す表の構成は、日時201の情報と、複数のセンサのセンサ値202を対応させて示している。センサは、数百から数千といった数になる場合もあり、それらの種類によって、例えば、シリンダ、オイル、冷却水などの温度、オイルや冷却水の圧力、軸の回転速度、室温、運転時間などをセンサ値として出力する。センサ値は、設備やプラントなどの出力や状態を表すのみならず、何かの状態をある値(たとえば目標値)に制御するための制御信号の場合もある。
FIG. 2 is an example in which a plurality of sensor signals 102 are listed and represented in a table format.
The sensor signal 102 is a multidimensional time-series signal in which a plurality of physical information having different physical characteristics is acquired at predetermined intervals. The structure of the table shown in FIG. 2 shows the information of the date and time 201 and the sensor values 202 of the plurality of sensors in correspondence with each other. Sensors can range from hundreds to thousands, depending on their type, for example, temperature of cylinders, oil, cooling water, pressure of oil or cooling water, shaft speed, room temperature, operating time, etc. Is output as a sensor value. The sensor value not only represents the output or state of equipment or plant, but may also be a control signal for controlling the state of something to a certain value (for example, a target value).

異常検知装置100の動作には、センサ信号蓄積部103に蓄積されたデータを用いてセンサグループを設定する「センサグループ設定」処理と、センサ信号蓄積部103に蓄積されたデータを用いて学習データの生成及び保存を行う「学習」処理と、入力信号に基づき異常を検知する「異常検知」処理のフェーズがある。基本的に「センサグループ設定」と「学習」はオフラインの処理、「異常検知」はオンラインの処理である。ただし、「異常検知」をオフラインの処理とすることも可能である。以下の説明では、それらを「センサグループ設定時」「学習時」、「異常検知時」という言葉で区別する。 For the operation of the abnormality detection device 100, a "sensor group setting" process for setting a sensor group using the data stored in the sensor signal storage unit 103 and learning data using the data stored in the sensor signal storage unit 103 are used. There is a phase of "learning" processing that generates and saves data, and "abnormality detection" processing that detects an abnormality based on an input signal. Basically, "sensor group setting" and "learning" are offline processing, and "anomaly detection" is online processing. However, it is also possible to make "abnormality detection" an offline process. In the following explanation, they are distinguished by the terms "at the time of sensor group setting", "at the time of learning", and "at the time of abnormality detection".

図3の処理フローを参照して、実施形態の異常検知装置100の動作について説明する。
尚、図3では処理の概要を記載している。
The operation of the abnormality detection device 100 of the embodiment will be described with reference to the processing flow of FIG.
Note that FIG. 3 shows an outline of the process.

(a)はセンサグループ設定処理で、指定期間のセンサ信号を入力し(S301)、センサ信号間の類似度を算出し(S302)、類似度に基づきセンサグループを設定する(S303)。 (A) is a sensor group setting process, in which a sensor signal for a specified period is input (S301), the similarity between the sensor signals is calculated (S302), and the sensor group is set based on the similarity (S303).

(b)は学習時の異常測度算出処理で、学習期間のセンサ信号を入力し(S311)、特徴ベクトルの抽出(S312)と異常測度の算出(S313)としきい値の算出(S314)を行う。 (B) is the abnormality measure calculation process at the time of learning, in which the sensor signal of the learning period is input (S311), the feature vector is extracted (S312), the abnormality measure is calculated (S313), and the threshold value is calculated (S314). ..

(c)は異常検知時の異常判定処理で、検知対象のセンサ信号を入力し(S321)、特徴ベクトルの抽出(S322)と異常測度の算出(S323)を行う。そして、算出した異常測度をS314で求めたしきい値と比較することにより、設備の正常/異常を判定する(S324)。なお、(b)(c)は、センサグループ設定部105で設定されたグループ毎の処理である。 (C) is an abnormality determination process at the time of abnormality detection, in which a sensor signal to be detected is input (S321), a feature vector is extracted (S322), and an abnormality measure is calculated (S323). Then, the normality / abnormality of the equipment is determined by comparing the calculated abnormality measure with the threshold value obtained in S314 (S324). Note that (b) and (c) are processes for each group set by the sensor group setting unit 105.

以下、(a)(b)(c)の順に説明するが、それぞれの詳細なフローは、図4、図5、図9A、図9B、図10A、図11にて説明する。 Hereinafter, the following will be described in the order of (a), (b), and (c), and the detailed flow of each will be described with reference to FIGS. 4, 5, 9A, 9B, 10A, and 11.

図4のフローを参照して、実施例1のセンサグループ設定処理について説明する。
最初に、信号入力部(第1のセンサ信号入力部)104において、センサ信号蓄積部103に蓄積されたセンサ値のうち指定された期間のセンサ信号を入力する(S401)。次に、センサグループ設定部105において、センサ2個の総当りで二次元頻度分布画像を作成する(S402)。次に、二次元頻度分布画像をもとにセンサ信号間の類似度を算出する(S403)。
The sensor group setting process of the first embodiment will be described with reference to the flow of FIG.
First, the signal input unit (first sensor signal input unit) 104 inputs a sensor signal for a specified period among the sensor values stored in the sensor signal storage unit 103 (S401). Next, the sensor group setting unit 105 creates a two-dimensional frequency distribution image by brute force of the two sensors (S402). Next, the similarity between the sensor signals is calculated based on the two-dimensional frequency distribution image (S403).

次に、類似度に基づく階層的クラスタリングを行う(S404)。各クラスタには入力した全てのセンサ信号が重複なく割り当てられており、これがすなわちセンサグループとなる。最後に、グループ情報をグループ情報蓄積部106に保存する(S405)。出力部113に出力される出力形式は、センサグループ毎の使用センサのセンサ名または番号のリストあるいは不使用センサのセンサ名または番号である。 Next, hierarchical clustering based on similarity is performed (S404). All input sensor signals are assigned to each cluster without duplication, which is a sensor group. Finally, the group information is stored in the group information storage unit 106 (S405). The output format output to the output unit 113 is a list of sensor names or numbers of used sensors or sensor names or numbers of unused sensors for each sensor group.

ここで、図5を参照して、二次元頻度分布算出処理(S402)について説明する。図5は、二次元頻度分布算出処理のフローを示す図である。
始めに、指定された期間のセンサ信号を入力する(S501)。各センサ信号についてステップS503からS506までの処理を繰り返す(S502、ループ1)。まず、学習期間のデータの最大値(MAX)と最小値(MIN)を求める(S503)。次に、最小値から最大値までの範囲を指定された数Nで分割する際の刻み幅Sを算出する(S504)。なお、S=(MAX−MIN)/Nで計算できる。次に、二次元頻度分布算出の処理範囲を算出する(S505)が、ここではステップS503で算出されたMINからMAXをそのまま処理範囲とする。
Here, the two-dimensional frequency distribution calculation process (S402) will be described with reference to FIG. FIG. 5 is a diagram showing a flow of a two-dimensional frequency distribution calculation process.
First, the sensor signal for the specified period is input (S501). The processing from steps S503 to S506 is repeated for each sensor signal (S502, loop 1). First, the maximum value (MAX) and the minimum value (MIN) of the data of the learning period are obtained (S503). Next, the step size S when dividing the range from the minimum value to the maximum value by a designated number N is calculated (S504). It can be calculated by S = (MAX-MIN) / N. Next, the processing range for calculating the two-dimensional frequency distribution is calculated (S505), but here, MAX is used as it is from the MIN calculated in step S503.

次に学習期間の全データについて、次式によりセンサ信号値(F)からビン番号(BNO)を算出する(S506)。
BNO=INT(N*(F−MIN)/(MAX−MIN))
ただし関数INT(X)はXの整数部を表す。ビン番号(BNO)を用いることで、各信号値は最小値0〜最大値Nの(N+1)段階の整数値に変換される。
Next, for all the data in the learning period, the bin number (BNO) is calculated from the sensor signal value (F) by the following equation (S506).
BNO = INT (N * (F-MIN) / (MAX-MIN))
However, the function INT (X) represents the integer part of X. By using the bin number (BNO), each signal value is converted into an integer value in (N + 1) steps from the minimum value to the maximum value N.

次に、複数のセンサの中から2個のセンサを取り出し、それぞれのセンサ信号の組合せに基づき二次元頻度分布を算出する。これを全てのセンサの組合せについて、ステップS508からS510までの処理を繰り返す(S507、ループ2)。ここで、2個のセンサの組合せの中には同一センサの組合せを含める。従ってセンサの組合せ数(繰り返し数)は、(センサ数)×(センサ数+1)/2となる。 Next, two sensors are taken out from the plurality of sensors, and the two-dimensional frequency distribution is calculated based on the combination of the respective sensor signals. This repeats the processes from steps S508 to S510 for all sensor combinations (S507, loop 2). Here, the combination of the same sensor is included in the combination of the two sensors. Therefore, the number of sensor combinations (repetition number) is (number of sensors) × (number of sensors + 1) / 2.

まず、二次元分布算出用の二次元配列を確保し、全ての要素に0をセットする(S508)。配列のサイズはNである。学習期間の全データについて、2個のセンサ信号のビン番号BNOに対応する配列の要素に1を加算する(S509)。すなわち、一方のセンサ信号のビン番号は列の要素に対応させ、他方のセンサ信号のビン番号は行の要素に対応させる。この処理により、センサ2個による信号の二次元の頻度分布(ヒストグラム)が算出される。この頻度分布を画像に変換して保存する(S510)。変換方法については後述する。図6は、時系列センサ信号と二次元頻度分布画像の関係を表す図である。 First, a two-dimensional array for calculating the two-dimensional distribution is secured, and 0 is set for all the elements (S508). The size of the array is N. For all the data in the learning period, 1 is added to the elements of the array corresponding to the bin numbers BNO of the two sensor signals (S509). That is, the bin number of one sensor signal corresponds to a column element, and the bin number of the other sensor signal corresponds to a row element. By this process, a two-dimensional frequency distribution (histogram) of the signal by the two sensors is calculated. This frequency distribution is converted into an image and saved (S510). The conversion method will be described later. FIG. 6 is a diagram showing the relationship between the time series sensor signal and the two-dimensional frequency distribution image.

ステップS510における、画像変換方法の例を説明する。
始めに配列要素の最大値すなわち最大頻度を求める。画像サイズは配列サイズと同じとし、各要素の値から対応する座標の画素値を例えば、255×配列の要素値/最大頻度とする。数値255は画素値を8ビットで表す場合の最大値であり、この値を用いれば、そのままビットマップ形式で保存できる。あるいは、画素値を255×LOG(配列の要素値+1)/LOG(最大頻度+1)とする。ただし関数LOG(X)はXの対数を表す。このような変換式を用いれば、最大頻度が大きい場合も、非ゼロの頻度に非ゼロの画素値を対応させることが可能になる。
An example of the image conversion method in step S510 will be described.
First, find the maximum value of the array elements, that is, the maximum frequency. The image size is the same as the array size, and the pixel value of the corresponding coordinates from the value of each element is, for example, 255 × the element value of the array / the maximum frequency. The numerical value 255 is the maximum value when the pixel value is represented by 8 bits, and if this value is used, it can be saved as it is in the bitmap format. Alternatively, the pixel value is 255 × LOG (array element value + 1) / LOG (maximum frequency +1). However, the function LOG (X) represents the logarithm of X. By using such a conversion formula, it is possible to associate a non-zero pixel value with a non-zero frequency even when the maximum frequency is high.

頻度分布画像の作り方は、上記方法に限定されない。例えば単純な頻度分布ではなく、1個のデータにガウス分布や他の重みつきフィルタを割り当て、それを重畳するようにしてもよい。あるいは、上記方法で得られた画像に所定サイズの最大値フィルタをかけたり、平均フィルタ、その他の重みつきフィルタをかけたりしてもよい。また、8ビットではなく、16ビットに変換してもよい。また、必ずしも画像形式で保存する必要はなく二次元配列を変換せずにバイナリあるいはテキスト形式で保存してもよい。 The method of creating the frequency distribution image is not limited to the above method. For example, instead of a simple frequency distribution, a Gaussian distribution or another weighted filter may be assigned to one data and superposed on the data. Alternatively, the image obtained by the above method may be filtered with a maximum value of a predetermined size, an average filter, or another weighted filter. Further, it may be converted to 16 bits instead of 8 bits. Further, it is not always necessary to save in the image format, and the two-dimensional array may be saved in the binary or text format without conversion.

次に、センサ信号間の類似度算出処理(S403)について説明する。
ここで、センサ信号間の類似度とは、信号値がお互いに影響を及ぼしているかどうかを定量化したものを表す。そこで、ステップS402で算出した二次元頻度分布画像を利用して類似度を算出する。
Next, the similarity calculation process (S403) between the sensor signals will be described.
Here, the similarity between the sensor signals represents a quantification of whether or not the signal values influence each other. Therefore, the similarity is calculated using the two-dimensional frequency distribution image calculated in step S402.

図7は、センサaとセンサbの類似度算出を説明する図である。左から、センサa同士、センサb同士、センサaとセンサbの二次元頻度分布画像である。 FIG. 7 is a diagram illustrating the calculation of the similarity between the sensor a and the sensor b. From the left, it is a two-dimensional frequency distribution image of sensors a to each other, sensors b to each other, and sensors a and b.

図5の処理により得られるこれらの画像は、二次元の特徴空間上で密度が高いところが高い画素値で表されている。ここでは、通常の濃淡画像とは異なり、画素値の0を白、255を黒で表したグレイスケールの画像である。これらの画像から、まずゼロでない画素をカウントしそれぞれCount(a, a)、Count(b, b)、Count(a, b)とする。類似度Similarity(a, b) を(数1)により算出する。ただし,Count(b, b) > Count(a, a)の場合は,次式のaとbを入れ替えて計算する。 These images obtained by the processing of FIG. 5 are represented by high pixel values where the density is high in the two-dimensional feature space. Here, unlike a normal shading image, the pixel value 0 is white and 255 is black, which is a grayscale image. From these images, first, non-zero pixels are counted and used as Count (a, a), Count (b, b), and Count (a, b), respectively. The similarity (a, b) is calculated by (Equation 1). However, if Count (b, b)> Count (a, a), the calculation is performed by exchanging a and b in the following equation.

Figure 2020201890
Figure 2020201890

状態数が多い方のセンサの値を決めたときにもう一方のセンサの値の範囲が小さいほど類似度が高いという考えに基づいて設計した式であり、対角線のみのときは類似度が1、全面塗りつぶされたときは類似度が0になる。 This formula was designed based on the idea that the smaller the range of values of the other sensor, the higher the similarity when determining the value of the sensor with the larger number of states. When only the diagonal line is used, the similarity is 1. When the entire surface is filled, the similarity becomes 0.

図8A〜図8Cは、二次元頻度分布画像のいくつかの例を示す図である。横軸にセンサaの信号値(ビン番号)を、縦軸にセンサbの信号値(ビン番号)を示す。 8A-8C are diagrams showing some examples of two-dimensional frequency distribution images. The horizontal axis shows the signal value (bin number) of the sensor a, and the vertical axis shows the signal value (bin number) of the sensor b.

二次元頻度分布画像は2つのセンサの相関の強さに応じて、画像のパターンが変化する。図8Aと図8Bは相関が強い場合で、特に図8Aは状態遷移に時間的なずれが存在する場合である。図8Cは、相関が弱い場合である。ここで、図8Aの二次元頻度分布画像における類似度は0.893であり、図8Bの二次元頻度分布画像における類似度は0.838であり、図8Cの二次元頻度分布画像における類似度は0.084である。 In the two-dimensional frequency distribution image, the pattern of the image changes according to the strength of the correlation between the two sensors. 8A and 8B show a case where the correlation is strong, and FIG. 8A shows a case where there is a time lag in the state transition. FIG. 8C shows a case where the correlation is weak. Here, the similarity in the two-dimensional frequency distribution image of FIG. 8A is 0.893, the similarity in the two-dimensional frequency distribution image of FIG. 8B is 0.838, and the similarity in the two-dimensional frequency distribution image of FIG. 8C. Is 0.084.

なお、データ間の関係を表す数値として相関係数が知られているが、これは線形性を表す尺度であり、お互いに影響がある場合の全てをカバーすることができない。図8Aは、センサ相互の影響は強いが相関係数は低い例である。 The correlation coefficient is known as a numerical value representing the relationship between data, but this is a measure of linearity and cannot cover all cases where they affect each other. FIG. 8A shows an example in which the mutual influence between the sensors is strong but the correlation coefficient is low.

次に、階層的クラスタリング処理(S404)について説明する。
階層的クラスタリングは、個々のデータを1個ずつのクラスタに割り当てるところから開始し、類似したクラスタを再帰的に結合していくものである。結合するクラスタを選択する基準によって、最短距離法、最長距離法、群平均法などの手法がある。それぞれの方法において、クラスタ間の類似度は、クラスタをまたがるデータ間の類似度の最大値、最小値、平均値で定義される。クラスタ間の類似度が大きい組から順次結合して1個のクラスタとしていき、全てのクラスタ間の類似度が予め定めた類似度基準値を下回ったとき、結合を停止する。ただし、着目する2個のクラスタに含まれるデータ数の合計が予め定めた最大センサ数より大きい場合は類似度を0とみなすことにより、1個のクラスタに含まれるデータ数が最大数を超えないようにする。類似度基準値はパラメータであり0から1の間の実数を指定する。また、最大センサ数もパラメータである。
Next, the hierarchical clustering process (S404) will be described.
Hierarchical clustering starts with assigning individual data to each cluster and recursively joins similar clusters. Depending on the criteria for selecting the clusters to be joined, there are methods such as the shortest distance method, the longest distance method, and the group averaging method. In each method, the similarity between clusters is defined by the maximum, minimum, and average values of similarity between data across clusters. The groups with the highest similarity between clusters are sequentially combined into one cluster, and when the similarity between all clusters falls below a predetermined similarity reference value, the combination is stopped. However, if the total number of data contained in the two clusters of interest is greater than the predetermined maximum number of sensors, the similarity is regarded as 0 so that the number of data contained in one cluster does not exceed the maximum number. To do so. The similarity reference value is a parameter and specifies a real number between 0 and 1. The maximum number of sensors is also a parameter.

図9Aのフローを参照して、実施例2センサグループ設定処理について説明する。実施例2は同じグループとしたいセンサを予め指定しておく処理である。 The second embodiment sensor group setting process will be described with reference to the flow of FIG. 9A. The second embodiment is a process of designating sensors to be in the same group in advance.

最初に、信号入力部(第1のセンサ信号入力部)104において、センサ信号蓄積部103に蓄積されたセンサ値のうち指定された期間のセンサ信号を入力する(S901)。次に、センサグループ設定部105において、センサ2個の総当りで二次元頻度分布画像を作成する(S902)。次に、二次元頻度分布画像をもとにセンサ信号間の類似度を算出する(S903)。次に、センサグループ設定に関する指示を入力する(S904)。GUIから入力、ファイルの読み込みなど方法は問わないが、同じセンサグループとしたいセンサが指定されるものとする。指定される組合せは複数あってもよい。 First, the signal input unit (first sensor signal input unit) 104 inputs a sensor signal for a specified period among the sensor values stored in the sensor signal storage unit 103 (S901). Next, the sensor group setting unit 105 creates a two-dimensional frequency distribution image by brute force of the two sensors (S902). Next, the similarity between the sensor signals is calculated based on the two-dimensional frequency distribution image (S903). Next, an instruction regarding the sensor group setting is input (S904). It doesn't matter how you input from the GUI or read the file, but it is assumed that the sensors you want to have in the same sensor group are specified. There may be a plurality of specified combinations.

次に、同じセンサグループと指定されたセンサ間の類似度をステップS903で算出された値によらず1とする(S905)。次に、類似度に基づく階層的クラスタリングを行う(S906)。同じセンサグループと指定されたセンサは類似度が1なので階層的クラスタリングの初めの段階で結合され、指定されていないセンサは類似度に応じて結合される。ステップS404と同様、予め最大センサ数と類似度基準値を指定しておき、最大センサ数を超える場合は結合せず、全てのクラスタ間の距離が類似度基準値を下回った場合は結合を停止する。最後に、グループ情報をグループ情報蓄積部106に保存する(S907)。 Next, the similarity between the same sensor group and the designated sensor is set to 1 regardless of the value calculated in step S903 (S905). Next, hierarchical clustering based on similarity is performed (S906). The same sensor group and designated sensors have a similarity of 1, so they are combined at the beginning of hierarchical clustering, and unspecified sensors are combined according to their similarity. Similar to step S404, the maximum number of sensors and the similarity reference value are specified in advance, and if the maximum number of sensors is exceeded, the coupling is not performed, and if the distance between all clusters is less than the similarity reference value, the coupling is stopped. To do. Finally, the group information is stored in the group information storage unit 106 (S907).

図9Bのフローを参照して、実施例3のセンサグループ設定処理について説明する。実施例3はグループの核として予め指定されたセンサに類似したセンサを同じグループとする処理である。 The sensor group setting process of the third embodiment will be described with reference to the flow of FIG. 9B. The third embodiment is a process in which sensors similar to the sensors designated in advance as the core of the group are grouped in the same group.

最初に、センサ信号入力(S911)と二次元頻度分布画像作成(S912)とセンサ信号間類似度算出(S913)は、実施例2と同様である。 First, the sensor signal input (S911), the two-dimensional frequency distribution image creation (S912), and the sensor signal similarity calculation (S913) are the same as in the second embodiment.

次に、センサグループ設定に関する指示を入力する(S914)。ここでは、センサグループの核としたい1個ないし複数個のセンサからなるセンサ群が指定されるものとする。指示の数は複数でもよく、以下の処理は指示毎に独立して行う(S915)。 Next, an instruction regarding the sensor group setting is input (S914). Here, it is assumed that a sensor group consisting of one or a plurality of sensors to be the core of the sensor group is specified. The number of instructions may be plural, and the following processing is performed independently for each instruction (S915).

まず、新しい1個のクラスタを作成し指定されたセンサ群をそのクラスタに入れる(S916)。次に、指定されていないセンサとセンサ群の間の類似度を算出する(S917)。センサとクラスタの類似度は、例えば注目センサとセンサ群のセンサの類似度の平均とする。あるいは、最小値または最大値とする。 First, a new cluster is created and the designated sensor group is put into the cluster (S916). Next, the degree of similarity between the undesignated sensor and the sensor group is calculated (S917). The similarity between the sensor and the cluster is, for example, the average of the similarity between the sensor of interest and the sensor in the sensor group. Alternatively, it is set to the minimum value or the maximum value.

次に、算出した類似度が高い順にセンサを同じクラスタに入れていく(S918)。ただし、予め指定した最大センサ数以内かつ予め指定した類似度基準値以上の場合とする。指示の個数分ステップS916〜S918の処理が終了したら、次に、新しい1個のクラスタを作成し、どのクラスタにも入れられていないセンサを入れる(S919)。最後に、グループ情報をグループ情報蓄積部106に保存する(S920)。 Next, the sensors are put into the same cluster in descending order of the calculated similarity (S918). However, it shall be the case within the maximum number of sensors specified in advance and the similarity reference value or more specified in advance. When the processing of steps S916 to S918 for the number of instructions is completed, next, one new cluster is created and sensors that are not included in any cluster are inserted (S919). Finally, the group information is stored in the group information storage unit 106 (S920).

図4および図9A、図9Bで説明したセンサグループ設定処理における、更なる変形例について述べる。 Further modifications of the sensor group setting process described with reference to FIGS. 4 and 9A and 9B will be described.

第一の例では、予め全てのグループに含めるセンサを指定しておき、上記いずれかの方法でグループ設定された後に、指定されたセンサを前グループに入れる処理を加える。第二の例では、センサ信号入力後(S401)、センサ信号に基づくデータクレンジング処理を行う。これは、解析に悪影響を及ぼす欠損値、エラー値などのノイズデータを除去する処理である。具体的には、センサ毎のヒストグラムをもとに主要な分布から外れていてかつ発生比率が低いデータを削除する。データクレンジング処理により、センサ間の類似度の算出精度を向上させることができる。 In the first example, the sensors to be included in all the groups are specified in advance, and after the group is set by any of the above methods, the process of putting the specified sensors into the previous group is added. In the second example, after the sensor signal is input (S401), the data cleansing process based on the sensor signal is performed. This is a process for removing noise data such as missing values and error values that adversely affect the analysis. Specifically, based on the histogram for each sensor, data that deviates from the main distribution and has a low occurrence ratio is deleted. The data cleansing process can improve the accuracy of calculating the similarity between sensors.

次に、図10Aのフローを参照して、図3(b)の学習時の異常測度算出処理について説明する。これは、S303で設定されたセンサグループ毎の処理とする。 Next, the abnormality measure calculation process during learning of FIG. 3B will be described with reference to the flow of FIG. 10A. This is the processing for each sensor group set in S303.

最初に、信号入力部(第2のセンサ信号入力部)107において、センサ信号蓄積部103に蓄積されたセンサ値のうち指定された期間(学習期間)のセンサ信号を入力する(S1001)。学習期間として、設備が正常な状態であった期間を指定するものとする。次に、特徴ベクトル抽出部108において、入力されたセンサ信号を正準化する(S1002)。特徴ベクトル抽出部108は、グループ情報蓄積部106から、着目グループに含まれるセンサの情報を取得し、正準化および後述する特徴ベクトル抽出はグループに含まれるセンサを対象とするものとする。 First, the signal input unit (second sensor signal input unit) 107 inputs the sensor signal for a specified period (learning period) among the sensor values stored in the sensor signal storage unit 103 (S1001). As the learning period, the period during which the equipment was in a normal state shall be specified. Next, the feature vector extraction unit 108 normalizes the input sensor signal (S1002). The feature vector extraction unit 108 acquires the information of the sensors included in the group of interest from the group information storage unit 106, and the normalization and the feature vector extraction described later target the sensors included in the group.

センサ信号の正準化は、単位及びスケールの異なる複数のセンサ信号を同様に扱うために行う。具体的には、各センサ信号の、学習期間の平均と標準偏差を用いて、平均が0、分散が1となるように各センサ信号を変換する。異常検知時に同じ変換ができるように、各センサ信号の平均と標準偏差を記憶しておく。または、各センサ信号の、学習期間の最大値と最小値を用いて、最大が1、最小が0となるように各センサ信号を変換する。または、最大値と最小値の代わりに予め設定した上限値と下限値を用いてもよい。この場合は、異常検知時に同様の変換ができるように、各センサ信号の最大値と最小値または上限値と下限値を学習結果蓄積部109に記憶しておく。 Normalization of sensor signals is performed in order to handle a plurality of sensor signals having different units and scales in the same manner. Specifically, each sensor signal is converted so that the average is 0 and the variance is 1 by using the average and standard deviation of the learning period of each sensor signal. The average and standard deviation of each sensor signal are stored so that the same conversion can be performed when an abnormality is detected. Alternatively, each sensor signal is converted so that the maximum is 1 and the minimum is 0 by using the maximum and minimum values of the learning period of each sensor signal. Alternatively, preset upper and lower limit values may be used instead of the maximum and minimum values. In this case, the maximum value and the minimum value or the upper limit value and the lower limit value of each sensor signal are stored in the learning result storage unit 109 so that the same conversion can be performed when an abnormality is detected.

次に、特徴ベクトル抽出部108において、各時刻の特徴ベクトルを抽出する(S1003)。特徴ベクトルは、センサ信号を正準化したものをそのまま要素として並べたものである。あるいは、ある時刻に対して±1,±2,・・・のウィンドウを設け、ウィンドウ幅(3,5,・・・)×センサ数の特徴ベクトルとすることで、センサ信号の時間変化を表す特徴を抽出することもできる。また、離散ウェーブレット変換(DWT:Discrete Wavelet Transform)を施して、周波数成分に分解してもよい。 Next, the feature vector extraction unit 108 extracts the feature vector at each time (S1003). The feature vector is a canonicalized sensor signal arranged as an element as it is. Alternatively, a window of ± 1, ± 2, ... For a certain time is provided, and the time change of the sensor signal is represented by setting the window width (3, 5, ...) × the feature vector of the number of sensors. Features can also be extracted. Further, the discrete wavelet transform (DWT: Discrete Wavelet Transform) may be performed to decompose into frequency components.

次に、異常測度算出部109において、学習期間の異常測度を算出する。まず学習期間を複数の区間に分け(S1004)、抽出した全特徴ベクトルについて、以下の処理を繰り返す(S1005)。複数区間に対応して順次選んだ特徴ベクトルである注目ベクトルと、注目ベクトルと同じ区間を除く学習期間のデータを学習データとする(S1006)。注目ベクトルと学習データを用いて異常測度を算出する(S1007)。ステップS1004における区間の分割は例えば1日毎とする。あるいは、化学プラントのようなバッチ処理の場合はバッチ毎、加工装置の場合は加工対象個体毎、MRIのような医療装置の場合は検査対象者毎としてもよい。ステップS1007の異常測度算出処理には、局所部分空間法(LSC:Local Sub-space Classifier)や投影距離法(PDM:Projection Distance Method)を用いることができる。 Next, the abnormality measure calculation unit 109 calculates the abnormality measure during the learning period. First, the learning period is divided into a plurality of sections (S1004), and the following processing is repeated for all the extracted feature vectors (S1005). The attention vector, which is a feature vector sequentially selected corresponding to a plurality of sections, and the data of the learning period excluding the same section as the attention vector are used as training data (S1006). The anomaly measure is calculated using the attention vector and the training data (S1007). The division of the section in step S1004 is, for example, every day. Alternatively, in the case of batch processing such as a chemical plant, it may be for each batch, in the case of a processing device, it may be for each individual to be processed, and in the case of a medical device such as MRI, it may be for each inspection target. A local sub-space method (LSC: Local Sub-space Classifier) or a projection distance method (PDM) can be used for the anomaly measure calculation process in step S1007.

図10Bは、局所部分空間法による異常測度算出処理を説明する図である。
局所部分空間法は、注目ベクトルqに対するk個の近傍ベクトルを選択し、選択したk個の近傍ベクトルが張るk−1次元のアフィン部分空間へ注目ベクトルqを投影したときの投影距離を測る方法である。図10Bでは、k=3個の近傍ベクトルx1〜x3でアフィン部分空間を形成した場合である。そして、注目ベクトルqに最も近いアフィン部分空間上の点Xbが投影点(基準ベクトル)となり、注目ベクトルqから基準ベクトルXbまでの距離が異常測度である。
FIG. 10B is a diagram illustrating an abnormality measure calculation process by the local subspace method.
The local subspace method is a method of selecting k neighborhood vectors with respect to the attention vector q and measuring the projection distance when the attention vector q is projected onto the k-1 dimensional affine subspace stretched by the selected k neighborhood vectors. Is. In FIG. 10B, the affine subspace is formed by k = 3 neighborhood vectors x1 to x3. Then, the point Xb on the affine subspace closest to the attention vector q becomes the projection point (reference vector), and the distance from the attention vector q to the reference vector Xb is an anomalous measure.

具体的な算出法を説明する。評価データqとそのk個の近傍ベクトルxi(i=1,・・・,k)から、qをk個並べた行列Qとxiを並べた行列Xを作成し、(数2)から両者の相関行列Cを求める。次に、(数3)から近傍ベクトルxiの重み付けを表す係数ベクトルbを計算する。異常測度dは、ベクトル(q−Xb)のノルムまたはその2乗により算出される。 A specific calculation method will be described. From the evaluation data q and its k neighborhood vectors xi (i = 1, ..., K), a matrix Q in which k qs are arranged and a matrix X in which xis are arranged are created, and both of them are obtained from (Equation 2). Find the correlation matrix C. Next, the coefficient vector b representing the weighting of the neighborhood vector xi is calculated from (Equation 3). The anomaly measure d is calculated by the norm of the vector (q-Xb) or its square.

Figure 2020201890
Figure 2020201890

Figure 2020201890
Figure 2020201890

なお、図10Bではk=3の場合を説明したが、特徴ベクトルの次元数より十分小さければいくつでもよい。k=1の場合は、最近傍法と等価の処理になる。 Although the case of k = 3 has been described in FIG. 10B, any number may be used as long as it is sufficiently smaller than the number of dimensions of the feature vector. When k = 1, the process is equivalent to the nearest neighbor method.

投影距離法は、選択された特徴ベクトルに対し独自の原点をもつ部分空間すなわちアフィン部分空間(分散最大の空間)を作成する方法である。何らかの方法で注目ベクトルに対応する複数の特徴ベクトルを選択し、以下の方法でアフィン部分空間を算出する。 The projection distance method is a method of creating a subspace having a unique origin for the selected feature vector, that is, an affine subspace (space with the maximum variance). A plurality of feature vectors corresponding to the attention vector are selected by some method, and the affine subspace is calculated by the following method.

まず、選択された特徴ベクトルの平均μと共分散行列Σを求め、次にΣの固有値問題を解いて、値の大きい方から予め指定したr個の固有値に対応する固有ベクトルを並べた行列Uをアフィン部分空間の正規直交基底とする。rは特徴ベクトルの次元より小さくかつ選択データ数より小さい数とする。またはrを固定した数とせず、固有値の大きい方から累積した寄与率が予め指定した割合を超えたときの値としてもよい。注目ベクトルから最も近いアフィン部分空間上の点が基準ベクトルとなる。また、注目ベクトルから基準ベクトルを引いたものが残差ベクトルとなり、残差ベクトルのノルムまたはノルムの2乗が異常測度となる。 First, the mean μ of the selected feature vectors and the covariance matrix Σ are obtained, then the eigenvalue problem of Σ is solved, and the matrix U in which the eigenvectors corresponding to the r eigenvalues specified in advance are arranged from the largest value is obtained. Let it be an orthonormal basis of the affine subspace. r is a number smaller than the dimension of the feature vector and smaller than the number of selected data. Alternatively, r may not be a fixed number, but may be a value when the cumulative contribution rate from the larger eigenvalue exceeds a predetermined ratio. The point on the affine subspace closest to the attention vector is the reference vector. Further, the vector obtained by subtracting the reference vector from the vector of interest is the residual vector, and the norm of the residual vector or the square of the norm is the anomalous measure.

ここで、複数の特徴ベクトルの選択方法としては、予め指定した数十から数百の数の特徴ベクトルを注目ベクトルから近い順に選択する方法がある。また、学習対象の特徴ベクトルを予めクラスタリングしておき、注目ベクトルに最も近いクラスタに含まれる特徴ベクトルを選択するようにしてもよい。また、注目ベクトルqのk−近傍ベクトルの平均ベクトルまでの距離を異常測度とする局所平均距離法や、ガウシアンプロセスなどを用いてもよい。 Here, as a method of selecting a plurality of feature vectors, there is a method of selecting a predetermined number of tens to hundreds of feature vectors in order of proximity to the attention vector. Further, the feature vector to be learned may be clustered in advance, and the feature vector included in the cluster closest to the attention vector may be selected. Further, a local average distance method in which the distance of the k-nearest neighbor vector of the attention vector q to the average vector is used as an anomalous measure, a Gaussian process, or the like may be used.

全特徴ベクトルについて異常測度算出処理後、しきい値算出部110において、しきい値を算出する(S1008)。このしきい値は、異常検出部113に入力する異常測度と比較され、設備の正常/異常を判定するために用いられるものである。しきい値算出部107は、正常な学習データを異常と判定しないしきい値を算出する。言い換えれば、正常な学習データから得られる異常測度の最大値をしきい値として算出する。 After the anomaly measure calculation process for all feature vectors, the threshold value calculation unit 110 calculates the threshold value (S1008). This threshold value is compared with the abnormality measure input to the abnormality detection unit 113, and is used to determine the normality / abnormality of the equipment. The threshold value calculation unit 107 calculates a threshold value that does not determine normal learning data as abnormal. In other words, the maximum value of the anomalous measure obtained from normal learning data is calculated as the threshold value.

あるいは、正常な学習データを予め定めた割合より多く正常と判定するしきい値を算出することにしてもよい。この場合は、正常な学習データから得られる異常測度をソートし、異常測度が低い方から前述の予め定めた割合に到達するところの異常測度をしきい値として採用する。 Alternatively, the threshold value for determining normal learning data as more than a predetermined ratio may be calculated. In this case, the anomaly measure obtained from the normal learning data is sorted, and the anomaly measure at which the anomaly measure reaches the predetermined ratio from the one with the lowest anomaly measure is adopted as the threshold value.

図10Aの学習処理においては、学習結果蓄積部111に学習結果を保存しておく。学習結果として保存されるデータには、少なくとも特徴ベクトル抽出のためのパラメータ、異常測度算出のためのパラメータ、センサ正準化のためのパラメータ、抽出した全特徴ベクトルデータ、異常判定しきい値、特徴ベクトル抽出のためのパラメータ及び異常測度算出のためのパラメータは、学習時に指定されたものと共通である。センサ正準化のためのパラメータは、センサ信号入力部107がステップS1002の処理で算出した各センサ信号の平均、標準偏差、最大値、最小値などである。 In the learning process of FIG. 10A, the learning result is stored in the learning result storage unit 111. The data saved as the training result includes at least parameters for feature vector extraction, parameters for anomaly measurement calculation, parameters for sensor normalization, all extracted feature vector data, anomaly determination threshold, and features. The parameters for vector extraction and the parameters for calculating the anomaly measure are the same as those specified at the time of learning. The parameters for sensor normalization are the average, standard deviation, maximum value, minimum value, and the like of each sensor signal calculated by the sensor signal input unit 107 in the process of step S1002.

次に、図11を参照して、図3(c)の異常検知時の異常判定処理について説明する。 図11は、異常検出部112による異常検知処理(S321〜S324)のフローを示す図である。ここでは、センサ信号蓄積部103に蓄積されたデータのうち指定された期間のデータ、または新たに観測されたデータについて、特徴ベクトルの抽出(特徴ベクトル抽出部108)、異常測度の算出(異常測度算出部109)を行い、これをしきい値(しきい値算出部111)と比較して、異常検出部112にて正常か異常かの判定を行う。 Next, with reference to FIG. 11, the abnormality determination process at the time of abnormality detection in FIG. 3C will be described. FIG. 11 is a diagram showing a flow of abnormality detection processing (S321 to S324) by the abnormality detection unit 112. Here, of the data accumulated in the sensor signal storage unit 103, the data for a specified period or the newly observed data is extracted with a feature vector (feature vector extraction unit 108) and anomaly measurement is calculated (anomaly measurement). The calculation unit 109) is performed, and this is compared with the threshold value (threshold value calculation unit 111), and the abnormality detection unit 112 determines whether it is normal or abnormal.

異常検出部110は、データベースから学習時に保存した学習結果を読み出す(S1101)。その際、学習時の異常測度やしきい値に基づいて、ユーザが適切な処理番号を選択し、処理番号に対応付けられた学習結果を用いる。信号入力部(第2のセンサ信号入力部)107は、センサ信号蓄積部103または設備101からセンサ信号102を入力し(S1102)、センサ信号毎に正準化する(S1103)。このとき、ステップS1002の正準化の処理に用いたパラメータを用いる。次に、特徴ベクトル抽出部108は、選択したセンサ信号から、ステップS1003の処理と同じ方法で特徴ベクトルの抽出を行う(S1104)。 The abnormality detection unit 110 reads the learning result saved at the time of learning from the database (S1101). At that time, the user selects an appropriate processing number based on the abnormality measure and the threshold value at the time of learning, and the learning result associated with the processing number is used. The signal input unit (second sensor signal input unit) 107 inputs the sensor signal 102 from the sensor signal storage unit 103 or the equipment 101 (S1102), and normalizes each sensor signal (S1103). At this time, the parameters used in the normalization process of step S1002 are used. Next, the feature vector extraction unit 108 extracts the feature vector from the selected sensor signal by the same method as the process of step S1003 (S1104).

次に、全特徴ベクトルについてステップS1106およびS1107の処理を行う(S1105、ループ)。異常測度算出部109は、注目ベクトルと学習データを用いて、異常測度を算出する(S1106)。この処理は、図10AのステップS1007と同じ方法で行うが、学習データを全て用いることとする。異常検出部112は、ステップS1101で読み出したしきい値とステップS1106で算出した異常測度とを比較する。異常測度がしきい値以下であれば設備は「正常」と判定し、異常測度がしきい値より大きければ「異常」と判定する(S1107)。 Next, the processes of steps S1106 and S1107 are performed for all feature vectors (S1105, loop). The anomaly measure calculation unit 109 calculates the anomaly measure using the attention vector and the learning data (S1106). This process is performed in the same manner as in step S1007 of FIG. 10A, but all the training data is used. The abnormality detection unit 112 compares the threshold value read in step S1101 with the abnormality measure calculated in step S1106. If the anomaly measure is equal to or less than the threshold value, the equipment is determined to be "normal", and if the anomaly measure is greater than the threshold value, it is determined to be "abnormal" (S1107).

次に、以上の動作を実現するための異常検知装置100のユーザインタフェース(GUI)の例を説明する。 Next, an example of the user interface (GUI) of the abnormality detection device 100 for realizing the above operation will be described.

図12は、センサグループ設定実施のための対象期間及び処理パラメータ含む解析条件を設定するGUIの例である。過去のセンサ信号102は、設備ID及び時刻と対応付けられてセンサ信号蓄積部103に保存されているものとする。 FIG. 12 is an example of a GUI that sets analysis conditions including a target period and processing parameters for performing sensor group setting. It is assumed that the past sensor signal 102 is stored in the sensor signal storage unit 103 in association with the equipment ID and the time.

センサグループ設定画面1201では、対象設備、対象期間、データクレンジングパラメータ、センサグループ設定パラメータ、センサグループ設定方法、グループ指示ファイル名、レシピ名を入力する。設備ID入力ウィンドウ1202には、対象とする設備のIDを入力する。設備リスト表示ボタン1203の押下により、センサ信号蓄積部103に保存されているデータの装置IDのリストが表示されるので、リストから選択入力する。異常検知装置100につながる設備101が1台のみの場合は、設備ID入力ウィンドウ1202は表示されない。ここで、センサグループ設定画面1201は、例えば、図1の出力部113に表示される。 On the sensor group setting screen 1201, the target equipment, the target period, the data cleansing parameter, the sensor group setting parameter, the sensor group setting method, the group instruction file name, and the recipe name are input. In the equipment ID input window 1202, the ID of the target equipment is input. By pressing the equipment list display button 1203, a list of device IDs of data stored in the sensor signal storage unit 103 is displayed, and a list is selected and input from the list. If there is only one equipment 101 connected to the abnormality detection device 100, the equipment ID input window 1202 is not displayed. Here, the sensor group setting screen 1201 is displayed on the output unit 113 of FIG. 1, for example.

対象期間入力ウィンドウ1204には、処理対象期間の開始日と終了日を入力する。データクレンジングチェックボックス1205には、センサグループ設定処理の前にデータクレンジング処理を行いたい場合、チェックを入れる。その場合、クレンジング比率入力ウィンドウ1206にクレンジング比率を入力する。センサ信号値が主要な分布から離れていてかつ発生比率が入力された数値より低い場合データ削除の対象とする。 In the target period input window 1204, the start date and end date of the processing target period are input. Check the data cleansing check box 1205 if you want to perform the data cleansing process before the sensor group setting process. In that case, the cleansing ratio is input to the cleansing ratio input window 1206. If the sensor signal value is far from the main distribution and the rate of occurrence is lower than the input value, the data will be deleted.

最大センサ数入力ウィンドウ1207および類似度基準値入力ウィンドウ1208には、図4のステップS404、図9AのステップS906、図9BのS918で参照されるセンサグループ設定パラメータを入力する。センサグループ設定方法選択ボタン1209で、いずれかの方法を1個選択する。この図の例ではそれぞれ、図4、図9A、図9Bの処理フローに従う方法が対応する。「同グループ指示」または「核センサ指示」を選択した場合は、指示ファイル入力ウィンドウ1210に、指示ファイル名を入力する。指示ファイルには、例えば、同じグループとするセンサ名の組、またはグループの核とする1個以上のセンサ名が記載されている。 The sensor group setting parameters referred to in step S404 of FIG. 4, step S906 of FIG. 9A, and S918 of FIG. 9B are input to the maximum number of sensors input window 1207 and the similarity reference value input window 1208. The sensor group setting method selection button 1209 selects one of the methods. In the example of this figure, the method according to the processing flow of FIG. 4, FIG. 9A, and FIG. 9B corresponds, respectively. When "same group instruction" or "nuclear sensor instruction" is selected, the instruction file name is input in the instruction file input window 1210. In the instruction file, for example, a set of sensor names in the same group or one or more sensor names at the core of the group are described.

以上の条件の情報が確定したら、実行ボタン1211の押下により、センサグループ設定処理を実行する。まず、データクレンジングチェックボックス1205がチェックされている場合は対象期間のセンサ信号を対象にデータクレンジング処理を行う。次に、センサグループ設定方法選択ボタン1209での選択に従い、図4、図9A、図9Bのいずれかの処理フローによってセンサグループを設定し、グループ情報を保存する。 When the information on the above conditions is confirmed, the sensor group setting process is executed by pressing the execute button 1211. First, when the data cleansing check box 1205 is checked, the data cleansing process is performed on the sensor signal of the target period. Next, according to the selection by the sensor group setting method selection button 1209, the sensor group is set according to the processing flow of any one of FIGS. 4, 9A, and 9B, and the group information is saved.

処理終了後、後述する結果表示画面が表示される。ユーザによる確認が終了すると、センサグループ設定画面1201に戻ってくる。再表示ボタン1212ボタン押下により、結果表示画面をサイド表示することもできる。登録名入力ウィンドウ1213に登録名を入力し、登録ボタン1214を押下することにより、設備ID及び登録名と対応付けてセンサグループ情報を保存し、終了する。終了ボタン1215が押下された場合は、何もしないで終了する。この場合、一旦保存されていたセンサグループ情報は、削除される。 After the processing is completed, the result display screen described later is displayed. When the confirmation by the user is completed, the sensor group setting screen 1201 is returned. By pressing the redisplay button 1212 button, the result display screen can be displayed sideways. By inputting the registered name in the registered name input window 1213 and pressing the registration button 1214, the sensor group information is saved in association with the equipment ID and the registered name, and the process ends. When the end button 1215 is pressed, the process ends without doing anything. In this case, the sensor group information once saved is deleted.

図13Aおよび図13Bは、センサグループ結果をユーザに示すためのGUIの例である。ユーザが各画面の上部に表示されたタブを選択することにより、分布画像表示画面1301およびセンサ信号表示画面1302のいずれかに切り換わる。ここで、分布画像表示画面1301およびセンサ信号表示画面1302は、例えば、図1の出力部113に表示される。 13A and 13B are examples of GUIs for showing the sensor group results to the user. When the user selects a tab displayed at the top of each screen, the screen switches to either the distribution image display screen 1301 or the sensor signal display screen 1302. Here, the distribution image display screen 1301 and the sensor signal display screen 1302 are displayed, for example, on the output unit 113 of FIG.

図13Aは、分布画像表示画面の例である。分布画像表示画面1301には、グループ選択ウィンドウ1303で選択されたグループについて、表示順選択ウィンドウ1304で選択された表示順に従って、グループに属するセンサ間の分布画像が表示される。 FIG. 13A is an example of a distribution image display screen. On the distribution image display screen 1301, distribution images among sensors belonging to the groups are displayed according to the display order selected in the display order selection window 1304 for the group selected in the group selection window 1303.

グループ選択ウィンドウ1303では、リスト表示ボタンの押下により設定されたセンサグループ番号と「その他」からなるリストが表示され、いずれかを選択することに表示対象のグループが指定される。ユーザによる選択の前はグループ1が選択されている。表示順選択ウィンドウ1304では、リスト表示ボタンの押下により、「センサ番号」と「類似度」のいずれかを選択可能である。「センサ番号」が選択されている場合は、センサ番号の小さいものから順に、「類似度」が選択されている場合は、平均類似度が大きいものから順に表示される。平均類似度とは、あるセンサとグループ内の別のセンサの類似度の平均値のことである。 In the group selection window 1303, a list consisting of the sensor group number set by pressing the list display button and "others" is displayed, and the group to be displayed is specified by selecting one of them. Group 1 is selected before the selection by the user. In the display order selection window 1304, either "sensor number" or "similarity" can be selected by pressing the list display button. When "sensor number" is selected, the sensor numbers are displayed in ascending order, and when "similarity" is selected, the average similarity is displayed in descending order. The average similarity is the average value of the similarity between one sensor and another sensor in the group.

センサ番号欄1305、センサ名欄1306にはそれぞれセンサ番号とそれに対応するセンサ名が表示される。移動先選択ウィンドウ1307と移動ボタン1308は、各行に表示される。作用は後述する。分布画像表示ウィンドウ1309には、行に対応するセンサと列に対応するセンサの二次元頻度分布画像と類似度がマトリクス状に表示される。センサ番号の縦軸と横軸を入れ替えても分布画像は対称的に変化するのみであり、類似度は同じ値になるため、本実施例ではマトリクスの左下側に分布画像、右上側に類似度を表示している。表示順選択ウィンドウ1304で表示順が切り替えられた場合、行と列の両方を入れ替えた上で、左下側に類似度が来た場合は、逆側にある分布画像と入れ替える。その画像から縦軸と横軸を入れ替えた画像を作成して、差し替える。 The sensor number and the corresponding sensor name are displayed in the sensor number column 1305 and the sensor name column 1306, respectively. The move destination selection window 1307 and the move button 1308 are displayed on each line. The action will be described later. In the distribution image display window 1309, the two-dimensional frequency distribution image of the sensor corresponding to the row and the sensor corresponding to the column and the similarity are displayed in a matrix. Even if the vertical and horizontal axes of the sensor numbers are exchanged, the distribution image only changes symmetrically, and the similarity is the same. Therefore, in this embodiment, the distribution image is on the lower left side of the matrix and the similarity is on the upper right side. Is displayed. When the display order is switched in the display order selection window 1304, both the rows and columns are exchanged, and when the similarity comes to the lower left side, the distribution image on the opposite side is exchanged. An image in which the vertical axis and the horizontal axis are exchanged is created from the image and replaced.

この画面では、グループの編集も可能である。移動先選択ウィンドウ1307で移動先を選択し移動ボタン1308押下により、対応する行のセンサを他のグループに移動させることができる。移動先は現在のグループ以外のグループと「その他」のいずれかから選択する。対応するセンサは表示中のグループから削除され、対応する行、列とも削除されて上および左に詰めて表示される。平均類似度は算出しなおされる。 You can also edit groups on this screen. By selecting the move destination in the move destination selection window 1307 and pressing the move button 1308, the sensor in the corresponding row can be moved to another group. Select the destination from groups other than the current group and either "Other". The corresponding sensor is deleted from the displayed group, and the corresponding row and column are deleted and displayed in the top and left. The average similarity is recalculated.

操作選択ウィンドウ1310では、そのグループを登録するか廃棄するかを選択しておく。全てのグループについて選択を行った後、OKボタン1311押下により、登録が選択されているグループのグループ情報を保存して、センサグループ設定画面1201に戻る。キャンセルボタン1311が押下された場合は、センサグループを編集前の状態に戻してセンサグループ設定画面1201に戻る。OKボタン1311が一度も押されていない間は、センサグループ設定画面1201で登録ボタン1214が押下できない状態になっている。 In the operation selection window 1310, it is selected whether to register or discard the group. After selecting all the groups, pressing the OK button 1311 saves the group information of the group for which registration is selected, and returns to the sensor group setting screen 1201. When the cancel button 1311 is pressed, the sensor group is returned to the state before editing and the sensor group setting screen 1201 is returned. While the OK button 1311 has never been pressed, the registration button 1214 cannot be pressed on the sensor group setting screen 1201.

なお、分布画像表示画面1301で操作された、グループ選択、表示順選択、センサのグループ移動、操作選択の結果は、全てセンサ信号表示画面1302に反映される。また、センサのグループ移動の結果は、他のグループを選択した際の表示画面にも反映される。 The results of group selection, display order selection, sensor group movement, and operation selection operated on the distribution image display screen 1301 are all reflected on the sensor signal display screen 1302. The result of moving the sensor group is also reflected on the display screen when another group is selected.

図13Bは、センサ信号表示画面1302の例である。センサ信号表示画面1302には、グループ選択ウィンドウ1303で選択されたグループについて、表示順選択ウィンドウ1304で選択された表示順に従って、グループに属するセンサの時系列センサ信号グラフが表示される。期間入力ウィンドウ1312への入力により、表示期間を変更することが可能である。この変更は全センサ一度に行う。センサ信号表示ウィンドウ1313には、各行に対応するセンサ信号の時系列グラフが表示される。 FIG. 13B is an example of the sensor signal display screen 1302. On the sensor signal display screen 1302, for the group selected in the group selection window 1303, a time-series sensor signal graph of the sensors belonging to the group is displayed according to the display order selected in the display order selection window 1304. The display period can be changed by inputting to the period input window 1312. This change is made for all sensors at once. In the sensor signal display window 1313, a time series graph of the sensor signal corresponding to each line is displayed.

センサ信号表示画面1302では、分布画像表示画面1301と同様のグループ選択、表示順選択、センサのグループ移動、操作選択を行うことができ、その結果は、分布画像表示画面1301に反映される。また、OKボタン1311およびキャンセルボタン1311の押下も可能である。 On the sensor signal display screen 1302, group selection, display order selection, sensor group movement, and operation selection can be performed in the same manner as the distribution image display screen 1301, and the result is reflected on the distribution image display screen 1301. It is also possible to press the OK button 1311 and the cancel button 1311.

図14Aは、オフライン解析実施のための学習期間、及び処理パラメータ含む解析条件を設定するGUIの例である。この画面では、算出された学習結果をレシピとして登録することも可能である。また、過去のセンサ信号102は、設備ID及び時刻と対応付けられてデータベースに保存されているものとする。 FIG. 14A is an example of a GUI for setting a learning period for performing offline analysis and analysis conditions including processing parameters. On this screen, it is also possible to register the calculated learning result as a recipe. Further, it is assumed that the past sensor signal 102 is stored in the database in association with the equipment ID and the time.

オフライン解析条件設定画面1401では、対象設備、学習期間、テスト期間、異常測度算出パラメータを入力する。設備ID入力ウィンドウ1402には、対象とする設備のIDを入力する。設備リスト表示ボタン1403の押下により、センサ信号蓄積部103に保存されているデータの装置IDのリストが表示されるので、リストから選択入力する。異常検知装置100につながる設備101が1台のみの場合は、設備ID入力ウィンドウ1402は表示されない。ここで、オフライン解析条件設定画面1401は、例えば、図1の出力部113に表示される。 On the offline analysis condition setting screen 1401, the target equipment, learning period, test period, and abnormality measure calculation parameters are input. In the equipment ID input window 1402, the ID of the target equipment is input. By pressing the equipment list display button 1403, a list of device IDs of data stored in the sensor signal storage unit 103 is displayed, and a list is selected and input from the list. If there is only one equipment 101 connected to the abnormality detection device 100, the equipment ID input window 1402 is not displayed. Here, the offline analysis condition setting screen 1401 is displayed on the output unit 113 of FIG. 1, for example.

学習期間入力ウィンドウ1404には、学習データを抽出したい期間の開始日と終了日を入力する。テスト期間入力ウィンドウ1405には、解析対象としたい期間の開始日と終了日を入力する。 In the learning period input window 1404, the start date and end date of the period for which the learning data is to be extracted are input. In the test period input window 1405, enter the start date and end date of the period to be analyzed.

異常測度算出パラメータ入力ウィンドウ1406には、異常測度算出において使用するパラメータを入力する。図は手法として局所部分空間を採用した場合の例であり、近傍ベクトル数と正則化パラメータを入力する。正則化パラメータは、(2)式において相関行列Cの逆行列が求められないことを防ぐため、対角成分に加算する小さい数である。 In the anomaly measure calculation parameter input window 1406, the parameters used in the anomaly measure calculation are input. The figure is an example when a local subspace is adopted as a method, and the number of neighboring vectors and the regularization parameter are input. The regularization parameter is a small number to be added to the diagonal component in order to prevent the inverse matrix of the correlation matrix C from being obtained in Eq. (2).

センサグループ登録名入力ウィンドウ1407とグループ番号入力ウィンドウには、図13Aおよび図13Bの画面で設定、登録されたセンサグループの登録名およびグループ番号を入力する。以上の解析条件の情報が確定したら、実行ボタン1409の押下により、オフライン解析を実行する。 In the sensor group registered name input window 1407 and the group number input window, the registered name and group number of the sensor group set and registered on the screens of FIGS. 13A and 13B are input. When the above analysis condition information is confirmed, the offline analysis is executed by pressing the execute button 1409.

まず、学習期間のセンサ信号を用い、図10Aの処理フローに従って学習を実行する。学習結果として、ステップS1002で算出されたセンサ信号毎の平均と標準偏差、ステップS1003で抽出された学習期間の全特徴ベクトルデータ、ステップS1008で算出されたしきい値を保存しておく。 First, learning is executed according to the processing flow of FIG. 10A using the sensor signal during the learning period. As the learning result, the average and standard deviation for each sensor signal calculated in step S1002, all the feature vector data of the learning period extracted in step S1003, and the threshold value calculated in step S1008 are saved.

さらに、学習期間およびテスト期間のセンサ信号を用い、図11の処理フローに従って異常測度を算出し、正常か異常かの判定を行い、判定結果を異常測度およびしきい値と併せて保存しておく。ただし、学習期間のデータについては、ステップS1007で算出した異常測度を用いて、正常か異常かの判定を行う。 Further, using the sensor signals of the learning period and the test period, the abnormality measure is calculated according to the processing flow of FIG. 11, it is judged whether it is normal or abnormal, and the judgment result is saved together with the abnormality measure and the threshold value. .. However, with respect to the data of the learning period, it is determined whether it is normal or abnormal by using the abnormality measure calculated in step S1007.

解析終了後、後述する結果表示画面が表示される。ユーザによる確認が終了すると、オフライン解析条件設定画面1401に戻ってくる。レシピ名入力ウィンドウ1410にレシピ名を入力し、登録ボタン1411を押下することにより、設備ID及びレシピ名と対応付けて学習結果および解析結果を保存し、終了する。ここで、学習結果には、学習の実行により作成保存されたデータのほか、入力ウィンドウ1406〜1408で入力された異常測度算出パラメータ、センサグループ登録名およびグループ番号が含まれる。終了ボタン1412が押下された場合は、何もしないで終了する。この場合、学習により作成保存された学習結果および、続く異常検知処理により作成保存された解析結果は、削除されるか次に実行される解析によって上書きされる。 After the analysis is completed, the result display screen described later is displayed. When the confirmation by the user is completed, the screen returns to the offline analysis condition setting screen 1401. By inputting the recipe name in the recipe name input window 1410 and pressing the registration button 1411, the learning result and the analysis result are saved in association with the equipment ID and the recipe name, and the process ends. Here, the learning result includes the data created and saved by the execution of the learning, as well as the abnormality measurement calculation parameters, the sensor group registration name, and the group number input in the input windows 1406 to 1408. When the end button 1412 is pressed, the process ends without doing anything. In this case, the learning result created and saved by learning and the analysis result created and saved by the subsequent abnormality detection process are deleted or overwritten by the analysis executed next.

登録された学習結果は、活性か不活性かのラベルをつけて管理され、以降オンラインの解析が実行される。オンライン解析では、新しく入力されたデータに対し、装置IDが一致する活性な学習結果の情報を用いて、図11に示す処理を行い、結果をレシピ名および処理日時と対応付けて保存しておく。これらの処理は定期的、例えば1日毎に実行する。サンプリング間隔が短い設備やリアルタイム性を求められる設備については、実行の間隔をもっと短くする。 The registered learning results are labeled as active or inactive and managed, and then online analysis is performed. In the online analysis, the newly input data is subjected to the processing shown in FIG. 11 using the information of the active learning result whose device ID matches, and the result is saved in association with the recipe name and the processing date and time. .. These processes are performed on a regular basis, for example, daily. For equipment with a short sampling interval or equipment that requires real-time performance, the execution interval should be shorter.

図14Bは、オンライン解析結果の表示対象を指定するためのGUIの例である。
ユーザは、表示対象指定画面1421から表示対象の設備、レシピ及び期間を指定する。始めに、装置ID選択ウィンドウ1422により設備IDを選択する。次に、レシピ名選択ウィンドウ1423により、設備ID1422を対象としたレシピのリストから表示対象のレシピを選択する。データ記録期間表示部1424には、入力されたレシピを用いて処理され、記録が残されている期間の開始日と終了日が表示される。結果表示期間指定ウィンドウ1425には、結果を表示したい期間の開始日と終了日を入力する。表示ボタン1426を押下すると、異常検知処理の結果が表示される。終了ボタン1427を押下すると、表示対象を指定する処理を終了する。ここで、表示対象指定画面1421は、例えば、図1の出力部113に表示される。
FIG. 14B is an example of a GUI for designating a display target of the online analysis result.
The user specifies the equipment, recipe, and period to be displayed from the display target designation screen 1421. First, the equipment ID is selected by the device ID selection window 1422. Next, the recipe name selection window 1423 selects the recipe to be displayed from the list of recipes for the equipment ID 1422. The data recording period display unit 1424 displays the start date and end date of the period in which the record is left, which is processed by using the input recipe. In the result display period specification window 1425, enter the start date and end date of the period for which the result is to be displayed. When the display button 1426 is pressed, the result of the abnormality detection process is displayed. When the end button 1427 is pressed, the process of specifying the display target is terminated. Here, the display target designation screen 1421 is displayed, for example, on the output unit 113 of FIG.

図15Aおよび図15Bは、解析結果をユーザに示すためのGUIの例である。ユーザが各画面の上部に表示されたタブを選択することにより、解析結果全体表示画面1501および解析結果拡大表示画面1502のいずれかに切り換わる。ここで、解析結果全体表示画面1501および解析結果拡大表示画面1502は、例えば、図1の出力部113に表示される。 15A and 15B are examples of GUI for showing the analysis result to the user. When the user selects a tab displayed at the top of each screen, the user switches to either the analysis result overall display screen 1501 or the analysis result enlarged display screen 1502. Here, the analysis result overall display screen 1501 and the analysis result enlarged display screen 1502 are displayed, for example, on the output unit 113 of FIG.

図15Aは、解析結果全体表示画面1501の例である。解析結果全体表示画面1501には、指定された期間の、異常測度、しきい値、及び判定結果、並びにセンサ信号の時系列グラフが表示される。期間表示ウィンドウ1503には、オフライン解析の結果を表示する場合は図14Aで指定された学習期間及びテスト期間が表示される。オンライン解析の結果を表示する場合は、図示していないが、図14Bで指定された結果表示期間が表示される。 FIG. 15A is an example of the analysis result overall display screen 1501. The analysis result overall display screen 1501 displays an abnormality measure, a threshold value, a determination result, and a time series graph of the sensor signal for a specified period. When displaying the result of the offline analysis, the period display window 1503 displays the learning period and the test period specified in FIG. 14A. When displaying the result of the online analysis, although not shown, the result display period specified in FIG. 14B is displayed.

異常測度表示ウィンドウ1504には、指定された学習期間・テスト期間あるいは結果表示期間での異常測度1504a、しきい値1504b(破線)、及び判定結果1504cが表示される。また、学習に使用した区間に丸印1504dが表示される。センサ信号表示ウィンドウ1505には、指定された学習期間・テスト期間あるいは結果表示期間での指定されたセンサについて、時系列センサ信号1505aが表示される。 In the abnormality measure display window 1504, the abnormality measure 1504a, the threshold value 1504b (broken line), and the determination result 1504c in the designated learning period / test period or result display period are displayed. In addition, a circle 1504d is displayed in the section used for learning. In the sensor signal display window 1505, the time series sensor signal 1505a is displayed for the designated sensor in the designated learning period / test period or result display period.

センサ選択ウィンドウ1506では、ユーザの入力によってセンサを指定する。ただし、ユーザが指定する前は、先頭の使用センサが選択されている。カーソル1507は、拡大表示の時の起点を表し、ユーザのマウス操作により移動できる。表示日数指定ウィンドウ508には、解析結果拡大表示画面1502での拡大表示の起点から終点までの日数が表示され、この画面で入力することもできる。日付表示ウィンドウ1509には、カーソル位置の日付が表示される。終了ボタン1510の押下により、解析結果全体表示画面1501、解析結果拡大表示画面1502のいずれもが消去され、解析結果の表示が終了する。 In the sensor selection window 1506, the sensor is specified by the input of the user. However, before the user specifies it, the first sensor used is selected. The cursor 1507 represents the starting point at the time of enlarged display, and can be moved by the user's mouse operation. The number of days from the start point to the end point of the enlarged display on the analysis result enlarged display screen 1502 is displayed in the display days designation window 508, and can be input on this screen. The date at the cursor position is displayed in the date display window 1509. By pressing the end button 1510, both the analysis result overall display screen 1501 and the analysis result enlarged display screen 1502 are erased, and the analysis result display ends.

図15Bは、解析結果拡大表示画面1502の例である。解析結果拡大表示画面1502には、解析結果全体表示画面1501においてカーソル1507で示された日付を起点とし、表示日数指定ウィンドウ1509で指定された日数の期間内の、異常測度、しきい値、判定結果、及びセンサ信号の時系列グラフが表示される。すなわち、異常測度表示ウィンドウ1504及びセンサ信号表示ウィンドウ1505には、解析結果全体表示画面1501と同様の情報が、拡大して表示される。 FIG. 15B is an example of the analysis result enlarged display screen 1502. On the analysis result enlarged display screen 1502, the anomaly measurement, the threshold value, and the determination within the period of the number of days specified by the display days designation window 1509, starting from the date indicated by the cursor 1507 on the analysis result overall display screen 1501. The result and the time series graph of the sensor signal are displayed. That is, on the abnormality measure display window 1504 and the sensor signal display window 1505, the same information as the analysis result overall display screen 1501 is enlarged and displayed.

なお、解析結果拡大表示画面1502では、スクロールバー1511とスクロールバー領域1512を追加表示している。スクロールバー1511の長さは表示日数指定ウィンドウ1508で指定された日数に、スクロールバー領域1511の全体の長さは解析結果全体表示画面1501に表示されている期間に相当する。また、スクロールバー1511の左端部が拡大表示の起点に対応する。ユーザはスクロールバー1511を操作することで、表示の起点を変更することも可能であり、この変更は解析結果全体表示画面1501のカーソル1507の位置と日付表示ウィンドウ1509の表示に反映される。 The scroll bar 1511 and the scroll bar area 1512 are additionally displayed on the analysis result enlarged display screen 1502. The length of the scroll bar 1511 corresponds to the number of days specified in the display days designation window 1508, and the total length of the scroll bar area 1511 corresponds to the period displayed on the analysis result overall display screen 1501. Further, the left end portion of the scroll bar 1511 corresponds to the starting point of the enlarged display. The user can also change the starting point of the display by operating the scroll bar 1511, and this change is reflected in the position of the cursor 1507 on the analysis result overall display screen 1501 and the display of the date display window 1509.

上記実施例では、複数の時系列センサ信号に基づく異常検知において、全センサを対象として感度向上するよう適切なセンサグループに分け、センサグループ毎に異常検知する。上記実施例によれば、全センサを対象としてセンサ信号間の類似性(類似度)に基づいて適切な数からなるセンサグループに分けるため、異常検知感度を向上させることができ、かつどのセンサに発生した異常も検知可能となる。 In the above embodiment, in the abnormality detection based on a plurality of time-series sensor signals, all the sensors are divided into appropriate sensor groups so as to improve the sensitivity, and the abnormality is detected for each sensor group. According to the above embodiment, all the sensors are divided into a sensor group consisting of an appropriate number based on the similarity (similarity) between the sensor signals, so that the abnormality detection sensitivity can be improved and which sensor is used. The abnormalities that have occurred can also be detected.

100 異常検知装置
101 設備
102 センサ信号
103 センサ信号蓄積部
104 信号入力部(第1のセンサ信号入力部)
105 センサグループ設定部
106 グループ情報蓄積部、
107 信号入力部(第2のセンサ信号入力部)
108 特徴ベクトル抽出部
109 異常測度算出部
110 しきい値算出部
111 学習結果蓄積部
112 異常検出部
113 出力部
100 Abnormality detection device 101 Equipment 102 Sensor signal 103 Sensor signal storage unit 104 Signal input unit (first sensor signal input unit)
105 Sensor group setting unit 106 Group information storage unit,
107 Signal input unit (second sensor signal input unit)
108 Feature vector extraction unit 109 Anomaly measure calculation unit 110 Threshold calculation unit 111 Learning result storage unit 112 Anomaly detection unit 113 Output unit

Claims (9)

設備に装着された複数のセンサから出力される複数の時系列のセンサ信号が入力される第1のセンサ信号入力部と、
前記第1のセンサ信号入力部に入力された複数の前記センサ信号の間の類似度を求め、前記類似度に基づいてセンサグループを設定するセンサグループ設定部と、
前記複数のセンサから出力される複数の前記センサ信号が入力される第2のセンサ信号入力部と、
前記センサグループ毎に、前記第2のセンサ信号入力部に入力された複数の前記センサ信号から時刻毎に特徴ベクトルを抽出する特徴ベクトル抽出部と、
前記センサグループ毎に、指定された学習期間の前記特徴ベクトルを学習データとして、各時刻の異常測度を算出する異常測度算出部と、
前記センサグループ毎に、前記異常測度を所定のしきい値と比較することにより各時刻の前記センサ信号が正常か異常かを判定する異常検出部と、
を有することを特徴とする異常検知装置。
A first sensor signal input unit that inputs a plurality of time-series sensor signals output from a plurality of sensors mounted on the equipment, and a first sensor signal input unit.
A sensor group setting unit that obtains the similarity between a plurality of the sensor signals input to the first sensor signal input unit and sets a sensor group based on the similarity.
A second sensor signal input unit into which the plurality of sensor signals output from the plurality of sensors are input, and
For each sensor group, a feature vector extraction unit that extracts a feature vector for each time from a plurality of the sensor signals input to the second sensor signal input unit, and a feature vector extraction unit.
For each sensor group, an abnormality measure calculation unit that calculates an abnormality measure at each time using the feature vector of the designated learning period as learning data,
For each sensor group, an abnormality detection unit that determines whether the sensor signal at each time is normal or abnormal by comparing the abnormality measure with a predetermined threshold value.
Anomaly detection device characterized by having.
前記センサグループ設定部は、
前記類似度として、複数の前記センサの中の二つのセンサの二次元分布に基づいて算出される0から1の値を用いて、前記センサグループを設定することを特徴とする請求項1に記載の異常検知装置。
The sensor group setting unit
The first aspect of claim 1, wherein the sensor group is set using a value from 0 to 1 calculated based on the two-dimensional distribution of two sensors among the plurality of sensors as the similarity. Anomaly detection device.
前記センサグループ設定部は、
前記類似度に基づく階層的クラスタリングによって、前記センサグループを設定することを特徴とする請求項2に記載の異常検知装置。
The sensor group setting unit
The abnormality detection device according to claim 2, wherein the sensor group is set by hierarchical clustering based on the similarity.
前記センサグループ設定部は、
前記階層的クラスタリングを実行する際に、予め一つの前記センサグループ当たりの最大センサ数と前記類似度の類似度基準値を設定しておき、
結合しようとする二つのクラスタのセンサ数の合計が前記最大センサ数を超える場合と二つの前記クラスタの間の前記類似度が前記類似度基準値を下回る場合には、二つの前記クラスタを結合しないことを特徴とする請求項3に記載の異常検知装置。
The sensor group setting unit
When executing the hierarchical clustering, the maximum number of sensors per the sensor group and the similarity reference value of the similarity are set in advance.
When the total number of sensors of the two clusters to be combined exceeds the maximum number of sensors and when the similarity between the two clusters is less than the similarity reference value, the two clusters are not combined. The abnormality detection device according to claim 3, wherein the abnormality detection device is characterized.
前記センサグループ設定部は、
前記階層的クラスタリングを実行する際に、予め同じ前記センサグループとすべき前記センサを指定しておき、
同じ前記センサグループと指定された前記センサから出力される前記センサ信号の間の前記類似度を1とすることを特徴とする請求項3に記載の異常検知装置。
The sensor group setting unit
When executing the hierarchical clustering, the sensors to be in the same sensor group are specified in advance.
The abnormality detection device according to claim 3, wherein the similarity between the same sensor group and the sensor signal output from the designated sensor is 1.
前記センサグループ設定部は、
予め核とする少なくとも一つの前記センサを有するセンサ群と、一つの前記センサグループ当たりの最大センサ数と前記類似度の類似度基準値とを指定しておき、
前記センサ群との前記類似度が高い前記センサから順に、前記最大センサ数を超えずかつ前記類似度基準値を下回らない範囲で同じ前記センサグループに追加して前記センサグループを設定することを特徴とする請求項2に記載の異常検知装置。
The sensor group setting unit
A sensor group having at least one of the sensors as a core, a maximum number of sensors per the sensor group, and a similarity reference value of the similarity are specified in advance.
The sensor group is set by adding to the same sensor group in order from the sensor having the highest similarity with the sensor group within a range not exceeding the maximum number of sensors and not falling below the similarity reference value. The abnormality detection device according to claim 2.
前記センサグループ設定部は、
予め全ての前記センサグループに含める前記センサを指定しておき、前記類似度に基づいて前記センサグループを設定した後に、指定された前記センサを全ての前記センサグループに含めることを特徴とする請求項1に記載の異常検知装置。
The sensor group setting unit
A claim characterized in that the sensors to be included in all the sensor groups are designated in advance, the sensor groups are set based on the similarity, and then the designated sensors are included in all the sensor groups. The abnormality detection device according to 1.
前記センサグループ設定部は、
前記センサグループを設定する前に、前記センサ信号のヒストグラムの分布から外れているはずれ値を削除するデータクレンジング処理を行うことを特徴とする請求項1に記載の異常検知装置。
The sensor group setting unit
The abnormality detection device according to claim 1, wherein a data cleansing process for deleting outliers deviating from the distribution of the histogram of the sensor signal is performed before setting the sensor group.
設備に装着された複数のセンサから出力される複数の時系列のセンサ信号を入力し、
複数の前記センサ信号の間の類似度を求め、
前記類似度に基づいてセンサグループを設定し、
前記センサグループ毎に、複数の前記センサ信号から時刻毎に特徴ベクトルを抽出し、
前記センサグループ毎に、指定された学習期間の前記特徴ベクトルを学習データとして、各時刻の異常測度を算出し、
前記センサグループ毎に、前記異常測度を所定のしきい値と比較することにより各時刻の前記センサ信号が正常か異常かを判定することを特徴とする異常検知方法。
Input multiple time-series sensor signals output from multiple sensors installed in the equipment,
Find the similarity between the plurality of sensor signals
Sensor groups are set based on the similarity,
For each sensor group, feature vectors are extracted from a plurality of the sensor signals for each time.
For each sensor group, the anomaly measure at each time is calculated using the feature vector of the designated learning period as learning data.
An abnormality detection method for each sensor group, which determines whether the sensor signal at each time is normal or abnormal by comparing the abnormality measure with a predetermined threshold value.
JP2019110547A 2019-06-13 2019-06-13 Anomaly detection device and anomaly detection method Active JP7344015B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019110547A JP7344015B2 (en) 2019-06-13 2019-06-13 Anomaly detection device and anomaly detection method
JP2023079191A JP2023106472A (en) 2019-06-13 2023-05-12 Abnormality detection device and abnormality detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110547A JP7344015B2 (en) 2019-06-13 2019-06-13 Anomaly detection device and anomaly detection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023079191A Division JP2023106472A (en) 2019-06-13 2023-05-12 Abnormality detection device and abnormality detection method

Publications (2)

Publication Number Publication Date
JP2020201890A true JP2020201890A (en) 2020-12-17
JP7344015B2 JP7344015B2 (en) 2023-09-13

Family

ID=73742690

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019110547A Active JP7344015B2 (en) 2019-06-13 2019-06-13 Anomaly detection device and anomaly detection method
JP2023079191A Pending JP2023106472A (en) 2019-06-13 2023-05-12 Abnormality detection device and abnormality detection method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023079191A Pending JP2023106472A (en) 2019-06-13 2023-05-12 Abnormality detection device and abnormality detection method

Country Status (1)

Country Link
JP (2) JP7344015B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114010064A (en) * 2021-11-25 2022-02-08 珠海格力电器股份有限公司 Cooking apparatus, cooking apparatus control method, and storage medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217538A (en) * 2008-03-11 2009-09-24 Nikon Systems Inc Image evaluating device
JP5530019B1 (en) * 2013-11-01 2014-06-25 株式会社日立パワーソリューションズ Abnormal sign detection system and abnormality sign detection method
JP2014142697A (en) * 2013-01-22 2014-08-07 Hitachi Ltd Abnormality diagnostic method and device of the same
JP2015114967A (en) * 2013-12-13 2015-06-22 株式会社日立ハイテクノロジーズ Abnormality detection method and abnormality detection device
JP5849167B1 (en) * 2015-04-09 2016-01-27 株式会社日立パワーソリューションズ Anomaly detection method and apparatus
JP2017099237A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Electrical apparatus identification system and electrical apparatus identification method
JP2017224283A (en) * 2016-06-09 2017-12-21 株式会社島津製作所 Big data analytical method and mass analytical system using the same
WO2018104985A1 (en) * 2016-12-08 2018-06-14 日本電気株式会社 Abnormality analysis method, program, and system
JP2019028931A (en) * 2017-08-03 2019-02-21 日立アプライアンス株式会社 Abnormality detection method and abnormality detection system
WO2019087275A1 (en) * 2017-10-31 2019-05-09 株式会社日立製作所 Work analysis device and work analysis method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217538A (en) * 2008-03-11 2009-09-24 Nikon Systems Inc Image evaluating device
JP2014142697A (en) * 2013-01-22 2014-08-07 Hitachi Ltd Abnormality diagnostic method and device of the same
JP5530019B1 (en) * 2013-11-01 2014-06-25 株式会社日立パワーソリューションズ Abnormal sign detection system and abnormality sign detection method
JP2015114967A (en) * 2013-12-13 2015-06-22 株式会社日立ハイテクノロジーズ Abnormality detection method and abnormality detection device
JP5849167B1 (en) * 2015-04-09 2016-01-27 株式会社日立パワーソリューションズ Anomaly detection method and apparatus
JP2017099237A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Electrical apparatus identification system and electrical apparatus identification method
JP2017224283A (en) * 2016-06-09 2017-12-21 株式会社島津製作所 Big data analytical method and mass analytical system using the same
WO2018104985A1 (en) * 2016-12-08 2018-06-14 日本電気株式会社 Abnormality analysis method, program, and system
JP2019028931A (en) * 2017-08-03 2019-02-21 日立アプライアンス株式会社 Abnormality detection method and abnormality detection system
WO2019087275A1 (en) * 2017-10-31 2019-05-09 株式会社日立製作所 Work analysis device and work analysis method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114010064A (en) * 2021-11-25 2022-02-08 珠海格力电器股份有限公司 Cooking apparatus, cooking apparatus control method, and storage medium

Also Published As

Publication number Publication date
JP7344015B2 (en) 2023-09-13
JP2023106472A (en) 2023-08-01

Similar Documents

Publication Publication Date Title
JP6076751B2 (en) Abnormality diagnosis method and apparatus
JP7017363B2 (en) Anomaly detection device and anomaly detection method
EP2905665B1 (en) Information processing apparatus, diagnosis method, and program
JP6216242B2 (en) Anomaly detection method and apparatus
JP5945350B2 (en) Equipment condition monitoring method and apparatus
JP5431235B2 (en) Equipment condition monitoring method and apparatus
JP5342708B1 (en) Anomaly detection method and apparatus
Hachicha et al. A survey of control-chart pattern-recognition literature (1991–2010) based on a new conceptual classification scheme
JP4369961B2 (en) Abnormality detection device and abnormality detection program
JP2014032455A (en) Equipment condition monitoring method and device thereof
JP2013143009A (en) Equipment state monitoring method and device using the same
WO2013011745A1 (en) Facility state monitoring method and device therefor
JP5849167B1 (en) Anomaly detection method and apparatus
KR20140041766A (en) Method of sequential kernel regression modeling for forecasting and prognostics
JP2007249997A (en) Method and system for monitoring industrial process
KR20200017506A (en) Device for diagnosing abnormalities in processes and how to diagnose abnormalities
JP2000259223A (en) Plant monitoring device
JP2016058010A (en) Abnormality tendency detection method and system
JP6831729B2 (en) Anomaly detection device
US20230213926A1 (en) Abnormal irregularity cause identifying device, abnormal irregularity cause identifying method, and abnormal irregularity cause identifying program
JP2020042519A (en) Abnormality detection device, abnormality detection method, and abnormality detection program
US20230213924A1 (en) Abnormal irregularity cause identifying device, abnormal irregularity cause identifying method, and abnormal irregularity cause identifying program
JP2023106472A (en) Abnormality detection device and abnormality detection method
Eslami et al. Statistical monitoring of image data using multi-channel functional principal component analysis
JP2021005146A (en) Abnormality detecting device and abnormality detecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230901

R150 Certificate of patent or registration of utility model

Ref document number: 7344015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150