JP7423898B2 - Information processing device, determination device, model learning method - Google Patents

Information processing device, determination device, model learning method Download PDF

Info

Publication number
JP7423898B2
JP7423898B2 JP2019049848A JP2019049848A JP7423898B2 JP 7423898 B2 JP7423898 B2 JP 7423898B2 JP 2019049848 A JP2019049848 A JP 2019049848A JP 2019049848 A JP2019049848 A JP 2019049848A JP 7423898 B2 JP7423898 B2 JP 7423898B2
Authority
JP
Japan
Prior art keywords
data
value
model
learning
attribute indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019049848A
Other languages
Japanese (ja)
Other versions
JP2020154406A (en
Inventor
サンタナ アダモ
賢哉 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2019049848A priority Critical patent/JP7423898B2/en
Publication of JP2020154406A publication Critical patent/JP2020154406A/en
Priority to JP2023037292A priority patent/JP7435866B2/en
Application granted granted Critical
Publication of JP7423898B2 publication Critical patent/JP7423898B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

特許法第30条第2項適用 発行日:平成30年9月11日 集会名:平成30年計測自動制御学会年次大会(SICE Annual Conference 2018) 公開者:アダモ サンタナ、村上 賢哉、飯坂 達也、松井 哲郎、福山 良和 公開された発明の内容:アダモ サンタナ、他4名が、ショーケースの異常検知技術について公開した。Article 30, Paragraph 2 of the Patent Act applies Publication date: September 11, 2018 Meeting name: SICE Annual Conference 2018 (SICE Annual Conference 2018) Publisher: Adamo Santana, Kenya Murakami, Tatsuya Iizaka, Tetsuro Matsui, Yoshikazu Fukuyama Details of the disclosed invention: Adamo Santana and four others disclosed anomaly detection technology for showcases.

本発明は、情報処理装置、判定装置、およびモデルの学習方法に関する。 The present invention relates to an information processing device, a determination device, and a model learning method.

複数のデータから異常値を検出する際には、正常値と、異常値とを教師データとして構築されたモデルが用いられることがある(例えば、特許文献1)。 When detecting abnormal values from a plurality of data, a model constructed using normal values and abnormal values as training data is sometimes used (for example, Patent Document 1).

特開2019-16209号公報JP 2019-16209 Publication

ところで、異常値を教師データとして用いるためには、異常値のサンプルを多く収集する必要がある。しかしながら、一般に異常値は、例えば、機器やシステムが正常に動作していない場合に出力される値等であるため、異常値のサンプルを多く収集することは難しい。 By the way, in order to use abnormal values as training data, it is necessary to collect many samples of abnormal values. However, since abnormal values are generally values that are output when a device or system is not operating normally, it is difficult to collect many samples of abnormal values.

本発明は、上記のような従来の問題に鑑みてなされたものであって、異常値のサンプルを学習に用いることなく、異常値を検出するための技術を提供することを目的とする。 The present invention has been made in view of the conventional problems as described above, and an object of the present invention is to provide a technique for detecting abnormal values without using samples of abnormal values for learning.

前述した課題を解決する主たる本発明は、所定の属性に属する複数のデータの夫々に対し、第1の値または第2の値を割り当てる割当部と、前記複数のデータのうち前記第1の値が割り当てられた第1データと、前記複数のデータのうち前記第2の値が割り当てられた第2データと、を教師データとして、入力データが前記所定の属性に属するか否かを判定するためのモデルの学習を行う学習部と、を含むこと情報処理装置である。 The main present invention for solving the above-mentioned problems includes: an allocation unit that allocates a first value or a second value to each of a plurality of data belonging to a predetermined attribute; to determine whether the input data belongs to the predetermined attribute using first data to which the value is assigned and second data to which the second value is assigned among the plurality of data as teacher data. The information processing apparatus includes a learning unit that performs learning of the model.

本発明によれば、異常値のサンプルを学習に用いることなく、異常値を検出するための技術を提供することができる。 According to the present invention, it is possible to provide a technique for detecting abnormal values without using samples of abnormal values for learning.

異常検知システム10の構成を示す図である。1 is a diagram showing the configuration of an abnormality detection system 10. FIG. 学習装置20のハードウェア構成の一例を示す図である。2 is a diagram showing an example of a hardware configuration of a learning device 20. FIG. データセット41の一例を示す図である。4 is a diagram showing an example of a data set 41. FIG. 学習装置20に実現される機能ブロックの一例を示す図である。2 is a diagram showing an example of functional blocks implemented in the learning device 20. FIG. 学習装置20で実行される処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of processing executed by the learning device 20. FIG. データセット43の一例を示す図である。4 is a diagram showing an example of a data set 43. FIG. 関数yについて説明するための図である。FIG. 3 is a diagram for explaining a function y. 関数yについて説明するための図である。FIG. 3 is a diagram for explaining a function y. 判定装置21のハードウェア構成の一例を示す図である。2 is a diagram showing an example of a hardware configuration of a determination device 21. FIG. 判定装置21に実現される機能ブロックの一例を示す図である。2 is a diagram showing an example of functional blocks implemented in a determination device 21. FIG. 判定装置21で実行される処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of processing executed by the determination device 21. FIG. 判定処理S202で実行される内容を説明するための図である。FIG. 6 is a diagram for explaining the content executed in determination processing S202. ショーケース300の異常検知の実証例を示す図である。3 is a diagram showing a demonstration example of abnormality detection of a showcase 300. FIG.

本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。 From the description of this specification and the attached drawings, at least the following matters will become clear.

=====本実施形態=====
<<<異常検知システム10の構成>>>
図1は、本発明の一実施形態である異常検知システム10の構成を示す図である。異常検知システム10は、例えば、商業施設に設置されたショーケース300の異常を検知するためのシステムであり、学習装置20、判定装置21を含む。
=====This embodiment =====
<<<Configuration of anomaly detection system 10>>>
FIG. 1 is a diagram showing the configuration of an abnormality detection system 10 that is an embodiment of the present invention. The abnormality detection system 10 is, for example, a system for detecting an abnormality in a showcase 300 installed in a commercial facility, and includes a learning device 20 and a determination device 21.

ショーケース300は、例えば、食品等を冷却し、保管するためのケースである。ショーケース300には、ショーケース300の状態を観測するセンサ310が、例えば10個取り付けられている。なお、図1では、便宜上、10個のセンサ310は、1つのブロックとして描かれている。 The showcase 300 is, for example, a case for cooling and storing foods and the like. For example, ten sensors 310 are attached to the showcase 300 to observe the state of the showcase 300. Note that in FIG. 1, the ten sensors 310 are depicted as one block for convenience.

そして、異常検知システム10は、10個のセンサの夫々から出力されるデータx1~x10の値が、異常値となると、ショーケース300の異常を検知する。なお、ここでは、「異常値」の例として、物理的な異常を要因とする異常の値や数値的な異常の値、またセンサ異常を起因とした異常値、また、異常判定ではないようなシステムに適用する場合には、通常とは異なる挙動を表す値のことが挙げられる。また、以下、ショーケース300の動作が正常である際のデータを、「正常データ」または「正常なデータ」と称し、ショーケース300の動作が異常である際のデータを、「異常データ」または「異常なデータ」と称する。 Then, the abnormality detection system 10 detects an abnormality in the showcase 300 when the values of data x1 to x10 output from each of the ten sensors become abnormal values. Here, examples of "abnormal values" include abnormal values caused by physical abnormalities, numerical abnormal values, abnormal values caused by sensor abnormalities, and abnormal values that are not determined to be abnormal. When applied to a system, it refers to values that represent unusual behavior. Further, hereinafter, data when the operation of the showcase 300 is normal is referred to as "normal data" or "normal data", and data when the operation of the showcase 300 is abnormal is referred to as "abnormal data" or "normal data". This is called "abnormal data."

学習装置20(情報処理装置)は、正常なデータx1~x10に基づいて、ショーケース300に異常が有るか否かを判定するためのモデル、つまり、データx1~x10の異常値を検出するためのモデルを機械学習によって構築する。 The learning device 20 (information processing device) is a model for determining whether or not there is an abnormality in the showcase 300 based on normal data x1 to x10, that is, for detecting abnormal values of data x1 to x10. Build a model using machine learning.

判定装置21は、運転中のショーケース300から出力されるデータx1~x10と、学習装置20で構築されたモデルとに基づいて、ショーケース300に異常が有るか否かを判定する。なお、学習装置20と、判定装置21とは、ネットワーク25を介して接続されている。 The determination device 21 determines whether or not there is an abnormality in the showcase 300 based on data x1 to x10 output from the showcase 300 in operation and the model constructed by the learning device 20. Note that the learning device 20 and the determining device 21 are connected via a network 25.

<<<学習装置20について>>>
==学習装置20の構成==
図2は、学習装置20のハードウェア構成の一例を示す図である。学習装置20は、CPU(Central Processing Unit)30、メモリ31、記憶装置32、入力装置33、表示装置34、及び通信装置35を含むコンピュータである。
<<<About the learning device 20>>>
==Configuration of learning device 20==
FIG. 2 is a diagram showing an example of the hardware configuration of the learning device 20. The learning device 20 is a computer including a CPU (Central Processing Unit) 30, a memory 31, a storage device 32, an input device 33, a display device 34, and a communication device 35.

CPU30は、メモリ31や記憶装置32に格納されたプログラムを実行することにより、学習装置20における様々機能を実現する。 The CPU 30 implements various functions in the learning device 20 by executing programs stored in the memory 31 and the storage device 32.

メモリ31は、例えばRAM(Random-Aaccess Mmemory)等であり、プログラムやデータ等の一時的な記憶領域として用いられる。 The memory 31 is, for example, a RAM (Random-Acess Memory) or the like, and is used as a temporary storage area for programs, data, and the like.

記憶装置32は、CPU30によって実行あるいは処理される制御プログラム40やデータセット41等の各種のデータを格納する不揮発性の記憶装置である。 The storage device 32 is a nonvolatile storage device that stores various data such as a control program 40 and a data set 41 that are executed or processed by the CPU 30.

制御プログラム40は、学習装置20が有する各種機能を実現するためのプログラムを総称しており、例えば、OS(Operating System)等を含む。 The control program 40 is a general term for programs for realizing various functions of the learning device 20, and includes, for example, an OS (Operating System).

データセット41は、図3に示すように、ショーケース300からセンサで取得するデータx1~x10である。ここで、データx1は、例えば、ショーケース300の所定の場所に取り付けられた温度センサからの出力であり、データx2は、ショーケース300内のコンプレッサの圧力を計測する圧力センサからの出力である。また、データx10は、例えば、コンプレッサの冷媒の流量を計測する流量計からの出力である。なお、データx3~x9についても、x1,x2等と同様であるため、ここでは詳細な説明は省略する。また、データセット41は、予め記憶装置32に格納されていることとする。 The data set 41, as shown in FIG. 3, is data x1 to x10 acquired from the showcase 300 by a sensor. Here, data x1 is, for example, an output from a temperature sensor attached to a predetermined location of showcase 300, and data x2 is an output from a pressure sensor that measures the pressure of a compressor inside showcase 300. . Furthermore, the data x10 is, for example, the output from a flow meter that measures the flow rate of refrigerant in the compressor. Note that the data x3 to x9 are also similar to x1, x2, etc., so a detailed explanation will be omitted here. Further, it is assumed that the data set 41 is stored in the storage device 32 in advance.

学習モデル42は、ショーケース300に異常が有るか否かを、データx1~x10から判別するための判別式、あるいは数式(以下、まとめて「関数y」と称する。)を含んで構成される。学習モデル42の学習が行われると、“関数y”の係数等が調整され、異常検出の精度が変化する。なお、本実施形態において、学習モデル42の“関数y”は、y=f(x1,x2,~,x10)と表される。 The learning model 42 is configured to include a discriminant or mathematical formula (hereinafter collectively referred to as "function y") for determining whether or not there is an abnormality in the showcase 300 from data x1 to x10. . When the learning model 42 is trained, the coefficients of the "function y" and the like are adjusted, and the accuracy of abnormality detection changes. Note that in this embodiment, the "function y" of the learning model 42 is expressed as y=f(x1, x2, ~, x10).

入力装置33は、ユーザによるコマンドやデータの入力を受け付ける装置であり、キーボード、タッチパネルディスプレイ上でのタッチ位置を検出するタッチセンサなどの入力インタフェースを含む。 The input device 33 is a device that receives commands and data input by the user, and includes an input interface such as a keyboard and a touch sensor that detects a touch position on a touch panel display.

表示装置34は、例えばディスプレイなどの装置であり、通信装置35は、ネットワーク25を介して、判定装置21や他のコンピュータと各種プログラムやデータの受け渡しを行う。 The display device 34 is, for example, a device such as a display, and the communication device 35 exchanges various programs and data with the determination device 21 and other computers via the network 25.

==機能ブロック==
図4は、学習装置20に実現される機能ブロックの一例を示す図である。学習装置20のCPU30が、制御プログラム40を実行することにより、学習装置20には、取得部50、割当部51、及び学習部52が実現される。
==Functional block==
FIG. 4 is a diagram showing an example of functional blocks implemented in the learning device 20. When the CPU 30 of the learning device 20 executes the control program 40, the learning device 20 implements an acquisition section 50, an allocation section 51, and a learning section 52.

取得部50は、記憶装置32に格納されたデータセット41を取得し、割当部51は、データセット41に含まれるデータに、“0(第1の値)”または“1(第2の値)”の2値をランダムに割り当てる。ここで、“0”または“1”は、教師あり学習の機械学習を行うために必要な「ラベル」に相当する。つまり、割当部51は、データセット41に含まれるデータに対し、0”または“1”の“ラベル”をランダムに付与して教師データを生成していることになる。 The acquisition unit 50 acquires the data set 41 stored in the storage device 32, and the allocation unit 51 assigns “0 (first value)” or “1 (second value)” to the data included in the data set 41. )" are randomly assigned. Here, "0" or "1" corresponds to a "label" necessary for performing supervised machine learning. In other words, the allocation unit 51 generates the teacher data by randomly assigning a "label" of "0" or "1" to the data included in the data set 41.

学習部52は、割当部51により“0”が割り当てられたデータD1と、“1”が割り当てられたデータD2とを教師データとし、学習モデル42の学習を行う。具体的には、学習部52は、データD1,D2に対し、例えば、サポートベクター回帰を実行することにより“関数f”を求める。 The learning unit 52 uses the data D1 assigned with “0” by the assignment unit 51 and the data D2 assigned with “1” as teacher data, and performs learning of the learning model 42. Specifically, the learning unit 52 calculates the "function f" by performing support vector regression on the data D1 and D2, for example.

なお、ここでは、学習部52は、サポートベクター回帰を実行することとしたが、他の非線形の回帰分析(例えば、非線形最小二乗法、多項式回帰)を用いても良く、非線形分類(例えば、サポートベクターマシン)を実行しても良い。また、例えば、学習モデル42としてニューラルネットワークモデルを用いても良く、そのような場合、学習部52は、ニューラルネットワークモデルのパラメータを、教師データ(データD1,D2)に基づいて定めることになる。この結果、本実施形態における学習モデル42は、非線形の回帰モデルまたは、非線形の分類モデルとなる。以下、各機能ブロックが実行する処理の一例を、図5を参照しつつ説明する。 Although the learning unit 52 executes support vector regression here, other nonlinear regression analysis (for example, nonlinear least squares method, polynomial regression) may be used, and nonlinear classification (for example, support vector regression) may be used. vector machine). Further, for example, a neural network model may be used as the learning model 42, and in such a case, the learning unit 52 determines the parameters of the neural network model based on the teacher data (data D1, D2). As a result, the learning model 42 in this embodiment becomes a nonlinear regression model or a nonlinear classification model. An example of processing executed by each functional block will be described below with reference to FIG. 5.

<<学習処理S10>>
まず、取得部50は、記憶装置32に格納されたデータセット41を取得する(S20)。そして、割当部51は、データセット41に含まれるデータに、“0”または“1”をランダムに割り当てる(S21:割当処理)。例えば、割当部51は、データセット41の時刻t1のデータ(x1,~,x10)に、“0”を対応させて記憶させ、データセット41を更新する。この結果、図6に示すように、記憶装置32において、値が割り当てられた後のデータセット43の時刻t1のデータは、ラベルとして“0”が付与されたデータ(x1,~,x10,y)=(30.1,~,35.2,0)となる。
<<Learning process S10>>
First, the acquisition unit 50 acquires the data set 41 stored in the storage device 32 (S20). Then, the allocation unit 51 randomly allocates "0" or "1" to the data included in the data set 41 (S21: allocation process). For example, the allocation unit 51 updates the data set 41 by storing “0” in association with the data (x1, to x10) at time t1 in the data set 41. As a result, as shown in FIG. 6, in the storage device 32, the data at time t1 of the data set 43 after the value is assigned is the data (x1, ~, x10, y )=(30.1,~,35.2,0).

また、割当部51は、データセット41の時刻t2のデータ(x1,~,x10)に、“1”を対応させて記憶させ、データセット41を更新する。以下、他の時刻においても、時刻t1,t2と同様であるため、詳細な説明は省略する。 Further, the allocation unit 51 stores "1" in association with the data (x1, to x10) at time t2 of the data set 41, and updates the data set 41. Hereinafter, since the other times are similar to times t1 and t2, detailed explanation will be omitted.

そして、学習部52は、割当部51により“0”が割り当てられたデータD1(第1データ)と、“1”が割り当てられたデータD2(第2データ)とを教師データとし、学習モデル42の学習を行い、“関数f”を求める(S22:学習処理)。 Then, the learning unit 52 uses the data D1 (first data) to which “0” is assigned by the assignment unit 51 and the data D2 (second data) to which “1” is assigned as teacher data, and uses the learning model 42 as teacher data. is learned and the "function f" is determined (S22: learning process).

図7及び図8は、“関数f”について説明するための図である。なお、本実施形態では、データセット41の各時刻のデータは、10個のデータ(x1~x10)を含むが、便宜上、図7ではデータがx1の1個の場合の“関数f”を説明し、図8ではデータがx1,x2の2個の場合の“関数f”を説明する。 7 and 8 are diagrams for explaining the "function f". In this embodiment, the data at each time in the data set 41 includes 10 pieces of data (x1 to x10), but for convenience, the “function f” when there is only one piece of data x1 will be explained in FIG. However, in FIG. 8, the "function f" when there are two pieces of data x1 and x2 will be explained.

図7において、変数x1の正常なデータは、例えば“a0”~“a1”の範囲Aに含まれることとする。また、範囲Aのデータx1のうち、“0”が割り当てられたデータD1は、y=0の直線上にプロットされ、“1”が割り当てられたデータD2は、y=1の直線上にプロットされる。 In FIG. 7, normal data of variable x1 is assumed to be included in range A from "a0" to "a1", for example. Also, among the data x1 in range A, data D1 to which "0" is assigned is plotted on the straight line of y = 0, and data D2 to which "1" is assigned is plotted on the straight line of y = 1. be done.

このような場合に、学習部52により、非線形の回帰分析(または、非線形の分類)が実行されると、例えば、“関数ff(x1)”の出力(値)yは、データx1が“a0”~“a1”の範囲において、“0”~“1”の間で変化する。また、“関数f(x1)”の出力yは、データx1が“a0”より小さい領域では、“1”より大きくなり、データx1が“a1”より大きい領域では、“0”より小さくなる。 In such a case, when the learning unit 52 executes a nonlinear regression analysis (or nonlinear classification), for example, the output (value) y of the “function ff(x1)” is determined by the fact that the data x1 is “a0 ” to “a1”, it changes between “0” and “1”. Further, the output y of the "function f(x1)" becomes greater than "1" in a region where data x1 is smaller than "a0", and becomes smaller than "0" in a region where data x1 is larger than "a1".

図8では、正常なデータ(x1,x2)は、例えば、x1軸とx2軸とを含むx1-x2平面の領域Bに含まれることとする。領域Bのデータ(x1,x2)のうち、“0”が割り当てられたデータD1は、y=0のx1-x2平面の領域Cにプロットされ、“1”が割り当てられたデータD2は、y=1のx1-x2平面の領域Dにプロットされる。 In FIG. 8, normal data (x1, x2) is assumed to be included in region B of the x1-x2 plane including, for example, the x1 axis and the x2 axis. Among the data (x1, x2) in area B, data D1 to which "0" is assigned is plotted in area C of the x1-x2 plane where y=0, and data D2 to which "1" is assigned is plotted in y is plotted in area D of the x1-x2 plane where =1.

このような場合に、学習部52により、非線形の回帰分析(または、非線形の分離)が実行されると、例えば、領域C,Dの間で“0”~“1”の値で変化し、領域C,D以外の領域では大きく値が変化する“関数f(x1,x2)”が求められる。 In such a case, when the learning unit 52 executes nonlinear regression analysis (or nonlinear separation), for example, the value changes between regions C and D between "0" and "1", In areas other than areas C and D, a "function f(x1, x2)" whose value changes greatly is determined.

つまり、処理S22で求められる“関数f(x1,~,x10)”は、正常データが入力されると、例えば“0”~“1”の間の値を出力し、異常データが入力されると、“0”~“1”から大きく離れた値を出力する関数である。このような“関数f”を用いることにより、データx1~x10の“異常値”が把握できるため、ショーケース300の異常検知が可能となる。 In other words, the "function f(x1, ~, x10)" found in process S22 outputs a value between "0" and "1" when normal data is input, and when abnormal data is input. This is a function that outputs a value far away from "0" to "1". By using such a "function f", the "abnormal values" of the data x1 to x10 can be ascertained, making it possible to detect an abnormality in the showcase 300.

<<<判定装置21について>>>
==判定装置21の構成==
図9は、判定装置21のハードウェア構成の一例を示す図である。判定装置21は、CPU70、メモリ71、記憶装置72、入力装置73、表示装置74、及び通信装置75を含むコンピュータである。なお、判定装置21のハードウェア構成は、学習装置20のハードウェア構成と同様であるため、ここでは詳細な説明は省略する。
<<<About the determination device 21>>>
==Configuration of determination device 21==
FIG. 9 is a diagram showing an example of the hardware configuration of the determination device 21. The determination device 21 is a computer including a CPU 70, a memory 71, a storage device 72, an input device 73, a display device 74, and a communication device 75. Note that the hardware configuration of the determination device 21 is similar to the hardware configuration of the learning device 20, so a detailed explanation will be omitted here.

記憶装置72(記憶部)は、学習モデル42、判定プログラム80、及び判定データ81を記憶する。学習モデル42は、学習装置20で構築されたモデルである。 The storage device 72 (storage unit) stores the learning model 42, the determination program 80, and the determination data 81. The learning model 42 is a model constructed by the learning device 20.

判定プログラム80は、制御プログラム40と同様に、判定装置21が有する各種機能を実現するためのプログラムを総称している。 Similar to the control program 40, the determination program 80 is a general term for programs for realizing various functions of the determination device 21.

判定データ81は、ショーケース300に異常が有るか否かを判定した判定結果を示すデータである。 The determination data 81 is data indicating the determination result of determining whether or not there is an abnormality in the showcase 300.

==機能ブロック==
図10は、判定装置21に実現される機能ブロックの一例を示す図である。判定装置21のCPU70が、判定プログラム80を実行することにより、判定装置21には、取得部100、計算部101、及び判定部102が実現される。
==Functional block==
FIG. 10 is a diagram showing an example of functional blocks implemented in the determination device 21. As shown in FIG. When the CPU 70 of the determination device 21 executes the determination program 80, the determination device 21 implements an acquisition unit 100, a calculation unit 101, and a determination unit 102.

取得部100は、センサ310から出力されるデータx1~x10を、所定間隔毎(例えば、30秒毎)に取得する。 The acquisition unit 100 acquires data x1 to x10 output from the sensor 310 at predetermined intervals (for example, every 30 seconds).

計算部101は、取得部100が取得したデータ(以下、「取得データ」と称する。)と、記憶装置72に記憶された学習モデル42とに基づいて、学習モデル42を示す“関数f”の出力(関数fの値)を計算する。 The calculation unit 101 calculates a “function f” indicating the learning model 42 based on the data acquired by the acquisition unit 100 (hereinafter referred to as “acquired data”) and the learning model 42 stored in the storage device 72. Calculate the output (value of function f).

判定部102は、計算部101が計算した“関数f”の値が、例えば“0”より小さい閾値T1(第1閾値)と、“1”より大きい閾値T2(第2閾値)との間の範囲Fに入る場合、取得データが正常データであると判定し、範囲Fに入らない場合、取得データが異常データであると判定する。以下、各機能ブロックの詳細を、判定装置21で実行される判定処理とともに説明する。 The determination unit 102 determines whether the value of the “function f” calculated by the calculation unit 101 is between, for example, a threshold T1 (first threshold) smaller than “0” and a threshold T2 (second threshold) larger than “1”. If it falls within range F, it is determined that the acquired data is normal data, and if it does not fall within range F, it is determined that the acquired data is abnormal data. The details of each functional block will be explained below along with the determination process executed by the determination device 21.

<<判定処理S100>>
まず、図11に示すように、取得部100は、センサ310からのデータx1~x10を取得する(S200)。そして、計算部101は、取得データ(x1,~,x10)と、学習モデル42として得られた関数f(x1,~,x10))と、に基づいて、“関数f”の出力yを計算する(S201)。
<<Determination process S100>>
First, as shown in FIG. 11, the acquisition unit 100 acquires data x1 to x10 from the sensor 310 (S200). Then, the calculation unit 101 calculates the output y of the “function f” based on the acquired data (x1, ~, x10) and the function f (x1, ~, x10)) obtained as the learning model 42. (S201).

判定部102は、“出力y”の値が、閾値T1~T2の範囲Fに入るか否かを判定する(S202)。図12は、処理S202で実行される内容を説明するための図である。なお、“関数f”の値は、10個のデータx1~x10に基づいて定まるが、図12では、便宜上、1つの変数(データx1)を用いて説明している。 The determining unit 102 determines whether the value of "output y" falls within the range F of threshold values T1 to T2 (S202). FIG. 12 is a diagram for explaining the contents executed in process S202. Note that although the value of the "function f" is determined based on ten pieces of data x1 to x10, one variable (data x1) is used for explanation in FIG. 12 for convenience.

計算された“出力y”値が、例えば図12の“P1(T1<P1<T2)”である場合、つまり、“出力y”の値が範囲Fに入る場合(S202:Yes)、判定部102は、取得データは、正常データであると判定する(S203)。 If the calculated "output y" value is, for example, "P1 (T1<P1<T2)" in FIG. 12, that is, if the value of "output y" falls within range F (S202: Yes), the determination unit 102 determines that the acquired data is normal data (S203).

一方、計算された“関数f”値が、例えば図12の“P2(T1>P2”)である場合、つまり、“出力y”の値が範囲Fに入らない場合(S202:No)、判定部102は、取得データは、異常データであると判定する(S204)。そして、判定部102は、処理S203,204の判定結果を、記憶装置72に格納し、判定データ81を更新する(S205)。 On the other hand, if the calculated "function f" value is, for example, "P2 (T1>P2") in FIG. 12, that is, if the value of "output y" does not fall within range F (S202: No), the judgment The unit 102 determines that the acquired data is abnormal data (S204). Then, the determination unit 102 stores the determination results of processes S203 and 204 in the storage device 72, and updates the determination data 81 (S205).

<<実証結果>>
図13は、ショーケース300に実際に故障(例えば、冷媒漏れ)が発生した際の、判定装置21の判定結果の一例である。
<<Demonstration results>>
FIG. 13 is an example of the determination result of the determination device 21 when a failure (for example, refrigerant leak) actually occurs in the showcase 300.

まず、1月~2月においては、ショーケース300は正常に動作しているため、計算部101の計算結果である“出力y”の値は、基本的に範囲Fに入っている。このため、この期間においては、取得データ(x1~x10)が、異常データであるとの判定結果は基本的に出力されていない。なお、1月~2月の間に1回だけ“出力y”の値が閾値T1となり、異常検出がされているが、これはノイズ等の影響によるものである。 First, in January and February, the showcase 300 operates normally, so the value of "output y", which is the calculation result of the calculation unit 101, basically falls within the range F. Therefore, during this period, the determination result that the acquired data (x1 to x10) is abnormal data is basically not output. Note that the value of "output y" reached the threshold value T1 only once between January and February, and an abnormality was detected, but this was due to the influence of noise and the like.

そして、2月に入り、ショーケース300のコンプレッサー(不図示)から冷媒漏れが発生すると、計算部101の計算結果が、範囲Fを超える回数が増加する。この結果、特に2月中旬以降、判定部102が、取得データ(x1~x10)が、異常データであるとの判定結果を出力する回数も増加する。 Then, in February, when refrigerant leaks from the compressor (not shown) of the showcase 300, the number of times the calculation result of the calculation unit 101 exceeds the range F increases. As a result, especially after mid-February, the number of times the determination unit 102 outputs a determination result that the acquired data (x1 to x10) is abnormal data also increases.

2月末に、冷媒漏れが修理されると、ショーケース300は再び正常に動作するため、計算部101の計算結果は、範囲Fに収まる。この結果、判定部102は、取得データ(x1~x10)は、正常データであるとの判定結果を出力する。 When the refrigerant leak is repaired at the end of February, the showcase 300 operates normally again, so the calculation result of the calculation unit 101 falls within range F. As a result, the determination unit 102 outputs a determination result that the acquired data (x1 to x10) is normal data.

===まとめ===
以上、本実施形態の異常検知システム10について説明した。学習装置20の割当部51は、正常なデータを含むデータセット(所定の属性に属する複数のデータ)に対し、“0”または“1”を割り当てて、教師データを生成する(例えば、処理S21)。そして、学習部52は、入力されるデータx1~x10(入力データ)が、正常なデータ(所定の属性のデータ)であるか否かを判定するための学習モデル42の学習を、教師データを用いて行う(例えば、処理S22)。このため、本実施形態では、異常なサンプルデータを用いることなく、異常なデータ(異常値)を検出するための学習モデル42を構築できる。さらに、本実施形態では、学習モデル42の学習を行う際に、様々な回帰、分類を用いることができる。このため、一般的な異常値検出方法(例えば、One Class SVM)を用いる場合と比較して、学習モデル42が適用される分野等に合わせ、最適な学習モデル42を構築できる。
===Summary===
The abnormality detection system 10 of this embodiment has been described above. The allocation unit 51 of the learning device 20 allocates "0" or "1" to a dataset containing normal data (a plurality of data belonging to a predetermined attribute) to generate teacher data (for example, in step S21 ). Then, the learning unit 52 uses the teacher data to perform the learning of the learning model 42 to determine whether the input data x1 to x10 (input data) is normal data (data with a predetermined attribute). (for example, processing S22). Therefore, in this embodiment, the learning model 42 for detecting abnormal data (abnormal values) can be constructed without using abnormal sample data. Furthermore, in this embodiment, various regressions and classifications can be used when learning the learning model 42. Therefore, compared to the case where a general abnormal value detection method (for example, One Class SVM) is used, an optimal learning model 42 can be constructed according to the field to which the learning model 42 is applied.

また、例えば、割当部51は、データセット41に含まれるデータに、“0”または“1”を割り当てる際、所定のパターンに従って2値を割り当てても良い。なお、「所定のパターン」とは、例えば、“0”を100個割り当てた後に、“1”を100個割り当てる等、割り当てる値の個数や順番を決めて割り当てることをいう。一般に、データセット41に含まれるデータは、例えば時系列で取得されたデータであることが多い。したがって、割り当てる値の個数や順番を決めると、ノイズ等の影響を受けたデータの多くに同じ値が割り当てられることがある。本実施形態では、割当部51は、ランダムに2値を割り当てるため、データがノイズの影響を受けることを抑制できる。 Further, for example, when assigning "0" or "1" to the data included in the data set 41, the assigning unit 51 may assign binary values according to a predetermined pattern. Note that the "predetermined pattern" refers to the assignment after determining the number and order of the values to be assigned, such as assigning 100 "0"s and then assigning 100 "1s". Generally, the data included in the data set 41 is often data acquired in time series, for example. Therefore, when the number and order of values to be assigned are determined, the same value may be assigned to much of the data affected by noise or the like. In this embodiment, the allocation unit 51 randomly allocates binary values, so that data can be prevented from being influenced by noise.

また、学習モデル42は、線形の分類モデル、または線形の回帰モデルであっても良い。ただし、線形のモデルが用いられた場合、一般に、正常なデータが入力された際の“出力y”の値と、異常なデータが入力された際の“出力y”の値との差が小さくなる。本実施形態では、学習モデル42として、非線形の分類モデルまたは、非線形の回帰モデルを用いている。したがって、一般に、正常なデータが入力された際の“出力y”の値と、異常なデータが入力された際の“出力y”の値との差が大きくなるため、精度良く異常データ(異常値)を検出できる。 Further, the learning model 42 may be a linear classification model or a linear regression model. However, when a linear model is used, the difference between the "output y" value when normal data is input and the "output y" value when abnormal data is input is generally small. Become. In this embodiment, a nonlinear classification model or a nonlinear regression model is used as the learning model 42. Therefore, in general, the difference between the value of "output y" when normal data is input and the value of "output y" when abnormal data is input is large, so abnormal data (abnormal value) can be detected.

また、判定装置21は、正常なデータで構築された学習モデル42を用いることにより、異常なデータの有無を判定できる。したがって、異常なデータを多く収集することが困難な場合であっても、異常なデータの検知が可能となる。 Moreover, the determination device 21 can determine the presence or absence of abnormal data by using the learning model 42 constructed using normal data. Therefore, even if it is difficult to collect a large amount of abnormal data, abnormal data can be detected.

上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。また、本発明は、その趣旨を逸脱することなく、変更や改良され得るとともに、本発明にはその等価物が含まれるのはいうまでもない。 The above-described embodiments are provided to facilitate understanding of the present invention, and are not intended to be interpreted as limiting the present invention. Further, the present invention can be modified and improved without departing from the spirit thereof, and it goes without saying that the present invention includes equivalents thereof.

例えば、本実施形態のデータは、ショーケース300のセンサ310から出力されるデータx1~x10であったが、これに限られない。例えば、2値を割り当てるデータは、他の機器に設けられたセンサの出力や、サーバのアクセスログ等のデータであっても良い。このようなデータであっても、モデルの学習を行うことにより、異常値を検出することができる。 For example, the data in this embodiment is data x1 to x10 output from the sensor 310 of the showcase 300, but is not limited thereto. For example, the data to which binary values are assigned may be data such as the output of a sensor provided in another device or an access log of a server. Even with such data, abnormal values can be detected by learning the model.

また、割当部51は、データセット41に含まれるデータに、“0”または“1”を割り当てることとしたが、これらの値に限られない。例えば、割当部51は、データに“-1”または“1”等、異なる2つの値を割り当てればよい。 Further, although the allocation unit 51 allocates "0" or "1" to the data included in the data set 41, the allocation unit 51 is not limited to these values. For example, the allocation unit 51 may allocate two different values, such as "-1" or "1", to the data.

また、範囲Fを定める閾値T1は、“0”より小さく、閾値T2は“1”より大きいこととしたが、これに限られない。例えば、閾値T1は、“0”以上であり、閾値T2は“1”以下であっても良い。このような場合であっても、異常値を検出することは可能である。 Further, although the threshold value T1 that defines the range F is smaller than "0" and the threshold value T2 is larger than "1", the present invention is not limited to this. For example, the threshold value T1 may be greater than or equal to "0", and the threshold value T2 may be less than or equal to "1". Even in such a case, it is possible to detect abnormal values.

10 異常検知システム
20 学習装置
21 判定装置
25 ネットワーク
30,70 CPU
31,71 メモリ
32,72 記憶装置
33,73 入力装置
34,74 表示装置
35,75 通信装置
40 制御プログラム
41,43 データセット
42 学習モデル
50,100 取得部
51 割当部
52 学習部
80 判定プログラム
81 判定データ
101 計算部
102 判定部

10 Anomaly detection system 20 Learning device 21 Determination device 25 Network 30, 70 CPU
31, 71 Memory 32, 72 Storage device 33, 73 Input device 34, 74 Display device 35, 75 Communication device 40 Control program 41, 43 Data set 42 Learning model 50, 100 Acquisition unit 51 Allocation unit 52 Learning unit 80 Judgment program 81 Judgment data 101 Calculation section 102 Judgment section

Claims (5)

正常なデータを示す属性に属する複数のデータの夫々に対し、第1の値または前記第1の値以下の第2の値を割り当てる割当部と、
前記複数のデータのうち前記第1の値が割り当てられた第1データと、前記複数のデータのうち前記第2の値が割り当てられた第2データと、を教師データとして、入力データが前記正常なデータを示す属性に属する場合、前記第1の値以下前記第2の値以上の所定の範囲に含まれる値を出力し、前記入力データが前記正常なデータを示す属性に属さない場合、前記所定の範囲に含まれない値を出力するようにモデルの学習を行う学習部と、
を含むことを特徴とする情報処理装置。
an assignment unit that assigns a first value or a second value less than or equal to the first value to each of the plurality of data belonging to an attribute indicating normal data;
The first data to which the first value is assigned among the plurality of data and the second data to which the second value is assigned among the plurality of data are used as training data, and the input data is set to the normal state. If the input data belongs to an attribute indicating normal data, a value included in a predetermined range of less than or equal to the first value and greater than or equal to the second value is output, and if the input data does not belong to the attribute indicating normal data, the a learning unit that trains the model to output values that are not included in a predetermined range;
An information processing device comprising:
請求項1に記載の情報処理装置であって、
前記割当部は、
前記複数のデータの夫々に対し、前記第1の値または前記第2の値をランダムに割り当てること、
を特徴とする情報処理装置。
The information processing device according to claim 1,
The allocation department is
Randomly assigning the first value or the second value to each of the plurality of data;
An information processing device characterized by:
請求項1または請求項2に記載の情報処理装置であって、
前記モデルは、非線形の分類モデルまたは非線形の回帰モデルであること、
を特徴とする情報処理装置。
The information processing device according to claim 1 or 2,
the model is a non-linear classification model or a non-linear regression model;
An information processing device characterized by:
コンピュータが、
正常なデータを示す属性に属する複数のデータの夫々に対し、第1の値または前記第1の値以下の第2の値を割り当てる割当処理と、
前記複数のデータのうち前記第1の値が割り当てられた第1データと、前記複数のデータのうち前記第2の値が割り当てられた第2データと、を教師データとして、入力データが前記正常なデータを示す属性に属する場合、前記第1の値以下前記第2の値以上の所定の範囲に含まれる値を出力し、前記入力データが前記正常なデータを示す属性に属さない場合、前記所定の範囲に含まれない値を出力するようにモデルの学習を行う学習処理と、
を実行する、モデルの学習方法。
The computer is
an assignment process of assigning a first value or a second value less than or equal to the first value to each of a plurality of data belonging to an attribute indicating normal data;
The first data to which the first value is assigned among the plurality of data and the second data to which the second value is assigned among the plurality of data are used as training data, and the input data is set to the normal state. If the input data belongs to an attribute indicating normal data, a value included in a predetermined range of less than or equal to the first value and greater than or equal to the second value is output, and if the input data does not belong to the attribute indicating normal data, the a learning process that trains the model to output values that are not included in a predetermined range;
A method for training the model to perform.
正常なデータを示す属性に属する複数のデータのうち第1の値が割り当てられた第1データと、前記複数のデータのうち第2の値が割り当てられた第2データと、を教師データとして学習された、入力データが前記正常なデータを示す属性に属するか否かを判定するためのモデルを記憶する記憶部と、
前記入力データと、前記モデルとに基づいて、前記入力データが前記正常なデータを示す属性に属するか否かを判定するための値を計算する計算部と、
前記値が、前記第1の値以下の第1閾値と前記第2の値以上の第2閾値とで定まる所定の範囲に含まれる場合、前記入力データが前記正常なデータを示す属性に属すと判定し、前記値が、前記所定の範囲に含まれない場合、前記入力データが前記正常なデータを示す属性に属さないと判定する判定部と、
を含むことを特徴とする判定装置。
Learning using first data to which a first value is assigned among a plurality of data belonging to an attribute indicating normal data, and second data to which a second value is assigned from among the plurality of data as training data. a storage unit that stores a model for determining whether the input data belonging to the attribute indicating the normal data;
a calculation unit that calculates a value for determining whether the input data belongs to the attribute indicating the normal data, based on the input data and the model;
If the value is included in a predetermined range determined by a first threshold value that is less than or equal to the first value and a second threshold value that is greater than or equal to the second value, the input data belongs to the attribute indicating the normal data. a determining unit that determines that the input data does not belong to the attribute indicating the normal data if the value is not included in the predetermined range;
A determination device comprising:
JP2019049848A 2019-03-18 2019-03-18 Information processing device, determination device, model learning method Active JP7423898B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019049848A JP7423898B2 (en) 2019-03-18 2019-03-18 Information processing device, determination device, model learning method
JP2023037292A JP7435866B2 (en) 2019-03-18 2023-03-10 Information processing device, determination device, model learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049848A JP7423898B2 (en) 2019-03-18 2019-03-18 Information processing device, determination device, model learning method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023037292A Division JP7435866B2 (en) 2019-03-18 2023-03-10 Information processing device, determination device, model learning method

Publications (2)

Publication Number Publication Date
JP2020154406A JP2020154406A (en) 2020-09-24
JP7423898B2 true JP7423898B2 (en) 2024-01-30

Family

ID=72558986

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019049848A Active JP7423898B2 (en) 2019-03-18 2019-03-18 Information processing device, determination device, model learning method
JP2023037292A Active JP7435866B2 (en) 2019-03-18 2023-03-10 Information processing device, determination device, model learning method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023037292A Active JP7435866B2 (en) 2019-03-18 2023-03-10 Information processing device, determination device, model learning method

Country Status (1)

Country Link
JP (2) JP7423898B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185149A (en) 2014-03-26 2015-10-22 日本電気株式会社 Mechanical learning device, mechanical learning method, and program
JP2016170518A (en) 2015-03-11 2016-09-23 キヤノン株式会社 Information processing apparatus, information processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185149A (en) 2014-03-26 2015-10-22 日本電気株式会社 Mechanical learning device, mechanical learning method, and program
JP2016170518A (en) 2015-03-11 2016-09-23 キヤノン株式会社 Information processing apparatus, information processing method and program

Also Published As

Publication number Publication date
JP2020154406A (en) 2020-09-24
JP7435866B2 (en) 2024-02-21
JP2023065698A (en) 2023-05-12

Similar Documents

Publication Publication Date Title
Kim et al. Machine learning-based novelty detection for faulty wafer detection in semiconductor manufacturing
WO2018131219A1 (en) Anomaly sensing device, anomaly sensing method, and storage medium
JP5854274B2 (en) Information processing apparatus and method, and program
CN112818066A (en) Time sequence data anomaly detection method and device, electronic equipment and storage medium
AU2015315838A1 (en) Apparatus and method for ensembles of kernel regression models
CA3127100C (en) Anomaly detection for predictive maintenance and deriving outcomes and workflows based on data quality
US10976731B2 (en) Abnormality diagnostic system
WO2021241580A1 (en) Abnormality/irregularity cause identifying apparatus, abnormality/irregularity cause identifying method, and abnormality/irregularity cause identifying program
JP5746480B2 (en) Analysis result display device and analysis result display method
US9865158B2 (en) Method for detecting false alarm
Wu et al. Fuzzy nonlinear programming approach for evaluating and ranking process yields with imprecise data
JP7435866B2 (en) Information processing device, determination device, model learning method
CN110520702A (en) Monitor the heat health of electronic equipment
Balsamo et al. Damage detection using flexibility proportional coordinate modal assurance criterion
US20170276567A1 (en) Information processing apparatus, information processing method, and program
EP3983955A1 (en) Methods and systems for improving asset operation based on identification of significant changes in sensor combinations in related events
JP6885321B2 (en) Process status diagnosis method and status diagnosis device
JP7439467B2 (en) Information processing devices, information processing systems, and model learning methods
JP2007164346A (en) Decision tree changing method, abnormality determination method, and program
JP5948998B2 (en) Abnormality diagnosis device
US20220188570A1 (en) Learning apparatus, learning method, computer program and recording medium
JP2021124886A (en) Information processing device, information processing method and information processing program
US20210223764A1 (en) Data analysis device, system, method, and recording medium storing program
JP6572190B2 (en) Software verification system and software verification method
JP2020035081A (en) Abnormality detection device, abnormality detection method, abnormality detection program and abnormality detection system

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7423898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150