JP2021124886A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2021124886A
JP2021124886A JP2020017098A JP2020017098A JP2021124886A JP 2021124886 A JP2021124886 A JP 2021124886A JP 2020017098 A JP2020017098 A JP 2020017098A JP 2020017098 A JP2020017098 A JP 2020017098A JP 2021124886 A JP2021124886 A JP 2021124886A
Authority
JP
Japan
Prior art keywords
data
information processing
clusters
learning model
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020017098A
Other languages
English (en)
Inventor
慎大 原
Shinta Hara
慎大 原
賢哉 村上
Masaya Murakami
賢哉 村上
智志 桐生
Satoshi Kiryu
智志 桐生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2020017098A priority Critical patent/JP2021124886A/ja
Publication of JP2021124886A publication Critical patent/JP2021124886A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)

Abstract

【課題】分類の要因となる特徴を推定することが可能な情報処理装置を提供する。【解決手段】複数の変数を含む複数の第1データを、複数のクラスタにグループ化するクラスタリング部と、前記複数のクラスタの夫々に含まれるデータを前記複数のクラスタ毎に識別する識別情報を、前記複数の第1データの夫々に付与し、複数の第2データを生成する生成部と、前記複数のクラスタの夫々に含まれるデータに基づく複数のパターンのうち、入力されるデータを、何れかのパターンに分類するための第1学習モデルを、前記複数の第2データに基づいて構築するモデル構築部と、前記複数の第2データ及び前記第1学習モデルに基づいて、前記複数のパターンの夫々における前記複数の変数の夫々の影響度を示す影響度情報を算出する算出部と、を備える情報処理装置。【選択図】図5

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
近年、機械学習を用いたデータの分類によって、各種装置の異常検知を行う事例が増えている(例えば特許文献1)。
特開2019−056983号公報
ところで、例えば深層学習に基づく学習モデルを用いる場合、異常が検知された際に、一般に異常の要因を特定することは困難である。
本発明の目的は、分類の要因となる特徴を推定することが可能な情報処理装置を提供することである。
上記目的を達成するための一の発明は、複数の変数を含む複数の第1データを、複数のクラスタにグループ化するクラスタリング部と、前記複数のクラスタの夫々に含まれるデータを前記複数のクラスタ毎に識別する識別情報を、前記複数の第1データの夫々に付与し、複数の第2データを生成する生成部と、前記複数のクラスタの夫々に含まれるデータに基づく複数のパターンのうち、入力されるデータを、何れかのパターンに分類するための第1学習モデルを、前記複数の第2データに基づいて構築するモデル構築部と、前記複数の第2データ及び前記第1学習モデルに基づいて、前記複数のパターンの夫々における前記複数の変数の夫々の影響度を示す影響度情報を算出する算出部と、を備える情報処理装置である。本発明の他の特徴については、本明細書の記載により明らかにする。
本発明によれば、分類の要因となる特徴を推定することが可能な情報処理装置を提供することができる。
情報処理システムの10構成を示す図である。 情報処理装置20のハードウェア構成の一例を示す図である。 第1データ41の一例を示す図である。 第1データ41を説明するための図である。 情報処理装置20に実現される機能ブロックの一例を示す図である。 複数のクラスタにグループ化された第1データ41の一例を示す散布図である。 第2データ42の一例を示す図である。 第1学習モデルM1を説明するための図である。 影響度情報70の一例を示す図である。 第1データ41及び第2学習モデルM2を説明するための図である。 情報処理装置20で実行される処理の一例を示すフローチャートである。 診断装置21のハードウェア構成の一例を示す図である。 診断装置21に実現される機能ブロックの一例を示す図である。 診断装置21で実行される処理の一例を示すフローチャートである。
=====本実施形態=====
<<<情報処理システム10の構成>>>
図1は、本発明の一実施形態である情報処理システム10の構成を示す図である。情報処理システム10は、所定の装置の異常の要因となる特徴を、推定するためのシステムであり、情報処理装置20、診断装置21を含む。本実施形態では、所定の装置の一例として、商業施設に設置されたショーケース300を用いて説明する。
ショーケース300は、例えば、食品等を冷却し、保管するためのケースである。ショーケース300には、ショーケース300の状態を観測するセンサ310が、複数取り付けられている。なお、図1では、便宜上、複数のセンサ310は、1つのブロックとして描かれている。
そして、情報処理システム10は、複数のセンサ310の夫々から出力されるデータに基づいて、ショーケース300が正常であるか又は異常であるかを診断する。更に、情報処理システム10は、診断処理において、複数のセンサ310の夫々から出力されるデータの影響度(後述)を出力する。
なお、ここでは、「異常」の例として、例えば、ショーケース300の庫内の温度を所定温度に維持できない場合や、ショーケース300から異音が出る場合等の、通常とは異なる挙動を示す場合のことが挙げられる。
また、以下、ショーケース300の動作が正常である際のデータを、「正常データ」または「正常なデータ」と称し、ショーケース300の動作が異常である際のデータを、「異常データ」または「異常なデータ」と称する。
情報処理装置20は、複数のセンサ310が出力するデータに基づいて、ショーケース300に異常が有るか否かを判定するためのモデルを機械学習によって構築する。
診断装置21は、運転中のショーケース300において、複数のセンサ310が出力するデータと、情報処理装置20で構築されたモデルとに基づいて、ショーケース300に異常が有るか否かを診断する。更に、診断装置21は、診断処理において、複数のセンサ310の夫々から出力されるデータの影響度を出力する。なお、情報処理装置20と、診断装置21とは、ネットワーク25を介して接続されている。
<<<情報処理装置20について>>>
==情報処理装置20の構成==
図2は、情報処理装置20のハードウェア構成の一例を示す図である。情報処理装置20は、CPU(Central Processing Unit)30、メモリ31、記憶装置32、入力装置33、表示装置34、及び通信装置35を含むコンピュータである。
CPU30は、メモリ31や記憶装置32に格納されたプログラムを実行することにより、情報処理装置20における様々機能を実現する。
メモリ31は、例えばRAM(Random-Aaccess Mmemory)等であり、プログラムやデータ等の一時的な記憶領域として用いられる。
記憶装置32は、CPU30によって実行あるいは処理される制御プログラム40や第1データ41(後述)等の各種のデータを格納する不揮発性の記憶装置である。
制御プログラム40は、情報処理装置20が有する各種機能を実現するためのプログラムであり、例えば、OS(Operating System)等を含む。
複数の第1データ41は、第1学習モデルM1又は第2学習モデルM2(後述)を構築する際に用いられるデータである。図3は、本実施形態の第1データ41を示す図である。複数の第1データ41の夫々は、複数の変数(本実施形態では4個の変数)x1〜x4のデータを含む。また、複数の第1データ41は、所定の属性を有するデータである。本実施形態では、所定の属性は、所定の装置が正常に動作しているか否かを示す情報である。
ここで、「変数x1」及び「変数x2」は夫々、例えば、ショーケース300の所定の場所に取り付けられた第1温度センサ及び第2温度センサが示す温度を意味する。「変数x1のデータ」及び「変数x2のデータ」は夫々、第1温度センサ及び第2温度センサから出力された値である。
「変数x3」は、例えば、ショーケース300内のコンプレッサの圧力を計測する圧力センサが示す圧力を意味する。「変数x3のデータ」は、圧力センサから出力された値である。また、「変数x4」は、例えば、コンプレッサの冷媒の流量を計測する流量計が示す流量を意味する。「変数x4のデータ」は、流量計から出力された値である。
また、「属性」は、変数x1〜x4のデータが“正常データ”であるか、“異常データ”であるかを示すデータである。本実施形態では、変数x1〜x4のデータが“正常データ”である場合、“0”が付され、変数x1〜x4のデータが“異常データ”である場合、“1”が付されている。
本実施形態では、第1データ41は、i個の“正常データ”と、j個の“異常データ”とを含み、予め記憶装置32に格納されている。また、第1データ41の1番目のデータは、例えば、時刻t1に取得された、ショーケース300が正常な場合の変数x1〜x4のデータである。
図4は、図3に示した第1データ41を示す散布図である。なお、複数の第1データ41の夫々は、4個の変数x1〜x4のデータ及び属性を含むが、便宜上、図4ではデータが変数x1及びx2の2個の変数のデータであるとして図示している。
入力装置33は、ユーザによるコマンドやデータの入力を受け付ける装置であり、キーボード、タッチパネルディスプレイ上でのタッチ位置を検出するタッチセンサなどの入力インタフェースを含む。
表示装置34は、例えばディスプレイなどの装置であり、通信装置35は、ネットワーク25を介して、診断装置21や他のコンピュータと各種プログラムやデータの受け渡しを行う。
==機能ブロックの実施例==
図5は、情報処理装置20に実現される機能ブロックの一例を示す図である。情報処理装置20のCPU30が、制御プログラム40を実行することにより、情報処理装置20には、クラスタリング部50、生成部51、モデル構築部52、算出部53、及び第1取得部54が実現される。
クラスタリング部50は、複数の第1データ41を、複数のクラスタにグループ化する。なお、ここで「グループ化」とは、1以上のグループにデータを分けることをいう。
具体的には、クラスタリング部50は、先ず、記憶装置32に格納された第1データ41を取得する。そして、クラスタリング部50は、“正常データ”及び“異常データ”の夫々を、複数のクラスタにグループ化する。
複数のクラスタにグループ化する処理を施すアルゴリズムとしては、例えばk−meansのようにクラスタの数を予め仮定するアルゴリズムを用いてもよく、またはx−meansのようにクラスタの数を予め仮定しないアルゴリズムを用いてもよい。複数のクラスタにグループ化することができれば他のアルゴリズムを用いてもよい。本実施形態では、クラスタリング部50は、複数の第1データ41に対しx−meansによる処理を施す。
図6は、“正常データ”と“異常データ”とが、夫々複数のクラスタの分類された状態を説明するための図である。ここでは、“正常データ”は、2個のクラスタC1及びC2にグループ化され、“異常データ”は、2個のクラスタC3及びC4にグループ化されている。
ここで、仮に、第1データ41の“正常データ”と、“異常データ”とを分けずにクラスタリング部50が、全ての第1データ41を複数のクラスタにグループ化した場合、一のクラスタが“正常データ”と、“異常データ”とを含んでしまうことがある。このような場合、クラスタに含まれるデータを学習用データとすると、学習用データは“正常データ”を示すデータであるか、“異常データ”を示すデータであるかが不明瞭となる。
本実施形態では、第1データ41の“正常データ”と、“異常データ”とを分けた状態で、夫々を複数のクラスタにグループ化する。したがって、本実施形態では、学習用データの精度を高めることができる。
なお、クラスタリング部50は、第1データ41の“正常データ”と、“異常データ”との双方を、夫々複数のクラスタにグループ化しなくてもよい。例えば、“異常データ”のみを、複数のクラスタにグループ化してもよい。
生成部51は、複数のクラスタの夫々に含まれるデータを、複数のクラスタ毎に識別する識別情報を、複数の第1データ41の夫々に付与し、複数の第2データ42を生成する。図7は、本実施形態の第2データ42を示す図である。この例では、第1データ41のうち、クラスタC1にグループ化された第1データ41には識別情報“1”を付与し、クラスタC2にグループ化された第1データ41には識別情報“2”を付与する。
更に、クラスタC3にグループ化された第1データ41には識別情報“3”を付与し、クラスタC4にグループ化された第1データ41には識別情報“4”を付与することによって、第2データ42を生成している。
モデル構築部52は、複数の第2データ42に基づいて、第1学習モデルM1を構築する。第1学習モデルM1は、複数のパターンのうち、入力されるデータを、何れかのパターンに分類するための学習モデルである。複数のパターンは、複数のクラスタの夫々に含まれるデータに基づいている。
本実施形態では、複数のパターンは、パターン1〜パターン4からなる。パターン1はクラスタC1に含まれるデータに基づき、パターン2はクラスタC2に含まれるデータに基づき、パターン3はクラスタC3に含まれるデータに基づき、パターン4はクラスタC4に含まれるデータに基づいている。
本実施形態では、第1学習モデルM1の学習が行われると、第1学習モデルM1の関数の係数等が調整される。なお、第1学習モデルM1は、例えばサポートベクターマシン(SVM)の手法に基づいて構築され、第1学習モデルM1の関数は、例えば、y=f1(x1,x2,x3,x4)と表される。
図8においては、複数の第2データ42を、4つのパターンのうち、いずれかのパターンに分類する第1学習モデルM1を示す関数f1の一例をx1−x2平面において図示している。
モデル構築部52は、更に、後述する第1取得部54が取得したデータに基づいて、第2学習モデルM2を構築する。第2学習モデルM2は、第1学習モデルM1と同様に、入力されるデータが複数のパターンの何れに属するかを分類するための学習モデルである。つまり、本実施形態の第2学習モデルM2も、入力されるデータが、パターン1〜4の何れに属するかを分類する。
第2学習モデルM2は、診断装置21に出力される学習モデルである。第2学習モデルM2を構築する方法についての詳細は後述する。
算出部53は、影響度情報70を算出する。影響度情報70とは、複数のパターンの夫々における複数の変数の夫々の影響度を示す情報である。
ここでの影響度とは、第1学習モデルM1に基づく分類の結果に対する、分類された第2データ42が有する複数の変数の各々の影響度を意味する。影響度は、影響度を示す値として、例えば0〜100%のように、所定の範囲の数値で表現されてもよい。また、影響度は、影響度を示す値に対して所定の値を閾とし、“強”又は“弱”のように2値化したもので表現されもてよいし、3以上に多値化したもので表現されてもよい。
影響度を示す情報とは、複数の変数、及び複数の変数の夫々の影響度のうち、少なくとも一部を含む情報である。つまり、影響度を示す情報は、複数の変数、及び複数の変数の夫々の影響度の全てを含んでもよい。また、影響度を示す情報は、影響度を示す値が最も高いものに対応する変数のみでもよい。
図9は、本実施形態の影響度情報70を示す図である。本実施形態の影響度情報70は、複数のパターンの夫々における複数の変数の夫々の影響度を示す値を含む情報である。この例では、影響度を示す値は、0〜100%の範囲で示されている。また、夫々のパターンにおいて、変数x1〜x4の夫々の影響度の総和が100%となるよう規格化されている。
以下では、「影響度を示す値」を、単に「影響度」と呼ぶことにする。本実施形態では、パターンk(k=1〜4)における変数xl(l=1〜4)の影響度を、影響度Aklとする。
本実施形態の影響度Aklは、第1学習モデルM1によってパターンkに分類された第2データ42に対して出力される影響度である。つまり、本実施形態の影響度Aklは、入力された変数xl(l=1〜4)のデータがパターンkに分類される限り、変数xl(l=1〜4)のデータによらず一定となるように近似された影響度である。影響度Aklを算出する方法の詳細については後述する。
例えば、図9の影響度情報70に示されるパターン3は、クラスタC3に含まれる第2データ42に基づいている(図6)。クラスタC3に含まれる第2データ42は、“異常データ”を示す属性“1”及び識別情報“3”が付されたデータである(図7)。
図9では、パターン3における変数x1の影響度(A31)が10%、変数x2の影響度(A32)が2%、変数x3の影響度(A33)が80%、変数x4の影響度(A34)が8%であることを示している。
この例では、入力された変数xl(l=1〜4)のデータがパターン3に分類された場合、変数x3の影響度が支配的である。このことは、第1学習モデルM1を用いた分類において、変数x3のデータが最も重要視された結果であることを意味する。また、このことは、変数x3を意味する圧力センサの出力値が異常であると推定できることを意味する。
以下、本実施形態の影響度情報70を示す値を算出する方法について説明する。影響度情報70を示す値は、複数の第2データ42及び第1学習モデルM1に基づいて算出される。
先ず、算出部53は、機械学習モデルの解釈法として使用可能なアルゴリズムを用いて、複数の第2データ42の夫々に対する影響度を算出する。アルゴリズムとしては、例えばLIME(local interpretable model-agnostic explanations)やSHAP(SHapley Additive exPlanations)といったアルゴリズムを用いることができる。本実施形態では、LIMEを用いて影響度を算出する。
具体的には、LIMEを用いて、複数の第2データ42のうち、識別情報“k”(k=1〜4)が付された一の第2データ42について、変数xl(l=1〜4)の影響度akl(l=1〜4)を算出する。このとき、一の第2データ42の周辺で、第1学習モデルM1に基づいて局所的な線形近似モデルを生成し、線形近似モデルにおける変数xl(l=1〜4)の重みwkl(l=1〜4)を算出する。
そして、算出された重みwkl(k=1〜4、l=1〜4)を、lについての総和が100となるように規格化したものを、一の第2データ42についての変数xl(l=1〜4)の影響度akl(k=1〜4、l=1〜4)とする。以上の算出処理を全ての第2データ42について行う。
次いで、複数の第2データ42のうち、識別情報“k”(k=1〜4)が付与された全ての第2データ42について、影響度akl(l=1〜4)を足し合わせたものを、重みWkl(l=1〜4)とする。そして、算出された重みWkl(l=1〜4)を、lについての総和が100となるように規格化したものを、上述の影響度Akl(l=1〜4)とする。
第1取得部54は、複数の第2データ42のうち、複数のクラスタの夫々に含まれるデータを少なくとも一つ含む一部のデータを取得する。前述のように、複数の第2データ42のうち、第1取得部54によって取得された取得された第2データ42は、モデル構築部52が第2データ42を構築するために用いられる。
図10は、第1取得部54によって取得された第2データ42を示す図である。図10において、黒丸は、複数の第2データ42のうち、第1取得部54によって取得された第2データ42を示している。一方、白丸は、複数の第2データ42のうち、第1取得部54によって取得された第2データ42以外の第2データ42を示している。
第1取得部54は、複数の第2データ42のうち、複数のクラスタの夫々の重心に最も近いデータを少なくとも取得する。なお、ここで、一のクラスタの「重心」とは、の一のクラスタに含まれる複数の第2データ42の平均値である。
図10の例では、第1取得部54は、複数のクラスタの夫々の重心から所定の距離以内に存在する第2データ42(黒丸)を取得する。ここでの距離としては特に限定されないが、例えばユークリッド距離、マンハッタン距離、チェビシェフ距離等を用いることができる。
第2学習モデルM2は、前述した第1学習モデルM1と同様の手法に基づいて構築され、第2学習モデルM2の関数は、例えば、y=f2(x1,x2,x3,x4)と表される。
つまり、第2学習モデルM2は、複数の第2データ42のうち、複数のクラスタの夫々の重心の近傍に存在する代表的な第2データ42に基づいて構築されることになる。この結果、モデル構築部52は、第2データ42の分布に関する情報を保ちつつ、少ないデータ量を用いて第2学習モデルM2の学習を行う。なお、「データの分布」とは、例えば、データx1〜x4のそれぞれを一つのベクトルとした際のベクトル空間における分布である。
このようにして構築された第2学習モデルM2は、第1学習モデルM1を近似的に表した学習モデルといえる。また、第2学習モデルM2は、第1学習モデルM1よりも少ないデータ量を用いて構築されるため、第2学習モデルM2の関数f2は、第1学習モデルM1の関数f1よりもデータ量が少ない。
第2学習モデルM2は、後述する診断装置21において、分類部81がSVMにより診断データを複数のパターンの何れかに分類する処理に用いられる。この分類する処理において、第1学習モデルM1よりもデータ量が少ない第2学習モデルM2を用いることにより、第1学習モデルM1を用いる場合に比べて処理速度を高速化することができる。
<<情報処理S10>>
以下、各機能ブロックが実行する処理の一例を、図11等を参照しつつ説明する。図11は、情報処理装置20で実行される処理の一例を示すフローチャートである。
先ず、クラスタリング部50は、記憶装置32に格納された第1データ41(図3、4)を取得する(S11)。
次いで、クラスタリング部50は、第1データ41を複数のクラスタにグループ化する(S12、図6)。このとき、クラスタリング部50は、第1データ41の“正常データ”と、“異常データ”とを分けた状態で、夫々を複数のクラスタにグループ化する。
次いで、生成部51は、複数のクラスタの夫々に含まれるデータを、複数のクラスタ毎に識別する識別情報を、複数の第1データ41の夫々に付与し、複数の第2データ42を生成する(S13、図7)。
次いで、モデル構築部52は、S13で生成された複数の第2データ42に基づいて、第1学習モデルM1を構築する(S14、図8)。
次いで、算出部53は、S13で生成された複数の第2データ42及びS14で構築された第1学習モデルM1に基づいて、影響度情報70を算出する(S15、図9)。
次いで、第1取得部54は、複数の第2データ42のうち、複数のクラスタの夫々に含まれるデータを少なくとも一つ含む一部のデータを取得する(S16、図10)。
次いで、モデル構築部52は、S16で取得された複数の第2データ42の一部に基づいて、第2学習モデルM2を構築する(S17、図10)。
次いで、情報処理装置20は、S15で算出された影響度情報70と、S17で構築された第2学習モデルM2を、診断装置21に出力する。
<<<診断装置21について>>>
==診断装置21の構成==
図12は、診断装置21のハードウェア構成の一例を示す図である。診断装置21は、CPU60、メモリ61、記憶装置62、入力装置63、表示装置64、及び通信装置65を含むコンピュータである。なお、診断装置21のハードウェア構成は、情報処理装置20のハードウェア構成と同様であるため、ここでは詳細な説明は省略する。
記憶装置62は、第2学習モデルM2、影響度情報70、及び診断プログラム71を記憶する。第2学習モデルM2は、情報処理装置20で構築されたモデルである。
診断プログラム71は、制御プログラム40と同様に、診断装置21が有する各種機能を実現するためのプログラムを総称している。
==機能ブロック==
図12は、診断装置21に実現される機能ブロックの一例を示す図である。診断装置21のCPU60が、診断プログラム71を実行することにより、診断装置21には、第2取得部80、分類部81、出力部82、及び記憶部83が実現される。
第2取得部80は、複数の変数を含み診断対象となる診断データを取得する。具体的には、第2取得部80は、運転中のショーケース300のセンサ310から出力される変数x1〜x4のデータを、所定時間間隔毎(例えば、30秒毎)に取得する。なお、センサ310から出力される変数x1〜x4のデータが「診断データ」に相当する。
分類部81は、情報処理装置20のモデル構築部52によって構築された第2学習モデルM2に基づいて、診断データを複数のパターンの何れかに分類する。本実施形態の複数のパターンとは、前述のように、パターン1〜パターン4からなる。
出力部82は、診断データが分類されたパターンの影響度情報70(図9)を出力する。例えば、ある時刻に取得された診断データが分類部81によってパターン4に分類された場合、本実施形態では、出力部82は、変数x1の影響度(A41)が1%、変数x2の影響度(A42)が4%、変数x3の影響度(A43)が0%、変数x4の影響度(A44)が95%である旨を出力する。このとき、出力部82は、表示装置64に出力してもよいし、音声情報により出力してもよい。
そして、作業者は、出力部82による出力を確認することにより、ショーケース300に異常が検知されたことを把握する。この場合、作業者は、異常の主な要因が、変数x4が意味するコンプレッサの冷媒の流量であることを把握する。
記憶部83は、情報処理装置20から診断装置21に出力された影響度情報70を記憶する。これによって、診断処理において、過去に生成した影響度情報70を用いることができる。これによって、情報処理装置20によって第2学習モデルM2及び影響度情報70を生成する回数を抑えることができる。また、これによって、診断データの夫々に対し、LIME等を用いて影響度を算出する必要がなく、診断処理における計算負荷を削減することができる。
なお、本実施形態では、分類部81は、第2学習モデルM2に基づいて、診断データを複数のパターンの何れかに分類する態様を示したが、これに限られない。分類部81は、第2学習モデルM2ではなく、第1学習モデルM1に基づいて分類してもよい。
この場合、情報処理装置20は、第2学習モデルM2を構築する必要はない。また、この場合、情報処理装置20は、第2学習モデルM2に代えて、第1学習モデルM1を診断装置21に出力する。
<<診断処理S20>>
以下、各機能ブロックが実行する処理の一例を、図14等を参照しつつ説明する。図14は、診断装置21で実行される処理の一例を示すフローチャートである。
まず、図14に示すように、第2取得部80は、複数の変数を含み診断対象となる診断データを取得する(S21)。次いで、分類部81は、第2学習モデルM2に基づいて、診断データを複数のパターンの何れかに分類する(S22)。次いで、出力部82は、診断データが分類されたパターンの影響度情報70を出力する(S23)。
===まとめ===
以上、本実施形態の情報処理システム10について説明した。かかる実施形態によれば、分類の要因となる特徴を推定することが可能な情報処理システムを提供することができる。
また、かかる実施形態によれば、クラスタリング部50が複数の第1データ41を複数のクラスタにグループ化する際、x−meansによる処理を施す。そのため、クラスタの数を仮定する必要がない。これによって、分類の要因となる特徴を推定する際に、特徴の数に対する先入観が排除されるため、正確な推定をすることができる。
また、かかる実施形態によれば、複数の第1データ41は、所定の属性を有するデータである。そのため、クラスタリング部50が複数の第1データ41を複数クラスタにグループ化する際、属性ごとに分けてグループ化することができる。これによって、複数の第1データ41の、学習用データとしての精度を高めることができる。
また、かかる実施形態によれば、所定の属性は、所定の装置が正常に動作しているか否かを示す情報である。つまり、クラスタリング部50は、複数の第1データ41の“正常データ”と、“異常データ”とを分けた状態で、夫々を複数のクラスタにグループ化することができる。そのため、一のクラスタに“正常データ”と、“異常データ”が混在することがなく、複数の第1データ41の、学習用データとしての精度を高めることができる。
また、かかる実施形態によれば、影響度情報70は、複数の変数の夫々の影響度を示す値を含む情報である。これによって、分類の要因となる特徴を定量的に推定することが可能となる。
また、かかる実施形態によれば、第1取得部54は、複数の第2データ42のうち、複数のクラスタの夫々に含まれるデータを少なくとも一つ含む一部のデータを取得する。これによって、第2データ42の分布に関する情報を保ちつつ、より少ないデータ量を用いて第2学習モデルM2の学習を行うことができる。これによって、第2学習モデルM2の学習時間を削減することができる。
また、かかる実施形態によれば、第1取得部54は、複数の第2データ42のうち、複数のクラスタの夫々の重心に最も近いデータを少なくとも取得する。これによって、第2データ42の分布に関する情報を保ちつつ、第2学習モデルM2の学習に用いるデータ量を効率的に減らすことができる。
また、かかる実施形態によれば、診断処理において、所定の装置から出力される診断データの夫々に対し、第2学習モデルM2による分類の結果に基づいて影響度情報70を参照することによって、分類の要因となる特徴を推定することができる。
従来の異常検知方法では、診断処理において、装置から出力される診断データの夫々に対し、LIMEやSHAP等の機械学習モデルの既存の解釈法を用いて影響度を算出する。そのため、診断処理における計算負荷が膨大となるという課題があった。
しかしながら、かかる実施形態の診断処理によれば、診断データの夫々に対し、影響度を算出する必要がない。これによって、診断処理における計算負荷を削減することができる。
また、かかる実施形態によれば、診断装置21は、影響度情報70を記憶する記憶部83を備える。これによって、診断処理において、過去に生成した影響度情報70を用いることができる。これにより、情報処理装置20によって第2学習モデルM2及び影響度情報70を生成する回数を抑えることができる。
上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。また、本発明は、その趣旨を逸脱することなく、変更や改良され得るとともに、本発明にはその等価物が含まれるのはいうまでもない。
10:情報処理システム
20:情報処理装置
21:診断装置
25:ネットワーク
30:CPU
31:メモリ
32:記憶装置
33:入力装置
34:表示装置
35:通信装置
40:制御プログラム
41:第1データ
42:第2データ
50:クラスタリング部
51:生成部
52:モデル構築部
53:算出部
54:第1取得部
60:CPU
61:メモリ
62:記憶装置
63:入力装置
64:表示装置
65:通信装置
70:影響度情報
71:診断プログラム
80:第2取得部
81:分類部
82:出力部
83:記憶部
300:ショーケース
310:センサ
M1:第1学習モデル
M2:第2学習モデル

Claims (11)

  1. 複数の変数を含む複数の第1データを、複数のクラスタにグループ化するクラスタリング部と、
    前記複数のクラスタの夫々に含まれるデータを前記複数のクラスタ毎に識別する識別情報を、前記複数の第1データの夫々に付与し、複数の第2データを生成する生成部と、
    前記複数のクラスタの夫々に含まれるデータに基づく複数のパターンのうち、入力されるデータを、何れかのパターンに分類するための第1学習モデルを、前記複数の第2データに基づいて構築するモデル構築部と、
    前記複数の第2データ及び前記第1学習モデルに基づいて、前記複数のパターンの夫々における前記複数の変数の夫々の影響度を示す影響度情報を算出する算出部と、
    を備える情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記クラスタリング部は、前記複数の第1データに対しx−meansによる処理を施すこと、
    を特徴とする情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    前記複数の第1データは、所定の属性を有するデータであること、
    を特徴とする情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記所定の属性は、所定の装置が正常に動作しているか否かを示す情報であること、
    を特徴とする情報処理装置。
  5. 請求項1〜4の何れか一項に記載の情報処理装置であって、
    前記影響度情報は、前記複数の変数の夫々の影響度を示す値を含む情報であること、
    を特徴とする情報処理装置。
  6. 請求項1〜5の何れか一項に記載の情報処理装置であって、
    前記複数の第2データのうち、前記複数のクラスタの夫々に含まれるデータを少なくとも一つ含む一部のデータを取得する第1取得部を備え、
    前記モデル構築部は、
    前記第1取得部が取得したデータに基づいて、入力されるデータが前記複数のパターンの何れに属するかを分類するための第2学習モデルを構築すること、
    を特徴とする情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記第1取得部は、
    前記複数の第2データのうち、前記複数のクラスタの夫々の重心に最も近いデータを少なくとも取得すること、
    を特徴とする情報処理装置。
  8. 請求項6または7に記載の情報処理装置と、
    前記複数の変数を含み診断対象となる診断データを取得する第2取得部と、
    前記第2学習モデルに基づいて、前記診断データを前記複数のパターンの何れかに分類する分類部と、
    前記診断データが分類されたパターンの前記影響度情報を出力する出力部と、
    を含む診断装置と、を備える情報処理システム。
  9. 請求項8に記載の情報処理システムであって、
    前記診断装置は、前記影響度情報を記憶する記憶部を備えること、
    を特徴とする情報処理システム。
  10. 複数の変数を含む複数の第1データを、複数のクラスタにグループ化するステップと、
    前記複数のクラスタの夫々に含まれるデータを前記複数のクラスタ毎に識別する識別情報を、前記複数の第1データの夫々に付与し、複数の第2データを生成するステップと、
    前記複数のクラスタの夫々に含まれるデータに基づく複数のパターンのうち、入力されるデータを、何れかのパターンに分類するための第1学習モデルを、前記複数の第2データに基づいて構築するステップと、
    前記複数の第2データ及び前記第1学習モデルに基づいて、前記複数のパターンの夫々における前記複数の変数の夫々の影響度を示す影響度情報を算出するステップと、
    を含む情報処理方法。
  11. コンピュータに、
    複数の変数を含む複数の第1データを、複数のクラスタにグループ化させ、
    前記複数のクラスタの夫々に含まれるデータを前記複数のクラスタ毎に識別する識別情報を、前記複数の第1データの夫々に付与し、複数の第2データを生成させ、
    前記複数のクラスタの夫々に含まれるデータに基づく複数のパターンのうち、入力されるデータを、何れかのパターンに分類するための第1学習モデルを、前記複数の第2データに基づいて構築させ、
    前記複数の第2データ及び前記第1学習モデルに基づいて、前記複数のパターンの夫々における前記複数の変数の夫々の影響度を示す影響度情報を算出させる、
    ことを特徴とする情報処理プログラム。
JP2020017098A 2020-02-04 2020-02-04 情報処理装置、情報処理方法及び情報処理プログラム Pending JP2021124886A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020017098A JP2021124886A (ja) 2020-02-04 2020-02-04 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020017098A JP2021124886A (ja) 2020-02-04 2020-02-04 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2021124886A true JP2021124886A (ja) 2021-08-30

Family

ID=77459025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020017098A Pending JP2021124886A (ja) 2020-02-04 2020-02-04 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2021124886A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4242767A1 (en) * 2022-03-03 2023-09-13 Yokogawa Electric Corporation Apparatus, method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4242767A1 (en) * 2022-03-03 2023-09-13 Yokogawa Electric Corporation Apparatus, method, and program
JP7452563B2 (ja) 2022-03-03 2024-03-19 横河電機株式会社 装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
JP6941123B2 (ja) 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム
JP6555061B2 (ja) クラスタリングプログラム、クラスタリング方法、および情報処理装置
JP2016133895A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6351862B2 (ja) 運転状態分類装置
US9311729B2 (en) Information processing apparatus, information processing method, and program
JP6679266B2 (ja) データ解析装置、データ解析方法及びプログラム
JP7040851B2 (ja) 異常検知装置、異常検知方法及び異常検知プログラム
JP6828807B2 (ja) データ解析装置、データ解析方法およびデータ解析プログラム
JP2018142097A (ja) 情報処理装置、情報処理方法及びプログラム
JP2008546046A (ja) マハラノビスの距離の遺伝的アルゴリズムの方法及びシステム
JP5889019B2 (ja) ラベル付加装置、ラベル付加方法及びプログラム
WO2014199920A1 (ja) 予測関数作成装置、予測関数作成方法、及びコンピュータ読み取り可能な記録媒体
JP6952660B2 (ja) 更新支援装置、更新支援方法およびプログラム
US20090043536A1 (en) Use of Sequential Clustering for Instance Selection in Machine Condition Monitoring
EP3859472A1 (en) Monitoring system and monitoring method
JP2020144626A (ja) 異常検出システム、及び異常検出プログラム
KR102490369B1 (ko) 그래프 임베딩과 인간참여 방식을 통한 악성코드 제작그룹 식별 방법
EP4053757A1 (en) Degradation suppression program, degradation suppression method, and information processing device
WO2018142816A1 (ja) 支援装置および支援方法
JP2021124886A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20210287135A1 (en) Information processing method, information processing apparatus, and abnormality determination system
CN112669908A (zh) 并入数据分组的预测模型
JP6930195B2 (ja) モデル同定装置、予測装置、監視システム、モデル同定方法および予測方法
US20220405299A1 (en) Visualizing feature variation effects on computer model prediction
JP2020067948A (ja) 分析装置、分析方法および分析プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507