JP7118210B2 - 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム - Google Patents

学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム Download PDF

Info

Publication number
JP7118210B2
JP7118210B2 JP2021085122A JP2021085122A JP7118210B2 JP 7118210 B2 JP7118210 B2 JP 7118210B2 JP 2021085122 A JP2021085122 A JP 2021085122A JP 2021085122 A JP2021085122 A JP 2021085122A JP 7118210 B2 JP7118210 B2 JP 7118210B2
Authority
JP
Japan
Prior art keywords
data
model
attribution
output
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021085122A
Other languages
English (en)
Other versions
JP2021119545A (ja
Inventor
恵介 切通
知範 泉谷
良介 丹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2021085122A priority Critical patent/JP7118210B2/ja
Publication of JP2021119545A publication Critical patent/JP2021119545A/ja
Application granted granted Critical
Publication of JP7118210B2 publication Critical patent/JP7118210B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラムに関する。
従来、産業、製造業へのニューラルネットワーク技術の応用に関して、ニューラルネットがブラックボックスであり、その判断根拠や入出力の関係性が不明であるため、アプリケーションとして活用することは難しかった。そこで、入出力の関係性(アトリビューション)を抽出することで、モデルへの信頼性を向上させ、予測の原因究明を行うことができることが知られている。例えば、プラントのオペレータは、ニューラルネットワークモデルが予測した故障とアトリビューションを比較することで、予測の原因を理解し、故障を止めるためのアクションを得ることができる可能性がある。
ニューラルネットモデルの入出力の関係性(アトリビューション)を抽出する手法は複数提案されている。この手法は、線形モデルなどに使うようなモデルの重みから入力の重要度を抽出する手法とは異なり、サンプル毎に入出力の関係を得るため、データの状態に応じた関係性を抽出できるという利点がある。
例えば、アトリビューションを抽出する手法として、入力の出力に対する偏微分値を利用する方法である。また、ノイズを減少させる発展系として、偏微分値を利用したり、また別の定義でアトリビューションを計算したりする手法が提案されている。
Smilkov Daniel, et al. "Smoothgrad: removing noise by adding noise." arXiv preprint 1706.03825 (2017). Simonyan, Karen, Andrea Vedaldi, and Andrew Zisserman. "Deep inside convolutional networks: Visualising image classification models and saliency maps." arXiv preprint arXiv:1312.6034 (2013). Binder, Alexander, et al. "Layer-wise relevance propagation for deep neural network architectures." Information Science and Applications (ICISA) 2016. Springer, Singapore, 2016. 913-922.
しかしながら、従来のニューラルネットモデルの入出力の関係性(アトリビューション)を抽出する手法では、抽出したアトリビューションに大きなノイズを多く含む場合がある。例えば、入力の出力に対する偏微分値を利用する方法ではノイズが多くなる場合があった。また、ノイズを除去するアトリビューションの計算手法を用いたとしてもそのアトリビューション自体の解釈が難しい場合があるという問題があった。
上述した課題を解決し、目的を達成するために、本発明の学習装置は、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算部と、前記アトリビューションに関する制約をつけて前記モデルを学習する学習部とを有することを特徴とする。
また、本発明の抽出装置は、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算部と、前記アトリビューションに関する制約をつけて前記モデルを学習する学習部と、前記学習部によって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する抽出部とを有することを特徴とする。
また、本発明の学習方法は、学習装置によって実行される学習方法であって、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算工程と、前記アトリビューションに関する制約をつけて前記モデルを学習する学習工程とを含むことを特徴とする。
また、本発明の抽出方法は、抽出装置によって実行される抽出方法であって、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算工程と、前記アトリビューションに関する制約をつけて前記モデルを学習する学習工程と、前記学習工程によって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する抽出工程とを含むことを特徴とする。
また、本発明の学習プログラムは、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算ステップと、前記アトリビューションに関する制約をつけて前記モデルを学習する学習ステップとをコンピュータに実行させることを特徴とする。
また、本発明の抽出プログラムは、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算ステップと、前記アトリビューションに関する制約をつけて前記モデルを学習する学習ステップと、前記学習ステップによって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する抽出ステップとをコンピュータに実行させることを特徴とする。
本発明によれば、ノイズの減少を狙ってアトリビューションの計算方法を変えることなく、アトリビューションのノイズを抑えることができるという効果を奏する。
図1は、第1の実施形態に係る学習装置の構成例を示すブロック図である。 図2は、学習装置によって実行される学習処理の概要を説明する図である。 図3は、学習装置によって実行される学習処理の具体的な処理例を説明する図である。 図4は、第1の実施形態に係る学習装置における学習処理の流れの一例を示すフローチャートである。 図5は、第2の実施形態に係る抽出装置の構成例を示すブロック図である。 図6は、抽出装置によって実行される異常予測処理およびアトリビューション抽出処理の概要を説明する図である。 図7は、抽出装置によって実行される画像分類処理およびアトリビューション抽出処理の概要を説明する図である。 図8は、第1の実施形態に係る抽出装置における抽出処理の流れの一例を示すフローチャートである。 図9は、プログラムを実行するコンピュータを示す図である。
以下に、本願に係る学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラムが限定されるものではない。
[第1の実施形態]
以下の実施形態では、第1の実施形態に係る学習装置10の構成、学習装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[学習装置の構成]
まず、図1を用いて、学習装置10の構成を説明する。図1は、第1の実施形態に係る学習装置の構成例を示すブロック図である。学習装置10は、例えば、工場やプラントなどの監視対象設備に設置されるセンサによって取得された複数のデータを収集し、収集された複数のデータを入力として、監視対象設備の異常を予測するための予測モデルを学習する。学習装置10では、入力の出力に対する偏微分値などの単純な既存のアトリビューションの計算手法を用いつつ、学習中にアトリビューションが変化するような制約(例えば、スパース化の制約)をつけて学習することで、アトリビューションのノイズを減らすことができる。また、学習装置10では、ノイズの減少を狙ってアトリビューションの計算方法を変える必要がないので、アトリビューション自体の解釈の難しさを軽減することも可能である。
図1に示すように、この学習装置10は、通信処理部11、制御部12および記憶部13を有する。以下に学習装置10が有する各部の処理を説明する。
通信処理部11は、接続される装置との間でやり取りする各種情報に関する通信を制御する。また、記憶部13は、制御部12による各種処理に必要なデータおよびプログラムを格納し、データ記憶部13aおよび学習済みモデル記憶部13bを有する。例えば、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子等の記憶装置である。
データ記憶部13aは、後述する収集部12aによって収集されたデータを記憶する。例えば、データ記憶部13aは、工場、プラント、ビル、データセンタ等の対象機器に設けられたセンサのデータ(例えば、温度や圧力、音、振動等のデータ)を記憶する。なお、データ記憶部13aは、上記のデータに限定されるものではなく、画像データ等、複数の実数値からなるデータであればどのようなデータを記憶してもよい。
学習済みモデル記憶部13bは、後述する学習部12cによって学習された学習済みモデルを記憶する。例えば、学習済みモデル記憶部13bは、学習済みモデルとして、監視対象設備の異常を予測するためのニューラルネットワークの予測モデルを記憶する。
制御部12は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する。例えば、制御部12は、収集部12a、計算部12bおよび学習部12cを有する。ここで、制御部12は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphical Processing Unit)などの電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路である。
収集部12aは、複数のデータを収集する。例えば、収集部12aは、監視対象設備で取得された複数のセンサデータを収集する。具体的には、収集部12aは、工場やプラントなどの監視対象設備に設置されるセンサから多変量時系列の数値データを定期的(例えば、1分ごと)に受信し、データ記憶部13aに格納する。ここでセンサが取得するデータとは、例えば、監視対象設備である工場、プラント内の装置や反応炉についての温度や圧力、音、振動等の各種データである。また、収集部12aが取得するデータはセンサが取得したデータに限定されるものではなく、例えば、画像データ、人的に入力された数値データ等でもよい。
計算部12bは、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、入力データおよび出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する。例えば、計算部12bは、複数のセンサデータを入力データとして監視対象設備の状態を予測するための予測モデルに入力し、該予測モデルから出力される出力データを得た場合に、入力データおよび出力データに基づいて、センサごとのアトリビューションを計算する。
ここで、アトリビューションを計算する具体例について説明する。例えば、計算部12bは、入力値から出力値を算出する学習済モデルにおいて、出力値の各入力値に関する偏微分値またはその概算値を用いて、各時刻におけるセンサごとに、アトリビューションを算出する。一例としては、計算部12bは、Saliency Mapを用いて、各時刻におけるセンサごとに、アトリビューションを算出する。Saliency Mapは、ニューラルネットの画像分類において利用される技術であり、ニューラルネットの出力の各入力に関する偏微分値を出力に寄与するアトリビューションとして抽出する技術である。なお、Saliency Map以外の手法でアトリビューションを計算してもよい。
学習部12cは、アトリビューションに関する制約をつけてモデルを学習する。例えば、学習部12cは、出力データと正解データに基づいてモデルのロスを計算するロス関数にアトリビューションに関する制約をつけてモデルを学習する。
ここで、図2を用いて、学習装置10によって実行される学習処理の概要を説明する。図2は、学習装置によって実行される学習処理の概要を説明する図である。図2に例示するように、計算部12bは、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、モデルに入力された入力データとモデルから出力された出力データとに基づいて、アトリビューションを計算する。
また、学習部12cは、モデルの出力データと正解データからロスを計算し、計算したロスにアトリビューションを付与することで、最終的に得られる学習済みモデルから計算されるアトリビューションが変化する制約をかけることができる。例えば、学習部12cは、スパース化(重要でない特徴のアトリビューションを0にする)の制約をつけるのであれば、アトリビューションのL1ノルムに事前に設定された定数αをかけた値をロスに足し合わせ、該L1ノルムが足し合されたロスが小さくなるように、モデルを学習する。このように、学習部12cは、アトリビューションに関する制約として、ロス関数にアトリビューションのL1ノルムに事前に設定された定数をかけあわせた値を足し合わせ、該L1ノルムが足し合されたロスが小さく、かつ、アトリビューションのスパース性が大きくなるように、モデルを学習する。
ここで、図3を用いて、学習装置10によって実行される学習処理の具体的な処理例を説明する図である。図3は、学習装置によって実行される学習処理の具体的な処理例を説明する図である。図3の例では、計算部12bは、入力データxがニューラルネットワークMに入力される場合に、アトリビューションA(x,M)を計算する。図3に例示するように、学習部12cは、アトリビューションを用いた何らかの制約を付けてニューラルネットワークMの学習を行う。例えば、学習部12cは、スパース化の制約をつけるのであれば、ロス関数は、「L´=L(x,y)+α|A(x,y,M)|」となる。
また、アトリビューションを計算する手法として、Saliency Mapを用いる場合に、Saliency Map(偏微分値)のL1ノルムをロスL(x,y)に足し合わせるロス関数は、下記(1)式となる。ここでは、学習部12cは、∂S(x)/∂xのL1ノルムを算出する。ここでは、モデルの出力ノードを表す。例えば回帰モデルの場合、S(x)として、モデルMの出力(一般に実数値)を用いることができる。また、分類モデルの場合は、モデルMの最終層となるSoftmax関数の入力値(一般に実数値)を用いることができる。
Figure 0007118210000001
このSaliency Map(偏微分値)のL1ノルムについて、入力されるサンプルデータが複数ある場合には、学習部12cは、例えば、各サンプルデータの平均値を求める。例えば、n個のサンプルデータ(例えば、n個の画像データ)があり、iがサンプル番号(画像データを識別する番号)、jが特徴番号(画像データの画素位置を識別する番号)であるとした場合には、各サンプルのSaliency Map(偏微分値)のL1ノルムは、下記(2)式であらわされる。
Figure 0007118210000002
このように、学習装置10は、ノイズの減少を狙ってアトリビューションの計算方法を変更するのではなく、学習中にアトリビューションが変化するような制約(例えばスパース化、不要なアトリビューションを0に落とし込む制約)をつけて学習する。このため、学習装置10では、アトリビューションの計算方法は既存の手法を用いつつ、学習方法を改善することでアトリビューションのノイズを抑えることが可能である。
例えば、学習装置10では、入力の出力に対する偏微分値などの単純なアトリビューションを利用した場合でもアトリビューションのノイズを減らすことができ、同時に従来手法に比べてアトリビューション自体の解釈の難しさを軽減することができる。また、サンプルごとに変化するアトリビューションの特徴も保つことができる。
[学習装置の処理手順]
次に、図4を用いて、第1の実施形態に係る学習装置10による処理手順の例を説明する。図4は、第1の実施形態に係る学習装置における学習処理の流れの一例を示すフローチャートである。
図4に例示するように、学習装置10は、データを取得すると(ステップS101肯定)、データをモデルに入力し(ステップS102)、入力データと出力データとを用いて、アトリビューションを計算する(ステップS103)。例えば、学習装置10の計算部12bは、複数のセンサデータを入力データとして監視対象設備の状態を予測するための予測モデルに入力し、該予測モデルから出力される出力データを得た場合に、入力データおよび出力データに基づいて、センサごとのアトリビューションを計算する。
そして、学習装置10は、ロスにアトリビューションを付与し(ステップS104)、スパース化の制約をつけてモデルのパラメータを更新する(ステップS105)。例えば、学習部12cは、出力データと正解データに基づいて、モデルのロスを計算し、該ロスにアトリビューションを付与し、アトリビューションが付与されたロスが小さく、かつアトリビューションのスパース性が大きくなるように、予測モデルのパラメータを更新する学習処理を行う。ここで、例えば、学習装置10は、新たなデータを取得するたびに、上述したステップS102~105の処理を行ってモデルの学習処理を繰り返し行うものとする。また、例えば、学習装置10は、所定の終了条件を満たすまで、上述のモデルのパラメータを更新する処理を繰り返し、所定の終了条件を満たした場合に、モデルの学習処理を終了するようにしてもよい。その後、学習装置10は、学習済みモデルを出力したり、学習済みモデル記憶部13bに学習済みモデルを格納したりする。
[第1の実施形態の効果]
第1の実施形態に係る学習装置10は、複数のデータを収集し、複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、入力データおよび出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する。そして、学習装置10は、アトリビューションに関する制約をつけてモデルを学習する。このため、学習装置10では、ノイズの減少を狙ってアトリビューションの計算方法を変えることなく、アトリビューションのノイズを抑えることが可能である。つまり、学習装置10では、学習時にアトリビューションに制約を与えることによって、例えば、アトリビューションの解釈性を保ちつつノイズを減少させることが可能である。
[第2の実施形態]
上記した第1の実施形態では、モデルを学習する学習装置について説明したが、第2の実施形態では、学習処理によって得られた学習済みモデルを用いて、アトリビューションを抽出する抽出装置について説明する。以下の第2の実施形態では、第2の実施形態に係る抽出装置10Aの構成、抽出装置10Aの処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。なお、第1の実施形態と同様の構成および処理については説明を省略する。
[抽出装置の構成]
まず、図5を用いて、抽出装置10Aの構成を説明する。図5は、第2の実施形態に係る抽出装置の構成例を示すブロック図である。抽出装置10Aは、例えば、工場やプラントなどの監視対象設備に設置されるセンサによって取得された複数のデータを収集し、収集された複数のデータを入力として、監視対象設備の異常を予測するための学習済モデルを用いて、監視対象設備の特定センサの推定値を出力する。また、抽出装置10Aは、このように出力された推定値から異常度を算出してもよい。例えば、異常度は、特定のセンサの値を目的変数とした回帰モデルを学習した場合、モデルが出力する当該センサの推定値と事前に指定するなどした特定の値との誤差などとして定義することが可能である。あるいは、異常発生の有無を分類問題として扱いモデルを学習した場合には、指定時間内の異常に分類された時間帯の割合などを利用することができる。また、抽出装置10Aは、学習済モデルに入力された各センサのデータと、学習済モデルから出力された出力データとを用いて、センサごとの出力値に対する寄与度であるアトリビューションを算出する。ここでアトリビューションとは、各入力が出力に対してどれだけ寄与したかを示すものであり、アトリビューションの絶対値が大きいほど、その入力は出力に対する影響度が高かったことを意味する。
抽出装置10Aは、通信処理部11、制御部12および記憶部13を有する。制御部12は、収集部12a、計算部12b、学習部12c、抽出部12d、予測部12eおよび可視化部12fを有する。ここで、抽出装置10Aは、抽出部12d、予測部12eおよび可視化部12fをさらに有する点が、学習装置10と異なる。なお、収集部12a、計算部12bおよび学習部12cについては、第1の実施形態で説明した学習装置10の収集部12a、計算部12bおよび学習部12cと同様の処理を行うので、説明を省略する。
抽出部12dは、学習部12cによって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する。例えば、抽出部12dは、学習済みモデルを学習済みモデル記憶部13bから読み出し、データ記憶部13aからデータを取得すると、データを学習済みモデルに入力し、データごとのアトリビューションを抽出する。
例えば、抽出部12dは、入力値から出力値を算出する学習済モデルにおいて、出力値の各入力値に関する偏微分値またはその概算値を用いて、各時刻におけるセンサごとに、アトリビューションを算出する。一例としては、計算部12bは、Saliency Mapを用いて、各時刻におけるセンサごとに、アトリビューションを算出する。
予測部12eは、収集部12aによって収集された複数のデータを入力として、監視対象設備の状態を予測するための学習済モデルを用いて、所定の出力値を出力する。例えば、予測部12eは、プロセスデータおよび学習済みモデル(識別関数または回帰関数)を用いて、監視対象設備の異常度を算出し、予め設定された一定時間後に異常が発生するか否かを予測する。
可視化部12fは、抽出部12dによって抽出されたアトリビューションや予測部12eによって算出された異常度を可視化する。例えば、可視化部12fは、各センサデータのアトリビューションの推移を示すグラフを表示したり、算出された異常度をチャート画面として表示したりする。
ここで、図6を用いて、抽出装置10Aによって実行される異常予測処理およびアトリビューション抽出処理の概要を説明する。図6は、抽出装置によって実行される異常予測処理およびアトリビューション抽出処理の概要を説明する図である。
図6では、プラント内の反応炉や装置などにセンサや運転用の信号などを収集するデバイスが取り付けられ、一定時間毎にデータを収集していることを図示している。そして、図6では、収集部12aが各センサA~センサEから収集したプロセスデータの推移を示したものを図示しており、第1の実施形態で説明したように、学習部12cがモデルを学習することで学習済みモデルを生成する。そして、予測部12eが、学習済みモデルを用いて、一定時間後の異常を予測する。そして、可視化部12fは、算出された異常度の時系列データをチャート画面として出力する。
また、抽出部12dは、学習済みモデルに入力されたプロセスデータと、学習済みモデルからの出力値を用いて、各時刻におけるセンサごとの所定の出力値に対するアトリビューションを抽出する。そして、可視化部12fは、予測に対する各センサのプロセスデータの重要度の推移を示すグラフを表示する。
また、抽出装置10Aは、異常予測処理のみに適用されるものではなく、例えば、画像データを収集して画像分類処理に適用するようにしてもよい。ここで、図7を用いて、抽出装置10Aによって実行される画像分類処理およびアトリビューション抽出処理の概要を説明する。図7は、抽出装置によって実行される画像分類処理およびアトリビューション抽出処理の概要を説明する図である。
図7では、収集部12aが画像データを収集し、収集した画像データを入力データとして用いて、第1の実施形態で説明したように、学習部12cがモデルを学習することで学習済みモデルを生成する。そして、予測部12eが、学習済みモデルを用いて、画像データに含まれる画像を分類する。例えば、図7の例では、予測部12eは、画像データに含まれる画像が車の画像であるか飛行機の画像であるかを判定し、判定結果を出力する。
また、抽出部12dは、学習済みモデルに入力された画像データと、学習済みモデルから出力された分類結果とを用いて、各画像における画素ごとのアトリビューションを抽出する。そして、可視化部12fは、各画像における画素ごとのアトリビューションを示す画像を表示する。この画像では、アトリビューションを濃淡で表現しており、アトリビューションが大きい画素ほど所定の色が濃く、アトリビューションが小さい画素ほど所定の色が薄く表示される。
このように、抽出装置10Aは、学習部12cによって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する。抽出装置10Aでは、アトリビューションが変化するような制約をつけて学習した学習済みモデルが適用されているので、入力の出力に対する偏微分値などの単純なアトリビューションを利用した場合でもアトリビューションのノイズを減らすことができる。また、抽出装置10Aでは、ノイズの減少を狙ってアトリビューションの計算方法を変える必要がないので、アトリビューション自体の解釈の難しさを軽減することが可能である。また、サンプルごとに変化するアトリビューションの特徴も保っている。このため、監視者が従来と比較して解釈のしやすい、ノイズの小さなアトリビューションを観察することができるため、より簡易に制御や行動につなげることができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPUおよび当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
また、上記実施形態において説明した情報処理装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る学習装置10または抽出装置10Aが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
図9は、プログラムを実行するコンピュータを示す図である。図9に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
メモリ1010は、図9に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図9に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図9に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図9に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図9に例示するように、例えばディスプレイ1130に接続される。
ここで、図9に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 学習装置
10A 抽出装置
11 通信処理部
12 制御部
12a 収集部
12b 計算部
12c 学習部
12d 抽出部
12e 予測部
12f 可視化部
13 記憶部
13a データ記憶部
13b 学習済みモデル記憶部

Claims (9)

  1. 複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算部と、
    前記アトリビューションに関する制約をつけて前記モデルを学習する学習部と
    を有することを特徴とする学習装置。
  2. 前記学習部は、前記出力データと正解データに基づいて前記モデルのロスを計算するロス関数に前記アトリビューションに関する制約をつけて前記モデルを学習することを特徴とする請求項1に記載の学習装置。
  3. 前記学習部は、前記アトリビューションに関する制約として、前記ロス関数に前記アトリビューションのL1ノルムに事前に設定された定数をかけあわせた値を足し合わせ、該L1ノルムが足し合されたロスが小さく、かつ、前記アトリビューションのスパース性が大きくなるように、前記モデルを学習することを特徴とする請求項2に記載の学習装置。
  4. 前記計算部は、複数のセンサデータを入力データとして監視対象設備の状態を予測するための予測モデルに入力し、該予測モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、センサごとの前記アトリビューションを計算し、
    前記学習部は、前記アトリビューションに関する制約をつけて前記予測モデルを学習することを特徴とする請求項1に記載の学習装置。
  5. 複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算部と、
    前記アトリビューションに関する制約をつけて前記モデルを学習する学習部と、
    前記学習部によって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する抽出部と
    を有することを特徴とする抽出装置。
  6. 学習装置によって実行される学習方法であって、
    複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算工程と、
    前記アトリビューションに関する制約をつけて前記モデルを学習する学習工程と
    を含むことを特徴とする学習方法。
  7. 抽出装置によって実行される抽出方法であって、
    複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算工程と、
    前記アトリビューションに関する制約をつけて前記モデルを学習する学習工程と、
    前記学習工程によって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する抽出工程と
    を含むことを特徴とする抽出方法。
  8. 複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算ステップと、
    前記アトリビューションに関する制約をつけて前記モデルを学習する学習ステップと
    をコンピュータに実行させることを特徴とする学習プログラム。
  9. 複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記入力データおよび前記出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する計算ステップと、
    前記アトリビューションに関する制約をつけて前記モデルを学習する学習ステップと、
    前記学習ステップによって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する抽出ステップと
    をコンピュータに実行させることを特徴とする抽出プログラム。
JP2021085122A 2019-06-13 2021-05-20 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム Active JP7118210B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021085122A JP7118210B2 (ja) 2019-06-13 2021-05-20 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019110681A JP6889207B2 (ja) 2019-06-13 2019-06-13 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム
JP2021085122A JP7118210B2 (ja) 2019-06-13 2021-05-20 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019110681A Division JP6889207B2 (ja) 2019-06-13 2019-06-13 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム

Publications (2)

Publication Number Publication Date
JP2021119545A JP2021119545A (ja) 2021-08-12
JP7118210B2 true JP7118210B2 (ja) 2022-08-15

Family

ID=73744222

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019110681A Active JP6889207B2 (ja) 2019-06-13 2019-06-13 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム
JP2021085122A Active JP7118210B2 (ja) 2019-06-13 2021-05-20 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019110681A Active JP6889207B2 (ja) 2019-06-13 2019-06-13 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム

Country Status (3)

Country Link
US (1) US20220101137A1 (ja)
JP (2) JP6889207B2 (ja)
WO (1) WO2020251037A1 (ja)

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PLUMB, Gregory ほか,Regularizing Black-box Models for Improved Interpretability,[online],2019年05月31日,[検索日 2020.08.03], インターネット:<URL: https://arxiv.org/abs/1906.01431>
ROSS, Andrew ほか,Right for the Right Reasons: Training Differentiable Models by Constraining their Explanations,[online],2017年05月25日,[検索日 2020.08.03], インターネット:<URL: https://arxiv.org/abs/1703.03717>

Also Published As

Publication number Publication date
JP6889207B2 (ja) 2021-06-18
JP2020201910A (ja) 2020-12-17
JP2021119545A (ja) 2021-08-12
US20220101137A1 (en) 2022-03-31
WO2020251037A1 (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
JP7223839B2 (ja) 異常検出および/または予知保全のためのコンピュータ実装方法、コンピュータプログラム製品およびシステム
US9569298B2 (en) Multi-stage failure analysis and prediction
US10739736B2 (en) Apparatus and method for event detection and duration determination
JP6854151B2 (ja) 異常予測方法、異常予測装置、異常予測システムおよび異常予測プログラム
Lu et al. Joint training of a predictor network and a generative adversarial network for time series forecasting: A case study of bearing prognostics
US11915112B2 (en) Method for classification based diagnosis with partial system model information
CN107977748B (zh) 一种多变量扭曲时间序列预测方法
WO2020217371A1 (ja) 学習システム、データ生成装置、データ生成方法、及びデータ生成プログラム
Cheng et al. A Koopman operator approach for machinery health monitoring and prediction with noisy and low-dimensional industrial time series
US20220011760A1 (en) Model fidelity monitoring and regeneration for manufacturing process decision support
US20220222402A1 (en) Information processing device, information processing method, and information processing program
WO2021066194A1 (ja) 学習装置、学習方法および学習プログラム
JP7118210B2 (ja) 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム
Szarek et al. Non-Gaussian feature distribution forecasting based on ConvLSTM neural network and its application to robust machine condition prognosis
JP2024041064A (ja) センサ測定値の異常検出
JP7046252B2 (ja) 学習装置、学習方法および学習プログラム
CN113139332A (zh) 一种自动化模型构建方法、装置及设备
WO2022269690A1 (ja) 異常検知装置、異常検知方法および異常検知プログラム
Jiang et al. Data anomaly detection with automatic feature selection and deep learning
CN117131465B (zh) 单管塔损伤识别方法、装置、电子设备及可读存储介质
Nguyen et al. Investigation on the capacity of deep learning to handle uncertainties in remaining useful life prediction
JP2020166442A (ja) 情報処理装置、算出方法および算出プログラム
Kefalas Data-dri en predicti e maintenance and time-series applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R150 Certificate of patent or registration of utility model

Ref document number: 7118210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150