JP2019160072A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019160072A
JP2019160072A JP2018048423A JP2018048423A JP2019160072A JP 2019160072 A JP2019160072 A JP 2019160072A JP 2018048423 A JP2018048423 A JP 2018048423A JP 2018048423 A JP2018048423 A JP 2018048423A JP 2019160072 A JP2019160072 A JP 2019160072A
Authority
JP
Japan
Prior art keywords
teacher
matrix
data
classification
basis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018048423A
Other languages
English (en)
Other versions
JP7013965B2 (ja
Inventor
理敏 関根
Takatoshi Sekine
理敏 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018048423A priority Critical patent/JP7013965B2/ja
Publication of JP2019160072A publication Critical patent/JP2019160072A/ja
Application granted granted Critical
Publication of JP7013965B2 publication Critical patent/JP7013965B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】情報処理装置、情報処理方法、及びプログラムを提供する。【解決手段】時系列データに基づいて、非負の教師データを取得する前処理部と、前記教師データに対して非負値行列因子分解を適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて教師係数行列を生成する教師データ処理部と、を備える情報処理装置。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、技術の発展に伴い、対象の状態を検出する種々のセンサ装置が開発されている。また、上記のようなセンサ装置により取得されたセンサデータを用いて、観測対象の状態にかかる分類を行う手法も多く提案されている。例えば、センサデータに対して非負値行列因子分解を行うことによる分類手法が知られている。
例えば、下記特許文献1には、センサデータに対して非負値行列因子分解を適用して得られた係数行列を特徴量として、センサデータにかかる観測対象が正常であるか異常であるかを示す2つのクラスに分類することが記載されている。また、下記特許文献2には、非負値行列因子分解において、類似した複数の基底ベクトルが分解して得られなくなるように拘束条件を設けることで、より少ない次数で元のデータを近似表現することが記載されている。
特開2017−151872号公報 特開2015−135574号公報
非負値行列因子分解で得られる基底数が少ない程、計算コスト、あるいは通信コストを抑制することが可能であるが、例えば必要とされる基底数よりも少ない基底数が得られるように拘束条件が設定された場合には、分類性能が低下する恐れがあった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、分類性能の向上とコストの抑制を両立することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、時系列データに基づいて、非負の教師データを取得する前処理部と、前記教師データに対して非負値行列因子分解を適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて教師係数行列を生成する教師データ処理部と、を備える情報処理装置。
前記教師データ処理部は、複数の前記基底ベクトルを含む教師基底行列と前記教師データとに基づいて前記教師係数行列を生成し、前記性能情報は、前記教師基底行列の候補となる教師基底行列候補の分類性能を示す基底行列性能情報を含んでもよい。
前記教師データ処理部は、前記教師基底行列候補、及び前記教師基底行列候補に対応する前記基底行列性能情報と前記コスト情報とに基づいて、前記教師基底行列を生成してもよい。
前記基底行列性能情報は、前記教師基底行列候補に含まれる複数の前記基底ベクトルに対する複数の係数ベクトルを特徴量として前記教師データを分類した場合の分類精度に基づく情報であってもよい。
前記教師データに含まれる全てのデータには、同一種別のラベルが対応付けられ、前記基底ベクトル性能情報は、前記教師基底行列候補に含まれる複数の前記基底ベクトルに対する複数の係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和に基づく情報であってもよい。
前記コスト情報は、前記教師基底行列候補に含まれる前記基底ベクトルの数に基づく情報であってもよい。
前記性能情報は、前記基底ベクトルごとの分類性能を示す基底ベクトル性能情報を含み、前記教師データ処理部は、前記基底ベクトル性能情報に基づいて、前記教師基底行列候補に含まれる前記基底ベクトルを特定してもよい。
前記基底ベクトル性能情報は、前記基底ベクトルに対する係数ベクトルを特徴量として前記教師データを分類した場合の分類精度に基づく情報であってもよい。
前記教師データに含まれる全てのデータには、同一種別のラベルが対応付けられ、前記基底ベクトル性能情報は、前記基底ベクトルに対する係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和に基づく情報であってもよい。
前記情報処理装置は、前記教師係数行列、及び前記教師データに対応付けられた正解ラベルに基づいて分類モデルパラメータを生成するモデル構築部をさらに備えてもよい。
前記前処理部は、さらなる時系列データに基づいて、非負の評価データをさらに取得し、前記情報処理装置は、前記教師基底行列に基づいて、前記評価データから評価係数行列を生成する特徴抽出部と、前記評価係数行列を前記分類モデルパラメータに基づいて分類する分類部と、をさらに備えてもよい。
前記特徴抽出部は、前記評価データから評価係数行列候補を生成し、前記教師基底行列及び前記評価係数行列候補に基づいて算出される、前記評価データに対する残差が所定の条件を満たす場合に、前記評価係数行列候補を前記評価係数行列としてもよい。
前記教師データ処理部は、前記残差が前記所定の条件を満たさない場合に、前記残差に対して非負値行列因子分解を適用することで得られる基底ベクトルが追加された前記教師基底行列に基づいて前記教師係数行列をさらに生成し、前記モデル構築部は、さらに生成された前記教師係数行列に基づいて、前記分類モデルパラメータを更新してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、時系列データに基づいて、非負の教師データを取得することと、前記教師データに対して非負値行列因子分解を適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて教師係数行列を生成することと、を含む情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータに、時系列データに基づいて、非負の教師データを取得する機能と、前記教師データに対して非負値行列因子分解を適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて教師係数行列を生成する機能と、を実現させるためのプログラムが提供される。
以上説明したように本発明によれば、分類性能の向上とコストの抑制を両立することが可能となる。
本発明の一実施形態にかかるシステム構成の一例を示す図である。 同実施形態にかかるセンサ端末2の機能構成例を示すブロック図である。 NMFの処理例を模式的に示す説明図である。 学習段階における本実施形態にかかるセンサ端末2の動作例を示すフローチャート図である。 ステップS110の処理の流れを示すフローチャート図である。 分類段階における本実施形態の動作例を示すフローチャート図である。 ステップS210の処理の流れを示すフローチャート図である。 ハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
<<1.背景>>
本発明の一実施形態について説明する前に、まず、本実施形態の創作に至った背景を説明する。近年においては、観測対象の状態を観測する種々のセンサ端末が開発されている。また、上記のようなセンサ端末により取得された時系列的なセンサデータ(以下、時系列データと呼ぶ場合もある)に基づいて、観測対象の状態を分類(判別を含む)する手法も多く提案されている。
例えば、物品を製造する工場などにおいては、種々の設備や装置、製品などが用いられるが、上記のような観測対象は、機器の動作に関する制御信号などを直接取得することができない場合も多いため、外付けのセンサ端末により状態を検知することも広く行われている。
この場合、例えば、観測対象の周囲に配置した複数のセンサ端末から振動データや音響データなどのセンサデータを取得することで、観測対象の状態を動的に分類することが可能である。また、得られたセンサ情報を分析、評価することで、移動軌跡や稼働状況の取得、異常予兆検知などを行うことができ、生産や作業効率の改善や安全性の確保などを実現することができる。本明細書では、観測対象の状態として、正常状態(以下、単に正常とも呼ぶ)または異常状態(以下、単に異常とも呼ぶ)が存在し、正常または異常の2つのクラスに分類する例について説明するが、本発明はかかる例に限定されるものではない。
センサデータのような時系列データを用いた分類手法として、非負値行列因子分解を行うことによる分類手法が知られている。非負値行列因子分解(Non−negative
Matrix Factorization、以下、NMFとも呼ぶ)は、1の非負行列Yを2つの非負行列である係数行列Wと基底行列Hの積(例えばWH)に分解するアルゴリズムである。
NMFを用いた分類手法では、正常、異常等の正解ラベルが対応付けられた非負の時系列データである教師データを予め学習し、学習により得られた分類パラメータを用いて、分類したい時系列データである評価データを分類する。学習時には、教師データに対してNMFを適用して得られた教師係数行列を学習することで、分類のための分類パラメータを得ることが可能である。また、分類時には、教師データに対してNMFを適用して得られた教師基底行列を用いて評価データから係数行列を生成し、生成された係数行列を特徴量として上述した分類パラメータを用いた分類を行うことが可能である。
ところで、計算処理能力に制約の高い端末側において、学習や分類等のデータ処理が想定される場合には、学習や分類にかかる計算コストを抑制することが望ましい。上述したNMFを用いた分類手法においては、NMFの次数(すなわち、教師基底行列に含まれる基底ベクトルの数)に応じて、計算コストが増加する。
NMFの次数は、例えば予め適宜設定することが可能なパラメータであり、一般に次数を大きく設定することで分類性能が向上する。しかし、NMFの次数が大きい程、計算コストは増加してしまう。さらに、予め選ばれた基底ベクトルと係数行列の中から分類性能が最適となる組み合わせを抽出するための計算コストはNMFの次数が増加するとともに指数関数的に増大するため、全数探索が十分短い時間で終了しない場合がある。
また、振動データや音響データなど、比較的高いサンプリング周波数やデータ転送が必要とされる観測環境においては、通信コストを抑制することがより望ましい。例えば、上述したNMFを用いた分類手法において、複数の端末から、特徴量として用いられる係数行列をサーバへ送信し、サーバ側で分類処理を行う場合には、上述したNMFの次数に応じて、通信コストも増加する。
一般に無線でデータを転送するセンサ端末はバッテリで駆動するため、冗長な無線データの転送により、消費電力が増大し、早期のバッテリ切れが発生しやすくなる。バッテリ切れが発生すると、センシングを行うことが不能になってしまうため、上述したように通信コストを抑制することが望ましい。また、有線、もしくは無線給電で外部電力の供給が行えるシステムであっても、必要以上の電力を消費することは望ましくないため、やはり通信コストを抑制することが望ましい。さらに、必要以上のデータを送受信することにより、データをセンサ端末、あるいはサーバのストレージに保持することのコストも増大するため、やはり通信コストを抑制することが望ましい。
上述したように、NMFの次数を大きく設定することで分類性能が向上するが、NMFの次数に応じて計算コスト、及び通信コスト(以下、まとめて単にコストと呼ぶ場合もある)も増加する。したがって、上述したNMFを用いた分類手法では、分類性能と通信コストはトレードオフの関係となり得る。
ところで、本明細書における前提として、状態の検知はリアルタイムに行うことが望ましい。すなわち、状態の変化が生じてから出来るだけ早期に、その変化に対応した検知結果を出力することが望ましい。センサ端末は、一般に観測可能な範囲が物理的・空間的に限定されるため、複数の場所に配置され、またセンサの種類も多種多様となる。また、センサにより得られたセンサデータを利用して機器や環境の状態を検知(分類)するためには、十分なセンサデータを収集する必要がある。
一般にそれぞれ検知する状態に応じたより顕著な特徴を抽出できるほど、状態の判別精度は高くなる。例えば専門知識を持つ者が、適切な観測場所すなわちセンサの配置位置を指定して観測することも可能であるが、機器の内部構造が複雑で実際データを取得してみなければ設置の判断な場合や、専門知識を持たない者がセンサ端末を配置する場合も想定される。そのような場合には、NMFの次数の設定や特徴量の組み合わせの選択が適切に行われるとは限らないため、それらを客観的な指標に基づいて自動的に行うことが望ましい。
本発明の一実施形態は、上記の点に着目して発想されたものであり、観測対象の状態分類にかかる分類性能を高く維持しながらも、効率的に計算コストや通信コスト等のコストを抑制することを可能とする。以下、このような効果を奏する本発明の一実施形態について、詳細に説明する。
<<2.構成例>>
<2−1.システム構成>
まず、本発明の一実施形態にかかる情報処理システムの構成について説明する。本実施形態にかかる情報処理システムは、上述したように、センサにより取得されるセンサデータ(時系列データの一例)に基づく観測対象の状態分類において、分類性能の維持とコストの抑制を両立することを可能とする。
図1は、本発明の一実施形態にかかるシステム構成の一例を示す図である。図1を参照すると、本実施形態にかかる情報処理システム9は、観測対象1、複数のセンサ端末2、及び集約装置3を含み得る。また、センサ端末2および集約装置3は、ネットワーク5を介して接続される。
観測対象1は、本実施形態における状態分類の対象である。本実施形態にかか観測対象1は、例えば、工場における種々の装置や製品、企業や家庭に設置される電子機器などであってもよい。また、観測対象1は、建物、橋、道路などの建造物を含んでもよい。また、本実施形態にかかる観測対象1は、センサ端末2によるセンサデータの取得対象となる1つ以上の内部装置を備えてもよい。
センサ端末2は、観測対象1から種々のセンサデータを収集する情報処理装置である。センサ端末は一般に観測可能な範囲が物理的および空間的に限定されるため、本実施形態にかかるセンサ端末2は、図1に示すように、1つの観測対象1に対して複数配置されてもよい。図1に示す例では、1つの観測対象1に対して3つのセンサ端末2A〜2Cが配置されている。
また、本実施形態にかかるセンサ端末2は、観測対象1にかかる種々のセンサデータを収集し、収集したセンサデータに基づいて観測対象1の稼働状態を分類する。本実施形態において、センサ端末2による観測対象1の稼働状態の分類結果は、例えば正常、または異常であってもよい。さらに、センサ端末2は、観測対象1の稼働状態の分類結果を、集約装置3へ送信する。なお、センサ端末2のより詳細な構成については、図2を参照して後述する。
集約装置3は、観測対象1の稼働状態の分類結果を集約して、最終的な分類結果を出力するサーバ(情報処理装置)である。図1に示すように、本実施形態にかかる集約装置3は、通信部32と、集約部34と、出力部36とを備える。
本実施形態にかかる通信部32は、複数のセンサ端末2から観測対象1の稼働状態の分類結果を受信する。本実施形態にかかる集約部34は、通信部32が複数のセンサ端末2から受信した分類結果に基づく集約処理を行い、最終的な分類結果を特定する。出力部36は、集約部34の集約処理により得られた最終的な分類結果を出力する。出力部36は、例えば表示装置であってもよく、かかる場合出力部36は、最終的な分類結果を表示出力する。なお、出力部36は、最終的な分類結果に加えて、あるいは代えて、各センサ端末2から受信した分類結果の各々を出力してもよい。
以上、本実施形態にかかるシステム構成について説明した。なお、図1を用いて説明したシステム構成はあくまで一例であり、本実施形態にかかるシステム構成はかかる例に限定されない。例えば、図1では、1つの観測対象1に対して、3つのセンサ端末2A〜2Cが配置される場合を例に示したが、センサ端末2の数は、本例に限定されない。また、本実施形態にかかる観測対象1とセンサ端末2のセットは複数存在してもよい。本実施形態にかかるシステム構成は、観測対象の特性やネットワーク5の仕様などに応じて、柔軟に変形され得る。
<2−2.センサ端末の構成>
続いて、本実施形態にかかるセンサ端末2の機能構成例について説明する。図2は、本実施形態にかかるセンサ端末2の機能構成例を示すブロック図である。図2を参照すると、本実施形態にかかるセンサ端末2は、センサ202、AD(アナログデジタル)変換部204、前処理部206、教師データ処理部208、分類モデル構築部212、記憶部214、特徴抽出部216、分類部218、及び通信部220を備える。
なお、図2に示した各部のうち、一部の機能ブロックは、センサデータに基づいて学習を行う学習段階と、センサデータに基づいて分類を行い観測対象1の状態を評価する分類段階とにおいて機能が異なり得る。そこで、以下では、必要に応じて、学習段階における機能と分類段階における機能について分けて説明を行う場合がある。
センサ202は、センシングにより観測対象1にかかるセンサデータ(時系列データの一例)を収集する機能を有する。センサ202の一例としては、振動センサ、音響センサ、熱センサ、照度センサ、および撮像センサなどが挙げられる。なお、上記はあくまで一例であり、本実施形態にかかるセンサ端末2は、観測対象1の特性に応じた種々のセンサ202を備えてよい。
また、図2ではセンサ端末2が1つのセンサ202を備える例を示しているが、センサ端末2は、複数の種類のセンサ202を備えてもよい。センサ端末2が複数の種類のセンサ202を備えることで、観測対象1の稼働状態に応じた異なる物理現象を捉えることができる。
AD変換部204は、アナログのセンサデータをデジタルのセンサデータへ変換する。なお、センサ202から出力されるセンサデータがデジタルのセンサデータである場合には、センサ端末2はAD変換部204を備えていなくてもよい。
前処理部206は、センサデータに対し、雑音を除去するためのフィルタリング処理や、計測値変換処理、周波数変換処理等の各種前処理を施す。なお、前処理部206による周波数変換処理は、フーリエ変換、高速フーリエ変換、短時間フーリエ変換、ウェーブレット変換等の変換を行うことで、センサデータのうち少なくとも一部のデータを、周波数領域表現に変換する処理であってもよい。
センサデータに対して上述した前処理を施すことにより、前処理部206は非負の観測ベクトル(周波数領域表現に変換されたデータ)を含む非負の観測行列を取得する。なお、前処理部206により取得される観測行列は、観測ベクトルを、1または複数並べた行列である。また、観測ベクトルは、フーリエ変換により得られるパワースペクトル、短時間フーリエ変換により得られるスペクトログラム、またはウェーブレット変換により得られるスカログラム等であってもよい。また、前処理部206は、所定期間ごとに当該所定期間のセンサデータに基づいて観測行列を取得してもよいし、任意の方法で特定される期間のセンサデータに基づいて観測行列を取得してもよい。
前処理部206は、学習段階と分類段階とにおいて一部機能が異なり得る。以下では、学習段階において前処理部206により取得される非負の観測行列を教師データあるいは教師観測行列と呼び、分類段階において前処理部206により取得される非負の観測行列を評価データあるいは評価観測行列と呼ぶ場合がある。
教師データは、センサ端末2が学習を行う学習段階において前処理部206により取得される非負の観測行列であり、本実施形態において、教師データに含まれる各観測ベクトルには、正常あるいは異常のいずれかの正解ラベルが対応付けられる。正解ラベルは、教師観測行列(教師データ)に含まれる各観測ベクトルが属するクラスを示すラベルである。上述した方に、本実施形態において各観測ベクトルが属するクラスは正常あるいは異常のいずれかである。
なお、教師データに含まれる各観測ベクトルに正解ラベルを対応付ける方法は特に限定されないが、例えばユーザが不図示の操作部を介してクラスを示すクラス情報を入力し、前処理部206がクラス情報に基づいて観測ベクトルに各正解ラベルを対応付けてもよい。前処理部206は教師データとして取得した観測行列(教師観測行列)を教師データ処理部208へ出力する。
評価データは、センサ端末2が分類を行う分類段階において前処理部206により取得される非負の観測行列である。評価データには、正解ラベルは対応付けられなくてよい。前処理部206は評価データとして取得した観測行列(評価観測行列)を特徴抽出部216へ出力する。
教師データ処理部208の機能は、学習段階と分類段階とで異なり得る。そこで、以下では、まず学習段階における教師データ処理部208の機能について説明した後に、分類段階における教師データ処理部208の機能について説明する。
教師データ処理部208は、学習段階において、前処理部206から出力された教師観測行列(教師データ)に対して、非負値行列因子分解(NMF)を適用し、教師基底行列、及び教師係数行列を生成する。以下、NMFついて、図3を参照して詳細に説明を行う。
上述したように、NMFは、1の非負行列Yを2つの非負行列W、Hの積(例えばWH)に分解するアルゴリズムである。2つの非負行列W、Hを解析的に求めることは困難であるため、初期値を与えてYとWHの誤差が局所最適解になるよう、反復的に近似解を求めることが行われている。なお、一般に、局所最適解は初期値に依存して変化する。
図3は、NMFの処理例を模式的に示す説明図である。図3に示すように、NMFにより、例えば非負の観測行列Yは、非負の係数行列W、及び非負の基底行列Hの積に分解される。
図3に示すように、本実施形態にかかる観測行列Yは、例えばm次元の観測ベクトルyが行ベクトルとなって、時系列データにおける対象区間の数nだけの行で構成されたn行m列の行列である。
本実施形態にかかる基底行列Hは、例えば観測行列YにNMFを適用し、分解されたm次元の基底ベクトルhが行ベクトルとなって、基底ベクトルの数kだけの行で構成されたk行m列の行列である。
本実施形態にかかる係数行列Wは、例えばk次元の係数ベクトルwが行ベクトルとなって、観測ベクトルの数nだけの行で構成されたn行k列の行列である。ここで係数ベクトルwは、ある観測ベクトルにおいて、基底行列Hに含まれる各基底ベクトルの成分がどれだけ含まれるか、という加重値を示す行ベクトルである。
図3に示すように上記の行列には、次の数式(1)の関係がある。
Figure 2019160072
ところで、上述したように、NMFの次数に応じて、後述する分類モデル構築部212における分類モデルパラメータの生成などにかかる計算コストが増加する。また、上述したように、NMFの次数に応じて、分類部218による分類性能が向上し得る。
ここで、NMFの次数とは、教師基底行列に含まれる基底ベクトルの数を意味し、図3に示す例では、教師基底行列に含まれる基底ベクトルの数はkである。図3に示すように、教師基底行列に含まれる基底ベクトルの数kは、観測行列Yに含まれる観測ベクトルyの次数mや観測ベクトルyの数nによらず設定され得る。
そこで、本実施形態にかかる教師データ処理部208は、分類性能の向上と計算コストの抑制とを両立するように、教師基底行列に含まれる基底ベクトルの数を決定する。さらに、教師基底行列に含まれる基底ベクトルの数が同一であっても、教師基底行列に含まれる基底ベクトルに応じて、分類部218による分類性能が左右され得る。したがって、より分類性能の向上に寄与し得る基底ベクトルが教師基底行列に含まれることが望ましい。
そこで、本実施形態にかかる教師データ処理部208は、教師データに対してNMFを適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて、教師基底行列と教師係数行列とを生成する。以下、教師データ処理部208の機能についてより詳細に説明する。
上述したように、本実施形態にかかる教師データ処理部208は、複数の基底ベクトルを含む教師基底行列と、教師データ(教師観測行列)とに基づいて教師係数行列を生成する。ここで、教師観測行列Yを分解して得られる基底行列、及び係数行列を、それぞれ教師基底行列H、教師係数行列Wとして、教師係数行列Wの生成手順について説明する。
教師基底行列Hに基づいて、教師観測行列Yから生成される係数行列を教師係数行列Wとすると、数式(1)より、教師観測行列Y、教師係数行列W、及び教師基底行列Hの関係は、以下の数式(2)で表される。
Figure 2019160072
上記数式(2)より、教師係数行列Wを得るためには、教師基底行列Hの逆行列を用いる必要がある。しかし、教師基底行列Hは、一般に正則行列とは限らないため、逆行列を持たない場合がある。そこで、教師データ処理部208は、例えば教師基底行列の疑似逆行列(ムーア‐ペンローズの疑似逆行列)に基づいて、教師係数行列Wを生成してもよい。教師基底行列Hの疑似逆行列H は、k×mの行列であり、一般にk<mであるため、擬似逆行列H は、教師基底行列Hを特異値分解(H=UΣ)した後の直交行列をU、V、対角行列をΣとし、Σの成分のうち、非ゼロの特異値の逆数にしたものをΣ として、次式で得られる。
Figure 2019160072
上記数式(3)で得られた疑似逆行列H を用いて、教師係数行列Wは次の数式(4)で表される。ただし数式(4)の教師係数行列Wは、数式(2)のようにNMFを適用して得られた教師係数行列でなく、||Y−W||2を最小化する最小二乗解であるため、数式(2)のWと完全に一致するとは限らない。
Figure 2019160072
また、本実施形態にかかる教師データ処理部208は、分類性能の向上と計算コストの抑制とを両立するような教師基底行列を得るため、教師基底行列の候補となる教師基底行列候補を生成する。教師基底行列候補は、教師基底行列と同様に、複数の基底ベクトルを含む行列である。
本実施形態にかかる教師データ処理部208は、教師データに対してNMFを適用して得られた複数の基底ベクトルの中から、教師基底行列候補に含まれる基底ベクトルを特定してもよい。例えば、教師データ処理部208は、基底ベクトルごとの分類性能を示す基底ベクトル性能情報(性能情報の一例)に基づいて、教師基底行列候補に含まれる基底ベクトルを特定してもよい。基底ベクトル性能情報は、基底ベクトルごとに算出される値であってもよく、以下ではかかる基底ベクトル性能情報の値を第1の評価値Iと呼ぶ。
例えば、本実施形態において、基底ベクトル性能情報として、各基底ベクトルに対する係数ベクトルを特徴量として教師データを分類した場合の分類精度が用いられてもよい。本明細書において、基底ベクトルに対する係数ベクトルは、教師データと、基底ベクトルの擬似逆行列を掛け合わせることで得られ、教師データに含まれる観測ベクトルごとに得られる係数が観測ベクトルの数だけ並んだベクトルである。以下では、各基底ベクトルに対する係数ベクトルを特徴量として教師データを分類した場合の分類精度をPとする。つまり、本実施形態において、I=Pである。
上述したように、教師データには正常・異常の正解ラベルが対応付けられているため、例えば教師データを分類して、交差検定を行うことが可能である。そこで、分類精度Pとして、教師データにおける正常・異常のデータに対して交差検定を行って得られる平均分類精度が用いられてもよい。なお、本発明は係る例に限定されず、最悪の分類精度となる場合を重視し、最悪の分類精度が分類精度Pとして用いられてもよい。
例えば、本実施形態にかかる教師データ処理部208は、基底ベクトルごとに第1の評価値Iを算出し、教師データに対してNMFを適用して得られた複数の基底ベクトルから、最も第1の評価値Iが高い基底ベクトルを抽出してもよい。そして、このようにして抽出(特定)された基底ベクトルが、教師基底行列候補に含まれてもよい。
さらに、教師データ処理部208は、上記のようにして特定された基底ベクトルを含む教師基底行列候補の分類性能を示す基底行列性能情報(性能情報の一例)に基づいて、教師基底行列を生成してもよい。例えば、教師データ処理部208は、教師基底行列候補に含まれる複数の基底ベクトルに対する複数の係数ベクトルを特徴量として教師データを分類した場合の分類精度Pを、基底行列性能情報として用いてもよい。
また、教師データ処理部208は、教師基底行列候補に対応する基底行列性能情報に加え、当該教師基底行列候補に対応するコスト情報にさらに基づいて、教師基底行列を生成してもよい。本実施形態における教師データ処理部208は、教師基底行列候補に含まれる基底ベクトルの数に基づく計算コストをコスト情報として用いてもよい。例えば、計算コストCは、教師データのデータ長をN、現在の教師基底行列候補に含まれる基底ベクトルの数をmとすると、以下の数式(5)のように表される。
Figure 2019160072
例えば本実施形態にかかる教師データ処理部208は、現在の教師基底行列候補について、当該教師基底行列候補に対応する基底行列性能情報とコスト情報とに基づいて、計算コストに対する分類性能を示す第2の評価値Iを算出してもよい。例えば、第2の評価値Iは、上述したP、及びCを用いて、以下の数式(6)のように表される。
Figure 2019160072
第2の評価値Iは、教師基底行列候補の分類性能が高い程大きく、また、計算量が小さい程大きくなる。したがって、例えば、本実施形態にかかる教師データ処理部208は第2の評価値Iがより大きくなるような教師基底行列候補を教師基底行列としてもよい。
例えば、本実施形態にかかる教師データ処理部208は、教師基底行列候補を生成する度に第2の評価値Iを算出してもよい。そして、本実施形態にかかる教師データ処理部208は、第2の評価値Iが条件を満たさなければ、教師基底行列候補に基づいて残差を算出して、当該残差に基づいて上述した処理を繰り返してもよい。なお、データをD、抽出された基底ベクトルをH、基底ベクトルHに対する係数ベクトルをWとすると、データDに対する残差Rは、以下の数式(7)のように表される。
Figure 2019160072
例えば、本実施形態にかかる教師データ処理部208は、第2の評価値Iが条件を満たさなければ、残差Rに対してNMFを適用して得られた複数の基底ベクトルから、さらに1の基底ベクトルを抽出してもよい。なお、かかる基底ベクトルを抽出の方法は、上述したように基底ベクトルごとに算出される第1の評価値Iを用いた方法であってもよい。そして、本実施形態にかかる教師データ処理部208は、抽出された基底ベクトルを教師基底行列候補に追加して、当該基底ベクトルを含む新たな教師基底行列候補を生成してもよい。
本実施形態にかかる教師データ処理部208は、上述したように、第2の評価値Iが条件を満たすまで、教師基底行列候補の生成を繰り返してもよい。
ここで、本実施形態において、第2の評価値Iが満たすべき条件は、例えば前回算出された第2の評価値Iよりも、今回算出された第2の評価値Iの方が小さいことであってもよい。上記のように教師基底行列候補の生成が繰り返される場合、教師基底行列候補の生成が繰り返される度に教師基底行列候補に含まれる基底ベクトルが増加する。したがって、教師基底行列候補に含まれる複数の基底ベクトルに対する複数の係数ベクトルを特徴量として教師データを分類した場合の分類精度Pは、繰り返し回数に応じて増加することが期待されるが、その増加ペースは徐々に低下し得る。一方、教師基底行列候補に含まれる基底ベクトルの数mが繰り返し回数に応じて増加し、教師データのデータ長Nは繰り返し回数に応じて変化しないため、計算コストCは繰り返し回数に応じて一定のペースで増加する。したがって、前回算出された第2の評価値Iよりも、今回算出された第2の評価値Iの方が小さい場合、前回算出された第2の評価値Iに対応する前回の教師基底行列候補が教師基底行列として望ましいと考えられる。そこで、本実施形態にかかる教師データ処理部208は、前回算出された第2の評価値Iよりも、今回算出された第2の評価値Iの方が小さい場合、現在の教師基底行列候補から、最後に追加した基底ベクトルを削除して教師基底行列を生成してもよい。
なお、第2の評価値Iが満たすべき条件、及び当該条件が満たされた場合の教師基底行列の生成方法は上述した例に限定されない。例えば、第2の評価値Iが満たすべき条件は、所定の閾値より大きいことを含んでもよい。そして、教師データ処理部208は、第2の評価値Iが所定の閾値より大きい場合に、現在の教師基底行列候補を、教師基底行列としてもよい。
あるいは、教師データ処理部208は、所定の回数だけ教師基底行列候補の生成を繰り返し、それまでに生成された教師基底行列候補のうち、最も第2の評価値Iが大きい教師基底行列候補を、教師基底行列としてもよい。
以上、学習段階における教師データ処理部208の機能について説明した。続いて、分類段階における教師データ処理部208の機能について説明する。
教師データ処理部208は、分類段階において、後述する特徴抽出部216から、評価データに対する残差Rが出力された場合に、当該残差Rに対してNMFを適用することで得られる基底ベクトルを教師基底行列へ追加してもよい。そして、教師データ処理部208は、教師データ(教師基底行列)と、かかる基底ベクトルが追加された教師基底行列の疑似逆行列とを用いて、教師係数行列を生成してもよい。
なお、教師データ処理部208は、学習段階、及び分類段階の双方において、生成した教師基底行列を記憶部214に記憶させ、当該教師基底行列に基づいて生成された教師係数行列を分類モデル構築部212へ出力する。
分類モデル構築部212は、教師データ処理部208により生成される教師係数行列、及び教師データに対応付けられた正解データに基づいて、分類段階において後述する分類部218により用いられる分類モデルパラメータを生成する。分類モデル構築部212が生成する分類モデルパラメータは、分類部218における分類モデルに応じたパラメータであり得る。
分類モデル構築部212は、学習段階、及び分類段階の双方において、教師データ処理部208により生成される教師係数行列に基づいて分類モデルパラメータを生成し、当該分類モデルパラメータを記憶部214に記憶させる。なお、記憶部214に既に分類モデルパラメータが記憶されていた場合、記憶部214に記憶される分類モデルパラメータは、分類モデル構築部212が新たに生成した分類モデルパラメータで更新される。つまり、分類モデル構築部212は、分類段階において、教師データ処理部208により生成された教師係数行列に基づいて、分類パラメータを更新する。
記憶部214は、センサ端末2の各構成が機能するためのプログラムやパラメータを記憶する。また、記憶部214は、教師データ処理部208が教師データに対してNMFを適用することで生成された教師基底行列と、分類モデル構築部212により生成された分類モデルパラメータと、を記憶する。
特徴抽出部216は、記憶部214に記憶された教師基底行列に基づいて、分類段階において前処理部206から出力された評価データ(評価観測行列)から評価係数行列を生成し、分類部218へ出力する。以下、特徴抽出部216による評価係数行列の生成例について説明する。
以下では、前処理部206から出力される評価観測行列をY、記憶部214に記憶された教師基底行列をH、教師基底行列Hに基づいて評価観測行列Yから生成される係数行列を評価係数行列の候補である評価係数行列候補Wとする。数式(1)より、評価観測行列Y、評価係数行列候補W、及び教師基底行列Hの関係は、以下の数式(8)で表される。
Figure 2019160072
上記数式(3)と同様な方法で得られた疑似逆行列H を用いて、評価係数行列候補Wは次の数式(9)で表される。ただし数式(9)の評価係数行列候補Wは、数式(2)のようにNMFを適用して得られた教師係数行列でなく、||Y−W||2を最小化する最小二乗解であるため、数式(2)のWと完全に一致するとは限らない。
Figure 2019160072
特徴抽出部216は、上記数式(9)のように、評価観測行列Yから評価係数行列候補Wを生成することが出来る。さらに、本実施形態にかかる特徴抽出部216は、教師基底行列H及び評価係数行列候補Wに基づいて、評価観測行列Y(評価データ)に対する残差を算出してもよい。評価観測行列Yに対する残差Rは、教師基底行列H及び評価係数行列候補Wを用いて次の数式(10)で表される。
Figure 2019160072
本実施形態にかかる特徴抽出部216は、上記のように算出された評価観測行列Yに対する残差Rが、所定の条件を満たすか否か判定を行い、当該残差Rが所定の条件を満たす場合に、評価係数行列候補を評価係数行列として、分類部218へ出力してもよい。残差Rが満たすべき所定の条件は、例えば残差R十分小さいことであってもよく、残差Rが所定の閾値以下であること、であってもよい。かかる所定の閾値は十分に小さい値が用いられることが望ましい。かかる構成により、評価観測行列Y(評価データ)が現在用いられている教師基底行列Hで十分正確に表すことが可能な場合には、当該教師基底行列Hを用いて生成された評価係数行列候補Wが評価係数行列Wとして分類部218へ出力される。
一方、残差Rが所定の条件を満たさない場合、例えば上述した条件の例では残差Rが所定の閾値より大きい場合、評価観測行列Yが、現在用いられている教師基底行列Hで十分正確に表すことができない恐れがある。その結果、分類部218の分類性能が低下する恐れがある。
そこで、本実施形態にかかる特徴抽出部216は、残差Rが所定の条件を満たさない場合、かかる残差Rを教師データ処理部208へ出力してもよい。その結果、上述したように教師データ処理部208が残差Rに基づいて基底ベクトルを教師基底行列へ追加し、当該教師基底行列に基づいて教師係数行列を更新する。さらに、上述したように分類モデル構築部212が、教師データ処理部208により更新された教師係数行列に基づいて、分類パラメータを更新する。
特徴抽出部216は、残差Rが所定の条件を満たさない場合、上記のようにして基底ベクトルが追加された教師基底行列に基づいて、評価係数行列を生成してもよい。かかる場合の評価係数行列は、数式(8)、数式(9)において、基底ベクトルが追加された教師基底行列をHとし、評価係数行列をWとすることで生成され得る。また、特徴抽出部216は、生成した評価係数行列Wを分類部218へ出力する。
かかる構成により、評価観測行列Yが現在用いられている教師基底行列Hで十分正確に表すことができない場合には、残差Rに基づいて新たに基底ベクトルを教師基底行列Hへ追加することで、分類部218の分類性能をより向上させることが可能である。
分類部218は、特徴抽出部216から出力された評価係数行列Wを、記憶部214に記憶された分類モデルパラメータに基づいて分類する。分類部218は、評価係数行列Wの分類結果を通信部220へ出力する。
分類部218は、評価係数行列Wに含まれる係数ベクトルを特徴ベクトルとし、分類モデルに応じた分類モデルパラメータに基づいた分類することが可能である。分類部218が用いる分類モデルは特に限定されないが、分類部218は、例えば多クラスSVM(Support Vector Machine)等に基づく分類モデルを用いてもよい。
以上のように、基底行列に対する重みを示す係数ベクトルを特徴ベクトルとして用いて分類することで、例えば特定周波数のパワーの大きさに基づいて分類するよりも、分類性能を向上させることが可能である。
また、評価データ自体を用いて分類処理を行った場合に比べ、評価データから生成される評価係数行列Wを用いて分類処理を行うことで、分類処理における特徴ベクトルの次元が削減され、分類処理の処理量を抑制することが可能となる。
通信部220は、分類部218による分類結果を、図1に示した集約装置3へ送信する。
<<3.動作例>>
以上、本発明の一実施形態のシステム構成、及びセンサ端末2の構成例について説明した。続いて、本実施形態の動作例について、学習段階と、分類段階に分けて順次説明する。
(学習段階の動作例)
図4は、学習段階における本実施形態にかかるセンサ端末2の動作例を示すフローチャート図である。図4に示すように、まず、センサ202が、センシングにより観測対象1にかかるセンサデータ(時系列データの一例)を収集し(S102)、AD変換部204がアナログのセンサデータをデジタルのセンサデータへ変換する(S104)。
続いて、前処理部206が、センサデータに対し、雑音を除去するためのフィルタリング処理や、計測値変換処理、周波数変換処理等の各種前処理を施す(S106)。なお、ステップS106において、各種前処理により得られた観測ベクトルは教師データ(教師観測行列)に追加されると共に、正常、あるいは異常の正解ラベルが対応付けられる。
教師データの取得が終了していない場合(S108においてNO)、処理はステップS102に戻る。なお、教師データの取得が終了したか否かの判定(S108)は、例えば不図示の操作部を介したユーザの入力等に基づいて前処理部206により行われてもよい。
教師データの取得が終了した場合(S108においてYES)、教師データ処理部208は、教師データ(教師観測行列)に基づいて、教師基底行列と教師係数行列を生成する(S110)。ここで、ステップS110の処理の流れについて、図5を参照してより詳細に説明する。
図5は、ステップS110の処理の流れを示すフローチャート図である。図5に示すように、まず、教師データ処理部208は、教師データに対してNMFを適用し、複数の基底ベクトルを生成する(S112)。ステップS112において、教師データ処理部208はNMFの次数を十分に大きな数kmaxに設定して、kmax個の基底ベクトルを生成すると共に、各基底ベクトルに対する係数ベクトルを算出する。
続くステップS114において、教師データ処理部208は、各基底ベクトルに対する係数ベクトルに基づいて、基底ベクトルごとの分類性能を示す第1の評価値Iを算出する。なお、上述したように本実施形態において第1の評価値Iは、各基底ベクトルに対する係数ベクトルを特徴量として教師データを分類した場合に交差検定を行うことで基底ベクトルごとに算出される分類精度Pであってよい。
続いて、教師データ処理部208は、ステップS112において生成された複数の基底ベクトルのうち、ステップS114で算出された第1の評価値Iが最も高い基底ベクトルHを抽出する(S116)。
続いて、教師データ処理部208は、ステップS118で抽出された基底ベクトルHを教師基底行列候補へ追加し、教師基底行列候補について、コスト(本実施形態では計算コスト)に対する分類性能を示す第2の評価値Iを算出する(S118)。なお、上述したように、第2の評価値Iは、例えば数式(6)のようにして算出される。
続くステップS120において、今回算出された第2の評価値Iと前回算出された第2の評価値Iとが比較される。なお、最初にステップS120が処理される場合、第2の評価値は初めて算出されるため、今回算出された第2の評価値Iは前回算出された第2の評価値Iよりも小さくないと判定されてもよい。今回算出された第2の評価値Iは前回算出された第2の評価値Iよりも小さくないと判定された場合(ステップS120においてNO)、処理はステップS122へ進む。
ステップS122において、教師データ処理部208は、今回ステップS116において抽出された基底ベクトルH、及び当該基底ベクトルHに対する係数ベクトルWに基づいて、残差Rを算出する。なお、上述したように、残差Rは例えば数式(7)のようにして算出される。なお、ここで算出された残差Rは、次回ステップS122の処理が行われる際にはデータDとして用いられる。
続いて、教師データ処理部208は、ステップ122で算出された残差Rに対してNMFを適用し、複数の基底ベクトルを生成すると共に、各基底ベクトルに対する係数ベクトルを算出する(S124)。なお、ステップS122において残差Rに対して適用されるNMFの次数は、ステップS110で用いられたNMFの次数kmaxに設定されてもよい。あるいは、ステップS122が繰り返される毎に、1つ少ない次数が設定されてもよい。
そして、上述したステップS114〜S124の処理は、ステップS120において、今回算出された第2の評価値Iは前回算出された第2の評価値Iよりも小さいと判定されるまで繰り返し行われる。
今回算出された第2の評価値Iは前回算出された第2の評価値Iよりも小さいと判定された場合(ステップS120においてYES)、処理はステップS130へ進む。ステップS130において、教師データ処理部208は現在の教師基底行列候補から、最後に追加した基底ベクトルを削除して教師基底行列を生成し、当該教師基底行列に基づいて教師係数行列を生成する。なお、ステップS130において、教師係数行列は、数式(2)〜(5)を参照して説明したように生成され得る。また、ステップS130において生成された教師基底行列は、記憶部214に記憶される。
以上、図4のステップS110の処理の流れについて詳細に説明した。図4に戻って学習段階における動作の説明を続ける。続くステップS150において、分類モデル構築部212は、ステップS110で生成された教師係数行列、及び正解ラベルに基づいて、分類モデルパラメータを生成する。
以上、学習段階における本実施形態の動作例を説明した。続いて、分類段階における本実施形態の動作例について説明する。
(分類段階の動作例)
図6は、分類段階における本実施形態の動作例を示すフローチャート図である。図6に示すように、まず、センサ端末2のセンサ202が、センシングにより観測対象1にかかるセンサデータ(時系列データの一例)を収集し(S202)、センサ端末2のAD変換部204がアナログのセンサデータをデジタルのセンサデータへ変換する(S204)。
続いて、センサ端末2の前処理部206が、センサデータに対し、雑音を除去するためのフィルタリング処理や、計測値変換処理、周波数変換処理等の各種前処理を施す(S206)。なお、ステップS206において、各種前処理により得られた観測ベクトルは評価データ(評価観測行列)に追加される。
なお、分類段階において、評価データ(評価観測行列)に含まれる観測ベクトルは1つでもよいし、複数であってもよい。評価データに複数の観測ベクトルが含まれる場合、上記のステップS202〜S206が繰り返されてもよい。
続いて、センサ端末2は教師基底行列に基づいて、評価データから評価係数行列を生成する(S210)。ここで、ステップS110の処理の流れについて、図7を参照してより詳細に説明する。
図7は、ステップS210の処理の流れを示すフローチャート図である。図7に示すように、まず、特徴抽出部216が、記憶部214に記憶された教師基底行列に基づいて評価データ(評価観測行列)から評価係数行列候補を生成する(S212)。
続いて、特徴抽出部216は、教師基底行列、及びステップS212で生成された評価係数行列候補に基づいて、評価データ(評価観測行列)に対する残差Rを算出する(S212)。なお、上述したように、残差Rは例えば数式(10)のようにして算出される。
続いて、特徴抽出部216は、ステップS216で算出された残差Rを所定の閾値と比較する(S216)。残差Rが所定の閾値以下である場合(S216においてNO)、特徴抽出部216は、評価データが現在用いられている教師基底行列で十分正確に表すことが可能であると判断し、評価係数行列候補を評価係数行列として分類部218へ出力する。
一方、残差Rが所定の閾値より大きい場合(S216においてYES)、特徴抽出部216は評価データが現在用いられている教師基底行列で十分正確に表すことが出来ないと判断し、残差Rを教師データ処理部208へ出力する。そして、教師データ処理部208は、特徴抽出部216から出力された残差Rに対してNMFを適用して得られた基底ベクトルを教師基底行列へ追加する(S230)。なお、記憶部214に記憶されていた教師基底行列は、ステップS230で基底ベクトルが新たに追加された教師基底行列により更新される。
さらに、教師データ処理部208は、ステップS230で基底ベクトルが新たに追加された教師基底行列と教師データとに基づいて教師係数行列を生成(更新)する(S232)。そして、分類モデル構築部212が、ステップS232で更新された教師係数行列に基づいて分類モデルパラメータを生成する(S234)。なお、記憶部214に記憶されていた分類モデルパラメータは、ステップS234で生成された分類モデルパラメータにより更新される。
続いて、特徴抽出部216は、ステップS230で基底ベクトルが新たに追加された教師基底行列に基づいて、評価データから評価係数行列を生成する(S236)。
以上、図6のステップS210の処理の流れについて詳細に説明した。図6に戻って分類段階における動作の説明を続ける。続くステップS250において、センサ端末2の分類部218は、記憶部214に記憶された分類モデルパラメータに基づいて、ステップS210で生成された評価係数行列を分類する。
続いて、センサ端末2の通信部220が、ステップS250で得られた評価係数行列の分類結果を集約装置3へ送信する(S252)。なお、ステップS202〜S252の処理は、本実施形態にかかる情報処理システム9に含まれる複数のセンサ端末2の各々により並列的に行われてよい
そして、集約装置3の通信部32が、各センサ端末2から分類結果を受信し(S254)、集約装置3の集約部34が、ステップS254で受信された複数の分類結果に基づく集約処理を行い、最終的な分類結果を特定する(S256)。そして、集約装置3の出力部36が、ステップS256で特定された最終的な分類結果を出力する(S258)。
<<4.変形例>>
以上、本発明の一実施形態について説明した。以下では、上記実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で上記実施形態に適用されてもよいし、組み合わせで上記実施形態に適用されてもよい。また、各変形例は、上記実施形態で説明した構成に代えて適用されてもよいし、上記実施形態で説明した構成に対して追加的に適用されてもよい。
<4−1.変形例1>
上記実施形態では、正常と異常の2種類のクラス(稼働状態)のうちいずれかの正解ラベルが対応付けられたデータ(観測ベクトル)を含む教師データ(教師観測行列)を用いて、学習を行う例を説明したが、本発明はかかる例に限定されない。例えば、教師データに含まれる全てのデータに、同一種別の正解ラベルが対応付けられていてもよい。
例えば、観察対象によっては、正常状態におけるセンサデータと異常状態におけるセンサデータの両方を用意することが困難な場合もある。特に、異常状態におけるセンサデータを用意するためには、観察対象を異常状態で稼働させる必要があるため、異常状態の発生があまり頻繁ではない観察対象において、異常状態におけるセンサデータを用意することは困難である。一方、正常状態におけるセンサデータのみを用意することは、例えば観察対象が問題なく正常に稼働している状態でセンシングを行ってセンサデータを収集することで実現可能であり、正常状態におけるセンサデータと異常状態におけるセンサデータの両方を用意することと比較すると容易である。そこで、以下では、教師データに含まれる全てのデータに、正常という同一種別の正解ラベルが対応付けられた場合について、変形例1として説明を行う。なお、かかる変形例は、上記実施形態で説明した各部の機能構成が一部異なるのみであるため、以下では、上記実施形態との相違点のみを説明する。
本変形例にかかる前処理部206は、含まれる全てのデータ(観測ベクトル)に正常という同一種別の正解ラベルが対応付けられた教師データを教師データ処理部208へ出力する点において、上記実施形態で説明した前処理部206と相違する。
また、本変形例にかかる教師データ処理部208は、第1の評価値I、及び第2の評価値Iの算出方法が、上記実施形態で説明した教師データ処理部208と相違する。本変形例では、教師データに含まれる全てのデータ(観測ベクトル)に正常という同一種別の正解ラベルが対応付けられている。そのため、上記実施形態で第1の評価値I、及び第2の評価値Iの算出において、分類性能を示す性能情報として用いられた分類精度P、Pを算出することが出来ない。
そこで、本変形例にかかる教師データ処理部208は、基底ベクトルに対する係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和に基づく情報を性能情報として用いて、第1の評価値I、及び第2の評価値Iを算出してもよい。
まず、本変形例にかかる教師データ処理部208は、各基底ベクトルに対する係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和Mに基づいて、基底ベクトル性能情報である第1の評価値Iを算出してもよい。マハラノビス距離の総和Mは、係数ベクトルに含まれる各係数をサンプルとしたとき、各サンプルについて、サンプル全体のうち1つのサンプルの残りのサンプルに対するマハラノビス距離を求め、得られたマハラノビス距離の総和とることで算出することが出来る。
ここで、マハラノビス距離の総和Mは、正常というクラス内のばらつきを示し、マハラノビス距離の総和Mが小さい程、当該ばらつきが小さく、他のクラスとの分類を行う際に分類性能が向上する可能性が高いことを示す。そこで、本変形例にかかる教師データ処理部208は、マハラノビス距離の総和Mを用いて、基底ベクトル性能情報である第1の評価値Iを以下の数式(11)のように算出してもよい。
Figure 2019160072
また、本変形例にかかる教師データ処理部208は、教師基底行列候補に含まれる複数の基底ベクトルに対する複数の係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和Mを、基底行列性能情報として用いてよい。
そして、本変形例にかかる教師データ処理部208は、基底行列性能情報であるマハラノビス距離の総和M、及び上記実施形態で説明した計算コストCを用いて、第2の評価値Iを以下の数式(12)のように算出してもよい。
Figure 2019160072
数式(12)のように表される第2の評価値Iは、マハラノビス距離の総和Mが小さい程大きく、また、計算量が小さい程大きくなる。また、マハラノビス距離の総和Mは、正常というクラス内のばらつきを示し、マハラノビス距離の総和Mが小さい程、当該ばらつきが小さく、他のクラスとの分類を行う際に分類性能が向上する可能性が高いことを示す。したがって、例えば、本変形例にかかる教師データ処理部208は、上記実施形態で説明した例と同様に、第2の評価値Iがより大きくなるような教師基底行列候補を教師基底行列としてもよい。
本変形例にかかる分類モデル構築部212、及び分類部218は、分類部218が用いる分類モデルが上記実施形態と相違する点で上記実施形態にかかる分類モデル構築部212、及び分類部218と相違してもよい。例えば、本変形例にかかる分類部218は、1クラスSVMに基づく分類モデルを用いてもよく、分類モデル構築部212は、当該分類モデルに応じた分類モデルパラメータを生成してもよい。また、分類部218による分類結果は、正常・異常の分類結果でなく、異常度を示す分類スコアであってもよい。
以上、説明したように、本変形例によれば、正常状態におけるセンサデータのみしか用意することが出来ない場合であっても、学習、及び分類を行うことが可能である。
<4−2.変形例2>
上記実施形態では、センサ端末2が分類を行う例を説明したが、本発明はかかる例に限定されない。例えば、上述した分類部218の機能が、センサ端末2ではなく図1に示した集約装置3に備えられてもよい。かかる例について、変形例2として説明する。
本変形例にかかる通信部220は、特徴抽出部216により生成された評価係数行列を、集約装置3へ送信する。そして、集約装置3において、センサ端末2から受信した評価係数行列に基づく分類処理が行われた後、集約処理が行われて、最終的な分類結果が出力される。
したがって、本変形例においては、評価係数行列に含まれる係数ベクトルの数が大きい程、計算コストのみならずセンサ端末2から集約装置3への通信コストも増大する。ここで、評価係数行列に含まれる係数ベクトルの数は、教師基底行列に含まれる基底ベクトルの数に応じて増大する。
上記実施形態では、コスト情報として、計算コストCが用いられたが、本変形例において、Cは、計算コストだけでなく通信コストをも示すコスト情報として用いられ得る。ただし、Cの算出方法は上述した実施形態と同様であってよいため、本変形例にかかる教師データ処理部208の機能は上記実施形態にかかる教師データ処理部208と同様であってよい。
本変形例によれば、センサ端末2から集約装置3のような外部のサーバへ評価係数行列が送信されて、分類処理が行われる場合に、分類性能を高く維持しながら、計算コストのみならず、通信コストをも抑制することが可能である。通信コストを抑制することで、センサ端末2の消費電力が抑制され、センサ端末2がバッテリ駆動の場合にはバッテリ寿命が向上し、システムをより長期間可動させることが可能となる。また、通信コストを抑制することで、低帯域な無線リンクであっても、サンプリング周波数が高いセンサデータにかかる評価係数行列を送信することが可能となる。
<<5.ハードウェア構成>>
以上、本発明の各実施形態を説明した。上述した前処理、教師データ処理、分類モデル構築処理、特徴抽出処理、分類処理、集約処理等の情報処理は、ソフトウェアとセンサ端末2、集約装置3のハードウェアとの協働により実現される。以下では、本発明の実施形態にかかる情報処理装置であるセンサ端末2、集約装置3のハードウェア構成例として、情報処理装置1000のハードウェア構成について説明する。
図8は、本発明の実施形態にかかる情報処理装置1000のハードウェア構成を示す説明図である。図8に示したように、情報処理装置1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1002と、RAM(Random Access Memory)1003と、入力装置1004と、出力装置1005と、ストレージ装置1006と、通信装置1007とを備える。
CPU1001は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータなどを記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。主に、CPU1001、ROM1002及びRAM1003とソフトウェアとの協働により、例えば、前処理部206、教師データ処理部208、分類モデル構築部212、特徴抽出部216、分類部218、集約部34の機能が実現される。
入力装置1004は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などから構成されている。情報処理装置1000のユーザは、該入力装置1004を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置1005は、例えば、液晶ディスプレイ(LCD)装置、OLED装置及びランプなどの表示装置を含む。さらに、出力装置1005は、スピーカ及びヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。なお、出力装置1005は、出力部36に対応する。
ストレージ装置1006は、データ格納用の装置である。ストレージ装置1006は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置1006は、CPU1001が実行するプログラムや各種データを格納する。なお、ストレージ装置1006は、記憶部214に対応する。
通信装置1007は、例えば、通信網に接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置1007は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでもよい。なお、通信装置1007は、通信部220、通信部32に対応する。
<<6.むすび>>
以上説明したように、本発明の実施形態によれば、分類性能の向上とコストの抑制を両立することが可能である。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、各センサ端末2の分類結果が集約装置3に送信されて集約されて出力される例を説明したが、本発明はかかる例に限定されない。例えば、各センサ端末2がそれぞれ表示部等の出力部を有し、各センサ端末2の分類結果が各センサ端末2が有する出力部から出力されてもよい。かかる構成は、複数のセンサ端末2の分類結果を総合的に判断する必要がなく、個別に各センサ端末2の分類結果を確認したい場合に、有効である。
また、本明細書では、観測対象として、工場の設備や装置、製品等を例に挙げたが、本発明はかかる例に限定されない。例えば、上述した実施形態は、オフィスのプリンタ、店舗のATM等の機械的な機構を持つ一般的な機器を観測対象として、適用することも可能である。
また、上記実施形態では、時系列データとして、センサデータとして、振動データや音響データなどを例に挙げたが、かかる例に限定されない。例えば、センサデータが画像データである場合には、画像認識を用いた稼働状態検知に上述した実施形態を適用することが可能である。
また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、上記実施形態によれば、CPU1001、ROM1002、及びRAM1003などのハードウェアを、上述したセンサ端末2、集約装置3の各構成と同様の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
1 観測対象
2 センサ端末
3 集約装置
5 ネットワーク
9 情報処理システム
32 通信部
34 集約部
36 出力部
202 センサ
204 AD変換部
206 前処理部
208 教師データ処理部
212 分類モデル構築部
214 記憶部
216 特徴抽出部
218 分類部
220 通信部

Claims (15)

  1. 時系列データに基づいて、非負の教師データを取得する前処理部と、
    前記教師データに対して非負値行列因子分解を適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて教師係数行列を生成する教師データ処理部と、
    を備える情報処理装置。
  2. 前記教師データ処理部は、複数の前記基底ベクトルを含む教師基底行列と前記教師データとに基づいて前記教師係数行列を生成し、
    前記性能情報は、前記教師基底行列の候補となる教師基底行列候補の分類性能を示す基底行列性能情報を含む、請求項1に記載の情報処理装置。
  3. 前記教師データ処理部は、前記教師基底行列候補、及び前記教師基底行列候補に対応する前記基底行列性能情報と前記コスト情報とに基づいて、前記教師基底行列を生成する、請求項2に記載の情報処理装置。
  4. 前記基底行列性能情報は、前記教師基底行列候補に含まれる複数の前記基底ベクトルに対する複数の係数ベクトルを特徴量として前記教師データを分類した場合の分類精度に基づく情報である、請求項2または3に記載の情報処理装置。
  5. 前記教師データに含まれる全てのデータには、同一種別のラベルが対応付けられ、
    前記基底行列性能情報は、前記教師基底行列候補に含まれる複数の前記基底ベクトルに対する複数の係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和に基づく情報である、請求項2または3に記載の情報処理装置。
  6. 前記コスト情報は、前記教師基底行列候補に含まれる前記基底ベクトルの数に基づく情報である、請求項2〜5のいずれか一項に記載の情報処理装置。
  7. 前記性能情報は、前記基底ベクトルごとの分類性能を示す基底ベクトル性能情報を含み、
    前記教師データ処理部は、前記基底ベクトル性能情報に基づいて、前記教師基底行列候補に含まれる前記基底ベクトルを特定する、請求項2〜6のいずれか一項に記載の情報処理装置。
  8. 前記基底ベクトル性能情報は、前記基底ベクトルに対する係数ベクトルを特徴量として前記教師データを分類した場合の分類精度に基づく情報である、請求項7に記載の情報処理装置。
  9. 前記教師データに含まれる全てのデータには、同一種別のラベルが対応付けられ、
    前記基底ベクトル性能情報は、前記基底ベクトルに対する係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和に基づく情報である、請求項7に記載の情報処理装置。
  10. 前記情報処理装置は、前記教師係数行列、及び前記教師データに対応付けられた正解ラベルに基づいて分類モデルパラメータを生成するモデル構築部をさらに備える、請求項2〜9のいずれか一項に記載の情報処理装置。
  11. 前記前処理部は、さらなる時系列データに基づいて、非負の評価データをさらに取得し、
    前記情報処理装置は、
    前記教師基底行列に基づいて、前記評価データから評価係数行列を生成する特徴抽出部と、
    前記評価係数行列を前記分類モデルパラメータに基づいて分類する分類部と、
    をさらに備える、請求項10に記載の情報処理装置。
  12. 前記特徴抽出部は、前記評価データから評価係数行列候補を生成し、前記教師基底行列及び前記評価係数行列候補に基づいて算出される、前記評価データに対する残差が所定の条件を満たす場合に、前記評価係数行列候補を前記評価係数行列とする、請求項11に記載の情報処理装置。
  13. 前記教師データ処理部は、前記残差が前記所定の条件を満たさない場合に、前記残差に対して非負値行列因子分解を適用することで得られる基底ベクトルが追加された前記教師基底行列に基づいて前記教師係数行列をさらに生成し、
    前記モデル構築部は、さらに生成された前記教師係数行列に基づいて、前記分類モデルパラメータを更新する、請求項12に記載の情報処理装置。
  14. 時系列データに基づいて、非負の教師データを取得することと、
    前記教師データに対して非負値行列因子分解を適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて教師係数行列を生成することと、
    を含む情報処理方法。
  15. コンピュータに、
    時系列データに基づいて、非負の教師データを取得する機能と、
    前記教師データに対して非負値行列因子分解を適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて教師係数行列を生成する機能と、
    を実現させるためのプログラム。
JP2018048423A 2018-03-15 2018-03-15 情報処理装置、情報処理方法、及びプログラム Active JP7013965B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018048423A JP7013965B2 (ja) 2018-03-15 2018-03-15 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018048423A JP7013965B2 (ja) 2018-03-15 2018-03-15 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019160072A true JP2019160072A (ja) 2019-09-19
JP7013965B2 JP7013965B2 (ja) 2022-02-01

Family

ID=67992626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018048423A Active JP7013965B2 (ja) 2018-03-15 2018-03-15 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7013965B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023106166A1 (ja) * 2021-12-07 2023-06-15 株式会社レゾナック 解析装置、予測装置、解析方法、予測方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008215881A (ja) * 2007-02-28 2008-09-18 National Institute Of Advanced Industrial & Technology 信号強度の時系列情報の解析方法、解析プログラム、並びに解析装置
JP2017151872A (ja) * 2016-02-26 2017-08-31 沖電気工業株式会社 分類装置、分類方法、プログラム、及びパラメータ生成装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008215881A (ja) * 2007-02-28 2008-09-18 National Institute Of Advanced Industrial & Technology 信号強度の時系列情報の解析方法、解析プログラム、並びに解析装置
JP2017151872A (ja) * 2016-02-26 2017-08-31 沖電気工業株式会社 分類装置、分類方法、プログラム、及びパラメータ生成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023106166A1 (ja) * 2021-12-07 2023-06-15 株式会社レゾナック 解析装置、予測装置、解析方法、予測方法及びプログラム
JP7298802B1 (ja) * 2021-12-07 2023-06-27 株式会社レゾナック 解析装置、予測装置、解析方法、予測方法及びプログラム

Also Published As

Publication number Publication date
JP7013965B2 (ja) 2022-02-01

Similar Documents

Publication Publication Date Title
US8630962B2 (en) Error detection method and its system for early detection of errors in a planar or facilities
JP6740247B2 (ja) 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法
CN111563521B (zh) 特定于场所的异常检测
US10832698B2 (en) Abnormal sound detection device and abnormal sound detection method
US11892826B2 (en) Anomaly detection system
CN115412455B (zh) 一种基于时间序列的服务器多性能指标异常检测方法及装置
WO2018180197A1 (ja) データ解析装置、データ解析方法およびデータ解析プログラム
US20180164794A1 (en) Methods and Systems for Discovery of Prognostic Subsequences in Time Series
JP2015170121A (ja) 異常診断装置及びプログラム
CN113762329A (zh) 一种大型轧机状态预测模型的构建方法及构建系统
JP6783443B2 (ja) 情報処理装置、情報処理システム、情報処理方法、プログラム、及び記録媒体
CN117040917A (zh) 一种具有监测预警功能的智慧型交换机
JP2020042519A (ja) 異常検知装置、異常検知方法、及び異常検知プログラム
EP3712728A1 (en) Apparatus for predicting equipment damage
CN114118219A (zh) 基于数据驱动的长期加电设备健康状态实时异常检测方法
JP2019105871A (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
CN116106672B (zh) 一种基于数据驱动与工程知识的车网谐振检测方法及装置
CN117034123B (zh) 健身器材的故障监控系统及其方法
JP7013965B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN116451139B (zh) 一种基于人工智能的直播数据快速分析方法
CN111222203B (zh) 一种轴承使用寿命模型创建及其预测方法
JP2020067948A (ja) 分析装置、分析方法および分析プログラム
JP2018181052A (ja) モデル同定装置、予測装置、監視システム、モデル同定方法および予測方法
CN114598627A (zh) 一种基于知识图谱的异常网络信息检测方法
CN112083707A (zh) 一种工控物理信号的处理方法及控制器、处理系统

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103