以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
<<1.背景>>
本発明の一実施形態について説明する前に、まず、本実施形態の創作に至った背景を説明する。近年においては、観測対象の状態を観測する種々のセンサ端末が開発されている。また、上記のようなセンサ端末により取得された時系列的なセンサデータ(以下、時系列データと呼ぶ場合もある)に基づいて、観測対象の状態を分類(判別を含む)する手法も多く提案されている。
例えば、物品を製造する工場などにおいては、種々の設備や装置、製品などが用いられるが、上記のような観測対象は、機器の動作に関する制御信号などを直接取得することができない場合も多いため、外付けのセンサ端末により状態を検知することも広く行われている。
この場合、例えば、観測対象の周囲に配置した複数のセンサ端末から振動データや音響データなどのセンサデータを取得することで、観測対象の状態を動的に分類することが可能である。また、得られたセンサ情報を分析、評価することで、移動軌跡や稼働状況の取得、異常予兆検知などを行うことができ、生産や作業効率の改善や安全性の確保などを実現することができる。本明細書では、観測対象の状態として、正常状態(以下、単に正常とも呼ぶ)または異常状態(以下、単に異常とも呼ぶ)が存在し、正常または異常の2つのクラスに分類する例について説明するが、本発明はかかる例に限定されるものではない。
センサデータのような時系列データを用いた分類手法として、非負値行列因子分解を行うことによる分類手法が知られている。非負値行列因子分解(Non−negative
Matrix Factorization、以下、NMFとも呼ぶ)は、1の非負行列Yを2つの非負行列である係数行列Wと基底行列Hの積(例えばWH)に分解するアルゴリズムである。
NMFを用いた分類手法では、正常、異常等の正解ラベルが対応付けられた非負の時系列データである教師データを予め学習し、学習により得られた分類パラメータを用いて、分類したい時系列データである評価データを分類する。学習時には、教師データに対してNMFを適用して得られた教師係数行列を学習することで、分類のための分類パラメータを得ることが可能である。また、分類時には、教師データに対してNMFを適用して得られた教師基底行列を用いて評価データから係数行列を生成し、生成された係数行列を特徴量として上述した分類パラメータを用いた分類を行うことが可能である。
ところで、計算処理能力に制約の高い端末側において、学習や分類等のデータ処理が想定される場合には、学習や分類にかかる計算コストを抑制することが望ましい。上述したNMFを用いた分類手法においては、NMFの次数(すなわち、教師基底行列に含まれる基底ベクトルの数)に応じて、計算コストが増加する。
NMFの次数は、例えば予め適宜設定することが可能なパラメータであり、一般に次数を大きく設定することで分類性能が向上する。しかし、NMFの次数が大きい程、計算コストは増加してしまう。さらに、予め選ばれた基底ベクトルと係数行列の中から分類性能が最適となる組み合わせを抽出するための計算コストはNMFの次数が増加するとともに指数関数的に増大するため、全数探索が十分短い時間で終了しない場合がある。
また、振動データや音響データなど、比較的高いサンプリング周波数やデータ転送が必要とされる観測環境においては、通信コストを抑制することがより望ましい。例えば、上述したNMFを用いた分類手法において、複数の端末から、特徴量として用いられる係数行列をサーバへ送信し、サーバ側で分類処理を行う場合には、上述したNMFの次数に応じて、通信コストも増加する。
一般に無線でデータを転送するセンサ端末はバッテリで駆動するため、冗長な無線データの転送により、消費電力が増大し、早期のバッテリ切れが発生しやすくなる。バッテリ切れが発生すると、センシングを行うことが不能になってしまうため、上述したように通信コストを抑制することが望ましい。また、有線、もしくは無線給電で外部電力の供給が行えるシステムであっても、必要以上の電力を消費することは望ましくないため、やはり通信コストを抑制することが望ましい。さらに、必要以上のデータを送受信することにより、データをセンサ端末、あるいはサーバのストレージに保持することのコストも増大するため、やはり通信コストを抑制することが望ましい。
上述したように、NMFの次数を大きく設定することで分類性能が向上するが、NMFの次数に応じて計算コスト、及び通信コスト(以下、まとめて単にコストと呼ぶ場合もある)も増加する。したがって、上述したNMFを用いた分類手法では、分類性能と通信コストはトレードオフの関係となり得る。
ところで、本明細書における前提として、状態の検知はリアルタイムに行うことが望ましい。すなわち、状態の変化が生じてから出来るだけ早期に、その変化に対応した検知結果を出力することが望ましい。センサ端末は、一般に観測可能な範囲が物理的・空間的に限定されるため、複数の場所に配置され、またセンサの種類も多種多様となる。また、センサにより得られたセンサデータを利用して機器や環境の状態を検知(分類)するためには、十分なセンサデータを収集する必要がある。
一般にそれぞれ検知する状態に応じたより顕著な特徴を抽出できるほど、状態の判別精度は高くなる。例えば専門知識を持つ者が、適切な観測場所すなわちセンサの配置位置を指定して観測することも可能であるが、機器の内部構造が複雑で実際データを取得してみなければ設置の判断な場合や、専門知識を持たない者がセンサ端末を配置する場合も想定される。そのような場合には、NMFの次数の設定や特徴量の組み合わせの選択が適切に行われるとは限らないため、それらを客観的な指標に基づいて自動的に行うことが望ましい。
本発明の一実施形態は、上記の点に着目して発想されたものであり、観測対象の状態分類にかかる分類性能を高く維持しながらも、効率的に計算コストや通信コスト等のコストを抑制することを可能とする。以下、このような効果を奏する本発明の一実施形態について、詳細に説明する。
<<2.構成例>>
<2−1.システム構成>
まず、本発明の一実施形態にかかる情報処理システムの構成について説明する。本実施形態にかかる情報処理システムは、上述したように、センサにより取得されるセンサデータ(時系列データの一例)に基づく観測対象の状態分類において、分類性能の維持とコストの抑制を両立することを可能とする。
図1は、本発明の一実施形態にかかるシステム構成の一例を示す図である。図1を参照すると、本実施形態にかかる情報処理システム9は、観測対象1、複数のセンサ端末2、及び集約装置3を含み得る。また、センサ端末2および集約装置3は、ネットワーク5を介して接続される。
観測対象1は、本実施形態における状態分類の対象である。本実施形態にかか観測対象1は、例えば、工場における種々の装置や製品、企業や家庭に設置される電子機器などであってもよい。また、観測対象1は、建物、橋、道路などの建造物を含んでもよい。また、本実施形態にかかる観測対象1は、センサ端末2によるセンサデータの取得対象となる1つ以上の内部装置を備えてもよい。
センサ端末2は、観測対象1から種々のセンサデータを収集する情報処理装置である。センサ端末は一般に観測可能な範囲が物理的および空間的に限定されるため、本実施形態にかかるセンサ端末2は、図1に示すように、1つの観測対象1に対して複数配置されてもよい。図1に示す例では、1つの観測対象1に対して3つのセンサ端末2A〜2Cが配置されている。
また、本実施形態にかかるセンサ端末2は、観測対象1にかかる種々のセンサデータを収集し、収集したセンサデータに基づいて観測対象1の稼働状態を分類する。本実施形態において、センサ端末2による観測対象1の稼働状態の分類結果は、例えば正常、または異常であってもよい。さらに、センサ端末2は、観測対象1の稼働状態の分類結果を、集約装置3へ送信する。なお、センサ端末2のより詳細な構成については、図2を参照して後述する。
集約装置3は、観測対象1の稼働状態の分類結果を集約して、最終的な分類結果を出力するサーバ(情報処理装置)である。図1に示すように、本実施形態にかかる集約装置3は、通信部32と、集約部34と、出力部36とを備える。
本実施形態にかかる通信部32は、複数のセンサ端末2から観測対象1の稼働状態の分類結果を受信する。本実施形態にかかる集約部34は、通信部32が複数のセンサ端末2から受信した分類結果に基づく集約処理を行い、最終的な分類結果を特定する。出力部36は、集約部34の集約処理により得られた最終的な分類結果を出力する。出力部36は、例えば表示装置であってもよく、かかる場合出力部36は、最終的な分類結果を表示出力する。なお、出力部36は、最終的な分類結果に加えて、あるいは代えて、各センサ端末2から受信した分類結果の各々を出力してもよい。
以上、本実施形態にかかるシステム構成について説明した。なお、図1を用いて説明したシステム構成はあくまで一例であり、本実施形態にかかるシステム構成はかかる例に限定されない。例えば、図1では、1つの観測対象1に対して、3つのセンサ端末2A〜2Cが配置される場合を例に示したが、センサ端末2の数は、本例に限定されない。また、本実施形態にかかる観測対象1とセンサ端末2のセットは複数存在してもよい。本実施形態にかかるシステム構成は、観測対象の特性やネットワーク5の仕様などに応じて、柔軟に変形され得る。
<2−2.センサ端末の構成>
続いて、本実施形態にかかるセンサ端末2の機能構成例について説明する。図2は、本実施形態にかかるセンサ端末2の機能構成例を示すブロック図である。図2を参照すると、本実施形態にかかるセンサ端末2は、センサ202、AD(アナログデジタル)変換部204、前処理部206、教師データ処理部208、分類モデル構築部212、記憶部214、特徴抽出部216、分類部218、及び通信部220を備える。
なお、図2に示した各部のうち、一部の機能ブロックは、センサデータに基づいて学習を行う学習段階と、センサデータに基づいて分類を行い観測対象1の状態を評価する分類段階とにおいて機能が異なり得る。そこで、以下では、必要に応じて、学習段階における機能と分類段階における機能について分けて説明を行う場合がある。
センサ202は、センシングにより観測対象1にかかるセンサデータ(時系列データの一例)を収集する機能を有する。センサ202の一例としては、振動センサ、音響センサ、熱センサ、照度センサ、および撮像センサなどが挙げられる。なお、上記はあくまで一例であり、本実施形態にかかるセンサ端末2は、観測対象1の特性に応じた種々のセンサ202を備えてよい。
また、図2ではセンサ端末2が1つのセンサ202を備える例を示しているが、センサ端末2は、複数の種類のセンサ202を備えてもよい。センサ端末2が複数の種類のセンサ202を備えることで、観測対象1の稼働状態に応じた異なる物理現象を捉えることができる。
AD変換部204は、アナログのセンサデータをデジタルのセンサデータへ変換する。なお、センサ202から出力されるセンサデータがデジタルのセンサデータである場合には、センサ端末2はAD変換部204を備えていなくてもよい。
前処理部206は、センサデータに対し、雑音を除去するためのフィルタリング処理や、計測値変換処理、周波数変換処理等の各種前処理を施す。なお、前処理部206による周波数変換処理は、フーリエ変換、高速フーリエ変換、短時間フーリエ変換、ウェーブレット変換等の変換を行うことで、センサデータのうち少なくとも一部のデータを、周波数領域表現に変換する処理であってもよい。
センサデータに対して上述した前処理を施すことにより、前処理部206は非負の観測ベクトル(周波数領域表現に変換されたデータ)を含む非負の観測行列を取得する。なお、前処理部206により取得される観測行列は、観測ベクトルを、1または複数並べた行列である。また、観測ベクトルは、フーリエ変換により得られるパワースペクトル、短時間フーリエ変換により得られるスペクトログラム、またはウェーブレット変換により得られるスカログラム等であってもよい。また、前処理部206は、所定期間ごとに当該所定期間のセンサデータに基づいて観測行列を取得してもよいし、任意の方法で特定される期間のセンサデータに基づいて観測行列を取得してもよい。
前処理部206は、学習段階と分類段階とにおいて一部機能が異なり得る。以下では、学習段階において前処理部206により取得される非負の観測行列を教師データあるいは教師観測行列と呼び、分類段階において前処理部206により取得される非負の観測行列を評価データあるいは評価観測行列と呼ぶ場合がある。
教師データは、センサ端末2が学習を行う学習段階において前処理部206により取得される非負の観測行列であり、本実施形態において、教師データに含まれる各観測ベクトルには、正常あるいは異常のいずれかの正解ラベルが対応付けられる。正解ラベルは、教師観測行列(教師データ)に含まれる各観測ベクトルが属するクラスを示すラベルである。上述した方に、本実施形態において各観測ベクトルが属するクラスは正常あるいは異常のいずれかである。
なお、教師データに含まれる各観測ベクトルに正解ラベルを対応付ける方法は特に限定されないが、例えばユーザが不図示の操作部を介してクラスを示すクラス情報を入力し、前処理部206がクラス情報に基づいて観測ベクトルに各正解ラベルを対応付けてもよい。前処理部206は教師データとして取得した観測行列(教師観測行列)を教師データ処理部208へ出力する。
評価データは、センサ端末2が分類を行う分類段階において前処理部206により取得される非負の観測行列である。評価データには、正解ラベルは対応付けられなくてよい。前処理部206は評価データとして取得した観測行列(評価観測行列)を特徴抽出部216へ出力する。
教師データ処理部208の機能は、学習段階と分類段階とで異なり得る。そこで、以下では、まず学習段階における教師データ処理部208の機能について説明した後に、分類段階における教師データ処理部208の機能について説明する。
教師データ処理部208は、学習段階において、前処理部206から出力された教師観測行列(教師データ)に対して、非負値行列因子分解(NMF)を適用し、教師基底行列、及び教師係数行列を生成する。以下、NMFついて、図3を参照して詳細に説明を行う。
上述したように、NMFは、1の非負行列Yを2つの非負行列W、Hの積(例えばWH)に分解するアルゴリズムである。2つの非負行列W、Hを解析的に求めることは困難であるため、初期値を与えてYとWHの誤差が局所最適解になるよう、反復的に近似解を求めることが行われている。なお、一般に、局所最適解は初期値に依存して変化する。
図3は、NMFの処理例を模式的に示す説明図である。図3に示すように、NMFにより、例えば非負の観測行列Yは、非負の係数行列W、及び非負の基底行列Hの積に分解される。
図3に示すように、本実施形態にかかる観測行列Yは、例えばm次元の観測ベクトルyが行ベクトルとなって、時系列データにおける対象区間の数nだけの行で構成されたn行m列の行列である。
本実施形態にかかる基底行列Hは、例えば観測行列YにNMFを適用し、分解されたm次元の基底ベクトルhが行ベクトルとなって、基底ベクトルの数kだけの行で構成されたk行m列の行列である。
本実施形態にかかる係数行列Wは、例えばk次元の係数ベクトルwが行ベクトルとなって、観測ベクトルの数nだけの行で構成されたn行k列の行列である。ここで係数ベクトルwは、ある観測ベクトルにおいて、基底行列Hに含まれる各基底ベクトルの成分がどれだけ含まれるか、という加重値を示す行ベクトルである。
図3に示すように上記の行列には、次の数式(1)の関係がある。
ところで、上述したように、NMFの次数に応じて、後述する分類モデル構築部212における分類モデルパラメータの生成などにかかる計算コストが増加する。また、上述したように、NMFの次数に応じて、分類部218による分類性能が向上し得る。
ここで、NMFの次数とは、教師基底行列に含まれる基底ベクトルの数を意味し、図3に示す例では、教師基底行列に含まれる基底ベクトルの数はkである。図3に示すように、教師基底行列に含まれる基底ベクトルの数kは、観測行列Yに含まれる観測ベクトルyの次数mや観測ベクトルyの数nによらず設定され得る。
そこで、本実施形態にかかる教師データ処理部208は、分類性能の向上と計算コストの抑制とを両立するように、教師基底行列に含まれる基底ベクトルの数を決定する。さらに、教師基底行列に含まれる基底ベクトルの数が同一であっても、教師基底行列に含まれる基底ベクトルに応じて、分類部218による分類性能が左右され得る。したがって、より分類性能の向上に寄与し得る基底ベクトルが教師基底行列に含まれることが望ましい。
そこで、本実施形態にかかる教師データ処理部208は、教師データに対してNMFを適用することで得られる基底ベクトル、分類性能に関する性能情報、及びコストに関するコスト情報に基づいて、教師基底行列と教師係数行列とを生成する。以下、教師データ処理部208の機能についてより詳細に説明する。
上述したように、本実施形態にかかる教師データ処理部208は、複数の基底ベクトルを含む教師基底行列と、教師データ(教師観測行列)とに基づいて教師係数行列を生成する。ここで、教師観測行列YLを分解して得られる基底行列、及び係数行列を、それぞれ教師基底行列HL、教師係数行列WLとして、教師係数行列WLの生成手順について説明する。
教師基底行列HLに基づいて、教師観測行列YLから生成される係数行列を教師係数行列WLとすると、数式(1)より、教師観測行列YL、教師係数行列WL、及び教師基底行列HLの関係は、以下の数式(2)で表される。
上記数式(2)より、教師係数行列WLを得るためには、教師基底行列HLの逆行列を用いる必要がある。しかし、教師基底行列HLは、一般に正則行列とは限らないため、逆行列を持たない場合がある。そこで、教師データ処理部208は、例えば教師基底行列の疑似逆行列(ムーア‐ペンローズの疑似逆行列)に基づいて、教師係数行列WLを生成してもよい。教師基底行列HLの疑似逆行列HL +は、k×mの行列であり、一般にk<mであるため、擬似逆行列HL +は、教師基底行列HLを特異値分解(HL=ULΣLVL)した後の直交行列をUL、VL、対角行列をΣLとし、ΣLの成分のうち、非ゼロの特異値の逆数にしたものをΣL +として、次式で得られる。
上記数式(3)で得られた疑似逆行列HL +を用いて、教師係数行列WLは次の数式(4)で表される。ただし数式(4)の教師係数行列WLは、数式(2)のようにNMFを適用して得られた教師係数行列でなく、||YL−WLHL||2を最小化する最小二乗解であるため、数式(2)のWLと完全に一致するとは限らない。
また、本実施形態にかかる教師データ処理部208は、分類性能の向上と計算コストの抑制とを両立するような教師基底行列を得るため、教師基底行列の候補となる教師基底行列候補を生成する。教師基底行列候補は、教師基底行列と同様に、複数の基底ベクトルを含む行列である。
本実施形態にかかる教師データ処理部208は、教師データに対してNMFを適用して得られた複数の基底ベクトルの中から、教師基底行列候補に含まれる基底ベクトルを特定してもよい。例えば、教師データ処理部208は、基底ベクトルごとの分類性能を示す基底ベクトル性能情報(性能情報の一例)に基づいて、教師基底行列候補に含まれる基底ベクトルを特定してもよい。基底ベクトル性能情報は、基底ベクトルごとに算出される値であってもよく、以下ではかかる基底ベクトル性能情報の値を第1の評価値I1と呼ぶ。
例えば、本実施形態において、基底ベクトル性能情報として、各基底ベクトルに対する係数ベクトルを特徴量として教師データを分類した場合の分類精度が用いられてもよい。本明細書において、基底ベクトルに対する係数ベクトルは、教師データと、基底ベクトルの擬似逆行列を掛け合わせることで得られ、教師データに含まれる観測ベクトルごとに得られる係数が観測ベクトルの数だけ並んだベクトルである。以下では、各基底ベクトルに対する係数ベクトルを特徴量として教師データを分類した場合の分類精度をP1とする。つまり、本実施形態において、I1=P1である。
上述したように、教師データには正常・異常の正解ラベルが対応付けられているため、例えば教師データを分類して、交差検定を行うことが可能である。そこで、分類精度P1として、教師データにおける正常・異常のデータに対して交差検定を行って得られる平均分類精度が用いられてもよい。なお、本発明は係る例に限定されず、最悪の分類精度となる場合を重視し、最悪の分類精度が分類精度P1として用いられてもよい。
例えば、本実施形態にかかる教師データ処理部208は、基底ベクトルごとに第1の評価値I1を算出し、教師データに対してNMFを適用して得られた複数の基底ベクトルから、最も第1の評価値I1が高い基底ベクトルを抽出してもよい。そして、このようにして抽出(特定)された基底ベクトルが、教師基底行列候補に含まれてもよい。
さらに、教師データ処理部208は、上記のようにして特定された基底ベクトルを含む教師基底行列候補の分類性能を示す基底行列性能情報(性能情報の一例)に基づいて、教師基底行列を生成してもよい。例えば、教師データ処理部208は、教師基底行列候補に含まれる複数の基底ベクトルに対する複数の係数ベクトルを特徴量として教師データを分類した場合の分類精度P2を、基底行列性能情報として用いてもよい。
また、教師データ処理部208は、教師基底行列候補に対応する基底行列性能情報に加え、当該教師基底行列候補に対応するコスト情報にさらに基づいて、教師基底行列を生成してもよい。本実施形態における教師データ処理部208は、教師基底行列候補に含まれる基底ベクトルの数に基づく計算コストをコスト情報として用いてもよい。例えば、計算コストC2は、教師データのデータ長をN、現在の教師基底行列候補に含まれる基底ベクトルの数をmとすると、以下の数式(5)のように表される。
例えば本実施形態にかかる教師データ処理部208は、現在の教師基底行列候補について、当該教師基底行列候補に対応する基底行列性能情報とコスト情報とに基づいて、計算コストに対する分類性能を示す第2の評価値I2を算出してもよい。例えば、第2の評価値I2は、上述したP2、及びC2を用いて、以下の数式(6)のように表される。
第2の評価値I2は、教師基底行列候補の分類性能が高い程大きく、また、計算量が小さい程大きくなる。したがって、例えば、本実施形態にかかる教師データ処理部208は第2の評価値I2がより大きくなるような教師基底行列候補を教師基底行列としてもよい。
例えば、本実施形態にかかる教師データ処理部208は、教師基底行列候補を生成する度に第2の評価値I2を算出してもよい。そして、本実施形態にかかる教師データ処理部208は、第2の評価値I2が条件を満たさなければ、教師基底行列候補に基づいて残差を算出して、当該残差に基づいて上述した処理を繰り返してもよい。なお、データをD、抽出された基底ベクトルをH1、基底ベクトルH1に対する係数ベクトルをW1とすると、データDに対する残差Rは、以下の数式(7)のように表される。
例えば、本実施形態にかかる教師データ処理部208は、第2の評価値I2が条件を満たさなければ、残差Rに対してNMFを適用して得られた複数の基底ベクトルから、さらに1の基底ベクトルを抽出してもよい。なお、かかる基底ベクトルを抽出の方法は、上述したように基底ベクトルごとに算出される第1の評価値I1を用いた方法であってもよい。そして、本実施形態にかかる教師データ処理部208は、抽出された基底ベクトルを教師基底行列候補に追加して、当該基底ベクトルを含む新たな教師基底行列候補を生成してもよい。
本実施形態にかかる教師データ処理部208は、上述したように、第2の評価値I2が条件を満たすまで、教師基底行列候補の生成を繰り返してもよい。
ここで、本実施形態において、第2の評価値I2が満たすべき条件は、例えば前回算出された第2の評価値I2よりも、今回算出された第2の評価値I2の方が小さいことであってもよい。上記のように教師基底行列候補の生成が繰り返される場合、教師基底行列候補の生成が繰り返される度に教師基底行列候補に含まれる基底ベクトルが増加する。したがって、教師基底行列候補に含まれる複数の基底ベクトルに対する複数の係数ベクトルを特徴量として教師データを分類した場合の分類精度P2は、繰り返し回数に応じて増加することが期待されるが、その増加ペースは徐々に低下し得る。一方、教師基底行列候補に含まれる基底ベクトルの数mが繰り返し回数に応じて増加し、教師データのデータ長Nは繰り返し回数に応じて変化しないため、計算コストC2は繰り返し回数に応じて一定のペースで増加する。したがって、前回算出された第2の評価値I2よりも、今回算出された第2の評価値I2の方が小さい場合、前回算出された第2の評価値I2に対応する前回の教師基底行列候補が教師基底行列として望ましいと考えられる。そこで、本実施形態にかかる教師データ処理部208は、前回算出された第2の評価値I2よりも、今回算出された第2の評価値I2の方が小さい場合、現在の教師基底行列候補から、最後に追加した基底ベクトルを削除して教師基底行列を生成してもよい。
なお、第2の評価値I2が満たすべき条件、及び当該条件が満たされた場合の教師基底行列の生成方法は上述した例に限定されない。例えば、第2の評価値I2が満たすべき条件は、所定の閾値より大きいことを含んでもよい。そして、教師データ処理部208は、第2の評価値I2が所定の閾値より大きい場合に、現在の教師基底行列候補を、教師基底行列としてもよい。
あるいは、教師データ処理部208は、所定の回数だけ教師基底行列候補の生成を繰り返し、それまでに生成された教師基底行列候補のうち、最も第2の評価値I2が大きい教師基底行列候補を、教師基底行列としてもよい。
以上、学習段階における教師データ処理部208の機能について説明した。続いて、分類段階における教師データ処理部208の機能について説明する。
教師データ処理部208は、分類段階において、後述する特徴抽出部216から、評価データに対する残差RTが出力された場合に、当該残差RTに対してNMFを適用することで得られる基底ベクトルを教師基底行列へ追加してもよい。そして、教師データ処理部208は、教師データ(教師基底行列)と、かかる基底ベクトルが追加された教師基底行列の疑似逆行列とを用いて、教師係数行列を生成してもよい。
なお、教師データ処理部208は、学習段階、及び分類段階の双方において、生成した教師基底行列を記憶部214に記憶させ、当該教師基底行列に基づいて生成された教師係数行列を分類モデル構築部212へ出力する。
分類モデル構築部212は、教師データ処理部208により生成される教師係数行列、及び教師データに対応付けられた正解データに基づいて、分類段階において後述する分類部218により用いられる分類モデルパラメータを生成する。分類モデル構築部212が生成する分類モデルパラメータは、分類部218における分類モデルに応じたパラメータであり得る。
分類モデル構築部212は、学習段階、及び分類段階の双方において、教師データ処理部208により生成される教師係数行列に基づいて分類モデルパラメータを生成し、当該分類モデルパラメータを記憶部214に記憶させる。なお、記憶部214に既に分類モデルパラメータが記憶されていた場合、記憶部214に記憶される分類モデルパラメータは、分類モデル構築部212が新たに生成した分類モデルパラメータで更新される。つまり、分類モデル構築部212は、分類段階において、教師データ処理部208により生成された教師係数行列に基づいて、分類パラメータを更新する。
記憶部214は、センサ端末2の各構成が機能するためのプログラムやパラメータを記憶する。また、記憶部214は、教師データ処理部208が教師データに対してNMFを適用することで生成された教師基底行列と、分類モデル構築部212により生成された分類モデルパラメータと、を記憶する。
特徴抽出部216は、記憶部214に記憶された教師基底行列に基づいて、分類段階において前処理部206から出力された評価データ(評価観測行列)から評価係数行列を生成し、分類部218へ出力する。以下、特徴抽出部216による評価係数行列の生成例について説明する。
以下では、前処理部206から出力される評価観測行列をYT、記憶部214に記憶された教師基底行列をHL、教師基底行列HLに基づいて評価観測行列YTから生成される係数行列を評価係数行列の候補である評価係数行列候補WTとする。数式(1)より、評価観測行列YT、評価係数行列候補WT、及び教師基底行列HLの関係は、以下の数式(8)で表される。
上記数式(3)と同様な方法で得られた疑似逆行列HL +を用いて、評価係数行列候補WTは次の数式(9)で表される。ただし数式(9)の評価係数行列候補WTは、数式(2)のようにNMFを適用して得られた教師係数行列でなく、||YL−WLHL||2を最小化する最小二乗解であるため、数式(2)のWLと完全に一致するとは限らない。
特徴抽出部216は、上記数式(9)のように、評価観測行列Y
Tから評価係数行列候補W
Tを生成することが出来る。さらに、本実施形態にかかる特徴抽出部216は、教師基底行列H
L及び評価係数行列候補W
Tに基づいて、評価観測行列Y
T(評価データ)に対する残差を算出してもよい。評価観測行列Y
Tに対する残差R
Tは、教師基底行列H
L及び評価係数行列候補W
Tを用いて次の数式(10)で表される。
本実施形態にかかる特徴抽出部216は、上記のように算出された評価観測行列YTに対する残差RTが、所定の条件を満たすか否か判定を行い、当該残差RTが所定の条件を満たす場合に、評価係数行列候補を評価係数行列として、分類部218へ出力してもよい。残差RTが満たすべき所定の条件は、例えば残差RT十分小さいことであってもよく、残差RTが所定の閾値以下であること、であってもよい。かかる所定の閾値は十分に小さい値が用いられることが望ましい。かかる構成により、評価観測行列YT(評価データ)が現在用いられている教師基底行列HLで十分正確に表すことが可能な場合には、当該教師基底行列HLを用いて生成された評価係数行列候補WTが評価係数行列WTとして分類部218へ出力される。
一方、残差RTが所定の条件を満たさない場合、例えば上述した条件の例では残差RTが所定の閾値より大きい場合、評価観測行列YTが、現在用いられている教師基底行列HLで十分正確に表すことができない恐れがある。その結果、分類部218の分類性能が低下する恐れがある。
そこで、本実施形態にかかる特徴抽出部216は、残差RTが所定の条件を満たさない場合、かかる残差RTを教師データ処理部208へ出力してもよい。その結果、上述したように教師データ処理部208が残差RTに基づいて基底ベクトルを教師基底行列へ追加し、当該教師基底行列に基づいて教師係数行列を更新する。さらに、上述したように分類モデル構築部212が、教師データ処理部208により更新された教師係数行列に基づいて、分類パラメータを更新する。
特徴抽出部216は、残差RTが所定の条件を満たさない場合、上記のようにして基底ベクトルが追加された教師基底行列に基づいて、評価係数行列を生成してもよい。かかる場合の評価係数行列は、数式(8)、数式(9)において、基底ベクトルが追加された教師基底行列をHLとし、評価係数行列をWTとすることで生成され得る。また、特徴抽出部216は、生成した評価係数行列WTを分類部218へ出力する。
かかる構成により、評価観測行列YTが現在用いられている教師基底行列HLで十分正確に表すことができない場合には、残差RTに基づいて新たに基底ベクトルを教師基底行列HLへ追加することで、分類部218の分類性能をより向上させることが可能である。
分類部218は、特徴抽出部216から出力された評価係数行列WTを、記憶部214に記憶された分類モデルパラメータに基づいて分類する。分類部218は、評価係数行列WTの分類結果を通信部220へ出力する。
分類部218は、評価係数行列WTに含まれる係数ベクトルを特徴ベクトルとし、分類モデルに応じた分類モデルパラメータに基づいた分類することが可能である。分類部218が用いる分類モデルは特に限定されないが、分類部218は、例えば多クラスSVM(Support Vector Machine)等に基づく分類モデルを用いてもよい。
以上のように、基底行列に対する重みを示す係数ベクトルを特徴ベクトルとして用いて分類することで、例えば特定周波数のパワーの大きさに基づいて分類するよりも、分類性能を向上させることが可能である。
また、評価データ自体を用いて分類処理を行った場合に比べ、評価データから生成される評価係数行列WTを用いて分類処理を行うことで、分類処理における特徴ベクトルの次元が削減され、分類処理の処理量を抑制することが可能となる。
通信部220は、分類部218による分類結果を、図1に示した集約装置3へ送信する。
<<3.動作例>>
以上、本発明の一実施形態のシステム構成、及びセンサ端末2の構成例について説明した。続いて、本実施形態の動作例について、学習段階と、分類段階に分けて順次説明する。
(学習段階の動作例)
図4は、学習段階における本実施形態にかかるセンサ端末2の動作例を示すフローチャート図である。図4に示すように、まず、センサ202が、センシングにより観測対象1にかかるセンサデータ(時系列データの一例)を収集し(S102)、AD変換部204がアナログのセンサデータをデジタルのセンサデータへ変換する(S104)。
続いて、前処理部206が、センサデータに対し、雑音を除去するためのフィルタリング処理や、計測値変換処理、周波数変換処理等の各種前処理を施す(S106)。なお、ステップS106において、各種前処理により得られた観測ベクトルは教師データ(教師観測行列)に追加されると共に、正常、あるいは異常の正解ラベルが対応付けられる。
教師データの取得が終了していない場合(S108においてNO)、処理はステップS102に戻る。なお、教師データの取得が終了したか否かの判定(S108)は、例えば不図示の操作部を介したユーザの入力等に基づいて前処理部206により行われてもよい。
教師データの取得が終了した場合(S108においてYES)、教師データ処理部208は、教師データ(教師観測行列)に基づいて、教師基底行列と教師係数行列を生成する(S110)。ここで、ステップS110の処理の流れについて、図5を参照してより詳細に説明する。
図5は、ステップS110の処理の流れを示すフローチャート図である。図5に示すように、まず、教師データ処理部208は、教師データに対してNMFを適用し、複数の基底ベクトルを生成する(S112)。ステップS112において、教師データ処理部208はNMFの次数を十分に大きな数kmaxに設定して、kmax個の基底ベクトルを生成すると共に、各基底ベクトルに対する係数ベクトルを算出する。
続くステップS114において、教師データ処理部208は、各基底ベクトルに対する係数ベクトルに基づいて、基底ベクトルごとの分類性能を示す第1の評価値I1を算出する。なお、上述したように本実施形態において第1の評価値I1は、各基底ベクトルに対する係数ベクトルを特徴量として教師データを分類した場合に交差検定を行うことで基底ベクトルごとに算出される分類精度P1であってよい。
続いて、教師データ処理部208は、ステップS112において生成された複数の基底ベクトルのうち、ステップS114で算出された第1の評価値I1が最も高い基底ベクトルH1を抽出する(S116)。
続いて、教師データ処理部208は、ステップS118で抽出された基底ベクトルH1を教師基底行列候補へ追加し、教師基底行列候補について、コスト(本実施形態では計算コスト)に対する分類性能を示す第2の評価値I2を算出する(S118)。なお、上述したように、第2の評価値I2は、例えば数式(6)のようにして算出される。
続くステップS120において、今回算出された第2の評価値I2と前回算出された第2の評価値I2とが比較される。なお、最初にステップS120が処理される場合、第2の評価値は初めて算出されるため、今回算出された第2の評価値I2は前回算出された第2の評価値I2よりも小さくないと判定されてもよい。今回算出された第2の評価値I2は前回算出された第2の評価値I2よりも小さくないと判定された場合(ステップS120においてNO)、処理はステップS122へ進む。
ステップS122において、教師データ処理部208は、今回ステップS116において抽出された基底ベクトルH1、及び当該基底ベクトルH1に対する係数ベクトルW1に基づいて、残差Rを算出する。なお、上述したように、残差Rは例えば数式(7)のようにして算出される。なお、ここで算出された残差Rは、次回ステップS122の処理が行われる際にはデータDとして用いられる。
続いて、教師データ処理部208は、ステップ122で算出された残差Rに対してNMFを適用し、複数の基底ベクトルを生成すると共に、各基底ベクトルに対する係数ベクトルを算出する(S124)。なお、ステップS122において残差Rに対して適用されるNMFの次数は、ステップS110で用いられたNMFの次数kmaxに設定されてもよい。あるいは、ステップS122が繰り返される毎に、1つ少ない次数が設定されてもよい。
そして、上述したステップS114〜S124の処理は、ステップS120において、今回算出された第2の評価値I2は前回算出された第2の評価値I2よりも小さいと判定されるまで繰り返し行われる。
今回算出された第2の評価値I2は前回算出された第2の評価値I2よりも小さいと判定された場合(ステップS120においてYES)、処理はステップS130へ進む。ステップS130において、教師データ処理部208は現在の教師基底行列候補から、最後に追加した基底ベクトルを削除して教師基底行列を生成し、当該教師基底行列に基づいて教師係数行列を生成する。なお、ステップS130において、教師係数行列は、数式(2)〜(5)を参照して説明したように生成され得る。また、ステップS130において生成された教師基底行列は、記憶部214に記憶される。
以上、図4のステップS110の処理の流れについて詳細に説明した。図4に戻って学習段階における動作の説明を続ける。続くステップS150において、分類モデル構築部212は、ステップS110で生成された教師係数行列、及び正解ラベルに基づいて、分類モデルパラメータを生成する。
以上、学習段階における本実施形態の動作例を説明した。続いて、分類段階における本実施形態の動作例について説明する。
(分類段階の動作例)
図6は、分類段階における本実施形態の動作例を示すフローチャート図である。図6に示すように、まず、センサ端末2のセンサ202が、センシングにより観測対象1にかかるセンサデータ(時系列データの一例)を収集し(S202)、センサ端末2のAD変換部204がアナログのセンサデータをデジタルのセンサデータへ変換する(S204)。
続いて、センサ端末2の前処理部206が、センサデータに対し、雑音を除去するためのフィルタリング処理や、計測値変換処理、周波数変換処理等の各種前処理を施す(S206)。なお、ステップS206において、各種前処理により得られた観測ベクトルは評価データ(評価観測行列)に追加される。
なお、分類段階において、評価データ(評価観測行列)に含まれる観測ベクトルは1つでもよいし、複数であってもよい。評価データに複数の観測ベクトルが含まれる場合、上記のステップS202〜S206が繰り返されてもよい。
続いて、センサ端末2は教師基底行列に基づいて、評価データから評価係数行列を生成する(S210)。ここで、ステップS110の処理の流れについて、図7を参照してより詳細に説明する。
図7は、ステップS210の処理の流れを示すフローチャート図である。図7に示すように、まず、特徴抽出部216が、記憶部214に記憶された教師基底行列に基づいて評価データ(評価観測行列)から評価係数行列候補を生成する(S212)。
続いて、特徴抽出部216は、教師基底行列、及びステップS212で生成された評価係数行列候補に基づいて、評価データ(評価観測行列)に対する残差RTを算出する(S212)。なお、上述したように、残差RTは例えば数式(10)のようにして算出される。
続いて、特徴抽出部216は、ステップS216で算出された残差RTを所定の閾値と比較する(S216)。残差RTが所定の閾値以下である場合(S216においてNO)、特徴抽出部216は、評価データが現在用いられている教師基底行列で十分正確に表すことが可能であると判断し、評価係数行列候補を評価係数行列として分類部218へ出力する。
一方、残差RTが所定の閾値より大きい場合(S216においてYES)、特徴抽出部216は評価データが現在用いられている教師基底行列で十分正確に表すことが出来ないと判断し、残差RTを教師データ処理部208へ出力する。そして、教師データ処理部208は、特徴抽出部216から出力された残差RTに対してNMFを適用して得られた基底ベクトルを教師基底行列へ追加する(S230)。なお、記憶部214に記憶されていた教師基底行列は、ステップS230で基底ベクトルが新たに追加された教師基底行列により更新される。
さらに、教師データ処理部208は、ステップS230で基底ベクトルが新たに追加された教師基底行列と教師データとに基づいて教師係数行列を生成(更新)する(S232)。そして、分類モデル構築部212が、ステップS232で更新された教師係数行列に基づいて分類モデルパラメータを生成する(S234)。なお、記憶部214に記憶されていた分類モデルパラメータは、ステップS234で生成された分類モデルパラメータにより更新される。
続いて、特徴抽出部216は、ステップS230で基底ベクトルが新たに追加された教師基底行列に基づいて、評価データから評価係数行列を生成する(S236)。
以上、図6のステップS210の処理の流れについて詳細に説明した。図6に戻って分類段階における動作の説明を続ける。続くステップS250において、センサ端末2の分類部218は、記憶部214に記憶された分類モデルパラメータに基づいて、ステップS210で生成された評価係数行列を分類する。
続いて、センサ端末2の通信部220が、ステップS250で得られた評価係数行列の分類結果を集約装置3へ送信する(S252)。なお、ステップS202〜S252の処理は、本実施形態にかかる情報処理システム9に含まれる複数のセンサ端末2の各々により並列的に行われてよい
そして、集約装置3の通信部32が、各センサ端末2から分類結果を受信し(S254)、集約装置3の集約部34が、ステップS254で受信された複数の分類結果に基づく集約処理を行い、最終的な分類結果を特定する(S256)。そして、集約装置3の出力部36が、ステップS256で特定された最終的な分類結果を出力する(S258)。
<<4.変形例>>
以上、本発明の一実施形態について説明した。以下では、上記実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で上記実施形態に適用されてもよいし、組み合わせで上記実施形態に適用されてもよい。また、各変形例は、上記実施形態で説明した構成に代えて適用されてもよいし、上記実施形態で説明した構成に対して追加的に適用されてもよい。
<4−1.変形例1>
上記実施形態では、正常と異常の2種類のクラス(稼働状態)のうちいずれかの正解ラベルが対応付けられたデータ(観測ベクトル)を含む教師データ(教師観測行列)を用いて、学習を行う例を説明したが、本発明はかかる例に限定されない。例えば、教師データに含まれる全てのデータに、同一種別の正解ラベルが対応付けられていてもよい。
例えば、観察対象によっては、正常状態におけるセンサデータと異常状態におけるセンサデータの両方を用意することが困難な場合もある。特に、異常状態におけるセンサデータを用意するためには、観察対象を異常状態で稼働させる必要があるため、異常状態の発生があまり頻繁ではない観察対象において、異常状態におけるセンサデータを用意することは困難である。一方、正常状態におけるセンサデータのみを用意することは、例えば観察対象が問題なく正常に稼働している状態でセンシングを行ってセンサデータを収集することで実現可能であり、正常状態におけるセンサデータと異常状態におけるセンサデータの両方を用意することと比較すると容易である。そこで、以下では、教師データに含まれる全てのデータに、正常という同一種別の正解ラベルが対応付けられた場合について、変形例1として説明を行う。なお、かかる変形例は、上記実施形態で説明した各部の機能構成が一部異なるのみであるため、以下では、上記実施形態との相違点のみを説明する。
本変形例にかかる前処理部206は、含まれる全てのデータ(観測ベクトル)に正常という同一種別の正解ラベルが対応付けられた教師データを教師データ処理部208へ出力する点において、上記実施形態で説明した前処理部206と相違する。
また、本変形例にかかる教師データ処理部208は、第1の評価値I1、及び第2の評価値I2の算出方法が、上記実施形態で説明した教師データ処理部208と相違する。本変形例では、教師データに含まれる全てのデータ(観測ベクトル)に正常という同一種別の正解ラベルが対応付けられている。そのため、上記実施形態で第1の評価値I1、及び第2の評価値I2の算出において、分類性能を示す性能情報として用いられた分類精度P1、P2を算出することが出来ない。
そこで、本変形例にかかる教師データ処理部208は、基底ベクトルに対する係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和に基づく情報を性能情報として用いて、第1の評価値I1、及び第2の評価値I2を算出してもよい。
まず、本変形例にかかる教師データ処理部208は、各基底ベクトルに対する係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和M1に基づいて、基底ベクトル性能情報である第1の評価値I1を算出してもよい。マハラノビス距離の総和M1は、係数ベクトルに含まれる各係数をサンプルとしたとき、各サンプルについて、サンプル全体のうち1つのサンプルの残りのサンプルに対するマハラノビス距離を求め、得られたマハラノビス距離の総和とることで算出することが出来る。
ここで、マハラノビス距離の総和M1は、正常というクラス内のばらつきを示し、マハラノビス距離の総和M1が小さい程、当該ばらつきが小さく、他のクラスとの分類を行う際に分類性能が向上する可能性が高いことを示す。そこで、本変形例にかかる教師データ処理部208は、マハラノビス距離の総和M1を用いて、基底ベクトル性能情報である第1の評価値I1を以下の数式(11)のように算出してもよい。
また、本変形例にかかる教師データ処理部208は、教師基底行列候補に含まれる複数の基底ベクトルに対する複数の係数ベクトルに含まれる各係数をサンプルとして算出されるマハラノビス距離の総和M2を、基底行列性能情報として用いてよい。
そして、本変形例にかかる教師データ処理部208は、基底行列性能情報であるマハラノビス距離の総和M2、及び上記実施形態で説明した計算コストC2を用いて、第2の評価値I2を以下の数式(12)のように算出してもよい。
数式(12)のように表される第2の評価値I2は、マハラノビス距離の総和M2が小さい程大きく、また、計算量が小さい程大きくなる。また、マハラノビス距離の総和M2は、正常というクラス内のばらつきを示し、マハラノビス距離の総和M2が小さい程、当該ばらつきが小さく、他のクラスとの分類を行う際に分類性能が向上する可能性が高いことを示す。したがって、例えば、本変形例にかかる教師データ処理部208は、上記実施形態で説明した例と同様に、第2の評価値I2がより大きくなるような教師基底行列候補を教師基底行列としてもよい。
本変形例にかかる分類モデル構築部212、及び分類部218は、分類部218が用いる分類モデルが上記実施形態と相違する点で上記実施形態にかかる分類モデル構築部212、及び分類部218と相違してもよい。例えば、本変形例にかかる分類部218は、1クラスSVMに基づく分類モデルを用いてもよく、分類モデル構築部212は、当該分類モデルに応じた分類モデルパラメータを生成してもよい。また、分類部218による分類結果は、正常・異常の分類結果でなく、異常度を示す分類スコアであってもよい。
以上、説明したように、本変形例によれば、正常状態におけるセンサデータのみしか用意することが出来ない場合であっても、学習、及び分類を行うことが可能である。
<4−2.変形例2>
上記実施形態では、センサ端末2が分類を行う例を説明したが、本発明はかかる例に限定されない。例えば、上述した分類部218の機能が、センサ端末2ではなく図1に示した集約装置3に備えられてもよい。かかる例について、変形例2として説明する。
本変形例にかかる通信部220は、特徴抽出部216により生成された評価係数行列を、集約装置3へ送信する。そして、集約装置3において、センサ端末2から受信した評価係数行列に基づく分類処理が行われた後、集約処理が行われて、最終的な分類結果が出力される。
したがって、本変形例においては、評価係数行列に含まれる係数ベクトルの数が大きい程、計算コストのみならずセンサ端末2から集約装置3への通信コストも増大する。ここで、評価係数行列に含まれる係数ベクトルの数は、教師基底行列に含まれる基底ベクトルの数に応じて増大する。
上記実施形態では、コスト情報として、計算コストC2が用いられたが、本変形例において、C2は、計算コストだけでなく通信コストをも示すコスト情報として用いられ得る。ただし、C2の算出方法は上述した実施形態と同様であってよいため、本変形例にかかる教師データ処理部208の機能は上記実施形態にかかる教師データ処理部208と同様であってよい。
本変形例によれば、センサ端末2から集約装置3のような外部のサーバへ評価係数行列が送信されて、分類処理が行われる場合に、分類性能を高く維持しながら、計算コストのみならず、通信コストをも抑制することが可能である。通信コストを抑制することで、センサ端末2の消費電力が抑制され、センサ端末2がバッテリ駆動の場合にはバッテリ寿命が向上し、システムをより長期間可動させることが可能となる。また、通信コストを抑制することで、低帯域な無線リンクであっても、サンプリング周波数が高いセンサデータにかかる評価係数行列を送信することが可能となる。
<<5.ハードウェア構成>>
以上、本発明の各実施形態を説明した。上述した前処理、教師データ処理、分類モデル構築処理、特徴抽出処理、分類処理、集約処理等の情報処理は、ソフトウェアとセンサ端末2、集約装置3のハードウェアとの協働により実現される。以下では、本発明の実施形態にかかる情報処理装置であるセンサ端末2、集約装置3のハードウェア構成例として、情報処理装置1000のハードウェア構成について説明する。
図8は、本発明の実施形態にかかる情報処理装置1000のハードウェア構成を示す説明図である。図8に示したように、情報処理装置1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1002と、RAM(Random Access Memory)1003と、入力装置1004と、出力装置1005と、ストレージ装置1006と、通信装置1007とを備える。
CPU1001は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータなどを記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。主に、CPU1001、ROM1002及びRAM1003とソフトウェアとの協働により、例えば、前処理部206、教師データ処理部208、分類モデル構築部212、特徴抽出部216、分類部218、集約部34の機能が実現される。
入力装置1004は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などから構成されている。情報処理装置1000のユーザは、該入力装置1004を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置1005は、例えば、液晶ディスプレイ(LCD)装置、OLED装置及びランプなどの表示装置を含む。さらに、出力装置1005は、スピーカ及びヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。なお、出力装置1005は、出力部36に対応する。
ストレージ装置1006は、データ格納用の装置である。ストレージ装置1006は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置1006は、CPU1001が実行するプログラムや各種データを格納する。なお、ストレージ装置1006は、記憶部214に対応する。
通信装置1007は、例えば、通信網に接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置1007は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでもよい。なお、通信装置1007は、通信部220、通信部32に対応する。
<<6.むすび>>
以上説明したように、本発明の実施形態によれば、分類性能の向上とコストの抑制を両立することが可能である。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、各センサ端末2の分類結果が集約装置3に送信されて集約されて出力される例を説明したが、本発明はかかる例に限定されない。例えば、各センサ端末2がそれぞれ表示部等の出力部を有し、各センサ端末2の分類結果が各センサ端末2が有する出力部から出力されてもよい。かかる構成は、複数のセンサ端末2の分類結果を総合的に判断する必要がなく、個別に各センサ端末2の分類結果を確認したい場合に、有効である。
また、本明細書では、観測対象として、工場の設備や装置、製品等を例に挙げたが、本発明はかかる例に限定されない。例えば、上述した実施形態は、オフィスのプリンタ、店舗のATM等の機械的な機構を持つ一般的な機器を観測対象として、適用することも可能である。
また、上記実施形態では、時系列データとして、センサデータとして、振動データや音響データなどを例に挙げたが、かかる例に限定されない。例えば、センサデータが画像データである場合には、画像認識を用いた稼働状態検知に上述した実施形態を適用することが可能である。
また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、上記実施形態によれば、CPU1001、ROM1002、及びRAM1003などのハードウェアを、上述したセンサ端末2、集約装置3の各構成と同様の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。