JP2016200971A - 学習装置、識別装置、学習方法、識別方法及びプログラム - Google Patents
学習装置、識別装置、学習方法、識別方法及びプログラム Download PDFInfo
- Publication number
- JP2016200971A JP2016200971A JP2015080451A JP2015080451A JP2016200971A JP 2016200971 A JP2016200971 A JP 2016200971A JP 2015080451 A JP2015080451 A JP 2015080451A JP 2015080451 A JP2015080451 A JP 2015080451A JP 2016200971 A JP2016200971 A JP 2016200971A
- Authority
- JP
- Japan
- Prior art keywords
- model
- learning
- complexity
- normal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】時系列データを複数のクラスに識別するのに適したモデルの学習を行えるようにする。
【解決手段】定対象の時系列データを複数のクラスに識別するためのモデルを学習する学習装置20であって、学習用の時系列データから特徴量を抽出する抽出部12と、前記特徴量を用いてモデルを学習する学習部21と、前記モデルの複雑度に基づいて、前記モデルを学習する際のモデルの粒度を変更する変更部23と、を有する。学習部は、変更部により変更された粒度により前記モデルを再度学習する。
【選択図】図1
【解決手段】定対象の時系列データを複数のクラスに識別するためのモデルを学習する学習装置20であって、学習用の時系列データから特徴量を抽出する抽出部12と、前記特徴量を用いてモデルを学習する学習部21と、前記モデルの複雑度に基づいて、前記モデルを学習する際のモデルの粒度を変更する変更部23と、を有する。学習部は、変更部により変更された粒度により前記モデルを再度学習する。
【選択図】図1
Description
本発明は、時系列データに基づいて複数クラスに識別するモデルを学習し、学習されたモデルに基づいて対象の時系列データを識別する技術に関する。
従来から、センサが取得したデータが異常であるか否かを判定する異常検知処理に関する様々な技術が知られている。その手法の1つとして、正常時に収集された正常データがとりうる正常の範囲を示す正常モデルを学習し、判定対象のデータが正常モデルの範囲内にある場合は正常と判定し、範囲外にある場合は異常と判定するものがある。
非特許文献1に記載された方法では、まず、映像データのフレームを格子状に分割し、あらかじめ領域ごとに正常モデルを学習する。そして、判定対象となる映像データの各フレームを学習時と同様に格子状に分割し、分割された各領域から求めたデータが異常であるか否かを判定する。
H. Hachiya,M. Matsugu. NSH: Normality Sensitive Hashing for Anomaly Detection. Computer Vision Workshops (ICCVW),2013 IEEE International Conference on,pages 795−802,2013.
J. Li,S. Gong,T. Xiang. Scene Segmentation for Behaviour Correlation. In Proceedings of European Conference on Computer Vision (ECCV), Marseille,France,2008.
J. Pers,et al., Histograms of optical flow for efficient representation of body motion,Pattern Recognition Letters,vol. 31, no. 11,pages 1369−1376,2010
D. G. Lowe,Object recognition from local scale−invariant features,In proceedings of international conference on computer vision (ICCV),pages 1150−1157,1999
D. A. Reynolds. Robust text−independent speaker identification using Gaussian mixture speaker models,Speech and Audio Processing,IEEE Transactions on,vol.3,issue 1,pages 72−83,1995
H. Akaike. Information theory and an extension of the maximum likelihood principle. In B. N. Petrov & B. F. Csaki (Eds.),Second International Symposium on Information Theory,pages 267−281,Academiai Kiado: Budapest,1973.
L. Breiman,Random Forests,Machine Learning,vol. 45, issue 1,pages 5−32,2001.
Mahalanobis,Prasanta Chandra,On the generalised distance in statistics,Proceedings of the National Institute of Sciences (Calcutta) 2,pages 49−55,1936.
しかしながら、非特許文献1に記載の方法では、映像データのフレームを単に格子状に分割しているだけであったので、異常と正常の判定に適した正常モデルが学習される領域に分割されているとは限らなかった。
以上の課題を解決するために、本発明は、判定対象の時系列データを複数のクラスに識別するためのモデルを学習する学習装置であって、学習用の時系列データから特徴量を抽出する抽出部と、前記特徴量を用いてモデルを学習する学習部と、前記モデルの複雑度に基づいて、前記モデルを学習する際の該モデルの粒度を変更する変更部と、を有し、前記学習部は、前記変更部により変更された粒度により前記モデルを再度学習することを特徴とする。
以上の構成によれば、本発明は、時系列データを複数のクラスに識別するのに適したモデルを学習することが可能となる。
[第1の実施形態]
本実施形態は、より単純な正常モデルが学習されるように、正常モデルの粒度を変更するものである。本実施形態において、正常モデルの粒度とは、同一の正常モデルを学習する領域の範囲に相当する。つまり、本実施形態では、各正常モデルの複雑度が低くなるように、正常モデルを学習する領域範囲を決定して、各領域範囲で異なる正常モデルを学習する。
本実施形態は、より単純な正常モデルが学習されるように、正常モデルの粒度を変更するものである。本実施形態において、正常モデルの粒度とは、同一の正常モデルを学習する領域の範囲に相当する。つまり、本実施形態では、各正常モデルの複雑度が低くなるように、正常モデルを学習する領域範囲を決定して、各領域範囲で異なる正常モデルを学習する。
以下、図面を参照して本発明の実施形態を詳細に説明する。図1は、本実施形態に係る異常検知システムの構成を示す概略ブロック図である。異常検知システム1は、学習用データ取得装置10と、学習装置20と、判定用データ取得装置30と、識別装置40と、端末装置50と、モデル記憶部M1とで構成されている。なお、これらの装置間は、電子回路を介して接続されていても、ネットワークを介して接続されていてもよい。このネットワークには、例えば、携帯電話回線網やインターネットが適用できる。
異常検知システム1の各装置は、CPU、ROM、RAM、HDD等のハードウェア構成を備える。そして、CPUがROMやHD等に格納されたプログラムを実行することにより、例えば、後述する学習装置20及び識別装置40の機能構成やこれら装置に係るフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。HDは、CPUが処理を実行する際に要する各種のプログラム、閾値に関するデータ等を含む各種のデータを格納する記憶領域を有する。
本実施形態で説明する異常検知システム1の動作は、学習フェーズと、識別フェーズとに分けることができる。学習フェーズでは、監視対象の正常な状態をカメラなどの撮影手段で取得した映像データ(時系列データ)を学習用の正常データとし、この正常データから得られる特徴量の分布を正常なモデルとして学習する。本実施形態では、映像データのフレームに対して領域ごとに異なる正常モデルが学習される。
識別フェーズでは、監視対象をカメラなどの撮影手段で取得した映像データを判定対象データとし、この判定対象データから得られた特徴量を、学習した正常モデルを用いて正常クラス又は異常クラスに識別する。異常がある場合は、警備室等の監視センタに常駐する監視者に警報する。この監視対象には、例えば、一般家庭の屋内及び屋外、又は病院、駅などの公共施設にいる人物や、生産ラインで製造された製品や、設備機器などが含まれる。
次に、学習用データ取得装置10の構成について詳細に説明する。学習用データ取得装置10は、学習用データ取得部11と、学習用特徴量抽出部12とを備えている。学習用データ取得部11は、正常な学習用映像データを取得し、取得した映像データを学習用特徴量抽出部12に転送する。学習用特徴量抽出部12は、学習用データ取得部11から受け取った映像データから特徴量を抽出する。ここで、特徴量を抽出する方式としては種々の方式を採用することができ、例えばオプティカルフローを用いることで動き特徴量を抽出するようにしてもよい。オプティカルフローを抽出するためのアルゴリズムについても種々の方法を用いることができ、例えば非特許文献3で提案されている方式を用いることができる。
なお、学習用特徴量抽出部12が複数の特徴量を同時に抽出するようにしてもよい。オプティカルフロー以外の画像特徴量を用いる場合は、例えば非特許文献4で提案されている特徴量を用いることができる。学習用特徴量抽出部12によって抽出された特徴量の情報は、学習装置20に送られる。
次に、学習装置20の構成について詳細に説明する。学習装置20は、モデル学習部21と、モデル複雑度決定部22と、領域範囲変更部23とを備えている。図2は、本実施形態に関わる学習装置20の動作を示すフローチャートである。以下、図2を用いて、学習装置20の各機能部の構成を説明する。
ステップS101において、モデル学習部21は、学習用特徴量抽出部12によって抽出された特徴量を受け取る。ここで受け取った特徴量に基づいて映像データのフレーム全体を一つの領域として正常モデルを学習する。
本実施形態において、正常モデルを学習する方法は特定の方法に限定されるものではなく、例えば非特許文献5で提案されている混合正規分布モデルクラスタリング(以降、GMMクラスタリングと呼ぶ)を用いることができる。GMMクラスタリングは、特徴空間上の特徴量の分布に近似するように混合正規分布を当てはめ、正常モデルを学習することが可能である。以降では、GMMクラスタリングを用いて正常モデルを学習した場合、一度のGMMクラスタリングで用いた混合正規分布を指して正常モデルと呼ぶ。なお、GMMクラスタリングにおいて単独の正規分布を用いた場合は、混合数を1とするGMMであり、同様に該正規分布を正常モデルと呼ぶ。なお、上記の説明のように正常モデルを学習するのではなく、あらかじめ用意した正常モデルを選択して用いてもよい。例えば、異なる平均値と分散が定義された正規分布を複数用意しておき、GMMクラスタリングで用いることができる。モデル学習部21は、本ステップで取得した正常モデルをモデル複雑度決定部22に転送する。
ステップS102において、モデル複雑度決定部22はモデル学習部21から正常モデルを受け取り、正常モデル複雑度を決定する。ここで、正常モデル複雑度は正常モデルがどの程度複雑であるかを示す指標である。正常モデルの複雑度を測る方法は大きく分けて二つあり、モデル学習部21で取得した正常モデルのパラメータに基づいて複雑度を決定する方法と、特徴空間上に配置された正常モデルの複雑度を決定する方法とがある。上記の二つの方法はアプローチが異なるが、正常モデルの複雑度を測るという点で目的を同じくする。
以下、正常モデルの複雑度を決定する、上記の二つの方法について詳細に説明する。まず、モデル学習部21で取得した正常モデルのパラメータに基づいて複雑度を決定する方法について説明する。この方法は、正常モデルが複雑度に相当するパラメータを持っている場合に限り適用可能である。例えば、モデル学習部21でGMMクラスタリングを用いて正常モデルを学習している場合には、正規分布の混合数を複雑度として用いることができる。この場合には、正常な特徴量の分布に対して正常モデルが十分精度良く近似するように、適切な混合数が選ばれていることが望ましい。例えば、特徴空間上で特徴量が多峰状に分布している場合に、GMMクラスタリングの混合数が1であるのは適切ではないと考えられる。適切な混合数を決定する方法としては、例えば非特許文献6で提案されている赤池情報量を基準として最適な混合数を選べば良い。
次に、特徴空間上に配置された正常モデルの複雑度を取得する方法について説明する。この方法は、正常モデルを学習する手法が複雑度に相当するパラメータを持っていない場合に適用することができる。例えば、単一のOne ClassカーネルSupport Vector Machine識別器(SVM)によって正常モデルを学習する場合、SVMのパラメータからでは正常モデルの複雑度を得ることは困難である。このような場合には、まず特徴空間上での正常モデルの形を抽出し、ここで得られた正常モデルの形を再現するような複雑度評価用正常モデルを学習する。複雑度評価用正常モデルは、その正常モデルが複雑度に相当するパラメータを持っている手法、例えばGMMクラスタリングなどを用いて学習することができる。
具体的には、まず、特徴空間上で正常モデルの複雑度を評価するために、正常モデルの形を抽出する。正常モデルの形は、特徴空間上に散布されたサンプル点に対する、該正常モデルの識別結果によって表わされる。図3に、特徴空間上に散布されたサンプル点と正常モデルの識別平面の模式図を示す。図3には、特徴次元51および52によって構成された特徴空間上に正常モデル53とサンプル点54および55とが示されている。サンプル点54および55は、正常モデル53を学習する際に用いた正常な特徴量の点である必要はなく、ランダムに散布された点であってもよい。ここで、正常モデル53の内側にある丸で示されたサンプル点は、正常サンプル点54を示している。また、正常モデル53の外側にあるバツで示されたサンプル点は、異常サンプル点55を示している。このうち、正常サンプル点54が特徴空間51および52における正常モデル53の形を表している。すなわち、正常サンプル点54の複雑度を評価することで、近似的に正常モデル53の複雑度を測ることが可能になる。なお、サンプル点はランダムではなく特徴空間上に等間隔に配置してもよい。
次に、正常モデルのパラメータに基づいて複雑度を決定することが可能な手法を用いて、正常サンプル点54を用いた複雑度評価用正常モデル(評価モデル)の学習を行う。ここで複雑度評価用正常モデルは、正常サンプル点54の複雑度を決定するためだけに用いられる。複雑度評価用正常モデルを学習する手法としては、例えばGMMクラスタリングを用いることができる。GMMクラスタリングを用いた正常モデルの学習については、前述したモデル学習部21における処理と同じであるため、ここでは説明を省略する。
なお、複雑度評価用正常モデルの学習には、正常サンプル点54だけでなく、異常サンプル点55を用いても良い。正常サンプル点54および異常サンプル点55を用いて複雑度評価用正常モデルを学習する場合、例えば非特許文献7のランダムフォレストを用いることができる。図4は、図3の正常モデル53を非表示にした特徴空間を示す。ここでは、図4に示される正常サンプル点54および異常サンプル点55を用いて、ランダムフォレストの学習を行う。ここで、ツリーの分岐条件として、例えば分割した際に最も情報量が増大する分岐を選ぶことができる。ここで学習したランダムフォレストの深さが、正常モデルの複雑度に対応する。具体的には、深さを算出するために、ランダムフォレストを構成する学習済みツリーの深さの平均や最大値などの統計量を用いることができる。
図5は、図4に示されたサンプル点を用いて学習したランダムフォレストのうち、あるツリーの特徴空間上での識別平面の模式図である。そして、図5の(a)、(b)、(c)、(d)、および(e)は、ツリーの学習のステップを示している。ここで用いるツリーは2分木であり、ランダムに選んだ特徴次元において、サンプル点を最もよく分類するように特徴空間上で識別平面が学習される。ここで、識別平面はツリーの分岐に対応している。分岐が深くなることで、ある分岐の識別平面によって分けられた特徴空間が、さらに別の識別平面によって分けられる。図5は2次元の特徴空間を示しており、ツリーの分岐が学習されることで、1つの次元に識別平面が学習される。
以下、ツリーの学習の流れを説明する。2分木の分岐によって特徴空間上での学習処理は2つに枝分かれするが、ここでは簡単のために分岐のうち一方のみを説明する。図5において、(a)から(b)の学習ステップでは、特徴次元51が選ばれ、識別平面56が学習される。次に、(b)から(c)の学習ステップでは、識別平面56で分割された特徴次元52が選ばれ、識別平面57が学習される。同様に、(c)から(d)の学習ステップでは、識別平面58が学習され、また(d)から(e)の学習ステップでは、識別平面59が学習される。分岐の学習を停止するか否かの停止条件としては、例えば識別平面を学習することで情報量の増加が閾値よりも低いか否かを条件とすることができる。ここで、図5の識別平面59の分岐の深さは4となっており、例えば図5のツリーの深さを用いて複雑度の決定を行う場合、複雑度は4になる。
図2に戻り、ステップS103において、モデル複雑度決定部22は、上記のように決定した正常モデルの複雑度に対して予め定められた閾値を用いることで、この正常モデルが複雑であるか否かを判定する。ここで、正常モデルの複雑度が所定の閾値以下であれば、これ以上、正常モデルの粒度を変更する必要がないと判断する。また、前回のステップS103との比較で、正常モデルの複雑度が低下していないなど、正常モデルの複雑度の低下が閾値未満の場合には、これ以上、正常モデルの粒度を変更する必要がないと判断する。
ステップS104において、モデル複雑度決定部22は、正常モデルの粒度が、予め設定されている最小粒度であるか否かについて判定する。正常モデルの粒度は映像データのフレームに関する領域範囲に対応するため、原理的な最小の粒度は1画素である。そのため、1画素以上の領域範囲を最小粒度として予め設定しておくことができる。
ステップS105において、学習装置20のCPUは、ステップS103において複雑度が閾値以下の場合、または、ステップS104において正常モデルの粒度が最小粒度以下である場合には、終了条件を満たすと判定する。一方、複雑度が閾値より大きく、かつ正常モデルの粒度が最小粒度より大きい場合、終了条件を満たさないと判定する。なお、例外として、モデルの粒度を変更することで複雑度が増加する場合もあり、この場合には、モデルの粒度を変更しないようにするために、終了条件を満たすものと判定する。
ステップS105において終了条件を満たさないと判定された場合、ステップS106において、領域範囲変更部23は、正常モデルの粒度を変更するために領域範囲を変更する。図6に、正常モデルを学習する領域範囲の例を示す。図6(a)、(b)、および(c)は、ステップS106で領域範囲変更部23により領域範囲が変更されていく繰り返し処理の例を示している。正常モデル粒度である領域範囲62は、最初、図6(a)に示されるように映像データのフレーム61全体が指定されており、受け取った特徴量はすべて同一の正常モデルとして学習される。そして、本実施形態では、一回目のステップS106で図6(a)から(b)に領域範囲が変更され、フレーム全体に相当する領域範囲62が領域範囲区切り線63および64とで4分割される。また、図6の(b)から(c)への領域範囲変更の例では、図2の二巡目の処理によって4分割された各領域範囲で正常モデルが学習された際、右上の領域範囲65のみが終了条件を満たさないと判定されている。つまり、二回目のステップS106では、終了条件を満たさないと判定された領域範囲65が、図6の(b)から(c)のように、領域範囲区切り線66および67で更に4分割される。
次に、ステップS101に戻り、モデル学習部21は、ステップS105の領域分割によって新たに生成された領域範囲において、正常モデルを再度学習する。上記説明では、二巡目の処理フローでは4分割された各領域範囲で正常モデルを学習し、三巡目の処理フローでは領域範囲65を4分割して生成した4つの領域範囲で正常モデルを学習する。例えば、GMMクラスタリングを用いて正常モデルを学習する場合、図6の領域範囲区切り線63および64によって区切られている4領域を、それぞれ独立に学習する。正常モデルの学習では、領域それぞれに含まれる特徴量に対してGMMクラスタリングを行う。これによって、領域ごとに正常モデルが学習される。
ステップS105において、全ての領域範囲で終了条件を満たすと判断されるまで、上記のようにモデル学習部21、モデル複雑度決定部22、及び領域範囲変更部23の処理が繰り返し行われる。そして、ステップS105において全ての領域範囲が終了条件を満たしたと判断された場合、ステップS107において、モデル複雑度決定部22はモデル記憶部M1に正常モデルを転送する。また、モデル記憶部M1は、受け取った正常モデルを保存する。ここで保存される正常モデルは、図2のステップS106により決定された領域範囲ごとに学習された各正常モデルである。
再び図1を参照して、判定用データ取得装置30の詳細な構成について説明する。判定用データ取得装置30は、判定用データ取得部31と判定用特徴量抽出部32とを備えている。判定用データ取得部31は、判定対象の映像データを取得し、取得した映像データを判定用特徴量抽出部32に転送する。ここでは説明の簡略化のために、転送する映像データを取得した全映像データとするが、必ずしも全映像データを送信する必要はなく、例えばリアルタイムに取得した最新の映像を数フレームごとに転送してもよい。本実施形態では、判定用データ取得部31が取得した映像データを判定用特徴量抽出部32に転送するたびに、識別装置40が後述する図7のフローチャートの処理を行うことで、リアルタイムに異常を検知することが可能である。
判定用特徴量抽出部32は、判定用データ取得部31から受け取った映像データから判定用特徴量を抽出する。ここで、特徴量を抽出する方式は、学習用特徴量抽出部12と同様の方式を用いる。例えば、学習用特徴量抽出部12において映像データからオプティカルフローを抽出する場合は、判定用特徴量抽出部32においても、同様にオプティカルフローを抽出する。本実施形態では、判定対象となる全映像データから特徴量を一括に抽出する。ここで抽出される各特徴量は、映像データのフレーム上での位置と対応付けられており、フレーム上の位置に関する情報も有している。判定用特徴量抽出部32によって抽出された特徴量の情報は、識別装置40の識別部41に送られる。
次に、識別装置40の構成について説明する。識別装置40は、識別部41と識別結果出力部42とを備えている。図7は、本実施形態に関わる識別装置40の動作を示すフローチャートである。以下、図7に示すフローチャートを参照しつつ、識別装置40の各機能部の詳細について説明する。
ステップT101において、識別部41は判定用特徴量抽出部32から受け取った特徴量を判定対象データとして取得する。次に、ステップT102において、識別部41はモデル記憶部M1に存在するすべての正常モデルの取得を行う。ここで、取得される正常モデルは、図2のステップS106により決定された領域範囲ごとに学習された正常モデルである。続いて、ステップT103において、識別部41は判定対象データの位置情報と正常モデルの領域範囲とを照合し、判定対象データの位置情報を含む領域範囲で学習した正常モデルを取得する。
次に、ステップT104では、識別部41が、判定対象データと該判定対象データの位置に対応する正常モデルとを用いて、該判定対象データの異常スコアを算出する。本実施形態において、異常スコアの算出方法は特定の方法に限定されるものではない。例えば正常モデルの学習にGMMを用いる場合、非特許文献8で示されるマハラノビス距離を用いてクラスタ中心と判定対象データとの距離を測ることにより、異常スコアを算出することができる。
次に、ステップT105において、識別部41は、算出された各異常スコアに基づいて判定対象データが正常であるか異常であるかを判定する。さらに、識別部41は、すべての判定対象データの識別結果を識別結果出力部42に転送する。
ステップT106において、識別結果出力部42は、判定結果が異常であった場合、異常である旨を通知するための表示情報の生成を行う。また、正常であった場合には、正常である旨を通知するための表示情報の生成を行う。
ステップT107において、識別結果出力部42は、端末装置50に対して表示情報(識別結果)の出力を行う。そして、端末装置50は、識別結果出力部42から受け取った表示情報を出力する。
以上説明したように、本実施形態の学習装置20は、場所ごとに異なる正常モデルを学習する際に、正常モデルの複雑度をもとに領域範囲を変更して、正常モデルを学習する。これによって、正常モデルの複雑度がより低減されるように正常モデルが学習され、精度良く異常判定を行うことが可能になる。
[第2の実施形態]
次に、本発明の第2の実施形態について説明を行う。前述の第1の実施形態では、場所ごとに異なる正常モデルを学習するのに対して、本実施形態は、時間ごとに異なる正常モデルを学習するものである。つまり、第1の実施形態では、正常モデルの粒度が同一の正常モデルを学習する領域範囲に相当していたのに対して、本実施形態の正常モデルの粒度は同一モデルを学習する時間範囲に相当することになる。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
次に、本発明の第2の実施形態について説明を行う。前述の第1の実施形態では、場所ごとに異なる正常モデルを学習するのに対して、本実施形態は、時間ごとに異なる正常モデルを学習するものである。つまり、第1の実施形態では、正常モデルの粒度が同一の正常モデルを学習する領域範囲に相当していたのに対して、本実施形態の正常モデルの粒度は同一モデルを学習する時間範囲に相当することになる。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
図8は、本実施形態に係る異常検知システムの構成を示す概略ブロック図である。本実施形態の異常検知システム1も、第1の実施形態と同様に、学習用データ取得装置10、学習装置20、判定用データ取得装置30、識別装置40、端末装置50、及びモデル記憶部M1により構成されている。
学習用データ取得装置10は、学習用データ取得部11と学習用特徴量抽出部12とを備える。本実施形態において、学習用データ取得部11は、正常な映像データを取得する際に撮像時の時間情報も取得し、映像データと紐づける。なお、時間情報とは、例えば時刻、朝や昼や夕方などの時間帯、日付、曜日、月、および季節などの情報である。また、学習用特徴量抽出部12は、映像データから特徴量を抽出する際、抽出された特徴量に、映像データに紐づけられた時間情報を付与する。
本実施形態の学習装置20は、モデル学習部21と、モデル複雑度決定部22と、時間範囲変更部23aとを備える。時間範囲変更部23aは、モデル複雑度決定部22から得られた正常モデルの複雑度が予め決められた閾値よりも高ければ、モデル粒度の変更を行う。モデル粒度を変更するにあたっては、同一の正常モデルを学習する時間の範囲を変更する。
モデル記憶部M1は、モデル複雑度決定部22から転送された正常モデルを記憶する。本実施形態において、正常モデルは時間範囲の情報を有する。ここで保存される正常モデルは、時間範囲ごとに学習された正常モデルである。
判定用データ取得装置30は、判定用データ取得部31と判定用特徴量抽出部32とを備える。本実施形態の判定用データ取得部31は、判定対象の映像データを取得する際に撮像時の時間情報も取得し、判定用映像データと紐づける。ここで取得する時間情報は、少なくとも学習用データ取得部11が取得する時間情報を含んでいる。判定用特徴量抽出部32は、判定用映像データから特徴量を抽出する際、判定用映像データに紐づけられた時間情報を抽出された特徴量に付与する。
識別装置40は、識別部41と識別結果出力部42とを備える。識別部41は、第1の実施形態と同様に、モデル記憶部M1に記憶された正常モデルと判定用特徴量抽出部32から転送された判定対象データとを取得し、判定対象データの識別を行う。
次に、学習装置20の各機能部の詳細について説明する。図9は、本実施形態に関わる学習装置20の動作を示すフローチャートである。なお、説明の簡略化のために、ここでは、学習用データ取得部11により取得される時間情報は0時0分から23時59分の範囲の時刻情報であるとする。
ステップS101において、モデル学習部21は正常モデルの学習を行う。本実施形態において、モデル学習部21は、時間ごとに異なる正常モデルの学習を行う。最初に正常モデルの学習を行う際は、時間範囲変更は行われていないため、すべての時間範囲に渡って同一の正常モデルを学習する。
次に、ステップS102において、モデル複雑度決定部22はモデル複雑度を算出し、続くステップS103において、モデル複雑度決定部22は複雑度閾値判定を行う。ステップS102およびステップS103における処理は、第1の実施形態と同様である。
ステップS104において、モデル複雑度決定部22は、正常モデルが最小粒度であるか否かを判定する。正常モデルの原理的な最小粒度は映像データに紐付けられる時間情報の細かさに依存し、本実施形態の最小粒度は1分間である。正常モデルの最小粒度は、原理的な最小粒度の値以上の任意の値として予め設定できる。続くステップS105では、第1の実施形態と同様に、学習装置20のCPUが終了条件を満たすか否かを判定する。
ステップS105において、終了条件を満たさないと判定された場合は、処理はステップS106aに進む。ステップS106aにおいて、時間範囲変更部23aは、正常モデルの時間範囲の変更を行う。図10は、本実施形態において、正常モデルを学習する時間範囲の例を示す。図10(a)、(b)、および(c)は、ステップS106aで時間範囲変更部23aにより時間範囲が変更されていく繰り返し処理の例を示している。同図(a)において、時間軸81は、学習用の映像データに紐付けられる時間情報の時間に対応し、例えば監視カメラを用いて映像データを撮影した時刻を示している。また、時間範囲82は、0時0分から23時59分の全ての範囲に渡って同一の正常モデルを学習することを意味している。
時間範囲82は、最初、図10(a)に示されるように映像データを撮影した時間範囲82の全体が指定されており、受け取った特徴量はすべて同一の正常モデルとして学習される。そして、本実施形態では、一回目のステップS106で図6(a)から(b)に領域範囲が変更され、時間範囲82が時間範囲区切り線83により2分割される。また、図10の(b)から(c)への時間範囲変更の例では、図9の二巡目の処理によって2分割された各時間範囲で正常モデルが学習された際、後半にあたる右側の時間範囲のみが終了条件を満たさないと判定されている。つまり、二回目のステップS106では、終了条件を満たさないと判定された右側の時間範囲が、図6の(b)から(c)のように、時間範囲区切り線84によって再度2分割されている。なお、正常モデルを学習する際、最初の時間範囲は0時0分から23時59分の時間範囲以外でもよく、例えば一週間、一ヶ月間、一年間など、任意の期間において設定した時間範囲から正常モデルの学習を始めることができる。
そして、第1の実施形態と同様にして、ステップS105において全ての時間範囲で終了条件を満たすと判断されるまで、モデル学習部21、モデル複雑度決定部22、及び時間範囲変更部23aの処理が繰り返し行われる。そして、ステップS105において全ての時間範囲が終了条件を満たしたと判断された場合、処理はステップS107に進み、モデル複雑度決定部22はモデル記憶部M1に正常モデルを転送する。また、モデル記憶部M1は、受け取った正常モデルを保存する。ここで保存される正常モデルは、図9のステップS106aにより決定された時間範囲ごとに学習された各正常モデルである。
次に、本実施形態における識別装置40の構成について説明する。図11は、本実施形態に関わる識別装置40の動作を示すフローチャートである。図11における識別装置40の処理のフローの中で、第1の実施形態と相違する処理は、ステップT103aである。第1の実施形態では、ステップT103aにおいて、識別部41は判定対象データの位置情報と正常モデルの領域範囲とを照合していた。本実施形態のステップT103aでは、識別部41は、判定対象データの時間情報と正常モデルが持つ時間範囲の情報との照合を行う。また、これに合わせて、本実施形態のT104では、判定対象データとこの判定対象データの時間情報に合致した正常モデルとを用いて該判定対象データの異常スコアを算出する。その他の処理については、第1の実施形態と同様である。
次に、識別装置40の構成について説明する。識別装置40は、識別部41と識別結果出力部42とを備えている。図7は、本実施形態に関わる識別装置40の動作を示すフローチャートである。以下、図7に示すフローチャートを参照しつつ、識別装置40の各機能部の詳細について説明する。
ステップT101において、識別部41は判定用特徴量抽出部32から受け取った特徴量を判定対象データとして取得する。次に、ステップT102において、識別部41はモデル記憶部M1に存在するすべての正常モデルの取得を行う。ここで、取得される正常モデルは、図2のステップS106により決定された領域範囲ごとに学習された正常モデルである。続いて、ステップT103において、識別部41は判定対象データの位置情報と正常モデルの領域範囲とを照合し、判定対象データの位置情報を含む領域範囲で学習した正常モデルを取得する。
以上のように、本実施形態の学習装置20は、時間ごとに異なる正常モデルを学習する際に、正常モデルの複雑度をもとに時間範囲を変更し、正常モデルを学習する。これにより、正常モデルの複雑度が低減されるように正常モデルが学習され、精度良く異常判定を行うことが可能になる。
[第3の実施形態]
次に、本発明の第3の実施形態について説明を行う。本実施形態は、正常モデルの複雑度に加えて、特徴空間上に分布する特徴量の複雑度に基づいて、正常モデルの粒度を変更するものである。以下、本実施形態の詳細を説明する。なお、第1の実施形態または第2の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
次に、本発明の第3の実施形態について説明を行う。本実施形態は、正常モデルの複雑度に加えて、特徴空間上に分布する特徴量の複雑度に基づいて、正常モデルの粒度を変更するものである。以下、本実施形態の詳細を説明する。なお、第1の実施形態または第2の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
図12は、本実施形態に係る異常検知システムの構成を示す概略ブロック図である。本実施形態の異常検知システム1も、第1、第2の実施形態と同様に、学習用データ取得装置10、学習装置20、判定用データ取得装置30、識別装置40、端末装置50、及びモデル記憶部M1により構成される。ただし、本実施形態の学習装置20は、第1、第2の実施形態におけるモデル複雑度決定部22に代えて、特徴量・モデル複雑度決定部22aを有する。特徴量・モデル複雑度決定部22aは、学習用特徴量抽出部12から受け取った特徴量と、正常モデル学習部から受け取った正常モデルとに基づいて、特徴量・モデル複雑度を決定する。そして、特徴量・モデル複雑度決定部22aは、決定した特徴量・モデル複雑度を領域範囲変更部23に転送する。
領域範囲変更部23は、特徴複雑度決定部24から受け取った複雑度を用いて、領域範囲の変更を行う。また、モデル学習部21は、領域範囲変更部23により変更された領域範囲に基づいて再度モデルの学習を行う。
次に、学習装置20の各機能部の詳細について説明する。図13は、本実施形態に関わる学習装置20の動作を示すフローチャートである。ステップS101において、モデル学習部21は、正常モデルを学習する。最初、モデル学習部21は、学習用映像データのフレーム全体の領域範囲において、同一の正常モデルを学習する。
ステップS102aにおいて、まず、特徴量・モデル複雑度決定部22bは特徴量複雑度を算出する。本実施形態では、特徴量複雑度を算出するために、映像フレームの各画素における特徴量の分散を用いる。なお、特徴量複雑度の算出にあたっては、特徴量の分布の平均情報量やその他の統計量を用いるようにしてもよい。
図14は、特徴量複雑度の算出方法を説明するための概念図である。ここでは、説明の簡略化のために、4×4の計16画素で構成される画像91について特徴量複雑度を算出する例を示す。画像91は計16個の画素で構成され、各画素は例えば横軸方向および縦軸方向の動き方向に関して、特徴分布の分散を有する。図14(a)では、各画素が有する特徴空間上での横軸方向および縦軸方向の特徴分布の分散が二軸の矢印として示されている。図14(a)では、矢印が長いほど、その方向への分散の値が大きいことを示している。
特徴量複雑度は、例えば各画素の分散の平均を正規化して得ることができる。特徴量複雑度は0から1の間の値により表わされ、その値が1に近いほど複雑であることを示す。図14(b)は、画像91の各画素について算出した特徴量複雑度を各画素の明度により示した模式図であり、明度が高い画素ほど特徴複雑度が高いことを示している。
特徴量・モデル複雑度決定部22aは、第1、第2の実施形態と同様にして、更に正常モデルの複雑度を決定する。そして、前述のようにして得られた特徴量複雑度およびモデル複雑度に基づいて、特徴量・モデル複雑度を算出する。本実施形態では、正常モデルの複雑度(モデル複雑度)と、その正常モデルが学習された領域範囲に含まれる画素の特徴量複雑度の平均との積を算出し、この算出した値を特徴量・モデル複雑度とする。ステップS102a以降の処理は、モデル複雑度に代えて特徴量・モデル複雑度を用いることにより、第1、第2の実施形態と同様に実行できる。
以上のように、本実施形態の学習装置20は、映像データから抽出される特徴量の複雑度と正常モデルの複雑度とに基づいて、同一の正常モデルを学習する領域範囲を変更し、得られた領域範囲ごとに正常モデルを学習する。これにより、正常モデルの複雑度がより低減されるように正常モデルが学習され、精度良く異常判定を行うことができる。なお、本実施形態では領域範囲を変更する構成について説明したが、第2の実施形態のように時間範囲を変更する構成に適用することも可能である。
[その他の実施形態]
前述の実施形態では、学習用データ取得装置10と、学習装置20と、判定用データ取得装置30と、識別装置40と、端末装置50と、モデル記憶部M1とがそれぞれ別体として構成された異常検知システム1の例を示した。しかし、本発明はこれに限られず、例えば学習装置20が学習用データ取得装置10と一体に構成され、学習装置20自体が学習用映像データから特徴量を抽出する学習用特徴量抽出部12を備えるようにしてもよい。また、異常検知システム1の各装置が一体の装置として構成されていてもよい。
前述の実施形態では、学習用データ取得装置10と、学習装置20と、判定用データ取得装置30と、識別装置40と、端末装置50と、モデル記憶部M1とがそれぞれ別体として構成された異常検知システム1の例を示した。しかし、本発明はこれに限られず、例えば学習装置20が学習用データ取得装置10と一体に構成され、学習装置20自体が学習用映像データから特徴量を抽出する学習用特徴量抽出部12を備えるようにしてもよい。また、異常検知システム1の各装置が一体の装置として構成されていてもよい。
また、前述の第1の実施形態では、正常モデルの複雑度に基づいて領域範囲を分割するようにしたが、その際、分割されて新しく生成された領域範囲が互いに一部重複するように分割してもよい。同様に、第2の実施形態の時間範囲についても、互いが一部重複するように分割するようにしてもよい。
また、前述の実施形態では、正常モデルの複雑度に応じて領域範囲または時間または時間範囲を分割するようにしたが、領域範囲と時間範囲の両方を分割するようにしてもよい。その場合には、2次元の領域範囲と1次元の時間範囲からなる3次元空間上で同一の正常モデルを学習する範囲を変更するようにすればよい。また、前述の実施形態では正常モデルの粒度を変更するにあたり、領域範囲、時間範囲を変更するようにしたが、正常モデルの粒度として他範囲を変更するようにしてもよい。
また、前述の実施形態では、正常または異常を判別するための正常モデルを用いて説明を行ったが、本発明はこの構成に限らず、複数のクラスを識別するためのモデルを用いる形態に広く適用できるものである。
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
20 学習装置
21 モデル学習部
22 モデル複雑度決定部
23 領域範囲変更部
21 モデル学習部
22 モデル複雑度決定部
23 領域範囲変更部
Claims (11)
- 判定対象の時系列データを複数のクラスに識別するためのモデルを学習する学習装置であって、
学習用の時系列データから特徴量を抽出する抽出部と、
前記特徴量を用いてモデルを学習する学習部と、
前記モデルの複雑度に基づいて、前記モデルを学習する際の該モデルの粒度を変更する変更部と、を有し、
前記学習部は、前記変更部により変更された粒度により前記モデルを再度学習することを特徴とする学習装置。 - 前記変更部は、前記モデルを学習する領域範囲または時間範囲のうち少なくともどちらか一方を変更することにより、当該モデルの粒度を変更することを特徴とする請求項1に記載の学習装置。
- 前記モデルの複雑度を決定する決定部を更に有することを特徴とする請求項1または2に記載の学習装置。
- 前記決定部は、前記モデルを評価するための評価モデルをランダムフォレストにより学習した際の当該ランダムフォレストの深さに基づいて、前記モデルの複雑度を決定することを特徴とする請求項3に記載の学習装置。
- 前記モデルは、前記判定対象の時系列データから正常または異常を判別するためのモデルであることを特徴とする請求項1から4のいずれか1項に記載の学習装置。
- 前記変更部は、前記モデルの複雑度が所定の閾値以下となるか、または前記モデルの粒度が設定された最小粒度となるまで、前記モデルの粒度を繰り返し変更することを特徴とする請求項1から5のいずれか1項に記載の学習装置。
- 前記変更部は、前記モデルの複雑度と前記特徴量の複雑度とに基づいて、前記モデルを学習する際の該モデルの粒度を変更することを特徴とする請求項1から6のいずれか1項に記載の学習装置。
- 請求項1から7のいずれか1項に記載の学習装置により学習されたモデルを用いて、判定対象の時系列データを複数のクラスに識別することを特徴とする識別装置。
- 判定対象の時系列データを複数のクラスに識別するためのモデルを学習する学習方法であって、
学習用の時系列データから特徴量を抽出する抽出ステップと、
前記特徴量を用いてモデルを学習する学習ステップと、
前記モデルの複雑度に基づいて、前記モデルを学習する際の該モデルの粒度を変更する変更ステップと、を有し、
前記学習ステップは、前記変更ステップにより変更された粒度により前記モデルを再度学習することを特徴とする学習方法。 - 請求項9に記載の学習方法により学習されたモデルを用いて、判定対象の時系列データを複数のクラスに識別することを特徴とする識別方法。
- コンピュータを、請求項1から7のいずれか1項に記載の学習装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015080451A JP2016200971A (ja) | 2015-04-09 | 2015-04-09 | 学習装置、識別装置、学習方法、識別方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015080451A JP2016200971A (ja) | 2015-04-09 | 2015-04-09 | 学習装置、識別装置、学習方法、識別方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016200971A true JP2016200971A (ja) | 2016-12-01 |
Family
ID=57424310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015080451A Pending JP2016200971A (ja) | 2015-04-09 | 2015-04-09 | 学習装置、識別装置、学習方法、識別方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016200971A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086786A (ja) * | 2018-11-21 | 2020-06-04 | ファナック株式会社 | 検出装置及び機械学習方法 |
WO2020140678A1 (zh) * | 2019-01-04 | 2020-07-09 | 深圳壹账通智能科技有限公司 | 异常申请检测方法、装置、计算机设备和存储介质 |
KR20200094814A (ko) * | 2019-01-16 | 2020-08-10 | 연세대학교 산학협력단 | 학습 영상 유효성 검증 장치 및 방법 |
JP2020160852A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社toor | 状態判定装置及び状態判定方法 |
JP2021149157A (ja) * | 2020-03-16 | 2021-09-27 | 日本製鉄株式会社 | クラス分類装置、学習済みモデル生成部、クラス推論部及びクラス分類方法 |
US11137323B2 (en) | 2018-11-12 | 2021-10-05 | Kabushiki Kaisha Toshiba | Method of detecting anomalies in waveforms, and system thereof |
-
2015
- 2015-04-09 JP JP2015080451A patent/JP2016200971A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11137323B2 (en) | 2018-11-12 | 2021-10-05 | Kabushiki Kaisha Toshiba | Method of detecting anomalies in waveforms, and system thereof |
JP2020086786A (ja) * | 2018-11-21 | 2020-06-04 | ファナック株式会社 | 検出装置及び機械学習方法 |
JP7251955B2 (ja) | 2018-11-21 | 2023-04-04 | ファナック株式会社 | 検出装置及び機械学習方法 |
WO2020140678A1 (zh) * | 2019-01-04 | 2020-07-09 | 深圳壹账通智能科技有限公司 | 异常申请检测方法、装置、计算机设备和存储介质 |
KR20200094814A (ko) * | 2019-01-16 | 2020-08-10 | 연세대학교 산학협력단 | 학습 영상 유효성 검증 장치 및 방법 |
KR102211541B1 (ko) | 2019-01-16 | 2021-02-02 | 연세대학교 산학협력단 | 학습 영상 유효성 검증 장치 및 방법 |
JP2020160852A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社toor | 状態判定装置及び状態判定方法 |
JP7343137B2 (ja) | 2019-03-27 | 2023-09-12 | 株式会社toor | 状態判定装置及び状態判定方法 |
JP2021149157A (ja) * | 2020-03-16 | 2021-09-27 | 日本製鉄株式会社 | クラス分類装置、学習済みモデル生成部、クラス推論部及びクラス分類方法 |
JP7406094B2 (ja) | 2020-03-16 | 2023-12-27 | 日本製鉄株式会社 | クラス分類装置、学習済みモデル生成部、クラス推論部及びクラス分類方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508688B (zh) | 基于骨架的行为检测方法、终端设备及计算机存储介质 | |
JP2016200971A (ja) | 学習装置、識別装置、学習方法、識別方法及びプログラム | |
US9008365B2 (en) | Systems and methods for pedestrian detection in images | |
US9489570B2 (en) | Method and system for emotion and behavior recognition | |
US10009579B2 (en) | Method and system for counting people using depth sensor | |
Ryan et al. | Scene invariant multi camera crowd counting | |
CN105405150B (zh) | 基于融合特征的异常行为检测方法和装置 | |
Avgerinakis et al. | Recognition of activities of daily living for smart home environments | |
JPWO2018051944A1 (ja) | 人流推定装置、人流推定方法およびプログラム | |
US20100195899A1 (en) | Detection of people in real world videos and images | |
Ma et al. | Counting people crossing a line using integer programming and local features | |
US20220309635A1 (en) | Computer vision-based anomaly detection method, device and electronic apparatus | |
Iazzi et al. | Fall detection based on posture analysis and support vector machine | |
CN116264004A (zh) | 基于工人重新识别和个人防护装备分类对现场安全合规性进行的基于视觉的监测 | |
CN110390226B (zh) | 人群事件识别方法、装置、电子设备及系统 | |
CN108875501B (zh) | 人体属性识别方法、装置、系统及存储介质 | |
Li et al. | Anomaly detection based on two global grid motion templates | |
Al-dahoud et al. | A method for location based search for enhancing facial feature detection | |
Dotti et al. | Unsupervised discovery of normal and abnormal activity patterns in indoor and outdoor environments | |
KR101529620B1 (ko) | 이동 방향별 보행자 계수 방법 및 장치 | |
KR101467307B1 (ko) | 인공 신경망 모델을 이용한 보행자 계수 방법 및 장치 | |
CN106874885B (zh) | 一种基于能级分布变化的人群异常检测方法 | |
Ojha et al. | Spatio-temporal anomaly detection in crowd movement using SIFT | |
Saxena et al. | Video inpainting detection and localization using inconsistencies in optical flow | |
Baliniskite et al. | Affective state based anomaly detection in crowd |