JP2016081355A - 異常検知方法、異常検知装置、及びプログラム - Google Patents

異常検知方法、異常検知装置、及びプログラム Download PDF

Info

Publication number
JP2016081355A
JP2016081355A JP2014213182A JP2014213182A JP2016081355A JP 2016081355 A JP2016081355 A JP 2016081355A JP 2014213182 A JP2014213182 A JP 2014213182A JP 2014213182 A JP2014213182 A JP 2014213182A JP 2016081355 A JP2016081355 A JP 2016081355A
Authority
JP
Japan
Prior art keywords
model
transition
observation
observation model
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014213182A
Other languages
English (en)
Other versions
JP6525542B2 (ja
Inventor
健二 塚本
Kenji Tsukamoto
健二 塚本
大岳 八谷
Hirotaka Hachiya
大岳 八谷
克彦 森
Katsuhiko Mori
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014213182A priority Critical patent/JP6525542B2/ja
Publication of JP2016081355A publication Critical patent/JP2016081355A/ja
Application granted granted Critical
Publication of JP6525542B2 publication Critical patent/JP6525542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 従来、映像データに異常があるか否かを判定するためには移動体の移動軌跡が必要であり、異常判定処理を行うには一定時間のデータが必要であった。【解決手段】 本発明では、取得した時系列データより特徴量を算出し、この算出した特徴量に基づいて観測モデルを選択するととともに、観測モデルにおける時系列の遷移関係を取得する。そして、各時刻の観測スコアと時系列の観測モデルの遷移関係の両方を評価して異常の有無を判定することにより、逐次的に異常検知を行うことができる。【選択図】 図1

Description

本発明は、センサデータや映像データ中の異常を検知する異常検知方法、異常検知装置、及びそのプログラムに関する。
従来から、時系列のセンサデータや映像データについて異常があるか否かを判定するために、正常時に収集されたデータからモデルを作成し、判定対象となるセンサデータや映像データを該モデルと比較して正常か異常かを判定する技術が知られている。
特許文献1には、映像データから追尾処理により移動体の軌跡を算出して、異常を検知する異常判定方法が開示されている。この判定方法では、学習した軌跡モデルと移動体の軌跡の大域的異常度と、軌跡をグリッドで分割し各グリッドの軌跡を学習したモデルと比較して局所的異常度を算出し、大域的異常度と局所的異常度の総和で異常判定を行っている。
特開2012−194967号公報
D.Comaniciu and P. Meer, "Mean Shift analysis and application", Proc. IEEE Int. Conf. Computer Vision, pp.1197−1203, 1999 J. Pers, et al., Histograms of optical flow for efficient representation of body motion, Pattern Recognition Letters, vol. 31, no. 11, pp. 1369−−1376, 2010 N. Dalal and B. Triggs, Histograms of oriented gradients for human detection, In proceedings of Computer Vision and Pattern Recognition (CVPR), pp. 886−−893, 2005
しかしながら、特許文献1では異常かどうかを判定するために移動体の移動軌跡が必要であるため、異常判定処理を行うためには一定時間のデータが必要であるという問題があった。
本発明は、時系列データから異常を検知する異常検知装置であって、前記時系列データを取得するデータ取得手段と、前記取得した時系列データの所定の時刻における特徴量を算出する特徴量算出手段と、前記算出した特徴量に対して観測モデルを選択するモデル選択手段と、前記選択した観測モデルの時系列の遷移関係を取得するモデル関係取得手段と、前記選択した観測モデルと前記取得した遷移関係とに基づいて前記時系列データの異常を検知する異常検知手段とを有することを特徴とする。
以上の構成によれば、本発明は、時系列で変化するデータに対して逐次的に処理して異常を検知することが可能となる。
第1の実施形態に関わる異常検知装置のブロック図。 第1の実施形態に関わる観測モデルの学習を説明する図。 第1の実施形態に関わる観測モデルの時系列での遷移関係を示す図。 第1の実施形態に関わる観測モデルの時系列でのモデル遷移を示す図。 第1の実施形態に関わる異常検知方法の処理フローを示す図。 第2の実施形態に関わる正常時の学習映像データ例を示す図。 第2の実施形態に関わる観測モデルの学習方法を示す図。 第2の実施形態に関わる判定対象の映像データ例を示す図。 第2の実施形態に関わる移動体802の時系列でのモデル遷移を示す図。 第2の実施形態に関わる移動体802のモデル遷移関係を示す図。 第2の実施形態に関わる異常検知方法の処理フローを示す図。 第2の実施形態に関わるモデル遷移関係の抽出処理に係るフローを示す図。 第2の実施形態に関わる判定対象の映像データの別の例を示す図。 第2の実施形態に関わる移動体1302の時系列でのモデル遷移を示す図。 第2の実施形態に関わる移動体1302のモデル遷移関係を示す図。
[第1の実施形態]
以下、図面を参照して本発明の実施形態を詳細に説明する。
図1は本実施形態に関わる異常検知装置の構成(ソフトウェア構成)を説明する図である。図1に示す各機能部は、異常検知装置が有しているCPUがROMまたはRAM等の格納手段に格納されている制御プログラムを実行することにより実現される。
本実施形態の動作は学習処理と識別処理に大きくは分けられる。学習処理に関わる学習部121は、観測モデル学習部103、観測モデル関係抽出部104、遷移モデル学習部105から構成される。また、識別処理に関わる識別部122は、モデル選択部106、モデル関係抽出部107、モデル関係評価部108、異常判定部109から構成される。また、学習処理、識別処理に共通して用いられる機能部は、データ取得部101、特徴量算出部102、観測モデル記録部111、遷移モデル記録部112により構成されている。
初めに学習処理に関わる学習部121を中心に説明を行ない、その後に識別処理に関わる識別部122を中心に説明を行なう。
(学習部)
データ取得部101は、機器に取り付けられたセンサの出力値を時系列で取得する。ここで用いるセンサは熱センサ、角度センサ、振動センサなどの各種センサを用いることができ、本発明ではどのセンサからの出力かについて特に限定しない。機器に取り付けられたセンサから取得された時系列のデータは、特徴量算出部102へと出力される。
特徴量算出部102は、得られた時系列データから特徴量を算出する。特徴量としては時系列データから同一時刻のセンサ出力値を取り出し、各センサの出力値をベクトルの各要素として多次元の特徴ベクトルとする。特徴ベクトルは大きさが1になるように正規化してもよい。また、その他の特徴量として、各センサの出力値を時系列でまとめ、離散ウェーブレット変換を適用して特徴ベクトルとしてもよい。抽出した各特徴量は観測モデル学習部103へと出力される。
観測モデル学習部103は、特徴量算出部102から取得した特徴量に基づいて観測モデルを学習する。観測モデル学習部103は、混合正規分布で特徴分布のクラスタリングを行い、観測モデルを作成する。ここで、混合正規分布のクラスタ数は、所定の離散値に設定するか、所定の離散値の候補の中から赤池情報量基準などを用いて選択してもよい。また、混合正規分布によるクラスタリングの他にk近傍法で所定離散値のクラスタ数Cに分割させてもよい。
図2は、観測モデルの学習を説明するための図である。同図において、2つのセンサの出力値を各要素として特徴ベクトルとした場合の特徴量の分布が示されており、図中の白丸が1個の特徴ベクトルに対応する。得られた特徴ベクトルはクラスタリングされて、ここでは、クラスタ211、212、213が形成されている。観測モデル学習部103は、各クラスタに対して、各クラスタ内の特徴分布から分散共分散行列を算出する。算出した各クラスタの分散共分散行列は観測モデル記録部111に記録するとともに、観測モデル関係抽出部104へ出力される。なお、バツ印で示す特徴量221、222については後述する。
図1に戻り、観測モデル関係抽出部104は、観測モデル学習部103で作成された観測モデルからクラスタIDおよび異常ラベルを時系列で記録する。本実施形態では、観測モデルに対して正常モデルのラベルであるクラスタIDと異常ラベルとを用いるようにしている。観測モデル関係抽出部104は、機器の正常稼働時に予め取得した時系列データを観測モデル201に適用することによりクラスタIDまたは異常ラベルを取得し、時系列で前後するデータを組み合わせてクラスタ間の遷移の関係をモデル遷移関係として抽出する。なお、複数のクラスタを用いてモデル遷移関係を抽出する場合、全ての組み合わせでもよいし、任意のクラスタ間の遷移関係を複数個、時系列でまとめてもよい。抽出した時系列でのクラスタ間の遷移の関係はモデル遷移関係として、遷移モデル学習部105へと出力される。
遷移モデル学習部105は、観測モデルのクラスタIDおよび異常ラベルの時系列での遷移関係を用いて、観測モデルのモデル遷移関係を学習する。本実施形態では、学習方法として隠れマルコフモデル(Hidden Markov Model:HMM)を用いるが、例えばベイジアンネットワークなどの他の方法を用いて学習してもよい。得られた時系列でのクラスタ間の遷移関係は、次の式1を用いてパラメータθ(対数尤度)が最大になるよう繰り返し更新することで、観測モデルのクラスタIDおよび異常ラベル間の遷移確率を学習する。
Figure 2016081355
ここで、nは入力の観測モデルの時系列での遷移関係の数、xはi番目のモデル関係クラスタIDまたは異常ラベルのセットである。これにより、観測モデル201における時系列でのモデル遷移関係が得られる。図3は、得られたモデル遷移関係301、各クラスタIDおよび異常ラベルへの遷移確率302〜307を示している。得られたモデル遷移関係301及び遷移確率302〜307は、遷移モデル記録部112へと出力され、保存される。
(識別部)
データ取得部101は、各センサから判定対象となるセンサデータを取得する。取得した判定対象のセンサデータは、特徴量算出部102へと送られる。
特徴量算出部102は、データ取得部101が取得した判定対象のセンサデータから特徴量を算出する。特徴量の算出には、学習処理における特徴量の算出と同じ算出方法を用いて、判定対象のセンサデータの特徴ベクトルを算出する。算出した特徴量は、モデル選択部106へと出力される。
モデル選択部106は、観測モデル記録部111から混合ガウスモデル(観測モデル201)の各クラスタとクラスタの分散共分散行列を読み込む。そして、モデル選択部106は、判定対象のセンサデータの出力値から算出した特徴量に対して、観測モデル内のクラスタを一つ選択する。選択方法としては、特徴量とクラスタ重心位置のマハラノビス距離が最小となるクラスタを選択する。各特徴量に対して上述のマハラノビス距離の算出を行うことにより、各特徴量に対して混合ガウスモデル内のクラスタが選択される。
図2には、判定対象のセンサデータの出力値から作成した特徴量221、222をバツ印で示している。同図において、特徴量221に対してはクラスタ211が選択され、特徴量222に対してはクラスタ213が選択される。また、マハラノビス距離が設定した閾値以上である場合には、異常が選択されることになる。モデル選択部106は、各特徴量に対してクラスタIDまたは異常ラベルを決定して、その結果をモデル関係抽出部107へと出力する。更には、クラスタとのマハラノビス距離に応じたスコア値(距離が小さければ高く、距離が遠ければ低い)が観測スコアとしてモデル関係抽出部107へと出力される。
モデル関係抽出部107は、時系列での遷移関係として、センサデータから作成した特徴量が属するクラスタIDまたは異常ラベルを抽出することで、時系列の遷移関係を取得するモデル関係取得部としての機能を果たす。ここでの遷移関係の抽出方法は、学習方法における抽出方法と同じ方法を用いる。図4には、各時刻におけるクラスタIDまたは異常ラベルをモデル関係の抽出結果401として示している。また、同図の表には観測スコア、モデル遷移確率も併せて記載している。モデル関係抽出部107は、この各時刻におけるクラスタIDまたは異常ラベルをモデル関係評価部108へと出力する。
モデル関係評価部108は、まず遷移モデル記録部112からモデル遷移の学習データであるモデル遷移関係301及び遷移確率302〜307を読み込む。続いて、モデル関係評価部108は、モデルの遷移関係を評価したスコアを算出する。この評価スコアの算出方法としては、モデル遷移関係301及び遷移確率302〜307を用い、式2よりそのスコアを算出する。この評価スコアは、算出したスコアが閾値より高ければ正常、閾値より低ければ異常と判定される。
Figure 2016081355
ここで、xは時刻tにおけるモデルのクラスタIDまたは異常ラベル、P(x|xt−1)はモデルの遷移確率、P(y|x)はモデル選択部106で算出した観測スコアである。モデル関係評価部108は、式2によりモデル内のクラスタ遷移関係を評価した評価スコアを算出する。算出した評価スコアは、異常判定部109へと出力される。
異常判定部109は、上記評価スコアに基づいて、判定対象のセンサデータが正常か異常かを判定し、判定対象となるセンサデータの異常の検知をする異常検知部としての役割を果たす。つまり、異常判定部109は、上述した評価スコアが閾値以下の場合には異常と判定する。ここで、評価スコアの判定に用いる閾値は、任意の値を設定してもよいし、異常判定部109が、正常稼働時のデータから学習した観測モデルの遷移関係を用いて、その遷移の長さに応じて閾値を変更してもよい。正常稼働時のデータからモデル関係を作成し、正常稼働時のデータをモデルに適用して評価スコアを算出し、そのスコアに基づき閾値を決定するようにすることもできる。
続いて、本実施形態における異常検知方法の処理フローについて説明する。図5は、本実施形態の異常検知方法の処理フローを示すフローチャートである。なお、同フローチャートに従ったプログラムコードは本実施形態の異常検知装置内のRAMやROM等のメモリ(不図示)に格納されており、CPU(不図示)等により読み出され、実行される。同図において、(A)は学習処理のフローチャート、(B)は識別処理のフローチャートである。なお、この二つの処理を連続して行う必要はなく、また一度学習処理を実行しておけば、識別処理のみを任意のタイミングで行うことも可能である。
(学習処理)
まず、学習処理の処理フローについて説明する。ステップS501において、データ取得部101は機器に設置されているセンサから学習用データを取得する。取得したデータは特徴量算出部102へと送られ、処理はステップS502へと進む。
ステップS502では、特徴量算出部102が学習用データを用いて特徴量を算出する。特徴量算出部102は、センサの出力値を並べて特徴ベクトルすることで、特徴量を算出する。算出した特徴量は観測モデル学習部103へと送られ、処理はステップS503へと進む。
ステップS503では、観測モデル学習部103が各特徴量を用いて観測モデルの学習を行う。ここでの観測モデルの学習には、混合正規分布によるクラスタリング手法を用いる。観測モデル学習部103は、クラスタリングした結果から各クラスタに属する特徴量の分布に対して分散共分散行列も求める。観測モデル学習部103は、求めたクラスタ及び分散共分散行列を観測モデル記録部111へ記録するとともに、観測モデル関係抽出部104へと送る。そして、処理はステップS504へと進む。
ステップS504では、観測モデル関係抽出部104がモデル関係を抽出する。機器の正常稼働時に予め取得した時系列データを観測モデル201に適用してクラスタIDおよび異常ラベルを取得して、時系列で前後するデータを組み合わせたものをモデル関係として抽出する。抽出したモデル関係は遷移モデル学習部105へと出力され、処理はステップS505へと進む。
ステップS505では、遷移モデル学習部105が観測モデル関係抽出部104で抽出した時系列のモデル関係を学習して、観測モデルにおける遷移確率を算出する。遷移モデル学習部105は、各クラスタIDまたは異常ラベルの遷移確率が最大になるようパラメータθを更新することにより、観測モデルの遷移確率の算出を行う。算出された観測モデルの遷移確率302〜307は、遷移モデル記録部112へと保存される。以上により、学習処理の処理フローは終了する。
(識別処理)
次に、識別処理の処理フローについて説明する。ステップS511において、データ取得部101は、機器に設置されているセンサからデータを取得する。センサからは一定の時間間隔で出力があり、データ取得部101は時系列のセンサデータを取得する。取得したセンサデータは特徴量算出部102へと送られ、処理はステップS512へと進む。
ステップS512では、特徴量算出部102がセンサデータを用いて特徴量を算出する。特徴量算出部102は、センサの出力値を並べて特徴ベクトルすることで、特徴量を算出する。算出した特徴量はモデル選択部106へと送られ、処理はステップS513へと進む。
ステップS513では、モデル選択部106が学習した観測モデルを観測モデル記録部111から読み込む。そして、モデル選択部106は、特徴量算出部102が算出した判定対象となるセンサデータの特徴量それぞれに対して、クラスタの重心位置からマハラノビス距離が最も近く、また特徴量が距離閾値内であるクラスタを選択する。マハラノビス距離が閾値以上である場合には、クラスタIDではなく異常ラベルが選択される。さらに、本ステップでは、モデル選択部106がマハラノビス距離に応じて観測スコアを算出する。特徴量ごとに選択されたクラスタIDまたは異常ラベルと観測スコアはモデル関係抽出部107へと出力され、処理はステップS514へと進む。
ステップS514では、モデル関係抽出部107が、時系列のセンサデータからモデルの遷移関係を抽出する。モデル関係抽出部107は、時系列で取得した特徴量から、各時刻におけるクラスタIDまたは異常ラベルをモデル関係抽出結果401として記録する。このモデル関係抽出結果401は、モデル関係評価部108へと送られ、処理はステップS515へと進む。
ステップS515では、まず、モデル関係評価部108が遷移モデル記録部112からモデル遷移関係301及び遷移確率302〜307を取得する。また、モデル関係評価部108は、取得したモデル遷移関係301及び遷移確率302〜307を用いて判定対象データの評価スコアを算出する。評価スコアは、上述したように式2を用いて算出され、算出されたた評価スコアは異常判定部109へと出力される。そして、処理はステップS516へと進む。
ステップS516において、異常判定部109は、評価スコアに基づいてデータに異常があるかを判定する。異常と判定された場合は、機器の表示部分に故障を表示し、機器を停止して処理を終了する。異常と判定されなければ、処理はステップS511へ戻り、異常検知処理が繰り返し実行される。以上により、識別処理は終了する。
ここで、本実施形態の異常検知方法による具体的な検知結果を説明する。本実施形態の異常検知方法では、評価スコアの閾値を0.1と設定している。そして、図3に示すモデル遷移関係301及び遷移確率302〜307、図4に示す観測スコアを用いて、評価スコアを式2より算出すると、時刻t2からt3での評価スコアはScore=0.252となる。このスコアは閾値の0.1よりも大きいため、正常と判定することができる。一方で、図4に示すように、時刻t3において観測モデルのみの判定では異常と判定されてしまう。このようなケースにおける検知精度を高めるには、一定時間のデータを蓄積して一定量のデータから異常か否かを判断する必要があった。これに対し、時系列の観測モデルの遷移関係を利用することにより時刻t3の段階で判定を行うことができる。
このように、本実施形態では、観測スコアのみで異常を判定するのではなく、各時刻の観測スコアと時系列の観測モデルの遷移関係の両方を評価して異常の有無を判定するようにしているため、逐次的に異常検知を行うことができる。つまり、本実施形態では、観測スコアと時系列の遷移関係により評価スコアを算出し、その評価スコアを閾値との比較で異常を検知するようにしている。このような構成によって、本実施形態では、一定時間のデータを蓄積して異常を検知する手法に比べて早い段階で、異常の検知を行うことが可能となる。また、本実施形態は、観測スコアと時系列の観測モデルの遷移関係の両方に基づいて算出した評価スコアにより異常を検知するため、観測モデルのみで判断する場合に比べて高精度に異常を検知することができる。
[第2の実施形態]
次に、本発明の第2の実施形態として、映像データ内の正常行動を学習し、監視カメラ等から入力される映像データに異常がないかを判定する構成について説明を行う。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
本実施形態の異常検知装置も、図1に示した第1の実施形態の異常検知装置と同様の構成(機能部)を有している。以下、本実施形態における各機能部の処理内容について説明する。
(学習部)
データ取得部101は、監視カメラ等で撮影した正常時の映像データを取得する。図6は、正常時の映像データの一例を図示している。図6の映像データ601では、移動体602、603、604がそれぞれ経路605、606、607、608を移動している。また、同図に示されるように、取得した正常時の映像データ601はグリッド609により各領域に分割される。この領域分割は、複数のブロック領域に等分割してもよいし、非特許文献1に記載のMean Shiftなどの公知の技術を用いて分割するようにしてもよい。分割した各領域の映像データは、特徴量算出部102へと出力される。
特徴量算出部102は、取得した正常時の映像データ601をグリッド609で分割した各領域に対して特徴量を算出する。特徴量としては、映像データに対して、連続する2フレームの画像を抜き出し、2フレーム間の画像の2次元の動きベクトルを求めて特徴量とする。
図7は、本実施形態における観測モデルの学習を説明する図である。同図において、白丸で示すのは、正常時の映像データ601のうち領域(3,3)において算出した2次元の動きベクトルの特徴量である。同図においては、抽出された特徴量が、クラスタ701、702としてクラスタリングされている。なお、特徴量は2次元の動きベクトルに限定されるものではなく、非特許文献2に記載のHOF(Histogram of Optical Flow)特徴量を用いてもよい。また、非特許文献3に記載の画像データの各領域に対してHOG(Histogram of Oriented Gradient)などの特徴量や、3次元勾配(映像データのx、y、t方向の勾配)のヒストグラムなどの時空間特徴量を併せて用いてもよい。得られた各領域の特徴量は、観測モデル学習部103へと出力される。
観測モデル学習部103は、各領域で算出した特徴量から混合正規分布でクラスタリングすることにより、観測モデルを学習する。また、観測モデル学習部103は、各クラスタの分散共分散行列を算出し、観測モデル記録部111へ記録するとともに、観測モデル関係抽出部104へ出力する。
観測モデル関係抽出部104は、正常時の映像データの特徴量を観測モデルに適用してクラスタIDまたは異常ラベルを選択し、選択されたモデルの時系列の遷移関係を抽出する。その際、観測モデル関係抽出部104は、正常時の映像データに基づいて、動きベクトルから移動体の領域を抽出し、移動体の重心位置を決定する。そして、観測モデル関係抽出部104は、各移動体の重心位置からどの分割領域内に属するかを決定し、領域IDを時系列でつなげ、また各時刻において選択されたモデルのクラスタIDまたは異常ラベルもモデル間の遷移関係として抽出する。このときの時刻の間隔は、2フレーム間隔でも、5フレーム間隔でも、10フレーム間隔でもよい。また、移動体の位置関係は、必ずしも隣接する領域間の関係を抽出する必要はなく、例えば、領域(2,1)と領域(4,1)のような離れた位置のモデル遷移関係を抽出してもよい。抽出したモデル遷移関係に対応する正常の映像データの観測モデルによるクラスタIDまたは異常ラベルをそれぞれセットにすることで、観測モデルにおける遷移関係が作成される。抽出した観測モデルの遷移関係は、遷移モデル学習部105へと出力される。
遷移モデル学習部105は、正常時の映像データから抽出した移動体の動きに基づく領域内・領域間のモデルのクラスタIDまたは異常ラベルの遷移関係を用いて、ベイジアンネットワークや隠れマルコフモデルなどにより遷移確率を学習する。具体的には、遷移モデル学習部105は、上述した式2を用いて、各遷移確率の尤度が最大になるように遷移確率を学習する。また、別の学習方法として、階層型隠れマルコフモデルを用い、領域内の遷移確率と領域間の遷移確率を個別に学習してもよい。求めた観測モデルの遷移確率は、遷移モデル記録部112へと保存される。
(識別部)
データ取得部101は、監視カメラ等から判定対象となる映像データを取得する。図8は、本実施形態において判定対象となる映像データを示す図である。同図に示されるように、映像データ801では、移動体802が経路803に沿って移動している。取得した映像データ801は、学習時と同様にして複数の領域に分割される。分割された各領域の映像データは、特徴量算出部102へと出力される。
特徴量算出部102は、取得した判定対象の映像データ801を分割してなる各領域に対して特徴量を算出する。特徴量の算出は、学習時と同様に2フレーム間での2次元の動きベクトルを抽出する。得られた各領域の特徴量は、モデル選択部106へと出力される。
モデル選択部106は、観測モデル記録部111から各領域の観測モデルを読み込む。モデル選択部106は、判定対象の映像データの各領域で算出した特徴量に対して各領域の観測モデルを適用し、クラスタIDまたは異常ラベルを選択する。具体的には、モデル選択部106は、各クラスタと特徴量のマハラノビス距離を算出し、最も距離が近いクラスタで且つ閾値以下の距離にあるクラスタIDを選択する。マハラノビス距離が閾値以上であれば、モデル選択部106は異常ラベルを選択する。また、モデル選択部106は、各領域の特徴量に対して選択されたクラスタIDとのマハラノビス距離に基づき観測スコアを決定する。選択されたクラスタIDまたは異常ラベルと、観測スコアはモデル関係抽出部107へと出力される。
モデル関係抽出部107は、選択されたモデルの時系列および領域間でのモデル遷移関係を抽出する。ここで、モデル関係抽出部107は、学習方法と同様の方法によりモデル遷移関係を抽出する。また、モデル関係抽出部107は、時刻が経過するたびに移動体の位置を算出して時系列で対応を取り、対応が取れた移動体に対して、モデルの遷移関係が更新されていく。モデル関係抽出部107により抽出された観測モデルの遷移関係と観測スコアは、モデル関係評価部108へと出力される。
モデル関係評価部108は、まず遷移モデル記録部112から領域内・領域間でのクラスタIDまたは異常ラベルの遷移関係モデルを読み込む。そして、モデル関係評価部108は、モデル関係抽出部107によって抽出された判定対象データのモデル遷移関係と観測スコアを用いて評価スコアを算出する。
図10は、図8に示した移動体802に対するモデルの遷移関係を示している。同図において、白丸で示す各グラフがクラスタIDまたは異常ラベル、実線のエッジが遷移関係、各エッジに対して付されているpは観測モデルの遷移確率を表している。図10に示したグラフモデルは、移動体毎にHMMを適用することにより構築される。モデル関係評価部108は、判定対象データのモデル遷移関係と観測スコアを用い、上述の式2より評価スコアを算出する。これにより、移動体802に対する観測モデルの遷移関係1001の各時刻で繰り返しスコアが算出される。算出された評価スコアは、異常判定部109へと出力される。
異常判定部109は、モデル関係評価部108で算出した評価スコアを用いて、判定対象となる映像データに異常がないかを判定する。異常判定部109は、評価スコアが閾値以下の場合に異常ありと判定する。
続いて、本実施形態における異常検知方法の処理フローについて説明する。図11は、本実施形態の異常検知方法の処理フローを示すフローチャートである。なお、同フローチャートに従ったプログラムコードは本実施形態の異常検知装置内のRAMやROM等のメモリ(不図示)に格納されており、CPU(不図示)等により読み出され、実行される。
(学習処理)
まず、本実施形態の学習処理の処理フローについて説明する。ステップS1101において、データ取得部101は監視カメラ等で撮影した監視対象の正常時の学習映像データを取得する。また、データ取得部101は、取得した映像データを複数の領域に分割し、領域分割した学習映像データを特徴量算出部102へと送る。そして、処理はステップS1102へと進む。
ステップS1102では、特徴量算出部102は正常時の学習映像データの各領域に対して2フレーム間の画像を抜き出し、2次元の動きベクトルを算出する。算出した学習映像データの各領域の特徴量は、観測モデル学習部103へと出力され、処理はステップS1203へと進む。
ステップS1103では、観測モデル学習部103は学習映像データの各領域の特徴量を用いて観測モデルを学習する。観測モデル学習部103は、特徴量を混合正規分布でクラスタリングし、各クラスタの分散共分散行列を併せて算出することにより、観測モデルの学習を行う。学習した学習映像データの各領域の観測モデルは、観測モデル記録部111に記録されるとともに、観測モデル関係抽出部104へ出力され、処理はステップS1204へと進む。
ステップS1104では、観測モデル関係抽出部104は学習映像データのモデルの遷移関係を抽出する。この処理は、3つのステップに分けられる。図12は、観測モデル関係抽出部104によるモデルの遷移関係抽出の処理フローを示している。
図12のステップS1201において、観測モデル関係抽出部104は学習映像データから移動体の領域を抽出する。観測モデル関係抽出部104は、特徴量算出部102により算出した動きベクトルを用いて、動きベクトルがある画素を連結させて領域とし、映像データ内にある動き領域を抽出する。
次に、ステップS1202では、観測モデル関係抽出部104は抽出した各領域に対して重心位置を求め、それを移動体の位置とする。そして、観測モデル関係抽出部104は、求めた移動体領域の重心位置より、映像データを分割して作成した領域のどの領域に移動体が属するかを決定し、その領域IDを記録する。
ステップS1203では、決定された領域IDに基づき前時刻においてどの移動体と対応するかを決定するため、ユークリッド距離で求めて最も距離が近い位置にある移動体と連結する。これらの処理を時系列で行い、また移動体の領域IDおよびそのときの特徴量から選択されたクラスタIDを併せて記憶することで、モデルの遷移関係1001が作成される。このようにして、モデルの遷移関係1001は各移動体に対して作成される。
以上がステップS1104におけるモデルの遷移関係を抽出する処理であり、抽出されたモデルの遷移関係1001は遷移モデル学習部105へと送られ、処理はステップS1215へと進む。
ステップS1105では、遷移モデル学習部105は、移動体の領域内または領域間における動きに基づいてモデルのクラスタIDまたは異常ラベルの遷移について学習する。遷移モデル学習部105は、各遷移確率が最大となるようにモデルの遷移関係を学習することにより、観測モデルのクラスタIDまたは異常への遷移確率を得る。学習した遷移モデルは、遷移モデル記録部112に記録され、ステップS1105は終了となる。以上で学習処理は終了する。
次に、本実施形態の識別処理の処理フローについて説明する。ステップS1111において、データ取得部101は判別対象となる映像データを取得する。データ取得部101は、映像データを監視カメラ等から取得する。また、データ取得部101は、取得した映像データを複数の領域に分割し、分割した映像データを特徴量算出部102へと出力する。そして、処理はステップS1112へと進む。
ステップS1112では、特徴量算出部102は、上述した特徴量の抽出手法により、取得した映像データの各領域に対して特徴量を抽出する。特徴量算出部102は、抽出した特徴量をモデル選択部106へと出力し、処理はステップ1113へと進む。
ステップS1113では、まずモデル選択部106が、観測モデル記録部111から各領域の観測モデルを読み込む。そして、モデル選択部106は、判定対象となる映像データの各領域の特徴量に対して、観測モデルの各クラスタIDとのマハラノビス距離を算出し、最も距離が短く且つ距離が閾値以下であるクラスタIDを選択する。距離が閾値以上の場合には、異常のラベルが選択される。モデル選択部106は、選択したクラスタIDと、そのクラスタとの距離に基づき求められる観測スコアとをモデル関係抽出部107へと送り、処理はステップS1114へと進む。
ステップS1114では、モデル関係抽出部107は、判定対象となる映像データのモデル間の遷移関係を抽出する。この遷移関係の抽出処理の内容は、ステップS1104と同様であるため、ここでは省略する。本ステップの処理により、判定対象の映像データの観測モデルの遷移関係1001が得られ、モデル関係評価部108へと出力される。そして、処理はステップS1115へと進む。
ステップS1115では、モデル関係評価部108は、判定対象の映像データに対するモデルの遷移関係を評価する。まず、モデル関係評価部108は、遷移モデル記録部112からモデルの遷移関係における遷移確率を読み込む。次に、モデル関係評価部108は、抽出した移動体のモデル遷移関係1001から、HMMを用いてグラフモデルを作成し、各モデル遷移の遷移確率を割り当てる。さらに、モデル関係評価部108は、このグラフモデルに対して、上述した式2を用いて評価スコアを算出する。これは移動体が複数あれば、各移動体に対して評価スコアの算出が行われる。以上の処理が終了すると、評価スコアは異常判定部109へと送られ、処理はステップS1116へと進む。
ステップS1116では、異常判定部109は上述の評価スコアが設定した閾値以下かどうかを判定し、閾値以下であれば映像データ内に異常があると判断して異常箇所を映像に合わせて表示し、処理を終了する。異常が検出されなければ、次の時刻に移り、処理はステップS1111へと戻り、識別処理の実行を繰り返す。
ここで、本実施形態の異常検知方法による具体的な検知結果を説明する。図9は、図8の移動体802の時系列での遷移関係901として、モデル選択部106によって選択されたモデルのクラスタIDと観測スコアを示している。同図の例では、時刻t7において観測スコアが低いために、時刻t7におけるモデルのクラスタIDとして異常ラベルが抽出されており、時刻t7において観測モデルのみの判定では異常と判定されてしまう。しかし、本実施形態では、遷移モデル学習部105が観測モデルを学習した結果、図9に示されているように、クラスタID“3”から異常ラベルへの遷移確率は他に比べても低く、そのためモデル関係評価部108が算出する評価スコアが高い値となる。これにより、本実施形態の異常検知方法では、時刻t7も正常と判断する。
また、その他の例として、図13には、移動体1302が経路1303に沿って移動する映像データ1301が図示されている。図14は、図13の移動体1302のモデルの遷移関係1401としてモデル選択部106によって選択されたモデルのクラスタIDと観測スコアを示し、図15は、移動体1302に関わる遷移関係1501とモデル遷移確率を示している。
図14に示す例では、観測モデルのみで判定する異常検知方法では、時刻t4、t7、t8、t13、t14において映像中の移動体1302の動きが異常として検知される。ただし、このような検知手法では、移動体1302が正常時と異なる動きをしている領域しか異常として検知されない。また、図13に示す移動体1302の一連の動き(Uターン)を異常な行動として検知するためには、一定時間の映像データを蓄積して追尾処理により移動体の軌跡を求め、移動体の異常を検知する必要があった。
しかし、本実施形態の異常検知方法によれば、観測モデルとモデルの遷移確率の両方に基づいて算出された評価スコアにより異常の検知を行っているため、観測スコアと遷移確率が低くなる時刻t4から継続して移動体1302の動きを異常と判定できる。
以上説明したように、本実施形態に関わる異常検知方法は、映像データから移動体の各時刻の特徴量とモデル遷移関係を抽出し、各時刻の特徴量から算出される観測スコアとモデル遷移関係とにより評価スコアを算出する。そして、この評価スコアを閾値と比較することで、映像データ中の異常を検知する。このように、本実施形態では、観測スコアと時系列の観測モデルの遷移関係の両方を評価して異常の有無を判定するようにしているため、逐次的に異常検知を行うことができる。従って、一定時間のデータを蓄積して異常を検知する手法に比べて早い段階で、異常の検知を行うことが可能となる。
また、図8に示す移動体の動き(一連の左折動作)に関して、観測モデルだけで異常を検知する構成では、ちょうど左折するタイミング(図9のt7)の僅かな動きによって異常と判定されてしまう。一方、本実施形態によれば、観測モデルに加えてモデル間の遷移関係も併せて正常か異常か判定することで、誤検知を低減した異常検知方法を実現できる。
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
101 データ取得部
102 特徴量算出部
103 観測モデル学習部
104 観測モデル関係抽出部
105 遷移モデル学習部
106 モデル選択部
107 モデル関係抽出部
108 モデル関係評価部
109 異常判定部
111 観測モデル記録部
112 遷移モデル記録部

Claims (10)

  1. 時系列データを取得するデータ取得手段と、
    前記取得した時系列データの所定の時刻における特徴量を算出する特徴量算出手段と、
    前記算出した特徴量に対して観測モデルを選択するモデル選択手段と、
    前記選択した観測モデルの時系列の遷移関係を取得するモデル関係取得手段と、
    前記選択した観測モデルと前記取得した遷移関係とに基づいて前記時系列データの異常を検知する異常検知手段とを有することを特徴とする異常検知装置。
  2. 学習用の時系列データから算出された特徴量に基づいて観測モデルを学習する観測モデル学習手段と、
    前記学習した観測モデルを記録する観測モデル記録手段とを有し、
    前記モデル選択手段は、前記観測モデル記録手段に記録された観測モデルから前記算出した特徴量に対する観測モデルを選択することを特徴とする請求項1に記載の異常検知装置。
  3. 前記観測モデル学習手段により学習された観測モデルの時系列の遷移関係を学習する遷移モデル学習手段を有し、
    前記モデル関係取得手段は、前記遷移モデル学習手段により学習された観測モデルの時系列の遷移関係から、前記選択した観測モデルの時系列の遷移関係を取得することを特徴とする請求項2に記載の異常検知装置。
  4. 前記観測モデルは、正常モデルのラベルと異常ラベルが用いられることを特徴とする請求項1から3のいずれか1項に記載の異常検知装置。
  5. 前記モデル関係取得手段は、前記遷移関係として、同一のラベルへの遷移または異なるラベルへの遷移の関係を時系列で取得することを特徴とする請求項1から4のいずれか1項に記載の異常検知装置。
  6. 前記モデル選択手段は、前記選択した観測モデルに基づいて前記特徴量の観測スコアを算出し、
    前記異常検知手段は、当該観測スコアと前記取得した遷移関係とに基づいて前記時系列データの異常を検知することを特徴とする請求項1から5のいずれか1項に記載の異常検知装置。
  7. 前記取得した遷移関係と前記算出された観測スコアに基づいて評価スコアを算出するモデル関係評価手段を有し、
    前記異常検知手段は、前記評価スコアに基づいて前記時系列データの異常を検知することを特徴とする請求項6に記載の異常検知装置。
  8. 前記異常検知手段は、前記観測モデルのラベル間の遷移の長さに応じて閾値を変更し、当該閾値と前記評価スコアとに基づいて前記時系列データの異常を検知することを特徴とする請求項7に記載の異常検知装置。
  9. 時系列データを取得するデータ取得ステップと、
    前記取得した時系列データの所定の時刻における特徴量を算出する特徴量算出ステップと、
    前記算出した特徴量に対して観測モデルを選択するモデル選択ステップと、
    前記選択した観測モデルの時系列の遷移関係を取得するモデル関係取得ステップと、
    前記選択した観測モデルと前記取得した遷移関係とに基づいて前記時系列データの異常を検知する異常検知ステップとを有することを特徴とする異常検知方法。
  10. コンピュータを、請求項1から8のいずれか1項に記載の異常検知装置として機能させるためのプログラム。
JP2014213182A 2014-10-17 2014-10-17 異常検知方法、異常検知装置、及びプログラム Active JP6525542B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014213182A JP6525542B2 (ja) 2014-10-17 2014-10-17 異常検知方法、異常検知装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213182A JP6525542B2 (ja) 2014-10-17 2014-10-17 異常検知方法、異常検知装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016081355A true JP2016081355A (ja) 2016-05-16
JP6525542B2 JP6525542B2 (ja) 2019-06-05

Family

ID=55958743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213182A Active JP6525542B2 (ja) 2014-10-17 2014-10-17 異常検知方法、異常検知装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6525542B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018095429A (ja) * 2016-12-14 2018-06-21 株式会社日立ビルシステム 昇降機診断システム、昇降機診断装置、及び昇降機診断方法
JP2019096014A (ja) * 2017-11-22 2019-06-20 富士通株式会社 判定装置,判定プログラム,判定方法
JP2020021292A (ja) * 2018-08-01 2020-02-06 ルネサスエレクトロニクス株式会社 情報処理装置、情報処理システム、及びプログラム
JP2020141283A (ja) * 2019-02-28 2020-09-03 株式会社Ihi 移動体管理装置、移動体管理システム、および移動体の監視データ送信方法
WO2020234961A1 (ja) * 2019-05-20 2020-11-26 三菱電機株式会社 状態推定装置および状態推定方法
US11048947B2 (en) 2017-01-13 2021-06-29 Canon Kabushiki Kaisha Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system
CN113487362A (zh) * 2021-07-14 2021-10-08 神策网络科技(北京)有限公司 异常用户的检测方法、装置及设备
WO2022113453A1 (ja) * 2020-11-30 2022-06-02 株式会社日立製作所 異常検知装置、異常検知方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157770A (ja) * 2007-12-27 2009-07-16 Toshiba Corp 行動判定装置、行動判定方法および行動判定プログラム
JP2010107435A (ja) * 2008-10-31 2010-05-13 Hitachi Automotive Systems Ltd 地物位置認識装置
JP2013003930A (ja) * 2011-06-19 2013-01-07 Masafumi Hagiwara 不審人物検知方法および装置、異常事象検知方法および装置
JP2014036407A (ja) * 2012-08-10 2014-02-24 Denso Corp 車載ネットワークシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157770A (ja) * 2007-12-27 2009-07-16 Toshiba Corp 行動判定装置、行動判定方法および行動判定プログラム
JP2010107435A (ja) * 2008-10-31 2010-05-13 Hitachi Automotive Systems Ltd 地物位置認識装置
JP2013003930A (ja) * 2011-06-19 2013-01-07 Masafumi Hagiwara 不審人物検知方法および装置、異常事象検知方法および装置
JP2014036407A (ja) * 2012-08-10 2014-02-24 Denso Corp 車載ネットワークシステム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018095429A (ja) * 2016-12-14 2018-06-21 株式会社日立ビルシステム 昇降機診断システム、昇降機診断装置、及び昇降機診断方法
US11048947B2 (en) 2017-01-13 2021-06-29 Canon Kabushiki Kaisha Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system
US11830251B2 (en) 2017-01-13 2023-11-28 Canon Kabushiki Kaisha Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system
JP2019096014A (ja) * 2017-11-22 2019-06-20 富士通株式会社 判定装置,判定プログラム,判定方法
JP7119349B2 (ja) 2017-11-22 2022-08-17 富士通株式会社 判定装置,判定プログラム,判定方法
JP7016302B2 (ja) 2018-08-01 2022-02-04 ルネサスエレクトロニクス株式会社 情報処理装置、情報処理システム、及びプログラム
JP2020021292A (ja) * 2018-08-01 2020-02-06 ルネサスエレクトロニクス株式会社 情報処理装置、情報処理システム、及びプログラム
JP2020141283A (ja) * 2019-02-28 2020-09-03 株式会社Ihi 移動体管理装置、移動体管理システム、および移動体の監視データ送信方法
JP7314529B2 (ja) 2019-02-28 2023-07-26 株式会社Ihi 移動体管理装置、移動体管理システム、および移動体の監視データ送信方法
WO2020234961A1 (ja) * 2019-05-20 2020-11-26 三菱電機株式会社 状態推定装置および状態推定方法
CN113826128A (zh) * 2019-05-20 2021-12-21 三菱电机株式会社 状态推定装置及状态推定方法
TWI747055B (zh) * 2019-05-20 2021-11-21 日商三菱電機股份有限公司 狀態推斷裝置以及狀態推斷方法
CN113826128B (zh) * 2019-05-20 2023-08-08 三菱电机株式会社 状态推定装置及状态推定方法
JPWO2020234961A1 (ja) * 2019-05-20 2021-09-27 三菱電機株式会社 状態推定装置および状態推定方法
WO2022113453A1 (ja) * 2020-11-30 2022-06-02 株式会社日立製作所 異常検知装置、異常検知方法
CN113487362A (zh) * 2021-07-14 2021-10-08 神策网络科技(北京)有限公司 异常用户的检测方法、装置及设备

Also Published As

Publication number Publication date
JP6525542B2 (ja) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6525542B2 (ja) 異常検知方法、異常検知装置、及びプログラム
JP7272417B2 (ja) 物体追跡システム、物体追跡装置、および物体追跡方法
JP6161257B2 (ja) イベント検出装置及びその方法、動作認識装置及びその方法、プログラム
US10063843B2 (en) Image processing apparatus and image processing method for estimating three-dimensional position of object in image
TWI438702B (zh) 影像環境邊界之動態設定方法及人員活動內容之即時判定方法
US10755422B2 (en) Tracking system and method thereof
JP6988790B2 (ja) 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラム
JP5262705B2 (ja) 運動推定装置及びプログラム
WO2013182298A1 (en) Method for annotating images
JP2018181273A (ja) 画像処理装置及びその方法、プログラム
CN111798487A (zh) 目标跟踪方法、装置和计算机可读存储介质
JP6361775B2 (ja) 対象姿勢特定の方法および装置
Chamveha et al. Head direction estimation from low resolution images with scene adaptation
US10937150B2 (en) Systems and methods of feature correspondence analysis
CN117425916A (zh) 遮挡感知的多对象跟踪
JP6812076B2 (ja) ジェスチャ認識装置およびジェスチャ認識プログラム
JPWO2019111932A1 (ja) モデル学習装置、モデル学習方法及びコンピュータプログラム
JP2007280219A (ja) 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム
CN116946610B (zh) 一种智能仓储系统货物拾取方法及装置
Ni et al. Integrating multi-stage depth-induced contextual information for human action recognition and localization
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP6384167B2 (ja) 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム
JP2015011526A (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
JPWO2022044222A5 (ja) 学習装置、学習方法、追跡装置及びプログラム
JP6393495B2 (ja) 画像処理装置および物体認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151