JP2013520722A - ビデオ監視システム - Google Patents

ビデオ監視システム Download PDF

Info

Publication number
JP2013520722A
JP2013520722A JP2012553881A JP2012553881A JP2013520722A JP 2013520722 A JP2013520722 A JP 2013520722A JP 2012553881 A JP2012553881 A JP 2012553881A JP 2012553881 A JP2012553881 A JP 2012553881A JP 2013520722 A JP2013520722 A JP 2013520722A
Authority
JP
Japan
Prior art keywords
vector
motion
data structure
vectors
current trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012553881A
Other languages
English (en)
Other versions
JP2013520722A5 (ja
Inventor
リー,クウ,チュー
オズデミル,ハサン,ティムシン
シー,シャンジュン
リュー,リピン
ジョー,ナムソー
ユー,ファン
リュー,ジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JP2013520722A publication Critical patent/JP2013520722A/ja
Publication of JP2013520722A5 publication Critical patent/JP2013520722A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19676Temporary storage, e.g. cyclic memory, buffer storage on pre-alarm

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

ビデオ監視システムが開示される。このシステムは、複数のモデルを記憶するモデルデータベースと、最近観察軌跡の複数のベクトルを記憶するベクトルデータベースとを有する。システムは、現在軌跡データ構造の動きデータに対応する新しい動きモデルを構築するモデル構築モジュールを含む。システムは、動きデータと異常性スコアを有する現在軌跡データ構造を生成する。システムは、また、ベクトルのサブセットと現在軌跡データ構造との類似性基準に基づいて、現在軌跡データ構造に対して最も類似したベクトルのサブセットを決定するように構成されたデータベースパージモジュールを含む。データベースパージモジュールは、更に、サブセット内のベクトルの量とベクトルのサブセットの最近さとに基づいて、モデルデータベース内の動きモデルのうちの1つを新しい動きモデルと置き換えるように構成される。
【選択図】図2

Description

本開示は、異常挙動検出の存在を決定するために使用されるモデルを適応的に更新するビデオ監視システムに関する。
セキュリティ問題は、かつてないほど、国民的関心レベルまで高まっている。人々と財産の安全を保証するには、危険領域又は空間での監視が極めて重要である。従来より、保安要員が空間を監視することがある。例えば、空港では、保安職員が、保安検査箇所を監視することがあり、保安検査箇所は、一般に、人々が搭乗ゲートを出口から出て、金属探知器と荷物スキャナを通って搭乗ゲートに入ることができるように設定される。保安要員が出口に注意を払うのを一時的に止めると、保安上の脅威が、出口から搭乗ゲートに入る可能性があると想像することができる。これが起こると、空港保安要員がその保安上の脅威を探すために大幅な遅延が起こることがある。更に、監視されるそれぞれの空間が、少なくとも1人の保安要員によって監視されなければならず、したがって、保安コストが増大する。
空間を監視する他の手段は、単一のカメラ又は複数のビデオカメラに空間又は複数の空間を監視させ、保安要員にビデオフィードを監視させることである。しかしながら、この方法は、保安要員がビデオフィードを見ている間に気が散ったり、無関係なビデオフィードを観察している間に該当するビデオフィードを見逃したりすることがあるので、人為ミスの問題を引き起こす。
ビデオ監視システムは次第に自動化されてきているが、現在、空間は、事前に定義された動きモデルを使用することにより監視されている。例えば、保安システムのコンサルタントが、正常としてラベル付けされた軌跡を定義にハードコードし、観察された動きが、ハードコードされた軌跡と比較されて、観察された動きが正常かどうかが判断されることがある。しかしながら、この手法は、正常挙動の静的定義を必要とする。したがって、自動ビデオ監視システム技術では、動きモデルを定義し異常挙動を検出する自動化されかつ/又は適応的な手段が必要とされている。
この節では、本開示と関連し必ずしも先行技術ではない背景情報を提供する。
一態様では、ビデオカメラの視野に対応する画像データを生成するビデオカメラを有するビデオ監視システムが開示される。このシステムは、以前観察された物体の動きを定義する複数の動きモデルを記憶するモデルデータベースを含む。システムは、また、動きデータと少なくとも1つの異常性スコアとを有する現在軌跡データ構造を含み、動きデータは、ビデオカメラの視野内で移動していることが観察された現物体の時空軌跡を定義し、異常性スコアは、複数の動きモデルに対する現在軌跡データ構造の異常さの程度を示す。システムは、更に、カメラによって最近観察された物体の動きにそれぞれ対応する最近観察軌跡の複数のベクトルと、現在軌跡データ構造の動きデータに対応する新しい動きモデルを構築するモデル構築モジュールとを記憶するベクトルデータベースを含む。システムは、また、現在軌跡データ構造を受け取り、ベクトルのサブセットと現在軌跡データ構造との類似性の基準に基づいて、ベクトルデータベース内の複数のベクトルから、現在軌跡データ構造に最も類似したベクトルのサブセットを決定するように構成されたデータベースパージモジュールを含む。更に、データベースパージモジュールは、サブセットベクトル内のベクトルの量と、ベクトルのサブセットの最近観察軌跡が観察されてからの時間量とに基づいて、モデルデータベース内の動きモデルのうちの1つを新しい動きモデルと置き換えるように構成される。
この節は、本開示の概要を提供し、本開示の完全な範囲と全ての特徴を包括的に開示するものではない。更に他の適用範囲は、本明細書に示された説明から明らかになる。この要約の説明と具体例は、単に例証のためのものであり、本開示の範囲を限定するものではない。
例示的なビデオ監視システムを示すブロック図である。
監視システムの例示的構成要素を示すブロック図である。
ビデオカメラの例示的視野(FOV)を示す図である。
カメラの例示的なFOVをFOV上に重ねられたグリッドと共に示す図である。
例示的な軌跡ベクトルの図である。
軌跡をスコアリングする例示的な方法を示す流れ図である。
メタデータ処理モジュールの例示的な構成要素を示すブロック図である。
方向オクタントに分割されたデータセルを示す図である。
異常挙動検出モジュールの例示的構成要素を示すブロック図である。
動的モデルデータベースと特徴ベクトルデータベースの例示的実施形態を示す図である。
データベースパージモジュールの例示的構成要素を示すブロック図である。
例示的なHaar変換を示す図である。
軌跡の特徴ベクトルを照合する例示的な方法を示す流れ図である。
メタデータ処理モジュールの代替実施形態の例示的な構成要素を示すブロック図である。
外れ値の存在を決定する例示的な方法を示す流れ図である。
バウンディングボックスサイズ内の外れ値の存在を決定する例示的な方法を示す流れ図である。
観察された速度での外れ値の存在を決定する例示的な方法を示す流れ図である。
観察された加速度での外れ値の存在を決定する例示的な方法を示す流れ図である。
外れ値確認を行う方法を示す状態図である。
Haarフィルタの例示的な構成要素を示すブロック図である。
セルのオクタントのカウントを増分及び減分する種々の手段を示すグラフである。 セルのオクタントのカウントを増分及び減分する種々の手段を示すグラフである。 セルのオクタントのカウントを増分及び減分する種々の手段を示すグラフである。
係数平滑化を行うために使用される部分的Haar変換を示す図である。
本明細書で説明される図面は、単に特定の実施形態を例証するためのものであり、全ての可能な実施形態を例証するためのものではなく、本開示の範囲を限定するものではない。図面の幾つかの図全体にわたって対応する参照数字は対応する部分を示す。
自動ビデオ監視システムの一実施形態を本明細書で説明する。このシステムは、ビデオストリーム(即ち、画像データ)を受け取り、カメラの視野(FOV)内で動いている被観察物体(以下では運動物体と呼ぶ)を検出する。画像データは処理され、運動物体の場所が分析される。運動物体の分析に基づいて運動物体の軌跡が生成される。次に、運動物体の軌跡は、少なくとも1つのスコアリングエンジンを使用してスコアリングされ、また階層的スコアリングエンジンによってスコアリングされてもよい。スコアリングエンジンは、観察軌跡を、対照として正常挙動モデルを使用してスコアリングする。スコアリングエンジンの結果に基づいて、異常挙動が検出されることがある。
正常挙動モデルは、予想挙動又は容認挙動(即ち、通常は警告イベントのレベルまで高まらないことがある挙動)に対応する物体の軌跡又は動きパターンを定義する。例えば、駐車場入口を監視している状況では、ゲートで短期間停止し、次に駐車場に低速で進入する車両は、「正常」挙動と見なされる。
しかしながら、特定の空間内では、正常挙動と見なされることが1日のうちに何度も変化することがあることが分かる。更に、特定の軌跡が予想外であっても正常のことがある特別のイベントが起こることがある。例えば、校舎の扉が監視されている状況がある。通常は、授業期間中、校舎から出る物体(例えば、学生)の観察軌跡は、異常と分類されることがある。しかしながら、その特定の時間に学生のクラスが特別授業のために外出した場合は、学生の軌跡は実際には正常である。より多数の学生が校舎から出ることが観察されたとき、システムは、この軌跡を学習し、その後で軌跡に対応する新しい正常動きモデルを記憶することができる。しかしながら、出来事が特別のものであったとき、その新しい正常動きモデルは、システムからパージされなければならず、したがってその軌跡は正常でなくなる。この新しい正常動きモデルは、より最近観察された軌跡に対応するより新しい動きモデルと置き換えられる。理解されるように、観察された類似軌跡の量と類似軌跡の最近さに基づいて何が正常」挙動であるかを評価する。正常動きモデルに対する類似軌跡の最近さと量の少なくとも一方の指標、又はその関数が、別の組の観察軌跡のしきい値又は指標より低くなると、特定の正常動きモデルをシステムからパージするか徐々に消去することができる。理解されるように、これにより、異常挙動の正確な検出が可能になるだけでなく、システムが必要とする記憶域の量を最小にすることもできる。
図1を参照すると、例示的な自動ビデオ監視システム10が示される。システムは、検出装置(例えば、ビデオカメラ12a〜12n)と監視モジュール20とを含むことがある。検出装置が、赤外線カメラなどの他のタイプの監視カメラでもよいことを理解されたい。説明のため、検出装置は、本明細書ではビデオカメラと呼ばれる。更に、単一のカメラ12aに対する言及は、カメラ12b〜12nに拡張することができる。ビデオカメラ12a〜12nは、空間を監視し、カメラの視野(FOV)とFOV内に観察された物体とに関する画像データを生成し、その画像データを監視モジュール20に伝える。監視モジュール20は、画像データを処理して、動きイベントが起きたかどうかを判定するように構成されてもよい。動きイベントとは、カメラ12aのFOV内で運動物体が観察されたことである。運動物体が検出された後で、運動物体の軌跡の動きに対応する観察軌跡が、監視モジュール20によって生成されることがある。次に、監視モジュール20は、正常動きモデルを基準として使用する少なくとも1つのスコアリングエンジンを使用して軌跡をスコアリングしてもよい。観察軌跡が異常であると判定された場合は、警告通知が生成されることがある。次に、観察軌跡に対応するスコアを含む観察軌跡の特徴が、他の最近観察軌跡の特徴と比較される。比較的多数の最近観察軌跡が同様にスコアリングされた場合、監視モジュール20は、正常動きモデルを最近観察軌跡に対応する新しい正常動きモデルを含めるように更新する。監視モジュール20は、また、ビデオ保持方針を管理することができ、それにより、監視モジュール20は、記憶すべきビデオと、システムからパージすべきビデオを決定する。
図2は、監視モジュール20の例示的な構成要素をより詳細に示す。ビデオカメラ12は、取得したビデオに対応する画像データを生成する。例示的なビデオカメラ12は、画像データに対応するメタデータを生成するメタデータ生成モジュール28を含む。あるいは、メタデータ生成モジュール28が、監視モジュール20に含まれてもよいことを想起されたい。メタデータ処理モジュール30は、メタデータを受け取り、運動物体の観察軌跡を決定する。カメラのFOV内に複数の運動物体を観察することができ、したがってメタデータ処理モジュール30によって複数の観察軌跡が生成されることがあることを理解されたい。
観察軌跡は、異常挙動検出モジュール32によって受け取られる。次に、異常挙動検出モジュール32は、軌跡を1つ又は複数のスコアリングエンジン34に伝える。スコアリングエンジン34は、動的モデルデータベース44から正常動きモデルを取り出し、その正常動きモデルに対して観察軌跡をスコアリングする。幾つかの実施形態では、後述されるように、スコアリングエンジンは階層的である。個別のスコアリングエンジン34は、異常挙動検出モジュール32にスコアを返す。次に、異常挙動検出モジュール32は、スコアを分析して異常挙動が観察されたかどうか判断する。異常挙動が観察された場合、警告イベントは、警告生成モジュール36に伝えられることがある。更に、正常又は異常の観察軌跡が、データベースパージモジュール38に伝えられる。
データベース更新モジュール38は、最近観察軌跡を適応的に学習し分析して運動物体の動きパターン(例えば、運動物体の概略方向)の変化が起きたかどうかを判定する。変化が起きた場合、データベース更新モジュール38は、新しいフローパターンに対応する正常動きモデルを生成し、新しい正常動きモデルを動的モデルデータベース44に記憶する。更に、正常動きモデルに対応する軌跡が観察されなくなった場合は、データベース更新モジュール38が、動的モデルデータベース40からそのモデルをパージする。
監視モジュール20は、RAM、ROM、CD−ROM、ハードディスクドライブなどのコンピュータ可読媒体に埋め込まれたコンピュータ可読命令として実現することができる。更に、命令は、ビデオ監視システムと関連付けられたプロセッサによって実行可能である。更に、監視モジュールの構成要素又は準構成要素の幾つかは、専用ハードウェアとして実現されてもよい。
メタデータ生成モジュール28は、画像データを受け取り、画像データに対応するメタデータを生成する。メタデータの例には、運動物体識別子、運動物体の周りのバウンディングボックス、バウンディングボックス上の特定点の(x,y)座標(例えば、左上角又は中心点)、バウンディングボックスの高さと幅、及びフレーム番号又はタイムスタンプを挙げることができるが、これらに限定されない。図3Aは、カメラのFOV内のバウンディングボックス310の例を示す。バウンディングボックスの基準点又は基準位置として左上角が使用されることが分かる。また、図では、(x,y)座標、バウンディングボックス310の高さと幅を含む、抽出できるメタデータの例が示されている。更に、FOVは、複数のセルに分割されてもよい。図3Bは、5x5格子(即ち、25個のセル)に分割された例示的なFOVを示す。参考のため、バウンディングボックスと運動物体も示される。FOVが格子に分割されたとき、運動物体の位置を、運動物体又はバウンディングボックス上の特定の点があるセルによって参照することができる。更に、カメラの特定の時系列のセル又は領域のメタデータを、データキューブにフォーマットすることができる。更に、各セルのデータキューブは、セルを通過するときに運動物体から得られた観察動き及び外観サンプルに関する統計を含むことができる。
理解されるように、動きイベントが検出されるたびに、タイムスタンプ又はフレーム番号を使用して運動物体特徴を時間的に配列することができる。各イベントで、特定のフレーム又はタイムスタンプのメタデータが生成されてもよい。例えば、以下は、運動物体に対応するメタデータを表わし、タイムスタンプ付きメタデータは、以下の<t,x,y,h,w,obj_id>に従ってフォーマットされる。
<t,5,5,4,2,1>,<t,4,4,4,2,1>, ...<t,1,1,4,2,1>
運動物体は、1のidタグを有し、高さ4単位と幅2単位のバウンディングボックスを有し、5つのサンプルで点(5,5)から点(1,1)に移動したことが分かる。運動物体は、1組の時空座標によって定義されることを理解されたい。また、メタデータを生成するメタデータ生成モジュール28によって、現在既知又は今後開発される画像データからメタデータを生成する任意の手段が使用されてもよいことを理解されたい。
メタデータ生成モジュール28は、メタデータ処理モジュール30にメタデータを伝える。メタデータ処理モジュール30は、メタデータから運動物体の軌跡ベクトルを生成する。例えば、メタデータ処理モジュール30は、特定の運動物体に関する複数のデータキューブを受け取ることができる。メタデータ処理モジュール30は、タイムスタンプ付きメタデータ又は順番付きメタデータから、運動物体の動きを表わすベクトルを作成することができる。軌跡を表わすベクトルは、特定の時間におけるバウンディングボックスの場所、運動物体の速度、運動物体の加速度を限定ではなく含んでもよく、また特定の時点における軌跡の様々なスコアのフィールドを有してよい。
図4は、軌跡の例示的なベクトル表現を示す。ベクトルから分かるように、運動物体の軌跡をスコアリングエンジン34に容易に渡すことができ、軌跡がスコアリングされたとき、SEによって指定されたフィールドが、対応するスコアに設定され、それにより異常の程度が示される。軌跡を表わすベクトルを開示するが、軌跡を表わす他のタイプのデータ構造を使用してもよいことを理解されたい。
メタデータ処理モジュール30は、メタデータから外れ値を除去するように構成されてもよい。例えば、受け取ったメタデータが、残りのメタデータと一致しない場合、メタデータ処理モジュール30は、受け取ったメタデータが外れ値であると判定し、軌跡データ内にマークする。
図6は、メタデータ処理モジュール30の例示的な実施形態の構成要素を示す。メタデータ処理モジュール30は、メタデータ生成モジュール28からメタデータを受け取る。ベクトル生成モジュール60は、メタデータを受け取り、生成されるベクトルの量を決定する。例えば、2つの物体が単一シーン内で動いている場合は、2つのベクトルが生成される。ベクトル生成モジュール60は、所定の量までの軌跡ベクトルを記憶するベクトルバッファを有してもよい。更に、ベクトル内のエントリの量が、運動物体が中で観察されたフレーム又はタイムスタンプ付きフレームの量と等しくなるとき、ベクトル生成モジュール60は、運動物体に対応する各ベクトルに適切な量のメモリを割り当てることができる。ベクトル生成が実時間で行われる場合、ベクトル生成モジュールは、新しいメタデータを受け取ったときに軌跡内の新しい点に追加メモリを割り当てることができる。ベクトル生成モジュール60は、また、位置データと時間データを軌跡ベクトルに挿入する。位置データは、メタデータデータキューブから決定される。位置データは、実際の(x,y)座標にリストされてもよく、運動物体が中に観察されたセルを識別することによってリストされてもよい。
速度計算モジュール62は、様々な時間サンプルで軌跡の速度を計算する。各時間区間での速度が、2つの成分、即ち速度ベクトルの方向と大きさを有することを理解されたい。大きさは、運動物体の速度に関係する。tcurrでの軌跡の速度ベクトルの大きさ、即ち運動物体の速度は、次の式によって計算することができる。
Figure 2013520722
あるいは、速度ベクトルの大きさは、次のように個々の成分で表わされてもよい。
Figure 2013520722
更に、データセル表現が使用される場合、即ち、運動物体の位置が、運動物体が中で見つかったデータセルによって定義される場合は、データセルに対応する所定の(x,y)値が、実際の位置の代わりに使用されてもよいことを理解されたい。計算された速度が、カメラのFOVに対して相対的であり、例えば1秒当たりの画素になることを理解されたい。したがって、2つの物体が、同じ速度又は類似の速度で移動している事実にもかかわらず、遠くの方の物体は、カメラに近い物体より遅く見える。相対速度を使用することが想起されるが、速度が物体の実速度又はその近似値となるように変換されてもよい。例えば、FOVの下部にある運動物体は、第1のより小さいスカラー量で計ることができ、FOVの真中の運動物体は、第2の中間のスカラー量で計ることができ、FOVの上部近くにある物体は、第3のより大きいスカラー量で計ることができる。この例では、FOVの下部にある物体が、FOVの真中にある物体より近く、FOVの真中にある物体が、FOVの上部近くにある物体より近いと仮定する。更に、相対速度又は絶対速度を計算する他の手段を実施してもよいことが想起される。
各データセルを所定のサブセル(例えば、8つのオクタント)に分割することによって、速度ベクトルの方向を、データセル内のその方向に対して表わすことができる。図7は、8つのオクタント1〜8に分割されたデータセル70の例を示す。tcurr〜tcurr+1のサンプルの軌跡の方向により、軌跡がどのオクタントに入るかを決定することによって方向を近似することができる。例えば、NNE(北北東)近くの任意の方向(例えば、実質的に上少し右方向に移動する軌跡は、参照番号72によって示されたように単一軌跡によって示すことができる。したがって、データセルのどの速度ベクトルも、データセルオクタント識別子及び大きさによって表わすことができる。
加速度計算モジュール64は、速度計算モジュールと実質的に同じように動作する。位置値の代わりに、様々な時間サンプルでの速度ベクトルの大きさが使用されてもよい。したがって、加速度は、以下の式で計算することができる。
Figure 2013520722
あるいは、加速度ベクトルの大きさは、次のようにその個々の成分で表わされてもよい。
Figure 2013520722
方向に関して、加速度ベクトルの方向は、速度ベクトルと同じ方向でよい。しかしながら、運動物体が減速又は回転している場合は、加速度ベクトルの方向が、速度ベクトルの方向と異なることを理解されたい。
外れ値検出モジュール66は、軌跡ベクトルを受け取り、様々な時間サンプリングでの運動物体の値を読み取る。外れ値とは、データセットの残りの部分と一致しないデータサンプルのことである。例えば、運動物体が、サンプルt1及びt3でFOVの左上角で検出されたが、サンプルt2で右下角にあった場合、外れ値検出モジュール66は、時間t2での時間サンプルが外れ値であると判定することができる。外れ値検出モジュール66内で外れ値を検出する任意の手段が実施されてもよいことを想起されたい。更に、外れ値が検出された場合、外れ値検出モジュールは、他のデータサンプルに基づいて運動物体の位置を補間することができる。これは、例えば、外れ値データ点のすぐ前とすぐ後のデータ点における位置を平均化することによって行うことができる。データを補間する他の手段が使用されてもよい。例えば、前後のデータ点の加速度と速度を補間に使用して、より正確な位置の推定を得ることができる。
メタデータ処理モジュール30が、後述するHaarフィルタを含む他の手段によって運動物体の速度と加速度を計算できることに注意されたい。更に、後述するように、軌跡ベクトルを実時間でスコアリングすることもできる。これらの実施形態では、動きイベントが起きたとき、メタデータ処理モジュール30は、現在データを決定し、更新軌跡ベクトルを異常挙動検出モジュール32に渡す。
メタデータ処理モジュール30は、更に、各セルのデータキューブを生成するように構成されてもよい。データキューブとは、アレイ内の各要素が異なる時間に対応する多次元配列である。各エントリは、対応する時間に特定のセル内で観察された動きデータである。こうして、セルのデータキューブ内で、時間の経過により観察された様々な運動物体の速度と加速度が記録される。更に、データキューブは、最小バウンディングボックスのサイズなどの運動物体の予想属性を含むことがある。
次に、画像データ内で観察された運動物体に対応する観察軌跡ベクトルが、異常挙動検出モジュール32に伝えられる。異常挙動検出モジュール32は、観察軌跡ベクトルを受け取り、軌跡ベクトルを1つ又は複数のスコアリングエンジンに伝える。スコアリングエンジンは、軌跡の異常性スコアを返す。異常性スコアは、軌跡ベクトル内の特定のイベントに対応することができ、例えば、軌跡ベクトル内のタイムスタンプごとに、その時間まで運動物体の動きに対応する異常性スコアが戻されてもよい。例えば、各タイムスタンプに関して、特定のタイムスタンプまでの軌跡ベクトルが、様々なスコアリングエンジンによってスコアリングされる。したがって、軌跡ベクトルが、正常軌跡としてスコアリングされ始めた場合、物体の動きが正常動きモデルから逸脱するまでスコアが相対的に低下し、その時点で異常性スコアが上昇する。
図5は、異常挙動検出モジュール32によって行われることがある例示的な方法を示す。ステップ501に示されたように、異常挙動検出モジュール32が、観察軌跡ベクトルを受け取る。観察軌跡ベクトルは、特定の時点における軌跡の異常性スコアを表わす複数の未定義フィールドを含むことができる。したがって、ステップ503で示されたように、異常挙動検出モジュール32は、軌跡ベクトルを複数のスコアリングエンジンに伝える。後で詳述されるスコアリングエンジンは、様々な時点における軌跡をスコアリングし、そのスコアを軌跡フィールドの適切なフィールドに記録する。
ステップ505に示されたように、軌跡ベクトルが、スコアリングエンジンによってスコアリングされた後で、異常挙動検出モジュール32が、スコアリングされた軌跡ベクトルを受け取り、次に異常挙動が検出されたかどうかを判断できることが分かる。この判断は、スコアリングエンジンに関連する軌跡ベクトルの各行を調べることによって達成されてもよい。各行に関して、連続スコア又はほぼ続きのスコアが、所定のしきい値より大きい異常性スコアを有する場合は、連続実行中に、挙動が異常であったと仮定することができる。異常挙動が検出された場合は、ステップ511で示されたように、スコアリングエンジンは、必要に応じてサブスコアリングエンジンを開始することができる。
軌跡ベクトルが、スコアリングエンジン34と多くの場合サブスコアリングエンジンによってスコアリングされ、スコアリングエンジン34の1つ又は複数から異常挙動が検出された後で、ステップ509に示されたように、異常挙動検出モジュール32は、運動物体の軌跡を異常性スコアに基づいて分類してもよい。更に、異常挙動検出モジュール32は、軌跡ベクトルの個々のセグメントを異常性スコアに基づいて分類するように構成されてもよい。
次に、例示的な異常挙動検出モジュール32と例示的なスコアリングエンジンについて詳しく説明する。位置、速度及び加速度データが計算された後で、異常挙動検出モジュール32は、メタデータ処理モジュール30から軌跡ベクトルを受け取る。図8は、異常挙動検出モジュール30の例示的な構成要素を示す。異常挙動検出モジュールの例示的な構成要素は、複数のスコアリングエンジンと通信するスコア蓄積モジュール82と、蓄積されたスコアに基づいて運動物体の挙動を分類する挙動分類モジュール84とを含む。スコア蓄積モジュール82は、軌跡ベクトルを複数のスコアリングエンジン86a〜nに伝える。各スコアリングエンジンは、軌跡ベクトルを、特定の予想挙動又は許容挙動を定義する1つ又は複数の正常動きモデルに対して評価するように構成される。スコアリングエンジンは、各時間サンプルで、1つ又は複数のモデルとの一致の程度を示すスコアを返す。したがって、16個のエントリを有する軌跡ベクトルは、各スコアリングエンジンから返された16個のスコアを有することができる。しかしながら、エントリが例外なく対応するスコアを必要とするわけでないことを理解されたい。
スコアリングエンジン86a〜nは、軌跡ベクトルを受け取り、軌跡を動的モデルデータベース44に記憶された動きモデルと比較することによって軌跡をスコアリングする。前述したように、スコアリングエンジン86a〜nは、階層的でよい。例えば、高速化スコアリングエンジンは、軌跡を受け取り、その軌跡を「正常」挙動を定義する1つ又は複数のモデルと比較する。軌跡に高速化が検出された場合は、その軌跡は、様々なタイプの高速化の検出と全て関連付けられた種々のサブスコアリングエンジンに伝えられてもよい。例えば、高速化サブスコアリングエンジンは、突発高速化、定加速高速化、長距離高速化、又は他のタイプの高速化を検出するように構成されたスコアリングエンジンを含んでもよい。彷徨サブスコアリングエンジン(wandering sub scoring engine)は、ぶらつき(loitering)又は留まり(staying around)を検出してもよい。異常動きサブスコアリングエンジンは、交通の流れに逆らう動き、交通の流れに垂直な動き、交通の流れの中のジグザグの動き、又は交通の中の折り返しを検出してもよい。種々のスコアリングエンジンが、米国出願第11/676,127号を含む前に提出された出願に記載されており、この出願は、参照により本明細書に組み込まれる。
読者に状況を示すために、例示的な高速化スコアリングエンジンと突発高速化スコアリングエンジンについて述べる。高速化スコアリングエンジンは、軌跡ベクトルを受け取る。例えば、{...,[t(i−1),x(i−1),y(i−1),V(i−1),...],[t,x,y,V,...]}の軌道を受け取る。この例では、時間t(i−1)及びtにおける同じ物体の観察(現在フレームと前フレーム)が、軌跡データに含まれる。更に、軌跡データは、tで始まる任意又は全ての観察、即ち、物体が検出された最初のフレームを含むことができる。次に、高速化エンジンは、動的モデルデータベース44から正常速度動きモデルを取り出す。特定の挙動に単一モデルだけを使用する高速化スコアリングエンジンについて述べたが、スコアリングエンジンは、複数の正常速度動きモデルを利用してもよい。したがって、観察軌跡が、モデルのうちの少なくとも1つと一致した場合、即ち、特定の正常動きモデルと比較したときに低い異常性スコアを有する場合、挙動は正常である。スコアが全て異常な場合は、スコアリングエンジンは、軌跡のスコアを幾つか方法(例えば、平均異常性スコア、中間異常性スコア、最高異常性スコア、最低異常性スコア)で提供することができる。
速度動きモデルは、予想速度(μ)(即ち、予想速度成分(μ)と(μ))と、予想速度の標準偏差(σ)(即ち、(σ)と(σ))を含むことができる。速度成分を使用することによって、tでの生高速化スコアを、次の式で計算することができる。
Figure 2013520722
生高速化スコアは、スコアがkσからどれだけ離れているかにより生高速化スコアを間隔[0,1]にマッピングする関数によって処理されてもよいことを理解されたい。ここで、kは例えば3である。
i番目のフレームの高速化スコアは、多くの方法で決定することができる。1つの可能な方法は、時間ウィンドウの中間スコアを決定することである。例えば、i番目のフレームの高速化スコアは、次の式によって決定されてもよい。
SpeedingScore(i)=median{RawSpeedingScore(i-k-1),...,RawSpeedingScore(i-1),RawspeedingScore(i)} (6)
この場合も、以上の方法は、高速化スコアを決定する1つの方法に過ぎず、高速化スコアや他のタイプのスコアを決定する他の手段が意図される。
軌跡を分析するとき、各タイムスタンプ又はフレームには高速化スコアが関連付けられる。軌跡が、一般的なスコアリングエンジン(例えば、高速化スコアリングエンジン)によってスコアリングされた後で、スコアリングエンジンは、その軌跡のスコアを調べ、サブスコアリングエンジンを呼び出す必要があるとかどうかを判断する。したがって、所定の量のスコア(例えば、3)がしきい値より大きいことをスコアリング高速化エンジンが検出した場合は、例えば突発高速化スコアリングエンジンを含む高速化サブスコアリングエンジンが呼び出される。
例示的な突発高速化スコアリングエンジンは、時間ウィンドウ内で、突発高速化しきい値を超えるスコア値の数を数えることができる。例えば、j番目のフレームに関して、突発高速化スコアリングエンジンは、前のm個(例えば、5個)のスコアを調べて、何個のスコアがしきい値を超えるかを判定する。次に、突発高速化エンジンは、ウィンドウ内の突発高速化しきい値を超えるスコアの比率を計算する、
BurstSpeedingScore(j)=count/window_size (7)
ここで、countは、時間ウィンドウ内で突発高速化しきい値を超えるスコアの量であり、window_sizeは、突発高速化スコのサンプルサイズ(即ち、m)である。幾つかの実施形態では、標準偏差を計算する代わりにスコアの中央値とスコアの中央値からの偏差の中央値とを計算することによって、突発高速化しきい値を時間ウィンドウ内のスコア値から抽出することができ、バーストしきい値は、しきい値構成を容易にするために「中央値+偏差の中央値」として定義することができる。
高速化エンジンと突発高速化エンジンの以上の説明は、例示的ために提供された。高速化スコアリングエンジンと突発高速化サブスコアリングエンジンの他の実施形態が意図されることを理解されたい。更に、任意のタイプのスコアリングエンジンとサブスコアリングエンジンがシステム内に実現されてもよい。
スコアリングエンジンが、それぞれのスコアとサブスコアを異常挙動検出モジュール32に返した後、異常挙動検出モジュール32は、運動物体の挙動を分類することができる。例えば、運動物体が、異なるタイプの動きを有する3つの個別のセグメントを有する場合、軌跡は、<突発高速化、彷徨、定加速高速化>として分類されることがあり、これは、運動物体が、最初に、突発高速化に入り、カメラのFOV内で彷徨し、次にカメラのFOVから出たときに定加速度で加速されたことを示す。軌跡ベクトルが、様々なスコアリングエンジンとそれらと関連付けられたサブスコアリングエンジンとからのスコアを有することを理解されたい。したがって、異常挙動検出モジュール32は、軌跡ベクトルの様々なスコアを読み取り、特定のセグメントの異常性スコアに基づいて軌跡ベクトルの各セグメントを分類する。特定のセグメントが、きわめて高い高速化スコアを有する場合、その特定のセグメントは、高速化、即ちその下位分類として分類される。
軌跡ベクトルがスコアリングされた後で、異常挙動モジュール32が通信し、データベースパージモジュール38は、スコアリングされた軌跡ベクトルを受け取り、軌跡が動的モデルデータベース44内の動きモデルとして含まれるかどうかを判断する。データベースパージモジュール38は、更に、運動物体の時間フローパターンを適応的に学習するように構成される。関連時間フローパターンに対応するモデルを、データベースパージモジュール38が生成し、動的モデルデータベース44に記憶することができるので、異常挙動検出モジュール36は、学習した時間フローパターンを使用して、異常挙動スコアを正確に生成する。
データベースパージモジュール38は、より昔の関連しない動きモデルを除去し、より新しい関連したモデルを動的モデルデータベース44に追加することによって、動的モデルデータベース44を管理する。1日の間に、多くの軌跡が観察されることがあり、またカメラのFOV内で観察される概略的な交通の流れが変化することがあることが分かる。これにより、特徴ベクトルデータベース42は、最近観察軌跡の特徴ベクトルを記憶する。特徴ベクトルは、最近観察軌跡の軌跡ベクトルの特定の行から取り出される。他の実施形態では、特徴ベクトルデータベース44は、最近観察軌跡の実際の軌跡ベクトルを記憶してもよい。類似の特徴ベクトル又は軌跡を有する多数の軌跡が観察されるとき、データベースパージモジュール38は、それらの軌跡に対応する新しい動きモデルを動的モデルデータベース44に追加してもよく、モデルの最大量に達した場合は、モデル消去モジュール38は、妥当性の低い正常動きモデルを新しい動きモデルと置き換えてもよい。データベースパージモジュール38、動的モデルデータベース44及び特徴ベクトルデータベース42の更なる詳細は、後で提供される。
動的モデルデータベース44は、スコアリングエンジンによって使用される種々の正常動きモデルを含む。したがって、幾つかの実施形態では、動的モデルデータベース44は、各タイプのスコアリングエンジン用の特定の動きモデルを有する。例えば、動的モデルデータベース44は、高速化スコアリングエンジン用の3つの特別のモデルと、彷徨スコアリングエンジン用の3つの特別のモデルと、交通の流れスコアリングエンジン用の3つの特別のモデルとを記憶することができる。
更に、動的モデルベース44は、特定のスコアリングエンジンが動的モデルデータベース44に記憶することができる動きモデルの量の上限を有することがある。例えば、動的モデルデータベース44は、高速化スコアリングエンジン用の3つの速度モデルだけを記憶するように制限されてもよい。
更に、動的モデルデータベース44に記憶された各モデルは、特定のモデルが他のモデルにどれだけ匹敵するかを示す妥当性スコアや他の指標を含むことができる。モデルの妥当性スコアは、特徴ベクトルデータベース42内の類似軌跡の量とそれらの軌跡の最近さの両方の関数の値である。
図9は、動的モデルデータベース44と特徴ベクトルデータベース42の例示的編成を示す。動的モデルデータベース44は、高速化スコアリングエンジン用のモデルと彷徨スコアリングエンジン用のモデルとを記憶する。前述したように、他のスコアリングエンジンは、また、動的モデルデータベース44に記憶された対応するモデルを有してもよい。動的モデルデータベース44に記憶された各モデルは、モデルデータ92を有する。図では、高速化モデル3の例示的なモデルデータ92が示される。モデルに対応する妥当性スコアもあることを理解されたい。後述するように、動的モデルデータベース44に新しいモデルが追加されたとき、特定のスコアリングエンジン用の最大量のモデルが、動的モデルデータベース44に既に記憶されている場合、新しいモデルが、昔のモデルに置き換わる。モデルの妥当性スコアは、データベースパージモジュール38が動的モデルデータベース44からモデルをパージする順序を決定する。更にまた、動的モデルデータベース44は、後述するように、モデルの妥当性スコアを更新できるようにモデルと一致した最も最近の軌跡のタイムスタンプを記憶する。
特徴ベクトルデータベース42は、最近観察軌跡の特徴ベクトルを記憶し、特徴ベクトルの特徴は、軌跡ベクトルの異常性スコアに対応することができる。種々のスコアリングエンジンとサブスコアリングエンジンによって軌跡がスコアリングされるときに、軌跡のスコアベクトルの特徴抽出が行われてもよい。更に、軌跡の開始位置と軌跡の時間が特徴ベクトルに含まれてもよい。データベースパージモジュール38は、特徴ベクトルデータベース42に記憶された特徴ベクトルを使用して、動的モデルデータベース44内の正常動きモデルを新しい正常動きモデルと置き換える必要があるとかどうかを判断する。これは、一組又は一群の最近観察軌跡が、動的モデルデータベース44内のモデルのスコアより高い妥当性スコアを有するときに行われる。
図10は、例示的なモデル消去モジュール38の構成要素を示す。モデル消去モジュール38は、現在軌跡ベクトル102を受け取り、現在軌跡ベクトルに基づく新しい動きモデルを、動的モデルデータベース44内の動きモデルの1つと置き換えるべきかどうかを判断する。詳細には、特徴抽出モジュール104は、現在軌跡を受け取り、ベクトルの特徴抽出を行う。次に、抽出された特徴ベクトルが比較され、特徴ベクトルデータベース42に記憶された特徴ベクトルと照合される。特徴ベクトル照合モジュール106は、現在軌跡ベクトルの特徴ベクトルが、特徴ベクトルデータベース42に記憶された最近観察軌跡の特徴ベクトルの1つ又は複数と類似しているかどうかを判定するように構成される。次に、妥当性スコアカルキュレータ108が、1組の類似の特徴ベクトルの妥当性スコアを計算する。データベース更新モジュール110は、妥当性スコアを受け取り、それをデータベース内のモデルの妥当性スコアと比較する。その場合、モデル構築モジュール112は、現在軌跡ベクトルに基づいて動きモデルを生成し、動きモデルは、動的モデルデータベース44に記憶される。抽出特徴ベクトルは、特徴ベクトルデータベース42に記憶される。
特徴抽出モジュール104は、現在軌跡ベクトルを受け取り、現在軌跡ベクトルの特徴抽出を行って特徴ベクトルを生成する。幾つかの実施形態では、特徴抽出は、特定のスコアリングエンジンによって生成されたスコアに対応する個々の行(即ち、軌跡ベクトルのスコアベクトル)に行われる。したがって、システムが、10個のスコアリング及びサブスコアリングエンジンを有する場合は、特徴抽出モジュール104の繰り返し1回当たり最大10個の特徴ベクトルを生成することができる。更に、特徴抽出モジュール104は、軌跡ベクトルの開始位置と時間を特徴ベクトルに関連付けることができる。
特徴抽出モジュール104が、様々な特徴抽出技法を実行するように構成されてもよいことを想起されたい。1つの技法は、現在軌跡ベクトルのスコアにHaar変換を実行することである。ベクトルにHaar変換を実行するには、エントリベクトルは、次数2の長さを有していなければならない。軌跡ベクトルの長さが2でない場合は、行の様々なスコアからの追加の要素を補間するか、ベクトルをゼロ充填することによって、その長さを延長することができる。
図11は、Haar変換の例を示す。説明のため、長さ8即ち2のベクトルを示す。Haar変換をベクトルに実行するとき、ベクトルの長さが固定長でなければならないことは明らかになるであろう。図11のベクトルは、8個の係数<a1,a2,...,a8>を有する。Haar変換は、3回繰り返し実行され、8個の係数ができる。第1の繰り返しは、隣接要素の平均と隣接要素間の差をとる。第1の繰り返し後、列1がA1とA2の平均を有し、列2がA3とA4の平均を有し、一方、列5が(A1−A2)/2を有し、列6が(A3−A4)/2を有することを理解されたい。図から分かるように、第1の繰り返し後、0レベルの列5〜8の係数がそれぞれ、表の下の第5、第6、第7及び第8のHaar係数に下がることが分かる。第2の繰り返しは、隣接要素の平均を計算するが、列1〜4だけは、隣接要素間の差をとる。例えば、第2の繰り返し後、列1の結果は、((a1+a2)+(a3+a4))/4であり、列3の結果は、((a1+a2)−(a3+a4))/4である。第2の繰り返し後、レベル1の列3と列4の係数が、表の下の第3と第4のHaarの係数に下がる。第3の繰り返しは、レベル2からの係数だけを除き第1と第2の繰り返しと類似しており、レベル2の列1と列2が検討される。したがって、第3の繰り返し後、列1の結果は((a1+a2)+(a3+a4)+(a5+a6)+(a7+a8))/8であり、列2の結果は、((a1+a2)+(a3+a4)−(a5+a6)+(a7+a8))/8である。列1と列2の結果は、表の下にある最初の2つのHaar係数に下がる。
幾つかの実施形態では、システムは、各動きイベント(即ち、タイムスタンプ)で、種々のデータとスコアが生成されるように構成されることを理解されたい。これらの繰り返しのそれぞれで、特徴抽出モジュール104は、最新ベクトルを受け取り、最新データにHaar変換を実行する。前述したように、エントリベクトルの長さは2である。第1の少数の動きイベントが、2未満の長さを有する軌跡ベクトルを有することが分かる。例えば、n=3の場合、Haar変換は、長さ8のエントリベクトルを受け取る。しかしながら、運動物体が7回しか検出されなかった場合は、軌跡ベクトルは、長さ7しかない。そのような状況では、特徴抽出モジュール104が、Haar変換を実行する前に軌跡の残りのスコアを補間し、例えば、それまでの7個のスコアに基づいて第8のデータサンプルが補間されてもよい。任意の補間法を使用できることを想起されたい。
更に、軌跡ベクトルの長さが、Haar変換関数の入力長を超えた後は、特徴抽出モジュール104は、軌跡ベクトルの前の2個のエントリを振り返るスライドウィンドウを使用することができる。したがって、Haar変換が、長さ8のベクトルに実行される例では、第9のサンプルを受け取りスコアリングした後で、Haar変換関数が、軌跡ベクトルの第2〜第9のスコアインスタンスを有するエントリベクトルを受け取ることがある。第10のサンプルの後で、Haar変換関数が、第3〜第10のスコアを受け取る。
Haar変換がエントリベクトルに実行された後で、特徴抽出モジュールは、Haarの係数から係数選択を行う。左側の係数(例えば、係数1〜4)が、スコアベクトルのより低い周波数成分であり、右側の係数(例えば、5〜8)が、周波数ベクトルのより高い周波数成分であることを理解されたい。これにより、前述の例では、特徴抽出モジュール104は、最初の4個の係数を選択する。しかしながら、その他の係数も同様に選択されてもよいこと想起されたい。更に、Haar変換関数が、より長いベクトル(即ち、16又は32個のスコア)を受け取る場合は、より多くの係数が選択されてもよい。
以上の説明は、単一スコアベクトルに関して述べたが、Haar変換が、軌跡ベクトルのスコアベクトルの幾つか又は全てに実行されてもよいことを理解されたい。例えば、各繰り返しで、Haar変換は、高速化スコアリングエンジン、彷徨スコアリングエンジン、交通の流れスコアリングエンジン、及びそれぞれのサブスコアリングエンジンの1つ又は複数から生成されたスコアに実行されてもよい。
特徴抽出が行われた後で、特徴ベクトル対照モジュール106は、抽出特徴ベクトルを、特徴ベクトルデータベース42内の前にスコアリングされた軌跡ベクトルの特徴ベクトルと照合する。特徴照合モジュール106は、特徴ベクトルデータベース内に、抽出特徴ベクトルと類似の1つ又は複数の特徴ベクトルがあるかどうかを判定する。
類似の特徴ベクトルを識別する1つの可能な方法は、特徴ベクトルデータベース42にk近傍(k-nearest neighbor)(K−NN)探索を行うことである。k近傍探索アルゴリズムは、抽出特徴ベクトルを入力として受け取り、特徴ベクトルデータベース42を調べ、k最近特徴ベクトル(k-closest feature vector)を返す。「接近」を判定するために、距離などの類似性基準が使用されることを理解されたい。k近傍探索は、抽出特徴ベクトルと、特徴ベクトルデータベース42内の全ての以前抽出特徴ベクトルとの間の距離を決定する。次に、k近傍探索は、k最近特徴ベクトルを返し、また各抽出特徴ベクトルからの距離を返してもよい。幾つかの実施形態における返された距離は、抽出特徴ベクトルと特定の特徴ベクトルとのユークリッド距離であるが、他の距離測定も使用できることを想起されたい。次に、特徴ベクトル照合モジュール106は、k戻しベクトル(k-returned vector)が、抽出特徴ベクトルからのしきい距離内にあるかどうかを判断することができる。次に、抽出特徴ベクトルからしきい距離内の特徴ベクトルのサブセットを、妥当性スコアカルキュレータに伝えることができる。
K−NN探索アルゴリズムが意図されているが、類似の軌跡を識別するために他のアルゴリズムが使用されてもよいことを理解されたい。例えば、k平均アルゴリズム(k-means clustering algorithm)が使用されてもよい。そのような実施形態では、抽出特徴ベクトルと同じクラスタ内の特徴ベクトルとの距離を計算することができる。抽出特徴ベクトルからしきい距離内のそのようなベクトルは、前述のサブセットに含まれてもよい。
抽出特徴ベクトルからしきい距離内のベクトルのサブセットが識別された後で、妥当性スコアカルキュレータ108は、特徴ベクトルのサブセットと抽出特徴ベクトルの妥当性スコアを決定することができる。また、妥当性スコアカルキュレータは、軌跡がスコアリングエンジンによって「正常」とスコアリングされたときに、動的モデルデータベース44内のモデルのスコアを更新する。例えば、軌道が正常としてスコアリングされたとき、妥当性カルキュレータは、新しい軌跡とk最新軌跡(k-most recent trajectory)を使用してモデルの新しい妥当性スコアを計算する。更に、各モデルの妥当性スコアが現在のものになるように、妥当性スコアカルキュレータは、データベースパージモジュール38の各繰り返しでモデルのスコアを更新してもよい。後述するように、妥当性スコアは、時間の経過に依存する。したがって、各モデルの妥当性スコアは、時間が経過するときに妥当性スコアがモデルの妥当性を正確に表わすように更新されなければならない。
前述したように、妥当性スコアは、サブセットの特徴ベクトルをモデルデータベース内のモデルと比較した妥当さ又はその逆の妥当さの尺度である。幾つかの実施形態では、妥当性スコアは、ベクトルサブセット内の特徴ベクトルの量とそれらの特徴ベクトルの最近さとの関数、即ち、計算されている妥当性スコアを有するモデルとスコアリングエンジンが一致した前のk個の軌道の最近さの関数である。
妥当性スコア関数は、幾つか方法で実施することができる。基本的に、この関数は、最近でない軌跡より最近の軌跡に大きい重みを与える。1つの可能な方法は、モデルの最近さスコア(recentness score)と密度スコアを計算することである。最近さスコアは、以下の式を計算することによって算出することができる。
Figure 2013520722
ここで、Tmodel(i)は、モデルが最後に使用された時間であり、Tcurrは、現在時間であり、Toldは、最も長い間使用されていないモデルが最後に使用された時間である。最近さスコアを、指数関数形崩壊関数(exponential decay function)やシグモイド関数(sigmoid function)などの別のタイプの関数によって表すことができることを理解されたい。
密度スコアは、以下の式を使用することによって算出することができる。
Figure 2013520722
ここで、Dmodel(i)は、特徴ベクトルデータベース42内のモデル(i)と一致する最後の軌跡と一致した特徴ベクトルの数であり、Dmax=kであり、kは、k近傍探索を実行するために使用される数である。
これらの2つのスコアに基づき、妥当性スコアを次の式により計算することができる。
Figure 2013520722
ここで、重みw及びwは、各スコアに与えられる重みである。
式12を使用して観察軌跡の妥当性スコアをスコアリングすることができ、ここで最新スコアは1であり、密度スコアは、観察軌跡をkで割ったものと一致した特徴ベクトルの数である。
データベース更新モジュール110は、妥当性スコアカルキュレータ108から計算された妥当性スコアを受け取る。軌跡が動的モデルデータベース内のモデルと一致した場合、データベース更新モジュール110は、妥当性スコアカルキュレータ108によって計算された通りにモデルの妥当性スコアを単純に更新する。現在軌跡が異常であると判定された場合は、現在軌跡の妥当性スコアと最近ベクトル(closest vector)のサブセットが、動的モデルデータベース44内のモデルの妥当性スコアと比較される。計算された妥当性スコアが、動的モデルデータベース44内のモデルの1つ又は複数より大きい場合、データベース更新モジュール110は、最低の妥当性スコアを有するモデルを、モデル構築モジュール112によって生成された新しいモデルと置き換える。同じ大きさの場合は、最も最近使用されたモデルをパージするか、最小量の一致特徴ベクトルを除去することができる。
更に、動的モデルデータベース44が、特定のスコアリングエンジンの最大量のモデルを含んでいない場合、先在モデルを置き換えることなく新しいモデルをデータベースに入ることができる。異常挙動のモデルが、動的モデルデータベース44に含まれないようにするために、データベース更新モジュール110は、サブセットの妥当性スコアが所定のしきい値を超えた後で動的モデルデータベース44に新しいモデルを記憶しなければならないことがある。
例示的なモデル構築モジュール112は、現在軌跡102を受け取り、動的モデルデータベース44に記憶される動きモデルを生成する。また、モデル構築モジュール112は、生成するモデルの型を受け取る。例えば、高速化スコアリングエンジンに使用されるモデルの場合、モデル構築モジュール112は、高速化スコアリングエンジンに特有のデータを有するモデルを生成する。モデル構築は、スコアリングエンジンの構成とその動作に依存することを理解されたい。モデル構築の例は、米国特許公開番号2008/0201116に見ることができる。モデル構築モジュール112が、新しいモデルを生成した後で、新しいモデルは、データベース更新モジュール110に伝えられ、次にデータベース更新モジュール110は、新しいモデルを動的モデルデータベース44に記憶する。
開示の別の態様では、監視システムは、外れ値を除去しデータを平滑化することによってデータを清浄にするように構成されてもよい。そのような実施形態では、メタデータ処理モジュール30は、更に、データクレンジングモジュールとHaarフィルタを含んでもよい。以下では、メタデータを処理する代替手段が示されるが、制限するものではない。
図13は、メタデータ処理モジュール30の代替実施形態を含む。メタデータ処理モジュール30の代替実施形態は、前述のメタデータ処理モジュール30と互換可能に使用されてもよいことを想起されたい。代替の実施形態では、メタデータ処理モジュール30は、ベクトル生成モジュール130、データクレンジングモジュール132、外れ値検出モジュール134、及びHaarフィルタ136を含む。データクレンジングモジュール132は、メタデータ生成モジュール28から受け取った異常位置データを検出するように構成され、更に位置データの異常にラベル付けするように構成される。データクレンジングモジュール132は、1)運動速度マップに記録された正常挙動統計、又は2)同じ軌道の以前の動き測定値に基づいて、位置データのバーストノイズをフィルタリングする。運動速度マップは、1片のデータキューブであり、この場合、スライスの「幅」が時間の量に対応する。正常挙動統計の正規分布に対する偏差レベルは、外れ値のシグマレベル、即ちlevelσとして定義され、ここでσは標準偏差である。また、これは、検出されている外れ値の信頼レベルとも考えられる。試験と検証のため、異なるシグマの外れ値の数の統計を分析用にまとめる。性能最適化のため、動きデータ内の正常点をフィルタリングするために前置フィルタが使用される。軌跡ベクトル内の各点に関して各データ点のシグマレベルが計算される。フィルタリング操作とスコアリング操作にシグマレベルを使用して、スコアの信頼レベルを割り引きするか調整することができる。データクレンジングモジュール132は、処理した位置データをメタデータ位置バッファに保存することができる。
代替実施形態では、メタデータ処理モジュール30は、外れ値検出モジュール134も含む。図14は、外れ値検出を行うために使用されることがある例示的な方法を示す。この特定の実施形態では、データキューブ内の最小バウンディングボックスのサイズ(高さと幅)、x方向とy方向両方の速度、及びx方向とy方向両方の加速度が、ガウス分布に従うと仮定される。したがって、軌跡の任意の位置を、6つの前述の変数のうちの1つが平均値(例えば、6シグマ)から遠すぎる値を有する場合に、外れ値であると判定される。
図で分かるように、ステップ1402で、運動物体の軌跡を受け取る。ステップ1404で示されたように、外れ値検出モジュール134は、最初に、軌跡のバウンディングボックスのサイズ、速度及び加速度の変化を計算する。大きすぎる変化がない場合、軌跡は正常と判定され、方法は、ステップ1420に進む。しかしながら、変化のうちの1つが極端すぎる場合、方法はステップ1406に進み、特定のセルのデータキューブを取得する。ステップ1408で、セル内で観察された運動物体の量がカウントされ、ステップ1410で所定のしきい値と比較される。セルに十分なデータがない場合は、ステップ1412に示されたように、軌跡の特徴が計算される。この場合、軌跡の位置からの単純な平均を使用してz値を計算し、z値は、次の式により算出される。
Figure 2013520722
データキューブ内に十分なデータがある場合は、1414で示されたように、データキューブ自体の特徴が計算される。図15〜図17は、データキューブ内の特定タイプのデータの外れ値特徴を計算する例示的な方法を示す。ステップ1416で、外れ値確認が行われる。外れ値確認は、6個の決定された外れ値特徴(即ち、6個の特徴のz値)に従って位置が外れ値かどうかを判定する。外れ値特徴を分類することによって、図18に示された状態図を使用して外れ値確認を行うことができる。下に示した表1は、様々な外れ値特徴のカテゴリー分類を提供する。データに追跡エラー又は飛躍が起きたとき、位置が外れ値としてラベル付けされることを理解されたい。
Figure 2013520722
前述したようにデータキューブ内に十分なデータがある場合は、データキューブ自体の特徴が計算される。図15〜図17は、データキューブの特徴を決定する方法を示す。図15〜図17は全て、実質的に同じステップを含み、したがって、図15の説明を使用して図16と図17を理解することができる。
ステップ1502で、軌跡内の物体の位置を受け取る。ステップ1504で、位置に対応するデータキューブが取得され、ステップ1506で、データキューブのカウント、即ち所定の時間期間にセル内を通過した軌跡の個数が取得される。カウントが、所定のしきい値(例えば、5)より大きい場合は、方法はステップ1510に進み、セル内で観察されたバウンディングボックスの高さと幅の平均と標準偏差が計算される。しかしながら、セルのカウントが、所定のしきい値より小さい場合は、ステップ1512で8個の近傍セルのデータキューブが取得される。セルと8個の近傍セルのカウントが、所定のしきい値より大きい場合は、ステップ1516で示されたように、それらの9個のセル内で観察されたバウンディングボックスの平均と標準偏差が計算されるか推定される。しかしながら、9個のセルのカウントが、5より小さい場合は、ステップ1518で、軌跡内で観察されたバウンディングボックスの高さと幅の平均と標準偏差が計算される。
ステップ1520で、ステップ1510、1516及び1518のうちの1つで決定された平均と標準偏差に基づいて、バウンディングボックスの高さと幅のzスコアが計算される。データのzスコア(即ち、現在観察されている運動物体のバウンディングボックスの高さと幅)は、次の式を使用して算出することができる。
Figure 2013520722
ここで、z(BB_H)は、現在観察されているバウンディングボックスの高さのz値であり、z(BB_W)は、現在観察されたバウンディングボックスの幅のz値である。計算後、z値は、確認のために記憶される。
観察された速度と軌跡のzスコアは、実質的に図15に対応する図16と図17に示された方法によって算出することができることを理解されたい。速度と加速度のzスコアの計算は、更に、外れ値検出が実行された後でそのような値が計算される場合に運動物体の現在速度と加速度の計算を必要とすることがある。
また、メタデータ処理モジュール30の代替の実施形態には、フィルタ136が含まれる。フィルタが、Kalmanフィルタ、Haarフィルタ又は他のタイプのデータフィルタでよいことを想起されたい。説明のため、Haarフィルタ136を仮定する。
Haarフィルタ136は、追跡エラーによって生じた動きデータの非線形ノイズの影響を減少させる適応的軌道フィルタリングを提供する。設計を性能とコードベース減少に関して最適化するために、Haarフィルタ136は、動きデータに単純なHaar変換を実行するように構成される。Haarフィルタ136は、以下の特性のうちの少なくとも1つを有することがある。
1.複数のサンプル点を使用して軌跡ベクトルのより正確な速度と加速値を生成して、ランダムホワイトノイズを減少させる。
2.動きデータに集中的な外れ値が検出されたときに、より多くのデータ点を使用して、外れ値信頼シグマ基準(outlier confidence sigma measure)に基づいてマクロレベルの動きを算出する。
3.複雑さlog Nを有し、二進シフト演算にのみ関係する。
4.Haarフィルタ136によって生成された推定点は、予測点と外れ値シグマの関数によって重み付けされた入力からの測定点との加重和に基づく。
5.滑らかな形状保持出力を生成する。
6.各軌跡の動き、速度及び加速度を表わすために必要な点の数を減少させる。
Haarフィルタ136が、メタデータ位置バッファからのデータを処理し、フィルタリングされた滑らかなデータをメタデータ位置バッファに出力できることを理解されたい。
外れ値検出モジュール134は、Haarフィルタ136に外れ値の大きさを伝えて外れ値状況のHaar変換深さを制御する。Haarフィルタ136は、あるレベルのD係数を推定することができ、また逆Haar変換を実行することによって、Haarフィルタ136は、滑らかでより低レベルのS係数を出力することができる。推定D係数は、速度と加速度の推定に使用される。S係数は、Haar変換における低周波数係数であり、D係数は、高周波数係数である。S係数は、一般に、Haar変換の平均部分に関連し、D係数は、一般にHaar変換の差分部分に関連する。
図19は、例示的なHaarフィルタを示す。Haarフィルタは、第1のHaar変換モジュール190、第2のHaar変換モジュール192、第3のHaar変換モジュール194、D係数平滑化モジュール196(3つ示す)、及び逆Haar変換モジュール198(3つ示す)を含む。逆Haar変換モジュール198の出力は、第1のHaar変換モジュール190のS係数と第1組の平滑化D係数を受け取ったとき、軌跡の位置推定を生成する。逆Haar変換モジュール198の出力は、第2のHaar変換モジュール192のS係数と第2組の平滑化D係数を受け取ったとき、軌跡の速度を生成する。逆Haar変換モジュール198の出力は、第3のHaar変換モジュール194のS係数と第3組の平滑化D係数を受け取ったとき、軌跡の加度速を生成する。
Haar変換モジュール190〜194が、図11に関して前述したHaar変換と類似の方法でHaar変換を実行することを理解されたい。注意すべきことは、各連続したHaar変換モジュールが、前のHaar変換のD係数しか受け取らないことである。したがって、エントリベクトルのサイズは、各連続Haar変換モジュール内で2分の1に減少する。例えば、第1のHaar変換モジュールが、32エントリベクトルを受け取る場合、第2のHaar変換モジュール192が、16エントリベクトルを受け取り、第3のHaar変換モジュール194が、8エントリベクトルを受け取る。
第1のHaar変換モジュール190の出力は、逆Haar変換モジュール198に伝えられるS係数と、第2のHaar変換モジュールとD係数平滑化モジュールに伝えられるD係数である。第1のHaar変換モジュール190によって出力されたD係数は、入力軌跡の速度のx成分とy成分を表わすことを理解されたい。
第2のHaar変換モジュール192の出力は、逆Haar変換モジュール198に伝えられるS係数と、第3のHaar変換モジュールとD係数平滑化モジュール196とに伝えられるD係数である。第2のHaar変換モジュール192によって出力されたD係数が、入力軌跡の加速度のx成分とy成分を表わすことを理解されたい。
第3のHaar変換モジュール194の出力は、逆Haar変換モジュール198に伝えられるS係数と、D係数平滑化モジュール196に伝えられるD係数である。第2のHaar変換モジュール194によって出力されたD係数が、入力軌跡の加速度の変更のx成分とy成分を表わすことを理解されたい。
図から分かるように、D係数は、D係数平滑化モジュール196にも伝えられることを理解されたい。D係数が平滑化された後で、S係数と平滑化されたD係数が、逆Haar変換モジュール198に伝えられる。逆Haar変換モジュール198は、Haar変換の逆を実行してエントリベクトルを再構成する。逆Haar変換モジュールの結果が、それぞれのHaar変換モジュール190〜194に送られる入力に対応するが、生じたS係数と平滑化D係数に実行されることが分かる。したがって、第1のHaar変換モジュール190からのS係数及び対応する平滑化D係数の逆Haar変換は、軌跡の位置を表わす。第2のHaar変換モジュール192からのS係数及び対応する平滑化D係数の逆Haar変換は、軌跡の速度を表わす。第3のHaar変換モジュール194からのS係数及び対応する平滑化D係数の逆Haar変換は、軌跡の加速度を表わす。Haarフィルタ136の出力は、軌跡ベクトルの動きデータである。
D平滑化モジュール196は、Haar変換からD係数を受け取るように構成され、係数にD平滑化を実行する。D平滑化モジュール196は、図21に関して述べられる。図21は、様々なレベルのHaar変換210を示す。図から分かるように、レベル3の係数は、D平滑化を実行するには必要ないので示されていない。図の影付き部分は、D係数を表わす。説明のため、D係数は、D(1,0)=(x(8)−x(7))/2, D(1,1)=(x(6)−x(5))/2, D(2,0)={(x(8)+x(7))−(x(6)+x(5))}/4など、D(level,position)と表される。参考として図20のHaar変換を使用すると、以下の式を使用してD係数を平滑化することができる。
Figure 2013520722
ここで、WとWは、所定の重みである。幾つかの実施形態では、Wは1/4に設定され、Wは、3/4に設定される。平滑化の結果は、逆Haar変換モジュール198に伝えられる平滑化D係数である。前述の構成をもっと大きい組又は小さい組のD係数に適用できることを理解されたい。
逆Haar変換モジュール198は、S係数とD係数を受け取り、前記係数に逆Haar変換を実行する。図11から分かるように、Haar変換の係数は、異なるレベルから導き出される。逆Haar変換は、より低レベルの係数、即ちS係数とD係数で始まり、前のレベルの係数を繰り返し解決し、その結果、連続したより高レベルの係数から元の低レベルの係数を解決することができるようになる。例えば、図11を参照すると、逆Haar変換モジュール198は、列0及び1の係数の値を使用してレベル2の係数の値を解決することができる。例のこの繰り返しにおいて、列0の係数の値を得るために使用される式が、((a1+a2)+(a3+a4)+(a5+a6)+(a7+a8))/8であり、列1の係数の値を得るために使用される式が、(((a1+a2)+(a3+a4))+((a5+a6)+(a7+a8)))/8であることを理解されたい。この論理は、レベル2の値と列2及び3の係数を使用してレベル1の値を解決するために使用されることを理解されたい。同じ論理を適用して、レベル1の値と列4〜7の係数を使用してレベル0の値を解決することができる。最後に、レベル0の値を使用して元の要素を算出することができる。逆Haar変換モジュール198の出力は、係数を提供するHaar変換モジュール190〜194の入力に対応するが、D係数平滑化によりこれらと異なることがある。
Haarフィルタ136の出力された軌跡は、像平面における元の軌跡の形状、速度及び方向を保持する。軌跡の時間間隔は各点で保持される。
遠くのFOV内でゆっくりと移動して速度を正確に検出するのに位置精度が十分でないような運動物体の場合、Haarフィルタ136は、軌跡点の低解像度推定を生成するために複数の点を使用して計算オーバヘッドを減少させる。出力されたダウンサンプリング点は、時間と空間が制限される。時間領域内で、Haarフィルタ136は、最小時間デフォルト値から最大時間デフォルト値までの範囲(例えば、1.6秒)で最小軌跡点を出力する。空間領域内で、Haarフィルタ136は、サイズのセル距離のデフォルト値(例えば、16画素)に関してx方向かy方向の測定値を出力する。出力決定は、時間しきい値と空間しきい値に基づく。物体が移動していない場合、時間しきい値は、出力の最小レートがあるようにする。物体が移動している場合、空間しきい値は、物体の変位がかなり大きいときに常に出力が生成されるようにする。
外れ値平滑化は、推定軌跡点を算出するのに必要な点の範囲を決定する入力としてデータクレンジングモジュール132からの外れ値検出指標でよい。軌跡点の推定又は補間は、軌跡の大きな飛躍の影響を平滑化することによって、より高レベルの精度を達成する。平滑化を行うために、Haarフィルタ136は、より高レベルのD係数からあるレベルのD係数を推定し、次にHaar逆変換を行って低レベルのS又はD係数のより良好な推定値を得る。一般に、外れ値平滑化プロセスは、D係数平滑化とHaar逆変換の2つの操作を含むことができる。
Haarフィルタ136は、内部Haar係数に基づいて軌跡の到着点を予測することができる。例えば、近づいている軌跡のx座標を次の式によって予測することができる。
Figure 2013520722
ここで、X(L,i−1)は、以前のHaar S係数であり、V(L,i−1)は、以前のHaar D係数であり、Δtは、時間の変化である。Lは、Haarピラミッドのレベルである。Haarピラミッドの一例を図11に示す。Haarピラミッドは、係数並びにHaar変換の中間レベルを含む。演算負荷を減らすために、外れ値検出の大きさ(即ち、z値)に基づいてHaar変換深さの適切な推定を実施することができる。外れ値の大きさが高いほどHaar変換深さが深い。予測は、また、非線形曲線当てはめ技術を使用することができる。例えば、補間を用いて、以下の式を使用してX(i)を予測することがきる。
Figure 2013520722
ここで、例えばfx(t)は、次の多項式関数であり、X(i)=f(t)である。
Figure 2013520722
ここで、t=t(i−1)のとき、
Figure 2013520722
であり、
t=(t(i−1)+t(i−2))/2のとき、
Figure 2013520722
であり、
t=(t(i−1)+t(i−2)+t(i−3)+t(i−4))/4のとき、
Figure 2013520722
である。
ここで、X(0,i−1)、X(1、i−1)、X(2,i−1)は、レベルO、レベル1及びレベル2のHaar係数である。例えば、座標がX(i)の到着点を想定すると、Zは、X高速化の値であり、Wは、適応性重み係数である。重み係数Wに対するZ値の関数マッピングは、表1に示されたように示される。
Figure 2013520722
Figure 2013520722
ここで、X(i)は、Haar変換ピラミッドの最終入力である。下記は、代替のW計算表である。
Figure 2013520722
Haarフィルタ136は、更に、全てのHaarピラミッドノードを記録するHaar変換スライディングウィンドウを実現するように構成されてもよい。このウィンドウは、アレイ又は別のデータ構造タイプによって実現されてもよい。Haarフィルタ136が32要素ベクトルを受け取る状況では、最高レベルは5である。ピラミッド内の各ノードには、レベルインデックスと位置インデックス(例えば、インデックス(level,pos))によってアクセスすることができる。レベルインデックスは、0〜4である。これはスライディングウィンドウなので、位置は、0から上限まで変化する。例えば、level(レベル)0の場合、pos(位置)は、0から16まで変化する。posは16を通過した後で0にリセットする。各レベルの最新インデックスが、第2のアレイに保存される。
Haarウィンドウの構造は、一次元配列によって実現される。幾つかの実施形態では、各レベルの最後の2つのノードだけがアレイに保存される。アレイのインデックスは、次の表2によってHaarピラミッドにマッピングされる。
Figure 2013520722
Haarピラミッドをこの方式で構成することによって、レベルと位置を指定することによりHaarピラミッド内の点にアクセスすることができる。上に示した表では、5つのレベルがあり、レベル4が最も高く、各レベルからの位置は0から1変化する。参考のため、用語D(level,pos)は、特定レベルでのD係数を表すために使用され、S(level,pos)は、特定のレベルと位置でのS係数を表わすために使用される。
ノード(level,pos)の逆Haar変換から得られる2つの点は、次の通りである。
S(レベル1,2pos).x=S(level,pos).x+D(level,pos).x、pos=0,1,2,...
S(レベル1,2pos).y=S(level,pos).y+D(level,pos).y、pos=0,1,2,...

S(レベル1,2pos+1).x=S(level,pos).x−D(level,pos).x、pos=0,1,2,...
S(レベル1,2pos+1).y=S(level,pos).y−D(level,pos).y、pos=0,1,2,...
係数DとSが、前のレベルから変更されていない場合、高い方のレベルのノードからの逆Haar変換は、低い方のレベルのノード内のS係数と全く同じ結果を出力するはずである。しかし、1つ又は複数の高レベルのD係数が変更された場合は、逆Haar変換の実行後に、低い方のレベルのS係数も変更される。
上記の演算は全て、帰納的関数によって実行することができる。この関数は、2つのより低レベルのS係数pos1及びpos2に基づいて逆Haar変換を実行する。前述の疑似コードを表3に示す。
Figure 2013520722
Haarフィルタ136が異なる基準に基づいてメタデータをメタデータバッファに出力することができる状況は5つある。異なる基準には、開始点出力、遅い移動物体のためのダウンサンプリング出力、きわめて高速の移動物体のための補間出力、均一な遅い移動物体のための長い遅延強制出力、及び軌跡端出力がある。
1つの軌跡の開始点が、メタデータバッファ内の最初の点でないとき、この点は、メタデータバッファ内の最初の4点の2レベルHaar変換点でよい。しかしながら、軌跡がきわめて遅い場合、最初の4点が全て1つのセル内にある。したがって、最初の4点の方向は、正確ではない可能性が高い。したがって、開始点は、遅い移動物体が1つのセルから出るときに出力される。
全ての平滑化Haar係数が得られた後で、ダウンサンプリング手順を実行して平滑化ノードからノードを選出することができる。ダウンサンプリングは、総サンプル数を減らすために使用される。ダウンサンプリング手順の疑似コードを下の表4に示す。
Figure 2013520722
Haarフィルタ136が、メタデータバッファ内の隣り合った元の点の間に長い飛躍(サイズが1セルより大きい)があることを検出した場合、Haarフィルタ136は、飛躍点の間の幾つかの点を補間して、運動物体が適切なタイムスタンプで通過した全てのセルを軌道がカバーできるようにする。
Haarフィルタ136が、所定の時間量より長い期間(例えば、1.6秒にわたって)何も出力しない場合は、運動物体がきわめて遅い可能性が高い。最後の出力点からの距離は、1セル寸法より小さい。しかしながら、実時間性を維持するために、Haarフィルタ136は、点が以前の出力点から遠くない場合でもその点を出力しなければならない。
軌跡が終了したときに、新しい点がメタデータバッファに出力されてもよく、Haarフィルタは、軌跡の終わりでそれらの点を処理して、メタデータを出力しなければならない。
前述のように、Haarフィルタ136は、更に、運動物体の速度と加速度を決定するように構成されてもよい。速度は、2つの隣り合った出力点の速度を使用して算出することができる。
Velocity_x=(CurPos.x−PrePos.x)/(CurPos.time−PrePos.time)
Velocity_y=(CurPos.x−PrePos.x)/(CurPos.time−PrePos.time)

ダウンサンプリングされたノード(level,pos)の場合、ノードの局所速度は、例えば次のように、ちょうど対応するより高レベルのD係数を時間分で割ったものである。
速度(level,pos).x=D(level+1,pos/2).x/D(level+1,pos/2).time
速度(level,pos).y=D(level+1,pos/2).y/D(level+1,pos/2).time
pos=0,1,2,...

更に、Haarフィルタ136は、第2のHaar変換の係数を参照することができ、様々な分解能の速度がリストされる。第2のHaar変換後に、加速度が、D係数としてリストされる。これらの速度と加速度によって軌跡ベクトルを計算できることを想起されたい。
開示の別の態様では、データベースパージモジュール38は、更にフェージングモジュール(図示せず)を含むように構成される。フェージングモジュールは、各セルに対する運動物体の時間的流れを適応的に学習するように構成される。モデル構築モジュール112は、学習された時間フローパターンを使用して、異常挙動のスコアリングに使用される動きモデルを生成する。前述のように、各セルにデータキューブを関連付けることができ、データキューブは、セル内を通過する運動物体からの時系列の動きデータを記憶する。記憶された動きデータには、観察している運動物体がセルを通過する方向が含まれる。図7に示されたセルに戻って参照すると、運動物体の方向は、方向をオクタントのうちの1つに関連付けることによって定義することができる。フェージングモジュールは、セル内の各オクタントのカウントを更新するように構成されてもよい。したがって、各オクタントにそれ自体のカウントが関連付けられ、それにより、セル内の各オクタントのカウントを比較することによって、セル内で最も多く観察された方向(以下では、セルの「支配的流れ」と呼ばれる)を決定することができる。
フェージングモジュールは、各オクタントの最小方向カウントを保持する非対称関数を使用して、セルの支配的流れを追跡することができる。セルのオクタントのカウントは、2つの異なる状況で増分又は減分されることがある。一方の状況は、検出ベースの状況であり、他方の状況は、時間ベースの状況である。検出ベースの状況は、運動物体がセル内で検出されたときである。そのような例では、運動物体の方向に対応するオクタントのカウントは増分され、他の7つのオクタントのカウントは減分される。時間ベースの状況では、物体は、所定の時間量より長い間セル内で検出されない。この状況では、セルのカウントは減分される。
両方の例では、オクタントのカウントが増分又は減分される量は、オクタントのカウントの値に依存する。例えば、オクタントのカウントが増分される場合、カウントが増分される量は、カウントの値を入力として受け取りカウントを増分する量を出力する関数によって決定される。
説明のため、3つのしきい値を定義し以下に述べる。3つのしきい値は、ThLow、ThTime、及びThHighであり、セル全体にはカウンタCell.xy.mem_cntがある。
図20Aと図20Bは、特定のオクタントカウントの値に基づいてオクタンのカウントをそれぞれ増分し減分する量を示す。例えば、図20Aのグラフ200を参照すると、増分されるオクタントのカウントがThLowより低い場合、カウントは、区分Aに対応する値(例えば、50)だけ増分される。増分されるオクタントのカウントが、ThLowより大きいがThHighより小さいか又は等しい場合は、カウントは、区分B(例えば、100)に準じて増分される。増分されるオクタントのカウントが、ThHighより大きい場合、カウントは、区間C(例えば、20)に従って増分される。したがって、運動物体が、特定のセルを特定のオクタントの方向に通過したとフェージングモジュールが判定したとき、フェージングモジュールは、グラフ200に示された関数を使用して、特定のオクタントのカウントを増分する量を決定する。示した数が例示であり限定ではないことを理解されたい。更に、階段関数を示すが、一次関数、二次関数、指数関数、対数などの他のタイプの関数によって様々な区間が定義されてもよい。
次に図20Bを参照すると、グラフ202は、検出状況によってオクタントのカウントが減分される量を示す。オクタントのカウントは、ThLowより小さい場合。オクタントのカウントがThLowより大きい場合は、減分されるオクタントのカウントは、区間Fに対応する値(例えば、100)だけ減分される。したがって、運動物体が特定のセル内を特定のオクタントの方向に通過しているとフェージングモジュールが判定したとき、フェージングモジュールは、グラフ200に示された関数を使用して他のオクタントの各カウントを減分する量を決定する。階段関数以外の他の関数型を使用して、カウントが減分される量を定義してもよいことを理解されたい。
次に図20Cを参照すると、グラフ204は、時間ベースの状況でオクタントのカウントが減分される量を示す。時間ベースの状況では、物体が所定の時間量より長い間検出されていないことを理解されたい。そのような例では、オクタントは、増分されない。時間ベースの状況では、TTimeより少ないカウントを有するオクタントは減分されない。TTimeより大きいがThHighより小さいカウントを有するオクタントは、区分Hに対応する量だけ増分される。この例の区間Gは、一次関数によって定義され、したがってオクタントの実際のカウントに応じて、減分される量が異なることが分かる。最後に、オクタントのカウントが、ThHighより高い場合、カウントは、区間I(例えば、100)に従って減分される。したがって、運動物体が、所定の時間量より長い間特定のセルを通過していないとフェージングモジュールが判定したとき、フェージングモジュールは、グラフ204に示された関数を使用してオクタントの各カウントを減分する量を決定する。図20Cのグラフは、1つの可能な減分手法の例として示される。他の関数がグラフ204の様々な区間を定義してもよいことを想起されたい。
更に、図20A〜図20Cを参照すると、任意のオクタントのカウントが増分されたとき、セルの総カウント(例えば、Cell.xy.mem_cnt)は、同じ量だけ増分される。更に、任意のオクタントのカウントが減分されたとき、セルの総カウントは、同じ量だけ減分される。
幾つかの実施形態では、フェージングモジュールが、セル内をオクタントに対応する方向に移動している物体を検出したときにオクタンのカウントを所定量(例えば、1)だけ増分し、また他のオクタントのカウントを同じ所定量だけ減分してもよいことを想起されたい。同様に、物体がセル内で所定の時間量より長い時間観察されなかったとき、全てのオクタントのカウントが所定の量だけ減分されてもよい。
本明細書で使用されるとき、モジュールという用語は、特定用途向け集積回路(ASIC)、電子回路、1つ又は複数のソフトウェア又はファームウェアプログラムを実行するプロセッサ(共用、専用、又は1組)及び/又はメモリ(共用、専用、又は1組)、組み合わせ論理回路、及び/又は説明された機能を提供する他の適切な構成要素を指すか、これらの一部又は全てを含んでもよい。
実施形態の以上の説明は、例証と説明のために提供された。この説明は、網羅的でもなく本発明を限定するものでもない。特定の実施形態の個々の要素又は特徴は、一般に、その特定の実施形態に限定されないが、必要に応じて、交換可能であり、特に示さず説明されない場合でも、特定の実施形態で使用され得る。これらの実施形態は様々に変更されてもよい。そのような変形は、本発明からの逸脱と見なされるべきでなく、そのような修正は全て、本発明の範囲内に含まれるものである。

Claims (20)

  1. ビデオカメラを有し、前記ビデオカメラの視野に対応する画像データを生成するビデオ監視システムであって、
    以前観察された物体の動きを定義する複数の動きモデルを記憶するモデルデータベースと、
    動きデータ及び少なくとも1つの異常性スコアを有する現在軌跡データ構造であって、前記動きデータが、前記ビデオカメラの視野内で動いていることが観察された現物体の時空軌跡を定義し、前記異常性スコアが、前記複数の動きモデルに対する前記現在軌跡データ構造の異常性の程度を示す現在軌跡データ構造と、
    最近観察軌跡の複数のベクトルを記憶するベクトルデータベースであって、各ベクトルが、前記カメラによって最近観察された物体の動きに対応するベクトルデータベースと、
    前記現在軌跡データ構造の前記動きデータに対応する新しい動きモデルを構築するモデル構築モジュールと、
    前記複数のベクトルから、前記現在軌跡データ構造と最も類似しているベクトルのサブセットを、前記ベクトルのサブセットと前記現在軌跡データ構造との類似性の基準に基づいて決定するように構成されたデータベースパージモジュールと、を備え、
    前記データベースパージモジュールが、更に、前記サブセットベクトル内のベクトルの量と、前記ベクトルのサブセットの前記最近観察軌跡が観察されてからの時間量とに基づいて、前記モデルデータベース内の前記動きモデルのうちの1つを前記新しい動きモデルと置き換えるように構成されたビデオ監視システム。
  2. 前記ベクトルデータベースに記憶された前記複数のベクトルが特徴ベクトルであり、各特徴ベクトルが、前記最近観察軌跡の異常性スコアから得られた特徴を有する、請求項1に記載のビデオ監視システム。
  3. 前記データベースパージモジュールが、
    前記現在軌跡データ構造を受け取り、前記現在軌跡データ構造の前記少なくとも1つの異常性スコアに特徴抽出を行うことによって前記現在軌跡データ構造の特徴ベクトルを生成するように構成された特徴抽出モジュールと、
    前記抽出された特徴ベクトルを受け取り、前記ベクトルのサブセットを、前記現在軌跡データ構造の前記特徴ベクトルと前記ベクトルデータベース内の前記特徴ベクトルとの類似性基準に基づいて決定するように構成された特徴ベクトル照合モジュールと、
    前記新しい動きモデルを受け取り、前記ベクトルのサブセット内のベクトルの量と、前記ベクトルのサブセットの前記最近観察軌跡が観察されてからの時間量とに基づいて、前記モデルデータベース内の前記動きモデルのうちの1つを置き換えるように構成されたデータベース更新モジュールと、
    を有する、請求項2に記載のビデオ監視システム。
  4. 前記特徴抽出モジュールが、前記現在軌跡データ構造のHaar変換を生成し、かつ、前記Haar変換から係数の所定のサブセットを選択するように構成された、請求項3に記載のビデオ監視システム。
  5. 前記特徴ベクトル照合モジュールが、k近傍探索を実行して、前記ベクトルデータベース内で前記現在軌跡の前記特徴ベクトルと最も類似したk個の特徴ベクトルを検索するように構成された、請求項3に記載のビデオ監視システム。
  6. 前記ベクトルのサブセットが、所定のしきい値より低い前記特徴ベクトルとの類似性基準を有する特徴ベクトルで構成された、請求項5に記載のビデオ監視システム。
  7. 前記現在軌跡データ構造を受け取り、前記現在軌跡データ構造の前記動きデータと前記モデルデータベース内の前記複数の動きモデルとに基づいて、前記現在軌跡データ構造の前記異常性スコアを生成するように構成されたスコアリングエンジンを更に含み、前記動きモデルが、特定タイプの動きを定義し、前記スコアリングエンジンが、前記特定のタイプの動きを検出するように構成された、請求項3に記載のビデオ監視システム。
  8. 前記スコアリングエンジンに対応するサブスコアリングエンジンを更に含み、前記サブスコアリングエンジンが、前記現在軌跡データ構造の前記動きデータ、前記現在軌跡データ構造の前記異常性スコア、及び前記複数の動きモデルのうちの少なくとも1つに基づいて、異常性サブスコアを生成するように構成され、前記サブスコアリングエンジンが、前記特定タイプの動きの下位分類を検出するように構成された、請求項7に記載のビデオ監視システム。
  9. 前記特徴抽出モジュールが、更に、前記現在軌跡データ構造の前記異常性サブスコアの特徴抽出を行い、前記現在軌跡データ構造の前記異常性サブスコアに基づく特徴ベクトルを生成するように構成された、請求項8に記載のビデオ監視システム。
  10. 前記現在軌跡データ構造がベクトルである、請求項1に記載のビデオ監視システム。
  11. 以前観察された物体の動きを定義する複数の動きモデルを記憶するモデルデータベースを維持する方法であって、
    動きデータ及び少なくとも1つの異常性スコアを有する現在軌跡データ構造を生成するステップであって、前記動きデータが、前記ビデオカメラの視野内で動いていることが観察された現物体の時空軌跡を定義し、前記異常性スコアが、前記複数の動きモデルに対する前記現在軌跡データ構造の異常性の程度を示すステップと、
    前記現在軌跡データ構造の前記動きデータに対応する新しい動きモデルを構築するステップと、
    ベクトルデータベースに記憶された最近観察軌跡の複数のベクトルからベクトルのサブセットを決定するステップであって、各ベクトルが、前記カメラによって最近観察された物体の動きに対応し、前記ベクトルのサブセットが、前記現在軌跡データ構造に対して最大の類似性量を有し、前記類似性量が類似性基準に基づくステップと、
    前記ベクトルのサブセット内のベクトルの量と、前記ベクトルのサブセットの前記最近観察軌跡が観察されてからの時間量とに基づいて、前記モデルデータベース内の前記動きモデルのうちの1つを前記新しい動きモデルと置き換えるステップと、を含む方法。
  12. 前記ベクトルデータベースに記憶された前記複数のベクトルが特徴ベクトルであり、各特徴ベクトルが、前記最近観察軌跡の異常性スコアから得られた特徴を有する、請求項1に記載の方法。
  13. 前記現在軌跡データ構造の少なくとも1つの異常性スコアの特徴抽出を行うステップと、
    前記特徴抽出から特徴ベクトルを生成するステップと、
    前記現在軌跡データ構造の前記特徴ベクトルと前記ベクトルデータベース内の前記特徴ベクトルとの類似性基準に基づいて、前記ベクトルのサブセットを決定するステップと、
    を含む、請求項12に記載の方法。
  14. 前記特徴抽出を行うステップが、前記現在軌跡データ構造にHaar変換を実行し、かつ、前記Haar変換から係数の所定のサブセットを選択するステップを更に含む、請求項13に記載の方法。
  15. 複数のベクトルからベクトルのサブセットを決定する前記ステップが、更に、前記ベクトルデータベース内でk近傍探索を実行するステップを有し、前記ベクトルのサブセットがk個以下のベクトルを有する、請求項3に記載の方法。
  16. 前記ベクトルのサブセットが、所定のしきい値より低い前記特徴ベクトルとの類似性基準を有する特徴ベクトルで構成された、請求項15に記載の方法。
  17. 前記現在軌跡データ構造の前記動きデータと前記モデルデータベース内の前記複数の動きモデルとに基づいて、前記現在軌跡データ構造の前記異常性スコアを生成するステップを更に含み、前記動きモデルが、特定の動きタイプを定義する、請求項13に記載の方法。
  18. 前記現在軌跡データ構造の前記動きデータ、前記現在軌跡データ構造の前記異常性スコア、及び前記複数の動きモデルのうちの少なくとも1つに基づいて、異常性サブスコアを生成するステップを更に含む、請求項17に記載の方法。
  19. 前記現在軌跡データ構造の前記異常サブスコアの特徴抽出を行い、前記現在軌跡データ構造の前記異常性サブスコアに基づく特徴ベクトルを生成するステップを更に含む、請求項18に記載の方法。
  20. 前記現在軌跡データ構造がベクトルである、請求項10に記載の方法。
JP2012553881A 2010-02-19 2010-12-16 ビデオ監視システム Withdrawn JP2013520722A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/709,192 2010-02-19
US12/709,192 US20110205359A1 (en) 2010-02-19 2010-02-19 Video surveillance system
PCT/US2010/060745 WO2011102871A1 (en) 2010-02-19 2010-12-16 Video surveillance system

Publications (2)

Publication Number Publication Date
JP2013520722A true JP2013520722A (ja) 2013-06-06
JP2013520722A5 JP2013520722A5 (ja) 2014-03-20

Family

ID=43618200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012553881A Withdrawn JP2013520722A (ja) 2010-02-19 2010-12-16 ビデオ監視システム

Country Status (5)

Country Link
US (2) US20110205359A1 (ja)
EP (1) EP2537146A1 (ja)
JP (1) JP2013520722A (ja)
CN (1) CN102782734A (ja)
WO (1) WO2011102871A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015222191A (ja) * 2014-05-22 2015-12-10 学校法人慶應義塾 赤外線アレイセンサを用いた行動検知システムと方法
JP2019169843A (ja) * 2018-03-23 2019-10-03 キヤノン株式会社 映像記録装置、映像記録方法およびプログラム
JP2019534491A (ja) * 2016-10-17 2019-11-28 同方威視技術股▲分▼有限公司 安全検査システムおよび安全検査装置を配置する方法

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI430212B (zh) * 2010-06-08 2014-03-11 Gorilla Technology Inc 利用多特徵自動集群法之異常行為偵測系統與方法
WO2012016370A1 (en) * 2010-08-02 2012-02-09 Peking University Representative motion flow extraction for effective video classification and retrieval
TW201241794A (en) * 2011-04-08 2012-10-16 Hon Hai Prec Ind Co Ltd System and method for detecting damages of image capturing device
CN102831615A (zh) * 2011-06-13 2012-12-19 索尼公司 对象监控方法和装置,以及监控系统操作方法
CN102831442A (zh) * 2011-06-13 2012-12-19 索尼公司 异常行为检测设备和方法及生成该检测设备的设备和方法
RU2012119843A (ru) * 2012-05-15 2013-11-20 Общество с ограниченной ответственностью "Синезис" Способ отображения видеоданных на мобильном устройстве
US10757369B1 (en) * 2012-10-08 2020-08-25 Supratik Mukhopadhyay Computer implemented system and method for high performance visual tracking
US9197861B2 (en) * 2012-11-15 2015-11-24 Avo Usa Holding 2 Corporation Multi-dimensional virtual beam detection for video analytics
US9589190B2 (en) * 2012-12-21 2017-03-07 Robert Bosch Gmbh System and method for detection of high-interest events in video data
KR20140098959A (ko) * 2013-01-31 2014-08-11 한국전자통신연구원 증거 영상 생성 장치 및 방법
US20140244197A1 (en) * 2013-02-28 2014-08-28 Sap Ag Determining Most Relevant Data Measurement from Among Competing Data Points
CN103631917B (zh) * 2013-11-28 2017-01-11 中国科学院软件研究所 一种基于移动对象数据流的突发事件检测方法
KR20150071781A (ko) * 2013-12-18 2015-06-29 한국전자통신연구원 궤적변환 기반 이동궤적 모델링 장치 및 방법
JP5958459B2 (ja) * 2013-12-26 2016-08-02 トヨタ自動車株式会社 状態判定システム、状態判定方法及び移動ロボット
TWI511058B (zh) * 2014-01-24 2015-12-01 Univ Nat Taiwan Science Tech 一種影片濃縮之系統及方法
PL406971A1 (pl) * 2014-01-28 2015-08-03 Politechnika Poznańska Sposób analizy zachowania osób w inteligentnym systemie monitorowania oraz inteligentny system monitorowania
US10104394B2 (en) * 2014-01-31 2018-10-16 Here Global B.V. Detection of motion activity saliency in a video sequence
JP6194963B2 (ja) * 2014-02-14 2017-09-13 日本電気株式会社 映像処理システム
US10412420B2 (en) * 2014-03-07 2019-09-10 Eagle Eye Networks, Inc. Content-driven surveillance image storage optimization apparatus and method of operation
US20160196728A1 (en) * 2015-01-06 2016-07-07 Wipro Limited Method and system for detecting a security breach in an organization
US11523090B2 (en) * 2015-03-23 2022-12-06 The Chamberlain Group Llc Motion data extraction and vectorization
US9996749B2 (en) * 2015-05-29 2018-06-12 Accenture Global Solutions Limited Detecting contextual trends in digital video content
CN106982347A (zh) * 2016-01-16 2017-07-25 阔展科技(深圳)有限公司 具提取分析数据能力的智能移动监控器
US10473761B2 (en) * 2016-08-11 2019-11-12 Rodradar Ltd. Wire and pylon classification based on trajectory tracking
CN108021561A (zh) * 2016-10-28 2018-05-11 沈阳建筑大学 一种基于轨迹数据流的异常移动对象检测方法
US10701092B2 (en) * 2016-11-30 2020-06-30 Cisco Technology, Inc. Estimating feature confidence for online anomaly detection
US10210398B2 (en) * 2017-01-12 2019-02-19 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for predicting flow of crowds from limited observations
JP6948128B2 (ja) 2017-01-13 2021-10-13 キヤノン株式会社 映像監視装置及びその制御方法及びシステム
JP2018135068A (ja) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法及びプログラム
US10721475B2 (en) * 2017-09-01 2020-07-21 Ittiam Systems (P) Ltd. K-nearest neighbor model-based content adaptive encoding parameters determination
US10417882B2 (en) 2017-10-24 2019-09-17 The Chamberlain Group, Inc. Direction sensitive motion detector camera
CN108564100A (zh) * 2017-12-12 2018-09-21 惠州Tcl移动通信有限公司 移动终端及其生成动作分类模型的方法、存储装置
GB2569555B (en) * 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting deviation from a motion pattern in a video
GB2569557B (en) 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting motion deviation in a video
GB2569556B (en) * 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting motion deviation in a video sequence
CN108052924B (zh) * 2017-12-28 2020-10-27 武汉大学深圳研究院 空间运动行为语义模式的辨识方法
US10706701B2 (en) 2018-01-12 2020-07-07 Qognify Ltd. System and method for dynamically ordering video channels according to rank of abnormal detection
EP3557549B1 (de) 2018-04-19 2024-02-21 PKE Holding AG Verfahren zur bewertung eines bewegungsereignisses
CN108960139A (zh) * 2018-07-03 2018-12-07 百度在线网络技术(北京)有限公司 人物行为识别方法、装置及存储介质
CN111273232B (zh) * 2018-12-05 2023-05-19 杭州海康威视系统技术有限公司 一种室内异常情况判断方法及系统
US10909387B2 (en) * 2019-03-28 2021-02-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for predicting dynamical flows from control inputs and limited observations
CA3135393C (en) * 2019-04-09 2023-08-29 Avigilon Coporation Anomaly detection method, system and computer readable medium
US11146862B2 (en) * 2019-04-16 2021-10-12 Adobe Inc. Generating tags for a digital video
CN111402532A (zh) * 2020-03-26 2020-07-10 海南鸿达盛创网络信息科技有限公司 一种综合安防视频管理控制系统
US11188750B1 (en) * 2020-05-05 2021-11-30 National Technology & Engineering Solutions Of Sandia, Llc Multi-frame moving object detection system
CN111784742B (zh) * 2020-06-29 2023-08-29 杭州海康威视数字技术股份有限公司 一种行人跨镜头追踪方法及装置
EP3943890B1 (en) * 2020-07-23 2023-05-03 Fujitsu Limited A computer-implemented method of predicting energy use for a route
US11599253B2 (en) * 2020-10-30 2023-03-07 ROVl GUIDES, INC. System and method for selection of displayed objects by path tracing
TWI799761B (zh) * 2020-12-02 2023-04-21 晶睿通訊股份有限公司 監控場域識別方法及其監控設備
CN113688679B (zh) * 2021-07-22 2024-03-08 南京视察者智能科技有限公司 一种重点人员防控预警的方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0218982D0 (en) * 2002-08-15 2002-09-25 Roke Manor Research Video motion anomaly detector
US7502844B2 (en) * 2005-07-29 2009-03-10 Bmc Software Abnormality indicator of a desired group of resource elements
US7263472B2 (en) * 2004-06-28 2007-08-28 Mitsubishi Electric Research Laboratories, Inc. Hidden markov model based object tracking and similarity metrics
US7639840B2 (en) * 2004-07-28 2009-12-29 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
US8724891B2 (en) * 2004-08-31 2014-05-13 Ramot At Tel-Aviv University Ltd. Apparatus and methods for the detection of abnormal motion in a video stream
JP4623368B2 (ja) * 2005-03-16 2011-02-02 ソニー株式会社 移動物体検出装置、移動物体検出方法及びプログラム
US7966274B2 (en) * 2006-08-14 2011-06-21 Neural Id Llc Enhanced learning and recognition operations for radial basis functions
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US8760519B2 (en) * 2007-02-16 2014-06-24 Panasonic Corporation Threat-detection in a distributed multi-camera surveillance system
US7667596B2 (en) 2007-02-16 2010-02-23 Panasonic Corporation Method and system for scoring surveillance system footage
TW200842733A (en) * 2007-04-17 2008-11-01 Univ Nat Chiao Tung Object image detection method
JP2008278128A (ja) * 2007-04-27 2008-11-13 Toshiba Corp 監視システム、監視方法およびプログラム
US8170283B2 (en) * 2009-09-17 2012-05-01 Behavioral Recognition Systems Inc. Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015222191A (ja) * 2014-05-22 2015-12-10 学校法人慶應義塾 赤外線アレイセンサを用いた行動検知システムと方法
JP2019534491A (ja) * 2016-10-17 2019-11-28 同方威視技術股▲分▼有限公司 安全検査システムおよび安全検査装置を配置する方法
JP7178343B2 (ja) 2016-10-17 2022-11-25 同方威視技術股▲分▼有限公司 安全検査システムおよび安全検査装置を設定する方法
US11631152B2 (en) 2016-10-17 2023-04-18 Nuctech Company Limited Security check system and method for configuring security check device
JP2019169843A (ja) * 2018-03-23 2019-10-03 キヤノン株式会社 映像記録装置、映像記録方法およびプログラム
JP7118679B2 (ja) 2018-03-23 2022-08-16 キヤノン株式会社 映像記録装置、映像記録方法およびプログラム

Also Published As

Publication number Publication date
US20110205359A1 (en) 2011-08-25
US20140112546A1 (en) 2014-04-24
WO2011102871A1 (en) 2011-08-25
CN102782734A (zh) 2012-11-14
EP2537146A1 (en) 2012-12-26

Similar Documents

Publication Publication Date Title
JP2013520722A (ja) ビデオ監視システム
JP6969871B2 (ja) 移動状況推定装置、移動状況推定方法およびプログラム
US7567704B2 (en) Method and apparatus for identifying physical features in video
Hospedales et al. Video behaviour mining using a dynamic topic model
US9767570B2 (en) Systems and methods for computer vision background estimation using foreground-aware statistical models
Le et al. Long-term time-sensitive costs for crf-based tracking by detection
Choi et al. Robust multi‐person tracking for real‐time intelligent video surveillance
CN104254873A (zh) 视频监控系统中的警报量归一化
Klinger et al. Probabilistic multi-person localisation and tracking in image sequences
Palconit et al. Towards Tracking: Investigation of Genetic Algorithm and LSTM as Fish Trajectory Predictors in Turbid Water
Zhao et al. Clust: simulating realistic crowd behaviour by mining pattern from crowd videos
Cho Vision-based people counter using CNN-based event classification
McIntosh et al. Movement tracks for the automatic detection of fish behavior in videos
US20220026556A1 (en) Methods and Systems for Predicting a Trajectory of an Object
Yu et al. Gaussian-Poisson mixture model for anomaly detection of crowd behaviour
CN110189365A (zh) 抗遮挡相关滤波跟踪方法
Yang et al. Graph stream mining based anomalous event analysis
Park et al. Flow analysis-based fast-moving flow calibration for a people-counting system
CN111967403A (zh) 视频移动区域确定方法、装置及电子设备
Wattanachote et al. Dynamic textures and covariance stationary series analysis using strategic motion coherence
KR101370028B1 (ko) 점진적 학습 기반의 물체 추적 시스템에서의 데이터 선택방법 및 장치
US20230051014A1 (en) Device and computer-implemented method for object tracking
Dotu et al. Real-time tabu search for video tracking association
Haque Modeling head-on crash probability on two-lane undivided highway using vision-based classified trajectory
Vidyarthi et al. Enhancement of PSNR based Anomaly Detection in Surveillance Videos using Penalty Modules

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140130

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141009

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20141119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150330