JP5224401B2 - 監視システムおよび方法 - Google Patents

監視システムおよび方法 Download PDF

Info

Publication number
JP5224401B2
JP5224401B2 JP2009549578A JP2009549578A JP5224401B2 JP 5224401 B2 JP5224401 B2 JP 5224401B2 JP 2009549578 A JP2009549578 A JP 2009549578A JP 2009549578 A JP2009549578 A JP 2009549578A JP 5224401 B2 JP5224401 B2 JP 5224401B2
Authority
JP
Japan
Prior art keywords
data
module
score
model
image sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009549578A
Other languages
English (en)
Other versions
JP2010519608A (ja
Inventor
オズデミル,ハサン,ティムシン
キベイ,サミア
リュー,リピン
リー,クウ,チュー
モサリ,スプラジャ
ジュ,ナムスー
リ,ホンビン
ユー,ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JP2010519608A publication Critical patent/JP2010519608A/ja
Application granted granted Critical
Publication of JP5224401B2 publication Critical patent/JP5224401B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、リアルタイムのマルチセンサ環境における挙動の進行および脅威パターンの自動化された検出および予測のための方法およびシステムに関する。
このセクション内の陳述は、本件開示に関係する背景情報を単に提供し、従来技術を構成していないこともあり得る。
ビデオ監視システムにおける最近の傾向は、生のストリーミング・ビデオ監視データから潜在的脅威を検出することが可能なビデオ解析コンポーネントの提供である。潜在的脅威の検出は、多くのカメラからの生のフィードをモニタして実際の脅威を検出する保安員を補助する。
従来の監視システムは、あらかじめ定義済みのパターンに基づいて潜在的脅威を検出する。動作するために、それぞれのカメラは、異常な挙動の検出特徴を操作員が手作業で構成することを必要とする。あらかじめ決定済みの異常パターンが検出されると、システムがアラームを生成する。これは、速度違反、流れに逆らう、異常な流れといった特定の異常パターンを検出するべく定義された複数の検出規則の感度調整において実質的な労力をしばしば必要とする。
その種のシステムは、それらの動作において効率的ではない。たとえば、それぞれのカメラの適正な構成には時間を要し、専門的な補助を必要とし、かつ展開コストを増加させる。加えて、可能性のあるあらゆる異常な挙動の定義および構成は、すべての可能性のある情況において列挙し、研究し、満足のいく解決策を開発することがあまりにも多くなり得るという事実に起因して現実的に可能ではない。
したがって、監視システムが提供されている。監視システムは、概して、センサ・データを収集するデータ取り込みモジュールを含む。スコアリング・エンジン・モジュールが、センサ・データを受信し、当該センサ・データ、少なくとも1つの動的にロードされる学習済みのデータ・モデル、および学習済みのスコアリング・メソッドに基づいて異常性スコアおよび正常性スコアのうちの少なくとも1つを計算する。意志決定モジュールが、異常性スコアおよび正常性スコアのうちの少なくとも1つを受信し、異常性スコアおよび正常性スコアのうちの当該少なくとも1つ、および学習済みの意志決定メソッドに基づいて、進行性の挙動および脅威検出をもたらすべくアラート・メッセージを生成する。
そのほかの適用性の分野は、ここに提供されている説明から明らかになるであろう。理解されるものとするが、説明および特定の例は、例証の目的だけのために意図されており、本件開示の範囲を限定する意図ではない。
この中で説明されている図面は、例証の目的だけのためのものであり、いかなる形においても本件教示の範囲を限定する意図はない。
本件教示の多様な態様に従った例示的な監視システムを図解したブロック図である。 本件教示の多様な態様に従った監視システムの例示的なコンポーネントを図解したデータフロー図である。 本件教示の多様な態様に従った監視システムの例示的なモデル・ビルダ・モジュールを図解したデータフロー図である。 本件教示の多様な態様に従った監視システムの例示的なモデルを図解した説明図である。 本件教示の多様な態様に従った監視システムの例示的なカメラを図解したデータフロー図である。 本件教示の多様な態様に従ったカメラの例示的な意志決定モジュールを図解したデータフロー図である。 本件教示の多様な態様に従ったカメラの別の例示的な意志決定モジュールを図解したデータフロー図である。 本件教示の多様な態様に従った監視システムの例示的なアラーム取り扱いモジュールを図解したデータフロー図である。 本件教示の多様な態様に従った監視システムの例示的な学習モジュールを図解したデータフロー図である。 本件教示の多様な態様に従った監視システムの例示的なシステム構成モジュールを図解したデータフロー図である。
以下の説明は、本質的に例示に過ぎず、本件教示、それらの応用、または用途を限定することは意図されていない。理解されるものとするが、図面全体を通じて対応する参照番号は、類似または対応する部品および特徴を示す。ここで使用されるとき、用語のモジュールまたはサブ−モジュールは、1つまたは複数のソフトウエアまたはファームウエア・プログラムを実行するプロセッサ(共有、専用、またはグループ)およびメモリ、および/または説明されている機能を提供可能なそのほかの適切なコンポーネント、および/またはそれらの組み合わせを言うことができる。
ここで図1を参照するが、図1は、本件教示の多様な態様に従って実装される例示的な監視システム10を図示する。例示的な監視システム10は、1つまたは複数のセンサ・デバイス12a〜12nを含む。センサ・デバイス12a〜12nは、センサ・デバイス12a〜12nによって検知された情報に対応するセンサ・データ14a〜14nを生成する。監視モジュール16がセンサ・データ14a〜14nを受信し、本件教示の多様な態様に従ってセンサ・データ14a〜14nを処理する。概して言えば、監視モジュール16は、センサ・データ14a〜14nから疑わしい挙動を自動的に認識し、異常性スコアの予測に基づいてアラーム・メッセージ18をユーザに対して生成する。
本件教示の多様な態様においては、図1に示されているとおり、単一の監視モジュール16が実装され、それぞれのセンサ・デバイス12a〜12nから隔てて配置されることが可能である。本件教示の多様なそのほかの態様においては、複数の監視モジュール(図示せず)を、それぞれのセンサ・デバイス12a〜12nについて1つとして実装することができる。本件教示の多様なそのほかの態様においては、監視モジュール16の機能がサブ−モジュールに分割されることがあり、それにおいては、図2に示されているとおり、いくつかのサブ−モジュールがセンサ・デバイス12a〜12n上に実装され、そのほかのサブ−モジュールがセンサ・デバイス12a〜12nから隔てて実装される。
ここで図2を参照すると、データフロー図が、本件教示の多様な態様に従って実装される、より詳細な例示的な監視システム10を図解している。例示目的のために、この開示の残りの部分を、1つまたは複数のカメラ20a〜20nのセンサ・デバイス12a〜1
2n(図1)としての使用に関連して論ずる。図2に示されているとおり、それぞれのカメラ20a〜20nは、画像取り込みモジュール22、ビデオ解析モジュール80、スコアリング・エンジン・モジュール24、意志決定モジュール26、およびデバイス構成モジュール28を含む。
画像取り込みモジュール22は、シーンに対応する画像データとしてセンサ・データ14a〜14nを収集し、ビデオ解析モジュール80が当該画像データを処理してそのシーンから物体メタデータ30を抽出する。スコアリング・エンジン・モジュール24は、物体メタデータ30を受信し、スコア34とも呼ばれる異常性または正常性の測度を、学習済みのモデル32に基づいて作り出す。
意志決定モジュール26は、スコア34を収集し、物体データ30のためのアラート・レベルを決定する。意志決定モジュール26は、当該アラート・レベルを含むアラート・メッセージ36nを、その先の処理のための外部コンポーネントに送信する。意志決定モジュール26は、ほかのカメラ20a、20bの意志決定モジュール26とスコア34および物体データ30を交換して動きのある物体についての予測を生成することが可能である。デバイス構成モジュール28は、カメラ20nに関連付け可能な多様なモデル32、スコアリング・エンジン・メソッド52、意志決定メソッド50、および/または意志決定パラメータ51をロードし、管理する。
監視システム10は、アラーム取り扱いモジュール38、監視グラフィカル・ユーザ・インターフェース(GUI)40、システム構成モジュール42、学習モジュール44、およびモデル・ビルダ・モジュール46も含むことが可能である。示されているとおり、その種のコンポーネントは、カメラ20a〜20nから隔てて配置されることが可能である。アラーム取り扱いモジュール38は、カメラ20a〜20nからのアラート・メッセージ36a〜36nを再評価し、アラーム・メッセージ18をディスパッチする。アラーム取り扱いモジュール38は、監視GUI40を介してユーザとインタラクションしてアラーム・メッセージ18をディスパッチするか、かつ/またはアラーム確認応答動作の間に分類誤りデータ48を収集する。
学習モジュール44は、意志決定メソッド50およびパラメータ51、および/またはスコアリング・エンジン・メソッド52を、ユーザから収集された分類誤りデータ48を使用することによって、それぞれのカメラ20a〜20nのために適合させる。さらに進んだ議論を後述するように、意志決定メソッド50は、それぞれのスコアリング・エンジンメソッド52のために自動的に学習および最適化され、潜在的な出来事の予測をサポートし、検出の正確さを増加し、偽アラームの数を低減する。意志決定メソッド50は、スコア34をはじめ、以前のスコアリング結果、物体履歴データ等を融合させて最終アラート決定に到達する。
モデル・ビルダ・モジュール46は、正常および/または異常状態を表すモデル32を、収集した物体データ30に基づいて構築する。システム構成モジュール42は、カメラ20a〜20nについてモデル32、意志決定メソッド50およびパラメータ51、およびスコアリング・エンジン・メソッド52を管理し、メソッドおよびデータ32、50、51、52を適切なカメラ20a〜20nにアップロードする。
ここで図3〜10を参照するが、それぞれ図は、監視システム10のコンポーネントの、より詳細な例示的な図解を提供する。より詳細に述べれば、図3は、本件教示の多様な態様に従った、より詳細な例示的なモデル・ビルダ・モジュール46である。示されているとおり、モデル・ビルダ・モジュール46は、モデル初期化モジュール60、モデル初期化グラフィカル・ユーザ・インターフェース62、モデル学習モジュール64、画像デ
ータ・データストア66、モデル・メソッド・データストア68、およびモデル・データ・データストア70を含む。
モデル初期化モジュール60は、ユーザからドメイン知識を取り込み、システム・コンポーネントの初期構成(すなわち、最適化されたモデル、最適化されたスコアリング関数、最適化された意志決定関数等)を提供する。特にモデル初期化モジュール60は、モデル初期化GUI62を介してユーザから受信される入力74に基づいて、それぞれのカメラ20a〜20n(図2)のための初期モデル32を構築する。たとえば、モデル初期化GUI62がカメラからの画像データに基づいてシーンを表示し、したがってカメラ視野内の物体の期待される動きを記述するユーザが理解容易な情況を提供する。画像データは、画像データ・データストア66から受け取ることができる。モデル初期化GUI62を使用し、ユーザは、所定のシーン内の移動物体のランダムな軌跡をシミュレーションする動きパラメータ72を入力できる。軌跡は、正常または異常状態を表すことができる。その後、モデル初期化モジュール60が軌跡をシミュレーションし、シーン内のシミュレーションされた軌跡からデータを抽出してモデル32を構築する。生成されたシミュレーションによるメタデータは、選択されたビデオ解析モジュール80(図2)の期待出力に対応する。
モデル初期化モジュール60は、モデル・メソッド・データストア68内にストアされたあらかじめ定義済みのモデル・ビルダ・メソッドから最適化されたモデル32を構築する。本件教示の多様な態様においては、特定の意志決定メソッド50(図2)、意志決定メソッド50の構成パラメータ51(図2)、スコアリング・エンジン・メソッド52のセット(図2)、および/またはスコアリング・エンジン・メソッドの構成パラメータを選択するモデル・ビルダ・メソッドに従って、モデル初期化モジュール60が最適構成を構築する。
本件教示の多様な態様においては、表示されたシーン内にあらかじめ定義済みの物体を挿入するオプションをモデル初期化GUI62がユーザに提供できる。その後モデル初期化モジュール60が、そのあらかじめ定義済みの物体を、検証目的のための軌跡経路に沿ってシミュレーションする。ユーザがその軌跡経路に満足した場合には、そのモデル32が、モデル・データ・データストア70内にストアされる。そうでない場合にユーザは、シミュレーションにユーザが満足するまで軌跡パラメータを、したがってモデル32を反復的に調整することができる。
その後、モデル学習モジュール64が、収集された物体データ30を使用し、かつモデル・メソッド・データストア68内にストアされている多様なモデル・ビルダ・メソッドを基礎とすることによって、それぞれのカメラ20a〜20n(図2)のためのモデル32を自動的に適合させることができる。モデル学習モジュール64は、適合させたモデル32をモデル・データ・データストア70内にストアする。
認識できるとおり、多様なモデル構築メソッドをモデル・メソッド・データストア68内にストアし、モデル・ビルダ・モジュール46が、モデル・タイプに基づいてそれぞれの物体についての多数のモデル32を構築することを可能にすることができる。たとえば、限定ではないが多様なモデルは、速度モデル、加速度モデル、発生モデル、入口/出口ゾーン・モデル、方向性速度プロファイル・モデル、および軌跡モデルを含むことができる。これらのモデルは、すべての観察される物体をはじめ、種々のタイプの物体のために構築が可能である。図4に示されているとおり、それぞれのモデル32のためのデータは、多次元配列構造71(すなわち、データ・キューブ)として表現されることが可能であり、それにおいてはそれぞれの要素が固有空間直方体(3Dにおいては超直方体)および時間区間を参照する。本件教示の多様な態様においては、モデル32が、予測モデル・マ
ークアップ言語(PMML)および監視システムのためのそれの拡張形式に従って表される。
本件教示の多様な態様においては、発生モデルが、空間および時間の次元における物体の検出確率を記述する。発生データ・キューブのそれぞれの要素が、特定の時間区間においてシーン内の特定の場所で物体を検出する確率を表す。認識できるとおり、時間を加えた3次元の発生データ・キューブは、複数のカメラ20a〜20n(図2)から獲得が可能である。速度モデルは類似に構築が可能であり、それにおいては、速度データ・キューブのそれぞれのセルが、(dx,dy)のガウス分布またはガウス分布の混合を表すことができる。これらのパラメータは、帰納式を用いて学習可能である。速度データ・キューブと同様に、加速度データ・キューブのそれぞれのセルは、((dx)’,(dy)’)のガウス分布をストアする。入口/出口ゾーン・モデルは、シーンの、物体が最初に検出される領域および最後に検出される領域をモデリングする。これらのエリアは、ガウス・モデルの混合によってモデリング可能である。それらの場所は、K−平均法、期待値最大化(EM)法等のクラスタリング法の適用によって、それぞれの検出された物体の最初と最後の通過跡ポイントから生成できる。
軌跡モデルは、ビデオ解析モジュール80(図2)から獲得された物体メタデータ30を伴う入口および出口領域を使用することによって構築することが可能である。多様な態様においては、それぞれの入口−出口領域が、観察された動いている物体によって使用されるサイト内のセグメントを定義する。それぞれのセグメントの表現は、曲線の当て嵌め、回帰等の方法を、リアルタイムでカメラから収集されるか、またはシミュレーションによる物体データに使用することによって獲得できる。それぞれの入口および出口領域が時間区間を含むことから、セグメントもまた関連する時間区間を含む。
方向性モデルは、物体の動きをサイト内の領域に関して表す。特に、それぞれのセルが、そのセル内の特定の方向に従う確率、速度および加速度等の空間時間的領域(セル)内における測定の統計的表現を含む。セルは、入口領域、出口領域、軌跡モデル、および監視下にあるサイトのグローバル・データ・キューブ・モデルへの特定のリンクを含むことができる。セルは、空間時間的領域固有の最適化されたスコアリング・エンジン・メソッドをはじめユーザ指定のスコアリング・エンジン・メソッドを含むことができる。データ・キューブの次元は一様なグリッド構造で図示されているが、非一様な区間が最適モデル表現に重要となり得ることが認識される。可変長区間をはじめ、クラスタ化/セグメント化された非剛性空間時間的形状記述子(すなわち、3D/4D形状記述)をモデル縮小のために使用することが可能である。さらにまた、セルへの効率的なアクセスのために多次元インデクス設定方法(R−ツリー、X−ツリー、SR−ツリー、等)を使用してモデル32をストアすることができる。
認識できるとおり、データ・キューブ構造は、それぞれのセル内の統計的属性の予測モデリングを、データ・キューブ内にストアされている速度および加速度属性に基づいて観察される物体の移動軌跡が予測可能となるようにサポートする。たとえば、移動物体の過去の履歴の統計的解析を基礎として、場所(X1,Y1)内において検出された任意の物体が、T秒後に場所(X2,Y2)に移動することが履歴データに基づくと非常にありがちなことがある。場所(X1,Y1)内において新しい物体が観察されるとき、それがT秒後に場所(X2,Y2)に移動することはありがちである。
ここで図5を参照すると、本件教示の多様な態様に従った監視システム10の、より詳細な例示的なカメラ20が図解されている。カメラ20は、示されているとおり、画像取り込みモジュール22、ビデオ解析モジュール80、スコアリング・エンジン・モジュール24、意志決定モジュール26、デバイス構成モジュール28、物体履歴データストア
82、カメラ・モデル・データストア92、スコアリング・エンジン・スコア履歴データストア84、パラメータ・データストア90、決定メソッド・データストア88、およびスコアリング・メソッド・データストア86を含む。
上で論じたとおり、画像取り込みモジュール22は、センサ・データ14から画像データ93を取り込む。画像データ93は、物体およびその物体の性状を抽出するためにビデオ解析モジュール80に渡される。より詳細に述べれば、ビデオ解析モジュール80は、物体検出ベクトル
Figure 0005224401
(以下、本明細書では当該ベクトルを「o」とも記載する。)
の形式で物体データ30を作り出すことが可能であり、それが、物体識別子(物体ごとの一意的なキー値)、画像平面内における物体の中心位置(x,y)、タイムスタンプ、画像平面内における最小バウンディング・ボックス(MBB)(x.low,y.low,x.upper,y.upper)、検出された物体に属するピクセルを指定するバイナリ・マスク・マトリクス、検出された物体の画像データ、および/または検出された物体のそのほかの何らかの性状、たとえばメタデータ・フォーマット(すなわち、MPEG7標準および監視のためのそれの拡張形式)によって指定される視覚的記述子等を含む。物体データ30は、スコアリング・エンジン(SE)モジュール24に送られ、物体履歴データストア82内に保存されることが可能である。
本件教示の多様な態様においては、ビデオ解析モジュール80が、カメラ・モデル・データストア92のモデル32に、たとえば物体追跡方法の正確さを向上させるためにアクセスすることができる。上で論じたとおり、モデル32は、デバイス構成モジュール28を介してカメラ20のカメラ・モデル・データストア92にロードされる。デバイス構成モジュールはまた、スコアリング・エンジン・モジュール24、意志決定モジュール26をインスタンス生成し、進行性の挙動および脅威検出のための物体データ30の処理に関係するモジュールの間の通信チャンネルを準備する。
スコアリング・エンジン・モジュール24は、特定の物体の、シーン内におけるその物体の発生、その物体の速度、およびその物体の加速度といった特徴について1つまたは複数のスコア34を生成する。多様な態様においては、スコアリング・エンジン・モジュールが、次の機能を実行する複数のスコアリング・エンジン・サブ−モジュールを含む。スコアリング・エンジン・モジュール24は、特定のスコアリング・エンジン・メソッド52をスコアリング・メソッド・データストア86から、モデル・タイプおよびスコア付けされることになる物体の特徴に基づいて選択する。多様な例示的なスコアリング・エンジン・メソッド52を、添付の付録A内に見つけることができる。それらのスコアリング・エンジン・メソッド52は、デバイス構成モジュール28を介してスコアリング・メソッド・データストア86にロードされる。
それぞれの検出された物体のスコア34は、蓄積されて場所(X0,Y0)における進行性の脅威またはアラート・レベルをリアルタイムで獲得することができる。さらに、データ・キューブ内にストアされている予測モデルを使用して、最初に物体の移動軌跡を予測し、その軌跡に沿ってその物体のスコアを計算することによって前もって物体のスコア34を計算することが可能である。その結果としてシステムは、脅威のレベルの変化を、それが起きる前に予測し、予防的なアラート・メッセージ生成をサポートすることができる。この前方予測は、近い将来に予測される物体の性状(場所、速度等)をはじめ、スコアリング結果の傾向解析を含むことができる。
スコア34の決定は、モデル32、物体データ30、スコア履歴データ34、およびいくつかの場合における物体履歴データストア82からの物体履歴データ、いくつかの関心領域(ユーザによって定義される)、およびそれらの多様な組み合わせに基づくことができる。認識できるとおり、スコア34は、異常性の測度を表すスカラー値とすることができる。本件教示の多様なそのほかの態様においては、スコア34が2つまたはそれより多くのスカラー値を含むことが可能である。たとえばスコア34が、正常性の測度および/または信頼性レベル、および/または異常性の測度および/または信頼性レベルを含むことができる。スコア・データ34は、意志決定モジュール26に渡されるか、かつ/またはタイムスタンプとともにSEスコア履歴データストア84にストアされる。
その後、意志決定モジュール26が、所定の物体検出イベント・データ(o)についてのスコアリング・エンジン・モジュール24からのスコア34の融合に基づいてアラート・メッセージ36を生成する。意志決定モジュールは、履歴のスコア・データ34および物体データ30を、融合の間に使用することができる。意志決定モジュール26は、決定メソッド・データストア88にストアされる多様な意志決定メソッド50に従って実装することが可能である。その種の意志決定メソッド50は、デバイス構成モジュール28を介してカメラ20にロードできる。本件教示の多様な態様においては、図6に示されているとおり、アラート・メッセージ36が、次式によって示されるところの重み付けされたスコアの和の関数として計算される。
Figure 0005224401
これにおいてwは、時間(t)および空間次元(XY)に基づくそれぞれのスコアのための重みを表す。本件教示の多様な態様においては、データ・キューブの次元が数において多様化可能であり、たとえばXYZ空間次元とし得る。重み(w)は、あらかじめ構成されるか、または適応的に学習されて、デバイス構成モジュール28を介してパラメータ・データストア90にロードされることが可能である。本件教示の多様なそのほかの態様においては、アラート・メッセージ36が、図7に示されているとおり、決定ツリー・ベースの方法に基づいて決定される。この決定ツリー・ベースの方法は、監視プロセス全体を通じて適応的に学習させることが可能である。
意志決定モジュール26が多様な意志決定メソッド50に従って実装可能であることから、意志決定モジュールは、たとえば予測モデル・マークアップ言語の拡張形式等のXMLベースの表現を使用することによって宣言形式で好ましく定義される。これは、学習モジュール44が多様なパラメータ(上で説明したところの重みおよび決定ツリー等)を変更し、意志決定メソッドもまた然りであることから、学習モジュール44が意志決定モジュールの正確さを向上させることを可能にする。
本件教示の多様な態様においては、意志決定モジュール26が、進行性の挙動および脅威検出のために早期警告アラート・メッセージの生成が可能な予測を生成することができる。たとえば意志決定モジュール26は、軌跡モデル32に基づいて、動いている物体についての予測を生成することができる。動いている物体の将来の場所の予測は、意志決定モジュール26が、動いている2つの物体が衝突するか否かを識別することを可能にする。衝突がもっともらしい場合には、意志決定モジュール26が、物体がどこで衝突することになるか、物体がいつ衝突することになるかを予測することをはじめ、アラート・メッセージ36を生成して可能性のある事故を防止することが可能である。
上で論じたとおり、監視システム10内のカメラ20a〜20nの間における協働的な
意志決定を可能にするために、意志決定モジュール26は、ほかのカメラ20a、20b(図2)またはデバイス内で動作する意志決定モジュール26等の、ほかの意志決定モジュール26とデータを交換することができる。ほかのカメラ20a、20b(図2)によって検出された疑わしい物体の物体データ30およびスコア34は、それぞれ物体履歴データストア82およびSEスコア履歴データストア84にストアすることができる。したがって、疑わしい物体の履歴を提供し、意志決定モジュール26による解析を向上させる。
ここで図8を参照すると、データフロー図が、本件教示の多様な態様に従った監視システム10の、より詳細な例示的なアラーム取り扱いモジュール38を図解している。アラーム取り扱いモジュール38は、アラート・メッセージ36を収集し、それぞれの新しく検出された物体の『脅威』構造を作る。脅威構造は、検出された物体に関連付けされた時間的性状の維持をはじめ、検出された物体とそのほかのあらかじめストアされた性状、および獲得された性状(顔認識の結果等)の関連付けを行う。アラーム取り扱いモジュール38は、受信したアラート・メッセージ36を、脅威構造内の物体の収集済み性状および追加のシステム構成を使用することによって再評価し、アラームのレベルを決定する。アラーム取り扱いモジュールは、アラームを生成することなくアラート・メッセージをフィルタリングすることをはじめ、望ましい場合にはアラーム・レベルを増加することができる。
より詳細に述べれば、アラーム取り扱いモジュール38は、脅威データ・データストア98、規則ベースの異常性評価モジュール94、規則データストア100、および動的規則ベースのアラーム取り扱いモジュール96を含むことができる。認識できるとおり、規則ベースの異常性評価モジュール94は、センサ・デバイス内に定義される意志決定モジュール26(図2)の別の形式であると考えることが可能である。したがって、意志決定モジュール26に関連付けされたすべての説明/動作は、規則ベースの異常性評価モジュール94に適用可能である。たとえば、規則ベースの異常性評価モジュール94のための意志決定は、監視のための予測モデル・マークアップ言語の拡張された形式で宣言的に定義することが可能である。脅威データ・データストア98は、物体データ・スコア34、および識別された物体に関連付けが可能な追加の性状をストアする。その種の追加の性状は、特定の脅威の識別に適用できるとすることが可能であり、かつ限定ではないが、顔認識特性またはナンバー・プレートの番号等の人またはアイテムのアイデンティティ認識特性、および雇用地位または犯罪者アイデンティティ等の物体の属性を含むことができる。
規則データストア100は、動的に構成可能かつ検出された物体の追加の評価に使用可能な規則をストアする。その種の評価規則は、たとえば、限定ではないが、許容可能な物体を、たとえ疑わしいとしてそれらが識別されたとしても、識別する規則、より高いアラート・レベルを認識済み物体に関連付けする規則、および物体が同時に2つの異なるシーン内に存在するときに疑わしいとしてその物体を認識する規則を含むことができる。
規則ベースの異常性評価モジュール94は、追加の性状と検出された物体を、脅威データ・データストア98からの物体データに基づいて関連付けする。規則ベースの異常性評価モジュール94は、その後、この追加の情報および評価規則を使用して潜在的脅威および対応するアラート・レベルを再評価する。たとえば、規則ベースの異常性評価モジュール94が、その物体を勤務時間外の間にシーン内を横切る保安監視員として識別することができる。構成可能な規則および動作に基づいて、規則ベースの異常性評価モジュール94は、たとえ勤務時間外における人の検出が疑わしいとしても、アラート・メッセージ36を無視してアラーム・メッセージ18がディスパッチされることを妨げることが可能である。
動的規則ベースのアラーム取り扱いモジュール96は、アラート・イベント102をアラーム・メッセージ18およびそれの追加のデータの形式で、監視GUI40(図2)および/またはアラーム・ロギング・モジュール(図示せず)等の関心モジュールに対してディスパッチする。動的規則ベースのアラーム取り扱いモジュール96が監視GUI 40を介してアラーム・メッセージ18をディスパッチするときには、ユーザが、当該アラームへの同意または不同意によって追加のフィードバックを提供することができる。フィードバックは、ユーザによって分類誤りデータ48として、同意されたケースまたは同意されなかったケースの形式で学習モジュール44(図2)に提供される。これは、監視システム10が、システム・コンポーネント(すなわち、モデル32、スコアリング・エンジン・メソッド52、意志決定メソッド50、規則等(図2))をさらに最適化するためにデータのセットを収集することを可能にする。
ここで図9を参照するが、データフロー図が、本件教示の多様な態様に従った監視システム10の、より詳細な例示的な学習モジュール44を図解している。学習モジュール44は、スコアリング・エンジン・メソッド52、意志決定メソッド50、および関連する、空間時間的重み等のパラメータ51を、学習済みの分類誤りデータ48に基づいて最適化する。
たとえば学習モジュール44は、意志決定メソッド50、モデル32、スコアリング・エンジン・メソッド52、パラメータ51を、システム構成モジュール42から検索する。学習モジュール44は、学習メソッド・データストア106から1つまたは複数の適切な学習メソッドを選択する。学習メソッドは、特定の意志決定メソッド50との関連付けが可能である。学習メソッドに基づいて、学習モジュール44は、意志決定メソッド50およびカメラからの物体データ30を、分類誤りデータ48に照らして再検査する。学習モジュールは、意志決定動作における誤りを最小化するべくパラメータ51を調整することができる。認識できるとおり、1を超える学習メソッドが意志決定メソッド50に関連付けされている場合には、学習モジュール44が、それぞれのメソッド50について上記の再検査を実行し、最良結果またはそれらの何らかの組み合わせを使用してパラメータ51を調整する。
ここで図10を参照するが、データフロー図が、本件教示の多様な態様に従った監視システム10の、より詳細な例示的なシステム構成モジュール42を図解している。システム構成モジュール42は、示されているとおり、カメラ構成モジュール110、情報アップロード・モジュール112、およびカメラ構成データストア114を含む。
カメラ構成モジュール110は、モデル32、スコアリング・エンジン・メソッド52、および意志決定メソッド50およびパラメータ51を、監視システム10内のカメラ20a〜20n(図2)のそれぞれと関連付けする。カメラ構成モジュール110は、システム内のデバイス(カメラ、エンコーダ、レコーダ、虹彩認識デバイス等)についてのネットワーク・レベル情報およびユーザ・アカウントといった、カメラ構成データストア114からの追加のシステム構成データを受け入れ、かつ関連付けすることができる。カメラ構成モジュール110は、結合データ116を生成する。
情報アップロード・モジュール112は、要求時に、カメラ20a〜20n(図2)の結合データ116に基づいてモデル32、スコアリング・エンジン・メソッド52、および意志決定メソッド50およびパラメータ51をデバイス構成モジュール28(図2)に提供する。本件教示の多様な態様においては、スケジュールされた間隔で、カメラ20a〜20nのデバイス構成モジュール28(図2)に、モデル32、スコアリング・エンジン・メソッド52、意志決定メソッド50およびパラメータ51を提供するべく情報アップロード・モジュール112を構成することが可能である。
当業者は、この開示の広い教示が多様な形式で実装され得ることを以上の説明から認識できよう。したがって、この開示がそれの特定の例に関連して述べられているが、開示の真の範囲は、このほかの修正が、図面、明細書、および以下の特許請求の範囲を研究したときに当業者に明らかになることから、そのように限定されるべきではない。
(付録A)
1. 発生ベースのスコアリング・メソッド
発生モデルは、[t,x,y](時間および空間)における物体の検出が期待されるか否かを要約する。
期待される結果
1. セル[t,x,y]においてその種の活動があるべきではない場合に、場所([t,x,y])において物体が検出される。
2. 同じ物体の通過跡が2つの異なる時間で使用される(1つの時間区間はOKとし、別の時間区間はOKとしないか、または少なくとも人員によるその活動の調査を必要とする)。
SE_ALG1
メソッド:
物体の現在の場所に関連付けされた現在の発生確率と、最後の3つの時間スライスから獲得された発生確率の平均値を比較する。
物体の現在の場所に関連付けされた発生確率が発生確率の平均値より小さいときには、アルゴリズムが、当該平均値からの距離を使用することによって異常性スコアを割り当てる。
入力:o=[oid,t,x,y]
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
=[oid,t,x,y]についての組み合わせ発生モデルの計算
データ・キューブ(O(t−2),O(t−i),O)から(t−2)、(t−1)、およびtについての発生時間スライスを選択する。
Figure 0005224401
=[oid,t,x,y]についての平均発生確率の計算
CombinedOccurenceから非ゼロのエントリの平均値を求める
Figure 0005224401
1.1 SE_OSE1
メソッド:
物体の現在の場所に関連付けされた現在の発生確率と、現在の時間スライスにおける発生確率の平均値を比較する。
物体の現在の場所に関連付けされた発生確率が発生確率の平均値より小さいときには、アルゴリズムが、発生確率の標準偏差によって除した当該平均値からの距離を使用することによって異常性スコアを割り当てる。
入力:o=[oid,t,x,y]
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
1.2 SE_OSE3
メソッド:
物体の現在の場所に関連付けされた現在の発生確率と、現在の時間スライスにおける発生確率の平均値を比較する。
物体の現在の場所に関連付けされた発生確率が発生確率の平均値より小さいときには、アルゴリズムが、発生確率の標準偏差によって除した当該平均値からの距離を使用することによって脅威スコアを割り当てる。
OSE1との比較:OSE3は、OSE1で使用された平均計算アルゴリズムを使用するが、脅威スコアの割り当てに異なるアルゴリズムを使用する。
入力:o=[oid,t,x,y]
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
代替スレッショルド値をmode()、median()、(mode()+mean())/2、mean−k*std等とすることができる。
Figure 0005224401
1.3 SE_OSE6
メソッド:
物体の現在の場所に関連付けされた現在の発生確率と、現在の時間スライスにおける発生確率から得られたスレッショルド値を比較する。
スレッショルド(Threshold)=平均(Mean)−標準偏差(Std)
物体の現在の場所に関連付けされた発生確率がスレッショルドより小さいときには、アルゴリズムが、発生確率の標準偏差によって除した当該平均値からの距離を使用することによって脅威スコアを割り当てる。
OSE3との比較:OSE6は、異なるスレッショルド値を使用する。
入力:o=[oid,t,x,y]
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
2. 速度プロファイル・ベースのスコアリング・メソッド
2.1 SE_VSE1
メソッド:
物体の現在の場所に関連付けされた現在の速度プロファイルと、現在の時間スライスにおける速度プロファイルから得られたスレッショルド値を比較する。
入力:
=[oid,t,x,y,Δx,Δy]は、現在の時間tにおける物体のフロー・ベクトルを示す。
k=スレッショルド・コントロール・パラメータ(k*std)
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
脅威スコア値は、2Dガウス関数からも獲得することが可能である。
2.2 SE_VSE1N
メソッド:
最後のn個の標本を速度モデルとともに使用することによって脅威スコアを決定する。
入力:
Obj={[oid,t,x,y,Δx,Δy],[oid,t(i−1), ,x(i−1),y(i−1),Δx(i−1),Δy(i−1)],..,[oid,t(i−n+1), ,x(i−n+1),y(i−n+1),Δx(i−n+1),Δy(i−n+1)]}は、物体の最後のn個のフロー・ベクトルを示し、tは現在の時間である。
k=スレッショルド・コントロール・パラメータ(k*std)
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
上記のアルゴリズムは、最終脅威スコアの獲得にmax()関数を使用している。脅威スコアの割り当てには、以下のような多くの異なる方法がある。
ThreatScore=average(P(:,2));
ThreatScore=median(P(:,2));
ThreatScore=mode(P(:,2));
ThreatScore=(average(P(:2))+mode(P(:2)))/2;
ThreatScore=(average(P(:2))+median(P(:2)))/2;
ThreatScore=(median(P(:2))+mode(P(:2)))/2;
それぞれの以前のポイントについての個別のスコアは、重みを使用することによって組み合わせることができる。ts(i)をi番目の物体のフロー・ベクトルのタイムスタンプとし、物体のフロー・ベクトルがタイムスタンプ順で減少すると仮定する(ts(1)>ts(2)>...>ts(n−1)>ts(n))。score(i)を、i番目の物体のフロー・ベクトルに関連付けされる脅威スコアとする。所定のnについての最終脅威スコアは、次のとおりとなる。
Figure 0005224401
これにおいてΔt=ts(i)−ts(n),Δt=ts(1)−ts(n)、かつw(Δt,Δt)=Δt/Δt
それぞれのスコアの重みは、現在の時間とインスタンスのタイムスタンプの間の(時間
次元における)距離に依存する。重みは、当該(時間次元における)距離に関して線形である。
非線形重み割り当ては、現在の時間に対するそれらの距離に基づいて重みを表現するべく、S字状関数、二重S字状関数、指数減衰関数、論理関数、ガウス分布関数等を使用することができる。それらのパラメータは、微調整のための学習アルゴリズムによって調整できる。
2.3 SE_VSE_X
メソッド:
物体の観察された速度を構成済み速度スレッショルドと比較する。
入力
● o=[oid,t,x,y]は、現在の時間tにおける物体の検出ベクトルを示す。
● Ofirstは、関心物体に関連付けされた最初の検出ベクトルを示す。
● Vaverageは、期待される平均速度(スレッショルドとして使用される)を示す。
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
このアルゴリズムは、物体がうろついている(あまり動かないか、または非常にゆっくりと動いている)ことを検出する。
物体の速度の計算は、最初の位置および現在の位置を使用する。代替として、以下によって物体の速度を計算することが可能である。
● すべての物体検出ベクトル(平均、メジアン、モード)から速度を獲得する。
● 重み付け平均とともに最後のn個の物体検出ベクトルから速度を獲得する。
3. 加速度プロファイル・ベースのスコアリング・メソッド
3.1 SE_ASE0
メソッド:
物体の現在の場所に関連付けされた現在の加速度プロファイルと、現在の時間スライスにおける加速度プロファイルから得られたスレッショルド値を比較する。
入力:
● o=[oid,t,x,y,ax,ay]は、物体の加速度フロー・ベクトルを示す。
● k=スレッショルド・コントロール・パラメータ(k*std)
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
AMDC(t,x,y)が加速度モデルを示すものとし、o=[oid,t,x,y,ax,ay]が物体の加速度フロー・ベクトルを示すものとし、物体oは、時間tに場所(x,y)において検出される。この観察についての脅威スコアは、次のとおりとなる。
Figure 0005224401
3.2 SE_ASE1N
メソッド:
最後のn個の標本を加速度モデルとともに使用することによって脅威スコアを決定する。
入力:
● Obj={[oid,t,x,y,ax,ay],[oid,t(i−1), ,x(i−1),y(i−1),ax(i−1),ay(i−1)],..,[oid,t(i−n+1), ,x(i−n+1),y(i−n+1),ax(i−n+1),ay(i−n+1)]}は、物体の最後のn個の加速度フロー・ベクトルを示し、tは現在の時間である。
● k=スレッショルド・コントロール・パラメータ(k*std)
● n=使用されることになる最後の観察の数
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
上記のアルゴリズムは、最終脅威スコアの獲得にmax()関数を使用している。脅威スコアの割り当てには、以下のような多くの異なる方法がある。
ThreatScore=average(P(:,2));
ThreatScore=median(P(:,2));
ThreatScore=mode(P(:,2));
ThreatScore=(average(P(:2))+mode(P(:2)))/2;
ThreatScore=(average(P(:2))+median(P(:2)))/2;
ThreatScore=(median(P(:2))+mode(P(:2)))/2;
4. 速度プロファイル・ベースのアルゴリズム
4.1 SE_SSE1
メソッド:
物体の観察された速度と速度プロファイルを比較する。
入力:
=[oid,t,x,y,Δx,Δy]は、現在の時間tにおける物体の速度ベクトルを示す。
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
注意:これは「遅い」および「速い」の両方を脅威として検出することになる。
5. 方向性速度プロファイル・ベースのメソッド
方向性速度プロファイル・データ・キューブを使用するスコアリング・アルゴリズムは、物体検出ベクトル({(o,ti,xi,yi),(o,t(i−1).X(i−1),y(i−1)),...})を受け入れる。
(1) 最後の場所を使用することによってモデル内でMtxyセルを見つけ出し、当該セル内で入口スライス(i)および出口スライス(j)を見つけ出す。
(2) 物体の速度を[μij±σij]区間に対して比較する。
(3) 値がこの区間の内側であれば脅威は存在しないので戻る。
(4) 値がこの区間の外側であれば脅威が存在し、次式によって脅威レベルが計算される。
ThreatLevel=abs(ObservedSpeed−μij)/σij
上記の関数は、物体に関連付けされた脅威レベルを獲得する1つの例である。脅威レベル決定関数は、ObservedSpeedと期待される速度の間の距離に関して非線形の脅威測度をもたらす指数関数の使用によって記述することができる。
方向性速度プロファイル・データ・キューブを使用する別のスコアリング・アルゴリズムは、物体の最近のいくつかの位置を使用し、重み付けされた合計の式を用いてその種の測度を獲得することができる。その種のアルゴリズムの変形は、すべての通過跡データを使用し、脅威レベル・データについての正規分布N(μ,σ)を組み立てることが可能である。
6. 関心目標についてのスコアリング・メソッド
6.1 SE_CROSSOVER1
メソッド:
物体の観察された場所と関心目標領域を比較する。
入力:
=[oid,t,x,y]は、現在の時間tにおける物体の検出ベクトルを示す。
TargetDef=[[x,y],[x,y]]は、カメラ視野内の領域を
指定する(カメラ画像座標)。
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
Figure 0005224401
図Bにおいては、関心目標領域がカメラ視野で定義されている。スコアリング・アルゴリズムは、物体と目標領域の中心の間における距離に基づいて脅威スコアを生成する。
Figure 0005224401
変形
(1) 目標の記述は、円(中心および半径によって記述)をはじめ、多角形表現によって定義される任意形状(MPEG7領域記述子の使用が可能)とすることができる。
(2) カメラ当たり1を超える数の目標記述が存在し得る。
(3) 目標記述は、それの使用が可能となる時間区間[tbegin.tend]に関連付けすることができる。
(4) 脅威の距離は、線形モデルを用いて計算される。脅威の距離は、(x,y)を中心とする2Dガウス関数の使用によって計算できる。
6.2 SE_CROSSOVER2
メソッド:
物体の観察された場所と関心目標領域および発生モデルを比較する。
入力:
=[oid,t,x,y]は、現在の時間tにおける物体の検出ベクトルを示す。
TargetDef=[[x,y],[x,y]]は、カメラ視野内の領域を指定する(カメラ画像座標)。
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
ThreatScore=(1−normalized_distance)*(1−OccurenceProb)
これにおいてnormalized_distance=(目標と物体の間のユークリッド距離)/(目標と物体の間の最大可能ユークリッド距離)
Figure 0005224401
脅威スコア計算が、発生確率と目標に対する近接測度の組み合わせを使用して最終脅威スコアを見つけ出していることに注意する必要がある。物体が近すぎるが、頻繁に訪れる場所内であるときには、脅威スコアが減じられる。物体が近すぎ、頻繁に訪れる場所外であるときには、脅威スコアが増加される。
6.3 SE_APPROACH1
メソッド:
物体の観察された速度および方向を関心目標領域に関して比較する。
入力:
=[oid,t,x,y,Δx,Δy]は、現在の時間tにおける物体の速度フロー・ベクトルを示す。
TargetDef=[[x,y],[x,y]]は、カメラ視野内の領域を指定する(カメラ画像座標)。
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
物体が目標に近づいて行く場合には、この成分が正になる。目標から離れて行く物体については、この成分が負になる。この情報は、近づいている物体による脅威の決定に使用されることになる。ApproachThreat=||(dx/dt)i+(dy/dt)j||.cos(θ)
これにおいて
(dx/dt)は、x方向における瞬時速度であり、
(dy/dt)は、y方向における瞬時速度であり、
θは、速度の方向と、目標と物体を結ぶ線の間の角度である。
Figure 0005224401
7. 物体の動きデータについてのスコアリング・メソッド
7.1 SE_WANDER1
メソッド:
物体の観察された場所を比較し、所定数のフレームにわたって特定の領域内に物体がとどまっているか否かを判定する。
入力:
● Obj={[oid,t,x,y],[oid,t(i−1), ,x(i−1),y(i−1)],..,[oid,t(i−n+1), ,x(i−n+1),y(i−n+1)]}は、物体の最後のn個の検出ベクトルを示し、tは現在の時間である。
出力:[0..MAX_THREAT_SCORE]内の脅威スコア
WanderRatio=Nr/N (3)
これにおいて、
Nrは、現在ポイントの半径R(WANDER_RADIUS)内にあるポイント数である。
Nは、WANDERING_ORDERである。これは、うろつきがあるか否かの決定に使用される過去の標本の数である。
Figure 0005224401
10 監視システム
14 センサ・データ
16 監視モジュール
18 アラーム・メッセージ
20 カメラ
20b カメラ
22 画像取り込みモジュール
24 スコアリング・エンジン・モジュール
26 意志決定モジュール
28 デバイス構成モジュール
30 物体メタデータ、物体データ
32 モデル
34 スコア、スコア・データ、物体データ・スコア
36 アラート・メッセージ
36n アラート・メッセージ
38 アラーム取り扱いモジュール
40 監視GUI
42 システム構成モジュール
44 学習モジュール
46 モデル・ビルダ・モジュール
48 分類誤りデータ
50 意志決定メソッド
51 意志決定パラメータ、パラメータ
52 スコアリング・エンジン・メソッド
60 モデル初期化モジュール
62 モデル初期化GUI
64 モデル学習モジュール
66 画像データ・データストア
68 モデル・メソッド・データストア
70 モデル・データ・データストア
72 動きパラメータ
74 入力
80 ビデオ解析モジュール
82 物体履歴データストア
84 スコアリング・エンジン・スコア履歴データストア、SEスコア履歴データストア
86 スコアリング・メソッド・データストア
88 決定メソッド・データストア
90 パラメータ・データストア
92 カメラ・モデル・データストア
93 画像データ
94 規則ベースの異常性評価モジュール
96 動的規則ベースのアラーム取り扱いモジュール
98 脅威データ・データストア
100 規則データストア
102 アラート・イベント
106 学習メソッド・データストア
110 カメラ構成モジュール
112 情報アップロード・モジュール
114 カメラ構成データストア
116 結合データ
12a〜12n センサ・デバイス
14a〜14n センサ・データ
20a〜20n カメラ
36a〜36n アラート・メッセージ

Claims (15)

  1. 監視システムであって、
    センサ・データを収集する所定のカメラ上に常駐するデータ取り込みモジュールと、
    前記所定のカメラ上に常駐、前記センサ・データを受信し、前記センサ・データについて、前記所定のカメラ上に常駐する1つまたは複数のデータ・モデルに基づいて選択されたスコアリング・エンジン・メソッドに従って異常性スコアおよび正常性スコアのうちの少なくとも1つを計算するスコアリング・エンジン・モジュールと、
    前記所定のカメラ上に常駐する、前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つを受信し、かつ前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つに基づいて、かつ、意志決定メソッドに従って進行性の挙動および脅威検出をもたらすべくアラート・メッセージを生成する意志決定モジュールと、
    前記所定のカメラから隔てて配置される、前記所定のカメラから前記センサ・データを受信し、かつ前記センサ・データを使用して前記所定のカメラのために前記データ・モデルを適合させるモデル・ビルダと、
    前記所定のカメラから隔てて配置される、前記モデル・ビルダによって適合された前記データ・モデルにアクセスし、かつ前記所定のカメラのために適合されたデータ・モデルを用いて前記所定のカメラを構成するシステム構成モジュールと、
    を有する監視システム。
  2. さらに、前記センサ・データのシミュレーションおよび蓄積されたセンサ・データのうちの少なくとも1つに基づいて前記データ・モデルを構築するモデル・ビルダ・モジュールを有する、請求項1に記載の監視システム。
  3. 前記スコアリング・メソッドは、動いている物体の観察された性状をデータ・キューブ内にストアされた前記データ・モデルに照らして計算し、動いている物体と前記データ・モデルの間における正常性および異常性スコアのうちの少なくとも1つを表すスコアを獲得する、請求項1に記載の監視システム。
  4. さらに、ユーザからパラメータを受け入れ、前記シミュレーションを生成するグラフィカル・ユーザ・インターフェースを有する、請求項2に記載の監視システム。
  5. さらに、前記スコアリング・メソッド、前記意志決定メソッドのうちの少なくとも1つを学習済みの分類誤りデータに基づいて学習させる学習モジュールを有する、請求項1に記載の監視システム。
  6. さらに、前記アラート・メッセージを受信し、かつ前記アラート・メッセージの追加の吟味に基づいてアラーム・メッセージを生成するアラーム取り扱いモジュールを有する、請求項1に記載の監視システム。
  7. 前記データ取り込みモジュールは、画像センサからセンサ・データを収集し、かつ前記センサ・データから物体データを抽出し、前記スコアリング・エンジン・モジュールは、前記物体データに基づいて前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つを計算する、請求項1に記載の監視システム。
  8. 前記意志決定モジュールは、ほかのセンサ・データから生成された異常性スコアおよび
    正常性スコアのうちの少なくとも1つを受信し、前記ほかのセンサ・データから生成された前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つに基づいてアラート・メッセージを生成する、請求項1に記載の監視システム。
  9. 監視システムであって、
    複数の画像検知デバイスであって、それぞれが、センサ・データを収集するデータ取り込みモジュールと、前記センサ・データを受信し、前記センサ・データに基づいて、前記画像検知デバイス上に常駐する1つまたは複数のデータ・モデルに基づいて選択されたスコアリング・エンジン・メソッドに従って異常性スコアおよび正常性スコアのうちの少なくとも1つを計算するスコアリング・エンジン・モジュールと、前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つを受信し、かつ前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つに基づいて、かつ、学習済みの意志決定メソッドに従って進行性の挙動および脅威検出をもたらすべくアラート・メッセージを生成する意志決定モジュールと、を含む画像検知デバイスと、
    前記複数の画像検知デバイスから隔てて配置される、所定の画像検知デバイスからセンサ・データを受信し、前記所定の画像検知デバイスからの前記センサ・データを使用して前記所定の画像検知デバイスのために前記データ・モデルを適合させるモデル・ビルダと、
    前記複数の画像検知デバイスから隔てて配置される、前記モデル・ビルダによって適合された前記データ・モデルにアクセスし、かつ前記所定の画像検知デバイスのために適合された前記データ・モデルを用いて前記所定の画像検知デバイスを構成するシステム構成モジュールと、
    を有する監視システム。
  10. 第1の画像検知デバイスの前記意志決定モジュールは、第2の画像検知デバイスから前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つを受信し、前記第1の画像検知デバイスの前記意志決定モジュールは、前記第2の画像検知デバイスからの前記異常性スコアおよび前記正常性スコアのうちの前記少なくとも1つに基づいて前記アラート・メッセージを生成する、請求項に記載の監視システム。
  11. 前記画像検知デバイスは、それぞれ、更新済みのスコアリング・メソッド、意志決定メソッド、および前記データ・モデルを前記画像検知デバイスに自動的にロードするデバイス構成モジュールをさらに含む、請求項に記載の監視システム。
  12. 前記モデル・ビルダ・モジュールは、前記センサ・データのシミュレーションおよび蓄積された現実のセンサ・データに基づいてデータ・モデルを構築する、請求項に記載の監視システム。
  13. さらに、ユーザから動きパラメータを受け入れ、前記シミュレーションを生成するグラフィカル・ユーザ・インターフェースを有する、請求項12に記載の監視システム。
  14. さらに、意志決定メソッドを学習済みの分類誤りデータに基づいて学習させる学習モジュールを有し、前記意志決定メソッドは、前記複数の画像検知デバイスのうちの少なくとも1つに選択的にロードされる、請求項に記載の監視システム。
  15. さらに、前記複数の画像検知デバイスから前記アラート・メッセージを受信し、かつ前記アラート・メッセージの追加の吟味に基づいてアラーム・メッセージを生成するアラーム取り扱いモジュールを有する、請求項に記載の監視システム。

JP2009549578A 2007-02-16 2007-12-14 監視システムおよび方法 Expired - Fee Related JP5224401B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/676,127 US7667596B2 (en) 2007-02-16 2007-02-16 Method and system for scoring surveillance system footage
US11/676,127 2007-02-16
PCT/US2007/087566 WO2008103206A1 (en) 2007-02-16 2007-12-14 Surveillance systems and methods

Publications (2)

Publication Number Publication Date
JP2010519608A JP2010519608A (ja) 2010-06-03
JP5224401B2 true JP5224401B2 (ja) 2013-07-03

Family

ID=39272736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009549578A Expired - Fee Related JP5224401B2 (ja) 2007-02-16 2007-12-14 監視システムおよび方法

Country Status (3)

Country Link
US (1) US7667596B2 (ja)
JP (1) JP5224401B2 (ja)
WO (1) WO2008103206A1 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5121258B2 (ja) * 2007-03-06 2013-01-16 株式会社東芝 不審行動検知システム及び方法
US9380256B2 (en) * 2007-06-04 2016-06-28 Trover Group Inc. Method and apparatus for segmented video compression
KR101187901B1 (ko) * 2007-07-03 2012-10-05 삼성테크윈 주식회사 지능형 감시 시스템 및 그의 제어방법
WO2009038561A1 (en) * 2007-09-19 2009-03-26 United Technologies Corporation System and method for threat propagation estimation
US8013738B2 (en) 2007-10-04 2011-09-06 Kd Secure, Llc Hierarchical storage manager (HSM) for intelligent storage of large volumes of data
US7382244B1 (en) 2007-10-04 2008-06-03 Kd Secure Video surveillance, storage, and alerting system having network management, hierarchical data storage, video tip processing, and vehicle plate analysis
US20100153146A1 (en) * 2008-12-11 2010-06-17 International Business Machines Corporation Generating Generalized Risk Cohorts
US7962435B2 (en) * 2008-02-20 2011-06-14 Panasonic Corporation System architecture and process for seamless adaptation to context aware behavior models
JP4615038B2 (ja) * 2008-06-23 2011-01-19 日立オートモティブシステムズ株式会社 画像処理装置
US8301443B2 (en) 2008-11-21 2012-10-30 International Business Machines Corporation Identifying and generating audio cohorts based on audio data input
US8041516B2 (en) * 2008-11-24 2011-10-18 International Business Machines Corporation Identifying and generating olfactory cohorts based on olfactory sensor input
US9111237B2 (en) * 2008-12-01 2015-08-18 International Business Machines Corporation Evaluating an effectiveness of a monitoring system
US8749570B2 (en) * 2008-12-11 2014-06-10 International Business Machines Corporation Identifying and generating color and texture video cohorts based on video input
US8417035B2 (en) * 2008-12-12 2013-04-09 International Business Machines Corporation Generating cohorts based on attributes of objects identified using video input
US20100153147A1 (en) * 2008-12-12 2010-06-17 International Business Machines Corporation Generating Specific Risk Cohorts
US20100153174A1 (en) * 2008-12-12 2010-06-17 International Business Machines Corporation Generating Retail Cohorts From Retail Data
US8190544B2 (en) * 2008-12-12 2012-05-29 International Business Machines Corporation Identifying and generating biometric cohorts based on biometric sensor input
US20100153597A1 (en) * 2008-12-15 2010-06-17 International Business Machines Corporation Generating Furtive Glance Cohorts from Video Data
US20100153133A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Generating Never-Event Cohorts from Patient Care Data
US20100153180A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Generating Receptivity Cohorts
US11145393B2 (en) 2008-12-16 2021-10-12 International Business Machines Corporation Controlling equipment in a patient care facility based on never-event cohorts from patient care data
US8493216B2 (en) 2008-12-16 2013-07-23 International Business Machines Corporation Generating deportment and comportment cohorts
US8219554B2 (en) 2008-12-16 2012-07-10 International Business Machines Corporation Generating receptivity scores for cohorts
US9269154B2 (en) * 2009-01-13 2016-02-23 Futurewei Technologies, Inc. Method and system for image processing to classify an object in an image
US8253564B2 (en) * 2009-02-19 2012-08-28 Panasonic Corporation Predicting a future location of a moving object observed by a surveillance device
US20110055895A1 (en) * 2009-08-31 2011-03-03 Third Iris Corp. Shared scalable server to control confidential sensory event traffic among recordation terminals, analysis engines, and a storage farm coupled via a non-proprietary communication channel
US20110205359A1 (en) 2010-02-19 2011-08-25 Panasonic Corporation Video surveillance system
BR112012024415A2 (pt) * 2010-03-26 2017-08-08 Fortem Solutions Inc método e sistema para navegar por uma pluralidade de câmeras e controle cooperativo de câmeras
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
KR20110132884A (ko) * 2010-06-03 2011-12-09 한국전자통신연구원 다중 동영상 색인 및 검색이 가능한 지능형 영상 정보 검색 장치 및 방법
US8457354B1 (en) * 2010-07-09 2013-06-04 Target Brands, Inc. Movement timestamping and analytics
US10318877B2 (en) 2010-10-19 2019-06-11 International Business Machines Corporation Cohort-based prediction of a future event
US9158976B2 (en) 2011-05-18 2015-10-13 International Business Machines Corporation Efficient retrieval of anomalous events with priority learning
US20130027561A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for improving site operations by detecting abnormalities
GB2501542A (en) * 2012-04-28 2013-10-30 Bae Systems Plc Abnormal behaviour detection in video or image surveillance data
US8712100B2 (en) 2012-05-30 2014-04-29 International Business Machines Corporation Profiling activity through video surveillance
WO2014018256A1 (en) 2012-07-26 2014-01-30 Utc Fire And Security Americas Corporation, Inc. Wireless firmware upgrades to an alarm security panel
US9208676B2 (en) * 2013-03-14 2015-12-08 Google Inc. Devices, methods, and associated information processing for security in a smart-sensored home
KR101747218B1 (ko) * 2012-12-03 2017-06-15 한화테크윈 주식회사 감시 시스템에서의 호스트 장치의 동작 방법, 및 이 방법을 채용한 감시 시스템
US20140372182A1 (en) * 2013-06-17 2014-12-18 Motorola Solutions, Inc. Real-time trailer utilization measurement
US20140372183A1 (en) * 2013-06-17 2014-12-18 Motorola Solutions, Inc Trailer loading assessment and training
WO2015006369A1 (en) * 2013-07-08 2015-01-15 Truestream Kk Real-time analytics, collaboration, from multiple video sources
US9201581B2 (en) * 2013-07-31 2015-12-01 International Business Machines Corporation Visual rules for decision management
US9984345B2 (en) * 2014-09-11 2018-05-29 International Business Machine Corporation Rule adjustment by visualization of physical location data
WO2016153479A1 (en) * 2015-03-23 2016-09-29 Longsand Limited Scan face of video feed
US10007849B2 (en) 2015-05-29 2018-06-26 Accenture Global Solutions Limited Predicting external events from digital video content
US9940730B2 (en) 2015-11-18 2018-04-10 Symbol Technologies, Llc Methods and systems for automatic fullness estimation of containers
US10713610B2 (en) 2015-12-22 2020-07-14 Symbol Technologies, Llc Methods and systems for occlusion detection and data correction for container-fullness estimation
SG10201510337RA (en) 2015-12-16 2017-07-28 Vi Dimensions Pte Ltd Video analysis methods and apparatus
US10083378B2 (en) * 2015-12-28 2018-09-25 Qualcomm Incorporated Automatic detection of objects in video images
US9965683B2 (en) 2016-09-16 2018-05-08 Accenture Global Solutions Limited Automatically detecting an event and determining whether the event is a particular type of event
US10795560B2 (en) * 2016-09-30 2020-10-06 Disney Enterprises, Inc. System and method for detection and visualization of anomalous media events
CN108024088B (zh) * 2016-10-31 2020-07-03 杭州海康威视系统技术有限公司 一种视频轮巡方法及装置
JP6675297B2 (ja) * 2016-12-09 2020-04-01 Dmg森精機株式会社 情報処理方法、情報処理システム、および情報処理装置
WO2018150270A1 (en) * 2017-02-17 2018-08-23 Zyetric Logic Limited Augmented reality enabled windows
US11093927B2 (en) * 2017-03-29 2021-08-17 International Business Machines Corporation Sensory data collection in an augmented reality system
GB2569557B (en) 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting motion deviation in a video
GB2569555B (en) * 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting deviation from a motion pattern in a video
GB2569556B (en) * 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting motion deviation in a video sequence
US10417500B2 (en) 2017-12-28 2019-09-17 Disney Enterprises, Inc. System and method for automatic generation of sports media highlights
DE102018201570A1 (de) * 2018-02-01 2019-08-01 Robert Bosch Gmbh Multiple-Target-Object-Tracking-Verfahren, Vorrichtung und Computerprogramm zum Durchführen eines Multiple-Target-Object-Tracking für bewegliche Objekte
CA3040367A1 (en) * 2018-04-16 2019-10-16 Interset Software, Inc. System and method for custom security predictive models
EP3557549B1 (de) 2018-04-19 2024-02-21 PKE Holding AG Verfahren zur bewertung eines bewegungsereignisses
US10783656B2 (en) 2018-05-18 2020-09-22 Zebra Technologies Corporation System and method of determining a location for placement of a package
US10733457B1 (en) * 2019-03-11 2020-08-04 Wipro Limited Method and system for predicting in real-time one or more potential threats in video surveillance
US11282352B2 (en) 2019-07-12 2022-03-22 Carrier Corporation Security system with distributed audio and video sources
CN112801468A (zh) * 2021-01-14 2021-05-14 深联无限(北京)科技有限公司 智慧社区多态离散信息的智能管理与决策辅助方法
CN116978176B (zh) * 2023-07-25 2024-08-27 武汉珞珈德毅科技股份有限公司 智慧小区安全监控方法及相关装置
CN117611383A (zh) * 2023-11-23 2024-02-27 北京大学南昌创新研究院 一种用于市政管网的污水分离系统

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
US5261041A (en) * 1990-12-28 1993-11-09 Apple Computer, Inc. Computer controlled animation system based on definitional animated objects and methods of manipulating same
US5594856A (en) * 1994-08-25 1997-01-14 Girard; Michael Computer user interface for step-driven character animation
US5666157A (en) * 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
US7076102B2 (en) * 2001-09-27 2006-07-11 Koninklijke Philips Electronics N.V. Video monitoring system employing hierarchical hidden markov model (HMM) event learning and classification
US6985172B1 (en) * 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
US5966074A (en) * 1996-12-17 1999-10-12 Baxter; Keith M. Intruder alarm with trajectory display
US5937092A (en) * 1996-12-23 1999-08-10 Esco Electronics Rejection of light intrusion false alarms in a video security system
US5956424A (en) * 1996-12-23 1999-09-21 Esco Electronics Corporation Low false alarm rate detection for a video image processing based security alarm system
US6088042A (en) * 1997-03-31 2000-07-11 Katrix, Inc. Interactive motion data animation system
US7023913B1 (en) * 2000-06-14 2006-04-04 Monroe David A Digital security multimedia sensor
US6587574B1 (en) * 1999-01-28 2003-07-01 Koninklijke Philips Electronics N.V. System and method for representing trajectories of moving objects for content-based indexing and retrieval of visual animated data
US7433493B1 (en) * 2000-09-06 2008-10-07 Hitachi, Ltd. Abnormal behavior detector
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US6441734B1 (en) * 2000-12-12 2002-08-27 Koninklijke Philips Electronics N.V. Intruder detection through trajectory analysis in monitoring and surveillance systems
US7095328B1 (en) * 2001-03-16 2006-08-22 International Business Machines Corporation System and method for non intrusive monitoring of “at risk” individuals
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US6823011B2 (en) * 2001-11-19 2004-11-23 Mitsubishi Electric Research Laboratories, Inc. Unusual event detection using motion activity descriptors
US6856249B2 (en) * 2002-03-07 2005-02-15 Koninklijke Philips Electronics N.V. System and method of keeping track of normal behavior of the inhabitants of a house
AU2003226047A1 (en) * 2002-04-10 2003-10-27 Pan-X Imaging, Inc. A digital imaging system
US7148912B2 (en) * 2003-11-17 2006-12-12 Vidient Systems, Inc. Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging
US20050104959A1 (en) 2003-11-17 2005-05-19 Mei Han Video surveillance system with trajectory hypothesis scoring based on at least one non-spatial parameter
US7127083B2 (en) * 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
US7088846B2 (en) * 2003-11-17 2006-08-08 Vidient Systems, Inc. Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones
US20050104960A1 (en) * 2003-11-17 2005-05-19 Mei Han Video surveillance system with trajectory hypothesis spawning and local pruning
US7136507B2 (en) * 2003-11-17 2006-11-14 Vidient Systems, Inc. Video surveillance system with rule-based reasoning and multiple-hypothesis scoring
US7109861B2 (en) * 2003-11-26 2006-09-19 International Business Machines Corporation System and method for alarm generation based on the detection of the presence of a person
US8272053B2 (en) * 2003-12-18 2012-09-18 Honeywell International Inc. Physical security management system
IL159828A0 (en) * 2004-01-12 2005-11-20 Elbit Systems Ltd System and method for identifying a threat associated person among a crowd
US7426301B2 (en) * 2004-06-28 2008-09-16 Mitsubishi Electric Research Laboratories, Inc. Usual event detection in a video using object and frame features
US20050285937A1 (en) * 2004-06-28 2005-12-29 Porikli Fatih M Unusual event detection in a video using object and frame features
US7339607B2 (en) * 2005-03-25 2008-03-04 Yongyouth Damabhorn Security camera and monitor system activated by motion sensor and body heat sensor for homes or offices
US20070008408A1 (en) * 2005-06-22 2007-01-11 Ron Zehavi Wide area security system and method

Also Published As

Publication number Publication date
US20080201116A1 (en) 2008-08-21
JP2010519608A (ja) 2010-06-03
WO2008103206B1 (en) 2008-10-30
US7667596B2 (en) 2010-02-23
WO2008103206A1 (en) 2008-08-28

Similar Documents

Publication Publication Date Title
JP5224401B2 (ja) 監視システムおよび方法
US10614316B2 (en) Anomalous event retriever
JP5647627B2 (ja) 異常パターンの発見
AU2014214545B2 (en) A surveillance system
US11069214B2 (en) Event entity monitoring network and method
US9183512B2 (en) Real-time anomaly detection of crowd behavior using multi-sensor information
JP2012518846A (ja) 異常挙動を予測するためのシステムおよび方法
US20180341814A1 (en) Multiple robots assisted surveillance system
CN118072255B (zh) 一种智慧园区多源数据动态监控和实时分析系统及方法
US11893727B2 (en) Rail feature identification system
Hu et al. Building occupancy detection and localization using CCTV camera and deep learning
JP6935850B2 (ja) 情報処理装置、方法、およびプログラム
Ko et al. Rectified trajectory analysis based abnormal loitering detection for video surveillance
Gnanavel et al. Smart Surveillance System and Prediction of Abnormal Activity in ATM Using Deep Learning
US10671050B2 (en) Surveillance system with intelligent robotic surveillance device
Thomopoulos Chapter Risk Assessment and Automated Anomaly Detection Using a Deep Learning Architecture
US20230360402A1 (en) Video-based public safety incident prediction system and method therefor
EP4367653A1 (en) Threat assessment system
Yao et al. Real-World Community-in-the-Loop Smart Video Surveillance--A Case Study at a Community College
Islam et al. Carts: Constraint-based analytics from real-time system monitoring
CN108010063A (zh) 一种基于视频的运动目标进入或离开区域的检测方法
Rao et al. Anomalous event detection methodologies for surveillance application: An insight
Chourasia et al. Crowd Dynamics Analysis: GAN-Powered Insights for Enhanced Public Safety
Akhil et al. Automated People Counting System
Добришев Anomaly detection in crowded scenes: technologies, challenges and opportunities

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130306

R150 Certificate of patent or registration of utility model

Ref document number: 5224401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees