JP2010528515A - 環境をモニタするための方法及びシステム - Google Patents

環境をモニタするための方法及びシステム Download PDF

Info

Publication number
JP2010528515A
JP2010528515A JP2010508919A JP2010508919A JP2010528515A JP 2010528515 A JP2010528515 A JP 2010528515A JP 2010508919 A JP2010508919 A JP 2010508919A JP 2010508919 A JP2010508919 A JP 2010508919A JP 2010528515 A JP2010528515 A JP 2010528515A
Authority
JP
Japan
Prior art keywords
sensors
sensor
area
cells
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010508919A
Other languages
English (en)
Other versions
JP5371962B2 (ja
Inventor
ジャンバティスタ・ジェンナーリ
ジョルジョ・ラッカネリ
ルッジェーロ・フレッツァ
アンジェロ・チェネデーセ
ファビオ・ダレッシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Videotec SpA
Original Assignee
Videotec SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Videotec SpA filed Critical Videotec SpA
Publication of JP2010528515A publication Critical patent/JP2010528515A/ja
Application granted granted Critical
Publication of JP5371962B2 publication Critical patent/JP5371962B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

本発明は複数のセンサを用いて環境をモニタする方法に関し、その方法では、制御システムが、上記複数のセンサのうちの1つ又はそれ以上のセンサから情報を受信し、上記環境をモニタするために上記情報を使用する。方法は、オペレータが上記環境のエリアに対応する複数のセルを画成することによって環境のモデルを生成し、その後、それぞれのセンサについて、少なくとも1つのセルに関連した少なくとも1つの可能な位置を決定することによってセル/センサ関係を生成するセットアップ段階を備える。それぞれの位置について、センサは、関連したセルのためのモニタ判定をオペレータによって割り当てられる。方法はまた、監視機能を実行するために、制御システムが、要求された監視機能を実行するために使用されるセンサを発見し、モニタ判定及びセル/センサ関係に基づいて、それらのセンサを制御する動作段階を備える。

Description

本発明は、請求項1のプリアンブルに記載の環境をモニタするための監視方法に関する。
本発明はまた、上記監視方法を実施するように適合されたシステムに関する。
公共の場所から民間企業まで、多くの状況において、窃盗、破壊的な行為、攻撃、強盗、及び一般に、人々及び財産を危険にさらす可能性のある任意のイベントなどの任意の異常なイベントを検出する目的のために、環境をモニタする必要性が存在する。
この目的のために、監視システムは一般的に、ビデオ記録デバイス(例えば、ビデオカメラ)、又はモーションセンサ(例えば、赤外線センサ、又はボリュメトリックセンサ(volumetric sensor))などの複数のセンサが、論議されている環境の異なるエリアをモニタする状況で使用される。
センサによって送信される情報信号(例えば、部屋のビデオ、又はセンサのアラーム信号)は、警備員が付いているモニタリングステーションによって受信される。
既知の監視システムは、センサに焦点を合わせるセットアップ段階を要求する。
このセットアップ段階の間に、システムのモデルが生成される。そのモデルは、それぞれのセンサについて、モニタされるエリア、及び近隣のセンサ、すなわち上記エリアの境界をモニタするセンサを決定する。
したがって、追跡手順の間に、システムは、1つのセンサから、セットアップ時に示された近隣のセンサに切り替えることによって、追跡される対象を追うであろう。
特許文献1、及び特許文献2によって開示された強化されたビデオ監視システムでは、この種類の構成は、環境エリアがモニタを介して選択されると、システムが、そのエリアに関連したビデオカメラのビデオ信号を自動的に呼び出すであろうことを提供する。
米国特許出願公開第2003/0085992号明細書。 国際公開第2005/120071号。 米国特許第6437819号明細書。
しかしながら、すべての既知の監視システムは、センサが故障した場合、システムはそのセンサの欠如を自動的に埋め合わせることができないという欠点がある。
例えば、追跡アルゴリズムの実行の間に、システムが故障したビデオカメラに切り替えるとすぐに、対象が見失われ、かつアルゴリズムが停止するであろう。
既知の監視システムが有するもう1つの問題は、システムの2人のユーザ(例えば、2つの異なるモニタリングステーションを使用する2人の警備員)が、モニタされる環境の同一のエリアを見張ることを望むときに発生する。ビデオ信号は、両方のモニタリングステーションに送信されるが、主要なビデオカメラの制御は、(典型的に、優先度の基準にしたがって選択される)1人のユーザのみに認められる。この場合、第2のユーザが、別のビデオカメラを自律的に選択し、それを手動で制御しなければならない。
複数のセンサ及びビデオカメラを有する大きなシステムでは、ビデオカメラの探索は、複雑なタスクであることがある。
既知の監視システムのもう1つの欠点は、セットアップ段階の複雑性であり、セットアップ段階では、インストーラが、どのセンサが環境のあるエリアをモニタするのか、及びどの近隣のセンサがモニタされるエリアの境界をカバーするのかをシステム内で指定しなければならない。この手順の例は、特許文献1で既知であり、特許文献1によれば、ビデオカメラによって撮影されるそれぞれのシーンについて、インストーラは、撮影するビデオカメラの名前をシステム内で指定しなければならず、かつどのビデオカメラが北側の境界をカバーするか、どのビデオカメラが南側の境界をカバーするかなどを指定することによって、表を構築しなければならない。
このような構成は、多数のセンサを備えた大きなシステムを実装するには不利であり、かつ困難である。
この欠点を克服することを目的として、特許文献3は、センサの名前及び近隣のセンサを手動で入力すること(エラーをもたらす可能性がある。)を要求しないセットアップ手順を開示している。
しかしながら、特許文献3で示されたセットアップ手順は、モニタされるエリア内の適切なパスをたどるインストーラの存在を要求するという欠点を有する。これは、モニタされるべきエリアが非常に広い場所(例えば、駐車場、空港ターミナル)ではどこでも不利である。さらに、上記手順は、例えば、刑務所又は危険な物質を処理するプラントにおける古い監視システムを更新するときなど、いくつかのエリアがインストーラによってアクセスできない場合には適用できない。
本発明の目的は、既知のビデオ監視システムの問題を克服することである。
特に、本発明の目的は、センサがシステムによって利用されることができないときはいつでも、システムの動的な適合を提供することによって、監視システム、特にビデオ監視システムの信頼性を改善することである。
この目的は、本明細書と一体と考えられる添付の特許請求の範囲に記載の特徴を組み込む監視方法及び監視システムによって達成される。
本発明は、センサではなく、環境に着目したセットアップ段階を実行するアイデアに基づいている。
本発明に係るセットアップ段階では、まず、インストーラは、上記環境の複数のエリア、例えば、駐車場、メインエントランス(入口)などを画成することによって環境のモデルを生成する。
次いで、インストーラは、1つ又はそれ以上の可能な位置(プリセット位置)にある少なくとも1つのセンサをそれぞれのエリアと関連付け、かつエリアのモニタ判定をそれぞれの位置に割り当てる。
モニタ判定は、関連したエリアで発生するイベントを関係するセンサによって検出する確率の推定に対応することが好ましく、動作段階では、モニタ判定は、環境をモニタするためにセンサの知的な選択を実行することを可能にする。ビデオカメラの場合、モニタ判定は、本質的に、考慮されるプリセット位置のエリア可視性判定に対応する。
動作段階の間に、監視システムの制御システムは、すべてのインストールされたセンサのうちで、監視機能を実行するために使用可能なセンサ(例えば、故障していない、又は別のユーザによって使用されていないセンサ)を発見する。
使用可能なセンサが検証されると、制御システムは、システムのセットアップ段階の間に生成されたモデル、及びオペレータによってセンサの様々なプリセット位置に割り当てられたモニタ判定を参照することによって、1つ又はそれ以上の使用可能なセンサを制御する。
これは、モニタされるべきエリアとセンサとの間の動的な関連付けを可能にする。(故障している、又はすでに別のユーザによって使用されているという理由で)関心のあるエリアで動作するセンサが利用可能でない場合、そのセンサは考慮されず、制御システムは、関心のあるエリアをモニタするために最も適切な第2のセンサを構成の中で選択するであろう。
さらに、センサが故障した場合、システムは、利用可能なセンサを用いて環境内のイベントを検出する可能性を最適化するという方法で残りのセンサを位置付けることによって、それらのセンサを認識するであろう。より具体的には、これは、センサの選択が、関心のあるエリアとの関連付けにのみに依存するのではなく、上述したように、センサを用いてイベントを検出する確率の代表であるモニタ判定にも依存することによって可能になる。
特に、上記モニタ判定は、例えば、最も高いモニタ判定を有する利用可能なセンサを、セルをモニタするタスクに割り当てるヒューリスティックな方法論にしたがって、センサを選択するために使用されることが可能である。
これらの解決方法は、センサを管理するために使用されるアルゴリズムの計算の複雑性を削減することを可能にする。
代替として、本発明に係る方法は、モニタされるべきエリア、又は複数の利用可能なセンサに対する制約を決定した後に、イベントを検出する確率を最大化するように複数のセンサをセットアップすることを提供してもよい。
これは、モニタすることの性能を最適化することを可能にする。
さらに、監視システムは、ネットワークを介して互いに通信する複数のコンピュータを用いた分散型のアーキテクチャを有することが好ましい。センサの集合は、それぞれのコンピュータに関連する。
これは、例えば、1つのコンピュータによって管理される異なるセンサに要求されたいくつかのタスクを管理するために、それぞれのコンピュータが同時に実行しなければならないアルゴリズムの数を(統計的に)削減する。
好ましい解決方法では、コンピュータはセンサに統合され、したがって、センサは知的になり、かつオペレータによって要求されたタスクを実行するためのセンサの最適な構成を自動的に選択するために、互いに通信できるようになる。
本発明の別の目的及び利点は、以下の詳細な説明及び非限定的な例として提供される添付の図面から明らかになるであろう。
本発明に係るビデオ監視システムを示す。 ビデオカメラを作動させるためのシステムによって用いられる環境モデルを示す。 ビデオカメラを作動させるためのシステムによって用いられる環境モデルを示す。 ビデオカメラを作動させるためのシステムによって用いられる環境モデルを示す。 ビデオカメラを作動させるためのシステムによって用いられる環境モデルを示す。 ビデオカメラを作動させるためのシステムによって用いられる環境モデルを示す。
監視システムのアーキテクチャ.
図1では、参照符号1は、モニタされるべき環境を概略的に示す。環境1は、建物100及び戸外の中庭200からなる。
特に関心のある以下のエリアが、環境1内で識別される。
−建物のエントランス(入口):エリアC1。
−駐車場P1:エリアC2。
−駐車場P2:エリアC3。
−エントランスゲート:エリアC4。
エリアC1乃至C4は、モニタされるべき環境内に設けられた4つのビデオカメラS1乃至S4、及び1つのボリュメトリックセンサS5によってモニタされる。
環境が分割されるエリアの数、及びセンサ(ビデオカメラ及び別のセンサ)の数は、本発明の制限要因ではなく、インストーラの選択に依存する。
ビデオカメラS1乃至S4は、固定ビデオカメラ、又は可動ビデオカメラ、特にPTZタイプ(パン/チルト/ズーム)であってもよい。
図1の実施例では、ビデオカメラS1及びS3は、固定ビデオカメラであり、それぞれエリアC1及びC3のみを撮影する一方、ビデオカメラS2及びS4は、PTZビデオカメラであり、それぞれエリアC1,C2、及びC3,C4を撮影することができる。
ボリュメトリックセンサS5は固定センサであり、建物11内部で動きを検出したとき、例えば、エントランスC1のドアが開けられるときにアラーム信号を送信する。
センサは、データネットワーク2に接続され、そのネットワークを介してモニタリングステーション3と信号を交換する。例えば、ビデオカメラS1乃至S4は、撮影された画像を送信する。
データネットワーク2は、有線LANであってもよいが、もちろん上記データネットワークはまた、ビデオカメラの取り付けを促進する可能性がある無線の構成要素を備えてもよい。
モニタリングステーション3は、複数のビデオカメラから画像を受信し、かつそれらの画像を、複数の画像33を同時に表示するように適合された適切な可視化手段32に表示するコンピュータ31を備える。
上記可視化手段は、好ましくは、いくつかの画像を互いに隣接して表示する複数のスクリーン又は単一のスクリーンを備える(この解決方法は多重化として知られる。)。
モニタリングステーション3はまた、パン、チルト、及びズームの角度を変更することによって、PTZビデオカメラを制御するためにオペレータによって使用されるキーボード34、マウス35、及びジョイスティック36などの別の既知の構成要素を備える。
可視化手段のように、これらの構成要素はまた、コンピュータ31に接続され、このコンピュータは、適切なインターフェース、例えば、ジョイスティック36のためのインターフェース、ビデオカメラS1乃至S4から受信した画像を可視化手段32に送信するためのビデオインターフェース、及び制御データがそれを介してビデオカメラに送信されるネットワークインターフェースを備えている。
キーボード、ジョイスティック、及びマウスとともにこのユーザインターフェースは、ユーザがビデオカメラを選択しかつ制御することを可能にし、したがって、1つ又はそれ以上のビデオカメラから可視化手段32への画像の転送を作動させる。
任意のエリアC1乃至C4、例えば、駐車場P2が選択されたとき、関心のあるエリア内の異常なイベントを検出する確率を最大化することを目的とした後述する所定の基準にしたがって、選択されたエリアに自動的に関連付けられたビデオカメラ、例えばS2から、画像が転送される。
ビデオカメラが呼び出されることを可能にするインターフェースの詳細は、専用の章で後述されるであろう。
図1の例では、システムのアーキテクチャは、センサを制御するためと、環境内の移動する対象を追跡すること、ビデオの一部を記録すること、及び自動的なイベントの検出などの監視機能を実行するためとに要求される計算アルゴリズムを実行する単一のコンピュータ31を有する集中型のタイプである。別の解決方法も可能であり、例えば、監視システムは、「分散型のアーキテクチャを有する制御システムを用いた変形例」と題された章で後述されるシステムような、分散型のシステムの形式で提供されてもよい。
システムセットアップ.
本発明によれば、監視システムのセットアップ段階の間に、環境のモデルが、環境の関心のあるエリアC1乃至C4、及びそれらの近隣を画成することによって生成される。
以下の説明では、上記モデルのエリアは、環境の物理的なエリアとの任意の混同を回避するために「セル」と呼ばれる
その後、それぞれのセルC1乃至C4は、そのセルに対応するエリアの少なくとも一部をモニタすることができる1つ又はそれ以上のセンサと関連付けられる。
特に、PTZビデオカメラは、複数の位置をとることができるので、それぞれのセルは、ビデオカメラに関連付けられるだけでなく、予め与えられた位置(「プリセット」という。)にあるビデオカメラにも関連付けられる。
もちろん、固定ビデオカメラ又は固定センサについては、センサがインストールされるときに設定されるただ1つの所定の位置が存在する。
セットアップ段階の間に、センサが順次起動される。
それぞれのモバイルビデオカメラ又はモバイルセンサについて、オペレータは、オペレータの監視の要求に最も適したモバイルセンサのプリセット位置を定める。
それぞれのプリセット位置について、オペレータは、選択手段を用いてセンサを環境のエリアに関連付け、かつ撮影された画像の品質を表すモニタ判定(例えば、0と1との間の値として表される。)を割り当てる。
モニタ判定は、あるプリセット位置にあるセンサが関連付けられたセルの内部で発生するイベントを、上記センサを用いて検出する確率の推定に対応する。
動作段階では、これは、センサを、環境をモニタする確率を最大化するそれらのプリセット位置に位置させることによってセンサを制御することを可能にする。
図2a乃至図2c、及び図3a,図3bの例は、2つの異なる環境モデルを示し、これらは、モニタされるべき環境をインストーラに見せるため、及びインストーラがエリアを選択することを可能にするためにユーザインターフェースによって使用される。
図2a、図2b、及び図2cの例に関連して、ユーザインターフェースを提供するプログラムは、セルがアーチによって接続されたノードとして表されるグラフを描くことを可能にするグラフィックインターフェースを用いて、セルのリスト及びそれらの接続を定めることを可能にする。
有利に、ノードの空間的な配置は自由であり、その結果、セットアップ段階の間に、オペレータは、モニタされるべきエリアの地理的な配置を反映するような方法でノードを配置することができ、したがって、警備員が動作段階の間にモニタされるべきエリアを直ちに発見することを可能にする。
計算的な視点からは複雑性がより少ないが、わずかにユーザフレンドリーではない代替の解決方法によれば、エリア及びそれらの接続の画成は、テキストモードで実行されることが可能である。
図2a乃至図2cの例に戻ると、セットアップ段階では、オペレータは、環境モデルを生成し、その後、センサを順次作動させる(例えば、ビデオカメラを回す。)。それぞれのセンサについて、オペレータは、モニタされるエリアを検証し(例えば、オペレータは、スクリーン上でビデオカメラによって撮影された画像を見る。)、かつモデルエリアとの接続を生成する一方、モニタ判定を割り当てる。
センサ/エリア接続は、センサを表すアイコンと囲まれたエリアを表すブロックとの間のリンクを描画することによって提供されてもよい。
この方法では、セル/センサグラフが、図2cに示されたグラフのように生成される。
センサのプリセット、及びモニタ判定は、ソフトウェアによって制御システムのデータベースに記憶される。
図3a及び図3bの例では、環境モデルは、モニタされるべきエリアのマップからなる。
図3aに示されたマップは、一般的なグラフィックプログラムを用いてオペレータによって電子的に構築されてもよく、又はインポートされたグラフィックファイルであってもよい。
図3a及び図3bの解決方法では、セットアップ段階の間に、オペレータがセンサを選択し、それぞれのプリセット位置について、図3bに示すようにマップ上でモニタされるエリアをマークし、かつ例えば、キーボード34で値をタイプすることによって、又はマウス35で表示された値を選択することによってモニタ判定を関連付ける。
センサによってモニタされるエリアに対応する画素のグループが選択されるとき、ソフトウェアは、複数のモデルセル及びそれぞれの複数の近隣を自動的に生成するであろう。
本発明の実施形態では、それぞれの画素の選択は、モデルの1つのセルに対応する。
隣接する画素グループは、複数の近隣のセルである。
好ましい実施形態では、互いに十分な範囲に重複する複数の画素グループは、単一のセルにグループ分けされる。
2つの画素グループが単一のセルに一緒にグループ分けされるべきか否かを決定するために用いられる基準は、プログラミング段階の間に決定される。2つの画素グループがちょうど接している場合、実際には、2つのセルを別々に保つことが好ましい。
それぞれのセル(エリア、形状)に関連した幾何学的な情報、及び複数のセルの間の遷移の方向についての情報が、自動的に抽出される。
近隣を計算するときに考慮されるであろう障壁がマップに含まれてもよい。例えば、2つの通信しない部屋は、互いに近隣ではない。
モデルが構築されると、別の情報(セルのラベル、エリアの移動性、時間依存性の障壁、アーチの方向付け(orientation)など)が、ユーザによって追加されてもよい。
セットアップが終了するとき、制御システムは、図2cに示されたグラフのようなセル/センサグラフを描画するであろう。
最適なカバレッジ(サービスエリア)のためのアルゴリズム.
セットアップ段階の後、制御システムは、環境監視の動作段階を開始する準備ができている。
関心のあるエリア、及びセンサの集合が与えられて、目的は、最も適切なセンサを選択し、かつ最も適切な方法でそれらを制御することによって、上記エリアをモニタすることである。
これは、予め与えられた関心のあるエリア内で発生する異常なイベントを検出する確率を最大化することに変換される。
特に、関心のあるエリアは、セットアップ段階の間に構築された環境モデルのN個のセルの集合であると仮定する。
は、セルiで発生する異常なイベントを示す。
監視システムは、M個のセンサを備え、xは、センサjの位置を示す。
特に、PTZ(パン、チルト、ズーム)センサについては、位置は、「プリセット」と呼ばれる有限の離散的な値の集合内の値をとってもよい。
固定センサは、1つのプリセットのみを有する特別なPTZセンサのように取り扱われてもよい。
一般に、センサの位置は、連続的な領域内の値をとってもよく、かつモバイル手段(パトロールカー、ロボットなど)上に位置付けられたセンサのための地理的な座標を備えてもよい。
イベントの検出がDで示される場合を考える。
Figure 2010528515
式(1)は、イベントがモニタされるべき環境の一部に関連したN個のセルのうちのただ1つで発生し、かつM個のセンサがあるプリセットxである条件の下で、異常なイベントを検出する確率を示す。
したがって、予め与えられたエリアの最適なカバレッジの問題は、上記確率を最大化するであろう最適なセンサ構成を発見することに変換される。上記構成は、式(2)のように表現されてもよい。
Figure 2010528515
検出確率は、式(3)のように表現されてもよい。
Figure 2010528515
上式は、セルiにおけるイベントの発生が、M個のセンサの位置から独立している、すなわち、p(C|x,...,x)=p(C)である即座の観察(immediate observation)を活用することによって得られる。
イベントが予め与えられたセルiにおいて発生する確率p(C)は、対応するエリアのサイズ、及び監視の視点からセルを特徴付ける重要性に比例することがある。
簡単のために、以下のように、モデルのすべてのエリアは、同一の確率を有すると仮定する。したがって、検出確率の式は、式(4)となるであろう。
Figure 2010528515
ここで、p(D|C,x,...,x)は、イベントの検出確率であり、イベントはセルiにおいて発生し、かつセンサはあるプリセットxである。
ここで、予め与えられたセルが、監視システムの単一のセンサ、例えばセンサ1によって見張られている場合を考える。
したがって、p(D|C,x,...,x)=p(D|C,x)が得られる。すなわち、セルiにおける検出は、セルiをモニタしていないセンサの位置に依存しない。
p(D|C,x)は、監視システムをセットアップするときにインストーラによって割り当てられたモニタ判定であると仮定される。さらに詳細には、上記モニタ判定は、センサ1がセルiに関連付けられたときに、位置xのセンサ1に割り当てられたモニタ判定である。
非常に合理的に、モニタ判定が高い場合、モデルの予め与えられたエリアにおいてイベントを検出する確率もまた高いであろう。逆も同様に、判定が0の場合、プリセットxのセンサ1を用いて予め与えられたセルにおける検出を達成することは不可能(ヌル確率)であろう。
ここで、セルiが適切なプリセットの複数のセンサによって見張られている場合を考える。
インストーラを援助することを目的として、上述したセットアップ手順は、組み合わせられたモニタ情報を提供しない。
この理由から、このような情報がない場合、最悪の場合が考慮されるであろう。すなわち、最も高い可視性を有するセンサが発見され、かつ別のセンサは、モデルの予め与えられたエリアの可視性を増加させるどのような情報も付加することができないことが仮定される。したがって、式(5)が得られる。
Figure 2010528515
ここで、以下の例を考える。x及びxに位置させられた2つのセンサs1及びs2が、それぞれ可視性判定0.8及び0.6を有して予め与えられたセルCを見ている。
別のセンサは、いずれのプリセットでも予め与えられたセルを見ることができない、又はそれらのセンサは、予め与えられたセルを見ることができないプリセットに位置させられていると仮定する。
したがって、p(D|C,x)=0.8、p(D|C,x)=0.6、p(D|C,x)=0 j>2が得られ、上式からp(D|C,x,x,...,x)=0.8が得られる。
したがって、この仮定に基づいて式(4)を展開することによって、式(6)が得られる。
Figure 2010528515
ここで、p(D|C,x)は、プリセットxであるセンサjがセルCをモニタしているときのモニタ判定である。上式は、予め与えられたエリアのカバレッジの品質を厳密に数量化し、したがって、その目的に用いられるセンサの異なる構成を比較することを可能にする。
最適な構成
Figure 2010528515
は、後述するように、すべての可能な構成の中から探索される。
最適な構成が発見されることを可能にするアルゴリズムは、監視システムをセットアップするときに描画されるセル/センサグラフ(図2c)に含まれる情報から開始する。
それぞれのセルについて、そのセルをモニタするセンサにセルを結びつける1つ又はそれ以上のアーチが存在する。
それぞれのアーチについて、センサのプリセットを示す情報が存在する。カバーされるべきエリアのすべてのセルを考慮することによって、それぞれのプリセットを有し、上記カバレッジを得るために用いられるセンサの集合を構築することができる。
最適なセンサ構成
Figure 2010528515
は、検出確率を最大化する構成である。したがって、好ましい解決方法では、アルゴリズムは、あらゆるセンサの組み合わせについて、式(6)を計算することによって進展し、その後、最も高い検出確率を有するセンサの組み合わせを選択する。
これは、以下の例から明らかになるであろう。3つのセルC、C、及びCが与えられる。セルCは、プリセット
Figure 2010528515
のセンサ1によって見られ、セルCは、プリセット
Figure 2010528515
、及び
Figure 2010528515
のセンサ2によって見られ、セルCは、プリセット
Figure 2010528515
のセンサ2によって見られる。
可能な構成の範囲は、ペア
Figure 2010528515
、及び
Figure 2010528515
からなる。
もちろん、
Figure 2010528515
のような構成は、受け入れられず、これは、任意の瞬間では、予め与えられたセンサは、1つの位置のみをとることができるからである。
2つの可能な構成が決定されると、アルゴリズムは、上記2つの構成に対応する検出確率を計算する。
ここで、プリセット
Figure 2010528515
のモニタ判定が0.8である(このプリセットは2つのセルを見るが、低い品質を有する。)ことを除いて、すべてのモニタ判定が1に等しいと仮定する。
これらの条件では、第1の構成
Figure 2010528515
は、
Figure 2010528515
に等しい環境内で発生する異常なイベントを検出する確率を有する。
一方、第2の構成
Figure 2010528515
は、
Figure 2010528515
に等しい環境内で発生する異常なイベントを検出する確率を有する。
その後、アルゴリズムは2つの計算された検出確率を比較し、構成
Figure 2010528515
、すなわち、この場合では全体の環境に対応する予め与えられたエリアにおいてイベントを検出する確率を最大化する構成を選択する。
可能な構成の数が多い場合、最適な構成の探索は、重い計算タスクである可能性があることが、上記の説明から明らかである。
このような場合では、準最適な解決方法を得るために、オペレーショナルリサーチ(operational research)方法が適用されてもよい。
これらの方法は、モニタ判定及びセル/センサグラフに基づくが、検出確率から得られた適切なコスト関数を最小化する。
代替として、ヒューリスティックな方法論を導入することによって、計算の複雑性がまた、削減される可能性がある。例えば、あらゆるセンサを最も高いモニタ判定を有する位置に設定することを選択してもよく、その結果、そのセンサによってのみ見られる1つ又はそれ以上のセルをモニタする。
確立されると、これらのヒューリスティックな方法論は、この確率がアルゴリズムを設計するときに異なるヒューリスティックな方法論の性能を比較するために用いられてもよいとしても、検出確率の計算から独立している。いくつかのヒューリスティックな方法論が提案される場合、検出確率の計算は、ヒューリスティックな方法論によって提案された構成の間で、どの構成がイベントを検出するために最も適切であるかを確立することを可能にするであろう。
最少の数のセンサを有する最適なカバレッジ.
前章で議論した最適なカバレッジ問題は、最少の可能な数のセンサを用いなければならないという制約によって補われてもよい。
最少の数のセンサを有する最適なカバレッジを計算するアルゴリズムはまた、セルにおいてイベントを検出する確率が、そのセルをカバーするために用いられるセンサの数とともに増加しないという仮定に基づいている。したがって、式(7)が仮定される。
Figure 2010528515
したがって、アルゴリズムは、同一のセルを見るこれらのすべてのセンサの間で、最も高いモニタ判定を有するセンサのみを考慮する。
より低い判定を有するセンサは、冗長であると考えられる。実用的な視点からは、モニタすることの性能をある程度改善するために、より多くのセンサからの情報を追加すること(例えば、エリアのフレームを追加すること)は、有用であるかもしれないが、それにもかかわらず、冗長な情報が受信されないことが重要である状況が存在する。冗長な情報を受信するオペレータは、モニタされたシーンにおいて何が発生しているのかを、よりゆっくりかつより苦労して評価するであろう。
重要なことに、マルチユーザシステム及びマルチタスクシステムでは、最少の数のリソースの使用が、より多くのオペレータ及びタスクを同時に供給する可能性を増加させるであろう。
前述の制約が存在するときの最適な解決方法は、最適なカバレッジのために用いられるセンサの全体集合のすべての可能な部分集合を考慮することによって発見される。
それぞれの部分集合について、前章「最適なカバレッジのためのアルゴリズム」において記述したように、最適なプリセットの構成が発見される。
現在の問題への解決方法は、最も高い検出確率を有する最小濃度(minimum cardinality)の集合として表される。
すべての可能なセンサの部分集合を考慮する必要はないことが述べられるべきである。濃度Nを有するセンサの部分集合において探索される最適な解決方法の検出確率が、濃度N−1を有する部分集合において探索される最適な検出確率と等しい場合、最適な解決方法は、N−1個のセンサを有する構成であろう。
したがって、方法は、有利に、センサの部分集合の濃度を増加させて、最適なカバレッジ問題への解決方法の探索を提供する。
時変の最適なカバレッジ.
ここで、例えば、利用可能なセンサの数がかなり少ないので、最適な解決方法が全体環境のカバレッジを提供することができない状況を考える。
全体環境をモニタするために、以下のステップを備える「パトロール(patrol)」と呼ばれるタスクが実行される。
まずに、環境の内部で発生するイベントを検出する確率を最大化する構成が計算される。これは、最適なカバレッジアルゴリズムと題された章で上述された最適なカバレッジアルゴリズムを用いて得られる。
上記アルゴリズムの効果を用いて、複数のセンサは、(Nであると仮定される)セルの総数よりも少ないX個のセルをモニタする方法で自分自身を位置させる。
この構成は、所定の時間維持され、その後、最適なカバレッジアルゴリズムが、以前に計算された構成のセンサによってモニタされないN−X個のセルに適用される。
新しいセンサ構成は、所定の時間維持される。その時間は、オペレータによって設定されることが好ましい。
新しい構成がすべてのセルをカバーしない場合、方法は、最適なカバレッジアルゴリズムを残りのセルに再び適用し、かつ新しい構成を所定の時間維持するであろう。
手順は、すべてのセルがカバーされるまで繰り返される。
徐々に減少するセルの数においてイベントを検出する確率を最大化するとき、冗長なセンサを含む構成が発見されることが可能である。これが、最少の数のセンサが使用されるべきであるという制約の下で、最適なカバレッジアルゴリズムを使用することが有利であるかもしれないことの理由である。
この方法では、選択された複数のセルのカバレッジにおいて冗長である任意のセンサは、環境内の検出の確率を最大化するために、以前のステップですでに見られた複数のセルをカバーするために用いられるであろう。詳細に後述するように、従来のビデオ監視システムでは、パトロール機能は、センサ自体のそれぞれのプリセットで循環し、モニタされるエリアをカバーするために協調しない独立したセンサを利用する。
最適な境界カバレッジ.
監視システムは、「ターゲット追跡」と呼ばれる機能、すなわち、モニタされる環境内の移動するターゲットを追跡することを提供する。
ターゲットによって占有されたセルは、「アクティブセル」と呼ばれる一方、近隣のセルは、「境界セル」と呼ばれる。
複数のセルの間の近隣は、システムのセットアップのときに描画されるセル/センサグラフ内で定められる。
ターゲットを見失わないために、あるセンサがアクティブセルに位置させられる一方、別の複数のセンサが境界エリアの最適なカバレッジを提供するように構成される。
最適な境界カバレッジアルゴリズムの目的は、以下の確率を最大化することである。
Figure 2010528515
上記確率は、イベントがセルkから来て、セルkのN個の境界セルCのうちの1つにおいて発生し、M個のセンサがある位置xであるという条件の下でイベントを検出する確率に対応する。
最適なカバレッジ計算のために記述された条件と同様の条件の下で、検出確率は、以下の関係によって与えられる。
Figure 2010528515
ここで、p(D|C,x)は、プリセットxでセルCを見張るセンサjのモニタ判定である一方、
Figure 2010528515
は、ターゲットがアクティブセルから恐らく存在する境界セルiに移動する確率である。
好ましい実施形態によれば、セットアップ段階の間に環境モデルを生成するときに、あるセルから別のセルへの遷移の確率を指定する必要がある。
これらの確率は、上式の
Figure 2010528515
の実例に対応する。
図2a乃至図2c、及び図3a,図3bに関連して記述された実施形態の例のように、あるセルから近隣のセルへの遷移の確率についての情報が指定されない場合、すべての
Figure 2010528515
の実例は等しく、かつ境界セルにおいてイベントを検出する確率を計算するための関係は、式(10)によって与えられるであろう。
Figure 2010528515
最後に、境界カバレッジは、特別な最適なカバレッジ問題であるので、境界カバレッジはまた、「時変の最適なカバレッジ」の章で述べたものと同様の時変カバレッジ方法論を用いることによって、取り組まれることができる。
動的なセンサの協調及び再構成.
予め与えられた監視システムでは、予め与えられたエリアの最適なカバレッジを提供するためにタスクに参加することができるセンサの集合は、実行されるべきタスクの異なる優先度、及びそれらのタスクを要求する様々なオペレータの異なる優先度に起因して、時間の経過とともに変化するであろう。
例として、システムが、環境を調査するために「パトロール」機能を実行している間に、オペレータがビデオカメラの制御を要求することが可能である。オペレータが自動化されたパトロール手順より高い優先度を有する場合、上記手順は、オペレータによって制御されるビデオカメラなしで実行されるべきであろうことが明らかである。
さらに、故障した任意のセンサは、時間の経過とともに、利用可能なセンサの集合を変更するであろう。
これらの状況に対処するために、システムは、カバレッジに参加するセンサの集合が変化するたびに、予め与えられたエリアをカバーするための最適な構成を計算する。
例えば、タスクのために利用可能なビデオカメラの数が減少するとき、予め与えられたエリアをカバーする残りのビデオカメラが、より広いズームフレームを提供する方法で、又は(上述したように)すべてのセルをカバーするために時間の経過とともにフレーミングを変更する時変カバレッジ手順にしたがって制御されるであろう。
この後者の場合では、予め与えられた構成におけるセンサの永続の時間は、適切なカバレッジを保証するために削減される。
逆も同様に、センサの数が増加する場合、使用されるセンサ構成は、あるプリセットでのそれぞれのセンサの永続の時間の増加を伴って、より小さいエリアをカバーすること、例えば、より高いズームレベルを有するビデオカメラを目的とするであろう。
したがって、本発明に係る監視方法は、センサが動的に再構成されることを可能にする。
(図1のような)集中型のシステムであろうと、(「分散型のアーキテクチャを有する制御システムを用いた変形例」の章で後述される)分散型のシステムであろうと、監視システムの制御システムは、どのセンサが利用可能であるかを検証し、かつどのタスクにそれらのセンサが参加しなければならないかを決定する。
例えば、イベントが追跡されているとき、ターゲットがアクティブセル内で発見されると、境界をモニタする複数のセンサは、最善の境界カバレッジを提供する方法で、構成される。その後、これらのセンサは、最適な境界カバレッジアルゴリズムにしたがって制御される。
残りのセンサは、残りのセルのための最適なカバレッジタスクにささげられ、したがって、残りのセル内でイベントを検出する確率を最大化するように構成される。
動的なセンサ構成は、カバレッジ問題が、センサの近隣に応じてではなく、環境及びセル/センサグラフに応じて策定されているということによって可能になる。
このアプローチは、複数のセンサの選択においていくらかの自由度をもたらし、このアプローチでは、エリアが、異なる構成のセンサを用いることによって、異なる方法でカバーされる。
これらの自由度は、カバレッジタスクに参加するセンサが変化する状況を管理することを可能にする。
境界カバレッジは、最適な境界カバレッジを達成することを目的とする協調に加えて、アクティブセンサと複数の境界センサとの間の協調も提供する協調のより広い形式である。アクティブセンサ、又は予め与えられたアクティブセンサの位置が変化するとき、境界もまた、それをカバーする複数のセンサ、及びその構成とともに変化するであろう。この機能性は、「支援ナビゲーション(assisted navigation)」と呼ばれ、次章で詳細に述べられるであろう。
支援ナビゲーション.
本発明に係る監視システムは、環境内の移動するターゲットを簡単かつ効果的に追跡することを提供する「支援ナビゲーション」と呼ばれる機能を実行する。
ターゲットの移動を追跡すること(ターゲット追跡)は、困難なタスクであり、かつ知られているように、アクティブカメラ(ターゲットをフレーミングするカメラ)の選択、及びターゲットの追跡を継続するためのアクティブカメラから作動させるべき別のカメラへの切り替えに関係する多くの問題をもたらす。
支援ナビゲーション機能は、上記問題への解決方法である。
イベントが(自動的に、又はオペレータによって)検出されると、オペレータは、イベントを撮影するカメラを選択し、かつナビゲーション機能をオンにする。
支援ナビゲーションアルゴリズムは、オペレータによって選択されたセンサ(アクティブセンサ)を検出し、それによって、センサを識別し、かつセンサの位置データ(空間内での方向付け(orientation))を得る。
セットアップ段階の間に描画されるセル/センサグラフを用いて、ナビゲーションアルゴリズムは、アクティブリージョンを形成するセルの集合を計算することによって、アクティブセンサによって現在モニタされている環境の一部(アクティブリージョン)を決定する。
PTZセンサの場合のように、アクティブセルをモニタしているセンサが、オペレータによって手動で制御されるとき、センサは、セットアップ時に記録された複数のプリセット位置以外の位置である可能性がある。これは、PTZセンサは、実質的に連続的な位置の集合の間で位置を変えることができる一方で、本発明に係る方法は、離散的な数の位置が(セットアップ時に)記録されることを要求することに起因する。
適切な計量(metrics)に基づいて、アルゴリズムは、オペレータによって設定された位置に最も近いプリセット位置を推定する。
したがって、計算されたプリセット位置から開始して、その後、アルゴリズムは、アクティブリージョンの境界、すなわち、アクティブリージョンに属していないがその近隣であるセルの集合を得る。
アクティブセル及び境界の計算は動的である。したがって、アクティブセンサがその位置を変える場合、支援ナビゲーションアルゴリズムは、それに応じて、計算を繰り返し、境界を更新するであろう。
最適な境界カバレッジアルゴリズムを用いることによって、支援ナビゲーションアルゴリズムは、最も適切な複数のセンサを選択し、かつそれらをアクティブリージョンの境界をモニタすることが最大化される方法で位置させる。システムのすべてのセンサの間で、この手順は、ターゲットがアクティブリージョン、すなわちアクティブセンサの範囲を出る場合、ターゲットを潜在的に検出することができるセンサのみを選択する。
センサがビデオカメラである場合、支援ナビゲーションの機能性は、アクティブカメラのビュー、及び境界をモニタしているカメラ(近隣のカメラ)のビューを同時に表示することを提供する。
ターゲットがアクティブカメラの視界の範囲を出るとき、境界が完全にモニタされている場合、ターゲットは、近隣のカメラのビューのうちの1つに出現するであろう。近隣のビューのうちの1つにターゲットを発見することは、オペレータにとって簡単なタスクである。したがって、オペレータは、新しいアクティブビデオカメラを簡単に位置付けることができ、それを制御する可能性がある。
有利に、ビデオカメラによって撮影された画像は、タッチスクリーンに表示される。
この実施形態では、ターゲットを含むビューに接触することによって、オペレータは、選択されたビューに責任のあるビデオカメラを識別するため、及び上記情報を用いて、上述したアルゴリズムのステップを実行するために支援ナビゲーションアルゴリズムによって使用される信号を発生する。
境界が完全にモニタされていない場合、ナビゲーションタスクに用いられていないセンサを残りの複数のセルの最適なカバレッジのタスクに使用することによって、ターゲットを見失う確率が最小化される。
エリアごとのシーケンス(SEQUENCE PER AREA).
本発明に係る監視システムによって提供されるもう1つの機能は、「エリアごとのシーケンス」と呼ばれる。
この機能は、セットアップ時にオペレータによって定められたシーケンスにしたがって、システムのビデオカメラによって撮影された画像を1つずつ見せる既知のシーケンスの欠点を克服することを可能にする。
本発明に係る方法は、セットアップ段階の間に、オペレータがシーケンスによってモニタされるべきエリアを選択することを要求する。
エリアの選択は、電子マップの一部をハイライトすることによって、又は関心のあるエリアを形成するセルの集合を指定することによって、実行されてもよい。
この段階では、オペレータは、モニタされるべきエリア、ビューの長さ、及びオプションとしてカバレッジの方向(direction)のみを指定すればよい。
好ましくは、オペレータは、シーケンスを生成するために使用されるべきセンサについての指示を提供しないであろう。しかしながら、オペレータは、1つ又はそれ以上のセンサの選択に制約を設定してもよい。
この情報に基づいて、方法は、ビデオカメラのみが使用されるべきであるという制約の下で、及び好ましくは、最少の数のビデオカメラが使用されるべきであるという制約の下でも最適なカバレッジアルゴリズムを実行し、それによって、オペレータによって指定されたエリアをカバーするであろうカメラ構成を発見する。
上記で議論したように、最適なカバレッジアルゴリズムは、優先度、及びセンサの可用性を考慮する。センサが別のタスクを実行するのに忙しい場合、アルゴリズムは、利用可能なセンサのみを考慮して計算を実行するであろう。
センサの計算は動的であり、かつセンサが使用されるアクティビティに依存する。
シーケンスに参加するであろうセンサの集合を選択した後、表示されるべき画像のシーケンスの時間順序を決定することが必要である。
本発明の実施形態では、オペレータは、シーケンスによってモニタされるべきエリアに関連したセルのための撮影順序を指定する。
好ましい実施形態では、エリアごとのシーケンスアルゴリズムは、最後の計算ステップを実行して、どのセンサが作動させられるかにしたがって、時間順序を決定する。
この最後の計算は、セル/センサグラフに含まれるセンサの位置についての情報を用いることによって実行される。
好ましくは、アルゴリズムが異なるビューの空間的な連続性を提供することにより、近隣のセルを撮影するセンサが、シーケンスにおいて隣接する。
上述したエリアごとのシーケンス方法は、エリアごとのシーケンスに含まれるセンサのシーケンスが自動的に計算されることを可能にし、したがって、オペレータによって手動で設定されたシーケンスの効率の制限を克服することを可能にする。
さらに、上述したエリアごとのシーケンス方法は、動的なセンサの選択を提供し、その結果、例えば、2人のユーザ又は2つのタスクが同一のセンサを同時に要求するようなマルチユーザ環境及びマルチタスク環境に起因する衝突の存在下であっても、関心のあるエリアをカバーする準最適なシーケンスを実行することが可能である。
ユーザインターフェース.
本発明は、オペレータが全体の環境を素早くかつ効果的にモニタすることを可能にする先進的なインターフェースを使用する。
インターフェースは、セル/センサグラフ(図2c)又は電子マップの形式で環境のモデルをオペレータに見せる。
これは、オペレータが、セル/センサグラフにおいて対応するセルを選択することによって、又はマウスを用いてセルを示すことによって、又は(タッチスクリーンが用いられる場合)電子マップ上のセルに接触することによって、エリアの画像を簡単に呼び出すことを可能にする。
これは、警備員が素早くかつ直観的に関心のあるエリアの画像に集中することができるので、素早い監視を提供する。
ユーザの選択は、インターフェースによって読み取られ、制御システムに送信される。制御システムはその後、選択されたエリアをモニタしている1つ又はそれ以上のセンサの画像(又は、一般に言えば、情報)を呼び出す。
センサは、選択されたエリア、及びオペレータの好みにしたがって選択される。例えば、オペレータは、エリアの単一のフレームを表示すること、又はエリアの最適なカバレッジを実行することを決定してもよい。
これらの好みは、例えば、関心のあるエリアで右のマウスボタンをクリックすることによって開かれるドロップダウンメニューを用いて設定されてもよい。
分散型のアーキテクチャを有する制御システムを用いた変形例.
上述した監視システム及び方法は、マルチユーザ及びマルチタスクモニタリングを可能にする。
したがって、予め与えられた時間の瞬間に、異なる環境エリアの最適なカバレッジなどの複数のタスクが要求されること、又は上述したナビゲーション及びエリアごとのシーケンス機能が作動させられることが可能である。
したがって、システムの計算能力は、複数のアルゴリズムの同時の作動から導出される計算の複雑性に耐えるのに十分でなければならないことが明らかである。
多くのセンサを有する大きな監視システムでは、このような計算の複雑性は、図1に示したような集中型のアーキテクチャを有する制御システムによって簡単に取り扱うことができないことがある。
有利な実施形態では、様々なタスクのアルゴリズムを実行する制御システムは、分散型のシステムであり、すなわち、システムは、データネットワークを介して互いに通信する複数のコンピュータからなる。
多数のコンピュータはまた、任意の故障のイベントの際に、優れたレベルの冗長性を保証する。
コンピュータは、その物理的な破壊を目的とした任意の攻撃に対するより高いレベルのセキュリティを保証するために、異なりかつ離れた場所に位置することが好ましい。
この実施形態によれば、環境モデル、及びセットアップ段階の間に描画されたセル/センサグラフは、すべてのコンピュータに記憶され、その結果、それぞれのコンピュータは、上述したカバレッジアルゴリズムを自律的に実行することができる。
それぞれのコンピュータは、(好ましくは、ちょうど1つの)センサの部分集合に関連付けられ、したがって、セル/センサグラフを介して、モニタされる環境内のエリアの部分集合に関係付けられる。
コンピュータは、そのコンピュータによって管理されたセンサの1つが、そのプリセットのうちの少なくとも1つで、予め与えられたエリアの少なくとも1つのセルを見る場合、そのエリアに関するタスク(例えば、エリアごとのシーケンス、又はナビゲーションタスク)に参加する。
コンピュータはまた、そのセンサの1つが、要求された異なるタスクの優先度に応じて、タスクに参加しなければならないかを決定する。例えば、エリアごとのシーケンスが要求され、かつセンサがナビゲーションタスクにすでに使用されている場合、コンピュータは、ナビゲーションがエリアごとのシーケンスより高い優先度を有するので、新しいタスクに参加しないことを決定してもよい。
あるタスクへの参加が決定されると、コンピュータは、最適なカバレッジを計算するために、どの別のセンサがまた、そのタスクに参加するかを知る必要がある。
これは、それぞれのコンピュータが、そのセンサが参加しているタスクを示す情報をデータネットワークを介して、すべての別のコンピュータに送信することにより可能になる。
したがって、それぞれのコンピュータは、タスクに参加する完全なセンサの集合を知り、したがって、最適なカバレッジを得るために、制御されるセンサの構成を計算することができる。
それぞれのコンピュータは、全体環境のために少なくとも1つの最適なカバレッジアルゴリズムを実行するように構成される。
しかしながら、コンピュータが同時に含まれるタスクの数は、コンピュータに関連したセンサの数が減少するにつれて、削減される。すなわち、分散型のシステムに属するあらゆる単一のコンピュータの計算能力は、集中型の制御システムによって要求されるものと比較して削減され得るという結果になる。
したがって、最適な解決方法は、センサごとに1つのコンピュータを用いることであり、又はより良くは、コンピュータをセンサに統合し、したがって、センサを知的にすることである。
監視システムの別の変形例.
ビデオ監視システムの利点が上述した説明から明らかである一方、多くの変更が、例えば、制御システムのリソースを集中させる若しくは分散させることによって、又は上述した監視方法によって要求されかつ処理される同一の情報を管理する等しい手順を用いることによって、実行されてもよいことがまた明らかである。
例えば、オペレータがセル/センサの関係を非常に簡単に読み取ることを可能にするので、セットアップ段階の最後に描画されるセル/センサグラフが提案された。しかしながら、正確な数値処理の目的で、セル/センサグラフが、セルとセンサとの間の関係について同一の情報を含むセル/センサ表に置き換えられてもよい。

Claims (37)

  1. 複数のセンサ(S1−S5)を用いて環境(1)をモニタする方法であって、
    制御システム(31)が、上記複数のセンサうちの1つ又はそれ以上のセンサから情報を受信し、上記環境(1)をモニタするために上記情報を使用する方法において、
    上記制御システムのオペレータは、
    −上記環境のエリアに対応する複数のセルを画成することによって、環境のモデルを生成し、
    −上記複数のセンサのうちのそれぞれのセンサについて少なくとも1つの可能な位置(x)を決定し、かつ上記少なくとも1つの可能な位置 (x)を上記複数のセルうちの少なくとも1つのセルに関連付けることによって、上記複数のセルと上記複数のセンサとの間の複数のセル/センサ関係を生成し、
    −このように決定されたそれぞれの可能な位置(x)に、上記関連したセルのためのモニタ判定を割り当てるセットアップ段階と、
    モニタされるべきエリアで監視機能を実行するために、上記制御システムは、
    −上記監視機能を実行するように使用されることができる複数のセンサを上記複数のセンサの中から発見し、
    −上記複数のセル/センサ関係、及び上記複数のセンサの上記複数の可能な位置(x)に関連した上記複数のモニタ判定に基づいて選択された可能な位置(x)に、上記センサを位置させることによって、上記複数の使用可能なセンサの少なくとも1つを制御する動作段階とを備えたことを特徴とする方法。
  2. 上記モニタ判定は、上記関連したセルで発生するイベントを検出する確率の推定に対応する請求項1記載の方法。
  3. 上記複数のセンサは、少なくとも1つのビデオカメラを備え、
    上記ビデオカメラの少なくとも1つの位置に割り当てられたモニタ判定は、上記関連したセルの可視性の判定に対応する請求項1又は2記載の方法。
  4. 上記環境のモデルを生成するとき、上記オペレータは、上記複数のセルの間の複数の近隣を上記制御システム内で指定する請求項1から3のうちのいずれか1つの請求項記載の方法。
  5. 上記選択された可能な位置(x)は、上記モニタされるべきエリアにおいてイベントを検出する確率を最大化する請求項1から4のうちのいずれか1つの請求項記載の方法。
  6. 上記制御システムは、上記複数の使用可能なセンサのセンサのグループの上記複数の可能な位置(x)の様々な可能な組み合わせの中から選択された構成にしたがって、それぞれの可能な位置(x)にセンサを位置させることによって、上記センサのグループを制御する請求項1から5のうちのいずれか1つの請求項記載の方法。
  7. 上記構成は、上記モニタされるべきエリアにおいてイベントを検出する確率を最大化する請求項6記載の方法。
  8. 上記確率は、上記監視機能を実行するために要求される最少の数のセンサの使用を強制される請求項7記載の方法。
  9. 上記モニタされるべきエリアは、上記複数のセルの第1の集合に関連付けられ、
    上記センサ構成は、上記モニタされるべき複数のセルの部分集合をカバーし、
    上記方法は、
    a.上記センサ構成を決定するステップと、
    b.所定の時間の間、上記複数の使用可能なセンサを上記構成に維持するステップと、
    c.上記第1の構成によってカバーされない複数のセルの第2の部分集合を決定するステップと、
    d.上記第2の部分集合においてイベントを検出する確率を最大化する第2のセンサ構成を決定するステップとを備えた請求項7又は8記載の方法。
  10. 上記第2の構成が上記第2の部分集合のすべてのセルをカバーしない場合、ステップc乃至dは、上記複数のセルの第2の部分集合がヌルになるまで再び実行される請求項9記載の方法。
  11. 上記所定の時間は、上記オペレータによって設定される請求項9又は10記載の方法。
  12. 上記所定の時間は、上記制御システムによって設定される請求項10又は11記載の方法。
  13. 上記第2の構成のそれぞれの計算の間に、上記制御システムは、上記複数のセルの第2の集合上で上記監視機能を実行するように使用されることができる複数のセンサを上記複数のセンサの中から発見する請求項9から12のうちのいずれか1つの請求項記載の方法。
  14. 上記監視機能を実行するように使用されない上記複数のセンサは、第2のモニタされるべきエリアで第2の監視機能を実行するように使用される請求項8に従属する請求項9から13のうちのいずれか1つの請求項記載の方法。
  15. 上記複数のセンサは、複数のビデオカメラを備え、
    上記監視機能は、上記複数のビデオカメラによって撮影された画像のシーケンスを用いて上記モニタされるべきエリアをモニタし、
    上記構成は、複数のビデオカメラのみが使用されるべきであるという制約の下で決定される請求項6から8のうちのいずれか1つの請求項記載の方法。
  16. 上記オペレータは、上記モニタされるべきエリアに関連した上記複数のセルの撮影順序を指定し、
    上記画像のシーケンスは、上記撮影順序によって決定される請求項15記載の方法。
  17. 上記画像のシーケンスは、上記モニタされるべきエリアに関連した上記複数のセルの間の上記複数の近隣に依存する順序に従う請求項4に従属する請求項15記載の方法。
  18. 上記構成は、上記機能のために使用されることができる上記複数のビデオカメラに、上記オペレータによって課された複数の制約によって条件付けられる請求項15から17のうちのいずれか1つの請求項記載の方法。
  19. イベントは、アクティブセルにおいて検出され、
    上記モニタされるべきエリアは、上記セルの境界に対応する請求項4に従属する請求項6から8のうちのいずれか1つの請求項記載の方法。
  20. 上記オペレータは、上記イベントが検出される環境エリアを上記制御システム内で指定し、
    上記制御システムは、上記アクティブセルを位置付ける請求項19記載の方法。
  21. 上記イベントが検出される上記環境エリアは、上記オペレータによって選択されるビデオカメラによって撮影される環境の一部に対応する請求項20記載の方法。
  22. 上記選択されるビデオカメラは、モバイルビデオカメラであり、
    上記オペレータは、上記モバイルビデオカメラを制御する請求項21記載の方法。
  23. 上記制御システムは、上記モバイルビデオカメラが、上記オペレータによって決定された可能な位置(x)であることを考慮することによって上記構成を決定する請求項22記載の方法。
  24. 上記考慮される可能な位置(x)は、上記監視機能が実行されるときに、上記モバイルビデオカメラの上記少なくとも1つの可能な位置(x)を上記モバイルビデオカメラの位置と比較することによって決定される請求項23記載の方法。
  25. 上記構成は、複数のビデオカメラのみが使用されるべきであるという制約の下で決定され、
    上記方法はまた、上記監視機能を実行するように上記制御システムによって制御される上記複数のビデオカメラによって撮影された複数の画像を表示する複数の動作を備えた請求項19から24のうちのいずれか1つの請求項記載の方法。
  26. 上記複数の表示される画像は、上記選択されたビデオカメラによって撮影された画像の近くに表示される請求項25記載の方法。
  27. 上記複数の表示される画像、及び上記選択されたビデオカメラによって撮影された上記画像は、タッチスクリーンに表示される請求項26記載の方法。
  28. 上記オペレータは、上記タッチスクリーンのエリアに接触することによって、監視機能を作動させる請求項27記載の方法。
  29. 上記監視機能を実行するために、上記制御システムは、
    上記モニタされるべきエリアについて最も高いモニタ判定が関連する可能な位置(x)を選択し、かつ
    上記最も高いモニタ判定を有する上記可能な位置(x)に、対応するセンサを位置させることによって、対応するセンサを制御する請求項1から4のうちのいずれか1つの請求項記載の方法。
  30. 上記制御システムは、オペレーショナルリサーチ方法を使用して、上記監視機能を実行するように制御されるべき上記複数のセンサと、上記制御されるべき複数のセンサの位置とを決定する請求項1から5のうちのいずれか1つの請求項記載の方法。
  31. 上記複数の監視方法は、上記複数のモニタ判定に依存するコスト関数を最小化する請求項30記載の方法。
  32. 上記モデルは、上記複数のセルのグラフィック表現を用いてグラフィックで構築される請求項1から31のうちのいずれか1つの請求項記載の方法。
  33. 上記オペレータは、上記環境の電子マップから画素のグループを選択することによって、上記複数のセルを決定する請求項1から31のうちのいずれか1つの請求項記載の方法。
  34. 部分的に重複する複数の画素グループは、単一のセルにグループ分けされる請求項33記載の方法。
  35. 上記複数のセンサの上記可能な位置(x)は、グラフィック手順を用いて上記複数のセルに関連付けられる請求項1から34のうちのいずれか1つの請求項記載の方法。
  36. 環境をモニタするように適合された複数のセンサと、
    上記複数のセンサのうちの1つ又はそれ以上のセンサから情報を受信し、上記情報を使用して上記環境をモニタするように適合された制御システムとを備えたビデオ監視システムにおいて、
    上記制御システムは、
    オペレータから複数のコマンドを受信し、
    請求項1から25のうちのいずれか1つの請求項記載の監視方法を実施するように適合されたことを特徴とするビデオ監視システム。
  37. メモリエリアに記憶され、かつ請求項1から35のうちのいずれか1つの請求項記載の方法を実施する目的のために上記コンピュータによって実行されるように適合されたコード部分を備えたコンピュータプログラム。
JP2010508919A 2007-05-19 2008-05-09 環境をモニタするための方法及びシステム Expired - Fee Related JP5371962B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ITMI2007A001016 2007-05-19
IT001016A ITMI20071016A1 (it) 2007-05-19 2007-05-19 Metodo e sistema per sorvegliare un ambiente
PCT/IB2008/001172 WO2008142504A1 (en) 2007-05-19 2008-05-09 Method and system for monitoring an environment

Publications (2)

Publication Number Publication Date
JP2010528515A true JP2010528515A (ja) 2010-08-19
JP5371962B2 JP5371962B2 (ja) 2013-12-18

Family

ID=39816862

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010508918A Expired - Fee Related JP5285066B2 (ja) 2007-05-19 2008-05-09 複数のセンサを協働させるための方法
JP2010508919A Expired - Fee Related JP5371962B2 (ja) 2007-05-19 2008-05-09 環境をモニタするための方法及びシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010508918A Expired - Fee Related JP5285066B2 (ja) 2007-05-19 2008-05-09 複数のセンサを協働させるための方法

Country Status (16)

Country Link
US (2) US8370421B2 (ja)
EP (3) EP2533535A1 (ja)
JP (2) JP5285066B2 (ja)
CN (2) CN101755432B (ja)
BR (1) BRPI0811738A2 (ja)
CA (2) CA2687768C (ja)
DK (2) DK2163094T3 (ja)
ES (2) ES2398929T3 (ja)
HK (2) HK1142193A1 (ja)
HR (2) HRP20130032T1 (ja)
IT (1) ITMI20071016A1 (ja)
PL (2) PL2163094T3 (ja)
PT (2) PT2163094E (ja)
RU (2) RU2510147C2 (ja)
SI (2) SI2163094T1 (ja)
WO (2) WO2008142504A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175836A1 (ja) * 2012-05-23 2013-11-28 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITMI20071016A1 (it) * 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
US8571745B2 (en) * 2008-04-10 2013-10-29 Robert Todd Pack Advanced behavior engine
WO2010098268A1 (ja) * 2009-02-24 2010-09-02 日本電気株式会社 演算資源割当装置、演算資源割当システム、それらの演算資源割当方法及びプログラム
US20100245583A1 (en) * 2009-03-25 2010-09-30 Syclipse Technologies, Inc. Apparatus for remote surveillance and applications therefor
US20110317017A1 (en) * 2009-08-20 2011-12-29 Olympus Corporation Predictive duty cycle adaptation scheme for event-driven wireless sensor networks
ITMI20100741A1 (it) * 2010-04-29 2011-10-30 March Networks Corp Configurazione e comunicazione di elementi di rete video
CN102222157B (zh) * 2011-04-28 2013-10-30 华南理工大学 一种基于人工势场法的动态预警域生成方法
US9143703B2 (en) * 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US8953039B2 (en) 2011-07-01 2015-02-10 Utc Fire & Security Corporation System and method for auto-commissioning an intelligent video system
US20130015968A1 (en) * 2011-07-13 2013-01-17 Honeywell International Inc. System and method of alarm installation and configuration
DE102012222661A1 (de) * 2012-12-10 2014-06-12 Robert Bosch Gmbh Überwachungsanlage für einen Überwachungsbereich, Verfahren sowie Computerprogramm
US20140184803A1 (en) * 2012-12-31 2014-07-03 Microsoft Corporation Secure and Private Tracking Across Multiple Cameras
KR20140091343A (ko) * 2013-01-11 2014-07-21 삼성테크윈 주식회사 영상 감시 시스템 및 그의 동작 방법
KR101871941B1 (ko) * 2013-03-12 2018-07-02 한화에어로스페이스 주식회사 카메라의 동작 방법, 카메라, 및 감시 시스템
US9614898B1 (en) * 2013-05-27 2017-04-04 Surround.IO Distributed event engine
US9116137B1 (en) 2014-07-15 2015-08-25 Leeo, Inc. Selective electrical coupling based on environmental conditions
US9372894B2 (en) 2013-08-15 2016-06-21 International Business Machines Corporation Scoring relationships between entities based on proximity in space and time
HUP1300560A2 (en) * 2013-09-27 2015-03-30 Peter Wolf Protecting system for biosphere asset
US20150134379A1 (en) * 2013-11-14 2015-05-14 International Business Machines Corporation Singularity of Presence
CN104239594A (zh) * 2014-06-13 2014-12-24 中国人民解放军装备学院 人工环境模型、Agent模型及其建模方法
CN104079881B (zh) * 2014-07-01 2017-09-12 中磊电子(苏州)有限公司 监控装置与其相关的监控方法
KR20160014242A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 모니터링 장치를 이용한 센서의 위치 및 이벤트 동작의 매핑 방법 및 장치
US10102566B2 (en) 2014-09-08 2018-10-16 Leeo, Icnc. Alert-driven dynamic sensor-data sub-contracting
US10026304B2 (en) 2014-10-20 2018-07-17 Leeo, Inc. Calibrating an environmental monitoring device
TWI578781B (zh) * 2014-10-21 2017-04-11 群暉科技股份有限公司 藉助於全景地圖來管理一監視系統之方法與裝置
SG10201407100PA (en) 2014-10-30 2016-05-30 Nec Asia Pacific Pte Ltd System For Monitoring Event Related Data
US10277869B2 (en) * 2014-12-11 2019-04-30 Sensormatic Electronics, LLC Efficient process for camera call-up
CN104796923B (zh) * 2014-12-22 2018-04-13 齐玉田 无线传感网络的网络拓扑构建方法
TWI522760B (zh) 2015-01-08 2016-02-21 晶睿通訊股份有限公司 馬達控制方法、馬達控制裝置及相機
JP6229816B2 (ja) * 2015-03-27 2017-11-15 日本電気株式会社 モバイル監視装置、プログラム、及び制御方法
JP6809455B2 (ja) * 2015-06-11 2021-01-06 日本電気株式会社 サービス制御装置、サービス制御方法及びプログラム
CN104994356A (zh) * 2015-07-22 2015-10-21 宜昌泛海巨涛科技有限公司 监控设备智能联动装置及方法
US10620802B1 (en) * 2015-08-10 2020-04-14 Cadence Design Systems, Inc. Algorithmic modeling interface process
US10805775B2 (en) 2015-11-06 2020-10-13 Jon Castor Electronic-device detection and activity association
US9801013B2 (en) 2015-11-06 2017-10-24 Leeo, Inc. Electronic-device association based on location duration
CN106856558B (zh) * 2015-12-09 2019-09-20 台达电子工业股份有限公司 具有摄影机自动调派功能的3d影像监控系统及其监控方法
US10761495B2 (en) * 2015-12-18 2020-09-01 International Business Machines Corporation Dynamic and reconfigurable system management
CN108024088B (zh) * 2016-10-31 2020-07-03 杭州海康威视系统技术有限公司 一种视频轮巡方法及装置
US10860012B2 (en) 2016-11-09 2020-12-08 Yokogawa Engineering Asia Pte. Ltd KPI calculation rule builder for advance plant monitoring and diagnostics
RU2663884C1 (ru) * 2017-03-29 2018-08-13 ООО "Ай Ти Ви групп" Способ эмуляции по меньшей мере двух стационарных виртуальных видеокамер при использовании одной поворотной (PTZ) видеокамеры
EP3487175A1 (en) * 2017-11-21 2019-05-22 Reliance Core Consulting LLC Methods and systems for detecting motion corresponding to a field of interest
GB2569573A (en) * 2017-12-20 2019-06-26 Canon Kk Video surveillance method and system
US10317216B1 (en) 2018-03-16 2019-06-11 Microsoft Technology Licensing, Llc Object and location tracking with a graph-of-graphs
CN109375851B (zh) * 2018-10-26 2022-04-08 珠海格力电器股份有限公司 感知器绑定方法、装置、计算机设备和存储介质
CN109544194B (zh) * 2018-12-07 2021-09-17 河南智信锅炉技术创新有限公司 一种用于智能化工厂的锅炉防伪方法及装置
US11351682B2 (en) * 2019-06-19 2022-06-07 International Business Machines Corporation Environment monitoring and associated monitoring device
RU2718223C1 (ru) * 2019-07-18 2020-03-31 ООО "Ай Ти Ви групп" Система и способ определения потенциально опасных ситуаций по видеоданным
ES2895415A1 (es) * 2020-08-19 2022-02-21 Ceballos Arroyo Jose Maria Dispositivo de seguridad urbana
US11881993B2 (en) * 2020-10-13 2024-01-23 Eoh Limited Liability Company Method and deep reinforcement neural network (DRNN) management system for an intelligent plug-and-play point-to-multipoint internet of things (IoT) platform
PL440508A1 (pl) 2022-02-28 2023-09-04 Uniwersytet Morski W Gdyni Urządzenie do inwentaryzacji stanu technicznego stalowych części podwodnych nabrzeży portowych

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161880A (ja) * 1997-09-17 1999-06-18 Sony United Kingdom Ltd 監視システム用装置
JP2002034032A (ja) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd 監視カメラシステム用コントローラ
JP2005141355A (ja) * 2003-11-05 2005-06-02 Sekisui House Ltd セキュリティー巡回サービスシステム
JP2005323229A (ja) * 2004-05-11 2005-11-17 Yamatake Corp 巡回方法および巡回システム
WO2006067947A1 (ja) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. カメラ端末および監視システム
JP2006311025A (ja) * 2005-04-27 2006-11-09 Mitsubishi Electric Corp 表示装置及び表示方法及びプログラム
JP2008537380A (ja) * 2005-03-25 2008-09-11 インテリヴィド コーポレイション インテリジェントなカメラ選択および対象追跡

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2140721C1 (ru) * 1984-12-27 1999-10-27 Войсковая часть 11135 Телевизионное устройство для обнаружения перемещений объектов
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
US6097429A (en) * 1997-08-01 2000-08-01 Esco Electronics Corporation Site control unit for video security system
WO1999035850A1 (en) * 1997-12-31 1999-07-15 Koninklijke Philips Electronics N.V. Multiple camera system
AU3249600A (en) 1999-03-18 2000-10-04 Showbites, Inc. Method for optimization of video coverage
CA2371750A1 (en) * 1999-05-24 2000-11-30 Aprisma Management Technologies, Inc. Service level management
US6437819B1 (en) 1999-06-25 2002-08-20 Rohan Christopher Loveland Automated video person tracking system
GB2354090B (en) * 1999-09-08 2004-03-17 Sony Uk Ltd Distributed service provider
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
EP1288757A1 (de) * 2001-08-07 2003-03-05 Siemens Aktiengesellschaft Verfahren und Prozessleitsystem zum Betrieb einer technischen Anlage
CN1561640A (zh) 2001-09-27 2005-01-05 皇家飞利浦电子股份有限公司 用于基本计算机的视觉监视的最佳多摄像机设置
GB2384128A (en) * 2001-12-13 2003-07-16 Invideo Ltd Schematic mapping of surveillance area
US20030212587A1 (en) * 2002-05-13 2003-11-13 International Business Machines Corporation Apparatus and methods for coordinating Web services using role based interpretation of coordination plans
GB0211644D0 (en) * 2002-05-21 2002-07-03 Wesby Philip B System and method for remote asset management
CN1206862C (zh) * 2002-08-13 2005-06-15 舒富喜 一种远程视频图像监控系统
CN1198415C (zh) * 2003-01-08 2005-04-20 广东科龙电器股份有限公司 基于制造现场的智能化远程网络监控系统
CN1186923C (zh) * 2003-04-03 2005-01-26 上海交通大学 异常目标自动发现及跟踪摄像机系统
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
EP1505796A1 (en) * 2003-08-06 2005-02-09 STMicroelectronics Limited Method for controlling services
US7433327B2 (en) * 2003-10-09 2008-10-07 Hewlett-Packard Development Company, L.P. Method and system for coordinating communication devices to create an enhanced representation of an ongoing event
JP2008502228A (ja) 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム
US20060004579A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Flexible video surveillance
US20060007308A1 (en) * 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device
RU2275750C2 (ru) * 2004-07-21 2006-04-27 Федеральное Государственное Унитарное Предприятие "Научно-Исследовательский Институт Промышленного Телевидения "РАСТР" (ФГУП "НИИ ПТ "РАСТР") Способ юстировки направления визирной оси двухкамерной телевизионной системы и устройство для его осуществления
WO2006030444A2 (en) * 2004-09-16 2006-03-23 Raycode Ltd. Imaging based identification and positioning system
US7123169B2 (en) * 2004-11-16 2006-10-17 Northrop Grumman Corporation Method and apparatus for collaborative aggregate situation awareness
US20070043803A1 (en) * 2005-07-29 2007-02-22 Microsoft Corporation Automatic specification of semantic services in response to declarative queries of sensor networks
US7468970B2 (en) * 2005-10-24 2008-12-23 Honeywell International Inc. Routing of mobile agents in a network
US8266697B2 (en) * 2006-03-04 2012-09-11 21St Century Technologies, Inc. Enabling network intrusion detection by representing network activity in graphical form utilizing distributed data sensors to detect and transmit activity data
US8131838B2 (en) * 2006-05-31 2012-03-06 Sap Ag Modular monitor service for smart item monitoring
ITMI20071016A1 (it) * 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
CA2690506C (en) * 2009-01-20 2016-05-10 Parata Systems, Llc Methods, systems, and apparatus for determining and automatically programming network addresses for devices operating in a network

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161880A (ja) * 1997-09-17 1999-06-18 Sony United Kingdom Ltd 監視システム用装置
JP2002034032A (ja) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd 監視カメラシステム用コントローラ
JP2005141355A (ja) * 2003-11-05 2005-06-02 Sekisui House Ltd セキュリティー巡回サービスシステム
JP2005323229A (ja) * 2004-05-11 2005-11-17 Yamatake Corp 巡回方法および巡回システム
WO2006067947A1 (ja) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. カメラ端末および監視システム
JP2008537380A (ja) * 2005-03-25 2008-09-11 インテリヴィド コーポレイション インテリジェントなカメラ選択および対象追跡
JP2006311025A (ja) * 2005-04-27 2006-11-09 Mitsubishi Electric Corp 表示装置及び表示方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175836A1 (ja) * 2012-05-23 2013-11-28 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム
JPWO2013175836A1 (ja) * 2012-05-23 2016-01-12 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム
US9948897B2 (en) 2012-05-23 2018-04-17 Sony Corporation Surveillance camera management device, surveillance camera management method, and program

Also Published As

Publication number Publication date
BRPI0811738A2 (pt) 2014-11-11
ITMI20071016A1 (it) 2008-11-20
EP2163094B1 (en) 2012-11-07
EP2160883A2 (en) 2010-03-10
RU2494567C2 (ru) 2013-09-27
CA2687768A1 (en) 2008-11-27
CN101755457A (zh) 2010-06-23
DK2163094T3 (da) 2013-02-04
JP5371962B2 (ja) 2013-12-18
PL2163094T3 (pl) 2013-03-29
EP2163094A1 (en) 2010-03-17
US8350911B2 (en) 2013-01-08
PT2163094E (pt) 2013-02-11
CN101755432B (zh) 2016-08-24
ES2398929T3 (es) 2013-03-22
HK1142201A1 (en) 2010-11-26
HRP20130081T1 (hr) 2013-02-28
JP5285066B2 (ja) 2013-09-11
SI2160883T1 (sl) 2013-02-28
US20100214417A1 (en) 2010-08-26
RU2009147287A (ru) 2011-06-27
JP2010528359A (ja) 2010-08-19
WO2008142504A1 (en) 2008-11-27
US20100293220A1 (en) 2010-11-18
EP2533535A1 (en) 2012-12-12
US8370421B2 (en) 2013-02-05
ES2397720T3 (es) 2013-03-11
WO2008142502A3 (en) 2009-02-19
CA2687724C (en) 2015-07-14
CN101755432A (zh) 2010-06-23
PL2160883T3 (pl) 2013-03-29
CA2687724A1 (en) 2008-11-27
HK1142193A1 (en) 2010-11-26
DK2160883T3 (da) 2013-02-04
EP2160883B1 (en) 2012-10-17
CN101755457B (zh) 2013-04-03
RU2510147C2 (ru) 2014-03-20
WO2008142502A2 (en) 2008-11-27
CA2687768C (en) 2016-01-05
RU2009147286A (ru) 2011-06-27
HRP20130032T1 (hr) 2013-02-28
PT2160883E (pt) 2013-01-25
SI2163094T1 (sl) 2013-02-28

Similar Documents

Publication Publication Date Title
JP5371962B2 (ja) 環境をモニタするための方法及びシステム
US10999635B2 (en) Image processing system, image processing method, and program
SanMiguel et al. Self-reconfigurable smart camera networks
EP1128676B1 (en) Intruding object monitoring method and intruding object monitoring system
CN102065279B (zh) 一种连续跟踪监控对象的方法及系统
EP2274654B1 (en) Method for controlling an alarm management system
US20130123981A1 (en) Swarm intelligence routing robot device and movement path control system using the same
CN103491339A (zh) 视频获取方法、设备及系统
EP2856266A1 (en) Object inspection in an industrial plant
JP6612724B2 (ja) 映像監視システム及び監視映像表示方法
JP2014139745A (ja) 機器管理システム、機器管理装置、機器管理方法及びプログラム
EP3833013B1 (en) Video management system and method for dynamic displaying of video streams
KR102409542B1 (ko) 제어 판넬의 원격 제어를 이용한 빌딩 층별 관리 방법 및 이를 위한 시스템
KR20200073374A (ko) 감시 카메라 시스템 및 그 제어 방법
KR102637691B1 (ko) 영상 기반 설비 모니터링 장치 및 방법
Bustamante et al. Autonomous active-camera control architecture based on multi-agent systems for surveillance scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R150 Certificate of patent or registration of utility model

Ref document number: 5371962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees