JP2006304297A - 環境内のイベントを検出する監視システム - Google Patents

環境内のイベントを検出する監視システム Download PDF

Info

Publication number
JP2006304297A
JP2006304297A JP2006111135A JP2006111135A JP2006304297A JP 2006304297 A JP2006304297 A JP 2006304297A JP 2006111135 A JP2006111135 A JP 2006111135A JP 2006111135 A JP2006111135 A JP 2006111135A JP 2006304297 A JP2006304297 A JP 2006304297A
Authority
JP
Japan
Prior art keywords
event
camera
sequence
events
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006111135A
Other languages
English (en)
Other versions
JP4772572B2 (ja
Inventor
Christopher R Wren
クリストファー・アール・レン
Ugur M Erdem
ウグル・エム・エルデム
Ali J Azarbayejani
アリ・ジェイ・アザールベイェジャニ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2006304297A publication Critical patent/JP2006304297A/ja
Application granted granted Critical
Publication of JP4772572B2 publication Critical patent/JP4772572B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】監視システムは、環境内のイベントを検出する。
【解決手段】当該システムは、環境内に配置されたカメラ及び環境内に配置された複数のコンテキストセンサを含む。センサは、環境内のイベントを検出するように構成される。プロセッサは、ネットワークを介して、カメラ及びコンテキストセンサに結合する。プロセッサは、コンテキストセンサによって検出されるイベントのみに基づいて、アクションをカメラに与える。アクションは、検出したイベントをカメラに観察させる。
【選択図】図1

Description

本発明は、包括的に、センサネットワークに関し、より詳細には、監視システム内のカメラ及び動きセンサのハイブリッドネットワークに関する。
建物などの環境のユーザのために、セキュリティ、効率性、快適さ、及び安全性を提供する必要性が増加しつつある。通常、これはセンサによって行われる。センサによって環境を監視する時には、制限された資源を如何にして最適に採用するかを決定するために、環境の大域的なコンテキストの尺度を有することが重要である。単一センサ、たとえば、単一カメラに基づいて行われる決定は、必然的に不完全なデータによって行われるため、この大域的なコンテキストが重要である。したがって、決定は、最適である見込みはない。しかしながら、機器コスト、据付コスト、及びプライバシ問題のために、従来のセンサを使用して大域的なコンテキストを回収することは難しい。
いくつかのセンサは、たとえば、動き検出器のように、比較的シンプルなものとなり得る。動き検出器は、時折、単一ビットによって、変わったイベントを知らせることができる。複数のセンサからのビットは、イベント間の時間的関係を指示することができる。他のセンサは、より複雑である。たとえば、パン−チルト−ズーム(PTZ)カメラは、データを解釈するために、非常に高いデータレートと計算コストで、環境に関する高忠実度情報の連続ストリームを生成する。しかし、こうした複雑なセンサで全体の環境を完全にカバーすることは、実用的でない。
したがって、動き検出器などの多数の単純なセンサと、少数のみの複雑なPTZカメラとを据え付けることは意味がある。しかしながら、環境の物理的構造が変更されるにつれて、センサの設置が徐々に変わる必要がある時には、特に、単純なセンサの大きなネットワークと、そのデータに基づいてシステムが行う必要があるアクションとの間のマッピングを指定することは、手間がかかる。
したがって、ハイブリッドセンサネットワークが環境に配置された場合のアクションポリシ、環境のユーザの活動、及びアクションの適切さに関するアプリケーション特有のフィードバックを動的に取得することが望ましい。
特に、高価でかつ制限された資源、1人での警護の注意、単一のモニタリングステーション、ビデオ記録システムのネットワーク帯域、建物内のエレベータ運転室の設置、又は暖房、冷房、換気、又は照明のためのエネルギーの利用を最適化することが望ましい。
一般性を失うことなく、本発明は、特に、PTZカメラに関連する。PTZカメラは、監視システムが、環境内のイベントの高忠実度ビデオを取得することを可能にする。しかしながら、PTZカメラは、興味のあるイベントが起こるロケーションに向けられなければならない。そのため、この例のアプリケーションでは、制限された資源が、カメラの向きを調整している。
PTZカメラが何もない空間に向くと、資源が浪費される。一部のPTZカメラは、興味のあるイベントに手動で向けられることができる。しかしながら、これは、イベントが既に検出されていることを仮定する。他のPTZカメラは、イベントを気にとめないで、反復パターンで環境を当てもなく走査する。いずれの場合も、資源が浪費される。
PTZカメラなどの、制限された高価な資源の効率を改善することが望ましい。特に、ハイブリッドセンサネットワーク内の単純なセンサから取得される情報に基づいて、興味のあるイベントにカメラを自動的に向けることが望ましい。
従来、環境の幾何学的監視は、監視システムを動作させる前に、特別なツールによって実施される。別の方法は、人又はロボットに、所定の経路をたどって何もない環境をナビゲートしてもらうなどの、既知の、又は、検出が容易な動きのパターンを生成する。その後、この幾何学的較正は、特別のルールベース監視システムを手動で構築するのに使用することができる。
しかしながら、これらの方法は、システムを著しく制約する。ユーザに対する、また、環境における制約を最小にすることが望ましい。制約のないユーザの動きを可能にすることによって、システムがいろいろな環境に適応することが可能になる。さらに、環境の物理的構造が徐々に変更されるにつれて、幾何学的監視を繰り返して実施する必要性をなくすことが可能になる。
PTZカメラのネットワークを構成し、較正するシステム及び方法は、知られている。Robert T. Collins及びYanghai Tsin著「Calibration of an outdoor active camera system」IEEE Computer Vision and Pattern Recognition, pp. 528-534, June 1999、Richard I. Harthley著「Self-calibration from multiple views with a rotating camera」The Third European Conference on Computer Vision, Springer-Verlag, pp. 471-478, 1994、S. N. Sinha及びM. Pollefeys著「Towards calibrating a pan-tilt-zoom cameras network」、Peter Sturm, Tomas Svoboda及びSeth Teller編、Fifth Workshop on Omnidirectional Vision Camera Networks and Non-classical cameras, 2004、Chris Stauffer及びKinh Tieu著「Automated multi-camera planar tracking correspondence modeling」IEEE Computer Vision and Pattern Recognition, pp. 259-266, July 2003、並びにGideon P. Stein著「Tracking from multiple view points: DARPA Self-calibration of space and time 」Image Understanding Workshop, 1998を参照願いたい。
この関心は、DARPAビデオ監視及びモニタリングの主導で高まった。その活動のほとんどは、カメラと環境の固定座標系の間の従来的な較正に焦点を当てた。
別の方法は、重なる視野を持つカメラを較正する方法を述べる。S. Khan、O. Javed及びM. Shah著「Tracking in uncalibrated cameras with overlapping field of view」IEEE Workshop on Performance Evaluation of Tracking and Surveillance, 2001を参照願いたい。そこでは、目的は、対ごとのカメラ視野境界を見出すことであり、それによって、異なるビューの目標物の対応を探索することができ、良好なカメラ間「ハンドオフ」を達成することができる。
より実用的な面に関して、ハイウェイなどの比較的難しい戸外環境において、低解像度と高解像度のカメラを協働させるカメラネットワークは、M. M. Trivedi、A. Prati及びG. Kogut著「Distributed interactive video arrays for event based analysis of incidents」IEEE International Conference on Intelligent Transportation Systems, pp. 950-956, September 2002に記載されている。
他の方法は、自律システムを構造化照明と組み合わせ(J. Barreto及びK. Daniilidis著「Wide area multiple camera calibration and estimation of radial distortion」Peter Sturm、Tomas Svoboda及びSeth Teller編、Fifth Workshop on Omnidirectional Vision, Camera Networks and Non-classical cameras, 2004)、較正道具を使用し(Patrick Baker及びYiannis Aloimonos著「Calibration of a multicamera network」Robert Pless,Jose Santos-Victor及びYasushi Yagi編、 Fourth Workshop on Omnidirectional Vision, Camera Networks and Nonclassical cameras, 2003)、又は、測量したランドマークを使用する(Robert T. Collins及びTanghai Tsin著「Calibration of an outdoor active camera system」IEEE Computer Vision and Pattern Recognition, pp. 528-534, June 1999)。
しかしながら、これらの方法のほとんどは、較正ツールの場合には過剰の労力を必要とする、構造化照明の場合には環境に過剰の制約を課す、又は、手作業で測量したランドマークを必要とするため、実用的でない。いずれの場合も、これらの方法は、システムを動作させる前に較正が行われることを仮定しており、環境が変更されるにつれて、動作中にシステムを動的に再較正するための対策を講じていない。
これらの問題は、Stein及びStauffer等によって対処される。彼らは、追跡データを使用して、カメラネットワークについて、共通座標系への変換を推定する。彼等は、セットアップ位相と動作位相を区別しない。むしろ、任意の追跡データが、系を較正又は再較正するのに使用できる。しかしながら、これらの方法のいずれも、PTZカメラの問題に直接対処しなかった。もっと重要なことには、これらの方法は、ネットワークで使用されるセンサに厳しい制約を課す。センサは、移動物体について非常に詳細な位置データを取得し、良好に物体を追跡するために、物体を区別することもできなければならない。個々の観測ではなく、トラックが、較正プロセスで使用される基本ユニットであることから、このことが当てはまる。
上述した全ての方法は、センサネットワーク及び環境の詳細な幾何学モデルの取得を必要とする。
別の方法は、重ならないカメラのネットワークを較正する。Ali Rahimi、Brian Dunagan及びTrevor Darrell著「Simultaneous calibration and tracking with a network of non-overlapping sensors」IEEE Computer Vision and Pattern Recognition, pp. 187-194, June 2004を参照願いたい。しかしながら、その方法は、移動物体を追跡することを必要とする。
動きセンサなどの単純なセンサによって検出されるイベントに応答する複雑なPTZカメラを使用することが望ましい。特に、特別な追跡センサを使用せずに、PTZカメラによってイベントを観測することが望ましい。さらに、複数のユーザによって生成されたイベントを追跡し、検出することが望ましい。
本発明は、建物などの環境のための、コンテキスト認識の監視システムを提供する。全体の建物を複数のカメラでカバーすることは実用的ではなく、任意の環境内で起こる可能性がある全ての興味のあるイベントを予測し、特定することは可能でない。
したがって、本発明は、パン−チルト−ズーム(PTZ)カメラなどの制限された資源を効率的に使用するためのポリシを自動的に決定するハイブリッドセンサネットワークを使用する。
本発明は、較正の機能定義を採用することによって、従来技術のシステムを改良する。本発明は、PTZカメラを最もうまく利用するために使用することができる、カメラおよび環境内に配置されたセンサの関係のデータ記述を回収する。
従来の技法は、最初に、環境のマップを求めるために幾何学的測量を必要とする。次に、環境内の移動物体を、マップに従って追跡することができる。
この限界ぎりぎりの解決策と対照的に、本発明は、目標物を直接に推定する連携解決策、すなわち、PTZカメラが、幾何学測量を実施する必要なしに、興味のあるイベントのビデオを取得することを自動的に可能にするポリシを提供する。
図1は、本発明による監視システム100を示す。システムは、たとえば建物のような環境内におけるセンサのハイブリッドネットワークを使用する。ネットワークは、パン−チルト−ズーム(PTZ)カメラなどの複雑で高価なセンサ101、並びに、多数の単純で安価なコンテキストセンサ102、たとえば、動き検出器、遮断ビームセンサ、ドプラ超音波センサ、及び他の低ビットレートセンサを含む。センサ101〜102は、たとえば、チャネル103によってプロセッサ110に接続される。プロセッサは、メモリ111を含む。
本発明では、アクション選択を採用する。コンテキストセンサ102は、イベントを検出する。すなわち、センサは、各瞬間に、2値であるランダムプロセスを生成する。プロセスは、環境内に動きが存在する場合には真であり、動きが全くない場合には偽である。
PTZカメラ101からのビデオストリーム115を、よく知られている技法を使用して2値プロセスに、同様に、帰着することができる。Christopher Wren、Ali Azarbayejani、Trevor Darrell及びAlex Pentland著「Pfinder: Real-time tracking of the human body」IEEE Trans. Pattern Analysis and Machine Intelligence, 19(7), pp. 780-785, July 1997、Chris Stauffer及びW. E. L. Grimson著「Adaptive background mixture models for real-time tracking」IEEE Computer Vision and Pattern Recognition, volume 2, June 1999、Kentaro Toyama、John Krumm、Barry Brumitt及びBrain Meyers著「Wallflower: Principles and Practice of Background Maintenance」IEEE International Conference on Computer Vision, 1999を参照願いたい。
このプロセスは、PTZカメラ101のビュー内に動きが存在する時を指示する別の2値プロセスをもたらす。動きが検出されると、ビデオストリーム115は、PTZカメラの現在の状態、すなわち、カメラの出力パン、チルト、及びズームパラメータと共にさらに符号化される。
システムは、PTZカメラ101についてアクションを回収する。各アクションは、カメラ101に、特定の姿勢にパン、チルト、及びズームさせる出力パラメータの形態である。姿勢とは、本明細書で、6自由度の全てについての平行移動及び回転を意味する。イベント及びアクションは、プロセッサ110のメモリ111に記憶されるポリシテーブル200に維持される。アクションによって、PTZカメラは、コンテキストセンサによって検出されたイベントを観察する。
図2に示すように、テーブル200内の各エントリa210は、イベント又はイベントのシーケンス(たとえば、j∈J、k∈K)211をアクション(i∈I)212にマッピングする。イベント及びアクションは、手作業で割り当てることができる。ポリシテーブルA200内の特定のエントリa210を選択するために、本発明では、特定のコンテキストセンサ102によって検出されるイベントを、PTZカメラ101に観察させるためのアクション212を決定する。
アクションをイベントに手作業で割り当てることは、テーブル内のエントリ数が、ネットワーク内のセンサ数の増大に伴って、少なくとも直線的に増大するため、非常に手間がかかる。建物サイズのネットワークの場合、それは、既に、おそろしく大きな数である。
しかしながら、システム性能は、イベントをシーケンスとして考えることによって改善される。たとえば、最初にセンサ1によって検出され、その後センサ2によって検出されるイベントは、センサ3によって検出され、その後センサ2によって検出されるイベントとは異なるアクションにマッピングさせることができる。
これらの対を考慮すると、エントリ数は、センサ数の2乗又はそれ以上で増大し、そのため、手作業で指定することは、たちまちのうちに不可能になる。
したがって、本発明では、システムが、ポリシテーブルを自律的に学習することを可能にする学習方法を提供する。単一センサの場合、エントリは、下式(1)に従って選択される。
Figure 2006304297
ここで、p[t]は、iに相当する姿勢でPTZカメラによって生成されるイベントのシーケンスであり、c[t]は、コンテキストセンサjによって生成されるイベントのシーケンスであり、Rpcは、2つのイベントシーケンスp[t]とc[t]の間の相関であり、Rppは、PTZイベントシーケンスp[t]の自己相関である。
一般性を失うことなく、コンテキストセンサ102と特定のPTZカメラ101の両方からのイベントは、2値プロセスとしてモデル化することができる。この場合、上記式(1)は、下式(2)となる。
Figure 2006304297
ここで、‖ ‖演算子は、2値プロセス内の真のイベント数を表し、( ∧ )は、ブール積集合演算子である。この選択は、所与の瞬間にイベントがどのように一致するかに基づく。本明細書では、この選択プロセスを「静的」と呼ぶ。
別の選択ポリシは、コンテキストイベントの順序付けられた対を考慮することによって、検知データ内の動的関係を取得する。ここで、エントリajkは、イベントのシーケンス(すなわち、センサkによって検出されるイベントと、その後の、センサjによって検出されるイベント)に基づいて選択される。ここで、選択プロセスは、特定の時間遅延Δtが与えられ、時間が遅延したイベントシーケンス間の動的関係をモデル化する。したがって、本発明では、この特定の制約を含むように式(2)を、下式(3)のように強化する。
Figure 2006304297
この選択プロセスは、遅延Δtに合わないあらゆるエントリを排除する。本明細書では、この選択を「動的」と呼ぶ。
環境のユーザの動きのより大きな変動性を可能にするために、本発明者等は、より広い例のセットを考慮するために、式(3)を、下式(4)のように拡張する。
Figure 2006304297
ここで、演算子∪は、検知イベントにわたる和集合である。センサkからの任意のイベントが、第2イベントに先行する設定期間δ以内で起こる限り、和集合演算子を使用して、アクション選択が、そのイベントを考慮することを可能にする。この柔軟性は、テーブル内の全ての要素に対して、より多くのデータを利用可能にすることによって、学習速度を改善し、同様に、推測的なパラメータΔtに対する感度も減らす。
期間がΔt=0に縮小するため、同時発生イベントを考慮することができる。これによって、選択プロセスが、埋め込まれる静的エントリajjを正確に構築することができる。すなわち、この選択基準は、厳密に、上述した「静的」ポリシ学習者より能力があり、一方、「動的」学習者は、全ての「静的」イベントを無視しながら、動的イベントを学習する。本明細書では、この選択プロセスを「寛大な(lenient)」と呼ぶ。
本発明によるハイブリッドセンサネットワークを含む環境の略図である。 本発明によるイベントとアクションのテーブルである。

Claims (13)

  1. 環境内のイベントを検出する監視システムであって、
    前記環境内に配置されたカメラと、
    前記環境内に配置され、前記環境内のイベントを検出するように構成された複数のコンテキストセンサと、
    ネットワークを介して、前記カメラ及び前記複数のコンテキストセンサに結合するプロセッサと
    を備え、該プロセッサは、
    前記コンテキストセンサによって検出される前記イベントのみに基づいて、前記検出したイベントを前記カメラに観察させるアクションを前記カメラに与える手段をさらに備えた環境内のイベントを検出する監視システム。
  2. 前記コンテキストセンサは、動き検出器である請求項1に記載のシステム。
  3. 前記コンテキストセンサは、前記環境内で動きが存在する時に真であり、動きが存在しない時に偽である2値のシーケンスを生成する請求項1に記載のシステム。
  4. 前記カメラによってビデオストリームを取得する手段と、
    前記ビデオストリームを前記カメラの姿勢と共に符号化する手段と
    をさらに備える請求項1に記載のシステム。
  5. 現在の姿勢は、前記動きが検出される時に前記カメラからの出力パン、チルト、及びズームパラメータを符号化する請求項4に記載のシステム。
  6. 前記アクションは、前記カメラが前記検出したイベントを観察するための入力パン、チルト、及びズームパラメータを含む請求項1に記載のシステム。
  7. 前記プロセッサは、前記イベント及び前記アクションを記憶するメモリをさらに備える請求項1に記載のシステム。
  8. 前記イベント及び前記アクションは、前記メモリのテーブルに記憶され、前記テーブルのエントリaは、或るイベントを或るアクションにマッピングする請求項7に記載のシステム。
  9. 前記イベント及び前記アクションは、前記メモリのテーブルに記憶され、前記テーブルの選択されたエントリajkは、イベントのシーケンスを或るアクションにマッピングする請求項7に記載のシステム。
  10. Figure 2006304297
    に従って前記エントリaを選択する手段をさらに備え、
    ここで、p[t]は、iに相当する特定の姿勢で前記カメラによって生成されるイベントのシーケンスであり、c[t]は、特定のコンテキストセンサjによって生成されるイベントのシーケンスであり、Rpcは、前記2つのイベントシーケンスp[t]とc[t]の間の相関であり、Rppは、前記イベントシーケンスp[t]の自己相関であり、tは、特定のイベントが検出される時間の瞬間である請求項8に記載のシステム。
  11. イベントが、所与の時間の瞬間にどのように一致するかに基づいて前記アクションを選択するために、
    Figure 2006304297
    に従って前記エントリaを選択する手段をさらに備え、
    ここで、p[t]は、iに相当する特定の姿勢で前記カメラによって生成されるイベントのシーケンスであり、c[t]は、特定のコンテキストセンサjによって生成されるイベントのシーケンスであり、‖ ‖演算子は、2値プロセス内のイベントを表し、∧は、ブール積集合演算子である請求項8に記載のシステム。
  12. 時間が遅延した前記イベントシーケンス間の動的関係をモデル化するために、
    Figure 2006304297
    に従って前記エントリajkを選択する手段をさらに備え、
    ここで、p[t]は、iに相当する特定の姿勢で前記カメラによって生成されるイベントのシーケンスであり、c[t]は、第1コンテキストセンサjによって生成されるイベントのシーケンスであり、c[t]は、第2コンテキストセンサkによって生成される後続のイベントのシーケンスであり、前記‖ ‖演算子は、2値プロセス内のイベントを表し、∧は、ブール積集合演算子であり、tは、時間の瞬間であり、Δtは、前記第1及び第2センサによってイベントを検出する間の特定の時間遅延である請求項9に記載のシステム。
  13. Figure 2006304297
    に従って前記エントリajkを選択する手段をさらに備え、
    ここで、p[t]は、iに相当する特定の姿勢で前記カメラによって生成されるイベントのシーケンスであり、c[t]は、第1コンテキストセンサjによって生成されるイベントのシーケンスであり、c[t]は、第2コンテキストセンサkによって生成される後続のイベントのシーケンスであり、前記‖ ‖演算子は、2値プロセス内のイベントを表し、∧は、ブール積集合演算子であり、tは、時間の瞬間であり、Δtは、特定の時間遅延であり、演算子∪は、前記検出したイベントにわたる和集合であり、δは、第1イベントと第2イベントの間の所定の期間である請求項9に記載のシステム。
JP2006111135A 2005-04-20 2006-04-13 環境内のイベントを検出する監視システム Expired - Fee Related JP4772572B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/110,528 2005-04-20
US11/110,528 US7619647B2 (en) 2005-04-20 2005-04-20 Context aware surveillance system using a hybrid sensor network

Publications (2)

Publication Number Publication Date
JP2006304297A true JP2006304297A (ja) 2006-11-02
JP4772572B2 JP4772572B2 (ja) 2011-09-14

Family

ID=37186428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006111135A Expired - Fee Related JP4772572B2 (ja) 2005-04-20 2006-04-13 環境内のイベントを検出する監視システム

Country Status (2)

Country Link
US (1) US7619647B2 (ja)
JP (1) JP4772572B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124023A (ja) * 2008-11-17 2010-06-03 Hitachi Kokusai Electric Inc 監視システム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070116458A1 (en) * 2005-11-18 2007-05-24 Mccormack Kenneth Methods and systems for operating a pan tilt zoom camera
CN102413274A (zh) * 2010-09-24 2012-04-11 鸿富锦精密工业(深圳)有限公司 影像监控设备及影像监控方法
US8743204B2 (en) 2011-01-07 2014-06-03 International Business Machines Corporation Detecting and monitoring event occurrences using fiber optic sensors
US9472072B2 (en) * 2012-05-04 2016-10-18 Honeywell International Inc. System and method of post event/alarm analysis in CCTV and integrated security systems
US10438277B1 (en) * 2014-12-23 2019-10-08 Amazon Technologies, Inc. Determining an item involved in an event
EP3354038A4 (en) 2015-09-25 2019-03-20 Qualcomm Incorporated SYSTEMS AND METHOD FOR VIDEO PROCESSING
US10839302B2 (en) 2015-11-24 2020-11-17 The Research Foundation For The State University Of New York Approximate value iteration with complex returns by bounding
WO2018081328A1 (en) * 2016-10-26 2018-05-03 Ring Inc. Customizable intrusion zones for audio/video recording and communication devices
US10891839B2 (en) 2016-10-26 2021-01-12 Amazon Technologies, Inc. Customizable intrusion zones associated with security systems
US10510239B1 (en) 2018-06-14 2019-12-17 Honeywell International Inc. Systems and methods for managing alert notifications from a secured area
US10964058B2 (en) * 2019-06-21 2021-03-30 Nortek Security & Control Llc Camera auto-calibration system
US20230319415A1 (en) * 2022-04-01 2023-10-05 Honeywell International Inc. Method and system for using a plurality of motion sensors to control a pan-tilt-zoom camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62164197A (ja) * 1986-01-16 1987-07-20 日立電線株式会社 防犯カメラの自動追尾方法
JPH04245598A (ja) * 1991-01-31 1992-09-02 Nohmi Bosai Ltd テレビジョン・カメラを用いた火源位置計測装置
JP2005026916A (ja) * 2003-06-30 2005-01-27 Casio Comput Co Ltd 撮影システム及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4857912A (en) * 1988-07-27 1989-08-15 The United States Of America As Represented By The Secretary Of The Navy Intelligent security assessment system
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
US5359363A (en) * 1991-05-13 1994-10-25 Telerobotics International, Inc. Omniview motionless camera surveillance system
US6697103B1 (en) * 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects
US6698021B1 (en) * 1999-10-12 2004-02-24 Vigilos, Inc. System and method for remote control of surveillance devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62164197A (ja) * 1986-01-16 1987-07-20 日立電線株式会社 防犯カメラの自動追尾方法
JPH04245598A (ja) * 1991-01-31 1992-09-02 Nohmi Bosai Ltd テレビジョン・カメラを用いた火源位置計測装置
JP2005026916A (ja) * 2003-06-30 2005-01-27 Casio Comput Co Ltd 撮影システム及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124023A (ja) * 2008-11-17 2010-06-03 Hitachi Kokusai Electric Inc 監視システム

Also Published As

Publication number Publication date
JP4772572B2 (ja) 2011-09-14
US7619647B2 (en) 2009-11-17
US20060238618A1 (en) 2006-10-26

Similar Documents

Publication Publication Date Title
JP4772572B2 (ja) 環境内のイベントを検出する監視システム
US7583815B2 (en) Wide-area site-based video surveillance system
Senior et al. Acquiring multi-scale images by pan-tilt-zoom control and automatic multi-camera calibration
US20220101012A1 (en) Automated Proximity Discovery of Networked Cameras
US7636105B2 (en) Method and apparatus for providing motion control signals between a fixed camera and a PTZ camera
JP5153302B2 (ja) 監視システムの性能を測定するためのコンピュータ実施される方法
US20120327246A1 (en) Automatic Multiscale Image Acquisition from a Steerable Camera
US8214082B2 (en) Nursing system
EP2531952B1 (en) System and method for 2d occupancy sensing
EP2093636A1 (en) Method for controlling an alarm management system
KR101403223B1 (ko) 무선 센서 네트워크를 통한 카메라 제어 방법 및 이를 위한시스템
US20040119819A1 (en) Method and system for performing surveillance
US10200621B1 (en) Automatic orientation of a camera in response to sensor data
WO2011002775A1 (en) Omni-directional intelligent autotour and situational aware dome surveillance camera system and method
JPWO2017057054A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20200013585A (ko) 복수의 카메라로부터 뷰를 결합하는 방법 및 카메라 시스템
KR20120124785A (ko) 물체의 이동 경로를 추적하는 물체 추적 시스템 및 그 방법
KR101290782B1 (ko) 지능적 다중 객체 추적 알고리즘 기반의 다중 ptz 카메라 제어 시스템 및 방법
CN100521736C (zh) 摄像机装置、摄像机系统及控制摄像机系统的方法
Fawzi et al. Embedded real-time video surveillance system based on multi-sensor and visual tracking
Aguilar-Ponce et al. A network of sensor-based framework for automated visual surveillance
Schiff et al. Automated intruder tracking using particle filtering and a network of binary motion sensors
Petitti et al. A distributed heterogeneous sensor network for tracking and monitoring
Wren et al. Automatic pan-tilt-zoom calibration in the presence of hybrid sensor networks
Ahmad et al. A taxonomy of visual surveillance systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110622

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees