JP2008172765A - 監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法 - Google Patents
監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法 Download PDFInfo
- Publication number
- JP2008172765A JP2008172765A JP2007307648A JP2007307648A JP2008172765A JP 2008172765 A JP2008172765 A JP 2008172765A JP 2007307648 A JP2007307648 A JP 2007307648A JP 2007307648 A JP2007307648 A JP 2007307648A JP 2008172765 A JP2008172765 A JP 2008172765A
- Authority
- JP
- Japan
- Prior art keywords
- tracklet
- track
- tracking
- computer
- implemented method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】本発明の方法及び装置は、一組のセンサにより取得されたイベントと一組のカメラにより取得された一連の画像とを保存する監視データベースを用いて物体を追跡する。
【解決手段】一組のセンサで感知された時間的、空間的に隣接する一連のイベントは、一組のトラックレットを形成する。各トラックレットは、トラック‐スタート、トラック‐ジョイン、トラックレット‐マージ、トラックレット‐エンドノードの何れかである終点を有する。センサのサブセットが選択され、サブセットに関連するトラックレットのサブセットが識別される。単一の開始トラックレットが選択され、開始トラックレットに時間的、空間的に隣接する一連のトラックレットが集められ、トラックレットグラフを作成する。トラック‐ジョインノードとトラック‐スプリットノードは、その環境におけるその物体のトラックを判別するために、曖昧さを除かれそのトラックグラフから除去される。
【選択図】図6
【解決手段】一組のセンサで感知された時間的、空間的に隣接する一連のイベントは、一組のトラックレットを形成する。各トラックレットは、トラック‐スタート、トラック‐ジョイン、トラックレット‐マージ、トラックレット‐エンドノードの何れかである終点を有する。センサのサブセットが選択され、サブセットに関連するトラックレットのサブセットが識別される。単一の開始トラックレットが選択され、開始トラックレットに時間的、空間的に隣接する一連のトラックレットが集められ、トラックレットグラフを作成する。トラック‐ジョインノードとトラック‐スプリットノードは、その環境におけるその物体のトラックを判別するために、曖昧さを除かれそのトラックグラフから除去される。
【選択図】図6
Description
本発明は、一般的に監視システムに関し、特に、或る環境における物体を追跡、識別するためのセンサと可動カメラとを含む監視システム及び方法に関する。
ビデオカメラと比較的簡単なセンサとは、大きな環境に対して混合様式の監視システムを構成することを可能にする。センサは物体を識別できないが、比較的小さな領域では、物体を検出できる。画像が利用可能であるときには、カメラによって入手されたビデオ(映像)の画像から識別を行うことができる。
そのようなシステムによって入手されたビデオを記憶或いは蓄積することは、多テラバイトのデータを超えることがある。明らかに、特定の物体に対して何カ月にも亘って収集された記憶データを、瞬時に検索することは、実際には不可能である。
従って、蓄積(記憶)された画像データ内で物体を追跡、識別するためのシステム及び方法を提供することが望ましい。
従来の監視システムでは、通常、人間、動物、車などの物体の追跡は、画像及びビデオ処理によって行われる。そのような監視システムの欠点は、特定の物体を追跡、識別することが必要なときに、物体をカメラによって観測することが必要なことである。しかしながら、多くの監視環境は、正確な操作に必要な完全な監視範囲を提供するために、多くのビデオカメラを必要とする。大量のビデオストリームは、正確に作動するために、監視システムでの演算負荷を増大させる。
本発明の目的は、様々なセンサ、カメラ及び監視データベースの混合されたネットワークを使用することにより、移動する物体(人々)を追跡して、識別するためのシステム及び方法を提供することである。
少数のPTZカメラは、監視下に置かれるべき環境に配置される。カメラの数が比較的少ないとしても、ビデオ(映像)データの量は、多テラバイトの記憶容量を超えることがあり得る。
ビデオカメラは、その環境の一部を監視できるだけである。このため、カメラだけで物体の追跡と識別とを行なうのは難しくなる。カメラの監視範囲が完全であっても、映像データを検索する時間は非実用的なものとなる。
従って、その環境は、またセンサの密度の高い配置構成を含み、それらのセンサは、本質的には、全ての公共領域をカバーする。イベントは、関連するセンサ識別と時間とを有する。これは、センサデータの総量をかなり小さくして、処理を簡単にする。個々の人間がカメラによって連続して見られないとしても、センサの起動イベントは、特定の個人を追跡するために、ビデオ画像に空間的及び時間的に相関づけられる。
本発明の実施の形態は、混合様式の監視システムを提供する。本システムは、多くの比較的簡単なセンサ及び比較的小数の可動カメラを含む。このことは、従来の監視システムと対比して、費用、複雑さ、ネットワーク帯域幅、記憶容量、及び処理時間を減少させる。
或る環境における物体は、センサからの利用可能な前後の(文脈)情報を使用してカメラにより追跡される。特定の物体の行跡(トラック)を瞬時に判別するために、何カ月にも亘って収集された前後の(文脈)情報を検索することができる。そして、物体を識別するのに、対応する物体の画像を使用できる。このようなことは、膨大な量の映像データの検索を必要とする従来の監視システムでは、実際には不可能である。
監視システム
図1に示されているように、本発明の実施の形態に従って追跡モジュールが実施される監視システムは、比較的大きなセット(組)のワイヤレス・ネットワークのセンサ(ドット)101と、比較的小さなセット(組)のパン‐ティルト‐ズーム(PTZ)カメラ(三角形)102とを含む。センサ対カメラの比率は、非常に大きく、例えば30:1以上の場合がある。
図1に示されているように、本発明の実施の形態に従って追跡モジュールが実施される監視システムは、比較的大きなセット(組)のワイヤレス・ネットワークのセンサ(ドット)101と、比較的小さなセット(組)のパン‐ティルト‐ズーム(PTZ)カメラ(三角形)102とを含む。センサ対カメラの比率は、非常に大きく、例えば30:1以上の場合がある。
センサ
センサは、モーション(運動)センサでもよく、またドアセンサ、昇降機センサ、熱センサ、圧力センサ、音響センサでもよい。赤外線センサなどのモーションセンサは、センサの付近での物体の動きを検出できる。ドアセンサは、典型的には戸口を通過する人を示すドア開閉イベントを検出できる。昇降機センサは、同様に、或る環境における人々の到着または出発を示すことができる。また、例えばトランスデューサやマイクロホン等の音響センサは、或る領域の活動を検出できる。センサは、その環境における光スイッチ、またはオフィス機器の電源スイッチに搭載することができる。また、マット(敷物)の圧力センサも、通過するトラフィックを示すことができる。また、環境への入口通路におけるバッジ読取り装置などのセキュリティセンサを組み込むことができる。
センサは、モーション(運動)センサでもよく、またドアセンサ、昇降機センサ、熱センサ、圧力センサ、音響センサでもよい。赤外線センサなどのモーションセンサは、センサの付近での物体の動きを検出できる。ドアセンサは、典型的には戸口を通過する人を示すドア開閉イベントを検出できる。昇降機センサは、同様に、或る環境における人々の到着または出発を示すことができる。また、例えばトランスデューサやマイクロホン等の音響センサは、或る領域の活動を検出できる。センサは、その環境における光スイッチ、またはオフィス機器の電源スイッチに搭載することができる。また、マット(敷物)の圧力センサも、通過するトラフィックを示すことができる。また、環境への入口通路におけるバッジ読取り装置などのセキュリティセンサを組み込むことができる。
各センサは比較的小さく、例えば、モーションセンサについては、3×5×6cmである。好適な実施の形態において、これらのセンサは、約10メータ以下の間隔で互いに離れて、公共領域に密に配置され、また天井、壁、或いは床に取り付けられる。なお、特定の環境及びその環境におけるトラフィックフロー(交通流)に合うように、センサの空間的配置と密度を適合させることができることに注意すべきである。例えば、高いトラフィック(交通)の地域は、低いトラフィックの地域よりも人口密度が高い。
本発明の一実施の形態では、そのセット(一組)のセンサは、工業規格IEEE802.15.4の無線信号を使用して、プロセッサ110(図1を参照)と通信する。これは、ジグビー(Zigbee)タイプのデバイスによって典型的に使用される物理層である。各電池式センサは、検出モードで約50μA、また通信時に46mAを消費する。起動による通信間隔は、約16ミリ秒である。また、センサは、ハードウェアに組み込まれてもよいし、或いは他の通信技術を使用してもよいことに注意すべきである。
イベントがセンサ101の何れかによって検出されるとき、そのイベントに対応するセンサ識別記号(SID)とタイムスタンプ(TS)が一斉送信されるか、或いは別の方法でプロセッサ110に送られる。プロセッサは、センサデータを監視データベースとしてメモリに記憶する。識別記号は、本来センサの配置場所、従って起動を引き起こしたイベントの配置場所を示す。イベントの記録を行うのには、僅かなバイト数を要するだけである。従って、映像データと比較すると、長期間に亘って収集されたセンサデータの総量は、本質的には、取るにたらないものである。
そのセット(一組)のカメラは、ビデオ(映像)データ(画像系列)を取得するのに使用される。画像は、カメラの固有カメラ識別記号(CIDまたは配置場所)とフレーム番号(FN)を有する。本明細書で使用されるように、フレーム番号は、時間と同義である。すなわち、フレーム番号から時間を直接的に計算することができる。さらに、データベースからの問い合わせの間、どんな時刻におけるセンサ近傍のシーン(場面)の可視部分についても計算できるように、あらゆる時刻が各カメラの一組のパン‐ティルト‐ズーム・パラメータに関連している。
カメラは、最大の監視範囲を提供するために、戦略的な配置場所(位置)、例えばその環境における全てのトラフィックがいつか通過しなければならない配置場所で、典型的には、天井に搭載される。如何なる一般的な方向にも、PTZカメラ102を向けて、焦点を合わせることが可能である。必ずしも必要ではないが、ビデオ画像を取得するために、イベントの検出により、近くの何れのビデオカメラをもセンサ近傍のシーンに向けることができる。少数の一連の画像すなわちイベントに関連するビデオクリップを検索するのに、関連するセンサのIDとTSを後で使用することができる。また、特定のカメラの近くのセンサの近傍で何らイベントが検出されない場合には、所要の記憶容量を減量させるために、画像収集を中断できることに注意すべきである。
特定のイベントを見つけたり、特定の物体のトラック(行跡)を見つけたりして、それらの物体を識別するために、何カ月もの操作に亘って取得された映像データを調べることは難題である。
トラックレット及びトラックレットグラフ
図2に示されているように、本発明の一実施の形態では、一組のトラックレット(トラック片)210が使用される。対応するトラックレットグラフ200が一組のトラックレット210から集められる。トラックレットは、一連の空間的に隣接しているセンサ101での一連の時間的に隣接しているイベントをリンクすることによって、形成される。トラックレットは、トラックレットグラフ210の基本の構成ブロックである。
図2に示されているように、本発明の一実施の形態では、一組のトラックレット(トラック片)210が使用される。対応するトラックレットグラフ200が一組のトラックレット210から集められる。トラックレットは、一連の空間的に隣接しているセンサ101での一連の時間的に隣接しているイベントをリンクすることによって、形成される。トラックレットは、トラックレットグラフ210の基本の構成ブロックである。
我々は、現在のイベントにリンクした直前の先行または後継イベントを見つける処理をコールする(呼び出す)。システムの性能を向上させるために、周期的にトラックレットのリンクと保存(記憶)とを行うことができる。例えば、1営業日の終わりに、或いは毎時間ごとにリンクと保存とを行うことができる。このように、検索を行うことが必要なとき、予め保存したトラックレットを容易に利用することが可能である。
組み立てられたトラックレットグラフ200では、トラックレットは、グラフのノードで接続された有向エッジである。そのグラフのノードは、各トラックレットのその直後のトラックレットまたは直前のトラックレットとの関係をコード化する。ノードは、次の4つのタイプの内の1つを持つことができる。すなわち、トラック‐スタート(開始)201、トラック‐ジョイン(結合)202、トラック‐スプリット(分岐)203、及びトラック‐エンド(終了)204である。
トラック‐スタート
トラック‐スタートノードは、所定時間間隔内に何れの先行イベントもそのセンサにリンクされることができないような、トラックレットにおける最初(第1)のイベントを表している。本明細書で使用されるように、「先行」は、隣接しているセンサでの以前のイベントを意味する。「時間間隔」は、歩行者が一つのセンサから隣接する次のセンサまで移動するのにかかる時間にほぼ制約できる。
トラック‐スタートノードは、所定時間間隔内に何れの先行イベントもそのセンサにリンクされることができないような、トラックレットにおける最初(第1)のイベントを表している。本明細書で使用されるように、「先行」は、隣接しているセンサでの以前のイベントを意味する。「時間間隔」は、歩行者が一つのセンサから隣接する次のセンサまで移動するのにかかる時間にほぼ制約できる。
トラック‐ジョイン
トラック‐ジョインノードは、所定時間間隔内にそのセンサにリンクさせることができる複数の先行イベントが存在するような、トラックレットグラフにおけるイベントを表す。すなわち、トラックレット‐ジョインノードは、複数の先行トラックレットが単一の後継トラックレットに収束することを表している。単一の有効な先行トラックレットは、それが現在のトラックレットに既にリンクされているので、存在することができない。
トラック‐ジョインノードは、所定時間間隔内にそのセンサにリンクさせることができる複数の先行イベントが存在するような、トラックレットグラフにおけるイベントを表す。すなわち、トラックレット‐ジョインノードは、複数の先行トラックレットが単一の後継トラックレットに収束することを表している。単一の有効な先行トラックレットは、それが現在のトラックレットに既にリンクされているので、存在することができない。
トラック‐スプリット
トラック‐スプリットノードは、所定時間間隔内にそのセンサにリンクさせることができる複数の後継トラックレットが存在するような、トラックレットにおけるイベントを表す。すなわち、トラックレット‐スプリットノードは、単一の先行トラックレットが複数の後継トラックレットへ分岐することを表している。単一の有効な後継トラックレットは、それが現在のトラックレットに既にリンクされているので、存在することができない。
トラック‐スプリットノードは、所定時間間隔内にそのセンサにリンクさせることができる複数の後継トラックレットが存在するような、トラックレットにおけるイベントを表す。すなわち、トラックレット‐スプリットノードは、単一の先行トラックレットが複数の後継トラックレットへ分岐することを表している。単一の有効な後継トラックレットは、それが現在のトラックレットに既にリンクされているので、存在することができない。
トラック‐エンド
トラック‐エンドノードは、所定時間間隔内に何れの後継イベントにもリンクできないような、トラックレットにおける最後のイベントを表している。全てのトラックレットは、一組のグラフを形成し、それらのグラフの各々は、物体が移動した実際のトラック(行跡)に関する固有の曖昧さを表している。
トラック‐エンドノードは、所定時間間隔内に何れの後継イベントにもリンクできないような、トラックレットにおける最後のイベントを表している。全てのトラックレットは、一組のグラフを形成し、それらのグラフの各々は、物体が移動した実際のトラック(行跡)に関する固有の曖昧さを表している。
トラックレットグラフは、ユーザにより課され得るか、または時間経過とともに「学習され得る」、時間的及び空間的な制約条件により集めることができるイベントに関連する一組のトラックレットである。
図2のトラックレットグラフには、2つの開始トラックレットがあり、それらは、その後単一のトラックに収束する。そして、収束されたトラックレットは、2度分岐して、4つのエンドポイント(終点)になる。トラックレットグラフは、我々が物体追跡のために使用するイベントの中心的な表示である。
延長トラックレットグラフ
物体がセンサネットワークの視界から見えなくなる場合における延長された追跡の目的のためにも、2つの空間的に隣接していて時間的にも隣接しているトラックレットグラフを集めることができる。このような状況は、追跡されている人々が廊下などの公共領域を抜け出して、オフィスなどの領域に進入するときの環境で頻繁に起こる。オフィスに入るイベントは、人が感知すなわち観測されなくなったとき、トラックレット‐エンドノードで先行トラックレットを終了させる。オフィスを出る際、その人を再び後継グラフで追跡できる。人がオフィスに入ると、その人は、例えば何時間もの長い期間の後にでも、退出しなければならないと思われる。この場合、空間的な制約条件は、厳密に実行され得るが、時間的な制約条件は緩和できる。
物体がセンサネットワークの視界から見えなくなる場合における延長された追跡の目的のためにも、2つの空間的に隣接していて時間的にも隣接しているトラックレットグラフを集めることができる。このような状況は、追跡されている人々が廊下などの公共領域を抜け出して、オフィスなどの領域に進入するときの環境で頻繁に起こる。オフィスに入るイベントは、人が感知すなわち観測されなくなったとき、トラックレット‐エンドノードで先行トラックレットを終了させる。オフィスを出る際、その人を再び後継グラフで追跡できる。人がオフィスに入ると、その人は、例えば何時間もの長い期間の後にでも、退出しなければならないと思われる。この場合、空間的な制約条件は、厳密に実行され得るが、時間的な制約条件は緩和できる。
先行グラフにおけるトラックレットのトラック‐エンドノードの一つが後継グラフにおけるトラックレットの少なくとも一つのトラックレット‐スタートノードのタイムスタンプよりも小さなタイムスタンプを有するという条件の下で、グラフが集められる。
センサの可視性の判別
本発明の一つの目標は、或るセンサの近傍の領域が複数のカメラの何れから見ることが出来るかを判別することである。これにより、ユーザに提示される無関係な画像の量を最小にする。
本発明の一つの目標は、或るセンサの近傍の領域が複数のカメラの何れから見ることが出来るかを判別することである。これにより、ユーザに提示される無関係な画像の量を最小にする。
この目標を実現するために、システムの全てのカメラがセンサの配置場所に較正される。我々のシステムでは、各センサは、そのカメラからセンサの起動を引き起こしたイベントを見えるようにする各カメラのさまざまなパン、ティルト及びズームのパラメータに関連している。各カメラのPTZパラメータが、カメラ方向の変更の度に、監視データベースに保存されるならば、トラックレットがセンサ起動毎にデータベースから検索されるときに、「可視」領域を、対応する時に各カメラのPTZパラメータと比較できる。カメラのPTZパラメータがセンサの可視領域に入ると、次に、センサの起動(イベント)が可視であると考えられ、対応するカメラからの一連の画像がビデオ証拠として検索される。以下に述べるように、この証拠は、続いて、ユーザインタフェースを使用したトラックレット選択プロセスの間、ユーザに表示される。
人間に誘導された追跡
我々が我々のシステムで解決する人間により誘導された追跡及び検索に関するタスクを簡単なシナリオで示すことができる。
我々が我々のシステムで解決する人間により誘導された追跡及び検索に関するタスクを簡単なシナリオで示すことができる。
ラップトップ型パソコンがオフィスから午後1時00分と午後2時00分との間に盗まれたと報告された。そのオフィスに対して利用可能な直接的カメラ監視範囲は無かった。ユーザは、その時間帯にオフィスを通過できた全ての人々を見つけ出し、そして可能ならば、彼らを識別し、或る個人をそのイベントに結びつける証拠を集める必要がある。そのような状況では、オペレータ(操作者)は、そのオフィスのドアで発生した全てのトラック(行跡)を識別し、全ての利用可能なビデオ証拠を調べることによって、その個人を識別することを欲するであろう。
混合様式のセンサネットワークでの物体追跡の一般原理
トラック‐スタートノード及びトラック‐エンドノードは、完全なトラック(行跡)の明確な始めと終わりである。ところで、トラック‐スプリット(行跡分岐)とトラック‐ジョイン(行跡結合)の曖昧さの自動的解決は、感知されたイベントのみを使用するだけでは不可能である。スプリット(分岐)とジョイン(結合)の曖昧さは、センサにおける、或いは、センサの近くのイベント以外の如何なる特徴へのセンサネットワークの知覚的限界のためである。
トラック‐スタートノード及びトラック‐エンドノードは、完全なトラック(行跡)の明確な始めと終わりである。ところで、トラック‐スプリット(行跡分岐)とトラック‐ジョイン(行跡結合)の曖昧さの自動的解決は、感知されたイベントのみを使用するだけでは不可能である。スプリット(分岐)とジョイン(結合)の曖昧さは、センサにおける、或いは、センサの近くのイベント以外の如何なる特徴へのセンサネットワークの知覚的限界のためである。
そのような状況では、2人の人間が廊下で通路を横断するイベントは、システムに、可能な交差点の前後で各人に対するイベントを含む少なくとも4つのトラックレットを発生させる。更なる情報がなければ、このセット(組)のトラックレットの解釈には、固有の曖昧さがある。例えば、その2人の人間は、互いに行き違うか、或いは出会って彼らが来た道を引き返すことができる。これらのトラック(行跡)に対するアイデンティティ(同一性)をマップ化して、絶対確実にそれらの連続性を維持することは、それらのイベントだけからでは不可能である。
これらの曖昧さの見地から、我々は、以下のように簡素化して観測を行う。
ユーザは、グラフ全体の曖昧さを除く必要がない。ユーザは、前方または後方のグラフ横断に対して、選択されたトラックレットを開始するトラック‐ジョインノードの曖昧さを除いたり、或いは、トラックレットを終了させるトラック‐スプリットノードの曖昧さを除いたりすることがそれぞれ必要になるだけである。
各候補トラックに関連するビデオクリップを考慮に入れることによって、トラック‐ジョイン及びトラック‐スプリットの曖昧さを解決することを簡素化できる。
第1の観測は、トラックに集められるべき可能な候補であるとみなされる必要があるトラックレットの量をかなり減量させる。一実施の形態では、ユーザは、1度に一人のみを追跡する。従って、システムは、効果的に他のイベントを無視しつつ、その人の行動を解決(分析)するだけでよい。通路で交差する2人の人間の例に対して、我々は、1つのトラックレットが交差点の前に選択され、4つ全てではなく、2つのトラックレットだけが、可能な連続であるとみなされる必要があると仮定する。追跡及びトラックの曖昧さの解消への、この繰り返しフォーカスされた手法で、私たちは、問題の複雑さを潜在的に指数型から線形(一次関数)へ減少させることができる。
第2の観測は、スプリット−ジョイン(分岐−結合)の曖昧さが生じるとき、システムがトラックレットの時間と配置場所とを直近のカメラからのビデオと相関させて、集合トラックに対して何れのトラックレットが可能性の高い連続であるかを決定するために、対応するビデオクリップをユーザに表示することができることを意味する。
センサのネットワークだけを使用することにより、物体の動きの力学(動態)を推測するのを試みる自動追跡手順を開発することが可能であるかもしれない。しかし、如何なるそのような処理手順も誤りを犯すことは不可避である。監視アプリケーションでは、若干不正確なだけの追跡処理の結果に対するコミットメント(関与、取り組み、対応)は、かなり高価になる場合がある。
従って、我々の追尾方式は、追跡データを表している基本的な前後の(文脈)情報としてのトラックレットグラフと共に、人間に誘導された技術を使用する。追跡及び検索が基づいているセンサデータが非常に小さく、従って、特に映像データの従来の検索と比較すると、速やかに処理を進めることができることに注意すべきである。
我々のシステムの主眼とすることは、イベントを使用することにより非常に短時間で効率的に多量の映像データを検索することである。このために、我々は、主としてフォールスネガティブレート(偽陰性率)を小さくすることに関心があるが、フォールスポジティブレート(偽陽性率)を小さくすることが遠い二次的目標である。これらの目標を実現するために、我々は、以下に述べるようなトラック集合用の機構を採用する。
トラックレット集合処理
我々のシステムの人間に誘導された追跡のプロセスは、我々が開始すべきトラックと予想する一つまたは複数のセンサのサブセット(部分集合)と、任意ではあるが、時間間隔と、を選択することで始まる。例えば、我々のシステムでは、センサがオフィスの外側の公共領域に配置される場合、ユーザは、人が特定のオフィスを出るときに恐らく起動されうるフロアープラン(床配置図)を使用してそのセンサのサブセット(部分集合)を選択できる。
我々のシステムの人間に誘導された追跡のプロセスは、我々が開始すべきトラックと予想する一つまたは複数のセンサのサブセット(部分集合)と、任意ではあるが、時間間隔と、を選択することで始まる。例えば、我々のシステムでは、センサがオフィスの外側の公共領域に配置される場合、ユーザは、人が特定のオフィスを出るときに恐らく起動されうるフロアープラン(床配置図)を使用してそのセンサのサブセット(部分集合)を選択できる。
イベントのデータベースにおける高速検索を行なうことによって、我々は、選択されたセンサの1つに起因したトラックレットのあらゆる例を識別できる。ここで、ユーザは、さらに詳細に探査を行うために、トラックレットの単一の例を選択できる。トラックが開始されるおおよその時点を特定することによって、上記の検索を速めることができる。
第1のトラックレットを選択すると、対応するトラックレットグラフが構成される。集められたトラックのグラフは、時間的及び空間的に隣接する一連のイベントに関連する複数のトラックレットを含む。選択されたトラックレットは、図3に示されているように、エンド(終了)、スプリット(分岐)またはノード(結合)があるところのポイント(地点)まで床配置図上に描かれる。エンドポイント(終点)に到達すると、トラック300は完成する。床配置図においてトラック300に沿った人の場所が、トラック300で太線301により、ユーザインタフェースに視覚的に示される。
トラックレットのエンド(終端)がスプリット(分岐)ノード或いはジョイン(結合)ノードを有するならば、トラックは終了されず、候補トラックレットを、一貫性を有するトラックへ集めるために複数のトラックレットグラフを使用してトラックレット集合処理が繰り返して行われる。このプロセスの間、グラフ中の各曖昧(不明瞭)点(スプリットノードまたはジョインノード)で、ユーザは、さらに横断するためのサブグラフを選択する。人々を識別して、正しい後継トラックレットを選択するために、対応するトラックレットに属するセンサ起動の何れかに指向されたカメラからの利用可能なビデオ画像を表示することができる。また、物体や顔の認証などの自動化技術を、上述の識別のために使用できる。
その処理は、選択グラフを使用して図4に示されている。選択グラフでは、ビデオ画像401は、対応する複数のトラックレットに含まれている複数のセンサへ指向された複数のカメラからの利用可能な複数のビデオクリップを表している。菱形410は、曖昧ポイント(点)、及びその曖昧ポイントに続く可能な競合トラックレットを示す。そのグラフにおけるエッジは、トラックレットが存在することを示す。
なお、図4のトラックレット選択グラフは、図2のトラックレットグラフに関連するが、それと同一ではない。事実、図4のグラフは、一般的な選択グラフを表しており、それは、時間的に前方(図示されるように)或いは後方へのトラックレットグラフの横断のために使用できる。前者の場合には、図4における選択グラフのスタート(開始)及びエンド(終了)ノードは、トラックレットグラフにおけるそれらと同じ意味を持っているが、菱形のみは、スプリット(分岐)を表している。トラック‐ジョインは、前進の選択代替策を提示しないので、前進の選択プロセスとは無関係である。対照的に、選択グラフが後方の横断のために使用される場合には、選択グラフのスタート及びエンドノードは、トラックレットグラフのものと反対の意味を有し、菱形のみがジョイン(結合)を表している。
いずれの場合でも、トラックレット選択グラフは、最初に選択されたトラックレットで始まり、スタートノード201で示される利用可能なカメラフレーム401を横断可能な、トラックレットグラフによる一組のトラックを表している。曖昧ポイント(点)は、既知であるので、そのような各ポイントでは、システムは、曖昧さの解消のために、曖昧なトラックレットのセットをユーザに提示できる。
例えば、第1ステップでは、曖昧ポイント410は、現在のノードからのスリーウェイスプリット(三方向分岐)を表している。最も左側のトラックレットは、2つのカメラ視界431につながる。中央のトラックレットは、カメラ視界を持たずに終わる。3番目のトラックレットは、1つのカメラ視界を持っており、次に、ツーウェイスプリット(二方向分岐)につながる。これらのトラックレットの各々を床配置図に描くことができる。選択が行われた後、拒絶されたトラックレットは、床配置図から取り除かれる。エンド(終了)‐トラック204に出会うまで、処理が続けられる。
トラックの終端に遭遇するとき、トラック集合処理のプロセスを終了することができる。しかし、ユーザに実際のトラックが終了ポイントから続くと信じる理由があるならば、前述のようなトラックレットグラフ拡張機構が使用される。システムは、終了されたトラックの位置で始まる新しいトラックレットを見出すために、所定時間間隔内でデータベースの検索を行なう。そのようなトラックレットを見出すなら、以下に述べるように、対応するビデオクリップが識別され、トラックレット選択コントロールパネルにおいてユーザに表示される。ユーザがトラックの延長された線分に対して最初のトラックを選択すると、集められたトラックの終端にトラックレットが追加され、その選択されたトラックレットで始まる新しいトラックレットグラフが作成される。その後、その物体の完全なトラックをさらに延長するために、選択プロセスが、前述と同様に、繰り返して続けられる。完全なトラックでは、全てのジョイン及びスプリットノードが取り除かれ、トラックは、単一の開始トラックレットと単一の終了トラックレットとを含むのみである。
ユーザインタフェース
図5に示されるように、一実施の形態では、ユーザインタフェースは、5つのメインパネル、すなわち、床配置図501、タイムライン(時系列)502、ビデオクリップビン(記憶装置)503、トラックレットセレクタ504、及びカメラ視界パネル505を含む。
図5に示されるように、一実施の形態では、ユーザインタフェースは、5つのメインパネル、すなわち、床配置図501、タイムライン(時系列)502、ビデオクリップビン(記憶装置)503、トラックレットセレクタ504、及びカメラ視界パネル505を含む。
床配置図は、図3に示されている通りである。床配置図のトラック300に沿った人の位置が、トラック300における「膨れ」301(破線)により示される。各センサに対して、タイムライン502は、イベントを示す。タイムラインにおける各列は、一つのセンサに対応しており、時間は、左から右に進む。垂直線510は、「現在」の再生時間を示す。現在時刻を設定するために、メニュー及びアイコン520を使用できる。再生のスピードを調整するために、「ノブ」521を使用できる。マウスで線をドラッグすることによって、タイムラインを前方及び後方に移動できる。短い線分200は、トラックレット、また、線300は、解決されたトラックをそれぞれ表す、図3を参照。
ビデオクリップビンは、物体識別のために選択されたクリップ(画像系列)の画像を示している。本質的には、ビデオクリップビンにおけるトラックに関連する収集された一連の画像は、トラックと物体に関連するビデオ証拠である。
トラックレット選択制御は、図4の決定グラフの現状を示している。
現在時刻及び選択された位置に対応する画像がカメラ視界パネル505に示されている。画像は、ユーザにより選択されるか、或いはカメラスケジューリング処理手順により自動的に選択されることができる。ビデオクリップビン503を形成するために、クリップの再生の間に、スケジューリング処理手順を呼び出すことができる。
追跡方法
本発明の実施の形態では、追跡プロセスは、二つの相を含む。すなわち、物体を追跡するために、監視データを記録する相と、及び検索する相とである。
本発明の実施の形態では、追跡プロセスは、二つの相を含む。すなわち、物体を追跡するために、監視データを記録する相と、及び検索する相とである。
記録相は、図6に示されている。図6は、監視データベース611におけるセンサデータを保存する方法を示している。監視データベースは、一組のセンサ101によって取得されたイベント103を保存する。センサの選択されたサブセット(部分集合)に対して時間的及び空間的に隣接している一連のイベントは、一組のトラックレット631を形成するようにリンク630されている(繋がっている)。各トラックレットには、トラックレット‐スタートノードとトラックレット‐エンドノードがある。また、トラックレットは、監視データベースに保存される。
センサ起動と同時に、一組のカメラ102によって取得された画像104の順序がコンピュータ記憶装置612に記録される。各イベント及び画像は、1つのカメラ(位置)と時間とに関連付けられている。なお、前述と同様に、カメラのPTZパラメータを判別することもできる。
追跡相は、図7に示されている。この相は、トラックが発生すると予想されるセンサのサブセット(部分集合)を選択し620、複数のトラックの始まりとして使用されうる複数のトラックレットを見つけ出し625、トラックの開始として第1のトラックレットを選択し640、およびトラック集合処理680を行うことを含む。
トラック集合処理は、選択されたトラックレットに対してトラックレットグラフ651を構成する650ことで始まる。トラックレットグラフ651は、複数の先行トラックレットが単一の後継トラックレットに合流するところの可能なトラックレット‐ジョインノードと、単一の先行トラックレットが複数のトラックレットに分岐するところの可能なトラックレット‐スプリットノードとを有する。
トラックレットグラフ651は、最初に選択されたトラックレットから始めて、繰り返し横断される。そのグラフに続いて、次の曖昧なノードが識別され、候補トラックレットに含まれるセンサ起動(イベント)に時間的及び空間的に相関づけられた画像がコンピュータ記憶装置612から検索され、表示660され、そして、集められたトラック661に結合されるべき次のトラックレット670が選択される670。
その処理は、集められたトラック661がそのエンドポイントとしてトラック‐エンドノードを有するトラックレットで終了されるときに終わり、そして、そのグラフから全てのジョイン及びスプリットノードが取り除かれている。
本発明は、好適な実施の形態を例に挙げて説明したが、本発明の精神及び範囲内で種々の他の改変及び変更を行うことができることを理解すべきである。従って、添付クレームの目的は、本発明の真実の精神及び範囲に含まれるような全ての変形例及び変更例をカバーすることである。
Claims (19)
- 監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法であって、前記監視データベースは、一組のセンサによって取得されたイベントと一組のカメラによって取得された一連の画像とを保存し、また各イベントと画像とは、関連づけられた位置と時間とを有し、
前記方法は、
前記一組のセンサにより感知された、時間的及び空間的に隣接する一連のイベント同士を関連づけて、一組のトラックレットを形成する工程であって、各トラックレットは、トラック‐スタートノード、トラック‐ジョインノード或いはトラックレット‐スプリットノードで始まって、トラック‐エンドノード、前記トラックレット‐ジョインノード或いは前記トラックレット‐スプリットノードで終わり、前記トラックレット‐ジョインノードは、複数の先行トラックレットが単一の後継トラックレットに合流するところで生じ、前記トラックレット‐スプリットノードは、単一の先行トラックレットが複数の後継トラックレットに分岐するところで生じる工程と;
センサのサブセットを選択する工程と;
前記センサのサブセットに関連づけられているトラックレットのサブセットを識別する工程と;
前記トラックレットのサブセットから単一のトラックレットを開始トラックレットとして選定する工程と;
前記開始トラックレットに時間的及び空間的に隣接する全てのトラックレットを集めて、トラックレットグラフを作成する工程と;
前記トラック‐ジョインノードと前記トラック‐スプリットノードとの曖昧さを除いて、前記トラックレットグラフから除去して環境における物体のトラックを判別する工程と;
を備えたことを特徴とする監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。 - 前記曖昧さを除く工程は、さらに、物体を識別するために、前記トラックレットグラフの前記イベントに時間的及び空間的に関連する利用可能な画像を表示する工程を含むことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記センサは、赤外線モーションセンサであり、また前記カメラは、可動であることを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記センサは、前記イベントを伝送するためにワイヤレス送信機を使用することを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- イベントが特定のカメラの視界にセンサによって検出されるときにのみ、一連の画像を検索する工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 特定のイベントが感知されるときに、前記特定のカメラを前記特定のセンサの一般的近傍に指向させる工程をさらに備えたことを特徴とする請求項5に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記集合化が時間的及び空間的な制約条件に従って行なわれることを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記時間的及び空間的な制約条件は、ユーザによって選択されることを特徴とする請求項7に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記時間的及び空間的な制約条件は、時間経過とともに学習されることを特徴とする請求項7に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記環境の床配置図上に前記トラックを描く工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 特定の順序の画像を前記トラックレットと対応させる工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記トラックに関連づけられた特定の一連の画像を、前記トラックと物体に関連するビデオ証拠として収集する工程をさらに備えたことを特徴とする請求項11に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 如何なる所定の時でもカメラでセンサを識別する工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 一連の画像における可視の特定のイベントを識別する工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- ビデオ証拠を可視のセンサ起動に対応する画像だけに減少させる工程をさらに備えたことを特徴とする請求項14に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 前記関連づける工程は、周期的に行なわれ、また一組のトラックレットは、監視データベースに予め記憶されることを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
- 監視データベースを使用して、物体を追跡するためのシステムであって、前記監視データベースは、一組のセンサによって取得されたイベントと一組のカメラによって取得された一連の画像とを保存し、また各イベントと画像とは、関連づけられた位置と時間とを有し、
前記システムは、
前記一組のセンサにより感知された、時間的及び空間的に隣接する一連のイベント同士を関連づけて、一組のトラックレットを形成する手段であって、各トラックレットは、トラック‐スタートノード、トラック‐ジョインノード或いはトラックレット‐スプリットノードで始まって、トラック‐エンドノード、前記トラックレット‐ジョインノード或いは前記トラックレット‐スプリットノードで終わり、前記トラックレット‐ジョインノードは、複数の先行トラックレットが単一の後継トラックレットに合流するところで生じ、前記トラックレット‐スプリットノードは、単一の先行トラックレットが複数の後継トラックレットに分岐するところで生じる手段と;
開始トラックレットを選択する手段と;
センサのサブセットを選択するユーザインタフェースと;
前記開始トラックレットに時間的及び空間的に隣接する全てのトラックレットを集めて、トラックレットグラフを作成する手段と;
前記トラック‐ジョインノードと前記トラック‐スプリットノードとの曖昧さを除いて、前記トラックレットグラフから除去して環境における物体のトラックを判別する手段と;
を備えたことを特徴とする監視データベースを使用して物体を追跡するためのシステム。 - 前記曖昧さを除くことは、前記物体を識別するために、前記トラックレットグラフの前記イベントに時間的及び空間的に関連する利用可能な画像を表示する手段をさらに備えたことを特徴とする請求項17に記載の監視データベースを使用して物体を追跡するためのシステム。
- 前記センサは、赤外線モーションセンサであり、また前記カメラは、可動であることを特徴とする請求項18に記載の監視データベースを使用して物体を追跡するためのシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/565,264 US20080130949A1 (en) | 2006-11-30 | 2006-11-30 | Surveillance System and Method for Tracking and Identifying Objects in Environments |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008172765A true JP2008172765A (ja) | 2008-07-24 |
Family
ID=39475811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007307648A Withdrawn JP2008172765A (ja) | 2006-11-30 | 2007-11-28 | 監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20080130949A1 (ja) |
JP (1) | JP2008172765A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101441107B1 (ko) | 2013-04-29 | 2014-09-23 | 주식회사 에스원 | 승강기내 이상 행동 판별 방법 및 그 장치 |
Families Citing this family (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6658091B1 (en) | 2002-02-01 | 2003-12-02 | @Security Broadband Corp. | LIfestyle multimedia security system |
US11677577B2 (en) | 2004-03-16 | 2023-06-13 | Icontrol Networks, Inc. | Premises system management using status signal |
US10375253B2 (en) | 2008-08-25 | 2019-08-06 | Icontrol Networks, Inc. | Security system with networked touchscreen and gateway |
US9729342B2 (en) | 2010-12-20 | 2017-08-08 | Icontrol Networks, Inc. | Defining and implementing sensor triggered response rules |
US10444964B2 (en) | 2007-06-12 | 2019-10-15 | Icontrol Networks, Inc. | Control system user interface |
US20090077623A1 (en) | 2005-03-16 | 2009-03-19 | Marc Baum | Security Network Integrating Security System and Network Devices |
US10142392B2 (en) | 2007-01-24 | 2018-11-27 | Icontrol Networks, Inc. | Methods and systems for improved system performance |
US8963713B2 (en) | 2005-03-16 | 2015-02-24 | Icontrol Networks, Inc. | Integrated security network with security alarm signaling system |
US11343380B2 (en) | 2004-03-16 | 2022-05-24 | Icontrol Networks, Inc. | Premises system automation |
US11368429B2 (en) | 2004-03-16 | 2022-06-21 | Icontrol Networks, Inc. | Premises management configuration and control |
US11113950B2 (en) | 2005-03-16 | 2021-09-07 | Icontrol Networks, Inc. | Gateway integrated with premises security system |
US12063220B2 (en) | 2004-03-16 | 2024-08-13 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US20170118037A1 (en) | 2008-08-11 | 2017-04-27 | Icontrol Networks, Inc. | Integrated cloud system for premises automation |
US20160065414A1 (en) | 2013-06-27 | 2016-03-03 | Ken Sundermeyer | Control system user interface |
US11582065B2 (en) | 2007-06-12 | 2023-02-14 | Icontrol Networks, Inc. | Systems and methods for device communication |
US7711796B2 (en) | 2006-06-12 | 2010-05-04 | Icontrol Networks, Inc. | Gateway registry methods and systems |
US9191228B2 (en) | 2005-03-16 | 2015-11-17 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US10382452B1 (en) | 2007-06-12 | 2019-08-13 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11159484B2 (en) | 2004-03-16 | 2021-10-26 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
US11916870B2 (en) | 2004-03-16 | 2024-02-27 | Icontrol Networks, Inc. | Gateway registry methods and systems |
US10522026B2 (en) | 2008-08-11 | 2019-12-31 | Icontrol Networks, Inc. | Automation system user interface with three-dimensional display |
US10156959B2 (en) | 2005-03-16 | 2018-12-18 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US9141276B2 (en) | 2005-03-16 | 2015-09-22 | Icontrol Networks, Inc. | Integrated interface for mobile device |
US11489812B2 (en) | 2004-03-16 | 2022-11-01 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
US10237237B2 (en) | 2007-06-12 | 2019-03-19 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11244545B2 (en) | 2004-03-16 | 2022-02-08 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US11316958B2 (en) | 2008-08-11 | 2022-04-26 | Icontrol Networks, Inc. | Virtual device systems and methods |
US10200504B2 (en) | 2007-06-12 | 2019-02-05 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US10339791B2 (en) | 2007-06-12 | 2019-07-02 | Icontrol Networks, Inc. | Security network integrated with premise security system |
US10721087B2 (en) | 2005-03-16 | 2020-07-21 | Icontrol Networks, Inc. | Method for networked touchscreen with integrated interfaces |
US11277465B2 (en) | 2004-03-16 | 2022-03-15 | Icontrol Networks, Inc. | Generating risk profile using data of home monitoring and security system |
US11811845B2 (en) | 2004-03-16 | 2023-11-07 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11201755B2 (en) | 2004-03-16 | 2021-12-14 | Icontrol Networks, Inc. | Premises system management using status signal |
US9609003B1 (en) | 2007-06-12 | 2017-03-28 | Icontrol Networks, Inc. | Generating risk profile using data of home monitoring and security system |
US8988221B2 (en) | 2005-03-16 | 2015-03-24 | Icontrol Networks, Inc. | Integrated security system with parallel processing architecture |
US8635350B2 (en) | 2006-06-12 | 2014-01-21 | Icontrol Networks, Inc. | IP device discovery systems and methods |
GB2428821B (en) | 2004-03-16 | 2008-06-04 | Icontrol Networks Inc | Premises management system |
US10313303B2 (en) | 2007-06-12 | 2019-06-04 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
US9531593B2 (en) | 2007-06-12 | 2016-12-27 | Icontrol Networks, Inc. | Takeover processes in security network integrated with premise security system |
WO2006034135A2 (en) | 2004-09-17 | 2006-03-30 | Proximex | Adaptive multi-modal integrated biometric identification detection and surveillance system |
US10999254B2 (en) | 2005-03-16 | 2021-05-04 | Icontrol Networks, Inc. | System for data routing in networks |
US11700142B2 (en) | 2005-03-16 | 2023-07-11 | Icontrol Networks, Inc. | Security network integrating security system and network devices |
US20110128378A1 (en) | 2005-03-16 | 2011-06-02 | Reza Raji | Modular Electronic Display Platform |
US9306809B2 (en) | 2007-06-12 | 2016-04-05 | Icontrol Networks, Inc. | Security system with networked touchscreen |
US11615697B2 (en) | 2005-03-16 | 2023-03-28 | Icontrol Networks, Inc. | Premise management systems and methods |
US11496568B2 (en) | 2005-03-16 | 2022-11-08 | Icontrol Networks, Inc. | Security system with networked touchscreen |
US20170180198A1 (en) | 2008-08-11 | 2017-06-22 | Marc Baum | Forming a security network including integrated security system components |
US20120324566A1 (en) | 2005-03-16 | 2012-12-20 | Marc Baum | Takeover Processes In Security Network Integrated With Premise Security System |
US7703996B1 (en) | 2006-03-13 | 2010-04-27 | Sti, Inc. | Surveillance unit and method of use thereof |
US12063221B2 (en) | 2006-06-12 | 2024-08-13 | Icontrol Networks, Inc. | Activation of gateway device |
US10079839B1 (en) | 2007-06-12 | 2018-09-18 | Icontrol Networks, Inc. | Activation of gateway device |
US11706279B2 (en) | 2007-01-24 | 2023-07-18 | Icontrol Networks, Inc. | Methods and systems for data communication |
US7633385B2 (en) | 2007-02-28 | 2009-12-15 | Ucontrol, Inc. | Method and system for communicating with and controlling an alarm system from a remote server |
US7777783B1 (en) * | 2007-03-23 | 2010-08-17 | Proximex Corporation | Multi-video navigation |
US8451986B2 (en) | 2007-04-23 | 2013-05-28 | Icontrol Networks, Inc. | Method and system for automatically providing alternate network access for telecommunications |
US11646907B2 (en) | 2007-06-12 | 2023-05-09 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10389736B2 (en) | 2007-06-12 | 2019-08-20 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10666523B2 (en) | 2007-06-12 | 2020-05-26 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11237714B2 (en) | 2007-06-12 | 2022-02-01 | Control Networks, Inc. | Control system user interface |
US11218878B2 (en) | 2007-06-12 | 2022-01-04 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11212192B2 (en) | 2007-06-12 | 2021-12-28 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11089122B2 (en) | 2007-06-12 | 2021-08-10 | Icontrol Networks, Inc. | Controlling data routing among networks |
US10523689B2 (en) | 2007-06-12 | 2019-12-31 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11423756B2 (en) | 2007-06-12 | 2022-08-23 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11316753B2 (en) | 2007-06-12 | 2022-04-26 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10616075B2 (en) | 2007-06-12 | 2020-04-07 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US20180198788A1 (en) * | 2007-06-12 | 2018-07-12 | Icontrol Networks, Inc. | Security system integrated with social media platform |
US10051078B2 (en) | 2007-06-12 | 2018-08-14 | Icontrol Networks, Inc. | WiFi-to-serial encapsulation in systems |
US12003387B2 (en) | 2012-06-27 | 2024-06-04 | Comcast Cable Communications, Llc | Control system user interface |
US10423309B2 (en) | 2007-06-12 | 2019-09-24 | Icontrol Networks, Inc. | Device integration framework |
US10498830B2 (en) | 2007-06-12 | 2019-12-03 | Icontrol Networks, Inc. | Wi-Fi-to-serial encapsulation in systems |
US11601810B2 (en) | 2007-06-12 | 2023-03-07 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10223903B2 (en) | 2010-09-28 | 2019-03-05 | Icontrol Networks, Inc. | Integrated security system with parallel processing architecture |
US11831462B2 (en) | 2007-08-24 | 2023-11-28 | Icontrol Networks, Inc. | Controlling data routing in premises management systems |
JP2011510521A (ja) * | 2007-09-12 | 2011-03-31 | ディジセンサリー・テクノロジーズ・プロプライアタリー・リミテッド | チップ上スマート・ネットワーク・カメラ・システム |
US20090077214A1 (en) * | 2007-09-17 | 2009-03-19 | Honeywell International Inc. | System for fusing information from assets, networks, and automated behaviors |
US20090138521A1 (en) * | 2007-09-17 | 2009-05-28 | Honeywell International Inc. | Method and system for sharing information between disparate data sources in a network |
US11916928B2 (en) | 2008-01-24 | 2024-02-27 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US20090265105A1 (en) * | 2008-04-21 | 2009-10-22 | Igt | Real-time navigation devices, systems and methods |
US20170185278A1 (en) | 2008-08-11 | 2017-06-29 | Icontrol Networks, Inc. | Automation system user interface |
US11792036B2 (en) | 2008-08-11 | 2023-10-17 | Icontrol Networks, Inc. | Mobile premises automation platform |
US11258625B2 (en) | 2008-08-11 | 2022-02-22 | Icontrol Networks, Inc. | Mobile premises automation platform |
US11758026B2 (en) | 2008-08-11 | 2023-09-12 | Icontrol Networks, Inc. | Virtual device systems and methods |
US11729255B2 (en) | 2008-08-11 | 2023-08-15 | Icontrol Networks, Inc. | Integrated cloud system with lightweight gateway for premises automation |
US10530839B2 (en) | 2008-08-11 | 2020-01-07 | Icontrol Networks, Inc. | Integrated cloud system with lightweight gateway for premises automation |
US8638211B2 (en) | 2009-04-30 | 2014-01-28 | Icontrol Networks, Inc. | Configurable controller and interface for home SMA, phone and multimedia |
AU2011250886A1 (en) | 2010-05-10 | 2013-01-10 | Icontrol Networks, Inc | Control system user interface |
GB2482127B (en) * | 2010-07-19 | 2015-01-14 | Ipsotek Ltd | Apparatus, system and method |
US8836467B1 (en) | 2010-09-28 | 2014-09-16 | Icontrol Networks, Inc. | Method, system and apparatus for automated reporting of account and sensor zone information to a central station |
US11750414B2 (en) | 2010-12-16 | 2023-09-05 | Icontrol Networks, Inc. | Bidirectional security sensor communication for a premises security system |
US9147337B2 (en) | 2010-12-17 | 2015-09-29 | Icontrol Networks, Inc. | Method and system for logging security event data |
US20130101159A1 (en) * | 2011-10-21 | 2013-04-25 | Qualcomm Incorporated | Image and video based pedestrian traffic estimation |
EP2690523A3 (en) * | 2012-07-23 | 2016-04-20 | Sony Mobile Communications AB | Method and system for monitoring state of an object |
US9369677B2 (en) * | 2012-11-30 | 2016-06-14 | Qualcomm Technologies International, Ltd. | Image assistance for indoor positioning |
JP5506990B1 (ja) | 2013-07-11 | 2014-05-28 | パナソニック株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
US9651656B2 (en) * | 2014-02-28 | 2017-05-16 | Tyco Fire & Security Gmbh | Real-time location system in wireless sensor network |
US10878323B2 (en) | 2014-02-28 | 2020-12-29 | Tyco Fire & Security Gmbh | Rules engine combined with message routing |
US10268485B2 (en) | 2014-02-28 | 2019-04-23 | Tyco Fire & Security Gmbh | Constrained device and supporting operating system |
US11405463B2 (en) | 2014-03-03 | 2022-08-02 | Icontrol Networks, Inc. | Media content management |
US11146637B2 (en) | 2014-03-03 | 2021-10-12 | Icontrol Networks, Inc. | Media content management |
US10075623B2 (en) * | 2015-03-30 | 2018-09-11 | Myriad Sensors, Inc. | Synchronizing wireless sensor data and video |
JP5915960B1 (ja) | 2015-04-17 | 2016-05-11 | パナソニックIpマネジメント株式会社 | 動線分析システム及び動線分析方法 |
US9582895B2 (en) * | 2015-05-22 | 2017-02-28 | International Business Machines Corporation | Real-time object analysis with occlusion handling |
CN106791586A (zh) * | 2015-11-19 | 2017-05-31 | 杭州海康威视数字技术股份有限公司 | 一种对移动目标进行监控的方法及监控设备、装置、系统 |
US20180376058A1 (en) * | 2015-12-02 | 2018-12-27 | Canon Kabushiki Kaisha | Display processing apparatus, display processing method, and computer-readable medium for executing display processing method |
GB2545658A (en) * | 2015-12-18 | 2017-06-28 | Canon Kk | Methods, devices and computer programs for tracking targets using independent tracking modules associated with cameras |
JP6558579B2 (ja) | 2015-12-24 | 2019-08-14 | パナソニックIpマネジメント株式会社 | 動線分析システム及び動線分析方法 |
US10497130B2 (en) | 2016-05-10 | 2019-12-03 | Panasonic Intellectual Property Management Co., Ltd. | Moving information analyzing system and moving information analyzing method |
US10769914B2 (en) * | 2017-06-07 | 2020-09-08 | Amazon Technologies, Inc. | Informative image data generation using audio/video recording and communication devices |
US10417502B2 (en) * | 2017-12-15 | 2019-09-17 | Accenture Global Solutions Limited | Capturing series of events in monitoring systems |
US10909826B1 (en) * | 2018-05-01 | 2021-02-02 | Amazon Technologies, Inc. | Suppression of video streaming based on trajectory data |
TWI779029B (zh) * | 2018-05-04 | 2022-10-01 | 大猩猩科技股份有限公司 | 一種分佈式的物件追蹤系統 |
SG10201807675TA (en) * | 2018-09-06 | 2020-04-29 | Nec Asia Pacific Pte Ltd | Duration and Potential Region of Interest for Suspicious Activities |
US11555910B2 (en) | 2019-08-02 | 2023-01-17 | Motional Ad Llc | Merge-split techniques for sensor data filtering |
EP3798977A1 (en) * | 2019-09-26 | 2021-03-31 | Robert Bosch GmbH | Method for managing tracklets in a particle filter estimation framework |
EP3836538B1 (en) * | 2019-12-09 | 2022-01-26 | Axis AB | Displaying a video stream |
US11031044B1 (en) * | 2020-03-16 | 2021-06-08 | Motorola Solutions, Inc. | Method, system and computer program product for self-learned and probabilistic-based prediction of inter-camera object movement |
CN113672690B (zh) * | 2021-08-24 | 2024-04-26 | 卡斯柯信号有限公司 | 一种轨道区段的遍历方法 |
US12033390B2 (en) * | 2021-10-26 | 2024-07-09 | Hitachi, Ltd. | Method and apparatus for people flow analysis with inflow estimation |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7562123B2 (en) * | 2003-09-05 | 2009-07-14 | Palo Alto Research Center Incorporated | Systems and methods for distributed group formation and maintenance in geographically based networks |
US8467570B2 (en) * | 2006-06-14 | 2013-06-18 | Honeywell International Inc. | Tracking system with fused motion and object detection |
US20080123900A1 (en) * | 2006-06-14 | 2008-05-29 | Honeywell International Inc. | Seamless tracking framework using hierarchical tracklet association |
US20100013935A1 (en) * | 2006-06-14 | 2010-01-21 | Honeywell International Inc. | Multiple target tracking system incorporating merge, split and reacquisition hypotheses |
-
2006
- 2006-11-30 US US11/565,264 patent/US20080130949A1/en not_active Abandoned
-
2007
- 2007-11-28 JP JP2007307648A patent/JP2008172765A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101441107B1 (ko) | 2013-04-29 | 2014-09-23 | 주식회사 에스원 | 승강기내 이상 행동 판별 방법 및 그 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20080130949A1 (en) | 2008-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008172765A (ja) | 監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法 | |
US8149278B2 (en) | System and method for modeling movement of objects using probabilistic graphs obtained from surveillance data | |
EP1927947A1 (en) | Computer implemented method and system for tracking objects using surveillance database | |
EP2980767B1 (en) | Video search and playback interface for vehicle monitor | |
US8502868B2 (en) | Intelligent camera selection and object tracking | |
US8305441B2 (en) | Data processing apparatus | |
JP2007299381A (ja) | 監視データベースへの問合せ方法 | |
US20190156495A1 (en) | Systems and Methods of Tracking of the Moving Objects on the Video Image | |
JP6013923B2 (ja) | ビデオエピソードの閲覧及び検索のためのシステム及び方法 | |
CN110533700A (zh) | 对象跟踪方法和装置、存储介质及电子装置 | |
US12008812B2 (en) | Simultaneous playback of continuous video recordings from multiple recording devices | |
Gopal et al. | A smart parking system using IoT | |
US20100315507A1 (en) | Surveillance system including a large number of cameras | |
Ivanov et al. | Tracking people in mixed modality systems | |
JP6478643B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2008211781A (ja) | ある環境において物体の移動をモデル化するためのシステムおよびコンピュータにより実施されるその方法 | |
Monari et al. | A knowledge-based camera selection approach for object tracking in large sensor networks | |
Sharma et al. | Reinforcement learning based querying in camera networks for efficient target tracking | |
KR101194177B1 (ko) | 비동기적으로 동작하는 이기종 센서들을 포함하는 지능형 감시 시스템 | |
EP4354402A1 (en) | Computer-implemented method, computer program, storage medium and system for video surveillance | |
Zhu et al. | An Efficient Approach of Integrating RFID and Vision Techniques in Object Surveillance System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101109 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20110325 |