JP2008172765A - 監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法 - Google Patents

監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法 Download PDF

Info

Publication number
JP2008172765A
JP2008172765A JP2007307648A JP2007307648A JP2008172765A JP 2008172765 A JP2008172765 A JP 2008172765A JP 2007307648 A JP2007307648 A JP 2007307648A JP 2007307648 A JP2007307648 A JP 2007307648A JP 2008172765 A JP2008172765 A JP 2008172765A
Authority
JP
Japan
Prior art keywords
tracklet
track
tracking
computer
implemented method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007307648A
Other languages
English (en)
Inventor
Yuri A Ivanov
ユリ・エイ・イバノブ
Alexander Sorokin
アレクサンダー・ソロキン
Christopher R Wren
クリストファー・アール・レン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008172765A publication Critical patent/JP2008172765A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】本発明の方法及び装置は、一組のセンサにより取得されたイベントと一組のカメラにより取得された一連の画像とを保存する監視データベースを用いて物体を追跡する。
【解決手段】一組のセンサで感知された時間的、空間的に隣接する一連のイベントは、一組のトラックレットを形成する。各トラックレットは、トラック‐スタート、トラック‐ジョイン、トラックレット‐マージ、トラックレット‐エンドノードの何れかである終点を有する。センサのサブセットが選択され、サブセットに関連するトラックレットのサブセットが識別される。単一の開始トラックレットが選択され、開始トラックレットに時間的、空間的に隣接する一連のトラックレットが集められ、トラックレットグラフを作成する。トラック‐ジョインノードとトラック‐スプリットノードは、その環境におけるその物体のトラックを判別するために、曖昧さを除かれそのトラックグラフから除去される。
【選択図】図6

Description

本発明は、一般的に監視システムに関し、特に、或る環境における物体を追跡、識別するためのセンサと可動カメラとを含む監視システム及び方法に関する。
ビデオカメラと比較的簡単なセンサとは、大きな環境に対して混合様式の監視システムを構成することを可能にする。センサは物体を識別できないが、比較的小さな領域では、物体を検出できる。画像が利用可能であるときには、カメラによって入手されたビデオ(映像)の画像から識別を行うことができる。
そのようなシステムによって入手されたビデオを記憶或いは蓄積することは、多テラバイトのデータを超えることがある。明らかに、特定の物体に対して何カ月にも亘って収集された記憶データを、瞬時に検索することは、実際には不可能である。
従って、蓄積(記憶)された画像データ内で物体を追跡、識別するためのシステム及び方法を提供することが望ましい。
従来の監視システムでは、通常、人間、動物、車などの物体の追跡は、画像及びビデオ処理によって行われる。そのような監視システムの欠点は、特定の物体を追跡、識別することが必要なときに、物体をカメラによって観測することが必要なことである。しかしながら、多くの監視環境は、正確な操作に必要な完全な監視範囲を提供するために、多くのビデオカメラを必要とする。大量のビデオストリームは、正確に作動するために、監視システムでの演算負荷を増大させる。
本発明の目的は、様々なセンサ、カメラ及び監視データベースの混合されたネットワークを使用することにより、移動する物体(人々)を追跡して、識別するためのシステム及び方法を提供することである。
少数のPTZカメラは、監視下に置かれるべき環境に配置される。カメラの数が比較的少ないとしても、ビデオ(映像)データの量は、多テラバイトの記憶容量を超えることがあり得る。
ビデオカメラは、その環境の一部を監視できるだけである。このため、カメラだけで物体の追跡と識別とを行なうのは難しくなる。カメラの監視範囲が完全であっても、映像データを検索する時間は非実用的なものとなる。
従って、その環境は、またセンサの密度の高い配置構成を含み、それらのセンサは、本質的には、全ての公共領域をカバーする。イベントは、関連するセンサ識別と時間とを有する。これは、センサデータの総量をかなり小さくして、処理を簡単にする。個々の人間がカメラによって連続して見られないとしても、センサの起動イベントは、特定の個人を追跡するために、ビデオ画像に空間的及び時間的に相関づけられる。
本発明の実施の形態は、混合様式の監視システムを提供する。本システムは、多くの比較的簡単なセンサ及び比較的小数の可動カメラを含む。このことは、従来の監視システムと対比して、費用、複雑さ、ネットワーク帯域幅、記憶容量、及び処理時間を減少させる。
或る環境における物体は、センサからの利用可能な前後の(文脈)情報を使用してカメラにより追跡される。特定の物体の行跡(トラック)を瞬時に判別するために、何カ月にも亘って収集された前後の(文脈)情報を検索することができる。そして、物体を識別するのに、対応する物体の画像を使用できる。このようなことは、膨大な量の映像データの検索を必要とする従来の監視システムでは、実際には不可能である。
監視システム
図1に示されているように、本発明の実施の形態に従って追跡モジュールが実施される監視システムは、比較的大きなセット(組)のワイヤレス・ネットワークのセンサ(ドット)101と、比較的小さなセット(組)のパン‐ティルト‐ズーム(PTZ)カメラ(三角形)102とを含む。センサ対カメラの比率は、非常に大きく、例えば30:1以上の場合がある。
センサ
センサは、モーション(運動)センサでもよく、またドアセンサ、昇降機センサ、熱センサ、圧力センサ、音響センサでもよい。赤外線センサなどのモーションセンサは、センサの付近での物体の動きを検出できる。ドアセンサは、典型的には戸口を通過する人を示すドア開閉イベントを検出できる。昇降機センサは、同様に、或る環境における人々の到着または出発を示すことができる。また、例えばトランスデューサやマイクロホン等の音響センサは、或る領域の活動を検出できる。センサは、その環境における光スイッチ、またはオフィス機器の電源スイッチに搭載することができる。また、マット(敷物)の圧力センサも、通過するトラフィックを示すことができる。また、環境への入口通路におけるバッジ読取り装置などのセキュリティセンサを組み込むことができる。
各センサは比較的小さく、例えば、モーションセンサについては、3×5×6cmである。好適な実施の形態において、これらのセンサは、約10メータ以下の間隔で互いに離れて、公共領域に密に配置され、また天井、壁、或いは床に取り付けられる。なお、特定の環境及びその環境におけるトラフィックフロー(交通流)に合うように、センサの空間的配置と密度を適合させることができることに注意すべきである。例えば、高いトラフィック(交通)の地域は、低いトラフィックの地域よりも人口密度が高い。
本発明の一実施の形態では、そのセット(一組)のセンサは、工業規格IEEE802.15.4の無線信号を使用して、プロセッサ110(図1を参照)と通信する。これは、ジグビー(Zigbee)タイプのデバイスによって典型的に使用される物理層である。各電池式センサは、検出モードで約50μA、また通信時に46mAを消費する。起動による通信間隔は、約16ミリ秒である。また、センサは、ハードウェアに組み込まれてもよいし、或いは他の通信技術を使用してもよいことに注意すべきである。
イベントがセンサ101の何れかによって検出されるとき、そのイベントに対応するセンサ識別記号(SID)とタイムスタンプ(TS)が一斉送信されるか、或いは別の方法でプロセッサ110に送られる。プロセッサは、センサデータを監視データベースとしてメモリに記憶する。識別記号は、本来センサの配置場所、従って起動を引き起こしたイベントの配置場所を示す。イベントの記録を行うのには、僅かなバイト数を要するだけである。従って、映像データと比較すると、長期間に亘って収集されたセンサデータの総量は、本質的には、取るにたらないものである。
そのセット(一組)のカメラは、ビデオ(映像)データ(画像系列)を取得するのに使用される。画像は、カメラの固有カメラ識別記号(CIDまたは配置場所)とフレーム番号(FN)を有する。本明細書で使用されるように、フレーム番号は、時間と同義である。すなわち、フレーム番号から時間を直接的に計算することができる。さらに、データベースからの問い合わせの間、どんな時刻におけるセンサ近傍のシーン(場面)の可視部分についても計算できるように、あらゆる時刻が各カメラの一組のパン‐ティルト‐ズーム・パラメータに関連している。
カメラは、最大の監視範囲を提供するために、戦略的な配置場所(位置)、例えばその環境における全てのトラフィックがいつか通過しなければならない配置場所で、典型的には、天井に搭載される。如何なる一般的な方向にも、PTZカメラ102を向けて、焦点を合わせることが可能である。必ずしも必要ではないが、ビデオ画像を取得するために、イベントの検出により、近くの何れのビデオカメラをもセンサ近傍のシーンに向けることができる。少数の一連の画像すなわちイベントに関連するビデオクリップを検索するのに、関連するセンサのIDとTSを後で使用することができる。また、特定のカメラの近くのセンサの近傍で何らイベントが検出されない場合には、所要の記憶容量を減量させるために、画像収集を中断できることに注意すべきである。
特定のイベントを見つけたり、特定の物体のトラック(行跡)を見つけたりして、それらの物体を識別するために、何カ月もの操作に亘って取得された映像データを調べることは難題である。
トラックレット及びトラックレットグラフ
図2に示されているように、本発明の一実施の形態では、一組のトラックレット(トラック片)210が使用される。対応するトラックレットグラフ200が一組のトラックレット210から集められる。トラックレットは、一連の空間的に隣接しているセンサ101での一連の時間的に隣接しているイベントをリンクすることによって、形成される。トラックレットは、トラックレットグラフ210の基本の構成ブロックである。
我々は、現在のイベントにリンクした直前の先行または後継イベントを見つける処理をコールする(呼び出す)。システムの性能を向上させるために、周期的にトラックレットのリンクと保存(記憶)とを行うことができる。例えば、1営業日の終わりに、或いは毎時間ごとにリンクと保存とを行うことができる。このように、検索を行うことが必要なとき、予め保存したトラックレットを容易に利用することが可能である。
組み立てられたトラックレットグラフ200では、トラックレットは、グラフのノードで接続された有向エッジである。そのグラフのノードは、各トラックレットのその直後のトラックレットまたは直前のトラックレットとの関係をコード化する。ノードは、次の4つのタイプの内の1つを持つことができる。すなわち、トラック‐スタート(開始)201、トラック‐ジョイン(結合)202、トラック‐スプリット(分岐)203、及びトラック‐エンド(終了)204である。
トラック‐スタート
トラック‐スタートノードは、所定時間間隔内に何れの先行イベントもそのセンサにリンクされることができないような、トラックレットにおける最初(第1)のイベントを表している。本明細書で使用されるように、「先行」は、隣接しているセンサでの以前のイベントを意味する。「時間間隔」は、歩行者が一つのセンサから隣接する次のセンサまで移動するのにかかる時間にほぼ制約できる。
トラック‐ジョイン
トラック‐ジョインノードは、所定時間間隔内にそのセンサにリンクさせることができる複数の先行イベントが存在するような、トラックレットグラフにおけるイベントを表す。すなわち、トラックレット‐ジョインノードは、複数の先行トラックレットが単一の後継トラックレットに収束することを表している。単一の有効な先行トラックレットは、それが現在のトラックレットに既にリンクされているので、存在することができない。
トラック‐スプリット
トラック‐スプリットノードは、所定時間間隔内にそのセンサにリンクさせることができる複数の後継トラックレットが存在するような、トラックレットにおけるイベントを表す。すなわち、トラックレット‐スプリットノードは、単一の先行トラックレットが複数の後継トラックレットへ分岐することを表している。単一の有効な後継トラックレットは、それが現在のトラックレットに既にリンクされているので、存在することができない。
トラック‐エンド
トラック‐エンドノードは、所定時間間隔内に何れの後継イベントにもリンクできないような、トラックレットにおける最後のイベントを表している。全てのトラックレットは、一組のグラフを形成し、それらのグラフの各々は、物体が移動した実際のトラック(行跡)に関する固有の曖昧さを表している。
トラックレットグラフは、ユーザにより課され得るか、または時間経過とともに「学習され得る」、時間的及び空間的な制約条件により集めることができるイベントに関連する一組のトラックレットである。
図2のトラックレットグラフには、2つの開始トラックレットがあり、それらは、その後単一のトラックに収束する。そして、収束されたトラックレットは、2度分岐して、4つのエンドポイント(終点)になる。トラックレットグラフは、我々が物体追跡のために使用するイベントの中心的な表示である。
延長トラックレットグラフ
物体がセンサネットワークの視界から見えなくなる場合における延長された追跡の目的のためにも、2つの空間的に隣接していて時間的にも隣接しているトラックレットグラフを集めることができる。このような状況は、追跡されている人々が廊下などの公共領域を抜け出して、オフィスなどの領域に進入するときの環境で頻繁に起こる。オフィスに入るイベントは、人が感知すなわち観測されなくなったとき、トラックレット‐エンドノードで先行トラックレットを終了させる。オフィスを出る際、その人を再び後継グラフで追跡できる。人がオフィスに入ると、その人は、例えば何時間もの長い期間の後にでも、退出しなければならないと思われる。この場合、空間的な制約条件は、厳密に実行され得るが、時間的な制約条件は緩和できる。
先行グラフにおけるトラックレットのトラック‐エンドノードの一つが後継グラフにおけるトラックレットの少なくとも一つのトラックレット‐スタートノードのタイムスタンプよりも小さなタイムスタンプを有するという条件の下で、グラフが集められる。
センサの可視性の判別
本発明の一つの目標は、或るセンサの近傍の領域が複数のカメラの何れから見ることが出来るかを判別することである。これにより、ユーザに提示される無関係な画像の量を最小にする。
この目標を実現するために、システムの全てのカメラがセンサの配置場所に較正される。我々のシステムでは、各センサは、そのカメラからセンサの起動を引き起こしたイベントを見えるようにする各カメラのさまざまなパン、ティルト及びズームのパラメータに関連している。各カメラのPTZパラメータが、カメラ方向の変更の度に、監視データベースに保存されるならば、トラックレットがセンサ起動毎にデータベースから検索されるときに、「可視」領域を、対応する時に各カメラのPTZパラメータと比較できる。カメラのPTZパラメータがセンサの可視領域に入ると、次に、センサの起動(イベント)が可視であると考えられ、対応するカメラからの一連の画像がビデオ証拠として検索される。以下に述べるように、この証拠は、続いて、ユーザインタフェースを使用したトラックレット選択プロセスの間、ユーザに表示される。
人間に誘導された追跡
我々が我々のシステムで解決する人間により誘導された追跡及び検索に関するタスクを簡単なシナリオで示すことができる。
ラップトップ型パソコンがオフィスから午後1時00分と午後2時00分との間に盗まれたと報告された。そのオフィスに対して利用可能な直接的カメラ監視範囲は無かった。ユーザは、その時間帯にオフィスを通過できた全ての人々を見つけ出し、そして可能ならば、彼らを識別し、或る個人をそのイベントに結びつける証拠を集める必要がある。そのような状況では、オペレータ(操作者)は、そのオフィスのドアで発生した全てのトラック(行跡)を識別し、全ての利用可能なビデオ証拠を調べることによって、その個人を識別することを欲するであろう。
混合様式のセンサネットワークでの物体追跡の一般原理
トラック‐スタートノード及びトラック‐エンドノードは、完全なトラック(行跡)の明確な始めと終わりである。ところで、トラック‐スプリット(行跡分岐)とトラック‐ジョイン(行跡結合)の曖昧さの自動的解決は、感知されたイベントのみを使用するだけでは不可能である。スプリット(分岐)とジョイン(結合)の曖昧さは、センサにおける、或いは、センサの近くのイベント以外の如何なる特徴へのセンサネットワークの知覚的限界のためである。
そのような状況では、2人の人間が廊下で通路を横断するイベントは、システムに、可能な交差点の前後で各人に対するイベントを含む少なくとも4つのトラックレットを発生させる。更なる情報がなければ、このセット(組)のトラックレットの解釈には、固有の曖昧さがある。例えば、その2人の人間は、互いに行き違うか、或いは出会って彼らが来た道を引き返すことができる。これらのトラック(行跡)に対するアイデンティティ(同一性)をマップ化して、絶対確実にそれらの連続性を維持することは、それらのイベントだけからでは不可能である。
これらの曖昧さの見地から、我々は、以下のように簡素化して観測を行う。
ユーザは、グラフ全体の曖昧さを除く必要がない。ユーザは、前方または後方のグラフ横断に対して、選択されたトラックレットを開始するトラック‐ジョインノードの曖昧さを除いたり、或いは、トラックレットを終了させるトラック‐スプリットノードの曖昧さを除いたりすることがそれぞれ必要になるだけである。
各候補トラックに関連するビデオクリップを考慮に入れることによって、トラック‐ジョイン及びトラック‐スプリットの曖昧さを解決することを簡素化できる。
第1の観測は、トラックに集められるべき可能な候補であるとみなされる必要があるトラックレットの量をかなり減量させる。一実施の形態では、ユーザは、1度に一人のみを追跡する。従って、システムは、効果的に他のイベントを無視しつつ、その人の行動を解決(分析)するだけでよい。通路で交差する2人の人間の例に対して、我々は、1つのトラックレットが交差点の前に選択され、4つ全てではなく、2つのトラックレットだけが、可能な連続であるとみなされる必要があると仮定する。追跡及びトラックの曖昧さの解消への、この繰り返しフォーカスされた手法で、私たちは、問題の複雑さを潜在的に指数型から線形(一次関数)へ減少させることができる。
第2の観測は、スプリット−ジョイン(分岐−結合)の曖昧さが生じるとき、システムがトラックレットの時間と配置場所とを直近のカメラからのビデオと相関させて、集合トラックに対して何れのトラックレットが可能性の高い連続であるかを決定するために、対応するビデオクリップをユーザに表示することができることを意味する。
センサのネットワークだけを使用することにより、物体の動きの力学(動態)を推測するのを試みる自動追跡手順を開発することが可能であるかもしれない。しかし、如何なるそのような処理手順も誤りを犯すことは不可避である。監視アプリケーションでは、若干不正確なだけの追跡処理の結果に対するコミットメント(関与、取り組み、対応)は、かなり高価になる場合がある。
従って、我々の追尾方式は、追跡データを表している基本的な前後の(文脈)情報としてのトラックレットグラフと共に、人間に誘導された技術を使用する。追跡及び検索が基づいているセンサデータが非常に小さく、従って、特に映像データの従来の検索と比較すると、速やかに処理を進めることができることに注意すべきである。
我々のシステムの主眼とすることは、イベントを使用することにより非常に短時間で効率的に多量の映像データを検索することである。このために、我々は、主としてフォールスネガティブレート(偽陰性率)を小さくすることに関心があるが、フォールスポジティブレート(偽陽性率)を小さくすることが遠い二次的目標である。これらの目標を実現するために、我々は、以下に述べるようなトラック集合用の機構を採用する。
トラックレット集合処理
我々のシステムの人間に誘導された追跡のプロセスは、我々が開始すべきトラックと予想する一つまたは複数のセンサのサブセット(部分集合)と、任意ではあるが、時間間隔と、を選択することで始まる。例えば、我々のシステムでは、センサがオフィスの外側の公共領域に配置される場合、ユーザは、人が特定のオフィスを出るときに恐らく起動されうるフロアープラン(床配置図)を使用してそのセンサのサブセット(部分集合)を選択できる。
イベントのデータベースにおける高速検索を行なうことによって、我々は、選択されたセンサの1つに起因したトラックレットのあらゆる例を識別できる。ここで、ユーザは、さらに詳細に探査を行うために、トラックレットの単一の例を選択できる。トラックが開始されるおおよその時点を特定することによって、上記の検索を速めることができる。
第1のトラックレットを選択すると、対応するトラックレットグラフが構成される。集められたトラックのグラフは、時間的及び空間的に隣接する一連のイベントに関連する複数のトラックレットを含む。選択されたトラックレットは、図3に示されているように、エンド(終了)、スプリット(分岐)またはノード(結合)があるところのポイント(地点)まで床配置図上に描かれる。エンドポイント(終点)に到達すると、トラック300は完成する。床配置図においてトラック300に沿った人の場所が、トラック300で太線301により、ユーザインタフェースに視覚的に示される。
トラックレットのエンド(終端)がスプリット(分岐)ノード或いはジョイン(結合)ノードを有するならば、トラックは終了されず、候補トラックレットを、一貫性を有するトラックへ集めるために複数のトラックレットグラフを使用してトラックレット集合処理が繰り返して行われる。このプロセスの間、グラフ中の各曖昧(不明瞭)点(スプリットノードまたはジョインノード)で、ユーザは、さらに横断するためのサブグラフを選択する。人々を識別して、正しい後継トラックレットを選択するために、対応するトラックレットに属するセンサ起動の何れかに指向されたカメラからの利用可能なビデオ画像を表示することができる。また、物体や顔の認証などの自動化技術を、上述の識別のために使用できる。
その処理は、選択グラフを使用して図4に示されている。選択グラフでは、ビデオ画像401は、対応する複数のトラックレットに含まれている複数のセンサへ指向された複数のカメラからの利用可能な複数のビデオクリップを表している。菱形410は、曖昧ポイント(点)、及びその曖昧ポイントに続く可能な競合トラックレットを示す。そのグラフにおけるエッジは、トラックレットが存在することを示す。
なお、図4のトラックレット選択グラフは、図2のトラックレットグラフに関連するが、それと同一ではない。事実、図4のグラフは、一般的な選択グラフを表しており、それは、時間的に前方(図示されるように)或いは後方へのトラックレットグラフの横断のために使用できる。前者の場合には、図4における選択グラフのスタート(開始)及びエンド(終了)ノードは、トラックレットグラフにおけるそれらと同じ意味を持っているが、菱形のみは、スプリット(分岐)を表している。トラック‐ジョインは、前進の選択代替策を提示しないので、前進の選択プロセスとは無関係である。対照的に、選択グラフが後方の横断のために使用される場合には、選択グラフのスタート及びエンドノードは、トラックレットグラフのものと反対の意味を有し、菱形のみがジョイン(結合)を表している。
いずれの場合でも、トラックレット選択グラフは、最初に選択されたトラックレットで始まり、スタートノード201で示される利用可能なカメラフレーム401を横断可能な、トラックレットグラフによる一組のトラックを表している。曖昧ポイント(点)は、既知であるので、そのような各ポイントでは、システムは、曖昧さの解消のために、曖昧なトラックレットのセットをユーザに提示できる。
例えば、第1ステップでは、曖昧ポイント410は、現在のノードからのスリーウェイスプリット(三方向分岐)を表している。最も左側のトラックレットは、2つのカメラ視界431につながる。中央のトラックレットは、カメラ視界を持たずに終わる。3番目のトラックレットは、1つのカメラ視界を持っており、次に、ツーウェイスプリット(二方向分岐)につながる。これらのトラックレットの各々を床配置図に描くことができる。選択が行われた後、拒絶されたトラックレットは、床配置図から取り除かれる。エンド(終了)‐トラック204に出会うまで、処理が続けられる。
トラックの終端に遭遇するとき、トラック集合処理のプロセスを終了することができる。しかし、ユーザに実際のトラックが終了ポイントから続くと信じる理由があるならば、前述のようなトラックレットグラフ拡張機構が使用される。システムは、終了されたトラックの位置で始まる新しいトラックレットを見出すために、所定時間間隔内でデータベースの検索を行なう。そのようなトラックレットを見出すなら、以下に述べるように、対応するビデオクリップが識別され、トラックレット選択コントロールパネルにおいてユーザに表示される。ユーザがトラックの延長された線分に対して最初のトラックを選択すると、集められたトラックの終端にトラックレットが追加され、その選択されたトラックレットで始まる新しいトラックレットグラフが作成される。その後、その物体の完全なトラックをさらに延長するために、選択プロセスが、前述と同様に、繰り返して続けられる。完全なトラックでは、全てのジョイン及びスプリットノードが取り除かれ、トラックは、単一の開始トラックレットと単一の終了トラックレットとを含むのみである。
ユーザインタフェース
図5に示されるように、一実施の形態では、ユーザインタフェースは、5つのメインパネル、すなわち、床配置図501、タイムライン(時系列)502、ビデオクリップビン(記憶装置)503、トラックレットセレクタ504、及びカメラ視界パネル505を含む。
床配置図は、図3に示されている通りである。床配置図のトラック300に沿った人の位置が、トラック300における「膨れ」301(破線)により示される。各センサに対して、タイムライン502は、イベントを示す。タイムラインにおける各列は、一つのセンサに対応しており、時間は、左から右に進む。垂直線510は、「現在」の再生時間を示す。現在時刻を設定するために、メニュー及びアイコン520を使用できる。再生のスピードを調整するために、「ノブ」521を使用できる。マウスで線をドラッグすることによって、タイムラインを前方及び後方に移動できる。短い線分200は、トラックレット、また、線300は、解決されたトラックをそれぞれ表す、図3を参照。
ビデオクリップビンは、物体識別のために選択されたクリップ(画像系列)の画像を示している。本質的には、ビデオクリップビンにおけるトラックに関連する収集された一連の画像は、トラックと物体に関連するビデオ証拠である。
トラックレット選択制御は、図4の決定グラフの現状を示している。
現在時刻及び選択された位置に対応する画像がカメラ視界パネル505に示されている。画像は、ユーザにより選択されるか、或いはカメラスケジューリング処理手順により自動的に選択されることができる。ビデオクリップビン503を形成するために、クリップの再生の間に、スケジューリング処理手順を呼び出すことができる。
追跡方法
本発明の実施の形態では、追跡プロセスは、二つの相を含む。すなわち、物体を追跡するために、監視データを記録する相と、及び検索する相とである。
記録相は、図6に示されている。図6は、監視データベース611におけるセンサデータを保存する方法を示している。監視データベースは、一組のセンサ101によって取得されたイベント103を保存する。センサの選択されたサブセット(部分集合)に対して時間的及び空間的に隣接している一連のイベントは、一組のトラックレット631を形成するようにリンク630されている(繋がっている)。各トラックレットには、トラックレット‐スタートノードとトラックレット‐エンドノードがある。また、トラックレットは、監視データベースに保存される。
センサ起動と同時に、一組のカメラ102によって取得された画像104の順序がコンピュータ記憶装置612に記録される。各イベント及び画像は、1つのカメラ(位置)と時間とに関連付けられている。なお、前述と同様に、カメラのPTZパラメータを判別することもできる。
追跡相は、図7に示されている。この相は、トラックが発生すると予想されるセンサのサブセット(部分集合)を選択し620、複数のトラックの始まりとして使用されうる複数のトラックレットを見つけ出し625、トラックの開始として第1のトラックレットを選択し640、およびトラック集合処理680を行うことを含む。
トラック集合処理は、選択されたトラックレットに対してトラックレットグラフ651を構成する650ことで始まる。トラックレットグラフ651は、複数の先行トラックレットが単一の後継トラックレットに合流するところの可能なトラックレット‐ジョインノードと、単一の先行トラックレットが複数のトラックレットに分岐するところの可能なトラックレット‐スプリットノードとを有する。
トラックレットグラフ651は、最初に選択されたトラックレットから始めて、繰り返し横断される。そのグラフに続いて、次の曖昧なノードが識別され、候補トラックレットに含まれるセンサ起動(イベント)に時間的及び空間的に相関づけられた画像がコンピュータ記憶装置612から検索され、表示660され、そして、集められたトラック661に結合されるべき次のトラックレット670が選択される670。
その処理は、集められたトラック661がそのエンドポイントとしてトラック‐エンドノードを有するトラックレットで終了されるときに終わり、そして、そのグラフから全てのジョイン及びスプリットノードが取り除かれている。
本発明は、好適な実施の形態を例に挙げて説明したが、本発明の精神及び範囲内で種々の他の改変及び変更を行うことができることを理解すべきである。従って、添付クレームの目的は、本発明の真実の精神及び範囲に含まれるような全ての変形例及び変更例をカバーすることである。
本発明の実施の形態に従ってトラッキングシステムが実施される環境を示す説明図である。 本発明の実施の形態によるトラックレット(小行跡)グラフを示す説明図である。 本発明の実施の形態による図1の環境における追跡物体の行跡を示すブロック図である。 本発明の実施の形態による決定グラフを示す説明図である。 本発明の実施の形態によるユーザインタフェースを示す画像である。 本発明の実施の形態による監視データを記録するための方法を示すフローチャートである。 本発明の実施の形態による物体を追跡するために監視データを検索する方法を示すフローチャートである。

Claims (19)

  1. 監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法であって、前記監視データベースは、一組のセンサによって取得されたイベントと一組のカメラによって取得された一連の画像とを保存し、また各イベントと画像とは、関連づけられた位置と時間とを有し、
    前記方法は、
    前記一組のセンサにより感知された、時間的及び空間的に隣接する一連のイベント同士を関連づけて、一組のトラックレットを形成する工程であって、各トラックレットは、トラック‐スタートノード、トラック‐ジョインノード或いはトラックレット‐スプリットノードで始まって、トラック‐エンドノード、前記トラックレット‐ジョインノード或いは前記トラックレット‐スプリットノードで終わり、前記トラックレット‐ジョインノードは、複数の先行トラックレットが単一の後継トラックレットに合流するところで生じ、前記トラックレット‐スプリットノードは、単一の先行トラックレットが複数の後継トラックレットに分岐するところで生じる工程と;
    センサのサブセットを選択する工程と;
    前記センサのサブセットに関連づけられているトラックレットのサブセットを識別する工程と;
    前記トラックレットのサブセットから単一のトラックレットを開始トラックレットとして選定する工程と;
    前記開始トラックレットに時間的及び空間的に隣接する全てのトラックレットを集めて、トラックレットグラフを作成する工程と;
    前記トラック‐ジョインノードと前記トラック‐スプリットノードとの曖昧さを除いて、前記トラックレットグラフから除去して環境における物体のトラックを判別する工程と;
    を備えたことを特徴とする監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  2. 前記曖昧さを除く工程は、さらに、物体を識別するために、前記トラックレットグラフの前記イベントに時間的及び空間的に関連する利用可能な画像を表示する工程を含むことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  3. 前記センサは、赤外線モーションセンサであり、また前記カメラは、可動であることを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  4. 前記センサは、前記イベントを伝送するためにワイヤレス送信機を使用することを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  5. イベントが特定のカメラの視界にセンサによって検出されるときにのみ、一連の画像を検索する工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  6. 特定のイベントが感知されるときに、前記特定のカメラを前記特定のセンサの一般的近傍に指向させる工程をさらに備えたことを特徴とする請求項5に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  7. 前記集合化が時間的及び空間的な制約条件に従って行なわれることを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  8. 前記時間的及び空間的な制約条件は、ユーザによって選択されることを特徴とする請求項7に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  9. 前記時間的及び空間的な制約条件は、時間経過とともに学習されることを特徴とする請求項7に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  10. 前記環境の床配置図上に前記トラックを描く工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  11. 特定の順序の画像を前記トラックレットと対応させる工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  12. 前記トラックに関連づけられた特定の一連の画像を、前記トラックと物体に関連するビデオ証拠として収集する工程をさらに備えたことを特徴とする請求項11に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  13. 如何なる所定の時でもカメラでセンサを識別する工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  14. 一連の画像における可視の特定のイベントを識別する工程をさらに備えたことを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  15. ビデオ証拠を可視のセンサ起動に対応する画像だけに減少させる工程をさらに備えたことを特徴とする請求項14に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  16. 前記関連づける工程は、周期的に行なわれ、また一組のトラックレットは、監視データベースに予め記憶されることを特徴とする請求項1に記載の監視データベースを使用して物体を追跡するためのコンピュータにより実施される方法。
  17. 監視データベースを使用して、物体を追跡するためのシステムであって、前記監視データベースは、一組のセンサによって取得されたイベントと一組のカメラによって取得された一連の画像とを保存し、また各イベントと画像とは、関連づけられた位置と時間とを有し、
    前記システムは、
    前記一組のセンサにより感知された、時間的及び空間的に隣接する一連のイベント同士を関連づけて、一組のトラックレットを形成する手段であって、各トラックレットは、トラック‐スタートノード、トラック‐ジョインノード或いはトラックレット‐スプリットノードで始まって、トラック‐エンドノード、前記トラックレット‐ジョインノード或いは前記トラックレット‐スプリットノードで終わり、前記トラックレット‐ジョインノードは、複数の先行トラックレットが単一の後継トラックレットに合流するところで生じ、前記トラックレット‐スプリットノードは、単一の先行トラックレットが複数の後継トラックレットに分岐するところで生じる手段と;
    開始トラックレットを選択する手段と;
    センサのサブセットを選択するユーザインタフェースと;
    前記開始トラックレットに時間的及び空間的に隣接する全てのトラックレットを集めて、トラックレットグラフを作成する手段と;
    前記トラック‐ジョインノードと前記トラック‐スプリットノードとの曖昧さを除いて、前記トラックレットグラフから除去して環境における物体のトラックを判別する手段と;
    を備えたことを特徴とする監視データベースを使用して物体を追跡するためのシステム。
  18. 前記曖昧さを除くことは、前記物体を識別するために、前記トラックレットグラフの前記イベントに時間的及び空間的に関連する利用可能な画像を表示する手段をさらに備えたことを特徴とする請求項17に記載の監視データベースを使用して物体を追跡するためのシステム。
  19. 前記センサは、赤外線モーションセンサであり、また前記カメラは、可動であることを特徴とする請求項18に記載の監視データベースを使用して物体を追跡するためのシステム。
JP2007307648A 2006-11-30 2007-11-28 監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法 Withdrawn JP2008172765A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/565,264 US20080130949A1 (en) 2006-11-30 2006-11-30 Surveillance System and Method for Tracking and Identifying Objects in Environments

Publications (1)

Publication Number Publication Date
JP2008172765A true JP2008172765A (ja) 2008-07-24

Family

ID=39475811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007307648A Withdrawn JP2008172765A (ja) 2006-11-30 2007-11-28 監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法

Country Status (2)

Country Link
US (1) US20080130949A1 (ja)
JP (1) JP2008172765A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101441107B1 (ko) 2013-04-29 2014-09-23 주식회사 에스원 승강기내 이상 행동 판별 방법 및 그 장치

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658091B1 (en) 2002-02-01 2003-12-02 @Security Broadband Corp. LIfestyle multimedia security system
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US9141276B2 (en) 2005-03-16 2015-09-22 Icontrol Networks, Inc. Integrated interface for mobile device
US11489812B2 (en) 2004-03-16 2022-11-01 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10313303B2 (en) 2007-06-12 2019-06-04 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US11190578B2 (en) 2008-08-11 2021-11-30 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US10200504B2 (en) 2007-06-12 2019-02-05 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US8963713B2 (en) 2005-03-16 2015-02-24 Icontrol Networks, Inc. Integrated security network with security alarm signaling system
US8988221B2 (en) 2005-03-16 2015-03-24 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US20090077623A1 (en) 2005-03-16 2009-03-19 Marc Baum Security Network Integrating Security System and Network Devices
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
US10375253B2 (en) 2008-08-25 2019-08-06 Icontrol Networks, Inc. Security system with networked touchscreen and gateway
EP1738540B1 (en) 2004-03-16 2017-10-04 Icontrol Networks, Inc. Premises management system
US11677577B2 (en) 2004-03-16 2023-06-13 Icontrol Networks, Inc. Premises system management using status signal
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US11113950B2 (en) 2005-03-16 2021-09-07 Icontrol Networks, Inc. Gateway integrated with premises security system
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US11201755B2 (en) 2004-03-16 2021-12-14 Icontrol Networks, Inc. Premises system management using status signal
US9609003B1 (en) 2007-06-12 2017-03-28 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US10156959B2 (en) 2005-03-16 2018-12-18 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US20160065414A1 (en) 2013-06-27 2016-03-03 Ken Sundermeyer Control system user interface
US9191228B2 (en) 2005-03-16 2015-11-17 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US11316958B2 (en) 2008-08-11 2022-04-26 Icontrol Networks, Inc. Virtual device systems and methods
US11159484B2 (en) 2004-03-16 2021-10-26 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10382452B1 (en) 2007-06-12 2019-08-13 Icontrol Networks, Inc. Communication protocols in integrated systems
US10142392B2 (en) 2007-01-24 2018-11-27 Icontrol Networks, Inc. Methods and systems for improved system performance
US9531593B2 (en) 2007-06-12 2016-12-27 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US10522026B2 (en) 2008-08-11 2019-12-31 Icontrol Networks, Inc. Automation system user interface with three-dimensional display
US8635350B2 (en) 2006-06-12 2014-01-21 Icontrol Networks, Inc. IP device discovery systems and methods
US9729342B2 (en) 2010-12-20 2017-08-08 Icontrol Networks, Inc. Defining and implementing sensor triggered response rules
US11277465B2 (en) 2004-03-16 2022-03-15 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US7711796B2 (en) 2006-06-12 2010-05-04 Icontrol Networks, Inc. Gateway registry methods and systems
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US10339791B2 (en) 2007-06-12 2019-07-02 Icontrol Networks, Inc. Security network integrated with premise security system
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US10444964B2 (en) 2007-06-12 2019-10-15 Icontrol Networks, Inc. Control system user interface
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
WO2006034135A2 (en) 2004-09-17 2006-03-30 Proximex Adaptive multi-modal integrated biometric identification detection and surveillance system
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US20170180198A1 (en) 2008-08-11 2017-06-22 Marc Baum Forming a security network including integrated security system components
US11496568B2 (en) 2005-03-16 2022-11-08 Icontrol Networks, Inc. Security system with networked touchscreen
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US9306809B2 (en) 2007-06-12 2016-04-05 Icontrol Networks, Inc. Security system with networked touchscreen
US7703996B1 (en) 2006-03-13 2010-04-27 Sti, Inc. Surveillance unit and method of use thereof
US10079839B1 (en) 2007-06-12 2018-09-18 Icontrol Networks, Inc. Activation of gateway device
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
US7777783B1 (en) 2007-03-23 2010-08-17 Proximex Corporation Multi-video navigation
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US10616075B2 (en) 2007-06-12 2020-04-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US10423309B2 (en) 2007-06-12 2019-09-24 Icontrol Networks, Inc. Device integration framework
US10051078B2 (en) 2007-06-12 2018-08-14 Icontrol Networks, Inc. WiFi-to-serial encapsulation in systems
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10666523B2 (en) 2007-06-12 2020-05-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US11089122B2 (en) 2007-06-12 2021-08-10 Icontrol Networks, Inc. Controlling data routing among networks
US20180198788A1 (en) * 2007-06-12 2018-07-12 Icontrol Networks, Inc. Security system integrated with social media platform
US11423756B2 (en) 2007-06-12 2022-08-23 Icontrol Networks, Inc. Communication protocols in integrated systems
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US11601810B2 (en) 2007-06-12 2023-03-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US10498830B2 (en) 2007-06-12 2019-12-03 Icontrol Networks, Inc. Wi-Fi-to-serial encapsulation in systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US10389736B2 (en) 2007-06-12 2019-08-20 Icontrol Networks, Inc. Communication protocols in integrated systems
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
US8576281B2 (en) * 2007-09-12 2013-11-05 Its-7 Pty Ltd Smart network camera system-on-a-chip
US20090077214A1 (en) * 2007-09-17 2009-03-19 Honeywell International Inc. System for fusing information from assets, networks, and automated behaviors
US20090138521A1 (en) * 2007-09-17 2009-05-28 Honeywell International Inc. Method and system for sharing information between disparate data sources in a network
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20090265105A1 (en) * 2008-04-21 2009-10-22 Igt Real-time navigation devices, systems and methods
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US11792036B2 (en) 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US11258625B2 (en) 2008-08-11 2022-02-22 Icontrol Networks, Inc. Mobile premises automation platform
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
EP2569712B1 (en) 2010-05-10 2021-10-13 Icontrol Networks, Inc. Control system user interface
GB2482127B (en) * 2010-07-19 2015-01-14 Ipsotek Ltd Apparatus, system and method
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
US11750414B2 (en) 2010-12-16 2023-09-05 Icontrol Networks, Inc. Bidirectional security sensor communication for a premises security system
US9147337B2 (en) 2010-12-17 2015-09-29 Icontrol Networks, Inc. Method and system for logging security event data
US20130101159A1 (en) * 2011-10-21 2013-04-25 Qualcomm Incorporated Image and video based pedestrian traffic estimation
EP2690523A3 (en) * 2012-07-23 2016-04-20 Sony Mobile Communications AB Method and system for monitoring state of an object
US9369677B2 (en) * 2012-11-30 2016-06-14 Qualcomm Technologies International, Ltd. Image assistance for indoor positioning
JP5506990B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US10878323B2 (en) 2014-02-28 2020-12-29 Tyco Fire & Security Gmbh Rules engine combined with message routing
US9651656B2 (en) * 2014-02-28 2017-05-16 Tyco Fire & Security Gmbh Real-time location system in wireless sensor network
US11146637B2 (en) 2014-03-03 2021-10-12 Icontrol Networks, Inc. Media content management
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
US10075623B2 (en) * 2015-03-30 2018-09-11 Myriad Sensors, Inc. Synchronizing wireless sensor data and video
JP5915960B1 (ja) 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US9582895B2 (en) * 2015-05-22 2017-02-28 International Business Machines Corporation Real-time object analysis with occlusion handling
CN106791586A (zh) * 2015-11-19 2017-05-31 杭州海康威视数字技术股份有限公司 一种对移动目标进行监控的方法及监控设备、装置、系统
EP3384669A4 (en) * 2015-12-02 2019-07-10 C/o Canon Kabushiki Kaisha DISPLAY MANAGEMENT APPARATUS, DISPLAY MANAGEMENT METHOD, AND COMPUTER-READABLE MEDIUM FOR EXECUTING A DISPLAY MANAGEMENT METHOD
GB2545658A (en) * 2015-12-18 2017-06-28 Canon Kk Methods, devices and computer programs for tracking targets using independent tracking modules associated with cameras
JP6558579B2 (ja) 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
US10769914B2 (en) * 2017-06-07 2020-09-08 Amazon Technologies, Inc. Informative image data generation using audio/video recording and communication devices
US10417502B2 (en) * 2017-12-15 2019-09-17 Accenture Global Solutions Limited Capturing series of events in monitoring systems
US10909826B1 (en) * 2018-05-01 2021-02-02 Amazon Technologies, Inc. Suppression of video streaming based on trajectory data
TWI779029B (zh) * 2018-05-04 2022-10-01 大猩猩科技股份有限公司 一種分佈式的物件追蹤系統
SG10201807675TA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd Duration and Potential Region of Interest for Suspicious Activities
US11555910B2 (en) * 2019-08-02 2023-01-17 Motional Ad Llc Merge-split techniques for sensor data filtering
EP3798977A1 (en) * 2019-09-26 2021-03-31 Robert Bosch GmbH Method for managing tracklets in a particle filter estimation framework
EP3979633A1 (en) 2019-12-09 2022-04-06 Axis AB Displaying a video stream
US11031044B1 (en) * 2020-03-16 2021-06-08 Motorola Solutions, Inc. Method, system and computer program product for self-learned and probabilistic-based prediction of inter-camera object movement
CN113672690B (zh) * 2021-08-24 2024-04-26 卡斯柯信号有限公司 一种轨道区段的遍历方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7562123B2 (en) * 2003-09-05 2009-07-14 Palo Alto Research Center Incorporated Systems and methods for distributed group formation and maintenance in geographically based networks
US8467570B2 (en) * 2006-06-14 2013-06-18 Honeywell International Inc. Tracking system with fused motion and object detection
US20100013935A1 (en) * 2006-06-14 2010-01-21 Honeywell International Inc. Multiple target tracking system incorporating merge, split and reacquisition hypotheses
US20080123900A1 (en) * 2006-06-14 2008-05-29 Honeywell International Inc. Seamless tracking framework using hierarchical tracklet association

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101441107B1 (ko) 2013-04-29 2014-09-23 주식회사 에스원 승강기내 이상 행동 판별 방법 및 그 장치

Also Published As

Publication number Publication date
US20080130949A1 (en) 2008-06-05

Similar Documents

Publication Publication Date Title
JP2008172765A (ja) 監視データベースを使用して物体を追跡するためのシステムおよびコンピュータにより実施されるその方法
US8149278B2 (en) System and method for modeling movement of objects using probabilistic graphs obtained from surveillance data
EP1927947A1 (en) Computer implemented method and system for tracking objects using surveillance database
EP2980767B1 (en) Video search and playback interface for vehicle monitor
US8502868B2 (en) Intelligent camera selection and object tracking
US8305441B2 (en) Data processing apparatus
US20070257986A1 (en) Method for processing queries for surveillance tasks
US7555146B2 (en) Identification recognition system for area security
US20190156495A1 (en) Systems and Methods of Tracking of the Moving Objects on the Video Image
JP6013923B2 (ja) ビデオエピソードの閲覧及び検索のためのシステム及び方法
CN110533700A (zh) 对象跟踪方法和装置、存储介质及电子装置
Gopal et al. A smart parking system using IoT
Ivanov et al. Tracking people in mixed modality systems
JP6478643B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2008211781A (ja) ある環境において物体の移動をモデル化するためのシステムおよびコンピュータにより実施されるその方法
Monari et al. A knowledge-based camera selection approach for object tracking in large sensor networks
KR101194177B1 (ko) 비동기적으로 동작하는 이기종 센서들을 포함하는 지능형 감시 시스템
EP4354402A1 (en) Computer-implemented method, computer program, storage medium and system for video surveillance
Zhu et al. An Efficient Approach of Integrating RFID and Vision Techniques in Object Surveillance System
CN113473091A (zh) 摄像机关联方法、装置、系统、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101109

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110325