JP2005515529A - ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法 - Google Patents

ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法 Download PDF

Info

Publication number
JP2005515529A
JP2005515529A JP2003560590A JP2003560590A JP2005515529A JP 2005515529 A JP2005515529 A JP 2005515529A JP 2003560590 A JP2003560590 A JP 2003560590A JP 2003560590 A JP2003560590 A JP 2003560590A JP 2005515529 A JP2005515529 A JP 2005515529A
Authority
JP
Japan
Prior art keywords
coordinates
video
current
box
bounding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003560590A
Other languages
English (en)
Inventor
エイ コーエン,ロバート
ブロドスキー,トマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005515529A publication Critical patent/JP2005515529A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

軌跡を記憶するためのプロセスとシステムによって、従来の方法とシステムにより必要とされた記憶容量を減少する。ビデオコンテント分析モジュールは、自動的にビデオフレーム中のオブジェクトを特定し、各オブジェクトiの座標(xi, yi)を決定する。オブジェクトを最初に特定されたとき、各オブジェクトiの基準座標(xrefi, yrefi)が(xi, yi)に設定される。後続のフレームについて、新しい座標(xnewi, ynewi)が基準座標から所与の距離より近いとき、すなわち、|(xnewi, ynewi)-(xrefi, yrefi)|2<εであるとき、現在の座標は無視される。しかし、オブジェクトが距離εより大きく動いたとき、現在の座標(xnewi, ynewi)がオブジェクトの軌跡リストに記憶され、基準座標(xrefi, yrefi)をオブジェクトの現在の位置とする。このプロセスが後続する全てのビデオフレームに対して繰り返される。結果として得られるコンパクトな軌跡リストは、軌跡リストを生成中に、または生成が完了してから、メモリまたはディスクに書き込まれる。

Description

発明の詳細な説明
本発明はビデオシーケンス中のオブジェクトの追跡に関する。特に、オブジェクトの軌跡を追跡するために使用された座標の記憶に関する。
従来技術では、オブジェクトをビデオシーケンス中で追跡するとき、ビデオの各フレームについて軌跡座標を生成する。例えば、毎秒30フレームを生成するNTSC規格の下では、ビデオシーケンス中の各オブジェクトの新しい位置または座標を各フレームごとに生成し記憶しなければならない。
このプロセスは非常に非効率的であり、莫大な記憶容量を必要とする。例えば、ビデオシーケンス中の5つのオブジェクトが追跡されているとき、1時間の軌跡データを記憶するために2メガバイト以上の記憶容量が必要となる。このように、全ての軌跡を記憶することは、非現実的ではないかもしれないが、高くつく。
従来技術の非効率性を克服するため、数々の試みがなされてきた。例えば、スペースを省くため、各ビデオフレームの座標を圧縮する。この方法の1つの欠点は、軌跡の圧縮がプロセスを遅らせてしまうことである。圧縮するしないにかかわらず、各フレームについて座標が生成される。また、ビデオフレームをグリッドベースで分解することに基づいて各フレームの動きの位置を記憶するデバイスによって、軌跡の生成を避ける試みもなされている。このデバイスは各フレームについてデータを記憶し、動きの位置の精度は、軌跡の生成とは比較にならない。
したがって、本発明の目的は、従来技術の欠点を解消する方法とシステムを提供することである。
本発明の第1の態様において、毎フレームごとにオブジェクトの動きを記憶するのではなく、オブジェクトが所定量より動いたときに座標を記憶する。
この特徴により、従来の方法と比較してメモリまたはディスクを大幅に節約することができる。また、座標を生成する必要性が、従来行われていたフレームごとの生成の数分の一に大幅に減少する。ビデオコンテント分析モジュールは、ビデオフレーム中のオブジェクトを特定し、各オブジェクトiの座標(xi, yi)を決定する。オブジェクトを最初に特定されたとき、各オブジェクトiの基準座標(xrefi, yrefi)が(xi, yi)に設定される。後続のフレームについて、新しい座標(xnewi, ynewi)が基準座標から所与の距離より近いとき、すなわち
Figure 2005515529
であるとき、現在の座標は無視される。しかし、オブジェクトが距離εより大きく動いたとき、現在の座標(xnewi, ynewi)がオブジェクトの軌跡リストに記憶され、基準座標(xrefi, yrefi)をオブジェクトの現在の位置とする。このプロセスが後続する全てのビデオフレームに対して繰り返される。結果として得られるコンパクトな軌跡リストは、軌跡リストを生成中に、または生成が完了してから、メモリまたはディスクに書き込まれる。
本発明は多くの分野で使用することが可能であり、例えばショッピングモールなどの特定エリアで動きを追跡するビデオサーベイランスセキュリティシステムとしても使用することができる。VCR等の標準的なビデオカメラが従来必要とする記憶容量は、時として莫大なテープを消費する。また、テープを保管するのに場所をとらないようにするため、テープをすぐに再使用したり、どこかに送ったりする傾向がある。本発明によると、記憶容量が少なくて済むので、安全管理されたエリアの永続的な記憶をより現実的にすることができ、特定の場所が不法行為者によって事前に「下見」(例えば、不法行為者が不法行為を実行する観察すること)されたかどうかを調査員が調べることができる
また、商業分野において、本発明により客を追跡して、例えば客が小売店の精算の列でどのくらい待ったかを調べることができる。
したがって、本発明によるビデオ中の追跡されたオブジェクトの軌跡を記憶する方法は、
(a)第1のビデオフレーム中のオブジェクトを特定するステップと、
(b)前記第1のビデオフレーム中のステップ(a)で特定された前記オブジェクトの各々について、第1の基準座標(xrefi, yrefi)を決定するステップと、
(c)前記第1の基準座標(xrefi, yrefi)を記憶するステップと、
(d)第2のビデオフレーム中の前記オブジェクトを特定するステップと、
(e)前記第2のビデオフレーム中の前記オブジェクトの現在の基準座標(xnewi, ynewi)を決定するステップと、
(f)オブジェクトについて条件
Figure 2005515529
であって、εは所定の閾値であるもの、が満たされたとき、オブジェクト軌跡リスト中の前記オブジェクトの前記現在の基準座標を記憶し、前記第1の基準座標(xrefi, yrefi)を前記現在の基準座標(xnewi, ynewi)で置き換え、前記条件が満たされないとき、後続のビデオフレームと比較するために前記第1の基準座標(xrefi, yrefi)を保持するステップとを含むことを特徴とする。
本発明による方法は、さらに、
(g)ステップ(f)の前記条件が満たされるたびに、前記記憶エリアを追加の座標で更新し、前記現在の基準座標を新しい値で更新するように、ビデオシーケンス中の前記第2のビデオフレームに後続する全てのビデオフレームについてステップ(e)と(f)を繰り返すステップを含んでもよい。
オプションとして、本発明による方法は、ステップ(f)の前記条件が満たされないときであっても、前記オブジェクトの前記現在の座標を前記ビデオシーケンス中の前記後続ビデオフレームの最後のフレームの前記オブジェクト(すなわち、オブジェクトが消え、軌跡が終わる直前の座標)の最後の座標として記憶することを特徴とする方法。
ステップ(f)で記憶された前記オブジェクトの前記オブジェクト軌跡リストは、プロセッサの一時メモリを含み、
(h)前記ビデオシーケンスの全てのフレームがステップ(a)から(g)で処理された後、前記一時メモリに記憶された全ての座標から永続的記憶に前記オブジェクト軌跡リストを書き込むステップを含んでもよい。
ステップ(h)において参照された永続的記憶は、磁気ディスク、光ディスク、光磁気ディスク、またはテープの少なくとも1つを含んでもよい。代替的に、永続的記憶はネットワークサーバ上に用意されてもよい。
ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含んでもよい。前記ボックスバウンディング法は、
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)を決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)サブステップ(ii)(a)と(ii)(b)の2つの条件
Figure 2005515529
のうちいずれかが満たされるとき、現在のバウンディングボックス(wi, hi)を記憶するステップとを含んでもよい。
あるいは、前記ボックスバウンディング法は、
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)前記現在のバウンディングボックスの面積変化δa=|arefI-wi*hi|が所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
を含んでもよい。

図1A−1Cは本発明の第1の態様を示す図である。図1Aに示したように、フレーム105はオブジェクト100(この場合、人を表現する棒線画)を含んでいる。理解を助けるため、フレームにはX方向とY方向に両方とも数値スケールを示した。例えば、x、y座標は、オブジェクトピクセルの重心を使用して取得することができるし、またバウンディングボックス法(以下に説明する)の場合は、オブジェクトバウンディングボックスの中心を用いて取得することができることに注意する。
当業者は、スケールは一例として示したものであり、そこのスペースや数値は特許請求の範囲に記載した発明をこのスケールに限定するものではないことを理解すべきである。オブジェクト100は、このオブジェクトのx、y座標の基準点として使用される位置(xrefi, yrefi)にあるものとする。
オブジェクトとして特定されるものは人物とは限らず、例えばテーブル、椅子、机などの室内の静物を含んでもよいことに注意する。本技術分野において知られているように、これらのオブジェクトは、例えば色、形、サイズなどにより特定することができる。好ましくは、背景から動くオブジェクトを分離するために、背景減算法(background subtraction technique)を使用してもよい。この方法は、背景シーンの外観を学習し、学習した背景とは異なる画像ピクセルを特定することにより使用される。背景とは異なる画像ピクセルは、通常、前景オブジェクトに対応する。本出願人は、オブジェクトを特定する方法が提供されている以下の文献を、背景資料としてここに引用により援用(incorporate by reference)する:
A. Elgammal, D. Harwood, and L. Davis, “Non-parametric Model for Background Subtraction”, Proc. European Conf. on Computer vision, pp. II: 751-767, 2000、
C. Stauffer, W.E.L. Grimson, “Adaptive Background Mixture Models for Real-time Tracking”, Proc. Computer Vision and Pattern Recognition, pp. 246-252, 1999。
Staufferの文献では、簡単な追跡により、新しいフレーム内の各オブジェクトを先行するフレーム内の最も近いオブジェクトと同じ数字でマーキングすることにより、連続するフレーム内のオブジェクトが距離に基づきリンクされる。また、例えば、接続コンポーネント(connected-components)アルゴリズムにより、前景ピクセルをグループ化することにより、オブジェクトを特定することができる。接続コンポーネントアルゴリズムについては、以下の文献に説明されており、背景資料としてここに参照により援用する。
T. Cormen, C. Leiserson, R. Rivest, “Introduction to Algorithms”, MIT Press, 1990, chapter 22.1。
最後に、以下の米国特許出願に説明されているように、オブジェクトを追跡できる。その内容はここに参照により援用する。
“Computer Vision Method and System for Blob-Based Analysis Using a Probabilistic Network”, U.S. serial 09/988,946 filed November 19, 2001。
代替的に、オブジェクトを手動で特定することもできる。図1Bに示したとおり、オブジェクト100は、第1のフレーム105の(xrefi, yrefi)から離れた座標(xnewi, ynewi)を有する、第2のフレーム110で捉えられた新しい位置に動いている。
オブジェクトを特定し追跡する方法はたくさんあるが、本発明は、オブジェクトを特定し追跡する方法にはかかわりなく適用可能であることが分かる。オブジェクトを特定し追跡する方法にはかかわりなく、かなりの記憶容量を削減することができる。
本発明の一態様によると、各オブジェクトと各フレームについて新しい座標を記憶するのではなく、アルゴリズムにより第2のフレーム中のオブジェクト100の動きは、所定量より大きいかどうかを判断する。動きが所定量より小さい場合、図1Bの座標は記憶されない。第1のフレーム105中で特定された基準座標は、後続フレームに対して引き続き使用される。
図2Aは、(読者の便宜のため)再びフレーム105を示し、フレーム105の座標が第3のフレーム210中の動きを追跡するために使用される。第3のフレームにおけるオブジェクト100の動き量は、第1のフレーム105中の位置と対比して、所定の閾値よりも大きい。したがって、図2B中のオブジェクト100の座標は、古い(xrefi, yrefi)に対して、新しい基準座標(図中、新しい(xrefi, yrefi)と示されている)になる。したがって、オブジェクト100の軌跡は、フレーム2中の座標を保存する必要はなく、フレーム1、3中の座標を含む。例えば、NTSC等の標準は毎秒30フレームを生成するので、かなりの量の座標を記憶する必要がないように、動きの所定量を設定できる。このプロセスは、今まで知られていない圧縮効率を許容できる。
所定の閾値として使用する動き量は、アプリケーションに応じて決めることができ、閾値は動的に計算し、または分析プロセスの間に変更することもできる。平均オブジェクト速度、オブジェクトの一般的なサイズ、オブジェクトの重要性、その他のビデオの統計等の要因に基づき、動的計算を行うことができる。
例えば、警備フィルムにおいて、閾値をより大きくすると情報の記憶が効率的になるのとは逆に、追跡しているアイテムが非常に高価なものであるとき、動き量を非常に小さくすることができる。これは記憶容量とコストに基づく重要な考察である。また、座標の軌跡が実際の動きに望むだけ近くなるように、閾値をアプリケーションごとに決めることができる。換言すると、閾値が大きすぎると、記憶されているのとは異なる方向に動くことがある。したがって、動きの軌跡は、保存された座標だけの間にあり、各個別のフレームについて従来の方法で追跡され記憶された厳密な経路から必ずしもなるわけではない。多くの圧縮の形式にともなって、オブジェクトの表現は通常ある程度削除される。
図3A−3Cは、ボックスバウンディング法に関する本発明の他の態様を示す図である。カメラを示したが、当業者は、ビデオ画像はビデオサーバ、DVD、ビデオテープ等から取ってもよいことが分かるであろう。オブジェクトがカメラに近づく、またはカメラから遠ざかるとき、そのオブジェクトの座標は、新しい軌跡座標を生成して記憶するほどには変化しないであろう。ボックスバウンディング法は、この問題を解決する1つの方法である。例えば、1つのオブジェクトがカメラに向かって、またはカメラから遠ざかっている場合、オブジェクトのサイズは動きの方向により大きくなったり小さくなったりする。
図3Aから3Cは、サイズ追跡を用いたボックスバウンディング法を示す図である。図3Aに示したように、バウンディングボックス305は、第1のフレーム310中のオブジェクト307の幅と高さを表している。
図3Bの第2のフレーム312中に示したように、オブジェクト307の310におけるバウンディングボックスが変化している(これらの図は説明のためのものであり、必ずしもスケールは正確ではない)。
図3Cに示したとおり、ボックスバウンディング法によると、後続フレーム中のバウンディングボックスの幅または高さが先行フレームの基準ボックスの幅または高さと所定閾値以上異なるとき、第2のフレーム312中のオブジェクトの座標が記憶される。あるいは、バウンディングボックスの面積(幅×高さ)を使ってもよい。バウンディングボックス310の面積が基準バウンディングボックス305の面積より所定量異なるとき、第2のフレームの座標を記憶する。
図4は、本発明によるシステムの一実施形態を示す図である。要素間の接続は有線、無線、光ファイバ等のいかなる組み合わせでもよい。また、これら要素の一部は、ネットワークを介して接続されいてもよく、ネットワークはインターネットでもよいが、これに限定されない。図4に示したとおり、カメラ405は画像を捉え、その情報をプロセッサ410に送る。プロセッサ410は、ビデオフレーム中のオブジェクトを特定し、各オブジェクトの座標を決定するビデオコンテント分析モジュール415を含む。各オブジェクトの現在の基準座標を、例えばRAM420に記憶する。他のタイプのメモリを用いてもよい。軌跡は経路なので、特定されたオブジェクトの最初の基準座標が永続的記憶エリア425に記憶される。この永続的記憶エリアは、磁気ディスク、光ディスク、光磁気ディスク、ディスケット、テープ、その他タイプの記憶媒体であっても良い。この記憶エリアはプロセッサ410と同一ユニットであってもよく、離れていてもよい。この記憶エリアはサーバ430の一部であっても、またはサーバ430にアクセスされるものであってもよい。ビデオコンテントモジュールが、フレーム中のオブジェクトの動きが基準座標の値を所定閾値を超えるたびに、RAM420中の現在の基準座標が永続的記憶される(425)のと同様に、更新される。このシステムは閾値を超えた動きを記憶するだけなので、すべてのフレームを記録する必要も、そのための記憶容量を持つ必要も減少し、多くの場合なくなる。記憶はビデオテープでもよいことにも注意すべきである。
図5Aと5Bは、本発明のプロセスの概要を示すフローチャートである。
ステップ500において、第1のビデオフレーム中のオブジェクトを特定する。
ステップ510において、第1のビデオフレーム中に特定されたオブジェクトの各々の基準座標を決定する。基準座標は既知の方法により決定すればよく、例えば、オブジェクトバウンディングボックスの中心やオブジェクトピクセルの重心を用いてもよい。
ステップ520において、ステップ10で決定された第1の基準座標を記憶する。通常、この座標は、オブジェクトの軌跡を記録する、不揮発性のメモリに記憶することができる。しかし、座標を各ステップの後に記憶する必要はないことは理解すべきである。言い換えると、座標はテーブルを用いて追跡しておき、すべてのフレームを処理してから、その時に軌跡を記憶するようにしてもよい。
ステップ530において、第2のビデオフレームのオブジェクトを特定する。
ステップ540において、第2のビデオフレーム中のオブジェクトの現在の基準座標を決定する。この座標は、第1のフレームと同一であってもなくてもよい。図5Bに示したように、ステップ550において、オブジェクトについて以下の条件
Figure 2005515529
が満たされたとき、オブジェクト軌跡リストにオブジェクトの現在の基準座標を記憶し、そのオブジェクトの第1の基準座標を置き換えるために使用される。しかし、上記条件が満たされないとき、後続のビデオフレームと比較するため、第1の基準座標を保持する。プロセスは全てのビデオフレームを処理するまで続けられる。前述したとおり、オブジェクト軌跡リストはテーブルであっても、プロセッサ内の一時記憶エリアであってもよく、後でハードディスクドライブ、書き込み可能CD−ROM、テープ、不揮発性メモリ等に記憶される。当業者は、本発明の精神と特許請求の範囲から逸脱することなく、本発明を様々に変更することができるであろう。例えば、ビデオフレーム中のオブジェクトを特定するのに用いる方法のタイプや、追加の座標を記憶するかどうかを決める閾値は、特許請求の範囲に記載した発明の精神において変更できるであろう。また、プロセスに時間期間を導入して、例えば、たとえ動きが所定の閾値に達していなくても、所定時間の後、座標を記憶してもよい。また、x、y以外の座標(例えば、z)を用いてもよいし、xy座標を他の空間、平面、あるいは座標系に変換して、新しい空間で測定してもよい。これは本発明の精神と、特許請求の範囲に含まれ、当業者は理解していることである。例えば、測定前に画像を射影変換してもよい。また、距離はユークリッド距離でなくてもよく、例えば、
Figure 2005515529
のように、より計算が容易なものであっても良い。
図1A−1Cは本発明の第1の態様を示す図であり、図1Aに対する図1B中の動きは図1Cの数式を満たしていない。 図2A−2Cは本発明の第2の態様を示す図であり、図2Aに対する図2B中の動きは図2Cの数式を満たしている。 図3A−3Cはボックスバウンディング法に関する本発明の他の態様を示す図である。 本発明によるシステムの概要を示す図である。 本発明の一態様を示すフローチャートである。 本発明の一態様を示すフローチャートである。

Claims (18)

  1. ビデオ中の追跡されたオブジェクトの軌跡を記憶する方法であって、
    (a)第1のビデオフレーム中のオブジェクトを特定するステップと、
    (b)前記第1のビデオフレーム中のステップ(a)で特定された前記オブジェクトの各々について、第1の基準座標(xrefi, yrefi)を決定するステップと、
    (c)前記第1の基準座標(xrefi, yrefi)を記憶するステップと、
    (d)第2のビデオフレーム中の前記オブジェクトを特定するステップと、
    (e)前記第2のビデオフレーム中の前記オブジェクトの現在の基準座標(xnewi, ynewi)を決定するステップと、
    (f)オブジェクトについての条件
    Figure 2005515529
    であって、εは所定の閾値であるものが満たされたとき、オブジェクト軌跡リスト中の前記オブジェクトの前記現在の基準座標を記憶し、前記第1の基準座標(xrefi, yrefi)を前記現在の基準座標(xnewi, ynewi)で置き換え、前記条件が満たされないとき、後続のビデオフレームと比較するために前記第1の基準座標(xrefi, yrefi)を保持するステップと
    を含むことを特徴とする方法。
  2. 請求項1に記載の方法であって、さらに、
    (g)ステップ(f)の前記条件が満たされるたびに、前記記憶エリアを追加の座標で更新し、前記現在の基準座標を新しい値で更新するように、ビデオシーケンス中の前記第2のビデオフレームに後続する全てのビデオフレームについてステップ(e)と(f)を繰り返すステップ
    を含むことを特徴とする方法。
  3. 請求項1に記載の方法であって、ステップ(f)の前記条件が満たされないとき、前記オブジェクトの前記現在の座標を前記ビデオシーケンス中の前記後続ビデオフレームの最後のフレームの最後の座標として記憶することを特徴とする方法。
  4. 請求項1に記載の方法であって、さらに、
    ステップ(f)の前記条件が満たされなくとも、前記ビデオシーケンス中の前記後続ビデオフレームから前記オブジェクトが消え軌跡が終わる前に、前記現在の座標を最後の座標として記憶するステップ
    を含むことを特徴とする方法。
  5. 請求項1記載の方法であって、
    ステップ(f)で記憶された前記オブジェクトの前記オブジェクト軌跡リストは、プロセッサの一時メモリを含み、
    (h)前記ビデオシーケンスの全てのフレームがステップ(a)から(g)で処理された後、前記一時メモリに記憶された全ての座標から永続的記憶に前記オブジェクト軌跡リストを書き込むステップ
    を含むことを特徴とする方法。
  6. 請求項1に記載の方法であって、ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含むことを特徴とする方法。
  7. 請求項2に記載の方法であって、ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含むことを特徴とする方法。
  8. 請求項5に記載の方法であって、ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含むことを特徴とする方法。
  9. 請求項6に記載の方法であって、前記ボックスバウンディング法は、
    (i)前記オブジェクトの基準バウンディングボックス(wref, href)を決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
    (ii)サブステップ(ii)(a)と(ii)(b)の2つの条件
    Figure 2005515529
    のうちいずれかが満たされるとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
    を含むことを特徴とする方法。
  10. 請求項6に記載の方法であって、現在の基準座標が閾値εに達したかどうかの前記決定は、前記ボックスバウンディング法と(xnewi, ynewi)と(xrefi, yrefi)の差の組み合わせを含むことを特徴とする方法。
  11. 請求項8に記載の方法であって、前記ボックスバウンディング法は、
    (i)前記オブジェクトの基準バウンディングボックス(wref, href)を決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
    (ii)サブステップ(ii)(a)と(ii)(b)の2つの条件
    Figure 2005515529
    のうちいずれかが満たされるとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
    を含むことを特徴とする方法。
  12. 請求項9に記載の方法であって、前記ボックスバウンディング法は、
    (i)前記オブジェクトの基準バウンディングボックス(wref, href)を決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
    (ii)サブステップ(ii)(a)と(ii)(b)の2つの条件
    Figure 2005515529
    のうちいずれかが満たされるとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
    を含むことを特徴とする方法。
  13. 請求項7に記載の方法であって、前記ボックスバウンディング法は、
    (i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
    (ii)前記現在のバウンディングボックスの面積変化δaが所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
    を含むことを特徴とする方法。
  14. 請求項8に記載の方法であって、前記ボックスバウンディング法は、
    (i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
    (ii)前記現在のバウンディングボックスの面積変化δaが所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
    を含むことを特徴とする方法。
  15. 請求項9に記載の方法であって、前記ボックスバウンディング法は、
    (i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
    (ii)前記現在のバウンディングボックスの面積変化δaが所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
    を含むことを特徴とする方法。
  16. 請求項1に記載の方法であって、前記オブジェクトの前記所定の閾値εは、平均オブジェクト速度、前記オブジェクトのサイズ、前記オブジェクトの重要性の指定のうち1つにより動的に算出されることを特徴とする方法。
  17. ビデオ中の追跡されたオブジェクトの軌跡を記憶するシステムであって、
    プロセッサと、
    前記プロセッサに画像を供給するビデオ入力と、
    前記プロセッサに供給された前記画像中のオブジェクトの座標を追跡するビデオコンテント分析モジュールと、
    オブジェクト軌跡を記憶する手段と
    を備えたシステムであって、
    前記ビデオコンテントモジュールは、第1のフレームに係る後続フレーム中の前記オブジェクトの動き量が基準座標値から閾値を越えたときにのみ、前記基準座標を前記画像の前記第1の基準フレーム中の特定された各オブジェクトに割当て、前記基準座標値を前記後続フレームの値に更新することを特徴とするシステム。
  18. ビデオ中の追跡されたオブジェクトの軌跡を記憶する方法であって、
    (a)第1のビデオフレーム中のオブジェクトを特定するステップと、
    (b)前記第1のビデオフレーム中のステップ(a)で特定された前記オブジェクトの各々について、第1の基準座標(xrefi, yrefi)を決定するステップと、
    (c)前記第1の基準座標(xrefi, yrefi)を記憶するステップと、
    (d)第2のビデオフレーム中の前記オブジェクトを特定するステップと、
    (e)前記第2のビデオフレーム中の前記オブジェクトの現在の基準座標(xnewi, ynewi)を決定するステップと、
    (f)オブジェクトについて条件
    Figure 2005515529
    であって、εは所定の閾値であるもの、が満たされたとき、オブジェクト軌跡リスト中の前記オブジェクトの前記現在の基準座標を記憶し、前記第1の基準座標(xrefi, yrefi)を前記現在の基準座標(xnewi, ynewi)で置き換え、前記条件が満たされないとき、後続のビデオフレームと比較するために前記第1の基準座標(xrefi, yrefi)を保持するステップと
    を含むことを特徴とする方法。
JP2003560590A 2001-12-27 2002-12-10 ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法 Withdrawn JP2005515529A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/029,730 US20030126622A1 (en) 2001-12-27 2001-12-27 Method for efficiently storing the trajectory of tracked objects in video
PCT/IB2002/005377 WO2003060548A2 (en) 2001-12-27 2002-12-10 Method for efficiently storing the trajectory of tracked objects in video

Publications (1)

Publication Number Publication Date
JP2005515529A true JP2005515529A (ja) 2005-05-26

Family

ID=21850560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003560590A Withdrawn JP2005515529A (ja) 2001-12-27 2002-12-10 ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法

Country Status (7)

Country Link
US (1) US20030126622A1 (ja)
EP (1) EP1461636A2 (ja)
JP (1) JP2005515529A (ja)
KR (1) KR20040068987A (ja)
CN (1) CN1613017A (ja)
AU (1) AU2002353331A1 (ja)
WO (1) WO2003060548A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537766A (ja) * 2015-11-04 2018-12-20 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. ユニバーサル対応ネットワーク

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
SE527467C2 (sv) * 2003-12-22 2006-03-14 Abb Research Ltd Förfarande för positionering och ett positioneringssystem
US8027512B2 (en) 2005-09-30 2011-09-27 Robert Bosch Gmbh Method and software program for searching image information
EP2013817A2 (en) 2006-04-17 2009-01-14 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US8588583B2 (en) * 2007-08-22 2013-11-19 Adobe Systems Incorporated Systems and methods for interactive video frame selection
US20130021512A1 (en) * 2011-07-20 2013-01-24 Broadcom Corporation Framing of Images in an Image Capture Device
US8929588B2 (en) 2011-07-22 2015-01-06 Honeywell International Inc. Object tracking
US9438947B2 (en) 2013-05-01 2016-09-06 Google Inc. Content annotation tool
KR101803275B1 (ko) * 2016-06-20 2017-12-01 (주)핑거플러스 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치
US10970855B1 (en) 2020-03-05 2021-04-06 International Business Machines Corporation Memory-efficient video tracking in real-time using direction vectors
CN113011331B (zh) * 2021-03-19 2021-11-09 吉林大学 机动车是否礼让行人的检测方法、装置、电子设备及介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5213281A (en) * 1991-08-30 1993-05-25 Texas Instruments Incorporated Method and apparatus for tracking an aimpoint with arbitrary subimages
GB9215102D0 (en) * 1992-07-16 1992-08-26 Philips Electronics Uk Ltd Tracking moving objects
JP3487436B2 (ja) * 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム
JP3268953B2 (ja) * 1995-02-27 2002-03-25 三洋電機株式会社 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6741725B2 (en) * 1999-05-26 2004-05-25 Princeton Video Image, Inc. Motion tracking using image-texture templates
US6707486B1 (en) * 1999-12-15 2004-03-16 Advanced Technology Video, Inc. Directional motion estimator
US6731805B2 (en) * 2001-03-28 2004-05-04 Koninklijke Philips Electronics N.V. Method and apparatus to distinguish deposit and removal in surveillance video
US6985603B2 (en) * 2001-08-13 2006-01-10 Koninklijke Philips Electronics N.V. Method and apparatus for extending video content analysis to multiple channels
US8316407B2 (en) * 2005-04-04 2012-11-20 Honeywell International Inc. Video system interface kernel
US7529646B2 (en) * 2005-04-05 2009-05-05 Honeywell International Inc. Intelligent video for building management and automation
US9077882B2 (en) * 2005-04-05 2015-07-07 Honeywell International Inc. Relevant image detection in a camera, recorder, or video streaming device
US7876361B2 (en) * 2005-07-26 2011-01-25 Honeywell International Inc. Size calibration and mapping in overhead camera view

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537766A (ja) * 2015-11-04 2018-12-20 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. ユニバーサル対応ネットワーク

Also Published As

Publication number Publication date
EP1461636A2 (en) 2004-09-29
CN1613017A (zh) 2005-05-04
US20030126622A1 (en) 2003-07-03
KR20040068987A (ko) 2004-08-02
WO2003060548A3 (en) 2004-06-10
WO2003060548A2 (en) 2003-07-24
AU2002353331A1 (en) 2003-07-30

Similar Documents

Publication Publication Date Title
JP4320141B2 (ja) 要約映像生成のための方法とシステム
JP4699564B2 (ja) 視覚背景抽出器
Antonakaki et al. Detecting abnormal human behaviour using multiple cameras
JP2005515529A (ja) ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法
Wang Real-time moving vehicle detection with cast shadow removal in video based on conditional random field
JP2008518331A (ja) リアルタイムビデオ動き解析を通じたビデオコンテンツ理解
JP2005510159A (ja) ビデオプリミティブを利用する監視テレビ装置
GB2409028A (en) Face detection
EP1542152B1 (en) Object detection
JPWO2011013281A1 (ja) 移動体検出方法及び移動体検出装置
WO2016120132A1 (en) Method and apparatus for generating an initial superpixel label map for an image
WO2008125854A1 (en) Method for tracking multiple objects with occlusions
CN114549582A (zh) 一种轨迹地图生成方法、装置及计算机可读存储介质
JP4572175B2 (ja) 非定常映像検出装置,非定常映像検出方法及びその方法を実装したプログラム
Porikli Multi-Camera Surveillance: Objec-Based Summarization Approach
Kapoor et al. Fast tracking algorithm using modified potential function
Panda et al. Particle filter and entropy-based measure for tracking of video objects
Jadhav et al. Adaptive background subtraction models for shot detection
Ilamathi et al. Transprecision Gaussian Average Background Modelling Technique for Multi-vehicle Tracking Applications
Kamaraj An improved motion detection and tracking of active blob for video surveillance
Ali Feature-based tracking of multiple people for intelligent video surveillance.
Krerngkamjornkit et al. Multi object detection and tracking from video file
Pejčić et al. Detection of moving objects using incremental connectivity outlier factor algorithm
Jung et al. Automatic video object tracking using a mosaic-based background
Hochuli et al. Detection and classification of human movements in video scenes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051207

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070726