JP2005515529A - ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法 - Google Patents
ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法 Download PDFInfo
- Publication number
- JP2005515529A JP2005515529A JP2003560590A JP2003560590A JP2005515529A JP 2005515529 A JP2005515529 A JP 2005515529A JP 2003560590 A JP2003560590 A JP 2003560590A JP 2003560590 A JP2003560590 A JP 2003560590A JP 2005515529 A JP2005515529 A JP 2005515529A
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- video
- current
- box
- bounding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
- G01S3/7865—T.V. type tracking systems using correlation of the live video image with a stored image
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
軌跡を記憶するためのプロセスとシステムによって、従来の方法とシステムにより必要とされた記憶容量を減少する。ビデオコンテント分析モジュールは、自動的にビデオフレーム中のオブジェクトを特定し、各オブジェクトiの座標(xi, yi)を決定する。オブジェクトを最初に特定されたとき、各オブジェクトiの基準座標(xrefi, yrefi)が(xi, yi)に設定される。後続のフレームについて、新しい座標(xnewi, ynewi)が基準座標から所与の距離より近いとき、すなわち、|(xnewi, ynewi)-(xrefi, yrefi)|2<εであるとき、現在の座標は無視される。しかし、オブジェクトが距離εより大きく動いたとき、現在の座標(xnewi, ynewi)がオブジェクトの軌跡リストに記憶され、基準座標(xrefi, yrefi)をオブジェクトの現在の位置とする。このプロセスが後続する全てのビデオフレームに対して繰り返される。結果として得られるコンパクトな軌跡リストは、軌跡リストを生成中に、または生成が完了してから、メモリまたはディスクに書き込まれる。
Description
本発明はビデオシーケンス中のオブジェクトの追跡に関する。特に、オブジェクトの軌跡を追跡するために使用された座標の記憶に関する。
従来技術では、オブジェクトをビデオシーケンス中で追跡するとき、ビデオの各フレームについて軌跡座標を生成する。例えば、毎秒30フレームを生成するNTSC規格の下では、ビデオシーケンス中の各オブジェクトの新しい位置または座標を各フレームごとに生成し記憶しなければならない。
このプロセスは非常に非効率的であり、莫大な記憶容量を必要とする。例えば、ビデオシーケンス中の5つのオブジェクトが追跡されているとき、1時間の軌跡データを記憶するために2メガバイト以上の記憶容量が必要となる。このように、全ての軌跡を記憶することは、非現実的ではないかもしれないが、高くつく。
従来技術の非効率性を克服するため、数々の試みがなされてきた。例えば、スペースを省くため、各ビデオフレームの座標を圧縮する。この方法の1つの欠点は、軌跡の圧縮がプロセスを遅らせてしまうことである。圧縮するしないにかかわらず、各フレームについて座標が生成される。また、ビデオフレームをグリッドベースで分解することに基づいて各フレームの動きの位置を記憶するデバイスによって、軌跡の生成を避ける試みもなされている。このデバイスは各フレームについてデータを記憶し、動きの位置の精度は、軌跡の生成とは比較にならない。
したがって、本発明の目的は、従来技術の欠点を解消する方法とシステムを提供することである。
本発明の第1の態様において、毎フレームごとにオブジェクトの動きを記憶するのではなく、オブジェクトが所定量より動いたときに座標を記憶する。
この特徴により、従来の方法と比較してメモリまたはディスクを大幅に節約することができる。また、座標を生成する必要性が、従来行われていたフレームごとの生成の数分の一に大幅に減少する。ビデオコンテント分析モジュールは、ビデオフレーム中のオブジェクトを特定し、各オブジェクトiの座標(xi, yi)を決定する。オブジェクトを最初に特定されたとき、各オブジェクトiの基準座標(xrefi, yrefi)が(xi, yi)に設定される。後続のフレームについて、新しい座標(xnewi, ynewi)が基準座標から所与の距離より近いとき、すなわち
本発明は多くの分野で使用することが可能であり、例えばショッピングモールなどの特定エリアで動きを追跡するビデオサーベイランスセキュリティシステムとしても使用することができる。VCR等の標準的なビデオカメラが従来必要とする記憶容量は、時として莫大なテープを消費する。また、テープを保管するのに場所をとらないようにするため、テープをすぐに再使用したり、どこかに送ったりする傾向がある。本発明によると、記憶容量が少なくて済むので、安全管理されたエリアの永続的な記憶をより現実的にすることができ、特定の場所が不法行為者によって事前に「下見」(例えば、不法行為者が不法行為を実行する観察すること)されたかどうかを調査員が調べることができる
また、商業分野において、本発明により客を追跡して、例えば客が小売店の精算の列でどのくらい待ったかを調べることができる。
また、商業分野において、本発明により客を追跡して、例えば客が小売店の精算の列でどのくらい待ったかを調べることができる。
したがって、本発明によるビデオ中の追跡されたオブジェクトの軌跡を記憶する方法は、
(a)第1のビデオフレーム中のオブジェクトを特定するステップと、
(b)前記第1のビデオフレーム中のステップ(a)で特定された前記オブジェクトの各々について、第1の基準座標(xrefi, yrefi)を決定するステップと、
(c)前記第1の基準座標(xrefi, yrefi)を記憶するステップと、
(d)第2のビデオフレーム中の前記オブジェクトを特定するステップと、
(e)前記第2のビデオフレーム中の前記オブジェクトの現在の基準座標(xnewi, ynewi)を決定するステップと、
(f)オブジェクトについて条件
(a)第1のビデオフレーム中のオブジェクトを特定するステップと、
(b)前記第1のビデオフレーム中のステップ(a)で特定された前記オブジェクトの各々について、第1の基準座標(xrefi, yrefi)を決定するステップと、
(c)前記第1の基準座標(xrefi, yrefi)を記憶するステップと、
(d)第2のビデオフレーム中の前記オブジェクトを特定するステップと、
(e)前記第2のビデオフレーム中の前記オブジェクトの現在の基準座標(xnewi, ynewi)を決定するステップと、
(f)オブジェクトについて条件
本発明による方法は、さらに、
(g)ステップ(f)の前記条件が満たされるたびに、前記記憶エリアを追加の座標で更新し、前記現在の基準座標を新しい値で更新するように、ビデオシーケンス中の前記第2のビデオフレームに後続する全てのビデオフレームについてステップ(e)と(f)を繰り返すステップを含んでもよい。
(g)ステップ(f)の前記条件が満たされるたびに、前記記憶エリアを追加の座標で更新し、前記現在の基準座標を新しい値で更新するように、ビデオシーケンス中の前記第2のビデオフレームに後続する全てのビデオフレームについてステップ(e)と(f)を繰り返すステップを含んでもよい。
オプションとして、本発明による方法は、ステップ(f)の前記条件が満たされないときであっても、前記オブジェクトの前記現在の座標を前記ビデオシーケンス中の前記後続ビデオフレームの最後のフレームの前記オブジェクト(すなわち、オブジェクトが消え、軌跡が終わる直前の座標)の最後の座標として記憶することを特徴とする方法。
ステップ(f)で記憶された前記オブジェクトの前記オブジェクト軌跡リストは、プロセッサの一時メモリを含み、
(h)前記ビデオシーケンスの全てのフレームがステップ(a)から(g)で処理された後、前記一時メモリに記憶された全ての座標から永続的記憶に前記オブジェクト軌跡リストを書き込むステップを含んでもよい。
(h)前記ビデオシーケンスの全てのフレームがステップ(a)から(g)で処理された後、前記一時メモリに記憶された全ての座標から永続的記憶に前記オブジェクト軌跡リストを書き込むステップを含んでもよい。
ステップ(h)において参照された永続的記憶は、磁気ディスク、光ディスク、光磁気ディスク、またはテープの少なくとも1つを含んでもよい。代替的に、永続的記憶はネットワークサーバ上に用意されてもよい。
ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含んでもよい。前記ボックスバウンディング法は、
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)を決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)サブステップ(ii)(a)と(ii)(b)の2つの条件
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)を決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)サブステップ(ii)(a)と(ii)(b)の2つの条件
あるいは、前記ボックスバウンディング法は、
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)前記現在のバウンディングボックスの面積変化δa=|arefI-wi*hi|が所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
を含んでもよい。
図1A−1Cは本発明の第1の態様を示す図である。図1Aに示したように、フレーム105はオブジェクト100(この場合、人を表現する棒線画)を含んでいる。理解を助けるため、フレームにはX方向とY方向に両方とも数値スケールを示した。例えば、x、y座標は、オブジェクトピクセルの重心を使用して取得することができるし、またバウンディングボックス法(以下に説明する)の場合は、オブジェクトバウンディングボックスの中心を用いて取得することができることに注意する。
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)前記現在のバウンディングボックスの面積変化δa=|arefI-wi*hi|が所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
を含んでもよい。
図1A−1Cは本発明の第1の態様を示す図である。図1Aに示したように、フレーム105はオブジェクト100(この場合、人を表現する棒線画)を含んでいる。理解を助けるため、フレームにはX方向とY方向に両方とも数値スケールを示した。例えば、x、y座標は、オブジェクトピクセルの重心を使用して取得することができるし、またバウンディングボックス法(以下に説明する)の場合は、オブジェクトバウンディングボックスの中心を用いて取得することができることに注意する。
当業者は、スケールは一例として示したものであり、そこのスペースや数値は特許請求の範囲に記載した発明をこのスケールに限定するものではないことを理解すべきである。オブジェクト100は、このオブジェクトのx、y座標の基準点として使用される位置(xrefi, yrefi)にあるものとする。
オブジェクトとして特定されるものは人物とは限らず、例えばテーブル、椅子、机などの室内の静物を含んでもよいことに注意する。本技術分野において知られているように、これらのオブジェクトは、例えば色、形、サイズなどにより特定することができる。好ましくは、背景から動くオブジェクトを分離するために、背景減算法(background subtraction technique)を使用してもよい。この方法は、背景シーンの外観を学習し、学習した背景とは異なる画像ピクセルを特定することにより使用される。背景とは異なる画像ピクセルは、通常、前景オブジェクトに対応する。本出願人は、オブジェクトを特定する方法が提供されている以下の文献を、背景資料としてここに引用により援用(incorporate by reference)する:
A. Elgammal, D. Harwood, and L. Davis, “Non-parametric Model for Background Subtraction”, Proc. European Conf. on Computer vision, pp. II: 751-767, 2000、
C. Stauffer, W.E.L. Grimson, “Adaptive Background Mixture Models for Real-time Tracking”, Proc. Computer Vision and Pattern Recognition, pp. 246-252, 1999。
Staufferの文献では、簡単な追跡により、新しいフレーム内の各オブジェクトを先行するフレーム内の最も近いオブジェクトと同じ数字でマーキングすることにより、連続するフレーム内のオブジェクトが距離に基づきリンクされる。また、例えば、接続コンポーネント(connected-components)アルゴリズムにより、前景ピクセルをグループ化することにより、オブジェクトを特定することができる。接続コンポーネントアルゴリズムについては、以下の文献に説明されており、背景資料としてここに参照により援用する。
T. Cormen, C. Leiserson, R. Rivest, “Introduction to Algorithms”, MIT Press, 1990, chapter 22.1。
最後に、以下の米国特許出願に説明されているように、オブジェクトを追跡できる。その内容はここに参照により援用する。
“Computer Vision Method and System for Blob-Based Analysis Using a Probabilistic Network”, U.S. serial 09/988,946 filed November 19, 2001。
A. Elgammal, D. Harwood, and L. Davis, “Non-parametric Model for Background Subtraction”, Proc. European Conf. on Computer vision, pp. II: 751-767, 2000、
C. Stauffer, W.E.L. Grimson, “Adaptive Background Mixture Models for Real-time Tracking”, Proc. Computer Vision and Pattern Recognition, pp. 246-252, 1999。
Staufferの文献では、簡単な追跡により、新しいフレーム内の各オブジェクトを先行するフレーム内の最も近いオブジェクトと同じ数字でマーキングすることにより、連続するフレーム内のオブジェクトが距離に基づきリンクされる。また、例えば、接続コンポーネント(connected-components)アルゴリズムにより、前景ピクセルをグループ化することにより、オブジェクトを特定することができる。接続コンポーネントアルゴリズムについては、以下の文献に説明されており、背景資料としてここに参照により援用する。
T. Cormen, C. Leiserson, R. Rivest, “Introduction to Algorithms”, MIT Press, 1990, chapter 22.1。
最後に、以下の米国特許出願に説明されているように、オブジェクトを追跡できる。その内容はここに参照により援用する。
“Computer Vision Method and System for Blob-Based Analysis Using a Probabilistic Network”, U.S. serial 09/988,946 filed November 19, 2001。
代替的に、オブジェクトを手動で特定することもできる。図1Bに示したとおり、オブジェクト100は、第1のフレーム105の(xrefi, yrefi)から離れた座標(xnewi, ynewi)を有する、第2のフレーム110で捉えられた新しい位置に動いている。
オブジェクトを特定し追跡する方法はたくさんあるが、本発明は、オブジェクトを特定し追跡する方法にはかかわりなく適用可能であることが分かる。オブジェクトを特定し追跡する方法にはかかわりなく、かなりの記憶容量を削減することができる。
本発明の一態様によると、各オブジェクトと各フレームについて新しい座標を記憶するのではなく、アルゴリズムにより第2のフレーム中のオブジェクト100の動きは、所定量より大きいかどうかを判断する。動きが所定量より小さい場合、図1Bの座標は記憶されない。第1のフレーム105中で特定された基準座標は、後続フレームに対して引き続き使用される。
図2Aは、(読者の便宜のため)再びフレーム105を示し、フレーム105の座標が第3のフレーム210中の動きを追跡するために使用される。第3のフレームにおけるオブジェクト100の動き量は、第1のフレーム105中の位置と対比して、所定の閾値よりも大きい。したがって、図2B中のオブジェクト100の座標は、古い(xrefi, yrefi)に対して、新しい基準座標(図中、新しい(xrefi, yrefi)と示されている)になる。したがって、オブジェクト100の軌跡は、フレーム2中の座標を保存する必要はなく、フレーム1、3中の座標を含む。例えば、NTSC等の標準は毎秒30フレームを生成するので、かなりの量の座標を記憶する必要がないように、動きの所定量を設定できる。このプロセスは、今まで知られていない圧縮効率を許容できる。
所定の閾値として使用する動き量は、アプリケーションに応じて決めることができ、閾値は動的に計算し、または分析プロセスの間に変更することもできる。平均オブジェクト速度、オブジェクトの一般的なサイズ、オブジェクトの重要性、その他のビデオの統計等の要因に基づき、動的計算を行うことができる。
例えば、警備フィルムにおいて、閾値をより大きくすると情報の記憶が効率的になるのとは逆に、追跡しているアイテムが非常に高価なものであるとき、動き量を非常に小さくすることができる。これは記憶容量とコストに基づく重要な考察である。また、座標の軌跡が実際の動きに望むだけ近くなるように、閾値をアプリケーションごとに決めることができる。換言すると、閾値が大きすぎると、記憶されているのとは異なる方向に動くことがある。したがって、動きの軌跡は、保存された座標だけの間にあり、各個別のフレームについて従来の方法で追跡され記憶された厳密な経路から必ずしもなるわけではない。多くの圧縮の形式にともなって、オブジェクトの表現は通常ある程度削除される。
図3A−3Cは、ボックスバウンディング法に関する本発明の他の態様を示す図である。カメラを示したが、当業者は、ビデオ画像はビデオサーバ、DVD、ビデオテープ等から取ってもよいことが分かるであろう。オブジェクトがカメラに近づく、またはカメラから遠ざかるとき、そのオブジェクトの座標は、新しい軌跡座標を生成して記憶するほどには変化しないであろう。ボックスバウンディング法は、この問題を解決する1つの方法である。例えば、1つのオブジェクトがカメラに向かって、またはカメラから遠ざかっている場合、オブジェクトのサイズは動きの方向により大きくなったり小さくなったりする。
図3Aから3Cは、サイズ追跡を用いたボックスバウンディング法を示す図である。図3Aに示したように、バウンディングボックス305は、第1のフレーム310中のオブジェクト307の幅と高さを表している。
図3Bの第2のフレーム312中に示したように、オブジェクト307の310におけるバウンディングボックスが変化している(これらの図は説明のためのものであり、必ずしもスケールは正確ではない)。
図3Cに示したとおり、ボックスバウンディング法によると、後続フレーム中のバウンディングボックスの幅または高さが先行フレームの基準ボックスの幅または高さと所定閾値以上異なるとき、第2のフレーム312中のオブジェクトの座標が記憶される。あるいは、バウンディングボックスの面積(幅×高さ)を使ってもよい。バウンディングボックス310の面積が基準バウンディングボックス305の面積より所定量異なるとき、第2のフレームの座標を記憶する。
図4は、本発明によるシステムの一実施形態を示す図である。要素間の接続は有線、無線、光ファイバ等のいかなる組み合わせでもよい。また、これら要素の一部は、ネットワークを介して接続されいてもよく、ネットワークはインターネットでもよいが、これに限定されない。図4に示したとおり、カメラ405は画像を捉え、その情報をプロセッサ410に送る。プロセッサ410は、ビデオフレーム中のオブジェクトを特定し、各オブジェクトの座標を決定するビデオコンテント分析モジュール415を含む。各オブジェクトの現在の基準座標を、例えばRAM420に記憶する。他のタイプのメモリを用いてもよい。軌跡は経路なので、特定されたオブジェクトの最初の基準座標が永続的記憶エリア425に記憶される。この永続的記憶エリアは、磁気ディスク、光ディスク、光磁気ディスク、ディスケット、テープ、その他タイプの記憶媒体であっても良い。この記憶エリアはプロセッサ410と同一ユニットであってもよく、離れていてもよい。この記憶エリアはサーバ430の一部であっても、またはサーバ430にアクセスされるものであってもよい。ビデオコンテントモジュールが、フレーム中のオブジェクトの動きが基準座標の値を所定閾値を超えるたびに、RAM420中の現在の基準座標が永続的記憶される(425)のと同様に、更新される。このシステムは閾値を超えた動きを記憶するだけなので、すべてのフレームを記録する必要も、そのための記憶容量を持つ必要も減少し、多くの場合なくなる。記憶はビデオテープでもよいことにも注意すべきである。
図5Aと5Bは、本発明のプロセスの概要を示すフローチャートである。
ステップ500において、第1のビデオフレーム中のオブジェクトを特定する。
ステップ510において、第1のビデオフレーム中に特定されたオブジェクトの各々の基準座標を決定する。基準座標は既知の方法により決定すればよく、例えば、オブジェクトバウンディングボックスの中心やオブジェクトピクセルの重心を用いてもよい。
ステップ520において、ステップ10で決定された第1の基準座標を記憶する。通常、この座標は、オブジェクトの軌跡を記録する、不揮発性のメモリに記憶することができる。しかし、座標を各ステップの後に記憶する必要はないことは理解すべきである。言い換えると、座標はテーブルを用いて追跡しておき、すべてのフレームを処理してから、その時に軌跡を記憶するようにしてもよい。
ステップ530において、第2のビデオフレームのオブジェクトを特定する。
ステップ540において、第2のビデオフレーム中のオブジェクトの現在の基準座標を決定する。この座標は、第1のフレームと同一であってもなくてもよい。図5Bに示したように、ステップ550において、オブジェクトについて以下の条件
Claims (18)
- ビデオ中の追跡されたオブジェクトの軌跡を記憶する方法であって、
(a)第1のビデオフレーム中のオブジェクトを特定するステップと、
(b)前記第1のビデオフレーム中のステップ(a)で特定された前記オブジェクトの各々について、第1の基準座標(xrefi, yrefi)を決定するステップと、
(c)前記第1の基準座標(xrefi, yrefi)を記憶するステップと、
(d)第2のビデオフレーム中の前記オブジェクトを特定するステップと、
(e)前記第2のビデオフレーム中の前記オブジェクトの現在の基準座標(xnewi, ynewi)を決定するステップと、
(f)オブジェクトについての条件
を含むことを特徴とする方法。 - 請求項1に記載の方法であって、さらに、
(g)ステップ(f)の前記条件が満たされるたびに、前記記憶エリアを追加の座標で更新し、前記現在の基準座標を新しい値で更新するように、ビデオシーケンス中の前記第2のビデオフレームに後続する全てのビデオフレームについてステップ(e)と(f)を繰り返すステップ
を含むことを特徴とする方法。 - 請求項1に記載の方法であって、ステップ(f)の前記条件が満たされないとき、前記オブジェクトの前記現在の座標を前記ビデオシーケンス中の前記後続ビデオフレームの最後のフレームの最後の座標として記憶することを特徴とする方法。
- 請求項1に記載の方法であって、さらに、
ステップ(f)の前記条件が満たされなくとも、前記ビデオシーケンス中の前記後続ビデオフレームから前記オブジェクトが消え軌跡が終わる前に、前記現在の座標を最後の座標として記憶するステップ
を含むことを特徴とする方法。 - 請求項1記載の方法であって、
ステップ(f)で記憶された前記オブジェクトの前記オブジェクト軌跡リストは、プロセッサの一時メモリを含み、
(h)前記ビデオシーケンスの全てのフレームがステップ(a)から(g)で処理された後、前記一時メモリに記憶された全ての座標から永続的記憶に前記オブジェクト軌跡リストを書き込むステップ
を含むことを特徴とする方法。 - 請求項1に記載の方法であって、ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含むことを特徴とする方法。
- 請求項2に記載の方法であって、ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含むことを特徴とする方法。
- 請求項5に記載の方法であって、ステップ(e)における前記現在の基準座標(xnewi, ynewi)の決定は、ボックスバウンディング法を用いて、前記オブジェクトが実質的にかつ直接的に(i)カメラに近づく方向に動く、および(ii)カメラから離れる方向に動くときのうち一方において前記オブジェクトのサイズを追跡することを含むことを特徴とする方法。
- 請求項6に記載の方法であって、現在の基準座標が閾値εに達したかどうかの前記決定は、前記ボックスバウンディング法と(xnewi, ynewi)と(xrefi, yrefi)の差の組み合わせを含むことを特徴とする方法。
- 請求項7に記載の方法であって、前記ボックスバウンディング法は、
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)前記現在のバウンディングボックスの面積変化δaが所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
を含むことを特徴とする方法。 - 請求項8に記載の方法であって、前記ボックスバウンディング法は、
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)前記現在のバウンディングボックスの面積変化δaが所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
を含むことを特徴とする方法。 - 請求項9に記載の方法であって、前記ボックスバウンディング法は、
(i)前記オブジェクトの基準バウンディングボックス(wrefi, hrefi)の面積a=wrefi*hrefiを決定するステップであって、wは前記オブジェクトの幅を表し、hは前記オブジェクトの高さを表すステップと、
(ii)前記現在のバウンディングボックスの面積変化δaが所定の値より大きいとき、現在のバウンディングボックス(wi, hi)を記憶するステップと
を含むことを特徴とする方法。 - 請求項1に記載の方法であって、前記オブジェクトの前記所定の閾値εは、平均オブジェクト速度、前記オブジェクトのサイズ、前記オブジェクトの重要性の指定のうち1つにより動的に算出されることを特徴とする方法。
- ビデオ中の追跡されたオブジェクトの軌跡を記憶するシステムであって、
プロセッサと、
前記プロセッサに画像を供給するビデオ入力と、
前記プロセッサに供給された前記画像中のオブジェクトの座標を追跡するビデオコンテント分析モジュールと、
オブジェクト軌跡を記憶する手段と
を備えたシステムであって、
前記ビデオコンテントモジュールは、第1のフレームに係る後続フレーム中の前記オブジェクトの動き量が基準座標値から閾値を越えたときにのみ、前記基準座標を前記画像の前記第1の基準フレーム中の特定された各オブジェクトに割当て、前記基準座標値を前記後続フレームの値に更新することを特徴とするシステム。 - ビデオ中の追跡されたオブジェクトの軌跡を記憶する方法であって、
(a)第1のビデオフレーム中のオブジェクトを特定するステップと、
(b)前記第1のビデオフレーム中のステップ(a)で特定された前記オブジェクトの各々について、第1の基準座標(xrefi, yrefi)を決定するステップと、
(c)前記第1の基準座標(xrefi, yrefi)を記憶するステップと、
(d)第2のビデオフレーム中の前記オブジェクトを特定するステップと、
(e)前記第2のビデオフレーム中の前記オブジェクトの現在の基準座標(xnewi, ynewi)を決定するステップと、
(f)オブジェクトについて条件
を含むことを特徴とする方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/029,730 US20030126622A1 (en) | 2001-12-27 | 2001-12-27 | Method for efficiently storing the trajectory of tracked objects in video |
PCT/IB2002/005377 WO2003060548A2 (en) | 2001-12-27 | 2002-12-10 | Method for efficiently storing the trajectory of tracked objects in video |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005515529A true JP2005515529A (ja) | 2005-05-26 |
Family
ID=21850560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003560590A Withdrawn JP2005515529A (ja) | 2001-12-27 | 2002-12-10 | ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20030126622A1 (ja) |
EP (1) | EP1461636A2 (ja) |
JP (1) | JP2005515529A (ja) |
KR (1) | KR20040068987A (ja) |
CN (1) | CN1613017A (ja) |
AU (1) | AU2002353331A1 (ja) |
WO (1) | WO2003060548A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018537766A (ja) * | 2015-11-04 | 2018-12-20 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | ユニバーサル対応ネットワーク |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9892606B2 (en) | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US8711217B2 (en) | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US8564661B2 (en) | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
US7424175B2 (en) | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
SE527467C2 (sv) * | 2003-12-22 | 2006-03-14 | Abb Research Ltd | Förfarande för positionering och ett positioneringssystem |
US8027512B2 (en) | 2005-09-30 | 2011-09-27 | Robert Bosch Gmbh | Method and software program for searching image information |
EP2013817A2 (en) | 2006-04-17 | 2009-01-14 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
US8588583B2 (en) * | 2007-08-22 | 2013-11-19 | Adobe Systems Incorporated | Systems and methods for interactive video frame selection |
US20130021512A1 (en) * | 2011-07-20 | 2013-01-24 | Broadcom Corporation | Framing of Images in an Image Capture Device |
US8929588B2 (en) | 2011-07-22 | 2015-01-06 | Honeywell International Inc. | Object tracking |
US9438947B2 (en) | 2013-05-01 | 2016-09-06 | Google Inc. | Content annotation tool |
KR101803275B1 (ko) * | 2016-06-20 | 2017-12-01 | (주)핑거플러스 | 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치 |
US10970855B1 (en) | 2020-03-05 | 2021-04-06 | International Business Machines Corporation | Memory-efficient video tracking in real-time using direction vectors |
CN113011331B (zh) * | 2021-03-19 | 2021-11-09 | 吉林大学 | 机动车是否礼让行人的检测方法、装置、电子设备及介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5213281A (en) * | 1991-08-30 | 1993-05-25 | Texas Instruments Incorporated | Method and apparatus for tracking an aimpoint with arbitrary subimages |
GB9215102D0 (en) * | 1992-07-16 | 1992-08-26 | Philips Electronics Uk Ltd | Tracking moving objects |
JP3487436B2 (ja) * | 1992-09-28 | 2004-01-19 | ソニー株式会社 | ビデオカメラシステム |
JP3268953B2 (ja) * | 1995-02-27 | 2002-03-25 | 三洋電機株式会社 | 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置 |
US6185314B1 (en) * | 1997-06-19 | 2001-02-06 | Ncr Corporation | System and method for matching image information to object model information |
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
US6741725B2 (en) * | 1999-05-26 | 2004-05-25 | Princeton Video Image, Inc. | Motion tracking using image-texture templates |
US6707486B1 (en) * | 1999-12-15 | 2004-03-16 | Advanced Technology Video, Inc. | Directional motion estimator |
US6731805B2 (en) * | 2001-03-28 | 2004-05-04 | Koninklijke Philips Electronics N.V. | Method and apparatus to distinguish deposit and removal in surveillance video |
US6985603B2 (en) * | 2001-08-13 | 2006-01-10 | Koninklijke Philips Electronics N.V. | Method and apparatus for extending video content analysis to multiple channels |
US8316407B2 (en) * | 2005-04-04 | 2012-11-20 | Honeywell International Inc. | Video system interface kernel |
US7529646B2 (en) * | 2005-04-05 | 2009-05-05 | Honeywell International Inc. | Intelligent video for building management and automation |
US9077882B2 (en) * | 2005-04-05 | 2015-07-07 | Honeywell International Inc. | Relevant image detection in a camera, recorder, or video streaming device |
US7876361B2 (en) * | 2005-07-26 | 2011-01-25 | Honeywell International Inc. | Size calibration and mapping in overhead camera view |
-
2001
- 2001-12-27 US US10/029,730 patent/US20030126622A1/en not_active Abandoned
-
2002
- 2002-12-10 CN CNA028261070A patent/CN1613017A/zh active Pending
- 2002-12-10 WO PCT/IB2002/005377 patent/WO2003060548A2/en not_active Application Discontinuation
- 2002-12-10 KR KR10-2004-7010114A patent/KR20040068987A/ko not_active Application Discontinuation
- 2002-12-10 EP EP02788352A patent/EP1461636A2/en not_active Withdrawn
- 2002-12-10 JP JP2003560590A patent/JP2005515529A/ja not_active Withdrawn
- 2002-12-10 AU AU2002353331A patent/AU2002353331A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018537766A (ja) * | 2015-11-04 | 2018-12-20 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | ユニバーサル対応ネットワーク |
Also Published As
Publication number | Publication date |
---|---|
EP1461636A2 (en) | 2004-09-29 |
CN1613017A (zh) | 2005-05-04 |
US20030126622A1 (en) | 2003-07-03 |
KR20040068987A (ko) | 2004-08-02 |
WO2003060548A3 (en) | 2004-06-10 |
WO2003060548A2 (en) | 2003-07-24 |
AU2002353331A1 (en) | 2003-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4320141B2 (ja) | 要約映像生成のための方法とシステム | |
JP4699564B2 (ja) | 視覚背景抽出器 | |
Antonakaki et al. | Detecting abnormal human behaviour using multiple cameras | |
JP2005515529A (ja) | ビデオ中の追跡されたオブジェクトの軌跡を効果的に記憶する方法 | |
Wang | Real-time moving vehicle detection with cast shadow removal in video based on conditional random field | |
JP2008518331A (ja) | リアルタイムビデオ動き解析を通じたビデオコンテンツ理解 | |
JP2005510159A (ja) | ビデオプリミティブを利用する監視テレビ装置 | |
GB2409028A (en) | Face detection | |
EP1542152B1 (en) | Object detection | |
JPWO2011013281A1 (ja) | 移動体検出方法及び移動体検出装置 | |
WO2016120132A1 (en) | Method and apparatus for generating an initial superpixel label map for an image | |
WO2008125854A1 (en) | Method for tracking multiple objects with occlusions | |
CN114549582A (zh) | 一种轨迹地图生成方法、装置及计算机可读存储介质 | |
JP4572175B2 (ja) | 非定常映像検出装置,非定常映像検出方法及びその方法を実装したプログラム | |
Porikli | Multi-Camera Surveillance: Objec-Based Summarization Approach | |
Kapoor et al. | Fast tracking algorithm using modified potential function | |
Panda et al. | Particle filter and entropy-based measure for tracking of video objects | |
Jadhav et al. | Adaptive background subtraction models for shot detection | |
Ilamathi et al. | Transprecision Gaussian Average Background Modelling Technique for Multi-vehicle Tracking Applications | |
Kamaraj | An improved motion detection and tracking of active blob for video surveillance | |
Ali | Feature-based tracking of multiple people for intelligent video surveillance. | |
Krerngkamjornkit et al. | Multi object detection and tracking from video file | |
Pejčić et al. | Detection of moving objects using incremental connectivity outlier factor algorithm | |
Jung et al. | Automatic video object tracking using a mosaic-based background | |
Hochuli et al. | Detection and classification of human movements in video scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051207 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20070726 |