JP2017522647A - 背景追跡を介する物体追跡及びセグメント化の方法及び装置 - Google Patents
背景追跡を介する物体追跡及びセグメント化の方法及び装置 Download PDFInfo
- Publication number
- JP2017522647A JP2017522647A JP2016569791A JP2016569791A JP2017522647A JP 2017522647 A JP2017522647 A JP 2017522647A JP 2016569791 A JP2016569791 A JP 2016569791A JP 2016569791 A JP2016569791 A JP 2016569791A JP 2017522647 A JP2017522647 A JP 2017522647A
- Authority
- JP
- Japan
- Prior art keywords
- background
- tracking
- propagation
- background region
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
物体を追跡する方法は、まず、現在フレームにおいて物体(12)を確立することにより開始される。その後、現在フレームにおいて物体を含む背景領域(202)が確立される。次に、次のフレームでの物体(12)の位置が推定される。次に、背景領域(202)の伝搬が特定される。最後に、物体は、背景領域の伝搬に基づいてその背景からセグメント化され、それにより、フレームからフレームへの物体の追跡を可能にする。
Description
相互参照
本願は、2014年5月28日に出願された欧州特許出願第14305799.0号に対する優先権を主張するものである。
本願は、2014年5月28日に出願された欧州特許出願第14305799.0号に対する優先権を主張するものである。
技術分野
本発明は、物体を追跡し、背景から物体をセグメント化することに関する。
本発明は、物体を追跡し、背景から物体をセグメント化することに関する。
背景技術
物体の追跡は、連続したインスタンスにおいて物体の位置を特定することを伴い、物体は、最初のフレームにおいて手動で定義されるか、又は物体検出器の出力として定義される。一般に、物体追跡は、物体の1つ又は複数の独特な特徴(動き、色、形状、外観)を抽出し、そのような特徴的特徴を使用して、現在の画像フレームでの物体の位置に基づいて、次の画像フレームでの物体の位置を推定することに依存する。例えば、最適フィルタリング、点追跡、検出による追跡、オプティカルフロー、及び背景差分を含め、物体を追跡する幾つかの技法が存在している。
物体の追跡は、連続したインスタンスにおいて物体の位置を特定することを伴い、物体は、最初のフレームにおいて手動で定義されるか、又は物体検出器の出力として定義される。一般に、物体追跡は、物体の1つ又は複数の独特な特徴(動き、色、形状、外観)を抽出し、そのような特徴的特徴を使用して、現在の画像フレームでの物体の位置に基づいて、次の画像フレームでの物体の位置を推定することに依存する。例えば、最適フィルタリング、点追跡、検出による追跡、オプティカルフロー、及び背景差分を含め、物体を追跡する幾つかの技法が存在している。
前景(追跡される物体)及び背景をモデリングし、この情報を使用して、背景に属する可能性が最も高い推定物体位置を拒絶することにより利点を得る物体追跡を改良する提案が示唆されてきた。そのようなモデリングの基本手法は、例えば、最初のフレームで学習された色分布を使用して背景外観のモデルを抽出し、一連の画像に沿ってそのような分布を更新することを伴う。しかし、そのようなモデリングでは、物体の外観を正しく学習するために、背景及び物体についての事前知識を必要とする。このため、前景/背景セグメント化は、最近の最も性能がよい追跡デバイスでの主要構成要素になった。さらに、物体と背景とのセグメント化の初期化が正しい場合であっても、今日のモデルは多くの場合、物体を厳密に追跡するためには十分には物体と背景とを区別しない。最後に、物体の完全若しくは例えば、部分的な遮蔽及び回転、照明、影、及び/又は自己遮蔽から生じる物体の外観変化は、成功したモデル適合戦略の確立の難しさを増大させる。
したがって、従来技術の上記欠点を解消する物体追跡技法が必要とされている。
手短に言えば、本原理によれば、物体を追跡する方法は、まず、現在フレームにおいて物体(12)を確立することにより開始される。その後、現在フレームにおいて物体を含む背景領域(202)が確立される。次に、次のフレームでの物体(12)の位置が推定される。次に、背景領域(202)の伝搬が特定される。最後に、物体は、背景領域の伝搬に基づいてその背景からセグメント化され、それにより、フレームからフレームへの物体の追跡を可能にする。
詳細な説明
図1は、自動車により例示される物体12を追跡する本原理によるシステム10のブロック概略図を示すが、物体は撮像可能なあらゆる物品を含むことができる。図1のシステム10はグラフィカル処理ユニット14を含み、グラフィカル処理ユニット14は、後述する物体追跡及び物体フローアルゴリズムを使用して画像を追跡するソフトウェアがプログラムされた汎用又は専用コンピュータを含むことができる。実際には、そのようなソフトウェアは、動作中、グラフィカル処理ユニット14により生成されるデータを記憶することもできる記憶装置15、例えば、ハードディスクドライブ等に常駐する。プログラムされたコンピュータとして説明されるが、グラフィカル処理ユニット14は代替的に、後述する物体追跡及び物体フローアルゴリズムを実行する、物体追跡可能な離散回路を含むことができる。物体12を追跡するために、システム10は、テレビジョンカメラにより捕捉された物体12の画像を表すビデオ信号をグラフィカル処理ユニット14に供給するテレビジョンカメラの形態の画像取得デバイス16を含む。
図1は、自動車により例示される物体12を追跡する本原理によるシステム10のブロック概略図を示すが、物体は撮像可能なあらゆる物品を含むことができる。図1のシステム10はグラフィカル処理ユニット14を含み、グラフィカル処理ユニット14は、後述する物体追跡及び物体フローアルゴリズムを使用して画像を追跡するソフトウェアがプログラムされた汎用又は専用コンピュータを含むことができる。実際には、そのようなソフトウェアは、動作中、グラフィカル処理ユニット14により生成されるデータを記憶することもできる記憶装置15、例えば、ハードディスクドライブ等に常駐する。プログラムされたコンピュータとして説明されるが、グラフィカル処理ユニット14は代替的に、後述する物体追跡及び物体フローアルゴリズムを実行する、物体追跡可能な離散回路を含むことができる。物体12を追跡するために、システム10は、テレビジョンカメラにより捕捉された物体12の画像を表すビデオ信号をグラフィカル処理ユニット14に供給するテレビジョンカメラの形態の画像取得デバイス16を含む。
オペレータ(図示せず)は、キーボード18及び/又はマウス20を通してグラフィカル処理ユニット14と対話する。キーボード18及びマウス20は、周知のオペレータデータ入力デバイスの例をなし、システム10は、キーボード及びマウスへの代替又は追加として、他のそのようなデータ入力デバイスを利用することができる。表示デバイス20は通常、当該技術分野で周知のタイプのモニタであり、オペレータによる観測が意図されるグラフィカル処理ユニット14により生成された情報を表示する。
システム10は通常、当該技術分野で周知のように、グラフィカル処理ユニット14をローカルエリアネットワーク(LAN)又はインターネットにより例示されるような広域ネットワーク等のネットワークに接続するネットワークインタフェースユニット22も含む。示されていないが、システム10は、プリンタ及び又はプロッタ等の1つ又は複数の周辺機器も同様に含むことができる。
本原理によれば、画像フレームから画像フレームへの物体の改善された追跡は、物体のみならず、物体を囲む背景の領域(例えば、ピクセル群)も追跡することによって行われ、それにより、背景からの物体のセグメント化を改善することができるとともに、物体位置のよりよい推定が可能になる。したがって、本原理によって達成される物体追跡は、物体追跡と背景追跡との組合せを含む物体フローを含む。考察するように、物体の追跡は、現在の画像フレームでの物体の初期位置を所与として、次の画像フレームでの物体の位置を推定することを含む。他方、一対のフレーム間のオプティカルフローでは、第1の画像の各ピクセルの変位ベクトルを見つける必要がある。
画像から物体をセグメント化するために、図1のシステム10のグラフィカル処理ユニット14は、以下、「スーパーピクセルフロー」と呼称するスーパーピクセルマッチング技法を利用する。スーパーピクセルマッチング技法は、全域的に流れのような挙動を維持しながら、第1のフレームでのあらゆるスーパーピクセルpと、次のフレームでのスーパーピクセル(p’)との最良の一致を見つけることを目的として有する。したがって、そのようなスーパーピクセル化は、1つのフレーム内で特定のサイズ均一性を維持するはずである。幾つかの既存のピクセルフロー技法は、この要件に対処することができる。好ましくは、当該技術分野で周知のSLICピクセルフロー法が、スーパーピクセル化のサイズ均一性及びコンパクト性に関して良好な結果をもたらす。多数のオプティカルフロー及び立体技法からヒントを得て、本原理のスーパーピクセルフローは、対ごとのマルコフ確率場を用いてモデリングされる。マッチングは、形態:
のエネルギー関数の最小化に等しいラベリングlでの最大事後確率(MAP)推測を介して実行される。式中、lは、I1内のスーパーピクセルのラベルに一致するI0内のスーパーピクセルの1組のラベルを表す。
のエネルギー関数の最小化に等しいラベリングlでの最大事後確率(MAP)推測を介して実行される。式中、lは、I1内のスーパーピクセルのラベルに一致するI0内のスーパーピクセルの1組のラベルを表す。
Nrは、スーパーピクセルpの半径rの近傍を定義する。式(1)中のD項及びS項はそれぞれ、データ項及び空間平滑項を表す。最初の項は、測定データ(色、形状等)との一貫性に関してラベリングがいかに正確かを特定する。式(1)の従来のオプティカルフロー均等物では、データ項はピクセル輝度保存に対応する。しかし、スーパーピクセルは1組の同様の(例えば、均質な)ピクセルを構成するため、適切な外観に基づく特徴は、低次元カラーヒストグラム(N個のビンを有する)。式(1)に関して、ヒストグラム間のヘリンジャー距離Dは、
により与えられる。
により与えられる。
式中、h(p)及びh(p’)は、スーパーピクセルpのカラーヒストグラム及び第2のフレームI1内の対応するスーパーピクセルである。
経験的に、色毎にN=3ビンを有するRGBカラーヒストグラムが満足のいくものであると証明されている。なお、そのような低次元ヒストグラムは、ノイズ及びフレーム間でゆっくりと変化する色に対して特定のロバスト性を与える。他方、空間項は、近傍のスーパーピクセル間の変位ベクトルの空間差のペナルティ関数を構成し、変位ベクトルは、第1のフレームのスーパーピクセルのセントロイドに発端を有し、第2のフレームのスーパーピクセルのセントロイドに末端を有する。
演算子pは、データ項(2)で使用されるようなヘリンジャー距離を構成する。それにもかかわらず、ヒストグラム距離は、第1の画像に属する隣接スーパーピクセルpとqとの間で計算される。スーパーピクセルセントロイドは、qc及びpcとして記され、u*及びv*及びは、セントロイド間の水平変化及び垂直変化である。この項は、同じ物体に属するスーパーピクセルにおいて平滑化効果を有する。実際に、2つの近いスーパーピクセルが異なり、したがって、恐らくは画像内の異なる物体に属する場合、項λにより、同じ強度を有する平滑性優先度を保持しない一致を可能にする。図1のグラフィカル処理ユニット14は、第1のフレーム内のあらゆるスーパーピクセルの1組の一致候補を統合することにより、二次疑似ブール最適化(QPBO)を利用して、提案されるエネルギー関数を最小化する。一致候補は、近接性優先度を仮定することにより生成される。これは、可能なあらゆる一致が、第2のフレームにおいてサーチ半径内部にあるべきことを意味する。
物体フローは、画像シーケンスを通して関心のある物体の動き場を計算することにより開始される。最も普通の手法は、完全なシーケンスを通して利用可能なオプティカルフロー技法の幾つかを実施し、フロー統合を実行することである。しかし、そうすることにより、高レベルの動きドリフトが生じ、通常、関心のある物体の動きは、大域的規則化による影響を受ける。幾つかの極端な事例では、関心のある物体の動きは全体的に、ピンぼけし得、他の技法を組み込む必要がある。さらに、自然なビデオシーケンスの多様性により、専用データベースが手元にある場合であっても、現在、1つの方法で利用可能なデータセットの全てで高い性能を達成することができないため、ある技法よりも他方の技法を選ぶことが難しくなる。これらの方法の大半は、2項を有するエネルギー関数を最小化する。データ項は大半の場合、様々な手法間で共有されるが、優先度項又は空間項は異なり、どの条件下でオプティカルフロー平滑性を維持すべきか否かを述べる。しかし、大域的手法では、これは定義が難しい。これらの平滑項の多くは、外観差又は勾配に頼る。したがって、幾つかの方法は、ある事例ではより信頼性が高いが、他の事例では弱いことがある。この挙動は、技法の大半が、この平滑化優先度を厳密にどこに適用するかを識別する様式を考慮しないため、生じ得る。
本原理によれば、図1のグラフィカル処理ユニット14は、追跡窓内のセグメント化マスクを考慮に入れることにより、オプティカルフロー計算を改良することができる。図1のグラフィカル処理ユニット14は、動きが実際に物体領域内で平滑であると仮定して、セグメント化限度を確実な平滑性強化と見なすことにより、この補強に取り組む。これは仮定は、関心のある所与の物体の大半のシーンで有効なままである。当然、物体フローは、オプティカルフローよりも急な動きに対してロバストであるはずである。したがって、完全な動きは、後述するように、追跡窓により与えられる長範囲移動、及び標的オプティカルフローにより与えられる精密部分の2つに分割される。物体フローへの第1近似として、図1のグラフィカル処理ユニット14により使用されるシンプルフロー技法が、より高い解像度へのスケーラビリティ及びオプティカルフローの概念への専門性により、コアベースとして機能する。シンプルフローパイプラインを使用することにより、図1のグラフィカル処理ユニット14は、計算マスクを通して平滑局所性を容易に指定することができる。より具体的には、図1のグラフィカル処理ユニット14は、事前ステップとして実行されるセグメント化から初期計算マスクを導出する。図1のグラフィカル処理ユニット14は、結果として生成されるフローの、マスク限度内のフローのみをフィルタリングして、精密性を強化し、実施を促進する。グラフベースの最小化手法を使用して、図1のグラフィカル処理ユニット14は、背景ピクセルから前景ピクセルを切断することにより、規則性制約を精密に標的とすることができる。
上記説明を用いて、図1のシステム10のグラフィカル処理ユニットが物体12(例えば、車)を追跡する方法は、図2を参照することにより最もよく理解することができる。グラフィカル処理ユニット14はまず、以下、追跡窓と呼称する第1の境界ボックス200を用いて物体を囲むことにより、図2の物体12(例えば、車)の位置を確立することができる。従来の物体追跡アルゴリズムを使用して、グラフィカル処理ユニット14は、次のフレームでの図2の物体12の位置を推定することができ、したがって、追跡窓200の新しい位置を与える。
本原理によれば、図1のグラフィカル処理ユニット14は、以下、背景領域と呼ばれる、第2の境界ボックス202を用いて追跡窓200を囲む。背景領域202は、追跡窓202よりも大きく、追跡窓を囲むが、追跡窓それ自体ではない画像背景の部分を含む背景領域(例えば、ピクセル群)を特定する。図2に見られるように、1組のピクセルは、背景領域202内部にあり、したがって、背景の部分を構成する。次のフレームでは、これらのピクセルは、背景領域202の伝搬に起因して、変位矢印204で示されるように、追跡窓200内に入る。背景領域(例えば、物体を囲む上述したピクセル)の移動を推定することにより、図1のグラフィカル処理ユニット14は、前は背景領域202に存在したが、現在、次のフレームでは追跡窓に入るピクセルが実際に、背景に属すると安全に仮定することができる(最初は追跡窓外にあったため)。したがって、グラフィカル処理ユニット14はそれに従って、そのようなピクセルを適宜指定する。したがって、追跡窓に入った新しいピクセルはここで、背景の部分になる。次のフレームにおいて、物体12の新しい位置を所与として、図1のグラフィカル処理ユニット14は、新たに入ったピクセルと共に、背景の部分として前は見なされていたピクセルを追跡する。背景ピクセルが追跡窓に入らず、周囲の背景領域内に留まる場合、図1のグラフィカル処理ユニット14は、追跡窓に入るのを待っているピクセルが追跡窓に入るか、又は背景領域から出るまで、そのようなピクセルを追跡する。このようにして、当初は背景領域202に制限された背景マスクは、追跡窓200と共に伝搬し、後述するように図5A〜図5Dにおいて観測されるように、セグメント化をよりよく線引きする。
図3は、上述した物体追跡を達成するために、図1のグラフィカル処理ユニット14により実行されるプロセス300のステップをフローチャートの形態で示す。プロセス300は、まず、ステップ300中、現在フレームにおける図1の物体12の位置を確立することにより開始される。上述したように、図1のグラフィカル処理ユニット14は、まず、図2に見られるように、追跡窓200を用いて物体を囲むことにより、物体12の位置を確立する。次に、ステップ302中、図1のグラフィカル処理ユニット14は、図2の背景領域202により表されるように、背景領域を確立する。図3のステップ304中、図1のグラフィカル処理ユニット14は、次のフレームでの物体の位置を推定する。上述したように、例えば、最適フィルタリング、点追跡、検出による追跡、オプティカルフロー、及び背景差分等の任意の様々な物体追跡技法がこのステップを達成することができる。ステップ306中、図1のグラフィカル処理ユニット14は、次のフレームでの背景領域の伝搬を特定する。ステップ306中の背景領域の伝搬に基づいて、図1のグラフィカル処理ユニット14は、ステップ308中、物体を背景からセグメント化し、物体の追跡を促進することができる。
画像のセグメント化を理解するために、図4A〜図4D及び図5A〜図5Dを参照する。図4A〜図4Dは、右から左へ、移動中の物体(例えば、自動車)の画像シーケンスを示す。図5A〜図5Dはそれぞれ、図4A〜図4Dそれぞれに示される画像のうちの対応する1つに出現する背景からの物体のセグメント化を示す。
上述した本原理の追跡方法は、以下の特徴のうちの1つ又は複数を含むことができる。例えば、全ての背景ピクセルの追跡は、様々な周知の高密度点追跡方法のうちの1つを使用して行うことができる。さらに、図1のグラフィカル処理ユニット14は、様々な疎点追跡方法の任意の1つにより追跡し、次に、その他の点へのセグメント化を推定することができる。上述した追跡方法への別の変更として、図1のグラフィカル処理ユニット14はまず、スーパーピクセル化を背景に適用することができ、次に、スーパーピクセルを追跡し、これは、より効率的でロバストであり、そのようなスーパーピクセルが通常、物体の境界に付くという利点を有する。
さらに、図1のグラフィカル処理ユニット14は、上述したように得られたセグメント化を使用して、前景及び背景の外観モデルをよりよく抽出して初期化し、標準のカラーベースのセグメント化技法を介してセグメント化を改良することができる。さらに、図1のグラフィカル処理ユニット14は、背景マスクの補完物、すなわち、前景マスクを使用して、例えば、質量中心計算又はブロブ分析により標的の位置を調整することができる。図1のグラフィカル処理ユニット14は、背景からより離れた点を追跡するか、又は距離変換を使用して、よりもっともらしい位置を抽出することにより、標的位置を計算することもできる。さらに、図1のグラフィカル処理ユニット14は、追跡される背景を使用して物体位置を拒絶することができ、それにより、標準の追跡方法、特に検出による追跡方法の出力を改善する。
図1のグラフィカル処理ユニット14は、背景内の標的近傍物体に対して幾つかの物体追跡方法を組み合わせて、追跡窓に入る非関心物体を分析し、標的物体位置の遮蔽及び拒絶によりよく対処することができる。さらに、図1のグラフィカル処理ユニット14は背景方向での追跡を実施することができ、これは、追跡窓を出る背景領域の検出と等しく、オフライン又は遅延処理を達成する。
上記は、セグメント化が改善された物体追跡技法を記載している。
Claims (14)
- 物体(12)を追跡する方法であって、
現在フレームにおいて前記物体(12)を確立することと、
前記現在フレームにおいて前記物体を含む背景領域(202)を確立することと、
次のフレームでの前記物体(12)の位置を推定することと、
前記背景領域(202)の伝搬を特定することと、
前記背景領域の伝搬に基づいて、前記物体をその背景からセグメント化することと
を含む、方法。 - 前記現在フレームにおいて前記物体を確立するステップは、第1の境界ボックスを用いて前記物体を囲むことを含む、請求項1に記載の方法。
- 前記背景領域を確立するステップは、前記物体を囲む背景の少なくとも部分を囲むように、前記第1の境界ボックスよりも大きな第2の境界ボックスを用いて前記物体を囲むステップを含む、請求項2に記載の方法。
- 前記背景領域の前記伝搬を特定するステップは、元は前記物体外に存在するが、前記現在フレームでは追跡窓内にあるが、前記次のフレームでは、前記物体を含む追跡窓内に移動するピクセルを検出するステップを含む、請求項1に記載の方法。
- 前記背景にスーパーピクセル化を適用して、前記物体の境界に付着したスーパーピクセルを提供するステップと、
そのようなスーパーピクセルを追跡するステップと
を更に含む、請求項1に記載の方法。 - 前記画像をセグメント化するステップは、標準の色ベースセグメント化技法を介して前記セグメントを改良することを含む、請求項1に記載の方法。
- 前記背景領域(202)の伝搬を特定するステップは、高密度点追跡方法を使用して全ての背景ピクセルを追跡することを含む、請求項1に記載の方法。
- 物体(12)を追跡するシステム(10)であって、
追跡を受ける物体の画像を捕捉する画像取得デバイス(16)と、
前記画像取得デバイスにより捕捉された前記画像を処理するプロセッサ(14)であって、現在フレームにおいて前記物体(12)を確立することと、(b)前記現在フレームにおいて前記物体を含む背景領域(202)を確立することと、(c)次のフレームでの前記物体(12)の位置を推定することと、(d)前記背景領域(202)の伝搬を特定することと、(e)前記背景領域の伝搬に基づいて、前記物体をその背景からセグメント化することとを行う、プロセッサ(14)と
を含む、システム。 - プロセッサは、第1の境界ボックスを用いて前記物体を囲むことにより、前記現在フレームにおいて前記物体を確立する、請求項8に記載のシステム。
- 前記プロセッサは、前記物体を囲む背景の少なくとも部分を囲むように、前記第1の境界ボックスよりも大きな第2の境界ボックスを用いて前記物体を囲むのにより、前記背景領域を確立する、請求項9に記載のシステム。
- 前記プロセッサは、元は前記物体外に存在するが、前記現在フレームでは追跡窓内にあるが、前記次のフレームでは、前記物体を含む追跡窓内に移動するピクセルを検出することにより、前記背景領域の前記伝搬を特定する、請求項8に記載のシステム。
- 前記プロセッサは、前記背景にスーパーピクセル化を適用して、前記物体の境界に付着したスーパーピクセルを提供し、その後、そのようなピクセルを追跡する、請求項8に記載のシステム。
- 前記画像をセグメント化するステップは、標準の色ベースセグメント化技法を介して前記セグメントを改良することを含む、請求項8に記載のシステム。
- 前記プロセッサは、高密度点追跡方法を使用して全ての背景ピクセルを追跡することにより、前記背景領域(202)の伝搬を特定する、請求項8に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14305799 | 2014-05-28 | ||
EP14305799.0 | 2014-05-28 | ||
PCT/EP2015/061604 WO2015181179A1 (en) | 2014-05-28 | 2015-05-26 | Method and apparatus for object tracking and segmentation via background tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017522647A true JP2017522647A (ja) | 2017-08-10 |
Family
ID=50943255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569791A Pending JP2017522647A (ja) | 2014-05-28 | 2015-05-26 | 背景追跡を介する物体追跡及びセグメント化の方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10249046B2 (ja) |
EP (1) | EP3149707A1 (ja) |
JP (1) | JP2017522647A (ja) |
KR (1) | KR20170015299A (ja) |
CN (1) | CN106462975A (ja) |
WO (1) | WO2015181179A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016105218A1 (en) * | 2014-12-23 | 2016-06-30 | Intel Corporation | Facilitating culling of composite objects in graphics processing units when such objects produce no visible change in graphics images |
CN106373139A (zh) * | 2016-08-18 | 2017-02-01 | 广州视源电子科技股份有限公司 | 一种图像处理方法及装置 |
WO2018201444A1 (en) * | 2017-05-05 | 2018-11-08 | Boe Technology Group Co., Ltd. | Method for detecting and tracking target object, target object tracking apparatus, and computer-program product |
CN108171716B (zh) * | 2017-12-25 | 2021-11-26 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频人物装扮方法及装置 |
CN108062761A (zh) * | 2017-12-25 | 2018-05-22 | 北京奇虎科技有限公司 | 基于自适应跟踪框的图像分割方法、装置及计算设备 |
CN108010032A (zh) * | 2017-12-25 | 2018-05-08 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频风景处理方法及装置 |
CN108154119B (zh) * | 2017-12-25 | 2021-09-28 | 成都全景智能科技有限公司 | 基于自适应跟踪框分割的自动驾驶处理方法及装置 |
KR102582578B1 (ko) | 2018-04-20 | 2023-09-26 | 엘지전자 주식회사 | 저온 저장고의 냉각 시스템 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7408572B2 (en) * | 2002-07-06 | 2008-08-05 | Nova Research, Inc. | Method and apparatus for an on-chip variable acuity imager array incorporating roll, pitch and yaw angle rates measurement |
FR2880455A1 (fr) * | 2005-01-06 | 2006-07-07 | Thomson Licensing Sa | Methode et dispositif de segmentation d'une image |
EP2680226B1 (en) | 2012-06-26 | 2016-01-20 | Thomson Licensing | Temporally consistent superpixels |
CN102930539B (zh) * | 2012-10-25 | 2015-08-26 | 江苏物联网研究发展中心 | 基于动态图匹配的目标跟踪方法 |
CN103164858B (zh) * | 2013-03-20 | 2015-09-09 | 浙江大学 | 基于超像素和图模型的粘连人群分割与跟踪方法 |
CN103366382A (zh) * | 2013-07-04 | 2013-10-23 | 电子科技大学 | 一种基于超像素的主动轮廓跟踪方法 |
CN103413120B (zh) * | 2013-07-25 | 2016-07-20 | 华南农业大学 | 基于物体整体性和局部性识别的跟踪方法 |
EP3028256A4 (en) * | 2013-07-31 | 2016-10-19 | Microsoft Technology Licensing Llc | GEODETIC RELIEF USING PRELIMINARY REARPLANS |
US9947077B2 (en) * | 2013-12-31 | 2018-04-17 | Thomson Licensing | Video object tracking in traffic monitoring |
-
2015
- 2015-05-26 WO PCT/EP2015/061604 patent/WO2015181179A1/en active Application Filing
- 2015-05-26 US US15/314,497 patent/US10249046B2/en not_active Expired - Fee Related
- 2015-05-26 JP JP2016569791A patent/JP2017522647A/ja active Pending
- 2015-05-26 KR KR1020167033141A patent/KR20170015299A/ko unknown
- 2015-05-26 EP EP15724674.5A patent/EP3149707A1/en not_active Withdrawn
- 2015-05-26 CN CN201580028168.6A patent/CN106462975A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20180247418A1 (en) | 2018-08-30 |
KR20170015299A (ko) | 2017-02-08 |
WO2015181179A1 (en) | 2015-12-03 |
CN106462975A (zh) | 2017-02-22 |
US10249046B2 (en) | 2019-04-02 |
EP3149707A1 (en) | 2017-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017522647A (ja) | 背景追跡を介する物体追跡及びセグメント化の方法及び装置 | |
WO2022088982A1 (zh) | 三维场景构建方法、装置、系统和存储介质 | |
US8331619B2 (en) | Image processing apparatus and image processing method | |
US9947077B2 (en) | Video object tracking in traffic monitoring | |
JP4954206B2 (ja) | ビデオオブジェクトのカットアンドペースト | |
US9042662B2 (en) | Method and system for segmenting an image | |
JP6655878B2 (ja) | 画像認識方法及び装置、プログラム | |
CN108229475B (zh) | 车辆跟踪方法、系统、计算机设备及可读存储介质 | |
KR20120138627A (ko) | 안면 추적 장치 및 방법 | |
CN108198201A (zh) | 一种多目标跟踪方法、终端设备及存储介质 | |
JP2006318474A (ja) | 画像シーケンス内のオブジェクトを追跡するための方法及び装置 | |
CN108961304B (zh) | 识别视频中运动前景的方法和确定视频中目标位置的方法 | |
US11720745B2 (en) | Detecting occlusion of digital ink | |
CN110738667A (zh) | 一种基于动态场景的rgb-d slam方法和系统 | |
Wehrwein et al. | Video segmentation with background motion models. | |
CN113379789B (zh) | 一种复杂环境下运动目标跟踪方法 | |
JP2019121356A (ja) | 干渉領域検出装置と方法及び電子機器 | |
JP3716455B2 (ja) | 領域抽出方法及び領域抽出装置 | |
CN116883897A (zh) | 一种低分辨率目标识别方法 | |
Gallego et al. | Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop | |
Martens et al. | Cross domain matching for semantic point cloud segmentation based on image segmentation and geometric reasoning | |
Huang et al. | Tracking camouflaged objects with weighted region consolidation | |
KR101276792B1 (ko) | 눈 검출 장치 및 방법 | |
Abdein et al. | Self-supervised learning of optical flow, depth, camera pose and rigidity segmentation with occlusion handling | |
KR20100041170A (ko) | 영상 추적 장치의 이동표적 움직임 추적 방법 |