JP2006209755A - シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法 - Google Patents
シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法 Download PDFInfo
- Publication number
- JP2006209755A JP2006209755A JP2006005268A JP2006005268A JP2006209755A JP 2006209755 A JP2006209755 A JP 2006209755A JP 2006005268 A JP2006005268 A JP 2006005268A JP 2006005268 A JP2006005268 A JP 2006005268A JP 2006209755 A JP2006209755 A JP 2006209755A
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- frame
- weak
- classifiers
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
【課題】方法は、ビデオのフレームシーケンス中のオブジェクトを見付ける。
【解決手段】各フレーム内の全画素について特徴ベクトルを構築する。特徴ベクトルを、弱分類器の訓練に用いる。弱分類器は、オブジェクトに関連する画素を背景に関連する画素と分離する。一組の弱分類器を組み合わせて1つの強力な分類器にする。この強力な分類器は、フレーム内の画素をラベル付けして信頼度マップを生成する。平均値シフト操作を用いて信頼度の「ピーク」を見付ける。ピークは、フレーム内のオブジェクトの位置を示す。すなわち、信頼度マップは、ビデオにおけるオブジェクトを背景と区別する。
【選択図】図1
【解決手段】各フレーム内の全画素について特徴ベクトルを構築する。特徴ベクトルを、弱分類器の訓練に用いる。弱分類器は、オブジェクトに関連する画素を背景に関連する画素と分離する。一組の弱分類器を組み合わせて1つの強力な分類器にする。この強力な分類器は、フレーム内の画素をラベル付けして信頼度マップを生成する。平均値シフト操作を用いて信頼度の「ピーク」を見付ける。ピークは、フレーム内のオブジェクトの位置を示す。すなわち、信頼度マップは、ビデオにおけるオブジェクトを背景と区別する。
【選択図】図1
Description
本発明は、包括的にはコンピュータビジョンに関し、特にビデオ中のオブジェクトの追跡に関する。
オブジェクト追跡
オブジェクト追跡は、監視(Stauffer等著「Learning Patterns of Activity Using Real-Time Tracking」(PAMI, 22(8), pp. 747-757, 2000))、ドライバー支援システム(Avidan著「Support Vector Tracking」(IEEE Trans. on Pattern Analysis and Machine Intelligence, 2004))、及び人間−コンピュータ間の対話(Bobick等著「The KidsRoom」(Communications of the ACM, 43(3), 2000))といった多くのコンピュータビジョン用途において用いられている。追跡すべき多様なオブジェクトが、あらゆるオブジェクト追跡用途に課題を投げかけている。カラーヒストグラム、外観モデル(appearance model)又はキーポイントといった様々なオブジェクト表現がオブジェクト追跡に用いられている。
オブジェクト追跡は、監視(Stauffer等著「Learning Patterns of Activity Using Real-Time Tracking」(PAMI, 22(8), pp. 747-757, 2000))、ドライバー支援システム(Avidan著「Support Vector Tracking」(IEEE Trans. on Pattern Analysis and Machine Intelligence, 2004))、及び人間−コンピュータ間の対話(Bobick等著「The KidsRoom」(Communications of the ACM, 43(3), 2000))といった多くのコンピュータビジョン用途において用いられている。追跡すべき多様なオブジェクトが、あらゆるオブジェクト追跡用途に課題を投げかけている。カラーヒストグラム、外観モデル(appearance model)又はキーポイントといった様々なオブジェクト表現がオブジェクト追跡に用いられている。
単純なオブジェクト追跡は、ビデオのフレームシーケンス中の、オブジェクトに一致する領域を見付ける。機械学習の点で、これは最近傍分類に等しい。この単純な手法は、背景の役割を無視する。
フィルタリングを用いて、異なる一致に対して確率を割り当てることができる。残念ながら、フィルタ方法は、オブジェクトの記述に影響を与えない。記述は、オブジェクトを背景とより高い精度で(better)分離するために用いることができる。したがって、より精度の高い手法は、オブジェクトを背景と区別できるようにオブジェクト記述子を変化させる。
分類器
強力な分類器は、一組の弱分類器を組み合わせる。この組み合わせは線形であっても非線形であってもよい。例えば、よく知られたAdaBoost(アダブースト)プロセスは、一組の弱分類器の中の各分類器を、訓練データの難度を高めながら訓練する。次に、弱分類器を組み合わせて、どの弱分類器よりも精度の高い1つの強力な分類器を生成する(Freund等著「A decision-theoretic generalization of on-line learning and an application to boosting」(Computational Learning Theory, Eurocolt '95, pp. 23-37, 1995)(参照により本明細書中に援用される))。
強力な分類器は、一組の弱分類器を組み合わせる。この組み合わせは線形であっても非線形であってもよい。例えば、よく知られたAdaBoost(アダブースト)プロセスは、一組の弱分類器の中の各分類器を、訓練データの難度を高めながら訓練する。次に、弱分類器を組み合わせて、どの弱分類器よりも精度の高い1つの強力な分類器を生成する(Freund等著「A decision-theoretic generalization of on-line learning and an application to boosting」(Computational Learning Theory, Eurocolt '95, pp. 23-37, 1995)(参照により本明細書中に援用される))。
平均値シフトは、分布勾配に作用してピークを見付けるモード探索プロセスである。平均値シフトは、所与のカラーヒストグラムに似たカラーヒストグラムを有する画像中の領域を探索する。性能を高めるために、Comanciu等は空間平滑化を用いた(Comanciu等著「Kernel-Based Object Tracking」(IEEE Trans. on Pattern Analysis and Machine Intelligence, (PAMI), 25:5, pp. 564-575, 2003)(参照により本明細書中に援用される))。さらに、オブジェクトの外側に現れる色を用いて、オブジェクト上に現れる色の「重みを下げる(down-weight)」。
パーティクルフィルタリングのような時間積分方法は、経時的な測定値を適切に積分する(Isard等著「CONDENSATION - Conditional Density Propagation for Visual Tracking」(International Journal of Computer Vision, Vol 29(1), pp. 5-28, 1998))。
「WSL」トラッカは、短期及び長期のオブジェクト記述子を保持する(Jepson等著「Robust on-line appearance models for vision tracking」(IEEE Transactions on Pattern Analysis and Machine Intelligence 25(10), pp. 1296-1311))。記述子は、期待値最大化(EM)プロセスを用いて絶えず更新及び再重み付けされる。
インクリメンタルな部分空間法は、適応的部分空間を絶えず更新して、安定したオブジェクト記述子を保持する(Ho等著「Visual Tracking Using Learned Linear Subspaces」(IEEE Conf. on Computer Vision and Pattern Recognition, 2004))。
データマイニングは概念流動を用いる。データマイニングでは、大量のデータを高速走査して「概念」を学習することを目的とする。概念の流動に伴い、分類器を適応させる。例えば、「動的重み付き多数決」は、データマイニング用途の概念流動を追跡することができる(Kotler等著「Dynamic Weighted Majority: A new Set Method for Tracking Concept Drift」(Proceedings of the Third International IEEE Conference on Data Mining, 2003))。
別の方法は、概念流動に変化の検出を追加して、概念の急激な変化を検出する(Chu等著「Fast and Light Boosting for Adaptive Mining of Data Streams」(The Eighth Pacific-Asia Conference on Knowledge Discovery and Data Mining, 2004))。この方法は、Jepson等のWSLトラッカに類似している。
特徴選択は、一組の異なる色空間の中から選択を行い、最も識別性の高い色空間に「切り換える」ことができる(Collins等著「On-Line Selection of Discriminative Tracking Features」(Proceedings of the International Conference on Computer Vision (ICCV '03), 2003))。この方法は、低次元の特徴空間における特徴の固定された離散的ヒストグラムを使用して、平均値シフト操作のための信頼度マップを生成する。
本発明は、オブジェクト追跡を二値分類問題として扱う。一組の弱分類器を訓練して、或るシーンから取得したビデオのフレームシーケンス中のオブジェクトと背景を区別する。訓練は、ビデオを取得しながら行う。すなわち、本発明は、リアルタイムで適応的に機能する。
各フレーム内の全画素について特徴ベクトルを構築する。この特徴ベクトルを、弱分類器の訓練に用いる。弱分類器は、オブジェクトに関連する画素を背景に関連する画素と分離する。
一組の弱分類器を組み合わせて1つの強力な分類器にする。この強力な分類器は、フレーム内の画素をラベル付けして信頼度マップを生成する。平均値シフト操作を用いて信頼度の「ピーク」を見付ける。ピークは、フレーム内のオブジェクトの位置を示す。すなわち、信頼度マップは、ビデオにおけるオブジェクトを背景と区別する。
オブジェクトと背景がシーン中で比較的静的である場合、オブジェクト追跡の初期化時における分類器の訓練で十分であろう。しかし、オブジェクトと背景が経時的に変化する場合、分類器をそれに応じて適応させなければならない。したがって、オブジェクトの追跡中に一組の弱分類器を訓練しながら、一組の弱分類器を追加の弱分類器により更新することによって時間的な一貫性を維持する。古い分類器は除去する。
さらに、一組の分類器の数を、オブジェクトを見付ける成功率に応じて適応させることができる。したがって、区別の容易なオブジェクトの場合、一組は弱分類器を1つ又は2つのみ含み、検出の困難なオブジェクトの場合、5つから7つの分類器を用いることができる。
したがって、一組の分類器は2つの目標を達成する。各弱分類器を、特定のフレーム内でオブジェクトを背景と分離するように「調整」するとともに、その一組が全体で時間的な一貫性を確保する。
本発明によるオブジェクト追跡方法はいくつかの利点を有する。本方法は、時間のかかる訓練段階を、リアルタイムで実行できる一連の単純で計算の容易な訓練タスクに分割する。本方法は、一組の中の異なる弱分類器の重みを自動的に調節する。さらに、弱分類器は、様々な特徴空間について訓練することができる。
本方法は、オフライン訓練とオンライン訓練を統合することもできる。例えば、追跡すべきオブジェクトクラスが既知である場合、いくつかの弱分類器を大きな訓練データセットについてオフラインで訓練することができる。これらの分類器は、リアルタイムで訓練した分類器に追加して用いることができる。分類器を経時的に統合することによって、シーン中にオブジェクトの遮蔽又は照明の変化がある場合にオブジェクト追跡の安定性が向上する。
事実上、本発明は、オブジェクト追跡を二値分類問題として扱う。一組の弱分類器をリアルタイムで、オブジェクトの特徴と背景の特徴を区別するように適合させる。弱分類器を組み合わせて1つの強力な分類器を形成する。次に、この強力な分類器を用いて、各フレームの信頼度マップを生成する。平均値シフト操作を用いてマップ中のピーク、よってオブジェクトの位置を見付ける。分類器を経時的に更新して、オブジェクト及び背景の外観の変化に合わせて調整する。
オブジェクト追跡
本発明は、カメラにより或るシーンから取得したビデオのフレーム(画像)シーケンスにおいてオブジェクトを適応的に追跡する方法を提供する。本発明は、変化する背景及び移動するカメラを許容する。本発明は、オブジェクト追跡を、「前景」にあるオブジェクトと「背景」にあるシーンの残りの部分の二値分類問題として扱う。
本発明は、カメラにより或るシーンから取得したビデオのフレーム(画像)シーケンスにおいてオブジェクトを適応的に追跡する方法を提供する。本発明は、変化する背景及び移動するカメラを許容する。本発明は、オブジェクト追跡を、「前景」にあるオブジェクトと「背景」にあるシーンの残りの部分の二値分類問題として扱う。
一組の弱分類器をフレーム毎に更新する。弱分類器を組み合わせて1つの強力な分類器にする。この強力な分類器は、オブジェクトを背景と分離する。経時的なオブジェクト及び背景の外観の変化を組み込むために、一組の弱分類器に対して弱分類器をいつでも追加又は除去することができる。
本発明は、オブジェクトを明示的に表現しない。代わりに、一組の分類器が、特定の画素がオブジェクトに関連するものであるか背景に関連するものであるかを判定する。各弱分類器を正及び負の訓練例について訓練する。正例はオブジェクトに関連付けられ、負例は背景に関連付けられる。
一組の分類器を用いて信頼度マップを生成する。ここではマージンを信頼度として用いる。平均値シフト操作を用いて、信頼度マップの「ピーク」を検出する。ピークはオブジェクトの位置を示す。
初期化
図1は、本発明による、ビデオ101のフレームシーケンス中のオブジェクトを追跡する方法100を示す。この方法に対する入力はフレームI1,...,In102である。追跡用三角形r1により1番目のフレームI1内のオブジェクトを囲むことができる。これは、手動で、又は従来のオブジェクト検出器を用いて行うことができる。この方法の出力は、三角形r2,...,rn141、すなわち以後のフレーム内のオブジェクトの位置である。
図1は、本発明による、ビデオ101のフレームシーケンス中のオブジェクトを追跡する方法100を示す。この方法に対する入力はフレームI1,...,In102である。追跡用三角形r1により1番目のフレームI1内のオブジェクトを囲むことができる。これは、手動で、又は従来のオブジェクト検出器を用いて行うことができる。この方法の出力は、三角形r2,...,rn141、すなわち以後のフレーム内のオブジェクトの位置である。
初期化中、すなわち、1番目のフレームI1について、一組の弱分類器111を訓練する110。この一組の弱分類器を組み合わせて115、1つの強力な分類器116を生成する。これらの分類器は、本方法を実行する前に訓練することができることに留意すべきである。この組み合わせは線形であっても非線形であってもよい。
通常、3つから5つの分類器を用いる。しかし、従来技術におけるように弱分類器の数を事前に固定する代わりに、本発明は、可変数の分類器を用いて機能することができる。言い換えれば、分類器が個別に適応されるだけでなく、分類器の数も適応される。例えば、所定の分類閾値を設定することができ、一組の中の弱分類器の数は、この閾値を達成するように選択することができる。例えば、オブジェクトが背景から際立っている場合、1つの分類器を用いることができる。オブジェクトが背景と類似している場合、5つから7つの分類器を用いる。
方法ステップ
本発明による方法100には4つの主なステップがある。各ステップを順にビデオ中の各フレームに適用する。強力な分類器116を用いて、各フレームIj内の画素を分類する120。分類された画素は、各フレームの信頼度マップLj121を形成する。
本発明による方法100には4つの主なステップがある。各ステップを順にビデオ中の各フレームに適用する。強力な分類器116を用いて、各フレームIj内の画素を分類する120。分類された画素は、各フレームの信頼度マップLj121を形成する。
平均値シフト操作130を信頼度マップ121に適用して「ピーク」を検出する。このピークを用いて、オブジェクトが移動する際の、現フレーム内の三角形rj141の位置、すなわち、オブジェクトの位置を求める140。
次に、現フレームIjを用いて分類器を更新する150。選択された弱分類器を一組の弱分類器111の中から除去し150、新たな分類器を追加し残りの分類器と組み合わせて、強力な分類器116をシーン及びオブジェクトの外観の変化に適応させることができる。
次に、これらのステップを、更新された分類器を用いて次の各フレームについて繰り返す。
本発明による適応的な追跡方法の擬似コードを付録に示す。
弱分類器
現フレーム内の画素毎に、画素近傍の局所情報を特徴付けるd次元の特徴ベクトルを抽出する。特に、特徴ベクトルは11次元である。特徴ベクトルは例えば、強度勾配に基づく局所方位ヒストグラムの8つのビン及び3つの画素色(RGB)の組み合わせである。8ビンの局所方位ヒストグラムを、その画素を中心とする5×5のウインドウ全体で求める。
現フレーム内の画素毎に、画素近傍の局所情報を特徴付けるd次元の特徴ベクトルを抽出する。特に、特徴ベクトルは11次元である。特徴ベクトルは例えば、強度勾配に基づく局所方位ヒストグラムの8つのビン及び3つの画素色(RGB)の組み合わせである。8ビンの局所方位ヒストグラムを、その画素を中心とする5×5のウインドウ全体で求める。
性能を高めるために、何らかの所定の閾値、例えば10個の強度値を上回るエッジのみを計数する。これらの特徴は、抽出が容易であり、オブジェクト検出に十分な情報を伝える。特徴ベクトルは、局所近傍における方位エッジの計数である。例えば、所与の画素の特徴ベクトルは、画素の近傍に3つの水平方向エッジ及び2つの垂直方向エッジを示し、対角線方向エッジは示さない可能性がある。この表現はいくつかの利点を有する。第1に、この表現は照明の変化の影響をあまり受けない。これは、エッジが何らかの閾値、例えば10個の強度値を上回りさえすれば、特徴ベクトルはエッジの長さに依存するためである。第2に、特徴ベクトルは、小さな画像平面における変形に対してロバストな画像パッチの局所的な記述を与える。
実際には、特徴ベクトルは、画素のRGB値及び5×5の局所近傍における方位エッジ数のヒストグラムから成る11次元ベクトルである。すなわち、閾値を上回るウインドウ内の全てのエッジを見付けて計数し、それらのエッジを方位及び計数に応じてビンにクラスタリングする。
フィルタバンクから取得されるような他の特徴も用いることができる。切り株、すなわち1ノードの決定木又はパーセプトロンのような他の分類器を、最小二乗法に基づく分類器の代わりに用いることができる。
好ましい実施形態では、全ての分類器に同一の特徴を用いる。しかし、様々なキューの融合といった他の技法により追跡を向上させることができる。
{xi,yi}n i=1がN個の例とそのラベルをそれぞれ示すものとし、ここで、xi∈Rd及びyi∈{−1,+1}である。弱分類器はh(x):R→{−1,+1}であり、ここで、h(x)は、最小二乗法で訓練される線形分類器の符号である。最小二乗解は、平均値シフト追跡で多く用いられるカラーヒストグラムよりも求めるのに時間がかかるが、高次元にスケーリングする。一組の分類器を使用し、その出力、すなわち信頼度マップ121に対して平均値シフトを実行することによって、本方法は、平均値シフトを高次元データに間接的に適用する。
分類器をフレーム毎に経時的に更新すること150によって、ビデオの時間的な一貫性を利用する。各フレームについて、K個の「最も古い」弱分類器を除去し150、新たな弱分類器を訓練して、強力な分類器116を再構成することができる。追跡すべきオブジェクトに関する知識を更新に組み込むことができる。例えば、特定の弱分類器は、更新中に決して除去しない。
マージンの形の分類器の結果h(x)を信頼度マップ121の信頼値c(x)に写像する。この写像は、信頼値を確実に[0,1]の範囲に正規化するシグモイド関数を用いる。次に、信頼度マップ121を平均値シフトステップ130に供給する。
分類器の更新
更新ステップ150において、一組の中から「古い」弱分類器を除去し、いくつかの新たな弱分類器のための余地を作る。しかし、新たな弱分類器を追加する前に、残りの弱分類器の重みを調節する。これは、重みが未知であり弱分類器が既知である最小二乗問題を形成するか、又は、よく知られたAdaBoostプロセスを実行することによって行うことができる。
更新ステップ150において、一組の中から「古い」弱分類器を除去し、いくつかの新たな弱分類器のための余地を作る。しかし、新たな弱分類器を追加する前に、残りの弱分類器の重みを調節する。これは、重みが未知であり弱分類器が既知である最小二乗問題を形成するか、又は、よく知られたAdaBoostプロセスを実行することによって行うことができる。
更新ステップはAdaBoostに、既存の一組の弱分類器の中から弱分類器を一度に1つずつ提供する。これにより、訓練時間が削減され、強力な分類器、及び新たな弱分類器の訓練に用いることができるサンプル分布が生成される。
「偶然」と比べて精度がそれほど高くない弱分類器を追加又は再重み付けする場合には注意する。重みの再計算中、弱分類器の精度が偶然よりも低い場合、その分類器の重みをゼロに設定する。したがって、新たな弱分類器の精度は、何らかの所定のマージン(例えばerr=0.4)だけ偶然よりも高くなければならない。すなわち、擬似コードのステップ(7)における更新は、この条件が満たされない場合に終了する。
これは、弱分類器がオブジェクトに属すのではなく、遮蔽オブジェクト又は照明に属すデータについて訓練されてしまう可能性がある遮蔽又は重度の照明アーチファクトの場合、特に重要である。
外れ値除去
追跡すべきオブジェクトが追跡用三角形rの形状と一致しない場合、いくつかの画素が誤ってラベル付けされる可能性がある。AdaBoostは外れ値に敏感であるため、外れ値を除去する。単純な手法は「困難」な画素を外れ値として扱い、そのラベルを変更する。
追跡すべきオブジェクトが追跡用三角形rの形状と一致しない場合、いくつかの画素が誤ってラベル付けされる可能性がある。AdaBoostは外れ値に敏感であるため、外れ値を除去する。単純な手法は「困難」な画素を外れ値として扱い、そのラベルを変更する。
具体的には、擬似コードのステップ(4)の定常状態を次のように書き表すことができる。
ここで、rjは、オブジェクトを囲む現在の三角形であり、piは現在の画素であり、inside(r,p)は、画素pが三角形rの内部にある場合に真(+1)であり、そうでない場合に偽(−1)である述語である。
外れ値除去バージョンは次のように表すことができる。
ここで、wiは、強力な分類器を適用した後の画素piの重みであり、Θは所定の予め定義された閾値、例えばΘ=3/Nであり、ここで、Nは例の数である。すなわち、追跡用三角形内の画素を、分類があまりに「困難」でなければ正例と仮定する。困難な画素は負(背景)に変更する。外れ値除去は、信頼度マップを改善し、より安定した追跡プロセスをもたらす。
多重解像度追跡
オブジェクト追跡は、複数の解像度、例えばフルフレームサイズ、半フレームサイズ、及び1/4フレームサイズを用いて行うことができる。これにより、オブジェクトトラッカは、特徴を複数のスケールで抽出することができる。追跡は、解像度レベル毎に個別に行われる。各レベルは、対応する信頼度マップを生成する。次に、各レベルにおける分類器の分類スコアに基づいて対応マップを組み合わせる。
オブジェクト追跡は、複数の解像度、例えばフルフレームサイズ、半フレームサイズ、及び1/4フレームサイズを用いて行うことができる。これにより、オブジェクトトラッカは、特徴を複数のスケールで抽出することができる。追跡は、解像度レベル毎に個別に行われる。各レベルは、対応する信頼度マップを生成する。次に、各レベルにおける分類器の分類スコアに基づいて対応マップを組み合わせる。
具体的には、弱分類器を解像度レベル毎に訓練し、解像度レベル毎に1つの強力な分類器を保持する。各強力な分類器は信頼度マップを生成する。全ての信頼度マップを元のフレームサイズにサイズ変更し、加重平均が、平均値シフト操作130に用いられる信頼度マップ121を形成する。
本発明を好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行うことができることが理解されるべきである。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るそのような変形及び変更をすべて網羅することである。
付録
アルゴリズム1 一般的なアンサンブル追跡
入力:n個のビデオフレームI1,...,In
1番目のフレーム内のオブジェクトの三角形r1
出力:三角形r2,...,rn
初期化(フレームI1について):
・いくつかの弱分類器を訓練し、それらをアンサンブルに追加する
新たな各フレームIjについて、以下を行う:
・現在の強力な分類器を用いてフレームIj内の全画素を検査し、信頼度マップLjを作成する
・信頼度マップLjに対して平均値シフトを実行し、新たなオブジェクト三角形rjを報告する
・三角形rj内の画素をオブジェクトとして、三角形rj外の全画素を背景としてラベル付けする
・古い弱分類器を除去する
・フレームIjについて新たな弱分類器を訓練し、それらをアンサンブルに追加する
アルゴリズム1 一般的なアンサンブル追跡
入力:n個のビデオフレームI1,...,In
1番目のフレーム内のオブジェクトの三角形r1
出力:三角形r2,...,rn
初期化(フレームI1について):
・いくつかの弱分類器を訓練し、それらをアンサンブルに追加する
新たな各フレームIjについて、以下を行う:
・現在の強力な分類器を用いてフレームIj内の全画素を検査し、信頼度マップLjを作成する
・信頼度マップLjに対して平均値シフトを実行し、新たなオブジェクト三角形rjを報告する
・三角形rj内の画素をオブジェクトとして、三角形rj外の全画素を背景としてラベル付けする
・古い弱分類器を除去する
・フレームIjについて新たな弱分類器を訓練し、それらをアンサンブルに追加する
アルゴリズム2 特異的なアンサンブル追跡
入力:n個のビデオフレームI1,...,In
1番目のフレーム内のオブジェクトの三角形r1
出力:三角形r2,...,rn
初期化(フレームI1について):
1.ラベル{yi}N i=1を有する{xi}N i=1の例を抽出する
2.重み{wi}N i=1を1/Nとなるように初期化する
3.t=1...Tについて、
(a){wi}N i=1を分布とする
(b)弱分類器htを訓練する
(c)err=ΣN i=1wi|ht(xi)−yi|とする
(d)弱分類器の重みαt=1/2・log{(1−err)/err}とする
(e)例の重みをwi=wie(αt|ht(xi)−yi|)に更新する
4.強力な分類器をsign(H(x))によって与える。ここで
H(x)=ΣT t=1αtht(x)である
新たな各フレームIjについて、以下を行う:
1.{xi}N i=1の例を抽出する
2.強力な分類器H(x)を用いて例を検査し、信頼度画像Ljを作成する
3.rj−1を三角形の初期位置としてLjに対して平均値シフトを実行し、rjの位置を信頼度画像のピークに設定する
4.新たな三角形rjに対してラベル{yi}N i=1を定義する。三角形内の画素に+1のラベルを付け、三角形外の画素に−1のラベルを付ける。
5.K個の最も古い弱分類器を除去する
6.重み{wi}N i=1を1/Nとなるように初期化する
7.t=K+1...Tについて、(重みを更新)
(a){wi}N i=1を分布とする
(b)err=ΣN i=1wi|ht(xi)−yi|とする
(c)弱分類器の重みαt=1/2・log{(1−err)/err}とする
(d)例の重みをwi=wie(αt|ht(xi)|−yi)に更新する
8.t=1...Kについて、(新たな弱分類器を追加)
(a){wi}N i=1を分布とする
(b)弱分類器htを訓練する
(c)err=ΣN i=1wi|ht(xi)−yi|とする
(d)弱分類器の重みαt=1/2・log{(1−err)/err}とする
(e)例の重みをwi=wie(αt|ht(xi)−yi|)に更新
9.更新した強力な分類器をsign(H(x))によって与える
ここでH(x)=ΣT t=1αtht(x)である
入力:n個のビデオフレームI1,...,In
1番目のフレーム内のオブジェクトの三角形r1
出力:三角形r2,...,rn
初期化(フレームI1について):
1.ラベル{yi}N i=1を有する{xi}N i=1の例を抽出する
2.重み{wi}N i=1を1/Nとなるように初期化する
3.t=1...Tについて、
(a){wi}N i=1を分布とする
(b)弱分類器htを訓練する
(c)err=ΣN i=1wi|ht(xi)−yi|とする
(d)弱分類器の重みαt=1/2・log{(1−err)/err}とする
(e)例の重みをwi=wie(αt|ht(xi)−yi|)に更新する
4.強力な分類器をsign(H(x))によって与える。ここで
H(x)=ΣT t=1αtht(x)である
新たな各フレームIjについて、以下を行う:
1.{xi}N i=1の例を抽出する
2.強力な分類器H(x)を用いて例を検査し、信頼度画像Ljを作成する
3.rj−1を三角形の初期位置としてLjに対して平均値シフトを実行し、rjの位置を信頼度画像のピークに設定する
4.新たな三角形rjに対してラベル{yi}N i=1を定義する。三角形内の画素に+1のラベルを付け、三角形外の画素に−1のラベルを付ける。
5.K個の最も古い弱分類器を除去する
6.重み{wi}N i=1を1/Nとなるように初期化する
7.t=K+1...Tについて、(重みを更新)
(a){wi}N i=1を分布とする
(b)err=ΣN i=1wi|ht(xi)−yi|とする
(c)弱分類器の重みαt=1/2・log{(1−err)/err}とする
(d)例の重みをwi=wie(αt|ht(xi)|−yi)に更新する
8.t=1...Kについて、(新たな弱分類器を追加)
(a){wi}N i=1を分布とする
(b)弱分類器htを訓練する
(c)err=ΣN i=1wi|ht(xi)−yi|とする
(d)弱分類器の重みαt=1/2・log{(1−err)/err}とする
(e)例の重みをwi=wie(αt|ht(xi)−yi|)に更新
9.更新した強力な分類器をsign(H(x))によって与える
ここでH(x)=ΣT t=1αtht(x)である
Claims (16)
- シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法であって、各フレームは複数の画素を含み、フレーム毎に、
前記複数の画素を強力な分類器により分類して、前記フレームに対応する信頼度マップを生成するステップと、
前記信頼度マップに対して平均値シフト操作を適用して、前記フレーム内の前記移動オブジェクトの位置に対応するピークを検出するステップと、
前記強力な分類器を更新するステップと
を含む方法。 - 前記移動オブジェクトを追跡用三角形で囲むことをさらに含む
請求項1記載の方法。 - 一組の弱分類器を組み合わせて、前記強力な分類器を形成することをさらに含む
請求項1記載の方法。 - 前記組み合わせることは、線形で重み付けされる
請求項3記載の方法。 - 前記更新することは、選択された弱分類器を除去するとともに新たな弱分類器を追加して、前記強力な分類器を経時的な前記シーン及び前記オブジェクトの外観の変化に適応させる
請求項3記載の方法。 - 画素毎に、前記画素の近傍の局所情報を特徴付けるd次元の特徴ベクトルを抽出すること、
及び
前記d次元の特徴ベクトルを用いて前記弱分類器を訓練することをさらに含む
請求項3記載の方法。 - 前記d次元の特徴ベクトルは、11次元である
請求項6記載の方法。 - 前記d次元の特徴ベクトルは、画像強度勾配に基づく局所方位ヒストグラムの8つのビン及び3つの画素色を含む
請求項6記載の方法。 - 前記8つのビンは、前記画素を中心とする5×5のウインドウ全体で求められる
請求項8記載の方法。 - 各弱分類器に重みを割り当てることをさらに含む
請求項3記載の方法。 - 前記訓練している間に外れ値画素を除去することをさらに含む
請求項6記載の方法。 - 前記ステップは、複数の解像度を用いて行われる
請求項1記載の方法。 - 前記解像度は、フルフレームサイズ、半フレームサイズ、及び1/4フレームサイズを含む
請求項12記載の方法。 - 各解像度につき1つの信頼度マップがある
請求項12記載の方法。 - 前記複数の解像度の前記信頼度マップは、平均化される
請求項14記載の方法。 - 前記一組の中の弱分類器の数は、前記移動オブジェクトを見付ける成功率に応じて経時的に変化する
請求項3記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/041,338 US7526101B2 (en) | 2005-01-24 | 2005-01-24 | Tracking objects in videos with adaptive classifiers |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006209755A true JP2006209755A (ja) | 2006-08-10 |
Family
ID=36696787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006005268A Pending JP2006209755A (ja) | 2005-01-24 | 2006-01-12 | シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7526101B2 (ja) |
JP (1) | JP2006209755A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011014133A (ja) * | 2009-06-30 | 2011-01-20 | Mitsubishi Electric Research Laboratories Inc | 平均値シフト手順を用いてサンプルをクラスタリングするための方法 |
JP2012022412A (ja) * | 2010-07-12 | 2012-02-02 | Canon Inc | 画像処理装置、画像処理方法、及びプログラム |
JP2013235603A (ja) * | 2013-07-09 | 2013-11-21 | Canon Inc | 画像処理装置及び画像処理方法 |
US8913782B2 (en) | 2009-01-13 | 2014-12-16 | Canon Kabushiki Kaisha | Object detection apparatus and method therefor |
Families Citing this family (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7466841B2 (en) * | 2004-08-16 | 2008-12-16 | Siemens Corporate Research, Inc. | Method for traffic sign detection |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
GB2432064B (en) * | 2005-10-31 | 2011-01-19 | Hewlett Packard Development Co | Method of triggering a detector to detect a moving feature within a video stream |
KR100813167B1 (ko) * | 2006-06-09 | 2008-03-17 | 삼성전자주식회사 | 고속 정확한 얼굴 검출 방법과 얼굴 검출 학습 방법 및이를 구현하는 시스템 |
KR100785076B1 (ko) * | 2006-06-15 | 2007-12-12 | 삼성전자주식회사 | 스포츠 동영상에서의 실시간 이벤트 검출 방법 및 그 장치 |
US7747079B2 (en) | 2006-09-27 | 2010-06-29 | Tandent Vision Science, Inc. | Method and system for learning spatio-spectral features in an image |
US20080126275A1 (en) * | 2006-09-27 | 2008-05-29 | Crnojevic Vladimir S | Method of developing a classifier using adaboost-over-genetic programming |
CN101512528A (zh) * | 2006-09-29 | 2009-08-19 | 汤姆森特许公司 | 动态状态估计 |
US20080112593A1 (en) * | 2006-11-03 | 2008-05-15 | Ratner Edward R | Automated method and apparatus for robust image object recognition and/or classification using multiple temporal views |
CN101187985B (zh) * | 2006-11-17 | 2012-02-01 | 东软集团股份有限公司 | 确定对象分类器分类边界的方法及装置 |
US7840061B2 (en) | 2007-02-28 | 2010-11-23 | Mitsubishi Electric Research Laboratories, Inc. | Method for adaptively boosting classifiers for object tracking |
JP2008217589A (ja) * | 2007-03-06 | 2008-09-18 | Toshiba Corp | 学習装置及びパターン認識装置 |
US8117137B2 (en) | 2007-04-19 | 2012-02-14 | Microsoft Corporation | Field-programmable gate array based accelerator system |
US7822696B2 (en) * | 2007-07-13 | 2010-10-26 | Microsoft Corporation | Histogram-based classifiers having variable bin sizes |
EP2034437A1 (en) * | 2007-09-06 | 2009-03-11 | Thomson Licensing | Spatial diffusion in images |
US8064641B2 (en) * | 2007-11-07 | 2011-11-22 | Viewdle Inc. | System and method for identifying objects in video |
US8315430B2 (en) * | 2007-11-07 | 2012-11-20 | Viewdle Inc. | Object recognition and database population for video indexing |
US8150169B2 (en) * | 2008-09-16 | 2012-04-03 | Viewdle Inc. | System and method for object clustering and identification in video |
US8301638B2 (en) * | 2008-09-25 | 2012-10-30 | Microsoft Corporation | Automated feature selection based on rankboost for ranking |
US8131659B2 (en) * | 2008-09-25 | 2012-03-06 | Microsoft Corporation | Field-programmable gate array based accelerator system |
US8909572B2 (en) * | 2008-10-03 | 2014-12-09 | The Trustees Of Columbia University In The City Of New York | Systems, methods, and media for performing classification using a boosted classifier |
US8295546B2 (en) * | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8320621B2 (en) * | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8864581B2 (en) | 2010-01-29 | 2014-10-21 | Microsoft Corporation | Visual based identitiy tracking |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
EP2672890A1 (en) | 2011-02-11 | 2013-12-18 | The Arizona Board of Regents for and on behalf of Arizona State University | Methods, systems, and media for determining carotid intima-media thickness |
WO2012109670A1 (en) | 2011-02-11 | 2012-08-16 | Arizona Board Of Regents, For And On Behalf Of, Arizona State University | Systems, methods, and media for detecting an anatomical object in a medical device image |
US8406470B2 (en) * | 2011-04-19 | 2013-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Object detection in depth images |
US9594430B2 (en) | 2011-06-01 | 2017-03-14 | Microsoft Technology Licensing, Llc | Three-dimensional foreground selection for vision system |
US8526734B2 (en) | 2011-06-01 | 2013-09-03 | Microsoft Corporation | Three-dimensional background removal for vision system |
US9330336B2 (en) | 2011-09-16 | 2016-05-03 | Arizona Board of Regents, a body corporate of the State of Arizona, acting for and on behalf of, Arizona State University | Systems, methods, and media for on-line boosting of a classifier |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
WO2013116865A1 (en) * | 2012-02-02 | 2013-08-08 | Arizona Board Of Regents, For And On Behalf Of, Arizona State University | Systems, methods, and media for updating a classifier |
WO2013116867A1 (en) | 2012-02-03 | 2013-08-08 | Arizona Board Of Regents, For And On Behalf Of, Arizona State University | Systems, methods, and media for monitoring the condition of a patient's heart |
CN103294716B (zh) * | 2012-02-29 | 2016-08-10 | 佳能株式会社 | 用于分类器的在线半监督学习方法和装置及处理设备 |
US9336302B1 (en) | 2012-07-20 | 2016-05-10 | Zuci Realty Llc | Insight and algorithmic clustering for automated synthesis |
CN103679743B (zh) * | 2012-09-06 | 2016-09-14 | 索尼公司 | 目标跟踪装置和方法,以及照相机 |
US9449381B2 (en) | 2012-09-10 | 2016-09-20 | Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University | Methods, systems, and media for generating and analyzing medical images having elongated structures |
CN102915450B (zh) * | 2012-09-28 | 2016-11-16 | 常州工学院 | 一种在线自适应调整的目标图像区域跟踪方法 |
CN103136526B (zh) * | 2013-03-01 | 2015-12-23 | 西北工业大学 | 基于多源图像特征融合的在线目标跟踪方法 |
US20160140727A1 (en) * | 2013-06-17 | 2016-05-19 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirket I | A method for object tracking |
CN104424466B (zh) | 2013-08-21 | 2018-05-15 | 佳能株式会社 | 对象检测方法、对象检测设备及图像拾取设备 |
CN105723419B (zh) * | 2013-11-19 | 2019-07-23 | 哈曼国际工业有限公司 | 对象追踪 |
CN103793926B (zh) * | 2014-02-27 | 2016-06-29 | 西安电子科技大学 | 基于样本重选择的目标跟踪方法 |
US10460194B2 (en) * | 2014-03-07 | 2019-10-29 | Lior Wolf | System and method for the detection and counting of repetitions of repetitive activity via a trained network |
CN104200226B (zh) * | 2014-09-01 | 2017-08-25 | 西安电子科技大学 | 基于机器学习的粒子滤波目标跟踪方法 |
CN106204632A (zh) * | 2015-04-29 | 2016-12-07 | 株式会社理光 | 基于多分类器融合的目标跟踪方法和系统 |
US10157467B2 (en) | 2015-08-07 | 2018-12-18 | Arizona Board Of Regents On Behalf Of Arizona State University | System and method for detecting central pulmonary embolism in CT pulmonary angiography images |
CN105224912B (zh) * | 2015-08-31 | 2018-10-16 | 电子科技大学 | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 |
CN105225253B (zh) * | 2015-09-22 | 2018-01-02 | 济南大学 | 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法 |
CN105547635B (zh) * | 2015-12-11 | 2018-08-24 | 浙江大学 | 一种用于风洞试验的非接触式结构动力响应测量方法 |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
CN106875415B (zh) * | 2016-12-29 | 2020-06-02 | 北京理工雷科电子信息技术有限公司 | 一种动态背景中弱小动目标的连续稳定跟踪方法 |
CN107750015B (zh) * | 2017-11-02 | 2019-05-07 | 腾讯科技(深圳)有限公司 | 视频版权的检测方法、装置、存储介质及设备 |
US10521704B2 (en) | 2017-11-28 | 2019-12-31 | Motorola Solutions, Inc. | Method and apparatus for distributed edge learning |
CN108446630B (zh) * | 2018-03-20 | 2019-12-31 | 平安科技(深圳)有限公司 | 机场跑道智能监控方法、应用服务器及计算机存储介质 |
CN108596955B (zh) * | 2018-04-25 | 2020-08-28 | Oppo广东移动通信有限公司 | 一种图像检测方法、图像检测装置及移动终端 |
CN109040691B (zh) * | 2018-08-29 | 2020-08-28 | 一石数字技术成都有限公司 | 一种基于前端目标检测的场景视频还原装置 |
US11443141B2 (en) | 2020-02-27 | 2022-09-13 | International Business Machines Corporation | Using video tracking technology to create machine learning datasets for tasks |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002133389A (ja) * | 2000-10-26 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | データ分類学習方法、データ分類方法、データ分類学習器、データ分類器、データ分類学習プログラムを記録した記憶媒体、データ分類プログラムを記録した記録媒体 |
US20030110147A1 (en) * | 2001-12-08 | 2003-06-12 | Li Ziqing | Method for boosting the performance of machine-learning classifiers |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7306337B2 (en) * | 2003-03-06 | 2007-12-11 | Rensselaer Polytechnic Institute | Calibration-free gaze tracking under natural head movement |
US7203669B2 (en) * | 2003-03-17 | 2007-04-10 | Intel Corporation | Detector tree of boosted classifiers for real-time object detection and tracking |
US7263209B2 (en) * | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
US7068815B2 (en) * | 2003-06-13 | 2006-06-27 | Sarnoff Corporation | Method and apparatus for ground detection and removal in vision systems |
-
2005
- 2005-01-24 US US11/041,338 patent/US7526101B2/en not_active Expired - Fee Related
-
2006
- 2006-01-12 JP JP2006005268A patent/JP2006209755A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002133389A (ja) * | 2000-10-26 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | データ分類学習方法、データ分類方法、データ分類学習器、データ分類器、データ分類学習プログラムを記録した記憶媒体、データ分類プログラムを記録した記録媒体 |
US20030110147A1 (en) * | 2001-12-08 | 2003-06-12 | Li Ziqing | Method for boosting the performance of machine-learning classifiers |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8913782B2 (en) | 2009-01-13 | 2014-12-16 | Canon Kabushiki Kaisha | Object detection apparatus and method therefor |
JP2011014133A (ja) * | 2009-06-30 | 2011-01-20 | Mitsubishi Electric Research Laboratories Inc | 平均値シフト手順を用いてサンプルをクラスタリングするための方法 |
JP2012022412A (ja) * | 2010-07-12 | 2012-02-02 | Canon Inc | 画像処理装置、画像処理方法、及びプログラム |
JP2013235603A (ja) * | 2013-07-09 | 2013-11-21 | Canon Inc | 画像処理装置及び画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US7526101B2 (en) | 2009-04-28 |
US20060165258A1 (en) | 2006-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006209755A (ja) | シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法 | |
Ahmed et al. | Salient segmentation based object detection and recognition using hybrid genetic transform | |
Zhang et al. | Animal detection from highly cluttered natural scenes using spatiotemporal object region proposals and patch verification | |
Von Stumberg et al. | Gn-net: The gauss-newton loss for multi-weather relocalization | |
WO2019218824A1 (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
Kulchandani et al. | Moving object detection: Review of recent research trends | |
Avidan | Ensemble tracking | |
CN111027493B (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
US8548198B2 (en) | Identifying anomalous object types during classification | |
Xu et al. | Learning-based shadow recognition and removal from monochromatic natural images | |
WO2019197021A1 (en) | Device and method for instance-level segmentation of an image | |
Wang et al. | Robust object tracking using constellation model with superpixel | |
Zhong et al. | Robust tracking via patch-based appearance model and local background estimation | |
Jemilda et al. | Moving object detection and tracking using genetic algorithm enabled extreme learning machine | |
Jiang et al. | Robust visual tracking via laplacian regularized random walk ranking | |
CN114049531A (zh) | 一种基于弱监督人体协同分割的行人再识别方法 | |
Mohanty et al. | An improved scheme for multifeature-based foreground detection using challenging conditions | |
Han | Image object tracking based on temporal context and MOSSE | |
Zheng et al. | Shadow removal for pedestrian detection and tracking in indoor environments | |
Singh et al. | Object motion detection methods for real-time video surveillance: A survey with empirical evaluation | |
Sarkar et al. | Universal skin detection without color information | |
Li et al. | Multitarget tracking of pedestrians in video sequences based on particle filters | |
Chen et al. | Illumination-invariant video cut-out using octagon sensitive optimization | |
Sliti et al. | Efficient visual tracking via sparse representation and back-projection histogram | |
Lin et al. | Foreground object detection in highly dynamic scenes using saliency |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100817 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110201 |