JP5036580B2 - ブースト分類器を新たなサンプルに対して適応させる方法 - Google Patents

ブースト分類器を新たなサンプルに対して適応させる方法 Download PDF

Info

Publication number
JP5036580B2
JP5036580B2 JP2008021011A JP2008021011A JP5036580B2 JP 5036580 B2 JP5036580 B2 JP 5036580B2 JP 2008021011 A JP2008021011 A JP 2008021011A JP 2008021011 A JP2008021011 A JP 2008021011A JP 5036580 B2 JP5036580 B2 JP 5036580B2
Authority
JP
Japan
Prior art keywords
classifier
new
samples
sample
method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008021011A
Other languages
English (en)
Other versions
JP2008217768A (ja
Inventor
トゥフィク・パラグ
ファティー・エム・ポリクリ
Original Assignee
ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US11/679,940 priority Critical patent/US7840061B2/en
Priority to US11/679,940 priority
Application filed by ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド filed Critical ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド
Publication of JP2008217768A publication Critical patent/JP2008217768A/ja
Application granted granted Critical
Publication of JP5036580B2 publication Critical patent/JP5036580B2/ja
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/62Methods or arrangements for recognition using electronic means
    • G06K9/6217Design or setup of recognition systems and techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06K9/6256Obtaining sets of training patterns; Bootstrap methods, e.g. bagging, boosting
    • G06K9/6257Obtaining sets of training patterns; Bootstrap methods, e.g. bagging, boosting characterised by the organisation or the structure of the process, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Description

本発明は、包括的には機械学習に関し、特に、ビデオにおいてブースト分類器を使用してオブジェクトを追跡することに関する。

オブジェクト追跡は、多くのコンピュータビジョンアプリケーションで使用されている。これについては、Stauffer他著、「Training Patterns of Activity Using Real-Time Tracking」(PAMI, 22(8), pp.747-757, 2000)、Avidan著、「Support Vector Tracking」(IEEE Trans. on Pattern Analysis and Machine Intelligence, 2004)、及び人間とコンピュータとの対話(human-computer interactions)に関し、Bobick他著、「The KidsRoom」(Communications of the ACM, 43(3), 2000)を参照されたい。

追跡されるオブジェクトの範囲が広いことにより、あらゆるオブジェクト追跡アプリケーションに難題が提起されている。オブジェクト追跡には、カラーヒストグラム、アピアランスモデル(appearance model)又はキーポイント等の種々のオブジェクト表現及び特徴表現が使用されてきた。特徴選択は、一組の異なる特徴空間を使用し、最も識別性の高い特徴に「切り換える」ことができる。これについては、Collins他著、「On-Line Selection of Discriminative Tracking Features」(Proceedings of the International Conference on Computer Vision (ICCV '03), 2003)を参照されたい。

オブジェクト追跡は、カルマンフィルタ又は粒子フィルタを使用することができる。粒子フィルタリング等の時間積分方法は、経時的に測定値を積分する。これについては、Isard他著、「CONDENSATION - Conditional Density Propagation for Visual Tracking」(International Journal of Computer Vision, Vol 29(1), pp.5-28, 1998)を参照されたい。フィルタリングは、種々の一致に対して確率を割り当てる。不都合なことに、フィルタ方法はオブジェクトの記述に影響を及ぼさない。

平均値シフト方法もまた使用することができる。平均値シフトは、分布の勾配に作用してピークを見つけるモード探索プロセスである。平均値シフトは、所与のカラーヒストグラムに類似するカラーヒストグラムを有する画像中の領域を探索する。性能を向上させるために、Comanciu他は空間平滑化を使用した。これについては、Comanciu他著、「Karnel-Based Object Tracking」(IEEE Trans. on Pattern Analysis and Machine Intelligence, (PAMI), 25:5, pp.564-575)を参照されたい。さらに、オブジェクトの外側に現れる色を使用して、オブジェクトに現れる色の「重みを下げる(down-weight)」。

単純なオブジェクト追跡は、ビデオのフレームのシーケンスにおいてオブジェクトに一致する領域を見つける。機械学習に関し、これは、最近傍分類と等価である。単純な手法は、背景の役割を無視する。したがって、オブジェクト追跡にはオブジェクト分類器を使用することができる。これについては、Shai Avidan著、「Ensemble tracking」(IEEE Conference on Computer Vision and Pattern Recognition, pages 494-501, 2005)及びHelmut Grabner及びHorst Bischof著、「On-line boosting and vision」(IEEE Conference on Computer Vision and Pattern Recognition, pages 260-267, 2006)並びに2005年1月24日にAvidanによって出願された米国特許出願公開第20060165258号、「Tracking objects in videos with adaptive classifiers」を参照されたい。

分類器ベースの方法は、2値分類器を「訓練」して、シーンの背景から当該オブジェクトを識別する。そして、分類器を画像のシーケンスに適用することにより、オブジェクトの位置を特定してそれを追跡する。多くの場合、強分類器は、一組の弱分類器を組み合わせたものである。この組合せは線形であっても非線形であってもよい。たとえば、既知のAdaBoostプロセスは、一組の弱分類器の各分類器を、訓練データの難度を高めながら訓練する。そして、弱分類器を組み合わせて、弱分類器のいずれか1つのみより優れている強分類器を生成する。これについては、参照により本明細書に援用される、Freund他著、「A decision-theoretic generalization of on-line training and an application to boosting」(Computational Training Theory, Eurocolt '95, pp.23-37, 1995)を参照されたい。

分類器ベースの方法の本発明に関する問題は、オブジェクトを正しく追跡し続けている間に、経時的なシーンの変化に対して分類器を適応させるということである。背景及びオブジェクトの両方の外観が時間と共に変化する可能性があるということが留意されるべきである。たとえば、シーンにおいて或る期間にわたって現れるか又は消えるものがある可能性があり、多くのシーン、特に屋外のシーンの場合、入射光及び影が或る期間及び空間にわたって変化する。

従来の分類器ベースの方法は、或る期間にわたって弱分類器を追加し且つ削除することによって強分類器を更新することにより、シーンの変化に対処する。Avidanのアンサンブル追跡(ensemble tracking)は、弱分類器自体を更新しようとしない。代りに、「古い」弱分類器を削除し、「新しい」弱分類器を追加する。Grabner他のオンラインブースティング方法は、ガウス分布によって特徴密度をモデル化する。カルマンフィルタリング方法を使用して、各フレームにおいてパラメータを更新する。Grabner他の方法もまた、所定閾値、たとえば0.5すなわち50%を上回る誤りを生成するすべての弱分類器を削除する。これにより、削除された弱分類器を後に有効に使用することができる可能性がなくなる。

特徴密度をモデル化するのにガウス分布が十分である場合(それは常にそうであるとは限らない)であっても、より高次の分類器が望まれる場合、更新メカニズムは、すぐに複雑化し低速になる。

本発明の実施の形態は、データサンプルを分類する間に分類器を適応的にブーストする方法を提供する。分類器を使用して、ビデオのオブジェクトを追跡することができる。この適用では、分類されるサンプルは前景ピクセル及び背景ピクセルであり、本方法は、オブジェクト追跡を、2値分類問題として扱う。一組の弱分類器を、シーンから取得されたビデオのフレームのシーケンスにおいてオブジェクトと背景とを識別するように訓練する。訓練を、ビデオが処理される際に実行する。すなわち、本発明は、リアルタイムに適応的に作用し、シーン及び光の変化に適応することができる。

各フレームのすべてのピクセルに対して特徴ベクトルを構築する。特徴ベクトルを使用して弱分類器を訓練する。弱分類器は、オブジェクトに関連する別個のピクセルを背景に関連するピクセルから分類する。この弱分類器の組を組み合わせて強分類器にする。

本発明の一実施の形態は、オンラインブースティングを提供する。本発明によるオンラインブースティングでは、弱分類器を、入力サンプルに従ってシーンの変化を考慮するように経時的に適応させる。従来技術では、通常、誤り率が所定閾値を超えた弱分類器はすべてすぐに削除される。

本発明は、弱分類器の組合せであるブースト分類器を適応的に更新する方法を提供する。ブースト分類器を、初期サンプルを用いて訓練する。新たなサンプル及び古いサンプルに従って、累積行列(accumulation matrix)を更新する。弱分類器は、新たなサンプルと、弱分類器から削除された古いサンプルの寄与とを用いることにより、ブースト分類器を適応するために更新される。

分類器を使用して、カメラによってシーンから取得されたビデオのフレーム(画像)のシーケンスにおいてオブジェクトを追跡することができる。本発明は、シーンの変化及びカメラの移動を許容する。本発明は、オブジェクト追跡を、オブジェクトが「前景」にあり、シーンの残りが「背景」であるという2値分類問題として扱う。各フレームに対し、一組の弱分類器を更新する。弱分類器を組み合わせて強分類器にする。強分類器は、背景からオブジェクトを識別し、オブジェクト追跡を可能にする。

本発明は、オブジェクトを明示的に表さない。代りに、分類器の組が、特定のピクセルがオブジェクトに関連するか又は背景に関連するかを判定する。各弱分類器を、正の訓練サンプル及び負の訓練サンプルに対して訓練する。正のサンプルはオブジェクトに関連し、負のサンプルは背景に関連する。

図1に示すように、本発明の実施形態は、フレームのシーケンス(ビデオ)101においてオブジェクトを追跡する方法を提供する。シーンから取得されたビデオ101の1つ又は複数の初期画像102におけるサンプル(ピクセル)を使用して、一組の弱分類器111〜112を訓練する(110)。たとえば、8つの分類器を使用する。しかしながら、この個数は、アプリケーション及び分類タスクの容易さ又は難易度に応じて変更してもよい。

ある例の顔追跡アプリケーションの場合、訓練は、正のサンプル(+1)として「顔」ピクセルから抽出された特徴と、負のサンプル(−1)として「背景」又は非顔ピクセルから抽出された特徴とを使用する。

現フレームにおける各ピクセルに対し、そのピクセルの近くの局所エッジ情報及びテクスチャ情報を特徴付けるd次元特徴ベクトルを抽出する。たとえば、特徴ベクトルは11次元である。特徴ベクトルは、たとえば強度勾配に基づく局所方向ヒストグラムの8つのビンと3つのピクセル色(RGB)との組合せである。8ビン局所方向ヒストグラムを、そのピクセルを中心とする5×5窓にわたって確定する。窓をその画像にわたり、ピクセル毎に走査することにより、特徴ベクトルを取得する。

性能を向上させるために、何らかの所定閾値、たとえば10個の強度値を上回るエッジのみをカウントする。これらの特徴は、抽出が容易であり、且つオブジェクト検出に対し十分なエッジ情報を伝える。特徴ベクトルは、ピクセルの局所近傍における有向エッジのカウントである。たとえば、所与のピクセルに対する特徴ベクトルは、そのピクセルの付近における3つの水平エッジ及び2つの垂直エッジを示し、対角エッジを示さない可能性がある。

この表現にはいくつかの利点がある。第1に、この表現は、照明の変化にそれほど影響を受けない。それは、エッジが何らかの閾値、たとえば10個の強度値を上回れば、特徴ベクトルはエッジの長さによって決まるためである。第2に、特徴ベクトルは、小さい画像平面の変形に対して変化しないピクセルの局所記述を与える。

実際には、特徴ベクトルは、5×5窓における有向エッジの数のヒストグラムと共にピクセルのRGB値を含む11次元ベクトルである。すなわち、閾値を上回る窓内のすべてのエッジの位置を特定し且つその数をカウントし、エッジを、それらの方向及びカウントに従ってビンにクラスタ化する。

フィルタのバンクから取得される特徴等の他の特徴もまた使用することができる。最小二乗法ベースの分類器の代りに、スタンプ(stump)、すなわち単一ノード決定木又はパーセプトロン等の他の分類器を使用することができる。好ましい実施形態では、すべての分類器に対して同じ特徴を使用する。しかしながら、さまざまなキューを融合する等、他の技法により追跡を向上させることができる。

弱分類器を組み合わせて(120)強分類器300にする。後続するフレーム103からの新たなサンプルを使用して、シーンの変化を考慮するようにオンラインで且つ動的に弱分類器を更新する(130)。同時に、それ以上シーンを表さず、したがって信頼性の低い古いサンプルを削除する。そして、更新されたブースト分類器を使用してオブジェクト141を追跡する(140)ことができる。

更新ステップ130中、弱分類器の誤り率が所定閾値、たとえば0.5未満である場合、それらの弱分類器を保持する。従来技術では、弱分類器はもはや有用でなくなると、単に破棄する。代りに、本発明は、弱分類器を、弱分類器がもはや有用でなくなるまでシーンの変化に適応させる。これにより、特により高次元の弱分類器が使用される場合に、分類器の訓練が簡略化する。

本発明によるオブジェクト追跡のための基本となる概念は、ビデオ101のフレーム103における新たなサンプルがオブジェクト追跡140のために取得され処理される際、ブースト分類器をオンラインで増分的に且つ動的に適応させるということである。これは、ビデオがオブジェクト追跡のために処理される前に分類器がビデオから構築される従来のバッチ訓練とは対照的である。

本発明では、弱分類器111〜112を、それらが有用である限りシーン変化に対して適応させるように更新する(130)。本発明は、古いサンプルを「記憶している(remember)」ように新たなサンプルを適応させる計算効率のよいプロセス方法を提供する。

適応線形リグレッサ(Regressor)
行列Xは、一組のN個のサンプル、たとえば特徴ベクトルxを含む。これらのサンプルに対する対応する分類ラベルをベクトルy∈{−1,1}に格納する。ラベルは、サンプルの2値分類を示す。重み付き最小二乗法によって線形関係

を解くために、Tが転置演算子であり、Wがサンプルに対して重みベクトルwから構築された対角行列である場合、誤差関数

を最小化する。誤差を最小化にする線形係数βチルダは、ブースト分類器で使用されるサンプルに対する確率分布を表す以下の式によって与えられる。

以下において、本発明による方法において重み付き回帰を使用する理由が明らかになろう。

式(1)の線形関係における切片を考慮する。以下の式(2)のように成分を分解することにより、解を書き換えることができる。

行列X∈RN+ ×Lは新たなサンプルを含み、ベクトルy+1は、新たなサンプルの分類ラベルを含む。結合された古いサンプル及び新たなサンプル、すなわち[XXに対する新たな線形係数βを、以下の式(3)のように新たなサンプルのみに関連する量を加算することにより求めることができる。

ここまで処理されたすべてのサンプルに対して係数βを求めるために、本発明では、サンプルが処理される度に新たなサンプルに関連する量のみを求めるということに留意されたい。

新たなサンプルの寄与を含む逆向き累積行列(backward accumulation matrix)は以下の通りである。

古い行列に加算される(ベクトルの)新たな行列はサイズがL×L(L)であり、それは通常小さい。したがって、メモリ要件は低い。

新たなサンプルが到着する度に、線形関係は、前の特徴を保持しながらシーンの変化に適応する。この現象を、本明細書では、古いサンプル(X)を「記憶している」線形回帰として説明する。本発明ではまた、式(4)に示すように類似する行列を減算することにより幾分かの特徴を「忘れる(forget)」ことも可能である。

古いサンプルを保持する期間、すなわち「記憶」の期間Mは、シーンにおける変化に対する感度を決定する。

古いサンプルの寄与を含む前向き累積行列(forward accumulation matrix)は、以下の通りである。

本発明では、GentleBoostに対して説明されているようにg:R→Rの形式の線形リグレッサを使用することができる。これについては、参照により本明細書に援用されるJerome Friedman、Trevor Hastie及びRobert Tibshirani著、「Additive logistic regression: a statistical view of boosting」(The Annals of Statistics, 38(2):337-374, April, 2000)を参照されたい。別法として、離散(discrete)AdaBoostプロセスに対し、閾値処理バージョンh:R→{−1,1}を使用することができる。

最初に、サンプルの初期セット、たとえばビデオ101における1つ又は少数のフレーム102から抽出されたサンプルに対し、離散AdaBoostを使用してT個の弱分類器111〜112を訓練する(110)。これは、まず、線形関係を求め、その後、ゼロにおいて応答Xβを閾値処理することによって行う。新たなフレームからの新たなサンプルに対し、これらの弱分類器の各々を、式(3)に従って更新する。そして、ブースティングのすべてのラウンドにおいて、重み付き分類誤りが最小である最良の弱分類器を選択し、それに従ってその最良の弱分類器に関連するサンプルの重みを更新する。前のM個のサンプルのみの寄与を考慮するために、式(3)に示す量の先入れ先出し待ち行列を維持し、減算により量を削除した。

図2は、弱学習手続き202を使用するオンラインブースティングステップ201を要約する。

オンラインブースティング
サンプルXの新たなセットの各々、すなわち新たなフレームの各々に対し、
1.一様分布重みベクトルw及びt=1により開始する。
2.各フレーム(新たなサンプルのセット)に対し繰り返す
(a)弱分類器を訓練する−WeakTrain(W)。
(b)重み付き分類誤りが最小である弱分類器hを選択する−h(x)=arg min1≦j≦JΣ|y−h(x)|。
(c)重みベクトルwを更新し正規化する。
(d)式(4)に従ってX−Mに関連する古いサンプルを削除する。

WeakTrain(W)
1.Xに対し新たな量を確定する(どれだけの量か)。
2.式(3)に従って線形係数βを訓練する。

図3は、データセット例に対する本発明による更新プロセスを示す。サンプルの2次元データセットを生成する。垂直軸及び水平軸は、サンプルが生成されるこの2次元空間における異なる次元を示す。十字101及び円102は、2つの異なるクラスのサンプル、たとえばオブジェクト又はそれ以外を示す。これらのサンプルを、2Dガウス分布から生成する。線111〜112は、サンプルを2値クラスに分類する弱分類器を表す。

t=1(フレーム1)で強ブースト分類器300を開始することは、初期データセット102から訓練された弱2値分類器111〜112を線形に組み合わせる(1209)ことである。線は、上述したようにリグレッサによって「適合」される。

図4(a)〜図4(f)に示すように、新たなサンプルをデータセットに増分的に追加し、それに従って、t,…,tに対し弱分類器を更新し、経時的に「古い」サンプルを削除する。図4(a)〜図4(f)では、従来技術におけるように弱分類器全体を交換する代りに、新たなサンプルが追加され且つ古いサンプルが削除される際に弱分類器が適応的に更新されるため、線の方向が漸次シフトすることに留意されたい。これは、低速に展開するシーンにおけるオブジェクトを追跡するのにより適している。

図5(a)〜図5(b)は、それぞれ或る期間、たとえばフレームt,…,t10及びフレームt31,…,t40にわたる8つの弱分類器の誤り率を示す。図5(a)の第1行は、第1のフレームにおいて顔を分類する際に各列として表される、各分類器によって生成される誤りを示す。誤り≧0.5である場合、弱分類器を強分類器に組み合わせない。しかしながら、削除しない。フレーム1〜5及びフレーム9、10における線形分類器7の誤り特性に留意されたい。初期の性能が不十分であるにも関わらず、同じ線形分類器が、本発明による適応により後のフレームにおいて非常に有用になる。ここでは、サンプルに対するブースティング重みが、線形分類器の誤りを確定する際に重要な役割を果たすということが示唆されるべきである。分類器7を、大きい誤りをもたらすより「困難な」例を用いて訓練したという場合である可能性が非常に高い。後に、恐らくはシーンの変化により、いくつかの新たなサンプルが分類器7によって適切に分離される。したがって、従来技術において行われるように誤り率の高い分類器を削除することは不都合である可能性がある。

本発明を、好ましい実施形態の例を用いて説明してきたが、本発明の精神及び範囲内において他のさまざまな適応及び変更を行うことができる、ということが理解されるべきである。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲内にあるこのような変形及び変更のすべてを包含することである。

本発明の一実施形態による強線形分類器を使用してオブジェクトを追跡する方法のブロック図である。 本発明の一実施形態によるオンラインブースティング及び弱学習に対する擬似コードの図である。 本発明の一実施形態による初期サンプル及び初期弱分類器の図である。 (a)〜(f)は経時的に更新された図3の分類器の図である。 (a)〜(b)は経時的な弱分類器の誤り率の棒グラフである。

Claims (12)

  1. ブースト分類器を新たなサンプルに対して適応させる方法であって、
    初期サンプルを使用してブースト分類器を訓練するステップであって、該ブースト分類器は弱分類器の組合せである、ステップと、
    新たなサンプルの寄与を追加すると共に古いサンプルの寄与を削除することにより、前記ブースト分類器の前記弱分類器のそれぞれを適応的に更新するステップと
    を含み、
    行列XはN個のサンプルを含み、各サンプルは特徴ベクトルxであり、該サンプルに対する対応するラベルはベクトルy∈{−1,1}Nに格納され、該ラベルは前記サンプルの2値分類を示し、線形関係
    は重み付き最小二乗法によって解かれ、該重み付き最小二乗法は、Tが転置演算子であり、Wが前記サンプルに対する重みベクトルwから構築される対角行列であり、前記誤りを最小化する線形係数
    が、前記ブースト分類器によって使用される前記サンプルに対する確率分布を表す
    によって与えられる場合、誤差関数
    を最小化する、
    ブースト分類器を新たなサンプルに対して適応させる方法。
  2. 前記サンプルは、シーンから取得されるビデオのフレームにおける前景ピクセル及び背景ピクセルに対応し、
    前記ビデオにおいて前記前景ピクセルに対応するオブジェクトを追跡すること
    をさらに含む、請求項1に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  3. 前記シーン及び前記オブジェクトは経時的に変化する、請求項2に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  4. 前記ピクセルはそれぞれ、多次元特徴ベクトルによって表される、請求項2に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  5. 前記特徴ベクトルは、前記ビデオにおけるエッジ情報及びテクスチャ情報を符号化する、請求項に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  6. 特定の弱分類器は、該弱分類器の誤り率が所定閾値未満である限り保持される、請求項1に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  7. 結合されたデータに対する前記線形係数
    は、新たなサンプル
    及び前記対応するラベルy+1を使用して、次式
    を使用して前記新たなサンプルのみに関連する新たな量を加算することにより求められる、請求項に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  8. 前記古いサンプルの前記寄与は、
    としてそれらの重みを減算することにより除去される、請求項に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  9. 前記古いサンプルが保持される期間は、前記シーン及び前記オブジェクトにおける変化に対する前記ブースト分類器の感度を決定する、請求項3に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  10. 前記フレームはそれぞれ前記新たなサンプルをもたらし、
    前記フレームのそれぞれに対し、
    重み付き分類誤りが最小である最良の弱分類器を選択すること、及び
    それに従って前記最良の弱分類器に関連する前記新たなサンプル及び前記古いサンプルの重みを更新すること
    をさらに含む、請求項2に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  11. 前記ブースト分類器は、GentleBoost更新関数を使用して線形リグレッサにより前記新たなサンプルに適合される、請求項1に記載のブースト分類器を新たなサンプルに対して適応させる方法。
  12. 前記ブースト分類器は、離散AdaBoost更新関数を使用して線形リグレッサにより前記新たなサンプルに適合される、請求項1に記載のブースト分類器を新たなサンプルに対して適応させる方法。
JP2008021011A 2007-02-28 2008-01-31 ブースト分類器を新たなサンプルに対して適応させる方法 Active JP5036580B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/679,940 US7840061B2 (en) 2007-02-28 2007-02-28 Method for adaptively boosting classifiers for object tracking
US11/679,940 2007-02-28

Publications (2)

Publication Number Publication Date
JP2008217768A JP2008217768A (ja) 2008-09-18
JP5036580B2 true JP5036580B2 (ja) 2012-09-26

Family

ID=39434364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008021011A Active JP5036580B2 (ja) 2007-02-28 2008-01-31 ブースト分類器を新たなサンプルに対して適応させる方法

Country Status (4)

Country Link
US (1) US7840061B2 (ja)
EP (1) EP1968013A3 (ja)
JP (1) JP5036580B2 (ja)
CN (1) CN101256629B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010529529A (ja) * 2007-06-01 2010-08-26 オムロン株式会社 特定被写体検出装置及びその学習装置と学習方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8086046B2 (en) * 2005-06-27 2011-12-27 Pioneer Corporation Image analysis device and image analysis method
CN101685501B (zh) 2008-09-22 2013-11-06 三星电子株式会社 利用联合检测器进行物体检测的方法
JP2011013732A (ja) * 2009-06-30 2011-01-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US8170332B2 (en) * 2009-10-07 2012-05-01 Seiko Epson Corporation Automatic red-eye object classification in digital images using a boosting-based framework
US8600108B2 (en) * 2010-01-25 2013-12-03 Hewlett-Packard Development Compant, L.P. Data processing system and method
CN101814147B (zh) * 2010-04-12 2012-04-25 中国科学院自动化研究所 一种实现场景图像的分类方法
US10224036B2 (en) * 2010-10-05 2019-03-05 Infraware, Inc. Automated identification of verbal records using boosted classifiers to improve a textual transcript
CN102054170B (zh) * 2011-01-19 2013-07-31 中国科学院自动化研究所 基于极小化上界误差的视觉跟踪方法
US9684957B2 (en) 2011-02-11 2017-06-20 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University Systems methods, and media for detecting an anatomical object in a medical device image using a multi-stage classifier
JP5719230B2 (ja) 2011-05-10 2015-05-13 キヤノン株式会社 物体認識装置、物体認識装置の制御方法、およびプログラム
US8948522B2 (en) 2011-08-04 2015-02-03 Seiko Epson Corporation Adaptive threshold for object detection
JP5848551B2 (ja) * 2011-08-26 2016-01-27 キヤノン株式会社 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
US9330336B2 (en) * 2011-09-16 2016-05-03 Arizona Board of Regents, a body corporate of the State of Arizona, acting for and on behalf of, Arizona State University Systems, methods, and media for on-line boosting of a classifier
WO2013116865A1 (en) * 2012-02-02 2013-08-08 Arizona Board Of Regents, For And On Behalf Of, Arizona State University Systems, methods, and media for updating a classifier
US9603554B2 (en) 2012-02-03 2017-03-28 The Arizona Board Of Regents Systems, methods, and media for monitoring the condition of a patient's heart
CN103294716B (zh) * 2012-02-29 2016-08-10 佳能株式会社 用于分类器的在线半监督学习方法和装置及处理设备
US9141196B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Robust and efficient learning object tracker
US9449381B2 (en) 2012-09-10 2016-09-20 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University Methods, systems, and media for generating and analyzing medical images having elongated structures
CN103310466B (zh) * 2013-06-28 2016-02-17 安科智慧城市技术(中国)有限公司 一种单目标跟踪方法及其实现装置
US9157855B2 (en) 2013-09-06 2015-10-13 Canon Kabushiki Kaisha Material classification
JP2017503548A (ja) * 2013-12-20 2017-02-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自動超音波ビームステアリング及びニードルアーチファクト抑制
US9514364B2 (en) 2014-05-29 2016-12-06 Qualcomm Incorporated Efficient forest sensing based eye tracking
US10157467B2 (en) 2015-08-07 2018-12-18 Arizona Board Of Regents On Behalf Of Arizona State University System and method for detecting central pulmonary embolism in CT pulmonary angiography images
CN106780544B (zh) * 2015-11-18 2019-11-22 深圳力维智联技术有限公司 图像前景提取的方法和装置
CN106327527B (zh) * 2016-08-11 2019-05-14 电子科技大学 基于Online Boosting的目标轮廓跟踪方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
US7024033B2 (en) * 2001-12-08 2006-04-04 Microsoft Corp. Method for boosting the performance of machine-learning classifiers
US7203669B2 (en) * 2003-03-17 2007-04-10 Intel Corporation Detector tree of boosted classifiers for real-time object detection and tracking
TW200539046A (en) * 2004-02-02 2005-12-01 Koninkl Philips Electronics Nv Continuous face recognition with online learning
US7606425B2 (en) * 2004-09-09 2009-10-20 Honeywell International Inc. Unsupervised learning of events in a video sequence
US7526101B2 (en) * 2005-01-24 2009-04-28 Mitsubishi Electric Research Laboratories, Inc. Tracking objects in videos with adaptive classifiers
US7668790B2 (en) * 2006-07-27 2010-02-23 The United States Of America As Represented By The Secretary Of The Navy System and method for fusing data from different information sources with shared-sampling distribution based boosting

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010529529A (ja) * 2007-06-01 2010-08-26 オムロン株式会社 特定被写体検出装置及びその学習装置と学習方法

Also Published As

Publication number Publication date
JP2008217768A (ja) 2008-09-18
US20080205750A1 (en) 2008-08-28
CN101256629B (zh) 2012-12-19
EP1968013A2 (en) 2008-09-10
US7840061B2 (en) 2010-11-23
CN101256629A (zh) 2008-09-03
EP1968013A3 (en) 2010-12-01
EP1968013A8 (en) 2008-11-05

Similar Documents

Publication Publication Date Title
McHugh et al. Foreground-adaptive background subtraction
Parks et al. Evaluation of background subtraction algorithms with post-processing
US9105093B2 (en) Method and apparatus for bi-layer segmentation
Wang et al. Automatic adaptation of a generic pedestrian detector to a specific traffic scene
Sheikh et al. Bayesian object detection in dynamic scenes
US7139409B2 (en) Real-time crowd density estimation from video
US20060285747A1 (en) Image segmentation
Zhu et al. Learning to recognize shadows in monochromatic natural images
Spampinato et al. Detecting, Tracking and Counting Fish in Low Quality Unconstrained Underwater Videos.
Bouwmans Recent advanced statistical background modeling for foreground detection-a systematic survey
KR20090006851A (ko) 통계적인 픽셀 모델링을 이용한 비디오 분할
US7224852B2 (en) Video segmentation using statistical pixel modeling
Stauffer et al. Adaptive background mixture models for real-time tracking
US20100290710A1 (en) System and method for motion detection in a surveillance video
St-Charles et al. Subsense: A universal change detection method with local adaptive sensitivity
EP1700269B1 (en) Detection of sky in digital color images
Wang et al. Interactive deep learning method for segmenting moving objects
US7526101B2 (en) Tracking objects in videos with adaptive classifiers
US8045783B2 (en) Method for moving cell detection from temporal image sequence model estimation
Pless et al. Evaluation of local models of dynamic backgrounds
Han et al. Density-based multifeature background subtraction with support vector machine
US7190809B2 (en) Enhanced background model employing object classification for improved background-foreground segmentation
TWI455040B (zh) 前景物件偵測方法與裝置及背景偵測方法與裝置
Migdal et al. Background subtraction using markov thresholds
Zivkovic Improved adaptive Gaussian mixture model for background subtraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120703

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250