JP2010532886A - 生存期間が異なる複数の観測モデルを融合する追跡方法及び追跡装置 - Google Patents
生存期間が異なる複数の観測モデルを融合する追跡方法及び追跡装置 Download PDFInfo
- Publication number
- JP2010532886A JP2010532886A JP2010511479A JP2010511479A JP2010532886A JP 2010532886 A JP2010532886 A JP 2010532886A JP 2010511479 A JP2010511479 A JP 2010511479A JP 2010511479 A JP2010511479 A JP 2010511479A JP 2010532886 A JP2010532886 A JP 2010532886A
- Authority
- JP
- Japan
- Prior art keywords
- specific subject
- observation model
- sample
- tracking
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
、異なる目標を区分することができない。
(a)動画像シーケンス中のフレーム画像中から特徴部を検出し、検出された特徴部の周囲でガウスランダムサンプリングを実施して、複数の特定被写体サンプルを含む初期サンプルセットを取得するステップと、
(b)入力された第tフレーム画像の前Dkフレーム画像を利用して、第k観測モデル
に対してオンライン学習またはオフライン学習を実施するステップ(tはフレーム画像の番号を示す自然数であり、kは観測モデル番号を示す自然数であり、Dkは第k観測モデルの生存期間を示す自然数である)と、
(c)第tフレーム画像について、前記オンライン学習またはオフライン訓練のm個の観測モデルを順に利用して、特定被写体サンプルのサンプル重みを更新するステップと、
(d)ステップ(c)において第m観測モデルにより最終的に更新された後のサンプル重みが所定の第一閾値を超えているか否かを判断し、最終更新後のサンプル重みが第一閾値を超えていると、特定被写体の現在フレームにおける大きさ及び位置として、特定被写体サンプルのサンプルセットの大きさ及び位置の重み付き平均を出力し、更新後のサンプル重みが第一閾値を超えていないと、当該選択候補目標を破棄するステップと、
(e)第t+1フレーム画像に対して、前記ステップ(b)から(d)を繰り返すステップと、が含まれる。
(f)前D1フレーム画像から正例サンプル及び反例サンプルを収集するステップと、
(g)収集された正例サンプル及び反例サンプルに基づき、第1観測モデル中に採用する各種パラメータを求めるステップと、が含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、z1は第1観測モデルが採用する観測量であり、wはFisher線形判別分類器の投影重みのベクトル量であり、f(x)は入力される5次元特徴ベクトル量であり、ηは分類閾値である。
(h)前D2フレーム画像中から正例サンプル及び反例サンプルを収集し、第1観測モデルを利用して収集したサンプルに対してフィルタリングを実施して、留保されたサンプルを訓練サンプルとするステップと、
(i)留保された反例サンプル中から、第2観測モデルの留保された反例サンプルに対する出力尤度が第二閾値よりも大きい反例サンプルを選択するステップと、
(j)選択された反例サンプル、及びすべての留保された正例サンプルに基づき、新たなFisher線形判別分類器を構築するとともに、構築された新たなFisher線形判別分類器を、弱分類器の数量が最大設定値を超えるか、または大多数の反例サンプルを排斥可能となるまで、元の弱分類器集合中に加えるステップと、
(k)Discrete AdaBoostアルゴリズムを利用して弱分類器集合中から弱分類器を選択して、強分類器を構成するステップと、
(l)弱分類器集合中から所定数フレーム内で採用されない弱分類器を削除するステップと、が含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、Qは選択する組の弱分類器の集合を示し、αqはQ内のいずれか1つの弱分類器qに対応する重みを示し、wqは弱分類器qのLDA投影ベクトル量を示し、fqは弱分類器qについて採用する特徴を示し、ηqは弱分類器qについての分類閾値である。
式中、z2は第2観測モデルの観測量である。
スティングアルゴリズムで学習された強分類器により構成される。
式中、z3は第3観測モデルの観測量であり、hは入力サンプルxが通過する最後の強分類器の層数であり、φhは当該強分類器に対応する反例サンプルの正例サンプルに対する先験確率の比であり、hの増大に伴い減少し、xが通過する分類器の層数が多いほど、それが属する正例の確率は大きくなることを示しており、cは通過する最後の強分類器出力の信頼度である。
当該特定被写体追跡装置には、
動画像シーケンス中の第一フレーム画像中から特徴部を検出し、検出された特徴部の周囲でガウスランダムサンプリングを実施して、複数の特定被写体サンプルを含む初期サンプルセットを取得する初期化部と、
入力された第tフレーム画像に対して、特定被写体の画像中における位置及び大きさを追跡検出する追跡検出部(tはフレーム画像の番号を示す自然数である)と、
追跡検出部の検出結果が追跡する特定被写体であるか否かを判定し、特定被写体である場合には、特定被写体の現在フレームにおける大きさ及び位置として、特定被写体サンプルのサンプルセットの大きさ及び位置の重み付き平均を出力し、特定被写体でない場合には、当該選択候補目標を破棄する判定出力部と、
次フレームの画像の追跡検出に用いるように、判定出力部の判定出力結果を記憶する記憶部と、が含まれ、
前記追跡検出部には、
入力された第tフレーム画像の前D1フレーム画像を利用して、その中で使用する第1観測モデルに対してオンライン学習を実施し、その後、第tフレーム画像中のN1個のサンプルに対して重みの更新を実施する第一追跡部(D1は第1観測モデルの生存期間を示す自然数であり、N1は自然数である)と、
入力された第tフレーム画像の前D2フレーム画像を利用して、その中で使用する第2観測モデルに対してオンライン学習を実施し、その後、第tフレーム画像中の第一追跡部により更新後のサンプル重みに基づき再度サンプリングされたN2個のサンプルに対して重みの更新を実施する第二追跡部(D2は第2観測モデルの生存期間を示す自然数であり、N2は自然数である)と、
オフライン訓練を施し、その後、第tフレーム画像中の第二追跡部により更新後のサンプル重みに基づき再度サンプリングされたN3個のサンプルに対して重みの更新を実施する第三追跡部(N3は自然数である)と、が含まれ、
前記判定出力部は、第三追跡部により最終的に更新された後のサンプル重みは所定の第一閾値を超えているか否かを判断し、最終更新後のサンプル重みが第一閾値を超えていると、特定被写体の現在フレームにおける大きさ及び位置として、特定被写体サンプルのサンプルセットの大きさ及び位置の重み付き平均を出力し、更新後のサンプル重みが第一閾
値を超えていないと、当該選択候補目標を破棄する。
前D1フレーム画像から正例サンプル及び反例サンプルを収集し、
収集された正例サンプル及び反例サンプルに基づき、第1観測モデル中に採用する各種パラメータを求める、ことが含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、z1は第1観測モデルが採用する観測量であり、wはFisher線形判別分類器の投影重みのベクトル量であり、f(x)は入力される5次元特徴ベクトル量であり、ηは分類閾値である。
前D2フレーム画像中から正例サンプル及び反例サンプルを収集し、第1観測モデルを利用して収集したサンプルに対してフィルタリングを実施して、留保されたサンプルを訓練サンプルとし、
留保された反例サンプル中から、第2観測モデルの留保された反例サンプルに対する出力尤度が第二閾値よりも大きい反例サンプルを選択し、
選択された反例サンプル、及びすべての留保された正例サンプルに基づき、新たなFi
sher線形判別分類器を構築するとともに、構築された新たなFisher線形判別分類器を、弱分類器の数量が最大設定値を超えるか、または大多数の反例サンプルを排斥可能となるまで、元の弱分類器集合中に加え、
Discrete AdaBoostアルゴリズムを利用して弱分類器集合中から弱分類器を選択して、強分類器を構成し、
弱分類器集合中から所定数フレーム内で採用されない弱分類器を削除する、ことが含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、Qは選択する組の弱分類器の集合を示し、αqはQ内のいずれか1つの弱分類器qに対応する重みを示し、wqは弱分類器qのLDA投影ベクトル量を示し、fqは弱分類器qについて採用する特徴を示し、ηqは弱分類器qについての分類閾値である。
式中、z2は第2観測モデルの観測量である。
式中、z3は第3観測モデルの観測量であり、hは入力サンプルxが通過する最後の強分類器の層数であり、φhは当該強分類器に対応する反例サンプルの正例サンプルに対する先験確率の比であり、hの増大に伴い減少し、xが通過する分類器の層数が多いほど、それが属する正例の確率は大きくなることを示しており、cは通過する最後の強分類器出力の信頼度である。
ンラインの分類器及びオフラインの分類器を結合することにより、アルゴリズムの安定性を向上させている。同一の画像空間内において複数の相補的な観測モデルを使用すると、一方において、観測モデルの区分能力を増強することができ、他方において、サンプリング画像により引き起こされる誤差を回避することもできる。そのため、本発明に基づく追跡方法及び追跡装置は、低フレームレート動画像中の追跡目標または急速に運動する物体に対して、動画像中のシーケンス情報を捕捉かつ利用することにより探索範囲を縮小し、更に検出アルゴリズムにより目標を正確に識別して、急速かつ正確な追跡を実現可能とする。
、類型及びその生存期間は上記例に限定されるものではなく、状況に応じて変更可能である点である。
Ok=(Lk,Fk,Sk,τk,on,τk,off,τk,test)
の規模に関連する。
も比較的大きくなる。
表1 各観測モデルの配置
観測モデルIに採用するのはFisher線形判別分類器(つまり、Linear Discriminant Analysis)である。その生存期間は最も短く(1フレーム)、訓練サンプルはすべて前1フレーム画像からである。訓練サンプルの分布が相対的に簡単であるため、5つのHaarライク特徴だけを使用して分類を実施し、速やかに非目標を排斥するとの目標を達成する。
傍領域から採取し、反例サンプルは目標の周囲で目標の大きさの2倍の領域中かつ目標から比較的遠い画像から採取する。観測モデルIにはオンラインで特徴を選択する過程はない。その理由は、一方において、特徴の選択は比較的時間を消費するからであり、他方において、訓練サンプルが比較的局限されており(前1フレームからのみ)、過度に適合することが回避されるからである。そのため、5つのHaarライク特徴はいずれもオフラインで選択されたものである(図3中のF1を参照)。選定標準は特徴のオフラインサンプルセット上における区分能力(Fisher Linear Discriminant)である。
更に強力な区分能力を獲得するため、観測モデルIIにはDiscrete AdaBoostアルゴリズムを採用し(文献[16])、弱分類器はFisher線形判別分類器である。観測モデルIに比べ、観測モデルIIの生存期間はより長く、訓練サンプルは直近5フレームからの入力データである。前記のサンプル収集標準に基づき、5フレーム内の正反例訓練サンプルはS2=(S2,pos,S2,neg)と設定する。
1.弱分類器選択候補セットQ0に新たな弱分類器を追加するステップと、
2.Discrete AdaBoostアルゴリズムにより弱分類器選択候補セットQ0中から弱分類器を選定して、重みを付けた後に強分類器を構成するステップと、
3.弱分類器選択候補セットQ0中から一定の時間内に選定されなかった弱分類器を削除するステップと、が含まれる。
同様に、sigmoid関数により観測モデルIIの出力値を平滑化することにより、下記式が得られる。
観測モデルIIIにはオフライン訓練の検出器を採用する。その構造は最も複雑で、含まれる情報も最も多く、追跡過程においてオンライン学習で得られる情報と互いに補完し、オンライン観測モデルを拘束し、目標の実際分布から乖離することを回避するために用いる。
式中、hは入力サンプルxが通過する最後の強分類器の層数であり、φhは当該強分類器に対応する反例サンプルの正例サンプルに対する先験確率の比である(訓練過程中に記録)。それはhの増大に伴い減少し、xが通過する分類器の層数が多いほど、それが属する正例(顔)の確率は大きくなることを示している。cは通過する最後の強分類器出力の信頼度である。
る。この方面は、オンライン訓練の時間的支出を減少させるためであり(Discrete AdaBoostの時間複雑度は約O(|S||Q0|2)であり、|S|は訓練サンプル数、|Q0|は選択候補弱分類器の個数である)、他方においても、相対的に少量のオンライン訓練サンプル上での過度の適合を回避するためである。更に弱分類器の個数を制限するとの前提の下で、観測モデルの区分能力を増強し、アルゴリズムの収束を加速するため、弱分類器の選択上において、観測モデルIIは10次元のFisher線形判別分類器を弱分類器として採用し、単一弱分類器の区分能力を向上させて、アルゴリズムの効率を高めており、観測モデルIIIはHaarライク特徴を採用して弱分類器を構成している。
本発明に基づくウォーターフォール型粒子フィルタについて詳細に記述する前に、先ず、標準粒子フィルタについて紹介し、併せて低フレームレートまたは急速運動状況下における不足点について分析する。
(1)予測:
;
(2)更新:
式中の積分項は重点サンプリング方式を採用して計算する。つまり、1つの試験分布中からランダム粒子を生成する必要がある。
標準粒子フィルタは
を直接用いて粒子の重みを更新することができる。しかし、これは計算量が多いばかりではなく、最終的には大量の粒子の重みが非常に小さくなり(0に接近)、サンプリング効率の低下を招く。以下においては、“有効サンプル数”(Effective Sample Size)(文献[19])に基づき対比実験を行う。
ここから、以下が導き出される。
この分布が追跡目標である。
第kラウンドにおいて、重点サンプリングによりπk(xt)分布をシミュレートする重み付き粒子集合を得る。πk−1(xt)を試験分布として使用する。この試験分布に対して、すでにk−1ラウンドからそれに符合する重み付き粒子集合、つまり、
が得られている。そのため、それからのサンプリングはこの粒子集合Pk−1,tをリサンプリングして
を得ることに相当する。そして
の重みは下記公式に基づき更新しなければならない。
はπk(xt)の近似であると認識される。以上のステップをm回繰り返すと
が得られる。
表2 標準粒子フィルタ、ウォーターフォール型検出器及びウォーターフォール型粒子フィルタの比較(τk,testはp(zt|xt)を計算する際の時間消費であり、NkまたはN´kは第kラウンドの粒子数または検出を通過したサンプル数である)
能であり、毎回の重点サンプリング中に小さなガウス型摂動を加えるだけでよい。
ESS(N)=N/(1+cv2(w))
式中、Nは実際に使用する粒子数であり、cv2(w)はサンプル重みが規範化される前に算出された分散係数である。有効サンプル数の意味は、前記N個の重み付きサンプルの描写力はESS(N)個の目標分布中からサンプリングされたサンプルに相当することを直感的に解釈可能である点である。それによれば、ESS(N)が大きければ大きいほど、サンプルセットの描写力が強くなることを示している。図5(b)から見ると、標準粒子フィルタのサンプル数を増大しても、そのサンプリング効率は増大していないが(特に追跡誤差が比較的大きいフレームでは、対応するESS(N)も比較的低い)、本発明者らのアルゴリズムは比較的高いサンプリング効率に達している。
表3 本発明のアルゴリズムとその他の方法の正確性の比較
ルを含む初期サンプルセットを取得する初期化部1610と、入力された第tフレーム画像に対して、検出目標の画像中における位置及び大きさを追跡検出する追跡検出部1620(tはフレーム画像の番号を示す自然数である)と、追跡検出部の検出結果が追跡する目標であるか否かを判定し、追跡する目標である場合には、目標の現在フレームにおける大きさ及び位置として、目標サンプルのサンプルセットの大きさ及び位置の重み付き平均を出力し、追跡する目標でない場合には、当該選択候補目標を破棄する判定出力部1630と、次フレームの画像の追跡検出に用いるように、判定出力部の判定出力結果を記憶する記憶部1640とが含まれる。
当該特定被写体追跡方法には、
(a)動画像シーケンス中のフレーム画像中から特徴部を検出し、検出された特徴部の周囲でガウスランダムサンプリングを実施して、複数の特定被写体サンプルを含む初期サンプルセットを取得するステップと、
(b)入力された第tフレーム画像の前Dkフレーム画像を利用して、第k観測モデルに対してオンライン学習またはオフライン学習を実施するステップ(tはフレーム画像の
番号を示す自然数であり、kは観測モデル番号を示す自然数であり、Dkは第k観測モデルの生存期間を示す自然数である)と、
(c)第tフレーム画像について、前記オンライン学習またはオフライン訓練のm個の観測モデルを順に利用して、特定被写体サンプルのサンプル重みを更新するステップと、
(d)ステップ(c)において第m観測モデルにより最終的に更新された後のサンプル重みが所定の第一閾値を超えているか否かを判断し、最終更新後のサンプル重みが第一閾値を超えていると、特定被写体の現在フレームにおける大きさ及び位置として、特定被写体サンプルのサンプルセットの大きさ及び位置の重み付き平均を出力し、更新後のサンプル重みが第一閾値を超えていないと、当該選択候補目標を破棄するステップと、
(e)第t+1フレーム画像に対して、前記ステップ(b)から(d)を繰り返すステップと、が含まれる。
(f)前D1フレーム画像から正例サンプル及び反例サンプルを収集するステップと、
(g)収集された正例サンプル及び反例サンプルに基づき、第1観測モデル中に採用する各種パラメータを求めるステップと、が含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、z1は第1観測モデルが採用する観測量であり、wはFisher線形判別分類器の投影重みのベクトル量であり、f(x)は入力される5次元特徴ベクトル量であり、ηは分類閾値である。
(h)前D2フレーム画像中から正例サンプル及び反例サンプルを収集し、第1観測モデルを利用して収集したサンプルに対してフィルタリングを実施して、留保されたサンプルを訓練サンプルとするステップと、
(i)留保された反例サンプル中から、第2観測モデルの留保された反例サンプルに対する出力尤度が第二閾値よりも大きい反例サンプルを選択するステップと、
(j)選択された反例サンプル、及びすべての留保された正例サンプルに基づき、新たなFisher線形判別分類器を構築するとともに、構築された新たなFisher線形判別分類器を、弱分類器の数量が最大設定値を超えるか、または大多数の反例サンプルを排斥可能となるまで、元の弱分類器集合中に加えるステップと、
(k)Discrete AdaBoostアルゴリズムを利用して弱分類器集合中から弱分類器を選択して、強分類器を構成するステップと、
(l)弱分類器集合中から所定数フレーム内で採用されない弱分類器を削除するステップと、が含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、Qは選択する組の弱分類器の集合を示し、αqはQ内のいずれか1つの弱分類器qに対応する重みを示し、wqは弱分類器qのLDA投影ベクトル量を示し、fqは弱分類器qについて採用する特徴を示し、ηqは弱分類器qについての分類閾値である。
式中、z2は第2観測モデルの観測量である。
スティングアルゴリズムで学習された強分類器により構成される。
式中、z3は第3観測モデルの観測量であり、hは入力サンプルxが通過する最後の強分類器の層数であり、φhは当該強分類器に対応する反例サンプルの正例サンプルに対する先験確率の比であり、hの増大に伴い減少し、xが通過する分類器の層数が多いほど、それが属する正例の確率は大きくなることを示しており、cは通過する最後の強分類器出力の信頼度である。
当該特定被写体追跡装置には、
動画像シーケンス中の第一フレーム画像中から特徴部を検出し、検出された特徴部の周囲でガウスランダムサンプリングを実施して、複数の特定被写体サンプルを含む初期サンプルセットを取得する初期化部と、
入力された第tフレーム画像に対して、特定被写体の画像中における位置及び大きさを追跡検出する追跡検出部(tはフレーム画像の番号を示す自然数である)と、
追跡検出部の検出結果が追跡する特定被写体であるか否かを判定し、特定被写体である場合には、特定被写体の現在フレームにおける大きさ及び位置として、特定被写体サンプルのサンプルセットの大きさ及び位置の重み付き平均を出力し、特定被写体でない場合には、当該選択候補目標を破棄する判定出力部と、
次フレームの画像の追跡検出に用いるように、判定出力部の判定出力結果を記憶する記憶部と、が含まれ、
前記追跡検出部には、
入力された第tフレーム画像の前D1フレーム画像を利用して、その中で使用する第1観測モデルに対してオンライン学習を実施し、その後、第tフレーム画像中のN1個のサンプルに対して重みの更新を実施する第一追跡部(D1は第1観測モデルの生存期間を示す自然数であり、N1は自然数である)と、
入力された第tフレーム画像の前D2フレーム画像を利用して、その中で使用する第2観測モデルに対してオンライン学習を実施し、その後、第tフレーム画像中の第一追跡部により更新後のサンプル重みに基づき再度サンプリングされたN2個のサンプルに対して重みの更新を実施する第二追跡部(D2は第2観測モデルの生存期間を示す自然数であり、N2は自然数である)と、
オフライン訓練を施し、その後、第tフレーム画像中の第二追跡部により更新後のサンプル重みに基づき再度サンプリングされたN3個のサンプルに対して重みの更新を実施する第三追跡部(N3は自然数である)と、が含まれ、
前記判定出力部は、第三追跡部により最終的に更新された後のサンプル重みは所定の第一閾値を超えているか否かを判断し、最終更新後のサンプル重みが第一閾値を超えていると、特定被写体の現在フレームにおける大きさ及び位置として、特定被写体サンプルのサンプルセットの大きさ及び位置の重み付き平均を出力し、更新後のサンプル重みが第一閾値を超えていないと、当該選択候補目標を破棄する。
前D1フレーム画像から正例サンプル及び反例サンプルを収集し、
収集された正例サンプル及び反例サンプルに基づき、第1観測モデル中に採用する各種パラメータを求める、ことが含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、z1は第1観測モデルが採用する観測量であり、wはFisher線形判別分類器の投影重みのベクトル量であり、f(x)は入力される5次元特徴ベクトル量であり、ηは分類閾値である。
前D2フレーム画像中から正例サンプル及び反例サンプルを収集し、第一追跡部を利用して収集したサンプルに対してフィルタリングを実施して、留保されたサンプルを訓練サンプルとし、
留保された反例サンプル中から、第2観測モデルの留保された反例サンプルに対する出力尤度が第二閾値よりも大きい反例サンプルを選択し、
選択された反例サンプル、及びすべての留保された正例サンプルに基づき、新たなFisher線形判別分類器を構築するとともに、構築された新たなFisher線形判別分
類器を、弱分類器の数量が最大設定値を超えるか、または大多数の反例サンプルを排斥可能となるまで、元の弱分類器集合中に加え、
Discrete AdaBoostアルゴリズムを利用して弱分類器集合中から弱分類器を選択して、強分類器を構成し、
弱分類器集合中から所定数フレーム内で採用されない弱分類器を削除する、ことが含まれる。
式中、xは追跡する特定被写体の状態を示す変数であり、Qは選択する組の弱分類器の集合を示し、αqはQ内のいずれか1つの弱分類器qに対応する重みを示し、wqは弱分類器qのLDA投影ベクトル量を示し、fqは弱分類器qについて採用する特徴を示し、ηqは弱分類器qについての分類閾値である。
式中、z2は第2観測モデルの観測量である。
式中、z3は第3観測モデルの観測量であり、hは入力サンプルxが通過する最後の強分類器の層数であり、φhは当該強分類器に対応する反例サンプルの正例サンプルに対する先験確率の比であり、hの増大に伴い減少し、xが通過する分類器の層数が多いほど、それが属する正例の確率は大きくなることを示しており、cは通過する最後の強分類器出力の信頼度である。
[1] M. Isard and A. Blake. Condensation - conditional density propagation for visual tracking. International Journal of Computer Vision, 28 (1):5-28, 1998.
[2] D. Comaniciu, V. Ramesh, and P. Meer. Real-time tracking of non-rigid objects using meanshift. In IEEE Conference on Computer Vision and Pattern Recognition, 2000.
[3] C. Tomasi and T. Kanade, Detection and tracking of point features. Technical Report CMU-CS-91-132, Carnegie Mellon University, 1991.
[4] K. Okuma, A Taleghani, D. Freitas, J. J. Little, and D. G. Lowe. A Boosted particle filter; Multitarget detection and tracking. In European Conference on Computer Vision, 2004.
[5] C. Liu, H. Y. Shum, and C. Zhang. Hierarchical shape modeling for automatic
face localization. In European Conference on Computer Vision, 2002.
[6] F. Porikli and O. Tuzel, Object tracking in low-frame-rate video. SPIE Image and Video Communications and Processing, 5685:72-79, 2005.
[7] M. Han, A. Sethi, W. Hua, and Y. Gong. A detection-based multiple object tracking method. In IEEE International Conference on Image Processing, 2004.
[8] R. Kaucic, A. G. A. Perera, G. Brooksby, J. Kaufholed, and A. Hoogs. A unified framework for tracking through occlusions and across sensor gaps. In IEEE Conference on Computer Vision and Pattern Recognition, 2005.
[9] G. Hua and Y. Wu. Multi-scale visual tracking by sequential belief propagation. In IEEE Conference on Computer Vision and Pattern Recognition, 2004.
[10] S. Birchfield. Source code of the klt feature tracker.
http://www.ces.clemson.edu/~stb/klt/, 2006.
[11] J. Sullivan, A. Blake, M. Isard, and J. MacCormick. Object localization by
bayesian correlation. In International Conference on Computer Vision, 1999.
[12] S. Acvidan, Ensamble tracking. IEEE Transactions on Pattern Analysis and Machine Intelligence, 29(2):261-271, 2007.
[13] P. Viola and M. Jones. Robust real-time object detection. In IEEE Workshop on Statistical and Theories of Computer Vision, 2001.
[14] J. Wang, X. Chen, and W. Gao. Online selecting discriminative tracking features using particle filter. In IEEE Conference on Computer Vision and Pattern Recognition, 2005.
[15] B. Wu, H. Ai, C. Huang, and S. Lao. Fast rotation invariant multi-view face detection based on real adaboost. In IEEE International Conference on Automatic Face and Gesture Recognition, 2004.
[16] Y. Freund and R. E. Schapire. Experiments with a new boosting algorithm. In International Conference on Machine Learning, 1996.
[17] Yuan Li, Haizhou Ai, Chang Huang, Shihong Lao. Robust Head Tracking Based on a Multi-State Particle Filter, IEEE International Conference on Automatic Face and Gesture Recognition (FGR06), Southampton, UK, 2006.
[18] Richard O. Duda, Peter E. Hart, DavieG. Stork. Pattern Classification, Second Edition. John Wiley & Sons, 2001 (ISBN:0-471-05669-3).
[19] J. S. Liu. Monte Carlo Strategies in Scientific Computing. Springer, New York, 1994 (ISBN: 0-387-95230-6).
[20] C. Huang, H. Ai, Y. Li, and S. Lao. Vector boosting for rotation invariant
multi-view face detection. In International Conference on Computer Vision, 2005.
[21] C. Yan, R. Duraiswami, and L. Davis. Fast multiple object tracking via a hierarchical particle filter. In International Conference on Computer Vision 2005.
[22] Inter opencv library.
http://www.sourceforge.net/projects/opencvlibrary.
Claims (36)
- m個の観測モデルを利用して、動画像シーケンスのフレーム画像中の特定被写体に対して追跡検出を実施する特定被写体追跡方法であって、
当該特定被写体追跡方法は、
(a)動画像シーケンス中のフレーム画像中から特徴部を検出するステップと、
(b)入力された第t−1フレーム画像から起算して前Dkフレーム画像のうちの少なくとも1つのフレーム画像を利用して、第k観測モデルに対してオンライン学習またはオフライン訓練を実施するステップ(tはフレーム画像の番号を示す自然数であり、kは観測モデル番号を示す自然数であり、Dkは第k観測モデルの生存期間を示す自然数である)と、
(c)第tフレーム画像について、前記オンライン学習またはオフライン訓練のm個の観測モデルを順に利用して、特定被写体サンプルのサンプル重みを更新するステップと、
(d)ステップ(c)において第m観測モデルにより最終的に更新された後のサンプル重みが所定の第一閾値を超えているか否かを判断し、最終更新後のサンプル重みが第一閾値を超えていると、特定被写体サンプルのサンプルセットの大きさ及び位置に基づき算出された特定被写体の現在フレームにおける大きさ及び位置を出力するステップと、
(e)第t+1フレーム画像に対して、前記ステップ(b)から(d)を繰り返すステップと、を含む、特定被写体追跡方法。 - 第k観測モデルの生存期間Dkは、kの増大に伴い増大する、請求項1記載の特定被写体追跡方法。
- 第k観測モデルに対して設定されたサンプル数はNk個であり、Nkは自然数であり、kの増大に伴い増大する、請求項2記載の特定被写体追跡方法。
- ステップ(b)において、前m−1の観測モデルに対してオンライン学習を実施し、第m観測モデルに対してオフライン訓練を実施する、請求項3記載の特定被写体追跡方法。
- 3つの観測モデルを利用して、前2つの観測モデルに対してオンライン学習を実施し、第3観測モデルに対してオフライン訓練を実施する、請求項4記載の特定被写体追跡方法。
- 第1観測モデルに対して実施するオンライン学習には、
(f)前D1フレーム画像から正例サンプル及び反例サンプルを収集するステップと、
(g)収集された正例サンプル及び反例サンプルに基づき、第1観測モデル中に採用する各種パラメータを求めるステップと、が含まれる、請求項5記載の特定被写体追跡方法。 - 前記第1観測モデルは、Fisher線形判別分類器である、請求項6記載の特定被写体追跡方法。
- 前記第1観測モデルの生存期間D1は、1フレーム画像である、請求項7記載の特定被写体追跡方法。
- 前記第1観測モデルには、オフラインで選択された5つのHaarライク特徴を採用する、請求項8記載の特定被写体追跡方法。
- 前記正例サンプルは、追跡する特定被写体の近傍領域から選択し、前記反例サンプルは、追跡する特定被写体の周囲で、大きさが当該特定被写体の2倍の領域において、当該特
定被写体との距離が比較的遠い画像から選択する、請求項9記載の特定被写体追跡方法。 - Sigmoid関数により平滑化された後の第1観測モデルの出力は、以下の通りである、請求項10記載の特定被写体追跡方法。
式中、xは追跡する特定被写体の状態を示す変数であり、z1は第1観測モデルが採用する観測量であり、wはFisher線形判別分類器の投影重みのベクトル量であり、f(x)は入力される5次元特徴ベクトル量であり、ηは分類閾値である。 - 第2観測モデルに対して実施するオンライン学習には、
(h)前D2フレーム画像中から正例サンプル及び反例サンプルを収集し、第1観測モデルを利用して収集したサンプルに対してフィルタリングを実施して、留保されたサンプルを訓練サンプルとするステップと、
(i)留保された反例サンプル中から、第2観測モデルの留保された反例サンプルに対する出力尤度が第二閾値よりも大きい反例サンプルを選択するステップと、
(j)選択された反例サンプル、及びすべての留保された正例サンプルに基づき、新たなFisher線形判別分類器を構築するとともに、構築された新たなFisher線形判別分類器を、弱分類器の数量が最大設定値を超えるか、または大多数の反例サンプルを排斥可能となるまで、元の弱分類器集合中に加えるステップと、
(k)Discrete AdaBoostアルゴリズムを利用して弱分類器集合中から弱分類器を選択して、強分類器を構成するステップと、
(l)弱分類器集合中から所定数フレーム内で採用されない弱分類器を削除するステップと、が含まれる、請求項5記載の特定被写体追跡方法。 - 前記第2観測モデルの生存期間D2は、5フレーム画像である、請求項12記載の特定被写体追跡方法。
- 前記強分類器の出力は、以下の通りである、請求項3記載の特定被写体追跡方法。
式中、xは追跡する特定被写体の状態を示す変数であり、Qは選択する組の弱分類器の集合を示し、αqはQ内のいずれか1つの弱分類器qに対応する重みを示し、wqは弱分類器qのLDA投影ベクトル量を示し、fqは弱分類器qについて採用する特徴を示し、ηqは弱分類器qについての分類閾値である。 - Sigmoid関数により平滑化された後の第2観測モデルの出力は、以下の通りである、請求項14記載の特定被写体追跡方法。
式中、z2は第2観測モデルの観測量である。 - 第3観測モデルは、複数のベクトルブースティングアルゴリズムで学習された強分類器により構成される、請求項5記載の特定被写体追跡方法。
- 第3観測モデルは、ツリー状の多視角顔検出器である、請求項16記載の特定被写体追跡方法。
- 第3観測モデルの出力は、以下の通りである、請求項17記載の特定被写体追跡方法。
式中、z3は第3観測モデルの観測量であり、hは入力サンプルxが通過する最後の強分類器の層数であり、φhは当該強分類器に対応する反例サンプルの正例サンプルに対する先験確率の比であり、hの増大に伴い減少し、xが通過する分類器の層数が多いほど、それが属する正例の確率は大きくなることを示しており、cは通過する最後の強分類器出力の信頼度である。 - 前記特定被写体の現在フレームにおける大きさ及び位置は、特定被写体サンプルのサンプルセットの大きさ及び位置の重み付き平均である、請求項1記載の特定被写体追跡方法。
- 3つの観測モデルを利用して、動画像シーケンスのフレーム画像中の特定被写体に対して追跡検出を実施する特定被写体追跡装置であって、
当該特定被写体追跡装置は、
動画像シーケンス中のフレーム画像中から特徴部を検出する初期化部と、
入力された第tフレーム画像に対して、特定被写体の画像中における位置及び大きさを追跡検出する追跡検出部(tはフレーム画像の番号を示す自然数である)と、
追跡検出部の検出結果が追跡する特定被写体であるか否かを判定し、特定被写体である場合には、特定被写体サンプルのサンプルセットの大きさ及び位置に基づき算出された特定被写体の現在フレームにおける大きさ及び位置を出力し、特定被写体でない場合には、当該選択候補目標を破棄する判定出力部と、
次フレームの画像の追跡検出に用いるように、判定出力部の判定出力結果を記憶する記憶部と、を含み、
前記追跡検出部は、
入力された第t−1フレーム画像から起算して前D1フレーム画像のうちの少なくとも1つのフレーム画像を利用して、その中で使用する第1観測モデルに対してオンライン学習を実施し、その後、第tフレーム画像中のN1個のサンプルに対して重みの更新を実施する第一追跡部(D1は第1観測モデルの生存期間を示す自然数であり、N1は自然数である)と、
入力された第t−1フレーム画像から起算して前D2フレーム画像のうちの少なくとも1つのフレーム画像を利用して、その中で使用する第2観測モデルに対してオンライン学習を実施し、その後、第tフレーム画像中の第一追跡部により更新後のサンプル重みに基づき再度サンプリングされたN2個のサンプルに対して重みの更新を実施する第二追跡部(D2は第2観測モデルの生存期間を示す自然数であり、N2は自然数である)と、
オフライン訓練を施し、その後、第tフレーム画像中の第二追跡部により更新後のサンプル重みに基づき再度サンプリングされたN3個のサンプルに対して重みの更新を実施する第三追跡部(N3は自然数である)と、を含み、
前記判定出力部は、第三追跡部により最終的に更新された後のサンプル重みは所定の第一閾値を超えているか否かを判断し、最終更新後のサンプル重みが第一閾値を超えていると、特定被写体サンプルのサンプルセットの大きさ及び位置に基づき算出された特定被写体の現在フレームにおける大きさ及び位置を出力し、更新後のサンプル重みが第一閾値を超えていないと、当該選択候補目標を破棄する、特定被写体追跡装置。 - 第1観測モデルの生存期間D1は、第2観測モデルの生存期間D2よりも小さい、請求項20記載の特定被写体追跡装置。
- 第1観測モデルの生存期間D1は、1フレーム画像である、請求項21記載の特定被写体追跡装置。
- 第2観測モデルの生存期間D2は、5フレーム画像である、請求項22記載の特定被写体追跡装置。
- 第一追跡部についてのサンプル数N1>第二追跡部についてのサンプル数N2>第三追跡部についてのサンプル数N3である、請求項23記載の特定被写体追跡装置。
- 第1観測モデルに対して実施するオンライン学習には、
前D1フレーム画像から正例サンプル及び反例サンプルを収集し、
収集された正例サンプル及び反例サンプルに基づき、第1観測モデル中に採用する各種パラメータを求める、ことが含まれる、請求項24記載の特定被写体追跡装置。 - 前記第1観測モデルは、Fisher線形判別分類器である、請求項25記載の特定被写体追跡装置。
- 前記第1観測モデルには、オフラインで選択された5つのHaarライク特徴を採用する、請求項26記載の特定被写体追跡装置。
- 前記正例サンプルは、追跡する特定被写体の近傍領域から選択し、前記反例サンプルは、追跡する特定被写体の周囲で、大きさが当該特定被写体の2倍の領域において、当該特定被写体との距離が比較的遠い画像から選択する、請求項27記載の特定被写体追跡装置。
- Sigmoid関数により平滑化された後の第1観測モデルの出力は、以下の通りである、請求項28記載の特定被写体追跡装置。
式中、xは追跡する特定被写体の状態を示す変数であり、z1は第1観測モデルが採用する観測量であり、wはFisher線形判別分類器の投影重みのベクトル量であり、f(x)は入力される5次元特徴ベクトル量であり、ηは分類閾値である。 - 第2観測モデルに対して実施するオンライン学習には、
前D2フレーム画像中から正例サンプル及び反例サンプルを収集し、第1追跡部を利用して収集したサンプルに対してフィルタリングを実施して、留保されたサンプルを訓練サンプルとし、
留保された反例サンプル中から、第2観測モデルの留保された反例サンプルに対する出
力尤度が第二閾値よりも大きい反例サンプルを選択し、
選択された反例サンプル、及びすべての留保された正例サンプルに基づき、新たなFisher線形判別分類器を構築するとともに、構築された新たなFisher線形判別分類器を、弱分類器の数量が最大設定値を超えるか、または大多数の反例サンプルを排斥可能となるまで、元の弱分類器集合中に加え、
Discrete AdaBoostアルゴリズムを利用して弱分類器集合中から弱分類器を選択して、強分類器を構成し、
弱分類器集合中から所定数フレーム内で採用されない弱分類器を削除する、ことが含まれる、請求項20記載の特定被写体追跡装置。 - 前記強分類器の出力は、以下の通りである、請求項30記載の特定被写体追跡装置。
式中、xは追跡する特定被写体の状態を示す変数であり、Qは選択する組の弱分類器の集合を示し、αqはQ内のいずれか1つの弱分類器qに対応する重みを示し、wqは弱分類器qのLDA投影ベクトル量を示し、fqは弱分類器qについて採用する特徴を示し、ηqは弱分類器qについての分類閾値である。 - Sigmoid関数により平滑化された後の第2観測モデルの出力は、以下の通りである、請求項31記載の特定被写体追跡装置。
式中、z2は第2観測モデルの観測量である。 - 第3観測モデルは、複数のベクトルブースティングアルゴリズムで学習された強分類器により構成される、請求項20記載の特定被写体追跡装置。
- 第3観測モデルは、ツリー状の多視角顔検出器である、請求項33記載の特定被写体追跡装置。
- 第3観測モデルの出力は、以下の通りである、請求項34記載の特定被写体追跡装置。
式中、z3は第3観測モデルの観測量であり、hは入力サンプルxが通過する最後の強分類器の層数であり、φhは当該強分類器に対応する反例サンプルの正例サンプルに対する先験確率の比であり、hの増大に伴い減少し、xが通過する分類器の層数が多いほど、それが属する正例の確率は大きくなることを示しており、cは通過する最後の強分類器出力の信頼度である。 - 前記特定被写体の現在フレームにおける大きさ及び位置は、特定被写体サンプルのサン
プルセットの大きさ及び位置の重み付き平均である、請求項20記載の特定被写体追跡装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710109159.7 | 2007-06-14 | ||
CN2007101091597A CN101325691B (zh) | 2007-06-14 | 2007-06-14 | 融合不同生存期的多个观测模型的跟踪方法和跟踪装置 |
PCT/CN2008/071299 WO2008151577A1 (en) | 2007-06-14 | 2008-06-13 | Tracking method and device adopting a series of observation models with different lifespans |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010532886A true JP2010532886A (ja) | 2010-10-14 |
JP5052670B2 JP5052670B2 (ja) | 2012-10-17 |
Family
ID=40129265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010511479A Expired - Fee Related JP5052670B2 (ja) | 2007-06-14 | 2008-06-13 | 生存期間が異なる複数の観測モデルを融合する追跡方法及び追跡装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8548195B2 (ja) |
EP (1) | EP2164041B1 (ja) |
JP (1) | JP5052670B2 (ja) |
CN (1) | CN101325691B (ja) |
WO (1) | WO2008151577A1 (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101315670B (zh) * | 2007-06-01 | 2010-08-11 | 清华大学 | 特定被摄体检测装置及其学习装置和学习方法 |
EP2036045A1 (en) * | 2007-07-11 | 2009-03-18 | Cairos technologies AG | Video tracking method and appartus arrangement for performing the method |
WO2010109644A1 (ja) * | 2009-03-27 | 2010-09-30 | グローリー株式会社 | 被写体識別方法、被写体識別プログラムおよび被写体識別装置 |
CN101923717B (zh) * | 2009-06-10 | 2012-09-05 | 新奥特(北京)视频技术有限公司 | 一种对快速运动目标的特征点准确跟踪的方法 |
CN101923719B (zh) * | 2009-06-12 | 2013-03-06 | 新奥特(北京)视频技术有限公司 | 一种基于粒子滤波和光流矢量的视频目标跟踪方法 |
CN101968884A (zh) * | 2009-07-28 | 2011-02-09 | 索尼株式会社 | 检测视频图像中的目标的方法和装置 |
WO2011088624A1 (en) * | 2010-01-25 | 2011-07-28 | Hewlett-Packard Development Company,L.P. | Data processing system and method |
AU2010238543B2 (en) * | 2010-10-29 | 2013-10-31 | Canon Kabushiki Kaisha | Method for video object detection |
US8448056B2 (en) * | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
JP2012203613A (ja) * | 2011-03-25 | 2012-10-22 | Sony Corp | 画像処理装置および方法、記録媒体並びにプログラム |
US9053391B2 (en) | 2011-04-12 | 2015-06-09 | Sharp Laboratories Of America, Inc. | Supervised and semi-supervised online boosting algorithm in machine learning framework |
US9014486B2 (en) * | 2011-11-21 | 2015-04-21 | Siemens Aktiengesellschaft | Systems and methods for tracking with discrete texture traces |
US9450671B2 (en) * | 2012-03-20 | 2016-09-20 | Industrial Technology Research Institute | Transmitting and receiving apparatus and method for light communication, and the light communication system thereof |
CN102799900B (zh) * | 2012-07-04 | 2014-08-06 | 西南交通大学 | 一种基于检测中支持在线聚类学习的对象跟踪方法 |
US9020866B1 (en) * | 2012-08-28 | 2015-04-28 | A9.Com, Inc. | Combined online and offline ranking |
CN103489001B (zh) * | 2013-09-25 | 2017-01-11 | 杭州智诺科技股份有限公司 | 图像目标追踪方法和装置 |
US9536177B2 (en) * | 2013-12-01 | 2017-01-03 | University Of Florida Research Foundation, Inc. | Distributive hierarchical model for object recognition in video |
WO2015099704A1 (en) * | 2013-12-24 | 2015-07-02 | Pelco, Inc. | Method and apparatus for intelligent video pruning |
CN104463912A (zh) * | 2014-12-16 | 2015-03-25 | 武汉大学 | 一种基于簇相似的多尺度目标跟踪方法 |
US10440350B2 (en) * | 2015-03-03 | 2019-10-08 | Ditto Technologies, Inc. | Constructing a user's face model using particle filters |
US10618673B2 (en) * | 2016-04-15 | 2020-04-14 | Massachusetts Institute Of Technology | Systems and methods for dynamic planning and operation of autonomous systems using image observation and information theory |
CN105957105B (zh) * | 2016-04-22 | 2018-10-02 | 清华大学 | 基于行为学习的多目标跟踪方法及系统 |
CN105930808A (zh) * | 2016-04-26 | 2016-09-07 | 南京信息工程大学 | 一种基于vector boosting模板更新的运动目标跟踪方法 |
CN106846355B (zh) * | 2016-12-16 | 2019-12-20 | 深圳大学 | 基于提升直觉模糊树的目标跟踪方法及装置 |
CN106780547B (zh) * | 2016-12-24 | 2019-06-18 | 天津大学 | 基于运动能量模型针对监控视频速度异常目标的检测方法 |
CN107590821B (zh) * | 2017-09-25 | 2022-03-04 | 武汉大学 | 一种基于轨迹优化的目标跟踪方法及系统 |
CN109859234B (zh) * | 2017-11-29 | 2023-03-24 | 深圳Tcl新技术有限公司 | 一种视频人体轨迹跟踪方法、装置及存储介质 |
CN108629299B (zh) * | 2018-04-24 | 2021-11-16 | 武汉幻视智能科技有限公司 | 一种结合人脸匹配的长时间多目标跟踪方法及系统 |
CN108710834B (zh) * | 2018-04-28 | 2022-01-14 | 哈尔滨工业大学深圳研究生院 | 滤波区域的相关滤波目标跟踪方法 |
CN108629797A (zh) * | 2018-04-28 | 2018-10-09 | 四川大学 | 一种基于粒子滤波的视觉目标跟踪方法 |
CN109360227A (zh) * | 2018-10-25 | 2019-02-19 | 武汉拓睿传奇科技有限公司 | 一种基于深度学习的人工智能目标跟踪方法 |
CN109544603B (zh) * | 2018-11-28 | 2021-07-23 | 上饶师范学院 | 基于深度迁移学习的目标跟踪方法 |
CN109903281B (zh) * | 2019-02-28 | 2021-07-27 | 中科创达软件股份有限公司 | 一种基于多尺度的目标检测方法及装置 |
CN109919982B (zh) * | 2019-03-12 | 2022-05-20 | 哈尔滨工程大学 | 一种基于粒子滤波的多尺度目标跟踪改进方法 |
CN110532883B (zh) * | 2019-07-30 | 2023-09-01 | 平安科技(深圳)有限公司 | 应用离线跟踪算法对在线跟踪算法进行改进 |
CN110675424A (zh) * | 2019-09-29 | 2020-01-10 | 中科智感科技(湖南)有限公司 | 一种图像中目标物的跟踪方法、系统及相关装置 |
CN111291667A (zh) * | 2020-01-22 | 2020-06-16 | 上海交通大学 | 细胞视野图的异常检测方法及存储介质 |
CN111292358A (zh) * | 2020-03-10 | 2020-06-16 | 南京理工大学 | 基于判别式尺度空间跟踪算法的相关滤波自适应方法 |
CN111832551A (zh) * | 2020-07-15 | 2020-10-27 | 网易有道信息技术(北京)有限公司 | 文本图像处理方法、装置、电子扫描设备和存储介质 |
CN112528843A (zh) * | 2020-12-07 | 2021-03-19 | 湖南警察学院 | 一种融合面部特征的机动车驾驶人疲劳检测方法 |
CN112784745B (zh) * | 2021-01-22 | 2023-10-10 | 中山大学 | 基于置信度自适应和差分增强的视频显著物体检测方法 |
CN114625003B (zh) * | 2022-03-09 | 2023-09-22 | 西南交通大学 | 一种基于多质点模型的高速列车分布式轨迹跟踪控制方法 |
CN115994305B (zh) * | 2022-12-06 | 2024-04-26 | 中国电力科学研究院有限公司 | 一种确定继电保护设备运行状态的方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262331A (ja) * | 2007-04-11 | 2008-10-30 | Toshiba Corp | オブジェクト追跡装置およびオブジェクト追跡方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5805733A (en) * | 1994-12-12 | 1998-09-08 | Apple Computer, Inc. | Method and system for detecting scenes and summarizing video sequences |
US6591146B1 (en) * | 1999-09-16 | 2003-07-08 | Hewlett-Packard Development Company L.C. | Method for learning switching linear dynamic system models from data |
US6590999B1 (en) * | 2000-02-14 | 2003-07-08 | Siemens Corporate Research, Inc. | Real-time tracking of non-rigid objects using mean shift |
CA2400442A1 (en) * | 2000-02-25 | 2001-08-30 | Yet Mui | Method for enterprise workforce planning |
US7130446B2 (en) * | 2001-12-03 | 2006-10-31 | Microsoft Corporation | Automatic detection and tracking of multiple individuals using multiple cues |
EP1704509A4 (en) | 2003-11-13 | 2010-08-25 | Honda Motor Co Ltd | ADAPTIVE PROBABILISTIC VISUAL TRACKING WITH INCREMENTAL SUB-ROOM UPDATE |
US7418113B2 (en) * | 2005-04-01 | 2008-08-26 | Porikli Fatih M | Tracking objects in low frame rate videos |
US8234129B2 (en) * | 2005-10-18 | 2012-07-31 | Wellstat Vaccines, Llc | Systems and methods for obtaining, storing, processing and utilizing immunologic and other information of individuals and populations |
US8265349B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
CN100375108C (zh) * | 2006-03-02 | 2008-03-12 | 复旦大学 | 一种人脸特征点自动定位方法 |
JP4208898B2 (ja) * | 2006-06-09 | 2009-01-14 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
US8229164B2 (en) * | 2006-07-10 | 2012-07-24 | Synthesis Corporation | Pedestrian tracking method and pedestrian tracking device |
CN100426317C (zh) * | 2006-09-27 | 2008-10-15 | 北京中星微电子有限公司 | 多姿态人脸检测与追踪系统及方法 |
US7606411B2 (en) * | 2006-10-05 | 2009-10-20 | The United States Of America As Represented By The Secretary Of The Navy | Robotic gesture recognition system |
-
2007
- 2007-06-14 CN CN2007101091597A patent/CN101325691B/zh not_active Expired - Fee Related
-
2008
- 2008-06-13 JP JP2010511479A patent/JP5052670B2/ja not_active Expired - Fee Related
- 2008-06-13 EP EP08757710.2A patent/EP2164041B1/en not_active Not-in-force
- 2008-06-13 US US12/664,588 patent/US8548195B2/en not_active Expired - Fee Related
- 2008-06-13 WO PCT/CN2008/071299 patent/WO2008151577A1/zh active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262331A (ja) * | 2007-04-11 | 2008-10-30 | Toshiba Corp | オブジェクト追跡装置およびオブジェクト追跡方法 |
Also Published As
Publication number | Publication date |
---|---|
US8548195B2 (en) | 2013-10-01 |
US20100195870A1 (en) | 2010-08-05 |
EP2164041A4 (en) | 2011-07-20 |
WO2008151577A1 (en) | 2008-12-18 |
EP2164041B1 (en) | 2015-04-15 |
JP5052670B2 (ja) | 2012-10-17 |
CN101325691B (zh) | 2010-08-18 |
EP2164041A1 (en) | 2010-03-17 |
CN101325691A (zh) | 2008-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5052670B2 (ja) | 生存期間が異なる複数の観測モデルを融合する追跡方法及び追跡装置 | |
Fang et al. | Recurrent autoregressive networks for online multi-object tracking | |
Babaee et al. | A dual cnn–rnn for multiple people tracking | |
Lu et al. | Tracking and recognizing actions of multiple hockey players using the boosted particle filter | |
Li et al. | Tracking in low frame rate video: A cascade particle filter with discriminative observers of different life spans | |
Williams et al. | Sparse bayesian learning for efficient visual tracking | |
Jalal et al. | The state-of-the-art in visual object tracking | |
Davis et al. | Minimal-latency human action recognition using reliable-inference | |
Soleimanitaleb et al. | Single object tracking: A survey of methods, datasets, and evaluation metrics | |
Narayan et al. | Person re-identification for improved multi-person multi-camera tracking by continuous entity association | |
Supreeth et al. | Moving object detection and tracking using deep learning neural network and correlation filter | |
Deotale et al. | HARTIV: Human Activity Recognition Using Temporal Information in Videos. | |
Sun et al. | Visual tracking via joint discriminative appearance learning | |
Younsi et al. | Comparative study of orthogonal moments for human postures recognition | |
Spampinato et al. | Evaluation of tracking algorithm performance without ground-truth data | |
Xiang et al. | End-to-end learning deep CRF models for multi-object tracking | |
Li et al. | Learning temporally correlated representations using LSTMs for visual tracking | |
Ni et al. | A robust deep belief network-based approach for recognizing dynamic hand gestures | |
Aye et al. | Salient object based action recognition using histogram of changing edge orientation (HCEO) | |
Paliy et al. | Fast and robust face detection and tracking framework | |
Shayegh Boroujeni et al. | Tracking multiple variable-sizes moving objects in LFR videos using a novel genetic algorithm approach | |
Liu | Consistent and Accurate Face Tracking and Recognition in Videos | |
Gan | A Deep Learning Approach to Online Single and Multiple Object Tracking | |
Lu et al. | Researches advanced in object tracking based on deep learning | |
Chu et al. | Research of kernel particle filtering target tracking algorithm based on multi-feature fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120703 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5052670 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |