JP6757701B2 - 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 - Google Patents
任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 Download PDFInfo
- Publication number
- JP6757701B2 JP6757701B2 JP2017105746A JP2017105746A JP6757701B2 JP 6757701 B2 JP6757701 B2 JP 6757701B2 JP 2017105746 A JP2017105746 A JP 2017105746A JP 2017105746 A JP2017105746 A JP 2017105746A JP 6757701 B2 JP6757701 B2 JP 6757701B2
- Authority
- JP
- Japan
- Prior art keywords
- particle
- time
- tracker
- response map
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
物体追跡技術は、コンピュータビジョン分野の中でも最も実施困難な問題の1つである。物体の遮蔽・回転・変形や、画像のブレ・輝度変化が生じた場合でも、正確に物体を追跡できるべく、高いロバスト性が要求される。
「パーティクルフィルタ」とは、時間変化する観測対象の状態を推定する時系列フィルタの一種である。これは、複数のパーティクルを用いたモンテカルロ法によって、事前分布と事後分布とを近似することによって、「状態」を推定する。即ち、状態を、「物体の位置」と定義し、時間毎にその状態(位置)を推定することによって、物体を追跡する。
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
重みが最大となるパーティクルs^tを決定する位置決定手段と
してコンピュータを機能させることを特徴とする。
パーティクル生成手段は、応答マップYの中で、最大の極大値から降順にM個の極大値p1〜pMに対して、混合正規分布によって矩形領域bt 1〜bt Nをサンプリングする
ようにコンピュータを機能させることも好ましい。
パーティクル生成手段における所定の追跡器の候補は、
現在時刻に任意に割り当てられたM個の現在追跡器tkrt 1〜tkrt M、又は、
過去時刻に決定されたパーティクルs^1〜s^t-1に基づく過去追跡器tkr^1〜tkr^t-1
であるようにコンピュータを機能させることも好ましい。
パーティクル生成手段は、現在追跡器のみを使用する場合をμ=0とし、過去追跡器のみを使用する場合をμ=1として、0≦μ≦1を予め設定し、平均μとなるようにベルヌーイ分布によって出力される2値u∈{0,1}に基づいて、現在追跡器の中から割り当てるか又は過去追跡器の中から割り当てるかを決定する
ようにコンピュータを機能させることも好ましい。
パーティクル生成手段は、
過去追跡器を使用する場合、複数の過去追跡器の中から一様分布又は最適化分布でいずれか1個の追跡器を選択し、
現在追跡器を使用する場合、M個の現在追跡器の中から一様分布でいずれか1個の追跡器を選択する
ようにコンピュータを機能させることも好ましい。
パーティクル生成手段について、重みは、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値である
ようにコンピュータを機能させることも好ましい。
パーティクル生成手段は、モードを、パーティクルフィルタモードへ移行させると共に、パーティクルフィルタモードである場合には機能しないものであり、
応答マップ生成手段の次段で機能する追跡モード判定手段としてコンピュータを更に機能させ、
追跡モード判定手段は、パーティクルフィルタモードである場合、応答マップにおける加重分散varが第1の所定閾値以下であれば、パーティクルフィルタモードを解除する
ようにコンピュータを機能させることも好ましい。
時刻tの応答マップYについて追跡信頼度が所定条件に基づいて低いか否かを判定する追跡信頼度判定手段としてコンピュータを更に機能させ、
パーティクル生成手段は、追跡信頼度判定手段によって真と判定された際に機能させる
ことも好ましい。
追跡信頼度判定手段は、時刻tの応答マップYの最大値を追跡信頼度とし、所定条件として最大値が所定閾値未満である場合に、追跡信頼度が低いと判定する
ようにコンピュータを機能させることも好ましい。
パーティクル生成手段に続いて、又は、パーティクルフィルタモードが維持された追跡モード判定手段に続いて機能する状態予測手段を更に有し、
状態予測手段は、時刻t-1の矩形領域bt-1 1〜bt-1 Nから、各パーティクルst 1〜st Nの矩形領域bt 1〜bt Nへの遷移が、正規分布に基づくと仮定して、矩形領域bt 1〜bt Nの位置を予測して遷移させる
ようにコンピュータを機能させることも好ましい。
状態予測手段と位置決定手段との間で機能する重み更新手段として更に機能させ、
重み更新手段は、各パーティクルst 1〜st Nの重みを、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値であるとして更新する
ようにコンピュータを機能させることも好ましい。
位置決定手段に続いて機能するリサンプリング手段として更に機能させ、
リサンプリング手段は、各パーティクルst 1〜st Nに割り当てられた重みを用いて、より大きい重みのパーティクルstほど、その周囲により多くのパーティクルが配置するようにパーティクルst 1〜st Nをリサンプリングする
ようにコンピュータを機能させることも好ましい。
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
重みが最大となるパーティクルs^tを決定する位置決定手段と
を有することを特徴とする。
装置は、
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する第1のステップと、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中からの任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てる第2のステップと、
重みが最大となるパーティクルs^tを決定する第3のステップと
を実行することを特徴とする。
即ち、複数の追跡器の中で、最適な追跡器を明示的に設定することなく、状態(物体位置)のパーティクル数を増やすことによって、追跡精度を向上させることができる。即ち、追跡器は、状態推定結果に従って間接的に推定される。
各カメラ2は、追跡対象の物体を撮影可能であり、撮影した映像(時系列の画像群)を、物体追跡装置1へ送信する。カメラ2は、例えば、CCDイメージセンサやCMOSイメージセンサのような固体撮像素子を備えた可視光、近赤外線又は赤外線対応の撮影デバイスである。勿論、カメラ2は、各画素のデプス値を出力するデプスカメラであってもよい。
尚、別途備えられたカメラ制御装置(図示なし)が、複数のカメラ2から出力された映像を収集し、その映像を物体追跡装置1へリアルタイムに又はバッチ的に送信するものであってもよい。
物体追跡装置1は、カメラ2から映像(時系列の画像群)を受信する。そして、物体追跡装置1は、追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体が映る画像領域の決定を繰り返す。そして、決定された画像領域から、追跡対象を分析する。
このとき、追跡に失敗する可能性の高まる状況、例えば、追跡対象の物体の遮蔽・回転・変形や、画像のブレ・輝度変化が生じた場合でも、当該物体の位置を予測しながら、複数候補の画像領域(複数の仮説、パーティクル)を決定する。それら画像領域から、当該物体を検出し、その移動を追跡する。
カメラ2と通信可能な通信インタフェース1A
カメラ2から受信した時系列の画像群を記憶する画像蓄積部1B
物体追跡用の情報を記憶した記憶部1C
物体追跡処理を実行する制御部1D
物体追跡結果を利用するアプリケーション1E
物体領域蓄積部は、重みが最大のパーティクルの位置及び矩形を記憶する。
追跡モード蓄積部は、各時刻における追跡モードを記憶する。
回帰パラメータ列蓄積部は、各時刻における相関フィルタのパラメータαを記憶する。
テンプレート列蓄積部には、時刻毎に、追跡対象の物体が映る画像を記憶する。
信頼度列蓄積部及び信頼度比列蓄積部は、後述する過去の追跡器の信頼度列及び信頼度比列を記憶する。
制御部1Dは、カメラ2から受信した映像(画像群)について、時系列に、画像毎に物体追跡処理を繰り返す。
アプリケーション1Eは、画像と、矩形領域とを用いて処理する。
これら機能構成部は、物体追跡装置1に搭載されたコンピュータによって機能されるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、物体追跡方法としても理解できる。
特徴量抽出部10は、画像毎に、学習した物体識別器によって、追跡対象の物体に対応する特徴量Zを出力する。例えば人物を追跡対象とする場合、物体識別器は、人物検出用に学習したものである。
そして、特徴量抽出部10は、この「探索領域」内の画像についての特徴量Zを抽出する。この特徴量Zは、例えばHOG特徴量に対して公知の主成分分析(PCA)(例えば非特許文献3参照)によって次元削減処理を施したものであってもよい。
bt=(x, y, w, h)∈R4
x:画像座標系x-yにおける画像領域矩形の左上の頂点のx座標
y:画像座標系x-yにおける画像領域矩形の左上の頂点のy座標
(尚、x軸正方向が右向き、y軸正方向が下向きであるとする)
w:当該矩形の横幅
h:当該矩形の縦幅(高さ)
また、観測結果を画像と定義して、時刻tまでの観測を、以下のように画像oの群であるとする。
ot=(o1, o2, ・・・, ot-1, ot)
更に、時刻tで推定された矩形領域b^tを、以下のように表す。
b^t=(x^t, y^t, w^t, h^t)
尚、追跡対象物体が映る画像の矩形領域b^tは、逐次、物体領域蓄積部に記憶される。
応答マップ生成部111は、時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する。
Y=F-1(k^XZ○α^)
F-1:逆フーリエ変換の関数
k:ガウシアンカーネル
^:ベクトルのフーリエ変換
○:ベクトルの要素毎の積
X:ベースサンプル
Z:HOG特徴量
α:学習済みのパラメータ
ベースサンプルXは、例えば時刻t−1で決定された矩形領域b^t-1の画像とすることができる。
kXZ=exp(−1/σ2(||X||2+||Z||2−2F-1(ΣcX^* c○Z^c)))
下付きc:HOG特徴量におけるチャネル成分
Xc:HOG特徴量ベクトルXのcチャネル成分
上付き*:複素共役
Σc:c(チャネル)についての総和(summation)
<1.パーティクルの定義>
本発明によれば、時刻tにおける矩形領域btに追跡器tkrtを対応付けた、パーティクルst=(bt,tkrt)と定義する。
st=(bt,tkrt):パーティクル(状態)
bt=(xt, yt, wt, ht)∈R4:矩形領域
tkrt∈N
N:追跡器の数
これによって、各パーティクルで別々の追跡器を用いて追跡することができる。bt及びtrktはそれぞれ、別の方法でサンプリングした後、連結させて、1つのパーティクルstを生成する。
パーティクル生成部121は、応答マップY(x,y)の中から、M個の極大値p1〜pMの集合を、大きいものから順(降順)に導出する。
p=(x,y):応答マップYの中の座標
これらM個の極大値の座標点の近辺の矩形領域には、追跡対象の物体が映っている可能性が高いと仮定する。
P(bt│p1,p2,・・・,pM)=Σmπm N(bt;(pm,w^t-1,h^t-1),σ)
N:正規分布
Σ:分散共分散行列
σ:対角行列
これによって、以下のように表す。
diag(σ)=(w1/r,h1/r,0,0)
r:実数(r>0)
∀m,πm=1/Mとするのが、最も単純な方法であるが、各極大値の値に比例させてπmを変化させて設定してもよい。
パーティクル生成部121は、次に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成する。
現在時刻に任意に割り当てられたM個の現在追跡器tkrt 1〜tkrt M、又は、
過去時刻に決定されたパーティクルs^1〜s^t-1に基づく過去追跡器tkr^1〜tkr^t-1
(A)現在追跡器群又は過去追跡器群の選択
(B)追跡器の選択
最初に、確率分布として、例えばベルヌーイ分布を用いて、現在追跡器群又は過去追跡器群のいずれかから追跡器を選択するか、を決定する。
パーティクル生成部121は、現在追跡器のみを使用する場合をμ=0とし、過去追跡器のみを使用する場合をμ=1として、0≦μ≦1を予め設定する。
μ:ハイパーパラメータ
ベルヌーイ分布によって出力される2値u∈{0,1}が、平均μとなるように、現在追跡器の中から割り当てるか又は過去追跡器の中から割り当てられる。
P(u;μ)=μu(1−μ)1-u
一方で、過去の追跡器のみを用いる場合、μ=1に設定すればよい。
過去追跡器と現在追跡器との両方を混ぜて用いる場合、0<μ<1に設定すればよい。
次に、パーティクル生成部121は、例えば一様分布や最適化分布を用いて、現在追跡器群又は過去追跡器群のそれぞれの中から、1個の追跡器を選択する。以下では、それぞれの場合に分けて説明する。
(B1)過去追跡器(u=1)の場合
(B2)現在追跡器(u=0)の場合
複数の過去追跡器tkr^1〜tkr^t-1の中から、確率分布Dsnapに従って選択される。
Dsnap=P(tkrt|u=1)
ここで、パーティクル生成部121は、複数の過去追跡器tkr^1〜tkr^t-1の中から一様分布又は最適化分布でいずれか1個の追跡器を選択する。
(B1a)一様分布
過去追跡器全てを、等確率Dsnap=1/(t-1)で選択する(図8a参照)。
(B1b)最適化分布
任意の指標を用いて過去追跡器に序列を付けて、Dsnapを算出する(図8b参照)。
q:求める確率分布
C=(c1,c2,・・・)T:qに対応する追跡器の信頼度列
R=(r1,r2,・・・)T:信頼度比列
目的関数は、L1正則化項を加えて、最適解として以下のように表す(例えば非特許文献6参照)。
maxqqTC+αqTR+β||q||
=maxqqT(C+αR)+β||q||
s.t. Σnqn=1
α:信頼度比の重要性を制御するパラメータ
β:スパース性を制御するパラメータ
L1正則化項によって、求めた分布が「疎」になるため、使用する追跡器の数を減少させることができる。これによって、少ない追跡器で、効率良く、追跡することができる。尚、信頼度比は、後述する追跡器記憶部14によって記憶される。そして、信頼度比が高い追跡器は、その後、選択される確率が高くなるようにDsnapが設定される。
M個の現在追跡器tkrt 1〜tkrt Mの中から、一様分布を用いて1個の追跡器を選択する。その確率分布Dbranchは、例えば以下のように表される。
Dbranch=P(tkrt|u=0)=1/M
現在追跡器全てを、等確率Dbranch=1/Mで選択する(図8c参照)。
パーティクル生成部121は、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てる。
「重み」は、具体的には、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値である。
位置決定部131は、パーティクル生成部121によって算出された「重み」が、最大となるパーティクルs^tを決定する。そのパーティクルs^tの矩形領域は、b^tと表す。
具体的には、重みが最大値となる位置は、パラボラフィッティングに基づくサブピクセル推定によって決定される(例えば非特許文献5参照)。これにより、ピクセル単位と比較して、細かな(正確な)位置座標値を決定することができる。
w^=w1、 h^=h1
x^=i^−w^/2、 y^=j^−h^/2
(x^,y^):時刻tに決定されたパーティクルstにおける矩形領域の左上頂点
w^:時刻tに決定されたパーティクルstの矩形領域の横幅
h^:時刻tに決定されたパーティクルstの矩形領域の縦幅(高さ)
(i^,j^):時刻tに決定されたパーティクルstの矩形領域の中心
w1:初期フレームで決定されたパーティクルstの矩形領域の横幅
h1:初期フレームで決定されたパーティクルstの矩形領域の縦幅(高さ)
尚、w1及びh1について、他の値として、例えば、時刻t−1で決定されたパーティクルの矩形領域の横幅及び縦幅を用いてもよい。
追跡器記憶部14は、時刻tにおけるパーティクルs^t毎に、相関フィルタのパラメータαtと、ベースサンプルxtと、重みctと、信頼度比rtとをそれぞれ記憶する。
A=(α1,α2,・・・)T
X=(x1,x2,・・・)T
C=(c1,c2,・・・)T
R=(r1,r2,・・・)T
相関フィルタ学習部15は、時刻tで決定されたパーティクルs^tの矩形領域について、KFCのパラメータαを更新する(例えば非特許文献3参照)。その後、繰り返される応答マップ生成部111は、時刻t+1で、更新されたパラメータαによって応答マップYを生成する。
α^=y^/(k^XZ+λ)
y:リッジ(Ridge)回帰の教師データ
λ:正則化項の係数
^:フーリエ変換
(特徴量抽出部10):図3と同様
(応答マップ生成部111):図3と同様
[追跡モード判定部112]
[追跡信頼度判定部113]
(パーティクル生成部121):図3と同様
[状態予測部122]
[重み更新部123]
(位置決定部131):図3と同様
[リサンプリング部132]
(追跡器記憶部14):図3と同様
(相関フィルタ学習部15):図3と同様
前提として、パーティクルフィルタモード又は通常モードを表す「追跡モード」を定義する。パーティクル生成部121は、パーティクルを生成した後、追跡モードを、パーティクルフィルタモードへ移行させる。また、パーティクル生成部121は、追跡モードがパーティクルフィルタモードである場合、実行されない。
追跡モード判定部112は、追跡モードがパーティクルモードでなければ、追跡信頼度判定部113へ処理を移行する。
また、追跡モード判定部112は、追跡モードがパーティクルフィルタモードであっても、応答マップにおける加重分散varが所定閾値ε以下であれば、パーティクルフィルタモードを解除する。即ち、通常モードへ移行する。そして、追跡信頼度判定部113へ処理を移行する。
一方で、追跡モード判定部112は、追跡モードがパーティクルモードであって、且つ、応答マップにおける加重分散varが所定閾値εよりも大きい場合、後述する状態予測部122へ処理を移行する。
尚、追跡モード判定部112は、パーティクルフィルタモードへ移行してから一定時間経過後に、パーティクルフィルタモードを解除し、通常モードへ移行するものであってもよい。
追跡モード判定部112は、パーティクルの収束度によって、追跡モードを判定する。具体的には、パーティクルの加重分散を用いる。n番目のパーティクルの状態をsnとすると、加重平均は以下ように表される。
mean=Σnwnsn
矩形領域bと追跡器tkrとは、異なるものであるために、加重分散は、以下のように算出する。
var=Σnwnd(sn,mean)2
=Σnwn(sn−mean)TS−1(sn−mean)
S:分散共分散行列
加重分散を用いることによって、各次元のスケールが正規化され、適切に収束度を測ることができる。尚、追跡モード判定部112について、加重分散を例として説明したが、それに代えて、若しくは合せて、マハラノビス距離、ユークリッド距離やコサイン距離等の指標を使用してもよい。
追跡信頼度判定部113は、時刻tの応答マップYについて追跡信頼度が所定条件に基づいて低いか否かを判定する。
具体的には、時刻tの応答マップYの最大値を追跡信頼度とし、所定条件として最大値が所定閾値未満である場合に、追跡信頼度が低いと判定する。
状態予測部122は、パーティクル生成部121に続いて、又は、パーティクルフィルタモードが維持された追跡モード判定部112に続いて機能する。
状態予測部122は、時刻t-1の矩形領域bt-1 1〜bt-1 Nから、各パーティクルst 1〜st Nの矩形領域bt 1〜bt Nへの遷移が、正規分布に基づくと仮定して、矩形領域bt 1〜bt Nの位置を予測して遷移させる。
b^t-1を平均ベクトルとした正規分布に従ってパーティクルを生成する。時刻t-1におけるパーティクルの矩形領域b^t-1から、時刻tにおけるパーティクルの矩形領域btへの遷移は、正規分布に基づくランダムウォークを仮定し、次式のように予測される。
P(bt|b^t-1)=N(bt;b^t-1,σ)
P:条件付き確率
N:正規分布
σ:対角行列
また、パーティクルの矩形領域の大きさを変化させない場合には、以下のように表される。
diag(Σ)=[w1/r, h1/r, 0, 0]
w1:初期フレームにおける矩形領域の横幅
h1:初期フレームにおける矩形領域の縦幅(高さ)
r: 1≦r≦min(Lw, Lh)を満たす実数
追跡器tkrtは、ベルヌーイ分布によって出力される2値u∈{0,1}に基づいてサンプリングされる。
u=1の場合、一様分布又は最適化分布に従って、追跡器tkrtをサンプリングする。
u=0の場合、試行回数tkr^t-1に応じて成功確率1の二項分布に従って、追跡器tkrtをサンプリングする(図8(d)参照)。
Dbranch=B(tkr^t-1,1)
重み更新部123は、状態予測部122の次段で機能する。
重み更新部123は、各パーティクルst 1〜st Nの重みを、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値であるとして更新する(図7下段参照)。
res(ot,bt)=Y((xt-x^t-1)/cellsize+wY,(yt-y^t-1)/cellsize+hY)
wY:横の長さ
hY:縦の長さ
重みresは、全パーティクルの和が1になるように正規化し、応答マップ値となる。
リサンプリング部132は、位置決定部131に続いて機能する。
リサンプリング部132は、各パーティクルst 1〜st Nに割り当てられた重みを用いて、より大きい重みのパーティクルstほど、その周囲により多くのパーティクルが配置するように各矩形領域bt 1〜bt Nをリサンプリングする。
具体的に、リサンプリング部132は、累積重み曲線を用いて乱数に基づいて、パーティクルの再配置・再構成を行うルーレット選択を用いることができる(例えば非特許文献7参照)。
即ち、複数の追跡器の中で、最適な追跡器を明示的に設定することなく、状態(物体位置)のパーティクル数を増やすことによって、追跡精度を向上させることができる。即ち、追跡器は、状態推定結果に従って間接的に推定される。
1A 通信インタフェース
1B 画像蓄積部
1C 記憶部
1D 制御部
1E アプリケーション
10 特徴量抽出部
111 応答マップ生成部
112 追跡モード判定部
113 追跡信頼度判定部
121 パーティクル生成部
122 状態予測部
123 重み更新部
131 位置決定部
132 リサンプリング部
14 追跡器記憶部
15 相関フィルタ学習部
2 カメラ
Claims (14)
- 追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す装置に搭載されたコンピュータを機能させる物体追跡プログラムにおいて、
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
前記重みが最大となるパーティクルs^tを決定する位置決定手段と
してコンピュータを機能させることを特徴とする物体追跡プログラム。 - 前記パーティクル生成手段は、応答マップYの中で、最大の極大値から降順にM個の極大値p1〜pMに対して、混合正規分布によって矩形領域bt 1〜bt Nをサンプリングする
ようにコンピュータを機能させることを特徴とする請求項1に記載の物体追跡プログラム。 - 前記パーティクル生成手段における前記所定の追跡器の候補は、
現在時刻に任意に割り当てられたM個の現在追跡器tkrt 1〜tkrt M、又は、
過去時刻に決定されたパーティクルs^1〜s^t-1に基づく過去追跡器tkr^1〜tkr^t-1
であるようにコンピュータを機能させることを特徴とする請求項1又は2に記載の物体追跡プログラム。 - 前記パーティクル生成手段は、現在追跡器のみを使用する場合をμ=0とし、過去追跡器のみを使用する場合をμ=1として、0≦μ≦1を予め設定し、平均μとなるようにベルヌーイ分布によって出力される2値u∈{0,1}に基づいて、現在追跡器の中から割り当てるか又は過去追跡器の中から割り当てるかを決定する
ようにコンピュータを機能させることを特徴とする請求項3に記載の物体追跡プログラム。 - 前記パーティクル生成手段は、
前記過去追跡器を使用する場合、複数の過去追跡器の中から一様分布又は最適化分布でいずれか1個の追跡器を選択し、
前記現在追跡器を使用する場合、M個の現在追跡器の中から一様分布でいずれか1個の追跡器を選択する
ようにコンピュータを機能させることを特徴とする請求項3又は4に記載の物体追跡プログラム。 - 前記パーティクル生成手段について、前記重みは、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値である
ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載の物体追跡プログラム。 - 前記パーティクル生成手段は、モードを、パーティクルフィルタモードへ移行させると共に、パーティクルフィルタモードである場合には機能しないものであり、
前記応答マップ生成手段の次段で機能する追跡モード判定手段としてコンピュータを更に機能させ、
前記追跡モード判定手段は、前記パーティクルフィルタモードである場合、前記応答マップにおける加重分散varが第1の所定閾値以下であれば、前記パーティクルフィルタモードを解除する
ようにコンピュータを機能させることを特徴とする請求項1から6のいずれか1項に記載の物体追跡プログラム。 - 時刻tの応答マップYについて追跡信頼度が所定条件に基づいて低いか否かを判定する追跡信頼度判定手段としてコンピュータを更に機能させ、
前記パーティクル生成手段は、前記追跡信頼度判定手段によって真と判定された際に機能させる
ことを特徴とする請求項7に記載の物体追跡プログラム。 - 前記追跡信頼度判定手段は、時刻tの応答マップYの最大値を追跡信頼度とし、前記所定条件として前記最大値が所定閾値未満である場合に、前記追跡信頼度が低いと判定する
ようにコンピュータを機能させることを特徴とする請求項8に記載の物体追跡プログラム。 - 前記パーティクル生成手段に続いて、又は、パーティクルフィルタモードが維持された前記追跡モード判定手段に続いて機能する状態予測手段を更に有し、
前記状態予測手段は、時刻t-1の矩形領域bt-1 1〜bt-1 Nから、各パーティクルst 1〜st Nの矩形領域bt 1〜bt Nへの遷移が、正規分布に基づくと仮定して、矩形領域bt 1〜bt Nの位置を予測して遷移させる
ようにコンピュータを機能させることを特徴とする請求項9に記載の物体追跡プログラム。 - 前記状態予測手段と前記位置決定手段との間で機能する重み更新手段として更に機能させ、
前記重み更新手段は、各パーティクルst 1〜st Nの重みを、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値であるとして更新する
ようにコンピュータを機能させることを特徴とする請求項10に記載の物体追跡プログラム。 - 前記位置決定手段に続いて機能するリサンプリング手段として更に機能させ、
前記リサンプリング手段は、各パーティクルst 1〜st Nに割り当てられた重みを用いて、より大きい重みのパーティクルstほど、その周囲により多くのパーティクルが配置するように各矩形領域bt 1〜bt Nをリサンプリングする
ようにコンピュータを機能させることを特徴とする請求項1から11のいずれか1項に記載の物体追跡プログラム。 - 追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す物体追跡装置において、
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
前記重みが最大となるパーティクルs^tを決定する位置決定手段と
を有することを特徴とする物体追跡装置。 - 追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す装置の物体追跡方法において、
前記装置は、
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する第1のステップと、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中からの任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てる第2のステップと、
前記重みが最大となるパーティクルs^tを決定する第3のステップと
を実行することを特徴とする物体追跡方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017105746A JP6757701B2 (ja) | 2017-05-29 | 2017-05-29 | 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017105746A JP6757701B2 (ja) | 2017-05-29 | 2017-05-29 | 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018200628A JP2018200628A (ja) | 2018-12-20 |
JP6757701B2 true JP6757701B2 (ja) | 2020-09-23 |
Family
ID=64668216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017105746A Active JP6757701B2 (ja) | 2017-05-29 | 2017-05-29 | 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6757701B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102175491B1 (ko) * | 2019-05-08 | 2020-11-06 | 군산대학교산학협력단 | 상관 필터 기반 객체 추적 방법 |
CN111582349B (zh) * | 2020-04-30 | 2023-03-28 | 陕西师范大学 | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 |
CN115953433B (zh) * | 2023-02-06 | 2023-09-19 | 宿迁学院 | 一种混合式图像目标跟踪方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4208898B2 (ja) * | 2006-06-09 | 2009-01-14 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
US20100054536A1 (en) * | 2006-12-01 | 2010-03-04 | Thomson Licensing | Estimating a location of an object in an image |
JP2011040993A (ja) * | 2009-08-11 | 2011-02-24 | Nikon Corp | 被写体追尾プログラム、およびカメラ |
-
2017
- 2017-05-29 JP JP2017105746A patent/JP6757701B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018200628A (ja) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344725B (zh) | 一种基于时空关注度机制的多行人在线跟踪方法 | |
JP6654789B2 (ja) | 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法 | |
US7596241B2 (en) | System and method for automatic person counting and detection of specific events | |
US7957560B2 (en) | Unusual action detector and abnormal action detecting method | |
EP2345999A1 (en) | Method for automatic detection and tracking of multiple objects | |
US20140307917A1 (en) | Robust feature fusion for multi-view object tracking | |
CN105930822A (zh) | 一种人脸抓拍方法及系统 | |
JP6757701B2 (ja) | 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 | |
US20220327676A1 (en) | Method and system for detecting change to structure by using drone | |
Der et al. | Probe-based automatic target recognition in infrared imagery | |
Cao et al. | Learning spatial-temporal representation for smoke vehicle detection | |
Chu et al. | Fully unsupervised learning of camera link models for tracking humans across nonoverlapping cameras | |
CN112651381A (zh) | 基于卷积神经网络的视频图像中家畜识别方法及装置 | |
Ahuja et al. | A survey of recent advances in crowd density estimation using image processing | |
Afsar et al. | Automatic human trajectory destination prediction from video | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
Mohanapriya et al. | A novel foreground region analysis using NCP-DBP texture pattern for robust visual tracking | |
Yao et al. | An interval type-2 fuzzy logic system for human silhouette extraction in dynamic environments | |
Huang | Moving object detection in low-luminance images | |
RU2807953C1 (ru) | Система сопровождения подвижных объектов на видео | |
Kumar et al. | Pedestrian Tracking in UAV Images With Kalman Filter Motion Estimator and Correlation Filter | |
Landge | Object Detection and Object Tracking Using Background Subtraction for Surveillance Application | |
Chen et al. | A learning-based approach for leaf detection in traffic surveillance video | |
Zerrouki et al. | Adaboost-based algorithm for human action recognition | |
Ayad et al. | Convolutional Neural Network (CNN) Model to Mobile Remote Surveillance System for Home Security |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6757701 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |