JP6757701B2 - 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 - Google Patents

任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 Download PDF

Info

Publication number
JP6757701B2
JP6757701B2 JP2017105746A JP2017105746A JP6757701B2 JP 6757701 B2 JP6757701 B2 JP 6757701B2 JP 2017105746 A JP2017105746 A JP 2017105746A JP 2017105746 A JP2017105746 A JP 2017105746A JP 6757701 B2 JP6757701 B2 JP 6757701B2
Authority
JP
Japan
Prior art keywords
particle
time
tracker
response map
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017105746A
Other languages
English (en)
Other versions
JP2018200628A (ja
Inventor
仁志 西村
仁志 西村
有哉 巻渕
有哉 巻渕
小林 達也
達也 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017105746A priority Critical patent/JP6757701B2/ja
Publication of JP2018200628A publication Critical patent/JP2018200628A/ja
Application granted granted Critical
Publication of JP6757701B2 publication Critical patent/JP6757701B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、追跡対象の物体が映る時系列の画像群を解析して、当該物体を追跡する物体追跡技術に関する。
物体追跡は、監視カメラ、ヒューマンコンピュータインタラクションや、ロボティクス等における基礎技術である。時系列の画像群が入力されると、初期フレーム(画像)について追跡対象の物体が映る画像領域が決定され、それ以降のフレームではその画像領域が順次求められる。
物体追跡技術は、コンピュータビジョン分野の中でも最も実施困難な問題の1つである。物体の遮蔽・回転・変形や、画像のブレ・輝度変化が生じた場合でも、正確に物体を追跡できるべく、高いロバスト性が要求される。
近年、パーティクルフィルタを用いた物体追跡技術が広く利用されてきている。
「パーティクルフィルタ」とは、時間変化する観測対象の状態を推定する時系列フィルタの一種である。これは、複数のパーティクルを用いたモンテカルロ法によって、事前分布と事後分布とを近似することによって、「状態」を推定する。即ち、状態を、「物体の位置」と定義し、時間毎にその状態(位置)を推定することによって、物体を追跡する。
従来、パーティクルフィルタを用いた物体追跡技術として、単一ではなく複数の追跡器を用いて、追跡対象の見えや動きの変化に対するロバスト性を高めた技術がある(例えば非特許文献1参照)。この技術によれば、具体的には、事後分布を、追跡器の項と、状態の項とに分解する。最初に、最適な追跡器をモンテカルロ法によって推定し、次に、推定された追跡器を用いて状態を推定する。
J. Kwon, and K. M. Lee, "Tracking by Sampling Trackers," In Proc ICCV, pp.1195-1202, 2011. N. Dalal, and B. Triggs. "Histograms of Oriented Gradients for Human Detection," In Proc CVPR, pp.886-893, 2005. I. T. Jolliffe, "Principal Component Analysis," 2nd edition, Springer, 2002. J. F. Henriques, R. Caseiro, P. Martins, and J. Batista, "High-speed tracking with kernelized correlation filters," IEEE Transactions on PAMI, vol.37, no.3, pp.583-596, 2015. Q. Tian, and M. N. Huhns, "Algorithms for subpixel registration," Computer Vision, Graphics, and Image Processing, vol.35, no.2, pp.220-233, 1986. S. Boyd, N. Parikh, E. Chu, B. Peleato, and J. Eckstein, "Distributed optimization and statistical learning via the alternating direction method of multipliers," Foundations and Trends in Machine Learning, vol.3, no.1, pp.1-122, 2010. J. H. Holland, "Adaptation in natural and artificial systems: an introductory analysis with applications to biology, control, and artificial intelligence," U Michigan Press, 1975.
前述した非特許文献1に記載の技術によれば、物体が映る画像領域に係る追跡器は、評価用の指標に基づいて推定されるものであり、その指標は、予めオペレータによって設定されたものである。即ち、追跡器の推定精度は、その設定に大きく依存する。その設定によっては、状態(物体位置)のパーティクルの数を増加させたとしても、結果的に、追跡器の推定精度を高めることはできない。
そこで、本発明は、追跡器の精度を推定することなく、最適なパーティクルの決定により、対応する追跡器を最適な推定器として推定することができる物体追跡プログラム、装置及び方法を提供することを目的とする。
本発明によれば、追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す装置に搭載されたコンピュータを機能させる物体追跡プログラムにおいて、
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
重みが最大となるパーティクルs^tを決定する位置決定手段と
してコンピュータを機能させることを特徴とする。
本発明の物体追跡プログラムにおける他の実施形態によれば、
パーティクル生成手段は、応答マップYの中で、最大の極大値から降順にM個の極大値p1〜pMに対して、混合正規分布によって矩形領域bt 1〜bt Nをサンプリングする
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
パーティクル生成手段における所定の追跡器の候補は、
現在時刻に任意に割り当てられたM個の現在追跡器tkrt 1〜tkrt M、又は、
過去時刻に決定されたパーティクルs^1〜s^t-1に基づく過去追跡器tkr^1〜tkr^t-1
であるようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
パーティクル生成手段は、現在追跡器のみを使用する場合をμ=0とし、過去追跡器のみを使用する場合をμ=1として、0≦μ≦1を予め設定し、平均μとなるようにベルヌーイ分布によって出力される2値u∈{0,1}に基づいて、現在追跡器の中から割り当てるか又は過去追跡器の中から割り当てるかを決定する
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
パーティクル生成手段は、
過去追跡器を使用する場合、複数の過去追跡器の中から一様分布又は最適化分布でいずれか1個の追跡器を選択し、
現在追跡器を使用する場合、M個の現在追跡器の中から一様分布でいずれか1個の追跡器を選択する
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
パーティクル生成手段について、重みは、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値である
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
パーティクル生成手段は、モードを、パーティクルフィルタモードへ移行させると共に、パーティクルフィルタモードである場合には機能しないものであり、
応答マップ生成手段の次段で機能する追跡モード判定手段としてコンピュータを更に機能させ、
追跡モード判定手段は、パーティクルフィルタモードである場合、応答マップにおける加重分散varが第1の所定閾値以下であれば、パーティクルフィルタモードを解除する
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
時刻tの応答マップYについて追跡信頼度が所定条件に基づいて低いか否かを判定する追跡信頼度判定手段としてコンピュータを更に機能させ、
パーティクル生成手段は、追跡信頼度判定手段によって真と判定された際に機能させる
ことも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
追跡信頼度判定手段は、時刻tの応答マップYの最大値を追跡信頼度とし、所定条件として最大値が所定閾値未満である場合に、追跡信頼度が低いと判定する
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
パーティクル生成手段に続いて、又は、パーティクルフィルタモードが維持された追跡モード判定手段に続いて機能する状態予測手段を更に有し、
状態予測手段は、時刻t-1の矩形領域bt-1 1〜bt-1 Nから、各パーティクルst 1〜st Nの矩形領域bt 1〜bt Nへの遷移が、正規分布に基づくと仮定して、矩形領域bt 1〜bt Nの位置を予測して遷移させる
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
状態予測手段と位置決定手段との間で機能する重み更新手段として更に機能させ、
重み更新手段は、各パーティクルst 1〜st Nの重みを、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値であるとして更新する
ようにコンピュータを機能させることも好ましい。
本発明の物体追跡プログラムにおける他の実施形態によれば、
位置決定手段に続いて機能するリサンプリング手段として更に機能させ、
リサンプリング手段は、各パーティクルst 1〜st Nに割り当てられた重みを用いて、より大きい重みのパーティクルstほど、その周囲により多くのパーティクルが配置するようにパーティクルst 1〜st Nをリサンプリングする
ようにコンピュータを機能させることも好ましい。
本発明によれば、追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す物体追跡装置において、
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
重みが最大となるパーティクルs^tを決定する位置決定手段と
を有することを特徴とする。
本発明によれば、追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す装置の物体追跡方法において、
装置は、
時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する第1のステップと、
時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中からの任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てる第2のステップと、
重みが最大となるパーティクルs^tを決定する第3のステップと
を実行することを特徴とする。
本発明の物体追跡プログラム、装置及び方法によれば、追跡器の精度を推定することなく、最適なパーティクルの決定により、対応する追跡器を最適な推定器として推定することができる。
即ち、複数の追跡器の中で、最適な追跡器を明示的に設定することなく、状態(物体位置)のパーティクル数を増やすことによって、追跡精度を向上させることができる。即ち、追跡器は、状態推定結果に従って間接的に推定される。
物体追跡システムの構成図である。 本発明における物体追跡装置の機能構成図である。 本発明の物体追跡処理を表す基本的フローチャートである。 特徴量抽出部の処理を表す説明図である。 応答マップ生成部の処理を表す説明図である。 本発明におけるパーティクル生成部の処理を表す第1の説明図である。 本発明におけるパーティクル生成部の処理を表す第2の説明図である。 本発明における追跡器の選択処理を表す説明図である。 本発明における位置決定部の処理を表す説明図である。 相関フィルタ学習部の処理を表す説明図である。 本発明の物体追跡処理を表す具体的フローチャートである。 本発明における追跡信頼度判定部の処理を表す説明図である。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
図1は、物体追跡システムの構成図である。
図1によれば、物体追跡システムは、物体追跡装置1と1台以上のカメラ2とが、ネットワークを介して接続されている。
各カメラ2は、追跡対象の物体を撮影可能であり、撮影した映像(時系列の画像群)を、物体追跡装置1へ送信する。カメラ2は、例えば、CCDイメージセンサやCMOSイメージセンサのような固体撮像素子を備えた可視光、近赤外線又は赤外線対応の撮影デバイスである。勿論、カメラ2は、各画素のデプス値を出力するデプスカメラであってもよい。
カメラ2は、物体追跡装置1との間で、例えば無線LANや有線LANのように直接的に接続されるものであってもよいし、例えばアクセスネットワーク及びインターネットを介して接続されるものであってもよい。アクセスネットワークとしては、無線系のLTE(Long Term Evolution)、WiMAX(Worldwide Interoperability for Microwave Access)又は3G(3rd Generation)であってもよいし、有線系の光ファイバ網やADSL(Asymmetric Digital Subscriber Line)であってもよい。
尚、別途備えられたカメラ制御装置(図示なし)が、複数のカメラ2から出力された映像を収集し、その映像を物体追跡装置1へリアルタイムに又はバッチ的に送信するものであってもよい。
ここで、追跡対象となる物体は、例えば人物、動物、乗り物のような移動可能な物理対象である。撮影場所も、特に限定されることなく、屋外でも屋内でもよい。また、追跡対象となり得る物体は、複数であってもよく、同行したり互いにすれ違ったり、撮影範囲の内外に移動するものであってもよい。
<物体追跡装置1>
物体追跡装置1は、カメラ2から映像(時系列の画像群)を受信する。そして、物体追跡装置1は、追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体が映る画像領域の決定を繰り返す。そして、決定された画像領域から、追跡対象を分析する。
このとき、追跡に失敗する可能性の高まる状況、例えば、追跡対象の物体の遮蔽・回転・変形や、画像のブレ・輝度変化が生じた場合でも、当該物体の位置を予測しながら、複数候補の画像領域(複数の仮説、パーティクル)を決定する。それら画像領域から、当該物体を検出し、その移動を追跡する。
物体追跡装置1は、カメラ2から受信した画像内に張られた画像座標系x-yでの位置座標(x, y)を、実空間に張られた世界座標系Gx-Gy-Gzでの位置座標(gx, gy, gz)へ変換する(座標変換操作)。そして、追跡対象の物体が映る画像から、実空間での位置やその変移分等の位置を算出する。例えば、前時刻t−1における追跡対象の物体の画像内の位置(x, y)が、現在時刻tにおける位置(x', y')へ変化した場合、この物体は、実空間(観測対象空間)について、前時刻t−1での位置(gx, gy, gz)から、現在時刻tでの位置(gx', gy', gz')へ移動したことが推定される。
尚、カメラ2が、設置位置や、撮影向き、高さを変更可能なものである場合、画像座標系から世界座標系への座標変換は、予めキャリブレーションによって、カメラ2についての設置位置及び撮影向きに係る外部パラメータを設定しておく。
図2は、本発明における物体追跡装置の機能構成図である。
図2によれば、物体追跡装置1は、大きく以下の機能を有する。
カメラ2と通信可能な通信インタフェース1A
カメラ2から受信した時系列の画像群を記憶する画像蓄積部1B
物体追跡用の情報を記憶した記憶部1C
物体追跡処理を実行する制御部1D
物体追跡結果を利用するアプリケーション1E
記憶部1Cは、物体領域蓄積部と、追跡モード蓄積部と、回帰パラメータ列蓄積部と、テンプレート列蓄積部と、信頼度列蓄積部と、信頼度比列蓄積部とを有する。
物体領域蓄積部は、重みが最大のパーティクルの位置及び矩形を記憶する。
追跡モード蓄積部は、各時刻における追跡モードを記憶する。
回帰パラメータ列蓄積部は、各時刻における相関フィルタのパラメータαを記憶する。
テンプレート列蓄積部には、時刻毎に、追跡対象の物体が映る画像を記憶する。
信頼度列蓄積部及び信頼度比列蓄積部は、後述する過去の追跡器の信頼度列及び信頼度比列を記憶する。
制御部1Dは、カメラ2から受信した映像(画像群)について、時系列に、画像毎に物体追跡処理を繰り返す。
アプリケーション1Eは、画像と、矩形領域とを用いて処理する。
図3は、本発明の物体追跡処理を表す基本的フローチャートである。
図3によれば、制御部1Dは、特徴量抽出部10と、応答マップ生成部111と、パーティクル生成部121と、位置決定部131と、追跡器記憶部14と、相関フィルタ学習部15とを有する。
これら機能構成部は、物体追跡装置1に搭載されたコンピュータによって機能されるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、物体追跡方法としても理解できる。
[特徴量抽出部10]
特徴量抽出部10は、画像毎に、学習した物体識別器によって、追跡対象の物体に対応する特徴量Zを出力する。例えば人物を追跡対象とする場合、物体識別器は、人物検出用に学習したものである。
物体検出のためには、例えばHOG(Histograms of Oriented Gradients)特徴量を用いることも好ましい(例えば非特許文献2参照)。HOG特徴量は、画像の局所領域における輝度の勾配方向をヒストグラム化し、各度数を成分としたベクトル量である。
図4は、特徴量抽出部の処理を表す説明図である。
図4によれば、時刻tの画像otについて、時刻t−1で推定された矩形領域b^t-1の中心を固定したまま、当該画像領域を定数倍(例えば2倍)に拡大したものを、「b^tの中心探索領域」に設定している。
そして、特徴量抽出部10は、この「探索領域」内の画像についての特徴量Zを抽出する。この特徴量Zは、例えばHOG特徴量に対して公知の主成分分析(PCA)(例えば非特許文献3参照)によって次元削減処理を施したものであってもよい。
追跡対象となる物体が検出された画像領域は、矩形に設定される。勿論、矩形以外の形状であってもよい。時刻tに、物体が映る画像の矩形領域を、bt(bounding box)と定義する。
t=(x, y, w, h)∈R4
x:画像座標系x-yにおける画像領域矩形の左上の頂点のx座標
y:画像座標系x-yにおける画像領域矩形の左上の頂点のy座標
(尚、x軸正方向が右向き、y軸正方向が下向きであるとする)
w:当該矩形の横幅
h:当該矩形の縦幅(高さ)
また、観測結果を画像と定義して、時刻tまでの観測を、以下のように画像oの群であるとする。
t=(o1, o2, ・・・, ot-1, ot)
更に、時刻tで推定された矩形領域b^tを、以下のように表す。
b^t=(x^t, y^t, w^t, h^t)
尚、追跡対象物体が映る画像の矩形領域b^tは、逐次、物体領域蓄積部に記憶される。
[応答マップ生成部111]
応答マップ生成部111は、時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する。
図5は、応答マップ生成部の処理を表す説明図である。
図5によれば、応答マップYは、特徴量抽出部10によって抽出された特徴量Zに対し、ベースサンプルXを用いたカーネル化処理と、学習済みのパラメータαの積算処理とを実行することによって、応答マップYを算出する。応答マップYは、以下のように表される。
Y=F-1(k^XZ○α^)
-1:逆フーリエ変換の関数
k:ガウシアンカーネル
^:ベクトルのフーリエ変換
○:ベクトルの要素毎の積
X:ベースサンプル
Z:HOG特徴量
α:学習済みのパラメータ
パラメータαは、後述する相関フィルタ学習部15によって算出されたものであり、KCF(Kernelized Correlation Filter)に基づくものである(例えば非特許文献4参照)。これは、例えば行列の巡回性、フーリエ変換及びカーネルトリックを用いたものである。
ベースサンプルXは、例えば時刻t−1で決定された矩形領域b^t-1の画像とすることができる。
フーリエ変換前のX,Z間のカーネルkXZは、以下のようにガウシアンカーネルとして算出される。
XZ=exp(−1/σ2(||X||2+||Z||2−2F-1cX^* c○Z^c)))
下付きc:HOG特徴量におけるチャネル成分
Xc:HOG特徴量ベクトルXのcチャネル成分
上付き*:複素共役
Σc:c(チャネル)についての総和(summation)
このように算出された応答マップYは、図4の中心探索領域上の各位置における応答値となる。
尚、実装上、応答マップYの生成の際に実行されるフーリエ変換及び逆フーリエ変換は、FFT(Fast Fourier Transform)及びIFFT(Inverse FFT)アルゴリズムを用いて高速に処理される。
[パーティクル生成部121]
<1.パーティクルの定義>
本発明によれば、時刻tにおける矩形領域btに追跡器tkrtを対応付けた、パーティクルst=(bt,tkrt)と定義する。
t=(bt,tkrt):パーティクル(状態)
t=(xt, yt, wt, ht)∈R4:矩形領域
tkrt∈N
N:追跡器の数
これによって、各パーティクルで別々の追跡器を用いて追跡することができる。bt及びtrktはそれぞれ、別の方法でサンプリングした後、連結させて、1つのパーティクルstを生成する。
<2.矩形領域btのサンプリング>
パーティクル生成部121は、応答マップY(x,y)の中から、M個の極大値p1〜pMの集合を、大きいものから順(降順)に導出する。
p=(x,y):応答マップYの中の座標
これらM個の極大値の座標点の近辺の矩形領域には、追跡対象の物体が映っている可能性が高いと仮定する。
パーティクル生成部121は、これらの座標点の近辺にパーティクルが多く存在するようにサンプリングする。そのために、パーティクル生成部121は、応答マップYの中で、最大の極大値から降順にM個の極大値p1〜pMに対して、時刻tのN個の矩形領域bt 1〜bt Nをサンプリングする。具体的には、以下のように、混合正規分布に従ってパーティクルをサンプリングする。
P(bt│p1,p2,・・・,pM)=Σmπm N(bt;(pm,w^t-1,h^t-1),σ)
N:正規分布
Σ:分散共分散行列
σ:対角行列
これによって、以下のように表す。
diag(σ)=(w1/r,h1/r,0,0)
r:実数(r>0)
∀m,πm=1/Mとするのが、最も単純な方法であるが、各極大値の値に比例させてπmを変化させて設定してもよい。
パーティクル数Nのうち、j番目(j=1〜N)のパーティクルst jについて、各パーティクルの重みを、1/Nに設定する。
図6は、本発明におけるパーティクル生成部の処理を表す第1の説明図である。
図6によれば、N個のパーティクルの矩形領域bt 1〜bt Nが、M個の極大値p1〜pMの周囲近辺にサンプリングされている。このように複数のパーティクルをサンプリングすることによって、ランダムな位置にサンプリングするよりも、追跡対象の物体に映る最適な位置に矩形領域bt 1〜bt Nをサンプリングすることができる。
<3.追跡器tkr tの割り当て>
パーティクル生成部121は、次に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成する。
図7は、本発明におけるパーティクル生成部の処理を表す第2の説明図である。
パーティクル生成部121における「所定の追跡器の候補」は、以下のものである。
現在時刻に任意に割り当てられたM個の現在追跡器tkrt 1〜tkrt M、又は、
過去時刻に決定されたパーティクルs^1〜s^t-1に基づく過去追跡器tkr^1〜tkr^t-1
過去追跡器も選択候補とした理由は、現在追跡器の追跡精度が低下した場合であっても、過去に選択された過去追跡器を用いることによって、追跡の精度の向上を期待したものである。
現在時刻tにおけるN個のパーティクルそれぞれに、現在追跡器又は過去追跡器の中から選択した1個の追跡器を割り当てる。ここで、追跡器は、任意の確率分布を用いて、2段階で選択される。
(A)現在追跡器群又は過去追跡器群の選択
(B)追跡器の選択
(A)現在追跡器群又は過去追跡器群の選択
最初に、確率分布として、例えばベルヌーイ分布を用いて、現在追跡器群又は過去追跡器群のいずれかから追跡器を選択するか、を決定する。
パーティクル生成部121は、現在追跡器のみを使用する場合をμ=0とし、過去追跡器のみを使用する場合をμ=1として、0≦μ≦1を予め設定する。
μ:ハイパーパラメータ
ベルヌーイ分布によって出力される2値u∈{0,1}が、平均μとなるように、現在追跡器の中から割り当てるか又は過去追跡器の中から割り当てられる。
P(u;μ)=μu(1−μ)1-u
μの設定は、例えば現在の追跡器のみを用いる場合、μ=0に設定すればよい。
一方で、過去の追跡器のみを用いる場合、μ=1に設定すればよい。
過去追跡器と現在追跡器との両方を混ぜて用いる場合、0<μ<1に設定すればよい。
(B)追跡器の選択
次に、パーティクル生成部121は、例えば一様分布や最適化分布を用いて、現在追跡器群又は過去追跡器群のそれぞれの中から、1個の追跡器を選択する。以下では、それぞれの場合に分けて説明する。
(B1)過去追跡器(u=1)の場合
(B2)現在追跡器(u=0)の場合
図8は、本発明における追跡器の選択処理を表す説明図である。
(B1)過去追跡器(u=1)の場合
複数の過去追跡器tkr^1〜tkr^t-1の中から、確率分布Dsnapに従って選択される。
Dsnap=P(tkrt|u=1)
ここで、パーティクル生成部121は、複数の過去追跡器tkr^1〜tkr^t-1の中から一様分布又は最適化分布でいずれか1個の追跡器を選択する。
(B1a)一様分布
過去追跡器全てを、等確率Dsnap=1/(t-1)で選択する(図8a参照)。
(B1b)最適化分布
任意の指標を用いて過去追跡器に序列を付けて、Dsnapを算出する(図8b参照)。
q:求める確率分布
C=(c1,c2,・・・):qに対応する追跡器の信頼度列
R=(r1,r2,・・・):信頼度比列
目的関数は、L1正則化項を加えて、最適解として以下のように表す(例えば非特許文献6参照)。
maxqC+αqR+β||q||
=maxq(C+αR)+β||q||
s.t. Σnn=1
α:信頼度比の重要性を制御するパラメータ
β:スパース性を制御するパラメータ
L1正則化項によって、求めた分布が「疎」になるため、使用する追跡器の数を減少させることができる。これによって、少ない追跡器で、効率良く、追跡することができる。尚、信頼度比は、後述する追跡器記憶部14によって記憶される。そして、信頼度比が高い追跡器は、その後、選択される確率が高くなるようにDsnapが設定される。
(B2)現在追跡器(u=0)の場合
M個の現在追跡器tkrt 1〜tkrt Mの中から、一様分布を用いて1個の追跡器を選択する。その確率分布Dbranchは、例えば以下のように表される。
Dbranch=P(tkrt|u=0)=1/M
現在追跡器全てを、等確率Dbranch=1/Mで選択する(図8c参照)。
尚、パーティクル生成部121における追跡器のパラメータ自体は、全て同じ(時刻tにおける1つの追跡器を複製したもの)である。その後、後述する相関フィルタ学習部15によって、追跡器毎にパラメータが学習される。そして、追跡器の各パーティクルへの割り当ては、前述した追跡器tkrtの割り当てに基づく。
<4.パーティクルstに対する重みの割り当て>
パーティクル生成部121は、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てる。
「重み」は、具体的には、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値である。
[位置決定部131]
位置決定部131は、パーティクル生成部121によって算出された「重み」が、最大となるパーティクルs^tを決定する。そのパーティクルs^tの矩形領域は、b^tと表す。
具体的には、重みが最大値となる位置は、パラボラフィッティングに基づくサブピクセル推定によって決定される(例えば非特許文献5参照)。これにより、ピクセル単位と比較して、細かな(正確な)位置座標値を決定することができる。
図9は、本発明における位置決定部の処理を表す説明図である。
時刻tにおける応答マップYtの中で、重みが最大値となる(図9の●、正解位置を中心とする)パーティクルs^tの矩形領域b^tを決定する。
w^=w1、 h^=h1
x^=i^−w^/2、 y^=j^−h^/2
(x^,y^):時刻tに決定されたパーティクルstにおける矩形領域の左上頂点
w^:時刻tに決定されたパーティクルstの矩形領域の横幅
h^:時刻tに決定されたパーティクルstの矩形領域の縦幅(高さ)
(i^,j^):時刻tに決定されたパーティクルstの矩形領域の中心
1:初期フレームで決定されたパーティクルstの矩形領域の横幅
1:初期フレームで決定されたパーティクルstの矩形領域の縦幅(高さ)
尚、w1及びh1について、他の値として、例えば、時刻t−1で決定されたパーティクルの矩形領域の横幅及び縦幅を用いてもよい。
[追跡器記憶部14]
追跡器記憶部14は、時刻tにおけるパーティクルs^t毎に、相関フィルタのパラメータαtと、ベースサンプルxtと、重みctと、信頼度比rtとをそれぞれ記憶する。
A=(α12,・・・)
X=(x1,x2,・・・)
C=(c1,c2,・・・)
R=(r1,r2,・・・)
[相関フィルタ学習部15]
相関フィルタ学習部15は、時刻tで決定されたパーティクルs^tの矩形領域について、KFCのパラメータαを更新する(例えば非特許文献3参照)。その後、繰り返される応答マップ生成部111は、時刻t+1で、更新されたパラメータαによって応答マップYを生成する。
図10は、相関フィルタ学習部の処理を表す説明図である。
相関フィルタ学習部15は、最初に、決定されたパーティクルs^tの矩形領域b^tについて、HOG特徴量Xを算出する。前述した応答マップ生成部11と同様に算出したカーネルkXZを用いて、以下のようにパラメータαを更新する。
α^=y^/(k^XZ+λ)
y:リッジ(Ridge)回帰の教師データ
λ:正則化項の係数
^:フーリエ変換
現在時刻tにおける追跡器tkrt 1, tkrt 2,・・・, tkrt M毎に、KFCのパラメータαを学習する。具体的には、全パーティクルの中をtkrtの値ごとに分割し、各分割の中で最も重みが高いパーティクルs^tの矩形領域b^tに基づいてパラメータαを更新する。
尚、追跡の信頼度が低下している場合、相関フィルタの学習によって追跡位置のずれが増大する可能性もある。これに対して、相関フィルタの学習を実行する頻度を、例えば数フレームに1回といった頻度にまで低下させることもできる。これにより、追跡位置のずれの増大を抑制することができる。
図11は、本発明の物体追跡処理を表す具体的フローチャートである。
図11によれば、図3の基本フローチャートに、具体的な構成要素が追加されたものである。以下では、図3と異なる、以下の構成要素のみを説明する。
(特徴量抽出部10):図3と同様
(応答マップ生成部111):図3と同様
[追跡モード判定部112]
[追跡信頼度判定部113]
(パーティクル生成部121):図3と同様
[状態予測部122]
[重み更新部123]
(位置決定部131):図3と同様
[リサンプリング部132]
(追跡器記憶部14):図3と同様
(相関フィルタ学習部15):図3と同様
[追跡モード判定部112]
前提として、パーティクルフィルタモード又は通常モードを表す「追跡モード」を定義する。パーティクル生成部121は、パーティクルを生成した後、追跡モードを、パーティクルフィルタモードへ移行させる。また、パーティクル生成部121は、追跡モードがパーティクルフィルタモードである場合、実行されない。
追跡モード判定部112は、応答マップ生成部111の次段として機能する。
追跡モード判定部112は、追跡モードがパーティクルモードでなければ、追跡信頼度判定部113へ処理を移行する。
また、追跡モード判定部112は、追跡モードがパーティクルフィルタモードであっても、応答マップにおける加重分散varが所定閾値ε以下であれば、パーティクルフィルタモードを解除する。即ち、通常モードへ移行する。そして、追跡信頼度判定部113へ処理を移行する。
一方で、追跡モード判定部112は、追跡モードがパーティクルモードであって、且つ、応答マップにおける加重分散varが所定閾値εよりも大きい場合、後述する状態予測部122へ処理を移行する。
尚、追跡モード判定部112は、パーティクルフィルタモードへ移行してから一定時間経過後に、パーティクルフィルタモードを解除し、通常モードへ移行するものであってもよい。
<追跡モードの判定>
追跡モード判定部112は、パーティクルの収束度によって、追跡モードを判定する。具体的には、パーティクルの加重分散を用いる。n番目のパーティクルの状態をsnとすると、加重平均は以下ように表される。
mean=Σnnn
矩形領域bと追跡器tkrとは、異なるものであるために、加重分散は、以下のように算出する。
var=Σnnd(sn,mean)
=Σnn(sn−mean)−1(sn−mean)
S:分散共分散行列
加重分散を用いることによって、各次元のスケールが正規化され、適切に収束度を測ることができる。尚、追跡モード判定部112について、加重分散を例として説明したが、それに代えて、若しくは合せて、マハラノビス距離、ユークリッド距離やコサイン距離等の指標を使用してもよい。
var≦εであれば、パーティクルが十分に収束したとし、パーティクルフィルタモードを解除する。追跡モードを通常モードへ移行する場合、以後、全パーティクルの中で最も重みが大きいパーティクルs^tに対応する追跡器tkr^tを用いて追跡する。
[追跡信頼度判定部113]
追跡信頼度判定部113は、時刻tの応答マップYについて追跡信頼度が所定条件に基づいて低いか否かを判定する。
具体的には、時刻tの応答マップYの最大値を追跡信頼度とし、所定条件として最大値が所定閾値未満である場合に、追跡信頼度が低いと判定する。
図12は、本発明における追跡信頼度判定部の処理を表す説明図である。
前述したパーティクル生成部121は、追跡信頼度判定部113によって真と判定された場合にのみ機能する。即ち、パーティクル生成部121は追跡の信頼度が低下し、追跡に失敗する可能性が高まった時、実行される。例えば、追跡対象物体の遮蔽、回転や、変形、画像のブレや輝度変化等が生じた場合、次段で、パーティクルを生成し直すことができる。一方で、パーティクルが十分に収束していない場合には、現状の複数のパーティクルを用いて、追跡結果を安定的に出力することができる。
[状態予測部122]
状態予測部122は、パーティクル生成部121に続いて、又は、パーティクルフィルタモードが維持された追跡モード判定部112に続いて機能する。
状態予測部122は、時刻t-1の矩形領域bt-1 1〜bt-1 Nから、各パーティクルst 1〜st Nの矩形領域bt 1〜bt Nへの遷移が、正規分布に基づくと仮定して、矩形領域bt 1〜bt Nの位置を予測して遷移させる。
状態予測部122は、パーティクル生成部121と同様に、矩形領域btと追跡器tkrtとをそれぞれ、別々の方法でサンプリングする。
<btのサンプリング>
b^t-1を平均ベクトルとした正規分布に従ってパーティクルを生成する。時刻t-1におけるパーティクルの矩形領域b^t-1から、時刻tにおけるパーティクルの矩形領域btへの遷移は、正規分布に基づくランダムウォークを仮定し、次式のように予測される。
P(bt|b^t-1)=N(bt;b^t-1,σ)
P:条件付き確率
N:正規分布
σ:対角行列
また、パーティクルの矩形領域の大きさを変化させない場合には、以下のように表される。
diag(Σ)=[w1/r, h1/r, 0, 0]
1:初期フレームにおける矩形領域の横幅
1:初期フレームにおける矩形領域の縦幅(高さ)
r: 1≦r≦min(Lw, Lh)を満たす実数
<追跡器tkrtのサンプリング>
追跡器tkrtは、ベルヌーイ分布によって出力される2値u∈{0,1}に基づいてサンプリングされる。
u=1の場合、一様分布又は最適化分布に従って、追跡器tkrtをサンプリングする。
u=0の場合、試行回数tkr^t-1に応じて成功確率1の二項分布に従って、追跡器tkrtをサンプリングする(図8(d)参照)。
Dbranch=B(tkr^t-1,1)
[重み更新部123]
重み更新部123は、状態予測部122の次段で機能する。
重み更新部123は、各パーティクルst 1〜st Nの重みを、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値であるとして更新する(図7下段参照)。
応答マップYは、特徴量抽出の際のパラメータcellSizeに依存して大きさが変化する。cellSizeは、特徴量Zを抽出した際のパラメータの1つであり、設定されたcellのサイズとなる(例えば3ピクセル(画素))。
res(ot,bt)=Y((xt-x^t-1)/cellsize+wY,(yt-y^t-1)/cellsize+hY)
wY:横の長さ
hY:縦の長さ
重みresは、全パーティクルの和が1になるように正規化し、応答マップ値となる。
以上のように得られた「重みres」は、矩形領域btのみを用いて算出され、追跡器tkrtを用いていない。このように、直接的に追跡器を評価しないことにより、最適な追跡器の指標をオペレータで設計する必要がなくなる。但し、結果として、間接的に追跡器を評価していることに相当する。
[リサンプリング部132]
リサンプリング部132は、位置決定部131に続いて機能する。
リサンプリング部132は、各パーティクルst 1〜st Nに割り当てられた重みを用いて、より大きい重みのパーティクルstほど、その周囲により多くのパーティクルが配置するように各矩形領域bt 1〜bt Nをリサンプリングする。
これによって、重みが低くなるような矩形領域や追跡器は淘汰されていく。
具体的に、リサンプリング部132は、累積重み曲線を用いて乱数に基づいて、パーティクルの再配置・再構成を行うルーレット選択を用いることができる(例えば非特許文献7参照)。
以上、詳細に説明したように、本発明の物体追跡プログラム、装置及び方法によれば、追跡器の精度を推定することなく、最適なパーティクルの決定により、対応する追跡器を最適な推定器として推定することができる。
即ち、複数の追跡器の中で、最適な追跡器を明示的に設定することなく、状態(物体位置)のパーティクル数を増やすことによって、追跡精度を向上させることができる。即ち、追跡器は、状態推定結果に従って間接的に推定される。
尚、本発明によれば、例えば、多数の人物が移動・滞留したり出入りしたりする場を監視する監視システムや、商店街や商業・サービス施設内における人物の入店、休憩、観戦・イベント参加や移動の状況を調査するためのマーケティング調査システム等、様々なアプリケーションに適用可能である。また、本発明は、ヒューマンコンピュータインタラクションや、ロボティクス等の技術分野についても、例えば、ロボット側の物体認識能力を大きく向上させることができる。
以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 物体追跡装置
1A 通信インタフェース
1B 画像蓄積部
1C 記憶部
1D 制御部
1E アプリケーション
10 特徴量抽出部
111 応答マップ生成部
112 追跡モード判定部
113 追跡信頼度判定部
121 パーティクル生成部
122 状態予測部
123 重み更新部
131 位置決定部
132 リサンプリング部
14 追跡器記憶部
15 相関フィルタ学習部
2 カメラ

Claims (14)

  1. 追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す装置に搭載されたコンピュータを機能させる物体追跡プログラムにおいて、
    時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
    時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
    時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
    前記重みが最大となるパーティクルs^tを決定する位置決定手段と
    してコンピュータを機能させることを特徴とする物体追跡プログラム。
  2. 前記パーティクル生成手段は、応答マップYの中で、最大の極大値から降順にM個の極大値p1〜pMに対して、混合正規分布によって矩形領域bt 1〜bt Nをサンプリングする
    ようにコンピュータを機能させることを特徴とする請求項1に記載の物体追跡プログラム。
  3. 前記パーティクル生成手段における前記所定の追跡器の候補は、
    現在時刻に任意に割り当てられたM個の現在追跡器tkrt 1〜tkrt M、又は、
    過去時刻に決定されたパーティクルs^1〜s^t-1に基づく過去追跡器tkr^1〜tkr^t-1
    であるようにコンピュータを機能させることを特徴とする請求項1又は2に記載の物体追跡プログラム。
  4. 前記パーティクル生成手段は、現在追跡器のみを使用する場合をμ=0とし、過去追跡器のみを使用する場合をμ=1として、0≦μ≦1を予め設定し、平均μとなるようにベルヌーイ分布によって出力される2値u∈{0,1}に基づいて、現在追跡器の中から割り当てるか又は過去追跡器の中から割り当てるかを決定する
    ようにコンピュータを機能させることを特徴とする請求項3に記載の物体追跡プログラム。
  5. 前記パーティクル生成手段は、
    前記過去追跡器を使用する場合、複数の過去追跡器の中から一様分布又は最適化分布でいずれか1個の追跡器を選択し、
    前記現在追跡器を使用する場合、M個の現在追跡器の中から一様分布でいずれか1個の追跡器を選択する
    ようにコンピュータを機能させることを特徴とする請求項3又は4に記載の物体追跡プログラム。
  6. 前記パーティクル生成手段について、前記重みは、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値である
    ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載の物体追跡プログラム。
  7. 前記パーティクル生成手段は、モードを、パーティクルフィルタモードへ移行させると共に、パーティクルフィルタモードである場合には機能しないものであり、
    前記応答マップ生成手段の次段で機能する追跡モード判定手段としてコンピュータを更に機能させ、
    前記追跡モード判定手段は、前記パーティクルフィルタモードである場合、前記応答マップにおける加重分散varが第1の所定閾値以下であれば、前記パーティクルフィルタモードを解除する
    ようにコンピュータを機能させることを特徴とする請求項1から6のいずれか1項に記載の物体追跡プログラム。
  8. 時刻tの応答マップYについて追跡信頼度が所定条件に基づいて低いか否かを判定する追跡信頼度判定手段としてコンピュータを更に機能させ、
    前記パーティクル生成手段は、前記追跡信頼度判定手段によって真と判定された際に機能させる
    ことを特徴とする請求項7に記載の物体追跡プログラム。
  9. 前記追跡信頼度判定手段は、時刻tの応答マップYの最大値を追跡信頼度とし、前記所定条件として前記最大値が所定閾値未満である場合に、前記追跡信頼度が低いと判定する
    ようにコンピュータを機能させることを特徴とする請求項8に記載の物体追跡プログラム。
  10. 前記パーティクル生成手段に続いて、又は、パーティクルフィルタモードが維持された前記追跡モード判定手段に続いて機能する状態予測手段を更に有し、
    前記状態予測手段は、時刻t-1の矩形領域bt-1 1〜bt-1 Nから、各パーティクルst 1〜st Nの矩形領域bt 1〜bt Nへの遷移が、正規分布に基づくと仮定して、矩形領域bt 1〜bt Nの位置を予測して遷移させる
    ようにコンピュータを機能させることを特徴とする請求項9に記載の物体追跡プログラム。
  11. 前記状態予測手段と前記位置決定手段との間で機能する重み更新手段として更に機能させ、
    前記重み更新手段は、各パーティクルst 1〜st Nの重みを、時刻tの各矩形領域bt 1〜bt Nと時刻t-1の矩形領域b^t-1との相対位置における応答マップの値であるとして更新する
    ようにコンピュータを機能させることを特徴とする請求項10に記載の物体追跡プログラム。
  12. 前記位置決定手段に続いて機能するリサンプリング手段として更に機能させ、
    前記リサンプリング手段は、各パーティクルst 1〜st Nに割り当てられた重みを用いて、より大きい重みのパーティクルstほど、その周囲により多くのパーティクルが配置するように各矩形領域bt 1〜bt Nをリサンプリングする
    ようにコンピュータを機能させることを特徴とする請求項1から11のいずれか1項に記載の物体追跡プログラム。
  13. 追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す物体追跡装置において、
    時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
    時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する応答マップ生成手段と、
    時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中から任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てるパーティクル生成手段と、
    前記重みが最大となるパーティクルs^tを決定する位置決定手段と
    を有することを特徴とする物体追跡装置。
  14. 追跡対象の物体が映る時系列の画像群について、画像毎に、当該物体に係る画像領域の決定を繰り返す装置の物体追跡方法において、
    前記装置は、
    時刻tにおける矩形領域btに追跡器tkrtを対応付けてパーティクルst=(bt,tkrt)として表し、
    時刻t-1で決定された画像領域に基づく探索領域について、相関フィルタを用いて時刻tの応答マップYを生成する第1のステップと、
    時刻tのN個の各矩形領域bt 1〜bt Nを、応答マップYの中のM個の極大値p1〜pMに対してサンプリングすると共に、各矩形領域bt 1〜bt Nに、所定の追跡器の候補の中からの任意の1個を割り当ててパーティクルst 1〜st Nを生成し、各パーティクルst 1〜st Nに、各矩形領域bt 1〜bt Nに基づく応答マップの値を、重みとして割り当てる第2のステップと、
    前記重みが最大となるパーティクルs^tを決定する第3のステップと
    を実行することを特徴とする物体追跡方法。

JP2017105746A 2017-05-29 2017-05-29 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 Active JP6757701B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017105746A JP6757701B2 (ja) 2017-05-29 2017-05-29 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017105746A JP6757701B2 (ja) 2017-05-29 2017-05-29 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法

Publications (2)

Publication Number Publication Date
JP2018200628A JP2018200628A (ja) 2018-12-20
JP6757701B2 true JP6757701B2 (ja) 2020-09-23

Family

ID=64668216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017105746A Active JP6757701B2 (ja) 2017-05-29 2017-05-29 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法

Country Status (1)

Country Link
JP (1) JP6757701B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102175491B1 (ko) * 2019-05-08 2020-11-06 군산대학교산학협력단 상관 필터 기반 객체 추적 방법
CN111582349B (zh) * 2020-04-30 2023-03-28 陕西师范大学 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN115953433B (zh) * 2023-02-06 2023-09-19 宿迁学院 一种混合式图像目标跟踪方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4208898B2 (ja) * 2006-06-09 2009-01-14 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
US20100054536A1 (en) * 2006-12-01 2010-03-04 Thomson Licensing Estimating a location of an object in an image
JP2011040993A (ja) * 2009-08-11 2011-02-24 Nikon Corp 被写体追尾プログラム、およびカメラ

Also Published As

Publication number Publication date
JP2018200628A (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
CN109344725B (zh) 一种基于时空关注度机制的多行人在线跟踪方法
JP6654789B2 (ja) 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法
US7596241B2 (en) System and method for automatic person counting and detection of specific events
US7957560B2 (en) Unusual action detector and abnormal action detecting method
EP2345999A1 (en) Method for automatic detection and tracking of multiple objects
US20140307917A1 (en) Robust feature fusion for multi-view object tracking
CN105930822A (zh) 一种人脸抓拍方法及系统
JP6757701B2 (ja) 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法
US20220327676A1 (en) Method and system for detecting change to structure by using drone
Der et al. Probe-based automatic target recognition in infrared imagery
Cao et al. Learning spatial-temporal representation for smoke vehicle detection
Chu et al. Fully unsupervised learning of camera link models for tracking humans across nonoverlapping cameras
CN112651381A (zh) 基于卷积神经网络的视频图像中家畜识别方法及装置
Ahuja et al. A survey of recent advances in crowd density estimation using image processing
Afsar et al. Automatic human trajectory destination prediction from video
CN113065379B (zh) 融合图像质量的图像检测方法、装置、电子设备
Mohanapriya et al. A novel foreground region analysis using NCP-DBP texture pattern for robust visual tracking
Yao et al. An interval type-2 fuzzy logic system for human silhouette extraction in dynamic environments
Huang Moving object detection in low-luminance images
RU2807953C1 (ru) Система сопровождения подвижных объектов на видео
Kumar et al. Pedestrian Tracking in UAV Images With Kalman Filter Motion Estimator and Correlation Filter
Landge Object Detection and Object Tracking Using Background Subtraction for Surveillance Application
Chen et al. A learning-based approach for leaf detection in traffic surveillance video
Zerrouki et al. Adaboost-based algorithm for human action recognition
Ayad et al. Convolutional Neural Network (CNN) Model to Mobile Remote Surveillance System for Home Security

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200831

R150 Certificate of patent or registration of utility model

Ref document number: 6757701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150