JP5216902B2 - 対象物追跡装置及び対象物追跡方法 - Google Patents

対象物追跡装置及び対象物追跡方法 Download PDF

Info

Publication number
JP5216902B2
JP5216902B2 JP2011192418A JP2011192418A JP5216902B2 JP 5216902 B2 JP5216902 B2 JP 5216902B2 JP 2011192418 A JP2011192418 A JP 2011192418A JP 2011192418 A JP2011192418 A JP 2011192418A JP 5216902 B2 JP5216902 B2 JP 5216902B2
Authority
JP
Japan
Prior art keywords
time
search
color distribution
similarity
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011192418A
Other languages
English (en)
Other versions
JP2011243229A (ja
Inventor
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011192418A priority Critical patent/JP5216902B2/ja
Publication of JP2011243229A publication Critical patent/JP2011243229A/ja
Application granted granted Critical
Publication of JP5216902B2 publication Critical patent/JP5216902B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、粒子法を用いて動画像に撮影されている対象物を追跡する対象物追跡装置及び対象物追跡方法の技術に関する。
車、人、魚などの追跡に関する応用分野は多岐に渡り、追跡対象である対象物の重心を検出し、線形モデルを用いて該重心を追跡していく方法などが例として挙げられる。しかしながら、実環境下では建物や他の対象物との重なり等により、追跡中の対象物を見失う場合が多いことが知られている。
そこで、映像(動画像)を構成している時系列な画像フレームを用いてカルマンフィルタや粒子法(パーティクル法)を適用した追跡方法が利用されている(非特許文献1、2参照)。特に、粒子法は対象物の状態変数が非ガウス分布にしたがって変化することをモデル化する技術であるため、対象物の急峻な位置変化に対応することが可能である。以下、従来の粒子法について説明する。
粒子法とは、追跡対象である対象物の状態(位置、大きさ)を直接知ることができない場合に、その状態を統計的に効率よく推定する方法である。通常、対象物の状態は観測された映像の変化、分布からのみ推定することができ、ノイズ等の影響により真の状態を直接把握することは不可能である。
具体的には、図7に示すように、予測モデルと観測モデルの2つの処理体系を通じて、映像から対象物の状態を再帰的に最尤推定する。粒子法では対象物の状態(位置、大きさ)を近似させた数百〜数万のサンプル(追跡指標)を用いるが、一般的には、ある再帰過程において前の時刻t−1の画像フレームのリサンプリング過程から所定数のサンプルSが選択される。
そして、予測モデルにおいて、所定のシステムモデルに従って時刻tにおける各サンプルSの位置が動的にそれぞれ予測される。このとき、予測先に位置付けられるサンプルS’の大きさは均一であり、予測前のサンプルSの大きさ(重み)に応じて1つのサンプルから複数のサンプルに拡散される場合もある。これにより、サンプルの分布密度に変化が生じ、見掛け上、サンプルが拡散、移動することになる。
その後、観測モデルにおいて、時刻tの画像フレームから予測先の位置に対応する重みを求め、予測先に位置付けられている各サンプルS’に対して重み付けをそれぞれ行う。その重みに応じた大きさのサンプルを表示することにより、対象物を追跡することが可能となる。
Greg Welch、外1名、"An Introduction to the Kalman Filter"、TR 95-041、Department of Computer Science University of North Carolina at Chapel Hill、NC 27599-3175、2006年7月24日 北川源四郎 著、"時系列解析入門"、岩波書店、2005年2月24日、p.216-223 "ブラウン運動"、[online]、[平成20年10月27日検索]、インターネット<URL : http://www1.parkcity.ne.jp/yone/math/mathB03_11.htm>
しかしながら、前述した粒子法において対象物を高精度で追跡するには非常に多くのサンプルを必要とするため、サンプル数の増加に伴って予測モデルや観測モデルでの処理時間が増大し、実時間性が失われるという問題があった。具体的には、サンプルSの増加に伴って予測されるサンプルS’も増加するため、結果として観測モデルでの重み付けに時間がかかるという問題があった。
本発明は、上記を鑑みてなされたものであり、粒子法を用いて動画像に撮影されている対象物を高速に追跡可能な対象物追跡装置及び対象物追跡方法を提供することを課題とする。
第1の請求項に係る発明は、粒子法を用いて動画像に撮影されている対象物を追跡する対象物追跡装置において、時系列な複数の画像フレームで構成された動画像を蓄積しておく蓄積手段と、粒子法で用いる所定のシステムモデルに従って、時刻t−1の前記画像フレームに撮影されている対象物を表した追跡指標が次の時刻tで移動する位置を予測する予測手段と、前記時刻tの画像フレームから任意の探索領域を特定し、時刻t−1における前記対象物の色分布q={qu=1...m(但し、qの上に∧記号あり、Σu=1〜m=1であり、mは色分布における画素濃淡値の量子化レベルである)を計算すると共に、時刻tにおける前記探索領域の色分布p(y)={p(y)}u=1...m(但し、pの上に∧記号あり、Σu=1〜m=1であり、yは探索領域の位置である)を計算し、前記対象物の色分布qと前記探索領域の色分布p(y)との類似度ρ(y)≡ρ[p(y),q]=Σu=1〜m√(p(y)q)が大きくなる方向に前記探索領域をシフトさせて当該類似度ρ(y)が最大となる探索領域の位置を探索することを、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、y=(Σi=1〜n_hg(‖(y−x)/h‖))/(Σi=1〜n_hg(‖(y−x)/h‖))(但し、yの上に∧記号あり、wは少なくともΣu=1〜m√(q/(p(y)))を用いて計算される値であり、g(x)はk(x)の一次微分であってg(x)=−((d+2)/(nh))Σi=1〜n_h(x−x)であり、k(x)=0.5(d+2)(1−xx)(xx<1の場合)であり、k(x)=0(xx>1の場合)であり、dは2であり、hは2〜6の範囲で適宜選択される探索領域の半径であり、i(=1〜n_h)は半径h内に含まれる画素の番号である)を用いてシフト先の位置yを計算し、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、計算された類似度ρ[p(y),q]の値が類似度ρ[p(y),q]の値よりも小さくなるまで前記探索領域をシフトさせて反復計算を繰り返す平均値シフト法(但し、前記半径h内に含まれる画素の輝度値が一定値以下の場合には、前記類似度を計算することなく次の探索領域にシフトする)により行う探索手段と、前記追跡指標の予測位置を前記探索位置に修正し、前記時刻tの画像フレームを用いて修正後の予測位置に対応するエッジ強度を計算し、当該エッジ強度を用いて修正後の予測位置に移動させた前記追跡指標に重み付けを行って、時刻tの追跡指標として推定する推定手段と、を有することを要旨とする。
第2の請求項に係る発明は、粒子法を用いて動画像に撮影されている対象物を追跡する対象物追跡装置で処理する対象物追跡方法において、前記対象物追跡装置により、時系列な複数の画像フレームで構成された動画像を蓄積しておくステップと、粒子法で用いる所定のシステムモデルに従って、時刻t−1の前記画像フレームに撮影されている対象物を表した追跡指標が次の時刻tで移動する位置を予測するステップと、前記時刻tの画像フレームから任意の探索領域を特定し、時刻t−1における前記対象物の色分布q={qu=1...m(但し、qの上に∧記号あり、Σu=1〜m=1であり、mは色分布における画素濃淡値の量子化レベルである)を計算すると共に、時刻tにおける前記探索領域の色分布p(y)={p(y)}u=1...m(但し、pの上に∧記号あり、Σu=1〜m=1であり、yは探索領域の位置である)を計算し、前記対象物の色分布qと前記探索領域の色分布p(y)との類似度ρ(y)≡ρ[p(y),q]=Σu=1〜m√(p(y)q)が大きくなる方向に前記探索領域をシフトさせて当該類似度ρ(y)が最大となる探索領域の位置を探索することを、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、y=(Σi=1〜n_hg(‖(y−x)/h‖))/(Σi=1〜n_hg(‖(y−x)/h‖))(但し、yの上に∧記号あり、wは少なくともΣu=1〜m√(q/(p(y)))を用いて計算される値であり、g(x)はk(x)の一次微分であってg(x)=−((d+2)/(nh))Σi=1〜n_h(x−x)であり、k(x)=0.5(d+2)(1−xx)(xx<1の場合)であり、k(x)=0(xx>1の場合)であり、dは2であり、hは2〜6の範囲で適宜選択される探索領域の半径であり、i(=1〜n_h)は半径h内に含まれる画素の番号である)を用いてシフト先の位置yを計算し、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、計算された類似度ρ[p(y),q]の値が類似度ρ[p(y),q]の値よりも小さくなるまで前記探索領域をシフトさせて反復計算を繰り返す平均値シフト法(但し、前記半径h内に含まれる画素の輝度値が一定値以下の場合には、前記類似度を計算することなく次の探索領域にシフトする)により行うステップと、前記追跡指標の予測位置を前記探索位置に修正し、前記時刻tの画像フレームを用いて修正後の予測位置に対応するエッジ強度を計算し、当該エッジ強度を用いて修正後の予測位置に移動させた前記追跡指標に重み付けを行って、時刻tの追跡指標として推定するステップと、を有することを要旨とする。
本発明によれば、粒子法を用いて動画像に撮影されている対象物を高速に追跡可能な対象物追跡装置及び対象物追跡方法を提供することができる。
本実施の形態に係る対象物追跡装置の機能構成を示す機能構成図である。 本実施の形態におけるサンプルの状態を説明するための説明図である。 平均値シフト法におけるバッタチャアア係数の類似度分布を示す図である。 本実施の形態に係る対象物推定装置の処理フローを示すフロー図である。 バッタチャアア係数による類似度に対する各サンプルの位置関係を示す図である。 水槽の中で急峻に泳ぐ2匹の魚を追跡した結果を示す図である。 従来のサンプルの状態を説明するための説明図である。
図1は、本実施の形態に係る対象物追跡装置の機能構成を示す機能構成図である。この対象物追跡装置100は、入力部11と、予測部12と、探索部13と、推定部14と、表示部15と、蓄積部31とを備えた構成である。
入力部11は、水槽で泳ぐ魚や交差点を渡っている人等の移動している対象物が撮影された映像の入力を受け付ける機能を備えている。
蓄積部31は、入力部11で受け付けた後に入力された映像を、時系列な複数の画像フレームとして蓄積しておく機能を備えている。このような蓄積部31としては、例えばメモリ、ハードディスク等の記憶装置を用いることが一般的であり、対象物追跡装置100の内部のみならず、通信ネットワークを介して電気的に接続可能な外部の記憶装置を用いることも可能である。
予測部12は、粒子法における予測モデルの処理と同じ処理を行うものであって、具体的には、粒子法で用いる所定のシステムモデルに従って、時刻t−1の画像フレームに撮影されている追跡対象としての対象物を示したサンプル(追跡指標)が、次の時刻tに移動する位置を予測する機能を備えている。以下、具体的な処理について説明する。
サンプルとは、前述したように対象物の状態(位置、大きさ)を近似させたものであり、通常、数百〜数万のサンプルで構成されている。予測部12は、ある再帰過程において、前の時刻t−1の画像フレームZt−1のリサンプリング過程からN個のサンプルSt−1 (n)を選択する。ここで、各サンプルに対する重み付け量をπt−1 (n)とし、画像フレームがZt−1である場合にサンプルの状態(位置、大きさ)がXt−1である条件付確率をp(Xt−1|Zt−1)とすると、選択後のサンプルの状態を図2の最上段に示すように模式化することができる。図2の最上段に示すサンプルは、重み付け量に応じた大きさで示されている。重み付け量とは、画像フレームから得られる対象物の画像特徴量であって、具体的には、画像強度,エッジ強度,色,テクスチャ強度等を用いることができる。なお、各再帰過程における重み付け量の総和は1になるようにしている。
その後、予測部12は、前述した所定のシステムモデルに従って、選択後のN個のサンプルSt−1 (n)が次の時刻tに移動する予測位置を計算する。ここで、画像フレームがZt−1である場合に時刻tにおける予測されたサンプルの状態(位置、大きさ)がXである条件付確率をp(X|Zt−1)とすると、予測後の状態を図2の上から二段目に示すように模式化することができる。なお、各予測位置に位置付けられる各サンプルの大きさは均一であり、予測前のサンプルの大きさ(重み)に応じて1つのサンプルから複数のサンプルに拡散されている。また、所定のシステムモデルとしては、例えばランダムウォークモデル(非特許文献3参照)や運動モデルを用いることができる。これにより、サンプルの分布密度に変化が生じ、見掛け上、サンプルが拡散、移動することになる。
探索部13は、時刻tの画像フレームから任意の探索領域を特定し、平均値シフト法(Mean Shift法)を用いて時刻t−1における対象物の画像特徴量と時刻tにおける探索領域の画像特徴量との類似度を計算し、この類似度が大きくなる方向に探索領域をシフトさせ、この類似度が最大となる位置を探索する機能を備えている。以下、具体的な処理について説明する。
平均値シフト法は、通常、ノイズ除去を高速に行う方法として知られているが、画像中の対象物をヒストグラムに基づく画像特徴量に置き換えて追跡する方法にも応用されている。ヒストグラムに基づく画像特徴量としては、色彩に関する勾配値(一次微分値:以降、「色分布」と称する)等を用いることができる。すなわち、平均値シフト法とは、追跡対象である対象物の色分布をモデル特徴として、前時刻の画像フレームの追跡結果を中心として次時刻の画像フレーム内で類似領域の探索を行って、対象物を随時追跡していく方法である。ここで、類似領域を単純に探索した場合には探索範囲が膨大となって探索時間の増大や誤検出の可能性があるため、平均値シフト法では、等方的なカーネル(例えば、ガウス分布)で畳み込み積分を行って色分布の平滑化を行い、余分なノイズを抑制して計算の安定化を図ることも可能となっている。以下、より具体的な処理の流れについて説明する。
最初に、探索部13は、時刻tの画像フレームから任意の探索領域を特定し、時刻t−1における対象物の色分布を計算すると共に、時刻tにおける探索領域の色分布を計算する(ステップS101)。ここで、対象物の色分布を式(1)とし、探索領域の色分布を式(2)とする。なお、mは色分布における画素濃淡値の量子化レベルに相当する。また、式(2)のyは探索領域の位置を示している。
次に、探索部13は、対象物の色分布と探索領域の色分布との類似度を計算し、山登り計算によって類似度が最大となる方向に探索領域を移動する(ステップS102)。具体的には、色分布間の類似度を表す指標として、式(3)に示すバッタチャアア係数を用いる。
この係数は2つの色分布間の類似度が高いほど大きな値となり、完全に一致すると1を返す。この係数を最大化する位置yを探索することにより、追跡を実現する。ここで、追跡処理について具体的に説明する。最初に、式(4)を用いて位置yにおける色分布を計算し、式(5)を評価する(ステップS102a)。
続いて、式(6)を用いて移動先の位置yを計算する(ステップS102b)。なお、g(x)はk(x)の一次微分である。また、dの値は2とし、hは2〜6の範囲で適宜選択されるものとする。なお、hは探索領域の半径であり、iは半径h内に含まれる画素の番号(i=1〜n)を示している。
その後、式(7)を用いて位置yにおける色分布を評価し、式(8)を計算する(ステップS102c)。
式(8)の計算結果が式(5)の計算結果よりも小さくなるまでyにyを代入して反復計算を繰り返す(ステップS102d)。
最後に、探索部13は、ステップS102によって類似度が最大となった探索領域の位置を探索位置とする(ステップS103)。
なお、前述したように平均値シフト法における類似度の計算にはバッタチャアア(Bhattacharyya)係数が用いられるので、類似度分布が滑らかとなり、図3に示すように、極値に陥ることなく初期位置(○印)から最も類似している収束位置(▽点)を迅速に探索することが可能となっている。即ち、単純な類似度計算の場合には複数の極大値が存在するが、バッタチャアア係数を用いて類似度を計算する場合には単峰性の極大値(最大値)が得られるので、類似度の平滑化に基づく高速化という効果を得ることができる。
また、ステップS102の処理において、探索部13は、半径hの領域内に含まれる画素の輝度値が一定値以下の場合に、類似度を計算することなく次の探索領域にシフトすることも可能である。例えば、8ビット階調(256階調)の場合において、輝度値が10未満の画素が含まれる探索領域については類似度を計算しないことや、探索領域に含まれる画素のうち10未満の画素については無いものとして取り扱うことことが可能である。類似度計算の対象となる探索領域が少なくなるので、類似度が最大となる探索領域の位置を高速に探索することが可能となる。
推定部14は、粒子法における観測モデルの処理と同じ処理を行うものであって、具体的には、探索部13によって探索された探索位置を用いて予測部12によって予測された予測位置を修正し、時刻tの画像フレームを用いて修正後の予測位置に対応する画像特徴量を計算し、この画像特徴量を用いて修正後の予測位置に移動させたサンプルに重み付けを行って、時刻tの追跡指標として推定する機能を備えている。
粒子法の観測モデルは、前述したように予測モデルで予測された位置のサンプルを用いて重み付けを行うが、本実施の形態に係る推定部14は、図2の下半分に示すように、探索部13で探索された探索位置になるように予測位置を修正する。そして、時刻tの画像フレームZから予測位置に対応する重みを計算して重み付けを行う。その結果、画像フレームがZである場合にサンプルの状態(位置、大きさ)がXである条件付確率をp(X|Z)とすると、重み付け後の状態を図2の最下段に示すように模式化することができる。
表示部15は、重み付け後のサンプルの状態を表示する機能を備えている。
続いて、本実施の形態に係る対象物推定装置の処理フローについて説明する。図4は、本実施の形態に係る対象物推定装置の処理フローを示すフロー図である。最初に、入力部11が、移動している対象物が撮影された映像の入力を受け付けて、時系列な複数の画像フレームとして蓄積部31に蓄積する(ステップS201)。
次に、予測部12が、粒子法で用いる所定のシステムモデルに従って、時刻t−1の画像フレームに撮影されている追跡対象としての対象物を示したサンプルが、次の時刻tに移動する位置を予測する(ステップS202)。
続いて、探索部13が、時刻tの画像フレームから任意の探索領域を特定し、平均値シフト法を用いて時刻t−1における対象物の色分布と時刻tにおける探索領域の色分布との類似度を計算し、この類似度が大きくなる方向に探索領域をシフトさせ、この類似度が最大となる位置を探索する(ステップS203)。
その後、推定部14が、探索位置を用いて予測位置を修正し、時刻tの画像フレームを用いて修正後の予測位置に対応する画像特徴量を計算し、この画像特徴量を用いて修正後の予測位置に移動させたサンプルに重み付けを行って、時刻tのサンプルとして推定する(ステップS204)。
最後に、表示部15が、重み付け後のサンプルの状態を表示する(ステップS205)。
このようなステップS201〜ステップS205の処理を蓄積部31に蓄積されている全ての画像フレームを用いて行うことで、映像に映された対象物を逐次追跡することが可能となる。
図5は、バッタチャアア係数による類似度に対する各サンプルの位置関係を示す図である。3次元表示された分布は、時刻t−1における対象物の色分布と時刻tにおける画像フレームの色分布とのバッタチャアア係数による類似度を示している。また、○印はサンプルを示し、☆印は類似度が最大となる位置を示している。ステップS203及びステップS204の処理により、複数のサンプルが類似度が最大である位置に移動している状態を示している。
図6は、水槽の中で急峻に泳ぐ2匹の魚を追跡した結果を示す図である。図6(a)は従来法での追跡結果を示し、(b)は本実施の形態での追跡結果を示している。従来法の場合には、追跡結果としての○印が2匹の魚のうち1匹の魚についてのみしか表示されていないが、本実施の形態では2匹の魚について表示されているので、急峻に移動する移動体の場合であっても迅速かつ安定的に追跡できていることが理解できる。なお、この追跡では、探索部13での探索処理において、色のヒストグラム分布を用いて類似度を計算している。特に、ロバスト性を高めるためにRGBの色彩情報をHSVのカラー変換モデルを適用し、H(色相)情報を用いて類似計算を行った。Hに関する対象物の画素を0〜360度の範囲でヒストグラム化して30度づつ12分割しておく。そして、12個の分割データを用いて画像フレーム間での探索を行っている。なお、色に代えて対象物の輪郭を追跡する方法もあるが、対象物が魚の場合には観察方向によって大きく形状が変化するため、対象物を見失う場合がある。そのため、画像特徴量として色を用いることで、より安定的に対象物を追跡することが可能となる。
本実施の形態によれば、粒子法における予測モデルの処理と観測モデルの処理との間に平均値シフト法を導入し、平均値シフト法により追跡対象である対象物の画像特徴量に最も類似する画像特徴量の位置を探索し、探索後の位置にサンプルを移動させるので、図2の最下段に示すように観測モデルにおける重み付け計算量が低減され、高速な対象物追跡装置を提供することができる。
最後に、各実施の形態で説明した対象物追跡装置は、コンピュータで構成され、各機能ブロックの各処理はプログラムで実行されるようになっている。また、各実施の形態で説明した対象物追跡装置の各処理動作をプログラムとして例えばコンパクトディスクやフロッピー(登録商標)ディスク等の記録媒体に記録して、この記録媒体をコンピュータに組み込んだり、若しくは記録媒体に記録されたプログラムを、任意の通信回線を介してコンピュータにダウンロードしたり、又は記録媒体からインストールし、該プログラムでコンピュータを動作させることにより、上述した各処理動作を対象物追跡装置として機能させることができるのは勿論である。
なお、本実施の形態で説明した対象物追跡装置は、特にマルチメディア分野,符号化分野,通信分野,映像監視分野の技術分野において応用可能であることを付言しておく。
11…入力部
12…予測部
13…探索部
14…推定部
15…表示部
31…蓄積部
100…対象物追跡装置
S101〜S103,S102a〜S102d…ステップ
S201〜S205…ステップ

Claims (2)

  1. 粒子法を用いて動画像に撮影されている対象物を追跡する対象物追跡装置において、
    時系列な複数の画像フレームで構成された動画像を蓄積しておく蓄積手段と、
    粒子法で用いる所定のシステムモデルに従って、時刻t−1の前記画像フレームに撮影されている対象物を表した追跡指標が次の時刻tで移動する位置を予測する予測手段と、
    前記時刻tの画像フレームから任意の探索領域を特定し、時刻t−1における前記対象物の色分布q={qu=1...m(但し、qの上に∧記号あり、Σu=1〜m=1であり、mは色分布における画素濃淡値の量子化レベルである)を計算すると共に、時刻tにおける前記探索領域の色分布p(y)={p(y)}u=1...m(但し、pの上に∧記号あり、Σu=1〜m=1であり、yは探索領域の位置である)を計算し、前記対象物の色分布qと前記探索領域の色分布p(y)との類似度ρ(y)≡ρ[p(y),q]=Σu=1〜m√(p(y)q)が大きくなる方向に前記探索領域をシフトさせて当該類似度ρ(y)が最大となる探索領域の位置を探索することを、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、y=(Σi=1〜n_hg(‖(y−x)/h‖))/(Σi=1〜n_hg(‖(y−x)/h‖))(但し、yの上に∧記号あり、wは少なくともΣu=1〜m√(q/(p(y)))を用いて計算される値であり、g(x)はk(x)の一次微分であってg(x)=−((d+2)/(nh))Σi=1〜n_h(x−x)であり、k(x)=0.5(d+2)(1−xx)(xx<1の場合)であり、k(x)=0(xx>1の場合)であり、dは2であり、hは2〜6の範囲で適宜選択される探索領域の半径であり、i(=1〜n_h)は半径h内に含まれる画素の番号である)を用いてシフト先の位置yを計算し、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、計算された類似度ρ[p(y),q]の値が類似度ρ[p(y),q]の値よりも小さくなるまで前記探索領域をシフトさせて反復計算を繰り返す平均値シフト法(但し、前記半径h内に含まれる画素の輝度値が一定値以下の場合には、前記類似度を計算することなく次の探索領域にシフトする)により行う探索手段と、
    前記追跡指標の予測位置を前記探索位置に修正し、前記時刻tの画像フレームを用いて修正後の予測位置に対応するエッジ強度を計算し、当該エッジ強度を用いて修正後の予測位置に移動させた前記追跡指標に重み付けを行って、時刻tの追跡指標として推定する推定手段と、
    を有することを特徴とする対象物追跡装置。
  2. 粒子法を用いて動画像に撮影されている対象物を追跡する対象物追跡装置で処理する対象物追跡方法において、
    前記対象物追跡装置により、
    時系列な複数の画像フレームで構成された動画像を蓄積しておくステップと、
    粒子法で用いる所定のシステムモデルに従って、時刻t−1の前記画像フレームに撮影されている対象物を表した追跡指標が次の時刻tで移動する位置を予測するステップと、
    前記時刻tの画像フレームから任意の探索領域を特定し、時刻t−1における前記対象物の色分布q={qu=1...m(但し、qの上に∧記号あり、Σu=1〜m=1であり、mは色分布における画素濃淡値の量子化レベルである)を計算すると共に、時刻tにおける前記探索領域の色分布p(y)={p(y)}u=1...m(但し、pの上に∧記号あり、Σu=1〜m=1であり、yは探索領域の位置である)を計算し、前記対象物の色分布qと前記探索領域の色分布p(y)との類似度ρ(y)≡ρ[p(y),q]=Σu=1〜m√(p(y)q)が大きくなる方向に前記探索領域をシフトさせて当該類似度ρ(y)が最大となる探索領域の位置を探索することを、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、y=(Σi=1〜n_hg(‖(y−x)/h‖))/(Σi=1〜n_hg(‖(y−x)/h‖))(但し、yの上に∧記号あり、wは少なくともΣu=1〜m√(q/(p(y)))を用いて計算される値であり、g(x)はk(x)の一次微分であってg(x)=−((d+2)/(nh))Σi=1〜n_h(x−x)であり、k(x)=0.5(d+2)(1−xx)(xx<1の場合)であり、k(x)=0(xx>1の場合)であり、dは2であり、hは2〜6の範囲で適宜選択される探索領域の半径であり、i(=1〜n_h)は半径h内に含まれる画素の番号である)を用いてシフト先の位置yを計算し、p(y)={p(y)}u=1...mを用いて位置yにおける色分布を計算して、ρ[p(y),q]=Σu=1〜m√(p(y)q)を計算し、計算された類似度ρ[p(y),q]の値が類似度ρ[p(y),q]の値よりも小さくなるまで前記探索領域をシフトさせて反復計算を繰り返す平均値シフト法(但し、前記半径h内に含まれる画素の輝度値が一定値以下の場合には、前記類似度を計算することなく次の探索領域にシフトする)により行うステップと、
    前記追跡指標の予測位置を前記探索位置に修正し、前記時刻tの画像フレームを用いて修正後の予測位置に対応するエッジ強度を計算し、当該エッジ強度を用いて修正後の予測位置に移動させた前記追跡指標に重み付けを行って、時刻tの追跡指標として推定するステップと、
    を有することを特徴とする対象物追跡方法。
JP2011192418A 2011-09-05 2011-09-05 対象物追跡装置及び対象物追跡方法 Expired - Fee Related JP5216902B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011192418A JP5216902B2 (ja) 2011-09-05 2011-09-05 対象物追跡装置及び対象物追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011192418A JP5216902B2 (ja) 2011-09-05 2011-09-05 対象物追跡装置及び対象物追跡方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008293429A Division JP2010122734A (ja) 2008-11-17 2008-11-17 対象物追跡装置、対象物追跡方法及び対象物追跡プログラム

Publications (2)

Publication Number Publication Date
JP2011243229A JP2011243229A (ja) 2011-12-01
JP5216902B2 true JP5216902B2 (ja) 2013-06-19

Family

ID=45409750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011192418A Expired - Fee Related JP5216902B2 (ja) 2011-09-05 2011-09-05 対象物追跡装置及び対象物追跡方法

Country Status (1)

Country Link
JP (1) JP5216902B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106293565B (zh) * 2015-06-05 2019-02-12 福建星网视易信息系统有限公司 一种基于粒子运动模型的模拟显示方法及装置
CN106709939B (zh) * 2016-12-09 2019-07-23 中国电子科技集团公司第三研究所 目标跟踪方法和目标跟踪装置
US9946960B1 (en) * 2017-10-13 2018-04-17 StradVision, Inc. Method for acquiring bounding box corresponding to an object in an image by using convolutional neural network including tracking network and computing device using the same
KR101982942B1 (ko) * 2017-12-21 2019-05-27 건국대학교 산학협력단 객체 추적 방법 및 이를 수행하는 장치들
CN113610888B (zh) * 2021-06-29 2023-11-24 南京信息工程大学 一种基于高斯平滑的孪生网络目标跟踪方法
CN117409044B (zh) * 2023-12-14 2024-06-14 深圳卡思科电子有限公司 一种基于机器学习的智能对象动态跟随方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590999B1 (en) * 2000-02-14 2003-07-08 Siemens Corporate Research, Inc. Real-time tracking of non-rigid objects using mean shift
FR2885719B1 (fr) * 2005-05-10 2007-12-07 Thomson Licensing Sa Procede et dispositif de suivi d'objets dans une sequence d'images
CA2664187A1 (en) * 2006-09-29 2008-04-03 Thomson Licensing Dynamic state estimation

Also Published As

Publication number Publication date
JP2011243229A (ja) 2011-12-01

Similar Documents

Publication Publication Date Title
JP5216902B2 (ja) 対象物追跡装置及び対象物追跡方法
CN109214403B (zh) 图像识别方法、装置及设备、可读介质
CN110246148B (zh) 多模态的深度信息融合和注意力学习的显著性检测方法
CN109598735A (zh) 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备
CN109063549B (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN111161314B (zh) 目标对象的位置区域确定方法、装置、电子设备及存储介质
US9286663B2 (en) Method and apparatus for filtering an image using a guidance image
JP2010122734A (ja) 対象物追跡装置、対象物追跡方法及び対象物追跡プログラム
CN116664450A (zh) 基于扩散模型的图像增强方法、装置、设备及存储介质
CN107622507B (zh) 一种基于深度学习的空中目标跟踪方法
CN113077516B (zh) 一种位姿确定方法及相关设备
CN111523447A (zh) 车辆跟踪方法、装置、电子设备及存储介质
CN110147768B (zh) 一种目标跟踪方法及装置
CN111914878A (zh) 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质
CN112802108B (zh) 目标对象定位方法、装置、电子设备及可读存储介质
JP5674550B2 (ja) 状態追跡装置、方法、及びプログラム
CN114140469A (zh) 一种基于多层注意力的深度分层图像语义分割方法
Liu et al. ACDnet: An action detection network for real-time edge computing based on flow-guided feature approximation and memory aggregation
CN111127510B (zh) 一种目标对象位置的预测方法及装置
Wang et al. AAC: Automatic augmentation for crowd counting
KR101309519B1 (ko) 객체 추적 장치 및 방법
CN111583321A (zh) 图像处理装置、方法及介质
JP4800367B2 (ja) 移動対象抽出装置、移動対象抽出方法及び移動対象抽出プログラム
CN112801890A (zh) 一种视频处理方法、装置及设备
CN116958873A (zh) 行人跟踪方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

R150 Certificate of patent or registration of utility model

Ref document number: 5216902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees