JP4582174B2 - 追跡処理装置、追跡処理方法、プログラム - Google Patents
追跡処理装置、追跡処理方法、プログラム Download PDFInfo
- Publication number
- JP4582174B2 JP4582174B2 JP2008087321A JP2008087321A JP4582174B2 JP 4582174 B2 JP4582174 B2 JP 4582174B2 JP 2008087321 A JP2008087321 A JP 2008087321A JP 2008087321 A JP2008087321 A JP 2008087321A JP 4582174 B2 JP4582174 B2 JP 4582174B2
- Authority
- JP
- Japan
- Prior art keywords
- state variable
- detection
- information
- current time
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Description
つまり、前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手段と、それぞれが追跡対象に関連した所定の検出対象についての検出を行う、複数の検出手段と、上記複数の検出手段により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手段と、上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手段と、上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手段と、上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手段と、を備え、上記副情報生成手段は、上記複数の検出手段により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出手段の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出手段により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、上記状態変数サンプル取得手段は、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出手段の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する、こととした。
統合追跡処理部1は、基本的な動作として、時刻t(現時刻)における観測値(t)と、時刻t-1(前時刻)における状態変数分布(t-1)(前時刻の主状態変数確率分布情報)とに基づいて、Condensation(コンデンセーション法)の追跡アルゴリズムに従った追跡処理により、推定結果として時刻tにおける状態変数分布(t) (現時刻の主状態変数確率分布情報)を得ることができる。ここで、状態変数分布とは、状態変数についての確率分布をいう。
この図2において示される斑点の中心のそれぞれがサンプル点となる。これらのサンプルの集合(サンプルセット)は、事前分布(prior density)からランダムに発生されたサンプルとして得られる。各サンプルには、観測値に応じた重み付けが行われており、重み付けの値は、図における斑点のサイズにより表現されている。そして、このようにして重み付けされたサンプル群に基づいて、事後分布 (posterior density)を求める。
状態変数分布(t-1)としてのサンプルセットを形成する、N個の重み付けされたサンプルの個々は、下記のようにして表される。
この尤度は、下記のようにして表される。
図4(a)には、状態変数分布(t)を形成する、重み付けされたサンプルから成るサンプルセットが示される。このサンプルセットは、図3のステップS101によりリサンプリングされる対象となる。図4(a)の斑点と図4(b)のサンプルとの間での矢印で示される対応からも分かるように、ステップS101によっては、図4(a)に示されるサンプルセットのうちから、例えば重み付けの程度に応じて選択された位置のサンプルをリサンプリングするようにされる。
図4(b)は、リサンプリングにより得られたサンプルセットを示す。また、このリサンプリングの処理は、driftともいわれる。
なお、このサンプル位置の移動は、状態変数分布(t-1)を基として、ステップS101、S102の手順を経ることで得られたサンプルセットのみを対象として行われる。ステップS103により副状態変数分布(t)からサンプリングして得られたサンプルセットについては、上記サンプル位置の移動は行わず、そのまま、図4(c)に対応する状態変数サンプル(t)の候補として扱う。ステップS105では、図4(c)に示される状態変数分布(t-1)を基とするサンプルセットと、副状態変数分布(t)を基とするサンプルセットとのいずれかを、実際の尤度算出に利用するべきサンプルセットとして選択して正規の状態変数サンプル(t)とすることになる。
これを避けるために、図3におけるステップS103、S104の手順の流れにおける実際としては、存在分布gt(X)を基とするサンプルセットを形成するサンプルのうちから、予め設定した所定の比率により、ランダムにいくつかのサンプルを選択したうえで、さらに、これらの選択したサンプルについての調整係数λについては、予め設定した所定の割合、比率に従って、1を設定する。
上記の処理により得られる状態変数分布(t)は、下記のようにして表すことができる。
しかし、導入可能な情報としては、肌色検出以外にも多様に考えることができる。例えば、何らかの方式による追跡アルゴリズムにより得られる情報を導入することも考えられるのであるが、追跡アルゴリズムそれぞれの方式で異なる特徴、利点を有しており、導入すべきものを1つに絞り込むときの判断は難しい。
このようなことからすると、例えばICondensationに基づく統合追跡にあたって、導入する情報を複数化すれば、予測精度、また、ロバスト性などをはじめとして性能の向上が図られることが期待できる。
第1検出部22−1〜22−Kは、それぞれ、所定の検出方式、アルゴリズムによる構成でもって、追跡対象に関連した所定の検出対象についての検出を行う部位とされる。これら第1検出部22−1〜22−Kにより得られる検出結果の情報は、確率分布化部21により取り込む。
検出部22は、検出器22aと検出信号処理部22bを有して成る。
検出器22aは、検出対象に応じてそれを検出するための所定の構成を有する。例えば、肌色検出などであれば、この検出器22aは、撮像を行って、検出信号としての画像信号を得る撮像装置などとなる。
検出信号処理部22bは、検出器22aから出力される検出信号について必要な処理を行って最終的に検出情報を生成して出力するようにして構成される部位となる。例えば上記肌色検出であれば、撮像装置としての検出器22aにて得られる画像信号を取り込み、この画像信号としての画像上において肌色であるとして認識される画像領域部分を検出し、これを検出情報として出力する。
このための手法としては、いくつか考えられるが、ここでは、第1検出部22−1〜22−Kのそれぞれから取り込んだ検出情報を統合して確率分布化することで、存在分布gt(X)が生成されるように構成することとした。そのうえで、存在分布gt(X)を得るための確率分布化の手法としては、GMM(Gaussian Mixture Model:ガウス混合分布)に拡張する手法を採用することとした。つまり、例えば第1検出部22−1〜22−Kのそれぞれから取り込んだ検出情報ごとにガウシアン分布(正規分布)を求め、これを混合、組み合わせるものである。
第1の状態変数サンプル候補生成手段は、図3のステップS101、S102を実行する統合追跡処理部1が対応する。
複数の検出手段は、図5における第1検出部22−1〜第K検出部22−Kが対応する。
副情報生成手段は、図5における確率分布化部21が対応する。
第2の状態変数サンプル候補生成手段は、図3のステップS103、S104を実行する統合追跡処理部1が対応する。
状態変数サンプル取得手段は、図3のステップS105、S106を実行する統合追跡処理部1が対応する。
推定結果生成手段は、図3のステップS107として説明した処理を実行する統合追跡処理部1が対応する。
この場合の統合追跡システムとしては、図7に示すようにして、副状態変数分布出力部2において、第1〜第K検出部22−1〜22−Kのそれぞれに対応させて、K個の確率分布化部21−1〜21−Kが備えられる。
同様にして、残る確率分布化部21−2〜22−Kも、それぞれ、第2検出部22−2〜第K検出部22−Kにて得られる検出情報から確率分布を得る処理を行う。
そして、この場合には、上記のようにして確率分布化部21−1〜21−Kから出力される確率分布の各々を、第1副状態変数分布(t)〜第K副状態変数分布(t)として、統合追跡処理部1に対して並列的に入力させる。
この図に示される統合追跡処理部1の処理として、先ず、状態変数分布(t-1)を基に実行するステップS101、S102は、図3と同様となる。
そのうえで、この場合の統合追跡処理部1は、図におけるステップS103−1・・・S103−K、ステップS104−1・・・S104−Kとして示すように、第1副状態変数分布(t)〜第K副状態変数分布(t)ごとに、サンプリングを行って状態変数サンプル(t)となり得るサンプルセットを生成するとともに、調整係数λを算出しておくようにされる。
そして、この場合のステップS105、S106としては、状態変数分布(t-1)を基とするサンプルセットと、第1〜第K副状態変数分布(t)のそれぞれを基とするサンプルセットとの、1+K組のサンプルセットを選択対象として、例えば予め定められた比率に従っていずれか1組をランダムに選択して状態変数サンプル(t)を取り込むようにされる。後は,図3の場合と同様にして、ステップS107により尤度を求めて、予測結果としての状態変数分布(t)を得る。
統合追跡処理部1では、図8のステップS105において選択するときの選択比率として、第1副状態変数分布(t)〜第K副状態変数分布(t)の間での選択比率について、受け取った信頼度値に基づいて変更設定する。
あるいは、統合追跡処理部1では、図8のステップS107において、調整係数λとともに、信頼度値に応じて設定した重み付け係数(w)を乗算させるという処理とすることも考えられる。
これらの構成により、先の図5に示した構成例の場合と同様にして、検出部22−1〜22−Kの検出情報のうちで、信頼度の高いものに重みが与えられるようにして、統合追跡処理が行われることになる。
あるいは、第1検出部22−1〜第K検出部22−Kは、それぞれの信頼度値を、自身に対応する確率分布化部21−1〜21−Kに対して渡すようにする。そして、確率分布化部21−1〜21−Kでは、受け取った信頼度値に応じて、生成する分布の密度、強度などを変更するというものも考えることができる。
このようにして、副状態変数分布(t)が1つであるにせよ複数であるにせよ、先の構成例と他の構成例では、副状態変数分布(t) (現時刻の副状態変数確率分布情報)について、複数の検出部によって得られる複数の検出情報に基づいて生成しているという点では共通しているといえる。
そして、他の構成例としては、上記してきた処理を実行することにより、単位時間においては、状態変数分布(t-1)に対して、複数の第1〜第K副状態変数(t)を導入する結果を生じるものであり、例えば先に図5、図6により説明した構成と同等の信頼性の向上が図られるものである。
図9は、本実施形態の統合追跡システムを、人物の姿勢の追跡に適用した例である。これに応じて、統合追跡処理部1については、統合姿勢追跡処理部1Aとして示している。また、副状態変数分布出力部2としては、副姿勢状態変数分布出力部2Aとして示している。
また、この図においては、副姿勢状態変数分布出力部2Aの内部構成は、先に図5、図6により示したものに準じている。もちろん、図7、図8に準じて構成することも可能である。この点については、以降説明する他の適用例についても同様である。
この場合には、追跡対象として人物の姿勢が設定される。これに応じて、統合姿勢追跡処理部1Aは、例えば関節位置などを状態変数として設定し、運動モデルとしても人物の姿勢に応じて設定される。
このようにして、複数の姿勢検出部を備えることにより、人物姿勢の推定にあたり、方式、アルゴリズムの異なる複数の推定結果を導入することが可能になる。これにより、例えば、単一の姿勢推定結果のみを導入するような場合と比較して、より高い信頼性を得ることが期待できる。
顔検出の結果を用いることによっては、姿勢推定の対象としている人物についての頭部の中心が高い精度で推定できる。頭部の中心を推定した情報を利用すれば、例えば運動モデルとして、頭部を始点にして階層的に関節の位置を推定していくことができる。
人検出の結果を用いることで、姿勢推定の対象としている人物のボディについての中心(重心)が高い精度で推定でき、この情報を利用すれば、推定対象の人物の位置をより高い精度で推定できる。
このようにして、顔検出及び人検出は、人物の姿勢そのものを検出するものではないが、上記したことから理解されるように、その検出情報は、姿勢検出部22Aの検出情報と同様、人物の姿勢推定に大きく関連するものとして扱える。
1つは、先に本出願人により出願した3次元ボディトラッキング手法である(特願2007-200477)。また、もう1つは、「岡田 隆三,シュテンガ ビヨン.“シルエットを用いたTree-Based Filteringによる人体の姿勢推定”. In Proc. of 画像の認識・理解シンポジウム,2006.」に記載される姿勢推定の手法である。
この場合の統合人物移動追跡処理部1Bは、追跡対象が人物の移動軌跡となるように、しかるべき状態変数や運動モデルなどのパラメータを設定することになる。
人検出の結果を用いることで、追跡対象とされて画像内で移動する人物のボディについての中心(重心)を追跡していくことができる。
この赤外光画像利用検出部22Eによる人検出の結果によっても、追跡対象とされて画像内で移動する人物のボディについての中心(重心)を追跡していくことができるが、特に、赤外光画像を利用していることで、光量の少ない環境で撮影が行われているような場合に、この検出情報の信頼性は高くなる。
このセンサ22Fとしての検出部22aは、上記のジャイロセンサや角速度センサなどの検出素子とされ、検出信号処理部22bでは、これらの検出素子からの検出信号から、移動速度、移動方向などを演算して求めるようにされる。このようして求めた移動速度や移動方向の情報を、検出情報として確率分布化部21に出力する。
この場合の統合車両追跡処理部1Cは、車両を追跡対象とするように、しかるべき状態変数や運動モデルなどのパラメータを設定することになる。
この車両検出の結果を用いることで、追跡対象とされて画像内で移動する車両の位置を認識できる。
GPS22Gも同様に、追跡対象の車両に取り付けられることで、その位置情報を検出情報として得ることができる。
この場合の統合飛行体追跡処理部1Dは、車両を追跡対象とするように、しかるべき状態変数や運動モデルなどのパラメータを設定することになる。
この飛行体検出の結果を用いることで、追跡対象とされて画像内で移動する飛行体の位置を認識できる。
GPS22Gも同様に、追跡対象の車両に取り付けられることで、その位置情報を検出情報として得ることができる。
「D. Demirdjian, T. Ko and T. Darrell. “Constraining Human Body Tracking”. Proceedings of ICCV, vol.2, pp.1071, 2003.」
には、ICP(Iterative Closest Point)レジスタ手法によって独立的に求めた各パートの動きを、線形運動空間において関節拘束を満たす運動に射影する手法が提案されている。
当該射影の方向はICPの相関行列Σ−1によって決定される。
先に本出願人が出願した発明(特願2007-200477)は、上記ような状況に鑑みてなされたものであり、ICPレジスタ手法に比較して、より少ない演算量、より高い精度で安定的に3次元ボディトラッキングを行おうとするものである。なお、以降において、この先に本出願人が出願した発明(特願2007-200477)による3次元ボディトラッキングについては、図9において実施形態として示した統合姿勢追跡システムにおける姿勢検出部22Aとして採用されることにちなみ、実施形態対応の3次元ボディトラッキングということにする。
り、次式(3)に示される4×4の行列、または6次元のベクトルで表記される。
ただし、
である。
Δ*=λ1v1+λ2v2+…+λKvK
・・・(17)
Δ*=Vδ
・・・(18)
(Vδ−Δ)tC(Vδ−Δ)
・・・(19)
δ=(VtCV)−1VtCΔ
・・・(20)
Δ*=V(VtCV)−1VtCΔ
・・・(21)
Δ*=V(VtΣ−1V)−1VtΣ−1Δ
・・・(22)
ただし、Σ−1はICPの相関行列である。
[αi,βi,γi,xi,yi,zi]t
Xn=Pi+G(dαi,dβi,dγi,dxi,dyi,dzi)・(Xn−1−Pi)
・・・(24)
ri×(Jij−Pi)+ti=tj
−(Jij−Pi)×ri+ti−tj=0
[Jij−Pi]×・ri−ti+tj=0
・・・(28)
なお、式(28)における演算子[・]×は、式(13)の場合と同様である。
ΦΔ=0
・・・(32)
Δ ∈ null space{Φ}
・・・(33)
ただし、第2の表記方法に対応する過程においては、第1の表記方法に対応する過程で定義された6×6の行列Cij(式(14))の代わりに、次式(35)に示す6×6の行列Cijを定義して用いる。
Δ*=[dα0*,dβ0*,dγ0*,dx0*,dy0*,dz0*,・・・]t
となり運動パラメータそのものであるので、次のフレーム画像における3次元ボディの生成にそのまま直接用いることができる。
この検出部22Aは、カメラ(撮像装置:検出器22a)などによって撮影されたフレーム画像を取得するフレーム画像取得部111、前フレーム画像に対応する3次元ボディ画像と現フレーム画像とに基づいて3次元ボディを構成する各パートの動き(関節拘束のない運動ベクトルΔに相当)を予測する予測部112、予測結果を式(21)に適用して関節拘束のある運動ベクトルΔ*を決定する運動ベクトル決定部113、および、前フレーム画像に対応する生成済みの3次元ボディ画像を、決定された関節拘束のある運動ベクトルΔ*を用いて変換することにより現フレームに対応する3次元ボディ画像を生成する3次元ボディ画像生成部114から構成される。
取得して予測部12に供給する。予測部12は、3次元ボディ画像生成部14からフィードバックされた、前フレーム画像F0に対応する3次元ボディ画像B0を取得する。
統合追跡における必要な処理をソフトウェアにより実現するのにあたっては、そのソフトウェアを構成するプログラムを、統合追跡システムとしてのハードウェア資源であるコンピュータ装置(CPU)に実行させることになる。あるいは、汎用のパーソナルコンピュータなどのコンピュータ装置にプログラムを実行させることで、コンピュータ装置に対して、統合追跡における必要な処理を実行する機能を与えるようにされる。
このようなプログラムは、例えばROMなどに対してなどに書き込んで記憶させるほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインストール(アップデートも含む)させるようにしてマイクロプロセッサ17内の不揮発性の記憶領域に記憶させることが考えられる。また、所定方式のデータインターフェース経由により、他のホストとなる機器からの制御によってプログラムのインストールを行えるようにすることも考えられる。さらに、ネットワーク上のサーバなどにおける記憶装置に記憶させておいたうえで、統合追跡システムとしての装置にネットワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成することも考えられる。
また、コンピュータ装置が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、ドライブ210が接続されている。
入力部206は、キーボード、マウスなどの操作入力デバイスなどよりなる。
また、この場合の入力部20は、本実施形態の統合追跡システムとの対応で、例えば、複数の検出部22ごとに備えられるとされる、検出器22a−1、22a−2・・・22a−Kから出力される検出信号を入力することができるようになっている。
出力部207は、ディスプレイ、スピーカなどよりなる。
記憶部208は、ハードディスクや不揮発性メモリなどよりなる。
通信部209は、ネットワークインタフェースなどよりなる。
ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどとしての記録媒体211を駆動する。
また、実施形態の統合追跡システムが適用できる範囲は、これまでに説明した人物姿勢、人物移動、車両移動、飛行体移動などに限定されるものではなく、他の物体、事象、現象を追跡対象とすることができる。一例として、或る環境における色の変化なども追跡できる。
2 副状態変数分布出力部、2A 副姿勢状態変数分布出力部、2B・2C・2D 副位置状態変数分布出力部、21(21−1〜21−K) 確率分布化部、21a 重み付け設定部、22−1〜22−K 第1〜第K検出部、22A−1〜22A−m 第1〜第m姿勢検出部、22B 顔検出部、22C 人検出部、22D 画像利用人検出部、22E 赤外光画像利用検出部、22F センサ、22G GPS装置、22H 画像利用車両検出部、22I 車両速度検出部、22J 画像利用飛行体検出部、22K 音検出部、111 フレーム画像取得部、112 予測部、113 運動ベクトル、114 3次元ボディ画像生成部、200 コンピュータ装置、201 CPU、202 ROM、203 RAM、204 バス、205 入出力インターフェース、206 入力部、207 出力部、208 記憶部、209 通信部、210 ドライブ、211 記録媒体
Claims (4)
- 前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手段と、
それぞれが追跡対象に関連した所定の検出対象についての検出を行う、複数の検出手段と、
上記複数の検出手段により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手段と、
上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手段と、
上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手段と、
上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手段と、
を備え、
上記副情報生成手段は、上記複数の検出手段により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出手段の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出手段により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、
上記状態変数サンプル取得手段は、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出手段の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する、
追跡処理装置。 - 上記複数の検出手段は、3次元ボディトラッキング手法に基づく複数の姿勢検出手段、顔検出手段、人検出手段から構成されている請求項1に記載の追跡処理装置。
- 前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手順と、
それぞれが追跡対象に関連した所定の検出対象についての検出を行う検出部により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手順と、
上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手順と、
上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手順と、
上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手順と、
を実行し、
上記副情報生成手順において、上記複数の検出部により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出部の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出部により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、
上記状態変数サンプル取得手順において、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出部の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する、
追跡処理方法。 - 追跡処理装置に、
前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手順と、
それぞれが追跡対象に関連した所定の検出対象についての検出を行う検出部により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手順と、
上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手順と、
上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手順と、
上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手順と、
を実行させ、
上記副情報生成手順において、上記複数の検出部により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出部の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出部により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、
上記状態変数サンプル取得手順において、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出部の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する手順を
実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008087321A JP4582174B2 (ja) | 2008-03-28 | 2008-03-28 | 追跡処理装置、追跡処理方法、プログラム |
US12/410,797 US20090245577A1 (en) | 2008-03-28 | 2009-03-25 | Tracking Processing Apparatus, Tracking Processing Method, and Computer Program |
CN200910129552A CN101546433A (zh) | 2008-03-28 | 2009-03-26 | 跟踪处理装置、跟踪处理方法和计算机程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008087321A JP4582174B2 (ja) | 2008-03-28 | 2008-03-28 | 追跡処理装置、追跡処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009244929A JP2009244929A (ja) | 2009-10-22 |
JP4582174B2 true JP4582174B2 (ja) | 2010-11-17 |
Family
ID=41117270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008087321A Expired - Fee Related JP4582174B2 (ja) | 2008-03-28 | 2008-03-28 | 追跡処理装置、追跡処理方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20090245577A1 (ja) |
JP (1) | JP4582174B2 (ja) |
CN (1) | CN101546433A (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120013462A1 (en) * | 2005-09-28 | 2012-01-19 | Tuck Edward F | Personal radio location system |
US7733224B2 (en) | 2006-06-30 | 2010-06-08 | Bao Tran | Mesh network personal emergency response appliance |
CN101414307A (zh) * | 2008-11-26 | 2009-04-22 | 阿里巴巴集团控股有限公司 | 提供图片搜索的方法和服务器 |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US20110257846A1 (en) * | 2009-11-13 | 2011-10-20 | William Bennett | Wheel watcher |
CN102316394B (zh) * | 2010-06-30 | 2014-09-03 | 索尼爱立信移动通讯有限公司 | 蓝牙设备和利用该蓝牙设备的音频播放方法 |
CN101945210B (zh) * | 2010-09-29 | 2012-07-25 | 无锡中星微电子有限公司 | 运动跟踪预测方法 |
DE102011076779A1 (de) * | 2011-05-31 | 2012-12-06 | Airbus Operations Gmbh | Verfahren und Vorrichtung zur Vorhersage des Zustands einer Komponente oder eines Systems, Computerprogrammprodukt |
US8953889B1 (en) * | 2011-09-14 | 2015-02-10 | Rawles Llc | Object datastore in an augmented reality environment |
US20140313345A1 (en) * | 2012-11-08 | 2014-10-23 | Ornicept, Inc. | Flying object visual identification system |
JP6366999B2 (ja) * | 2014-05-22 | 2018-08-01 | 株式会社メガチップス | 状態推定装置、プログラムおよび集積回路 |
JP6482844B2 (ja) * | 2014-12-11 | 2019-03-13 | 株式会社メガチップス | 状態推定装置、プログラムおよび集積回路 |
CN111626194B (zh) * | 2020-05-26 | 2024-02-02 | 佛山市南海区广工大数控装备协同创新研究院 | 一种使用深度关联度量的行人多目标跟踪方法 |
KR20220131646A (ko) * | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141687A (ja) * | 2003-11-10 | 2005-06-02 | Nippon Telegr & Teleph Corp <Ntt> | 物体追跡方法、物体追跡装置、物体追跡システム、プログラム、および、記録媒体 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5991441A (en) * | 1995-06-07 | 1999-11-23 | Wang Laboratories, Inc. | Real time handwriting recognition system |
JP4517633B2 (ja) * | 2003-11-25 | 2010-08-04 | ソニー株式会社 | 対象物検出装置及び方法 |
JP4208898B2 (ja) * | 2006-06-09 | 2009-01-14 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
-
2008
- 2008-03-28 JP JP2008087321A patent/JP4582174B2/ja not_active Expired - Fee Related
-
2009
- 2009-03-25 US US12/410,797 patent/US20090245577A1/en not_active Abandoned
- 2009-03-26 CN CN200910129552A patent/CN101546433A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141687A (ja) * | 2003-11-10 | 2005-06-02 | Nippon Telegr & Teleph Corp <Ntt> | 物体追跡方法、物体追跡装置、物体追跡システム、プログラム、および、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN101546433A (zh) | 2009-09-30 |
JP2009244929A (ja) | 2009-10-22 |
US20090245577A1 (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4582174B2 (ja) | 追跡処理装置、追跡処理方法、プログラム | |
JP6534664B2 (ja) | カメラ動き予測及び修正のための方法 | |
JP5012615B2 (ja) | 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム | |
JP4304639B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP5355074B2 (ja) | 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム | |
JP6584208B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5555207B2 (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP6776882B2 (ja) | 運動解析装置、方法及びプログラム | |
CN111414797B (zh) | 用于估计对象的姿势和姿态信息的系统和方法 | |
JP2003346157A (ja) | 物体追跡装置及び方法 | |
WO2009154294A1 (ja) | 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体 | |
JPWO2005124687A1 (ja) | 光学式モーションキャプチャシステムにおけるマーカトラッキング方法、光学式モーションキャプチャ方法及びシステム | |
JP2017053795A (ja) | 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム | |
JP2022518783A (ja) | ロボットデバイスの状態を使用した環境のマッピング | |
WO2018235219A1 (ja) | 自己位置推定方法、自己位置推定装置および自己位置推定プログラム | |
US7580546B2 (en) | Marker-free motion capture apparatus and method for correcting tracking error | |
Richa et al. | Robust 3d visual tracking for robotic-assisted cardiac interventions | |
JP2009178782A (ja) | 移動体、環境地図生成装置、及び環境地図生成方法 | |
WO2012029878A1 (ja) | 環境マップ作成装置及び方法、行動予測装置及び方法 | |
JP2007034964A (ja) | カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム | |
Teixeira et al. | Deep learning approaches assessment for underwater scene understanding and egomotion estimation | |
JP2004224171A (ja) | 人工衛星の姿勢決定装置 | |
JP6315542B2 (ja) | 画像生成装置及び画像生成方法 | |
JP2009075713A (ja) | 感情判定方法 | |
WO2021181902A1 (ja) | ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100803 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100816 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130910 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |