JP4582174B2 - 追跡処理装置、追跡処理方法、プログラム - Google Patents

追跡処理装置、追跡処理方法、プログラム Download PDF

Info

Publication number
JP4582174B2
JP4582174B2 JP2008087321A JP2008087321A JP4582174B2 JP 4582174 B2 JP4582174 B2 JP 4582174B2 JP 2008087321 A JP2008087321 A JP 2008087321A JP 2008087321 A JP2008087321 A JP 2008087321A JP 4582174 B2 JP4582174 B2 JP 4582174B2
Authority
JP
Japan
Prior art keywords
state variable
detection
information
current time
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008087321A
Other languages
English (en)
Other versions
JP2009244929A (ja
Inventor
玉宇 劉
啓介 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008087321A priority Critical patent/JP4582174B2/ja
Priority to US12/410,797 priority patent/US20090245577A1/en
Priority to CN200910129552A priority patent/CN101546433A/zh
Publication of JP2009244929A publication Critical patent/JP2009244929A/ja
Application granted granted Critical
Publication of JP4582174B2 publication Critical patent/JP4582174B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Description

本発明は、特定の物体を対象として追跡を行う追跡処理装置と、その方法に関する。また、このような追跡処理装置が実行するプログラムに関する。
特定の物体の動きを追跡するための追跡処理の各種の手法、アルゴリズムが知られている。例えば非特許文献1には、ICondensationといわれる追跡処理の手法が記載されている。
M. Isard and A. Blake. "ICondensation: Unifying low-level and high-level tracking in a stochastic framework". In Proc. of 5th European Conf. Computer Vision (ECCV), vol.1, pp.893-908, 1998 特開2007−333690号公報
本願発明としては、追跡処理に関して、これまでに提案されている手法よりも精度、ロバスト性などが向上されるようにして、よりも高性能なものを得ることをその課題とする。
そこで本発明は上記した課題を考慮して、追跡処理装置として次のように構成する。
つまり、前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手段と、それぞれが追跡対象に関連した所定の検出対象についての検出を行う、複数の検出手段と、上記複数の検出手段により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手段と、上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手段と、上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手段と、上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手段と、を備え、上記副情報生成手段は、上記複数の検出手段により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出手段の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出手段により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、上記状態変数サンプル取得手段は、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出手段の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する、こととした。
上記構成では、追跡処理として、前時刻の主状態変数確率分布情報と現時刻の副状態変数確率分布情報とを統合して、追跡対象についての推定結果(現時刻の主状態変数確率分布情報)を得るものとされたうえで、現時刻の副状態変数確率分布情報の生成にあたっては、複数の検出情報を導入するものとしている。これにより、単一の検出情報のみにより現時刻の副状態変数確率分布情報を生成する場合と比較すれば、現時刻の副状態変数確率分布情報が有する精度は高められる。
これにより本発明は、追跡処理の推定結果について、より高い精度、ロバスト性が与えられるものであり、結果、より優れた性能の追跡処理を行えることになる。
図1のブロック図は、本願発明を実施するための最良の形態(以下、実施形態という)の前提となる追跡処理のシステム(追跡システム)の構成例を示している。この追跡処理システムは、非特許文献1に記載される、ICondensation(アイコンデンセーション法)といわれる追跡アルゴリズムに基づいている。
図1の追跡システムは、統合追跡処理部1と副状態変数分布出力部2を有する。
統合追跡処理部1は、基本的な動作として、時刻t(現時刻)における観測値(t)と、時刻t-1(前時刻)における状態変数分布(t-1)(前時刻の主状態変数確率分布情報)とに基づいて、Condensation(コンデンセーション法)の追跡アルゴリズムに従った追跡処理により、推定結果として時刻tにおける状態変数分布(t) (現時刻の主状態変数確率分布情報)を得ることができる。ここで、状態変数分布とは、状態変数についての確率分布をいう。
また、副状態変数分布出力部2は、上記統合追跡処理部1側の推定結果である状態変数分布(t)と関連する所定の対象について推定した、時刻tにおける状態変数分布である、副状態変数分布(t)(現時刻の副状態変数確率分布情報)を生成して出力する。
一般に、Condensationに基づく追跡処理が可能な統合追跡処理部1から成るシステムと、副状態変数分布出力部2として実際に適用されるシステムとは、それぞれ独立して、同じ対象についての状態変数分布(t)を得ることができる。しかし、ICondensationでは、Condensationに基づく追跡処理を主体として、Condensationに基づいて得られる時刻tの状態変数分布と、他のシステムにより得られる時刻tの状態変数分布とを統合することにより、最終的な処理結果である状態変数分布(t)を求める。つまり、図1との対応では、統合追跡処理部1が、Condensationに基づく追跡処理により内部にて求めたとする状態変数分布(t)と、副状態変数分布出力部2にて得られる副状態変数分布(t)とを統合することによって、最終的な状態変数分布(t)を求めて出力するものである。
ここで、図1の統合追跡処理部1が扱う状態変数分布(t-1)、状態変数分布(t)は、例えばCondensation、ICondensationに従って、Monte-Carlo(モンテカルロ)法に基づいてサンプル群(サンプルセット)に重み付けして表現される確率分布となる。この概念を、図2に示す。なお、この図では、一次元の場合を示しているが、多次元に拡張することも可能である。
この図2において示される斑点の中心のそれぞれがサンプル点となる。これらのサンプルの集合(サンプルセット)は、事前分布(prior density)からランダムに発生されたサンプルとして得られる。各サンプルには、観測値に応じた重み付けが行われており、重み付けの値は、図における斑点のサイズにより表現されている。そして、このようにして重み付けされたサンプル群に基づいて、事後分布 (posterior density)を求める。
図3は、統合追跡処理部1としての処理の流れを示している。なお、上記しているように、統合追跡処理部1としての処理はICondensationに基づいて構築される。また、ここでの観測値は、説明の都合上、画像に基づくものとしたうえで、時刻(t、t-1)についてはフレーム(t,t-1)に置き換えて説明するものとする。即ち、ここでは、画像のフレームも、時刻としての概念に含まれるものとしている。
先ず、統合追跡処理部1は、ステップS101として、直前のフレームt-1において、統合追跡処理部1により推定結果として得た状態変数分布(t-1)のサンプルセット(フレームt-1におけるサンプルセット)を形成する個々のサンプルを再サンプリングする(リサンプリング)。
ここで、
上記の状態変数分布(t-1)は、

Figure 0004582174
のようにして表される。
また、フレームtにおいて得られるサンプルを
Figure 0004582174
により表すものとした場合、
状態変数分布(t-1)としてのサンプルセットを形成する、N個の重み付けされたサンプルの個々は、下記のようにして表される。

Figure 0004582174
上記数2、数3において、πは重み付け係数を表し、変数nは、サンプルセットを形成するN個のサンプルのうちのn番目であることを表す。
次のステップS102においては、追跡対象物に対応して求めた運動の予測モデル(運動モデル)により、上記ステップS101によりリサンプリングした個々のサンプルを新規な位置に移動させることで、フレームtのサンプルセット(第1の現時刻の状態変数サンプル候補)を生成する。
また、その一方で、統合追跡処理部1は、ステップS103により、フレームtにおいて副状態変数分布出力部2から副状態変数分布(t)を得ることができるのであれば、この副状態変数分布(t)をサンプリングして、そのサンプルセットを生成する。
ステップS103にて生成した副状態変数分布(t)のサンプルセットは、以降の説明から理解されるように、状態変数サンプル(t)のサンプルセットとなり得る(第2の現時刻の状態変数サンプル候補)。しかし、ステップS103にて生成したサンプルセットは、バイアスを有するので、そのまま統合に利用することは好ましくない。そこで、このバイアスをオフセットするための調整のために、ステップS104により、調整係数λを算出して求める。
この調整係数λは、後述の説明から理解されるように、重み付け係数πに対して与えるべきものとされ、例えば下記のようにして求める。

Figure 0004582174
このようにして、状態変数分布(t-1)に基づいてステップS101、S102により得たサンプルセットに対する調整係数(数4に示す)は1で固定でありバイアスオフセット調整は行わない。これに対して、副状態変数分布(t)(存在分布gt(X))に基づいてステップS103により得たサンプルセットのサンプルに対して、ステップS104により求めた有意の調整係数λを割り当てるようにされている。
ステップS105においては、状態変数分布(t-1)に基づいてステップS101、S102により得たサンプルセットと、副状態変数分布(t)に基づいてステップS103により得たサンプルセットとを選択対象として、予め定めた比率(選択比率)に従ってランダムに、いずれか一方のサンプルを選択し、ステップS106によりこれらの選択したサンプルセットを、状態変数サンプル(t)として取り込む。状態変数サンプル(t)としてのサンプルセットを形成する個々のサンプルは、

Figure 0004582174
のようにして表される。
ステップS107においては、調整係数が与えられたサンプルセット(数5)を成す個々のサンプルが有する状態変数の値を利用して、例えば人物姿勢などの追跡対象についてのレンダリングの処理を実行する。そして、このレンダリングにより得られる画像と、実際の観測値(t)(画像)とのマッチングを行い、このマッチングの結果に従って尤度を求める。
この尤度は、下記のようにして表される。

Figure 0004582174
また、ステップS107においては、算出した尤度(数6)に対して、先のステップS104により求めた調整係数(数4)を乗算する。この算出結果が、フレームtにおける状態変数サンプル(t)を形成する個々のサンプルについての重みを表すものとなり、状態変数分布(t)を予測したものとなる。状態変数分布(t)は(数7)のように表される。また、フレームtにおいて予測された分布は、(数8)のようにして表せる。

Figure 0004582174
Figure 0004582174
図4は、上記図3に示した処理の流れを、主にサンプルの状態遷移により模式化して示したものである。
図4(a)には、状態変数分布(t)を形成する、重み付けされたサンプルから成るサンプルセットが示される。このサンプルセットは、図3のステップS101によりリサンプリングされる対象となる。図4(a)の斑点と図4(b)のサンプルとの間での矢印で示される対応からも分かるように、ステップS101によっては、図4(a)に示されるサンプルセットのうちから、例えば重み付けの程度に応じて選択された位置のサンプルをリサンプリングするようにされる。
図4(b)は、リサンプリングにより得られたサンプルセットを示す。また、このリサンプリングの処理は、driftともいわれる。
また、これと併行して、図4(b)における紙面の右側に示されるようにして、図3のステップS103により副状態変数分布(t)をサンプリングすることにより生成されるサンプルセットを得るようにもされる。なお、ここでは図示していないが、この副状態変数分布(t)のサンプリングに伴って、ステップS104による調整係数λの算出も行う。
図4(b)から図4(c)へのサンプルの遷移は、図3のステップS102としての運動モデルによるサンプル位置の移動(diffuse)を示している。従って、図4(c)に示されるサンプルセットは、図6のステップS106により取り込まれるべき状態変数サンプル(t)の候補となる。
なお、このサンプル位置の移動は、状態変数分布(t-1)を基として、ステップS101、S102の手順を経ることで得られたサンプルセットのみを対象として行われる。ステップS103により副状態変数分布(t)からサンプリングして得られたサンプルセットについては、上記サンプル位置の移動は行わず、そのまま、図4(c)に対応する状態変数サンプル(t)の候補として扱う。ステップS105では、図4(c)に示される状態変数分布(t-1)を基とするサンプルセットと、副状態変数分布(t)を基とするサンプルセットとのいずれかを、実際の尤度算出に利用するべきサンプルセットとして選択して正規の状態変数サンプル(t)とすることになる。
図4(d)は、図3のステップS107における尤度算出により求められた尤度を模式化して示している。このようにして算出される尤度に対応して、図4(e)に示す状態変数分布(t)の予測が行われる。
ところで、実際においては、追跡結果若しくは姿勢推定結果に誤りが生じて、状態変数分布(t-1)に対応するサンプルセットと、副状態変数分布(t)(存在分布gt(X))との間で大きな違いが生じる可能性がある。このとき、調整係数λは非常に小さくなり、存在分布gt(X)に基づいたサンプルは有効ではなくなってくる。
これを避けるために、図3におけるステップS103、S104の手順の流れにおける実際としては、存在分布gt(X)を基とするサンプルセットを形成するサンプルのうちから、予め設定した所定の比率により、ランダムにいくつかのサンプルを選択したうえで、さらに、これらの選択したサンプルについての調整係数λについては、予め設定した所定の割合、比率に従って、1を設定する。
上記の処理により得られる状態変数分布(t)は、下記のようにして表すことができる。

Figure 0004582174
上記(数9)によれば、状態変数分布(t)と存在分布gt(X)とは線形組み合わせである、ということがいえる。
このようにして構成する、ICondensationに基づく統合追跡は、他の情報(副状態変数分布(t))を確率的に導入(統合)することになるので自由度が高い。また、導入する比率の設定によって、必要とする導入量の調整も容易である。また、尤度が計算されるので,予測結果としての情報が正しければ強調され,誤りであれば抑制される。これにより、高い精度、ロバスト性が得られる。
例えば非特許文献1に記載されるICondensationの手法では、副状態変数分布(t)として統合のために導入する情報としては、例えば肌色検出などの単一の検出対象に限定されている。
しかし、導入可能な情報としては、肌色検出以外にも多様に考えることができる。例えば、何らかの方式による追跡アルゴリズムにより得られる情報を導入することも考えられるのであるが、追跡アルゴリズムそれぞれの方式で異なる特徴、利点を有しており、導入すべきものを1つに絞り込むときの判断は難しい。
このようなことからすると、例えばICondensationに基づく統合追跡にあたって、導入する情報を複数化すれば、予測精度、また、ロバスト性などをはじめとして性能の向上が図られることが期待できる。
そこで、本実施形態としては、例えばICondensationを基としたうえで、導入する情報を複数化して統合追跡が行えるようにする構成を提案する。以下、この点について説明していく。
図5(a)は、複数の情報を導入する本実施形態としての統合追跡システムの構成例として、副状態変数分布出力部2の構成を抜き出して示している。なお、この図との対応において、統合追跡システム全体の構成としては、図1と同様とされてよい。つまり、図2は、本実施形態に対応する構成として、図1における副状態変数分布出力部2の内部構成を示したものとしてみることができる。
図5(a)において示される副状態変数分布出力部2は、K個の第1検出部22−1〜22−Kと、確率分布化部21とを備えて成る。
第1検出部22−1〜22−Kは、それぞれ、所定の検出方式、アルゴリズムによる構成でもって、追跡対象に関連した所定の検出対象についての検出を行う部位とされる。これら第1検出部22−1〜22−Kにより得られる検出結果の情報は、確率分布化部21により取り込む。
図5(b)は、検出部22(第1〜第K検出部22−1〜22−K)としての一般化した構成例を示している。
検出部22は、検出器22aと検出信号処理部22bを有して成る。
検出器22aは、検出対象に応じてそれを検出するための所定の構成を有する。例えば、肌色検出などであれば、この検出器22aは、撮像を行って、検出信号としての画像信号を得る撮像装置などとなる。
検出信号処理部22bは、検出器22aから出力される検出信号について必要な処理を行って最終的に検出情報を生成して出力するようにして構成される部位となる。例えば上記肌色検出であれば、撮像装置としての検出器22aにて得られる画像信号を取り込み、この画像信号としての画像上において肌色であるとして認識される画像領域部分を検出し、これを検出情報として出力する。
また、図5(a)における確率分布化部21は、第1検出部22−1〜22−Kのそれぞれから取り込んだ検出情報を、統合追跡システム1が導入するべき、1つの副状態変数分布(t)(存在分布gt(X))とするための処理を行う。
このための手法としては、いくつか考えられるが、ここでは、第1検出部22−1〜22−Kのそれぞれから取り込んだ検出情報を統合して確率分布化することで、存在分布gt(X)が生成されるように構成することとした。そのうえで、存在分布gt(X)を得るための確率分布化の手法としては、GMM(Gaussian Mixture Model:ガウス混合分布)に拡張する手法を採用することとした。つまり、例えば第1検出部22−1〜22−Kのそれぞれから取り込んだ検出情報ごとにガウシアン分布(正規分布)を求め、これを混合、組み合わせるものである。
また、本実施形態の確率分布化部21としては、次に説明するようにして、第1検出部22−1〜22−Kから取り込んだ検出情報について、適宜、必要なだけの重み付けを与えるようにしたうえで、存在分布gt(X)を得るようにされる。
図6に示すようにして、先ず、第1〜第K検出部22−1〜22−Kのそれぞれは、自身が対応する検出対象についての検出結果についての信頼度を求めることができるようにされており、これを例えば信頼度値として出力することができるようになっている。
そのうえで、本実施形態の確率分布化部21においては、同じ図6に示すようにして、重み付け設定部21aとしての実行部位を備えることとしている。重み付け設定部21aは、第1〜第K検出部22−1〜22−Kから出力される信頼度値を取り込む。そして、取り込んだ信頼度値に基づいて、第1〜第K検出部22−1、22−2・・・22−Kのそれぞれから出力される検出情報ごとに対応する重み付け係数,w1,w2〜wKを生成する。この重み付け係数wを設定するためのアルゴリズムの実際としては多様に考えられるので、ここでの具体例についての説明は省略するが、信頼度値が高くなるのに応じて重み付け係数も高い値が求められることになる。
そして、確率分布化部21は、上記のようにして得られる重み付け係数W1,W2〜WKを利用して、下記のようにして、GMMとしての存在分布gt(X)を求めることができる。なお、下記(数10)において、μiは、検出器22−i(1≦i≦K)の検出情報である。

Figure 0004582174
なお、上記(数10)におけるΣiについては、下記のような対角行列を用いることが一般的である。

Figure 0004582174
上記のようにして、第1〜第K検出部22−1、22−2・・・22−Kのそれぞれから出力される検出情報ごとに重み付けが与えられたうえで、存在分布gt(X)(副状態変数分布(t))が生成されるようになっていることで、そのときに高い信頼性が得られている検出情報の導入率を高くしたうえでの状態変数分布(t)の予測が行われることになる。これによっても、本実施形態では、追跡処理についての性能の向上を図るようにされている。
ここで、本願発明の構成要件と、本実施形態との対応例を示しておく。
第1の状態変数サンプル候補生成手段は、図3のステップS101、S102を実行する統合追跡処理部1が対応する。
複数の検出手段は、図5における第1検出部22−1〜第K検出部22−Kが対応する。
副情報生成手段は、図5における確率分布化部21が対応する。
第2の状態変数サンプル候補生成手段は、図3のステップS103、S104を実行する統合追跡処理部1が対応する。
状態変数サンプル取得手段は、図3のステップS105、S106を実行する統合追跡処理部1が対応する。
推定結果生成手段は、図3のステップS107として説明した処理を実行する統合追跡処理部1が対応する。
また、本実施形態として、複数の情報を導入して統合追跡を行うための統合追跡システムについての他の構成例を、図7及び図8により説明する。
この場合の統合追跡システムとしては、図7に示すようにして、副状態変数分布出力部2において、第1〜第K検出部22−1〜22−Kのそれぞれに対応させて、K個の確率分布化部21−1〜21−Kが備えられる。
第1検出部22−1に対応する確率分布化部21−1は、第1検出部22−1から出力される検出情報を取り込んで確率分布に変換する処理を行う。この確率分布化の処理についても、そのアルゴリズムや方式については多様に考えられるが、例えば図5の確率分布化部21の構成に準じれば、単一ガウシアン分布(正規分布)として得るようにすることが考えられる。
同様にして、残る確率分布化部21−2〜22−Kも、それぞれ、第2検出部22−2〜第K検出部22−Kにて得られる検出情報から確率分布を得る処理を行う。
そして、この場合には、上記のようにして確率分布化部21−1〜21−Kから出力される確率分布の各々を、第1副状態変数分布(t)〜第K副状態変数分布(t)として、統合追跡処理部1に対して並列的に入力させる。
上記図7に示される統合追跡処理部1としての内部の処理を、図8に示す。なお、この図において図3と同一の処理、手順となる部位については、同一のステップ番号を付している。
この図に示される統合追跡処理部1の処理として、先ず、状態変数分布(t-1)を基に実行するステップS101、S102は、図3と同様となる。
そのうえで、この場合の統合追跡処理部1は、図におけるステップS103−1・・・S103−K、ステップS104−1・・・S104−Kとして示すように、第1副状態変数分布(t)〜第K副状態変数分布(t)ごとに、サンプリングを行って状態変数サンプル(t)となり得るサンプルセットを生成するとともに、調整係数λを算出しておくようにされる。
そして、この場合のステップS105、S106としては、状態変数分布(t-1)を基とするサンプルセットと、第1〜第K副状態変数分布(t)のそれぞれを基とするサンプルセットとの、1+K組のサンプルセットを選択対象として、例えば予め定められた比率に従っていずれか1組をランダムに選択して状態変数サンプル(t)を取り込むようにされる。後は,図3の場合と同様にして、ステップS107により尤度を求めて、予測結果としての状態変数分布(t)を得る。
また、この他の構成例においては、第1検出部22−1〜第K検出部22−Kのそれぞれにて得られた信頼度値については、例えば統合追跡処理部1に渡すようにすることが考えられる。
統合追跡処理部1では、図8のステップS105において選択するときの選択比率として、第1副状態変数分布(t)〜第K副状態変数分布(t)の間での選択比率について、受け取った信頼度値に基づいて変更設定する。
あるいは、統合追跡処理部1では、図8のステップS107において、調整係数λとともに、信頼度値に応じて設定した重み付け係数(w)を乗算させるという処理とすることも考えられる。
これらの構成により、先の図5に示した構成例の場合と同様にして、検出部22−1〜22−Kの検出情報のうちで、信頼度の高いものに重みが与えられるようにして、統合追跡処理が行われることになる。
あるいは、第1検出部22−1〜第K検出部22−Kは、それぞれの信頼度値を、自身に対応する確率分布化部21−1〜21−Kに対して渡すようにする。そして、確率分布化部21−1〜21−Kでは、受け取った信頼度値に応じて、生成する分布の密度、強度などを変更するというものも考えることができる。
なお、この他の構成例においては、複数の第1検出部22−1〜第K検出部22−Kのそれぞれにより得られる複数の検出情報ごとに確率分布化することにより、検出情報ごとに応じた複数の副状態変数分布(t)を生成し、これらを統合追跡処理部1に渡している。これに対して、図5に示した先の構成例においては、第1検出部22−1〜第K検出部22−Kにより得られる検出情報を混合分布化することにより1つに統合することで、1つの副状態変数分布(t)を生成して統合追跡処理部1に渡している。
このようにして、副状態変数分布(t)が1つであるにせよ複数であるにせよ、先の構成例と他の構成例では、副状態変数分布(t) (現時刻の副状態変数確率分布情報)について、複数の検出部によって得られる複数の検出情報に基づいて生成しているという点では共通しているといえる。
そして、他の構成例としては、上記してきた処理を実行することにより、単位時間においては、状態変数分布(t-1)に対して、複数の第1〜第K副状態変数(t)を導入する結果を生じるものであり、例えば先に図5、図6により説明した構成と同等の信頼性の向上が図られるものである。
続いては、これまでに説明してきた本実施形態の統合追跡システムについての具体的な適用例を挙げていく。
図9は、本実施形態の統合追跡システムを、人物の姿勢の追跡に適用した例である。これに応じて、統合追跡処理部1については、統合姿勢追跡処理部1Aとして示している。また、副状態変数分布出力部2としては、副姿勢状態変数分布出力部2Aとして示している。
また、この図においては、副姿勢状態変数分布出力部2Aの内部構成は、先に図5、図6により示したものに準じている。もちろん、図7、図8に準じて構成することも可能である。この点については、以降説明する他の適用例についても同様である。
この場合には、追跡対象として人物の姿勢が設定される。これに応じて、統合姿勢追跡処理部1Aは、例えば関節位置などを状態変数として設定し、運動モデルとしても人物の姿勢に応じて設定される。
そのうえで、統合姿勢追跡処理部1Aは、観測値(t)としてフレームtにおけるフレーム画像を取り込むようにされる。この観測値(t)としてのフレーム画像は、例えば撮像装置により撮像して得ることができる。そして、このフレーム画像としての観測値(t)とともに、姿勢状態変数分布(t-1)と、副姿勢状態変数分布(t)を取り込んで、先に図5、図6述べた実施形態の構成により、姿勢状態変数分布(t)を生成して出力する。つまり、人物姿勢についての推定結果を得る。
次に、この場合の副姿勢状態変数分布出力部2Aは、検出部22として、m個の第1姿勢検出部22A−1〜第m姿勢検出部22A−mと、顔検出部22B、人検出部22Cを備える。
第1姿勢検出部22A−1〜第m姿勢検出部22A−mは、それぞれ、人物姿勢推定のための所定の方式、アルゴリズムに対応する検出器22a、及び検出信号処理部22bを有して人物姿勢を推定し、その推定結果を検出情報として出力する。
このようにして、複数の姿勢検出部を備えることにより、人物姿勢の推定にあたり、方式、アルゴリズムの異なる複数の推定結果を導入することが可能になる。これにより、例えば、単一の姿勢推定結果のみを導入するような場合と比較して、より高い信頼性を得ることが期待できる。
また、顔検出部22Bは、フレーム画像から、顔として認識される画像領域部分を検出し、これを検出情報とする。この場合の顔検出部22Bは、図5(b)との対応では、撮像装置としての検出器22aにより撮像してフレーム画像を得て、検出信号処理部22bによりフレーム画像から顔検出としての画像信号処理を実行するように構成すればよい。
顔検出の結果を用いることによっては、姿勢推定の対象としている人物についての頭部の中心が高い精度で推定できる。頭部の中心を推定した情報を利用すれば、例えば運動モデルとして、頭部を始点にして階層的に関節の位置を推定していくことができる。
また、人検出部22Cは、フレーム画像から、人として認識される画像領域部分を検出し、これを検出情報とする。この場合の人検出部22Cも、図5(b)との対応では、撮像装置である検出器22aにより撮像してフレーム画像を得て、検出信号処理部22bによりフレーム画像から人検出の画像信号処理を実行するように構成すればよい。
人検出の結果を用いることで、姿勢推定の対象としている人物のボディについての中心(重心)が高い精度で推定でき、この情報を利用すれば、推定対象の人物の位置をより高い精度で推定できる。
このようにして、顔検出及び人検出は、人物の姿勢そのものを検出するものではないが、上記したことから理解されるように、その検出情報は、姿勢検出部22Aの検出情報と同様、人物の姿勢推定に大きく関連するものとして扱える。
ここで、上記第1姿勢検出部22A−1〜第m姿勢検出部22A−mに適用できる姿勢検出の手法としては限定されるべきではないが、本実施形態では、本願発明者の試験などの結果から、特に有効なものであるとされたものとして、2つを挙げることができる。
1つは、先に本出願人により出願した3次元ボディトラッキング手法である(特願2007-200477)。また、もう1つは、「岡田 隆三,シュテンガ ビヨン.“シルエットを用いたTree-Based Filteringによる人体の姿勢推定”. In Proc. of 画像の認識・理解シンポジウム,2006.」に記載される姿勢推定の手法である。
本願発明者は、図9に基づいた統合姿勢追跡システムとして、副姿勢状態変数分布出力部2Aを構成する検出部22について、いくつかの手法を適用して試験を行った。その結果として、例えば単一の情報を導入して統合姿勢追跡を行う場合よりも、高い信頼性の得られることが確認されたのであるが、特に、姿勢検出部22Aに対応する姿勢推定処理については、上記の2つの手法が有効であることを確認したものである。特に、前者の3次元ボディトラッキングの手法を導(姿勢検出部22A−1,22A−2となる)と、また、顔検出部22Bに対応する顔検出処理と、人検出部22Cに対応する人検出処理も有効であり、これらのうちでは特に人検出が有効であることが確認されている。実際において、前者の3次元ボディトラッキングと人検出処理とを少なくとも採用して構成した統合処理システムは、特に高い信頼性の得得られることが確認された。
図10は、本実施形態の統合追跡システムを、人物の移動の追跡に適用した例である。これに応じて、統合追跡処理部1については、統合人物移動追跡処理部1Bとして示している。また、副状態変数分布出力部2としては、追跡対象の人物の位置に対応した状態変数分布を出力することにちなみ、副位置状態変数分布出力部2Bとしている。
この場合の統合人物移動追跡処理部1Bは、追跡対象が人物の移動軌跡となるように、しかるべき状態変数や運動モデルなどのパラメータを設定することになる。
統合人物移動追跡処理部1Bは、観測値(t)として、フレームtにおけるフレーム画像を取り込む。この観測値(t)としてのフレーム画像も、例えば撮像装置により撮像して得ることができる。このフレーム画像としての観測値(t)とともに、追跡対象となる人物の位置に対応した位置状態変数分布(t-1)と、副位置状態変数分布(t)を取り込んで、先に図5、図6により述べた実施形態の構成により、位置状態変数分布(t)を生成して出力する。つまり、移動に応じて追跡対象の人物が在るとされる位置についての推定結果を得る。
この場合の副位置状態変数分布出力部2Bとしては、検出部22として、画像利用人検出部22D、赤外光画像利用検出部22E、センサ22F、GPS装置22Gを備えるものとしており、これらの検出部の検出情報を確率分布化部21により取り込むようにして構成している。
画像利用人検出部22Dは、フレーム画像から、人として認識される画像領域部分を検出し、これを検出情報とする。この場合の画像利用人検出部22Dについての図5(b)との対応も、先の人検出部22Cと同様に、撮像装置である検出器22aにより撮像してフレーム画像を得て、検出信号処理部22bによりフレーム画像から人検出の画像信号処理を実行する構成とすればよい。
人検出の結果を用いることで、追跡対象とされて画像内で移動する人物のボディについての中心(重心)を追跡していくことができる。
赤外光画像利用検出部22Eは、例えば赤外光を撮像して得られる赤外光画像から、人としての画像領域部分を検出し、これを検出情報とする。このための図5(b)に対応する構成としては、例えば赤外光(あるいは近赤外光)を撮像して赤外光画像を得る撮像装置を検出器22aとし、赤外光画像に対する画像信号処理により人検出を実行する検出信号処理部22bとを有するものとして考えればよい。
この赤外光画像利用検出部22Eによる人検出の結果によっても、追跡対象とされて画像内で移動する人物のボディについての中心(重心)を追跡していくことができるが、特に、赤外光画像を利用していることで、光量の少ない環境で撮影が行われているような場合に、この検出情報の信頼性は高くなる。
ここでのセンサ22Fは、例えば追跡対象である人物に対して取り付けられるもので、例えばジャイロセンサ、角速度センサなどから成り、その検出信号は、例えば無線により、副位置状態変数分布出力部2B内の確率分布化部21に対して入力するように構成する。
このセンサ22Fとしての検出部22aは、上記のジャイロセンサや角速度センサなどの検出素子とされ、検出信号処理部22bでは、これらの検出素子からの検出信号から、移動速度、移動方向などを演算して求めるようにされる。このようして求めた移動速度や移動方向の情報を、検出情報として確率分布化部21に出力する。
GPS(Global Positioning System)装置22Gも、例えば追跡対象である人物に対して取り付けられ、GPSにより取得される位置情報を、実際には無線により送信するようにして構成される。送信された位置情報が検出情報として確率分布化部21に対して入力される。この場合の検出器22aは、例えばGPSアンテナなどとされ、検出信号処理部22bは、GPSアンテナにより受信された信号から位置情報を求める処理を実行するようにされた部位となる。
図11は、本実施形態の統合追跡システムを、車両の移動の追跡に適用した例である。これに応じて、統合追跡処理部1については、統合車両追跡処理部1Cとして示している。また、副状態変数分布出力部2としては、追跡対象の車両の位置に対応した状態変数分布を出力することに因み、副位置状態変数分布出力部2Cとしている。
この場合の統合車両追跡処理部1Cは、車両を追跡対象とするように、しかるべき状態変数や運動モデルなどのパラメータを設定することになる。
統合車両追跡処理部1Cは、観測値(t)としてフレームtにおけるフレーム画像を取り込むとともに、追跡対象となる車両の位置に対応した位置状態変数分布(t-1)と、副位置状態変数分布(t)を取り込んで、位置状態変数分布(t)を生成して出力する。つまり、移動に応じて追跡対象の車両が在るとされる位置についての推定結果を得る。
この場合の副位置状態変数分布出力部2Cとしては、検出部22として、画像利用車両検出部22H、車両速度検出部22I、センサ22F、GPS装置22Gを備えるものとしており、これらの検出部の検出情報を確率分布化部21により取り込むようにして構成している。
画像利用車両検出部22Hは、フレーム画像から、車両として認識される画像領域部分を検出し、これを検出情報とするように構成される。この場合の画像利用車両検出部22Hについての図5(b)との対応も、撮像装置である検出器22aにより撮像してフレーム画像を得て、検出信号処理部22bによりフレーム画像から車両検出のための画像信号処理を実行する構成となる。
この車両検出の結果を用いることで、追跡対象とされて画像内で移動する車両の位置を認識できる。
車両速度検出部22Iは、例えばレーダーなどにより追跡対象の車両についての速度検出を行い、その検出情報を出力する。図5(b)との対応としては、検出器22aがレーダーアンテナで、検出信号処理部22bがレーダーアンテナにより受信した電波などから速度を求めるための部位となる。
センサ22Fは、例えば図10と同様のものとされ、追跡対象の車両に取り付けられることで、その車両の移動速度、移動方向を検出情報として得ることができる。
GPS22Gも同様に、追跡対象の車両に取り付けられることで、その位置情報を検出情報として得ることができる。
図12は、本実施形態の統合追跡システムを、飛行機などの飛行体の移動の追跡に適用した例である。これに応じて、統合追跡処理部1については、統合飛行体追跡処理部1Dとして示している。また、副状態変数分布出力部2としては、追跡対象の飛行体の位置に対応した状態変数分布を出力することに因み、副位置状態変数分布出力部2Dとしている。
この場合の統合飛行体追跡処理部1Dは、車両を追跡対象とするように、しかるべき状態変数や運動モデルなどのパラメータを設定することになる。
統合飛行体追跡処理部1Dは、観測値(t)としてフレームtにおけるフレーム画像を取り込むとともに、追跡対象となる飛行体の位置に対応した位置状態変数分布(t-1)と、副位置状態変数分布(t)を取り込んで、位置状態変数分布(t)を生成して出力する。つまり、移動に応じて追跡対象の飛行体が在るとされる位置についての推定結果を得る。
この場合の副位置状態変数分布出力部2Cとしては、検出部22として、画像利用飛行体検出部22J、音検出部22K、センサ22F、GPS装置22Gを備えるものとしており、これらの検出部の検出情報を確率分布化部21により取り込むようにして構成している。
画像利用飛行体検出部22Jは、フレーム画像から、車両として認識される画像領域部分を検出し、これを検出情報とするように構成される。この場合の画像利用飛行体検出部22Jについての図5(b)との対応は、撮像装置である検出器22aにより撮像してフレーム画像を得て、検出信号処理部22bによりフレーム画像から飛行体検出のための画像信号処理を実行するものとなる。
この飛行体検出の結果を用いることで、追跡対象とされて画像内で移動する飛行体の位置を認識できる。
音検出部22Kは、例えば検出器22aとして、例えば複数本のマイクロフォンを備え、これらのマイクロフォンにより飛行体の音を収音し、収音音声を検出信号として出力する。検出信号処理部22bは、これらの収音音声から飛行体の音の定位を求め、その音の定位を示す情報を検出情報として出力する。
センサ22Fは、例えば図10と同様のものとされ、追跡対象の車両に取り付けられることで、その車両の移動速度、移動方向を検出情報として得ることができる。
GPS22Gも同様に、追跡対象の車両に取り付けられることで、その位置情報を検出情報として得ることができる。
次に、先に図9により示した人物姿勢統合追跡の構成において、姿勢検出部22Aの1つとして採用することのできる、3次元ボディトラッキングの手法について説明しておく。この三次元ボディトラッキングの手法は、特願2007-200477として先に本出願人により出願されたものである。
3次元ボディトラッキングにおいては、例えば図13に示すように、時間的に連続して撮影されたフレーム画像F0,F1のうち、基準とするフレーム画像F0内の被写体を、例えば頭部、胴体部、腕の肩から肘までの部分、腕の肘から指先までの部分、足の腰から膝までの部分、膝から足先までの部分などに分割し、それぞれを3次元のパートとする3次元ボディ画像B0を生成する。そして、3次元ボディ画像B0の各パートの動きを、フレーム画像F1に基づいて追跡(トラッキング)することにより、フレーム画像F1に対応する3次元ボディ画像B1を生成するようにされている。
各パートの動きをトラッキングする際、各パートの動きを独立的に追跡すると、本来、関節によって接続されていなければならないパート同士が離れてしまうことが発生し得る(図13(d)の3次元ボディ画像B'1)。このような不具合の発生を防ぐため、「各パートは所定の関節点において他のパートと連続している」という条件(以下、関節拘束と称する)に従ってトラッキングする必要がある。
このような関節拘束のあるトラッキング方法については、数多く提案されており、例えば、下記の文献(以降は「参考文献」ということにする)
「D. Demirdjian, T. Ko and T. Darrell. “Constraining Human Body Tracking”. Proceedings of ICCV, vol.2, pp.1071, 2003.」
には、ICP(Iterative Closest Point)レジスタ手法によって独立的に求めた各パートの動きを、線形運動空間において関節拘束を満たす運動に射影する手法が提案されている。
当該射影の方向はICPの相関行列Σ−1によって決定される。
ICPの相関行列Σ−1を使って射影方向を決定することの利点は、射影した運動で3次元ボディの各パートを動かした姿勢が、被写体の実際の姿勢に最も近くなることである。
反対に、ICPの相関行列Σ−1を使って射影方向を決定することの欠点としては、ICPレジスタ手法では2台のカメラによって同時に撮影された2枚の画像の視差に基づいて3次元復元を行っているので、1台のカメラによって撮影された画像を用いる手法に適用できない点が挙げられる。また、3次元復元の精度とエラーが射影方向の決定精度に大きく依存しているので、射影方向の決定が不安定であるという問題がある。さらに、ICPレジスタ手法は、演算量が多く処理に時間がかかるという問題もある。
先に本出願人が出願した発明(特願2007-200477)は、上記ような状況に鑑みてなされたものであり、ICPレジスタ手法に比較して、より少ない演算量、より高い精度で安定的に3次元ボディトラッキングを行おうとするものである。なお、以降において、この先に本出願人が出願した発明(特願2007-200477)による3次元ボディトラッキングについては、図9において実施形態として示した統合姿勢追跡システムにおける姿勢検出部22Aとして採用されることにちなみ、実施形態対応の3次元ボディトラッキングということにする。
この実施形態対応の3次元ボディトラッキングとしては、各パートを独立的にトラッキングして求めた関節拘束のない運動ベクトルΔに基づき、各パートの動きが統合された関節拘束のある運動ベクトルΔ*を算出する方法を提案するとともに、1フレーム前の3次元ボディ画像B0に運動ベクトルΔ*を適用して、現フレームの3次元ボディ画像B1を生成できるようにする。これにより図13に示される3次元ボディトラッキングを実現する。
また、実施形態対応の3次元ボディトラッキングでは、3次元ボディの各パートの動き(位置と姿勢の変化)を2種類の表記方法によって表現し、それぞれの表記方法を用いて最適な目標関数を導出する。
まず、第1の表記方法について説明する。3次元空間における剛体(各パートに相当)の運動を表す場合、従来から4×4の変換行列による線形変換が用いられる。第1の表記方法では、全ての剛体運動を、所定の軸に対する回転運動と、当該軸に平行に移動する並進運動との組み合わせによって表記する。この回転運動と並進運動の組み合わせは螺旋運動と称される。
例えば図14に示すように、剛体が点p(0)から螺旋運動の回転角θによって点p(θ)に移動した場合、この運動は次式(1)に示すように指数を用いて表記される。
Figure 0004582174
・・・(1)
式(1)のeξθ(ξの上の^は表記の都合により明細書においては省略する。以降においても同様とする)は、剛体の運動(変換)Gを示しており、テイラー展開によって次式(2)に示すとおりとなる。
Figure 0004582174
・・・(2)
なお、Iは単位行列を示している。また、指数部分におけるξは、螺旋運動を示してお
り、次式(3)に示される4×4の行列、または6次元のベクトルで表記される。
Figure 0004582174
・・・(3)

ただし、
Figure 0004582174
・・・(4)

である。
したがって、ξθは次式(5)に示されるとおりとなる。
Figure 0004582174
・・・(5)
なお、ξθの6個の独立変数ξ1θ,ξ2θ,ξ3θ,ξ4θ,ξ5θ,ξ6θのうち、前のξ1θ乃至ξ3θは螺旋運動の回転運動に関わり、後半のξ4θ乃至ξ6θは螺旋運動の並進運動に関わる。
ここで、「連続するフレーム画像F0,F1間における剛体の移動量が小さい」ということを仮定すれば、式(2)の第3項以降は省略でき、剛体の運動(変換)Gは次式(6)に示すように線形化することができる。
Figure 0004582174
・・・(6)
なお、連続するフレーム画像F0,F1間における剛体の移動量が大きい場合には、撮影時のフレームレートを上げることによって、フレーム間の移動量を小さくすることができる。したがって、「連続するフレーム画像F0,F1間における剛体の移動量が小さい」との仮定を常に成立させることができるので、以降においては、剛体の運動(変換)Gとして式(6)を採用する。
次に、N個のパート(剛体)からなる3次元ボディの運動について考察する。上述したように、各パートの運動は、ξθのベクトルによって表記されるので、関節拘束のない3次元ボディの運動ベクトルΔは、次式(7)に示されるように、N個のξθのベクトルによって表示される。
Figure 0004582174
・・・(7)
なお、N個の各ξθのベクトルは、それぞれ6個の独立変数ξ1θ乃至ξ6θを有しているので、3次元ボディの運動ベクトルΔは、6N次元となる。
ここで、式(7)を簡略化するため、次式(8)のように、6個の独立変数ξ1θ乃至ξ6θのうち、螺旋運動の回転運動に関わる前半のξ1θ乃至ξ3θを3次元ベクトルriで表記し、螺旋運動の並進運動に関わる後半のξ4θ乃至ξ6θを3次元ベクトルtiで表記する。
Figure 0004582174
・・・(8)
この結果、式(7)は次式(9)に示すとおり簡略化できる。
Figure 0004582174
・・・(9)
ところで、3次元ボディを構成するN個のパートには、実際には関節拘束を適用する必要がある。そこで次に、関節拘束のない3次元ボディの動きベクトルΔから、関節拘束のある3次元ボディの動きベクトルΔ*を求める方法について説明する。
なお、以下の説明は、動きベクトルΔによる変換後の3次元ボディの姿勢と、動きベクトルΔ*による変換後の3次元ボディの姿勢の差は最小となるとの考えに基づくものである。
具体的には、3次元ボディを構成する各パートの任意の3点(ただし、3点は同一直線上に存在しない)を決定し、動きベクトルΔによる変換後の3次元ボディの姿勢の当該3点と、動きベクトルΔ*による変換後の3次元ボディの姿勢の当該3点との距離を最小化する動きベクトルΔ*を求めている。
関節拘束のある3次元ボディの動きベクトルΔ*は、3次元ボディが有する関節の数をM個とした場合、上述した参考文献にも記載されているように、関節座標で構築した3M×6Nの関節拘束行列Φの零空間null space{Φ}に属するものとする。
ここで、関節拘束行列Φについて説明する。M個の各関節をJi(i=1,2,…,M)、関節Jiが連結するパートの索引をmi,niで示し、各関節Jiに対して次式(10)に示される3×6Nの部分行列を生成する。
Figure 0004582174
・・・(10)
なお、式(10)において、03は3×3の零行列であり、I3は3×3の単位行列である。
このようにして得られたM個の3×6Nの部分行列を列に沿って並べることにより、次式(11)に示す3M×6Nの行列を生成する。この行列を関節拘束行列Φとする。
Figure 0004582174
・・・(11)
3次元ボディを構成するN個のパートのうちのパートi(i=1,2,・・・,N)における同一直線上に存在しない任意の3点を{pi1,pi2,pi3}と表記すれば、目標関数は次式(12)に示すとおりとなる。
Figure 0004582174
・・・(12)
式(12)の目標関数を展開すると、次式(13)となる。
Figure 0004582174
・・・(13)
なお、式(13)において演算子(・)×は、3次元座標pを
Figure 0004582174
とした場合、
Figure 0004582174
となる3×3の行列の生成を意味する。
ここで、6×6の行列Cijを次式(14)に示すように定義する。
Figure 0004582174
・・・(14)
式(14)の定義により、目標関数は次式(15)に示すとおりに整理される。
Figure 0004582174
・・・(15)

ただし、式(15)におけるCは次式(16)に示される6N×6Nの行列である。
Figure 0004582174
・・・(16)
式(15)に示された目標関数は、参考文献に開示されている方法と同様に解くことができる。すなわち、SVDアルゴリズムにより、関節拘束行列Φの零空間の(6N-3M)個の6N次元の基底ベクトル{v1,v2,・・・,vK}(K=1,・・・,6N-3M)を抽出する。運動ベクトルΔ*は、関節拘束行列Φの零空間に属するので、次式(17)に示すとおり表記される。
Δ*=λ1v1+λ2v2+…+λKvK
・・・(17)
さらに、ベクトルδ=(λ1,λ2,…,λK)tと、抽出された6N次元分の関節拘束行列Φの零空間の基底ベクトルを行に沿って並べることにより生成した6N×(6N−3M)の行列V=[v1 v2 … vK]を定義すれば、式(17)は、次式(18)に示すとおりとなる。
Δ*=Vδ
・・・(18)
式(15)に示された目標関数のうちの(Δ*−Δ)tC(Δ*−Δ)に、式(18)に示されたΔ*=Vδを代入すれば、次式(19)に示すとおりとなる。
(Vδ−Δ)tC(Vδ−Δ)
・・・(19)
式(19)の差分を0とする場合、ベクトルδは次式(20)に示すとおりとなる。
δ=(VtCV)−1VtCΔ
・・・(20)
したがって、式(18)に基づき、目標関数を最小化する最適な運動ベクトルΔ*は、次式(21)に示すとおりであり、この式(21)を用いることにより、関節拘束のない運動ベクトルΔから、最適な関節拘束のある運動ベクトルΔ*を演算することが可能となる。
Δ*=V(VtCV)−1VtCΔ
・・・(21)
ところで、上述した参考文献によれば、関節拘束のない運動ベクトルΔから、関節拘束のある最適な運動ベクトルΔ*を演算する式として次式(22)が開示されている。
Δ*=V(VtΣ−1V)−1VtΣ−1Δ
・・・(22)
ただし、Σ−1はICPの相関行列である。
本発明に対応する式(21)と参考文献に記載の式(22)を比較した場合、その差異は見かけ上、Σ−1がCに置換されている点のみである。しかしながら、本発明に対応する式(21)と、参考文献に記載の式(22)とは、それぞれを導き出す過程における考えが全く異なるものである。
参考文献の場合、関節拘束行列Φの零空間に属する運動ベクトルΔ*と、運動ベクトルΔのMahalanobis距離を最小化する目標関数を導出しており、運動ベクトルΔの各分量の相関関係に基づき、ICPの相関行列Σ−1を計算している。
これに対して、本願発明の場合、動きベクトルΔによる変換後の3次元ボディの姿勢と、動きベクトルΔ*による変換後の3次元ボディの姿勢の差を最小化する目標関数を導出している。したがって、本発明に対応する式(21)では、ICPレジスタ手法を用いていないので、3次元復元精度に依存することなく、安定的に射影方向を決定することができる。また、フレーム画像の撮影方法を限定することがない。また、ICPレジスタ手法を用いる参考文献の場合に比較して、演算量を削減することができる。
次に、3次元ボディの各パートの動きを表記する第2の表記方法について説明する。
第2の表記方法では、3次元ボディの各パートの姿勢を、世界座標系における始点(相対座標系における原点)と、世界座標系のx,y,z軸をそれぞれ中心とする回転角度で表す。一般に、世界座標系におけるx軸を中心とする回転はRollと称され、y軸を中心とする回転はPitchと称され、z軸を中心とする回転はYawと称される。
以下、3次元ボディのパートiの世界座標系における始点を(xi,yi,zi)、Roll、Pitch,Yawの回転角度を、それぞれαi,βi,γiとする。この場合、パートiの姿勢は、以下に示す1つの6次元ベクトルによって表現される。
[αi,βi,γi,xi,yi,zi]t
一般に、剛体の姿勢は、4×4の行列であるHomogeneous transformation matrix(以下、H-行列または変換行列と称する)によって表される。パートiに対応するH-行列は、世界座標系における始点(xi,yi,zi)、Roll、Pitch,Yawの回転角度αi,βi,γi(rad)を次式(23)に適用することによって演算することができる。
Figure 0004582174
・・・(23)
そして、剛体運動の場合、フレーム画像Fnにおけるパートiに属する任意の点Xの3次元位置は、H-行列を用いた次式(24)によって計算することができる。
Xn=Pi+G(dαi,dβi,dγi,dxi,dyi,dzi)・(Xn−1−Pi)
・・・(24)
ここで、G(dαi,dβi,dγi,dxi,dyi,dzi)は、連続するフレーム画像Fn−1, Fn間のパートiの運動変化量dαi,dβi,dγi,dxi,dyi,dziをパーティクルフィルタなどを用いたトラッキング手法によって演算し、この演算結果を式(23)に代入して演算した4×4の行列である。Pi=(xi,yi,zi)tは、パートiのフレーム画像Fn−1における始点である。
式(24)に対し、「連続するフレーム画像Fn−1,Fn間における剛体の移動量が小さい」ということを仮定すれば、各回転角度の変化量は微小となるので、sin x≒x,cos x≒1の近似が成立する。また、多項式の2次項以降も0となり省略できる。よって、式(24)における変換行列G(dαi,dβi,dγi,dxi,dyi,dzi)は、次式(25)に示すとおりに近似される。
Figure 0004582174
・・・(25)
式(25)から明らかなように、変換行列Gの回転部分(左上3×3)は、単位行列+外積行列の形となっていることに着目し、この形を利用して式(24)を次式(26)に変形する。
Figure 0004582174
・・・(26)
さらに、式(26)における
Figure 0004582174
をriに置換し、
Figure 0004582174
をtiに置換すれば、式(26)は次式(27)に示すように整理される。
Xn=Xn−1+ri×(Xn−1−Pi)+ti
・・・(27)
ところで、3次元ボディを構成する各パートは他のパートと関節によって連結されている。例えば、パートiとパートjが関節Jijで連結されているとすれば、フレーム画像Fnにおいてパートiとパートjが連結される条件(関節拘束条件)は、次式(28)のとおりである。
ri×(Jij−Pi)+ti=tj
−(Jij−Pi)×ri+ti−tj=0
[Jij−Pi]×・ri−ti+tj=0
・・・(28)
なお、式(28)における演算子[・]×は、式(13)の場合と同様である。
さらに、N個のパートとM個の関節からなる3次元ボディの全体の関節拘束条件は以下の通りとなる。すなわち、M個の各関節をJK(k=1,2,…,M)、関節JKが連結する2つのパートの索引をiK,jKで示し、各関節JKに対して次式(29)に示される3×6Nの部分行列を生成する。
Figure 0004582174
・・・(29)
なお、式(29)において、03は3×3の零行列であり、I3は3×3の単位行列である。
このようにして得られたM個の3×6Nの部分行列を列に沿って並べることにより、次式(30)に示す3M×6Nの行列を生成する。この行列を関節拘束行列Φとする。
Figure 0004582174
・・・(30)
そして、上述した式(9)と同様、3次元ボディのフレーム画像Fn−1,Fn間の変化量を示すriとtiを順番に並べて6N次元の運動ベクトルΔを生成すれば、次式(31)に示すとおりとなる。
Figure 0004582174
・・・(31)
したがって、3次元ボディの関節拘束条件式は、次式(32)となる。
ΦΔ=0
・・・(32)
なお、式(32)は数学的に、運動ベクトルΔが関節拘束行列Φの零空間null space{Φ}に含まれることを意味する。すなわち、次式(33)のとおりに記述される。
Δ ∈ null space{Φ}
・・・(33)
以上のようにして求めた運動ベクトルΔと関節拘束条件式(32)に基づき、3次元ボディを構成するN個のパートのうちのパートi(i=1,2,・・・,N)における同一直線上に存在しない任意の3点を{pi1,pi2,pi3}と表記すれば、目標関数は式(12)と同様の式がえられる。
ただし、第1の表記方法では、3次元ボディの動きが螺旋運動で表記され、パートiにおける同一直線上に存在しない任意の3点の座標を絶対座標系で表していたことに対し、第2の表記方法では、3次元ボディの動きが絶対座標の原点とx,y,z軸に対する回転運動で表記され、パートiにおける同一直線上に存在しない任意の3点の座標を、パートiの始点Piを原点とする相対座標系で表している点が異なるので、第2の表記方法の対応する目標関数は次式(34)に示すとおりとなる。
Figure 0004582174
・・・(34)
式(34)に示された目標関数を展開、整理し、最適な運動ベクトルΔ*を求める過程は、上述した第1の表記方法に対応する目標関数を展開、整理し、最適な運動ベクトルΔ*を求める過程(すなわち、式(12)から式(21)を導出した過程)と同様である。
ただし、第2の表記方法に対応する過程においては、第1の表記方法に対応する過程で定義された6×6の行列Cij(式(14))の代わりに、次式(35)に示す6×6の行列Cijを定義して用いる。
Figure 0004582174
・・・(35)
そして最終的に求められる第2の表記方法に対応する最適な運動ベクトルΔ*は、
Δ*=[dα0*,dβ0*,dγ0*,dx0*,dy0*,dz0*,・・・]t
となり運動パラメータそのものであるので、次のフレーム画像における3次元ボディの生成にそのまま直接用いることができる。
次に、本発明に対応する式(21)を3次元ボディトラッキングに用い、図13に示されたように、時間的に連続して撮影されたフレーム画像F0,F1から3次元ボディ画像B1を生成する画像処理装置について説明する。
図15は、上記の実施形態対応の3次元ボディトラッキングに対応する検出部22A(検出信号処理部22b)の構成例を示している。
この検出部22Aは、カメラ(撮像装置:検出器22a)などによって撮影されたフレーム画像を取得するフレーム画像取得部111、前フレーム画像に対応する3次元ボディ画像と現フレーム画像とに基づいて3次元ボディを構成する各パートの動き(関節拘束のない運動ベクトルΔに相当)を予測する予測部112、予測結果を式(21)に適用して関節拘束のある運動ベクトルΔ*を決定する運動ベクトル決定部113、および、前フレーム画像に対応する生成済みの3次元ボディ画像を、決定された関節拘束のある運動ベクトルΔ*を用いて変換することにより現フレームに対応する3次元ボディ画像を生成する3次元ボディ画像生成部114から構成される。
次に、上記図15に示す検出部22Aによる3次元ボディ画像生成処理について、現フレーム画像F1に対応する3次元ボディ画像B1を生成する場合を例に、図16のフローチャートを参照して説明する。なお、前フレーム画像F0に対応する3次元ボディ画像B0は既に生成されているものとする。
ステップS1において、フレーム画像取得部111は、撮影された現フレーム画像F1を
取得して予測部12に供給する。予測部12は、3次元ボディ画像生成部14からフィードバックされた、前フレーム画像F0に対応する3次元ボディ画像B0を取得する。
ステップS2において、予測部112は、フィードバックされた3次元ボディ画像B0におけるボディ姿勢に基づき、関節座標を要素とする3M×6Nの関節拘束行列Φを構築し、さらに関節拘束行列Φの零空間の基底ベクトルを要素とする6N×(6N−3M)の行列Vを構築する。
ステップS3において、予測部112は、フィードバックされた3次元ボディ画像B0の各パートについて、同一直線上に存在しない任意の3点を選択し、6N×6Nの行列Cを演算する。
ステップS4において、予測部112は、3次元ボディ画像B0と現フレーム画像F1に基づき、3次元ボディの関節拘束のない運動ベクトルΔを演算する。すなわち、3次元ボディを構成する各パートの動きを予測する。この予測には、従来存在するKalmanフィルタ、Particleフィルタ、またはInteractive Closest Point法などの代表的な手法を用いることができる。
そして、ステップS2乃至S4の処理で得られた行列V、行列C、および運動ベクトルΔは、予測部112から運動ベクトル決定部113に供給される。
ステップS5において、運動ベクトル決定部113は、予測部112から供給された行列V、行列C、および運動ベクトルΔを式(21)に代入することにより、最適な関節拘束のある運動ベクトルΔ*を演算して3次元ボディ画像生成部114に出力する。
ステップS6において、3次元ボディ画像生成部114は、前フレーム画像F0に対応する生成済みの3次元ボディ画像B0を、運動ベクトル決定部113から入力された最適な関節拘束のある運動ベクトルΔ*を用いて変換することにより、現フレーム画像F1に対応する3次元ボディ画像B1を生成する。なお、生成された3次元ボディ画像B1は、後段に出力されるとともに予測部12にフィードバックされる。
ところで、これまでに説明してきた本実施形態としての統合追跡のための処理は、図1、図5〜図12、及び図15などに示した構成に基づくハードウェアにより実現できる。また、ソフトウェアにより実現することもできる。また、この場合において、ハードウェアとソフトウェアを併用することもできる。
統合追跡における必要な処理をソフトウェアにより実現するのにあたっては、そのソフトウェアを構成するプログラムを、統合追跡システムとしてのハードウェア資源であるコンピュータ装置(CPU)に実行させることになる。あるいは、汎用のパーソナルコンピュータなどのコンピュータ装置にプログラムを実行させることで、コンピュータ装置に対して、統合追跡における必要な処理を実行する機能を与えるようにされる。
このようなプログラムは、例えばROMなどに対してなどに書き込んで記憶させるほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインストール(アップデートも含む)させるようにしてマイクロプロセッサ17内の不揮発性の記憶領域に記憶させることが考えられる。また、所定方式のデータインターフェース経由により、他のホストとなる機器からの制御によってプログラムのインストールを行えるようにすることも考えられる。さらに、ネットワーク上のサーバなどにおける記憶装置に記憶させておいたうえで、統合追跡システムとしての装置にネットワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成することも考えられる。
また、コンピュータ装置が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
ここで、図17により、本実施形態の統合追跡システムに対応するプログラムを実行可能な装置として、コンピュータ装置についての構成例を示しておく。
このコンピュータ装置200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。
入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、ドライブ210が接続されている。
入力部206は、キーボード、マウスなどの操作入力デバイスなどよりなる。
また、この場合の入力部20は、本実施形態の統合追跡システムとの対応で、例えば、複数の検出部22ごとに備えられるとされる、検出器22a−1、22a−2・・・22a−Kから出力される検出信号を入力することができるようになっている。
出力部207は、ディスプレイ、スピーカなどよりなる。
記憶部208は、ハードディスクや不揮発性メモリなどよりなる。
通信部209は、ネットワークインタフェースなどよりなる。
ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどとしての記録媒体211を駆動する。
以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205およびバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
CPU201が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアである記録媒体211に記録して、あるいは、ローカルエリアネットワーク、インタネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、記録媒体211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、図5、図7に示した確率分布化部21は、ガウシアン分布に基づく確率分布を得るものとしたが、これ以外の手法による分布を得るようにされてもよい。
また、実施形態の統合追跡システムが適用できる範囲は、これまでに説明した人物姿勢、人物移動、車両移動、飛行体移動などに限定されるものではなく、他の物体、事象、現象を追跡対象とすることができる。一例として、或る環境における色の変化なども追跡できる。
本発明の実施形態の基となる統合追跡システムの構成例を示す図である。 モンテカルロ法に基づいてサンプルセットに重み付けして表現される確率分布について説明するための概念図である。 統合追跡処理部として行う処理の流れを示す図である。 図3に示した処理の流れを、主にサンプルの状態遷移により模式化して示す図である。 実施形態に対応する追跡統合システムにおける副状態変数分布出力部の構成例を示す図である。 実施形態の副状態変数分布出力部における検出部における検出情報の信頼度から重み付け係数を求めるための構成を模式的に示す図である。 実施形態の統合追跡システムの他の構成例を示す図である。 図7に示す統合追跡処理部として行う処理の流れを示す図である。 実施形態の統合追跡システムを人物姿勢追跡に適用した場合の構成例を示す図である。 実施形態の統合追跡システムを人物移動追跡に適用した場合の構成例を示す図である。 実施形態の統合追跡システムを車両追跡に適用した場合の構成例を示す図である。 実施形態の統合追跡システムを飛行体追跡に適用した場合の構成例を示す図である。 3次元ボディトラッキングの概要を説明するための図である。 剛体の螺旋運動を説明するための図である。 実施形態対応の3次元ボディトラッキングに対応する検出部の構成例を示す図である。 3次元ボディ画像生成処理を示すフローチャートである。 コンピュータ装置の構成例を示すブロック図である。
符号の説明
1 統合追跡処理部、1A 統合姿勢追跡処理部、1B 統合人物移動追跡処理部、1C 統合車両追跡処理部、1D 統合飛行体追跡処理部、
2 副状態変数分布出力部、2A 副姿勢状態変数分布出力部、2B・2C・2D 副位置状態変数分布出力部、21(21−1〜21−K) 確率分布化部、21a 重み付け設定部、22−1〜22−K 第1〜第K検出部、22A−1〜22A−m 第1〜第m姿勢検出部、22B 顔検出部、22C 人検出部、22D 画像利用人検出部、22E 赤外光画像利用検出部、22F センサ、22G GPS装置、22H 画像利用車両検出部、22I 車両速度検出部、22J 画像利用飛行体検出部、22K 音検出部、111 フレーム画像取得部、112 予測部、113 運動ベクトル、114 3次元ボディ画像生成部、200 コンピュータ装置、201 CPU、202 ROM、203 RAM、204 バス、205 入出力インターフェース、206 入力部、207 出力部、208 記憶部、209 通信部、210 ドライブ、211 記録媒体

Claims (4)

  1. 前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手段と、
    それぞれが追跡対象に関連した所定の検出対象についての検出を行う、複数の検出手段と、
    上記複数の検出手段により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手段と、
    上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手段と、
    上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手段と、
    上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手段と、
    を備え、
    上記副情報生成手段は、上記複数の検出手段により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出手段の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出手段により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、
    上記状態変数サンプル取得手段は、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出手段の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する、
    追跡処理装置。
  2. 上記複数の検出手段は、3次元ボディトラッキング手法に基づく複数の姿勢検出手段、顔検出手段、人検出手段から構成されている請求項1に記載の追跡処理装置。
  3. 前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手順と、
    それぞれが追跡対象に関連した所定の検出対象についての検出を行う検出部により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手順と、
    上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手順と、
    上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手順と、
    上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手順と、
    を実行し、
    上記副情報生成手順において、上記複数の検出部により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出部の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出部により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、
    上記状態変数サンプル取得手順において、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出部の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する、
    追跡処理方法。
  4. 追跡処理装置に、
    前時刻の主状態変数確率分布情報に基づいて第1の現時刻の状態変数サンプル候補を生成する第1の状態変数サンプル候補生成手順と、
    それぞれが追跡対象に関連した所定の検出対象についての検出を行う検出部により得られる検出情報に基づいて、現時刻の副状態変数確率分布情報を生成する副情報生成手順と、
    上記現時刻の副状態変数確率分布情報に基づいて第2の現時刻の状態変数サンプル候補を生成する第2の状態変数サンプル候補生成手順と、
    上記第1の現時刻の状態変数サンプル候補と、上記第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとする、状態変数サンプル取得手順と、
    上記状態変数サンプルと現時刻の観測値とに基づいて求めた尤度に基づき、推定結果として、現時刻の主状態変数確率分布情報を生成する、推定結果生成手順と、
    を実行させ、
    上記副情報生成手順において、上記複数の検出部により得られる複数の検出情報に基づいた混合分布から成る現時刻の副状態変数確率分布情報を得、上記検出部の検出情報についての信頼度に基づいて、上記混合分布における複数の検出情報に対応する分布の混合比を変更するとともに、上記複数の検出部により得られる複数の検出情報ごとに確率分布化することにより、複数の検出情報ごとに応じた複数の現時刻の副状態変数確率分布情報を得、
    上記状態変数サンプル取得手順において、上記第1の現時刻の状態変数サンプル候補と、上記複数の現時刻の副状態変数確率分布情報に応じた複数の第2の現時刻の状態変数サンプル候補とについて、予め設定された所定の選択比率に応じてランダムに選択して状態変数サンプルとするとともに、上記検出部の検出情報についての信頼度に基づいて、上記複数の第2の現時刻の状態変数サンプル候補の間での上記選択比率を変更する手順を
    実行させるためのプログラム。
JP2008087321A 2008-03-28 2008-03-28 追跡処理装置、追跡処理方法、プログラム Expired - Fee Related JP4582174B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008087321A JP4582174B2 (ja) 2008-03-28 2008-03-28 追跡処理装置、追跡処理方法、プログラム
US12/410,797 US20090245577A1 (en) 2008-03-28 2009-03-25 Tracking Processing Apparatus, Tracking Processing Method, and Computer Program
CN200910129552A CN101546433A (zh) 2008-03-28 2009-03-26 跟踪处理装置、跟踪处理方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008087321A JP4582174B2 (ja) 2008-03-28 2008-03-28 追跡処理装置、追跡処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2009244929A JP2009244929A (ja) 2009-10-22
JP4582174B2 true JP4582174B2 (ja) 2010-11-17

Family

ID=41117270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008087321A Expired - Fee Related JP4582174B2 (ja) 2008-03-28 2008-03-28 追跡処理装置、追跡処理方法、プログラム

Country Status (3)

Country Link
US (1) US20090245577A1 (ja)
JP (1) JP4582174B2 (ja)
CN (1) CN101546433A (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120013462A1 (en) * 2005-09-28 2012-01-19 Tuck Edward F Personal radio location system
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
CN101414307A (zh) * 2008-11-26 2009-04-22 阿里巴巴集团控股有限公司 提供图片搜索的方法和服务器
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US20110257846A1 (en) * 2009-11-13 2011-10-20 William Bennett Wheel watcher
CN102316394B (zh) * 2010-06-30 2014-09-03 索尼爱立信移动通讯有限公司 蓝牙设备和利用该蓝牙设备的音频播放方法
CN101945210B (zh) * 2010-09-29 2012-07-25 无锡中星微电子有限公司 运动跟踪预测方法
DE102011076779A1 (de) * 2011-05-31 2012-12-06 Airbus Operations Gmbh Verfahren und Vorrichtung zur Vorhersage des Zustands einer Komponente oder eines Systems, Computerprogrammprodukt
US8953889B1 (en) * 2011-09-14 2015-02-10 Rawles Llc Object datastore in an augmented reality environment
US20140313345A1 (en) * 2012-11-08 2014-10-23 Ornicept, Inc. Flying object visual identification system
JP6366999B2 (ja) * 2014-05-22 2018-08-01 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6482844B2 (ja) * 2014-12-11 2019-03-13 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
CN111626194B (zh) * 2020-05-26 2024-02-02 佛山市南海区广工大数控装备协同创新研究院 一种使用深度关联度量的行人多目标跟踪方法
KR20220131646A (ko) * 2021-03-22 2022-09-29 현대자동차주식회사 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141687A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 物体追跡方法、物体追跡装置、物体追跡システム、プログラム、および、記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991441A (en) * 1995-06-07 1999-11-23 Wang Laboratories, Inc. Real time handwriting recognition system
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP4208898B2 (ja) * 2006-06-09 2009-01-14 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141687A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 物体追跡方法、物体追跡装置、物体追跡システム、プログラム、および、記録媒体

Also Published As

Publication number Publication date
CN101546433A (zh) 2009-09-30
JP2009244929A (ja) 2009-10-22
US20090245577A1 (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP4582174B2 (ja) 追跡処理装置、追跡処理方法、プログラム
JP6534664B2 (ja) カメラ動き予測及び修正のための方法
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP4304639B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5355074B2 (ja) 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム
JP6584208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5555207B2 (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP6776882B2 (ja) 運動解析装置、方法及びプログラム
CN111414797B (zh) 用于估计对象的姿势和姿态信息的系统和方法
JP2003346157A (ja) 物体追跡装置及び方法
WO2009154294A1 (ja) 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体
JPWO2005124687A1 (ja) 光学式モーションキャプチャシステムにおけるマーカトラッキング方法、光学式モーションキャプチャ方法及びシステム
JP2017053795A (ja) 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム
JP2022518783A (ja) ロボットデバイスの状態を使用した環境のマッピング
WO2018235219A1 (ja) 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
US7580546B2 (en) Marker-free motion capture apparatus and method for correcting tracking error
Richa et al. Robust 3d visual tracking for robotic-assisted cardiac interventions
JP2009178782A (ja) 移動体、環境地図生成装置、及び環境地図生成方法
WO2012029878A1 (ja) 環境マップ作成装置及び方法、行動予測装置及び方法
JP2007034964A (ja) カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム
Teixeira et al. Deep learning approaches assessment for underwater scene understanding and egomotion estimation
JP2004224171A (ja) 人工衛星の姿勢決定装置
JP6315542B2 (ja) 画像生成装置及び画像生成方法
JP2009075713A (ja) 感情判定方法
WO2021181902A1 (ja) ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees