JP5340228B2 - State estimation device, state estimation method, and program - Google Patents

State estimation device, state estimation method, and program Download PDF

Info

Publication number
JP5340228B2
JP5340228B2 JP2010140961A JP2010140961A JP5340228B2 JP 5340228 B2 JP5340228 B2 JP 5340228B2 JP 2010140961 A JP2010140961 A JP 2010140961A JP 2010140961 A JP2010140961 A JP 2010140961A JP 5340228 B2 JP5340228 B2 JP 5340228B2
Authority
JP
Japan
Prior art keywords
probability distribution
state
appearance
observation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010140961A
Other languages
Japanese (ja)
Other versions
JP2012003719A (en
Inventor
弾 三上
和弘 大塚
淳司 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010140961A priority Critical patent/JP5340228B2/en
Publication of JP2012003719A publication Critical patent/JP2012003719A/en
Application granted granted Critical
Publication of JP5340228B2 publication Critical patent/JP5340228B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、観測対象の状態変化の過去の履歴に基づき、未来の状態変化を推定する状態推定装置、状態推定方法、およびプログラムに関するものである。   The present invention relates to a state estimation device, a state estimation method, and a program for estimating a future state change based on a past history of a state change of an observation target.

観測対象の状態変化により未来の状態変化を推定するための手法として、パーティクルフィルタ(Particle Filter)がある。典型的なパーティクルフィルタの処理では、例えば、(1)現時刻までの過去の観測対象の状態を示す情報に基づき、次の時刻における状態の事前確率分布を推定し、(2)推定された事前確率分布が示す推定される観測対象の状態と、次時刻において観測される観測対象の実際の状態とを比較することで、事後確率分布を求める。この2つの処理を繰り返すことで、動的に変化する観測対象の状態を逐次的に推定することができる。   There is a particle filter as a method for estimating a future state change based on a state change of an observation target. In typical particle filter processing, for example, (1) the prior probability distribution of the state at the next time is estimated based on information indicating the state of the past observation target up to the current time, and (2) the estimated prior The posterior probability distribution is obtained by comparing the estimated state of the observation target indicated by the probability distribution with the actual state of the observation target observed at the next time. By repeating these two processes, it is possible to sequentially estimate the state of the observation object that dynamically changes.

Dan MIKAMI, Kazuhiro OTSUKA, Junji YAMATO: Memory-based Particle Filter for Face Pose Tracking Robust under Complex Dynamics, pp.999-1006, Proc. IEEE CVPR, 2009.Dan MIKAMI, Kazuhiro OTSUKA, Junji YAMATO: Memory-based Particle Filter for Face Pose Tracking Robust under Complex Dynamics, pp.999-1006, Proc.IEEE CVPR, 2009.

三上弾、大塚和弘、大和淳司、“頑健な顔姿勢追跡のための状態履歴の記憶に基づくパーティクルフィルタ” MIRU2009 OS3-1Mikami, Kazuhiro Otsuka, Koji Yamato, “Particle Filter Based on Memory of State History for Robust Face Posture Tracking” MIRU2009 OS3-1

しかしながら、上記非特許文献1、2に記載されているパーティクルフィルタでは、初期化時に観測対象のテンプレートとして正面顔を用いてテンプレートを作成する。そして、事後確率分布を推定する際にはこの正面顔のテンプレートを用いる。正面顔のテンプレートを、事前確率分布を表わすパーティクルによって指定される回転・並進により変形したものと、次時刻において観測される画像と比較し、この比較結果に基づき、事後確率分布を作成する。
このため、例えば、観測対象の姿勢が大きく変わることにより、今まで見えていた部分が徐々に隠れ、今まで見えなかった部分が現れることで、その観測対象の外観形態が大きく変化する。これにより、正面顔のテンプレートとの照合では、観測対象の実際の状況と照合が十分できない場合が生じるという問題があった。
However, in the particle filter described in Non-Patent Documents 1 and 2, a template is created using a front face as a template to be observed at the time of initialization. The front face template is used when estimating the posterior probability distribution. A front face template is deformed by rotation / translation specified by particles representing a prior probability distribution and an image observed at the next time, and a posterior probability distribution is created based on the comparison result.
For this reason, for example, when the posture of the observation target changes greatly, the portion that has been seen until now gradually disappears, and the portion that has not been seen until then appears, so that the appearance of the observation target changes greatly. As a result, there is a problem that the matching with the front face template may not be sufficiently matched with the actual situation of the observation target.

本発明は、上記課題を解決するものであり、観測対象の姿勢が大きく変わる場合であっても、その姿勢の変化に対応した高精度な状態推定を行うことができる状態推定装置、状態推定方法、およびプログラムを提供することを目的とする。   The present invention solves the above-described problem, and is a state estimation device and a state estimation method capable of performing highly accurate state estimation corresponding to a change in posture even when the posture of an observation target changes greatly And to provide a program.

上述の課題を鑑み、本発明に係る状態推定装置は、過去の時刻における観測対象の位置と姿勢を示す状態情報と、当該時刻における前記観測対象の外観形態を示すアピアランス情報と、当該時刻において前記観測対象が前記状態情報の示す状態となる確率を示す時間的再現確率を、それぞれ対応付けるテーブルを記憶する履歴蓄積装置と、過去の前記状態情報および前記時間的再現確率に基づき、未来の前記観測対象の位置と姿勢を示す状態を複数のパーティクルにより表わす状態事前確率分布を作成するとともに、前記状態情報と対応付けられている前記アピアランス情報に基づき、未来の前記観測対象の外観形態を表わすアピアランス事前確率分布を作成する事前確率分布予測部と、外部の観測装置が測定する前記観測対象に関する観測情報を入力し、当該観測情報と前記アピアランス事前確率分布とを照合してこの照合誤差に基づいて観測尤度を算出し、当該観測尤度に応じた重み付けを前記状態事前確率分布に行い事後確率分布を作成する事後確率分布推定部と、前記事後確率分布が示す前記状態情報を前記履歴蓄積装置に更新して蓄積する履歴蓄積部とを備えることを特徴とする。   In view of the above-described problems, the state estimation device according to the present invention includes state information indicating the position and orientation of an observation target at a past time, appearance information indicating an appearance form of the observation target at the time, and the time at the time. Based on the history storage device that stores a table for associating temporal reproduction probabilities indicating the probability that the observation target is in the state indicated by the state information, the past state information and the temporal reproduction probability, A state prior probability distribution representing a state indicating the position and orientation of the object by a plurality of particles, and an appearance prior probability representing an appearance form of the observation object in the future based on the appearance information associated with the state information Observations related to the observation target measured by an external observation device and a prior probability distribution prediction unit that creates a distribution Information is input, the observation information is collated with the appearance prior probability distribution, the observation likelihood is calculated based on the collation error, and the state prior probability distribution is weighted according to the observation likelihood and the posterior probability is calculated. A posterior probability distribution estimation unit that creates a distribution, and a history storage unit that updates and stores the state information indicated by the posterior probability distribution in the history storage device.

また、上述の状態推定装置は、前記時間的再現確率が、前記過去の経時的な前記観測対象の状態の変化と、直前の前記状態情報の類似性に基づいて算出されることを特徴とする。   Further, the state estimation device described above is characterized in that the temporal reproduction probability is calculated based on a change in the state of the observation target over time in the past and the similarity of the state information immediately before. .

また、上述の状態推定装置は、事前確率分布予測部が、前記状態事前確率分布を表わす前記パーティクルと類似する前記状態情報を選択し、当該状態情報と対応付けられている前記アピアランス情報に基づき、前記アピアランス事前確率分布を作成することを特徴とする。   In the above state estimation device, the prior probability distribution prediction unit selects the state information similar to the particles representing the state prior probability distribution, and based on the appearance information associated with the state information, The appearance prior probability distribution is created.

また、上述の課題を鑑み、本発明に係る状態推定方法は、過去の時刻における観測対象の位置と姿勢を示す状態情報と、当該時刻における前記観測対象の外観形態を示すアピアランス情報と、当該時刻において前記観測対象が前記状態情報の示す状態となる確率を示す時間的再現確率を、それぞれ対応付けるテーブルを記憶する履歴蓄積装置を備える状態推定装置における状態推定方法であって、過去の前記状態情報および前記時間的再現確率に基づき、未来の前記観測対象の位置と姿勢を示す状態を複数のパーティクルにより表わす状態事前確率分布を作成するとともに、前記状態情報と対応付けられている前記アピアランス情報に基づき、未来の前記観測対象の外観形態を表わすアピアランス事前確率分布を作成する事前確率分布予測ステップと、外部の観測装置が測定する前記観測対象に関する観測情報を入力し、当該観測情報と前記アピアランス事前確率分布とを照合してこの照合誤差に基づいて観測尤度を算出し、当該観測尤度に応じた重み付けを前記状態事前確率分布に行い事後確率分布を作成する事後確率分布推定ステップと、前記事後確率分布が示す前記状態情報を前記履歴蓄積装置に更新して蓄積する履歴蓄積ステップと、を備えることを特徴とする。   Further, in view of the above-described problems, the state estimation method according to the present invention includes state information indicating the position and orientation of an observation target at a past time, appearance information indicating the appearance form of the observation target at the time, and the time A state estimation method in a state estimation device including a history storage device that stores a table for associating temporal reproduction probabilities indicating the probability that the observation target is in the state indicated by the state information, the past state information and Based on the temporal reproduction probability, creating a state prior probability distribution representing a state indicating the position and orientation of the future observation target by a plurality of particles, and based on the appearance information associated with the state information, Prior probability distribution predictions for creating an appearance prior probability distribution that represents the appearance of the observation object in the future And observation information on the observation target measured by an external observation device, and the observation information and the appearance prior probability distribution are collated to calculate an observation likelihood based on the collation error, and the observation A posteriori probability distribution estimating step for creating a posteriori probability distribution by performing weighting according to likelihood on the condition prior probability distribution, and history storage for updating and storing the state information indicated by the posteriori probability distribution in the history storage device And a step.

また、上述の課題を鑑み、本発明に係るプログラムは、コンピュータに、過去の時刻における観測対象の位置と姿勢を示す状態情報と、当該時刻における前記観測対象の外観形態を示すアピアランス情報と、当該時刻において前記観測対象が前記状態情報の示す状態となる確率を示す時間的再現確率を、それぞれ対応付けるテーブルを記憶する履歴記憶手段、過去の前記状態情報および前記時間的再現確率に基づき、未来の前記観測対象の位置と姿勢を示す状態を複数のパーティクルにより表わす状態事前確率分布を作成するとともに、前記状態情報と対応付けられている前記アピアランス情報に基づき、未来の前記観測対象の外観形態を表わすアピアランス事前確率分布を作成する事前確率分布予測手段、外部の観測装置が測定する前記観測対象に関する観測情報を入力し、当該観測情報と前記アピアランス事前確率分布とを照合してこの照合誤差に基づいて観測尤度を算出し、当該観測尤度に応じた重み付けを前記状態事前確率分布に行い事後確率分布を作成する事後確率分布推定手段、前記事後確率分布が示す前記状態情報を前記履歴記憶手段に更新して蓄積する履歴蓄積手段、として機能させるためのプログラムであることを特徴とする。   Further, in view of the above-described problems, the program according to the present invention causes a computer to store state information indicating the position and orientation of an observation target at a past time, appearance information indicating an appearance form of the observation target at the time, Based on the history storage means for storing a table for associating each of the temporal reproduction probabilities indicating the probability that the observation target becomes the state indicated by the state information at the time, the past state information and the temporal reproduction probability, A state prior probability distribution that represents a state indicating the position and orientation of the observation target by a plurality of particles is created, and an appearance that represents the appearance of the observation target in the future based on the appearance information associated with the state information Prior probability distribution prediction means for creating a prior probability distribution, the view measured by an external observation device Input observation information about the object, collate the observation information with the appearance prior probability distribution, calculate an observation likelihood based on the collation error, and weight the state prior probability distribution according to the observation likelihood. A program for functioning as a posterior probability distribution estimating means for creating a posterior probability distribution, and a history accumulating means for updating and accumulating the state information indicated by the posterior probability distribution in the history storage means, To do.

本発明によれば、観測対象の姿勢が大きく変わり、それに伴ってアピアランスが大きく変化する場合であっても、姿勢とアピアランスの同時事前確率分布を予測することができる。   According to the present invention, it is possible to predict the simultaneous prior probability distribution of the posture and appearance even when the posture of the observation target changes greatly and the appearance changes accordingly.

本発明の第1実施形態にかかる状態推定装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the state estimation apparatus concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる履歴テーブルの一例を示す図である。It is a figure which shows an example of the log | history table concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる時間的再現確率テーブルの一例を示す図である。It is a figure which shows an example of the time reproduction probability table concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる状態推定方法の一例を示すフローチャートである。It is a flowchart which shows an example of the state estimation method concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる事前分布推定方法の一例を示すフローチャートである。It is a flowchart which shows an example of the prior distribution estimation method concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる事前分布推定方法の他の例を示すフローチャートである。It is a flowchart which shows the other example of the prior distribution estimation method concerning 1st Embodiment of this invention. 本発明の第2実施形態にかかる状態推定装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the state estimation apparatus concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかる状態推定方法の一例を示すフローチャートである。It is a flowchart which shows an example of the state estimation method concerning 2nd Embodiment of this invention.

[第1実施形態]
本実施形態に係る状態推定装置1は、パーティクルフィルタとして機能する装置であって、事前確率分布を予測のために、過去の状態推定結果の履歴を保持し、この過去の履歴が再び現れる確率(時間的再現確率)に基づいて事前確率分布を推定するものである。また、本実施形態に係る状態推定装置1は、観測対象の状態推定値と、カメラなどにより観測される外観形態を示す観測値(以下、アピアランス値という)との組を履歴情報として蓄積し、蓄積された履歴情報に基づいて、状態推定値とアピアランス値の同時事前確率分布を求めることで、姿勢の大きな変化に伴うアピアランス(観測対象の外観形態)の大きな変化に対して頑健な追跡を実現するものである。
なお、本実施形態に係る状態推定装置1は、パーティクルフィルタの枠組みで、事前確率分布および事後確率分布をパーティクルの集合によって表わす。状態空間中で、高い確率分布を持つ位置には多くのパーティクルが生成される。
[First Embodiment]
The state estimation device 1 according to the present embodiment is a device that functions as a particle filter, holds a history of past state estimation results for predicting a prior probability distribution, and a probability that this past history appears again ( The prior probability distribution is estimated based on the temporal reproduction probability. In addition, the state estimation device 1 according to the present embodiment accumulates, as history information, a set of a state estimation value to be observed and an observation value (hereinafter referred to as an appearance value) indicating an appearance form observed by a camera or the like, Based on the accumulated history information, by obtaining the simultaneous prior probability distribution of the state estimation value and appearance value, it is possible to perform robust tracking against a large change in appearance (appearance form of observation target) due to a large change in posture To do.
The state estimation device 1 according to the present embodiment represents the prior probability distribution and the posterior probability distribution by a set of particles in the framework of a particle filter. Many particles are generated at positions having a high probability distribution in the state space.

以下、本発明の第1の実施形態について図面を参照しながら説明する。図1は、本発明の第1実施形態に係る状態推定装置1の一例を示すブロック図である。
図1に示す通り、状態推定装置1は、事前確率分布予測部11、事後確率分布推定部12、推定結果算出部13、追跡安定性判定部14、履歴蓄積装置15、形状モデル蓄積装置16、履歴蓄積部17、推定対象時刻設定部18、終了判定部19を有する。
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of a state estimation device 1 according to the first embodiment of the present invention.
As shown in FIG. 1, the state estimation device 1 includes a prior probability distribution prediction unit 11, a posterior probability distribution estimation unit 12, an estimation result calculation unit 13, a tracking stability determination unit 14, a history storage device 15, a shape model storage device 16, A history storage unit 17, an estimation target time setting unit 18, and an end determination unit 19 are included.

履歴蓄積装置15は、追跡開始時刻1から現在時刻Tまでの過去の状態推定結果を示す状態推定値と、後述するアピアランス値とを、時刻毎に対応付けた履歴テーブルD1を保持する。
この履歴テーブルD1は、時刻tに、過去の状態推定値である状態推定値ベクトルxと、当該時刻tに対応するアピアランス値Aを、時刻に対応付けたテーブルであり、その一例を図2に示す。なお、状態推定値ベクトルxとアピアランス値Aとを組み合わせて履歴情報Xといい、ここでは、履歴情報X=(x,A)と示す。
ここで、状態推定値ベクトルxは、ある時刻tにおける状態推定値であり、状態推定値ベクトルxは、現在時刻Tにおける状態推定値である。この状態推定値ベクトルxは、後述する事後確率分布推定部12によって算出される状態推定値である。
アピアランス値Aは、追跡対象であるオブジェクトの外見(外観形態)を表す情報であって、例えば、追跡対象の領域の画素値の集合をアピアランスとして用いることができる。
The history storage device 15 holds a history table D1 in which a state estimation value indicating a past state estimation result from the tracking start time 1 to the current time T and an appearance value to be described later are associated for each time.
The history table D1 is the time t, the state estimate vector x t is the past state estimation value, the appearance values A t corresponding to the time t, a table associating the time, figure an example It is shown in 2. Incidentally, referred to as history information X t in combination with state estimate vector x t and appearance values A t, where the historical information X t = (x t, A t) shown as.
Here, the state estimate vector x t, a state estimation value at a certain time t, the state estimate vector x T, a state estimation value at the current time T. The state estimated value vector xt is a state estimated value calculated by the posterior probability distribution estimating unit 12 described later.
Appearance values A t is information indicating the appearance of a tracked object (exterior form), for example, can be used a set of pixel values in the region of the tracking target as appearance.

また、履歴蓄積装置15は、過去の履歴が再び現れる確率(時間的再現確率)pと時刻を対応付けた時間的再現確率テーブルD2を記憶する。この時間的再現確率(Temporal Recurrent Probabilyty:TRP)は、過去の時刻tの姿勢や位置(状態)が再び現れる確率を示し、時間軸上の関数として定義される。言い換えると、時間的再現確率とは、過去の状態が将来に再び起こる確率をモデル化したものである。
この時間的再現確率テーブルD2は、例えば、図3に示すような、時刻tと、時刻tの姿勢が再び現れる時間的再現確率ptとの組である情報を含む。
Further, the history storage device 15 stores a temporal reproduction probability table D2 in which the probability that the past history appears again (temporal reproduction probability) pt and the time are associated with each other. This temporal reproducibility (TRP) indicates the probability that the posture and position (state) of the past time t will appear again, and is defined as a function on the time axis. In other words, the temporal reproduction probability is a model of the probability that a past state will occur again in the future.
The temporal reproduction probability table D2 includes, for example, information that is a set of a time t and a temporal reproduction probability p t at which the posture at the time t appears again as shown in FIG.

形状モデル蓄積装置16は、追跡対象のおおまかな形状を示す形状モデル情報D3を記憶する。この形状モデル情報D3は、状態推定値に基づき算出される所定量だけ回転あるいは並進させることで、例えば、現在の入力画像上での対象の領域を特定して、アピアランスを求めることができる情報である。   The shape model storage device 16 stores shape model information D3 indicating the approximate shape of the tracking target. This shape model information D3 is information that can determine the appearance of the target area on the current input image and determine the appearance, for example, by rotating or translating by a predetermined amount calculated based on the estimated state value. is there.

事前確率分布予測部11は、履歴蓄積装置15に蓄積されている過去の履歴テーブルD1から履歴情報X=(x,A)を読み出すとともに、時間的再現確率pを算出する。なお、時間的再現確率pは、現在の状態が分かった時(例えば、事後確率分布推定部12に入力した画像が示す現在の状態が事前確率分布予測部11に入力するものであってもよい)に、事前確率分布予測部11によって計算されるものである。この事前確率分布予測部11は、この履歴情報X=(x,A)および時間的再現確率pに基づいて、事前確率分布を推定する。なお、パーティクルフィルタでは、事前確率分布をパーティクルの集合により表わす。つまり、事前確率分布予測部11は、現状態から起こりうる次の時刻における状態を多数のパーティクル(粒子)と見立て、事前確率分布をパーティクルの集合により表わす。 The prior probability distribution prediction unit 11 reads out history information X t = (x t , A t ) from the past history table D1 stored in the history storage device 15 and calculates a temporal reproduction probability p t . It should be noted that the temporal reproduction probability p t is the time when the current state is known (for example, even if the current state indicated by the image input to the posterior probability distribution estimation unit 12 is input to the prior probability distribution prediction unit 11). It is calculated by the prior probability distribution prediction unit 11. The prior probability distribution prediction unit 11 estimates the prior probability distribution based on the history information X t = (x t , A t ) and the temporal reproduction probability p t . In the particle filter, the prior probability distribution is represented by a set of particles. That is, the prior probability distribution prediction unit 11 regards the state at the next time that can occur from the current state as a large number of particles (particles), and represents the prior probability distribution by a set of particles.

例えば、事前確率分布推定部11におけるパーティクル生成方法については、非特許文献1、2を利用可能であり、過去の履歴に基づいて、過去の状態が繰り返し現れることを仮定する。事前確率分布推定部11は、この時間的再現確率に従ったサンプリングに基づいて事前分布を表わすパーティクルを生成する。   For example, for the particle generation method in the prior probability distribution estimation unit 11, it is assumed that Non-Patent Documents 1 and 2 can be used, and that past states repeatedly appear based on past history. Prior probability distribution estimation unit 11 generates particles representing the prior distribution based on sampling according to the temporal reproduction probability.

本発明では事前確率分布を、以下の式(1)で表す。   In the present invention, the prior probability distribution is expressed by the following equation (1).

Figure 0005340228
Figure 0005340228

ここで、X^1:T={(x^,A^),・・・,(x^,A^)}は、状態推定値ベクトルx^と、アピアランス値A^の時刻1から時刻Tまでの履歴情報を表す。また、A^1:T={A^,・・・,A^}は、アピアランス値の時刻1から時刻Tまでの履歴情報を表す。さらに、関数π()は、現在時刻TからΔt時刻分だけ将来での姿勢とアピアランスの同時事前分布を、姿勢とアピアランスの過去の履歴と、Δtとに基づいて予測することを表わす。
なお、zは、時刻tにおける観測ベクトル、z1:T={z,・・・,z}は、観測ベクトルの時刻1から時刻Tまでの系列を表わす。また、xは、時刻tにおける履歴の状態推定値ベクトルを表わし、状態推定値ベクトルx1:T={x,・・・,x}は、履歴の状態推定値ベクトルの時刻1から時刻Tまでの系列を表わす。さらに、Xは、時刻tにおける履歴情報を表わし、状態推定値ベクトルxとアピアランス値Aを含む履歴情報X1:T={X,・・・,X}は、履歴情報の時刻1から時刻Tまでの系列を表わす。
つまり、現在時刻TのΔt時刻後の事前分布を、現在までの履歴情報X1:Tと、予測時間先Δtとから求めるものとして定義している。
Here, X ^ 1: T = {(x ^ 1 , A ^ 1 ), ..., (x ^ T , A ^ T )} is a state estimated value vector x ^ 1 and an appearance value A ^ t. Represents the history information from time 1 to time T. A ^ 1: T = {A ^ 1 ,..., A ^ T } represents history information from appearance time 1 to time T of the appearance value. Further, the function π () represents that the simultaneous prior distribution of the posture and appearance in the future from the current time T by Δt time is predicted based on the past history of the posture and appearance, and Δt.
Here, z t is an observation vector at time t, and z 1: T = {z 1 ,..., Z T } represents a sequence from time 1 to time T of the observation vector. Further, x t represents a history state estimated value vector at time t, and state estimated value vector x 1: T = {x 1 ,..., X T } is from time 1 of the history state estimated value vector. A series up to time T is represented. Furthermore, X t denotes the history information at the time t, the history information X 1 including a state estimate vector x t and appearance values A t: T = {X 1 , ···, X T} is the history information A series from time 1 to time T is represented.
That is, the prior distribution after Δt time of the current time T is defined as being obtained from the history information X 1: T up to the present and the predicted time ahead Δt.

また、上記式(1)は、状態推定値(対象の位置と姿勢を表わす情報)とアピアランス値(対象の外観形態を示すアピアランスを表わす情報)の同時事前分布を、未来の位置や姿勢を示す状態推定値ベクトルxT+Δtと、過去の位置や姿勢を示す状態推定値ベクトルの履歴x^1:T、および、過去のアピアランス値A^1:Tが与えられた条件でのアピアランスの条件付き確率を用いて以下の通り定義する。 Further, the above equation (1) shows the simultaneous prior distribution of the state estimated value (information indicating the position and orientation of the object) and the appearance value (information indicating the appearance indicating the appearance form of the object), and the future position and orientation. Conditional probability of appearance under the condition given state estimated value vector xT + Δt , history estimated value vector history x ^ 1: T indicating past position and posture, and past appearance value A ^ 1: T Is defined as follows.

Figure 0005340228
Figure 0005340228

上述の式(2)の前半部分は、位置や姿勢の事前確率分布(状態事前確率分布)に相当する。ここでは、Δt時刻後の位置や姿勢を示す状態推定値ベクトルxT+Δtがアピアランス値A^1:Tに依存しないこと、つまり姿勢のダイナミクスはアピアランス値には依存しないことと仮定している。後半部分は、姿勢の事前分布が与えられた条件でのアピアランスの条件付き確率分布(アピアランス事前確率分布)に相当する。
ここでは、Δt時刻後のアピアランス値AT+Δtは、Δt時刻後の位置や姿勢を示す状態推定値ベクトルxT+Δt、過去の位置や姿勢を示す状態推定値ベクトルの履歴x^1:T、およびアピアランス値A1:Tに依存し、予測時間先Δtには依存しないことと仮定している。
The first half of the above equation (2) corresponds to a prior probability distribution (state prior probability distribution) of position and orientation. Here, it is assumed that the state estimated value vector x T + Δt indicating the position and posture after the time Δt does not depend on the appearance value A ^ 1: T , that is, the posture dynamics does not depend on the appearance value. The latter half corresponds to an appearance conditional probability distribution (appearance prior probability distribution) under a condition given a posture prior distribution.
Here, the appearance value A T + Δt after the time Δt is the state estimated value vector x T + Δt indicating the position and posture after the time Δt , the history x ^ 1: T of the state estimated value vector indicating the past position and posture, and the appearance. It is assumed that it depends on the value A 1: T and not on the predicted time ahead Δt.

また、式(2)後半部分のアピアランスの条件付き確率を定めるため、アピアランス値の変化が主に姿勢の変動によりもたらされると仮定する。ただし、姿勢とアピアランスには1対1の確定的な関係があるわけではなく、それらの関係には不確定性が含まれることを仮定する。これは以下の様な観察による。
まず、物体の回転により、物体の今まで見えていた部分が見えなくなり、また見えなかった部分が現れることで、アピアランスが大きく変化する。しかし、アピアランスは照明変化や非剛体変形などによっても変化する。また、アピアランスの変化そのものをモデル化することは困難である。なぜなら、アピアランスは非常に高次元であり複雑に変化するためである。
上記の仮定と観測に基づき、本実施形態では姿勢とアピアランスとの関係を一種の確率分布として捉えるアプローチを採用する。ここで、ある姿勢が与えられた場合、その姿勢に対応するアピアランスはある幅を持った分布となり、逆にあるアピアランスが与えられた場合、それに対応する姿勢もある幅を持った分布となる。本実施形態では、このような不確定性をベイジアンフィルタの枠組みにより扱うことができる。
Also, in order to determine the conditional probability of appearance in the latter half of the equation (2), it is assumed that the change in appearance value is mainly caused by the change in posture. However, there is no one-to-one deterministic relationship between posture and appearance, and it is assumed that these relationships include uncertainty. This is due to the following observations.
First, due to the rotation of the object, the part of the object that has been visible until now disappears and the part that has not been visible appears, and the appearance changes greatly. However, the appearance also changes due to illumination changes and non-rigid deformation. In addition, it is difficult to model the appearance change itself. This is because the appearance is very high-dimensional and changes in a complex manner.
Based on the above assumptions and observations, this embodiment adopts an approach that captures the relationship between posture and appearance as a kind of probability distribution. Here, when a certain posture is given, the appearance corresponding to the posture has a distribution having a certain width, and when given a certain appearance, the posture corresponding to the appearance has a distribution having a certain width. In this embodiment, such an uncertainty can be handled by a Bayesian filter framework.

次に、事前確率分布推定部11について、より詳細に説明する。事前確率分布推定部11は、位置と姿勢で表わす状態とアピアランスの同時事前分布を表すパーティクル集合{(x*(1),A*(1)),・・・,(x*(N),A*(N))}を、それらの過去の履歴を用いて生成する。なお、Nは、パーティクルの数である。
ここでは、上述の式(2)の同時事前分布が、対象の位置や姿勢の事前分布π(xT+Δt|x^1:T,Δt)と、それが与えられた下でのアピアランスの条件付き確率分布π(AT+Δt|xT+Δt,x^1:T,A^1:T)の積で表されることに着目し、事前確率分布推定部11を、位置・姿勢の事前分布を表すパーティクルの集合を求め、各パーティクルについてアピアランスを求めるという2段階の構成を有するものとする。ここでは、現在時刻をTとし、現在からΔt時刻後の状態を予測するものとする。また、時刻1からTに至る姿勢の履歴x^1:Tおよびアピアランスの履歴A^1:Tを既に保持しているものとする。
Next, the prior probability distribution estimation unit 11 will be described in more detail. The prior probability distribution estimation unit 11 is a particle set {(x * (1) , A * (1) ),..., (X * (N) , A * (N) )} is generated using those past histories. N is the number of particles.
Here, the simultaneous prior distribution of the above equation (2) is subject to the prior distribution π ( xT + Δt | x ^ 1: T , Δt) of the position and orientation of the object and the condition of the appearance under which it is given Focusing on the fact that it is represented by the product of the probability distribution π (A T + Δt | x T + Δt , x 1: T , A 1: T ), the prior probability distribution estimation unit 11 makes particles representing the prior distribution of position and orientation. And a two-stage configuration in which an appearance is obtained for each particle. Here, it is assumed that the current time is T and a state after Δt time from the present is predicted. Further, it is assumed that posture history x ^ 1: T and appearance history A ^ 1: T from time 1 to T are already held.

<ステップ1 位置や姿勢の事前確率分布の生成>
事前確率分布推定部11は、上述の通り、現時刻の事後確率分布の点推定値と過去の姿勢推定値(状態推定値)の履歴を用いて、時刻T+Δtにおける位置や姿勢の事前確率分布を表すパーティクル集合{x*(1),・・・,x*(N)}を得る。これは式(2)の前半部分に相当するものである。
<Step 1 Generation of prior probability distribution of position and orientation>
As described above, the prior probability distribution estimation unit 11 calculates the prior probability distribution of the position and posture at the time T + Δt using the history of the point estimated value and the past posture estimated value (state estimated value) of the posterior probability distribution at the current time. A particle set {x * (1) ,..., X * (N) } to represent is obtained. This corresponds to the first half of equation (2).

<ステップ2 アピアランスの事前確率分布の生成>
事前確率分布推定部11は、アピアランスの事前確率分布を表すパーティクルを生成するために、式(2)の後半部分の条件付き事前分布π(AT+Δt|xT+Δt,x^1:T,A^1:T)からのランダムサンプリングを行う。これによりステップ1で求められた位置や姿勢の事前確率分布を表すパーティクル{x*(1),・・・,x*(N)}の各々について対応するアピアランス{A*(1),・・・,A*(N)}を生成する。
ここで、必要とされるのは、位置や姿勢x*(i)が与えられた条件でのアピアランスの分布p(A|x*(i))である。事前確率分布推定部11は、このアピアランスの分布を求めるため、x*(i)と類似した過去の姿勢x^におけるアピアランス値A^の混合により算出する。
これにより事前確率分布推定部11は、x*(i)と類似した姿勢x^を履歴から取得し、x*(i)と過去の類似の姿勢x^との差によるアピアランスの差を埋めるため、過去のアピアランス値A^に対して幾何学変形を施す。ここでは、アピアランスの事前分布p(A|x*(i))を、以下に示す式(3)と定義する。
<Step 2 Generation of appearance prior probability distribution>
The prior probability distribution estimating unit 11 generates conditional particles π (A T + Δt | x T + Δt , x ^ 1: T , A ^ in the latter half of the equation (2) in order to generate particles representing the prior probability distribution of appearance. 1: Random sampling from T ). As a result, the appearance {A * (1) ,... Corresponding to each of the particles {x * (1) ,..., X * (N) } representing the prior probability distribution of the position and orientation obtained in step 1. ., A * (N) } is generated.
Here, what is required is an appearance distribution p (A | x * (i) ) under the condition where the position and orientation x * (i) are given. Prior probability distribution estimation unit 11 calculates the appearance distribution by mixing appearance values A ^ t in past postures x ^ t similar to x * (i) .
As a result, the prior probability distribution estimation unit 11 acquires the posture x ^ t similar to x * (i) from the history, and calculates the difference in appearance due to the difference between x * (i) and the past similar posture x ^ t. In order to fill, geometric deformation is applied to the past appearance value A ^ t . Here, the appearance prior distribution p (A | x * (i) ) is defined as the following equation (3).

Figure 0005340228
Figure 0005340228

ここで、f(・)は幾何学変形、δ(・)はディラックデルタ関数、w(t)はx*(i)とx^により定まる重みである。またαは、 Here, f (•) is a geometric deformation, δ (•) is a Dirac delta function, and w (t) is a weight determined by x * (i) and x ^ t . Α is

Figure 0005340228
とするための正規化項である。
Figure 0005340228
Is a normalization term for

そして、事前確率分布推定部11は、式(3)に基づいて、w(t)により重み付けされた過去のアピアランスのランダムサンプリングによってアピアランスの事前確率分布を表すパーティクル集合を生成する。
ここでは、w(t)を履歴選択確率(history selection probability)とする。これは、時間軸上の関数として定義され、アピアランス推定対象の姿勢x*(i)と過去の履歴に含まれる姿勢x^(t=1,・・・,T)とが類似するほど高い値を示す。
ここでは、位置や姿勢を表わす状態とアピアランスの関係の不確定性を過去の履歴の集合を用いて表現しており、履歴選択確率を用いた履歴からのランダムサンプリングにより、任意の姿勢に対応したアピアランスの分布が得られることを期待している。以下にステップ2の具体的手順を示す。
Then, the prior probability distribution estimation unit 11 generates a particle set representing the prior probability distribution of appearance by random sampling of past appearances weighted by w (t) based on the equation (3).
Here, w (t) is assumed to be a history selection probability. This is defined as a function on the time axis, and is higher as the posture x * (i) of the appearance estimation target is similar to the posture x ^ t (t = 1,..., T) included in the past history. Indicates the value.
Here, the uncertainties in the relationship between the state representing the position and posture and the appearance are expressed using a set of past histories, and the random sampling from the history using the history selection probability corresponds to any posture. We expect to see a distribution of appearances. The specific procedure of step 2 is shown below.

<ステップ2−1 履歴のサンプリング>
事前確率分布推定部11は、パーティクルx*(i)と類似した姿勢の履歴をサンプリングする。例えば、事前確率分布推定部11は、x*(i)に対してひとつの過去の姿勢x^,t〜w(t)を履歴選択確率に基づいてサンプリングする。これは、多くのサンプルx*(i),(i=1,・・・,N)を用いるため、各パーティクルについて、ひとつのアピアランスであってもアピアランスの多様性を十分に表現可能なためである。
ここでは、履歴選択確率w(t)として、アピアランス推定対象の姿勢x*(i)と、各時刻tの履歴における姿勢x^(t<T)のユークリッド距離の逆数に比例する関数を用いる。
<Step 2-1 History sampling>
Prior probability distribution estimation unit 11 samples a history of postures similar to particles x * (i) . For example, the prior probability distribution estimation unit 11 samples one past posture x ^ t , t to w (t) for x * (i) based on the history selection probability. This is because a large number of samples x * (i) , (i = 1,..., N) are used, so that a variety of appearances can be expressed sufficiently even with one appearance for each particle. is there.
Here, as the history selection probability w (t), a function proportional to the reciprocal of the Euclidean distance between the posture x * (i ) of the appearance estimation target and the posture x ^ t (t <T) in the history at each time t is used. .

Figure 0005340228
Figure 0005340228

ここで,βは   Where β is

Figure 0005340228
とするための正規化項である.
Figure 0005340228
Is a normalization term for.

<ステップ2−2 アピアランスの推定>
サンプリングされた姿勢x^とアピアランスの推定対象パーティクルの姿勢x*(i)との差を考慮して、A^に対して、式(5)の幾何学変形を施すことで、A*(i)を求める。
<Step 2-2 Estimation of appearance>
In consideration of the difference between the sampled posture x ^ t and the posture x * (i) of the appearance estimation target particle, A * t is subjected to the geometrical transformation of Equation (5) to obtain A *. (I) is determined.

Figure 0005340228
Figure 0005340228

ここでは、微小な姿勢変化による微小なアピアランスの変化に関しては幾何学変形により良く予測できることを仮定している。   Here, it is assumed that a minute change in appearance due to a minute posture change can be predicted well by geometric deformation.

例えば、事前確率分布推定部11は、(1)時間的再現確率を求め、(2)時間的再現確率から時間的なサンプリングを行い、(3)サンプリングされた過去の時刻における状態推定値を参照し、さらに不確定性を考慮したカーネル分布を重畳し、事前分布を求める。事前確率分布推定部11は、この事前確率分布から、空間的なサンプリングを行うことで、事前確率分布を表わすパーティクルの集合を得る。   For example, the prior probability distribution estimation unit 11 (1) obtains a temporal reproduction probability, (2) performs temporal sampling from the temporal reproduction probability, and (3) refers to a state estimation value at a sampled past time. In addition, a prior distribution is obtained by superimposing kernel distributions taking uncertainty into consideration. The prior probability distribution estimation unit 11 obtains a set of particles representing the prior probability distribution by performing spatial sampling from the prior probability distribution.

事後確率分布推定部12は、事前確率分布推定11によって推定的に算出される事前確率分布とその観測尤度とを用いて、事後確率分布を推定的に算出する。この事後確率分布推定部12は、パーティクルフィルタの枠組みで、観測尤度により重み付けされたパーティクルの集合により、事後確率分布を表わす。
従って、事後確率分布推定部12は、事前確率分布を表わすパーティクルの集合のそれぞれについて、照合誤差を求め、この照合誤差に基づいて観測尤度を計算する。つまり、事後確率分布推定部12は、事前確率分布推定部11によって算出されたアピアランス値Aを用いて観測尤度を求める。
The posterior probability distribution estimation unit 12 uses the prior probability distribution estimated by the prior probability distribution estimation 11 and its observation likelihood to estimate the posterior probability distribution. This posterior probability distribution estimation unit 12 represents the posterior probability distribution by a set of particles weighted by the observation likelihood in the framework of the particle filter.
Therefore, the posterior probability distribution estimation unit 12 obtains a matching error for each set of particles representing the prior probability distribution, and calculates an observation likelihood based on the matching error. That is, the posterior probability distribution estimation unit 12 obtains the observation likelihood using the appearance value A calculated by the prior probability distribution estimation unit 11.

そして、全パーティクルの観測尤度に基づいた重み付け平均を次状態として予測しながら追跡を行っていく。そのため、各パーティクルについて観測尤度から重みを求め、重み付きパーティクル集合を得る。
この事後確率分布は、以下の式(6)で表すことができる。
Then, tracking is performed while predicting the weighted average based on the observation likelihood of all particles as the next state. Therefore, a weight is obtained from the observation likelihood for each particle to obtain a weighted particle set.
This posterior probability distribution can be expressed by the following equation (6).

Figure 0005340228
Figure 0005340228

ここで,kは、正規化項である。また、p(z|x)は、観測尤度である。 Here, k t is a normalization term. Moreover, p (z t | x t ) is an observation likelihood.

なお、観測尤度とは、事前確率分布予測部11によって算出された事前確率分布が、観測結果からみて推定された位置に近いか否かを表わすものである。例えば、追跡対象をカメラで撮影した画像データと、テンプレートを各パーティクルの状態により変形(回転・並進)したものを照合することで、各パーティクルの状態がどの程度尤もらしいか判定を行うことができる。事後確率分布推定部12では追跡対象に関する観測情報(入力画像など)と事前確率分布に基づき観測尤度を算出する。この事後確率分布推定部12は、事前確率分布を表わすパーティクルの集合のそれぞれについて、照合誤差を求め、この照合誤差に基づいて観測尤度を計算する。ここで、xは時刻tにおける位置や姿勢パラメータを表す姿勢推定値(状態パラメータ)である。pは、過去の時刻tの姿勢が再び現れる確率を示す時間的再現確率である。
また、事後確率分布推定部12は、算出した観測尤度に応じたスコアで重み付けされたパーティクルの集合を算出して、これを事後確率分布として推定結果算出部13に出力する。
Note that the observation likelihood represents whether or not the prior probability distribution calculated by the prior probability distribution prediction unit 11 is close to the position estimated from the observation result. For example, it is possible to determine how likely the state of each particle is by comparing image data obtained by capturing the tracking target with a camera and a template that is deformed (rotated / translated) according to the state of each particle. . The posterior probability distribution estimation unit 12 calculates an observation likelihood based on observation information (such as an input image) related to the tracking target and an a priori probability distribution. The posterior probability distribution estimation unit 12 obtains a matching error for each set of particles representing the prior probability distribution, and calculates an observation likelihood based on the matching error. Here, xt is an estimated posture value (state parameter) representing a position or posture parameter at time t. p t is a temporal reproduction probability indicating the probability that the posture at the past time t appears again.
Further, the posterior probability distribution estimation unit 12 calculates a set of particles weighted with a score corresponding to the calculated observation likelihood, and outputs this to the estimation result calculation unit 13 as a posterior probability distribution.

推定結果算出部13は、事後確率分布推定部12によって算出された事後確率分布を表す重み付きパーティクル集合を用いて、推定結果情報D4を算出する。この推定結果算出部13は、例えば、事後確率分布を表すパーティクルの重み付き平均、あるいは、最大観測尤度を持つパーティクルの姿勢などにより推定結果情報D4を求める。言い換えると、推定結果算出部13は、例えば、観測尤度の重みにより重み付けしたパーティクルの状態の平均を推定結果情報D4として得る。   The estimation result calculation unit 13 calculates the estimation result information D4 using the weighted particle set representing the posterior probability distribution calculated by the posterior probability distribution estimation unit 12. The estimation result calculation unit 13 obtains the estimation result information D4 based on, for example, a weighted average of particles representing the posterior probability distribution or the posture of a particle having the maximum observation likelihood. In other words, for example, the estimation result calculation unit 13 obtains, as the estimation result information D4, an average of the particle states weighted by the weight of the observation likelihood.

また、推定結果算出部13は、形状モデル蓄積装置16から追跡対象のおおまかな形状を示す形状モデル情報D3を読み出すとともに、履歴蓄積装置15から姿勢推定値の履歴テーブルD1から状態推定値ベクトルxを読み出し、この形状モデル情報D3と状態推定値ベクトルxに基づき、アピアランスの推定結果を示す時刻tに対応するアピアランス値Aを算出する。
この推定結果算出部13は、例えば、形状モデル情報D3を、履歴テーブルD1の状態推定値ベクトルxに応じた変化量で形状モデルを回転・並進させることで、現在の入力画像上での対象の領域を特定して、アピアランスを求める。ここで、アピアランスとは、オブジェクトの外見を表す情報である。例えば、追跡対象の領域の画素値の集合をアピアランスとして用いることができる。
In addition, the estimation result calculation unit 13 reads shape model information D3 indicating the approximate shape of the tracking target from the shape model storage device 16, and also stores the state estimation value vector x t from the history estimation device history table D1 from the history storage device 15. reading, on the basis of the shape model information D3 and state estimate vector x t, and calculates the appearance values a t corresponding to the time t indicating the estimation result of the appearance.
The estimation result calculation unit 13, for example, the subject of the geometric model information D3, the shape model is rotated, the translation by a variation amount according to the state estimation value vector x t in the history table D1, on the current input image Identify the area of the and determine the appearance. Here, the appearance is information representing the appearance of the object. For example, a set of pixel values in the region to be tracked can be used as an appearance.

この推定結果算出部13によるアピアランスの求め方は、手法に依存する。追跡対象の領域の画素の集合をアピアランスとする手法では、推定結果算出部13が、その領域の画素値をアピアランスとする。また、追跡対象の領域から予め決められた特徴を示す特徴点を抽出する処理により注目点(特徴点)を選択してアピアランスとする手法では、推定結果算出部13が、特定された追跡対象の領域に対して、同様の処理を行い、アピアランスを求める。   The method of obtaining the appearance by the estimation result calculation unit 13 depends on the method. In the technique in which a set of pixels in the tracking target area is used as the appearance, the estimation result calculation unit 13 sets the pixel value in the area as the appearance. In addition, in the method of selecting an attention point (feature point) by the process of extracting a feature point indicating a predetermined feature from the region to be tracked and making it an appearance, the estimation result calculation unit 13 causes the specified tracking target to be identified. The same processing is performed on the area to obtain the appearance.

追跡安定性判定部14は、現在の推定結果情報D4の信頼性について判定を行う。この追跡安定性判定部14は、現在の推定結果情報D4が信頼できると判定した場合、推定対象時刻設定部18へ処理を移す。一方、追跡安定性判定部14は、現在の状態推定結果情報D2が信頼できないと判定した場合、現在の状態推定結果情報D2を履歴蓄積装置15に蓄積させることなく削除する。つまり、追跡安定性判定部14は、信頼できると判断した場合、推定対象時刻設定部18に対して対象時刻を設定する処理を指示する。
なお、追跡安定性判定部14による信頼性の判定については、重みの最大のパーティクルの重みをしきい値処理することで求めることができる。追跡安定性判定部14は、重みが予め定められたしきい値Rよりも大きい場合、その状態推定結果情報D2は信頼できるものと判定する。
The tracking stability determination unit 14 determines the reliability of the current estimation result information D4. When it is determined that the current estimation result information D4 is reliable, the tracking stability determination unit 14 moves the process to the estimation target time setting unit 18. On the other hand, if the tracking stability determination unit 14 determines that the current state estimation result information D2 is unreliable, the tracking stability determination unit 14 deletes the current state estimation result information D2 without storing it in the history storage device 15. That is, when it is determined that the tracking stability determination unit 14 is reliable, the tracking stability determination unit 14 instructs the estimation target time setting unit 18 to set the target time.
The reliability determination by the tracking stability determination unit 14 can be obtained by performing threshold processing on the weight of the largest weighted particle. When the weight is larger than the predetermined threshold value R, the tracking stability determination unit 14 determines that the state estimation result information D2 is reliable.

履歴蓄積部17は、追跡安定性判定部14から出力される推定結果情報D4を、履歴テーブルD1の時刻と対応付けて、履歴蓄積装置15に蓄積する。
推定対象時刻設定部18は、追跡対象の時刻をインクリメントする。
終了判定部19は、状態推定を継続するか否かを判断する。継続する場合、終了判定部19は、事前確率分布予測部11に対して、再び状態推定を行うことを指示する。
The history storage unit 17 stores the estimation result information D4 output from the tracking stability determination unit 14 in the history storage device 15 in association with the time of the history table D1.
The estimation target time setting unit 18 increments the tracking target time.
The end determination unit 19 determines whether or not to continue state estimation. When continuing, the end determination unit 19 instructs the prior probability distribution prediction unit 11 to perform state estimation again.

次に、図4を参照して、本実施形態に係る状態推定方法の一例について説明する。図4は、本実施形態に係る状態推定方法の一例について説明する図である。本発明では、推定対象の状態として、位置や姿勢に加えて、アピアランスを含め、両者の事前確率分布を過去の履歴に基づいて推定する。
図4に示す通り、本発明の状態推定方法は、事前確率分布を予測する事前確率分布予測ステップST10と事後確率分布を推定する事後確率分布推定ステップST20と、推定結果を算出する推定結果算出ステップST30と、追跡の安定性を判定する追跡安定性判定ステップST40と、履歴を蓄積する履歴蓄積ステップST50と、状態推定対象時刻を設定する対象時刻設定ステップST60と、終了したかどうかを判定する終了判定ステップST70とを有する。
Next, an example of the state estimation method according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining an example of the state estimation method according to the present embodiment. In the present invention, as the state of the estimation target, in addition to the position and orientation, the prior probability distribution of both including the appearance is estimated based on the past history.
As shown in FIG. 4, the state estimation method of the present invention includes a prior probability distribution prediction step ST10 for predicting a prior probability distribution, a posterior probability distribution estimation step ST20 for estimating a posterior probability distribution, and an estimation result calculating step for calculating an estimation result. ST30, tracking stability determination step ST40 for determining tracking stability, history storage step ST50 for storing history, target time setting step ST60 for setting state estimation target time, and end for determining whether or not the processing has ended Determination step ST70.

事前確率分布予測ステップST10では、事前確率分布予測部11が、履歴蓄積装置15に蓄積された過去の履歴テーブルD1と時間的再現確率テーブルD2を参考にして事前確率分布を算出する。
事前確率分布予測部11は、状態の事前確率分布を予測する。ここで状態は、位置や姿勢およびアピアランスを含む。パーティクルフィルタの枠組みでは、確率分布をパーティクルの集合で表わす。そのため、事前確率分布予測部11は、位置や姿勢とアピアランスの同時事前分布を表すパーティクルの集合を求める。
In the prior probability distribution prediction step ST10, the prior probability distribution prediction unit 11 calculates the prior probability distribution with reference to the past history table D1 and the temporal reproduction probability table D2 stored in the history storage device 15.
The prior probability distribution prediction unit 11 predicts the prior probability distribution of the state. Here, the state includes a position, posture, and appearance. In the particle filter framework, the probability distribution is represented by a set of particles. Therefore, the prior probability distribution prediction unit 11 obtains a set of particles representing the simultaneous prior distribution of position, posture, and appearance.

事後確率分布推定ステップST20では、事後確率分布推定部12が、事前確率分布推定ステップST10において事前確率分布予測部11によって推定された事前確率分布と、その観測尤度とを用いて事後確率分布を算出する。例えば、事後確率分布推定部12は、事前確率分布が表わすパーティクルの集合それぞれについて、照度誤差を求め、照度誤差に基づいて観測尤度を計算し、各パーティクルについて観測尤度に応じた重みに基づき、重み付きパーティクル集合を、事後確率分布として得る。   In the posterior probability distribution estimation step ST20, the posterior probability distribution estimation unit 12 calculates the posterior probability distribution using the prior probability distribution estimated by the prior probability distribution prediction unit 11 in the prior probability distribution estimation step ST10 and its observation likelihood. calculate. For example, the posterior probability distribution estimation unit 12 calculates an illuminance error for each set of particles represented by the prior probability distribution, calculates an observation likelihood based on the illuminance error, and based on a weight corresponding to the observation likelihood for each particle. The weighted particle set is obtained as a posterior probability distribution.

推定結果算出ステップST30では、推定結果算出部13が、事後確率分布推定部12によって算出された事後確率分布を表す重み付きパーティクル集合を用いて姿勢の推定結果(状態推定結果値D5)を算出するとともに、アピアランスの推定結果(アピアランス推定結果値D6)を算出する。なお、上述の推定結果情報D4は、状態推定結果値D5と、アピアランス推定結果値D6とを含む。
具体的にいうと、推定結果算出部13は、事後確率分布を表すパーティクルの重み付き平均、あるいは、最大尤度を持つパーティクルの姿勢などにより姿勢の推定結果(状態推定結果値D3)を算出する。また、推定結果算出部13は、形状モデル蓄積装置16に蓄積された、追跡対象のおおまかな形状と姿勢推定値とからアピアランスの推定結果(アピアランス推定結果値D6)を算出する。
In the estimation result calculation step ST30, the estimation result calculation unit 13 calculates a posture estimation result (state estimation result value D5) using a weighted particle set representing the posterior probability distribution calculated by the posterior probability distribution estimation unit 12. At the same time, an appearance estimation result (appearance estimation result value D6) is calculated. The estimation result information D4 described above includes a state estimation result value D5 and an appearance estimation result value D6.
Specifically, the estimation result calculation unit 13 calculates a posture estimation result (state estimation result value D3) based on a weighted average of particles representing the posterior probability distribution or the posture of particles having the maximum likelihood. . Further, the estimation result calculation unit 13 calculates an appearance estimation result (appearance estimation result value D6) from the rough shape of the tracking target and the posture estimation value stored in the shape model storage device 16.

追跡安定性判定ステップST40では、追跡安定性判定部14が、現在の状態推定結果の信頼性について判定を行う。この追跡安定性判定部14は、現在の状態推定結果が信頼できると判定された場合、状態推定対象時刻設定ステップST60へ処理を移す。一方、信頼できないと判定された場合、追跡安定性判定部14は、履歴蓄積ステップST50へ処理を移す。   In the tracking stability determination step ST40, the tracking stability determination unit 14 determines the reliability of the current state estimation result. When it is determined that the current state estimation result is reliable, the tracking stability determination unit 14 moves the process to the state estimation target time setting step ST60. On the other hand, if it is determined that it is not reliable, the tracking stability determination unit 14 moves the process to the history accumulation step ST50.

履歴蓄積ステップST50では、追跡安定性判定部14から出力される状態推定結果値D5およびアピアランス推定結果値D6を、時刻tごとに、それぞれ、履歴テーブルD1の状態推定値ベクトルxおよびアピアランス値Aとして、履歴蓄積装置15に蓄積する。 In the history storage step ST50, the state estimation result value D5 and appearance estimation result value D6 outputted from the tracking stability determination unit 14, for each time t, respectively, the state estimation value of the history table D1 vector x t and appearance values A t is stored in the history storage device 15.

推定対象時刻設定ステップST60では、推定対象時刻設定部18が、追跡対象の時刻をインクリメントする。
終了判定ステップST70では、終了判定部19が、状態推定を継続するか否かを判断する。継続する場合はステップST10へ移行する。
In the estimation target time setting step ST60, the estimation target time setting unit 18 increments the tracking target time.
In the end determination step ST70, the end determination unit 19 determines whether or not to continue the state estimation. When continuing, it transfers to step ST10.

<事前確率分布予測方法1>
次に、図5を参照して、図4に示した事前確率分布予測ステップST10の一例についてさらに詳しく説明する。図5は、事前確率分布予測ステップST10に含まれるステップを説明するためのフローチャートである。
ステップST101で、事前確率分布予測部11は、姿勢の事前確率分布からのランダムサンプリングによって、姿勢の事前確率分布を表す1つのパーティクルを得る。なお、事前確率分布予測部11による姿勢の事前確率分布の取得方法は、パーティクルフィルタの枠組みで頻繁に用いられる、直前の事後確率分布からのランダムウォークなどが利用可能である。ただし、これに限らず、非特許文献1、2に記載の時間的再現確率を用いる方法等であってもよい。
<Advance Probability Distribution Prediction Method 1>
Next, an example of the prior probability distribution prediction step ST10 shown in FIG. 4 will be described in more detail with reference to FIG. FIG. 5 is a flowchart for explaining the steps included in the prior probability distribution prediction step ST10.
In step ST101, the prior probability distribution prediction unit 11 obtains one particle representing the prior probability distribution of the posture by random sampling from the prior probability distribution of the posture. Note that the method of acquiring the prior probability distribution of the posture by the prior probability distribution prediction unit 11 can use a random walk from the immediately preceding posterior probability distribution, which is frequently used in the framework of a particle filter. However, the method is not limited to this, and a method using the temporal reproduction probability described in Non-Patent Documents 1 and 2 may be used.

ステップST102で、事前確率分布予測部11は、ステップST101において得られた姿勢の事前確率分布を表わす1つのパーティクルに対して、過去の履歴を用いてアピアランスを求める。例えば、類似した過去の姿勢のアピアランスを用いるなどの方法が考えられる。
ステップST103で、事前確率分布予測部11は、ステップST101において得られた姿勢とステップST102において推定されたアピアランスの組をパーティクルの集合に加える。
事前確率分布予測部11は、このステップST101〜103をあらかじめ定められた規定のパーティクル数に達するまで繰り返す。
In step ST102, the prior probability distribution prediction unit 11 obtains an appearance using the past history for one particle representing the prior probability distribution of the posture obtained in step ST101. For example, a method of using an appearance of a similar past posture is conceivable.
In step ST103, the prior probability distribution prediction unit 11 adds the set of the posture obtained in step ST101 and the appearance estimated in step ST102 to the set of particles.
Prior probability distribution prediction unit 11 repeats steps ST101 to ST103 until a predetermined number of particles is reached.

<事前確率分布予測方法2>
次に、図6を参照して、図4に示した事前確率分布予測ステップST10の他の例についてさらに詳しく説明する。図6は、事前確率分布予測ステップST10に含まれるステップを説明するためのフローチャートである。
ステップST121で、事前確率分布予測部11は、姿勢の事前確率分布からのランダムサンプリングによって、姿勢の事前確率分布を表わす1つのパーティクルを取得し、これを、ランダムノイズを加えて姿勢の事前分布を表すパーティクルとする。
この事前確率分布予測部11は、パーティクルフィルタの枠組みでしばしば用いられるように、直前の事後確率分布からランダムウォークによって姿勢の事前確率分布を求めることができる。また、事前確率分布予測部11は、非特許文献1、2のように、過去の履歴が時間的再現確率に従って再びあらわれることを仮定して姿勢の事前確率分布を求めるものであっても良い。
<Advance Probability Distribution Prediction Method 2>
Next, another example of the prior probability distribution prediction step ST10 shown in FIG. 4 will be described in more detail with reference to FIG. FIG. 6 is a flowchart for explaining the steps included in the prior probability distribution prediction step ST10.
In step ST121, the prior probability distribution prediction unit 11 acquires one particle representing the prior probability distribution of the posture by random sampling from the prior probability distribution of the posture, and adds the random noise to the prior probability distribution of the posture. Let the particles represent.
The prior probability distribution prediction unit 11 can obtain the prior probability distribution of the posture by a random walk from the immediately preceding posterior probability distribution, as is often used in the framework of particle filters. Further, the prior probability distribution prediction unit 11 may calculate the prior probability distribution of the posture on the assumption that the past history appears again according to the temporal reproduction probability as in Non-Patent Documents 1 and 2.

なお、非特許文献1による場合、(1)時間的再現確率に従って過去の履歴を1つ選択し、(2)選択された過去の履歴の姿勢にガウシアンノイズを加え、パーティクルの姿勢とする。ただし、時間的再現確率は、予測時間先(何時刻先を予測しているかを示す情報)、過去の姿勢の履歴と、直前の姿勢推定値との類似性に基づいて計算される。現在の状態と類似した姿勢に続く履歴は再び現れる可能性が高いと仮定し、時間的再現確率が大きな値をとる。   In the case of Non-Patent Document 1, (1) one past history is selected according to the temporal reproduction probability, and (2) Gaussian noise is added to the selected past history posture to obtain the particle posture. However, the temporal reproduction probability is calculated based on the similarity between the predicted time ahead (information indicating what time ahead is predicted), the past posture history, and the previous posture estimated value. It is assumed that the history following the posture similar to the current state is likely to appear again, and the temporal reproduction probability takes a large value.

ステップST122で、事前確率分布予測部11は、パーティクルの姿勢と類似した姿勢の履歴を選択する。
ステップST123で、事前確率分布予測部11は、履歴のアピアランスを、パーティクルの姿勢と、選択された履歴の姿勢に基づいて幾何変形し、パーティクルのアピアランスを推定する。幾何変形は、3次元回転などが考えられる。
ステップST124で、事前確率分布予測部11は、ステップST121で得られた姿勢と、ステップST123で得られたアピアランスの組を、事前分布を表すパーティクル集合に加える。
In step ST122, the prior probability distribution prediction unit 11 selects a posture history similar to the particle posture.
In step ST123, the prior probability distribution prediction unit 11 geometrically deforms the appearance of the history based on the posture of the particle and the selected posture of the history, and estimates the appearance of the particle. The geometric deformation may be a three-dimensional rotation.
In step ST124, the prior probability distribution prediction unit 11 adds the set of the posture obtained in step ST121 and the appearance obtained in step ST123 to the particle set representing the prior distribution.

なお、事前分布予測手順ステップST122で、事前確率分布予測部11は、パーティクルの姿勢と類似した姿勢を確率的に選択する。この事前確率分布予測部11は、例えば、パーティクルの姿勢と過去の履歴の姿勢との差の逆数に比例した確率に従うことができる。あるいは、事前確率分布予測部11は、パーティクルの姿勢と過去の履歴の姿勢との差をdとして、以下の式に従う確率としてもよい。   Note that in the prior distribution prediction procedure step ST122, the prior probability distribution prediction unit 11 probabilistically selects a posture similar to the particle posture. For example, the prior probability distribution prediction unit 11 can follow a probability proportional to the inverse of the difference between the particle posture and the past history posture. Alternatively, the prior probability distribution prediction unit 11 may set the difference between the particle posture and the past history posture as d and the probability according to the following equation.

Figure 0005340228
Figure 0005340228

ここで、σは、あらかじめ定められた定数であり、選択される確率の分散を示す。分散σが大きい場合、パーティクルの姿勢との差が大きな過去の履歴が選択される確率が高まる。   Here, σ is a predetermined constant and indicates the variance of the selected probability. When the variance σ is large, the probability that a past history having a large difference from the particle posture is selected increases.

また、本発明によれば、事前確率分布推定部11は、すべてのパーティクルについて、ステップST10で位置や姿勢に加えてアピアランスを推定している。そのため、ステップST20で、事後確率分布推定部12が、推定されたアピアランスと入力画像とを照合することで、照合誤差を求め、照合誤差に基づいて観測尤度を計算し、それを各パーティクルの重みとする。この重み付けされたパーティクルの集合が事後確率分布を表す。   Further, according to the present invention, the prior probability distribution estimation unit 11 estimates the appearance of all particles in addition to the position and orientation in step ST10. Therefore, in step ST20, the posterior probability distribution estimation unit 12 collates the estimated appearance with the input image to obtain a collation error, calculates an observation likelihood based on the collation error, and calculates it for each particle. Use weights. This set of weighted particles represents the posterior probability distribution.

ここで、アピアランスの例として、追跡対象領域内のピクセル値の集合、あるいは、追跡対象の注目点の座標とその画素値の集合などが考えられる。
また、照合誤差の計算方法として、画素値の絶対誤差の和、画素値の絶対誤差eに対してロバスト関数を適用したものg(e)=e/(e+1)などが利用可能であるが、本発明はこれに限られない。
Here, as an example of the appearance, a set of pixel values in the tracking target region, or a set of coordinates of the attention point of the tracking target and the pixel values thereof can be considered.
In addition, as a method for calculating a matching error, a sum of absolute errors of pixel values, a g (e) = e / (e + 1) obtained by applying a robust function to an absolute error e of pixel values, and the like can be used. The present invention is not limited to this.

ステップST30で、推定結果算出部13は、事後確率分布に基づいて推定結果を求める。まず、推定結果算出部13は、各パーティクルが保持する姿勢と重みを用いて、重み付け平均で姿勢の推定結果を求める。
この推定結果算出部13は、アピアランスの推定結果の算出において、追跡対象の形状モデルを姿勢推定結果によって回転・並進することで、対象の画面上での位置を求め、その領域のアピアランスを、推定結果のアピアランスとして得る。物体は姿勢が変化すると観測される外見は変化する。
本発明では、形状モデル蓄積装置16に蓄積された既知の形状モデルを、姿勢推定結果に応じて回転・並進させることで、現在観測できる外見(外観形態)を特定する。特定された追跡対象の領域からアピアランスを取得する。
In step ST30, the estimation result calculation unit 13 obtains an estimation result based on the posterior probability distribution. First, the estimation result calculation unit 13 obtains a posture estimation result by weighted average using the posture and weight held by each particle.
In calculating the appearance estimation result, the estimation result calculation unit 13 obtains the position of the target on the screen by rotating and translating the shape model of the tracking target according to the posture estimation result, and estimates the appearance of the region. As a result appearance. The appearance of the object changes as the posture changes.
In the present invention, a known shape model stored in the shape model storage device 16 is rotated and translated in accordance with the posture estimation result, thereby specifying an appearance (appearance form) that can be observed at present. Obtain an appearance from the identified tracked area.

アピアランスの例として、追跡対象の領域の画素値の集合や、追跡対象の領域から何らかの注目点検出をした結果の座標値と画素値の集合などが考えられる。   As an example of appearance, a set of pixel values of a tracking target region, a set of coordinate values and pixel values as a result of detecting a certain point of interest from the tracking target region, and the like can be considered.

ステップST40で、追跡安定性判定部14は、追跡が安定しているか否かを判定する。これは、パーティクルの最大尤度などにより判断でき、最大尤度がしきい値より大きい場合、追跡が安定していると考える。その他、パーティクルの分散・尖度・歪度などの指標を用いてもかまわない。追跡が安定している場合にはステップST50へ移行する。そうでない場合にはステップST60へ移行する。
ステップST50で、履歴蓄積部17は、履歴を蓄積する。本発明における履歴は、ステップST30で求められる過去の姿勢推定値(状態推定値)とアピアランス値の組である。これを履歴蓄積装置15に蓄積する。
In step ST40, the tracking stability determination unit 14 determines whether tracking is stable. This can be determined by the maximum likelihood of the particle and the like. If the maximum likelihood is larger than the threshold value, it is considered that the tracking is stable. Other indexes such as particle dispersion, kurtosis, and skewness may be used. If the tracking is stable, the process proceeds to step ST50. Otherwise, the process proceeds to step ST60.
In step ST50, the history storage unit 17 stores the history. The history in the present invention is a set of past posture estimated values (state estimated values) and appearance values obtained in step ST30. This is stored in the history storage device 15.

[第2実施形態]
本実施形態に係る状態推定装置2は、カメラによって撮影される映像中に映る人物の顔姿勢の追跡を行う。この状態推定装置2は、図7に示す通り、上述の状態推定装置1にカメラ21と画像処理部22とをさらに備える構成である。ここでは各構成の詳細については、第1実施形態と同一の符号を付すことで、その説明を省略する。
この顔状態の追跡とは、顔の画面上での位置および向き(姿勢)を推定することである。本発明では、追跡対象の位置と姿勢x(画面上での顔の中心(m,m)と3軸中心回転(r,r,r)を含むベクトル)とアピアランス値Aを推定対象の状態を示す情報とする。
[Second Embodiment]
The state estimation device 2 according to the present embodiment tracks the face posture of a person shown in a video shot by a camera. As shown in FIG. 7, the state estimation device 2 is configured to further include a camera 21 and an image processing unit 22 in the state estimation device 1 described above. Here, the details of each component are denoted by the same reference numerals as those in the first embodiment, and the description thereof is omitted.
The tracking of the face state is to estimate the position and orientation (posture) of the face on the screen. In the present invention, the position and orientation x of the tracking target (a vector including the center (m x , m y ) of the face on the screen and the three-axis center rotation (r x , r y , r z )) and the appearance value A The information indicates the state of the estimation target.

ステップST901で、状態推定装置1は、初期化を行う。初期化ステップでは、画像処理部22は、カメラ21によって撮影された追跡対称の顔の画像データに基づき、正面顔検出手法により、正面顔を検出する。なお、初期化時の顔は、位置(0,0)、姿勢(0,0,0)とする。   In step ST901, the state estimation device 1 performs initialization. In the initialization step, the image processing unit 22 detects the front face by the front face detection method based on the tracking symmetrical face image data captured by the camera 21. The face at the time of initialization is assumed to be position (0, 0) and posture (0, 0, 0).

ステップST902で、画像処理部22は、カメラ21から出力された画像データに基づき、フレーム画像を読み込む。また、画像処理部22は、映像ファイルに対して追跡処理を行う場合は、映像ファイルのフレーム画像を読み込む。なお、画像処理部22は、カメラ21に写る映像に対して追跡処理を行う場合では、カメラの1フレームを読み込む。   In step ST902, the image processing unit 22 reads a frame image based on the image data output from the camera 21. The image processing unit 22 reads the frame image of the video file when performing the tracking process on the video file. Note that the image processing unit 22 reads one frame of the camera when performing the tracking process on the video captured by the camera 21.

ステップST903で、事前確率分布予測部11は、事前確率分布を予測(算出)する。本実施例では、事前分布予測の第1段階として、事前確率分布予測部11は、姿勢の事前確率分布を求める。姿勢の事前確率分布は、直前の状態からのランダムウォークあるいは非特許文献1の過去の履歴を用いた手法、など様々な方法から求めることができる。この事前分布からのランダムサンプリングにより姿勢の事前分布を表すパーティクルの集合を得ることができる。   In step ST903, the prior probability distribution prediction unit 11 predicts (calculates) the prior probability distribution. In this embodiment, as a first stage of prior distribution prediction, the prior probability distribution prediction unit 11 obtains a prior probability distribution of posture. The prior probability distribution of the posture can be obtained from various methods such as a random walk from the immediately preceding state or a method using the past history of Non-Patent Document 1. A set of particles representing the prior distribution of posture can be obtained by random sampling from the prior distribution.

そして、事前分布予測の第2段階として、事前確率分布予測部11は、各パーティクルについて、アピアランスを推定する。
(2.1)第2段階では、まず、事前確率分布予測部11が、アピアランス推定対象のパーティクルの姿勢と類似した姿勢の過去の履歴を選択する。この選択は履歴選択確率に基づいて確率的に行う。履歴選択確率は、姿勢の類似性に基づいて、過去の時間軸上に定義される。本実施例では、パーティクルの姿勢と、各時刻における履歴の姿勢との差の逆数に比例する値をとるものとする。
Then, as the second stage of the prior distribution prediction, the prior probability distribution prediction unit 11 estimates the appearance of each particle.
(2.1) In the second stage, first, the prior probability distribution prediction unit 11 selects a past history of postures similar to the postures of the appearance estimation target particles. This selection is performed stochastically based on the history selection probability. The history selection probability is defined on the past time axis based on the similarity of posture. In the present embodiment, it is assumed that the value is proportional to the inverse of the difference between the particle posture and the history posture at each time.

(2.2)次いで、事前確率分布予測部11は、パーティクルの姿勢と、選択された履歴の姿勢との違いを考慮して、履歴のアピアランスの幾何学変形によりパーティクルの姿勢を推定(算出)する。本実施例では、幾何学変形として、3次元回転を用いる。
以上の2段階の処理により、事前確率分布予測部11は、姿勢とアピアランスの同時事前分布を表すパーティクルの集合を得ることができる。
(2.2) Next, the prior probability distribution prediction unit 11 estimates (calculates) the particle posture by geometric deformation of the appearance of the history in consideration of the difference between the posture of the particle and the posture of the selected history. To do. In this embodiment, three-dimensional rotation is used as the geometric deformation.
By the above two-stage processing, the prior probability distribution prediction unit 11 can obtain a set of particles representing the simultaneous prior distribution of posture and appearance.

ステップST904で、事後確率分布推定部12は、事後確率分布を推定する。本発明では、各パーティクルがアピアランスの推定値を保持している。そのため、事後確率分布推定では、各パーティクルのアピアランスと、入力画像とを照合することで照合誤差を求める。そして照合誤差に基づいて観測尤度を求め、観測尤度により重み付けられたパーティクルの集合が事後確率分布を表わす。   In step ST904, the posterior probability distribution estimation unit 12 estimates the posterior probability distribution. In the present invention, each particle holds an estimated appearance value. Therefore, in the posterior probability distribution estimation, a collation error is obtained by collating the appearance of each particle with the input image. An observation likelihood is obtained based on the matching error, and a set of particles weighted by the observation likelihood represents a posterior probability distribution.

事後確率分布推定部12は、例えば、アピアランスの注目点(特長点)における画素値の差に基づく値を用いて、アピアランスと入力画像との照合をする。この事後確率分布推定部12は、具体的には、以下の式に従って算出する。   The posterior probability distribution estimation unit 12 collates the appearance with the input image using, for example, a value based on the difference in pixel values at the appearance attention point (feature point). Specifically, the posterior probability distribution estimation unit 12 calculates according to the following formula.

Figure 0005340228
ただし、推定されたアピアランスv(x,y)は、パーティクルkにおける特徴点(x,y)の画素値を表し、z(x,y)は入力画像の座標(x,y)での画素値を表す。Nはアピアランスの注目点(画素)の総数である。
Figure 0005340228
However, the estimated appearance v k (x i , y i ) represents the pixel value of the feature point (x i , y i ) in the particle k, and z (x i , y i ) represents the coordinates (x i , y i ) represents the pixel value. N is the total number of appearance attention points (pixels).

ステップST905で、推定結果算出部13は、推定結果を算出する。本実施例では、姿勢の推定値は、姿勢の重み付き平均により求める。アピアランスは、姿勢推定値と、人物顔平均モデルとから得る。まず、人物顔平均モデルを姿勢推定値により回転・並進させることで、顔領域を特定する。そして、特定された顔領域に対して、注目点抽出処理を行うことでアピアランスを取得する。
本実施例では、顔領域から、エッジ近傍および画素値の極大・極小点から約250点の注目点を選択し、注目点の座標とその画素値の集合をアピアランスとする。
In step ST905, the estimation result calculation unit 13 calculates an estimation result. In the present embodiment, the estimated value of the posture is obtained by a weighted average of the posture. The appearance is obtained from the estimated posture value and the human face average model. First, the face area is specified by rotating and translating the human face average model according to the estimated posture value. Then, the appearance is acquired by performing the attention point extraction process on the identified face area.
In this embodiment, about 250 points of interest are selected from the face region from the vicinity of the edge and the maximum and minimum points of the pixel value, and the coordinates of the point of interest and the set of the pixel values are set as appearances.

ステップST906で、追跡安定性判定部14は、追跡が安定して行われているかの判断を行う。安定している場合にはステップST907へ移行する。そうでない場合にはステップST908へ移行する。
ステップST907で、履歴蓄積部17は、履歴を蓄積する。すなわちステップST905で得られた姿勢推定値(状態推定値)とアピアランスの組を履歴として蓄積する。
ステップST907で、推定対象時刻設定部18は、処理対象の時刻を1増やす。
ステップST909で、終了判定部19は、映像が終了したか判定を行い、終了していれば終了。終了していなければステップST902へ戻る。
In step ST906, the tracking stability determination unit 14 determines whether tracking is performed stably. If stable, the process proceeds to step ST907. Otherwise, the process proceeds to step ST908.
In step ST907, the history storage unit 17 stores the history. That is, the set of posture estimated values (state estimated values) and appearances obtained in step ST905 are accumulated as a history.
In step ST907, the estimation target time setting unit 18 increases the processing target time by one.
In step ST909, the end determination unit 19 determines whether the video has ended. If not completed, the process returns to step ST902.

上述の通り、過去の追跡対象の状態の履歴に基づいて次の時刻における状態の事前確率分布を推定することにより、物体が激しい動きをしても、対称を追跡することができる。このとき、事前確率分布を推定するために、追跡対象の位置や姿勢を表わす状態の情報にくわえて、カメラにより観測されるアピアランス(外見、見た目、外観形態)をパラメータに含めて推定を行うことにより、位置や姿勢の大きな変化に伴うアピアランスの変化に対しても頑健に、対象を追跡することができる。   As described above, by estimating the prior probability distribution of the state at the next time based on the past history of the state of the tracking target, symmetry can be tracked even if the object moves vigorously. At this time, in order to estimate the prior probability distribution, the appearance (appearance, appearance, appearance form) observed by the camera should be included in the parameters in addition to the state information indicating the position and orientation of the tracking target Thus, the object can be tracked robustly against changes in appearance due to large changes in position and posture.

一方、本発明によらない場合、追跡対象のアピアランスの変化を考慮しておらず、初期化時に構築したテンプレートをアピアランスモデルとして保持し、このテンプレートを各パーティクルの状態により回転・並進させて入力画像と照合し、その照合誤差から観測尤度を求める。追跡対象の姿勢が大きく変化すると、テンプレートの単純な回転では、対象のアピアランスの変化を適切に表すことができなくなる。これは、回転によりテンプレートに含まれる正面顔が徐々に観測できなくなるためである。その結果、観測尤度を適切に求めることがこんなんとなり、しばしば追跡にしっぱいしてしまうという問題があった。上述の非文献文献1に記載されているM−PFを用いた顔姿勢追跡では首振り方向では、50度程度までの追跡が限界であった。
しかし、本発明によると、姿勢とアピアランスの同時事前確率分布を予測するよう拡張することで、M−PFの特長を保ちつつ追跡可能な姿勢の範囲を広げることができる。
On the other hand, if not according to the present invention, changes in the appearance of the tracking target are not taken into consideration, the template constructed at the time of initialization is held as an appearance model, and this template is rotated and translated according to the state of each particle to input images. And the observation likelihood is obtained from the matching error. When the posture of the tracking target changes greatly, a simple rotation of the template cannot appropriately represent the change in the appearance of the target. This is because the front face included in the template cannot be observed gradually due to the rotation. As a result, there has been a problem that it is difficult to obtain the observation likelihood appropriately, and tracking is often performed. In the face posture tracking using the M-PF described in the above-mentioned Non-Patent Document 1, tracking up to about 50 degrees is the limit in the swing direction.
However, according to the present invention, it is possible to expand the range of postures that can be tracked while maintaining the features of M-PF, by extending the prediction of the simultaneous prior probability distribution of posture and appearance.

なお、上述した第1〜2実施形態において、状態推定装置による機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   In the first and second embodiments described above, a program for realizing the function of the state estimation device is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system, You may control by performing. Here, the “computer system” may include an OS and hardware such as peripheral devices. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

11・・・事前確率分布予測部、12・・・事後確率分布推定部、13・・・推定結果算出部、14・・・追跡安定性判定部、15・・・履歴蓄積装置、16・・・形状モデル蓄積装置、17・・・履歴蓄積部、18・・・推定対象時刻設定部、19・・・終了判定部   DESCRIPTION OF SYMBOLS 11 ... Prior probability distribution prediction part, 12 ... A posteriori probability distribution estimation part, 13 ... Estimation result calculation part, 14 ... Tracking stability determination part, 15 ... History storage apparatus, 16 ... Shape model storage device, 17 ... history storage unit, 18 ... estimation target time setting unit, 19 ... end determination unit

Claims (5)

過去の時刻における観測対象の位置と姿勢を示す状態情報と、当該時刻における前記観測対象の外観形態を示すアピアランス情報と、当該時刻において前記観測対象が前記状態情報の示す状態となる確率を示す時間的再現確率を、それぞれ対応付けるテーブルを記憶する履歴蓄積装置と、
過去の前記状態情報および前記時間的再現確率に基づき、未来の前記観測対象の位置と姿勢を示す状態を複数のパーティクルにより表わす状態事前確率分布を作成するとともに、前記状態情報と対応付けられている前記アピアランス情報に基づき、未来の前記観測対象の外観形態を表わすアピアランス事前確率分布を作成する事前確率分布予測部と、
外部の観測装置が測定する前記観測対象に関する観測情報を入力し、当該観測情報と前記アピアランス事前確率分布とを照合してこの照合誤差に基づいて観測尤度を算出し、当該観測尤度に応じた重み付けを前記状態事前確率分布に行い事後確率分布を作成する事後確率分布推定部と、
前記事後確率分布が示す前記状態情報を前記履歴蓄積装置に更新して蓄積する履歴蓄積部と
を備えることを特徴とする状態推定装置。
State information indicating the position and orientation of the observation target at the past time, appearance information indicating the appearance form of the observation target at the time, and time indicating the probability that the observation target is in the state indicated by the state information at the time A history accumulator that stores a table for associating the respective reproduction probability with each other,
Based on the past state information and the temporal reproduction probability, a state prior probability distribution representing a state indicating the position and orientation of the future observation target by a plurality of particles is created and associated with the state information. Based on the appearance information, a prior probability distribution prediction unit that creates an appearance prior probability distribution representing an appearance form of the observation target in the future;
Input observation information on the observation target measured by an external observation device, collate the observation information with the appearance prior probability distribution, calculate the observation likelihood based on the collation error, and respond to the observation likelihood A posterior probability distribution estimator that performs weighting on the state prior probability distribution to create a posterior probability distribution;
A state estimation device comprising: a history storage unit that updates and stores the state information indicated by the posterior probability distribution in the history storage device.
前記時間的再現確率は、
前記過去の経時的な前記観測対象の状態の変化と、直前の前記状態情報の類似性に基づいて算出されることを特徴とする請求項1に記載の状態推定装置。
The time reproduction probability is
The state estimation apparatus according to claim 1, wherein the state estimation apparatus is calculated based on a change in the state of the observation target over time in the past and similarity of the state information immediately before.
事前確率分布予測部は、
前記状態事前確率分布を表わす前記複数のパーティクルと類似する前記状態情報を選択し、当該状態情報と対応付けられている前記アピアランス情報に基づき、前記アピアランス事前確率分布を作成することを特徴とする請求項1あるいは2に記載の状態推定装置。
The prior probability distribution prediction unit
The state information similar to the plurality of particles representing the state prior probability distribution is selected, and the appearance prior probability distribution is created based on the appearance information associated with the state information. Item 3. The state estimation device according to Item 1 or 2.
過去の時刻における観測対象の位置と姿勢を示す状態情報と、当該時刻における前記観測対象の外観形態を示すアピアランス情報と、当該時刻において前記観測対象が前記状態情報の示す状態となる確率を示す時間的再現確率を、それぞれ対応付けるテーブルを記憶する履歴蓄積装置を備える状態推定装置における状態推定方法であって、
過去の前記状態情報および前記時間的再現確率に基づき、未来の前記観測対象の位置と姿勢を示す状態を複数のパーティクルにより表わす状態事前確率分布を作成するとともに、前記状態情報と対応付けられている前記アピアランス情報に基づき、未来の前記観測対象の外観形態を表わすアピアランス事前確率分布を作成する事前確率分布予測ステップと、
外部の観測装置が測定する前記観測対象に関する観測情報を入力し、当該観測情報と前記アピアランス事前確率分布とを照合してこの照合誤差に基づいて観測尤度を算出し、当該観測尤度に応じた重み付けを前記状態事前確率分布に行い事後確率分布を作成する事後確率分布推定ステップと、
前記事後確率分布が示す前記状態情報を前記履歴蓄積装置に更新して蓄積する履歴蓄積ステップと、
を備えることを特徴とする状態推定方法。
State information indicating the position and orientation of the observation target at the past time, appearance information indicating the appearance form of the observation target at the time, and time indicating the probability that the observation target is in the state indicated by the state information at the time A state estimation method in a state estimation device including a history storage device that stores a table for associating each of the typical reproduction probabilities,
Based on the past state information and the temporal reproduction probability, a state prior probability distribution representing a state indicating the position and orientation of the future observation target by a plurality of particles is created and associated with the state information. A prior probability distribution prediction step of creating an appearance prior probability distribution representing an appearance form of the observation object in the future based on the appearance information;
Input observation information on the observation target measured by an external observation device, collate the observation information with the appearance prior probability distribution, calculate the observation likelihood based on the collation error, and respond to the observation likelihood A posteriori probability distribution estimating step of creating a posteriori probability distribution by performing weighting on the state prior probability distribution;
A history storage step of updating and storing the state information indicated by the posterior probability distribution in the history storage device;
A state estimation method comprising:
コンピュータに、
過去の時刻における観測対象の位置と姿勢を示す状態情報と、当該時刻における前記観測対象の外観形態を示すアピアランス情報と、当該時刻において前記観測対象が前記状態情報の示す状態となる確率を示す時間的再現確率を、それぞれ対応付けるテーブルを記憶する履歴記憶手段、
過去の前記状態情報および前記時間的再現確率に基づき、未来の前記観測対象の位置と姿勢を示す状態を複数のパーティクルにより表わす状態事前確率分布を作成するとともに、前記状態情報と対応付けられている前記アピアランス情報に基づき、未来の前記観測対象の外観形態を表わすアピアランス事前確率分布を作成する事前確率分布予測手段、
外部の観測装置が測定する前記観測対象に関する観測情報を入力し、当該観測情報と前記アピアランス事前確率分布とを照合してこの照合誤差に基づいて観測尤度を算出し、当該観測尤度に応じた重み付けを前記状態事前確率分布に行い事後確率分布を作成する事後確率分布推定手段、
前記事後確率分布が示す前記状態情報を前記履歴記憶手段に更新して蓄積する履歴蓄積手段、
として機能させるためのプログラム。
On the computer,
State information indicating the position and orientation of the observation target at the past time, appearance information indicating the appearance form of the observation target at the time, and time indicating the probability that the observation target is in the state indicated by the state information at the time History storage means for storing a table for associating the respective reproduction probabilities with each other,
Based on the past state information and the temporal reproduction probability, a state prior probability distribution representing a state indicating the position and orientation of the future observation target by a plurality of particles is created and associated with the state information. A prior probability distribution predicting means for creating an appearance prior probability distribution representing an appearance form of the observation object in the future based on the appearance information;
Input observation information on the observation target measured by an external observation device, collate the observation information with the appearance prior probability distribution, calculate the observation likelihood based on the collation error, and respond to the observation likelihood A posteriori probability distribution estimating means for creating a posteriori probability distribution by performing weighting on the state prior probability distribution,
History storage means for updating and storing the state information indicated by the posterior probability distribution in the history storage means;
Program to function as.
JP2010140961A 2010-06-21 2010-06-21 State estimation device, state estimation method, and program Active JP5340228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010140961A JP5340228B2 (en) 2010-06-21 2010-06-21 State estimation device, state estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140961A JP5340228B2 (en) 2010-06-21 2010-06-21 State estimation device, state estimation method, and program

Publications (2)

Publication Number Publication Date
JP2012003719A JP2012003719A (en) 2012-01-05
JP5340228B2 true JP5340228B2 (en) 2013-11-13

Family

ID=45535580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140961A Active JP5340228B2 (en) 2010-06-21 2010-06-21 State estimation device, state estimation method, and program

Country Status (1)

Country Link
JP (1) JP5340228B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018139301A1 (en) * 2017-01-24 2018-08-02 日本電気株式会社 Information processing device, information processing method, and recording medium having information processing program recorded thereon

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5746078B2 (en) * 2012-03-23 2015-07-08 日本電信電話株式会社 Time reproduction probability estimation device, state tracking device, method, and program
JP5791555B2 (en) * 2012-03-23 2015-10-07 日本電信電話株式会社 Status tracking apparatus, method, and program
CN103839280B (en) * 2014-03-21 2016-08-17 武汉科技大学 A kind of human body attitude tracking of view-based access control model information
JP6185879B2 (en) * 2014-05-01 2017-08-23 日本電信電話株式会社 Articulated object tracking device, articulated object tracking method, and program
CN104156947B (en) * 2014-07-23 2018-03-16 小米科技有限责任公司 Image partition method, device and equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2234062A4 (en) * 2008-01-16 2011-06-01 Asahi Chemical Ind Face posture estimating device, face posture estimating method, and face posture estimating program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018139301A1 (en) * 2017-01-24 2018-08-02 日本電気株式会社 Information processing device, information processing method, and recording medium having information processing program recorded thereon
JPWO2018139301A1 (en) * 2017-01-24 2019-11-07 日本電気株式会社 Information processing apparatus, information processing method, and recording medium on which information processing program is recorded

Also Published As

Publication number Publication date
JP2012003719A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
JP5340228B2 (en) State estimation device, state estimation method, and program
US11341738B2 (en) Using a probabtilistic model for detecting an object in visual data
WO2020125623A1 (en) Method and device for live body detection, storage medium, and electronic device
US9928443B2 (en) Image processing apparatus and method for fitting a deformable shape model to an image using random forest regression voting
CN110490076B (en) Living body detection method, living body detection device, computer equipment and storage medium
US8140458B2 (en) Information processing apparatus, information processing method, and computer program
JP4093273B2 (en) Feature point detection apparatus, feature point detection method, and feature point detection program
JP4469275B2 (en) System and method for estimating pose angle
JP6161257B2 (en) Event detection apparatus and method, operation recognition apparatus and method, and program
US20100185571A1 (en) Information processing apparatus, information processing method, and program
US8103090B2 (en) Behavior and pattern analysis using multiple category learning
JP2004199669A (en) Face detection
JP2004192637A (en) Face detection
WO2015186436A1 (en) Image processing device, image processing method, and image processing program
JP4880805B2 (en) Object position estimation apparatus, object position estimation method, and object position estimation program
JP2009140366A (en) Information processor, information processing method, and computer program
JP2008243214A (en) Method and computing device for automatic detection and tracking of multiple individuals using multiple cues, and computer-readable storage medium therefor
TWI707243B (en) Method, apparatus, and system for detecting living body based on eyeball tracking
JP2009199417A (en) Face tracking device and face tracking method
JP5087037B2 (en) Image processing apparatus, method, and program
CN111753643A (en) Character posture recognition method and device, computer equipment and storage medium
JP5674550B2 (en) Status tracking apparatus, method, and program
CN108875549B (en) Image recognition method, device, system and computer storage medium
US20120314904A1 (en) Image collation system, image collation method and computer program
JP2018005357A (en) Information processor and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121029

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130719

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130725

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130806

R150 Certificate of patent or registration of utility model

Ref document number: 5340228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350