JP5767078B2 - Posture estimation apparatus, posture estimation method, and posture estimation program - Google Patents
Posture estimation apparatus, posture estimation method, and posture estimation program Download PDFInfo
- Publication number
- JP5767078B2 JP5767078B2 JP2011233986A JP2011233986A JP5767078B2 JP 5767078 B2 JP5767078 B2 JP 5767078B2 JP 2011233986 A JP2011233986 A JP 2011233986A JP 2011233986 A JP2011233986 A JP 2011233986A JP 5767078 B2 JP5767078 B2 JP 5767078B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking target
- tracking
- estimation
- target
- posture estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、カメラで撮影された画像データから人物の姿勢推定を行う姿勢推定装置、姿勢推定方法及び姿勢推定プログラムに関する。 The present invention relates to a posture estimation apparatus, a posture estimation method, and a posture estimation program that perform posture estimation of a person from image data captured by a camera.
近年、モーションキャプチャシステムや距離画像を用いずに、画像データから人体の姿勢推定・運動解析を行う研究が広く行われている(例えば、非特許文献1参照)。これらの研究は、映像監視やヒューマンインタラクション、ロボットの運動制御、CGアニメーションの製作、医療分野等、幅広い分野への応用が期待されている。特に、3次元的な姿勢を推定できれば、応用の幅はさらに広がると考えられる。 In recent years, research that performs posture estimation / motion analysis of a human body from image data without using a motion capture system or a distance image has been widely performed (for example, see Non-Patent Document 1). These studies are expected to be applied to a wide range of fields such as video surveillance, human interaction, robot motion control, CG animation production, and medical fields. In particular, if a three-dimensional posture can be estimated, the range of applications will be further expanded.
しかし、画像データに基づき人体の3次元的な仮想空間における姿勢を推定する場合、任意の時間において、人体の関節の3次元回転角を推定することが困難である。特に、単眼カメラにより撮影された画像データからの3次元の姿勢を推定する場合、画像データにおいては2次元で人体が表現されているため、3次元で表現するための情報が欠如している。これにより、姿勢の多義性に対応できないことや、手足や障害物による遮蔽に対応できないことなどが問題となる。 However, when estimating the posture of the human body in the three-dimensional virtual space based on the image data, it is difficult to estimate the three-dimensional rotation angle of the joint of the human body at an arbitrary time. In particular, when estimating a three-dimensional posture from image data captured by a monocular camera, since the human body is expressed in two dimensions in the image data, information for expressing in three dimensions is lacking. As a result, problems such as inability to deal with the ambiguity of posture and inability to deal with shielding by limbs and obstacles arise.
これらの問題に対処するため、推定する際に、人体の動きに関する事前知識を用いる手法が注目されている。この事前知識とは、2次元の画像データに基づき、3次元で表現するために欠如している情報を補充するための情報である。この補充するための情報である2次元の画像データは、3次元の姿勢を推定するための2次元画像上の関節位置座標で構成する。関節位置座標は、対象となる場所の画像特徴量をフレームを跨って追跡することで得られる。事前知識として、例えば、非特許文献2のように光学モーションキャプチャシステムにより計測された高精度な3次元動作データから低次元特徴を取り出した動作モデルを用いるものが知られている。この動作モデルを事前知識として、2次元画像上の関節位置から3次元の姿勢を推定することが可能となる。 In order to cope with these problems, attention has been paid to a technique using prior knowledge about the movement of the human body when estimating. This prior knowledge is information for supplementing information that is lacking in order to express in three dimensions based on two-dimensional image data. The two-dimensional image data which is information for supplementation is composed of joint position coordinates on the two-dimensional image for estimating a three-dimensional posture. The joint position coordinates are obtained by tracking the image feature amount of the target location across the frames. As prior knowledge, for example, as in Non-Patent Document 2, one using a motion model obtained by extracting low-dimensional features from highly accurate three-dimensional motion data measured by an optical motion capture system is known. Using this motion model as prior knowledge, it is possible to estimate a three-dimensional posture from a joint position on a two-dimensional image.
しかしながら、動作モデルを利用して、2次元の関節位置から3次元の姿勢を補充する場合、2次元の関節位置の情報の不確かさが増すほど、3次元の姿勢の不確かさも増してしまう。一般に、2次元の関節位置は画像上で取得可能な色やエッジの情報を基に推定するため、安定した推定が困難であるという問題がある。このような問題は、人体及び関節に限られた問題ではなく、姿勢が変化する物(例えば、人体やロボット)とその物が持つ追跡対象(例えば、関節や可動部)に関して一般的な問題である。 However, when using a motion model to supplement a three-dimensional posture from a two-dimensional joint position, the uncertainty of the three-dimensional posture increases as the uncertainty of the information on the two-dimensional joint position increases. In general, since a two-dimensional joint position is estimated based on information on colors and edges that can be acquired on an image, there is a problem that stable estimation is difficult. Such a problem is not limited to the human body and joints, but is a general problem regarding an object whose posture changes (for example, a human body or a robot) and a tracking target (for example, a joint or a movable part) of the object. is there.
本発明は、このような事情に鑑みてなされたもので、2次元の追跡対象の安定した推定を行い、それに伴って3次元の姿勢推定の精度の向上を実現することができる姿勢推定装置、姿勢推定方法及び姿勢推定プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and performs a stable estimation of a two-dimensional tracking target, and accordingly, an improvement in the accuracy of the three-dimensional posture estimation, An object is to provide a posture estimation method and a posture estimation program.
本発明は、姿勢推定対象が撮影された画像を入力する画像入力手段と、前記姿勢推定対象が持つ追跡対象の特徴量がテンプレートデータとして記憶されたテンプレート記憶手段と、前記追跡対象の3次元動作モデルデータが記憶された3次元動作モデル記憶手段と、前記3次元動作モデルデータを参照して、前記追跡対象について、初期の位置候補を複数設定する位置候補初期設定手段と、前記画像入力手段によって入力した前記画像から、前記追跡対象の位置候補における特徴量を算出し、該特徴量を前記テンプレート記憶手段に記憶された前記テンプレートデータと比較した結果得られる類似度の重みに基づき、前記追跡対象の位置を推定し、前記追跡対象の位置の推定情報を出力する位置推定手段と、前記類似度の重みと、前記3次元動作モデルデータに基づき、前記追跡対象の前記位置候補を改めて設定する位置候補設定手段と、前記位置推定手段による前記追跡対象の位置の推定と、前記位置候補設定手段による前記追跡対象の前記位置候補の設定とを複数回数繰り返すことにより、前記追跡対象の位置を追跡する追跡処理手段と、前記追跡対象の位置の推定情報と、前記3次元動作モデルデータを参照して、前記姿勢推定対象の3次元姿勢を推定する姿勢推定手段とを備えたことを特徴とする。 The present invention includes an image input unit that inputs an image of a posture estimation target, a template storage unit that stores a tracking target feature amount of the posture estimation target as template data, and a three-dimensional operation of the tracking target. By means of a 3D motion model storage means storing model data, a position candidate initial setting means for setting a plurality of initial position candidates for the tracking target with reference to the 3D motion model data, and the image input means Based on the weight of similarity obtained as a result of calculating the feature amount in the position candidate of the tracking target from the input image and comparing the feature amount with the template data stored in the template storage unit, the tracking target Position estimation means for estimating the position of the tracking target and outputting estimated information of the position of the tracking target, the weight of similarity, and the three-dimensional Position candidate setting means for newly setting the position candidate of the tracking target based on the cropping model data; estimation of the position of the tracking target by the position estimating means; and the position candidate of the tracking target by the position candidate setting means The tracking processing means for tracking the position of the tracking target, the estimation information of the position of the tracking target, and the three-dimensional motion model data are referred to by repeating the setting of the plurality of times. And a posture estimation means for estimating a three-dimensional posture.
本発明は、前記姿勢推定対象が人体であり、前記追跡対象が関節であることを特徴とする。 The present invention is characterized in that the posture estimation target is a human body and the tracking target is a joint.
本発明は、姿勢推定対象が撮影された画像を入力する画像入力手段と、前記姿勢推定対象が持つ追跡対象の特徴量がテンプレートデータとして記憶されたテンプレート記憶手段と、前記追跡対象の3次元動作モデルデータが記憶された3次元動作モデル記憶手段とを備える姿勢推定装置における姿勢推定方法であって、前記3次元動作モデルデータを参照して、前記追跡対象について、初期の位置候補を複数設定する位置候補初期設定ステップと、前記画像入力手段によって入力した前記画像から、前記追跡対象の位置候補における特徴量を算出し、該特徴量を前記テンプレート記憶手段に記憶された前記テンプレートデータと比較した結果得られる類似度の重みに基づき、前記追跡対象の位置を推定し、前記追跡対象の位置の推定情報を出力する位置推定ステップと、前記類似度の重みと、前記3次元動作モデルデータに基づき、前記追跡対象の前記位置候補を改めて設定する位置候補設定ステップと、前記位置推定ステップによる前記追跡対象の位置の推定と、前記位置候補設定ステップによる前記追跡対象の前記位置候補の設定とを複数回数繰り返すことにより、前記追跡対象の位置を追跡する追跡処理ステップと、前記追跡対象の位置の推定情報と、前記3次元動作モデルデータを参照して、前記姿勢推定対象の3次元姿勢を推定する姿勢推定ステップとを有することを特徴とする。 The present invention includes an image input unit that inputs an image of a posture estimation target, a template storage unit that stores a tracking target feature amount of the posture estimation target as template data, and a three-dimensional operation of the tracking target. A posture estimation method in a posture estimation apparatus including a three-dimensional motion model storage unit storing model data, wherein a plurality of initial position candidates are set for the tracking target with reference to the three-dimensional motion model data. A result of comparing the feature amount with the template data stored in the template storage unit by calculating the feature amount in the position candidate to be tracked from the position input initial setting step and the image input by the image input unit; Based on the obtained similarity weight, the position of the tracking target is estimated, and estimation information of the tracking target position is output. A position candidate setting step for setting again the position candidate of the tracking target based on the weight of the similarity and the three-dimensional motion model data, and the position of the tracking target by the position estimation step The tracking processing step of tracking the position of the tracking target by repeating the estimation and the setting of the position candidate of the tracking target by the position candidate setting step a plurality of times, the estimation information of the position of the tracking target, And a posture estimation step of estimating a three-dimensional posture of the posture estimation target with reference to three-dimensional motion model data.
本発明は、前記姿勢推定方法をコンピュータに実行させることを特徴とする。 The present invention is characterized by causing a computer to execute the posture estimation method.
本発明によれば、追跡対象(関節位置)を安定して推定できることに加え、追跡対象の位置推定と同時に姿勢推定対象の3次元姿勢を推定することが可能となるため、3次元の姿勢推定の精度の向上を実現することができるという効果が得られる。 According to the present invention, in addition to being able to stably estimate the tracking target (joint position), it is possible to estimate the three-dimensional posture of the posture estimation target simultaneously with the position estimation of the tracking target. The effect that the improvement of the accuracy can be realized is obtained.
以下、図面を参照して、本発明の一実施形態による姿勢推定装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号101は、姿勢を解析する対象となる映像データが記憶された解析映像記憶部である。映像データの一例として、未校正の1台または複数台のカメラによって撮像された映像データから構成される。符号102は、解析映像記憶部101に記憶された映像データを入力する画像入力部であり、入力した映像データを推定処理を行う形式へ変換する。この変換は例えば、色相変換やフレーム補間等である。符号103は、画像入力部102により入力した映像データから画像特徴量などを用いて人体の関節位置の座標を抽出し、解析対象の全フレームに対して追跡処理を行う2次元関節追跡部である。符号104は、2次元関節追跡部103によって追跡した人体の2次元関節位置座標から、3次元の姿勢を推定する3次元姿勢推定部である。
Hereinafter, an attitude estimation apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure,
符号105は、追跡対象とする領域の特徴や位置等の情報をテンプレートとして記憶するテンプレート記憶部である。テンプレートの形式は、2次元関節追跡部103ので利用する手法に依存する。2次元関節追跡部103は、画像入力部102により入力した映像データの各フレームの画像情報と、テンプレート記憶部105に記憶されたテンプレートから追跡処理を行う。符号106は、3次元姿勢推定部104で推定された3次元の姿勢情報を保持する姿勢情報記憶部である。符号107は、3次元姿勢推定部104において、3次元の姿勢を推定する際に用いる事前3次元動作モデル情報を記憶する事前3次元動作モデル記憶部である。動作モデルは、例えば、非特許文献2のように、3次元動作を低次元特徴で表現したものが適用可能である。符号108は、2次元間接追跡部103が推定した追跡対象の推定状態情報を記憶する推定情報記憶部である。3次元姿勢推定部104は、推定情報記憶部108の2次元の関節位置情報と事前3次元動作モデル記憶部107の動作モデル情報を参照して3次元姿勢を推定する。3次元姿勢推定部104における3次元姿勢の推定処理は公知の方法を用いて行う。
ここで、図5を参照して、パーティクルフィルタを用いて2次元関節位置を追跡する処理動作を説明する。パーティクルフィルタを用いる場合、図5に示すように、追跡対象の位置候補を仮説として多数(N個)生成する。まず、仮説の位置を初期化する(STEP0)。そして、各時刻において、仮説位置の特徴量を追跡対象のテンプレート特徴量と比較して、その類似度を重みとして算出する(STEP1)。次に、N個の仮説の中からもっともらしいものを選択し、その時刻の推定位置(状態)とする(STEP2)。続いて、次の時刻の準備として重みの大きい仮説を複製し、小さい仮説を消滅させる(STEP3)。そして、追跡対象の状態遷移モデルに従って、仮説を移動させて(STEP4)、STEP1に戻り、処理を繰り返す。状態遷移モデルは、対象物の運動モデルに基づいて定義することが望ましいが、運動モデルの定式化が難しい場合は、等速直線運動やランダムウォークを想定する。
Here, a processing operation for tracking the two-dimensional joint position using a particle filter will be described with reference to FIG. When using a particle filter, as shown in FIG. 5, a large number (N) of position candidates to be tracked are generated as hypotheses. First, the hypothesis position is initialized (STEP 0). At each time, the feature quantity at the hypothesis position is compared with the template feature quantity to be tracked, and the similarity is calculated as a weight (STEP 1). Next, a plausible one is selected from N hypotheses and set as an estimated position (state) at that time (STEP 2). Subsequently, as a preparation for the next time, a hypothesis having a large weight is duplicated and a small hypothesis is eliminated (STEP 3). Then, the hypothesis is moved in accordance with the state transition model to be tracked (STEP 4), the process returns to
次に、図2を参照して、図1に示す2次元関節追跡部103の動作を説明する。図2は、図1に示す2次元関節追跡部103の動作を示すフローチャートである。まず、2次元関節追跡部103は、時刻tを0とし(ステップS1)、解析映像記憶部101に蓄積される解析対象の映像データより時刻tが0であるフレームを取り出し、追跡対象とする関節の初期位置[x0,y0]を指定する(ステップS2)。この指定には、例えば、手動指定や肌色検出、エッジ検出等の画像処理を用いることが可能である。
Next, the operation of the two-dimensional
次に、2次元関節追跡部103は、ステップS2において指定した関節位置の特徴量Itempを算出し、これをテンプレートとしてテンプレート記憶部105に保持する(ステップS3)。この特徴量は、例えば、色ヒストグラムやHOG特徴量等、任意のものを用いることが可能である。続いて、2次元関節追跡部103は、追跡対象の位置を状態Φ(t)=[x(t),y(t)]とし、N個の仮説を生成して、ステップS2において指定した初期位置[x0,y0]を中心として分布するように初期化する(ステップS5)。このとき、分布には例えば平均[x0,y0]の正規分布等を用いることが可能である。
Next, the two-dimensional
次に、2次元関節追跡部103は、時刻tが解析フレーム数T以下であるか否かを判定し(ステップS6)、時刻tが解析フレーム数T以下でなければ処理を終了する。一方、時刻tが解析フレーム数T以下であれば、解析映像記憶部101に蓄積されている解析対象の映像データよりt=Tとなるフレーム映像を取り出す(ステップS7)。そして、2次元関節追跡部103は、取り出したフレーム映像に対して、仮説Φi(t),i=1,2,..,Nの場合の特徴量Ii(t)を算出する(ステップS10)。
Next, the two-dimensional
次に、2次元関節追跡部103は、得られたIi(t)とテンプレート特徴量Itempを比較してその類似度の重みwi(t)を算出する(ステップS11)。重みは、例えば、Ii(t)とItempの距離を用いることが可能である。続いて、2次元関節追跡部103は、算出した重みwi(t)より、時刻tにおける状態Φ*(t)を推定する(ステップS12)。この推定は、もっとも大きな重みをもつ仮説を選んだり、重みつき平均をとる等の方法によって行うことが可能である。そして、推定した状態情報を推定情報記憶部108のへ保存する。
Next, the two-dimensional
次に、2次元関節追跡部103は、重みwi(t)の大きさに応じて重みの大きい仮説は複製し、小さい仮説は削除することで、推定した状態付近に仮説が集まるようにリサンプリングを行う(ステップS13)。続いて、2次元関節追跡部103は、次の時刻の準備として、追跡対象の状態遷移モデルに基づいて、仮説のサンプリングを行う(ステップS14)。このサンプリングは例えば、等速直線やランダムウォークのモデルによって行う。そして、2次元関節追跡部103は、時刻tに1加算して(ステップS15)、ステップS6に戻って、処理を繰り返す。
Next, the two-dimensional
次に、図3を参照して、図1に示す姿勢推定装置の変形例を説明する。図3は、図1に示す姿勢推定装置の変形例の構成を示すブロック図である。この図において、図1に示す姿勢推定装置と同一の部分には同一の符号を付し、その説明を省略する。図3に示す姿勢推定装置が図1に示す姿勢推定装置と異なる点は、2次元関節追跡部103に代えて、2次元関節追跡部109を設けた点である。2次元関節追跡部109は、画像入力部102により入力した映像データと、テンプレート記憶部105に記憶されたテンプレート情報と、事前3次元動作モデル記憶部107に記憶された動作モデル情報とを参照して追跡処理を行う。
Next, a modification of the posture estimation apparatus shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration of a modification of the posture estimation apparatus shown in FIG. In this figure, the same parts as those in the posture estimation apparatus shown in FIG. The posture estimation apparatus shown in FIG. 3 is different from the posture estimation apparatus shown in FIG. 1 in that a two-dimensional
次に、図4を参照して、図3に示す2次元関節追跡部109の動作を説明する。図4は、図3に示す2次元関節追跡部109の動作を示すフローチャートである。図4において、図2に示す動作と同一の部分には同一の符号を付し、その説明を省略する。図4に示す動作が図2に示す動作と異なる点は、ステップS4、S51、S8、S9、S121、S141を設けた点である。
Next, the operation of the two-dimensional
まず、2次元関節追跡部109は、時刻tを0とする(ステップS1)。解析映像記憶部101に蓄積される解析対象の映像データより時刻tが0であるフレームを取り出し、追跡対象とする関節の初期位置[x0,y0]を指定する(ステップS2)。
First, the two-dimensional
次に、2次元関節追跡部109は、ステップS2において指定した関節位置の特徴量Itempを算出し、これをテンプレートとしてテンプレート記憶部105に保持する(ステップS3)。続いて、2次元関節追跡部109は、解析対象となる映像の初期視点V0を指定する。この初期視点V0は、3次元姿勢を2次元に投影処理する際に用いる。
Next, the two-dimensional
次に、2次元関節追跡部109は、追跡対象の3次元姿勢Y(t)と2次元映像への投影視点V(t)を状態Φ(t)=[Y(t),V(t)]とし、N個の仮説を生成して、V(t)は先に指定した初期視点V0を中心として分布するように、Y(t)は事前3次元動作モデル記憶部107に記憶されている動作情報を中心として分布するように初期化する(ステップS51)。
Next, the two-dimensional
次に、2次元関節追跡部109は、時刻tが解析フレーム数T以下であるか否かを判定し(ステップS6)、時刻tが解析フレーム数T以下でなければ処理を終了する。一方、時刻tが解析フレーム数T以下であれば、解析映像記憶部101に蓄積されている解析対象の映像データよりt=Tとなるフレーム映像を取り出す(ステップS7)。そして、時刻tのフレーム映像より、人体の重心位置を算出する(ステップS8)。これは、例えば、腰の位置で表現でき、人体領域のシルエットの面積の重心を用いたりすることで可能である。続いて、2次元関節追跡部109は、ステップS8で用いたフレーム映像に対して、仮説Φi(t),i=1,2,..,Nの2次元関節位置[xi(t),yi(t)]を3次元姿勢Yi(t)と投影視点Vi(t)より算出する(ステップS9)。
Next, the two-dimensional
次に、2次元関節追跡部109は、取り出したフレーム映像に対して、仮説Φi(t),i=1,2,..,Nの場合の特徴量Ii(t)を算出し(ステップS10)、得られたIi(t)とテンプレート特徴量Itempを比較してその類似度の重みwi(t)を算出する(ステップS11)。そして、2次元関節追跡部109は、算出した重みwi(t)より、時刻tにおける状態Φ*(t)=[Y*(t),V*(t)]と2次元関節位置[x*(t),y*(t)]を推定する(ステップS121)。ここで、推定した状態情報と2次元関節位置情報を推定情報記憶部108へ保存する。
Next, the two-dimensional
次に、2次元関節追跡部109は、重みwi(t)の大きさに応じて重みの大きい仮説は複製し、小さい仮説は削除することで、推定した状態付近に仮説が集まるようにリサンプリングを行う(ステップS13)。続いて、2次元関節追跡部109は、次の時刻の準備として、追跡対象の状態遷移モデルに基づいて、仮説のサンプリングを行う(ステップS141)。ここで、状態遷移モデルは事前3次元動作モデル記憶部107に保持されている動作情報より定義する。3次元姿勢Yiの状態遷移は、例えば、非特許文献2の動作モデルを用いた場合、(1)式、(2)式で与えられる。
ここで、X(n)は3次元姿勢Y(n)の低次元表現である。また、kX(X*),kY(X*)はi番目の要素にkX(X*,Xi),kY(X*,Xi)をもつベクトルであり、例えば(5)式、(6)式のように適当な関数で定義する。
また、投影視点Viの状態遷移は、例えば、事前学習済みの動作情報より腰位置の並進と回転の変化量を用いて定義する。より具体的には、投影視点をV=[θ,φ]と表現した場合、その視点変化dθ(n),dφ(n)は、同じ時刻の3次元動作データYと最も近い動作データを事前3次元動作モデル記憶部107から選び、その並進t(n−1)と回転r(n−1)からそれぞれ視点の変化量dθt(n)=t(n)−t(n−1),dθr(n)=r(n)−r(n−1)を求める。全体としての視点変化はdθ(n)=dθt(n)−dθr(n)で定義する。φに関しても同様に求められる。
The state transition of the projection viewpoint V i, for example, defined using the translation amount of change in the rotation of the pre-learned behavior information from the waist position. More specifically, when the projection viewpoint is expressed as V = [θ, φ], the viewpoint changes dθ (n) and dφ (n) are preliminarily obtained from the motion data closest to the three-dimensional motion data Y at the same time. From the three-dimensional motion
次に、2次元関節追跡部109は、時刻tに1加算して(ステップS15)、ステップS6に戻って、処理を繰り返す。
Next, the two-dimensional
以上説明したように、2次元の関節位置を推定する際に、2次元関節位置の追跡を観測される画像情報だけでなく、事前に学習済みの3次元動作情報を利用して行うようにして、従来は2次元関節位置の追跡結果から推定を行っていた3次元動作を2次元関節位置の追跡と同時に行うことが可能となるため、3次元の姿勢推定の精度の向上を実現することができる。 As described above, when estimating the two-dimensional joint position, the tracking of the two-dimensional joint position is performed using not only the observed image information but also the previously learned three-dimensional motion information. In addition, since it is possible to perform the three-dimensional motion that has been estimated from the tracking result of the two-dimensional joint position at the same time as the tracking of the two-dimensional joint position, the accuracy of the three-dimensional posture estimation can be improved. it can.
なお、図1、図3における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより姿勢推定処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 The program for realizing the functions of the processing unit in FIGS. 1 and 3 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by the computer system and executed. An estimation process may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の精神及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。 As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Accordingly, additions, omissions, substitutions, and other modifications of components may be made without departing from the spirit and scope of the present invention.
カメラで撮影された画像データから人物の姿勢推定を行うことが不可欠な用途に適用できる。 It can be applied to applications where it is essential to estimate the posture of a person from image data captured by a camera.
101・・・解析映像記憶部、102・・・画像入力部、103・・・2次元関節追跡部、104・・・3次元姿勢推定部、105・・・テンプレート記憶部、106・・・姿勢情報記憶部、107・・・事前3次元動作モデル記憶部、108・・・推定情報記憶部
DESCRIPTION OF
Claims (4)
前記姿勢推定対象が持つ追跡対象の特徴量がテンプレートデータとして記憶されたテンプレート記憶手段と、
前記追跡対象の3次元動作モデルデータが記憶された3次元動作モデル記憶手段と、
前記3次元動作モデルデータを参照して、前記追跡対象について、初期の位置候補を複数設定する位置候補初期設定手段と、
前記画像入力手段によって入力した前記画像から、前記追跡対象の位置候補における特徴量を算出し、該特徴量を前記テンプレート記憶手段に記憶された前記テンプレートデータと比較した結果得られる類似度の重みに基づき、前記追跡対象の位置を推定し、前記追跡対象の位置の推定情報を出力する位置推定手段と、
前記類似度の重みと、前記3次元動作モデルデータに基づき、前記追跡対象の前記位置候補を改めて設定し、前記3次元動作モデルデータに基づいて定義された状態遷移モデルに基づいて改めて設定された前記位置候補を移動させる位置候補設定手段と、
前記位置推定手段による前記追跡対象の位置の推定と、前記位置候補設定手段による前記追跡対象の前記位置候補の設定とを複数回数繰り返すことにより、前記追跡対象の位置を追跡する追跡処理手段と、
前記追跡対象の位置の推定情報と、前記3次元動作モデルデータを参照して、前記姿勢推定対象の3次元姿勢を推定する姿勢推定手段と
を備えたことを特徴とする姿勢推定装置。 An image input means for inputting an image in which the posture estimation target is photographed;
A template storage means in which the feature quantity of the tracking target possessed by the posture estimation target is stored as template data;
3D motion model storage means storing the 3D motion model data to be tracked;
Position candidate initial setting means for setting a plurality of initial position candidates for the tracking target with reference to the three-dimensional motion model data;
From the image input by the image input means, a feature amount in the position candidate to be tracked is calculated, and the feature amount is compared with the template data stored in the template storage means to obtain a similarity weight obtained as a result. A position estimating means for estimating the position of the tracking target and outputting estimation information of the position of the tracking target;
Based on the weight of similarity and the three-dimensional motion model data, the position candidate of the tracking target is set again, and is set again based on a state transition model defined based on the three-dimensional motion model data Position candidate setting means for moving the position candidate;
Tracking processing means for tracking the position of the tracking target by repeating the estimation of the position of the tracking target by the position estimating means and the setting of the position candidate of the tracking target by the position candidate setting means a plurality of times;
An attitude estimation apparatus comprising: estimation information of the position of the tracking object and attitude estimation means for estimating the 3D attitude of the attitude estimation object with reference to the 3D motion model data.
前記3次元動作モデルデータを参照して、前記追跡対象について、初期の位置候補を複数設定する位置候補初期設定ステップと、
前記画像入力手段によって入力した前記画像から、前記追跡対象の位置候補における特徴量を算出し、該特徴量を前記テンプレート記憶手段に記憶された前記テンプレートデータと比較した結果得られる類似度の重みに基づき、前記追跡対象の位置を推定し、前記追跡対象の位置の推定情報を出力する位置推定ステップと、
前記類似度の重みと、前記3次元動作モデルデータに基づき、前記追跡対象の前記位置候補を改めて設定し、前記3次元動作モデルデータに基づいて定義された状態遷移モデルに基づいて改めて設定された前記位置候補を移動させる位置候補設定ステップと、
前記位置推定ステップによる前記追跡対象の位置の推定と、前記位置候補設定ステップによる前記追跡対象の前記位置候補の設定とを複数回数繰り返すことにより、前記追跡対象の位置を追跡する追跡処理ステップと、
前記追跡対象の位置の推定情報と、前記3次元動作モデルデータを参照して、前記姿勢推定対象の3次元姿勢を推定する姿勢推定ステップと
を有することを特徴とする姿勢推定方法。 Image input means for inputting an image in which the posture estimation target is photographed, template storage means for storing the tracking target feature quantity of the posture estimation target as template data, and the tracking target three-dimensional motion model data stored A posture estimation method in a posture estimation device comprising the three-dimensional motion model storage means,
A position candidate initial setting step for setting a plurality of initial position candidates for the tracking target with reference to the three-dimensional motion model data;
From the image input by the image input means, a feature amount in the position candidate to be tracked is calculated, and the feature amount is compared with the template data stored in the template storage means to obtain a similarity weight obtained as a result. A position estimating step for estimating the position of the tracking target and outputting estimation information of the position of the tracking target;
Based on the weight of similarity and the three-dimensional motion model data, the position candidate of the tracking target is set again, and is set again based on a state transition model defined based on the three-dimensional motion model data A position candidate setting step for moving the position candidate;
A tracking processing step of tracking the position of the tracking target by repeating the estimation of the position of the tracking target by the position estimation step and the setting of the position candidate of the tracking target by the position candidate setting step a plurality of times;
A posture estimation method, comprising: estimation information of the position of the tracking target, and a posture estimation step of estimating a three-dimensional posture of the posture estimation target with reference to the three-dimensional motion model data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011233986A JP5767078B2 (en) | 2011-10-25 | 2011-10-25 | Posture estimation apparatus, posture estimation method, and posture estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011233986A JP5767078B2 (en) | 2011-10-25 | 2011-10-25 | Posture estimation apparatus, posture estimation method, and posture estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013092876A JP2013092876A (en) | 2013-05-16 |
JP5767078B2 true JP5767078B2 (en) | 2015-08-19 |
Family
ID=48615960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011233986A Expired - Fee Related JP5767078B2 (en) | 2011-10-25 | 2011-10-25 | Posture estimation apparatus, posture estimation method, and posture estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5767078B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6185879B2 (en) * | 2014-05-01 | 2017-08-23 | 日本電信電話株式会社 | Articulated object tracking device, articulated object tracking method, and program |
CN104298353A (en) * | 2014-10-08 | 2015-01-21 | 宁波熵联信息技术有限公司 | Inverse kinematics based vehicle monitoring and burglary preventing method and system |
JP6730204B2 (en) * | 2017-02-10 | 2020-07-29 | 日本電信電話株式会社 | Image synthesizing apparatus, image synthesizing method, and computer program |
WO2021181612A1 (en) * | 2020-03-12 | 2021-09-16 | 日本電気株式会社 | Image processing device, image processing system, image processing method, and non-transitory computer-readable medium in which image processing program is stored |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4568223B2 (en) * | 2005-12-21 | 2010-10-27 | 株式会社デンソー | Estimator |
JP5598751B2 (en) * | 2010-03-05 | 2014-10-01 | 日本電気株式会社 | Motion recognition device |
-
2011
- 2011-10-25 JP JP2011233986A patent/JP5767078B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013092876A (en) | 2013-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2132680B1 (en) | Efficient and accurate 3d object tracking | |
JP5555207B2 (en) | 3D posture estimation apparatus, 3D posture estimation method, and program | |
JP5525407B2 (en) | Behavior model learning device, three-dimensional posture estimation device, behavior model learning method, three-dimensional posture estimation method, and program | |
US20150243035A1 (en) | Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest | |
Nägeli et al. | Flycon: Real-time environment-independent multi-view human pose estimation with aerial vehicles | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
JP2018129007A (en) | Learning data generation apparatus, learning apparatus, estimation apparatus, learning data generation method, and computer program | |
JP2014085933A (en) | Three-dimensional posture estimation apparatus, three-dimensional posture estimation method, and program | |
JP5767078B2 (en) | Posture estimation apparatus, posture estimation method, and posture estimation program | |
Ohashi et al. | Synergetic reconstruction from 2D pose and 3D motion for wide-space multi-person video motion capture in the wild | |
JP4938748B2 (en) | Image recognition apparatus and program | |
Vasileiadis et al. | Robust human pose tracking for realistic service robot applications | |
Larsen et al. | Unscented kalman filtering for articulated human tracking | |
JP6185879B2 (en) | Articulated object tracking device, articulated object tracking method, and program | |
Darujati et al. | Facial motion capture with 3D active appearance models | |
JP2010211732A (en) | Object recognition device and method | |
Fan et al. | HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and Objects from Video | |
Hauberg et al. | Stick it! articulated tracking using spatial rigid object priors | |
Livne et al. | Walking on thin air: Environment-free physics-based markerless motion capture | |
Ichim et al. | Semantic parametric body shape estimation from noisy depth sequences | |
Kanis et al. | Improvements in 3D hand pose estimation using synthetic data | |
Lefevre et al. | Structure and appearance features for robust 3d facial actions tracking | |
El-Sallam et al. | Towards a Fully Automatic Markerless Motion Analysis System for the Estimation of Body Joint Kinematics with Application to Sport Analysis. | |
KR20230016300A (en) | Method and Apparatus for 3D Hand Mesh Recovery in Motion Blur RGB Image | |
JP2022092528A (en) | Three-dimensional person attitude estimation apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130606 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130801 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150616 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150618 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5767078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |