JP2016162425A - 骨格姿勢推定装置、方法、及びプログラム - Google Patents

骨格姿勢推定装置、方法、及びプログラム Download PDF

Info

Publication number
JP2016162425A
JP2016162425A JP2015043866A JP2015043866A JP2016162425A JP 2016162425 A JP2016162425 A JP 2016162425A JP 2015043866 A JP2015043866 A JP 2015043866A JP 2015043866 A JP2015043866 A JP 2015043866A JP 2016162425 A JP2016162425 A JP 2016162425A
Authority
JP
Japan
Prior art keywords
skeleton
time
posture
posture parameter
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015043866A
Other languages
English (en)
Inventor
悠 米本
Haruka Yonemoto
悠 米本
和彦 村崎
Kazuhiko Murazaki
和彦 村崎
達哉 大澤
Tatsuya Osawa
達哉 大澤
恭子 数藤
Kyoko Sudo
恭子 数藤
潤 島村
Jun Shimamura
潤 島村
行信 谷口
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015043866A priority Critical patent/JP2016162425A/ja
Publication of JP2016162425A publication Critical patent/JP2016162425A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】視点や撮影者の体格の違いによる動作の見え方の違いに対して頑健に、撮影者の骨格姿勢を推定することができる。
【解決手段】カメラ位置姿勢推定部30で、三次元画像データに基づいて、カメラ位置姿勢を推定し、関節位置検出部32で、手腕の関節位置を推定する。骨格姿勢パラメータ推定部34で、各時刻のカメラの位置姿勢パラメータと、各時刻の手腕関節位置と、骨格モデル記憶部26に記憶されている骨格モデルと、各時刻の三次元画像データとに基づいて、各時刻の撮影者の骨格姿勢を表す骨格姿勢パラメータを推定する。
【選択図】図1

Description

本発明は、骨格姿勢推定装置、方法、及びプログラムに係り、特に、カメラの撮影者の骨格姿勢を推定するための骨格姿勢推定装置、方法、及びプログラムに関する。
近年、ヘッドマウントディスプレイによるカメラを用いて、生活行動支援や産業分野における現場作業支援を行うサービスが注目を集めている。現状これらのサービスの多くは、ユーザの指示をもとに必要な情報提示を行っており、適切な情報量やタイミングを制御しきれていない。もし、ユーザの状況や行動をデバイスが自動的に認識することができれば、必要な情報のみを必要なタイミングで提示できるようになるだけでなく、危険行動の防止といった無意識行動への支援も可能となる。これらのサービスを可能とする要素技術として、一人称映像からの行動認識技術は今後、益々求められると考えられる。
行動認識一般に必要な一要素として、その人自身がどのような動きをしているかという要素を挙げることができる。これに関しては、人の関節位置の時間変化の情報がコンパクトで十分な特徴であるという報告がなされており、また、得られる関節数が増えるほど、他の関節との位置関係により行動を認識しやすいことがわかっている。実際にコンピュータビジョン分野では、関節位置情報を含む特徴である骨格姿勢を推定することで行動認識を行う研究が多く報告されている。
第三者視点カメラからの映像から、被写体の骨格姿勢を推定する手法として、例えば非特許文献1のような研究成果が報告されている。
また、一人称映像から関節位置を推定する手法として、例えば非特許文献2のような研究成果が報告されている。
J. Shotton, A. Fitzgibbon, M. Cook, T. Sharp, M. Finocchio, R. Moore, A. Kipman, and A. Blake, "Real-Time Human Pose Recognition in Parts from a Single Depth Image", in CVPR, IEEE, 2011. M.Moghimi1, P.Azagra, L.Montesano2, A. C. Murillo and S.Belongie, "Experiments on an RGB-DWearable Vision System for Egocentric Activity Recognition", in CVPRW, 2014.
しかし、非特許文献1では、まず初期処理として、得られる三次元入力画像から全身の構造をとらえて被写体の体の部位検出を行い、それらの部位の位置情報を用いて、尤もらしい全身骨格姿勢を推定するという手法がとられている。そのため、全身が隠れずに写っている場合には姿勢推定が可能であるが、本発明で想定しているような、カメラが頭部に装着されており、動作者(撮影者)の体が部分的にしか見えないような状況では、同様の方法では骨格姿勢を推定することができない。
また、非特許文献2では、頭部に装着する三次元映像入力装置から得られた映像を用いて、手の関節位置を推定する手法をとっているが、映像中に見えていない関節は推定できない。手の関節一点のみでは他の関節との位置関係がわからず、人の動きを記述するためには不十分である。
本発明は、上記問題点を解決するために成されたものであり、撮影者の体の一部しか映り込んでいない映像からであっても、撮影者の骨格姿勢を精度よく推定することができる骨格姿勢推定装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る骨格姿勢推定装置は、撮影者側からカメラにより撮影した各時刻の三次元画像データを受け付ける入力部と、各時刻の前記三次元画像データに基づいて、各時刻の前記カメラの位置姿勢を推定するカメラ位置姿勢推定部と、各時刻の前記三次元画像データに基づいて、各時刻の前記撮影者の予め定められた部位の関節位置を推定する関節位置検出部と、前記カメラ位置姿勢推定部によって推定された各時刻の前記カメラの位置姿勢と、前記関節位置検出部によって推定された各時刻の前記部位の関節位置と、予め求められた、前記撮影者の複数の関節からなる骨格モデルと、各時刻の前記三次元画像データとに基づいて、各時刻の前記撮影者の骨格姿勢を表す骨格姿勢パラメータを推定する骨格姿勢パラメータ推定部と、を含んで構成されており、前記骨格姿勢パラメータ推定部は、一時刻前の複数の前記骨格姿勢パラメータの候補に基づいて、推定対象時刻の前記骨格姿勢パラメータの候補を複数生成し、生成された複数の骨格姿勢パラメータの候補の各々について、前記カメラ位置姿勢推定部によって推定された前記推定対象時刻の前記カメラの位置姿勢と、前記骨格モデルとに基づいて、前記骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算し、生成された複数の骨格姿勢パラメータの候補から、前記計算された尤度に応じて前記骨格姿勢パラメータの候補を抽出することにより、前記推定対象時刻の前記骨格姿勢パラメータを推定することを特徴とする。
また、第1の発明に係る骨格姿勢推定装置において、前記骨格姿勢パラメータ推定部は、一時刻前の複数の前記骨格姿勢パラメータの候補に基づいて、予め定められた前記部位の関節位置の可動域に関する制約を満たす、推定対象時刻の前記骨格姿勢パラメータの候補を複数生成してもよい。
また、第1の発明に係る骨格姿勢推定装置において、前記骨格姿勢パラメータ推定部は、生成された複数の骨格姿勢パラメータの候補の各々について、前記骨格姿勢パラメータの候補と前記骨格モデルとに基づいて、前記部位の関節位置の三次元位置を計算し、前記計算された前記部位の関節位置の三次元位置から得られる二次元座標と、前記関節位置検出部によって推定された前記推定対象時刻の前記部位の関節位置の二次元座標との一致度を計算し、前記計算された前記部位の関節位置の三次元位置から得られるデプス値と、前記計算された三次元位置から得られる二次元座標に対応する、前記三次元画像データのデプス値との一致度を計算し、前記計算された二次元座標の一致度及び前記デプス値の一致度に基づいて、前記骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算するようにしてもよい。
第2の発明に係る骨格位置推定方法は、入力部が、撮影者側からカメラにより撮影した各時刻の三次元画像データを受け付けるステップと、カメラ位置姿勢推定部が、各時刻の前記三次元画像データに基づいて、各時刻の前記カメラの位置姿勢を推定するステップと、関節位置検出部が、各時刻の前記三次元画像データに基づいて、各時刻の前記撮影者の予め定められた部位の関節位置を推定するステップと、骨格姿勢パラメータ推定部が、前記カメラ位置姿勢推定部によって推定された各時刻の前記カメラの位置姿勢と、前記関節位置検出部によって推定された各時刻の前記部位の関節位置と、予め求められた、前記撮影者の複数の関節からなる骨格モデルと、各時刻の前記三次元画像データとに基づいて、各時刻の前記撮影者の骨格姿勢を表す骨格姿勢パラメータを推定するステップと、を含んで実行し、前記骨格姿勢パラメータ推定部が推定するステップは、一時刻前の複数の前記骨格姿勢パラメータの候補に基づいて、推定対象時刻の前記骨格姿勢パラメータの候補を複数生成し、生成された複数の骨格姿勢パラメータの候補の各々について、前記カメラ位置姿勢推定部によって推定された前記推定対象時刻の前記カメラの位置姿勢と、前記骨格モデルとに基づいて、前記骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算し、生成された複数の骨格姿勢パラメータの候補から、前記計算された尤度に応じて前記推定対象時刻の骨格姿勢パラメータの候補を抽出することにより、前記推定対象時刻の前記骨格姿勢パラメータを推定することを特徴とする。
第3の発明に係るプログラムは、コンピュータを、上記に記載の骨格姿勢推定装置を構成する各部として機能させるためのプログラムである
本発明の骨格姿勢推定装置、方法、及びプログラムによれば、各時刻のカメラの位置姿勢と、各時刻の関節位置と、撮影者の骨格モデルと、各時刻の三次元画像データとに基づいて、各時刻の撮影者の骨格姿勢を表す骨格姿勢パラメータを推定し、一時刻前の骨格姿勢パラメータに基づいて、推定対象時刻の骨格姿勢パラメータの候補を複数生成し、生成された複数の骨格姿勢パラメータの候補の各々について、推定対象時刻のカメラの位置姿勢と、骨格モデルとに基づいて、骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算し、計算された尤度に応じて推定対象時刻の骨格姿勢パラメータを抽出し、骨格姿勢パラメータを推定することにより、撮影者の体の一部しか映り込んでいない映像からであっても、撮影者の骨格姿勢を精度よく推定することができる、という効果が得られる。
撮影者の骨格モデルの一例を示す概念図である。 本発明の実施の形態に係る骨格姿勢推定装置の構成を示すブロック図である。 本発明の実施の形態に係る骨格姿勢推定装置における骨格姿勢推定処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る骨格姿勢推定装置における骨格姿勢パラメータ候補生成処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る骨格姿勢推定装置における二次元座標計算処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る骨格姿勢推定装置におけるデプス値計算処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。
本発明の実施の形態に係る骨格姿勢推定装置は、撮影者の一人称映像から骨格姿勢を推定する装置である。
本発明の実施の形態に係る骨格姿勢推定装置は、撮影者の体の一部分のみしか映っていない映像から、映像中に映らない関節位置も含めた骨格姿勢を推定する手段として、カメラが頭部に対し固定位置につけられていること、また固定位置につけられていることにより、カメラを撮像することにより得られる一人称の映像中の手腕関節位置が撮影者の体型によって強く制約を受けることを利用し、撮影者の骨格姿勢推定を行うことを特徴とする。具体的には、カメラ位置から固定された位置に頭部関節を持ち、関節の数及び関節間の長さを既知として与えた骨格モデルを導入することを特徴とする。
上記のような特徴を利用することにより、画像中の手腕関節位置をカメラ位置と体型の制約を保ちながら予測することができ、この予測した手腕関節位置と観測画像の比較することで、画像中に見えていない骨格姿勢を推定することが可能となる。
さらに、骨格姿勢の推定精度を高めるため以下二つの特徴を持つ。第1の特徴は、予測した骨格姿勢(骨格姿勢パラメータ)がどの程度撮影者が実際に取っている骨格姿勢と一致しているかを、手腕関節位置とカメラの位置姿勢からの距離を示すデプス値との二つの指標を用いて測ることである。これにより、手腕関節位置の検出誤差を抑制し、より精度よく推定が可能となる。第2の特徴は、骨格姿勢パラメータを関節の可動域の制約を用いることで制限し、パラメータ探索範囲を狭めることである。パラメータの探索範囲を狭めることで人体の取りうる姿勢のみを考慮し、効率的かつ精度よく推定することが可能となる。
以上の第1及び第2の特徴から、行動認識に必要な人の動作を記述するための骨格姿勢情報を、体の一部しか映らない一人称三次元映像から精度よく推定することが可能となる。
また、本発明の実施の形態で述べる骨格モデルは、関節の数、関節間の長さ、x軸、y軸、及びz軸の回転角度パラメータにより構成され、図1に示すような木構造により表現される。関節間の長さと各関節のx軸、y軸、及びz軸の回転角度パラメータが決定し、決定された回転角度パラメータに対して非特許文献3に記載されている方法を適用することにより、関節の三次元位置が決定する。
[非特許文献3]:K.Erleben, J.Sporring, K.Henriksen and H.Dohlmann “Phisics-Based Animation” Cengage Learning, Chap3, 2005.
以下、各関節のx軸、y軸、及びz軸の回転角度のパラメータと骨格モデルの三次元位置とを合わせたパラメータを骨格姿勢パラメータと呼ぶ。
<本発明の実施の形態に係る骨格姿勢推定装置の構成>
次に、本発明の実施の形態に係る骨格姿勢推定装置の構成について説明する。図2に示すように、本発明の実施の形態に係る骨格姿勢推定装置100は、CPUと、RAMと、後述する骨格姿勢推定処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この骨格姿勢推定装置100は、機能的には図2に示すように入力部10と、演算部20と、出力部50とを備えている。
入力部10は、撮影者側からカメラにより撮影された各時刻の三次元画像データを受け付ける。例えば、ステレオカメラにより撮影された各時刻の三次元画像データを受け付ける。
演算部20は、カメラ位置姿勢パラメータ記憶部22と、関節位置記憶部24と、骨格モデル記憶部26と、カメラ位置姿勢推定部30と、関節位置検出部32と、骨格姿勢パラメータ推定部34と、パラメータ分布記憶部40とを含んで構成されている。
カメラ位置姿勢推定部30は、入力部10により受け付けた各時刻の三次元画像データに基づいて、例えば、非特許文献4のようなICPアルゴリズムを用いて、各時刻でのカメラ位置姿勢パラメータを推定し、カメラ位置姿勢パラメータ記憶部22に記憶する。
[非特許文献4]:R.A. Newcombe, S.Izadi, O.Hilliges, D.Molyneux, D.Kim, A.J. Davison, P.Kohli, J.Shotton, S.Hodges and A. Fitxgibbon “Kinect Fusion: Real-time Dense Surface Mapping and Tracking”, Proc. IEEE Int. Symp. Mixed and Augmented Reality (ISMAR), 2011.
カメラ位置姿勢推定部30では、初期時刻t=0の場合は、カメラ位置を原点とし、x、y、及びz軸についての回転角をそれぞれ0とする。以後のカメラの位置姿勢はt=0のカメラ位置からの相対的な位置姿勢として推定される。これらのパラメータは、本実施形態では、上記の非特許文献4のようなICPアルゴリズムを用いて求める。
関節位置検出部32は、入力部10により受け付けた各時刻の三次元画像データに基づいて、例えば、非特許文献5に記載の検出器を用いて、各時刻での画像上の手腕関節位置を推定し、関節位置記憶部24に記憶する。ただし、画像上の手腕関節位置が求まる方法であれば、非特許文献5に記載のもの以外のアルゴリズムを用いてもよい。
[非特許文献5]:A.Toshev and C.Szegedy. “Deeppose: Human pose estimation via deep neural networks”, in CVPR, 2013.
骨格モデル記憶部26には、予め撮影者について関節の数、関節間の長さ、並びにx軸、y軸、及びz軸の回転角度パラメータが求められた骨格モデルが記憶されている。
骨格姿勢パラメータ推定部34は、パーティクル生成部132と、パーティクル尤度計算部134と、パラメータ分布更新部136とを含んで構成されている。
骨格姿勢パラメータ推定部34は、以下に説明するように、パーティクル生成部132、パーティクル尤度計算部134、及びパラメータ分布更新部136の各部の処理によって、カメラ位置姿勢パラメータ記憶部22に記憶されている各時刻のカメラの位置姿勢パラメータと、関節位置記憶部24に記憶されている各時刻の手腕関節位置と、骨格モデル記憶部26に記憶されている骨格モデルと、各時刻の三次元画像データとに基づいて、各時刻の撮影者の骨格姿勢を表す骨格姿勢パラメータを推定する。
また、骨格姿勢パラメータ推定部34において、骨格姿勢パラメータは、
と表す。ここで、jは各関節のインデックスである。θ は、x軸、y軸、及びz軸についての回転角度パラメータを表す。ただし、全関節の親となる頭部関節(ルート関節)のみ三次元座標位置とx軸、y軸、及びz軸についての回転角度パラメータを持つものとする。なお、本実施形態では、頭部位置をルートとした木構造を用いたが、カメラ位置から相対位置が固定されている関節から、他の関節位置を計算する方法があれば、他の位置をルートにすることも可能である。
本実施形態では、骨格姿勢パラメータ推定部34は、パーティクルフィルタを用いて骨格モデルへの当てはめを行う。ただし、パーティクルフィルタに限らず、他の時系列フィルタを用いることでも実装が可能である。パーティクルフィルタでは、一時刻前の骨格姿勢パラメータに基づいて、推定したい骨格姿勢パラメータの候補を複数生成し、骨格姿勢パラメータの分布を近似する。処理は大きく3つに分かれており、パーティクル生成部132が骨格姿勢パラメータの候補を生成して骨格姿勢パラメータの分布を予測する処理、パーティクル尤度計算部134が骨格姿勢パラメータの候補の尤度を計算する処理、及びパラメータ分布更新部136が尤度をもとにパラメータ分布を更新する処理である。
パーティクル生成部132は、以下に説明する第1の処理及び第2の処理を行う。パーティクル生成部132は、第1の処理として、初期骨格姿勢パラメータを設定する。第1の処理においては、まず、関節位置記憶部24に記憶されている推定対象時刻tにおける手腕関節位置を用いて、撮影者が決められた初期ポーズをとっているかを判定する。ここでは、予め決められた初期ポーズをとっている場合の理想的な手腕関節位置と、関節位置記憶部24に記憶されている手腕関節位置との距離が、予め定められた閾値以下の距離にある場合に、初期ポーズをとっているものと判定し、頭部位置以外の骨格姿勢パラメータについて、初期ポーズを表す初期骨格姿勢パラメータ
で置き換えて、パラメータ分布記憶部40に記憶する。
次に、パーティクル生成部132は、第2の処理として、一時刻前の複数の骨格姿勢パラメータの候補、又は初期骨格姿勢パラメータに基づいて、手腕関節位置の可動域に関する制約を満たす、推定対象時刻tの骨格姿勢パラメータの候補を複数生成する。例えば、パラメータ分布記憶部40に、一時刻前の時刻t−1における複数の骨格姿勢パラメータの候補が記憶されている場合、時刻t−1における複数の骨格姿勢パラメータの候補から、N個の骨格姿勢パラメータの候補を生成し、これを推定対象時刻tにおける骨格姿勢パラメータの分布とし、パラメータ分布記憶部40に保存する。具体的には、各骨格姿勢パラメータの候補のx軸、y軸、及びz軸の回転角度パラメータに対し、平均が0であり、分散σがとなる正規分布に従うシステムノイズを加えることにより、骨格姿勢パラメータの分布を予測する。このとき、骨格姿勢パラメータ
のうち、x軸、y軸、及びz軸についての回転角度パラメータに関しては、関節の可動域の制約を用いて制限する。
パーティクル尤度計算部134は、パーティクル生成部132によって生成されたN個の骨格姿勢パラメータの候補の各々について、当該骨格姿勢パラメータの候補と骨格モデル記憶部26に記憶されている骨格モデルとに基づいて、手腕関節位置の三次元位置を計算し、計算された手腕関節位置の三次元位置から得られる二次元座標と、関節位置検出部32によって推定された推定対象時刻tの手腕関節位置の二次元座標との一致度を計算する。そして、計算された手腕関節位置の三次元位置から得られるデプス値と、計算された三次元位置から得られる二次元座標に対応する、三次元画像データ中のデプス値との一致度を計算し、計算された二次元座標の一致度及びデプス値の一致度に基づいて、骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算する。
パラメータ分布更新部136は、生成されたN個の骨格姿勢パラメータの候補から、計算された尤度に応じて骨格姿勢パラメータの候補を抽出することにより、推定対象時刻tの骨格姿勢パラメータを推定する。
パラメータ分布更新部136は、具体的には、パーティクル尤度計算部134により計算された尤度に基づいて、骨格姿勢パラメータの分布を更新する。更新は、尤度に比例する割合でN個の骨格姿勢パラメータの候補を復元抽出し、パラメータ分布記憶部40に保存する。そして、復元抽出されたN個の骨格姿勢パラメータの候補と、当該N個の骨格姿勢パラメータの候補の各々に対して計算された尤度との積和を計算することで期待値を計算し、これを推定対象時刻tにおける骨格姿勢パラメータの推定値とし、出力部50により出力する。なお、期待値ではなく、最高値をとるなど別の方法で骨格姿勢パラメータを抽出することも可能である。
<本発明の実施の形態に係る骨格姿勢推定装置の作用>
次に、本発明の実施の形態に係る骨格姿勢推定装置100の作用について説明する。入力部10において各時刻の三次元画像データを受け付けると、骨格姿勢推定装置100は、図3に示す骨格姿勢推定処理ルーチンを実行する。
まず、ステップS100では、入力部10において受け付けた各時刻tの三次元画像データDt(t=1,2,3,・・・,T)を取得する。ここで、tはフレーム番号であり、時刻に対応している。
次に、ステップS102では、カメラ位置姿勢推定部30により、ステップS100で取得した三次元画像データDに基づいて、各時刻tのカメラ位置姿勢パラメータを推定し、カメラ位置姿勢パラメータ記憶部22に記憶する。
ステップS104では、カメラ位置姿勢推定部30により、ステップS100で取得した三次元画像データDに基づいて、各時刻tの手腕関節位置を推定し、関節位置記憶部24に記憶する。
ステップS106では、各時刻tについて、頭部(ルート)の骨格姿勢パラメータ(頭部位置)を、カメラ位置姿勢パラメータ記憶部22に記憶されている当該時刻tにおけるカメラ位置姿勢パラメータに基づいて計算する。カメラの位置姿勢に対する相対的な頭部の位置姿勢は固定されているので、カメラの位置姿勢から頭部の位置姿勢を計算する補正パラメータをカメラ位置姿勢パラメータに掛けることで計算できる。ここで用いる補正パラメータは、回転と並進を表す行列であり、撮影者のカメラの装着位置から事前に計算されているものとする。
ステップS107において、推定対象時刻tを初期値である1に設定する。
ステップS108では、パラメータ分布記憶部40に、一時刻前の時刻t−1における骨格姿勢パラメータの分布が存在するかどうかを判定し、存在しない場合にはステップS110へ移行し、存在する場合にはステップS114へ移行する。
ステップS110では、関節位置記憶部24に記憶されている、推定対象時刻tにおける手腕関節位置を用いて、撮影者が予め決められた初期ポーズをとっているかを判定する。ここでは、予め決められた初期ポーズの手腕関節位置と、関節位置記憶部24から得られた推定対象時刻tの手腕関節位置が、ある閾値以下の距離にある場合に、初期ポーズをとっているものと判定する。初期ポーズをとっていれば、ステップS112へ移行し、初期ポーズをとっていなければステップS124へ移行する。
ステップS112では、頭部位置以外の骨格姿勢パラメータを、初期ポーズを表す初期骨格姿勢パラメータ
で置き換え、初期骨格姿勢パラメータ
から、システムノイズを加えることで、N個の骨格姿勢パラメータの候補を生成し、これを推定対象時刻tにおける骨格姿勢パラメータの分布として、パラメータ分布記憶部40に記憶し、ステップS122へ移行する。
ステップS112は、図4に示す骨格姿勢パラメータ候補生成処理ルーチンにより実現される。
まず、ステップS200において、初期骨格姿勢パラメータ
の、ルートとなる関節以外の関節jのx軸、y軸、及びz軸の回転角度パラメータに対し、平均0、分散σの正規分布に従うシステムノイズを加えることで、n個目骨格姿勢パラメータの候補についての、x軸、y軸、及びz軸についての回転角度パラメータθ を生成する。
次に、ステップS202では、ステップS200で生成した回転角度パラメータθ が、関節jにおける可動域内に入るかどうか判定する。可動域は、手動で設定するほか、大量のモーションデータなどから可動域を推定する方法などによって決定する。入る場合にはステップS204へ移行し、入らない場合には、ステップS200に戻ってθ の生成を繰り返す。
ステップS204では、ステップS202で可動域に入ると判定された回転角度パラメータθ を当該関節jにおける回転角度として採用する。
ステップS206では、すべての関節jに関してn個目の回転角度パラメータθ の候補の生成が終了したかどうかを判定する。終わっていればステップS210へ移行し、終わっていない場合にはステップS208へ移行する。
ステップS208では、関節jを1だけインクリメントして更新し、ステップS200へ戻って、次の関節jについてn個目の回転角度パラメータθ の候補の生成を行う。
ステップS210では、N個の骨格姿勢パラメータの候補の生成が終了したかを判定し、生成が終了していなければステップS212へ移行し、生成が終了していれば骨格姿勢パラメータ候補生成処理ルーチンを終了する。
ステップS212では、nを1だけインクリメントして更新し、ステップS200へ戻って、次の骨格姿勢パラメータの候補の生成を行う。
次に、上記図3のステップS114では、時刻t−1のN個の骨格姿勢パラメータの候補から、推定対象時刻tにおけるN個の骨格姿勢パラメータの候補を生成し、これを推定対象時刻tにおける骨格姿勢パラメータの分布として、パラメータ分布記憶部40に記憶する。
ステップS114は、具体的には、上記図4のステップS200〜ステップS212と同様の手順を用いてN個の骨格姿勢パラメータの候補を生成すればよいが、ステップS200において、初期骨格姿勢パラメータに対してではなく、時刻t−1のn個目の骨格姿勢パラメータの候補に対してシステムノイズを加えてn個目の骨格姿勢パラメータの候補を生成する点が異なっている。
ステップS115では、ステップS112又はステップS114で生成されたN個の骨格姿勢パラメータの候補の各々について、二次元座標の一致度及びデプス値の一致度を計算する。
ステップS115は、図5に示す二次元座標計算処理ルーチン、及び図6に示すデプス値計算処理ルーチンにより実現される。
図5に示すように、ステップS300では、ステップS114で生成されたN個の骨格姿勢パラメータの候補のうちi個目の骨格姿勢パラメータの候補と、骨格モデル記憶部26に記憶されている撮影者の骨格モデルに基づいて、上記非特許文献3の方法を用いて、全関節の三次元位置を計算する。
ステップS302では、ステップS300で計算された全関節の三次元位置のうち手腕の関節の三次元位置を、カメラ位置姿勢パラメータ記憶部22に記憶されている推定対象時刻tのカメラ位置姿勢パラメータと、カメラの内部パラメータとを用いて、二次元画像上に投影し、二次元座標を求める。
ステップS304では、ステップS302で求めた二次元座標と、関節位置記憶部24に記憶されている推定対象時刻tの手腕関節位置との間の二次元画像上のピクセル距離をlとし、一致度p(i)を平均0、分散σの正規分布を用いて以下の(1)式の様に、二次元座標の一致度を計算する。
ステップS306では、N個の骨格姿勢パラメータの候補について二次元座標の一致度p(i)が計算されたか判定し、計算されていれば処理を終了し、計算されていない場合にはステップS308へ移行する。
ステップS308では、iを1だけインクリメントして更新し、ステップS300に戻ってステップS300〜ステップS306の処理を繰り返す。
次に、図6に示すように、ステップS400では、上記ステップS300と同様に、ステップS114で生成されたN個の骨格姿勢パラメータの候補のうちi個目の骨格姿勢パラメータの候補と、骨格モデル記憶部26に記憶されている撮影者の骨格モデルに基づいて、上記非特許文献3の方法を用いて、全関節の三次元位置を計算する。
ステップS402では、カメラ位置姿勢パラメータ記憶部22に記憶されている推定対象時刻tのカメラ位置姿勢パラメータを用いて、ステップS400で計算された手腕関節の三次元位置をカメラ座標系に変換し、手腕関節位置のZ座標をデプス値mとする。
ステップS404では、ステップS400で得られた手腕関節の三次元位置を、カメラ位置姿勢パラメータ記憶部22に記憶されている推定対象時刻tのカメラ位置姿勢パラメータと、カメラの内部パラメータとを用いて、二次元画像上に投影して二次元座標を求め、推定対象時刻tの三次元画像データから、その二次元座標に対する三次元画像データ中の深度値を取得することでデプス値m’を得る。
ステップS406では、i個目の骨格姿勢パラメータの候補について、ステップS402で得たデプス値mと、ステップS404で得たデプス値m’とを用いて、デプス値に関する一致度q(i)を以下の(2)式のステップ関数で計算する。
ステップS408では、N個の骨格姿勢パラメータの候補についてデプス値の一致度q(i)が計算されたか判定し、計算されていれば処理を終了し、計算されていない場合にはステップS410へ移行する。
ステップS410では、iを1だけインクリメントして更新し、ステップS400に戻ってステップS400〜ステップS408の処理を繰り返す。
ステップS116では、N個の骨格姿勢パラメータの候補の各々について、以上の処理ルーチンにより得られた二次元座標の一致度p(i)、及び処理ルーチンにより得られたデプス値の一致度q(i)に基づいて、以下の(3)式の様に尤度π(i)を計算する。
ステップS118では、ステップS116で計算された尤度に基づいて、推定対象時刻tのN個の骨格姿勢パラメータの候補を更新する。ここでは、尤度に比例する割合でN個復元抽出し、パラメータ分布記憶部40に記憶する。
ステップS120では、上記ステップS118で得られたN個の骨格姿勢パラメータの候補と、上記ステップS116でN個の骨格姿勢パラメータの候補に対して計算された尤度との積和を計算することで期待値を計算し、これを推定対象時刻tにおける骨格姿勢パラメータの推定値として、出力部50により出力する。
ステップS122では、全ての三次元画像データについて処理を終了したかを判定し、終了していれば骨格姿勢推定処理ルーチンを終了し、終了していなければステップS124へ移行する。
ステップS124では、推定対象時刻tを更新し、ステップS108に戻ってステップS108〜ステップS122の処理を繰り返す。
以上説明したように、本発明の実施の形態に係る骨格姿勢推定装置によれば、各時刻のカメラの位置姿勢と、各時刻の関節位置と、予め求められた撮影者の骨格モデルと、各時刻の三次元画像データとに基づいて、各時刻の撮影者の骨格姿勢を表す骨格姿勢パラメータを推定し、一時刻前の骨格姿勢パラメータに基づいて、推定対象時刻の骨格姿勢パラメータの候補を複数生成し、生成された複数の骨格姿勢パラメータの候補の各々について、推定対象時刻のカメラの位置姿勢と、骨格モデルとに基づいて、骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算し、計算された尤度に応じて推定対象時刻の骨格姿勢パラメータを抽出し、骨格姿勢パラメータを推定することにより、撮影者の体の一部しか映り込んでいない映像からであっても、撮影者の骨格姿勢を精度よく推定することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、手腕関節位置を用いて、骨格姿勢パラメータの候補の尤度を計算する場合を例に説明したが、これに限定されるものではなく、カメラから撮影できる関節であり関節位置の推定可能であれば、どのような部位の関節位置を用いて、骨格姿勢パラメータの候補の尤度を計算してもよい。
10 入力部
20 演算部
22 カメラ位置姿勢パラメータ記憶部
24 関節位置記憶部
26 骨格モデル記憶部
30 カメラ位置姿勢推定部
32 関節位置検出部
34 骨格姿勢パラメータ推定部
40 パラメータ分布記憶部
50 出力部
100 骨格姿勢推定装置
132 パーティクル生成部
134 パーティクル尤度計算部
136 パラメータ分布更新部

Claims (5)

  1. 撮影者側からカメラにより撮影した各時刻の三次元画像データを受け付ける入力部と、
    各時刻の前記三次元画像データに基づいて、各時刻の前記カメラの位置姿勢を推定するカメラ位置姿勢推定部と、
    各時刻の前記三次元画像データに基づいて、各時刻の前記撮影者の予め定められた部位の関節位置を推定する関節位置検出部と、
    前記カメラ位置姿勢推定部によって推定された各時刻の前記カメラの位置姿勢と、前記関節位置検出部によって推定された各時刻の前記部位の関節位置と、予め求められた、前記撮影者の複数の関節からなる骨格モデルと、各時刻の前記三次元画像データとに基づいて、各時刻の前記撮影者の骨格姿勢を表す骨格姿勢パラメータを推定する骨格姿勢パラメータ推定部と、を含み、
    前記骨格姿勢パラメータ推定部は、一時刻前の複数の前記骨格姿勢パラメータの候補に基づいて、推定対象時刻の前記骨格姿勢パラメータの候補を複数生成し、
    生成された複数の骨格姿勢パラメータの候補の各々について、前記カメラ位置姿勢推定部によって推定された前記推定対象時刻の前記カメラの位置姿勢と、前記骨格モデルとに基づいて、前記骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算し、
    生成された複数の骨格姿勢パラメータの候補から、前記計算された尤度に応じて前記骨格姿勢パラメータの候補を抽出することにより、前記推定対象時刻の前記骨格姿勢パラメータを推定する骨格姿勢推定装置。
  2. 前記骨格姿勢パラメータ推定部は、一時刻前の複数の前記骨格姿勢パラメータの候補に基づいて、予め定められた前記部位の関節位置の可動域に関する制約を満たす、推定対象時刻の前記骨格姿勢パラメータの候補を複数生成する請求項1に記載の骨格姿勢推定装置。
  3. 前記骨格姿勢パラメータ推定部は、生成された複数の骨格姿勢パラメータの候補の各々について、前記骨格姿勢パラメータの候補と前記骨格モデルとに基づいて、前記部位の関節位置の三次元位置を計算し、前記計算された前記部位の関節位置の三次元位置から得られる二次元座標と、前記関節位置検出部によって推定された前記推定対象時刻の前記部位の関節位置の二次元座標との一致度を計算し、
    前記計算された前記部位の関節位置の三次元位置から得られるデプス値と、前記計算された三次元位置から得られる二次元座標に対応する、前記三次元画像データのデプス値との一致度を計算し、前記計算された二次元座標の一致度及び前記デプス値の一致度に基づいて、前記骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算する請求項1又は2に記載の骨格姿勢推定装置。
  4. 入力部が、撮影者側からカメラにより撮影した各時刻の三次元画像データを受け付けるステップと、
    カメラ位置姿勢推定部が、各時刻の前記三次元画像データに基づいて、各時刻の前記カメラの位置姿勢を推定するステップと、
    関節位置検出部が、各時刻の前記三次元画像データに基づいて、各時刻の前記撮影者の予め定められた部位の関節位置を推定するステップと、
    骨格姿勢パラメータ推定部が、前記カメラ位置姿勢推定部によって推定された各時刻の前記カメラの位置姿勢と、前記関節位置検出部によって推定された各時刻の前記部位の関節位置と、予め求められた、前記撮影者の複数の関節からなる骨格モデルと、各時刻の前記三次元画像データとに基づいて、各時刻の前記撮影者の骨格姿勢を表す骨格姿勢パラメータを推定するステップと、を含み、
    前記骨格姿勢パラメータ推定部が推定するステップは、一時刻前の複数の前記骨格姿勢パラメータの候補に基づいて、推定対象時刻の前記骨格姿勢パラメータの候補を複数生成し、
    生成された複数の骨格姿勢パラメータの候補の各々について、前記カメラ位置姿勢推定部によって推定された前記推定対象時刻の前記カメラの位置姿勢と、前記骨格モデルとに基づいて、前記骨格姿勢パラメータの候補の尤もらしさを示す尤度を計算し、
    生成された複数の骨格姿勢パラメータの候補から、前記計算された尤度に応じて前記推定対象時刻の骨格姿勢パラメータの候補を抽出することにより、前記推定対象時刻の前記骨格姿勢パラメータを推定する骨格姿勢推定方法。
  5. コンピュータを、請求項1〜請求項3の何れか1項に記載の骨格姿勢推定装置を構成する各部として機能させるためのプログラム。
JP2015043866A 2015-03-05 2015-03-05 骨格姿勢推定装置、方法、及びプログラム Pending JP2016162425A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015043866A JP2016162425A (ja) 2015-03-05 2015-03-05 骨格姿勢推定装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015043866A JP2016162425A (ja) 2015-03-05 2015-03-05 骨格姿勢推定装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016162425A true JP2016162425A (ja) 2016-09-05

Family

ID=56845228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015043866A Pending JP2016162425A (ja) 2015-03-05 2015-03-05 骨格姿勢推定装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2016162425A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472497A (zh) * 2019-07-08 2019-11-19 西安工程大学 一种融合旋转量的动作特征表示方法
WO2023013099A1 (ja) * 2021-08-02 2023-02-09 株式会社日立ハイテク 計測システム、計測装置、計測データ処理方法及び計測データ処理プログラム
US11688095B2 (en) 2019-10-18 2023-06-27 Aisin Corporation Tiptoe position estimating device and fingertip position estimating device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472497A (zh) * 2019-07-08 2019-11-19 西安工程大学 一种融合旋转量的动作特征表示方法
US11688095B2 (en) 2019-10-18 2023-06-27 Aisin Corporation Tiptoe position estimating device and fingertip position estimating device
WO2023013099A1 (ja) * 2021-08-02 2023-02-09 株式会社日立ハイテク 計測システム、計測装置、計測データ処理方法及び計測データ処理プログラム

Similar Documents

Publication Publication Date Title
JP5931215B2 (ja) 姿勢を推定する方法及び装置
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5555207B2 (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP6349418B2 (ja) 高精度単眼移動によるオブジェクト位置特定
CN110909580B (zh) 数据处理方法及装置、电子设备及存储介质
Vidas et al. Real-time mobile 3D temperature mapping
JP2009020761A (ja) 画像処理装置及びその方法
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP2015184767A (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2016162425A (ja) 骨格姿勢推定装置、方法、及びプログラム
WO2016123813A1 (zh) 一种智能设备的姿态关系计算方法和智能设备
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
KR102333768B1 (ko) 딥러닝 기반 손 인식 증강현실 상호 작용 장치 및 방법
JP2000348181A (ja) 移動物体追跡装置
KR20090070258A (ko) 3차원 기하학 정보를 이용한 실시간 지시 영역 추정 방법
JP2007034964A (ja) カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム
Pietzsch Planar features for visual slam
JP6357396B2 (ja) 背景差分装置、方法、及びプログラム
JP4942197B2 (ja) テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体