JP2017097577A - 姿勢推定方法及び姿勢推定装置 - Google Patents
姿勢推定方法及び姿勢推定装置 Download PDFInfo
- Publication number
- JP2017097577A JP2017097577A JP2015228293A JP2015228293A JP2017097577A JP 2017097577 A JP2017097577 A JP 2017097577A JP 2015228293 A JP2015228293 A JP 2015228293A JP 2015228293 A JP2015228293 A JP 2015228293A JP 2017097577 A JP2017097577 A JP 2017097577A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- unit
- posture estimation
- estimation
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】利用者が撮影部から離れた位置にいる場合、姿勢推定を正しく行うことが出来ない。また、複数の撮影部を用いて姿勢推定するのにカメラの位置、撮影範囲に制約をうけることがある。【解決手段】第一撮影部と、第二撮影部と、前記第一撮影部から得られる画像に対して人物領域を抽出する第一人物領域抽出部と、前記第一人物領域抽出部が抽出する領域に映る人物の姿勢を推定する第一姿勢推定部と、前記第一姿勢推定部の結果および前記第二撮影部から得られる画像に基づいて前記人物の姿勢を推定する第二姿勢推定部と、を備えることを特徴とする姿勢推定装置。【選択図】図1
Description
本発明は、取得した画像から対象の姿勢を推定する方法に関する。
従来、画像から人物の姿勢を推定する方法として特許文献1がある。これは第一カメラの画像から得られる対象の確率分布情報を推定し、別カメラの情報をもとに対象の確率分布情報を補正する方法である。
また特許文献2では、距離画像と輝度画像を使い、両方の画像から手の存在確率マップを作り、手検出を行っている。
しかしながら、特許文献1はカメラ1では見えない部分に対してカメラ2の画像情報を使って確率分布情報を作るため、両方のカメラに対して全身の人物が写っている必要がある。特許文献2に対しても同様にIRカメラと通常のカメラの両方に物体が見えていなければならない。
そのため、片方のカメラに写っていても、もう一方のカメラに写っていない場合は、物体の検出、姿勢推定精度が低下する要因となる。それだけでなく、撮影範囲が異なるカメラを使い分けることが出来ない事や、カメラ位置や撮影領域に制約がかかってしまう。
本発明は、以上の課題に鑑みてなされたものであり、これらの状況に対応できる人物の姿勢推定を行うことを目的とする。
上記の目的を達成するために、本発明に係る姿勢推定方法は、
対象物体の全体を写す第一撮影工程と、対象物体の一部を写す第二撮影工程があり、第一撮影工程から取得される画像に対して人物領域を抽出する人物領域抽出工程があり、人物領域抽出工程から得られた人物領域画像に対して姿勢推定処理を実行して対象の姿勢情報を推定する第一姿勢推定工程があり、第一姿勢推定工程から得られた姿勢情報を取得し、その姿勢を初期値として第二撮影工程から得られた画像に対して姿勢推定処理を行う第二姿勢推定処理工程を有する。
対象物体の全体を写す第一撮影工程と、対象物体の一部を写す第二撮影工程があり、第一撮影工程から取得される画像に対して人物領域を抽出する人物領域抽出工程があり、人物領域抽出工程から得られた人物領域画像に対して姿勢推定処理を実行して対象の姿勢情報を推定する第一姿勢推定工程があり、第一姿勢推定工程から得られた姿勢情報を取得し、その姿勢を初期値として第二撮影工程から得られた画像に対して姿勢推定処理を行う第二姿勢推定処理工程を有する。
本発明によれば、撮影位置や撮影範囲によらず各撮影装置で姿勢推定を行う事が出来る。また。床や近くにある物体による影響や撮影位置により、第一姿勢推定部での姿勢推定の精度が低くても第二姿勢推定部により姿勢推定を安定化させることができる。
以下、添付図面を参照して、本発明の実施形態に従って詳細に説明する。
本実施形態に係る姿勢推定方法は、撮影部から得られる画像に対して姿勢を推定する方法に関するもので、画像は輝度画像でも距離画像でもよいし、あらかじめ作成した距離データでもよい。
また、本実施形態では人物を含んだ距離画像を撮影し、得られた距離画像から、人物の姿勢を推定する場合について説明する。なお、本実施形態に係る姿勢推定を行う対象は人物としているが、これに限定するものではない。
図1は本実施形態に係る姿勢推定装置の構成を示す図である。
図1に示すように、本実施形態に係る姿勢推定装置は、第一撮影部101と、第二撮影部102と、第一人物領域抽出部103と、第一姿勢推定部104と、第二姿勢推定部105とを備える。
第一撮影部101は距離計測カメラで、その撮影視点(第一の視点とする)から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力する。この距離情報とは、例えば計測距離値を画素値とした距離画像である。また、第一撮影部101は距離画像を出力するカメラに限定せず、可視画像を出力するカメラの構成であってもよい。
第一撮影部101は、図2に示すように利用者203の全身が映るよう201のように配置される。
第一撮影部101の距離の計測方法は、一般的に知られた方法で行う。例えば、複数の可視カメラの画像を用いたステレオ法であったり、Time−Of−Flight法であったり、パターン光投影による三角測量方式であったり、撮像光学系の出フォーカス情報に基づく方法であったりする。
第一撮影部101が出力する距離情報は、第一人物領域抽出部103へと出力される。
第二撮影部102は距離計測カメラで、その撮影視点(第一の視点とする)から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力する。この距離情報とは、例えば計測距離値を画素値とした距離画像である。また、第二撮影部102は距離画像を出力するカメラに限定せず、可視画像を出力するカメラの構成であってもよい。
第二撮影部102は、図2に示すように利用者203に対して第一撮影部201より近い位置に配置され、利用者203の一部が映るように配置される。
第二撮影部102の距離の計測方法は、一般的に知られた方法で行う。例えば、複数の可視カメラの画像を用いたステレオ法であったり、Time−Of−Flight法であったり、パターン光投影による三角測量方式であったり、撮像光学系の出フォーカス情報に基づく方法であったりする。
第二撮影部102が出力する距離情報は、第二姿勢推定部105へと出力される。
第一人物領域抽出部103は、例えばPC上で実行されるソフトウェアの一部であり、第一撮影部101より距離情報を受け取って、その距離情報に含まれる利用者の動きから、利用者である領域を抽出する。
利用者の人体形状を含む人物領域を抽出する方法は、例えば、背景差分法などを用いて、画像の中から人体領域を抽出する。ここで画像が可視画像であれば、人体の存在し得る空間中の範囲は、カメラのレンズ中心を頂点、物体領域を切り口とした錐体の内部に制約される。画像が距離画像であれば、物体の存在し得る空間中の範囲は、その撮影視点からみた2.5次元的な距離マップの奥側に制約される。そうした、第一撮影部101の画像から抽出された人体の存在し得る空間の積をとることで人物領域画像を抽出する。
得られた人物領域画像は第一姿勢推定部104へと出力される。
第一姿勢推定部104は人物領域抽出部103から取得した人物画像に対して姿勢推定を行う。利用者の人体形状を含む距離情報から人物の姿勢を推定する方法としては、例えば非特許文献1に示されるような、一般的に知られた方法である。
[非特許文献1]
J. Shotton, A. Fitzgibbon, M. Cook, T. Sharp, M. Finocchio, R. Moore, A. Kipman, and A. Blake: Real−Time Human Pose Recognition in Parts from a Single Depth Image. CVPR 2011
距離情報が距離画像である場合を例にすると、次のような方法でよい。
[非特許文献1]
J. Shotton, A. Fitzgibbon, M. Cook, T. Sharp, M. Finocchio, R. Moore, A. Kipman, and A. Blake: Real−Time Human Pose Recognition in Parts from a Single Depth Image. CVPR 2011
距離情報が距離画像である場合を例にすると、次のような方法でよい。
姿勢を推定する別の方法としては、あらかじめ距離情報と人物の姿勢(パーツの位置関係)の対応関係を大量に学習しておき、距離情報が入力されたら、その距離情報に対応する人物の姿勢を学習結果に基づいて決定する、といった方法がある。
図4に示すが、407は人物領域の距離画像を3次元の点群に変換したもので、人物領域の距離画像304に対して公知の方法を使って姿勢を推定した結果が408である。
得られた人物画像が可視画像である場合、第一姿勢推定部104は色やエッジの情報を使って、あらかじめ要した人物モデルのパーツ(胴体、頭、腕、脚)毎にの確率分布を算出することで姿勢を推定する。
得られた姿勢情報408は第二姿勢推定部105へと出力される。
第二姿勢推定部105は第一姿勢推定部104から得られた利用者203の3次元の各関節位置を第二撮影部102から撮影している位置へと変換する。この変換は、第一撮影部101と第二撮影部102のキャリブレーションを行い、互いの3次元的な位置関係を既知としておくことで変換することが出来る。変換した各関節位置に対して第二撮影部102で撮影した距離画像を使って関節位置を推定する。関節位置の推定方法としては、第一姿勢推定部104から得られた姿勢409を基に、あらかじめ用意した人体のモデルを姿勢409の位置に配置し、第二撮影部102から得られた距離画像305を三次元の点群に変換した距離情報409に対して人体モデルのパーツ(頭、手、足、胴など、人体を構成する部分)の位置および姿勢を三次元的に変更しながら、人体領域の距離情報にあてはめる。切り出した人体領域の距離情報に適切に人体モデルがあてはめられたら、その人体モデルで表現される人物の姿勢、すなわち各パーツの第一撮影部101の撮影視点(第一の視点)に対する位置を、第一姿勢推定部104の推定結果とする。各パーツを球で表現し、パーツ間のつながりを線分で表現すると、人物の姿勢認識結果である各パーツの位置は、図4(b)の410に示すように表現できる。
また、第二撮影部102から送られてくる画像が可視画像である場合、
続いて、図5に示したフローチャートを用いて、本実施形態における姿勢推定方法100が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の方法内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読みだされ、実行される。
続いて、図5に示したフローチャートを用いて、本実施形態における姿勢推定方法100が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の方法内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読みだされ、実行される。
利用者が図2に示すように第一撮影部101に向かってその前に立ち、本実施形態の姿勢推定装置100をスタートさせると、まずステップS101が行われる。
(ステップS101)
ステップS101では、第一撮影部101と第二撮影部102により、その撮影視点の位置から撮影視野内に映る被写体までの距離が計測される。この時、第一撮影部101と第二撮影部102は同期しており、同じタイミングでの撮影が実行される。そして、その結果が距離情報として第一撮影部101の距離情報は第一人物領域抽出部103へ、第二撮影部102の距離情報305は第二姿勢推定部105へと送られ、処理はステップS102へと進む。
ステップS101では、第一撮影部101と第二撮影部102により、その撮影視点の位置から撮影視野内に映る被写体までの距離が計測される。この時、第一撮影部101と第二撮影部102は同期しており、同じタイミングでの撮影が実行される。そして、その結果が距離情報として第一撮影部101の距離情報は第一人物領域抽出部103へ、第二撮影部102の距離情報305は第二姿勢推定部105へと送られ、処理はステップS102へと進む。
(ステップS102)
ステップS102では、第一人物領域抽出部103が第一撮影部102より受け取る距離情報に含まれる利用者の人体形状から、利用者のみの領域を抽出する。人物領域の抽出には背景差分や、フレーム間差分、フレーム間での画像中の動いている領域を抽出する方法を用いて人物領域を抜き出すことができる。そして、その抽出した人物領域画像304が第一姿勢推定部104へ送られ、処理はステップS103へと出力される。
ステップS102では、第一人物領域抽出部103が第一撮影部102より受け取る距離情報に含まれる利用者の人体形状から、利用者のみの領域を抽出する。人物領域の抽出には背景差分や、フレーム間差分、フレーム間での画像中の動いている領域を抽出する方法を用いて人物領域を抜き出すことができる。そして、その抽出した人物領域画像304が第一姿勢推定部104へ送られ、処理はステップS103へと出力される。
(ステップS103)
ステップS103では、第一姿勢推定部104が第一人物領域抽出部103より受け取る利用者領域のみの距離情報407から、利用者の姿勢を三次元的に推定する。姿勢を推定する方法としては、あらかじめ距離情報と人物の姿勢(パーツの位置関係)の対応関係を大量に学習しておき、距離情報が入力されたら、その距離情報に対応する人物の姿勢を学習結果に基づいて決定する、といった方法がある。
ステップS103では、第一姿勢推定部104が第一人物領域抽出部103より受け取る利用者領域のみの距離情報407から、利用者の姿勢を三次元的に推定する。姿勢を推定する方法としては、あらかじめ距離情報と人物の姿勢(パーツの位置関係)の対応関係を大量に学習しておき、距離情報が入力されたら、その距離情報に対応する人物の姿勢を学習結果に基づいて決定する、といった方法がある。
そして、その姿勢推定結果408が第二姿勢推定部105へ送られ、処理はステップS104へと進む。
(ステップS104)
ステップS104では、第二姿勢推定部105が第一姿勢推定部104より受け取る姿勢に基づいて、第二撮影部102より受け取る利用者の人体形状を含む距離情報を用いて、利用の三次元の姿勢を推定する。この時、第二姿勢推定部105は第一姿勢推定部104から受けとった姿勢情報408と距離情報409から、姿勢情報408に三次元距離が近い距離情報の領域を同一人物として対応付ける。対応を付けたら、姿勢情報408の関節位置にあらかじめ用意した人物モデルを適用して、距離情報409の各点に対して人物モデルの各関節点との距離が近い点を選択して当てはめることで姿勢を推定することが出来る。この時、第一姿勢推定部104での姿勢推定時に各画素がどの関節に対応するか識別した結果を、対応する第二撮影部102の距離画像305の画素に割り当てて、識別値を信頼度として設定して、パーツの当てはめを行ってもよい。
ステップS104では、第二姿勢推定部105が第一姿勢推定部104より受け取る姿勢に基づいて、第二撮影部102より受け取る利用者の人体形状を含む距離情報を用いて、利用の三次元の姿勢を推定する。この時、第二姿勢推定部105は第一姿勢推定部104から受けとった姿勢情報408と距離情報409から、姿勢情報408に三次元距離が近い距離情報の領域を同一人物として対応付ける。対応を付けたら、姿勢情報408の関節位置にあらかじめ用意した人物モデルを適用して、距離情報409の各点に対して人物モデルの各関節点との距離が近い点を選択して当てはめることで姿勢を推定することが出来る。この時、第一姿勢推定部104での姿勢推定時に各画素がどの関節に対応するか識別した結果を、対応する第二撮影部102の距離画像305の画素に割り当てて、識別値を信頼度として設定して、パーツの当てはめを行ってもよい。
また、可視画像で本ステップを実施する場合、あらかじめ第一撮影部201と第二撮影部202をキャリブレーションしておくことで、第一撮影部201で得られた姿勢情報を第二撮影部202の位置で映る大きさに変換する。変換した姿勢情報を第二撮影部で得られた画像内に映る範囲のみのパーツに限定して位置推定を行う。この時、推定には各パーツの色情報やエッジ情報を使ってパーツの確率分布を算出し、パーツの位置を推定する。推定したパーツに対応する関節位置を出力する。推定した姿勢410は出力され、ディスプレイなどに表示することで利用者に提示することができる。
その後の処理はステップS101へと戻り、姿勢推定装置100の利用を終了するまで処理は続く。
以上の処理により、姿勢推定装置100は利用者に対し、姿勢情報を提示することができる。第一撮影部101のみの姿勢推定結果では、カメラに対して遠い位置に利用者がいるため、距離情報では誤差があり、可視画像では映っている人物の領域が少ないためく、姿勢推定結果が間違ってしまう場合が多いが、第二撮影部102の距離情報により映っている部分の姿勢を再度推定しなおすことで、より正しい姿勢を推定することが可能となる。
本実施形態に係る姿勢推定装置600の構成図を図6に示す。すなわち、姿勢推定装置600は、第一撮影部601、第二撮影部602、第一人物領域抽出部603、第一姿勢推定部604、関節位置信頼度判定部605、第二姿勢推定部606を備える。
第一撮影部601は距離計測カメラで、その撮影視点(第一の視点とする)から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力する。この距離情報とは、例えば計測距離値を画素値とした距離画像である。
第一撮影部601は、図7に示すように利用者703の全身が映るよう701のように配置される。
第一撮影部601が出力する距離情報804は、第一人物領域抽出部603へと出力される。
第二撮影部602は距離計測カメラで、その撮影視点(第一の視点とする)から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力する。この距離情報とは、例えば計測距離値を画素値とした距離画像である。
第二撮影部602は、図7に示すように第一撮影部601に近い位置に配置されているが、利用者703の特定の部位を映すために702のように配置される。また、第二撮影部602は第一撮影部601と異なり、視野範囲は狭いが、より遠くの距離でも精度良く距離計測できるカメラを用いる。
第二撮影部602が出力する距離情報805は、第二姿勢推定部105へと出力される。
第一人物領域抽出部603は、第一撮影部601より距離情報を受け取って、利用者の領域を抽出する。
利用者の人体形状を含む人物領域を抽出する方法は、例えば、背景差分により抽出する方法や、フレーム間差分といったフレーム間で動いている領域を抽出する方法を用いる。
得られた人物領域画像806は第一姿勢推定部604へと出力される。
第一姿勢推定部604では第一人物領域画像806に対して姿勢推定処理を行う。姿勢推定の方法は、あらかじめ各姿勢における距離情報と関節位置の関係を大量に用意して学習しておき、人物領域画像806が入力されたら、その距離情報と学習した姿勢別の各画素の距離情報を比較することで、距離情報が一致する距離情報データを選択し、それに対応する関節位置を出力する、といった方法である。
図9に示すが、人物領域画像806に対して姿勢推定処理を行った結果、得られた姿勢情報908は関節位置信頼度判定部605と第二姿勢推定部606へと出力される。
関節位置信頼度判定部605が第一姿勢推定部604より受け取った姿勢推定結果908における各関節位置の信頼度を判定する。判定方法としては、第一姿勢推定部604において姿勢推定処理実行時に算出する各画素に識別結果を各関節毎に累計し、尤度を各関節ないしは胴体・腕・脚などのパーツ別に累計し、設定した閾値より高いかどうで判定する。本実施形態の場合、画像の脚部分が抽出されておらず脚の尤度が低いため、信頼度が低いと判定される。各関節位置の信頼度を判定した結果は第二姿勢推定部606へと送られる。
第二姿勢推定部606は第一姿勢推定部604から得られた利用者703の3次元の各関節位置を第二撮影部602から撮影している位置へと変換する。この変換は、第一撮影部601と第二撮影部602のキャリブレーションを行い、互いの3次元的な位置関係を既知としておくことで変換することが出来る。
姿勢推定処理には、あらかじめ用意した人体のモデルを第一姿勢推定部から取得した姿勢情報908へと適用し、そのパーツ(頭、手、足、胴など、人体を構成する部分)の位置および姿勢に対して関節位置信頼度判定部605から信頼度が低いと判定された関節が属するパーツのみ選択して行う。選択した脚パーツを三次元的に変更しながら、切り出したパーツの距離情報にあてはめる。切り出した人体領域に適切に人体モデルがあてはめられたら、その人体モデルで表現される人物の姿勢情報910を推定結果とする。
続いて、図10に示したフローチャートを用いて、本実施形態における姿勢推定方法600が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の方法内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読みだされ、実行される。
図7に示すように、利用者703が第一撮影部701及び第二撮影部702に向かってその前に立ち、本実施形態の姿勢推定装置600をスタートさせると、まずステップS1001が行われる。
(ステップS1001)
ステップS1001では、第一撮影部601と第二撮影部602により、その撮影視点の位置から撮影視野内に映る被写体までの距離が計測される。この時、第一撮影部601と第二撮影部602は同期しており、同じタイミングでの撮影が実行される。そして、その結果が距離情報として第一撮影部601の距離情報804は人物領域抽出部603へ、第二撮影部602の距離情報805は第二姿勢推定部606へと送られ、処理はステップS1002へと進む。
ステップS1001では、第一撮影部601と第二撮影部602により、その撮影視点の位置から撮影視野内に映る被写体までの距離が計測される。この時、第一撮影部601と第二撮影部602は同期しており、同じタイミングでの撮影が実行される。そして、その結果が距離情報として第一撮影部601の距離情報804は人物領域抽出部603へ、第二撮影部602の距離情報805は第二姿勢推定部606へと送られ、処理はステップS1002へと進む。
(ステップS1002)
ステップS1002では、人物領域抽出部603が第一撮影部602より受け取る距離情報805に含まれる利用者703の人体形状から、利用者703のみの領域を抽出する。領域の抽出方法には背景距離情報と撮影画像の差分を取る方法や特許文献3などの公知の技術を用いて抽出する。その抽出結果の距離画像806が第一姿勢推定部604へ送られ、処理はステップS1003へと出力される。
ステップS1002では、人物領域抽出部603が第一撮影部602より受け取る距離情報805に含まれる利用者703の人体形状から、利用者703のみの領域を抽出する。領域の抽出方法には背景距離情報と撮影画像の差分を取る方法や特許文献3などの公知の技術を用いて抽出する。その抽出結果の距離画像806が第一姿勢推定部604へ送られ、処理はステップS1003へと出力される。
(ステップS1003)
ステップS1003では、第一姿勢推定部604が人物領域抽出部103より受け取る利用者領域のみの距離情報806から、利用者の姿勢を三次元的に推定する。推定には、あらかじめ各姿勢における距離情報と関節位置の関係を大量に用意して学習しておき、人物領域画像806が入力されたら、その距離情報と学習した姿勢別の各画素の距離情報を比較することで、距離情報が一致する距離情報データを選択し、それに対応する関節位置を出力する。そして、その姿勢推定結果908が関節位置信頼度判定部605と第二姿勢推定部1006へ送られ、処理はステップS1004へと進む。
ステップS1003では、第一姿勢推定部604が人物領域抽出部103より受け取る利用者領域のみの距離情報806から、利用者の姿勢を三次元的に推定する。推定には、あらかじめ各姿勢における距離情報と関節位置の関係を大量に用意して学習しておき、人物領域画像806が入力されたら、その距離情報と学習した姿勢別の各画素の距離情報を比較することで、距離情報が一致する距離情報データを選択し、それに対応する関節位置を出力する。そして、その姿勢推定結果908が関節位置信頼度判定部605と第二姿勢推定部1006へ送られ、処理はステップS1004へと進む。
(ステップS1004)
ステップS1004では、関節位置信頼度判定部605が第一姿勢推定部604より受け取った姿勢推定結果908における各関節位置の信頼度を判定する。判定方法としては、第一姿勢推定部604において姿勢推定処理実行時に算出する各画素での距離情報の尤度を各関節ないしは胴体・腕・脚などのパーツ別に累計し、設定した閾値より高いかどうで判定する。本実施形態の場合、画像の脚部分が抽出されていないため、脚の尤度が低く、信頼度が低いと判定される。推定尤度判定した結果を第二姿勢推定部606へと送られ、処理はステップS1005へと進む。
ステップS1004では、関節位置信頼度判定部605が第一姿勢推定部604より受け取った姿勢推定結果908における各関節位置の信頼度を判定する。判定方法としては、第一姿勢推定部604において姿勢推定処理実行時に算出する各画素での距離情報の尤度を各関節ないしは胴体・腕・脚などのパーツ別に累計し、設定した閾値より高いかどうで判定する。本実施形態の場合、画像の脚部分が抽出されていないため、脚の尤度が低く、信頼度が低いと判定される。推定尤度判定した結果を第二姿勢推定部606へと送られ、処理はステップS1005へと進む。
(ステップS1005)
ステップS1005では、第二姿勢推定部606が第一姿勢推定部604より受け取る姿勢と関節位置信頼度判定部605に基づいて、第二撮影部602より受け取る利用者703の人体形状を含む距離情報909を用いて、三次元の姿勢を推定する。姿勢の推定には、まず、姿勢情報908に三次元距離が近い距離情報の領域を同一人物として対応付ける。対応を付けたら、姿勢情報908の関節位置にあらかじめ用意した人物モデルを適用して配置し、関節位置信頼度判定部605から選択された関節に対応するパーツを選択する。選択されたパーツの中で、信頼度が高いパーツから距離情報909に対してパーツと三次元点の距離が近い点を選択して当てはめることで姿勢を推定することが出来る。推定を行う際、関節位置信頼度判定部605により脚の関節が低いと判定されているため、脚関節が属するパーツのみの姿勢推定を行う。
ステップS1005では、第二姿勢推定部606が第一姿勢推定部604より受け取る姿勢と関節位置信頼度判定部605に基づいて、第二撮影部602より受け取る利用者703の人体形状を含む距離情報909を用いて、三次元の姿勢を推定する。姿勢の推定には、まず、姿勢情報908に三次元距離が近い距離情報の領域を同一人物として対応付ける。対応を付けたら、姿勢情報908の関節位置にあらかじめ用意した人物モデルを適用して配置し、関節位置信頼度判定部605から選択された関節に対応するパーツを選択する。選択されたパーツの中で、信頼度が高いパーツから距離情報909に対してパーツと三次元点の距離が近い点を選択して当てはめることで姿勢を推定することが出来る。推定を行う際、関節位置信頼度判定部605により脚の関節が低いと判定されているため、脚関節が属するパーツのみの姿勢推定を行う。
第二姿勢推定部606により推定した姿勢910は出力され、ディスプレイなどに表示することで利用者に提示することができる。
その後の処理はステップS1001へと戻り、姿勢推定装置600の利用を終了するまで処理は続く。
以上の処理により、姿勢推定装置600は利用者に対し、姿勢情報を提示することができる。第一撮影部601のみを用いて姿勢推定した結果では、利用者はカメラに対して離れており、映っている人物の領域が少ないため、姿勢推定結果に誤差がある場合が多いが、第二撮影部602の距離情報909により映っている部分の姿勢を再度推定しなおすことで、特定の関節位置を推定することが可能となる。
本実施形態に係る姿勢推定装置1100は、第一撮影部1101、第二撮影部1102、第一人物領域抽出部1103、第二人物領域抽出部1104、第一姿勢推定部1105、姿勢記録部1106、姿勢シミュレーション部1107、第二姿勢推定部1108、推定結果出力部1109を備える。
本実施形態における撮影状況例を図12に示す。本実施形態では第一撮影部1101、第二撮影部1102が図12のそれぞれ1201、1202のように並んで配置されている。この時、第一撮影部1101と第二撮影部1102の視野範囲は重なっていなくてもよい。利用者1203は第一撮影部1201の視野範囲から、第二撮影部1202の視野範囲へ歩いていく際の姿勢を推定する装置となっている。
第一撮影部1101は距離計測カメラで、その撮影視点(第一の視点とする)から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力する。この距離情報とは、例えば計測距離値を画素値とした距離画像である。第一撮影部1101が出力する距離情報は、人物領域抽出部1103へと出力される。
第一人物領域抽出部1102は、第一撮影部1101より距離画像を受け取って、画像内の映る利用者の領域を抽出する。
利用者の人体形状を含む人物領域を抽出する方法は、例えば、背景差分により抽出する方法や、フレーム間差分、フレーム間での動く領域を抽出する方法などの一般的な方法を用いて人物領域を抽出する。
得られた人物領域画像は第一姿勢推定部1103へと出力される。
第一姿勢推定部1103は人物領域画像に対して姿勢推定処理を行う。姿勢推定の方法は、得られた姿勢情報は姿勢記録部1104と推定結果出力部1109へと出力される。
姿勢記録部1104は第一姿勢推定部1103から送られてきた姿勢情報と撮影時刻の情報を併せて記録する。記録された姿勢は姿勢シミュレーション部1105及び第二姿勢推定部1108へと出力される。
姿勢シミュレーション部1105は利用者1203が第一撮影部1101から第二撮影部1108の前を横切る際、図12に示すように、利用者1203は撮影部1201、1202の前を横切る際、両撮影部の撮影範囲外に移動することがある。
姿勢記録部1104から新しい情報の姿勢を受け取り、利用者の動きによる各関節の三次元位置の変化を学習してモデル化した姿勢変化モデルに適用することで、現時刻における姿勢の予測を行う。
例えば、図14に示すように、第一撮影部の視野内に映る人物を第一姿勢推定部1103で推定した時系列での姿勢1405、1406、1407をもとに、あらかじめ学習により取得した姿勢変化モデルを適用することで、姿勢情報1407から動いて次に来るであろう姿勢情報1408や1409を予測する。また、姿勢変化モデルに姿勢情報1405、1406、1407の結果から利用者の動きを適用することが出来る。例えば、各姿勢の関節毎やあらかじめ定義したパーツ毎(上腕や前腕、脚など)の三次元位置を対応付けて利用者1203の動き情報を作成し、姿勢変化モデルとの差分を算出して姿勢の予測を行う。そうすることで、利用者1203の動きに応じた姿勢を予測することができる。
姿勢予測結果1408、1409は姿勢記録部1104へ出力され、保存される。
第二撮影部1106は距離計測カメラで、その撮影視点(第一の視点とする)から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力する。この距離情報とは、例えば計測距離値を画素値とした距離画像である。
本実施形態においても第一撮影部1101と第二撮影部1102は同期しており、同じタイミングで距離画像の撮影が実施される。
また、本実施形態では利用者は第一撮影部1101の視野範囲内から第二撮影部1106の視野範囲内へ移動するため、1304が取得した時間とは異なる時間に距離情報1305が撮影される。
第二撮影部1106が出力する距離情報は、第二人物領域抽出部1104へと出力される。
第二人物領域抽出部1107は、第二撮影部1102より距離画像を受け取って、画像内の映る利用者の領域を抽出する。
利用者の人体形状を含む人物領域を抽出する方法は、例えば、背景差分により抽出する方法や、フレーム間差分、フレーム間で動きがある領域を抽出する方法を用いて抽出する。
得られた人物領域画像1305は第二姿勢推定部1108へと出力される。
第二姿勢推定部1108は人物領域画像1305を受け取り、姿勢記録部1104に保存されている姿勢情報1409を受け取り、姿勢情報1409を初期値として姿勢推定処理を実行する。
図15に示すように、姿勢推定には、あらかじめ用意した人体モデルを姿勢記録部1104から取得した姿勢情報1409の位置に変換して、第二人物領域抽出部1107から抽出した人物領域のみ距離画像1305を三次元の点群1505に変換し、三次元点群1505と人体モデルを各パーツ別に当てはめることで、姿勢1510を推定することができる。
推定した姿勢情報は推定結果出力部1109へと出力される。
推定結果出力部1109は第一姿勢推定部1103、姿勢記録部1104、第二姿勢推定部1108から姿勢情報を取得し、現時刻における利用者1203の姿勢を表すものを選択して出力する。
出力された姿勢情報はディスプレイなどをもちいて表示することでユーザに提示することができる。
また、本実施形態においては、利用者1203が第二撮影部1102の視野範囲内から第一撮影部1101の視野範囲内へと移動する場合も考えられる。その場合、第二姿勢推定部1108から姿勢情報が姿勢記録部1104へと出力され、第一姿勢推定部1103は姿勢記録部1104から受け取った姿勢情報を初期値として、人物領域画像に対して姿勢推定処理を行ってもよい構成となっている。
続いて、図15に示したフローチャートを用いて、本実施形態における姿勢推定方法1100が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の方法内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読みだされ、実行される。
図12に示すように、利用者1203が第一撮影部1101の視野範囲内に立ち、第一撮影部1101から第二撮影部1106の視野範囲内の方へ移動する時に、本実施形態の姿勢推定装置1100をスタートさせる。姿勢推定装置1100をスタートさせると、まずステップS1601が行われる。
(ステップS1601)
ステップS1601では第一撮影部1101と第二撮影部1102により、その撮影視点の位置から撮影視野内に映る被写体までの距離が計測される。この時、第一撮影部1101と第二撮影部1106は同期しており、同じタイミングでの撮影が実行される。
ステップS1601では第一撮影部1101と第二撮影部1102により、その撮影視点の位置から撮影視野内に映る被写体までの距離が計測される。この時、第一撮影部1101と第二撮影部1106は同期しており、同じタイミングでの撮影が実行される。
また、本実施形態では利用者1203は第一撮影部1101の視野範囲から第二撮影部1106の視野範囲へ移動するため、第一撮影部1101で撮影した距離情報1304が先に撮影され、第二撮影部1106で撮影した距離情報1305は後の時刻に撮影される。そして、その結果が距離情報として第一撮影部1101の距離情報1304は第一人物領域抽出部1102へ、第二撮影部1106の距離情報1305は第二人物領域抽出部1107へと送られ、処理はステップS1602へと進む。
(ステップS1602)
ステップS1602では第一撮影部1101で撮影した画像に対して第一人物領域抽出部1102が、第一撮影部1106で撮影した画像に対して第二人物領域抽出部1107が画像内の人物領域を抽出する。人物領域の抽出には、背景差分や、フレーム間差分、フレーム間で動きのある領域を抽出することで、人物領域を抜き出すことができる。抽出処理が完了すれば、処理はステップS1603へと進む。
ステップS1602では第一撮影部1101で撮影した画像に対して第一人物領域抽出部1102が、第一撮影部1106で撮影した画像に対して第二人物領域抽出部1107が画像内の人物領域を抽出する。人物領域の抽出には、背景差分や、フレーム間差分、フレーム間で動きのある領域を抽出することで、人物領域を抜き出すことができる。抽出処理が完了すれば、処理はステップS1603へと進む。
(ステップS1603)
ステップS1603では第一人物領域抽出部1102での人物抽出結果を判定する。判定には第一人物領域部1102から受けとった画像内に人物領域があるかどうかで判定を行う。人物領域があれば処理はステップS1604へと進み、人物領域がなければ処理はステップS1606へと進む。
ステップS1603では第一人物領域抽出部1102での人物抽出結果を判定する。判定には第一人物領域部1102から受けとった画像内に人物領域があるかどうかで判定を行う。人物領域があれば処理はステップS1604へと進み、人物領域がなければ処理はステップS1606へと進む。
(ステップS1604)
ステップS1604では、第一人物領域画像を用いて、利用者1203の姿勢を推定する。推定方法は、あらかじめ各姿勢における距離情報と関節位置の関係を大量に用意して学習しておき、人物領域画像1304が入力されたら、その距離情報と学習した姿勢別の各画素の距離情報を比較することで、距離情報が一致する距離情報データを選択し、それに対応する関節位置を出力する。姿勢推定処理により、得られた姿勢情報は姿勢記録部1104へと送られ、姿勢記録部1104が第一姿勢推定部1103から受け取った姿勢情報をデータベースに記録する。姿勢の記録が終了すれば、処理はステップS1608へと進む。
ステップS1604では、第一人物領域画像を用いて、利用者1203の姿勢を推定する。推定方法は、あらかじめ各姿勢における距離情報と関節位置の関係を大量に用意して学習しておき、人物領域画像1304が入力されたら、その距離情報と学習した姿勢別の各画素の距離情報を比較することで、距離情報が一致する距離情報データを選択し、それに対応する関節位置を出力する。姿勢推定処理により、得られた姿勢情報は姿勢記録部1104へと送られ、姿勢記録部1104が第一姿勢推定部1103から受け取った姿勢情報をデータベースに記録する。姿勢の記録が終了すれば、処理はステップS1608へと進む。
(ステップS1605)
ステップS1605では第二人物領域抽出部1107での人物抽出結果を判定する。判定には第二人物領域部1107から受けとった画像内に人物領域があるかどうかで判定を行う。人物領域があれば、処理はステップS1606へと進み、抽出出来なければ処理はステップS1607へと進む。
ステップS1605では第二人物領域抽出部1107での人物抽出結果を判定する。判定には第二人物領域部1107から受けとった画像内に人物領域があるかどうかで判定を行う。人物領域があれば、処理はステップS1606へと進み、抽出出来なければ処理はステップS1607へと進む。
(ステップS1606)
ステップS1606は第二姿勢推定部1108が姿勢記録部1104から姿勢情報を取得し、第二人物領域抽出部1107から得られる人物領域の距離画像を使って、姿勢推定を行う。姿勢推定方法としては、あらかじめ用意した人体モデルを姿勢記録部1104から取得した姿勢情報1409の位置に変換して、第二人物領域抽出部1107から抽出した人物領域のみ距離画像1305を三次元の点群1505に変換し、三次元点群1505と人体モデルを各パーツ別に当てはめる。この時、三次元点群1505の各三次元点は最も近い人体のパーツに割り当てられる。当てはめが終われば、姿勢1510を推定することができる。
ステップS1606は第二姿勢推定部1108が姿勢記録部1104から姿勢情報を取得し、第二人物領域抽出部1107から得られる人物領域の距離画像を使って、姿勢推定を行う。姿勢推定方法としては、あらかじめ用意した人体モデルを姿勢記録部1104から取得した姿勢情報1409の位置に変換して、第二人物領域抽出部1107から抽出した人物領域のみ距離画像1305を三次元の点群1505に変換し、三次元点群1505と人体モデルを各パーツ別に当てはめる。この時、三次元点群1505の各三次元点は最も近い人体のパーツに割り当てられる。当てはめが終われば、姿勢1510を推定することができる。
得られた姿勢は推定結果出力部1109へと送られ、処理はステップS1608へと進む。
(ステップS1607)
ステップS1607では人物が映っていないと判定され、姿勢記録部1104から姿勢情報を取得し、姿勢シミュレーション部1105にて姿勢情報の予測が行われる。姿勢の予測には、姿勢記録部1104から取得した姿勢1405、1406,1407をあらかじめ学習した姿勢変化モデルに適用し、姿勢1405、1406,1407の各関節の位置変化から、次に来る姿勢情報1408や1409を予測する。姿勢シミュレーション部1105にて予測された利用者1203の姿勢予測結果1408、1409は姿勢記録部1104へと送られて保存され、処理はステップS1608へと進む。
ステップS1607では人物が映っていないと判定され、姿勢記録部1104から姿勢情報を取得し、姿勢シミュレーション部1105にて姿勢情報の予測が行われる。姿勢の予測には、姿勢記録部1104から取得した姿勢1405、1406,1407をあらかじめ学習した姿勢変化モデルに適用し、姿勢1405、1406,1407の各関節の位置変化から、次に来る姿勢情報1408や1409を予測する。姿勢シミュレーション部1105にて予測された利用者1203の姿勢予測結果1408、1409は姿勢記録部1104へと送られて保存され、処理はステップS1608へと進む。
(ステップS1608)
ステップS1608では第一姿勢推定部1103、姿勢記録部1104、第二姿勢推定部1108から推定した姿勢情報を取得し、現時刻における利用者1203の姿勢を表すものを選択して、提示する。
ステップS1608では第一姿勢推定部1103、姿勢記録部1104、第二姿勢推定部1108から推定した姿勢情報を取得し、現時刻における利用者1203の姿勢を表すものを選択して、提示する。
姿勢の選択方法としては、現時刻に最も近い時刻に推定処理を行った結果を選択するなどである。
その後の処理はステップS1601へと戻り、姿勢推定装置1100の利用を終了するまで処理は続く。
以上の処理により、姿勢推定装置1100は利用者に対し、姿勢情報を提示することができる。このように視野が重なっていない複数の撮影部を用いて姿勢推定する場合、一度視野範囲外に出てから別撮影部の視野内に入る場合、利用者が一部しか映っていなければ姿勢の推定が出来ない、左右の手足を間違えることがよくある。このような問題に対して、本実施形態では視野内に一部しか映っていない状態でも左右の手足を間違えることなく姿勢を推定することができる。
〔その他の実施形態〕
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記憶媒体に記憶して提供してもよい。なお、本装置のコンピュータには、入力部から処理を実行する指示を入力し、その指示した処理の結果を出力部で表示してもよい。
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記憶媒体に記憶して提供してもよい。なお、本装置のコンピュータには、入力部から処理を実行する指示を入力し、その指示した処理の結果を出力部で表示してもよい。
<実施例の効果>
本発明における第一の実施形態では、撮影部に対しいて離れた位置にいる利用者の姿勢を、近い撮影部により撮影していることで、部分的に姿勢を推定し直すことができる。
本発明における第二の実施形態では、第一姿勢推定部での関節位置の推定結果を利用して信頼度を判定することで、推定が出来ていない関節位置を第二撮影部の距離情報を使って姿勢を補正することができる。
本発明における第一の実施形態では、撮影部に対しいて離れた位置にいる利用者の姿勢を、近い撮影部により撮影していることで、部分的に姿勢を推定し直すことができる。
本発明における第二の実施形態では、第一姿勢推定部での関節位置の推定結果を利用して信頼度を判定することで、推定が出来ていない関節位置を第二撮影部の距離情報を使って姿勢を補正することができる。
本発明における第三の実施形態では、第一撮影部の姿勢推定結果を利用して視野外に移動した利用者の姿勢を予測することで、第二撮影部の視野内に入った時、利用者の一部しか映っていない場合でも左右の手足の関節位置を推定することが可能となる。
<定義>
本発明における撮影部は、本発明の利用者を含む現実空間を撮影するものであればどのようなものであっても良い。その例が、実施例1で示した距離撮影カメラや可視カメラであり、実施例2及び実施例3で示した距離撮影カメラである。撮影部は、それ以外の、赤外カメラであっても良いし、ラインカメラであっても良いし、紫外カメラであっても良い。
本発明における撮影部は、本発明の利用者を含む現実空間を撮影するものであればどのようなものであっても良い。その例が、実施例1で示した距離撮影カメラや可視カメラであり、実施例2及び実施例3で示した距離撮影カメラである。撮影部は、それ以外の、赤外カメラであっても良いし、ラインカメラであっても良いし、紫外カメラであっても良い。
本発明における人物領域抽出部は、本発明における撮影部が撮影する画像中に映る人物を抽出する方法であれば。どのようなものであっても良い。その例が、背景差分であったり、フレーム間差分であったり、フレーム間で動きのある領域のみを抽出する、などの方法である。
本発明における姿勢推定部は、画像中に映る利用者の姿勢を推定するものであれば、どのようなものでもよい。画像が距離画像であれば非特許文献2などの方法で、姿勢を推定する。
本発明における姿勢記録部は、本発明の利用者の姿勢を記録するものであれば、どのようなものであっても良い。例えばRAM等の短期記憶媒体であっても良いし、不揮発メモリやHDD等の長期記憶媒体であっても良い。
本発明における姿勢シミュレーション部は、姿勢推定部から得られた姿勢をもとに、あらかじめ学習した姿勢の変動モデルを使って、姿勢を予測する方法であればどのようなものでもよい。姿勢変化モデルについては、姿勢記録部に保存されている利用者の複数の姿勢情報から、各パーツ別に動き情報を取得して動きモデルを作成し、姿勢変化モデルの各パーツに適用することもできる。
本発明は、リハビリ運動時の姿勢を推定する目的において利用できる。また、リハビリ運動だけでなく、スポーツ運動やダンス運動、さらには、着衣や接遇動作時の姿勢を推定する目的に利用できる。
101 第一撮影部、102 第二撮影部、103 人物領域抽出部、
104 第一姿勢推定部、105 第二姿勢推定部
104 第一姿勢推定部、105 第二姿勢推定部
Claims (19)
- 第一撮影部と、
第二撮影部と、
前記第一撮影部から得られる画像に対して人物領域を抽出する第一人物領域抽出部と、
前記第一人物領域抽出部が抽出する領域に映る人物の姿勢を推定する第一姿勢推定部と、
前記第一姿勢推定部の結果および前記第二撮影部から得られる画像に基づいて前記人物の姿勢を推定する第二姿勢推定部と、を備えることを特徴とする姿勢推定装置。 - 前記第二姿勢推定部が、前記第二撮影部の撮影する関節の位置を推定することを特徴とする請求項1に記載の姿勢推定装置。
- 前記第二姿勢推定部が、前記第二撮影部の撮影しない関節の位置の推定結果を、前記第一姿勢推定部の結果と同じにすることを特徴とする請求項1に記載の姿勢推定装置。
- 前記第一姿勢推定部の推定結果の信頼度を関節毎に判定する関節位置信頼度判定部を備えることを特徴とする請求項1に記載の姿勢推定装置。
- 前記第二姿勢推定部が、前記関節位置信頼度判定部において信頼度の低いと判定した関節の位置を推定することを特徴とする請求項4に記載の姿勢推定装置。
- 前記第二姿勢推定部が、前記関節位置信頼度判定部において信頼度の高いと判定した関節の位置の推定結果を、前記第一姿勢推定部の結果と同じにすることを特徴とする請求項4に記載の姿勢推定装置。
- 前記第一姿勢推定部の姿勢推定結果を記録する姿勢記録部と、
前記姿勢記録部に記録される姿勢推定結果に基づき前記第一撮影部の撮影範囲外における前記人物の関節の位置を予測する姿勢シミュレーション部と、を備え、
前記第二姿勢推定部が前記姿勢シミュレーション部による姿勢予測結果および前記第二撮影部から得られる画像に基づいて前記人物の姿勢を推定することを特徴とする請求項1又は請求項2に記載の姿勢推定装置。 - 前記姿勢記録部が前記姿勢シミュレーション部の姿勢予測結果を記録することを特徴とする請求項7に記載の姿勢推定装置。
- 前記姿勢シミュレーション部が、時系列での人の姿勢変化モデルを利用して姿勢推定することを特徴とする請求項7又は請求項8に記載の姿勢推定装置。
- 第一撮影部と、
第二撮影部と、
前記第一撮影部から得られる画像に対して人物領域を抽出する第一人物領域抽出部と、
前記第一人物領域抽出部が抽出する領域に映る人物の姿勢を推定する第一姿勢推定部と、
前記第一姿勢推定部の結果および前記第二撮影部から得られる画像に基づいて前記人物の姿勢を推定する第二姿勢推定部と、を備えることを特徴とする姿勢推定方法。 - 前記第二姿勢推定部が、前記第二撮影部の撮影する関節の位置を推定することを特徴とする請求項10に記載の姿勢推定方法。
- 前記第二姿勢推定部が、前記第二撮影部の撮影しない関節の位置の推定結果を、前記第一姿勢推定部の結果と同じにすることを特徴とする請求項10に記載の姿勢推定方法。
- 前記第一姿勢推定部の推定結果の信頼度を関節毎に判定する関節位置信頼度判定部を備えることを特徴とする請求項10に記載の姿勢推定方法。
- 前記第二姿勢推定部が、前記関節位置信頼度判定部において信頼度の低いと判定した関節の位置を推定することを特徴とする請求項13に記載の姿勢推定方法。
- 前記第二姿勢推定部が、前記関節位置信頼度判定部において信頼度の高いと判定した関節の位置の推定結果を、前記第一姿勢推定部の結果と同じにすることを特徴とする請求項13に記載の姿勢推定方法。
- 前記第一姿勢推定部の姿勢推定結果を記録する姿勢記録部と、
前記姿勢記録部に記録される姿勢推定結果に基づき前記第一撮影部の撮影範囲外における前記人物の関節の位置を予測する姿勢シミュレーション部と、を備え、
前記第二姿勢推定部が前記姿勢シミュレーション部による姿勢予測結果および前記第二撮影部から得られる画像に基づいて前記人物の姿勢を推定することを特徴とする請求項10又は請求項11に記載の姿勢推定方法。 - 前記姿勢記録部が前記姿勢シミュレーション部の姿勢予測結果を記録することを特徴とする請求項16に記載の姿勢推定方法。
- 前記姿勢シミュレーション部が、時系列での人の姿勢変化モデルを利用して姿勢推定することを特徴とする請求項16又は請求項17に記載の姿勢推定方法。
- 請求項10乃至請求項18の何れか一項に記載の姿勢推定方法の各工程をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015228293A JP2017097577A (ja) | 2015-11-24 | 2015-11-24 | 姿勢推定方法及び姿勢推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015228293A JP2017097577A (ja) | 2015-11-24 | 2015-11-24 | 姿勢推定方法及び姿勢推定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017097577A true JP2017097577A (ja) | 2017-06-01 |
Family
ID=58817874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015228293A Pending JP2017097577A (ja) | 2015-11-24 | 2015-11-24 | 姿勢推定方法及び姿勢推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017097577A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190102613A1 (en) * | 2017-09-29 | 2019-04-04 | Hitachi, Ltd. | Posture Estimation System, Posture Estimation Device and Range Image Camera |
JP2019149006A (ja) * | 2018-02-27 | 2019-09-05 | 富士通株式会社 | 画像選択プログラム、情報処理装置、システム、および画像選択方法 |
JP2020077388A (ja) * | 2018-09-28 | 2020-05-21 | 医療法人社団皓有会 | 運動解析装置 |
JPWO2020241057A1 (ja) * | 2019-05-29 | 2020-12-03 | ||
JPWO2021053817A1 (ja) * | 2019-09-20 | 2021-03-25 | ||
CN113031464A (zh) * | 2021-03-22 | 2021-06-25 | 北京市商汤科技开发有限公司 | 设备控制方法、装置、电子设备及存储介质 |
WO2022210005A1 (ja) * | 2021-03-31 | 2022-10-06 | Johnan株式会社 | 姿勢推定システム |
WO2022230221A1 (ja) * | 2021-04-28 | 2022-11-03 | 株式会社メガチップス | ポーズデータ生成装置、ポーズデータ生成方法、および、プログラム |
JP2023521952A (ja) * | 2020-07-27 | 2023-05-26 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 3次元人体姿勢推定方法及びその装置、コンピュータデバイス、並びにコンピュータプログラム |
-
2015
- 2015-11-24 JP JP2015228293A patent/JP2017097577A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190102613A1 (en) * | 2017-09-29 | 2019-04-04 | Hitachi, Ltd. | Posture Estimation System, Posture Estimation Device and Range Image Camera |
US10740600B2 (en) * | 2017-09-29 | 2020-08-11 | Hitachi, Ltd. | Posture estimation system, posture estimation device and range image camera |
JP2019149006A (ja) * | 2018-02-27 | 2019-09-05 | 富士通株式会社 | 画像選択プログラム、情報処理装置、システム、および画像選択方法 |
JP2020077388A (ja) * | 2018-09-28 | 2020-05-21 | 医療法人社団皓有会 | 運動解析装置 |
JPWO2020241057A1 (ja) * | 2019-05-29 | 2020-12-03 | ||
JPWO2021053817A1 (ja) * | 2019-09-20 | 2021-03-25 | ||
WO2021053817A1 (ja) * | 2019-09-20 | 2021-03-25 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法およびプログラム |
JP7223865B2 (ja) | 2019-09-20 | 2023-02-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法およびプログラム |
JP2023521952A (ja) * | 2020-07-27 | 2023-05-26 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 3次元人体姿勢推定方法及びその装置、コンピュータデバイス、並びにコンピュータプログラム |
CN113031464A (zh) * | 2021-03-22 | 2021-06-25 | 北京市商汤科技开发有限公司 | 设备控制方法、装置、电子设备及存储介质 |
WO2022210005A1 (ja) * | 2021-03-31 | 2022-10-06 | Johnan株式会社 | 姿勢推定システム |
WO2022230221A1 (ja) * | 2021-04-28 | 2022-11-03 | 株式会社メガチップス | ポーズデータ生成装置、ポーズデータ生成方法、および、プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017097577A (ja) | 姿勢推定方法及び姿勢推定装置 | |
US9330470B2 (en) | Method and system for modeling subjects from a depth map | |
CN107273846B (zh) | 一种人体体型参数确定方法及装置 | |
JP6816058B2 (ja) | パラメータ最適化装置、パラメータ最適化方法、プログラム | |
JP6793151B2 (ja) | オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム | |
JP6719497B2 (ja) | 画像生成方法、画像生成装置及び画像生成システム | |
KR20160115959A (ko) | 파라미터화된 변형가능 메시를 이용하여 개인화된 아바타들을 구성하기 위한 방법 및 시스템 | |
JP5170094B2 (ja) | なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム | |
KR20130101942A (ko) | 자세 인식 방법 및 장치 | |
US10380411B2 (en) | Method for constructing a model of the face of a person, method and device for posture analysis using such a model | |
JP6854928B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
JP6166297B2 (ja) | 姿勢推定装置 | |
WO2016031314A1 (ja) | 個人識別装置、個人識別方法、及び、個人識別プログラム | |
CN110910449B (zh) | 识别物体三维位置的方法和系统 | |
JP2021060868A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20200134502A (ko) | 이미지 인식을 통한 3차원 인체 관절 각도 예측 방법 및 시스템 | |
KR101636171B1 (ko) | 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템 | |
D'Eusanio et al. | Refinet: 3d human pose refinement with depth maps | |
WO2022003963A1 (ja) | データ生成方法、データ生成プログラムおよび情報処理装置 | |
JP2015011404A (ja) | 動作認識処理装置 | |
US20230306636A1 (en) | Object three-dimensional localizations in images or videos | |
WO2019137186A1 (zh) | 一种食物识别方法及装置、存储介质、计算机设备 | |
JP7396482B2 (ja) | 判定プログラム、判定装置、および判定方法 | |
CN114463663A (zh) | 一种人员身高的计算方法、装置、电子设备及存储介质 | |
JP7287686B2 (ja) | 関節位置取得装置及び方法 |