JP5555207B2 - 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム - Google Patents
3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム Download PDFInfo
- Publication number
- JP5555207B2 JP5555207B2 JP2011155578A JP2011155578A JP5555207B2 JP 5555207 B2 JP5555207 B2 JP 5555207B2 JP 2011155578 A JP2011155578 A JP 2011155578A JP 2011155578 A JP2011155578 A JP 2011155578A JP 5555207 B2 JP5555207 B2 JP 5555207B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- posture
- estimated
- joint
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
事前知識として、人物の動作を3次元の情報として記述する際、一般的に、モデルの汎用性を高めるために、空間中に基準点を置くいわゆる世界座標系ではなく、人物の一部分、例えば腰の位置(ルート)を基準とした相対的な変化量が動作データとして用いられている。
そこで、非特許文献2に記載された3次元姿勢推定方法では、視点を考慮するために、動作モデルとして、3次元動作データのみを用いて学習し、推定の際に投影2D面を線形予測式により規定する手法が用いられている。
学習部110は、3次元動作データ取得部111と、仮想視点投影部112と、動作モデル学習部113とを備えている。姿勢推定部130は、画像生成部131と、特徴量算出部132と、3次元姿勢推定部133とを備えている。
仮想視点投影部112は、3次元動作データ取得部111において取得された3次元動作データが示す人物の動作を、仮想視点Viに2次元投影した2次元動作データを生成する。仮想視点投影部112は、予め定められた複数の仮想視点Viごとに、2次元動作データを生成する。また、仮想視点投影部112は、生成した2次元動作データを、当該2次元動作データを生成する際に用いた3次元動作データに対応付けて動作情報記憶部120に記憶させる。
動作モデル学習部113は、3次元動作データ取得部111が取得した3次元動作データと、仮想視点投影部112が生成した2次元動作データとに基づいて、動作モデルを生成する。動作モデルは、例えば、2次元動作データY2D iを次元圧縮し、低次元特徴X2D iで表現したもの等を利用することができる。この場合、動作モデル学習部113は、低次元特徴X2D iに基づく空間と、3次元動作データに基づく空間とを対応付ける学習モデル(写像関数)を生成する。
特徴量算出部132は、画像生成部131から入力された画像データから、画像データ上における各関節の位置を検出し、検出した関節の位置を特徴量データとして算出する。特徴量算出部132が各関節の位置を検出する際に、関節位置の初期位置は、公知の画像認識等の技術を用いて検出するようにしてもよいし、ユーザが画像データ上における各関節の位置を入力するようにしてもよい。また、各関節の位置の追跡は、公知の2次元追跡手法を用いるようにしてもよい。
推定姿勢情報記憶部140は、3次元姿勢推定部133が推定した姿勢情報を記憶する。推定姿勢情報記憶部140に記憶されている姿勢情報を用いることで、仮想的な空間に、リアルタイムに人物の動作を反映させることや、人体の動作解析等に利用することができる。
学習部110では、仮想視点Viごとの動作モデルを構築する。仮想視点投影部112における仮想視点Viそれぞれの2次元動作データは、例えば、図2に示すような、人体の腰の位置(ルート)を基準とし、予め定められた半径を有する視点球を考えることで生成できる。具体的には、視点球の表面を一定の間隔でサンプリングし、サンプリングした各点に仮想的なカメラを置き、各時刻における人体の各関節の位置を2次元投影する。i番目のサンプリング点を仮想視点Viとし、動作モデル学習部113が動作モデルを生成する。
学習部110において、3次元動作データ取得部111は、3次元動作データを取得し(ステップS301)、人体の腰の位置を基準とした各関節の3次元相対座標値を算出する(ステップS302)。3次元相対座標の算出は、各関節の回転角と関節間の階層構造の情報に基づいて算出することができる。例えば、腰の3次元座標を(x,y,z)=(0,0,0)とし、関節番号kの3次元座標を(xk,yk,zk)で表す。
仮想視点投影部112は、3次元動作データ取得部111が算出した3次元相対座標値を仮想視点Viに投影したときの2次元座標値を算出する。例えば、図2における仮想視点Viでは、仮想視点V1のときと比較して人体をz軸まわりに−θ回転させた後に、y軸まわりに−φ回転することと同義である。回転を行う方法として、例えば、同次ベクトルを用いる方法がある。関節番号kの3次元相対座標(xk,yk,zk)を同次座標形式では次式(1)のように表す。
すべての視点に関する階層的な動作モデルを全探索することでも姿勢の推定は可能であるが、学習時の仮想視点の粒度を細かくするほど探索範囲(探索対象)が膨大となってしまう。そこで、姿勢推定部130では、推定する状態に視点を加えて状態推定を行う。本実施形態では、状態の推定は、一般的なMAP(Maximum A Posteriori;事後確率最大化)推定や、パーティクルフィルタ等を用いて行う。ここで、視点を推定するとは、図2に示すθ、φを決定することである。
さらに、時刻nの視点候補をθ(n)=θ(n−1)+dθ(n),φ(n)=φ(n−1)+dφ(n)を平均とした正規分布に基づきサンプリングすることで、視点の探索範囲を絞り込むことができる。
視点変化dθ(n)、dφ(n)は、例えば、図4に示すように学習データである3次元動作データの動きベクトル(モーションキャプチャデータのルートの並進と回転との変化量)に基づいて定義する。これは、前の時刻のルートに対する並進と回転とは、動作の特徴を保持するとの考えに基づいている。
姿勢推定部130において、3次元姿勢推定部133は、画像生成部131が出力する画像データに関して、初期視点θ0、φ0を大まかに設定する(ステップS401)。ここで、視点は、学習した際の視点の位置を表す定義に従い、表される。例えば、図2に示したように、人体のルート(腰)の位置を中心とした仰角と方位角とを用いて、視点の位置を表す。なお、初期視点θ0、φ0は、ユーザによって外部より入力された値を用いてもよいし、視点球状の予め定められた視点から選択するようにしてもよい。
ここで、推定された3次元動作データY*の初期値は、ステップS402において推定された初期姿勢に対応し動作モデルから得られる3次元動作データであり、ステップS405の処理が行われた後には、推定された姿勢に対応し動作モデルから得られる3次元動作データである。また、学習3次元動作データYは、動作情報記憶部120に記憶されている3次元動作データであって、動作モデルを生成した際に用いられた3次元動作データである。また、推定された3次元動作データY*と最も近い学習3次元動作データYとは、例えば、3次元動作データが有している各関節の3次元回転角の差分の総和が最小の3次元動作データである。
3次元姿勢推定部133が行う姿勢推定は、例えば、時系列順に連続する画像データである2次元映像における人物動作の関節位置を、観測して得られた特徴量I(1:n)≡(I(1),…,I(n))として、下記のような手法で実現できる。姿勢推定は、学習した動作モデルを事前知識として、観測から状態Φ(n)=[y(n),x(n),S(n)]を推定することにより行う。ここは、状態Φ(n)は、y(n)とx(n)とS(n)との組合せで表される。y(n)は2次元動作データであり、x(n)はy(n)に対応する低次元特徴であり、S(n)は2次元写像に影響するスケールパラメータであり、例えば、実際の人物のサイズと画像データにおける当該人物のサイズとの比などである。
すなわち、事後確率を最大化する状態を求め、当該状態に対応する仮想視点Viの動作モデルが2次元映像から観測される人物の姿勢となる。
状態サンプルΦ(i)(n)=[x(i)(n),y(i)(n),S(i)(n)]を学習した動作モデルに従い生成する。このとき、3次元姿勢推定部133は、ステップS404において算出した視点候補Viごとに、その視点の動作モデルに従い状態サンプルを生成する。状態遷移モデルは、動作モデルの学習手法に従い定義される。例えば、非特許文献3の手法により学習された動作モデルであれば、未知の潜在変数x(n)と、部分動作データy(n)はそれぞれ次式(10)、(11)で与えられる。
尤度は次式(14)で規定する。
このように、3次元姿勢推定装置100を用いることにより、カメラのキャリブレーションをせず、かつ、人物の動きの方向に関する制限を設けることなく、姿勢推定を行うことができる。
110…学習部
111…3次元動作データ取得部
112…仮想視点投影部
113…動作モデル学習部
120…動作情報記憶部
130…姿勢推定部
131…画像生成部
132…特徴量算出部
133…3次元姿勢推定部
140…推定姿勢情報記憶部
Claims (3)
- 複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得部と、
前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影部と、
前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習部と、
姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力部と、
前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出部と、
前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得部が出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定部と、
を具備することを特徴とする3次元姿勢推定装置。 - 複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得ステップと、
前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影ステップと、
前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習ステップと、
姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力ステップと、
前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出ステップと、
前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得ステップにおいて出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定ステップと、
を有することを特徴とする3次元姿勢推定方法。 - 複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得ステップと、
前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影ステップと、
前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習ステップと、
姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力ステップと、
前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出ステップと、
前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得ステップにおいて出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定ステップと、
をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011155578A JP5555207B2 (ja) | 2011-07-14 | 2011-07-14 | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011155578A JP5555207B2 (ja) | 2011-07-14 | 2011-07-14 | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013020578A JP2013020578A (ja) | 2013-01-31 |
JP5555207B2 true JP5555207B2 (ja) | 2014-07-23 |
Family
ID=47691927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011155578A Expired - Fee Related JP5555207B2 (ja) | 2011-07-14 | 2011-07-14 | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5555207B2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6973388B2 (ja) * | 2016-06-16 | 2021-11-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6676562B2 (ja) * | 2017-02-10 | 2020-04-08 | 日本電信電話株式会社 | 画像合成装置、画像合成方法及びコンピュータプログラム |
JP6730204B2 (ja) * | 2017-02-10 | 2020-07-29 | 日本電信電話株式会社 | 画像合成装置、画像合成方法及びコンピュータプログラム |
JP2018129007A (ja) * | 2017-02-10 | 2018-08-16 | 日本電信電話株式会社 | 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム |
WO2019116099A1 (en) * | 2017-12-13 | 2019-06-20 | Humanising Autonomy Limited | Systems and methods for predicting pedestrian intent |
US11250592B2 (en) | 2018-01-30 | 2022-02-15 | Sony Interactive Entertainment Inc. | Information processing apparatus |
KR102181828B1 (ko) * | 2018-09-13 | 2020-11-23 | 한국전자기술연구원 | 4d리깅정보 복원장치 및 방법 |
KR102270949B1 (ko) * | 2019-12-04 | 2021-07-01 | 연세대학교 산학협력단 | 3차원 인간 모델 복원 장치 및 방법 |
JP7255709B2 (ja) * | 2019-12-10 | 2023-04-11 | 日本電信電話株式会社 | 推定方法、推定装置及びプログラム |
JP7465469B2 (ja) * | 2020-05-15 | 2024-04-11 | 兵庫県公立大学法人 | 学習装置、推定装置、学習プログラム、及び推定プログラム |
WO2022259618A1 (ja) * | 2021-06-08 | 2022-12-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN113869217A (zh) * | 2021-09-29 | 2021-12-31 | 北京复数健康科技有限公司 | 一种用于获取图像识别数据的方法和系统 |
CN113920466A (zh) * | 2021-10-29 | 2022-01-11 | 上海商汤智能科技有限公司 | 先验空间的生成方法、装置、计算机设备和存储介质 |
WO2023189104A1 (ja) * | 2022-03-30 | 2023-10-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN117893696B (zh) * | 2024-03-15 | 2024-05-28 | 之江实验室 | 一种三维人体数据生成方法、装置、存储介质及电子设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4687579B2 (ja) * | 2006-06-21 | 2011-05-25 | トヨタ自動車株式会社 | 画像処理装置及び画像処理プログラム |
JP5525407B2 (ja) * | 2010-10-12 | 2014-06-18 | 日本電信電話株式会社 | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
-
2011
- 2011-07-14 JP JP2011155578A patent/JP5555207B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013020578A (ja) | 2013-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5555207B2 (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP5525407B2 (ja) | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
Yeung et al. | Improved skeleton tracking by duplex kinects: A practical approach for real-time applications | |
Krainin et al. | Autonomous generation of complete 3D object models using next best view manipulation planning | |
US10033979B2 (en) | Video surveillance systems, devices and methods with improved 3D human pose and shape modeling | |
JP6025830B2 (ja) | 3d走査用のセンサ位置決め | |
KR101791590B1 (ko) | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 | |
JP5355074B2 (ja) | 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム | |
US20130187919A1 (en) | 3D Body Modeling, from a Single or Multiple 3D Cameras, in the Presence of Motion | |
JP5012615B2 (ja) | 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
KR102270949B1 (ko) | 3차원 인간 모델 복원 장치 및 방법 | |
JP2008304269A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
JP2008014691A (ja) | ステレオ画像計測方法とそれを実施する装置 | |
JP2019016164A (ja) | 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム | |
JP7498404B2 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP7499346B2 (ja) | 逆運動学に基づいた関節の回転の推測 | |
JP5767078B2 (ja) | 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム | |
US20230290101A1 (en) | Data processing method and apparatus, electronic device, and computer-readable storage medium | |
Ruiz et al. | Human body measurement estimation with adversarial augmentation | |
WO2021171768A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに観測装置 | |
Hauberg et al. | Stick it! articulated tracking using spatial rigid object priors | |
Alcoverro et al. | Skeleton and shape adjustment and tracking in multicamera environments | |
Sun et al. | 3D hand tracking with head mounted gaze-directed camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130606 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130801 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140527 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5555207 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |