JP5604249B2 - 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム - Google Patents

人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP5604249B2
JP5604249B2 JP2010218626A JP2010218626A JP5604249B2 JP 5604249 B2 JP5604249 B2 JP 5604249B2 JP 2010218626 A JP2010218626 A JP 2010218626A JP 2010218626 A JP2010218626 A JP 2010218626A JP 5604249 B2 JP5604249 B2 JP 5604249B2
Authority
JP
Japan
Prior art keywords
motion
latent space
data
unit
motion data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010218626A
Other languages
English (en)
Other versions
JP2012073852A (ja
Inventor
建鋒 徐
幸一 高木
亮一 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2010218626A priority Critical patent/JP5604249B2/ja
Publication of JP2012073852A publication Critical patent/JP2012073852A/ja
Application granted granted Critical
Publication of JP5604249B2 publication Critical patent/JP5604249B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラムに関する。
パーティクルフィルタを用いて三次元空間における物体追跡を行う技術が知られている。非特許文献2には、非特許文献1に記載されたパーティクルフィルタを改良し、ビデオデータから人体の姿勢を推定する技術が開示されている。また、非特許文献4には、非特許文献3に記載されたGPDM(Gaussian Process Dynamical Models;ガウス過程動的モデル)を改良し、潜在空間におけるパーティクルフィルタによって、ビデオデータから人体の姿勢を推定する技術が開示されている。
Cappe, O.; Godsill, S.J.; Moulines, E.; , "An Overview of Existing Methods and Recent Advances in Sequential Monte Carlo," Proceedings of the IEEE , vol.95, no.5, pp.899-924, May 2007. J. Duetscher, A. Blake, I. Reid, "Articulated Body Motion Capture by Annealed Particle Filtering," cvpr, vol. 2, pp.2126, 2000 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'00) - Volume 2, 2000. Jack Wang, David Fleet, Aaron Hertzmann, "Gaussian Process Dynamical Models", Advances in Neural Information Processing Systems 18 (NIPS 2005), pp. 1441-1448. Urtasun, R.; Fleet, D.J.; Fua, P.; , "3D People Tracking with Gaussian Process Dynamical Models," Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on , vol.1, pp. 238- 245, 17-22 June 2006.
しかしながら、人体の姿勢を表現する情報における次元数は非常に高く(例えば、数十次元)、非特許文献2に開示されたパーティクルフィルタによる人体姿勢の推定技術では、パーティクルの追跡精度を高くできない。また、非特許文献4に開示された単一のGPDMモデルでのパーティクルの追跡は、人体のような複雑な動きの追跡には適していない。
本発明は、上記事情に鑑みてなされたものであり、複雑な動きが含まれる人体の姿勢推定を高精度に行う、人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラムを提供することを目的とする。
[1]上記の課題を解決するため、本発明の一態様である人体姿勢推定装置は、リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析部と、前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築部と、前記動き解析部が取得した前記ビートフレームと前記モデル構築部が推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡部と、を備えることを特徴とする。
[2]上記[1]記載の人体姿勢推定装置において、前記モデル構築部は、前記リファレンスモーションデータのフレームに対応する潜在空間の座標を用いて復元モーションデータを生成し、前記リファレンスモーションデータと前記復元モーションデータとの距離である復元誤差を計算し、この復元誤差が所定の閾値を超える場合に、前記リファレンスモーションデータを分割することを特徴とする。
[3]上記[1]記載の人体姿勢推定装置において、前記モデル構築部は、前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、各潜在空間でGPDM(Gaussian Process Dynamical Models)を学習し、それぞれ学習したGPDM同士で遷移可能な潜在空間の座標として、前記動き解析部が取得した前記ビートフレームに対応する潜在空間の座標を用いることを特徴とする。
[4]上記[1]または[2]記載の人体姿勢推定装置において、前記動き解析部は、前記リファレンスモーションデータを時間区間において主成分分析を行い、特定主成分座標に基づいて動きのビートフレームを推定することを特徴とする。
[5]上記[1]記載の人体姿勢推定装置において、前記動き追跡部は、前記ユーザビデオデータのポーズ空間における対象のフレームデータと前記遷移可能な潜在空間の座標に基づく潜在空間からのサンプルとの距離に基づいて尤度を計算する尤度計算部と、前記尤度計算部が計算した前記尤度に基づいて潜在空間におけるサンプルを置換するリサンプリング部と、前記リサンプリング部が置換した前記サンプルと前記動き解析部が取得した前記ビートフレームとの距離を計算し、この計算した距離に応じて潜在空間を遷移させる潜在空間遷移尤度算出部と、前記遷移させた潜在空間の動力学関数において、次フレームの潜在空間の座標を予測し、ポーズ空間にマッピングする予測部と、を備えることを特徴とする。
[6]上記[5]記載の人体姿勢推定装置において、前記潜在空間遷移尤度算出部は、ポーズ空間における対象のフレームデータからGPDM(Gaussian Process Dynamical Models)におけるビートフレームまでの距離を計算し、この距離が所定の閾値より小さい場合に前記ビートフレームが所在する潜在空間に遷移させ、前記距離に応じてサンプル数を再分配してサンプルを生成することを特徴とする。
[7]上記の課題を解決するため、本発明の一態様である人体姿勢推定方法は、リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析ステップと、前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築ステップと、前記動き解析ステップにおいて取得した前記ビートフレームと前記モデル構築ステップにおいて推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡ステップと、を有することを特徴とする。
[8]上記の課題を解決するため、本発明の一態様であるコンピュータプログラムは、コンピュータに、リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析ステップと、前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築ステップと、前記動き解析ステップにおいて取得した前記ビートフレームと前記モデル構築ステップにおいて推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡ステップと、を実行させる。
本発明によれば、複雑な動きが含まれる人体の姿勢推定を高精度に行うことができる。
本発明の一実施形態における、人体スケルトン型動きデータの定義例の概略図である。 同実施形態における、人体姿勢推定装置の機能構成を示す概略のブロック図である。 同実施形態における、動き解析部の機能構成を示すブロック図である。 同実施形態において、データ分割部によるデータ分割処理を説明するための概念図である。 同実施形態において、主成分座標連結部による主成分座標連結処理を説明するための概念図である。 正弦近似処理の概念図である。 GPDM(Gaussian Process Dynamical Models)の学習処理を説明するための概念図である。 同実施形態における、動き追跡部の機能構成を示すブロック図である。 同実施形態における、モデル構築部の処理手順を示すフローチャートである。 時間に対する復元誤差を表すグラフの例である。
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
本発明の一実施形態である人体姿勢推定装置は、リファレンスモーションデータと、人体姿勢を推定する対象者(ユーザ)の動きを撮影したユーザビデオデータとをそれぞれ取り込み、リファレンスモーションデータにおける人体姿勢を基準として、ユーザビデオデータにおける人体姿勢に基づきユーザの人体姿勢を推定するものである。
まず、リファレンスモーションデータについて説明する。本実施形態において、リファレンスモーションデータは、人体スケルトン型動きデータ(以下、単に「動きデータ」と呼ぶこともある。)で表現される。
図1は、人体スケルトン型動きデータの定義例の概略図である。この人体スケルトン型動きデータは、人体の骨格をもとに、骨および骨の連結点(ジョイント)を用い、特定の一つのジョイントを根(ルート)とし、ルートからジョイント経由で順次連結される骨の構造を木(ツリー)構造として定義したものである。同図は、人体スケルトン型動きデータの定義の一部分を示している。同図において、ジョイント100は人体の腰部分であり、ルートとして定義されている。ジョイント101は左腕の肘部分、ジョイント102は左腕の手首部分、ジョイント103は右腕の肘部分、ジョイント104は右腕の手首部分、ジョイント105は左足の膝部分、ジョイント106は左足の足首部分、ジョイント107は右足の膝部分、ジョイント108は右足の足首部分である。
つまり、スケルトン型動きデータは、スケルトン型対象物の各ジョイントの動きを記録したデータであり、スケルトン型対象物としては人体や動物、ロボットなどが適用できる。スケルトン型動きデータとしては、各ジョイントの位置情報、角度情報、速度情報、加速度情報などが利用できる。次に、角度情報データと加速度情報データとを例として、人体スケルトン型動きデータについて説明する。
角度情報データは、人体の一連の動きを複数の姿勢(ポーズ)によって表すものであり、人体の基本ポーズ(Neutral Pose)を表す基本ポーズデータと、実際の人体の動きにおける各ポーズを表すフレームデータとを有する。基本ポーズデータは、基本ポーズにおけるルートの位置および各ジョイントの位置、ならびに各骨の長さなどの情報を有する。フレームデータは、基本ポーズからの移動量をジョイントごとに表す。例えば、移動量は角度情報として表される。各フレームデータにより、基本ポーズに対して移動量が加味された各ポーズが特定される。これにより、各フレームデータによって特定される各ポーズの連続により、人体の一連の動きが特定される。角度情報データは、リファレンスである人体の動きを撮影した映像をモーションキャプチャ処理することによって取得したり、キーフレームアニメーションの手作業にしたがって取得したりする。
加速度情報データは、人体の各ジョイントの加速度を、ポーズごとのフレームデータと複数のポーズとによって表すものである。加速度情報データは、加速度計で取得したり、映像の動きに基づいて算出したりする。
本実施形態において、リファレンスモーションデータは、様々な動きパターンの動きデータを含むものとすることができる。動きパターンは、例えば人物について例を挙げると、走るパターン、歩くパターン、ボールを投げるパターン、跳躍するパターン等である。リファレンスモーションデータは、人体姿勢推定装置の利用目的や用途等に応じて、適した動きパターンの動きデータを含むものとするのがよい。
次に、本実施形態における人体姿勢推定装置について説明する。
図2は、本実施形態における人体姿勢推定装置の機能構成を示す概略のブロック図である。同図に示すように、人体姿勢推定装置1は、モデル学習部10と動き追跡部20とを備える。
モデル学習部10は、リファレンスモーションデータを取り込み、そのリファレンスモーションデータを動きの複雑さに応じて複数のセグメントに分割し、セグメントごとに、リファレンスモーションデータが属するポーズ空間と、より低次元の潜在空間のマッピングと、当該潜在空間の動力学関数を有するモデルとを学習し、モデル同士のグラフ構造を生成する。
潜在空間のモデルは、例えば、参考文献1(A Global Geometric Framework for Nonlinear Dimensionality Reduction Joshua B. Tenenbaum, Vin de Silva, and John C. Langford Science, VOL 290, ISSUE 5500, 22 December 2000: 2319-2323.)に記載されたISOMAP、参考文献2(Nonlinear Dimensionality Reduction by Locally Linear Embedding Sam T. Roweis, and Lawrence K. Saul Science, VOL 290, ISSUE 5500, 22 December 2000: 2323-2326.)に記載されたLLE(Locally Linear Embedding)、参考文献3(N. D. Lawrence. Gaussian process latent variable models for visualisation of high dimensional data. Proc. NIPS 16, 2004.)に記載されたGPLVM(Gaussian Process Latent Variable Model)等を適用することができる。
本実施形態では、非特許文献3に記載されたGPDM(Gaussian Process Dynamical Models;ガウス過程動的モデル)を例とする。この例によれば、潜在空間でGPDMを学習してGPDMグラフデータを生成する。GPDMは、潜在空間において正規過程(Gaussian Process)を動的システムに応用した動力学モデルと、潜在空間からポーズ空間(姿勢空間)への変換(マッピング)とを含む潜在変数モデルである。なお、「GPDMの学習」とは、対象となる潜在空間をGPDMによってモデル化することである。一潜在空間についてのGPDMの学習については、非特許文献3に詳述されている。
モデル学習部10は、その機能構成として、動き解析部110と、モデル構築部120と、GPDMグラフ生成部130とを備える。
動き解析部110は、リファレンスモーションデータからビートフレームを抽出し、その抽出したビートフレームの時刻を示すビート時刻データを取得する。ビートフレームは、リファレンスモーションデータにおいて、動きのリズムを表して動きの突然的な変化が生じているフレームである。
モデル構築部120は、リファレンスモーションデータを動きの複雑さに応じて複数のセグメントに分割する。そして、モデル構築部120は、セグメントごとに潜在空間でGPDMを学習し、その学習したGPDM同士で遷移可能な潜在空間の座標を推定する。そして、モデル構築部120は、セグメントの分割情報と、各分割セグメントに対するGPDMデータ(遷移可能な潜在空間の座標の推定結果)とを出力する。
GPDMグラフ生成部130は、動き解析部110から供給されるビート時刻データと、モデル構築部120から供給される、セグメントの分割情報および各分割セグメントに対するGPDMデータとを取り込み、ビート時刻データをキーとして、セグメントの分割情報と各分割セグメントに対するGPDMデータとを対応付けたGPDMグラフデータを生成する。
動き追跡部20は、モデル学習部10のGPDMグラフ生成部130から供給されるGPDMグラフデータに基づいて、ユーザビデオデータの映像における人体姿勢をフレームごとに追跡する。そして、動き追跡部20は、その追跡結果として、各フレームの人体姿勢を表す人体姿勢推定データを出力する。
本実施形態においては、動き追跡部20は、パーティクルフィルタにより追跡を行う。パーティクルフィルタは、検出と追跡とを同時に行う逐次追跡アルゴリズムである。すなわち、パーティクルフィルタは、現在の状態から起こり得る次の状態を多数のパーティクル(粒子)に見立て、全てのパーティクルの尤度に基づく重み付き平均を次の状態として予測しながら追跡を行うアルゴリズムである。
次に、モデル学習部10の動き解析部110の詳細について説明する。
図3は、動き解析部110の機能構成を示すブロック図である。同図に示すように、動き解析部110は、物理量変換部111と、データ分割部112と、短時間主成分分析部113と、主成分座標連結部114と、ビート推定部115と、後処理部116とを備える。
物理量変換部111は、取り込んだリファレンスモーションデータを対象にして、各ジョイントのルートに対する位置を算出する。具体的には、物理量変換部111は、リファレンスモーションデータにおいて、時刻tにおけるジョイント相対位置を算出する。ジョイント相対位置は、リファレンスモーションデータを関節位置空間に変換したときの位置であり、ルートに対するジョイントの相対的な位置である。以下、物理量変換部111が実行するジョイント相対位置の計算方法について説明する。
まず、物理量変換部111は、リファレンスモーションデータの基本ポーズデータとフレームデータとを用いてジョイント位置を算出する。基本ポーズデータは、基本ポーズであるときのルートの位置、各ジョイントの位置、各骨の長さ等、基本ポーズを特定する情報を有する。フレームデータは、ジョイントごとに、基本ポーズからの移動量の情報を有する。ここでは、移動量として角度情報を利用する。この場合、時刻tにおけるk番目のジョイントの位置(x,y,z)座標であるp(t)は、下記の式(1)および式(2)によって計算される。なお、時刻tはフレームデータの時刻である。ここでは、時刻tとしてフレームインデックスを使用し、t=0,1,2,・・・,T−1である。Tは、動きデータに含まれるフレーム数である。
Figure 0005604249
Figure 0005604249
ただし、0番目(i=0)のジョイントはルートである。Raxis i−1,i(t)は、i番目のジョイントとその親ジョイント(i−1番目のジョイント)間の座標回転マトリックスであり、基本ポーズデータに含まれる。各ジョイントにはローカル座標系が定義されており、座標回転マトリックスは親子関係にあるジョイント間のローカル座標系の対応関係を表す。R(t)は、i番目のジョイントのローカル座標系におけるi番目のジョイントの回転マトリックスであり、フレームデータに含まれる角度情報である。T(t)は、i番目のジョイントとその親ジョイント間の遷移マトリックスであり、基本ポーズデータに含まれる。遷移マトリックスは、i番目のジョイントとその親ジョイント間の骨の長さを表す。
次に、物理量変換部111は、時刻tにおける、ルートに対するk番目のジョイントの相対位置(ジョイント相対位置)p’k(t)を下記の式(3)により計算する。
Figure 0005604249
ただし、proot(t)は時刻tにおけるルート(0番目のジョイント)の位置(p(t))である。
これにより、時刻tのフレームx(t)は、x(t)={p’1(t),p’2(t),・・・,p’K(t)}と表される。ただし、Kは、ルートを除くジョイント数である。
なお、具体的なジョイントの例として、以下に示す29個(K=29)のジョイントが挙げられる。1lhip,2lfemur,3ltibia,4lfoot,6rhip,7rfemur,8rtibia,9rfoot,11lowerback12upperback,13thorax,14lowerneck,15upperneck,17lclavicle,18lhumerus,19lradius,20lwrist,21lhand,22lfingers,24rclavicle,25rhumerus,26rradius,27rwrist,28rhand,29rfingers。
データ分割部112は、ジョイント相対位置データを特定時間区間、例えば一定時間の区間に分割する。データ分割部112は、各ジョイントのジョイント相対位置データp’k(t)に対して、それぞれデータ分割処理を行う。
図4は、データ分割部112によるデータ分割処理を説明するための概念図である。データ分割部112によるデータ分割処理では、ジョイント相対位置データを一定時間(一定数のフレーム分に対応)の区間に分割する。分割区間の長さは、適宜設定可能である。分割区間の長さは、例えば90フレーム分の長さである。
短時間主成分分析部113は、データ分割部112によって分割されたジョイント相対位置データに対し、各区間で主成分分析処理を行う。ここで、時刻tのフレームx(t)を用いて、一区間のデータXを、X={x(t1),x(t2),・・・,x(tN)}と表す。ただし、Nは区間長(区間内に含まれるフレームの個数)である。Xは、M行N列の行列である(ただし、M=3×K)。主成分分析処理では、短時間主成分分析部113は、Xに対して主成分分析処理を行い、Xを主成分空間へ変換する。主成分分析処理については、例えば、“http://en.wikipedia.org/wiki/Principal_components_analysis#Software.2Fsource_code”にオープンソースが開示されている。
ここで、短時間主成分分析部113が実行する主成分分析処理について説明する。
まず、短時間主成分分析部113は、下記の式(4)により、Xから平均値を除いたN行M列の行列Dを算出する。
Figure 0005604249
次に、短時間主成分分析部113は、下記の式(5)により、N行M列の行列Dに対して特異値分解(Singular Value Decomposition)処理を実行する。特異値分解処理については、例えば、“http://www.gnu.org/software/gsl/”にオープンソースが開示されている。
Figure 0005604249
ただし、Uは、N行N列のユニタリ行列である。Σは、N行M列の負でない対角要素を降順にもつ対角行列であり、主成分空間の座標の分散を表す。Vは、M行M列のユニタリ行列であり、主成分に対する係数(Principal Component)である。
次に、短時間主成分分析部113は、下記の式(6)により、N行M列の行列Dを主成分空間へ変換する。M行N列の行列Yは、主成分空間の座標を表す。
Figure 0005604249
短時間主成分分析部113は、区間ごとに、主成分空間の座標を表す行列(主成分座標行列)Yと、主成分に対する係数の行列(主成分係数行列)Vとを、メモリに保存する。
なお、元空間の座標を表す行列Xと主成分座標行列Yは、式(6)および下記の式(7)によって相互に変換することができる。
Figure 0005604249
また、上位のr個の主成分によって、下記の式(8)により変換することができる。
Figure 0005604249
ただし、Vは、主成分係数行列V内の上位のr個の行から成るM行r列の行列である。Yは、主成分座標行列Y内の上位のr個の列から成るr行N列の行列である。Xは、復元されたM行N列の行列である。
なお、元空間の一部の自由度だけを主成分分析処理することも可能である。例えば、足の動きだけでビートを表現することができる場合には、足に関するジョイント相対位置データのみから生成したM’行N列の行列X’に対して、式(4)から式(6)式までによって主成分分析処理を行う。
主成分座標連結部114は、各区間の主成分の座標を時系列に沿って連結する。主成分座標連結部114が実行する主成分座標連結処理では、連続する2つの区間の境界部分において主成分の座標が滑らかに連結されるように、主成分の座標を調整する。
図5は、主成分座標連結部114による主成分座標連結処理を説明するための概念図である。本実施形態では、主成分座標連結部114は、時系列にしたがって、先頭の区間から順番に主成分座標連結処理を行う。同図では、ある区間(前区間)までの主成分座標連結処理が終了している。そして、主成分座標連結部114は、その前区間に対して、次の区間(当区間)を連結するための主成分座標連結処理を実行する。この主成分座標連結処理では、主成分座標連結部114は、前区間の主成分座標に対し、当区間の主成分座標が滑らかに連結されるように当区間の主成分座標を調整する。この主成分座標の調整処理では、主成分選択ステップによって選択された当区間の主成分座標(元座標)に対して、符号反転または座標シフトを行う。
ここで、主成分座標連結部114が実行する主成分座標連結処理について説明する。
主成分座標連結ステップS11:
主成分座標連結部114は、当区間の主成分の座標(第1主成分の元座標)Yに対し、当区間の主成分係数行列Vから、第1主成分に対する係数Vを取得する。さらに、主成分座標連結部114は、メモリに保存されている前区間の主成分係数行列Vから、第1主成分に対する係数V preを取得する。
主成分座標連結ステップS12:
主成分座標連結部114は、当区間に係る第1主成分に対する係数V1と前区間に係る第1主成分に対する係数V preとの関係に基づいて、当区間に係る第1主成分の元座標を符号反転するか否かを判定する。この符号反転の判定は、下記の式(9)により行う。式(9)による判定の結果、符号反転する場合には、主成分座標連結部114は、当区間の第1主成分の元座標Yに対して符号反転を行うと共に、当区間の主成分係数行列Vに対しても符号反転を行う。一方、(9)式による判定の結果、符号反転しない場合には、主成分座標連結部114は、当区間の第1主成分の元座標Yおよび当区間の主成分係数行列Vともに、そのままの値を主成分座標連結ステップS12の処理結果とする。
Figure 0005604249
ただし、Y1は、当区間で選択された主成分の座標(第1主成分の元座標)である。Vは、当区間の主成分係数行列である。Vは、当区間に係る第1主成分に対する係数である。V preは、前区間に係る第1主成分に対する係数である。(V・V pre)は、VとV preの内積である。Y’は、当区間で選択された主成分の座標(第1主成分の元座標)Yに対する主成分座標連結ステップS12の処理結果である。V’は、当区間の主成分係数行列Vに対する主成分座標連結ステップS12の処理結果である。
主成分座標連結ステップS13:
主成分座標連結部114は、主成分座標連結ステップS12の処理結果の主成分座標Y’に対して座標シフトを行う。具体的には、主成分座標連結部114は、下記の式(10)により座標シフトを行う。この場合、主成分座標連結部114は、前区間の主成分座標行列Yから、前区間の第tNフレームにおける第1主成分の座標Y pre(tN)を取得する。
Figure 0005604249
ただし、Y’(t1)は、ステップS12の処理結果の主成分座標Y’のうち、第t1フレームの座標である。Y”(t2)は、式(10)の最初の計算式の計算結果の座標Y”のうち、第t2フレームの座標である。
式(10)の最初の計算式の計算結果の座標Y”に対し、主成分座標連結部114は、第t1フレームの座標Y”(t1)をY opt(t1)に置き換える。この置き換え後の座標Y”が、座標シフト結果の座標である。
主成分座標連結ステップS14:
主成分座標連結部114は、当区間において、主成分座標連結ステップS12の処理結果の座標Y’に対して、主成分座標連結ステップS13の処理結果の座標Y opt(t1)を反映する。これにより、当区間の主成分座標は、前区間の主成分座標に対して滑らかに連結されるものとなる。
主成分座標連結部114は、上記した主成分座標連結処理を最初の区間から最後の区間まで行う。これにより、連結後の全区間の主成分座標y(t),t=0,1,2,・・・,T−1が求まる。ただし、Tは、動きデータに含まれるフレームの個数である。
ビート推定部115は、主成分座標連結部114によって算出された連結後の全区間の主成分座標y(t)から、極値b(j)を算出する。この算出結果の極値b(j)がビートに対応する。ビートの集合Bは、下記の式(11)で表される。ただし、Jは、ビートの個数である。
Figure 0005604249
なお、ビートの集合の算出は、上記した方法以外の方法でも可能である。例えば、ビート推定部115は、主成分座標連結部114によって算出された連結後の全区間の主成分座標から自己相関値を算出し、該自己相関値の極値b(j)をビートに対応するものとして算出することができる。また、ビート推定部115は、主成分座標連結部114によって、連結後の隣区間の主成分係数から算出した内積(式(9)によるもの)の自己相関値を算出し、該自己相関値の極値b(j)をビートに対応するものとして算出することができる。
後処理部116は、ビート推定部115によって算出されたビート集合Bから、ビート時刻を検出する。
ここで、後処理部116が実行するビート時刻検出処理について説明する。
まず、後処理部116は、ビート集合B内の各極値間を、下記の式(12)により正弦曲線(Sinusoid)で近似する。
Figure 0005604249
ただし、sj−1(t)は、(j−1)番目の極値b(j−1)からj番目の極値b(j)までの区間の正弦近似値である。tはフレームに対応する時刻であり、t=0,1,2,・・・,T−1である。Tは、動きデータに含まれるフレームの個数である。
図6は、式(12)による正弦近似処理の概念図である。同図において、1番目の極値b(1)から2番目の極値b(2)までの区間a1(j=2の場合の区間)は、s(t)で近似される。同様に、2番目の極値b(2)から3番目の極値b(3)までの区間a2(j=3の場合の区間)はs(t)で近似され、3番目の極値b(3)から4番目の極値b(4)までの区間a3(j=4の場合の区間)はs(t)で近似され、4番目の極値b(4)から5番目の極値b(5)までの区間a4(j=5の場合の区間)はs(t)で近似される。
次に、後処理部116は、正弦近似値sj−1(t),j=2,3,・・・,Jに対してフーリエ変換処理を実行する。このフーリエ変換処理には、所定のFFT(Fast Fourier Transform)ポイント数Lのハン窓を用いたFFT演算器を使用する。そして、後処理部116は、そのフーリエ変換の結果に基づいて、フーリエ変換に係る周波数範囲のうちから最大の成分を有する周波数(最大成分周波数)fmaxを検出する。そして、ビート間隔TBをTB=F/fmaxの計算式により算出する。ただし、Fは、1秒当たりのフレーム数である。
次に、後処理部116は、正弦近似値sj−1(t),j=2,3,・・・,Jと、下記の式(13)で定義される基準値s’(t)との間の最大相関初期位相を、下記の式(14)により算出する。
Figure 0005604249
Figure 0005604249
次に、後処理部116は、下記の式(15)により、ビート時刻eb(j)の集合EBを算出する。ただし、EJは、ビート時刻eb(j)の個数である。
Figure 0005604249
以上が、本実施形態における動き解析部110によるビート時刻検出処理の説明である。本実施形態によれば、動きデータを入力し、短時間の区間ごとに主成分分析処理を行い、第1主成分の座標を算出し、各区間の座標を適切に連結し、ビートを抽出することができる。短時間主成分分析によれば、動きの最も大きい変化を表現できるため、動きの種類を問わず、多様な動きに対応し、より高い精度でビートを抽出することができる。
次に、モデル構築部120が実行するGPDMの学習処理について説明する。図7は、GPDMの学習処理を説明するための概念図である。GPDMは、低次元である潜在空間X=[x,x,・・・,xを、高次元であるポーズ空間Y=[y,y,・・・,yに変換することができる。また、GPDMは、潜在空間X内で時間的に遷移することができる。なお、同図は、N=4の場合を模式的に示したものであり、パラメータであるα(オーババー)、β(オーババー)、およびWの記載が省略されている。
は、ポーズ空間Yにおけるフレームyに対応する潜在空間Xで学習した座標である。ここでは、xは、潜在空間Xにおけるi番目のフレームである。yは、ポーズ空間Yにおけるi番目のフレームである。α(オーババー)は、潜在空間Xにおいて、座標xから座標xi+1を予測する際に用いられる予測用のパラメータである。また、β(オーババー)およびWは、潜在空間Xの座標xからポーズ空間Yのフレームyにマッピングする際に用いられるパラメータである。モデル構築部120は、リファレンスモーションデータを取り込むと、これらのパラメータを学習する。
潜在空間Xで一つの座標xt−1を入力すると、次の時刻の座標xが下記の式(16)によって推定結果として算出される。
Figure 0005604249
ただし、Nはフレーム総数であり、μ(x)は平均値であり、σ (x)は分散であり、Iは単位行列である。
また、潜在空間Xの座標xに対応するポーズ空間Yのフレームyは、下記の式(17)によって算出される。
Figure 0005604249
モデル構築部120は、前述したとおり、リファレンスモーションデータを動きの複雑さに応じて複数のセグメントに分割し、セグメントごとに潜在空間でGPDMを学習し、その学習したGPDM同士で遷移可能な潜在空間の座標を推定する。モデル構築部120の詳細な処理については後述する。
次に、動き追跡部20の詳細について説明する。
図8は、動き追跡部20の機能構成を示すブロック図である。同図に示すように、動き追跡部20は、サンプル生成部201と、尤度計算部202と、リサンプリング部203と、潜在空間遷移尤度計算部204と、予測部205とを備える。
サンプル生成部201は、ポーズ空間における対象のフレームデータと、リファレンスモーションデータの各フレームデータとの距離をそれぞれ計算し、その計算した距離が全体の平均距離以下であって且つ極小値である、リファレンスモーションデータのフレームデータをシードフレームとして抽出する。そして、サンプル生成部201は、下記の式(18)により距離に基づくサンプル数を計算する。
Figure 0005604249
ただし、d(i)は第i番目のシードフレームにおける距離である。q(i)は距離が小さいほど大きくなる関数である。p(i)はq(i)を正規化した尤度である。n(i)は、第i番目のシードフレームのサンプル数である。また、Nは、サンプル総数である。
サンプル生成部201は、第i番目のシードフレームに対応する潜在空間の座標を、GPDMグラフデータから抽出する。そして、サンプル生成部201は、その抽出した座標を中心に、n(i)個のサンプルを例えば乱数を用いて無作為に生成する。その生成範囲は、例えば、GPDMグラフデータにおけるσ (x)×k,(0<k<1))である。そして、サンプル生成部201は、これら生成したサンプルをポーズ空間に対応させて得られる座標を、最終サンプルとして生成する。
なお、人体姿勢推定装置1が処理するポーズ空間における最初のフレームデータについては、サンプル生成部201は、例えば以下の方法のいずれかによってユーザビデオデータからポーズデータを取得する。
(1)画像からポーズを検出する専用センサによってポーズを検出し、そのポーズのポーズデータを取得する。
(2)オペレータによる手作業によって映像から所望のポーズを選び、そのポーズのポーズデータを取得する。
(3)あらかじめ、既知ポーズの被写体を撮影してユーザビデオデータを作成しておき、そのユーザビデオデータから既知ポーズに対応するポーズデータを取得する。
(4)公知のポーズ推定技術を用いて、他の画像からポーズデータを取得する。
尤度計算部202は、ポーズ空間における対象のフレームデータと各サンプルとを比較して尤度を計算する。具体的には、尤度計算部202は、対象のフレームデータにサンプルを投影して枠を生成する。この枠は、例えば、15個の体のジョイントを含んだ運動学的なツリー構造を有している。そして、尤度計算部202は、その枠とフレームデータにおける画像のエッジとを比較して、枠と画像のエッジとの尤度を下記の式(19)の尤度関数によって計算する。また、尤度計算部202は、その枠と画像のシルエットとを比較して、枠と画像のシルエットとの尤度を下記の式(20)の尤度関数によって計算する。
Figure 0005604249
Figure 0005604249
なお、これら画像のエッジおよびシルエットを用いた尤度の計算については、非特許文献2に詳細が説明されている。
次に、尤度計算部202は、全サンプルの尤度を正規化する。例えば、尤度計算部202は、下記の式(21)により、画像のエッジを用いて計算した尤度と、シルエットを用いて計算した尤度とのサンプルごとの平均値を求めて正規化値とする。
Figure 0005604249
リサンプリング部203は、尤度計算部202が計算した尤度に基づいて重みを計算する。例えば、リサンプリング部203は、尤度が大きいほど重みを大きくする。そして、リサンプリング部203は、重みに基づいて潜在空間におけるサンプルを置換する。具体的には、リサンプリング部203は、現在のサンプルの集合から重みに比例した確率で所定数のパーティクルを生成し、これらのパーティクルの集合で、現在のパーティクルの集合を置き換える。
ここまでの動き追跡部20の処理によって、ポーズ空間における当該対象のフレームデータの処理が完了する。そして、次に、潜在空間遷移尤度計算部204が次フレームに移るための処理を実行する。
潜在空間遷移尤度計算部204は、ポーズ空間における当該対象のフレームデータからGPDMグラフデータにおけるビートフレームまでの距離を計算する。この距離は、例えば遷移尤度である。そして、潜在空間遷移尤度計算部204は、その距離が予め決定された閾値より小さい場合に、そのビートフレームが所在する潜在空間に遷移させる。そして、潜在空間遷移尤度計算部204は、その距離に応じてサンプル数を再分配する。ここで、潜在空間遷移尤度計算部204は、遷移させるサンプル数を前記の式(18)により計算する。また、潜在空間遷移尤度計算部204は、そのサンプル数分のサンプルを、遷移した潜在空間の座標を中心にして生成する。
予測部205は、遷移させた潜在空間において、GPDMグラフデータを用いて前記の式(16)を計算することにより、次フレームのサンプルを予測する。そして、予測部205は、予測したサンプルを、前記の式(17)を計算することによってポーズ空間に対応させて得られる座標を、最終サンプルとして生成する。
次に、モデル学習部10のモデル構築部120の動作について説明する。図9は、モデル構築部120の処理手順を示すフローチャートである。まず、ステップS1において、モデル構築部120は、リファレンスモーションデータ全体を1セグメントとしてGPDMを学習する。そして、モデル構築部120は、学習したGPDMを用い、リファレンスモーションデータの第1フレームに対応する潜在空間の座標を用いて、リファレンスモーションデータytraining (1:N)と同じ長さである復元モーションデータyrec (1:N)を生成する。
次に、ステップS2において、モデル構築部120は、リファレンスモーションデータytraining (1:N)と復元モーションデータyrec (1:N)との対応フレームの距離(復元誤差)を下記の式(22)により計算する。
Figure 0005604249
次に、ステップS3において、モデル構築部120は、セグメントを分割するか否かを判定する。具体的には、図10に示すように復元誤差errorがあらかじめ設けられた閾値を超えるとき、モデル構築部120は、下記の式(23)による時点を分割点sとして決定する。
Figure 0005604249
ただし、l(エル)は、セグメントの開始点から復元誤差errorが閾値を超えるときまでの時間である。また、tはビートフレーム間隔の平均時間である。つまり、2t分の時間は、少なくとも1個のビートフレームが含まれると推定される時間である。
すなわち、式(23)によれば、モデル構築部120は、セグメントの開始点から復元誤差が閾値を超えるまでの時間l(エル)がビートフレーム間隔の平均時間の2倍の時間2tよりも長い場合は、時間l(エル)の時点を分割点sとする。また、モデル構築部120は、時間l(エル)が時間2t以下である場合は、時間2tの時点を分割点sとする。
分割する場合(S3:YES)はステップS4の処理に移り、分割しない場合(S3:NO)は本フローチャートの処理を終了する。
ステップS4において、モデル構築部120は、ステップS3の処理において決定した分割点sでセグメントを分割する。
次に、ステップS5において、モデル構築部120は、ステップS4の処理で分割したセグメントの分割点よりも前の部分について、ステップS1の処理と同様にしてGPDMを学習する。
そして、モデル構築部120は、分割点以降の部分については、ステップS1の処理に戻って、GPDMの学習を行う。
以上説明したとおり、本発明の一実施形態における人体姿勢推定装置1は、リファレンスモーションデータを動きの複雑さに応じて複数のセグメントに分割し、セグメントごとに潜在空間でGPDMグラフデータを生成する。そして、人体姿勢推定装置1は、GPDMグラフデータに基づいて、ユーザビデオデータの映像における人体姿勢をフレームごとに追跡して人体姿勢推定データを出力する。
これにより、本実施形態における人体姿勢推定装置1は、次元数の低い潜在空間でのパーティクルフィルタを適用することにより、パーティクルの追跡を高く保つことができる。さらに、本実施形態における人体姿勢推定装置1は、リファレンスモーションデータを動きの複雑さに応じて複数のセグメントに分割しセグメントごとにGPDM学習を行うことにより、複雑な動きが含まれる人体の姿勢推定を高精度に行うことができる。
したがって、本実施形態における人体姿勢推定装置1によれば、複雑な動きが含まれる人体の姿勢推定を高精度に行うことができる。
なお、上述した実施形態である人体姿勢推定装置の一部の機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺装置のハードウェアを含むものである。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵される磁気ハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。
1 人体姿勢推定装置
10 モデル学習部
20 動き追跡部
110 動き解析部
111 物理量変換部
112 データ分割部
113 短時間主成分分析部
114 主成分座標連結部
115 ビート推定部
116 後処理部
120 モデル構築部
130 GPDMグラフ生成部
201 サンプル生成部
202 尤度計算部
203 リサンプリング部
204 潜在空間遷移尤度計算部
205 予測部

Claims (7)

  1. リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析部と、
    前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築部と、
    前記動き解析部が取得した前記ビートフレームと前記モデル構築部が推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡部と、を備え
    前記モデル構築部は、
    前記リファレンスモーションデータのフレームに対応する潜在空間の座標を用いて復元モーションデータを生成し、前記リファレンスモーションデータと前記復元モーションデータとの距離である復元誤差を計算し、この復元誤差が所定の閾値を超える場合に、前記リファレンスモーションデータを分割する、
    ことを特徴とする人体姿勢推定装置。
  2. 前記モデル構築部は、
    前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、各潜在空間でGPDM(Gaussian Process Dynamical Models)を学習し、それぞれ学習したGPDM同士で遷移可能な潜在空間の座標として、前記動き解析部が取得した前記ビートフレームに対応する潜在空間の座標を用いることを特徴とする請求項1記載の人体姿勢推定装置。
  3. 前記動き解析部は、
    前記リファレンスモーションデータを時間区間において主成分分析を行い、特定主成分座標に基づいて動きのビートフレームを推定することを特徴とする請求項1記載の人体姿勢推定装置。
  4. 前記動き追跡部は、
    前記ユーザビデオデータのポーズ空間における対象のフレームデータと前記遷移可能な潜在空間の座標に基づく潜在空間からのサンプルとの距離に基づいて尤度を計算する尤度計算部と、
    前記尤度計算部が計算した前記尤度に基づいて潜在空間におけるサンプルを置換するリサンプリング部と、
    前記リサンプリング部が置換した前記サンプルと前記動き解析部が取得した前記ビートフレームとの距離を計算し、この計算した距離に応じて潜在空間を遷移させる潜在空間遷移尤度算出部と、
    前記遷移させた潜在空間の動力学関数において、次フレームの潜在空間の座標を予測し、ポーズ空間にマッピングする予測部と、
    を備えることを特徴とする請求項1記載の人体姿勢推定装置。
  5. 前記潜在空間遷移尤度算出部は、
    ポーズ空間における対象のフレームデータからGPDM(Gaussian Process Dynamical Models)におけるビートフレームまでの距離を計算し、この距離が所定の閾値より小さい場合に前記ビートフレームが所在する潜在空間に遷移させ、前記距離に応じてサンプル数を再分配してサンプルを生成することを特徴とする請求項記載の人体姿勢推定装置。
  6. リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析ステップと、
    前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築ステップと、
    前記動き解析ステップにおいて取得した前記ビートフレームと前記モデル構築ステップにおいて推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡ステップと、を有し、
    前記モデル構築ステップは、
    前記リファレンスモーションデータのフレームに対応する潜在空間の座標を用いて復元モーションデータを生成し、前記リファレンスモーションデータと前記復元モーションデータとの距離である復元誤差を計算し、この復元誤差が所定の閾値を超える場合に、前記リファレンスモーションデータを分割する、
    ことを特徴とする人体姿勢推定方法。
  7. コンピュータに、
    リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析ステップと、
    前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築ステップと、
    前記動き解析ステップにおいて取得した前記ビートフレームと前記モデル構築ステップにおいて推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡ステップと、を実行させるためのコンピュータプログラムであり、
    前記モデル構築ステップは、
    前記リファレンスモーションデータのフレームに対応する潜在空間の座標を用いて復元モーションデータを生成し、前記リファレンスモーションデータと前記復元モーションデータとの距離である復元誤差を計算し、この復元誤差が所定の閾値を超える場合に、前記リファレンスモーションデータを分割する、
    ことを特徴とするコンピュータプログラム。
JP2010218626A 2010-09-29 2010-09-29 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム Expired - Fee Related JP5604249B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010218626A JP5604249B2 (ja) 2010-09-29 2010-09-29 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010218626A JP5604249B2 (ja) 2010-09-29 2010-09-29 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2012073852A JP2012073852A (ja) 2012-04-12
JP5604249B2 true JP5604249B2 (ja) 2014-10-08

Family

ID=46169947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010218626A Expired - Fee Related JP5604249B2 (ja) 2010-09-29 2010-09-29 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5604249B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008795A (zh) * 2018-01-04 2019-07-12 纬创资通股份有限公司 图像目标追踪方法及其系统与计算机可读取存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102051946B1 (ko) * 2013-04-03 2020-01-09 한국전자통신연구원 스마트 웨어 제어 장치 및 그 방법
JP6283231B2 (ja) * 2014-02-14 2018-02-21 日本電信電話株式会社 習熟度評価方法、およびプログラム
CN110321754B (zh) * 2018-03-28 2024-04-19 西安铭宇信息科技有限公司 一种基于计算机视觉的人体运动姿态纠正方法及系统
CN112819852A (zh) * 2019-11-15 2021-05-18 微软技术许可有限责任公司 对基于姿态的运动进行评估
CN111611997B (zh) * 2020-04-30 2023-04-18 青岛联合创智科技有限公司 一种基于人体动作迁移的卡通定制形象运动视频生成方法
CN113297916A (zh) * 2021-04-28 2021-08-24 中国地质大学(武汉) 施工人员工作姿态健康评估方法、装置、设备及存储介质
CN114401446B (zh) * 2021-12-16 2024-09-24 广州方硅信息技术有限公司 人体姿态迁移方法、装置、系统、电子设备以及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7450736B2 (en) * 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
JP5124439B2 (ja) * 2008-12-26 2013-01-23 Kddi株式会社 多次元時系列データ分析装置及びコンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008795A (zh) * 2018-01-04 2019-07-12 纬创资通股份有限公司 图像目标追踪方法及其系统与计算机可读取存储介质
CN110008795B (zh) * 2018-01-04 2021-09-14 纬创资通股份有限公司 图像目标追踪方法及其系统与计算机可读取记录介质

Also Published As

Publication number Publication date
JP2012073852A (ja) 2012-04-12

Similar Documents

Publication Publication Date Title
JP5604249B2 (ja) 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
Zeng et al. Silhouette-based gait recognition via deterministic learning
Wang et al. Video analysis of human dynamics—a survey
US20220189211A1 (en) Physical activity quantification and monitoring
Zhu et al. Motion-and location-based online human daily activity recognition
Rui et al. Segmenting visual actions based on spatio-temporal motion patterns
CN106384093B (zh) 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN112005198A (zh) 基于多个输入的手部状态重建
JP5525407B2 (ja) 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム
JP5604225B2 (ja) 人体姿勢推定装置、人体姿勢推定方法およびコンピュータプログラム
Dockstader et al. Stochastic kinematic modeling and feature extraction for gait analysis
JP2012141881A (ja) 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
Visee et al. An effective and efficient method for detecting hands in egocentric videos for rehabilitation applications
Wang et al. Unsupervised temporal segmentation of repetitive human actions based on kinematic modeling and frequency analysis
Mastorakis et al. Fall detection without people: A simulation approach tackling video data scarcity
Mortazavi et al. Continues online exercise monitoring and assessment system with visual guidance feedback for stroke rehabilitation
CN113283373A (zh) 一种用于增强深度相机检测肢体运动参数的方法
Schwarz et al. Discriminative human full-body pose estimation from wearable inertial sensor data
Nouisser et al. Deep learning and kinect skeleton-based approach for fall prediction of elderly physically disabled
Switonski et al. Dynamic time warping in gait classification of motion capture data
Sharifi et al. Marker-based human pose tracking using adaptive annealed particle swarm optimization with search space partitioning
Lee et al. Motion recognition and recovery from occluded monocular observations
Li et al. An automatic framework for generating Labanotation scores from continuous motion capture data
Wang A survey of visual analysis of human motion and its applications
JPWO2019207714A1 (ja) 動作推定システム、動作推定方法および動作推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140825

R150 Certificate of patent or registration of utility model

Ref document number: 5604249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees