JP5604249B2 - 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム - Google Patents
人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP5604249B2 JP5604249B2 JP2010218626A JP2010218626A JP5604249B2 JP 5604249 B2 JP5604249 B2 JP 5604249B2 JP 2010218626 A JP2010218626 A JP 2010218626A JP 2010218626 A JP2010218626 A JP 2010218626A JP 5604249 B2 JP5604249 B2 JP 5604249B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- latent space
- data
- unit
- motion data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000004590 computer program Methods 0.000 title claims description 6
- 230000033001 locomotion Effects 0.000 claims description 181
- 238000010276 construction Methods 0.000 claims description 36
- 238000004458 analytical method Methods 0.000 claims description 27
- 230000007704 transition Effects 0.000 claims description 23
- 238000000513 principal component analysis Methods 0.000 claims description 20
- 238000012952 Resampling Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 238000004540 process dynamic Methods 0.000 claims description 7
- 230000033764 rhythmic process Effects 0.000 claims description 6
- 230000036544 posture Effects 0.000 description 47
- 239000011159 matrix material Substances 0.000 description 33
- 238000012545 processing Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 25
- 238000004364 calculation method Methods 0.000 description 21
- 239000002245 particle Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000012805 post-processing Methods 0.000 description 9
- 238000010168 coupling process Methods 0.000 description 7
- 230000008878 coupling Effects 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 210000000988 bone and bone Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 210000002683 foot Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
[3]上記[1]記載の人体姿勢推定装置において、前記モデル構築部は、前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、各潜在空間でGPDM(Gaussian Process Dynamical Models)を学習し、それぞれ学習したGPDM同士で遷移可能な潜在空間の座標として、前記動き解析部が取得した前記ビートフレームに対応する潜在空間の座標を用いることを特徴とする。
[4]上記[1]または[2]記載の人体姿勢推定装置において、前記動き解析部は、前記リファレンスモーションデータを時間区間において主成分分析を行い、特定主成分座標に基づいて動きのビートフレームを推定することを特徴とする。
[5]上記[1]記載の人体姿勢推定装置において、前記動き追跡部は、前記ユーザビデオデータのポーズ空間における対象のフレームデータと前記遷移可能な潜在空間の座標に基づく潜在空間からのサンプルとの距離に基づいて尤度を計算する尤度計算部と、前記尤度計算部が計算した前記尤度に基づいて潜在空間におけるサンプルを置換するリサンプリング部と、前記リサンプリング部が置換した前記サンプルと前記動き解析部が取得した前記ビートフレームとの距離を計算し、この計算した距離に応じて潜在空間を遷移させる潜在空間遷移尤度算出部と、前記遷移させた潜在空間の動力学関数において、次フレームの潜在空間の座標を予測し、ポーズ空間にマッピングする予測部と、を備えることを特徴とする。
[6]上記[5]記載の人体姿勢推定装置において、前記潜在空間遷移尤度算出部は、ポーズ空間における対象のフレームデータからGPDM(Gaussian Process Dynamical Models)におけるビートフレームまでの距離を計算し、この距離が所定の閾値より小さい場合に前記ビートフレームが所在する潜在空間に遷移させ、前記距離に応じてサンプル数を再分配してサンプルを生成することを特徴とする。
本発明の一実施形態である人体姿勢推定装置は、リファレンスモーションデータと、人体姿勢を推定する対象者(ユーザ)の動きを撮影したユーザビデオデータとをそれぞれ取り込み、リファレンスモーションデータにおける人体姿勢を基準として、ユーザビデオデータにおける人体姿勢に基づきユーザの人体姿勢を推定するものである。
図1は、人体スケルトン型動きデータの定義例の概略図である。この人体スケルトン型動きデータは、人体の骨格をもとに、骨および骨の連結点(ジョイント)を用い、特定の一つのジョイントを根(ルート)とし、ルートからジョイント経由で順次連結される骨の構造を木(ツリー)構造として定義したものである。同図は、人体スケルトン型動きデータの定義の一部分を示している。同図において、ジョイント100は人体の腰部分であり、ルートとして定義されている。ジョイント101は左腕の肘部分、ジョイント102は左腕の手首部分、ジョイント103は右腕の肘部分、ジョイント104は右腕の手首部分、ジョイント105は左足の膝部分、ジョイント106は左足の足首部分、ジョイント107は右足の膝部分、ジョイント108は右足の足首部分である。
図2は、本実施形態における人体姿勢推定装置の機能構成を示す概略のブロック図である。同図に示すように、人体姿勢推定装置1は、モデル学習部10と動き追跡部20とを備える。
潜在空間のモデルは、例えば、参考文献1(A Global Geometric Framework for Nonlinear Dimensionality Reduction Joshua B. Tenenbaum, Vin de Silva, and John C. Langford Science, VOL 290, ISSUE 5500, 22 December 2000: 2319-2323.)に記載されたISOMAP、参考文献2(Nonlinear Dimensionality Reduction by Locally Linear Embedding Sam T. Roweis, and Lawrence K. Saul Science, VOL 290, ISSUE 5500, 22 December 2000: 2323-2326.)に記載されたLLE(Locally Linear Embedding)、参考文献3(N. D. Lawrence. Gaussian process latent variable models for visualisation of high dimensional data. Proc. NIPS 16, 2004.)に記載されたGPLVM(Gaussian Process Latent Variable Model)等を適用することができる。
モデル構築部120は、リファレンスモーションデータを動きの複雑さに応じて複数のセグメントに分割する。そして、モデル構築部120は、セグメントごとに潜在空間でGPDMを学習し、その学習したGPDM同士で遷移可能な潜在空間の座標を推定する。そして、モデル構築部120は、セグメントの分割情報と、各分割セグメントに対するGPDMデータ(遷移可能な潜在空間の座標の推定結果)とを出力する。
GPDMグラフ生成部130は、動き解析部110から供給されるビート時刻データと、モデル構築部120から供給される、セグメントの分割情報および各分割セグメントに対するGPDMデータとを取り込み、ビート時刻データをキーとして、セグメントの分割情報と各分割セグメントに対するGPDMデータとを対応付けたGPDMグラフデータを生成する。
本実施形態においては、動き追跡部20は、パーティクルフィルタにより追跡を行う。パーティクルフィルタは、検出と追跡とを同時に行う逐次追跡アルゴリズムである。すなわち、パーティクルフィルタは、現在の状態から起こり得る次の状態を多数のパーティクル(粒子)に見立て、全てのパーティクルの尤度に基づく重み付き平均を次の状態として予測しながら追跡を行うアルゴリズムである。
図3は、動き解析部110の機能構成を示すブロック図である。同図に示すように、動き解析部110は、物理量変換部111と、データ分割部112と、短時間主成分分析部113と、主成分座標連結部114と、ビート推定部115と、後処理部116とを備える。
これにより、時刻tのフレームx(t)は、x(t)={p’1(t),p’2(t),・・・,p’K(t)}と表される。ただし、Kは、ルートを除くジョイント数である。
図4は、データ分割部112によるデータ分割処理を説明するための概念図である。データ分割部112によるデータ分割処理では、ジョイント相対位置データを一定時間(一定数のフレーム分に対応)の区間に分割する。分割区間の長さは、適宜設定可能である。分割区間の長さは、例えば90フレーム分の長さである。
まず、短時間主成分分析部113は、下記の式(4)により、Xから平均値を除いたN行M列の行列Dを算出する。
主成分座標連結ステップS11:
主成分座標連結部114は、当区間の主成分の座標(第1主成分の元座標)Y1に対し、当区間の主成分係数行列Vから、第1主成分に対する係数V1を取得する。さらに、主成分座標連結部114は、メモリに保存されている前区間の主成分係数行列Vから、第1主成分に対する係数V1 preを取得する。
主成分座標連結部114は、当区間に係る第1主成分に対する係数V1と前区間に係る第1主成分に対する係数V1 preとの関係に基づいて、当区間に係る第1主成分の元座標を符号反転するか否かを判定する。この符号反転の判定は、下記の式(9)により行う。式(9)による判定の結果、符号反転する場合には、主成分座標連結部114は、当区間の第1主成分の元座標Y1に対して符号反転を行うと共に、当区間の主成分係数行列Vに対しても符号反転を行う。一方、(9)式による判定の結果、符号反転しない場合には、主成分座標連結部114は、当区間の第1主成分の元座標Y1および当区間の主成分係数行列Vともに、そのままの値を主成分座標連結ステップS12の処理結果とする。
主成分座標連結部114は、主成分座標連結ステップS12の処理結果の主成分座標Y1’に対して座標シフトを行う。具体的には、主成分座標連結部114は、下記の式(10)により座標シフトを行う。この場合、主成分座標連結部114は、前区間の主成分座標行列Yから、前区間の第tNフレームにおける第1主成分の座標Y1 pre(tN)を取得する。
式(10)の最初の計算式の計算結果の座標Y1”に対し、主成分座標連結部114は、第t1フレームの座標Y1”(t1)をY1 opt(t1)に置き換える。この置き換え後の座標Y1”が、座標シフト結果の座標である。
主成分座標連結部114は、当区間において、主成分座標連結ステップS12の処理結果の座標Y1’に対して、主成分座標連結ステップS13の処理結果の座標Y1 opt(t1)を反映する。これにより、当区間の主成分座標は、前区間の主成分座標に対して滑らかに連結されるものとなる。
まず、後処理部116は、ビート集合B内の各極値間を、下記の式(12)により正弦曲線(Sinusoid)で近似する。
図8は、動き追跡部20の機能構成を示すブロック図である。同図に示すように、動き追跡部20は、サンプル生成部201と、尤度計算部202と、リサンプリング部203と、潜在空間遷移尤度計算部204と、予測部205とを備える。
(1)画像からポーズを検出する専用センサによってポーズを検出し、そのポーズのポーズデータを取得する。
(2)オペレータによる手作業によって映像から所望のポーズを選び、そのポーズのポーズデータを取得する。
(3)あらかじめ、既知ポーズの被写体を撮影してユーザビデオデータを作成しておき、そのユーザビデオデータから既知ポーズに対応するポーズデータを取得する。
(4)公知のポーズ推定技術を用いて、他の画像からポーズデータを取得する。
ステップS4において、モデル構築部120は、ステップS3の処理において決定した分割点sでセグメントを分割する。
そして、モデル構築部120は、分割点以降の部分については、ステップS1の処理に戻って、GPDMの学習を行う。
これにより、本実施形態における人体姿勢推定装置1は、次元数の低い潜在空間でのパーティクルフィルタを適用することにより、パーティクルの追跡を高く保つことができる。さらに、本実施形態における人体姿勢推定装置1は、リファレンスモーションデータを動きの複雑さに応じて複数のセグメントに分割しセグメントごとにGPDM学習を行うことにより、複雑な動きが含まれる人体の姿勢推定を高精度に行うことができる。
したがって、本実施形態における人体姿勢推定装置1によれば、複雑な動きが含まれる人体の姿勢推定を高精度に行うことができる。
10 モデル学習部
20 動き追跡部
110 動き解析部
111 物理量変換部
112 データ分割部
113 短時間主成分分析部
114 主成分座標連結部
115 ビート推定部
116 後処理部
120 モデル構築部
130 GPDMグラフ生成部
201 サンプル生成部
202 尤度計算部
203 リサンプリング部
204 潜在空間遷移尤度計算部
205 予測部
Claims (7)
- リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析部と、
前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築部と、
前記動き解析部が取得した前記ビートフレームと前記モデル構築部が推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡部と、を備え、
前記モデル構築部は、
前記リファレンスモーションデータのフレームに対応する潜在空間の座標を用いて復元モーションデータを生成し、前記リファレンスモーションデータと前記復元モーションデータとの距離である復元誤差を計算し、この復元誤差が所定の閾値を超える場合に、前記リファレンスモーションデータを分割する、
ことを特徴とする人体姿勢推定装置。 - 前記モデル構築部は、
前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、各潜在空間でGPDM(Gaussian Process Dynamical Models)を学習し、それぞれ学習したGPDM同士で遷移可能な潜在空間の座標として、前記動き解析部が取得した前記ビートフレームに対応する潜在空間の座標を用いることを特徴とする請求項1記載の人体姿勢推定装置。 - 前記動き解析部は、
前記リファレンスモーションデータを時間区間において主成分分析を行い、特定主成分座標に基づいて動きのビートフレームを推定することを特徴とする請求項1記載の人体姿勢推定装置。 - 前記動き追跡部は、
前記ユーザビデオデータのポーズ空間における対象のフレームデータと前記遷移可能な潜在空間の座標に基づく潜在空間からのサンプルとの距離に基づいて尤度を計算する尤度計算部と、
前記尤度計算部が計算した前記尤度に基づいて潜在空間におけるサンプルを置換するリサンプリング部と、
前記リサンプリング部が置換した前記サンプルと前記動き解析部が取得した前記ビートフレームとの距離を計算し、この計算した距離に応じて潜在空間を遷移させる潜在空間遷移尤度算出部と、
前記遷移させた潜在空間の動力学関数において、次フレームの潜在空間の座標を予測し、ポーズ空間にマッピングする予測部と、
を備えることを特徴とする請求項1記載の人体姿勢推定装置。 - 前記潜在空間遷移尤度算出部は、
ポーズ空間における対象のフレームデータからGPDM(Gaussian Process Dynamical Models)におけるビートフレームまでの距離を計算し、この距離が所定の閾値より小さい場合に前記ビートフレームが所在する潜在空間に遷移させ、前記距離に応じてサンプル数を再分配してサンプルを生成することを特徴とする請求項4記載の人体姿勢推定装置。 - リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析ステップと、
前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築ステップと、
前記動き解析ステップにおいて取得した前記ビートフレームと前記モデル構築ステップにおいて推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡ステップと、を有し、
前記モデル構築ステップは、
前記リファレンスモーションデータのフレームに対応する潜在空間の座標を用いて復元モーションデータを生成し、前記リファレンスモーションデータと前記復元モーションデータとの距離である復元誤差を計算し、この復元誤差が所定の閾値を超える場合に、前記リファレンスモーションデータを分割する、
ことを特徴とする人体姿勢推定方法。 - コンピュータに、
リファレンスモーションデータから、動きのリズムを表して動きの突然的な変化が生じているフレームであるビートフレームを取得する動き解析ステップと、
前記リファレンスモーションデータを分割した複数のセグメントそれぞれについて、前記リファレンスモーションデータが属するポーズ空間とより低次元の潜在空間のマッピングと前記潜在空間の動力学関数を有するモデルとを学習し、それぞれ学習したモデル同士で遷移可能な潜在空間の座標を推定するモデル構築ステップと、
前記動き解析ステップにおいて取得した前記ビートフレームと前記モデル構築ステップにおいて推定した潜在空間モデルとに基づいて、ユーザの動きを撮影したユーザビデオデータの映像における人体姿勢を追跡する動き追跡ステップと、を実行させるためのコンピュータプログラムであり、
前記モデル構築ステップは、
前記リファレンスモーションデータのフレームに対応する潜在空間の座標を用いて復元モーションデータを生成し、前記リファレンスモーションデータと前記復元モーションデータとの距離である復元誤差を計算し、この復元誤差が所定の閾値を超える場合に、前記リファレンスモーションデータを分割する、
ことを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010218626A JP5604249B2 (ja) | 2010-09-29 | 2010-09-29 | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010218626A JP5604249B2 (ja) | 2010-09-29 | 2010-09-29 | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012073852A JP2012073852A (ja) | 2012-04-12 |
JP5604249B2 true JP5604249B2 (ja) | 2014-10-08 |
Family
ID=46169947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010218626A Expired - Fee Related JP5604249B2 (ja) | 2010-09-29 | 2010-09-29 | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5604249B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008795A (zh) * | 2018-01-04 | 2019-07-12 | 纬创资通股份有限公司 | 图像目标追踪方法及其系统与计算机可读取存储介质 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102051946B1 (ko) * | 2013-04-03 | 2020-01-09 | 한국전자통신연구원 | 스마트 웨어 제어 장치 및 그 방법 |
JP6283231B2 (ja) * | 2014-02-14 | 2018-02-21 | 日本電信電話株式会社 | 習熟度評価方法、およびプログラム |
CN110321754B (zh) * | 2018-03-28 | 2024-04-19 | 西安铭宇信息科技有限公司 | 一种基于计算机视觉的人体运动姿态纠正方法及系统 |
CN112819852A (zh) * | 2019-11-15 | 2021-05-18 | 微软技术许可有限责任公司 | 对基于姿态的运动进行评估 |
CN111611997B (zh) * | 2020-04-30 | 2023-04-18 | 青岛联合创智科技有限公司 | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 |
CN113297916A (zh) * | 2021-04-28 | 2021-08-24 | 中国地质大学(武汉) | 施工人员工作姿态健康评估方法、装置、设备及存储介质 |
CN114401446B (zh) * | 2021-12-16 | 2024-09-24 | 广州方硅信息技术有限公司 | 人体姿态迁移方法、装置、系统、电子设备以及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7450736B2 (en) * | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
JP5124439B2 (ja) * | 2008-12-26 | 2013-01-23 | Kddi株式会社 | 多次元時系列データ分析装置及びコンピュータプログラム |
-
2010
- 2010-09-29 JP JP2010218626A patent/JP5604249B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008795A (zh) * | 2018-01-04 | 2019-07-12 | 纬创资通股份有限公司 | 图像目标追踪方法及其系统与计算机可读取存储介质 |
CN110008795B (zh) * | 2018-01-04 | 2021-09-14 | 纬创资通股份有限公司 | 图像目标追踪方法及其系统与计算机可读取记录介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2012073852A (ja) | 2012-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5604249B2 (ja) | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム | |
Zeng et al. | Silhouette-based gait recognition via deterministic learning | |
Wang et al. | Video analysis of human dynamics—a survey | |
US20220189211A1 (en) | Physical activity quantification and monitoring | |
Zhu et al. | Motion-and location-based online human daily activity recognition | |
Rui et al. | Segmenting visual actions based on spatio-temporal motion patterns | |
CN106384093B (zh) | 一种基于降噪自动编码器和粒子滤波的人体动作识别方法 | |
CN112005198A (zh) | 基于多个输入的手部状态重建 | |
JP5525407B2 (ja) | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム | |
JP5604225B2 (ja) | 人体姿勢推定装置、人体姿勢推定方法およびコンピュータプログラム | |
Dockstader et al. | Stochastic kinematic modeling and feature extraction for gait analysis | |
JP2012141881A (ja) | 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム | |
Visee et al. | An effective and efficient method for detecting hands in egocentric videos for rehabilitation applications | |
Wang et al. | Unsupervised temporal segmentation of repetitive human actions based on kinematic modeling and frequency analysis | |
Mastorakis et al. | Fall detection without people: A simulation approach tackling video data scarcity | |
Mortazavi et al. | Continues online exercise monitoring and assessment system with visual guidance feedback for stroke rehabilitation | |
CN113283373A (zh) | 一种用于增强深度相机检测肢体运动参数的方法 | |
Schwarz et al. | Discriminative human full-body pose estimation from wearable inertial sensor data | |
Nouisser et al. | Deep learning and kinect skeleton-based approach for fall prediction of elderly physically disabled | |
Switonski et al. | Dynamic time warping in gait classification of motion capture data | |
Sharifi et al. | Marker-based human pose tracking using adaptive annealed particle swarm optimization with search space partitioning | |
Lee et al. | Motion recognition and recovery from occluded monocular observations | |
Li et al. | An automatic framework for generating Labanotation scores from continuous motion capture data | |
Wang | A survey of visual analysis of human motion and its applications | |
JPWO2019207714A1 (ja) | 動作推定システム、動作推定方法および動作推定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20130305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140819 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5604249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |