JP2004163990A5 - - Google Patents

Download PDF

Info

Publication number
JP2004163990A5
JP2004163990A5 JP2002235128A JP2002235128A JP2004163990A5 JP 2004163990 A5 JP2004163990 A5 JP 2004163990A5 JP 2002235128 A JP2002235128 A JP 2002235128A JP 2002235128 A JP2002235128 A JP 2002235128A JP 2004163990 A5 JP2004163990 A5 JP 2004163990A5
Authority
JP
Japan
Prior art keywords
joint
motion capture
joint axes
data
axes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002235128A
Other languages
English (en)
Other versions
JP2004163990A (ja
JP3960536B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority to JP2002235128A priority Critical patent/JP3960536B2/ja
Priority claimed from JP2002235128A external-priority patent/JP3960536B2/ja
Publication of JP2004163990A publication Critical patent/JP2004163990A/ja
Publication of JP2004163990A5 publication Critical patent/JP2004163990A5/ja
Application granted granted Critical
Publication of JP3960536B2 publication Critical patent/JP3960536B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

ヒューマノイドエージェントの何らかの動きはこの場合、ある時間でのこの選択された身体座標系の位置および向きを特定する軌跡と、関節角度の軌跡とによって与えられる。この明細書では、身体の位置および向きをまとめて「身体の姿勢」と呼ぶ。ある程度の正確で、人間の動きは、このようにしてもモデル化することができる。この発明の実施例に従った方法は、人間の動きとヒューマノイドエージェントの動きとをともに記述できる、パラメトリックな動力学モデルの同期化のための自動技術を提供する。
図2は図1に示されたヒューマノイドロボットの動力学的構造を示し、ここで我々が目標とするのは、図2のようなヒューマノイドロボットの特定の動力学的構造によって、人間の動きをモデル化することである。図2に示されるように、この構造は関節4、6、8、10および12等の、ロボット2の右腕に位置づけられた多数の関節16を含む。この構造はさらに、左腕、右足、左足、首および腰の関節を含む。
Figure 2004163990
ここでε i1 …,ε in はマーカの動きy を生じさせる動力学的連鎖を記述するひねりであり、Gはマーカが付されるローカル身体部品座標系の位置および向きを、基本構成でのグローバル身体座標系に対て関連付ける同次行列である。図1に示したヒューマノイドロボットの場合、x=上体、骨盤、頭、左上腕、左下腕、左手、右上腕、右下腕、右手、左上脚、左下脚、左足、右上脚、右下脚、右足である。)rおよびは世界座標に対するグローバル身体座標系の回転ベクトルおよび位置によって表される向き、g()はおよびに対応する同次行列である。なお、マーカの動きに影響を与えるひねりの組は、マーカが付される身体部品が何であるかによって変わる。
グローバル身体座標系の原点は、二つの肩関節(または二つの特別に位置づけられた肩マーカ)を結ぶ線の中間にあると仮定される。これは上体に固定される。基本構成では、グローバル身体座標系とすべてのローカル身体部品座標系とが整列している。この仮定を用いて、グローバル身体座標系(式(3)のGx)における基本構成での各身体部品の位置と向きを計算し、マーカの世界座標系をローカル座標系(式(3)の〜y およびy )に変換することができる。
Figure 2004163990
ここで、nは身体部品に付けられたマーカの数である。最後に、マーカ j
ローカル座標が数式(5)の逆をとることにより得られる。
[好ましい実施例]
図3はこの実施例の全体図を示す。図3を参照して、システムは人間の行為者18のさまざまな身体部品に付されたマーカの3−D位置を測定するための光学トラッカ30と、測定データの演算を行なってモーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに適応させるためにパラメータを最適化するコンピュータシステム20とを含む。コンピュータシステム20によってこうして計算された適応パラメータ80を、光学トラッカ30がキャプチャした同じ行為者18の動きデータに基づきロボットを制御するためのデータを生成する動き生成システム82で用いることができる。
図4はコンピュータシステム20を示し、図5はシステム20をブロック図で示す。図4を参照して、コンピュータシステム20は、FD(フレキシブルディスク)ドライ52およびCD−ROM(コンパクトディスク読出専用メモリ)ドライブ50を有するコンピュータ40と、キーボード46と、マウス48と、モニタ42とを含む。光学トラッカ30はコンピュータ40に接続される。
を参照して、コンピュータ40は、FDドライ52およびCD−ROMドライブ50に加えて、CPU(中央処理装置)56と、CPU56、FDドライ52およびCD−ROMドライブ50に接続されたバス66と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)58と、CPU56に接続され、プログラム命令、システムプログラム、およびデータを記憶するランダムアクセスメモリ(RAM)60とを含む。
図6はこの実施例の方法を実現するプログラムのための全体的な制御構造を示す。図6を参照して、人間の行為者の身体にマーカが付けられた後(90)、プログラムが開始する。肩の離れた位置に2個のマーカが位置付けられるので、基本構成においてこれら2個のマーカを結ぶ線によってグローバル身体座標系の水平軸が規定できる。まず始めに、コンピュータ40は行為者が基本構成の姿勢で立っている間にモーションキャプチャデータ92からマーカの3−Dデータをキャプチャする(94)。
次に、行為者は一組の動きをするよう求められ、これが光学トラッカ30によって測定されて、キャプチャされたデータ110がコンピュータシステムに送られる(98)。この方法があいまいさのない回答を返す必要があるのであれば、行為者は適切な自由度全てについて動きを行なわなければならない。
[実験]
動力学的モデルの自動生成のためのこの方法を試験するため、複数の実験を行い、人間の行為者の全身運動を含むいくつかの動きの軌跡をキャプチャした。図9はデータ収集プロセスの例を示す。マーカベースの光学トラッカ30がこの目的で用いられた。光学トラッカ30は特定可能なアクティブマーカを用いる。全身運動の場合にはマーカのうちいくつかがオクルージョンをこうむることがしばしばあるので、アクティブマーカを用いると有利である。このような場合、パッシブなマーカを用いるシステムはよりマッチング誤差に弱い。
【符号の説明】
ロボット、4、6、8、10、12 関節、20 コンピュータシステム、30 光学トラッカ、40 コンピュータ

Claims (12)

  1. モーションキャプチャのためにパラメトリックな動力学モルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法であって、
    人間の行為者の身体部品に付けられたマーカの、それぞれのローカル身体部品座標系における、コンピュータ読取可能な位置データの組と、グローバル身体座標系に対するローカル身体座標系の位置と向きとを準備するステップと、
    人間の行為者の身体部品に付けられたマーカの位置を表す、コンピュータ読取可能なモーションキャプチャデータの第一の組を準備するステップとを含み、前記モーションキャプチャデータは人間の行為者がある一組の動きを行なう間にキャプチャされ、さらに
    前記位置データと前記コンピュータ読取可能なモーションキャプチャデータの第一の組とを用いて、人間の行為者の身体部品の関節軸の位置をコンピュータに推定させるステップを含み、
    前記コンピュータに推定させるステップは、
    コンピュータ読取可能な前記マーカの位置データと、コンピュータ読取可能な前記モーションキャプチャデータの第一の組と、パラメトリックな動力学モデルの連鎖中で先行する関節軸の組の位置とを用いて、前記パラメトリックな動力学モデルの連鎖内での現在の関節軸の組の位置を計算するステップをコンピュータに自動的に行なわせるステップを含み、前記先行する関節軸の組は、前記先行する関節軸の組のまわりの動きが現在の関節軸の組の位置に影響を与えるような様態で動力学的な連鎖中に配置されている、方法。
  2. 前記関節軸の現在の組の位置を計算するステップは
    (a)モーションキャプチャデータの第一の組の全ての測定時間について、各測定時間での人間の行為者の身体の位置および向き、ならびにもしあれば、その時点での連鎖中で先行する軸の組の関節角度を、コンピュータ読取可能なマーカの位置データと、モーションキャプチャデータの第一の組と、もしあれば先行するステップで計算された先行する関節軸の組の位置とを用いて、推定するステップと、
    (b)コンピュータ読取可能なマーカの位置データと、モーションキャプチャデータの第一の組と、もしあれば先行するステップで計算された先行する関節軸の組の位置と、身体の位置および向きと、もしあれば、ステップ(a)で計算された先行する関節軸の組に関連する関節角度とを用いて、連鎖内の現在の関節軸の組の位置と、関連した関節軸の角度とを推定するステップとを含む、請求項1に記載の方法。
  3. 前記ステップ(a)は、モーションキャプチャデータの第一の組と、位置データと、身体の位置および向きと、先行する関節軸の組の関節角度と、先行するステップで計算された先行する関節軸の組の位置とによって規定される好適な指標関数を最適化することによって、前記先行する関節軸の組の関節角度を推定するステップを含む、請求項2に記載の方法。
  4. 前記ステップ(b)は、モーションキャプチャデータの第一の組と、位置データと、身体の位置および向きと、先行する関節軸の組および現在の関節軸の組の関節角度と、先行するステップで計算された先行する関節軸の組の位置および現在の関節軸の組の位置とによって規定される好適な指標関数を最適化することによって、現在の関節軸の組の位置を推定するステップを含む、請求項2または請求項3に記載の方法。
  5. コンピュータ読取可能なマーカの位置データの組を準備する前記ステップは、人間の行為者が予め定められた基準姿勢にある間に、人間の行為者の身体部品に付けられたマーカの位置を表すコンピュータ読取可能なモーションキャプチャデータの第二の組を準備するステップを含む、請求項1から4のいずれかに記載の方法。
  6. 前記予め定められた基準姿勢においては、人間の行為者は手足を伸ばした直立姿勢で立っている、請求項5に記載の方法。
  7. モーションキャプチャのために、パラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実行可能なプログラムであって、
    人間の行為者の身体部品に付けられたマーカの、それぞれのローカル身体部品座標系における、コンピュータ読取可能な位置データの組と、グローバル身体座標系に対するローカル身体座標系の位置と向きとを準備するための第一のプログラム部分と、
    人間の行為者の身体部品に付けられたマーカの位置を表すコンピュータ読取可能なモーションキャプチャデータの第一の組を準備するための第二のプログラム部分とを含み、前記モーションキャプチャデータは人間の行為者がある一組の動きを行なう間にキャプチャされ、さらに
    位置データとコンピュータ読取可能なモーションキャプチャデータの第一の組とを用いて人間の行為者の身体部品の関節軸の位置を推定する第三のプログラム部分を含み、前記第三のプログラム部分は
    コンピュータ読取可能なマーカの位置データと、コンピュータ読取可能なモーションキャプチャデータの第一の組と、パラメトリックな動力学モデルの連鎖において先行する関節軸の組の位置とを用いて、パラメトリックな動力学モデルの連鎖における関節軸の現在の組の位置を計算する第四のプログラム部分を含み、先行する関節軸の組は、先行する関節軸の組の周囲の動きが現在の関節軸の組の位置に影響を与えるような様態で動力学的な連鎖中に配置されている、コンピュータで実行可能なプログラム。
  8. 前記第四のプログラム部分は
    モーションキャプチャデータの第一の組の全ての測定時間について、各測定時間での人間の行為者の身体の位置および向き、ならびにもしあれば、その時点での連鎖中における先行する軸の組の関節角度を、コンピュータ読取可能なマーカの位置データと、モーションキャプチャデータの第一の組と、もしあれば先行するステップで計算された先行する関節軸の組の位置とを用いて、推定するプログラム部分(a)と、
    コンピュータ読取可能なマーカの位置データと、モーションキャプチャデータの第一の組と、もしあれば先行するステップで計算された先行する関節軸の組の位置と、身体の位置および向きと、もしあれば、プログラム部分(a)で計算された先行する関節軸の組に関連する関節角度とを用いて、連鎖内における現在の関節軸の組の位置と、関連した関節角度とを推定するプログラム部分(b)とを含む、請求項7に記載のコンピュータで実行可能なプログラム。
  9. 前記プログラム部分(a)は、モーションキャプチャデータの第一の組と、位置データと、身体の位置および向きと、先行する関節軸の組の関節角度と、第四のプログラム部分で計算された先行する関節軸の組の位置とによって規定される好適な指標関数を最適化することによって、身体の位置および向きと、前記先行する関節軸の組の関節角度を推定するためのプログラム部分を含む、請求項8に記載のコンピュータで実行可能なプログラム。
  10. 前記プログラム部分(b)は、モーションキャプチャデータの第一の組と、位置データと、身体の位置および向きと、先行する関節軸の組および現在の関節軸の組の関節角度と、第四のプログラム部分で計算された先行する関節軸の組の位置および現在の関節軸の組の位置とによって規定される好適な指標関数を最適化することによって、現在の関節軸の組の位置を推定するプログラム部分を含む、請求項8または9に記載のコンピュータで実行可能なプログラム。
  11. 前記第一のプログラム部分は、人間の行為者が予め定められた基準姿勢にある間に、人間の行為者の身体部品に付けられたマーカの位置を表すモーションキャプチャデータの第二の組を準備するプログラム部分を含む、請求項7から10のいずれかに記載のコンピュータで実行可能なプログラム。
  12. 前記基準姿勢においては、人間の行為者は手足を伸ばした直立姿勢で立っている、請求項11に記載のンピュータで実行可能なプログラム。
JP2002235128A 2002-08-12 2002-08-12 モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム Expired - Fee Related JP3960536B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002235128A JP3960536B2 (ja) 2002-08-12 2002-08-12 モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002235128A JP3960536B2 (ja) 2002-08-12 2002-08-12 モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム

Publications (3)

Publication Number Publication Date
JP2004163990A JP2004163990A (ja) 2004-06-10
JP2004163990A5 true JP2004163990A5 (ja) 2005-04-21
JP3960536B2 JP3960536B2 (ja) 2007-08-15

Family

ID=32800893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002235128A Expired - Fee Related JP3960536B2 (ja) 2002-08-12 2002-08-12 モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム

Country Status (1)

Country Link
JP (1) JP3960536B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101424942B1 (ko) 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
CN100361070C (zh) * 2004-10-29 2008-01-09 中国科学院计算技术研究所 一种基于光学的运动捕获数据的骨骼运动提取方法
JP2006146435A (ja) * 2004-11-17 2006-06-08 Univ Waseda 動作伝達システムおよび動作伝達方法
US20080221487A1 (en) * 2007-03-07 2008-09-11 Motek Bv Method for real time interactive visualization of muscle forces and joint torques in the human body
EP3296068B1 (en) * 2015-05-13 2019-10-23 National Institute of Advanced Industrial Science and Technology Robot behavior generation method
KR102459677B1 (ko) 2015-11-05 2022-10-28 삼성전자주식회사 알고리즘 학습 방법 및 장치
JP6529039B2 (ja) * 2016-03-18 2019-06-12 株式会社計数技研 リンク列マッピング装置、リンク列マッピング方法、及びプログラム
CN110110356A (zh) * 2019-03-26 2019-08-09 江西理工大学 泰奥杨森机构足式运动机器人的制作方法及系统

Similar Documents

Publication Publication Date Title
O'Brien et al. Automatic joint parameter estimation from magnetic motion capture data
Wang et al. A geometric algorithm to predict the arm reach posture for computer‐aided ergonomic evaluation
Kim et al. Stable whole-body motion generation for humanoid robots to imitate human motions
JP2020108915A (ja) ロボット重心位置調整方法、装置、ロボット及びデータ記憶媒体
WO2018196227A1 (zh) 人体运动能力评价方法、装置及系统
Rasmussen et al. Anybody-a software system for ergonomic optimization
Wang Closed-form inverse kinematic solution for anthropomorphic motion in redundant robot arms
Wang Three-dimensional kinematic analysis of influence of hand orientation and joint limits on the control of arm postures and movements
Ude et al. Automatic generation of kinematic models for the conversion of human motion capture data into humanoid robot motion
US8660699B2 (en) Behavior control system and robot
JP6425318B2 (ja) 姿勢評価システム
JP2015102913A (ja) 姿勢推定装置及び姿勢推定方法
CN109781104B (zh) 运动姿态确定及定位方法、装置、计算机设备及介质
CN107038274B (zh) 数字化人类上肢模型的基于约束的优化的方法和系统
Suay et al. A position generation algorithm utilizing a biomechanical model for robot-human object handover
CN110609621A (zh) 姿态标定方法及基于微传感器的人体运动捕获系统
JP2004163990A5 (ja)
Cloutier et al. Motion capture experiments for validating optimization-based human models
KR20190022198A (ko) 착용형 센서를 이용한 자세정보 보정 방법 및 이를 수행하는 기록매체
Wang et al. Validation of a model-based motion reconstruction method developed in the Realman project
Callejas-Cuervo et al. Capture and analysis of biomechanical signals with inertial and magnetic sensors as support in physical rehabilitation processes
JP3960536B2 (ja) モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム
Yoshiyasu et al. Forward dynamics simulation of human figures on assistive devices using geometric skin deformation model
Yunardi et al. Robotic leg design to analysis the human leg swing from motion capture
JP5275967B2 (ja) 干渉チェック装置