JPWO2016181959A1 - ロボット動作生成方法 - Google Patents

ロボット動作生成方法 Download PDF

Info

Publication number
JPWO2016181959A1
JPWO2016181959A1 JP2017517948A JP2017517948A JPWO2016181959A1 JP WO2016181959 A1 JPWO2016181959 A1 JP WO2016181959A1 JP 2017517948 A JP2017517948 A JP 2017517948A JP 2017517948 A JP2017517948 A JP 2017517948A JP WO2016181959 A1 JPWO2016181959 A1 JP WO2016181959A1
Authority
JP
Japan
Prior art keywords
robot
motion
human body
motion data
unknown
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017517948A
Other languages
English (en)
Other versions
JP6377266B2 (ja
Inventor
光 鮎澤
光 鮎澤
吉田 英一
英一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Publication of JPWO2016181959A1 publication Critical patent/JPWO2016181959A1/ja
Application granted granted Critical
Publication of JP6377266B2 publication Critical patent/JP6377266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Abstract

本発明は、人の動作を再現する精度を高めたロボット動作生成方法を提供することを目的とする。本目的を実現するため、人体の動作をロボットで再現するためのロボット動作生成方法であって、人体の構成をモデル化して人体モデルを生成するステップS1と、ロボットの構成をモデル化してロボットモデルを生成するステップS2と、ステップS1で生成された人体モデルとステップS2で生成されたロボットモデルを対応づけるステップS3と、人体の動作に応じた人体モデルの変位を示す第1の運動データを取得するステップS4と、ステップS1で生成された人体モデルの変位を示す第1の未知運動データが有する運動特徴指標を取捨選択して、ステップS4で取得された規範運動データに対する再現誤差に関する評価基準を策定するステップS5と、ステップS2で生成されたロボットモデルの変位を示す第2の未知運動データが有するロボットが運動するために必要な拘束条件を選定するステップS6と、ステップS3で得られた対応づけ及びステップS6で選定された拘束条件下において、ステップS5の評価基準に基づく再現誤差が最小となる第1の未知運動データ及び第2の未知運動データを算出するステップS7と、ステップS7で算出された第2の未知運動データを用いてロボットを制御するステップS8とを有するロボット動作生成方法を提供する。

Description

本発明は、ロボットの動作を生成する方法に関するものである。
これまで、人の動作をコンピュータグラフィクス上のキャラクター等、他のキャラクターの動作として再現する動作リターゲッティングと呼ばれる技術が考案されてきている。そして、本技術は、特許文献1に示されるような動作変換技術を用いることによって、人と高い身体類似性を持つヒューマノイドロボットにも適用されている。
ここで、非特許文献1及び2においては、人の動作をヒューマノイドロボットで再現するための指標としてモーションキャプチャのマーカデータに対する誤差や形状特徴量を用いた技術が開示されている。
また、これらの文献では、本再現において、ヒューマノイドロボットが持つ関節の稼動範囲や重心のバランスといった点における拘束条件を考慮する必要があるとされており、一般的にも、人体モデルが有する運動指標をロボットの動作に変換した上で、本拘束条件を反映させた修正を施す手法が採用されている。
なお、非特許文献3には人体モデルの骨格を表現する幾何パラメータの同定法が示され、非特許文献4には自由度が大きいロボットや人体モデルのための逆運動学計算手法が示されている。
特開2007−125670号公報
K.Miura, M.Morisawa, S.Nakaoka, F.Kanehiro, K.Harada, K.Kaneko, and S.Kajita, "Robot motion remix based on motion capture data towards human-like locomotion of humanoid robots", Proc. of the IEEE-RAS Int. Conf. on Humanoid Robots, pp.596-603, Dec 2009 S.Nakaoka and T.Komura, "Interaction mesh based motion adaptation for biped humanoid robots", Proc. of the IEEE-RAS Int. Conf. on Humanoid Robots, pp.625-631, 2012 K.Ayusawa and Y.Nakamura, "Fast inverse kinematics algorithm for large dof system with decomposed gradient computation based on recursive formulation of equilibrium", Proc. of the IEEE/RSJ Int, Conf. on Intelligent Robots and Systems, pp.3447-3452, 2012 K.Ayusawa, Y.Ikegami, and Y.Nakamura, "Simultaneous global inverse kinematics and geometric parameter identification of human skeletal model from motion capture data", Mechanism and Machine Theory, Vol,74, pp.274-284, 2014
しかし、上記のように、人体モデルが有する運動指標をロボットの動作に変換した上で上記拘束条件を反映させた修正を施す手法では、当該拘束条件を加味して上記運動指標を調整することができないため、人の動作と当該ロボットによる再現動作との対応関係が必ずしも最適化されないという問題がある。
本発明は、このような問題を解決するためになされたもので、人の動作を再現する精度を高めたロボットの動作生成法を提供することを目的とする。
上記課題を解決するため、本発明は、人体の動作をロボットで再現するためのロボット動作生成方法であって、人体の構成をモデル化して人体モデルを生成する第1のステップと、ロボットの構成をモデル化してロボットモデルを生成する第2のステップと、第1のステップで生成された人体モデルと第2のステップで生成されたロボットモデルを対応づける第3のステップと、人体の動作に応じた人体モデルの変位を示す規範運動データを取得する第4のステップと、第1のステップで生成された人体モデルの変位を示す第1の未知運動データが有する運動特徴指標を取捨選択して、第4のステップで生成された規範運動データに対する再現誤差に関する評価基準を策定する第5のステップと、第2のステップで生成されたロボットモデルの変位を示す第2の未知運動データが有するロボットが運動するために必要な拘束条件を選定する第6のステップと、第3のステップで生成された対応づけと第6のステップで選定された拘束条件下において、第5のステップで策定された評価基準に基づき再現誤差が最小となる第1の未知運動データ及び第2の未知運動データを算出する第7のステップと、第7のステップで算出された第2の未知運動データを用いてロボットを制御する第8のステップとを有するロボット動作生成方法を提供する。
本発明によれば、人の動作を再現する精度を高めたロボット動作生成方法を提供することができる。
本発明の実施の形態に係るロボット動作生成方法の概要を説明するための図である。 図1に示されたロボット動作生成方法を示すフローチャートである。
以下において、本発明の実施の形態について図面を参照しつつ詳しく説明する。なお、図中同一符号は同一又は相当部分を示す。
図1は、本発明の実施の形態に係るロボット動作生成方法の概要を説明するための図である。以下において、図1を参照しつつ本発明の実施の形態に係るロボット動作生成方法の概要を説明する。
人と高い身体類似性を持つヒューマノイドロボット(以下「ヒューマノイド」という。)は、人の身体制御系や体制感覚に迫るための人物理シミュレータとして期待されている。このため、ヒューマノイドを運動解析における人の物理シミュレータとして利用する場合、人の動作を加工せずになるべくそのままヒューマノイドに再現させることが望まれる。
しかし、人とヒューマノイドの間には身体機構や運動の際における力学特性において差異があるため、これらの差異を何かしらの形で補償する必要がある。
そこで、かかる補償を行いながら、図1に示されるように人体の動作をヒューマノイドへ適応させてロボットの動作として再現させる、リターゲッティングと呼ばれる技術が重要となる。
また、ヒューマノイドを運動解析における人の物理シミュレータとして利用する用途では、人の運動特徴がどのように保存され改変されるのかを直接評価可能であることが望まれる。
これらの要求を満たすため、図1に示されるように、人体のモデル1とロボットのモデル2との間で、それらの身体構造を表現する身体パラメータ間の写像条件と、運動制御やタスクを行うためのロボットの運動制約といった幾何的及び力学的な拘束条件の下において最適化された人の運動データを取得すると共に、当該最適化において算出されたパラメータを用いてロボットの運動を生成する。
なお、上記写像条件とは、例えば、後述する運動に関するパラメータに関する非線形関数とされ、一部の当該パラメータに関して人とロボットで同じ値を共有するという条件とされる。
また、上記ロボットの運動制約とは、例えば、ロボットについての、関節角度の稼動範囲、関節角速度の上下限、関節角加速度の上下限、関節トルクの上下限、支持足の位置と姿勢に関する接地条件、重心の稼動範囲、及び足裏圧力中心の存在範囲等に関する制約を意味する。
以上のようなロボット動作生成方法によれば、人の運動及びヒューマノイドの運動に関するパラメータをそれぞれ独立変数とした場合において、人運動解析における運動復元問題やモーフィング、運動計画を同時に解くことができる。
なお、上記における運動に関するパラメータは、例えば、人とロボット双方における、関節角度と関節角速度及び関節角加速度、基底となる後述するリンクの位置座標及び姿勢を決定付ける角度、上記位置座標及び上記角度についての速度及び加速度、幾何パラメータ、及び力学パラメータにより構成される。
ここで、上記の幾何パラメータは、例えば、隣り合う関節原点の相対位置と隣り合う関節軸の相対姿勢、あるいは仮想的なロボットの関節角度により構成される。一方、上記の力学パラメータは例えば、上記リンクの各々の質量、重心、及び慣性テンソルにより構成される。
以上より、上記のロボット動作生成方法によれば、ロボットがなす運動の際における拘束条件を考慮した上で人の運動に関する評価関数が直接最適化されるため、人体の四肢や体幹の動かし方など被計測人による本来の動作に極めて忠実でより精度の高いロボットによる再現動作を実現することができる。
また、本ロボット動作生成方法によれば、取得された人の運動計測データに対するバイオメカニクス的な人の運動特徴指標が上記最適化によって、どのように保存、若しくは改変されるかを確認することができるため、上記再現に反映させたい上記運動特徴指標の取捨選択が容易になる。
ここで、上記運動特徴指標は、例えば、上記運動計測データにより示される運動を上記の運動に関するパラメータを用いて復元する場合における最小二乗誤差とされる。なお、この最小二乗誤差は、コンピュータグラフィック(CG)の分野においては、運動計測データから求まるモーメント特徴量やラプラシアン・ディフォーメーション・エネルギー(Laplacian deformation energy)といった幾何・力学特徴量に対する誤差により代用することができる。
また、上記運動特徴指標を用いて、バイオメカニクス分野における関節入力トルクや外力などの負担を最小化するようにしても良い。
さらに、本ロボット動作生成方法によれば、上記のように最適化された人の運動データをロボットによる実験データと比較できるため、ヒューマノイドが人用に開発された製品を装着して人の動作を再現するなど、ヒューマノイドを製品評価のための能動的な、すなわち人の運動機能のシミュレーションを行うためのダミードールとして用いる場合に、特に有用となる。
図2は、図1に示されたロボット動作生成方法を示すフローチャートである。以下において、図2を参照しつつ、本発明の実施の形態に係るロボット動作生成方法を詳しく説明する。
図2に示されるように、ステップS1では、人体の構成をモデル化して人体のモデル1を生成する。本モデル化においては種々の方法を採り得るが、ここでは例えば、複数の構成要素を接続することにより得られる多リンク系として人体をモデル化し、人リンク系の一般化座標をqhと定義する。
次に、ステップS2では、ロボットの構成をモデル化してロボットのモデル2を生成する。本モデル化においても種々の方法を採り得るが、ここでは例えば、上記の人体と同様な多リンク系としてロボットをモデル化し、ロボットリンク系の一般化座標をqrと定義する。
ステップS3では、ステップS1で生成された人体のモデル1とステップS2で生成されたロボットのモデル2を対応づける。ここで例えば、上記の人とロボットに関する一般化座標は以下のモーフィングの関係式gにより対応づけられる。
Figure 2016181959
但し、式(1)に示されたφは人の骨格を表現する未知の幾何パラメータであり、ロボットの幾何パラメータは既知とする。
次に、ステップS4では、人体の動作に応じた人体モデルの変位を示す規範運動データPhを取得する。ここで例えば、規範運動データPhは、モーションキャプチャによるマーカデータと、床反力データと、筋電位計のデータにより構成される。
ステップS5では、ステップS4で取得された規範データPhに対する動作復元を行うために、ステップS1で生成された人体モデルの一般化座標qhと幾何パラメータφで表現される第1の未知運動データとの類似性を評価可能な、上記バイオメカニクス的な人の運動特徴指標を取捨選択した評価関数を設計する。
ステップS6では、ステップS2で生成されたロボットモデルの一般化座標qrで表現される第2の未知運動データに対して、ロボットが実際に運動を実現するために必要となる拘束条件を定める。
そして、ステップS7では、ステップS3で設計されたモーフィング関係式及びステップS6で定められた拘束条件下において、ステップS4で取得された規範運動データPhに対して、ステップS5の評価関数を用いて再現誤差が最小となる第1の未知運動データ及び第2の未知運動データを算出する。
一例として、離散的な時刻t,t2,…,tNTにおける人とロボットの一般化座標の時系列データqh,t,qr,t(1≦t≦NT)をそれぞれ並べたベクトルQhとベクトルQrを、次式(2)のように定義する。
Figure 2016181959
この場合、人体モデルの第1の未知運動データは幾何パラメータφ及びベクトルQhに対応し、ロボットモデルの第2の未知運動データはベクトルQrに対応する。
そして、ロボットの運動計画を行う上で、ベクトルQrに対し、以下のようなロボット立脚時に満足すべき不等式拘束条件を考慮する。
Figure 2016181959
ここで、式(3)におけるhは、例えば関節稼動域及び速度、重心、あるいはゼロ・モーメント点(ZMP)等に関する動力学的関数を意味する。
また、運動解析における人の運動計測データセットPhに対する動作復元問題を以下のように一般化する。
Figure 2016181959
但し、式(4)のfは評価関数であり、例えば計測されたマーカ位置とモデル上のマーカ位置から求まる誤差ノルムなどが用いられる。このとき、式(4)は人関節軌道の推定と幾何パラメータの同定の複合問題となる。
以上を踏まえて、上記のリターゲッティング問題を、人とロボット間におけるモーフィングの関係を示す式(1)とロボットの運動拘束条件を示す式(3)の下で、人の動作復元に関する上記の評価関数fについての最適化問題として、以下のように定式化する。
Figure 2016181959
なお、式(5)におけるg’は時系列データ毎に成立する式(1)を統合したものとする。
このように、ロボットの運動を実現する上での拘束条件を示す式(3)を考慮した上で最適化問題を解く、すなわちモーフィングと運動計画問題を分離せず式(5)の形式で人の運動復元に関する評価関数を最適化することで、人の運動特徴がどのように保存、あるいは改変されるかが評価可能となる。
ここで、式(5)に示された最適化問題は直接的に解く方法では計算量が膨大になるが、例えば式(3)にペナルティ関数法といった近似計算法を適用することにより、計算の高速化を図ることができる。
また、上記時系列データ全体において、上記の幾何パラメータや力学パラメータは本来定数であるが、時間的に変化するパラメータとして扱うことにより、各時刻において独立した部分問題として近似することも有用である。
そして、ステップS8において、ステップS7で算出された第2の未知運動データQrを用いてロボットを制御することになる。
ここで、ロボットによる再現動作は、上記拘束条件に基づいて、人のモデル化された動作からある程度の変更を余儀なくされている。しかしながら、ロボットを用いた従来の再現動作技術においては、人のモデル化された動作と再現されたロボットによる動作との比較しかできず、当該再現動作技術によりモデル化された人の動作がどのように変更されたかを確認することは困難であった。
そこで、ステップS9において、最適化された第1の未知運動データQhを用いて、ステップS4で取得された規範運動データPh を修正して人の運動データを新たに出力する。
Figure 2016181959
ここで、式(6)におけるP^hは第1の未知運動データQhと幾何パラメータφから人の運動データを推定する関数、P*hは修正された人の規範運動データとなる。そして例えば、人の運動データを推定する関数P^hとしては、人体モデルと未知運動データから特徴点の位置を計算する順運動学計算関数が用いられる。
以下においては、上記ロボット動作生成方法のより具体的な実施例について説明する。
以下では、人体のモデル1とロボットのモデル2の関係を設計する上で、当該ロボットの関節対偶は回転関節のみで構成され、両モデルにおける関節対偶の対応は同一とする。また、人体のモデル1の幾何パラメータφをロボットの関節対偶で表現する。そして例えば、当該関節間の距離はそれらをつなぐ直動関節として捉える。この場合、上記非特許文献4に記されているように、幾何パラメータφはロボットの仮想的な一般化座標として表現できることになる。
このとき、人体モデルの一般化座標qhとロボットモデルの一般化座標qrは、それぞれ以下の式(7)及び式(8)のように表される。
Figure 2016181959
Figure 2016181959
但し、phとprはそれぞれ人体モデルとロボットモデルのベースリンクの位置、ξhとξrはそれぞれ人体モデルとロボットモデルのベースリンクの姿勢(四元数表記)、θhとθrはそれぞれ人体モデルとロボットモデルの関節角度を意味する。
次に、ロボットモデルと人体モデルの一般化座標の対応関係を以下のように設計する。
Figure 2016181959
ここで共有されるのは関節角度のみであり、人体モデルとロボットモデルのベースリンクの位置と姿勢は共有せずに、ロボット自身の運動拘束のための自由度として残される。
次に、ロボットの関節角度に関する稼動範囲や速度・加速度制限に関して、以下の式(10)から式(12)で示される条件を考慮する。
Figure 2016181959
Figure 2016181959
Figure 2016181959
なお、人の運動データの全時系列データにおいて各足の接地の有無は既知であるとし、ゼロ・モーメント点の位置ph,zmpは事前に計測あるいは推定可能とする。また、ロボットの足裏は平面であり、足リンク座標のXY平面が足裏平面と平行である。
全時系列データにおける人の接地条件は、ロボットの運動計画における接地目標状態とし、足リンクが接地している時刻では以下の条件を置く。
Figure 2016181959
Figure 2016181959
なお、上記Rr,foot及び上記pr,footは、右足リンクまたは左足リンク座標の慣性座標系での位置と姿勢行列とする。また、両足リンクが接地している時刻では、以下の条件をさらに加える。
Figure 2016181959
各時系列データにおける人のZMPの位置ph,zmpは、ロボットの運動計画におけるZMPの目標値として利用する。ただし、位置ph,zmpが一時刻前におけるロボットの足裏支持多角形の外に出た場合は、支持多角形最近傍点に変更する。最終的に利用されるロボットのZMP目標値を位置pr,zmpとする。
ZMPはベースリンクの運動方程式から解析的に記述可能であるが、ZMP目標値とする位置pr,zmpを支持点とした倒立振子の運動方程式を用いて近似し、これを拘束条件として利用する。
Figure 2016181959
なお、それぞれ、上記pcは全重心の位置、pc,zはそのz成分、gは重力加速度を意味する。
人運動データから求まるZMP目標値に関わらず、複雑な姿勢をとった場合の静的安定性を優先して保証させるため、重心の稼動域についても以下のような制約を与える。
Figure 2016181959
なお、XY領域は足裏支持領域と一致させる。
ここで、離散的な時刻t1,t2,…,tNTに対して、N個のマーカ観測量pi,t ref(1≦t≦NM)が与えられたとする。各時刻の人体モデルの一般化座標をqh,t(1≦t≦NT)に対して、以下のような評価関数を用いる。
Figure 2016181959
ただし、式(18)において、piは人体モデル上に定義されたマーカの位置であり、qhと幾何パラメータφの関数であって、順運動学計算により求められる。
運動時系列データQh,Qrと幾何定数φに関して上式(18)を直接的に解く場合は計算量が膨大になるため、上式(5)の等式制約条件に対してペナルティ関数法を利用した上で、以下のように解く。
ある時刻tの変数の微分は、前時刻(t-1)との有限差分として陽に表現できるものとする。
Figure 2016181959
Figure 2016181959
ただし、K(ξt)は四元数の微分値を角速度ωに変換する行列であり、姿勢に関する微分については上式(20)を用いて、それ以外については上式(19)を用いる。
ここで、上記非特許文献4に記された人体モデルの幾何パラメータ同定法を用いて、リターゲッティングとは無関係に人体パラメータを同定し、同定されたパラメータをφ’とする。
次に、時変とした幾何パラメータφtに対してペナルティ項を加える。このとき、上式(5)は、以下のような逆運動学問題を時系列データ順に解くことに近似される。
Figure 2016181959
ただし、式(21)において、gkは式(9)〜(17)からそれぞれ変換された個々の不等式条件式を意味し、kは各式(9)〜(17)に付与された序数を意味する。また、ωφとωgkはペナルティ項に対する重みとする。
そして、上記非特許文献3に記された大自由度向けの逆運動学計算手法を利用することにより式(21)を解き、ロボットについての運動時系列データqr,tを取得し、得られた運動時系列データqr,tを用いて当該ロボットを制御する。
上記のような人運動解析における運動復元に用いる評価を陽に組み込むことが可能なリターゲッティング方法によれば、人の運動復元問題と人・ロボット間の身体モーフィング、及びロボットの運動計画問題からなる複合問題の最適解を得ることができる。
また、ロボットの運動軌道だけではなく、対応する人体モデルの運動軌道と身体パラメータも同時に算出することができる。
さらに、ロボットによる運動復元に関する評価関数を直接最適化する方法であるため、人による運動の特徴を保存若しくは改変する設計変更を容易に評価することができる。
一方、上記人体モデルの運動軌道と身体(幾何)パラメータを利用することで、人の規範運動データを修正して出力できる。例えば、式(18)における関数piを用いることで、修正されたマーカ運動時系列を出力できる。
このように、修正された規範運動データを利用することにより、人体モデルに施された変更箇所につき、変更前後の直接的比較を行うことができる。また、修正された規範運動データに対してバイオメカニクス的な解析を行うことで、例えば順運動学計算を用いた関節角度の計算または逆動力学計算を用いた関節トルクの推定を行うことで、上記変更前後において、運動の特徴の変化につき、より詳細な定量的比較を行うことができる。
なお、本発明の実施の形態に係る上記ロボットの動作生成方法は、上記の人、若しくは人体に限られず、運動解析可能な他の動物に対しても同様に適用できることはいうまでもなく、その場合には上記ヒューマノイドは当該動物を模したロボットに置き換えて考えられる。
1 人体のモデル
2 ロボットのモデル

Claims (4)

  1. 人体の動作をロボットで再現するためのロボット動作生成方法であって、
    前記人体の構成をモデル化して人体モデルを生成する第1のステップと、
    前記ロボットの構成をモデル化してロボットモデルを生成する第2のステップと、
    前記第1のステップで生成された前記人体モデルと前記第2のステップで生成された前記ロボットモデルを対応づける第3のステップと、
    前記人体の動作に応じた前記人体モデルの変位を示す規範運動データを取得する第4のステップと、
    前記第1のステップで生成された前記人体モデルの変位を示す第1の未知運動データが有する運動特徴指標を取捨選択して、前記第4のステップで取得された前記規範運動データに対する再現誤差に関する評価基準を策定する第5のステップと、
    前記第2のステップで生成された前記ロボットモデルの変位を示す第2の未知運動データが有する前記ロボットが運動するために必要な拘束条件を選定する第6のステップと、
    前記第3のステップで得られた前記対応づけ及び前記第6のステップで選定された前記拘束条件下において、前記第5のステップで策定された前記評価基準に基づき前記再現誤差が最小となる前記第1の未知運動データ及び前記第2の未知運動データを算出する第7のステップと、
    前記第7のステップで算出された前記第2の未知運動データを用いて前記ロボットを制御する第8のステップとを有するロボット動作生成方法。
  2. さらに、前記第1の未知運動データを用いて前記規範運動データを修正して出力する第9のステップを有する請求項1に記載のロボット動作生成方法。
  3. 前記第1のステップでは、時間的に変化するパラメータを用いて前記人体の構成をモデル化する、請求項1に記載のロボット動作生成方法。
  4. 前記第7のステップでは、ペナルティ関数法を用いて前記第1の未知運動データ及び前記第2の未知運動データを算出する、請求項1に記載のロボット動作生成方法。

JP2017517948A 2015-05-13 2016-05-10 ロボット動作生成方法 Active JP6377266B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015098106 2015-05-13
JP2015098106 2015-05-13
PCT/JP2016/063844 WO2016181959A1 (ja) 2015-05-13 2016-05-10 ロボット動作生成方法

Publications (2)

Publication Number Publication Date
JPWO2016181959A1 true JPWO2016181959A1 (ja) 2018-02-22
JP6377266B2 JP6377266B2 (ja) 2018-08-22

Family

ID=57248066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017517948A Active JP6377266B2 (ja) 2015-05-13 2016-05-10 ロボット動作生成方法

Country Status (4)

Country Link
US (1) US10518412B2 (ja)
EP (1) EP3296068B1 (ja)
JP (1) JP6377266B2 (ja)
WO (1) WO2016181959A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10899017B1 (en) * 2017-08-03 2021-01-26 Hrl Laboratories, Llc System for co-adaptation of robot control to human biomechanics
WO2021065196A1 (en) * 2019-10-03 2021-04-08 Mitsubishi Electric Corporation Method and system for trajectory optimization for nonlinear robotic systems with geometric constraints
CN110948485B (zh) * 2019-11-21 2022-11-08 佛山科学技术学院 绳牵引并联机器人柔索悬链线模型精确数值解的计算方法
CN113962073A (zh) * 2021-05-18 2022-01-21 追觅创新科技(苏州)有限公司 智能机器人的步态控制方法及装置、存储介质、电子装置
KR102607493B1 (ko) * 2023-04-04 2023-11-29 주식회사 아임토리 로봇의 모션 분석 방법 및 장치
KR102607490B1 (ko) * 2023-04-04 2023-11-29 주식회사 아임토리 인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004163990A (ja) * 2002-08-12 2004-06-10 Advanced Telecommunication Research Institute International モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム
JP2004330361A (ja) * 2003-05-08 2004-11-25 Japan Science & Technology Agency 隠れマルコフモデルによる運動データの認識・生成方法、それを用いた運動制御方法及びそのシステム
US20120143374A1 (en) * 2010-12-03 2012-06-07 Disney Enterprises, Inc. Robot action based on human demonstration
JP2013520327A (ja) * 2010-02-25 2013-06-06 本田技研工業株式会社 関節システムの制御方法、記憶媒体、制御システム
JP5892531B1 (ja) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 リンク列マッピング装置、リンク列マッピング方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4997419B2 (ja) 2005-11-07 2012-08-08 株式会社国際電気通信基礎技術研究所 ロボット用動作変換システム
US7859540B2 (en) 2005-12-22 2010-12-28 Honda Motor Co., Ltd. Reconstruction, retargetting, tracking, and estimation of motion for articulated systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004163990A (ja) * 2002-08-12 2004-06-10 Advanced Telecommunication Research Institute International モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム
JP2004330361A (ja) * 2003-05-08 2004-11-25 Japan Science & Technology Agency 隠れマルコフモデルによる運動データの認識・生成方法、それを用いた運動制御方法及びそのシステム
JP2013520327A (ja) * 2010-02-25 2013-06-06 本田技研工業株式会社 関節システムの制御方法、記憶媒体、制御システム
US20120143374A1 (en) * 2010-12-03 2012-06-07 Disney Enterprises, Inc. Robot action based on human demonstration
JP5892531B1 (ja) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 リンク列マッピング装置、リンク列マッピング方法、及びプログラム

Also Published As

Publication number Publication date
EP3296068A1 (en) 2018-03-21
EP3296068A4 (en) 2019-01-02
JP6377266B2 (ja) 2018-08-22
WO2016181959A1 (ja) 2016-11-17
US20180099411A1 (en) 2018-04-12
US10518412B2 (en) 2019-12-31
EP3296068B1 (en) 2019-10-23

Similar Documents

Publication Publication Date Title
JP6377266B2 (ja) ロボット動作生成方法
Tonneau et al. An efficient acyclic contact planner for multiped robots
Posa et al. Optimization and stabilization of trajectories for constrained dynamical systems
US9120227B2 (en) Human motion tracking control with strict contact force constraints for floating-base humanoid robots
Ayusawa et al. Motion retargeting for humanoid robots based on simultaneous morphing parameter identification and motion optimization
Kuindersma et al. An efficiently solvable quadratic program for stabilizing dynamic locomotion
Abdellatif et al. Computational efficient inverse dynamics of 6-DOF fully parallel manipulators by using the Lagrangian formalism
Felis et al. Synthesis of full-body 3-d human gait using optimal control methods
Kumar et al. An analytical and modular software workbench for solving kinematics and dynamics of series-parallel hybrid robots
JP2010005421A (ja) 直列連鎖システムにおける未知動作を予測するシステムおよびその方法
Zheng et al. Human motion tracking control with strict contact force constraints for floating-base humanoid robots
EP3179394A1 (en) Method and system of constraint-based optimization of digital human upper limb models
Grazioso et al. Modeling and simulation of hybrid soft robots using finite element methods: Brief overview and benefits
Pelliccia et al. Task-based motion control of digital humans for industrial applications
Rosado et al. Reproduction of human arm movements using Kinect-based motion capture data
CN113119102B (zh) 基于浮动基飞轮倒立摆的仿人机器人建模方法和装置
Lowrey et al. Real-time state estimation with whole-body multi-contact dynamics: A modified UKF approach
Tirupachuri Enabling human-robot collaboration via holistic human perception and partner-aware control
Zheng et al. Humanoid locomotion control and generation based on contact wrench cones
Rosillo et al. Real‐time solving of dynamic problem in industrial robots
Safeena et al. Survey paper on the Forward Kinematics Solution of a Stewart Platform
Seydel et al. Improved Motion Capture Processing for High-Fidelity Human Models Using Optimization-Based Prediction of Posture and Anthropometry
Menon et al. Controlling Muscle-Actuated Articulated Bodies in Operational Space
JP5586015B2 (ja) 逆運動学を用いた動作・姿勢生成方法及び装置
Popov et al. Comprising of Elastostatic and Elastodynamic Modeling for Compliance Error Compensation in Bipedal Robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180724

R150 Certificate of patent or registration of utility model

Ref document number: 6377266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250