JP4592276B2 - ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム - Google Patents

ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP4592276B2
JP4592276B2 JP2003365239A JP2003365239A JP4592276B2 JP 4592276 B2 JP4592276 B2 JP 4592276B2 JP 2003365239 A JP2003365239 A JP 2003365239A JP 2003365239 A JP2003365239 A JP 2003365239A JP 4592276 B2 JP4592276 B2 JP 4592276B2
Authority
JP
Japan
Prior art keywords
motion
robot
walking
editing
editor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003365239A
Other languages
English (en)
Other versions
JP2005125460A (ja
Inventor
達郎 三上
敦史 宮本
仁一 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003365239A priority Critical patent/JP4592276B2/ja
Priority to US10/970,977 priority patent/US7099747B2/en
Publication of JP2005125460A publication Critical patent/JP2005125460A/ja
Application granted granted Critical
Publication of JP4592276B2 publication Critical patent/JP4592276B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Program-controlled manipulators
    • B25J9/16Program controls
    • B25J9/1656Program controls characterised by programming, planning systems for manipulators
    • B25J9/1671Program controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ロボットの所定の動作パターンを記述するモーションの作成・編集を支援するためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラムに係り、特に、可動脚によりさまざまな作業を行なうロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラムに関する。
電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置のことを「ロボット」という。ロボットの語源は、スラブ語の“ROBOTA(奴隷機械)”に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
最近では、ヒトやサルなどの2足直立歩行を行なう動物の身体メカニズムや動作を模した脚式移動ロボットに関する研究開発が進展し、実用化への期待も高まってきている。2足直立による脚式移動は、クローラ式や、4足又は6足式などに比し不安定で姿勢制御や歩行制御が難しくなるが、不整地や障害物など作業経路上に凹凸のある歩行面や、階段や梯子の昇降など不連続な歩行面に対応することができるなど、柔軟な移動作業を実現できるという点で優れている。
また、ヒトの生体メカニズムや動作を再現した脚式移動ロボットのことを、特に、「人間形」、若しくは「人間型」のロボット(humanoid robot)と呼ぶ。人間型ロボットは、例えば、生活支援、すなわち住環境その他の日常生活上のさまざまな場面における人的活動の支援などを行なうことができる。
人間の作業空間や居住空間のほとんどは、2足直立歩行という人間が持つ身体メカニズムや行動様式に合わせて形成されおり、車輪その他の駆動装置を移動手段とした現状の機械システムが移動するのには多くの障壁が存在する。したがって、機械システムすなわちロボットがさまざまな人的作業を代行し、さらに人間の住空間に深く浸透していくためには、ロボットの移動可能範囲が人間のそれとほぼ同じであることが好ましい。これが、脚式移動ロボットの実用化が大いに期待されている所以でもある。
昨今の脚式移動ロボットは高い情報処理能力を備えており、ロボットそのものを一種の計算機システムとして捉えることができる。言い換えれば、ロボット上で実現される動作パターン、あるいは、複数の基本的な動作パターンの組合せによって構成される高度且つ複雑な一連の動作シーケンスすなわちモーションは、コンピュータ・プログラミングと同様の作業によって構築される。
実機を動作するためのモーション・データが数多く普及されることが、ロボット本体が普及していくためには必須である。したがって、ロボット用のモーション編集を行なうための開発環境の構築が強く望まれている。
また、今後、産業界のみならず一般家庭や日常生活にもロボットが深く浸透していくことが予想される。とりわけ、エンタティンメント性を追求する製品に関しては、コンピュータやコンピュータ・プログラミングに加え,運動制御に関する高度な知識を持たくとも、振付師やデザイナーがモーション・コンテンツを作成できることが強く望まれるとともに、一般消費者層がロボットを購入して使用するケースも多いと予想される。このような一般ユーザにとっても、ロボットの動作シーケンスを対話的な処理により比較的容易且つ効率的に作成・編集することを支援するためのツール、すなわちモーション編集システムを提供することが好ましい。
ロボットは、関節などの複数の制御点で構成されており、したがって、各制御点における位置や速度(関節角やその角速度)を入力していくことにより、機体動作を編集することができる。この点では、コンピュータ・グラフィックスにおけるキャラクタのアニメーション生成に類似する。しかしながら、仮想空間上での動作と実機動作とでは自ずと相違がある。脚式移動ロボットの場合には、単に関節角を駆動させただけでは所望の動作を実行することはできず、転倒することなく脚式作業を継続している必要がある。言い換えれば、実機上での動作を確認し、モーション実行中に機体が姿勢の安定度を維持していることが、所望動作を実現することの前提となる。
多くの場合、脚式移動ロボットの姿勢安定制御には、足底接地点と路面の形成する支持多角形の内側にモーメントがゼロとなる点を探索するというZMP安定度判別規範を用いる(例えば、非特許文献1を参照のこと)。2足の脚式移動ロボットの場合、この支持多角形が極めて小さいことから、姿勢安定制御はとりわけ困難とされている。
機体の各制御点における指示値を画面入力してロボットのモーションを組むというモーション編集システムは既に存在するが、しかしながら、編集されたモーションで実機動作させる場合の姿勢安定性をチェックしたり、姿勢が安定化するように所望のモーションを修正したりするようなシステムは未だない。せっかく組まれたモーションでは機体の姿勢安定性を維持できず、モーション自体を実行することができないのでは、実質的にモーションを編集したことにはならない。
ヴコブラトビッチ(Miomir Vukobratovic)著「脚式移動ロボット(LEGGED LOCOMOTION ROBOTS)」(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))
本発明の目的は、実機上での実行可能性を考慮しながら動作パターンの編集を支援することができる、優れたロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、実機上で動作を確認しながら編集されたモーションを修正することができる、優れたロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラムを提供することにある。
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、機体は上体と歩行を行なう複数の脚からなる下半身を持ち、複数の関節角を備えたロボット装置のためのモーション編集装置であって、
前記上体並びに前記機体全体のモーションを編集するモーション・エディタと、
前記脚による歩行パターンや前記下半身のモーションを生成するとともに、該生成した下半身のモーションと前記モーション・エディタにより編集された上体又は前記機体全体のモーションを併合して前記機体全体の安定化処理を行なう脚軌跡エディタと、
を具備することを特徴とするロボット装置のためのモーション編集装置である。
ここで、前記脚軌跡エディタは、実ロボットに搭載されているものと同じ運動エンジンを備えている。ここで言う運動エンジンは、例えば、歩行パターン・ジェネレータとモーション・スタビライザからなる。そして、運動エンジンは、全身協調型の制御により、歩行パターンを実時間で生成するとともに、ZMP方程式を用いて脚部のモーション並びに全身のモーションを安定化するようになっている。
したがって、本発明に係るモーション編集システムによれば、モーションのデザイナーは、ロボットの上体及び下半身のモーションが一旦生成した後、実機上で再生する前に、機体モーション全体を検査することができる。したがって、このようなモーションの編集・生成作業を通して、アップテンポなダンス・パフォーマンスなどのアトラクティブなロボットのアプリケーションを実現することかできる。
また、前記モーション・エディタ及び前記脚軌跡エディタによるモーションの作成、修正、安定化処理を3Dビューア上で行なうようにしてもよい。
すなわち、本発明に係るモーション編集システムは、リッチなユーザ・インターフェースを備え、安定した2足歩行を始めとし、音楽に同期したダンス・パフォーマンスなど、さまざまなモーションを生成し、編集することに適している。モーション生成には、実ロボットに搭載されているものと同じ歩行パターン生成処理と姿勢安定化処理を取り入れているので、実ロボット上で正確に作動する行動を生成することができる。
また、前記脚軌跡エディタは、安定化処理後のモーション・データを所定のファイル・フォーマット形式で出力するようにしてもよい。このような場合、例えばメモリ・スティックのような可搬型の記憶媒体を介してモーション・データ・ファイルを実ロボットへ移動することができる。
また、出力データのファイル・フォーマットの一例として、安定化処理が施された機体全体の関節角の軌跡に関するデータを、制御点と制御点間の補間式に関する情報で構成されるデータ形式としてもよい。このようなデータ・フォーマットによれば、機体全体の関節角データを時系列的に配置して構成されるデータ・フォーマットに比べ、データ・サイズの著しい削減を実現することができる。
また、前記モーション・エディタは、編集した関節角度値をコピーするために、選択された関節において、それぞれ対称的な関節角度値のコピーを行なうミラー・コピー機能と、両方向においてコピーを行なう対称コピー機能を備えていてもよい。
ミラー・コピーによれば、例えば、右腕を選んだ場合、右腕の各関節の角度値は、左腕のそれぞれ対応する関節にコピーされる。また、対称コピーは、両方向においてコピーを行なうという以外は、同様の機能を提供する。例えば、左右の腕が選択された場合、各腕の関節角度値はスワップされる。
また、運動エンジンに含まれる歩行パターン・ジェネレータは、歩行コマンド及び歩行パラメータのシーケンスから、左右両脚の足の位置と向きを表した一連の軌跡を作成するようにしてもよい。ここで言う歩行パラメータには、歩幅(step length)や、歩行周期(step cycle)、あるいはその他の幾つかのパラメータが含まれる。ここで、歩行期間中における左右両脚の歩の軌跡として歩行パターンを表現することにより、編集中の歩行パターンを扱い易くすることができる。すなわち、歩(step)毎に歩行パラメータを設定することにより、歩行パターンをデザインすることができる。例えば、歩行(walkig)やダンスなどのさまざまな歩は、適当な歩行パラメータで構成される。本発明に係る歩行パターン・ジェネレータによれば、モーションのデザイナーは、2足歩行における脚の関節の詳細な軌跡を指定する必要はない。何故ならば、ソフトウェアによる処理を実行により、これらのデータは歩行パラメータから導き出されるからである。
また、運動エンジンに含まれるモーション・スタビライザは、歩行パターンと、上体における骨盤の移動と、関節の移動を、制御サイクル毎に受信して、ZMP安定度判別規範に基づいて、安定した2足歩行を実現するような全身のモーションを計算するようにしてもよい。
脚軌跡エディタのこのような機能によって、実ロボット上で試験する前に、モーション編集システム上で、実ロボット上で実演されるものと同じモーションを観察し、そのモーションの実行可能性(feasibility)を検証することができる。
本発明に係るモーション編集システムは、モーション・データが指定されたとき、制御システムに対し、歩行コマンドのシーケンスと、骨盤のキーフレームと、上体のモーションを転送するだけでよい。何故ならば、制御システム自身で全身のモーションの詳細を決定することができるからである。このような制御システムとモーション編集システム間の協調的な設計方針により、ロボットへロードする際に転送するためのモーション・データのサイズを削減することができる。
また、前記脚軌跡エディタは、編集済みの歩行パターン中で、特定の歩についての歩行パラメータを修正することを許容するようにしてもよい。さらに、歩の修正に伴い、歩行パターン全体を自動修正する自動修正手段をさらに備えていてもよい。
歩行パターンの自動修正を実行する際、例えば、自動修正時において、変更が好ましくないようなパラメータを拘束条件としてユーザが指定することができる。また、同じ拘束条件を持つ連続した歩の集まりを「拘束グループ」として定義することができる。拘束グループ内では、修正可能な歩行パラメータが優先順位付けされており、それに基づいて自動修正処理が行なわれる。
自動修正処理手順では、原則的に、拘束グループ外の歩に影響が出ないように、できるだけ拘束グループ内で完結して処理できるように、拘束グループ内の歩に関して設定されているパラメータを、優先順位に従って処理を行なうようにする。
また、拘束グループ外の歩に影響が出る場合は、拘束グループ外の歩に設定されているパラメータの優先順位(同位が可能)に従って、可能な限り修正量が少なくなるように処理を行なう。
また、拘束条件の無い歩は、他の歩が修正されたことによって、受動的にパラメータを修正されることがある。拘束グループの前後に存在する拘束条件の無い歩がどちらも同条件である場合は、後の歩が優先的に修正される。但し、内部設定によりこの限りではない。
そして、自動修正を行なうときには、その旨をユーザ・インターフェース経由でユーザに判断と確認を要求するようにする。
また、本発明に係るモーション編集システムは、同時に複数台のロボットのモーションを作成・編集するマルチロボット編集環境をサポートしていてもよい。
このような場合、まず1台目の実ロボットのモーションを作成し、続いて残りの実ロボットのモーションを作成する際、1台目の実ロボットのモーション・データを再利用することにより、作業を著しく簡素化することができる。
そして、最終的に、フォーメーションをチェックするために、すべての実ロボットのモーション・データを脚軌跡エディタにロードしてこれらを観察し、各々のロボットの振る舞いが期待された通りかどうかを検査することができる。
また、本発明の第2の側面は、機体は上体と歩行を行なう複数の脚からなる下半身を持ち、複数の関節角を備えたロボット装置のためのモーション編集処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
前記上体並びに前記機体全体のモーションを編集するモーション編集モジュールと、
前記脚による歩行パターンや前記下半身のモーションを生成するとともに、該生成した下半身のモーションと前記モーション・エディタにより編集された上体又は前記機体全体のモーションを併合して前記機体全体の安定化処理を行なう脚軌跡編集モジュールと、
を具備することを特徴とするコンピュータ・プログラムである。
本発明の第2の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第2の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係るロボットのためのモーション編集装置又はモーション編集方法と同様の作用効果を得ることができる。
本発明によれば、実機上での実行可能性を考慮しながら動作パターンの編集を支援するロボット装置のための優れたロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、実機上で動作を確認しながら編集されたモーションを修正することができる、優れたロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラムを提供することができる。
本発明に係るモーション編集システムは、上体並びに機体全体のモーションを編集するモーション・エディタと、歩行パターンや下半身のモーションを生成して機体全体の安定化処理を行なう脚軌跡エディタからなる。脚軌跡エディタは、実ロボットに搭載されているものと同じ歩行パターン・ジェネレータとモーション・スタビライザを備える。実ロボット上で実演する前に、3Dビューア上で、モーションの作成、修正、さらには安定化処理を行なうので、実ロボットのダイナミックで且つエレガントなモーション・パフォーマンスを簡易な編集作業により実現することができる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本発明の実施形態について詳解する。
A.脚式移動ロボットの機械的構成
図1及び図2には、本発明に係る動作編集システムによる動作編集となる脚式移動ロボット100の外観構成を示している。この脚式移動ロボット100は、「人間形」又は「人間型」と呼ばれ、図示の通り、脚式移動ロボット100は、胴体部と、頭部と、左右の上肢部と、脚式移動を行う左右2足の下肢部とで構成され、例えば胴体に内蔵されている制御部(図示しない)により機体の動作を統括的にコントロールするようになっている。
左右各々の下肢は、大腿部と、膝関節と、脛部と、足首と、足平とで構成され、股関節によって体幹部の略最下端にて連結されている。また、左右各々の上肢は、上腕と、肘関節と、前腕とで構成され、肩関節によって体幹部の上方の左右各側縁にて連結されている。また、頭部は、首関節によって体幹部の略最上端中央に連結されている。
制御部は、この脚式移動ロボット100を構成する各関節アクチュエータの駆動制御や各センサ(後述)などからの外部入力を処理するコントローラ(主制御部)や、電源回路その他の周辺機器類を搭載した筐体である。制御部は、その他、遠隔操作用の通信インターフェースや通信装置を含んでいてもよい。
このように構成された脚式移動ロボット100は、制御部による全身協調的な動作制御により、2足歩行を実現することができる。かかる2足歩行は、一般に、以下に示す各動作期間に分割される歩行周期を繰り返すことによって行なわれる。すなわち、
(1)右脚を持ち上げた、左脚による単脚支持期
(2)右足が接地した両脚支持期
(3)左脚を持ち上げた、右脚による単脚支持期
(4)左足が接地した両脚支持期
脚式移動ロボット100における歩行制御は、あらかじめ下肢の目標軌道を計画し、上記の各期間において計画軌道の修正を行なうことによって実現される。すなわち、両脚支持期では、下肢軌道の修正を停止して、計画軌道に対する総修正量を用いて腰の高さを一定値で修正する。また、単脚支持期では、修正を受けた脚の足首と腰との相対位置関係を計画軌道に復帰させるように修正軌道を生成する。
歩行動作の軌道修正を始めとして、機体の姿勢安定制御には、一般に、ZMPを歩行の安定度判別の規範として用いている。ZMPによる安定度判別規範は、歩行系から路面には重力と慣性力、並びにこれらのモーメントが路面から歩行系への反作用としての床反力並びに床反力モーメントとバランスするという「ダランベールの原理」に基づく。力学的推論の帰結として、足底接地点と路面の形成する支持多角形(すなわちZMP安定領域)の内側にピッチ軸及びロール軸モーメントがゼロとなる点、すなわちZMPが存在する。この場合、ZMPに対する偏差を小さくするための位置、速度、及び加速度が連続となるように、5次多項式を用いた補間計算により行なう。
図3には、この脚式移動ロボット100が具備する関節自由度構成を模式的に示している。同図に示すように、脚式移動ロボット100は、2本の腕部と頭部1を含む上肢と、移動動作を実現する2本の脚部からなる下肢と、上肢と下肢とを連結する体幹部とで構成された、複数の肢を備えた構造体である。
頭部を支持する首関節(Neck)は、首関節ヨー軸1と、首関節ピッチ軸2と、首関節ロール軸3という3自由度を有している。
また、各腕部は、その自由度として、肩(Shoulder)における肩関節ピッチ軸4と、肩関節ロール軸5と、上腕ヨー軸6、肘(Elbow)における肘関節ピッチ軸7と、手首(Wrist)における手首関節ヨー軸8と、手部とで構成される。手部は、実際には、複数本の指を含む多関節・多自由度構造体である。
また、体幹部(Trunk)は、体幹ピッチ軸9と、体幹ロール軸10という2自由度を有する。
また、下肢を構成する各々の脚部は、股関節(Hip)における股関節ヨー軸11と、股関節ピッチ軸12と、股関節ロール軸13と、膝(Knee)における膝関節ピッチ軸14と、足首(Ankle)における足首関節ピッチ軸15と、足首関節ロール軸16と、足部とで構成される。
但し、エンタティンメント向けの脚式移動ロボット100が上述したすべての自由度を装備しなければならない訳でも、あるいはこれに限定される訳でもない。設計・製作上の制約条件や要求仕様などに応じて、自由度すなわち関節数を適宜増減することができることは言うまでもない。
上述したような脚式移動ロボット100が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行なうことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。本実施形態では、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニットに内蔵したタイプの小型ACサーボ・アクチュエータを搭載することとした(この種のACサーボ・アクチュエータに関しては、例えば本出願人に既に譲渡されている特開2000−299970号公報に開示されている)。本実施形態では、直結ギアとして低減速ギアを採用することにより、人間との物理的インタラクションを重視するタイプのロボット100に求められている駆動系自身の受動的特性を得ている。
B.脚式移動ロボットの制御システム構成
図4には、脚式移動ロボット100の制御システム構成を模式的に示している。同図に示すように、脚式移動ロボット100は、ヒトの四肢を表現した各機構ユニット30、40、50R/L、60R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行なう制御ユニット80とで構成される(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下同様)。
脚式移動ロボット100全体の動作は、制御ユニット80によって統括的に制御される。制御ユニット80は、CPU(Central Processing Unit)やメモリなどの主要回路コンポーネント(図示しない)で構成される主制御部81と、電源回路やロボット100の各構成要素とのデータやコマンドの授受を行なうインターフェース(いずれも図示しない)などを含んだ周辺回路82とで構成される。
本発明を実現する上で、この制御ユニット80の設置場所は特に限定されない。図4では体幹部ユニット40に搭載されているが、頭部ユニット30に搭載してもよい。あるいは、脚式移動ロボット100外に制御ユニット80を配備して、脚式移動ロボット100の機体とは有線若しくは無線で交信するようにしてもよい。
図3に示した脚式移動ロボット100内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット30には、首関節ヨー軸1、第1及び第2の首関節ピッチ軸2A及び2B、首関節ロール軸3の各々を表現する首関節ヨー軸アクチュエータA1、首関節ピッチ軸アクチュエータA2A及びA2B、首関節ロール軸アクチュエータA3が配設されている。
また、体幹部ユニット40には、体幹ピッチ軸9、体幹ロール軸10の各々を表現する体幹ピッチ軸アクチュエータA9、体幹ロール軸アクチュエータA10が配備されている。
また、腕部ユニット50R/Lは、上腕ユニット51R/Lと、肘関節ユニット52R/Lと、前腕ユニット53R/Lに細分化されるが、肩関節ピッチ軸4、肩関節ロール軸5、上腕ヨー軸6、肘関節ピッチ軸7、手首関節ヨー軸8の各々を表現する肩関節ピッチ軸アクチュエータA4、肩関節ロール軸アクチュエータA5、上腕ヨー軸アクチュエータA6、肘関節ピッチ軸アクチュエータA7、手首関節ヨー軸アクチュエータA8が配備されている。
また、脚部ユニット60R/Lは、大腿部ユニット61R/Lと、膝ユニット62R/Lと、脛部ユニット63R/Lに細分化されるが、股関節ヨー軸11、股関節ピッチ軸12、股関節ロール軸13、膝関節ピッチ軸14、足首関節ピッチ軸15、足首関節ロール軸16の各々を表現する股関節ヨー軸アクチュエータA11、股関節ピッチ軸アクチュエータA12、股関節ロール軸アクチュエータA13、膝関節ピッチ軸アクチュエータA14、足首関節ピッチ軸アクチュエータA15、足首関節ロール軸アクチュエータA16がそれぞれ配備されている。
各関節に用いられるアクチュエータA1、A2、A3…は、より好ましくは、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータ(前述)で構成することができる。
頭部ユニット30、体幹部ユニット40、腕部ユニット50、各脚部ユニット60などの機構ユニット毎に、アクチュエータ駆動制御用の副制御部35、45、55、65が配備されている。
機体の体幹部40には、加速度センサ95と姿勢センサ96が配設されている。加速度センサ95は、X,Y,Z各軸方向に配置する。機体の腰部に加速度センサ95を配設することによって、質量操作量が大きな部位である腰部を制御目標点として設定して、その位置における姿勢や加速度を直接計測して、ZMPに基づく姿勢安定制御を行なうことができる。
また、各脚部60R、60Lには、接地確認センサ91及び92と、加速度センサ93及び94がそれぞれ配設されている。接地確認センサ91及び92は、例えば足底に圧力センサを装着することにより構成され、床反力の有無により足底が着床したか否かを検出することができる。また、加速度センサ93及び94は、少なくともX及びYの各軸方向に配置する。このように左右の足部に加速度センサ93及び94を配設することにより、ZMP釣合い方程式を組み立てるために必要な加速度などのパラメータをZMP位置に最も近い足部で直接獲得することができる(後述)。
質量操作量が大きな部位である腰部にのみ加速度センサを配置した場合、腰部のみが制御目標点に設定され、足部の状態は、この制御目標点の計算結果を基に相対的に算出しなければならず、足部と路面との間では以下の条件を満たすことが、前提となってしまう。
(1)路面はどんな力やトルクが作用しても動くことがない。
(2)路面での並進に対する摩擦係数は充分に大きく、滑りが生じない。
これに対し、本実施形態では、路面との接触部位である足部にZMPと力を直接する反力センサ・システム(床反力センサなど)を配備するとともに、制御に用いるローカル座標とその座標を直接的に計測するための加速度センサを配設する。この結果、ZMP位置に最も近い足部で直接ZMP釣合い方程式を組み立てることができ、上述したような前提条件に依存しない、より厳密な姿勢安定制御を高速で実現することができる。この結果、力やトルクが作用すると路面が動いてしまう砂利上や毛足の長い絨毯上や、並進の摩擦係数が充分に確保できずに滑りが生じ易い住居のタイルなどであっても、機体の安定歩行(運動)を保証することができる。
主制御部80は、各センサ91〜93の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部35、45、55、65の各々に対して適応的な制御を行ない、脚式移動ロボット100の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現する。
ロボット100の機体上での全身運動は、足部運動、ZMP軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容に従った動作を指示するコマンドを各副制御部35、45、55、65に転送する。そして、各々の副制御部35、45…では、主制御部81からの受信コマンドを解釈して、各アクチュエータA1、A2、A3…に対して駆動制御信号を出力する。ここで、ZMPは歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、ZMP軌道とは、例えばロボット100の歩行動作期間中にZMPが動く軌跡を意味する。
本実施形態に係るロボット100は、人間形のエンタティンメント指向のロボットであり、ダイナミックで且つエレガントなパフォーマンスを実演することができる。このようなパフォーマンスは、ロボット向けの小型でインテリジェントなアクチュエータと、全身協調型で実時間の適応的運動制御を行なう制御システム(Real−time Integrated Adaptive Motion Control)によって実現される。
この制御システムによれば、歩行パターンを実時間で生成するとともに、ZMP方程式を用いて脚部のモーション並びに全身のモーションを安定化することができる。このような全身協調型の制御は、運動エンジン(Locomotion Engine)と呼ばれるソフトウェア・モジュールに統合されている。Locomotion Engineは、歩行コマンドや上体の関節角、骨盤の位置や向きを制御周期毎に他のソフトウェア・モジュールから受信して、すべての関節角についての参照角を生成する。また、Locomotion Engineは、未知の不整地や外力に適応するために、センサ値を用いて全身のモーションを安定化する。
C.モーション編集システム
ダイナミックで且つエレガントなパフォーマンスは、ロボット向けの小型でインテリジェントなアクチュエータと、全身協調型で実時間の適応的運動制御を行なう制御システムによって実現される。モーション制御を支援するために、本発明者らは、このようなロボットに適用可能で、一般的なパーソナル・コンピュータ上でも動作するモーション編集システムを開発した。このモーション編集システムが提供する環境下では、エンジニアやデザイナー、さらにはアーティストなどロボットの専門家以外の人達であっても、ロボットのクリエイティブなモーション・パフォーマンスを制作することができる。
本発明に係るモーション編集システムは、例えば、ロボット100の上体(upper body)のモーション並びに機体全体のモーションを編集する「モーション・エディタ(Motion Editor)」と、姿勢安定化処理(Stabilize)が施された下半身(lower body)のモーションを編集する「脚軌跡エディタ(Foot Trajectory Editor)」の2部で構成される(後述)。
実ロボットには、運動エンジン(Locomotion Engine)と呼ばれるソフトウェア・モジュールが搭載されており、全身協調型の制御により、歩行パターンを実時間で生成するとともに、ZMP方程式を用いて脚部のモーション並びに全身のモーションを安定化することができる(前述)。これに対し、モーション編集システムは、このような実ロボットと密接な協働動作を行なうようにデザインされている。
このモーション編集システムによれば、モーションのデザイナーは、ロボットの上体及び下半身のモーションが一旦生成した後、実機上で再生する前に、機体モーション全体を検査することができる。したがって、このようなモーションの編集・生成作業を通して、アップテンポなダンス・パフォーマンスなどのアトラクティブなロボットのアプリケーションを実現することかできる。
本実施形態に係るモーション編集システムは、リッチなユーザ・インターフェースを備え、安定した2足歩行を始めとし、音楽に同期したダンス・パフォーマンスなど、さまざまなモーションを生成し、編集することに適している。モーション生成には、実ロボットに搭載されているものと同じ歩行パターン生成処理と姿勢安定化処理を取り入れているので、実ロボット上で正確に作動する行動を生成することができる。
例えば、機体の3Dアニメーション・キャラクタを介してポーズを指示するためのユーザ・インターフェースを備えている。図5には、その画面構成例を示している。
オペレータは、図示の3Dビューア画面に表示されている3Dキャラクタ上で指定された部位をマウスでドラッグすることにより、その部位に所望の動きを与えることができる。
このビューア画面の左側縁には、カメラ・モード・ボタンが配設されており、”Front”、”Back”、”Left”、”Right”、”Top”、”Bottom”など、3Dキャラクタを眺める(表示する)向きを指定することができる。
また、ビューア画面の下端縁には、部位指定ボタンが配置されており、オペレータは、これらのうちいずれかを押すことによって、動きを与えたい部位を指定することができる。図示の例では、左から順に、左腕、右腕、左脚、右脚を指定するボタンが配設されている。また、A、B、Cの各ボタンの定義はユーザ・プログラブルであり、オペレータは2以上の部位を同時指定する場合のショートカット・ボタンとして利用することができる。
また、ビューア画面の左下端には、IK(逆キネマティクス)ボタンが配設されている。このIKボタンを選択すると、図6に示すようなIK関節角グループ化ウィンドウが出現する。
このIK関節角グループ化ウィンドウ内では、機体の関節自由度構成が描かれており、オペレータはポーズを変更したい部位を直接クリックすることによって指定することができる。あるいは、画面右端縁に沿って配設された部位指定ボタンを利用して、グループ化したい部位を選択することもできる。
また、同ウィンドウの上方には、IK関節角グループの属性を指定するためのチェック・ボックスが配設されている。
“Maintain End Effect Orientation”をチェックすることにより、脚部を操作するときの足底の姿勢を維持するようにすることができる。
また、“Move X/Move Y/Move Z”をチェックすることにより、3Dキャラクタの指定部位を操作するときの操作方向を各方向に限定することができる。
このようにポーズを変更したい部位を指定した後、図5に示す3Dビューア画面に戻って、3Dキャラクタ上で指定された部位をマウスでドラッグすることにより、ポーズを変更する。図7には、左右両足を変更部位として指定した後、3Dキャラクタを用いてポーズを変更する様子を描いている。この場合、オペレータは、例えば股関節付近をマウス・カーソルでつかんで、画面上を上下左右に走査することができる。図7に示す例では、オペレータが印加する操作に応じて、足底の位置や姿勢を変化させずに、腰の位置や姿勢だけを変化させている。
逆キネマティクスによるポーズ指定方式は、ポーズを変更したい部位を指定した後、実ロボットをシミュレーションした3Dキャラクタ上の指定部位に動きを与える。指定部位の操作には、マウスのドラッグなどの機能を利用することができる。そして、指定部位を動作後、逆キネマティクスにより、画面上のポーズを形成するための各関節角の変位量が算出される。
また、ポーズの入力方式として、機体の3Dアニメーション・キャラクタを介して指示されたポーズから逆キネマティクスにより各関節軸の変位角を求めるという上述の方式の他に、各関節軸の変位角の直接入力する方法も備えている。
後者の直接入力方式では、例えば図8に示すような入力画面を用いてポーズを指示することができる。同図に示す画面では、機体の関節自由度構成に沿って関節角入力ボックスが配設されているので、オペレータは所望の関節付近の入力ボックス内にマウスでカーソルを置いた後、キーボードを使って所望の値を与えることができる。また、入力ボックスの右端の“+”ボタンをクリックすることによって、既に入力されている値をインクリメントすることができる。入力ボックスに新しい値を書き込むと、現在実行中のポーズとして保管される。また、逆キネマティクスによるポーズ指定方式により得られた関節角の算出値も、図8に示した変位角指定画面の入力ボックスに反映される。
なお、直接入力方式の場合、図8に示すような入力画面上でユーザのマニュアル入力に頼る以外に、モーション・キャプチャや、実機上でのダイレクト・ティーチングにより得られた各関節角の変位量を入力データとして用いることもできる。
図9には、本発明の一実施形態に係るモーション編集システムの機能構成を模式的に示している。
モーション編集システムは、主に、ロボット100の上体(upper body)のモーション並びに機体全体のモーションを編集する「モーション・エディタ(Motion Editor)」と、姿勢安定化処理(Stabilize)が施された下半身(lower body)のモーションを編集する「脚軌跡エディタ(Foot Trajectory Editor)」の2部で構成される。
脚軌跡エディタは、実ロボット制御用のモーション・データを生成するための2つの主要な機能を備えている。1つの機能は歩行パターン・ジェネレータ(Gait Pattern Generator)であり、他の一つの機能はモーション・スタビライザ(Motion Satbilizer)である。
図10には、このモーション編集システムにより実ロボットのモーションを生成するための処理手順をフローチャートの形式で示している。
モーションのデザインに関するコンセプトが一旦出来上がると(ステップS1)、プロジェクト・マネージャ経由でモーション・エディタを起動することができる(ステップS2)。
モーション・エディタによれば、各ポーズ(姿勢)の設定並びにポーズ間の遷移を逐次入力していくことで、実ロボットの上体のモーション、並びに全身のモーションを生成することができる。ここで、実ロボットのアトラクティブなポーズを生成し修正するために、順キネマティクス及び逆キネマティクスの両方が用いられる。
生成されたモーションは、3Dウィンドウ画面上で再生され、ユーザはこれを確認することができる。
次いで、脚軌跡エディタ内の歩行パターン・ジェネレータは、2足歩行における下半身のモーションである歩行パターンを生成する(ステップS3)。
そして、ユーザがモーション・エディタを用いて上体のモーション・データを生成するとともに、脚軌跡エディタを用いて下半身のモーション・データを生成し終えると、これらのモーションの組は併合される(ステップS4)。
モーション・スタビライザは、併合された全身のモーションを、姿勢安定化が可能であるか、あるいは実ロボットのモーション制御に適用することができるかによって評価する(ステップS5)。そして、評価に合格すると(ステップS6)、出力される(ステップS7)。
このようなモーション編集システムによる編集結果は、所定フォーマットのモーション・ファイルとして保管される。このモーション・ファイルを脚式移動ロボットにインストールすることによって、実機動作によりモーションを再生することができる。
D.モーション・エディタ
D−1.タイムライン上での編集
モーション・エディタは、オペレータから入力された機体のポーズに従って、ポーズ間の動きの補間などを行ない、モーションを編集する。このとき、2以上のポーズをタイムライン上で時系列的に組み合わせていくだけでなく、部位毎に編集されたポーズを並列的に組み合わせることも可能である。
ここで、タイムラインは、複数の機能ボタンや、時間や複数のトラックを操作するためのコントロールを備えている。ここで言う複数のトラックには、モーションのトラック、関節のリミット・エラー・トラック、オーディオ・トラックなどが含まれる。機体上の異なる部位におけるモーションを別々のモーション・トラックに割り当ててタイムラインを構成することもできる(後述並びに図11、図12を参照のこと)。各トラックは、首関節群、右腕の関節群、左腕の関節群といった具合に、機体上の異なる部位グループに関連している。同じ関節のモーションについて2以上のトラックで規定されている場合には、より上位に配置されているトラックが優先される。図5に示したような3Dウィンドウ画面には、すべてのトラックの中から優先付けされたモーション・データを用いてシミュレートされたものが表示される。
図5に示すような3Dビューア画面上で指示され逆キネマティクスにより求められたポーズ、あるいは、図8に示すような関節軸の変位角入力画面により指定されたポーズ、トラック上に逐次配置されていく。図11には、あるトラック上に複数のポーズが時系列的に配置されている様子を示している。
トラックの横軸は時間軸に相当する。作成されたポーズを表わすアイコンが、トラック上でデフォルト間隔をおいて順次配置されていく。トラック上でアイコンを水平方向にドラッグすることにより、ポーズの再生時刻をスライドさせることができる。隣接するポーズ間は、例えば線形補間やスプライン補間などの手法を用いて補間されて、モーションとなる。
1つのトラック上では、指定部位が同じポーズしか扱われない。すなわち、IK関節角グループ毎にトラックが用意される。例えば、あるトラック上で右腕を指定部位としたポーズからなるモーションを編集中に、左脚を指定部位とするポーズが入力されてきた場合(あるいは、右腕以外の部位、又は右腕とともにそれ以外の部位が指定されている場合)、別のトラックに登録される。
図12には、IK関節角グループ毎にトラックが配設されている様子を示している。各トラックは、該当するIK関節角グループにおいて規定されたポーズからなるモーションを取り扱う。図示の例では、上から順に、右腕、左脚、左脚、…、全身の順にトラックが配置されている。
優先順位に従って上からトラックが配置されるようになっている。図示のようにトラック単位すなわちIK関節角グループ単位でポーズの作成を行なった後、再生を行なうと、優先順位に従って機体動作の再生が行なわれる。
図12に示す例では、優先順位の高い右腕のポーズの発現が優先される。次いで、左脚のポーズの発現が優先されるが、右腕と左脚とでは機体ハードウェアの干渉はないので、左脚のポーズはほぼそのまま再生されることになる。
また、左脚をIK関節角グループとするトラックがさらに続いた場合には、優先順位が上位のトラックと緩衝するので、モーション再生時にこのトラックのポーズは発現されない。
また、全身を指定部位とするトラックが続く場合、右腕、左脚など優先するトラックと競合しない範囲でポーズの発現が行なわれる。
このようなトラック毎に部位単位でのポーズの編集を許容するようなシステムにおいては、高優先順位のトラックを特定の部位に割り当て、上半身や下半身、全身など比較的大きな部位の組み合わせのポーズ編集には低優先順位のトラックを使用することが、編集作業の効率上好ましいと思料される。
D−2.ポーズ間の補間
モーション・エディタを用いて編集を行なう1つの形態として、まずポーズを作成し、続いてポーズ間の補間(interpolate)を行なう。各トラック上でポーズを設定するとともに補間を行なうことによって、多くのさまざまなモーションを簡単に作成することができる。この手法によれば、関節角が複雑な軌跡を描く場合であっても、モーションを容易に作成することができる。
本実施形態に係るモーション・エディタは、線形補間、多項式(polynomial)補間、立方スプライン(cubic spline)など、幾つかの補間機能を備えている。それぞれの補間機能により、分散的に編集された個々のポーズを、単一の連続したモーションへと滑らかに接続することができる。
ポーズは、実ロボットを構成するすべての関節で構成されるが、モーション・トラック上でイネーブルされた関節角度のみが、実際のモーションに影響する。
D−3.関節角のリミットと関節角速度リミット
タイムライン上で生成される複雑な関節角の軌跡を実現しようとする際、実ロボットにおける関節角のリミットや関節角速度のリミットを越えてしまうこともある。モーションのデザイン上、このようなリミットを違反しないように検出する手段は重要である。
本実施形態に係るモーション・エディタは、タイムラインに沿って、このようなリミットを違反したすべての時点を視覚的にフィードバックすることができる、関節角リミット並びに関節角速度リミットのチェック機能を備えている。すべての関節角についてのリミット値は、リミット設定ファイルに格納されている。
D−4.モーションの混合
ある時刻におけるモーションから他の時刻におけるモーションまでが滑らかに組み合わされた一連のモーションを作成したいという場合がある。
本実施形態に係るモーション・エディタは、この目的のため、さまざまなモーション混合(Blend)機能を備えている。線形混合機能は、混合比を線形的に増大または現象さながら、2つのモーションのオーバーラップを組み合わせるために適用される。境界において位置だけでなく速度や加速度が滑らかに接続するような混合機能も装備している。
D−5.姿勢編集
本実施形態に係るモーション・エディタは、関節角度値をコピーするための2タイプの機能を備えている。1つはミラー・コピー機能であり、もう1つは対称コピーである。
ミラー・コピーによれば、選択された関節において、それぞれ対称的な関節角度値のコピーを行なうことができる。例えば、右腕を選んだ場合、右腕の各関節の角度値は、左腕のそれぞれ対応する関節にコピーされる。
また、対称コピーは、両方向においてコピーを行なうという以外は、同様の機能を提供する。例えば、左右の腕が選択された場合、各腕の関節角度値はスワップされる。
D−6.関節編集(Joint Editor)
関節編集ウィンドウ内では、指やこれらの関節角度値を含んだほぼすべての関節が表示される(図8を参照のこと)。関節角度値を編集する方法は2種類ある。1つは、関節角度値を直接入力する方法であり、もう1つは、ポップアップ・スライダを利用して入力する方法である。後者の場合、複数のスライダを同時に表示することにより、ポーズ作成を簡素化することができる。関節編集ウィンドウに、角度リミッタ違反を表示することもできる。
D−7.直接編集(Direct Editing)
モーション・エディタのポーズ編集モードでは、図5に示したような3Dビューア上で操作して、関節角やロボットの姿勢の修正を直接的に行なうことができる。ある関節を選択したとき、その関節についての自由度がグラフィック・リング状のハンドルとともに表示される(図13を参照のこと)。このリング・ハンドル上でマウスのクリックとマウスのドラッグを行なうだけで、ポーズ編集を行なうことができる。
また、IK(逆キネマティクス)編集モードでは、3Dビューア・ウィンドウ内で、画面上でシミュレートされたロボットの肢や連鎖の終点位置や方向を操作することができる(図14を参照のこと)。逆キネマティクス並びにポーズ編集モードを用いたこれらの操作手順によって得られたポーズは、タイムライン(図12を参照のこと)上で表示される。
D−8.3Dビューアの特徴
3Dビューア画面上では、直接入力に加え、モーションをプレイバックさせて観察することができる。すなわち、タイムライン・ウィンドウ上で、プレイバックの始点と終点を設定し、プレイバック速度を調整する。
また、3Dビューアには、カメラ・モード・ボタンが配設されている。幾つかのカメラ・ビューを、そのときのカメラの配置、注視点、視野などとともに保存することができる。例えば、注視点がロボットの右手に設定されている場合、モーションを再生すると、右手が常に3Dビューア画面の中心に設定される。このような機能によれば、作成または編集したモーションをより精緻に観察することができる。
編集されたポーズやモーションは、一種の資産として、ポーズ・データ・ファイルやモーション・データ・ファイルとして保存され、ライブラリ化され、複数のプロジェクトにまたがって効率的に再利用することができる。
E.脚軌跡エディタ(Foot Trajectory Editor)
E−1.歩行パターン・ジェネレータ及びモーション・スタビライザ
脚軌跡エディタの特徴の1つとして、実ロボット上に搭載されているものと同じ歩行パターン・ジェネレータと実時間モーション・スタビライザを装備している、という点を挙げることができる。
歩行パターン・ジェネレータ(Gait Pattern Generator)は、歩行コマンド及び歩行パラメータのシーケンスから、左右両脚の足の位置と向きを表した一連の軌跡を作成する。軌跡は、当該歩行期間中の両脚の歩(step:足跡に相当)の軌跡として表される。ここで言う歩行パラメータには、歩幅(step length)や、歩行周期(step cycle)、あるいはその他の幾つかのパラメータが含まれる(後述)。
実時間モーション・スタビライザ(Real−time Motion Stabilizer)は、歩行パターンと、上体における骨盤の移動と、関節の移動を、制御サイクル毎に受信して、ZMP安定度判別規範に基づいて、安定した2足歩行を実現するような対応する全身のモーションを計算する。
脚軌跡エディタのこのような機能によって、実ロボット上で試験する前に、モーション編集システム上で、実ロボット上で実演されるものと同じモーションを観察し、そのモーションの実行可能性(feasibility)を検証することができる。
モーション編集システムは、モーション・データが指定されたとき、制御システムに対し、歩行コマンドのシーケンスと、骨盤のキーフレームと、上体のモーションを転送するだけでよい。何故ならば、制御システム自身で全身のモーションの詳細を決定することができるからである。このような制御システムとモーション編集システム間の協調的な設計方針により、ロボットへロードする際に転送するためのモーション・データのサイズを削減することができる。
E−2.歩行パターンの設計
歩(step)毎に歩行パラメータを設定することにより、歩行パターンをデザインすることができる。例えば、歩行(walkig)やダンスなどのさまざまな歩は、適当な歩行パラメータで構成される。
本実施形態に係る歩行パターン・ジェネレータによって取り扱うことができる歩行パラメータを以下に例示しておく。
(1)歩行周期ω[sec/step]:一歩の時間
(2)両脚支持割合d[%]:一歩の中に占める両脚支持の割合
図15には、両脚支持割合を変化させたときにおける片脚の軌跡の相違を示している。
(3)前後歩幅x[m]:X軸方向の歩幅
(4)左右歩幅y[m]:Y軸方向の歩幅
(5)旋回角θ[deg]
ここで、1歩とは、一方の脚の足底が着地してから他方の脚の足底が着地するまでの動作を指す。また、歩幅は、一歩で移動した距離に相当する。前後歩幅をx、左右歩幅をy(図16を参照のこと)、旋回角をθとおくと、例えば右足を一歩移動させたときは図17に示す通りとなる。
(6)着床高さl[m]:遊脚の立脚位置から着床位置までの高さ(物体の上に足を置くなど)
(7)脚上げ高さh[m]:着床位置から脚を上げる高さ
図18には、1歩を行なう際の着床高さlと脚上げ高さhを示している。
(8)遊脚指定[Right foot or Left foot]:遊脚となる脚の指定
(9)支持脚維持指定[True or False]
(10)ZMP軌道通過点[ZMP1(t1,x1,y1,z1),ZMP2(t2,x2,y2,z2),…,ZMPn(tn,xn,yn,zn)]:離床片着床までの時間内の任意の時間t1,t2,…,tnにおける、支持脚足底座標系を基準とするZMP軌道の通過する1以上の点
(11)ZMP軌道通過点指定[True or False]:ZMP起動通過点で示される点の通過指定
(12)停止指定[True or False]:Trueの場合、ZMP軌道を両足底の中間に収束させる。
(13)方向θ': あるグローバルな位置を基準にした向き(図19を参照のこと)
(14)方向指定[True or False]
歩行パターンを作成し編集する作業には、歩毎に適当な歩行パラメータを入力し、これらを時間軸上に配置することが含まれる。本実施形態に係る歩行パターン・ジェネレータによれば、モーションのデザイナーは、2足歩行における脚の関節の詳細な軌跡を指定する必要はない。何故ならば、ソフトウェアによる処理を実行により、これらのデータは歩行パラメータから導き出されるからである。
図20並びに図21には、歩行パターン・ジェネレータによる歩行パターンの編集作業画面の構成例を示している。同図に示すように、デザインされた歩行パラメータは、タイムライン・ウィンドウ内で表示され、ロボットの下半身のモーションは3Dビューア内で表示される。以下、この編集画面の構成について説明する。
(1)標準ツールバー:
図20中において参照番号1で示される領域には、編集データのSaveやLoad、編集のUndoやRedoなどの指示を行なうツール・ボタンが配列されている。
(2)再生ツールバー:
図20中において参照番号2で示される領域には、編集したデータを時間軸に沿って再生、停止、スロー再生、コマ送り、指定した範囲の再生などを支持するためのツール・ボタンが配列されている。
(3)3Dビューア:
図20中において参照番号3で示される領域は、編集したモーション・データを表示し確認するためのウィンドウである。現在指定されている時刻におけるロボットの状態が3Dキャラクタとして表示される。この3D画面では、表示位置、回転、拡大を自由に指定し、ロボット任意の角度や大きさで表示することができる。また、再生などで時刻が変化すると、刻々と3D表示が更新され、ロボットのモーションを確認することができる。
(4)ロボットの状態表示ウィンドウ:
図20中において参照番号4で示される領域は、現時刻の3D表示ウィンドウで表示されているロボットの状態を表示するウィンドウである。図示の例では、機体の各関節角、角速度、角加速度、世界座標系から見たロボットの位置姿勢、足底の位置姿勢などが表示される。また、再生などで時刻が変化すると、これらの値の表示も時々刻々と更新される。
(5)タイムライン・ウィンドウ:
図20中において参照番号5で示される領域は、歩の編集内容を時系列に表示するウィンドウである。ウィンドウ内で左から右に向かって時刻スケジュールが進行する。時刻スケジュールのスケールは自由に変更することができる。このタイムライン・ウィンドウ内では、上下2本の帯状のタイムラインが表示されているが、上側のタイムラインで左足の歩を表示し、下側のタイムラインで右足の歩を表示する。すなわち、各タイムライン上の該当する時刻に1歩に相当する四角いブロックを配置することで、歩を表現している。例えば、10歩の編集データがあった場合には、10個のブロックがタイムライン上に配置される。
図22には、タイムライン・ウィンドウを拡大して示している。同図に示す例では、最初の5秒で5歩だけ歩き、5秒から10秒の間静止し、さらに10秒から5秒間で5歩だけ歩くという編集内容が表示されている。ここで、5秒から10秒の間は、歩を生成せず静止状態を維持するという意味を持つ。歩を生成しない区間を明示的に表示するために、タイムライン編集では、歩の他にポーズ(静止)という概念を導入している。歩行パターンの編集作業画面上では、歩は図23に示すアイコンで表示され、静止は図24に示すアイコンで表示される。
図21には、歩を編集するために必要なコマンドやボタン、ウィンドウを追加したときにおける歩行パターンの編集作業画面の構成例を示している。
挿入ボタンは、現在時刻(タイムライン上で現在注目している時点)で歩又は静止を挿入したいことを指定するためのボタンであり、これを利用した挿入操作を行なうことにより、タイムライン上では現在時刻に歩又は静止が挿入された表示に更新される。また、追加ボタンは、タイムラインの最後尾に歩又は静止を追加したいことを指定するためのボタンであり、これを利用した追加操作により、タイムライン上では最後尾に歩又は静止が追加された表示に更新される。
(6)歩生成ウィンドウ:
図21中において参照番号6で示される領域は、歩を生成するためのウィンドウであり、歩行パラメータの入力フィールドが配列されている。このウィンドウを介して、歩を生成するためのパラメータを自由に設定した後、同ウィンドウ下部の挿入ボタン又は追加ボタン(前述)を押下することで、歩が追加される。追加された歩は、即座にタイムライン・ウィンドウ及び3D表示ウィンドウへ反映される。
(7)パラメータ・ウィンドウ:
図21中において参照番号7で示される領域は、タイムライン上で選択された歩のパラメータが表示されるパラメータ・ウィンドウである。ここでパラメータを変更すると、即座にタイムライン・ウィンドウ及び3D表示ウィンドウへ反映される。また、パラメータ・ウィンドウでは、歩の時刻を編集することができる。すなわち、移動先又はコピー先の時刻を入力することで、歩の時刻スケジュールに対して移動やコピーを行なうことができる。
なお、脚軌跡エディタでは、大まかに歩行パターンを作成するために、「パス・プランニング」という機能も用意されている。この場合、歩行パターンの最初の歩の位置と方向、一部の経由位置と方向、最後の位置と方向、及び次経由または最後の位置までの歩数と時間を指定することにより、最短距離での歩行プランニングを行なうことができる。経由位置と方向のポイントは複数設定することができる。また、経由位置と方向は省略することができる。図25には、1点の経由ポイントを設定した場合のプランニング結果を示している。
E−3.歩の変更に伴う自動修正
脚軌跡エディタでは、図20及び図21に示したような編集画面を介して、歩毎の歩行パラメータを設定することにより歩行パターンを作成・編集することができるとともに、さらにパラメータ・ウィンドウを介して編集済みの歩行パターン中において特定の歩についての歩行パラメータを修正することが許容される。さらに、歩の修正に伴い、歩行パターン全体を自動修正する機能を備えている。
歩行パターンの自動修正を実行する際、例えば、自動修正時において、変更が好ましくないようなパラメータを拘束条件としてユーザが指定することができる。また、同じ拘束条件を持つ連続した歩の集まりを「拘束グループ」として定義することができる。拘束グループ内では、修正可能な歩行パラメータが優先順位付けされており、それに基づいて自動修正処理が行なわれる。主な拘束条件を以下に例示しておく。
(1)歩行周期拘束
(2)両脚支持割合拘束
(3)歩幅拘束
(4)着床高さ拘束
(5)脚上げ高さ拘束
(6)旋回角拘束
(7)遊脚拘束
(8)支持脚維持拘束
(9)ZMP通過点拘束
(10)方向拘束(拘束指定持に、現方向で拘束又は設定されている方向で拘束するかを選択する)
(11)絶対位置拘束
(12)絶対時間拘束
(13)相対位置拘束
(14)相対時間拘束
上記の拘束条件のうち、相対位置拘束と相対時間拘束については、拘束グループを指定することが許容されている。また、拘束グループの編集制限として、拘束条件を持つ歩又は拘束グループ型の拘束グループにコピー(挿入)された場合には、挿入先の拘束グループの属性となる。
図26には、編集された歩行パターンを歩の軌跡で示すとともに、歩行パターンに対して拘束条件を設定しているタイムラインのイメージを併せて示している。
また、歩行パターンの自動修正を実行する際、上記の拘束条件とともに、実ロボットの物理的・機械的仕様上好ましくない又は不可能とされているような制限事項も考慮される。ここで言う制限事項には、例えば、関節角度リミットや、角速度リミット、角加速度リミットなどが挙げられる。
図27には、拘束条件を設定し、拘束条件のある1以上の歩のグループに対して歩を挿入、削除又は移動を行なった後に実行される、歩行パターンの自動修正処理手順をフローチャートの形式で示している。
歩の挿入、削除、移動、又は設定変更が行なわれると(ステップS11)、歩が挿入又は削除された拘束グループとその前後の拘束グループ(但し、存在する場合)の関係に基づいて、影響を受けるすべての歩を自動修正する(ステップS12)。
次いで、すべての歩が拘束条件と制限事項を満たすかどうかをチェックする(ステップS13)。ここで、すべての歩が拘束条件と制限事項を満たす場合には、続いて、自動修正を行なうかどうかをチェックする(ステップS20)。自動修正を行なわない場合には、編集を元に戻す(ステップS18)。そして、ユーザが編集を終了するかどうかを訊ね(ステップS21)、編集終了を指定した場合には本処理ルーチン全体を終了し、終了しない場合には、ステップS11に戻り、歩がさらに挿入、削除、移動、又は設定変更されたときの処理を続けて行なう。
一方、拘束条件又は制限事項を満たさない歩がある場合には、拘束条件と制限事項を満足させる案(歩の追加又は削除)を生成してこれをユーザに提示する(ステップS14)。
ユーザが提示案を選択した場合には(ステップS15)、提示案の選択及び修正の実行を行なう(ステップS19)。そして、ユーザが編集を終了するかどうかを訊ね(ステップS21)、編集終了を指定した場合には本処理ルーチン全体を終了し、終了しない場合には、ステップS11に戻り、歩がさらに挿入、削除、移動、又は設定変更されたときの処理を続けて行なう。
ユーザが提示案を選択しない場合には(ステップS15)、開放させる拘束条件の案をユーザに提示する(ステップS16)。そして、この提示案をユーザが選択した場合には(ステップS17)、提示案の選択及び修正の実行を行なう(ステップS19)。そして、ユーザが編集を終了するかどうかを訊ね(ステップS21)、編集終了を指定した場合には本処理ルーチン全体を終了し、終了しない場合には、ステップS11に戻り、歩がさらに挿入、削除、移動、又は設定変更されたときの処理を続けて行なう。
また、ユーザが提示案を選択しない場合には(ステップS17)、編集を元に戻す(ステップS18)。そして、ユーザが編集を終了するかどうかを訊ね(ステップS21)、編集終了を指定した場合には本処理ルーチン全体を終了し、終了しない場合には、ステップS11に戻り、歩がさらに挿入、削除、移動、又は設定変更されたときの処理を続けて行なう。
上述した歩の自動修正処理手順では、原則的に、拘束グループ外の歩に影響が出ないように、できるだけ拘束グループ内で完結して処理できるように、拘束グループ内の歩に関して設定されているパラメータを、優先順位に従って処理を行なうようにする。
また、拘束グループ外の歩に影響が出る場合は、拘束グループ外の歩に設定されているパラメータの優先順位(同位が可能)に従って、出来るだけ修正量が少なくなるように処理を行なう。
また、拘束条件の無い歩は、他の歩が修正されたことによって、受動的にパラメータを修正されることがある。拘束グループの前後の拘束条件の無い歩がどちらも同条件である場合は、後の歩が優先的に修正される。但し、内部設定によりこの限りではない。
そして、自動修正を行なうときには、その旨をUI経由でユーザに判断と確認を要求するようにする。
図28には、1つ以上の歩のグループ内で歩幅が拘束され、他の拘束条件が存在しない場合に、歩の挿入を行なったときの自動修正した結果の例を示している。
歩幅拘束では、1つ以上の歩のグループ内で歩幅が拘束される。図示のように他の拘束条件の存在しないときに歩の挿入や削除を行なった場合、当該グループの前後に他の拘束条件が無ければ、単に一歩が挿入(削除)される。そして、挿入された時刻以降にある歩は、相対的に変化する。勿論、挿入された時刻以降ではなく、それ以前の歩を相対的に変化させるようにしてもよい。
また、歩に対しては、複数の拘束条件の論理積をとることが可能である。例えば、開始の歩については、絶対位置拘束、方向拘束、絶対時間拘束を設定することで、開始の位置と時間と向きを拘束することができる。
また、図29には、1つ以上の歩のグループ内で歩幅が拘束され、他の拘束条件が存在する場合に、歩の挿入を行なったときの自動修正した結果の例を示している。この場合、図示の通り、歩が挿入され、自動的に歩の順序と拘束条件の無い歩で歩行パラメータの優先順位に従って自動修正が行なわれる。
また、図30には、1つ以上の歩のグループ内で歩行周期が拘束され、他の拘束条件の存在しない場合に歩の挿入や削除を行なったときの自動修正した結果の例を示している。
この場合、グループの前後に他の拘束条件が無ければ、単に一歩が挿入(又は削除)されるが、挿入された時刻以降にある歩は相対的に変化する。勿論、挿入された時刻以降ではなく、それ以前の歩を相対的に変化させるようにしてもよい。
図示の例では、挿入した時刻以後の歩が優先的に修正されることから、それ以前の歩は、拘束条件が存在しなくても、影響を受けない。これに対し、挿入した時刻以後の歩は、歩が挿入されたことによって、自動的に歩の順序とパラメータが修正される。
遊脚拘束条件が無い場合、挿入位置以降の歩の順序を入れ替えるかどうかはユーザに問うようにする。入れ替えない場合は、2歩挿入するかどうか改めて問う。
また、図31には、一連の歩行パターンにおいて歩を削除した場合の自動修正する様子を示している。元の歩行パターンは実線で示されている。但し、歩行では交互に脚を出すという制約を守る必要があることを前提とする。
破線で示す一歩を抜くと、旋回開始位置を変えることが許容される場合には、歩幅優先により、ペアとなる2歩を抜くようにユーザに促し、この結果、一点鎖線で示す歩行パターンに修正される。
これに対し、旋回開始位置を変えないという拘束条件下では、旋回開始位置が優先され、ペアとなる2歩を抜くとともに、削除した歩の前の歩幅を自動調整する。この結果、二点鎖線で示す歩行パターンに修正される。
E−4.骨盤の移動のデザイン
左右それぞれの脚の関節角は、骨盤と足の位置と姿勢に基づいて、逆キネマティクスを用いて計算される。歩行パターンで決定される時系列に従って骨盤の位置と姿勢の軌跡を編集することにより、骨盤の移動をデザインすることができる。脚の関節角の軌跡は、歩行パターンと骨盤の移動に基づいて計算される。骨盤の移動は、制御点と上述した補間機能によって編集される。脚軌跡に基づいて決定されるデフォルトの骨盤の軌跡からわずかに変更するだけで、骨盤の移動を編集することができる。図20や図21に示したような脚軌跡エディタの3Dビューア画面上で、骨盤の移動を観察することができる。
E−5.上体との統合
上体における関節角の軌跡は、モーション・エディタから脚軌跡エディタへインポートされ、下半身のモーション・データと統合される。3Dビューア画面上では、ロボットの機体全体についてのモーション・データが表示される。脚軌跡エディタでは、上体のモーションと調整された下半身のモーション・データを編集することができる。さらに、実ロボット上で利用されている歩行同期型腕モーション・ジェネレータ(Gait−Synchronous Arm Motion Generator)のソフトウェア・モジュールを必要に応じて脚軌跡エディタで利用することができ、歩行パターンに同期した状態の自然なモーションを生成することができる。
E−6.実行可能性の検証
脚軌跡エディタは、実ロボットへ適用する前に、作成・編集したモーション・データの実行可能性を効率的に検証することができる。
実行可能性の検証を行なう前に、脚軌跡エディタは、モーション・スタビライザと歩行パターン・ジェネレータを上述のようなプロセスで作成したモーション・データに適用して、機体全体として安定化されたモーションを生成する。このような操作は、すべてのセンサ値が無視されるという点を除いては、実ロボット上で行なわれるのと全く同様である。
タイムライン上のモーション・データは、開始点(t=0)から終了点(t=T)に至るまで、制御周期dt毎に反復して取り出され、運動エンジン(Locomotion Engine)に投入される。
図32には、運動エンジン(Locomotion Engine)の機能構成を模式的に示している。同図に示すように、運動エンジンは、上述の実時間モーション・スタビライザと、歩行パターン・ジェネレータを備えている。歩行パターン・ジェネレータは、歩行パラメータを入力して、歩行パターンを構成するそれぞれの歩における足の位置と方向を出力する。また、実時間モーション・スタビライザは、歩行パターンと上体の関節角と骨盤の位置及び姿勢をシステム外部から入力するとともに、歩行パターン・ジェネレータから歩行パターンを構成するそれぞれの歩における足の位置と方向を内部パラメータとして取得し、全身協調運動による安定化処理を施して、全身の関節角を出力する。そして、出力される全身の関節角は、タイムライン上の対応するタイムスロットに挿入される。
図33の左右には、観察前の実ロボットの歩行モーションと、歩毎に安定化処理が施された後の歩行モーションそれぞれについての3Dビューア画面を示している。
脚軌跡エディタにより安定化された処理結果は、センサ入力がない実ロボットのそれと完全に同一であるので、これを用いてモーションの実行可能性を検証するのは理に適うことである。脚軌跡エディタは、各関節における可動角や角速度の制限の下で、障害を検証するために、安定化処理結果を利用する。限界値は、適応制御によって得られる関節角のオフセットの効果を考慮して、幾分の許容値を持っている。関節の軌道がこれら限界値を超えたとき、詳細な情報が編集ウィンドウ上に表示される。
E−7.エクスポートされたファイル
脚軌跡エディタは、編集後のモーション・データをモーション・データ・ファイルとして出力する機能を持ち、例えばメモリ・スティックのような可搬型の記憶媒体を解してこのようなデータ・ファイルを実ロボットへ移動することができる。機体全体の関節角の軌跡に関する出力データは、制御点と、制御点間の補間式に関する情報のみで構成される。このようなデータ・フォーマットによれば、機体全体の関節角データを時系列的に配置して構成されるデータ・フォーマットに比べ、データ・サイズの著しい削減を実現することができる。
F.アプリケーション開発
本発明者らは、ダンス・パフォーマンス、アカペラ・コーラス・パフォーマンス、あるいは感情表現を行なうようなパフォーマンスといったさまざまなモーション・パフォーマンスの制作を試みている。この項では、本発明に係るモーション編集システムの適用例の紹介として、ハイテンポなダンス・パフォーマンスの制作過程について説明する。
本発明に係るモーション編集システムは、マルチロボット編集環境を提供し(図35を参照のこと)、同時に複数台のロボットのモーションを作成・編集することができる。ここで作成されたハイテンポ・ダンス・パフォーマンスは、4台の実ロボットによって実演されるダンス・モーションを含むものとし、実ロボット上では、約2分間の音楽に同期してフォーメーションを変更する。
まず、音楽を当該システムにロードする。そして、音楽を聴きながら、モーション・エディタを用いて上体のモーションを作成する。次いで、脚軌跡エディタを用いて、ダンス・ステップを作成する。
この過程で、プロジェクト・マネージャは、モーション・プロジェクトを管理し、上体のデータと下半身のモーション・データを交換することにより、それぞれの編集の同期をとる。したがって、機体全体を考慮しながら編集作業を行なうことができる。
まず、1台目の実ロボットのモーションを作成する。続いて、残り3台の実ロボットのモーションを作成する。残り3台の実ロボットのモーションを作成する際、1台目の実ロボットのモーション・データを再利用することにより、作業を著しく簡素化することができる。
最終的に、フォーメーションをチェックするために、4台の実ロボットのモーション・データを脚軌跡エディタにロードしてこれらを観察し、各々のロボットの振る舞いが期待された通りかどうかを検査する。
図34には、脚軌跡エディタの編集ウィンドウ上で、複数のロボットの機体動作を同時に編集している様子を示している。図示のステップ編集用アプリケーションでは複数のロボットを同時に編集することが可能である。編集ウィンドウ内では、現在、編集対象になっているロボットはハイライト表示され(図示の例では、対象とするロボットのコーナーを囲うインジケータが表示される)、3D画面上で視覚的に確認することができる。また、3D表示ウィンドウ右側のロボットの状態表示ウィンドウや下方のタイムラインは、編集対象になっているロボットに合わせてその表示内容が切り替わる。また、図36には、複数台のロボットを用いた実際のモーション・パフォーマンスの様子を示している。
本明細書では、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行なう機械装置あるいはその他一般的な移動体装置であるならば、例えば玩具などのような他の産業分野に属する製品であっても、同様に本発明を適用することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
図1は、本発明の実施に供される脚式移動ロボットが直立している様子を前方から眺望した様子を示した図である。 図2は、本発明の実施に供される脚式移動ロボットが直立している様子を後方から眺望した様子を示した図である。 図3は、脚式移動ロボットが具備する関節自由度構成を模式的に示した図である。 図4は、脚式移動ロボット100の制御システム構成を模式的に示した図である。 図5は、機体の3Dアニメーション・キャラクタを介してポーズを指示するためのユーザ・インターフェース画面の構成例を示した図である。 図6は、IK関節角グループ化ウィンドウの構成例を示した図である。 図7は、左右両足を変更部位として指定した後、3Dキャラクタを用いてポーズを変更する様子を描いた図である。 図8は、ロボットのポーズを規定する各関節軸の変位角を指定するための画面の構成例を示した図である。 図9は、本発明の一実施形態に係るモーション編集システムの機能構成を模式的に示した図である。 図10は、モーション編集システムにより実ロボットのモーションを生成するための処理手順を示したフローチャートである。 図11は、あるトラック上に複数のポーズが時系列的に配置されている様子を示した図である。 図12は、IK関節角グループ毎にトラックが配設されている様子を示した図である。 図13は、モーション・エディタのポーズ編集モードの画面を示した図である。 図14は、モーション・エディタのIK編集モードの画面を示した図である。 図15は、両脚支持割合を変化させたときの片脚の軌跡の相違を示した図である。 図16は、前後歩幅と左右歩幅を説明するための図である。 図17は、前後歩幅x、左右歩幅y、旋回角θの関係を説明するための図である。 図18は、着床高さlと脚上げ高さhを説明するための図である。 図19は、あるグローバルな位置を基準にした足底の向きθ'を示した図である。 図20は、歩行パターン・ジェネレータによる歩行パターンの編集作業画面の構成例を示した図である。 図21は、歩行パターン・ジェネレータによる歩行パターンの編集作業画面の構成例を示した図である。 図22は、タイムライン・ウィンドウを拡大して示した図である。 図23は、歩を表すアイコンを示した図である。 図24は、静止を表すアイコンを示した図である。 図25は、1点の経由ポイントを設定した場合のパス・プランニング結果を示した図である。 図26は、編集された歩行パターンを歩の軌跡で示すとともに、歩行パターンに対して拘束条件を設定しているタイムラインのイメージを併せて示した図である。 図27は、拘束条件を設定し、拘束条件のある1以上の歩のグループに対して歩を挿入、削除又は移動を行なった後に実行される、歩行パターンの自動修正処理手順を示したフローチャートである。 図28は、1つ以上の歩のグループ内で歩幅が拘束され、他の拘束条件が存在しない場合に、歩の挿入を行なったときの自動修正した結果の例を示した図である。 図29は、1つ以上の歩のグループ内で歩幅が拘束され、他の拘束条件が存在する場合に、歩の挿入を行なったときの自動修正した結果の例を示した図である。 図30は、1つ以上の歩のグループ内で歩行周期が拘束され、他の拘束条件の存在しない場合に歩の挿入や削除を行なったときの自動修正した結果の例を示した図である。 一連の歩行パターンにおいて歩を削除した場合の自動修正する様子を示した図である。 図32は、運動エンジン(Locomotion Engine)の機能構成を模式的に示した図である。 図33は、観察前の実ロボットの歩行モーションと、歩毎に安定化処理が施された後の歩行モーションそれぞれについての3Dビューア画面を示した図である。 図34は、脚軌跡エディタの編集ウィンドウ上で、複数のロボットの機体動作を同時に編集している様子を示した図である。 図35は、マルチロボット編集環境の構成を模式的に示した図である。 図36は、複数台のロボットを用いた実際のモーション・パフォーマンスの様子を示した図である。
符号の説明
1…首関節ヨー軸
2A…第1の首関節ピッチ軸
2B…第2の首関節(頭)ピッチ軸
3…首関節ロール軸
4…肩関節ピッチ軸
5…肩関節ロール軸
6…上腕ヨー軸
7…肘関節ピッチ軸
8…手首関節ヨー軸
9…体幹ピッチ軸
10…体幹ロール軸
11…股関節ヨー軸
12…股関節ピッチ軸
13…股関節ロール軸
14…膝関節ピッチ軸
15…足首関節ピッチ軸
16…足首関節ロール軸
30…頭部ユニット,40…体幹部ユニット
50…腕部ユニット,51…上腕ユニット
52…肘関節ユニット,53…前腕ユニット
60…脚部ユニット,61…大腿部ユニット
62…膝関節ユニット,63…脛部ユニット
80…制御ユニット,81…主制御部
82…周辺回路
91,92…接地確認センサ
93,94…加速度センサ
95…姿勢センサ
96…加速度センサ

Claims (20)

  1. 機体は上体と歩行を行なう複数の脚からなる下半身を持ち、複数の関節角を備えたロボット装置のためのモーション編集装置であって、
    時間軸上での実ロボットの部位毎のポーズ並びにポーズ間の遷移に基づいて、実ロボットの上体並びに全身のモーションを編集するモーション・エディタと、
    実ロボットの歩幅、歩行周期を含む歩行パラメータのシーケンスに基づいて、各脚の足の位置と向きを表した実ロボットの歩行パターンを編集するとともに、該編集した歩行パターンと前記モーション・エディタにより編集された実ロボットの上体又は全身のモーションを併合した実ロボットの全身モーションをZMP安定度判別規範に基づいて安定化処理する脚軌跡エディタと、
    を具備することを特徴とするロボット装置のためのモーション編集装置。
  2. 前記モーション・エディタ及び前記脚軌跡エディタによるモーションの作成、修正、安定化処理を3Dビューア上で行なう、
    ことを特徴とする請求項1に記載のロボット装置のためのモーション編集装置。
  3. 前記脚軌跡エディタは、安定化処理後のモーション・データを所定のファイル・フォーマット形式で出力する、
    ことを特徴とする請求項1に記載のロボット装置のためのモーション編集装置。
  4. 前記脚軌跡エディタは、安定化処理後の機体全体の関節角の軌跡に関するデータを、制御点と制御点間の補間式に関する情報で構成されるファイル・フォーマット形式で出力する、
    ことを特徴とする請求項に記載のロボット装置のためのモーション編集装置。
  5. 前記モーション・エディタは、編集した関節角度値をコピーするために、選択された関節において、それぞれ対称的な関節角度値のコピーを行なうミラー・コピー機能と、両方向においてコピーを行なう対称コピー機能を備える、
    ことを特徴とする請求項1に記載のロボット装置のためのモーション編集装置。
  6. 前記脚軌跡エディタは、実ロボットの前記歩行パターン、及び、実ロボットの上体又は全身のモーションとしての上体における骨盤の移動と関節の移動を制御サイクル毎に受信して、ZMP安定度判別規範に基づいて、安定した2足歩行を実現するような実ロボットの全身のモーションを計算する、
    ことを特徴とする請求項1に記載のロボット装置のためのモーション編集装置。
  7. 前記脚軌跡エディタは、編集済みの歩行パターン中の特定の歩についての歩行パラメータを修正することを許容する、
    ことを特徴とする請求項1に記載のロボット装置のためのモーション編集装置。
  8. 歩の修正に伴い、歩行パターン全体を自動修正する自動修正手段をさらに備える、
    ことを特徴とする請求項に記載のロボット装置のためのモーション編集装置。
  9. 前記自動修正手段は、自動修正時において、変更が好ましくないようなパラメータを拘束条件としてユーザが指定することができる、
    ことを特徴とする請求項に記載のロボット装置のためのモーション編集装置。
  10. 前記自動修正手段は、同じ拘束条件を持つ連続した歩の集まりを拘束グループとして定義する、
    ことを特徴とする請求項9に記載のロボット装置のためのモーション編集装置。
  11. 拘束グループ内では、修正可能な歩行パラメータが優先順位付けされる、
    ことを特徴とする請求項10に記載のロボット装置のためのモーション編集装置。
  12. 前記自動修正手段は、歩の挿入、削除、移動、又は設定変更が行なわれたことに応答して、歩が挿入又は削除された拘束グループとその前後の拘束グループ(但し、存在する場合)の関係に基づいて、影響を受けるすべての歩を自動修正する、
    ことを特徴とする請求項11に記載のロボット装置のためのモーション編集装置。
  13. 前記自動修正手段は、拘束条件又は制限事項を満たさない歩がある場合には、拘束条件と制限事項を満足させる案(歩の追加又は削除)を生成してこれをユーザに提示する、
    ことを特徴とする請求項11に記載のロボット装置のためのモーション編集装置。
  14. 前記自動修正手段は、ユーザが前記の提示案を選択しない場合には、開放させる拘束条件の案をユーザに提示する、
    ことを特徴とする請求項13に記載のロボット装置のためのモーション編集装置。
  15. 前記自動修正手段は、拘束グループ外の歩に影響が出ないように、できるだけ拘束グループ内で完結して処理できるように、拘束グループ内の歩に関して設定されているパラメータを、優先順位に従って処理を行なう、
    ことを特徴とする請求項11に記載のロボット装置のためのモーション編集装置。
  16. 前記自動修正手段は、拘束グループ外の歩に影響が出る場合は、拘束グループ外の歩に設定されているパラメータの優先順位(同位が可能)に従って、可能な限り修正量が少なくなるように処理を行なう、
    ことを特徴とする請求項15に記載のロボット装置のためのモーション編集装置。
  17. 前記自動修正手段は、拘束グループの前後の拘束条件の無い歩がどちらも同条件である場合は、後又は前のいずれか一方の歩を優先的に修正する、
    ことを特徴とする請求項16に記載のロボット装置のためのモーション編集装置。
  18. 同時に複数台のロボットのモーションを作成・編集するマルチロボット編集環境をサポートする、
    ことを特徴とする請求項に記載のロボット装置のためのモーション編集装置。
  19. 機体は上体と歩行を行なう複数の脚からなる下半身を持ち、複数の関節角を備えたロボット装置のためのモーション編集方法であって、
    時間軸上での実ロボットの部位毎のポーズ並びにポーズ間の遷移に基づいて、実ロボットの上体並びに全身のモーションを編集するモーション編集ステップと、
    実ロボットの歩幅、歩行周期を含む歩行パラメータのシーケンスに基づいて、各脚の足の位置と向きを表した実ロボットの歩行パターンを編集するとともに、該編集した歩行パターンと前記モーション・エディタにより編集された実ロボットの上体又は全身のモーションを併合した実ロボットの全身のモーションをZMP安定度判別規範に基づいて安定化処理する脚軌跡編集ステップと、
    を有することを特徴とするロボット装置のためのモーション編集方法。
  20. 機体は上体と歩行を行なう複数の脚からなる下半身を持ち、複数の関節角を備えたロボット装置のためのモーション編集処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータを、
    時間軸上での実ロボットの部位毎のポーズ並びにポーズ間の遷移に基づいて、実ロボットの上体並びに全身のモーションを編集するモーション・エディタ、
    実ロボットの歩幅、歩行周期を含む歩行パラメータのシーケンスに基づいて、各脚の足の位置と向きを表した実ロボットの歩行パターンを編集するとともに、該編集した歩行パターンと前記モーション・エディタにより編集された実ロボットの上体又は全身のモーションを併合した実ロボットの全身のモーションをZMP安定度判別規範に基づいて安定化処理する脚軌跡エディタ、
    として機能させるためのコンピュータ・プログラム。
JP2003365239A 2003-10-24 2003-10-24 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム Expired - Lifetime JP4592276B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003365239A JP4592276B2 (ja) 2003-10-24 2003-10-24 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
US10/970,977 US7099747B2 (en) 2003-10-24 2004-10-22 Motion editing apparatus and method for robot device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003365239A JP4592276B2 (ja) 2003-10-24 2003-10-24 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2005125460A JP2005125460A (ja) 2005-05-19
JP4592276B2 true JP4592276B2 (ja) 2010-12-01

Family

ID=34631351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003365239A Expired - Lifetime JP4592276B2 (ja) 2003-10-24 2003-10-24 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム

Country Status (2)

Country Link
US (1) US7099747B2 (ja)
JP (1) JP4592276B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10814483B2 (en) 2015-08-28 2020-10-27 Dentsu Group Inc. Data conversion apparatus, robot, program, and information processing method

Families Citing this family (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3443077B2 (ja) * 1999-09-20 2003-09-02 ソニー株式会社 ロボットの運動パターン生成装置及び運動パターン生成方法、並びにロボット
US20020008704A1 (en) * 2000-07-21 2002-01-24 Sheasby Michael C. Interactive behavioral authoring of deterministic animation
EP1607195B1 (en) * 2003-03-27 2011-01-05 Sony Corporation Robot device and method of controlling the same
JP4299583B2 (ja) * 2003-05-20 2009-07-22 本田技研工業株式会社 脚式移動ロボット
US8600550B2 (en) * 2003-12-12 2013-12-03 Kurzweil Technologies, Inc. Virtual encounters
JP4692175B2 (ja) * 2005-09-14 2011-06-01 パナソニック電工株式会社 デジタルヒューマンシステム
JP2007160427A (ja) * 2005-12-12 2007-06-28 Advanced Telecommunication Research Institute International ロボット制御システム
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP4508164B2 (ja) * 2006-06-26 2010-07-21 トヨタ自動車株式会社 多関節ロボット及びその制御プログラム
US7643893B2 (en) * 2006-07-24 2010-01-05 The Boeing Company Closed-loop feedback control using motion capture systems
US7813888B2 (en) * 2006-07-24 2010-10-12 The Boeing Company Autonomous vehicle rapid development testbed systems and methods
US20080082301A1 (en) * 2006-10-03 2008-04-03 Sabrina Haskell Method for designing and fabricating a robot
JP4772639B2 (ja) * 2006-10-10 2011-09-14 株式会社森精機製作所 工作機械の制御装置
US7885732B2 (en) * 2006-10-25 2011-02-08 The Boeing Company Systems and methods for haptics-enabled teleoperation of vehicles and other devices
JP2008254074A (ja) * 2007-03-30 2008-10-23 Sega Corp ロボットのモーション編集装置及びそのプログラム
FR2918477A1 (fr) * 2007-07-04 2009-01-09 Aldebaran Robotics Soc Par Act Procede d'edition de mouvements d'un robot
WO2009006727A1 (en) * 2007-07-12 2009-01-15 Xtranormal Technologie Inc. Modeling the motion of an articulated object
CN101411948A (zh) * 2007-10-19 2009-04-22 鸿富锦精密工业(深圳)有限公司 电子玩具
US8452052B2 (en) * 2008-01-21 2013-05-28 The Boeing Company Modeling motion capture volumes with distance fields
US20090319096A1 (en) * 2008-04-25 2009-12-24 The Boeing Company Control and monitor heterogeneous autonomous transport devices
US8068983B2 (en) * 2008-06-11 2011-11-29 The Boeing Company Virtual environment systems and methods
KR101537039B1 (ko) * 2008-11-28 2015-07-16 삼성전자 주식회사 로봇 및 그 제어방법
EP2243585B1 (de) * 2009-04-22 2018-08-08 KUKA Deutschland GmbH Verfahren und Vorrichtung zur Steuerung einer Positioniervorrichtung zum Schweißen
US8364314B2 (en) 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
JP5196445B2 (ja) * 2009-11-20 2013-05-15 独立行政法人科学技術振興機構 料理プロセス指示装置及び料理プロセス指示方法
JP5528896B2 (ja) * 2010-04-28 2014-06-25 本田技研工業株式会社 リンク機構
US8731714B2 (en) * 2010-09-22 2014-05-20 GM Global Technology Operations LLC Concurrent path planning with one or more humanoid robots
US8777818B1 (en) * 2010-12-22 2014-07-15 Larry E. Tate, Jr. Training device
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9067319B2 (en) * 2011-08-11 2015-06-30 GM Global Technology Operations LLC Fast grasp contact computation for a serial robot
US8843235B2 (en) * 2012-01-13 2014-09-23 Toyota Motor Engineering & Manufacturing North America, Inc. Robots, computer program products, and methods for trajectory plan optimization
EP2875914A1 (en) * 2012-07-20 2015-05-27 Kabushiki Kaisha Yaskawa Denki Robot simulator, robot teaching device and robot teaching method
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) * 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
JP6311153B2 (ja) * 2013-11-18 2018-04-18 学校法人早稲田大学 2足走行ロボットの移動制御システム
JP6177147B2 (ja) * 2014-01-21 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6177146B2 (ja) * 2014-01-21 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
CN105917385A (zh) * 2014-01-21 2016-08-31 索尼互动娱乐股份有限公司 信息处理设备和信息处理方法
JP6177145B2 (ja) * 2014-01-21 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6027554B2 (ja) * 2014-01-21 2016-11-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、ブロックシステム、および情報処理方法
JP6193135B2 (ja) * 2014-01-21 2017-09-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
CN105916637B (zh) 2014-02-05 2017-09-19 Abb瑞士股份有限公司 用于限定协作表演节目的多个机器人的运动的系统和方法
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
JP5671644B2 (ja) * 2014-06-18 2015-02-18 グリー株式会社 動画出力装置、動画出力方法、及びプログラム
US9618937B1 (en) 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
US9387588B1 (en) * 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
US9895804B1 (en) * 2014-08-26 2018-02-20 Boston Dynamics, Inc. Failure mode
JP6508988B2 (ja) * 2014-08-28 2019-05-08 株式会社Kansei Design 感情表現方法と感情表現装置とコンピュータプログラム
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
JP5756558B2 (ja) * 2014-12-19 2015-07-29 グリー株式会社 動画出力装置、動画出力方法、及びプログラム
US9499218B1 (en) 2014-12-30 2016-11-22 Google Inc. Mechanically-timed footsteps for a robotic device
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
KR101962889B1 (ko) * 2015-07-27 2019-03-28 한국전자통신연구원 작업환경 변화에 적응적인 로봇 동작 데이터 제공장치 및 그 방법
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US9669543B1 (en) * 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
US9925667B1 (en) 2016-01-25 2018-03-27 Boston Dynamics, Inc. Continuous slip recovery
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
JP6295313B1 (ja) * 2016-12-02 2018-03-14 株式会社ドワンゴ 情報処理装置、情報処理方法およびプログラム
US10351189B2 (en) * 2016-12-13 2019-07-16 Boston Dynamics, Inc. Whole body manipulation on a legged robot using dynamic balance
KR101867991B1 (ko) * 2016-12-13 2018-06-20 한국과학기술원 다관절 오브젝트의 모션 에디팅 방법 및 장치
JP6457478B2 (ja) * 2016-12-27 2019-01-23 ファナック株式会社 産業用ロボット制御装置
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
JP6788537B2 (ja) * 2017-03-28 2020-11-25 本田技研工業株式会社 レーザ式測距装置を使用した物体エッジの検出方法
JP6927727B2 (ja) * 2017-03-29 2021-09-01 本田技研工業株式会社 ロボットの制御装置
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
US10406685B1 (en) * 2017-04-20 2019-09-10 X Development Llc Robot end effector control
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
US11691292B2 (en) * 2019-10-14 2023-07-04 Boston Dynamics, Inc. Robot choreographer
JP2021130183A (ja) * 2020-02-21 2021-09-09 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動ロボット
JP7540379B2 (ja) * 2021-03-25 2024-08-27 トヨタ自動車株式会社 二足歩行ロボットの動作データ生成システム、動作データ生成方法、及び動作データ生成プログラム
JP7756525B2 (ja) * 2021-09-17 2025-10-20 Thk株式会社 モーション作成装置、モーション作成方法及びモーション作成プログラム
CN114378823B (zh) * 2022-01-20 2023-12-15 深圳市优必选科技股份有限公司 一种机器人动作控制方法、装置、可读存储介质及机器人
CN115202340A (zh) * 2022-06-07 2022-10-18 深圳鳍源科技有限公司 水下航行器自定义运行方法、系统、设备及存储介质
US11738452B1 (en) * 2022-07-29 2023-08-29 Sarcos Corp. Sole with various compliant regions for robots
US12539618B1 (en) 2023-04-17 2026-02-03 Figure Ai Inc. Head and neck assembly of a humanoid robot
US12365094B2 (en) * 2023-04-17 2025-07-22 Figure Ai Inc. Head and neck assembly for a humanoid robot
US12403611B2 (en) 2023-04-17 2025-09-02 Figure Ai Inc. Head and neck assembly for a humanoid robot

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5355064A (en) * 1992-03-04 1994-10-11 Honda Giken Kogyo Kabushiki Kaisha Control system for legged mobile robot
JP3672406B2 (ja) * 1997-01-31 2005-07-20 本田技研工業株式会社 脚式移動ロボットの歩容生成装置
JPH1190866A (ja) * 1997-09-12 1999-04-06 Sony Corp 多足歩行体の動作パターンの編集方法
US6714201B1 (en) * 1999-04-14 2004-03-30 3D Open Motion, Llc Apparatuses, methods, computer programming, and propagated signals for modeling motion in computer applications
JP3443077B2 (ja) * 1999-09-20 2003-09-02 ソニー株式会社 ロボットの運動パターン生成装置及び運動パターン生成方法、並びにロボット
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP3615702B2 (ja) * 1999-11-25 2005-02-02 ソニー株式会社 脚式移動ロボットの動作制御装置及び動作制御方法、並びに、脚式移動ロボット
TW499349B (en) * 2000-11-17 2002-08-21 Sony Corp Legged mobile robot, leg structure of legged mobile robot, and mobile leg unit for legged mobile robot
DE60143101D1 (de) * 2000-11-20 2010-10-28 Sony Corp Bewegungssteuergerät und Bewegungssteuerungsverfahren für einen gehfähigen Roboter mit Beinen und Robotervorrichtung
JP3726032B2 (ja) * 2001-04-27 2005-12-14 本田技研工業株式会社 脚式移動ロボットの目標運動生成装置
EP1475192B1 (en) * 2001-12-28 2010-05-19 Honda Giken Kogyo Kabushiki Kaisha Gait producing device for leg type movable robot
EP1504858B1 (en) * 2002-04-26 2014-06-04 Honda Giken Kogyo Kabushiki Kaisha Control device and footstep determination device for legged mobile robot
JP3834629B2 (ja) * 2002-09-26 2006-10-18 独立行政法人産業技術総合研究所 歩行ロボットの歩行歩容生成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10814483B2 (en) 2015-08-28 2020-10-27 Dentsu Group Inc. Data conversion apparatus, robot, program, and information processing method

Also Published As

Publication number Publication date
US7099747B2 (en) 2006-08-29
US20050125099A1 (en) 2005-06-09
JP2005125460A (ja) 2005-05-19

Similar Documents

Publication Publication Date Title
JP4592276B2 (ja) ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
Bouyarmane et al. Using a multi-objective controller to synthesize simulated humanoid robot motion with changing contact configurations
KR100532832B1 (ko) 트리구조 링크계의 자세 및 동작을 생성하는 방법
JP4682791B2 (ja) 操作空間物理量算出装置及び操作空間物理量算出方法、並びにコンピュータ・プログラム
US7054718B2 (en) Motion editing apparatus and method for legged mobile robot and computer program
US5594856A (en) Computer user interface for step-driven character animation
US9427868B1 (en) Method for developing and controlling a robot to have movements matching an animation character
JP2022550242A (ja) ロボット振付師
JP2003231077A (ja) 人型リンク系の運動生成方法
US12293445B2 (en) Procedural animation engine and editor for sample-based design of stylized walking gaits for bipedal robots
JP2007015037A (ja) ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置
CN111344116A (zh) 信息处理设备、信息处理方法、计算机程序及程序制造方法
Nakaoka et al. Intuitive and flexible user interface for creating whole body motions of biped humanoid robots
JP3614824B2 (ja) 脚式移動ロボットのための動作編集装置及び動作編集方法
CN115008439A (zh) 信息处理设备和方法、机器人系统、产品制造方法
Okada et al. Integrated system software for HRP2 humanoid
Lorch et al. Vigvvam—an Emulation Environment for a Vision Guided Virtual Walking Machine
Seiwald et al. Quintic spline collocation for real-time biped walking-pattern generation with variable torso height
JP3555945B2 (ja) ロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラム
JP2008030136A (ja) ロボットの動作編集装置及び動作編集方法、並びにコンピュータ・プログラム
CN116901084A (zh) 腿臂协作机器人跳舞的轨迹生成与跟踪控制方法及系统
Yoo et al. Recent progress and development of the humanoid robot HanSaRam
Chignoli Trajectory optimization for dynamic aerial motions of legged robots
JP4614692B2 (ja) ロボット装置の運動評価方法
JP4457617B2 (ja) モーション生成システム及びロボットのモーション評価方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4592276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term