JP2005007501A - Robot device and its motion control method - Google Patents
Robot device and its motion control method Download PDFInfo
- Publication number
- JP2005007501A JP2005007501A JP2003172388A JP2003172388A JP2005007501A JP 2005007501 A JP2005007501 A JP 2005007501A JP 2003172388 A JP2003172388 A JP 2003172388A JP 2003172388 A JP2003172388 A JP 2003172388A JP 2005007501 A JP2005007501 A JP 2005007501A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- motion
- transition
- robot apparatus
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、複数の姿勢の間を遷移しながら自律的に動作するロボット装置及びその動作制御方法に関する。
【0002】
【従来の技術】
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0003】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。
【0004】
これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。また、そのようなロボット装置には、外部からの情報や内部の状態に応じて自律的に動作するものがある。
【0005】
この自律動作を行う自律型ロボット装置の一例として、下記特許文献1には、供給された入力情報に応じて、既知の姿勢を遷移しながら目標とされる動作を実行するロボット装置が記載されている。この特許文献1記載のロボット装置は、感情・本能モデルを有しており、感情・本能に基づいて次の動作(行動)を決定し、その動作(行動)を実行できる姿勢までの遷移計画を立てる。そして、その遷移計画に基づいて姿勢を遷移させてから、そのような感情・本能に基づいて決定した動作(行動)を実際に実行する。
【0006】
【特許文献1】
国際公開第00/43167号パンフレット
【0007】
【発明が解決しようとする課題】
ところで、ユーザとの親密性を高める上でも、上述した生物を模した自律型ロボット装置の動作は、できるだけ本物の生物に近いことが望ましい。本物の生物に近い動作を行うロボット装置としては、例えばある動作を実行中であっても、供給された入力情報に応じて次の動作に遷移でき、場合によっては元の動作に復帰できるようなものが望ましいといえる。
【0008】
しかしながら、上記特許文献1に記載の技術では、ある動作の実行中に動作を停止した場合には、予め設定された中立姿勢に遷移し、その中立姿勢から該中立姿勢に近い姿勢に遷移するため、自然な動作にならず、また、元の動作に復帰することが困難であった。このような問題を避けるためには、実行中の動作が終了し、既知の姿勢に戻ってから次の姿勢に遷移する必要があるが、この場合には、反射的な行動を即座にすることができず、自然で滑らかな自律動作を行うことが困難である。
【0009】
本発明は、このような従来の実情に鑑みて提案されたものであり、ある動作を実行中であっても、供給された入力情報に応じて次の動作に遷移でき、さらに元の動作にも復帰可能なロボット装置及びその動作制御方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係るロボット装置は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置であって、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフを記憶するグラフ記憶手段と、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて上記グラフ上において検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備え、上記制御手段は、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0011】
また、上述した目的を達成するために、本発明に係るロボット装置の動作制御方法は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置の動作制御方法であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフ上において検索し、検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0012】
このようなロボット装置及びその動作制御方法では、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断し、中断時の姿勢に近い姿勢に遷移した後、上記他の動作に遷移する。
【0013】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0014】
本発明の一構成例として示す2足歩行タイプのロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、人間が行う基本的な動作を表出できるエンターテインメントロボットである。
【0015】
図1に示すように、ロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
【0016】
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
【0017】
また、上肢を構成する各々の腕部ユニット4R/Lは、、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0018】
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
【0019】
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0020】
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0021】
上述したようなロボット装置1がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0022】
図3には、ロボット装置1の制御システム構成を模式的に示している。同図に示すように、ロボット装置1は、ヒトの四肢を表現した体幹部ユニット2,頭部ユニット3,腕部ユニット4R/L,脚部ユニット5R/Lと、各ユニット間の協調動作を実現するための適応制御を行う制御ユニット10とで構成される。
【0023】
ロボット装置1全体の動作は、制御ユニット10によって統括的に制御される。制御ユニット10は、CPU(Central Processing Unit)や、DRAM(Dynamic Random Access Memory)、フラッシュROM(Read Only Memory)等の主要回路コンポーネント(図示せず)で構成される主制御部11と、電源回路やロボット装置1の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示せず)などを含んだ周辺回路12とで構成される。
【0024】
本発明を実現するうえで、この制御ユニット10の設置場所は、特に限定されない。図3では体幹部ユニット2に搭載されているが、頭部ユニット3に搭載してもよい。あるいは、ロボット装置1外に制御ユニット10を配備して、ロボット装置1の機体とは有線又は無線で交信するようにしてもよい。
【0025】
図2に示したロボット装置1内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット3には、首関節ヨー軸101、首関節ピッチ軸102、首関節ロール軸103の各々を表現する首関節ヨー軸アクチュエータA2、首関節ピッチ軸アクチュエータA3、首関節ロール軸アクチュエータA4が配設されている。
【0026】
また、頭部ユニット3には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。
【0027】
また、体幹部ユニット2には、体幹ピッチ軸104、体幹ロール軸105、体幹ヨー軸106の各々を表現する体幹ピッチ軸アクチュエータA5、体幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエータA7が配設されている。また、体幹部ユニット2には、このロボット装置1の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0028】
また、腕部ユニット4R/Lは、上腕ユニット41R/Lと、肘関節ユニット42R/Lと、前腕ユニット43R/Lに細分化されるが、肩関節ピッチ軸107、肩関節ロール軸108、上腕ヨー軸109、肘関節ピッチ軸110、前腕ヨー軸111、手首関節ピッチ軸112、手首関節ロール軸113の各々表現する肩関節ピッチ軸アクチュエータA8、肩関節ロール軸アクチュエータA9、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0029】
また、脚部ユニット5R/Lは、大腿部ユニット51R/Lと、膝ユニット52R/Lと、脛部ユニット53R/Lに細分化されるが、股関節ヨー軸115、股関節ピッチ軸116、股関節ロール軸117、膝関節ピッチ軸118、足首関節ピッチ軸119、足首関節ロール軸120の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA2,A3・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0030】
体幹部ユニット2、頭部ユニット3、各腕部ユニット4R/L、各脚部ユニット5R/Lなどの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部20,21,22R/L,23R/Lが配備されている。さらに、各脚部ユニット5R/Lの足底が接地したか否かを検出する接地確認センサ30R/Lを装着するとともに、体幹部ユニット2内には、姿勢を計測する姿勢センサ31を装備している。
【0031】
接地確認センサ30R/Lは、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ31は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0032】
接地確認センサ30R/Lの出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ31の出力により、体幹部分の傾きや姿勢を検出することができる。
【0033】
主制御部11は、各センサ30R/L,31の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部20,21,22R/L,23R/Lの各々に対して適応的な制御を行い、ロボット装置1の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。
【0034】
ロボット装置1の機体上での全身運動は、足部運動、ZMP(Zero Moment Point)軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容にしたがった動作を指示するコマンドを各副制御部20,21,22R/L,23R/Lに転送する。そして、各々の副制御部20,21,・・・等では、主制御部11からの受信コマンドを解釈して、各アクチュエータA2,A3・・・等に対して駆動制御信号を出力する。ここでいう「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
【0035】
以上のように、ロボット装置1は、各々の副制御部20,21,・・・等が、主制御部11からの受信コマンドを解釈して、各アクチュエータA2,A3・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、ロボット装置1は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0036】
また、ロボット装置1における制御ユニット10では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット10では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部11と接続されている。
【0037】
主制御部11は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部11は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部11がこのロボット装置1の動作制御を行う際に利用される。
【0038】
主制御部11は、ロボット装置1の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部11は、上述のように主制御部11よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。
【0039】
さらに、主制御部11は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータA2,A3・・・を駆動させることにより、ロボット装置1に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0040】
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
【0041】
上述した主制御部11のデータ処理の内容を機能的に分類した図を図4に示す。図4に示すように、主制御部11は、行動決定機構部40と、姿勢遷移機構部41と、制御機構部42とに分けられる。
【0042】
行動決定機構部40は、上述したセンサデータ、画像・音声データ等の入力情報S1に基づいて次の動作(行動)を決定し、当該決定された動作(行動)の内容を行動指令情報S2として姿勢遷移機構部41に供給する。
【0043】
姿勢遷移機構部41は、ロボット装置1が遷移可能な姿勢及び遷移する際の動作を予め例えばグラフ(後述する有向グラフ)として保持しており、行動決定機構部40から供給された行動指令情報S2を姿勢遷移情報S3として制御機構部42に供給する。
【0044】
制御機構部42は、この姿勢遷移情報S3に基づいて、必要なアクチュエータA2,A3・・・を駆動させるための制御信号S4を生成し、これをアクチュエータA2,A3・・・に送出して当該アクチュエータA2,A3・・・を駆動させることにより、ロボット装置1に所望の動作を行わせる。
【0045】
以下、姿勢遷移機構部41にて行う処理について詳細に説明する。
ロボット装置1は、指令(行動指令情報S2)の内容に従った姿勢に遷移し、遷移した姿勢に応じた動作を行うが、指令の内容に従った姿勢に直接遷移できない場合もある。すなわち、ロボット装置1の姿勢は、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できなく、ある動作や姿勢を経由して可能になる姿勢とに分類される。例えば、ロボット装置1は、両手足を伸ばして寝転んだ姿勢から伏せた姿勢に直接遷移することはできるが、立った姿勢に直接遷移することはできず、一旦手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ち上がるという2段階の動作が必要である。
【0046】
したがって、姿勢遷移機構部41は、行動決定機構部40から供給された行動指令情報S2が直接遷移可能な姿勢を示す場合には、当該行動指令情報S2をそのまま姿勢遷移情報S3として制御機構部42に供給する一方、直接遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢や動作を経由して目標とされる姿勢(行動指令情報S2により指示された姿勢)まで遷移させるような姿勢遷移情報S3を生成し、これを制御機構部42に供給する。
【0047】
実際上、姿勢遷移機構部41は、ロボット装置1がとり得る姿勢及び動作が登録され、姿勢とこの姿勢を遷移させる動作とを結んで構成されたグラフを保持して、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させる。すなわち、姿勢遷移機構部41は、ロボット装置1がとり得る姿勢を予め登録すると共に、遷移可能な2つの姿勢の間を記録しておくようになされており、このグラフと行動決定機構部40から供給された行動指令情報S2とに基づいて、目標とされる姿勢或いは動作まで遷移させる。
【0048】
具体的には、姿勢遷移機構部41は、図5に示すような有向グラフというアルゴリズムを用いている。有向グラフでは、ロボット装置1がとり得る姿勢を示すノードと、遷移可能な2つのノード間を結ぶ有向アーク(動作アーク)と、場合によっては1つのノードから当該1つのノードに戻る動作のアーク、すなわち1つのノード内で完結する動作を示す自己動作アークとが結合されて構成されている。すなわち、姿勢遷移機構部41は、ロボット装置1の姿勢(静止姿勢)を示す情報とされるノードと、ロボット装置1の動作を示す情報とされる有向アーク及び自己動作アークとから構成される有向グラフを保持し、姿勢を点の情報として、さらに動作の情報を有向線の情報として把握している。
【0049】
ここで、有向アークや自己動作アークは複数とされていてもよい。すなわち、遷移可能なノード(姿勢)の間に有向アークが複数結合されていてもよく、1つのノードにおいて複数の自己動作アークが結合されていてもよい。
【0050】
姿勢遷移機構部41は、行動決定機構部40から行動指令情報S2が供給されると、現在の姿勢に対応したノードと、行動指令情報S2が示す次にとるべき姿勢に対応するノードとを結ぶように、有向アークの向きに従いながら現在のノードから次のノードに至る経路を順次検索することにより、現在の姿勢から目標とされるノード、或いは目標とされるアークに至る経路を探索する。ここで、目標とされるアークとは、有向アークであってもよく、自己動作アークであってもよい。例えば、自己動作アークが目標アークとなる場合とは、とるべき姿勢から開始される自己動作が目標とされた(指示された)場合であって、ダンスが指示された場合等が挙げられる。
【0051】
なお、ロボット装置1は、頭部ユニット3、各腕部ユニット4R/L、各脚部ユニット5R/Lなどの各構成ユニットを個別に動作させることが可能とされている。つまり、リソースが競合しない限り、例えば頭部ユニット3と腕部ユニット4R/Lとを別個に動作させることができるが、ロボット装置1の全体と頭部ユニット3とのようにリソースが競合する場合には、個別に動作させることができない。したがって、上述した行動指令情報S2は、リソース毎に生成することが可能である。
【0052】
さて、図6に示すように、「立ち姿勢」を表すノードND1に、それぞれ「ダンス」、「歩く」といった自己動作を示す自己動作アークa1,a2が結合されている場合を想定する。「ダンス」の動作は、ノードND1の姿勢を初期姿勢として実行され、元の姿勢に戻って終了する。また、「歩く」動作も、ノードND1の姿勢を初期姿勢として開始され、元の姿勢で停止する。
【0053】
ここで、ロボット装置1の生物感、すなわち人間らしさを高めるためには、例えば「ダンス」の動作(自己動作アークa1)の実行中であっても、周囲に何か好きな物があることが画像データとして得られた場合には、ダンスを中断してその物の方向に歩くという「歩く」動作(自己動作アークa2)に遷移することが望ましいと考えられる。
【0054】
しかしながら、前述した特許文献1に記載の技術では、「ダンス」の動作(自己動作アークa1)の実行中に動作を停止した場合には現在の姿勢が分からなくなり、予め設定された中立姿勢に遷移してこの中立姿勢から該中立姿勢に近い姿勢に遷移するため、自然な動作にならないという問題があった。このような問題を避けるためには、「ダンス」の動作(自己動作アークa1)が終了し、「立ち姿勢」(ノードND1)に戻ってから「歩く」姿勢(自己動作アークa2)に遷移する必要があるが、この場合には、反射的な行動を即座にすることができず、自然で滑らかな自律動作を行うことが困難であるという問題がある。この問題は、「ダンス」の動作(自己動作アークa1)の開始から終了までの時間が長い場合に特に顕著となる。
【0055】
そこで、本実施の形態における姿勢遷移機構部41は、「ダンス」の動作(自己動作アークa1)の実行中に「歩く」動作(自己動作アークa2)を目標アークとするように行動決定機構部40から指示された場合には、「ダンス」の動作を中断し、図7に示すように、中断したときの姿勢に最も近い姿勢を示すノードND2に遷移させる。そして、再びノードND2からノードND1に遷移させ、「歩く」動作(自己動作アークa2)を実行させる。
【0056】
「ダンス」の動作(自己動作アークa1)を中断して「歩く」動作(自己動作アークa2)を実行する場合の動作の推移を、従来と比較して図8に示す。図8に示すように、従来では、「ダンス」の動作(自己動作アークa1)の実行中に「歩く」動作(自己動作アークa2)への遷移が指示された場合であっても、「ダンス」の動作が終了してノードND1の姿勢に戻るまで(例えば1分間)、「歩く」動作を実行しなかった。これに対して、本実施の形態では、「ダンス」の動作(自己動作アークa1)の実行中に「歩く」動作(自己動作アークa2)への遷移が指示されると、「ダンス」の動作を中断し、中断した時点での姿勢に最も近い姿勢(ここではノードND2)に遷移する。そして、再びノードND2からノードND1に遷移し、「歩く」動作(自己動作アークa2)を実行する。これにより、より速やかで且つ無駄のない動きを実現することができ、さらにロボット装置1の生物感を高めることができる。
【0057】
ここで、別の動作を実行した後に、再び「ダンス」の動作の続きから実行することも可能である。
【0058】
例えば「立ち姿勢」を表すノードND1に、それぞれ「ダンス」、「振り返る」といった自己動作を示す自己動作アークa1,a3が結合されている場合を想定する。
【0059】
「ダンス」の動作(自己動作アークa1)の実行中に「振り返る」動作(自己動作アークa3)を目標アークとするように行動決定機構部40から指示された場合には、「ダンス」の動作を中断し、図9に示すように、中断したときの姿勢に最も近い姿勢を示すノードND2に遷移させる。そして、再びノードND2からノードND1に遷移させ、「振り返る」動作(自己動作アークa3)を実行させる。その後、ノードND1の姿勢から記憶しておいたダンスの中断時の姿勢に遷移させ、その姿勢から「ダンス」の動作の続きを実行させる。
【0060】
「ダンス」の動作(自己動作アークa1)を中断して「振り返る」動作(自己動作アークa3)を実行し、再び「ダンス」の動作(自己動作アークa1)を実行する場合の動作の推移を、従来と比較して図10に示す。図10に示すように、従来では、「ダンス」の動作(自己動作アークa1)の実行中に「振り返る」動作(自己動作アークa3)への遷移が指示された場合には、「ダンス」の動作の終了後に「振り返る」動作を実行するものの、再び「ダンス」の動作を続きを実行することはできなかった。これに対して、本実施の形態では、「ダンス」の動作(自己動作アークa1)の実行中に「振り返る」動作(自己動作アークa3)への遷移が指示されると、「ダンス」の動作を中断し、中断した時点での姿勢に最も近い姿勢(ここではノードND2)に遷移する。そして、再びノードND2からノードND1に遷移し、「振り返る」動作(自己動作アークa3)を実行する。その後、ノードND1の姿勢から記憶しておいたダンスの中断時の姿勢に遷移し、その姿勢から「ダンス」の動作の続きを実行する。これにより、継続性のある、より自然な自律行動が可能となり、さらにロボット装置1の生物感を高めることができる。
【0061】
なお、上述の例では、「ダンス」の動作を途中で中断した場合に、ノードND1とは異なるノードND2の姿勢に遷移するものとして説明したが、「ダンス」の動作を中断したときの姿勢がノードND1の姿勢に最も近い場合には、ノードND1の姿勢に遷移するようにしても構わない。すなわち、ある動作を中断したときの姿勢から最も近い姿勢を示すノードに遷移するようにすればよい。
【0062】
ここで、ある動作を中断して中断時点での姿勢に最も近い姿勢を示すノードに遷移する際に、可動部同士が自己干渉し、緊急停止してしまう場合が考えられる。例えば、胴体の前で左前腕が右前腕の上にある状態で、左前腕を下に降ろそうとすると、右前腕と自己干渉してしまう。このような場合には、中断したときの姿勢から最も近い姿勢を示すノードに遷移する際に、例えば本件出願人が先に提案した特願2003−78834の明細書及び図面に記載された技術を用いて干渉問題を解き、自動復帰することが望ましい。
【0063】
具体的には、
(A)厳密な干渉問題を解くことなく、干渉が発生した場合でも動作を続行する方法
(B)厳密な干渉問題を解くことなく、干渉しない動作を生成する方法
(C)厳密な干渉問題を解きながら、干渉しない動作を生成する方法
の何れかの方法により、緊急停止状態から自動復帰する。
【0064】
以下、ロボット装置1が緊急停止状態から自動復帰する方法について簡単に説明する。
【0065】
例えば、「(A)厳密な干渉問題を解くことなく、干渉が発生した場合でも動作を続行する方法」としては、アクチュエータを脱力する方法が挙げられる。すなわち、自己干渉が生じた場合にアクチュエータで発生させるトルク若しくは力を一時的に制限し、又は干渉が生じる場合に備えて予め制限する。これにより、例えば上述した自己干渉の例では、左前腕が右前腕表面に接触しながら復帰動作を継続し、左腕の復帰動作を無事に完了させることができる。
【0066】
また、PTP(Point To Point)制御を行う場合には、可動部の先端から順次動作させていくことも挙げられる。すなわち、上肢を復帰させるときには手先、下肢を復帰させるときには足先から順次動作させていく。このように、先端から緊急停止状態を解いていくことにより、肢体同士が絡まり難くなる。
【0067】
また、同様にPTP制御を行う場合には、可動部の根元から順次動作させることも挙げられる。すなわち、ベースリンクに近い関節から順に動作させる。この場合、動作が始まっていないアクチュエータで発生させるトルク又は力を制限することによって、肢体同士が絡まるのを防止することができる。
【0068】
次に、「(B)厳密な干渉問題を解くことなく、干渉しない動作を生成する方法」としては、小さなトルク又は力によって制御を継続することが挙げられる。すなわち、干渉発生後も、アクチュエータで発生させるトルク又は力を0にせず、小さなトルク又は力によって制御し続ける。これにより、規定外の姿勢になることを防ぐことができると共に、その後の復帰動作の生成が容易になる。
【0069】
また、干渉発生時まで動作を遡ることも挙げられる。すなわち、干渉発生時の姿勢から復帰させるために、干渉が発生した時点までの動作と逆の動作を行う。
【0070】
続いて、「(C)厳密な干渉問題を解きながら、干渉しない動作を生成する方法」としては、ロボット装置1において、厳密な干渉問題を解くことによって干渉の生じない動作を自律的に生成して復帰することが挙げられる。
【0071】
以上説明したように、本実施の形態におけるロボット装置1及びその動作制御方法によれば、ある動作、例えば「ダンス」の動作の実行中であっても、供給された入力情報に応じて動作を中断し、次の動作に遷移することができ、さらに元の動作にも復帰可能とされているため、より速やかで且つ無駄のない動きを実現すると共に、一貫性のある動作を実現することができ、さらにロボット装置1の生物感を高めることができる。
【0072】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0073】
例えば、上述の実施の形態では、本発明を人間を模した2足歩行型のロボット装置1に適用した場合について説明したが、これに限らず、動物を模した4足歩行型のロボット装置や、例えばゲームや展示等のエンターテインメント分野で用いられるロボット装置など、他の種々のロボット装置に適用可能である。
【0074】
【発明の効果】
以上詳細に説明したように、本発明に係るロボット装置は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置であって、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフを記憶するグラフ記憶手段と、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて上記グラフ上において検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備え、上記制御手段は、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0075】
また、本発明に係るロボット装置の動作制御方法は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置の動作制御方法であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフ上において検索し、検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0076】
このようなロボット装置及びその動作制御方法によれば、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断し、中断時の姿勢に近い姿勢に遷移した後、上記他の動作に遷移することにより、より速やかで且つ無駄のない動きを実現することができ、さらにロボット装置の生物感を高めることができる。
【図面の簡単な説明】
【図1】本実施の形態におけるロボット装置の外観構成を示す斜視図である。
【図2】同ロボット装置の自由度構成モデルを模式的に示す図である。
【図3】同ロボット装置の制御システム構成を模式的に示す図である。
【図4】主制御部のデータ処理の内容を機能的に分類した図である。
【図5】同主制御部の姿勢遷移機構部における姿勢遷移のグラフを示す図である。
【図6】「立ち姿勢」を表すノードに「ダンス」及び「歩く」の自己動作アークが結合されている例を示す図である。
【図7】「ダンス」の動作を中断して「歩く」動作を実行する場合の姿勢遷移のグラフを示す図である。
【図8】「ダンス」の動作を中断して「歩く」動作を実行する場合の動作の推移を、従来と比較して説明する図である。
【図9】「立ち姿勢」を表すノードに「ダンス」及び「振り返る」の自己動作アークが結合されている例を示す図である。
【図10】「ダンス」の動作を中断して「振り返る」動作を実行し、再び「ダンス」の動作を実行する場合の動作の推移を、従来と比較して説明する図である。
【符号の説明】
1 ロボット装置、2 体幹部ユニット、3 頭部ユニット、4R/L 腕部ユニット、5R/L 脚部ユニット、10 制御ユニット、11 主制御部、40 行動決定機構部、41 姿勢遷移機構部、42 制御機構部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus that operates autonomously while transitioning between a plurality of postures, and an operation control method thereof.
[0002]
[Prior art]
A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots began to spread in Japan from the end of the 1960s, but many of them are industrial robots (industrial robots) such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.
[0003]
Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, it was designed based on the body mechanism and motion of a “pet-type” robot that imitates the body mechanism and movement of a quadruped animal such as a dog or cat, or a human who walks upright on two legs. Robotic devices such as “humanoid” or “humanoid” robots are already in practical use.
[0004]
Since these robot devices can perform various operations with an emphasis on entertainment performance as compared with industrial robots, they may be referred to as entertainment robots. In addition, there is a robot apparatus that operates autonomously according to information from the outside or an internal state.
[0005]
As an example of the autonomous robot apparatus that performs this autonomous operation,
[0006]
[Patent Document 1]
International Publication No. 00/43167 Pamphlet
[0007]
[Problems to be solved by the invention]
By the way, in order to increase intimacy with the user, it is desirable that the operation of the autonomous robot device imitating the above-described organism is as close to a real organism as possible. As a robot device that performs an operation close to a real creature, for example, even if a certain operation is being performed, it can transition to the next operation according to the input information supplied, and in some cases, can return to the original operation Things are desirable.
[0008]
However, in the technique described in
[0009]
The present invention has been proposed in view of such a conventional situation, and even when a certain operation is being performed, the operation can be changed to the next operation according to the supplied input information. It is another object of the present invention to provide a robot apparatus that can be restored and an operation control method thereof.
[0010]
[Means for Solving the Problems]
In order to achieve the above-described object, a robot apparatus according to the present invention is a robot apparatus that moves between a plurality of postures according to action command information, and the posture and the motion are registered. A graph storage means for storing a graph configured by connecting a posture and the above-described motion that changes the posture, and a path from the current posture to the target posture or the target motion in the action command information. Based on the graph, and based on a result of the search, the control unit includes a control unit configured to make a transition from the current posture to the target posture or the target operation. When action command information for executing another operation is given during the execution of one operation, the one operation is interrupted, the posture is close to the posture at the time of interruption, and then the other operation is changed. Also It is.
[0011]
In order to achieve the above-described object, an operation control method for a robot apparatus according to the present invention is an operation control method for a robot apparatus that moves between a plurality of postures according to action command information. Based on the action command information, the posture and the motion are registered on the path from the current posture to the target posture or the target motion, and the posture and the motion that changes the posture are connected. Search on the graph composed of the above, and move based on the search result to transition from the current posture to the target posture or the target motion, while another motion is performed during the execution of one motion When the action command information for executing is given, the one operation is interrupted, the posture is changed to a posture close to the posture at the time of interruption, and then the other operation is changed.
[0012]
In such a robot apparatus and its operation control method, when action command information for executing another operation is given during execution of one operation, the one operation is interrupted and the posture is close to the posture at the time of interruption. After the transition, transition to the other operation described above.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
[0014]
The biped walking type robot apparatus shown as an example of the present invention is a practical robot that supports human activities in various situations in the living environment and other daily lives, and expresses basic actions performed by humans. It is an entertainment robot that can do it.
[0015]
As shown in FIG. 1, the
[0016]
The joint degree-of-freedom configuration of the
[0017]
Each
[0018]
The
[0019]
Each
[0020]
In summary, the
[0021]
Each degree of freedom of the
[0022]
FIG. 3 schematically shows a control system configuration of the
[0023]
The operation of the
[0024]
In realizing the present invention, the installation location of the
[0025]
Each joint freedom degree in the
[0026]
The
[0027]
The
[0028]
Also, the
[0029]
Further, the
[0030]
For each mechanism unit such as the
[0031]
The
[0032]
Based on the output of the ground
[0033]
The
[0034]
The whole body movement on the body of the
[0035]
As described above, in the
[0036]
In addition to the attitude control as described above, the
[0037]
The
[0038]
The
[0039]
Further, the
[0040]
In this way, the
[0041]
FIG. 4 is a diagram functionally classifying the contents of the data processing of the
[0042]
The behavior
[0043]
The posture
[0044]
Based on this posture transition information S3, the
[0045]
Hereinafter, processing performed by the posture
The
[0046]
Therefore, when the behavior command information S2 supplied from the behavior
[0047]
In practice, the posture
[0048]
Specifically, the posture
[0049]
Here, there may be a plurality of directed arcs and self-moving arcs. That is, a plurality of directed arcs may be coupled between transitionable nodes (attitudes), and a plurality of self-motion arcs may be coupled at one node.
[0050]
When the behavior command information S2 is supplied from the behavior
[0051]
The
[0052]
Now, as shown in FIG. 6, a case is assumed where self-motion arcs a <b> 1 and a <b> 2 indicating self-motion such as “dance” and “walking” are coupled to a node ND <b> 1 representing “standing posture”, respectively. The “dance” operation is executed with the posture of the node ND1 as the initial posture, and returns to the original posture and ends. In addition, the “walking” operation is started with the posture of the node ND1 as an initial posture, and is stopped in the original posture.
[0053]
Here, in order to enhance the biological feeling of the
[0054]
However, in the technique described in
[0055]
Therefore, the posture
[0056]
FIG. 8 shows the transition of the operation in the case of executing the “walking” operation (self-operation arc a2) while interrupting the “dance” operation (self-operation arc a1). As shown in FIG. 8, conventionally, even when a transition to a “walking” operation (self-motion arc a2) is instructed during execution of a “dance” operation (self-motion arc a1), The “walking” operation is not executed until the operation of “is completed and the posture of the node ND1 is returned (for example, for 1 minute). In contrast, in the present embodiment, when a transition to the “walking” operation (self-motion arc a2) is instructed during the execution of the “dance” operation (self-motion arc a1), the “dance” operation is performed. And transition to a posture (here, node ND2) closest to the posture at the time of the interruption. Then, the transition is again made from the node ND2 to the node ND1, and the “walk” operation (self-operation arc a2) is executed. Thereby, a quicker and less wasteful movement can be realized, and the biological feeling of the
[0057]
Here, after another operation is performed, the operation can be performed again from the continuation of the “dance” operation.
[0058]
For example, a case is assumed where self-motion arcs a1 and a3 indicating self-motion such as “dance” and “turn around” are coupled to the node ND1 representing “standing posture”.
[0059]
When the action determining
[0060]
The transition of the operation when the “dance” operation (self-motion arc a1) is interrupted and the “return” operation (self-motion arc a3) is executed and the “dance” operation (self-motion arc a1) is executed again. FIG. 10 shows a comparison with the prior art. As shown in FIG. 10, in the related art, when a transition to a “turnback” operation (self-motion arc a3) is instructed during execution of a “dance” operation (self-motion arc a1), Although the “return” operation is performed after the end of the operation, the “dance” operation cannot be performed again. On the other hand, in the present embodiment, when a transition to a “return” operation (self operation arc a3) is instructed during execution of the “dance” operation (self operation arc a1), the “dance” operation is performed. And transition to a posture (here, node ND2) closest to the posture at the time of the interruption. Then, the transition is again made from the node ND2 to the node ND1, and the “return” operation (self-operation arc a3) is executed. After that, the transition is made from the posture of the node ND1 to the posture at the time when the dance is interrupted, and the continuation of the “dance” operation is executed from the posture. Thereby, a more natural autonomous action with continuity becomes possible, and the biological feeling of the
[0061]
In the above example, when the “dance” operation is interrupted, the transition to the posture of the node ND2 different from the node ND1 is described. However, the posture when the “dance” operation is interrupted is If it is closest to the attitude of the node ND1, it may be changed to the attitude of the node ND1. That is, it is only necessary to make a transition from the posture when a certain operation is interrupted to the node indicating the closest posture.
[0062]
Here, when a certain operation is interrupted and a transition is made to a node that shows a posture closest to the posture at the time of the interruption, there may be a case where the movable parts self-interfer with each other and cause an emergency stop. For example, in the state where the left forearm is on the right forearm in front of the trunk, if the left forearm is lowered, self-interference occurs with the right forearm. In such a case, when transitioning from the interrupted attitude to the node indicating the closest attitude, for example, the technique described in the specification and drawings of Japanese Patent Application No. 2003-78834 previously proposed by the present applicant is used. It is desirable to use it to solve the interference problem and recover automatically.
[0063]
In particular,
(A) A method of continuing operation even when interference occurs without solving a strict interference problem
(B) A method for generating a non-interfering operation without solving a strict interference problem
(C) A method for generating a non-interfering operation while solving a strict interference problem
Any one of the methods will automatically recover from the emergency stop state.
[0064]
Hereinafter, a method for automatically returning the
[0065]
For example, “(A) a method of continuing the operation even when interference occurs without solving a strict interference problem” includes a method of weakening the actuator. That is, the torque or force generated by the actuator when self-interference occurs is temporarily limited, or is limited in advance in case interference occurs. Thereby, in the example of the self-interference described above, for example, the return operation can be continued while the left forearm is in contact with the surface of the right forearm, and the return operation of the left arm can be completed safely.
[0066]
In addition, when performing PTP (Point To Point) control, it is also possible to sequentially operate from the tip of the movable part. That is, when the upper limb is returned, the hand is sequentially operated, and when the lower limb is returned, the operation is sequentially performed from the foot. Thus, by solving the emergency stop state from the tip, it becomes difficult for the limbs to get entangled.
[0067]
Similarly, when PTP control is performed, it is also possible to sequentially operate from the root of the movable part. That is, the operation is performed in order from the joint close to the base link. In this case, it is possible to prevent the limbs from becoming entangled by limiting the torque or force generated by the actuator that has not started to move.
[0068]
Next, “(B) a method of generating a non-interfering operation without solving a strict interference problem” includes continuing control with a small torque or force. That is, even after the occurrence of interference, the torque or force generated by the actuator is not set to zero, and control is continued with a small torque or force. As a result, it is possible to prevent the posture from being unspecified, and it is easy to generate a subsequent return operation.
[0069]
In addition, the operation may be traced back to the time of occurrence of interference. That is, in order to return from the posture at the time of occurrence of interference, an operation opposite to the operation up to the time when the interference occurs is performed.
[0070]
Subsequently, as “(C) a method for generating a motion that does not interfere while solving a strict interference problem”, the
[0071]
As described above, according to the
[0072]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
[0073]
For example, in the above-described embodiment, the case where the present invention is applied to the biped walking
[0074]
【The invention's effect】
As described above in detail, the robot apparatus according to the present invention is a robot apparatus that moves between a plurality of postures according to action command information, and the posture and the motion are registered, and the posture is Based on the action command information, a graph storage means for storing a graph configured by connecting the posture and the motion to change the posture, and a path from the current posture to the target posture or the target motion. Control means for searching on the graph and operating based on the search result to transition from the current posture to the target posture or the target motion. When action command information for executing another operation is given during the execution of the operation, the one operation is interrupted, the posture is changed to a posture close to the posture at the time of interruption, and then the other operation is changed. so That.
[0075]
Also, the robot apparatus motion control method according to the present invention is a motion control method for a robot apparatus that moves by moving between a plurality of postures according to action command information, and is a posture that is targeted from a current posture. Alternatively, based on the action command information, a path to a target action is searched on a graph configured by registering the attitude and the action, and connecting the attitude and the action that changes the attitude. , Based on the search result, the behavior command information is given to make the transition from the current posture to the target posture or the target motion, and to execute another motion while executing one motion. In such a case, the one operation is interrupted, the posture is changed to a posture close to the posture at the time of interruption, and then the other operation is changed.
[0076]
According to such a robot apparatus and its operation control method, when action command information for executing another operation is given during execution of one operation, the one operation is interrupted and is close to the posture at the time of interruption. After the transition to the posture, the transition to the above-mentioned other movements can realize a quicker and more efficient movement, and further enhance the biological feeling of the robot apparatus.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external configuration of a robot apparatus according to an embodiment.
FIG. 2 is a diagram schematically illustrating a freedom degree configuration model of the robot apparatus.
FIG. 3 is a diagram schematically showing a control system configuration of the robot apparatus.
FIG. 4 is a diagram functionally classifying the contents of data processing of the main control unit.
FIG. 5 is a diagram showing a posture transition graph in a posture transition mechanism unit of the main control unit;
FIG. 6 is a diagram illustrating an example in which “dance” and “walk” self-motion arcs are coupled to a node representing “standing posture”;
FIG. 7 is a diagram illustrating a posture transition graph when the “walk” operation is performed while the “dance” operation is interrupted.
FIG. 8 is a diagram for explaining the transition of the operation when the “dance” operation is interrupted and the “walk” operation is performed, as compared with the conventional case.
FIG. 9 is a diagram illustrating an example in which “dance” and “turn around” self-motion arcs are coupled to a node representing “standing posture”;
FIG. 10 is a diagram for explaining the transition of the operation in the case where the “dance” operation is interrupted and the “return” operation is performed and the “dance” operation is performed again, compared to the conventional case.
[Explanation of symbols]
DESCRIPTION OF
Claims (4)
上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフを記憶するグラフ記憶手段と、
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて上記グラフ上において検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備え、
上記制御手段は、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させる
ことを特徴とするロボット装置。A robot device that moves between a plurality of postures according to action command information and operates.
A graph storage means for storing a graph configured by connecting the posture and the motion for transitioning the posture, wherein the posture and the motion are registered;
The route from the current posture to the target posture or the target motion is searched on the graph based on the action command information, and the route is operated based on the search result. A control means for making a transition to a target posture or a target action,
When the action command information for executing another operation is given during execution of the one operation, the control means interrupts the one operation, makes a transition to a posture close to the posture at the time of interruption, and then performs the other operation. A robot apparatus characterized by making a transition to the operation.
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフ上において検索し、
検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、
一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させる
ことを特徴とするロボット装置の動作制御方法。An operation control method for a robot apparatus that moves between a plurality of postures according to action command information,
Based on the action command information, the posture and the motion are registered on the path from the current posture to the target posture or the target motion, and the posture and the motion that changes the posture are connected. Search on a graph composed of
Operate based on the search result, transition from the current posture to the target posture or the target motion,
When action command information for executing another operation is given during the execution of one operation, the one operation is interrupted, the posture is close to the posture at the time of interruption, and then the other operation is changed. An operation control method for a robot apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003172388A JP2005007501A (en) | 2003-06-17 | 2003-06-17 | Robot device and its motion control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003172388A JP2005007501A (en) | 2003-06-17 | 2003-06-17 | Robot device and its motion control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005007501A true JP2005007501A (en) | 2005-01-13 |
Family
ID=34096562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003172388A Withdrawn JP2005007501A (en) | 2003-06-17 | 2003-06-17 | Robot device and its motion control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005007501A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100989078B1 (en) | 2007-12-03 | 2010-10-25 | 한국전자통신연구원 | Method and apparatus for action execution in a robot |
JP2011056624A (en) * | 2009-09-10 | 2011-03-24 | Nara Institute Of Science & Technology | Route plan generating device, route plan generating method, robot control device and robot system |
WO2018037662A1 (en) * | 2016-08-26 | 2018-03-01 | シャープ株式会社 | Robot, robot control method, and control program |
-
2003
- 2003-06-17 JP JP2003172388A patent/JP2005007501A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100989078B1 (en) | 2007-12-03 | 2010-10-25 | 한국전자통신연구원 | Method and apparatus for action execution in a robot |
JP2011056624A (en) * | 2009-09-10 | 2011-03-24 | Nara Institute Of Science & Technology | Route plan generating device, route plan generating method, robot control device and robot system |
WO2018037662A1 (en) * | 2016-08-26 | 2018-03-01 | シャープ株式会社 | Robot, robot control method, and control program |
JPWO2018037662A1 (en) * | 2016-08-26 | 2019-03-07 | シャープ株式会社 | Robot, robot control method, and control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1136193A2 (en) | Humanoid robot communicating with body language | |
JP2003266351A (en) | Robot device and motion control method therefor | |
Neo et al. | Whole-body motion generation integrating operator's intention and robot's autonomy in controlling humanoid robots | |
JP2001150370A (en) | Leg-type moving robot and operation control method for the same | |
JP4179230B2 (en) | Robot apparatus and operation control method thereof | |
JP2002144260A (en) | Leg type moving robot and its control method | |
JP2001138271A (en) | Leg type mobile robot and at-overturn motion control method for robot | |
JP4449372B2 (en) | Robot apparatus and behavior control method thereof | |
JP4281286B2 (en) | Robot apparatus and control method thereof | |
JP2002059384A (en) | Learning system and learning method for robot | |
JP2005007501A (en) | Robot device and its motion control method | |
JP2001138273A (en) | Leg type mobile and its controlling method | |
JP4770990B2 (en) | Legged mobile robot and control method thereof | |
JP4506249B2 (en) | Robot apparatus and operation comparison method thereof | |
JP4587699B2 (en) | Robot apparatus and control method thereof | |
JP2005014144A (en) | Robot apparatus and method for controlling movement of the same | |
JP4539291B2 (en) | Robot apparatus and operation control method thereof | |
JP3813102B2 (en) | Posture control apparatus and posture control method for legged robot | |
JP2003136439A (en) | Robot device, and method and program for controlling gait of robot device | |
JP4110525B2 (en) | Robot apparatus and operation control method thereof | |
JP2002144261A (en) | Leg type moving robot and its control method | |
JP2002205290A (en) | Device and method for controlling leg type mobile robot | |
CN117207203B (en) | Robot control method, device, robot and storage medium | |
JP2003269579A (en) | Power transmission device and robot device | |
JP4552490B2 (en) | Robot apparatus and emotion control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060905 |