JP2005007501A - Robot device and its motion control method - Google Patents

Robot device and its motion control method Download PDF

Info

Publication number
JP2005007501A
JP2005007501A JP2003172388A JP2003172388A JP2005007501A JP 2005007501 A JP2005007501 A JP 2005007501A JP 2003172388 A JP2003172388 A JP 2003172388A JP 2003172388 A JP2003172388 A JP 2003172388A JP 2005007501 A JP2005007501 A JP 2005007501A
Authority
JP
Japan
Prior art keywords
posture
motion
transition
robot apparatus
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003172388A
Other languages
Japanese (ja)
Inventor
Kyoko Furumura
京子 古村
Shinichi Kariya
真一 狩谷
Takeshi Takagi
剛 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003172388A priority Critical patent/JP2005007501A/en
Publication of JP2005007501A publication Critical patent/JP2005007501A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot device movable to the next motion, and also restorable to original motion, in response to supplied input information, even during the time when performing a certain motion. <P>SOLUTION: This robot device interrupts motion of " a dance ", when transfer to " looking-back " motion (a self-operation arc a3) is indicated, when performing " dance " motion (a self-motion arc a1), and transfers to a posture (for example, a node ND2) closest to a posture at interrupted time. The robot device transfers again to a node ND1 from the node ND2, and performs the " looking-back " motion (a self-motion arc a3). Afterwards, the robot device moves to a stored dance interrupting time posture from a posture of the node ND1, and performs a continuance of the " dance " motion from the posture. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、複数の姿勢の間を遷移しながら自律的に動作するロボット装置及びその動作制御方法に関する。
【0002】
【従来の技術】
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0003】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。
【0004】
これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。また、そのようなロボット装置には、外部からの情報や内部の状態に応じて自律的に動作するものがある。
【0005】
この自律動作を行う自律型ロボット装置の一例として、下記特許文献1には、供給された入力情報に応じて、既知の姿勢を遷移しながら目標とされる動作を実行するロボット装置が記載されている。この特許文献1記載のロボット装置は、感情・本能モデルを有しており、感情・本能に基づいて次の動作(行動)を決定し、その動作(行動)を実行できる姿勢までの遷移計画を立てる。そして、その遷移計画に基づいて姿勢を遷移させてから、そのような感情・本能に基づいて決定した動作(行動)を実際に実行する。
【0006】
【特許文献1】
国際公開第00/43167号パンフレット
【0007】
【発明が解決しようとする課題】
ところで、ユーザとの親密性を高める上でも、上述した生物を模した自律型ロボット装置の動作は、できるだけ本物の生物に近いことが望ましい。本物の生物に近い動作を行うロボット装置としては、例えばある動作を実行中であっても、供給された入力情報に応じて次の動作に遷移でき、場合によっては元の動作に復帰できるようなものが望ましいといえる。
【0008】
しかしながら、上記特許文献1に記載の技術では、ある動作の実行中に動作を停止した場合には、予め設定された中立姿勢に遷移し、その中立姿勢から該中立姿勢に近い姿勢に遷移するため、自然な動作にならず、また、元の動作に復帰することが困難であった。このような問題を避けるためには、実行中の動作が終了し、既知の姿勢に戻ってから次の姿勢に遷移する必要があるが、この場合には、反射的な行動を即座にすることができず、自然で滑らかな自律動作を行うことが困難である。
【0009】
本発明は、このような従来の実情に鑑みて提案されたものであり、ある動作を実行中であっても、供給された入力情報に応じて次の動作に遷移でき、さらに元の動作にも復帰可能なロボット装置及びその動作制御方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係るロボット装置は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置であって、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフを記憶するグラフ記憶手段と、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて上記グラフ上において検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備え、上記制御手段は、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0011】
また、上述した目的を達成するために、本発明に係るロボット装置の動作制御方法は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置の動作制御方法であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフ上において検索し、検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0012】
このようなロボット装置及びその動作制御方法では、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断し、中断時の姿勢に近い姿勢に遷移した後、上記他の動作に遷移する。
【0013】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0014】
本発明の一構成例として示す2足歩行タイプのロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、人間が行う基本的な動作を表出できるエンターテインメントロボットである。
【0015】
図1に示すように、ロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
【0016】
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
【0017】
また、上肢を構成する各々の腕部ユニット4R/Lは、、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0018】
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
【0019】
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0020】
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0021】
上述したようなロボット装置1がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0022】
図3には、ロボット装置1の制御システム構成を模式的に示している。同図に示すように、ロボット装置1は、ヒトの四肢を表現した体幹部ユニット2,頭部ユニット3,腕部ユニット4R/L,脚部ユニット5R/Lと、各ユニット間の協調動作を実現するための適応制御を行う制御ユニット10とで構成される。
【0023】
ロボット装置1全体の動作は、制御ユニット10によって統括的に制御される。制御ユニット10は、CPU(Central Processing Unit)や、DRAM(Dynamic Random Access Memory)、フラッシュROM(Read Only Memory)等の主要回路コンポーネント(図示せず)で構成される主制御部11と、電源回路やロボット装置1の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示せず)などを含んだ周辺回路12とで構成される。
【0024】
本発明を実現するうえで、この制御ユニット10の設置場所は、特に限定されない。図3では体幹部ユニット2に搭載されているが、頭部ユニット3に搭載してもよい。あるいは、ロボット装置1外に制御ユニット10を配備して、ロボット装置1の機体とは有線又は無線で交信するようにしてもよい。
【0025】
図2に示したロボット装置1内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット3には、首関節ヨー軸101、首関節ピッチ軸102、首関節ロール軸103の各々を表現する首関節ヨー軸アクチュエータA、首関節ピッチ軸アクチュエータA、首関節ロール軸アクチュエータAが配設されている。
【0026】
また、頭部ユニット3には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。
【0027】
また、体幹部ユニット2には、体幹ピッチ軸104、体幹ロール軸105、体幹ヨー軸106の各々を表現する体幹ピッチ軸アクチュエータA、体幹ロール軸アクチュエータA、体幹ヨー軸アクチュエータAが配設されている。また、体幹部ユニット2には、このロボット装置1の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0028】
また、腕部ユニット4R/Lは、上腕ユニット4R/Lと、肘関節ユニット4R/Lと、前腕ユニット4R/Lに細分化されるが、肩関節ピッチ軸107、肩関節ロール軸108、上腕ヨー軸109、肘関節ピッチ軸110、前腕ヨー軸111、手首関節ピッチ軸112、手首関節ロール軸113の各々表現する肩関節ピッチ軸アクチュエータA、肩関節ロール軸アクチュエータA、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0029】
また、脚部ユニット5R/Lは、大腿部ユニット5R/Lと、膝ユニット5R/Lと、脛部ユニット5R/Lに細分化されるが、股関節ヨー軸115、股関節ピッチ軸116、股関節ロール軸117、膝関節ピッチ軸118、足首関節ピッチ軸119、足首関節ロール軸120の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA,A・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0030】
体幹部ユニット2、頭部ユニット3、各腕部ユニット4R/L、各脚部ユニット5R/Lなどの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部20,21,22R/L,23R/Lが配備されている。さらに、各脚部ユニット5R/Lの足底が接地したか否かを検出する接地確認センサ30R/Lを装着するとともに、体幹部ユニット2内には、姿勢を計測する姿勢センサ31を装備している。
【0031】
接地確認センサ30R/Lは、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ31は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0032】
接地確認センサ30R/Lの出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ31の出力により、体幹部分の傾きや姿勢を検出することができる。
【0033】
主制御部11は、各センサ30R/L,31の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部20,21,22R/L,23R/Lの各々に対して適応的な制御を行い、ロボット装置1の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。
【0034】
ロボット装置1の機体上での全身運動は、足部運動、ZMP(Zero Moment Point)軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容にしたがった動作を指示するコマンドを各副制御部20,21,22R/L,23R/Lに転送する。そして、各々の副制御部20,21,・・・等では、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A・・・等に対して駆動制御信号を出力する。ここでいう「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
【0035】
以上のように、ロボット装置1は、各々の副制御部20,21,・・・等が、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、ロボット装置1は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0036】
また、ロボット装置1における制御ユニット10では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット10では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部11と接続されている。
【0037】
主制御部11は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部11は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部11がこのロボット装置1の動作制御を行う際に利用される。
【0038】
主制御部11は、ロボット装置1の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部11は、上述のように主制御部11よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。
【0039】
さらに、主制御部11は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータA,A・・・を駆動させることにより、ロボット装置1に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0040】
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
【0041】
上述した主制御部11のデータ処理の内容を機能的に分類した図を図4に示す。図4に示すように、主制御部11は、行動決定機構部40と、姿勢遷移機構部41と、制御機構部42とに分けられる。
【0042】
行動決定機構部40は、上述したセンサデータ、画像・音声データ等の入力情報S1に基づいて次の動作(行動)を決定し、当該決定された動作(行動)の内容を行動指令情報S2として姿勢遷移機構部41に供給する。
【0043】
姿勢遷移機構部41は、ロボット装置1が遷移可能な姿勢及び遷移する際の動作を予め例えばグラフ(後述する有向グラフ)として保持しており、行動決定機構部40から供給された行動指令情報S2を姿勢遷移情報S3として制御機構部42に供給する。
【0044】
制御機構部42は、この姿勢遷移情報S3に基づいて、必要なアクチュエータA,A・・・を駆動させるための制御信号S4を生成し、これをアクチュエータA,A・・・に送出して当該アクチュエータA,A・・・を駆動させることにより、ロボット装置1に所望の動作を行わせる。
【0045】
以下、姿勢遷移機構部41にて行う処理について詳細に説明する。
ロボット装置1は、指令(行動指令情報S2)の内容に従った姿勢に遷移し、遷移した姿勢に応じた動作を行うが、指令の内容に従った姿勢に直接遷移できない場合もある。すなわち、ロボット装置1の姿勢は、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できなく、ある動作や姿勢を経由して可能になる姿勢とに分類される。例えば、ロボット装置1は、両手足を伸ばして寝転んだ姿勢から伏せた姿勢に直接遷移することはできるが、立った姿勢に直接遷移することはできず、一旦手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ち上がるという2段階の動作が必要である。
【0046】
したがって、姿勢遷移機構部41は、行動決定機構部40から供給された行動指令情報S2が直接遷移可能な姿勢を示す場合には、当該行動指令情報S2をそのまま姿勢遷移情報S3として制御機構部42に供給する一方、直接遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢や動作を経由して目標とされる姿勢(行動指令情報S2により指示された姿勢)まで遷移させるような姿勢遷移情報S3を生成し、これを制御機構部42に供給する。
【0047】
実際上、姿勢遷移機構部41は、ロボット装置1がとり得る姿勢及び動作が登録され、姿勢とこの姿勢を遷移させる動作とを結んで構成されたグラフを保持して、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させる。すなわち、姿勢遷移機構部41は、ロボット装置1がとり得る姿勢を予め登録すると共に、遷移可能な2つの姿勢の間を記録しておくようになされており、このグラフと行動決定機構部40から供給された行動指令情報S2とに基づいて、目標とされる姿勢或いは動作まで遷移させる。
【0048】
具体的には、姿勢遷移機構部41は、図5に示すような有向グラフというアルゴリズムを用いている。有向グラフでは、ロボット装置1がとり得る姿勢を示すノードと、遷移可能な2つのノード間を結ぶ有向アーク(動作アーク)と、場合によっては1つのノードから当該1つのノードに戻る動作のアーク、すなわち1つのノード内で完結する動作を示す自己動作アークとが結合されて構成されている。すなわち、姿勢遷移機構部41は、ロボット装置1の姿勢(静止姿勢)を示す情報とされるノードと、ロボット装置1の動作を示す情報とされる有向アーク及び自己動作アークとから構成される有向グラフを保持し、姿勢を点の情報として、さらに動作の情報を有向線の情報として把握している。
【0049】
ここで、有向アークや自己動作アークは複数とされていてもよい。すなわち、遷移可能なノード(姿勢)の間に有向アークが複数結合されていてもよく、1つのノードにおいて複数の自己動作アークが結合されていてもよい。
【0050】
姿勢遷移機構部41は、行動決定機構部40から行動指令情報S2が供給されると、現在の姿勢に対応したノードと、行動指令情報S2が示す次にとるべき姿勢に対応するノードとを結ぶように、有向アークの向きに従いながら現在のノードから次のノードに至る経路を順次検索することにより、現在の姿勢から目標とされるノード、或いは目標とされるアークに至る経路を探索する。ここで、目標とされるアークとは、有向アークであってもよく、自己動作アークであってもよい。例えば、自己動作アークが目標アークとなる場合とは、とるべき姿勢から開始される自己動作が目標とされた(指示された)場合であって、ダンスが指示された場合等が挙げられる。
【0051】
なお、ロボット装置1は、頭部ユニット3、各腕部ユニット4R/L、各脚部ユニット5R/Lなどの各構成ユニットを個別に動作させることが可能とされている。つまり、リソースが競合しない限り、例えば頭部ユニット3と腕部ユニット4R/Lとを別個に動作させることができるが、ロボット装置1の全体と頭部ユニット3とのようにリソースが競合する場合には、個別に動作させることができない。したがって、上述した行動指令情報S2は、リソース毎に生成することが可能である。
【0052】
さて、図6に示すように、「立ち姿勢」を表すノードND1に、それぞれ「ダンス」、「歩く」といった自己動作を示す自己動作アークa1,a2が結合されている場合を想定する。「ダンス」の動作は、ノードND1の姿勢を初期姿勢として実行され、元の姿勢に戻って終了する。また、「歩く」動作も、ノードND1の姿勢を初期姿勢として開始され、元の姿勢で停止する。
【0053】
ここで、ロボット装置1の生物感、すなわち人間らしさを高めるためには、例えば「ダンス」の動作(自己動作アークa1)の実行中であっても、周囲に何か好きな物があることが画像データとして得られた場合には、ダンスを中断してその物の方向に歩くという「歩く」動作(自己動作アークa2)に遷移することが望ましいと考えられる。
【0054】
しかしながら、前述した特許文献1に記載の技術では、「ダンス」の動作(自己動作アークa1)の実行中に動作を停止した場合には現在の姿勢が分からなくなり、予め設定された中立姿勢に遷移してこの中立姿勢から該中立姿勢に近い姿勢に遷移するため、自然な動作にならないという問題があった。このような問題を避けるためには、「ダンス」の動作(自己動作アークa1)が終了し、「立ち姿勢」(ノードND1)に戻ってから「歩く」姿勢(自己動作アークa2)に遷移する必要があるが、この場合には、反射的な行動を即座にすることができず、自然で滑らかな自律動作を行うことが困難であるという問題がある。この問題は、「ダンス」の動作(自己動作アークa1)の開始から終了までの時間が長い場合に特に顕著となる。
【0055】
そこで、本実施の形態における姿勢遷移機構部41は、「ダンス」の動作(自己動作アークa1)の実行中に「歩く」動作(自己動作アークa2)を目標アークとするように行動決定機構部40から指示された場合には、「ダンス」の動作を中断し、図7に示すように、中断したときの姿勢に最も近い姿勢を示すノードND2に遷移させる。そして、再びノードND2からノードND1に遷移させ、「歩く」動作(自己動作アークa2)を実行させる。
【0056】
「ダンス」の動作(自己動作アークa1)を中断して「歩く」動作(自己動作アークa2)を実行する場合の動作の推移を、従来と比較して図8に示す。図8に示すように、従来では、「ダンス」の動作(自己動作アークa1)の実行中に「歩く」動作(自己動作アークa2)への遷移が指示された場合であっても、「ダンス」の動作が終了してノードND1の姿勢に戻るまで(例えば1分間)、「歩く」動作を実行しなかった。これに対して、本実施の形態では、「ダンス」の動作(自己動作アークa1)の実行中に「歩く」動作(自己動作アークa2)への遷移が指示されると、「ダンス」の動作を中断し、中断した時点での姿勢に最も近い姿勢(ここではノードND2)に遷移する。そして、再びノードND2からノードND1に遷移し、「歩く」動作(自己動作アークa2)を実行する。これにより、より速やかで且つ無駄のない動きを実現することができ、さらにロボット装置1の生物感を高めることができる。
【0057】
ここで、別の動作を実行した後に、再び「ダンス」の動作の続きから実行することも可能である。
【0058】
例えば「立ち姿勢」を表すノードND1に、それぞれ「ダンス」、「振り返る」といった自己動作を示す自己動作アークa1,a3が結合されている場合を想定する。
【0059】
「ダンス」の動作(自己動作アークa1)の実行中に「振り返る」動作(自己動作アークa3)を目標アークとするように行動決定機構部40から指示された場合には、「ダンス」の動作を中断し、図9に示すように、中断したときの姿勢に最も近い姿勢を示すノードND2に遷移させる。そして、再びノードND2からノードND1に遷移させ、「振り返る」動作(自己動作アークa3)を実行させる。その後、ノードND1の姿勢から記憶しておいたダンスの中断時の姿勢に遷移させ、その姿勢から「ダンス」の動作の続きを実行させる。
【0060】
「ダンス」の動作(自己動作アークa1)を中断して「振り返る」動作(自己動作アークa3)を実行し、再び「ダンス」の動作(自己動作アークa1)を実行する場合の動作の推移を、従来と比較して図10に示す。図10に示すように、従来では、「ダンス」の動作(自己動作アークa1)の実行中に「振り返る」動作(自己動作アークa3)への遷移が指示された場合には、「ダンス」の動作の終了後に「振り返る」動作を実行するものの、再び「ダンス」の動作を続きを実行することはできなかった。これに対して、本実施の形態では、「ダンス」の動作(自己動作アークa1)の実行中に「振り返る」動作(自己動作アークa3)への遷移が指示されると、「ダンス」の動作を中断し、中断した時点での姿勢に最も近い姿勢(ここではノードND2)に遷移する。そして、再びノードND2からノードND1に遷移し、「振り返る」動作(自己動作アークa3)を実行する。その後、ノードND1の姿勢から記憶しておいたダンスの中断時の姿勢に遷移し、その姿勢から「ダンス」の動作の続きを実行する。これにより、継続性のある、より自然な自律行動が可能となり、さらにロボット装置1の生物感を高めることができる。
【0061】
なお、上述の例では、「ダンス」の動作を途中で中断した場合に、ノードND1とは異なるノードND2の姿勢に遷移するものとして説明したが、「ダンス」の動作を中断したときの姿勢がノードND1の姿勢に最も近い場合には、ノードND1の姿勢に遷移するようにしても構わない。すなわち、ある動作を中断したときの姿勢から最も近い姿勢を示すノードに遷移するようにすればよい。
【0062】
ここで、ある動作を中断して中断時点での姿勢に最も近い姿勢を示すノードに遷移する際に、可動部同士が自己干渉し、緊急停止してしまう場合が考えられる。例えば、胴体の前で左前腕が右前腕の上にある状態で、左前腕を下に降ろそうとすると、右前腕と自己干渉してしまう。このような場合には、中断したときの姿勢から最も近い姿勢を示すノードに遷移する際に、例えば本件出願人が先に提案した特願2003−78834の明細書及び図面に記載された技術を用いて干渉問題を解き、自動復帰することが望ましい。
【0063】
具体的には、
(A)厳密な干渉問題を解くことなく、干渉が発生した場合でも動作を続行する方法
(B)厳密な干渉問題を解くことなく、干渉しない動作を生成する方法
(C)厳密な干渉問題を解きながら、干渉しない動作を生成する方法
の何れかの方法により、緊急停止状態から自動復帰する。
【0064】
以下、ロボット装置1が緊急停止状態から自動復帰する方法について簡単に説明する。
【0065】
例えば、「(A)厳密な干渉問題を解くことなく、干渉が発生した場合でも動作を続行する方法」としては、アクチュエータを脱力する方法が挙げられる。すなわち、自己干渉が生じた場合にアクチュエータで発生させるトルク若しくは力を一時的に制限し、又は干渉が生じる場合に備えて予め制限する。これにより、例えば上述した自己干渉の例では、左前腕が右前腕表面に接触しながら復帰動作を継続し、左腕の復帰動作を無事に完了させることができる。
【0066】
また、PTP(Point To Point)制御を行う場合には、可動部の先端から順次動作させていくことも挙げられる。すなわち、上肢を復帰させるときには手先、下肢を復帰させるときには足先から順次動作させていく。このように、先端から緊急停止状態を解いていくことにより、肢体同士が絡まり難くなる。
【0067】
また、同様にPTP制御を行う場合には、可動部の根元から順次動作させることも挙げられる。すなわち、ベースリンクに近い関節から順に動作させる。この場合、動作が始まっていないアクチュエータで発生させるトルク又は力を制限することによって、肢体同士が絡まるのを防止することができる。
【0068】
次に、「(B)厳密な干渉問題を解くことなく、干渉しない動作を生成する方法」としては、小さなトルク又は力によって制御を継続することが挙げられる。すなわち、干渉発生後も、アクチュエータで発生させるトルク又は力を0にせず、小さなトルク又は力によって制御し続ける。これにより、規定外の姿勢になることを防ぐことができると共に、その後の復帰動作の生成が容易になる。
【0069】
また、干渉発生時まで動作を遡ることも挙げられる。すなわち、干渉発生時の姿勢から復帰させるために、干渉が発生した時点までの動作と逆の動作を行う。
【0070】
続いて、「(C)厳密な干渉問題を解きながら、干渉しない動作を生成する方法」としては、ロボット装置1において、厳密な干渉問題を解くことによって干渉の生じない動作を自律的に生成して復帰することが挙げられる。
【0071】
以上説明したように、本実施の形態におけるロボット装置1及びその動作制御方法によれば、ある動作、例えば「ダンス」の動作の実行中であっても、供給された入力情報に応じて動作を中断し、次の動作に遷移することができ、さらに元の動作にも復帰可能とされているため、より速やかで且つ無駄のない動きを実現すると共に、一貫性のある動作を実現することができ、さらにロボット装置1の生物感を高めることができる。
【0072】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0073】
例えば、上述の実施の形態では、本発明を人間を模した2足歩行型のロボット装置1に適用した場合について説明したが、これに限らず、動物を模した4足歩行型のロボット装置や、例えばゲームや展示等のエンターテインメント分野で用いられるロボット装置など、他の種々のロボット装置に適用可能である。
【0074】
【発明の効果】
以上詳細に説明したように、本発明に係るロボット装置は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置であって、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフを記憶するグラフ記憶手段と、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて上記グラフ上において検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備え、上記制御手段は、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0075】
また、本発明に係るロボット装置の動作制御方法は、行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置の動作制御方法であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフ上において検索し、検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させるものである。
【0076】
このようなロボット装置及びその動作制御方法によれば、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断し、中断時の姿勢に近い姿勢に遷移した後、上記他の動作に遷移することにより、より速やかで且つ無駄のない動きを実現することができ、さらにロボット装置の生物感を高めることができる。
【図面の簡単な説明】
【図1】本実施の形態におけるロボット装置の外観構成を示す斜視図である。
【図2】同ロボット装置の自由度構成モデルを模式的に示す図である。
【図3】同ロボット装置の制御システム構成を模式的に示す図である。
【図4】主制御部のデータ処理の内容を機能的に分類した図である。
【図5】同主制御部の姿勢遷移機構部における姿勢遷移のグラフを示す図である。
【図6】「立ち姿勢」を表すノードに「ダンス」及び「歩く」の自己動作アークが結合されている例を示す図である。
【図7】「ダンス」の動作を中断して「歩く」動作を実行する場合の姿勢遷移のグラフを示す図である。
【図8】「ダンス」の動作を中断して「歩く」動作を実行する場合の動作の推移を、従来と比較して説明する図である。
【図9】「立ち姿勢」を表すノードに「ダンス」及び「振り返る」の自己動作アークが結合されている例を示す図である。
【図10】「ダンス」の動作を中断して「振り返る」動作を実行し、再び「ダンス」の動作を実行する場合の動作の推移を、従来と比較して説明する図である。
【符号の説明】
1 ロボット装置、2 体幹部ユニット、3 頭部ユニット、4R/L 腕部ユニット、5R/L 脚部ユニット、10 制御ユニット、11 主制御部、40 行動決定機構部、41 姿勢遷移機構部、42 制御機構部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus that operates autonomously while transitioning between a plurality of postures, and an operation control method thereof.
[0002]
[Prior art]
A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots began to spread in Japan from the end of the 1960s, but many of them are industrial robots (industrial robots) such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.
[0003]
Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, it was designed based on the body mechanism and motion of a “pet-type” robot that imitates the body mechanism and movement of a quadruped animal such as a dog or cat, or a human who walks upright on two legs. Robotic devices such as “humanoid” or “humanoid” robots are already in practical use.
[0004]
Since these robot devices can perform various operations with an emphasis on entertainment performance as compared with industrial robots, they may be referred to as entertainment robots. In addition, there is a robot apparatus that operates autonomously according to information from the outside or an internal state.
[0005]
As an example of the autonomous robot apparatus that performs this autonomous operation, Patent Document 1 below describes a robot apparatus that performs a target operation while changing a known posture in accordance with supplied input information. Yes. The robot apparatus described in Patent Document 1 has an emotion / instinct model, determines the next action (behavior) based on the feeling / instinct, and creates a transition plan up to a posture in which the action (behavior) can be executed. Stand up. Then, after changing the posture based on the transition plan, the action (behavior) determined based on such feelings and instinct is actually executed.
[0006]
[Patent Document 1]
International Publication No. 00/43167 Pamphlet
[0007]
[Problems to be solved by the invention]
By the way, in order to increase intimacy with the user, it is desirable that the operation of the autonomous robot device imitating the above-described organism is as close to a real organism as possible. As a robot device that performs an operation close to a real creature, for example, even if a certain operation is being performed, it can transition to the next operation according to the input information supplied, and in some cases, can return to the original operation Things are desirable.
[0008]
However, in the technique described in Patent Document 1, when an operation is stopped during execution of a certain operation, the state changes to a preset neutral posture, and the state changes from the neutral posture to a posture close to the neutral posture. It was difficult to return to the original operation. In order to avoid such problems, it is necessary to end the current operation and return to a known posture before transitioning to the next posture. It is difficult to perform a natural and smooth autonomous operation.
[0009]
The present invention has been proposed in view of such a conventional situation, and even when a certain operation is being performed, the operation can be changed to the next operation according to the supplied input information. It is another object of the present invention to provide a robot apparatus that can be restored and an operation control method thereof.
[0010]
[Means for Solving the Problems]
In order to achieve the above-described object, a robot apparatus according to the present invention is a robot apparatus that moves between a plurality of postures according to action command information, and the posture and the motion are registered. A graph storage means for storing a graph configured by connecting a posture and the above-described motion that changes the posture, and a path from the current posture to the target posture or the target motion in the action command information. Based on the graph, and based on a result of the search, the control unit includes a control unit configured to make a transition from the current posture to the target posture or the target operation. When action command information for executing another operation is given during the execution of one operation, the one operation is interrupted, the posture is close to the posture at the time of interruption, and then the other operation is changed. Also It is.
[0011]
In order to achieve the above-described object, an operation control method for a robot apparatus according to the present invention is an operation control method for a robot apparatus that moves between a plurality of postures according to action command information. Based on the action command information, the posture and the motion are registered on the path from the current posture to the target posture or the target motion, and the posture and the motion that changes the posture are connected. Search on the graph composed of the above, and move based on the search result to transition from the current posture to the target posture or the target motion, while another motion is performed during the execution of one motion When the action command information for executing is given, the one operation is interrupted, the posture is changed to a posture close to the posture at the time of interruption, and then the other operation is changed.
[0012]
In such a robot apparatus and its operation control method, when action command information for executing another operation is given during execution of one operation, the one operation is interrupted and the posture is close to the posture at the time of interruption. After the transition, transition to the other operation described above.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
[0014]
The biped walking type robot apparatus shown as an example of the present invention is a practical robot that supports human activities in various situations in the living environment and other daily lives, and expresses basic actions performed by humans. It is an entertainment robot that can do it.
[0015]
As shown in FIG. 1, the robot apparatus 1 includes a head unit 3 connected to a predetermined position of the trunk unit 2, and two left and right arm units 4R / L and two right and left leg units 5R /. L is connected to each other (provided that R and L are suffixes indicating right and left, respectively, and the same applies hereinafter).
[0016]
The joint degree-of-freedom configuration of the robot apparatus 1 is schematically shown in FIG. The neck joint that supports the head unit 3 has three degrees of freedom: a neck joint yaw axis 101, a neck joint pitch axis 102, and a neck joint roll axis 103.
[0017]
Each arm unit 4R / L constituting the upper limb includes a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, an elbow joint pitch axis 110, a forearm yaw axis 111, A wrist joint pitch axis 112, a wrist joint roll axis 113, and a hand part 114 are configured. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the operation of the hand 114 has little contribution or influence on the posture control or walking control of the robot apparatus 1, it is assumed in this specification that the degree of freedom is zero. Therefore, it is assumed that each arm portion has seven degrees of freedom.
[0018]
The trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105, and a trunk yaw axis 106.
[0019]
Each leg unit 5R / L constituting the lower limb includes a hip joint yaw axis 115, a hip joint pitch axis 116, a hip joint roll axis 117, a knee joint pitch axis 118, an ankle joint pitch axis 119, and an ankle joint. A roll shaft 120 and a foot 121 are included. In the present specification, the intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. The foot 121 of the human body is actually a structure including a multi-joint / multi-degree-of-freedom sole, but the foot of the robot apparatus 1 has zero degrees of freedom. Accordingly, each leg is configured with 6 degrees of freedom.
[0020]
In summary, the robot apparatus 1 as a whole has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. Needless to say, the degree of freedom, that is, the number of joints, can be increased or decreased as appropriate in accordance with design / production constraints or required specifications.
[0021]
Each degree of freedom of the robot apparatus 1 as described above is actually implemented using an actuator. It is preferable that the actuator be small and light in light of demands such as eliminating the appearance of extra bulges on the appearance and approximating the shape of a human body, and performing posture control on an unstable structure such as biped walking. .
[0022]
FIG. 3 schematically shows a control system configuration of the robot apparatus 1. As shown in the figure, the robot apparatus 1 includes a trunk unit 2, a head unit 3, an arm unit 4R / L, and a leg unit 5R / L representing human limbs, and coordinated operations between the units. It is comprised with the control unit 10 which performs the adaptive control for implement | achieving.
[0023]
The operation of the entire robot apparatus 1 is controlled in an integrated manner by the control unit 10. The control unit 10 includes a main control unit 11 including a main circuit component (not shown) such as a CPU (Central Processing Unit), a DRAM (Dynamic Random Access Memory), and a flash ROM (Read Only Memory), and a power supply circuit. And a peripheral circuit 12 including an interface (not shown) for exchanging data and commands with each component of the robot apparatus 1.
[0024]
In realizing the present invention, the installation location of the control unit 10 is not particularly limited. Although it is mounted on the trunk unit 2 in FIG. 3, it may be mounted on the head unit 3. Alternatively, the control unit 10 may be provided outside the robot apparatus 1 so as to communicate with the body of the robot apparatus 1 by wire or wirelessly.
[0025]
Each joint freedom degree in the robot apparatus 1 shown in FIG. 2 is implement | achieved by the actuator corresponding to each. That is, the head unit 3 includes a neck joint yaw axis actuator A that represents the neck joint yaw axis 101, the neck joint pitch axis 102, and the neck joint roll axis 103. 2 , Neck joint pitch axis actuator A 3 , Neck joint roll axis actuator A 4 Is arranged.
[0026]
The head unit 3 is provided with a CCD (Charge Coupled Device) camera for imaging an external situation, a distance sensor for measuring the distance to an object located in front, and an external sound. A microphone for collecting sound, a speaker for outputting sound, a touch sensor for detecting pressure received by a physical action such as “stroking” or “striking” from a user, and the like are provided.
[0027]
The trunk unit 2 includes a trunk pitch axis actuator A that represents the trunk pitch axis 104, the trunk roll axis 105, and the trunk yaw axis 106. 5 , Trunk roll axis actuator A 6 , Trunk yaw axis actuator A 7 Is arranged. In addition, the trunk unit 2 includes a battery serving as a starting power source for the robot apparatus 1. This battery is constituted by a chargeable / dischargeable battery.
[0028]
Also, the arm unit 4R / L is the upper arm unit 4 1 R / L and elbow joint unit 4 2 R / L and forearm unit 4 3 Although it is subdivided into R / L, the shoulder joint pitch axis 107, the shoulder joint roll axis 108, the upper arm yaw axis 109, the elbow joint pitch axis 110, the forearm yaw axis 111, the wrist joint pitch axis 112, and the wrist joint roll axis 113 Each shoulder joint pitch axis actuator A 8 , Shoulder joint roll axis actuator A 9 , Upper arm yaw axis actuator A 10 , Elbow joint pitch axis actuator A 11 , Elbow joint roll axis actuator A 12 , Wrist joint pitch axis actuator A 13 Wrist joint roll axis actuator A 14 Is deployed.
[0029]
Further, the leg unit 5R / L includes the thigh unit 5 1 R / L and knee unit 5 2 R / L and shin unit 5 3 Although it is subdivided into R / L, the hip joint yaw axis representing the hip joint yaw axis 115, the hip joint pitch axis 116, the hip joint roll axis 117, the knee joint pitch axis 118, the ankle joint pitch axis 119, and the ankle joint roll axis 120. Actuator A 16 Hip joint pitch axis actuator A 17 , Hip roll axis actuator A 18 , Knee joint pitch axis actuator A 19 , Ankle joint pitch axis actuator A 20 , Ankle joint roll axis actuator A 21 Is deployed. Actuator A used for each joint 2 , A 3 .. Can be constituted by a small AC servo actuator of a type in which the servo control system is a one-chip, and is mounted in a motor unit.
[0030]
For each mechanism unit such as the trunk unit 2, the head unit 3, each arm unit 4R / L, each leg unit 5R / L, the sub-control units 20, 21, 22R / L, 23R of the actuator drive control unit / L is deployed. Furthermore, a grounding confirmation sensor 30R / L for detecting whether or not the sole of each leg unit 5R / L is grounded is mounted, and a posture sensor 31 for measuring the posture is provided in the trunk unit 2. ing.
[0031]
The grounding confirmation sensor 30R / L is configured by, for example, a proximity sensor or a micro switch installed on the sole of the foot. In addition, the posture sensor 31 is configured by a combination of an acceleration sensor and a gyro sensor, for example.
[0032]
Based on the output of the ground contact confirmation sensor 30R / L, it is possible to determine whether the left and right legs are currently standing or swinging during an operation period such as walking or running. Further, the inclination and posture of the trunk can be detected by the output of the posture sensor 31.
[0033]
The main control unit 11 can dynamically correct the control target in response to the outputs of the sensors 30R / L and 31. More specifically, the whole body that performs adaptive control on each of the sub-control units 20, 21, 22R / L, and 23R / L and that the upper limbs, the trunk, and the lower limbs of the robot apparatus 1 are cooperatively driven. A movement pattern can be realized.
[0034]
The whole body movement on the body of the robot apparatus 1 sets foot movement, ZMP (Zero Moment Point) trajectory, trunk movement, upper limb movement, waist height, etc., and instructs the movement according to these setting contents The command to be transferred is transferred to each of the sub-control units 20, 21, 22R / L, 23R / L. Each sub-control unit 20, 21,... Interprets a command received from the main control unit 11, and each actuator A 2 , A 3 ... and a drive control signal is output. Here, “ZMP” is a point on the floor where the moment due to floor reaction force during walking is zero, and “ZMP trajectory” is, for example, during the walking operation period of the robot apparatus 1. It means the trajectory that ZMP moves. Regarding the concept of ZMP and the application of ZMP to the stability criterion for walking robots, Migir Vukobratovic “LEGGED LOCATION ROBOTS” (Ichiro Kato's “Walking Robots and Artificial Feet” (Nikkan Kogyo Shimbun)) It is described in.
[0035]
As described above, in the robot apparatus 1, each sub-control unit 20, 21,... Interprets the received command from the main control unit 11, and each actuator A 2 , A 3 ... and a drive control signal is output to control the drive of each unit. Thereby, the robot apparatus 1 can stably transition to the target posture and can walk in a stable posture.
[0036]
In addition to the attitude control as described above, the control unit 10 in the robot apparatus 1 receives various sensors such as an acceleration sensor, a touch sensor, and a grounding confirmation sensor, image information from a CCD camera, audio information from a microphone, and the like. It is integrated and processed. In the control unit 10, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone and a speaker, each actuator, a CCD camera, and a battery are connected to the main control unit 11 via corresponding hubs. Has been.
[0037]
The main control unit 11 sequentially takes in sensor data, image data, and audio data supplied from the above-described sensors, and sequentially stores them in a predetermined position in the DRAM via the internal interface. Further, the main control unit 11 sequentially takes in battery remaining amount data representing the remaining amount of battery supplied from the battery and stores it in a predetermined position in the DRAM. Each sensor data, image data, audio data, and battery remaining amount data stored in the DRAM is used when the main control unit 11 controls the operation of the robot apparatus 1.
[0038]
The main control unit 11 reads the control program and stores it in the DRAM at the initial stage when the power of the robot apparatus 1 is turned on. In addition, the main control unit 11 determines whether the main control unit 11 itself or the surrounding situation or the user based on each sensor data, image data, audio data, and battery remaining amount data sequentially stored in the DRAM from the main control unit 11 as described above. Judgment of whether or not there is an instruction and action.
[0039]
Further, the main control unit 11 determines an action according to its own situation based on the determination result and the control program stored in the DRAM, and also determines the necessary actuator A based on the determination result. 2 , A 3 Are driven to cause the robot apparatus 1 to take actions such as so-called “gesture” and “hand gesture”.
[0040]
In this way, the robot apparatus 1 can determine its own and surrounding conditions based on the control program and act autonomously.
[0041]
FIG. 4 is a diagram functionally classifying the contents of the data processing of the main control unit 11 described above. As shown in FIG. 4, the main control unit 11 is divided into an action determination mechanism unit 40, a posture transition mechanism unit 41, and a control mechanism unit 42.
[0042]
The behavior determination mechanism unit 40 determines the next operation (behavior) based on the input information S1 such as the sensor data and the image / audio data described above, and the content of the determined operation (behavior) is set as the behavior command information S2. This is supplied to the posture transition mechanism unit 41.
[0043]
The posture transition mechanism unit 41 holds, in advance, for example, a graph (a directed graph to be described later), and a behavior command information S2 supplied from the behavior determination mechanism unit 40. The posture transition information S3 is supplied to the control mechanism unit 42.
[0044]
Based on this posture transition information S3, the control mechanism unit 42 determines the necessary actuator A. 2 , A 3 A control signal S4 for driving... Is generated. 2 , A 3 ... to the actuator A 2 , A 3 Are driven to cause the robot apparatus 1 to perform a desired operation.
[0045]
Hereinafter, processing performed by the posture transition mechanism unit 41 will be described in detail.
The robot apparatus 1 transitions to a posture according to the content of the command (behavior command information S2) and performs an operation according to the transitioned posture, but may not be able to directly transition to the posture according to the content of the command. That is, the posture of the robot apparatus 1 is classified into a posture that can be directly changed from the current posture and a posture that cannot be changed directly and can be made via a certain motion or posture. For example, the robot apparatus 1 can directly transition from a lying position with both hands and legs extended to a lying position, but cannot directly transition to a standing position, and once pulled the limbs close to the torso. A two-step movement is required to become a posture and then to stand up.
[0046]
Therefore, when the behavior command information S2 supplied from the behavior determination mechanism unit 40 indicates a directly transitionable posture, the posture transition mechanism unit 41 directly uses the behavior command information S2 as the posture transition information S3. On the other hand, when a posture that cannot be directly transitioned is indicated, a transition is made to the target posture (the posture instructed by the behavior command information S2) via another posture or motion that can be transitioned. Posture transition information S <b> 3 is generated and supplied to the control mechanism unit 42.
[0047]
In practice, the posture transition mechanism unit 41 is registered with postures and actions that the robot apparatus 1 can take, holds a graph formed by connecting the posture and the motion that changes the posture, Transition to a desired posture or a desired action. That is, the posture transition mechanism unit 41 registers in advance the postures that the robot apparatus 1 can take, and records between two postures that can be transitioned. Based on the supplied action command information S2, a transition is made to a target posture or action.
[0048]
Specifically, the posture transition mechanism unit 41 uses an algorithm called a directed graph as shown in FIG. In the directed graph, a node indicating a posture that the robot apparatus 1 can take, a directed arc (operation arc) connecting two transitionable nodes, and an arc of operation returning from one node to the one node in some cases, That is, a self-operation arc indicating an operation completed within one node is combined. That is, the posture transition mechanism unit 41 includes a node that is information indicating the posture (stationary posture) of the robot device 1, and a directed arc and a self-motion arc that are information indicating the operation of the robot device 1. It holds a directed graph, and grasps posture as point information and movement information as directed line information.
[0049]
Here, there may be a plurality of directed arcs and self-moving arcs. That is, a plurality of directed arcs may be coupled between transitionable nodes (attitudes), and a plurality of self-motion arcs may be coupled at one node.
[0050]
When the behavior command information S2 is supplied from the behavior determination mechanism unit 40, the posture transition mechanism unit 41 connects the node corresponding to the current posture and the node corresponding to the posture to be taken next indicated by the behavior command information S2. As described above, the route from the current node to the next node is sequentially searched according to the direction of the directed arc, thereby searching for the route from the current posture to the target node or the target arc. Here, the target arc may be a directed arc or a self-operating arc. For example, the case where the self-motion arc becomes the target arc is a case where the self-motion starting from the posture to be taken is targeted (instructed) and a dance is instructed.
[0051]
The robot apparatus 1 is capable of individually operating each component unit such as the head unit 3, each arm unit 4R / L, and each leg unit 5R / L. That is, as long as the resources do not compete, for example, the head unit 3 and the arm unit 4R / L can be operated separately, but the resources compete as in the entire robot device 1 and the head unit 3. Cannot be operated individually. Therefore, the action command information S2 described above can be generated for each resource.
[0052]
Now, as shown in FIG. 6, a case is assumed where self-motion arcs a <b> 1 and a <b> 2 indicating self-motion such as “dance” and “walking” are coupled to a node ND <b> 1 representing “standing posture”, respectively. The “dance” operation is executed with the posture of the node ND1 as the initial posture, and returns to the original posture and ends. In addition, the “walking” operation is started with the posture of the node ND1 as an initial posture, and is stopped in the original posture.
[0053]
Here, in order to enhance the biological feeling of the robot apparatus 1, that is, the human nature, there is something that is favorite around even during the execution of the “dance” action (self-motion arc a1). When obtained as image data, it is considered desirable to transition to a “walking” operation (self-motion arc a2) in which the dance is interrupted and walking in the direction of the object.
[0054]
However, in the technique described in Patent Document 1 described above, when the operation is stopped during the execution of the “dance” operation (self-motion arc a1), the current posture is not known, and a transition is made to a preset neutral posture. As a result, the neutral posture is changed to a posture close to the neutral posture. In order to avoid such a problem, the operation of “dance” (self-motion arc a1) is completed, and after returning to the “standing posture” (node ND1), transition is made to the “walking” posture (self-motion arc a2). Although it is necessary, in this case, there is a problem that reflexive action cannot be made immediately and it is difficult to perform a natural and smooth autonomous operation. This problem is particularly noticeable when the time from the start to the end of the “dance” operation (self-operation arc a1) is long.
[0055]
Therefore, the posture transition mechanism unit 41 according to the present embodiment performs an action determination mechanism unit so that the “walking” operation (self-operation arc a2) is set as the target arc during the execution of the “dance” operation (self-operation arc a1). When instructed by 40, the “dance” operation is interrupted, and as shown in FIG. 7, a transition is made to a node ND2 indicating an attitude closest to the attitude at the time of interruption. Then, the transition is again made from the node ND2 to the node ND1, and the “walk” operation (self-operation arc a2) is executed.
[0056]
FIG. 8 shows the transition of the operation in the case of executing the “walking” operation (self-operation arc a2) while interrupting the “dance” operation (self-operation arc a1). As shown in FIG. 8, conventionally, even when a transition to a “walking” operation (self-motion arc a2) is instructed during execution of a “dance” operation (self-motion arc a1), The “walking” operation is not executed until the operation of “is completed and the posture of the node ND1 is returned (for example, for 1 minute). In contrast, in the present embodiment, when a transition to the “walking” operation (self-motion arc a2) is instructed during the execution of the “dance” operation (self-motion arc a1), the “dance” operation is performed. And transition to a posture (here, node ND2) closest to the posture at the time of the interruption. Then, the transition is again made from the node ND2 to the node ND1, and the “walk” operation (self-operation arc a2) is executed. Thereby, a quicker and less wasteful movement can be realized, and the biological feeling of the robot apparatus 1 can be further enhanced.
[0057]
Here, after another operation is performed, the operation can be performed again from the continuation of the “dance” operation.
[0058]
For example, a case is assumed where self-motion arcs a1 and a3 indicating self-motion such as “dance” and “turn around” are coupled to the node ND1 representing “standing posture”.
[0059]
When the action determining mechanism unit 40 instructs that the “turnback” operation (self-operation arc a3) is the target arc during the execution of the “dance” operation (self-operation arc a1), the “dance” operation As shown in FIG. 9, a transition is made to the node ND2 indicating the posture closest to the posture at the time of interruption. Then, the transition is made again from the node ND2 to the node ND1, and the “return” operation (self-operation arc a3) is executed. After that, the transition is made from the posture of the node ND1 to the stored posture at the time of interruption of the dance, and the continuation of the “dance” operation is executed from the posture.
[0060]
The transition of the operation when the “dance” operation (self-motion arc a1) is interrupted and the “return” operation (self-motion arc a3) is executed and the “dance” operation (self-motion arc a1) is executed again. FIG. 10 shows a comparison with the prior art. As shown in FIG. 10, in the related art, when a transition to a “turnback” operation (self-motion arc a3) is instructed during execution of a “dance” operation (self-motion arc a1), Although the “return” operation is performed after the end of the operation, the “dance” operation cannot be performed again. On the other hand, in the present embodiment, when a transition to a “return” operation (self operation arc a3) is instructed during execution of the “dance” operation (self operation arc a1), the “dance” operation is performed. And transition to a posture (here, node ND2) closest to the posture at the time of the interruption. Then, the transition is again made from the node ND2 to the node ND1, and the “return” operation (self-operation arc a3) is executed. After that, the transition is made from the posture of the node ND1 to the posture at the time when the dance is interrupted, and the continuation of the “dance” operation is executed from the posture. Thereby, a more natural autonomous action with continuity becomes possible, and the biological feeling of the robot apparatus 1 can be further enhanced.
[0061]
In the above example, when the “dance” operation is interrupted, the transition to the posture of the node ND2 different from the node ND1 is described. However, the posture when the “dance” operation is interrupted is If it is closest to the attitude of the node ND1, it may be changed to the attitude of the node ND1. That is, it is only necessary to make a transition from the posture when a certain operation is interrupted to the node indicating the closest posture.
[0062]
Here, when a certain operation is interrupted and a transition is made to a node that shows a posture closest to the posture at the time of the interruption, there may be a case where the movable parts self-interfer with each other and cause an emergency stop. For example, in the state where the left forearm is on the right forearm in front of the trunk, if the left forearm is lowered, self-interference occurs with the right forearm. In such a case, when transitioning from the interrupted attitude to the node indicating the closest attitude, for example, the technique described in the specification and drawings of Japanese Patent Application No. 2003-78834 previously proposed by the present applicant is used. It is desirable to use it to solve the interference problem and recover automatically.
[0063]
In particular,
(A) A method of continuing operation even when interference occurs without solving a strict interference problem
(B) A method for generating a non-interfering operation without solving a strict interference problem
(C) A method for generating a non-interfering operation while solving a strict interference problem
Any one of the methods will automatically recover from the emergency stop state.
[0064]
Hereinafter, a method for automatically returning the robot apparatus 1 from the emergency stop state will be briefly described.
[0065]
For example, “(A) a method of continuing the operation even when interference occurs without solving a strict interference problem” includes a method of weakening the actuator. That is, the torque or force generated by the actuator when self-interference occurs is temporarily limited, or is limited in advance in case interference occurs. Thereby, in the example of the self-interference described above, for example, the return operation can be continued while the left forearm is in contact with the surface of the right forearm, and the return operation of the left arm can be completed safely.
[0066]
In addition, when performing PTP (Point To Point) control, it is also possible to sequentially operate from the tip of the movable part. That is, when the upper limb is returned, the hand is sequentially operated, and when the lower limb is returned, the operation is sequentially performed from the foot. Thus, by solving the emergency stop state from the tip, it becomes difficult for the limbs to get entangled.
[0067]
Similarly, when PTP control is performed, it is also possible to sequentially operate from the root of the movable part. That is, the operation is performed in order from the joint close to the base link. In this case, it is possible to prevent the limbs from becoming entangled by limiting the torque or force generated by the actuator that has not started to move.
[0068]
Next, “(B) a method of generating a non-interfering operation without solving a strict interference problem” includes continuing control with a small torque or force. That is, even after the occurrence of interference, the torque or force generated by the actuator is not set to zero, and control is continued with a small torque or force. As a result, it is possible to prevent the posture from being unspecified, and it is easy to generate a subsequent return operation.
[0069]
In addition, the operation may be traced back to the time of occurrence of interference. That is, in order to return from the posture at the time of occurrence of interference, an operation opposite to the operation up to the time when the interference occurs is performed.
[0070]
Subsequently, as “(C) a method for generating a motion that does not interfere while solving a strict interference problem”, the robot apparatus 1 autonomously generates a motion that does not cause interference by solving a strict interference problem. To return.
[0071]
As described above, according to the robot apparatus 1 and the operation control method thereof according to the present embodiment, even when a certain operation, for example, a “dance” operation is being performed, the operation is performed according to the supplied input information. Because it is possible to interrupt, transition to the next operation, and to return to the original operation, it is possible to realize a quicker and less wasteful movement and a consistent operation In addition, the biological feeling of the robot apparatus 1 can be enhanced.
[0072]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
[0073]
For example, in the above-described embodiment, the case where the present invention is applied to the biped walking robot apparatus 1 that imitates a human being is described. However, the present invention is not limited to this, and a quadruped walking robot apparatus that imitates an animal, For example, the present invention can be applied to various other robot devices such as a robot device used in the entertainment field such as games and exhibitions.
[0074]
【The invention's effect】
As described above in detail, the robot apparatus according to the present invention is a robot apparatus that moves between a plurality of postures according to action command information, and the posture and the motion are registered, and the posture is Based on the action command information, a graph storage means for storing a graph configured by connecting the posture and the motion to change the posture, and a path from the current posture to the target posture or the target motion. Control means for searching on the graph and operating based on the search result to transition from the current posture to the target posture or the target motion. When action command information for executing another operation is given during the execution of the operation, the one operation is interrupted, the posture is changed to a posture close to the posture at the time of interruption, and then the other operation is changed. so That.
[0075]
Also, the robot apparatus motion control method according to the present invention is a motion control method for a robot apparatus that moves by moving between a plurality of postures according to action command information, and is a posture that is targeted from a current posture. Alternatively, based on the action command information, a path to a target action is searched on a graph configured by registering the attitude and the action, and connecting the attitude and the action that changes the attitude. , Based on the search result, the behavior command information is given to make the transition from the current posture to the target posture or the target motion, and to execute another motion while executing one motion. In such a case, the one operation is interrupted, the posture is changed to a posture close to the posture at the time of interruption, and then the other operation is changed.
[0076]
According to such a robot apparatus and its operation control method, when action command information for executing another operation is given during execution of one operation, the one operation is interrupted and is close to the posture at the time of interruption. After the transition to the posture, the transition to the above-mentioned other movements can realize a quicker and more efficient movement, and further enhance the biological feeling of the robot apparatus.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external configuration of a robot apparatus according to an embodiment.
FIG. 2 is a diagram schematically illustrating a freedom degree configuration model of the robot apparatus.
FIG. 3 is a diagram schematically showing a control system configuration of the robot apparatus.
FIG. 4 is a diagram functionally classifying the contents of data processing of the main control unit.
FIG. 5 is a diagram showing a posture transition graph in a posture transition mechanism unit of the main control unit;
FIG. 6 is a diagram illustrating an example in which “dance” and “walk” self-motion arcs are coupled to a node representing “standing posture”;
FIG. 7 is a diagram illustrating a posture transition graph when the “walk” operation is performed while the “dance” operation is interrupted.
FIG. 8 is a diagram for explaining the transition of the operation when the “dance” operation is interrupted and the “walk” operation is performed, as compared with the conventional case.
FIG. 9 is a diagram illustrating an example in which “dance” and “turn around” self-motion arcs are coupled to a node representing “standing posture”;
FIG. 10 is a diagram for explaining the transition of the operation in the case where the “dance” operation is interrupted and the “return” operation is performed and the “dance” operation is performed again, compared to the conventional case.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Robot apparatus, 2 trunk unit, 3 head unit, 4R / L arm unit, 5R / L leg unit, 10 control unit, 11 main control part, 40 action determination mechanism part, 41 posture transition mechanism part, 42 Control mechanism

Claims (4)

行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置であって、
上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフを記憶するグラフ記憶手段と、
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて上記グラフ上において検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備え、
上記制御手段は、一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させる
ことを特徴とするロボット装置。
A robot device that moves between a plurality of postures according to action command information and operates.
A graph storage means for storing a graph configured by connecting the posture and the motion for transitioning the posture, wherein the posture and the motion are registered;
The route from the current posture to the target posture or the target motion is searched on the graph based on the action command information, and the route is operated based on the search result. A control means for making a transition to a target posture or a target action,
When the action command information for executing another operation is given during execution of the one operation, the control means interrupts the one operation, makes a transition to a posture close to the posture at the time of interruption, and then performs the other operation. A robot apparatus characterized by making a transition to the operation.
上記制御手段は、上記一の動作の中断時の姿勢を記憶しており、上記他の動作の終了後に、上記中断時の姿勢から上記一の動作を実行させることを特徴とする請求項1記載のロボット装置。2. The control unit according to claim 1, wherein the control unit stores a posture at the time when the one operation is interrupted, and causes the one operation to be executed from the posture at the time when the other operation is ended. Robotic device. 行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置の動作制御方法であって、
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて、上記姿勢及び上記動作が登録され、上記姿勢と該姿勢を遷移させる上記動作とを結んで構成されたグラフ上において検索し、
検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、
一の動作の実行中に他の動作を実行させる行動指令情報が与えられた場合、上記一の動作を中断させ、中断時の姿勢に近い姿勢に遷移させた後、上記他の動作に遷移させる
ことを特徴とするロボット装置の動作制御方法。
An operation control method for a robot apparatus that moves between a plurality of postures according to action command information,
Based on the action command information, the posture and the motion are registered on the path from the current posture to the target posture or the target motion, and the posture and the motion that changes the posture are connected. Search on a graph composed of
Operate based on the search result, transition from the current posture to the target posture or the target motion,
When action command information for executing another operation is given during the execution of one operation, the one operation is interrupted, the posture is close to the posture at the time of interruption, and then the other operation is changed. An operation control method for a robot apparatus, comprising:
上記一の動作の中断時の姿勢を記憶しており、上記他の動作の終了後に、上記中断時の姿勢から上記一の動作を実行させることを特徴とする請求項3記載のロボット装置の動作制御方法。4. An operation of the robot apparatus according to claim 3, wherein a posture at the time of interruption of the one operation is stored, and the one operation is executed from the posture at the time of interruption after the completion of the other operation. Control method.
JP2003172388A 2003-06-17 2003-06-17 Robot device and its motion control method Withdrawn JP2005007501A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003172388A JP2005007501A (en) 2003-06-17 2003-06-17 Robot device and its motion control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003172388A JP2005007501A (en) 2003-06-17 2003-06-17 Robot device and its motion control method

Publications (1)

Publication Number Publication Date
JP2005007501A true JP2005007501A (en) 2005-01-13

Family

ID=34096562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003172388A Withdrawn JP2005007501A (en) 2003-06-17 2003-06-17 Robot device and its motion control method

Country Status (1)

Country Link
JP (1) JP2005007501A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100989078B1 (en) 2007-12-03 2010-10-25 한국전자통신연구원 Method and apparatus for action execution in a robot
JP2011056624A (en) * 2009-09-10 2011-03-24 Nara Institute Of Science & Technology Route plan generating device, route plan generating method, robot control device and robot system
WO2018037662A1 (en) * 2016-08-26 2018-03-01 シャープ株式会社 Robot, robot control method, and control program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100989078B1 (en) 2007-12-03 2010-10-25 한국전자통신연구원 Method and apparatus for action execution in a robot
JP2011056624A (en) * 2009-09-10 2011-03-24 Nara Institute Of Science & Technology Route plan generating device, route plan generating method, robot control device and robot system
WO2018037662A1 (en) * 2016-08-26 2018-03-01 シャープ株式会社 Robot, robot control method, and control program
JPWO2018037662A1 (en) * 2016-08-26 2019-03-07 シャープ株式会社 Robot, robot control method, and control program

Similar Documents

Publication Publication Date Title
EP1136193A2 (en) Humanoid robot communicating with body language
JP2003266351A (en) Robot device and motion control method therefor
Neo et al. Whole-body motion generation integrating operator's intention and robot's autonomy in controlling humanoid robots
JP2001150370A (en) Leg-type moving robot and operation control method for the same
JP4179230B2 (en) Robot apparatus and operation control method thereof
JP2002144260A (en) Leg type moving robot and its control method
JP2001138271A (en) Leg type mobile robot and at-overturn motion control method for robot
JP4449372B2 (en) Robot apparatus and behavior control method thereof
JP4281286B2 (en) Robot apparatus and control method thereof
JP2002059384A (en) Learning system and learning method for robot
JP2005007501A (en) Robot device and its motion control method
JP2001138273A (en) Leg type mobile and its controlling method
JP4770990B2 (en) Legged mobile robot and control method thereof
JP4506249B2 (en) Robot apparatus and operation comparison method thereof
JP4587699B2 (en) Robot apparatus and control method thereof
JP2005014144A (en) Robot apparatus and method for controlling movement of the same
JP4539291B2 (en) Robot apparatus and operation control method thereof
JP3813102B2 (en) Posture control apparatus and posture control method for legged robot
JP2003136439A (en) Robot device, and method and program for controlling gait of robot device
JP4110525B2 (en) Robot apparatus and operation control method thereof
JP2002144261A (en) Leg type moving robot and its control method
JP2002205290A (en) Device and method for controlling leg type mobile robot
CN117207203B (en) Robot control method, device, robot and storage medium
JP2003269579A (en) Power transmission device and robot device
JP4552490B2 (en) Robot apparatus and emotion control method thereof

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905