JP2005014144A - Robot apparatus and method for controlling movement of the same - Google Patents

Robot apparatus and method for controlling movement of the same Download PDF

Info

Publication number
JP2005014144A
JP2005014144A JP2003181617A JP2003181617A JP2005014144A JP 2005014144 A JP2005014144 A JP 2005014144A JP 2003181617 A JP2003181617 A JP 2003181617A JP 2003181617 A JP2003181617 A JP 2003181617A JP 2005014144 A JP2005014144 A JP 2005014144A
Authority
JP
Japan
Prior art keywords
posture
target
robot apparatus
safety
transition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003181617A
Other languages
Japanese (ja)
Inventor
Kyoko Furumura
京子 古村
Shinichi Kariya
真一 狩谷
Takeshi Takagi
剛 高木
Kenta Kawamoto
献太 河本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003181617A priority Critical patent/JP2005014144A/en
Publication of JP2005014144A publication Critical patent/JP2005014144A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot apparatus which can safely perform a shut-down process without giving serious damage to itself and the outside even when the robot apparatus is a biped type, and further to provide a method for controlling the movement of the same. <P>SOLUTION: The robot apparatus searches the safe posture among the group of the same posture as the current posture when the shut-down process is carried out by any reason, and searches the safe posture among the group of other posture only when the safe posture doe not exist in the group of the same posture as the current posture. Weighted distances are calculated for all paths leading to the safe posture. The safe posture giving the path of the shortest weighted distance is regarded as the target safe posture, and is shifted to the target safe posture. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、複数の姿勢の間を遷移しながら自律的に動作するロボット装置及びその動作制御方法に関する。
【0002】
【従来の技術】
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0003】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。
【0004】
これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。また、そのようなロボット装置には、外部からの情報や内部の状態に応じて自律的に動作するものがある。
【0005】
この自律動作を行う自律型ロボット装置の一例として、下記特許文献1には、供給された入力情報に応じて、既知の姿勢を遷移しながら目標とされる動作を実行するロボット装置が記載されている。この特許文献1記載のロボット装置は、感情・本能モデルを有しており、感情・本能に基づいて次の動作(行動)を決定し、その動作(行動)を実行できる姿勢までの遷移計画を立てる。そして、その遷移計画に基づいて姿勢を遷移させてから、そのような感情・本能に基づいて決定した動作(行動)を実際に実行する。
【0006】
【特許文献1】
国際公開第00/43167号パンフレット
【0007】
【発明が解決しようとする課題】
ところで、このような自律型ロボット装置は、一般に、マニピュレータや搬送ロボット等の産業用ロボットに比し、冗長な自由度を含む多リンク系により構成されているという特徴がある。ロボット装置は、このような特徴を活かし、複雑な動作、或いは移動・バランス維持・アーム作業といった複雑なタスクを同時実行することができる。その一方で、動作中にユーザの指やその他の異物を挟み込んだりバッテリ残量が少なくなったりするなどの事象により緊急停止を余儀なくされ、シャットダウン処理を行う可能性がある。
【0008】
ここで、4足歩行型のロボット装置の場合には、どのような姿勢でシャットダウン処理を行ってもロボット装置自身や外界に重大な危害を及ぼす虞がないため、異常状態を検出した場合には即座にシャットダウン処理を行うことができる。しかしながら、2足歩行型のロボット装置の場合には、歩行中にシャットダウン処理を行うと、転倒してロボット装置自身や外界に重大な危害を及ぼす虞があるため、安全にシャットダウン処理を行うことができないという問題があった。
【0009】
本発明は、このような従来の実情に鑑みて提案されたものであり、2足歩行型であっても、自身や外界に重大な危害を及ぼすことなく安全にシャットダウン処理を行うことのできるロボット装置及びその動作制御方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係るロボット装置は、行動指令情報に応じて複数の姿勢の間を遷移し動作するロボット装置であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段を備え、上記制御手段は、上記行動指令情報として予め複数設定された安全姿勢の何れかへの遷移が指示された場合、現在の姿勢から最も近い安全姿勢を検索して目標安全姿勢とし、該目標安全姿勢に遷移させるものである。
【0011】
また、上述した目的を達成するために、本発明に係るロボット装置の動作制御方法は、行動指令情報に応じて複数の姿勢の間を遷移し動作するロボット装置の動作制御方法であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて検索し、検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、上記行動指令情報として予め複数設定された安全姿勢の何れかへの遷移が指示された場合、現在の姿勢から最も近い安全姿勢を目標安全姿勢とし、該目標安全姿勢に遷移させるものである。
【0012】
このようなロボット装置及びその動作制御方法では、ロボット装置が動作中に例えばユーザの指やその他の異物を挟み込んだりバッテリ残量が少なくなったりするなどの事象により緊急停止を余儀なくされ、シャットダウン処理を行う場合に、予め複数設定された安全姿勢のうち、現在の姿勢から最も近い安全姿勢を検索して目標安全姿勢とし、該目標安全姿勢に遷移する。
【0013】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0014】
本発明の一構成例として示す2足歩行型のロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、人間が行う基本的な動作を表出できるエンターテインメントロボットである。
【0015】
図1に示すように、ロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
【0016】
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
【0017】
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0018】
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
【0019】
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0020】
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0021】
上述したようなロボット装置1がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0022】
図3には、ロボット装置1の制御システム構成を模式的に示している。同図に示すように、ロボット装置1は、ヒトの四肢を表現した体幹部ユニット2,頭部ユニット3,腕部ユニット4R/L,脚部ユニット5R/Lと、各ユニット間の協調動作を実現するための適応制御を行う制御ユニット10とで構成される。
【0023】
ロボット装置1全体の動作は、制御ユニット10によって統括的に制御される。制御ユニット10は、CPU(Central Processing Unit)や、DRAM(Dynamic Random Access Memory)、フラッシュROM(Read Only Memory)等の主要回路コンポーネント(図示せず)で構成される主制御部11と、電源回路やロボット装置1の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示せず)などを含んだ周辺回路12とで構成される。
【0024】
本発明を実現するうえで、この制御ユニット10の設置場所は、特に限定されない。図3では体幹部ユニット2に搭載されているが、頭部ユニット3に搭載してもよい。また、ロボット装置1外に制御ユニット10を配備して、ロボット装置1の機体とは有線又は無線で交信するようにしてもよい。
【0025】
図2に示したロボット装置1内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット3には、首関節ヨー軸101、首関節ピッチ軸102、首関節ロール軸103の各々を表現する首関節ヨー軸アクチュエータA、首関節ピッチ軸アクチュエータA、首関節ロール軸アクチュエータAが配備されている。
【0026】
また、頭部ユニット3には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。
【0027】
また、体幹部ユニット2には、体幹ピッチ軸104、体幹ロール軸105、体幹ヨー軸106の各々を表現する体幹ピッチ軸アクチュエータA、体幹ロール軸アクチュエータA、体幹ヨー軸アクチュエータAが配設されている。また、体幹部ユニット2には、このロボット装置1の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0028】
また、腕部ユニット4R/Lは、上腕ユニット4R/Lと、肘関節ユニット4R/Lと、前腕ユニット4R/Lに細分化されるが、肩関節ピッチ軸107、肩関節ロール軸108、上腕ヨー軸109、肘関節ピッチ軸110、前腕ヨー軸111、手首関節ピッチ軸112、手首関節ロール軸113の各々表現する肩関節ピッチ軸アクチュエータA、肩関節ロール軸アクチュエータA、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0029】
また、脚部ユニット5R/Lは、大腿部ユニット5R/Lと、膝ユニット5R/Lと、脛部ユニット5R/Lに細分化されるが、股関節ヨー軸115、股関節ピッチ軸116、股関節ロール軸117、膝関節ピッチ軸118、足首関節ピッチ軸119、足首関節ロール軸120の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA,A,・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0030】
体幹部ユニット2、頭部ユニット3、各腕部ユニット4R/L、各脚部ユニット5R/Lなどの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部20,21,22R/L,23R/Lが配備されている。さらに、各脚部ユニット5R/Lの足底が接地したか否かを検出する接地確認センサ30R/Lを装着するとともに、体幹部ユニット2内には、姿勢を計測する姿勢センサ31を装備している。
【0031】
接地確認センサ30R/Lは、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ31は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0032】
接地確認センサ30R/Lの出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ31の出力により、体幹部分の傾きや姿勢を検出することができる。
【0033】
主制御部11は、各センサ30R/L,31の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部20,21,22R/L,23R/Lの各々に対して適応的な制御を行い、ロボット装置1の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。
【0034】
ロボット装置1の機体上での全身運動は、足部運動、ZMP(Zero Moment Point)軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容にしたがった動作を指示するコマンドを各副制御部20,21,22R/L,23R/Lに転送する。そして、各々の副制御部20,21,・・・等では、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A,・・・等に対して駆動制御信号を出力する。ここでいう「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
【0035】
以上のように、ロボット装置1は、各々の副制御部20,21,・・・等が、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A,・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、ロボット装置1は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0036】
また、ロボット装置1における制御ユニット10では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット10では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部11と接続されている。
【0037】
主制御部11は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部11は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部11がこのロボット装置1の動作制御を行う際に利用される。
【0038】
主制御部11は、ロボット装置1の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部11は、上述のように主制御部11よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。
【0039】
さらに、主制御部11は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることによりロボット装置1に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0040】
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
【0041】
上述した主制御部11のデータ処理の内容を機能的に分類した図を図4に示す。図4に示すように、主制御部11は、行動決定機構部40と、姿勢遷移機構部41と、制御機構部42とに分けられる。
【0042】
行動決定機構部40は、上述したセンサデータ、画像・音声データ等の入力情報D1に基づいて次の動作(行動)を決定し、当該決定された動作(行動)の内容を行動指令情報D2として姿勢遷移機構部41に供給する。
【0043】
姿勢遷移機構部41は、ロボット装置1が遷移可能な姿勢及び遷移する際の動作を予め例えばグラフ(後述する有向グラフ)として保持しており、行動決定機構部40から供給された行動指令情報D2を姿勢遷移情報D3として制御機構部42に供給する。
【0044】
制御機構部42は、この姿勢遷移情報D3に基づいて、必要なアクチュエータA,A,・・・を駆動させるための制御信号D4を生成し、これをアクチュエータA,A,・・・に送出して当該アクチュエータA,A,・・・を駆動させることにより、ロボット装置1に所望の動作を行わせる。
【0045】
以下、姿勢遷移機構部41にて行う処理について詳細に説明する。
ロボット装置1は、指令(行動指令情報D2)の内容に従った姿勢に遷移し、遷移した姿勢に応じた動作を行うが、指令の内容に従った姿勢に直接遷移できない場合もある。すなわち、ロボット装置1の姿勢は、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できなく、ある動作や姿勢を経由して可能になる姿勢とに分類される。例えば、ロボット装置1は、仰向けに寝転んだ姿勢から座った姿勢に直接遷移することはできるが、立った姿勢に直接遷移することはできず、一旦上半身を起こして座った姿勢になり、それから立ち上がるという2段階の動作が必要である。
【0046】
したがって、姿勢遷移機構部41は、行動決定機構部40から供給された行動指令情報D2が直接遷移可能な姿勢を示す場合には、当該行動指令情報D2をそのまま姿勢遷移情報D3として制御機構部42に供給する一方、直接遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢や動作を経由して目標とされる姿勢(行動指令情報D2により指示された姿勢)まで遷移させるような姿勢遷移情報D3を生成し、これを制御機構部42に供給する。
【0047】
実際上、姿勢遷移機構部41は、ロボット装置1がとり得る姿勢及び動作が登録され、姿勢とこの姿勢を遷移させる動作とを結んで構成されたグラフを保持して、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させる。すなわち、姿勢遷移機構部41は、ロボット装置1がとり得る姿勢を予め登録すると共に、遷移可能な2つの姿勢の間を記録しておくようになされており、このグラフと行動決定機構部40から供給された行動指令情報D2とに基づいて、目標とされる姿勢或いは動作まで遷移させる。
【0048】
具体的には、姿勢遷移機構部41は、図5に示すような有向グラフというアルゴリズムを用いている。有向グラフでは、ロボット装置1がとり得る姿勢を示すノードと、遷移可能な2つのノード間を結ぶ有向アーク(動作アーク)と、場合によっては1つのノードから当該1つのノードに戻る動作のアーク、すなわち1つのノード内で完結する動作を示す自己動作アークとが結合されて構成されている。すなわち、姿勢遷移機構部41は、ロボット装置1の姿勢(静止姿勢)を示す情報とされるノードと、ロボット装置1の動作を示す情報とされる有向アーク及び自己動作アークとから構成される有向グラフを保持し、姿勢を点の情報として、さらに動作の情報を有向線の情報として把握している。
【0049】
なお、有向アークや自己動作アークは複数とされていてもよい。すなわち、遷移可能なノード(姿勢)の間に有向アークが複数結合されていてもよく、1つのノードにおいて複数の自己動作アークが結合されていてもよい。
【0050】
姿勢遷移機構部41は、行動決定機構部40から行動指令情報D2が供給されると、現在の姿勢に対応したノードと、行動指令情報D2が示す次にとるべき姿勢に対応するノードとを結ぶように、有向アークの向きに従いながら現在のノードから次のノードに至る経路を順次検索することにより、現在の姿勢から目標とされるノード、或いは目標とされるアークに至る経路を探索する。ここで、目標とされるアークとは、有向アークであってもよく、自己動作アークであってもよい。例えば、自己動作アークが目標アークとなる場合とは、とるべき姿勢から開始される自己動作が目標とされた(指示された)場合であって、ダンスが指示された場合等が挙げられる。
【0051】
以上のように、ロボット装置1は、現在の姿勢に対応したノードから行動指令情報D2が示す次にとるべき姿勢に対応するノードに遷移しながら自律的な動作を行うが、動作中にユーザの指やその他の異物を挟み込んだりバッテリ残量が少なくなったりするなどの事象により緊急停止を余儀なくされ、シャットダウン処理を行う場合もあり得る。
【0052】
ここで、2足歩行型のロボット装置1では、シャットダウン処理時の姿勢によっては転倒してしまい、ロボット装置1自身や外界に重大な危害を及ぼす虞がある。そこで、行動決定機構部40は、予め複数設定された安全姿勢の何れかへの遷移を示す特殊コマンドを行動指令情報D2として姿勢遷移機構部41に供給する。姿勢遷移機構部41は、この行動指令情報D2に応じて、上述した有向グラフを参照しながら目標とする安全姿勢を検索し、目標安全姿勢まで遷移させるような姿勢遷移情報D3を制御機構部42に供給する。
【0053】
この際、現在の姿勢からの距離が近い安全姿勢を目標安全姿勢として選択することが、迅速なシャットダウン処理を行う観点から望ましいといえる。具体的には、予め類似する姿勢同士を同一の姿勢グループとして登録しておき、できる限り現在の姿勢と同一の姿勢グループから目標安全姿勢を検索し、同一姿勢グループに安全姿勢がない場合にのみ別の姿勢グループから目標安全姿勢を検索するようにするのが望ましい。
【0054】
目標安全姿勢に遷移する例について、図6を用いて説明する。なお、図6では、各有向アークが動作時間や動作の難易度等に基づいて重み付けされており、姿勢遷移機構部41は、重み付け距離が最短であるパスを経由して目標安全姿勢に遷移させるものとする。
【0055】
具体的に、例えば現在姿勢がノードND1の姿勢であるときに異常状態が検出され、安全姿勢への遷移を示す行動指令情報D2が行動決定機構部40から与えられた場合、姿勢遷移機構部41は、「寝姿勢」を示す姿勢グループからノードND1及びノードND2を検索するが、ノードND1からノードND2に至る有向アークが存在しないため、ノードND1の姿勢、すなわち現在姿勢を目標安全姿勢とする。
【0056】
また、現在姿勢がノードND3の姿勢である場合、姿勢遷移機構部41は、「座り姿勢」を示す姿勢グループから安全姿勢を検索するが、この姿勢グループ内に安全姿勢が存在しないため、別の姿勢グループ、具体的には「寝姿勢」を示す姿勢グループからノードND1及びノードND2を検索する。ここで、ノードND3からノードND1に至るパスとしては、(a)ND3→ND1(重み付け距離=5)、(b)ND3→ND4→ND1(重み付け距離=8)、(c)ND3→ND5→ND4→ND1(重み付け距離=9)、の3通りが考えられるが、姿勢遷移機構部41は、重み付け距離が最短である(a)のパスを経由して目標安全姿勢を示すノードND1に遷移させる。なお、上述と同様に、ノードND1からノードND2に至る有向アークが存在しないため、ノードND2は目標安全姿勢とならない。
【0057】
また、自己動作アークa1の実行中に安全姿勢への遷移を示す行動指令情報D2が行動決定機構部40から与えられた場合、姿勢遷移機構部41は、自己動作アークa1の動作を中止してノードND4の姿勢に遷移した後、「立ち姿勢」を示す姿勢グループから安全姿勢を検索する。この姿勢グループ内に安全姿勢は存在しないため、姿勢遷移機構部41は、別の姿勢グループ、具体的には「寝姿勢」を示す姿勢グループからノードND1及びノードND2を検索する。ここで、ノードND4からノードND1に至るパスとしては、(d)ND4→ND1(重み付け距離=5)、(e)ND4→ND3→ND1(重み付け距離=8)、(f)ND4→ND5→ND3→ND1(重み付け距離=9)、の3通りが考えられるが、姿勢遷移機構部41は、重み付け距離が最短である(d)のパスを経由して目標安全姿勢を示すノードND1に遷移させる。なお、上述と同様に、ノードND1からノードND2に至る有向アークが存在しないため、ノードND2は目標安全姿勢とならない。
【0058】
なお、現在姿勢が「抱き上げ姿勢」であるとき、すなわちロボット装置1がユーザ等によって抱き上げられているときに安全姿勢への遷移を示す行動指令情報D2が行動決定機構部40から与えられた場合、既に異常状態であり抱き上げ姿勢しか存在しないため、姿勢遷移機構部41は、現在姿勢を目標安全姿勢とする。
【0059】
以上説明した姿勢遷移機構部41による目標安全姿勢の検索方法について、図7のフローチャートに示す。先ずステップS1において、同一姿勢グループ内に安全姿勢があるか否かを判別し、同一姿勢グループ内に安全姿勢がある場合(Yes)にはステップS3に進み、同一姿勢グループ内に安全姿勢がない場合(No)にはステップS2で別の姿勢グループから安全姿勢を検索する。
【0060】
続いてステップS3では、現在姿勢から安全姿勢までのパスの重み付け距離を計算し、ステップS4では、全てのパスについて重み付け距離を計算したか否かを判別する。全てのパスについて重み付け距離を計算していない場合(No)には、ステップS3に戻って残りのパスについて重み付け距離を計算し、全てのパスについて重み付け距離を計算している場合(Yes)には、ステップS5で最短の重み付け距離を与えるパスにより目標安全姿勢まで遷移して終了する。
【0061】
なお、以上の例では、安全姿勢までの重み付け距離に基づいて目標安全姿勢を検索するものとして説明したが、単なる距離、すなわち安全姿勢までのアーク数に基づいて目標安全姿勢を検索するようにしても構わない。
【0062】
ここで、上述のようにして目標安全姿勢を検索し、該目標安全姿勢に遷移することにより、安全にシャットダウン処理を行うことができるが、次回確実に起動するためには、充電ステーション上で充電している状態でシャットダウン処理を行うことが望ましい。そこで、本実施の形態におけるロボット装置1は、異常状態を検出した際には、稼働可能時間を考慮しながら充電ステーションを探し、稼働可能時間内に充電ステーションまで移動できる場合には、充電ステーションに移動してから安全姿勢であるステーション姿勢に遷移する。一方、稼働可能時間内に充電ステーションまで移動できない場合、或いは充電ステーションが見つからない場合には、稼働可能時間内に移動できる安全な場所を探し、その場所に移動して安全姿勢に遷移する。
【0063】
以上説明した充電ステーションの探索方法について、図8のフローチャートに示す。先ずステップS10において、安全姿勢に遷移するまでの稼働可能時間を計算し、ステップS11において、充電ステーション又は安全な場所を探索する。なお、上述したように、ロボット装置1は、先ず充電ステーションから探索を始める。
【0064】
次にステップS12において、検索した充電ステーション又は安全な場所までの移動に必要な時間を計算し、上記稼働可能時間内に移動可能か否かを判別する。ここで、稼働可能時間内に移動可能である場合(Yes)には、ステップS13で当該場所まで移動し、ステップS15で安全姿勢に遷移して終了する。なお、充電ステーションに移動した場合には上述したステーション姿勢に遷移し、それ以外の場所に移動した場合には、例えば寝姿勢に遷移する。一方、稼働可能時間内に移動可能でない場合(No)には、ステップS14において、現在の場所で安全姿勢に遷移できるか否かを判別する。現在の場所で安全姿勢に遷移できる場合(Yes)には、ステップS15で安全姿勢に遷移して終了する。一方、そうでない場合(No)には、ステップS11に戻って、安全な場所をさらに検索する。
【0065】
ここで、ステーション姿勢に遷移する例について、図9を用いて説明する。
具体的に、自己動作アークa1の実行中に安全姿勢への遷移を示す行動指令情報D2が行動決定機構部40から与えられた場合、姿勢遷移機構部41は、自己動作アークa1の動作を中止してノードND4の姿勢に遷移させる。その後、ロボット装置1は、入力された周囲の画像データに基づいて充電ステーションを探し、充電ステーションに確実に接続できる位置まで移動する。姿勢遷移機構部41は、ステーション準備姿勢に遷移させ、充電ステーションへの接続が検出されると、安全姿勢であるステーション姿勢にジャンプさせる。
【0066】
以上説明したように、本実施の形態におけるロボット装置1及びその動作制御方法によれば、何らかの理由によりシャットダウン処理を行う場合に、現在の姿勢と同一の姿勢グループから目標安全姿勢を検索し、同一姿勢グループに安全姿勢がない場合にのみ別の姿勢グループから目標安全姿勢を検索し、該目標安全姿勢に遷移することにより、2足歩行型であっても、ロボット装置1自身や外界に重大な危害を及ぼすことなく安全にシャットダウン処理を行うことができる。特に、シャットダウン処理を行う前に稼働可能時間を計算し、その時間内に充電ステーションに移動できる場合には、充電ステーションに移動してから安全姿勢に遷移することにより、次回起動時に充電されている状態を作り出すことができ、無理なく自律動作を行うことが可能となる。
【0067】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0068】
例えば、上述の実施の形態では、本発明を人間を模した2足歩行型のロボット装置1に適用した場合について説明したが、これに限らず、動物を模した4足歩行型のロボット装置や、例えばゲームや展示等のエンターテインメント分野で用いられるロボット装置など、他の種々のロボット装置に適用可能である。
【0069】
【発明の効果】
以上詳細に説明したように、本発明に係るロボット装置は、行動指令情報に応じて複数の姿勢の間を遷移し動作するロボット装置であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段を備え、上記制御手段は、上記行動指令情報として予め複数設定された安全姿勢の何れかへの遷移が指示された場合、現在の姿勢から最も近い安全姿勢を検索して目標安全姿勢とし、該目標安全姿勢に遷移させるものである。
【0070】
また、本発明に係るロボット装置の動作制御方法は、行動指令情報に応じて複数の姿勢の間を遷移し動作するロボット装置の動作制御方法であって、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて検索し、検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、上記行動指令情報として予め複数設定された安全姿勢の何れかへの遷移が指示された場合、現在の姿勢から最も近い安全姿勢を目標安全姿勢とし、該目標安全姿勢に遷移させるものである。
【0071】
このようなロボット装置及びその動作制御方法によれば、ロボット装置が動作中に例えばユーザの指やその他の異物を挟み込んだりバッテリ残量が少なくなったりするなどの事象により緊急停止を余儀なくされ、シャットダウン処理を行う場合に、予め複数設定された安全姿勢のうち、現在の姿勢から最も近い安全姿勢を検索して目標安全姿勢とし、該目標安全姿勢に遷移することにより、2足歩行型のロボット装置であっても、自身や外界に重大な危害を及ぼすことなく、シャットダウン処理を行うことができる。
【図面の簡単な説明】
【図1】本実施の形態におけるロボット装置の外観構成を示す斜視図である。
【図2】同ロボット装置の自由度構成モデルを模式的に示す図である。
【図3】同ロボット装置の制御システム構成を模式的に示す図である。
【図4】主制御部のデータ処理の内容を機能的に分類した図である。
【図5】同主制御部の姿勢遷移機構部における姿勢遷移のグラフを示す図である。
【図6】目標安全姿勢に遷移する例を説明する図である。
【図7】姿勢遷移機構部による目標安全姿勢の検索方法を説明するフローチャートである。
【図8】充電ステーションの探索処理を説明するフローチャートである。
【図9】ステーション姿勢に遷移する例を説明する図である。
【符号の説明】
1 ロボット装置、2 体幹部ユニット、3 頭部ユニット、4R/L 腕部ユニット、5R/L 脚部ユニット、10 制御ユニット、11 主制御部、40 行動決定機構部、41 姿勢遷移機構部、42 制御機構部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus that operates autonomously while transitioning between a plurality of postures, and an operation control method thereof.
[0002]
[Prior art]
A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots began to spread in Japan from the end of the 1960s, but many of them are industrial robots (industrial robots) such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.
[0003]
Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, it was designed based on the body mechanism and motion of a “pet-type” robot that imitates the body mechanism and movement of a quadruped animal such as a dog or cat, or a human who walks upright on two legs. Robotic devices such as “humanoid” or “humanoid” robots are already in practical use.
[0004]
Since these robot devices can perform various operations with an emphasis on entertainment performance as compared with industrial robots, they may be referred to as entertainment robots. In addition, there is a robot apparatus that operates autonomously according to information from the outside or an internal state.
[0005]
As an example of the autonomous robot apparatus that performs this autonomous operation, Patent Document 1 below describes a robot apparatus that performs a target operation while changing a known posture in accordance with supplied input information. Yes. The robot apparatus described in Patent Document 1 has an emotion / instinct model, determines the next action (behavior) based on the feeling / instinct, and creates a transition plan up to a posture in which the action (behavior) can be executed. Stand up. Then, after changing the posture based on the transition plan, the action (behavior) determined based on such feelings and instinct is actually executed.
[0006]
[Patent Document 1]
International Publication No. 00/43167 Pamphlet [0007]
[Problems to be solved by the invention]
By the way, such an autonomous robot apparatus is generally characterized in that it is configured by a multi-link system including redundant degrees of freedom as compared with industrial robots such as manipulators and transfer robots. The robot apparatus can perform complex tasks such as complex operations such as movement, balance maintenance, and arm work at the same time by utilizing such characteristics. On the other hand, there is a possibility that an emergency stop is forced due to an event such as a user's finger or other foreign object being pinched during operation or the remaining battery level is low, and a shutdown process may be performed.
[0008]
Here, in the case of a quadruped walking robot device, there is no risk of serious harm to the robot device itself or the outside world regardless of the posture of the shutdown process. Shutdown processing can be performed immediately. However, in the case of a biped robot device, if shutdown processing is performed while walking, the robot device may fall over and cause serious harm to the robot device itself or the outside world. There was a problem that I could not.
[0009]
The present invention has been proposed in view of such a conventional situation, and even if it is a biped walking type, it can perform a shutdown process safely without causing serious harm to itself or the outside world. An object of the present invention is to provide an apparatus and an operation control method thereof.
[0010]
[Means for Solving the Problems]
In order to achieve the above-described object, a robot apparatus according to the present invention is a robot apparatus that operates by moving between a plurality of postures according to action command information, and is a posture or a target that is targeted from a current posture. A control for searching for a route to the action to be taken based on the action command information and causing the action to be performed based on the search result to transition from the current attitude to the target attitude or the target action. When the transition to any of a plurality of safety postures set in advance as the action command information is instructed, the control means searches for the closest safety posture from the current posture and sets it as the target safety posture, Transition to the target safety posture.
[0011]
In order to achieve the above-described object, an operation control method for a robot apparatus according to the present invention is an operation control method for a robot apparatus that moves between a plurality of postures according to action command information. The path from the posture to the target posture or the target motion is searched based on the action command information and operated based on the search result, and the target posture from the current posture or When a transition to a target motion is made and a transition to any of a plurality of safety postures set in advance as the action command information is instructed, the safety posture closest to the current posture is set as the target safety posture, and the target safety posture Transition to posture.
[0012]
In such a robot apparatus and its operation control method, the robot apparatus is forced to stop urgently due to an event such as a user's finger or other foreign object being caught or the remaining battery level being low while the robot apparatus is operating. When performing, the safety posture closest to the current posture among the plurality of preset safety postures is searched for as a target safety posture, and a transition is made to the target safety posture.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
[0014]
The biped walking robot apparatus shown as an example of the present invention is a practical robot that supports human activities in various situations in the living environment and other daily life, and expresses basic actions performed by humans. It is an entertainment robot that can do it.
[0015]
As shown in FIG. 1, the robot apparatus 1 includes a head unit 3 connected to a predetermined position of the trunk unit 2, and two left and right arm units 4R / L and two right and left leg units 5R /. L is connected to each other (provided that R and L are suffixes indicating right and left, respectively, and the same applies hereinafter).
[0016]
The joint degree-of-freedom configuration of the robot apparatus 1 is schematically shown in FIG. The neck joint that supports the head unit 3 has three degrees of freedom: a neck joint yaw axis 101, a neck joint pitch axis 102, and a neck joint roll axis 103.
[0017]
Each arm unit 4R / L constituting the upper limb includes a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, an elbow joint pitch axis 110, a forearm yaw axis 111, and a wrist. A joint pitch axis 112, a wrist joint roll axis 113, and a hand part 114 are included. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the operation of the hand 114 has little contribution or influence on the posture control or walking control of the robot apparatus 1, it is assumed in this specification that the degree of freedom is zero. Therefore, it is assumed that each arm portion has seven degrees of freedom.
[0018]
The trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105, and a trunk yaw axis 106.
[0019]
Each leg unit 5R / L constituting the lower limb includes a hip joint yaw axis 115, a hip joint pitch axis 116, a hip joint roll axis 117, a knee joint pitch axis 118, an ankle joint pitch axis 119, and an ankle joint. A roll shaft 120 and a foot 121 are included. In the present specification, the intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. The foot 121 of the human body is actually a structure including a multi-joint / multi-degree-of-freedom sole, but the foot of the robot apparatus 1 has zero degrees of freedom. Accordingly, each leg is configured with 6 degrees of freedom.
[0020]
In summary, the robot apparatus 1 as a whole has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. Needless to say, the degree of freedom, that is, the number of joints, can be increased or decreased as appropriate in accordance with design / production constraints or required specifications.
[0021]
Each degree of freedom of the robot apparatus 1 as described above is actually implemented using an actuator. It is preferable that the actuator be small and light in light of demands such as eliminating the appearance of extra bulges on the appearance and approximating the shape of a human body, and performing posture control on an unstable structure such as biped walking. .
[0022]
FIG. 3 schematically shows a control system configuration of the robot apparatus 1. As shown in the figure, the robot apparatus 1 includes a trunk unit 2, a head unit 3, an arm unit 4R / L, and a leg unit 5R / L representing human limbs, and coordinated operations between the units. It is comprised with the control unit 10 which performs the adaptive control for implement | achieving.
[0023]
The operation of the entire robot apparatus 1 is controlled in an integrated manner by the control unit 10. The control unit 10 includes a main control unit 11 including a main circuit component (not shown) such as a CPU (Central Processing Unit), a DRAM (Dynamic Random Access Memory), and a flash ROM (Read Only Memory), and a power supply circuit. And a peripheral circuit 12 including an interface (not shown) for exchanging data and commands with each component of the robot apparatus 1.
[0024]
In realizing the present invention, the installation location of the control unit 10 is not particularly limited. Although it is mounted on the trunk unit 2 in FIG. 3, it may be mounted on the head unit 3. Further, the control unit 10 may be provided outside the robot apparatus 1 so as to communicate with the body of the robot apparatus 1 by wire or wirelessly.
[0025]
Each joint freedom degree in the robot apparatus 1 shown in FIG. 2 is implement | achieved by the actuator corresponding to each. That is, the head unit 3 includes a neck joint yaw axis actuator A 2 , neck joint pitch axis actuator A 3 , neck joint roll representing the neck joint yaw axis 101, neck joint pitch axis 102, and neck joint roll axis 103. axis actuator A 4 is deployed.
[0026]
The head unit 3 is provided with a CCD (Charge Coupled Device) camera for imaging an external situation, a distance sensor for measuring the distance to an object located in front, and an external sound. A microphone for collecting sound, a speaker for outputting sound, a touch sensor for detecting pressure received by a physical action such as “stroking” or “striking” from a user, and the like are provided.
[0027]
The trunk unit 2 includes a trunk pitch axis actuator A 5 , a trunk roll axis actuator A 6 , a trunk yaw representing the trunk pitch axis 104, trunk roll axis 105, and trunk yaw axis 106. axis actuator A 7 is disposed. In addition, the trunk unit 2 includes a battery serving as a starting power source for the robot apparatus 1. This battery is constituted by a chargeable / dischargeable battery.
[0028]
The arm unit 4R / L is subdivided into an upper arm unit 4 1 R / L, an elbow joint unit 4 2 R / L, and a forearm unit 4 3 R / L. Shoulder joint pitch axis actuator A 8 , shoulder joint roll axis actuator A 8 representing the joint roll axis 108, upper arm yaw axis 109, elbow joint pitch axis 110, forearm yaw axis 111, wrist joint pitch axis 112, and wrist joint roll axis 113. 9. Upper arm yaw axis actuator A 10 , elbow joint pitch axis actuator A 11 , elbow joint roll axis actuator A 12 , wrist joint pitch axis actuator A 13 , and wrist joint roll axis actuator A 14 are provided.
[0029]
The leg unit 5R / L is subdivided into a thigh unit 5 1 R / L, a knee unit 5 2 R / L, and a shin unit 5 3 R / L. The hip joint yaw axis actuator A 16 , the hip joint pitch axis actuator A 17 , and the hip joint roll axis actuator representing the hip joint pitch axis 116, the hip joint roll axis 117, the knee joint pitch axis 118, the ankle joint pitch axis 119, and the ankle joint roll axis 120. A 18 , knee joint pitch axis actuator A 19 , ankle joint pitch axis actuator A 20 , and ankle joint roll axis actuator A 21 are provided. More preferably, the actuators A 2 , A 3 ,... Used for each joint are small AC servo actuators of the type that are directly connected to the gears and the servo control system is integrated into a single chip and mounted in the motor unit. Can be configured.
[0030]
For each mechanism unit such as the trunk unit 2, the head unit 3, each arm unit 4R / L, each leg unit 5R / L, the sub-control units 20, 21, 22R / L, 23R of the actuator drive control unit / L is deployed. Furthermore, a grounding confirmation sensor 30R / L for detecting whether or not the sole of each leg unit 5R / L is grounded is mounted, and a posture sensor 31 for measuring the posture is provided in the trunk unit 2. ing.
[0031]
The grounding confirmation sensor 30R / L is configured by, for example, a proximity sensor or a micro switch installed on the sole of the foot. In addition, the posture sensor 31 is configured by a combination of an acceleration sensor and a gyro sensor, for example.
[0032]
Based on the output of the ground contact confirmation sensor 30R / L, it is possible to determine whether the left and right legs are currently standing or swinging during an operation period such as walking or running. Further, the inclination and posture of the trunk can be detected by the output of the posture sensor 31.
[0033]
The main control unit 11 can dynamically correct the control target in response to the outputs of the sensors 30R / L and 31. More specifically, the whole body that performs adaptive control on each of the sub-control units 20, 21, 22R / L, and 23R / L and that the upper limbs, the trunk, and the lower limbs of the robot apparatus 1 are cooperatively driven. A movement pattern can be realized.
[0034]
The whole body movement on the body of the robot apparatus 1 sets foot movement, ZMP (Zero Moment Point) trajectory, trunk movement, upper limb movement, waist height, etc., and instructs the movement according to these setting contents The command to be transferred is transferred to each of the sub-control units 20, 21, 22R / L, 23R / L. Each sub-control unit 20, 21,... Interprets a received command from the main control unit 11 and outputs a drive control signal to each actuator A 2 , A 3 ,. To do. Here, “ZMP” is a point on the floor where the moment due to floor reaction force during walking is zero, and “ZMP trajectory” is, for example, during the walking operation period of the robot apparatus 1. It means the trajectory that ZMP moves. Regarding the concept of ZMP and the application of ZMP to the stability criterion for walking robots, Migir Vukobratovic “LEGGED LOCATION ROBOTS” (Ichiro Kato's “Walking Robots and Artificial Feet” (Nikkan Kogyo Shimbun)) It is described in.
[0035]
As described above, in the robot apparatus 1, each of the sub-control units 20, 21,... Interprets the received command from the main control unit 11, and assigns each actuator A 2 , A 3 ,. A drive control signal is output to control the drive of each unit. Thereby, the robot apparatus 1 can stably transition to the target posture and can walk in a stable posture.
[0036]
In addition to the attitude control as described above, the control unit 10 in the robot apparatus 1 receives various sensors such as an acceleration sensor, a touch sensor, and a grounding confirmation sensor, image information from a CCD camera, audio information from a microphone, and the like. It is integrated and processed. In the control unit 10, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone and a speaker, each actuator, a CCD camera, and a battery are connected to the main control unit 11 via corresponding hubs. Has been.
[0037]
The main control unit 11 sequentially takes in sensor data, image data, and audio data supplied from the above-described sensors, and sequentially stores them in a predetermined position in the DRAM via the internal interface. Further, the main control unit 11 sequentially takes in battery remaining amount data representing the remaining amount of battery supplied from the battery and stores it in a predetermined position in the DRAM. Each sensor data, image data, audio data, and battery remaining amount data stored in the DRAM is used when the main control unit 11 controls the operation of the robot apparatus 1.
[0038]
The main control unit 11 reads the control program and stores it in the DRAM at the initial stage when the power of the robot apparatus 1 is turned on. In addition, the main control unit 11 determines whether the main control unit 11 itself or the surrounding situation or the user based on each sensor data, image data, audio data, and battery remaining amount data sequentially stored in the DRAM from the main control unit 11 as described above. Judgment of whether or not there is an instruction and action.
[0039]
Furthermore, the main control unit 11 determines an action according to its own situation based on the determination result and a control program stored in the DRAM, and drives a necessary actuator based on the determination result, thereby driving the robot apparatus 1. To take actions such as “gesture” and “hand gesture”.
[0040]
In this way, the robot apparatus 1 can determine its own and surrounding conditions based on the control program and act autonomously.
[0041]
FIG. 4 is a diagram functionally classifying the contents of the data processing of the main control unit 11 described above. As shown in FIG. 4, the main control unit 11 is divided into an action determination mechanism unit 40, a posture transition mechanism unit 41, and a control mechanism unit 42.
[0042]
The behavior determination mechanism unit 40 determines the next operation (behavior) based on the input information D1 such as the sensor data and the image / audio data described above, and the content of the determined operation (behavior) is set as the behavior command information D2. This is supplied to the posture transition mechanism unit 41.
[0043]
The posture transition mechanism unit 41 holds in advance, for example, a graph (a directed graph described later) that can be transitioned by the robot device 1 and a motion at the time of transition, and the behavior command information D2 supplied from the behavior determination mechanism unit 40 It is supplied to the control mechanism unit 42 as posture transition information D3.
[0044]
Based on the posture transition information D3, the control mechanism unit 42 generates a control signal D4 for driving the necessary actuators A 2 , A 3 ,..., And generates the control signals D 4 for the actuators A 2 , A 3 ,. , And the actuators A 2 , A 3 ,... Are driven to cause the robot apparatus 1 to perform a desired operation.
[0045]
Hereinafter, processing performed by the posture transition mechanism unit 41 will be described in detail.
The robot apparatus 1 transitions to a posture according to the content of the command (behavior command information D2) and performs an operation according to the transitioned posture, but may not be able to directly transition to the posture according to the content of the command. That is, the posture of the robot apparatus 1 is classified into a posture that can be directly changed from the current posture and a posture that cannot be changed directly and can be made via a certain motion or posture. For example, the robot device 1 can directly change from a lying posture to a sitting posture, but cannot directly change to a standing posture, and once rises to a sitting posture and then stands up. The two-stage operation is required.
[0046]
Therefore, when the behavior command information D2 supplied from the behavior determination mechanism unit 40 indicates a posture that can be directly transitioned, the posture transition mechanism unit 41 directly uses the behavior command information D2 as the posture transition information D3. On the other hand, when a posture that cannot be directly transitioned is indicated, a transition is made to the target posture (the posture instructed by the behavior command information D2) via another posture or motion that can be transitioned. Posture transition information D <b> 3 is generated and supplied to the control mechanism unit 42.
[0047]
In practice, the posture transition mechanism unit 41 is registered with postures and actions that the robot apparatus 1 can take, holds a graph formed by connecting the posture and the motion that changes the posture, Transition to a desired posture or a desired action. That is, the posture transition mechanism unit 41 registers in advance the postures that the robot apparatus 1 can take, and records between two postures that can be transitioned. Based on the supplied action command information D2, a transition is made to a target posture or action.
[0048]
Specifically, the posture transition mechanism unit 41 uses an algorithm called a directed graph as shown in FIG. In the directed graph, a node indicating a posture that the robot apparatus 1 can take, a directed arc (operation arc) connecting two transitionable nodes, and an arc of operation returning from one node to the one node in some cases, That is, a self-operation arc indicating an operation completed within one node is combined. That is, the posture transition mechanism unit 41 includes a node that is information indicating the posture (stationary posture) of the robot device 1, and a directed arc and a self-motion arc that are information indicating the operation of the robot device 1. It holds a directed graph, and grasps posture as point information and movement information as directed line information.
[0049]
Note that there may be a plurality of directed arcs and self-operating arcs. That is, a plurality of directed arcs may be coupled between transitionable nodes (attitudes), and a plurality of self-motion arcs may be coupled at one node.
[0050]
When the behavior command information D2 is supplied from the behavior determination mechanism 40, the posture transition mechanism unit 41 connects the node corresponding to the current posture and the node corresponding to the posture to be taken next indicated by the behavior command information D2. As described above, the route from the current node to the next node is sequentially searched according to the direction of the directed arc, thereby searching for the route from the current posture to the target node or the target arc. Here, the target arc may be a directed arc or a self-operating arc. For example, the case where the self-motion arc becomes the target arc is a case where the self-motion starting from the posture to be taken is targeted (instructed) and a dance is instructed.
[0051]
As described above, the robot apparatus 1 performs an autonomous operation while transitioning from the node corresponding to the current posture to the node corresponding to the next posture indicated by the action command information D2, but during the operation, There may be a case where an emergency stop is forced due to an event such as a finger or other foreign object being pinched or the remaining battery level is low, and the shutdown process is performed.
[0052]
Here, in the biped robot device 1, the robot device 1 may fall down depending on the posture at the time of the shutdown process, which may cause serious harm to the robot device 1 itself or the outside world. Therefore, the behavior determination mechanism unit 40 supplies a special command indicating a transition to any of a plurality of preset safety postures to the posture transition mechanism unit 41 as the behavior command information D2. In response to the action command information D2, the posture transition mechanism unit 41 searches for a target safe posture while referring to the directed graph described above, and sends posture transition information D3 that causes a transition to the target safe posture to the control mechanism unit 42. Supply.
[0053]
At this time, it can be said that it is desirable from the viewpoint of performing a prompt shutdown process to select a safety posture having a short distance from the current posture as the target safety posture. Specifically, similar postures are registered in advance as the same posture group, a target safety posture is searched from the same posture group as the current posture as much as possible, and only when there is no safe posture in the same posture group It is desirable to retrieve the target safety posture from another posture group.
[0054]
An example of transition to the target safety posture will be described with reference to FIG. In FIG. 6, each directed arc is weighted based on the operation time, the difficulty level of the operation, and the like, and the posture transition mechanism unit 41 transitions to the target safety posture via the path having the shortest weighting distance. Shall be allowed to.
[0055]
Specifically, for example, when an abnormal state is detected when the current posture is the posture of the node ND1, and behavior command information D2 indicating a transition to a safe posture is given from the behavior determination mechanism unit 40, the posture transition mechanism unit 41 Retrieves the nodes ND1 and ND2 from the posture group indicating “sleeping posture”, but since there is no directed arc from the node ND1 to the node ND2, the posture of the node ND1, that is, the current posture is set as the target safety posture. .
[0056]
When the current posture is the posture of the node ND3, the posture transition mechanism unit 41 searches for a safe posture from the posture group indicating “sitting posture”, but there is no safe posture in this posture group. The node ND1 and the node ND2 are searched from the posture group, specifically, the posture group indicating “sleeping posture”. Here, as paths from the node ND3 to the node ND1, (a) ND3 → ND1 (weighting distance = 5), (b) ND3 → ND4 → ND1 (weighting distance = 8), (c) ND3 → ND5 → ND4 → ND1 (weighted distance = 9) can be considered, but the posture transition mechanism unit 41 makes a transition to the node ND1 indicating the target safety posture via the path (a) having the shortest weighted distance. As described above, since there is no directed arc from the node ND1 to the node ND2, the node ND2 does not assume the target safety posture.
[0057]
In addition, when the behavior command information D2 indicating the transition to the safe posture is given from the behavior determination mechanism unit 40 during the execution of the self-operation arc a1, the posture transition mechanism unit 41 stops the operation of the self-operation arc a1. After transitioning to the posture of the node ND4, a safe posture is retrieved from a posture group indicating “standing posture”. Since there is no safe posture in this posture group, the posture transition mechanism unit 41 searches for a node ND1 and a node ND2 from another posture group, specifically, a posture group indicating “sleeping posture”. Here, as paths from the node ND4 to the node ND1, (d) ND4 → ND1 (weighted distance = 5), (e) ND4 → ND3 → ND1 (weighted distance = 8), (f) ND4 → ND5 → ND3 → ND1 (weighted distance = 9) can be considered, but the posture transition mechanism unit 41 makes a transition to the node ND1 indicating the target safe posture via the path (d) having the shortest weighted distance. As described above, since there is no directed arc from the node ND1 to the node ND2, the node ND2 does not assume the target safety posture.
[0058]
When the current posture is the “lifting posture”, that is, when the behavior command information D2 indicating the transition to the safe posture is given from the behavior determination mechanism unit 40 when the robot apparatus 1 is being held by the user or the like, Since it is already in an abnormal state and only a lifting posture exists, the posture transition mechanism unit 41 sets the current posture as the target safety posture.
[0059]
The method for retrieving the target safety posture by the posture transition mechanism unit 41 described above is shown in the flowchart of FIG. First, in step S1, it is determined whether or not there is a safe posture in the same posture group. If there is a safe posture in the same posture group (Yes), the process proceeds to step S3, and there is no safe posture in the same posture group. In the case (No), a safe posture is retrieved from another posture group in step S2.
[0060]
Subsequently, in step S3, the weighted distance of the path from the current posture to the safe posture is calculated, and in step S4, it is determined whether the weighted distance has been calculated for all the paths. When the weighted distance is not calculated for all paths (No), the process returns to step S3 to calculate the weighted distance for the remaining paths, and when the weighted distance is calculated for all the paths (Yes). In step S5, the process moves to the target safety posture by the path giving the shortest weighting distance, and ends.
[0061]
In the above example, the target safety posture is searched based on the weighted distance to the safety posture. However, the target safety posture is searched based on the simple distance, that is, the number of arcs up to the safety posture. It doesn't matter.
[0062]
Here, by searching for the target safety posture as described above and making a transition to the target safety posture, the shutdown process can be performed safely, but in order to start up the next time, charge on the charging station. It is desirable to perform the shutdown process in the state where Therefore, when the robot apparatus 1 according to the present embodiment detects an abnormal state, the robot apparatus 1 searches for the charging station in consideration of the operable time, and if it can move to the charging station within the operable time, After moving, the station posture is changed to a safe posture. On the other hand, when it is not possible to move to the charging station within the operable time, or when the charging station is not found, a safe place where the mobile station can move within the operable time is searched for and moved to the safe position.
[0063]
The charging station search method described above is shown in the flowchart of FIG. First, in step S10, an operation possible time until the transition to the safe posture is calculated, and in step S11, a charging station or a safe place is searched. As described above, the robot apparatus 1 first starts searching from the charging station.
[0064]
Next, in step S12, the time required to move to the searched charging station or safe place is calculated, and it is determined whether or not the mobile station can move within the operable time. Here, when it is possible to move within the operable time (Yes), it moves to the place in step S13, transitions to a safe posture in step S15, and ends. In addition, when it moves to a charging station, it changes to the station attitude | position mentioned above, and when it moves to other places, it changes to a sleeping position, for example. On the other hand, if it is not possible to move within the operable time (No), in step S14, it is determined whether or not the current position can be changed to a safe posture. When the transition to the safe posture can be made at the current location (Yes), the transition is made to the safe posture in step S15 and the process is terminated. On the other hand, when that is not right (No), it returns to step S11 and further searches for a safe place.
[0065]
Here, an example of transition to a station posture will be described with reference to FIG.
Specifically, when behavior command information D2 indicating a transition to a safe posture is given from the behavior determination mechanism unit 40 during execution of the self-operation arc a1, the posture transition mechanism unit 41 stops the operation of the self-operation arc a1. To change to the attitude of the node ND4. Thereafter, the robot apparatus 1 searches for a charging station based on the input surrounding image data, and moves to a position where it can be reliably connected to the charging station. The posture transition mechanism unit 41 makes a transition to the station preparation posture, and jumps to the station posture which is a safe posture when connection to the charging station is detected.
[0066]
As described above, according to the robot apparatus 1 and the operation control method thereof in the present embodiment, when the shutdown process is performed for some reason, the target safety posture is searched from the same posture group as the current posture, and the same Only when there is no safety posture in the posture group, the target safety posture is searched from another posture group, and transition to the target safety posture makes it serious for the robot apparatus 1 itself and the outside world even in the biped walking type. The shutdown process can be performed safely without causing harm. In particular, if the operating time is calculated before the shutdown process and can be moved to the charging station within that time, it is charged at the next startup by moving to the charging station and then transitioning to a safe posture. A state can be created, and autonomous operation can be performed without difficulty.
[0067]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
[0068]
For example, in the above-described embodiment, the case where the present invention is applied to the biped walking robot apparatus 1 that imitates a human being is described. However, the present invention is not limited to this, and a quadruped walking robot apparatus that imitates an animal, For example, the present invention can be applied to various other robot devices such as a robot device used in the entertainment field such as games and exhibitions.
[0069]
【The invention's effect】
As described above in detail, the robot device according to the present invention is a robot device that operates by moving between a plurality of postures according to action command information, and a posture or target that is targeted from the current posture. A control means for searching for a route to an action to be performed based on the action command information and causing an action based on the search result to transition from the current attitude to the target attitude or the target action. When the transition to any of a plurality of safety postures set in advance as the action command information is instructed, the control means searches for the safe posture closest to the current posture and sets it as the target safety posture, Transition to the target safety posture.
[0070]
Further, the motion control method of the robot apparatus according to the present invention is a motion control method of the robot apparatus that moves between a plurality of postures according to the action command information, and is a target posture from the current posture or The route to the target action is searched based on the action command information, and the action is performed based on the search result, and the current attitude is changed to the target attitude or the target action. When a transition to any of a plurality of safety postures set in advance as the action command information is instructed, the safety posture closest to the current posture is set as the target safety posture and the target safety posture is changed.
[0071]
According to such a robot apparatus and its operation control method, the robot apparatus is forced to stop urgently due to an event such as a user's finger or other foreign object being pinched or the remaining battery level being low while the robot apparatus is operating. When processing, a biped walking robot device is searched by searching for a safety posture closest to the current posture among a plurality of preset safety postures and setting it as the target safety posture. Even so, the shutdown process can be performed without causing serious harm to itself or the outside world.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external configuration of a robot apparatus according to an embodiment.
FIG. 2 is a diagram schematically illustrating a freedom degree configuration model of the robot apparatus.
FIG. 3 is a diagram schematically showing a control system configuration of the robot apparatus.
FIG. 4 is a diagram functionally classifying the contents of data processing of the main control unit.
FIG. 5 is a diagram showing a posture transition graph in a posture transition mechanism unit of the main control unit;
FIG. 6 is a diagram illustrating an example of transition to a target safety posture.
FIG. 7 is a flowchart illustrating a method for searching for a target safety posture by the posture transition mechanism unit.
FIG. 8 is a flowchart illustrating a charging station search process.
FIG. 9 is a diagram illustrating an example of transition to a station posture.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Robot apparatus, 2 trunk unit, 3 head unit, 4R / L arm unit, 5R / L leg unit, 10 control unit, 11 main control part, 40 action determination mechanism part, 41 posture transition mechanism part, 42 Control mechanism

Claims (7)

行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置であって、
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて検索し、その検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段を備え、
上記制御手段は、上記行動指令情報として予め複数設定された安全姿勢の何れかへの遷移が指示された場合、現在の姿勢から最も近い安全姿勢を検索して目標安全姿勢とし、該目標安全姿勢に遷移させる
ことを特徴とするロボット装置。
A robot device that moves between a plurality of postures according to action command information and operates.
A route from the current posture to the target posture or the target motion is searched based on the action command information, and the route is operated based on the search result, and the target is determined from the current posture. Comprising a control means for transitioning to a posture or a target movement;
When the transition to any of a plurality of safety postures set in advance as the action command information is instructed, the control means searches for the safety posture closest to the current posture and sets it as the target safety posture, and the target safety posture The robot apparatus characterized by making a transition to.
上記複数の姿勢の間を遷移させる各動作に重みが付されており、
上記制御手段は、上記重みの和が最小となる経路を与える安全姿勢を上記目標安全姿勢とする
ことを特徴とする請求項1記載のロボット装置。
A weight is attached to each motion that makes transition between the above postures,
The robot apparatus according to claim 1, wherein the control unit sets a safety posture that provides a path that minimizes the sum of the weights as the target safety posture.
上記安全姿勢への遷移が指示されたときに一の動作を実行中である場合、該実行中の動作を中止して上記目標安全姿勢に遷移することを特徴とする請求項1記載のロボット装置。2. The robot apparatus according to claim 1, wherein when an operation is being executed when the transition to the safety posture is instructed, the operation being performed is stopped and the robot device transitions to the target safety posture. . 上記安全姿勢への遷移が指示された場合、上記制御手段は、上記複数の安全姿勢の何れかに遷移可能な安全な場所を探索し、該安全な場所に移動して上記複数の安全姿勢の何れかに遷移することを特徴とする請求項1記載のロボット装置。When the transition to the safety posture is instructed, the control means searches for a safe place where the transition to any of the plurality of safety postures can be made, moves to the safe location, and moves the plurality of safety postures. The robot apparatus according to claim 1, wherein the robot apparatus transitions to any one. 上記制御手段は、稼働可能時間内に上記安全な場所に移動可能である場合に、該安全な場所に移動することを特徴とする請求項4記載のロボット装置。5. The robot apparatus according to claim 4, wherein the control means moves to the safe place when the control means can move to the safe place within an operable time. 上記安全な場所は、該ロボット装置を充電可能な充電装置のある場所であり、該充電装置に固定されたことを検出すると、所定の安全姿勢に遷移することを特徴とする請求項4記載のロボット装置。The said safe place is a place with the charging device which can charge this robot apparatus, and if it detects having been fixed to this charging device, it will change to a predetermined | prescribed safe attitude | position. Robotic device. 行動指令情報に応じて複数の姿勢の間を遷移し、動作するロボット装置の動作制御方法であって、
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて検索し、
検索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させ、
上記行動指令情報として予め複数設定された安全姿勢の何れかへの遷移が指示された場合、現在の姿勢から最も近い安全姿勢を目標安全姿勢とし、該目標安全姿勢に遷移させる
ことを特徴とするロボット装置の動作制御方法。
An operation control method for a robot apparatus that moves between a plurality of postures according to action command information,
A route from the current posture to the target posture or the target motion is searched based on the action command information,
Operate based on the search result, transition from the current posture to the target posture or the target motion,
When a transition to any of a plurality of safety postures set in advance as the action command information is instructed, a safety posture closest to the current posture is set as a target safety posture, and a transition to the target safety posture is performed. An operation control method for a robot apparatus.
JP2003181617A 2003-06-25 2003-06-25 Robot apparatus and method for controlling movement of the same Pending JP2005014144A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003181617A JP2005014144A (en) 2003-06-25 2003-06-25 Robot apparatus and method for controlling movement of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003181617A JP2005014144A (en) 2003-06-25 2003-06-25 Robot apparatus and method for controlling movement of the same

Publications (1)

Publication Number Publication Date
JP2005014144A true JP2005014144A (en) 2005-01-20

Family

ID=34182272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003181617A Pending JP2005014144A (en) 2003-06-25 2003-06-25 Robot apparatus and method for controlling movement of the same

Country Status (1)

Country Link
JP (1) JP2005014144A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011051069A (en) * 2009-09-03 2011-03-17 Toyota Motor Corp Emergency stop device of robot, and method
JP2011083835A (en) * 2009-10-13 2011-04-28 Seiko Epson Corp Robot control device, and robot control method
JP2013092817A (en) * 2011-10-24 2013-05-16 Toyota Motor Corp Method for controlling electric power supply, and electric power supply

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011051069A (en) * 2009-09-03 2011-03-17 Toyota Motor Corp Emergency stop device of robot, and method
JP2011083835A (en) * 2009-10-13 2011-04-28 Seiko Epson Corp Robot control device, and robot control method
JP2013092817A (en) * 2011-10-24 2013-05-16 Toyota Motor Corp Method for controlling electric power supply, and electric power supply

Similar Documents

Publication Publication Date Title
JP3714268B2 (en) Robot device
JP3555107B2 (en) Legged mobile robot and operation control method for legged mobile robot
JP2001277163A (en) Device and method for controlling robot
WO2003078109A1 (en) Operation control device for leg-type mobile robot and operation control method, and robot device
JP2002144260A (en) Leg type moving robot and its control method
JP2001138271A (en) Leg type mobile robot and at-overturn motion control method for robot
JP4449372B2 (en) Robot apparatus and behavior control method thereof
JP4660870B2 (en) Legged mobile robot and control method thereof
JP4281286B2 (en) Robot apparatus and control method thereof
JP2005014144A (en) Robot apparatus and method for controlling movement of the same
JP2002059384A (en) Learning system and learning method for robot
JP4770990B2 (en) Legged mobile robot and control method thereof
JP3813102B2 (en) Posture control apparatus and posture control method for legged robot
JP2005007501A (en) Robot device and its motion control method
JP4506249B2 (en) Robot apparatus and operation comparison method thereof
JP2002144261A (en) Leg type moving robot and its control method
JP2003266339A (en) Leg type moving robot
JP2002205290A (en) Device and method for controlling leg type mobile robot
JP2005305597A (en) Robot device and its control method
JP4539291B2 (en) Robot apparatus and operation control method thereof
JP3555946B2 (en) Mobile robot apparatus and control method for mobile robot apparatus
JP2003266352A (en) Robot device and control method therefor
JP2004283954A (en) Robot device and its operation control method
JP2003269579A (en) Power transmission device and robot device
JP4552490B2 (en) Robot apparatus and emotion control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Effective date: 20080121

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080430