JP4660870B2 - Legged mobile robot and control method thereof - Google Patents

Legged mobile robot and control method thereof Download PDF

Info

Publication number
JP4660870B2
JP4660870B2 JP31671599A JP31671599A JP4660870B2 JP 4660870 B2 JP4660870 B2 JP 4660870B2 JP 31671599 A JP31671599 A JP 31671599A JP 31671599 A JP31671599 A JP 31671599A JP 4660870 B2 JP4660870 B2 JP 4660870B2
Authority
JP
Japan
Prior art keywords
robot
legged mobile
virtual
mobile robot
landing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31671599A
Other languages
Japanese (ja)
Other versions
JP2001138273A (en
Inventor
健蔵 石田
義博 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP31671599A priority Critical patent/JP4660870B2/en
Publication of JP2001138273A publication Critical patent/JP2001138273A/en
Application granted granted Critical
Publication of JP4660870B2 publication Critical patent/JP4660870B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、生体のメカニズムや動作をモデル化して構成されるリアリスティックなロボットのメカニズムに係り、特に、ヒトやサルなどの脚式移動型動物の身体メカニズムをモデル化した脚式移動型ロボットのメカニズムに関する。
【0002】
更に詳しくは、本発明は、2以上の可動脚の各々が着床及び離床動作を協調的に繰り返し実行することにより、歩行、走行、ジャンプなどの動作パターンを実現するタイプの脚式移動型ロボットのメカニズムやその制御方法に係り、特に、ジャンプその他の動作パターンを実行した際にロボットが離床動作した後に着床する際に床面から受ける衝撃を可能な限り緩和することができる脚式移動型ロボットのメカニズムやその制御方法に関する。
【0003】
【従来の技術】
ロボットの語源は、スラブ語のROBOTA(奴隷機械)に由来するといわれている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
【0004】
最近では、ヒトやサルなどの2足直立歩行を行う動物の身体メカニズムや動作を模した脚式移動ロボットに関する研究開発が進展し、実用化への期待も高まってきている。2足直立による脚式移動は、クローラ式や、4足又は6足式などに比し不安定で姿勢制御や歩行制御が難しくなるが、階段の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作を実現できるという点で優れている。
【0005】
例えば、特開平3−184782号公報には、脚式歩行ロボットのうち、胴体より下に相当する構造体に適用される関節構造について開示している。
【0006】
ヒトの生体メカニズムや動作をエミュレートした脚式移動ロボットのことを、特に、「人間形」、若しくは「人間型」のロボット(humanoid robot)と呼ぶ。人間型ロボットは、例えば、生活支援、すなわち住環境その他の日常生活上の様々な場面における人的活動の支援などを行うことができる。
【0007】
人間形若しくは人間型と呼ばれるロボットを研究・開発する意義を、例えば以下の2つの視点から把握することができよう。
【0008】
1つは、人間科学的な視点である。すなわち、人間の下肢及び/又は上肢に似た構造のロボットを作り、その制御方法を考案して、人間の歩行動作をシミュレートするというプロセスを通じて、歩行を始めとする人間の自然な動作のメカニズムを工学的に解明することができる。このような研究成果は、人間工学、リハビリテーション工学、あるいはスポーツ科学など、人間の運動メカニズムを扱う他のさまざまな研究分野の進展に大いに還元することができるであろう。
【0009】
もう1つは、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動の支援を行うロボットの開発である。この種のロボットは、人間の生活環境のさまざまな局面において、人間から教わりながら個々に個性の相違する人間又は環境への適応方法を学習し、機能面でさらに成長していく必要がある。このとき、ロボットが「人間形」すなわち人間と同じ形又は同じ構造をしている方が、人間とロボットとのスムースなコミュニケーションを行う上で有効に機能するものと考えられる。
【0010】
例えば、踏んではけない障害物を避けながら部屋を通り抜ける方法を実地においてロボットに教示するような場合、クローラ式や4足式ロボットのように教える相手が自分と全く違う構造をしているよりも、同じような格好をしている2足歩行ロボットの方がはるかに教え易く、またロボットにとっても教わり易い筈であろう(例えば、高西著「2足歩行ロボットのコントロール」(自動車技術会関東支部<高塑>No.25,1996APRIL)を参照のこと)。そもそも、人間の住環境のほとんどは人間が持つ形態や行動様式に合わせて形成されたものであるから、ロボットが人間型の形態を有していることは人間の住環境との親和性を高める上で必須であるとも言える。
【0011】
人間型ロボットの用途の1つとして、産業活動・生産活動等における各種の難作業の代行が挙げられる。例えば、原子力発電プラントや火力発電プラント、石油化学プラントにおけるメンテナンス作業、製造工場における部品の搬送・組立作業、高層ビルにおける清掃、火災現場その他における救助といったような危険作業・難作業の代行などである。但し、この種の産業利用に特化したロボットは、特定の用途若しくは機能を実現することが設計・製作上の至上の主題であり、2足歩行を前提とはするものの、ヒトやサルなど直立歩行動物が本来持つ身体メカニズムや動作を機械装置として忠実に再現する必要は必ずしもない。例えば、特定用途を実現するために手先の自由度や動作機能を強化する一方で、用途には比較的関係が低いとされる頭部や体幹部(脊椎など)、腰部などの自由度を制限し又を省略することはある程度許容すべきである。この結果、2足歩行と謂えども、ロボットの作業や動作の外観上で、ヒトとしては不自然さが残ることがあるが、かかる点は妥協せざるを得ない。
【0012】
また、人間型ロボットの他の用途として、難作業の代行などの生活支援というよりも、生活密着型、すなわち人間との「共生」という用途が挙げられる。この種のロボットは、ヒトやサルなどの2足の直立歩行を行う動物が本来持つ、全身協調型の動作メカニズムを忠実に再現し、その自然に円滑な動作を実現することを至上の目的とする。また、ヒトやサルなどの知性の高い直立動物をエミュレートする以上、四肢を用いた動作の表現力が豊かであることが望ましい。さらに、予め入力された動作パターンを単に忠実に実行するだけではなく、相手の言葉や態度(「褒める」とか「叱る」、「叩く」など)に呼応した、生き生きとした動作表現を実現することも要求される。この意味において、ヒトを模したエンターティンメント・ロボットは、まさに「人間型ロボット」と呼ぶに相応しい。
【0013】
既に周知のように、人体は数百の関節すなわち数百に上る自由度を備えている。限りなくヒトに近い動作を脚式移動ロボットに付与するためには、ほぼ同じ自由度を与えることが好ましいが、これは技術的には極めて困難である。何故ならば、1つの自由度に対して少なくとも各1つのアクチュエータを配設する必要があるが、数百のアクチュエータをロボットという機械装置上に実装することは、製造コストの点からも、重量やサイズなど設計の観点からも不可能に等しい。また、自由度が多いと、その分だけロボットの位置・動作パターン制御や姿勢安定制御等のための計算量が指数関数的に増大してしまう。
【0014】
このため、人体よりもはるかに少ない数十程度の関節自由度で人間型ロボットを構成するのが一般的である。したがって、少ない自由度を用いてより自然な動作を如何にして実現するかが、人間型ロボットの設計・制御において重要な課題の1つといえる。
【0015】
例えば、脊椎などのように柔軟性を持つ機構が人間の生活の場で多様で複雑な動作をするために重要であることは、人間工学などの観点から既に明らかである。脊椎を意味する体幹関節自由度は、産業的な用途上は存在価値が低いが、エンターティンメントやその他の生活密着型の人間型ロボットには重要である。なお且つ、状況に応じて柔軟さを能動的に調節できることが求められている。
【0016】
また、2足直立歩行を行う脚式移動ロボットは、柔軟な歩行・走行動作(例えば階段の昇降や障害物の乗り越え等)を実現できる点で優れている反面、重心位置が高くなるため、その分だけ姿勢制御や安定歩行制御が難しくなる。特に、生活密着型のロボットの場合、ヒトやサルなどの知性動物における自然な動作や感情を豊かに表現しながら姿勢や安定歩行を制御しなければならない。
【0017】
2足歩行による脚式移動を行うタイプのロボットに関する姿勢制御や安定歩行に関する技術は既に数多提案されている。ここで言う安定な「歩行」とは、転倒することなく、脚を使って移動すること、と定義することができよう。
【0018】
歩行時には、重力と歩行運動に伴なって生じる加速度によって、歩行系から路面には重力と慣性力、並びにこれらのモーメントが作用する。いわゆる「ダランベールの原理」によると、それらは路面から歩行系への反作用としての床反力、床反力モーメントとバランスする。力学的推論の帰結として、足底接地点と路面の形成する支持多角形の辺上あるいはその内側にピッチ及びロール軸モーメントがゼロとなる点、すなわち「ZMP(Zero Moment Point)」が存在する。
【0019】
ロボットの安定歩行に関する提案の多くは、このZMPを歩行の安定度判別の規範として用いている。ZMP規範に基づく2足歩行パターン生成は、足底着地点を予め設定でき、路面形状に応じた足先の運動学的拘束条件を考慮し易いなどの利点がある。
【0020】
例えば、特開平5−305579号公報には、脚式移動ロボットの歩行制御装置について開示している。同公報に記載の歩行制御装置は、ZMP(Zero Moment Point)すなわち歩行するときの床反力によるモーメントがゼロとなる床面上の点を目標値に一致させるように制御するものである。
【0021】
また、特開平5−305581号公報に記載の脚式移動ロボットは、ZMPが支持多面体(多角形)内部、又は、着地、離床時にZMPが支持多面体(多角形)の端部から少なくとも所定の余裕を有する位置にあるように構成した。この結果、外乱などを受けても所定距離だけZMPの余裕があり、歩行の安定性の向上を図ることができる。
【0022】
また、特開平5−305583号公報には、脚式移動ロボットの歩き速度をZMP目標位置によって制御する点について開示している。すなわち、同公報に記載の脚式移動ロボットは、予め設定された歩行パターン・データを用い、ZMPを目標位置に一致させるように脚部関節を駆動するとともに、上体の傾斜を検出して、その検出値に応じて設定された歩行パターン・データの吐き出し速度を変更するようにしている。この結果、予期しない凹凸を踏んでロボットが例えば前傾するときは吐き出し速度を速めることで姿勢を回復できる。またZMPが目標位置に制御できるので、両脚支持期において吐き出し速度を変更しても支障がない。
【0023】
また、特開平5−305585号公報には、脚式移動ロボットの着地位置をZMP目標位置によって制御する点について開示している。すなわち、同公報に記載の脚式移動ロボットは、ZMP目標位置と実測位置とのずれを検出して、それを解消する様に脚部の一方または双方を駆動するか、又は、ZMP目標位置まわりにモーメントを検出してそれが零になる様に脚部を駆動することで安定歩行を行うようになっている。
【0024】
また、特開平5−305586号公報には、脚式移動ロボットの傾斜姿勢をZMP目標位置によって制御する点について開示している。すなわち、同公報に記載の脚式移動ロボットは、ZMP目標位置まわりのモーメントを検出し、モーメントが生じているときは、それが零になるように脚部を駆動することで安定歩行を行うようになっている。
【0025】
【発明が解決しようとする課題】
マニピュレータのような据置き型ロボットやクロール式の移動ロボットとは異なり、脚式移動ロボットは複数の可動脚の各々が着床及び離床動作を協調的に繰り返すことにより、ロボット全体として歩行動作を実現する。着床時には、可動脚やロボット全体に対して床面からの反力が衝撃として印加される。度重なる衝撃や角の衝撃は、当然にして、関節(アクチュエータ)その他の部位の疲労や破損の原因となる。
【0026】
また、人間の脚式移動は、歩行動作に限定されず、さらに走行やジャンプなどの離床期間の比較的長い動作を含む。上述した人間型ロボットに関する従来技術はいずれも歩行動作に対する提案にとどまるが、走行やジャンプなど、ロボットの離床期間を含む動作パターンの実現は、住空間におけるヒトの自然若しくは当然にして行う代表的な動作パターンの1つである。ジャンプや高所からの落下という動作パターンが、脚式若しくは人間型ロボットの設計目標に含まれることは言うまでもない。
【0027】
例えば、前述したエンターティンメント向けの人間型ロボットの場合、ダンスをする、スポーツなどのゲームをする等、娯楽志向の強い作業を行う。このため、ヒトの代行作業上に発生する歩行や階段の昇降などの動作パターン以外に、走行する、ジャンプする、高所から飛び降りるなど、長い離床期間を伴う動作パターンを実行する頻度が極めて高いと予想される。また、離床期間が長いということは、より高い位置から落下することを意味する。ロボット自体が重量物であるから、落下時には、通常歩行時における可動脚が着床時に受けるよりもはるかに大きな衝撃が印加される。
【0028】
エンターティンメント指向の人間型ロボットは、着床によってより大きな衝撃を受ける回数がより多いと言える。このため、関節アクチュエータの損傷や故障、その他の部位の破損を起こし易い。
【0029】
例えば、特開平11−48170号公報には、脚式移動ロボットが転倒しそうな状況で、その転倒によりロボットが受ける損傷や、その転倒時にロボットが衝突する相手側の物体の損傷を可能な限り軽減することができる脚式移動ロボットの制御装置について開示されている。
【0030】
しかしながら、同公報に記載の制御装置は、ロボット本体若しくは筐体の損傷を軽減することができるが、関節アクチュエータに印加される衝撃の軽減を図ったものではない。
【0031】
また、同公報は転倒に伴う着床時に単にロボットの重心を下げるように制御することを提案するのみであり、離床から着床に至る期間全体を通した動作によって床面から受ける衝撃を緩和するような点については言及していない。そもそも同公報は、脚式移動ロボットの転倒時のみを考慮したものであり、ジャンプ動作や高所からの落下などのように比較的離床期間の長い動作パターンとは無関係である。
【0032】
また、同公報は転倒に伴う着床時にロボットの重心を下げるように制御することを提案するが、着床後のロボットの姿勢は転倒状態しか想定されていない。言い換えれば、同公報は、ジャンプ動作により離床し、再び着床する際に転倒しないようにロボットの姿勢を安定制御するという技術的課題とは無縁なのである。
【0033】
本発明は、上述したような技術的課題を鑑みたものであり、その目的は、2以上の可動脚の各々が着床及び離床動作を協調的に繰り返し実行することにより、歩行、走行、ジャンプなどの動作パターンを実現するタイプの脚式移動型ロボットのための優れた制御メカニズムを提供することにある。
【0034】
本発明の更なる目的は、ジャンプ動作その他ロボットが離床動作した後に着床する際に床面から受ける衝撃を可能な限り緩和することができる、脚式移動型ロボットのための優れた制御メカニズムを提供することにある。
【0035】
本発明の更なる目的は、ロボットがジャンプやその他の離床動作をした後に着床する際に関節アクチュエータが床面から受ける衝撃を可能な限り緩和することができる、脚式移動型ロボットのための優れた制御メカニズムを提供することにある。
【0036】
本発明の更なる目的は、ロボットがジャンプその他の離床動作をした後着床に至る期間全体を通した一連の動作を以って、床面から受ける衝撃を可能な限り緩和することができる、脚式移動型ロボットのための優れた制御メカニズムを提供することにある。
【0037】
また、本発明の更なる目的は、ロボットがジャンプやその他の離床動作をした後で着床する際にロボットが転倒しないように姿勢を安定制御することができる、脚式移動型ロボットのための優れた制御メカニズムを提供することにある。
【0038】
【課題を解決するための手段及び作用】
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、少なくとも下肢と、該下肢の上方に配設された上体とで構成され、下肢の運動により各種の動作パターンを実現する脚式移動ロボットであって、
少なくとも下肢に設けられたインピーダンス可変な関節アクチュエータと、
前記ロボットが離床又は着床いずれの期間中かを検出する検出手段と、
離床期間中であることを検出したことに応答して前記関節アクチュエータのインピーダンスを低下させるとともに、着床を検出したことに応答して前記関節アクチュエータのインピーダンスを着床動作前の元の値に戻すなど所定の制御を行う制御手段と、
を具備することを特徴とする脚式移動ロボットである。
【0039】
本発明の第1の側面に係る脚式移動ロボットによれば、離床期間中においてロボットは自らの関節アクチュエータのインピーダンスを低下させることで、関節アクチュエータ自体が緩衝材として機能するような状態で着床を待機することができる。
【0040】
また、着床時においては、関節アクチュエータのインピーダンスを所定時間を以って元の状態に回復することで緩衝効果を確保することができる。
【0041】
また、関節アクチュエータのインピーダンスが回復し、通常の制御状態に復帰した後は、ZMPによる安定度判別規範に基づきロボット100のZMPが安定領域に入るように姿勢制御を行うことで、着床後にロボットが転倒してしまうという2次的な危険な事態を回避することができる。
【0042】
また、本発明の第2の側面は、少なくとも下肢と、該下肢の上方に配設された上体とで構成され、下肢の運動により各種の動作パターンを実現する脚式移動ロボットであって、
前記ロボットが離床又は着床いずれの期間中かを検出する検出手段と、
前記下肢を伸展及び屈曲させる第1の駆動手段と、
前記上体を伸展及び屈曲させる第2の駆動手段と、
前記第1及び第2の駆動手段の駆動を制御する制御手段とを具備し、
前記制御手段は、
離床期間中であることを検出したことに応答して、前記上体が重力方向とは逆方向に伸展し、及び/又は、前記下肢が重力方向に伸展するように、前記第1及び第2の駆動手段の各々を制御するとともに、
着床を検出したことに応答して、前記ロボット全体の重心位置が下がるように前記第1及び第2の駆動手段の各々を制御する、
ことを特徴とする脚式移動ロボットである。
【0043】
本発明の第2の側面に係る脚式移動ロボットによれば、離床期間中においてロボットは鉛直方向に伸展したような姿勢をとり(後述:図8を参照のこと)、重心位置が着床する足底から極力高い位置になる状態で着床を待機する。さらに、着床時においては、所定加速度の範囲内で重心位置が次第に低くなるような動作パターンをとることによって、着床時に床面から受ける最大衝撃力を緩和することができる。
【0044】
また、着床時においては、脚式移動ロボットのZMPが安定領域に入るように姿勢制御を行うことで、着床後にロボットが転倒してしまうという2次的な危険な事態を回避することができる。
【0045】
ここで、前記制御手段は、着床を検出したことに応答して、前記ロボット全体の重心位置が許容加速度以内で下がるように前記第1及び第2の駆動手段の各々を制御するようにしてもよい。
【0046】
また、前記制御手段は、着床時に、前記ロボットのZMPが安定領域内にあるか否かを判定する処理と、該判定結果が否定的な場合にはZMPが安定領域内に入るように前記ロボットの姿勢を変更する処理とを実行するようにしてもよい。
【0047】
また、本発明の第3の側面は、少なくとも下肢と、該下肢の上方に配設された上体とで構成され、下肢の運動により各種の動作パターンを実現する脚式移動ロボットであって、
前記ロボットが離床又は着床いずれの期間中かを検出する検出手段と、
前記下肢の各関節を駆動する第1の駆動手段と、
前記上体の各関節を駆動する第2の駆動手段と、
前記第1及び第2の駆動手段の駆動を制御する制御手段とを具備し、
前記制御手段は、
離床期間中であることを検出したことに応答して、仮想床平面上における仮想ZMPが仮想安定領域内にあるか否かを判定するとともに、
該判定結果が否定的であったことに応答して、仮想ZMPが仮想安定領域内に入るように前記第1及び第2の駆動手段の各々を制御する、
ことを特徴とする脚式移動ロボットである。
【0048】
本発明の第3の側面に係る脚式移動ロボットによれば、ロボットは、離床期間中は常に仮想床平面に対して安定した姿勢を維持しながら着床するまで待機することができる。この結果、着床時にバランスを失ってロボットが転倒する、ひいては転倒によってロボットの一部又は全部が破損するといった可能性を限りなく排除することができる。
【0049】
前記の制御手段は、離床期間中であることを検出したことに応答して関節アクチュエータのインピーダンスを低下させるとともに、着床を検出したことに応答して関節アクチュエータのインピーダンスを元の値に戻すことにより、着床時の衝撃吸収動作を行ってもよい。あるいは、制御手段は、ロボットが着床を検出したことに応答して、前記ロボット全体の重心位置が許容加速度以内で下がるようにして、着床時の衝撃吸収動作を行ってもよい。
【0050】
また、本発明の第4の側面は、少なくとも下肢と、該下肢の上方に配設された上体とで構成され、下肢の運動により各種の動作パターンを実現する脚式移動ロボットの制御方法であって、少なくとも下肢に設けられた関節アクチュエータはインピーダンス可変であり、
(a)離床期間中に前記関節アクチュエータのインピーダンスを低下させるステップと、
(b)着床時に前記関節アクチュエータのインピーダンスを元の値に戻すなど所定の制御を行うステップと、
を具備することを特徴とする脚式移動ロボットの制御方法である。
【0051】
本発明の第4の側面に係る制御方法において、前記ステップ(b)では、所定時間の間で連続的にインピーダンスを元の値に向かって連続的に戻すようにしてもよい。
【0052】
また、
(c)着床時に、前記ロボットのZMPが安定領域内にあるか否かを判定するステップと、
(d)前記ステップ(c)における判定結果が否定的な場合には、ZMPが安定領域内に入るように前記ロボットの姿勢を変更するステップと、
をさらに備えてもよい。
【0053】
また、本発明の第5の側面は、少なくとも下肢と、該下肢の上方に配設された上体とで構成され、下肢の運動により各種の動作パターンを実現する脚式移動ロボットの制御方法であって、前記脚式移動ロボットは前記下肢を伸展及び屈曲させる第1の駆動手段と、前記上体を伸展及び屈曲させる第2の駆動手段とを含み、
(a)離床期間中に、前記上体が重力方向とは逆方向に伸展し、及び/又は、前記下肢が重力方向に伸展するように、前記第1及び第2の駆動手段の各々を制御するステップと、
(b)着床を検出したことに応答して、前記ロボット全体の重心位置が下がるように前記第1及び第2の駆動手段の各々を制御するステップと、
ことを特徴とする脚式移動ロボットの制御方法である。
【0054】
本発明の第5の側面に係る制御方法において、前記ステップ(b)では、前記ロボット全体の重心位置が許容加速度以内で下がるように前記第1及び第2の駆動手段の各々を制御するようにしてもよい。
【0055】
また、
(c)着床時に、前記ロボットのZMPが安定領域内にあるか否かを判定するステップと、
(d)前記ステップ(c)における判定結果が否定的な場合には、ZMPが安定領域内に入るように前記ロボットの姿勢を変更するステップと、
をさらに備えてもよい。
【0056】
また、本発明の第6の側面は、少なくとも下肢と、該下肢の上方に配設された上体とで構成され、下肢の運動により各種の動作パターンを実現する脚式移動ロボットの制御方法であって、
(a)前記脚式移動ロボットが離床期間中か否かを判別するステップと、
(b)前記脚式移動ロボットの重力方向を検出するステップと、
(c)前記脚式移動ロボットの仮想床平面を設定するステップと、
(d)前記脚式移動ロボットの仮想安定領域を設定するステップと、
(e)前記脚式移動ロボットの仮想ZMPを算出するステップと、
(f)仮想ZMPが仮想安定領域内にあるか否かを判定するステップと、
(g)前記ステップ(f)における判定結果が否定的であったことに応答して、仮想ZMPが仮想安定領域内に入るように前記脚式移動ロボットの姿勢を変更するステップと、
を具備することを特徴とする脚式移動ロボットの制御方法である。
【0057】
本発明の第6の側面に係る制御方法は、離床期間中であることを検出したことに応答して関節アクチュエータのインピーダンスを低下させるステップと、着床を検出したことに応答して関節アクチュエータのインピーダンスを元の値に戻すステップとをさらに備えてもよい。
【0058】
また、着床を検出したことに応答して、前記ロボット全体の重心位置が許容加速度以内で下がるように姿勢制御するステップをさらに備えてもよい。
【0059】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0060】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施例を詳解する。
【0061】
図1及び図2には本発明の実施に供される人間形又は人間型ロボット100を前方及び後方の各々から眺望した様子を示している。さらに、図3には、この人間型ロボット100が具備する関節自由度構成を模式的に示している。
【0062】
図3に示すように、人間型ロボット100は、2本の腕部と頭部1を含む上体と、移動動作を実現する2本の脚部からなる下肢と、上肢と下肢とを連結する体幹部とで構成される。
【0063】
頭部1を支持する首関節は、首関節ヨー軸2と、首関節ピッチ軸3と、首関節ロール軸4という3自由度を有している。
【0064】
また、各腕部は、肩関節ピッチ軸8と、肩関節ロール軸9と、上腕ヨー軸10と、肘関節ピッチ軸11と、前腕ヨー軸12と、手首関節ピッチ軸13と、手首関節ロール軸14と、手部15とで構成される。手部15は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部15の動作自体は、ロボット100の姿勢安定制御や歩行動作制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0065】
また、体幹部は、体幹ピッチ軸5と、体幹ロール軸6と、体幹ヨー軸7という3自由度を有する。
【0066】
また、下肢を構成する各々の脚部は、股関節ヨー軸16と、股関節ピッチ軸17と、股関節ロール軸18と、膝関節ピッチ軸19と、足首関節ピッチ軸20と、関節ロール軸21と、足部(足底)22とで構成される。股関節ピッチ軸17と股関節ロール軸18の交点は、本実施例に係るロボット100の股関節位置を定義するものとする。人体の足部(足底)22は、実際には多関節・多自由度の足底を含んだ構造体であるが、本実施例に係る人間型ロボット100の足底はゼロ自由度とする。したがって、各脚部は6自由度で構成される。
【0067】
以上を総括すれば、本実施例に係る人間型ロボット100全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターティンメント向けの人間型ロボット100が必ずしも32自由度に限定される訳ではない。設計・製作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることは言うまでもない。
【0068】
上述したような人間型ロボット100が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。本実施例では、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニットに内蔵したタイプの小型ACサーボ・アクチュエータを搭載することとした。なお、この種のACサーボ・アクチュエータに関しては、例えば本出願人に既に譲渡されている特願平11−33386号明細書に開示されている。
【0069】
図4には、人間型ロボット100の制御システム構成を模式的に示している。同図に示すように、人間型ロボット100は、ヒトの四肢を表現した各機構ユニット30,40,50R/L,60R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行う制御ユニット80とで構成される(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下同様)。
【0070】
人間型ロボット100全体の動作は、制御ユニット80によって統括的に制御される。制御ユニット80は、CPU(Central ProcessingUnit)チップやメモリ・チップ等の主要回路コンポーネント(図示しない)で構成される主制御部81と、電源装置やロボット100の各構成要素とのデータやコマンドの授受を行うインターフェース(いずれも図示しない)などを含んだ周辺回路82とで構成される。
【0071】
本実施例では、電源装置は、ロボット100を自立的に駆動するためのバッテリを含んだ構成(図4には図示しない)となっている。自立駆動型であれば、人間型ロボット100の物理的な行動半径は、電源ケーブルによる制限を受けず、自由に歩行することができる。また、歩行やその他の上肢を含めた各種の運動時に、電源ケーブルとの干渉を考慮する必要がなくなり、動作制御が容易になる。
【0072】
図3に示したロボット100内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット30には、首関節ヨー軸2、首関節ピッチ軸3、首関節ロール軸4の各々を表現する首関節ヨー軸アクチュエータA2、首関節ピッチ軸アクチュエータA3、首関節ロール軸アクチュエータA4がそれぞれ配設されている。
【0073】
また、体幹部ユニット40には、体幹ピッチ軸5、体幹ロール軸6、体幹ヨー軸7の各々を表現する体幹ピッチ軸アクチュエータA5、体幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエータA7がそれぞれ配備されている。
【0074】
また、腕部ユニット50R/Lは、上腕ユニット51R/Lと、肘関節ユニット52R/Lと、前腕ユニット53R/Lに細分化されるが、肩関節ピッチ軸8、肩関節ロール軸9、上腕ヨー軸10、肘関節ピッチ軸11、肘関節ロール軸12、手首関節ピッチ軸13、手首関節ロール軸14の各々を表現する肩関節ピッチ軸アクチュエータA8、肩関節ロール軸アクチュエータA9、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14がそれぞれ配備されている。
【0075】
また、脚部ユニット60R/Lは、大腿部ユニット61R/Lと、膝ユニット62R/Lと、脛部ユニット63R/Lに細分化されるが、股関節ヨー軸16、股関節ピッチ軸17、股関節ロール軸18、膝関節ピッチ軸19、足首関節ピッチ軸20、足首関節ロール軸21の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21がそれぞれ配備されている。
【0076】
各アクチュエータA2,A3…は、より好ましくは、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータ(前述)である。
【0077】
頭部ユニット30、体幹部ユニット40、腕部ユニット50、各脚部ユニット60などの各機構ユニット毎に、アクチュエータ駆動制御用の副制御部35,45,55,65がそれぞれ配備されている。さらに、各脚部60R,Lの足底が着床したか否かを検出する接地確認センサ91及び92を装着するとともに、体幹部ユニット40内には、姿勢を計測する姿勢センサ93を装備している。本実施例では、姿勢センサ93として加速度センサを用いるものとする。これら各センサ91〜93の出力により、足底22の着床及び離床期間、体幹部分の傾きなどを検出して、制御目標をダイナミックに補正することができる。
【0078】
主制御部80は、各センサ91〜93の出力に応答して副制御部35,45,55,65の各々に対して適応的な制御を行い、人間型ロボット100の上肢、体幹、及び下肢の協調した動作を実現することができる。主制御部81は、ユーザ・コマンド等に従って、足部運動、ZMP(Zero Moment Point)軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容に従った動作を指示するコマンドを各副制御部35,45,55,65に転送する。
【0079】
そして、各々の副制御部35,45…では、主制御部81からの受信コマンドを解釈して、各アクチュエータA2,A3…に対して駆動制御信号を出力する。ここで言う「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット100の歩行動作期間中などにZMPが動く軌跡を意味する。
【0080】
次に、上述した人間型ロボット100における、ジャンプなどの離床期間を経て落下して着床する際の処理手順について説明する。
【0081】
図5には、着床時の処理手順の一例をフローチャートの形式で図解している。
以下、このフローチャートの各ステップについて説明する。
【0082】
ロボット100が離床動作を行うと(ステップS11)、両足の足底に設けられた接地確認センサ91及び92がともにオフ状態となって(ステップS12)、主制御部81において離床状態が検出される。ここで言う離床動作は、ジャンプ動作や高所から飛び降りる動作など、その動作パターンは特に特定されないので、本明細書中では説明を省略する。
【0083】
離床動作を検出したことに応答して、各関節アクチュエータの制御パラメータ値を変更する(ステップS13)。より具体的には、アクチュエータのインピーダンスが低下するように、制御パラメータを変更する。インピーダンスの低いアクチュエータは、柔軟な状態となるので、着床時には緩衝材として機能し、床面から受ける衝撃を吸収することができる。特に、足首関節や膝関節など、床面に近く大きな衝撃を受けるアクチュエータのインピーダンスを変更することが好ましい。
【0084】
図6には、ロボット100に用いられる1つのアクチュエータに関するサーボ回路とその制御系200のブロック図を示している。同図に示すように、該制御系は、位置指令と速度指令を入力にして、位置検出をフィードバックするタイプの制御系である。位置指令は位置制御器201に入力され、位置制御器201の出力と速度指令とが速度制御器202,203に入力され、速度制御器203の出力がアクチュエータ204に供給され、アクチュエータ204が駆動する。また、アクチュエータ204に付設されたエンコーダ(図示しない)からの位置検出信号が位置制御器201にフィードバックされるとともに、その時間微分した信号が速度制御器202にフィードバックされる。
【0085】
図6に示すKpp,Kvi,Kvpの各々は、このサーボ制御系についての制御パラメータである。これらパラメータのうち少なくとも1つを小さな値に変更することにより、アクチュエータ200のインピーダンスは低下する。
【0086】
なお、アクチュエータ200は、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニットに内蔵したタイプの小型ACサーボ・アクチュエータであり、例えば本出願人に既に譲渡されている特願平11−33386号明細書に開示されている。
【0087】
再び図5に戻って処理手順について説明する。ステップS14では、両足の接地センサ91及び92がともにオンになり(あるいは一方のセンサがオンになり)、ロボット100が床面に着床するまで待機する。
【0088】
そして、ロボット100の着床が検出されると、ステップS13において変更した関節アクチュエータの制御パラメータ値を元の値に戻す(ステップS15)。この結果、アクチュエータのインピーダンスが回復されて、ロボット100の動作制御が可能な離床前の状態となる。但し、インピーダンスを急峻に回復させてしまうと、緩衝材としての効果が失われるので、所定の時間T(例えば数百ミリ秒程度)をかけて元の値に戻す。
【0089】
次いで、ロボット100のZMPが安定領域、例えば着床した足底にあるか否かを判断する(ステップS16)。ZMPが安定領域になければ、安定領域に入るようにロボット100全体の姿勢を変更する(ステップS17)。
【0090】
他方、ZMPが安定領域にあれば、この処理手順全体を終了する。
【0091】
図5に示すような着床処理手順に従えば、離床期間中においてロボット100は自らの関節アクチュエータのインピーダンスを低下させ、アクチュエータが緩衝材として機能する状態でロボット100の着床を待機することができる。
【0092】
また、ロボット100の着床時においては、所定時間を以ってインピーダンスを元の状態に回復することで緩衝効果を確保することができる。
【0093】
また、ロボット100が着床して、関節アクチュエータのインピーダンスが回復し、通常の制御状態に復帰した後は、ZMPによる安定度判別規範に基づきロボット100のZMPが安定領域に入るように姿勢制御を行うことで、着床後にロボット100が転倒してしまうという2次的な危険な事態を回避することができる。
【0094】
図7には、着床時の処理手順に関する他の例をフローチャートの形式で図解している。以下、このフローチャートの各ステップについて説明する。
【0095】
ロボット100が離床動作を行うと(ステップS21)、両足の足底に設けられた接地確認センサ91及び92がともにオフ状態となって(ステップS22)、主制御部81においてロボット100の離床状態が検出される。ここで言う離床動作は、ジャンプ動作や高所から飛び降りる動作など、動作パターンは特に特定されないので、本明細書中では説明を省略する。
【0096】
離床動作を検出したことに応答して、ロボット100の上肢及び体幹部の各関節におけるピッチ軸を重力方向とは逆方向に回転駆動するとともに、下肢・脚部を重力方向に伸展する(ステップS23)。
【0097】
図8には、ロボット100の上肢及び体幹部の各関節におけるピッチ軸を重力方向とは逆方向に回転駆動するとともに、下肢・脚部を重力方向に伸展する姿勢の一例を模式的に図解している。同図に示すように、ロボット100の両手・両足が伸展するようにロボット100を姿勢制御する。この結果、足先からロボット100全体の重心位置Gまでの距離(高さ)hが、手足を伸展する前の重心位置G’よりも長くなる。
【0098】
ステップS24では、両足の接地センサ91及び92がともにオンになり(あるいは一方のセンサがオンになり)、ロボット100が床面に着床するまで待機する。
【0099】
そして、ロボット100の着床が検出されると、ロボット100の重心が下がるようにロボットの上肢、下肢、及び体幹部関節の各ピッチ軸を駆動する(ステップS25)。
【0100】
ロボット100の重心が下がる姿勢の一例は、例えば図9に示すように、両足や股関節、体幹関節を屈曲させて屈み込んだ状態である。着床した足平から重心位置までの距離が充分短いことを理解できるであろう。
【0101】
ステップS25における屈曲動作により、ロボット100の重心位置は、着床時G0から着床動作終了時(安定時)Gfまで移動することになる(但し、G0>GF)。この一連の着床動作に所定時間Tだけ費やすことで、ロボット100が床面から受ける衝撃力は、図10のチャートに示すように、時間Tの間で緩やかに分散され、最大衝撃力も軽減される。
【0102】
但し、ステップS25における屈曲動作は、加速度センサ93の値が許容加速度の値を超えないように各関節軸の駆動速度を協調して制御する(すなわち姿勢を屈曲させる)必要がある。何故ならば、許容加速度を越える値で屈曲動作を行うと、ロボット100に印加される衝撃はむしろ増幅されるからである。
【0103】
図11には、着床時にロボット100の重心位置を点G0から点GFに移動させる速度と床面から受ける衝撃力との関係をチャート上で示している。より具体的には、重心位置が点G0から点GFまで移動させる所要時間(すなわち着床から安定に至るまでの所要時間)TがそれぞれT1、T2、及びT3(但し、T1<T2<T3)となる場合をプロットしている。同図からも判るに、所要時間が短いほど重心位置の移動加速度が速くなり、これに比例して床面から受ける衝撃力Fの最大値は増大する。逆に、重心移動の所要時間が長いほど加速度が低くなり、着床時のインパクトが重心移動によって吸収され、衝撃力Fの最大値は軽減される。
【0104】
次いで、ロボット100のZMPが安定領域、例えば着床した足底にあるか否かを判断する(ステップS26)。ZMPが安定領域になければ、安定領域に入るようにロボット100全体の姿勢を変更する(ステップS27)。
【0105】
他方、ZMPが安定領域にあれば、この処理手順全体を終了する。
【0106】
図7に示すような着床処理手順に従えば、離床期間中においてロボット100は鉛直方向に伸展したような姿勢をとり(図8を参照のこと)、重心位置が着床する足底から極力高い位置になる状態で着床を待機することができる。さらに、着床時においては、所定加速度の範囲内で重心位置が次第に低くなるような動作パターンをとることによって、床面から受ける最大衝撃力を緩和することができる。
【0107】
また、着床時においては、ロボット100のZMPが安定領域に入るように姿勢制御を行うことで、着床後にロボット100が転倒してしまうという2次的な危険な事態を回避することができる。
【0108】
図12には、着床時の処理手順に関する他の例をフローチャートの形式で図解している。以下、このフローチャートの各ステップについて説明する。
【0109】
ロボット100が離床動作を行うと(ステップS31)、両足の足底に設けられた接地確認センサ91及び92がともにオフ状態となって(ステップS32)、主制御部81において離床状態が検出される。ここで言う離床動作は、ジャンプ動作や高所から飛び降りる動作など、動作パターンは特に特定されないので、本明細書中では説明を省略する。
【0110】
離床動作を検出したことに応答して、主制御部81では、姿勢センサ93の出力を基に、重力方向を算出して(ステップS33)、仮想床平面を設定する(ステップS34)。本明細書中において、「仮想床平面」とは、現在のロボット100の最下点(ジャンプなど通常の離床動作では左右いずれか一方又は両方の足平)における重力ベクトルを法線ベクトルとする平面のことを言う(図13を参照のこと)。
【0111】
次いで、仮想床平面上における仮想安定領域を設定する(ステップS35)。本明細書中において、「仮想安定領域」とは、ロボット100の現在の姿勢において仮想床平面に着床したときに、ロボット100が安定を保つことができる該床面上に領域のことである。例えば、仮想床平面上に着床した足の足底接地点と仮想床平面の形成する支持多角形に相当する(図14を参照のこと)。
【0112】
次いで、仮想ZMPを算出する(ステップS36)。「仮想ZMP」とは、仮想床平面における床反力によるモーメントがゼロとなる仮想床平面上の点のことである。
【0113】
判断ブロックS37では、仮想ZMPが仮想安定領域内に入っているか否かを判断する。
【0114】
判断結果が否定的であれば、ロボット100の上肢、下肢、体幹部の少なくとも一部の関節アクチュエータを駆動させて、仮想ZMPが仮想安定領域内に入るように、ロボット100の姿勢を変更する(ステップS38)。
【0115】
上述したような姿勢制御の結果、ロボット100は、離床期間中は常に仮想床平面に対して安定した姿勢を維持しながら着床を待機することができる。着床時には仮想床平面が現実の床平面と一致するが、上述のステップS39では、ロボット100は安定した姿勢で着床することができる。なお、着床動作には、図5や図7を用いて説明したような衝撃吸収動作を含んでもよい。
【0116】
要するに図12に示すような姿勢制御処理手順に従えば、ロボット100は、離床期間中は常に仮想床平面に対して安定した姿勢を維持しながら着床するまで待機することができる。この結果、着床時にバランスを失って転倒する、ひいては転倒によってロボット100の一部又は全部が破損するといった可能性を、限りなく排除することができる。さらに、上述した衝撃吸収動作を組み込むことによって、万全な着床動作を実現することができる。
【0117】
[追補]
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。
【0118】
本明細書では、2足の下肢により脚式移動を行う人間型ロボットを例に本発明を説明したが、本発明の要旨は2足歩行ロボットに限定されるものではない。例えばイヌをモデル化したペット型ロボットのような4足歩行ロボット、あるいはその他の本数の下肢を持つ脚式移動ロボットに対しても、当然にして本発明を好適に適用することができる。また、本実施例で示したように、胴体(体幹部ユニット)に上肢や頭部を搭載していないタイプのロボットに対しても本発明を適用することができる。
【0119】
要するに、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0120】
なお、本発明の要旨を判断する上で、2足歩行のロボット100についての関節等の呼び名は、図3を厳格に適用するのは妥当ではなく、現実のヒトやサルなどの2足直立歩行動物の身体メカニズムとの対比により柔軟に解釈されたい。
【0121】
参考のため、人間型ロボットの関節モデル構成を図15に図解しておく。同図に示す例では、肩関節5から上腕、肘関節6、前腕、手首7及び手部8からなる部分を「上肢」と呼ぶ。また、肩関節5から股関節11までの範囲を「体幹部」と呼び、ヒトの胴体に相当する。また、体幹部のうち特に股関節11から体幹関節10までの範囲を「腰部」と呼ぶ。体幹関節10は、ヒトの背骨が持つ自由度を表現する作用を有する。また、股関節11より下の大腿部12、膝関節14、下腿部13、足首15及び足部16からなる部分を「下肢」と呼ぶ。一般には、股関節より上方を「上体」と呼び、それより下方を「下体」と呼ぶ
【0122】
また、図16には、人間型ロボットの他の関節モデル構成を図解している。同図に示す例は、体幹関節10を有しない点で図14に示した例とは相違する。各部の名称については図を参照されたい。背骨に相当する体幹関節が省略される結果として人間型ロボットの上体の動きは表現力を失う。但し、危険作業やなお作業の代行など、産業目的の人間型ロボットの場合、上体の動きを要しない場合がある。なお、図15及び図16で用いた参照番号は、図3などそれ以外の図面とは一致しない点を理解されたい。
【0123】
【発明の効果】
以上詳記したように、本発明によれば、ジャンプ動作その他ロボットが離床動作した後に着床する際に床面から受ける衝撃を可能な限り緩和することができる、優れた脚式移動型ロボット及びその制御方法を提供することができる。
【0124】
また、本発明によれば、ロボットがジャンプやその他の離床動作をした後に着床する際に関節アクチュエータが床面から受ける衝撃を可能な限り緩和することができる、優れた脚式移動型ロボット及びその制御方法を提供することができる。
【0125】
また、本発明によれば、ロボットがジャンプその他の離床動作をした後着床に至る期間全体を通した一連の動作を以って、床面から受ける衝撃を可能な限り緩和することができる、優れた脚式移動型ロボット及びその制御方法を提供することができる。
【0126】
また、本発明によれば、ロボットがジャンプやその他の離床動作をした後で着床する際に、ロボットが転倒しないようにその姿勢を安定制御することができる、優れた脚式移動型ロボット及びその制御方法を提供することができる。
【図面の簡単な説明】
【図1】 本発明の実施に供される人間型ロボット100を前方から眺望した様子を示た図である。
【図2】 本発明の実施に供される人間型ロボット100を後方から眺望した様子を示た図である。
【図3】 本実施例に係る人間型ロボット100が具備する自由度構成モデルを模式的に示した図である。
【図4】 本実施例に係る人間型ロボット100の制御システム構成を模式的に示した図である。
【図5】 ロボット100が着床する際の処理手順の一例を示したフローチャートである。
【図6】 ロボット100に用いられる1つのアクチュエータに関するサーボ回路とその制御系とを示したブロック図である。
【図7】 ロボット100が着床する際の処理手順に関する他の例を示したフローチャートである。
【図8】 離床期間中のロボット100が両手・両足が伸展し、着床を果たす足先からロボット100全体の重心位置までの距離(高さ)が極力長くなる姿勢を取った様子を示した図である。
【図9】 着床時にロボット100がとる姿勢の具体例を示した図である。
【図10】 着床時にロボット100が床面から受ける衝撃力を示したチャートである。
【図11】 着床時にロボット100の重心位置を点G0から点GFに移動させる速度と床面から受ける衝撃力との関係を示したチャートである。
【図12】 ロボット100が着床する際の処理手順に関する他の例を示したフローチャートである。
【図13】 離床時におけるロボット100に対する仮想床平面を図解したものである。
【図14】 離床時におけるロボット100の仮想安定領域を図解したものである。
【図15】 人間型ロボットについての関節モデル構成の一例を模式的に示した図である。
【図16】 人間型ロボットについての関節モデル構成の他の例を模式的に示した図である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a realistic robot mechanism configured by modeling biological mechanisms and operations, and more particularly to a legged mobile robot that models the body mechanisms of legged mobile animals such as humans and monkeys. Regarding the mechanism.
[0002]
More specifically, the present invention relates to a legged mobile robot of a type in which each of two or more movable legs realizes an operation pattern such as walking, running, jumping, etc. by cooperatively repeating landing and leaving actions. Leg movement type that can reduce the impact received from the floor as much as possible when landing after the robot leaves the floor, especially when executing jumps and other movement patterns The present invention relates to a robot mechanism and its control method.
[0003]
[Prior art]
It is said that the word “robot” comes from the Slavic word ROBOTA (slave machine). In Japan, robots started to spread from the end of the 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production operations in factories. Met.
[0004]
Recently, research and development on legged mobile robots simulating the body mechanisms and movements of biped upright walking such as humans and monkeys has progressed, and expectations for practical use are also increasing. Leg-type movement with two legs standing upright is unstable and difficult to control posture and walking, compared to crawler type, four-legged or six-legged type, etc. It is excellent in that it can realize traveling motion.
[0005]
For example, Japanese Patent Application Laid-Open No. 3-184782 discloses a joint structure applied to a structure corresponding to a lower part of a torso of a legged walking robot.
[0006]
A legged mobile robot that emulates a human biological mechanism or movement is particularly called a “humanoid” or “humanoid robot”. The humanoid robot can provide, for example, life support, that is, support for human activities in various situations in daily life such as a living environment.
[0007]
The significance of researching and developing robots called humanoids or humanoids can be understood from, for example, the following two viewpoints.
[0008]
One is a human scientific viewpoint. In other words, through the process of creating a robot with a structure resembling human lower limbs and / or upper limbs, devising its control method and simulating human walking motion, the mechanism of human natural motion including walking Can be elucidated in engineering. Such research results can be greatly reduced to the progress of various other research fields dealing with human movement mechanisms, such as ergonomics, rehabilitation engineering, or sports science.
[0009]
The other is the development of a robot that supports life as a human partner, that is, supports human activities in various situations in the living environment and other daily lives. This kind of robot needs to learn how to adapt to a person or an environment with different personalities while learning from humans in various aspects of the human living environment, and needs to grow further in terms of functionality. At this time, it is considered that the robot having the “human shape”, that is, the same shape or the same structure as the human, functions effectively for smooth communication between the human and the robot.
[0010]
For example, if you step on No When teaching robots on the ground how to get through the room while avoiding unobstructed obstacles, it ’s more like a crawler-type or quadruped-type robot than the opponent you ’re teaching has a completely different structure. A biped robot that looks like it will be much easier to teach and to be taught by robots (for example, “Control of a biped robot” by Takanishi (Automobile Engineering Association of Kanto Branch <High Plastics) > No. 25, 1996 APRIL)). In the first place, since most of the human living environment is formed according to the form and behavior of human beings, having a humanoid form increases the affinity with the human living environment. It can be said that it is essential above.
[0011]
One of the uses of the humanoid robot is to perform various difficult operations in industrial activities and production activities. For example, maintenance work at nuclear power plants, thermal power plants, petrochemical plants, transportation and assembly work of parts at manufacturing plants, cleaning of high-rise buildings, substitution of dangerous work and difficult work such as rescue at fire sites etc. . However, robots specializing in this type of industrial use have the ultimate design and production theme of realizing specific uses or functions, and are supposed to be biped, but humans and monkeys stand upright. It is not always necessary to faithfully reproduce the body mechanisms and movements inherent to walking animals as mechanical devices. For example, while strengthening the degree of freedom and movement functions of the hand to realize a specific application, it limits the degree of freedom of the head, trunk (such as the spine), and the waist, which are relatively unrelated to the application. It should be allowed to some extent to omit it. As a result, biped walking and so-called edo may remain unnatural for humans in terms of the appearance of robot work and operations, but this point must be compromised.
[0012]
Further, as another use of the humanoid robot, there is a use that is close to life, that is, “symbiosis” with a human, rather than life support such as substitution of difficult work. This type of robot is designed to faithfully reproduce the whole body cooperative movement mechanism inherent in animals that walk on two legs upright, such as humans and monkeys, and to achieve its natural and smooth movement. To do. In addition, as long as it emulates highly intelligent upright animals such as humans and monkeys, it is desirable that the expression of movement using the extremities is rich. Furthermore, not only to faithfully execute the pre-input motion pattern, but also to realize a lively motion expression that responds to the opponent's language and attitude (such as “praise”, “speak”, “beat”). Is also required. In this sense, an entertainment robot that imitates humans is just right to call it a “humanoid robot”.
[0013]
As already known, the human body has hundreds of joints, or hundreds of degrees of freedom. It is preferable to give almost the same degree of freedom in order to give the movement to the legged mobile robot as close as possible to a human, but this is extremely difficult technically. This is because it is necessary to arrange at least one actuator for each degree of freedom. However, mounting several hundred actuators on a mechanical device called a robot is difficult in terms of manufacturing cost. This is impossible from the design point of view. In addition, if the degree of freedom is large, the amount of calculation for the position / motion pattern control, posture stability control, and the like of the robot increases exponentially.
[0014]
For this reason, it is common to construct a humanoid robot with joint degrees of freedom of about several tens, which is much smaller than the human body. Therefore, it can be said that one of the important issues in the design and control of a humanoid robot is how to realize a more natural motion using a small degree of freedom.
[0015]
For example, it is already clear from the viewpoint of ergonomics that a flexible mechanism such as the spine is important for performing various and complex operations in the human life. The degree of freedom of trunk joints, which means the spine, has low value for industrial applications, but is important for entertainment and other life-oriented humanoid robots. Moreover, it is required that the flexibility can be actively adjusted according to the situation.
[0016]
In addition, legged mobile robots that perform biped upright walking are superior in that they can realize flexible walking and running operations (for example, raising and lowering stairs and getting over obstacles), but the center of gravity is higher, so Posture control and stable walking control become difficult by the amount. In particular, in the case of robots that are closely linked to daily life, postures and stable walking must be controlled while richly expressing natural movements and emotions in intelligent animals such as humans and monkeys.
[0017]
Numerous techniques related to posture control and stable walking have been proposed for robots of the type that perform legged movement by biped walking. Stable “walking” in this context can be defined as moving with legs without falling down.
[0018]
At the time of walking, gravity, inertial force, and these moments act on the road surface from the walking system due to gravity and acceleration caused by walking motion. According to the so-called “Dalambert principle”, they balance with the floor reaction force and the floor reaction force moment as a reaction from the road surface to the walking system. As a result of the dynamic reasoning, there is a point where the pitch and roll axis moment become zero on the side of the support polygon formed by the sole contact point and the road surface, or “ZMP (Zero Moment Point)”.
[0019]
Many of the proposals regarding the stable walking of the robot use this ZMP as a standard for determining the stability of walking. The biped walking pattern generation based on the ZMP norm has advantages such that a foot landing point can be set in advance and it is easy to consider the kinematic constraint conditions of the foot according to the road surface shape.
[0020]
For example, JP-A-5-305579 discloses a walking control device for a legged mobile robot. The walking control device described in this publication controls ZMP (Zero Moment Point), that is, a point on the floor where the moment caused by the floor reaction force when walking is zero to coincide with the target value.
[0021]
Further, in the legged mobile robot described in Japanese Patent Laid-Open No. 5-305581, the ZMP is at least a predetermined margin from the inside of the support polyhedron (polygon) or from the end of the support polyhedron (polygon) when landing or getting off the floor. It was comprised so that it might be in the position which has. As a result, even if a disturbance or the like is received, there is a ZMP margin for a predetermined distance, and the stability of walking can be improved.
[0022]
Japanese Patent Laid-Open No. 5-305583 discloses that the walking speed of a legged mobile robot is controlled by the ZMP target position. That is, the legged mobile robot described in the publication uses the walking pattern data set in advance, drives the leg joint so that the ZMP matches the target position, detects the inclination of the upper body, The discharge speed of the walking pattern data set according to the detected value is changed. As a result, when the robot leans forward, for example, by stepping on unexpected irregularities, the posture can be recovered by increasing the discharge speed. In addition, since the ZMP can be controlled to the target position, there is no problem even if the discharge speed is changed during the both-leg support period.
[0023]
Japanese Patent Laid-Open No. 5-305585 discloses that the landing position of a legged mobile robot is controlled by the ZMP target position. That is, the legged mobile robot described in the publication detects a deviation between the ZMP target position and the actually measured position and drives one or both of the legs so as to eliminate it, or around the ZMP target position. A stable walking is performed by detecting the moment and driving the leg so that it becomes zero.
[0024]
Japanese Patent Application Laid-Open No. 5-305586 discloses that the tilting posture of a legged mobile robot is controlled by the ZMP target position. In other words, the legged mobile robot described in the publication detects a moment around the ZMP target position, and when a moment is generated, drives the leg so that the moment becomes zero, so that a stable walking is performed. It has become.
[0025]
[Problems to be solved by the invention]
Unlike stationary robots such as manipulators and crawl-type mobile robots, legged mobile robots each have a plurality of movable legs that perform landing and leaving operations. Cooperation By repeating automatically, the walking motion is realized as a whole robot. At the time of landing, a reaction force from the floor surface is applied as an impact to the movable legs and the entire robot. Naturally, repeated impacts and corner impacts cause fatigue and breakage of joints (actuators) and other parts.
[0026]
In addition, human legged movement is not limited to walking movement, and further includes movement with a relatively long bed leaving period such as running and jumping. Although all of the above-described conventional technologies related to humanoid robots are only proposals for walking motions, the realization of motion patterns including the robot's bed leaving period, such as running and jumping, is typical of human beings in nature or naturally. This is one of the operation patterns. Needless to say, the movement pattern of jumping or dropping from a high place is included in the design goals of legged or humanoid robots.
[0027]
For example, in the case of the above-described humanoid robot for entertainment, a highly entertaining work such as dancing or playing games such as sports is performed. Therefore, in addition to the movement patterns that occur during human work, such as walking and stair climbing, the frequency of executing movement patterns with a long bed leaving period, such as running, jumping, jumping off high places, etc., is extremely high. is expected. In addition, a long bed leaving period means falling from a higher position. Since the robot itself is a heavy object, a much larger impact is applied when it falls than when the movable leg during normal walking is subjected to landing.
[0028]
Entertainment Oriented It can be said that the humanoid robot of this type receives more impacts by landing. For this reason, the joint actuator is easily damaged or broken, and other parts are easily damaged.
[0029]
For example, in Japanese Patent Laid-Open No. 11-48170, in a situation where a legged mobile robot is likely to fall, damage to the robot due to the fall, and damage to an object on the other side with which the robot collides at the time of the fall are reduced as much as possible. A control device for a legged mobile robot that can be used is disclosed.
[0030]
However, the control device described in the publication can reduce damage to the robot body or the housing, but does not attempt to reduce the impact applied to the joint actuator.
[0031]
In addition, the publication only proposes to control to lower the center of gravity of the robot at the time of landing due to falling, and mitigates the impact received from the floor surface by the operation throughout the period from leaving the floor to landing. It does not mention such points. In the first place, this publication considers only when the legged mobile robot falls, and is irrelevant to an operation pattern with a relatively long bed leaving period, such as a jump operation or a fall from a high place.
[0032]
The publication proposes to control the center of gravity of the robot to be lowered when landing due to falling, but the posture of the robot after landing is only assumed to be in a falling state. In other words, this publication is unrelated to the technical problem of stably controlling the posture of the robot so that it does not fall over when it leaves the floor by a jump action and then falls down again.
[0033]
The present invention has been made in view of the technical problems as described above, and the object thereof is to walk, run, jump by each of two or more movable legs executing a landing and a leaving operation in a coordinated manner repeatedly. It is an object of the present invention to provide an excellent control mechanism for a legged mobile robot that realizes an operation pattern such as the above.
[0034]
It is a further object of the present invention to provide an excellent control mechanism for a legged mobile robot capable of mitigating as much as possible the impact received from the floor surface when landing after the robot has left the floor. It is to provide.
[0035]
It is a further object of the present invention to provide a legged mobile robot capable of mitigating as much as possible the impact that the joint actuator receives from the floor surface when landing after the robot has jumped or performed other actions. It is to provide an excellent control mechanism.
[0036]
A further object of the present invention is to reduce the impact received from the floor surface as much as possible by performing a series of operations throughout the period from the robot jumping or performing other leaving operations to the landing. It is to provide an excellent control mechanism for a legged mobile robot.
[0037]
A further object of the present invention is to provide a legged mobile robot that can stably control the posture so that the robot does not fall over when landing after the robot has jumped or performed other floor movements. It is to provide an excellent control mechanism.
[0038]
[Means and Actions for Solving the Problems]
The present invention has been made in consideration of the above-mentioned problems, and the first side surface thereof is composed of at least a lower limb and an upper body disposed above the lower limb, and performs various operations according to the movement of the lower limb. A legged mobile robot that realizes a pattern,
A joint actuator with variable impedance provided at least on the lower limbs;
Detecting means for detecting whether the robot is leaving or landing; and
The impedance of the joint actuator is reduced in response to detecting that it is during the bed leaving period, and the impedance of the joint actuator is returned to the original value before the landing operation in response to detecting the landing. Control means for performing predetermined control, etc.
It is a legged mobile robot characterized by comprising.
[0039]
According to the legged mobile robot according to the first aspect of the present invention, the robot lowers the impedance of its joint actuator during the bed leaving period so that the joint actuator itself functions as a cushioning material. Can wait.
[0040]
Further, at the time of landing, the buffering effect can be ensured by restoring the impedance of the joint actuator to the original state over a predetermined time.
[0041]
In addition, after the impedance of the joint actuator is restored and the normal control state is restored, the posture control is performed so that the ZMP of the robot 100 enters the stable region based on the stability determination standard by the ZMP, so that the robot after landing Can avoid a secondary dangerous situation in which a person falls.
[0042]
Further, the second aspect of the present invention is a legged mobile robot composed of at least a lower limb and an upper body disposed above the lower limb, and realizing various operation patterns by movement of the lower limb,
Detecting means for detecting whether the robot is leaving or landing; and
First driving means for extending and bending the lower limbs;
Second driving means for extending and bending the upper body;
Control means for controlling the driving of the first and second driving means,
The control means includes
In response to detecting that it is during a bed leaving period, the first and second are such that the upper body extends in a direction opposite to the direction of gravity and / or the lower limb extends in the direction of gravity. And controlling each of the driving means of
In response to detecting the landing, each of the first and second driving means is controlled so that the position of the center of gravity of the entire robot is lowered.
This is a legged mobile robot.
[0043]
According to the legged mobile robot according to the second aspect of the present invention, during the bed leaving period, the robot takes a posture that extends in the vertical direction (described later: see FIG. 8), and the center of gravity position is landed. Wait for landing in a position that is as high as possible from the sole of the foot. Furthermore, the maximum impact force received from the floor surface at the time of landing can be reduced by taking an operation pattern in which the position of the center of gravity gradually decreases within a predetermined acceleration range when landing.
[0044]
In addition, when landing, by performing posture control so that the ZMP of the legged mobile robot enters the stable region, it is possible to avoid a secondary dangerous situation in which the robot falls over after landing. it can.
[0045]
Here, in response to detecting the landing, the control means controls each of the first and second driving means so that the position of the center of gravity of the entire robot falls within an allowable acceleration. Also good.
[0046]
In addition, the control means determines whether the ZMP of the robot is in the stable region at the time of landing, and if the determination result is negative, the control unit is configured so that the ZMP enters the stable region. You may make it perform the process which changes the attitude | position of a robot.
[0047]
The third aspect of the present invention is a legged mobile robot that is composed of at least a lower limb and an upper body disposed above the lower limb, and realizes various operation patterns by movement of the lower limb,
Detecting means for detecting whether the robot is leaving or landing; and
First driving means for driving each joint of the lower limbs;
Second driving means for driving each joint of the upper body;
Control means for controlling the driving of the first and second driving means,
The control means includes
In response to detecting that it is during the bed leaving period, it is determined whether or not the virtual ZMP on the virtual floor plane is within the virtual stable region,
In response to the negative determination result, each of the first and second driving means is controlled so that the virtual ZMP falls within the virtual stable region.
This is a legged mobile robot.
[0048]
According to the legged mobile robot according to the third aspect of the present invention, the robot can stand by until it leaves the floor while maintaining a stable posture with respect to the virtual floor plane during the bed leaving period. As a result, it is possible to eliminate as much as possible the possibility that the robot loses balance at the time of landing and the robot falls, and that part or all of the robot is damaged by the fall.
[0049]
The control means reduces the impedance of the joint actuator in response to detecting that it is during the bed leaving period, and returns the impedance of the joint actuator to the original value in response to detecting the landing. Thus, an impact absorbing operation at the time of landing may be performed. Alternatively, the control means may perform an impact absorbing operation at the time of landing so that the position of the center of gravity of the entire robot is lowered within an allowable acceleration in response to the detection of the landing by the robot.
[0050]
The fourth aspect of the present invention is a legged mobile robot control method comprising at least a lower limb and an upper body disposed above the lower limb, and realizing various motion patterns by movement of the lower limb. And at least the joint actuator provided in the lower limb is variable in impedance,
(A) reducing the impedance of the joint actuator during a bed leaving period;
(B) performing predetermined control such as returning the impedance of the joint actuator to the original value at the time of landing;
A control method for a legged mobile robot.
[0051]
In the control method according to the fourth aspect of the present invention, in step (b), the impedance may be continuously returned toward the original value continuously for a predetermined time.
[0052]
Also,
(C) upon landing, determining whether the ZMP of the robot is within a stable region;
(D) If the determination result in step (c) is negative, changing the posture of the robot so that ZMP falls within the stable region;
May be further provided.
[0053]
The fifth aspect of the present invention is a legged mobile robot control method comprising at least a lower limb and an upper body disposed above the lower limb, and realizing various operation patterns by movement of the lower limb. The legged mobile robot includes first driving means for extending and bending the lower limbs, and second driving means for extending and bending the upper body,
(A) During the bed leaving period, each of the first and second driving means is controlled so that the upper body extends in a direction opposite to the direction of gravity and / or the lower limbs extend in the direction of gravity. And steps to
(B) controlling each of the first and second driving means so that the position of the center of gravity of the entire robot is lowered in response to detecting the landing;
This is a control method for a legged mobile robot.
[0054]
In the control method according to the fifth aspect of the present invention, in the step (b), each of the first and second drive means is controlled so that the position of the center of gravity of the entire robot falls within an allowable acceleration. May be.
[0055]
Also,
(C) upon landing, determining whether the ZMP of the robot is within a stable region;
(D) If the determination result in step (c) is negative, changing the posture of the robot so that ZMP falls within the stable region;
May be further provided.
[0056]
The sixth aspect of the present invention is a legged mobile robot control method comprising at least a lower limb and an upper body disposed above the lower limb, and realizing various motion patterns by movement of the lower limb. There,
(A) determining whether the legged mobile robot is in a bed leaving period;
(B) detecting the direction of gravity of the legged mobile robot;
(C) setting a virtual floor plane of the legged mobile robot;
(D) setting a virtual stable region of the legged mobile robot;
(E) calculating a virtual ZMP of the legged mobile robot;
(F) determining whether the virtual ZMP is within a virtual stable region;
(G) in response to the determination result in the step (f) being negative, changing the posture of the legged mobile robot so that the virtual ZMP falls within the virtual stable region;
A control method for a legged mobile robot.
[0057]
The control method according to the sixth aspect of the present invention includes a step of reducing the impedance of the joint actuator in response to detecting that it is during a bed leaving period, and a step of reducing the impedance of the joint actuator in response to detecting landing. The step of returning the impedance to the original value may be further included.
[0058]
In addition, in response to detecting the landing, the robot may further include a step of controlling the posture so that the position of the center of gravity of the entire robot falls within an allowable acceleration.
[0059]
Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings.
[0060]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0061]
FIG. 1 and FIG. 2 show a state in which the humanoid or humanoid robot 100 used for carrying out the present invention is viewed from the front and the rear. Further, FIG. 3 schematically shows the joint degree-of-freedom configuration of the humanoid robot 100.
[0062]
As shown in FIG. 3, the humanoid robot 100 connects an upper body including two arms and a head 1, a lower limb including two legs that realize a moving operation, and an upper limb and a lower limb. Consists of the trunk.
[0063]
The neck joint that supports the head 1 has three degrees of freedom: a neck joint yaw axis 2, a neck joint pitch axis 3, and a neck joint roll axis 4.
[0064]
Each arm portion includes a shoulder joint pitch axis 8, a shoulder joint roll axis 9, an upper arm yaw axis 10, an elbow joint pitch axis 11, a forearm yaw axis 12, a wrist joint pitch axis 13, and a wrist joint roll. It comprises a shaft 14 and a hand portion 15. The hand portion 15 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the movement of the hand portion 15 has little contribution or influence to the posture stability control or the walking movement control of the robot 100, it is assumed in this specification that there is zero degree of freedom. Therefore, it is assumed that each arm portion has seven degrees of freedom.
[0065]
The trunk has three degrees of freedom: a trunk pitch axis 5, a trunk roll axis 6, and a trunk yaw axis 7.
[0066]
Further, each leg constituting the lower limb includes a hip joint yaw axis 16, a hip joint pitch axis 17, a hip joint roll axis 18, a knee joint pitch axis 19, an ankle joint pitch axis 20, and a joint roll axis 21. It is comprised with the foot | leg part (plant sole) 22. Assume that the intersection point of the hip joint pitch axis 17 and the hip joint roll axis 18 defines the hip joint position of the robot 100 according to the present embodiment. The human foot (sole) 22 is actually a structure including a multi-joint / multi-degree-of-freedom sole, but the sole of the humanoid robot 100 according to the present embodiment has zero degrees of freedom. . Accordingly, each leg is configured with 6 degrees of freedom.
[0067]
In summary, the entire humanoid robot 100 according to the present embodiment has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the humanoid robot 100 for entertainment is not necessarily limited to 32 degrees of freedom. It goes without saying that the degree of freedom, that is, the number of joints, can be increased or decreased as appropriate in accordance with design and manufacturing constraints and required specifications.
[0068]
Each degree of freedom of the humanoid robot 100 as described above is actually implemented using an actuator. It is preferable that the actuator be small and light in light of demands such as eliminating the appearance of extra bulges on the appearance and approximating the shape of a human body, and performing posture control on an unstable structure such as biped walking. . In this embodiment, a small AC servo actuator of a gear direct connection type and a servo control system of a single chip built in a motor unit is mounted. This type of AC servo actuator is disclosed in, for example, Japanese Patent Application No. 11-33386, which has already been assigned to the present applicant.
[0069]
FIG. 4 schematically shows a control system configuration of the humanoid robot 100. As shown in the figure, the humanoid robot 100 performs adaptive control for realizing cooperative operation between the mechanism units 30, 40, 50R / L, and 60R / L representing the human limbs and the mechanism units. It is comprised with the control unit 80 to perform (however, each of R and L is a suffix which shows each of right and left, and so on).
[0070]
The overall operation of the humanoid robot 100 is controlled by the control unit 80 in an integrated manner. The control unit 80 exchanges data and commands between a main control unit 81 composed of main circuit components (not shown) such as a CPU (Central Processing Unit) chip and a memory chip, and each component of the power supply device and the robot 100. And a peripheral circuit 82 including an interface (not shown) for performing the above.
[0071]
In this embodiment, the power supply apparatus has a configuration (not shown in FIG. 4) including a battery for driving the robot 100 autonomously. If it is a self-supporting drive type, the physical action radius of the humanoid robot 100 can be freely walked without being restricted by the power cable. Further, during various exercises including walking and other upper limbs, it is not necessary to consider interference with the power cable, and operation control is facilitated.
[0072]
Each degree of freedom of joint in the robot 100 shown in FIG. 3 is realized by a corresponding actuator. That is, the head unit 30 includes a neck joint yaw axis actuator A that represents the neck joint yaw axis 2, the neck joint pitch axis 3, and the neck joint roll axis 4. 2 , Neck joint pitch axis actuator A Three , Neck joint roll axis actuator A Four Are arranged respectively.
[0073]
The trunk unit 40 includes a trunk pitch axis actuator A that represents the trunk pitch axis 5, the trunk roll axis 6, and the trunk yaw axis 7. Five , Trunk roll axis actuator A 6 , Trunk yaw axis actuator A 7 Are deployed.
[0074]
Further, the arm unit 50R / L is subdivided into an upper arm unit 51R / L, an elbow joint unit 52R / L, and a forearm unit 53R / L, but a shoulder joint pitch axis 8, a shoulder joint roll axis 9, and an upper arm Shoulder joint pitch axis actuator A representing the yaw axis 10, the elbow joint pitch axis 11, the elbow joint roll axis 12, the wrist joint pitch axis 13, and the wrist joint roll axis 14. 8 , Shoulder joint roll axis actuator A 9 , Upper arm yaw axis actuator A Ten , Elbow joint pitch axis actuator A 11 , Elbow joint roll axis actuator A 12 , Wrist joint pitch axis actuator A 13 Wrist joint roll axis actuator A 14 Are deployed.
[0075]
The leg unit 60R / L is subdivided into a thigh unit 61R / L, a knee unit 62R / L, and a shin unit 63R / L, but the hip joint yaw axis 16, the hip joint pitch axis 17, the hip joint Hip joint yaw axis actuator A representing each of roll axis 18, knee joint pitch axis 19, ankle joint pitch axis 20, and ankle joint roll axis 21 16 Hip joint pitch axis actuator A 17 , Hip joint roll axis actuator A 18 , Knee joint pitch axis actuator A 19 , Ankle joint pitch axis actuator A 20 , Ankle joint roll axis actuator A twenty one Are deployed.
[0076]
Each actuator A 2 , A Three Is more preferably a small AC servo actuator (described above) of a gear direct connection type and a servo control system that is mounted on a motor unit in a single chip.
[0077]
For each mechanism unit such as the head unit 30, the trunk unit 40, the arm unit 50, and each leg unit 60, sub-control units 35, 45, 55, and 65 for actuator drive control are respectively provided. Furthermore, grounding confirmation sensors 91 and 92 for detecting whether or not the soles of the leg portions 60R and 60L have landed are mounted, and a posture sensor 93 for measuring posture is provided in the trunk unit 40. ing. In this embodiment, an acceleration sensor is used as the attitude sensor 93. The control targets can be dynamically corrected by detecting the landing and leaving periods of the sole 22, the inclination of the trunk portion, and the like based on the outputs of the sensors 91 to 93.
[0078]
The main control unit 80 performs adaptive control on each of the sub-control units 35, 45, 55, and 65 in response to the outputs of the sensors 91 to 93, and the upper limbs, the trunk, and the humanoid robot 100. The coordinated movement of the lower limbs can be realized. The main control unit 81 sets a foot movement, a ZMP (Zero Moment Point) trajectory, a trunk movement, an upper limb movement, a waist height, and the like according to a user command and the like, and instructs an operation in accordance with these setting contents. The command to be transferred is transferred to each sub-control unit 35, 45, 55, 65.
[0079]
And each sub-control part 35, 45 ... interprets the received command from the main control part 81, and each actuator A 2 , A Three A drive control signal is output to. Here, “ZMP” refers to a point on the floor where the moment due to floor reaction force during walking is zero, and “ZMP trajectory” refers to, for example, during the walking operation period of the robot 100. It means the trajectory that ZMP moves.
[0080]
Next, a processing procedure when the humanoid robot 100 is dropped and landed after a bed leaving period such as a jump will be described.
[0081]
FIG. 5 illustrates an example of a processing procedure during landing in the form of a flowchart.
Hereinafter, each step of this flowchart will be described.
[0082]
When the robot 100 performs a bed leaving operation (step S11), the ground contact confirmation sensors 91 and 92 provided on the soles of both feet are turned off (step S12), and the main control unit 81 detects the bed leaving state. . The movement pattern of the leaving action here is not particularly specified, such as a jumping action or an action of jumping off from a high place, and therefore the description thereof is omitted in this specification.
[0083]
In response to detecting the bed leaving motion, the control parameter value of each joint actuator is changed (step S13). More specifically, the control parameter is changed so that the impedance of the actuator is lowered. Since the actuator with low impedance is in a flexible state, it functions as a buffer when landing and can absorb the impact received from the floor surface. In particular, it is preferable to change the impedance of an actuator that receives a large impact near the floor, such as an ankle joint or a knee joint.
[0084]
FIG. 6 shows a block diagram of a servo circuit related to one actuator used in the robot 100 and its control system 200. As shown in the figure, the control system is a type of control system that receives position command and speed command and feeds back position detection. The position command is input to the position controller 201, the output of the position controller 201 and the speed command are input to the speed controllers 202 and 203, the output of the speed controller 203 is supplied to the actuator 204, and the actuator 204 is driven. . In addition, a position detection signal from an encoder (not shown) attached to the actuator 204 is fed back to the position controller 201, and a time differentiated signal is fed back to the speed controller 202.
[0085]
K shown in FIG. pp , K vi , K vp Are control parameters for the servo control system. By changing at least one of these parameters to a small value, the impedance of the actuator 200 decreases.
[0086]
The actuator 200 is a small AC servo actuator of the type directly connected to the gear and having a servo control system integrated into a motor unit. For example, Japanese Patent Application No. 11-29 already assigned to the present applicant. No. 33386.
[0087]
Returning to FIG. 5 again, the processing procedure will be described. In step S14, both the ground sensors 91 and 92 of both feet are turned on (or one of the sensors is turned on), and the robot 100 is on standby until it reaches the floor surface.
[0088]
When landing of the robot 100 is detected, the control parameter value of the joint actuator changed in step S13 is returned to the original value (step S15). As a result, the impedance of the actuator is recovered, and a state before leaving the bed where the operation of the robot 100 can be controlled is obtained. However, if the impedance is sharply recovered, the effect as a buffer material is lost, and therefore, it returns to the original value over a predetermined time T (for example, about several hundred milliseconds).
[0089]
Next, it is determined whether or not the ZMP of the robot 100 is in a stable region, for example, at the planted sole (step S16). If ZMP is not in the stable region, the posture of the entire robot 100 is changed so as to enter the stable region (step S17).
[0090]
On the other hand, if the ZMP is in the stable region, the entire processing procedure is terminated.
[0091]
According to the landing processing procedure as shown in FIG. 5, the robot 100 may reduce the impedance of its joint actuator during the bed leaving period, and wait for the robot 100 to land while the actuator functions as a cushioning material. it can.
[0092]
Further, when the robot 100 is landed, the buffering effect can be ensured by restoring the impedance to the original state after a predetermined time.
[0093]
In addition, after the robot 100 has landed and the impedance of the joint actuator has recovered and returned to the normal control state, the posture control is performed so that the ZMP of the robot 100 enters the stable region based on the stability determination criterion by the ZMP. By doing so, it is possible to avoid a secondary dangerous situation in which the robot 100 falls over after landing.
[0094]
FIG. 7 illustrates another example in the form of a flowchart regarding a processing procedure at the time of landing. Hereinafter, each step of this flowchart will be described.
[0095]
When the robot 100 performs a bed leaving operation (step S21), the ground contact confirmation sensors 91 and 92 provided on the soles of both feet are turned off (step S22), and the main controller 81 determines whether the robot 100 has left the floor. Detected. As for the leaving action here, an action pattern such as a jumping action or an action of jumping down from a high place is not particularly specified, and thus description thereof is omitted in this specification.
[0096]
In response to detecting the bed leaving motion, the pitch axis at each joint of the upper limb and trunk of the robot 100 is rotationally driven in the direction opposite to the direction of gravity, and the lower limbs and legs are extended in the direction of gravity (step S23). ).
[0097]
FIG. 8 schematically illustrates an example of a posture in which the pitch axis at each joint of the upper limb and trunk of the robot 100 is rotationally driven in the direction opposite to the direction of gravity and the lower limbs and legs are extended in the direction of gravity. ing. As shown in the figure, the posture of the robot 100 is controlled so that both hands and both feet of the robot 100 extend. As a result, the distance (height) h from the tip of the foot to the center of gravity G of the entire robot 100 is longer than the center of gravity G ′ before extending the limb.
[0098]
In step S24, both the ground sensors 91 and 92 of both feet are turned on (or one of the sensors is turned on) and waits until the robot 100 reaches the floor surface.
[0099]
When the landing of the robot 100 is detected, the pitch axes of the upper limb, the lower limb, and the trunk joint of the robot are driven so that the center of gravity of the robot 100 is lowered (step S25).
[0100]
An example of a posture in which the center of gravity of the robot 100 is lowered is a state in which both legs, hip joints, and trunk joints are bent and bent as shown in FIG. 9, for example. It will be understood that the distance from the foot that has landed to the center of gravity is sufficiently short.
[0101]
By the bending operation in step S25, the position of the center of gravity of the robot 100 becomes G when landing. 0 From the end of landing operation (when stable) G f (However, G 0 > G F ). By spending a predetermined time T for this series of landing operations, the impact force that the robot 100 receives from the floor surface is gently dispersed during the time T as shown in the chart of FIG. 10, and the maximum impact force is also reduced. The
[0102]
However, in the bending operation in step S25, the driving speed of each joint axis is set so that the value of the acceleration sensor 93 does not exceed the allowable acceleration value. Cooperation Therefore, it is necessary to control (that is, to bend the posture). This is because if the bending motion is performed at a value exceeding the allowable acceleration, the impact applied to the robot 100 is rather amplified.
[0103]
FIG. 11 shows the position of the center of gravity of the robot 100 at the point G when landing. 0 To point G F The chart shows the relationship between the speed of movement to the floor and the impact force received from the floor. More specifically, the center of gravity position is point G. 0 To point G F The time required to move to (that is, the time required to reach stability after landing) T is T 1 , T 2 , And T Three (However, T 1 <T 2 <T Three ) Is plotted. As can be seen from the figure, the shorter the required time, the faster the acceleration of movement of the center of gravity position, and the maximum value of the impact force F received from the floor surface increases in proportion to this. Conversely, the longer the time required for the movement of the center of gravity, the lower the acceleration, the impact upon landing is absorbed by the movement of the center of gravity, and the maximum value of the impact force F is reduced.
[0104]
Next, it is determined whether or not the ZMP of the robot 100 is in a stable region, for example, at the planted sole (step S26). If ZMP is not in the stable region, the posture of the entire robot 100 is changed so as to enter the stable region (step S27).
[0105]
On the other hand, if the ZMP is in the stable region, the entire processing procedure is terminated.
[0106]
According to the landing processing procedure as shown in FIG. 7, the robot 100 takes a posture in which the robot 100 extends in the vertical direction during the bed leaving period (see FIG. 8), and the center of gravity position is as much as possible from the sole where the floor is landing. It is possible to wait for landing in a high position. Furthermore, the maximum impact force received from the floor surface can be reduced by taking an operation pattern in which the position of the center of gravity gradually decreases within a predetermined acceleration range during landing.
[0107]
Further, when landing, by performing posture control so that the ZMP of the robot 100 enters the stable region, it is possible to avoid a secondary dangerous situation in which the robot 100 falls over after landing. .
[0108]
FIG. 12 illustrates another example of the processing procedure at the time of landing in the form of a flowchart. Hereinafter, each step of this flowchart will be described.
[0109]
When the robot 100 performs a bed leaving operation (step S31), the ground contact confirmation sensors 91 and 92 provided on the soles of both feet are turned off (step S32), and the main control unit 81 detects the bed leaving state. . As for the leaving action here, an action pattern such as a jumping action or an action of jumping down from a high place is not particularly specified, and thus description thereof is omitted in this specification.
[0110]
In response to detecting the bed leaving motion, the main control unit 81 calculates the direction of gravity based on the output of the attitude sensor 93 (step S33), and sets the virtual floor plane (step S34). In this specification, “virtual floor plane” means the current robot 100. Gravity vector at the lowest point (either left or right foot or both feet in normal leaving movement such as jump) is the normal vector Refers to the plane (see FIG. 13).
[0111]
Next, a virtual stable area on the virtual floor plane is set (step S35). In this specification, the “virtual stable region” refers to a region on the floor where the robot 100 can maintain stability when it is landed on the virtual floor plane in the current posture of the robot 100. . For example, you landed on a virtual floor plane Support polygon formed by the foot contact point and virtual floor plane (Refer to FIG. 14).
[0112]
Next, a virtual ZMP is calculated (step S36). The “virtual ZMP” is a point on the virtual floor plane where the moment due to the floor reaction force on the virtual floor plane is zero.
[0113]
In decision block S37, it is determined whether or not the virtual ZMP is within the virtual stable region.
[0114]
If the determination result is negative, the posture of the robot 100 is changed by driving at least some joint actuators of the upper limb, lower limb, and trunk of the robot 100 so that the virtual ZMP falls within the virtual stable region ( Step S38).
[0115]
As a result of the posture control as described above, the robot 100 can wait for the landing while always maintaining a stable posture with respect to the virtual floor plane during the bed leaving period. At the time of landing, the virtual floor plane coincides with the actual floor plane, but in step S39 described above, the robot 100 can land in a stable posture. The landing operation may include an impact absorbing operation as described with reference to FIGS.
[0116]
In short, if the posture control processing procedure as shown in FIG. 12 is followed, the robot 100 can stand by until it leaves the floor while maintaining a stable posture with respect to the virtual floor plane during the bed leaving period. As a result, it is possible to eliminate as much as possible the possibility that the robot 100 will fall out of balance at the time of landing, and that part or all of the robot 100 will be damaged by the fall. Furthermore, a perfect landing operation can be realized by incorporating the above-described shock absorbing operation.
[0117]
[Supplement]
The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention.
[0118]
In the present specification, the present invention has been described by taking a humanoid robot that performs legged movement with two legs as an example, but the gist of the present invention is not limited to a biped robot. For example, the present invention can be suitably applied to a quadruped walking robot such as a pet-type robot that models a dog or other legged mobile robots having a lower number of legs. Further, as shown in the present embodiment, the present invention can be applied to a robot of a type in which an upper limb or a head is not mounted on the trunk (trunk unit).
[0119]
In short, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.
[0120]
In judging the gist of the present invention, it is not appropriate to strictly apply FIG. 3 for the names of joints and the like for the biped robot 100, and biped upright walking such as actual humans and monkeys. It should be interpreted flexibly by contrast with the animal's physical mechanism.
[0121]
For reference, the joint model configuration of a humanoid robot is illustrated in FIG. In the example shown in the figure, a portion including the shoulder joint 5 to the upper arm, the elbow joint 6, the forearm, the wrist 7 and the hand portion 8 is referred to as an “upper limb”. The range from the shoulder joint 5 to the hip joint 11 is called a “trunk” and corresponds to the human torso. In addition, a range from the hip joint 11 to the trunk joint 10 among the trunk is referred to as a “lumbar region”. The trunk joint 10 has an effect of expressing the degree of freedom of the human spine. Further, a portion including the thigh 12, the knee joint 14, the crus 13, the ankle 15, and the foot 16 below the hip joint 11 is referred to as “lower limb”. Generally, the upper part of the hip joint is called the “upper body” and the lower part is called the “lower body”.
[0122]
FIG. 16 illustrates another joint model configuration of a humanoid robot. The example shown in the figure is different from the example shown in FIG. 14 in that the trunk joint 10 is not provided. Refer to the figure for the names of each part. As a result of the omission of the trunk joint corresponding to the spine, the upper body movement of the humanoid robot loses its expressive power. However, in the case of a humanoid robot for industrial purposes such as dangerous work or substitution of work, there is a case where movement of the upper body is not required. It should be understood that the reference numerals used in FIGS. 15 and 16 do not match those in other drawings such as FIG.
[0123]
【The invention's effect】
As described above in detail, according to the present invention, an excellent legged mobile robot capable of mitigating as much as possible the impact received from the floor surface when landing after jumping or other robots leaving the floor, and The control method can be provided.
[0124]
Further, according to the present invention, an excellent legged mobile robot capable of reducing as much as possible the impact that the joint actuator receives from the floor surface when landing after the robot has jumped or performed other flooring operations, and The control method can be provided.
[0125]
In addition, according to the present invention, the impact received from the floor surface can be reduced as much as possible through a series of operations through the entire period until the robot reaches the floor after jumping or performing other bed leaving operations. An excellent legged mobile robot and its control method can be provided.
[0126]
In addition, according to the present invention, when the robot is landing after jumping or performing other bed leaving operations, it is possible to stably control the posture of the robot so that the robot does not fall down. The control method can be provided.
[Brief description of the drawings]
FIG. 1 shows a state in which a humanoid robot 100 used for carrying out the present invention is viewed from the front. Shi It is a figure.
FIG. 2 shows a state in which a humanoid robot 100 used for carrying out the present invention is viewed from behind. Shi It is a figure.
FIG. 3 is a diagram schematically illustrating a degree-of-freedom configuration model included in the humanoid robot 100 according to the present embodiment.
FIG. 4 is a diagram schematically illustrating a control system configuration of the humanoid robot 100 according to the present embodiment.
FIG. 5 is a flowchart showing an example of a processing procedure when the robot 100 is landed.
6 is a block diagram illustrating a servo circuit and a control system related to one actuator used in the robot 100. FIG.
FIG. 7 is a flowchart showing another example of a processing procedure when the robot 100 is landed.
FIG. 8 shows a state in which the robot 100 in the bed leaving period has both hands and both legs extended, and the posture (the height) from the tip of the foot that reaches the floor to the center of gravity of the entire robot 100 is as long as possible. FIG.
FIG. 9 is a diagram showing a specific example of the posture that the robot 100 takes when landing.
FIG. 10 is a chart showing an impact force that the robot 100 receives from the floor surface when landing.
FIG. 11 shows the position of the center of gravity of the robot 100 at the point G when landing 0 To point G F It is the chart which showed the relationship between the speed to move to and the impact force received from a floor surface.
FIG. 12 is a flowchart showing another example of a processing procedure when the robot 100 is landed.
FIG. 13 illustrates a virtual floor plane for the robot 100 at the time of getting out of bed.
FIG. 14 illustrates a virtual stable region of the robot 100 when getting out of bed.
FIG. 15 is a diagram schematically showing an example of a joint model configuration for a humanoid robot.
FIG. 16 is a diagram schematically illustrating another example of a joint model configuration for a humanoid robot.

Claims (6)

上体と、前記上体に接続された下肢を有する脚式移動ロボットであって、
前記ロボットが離床又は着床いずれの期間中かを検出する検出手段と、
前記上体の各関節を駆動する第1の駆動手段と、
前記下肢の各関節を駆動する第2の駆動手段と、
前記第1及び第2の駆動手段の駆動を制御する制御手段と、
を具備し、
前記制御手段は、
離床期間中であることを検出したことに応答して、前記脚式移動ロボットの最下点を通り重力ベクトルを法線ベクトルとする仮想床平面上に着床したときに発生する仮想的な床反力によるモーメントがゼロとなる仮想床平面上の仮想ZMPが前記仮想床平面上に着床した足の足底接地点と仮想床平面の形成する支持多角形からなる仮想安定領域内にあるか否かを判定するとともに、
該判定結果が否定的であったことに応答して、仮想ZMPが仮想安定領域内に入るように前記第1及び第2の駆動手段の各々を制御する、
脚式移動ロボット。
A legged mobile robot having an upper body and a lower limb connected to the upper body,
Detecting means for detecting whether the robot is leaving or landing; and
First driving means for driving each joint of the upper body;
Second driving means for driving each joint of the lower limbs;
Control means for controlling driving of the first and second driving means;
Comprising
The control means includes
In response to detecting that it is during a bed leaving period, a virtual floor generated when landing on a virtual floor plane passing through the lowest point of the legged mobile robot and having a gravity vector as a normal vector Whether the virtual ZMP on the virtual floor plane where the moment due to the reaction force is zero is within the virtual stable region consisting of the foot ground contact point of the foot landing on the virtual floor plane and the support polygon formed by the virtual floor plane And determine whether or not
In response to the negative determination result, each of the first and second driving means is controlled so that the virtual ZMP falls within the virtual stable region.
Legged mobile robot.
前記制御手段は、離床期間中であることを検出したことに応答して関節アクチュエータのインピーダンスを低下させるとともに、着床を検出したことに応答して関節アクチュエータのインピーダンスを元の値に戻す、
請求項1に記載の脚式移動ロボット。
The control means reduces the impedance of the joint actuator in response to detecting that it is during the bed leaving period, and returns the impedance of the joint actuator to the original value in response to detecting the landing.
The legged mobile robot according to claim 1.
前記制御手段は、着床を検出したことに応答して、前記ロボット全体の重心位置が許容加速度以内で下がるように前記第1及び第2の駆動手段の各々を制御する、
る請求項1に記載の脚式移動ロボット。
In response to detecting the landing, the control means controls each of the first and second driving means so that the position of the center of gravity of the entire robot falls within an allowable acceleration.
The legged mobile robot according to claim 1.
少なくとも下肢を有する脚式移動ロボットの制御方法であって、
(a)前記脚式移動ロボットが離床期間中か否かを判別するステップと、
(b)前記脚式移動ロボットの重力方向を検出するステップと、
(c)離床期間中であることを検出したことに応答して、前記脚式移動ロボットの前記脚式移動ロボットの最下点を通り重力ベクトルを法線ベクトルとする仮想床平面を設定するステップと、
(d)前記脚式移動ロボットが前記仮想床平面上に着床した足の足底接地点と仮想床平面の形成する支持多角形からなる仮想安定領域を設定するステップと、
(e)前記脚式移動ロボットが前記仮想床平面上に着床したときに発生する仮想的な床反力によるモーメントがゼロとなる仮想床平面上の仮想ZMPを算出するステップと、
(f)仮想ZMPが仮想安定領域内にあるか否かを判定するステップと、
(g)前記ステップ(f)における判定結果が否定的であったことに応答して、仮想ZMPが仮想安定領域内に入るように前記脚式移動ロボットの姿勢を変更するステップと、
を有する脚式移動ロボットの制御方法。
A control method for a legged mobile robot having at least a lower limb,
(A) determining whether the legged mobile robot is in a bed leaving period;
(B) detecting the direction of gravity of the legged mobile robot;
(C) In response to detecting that it is during a bed leaving period, a step of setting a virtual floor plane that passes through the lowest point of the legged mobile robot of the legged mobile robot and has a gravity vector as a normal vector When,
(D) setting a virtual stable region consisting of a foot ground contact point of the foot that the legged mobile robot has landed on the virtual floor plane and a support polygon formed by the virtual floor plane ;
(E) calculating a virtual ZMP on a virtual floor plane in which a moment due to a virtual floor reaction force generated when the legged mobile robot is landed on the virtual floor plane is zero ;
(F) determining whether the virtual ZMP is within a virtual stable region;
(G) in response to the determination result in the step (f) being negative, changing the posture of the legged mobile robot so that the virtual ZMP falls within the virtual stable region;
Method for controlling a legged mobile robot having
離床期間中であることを検出したことに応答して関節アクチュエータのインピーダンスを低下させるステップと、着床を検出したことに応答して関節アクチュエータのインピーダンスを元の値に戻すステップとをさらに有する請求項4に記載の脚式移動ロボットの制御方法。  A step of reducing the impedance of the joint actuator in response to detecting that it is during a bed leaving period, and a step of returning the impedance of the joint actuator to an original value in response to detection of landing. Item 5. A control method for a legged mobile robot according to Item 4. 着床を検出したことに応答して、前記ロボット全体の重心位置が許容加速度以内で下がるように姿勢制御するステップをさらに有する請求項4に記載の脚式移動ロボットの制御方法。  5. The control method for a legged mobile robot according to claim 4, further comprising a step of controlling the posture so that the position of the center of gravity of the entire robot falls within an allowable acceleration in response to detection of landing.
JP31671599A 1999-11-08 1999-11-08 Legged mobile robot and control method thereof Expired - Fee Related JP4660870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31671599A JP4660870B2 (en) 1999-11-08 1999-11-08 Legged mobile robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31671599A JP4660870B2 (en) 1999-11-08 1999-11-08 Legged mobile robot and control method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010016308A Division JP4770990B2 (en) 2010-01-28 2010-01-28 Legged mobile robot and control method thereof

Publications (2)

Publication Number Publication Date
JP2001138273A JP2001138273A (en) 2001-05-22
JP4660870B2 true JP4660870B2 (en) 2011-03-30

Family

ID=18080104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31671599A Expired - Fee Related JP4660870B2 (en) 1999-11-08 1999-11-08 Legged mobile robot and control method thereof

Country Status (1)

Country Link
JP (1) JP4660870B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3760186B2 (en) 2001-06-07 2006-03-29 独立行政法人科学技術振興機構 Biped walking type moving device, walking control device thereof, and walking control method
DE60234790D1 (en) * 2001-12-28 2010-01-28 Honda Motor Co Ltd GEARING DEVICE FOR MOVING ROBOTS WITH LEGS
ES2209617B1 (en) * 2002-05-24 2005-10-01 Consejo Sup. Investig. Cientificas JUMP ROBOT AND PROCEDURE FOR CONTROL.
JP4848962B2 (en) * 2002-12-18 2011-12-28 ソニー株式会社 Robot device, load absorbing device and load absorbing method
JP3683890B2 (en) 2003-03-31 2005-08-17 財団法人ファジィシステム研究所 Control device and method for ships, etc.
JP5286878B2 (en) * 2008-03-28 2013-09-11 トヨタ自動車株式会社 Mobile robot movement control method and mobile robot
US8442684B2 (en) * 2009-09-22 2013-05-14 GM Global Technology Operations LLC Integrated high-speed torque control system for a robotic joint
GB2565959B (en) * 2016-07-11 2021-10-13 Groove X Inc Autonomously acting robot
CN110132557B (en) * 2019-04-30 2020-07-14 西北工业大学 Bionic leg type bounce experimental device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000296484A (en) * 1999-02-10 2000-10-24 Sony Corp Control device and method of articulated mechanism, articulated device, robot device and its control method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000296484A (en) * 1999-02-10 2000-10-24 Sony Corp Control device and method of articulated mechanism, articulated device, robot device and its control method

Also Published As

Publication number Publication date
JP2001138273A (en) 2001-05-22

Similar Documents

Publication Publication Date Title
JP3555107B2 (en) Legged mobile robot and operation control method for legged mobile robot
JP3615702B2 (en) Motion control device and motion control method for legged mobile robot, and legged mobile robot
JP3824608B2 (en) Legged mobile robot and its motion control method
KR100687461B1 (en) Robot And Knuckle Apparatus For Robot
KR100977348B1 (en) Operation control device for leg-type mobile robot and operation control method, and robot device
JP3443077B2 (en) Robot motion pattern generation device and motion pattern generation method, and robot
US7076338B2 (en) Motion unit generating method for legged mobile robot
JP3528171B2 (en) Mobile robot apparatus and overturn control method for mobile robot apparatus
JP4660870B2 (en) Legged mobile robot and control method thereof
JP4475708B2 (en) Legged mobile robot and its motion control method
JP4770990B2 (en) Legged mobile robot and control method thereof
JP3674779B2 (en) Motion control device and motion control method for legged mobile robot, and robot device
JP2001157972A (en) Leg type moving robot
JP3555946B2 (en) Mobile robot apparatus and control method for mobile robot apparatus
JP3555947B2 (en) Mobile robot device, mobile robot device control method, mobile robot device motion pattern generation method, and mobile robot device motion control program
JP3522741B2 (en) Motion control device and motion control method for legged mobile robot, and robot device
JP4481132B2 (en) Robot apparatus and control method thereof
JP3555948B2 (en) Mobile robot device, operation control device and operation control method for mobile robot device
JP4707290B2 (en) Motion control device and motion control method for legged mobile robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees