JP2004017181A - Walking type robot - Google Patents

Walking type robot Download PDF

Info

Publication number
JP2004017181A
JP2004017181A JP2002172110A JP2002172110A JP2004017181A JP 2004017181 A JP2004017181 A JP 2004017181A JP 2002172110 A JP2002172110 A JP 2002172110A JP 2002172110 A JP2002172110 A JP 2002172110A JP 2004017181 A JP2004017181 A JP 2004017181A
Authority
JP
Japan
Prior art keywords
attached
leg
robot
legs
acceleration sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002172110A
Other languages
Japanese (ja)
Other versions
JP3569767B2 (en
Inventor
Takayuki Furuta
古田 貴之
Tetsuo Tawara
田原 哲雄
Hisashi Okumura
奥村 悠
Hiroaki Kitano
北野 宏明
Masaharu Shimizu
清水 正晴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2002172110A priority Critical patent/JP3569767B2/en
Priority to CNB038000237A priority patent/CN100496328C/en
Publication of JP2004017181A publication Critical patent/JP2004017181A/en
Application granted granted Critical
Publication of JP3569767B2 publication Critical patent/JP3569767B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a walking type robot which detects collision state of parts thereof such as legs, arms, with the environment by detecting accelerations of these parts interacting with the environment, and provide, in particular, a man type robot of a two-leg walking system. <P>SOLUTION: The man type robot of a two-leg walking system 10 has a trunk, legs attached to both ends of a lower part of the trunk, and arms attached to both ends of an upper part of the trunk, and further has driving means to drive the legs and arms respectively and a control means to drive and control the respective driving means. This human form robot of two-leg walking type 10 has respective acceleration sensors 40 in parts to interact with the environment among the trunk 11, both the legs 12L, 12R, both the arms 13L, 13R or the like. The control part drives and controls the respective driving means by referring to detection signals from each acceleration sensor 40. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は歩行式ロボット、特に二脚歩行式人型ロボットに関するものである。
【0002】
【従来の技術】
従来、所謂二脚歩行式人型ロボットは、前もって設定された歩行パターン(以下、歩容という)データを生成して、この歩容データに従って歩行制御を行なって、所定の歩行パターンで脚部を動作させることにより二脚歩行を実現するようにしている。
ところで、このような二脚歩行式人型ロボットは、例えば床面状況,ロボット自体の物理パラメータの誤差等によって歩行の際の姿勢が不安定になりやすく、場合によっては転倒してしまうことがある。
【0003】
これに対して、歩容データを前もって設定せずに、リアルタイムにロボットの歩行状態を認識しながら歩行制御を行なうようにすれば、歩行の際の姿勢を安定させて歩行を行なわせることも可能であるが、このような場合でも、予期しない路面状況等が発生した場合には、歩行姿勢が崩れてロボットが転倒してしまうことになる。
【0004】
このため、歩行制御によって、ロボットの足裏における床反力と重力の合成モーメントがゼロとなる点(以下、ZMP(Zero Moment Point)という)を目標値に収束させる、所謂ZMP補償を行なう必要がある。
このようなZMP補償のための制御方法としては、例えば特開平5−305583号公報に示すように、コンプライアンス制御を利用して、ZMPを目標値に収束させ、ロボットの上体を加速させて修正する方法や、ロボットの足の接地場所を修正する制御方法が知られている。
【0005】
【発明が解決しようとする課題】
ところで、これらの制御方法においては、何れの場合も、ロボットの関節部分の角速度を変化させて動作軌跡を変更することにより、ロボットの安定化を図るようにしている。このため、ロボットの遊脚先端,上体位置等のロボットの各部の運動軌道が、歩容データによる歩容からずれて、ロボットの足の歩幅や遊脚の高さが変わったり、上体が傾斜してしまう。従って、上体の傾斜を検出して、上体の傾斜を補償するようにしている。
【0006】
このようなロボットの状態の傾斜の検出は、従来は、ロボットの胴体部に設けられた加速度センサを使用して、胴体部の傾斜角度及び傾斜加速度を検出することにより、行なわれるようになっている。
しかしながら、このような加速度センサは、ロボットの胴体部の傾斜角度及び傾斜加速度を検出するためのみに使用されており、他の用途、例えばロボットの床面上等に在る障害物等への衝突を検出するようには構成されていない。
【0007】
本発明は、以上の点にかんがみて、ロボットの各部、例えば脚部,腕部等の環境とインタラクティブな部分の加速度をそれぞれ検出して、各部分の環境との衝突状態を検出し得るようにした歩行式ロボット、特に二脚歩行式人型ロボットを提供することを目的としている。
【0008】
【課題を解決するための手段】
上記目的は、本発明の第一の構成によれば、胴体部と胴体部の下部両側に取り付けられた脚部と胴体部の上部両側に取り付けられた腕部と胴体部の上端に取り付けられた頭部とを備えており、上記脚部が、胴体部に対して三軸方向に揺動可能に取り付けられた二つの大腿部と各大腿部の下端に対してそれぞれ一軸方向に揺動可能に取り付けられた下腿部と各下腿部の下端に対して二軸方向に揺動可能に取り付けられた足部とを含んでいて、上記腕部が、胴体部に対して二軸方向に揺動可能に取り付けられた二つの上腕部と各上腕部に対してそれぞれ一軸方向に揺動可能に取り付けられた下腕部と各下腕部に対して少なくとも一軸方向に揺動可能に取り付けられた手部とを含んでおり、さらに、上記脚部の足部,下腿部,大腿部そして上記腕部の手部,下腕部及び上腕部をそれぞれ駆動する駆動手段と、各駆動手段をそれぞれ駆動制御する制御部と、を有している二脚歩行式人型ロボットにおいて、上記胴体部,両脚部,両腕部等のうち、環境とインタクラティブな部分に、それぞれ加速度センサを備えており、上記制御部が、各加速度センサからの検出信号を参照して各駆動手段の駆動制御を行なうことを特徴とする二脚歩行式人型ロボットにより、達成される。
【0009】
本発明による二脚歩行式人型ロボットは、好ましくは、上記環境とインタラクティブな部分が、胴体部,各脚部及び/又は各腕部である。
【0010】
本発明による二脚歩行式人型ロボットは、好ましくは、上記制御部が、各加速度センサからの検出信号に基づいて各加速度センサが備えられている部分に対する衝撃を検知し、この衝撃を緩和するように各駆動手段の駆動制御を行なう。
【0011】
また、上記目的は、本発明の第二の構成によれば、胴体部と胴体部に取り付けられた複数本の脚部と胴体部の一端に取り付けられた頭部とを備えており、上記各脚部が、胴体部に対して三軸方向に揺動可能に取り付けられた二つの大腿部と各大腿部の下端に対してそれぞれ一軸方向に揺動可能に取り付けられた下腿部と各下腿部の下端に対して二軸方向に揺動可能に取り付けられた足部とを含んでいて、さらに、上記脚部の足部,下腿部,大腿部をそれぞれ駆動する駆動手段と、各駆動手段をそれぞれ駆動制御する制御部と、を有している歩行式ロボットにおいて、上記胴体部及び各脚部等のうち、環境とインタラクティブな部分に、それぞれ加速度センサを備えており、上記制御部が、各加速度センサからの検出信号を参照して、各駆動手段の駆動制御を行なうことを特徴とする歩行式ロボットにより、達成される。
【0012】
本発明による歩行式ロボットは、好ましくは、上記環境とインタラクティブな部分が胴体部及び各脚部である。
【0013】
本発明による歩行式ロボットは、好ましくは、上記制御部が、各加速度センサからの検出信号に基づいて、各加速度センサが備えられている部分に対する衝撃を検知して、この衝撃を緩和するように各駆動手段の駆動制御を行なう。
【0014】
上記第一及び第二の構成によれば、二脚歩行式人型ロボットまたは歩行式ロボットが歩行動作中に、胴体部,各脚部及び/又は各腕部等の環境にインタラクティブな部分が、転倒などにより大きく傾斜したり、あるいは床面上等に在る障害物等の物体に衝突した場合に、当該部分に備えられた加速度センサが当該部分の傾斜角度,傾斜加速度や、衝突等による加速度の急激な変化により衝撃を検知することができる。従って、制御部が、各加速度センサからの検出信号を参照しながら、各駆動手段を駆動制御することにより、従来と同様に各関節部の力制御を行なうことができると共に、さらに反射神経と同様の機能を発揮して、上記衝撃を迅速に緩和し、上記衝撃後の状況復帰を行なうことが可能になる。
このようにして、本発明によれば、ロボットの環境にインタラクティブな部分、例えば胴体部,各脚部及び/又は各腕部等にそれぞれ加速度センサが配置されることにより、ロボットの各部に加速度センサが分散配置されることになり、各部の加速度をそれぞれ別個に検出することができる。これにより、ロボットの各部の動き、そして衝突等による衝撃をより正確に検知することができるので、ロボットの全身運動等において、より一層適切な駆動制御を行ない、円滑な全身運動等を行なうことが可能になる。
【0015】
【発明の実施の形態】
以下、図面に示した実施形態に基づいて、この発明を詳細に説明する。
図1乃至図2は、本発明による二脚歩行式人型ロボットの一実施形態の構成を示している。
図1において、二脚歩行式人型ロボット10は、胴体部11と、胴体部11の下部両側に取り付けられた脚部12L,12Rと、胴体部の上部両側に取り付けられた腕部13L,13Rと、胴体部の上端に取り付けられた頭部14と、を含んでいる。
【0016】
上記胴体部11は、上方の胸部11aと下方の腰部11bとに分割されており、胸部11aが、前屈部11cにて腰部11bに対して前後方向に揺動可能に、特に前方に前屈可能に、そして左右方向に旋回可能に支持されている。さらに、胴体部11の胸部11aには、後述する歩行制御装置50が内蔵されている。なお、上記前屈部11cは、前後揺動用の関節部11d及び左右旋回用の関節部11eを備えており、各関節部11d及び11eは、それぞれ関節駆動用モータ(図2参照)により構成されている。
【0017】
上記脚部12L,12Rは、それぞれ大腿部15L,15R,下腿部16L,16R及び足部17L,17Rと、から構成されている。上記脚部12L,12Rは、図2に示すように、それぞれ六個の関節部、即ち上方から順に、胴体部11の腰部11bに対する脚部回旋用の関節部18L,18R、脚部のロール方向(x軸周り)の関節部19L,19R、脚部のピッチ方向(y軸周り)の関節部20L,20R、大腿部15L,15Rと下腿部16L,16Rの接続部分である膝部21L,21Rのピッチ方向の関節部22L,22R、足部17L,17Rに対する足首部のピッチ方向の関節部23L,23R、足首部のロール方向の関節部24L,24Rを備えている。なお、各関節部18L,18R乃至24L,24Rは、それぞれ関節駆動用モータにより構成されている。
【0018】
このようにして、腰関節は上記関節部11d,11eから構成され、股間節は上記関節部18L,18R,19L,19R,20L,20Rから構成され、また足関節は関節部23L,23R,24L,24Rから構成されることになる。これにより、二脚歩行式人型ロボット10の左右両側の脚部12L,12Rは、それぞれ6自由度を与えられることになり、各種動作中にこれらの12個の関節部をそれぞれ駆動モータにより適宜の角度に駆動制御することにより、脚部12L,12R全体に所望の動作を与えて、例えば任意に三次元空間を歩行することができる。
【0019】
上記腕部13L,13Rは、それぞれ上腕部25L,25R,下腕部26L,26R及び手部27L,27Rと、から構成されている。上記腕部13L,13Rの上腕部25L,25R,下腕部26L,26R及び手部27L,27Rは、上述した脚部12L,12Rと同様にして、図2に示すように、それぞれ五個の関節部、即ち上方から順に、肩部にて、胴体部11に対する上腕部25L,25Rのピッチ方向の関節部28L,28R、ロール方向の関節部29L,29R、そして左右方向の関節部30L,30R、上腕部25L,25Rと下腕部26L,26Rの接続部分である肘部31L,31Rにてピッチ方向の関節部32L,32R、手首部にて下腕部26L,26Rに対する手部27L,27Rのピッチ方向の関節部33L,33Rを備えている。なお、各関節部28L,28R乃至33L,33Rは、それぞれ関節駆動用モータにより構成されている。
【0020】
このようにして、二脚歩行式人型ロボット10の左右両側の腕部13L,13Rはそれぞれ5自由度を与えられることにより、各種動作中にこれらの12個の関節部をそれぞれ駆動モータにて適宜の角度に駆動制御し、腕部13L,13R全体に所望の動作を与えることができる。ここで、上記肩部におけるピッチ方向の関節部28L,28Rは、ロール方向の関節部29L,29R及び左右方向の関節部30L,30Rに対して回転軸が前方にずれて配設されており、前方への腕部13L,13Rの振り角度が大きく設定されている。
【0021】
上記頭部14は、胴体部11の上部11aの上端に取り付けられており、例えば視覚としてのカメラや聴覚としてのマイクが搭載されている。上記頭部14は、図2に示すように、首のピッチ方向の関節部35及び左右方向の関節部36を備えている。なお、各関節部35,36は、それぞれ関節駆動用モータにより構成されている。
このようにして、二脚歩行式人型ロボット10の頭部14は、2自由度を与えられて、各種動作中にこれらの2個の関節部35,36をそれぞれ駆動モータにて適宜の角度に駆動制御し、頭部14を左右方向または前後方向に動かすことができる。
【0022】
以上の構成は、従来の二脚歩行式人型ロボットとほぼ同様の構成であるが、本発明実施形態による二脚歩行式人型ロボット10においては、以下の点で異なる構成になっている。即ち、二脚歩行式人型ロボット10は、さらに図1及び図2に示すように、上述した胴体部11の腰部11bと、各腕部13L,13Rの下腕部26L,26Rそして各脚部12L,12Rの下腿部16L,16Rに、それぞれ加速度センサ40を備えている、即ち加速度センサ40が上記各部に分散配置されている。
【0023】
図3は、図1乃至図2に示した二脚歩行式人型ロボット10の電気的構成を示している。図3において、二脚歩行式人型ロボット10は、駆動手段、即ち上述した各関節部即ち関節駆動用モータ11d,11e,18L,18R乃至33L,33R,35,36を駆動制御する動作制御装置50を備えている。
【0024】
上記動作制御装置50は、動作計画部51と、動作生成部52と、拡張ZMP変換部53と、拡張ZMP安定部54と、制御部55と、ロボットの各関節部の角度を検出する角度計測ユニット56と、動作監視部57と、を備えている。なお、二脚歩行式ロボット10の座標系として、前後方向をx方向(前方+),横方向をy方向(内方+)そして上下方向をz方向(上方+)とするxyz座標系を使用する。
【0025】
上記動作計画部51は、与えられたロボットの初期状態(各関節部の角度及び力センサ40の検出信号に基づく姿勢)と所望の動作の最終状態から、初期状態と最終状態との間の中間の運動を計画する。即ち、動作計画部51は、ロボット全体により構成される凸部分を覆うような多面剛体を仮想的に設定して、初期状態から最終状態までの上記多面剛体の時系列形状データ及び重心軌道を計算し、全身運動を行なうために必要なロボットの角運動量を計算する。
【0026】
そして、動作計画部51は、上述した運動の拡張ZMP,重心位置,上記多面剛体の状態,角運動量,運動エネルギー等を計算して、ロボットの動作軌道すなわち動作計画を生成する。なお、上記動作計画部51は、後述するように動作監視部57からロボットの現在の状態及び動作計画からのずれ量が入力されたときには、同様にして動作計画の再生成を行なう。
【0027】
ここで、動作計画部51は、動作ライブラリ51aを備えている。この動作ライブラリ51aは、前もってロボットの動作の要素となる受け身動作を含む基本動作に関する姿勢データ等が種類別に格納されている。これにより、動作計画部51は、上述した動作計画を行なう際に、必要に応じて各種姿勢データ等を動作ライブラリ51aから読み出して、組合せ動作のシーケンスとして動作計画を生成する。そして、動作計画部51は、動作計画として、シーケンス毎に姿勢データ及びそのときの各関節部の角運動量を、動作生成部52に出力するようになっている。その際、動作計画部51は、動作監視部57からの転倒状態の旨の通知が入力されたときは、瞬時に、すべての動作生成を中止して、転倒回避や受け身動作に切り換えて、動作計画を行なう。
【0028】
上記動作生成部52は、二脚歩行式人型ロボット10の計画された全身運動に必要な各関節部15L,15R乃至36の角度データθrefを生成する。その際、上記動作生成部52は、後述する拡張ZMP安定部54からの指令に基づいて、内部のパラメータ及び生成する角度データを修正するようになっている。
【0029】
上記拡張ZMP変換部53は、動作生成部52からの各関節部の角度データθrefに基づいて拡張ZMP目標値を計算し、拡張ZMP安定部54及び動作監視部57へ出力する。
【0030】
上記拡張ZMP安定部54は、角度計測ユニット56からの姿勢情報に基づいて拡張ZMP実際値を計算し、さらにこの拡張ZMP実際値を、拡張ZMP変換部53からの拡張ZMP目標値と比較して、その差に基づいて、当該差が小さくなるように拡張ZMP補償量を計算して、動作生成部52に出力する。なお、拡張ZMP補償量の計算方法は、従来のZMP補償量の計算方法をそのまま適用することができる。
【0031】
ここで、動作生成部52は、拡張ZMP安定部54からの拡張ZMP補償量がフィードバックされることにより、この拡張ZMP補償量に基づいて動作データを修正して制御部55へ出力する。
【0032】
上記制御部55は、動作生成部52からの修正された動作データに基づいて各関節駆動用モータの制御信号を生成し、各関節駆動用モータを駆動制御するようになっている。
【0033】
上記角度計測ユニット56は、各関節部15L,15R乃至36の関節駆動用モータに備えられた例えばロータリエンコーダ等にて各関節駆動用モータの角度情報が入力されることにより、各関節駆動用モータの角度位置、即ち角度及び角速度そして角度モーメントに関する状態情報、即ちロボット10の姿勢情報θrealを計測して、拡張ZMP安定部54及び動作監視部57へ出力する。
【0034】
上記動作監視部57は、動作計画部51からの動作計画,拡張ZMP変換部53からの拡張ZMP目標値,角度計測ユニット56からの拡張ZMP実際値としての(角度及び角度モーメントを含む)角度情報と各加速度センサ40からの各部加速度情報が入力されており、これらに基づいて、常に二脚歩行式人型ロボット10の状態を監視している。そして、動作監視部57は、動作計画,拡張ZMP目標値から実際のロボットの動作が大きくずれたとき、現在の状態およびずれ量を動作計画部51にフィードバックして、動作計画部51に動作計画の再生成を行なわせる。また、動作監視部57は、各加速度センサ40からの各部加速度情報から、転倒状態を判別し、転倒状態を検知した場合には、動作計画部51に対して転倒状態の旨を通知する。さらに、動作監視部57は、各加速度センサ40からの各部加速度情報から衝突状態を判別し、衝突を検知した場合には、動作計画部51,動作生成部52等を介さずに、所謂反射神経として作用することにより、直接に制御部55により各関節駆動用モータを駆動制御して、衝撃の緩和を行なうようになっている。
【0035】
本発明実施形態による二脚歩行式人型ロボット10は以上のように構成されており、通常の歩行動作は、動作制御装置50が、動作計画部51により動作計画を生成し、動作生成部52が、この動作計画に基づいて拡張ZMP目標値を計算し、さらに拡張ZMP安定部54により拡張ZMP補償量で拡張ZMP目標値を補償しながら、制御部55によりロボット10の各関節部の関節駆動用モータを駆動制御する。
そして、全身運動を行なうロボットの動作時に突出して環境に接触する部分における床反力と重力との合成モーメントがゼロとなる点を拡張ZMPとして、この拡張ZMPを従来のロボットの歩行制御におけるZMPと同様にして、拡張ZMP目標値と拡張ZMP実測値の差である拡張ZMP誤差に基づいて、動作データを修正することにより、ロボット10に発生する慣性力を制御して、拡張ZMP目標値を補償する。
これにより、例えば転倒時の受け身動作,起き上がり動作や前転運動等の全身運動において、動作制御を安定的に行なうことにより、二脚歩行式人型ロボットの全身運動を動的に安定して確実に行なうことが可能になる。
【0036】
次に、二脚歩行式人型ロボット10が衝撃を受けた場合の制御動作について、図4を参照して説明する。図4のフローチャートにおいて、先ずステップST1にて、加速度センサ40で検知した各部加速度情報が動作監視部57に入力されると、ステップST2にて、動作監視部57は、当該各部加速度情報に基づいて各加速度センサ40が衝撃を検知したか否かを判定する。そして、ステップST2にて、各加速度センサ40が衝撃を検知していないと判定したときには、ステップST1に戻り、上記動作を繰り返す。
【0037】
これに対して、ステップST2にて、各加速度センサ40が衝撃を検知したと判定したときには、ステップST3にて、動作監視部57は、当該衝撃を緩和するために衝撃吸収運動の制御を開始する。
【0038】
そして、ステップST4にて、動作監視部57は、衝撃を緩和するために、当該衝撃を受けた部分に対応する関節駆動用モータのゲインを調整する。これにより、ステップST5にて、衝撃吸収運動が開始され、ステップST6にて、動作監視部57が、ロボットが衝撃による外力によって動いているか否かを判定し、外力によって動いている場合には、まだ衝撃による外力が作用しているものと判断して、ステップST5に戻り、衝撃吸収運動を継続する。
【0039】
また、ステップST6にて、ロボットが外力によって動いていない場合には衝撃が吸収されたものと判断し、ステップST7にて衝撃吸収運動が終了して、ステップST8にて、動作監視部57は、当該衝撃を受けた部分に関して他の加速度センサ40からの各部加速度情報や角度計測ユニット56からの角度情報に基づいて障害物との接触あるいは接地状態を認識して、衝撃吸収動作を終了する。このとき、動作監視部57は、動作計画部51や動作生成部52を介さずに、直接に制御部55を制御することにより、衝撃吸収運動を行なわせるので、所謂反射神経として作用することになり、迅速な衝撃吸収運動が可能になる。
【0040】
このようにして、本発明実施形態による二脚歩行式人型ロボット10によれば、ロボット10の環境とインタラクティブな部分、例えば胴体部11,両脚部12L,12Rや両腕部13L,13Rにそれぞれ設けられた加速度センサ40により、これらの部分の各部加速度情報が検出され、動作監視部57に入力されるので、動作監視部57が、これらの部分の各部加速度情報に基づいて、これらの部分の衝突等による衝撃を検知することができる。
【0041】
従来の二脚歩行式人型ロボットでは胴体部のみに加速度センサが設けられていたのに対して、上記二脚歩行式人型ロボット10においては、加速度センサ40がロボットの各部に分散配置されていることにより、各部に作用する加速度をより正確に検出して、これらの部分の衝突等による衝撃をより一層正しく検知することができる。従って、動作制御装置50は、このような衝撃の検知により、所謂反射神経と同様の機能を発揮して、迅速に且つ適切に衝撃を緩和するための動作を行なわせ、ロボットの各部の破損等を回避することができる。
【0042】
上述した実施形態においては、加速度センサ40は、胴体部11の腰部11bと、各腕部13L,13Rの下腕部26L,26Rそして各脚部12L,12Rの下腿部16L,16Rに、それぞれ備えられているが、これに限らず、例えば腕部13L,13Rの上腕部25L,25Rや、脚部12L,12Rの大腿部15L,15R、さらには頭部14等にも加速度センサ40が備えられるようにしてもよい。
また、上述した実施形態においては、本発明を二脚歩行式人型ロボットに適用した場合について説明したが、これに限らず、他の各種機器を二本足で支持する共に、この二本足で歩行するようにした二脚歩行式移動装置や、さらには複数本の脚部で支持し且つ歩行を行なう歩行式ロボットや歩行式移動装置に対しても本発明を適用し得ることは明らかである。
【0043】
【発明の効果】
以上述べたように、本発明によれば、二脚歩行式人型ロボットまたは歩行式ロボットが歩行動作中に、胴体部,各脚部及び/又は各腕部等の環境にインタラクティブな部分が、転倒等により大きく傾斜したり、あるいは床面上等に在る障害物等の物体に衝突した場合に、当該部分に備えられた加速度センサが当該部分の傾斜角度,傾斜加速度や、衝突等による加速度の急激な変化により衝撃を検知することができる。
従って、制御部が、各加速度センサからの検出信号を参照しながら、各駆動手段を駆動制御することにより、従来と同様に各関節部の力制御を行なうことができると共に、さらに反射神経と同様の機能を発揮して上記衝撃を迅速に緩和し、上記衝撃後の状況復帰を行なうことが可能になる。
ロボットの環境にインタラクティブな部分、例えば胴体部,各脚部及び/又は各腕部等にそれぞれ加速度センサが配置されることにより、ロボットの各部に加速度センサが分散配置されることになり、各部の加速度をそれぞれ別個に検出することができる。これにより、ロボットの各部の動き、そして衝突等による衝撃をより正確に検知することができるので、ロボットの全身運動等において、より一層適切な駆動制御を行ない、円滑な全身運動等を行うことが可能になる。
このようにして、本発明によれば、ロボットの各部、例えば脚部,腕部等の環境とインタラクティブな部分の加速度をそれぞれ検出して、各部分の環境との衝突状態を検出し得るようにした、歩行式ロボット特に二脚歩行式人型ロボットが提供されることになる。
【図面の簡単な説明】
【図1】本発明による二脚歩行式人型ロボットの一実施形態の外観を示し、(A)は概略正面図、(B)は概略側面図である。
【図2】図1の二脚歩行式人型ロボットの機械的構成を示す概略図である。
【図3】図1の二脚歩行式人型ロボットの電気的構成を示すブロック図である。
【図4】図1の二脚歩行式人型ロボットの衝撃検知時の制御動作を示すフローチャートである。
【符号の説明】
10  二脚歩行式人型ロボット
11  胴体部
11a 胸部
11b 腰部
11c 前屈部
12L,12R  脚部
13L,13R  腕部
14  頭部
15L,15R  大腿部
16L,16R  下腿部
17L,17R  足部
18L,18R乃至24L,24R 関節部(関節駆動用モータ)
21L,21R  膝部
25L,25R  上腕部
26L,26R  下腕部
27L,27R  手部
28L,28R乃至30L,30R  関節部
31L,31R  肘部
32L,32R,33L,33R,35,36  関節部
40  加速度センサ
50  歩行制御装置
51  動作計画部
51a 動作ライブラリ
52  動作生成部
53  拡張ZMP変換部
54  拡張ZMP安定部
55  制御部
56  角度計測ユニット
57  動作監視部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a walking robot, and particularly to a biped walking humanoid robot.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a so-called bipedal walking humanoid robot generates walking pattern (hereinafter referred to as gait) data set in advance, performs walking control according to the gait data, and moves a leg in a predetermined walking pattern. By operating it, biped walking is realized.
By the way, such a biped walking humanoid robot tends to become unstable in a posture at the time of walking due to, for example, floor surface conditions, errors in physical parameters of the robot itself, etc., and in some cases, may fall down. .
[0003]
On the other hand, if gait data is not set in advance and gait control is performed while recognizing the gait state of the robot in real time, it is possible to stabilize the posture during walking and perform gait. However, even in such a case, when an unexpected road surface condition or the like occurs, the walking posture collapses and the robot falls.
[0004]
Therefore, it is necessary to perform so-called ZMP compensation by converging a point at which the combined moment of the floor reaction force and gravity at the sole of the robot becomes zero (hereinafter referred to as ZMP (Zero Moment Point)) to a target value by walking control. is there.
As a control method for such ZMP compensation, for example, as disclosed in Japanese Patent Application Laid-Open No. Hei 5-305583, a compliance control is used to converge the ZMP to a target value and accelerate and correct the robot's upper body. And a control method for correcting the contact position of the robot's foot are known.
[0005]
[Problems to be solved by the invention]
By the way, in any of these control methods, the robot is stabilized by changing the motion trajectory by changing the angular velocity of the joint of the robot. For this reason, the motion trajectory of each part of the robot, such as the tip of the free leg of the robot and the position of the upper body, deviates from the gait based on the gait data. Will tilt. Therefore, the inclination of the body is detected to compensate for the inclination of the body.
[0006]
Conventionally, such detection of the inclination of the state of the robot is performed by detecting the inclination angle and the inclination acceleration of the body using an acceleration sensor provided on the body of the robot. I have.
However, such an acceleration sensor is used only for detecting the inclination angle and the inclination acceleration of the body of the robot, and is used for other purposes such as collision with an obstacle on the floor of the robot. Is not configured to detect
[0007]
In view of the above points, the present invention detects an acceleration of an interactive part and an environment of each part of a robot, for example, a leg and an arm, and detects a collision state with the environment of each part. It is an object of the present invention to provide a walking robot, particularly a biped walking humanoid robot.
[0008]
[Means for Solving the Problems]
The object is, according to the first configuration of the present invention, attached to the upper end of the torso, the arms attached to the lower sides of the torso, the arms attached to the lower sides of the torso, and the upper ends of the torso. A head, wherein the legs are pivoted in one axis direction with respect to two thighs attached to the trunk so as to be pivotable in three axes directions and a lower end of each thigh. A lower leg that is pivotally attached to a lower end of each lower leg, and a leg that is pivotally attached to the lower end of each lower leg in a biaxial direction. Two upper arms that are swingably attached to each other, a lower arm that is attached to each upper arm so as to be able to swing in one axis direction, and an at least one axis that is swingably attached to each lower arm. A hand, a leg, a leg, a lower leg, a thigh, and an arm of the leg. In a biped walking humanoid robot having a driving unit for driving a hand, a lower arm and an upper arm, and a control unit for driving and controlling each driving unit, the torso, the two legs, An acceleration sensor is provided in each of the arms and the like that is interactive with the environment, and the control unit performs drive control of each drive unit with reference to a detection signal from each acceleration sensor. Achieved by the characteristic biped humanoid robot.
[0009]
In the biped walking humanoid robot according to the present invention, preferably, the part interactive with the environment is a torso, each leg and / or each arm.
[0010]
In the biped walking humanoid robot according to the present invention, preferably, the control unit detects an impact on a portion provided with each acceleration sensor based on a detection signal from each acceleration sensor, and reduces the impact. The drive control of each drive means is performed as described above.
[0011]
According to a second aspect of the present invention, the above-mentioned object comprises a body portion, a plurality of legs attached to the body portion, and a head attached to one end of the body portion. Legs, two thighs attached to the torso so as to be able to swing in three axial directions, and a lower leg that is attached to the lower end of each thigh so as to be able to swing in one axis, respectively. A driving means for driving the foot, the lower leg, and the thigh of the leg, respectively, and a foot which is attached to the lower end of each lower leg so as to be swingable in two axial directions. And a control unit for controlling driving of each driving unit, respectively, in the walking body, among the body and each leg, etc., an environment and an interactive part are provided with acceleration sensors, respectively. The control unit refers to the detection signal from each acceleration sensor and The walking robot, characterized in that for performing the drive control, is achieved.
[0012]
In the walking robot according to the present invention, preferably, the part interactive with the environment is the body and the legs.
[0013]
In the walking robot according to the present invention, preferably, the control unit detects an impact on a portion provided with each acceleration sensor based on a detection signal from each acceleration sensor, and reduces the impact. Drive control of each drive unit is performed.
[0014]
According to the first and second configurations, while the bipedal walking humanoid robot or the walking robot is in a walking operation, a part interactive with the environment such as the body, each leg and / or each arm, When the vehicle inclines significantly due to a fall or collides with an object such as an obstacle on the floor, an acceleration sensor provided in the relevant portion is provided with an inclination angle, a tilt acceleration of the relevant portion, and an acceleration due to a collision or the like. The impact can be detected based on the rapid change of. Therefore, the control unit controls the driving of each driving unit while referring to the detection signal from each acceleration sensor, whereby the force control of each joint can be performed in the same manner as in the related art, and further, as in the case of the reflexes. The above-mentioned function can be exerted to quickly alleviate the impact and to restore the situation after the impact.
As described above, according to the present invention, the acceleration sensors are arranged on the parts interactive with the environment of the robot, for example, the torso, the legs, and / or the arms, so that the acceleration sensors are provided on the respective parts of the robot. Are distributed, and the acceleration of each part can be detected separately. This makes it possible to more accurately detect the movement of each part of the robot and the impact due to collision, etc., so that in the whole body movement of the robot, etc., it is possible to perform more appropriate drive control and perform smooth whole body movement etc. Will be possible.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.
FIGS. 1 and 2 show the configuration of an embodiment of a bipedal walking humanoid robot according to the present invention.
In FIG. 1, a bipedal walking humanoid robot 10 includes a body 11, legs 12 L and 12 R attached to lower sides of the body 11, and arms 13 L and 13 R attached to upper sides of the body. And a head 14 attached to the upper end of the body.
[0016]
The body 11 is divided into an upper chest portion 11a and a lower waist portion 11b. The chest portion 11a can swing forward and backward with respect to the waist portion 11b at the forward bending portion 11c. It is supported so as to be able to turn left and right. Further, a walking control device 50, which will be described later, is built in the chest portion 11a of the body portion 11. The forward bending portion 11c includes a joint portion 11d for swinging back and forth and a joint portion 11e for turning left and right, and each of the joint portions 11d and 11e is constituted by a joint driving motor (see FIG. 2). ing.
[0017]
The legs 12L and 12R include thighs 15L and 15R, lower legs 16L and 16R, and feet 17L and 17R, respectively. As shown in FIG. 2, the legs 12L and 12R have six joints, that is, joints 18L and 18R for turning the legs with respect to the waist 11b of the body 11 in order from the top, and the roll direction of the legs. The joints 19L and 19R (around the x-axis), the joints 20L and 20R in the pitch direction of the legs (around the y-axis), and the knee 21L that is a connection between the thighs 15L and 15R and the lower thighs 16L and 16R. , 21R in the pitch direction, the joints 23L, 23R in the pitch direction of the ankle with respect to the feet 17L, 17R, and the joints 24L, 24R in the roll direction in the ankle. Each of the joints 18L, 18R through 24L, 24R is constituted by a joint driving motor.
[0018]
Thus, the hip joint is constituted by the joints 11d and 11e, the crotch joint is constituted by the joints 18L, 18R, 19L, 19R, 20L and 20R, and the ankle joint is constituted by the joints 23L, 23R and 24L. , 24R. Thus, the left and right legs 12L and 12R of the bipedal walking humanoid robot 10 are given 6 degrees of freedom, respectively, and these various 12 joints are appropriately driven by the drive motor during various operations. By controlling the drive to the angle described above, a desired motion can be given to the entire leg portions 12L and 12R, for example, the user can walk in a three-dimensional space arbitrarily.
[0019]
The arms 13L and 13R include upper arms 25L and 25R, lower arms 26L and 26R, and hands 27L and 27R, respectively. The upper arms 25L and 25R, the lower arms 26L and 26R, and the hands 27L and 27R of the arms 13L and 13R each have five arms, as shown in FIG. The joints, that is, the joints 28L and 28R in the pitch direction of the upper arms 25L and 25R with respect to the body 11, the joints 29L and 29R in the roll direction, and the joints 30L and 30R in the left and right directions with respect to the body 11 in order from the top. The joints 32L and 32R in the pitch direction are provided at the elbows 31L and 31R, which are the connecting portions between the upper arms 25L and 25R and the lower arms 26L and 26R, and the hands 27L and 27R are provided at the wrists for the lower arms 26L and 26R. Are provided with joints 33L and 33R in the pitch direction. Each of the joints 28L, 28R to 33L, 33R is constituted by a joint driving motor.
[0020]
In this way, the left and right arms 13L and 13R of the bipedal walking humanoid robot 10 are given five degrees of freedom, so that these twelve joints are driven by the drive motors during various operations. By controlling the drive to an appropriate angle, a desired operation can be given to the entire arms 13L, 13R. Here, the joints 28L and 28R in the pitch direction of the shoulder are arranged such that the rotation axes are shifted forward with respect to the joints 29L and 29R in the roll direction and the joints 30L and 30R in the left and right directions. The swing angle of the arms 13L and 13R forward is set large.
[0021]
The head 14 is attached to the upper end of the upper part 11a of the body 11, and is equipped with, for example, a visual camera or a hearing microphone. As shown in FIG. 2, the head 14 includes a joint 35 in the pitch direction of the neck and a joint 36 in the left-right direction. Each of the joints 35 and 36 is constituted by a joint driving motor.
In this manner, the head 14 of the bipedal walking humanoid robot 10 is given two degrees of freedom, and these two joints 35 and 36 are respectively driven at appropriate angles by the drive motor during various operations. And the head 14 can be moved in the left-right direction or the front-back direction.
[0022]
The above configuration is almost the same as that of the conventional bipedal walking humanoid robot. However, the bipedal walking humanoid robot 10 according to the embodiment of the present invention is different in the following points. That is, as shown in FIGS. 1 and 2, the biped walking humanoid robot 10 further includes the waist 11 b of the body 11 described above, the lower arms 26 L, 26 R of the arms 13 L, 13 R, and the legs. The lower leg portions 16L, 16R of 12L, 12R are provided with acceleration sensors 40, respectively, that is, the acceleration sensors 40 are dispersedly arranged in the above-mentioned respective portions.
[0023]
FIG. 3 shows an electrical configuration of the bipedal walking humanoid robot 10 shown in FIGS. In FIG. 3, a bipedal walking humanoid robot 10 includes a driving means, that is, an operation control device that drives and controls each of the above-described joints, ie, the joint driving motors 11d, 11e, 18L, 18R to 33L, 33R, 35, 36. 50 is provided.
[0024]
The operation control device 50 includes an operation planning unit 51, an operation generation unit 52, an extended ZMP conversion unit 53, an extended ZMP stabilization unit 54, a control unit 55, and an angle measurement for detecting angles of joints of the robot. A unit 56 and an operation monitoring unit 57 are provided. As a coordinate system of the bipedal walking robot 10, an xyz coordinate system is used in which the front-rear direction is the x direction (forward +), the lateral direction is the y direction (inward +), and the up-down direction is the z direction (upward +). I do.
[0025]
The motion planning unit 51 determines an intermediate state between the initial state and the final state from the given initial state of the robot (the angle of each joint and the posture based on the detection signal of the force sensor 40) and the final state of the desired operation. Plan your exercise. That is, the motion planning unit 51 virtually sets a polyhedral rigid body so as to cover the convex portion formed by the entire robot, and calculates the time series shape data and the center of gravity trajectory of the polyhedral rigid body from the initial state to the final state. Then, the angular momentum of the robot required to perform the whole body movement is calculated.
[0026]
The motion planning unit 51 calculates the extended ZMP of the motion, the position of the center of gravity, the state of the polyhedral rigid body, the angular momentum, the kinetic energy, and the like, and generates a motion trajectory, that is, a motion plan of the robot. When the current state of the robot and the amount of deviation from the operation plan are input from the operation monitoring unit 57 as described later, the operation plan unit 51 similarly regenerates the operation plan.
[0027]
Here, the operation planning unit 51 includes an operation library 51a. In the motion library 51a, posture data and the like regarding basic motions including passive motions, which are elements of the motion of the robot, are stored in advance by type. Thus, when performing the above-described motion planning, the motion planning unit 51 reads out various posture data and the like from the motion library 51a as necessary, and generates a motion plan as a sequence of the combination motion. The motion planning unit 51 outputs the posture data and the angular momentum of each joint at that time to the motion generation unit 52 as a motion plan. At that time, when the notification of the falling state is input from the movement monitoring unit 57, the movement planning unit 51 immediately stops generating all the movements, switches to the fall avoidance and the passive movement, and performs the movement. Make a plan.
[0028]
The motion generating unit 52 generates angle data θref of the joints 15L, 15R to 36 required for the planned whole-body movement of the biped humanoid robot 10. At this time, the operation generating section 52 corrects internal parameters and generated angle data based on a command from an extended ZMP stabilizing section 54 described later.
[0029]
The extended ZMP conversion unit 53 calculates an extended ZMP target value based on the angle data θref of each joint from the motion generation unit 52, and outputs it to the extended ZMP stabilizing unit 54 and the motion monitoring unit 57.
[0030]
The extended ZMP stabilizing unit 54 calculates an extended ZMP actual value based on the posture information from the angle measurement unit 56, and compares the extended ZMP actual value with an extended ZMP target value from the extended ZMP converting unit 53. Based on the difference, the extended ZMP compensation amount is calculated so as to reduce the difference, and is output to the operation generation unit 52. Note that the conventional ZMP compensation amount calculation method can be applied as it is to the extended ZMP compensation amount calculation method.
[0031]
Here, when the extended ZMP compensation amount from the extended ZMP stabilizing unit 54 is fed back, the operation generating unit 52 corrects the operation data based on the extended ZMP compensation amount and outputs the operation data to the control unit 55.
[0032]
The control unit 55 generates a control signal for each joint drive motor based on the corrected operation data from the operation generation unit 52, and controls the drive of each joint drive motor.
[0033]
The angle measuring unit 56 receives the joint drive motors from the joint drive motors of the joints 15L, 15R to 36 by inputting angle information of the joint drive motors using, for example, a rotary encoder. , Ie, state information on the angle, angular velocity, and angular moment, that is, posture information θreal of the robot 10, and outputs it to the extended ZMP stabilizing unit 54 and the operation monitoring unit 57.
[0034]
The operation monitoring unit 57 includes an operation plan from the operation planning unit 51, an extended ZMP target value from the extended ZMP conversion unit 53, and angle information (including an angle and an angular moment) as an extended ZMP actual value from the angle measurement unit 56. And the acceleration information of each part from each acceleration sensor 40, and the state of the biped humanoid robot 10 is constantly monitored based on these. When the actual operation of the robot greatly deviates from the operation plan and the extended ZMP target value, the operation monitoring unit 57 feeds back the current state and the amount of deviation to the operation planning unit 51, and the operation planning unit 51 Is regenerated. In addition, the operation monitoring unit 57 determines the falling state from the acceleration information of each unit from each acceleration sensor 40, and notifies the operation planning unit 51 of the falling state when detecting the falling state. Further, the operation monitoring unit 57 determines a collision state from the acceleration information of each unit from each acceleration sensor 40, and when a collision is detected, the operation monitoring unit 57 does not pass through the operation planning unit 51, the operation generation unit 52, etc. As a result, the drive of each joint driving motor is directly controlled by the control unit 55 to mitigate the impact.
[0035]
The biped humanoid robot 10 according to the embodiment of the present invention is configured as described above. For a normal walking motion, the motion control device 50 generates the motion plan by the motion planning unit 51 and the motion generation unit 52 Calculates the extended ZMP target value based on this operation plan, and further compensates the extended ZMP target value with the extended ZMP compensation amount by the extended ZMP stabilizing unit 54 while controlling the joint driving of each joint of the robot 10 by the control unit 55. Drive control for the motor.
Then, a point where the combined moment of the floor reaction force and gravity at the part that comes into contact with the environment when the robot performing the whole body motion is in contact with the environment becomes zero is an extended ZMP, and this extended ZMP is defined as ZMP in the conventional robot walking control. Similarly, by correcting the motion data based on the extended ZMP error, which is the difference between the extended ZMP target value and the measured actual extended ZMP value, the inertial force generated in the robot 10 is controlled to compensate the extended ZMP target value. I do.
This makes it possible to stably control the whole body motion of the biped walking humanoid robot, for example, in the passive motion, the rising motion, and the forward motion when falling, thereby ensuring the whole body motion of the biped walking humanoid robot in a dynamically stable manner. Can be performed.
[0036]
Next, a control operation performed when the biped humanoid robot 10 receives an impact will be described with reference to FIG. In the flowchart of FIG. 4, first, at step ST1, when the acceleration information of each unit detected by the acceleration sensor 40 is input to the operation monitoring unit 57, at step ST2, the operation monitoring unit 57 performs the operation based on the acceleration information of each unit. It is determined whether or not each acceleration sensor 40 has detected an impact. If it is determined in step ST2 that each of the acceleration sensors 40 has not detected an impact, the process returns to step ST1 and repeats the above operation.
[0037]
On the other hand, when it is determined in step ST2 that each of the acceleration sensors 40 has detected a shock, in step ST3, the operation monitoring unit 57 starts control of a shock absorbing motion to mitigate the shock. .
[0038]
Then, in step ST4, the operation monitoring unit 57 adjusts the gain of the joint driving motor corresponding to the impacted portion to reduce the impact. Accordingly, the shock absorbing motion is started in step ST5, and in step ST6, the operation monitoring unit 57 determines whether or not the robot is moving by an external force due to an impact. It is determined that the external force due to the impact is still acting, and the process returns to step ST5 to continue the shock absorbing motion.
[0039]
In step ST6, if the robot is not moving by an external force, it is determined that the shock has been absorbed. In step ST7, the shock absorbing motion ends, and in step ST8, the operation monitoring unit 57 Based on the acceleration information from the other acceleration sensors 40 and the angle information from the angle measurement unit 56, the portion receiving the impact is recognized as being in contact with an obstacle or in contact with the ground, and the impact absorbing operation is terminated. At this time, the motion monitoring unit 57 performs the shock absorbing motion by directly controlling the control unit 55 without passing through the motion planning unit 51 and the motion generating unit 52, and thus acts as a so-called reflex nerve. As a result, a quick shock absorbing movement becomes possible.
[0040]
In this manner, according to the biped walking humanoid robot 10 according to the embodiment of the present invention, parts that are interactive with the environment of the robot 10, for example, the torso 11, the legs 12L and 12R, and the arms 13L and 13R respectively. The acceleration sensor 40 provided detects the acceleration information of each portion of these portions and inputs the information to the operation monitoring portion 57. The operation monitoring portion 57 detects the acceleration information of these portions based on the acceleration information of each portion of these portions. An impact due to a collision or the like can be detected.
[0041]
In a conventional bipedal walking humanoid robot, an acceleration sensor is provided only on the body portion. On the other hand, in the bipedal walking humanoid robot 10, the acceleration sensors 40 are distributed and arranged in various parts of the robot. Accordingly, the acceleration acting on each part can be detected more accurately, and the impact due to collision of these parts can be detected more correctly. Therefore, by detecting such an impact, the operation control device 50 exhibits the same function as a so-called reflex nerve, and performs an operation for promptly and appropriately mitigating the impact, such as damage to each part of the robot. Can be avoided.
[0042]
In the above-described embodiment, the acceleration sensor 40 is attached to the waist 11b of the body 11, the lower arms 26L and 26R of the arms 13L and 13R, and the lower legs 16L and 16R of the legs 12L and 12R, respectively. The acceleration sensor 40 is provided for the upper arms 25L, 25R of the arms 13L, 13R, the thighs 15L, 15R of the legs 12L, 12R, the head 14, and the like. It may be provided.
In the above-described embodiment, the case where the present invention is applied to the bipedal humanoid robot has been described. However, the present invention is not limited to this. It is apparent that the present invention can be applied to a bipedal locomotion device which is adapted to be walked, and further to a locomotion robot or a locomotion type mobile device which supports and walks with a plurality of legs. is there.
[0043]
【The invention's effect】
As described above, according to the present invention, during a walking operation of the bipedal walking humanoid robot or the walking robot, a part interactive with the environment such as the torso, each leg and / or each arm, When the vehicle tilts greatly due to a fall or collides with an object such as an obstacle on the floor or the like, an acceleration sensor provided in the relevant portion is provided with a tilt angle, a tilt acceleration of the relevant portion, and an acceleration due to a collision or the like. The impact can be detected based on the rapid change of.
Therefore, by controlling the driving of each driving unit while referring to the detection signal from each acceleration sensor, the control unit can perform the force control of each joint as in the related art, and further, similarly to the reflexes. The above-mentioned function is exerted to quickly alleviate the impact, and the situation can be restored after the impact.
By arranging the acceleration sensor in each part interactive with the environment of the robot, for example, the torso, each leg, and / or each arm, the acceleration sensors are distributed and arranged in each part of the robot. The acceleration can be detected separately. This makes it possible to more accurately detect the movement of each part of the robot and the impact due to collision, etc., so that in the whole body movement of the robot, etc., it is possible to perform more appropriate drive control and perform smooth whole body movement etc. Will be possible.
As described above, according to the present invention, it is possible to detect the acceleration of each part of the robot, for example, the environment of the legs and arms, and the interactive part, and detect the collision state with the environment of each part. Thus, a walking robot, in particular, a biped walking humanoid robot will be provided.
[Brief description of the drawings]
FIG. 1 shows the appearance of an embodiment of a biped humanoid robot according to the present invention, wherein (A) is a schematic front view and (B) is a schematic side view.
FIG. 2 is a schematic view showing a mechanical configuration of the biped humanoid robot shown in FIG. 1;
FIG. 3 is a block diagram showing an electrical configuration of the biped walking humanoid robot of FIG. 1;
FIG. 4 is a flowchart showing a control operation of the biped walking humanoid robot of FIG. 1 when detecting an impact.
[Explanation of symbols]
10 Biped Walking Humanoid Robot 11 Body 11a Chest 11b Waist 11c Forward Bend 12L, 12R Leg 13L, 13R Arm 14 Head 15L, 15R Thigh 16L, 16R Leg 17L, 17R Foot 18L , 18R to 24L, 24R Joint (motor for driving joint)
21L, 21R Knee 25L, 25R Upper arm 26L, 26R Lower arm 27L, 27R Hand 28L, 28R to 30L, 30R Joint 31L, 31R Elbow 32L, 32R, 33L, 33R, 35, 36 Joint 40 Acceleration Sensor 50 Walking control device 51 Operation planning unit 51a Operation library 52 Operation generation unit 53 Extended ZMP conversion unit 54 Extended ZMP stabilization unit 55 Control unit 56 Angle measurement unit 57 Operation monitoring unit

Claims (6)

胴体部と、胴体部の下部両側に取り付けられた脚部と、胴体部の上部両側に取り付けられた腕部と、胴体部の上端に取り付けられた頭部と、を備えており、
上記脚部が、胴体部に対して三軸方向に揺動可能に取り付けられた二つの大腿部と、各大腿部の下端に対してそれぞれ一軸方向に揺動可能に取り付けられた下腿部と、各下腿部の下端に対して二軸方向に揺動可能に取り付けられた足部と、を含んでいて、
上記腕部が、胴体部に対して二軸方向に揺動可能に取り付けられた二つの上腕部と、各上腕部に対してそれぞれ一軸方向に揺動可能に取り付けられた下腕部と、各下腕部に対して少なくとも一軸方向に揺動可能に取り付けられた手部と、を含んでおり、
さらに、上記脚部の足部,下腿部,大腿部そして上記腕部の手部,下腕部及び上腕部をそれぞれ駆動する駆動手段と、各駆動手段をそれぞれ駆動制御する制御部と、を有している二脚歩行式人型ロボットにおいて、
上記胴体部,両脚部,両腕部等のうち、環境とインタクラティブな部分に、それぞれ加速度センサを備えており、
上記制御部が、各加速度センサからの検出信号を参照して、各駆動手段の駆動制御を行なうことを特徴とする、二脚歩行式人型ロボット。
A torso, a leg attached to both lower sides of the torso, an arm attached to both upper sides of the torso, and a head attached to the upper end of the torso,
Two thighs in which the legs are pivotally mounted in the triaxial direction with respect to the body, and lower legs in which the legs are pivotally mounted in the one axial direction with respect to the lower end of each thigh; And a foot, which is attached to the lower end of each lower leg so as to be swingable in two axial directions,
The above-mentioned arm portion, two upper arm portions attached to the body portion so as to be swingable in two axial directions, and a lower arm portion attached to each upper arm portion so as to be able to swing in one axis direction, respectively. A hand attached to the lower arm so as to be swingable in at least one axial direction,
A drive unit for driving the foot, the lower leg, the thigh of the leg, and the hand, lower arm, and upper arm of the arm; a controller for driving and controlling each of the drive units; In a biped walking humanoid robot having
Among the above-mentioned torso, both legs, both arms, etc., an acceleration sensor is provided in each part that is interactive with the environment,
A bipedal walking humanoid robot, wherein the control unit performs drive control of each drive unit with reference to a detection signal from each acceleration sensor.
前記環境とインタラクティブな部分が、胴体部,各脚部及び/又は各腕部であることを特徴とする、請求項1に記載の二脚歩行式人型ロボット。The humanoid robot according to claim 1, wherein the part interactive with the environment is a torso, each leg, and / or each arm. 前記制御部が、各加速度センサからの検出信号に基づいて、各加速度センサが備えられている部分に対する衝撃を検知して、この衝撃を緩和するように各駆動手段の駆動制御を行なうことを特徴とする、請求項1又は2に記載の二脚歩行式人型ロボット。The control unit detects an impact on a portion provided with each acceleration sensor based on a detection signal from each acceleration sensor, and performs drive control of each driving unit so as to reduce the impact. The biped walking humanoid robot according to claim 1 or 2, wherein: 胴体部と、胴体部に取り付けられた複数本の脚部と、胴体部の一端に取り付けられた頭部と、を備えており、
上記各脚部が、胴体部に対して三軸方向に揺動可能に取り付けられた二つの大腿部と、各大腿部の下端に対してそれぞれ一軸方向に揺動可能に取り付けられた下腿部と、各下腿部の下端に対して二軸方向に揺動可能に取り付けられた足部と、を含んでいて、
さらに、上記脚部の足部,下腿部,大腿部をそれぞれ駆動する駆動手段と、各駆動手段をそれぞれ駆動制御する制御部と、を有している歩行式ロボットにおいて、
上記胴体部及び各脚部等のうち、環境とインタラクティブな部分に、それぞれ加速度センサを備えており、
上記制御部が、各加速度センサからの検出信号を参照して、各駆動手段の駆動制御を行なうことを特徴とする、歩行式ロボット。
A torso, a plurality of legs attached to the torso, and a head attached to one end of the torso,
Each of the above-mentioned legs is attached to the body part so as to be capable of swinging in three axial directions, and the lower part is attached to the lower end of each thigh so as to be capable of swinging in one axial direction. Including a thigh, and a foot attached to the lower end of each lower leg so as to be swingable in two axial directions,
Further, in a walking robot having a driving unit for driving the foot, the lower leg, and the thigh of the leg, and a control unit for controlling the driving of each driving unit,
Of the above-mentioned body part and each leg part, the part which is interactive with the environment is provided with an acceleration sensor,
A walking robot, wherein the control unit performs drive control of each drive unit with reference to a detection signal from each acceleration sensor.
前記環境とインタラクティブな部分が、胴体部及び各脚部であることを特徴とする、請求項4に記載の歩行式ロボット。The walking robot according to claim 4, wherein the part interactive with the environment is a body part and each leg part. 前記制御部が、各加速度センサからの検出信号に基づいて、各加速度センサが備えられている部分に対する衝撃を検知して、この衝撃を緩和するように各駆動手段の駆動制御を行なうことを特徴とする、請求項4又は5に記載の歩行式ロボット。The control unit detects an impact on a portion provided with each acceleration sensor based on a detection signal from each acceleration sensor, and performs drive control of each driving unit so as to reduce the impact. The walking robot according to claim 4 or 5, wherein
JP2002172110A 2002-02-19 2002-06-12 Walking robot Expired - Fee Related JP3569767B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002172110A JP3569767B2 (en) 2002-06-12 2002-06-12 Walking robot
CNB038000237A CN100496328C (en) 2002-02-19 2003-02-14 Badge manufacturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002172110A JP3569767B2 (en) 2002-06-12 2002-06-12 Walking robot

Publications (2)

Publication Number Publication Date
JP2004017181A true JP2004017181A (en) 2004-01-22
JP3569767B2 JP3569767B2 (en) 2004-09-29

Family

ID=31171755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002172110A Expired - Fee Related JP3569767B2 (en) 2002-02-19 2002-06-12 Walking robot

Country Status (1)

Country Link
JP (1) JP3569767B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008534304A (en) * 2005-03-30 2008-08-28 本田技研工業株式会社 Control system and control method for legged robot using two-stage disturbance response method
JPWO2007139135A1 (en) * 2006-05-30 2009-10-08 独立行政法人科学技術振興機構 Robot and control device
JP4985776B2 (en) * 2007-09-25 2012-07-25 富士通株式会社 Robot control apparatus, robot control method, and robot control program
JP5632609B2 (en) * 2007-08-21 2014-11-26 富士通株式会社 Robot control apparatus and robot control method
JP2018144149A (en) * 2017-03-03 2018-09-20 本田技研工業株式会社 Abnormal contact detection method and contact region identification method for mobile robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008534304A (en) * 2005-03-30 2008-08-28 本田技研工業株式会社 Control system and control method for legged robot using two-stage disturbance response method
JPWO2007139135A1 (en) * 2006-05-30 2009-10-08 独立行政法人科学技術振興機構 Robot and control device
JP5632609B2 (en) * 2007-08-21 2014-11-26 富士通株式会社 Robot control apparatus and robot control method
JP4985776B2 (en) * 2007-09-25 2012-07-25 富士通株式会社 Robot control apparatus, robot control method, and robot control program
JP2018144149A (en) * 2017-03-03 2018-09-20 本田技研工業株式会社 Abnormal contact detection method and contact region identification method for mobile robot

Also Published As

Publication number Publication date
JP3569767B2 (en) 2004-09-29

Similar Documents

Publication Publication Date Title
KR100476644B1 (en) Apparatus walking with two legs, walking control apparatus, and walking control method thereof
JP4912891B2 (en) Legged mobile robot and its control program
JP3078009B2 (en) Walking control device for legged mobile robot
JP3682525B2 (en) Biped walking humanoid robot
JP5053644B2 (en) Legged mobile robot and its control program
JP4513320B2 (en) Robot apparatus and motion control method of robot apparatus
JP3731118B2 (en) Biped walking humanoid robot
WO2003068453A1 (en) Two-leg walking moving device
US20110264264A1 (en) Control device and gait generating device for bipedal mobile robot
JP2003094358A (en) Two-leg walking type humanoid robot
JP5123527B2 (en) Legged mobile robot and its control program
JP3598507B2 (en) Walking-type moving device, its walking control device, and walking control method
JP3569767B2 (en) Walking robot
JP3673869B2 (en) Biped walking humanoid robot and its hand storage mechanism
JP3627057B2 (en) Biped humanoid robot
JP2009107033A (en) Legged mobile robot and its control method
JP2911984B2 (en) Walking control device for legged mobile robot
JP2003145456A (en) Bipedal human-type robot
JP2004188530A (en) Walking type movable apparatus, and device and method for controlling its movement
JP2012006087A (en) Robot and mechanism for detecting external force of robot
JP3760198B2 (en) Walking movement apparatus, walking control apparatus and walking control method therefor
JP5306959B2 (en) Control device for legged mobile robot
JP2009125838A (en) Biped walking robot and walking control method
JP4946566B2 (en) Walking robot and walking control method
JP2006095661A (en) Robot device and wheel device for robot

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Effective date: 20031031

Free format text: JAPANESE INTERMEDIATE CODE: A712

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20031210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040602

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 5

Free format text: PAYMENT UNTIL: 20090702

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100702

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20110702

LAPS Cancellation because of no payment of annual fees