WO2004085121A1 - ロボット装置及びロボット装置の制御方法 - Google Patents

ロボット装置及びロボット装置の制御方法 Download PDF

Info

Publication number
WO2004085121A1
WO2004085121A1 PCT/JP2004/004056 JP2004004056W WO2004085121A1 WO 2004085121 A1 WO2004085121 A1 WO 2004085121A1 JP 2004004056 W JP2004004056 W JP 2004004056W WO 2004085121 A1 WO2004085121 A1 WO 2004085121A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinate system
sensor
movement amount
coordinates
observation
Prior art date
Application number
PCT/JP2004/004056
Other languages
English (en)
French (fr)
Inventor
Kohtaro Sabe
Takeshi Ohashi
Kenta Kawamoto
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/515,854 priority Critical patent/US7437214B2/en
Priority to DE602004030893T priority patent/DE602004030893D1/de
Priority to EP04722987A priority patent/EP1607195B1/en
Publication of WO2004085121A1 publication Critical patent/WO2004085121A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid

Abstract

 本発明は、例えば脚式移動ロボットに適用して、それまで接地していた部位から次に接地した部位までの移動量をキネマティクスを用いて算出し、このような接地した部位の切り換わりにより、観測の基準となる座標系への座標変換を切り換える。

Description

ロボット装置及びロボット装置の制御方法 発明の背景
技術分野
本発明は、 ロボット装置及びロボット装置の制御方法に関し、 例えば脚式移動 ロボットに適用することができる。 本発明は、 それまで接地していた部位から次 に接地した部位までの移動量をキネマテイクスを用いて算出し、 このような接地 した部位の切り換わりにより、 観測の基準となる座標系への座標変換を切り換え ることにより、 観測に係る対象物を正確に表現できるようにする。 またこのよう な処理を離散的に検出される基準座標系の移動量に適用することにより、 観測に 係る対象物を正確に表現できる。 背景技術
従来、 歩行型知能ロボットにおいては、 例えば特開 2 0 0 0— 3 1 7 8 6 8号 公報に開示されているように、 障害物を把握して自律的に移動するものが提案さ れている。 このようなロボットにおいては、 第 1図に示すように、 センサの取付 け位置 P 1を基準にして検出される障害物等を、 このロボットの処理基準である ロボット中心座標系 (第 2図においては、 この座標系の原点を符号 P 2により示 す) により処理するようになされている。 このためこの種のロボットにおいては 、 このロボット中心座標系からセンサまでのロボットの姿勢変換を使用して、 観 測結果を表現するようになされている。
このようなロボットにおいては、 矢印 aにより示すように、 歩行によりロボッ ト中心座標系の原点 P 2が移動する場合には、 その移動量によりロボット中心座 標系による観測結果の座標を補正するようになされ、 この移動量を、 移動に係る コマンド毎に、 このコマンドによる歩幅から求めるようになされている。
またこのようなロボットにおいては、 第 2図に示すように、 2足歩行に係るも のも提案されるようになされている。 このようなロボットにおいても、 原点 P 2 によるロボット中心座標系によりセンサで把握した観測対象を表現するようにな されている。
ところでこのようロボットの歩行においては、 対応するモジュールに離散的に コマンドを発行して実行される。 これに対して実際の移動においては、 連続して 実行される。 これによりロボット中心座標系で表現される観測結果においては、 歩幅による誤差を含むことになる。 またこのようなコマンドの発行と、 実際の移 動時刻とでは、 時刻がずれることになる。 これらにより従来のロボットにおいて は、 センサにより把握された観測結果が正確に表現されていない問題があった。 このような誤差にあっては、 例えばサブサンプションアーキテクチャのように 観測結果が行動に直結しており、 最新の観測に基づいて行動を選択するロボット においては、 特に問題とならない。 しかしながら種々の時刻で得られる観測結果 を統合して処理する場合には、 例えば障害物を避け損なったりし、 大きな問題と なる。 特に、 第 3 (A) 図〜第 3 ( C ) 図により旋回歩行による一連の姿勢変化 を示すように、 右脚を遊足して着床するまでの一歩で、 6 0度も旋回するような 場合には、 結局、 この旋回の間の観測結果 (時点 t 2により示す観測結果である ) が不定となり、 観測結果を統合して処理する場合に、 大きな問題が発生すると 考えられる。 なおこの第 3図は、 ワールド座標系 (符号 Wにより示す) により観 測結果を統合した結果であり、 移動開始時点 t 1及び移動終了時点 t 3の観測結 果にあっては、 回転した角度により同一対象物を把握できるものの、 その間の観 測結果にあっては、 同一対象物として把握することが困難になる。 発明の開示
本発明は以上の点を考慮してなされたもので、 従来に比して、 観測に係る対象 物を正確に表現することができるロボット装置及びロボット装置の制御方法を提 案しようとするものである。
かかる課題を解決するため本発明においては、 基体と基体に接続された複数の 可動部からなるロボット装置に適用して、 基体に設けられた基準座標系と、 可動 部の 1つが床面と接地する第 1の接地位置に設けられた第 1のローカル座標系と 、 第 1のローカル座標系に基づいて基準座標系の移動量を算出する第 1の移動量 算出手段と、 可動部の 1つが床面と接地する第 2の接地位置に設けられた第 2の ローカル座標系と、 第 2のローカル座標系に基づいて基準座標系の移動量を算出 する第 2の移動量算出手段と、 第 1のローカル座標系と第 2のローカル座標系と のローカル座標系間距離を算出する手段とを備え、 基準座標系の移動量を、 第 1 のローカル座標系に基づく基準座標系の移動量と、 第 2のローカル座標系に基づ く基準座標系の移動量と、 ローカル座標系間距離とに基づいて算出する。 ここで 、 基体とは、 ロボットの機体において基準座標系が設定されている体部をいう。 通常は、 主要な部位である胴体部等が相当する。 ただし、 基準座標系が頭部にあ れば、 基体は頭部であり、 これらに限定されるものではない。
本発明の構成によれば、 基体と基体に接続された複数の可動部からなるロボッ ト装置に適用して、 基体に設けられた基準座標系と、 可動部の 1つが床面と接地 する第 1の接地位置に設けられた第 1のロー力ル座標系と、 第 1のロー力ル座標 系に基づいて基準座標系の移動量を算出する第 1の移動量算出手段と、 可動部の 1つが床面と接地する第 2の接地位置に設けられた第 2のローカル座標系と、 第 2のローカル座標系に基づいて基準座標系の移動量を算出する第 2の移動量算出 手段と、 第 1のローカル座標系と第 2のローカル座標系とのローカル座標系間距 離を算出する手段とを備え、 基準座標系の移動量を、 第 1のローカル座標系に基 づく基準座標系の移動量と、 第 2の口一カル座標系に基づく基準座標系の移動量 と、 ローカル座標系間距離とに基づいて算出することにより、 逐次、 第 1又は第 2の接地位置からの移動量をキネマテイクスを用いて算出しながら、 接地位置に 応じて基準座標の移動量を計算することができ、 これにより離散的に出力される コマンドにより姿勢を変化する場合にあっても、 さらにこのような 1つのコマン ドにより大きく旋回する場合等にあっても、 従来に比して、 この基準座標に係る 対象物を正確に表現することができる。 これによりセンサにより把握された観測 結果を正確に表現して、 従来に比して、 観測に係る対象物を正確に表現すること ができる。
また本発明においては、 姿勢の変化により着床位置が動的に変化するロボット 装置に適用して、 外部観測センサを介して外部環境を観測し、 外部観測センサに 対応するセンサ座標系により観測結果を出力する観測手段と、 少なくとも外部観 測センサから着床位置までの間の関節について、 姿勢の変化に係る関節の角度を 検出する姿勢検出センサと、 着床位置の切り換わりを検出する着床検出手段と、 観測手段による観測結果の座標を所定の基準座標系による座標に変換する座標変 換手段とを備え、 観測手段は、 姿勢の変化により変化する観測結果の座標を時刻 情報と共に順次出力し、 座標変換手段は、 観測結果の時刻情報を基準にして、 姿 勢検出センサによる検出結果から、 姿勢の変化により変化する着床位置に対する 移動量を検出し、 移動量により補正して、 観測結果の座標を基準座標系による座 標に変換し、 着床検出手段による着床位置の切り換わりの検出により、 移動量の 検出に供する着床位置を切り換える。
本発明の構成によれば、 姿勢の変化により着床位置が動的に変化するロボット 装置に適用して、 外部観測センサを介して外部環境を観測し、 外部観測センサに 対応するセンサ座標系により観測結果を出力する観測手段と、 少なくとも外部観 測センサから着床位置までの間の関節について、 姿勢の変化に係る関節の角度を 検出する姿勢検出センサと、 着床位置の切り換わりを検出する着床検出手段と、 観測手段による観測結果の座標を所定の基準座標系による座標に変換する座標変 換手段とを備え、 観測手段は、 姿勢の変化により変化する観測結果の座標を時刻 情報と共に順次出力し、 座標変換手段は、 観測結果の時刻情報を基準にして、 姿 勢検出センサによる検出結果から、 姿勢の変化により変化する着床位置に対する 外部観測センサの対応する移動量を検出し、 移動量により補正して、 観測結果の 座標を基準座標系による座標に変換し、 着床検出手段による着床位置の切り換わ りの検出により、 移動量の検出に供する着床位置を切り換えることにより、 逐次 、 それまで接地していた部位から次に接地した部位までの移動量をキネマティク スを用いて算出しながら、 この算出した移動量により観測結果による座標を補正 して基準座標に変換することにより、 離散的に出力されるコマンドにより姿勢を 変化する場合にあっても、 さらにこのような 1つのコマンドにより大きく旋回す る場合等にあっても、 従来に比して、 観測に係る対象物を正確に表現することが できる。 またこの観測結果に係る時刻情報を基準にしてこれらの処理を実行する ことにより、 コマンドと実際の行動とで時刻がずれる場合であっても、 センサに より把握された観測結果を正確に表現することができる。 これらにより従来に比 して、 観測に係る対象物を正確に表現することができる。 また本発明においては、 胴体部と胴体部に接続された複数の可動脚からなる口 ポット装置に適用して、 胴体部に設けられた基準座標系と、 可動脚の 1つが床面 と接地する第 1の接地位置に設けられた第 1のローカル座標系と、 第 1のロー力 ル座標系に基づいて基準座標系の移動量を算出する第 1の移動量算出手段と、 可 動脚の 1つが床面と接地する第 2の接地位置に設けられた第 2のローカル座標系 と、 第 2のローカル座標系に基づいて基準座標系の移動量を算出する第 2の移動 量算出手段と、 第 1のローカル座標系と第 2のローカル座標系とのローカル座標 系間距離を算出する手段とを備え、 可動脚の接地脚の切り換わりにより、 基準座 標系の移動量を、 第 1のローカル座標系に基づく移動量、 第 2のローカル座標系 に基づく移動量及ぴローカル座標系間距離に基づいて連続的に算出する。
これにより本発明の構成によれば、 従来に比して、 観測に係る対象物を正確に 表現することができる複数の可動脚からなるロボット装置を提供することができ る。
また本発明においては、 基体と基体に接続された複数の可動部からなるロボッ ト装置の制御方法に適用して、 可動部の 1つが床面と接地する第 1の接地位置に 設けられた第 1のローカル座標系に基づいて、 基体に設けられた基準座標系の移 動量を算出する第 1の移動量算出の処理と、 可動部の 1つが床面と接地する第 2 の接地位置に設けられた第 2の口一カル座標系に基づいて、 基準座標系の移動量 を算出する第 2の移動量算出の処理と、 第 1のローカル座標系と第 2のロー力ノレ 座標系とのローカル座標系間距離を算出する距離計算の処理とを備え、 基準座標 系の移動量を、 第 1のローカル座標系に基づく基準座標系の移動量と、 第 2の口 一カル座標系に基づく基準座標系の移動量と、 ローカル座標系間距離とに基づい て算出する。
これにより本発明の構成によれば、 従来に比して、 観測に係る対象物を正確に 表現することができる複数の可動脚からなるロボット装置の制御方法を提供する ことができる。
また本発明においては、 姿勢の変化により着床位置が動的に変化するロボット 装置の制御方法に適用して、 外部観測センサを介して外部環境を観測し、 外部観 測センサに対応するセンサ座標系により観測結果を出力する観測の処理と、 着床 位置の切り換わりを検出する着床検出処理と、 観測の処理による観測結果の座標 を所定の基準座標系による座標に変換する座標変換処理とを備え、 観測の処理は 、 姿勢の変化により変化する観測結果の座標を時刻情報と共に順次出力し、 座標 変換処理は、 観測結果の時刻情報を基準にして、 少なくとも外部観測センサから 着床位置までの間の関節について、 姿勢の変化に係る関節の角度を検出する姿勢 検出センサによる検出結果から、 姿勢の変化により変化する着床位置に対する移 動量を検出し、 移動量により補正して、 観測結果の座標を基準座標系による座標 に変換し、 着床検出処理による着床位置の切り換わりの検出により、 移動量の検 出に供する着床位置を切り換える。
これにより本発明の構成によれば、 従来に比して、 観測に係る対象物を正確に 表現することができる口ボット装置の制御方法を提供することができる。
また本発明においては、 胴体部と胴体部に接続された複数の可動脚からなる口 ボット装置の制御方法に適用して、 可動脚の 1つが床面と接地する第 1の接地位 置に設けられた第 1のローカル座標系に基づいて、 胴体部に設けられた基準座標 系の移動量を算出する第 1の移動量算出の処理と、 可動脚の 1つが床面と接地す る第 2の接地位置に設けられた第 2のローカル座標系に基づいて、 基準座標系の 移動量を算出する第 2の移動量算出の処理と、 第 1のローカル座標系と第 2の口 一カル座標系とのローカル座標系間距離を算出する距離算出の処理とを備え、 可 動脚の接地脚の切り換わりにより、 基準座標系の移動量を、 第 1のローカル座標 系に基づく移動量、 第 2のローカル座標系に基づく移動量及びローカル座標系間 距離に基づいて連続的に算出する。
これにより本発明の構成によれば、 従来に比して、 観測に係る対象物を正確に 表現することができる口ボット装置の制御方法を提供することができる。 図面の簡単な説明
第 1図は、 従来の 4足歩行に係るロボットにおける認識結果の処理の説明に供 する略線図である。
第 2図は、 従来の 2足歩行に係るロボットにおける認識結果の処理の説明に供 する略線図である。 第 3 (A) 図、 第 3 (B) 図、 第 3 (C) 図及び第 3 (D) 図は、 旋回時にお ける認識結果の処理の説明に供する略線図である。
第 4図は、 本発明の第 1の実施例に係るロボットを正面側より見て示す斜視図 である。
第 5図は、 第 4図のロボットを背面側より見て示す斜視図である。
第 6図は、 第 4図のロボットの関節自由度の説明に供する略線図である。
第 7図は、 第 4図のロボットにおける制御部の一部構成を示す機能ブロック図 である。
第 8 (A) 図及び第 8 (B) 図は、 着床脚の切り換えの説明に供する略線図で ある。
第 9図は、 基準座標系の移動量の説明に供する略線図である。
第 10図は、 統合記憶部における座標変換の説明に供する図表である。
第 1 1図は、 ボールの観察結果に係る座標変換の説明に供する略線図である。 第 1 2 (A) 図及び第 1 2 (B) 図は、 統合記憶部における認識結果の統合の 説明に供する略線図である。
第 1 3 (A) 図及び第 1 3 (B) 図は、 第 1 2図の例とは異なる例による認識 結果の統合の説明に供する略線図である。
第 14図は、 本発明の第 2の実施例に係る口ボットにおける座標変換の説明に 供する図表である。
第 15図は、 第 14図の認識結果による統合の説明に供する略線図である。 第 1 6 (A) 図及び第 1 6 (B) 図は、 屈脚座りに係る座標変換の説明に供す る略線図である。
第 1 7 (A) 図、 第 1 7 (B) 図及び第 1 Ί (C) 図は、 他の例による座標変 換の説明に供する略線図である。 発明を実施するための最良の形態
以下、 適宜図面を参照しながら本発明の実施例を詳述する。
(1) 第 1の実施例
(1- 1) 第 1の実施例の構成 第 4図及び第 5図は、 本発明の実施例に係る脚式移動ロボット 1の直立した状 態を正面側及び背面側から見て示す斜視図である。 この脚式移動ロボット 1は、 いわゆる人形型又は人型と呼ばれるタイプであり、 胴体部に、 頭部、 左右の上肢 部、 脚式移動を行う左右 2足の下肢部が設けられ、 この胴体部に内蔵された制御 部により全体の動作を統括的にコントロールするようになされている。
ここで左右各々の下肢は、 胴体部を構成する体幹部の略最下端にて胴体部に接 続され、 この胴体部側より、 順次、 大腿部、 膝関節、 脛部、 足首、 足平により構 成されるようになされている。 左右各々の上肢は、 体幹部の略最上端左右にそれ ぞれ連結され、 胴体部側より、 順次、 上腕、 肘関節、 前腕部で構成されるように なされている。 また頭部は、 首関節によって体幹部の略最上端中央に連結される ようになされている。
これら脚式移動ロボット 1においては、 第 6図に示す関節自由度に対応するよ うに、 下肢、 上肢の関節等に、 ァクチユエータが設けられ、 制御部によるこれら ァクチユエータの全身協調的な駆動制御により、 2足歩行するようになされてい る。 なおこの 2足歩行は、 一般に、 右脚を持ち上げた左脚による単脚支持期、 両 脚が接地した両脚支持期、 左脚を持ち上げた右脚による単脚支持期、 両脚が接地 した両脚支持期の繰り返しにより実行されるようになされている。
脚式移動口ボット 1においては、 少なくとも後述する外部観測センサの取り付 け箇所である頭部から着床位置までの間の関節について、 姿勢の変化に係る関節 の角度を検出する姿勢検出センサとして、 2足歩行で角度が変化する各関節に角 度センサが設けられ、 これにより姿勢の変化により変化する各部の移動量を着床 位置を基準にして制御部で把握できるようになされている。
また左右各々の下肢には、 着床位置の切り換わりを検出する着床検出手段の一 部構成として、 歩行により変化する右脚、 左脚への加重をそれぞれ計測する加重 センサが設けられ、 これによりこの加重センサによる測定結果を判定して、 何れ の側に足が現在接地しているか等を判定できるようになされている。 なおこの実 施例において、 この加重センサにおいては、 両足の足底の接地する部位に設ける ようになされているが、 加重センサにおいては、 足底と同様の加重の変化を受け る足首、 膝関節、 股関節等に設けるようにしてもよい。 また脚式移動ロボット 1においては、 外部観測センサとして、 頭部の目の部分 に、 1対の撮像機構が設けられ、 この 1対の撮像機構による撮像結果を制御部で 処理することにより、 いわゆるステレオ視の手法により障害物の座標、 ユーザー の座標等を把握できるようになされている。
また脚式移動ロボット 1においては、 同様の外部観測センサとして頭部に複数 のマイクによる音声取得機構が設けられ、 これによりこの音声取得機構で取得さ れる音声信号を制御部で解析して、 持ち主の音声を検出し、 またこの音声の到来 方向を把握できるようになされている。
第 7図は、 このような各部の動作を制御統合する制御部の一部構成を示す機能 プロック図である。 この制御部 1 0は、 メモリに記録された所定の処理プロダラ ムを実行するコンピュータにより構成され、 この処理プログラムの実行によりそ れぞれ所定の機能を担う各種モジュールが構成されて全体動作を制御するように なされている。
これらのモジュールのうち、 認識器 1 0 A〜1 0 Cは、 頭部に設けられた撮像 機構 1 1、 音声取得機構 1 2による外部観測センサで取得した撮像結果、 音声信 号を処理してこのロボットの周囲を観測し、 その観測結果を出力する。 ここでこ の実施例では、 撮像結果の画像認識により、 ボールを形状により認識する認識器 、 色によりボールを認識する認識器、 人物の顔を認識する認識器、 障害物を認識 する認識器等が設けられるようになされている。
これらの認識器 1 0 A〜l 0 Cは、 外部観測センサに対応するセンサ座標系に より観測結果を出力する。 また各認識器 1 0 A〜l 0 Cにおいては、 外部観測セ ンサの出力を逐次処理し、 処理対象を取得した時刻情報と共に認識結果を出力す る。 これによりこれら認識器 1 O A〜l 0 Cは、 それぞれ外部観測センサを介し て外部環境を観測し、 外部観測センサに対応するセンサ座標系により観測結果を 出力する観測手段を構成し、 この実施例では、 2足歩行により姿勢の変化により 変化する観測結果の座標を時刻情報と共に順次出力するようになされている。 移動量キネマテイクス計算部 1 0 Dは、 加重センサ 1 3による加重検出結果を 判定することにより着床脚を検出する。 ここで着床脚は、 このロボットの加重が かかっている側の足であり、 単脚支持期においては、 床に接地した側の足が着床 脚である。 また両足が接地した両脚支持期においては、 それまでの着床脚が適用 されるようになされている。
移動量キネマテイクス計算部 1 0 Dは、 具体的に、 右脚及び左脚に設けられた 加重センサ 1 3で検出される加重値の差分値を所定のしきい値により判定するこ とにより、 2つの足の加重差が一定期間しきい値を超えている時に加重の重い方 を着床脚 (又は加重脚) とする。 また立位などで 2つの足の加重がほぼ均等であ る場合は、 差分値がしきい値を超えないことにより、 着床脚は前の状態を引き継 ぐ。
移動量キネマテイクス計算部 1 0 Dは、 このようにして検出した着床脚を基準 にして、 逐次、 ロボット中心座標の原点座標 (身体基準点である) について、 移 動量を検出して出力する。 移動量キネマテイクス計算部 1 0 Dは、 この移動量の 検出の処理を、 角度センサ 1 4により検出される関節角を基準にしたキネマティ クス (幾何学運動学) により計算する。 なおこのロボット中心座標の原点座標に ついて、 この実施例では、 腰部に設定されるようになされている。
移動量キネマテイクス計算部 1 0 Dは、 このようにして検出される身体基準点 の移動量を、 着床脚の足底に設定された基準位置による座標系により身体基準点 を表現してなる同次変換行列 Tによる出力する。 なお同次変換行列 Tは、 次式に より表さ^^る。
Figure imgf000012_0001
これにより移動量キネマテイクス計算部 1 O Dは、 第 8 (A) 図に示すように 、 正面よりロボットを見て、 2足方向において右脚を遊足にしている単脚支持期 においては、 左脚を着床脚に設定して、 この左脚から新しい着床脚までの関節角 を使って移動量を算出する (変換 A) 。 またこの遊足が接地して所定値以上加重 が加わって着床脚が切り換わると、 基準座標であるロボット中心座標への変換も 新しい着床脚のもの (変換 B) に切り替える。 しかしてこのようにして新しい着 床脚により与えられる移動量にあっては、 第 8 (B) 図にそれぞれ変換 A及ぴ B の符号に添え字を付して示すように、 足が着床する度に離散的に与えられる。 し かしながらその間の遊足時の姿勢の変化は、 他方の変換 Bにより与えられている 。 このため変換 Aと変換 Bを掛け合わせることで身体基準点においては、 連続的 に変化していることが判る。
すなわちこのような一連の移動を側面より見て第 9図に示すように、 着床脚に 設けられた角度センサ 14により検出される関節角を基準にしたキネマテイクス により、 この着床脚の足底に設定された基準位置である第 1接地点による座標系 (すなわち身体基準の座標系に対していわゆるローカル座標系である) により身 体基準点 P (t l) 、 P (t 2) 、 P (t 3) の移動量を順次計算し、 また着床 脚が切り換わって第 2接地点による口一カル座標系により、 同様にして身体基準 点 P ( t 3) 、 P ( t 4) 、 P (t 5) の移動量を順次計算すると共に、 身体基 準点 P (t l) 、 P (t 2) 、 P (t 3) の移動量については、 第 2接地点を基 準にして変換し直すことにより、 これら着床脚の切り換わりの前後で検出される 身体基準 P (t l) 〜、 P ( t 3) 〜P ( t 5) の移動量においては、 連続的に 変化するように求められ、 これによりこの実施例では、 このような身体基準を基 準にしてなる外部観察結果について、 観測に係る対象物を正確に表現できるよう になされている。
これらによりこの実施例において、 胴体部及びこの胴体部に接続された下肢、 上肢、 頭部等は、 基体及びこの基体に接続された複数の可動部を構成し、 この胴 体部に設けられた身体基準の座標系がこのロボットの基準座標系を構成するよう になされている。 また 2つの下肢には、 それぞれ床面と接地する第 1及び第 2の 接地位置に設けられた第 1及び第 2の口一カル座標系が設けられ、 角度センサ 1 4、 移動量キネマテイクス計算部 1 ODが、 第 1のローカル座標系に基づいて基 準座標系の移動量を算出する第 1の移動量算出手段と、 第 2のローカル座標系に 基づいて基準座標系の移動量を算出する第 2の移動量算出手段と、 第 1のロー力 ル座標系と第 2のローカル座標系とのローカル座標系間距離を算出する手段とを 構成するようになされ、 この角度センサ 14、 移動量キネマテイクス計算部 10 Dにより、 基準座標系の移動量を、 第 1のローカル座標系に基づく基準座標系の 移動量と、 第 2のローカル座標系に基づく基準座標系の移動量と、 ローカル座標 系間距離とに基づいて算出するようになされている。
移動量キネマテイクス計算部 1 0 Dは、 このような接地点から身体基準点まで の座標変換の他に、 身体基準点から外部観側センサの取り付け位置までの座標変 換を同様に関節角から算出して返す。 またこのようにして変化する着床位置の移 動量を、 着床脚の切り換わりにより算出して出力する。 またこれらの情報 (以下 、 適宜姿勢情報と呼ぶ) に時刻情報を設定して出力する。
統合記憶部 1 0 Eは、 認識器 1 0 A〜 1 0 Cによる認識結果を統合して記憶し 、 行動記述部 1 0 Fからの要求により'記憶した認識結果を出力する。 ここで行動 記述部 1 0 Fは、 このロボットの歩行に係る目標軌道を計画し、 またこの計画軌 道を統合記憶部 1 0 Eにおける統合結果により修正しながら図示しないモジユー ルにコマンドを発行することにより、 例えば障害物を避けるように、 さらには好 みのボールを追跡するように、 このロボットを移動させるモジュールである。
統合記憶部 1 0 Eは、 この行動記述部 1 0 Fにおける処理を容易とするために 、 ロボット中心座標により観測結果を統合する。 すなわち認識結果をロボット中 心の座標表現で表せば、 自分から見てボールが右にあれば右に旋回する等記述が 可能になり、 これによりワールド座標による座標 ( X 1 、 y 1 ) の位置にボール があると記述する場合に比して、 記述を簡略化することができる。
すなわち統合記憶部 1 0 Eは、 次式の演算処理により、 認識結果の時刻情報を 基準にして、 所定の基準座標系である着床脚の底面を基準にした自己中心座標に 、 認識結果を変換する。 またこのとき 2足歩行による姿勢の変化により変化する 着床位置に対する移動量により補正して座標変換する。 なおここで Tは、 (1 ) 式について上述した座標変換を表す同次変換行列であり、 この Tの左側の添え字 は元になる座標系を示し、 また Tの右側の添え字は変換後の座標系を示す。 また この添え字の Ifは左脚底座標系を示し、 rfは右脚底座標系を示す。 また b は、 口 ボット中心である身体基準座標系を示し、 S はセンサ座標系を示し、 () の内部 は時刻を表す。 また小文字がベク トルでの認識対象の位置を示す。 これにより ( 2 ) 式の例では、 時刻 tにおける左脚底から基準座標への変換の後に、 基準座標 からセンサ座標への変換でセンサ座標系の対象物体の位置をかけることで左脚底 座標系での対象物体の位置を示していることになる。 かくするにっき、 この (2 ) 式を構成する lfTb ( t) 、 bT ( t) においては、 移動量キネマテイクス計算 部 1 0 Dより得られる姿勢情報であり、 また sv ( t) においては、 認識器 1 0 A〜l 0 Cから得られるセンサ座標系による認識結果である。 lfTb{t) X bT(t) x sv(t) = lfv(t) ...... (2) 統合記憶部 1 0 Eは、 移動量キネマテイクス計算部 1 0D、 認識器 1 0A〜1 0 Cの出力をー且メモリ (いわゆるキューである) に記録して保持し、 認識結果 に係る時刻情報に対応するデータが揃った時点で (この場合、 認識の処理に最も 時間を要することにより、 認識結果が得られた時点である) 、 キューを検索して
(2) 式の演算処理を実行することにより、 このような処理を認識結果に設定さ れた時刻情報を基準にして、 対応する時刻による移動量により実行する。
すなわち第 1 0図に示すように、 それぞれ時刻 t + 1、 t + 2、 t + 3により 得られる認識結果 sv ( t + 1) 、 sv ( t + 2) 、 sv ( t + 3) を対応する時 刻の姿勢情報 lfTb ( t + l) 、 lfTb ( t + 2) 、 lfTb ( t + 3) 、 bT ( t + 1) 、 bT ( t + 2) 、 bT (t + 3) に掛け合わせることにより、 認識結果を左 脚からの座標表現に順次変換する。 統合記憶部 1 0 Eは、 これにより認識結果を 統合し、 このようにして座標変換してなる認識結果を所定期間記録して保持する これに対して時刻 t + 4において、 右脚が着床すると、 移動量キネマテイクス 計算部 1 0 Dから移動量 lfTrf ( t +4) が通知される。 またそれまでの左脚を基 準にした姿勢情報 lfTb ( t) に代えて右脚を基準にした姿勢情報 rfTb (t) が順 次入力される。 これによりこの時点 t +4以降において、 統合記憶部 1 0 Eは、 同様に、 この右脚を基準にした姿勢情報 rfTb ( t) を用いて (2·) 式の演算処理 を実行し、 認識変化を右脚からの座標表現に順次変換する。 これにより統合記憶 部 1 0 Eにおいては、 着床脚の切り換わりを何ら管理することなく、 順次得られ る認識結果を処理し得るようになされている。
統合記憶部 1 O Eは、 このような着床による基準を切り換えてなる認識結果が 、 記録して保持した認識結果に対応するように、 移動量キネマテイクス計算部 1 0Dから移動量 lfTrf (t +4) の通知により、 記録して保持したこの移動量の時 刻により過去の認識結果を座標変換する。 ここでこの座標変換においては、 記録 して保持した認識結果 lfv (t + 1) 、 lfv (t + 2) 、 lfv (t + 3) に対して、 移動量キネマテイクス計算部 1 ODから通知された移動量 lfTrf (t +4) の逆行 列 (lfTrf (t +4) ) —1を掛け合わせて実行される。
これにより統合記憶部 10 Eにおいては、 記録して保持した認識結果との間に おいても、 容易に認識結果を統合して処理し得るようになされている。 具体的に 、 過去に逆上った観測結果のフィルタリング、 異なるセンサの異なる時刻の認識 結果の関連性を調べることが可能になる。
より具体的にポールに係る認識結果を例に取って説明すると、 第 1 1図に示す ように、 時点 t 1、 t 3でそれぞれセンサ座標系によるボールの観測結果 eTball (t 1) 、 cTball ( t 3) が検出され、 時点 t 1では左脚が着床脚であったもの が、 時点 t 2で右脚が着床し、 続く時点 t 3では右脚が着床脚となっている場合 、 時点 t 1におけるセンサ座標系によるボールの観測結果 eTball (t 1) 、 基準 座標系におけるセンサ座標系の原点座標による姿勢情報 。 (t 1) を用いて、 時点 t 1におけるボールの位置 rTball ( t 1) は、 rTball ( t 1) = rTc (t 1 ) · cTball ( t 1) により表される。 なおこの第 1 1図の例では、 センサ座標系 との関係を分かり易くするために基準座標系の原点を、 腰部の上方、 センサ座標 系の原点、 後方に設定した例により示す。 しかしてこの場合、 この時点 t lにお ける基準座標は、 左脚に係るローカル座標系により lfTr (t l) により表される この状態で時点 t 2で右脚が着床すると、 この時点 t 2における左脚の接地点 から右脚の接地点までの移動量であるローカル座標間距離、 すなわち左脚に係る ローカル座標系により第 2接地点は、 lfTrf ( t 2) により表すことができ、 これ により時点 t 1の基準座標 lfTr (t 1) は、 この移動量 lfTrf (t 2) の逆行列 ( lfTrf (t 2) ) —1を掛け合わして (lfTrf (t 2) ) -1 - lfTr (t 1) により第 2 接地点を基準にして表すことができる。 また同様に、 時点 t lに係るボールの位 置 rTball (t 1) は、 逆行列 (lfTrf (t 2) ) —1を掛け合わして (lfTrf (t 2) ) — rTball (t 1) により第 2接地点を基準にして表すことができる。
これに対して時点 T 3で検出されるボールの位置 rTball ( t 3) は、 第 2接地 点を基準にして rTball (t 3) = rT0 (t 3) · cTball (t 3) により表され、 また基準座標においても同様に rfTr ( t 3) により表される。 これらによりこれ ら時点 t l〜t 3における観測結果、 基準座標においては、 何れも右脚 (第 2接 地点) を基準にして表現され、 これらにより順次得られる認識結果を処理し得る ことが判る。
これに対して第 1 2 (A) 図は、 時亥 Ij t 1による顔認識器による認識結果 (F a c e) と、 時刻 t 3による音声認識器による認識結果 (Vo i c e) について 、 統合記憶部 1 0 Eにおける統合の処理の説明に供する略線図である。 統合記憶 部 1 0 Eにおいては、 これらの認識結果を統合して第 1 2 (B) 図に示すように 、 姿勢の変化により自己が移動した場合に、 この 2つの認識結果の座標を移動量 により補正して重なり合うと判断できる場合には、 この異なる時点による顔認識 器及び音声認識器に係る認識結果が同一の人物に係る認識結果であると判断し、 この人物の存在する方向を自己中心座標より正しく把握するようになされている また第 1 3 (A) 図に示すように、 時点 t 1、 t 2、 t 3における色認識器の 認識結果より、 ピンク色の物体 (P i n k) が移動していると判断できる場合に 、 これらの時点の 1つの時点 t 1に対応するボール認識器による認識結果におい て、 ボールの形状による物体 (Ro u n d) の座標がピンク色の物体の座標とほ ぼ一致していると判断できる場合、 統合記憶部 10 Eにおいては、 このピンク色 の物体にあっては、 ピンク色のボールであると把握し、 これにより認識結果を自 己中心座標により正しく統合して把握するようになされている。
これらによりこの脚式移動ロボット 1において、 撮像機構、 音声取得機構は、 外部観測センサを構成し、 認識器 1 0 A〜 10 Cは、 この外部観測センサを介し て外部環境を観測し、 外部観測センサに対応するセンサ座標系により観測結果を 出力する観測手段を構成するようになされている。 また各関節に設けられた角度 センサは、 外部観測センサから着床位置までの間の関節について、 姿勢の変化に 係る関節の角度を検出する姿勢検出センサを構成し、 左右の脚に設けられた加重 センサは、 移動量キネマテイクス計算部 1 0 Dと共に、 着床位置の切り換わりを 検出する着床検出手段を構成するようになされている。 また統合記憶部 1 O Eは 、 移動量キネマテイクス計算部 1 0 Dと共に、 観測手段による観測結果の座標を 所定の基準座標系による座標に変換する座標変換手段を構成し、 .この実施例では 、 観測結果の時刻情報を基準にして、 姿勢検出センサによる検出結果から、 姿勢 の変化により変化する着床位置に対する移動量を検出し、 この移動量により補正 して、 観測結果の座標を所定の基準座標系による座標に変換し、 また着床検出手 段による着床位置の切り換わりの検出により、 移動量の検出に供する着床位置を 切り換えるようになされている。
( 1 - 2 ) 第 1の実施例の動作
以上の構成において、 この脚式移動ロボットにおいては、 胴体部に設けられた 制御部における行動記述部 1 0 Fにより各部に設けられたァクチユエータが駆動 され、 これにより 2足歩行により歩行して移動する。 脚式移動ロボット 1におい ては、 この 2足歩行に係る足の関節に係る姿勢の変化により、 右脚、 左脚が交互 に着床し、 これにより姿勢の変化により着床位置が動的に変化して行動記述部 1 0 Fによる制御に従つて移動する。
脚式移動ロボット 1においては、 このような移動において、 加重がかかってい る側の足が足に設けられた加重センサにより移動量キネマテイクス計算部 1 0 D で検出される。 またこのようにして検出される加重脚である着床脚を基準にして 、 各関節に設けられた角度センサにより検出される関節角を基準にしたキネマテ イクスにより移動量が検出される。 またこのような移動量により着床位置に対す る身体基準点の同次変換行列が生成され、 この同次変換行列による姿勢情報が統 合記憶部 1 0 Eに出力される。
また頭部に設けられた外部認識センサによる撮像結果、 音声取得結果が認識器 1 0 A〜1 0 Cにより処理され、 これら外部認識センサによる座標系を基準にし た認識結果が時刻情報と共に統合記憶部 1 0 Eに出力される。
また身体基準点からこのような外部認識センサに係る部位までの関節に設けら れた角度センサに基づいて、 センサ座標系による認識結果を身体基準点の座標系 に変換する同次変換行列が移動量キネマテイクス計算部 1 O Dで生成され、 この 同次変換行列による姿勢情報が時刻情報と共に統合記憶部 1 0 Eに出力される。 脚式移動ロボット 1においては、 このようにして検出される着床位置を基準に して身体基準点を表現する同次変換行列による姿勢情報、 身体基準点を基準にし てセンサ座標系を表現する同次変換行列による姿勢情報、 センサ座標による認識 結果が、 認識結果に係る時刻情報を基準にして処理され、 着床位置を基準にして 認識結果が表現される。
またこのような処理基準である身体基準の基準座標系についても、 接地点の切 り換わりにより座標変換して連続的な移動量により表現される。
これによりロボットにおいては、 胴体部に設けられたロボット中心座標系で表 現される観測結果において、 歩幅による誤差を含む場合にあっても、 またコマン ドの発行と、 実際の移動時刻とで時刻がずれる場合であっても、 センサにより把 握された観測結果を正確に表現することができる。 また、 例えば第 3図について 上述した時点 t 2における認識結果のように、 旋回途中に得られる認識結果につ いても、 センサの移動による観測結果の座標変換を補正して前後の認識結果と比 較し得、 これにより認識結果が不定となるような状況を有効に回避することがで きる。 これらにより脚式移動ロボット 1においては、 姿勢の変化により変化する 環境に対して認識結果を正確に表現することができ、 さらには異なる時刻の認識 結果の統合を容易とすることができる。 また後述するように、 このように接地点 、 姿勢の管理モジュールである行動記述部 1 0 F、 統合モジュールである統合記 憶部 1 0 Eを明確に分離して構成し得、 行動記述部 1 0 Fにおける行動の記述を 容易とすることができる。
脚式移動ロボット 1においては、 このような認識結果に係る座標変換が、 認識 結果に設定された時刻情報により対応する姿勢情報により処理されて実行される 。 また認識結果にあっては、 記録して保持され、 統合記憶部 1 0 Eにより統合さ れる。
脚式移動ロボット 1においては、 移動量キネマテイクス計算部 1 0 Dにおいて 、 左右の脚に設けられた加重センサによる検出結果の差分値が所定のしきい値に より判定され、 これにより着床脚の切り換わりが検出される。 しかしてこの場合 、 所定のしきい値と差分値との比較により着床脚の切り換わりを判定することに より、 両脚支持期等における加重脚の誤検出を有効に回避するようになされてい る。
脚式移動ロボット 1においては、 このような着床脚の切り換わりが検出される と、 胴体基準の姿勢情報に係る基準が切り換えられ、 以降においては、 この新た な着床脚を基準にした姿勢情報が順次出力される。 また着床脚の切り換わりによ り、 この着床脚の切り換わりによる移動量が検出され、 統合記憶部 1 0 Eに出力 される。 これにより統合記憶部 1 0 Eにおいては、 認識結果の座標変換について は、 それまでと同様に、 着床位置を基準にして身体基準点を表現する姿勢情報、 身体基準点を基準にしてセンサ座標系を表現する姿勢情報、 センサ座標による認 識結果と時刻情報を基準にして処理して、 着床位置を基準にして認識結果を表現 し、 着床脚の切り換わりを何ら管理することなく、 順次得られる認識結果を処理 し得るようになされている。
またこのような着床脚の切り換わり以前に、 座標変換して記録してなる認識結 果においては、 この着床脚の切り換わりによる移動量を示す同次変換行列の逆行 列を掛け合わせて座標変換し、 新たな着床脚を基準にした座標系により表現され て記録される。 これによりこの脚式移動ロボット 1においては、 単に、 同一の時 刻による複数の認識結果間だけでなく、 異なる時刻に係る複数の認識結果間につ いても、 認識結果を容易かつ確実に統合し得、 この分、 行動等を適切化すること ができる。
すなわち脚式移動ロボット 1においては、 このようにして銃合記憶部 1 0 Eに 記録される認識結果が統合され、 お気に入りのボール、 障害物等が着床位置を基 準にして表現され、 これらの認識結果を基準にして例えばボールを追跡するよう に、 さらには障害物を避けるように移動する。
( 1 - 3 ) 第 1の実施例の効果
以上の構成によれば、 接地点の切り換わりにより座標変換して基準座標系の移 動量を表すことにより、 観測に係る対象物を正確に表現することができる。
すなわち基準座標系の移動量に基づいて、 センサによる計測値の座標を補正す ることにより、 観測に係る対象物を正確に表現することができる。
また接地の切り換わりに応動して、 記録して保持した補正結果を座標変換する ことにより、 接地の前後に係る観察結果を簡易かつ確実に処理することができ、 これによつても一段と観測に係る対象物を正確に表現することができる。
またそれまで接地していた部位から次に接地した部位までの移動量をキネマテ イクスにより用いて算出し、 このような接地した部位の切り換わりにより、 観測 の基準となる座標系への座標変換を切り換えることにより、 観測に係る対象物を 正確に表現できる。
またこのような姿勢の変化による着床位置の動的な変化が、 2足歩行による左 右の脚の着床位置の変化であり、 姿勢検出センサが、 左右の脚の関節に設けられ た角度センサであり、 着床検出手段が、 左右の脚に加わる加重の値を検出する加 重センサと、 この加重センサで検出される加重値の差分値を所定のしきい値によ り判定する判定手段であることにより、 両脚支持期等における加重脚の誤検出を 有効に回避することができる。
また座標変換結果を記録して保持し、 着床検出手段による着床位置の切り換わ りの検出により、 記録して保持した座標変換結果を、 該着床位置の切り換えに対 応するように変換することにより、 順次座標変換してなる認識結果と、 記録して 保持した過去の認識結果との間で整合性を図ることができ、 これにより認識結果 の統合を容易とすることができる。
またこのように記録して保持した座標変換結果を統合して行動に反映させるこ とにより、 自立的な行動を的確なものとすることができる。
またこのような座標変換に係る基準座標が、 着床脚の底面を基準にした自己中 心座標であることにより、 行動の記述を容易とすることができる。
( 2 ) 第 2の実施例
この実施例においては、 上述した認識結果の座標変換に係る基準をワールド座 標に設定する。 なおこの実施例では、 この基準座標に係る処理が異なる点を除い て、 第 1の実施例と同様に構成されることにより、 以下においては、 適宜、 第 1 の実施例の構成を流用して説明する。
ここで第 1 4図に示すように、 統合記憶部においては、 ワールド座標系におけ る着床脚の姿勢情報として初期値 wTlf ( t ) を把握しているものとする。 この脚 式移動ロボット 1においては、 この初期値 wTlf ( t ) に係る左脚を着床脚に設定 して歩行を開始し、 移動量キネマテイクス計算部 1 O Dより出力されるこの左脚 を基準にした姿勢情報により、 ワールド座標系に認識結果を座標変換する。 かく するにっきこの場合、 第 1 0図について説明した演算処理に対して、 初期値 wTlf ( t ) に係る変換行列が掛け合わされていることにより、 着床脚を基準にした座 標系に代えて、 ワールド座標系により認識結果が表されることになる。
また着床脚の切り換わりにより、 移動量キネマテイクス計算部 1 0 Dより出力 される移動量により基準となる着床脚に係る初期値 wTlf ( t ) を更新して右脚に 係る変換行列 wTrf ( t ) を生成し、 以降の処理においては、 この右脚に係る変換 行列 wTrf ( t ) によりセンサ座標系による認識結果を処理する。
かくするにっき第 1 5図は、 このようにしてワールド座標系における認識結果 を行動経路と共に示す障害物環境地図である。 この認識結果においては、 壁面と 床面との間の境界の有無により床面を認識し、 また同様の画像処理により障害物 を認識し、 各時刻における距離データに基づき確率的に 2次元ダリッドの情報を このような認識結果により更新して作成したものである。 また計画経路にあって は、 このような障害物を避けて床面を移動するように計画されたもので、 第 1 4 図に示す状態にあっては、 この計画経路を途中まで移動した状態である。 このタ スクでは動きながら観測を行い時間方向に統合が行われるので、 従来の手法によ つては最大で一歩の誤差を含んでいた観測結果が正確に表現されて正しい認識を 行うことができた。
このようにワールド座標系に基準座標を設定する場合にあっては、 各認識結果 における座標変換においては、 演算処理が増大するものの、 着床脚の切り換えに 係る記録して保持した認識結果に対する逆行列による掛け合わせを実行しなくて も良いことにより、 その分、 処理を簡略化して第 1の実施例と同様の効果を得る ことができる。
なおこのような処理においては、 認識結果については、 ワールド座標系で表現 しておき、 行動記述部に対して認識結果を通知する際に、 このワールド座標系に よる認識結果を着床脚を基準にしたローカル座標系に座標変換して通知するよう にしてもよレヽ。 ( 3 ) 第 3の実施例
なお上述の実施例においては、 本発明を 2足歩行に係る姿勢の変化に適用する 場合について述べたが、 本発明はこれに限らず、 例えば第 1 6図に示すように屈 脚座りに係る姿勢の変化の場合等、 種々の姿勢変化に広く適用することができる 。 なおこの第 1 6図に示す例においては、 屈脚座り姿勢で足底がついている状態 (第 1 6 (A) 図) から足底がついていない状態 (第 1 6 ( B ) 図) に姿勢が遷 移した場合である。 この場合、 屈脚座り姿勢で最も安定して接地しているお尻を 接地点と定義することでこの姿勢の遷移が起こつたときには足底からお尻までの 順運動学を解き、 移動量を算出して通知することができる。 またこれとは逆に、 お尻接地点からの姿勢変換を同様にして統合部に返すことで、 統合部でもまった く同じ方法で観測の統合を行う事ができる。 つまり姿勢変換前の認、識結果と姿勢 変換後の認識結果の統合処理が可能となっている。
またこのような単なる加重位置による着床位置の切り換わりだけでなく、 第 1 7 (A) 図〜第 1 7 ( C ) 図にそれぞれ直立した姿勢、 おじぎした姿勢、 寝姿に よる状態を示すように、 各種姿勢の変化による接地位置の変化等に種々に適用す ることもでき、 この場合にも姿勢変換前の認識結果と姿勢変換後の認識結果の統 合処理が可能となる。
また上述の実施例においては、 着床脚の足底、 ワールド座標系を基準座標に設 定して座標変換する場合について述べたが、 本発明はこれに限らず、 ロボットの 身体基準点により認識結果を表現する場合等にも広く適用することができる。 また上述の実施例においては、 接地点の切り換わりにより過去の記録した観測 結果を座標変化する場合について述べたが、 本発明はこれに限らず、 このような 座標変換の時点にあっては、 例えば観察結果の処理時点に実行する場合等、 必要 に応じて種々のタイミングに設定することができる。
また上述の実施例においては、 本発明を 2足歩行ロボットに適用する場合につ いて述べたが、 本発明はこれに限らず、 4足歩行ロボット等にも広く適用するこ とができる。 本発明によれば、 従来に比して、 観測に係る対象物を正確に表現することがで さる。 産業上の利用可能性
本発明は、 ロボット装置及びロボット装置の制御方法に関し、 例えば脚式移動 ロボットに適用することができる。

Claims

青求の範囲
1 . 基体と前記基体に接続された複数の可動部からなるロボット装置において、 前記基体に設けられた基準座標系と、
前記可動部の 1つが床面と接地する第 1の接地位置に設けられた第 1のロー力 ル座標系と、
前記第 1のローカル座標系に基づいて前記基準座標系の移動量を算出する第 1 の移動量算出手段と、
前記可動部の 1つが床面と接地する第 2の接地位置に設けられた第 2のロー力 ル座標系と、
前記第 2のローカル座標系に基づいて前記基準座標系の移動量を算出する第 2 の移動量算出手段と、
前記第 1の口一カル座標系と前記第 2のロー力ル座標系とのロー力ル座標系間 距離を算出する手段とを備え、
前記基準座標系の移動量を、 前記第 1のローカル座標系に基づく前記基準座標 系の移動量と、 前記第 2のローカル座標系に基づく前記基準座標系の移動量と、 前記口一カル座標系間距離とに基づいて算出する
ことを特徴とするロボット装置。
2 . 前記基体に設けられたセンサ用の可動部と、
前記センサ用の可動部に設けられて対象物を計測するセンサと、
前記センサに設けられたセンサ座標系と、
前記センサ座標系と前記基準座標系との間で座標変換を行なうセンサ座標系の 座標変換手段とを備え、
前記センサ座標系の座標変換手段は、
前記基準座標系の移動量に基づいて、 前記センサによる計測値の座標を補正す る
ことを特徴とする請求の範囲第 1項に記載のロボット装置。
3 . 前記計測値の座標の補正結果を記録して保持し、
前記センサ座標系の座標変換手段は、
前記第 1の接地位置から前記第 2の接地位置への接地の切り換わりに応動して 、 前記記録して保持した補正結果を、 前記第 2の接地位置の接地後に得られる前 記座標の補正結果に対応するように座標変換する
ことを特徴とする請求の範囲第 2項に記載のロボット装置。
4 . 姿勢の変化により着床位置が動的に変化するロボット装置において、
外部観測センサを介して外部環境を観測し、 前記外部観測センサに対応するセ ンサ座標系により観測結果を出力する観測手段と、
少なくとも前記外部観測センサから前記着床位置までの間の関節について、 前 記姿勢の変化に係る関節の角度を検出する姿勢検出センサと、
前記着床位置の切り換わりを検出する着床検出手段と、
前記観測手段による前記観測結果の座標を所定の基準座標系による座標に変換 する座標変換手段とを備え、 '
前記観測手段は、
前記姿勢の変化により変化する前記観測結果の座標を時刻情報と共に順次出力 し、
前記座標変換手段は、
前記観測結果の時刻情報を基準にして、 前記姿勢検出センサによる検出結果か ら、 前記姿勢の変化により変化する前記着床位置に対する移動量を検出し、 前記 移動量により補正して、 前記観測結果の座標を前記基準座標系による座標に変換 し、
前記着床検出手段による着床位置の切り換わりの検出により、
前記移動量の検出に供する着床位置を切り換える
ことを特徴とするロボット装置。
5 . 前記姿勢の変化により着床位置の動的な変化が、
二足歩行による左右の足の着床位置の変化であり、 前記姿勢検出センサが、
前記左右の足の関節に設けられた角度センサであり、
前記着床検出手段が、
前記左右の足に加わる加重の値を検出する加重センサと、
前記加重センサで検出される加重値の差分値を所定のしきい値により判定する 判定手段である
ことを特徴とする請求の範囲第 4項に記載のロボット装置。
6 . 前記座標変換手段は、
前記座標変換結果を記録して保持し、
前記着床検出手段による着床位置の切り換わりの検出により、
記録して保持した座標変換結果を、 該着床位置の切り換えに対応するように変 換する
ことを特徴とする請求の範囲第 4項に記載の口ボット装置。
7 . 前記座標変換手段に記録して保持した座標変換結果を統合して行動に反映さ せる行動記述手段を有する
ことを特徴とする請求の範囲第 6項に記載の口ボット装置。
8 . 前記基準座標系が、 前記左右の足の底面を基準にした自己中心座標である ことを特徴とする請求の範囲第 5項に記載のロボット装置。
9 . 前記基準座標系が、 ワールド座標である
ことを特徴とする請求の範囲第 4項に記載の口ボット装置。
1 0 . 胴体部と前記胴体部に接続された複数の可動脚からなるロボ: ト装置にお いて、
前記胴体部に設けられた基準座標系と、
前記可動脚の 1つが床面と接地する第 1の接地位置に設けられた第 1のロー力 ル座標系と、
前記第 1のローカル座標系に基づいて前記基準座標系の移動量を算出する第 1 の移動量算出手段と、
前記可動脚の 1つが床面と接地する第 2の接地位置に設けられた第 2のロー力 ル座標系と、
前記第 2のローカル座標系に基づいて前記基準座標系の移動量を算出する第 2 の移動量算出手段と、
前記第 1の口一カル座標系と前記第 2の口一カル座標系との口一カル座標系間 距離を算出する手段とを備え、
前記可動脚の接地脚の切り換わりにより、 前記基準座標系の移動量を、 前記第 1のローカル座標系に基づく移動量、 前記第 2のローカル座標系に基づく移動量 及び前記ローカル座標系間距離に基づいて連続的に算出する
ことを特徴とするロボット装置。
1 1 . 基体と前記基体に接続された複数の可動部からなるロボット装置の制御方 法において、
前記可動部の 1つが床面と接地する第 1の接地位置に設けられた第 1のロー力 ル座標系に基づいて、 前記基体に設けられた基準座標系の移動量を算出する第 1 の移動量算出の処理と、
前記可動部の 1つが床面と接地する第 2の接地位置に設けられた第 2のロー力 ル座標系に基づいて、 前記基準座標系の移動量を算出する第 2の移動量算出の処 理と、
前記第 1の口一カル座標系と前記第 2のローカル座標系とのローカル座標系間 距離を算出する距離計算の処理とを備え、
前記基準座標系の移動量を、 前記第 1のローカル座標系に基づく前記基準座標 系の移動量と、 前記第 2の口一カル座標系に基づく前記基準座標系の移動量と、 前記口一カル座標系間距離とに基づいて算出する
ことを特徴とするロボット装置の制御方法。
1 2 . 前記ロボット装置は、
前記基体に設けられたセンサ用の可動部と、
前記センサ用の可動部に設けられて対象物を計測するセンサとを有し、 前記ロボット装置の制御方法は、
前記センサに設けられたセンサ座標系と前記基準座標系との間で座標変換を行 なうセンサ座標系の座標変換の処理を有し、
前記センサ座標系の座標変換の処理は、
前記基準座標系の移動量に基づいて、 前記センサによる計測値の座標を補正す る
ことを特徴とする請求の範囲第 1 1項に記載のロボット装置の制御方法。
1 3 . 前記計測値の座標の補正結果を記録して保持し、
前記センサ座標系の座標変換の処理は、
前記第 1の接地位置から前記第 2の接地位置への接地の切り換わりに応動して 、 前記記録して保持した補正結果を、 前記第 2の接地位置の接地後に得られる前 記座標の補正結果に対応するように座標変換する
ことを特徴とする請求の範囲第 1 2項に記載のロボット装置。
1 4 . 姿勢の変化により着床位置が動的に変化するロボット装置の制御方法にお いて、
外部観測センサを介して外部環境を観測し、 前記外部観測センサに対応するセ ンサ座標系により観測結果を出力する観測の処理と、
前記着床位置の切り換わりを検出する着床検出処理と、
前記観測の処理による前記観測結果の座標を所定の基準座標系による座標に変 換する座標変換処理とを備え、
前記観測の処理は、
前記姿勢の変化により変化する前記観測結果の座標を時刻情報と共に順次出力 し、
前記座標変換処理は、 前記観測結果の時刻情報を基準にして、
少なくとも前記外部観測センサから前記着床位置までの間の関節について、 前 記姿勢の変化に係る関節の角度を検出する姿勢検出センサによる検出結果から、 前記姿勢の変化により変化する前記着床位置に対する移動量を検出し、
前記移動量により補正して、 前記観測結果の座標を前記基準座標系による座標 に変換し、
前記着床検出処理による着床位置の切り換わりの検出により、
前記移動量の検出に供する着床位置を切り換える
ことを特徴とするロボット装置の制御方法。
1 5 . 前記姿勢の変化による着床位置の動的な変化が、
二足歩行による左右の足の着床位置の変化であり、
前記姿勢検出センサが、
前記左右の足の関節に設けられた角度センサであり、
前記着床検出の処理が、
前記左右の足に加わる加重の値を検出する加重センサによる加重値の差分値を 所定のしきい値により判定する判定の処理である
ことを特徴とする請求の範囲第 1 4項に記載のロボット装置の制御方法。
1 6 . 前記座標変換の処理は、
前記座標変換結果を記録して保持し、
前記着床検出手段による着床位置の切り換わりの検出により、
記録して保持した座標変換結果を、 該着床位置の切り換えに対応するように変 換する
ことを特徴とする請求の範囲第 1 4項に記載のロポット装置の制御方法。
1 7 . 前記座標変換の処理によりに記録して保持した座標変換結果を統合して行 動に反映させる行動記述の処理を有する
ことを特徴とする請求の範囲第 1 6項に記載のロボット装置の制御方法。
1 8 . 前記基準座標系が、 前記左右の足の底面を基準にした自己中心座標である ことを特徴とする請求の範囲第 1 5項に記載のロボット装置の制御方法。
1 9 . 前記基準座標系が、 ワールド座標である
ことを特徴とする請求の範囲第 1 4項に記載のロポット装置の制御方法。
2 0 . 胴体部と前記胴体部に接続された複数の可動脚からなるロボット装置の制 御方法において、
前記可動脚の 1つが床面と接地する第 1の接地位置に設けられた第 1のロー力 ル座標系に基づいて、 前記胴体部に設けられた基準座標系の移動量を算出する第
1の移動量算出の処理と、
前記可動脚の 1つが床面と接地する第 2の接地位置に設けられた第 2の口一力 ル座標系に基づいて、 前記基準座標系の移動量を算出する第 2の移動量算出の処 理と、
前記第 1の口一カル座標系と前記第 2の口一カル座標系との口一カル座標系間 距離を算出する距離算出の処理とを備え、
前記可動脚の接地脚の切り換わりにより、 前記基準座標系の移動量を、 前記第 1のローカル座標系に基づく移動量、 前記第 2のローカル座標系に基づく移動量 及び前記ローカル座標系間距離に基づいて連続的に算出する
ことを特徴とするロボット装置の制御方法。
PCT/JP2004/004056 2003-03-27 2004-03-24 ロボット装置及びロボット装置の制御方法 WO2004085121A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/515,854 US7437214B2 (en) 2003-03-27 2004-03-24 Robot device and method of controlling the same
DE602004030893T DE602004030893D1 (de) 2003-03-27 2004-03-24 Robotervorrichtung und verfahren zur steuerung derselben
EP04722987A EP1607195B1 (en) 2003-03-27 2004-03-24 Robot device and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003087682 2003-03-27
JP2003-087682 2003-03-27

Publications (1)

Publication Number Publication Date
WO2004085121A1 true WO2004085121A1 (ja) 2004-10-07

Family

ID=33095103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/004056 WO2004085121A1 (ja) 2003-03-27 2004-03-24 ロボット装置及びロボット装置の制御方法

Country Status (6)

Country Link
US (1) US7437214B2 (ja)
EP (1) EP1607195B1 (ja)
JP (1) JP4911149B2 (ja)
CN (2) CN101531216B (ja)
DE (1) DE602004030893D1 (ja)
WO (1) WO2004085121A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4178186B2 (ja) * 2003-08-21 2008-11-12 国立大学法人 筑波大学 装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム
JP4961860B2 (ja) * 2006-06-27 2012-06-27 トヨタ自動車株式会社 ロボット装置及びロボット装置の制御方法
JP2008152362A (ja) * 2006-12-14 2008-07-03 Konami Digital Entertainment:Kk ゲームプログラム、ゲーム装置及びゲーム制御方法
JP4714779B2 (ja) 2009-04-10 2011-06-29 東光株式会社 表面実装インダクタの製造方法とその表面実装インダクタ
KR20120069924A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그 제어 방법
CN102736622B (zh) * 2011-03-31 2015-08-19 科沃斯机器人有限公司 多功能机器人系统及机器人本体寻找模块部的控制方法
US9412010B2 (en) * 2011-07-15 2016-08-09 Panasonic Corporation Posture estimation device, posture estimation method, and posture estimation program
US9387588B1 (en) * 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
CN104709374B (zh) * 2015-02-13 2017-03-08 中国北方车辆研究所 一种防止足式机器人左右倾斜的方法
JP2016187844A (ja) 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US9984540B2 (en) * 2015-12-17 2018-05-29 Harman International Industries, Incorporated Fan-driven force device
CN107121128B (zh) * 2017-05-27 2022-04-05 中国北方车辆研究所 一种足式机器人地形参数的测量方法及系统
CN110073637B (zh) * 2017-11-24 2022-05-13 乐博益思株式会社 主机设备及从机设备、以及包括其的识别号设定装置
DE112019000125B4 (de) * 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
JP7046110B2 (ja) 2020-02-21 2022-04-01 株式会社ソニー・インタラクティブエンタテインメント センサ制御装置、センサ制御方法およびプログラム
CN113190164A (zh) * 2021-05-14 2021-07-30 歌尔股份有限公司 一种设备的操作方法、系统及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594644A (en) 1992-05-22 1997-01-14 Honda Giken Kogyo Kabushiki Kaisha Method and system for generating trajectory of robot and the like
US5974366A (en) * 1996-12-18 1999-10-26 Honda Giken Kogyo Kabushiki Kaisha Apparatus for detecting the landing position of foot sole of legged moving robot
EP1053835A1 (en) * 1997-01-31 2000-11-22 Honda Giken Kogyo Kabushiki Kaisha Leg type mobile robot control apparatus
JP2002326173A (ja) * 2001-04-27 2002-11-12 Honda Motor Co Ltd 脚式移動ロボットの動作生成装置
JP2003136439A (ja) * 2001-11-06 2003-05-14 Sony Corp ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP2004090112A (ja) * 2002-08-29 2004-03-25 Japan Science & Technology Corp 脚式移動装置の歩行・走行制御方法および脚式移動装置の歩行・走行制御装置
JP2004148499A (ja) * 2002-03-18 2004-05-27 Sony Corp 移動体装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5872893A (en) * 1996-07-25 1999-02-16 Honda Giken Kogyo Kabushiki Kaisha Gait generation system of legged mobile robot
JP3629133B2 (ja) 1997-01-31 2005-03-16 本田技研工業株式会社 脚式移動ロボットの制御装置
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP4480843B2 (ja) * 2000-04-03 2010-06-16 ソニー株式会社 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
JP3634238B2 (ja) * 2000-05-19 2005-03-30 本田技研工業株式会社 脚式移動ロボットの床形状推定装置
JP3726009B2 (ja) * 2000-05-19 2005-12-14 本田技研工業株式会社 脚式移動ロボットの床形状推定装置
KR100661333B1 (ko) * 2000-11-17 2006-12-27 혼다 기켄 고교 가부시키가이샤 레그식 이동 로봇의 보용 생성장치
EP2106886B1 (en) * 2002-04-26 2011-03-23 Honda Giken Kogyo Kabushiki Kaisha Self-position estimating device for leg type movable robots
US7054718B2 (en) * 2002-10-11 2006-05-30 Sony Corporation Motion editing apparatus and method for legged mobile robot and computer program
JP4127043B2 (ja) * 2002-12-11 2008-07-30 ソニー株式会社 脚式移動ロボット並びに脚式移動ロボットの関節軸として適用されるアクチュエータ装置
JP4592276B2 (ja) * 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594644A (en) 1992-05-22 1997-01-14 Honda Giken Kogyo Kabushiki Kaisha Method and system for generating trajectory of robot and the like
US5974366A (en) * 1996-12-18 1999-10-26 Honda Giken Kogyo Kabushiki Kaisha Apparatus for detecting the landing position of foot sole of legged moving robot
EP1053835A1 (en) * 1997-01-31 2000-11-22 Honda Giken Kogyo Kabushiki Kaisha Leg type mobile robot control apparatus
JP2002326173A (ja) * 2001-04-27 2002-11-12 Honda Motor Co Ltd 脚式移動ロボットの動作生成装置
JP2003136439A (ja) * 2001-11-06 2003-05-14 Sony Corp ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP2004148499A (ja) * 2002-03-18 2004-05-27 Sony Corp 移動体装置
JP2004090112A (ja) * 2002-08-29 2004-03-25 Japan Science & Technology Corp 脚式移動装置の歩行・走行制御方法および脚式移動装置の歩行・走行制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1607195A4

Also Published As

Publication number Publication date
JP4911149B2 (ja) 2012-04-04
JP2008284690A (ja) 2008-11-27
DE602004030893D1 (de) 2011-02-17
US20050222709A1 (en) 2005-10-06
EP1607195B1 (en) 2011-01-05
EP1607195A4 (en) 2009-01-07
US7437214B2 (en) 2008-10-14
EP1607195A1 (en) 2005-12-21
CN101531216B (zh) 2011-01-05
CN1697724A (zh) 2005-11-16
CN101531216A (zh) 2009-09-16
CN100571999C (zh) 2009-12-23

Similar Documents

Publication Publication Date Title
JP4911149B2 (ja) ロボット装置及びロボット装置の制御方法
US20190278295A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
JP3945279B2 (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
US20120155775A1 (en) Walking robot and simultaneous localization and mapping method thereof
US20040230340A1 (en) Behavior controlling apparatus, behavior control method, behavior control program and mobile robot apparatus
Santaera et al. Low-cost, fast and accurate reconstruction of robotic and human postures via IMU measurements
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
WO2004018159A1 (ja) 環境同定装置及び環境同定方法、並びにロボット装置
US9555846B1 (en) Pelvis structure for humanoid robot
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
US20210394362A1 (en) Information processing device, control method, and program
JP2003271975A (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置
JP2018513496A (ja) 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
US9193070B2 (en) Robot, control system for controlling motion of a controlled object, and recording medium for control program for controlling motion of a controlled object
KR20170138977A (ko) 보행 로봇 및 그의 위치 인식과 지도 작성을 동시에 수행하는 방법
CN116619382A (zh) 机器人运动控制方法、系统及电子设备
KR102131097B1 (ko) 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법
US20220410378A1 (en) Robot movement and online trajectory optimization
JP6270334B2 (ja) ロボット制御装置及び方法
Wasielica et al. Interactive programming of a mechatronic system: A small humanoid robot example
JP2007219645A (ja) データ処理方法、データ処理装置およびプログラム
JP4284609B2 (ja) ロボット装置及びロボット装置の制御方法
JP5539001B2 (ja) 制御装置
KR101568084B1 (ko) 이족보행로봇의 보행 모방 제어장치

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2004722987

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10515854

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048002660

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2004722987

Country of ref document: EP