JP4911149B2 - ロボット装置及びロボット装置の制御方法 - Google Patents

ロボット装置及びロボット装置の制御方法 Download PDF

Info

Publication number
JP4911149B2
JP4911149B2 JP2008225547A JP2008225547A JP4911149B2 JP 4911149 B2 JP4911149 B2 JP 4911149B2 JP 2008225547 A JP2008225547 A JP 2008225547A JP 2008225547 A JP2008225547 A JP 2008225547A JP 4911149 B2 JP4911149 B2 JP 4911149B2
Authority
JP
Japan
Prior art keywords
observation
sensor
landing
posture
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008225547A
Other languages
English (en)
Other versions
JP2008284690A (ja
Inventor
浩太郎 佐部
武史 大橋
献太 河本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008225547A priority Critical patent/JP4911149B2/ja
Publication of JP2008284690A publication Critical patent/JP2008284690A/ja
Application granted granted Critical
Publication of JP4911149B2 publication Critical patent/JP4911149B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid

Description

本発明は、ロボット装置及びロボット装置の制御方法に関し、例えば脚式移動ロボットに適用することができる。本発明は、それまで接地していた部位から次に接地した部位までの移動量をキネマティクスを用いて算出し、このような接地した部位の切り換わりにより、観測の基準となる座標系への座標変換を切り換えることにより、観測に係る対象物を正確に表現できるようにする。またこのような処理を離散的に検出される基準座標系の移動量に適用することにより、観測に係る対象物を正確に表現できるようにする。
従来、歩行型知能ロボットにおいては、例えば特開2000−317868号公報に開示されているように、障害物を把握して自律的に移動するものが提案されている。このようなロボットにおいては、図15に示すように、センサの取付け位置P1を基準にして検出される障害物等を、このロボットの処理基準であるロボット中心座標系(図16においては、この座標系の原点を符号P2により示す)により処理するようになされている。このためこの種のロボットにおいては、このロボット中心座標系からセンサまでのロボットの姿勢変換を使用して、観測結果を表現するようになされている。
このようなロボットにおいては、矢印aにより示すように、歩行によりロボット中心座標系の原点P2が移動する場合には、その移動量によりロボット中心座標系による観測結果の座標を補正するようになされ、この移動量を、移動に係るコマンド毎に、このコマンドによる歩幅から求めるようになされている。
またこのようなロボットにおいては、図16に示すように、2足歩行に係るものも提案されるようになされている。このようなロボットにおいても、原点P2によるロボット中心座標系によりセンサで把握した観測対象を表現するようになされている。
特開2000−317868号公報 特開2003−326484号公報 特開2003−200378号公報
ところでこのようなロボットの歩行においては、対応するモジュールに離散的にコマンドを発行して実行される。これに対して実際の移動においては、連続して実行される。これによりロボット中心座標系で表現される観測結果においては、歩幅による誤差を含むことになる。またこのようなコマンドの発行と、実際の移動時刻とでは、時刻がずれることになる。これらにより従来のロボットにおいては、センサにより把握された観測結果が正確に表現されていない問題があった。
このような誤差にあっては、例えばサブサンプションアーキテクチャのように観測結果が行動に直結しており、最新の観測に基づいて行動を選択するロボットにおいては、特に問題とならない。しかしながら種々の時刻で得られる観測結果を統合して処理する場合には、例えば障害物を避け損なったりし、大きな問題となる。特に、図17(A)〜(C)により旋回歩行による一連の姿勢変化を示すように、右脚を遊足して着床するまでの一歩で、60度も旋回するような場合には、結局、この旋回の間の観測結果(時点t2により示す観測結果である)が不定となり、観測結果を統合して処理する場合に、大きな問題が発生すると考えられる。なおこの図17は、ワールド座標系(符号Wにより示す)により観測結果を統合した結果であり、移動開始時点t1及び移動終了時点t3の観測結果にあっては、回転した角度により同一対象物を把握できるものの、その間の観測結果にあっては、同一対象物として把握することが困難になる。
本発明は以上の点を考慮してなされたもので、従来に比して、観測に係る対象物を正確に表現することができるロボット装置及びロボット装置の制御方法を提案しようとするものである。
かかる課題を解決するため請求項1の発明は、姿勢の変化により着床位置が動的に変化するロボット装置に適用して、外部観測センサを介して外部環境を観測し、前記外部観測センサに対応するセンサ座標系により観測結果を出力する観測手段と、少なくとも前記外部観測センサから前記着床位置までの間の関節について、前記姿勢の変化に係る関節の角度を検出する姿勢検出センサと、前記着床位置の切り換わりを検出する着床検出手段と、前記観測手段による前記観測結果の座標を所定の基準座標系による座標に変換する座標変換手段とを備え、前記観測手段は、前記姿勢の変化により変化する前記観測結果の座標を時刻情報と共に順次出力し、前記座標変換手段は、前記観測結果の時刻情報を基準にして、前記姿勢検出センサによる検出結果から、前記姿勢の変化により変化する前記着床位置に対する前記外部観測センサの移動量を検出し、前記移動量により補正して、前記観測結果の座標を前記基準座標系による座標に変換し、前記着床検出手段による着床位置の切り換わりの検出により、前記移動量の検出に供する座標系を切り換える。
また請求項7の発明は、姿勢の変化により着床位置が動的に変化するロボット装置の制御方法に適用して、外部観測センサを介して外部環境を観測し、前記外部観測センサに対応するセンサ座標系により観測結果を出力する観測の処理と、前記着床位置の切り換わりを検出する着床検出処理と、前記観測の処理による前記観測結果の座標を所定の基準座標系による座標に変換する座標変換処理とを備え、前記観測の処理は、前記姿勢の変化により変化する前記観測結果の座標を時刻情報と共に順次出力し、前記座標変換処理は、前記観測結果の時刻情報を基準にして、少なくとも前記外部観測センサから前記着床位置までの間の関節について、前記姿勢の変化に係る関節の角度を検出する姿勢検出センサによる検出結果から、前記姿勢の変化により変化する前記着床位置に対する前記外部観測センサの移動量を検出し、前記移動量により補正して、前記観測結果の座標を前記基準座標系による座標に変換し、前記着床検出処理による着床位置の切り換わりの検出により、前記移動量の検出に供する着床位置を切り換える。
請求項1の構成によれば、姿勢の変化により着床位置が動的に変化するロボット装置に適用して、外部観測センサを介して外部環境を観測し、外部観測センサに対応するセンサ座標系により観測結果を出力する観測手段と、少なくとも外部観測センサから着床位置までの間の関節について、姿勢の変化に係る関節の角度を検出する姿勢検出センサと、着床位置の切り換わりを検出する着床検出手段と、観測手段による観測結果の座標を所定の基準座標系による座標に変換する座標変換手段とを備え、観測手段は、姿勢の変化により変化する観測結果の座標を時刻情報と共に順次出力し、座標変換手段は、観測結果の時刻情報を基準にして、姿勢検出センサによる検出結果から、姿勢の変化により変化する着床位置に対する外部観測センサの移動量を検出し、移動量により補正して、観測結果の座標を基準座標系による座標に変換し、着床検出手段による着床位置の切り換わりの検出により、移動量の検出に供する座標系を切り換えることにより、逐次、それまで接地していた部位から次に接地した部位までの移動量をキネマティクスを用いて算出しながら、この算出した移動量により観測結果による座標を補正して基準座標に変換することにより、離散的に出力されるコマンドにより姿勢を変化する場合にあっても、さらにこのような1つのコマンドにより大きく旋回する場合等にあっても、従来に比して、観測に係る対象物を正確に表現することができる。またこの観測結果に係る時刻情報を基準にしてこれらの処理を実行することにより、コマンドと実際の行動とで時刻がずれる場合であっても、センサにより把握された観測結果を正確に表現することができる。これらにより従来に比して、観測に係る対象物を正確に表現することができる。
またこれにより請求項7の構成によれば、従来に比して、観測に係る対象物を正確に表現することができるロボット装置の制御方法を提供することができる。
本発明によれば、従来に比して、観測に係る対象物を正確に表現することができる。
以下、適宜図面を参照しながら本発明の実施の形態を詳述する。
〈第1の実施の形態〉
[第1の実施の形態の構成]
図1及び図2は、本発明の実施の形態に係る脚式移動ロボット1の直立した状態を正面側及び背面側から見て示す斜視図である。この脚式移動ロボット1は、いわゆる人形型又は人型と呼ばれるタイプであり、胴体部に、頭部、左右の上肢部、脚式移動を行う左右2足の下肢部が設けられ、この胴体部に内蔵された制御部により全体の動作を統括的にコントロールするようになされている。
ここで左右各々の下肢は、胴体部を構成する体幹部の略最下端にて胴体部に接続され、この胴体部側より、順次、大腿部、膝関節、脛部、足首、足平により構成されるようになされている。左右各々の上肢は、体幹部の略最上端左右にそれぞれ連結され、胴体部側より、順次、上腕、肘関節、前腕部で構成されるようになされている。また頭部は、首関節によって体幹部の略最上端中央に連結されるようになされている。
これら脚式移動ロボット1においては、図3に示す関節自由度に対応するように、下肢、上肢の関節等に、アクチュエータが設けられ、制御部によるこれらアクチュエータの全身協調的な駆動制御により、2足歩行するようになされている。なおこの2足歩行は、一般に、右脚を持ち上げた左脚による単脚支持期、両脚が接地した両脚支持期、左脚を持ち上げた右脚による単脚支持期、両脚が接地した両脚支持期の繰り返しにより実行されるようになされている。
脚式移動ロボット1においては、少なくとも後述する外部観測センサの取り付け箇所である頭部から着床位置までの間の関節について、姿勢の変化に係る関節の角度を検出する姿勢検出センサとして、2足歩行で角度が変化する各関節に角度センサが設けられ、これにより姿勢の変化により変化する各部の移動量を着床位置を基準にして制御部で把握できるようになされている。
また左右各々の下肢には、着床位置の切り換わりを検出する着床検出手段の一部構成として、歩行により変化する右脚、左脚への加重をそれぞれ計測する加重センサが設けられ、これによりこの加重センサによる測定結果を判定して、何れの側に足が現在接地しているか等を判定できるようになされている。なおこの実施の形態において、この加重センサにおいては、両足の足底の接地する部位に設けるようになされているが、加重センサにおいては、足底と同様の加重の変化を受ける足首、膝関節、股関節等に設けるようにしてもよい。
また脚式移動ロボット1においては、外部観測センサとして、頭部の目の部分に、1対の撮像機構が設けられ、この1対の撮像機構による撮像結果を制御部で処理することにより、いわゆるステレオ視の手法により障害物の座標、ユーザーの座標等を把握できるようになされている。
また脚式移動ロボット1においては、同様の外部観測センサとして頭部に複数のマイクによる音声取得機構が設けられ、これによりこの音声取得機構で取得される音声信号を制御部で解析して、持ち主の音声を検出し、またこの音声の到来方向を把握できるようになされている。
図4は、このような各部の動作を制御統合する制御部の一部構成を示す機能ブロック図である。この制御部10は、メモリに記録された所定の処理プログラムを実行するコンピュータにより構成され、この処理プログラムの実行によりそれぞれ所定の機能を担う各種モジュールが構成されて全体動作を制御するようになされている。
これらのモジュールのうち、認識器10A〜10Cは、頭部に設けられた撮像機構11、音声取得機構12による外部観測センサで取得した撮像結果、音声信号を処理してこのロボットの周囲を観測し、その観測結果を出力する。ここでこの実施の形態では、撮像結果の画像認識により、ボールを形状により認識する認識器、色によりボールを認識する認識器、人物の顔を認識する認識器、障害物を認識する認識器等が設けられるようになされている。
これらの認識器10A〜10Cは、外部観測センサに対応するセンサ座標系により観測結果を出力する。また各認識器10A〜10Cにおいては、外部観測センサの出力を逐次処理し、処理対象を取得した時刻情報と共に認識結果を出力する。これによりこれら認識器10A〜10Cは、それぞれ外部観測センサを介して外部環境を観測し、外部観測センサに対応するセンサ座標系により観測結果を出力する観測手段を構成し、この実施の形態では、2足歩行により姿勢の変化により変化する観測結果の座標を時刻情報と共に順次出力するようになされている。
移動量キネマティクス計算部10Dは、加重センサ13による加重検出結果を判定することにより着床脚を検出する。ここで着床脚は、このロボットの加重がかかっている側の足であり、単脚支持期においては、床に接地した側の足が着床脚である。また両足が接地した両脚支持期においては、それまでの着床脚が適用されるようになされている。
移動量キネマティクス計算部10Dは、具体的に、右脚及び左脚に設けられた加重センサ13で検出される加重値の差分値を所定のしきい値により判定することにより、2つの足の加重差が一定期間しきい値を超えている時に加重の重い方を着床脚(又は加重脚)とする。また立位などで2つの足の加重がほぼ均等である場合は、差分値がしきい値を超えないことにより、着床脚は前の状態を引き継ぐ。
移動量キネマティクス計算部10Dは、このようにして検出した着床脚を基準にして、逐次、ロボット中心座標の原点座標(身体基準点である)について、移動量を検出して出力する。移動量キネマティクス計算部10Dは、この移動量の検出の処理を、角度センサ14により検出される関節角を基準にしたキネマティクス(幾何学運動学)により計算する。なおこのロボット中心座標の原点座標について、この実施の形態では、腰部に設定されるようになされている。
移動量キネマティクス計算部10Dは、このようにして検出される身体基準点の移動量を、着床脚の足底に設定された基準位置による座標系により身体基準点を表現してなる同次変換行列Tによる出力する。なお同次変換行列Tは、次式により表される。
Figure 0004911149
これにより移動量キネマティクス計算部10Dは、図5(A)に示すように、正面よりロボットを見て、2足方向において右脚を遊足にしている単脚支持期においては、左脚を着床脚に設定して、この左脚から新しい着床脚までの関節角を使って移動量を算出する(変換A)。またこの遊足が接地して所定値以上加重が加わって着床脚が切り換わると、基準座標であるロボット中心座標への変換も新しい着床脚のもの(変換B)に切り替える。しかしてこのようにして新しい着床脚により与えられる移動量にあっては、図5(B)にそれぞれ変換A及びBの符号に添え字を付して示すように、足が着床する度に離散的に与えられる。しかしながらその間の遊足時の姿勢の変化は、他方の変換Bにより与えられている。このため変換Aと変換Bを掛け合わせることで身体基準点においては、連続的に変化していることが判る。
すなわちこのような一連の移動を側面より見て図6に示すように、着床脚に設けられた角度センサ14により検出される関節角を基準にしたキネマティクスにより、この着床脚の足底に設定された基準位置である第1接地点による座標系(すなわち身体基準の座標系に対していわゆるローカル座標系である)により身体基準点P(t1)、P(t2)、P(t3)の移動量を順次計算し、また着床脚が切り換わって第2接地点によるローカル座標系により、同様にして身体基準点P(t3)、P(t4)、P(t5)の移動量を順次計算すると共に、身体基準点P(t1)、P(t2)、P(t3)の移動量については、第2接地点を基準にして変換し直すことにより、これら着床脚の切り換わりの前後で検出される身体基準P(t1)〜、P(t3)〜P(t5)の移動量においては、連続的に変化するように求められ、これによりこの実施の形態では、このような身体基準を基準にしてなる外部観察結果について、観測に係る対象物を正確に表現できるようになされている。
これらによりこの実施の形態において、胴体部及びこの胴体部に接続された下肢、上肢、頭部等は、基体及びこの基体に接続された複数の可動部を構成し、この胴体部に設けられた身体基準の座標系がこのロボットの基準座標系を構成するようになされている。また2つの下肢には、それぞれ床面と接地する第1及び第2の接地位置に設けられた第1及び第2のローカル座標系が設けられ、角度センサ14、移動量キネマティクス計算部10Dが、第1のローカル座標系に基づいて基準座標系の移動量を算出する第1の移動量算出手段と、第2のローカル座標系に基づいて基準座標系の移動量を算出する第2の移動量算出手段と、第1のローカル座標系と第2のローカル座標系とのローカル座標系間距離を算出する手段とを構成するようになされ、この角度センサ14、移動量キネマティクス計算部10Dにより、基準座標系の移動量を、第1のローカル座標系に基づく基準座標系の移動量と、第2のローカル座標系に基づく基準座標系の移動量と、ローカル座標系間距離とに基づいて算出するようになされている。
移動量キネマティクス計算部10Dは、このような接地点から身体基準点までの座標変換の他に、身体基準点から外部観側センサの取り付け位置までの座標変換を同様に関節角から算出して返す。またこのようにして変化する着床位置の移動量を、着床脚の切り換わりにより算出して出力する。またこれらの情報(以下、適宜姿勢情報と呼ぶ)に時刻情報を設定して出力する。
統合記憶部10Eは、認識器10A〜10Cによる認識結果を統合して記憶し、行動記述部10Fからの要求により記憶した認識結果を出力する。ここで行動記述部10Fは、このロボットの歩行に係る目標軌道を計画し、またこの計画軌道を統合記憶部10Eにおける統合結果により修正しながら図示しないモジュールにコマンドを発行することにより、例えば障害物を避けるように、さらには好みのボールを追跡するように、このロボットを移動させるモジュールである。
統合記憶部10Eは、この行動記述部10Fにおける処理を容易とするために、ロボット中心座標により観測結果を統合する。すなわち認識結果をロボット中心の座標表現で表せば、自分から見てボールが右にあれば右に旋回する等記述が可能になり、これによりワールド座標による座標(x1、y1)の位置にボールがあると記述する場合に比して、記述を簡略化することができる。
すなわち統合記憶部10Eは、次式の演算処理により、認識結果の時刻情報を基準にして、所定の基準座標系である着床脚の底面を基準にした自己中心座標に、認識結果を変換する。またこのとき2足歩行による姿勢の変化により変化する着床位置に対する移動量により補正して座標変換する。なおここでTは、(1)式について上述した座標変換を表す同次変換行列であり、このTの左側の添え字は元になる座標系を示し、またTの右側の添え字は変換後の座標系を示す。またこの添え字のlfは左脚底座標系を示し、rfは右脚底座標系を示す。またb は、ロボット中心である身体基準座標系を示し、s はセンサ座標系を示し、()の内部は時刻を表す。また小文字がベクトルでの認識対象の位置を示す。これにより(2)式の例では、時刻tにおける左脚底から基準座標への変換の後に、基準座標からセンサ座標への変換でセンサ座標系の対象物体の位置をかけることで左脚底座標系での対象物体の位置を示していることになる。かくするにつき、この(2)式を構成するlfb (t)、 bT(t)においては、移動量キネマティクス計算部10Dより得られる姿勢情報であり、また sv(t)においては、認識器10A〜10Cから得られるセンサ座標系による認識結果である。
Figure 0004911149
統合記憶部10Eは、移動量キネマティクス計算部10D、認識器10A〜10Cの出力を一旦メモリ(いわゆるキューである)に記録して保持し、認識結果に係る時刻情報に対応するデータが揃った時点で(この場合、認識の処理に最も時間を要することにより、認識結果が得られた時点である)、キューを検索して(2)式の演算処理を実行することにより、このような処理を認識結果に設定された時刻情報を基準にして、対応する時刻による移動量により実行する。
すなわち図7に示すように、それぞれ時刻t+1、t+2、t+3により得られる認識結果 sv(t+1)、 sv(t+2)、 sv(t+3)を対応する時刻の姿勢情報lfb (t+1)、lfb (t+2)、lfb (t+3)、 bT(t+1)、 bT(t+2)、 bT(t+3)に掛け合わせることにより、認識結果を左脚からの座標表現に順次変換する。統合記憶部10Eは、これにより認識結果を統合し、このようにして座標変換してなる認識結果を所定期間記録して保持する。
これに対して時刻t+4において、右脚が着床すると、移動量キネマティクス計算部10Dから移動量lfrf(t+4)が通知される。またそれまでの左脚を基準にした姿勢情報lfTb (t)に代えて右脚を基準にした姿勢情報rfb (t)が順次入力される。これによりこの時点t+4以降において、統合記憶部10Eは、同様に、この右脚を基準にした姿勢情報rfb (t)を用いて(2)式の演算処理を実行し、認識変化を右脚からの座標表現に順次変換する。これにより統合記憶部10Eにおいては、着床脚の切り換わりを何ら管理することなく、順次得られる認識結果を処理し得るようになされている。
統合記憶部10Eは、このような着床による基準を切り換えてなる認識結果が、記録して保持した認識結果に対応するように、移動量キネマティクス計算部10Dから移動量lfrf(t+4)の通知により、記録して保持したこの移動量の時刻により過去の認識結果を座標変換する。ここでこの座標変換においては、記録して保持した認識結果lfv(t+1)、lfv(t+2)、lfv(t+3)に対して、移動量キネマティクス計算部10Dから通知された移動量lfrf(t+4)の逆行列( lfrf(t+4))-1を掛け合わせて実行される。
これにより統合記憶部10Eにおいては、記録して保持した認識結果との間においても、容易に認識結果を統合して処理し得るようになされている。具体的に、過去に逆上った観測結果のフィルタリング、異なるセンサの異なる時刻の認識結果の関連性を調べることが可能になる。
より具体的にボールに係る認識結果を例に取って説明すると、図8に示すように、時点t1、t3でそれぞれセンサ座標系によるボールの観測結果 cball(t1)、 cball(t3)が検出され、時点t1では左脚が着床脚であったものが、時点t2で右脚が着床し、続く時点t3では右脚が着床脚となっている場合、時点t1におけるセンサ座標系によるボールの観測結果 cball(t1)、基準座標系におけるセンサ座標系の原点座標による姿勢情報 rc (t1)を用いて、時点t1におけるボールの位置 rball(t1)は、 rball(t1)= rc (t1)・ cball(t1)により表される。なおこの図8の例では、センサ座標系との関係を分かり易くするために基準座標系の原点を、腰部の上方、センサ座標系の原点、後方に設定した例により示す。しかしてこの場合、この時点t1における基準座標は、左脚に係るローカル座標系によりlfr (t1)により表される。
この状態で時点t2で右脚が着床すると、この時点t2における左脚の接地点から右脚の接地点までの移動量であるローカル座標間距離、すなわち左脚に係るローカル座標系により第2接地点は、lfrf(t2)により表すことができ、これにより時点t1の基準座標lfr (t1)は、この移動量lfrf(t2)の逆行列(lfrf (t2))-1を掛け合わして(lfrf(t2))-1lfr (t1)により第2接地点を基準にして表すことができる。また同様に、時点t1に係るボールの位置 rball(t1)は、逆行列(lfrf(t2))-1を掛け合わして(lfrf(t2))-1 rball(t1)により第2接地点を基準にして表すことができる。
これに対して時点T3で検出されるボールの位置 rball(t3)は、第2接地点を基準にして rball(t3)= rc (t3)・ cball(t3)により表され、また基準座標においても同様にrfr (t3)により表される。これらによりこれら時点t1〜t3における観測結果、基準座標においては、何れも右脚(第2接地点)を基準にして表現され、これらにより順次得られる認識結果を処理し得ることが判る。
これに対して図9(A)は、時刻t1による顔認識器による認識結果(Face)と、時刻t3による音声認識器による認識結果(Voice)について、統合記憶部10Eにおける統合の処理の説明に供する略線図である。統合記憶部10Eにおいては、これらの認識結果を統合して図9(B)に示すように、姿勢の変化により自己が移動した場合に、この2つの認識結果の座標を移動量により補正して重なり合うと判断できる場合には、この異なる時点による顔認識器及び音声認識器に係る認識結果が同一の人物に係る認識結果であると判断し、この人物の存在する方向を自己中心座標より正しく把握するようになされている。
また図10(A)に示すように、時点t1、t2、t3における色認識器の認識結果より、ピンク色の物体(Pink)が移動していると判断できる場合に、これらの時点の1つの時点t1に対応するボール認識器による認識結果において、ボールの形状による物体(Round)の座標がピンク色の物体の座標とほぼ一致していると判断できる場合、統合記憶部10Eにおいては、このピンク色の物体にあっては、ピンク色のボールであると把握し、これにより認識結果を自己中心座標により正しく統合して把握するようになされている。
これらによりこの脚式移動ロボット1において、撮像機構、音声取得機構は、外部観測センサを構成し、認識器10A〜10Cは、この外部観測センサを介して外部環境を観測し、外部観測センサに対応するセンサ座標系により観測結果を出力する観測手段を構成するようになされている。また各関節に設けられた角度センサは、外部観測センサから着床位置までの間の関節について、姿勢の変化に係る関節の角度を検出する姿勢検出センサを構成し、左右の脚に設けられた加重センサは、移動量キネマティクス計算部10Dと共に、着床位置の切り換わりを検出する着床検出手段を構成するようになされている。また統合記憶部10Eは、移動量キネマティクス計算部10Dと共に、観測手段による観測結果の座標を所定の基準座標系による座標に変換する座標変換手段を構成し、この実施の形態では、観測結果の時刻情報を基準にして、姿勢検出センサによる検出結果から、姿勢の変化により変化する着床位置に対する移動量を検出し、この移動量により補正して、観測結果の座標を所定の基準座標系による座標に変換し、また着床検出手段による着床位置の切り換わりの検出により、移動量の検出に供する着床位置を切り換えるようになされている。
[第1の実施の形態の動作]
以上の構成において、この脚式移動ロボットにおいては、胴体部に設けられた制御部における行動記述部10Fにより各部に設けられたアクチュエータが駆動され、これにより2足歩行により歩行して移動する。脚式移動ロボット1においては、この2足歩行に係る足の関節に係る姿勢の変化により、右脚、左脚が交互に着床し、これにより姿勢の変化により着床位置が動的に変化して行動記述部10Fによる制御に従って移動する。
脚式移動ロボット1においては、このような移動において、加重がかかっている側の足が足に設けられた加重センサにより移動量キネマティクス計算部10Dで検出される。またこのようにして検出される加重脚である着床脚を基準にして、各関節に設けられた角度センサにより検出される関節角を基準にしたキネマティクスにより移動量が検出される。またこのような移動量により着床位置に対する身体基準点の同次変換行列が生成され、この同次変換行列による姿勢情報が統合記憶部10Eに出力される。
また頭部に設けられた外部認識センサによる撮像結果、音声取得結果が認識器10A〜10Cにより処理され、これら外部認識センサによる座標系を基準にした認識結果が時刻情報と共に統合記憶部10Eに出力される。
また身体基準点からこのような外部認識センサに係る部位までの関節に設けられた角度センサに基づいて、センサ座標系による認識結果を身体基準点の座標系に変換する同次変換行列が移動量キネマティクス計算部10Dで生成され、この同次変換行列による姿勢情報が時刻情報と共に統合記憶部10Eに出力される。
脚式移動ロボット1においては、このようにして検出される着床位置を基準にして身体基準点を表現する同次変換行列による姿勢情報、身体基準点を基準にしてセンサ座標系を表現する同次変換行列による姿勢情報、センサ座標による認識結果が、認識結果に係る時刻情報を基準にして処理され、着床位置を基準にして認識結果が表現される。
またこのような処理基準である身体基準の基準座標系についても、接地点の切り換わりにより座標変換して連続的な移動量により表現される。
これによりロボットにおいては、胴体部に設けられたロボット中心座標系で表現される観測結果において、歩幅による誤差を含む場合にあっても、またコマンドの発行と、実際の移動時刻とで時刻がずれる場合であっても、センサにより把握された観測結果を正確に表現することができる。また、例えば図17について上述した時点t2における認識結果のように、旋回途中に得られる認識結果についても、センサの移動による観測結果の座標変換を補正して前後の認識結果と比較し得、これにより認識結果が不定となるような状況を有効に回避することができる。これらにより脚式移動ロボット1においては、姿勢の変化により変化する環境に対して認識結果を正確に表現することができ、さらには異なる時刻の認識結果の統合を容易とすることができる。また後述するように、このように接地点、姿勢の管理モジュールである行動記述部10F、統合モジュールである統合記憶部10Eを明確に分離して構成し得、行動記述部10Fにおける行動の記述を容易とすることができる。
脚式移動ロボット1においては、このような認識結果に係る座標変換が、認識結果に設定された時刻情報により対応する姿勢情報により処理されて実行される。また認識結果にあっては、記録して保持され、統合記憶部10Eにより統合される。
脚式移動ロボット1においては、移動量キネマティクス計算部10Dにおいて、左右の脚に設けられた加重センサによる検出結果の差分値が所定のしきい値により判定され、これにより着床脚の切り換わりが検出される。しかしてこの場合、所定のしきい値と差分値との比較により着床脚の切り換わりを判定することにより、両脚支持期等における加重脚の誤検出を有効に回避するようになされている。
脚式移動ロボット1においては、このような着床脚の切り換わりが検出されると、胴体基準の姿勢情報に係る基準が切り換えられ、以降においては、この新たな着床脚を基準にした姿勢情報が順次出力される。また着床脚の切り換わりにより、この着床脚の切り換わりによる移動量が検出され、統合記憶部10Eに出力される。これにより統合記憶部10Eにおいては、認識結果の座標変換については、それまでと同様に、着床位置を基準にして身体基準点を表現する姿勢情報、身体基準点を基準にしてセンサ座標系を表現する姿勢情報、センサ座標による認識結果と時刻情報を基準にして処理して、着床位置を基準にして認識結果を表現し、着床脚の切り換わりを何ら管理することなく、順次得られる認識結果を処理し得るようになされている。
またこのような着床脚の切り換わり以前に、座標変換して記録してなる認識結果においては、この着床脚の切り換わりによる移動量を示す同次変換行列の逆行列を掛け合わせて座標変換し、新たな着床脚を基準にした座標系により表現されて記録される。これによりこの脚式移動ロボット1においては、単に、同一の時刻による複数の認識結果間だけでなく、異なる時刻に係る複数の認識結果間についても、認識結果を容易かつ確実に統合し得、この分、行動等を適切化することができる。
すなわち脚式移動ロボット1においては、このようにして統合記憶部10Eに記録される認識結果が統合され、お気に入りのボール、障害物等が着床位置を基準にして表現され、これらの認識結果を基準にして例えばボールを追跡するように、さらには障害物を避けるように移動する。
[第1の実施の形態の効果]
以上の構成によれば、接地点の切り換わりにより座標変換して基準座標系の移動量を表すことにより、観測に係る対象物を正確に表現することができる。
すなわち基準座標系の移動量に基づいて、センサによる計測値の座標を補正することにより、観測に係る対象物を正確に表現することができる。
また接地の切り換わりに応動して、記録して保持した補正結果を座標変換することにより、接地の前後に係る観察結果を簡易かつ確実に処理することができ、これによっても一段と観測に係る対象物を正確に表現することができる。
またそれまで接地していた部位から次に接地した部位までの移動量をキネマティクスにより算出し、このような接地した部位の切り換わりにより、観測の基準となる座標系への座標変換を切り換えることにより、観測に係る対象物を正確に表現できる。
またこのような姿勢の変化による着床位置の動的な変化が、2足歩行による左右の脚の着床位置の変化であり、姿勢検出センサが、左右の脚の関節に設けられた角度センサであり、着床検出手段が、左右の脚に加わる加重の値を検出する加重センサと、この加重センサで検出される加重値の差分値を所定のしきい値により判定する判定手段であることにより、両脚支持期等における加重脚の誤検出を有効に回避することができる。
また座標変換結果を記録して保持し、着床検出手段による着床位置の切り換わりの検出により、記録して保持した座標変換結果を、該着床位置の切り換えに対応するように変換することにより、順次座標変換してなる認識結果と、記録して保持した過去の認識結果との間で整合性を図ることができ、これにより認識結果の統合を容易とすることができる。
またこのように記録して保持した座標変換結果を統合して行動に反映させることにより、自立的な行動を的確なものとすることができる。
またこのような座標変換に係る基準座標が、着床脚の底面を基準にした自己中心座標であることにより、行動の記述を容易とすることができる。
〈第2の実施の形態〉
この実施の形態においては、上述した認識結果の座標変換に係る基準をワールド座標に設定する。なおこの実施の形態では、この基準座標に係る処理が異なる点を除いて、第1の実施の形態と同様に構成されることにより、以下においては、適宜、第1の実施の形態の構成を流用して説明する。
ここで図11に示すように、統合記憶部においては、ワールド座標系における着床脚の姿勢情報として初期値 wlf(t)を把握しているものとする。この脚式移動ロボット1においては、この初期値 wlf(t)に係る左脚を着床脚に設定して歩行を開始し、移動量キネマティクス計算部10Dより出力されるこの左脚を基準にした姿勢情報により、ワールド座標系に認識結果を座標変換する。かくするにつきこの場合、図7について説明した演算処理に対して、初期値 wlf(t)に係る変換行列が掛け合わされていることにより、着床脚を基準にした座標系に代えて、ワールド座標系により認識結果が表されることになる。
また着床脚の切り換わりにより、移動量キネマティクス計算部10Dより出力される移動量により基準となる着床脚に係る初期値 wlf(t)を更新して右脚に係る変換行列 wrf(t)を生成し、以降の処理においては、この右脚に係る変換行列 wrf(t)によりセンサ座標系による認識結果を処理する。
かくするにつき図12は、このようにしてワールド座標系における認識結果を行動経路と共に示す障害物環境地図である。この認識結果においては、壁面と床面との間の境界の有無により床面を認識し、また同様の画像処理により障害物を認識し、各時刻における距離データに基づき確率的に2次元グリッドの情報をこのような認識結果により更新して作成したものである。また計画経路にあっては、このような障害物を避けて床面を移動するように計画されたもので、図11に示す状態にあっては、この計画経路を途中まで移動した状態である。このタスクでは動きながら観測を行い時間方向に統合が行われるので、従来の手法によっては最大で一歩の誤差を含んでいた観測結果が正確に表現されて正しい認識を行うことができた。
このようにワールド座標系に基準座標を設定する場合にあっては、各認識結果における座標変換においては、演算処理が増大するものの、着床脚の切り換えに係る記録して保持した認識結果に対する逆行列による掛け合わせを実行しなくても良いことにより、その分、処理を簡略化して第1の実施の形態と同様の効果を得ることができる。
なおこのような処理においては、認識結果については、ワールド座標系で表現しておき、行動記述部に対して認識結果を通知する際に、このワールド座標系による認識結果を着床脚を基準にしたローカル座標系に座標変換して通知するようにしてもよい。
〈変形例〉
なお上述の実施の形態においては、本発明を2足歩行に係る姿勢の変化に適用する場合について述べたが、本発明はこれに限らず、例えば図13に示すように屈脚座りに係る姿勢の変化の場合等、種々の姿勢変化に広く適用することができる。なおこの図13に示す例においては、屈脚座り姿勢で足底がついている状態(図13(A))から足底がついていない状態(図13(B))に姿勢が遷移した場合である。この場合、屈脚座り姿勢で最も安定して接地しているお尻を接地点と定義することでこの姿勢の遷移が起こったときには足底からお尻までの順運動学を解き、移動量を算出して通知することができる。またこれとは逆に、お尻接地点からの姿勢変換を同様にして統合部に返すことで、統合部でもまったく同じ方法で観測の統合を行う事ができる。つまり姿勢変換前の認識結果と姿勢変換後の認識結果の統合処理が可能となっている。
またこのような単なる加重位置による着床位置の切り換わりだけでなく、図14(A)〜(C)にそれぞれ直立した姿勢、おじぎした姿勢、寝姿による状態を示すように、各種姿勢の変化による接地位置の変化等に種々に適用することもでき、この場合にも姿勢変換前の認識結果と姿勢変換後の認識結果の統合処理が可能となる。
また上述の実施の形態においては、着床脚の足底、ワールド座標系を基準座標に設定して座標変換する場合について述べたが、本発明はこれに限らず、ロボットの身体基準点により認識結果を表現する場合等にも広く適用することができる。
また上述の実施の形態においては、接地点の切り換わりにより過去の記録した観測結果を座標変換する場合について述べたが、本発明はこれに限らず、このような座標変換の時点にあっては、例えば観察結果の処理時点に実行する場合等、必要に応じて種々のタイミングに設定することができる。
また上述の実施の形態においては、本発明を2足歩行ロボットに適用する場合について述べたが、本発明はこれに限らず、4足歩行ロボット等にも広く適用することができる。
本発明は、ロボット装置及びロボット装置の制御方法に関し、例えば脚式移動ロボットに適用することができる。
本発明の第1の実施の形態に係るロボットを正面側より見て示す斜視図である。 図1のロボットを背面側より見て示す斜視図である。 図1のロボットの関節自由度の説明に供する略線図である。 図1のロボットにおける制御部の一部構成を示す機能ブロック図である。 着床脚の切り換えの説明に供する略線図である。 基準座標系の移動量の説明に供する略線図である。 統合記憶部における座標変換の説明に供する図表である。 ボールの観察結果に係る座標変換の説明に供する略線図である。 統合記憶部における認識結果の統合の説明に供する略線図である。 図9の例とは異なる例による認識結果の統合の説明に供する略線図である。 本発明の第2の実施の形態に係るロボットにおける座標変換の説明に供する図表である。 図11の認識結果による統合の説明に供する略線図である。 屈脚座りに係る座標変換の説明に供する略線図である。 他の例による座標変換の説明に供する略線図である。 従来の4足歩行に係るロボットにおける認識結果の処理の説明に供する略線図である。 従来の2足歩行に係るロボットにおける認識結果の処理の説明に供する略線図である。 旋回時における認識結果の処理の説明に供する略線図である。
符号の説明
10……制御部、10A〜10C……認識器、10D……移動量キネマティクス計算部、10E……統合記憶部、10F……行動記述部、11……撮像手段、12……音声取得手段、13……加重センサ、14……角度センサ

Claims (12)

  1. 姿勢の変化により着床位置が動的に変化するロボット装置において、
    外部観測センサを介して外部環境を観測し、前記外部観測センサに対応するセンサ座標系により観測結果を出力する観測手段と、
    少なくとも前記外部観測センサから前記着床位置までの間の関節について、前記姿勢の変化に係る関節の角度を検出する姿勢検出センサと、
    前記着床位置の切り換わりを検出する着床検出手段と、
    前記観測手段による前記観測結果の座標を所定の基準座標系による座標に変換する座標変換手段とを備え、
    前記観測手段は、
    前記姿勢の変化により変化する前記観測結果の座標を時刻情報と共に順次出力し、
    前記座標変換手段は、
    前記観測結果の時刻情報を基準にして、前記姿勢検出センサによる検出結果から、前記姿勢の変化により変化する前記着床位置に対する前記外部観測センサの移動量を検出し、前記観測結果に係る時刻情報に対応するデータが揃った時点で、対応する時刻による前記移動量により補正して、前記観測結果の座標を前記基準座標系による座標に変換し、
    前記着床検出手段による着床位置の切り換わりの検出により、
    前記移動量の検出に供する座標系を切り換える
    ことを特徴とするロボット装置。
  2. 前記姿勢検出センサが、
    前記左右の足の関節に設けられた角度センサであり、
    前記着床検出手段が、
    前記左右の足に加わる加重の値を検出する加重センサと、
    前記加重センサで検出される加重値の差分値を所定のしきい値により判定する判定手段である
    ことを特徴とする請求項1に記載のロボット装置。
  3. 前記座標変換手段は、
    前記座標変換結果を記録して保持し、
    前記着床検出手段による着床脚の切り換わりの検出により、
    記録して保持した座標変換結果を、該着床脚の切り換えに対応するように変換する
    ことを特徴とする請求項1に記載のロボット装置。
  4. 前記座標変換手段に記録して保持した座標変換結果を統合して行動に反映させる行動記述手段を有する
    ことを特徴とする請求項3に記載のロボット装置。
  5. 前記基準座標系が、前記左右の足の底面を基準にした自己中心座標である
    ことを特徴とする請求項2に記載のロボット装置。
  6. 前記基準座標系が、ワールド座標である
    ことを特徴とする請求項1に記載のロボット装置。
  7. 姿勢の変化により着床位置が動的に変化するロボット装置の制御方法において、
    外部観測センサを介して外部環境を観測し、前記外部観測センサに対応するセンサ座標系により観測結果を出力する観測の処理と、
    前記着床位置の切り換わりを検出する着床検出処理と、
    前記観測の処理による前記観測結果の座標を所定の基準座標系による座標に変換する座標変換処理とを備え、
    前記観測の処理は、
    前記姿勢の変化により変化する前記観測結果の座標を時刻情報と共に順次出力し、
    前記座標変換処理は、
    前記観測結果の時刻情報を基準にして、
    少なくとも前記外部観測センサから前記着床位置までの間の関節について、前記姿勢の変化に係る関節の角度を検出する姿勢検出センサによる検出結果から、前記姿勢の変化により変化する前記着床位置に対する前記外部観測センサの移動量を検出し、
    前記観測結果に係る時刻情報に対応するデータが揃った時点で、対応する時刻による前記移動量により補正して、前記観測結果の座標を前記基準座標系による座標に変換し、
    前記着床検出処理による着床位置の切り換わりの検出により、
    前記移動量の検出に供する着床位置を切り換える
    ことを特徴とするロボット装置の制御方法。
  8. 前記姿勢の変化による着床位置の動的な変化が、
    二足歩行による左右の足の着床位置の変化であり、
    前記姿勢検出センサが、
    前記左右の足の関節に設けられた角度センサであり、
    前記着床検出の処理が、
    前記左右の足に加わる加重の値を検出する加重センサによる加重値の差分値を所定のしきい値により判定する判定の処理である
    ことを特徴とする請求項7に記載のロボット装置の制御方法。
  9. 前記座標変換の処理は、
    前記座標変換結果を記録して保持し、
    前記着床検出手段による着床位置の切り換わりの検出により、
    記録して保持した座標変換結果を、該着床位置の切り換えに対応するように変換する
    ことを特徴とする請求項7に記載のロボット装置の制御方法。
  10. 前記座標変換の処理により記録して保持した座標変換結果を統合して行動に反映させる行動記述の処理を有する
    ことを特徴とする請求項9に記載のロボット装置の制御方法。
  11. 前記基準座標系が、前記左右の足の底面を基準にした自己中心座標である
    ことを特徴とする請求項8に記載のロボット装置の制御方法。
  12. 前記基準座標系が、ワールド座標である
    ことを特徴とする請求項7に記載のロボット装置の制御方法。
JP2008225547A 2003-03-27 2008-09-03 ロボット装置及びロボット装置の制御方法 Expired - Fee Related JP4911149B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008225547A JP4911149B2 (ja) 2003-03-27 2008-09-03 ロボット装置及びロボット装置の制御方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003087682 2003-03-27
JP2003087682 2003-03-27
JP2008225547A JP4911149B2 (ja) 2003-03-27 2008-09-03 ロボット装置及びロボット装置の制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004092837A Division JP4284609B2 (ja) 2003-03-27 2004-03-26 ロボット装置及びロボット装置の制御方法

Publications (2)

Publication Number Publication Date
JP2008284690A JP2008284690A (ja) 2008-11-27
JP4911149B2 true JP4911149B2 (ja) 2012-04-04

Family

ID=33095103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008225547A Expired - Fee Related JP4911149B2 (ja) 2003-03-27 2008-09-03 ロボット装置及びロボット装置の制御方法

Country Status (6)

Country Link
US (1) US7437214B2 (ja)
EP (1) EP1607195B1 (ja)
JP (1) JP4911149B2 (ja)
CN (2) CN101531216B (ja)
DE (1) DE602004030893D1 (ja)
WO (1) WO2004085121A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7046110B2 (ja) 2020-02-21 2022-04-01 株式会社ソニー・インタラクティブエンタテインメント センサ制御装置、センサ制御方法およびプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4178186B2 (ja) * 2003-08-21 2008-11-12 国立大学法人 筑波大学 装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム
JP4961860B2 (ja) * 2006-06-27 2012-06-27 トヨタ自動車株式会社 ロボット装置及びロボット装置の制御方法
JP2008152362A (ja) * 2006-12-14 2008-07-03 Konami Digital Entertainment:Kk ゲームプログラム、ゲーム装置及びゲーム制御方法
JP4714779B2 (ja) 2009-04-10 2011-06-29 東光株式会社 表面実装インダクタの製造方法とその表面実装インダクタ
KR20120069924A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그 제어 방법
CN102736622B (zh) * 2011-03-31 2015-08-19 科沃斯机器人有限公司 多功能机器人系统及机器人本体寻找模块部的控制方法
US9412010B2 (en) * 2011-07-15 2016-08-09 Panasonic Corporation Posture estimation device, posture estimation method, and posture estimation program
US9387588B1 (en) * 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
CN104709374B (zh) * 2015-02-13 2017-03-08 中国北方车辆研究所 一种防止足式机器人左右倾斜的方法
JP2016187844A (ja) 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US9984540B2 (en) * 2015-12-17 2018-05-29 Harman International Industries, Incorporated Fan-driven force device
CN107121128B (zh) * 2017-05-27 2022-04-05 中国北方车辆研究所 一种足式机器人地形参数的测量方法及系统
CN110073637B (zh) * 2017-11-24 2022-05-13 乐博益思株式会社 主机设备及从机设备、以及包括其的识别号设定装置
DE112019000125B4 (de) * 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
CN113190164A (zh) * 2021-05-14 2021-07-30 歌尔股份有限公司 一种设备的操作方法、系统及设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3273443B2 (ja) 1992-05-22 2002-04-08 本田技研工業株式会社 ロボットのリンクなどの軌道生成方法及び装置
US5872893A (en) * 1996-07-25 1999-02-16 Honda Giken Kogyo Kabushiki Kaisha Gait generation system of legged mobile robot
JP3626303B2 (ja) * 1996-12-18 2005-03-09 本田技研工業株式会社 脚式移動ロボットの足底接地位置検出装置
US6243623B1 (en) * 1997-01-31 2001-06-05 Honda Giken Kogyo Kabushiki Kaisha Leg type mobile robot control apparatus
JP3629133B2 (ja) 1997-01-31 2005-03-16 本田技研工業株式会社 脚式移動ロボットの制御装置
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP4480843B2 (ja) * 2000-04-03 2010-06-16 ソニー株式会社 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
JP3634238B2 (ja) * 2000-05-19 2005-03-30 本田技研工業株式会社 脚式移動ロボットの床形状推定装置
JP3726009B2 (ja) * 2000-05-19 2005-12-14 本田技研工業株式会社 脚式移動ロボットの床形状推定装置
KR100661333B1 (ko) * 2000-11-17 2006-12-27 혼다 기켄 고교 가부시키가이샤 레그식 이동 로봇의 보용 생성장치
JP3726032B2 (ja) * 2001-04-27 2005-12-14 本田技研工業株式会社 脚式移動ロボットの目標運動生成装置
JP2003136439A (ja) * 2001-11-06 2003-05-14 Sony Corp ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP3568527B2 (ja) * 2002-03-18 2004-09-22 ソニー株式会社 移動体装置
EP2106886B1 (en) * 2002-04-26 2011-03-23 Honda Giken Kogyo Kabushiki Kaisha Self-position estimating device for leg type movable robots
JP3660332B2 (ja) * 2002-08-29 2005-06-15 独立行政法人科学技術振興機構 脚式移動装置の歩行・走行制御方法および脚式移動装置の歩行・走行制御装置
US7054718B2 (en) * 2002-10-11 2006-05-30 Sony Corporation Motion editing apparatus and method for legged mobile robot and computer program
JP4127043B2 (ja) * 2002-12-11 2008-07-30 ソニー株式会社 脚式移動ロボット並びに脚式移動ロボットの関節軸として適用されるアクチュエータ装置
JP4592276B2 (ja) * 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7046110B2 (ja) 2020-02-21 2022-04-01 株式会社ソニー・インタラクティブエンタテインメント センサ制御装置、センサ制御方法およびプログラム

Also Published As

Publication number Publication date
JP2008284690A (ja) 2008-11-27
DE602004030893D1 (de) 2011-02-17
US20050222709A1 (en) 2005-10-06
EP1607195B1 (en) 2011-01-05
EP1607195A4 (en) 2009-01-07
US7437214B2 (en) 2008-10-14
EP1607195A1 (en) 2005-12-21
WO2004085121A1 (ja) 2004-10-07
CN101531216B (zh) 2011-01-05
CN1697724A (zh) 2005-11-16
CN101531216A (zh) 2009-09-16
CN100571999C (zh) 2009-12-23

Similar Documents

Publication Publication Date Title
JP4911149B2 (ja) ロボット装置及びロボット装置の制御方法
US20190278295A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
KR100898435B1 (ko) 로봇 장치 및 그 제어 방법
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
US8315454B2 (en) Robot apparatus and method of controlling the behavior thereof
JP3945279B2 (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
US20210394362A1 (en) Information processing device, control method, and program
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP7035309B2 (ja) マスタスレーブシステム
JP2003271975A (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置
JP2018513496A (ja) 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
US9193070B2 (en) Robot, control system for controlling motion of a controlled object, and recording medium for control program for controlling motion of a controlled object
KR20170138977A (ko) 보행 로봇 및 그의 위치 인식과 지도 작성을 동시에 수행하는 방법
US20240153314A1 (en) Engagement Detection and Attention Estimation for Human-Robot Interaction
JP6270334B2 (ja) ロボット制御装置及び方法
JP4284609B2 (ja) ロボット装置及びロボット装置の制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2003266348A (ja) ロボット装置及びその制御方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
KR101568084B1 (ko) 이족보행로봇의 보행 모방 제어장치
JP2011235380A (ja) 制御装置
JP2005271137A (ja) ロボット装置及びその制御方法
JP5539000B2 (ja) 制御装置
US20240149458A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080903

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090331

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120102

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees