JP4476468B2 - Legged mobile robot - Google Patents

Legged mobile robot Download PDF

Info

Publication number
JP4476468B2
JP4476468B2 JP2000345820A JP2000345820A JP4476468B2 JP 4476468 B2 JP4476468 B2 JP 4476468B2 JP 2000345820 A JP2000345820 A JP 2000345820A JP 2000345820 A JP2000345820 A JP 2000345820A JP 4476468 B2 JP4476468 B2 JP 4476468B2
Authority
JP
Japan
Prior art keywords
mobile robot
legged mobile
distance
external sensor
leg
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000345820A
Other languages
Japanese (ja)
Other versions
JP2002144278A (en
Inventor
千秋 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2000345820A priority Critical patent/JP4476468B2/en
Publication of JP2002144278A publication Critical patent/JP2002144278A/en
Application granted granted Critical
Publication of JP4476468B2 publication Critical patent/JP4476468B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、マニピュレータを備えた脚式移動ロボットに関し、特に、頭部、腕部、胴部、腰部、脚部などによって構成される人間型の脚式移動ロボットに関する。
【0002】
【従来の技術】
自立移動ロボットには、移動する際に床面や壁面や障害物などを検知するための装置が設けられている。例えば、特開平6−43935号公報には、走行方向とは交差する所定パターンのスリット光を照射する手段と、このスリット光による照射部分を撮像する手段と、撮像されたスリット光のパターンを解析して走行方向前方の障害物の有無を判定する手段とを備えた走行ロボットが開示されている。また、特開平6−83442号公報には、光切断法を用いて、スリット光の照射により障害物表面に形成される光切断線を基に三次元座標データを算出し、この三次元座標データに基づいてロボットの走行を制御する技術が開示されている。
【0003】
従来の二足歩行ロボットでは、床面の高さや傾斜が既知であることを前提に歩行パターンを決定していた。また、若干の高さ推定誤差はコンプライアンス制御によって吸収し、ロボットが転倒しないで歩行できるようにしていた。また、事前に床面を測定できない場合や、歩行経路を正確に補正できない場合や、未知の障害物などが出現した場合には、コンプライアンス制御だけでは不充分であり転倒につながるため、これにそなえて外部センサを持つ二足歩行ロボットも研究されている。脚および腕を備えている人間型ロボットにおいては、上記のような外部センサは頭部に設けられていた。
【0004】
【発明が解決しようとする課題】
しかしながら、マニピュレータを備えたロボット、特に人間型ロボットの外部センサを頭部に設けた場合には、次のような問題がある。
【0005】
第1の問題はマニピュレータの外部センサに対する干渉である。例えば、移動方向の床面を計測しようとする場合、頭部に設けられた光源から前方の床面を照射することになるが、マニピュレータによって照射光が遮られてしまうと、床面の充分な範囲を照射できない。また、例えば、人間型ロボットが腕に大きな荷物を抱えながら移動する場合などは、広い範囲にわたって照射光が遮られてしまう。
【0006】
第2の問題は外部センサの向きである。人間型ロボットでは、首関節部分の動きにより頭部を前後方向あるいは左右方向に傾けたり頭部の向きを変えたりする場合がある。また、胴部分の動きにより、ロボットの上半身を前後方向あるいは左右方向に傾けたり向きを変えたりする場合がある。これらの動きによって頭部に設けられた外部センサの向きが変わってしまうため、常に前方の床面の状態を適切に検出することができない。
【0007】
本発明は、上記のような事情を考慮してなされたものであり、マニピュレータを有するロボットにおいても、マニピュレータが測定に干渉せず、常に適切な状態で周囲の物体、特に下方の物体を検出し、距離の計測等を行うことのできる脚式移動ロボットを提供することを目的とする。
【0008】
また、特に、頭部、胴部、腕、脚などから成る人間型の脚式移動ロボットにおいて、腕が測定に干渉することがなく、かつ各関節部分を動かした場合にも常に良好な状態で進行方向の床面、壁面、障害物などを検出して距離を測定することのできる脚式移動ロボットを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記の課題を解決するために、本発明は、移動を目的として本体に結合されている脚部と、対象物を空間内で移動させるために前記本体に結合されているマニピュレータとを有し、前記マニピュレータと前記本体との結合部が前記脚部と前記本体との結合部よりも上に配置されている脚式移動ロボットにおいて、前記マニピュレータと前記本体との結合部よりも下でありかつ前記脚部と前記本体との結合部よりも上に、計測対象物体を検出する外部センサを備えていることを特徴とする脚式移動ロボットを要旨とする。
【0010】
また、本発明の脚式移動ロボットは、腰部を有する人間型ロボットであり、前記外部センサは、前記腰部にまたは前記腰部周辺に配置されていることを特徴とする。
【0011】
また、本発明の脚式移動ロボットにおいては、前記外部センサは、スリット光を照射する発光手段と該スリット光が前記計測対象物体上に形成する光切断線を撮像する撮像手段とを備えていることを特徴とする。
【0012】
また、本発明の脚式移動ロボットは、前記撮像手段によって撮像された画像を基に前記計測対象物体までの距離を算出する距離算出手段を備えていることを特徴とする。
【0013】
また、本発明の脚式移動ロボットは、前記距離算出手段によって算出された距離の情報を基に前記脚部の動きを制御する脚制御手段を備えていることを特徴とする。
【0014】
また、本発明の脚式移動ロボットは、前記撮像手段によって撮像された画像を基に光切断法を用いて周囲を監視することを特徴とする。
【0015】
また、本発明の脚式移動ロボットにおいては、前記撮像手段は少なくとも2個のカメラで構成され、これらのカメラで撮像された各画像の中の同一の物体を対応付け、この対応付けられた物体の視差を用いて当該物体までの距離を算出することを特徴とする。
【0016】
【発明の実施の形態】
以下、図面を参照しこの発明の一実施形態について説明する。図1は、同実施形態による脚式移動ロボットの要部構成を示すブロック図である。この構成は、ロボットの移動経路上およびその周辺の床面や壁面や障害物などを計測対象物体としてその距離を測定し、二足歩行時の足の着地位置が適切になるようにロボットの脚を制御することを目的とするものである。
【0017】
図1において、符号1は、計測対象物体(床面など)に対してマルチスリット光を照射するレーザ光源(発光手段)である。また、2aおよび2bは、それぞれレーザ光源1によるスリット光が照射された計測対象物体を撮像する狭基線長カメラ(撮像手段)および広基線長カメラ(撮像手段)である。狭基線長カメラ2aは相対的にレーザ光源1の近くに設け、広基線長カメラ2bは相対的にレーザ光源1から離れた位置に設けられている。つまり、本実施形態では、少なくとも2つのカメラを備え、第1のカメラとレーザ光源との距離が、第2のカメラと当該レーザ光源との距離と異なるように、カメラおよびレーザ光源を配置している。また、3は、レーザ光源1に対するタイミング信号を出力することにより、レーザ光源1の発光のタイミングおよび狭基線長カメラ2aと広基線長カメラ2bとによる撮像のタイミングとを制御する発光制御部(発光制御手段)である。
【0018】
また、4はカメラ2によって撮像された画像を取り込みA/D変換(アナログ/デジタル変換)して画像メモリに記憶する画像取り込み部であり、5は画像取り込み部4によって取り込まれた画像を基に計測対象物体までの距離を算出する距離推定部(距離算出手段)である。また、8はロボットの移動経路を決定する移動経路決定部、6は移動経路決定部8が決定した経路情報と距離推定部5による距離算出結果とを基にロボットの足の着地位置を決定する着地位置決定部、7は着地位置決定部6が決定した着地位置に足を持っていくようにロボットのバランスを取りながらロボットの脚を駆動するモータを制御する脚制御部(脚制御手段)である。
【0019】
図2は、本実施形態が利用している光切断法の原理を示す断面図である。図2において、符号901は三次元計測装置に設けられたスリット光源、902は前記三次元計測装置に設けられている撮像のためのレンズ、903はレンズ902による像の結像面、905は結像面903の中心点であり、この中心点905は結像面903と撮像方向軸との交点である。また、901aはスリット光源901から照射されるスリット光面、910は測定対象物体、911はスリット光面901aが測定対象物体を照射している照射点の一つである。
【0020】
ここで、スリット光源901とレンズ902の中心との距離をL(基線長)とする。また、図上の基準線は、スリット光源901とレンズ902とを結ぶ線を含む測定面(図6の断面に垂直な面)に垂直な方向を示している。また、スリット光の測定面に対する角度をθ、レンズ902の中心と照射点911とを結ぶ線の測定面に対する角度をφとする。ここで、測定面から測定対象物体910までの距離Zを求めるためには、次式のような計算を行えば良い。
【0021】
Z=L・tan(θ)・tan(φ)/(tan(θ)+tan(φ))
ただし、「tan()」は正接関数を表わす。
【0022】
なお、上記φは、撮像方向(中心点905とレンズ902の中心とを結ぶ方向)の撮像面に対する角度φ0と撮像方向に対する照射点911の変位角φ1とを用いて、次式で表わされる。
【0023】
φ=φ0+φ1
【0024】
また、変位角φ1は、レンズ902と結像面903との間の距離lと、結像面903における照射点911の像の中心点905からの変位Δxを用いて、次式で表わされる。
【0025】
φ1=arctan(Δx/l)
ただし、「arctan()」は正接逆関数を表わす。
【0026】
以上、断面図を用いて説明したが、スリット光は当該断面だけではなく、測定対象物体910の表面に線状の切断線を形成するように照射されるため、測定面からその切断線上の各箇所までの距離を測定することができる。本実施形態では、レーザ光源1はマルチスリット光を照射するため、その各々が形成する光切断線を用いて、照射される範囲の測定を行うことが可能である。
【0027】
図3は、本実施形態による脚式移動ロボットの外見的構造を示す側面図である。この図において、符号20は床面、20aは床面20上に存在している突起面、21は人間型ロボットである。また、この人間型ロボット21は、上腕部22a、下腕部22b、手部22c、胴部23(本体)、腰部24(本体)、脚部25などの各部から成っている。なお上腕部22aと下腕部22bと手部22cとそれらをつなぐ関節によって、対象物を空間内で移動させるための多関節マニピュレータが構成される。
【0028】
また、31〜34は人間型ロボット21の各部をつなぐ関節の回転軸である。例えば、上腕部22aは、関節を介して胴部23に取り付けられており、回転軸31を中心として図示する矢印破線(A)のような運動を行う。例えば、この人間型ロボット21が荷物を運搬するときには、肘関節を曲げて上腕部22aと下腕部22bとがほぼ90度の角度をなすようにしてそこに荷物を抱えることが可能である。
【0029】
また、27は外部センサである。この外部センサ27には、少なくとも図1に示したレーザ光源1と狭基線長カメラ2aと広基線長カメラ2bとが組み込まれており、レーザ光源1によって符号28で示す範囲にマルチスリット光を照射するとともに、照射された床面20や突起面20aを狭基線長カメラ2aと広基線長カメラ2bとのいずれかあるいは両方によって撮像する。そして前述の原理によって各光切断線形成位置までの距離を計測し、足の着地位置を決定し、脚の移動を制御する。
【0030】
通常サイズの人間型ロボットにおいて、図3に示したように腰部に外部センサを設ける場合と、従来技術のように頭部に外部センサを設ける場合とでは、以下に述べるような違いが生じることが、実験等によって判明している。
【0031】
(1)最大基線長
基線長、つまりスリット光源とカメラとの間の距離は、頭部に設ける場合よりも腰部に設ける場合のほうが広くとることができる。例えば、頭部に設ける場合の最大基線長が7センチメートル(cm)程度であるのに対して、腰部に設ける場合には20cm程度とすることができる。
【0032】
(2)床面までの距離
外部センサから床面までの距離は、頭部に設ける場合よりも腰部に設ける場合のほうが小さい。例えば、頭部に設ける場合は150cm程度であるのに対して、腰部に設ける場合には80cm程度である。
【0033】
(3)計測精度
上記の最大基線長と床面までの距離の違いにより、頭部に設ける場合より腰部に設ける場合のほうが高精度な計測をすることができる。例えば、同じタイプのカメラおよびレンズを用いた撮影を行う場合、頭部に設けられた外部センサの計測精度が±55ミリメートル(mm)程度であるのに対して、腰部に設けられた場合の計測制度は±5mm程度であり、絶対値において10倍以上の精度差が生じる。
【0034】
(4)防震/追従機能の必要性
頭部に設ける外部センサで±5mm程度の距離計測制度を実現するためには光切断線の撮像に望遠レンズを用いる必要があるが、二足歩行を行うロボットの頭部にこのように画角の狭い望遠レンズを設けて安定的な計測を行うためには、移動に伴って生じる振動の影響を受けにくくするための防震機能や、撮像対象を追従する追従機能を設ける必要が生じる。腰部に外部センサを設ける場合には、特にこれらの機能を付加せずに±5mmの精度を実現することができる。
よって、ロボットの構成の複雑さやコストの観点からは、腰部に外部センサを設ける方が有利である。
【0035】
(5)視野
頭部に外部センサを設ける場合は、首関節等を動かすことにより、上下左右の広い範囲を視野に捉えることができる。一方、腰部に外部センサを設ける場合には、基本的には視野は前方だけであり、腰をある程度左右に回すことができる場合にもその視野範囲は限定的である。
【0036】
(6)環境認識/遠隔操縦との共存
頭部に外部センサを設ける場合には、ロボットの動作環境の認識の処理と床面等までの距離計測の処理とを時分割で行う必要があり、制御が複雑になる。一方、腰部に設けられる外部センサは、床面等の計測を行うのみであるため、比較的容易に環境認識/遠隔操縦と共存することができる。
【0037】
(7)レーザ光反射強度
頭部に外部センサを設ける場合には床面等で反射してカメラに入射するレーザ光の強度は0.29倍であるのに対して、腰部に外部センサを設ける場合のそれは3.5倍である。これら両者間では約12倍の開きがあり、腰部に外部センサを設ける場合のほうが光切断線を確実に認識して安定的な計測を行うことができる。
【0038】
(8)腕部による床面の隠蔽
頭部に外部センサを設ける場合には、腕部を胴部より前方に出した状態において床面の一部が遮られ、計測可能な範囲が狭まる。また、胴部より前方で、荷物を腕部で抱えたり手に持ったりした場合には、さらに計測範囲が狭まり、まったく計測できなくなってしまう場合もある。 一方、腰部に外部センサを設ける場合には、腕部や手による床面の隠蔽は全くなくなるか、あるいは圧倒的に少なくなり、ロボットの動作中も安定的に床面等を計測することができる。
【0039】
(9)床面に対する腰位置の位置決め精度
頭部に外部センサを設ける場合には、腰部から頭部までの間の運動自由度があるため、この間の幾何補正が必要になるとともに、位置決め精度が低くなる。一方、腰部に外部センサを設ける場合には、腰と外部センサが直結しており、ロボットの動作中も一体となっているため位置決め精度が高い。
【0040】
以上のように、従来技術のように頭部に外部センサを設ける場合に比べて、本実施形態のように腰部に設ける場合のほうが、計測精度や、コストや、計測方向の維持や、マニピュレータによる隠蔽の影響などの点において有利である。
【0041】
次に、本実施形態における2台のカメラの使い分けについて説明する。図1にも示したように、本実施形態によるロボットは狭基線長カメラ2aと広基線長カメラ2bとを備えている。狭基線長カメラ2aと広基線長カメラ2bの画角が互いに等しい場合、狭基線長カメラ2aで撮った画像は、広基線長カメラ2bで撮った画像に比べて、より広い距離レンジに存在する測定対象物体を捉えることができる。一方、光切断法の原理から明らかなように、広基線長カメラ2bで撮った画像を用いることにより、狭基線長カメラ2aで撮った画像を用いる場合よりも高精度な距離測定を行うことができる。つまり、狭基線長カメラ2aと広基線長カメラ2bとを適宜使い分けることにより、より広い範囲の測定対象物体までの距離をより高精度に測定することが可能となる。つまり、例えば、まず狭基線長カメラ2aを用いて測定対象物体までの距離を大まかな精度で測定し、この距離測定結果に応じて必要な場合には広基線長カメラ2bの撮像方向を調整し、次に広基線長カメラ2bを用いて測定対象物体までの距離を高精度で測定するようにする。これにより、広い距離レンジの測定対象物体を高精度に測定することが可能となる。
【0042】
また、これら2台のカメラを用いて二眼立体視を行うことによって、床面を高精度で検出するとともに、遠方の障害物を高精度で検出することができる。このような二眼立体視を行うためには、例えば、両カメラで撮像した画像をそれぞれA/D変換(アナログ/デジタル変換)して画像メモリに取り込み、対応処理手段によって、これら複数の画像にそれぞれ含まれる同一の撮像物体の対応付けを行い、対応のとれた撮像物体までの距離を三角測量の原理に基づいて当該物体の視差を用いて算出するようにする。このような二眼立体視を用いた計測の詳細は、例えば本出願人の出願による「車両用環境認識装置」(特開平9−159442号公報))などに記載されている。
【0043】
なお、上記実施形態においては、狭基線長カメラ2aと広基線長カメラ2bの2台のカメラを用いることとしたが、カメラの台数は任意であり、1台であっても良いし3台以上であっても良い。
【0044】
また、上記実施形態においては腰部に外部センサを設けることとしたが、腰部に限らず、例えば腰部周辺など、縦方向において脚部とマニピュレータとの間の任意の位置に外部センサを設けるようにしても良い。また、人間型ロボットに限らず、脚部より上方に配置されたマニピュレータを有する脚式移動ロボットにおいて、縦方向において脚部とマニピュレータとの間の任意の位置に外部センサを設けるようにした場合にも、同様の効果が得られる。
【0045】
ここで、外部センサをマニピュレータより下に設ける理由は、前述のように床面計測の際のマニピュレータによる干渉を避けるためである。また、外部センサを脚部より上に設ける理由は、必要な範囲を広く計測できるようにするためである。仮に、例えば脚部に外部センサを設けた場合には、以下に説明するような不具合が生じる。
【0046】
図4は、人間型ロボットの脚部に外部センサを設けた場合のマルチスリット光照射範囲を示す側面図である。図4において、符号21は人間型ロボット、40は床面、40aは床面40上に存在している障害物の上面、40bは同障害物の側面、47は人間型ロボット21の脚部に設けられた外部センサ、48は外部センサ47によるマルチスリット光照射範囲である。図示するように、この例では、外部センサ47の設置位置が低すぎるために、障害物の側面40bの一部を計測することはできるものの、上面40aや障害物の向こう側の床面を計測することができない。このように計測範囲が制限されることによって、ある程度の高さの障害物ならば跨いで通れるという脚式ロボットのメリットを活かせなくなってしまう。
【0047】
また、図4に示すような障害物がない状況においても、外部センサの設置位置が低すぎると、床面を照射する充分な角度が得られないために遠い方の計測制度が悪くなったり、階段を降りる場合に階段面を計測するのに必要な照射角度が得られなかったりという不都合が生じる。
【0048】
【発明の効果】
以上説明したように、この発明によれば、脚式移動ロボットにおいて、下方の計測対象物体を検出する外部センサを、脚部と本体との結合部よりも上でありかつマニピュレータと本体との結合部よりも下に設けているため、マニピュレータの干渉を受けずに計測対象物体を検知・計測することが可能となる。
【0049】
また、この発明によれば、人間型ロボットの腰部または腰部周辺に外部センサを配置しているため、首関節や胴部の動きによらず、常に前方つまり進行方向の床面や障害物を容易かつ安定的に検知・計測することが可能となる。
【0050】
また、この発明によれば、外部センサは、スリット光を照射する発光手段と該スリット光が前記計測対象物体上に形成する光切断線を撮像する撮像手段とを備えており、この撮像手段によって撮像された画像を基に光切断法などを用いて計測対象物体までの距離を算出するため、脚式移動ロボットは床面等までの距離を知り、床面等の形状を検出できる。また、この算出された距離および形状を基に、足の着地位置を決定し脚の動きを制御することができる。
【0051】
また、この発明によれば、前記撮像手段は少なくとも2個のカメラで構成され、これらのカメラで撮像された各画像の中の同一の物体を対応付け、この対応付けられた物体の視差を用いて当該物体までの距離を算出するため、二眼立体視を用いて、下方の床面を高精度で計測するとともに遠方の障害物を高精度で検出することができる。
【図面の簡単な説明】
【図1】 この発明の一実施形態による脚式移動ロボットの要部構成を示すブロック図である。
【図2】 同実施形態で利用している光切断法の原理を示す断面図である。
【図3】 同実施形態による脚式移動ロボットの外見的構造を示す側面図である。
【図4】 ロボットにおける外部センサの設置位置が不適切な場合の例を示す側面図である。
【符号の説明】
1 レーザ光源
2a 狭基線長カメラ
2b 広基線長カメラ
3 発光制御部
4 画像取り込み部
5 距離推定部
6 着地位置決定部
7 脚制御部
8 移動経路決定部
20 床面
20a 突起面
21 人間型ロボット
22a 上腕部
22b 下腕部
23 胴部
24 腰部
25 脚部
27 外部センサ
28 マルチスリット光照射範囲
31,32,33,34 関節の回転軸
A 上腕部22aの運動を示す破線
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a legged mobile robot including a manipulator, and more particularly to a humanoid legged mobile robot including a head, arms, torso, waist, legs, and the like.
[0002]
[Prior art]
The autonomous mobile robot is provided with a device for detecting a floor surface, a wall surface, an obstacle, or the like when moving. For example, Japanese Patent Laid-Open No. 6-43935 discloses a means for irradiating a predetermined pattern of slit light that intersects the traveling direction, a means for imaging a portion irradiated with the slit light, and a pattern of the captured slit light. And the traveling robot provided with the means to determine the presence or absence of the obstruction ahead of the traveling direction is disclosed. Japanese Patent Application Laid-Open No. 6-83442 uses a light cutting method to calculate three-dimensional coordinate data based on a light cutting line formed on an obstacle surface by irradiation with slit light, and this three-dimensional coordinate data. A technique for controlling the running of a robot based on the above is disclosed.
[0003]
In the conventional biped robot, the walking pattern is determined on the assumption that the height and inclination of the floor are known. In addition, some height estimation errors are absorbed by compliance control so that the robot can walk without falling. In addition, if the floor cannot be measured in advance, the walking path cannot be corrected accurately, or an unknown obstacle appears, compliance control alone is not sufficient and can cause a fall. Biped robots with external sensors have also been studied. In a humanoid robot having legs and arms, the external sensor as described above is provided on the head.
[0004]
[Problems to be solved by the invention]
However, when an external sensor of a robot equipped with a manipulator, particularly a humanoid robot, is provided on the head, there are the following problems.
[0005]
The first problem is the interference of the manipulator with an external sensor. For example, when trying to measure the floor surface in the moving direction, the front floor surface is irradiated from the light source provided at the head, but if the irradiation light is blocked by the manipulator, the floor surface is sufficient. Cannot illuminate the area. In addition, for example, when a humanoid robot moves while holding a large load on its arm, the irradiation light is blocked over a wide range.
[0006]
The second problem is the direction of the external sensor. In a humanoid robot, there is a case where the head is tilted in the front-rear direction or the left-right direction or the direction of the head is changed by the movement of the neck joint. In addition, the upper body of the robot may be tilted or changed in the front-rear direction or the left-right direction depending on the movement of the body part. Since the direction of the external sensor provided on the head changes due to these movements, the state of the front floor surface cannot always be detected properly.
[0007]
The present invention has been made in consideration of the above circumstances, and even in a robot having a manipulator, the manipulator does not interfere with the measurement, and always detects surrounding objects, particularly objects below, in an appropriate state. An object of the present invention is to provide a legged mobile robot capable of measuring distance and the like.
[0008]
In particular, in a humanoid legged mobile robot consisting of the head, torso, arms, legs, etc., the arm does not interfere with the measurement, and it is always in good condition even when each joint part is moved. It is an object of the present invention to provide a legged mobile robot capable of measuring a distance by detecting a floor surface, a wall surface, an obstacle or the like in a traveling direction.
[0009]
[Means for Solving the Problems]
In order to solve the above problems, the present invention has a leg portion coupled to the main body for the purpose of movement, and a manipulator coupled to the main body for moving an object in space, In a legged mobile robot in which a coupling portion between the manipulator and the main body is disposed above a coupling portion between the leg portion and the main body, the coupling portion between the manipulator and the main body is below and The gist of the legged mobile robot is characterized in that an external sensor for detecting an object to be measured is provided above the joint between the leg and the main body.
[0010]
The legged mobile robot of the present invention is a humanoid robot having a waist part, and the external sensor is arranged at or around the waist part.
[0011]
In the legged mobile robot of the present invention, the external sensor includes a light emitting unit that irradiates slit light and an image capturing unit that captures an optical cutting line formed by the slit light on the measurement target object. It is characterized by that.
[0012]
Further, the legged mobile robot of the present invention is characterized by comprising distance calculation means for calculating a distance to the measurement target object based on an image picked up by the image pickup means.
[0013]
The legged mobile robot of the present invention is characterized by comprising leg control means for controlling the movement of the leg based on the distance information calculated by the distance calculation means.
[0014]
In addition, the legged mobile robot of the present invention is characterized in that the surroundings are monitored using a light cutting method based on the image picked up by the image pickup means.
[0015]
In the legged mobile robot of the present invention, the imaging means is composed of at least two cameras, and the same object in each image captured by these cameras is associated with the associated object. The distance to the object is calculated using the parallax.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a main configuration of a legged mobile robot according to the embodiment. This configuration measures the distance on the floor, walls, and obstacles on the robot's moving path and its surroundings, and measures the distance so that the landing position of the foot during biped walking is appropriate. The purpose of this is to control.
[0017]
In FIG. 1, reference numeral 1 denotes a laser light source (light emitting means) that irradiates a measurement target object (such as a floor surface) with multi-slit light. Reference numerals 2a and 2b denote a narrow base length camera (imaging means) and a wide base length camera (imaging means) that capture an image of the measurement target object irradiated with slit light from the laser light source 1, respectively. The narrow base length camera 2 a is provided relatively near the laser light source 1, and the wide base length camera 2 b is provided relatively far from the laser light source 1. That is, in this embodiment, at least two cameras are provided, and the camera and the laser light source are arranged so that the distance between the first camera and the laser light source is different from the distance between the second camera and the laser light source. Yes. Reference numeral 3 denotes a light emission control unit (light emission) for controlling the light emission timing of the laser light source 1 and the imaging timing of the narrow baseline length camera 2a and the wide baseline length camera 2b by outputting a timing signal to the laser light source 1. Control means).
[0018]
An image capturing unit 4 captures an image captured by the camera 2 and stores it in an image memory after A / D conversion (analog / digital conversion). 5 is based on the image captured by the image capturing unit 4. It is a distance estimation part (distance calculation means) which calculates the distance to a measurement object. Reference numeral 8 denotes a movement route determination unit that determines the movement route of the robot. Reference numeral 6 denotes a landing position of the robot foot based on the route information determined by the movement route determination unit 8 and the distance calculation result by the distance estimation unit 5. The landing position determination unit 7 is a leg control unit (leg control means) that controls a motor that drives the robot leg while balancing the robot so that the foot is brought to the landing position determined by the landing position determination unit 6. is there.
[0019]
FIG. 2 is a cross-sectional view showing the principle of the light cutting method used in this embodiment. In FIG. 2, reference numeral 901 denotes a slit light source provided in the three-dimensional measuring device, 902 denotes an imaging lens provided in the three-dimensional measuring device, 903 denotes an image formation surface by the lens 902, and 905 denotes a connection. This is the center point of the image plane 903, and this center point 905 is the intersection of the image plane 903 and the imaging direction axis. Reference numeral 901a denotes a slit light surface irradiated from the slit light source 901, reference numeral 910 denotes a measurement target object, and reference numeral 911 denotes one of irradiation points where the slit light surface 901a irradiates the measurement target object.
[0020]
Here, the distance between the slit light source 901 and the center of the lens 902 is L (base line length). A reference line on the drawing indicates a direction perpendicular to a measurement surface (a surface perpendicular to the cross section of FIG. 6) including a line connecting the slit light source 901 and the lens 902. The angle of the slit light with respect to the measurement surface is θ, and the angle of the line connecting the center of the lens 902 and the irradiation point 911 with respect to the measurement surface is φ. Here, in order to obtain the distance Z from the measurement surface to the measurement target object 910, the following equation may be calculated.
[0021]
Z = L · tan (θ) · tan (φ) / (tan (θ) + tan (φ))
However, “tan ()” represents a tangent function.
[0022]
The above φ is expressed by the following equation using an angle φ0 with respect to the imaging surface in the imaging direction (a direction connecting the center point 905 and the center of the lens 902) and a displacement angle φ1 of the irradiation point 911 with respect to the imaging direction.
[0023]
φ = φ0 + φ1
[0024]
Further, the displacement angle φ1 is expressed by the following equation using the distance l between the lens 902 and the imaging plane 903 and the displacement Δx from the center point 905 of the image of the irradiation point 911 on the imaging plane 903.
[0025]
φ1 = arctan (Δx / l)
However, “arctan ()” represents a tangent inverse function.
[0026]
As described above, the slit light is irradiated not only on the cross section but also on the surface of the measurement target object 910 so as to form a linear cutting line. The distance to the location can be measured. In this embodiment, since the laser light source 1 irradiates multi-slit light, it is possible to measure the irradiated range using the optical cutting line formed by each.
[0027]
FIG. 3 is a side view showing an external structure of the legged mobile robot according to the present embodiment. In this figure, reference numeral 20 denotes a floor surface, 20a denotes a projecting surface existing on the floor surface 20, and 21 denotes a humanoid robot. The humanoid robot 21 includes various parts such as an upper arm part 22a, a lower arm part 22b, a hand part 22c, a trunk part 23 (main body), a waist part 24 (main body), and a leg part 25. The upper arm portion 22a, the lower arm portion 22b, the hand portion 22c, and the joint connecting them constitute a multi-joint manipulator for moving the object in the space.
[0028]
Reference numerals 31 to 34 denote rotation axes of joints that connect each part of the humanoid robot 21. For example, the upper arm portion 22 a is attached to the trunk portion 23 via a joint, and performs a movement as shown by a broken arrow line (A) illustrated around the rotation shaft 31. For example, when the humanoid robot 21 carries a load, the elbow joint can be bent so that the upper arm portion 22a and the lower arm portion 22b form an angle of approximately 90 degrees and the load can be held there.
[0029]
Reference numeral 27 denotes an external sensor. The external sensor 27 incorporates at least the laser light source 1, the narrow base length camera 2a, and the wide base length camera 2b shown in FIG. At the same time, the irradiated floor surface 20 and projection surface 20a are imaged by either or both of the narrow base length camera 2a and the wide base length camera 2b. And the distance to each optical cutting line formation position is measured according to the above-mentioned principle, the landing position of the foot is determined, and the movement of the leg is controlled.
[0030]
In a normal size humanoid robot, the difference described below may occur between the case where an external sensor is provided on the waist as shown in FIG. 3 and the case where an external sensor is provided on the head as in the prior art. It has been proved by experiments.
[0031]
(1) Maximum baseline length The baseline length, that is, the distance between the slit light source and the camera, can be made wider when it is provided at the waist than when it is provided at the head. For example, the maximum baseline length when it is provided on the head is about 7 centimeters (cm), whereas when it is provided on the waist, it can be about 20 cm.
[0032]
(2) Distance to the floor surface The distance from the external sensor to the floor surface is smaller when it is provided on the waist than when it is provided on the head. For example, when it is provided on the head, it is about 150 cm, whereas when it is provided on the waist, it is about 80 cm.
[0033]
(3) Measurement accuracy Due to the difference in the maximum base line length and the distance to the floor surface, it is possible to perform measurement with higher accuracy when it is provided at the waist than when it is provided at the head. For example, when photographing using the same type of camera and lens, the measurement accuracy of the external sensor provided on the head is approximately ± 55 millimeters (mm), whereas the measurement is performed on the waist. The system is about ± 5 mm, and an accuracy difference of 10 times or more occurs in absolute value.
[0034]
(4) Necessity of anti-seismic / follow-up function In order to realize a distance measurement system of about ± 5 mm with an external sensor provided on the head, it is necessary to use a telephoto lens for imaging a light section line, but biped walking is performed. In order to perform stable measurement by providing a telephoto lens with a narrow angle of view in this way on the head of the robot, an anti-seismic function to make it less susceptible to the vibration caused by movement and the imaging target are followed. It is necessary to provide a tracking function. When an external sensor is provided on the waist, an accuracy of ± 5 mm can be realized without particularly adding these functions.
Therefore, it is advantageous to provide an external sensor on the waist from the viewpoint of the complexity and cost of the configuration of the robot.
[0035]
(5) When an external sensor is provided in the visual field head, a wide range of up, down, left, and right can be captured in the visual field by moving the neck joint or the like. On the other hand, when an external sensor is provided on the waist, the field of view is basically only forward, and the field of view is limited even when the waist can be rotated to the left or right to some extent.
[0036]
(6) Environment recognition / remote control coexistence When an external sensor is provided on the head, it is necessary to perform time recognition processing for recognition of the robot's operating environment and distance measurement to the floor, etc. Control becomes complicated. On the other hand, since the external sensor provided in the waist only measures the floor surface and the like, it can coexist with environment recognition / remote control relatively easily.
[0037]
(7) Laser light reflection intensity When an external sensor is provided on the head, the intensity of the laser light reflected on the floor or the like and incident on the camera is 0.29 times, whereas an external sensor is provided on the waist. That in the case is 3.5 times. There is an opening of about 12 times between these two, and when an external sensor is provided on the waist, the optical cutting line can be recognized more reliably and stable measurement can be performed.
[0038]
(8) When an external sensor is provided on the concealed head of the floor surface by the arm portion, a part of the floor surface is blocked in a state where the arm portion is protruded forward from the trunk portion, and the measurable range is narrowed. In addition, when the baggage is held by the arm or held in the hand in front of the torso, the measurement range may be further narrowed and measurement may not be possible at all. On the other hand, when an external sensor is provided on the waist, there is no or no overwhelming floor covering by the arm or hand, and the floor or the like can be measured stably even during robot operation. .
[0039]
(9) Positioning accuracy of the waist position relative to the floor When an external sensor is provided on the head, there is a degree of freedom of movement from the waist to the head, so geometric correction between these is required and positioning accuracy is Lower. On the other hand, when an external sensor is provided on the waist, the waist and the external sensor are directly connected and are integrated even during the operation of the robot, so positioning accuracy is high.
[0040]
As described above, compared to the case where an external sensor is provided on the head as in the prior art, the case where it is provided on the waist as in the present embodiment is due to the maintenance of measurement accuracy, cost, measurement direction, and manipulator. This is advantageous in terms of concealment effects.
[0041]
Next, the proper use of the two cameras in this embodiment will be described. As shown in FIG. 1, the robot according to the present embodiment includes a narrow base length camera 2a and a wide base length camera 2b. When the angle of view of the narrow baseline length camera 2a and the wide baseline length camera 2b are equal to each other, the image taken by the narrow baseline length camera 2a exists in a wider distance range than the image taken by the wide baseline length camera 2b. The object to be measured can be captured. On the other hand, as is apparent from the principle of the light cutting method, by using an image taken with the wide baseline length camera 2b, distance measurement can be performed with higher accuracy than when using an image taken with the narrow baseline length camera 2a. it can. That is, by appropriately using the narrow base length camera 2a and the wide base length camera 2b as appropriate, it is possible to measure the distance to the measurement target object in a wider range with higher accuracy. That is, for example, first, the distance to the object to be measured is measured with rough accuracy using the narrow baseline length camera 2a, and if necessary, the imaging direction of the wide baseline length camera 2b is adjusted according to the distance measurement result. Next, the distance to the object to be measured is measured with high accuracy using the wide baseline length camera 2b. Thereby, it becomes possible to measure a measurement target object in a wide distance range with high accuracy.
[0042]
Further, by performing binocular stereoscopic viewing using these two cameras, it is possible to detect the floor surface with high accuracy and to detect distant obstacles with high accuracy. In order to perform such binocular stereoscopic vision, for example, images captured by both cameras are each A / D converted (analog / digital converted) into an image memory, and the corresponding processing means converts these images into a plurality of images. The same imaging object included in each is associated, and the distance to the corresponding imaging object is calculated using the parallax of the object based on the principle of triangulation. Details of such measurement using binocular stereoscopic vision are described in, for example, “Vehicle Environment Recognition Device” (Japanese Patent Laid-Open No. 9-159442) filed by the present applicant.
[0043]
In the above embodiment, two cameras, the narrow base length camera 2a and the wide base length camera 2b, are used. However, the number of cameras is arbitrary and may be one or three or more. It may be.
[0044]
In the above-described embodiment, the external sensor is provided at the waist, but the external sensor is not limited to the waist, but may be provided at an arbitrary position between the leg and the manipulator in the vertical direction, for example, around the waist. Also good. Further, not only a humanoid robot, but in a legged mobile robot having a manipulator arranged above the leg, when an external sensor is provided at an arbitrary position between the leg and the manipulator in the vertical direction The same effect can be obtained.
[0045]
Here, the reason why the external sensor is provided below the manipulator is to avoid interference by the manipulator during floor surface measurement as described above. The reason why the external sensor is provided above the leg is to enable a wide measurement of a necessary range. For example, when an external sensor is provided on the leg, for example, problems described below occur.
[0046]
FIG. 4 is a side view showing a multi-slit light irradiation range when an external sensor is provided on a leg of a humanoid robot. In FIG. 4, reference numeral 21 is a humanoid robot, 40 is a floor surface, 40 a is an upper surface of an obstacle existing on the floor surface 40, 40 b is a side surface of the obstacle, and 47 is a leg of the humanoid robot 21. The provided external sensor 48 is a multi-slit light irradiation range by the external sensor 47. As shown in the figure, in this example, since the installation position of the external sensor 47 is too low, a part of the side surface 40b of the obstacle can be measured, but the upper surface 40a and the floor surface on the other side of the obstacle are measured. Can not do it. By limiting the measurement range in this way, the merit of the legged robot that can pass over obstacles of a certain height cannot be utilized.
[0047]
In addition, even in the situation where there is no obstacle as shown in FIG. 4, if the installation position of the external sensor is too low, a sufficient angle for irradiating the floor surface cannot be obtained, and the measurement system of the far side becomes worse, When going down the stairs, there is a disadvantage that the irradiation angle necessary for measuring the stairs surface cannot be obtained.
[0048]
【The invention's effect】
As described above, according to the present invention, in the legged mobile robot, the external sensor for detecting the lower measurement target object is located above the coupling portion between the leg portion and the main body and coupled between the manipulator and the main body. Therefore, the object to be measured can be detected and measured without receiving interference from the manipulator.
[0049]
In addition, according to the present invention, since the external sensor is arranged around the waist or around the waist of the humanoid robot, the floor surface and obstacles in the forward direction, that is, the traveling direction are always easy regardless of the movement of the neck joint and the torso. And it becomes possible to detect and measure stably.
[0050]
According to the invention, the external sensor includes the light emitting means for irradiating the slit light and the imaging means for imaging the light cutting line formed on the measurement target object by the slit light. Since the distance to the measurement target object is calculated based on the captured image using a light cutting method or the like, the legged mobile robot knows the distance to the floor surface and can detect the shape of the floor surface and the like. Further, based on the calculated distance and shape, the landing position of the foot can be determined and the movement of the leg can be controlled.
[0051]
According to the present invention, the imaging means is composed of at least two cameras, associates the same object in each image captured by these cameras, and uses the parallax of the associated object. In order to calculate the distance to the object, it is possible to measure the lower floor with high accuracy and detect distant obstacles with high accuracy using binocular stereoscopic vision.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a main configuration of a legged mobile robot according to an embodiment of the present invention.
FIG. 2 is a cross-sectional view showing the principle of a light cutting method used in the embodiment.
FIG. 3 is a side view showing an external structure of a legged mobile robot according to the embodiment.
FIG. 4 is a side view showing an example when the installation position of the external sensor in the robot is inappropriate.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Laser light source 2a Narrow base length camera 2b Wide base length camera 3 Light emission control part 4 Image capture part 5 Distance estimation part 6 Landing position determination part 7 Leg control part 8 Movement path determination part 20 Floor 20a Projection surface 21 Humanoid robot 22a Upper arm portion 22b Lower arm portion 23 Trunk portion 24 Lumbar portion 25 Leg portion 27 External sensor 28 Multi-slit light irradiation range 31, 32, 33, 34 Joint rotation axis A Broken line indicating movement of upper arm portion 22a

Claims (7)

移動を目的として本体に結合されている脚部と、対象物を空間内で移動させるために前記本体に結合されているマニピュレータとを有し、前記マニピュレータと前記本体との結合部が前記脚部と前記本体との結合部よりも上に配置されている脚式移動ロボットにおいて、
前記マニピュレータと前記本体との結合部よりも下でありかつ前記脚部と前記本体との結合部よりも上に、計測対象物体を検出する外部センサを備えていることを特徴とする脚式移動ロボット。
A leg coupled to the body for movement; and a manipulator coupled to the body for moving an object in space, wherein the coupling between the manipulator and the body is the leg. In the legged mobile robot disposed above the joint between the main body and the body,
A leg-type movement characterized by comprising an external sensor that detects an object to be measured below the joint between the manipulator and the main body and above the joint between the leg and the main body. robot.
前記脚式移動ロボットは、腰部を有する人間型ロボットであり、
前記外部センサは、前記腰部にまたは前記腰部周辺に配置されていることを特徴とする請求項1に記載の脚式移動ロボット。
The legged mobile robot is a humanoid robot having a waist.
The legged mobile robot according to claim 1, wherein the external sensor is arranged at or around the waist.
前記外部センサは、スリット光を照射する発光手段と該スリット光が前記計測対象物体上に形成する光切断線を撮像する撮像手段とを備えていることを特徴とする請求項1または2に記載の脚式移動ロボット。The said external sensor is equipped with the light emission means which irradiates slit light, and the imaging means which images the optical cutting line which this slit light forms on the said measurement object, The Claim 1 or 2 characterized by the above-mentioned. Legged mobile robot. 前記撮像手段によって撮像された画像を基に前記計測対象物体までの距離を算出する距離算出手段を備えていることを特徴とする請求項3に記載の脚式移動ロボット。The legged mobile robot according to claim 3, further comprising a distance calculating unit that calculates a distance to the measurement target object based on an image captured by the imaging unit. 前記距離算出手段によって算出された距離の情報を基に前記脚部の動きを制御する脚制御手段を備えていることを特徴とする請求項4に記載の脚式移動ロボット。The legged mobile robot according to claim 4, further comprising leg control means for controlling movement of the leg portion based on distance information calculated by the distance calculation means. 前記撮像手段によって撮像された画像を基に光切断法を用いて周囲を監視することを特徴とする請求項3から5までのいずれかに記載の脚式移動ロボット。The legged mobile robot according to any one of claims 3 to 5, wherein surroundings are monitored using an optical cutting method based on an image picked up by the image pickup means. 前記撮像手段は少なくとも2個のカメラで構成され、これらのカメラで撮像された各画像の中の同一の物体を対応付け、この対応付けられた物体の視差を用いて当該物体までの距離を算出することを特徴とする請求項3から6までのいずれかに記載の脚式移動ロボット。The imaging means is composed of at least two cameras, associates the same object in each image captured by these cameras, and calculates the distance to the object using the parallax of the associated object The legged mobile robot according to any one of claims 3 to 6, characterized in that:
JP2000345820A 2000-11-13 2000-11-13 Legged mobile robot Expired - Lifetime JP4476468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000345820A JP4476468B2 (en) 2000-11-13 2000-11-13 Legged mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000345820A JP4476468B2 (en) 2000-11-13 2000-11-13 Legged mobile robot

Publications (2)

Publication Number Publication Date
JP2002144278A JP2002144278A (en) 2002-05-21
JP4476468B2 true JP4476468B2 (en) 2010-06-09

Family

ID=18819785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000345820A Expired - Lifetime JP4476468B2 (en) 2000-11-13 2000-11-13 Legged mobile robot

Country Status (1)

Country Link
JP (1) JP4476468B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040039028A (en) * 2002-10-30 2004-05-10 엘지전자 주식회사 Roadblock detection apparatus for robot
JP2005067281A (en) * 2003-08-20 2005-03-17 Toshiba Corp Distance detecting device, air bag control device, and distance detecting method
JP4461797B2 (en) * 2003-12-19 2010-05-12 株式会社安川電機 Mobile robot
JP4564447B2 (en) * 2004-12-14 2010-10-20 本田技研工業株式会社 Autonomous mobile robot
JP4262196B2 (en) 2004-12-14 2009-05-13 本田技研工業株式会社 Autonomous mobile robot
TWI303754B (en) 2006-05-09 2008-12-01 Ind Tech Res Inst Obstacle and cliff avoiding system and method thereof
JP2007319939A (en) * 2006-05-30 2007-12-13 Toyota Motor Corp Leg walking type movable body, and system for controlling the same
JP2008224380A (en) * 2007-03-12 2008-09-25 Univ Of Electro-Communications Device and method for recognizing movement environment
JP4929506B2 (en) 2007-03-29 2012-05-09 本田技研工業株式会社 Legged mobile robot
JP4844459B2 (en) * 2007-04-20 2011-12-28 トヨタ自動車株式会社 Plane detection method and mobile robot
JP5310236B2 (en) * 2009-04-28 2013-10-09 トヨタ自動車株式会社 Legged robot and its control method
US8244402B2 (en) * 2009-09-22 2012-08-14 GM Global Technology Operations LLC Visual perception system and method for a humanoid robot
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP2012117833A (en) * 2010-11-29 2012-06-21 Equos Research Co Ltd Image recognition device, mounting type robot, and image recognition program
JP5742052B2 (en) * 2011-05-24 2015-07-01 日本精工株式会社 Mobile environment recognition apparatus and method
US10675762B2 (en) * 2015-12-18 2020-06-09 Fuji Xerox Co., Ltd. Systems and methods for using an external sensor and a mobile device to simulate real sensors for a robot
TWI773947B (en) * 2019-12-06 2022-08-11 緯創資通股份有限公司 Control device, exoskeleton system and control method
JP2022110260A (en) * 2021-01-18 2022-07-29 ソニーグループ株式会社 Mobile device and mobile device control method

Also Published As

Publication number Publication date
JP2002144278A (en) 2002-05-21

Similar Documents

Publication Publication Date Title
JP4476468B2 (en) Legged mobile robot
US11408728B2 (en) Registration of three-dimensional coordinates measured on interior and exterior portions of an object
JP5290324B2 (en) Method and system for accurately positioning at least one object in a final pose in space
WO2019012770A1 (en) Imaging device and monitoring device
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
US20090208094A1 (en) Robot apparatus and method of controlling same
JP2004198211A (en) Apparatus for monitoring vicinity of mobile object
US11420335B2 (en) Information processing apparatus, information processing method, and information processing system
US10481270B2 (en) Device for detecting an obstacle by means of intersecting planes and detection method using such a device
JP6816070B2 (en) Interference avoidance device and robot system
JP2009096335A (en) Legged robot
JP4154980B2 (en) Moving object periphery monitoring device
JP2010288112A (en) Self-position estimation device, and self-position estimation method
KR20170027767A (en) Device for detection of obstacles in a horizontal plane and detection method implementing such a device
JP2009050936A (en) Interference determination device and leg wheel type robot
Rovira-Mas et al. Obstacle detection using stereo vision to enhance safety of autonomous machines
JP2009174898A (en) Moving body and environmental information generation method
US11141860B2 (en) Method for operating an automatically moving cleaning device and cleaning device of this type
JP2002213920A (en) Method and device for confirming position of moving body
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera
JP2005014108A (en) Interference avoiding method of multi-articulated robot
KR100904769B1 (en) Detecting device of obstacle and method thereof
JP3925129B2 (en) Three-dimensional imaging apparatus and method
JP2569579Y2 (en) Legged mobile robot with visual sensor
JPH02212906A (en) Multi-leg type moving device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100310

R150 Certificate of patent or registration of utility model

Ref document number: 4476468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

EXPY Cancellation because of completion of term