JP2002144278A - Legged mobile robot - Google Patents

Legged mobile robot

Info

Publication number
JP2002144278A
JP2002144278A JP2000345820A JP2000345820A JP2002144278A JP 2002144278 A JP2002144278 A JP 2002144278A JP 2000345820 A JP2000345820 A JP 2000345820A JP 2000345820 A JP2000345820 A JP 2000345820A JP 2002144278 A JP2002144278 A JP 2002144278A
Authority
JP
Japan
Prior art keywords
mobile robot
distance
leg
external sensor
legged mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000345820A
Other languages
Japanese (ja)
Other versions
JP4476468B2 (en
Inventor
Chiaki Aoyama
千秋 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2000345820A priority Critical patent/JP4476468B2/en
Publication of JP2002144278A publication Critical patent/JP2002144278A/en
Application granted granted Critical
Publication of JP4476468B2 publication Critical patent/JP4476468B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes

Abstract

PROBLEM TO BE SOLVED: To provide a legged mobile robot having a manipulator, capable of executing the measurement without interfered by the manipulator, and constantly detecting peripheral objects, particularly, an object at a lower side in a proper state to measure a distance or the like. SOLUTION: This humanoid robot 21 is composed of upper arm parts 22a, lower arm parts 22b, hand parts 22c, a waist part 24 and leg parts 25, and moves with high degree of freedom by the rotation on rotating shafts 31-34 of revolute joints, or the like. The manipulator is composed of the upper arm parts 22a, the lower arm parts 22b, the hand parts 22c and the like. An external sensor 27 provided with a luminescent means for applying the multi-slit light to a floor face 20 or the like, and an image pick-up means for picking up an image of the irradiated floor face, is mounted on the waist part 24. As the external sensor 27 can detect the floor face 20 without interfered by the manipulator, the distance to the floor face and the shape of the floor face can be stably measured at all time.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、マニピュレータ
を備えた脚式移動ロボットに関し、特に、頭部、腕部、
胴部、腰部、脚部などによって構成される人間型の脚式
移動ロボットに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a legged mobile robot having a manipulator, and more particularly, to a head, an arm,
The present invention relates to a humanoid legged mobile robot including a torso, a waist, and legs.

【0002】[0002]

【従来の技術】自立移動ロボットには、移動する際に床
面や壁面や障害物などを検知するための装置が設けられ
ている。例えば、特開平6−43935号公報には、走
行方向とは交差する所定パターンのスリット光を照射す
る手段と、このスリット光による照射部分を撮像する手
段と、撮像されたスリット光のパターンを解析して走行
方向前方の障害物の有無を判定する手段とを備えた走行
ロボットが開示されている。また、特開平6−8344
2号公報には、光切断法を用いて、スリット光の照射に
より障害物表面に形成される光切断線を基に三次元座標
データを算出し、この三次元座標データに基づいてロボ
ットの走行を制御する技術が開示されている。
2. Description of the Related Art A self-standing mobile robot is provided with a device for detecting a floor surface, a wall surface, an obstacle or the like when moving. For example, Japanese Patent Application Laid-Open No. 6-43935 discloses a means for irradiating a predetermined pattern of slit light that intersects the traveling direction, a means for imaging a portion irradiated by the slit light, and an analysis of the pattern of the imaged slit light. And a means for determining the presence or absence of an obstacle ahead in the traveling direction. Also, JP-A-6-8344
In Japanese Patent Application Laid-Open Publication No. 2000-209, three-dimensional coordinate data is calculated based on a light-section line formed on the surface of an obstacle by irradiating slit light using a light-section method, and the robot travels based on the three-dimensional coordinate data. Is disclosed.

【0003】従来の二足歩行ロボットでは、床面の高さ
や傾斜が既知であることを前提に歩行パターンを決定し
ていた。また、若干の高さ推定誤差はコンプライアンス
制御によって吸収し、ロボットが転倒しないで歩行でき
るようにしていた。また、事前に床面を測定できない場
合や、歩行経路を正確に補正できない場合や、未知の障
害物などが出現した場合には、コンプライアンス制御だ
けでは不充分であり転倒につながるため、これにそなえ
て外部センサを持つ二足歩行ロボットも研究されてい
る。脚および腕を備えている人間型ロボットにおいて
は、上記のような外部センサは頭部に設けられていた。
In a conventional bipedal walking robot, a walking pattern is determined on the premise that the height and inclination of the floor surface are known. In addition, a slight height estimation error is absorbed by the compliance control so that the robot can walk without falling. Also, if the floor cannot be measured in advance, if the walking path cannot be corrected accurately, or if an unknown obstacle appears, compliance control alone is not sufficient and leads to a fall. Biped robots with external sensors have also been studied. In a humanoid robot having legs and arms, the external sensor as described above is provided on the head.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、マニピ
ュレータを備えたロボット、特に人間型ロボットの外部
センサを頭部に設けた場合には、次のような問題があ
る。
However, when an external sensor of a robot equipped with a manipulator, particularly a humanoid robot is provided on the head, there are the following problems.

【0005】第1の問題はマニピュレータの外部センサ
に対する干渉である。例えば、移動方向の床面を計測し
ようとする場合、頭部に設けられた光源から前方の床面
を照射することになるが、マニピュレータによって照射
光が遮られてしまうと、床面の充分な範囲を照射できな
い。また、例えば、人間型ロボットが腕に大きな荷物を
抱えながら移動する場合などは、広い範囲にわたって照
射光が遮られてしまう。
[0005] The first problem is the interference of the manipulator with external sensors. For example, when trying to measure the floor surface in the moving direction, a light source provided on the head illuminates the floor surface in front, but if the irradiation light is blocked by the manipulator, there is not enough floor space. Cannot illuminate the area. Further, for example, when the humanoid robot moves while holding a large luggage on its arm, the irradiation light is blocked over a wide range.

【0006】第2の問題は外部センサの向きである。人
間型ロボットでは、首関節部分の動きにより頭部を前後
方向あるいは左右方向に傾けたり頭部の向きを変えたり
する場合がある。また、胴部分の動きにより、ロボット
の上半身を前後方向あるいは左右方向に傾けたり向きを
変えたりする場合がある。これらの動きによって頭部に
設けられた外部センサの向きが変わってしまうため、常
に前方の床面の状態を適切に検出することができない。
[0006] The second problem is the orientation of the external sensor. In a humanoid robot, the head may be tilted in the front-rear direction or the left-right direction or the direction of the head may be changed by the movement of the neck joint. Further, there is a case where the upper body of the robot is tilted or changed in the front-rear direction or the left-right direction depending on the movement of the trunk portion. Since the direction of the external sensor provided on the head is changed by these movements, it is not always possible to always properly detect the state of the floor in front.

【0007】本発明は、上記のような事情を考慮してな
されたものであり、マニピュレータを有するロボットに
おいても、マニピュレータが測定に干渉せず、常に適切
な状態で周囲の物体、特に下方の物体を検出し、距離の
計測等を行うことのできる脚式移動ロボットを提供する
ことを目的とする。
The present invention has been made in view of the above circumstances, and even in a robot having a manipulator, the manipulator does not interfere with the measurement and always keeps the surrounding objects, particularly the lower objects, in an appropriate state. It is an object of the present invention to provide a legged mobile robot capable of detecting distance and measuring a distance.

【0008】また、特に、頭部、胴部、腕、脚などから
成る人間型の脚式移動ロボットにおいて、腕が測定に干
渉することがなく、かつ各関節部分を動かした場合にも
常に良好な状態で進行方向の床面、壁面、障害物などを
検出して距離を測定することのできる脚式移動ロボット
を提供することを目的とする。
Particularly, in a humanoid legged mobile robot including a head, a torso, an arm, and a leg, the arm does not interfere with the measurement and is always good even when each joint is moved. It is an object of the present invention to provide a legged mobile robot capable of detecting a floor surface, a wall surface, an obstacle, and the like in a traveling direction and measuring a distance.

【0009】[0009]

【課題を解決するための手段】上記の課題を解決するた
めに、本発明は、移動を目的として本体に結合されてい
る脚部と、対象物を空間内で移動させるために前記本体
に結合されているマニピュレータとを有し、前記マニピ
ュレータと前記本体との結合部が前記脚部と前記本体と
の結合部よりも上に配置されている脚式移動ロボットに
おいて、前記マニピュレータと前記本体との結合部より
も下でありかつ前記脚部と前記本体との結合部よりも上
に、計測対象物体を検出する外部センサを備えているこ
とを特徴とする脚式移動ロボットを要旨とする。
SUMMARY OF THE INVENTION In order to solve the above problems, the present invention is directed to a leg connected to a main body for movement, and to a main body connected to the main body for moving an object in space. A manipulator, wherein a connecting portion between the manipulator and the main body is disposed above a connecting portion between the leg portion and the main body, wherein the manipulator and the main body are connected to each other. The gist of the present invention is a legged mobile robot including an external sensor that detects an object to be measured, below a joint and above a joint between the leg and the main body.

【0010】また、本発明の脚式移動ロボットは、腰部
を有する人間型ロボットであり、前記外部センサは、前
記腰部にまたは前記腰部周辺に配置されていることを特
徴とする。
Further, the legged mobile robot of the present invention is a humanoid robot having a waist, and the external sensor is arranged at or around the waist.

【0011】また、本発明の脚式移動ロボットにおいて
は、前記外部センサは、スリット光を照射する発光手段
と該スリット光が前記計測対象物体上に形成する光切断
線を撮像する撮像手段とを備えていることを特徴とす
る。
Further, in the legged mobile robot according to the present invention, the external sensor includes a light emitting means for irradiating slit light and an image pickup means for imaging a light cutting line formed on the object to be measured by the slit light. It is characterized by having.

【0012】また、本発明の脚式移動ロボットは、前記
撮像手段によって撮像された画像を基に前記計測対象物
体までの距離を算出する距離算出手段を備えていること
を特徴とする。
Further, the legged mobile robot according to the present invention is characterized in that the legged mobile robot is provided with distance calculating means for calculating a distance to the object to be measured based on an image taken by the image taking means.

【0013】また、本発明の脚式移動ロボットは、前記
距離算出手段によって算出された距離の情報を基に前記
脚部の動きを制御する脚制御手段を備えていることを特
徴とする。
Further, the legged mobile robot according to the present invention is characterized in that it is provided with leg control means for controlling the movement of the leg based on the information on the distance calculated by the distance calculation means.

【0014】また、本発明の脚式移動ロボットは、前記
撮像手段によって撮像された画像を基に光切断法を用い
て周囲を監視することを特徴とする。
Further, the legged mobile robot of the present invention is characterized in that the surroundings are monitored by using a light section method based on the image picked up by the image pickup means.

【0015】また、本発明の脚式移動ロボットにおいて
は、前記撮像手段は少なくとも2個のカメラで構成さ
れ、これらのカメラで撮像された各画像の中の同一の物
体を対応付け、この対応付けられた物体の視差を用いて
当該物体までの距離を算出することを特徴とする。
Further, in the legged mobile robot of the present invention, the imaging means is constituted by at least two cameras, and associates the same object in each image captured by these cameras, The distance to the object is calculated using the parallax of the obtained object.

【0016】[0016]

【発明の実施の形態】以下、図面を参照しこの発明の一
実施形態について説明する。図1は、同実施形態による
脚式移動ロボットの要部構成を示すブロック図である。
この構成は、ロボットの移動経路上およびその周辺の床
面や壁面や障害物などを計測対象物体としてその距離を
測定し、二足歩行時の足の着地位置が適切になるように
ロボットの脚を制御することを目的とするものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a main configuration of the legged mobile robot according to the embodiment.
This configuration measures the distance of the floor, wall, obstacles, etc. on and around the robot's movement path as the measurement target object, and adjusts the robot's legs so that the foot landing position during bipedal walking is appropriate. Is to be controlled.

【0017】図1において、符号1は、計測対象物体
(床面など)に対してマルチスリット光を照射するレー
ザ光源(発光手段)である。また、2aおよび2bは、
それぞれレーザ光源1によるスリット光が照射された計
測対象物体を撮像する狭基線長カメラ(撮像手段)およ
び広基線長カメラ(撮像手段)である。狭基線長カメラ
2aは相対的にレーザ光源1の近くに設け、広基線長カ
メラ2bは相対的にレーザ光源1から離れた位置に設け
られている。つまり、本実施形態では、少なくとも2つ
のカメラを備え、第1のカメラとレーザ光源との距離
が、第2のカメラと当該レーザ光源との距離と異なるよ
うに、カメラおよびレーザ光源を配置している。また、
3は、レーザ光源1に対するタイミング信号を出力する
ことにより、レーザ光源1の発光のタイミングおよび狭
基線長カメラ2aと広基線長カメラ2bとによる撮像の
タイミングとを制御する発光制御部(発光制御手段)で
ある。
In FIG. 1, reference numeral 1 denotes a laser light source (light emitting means) for irradiating an object to be measured (a floor or the like) with multi-slit light. 2a and 2b are
They are a narrow baseline camera (imaging means) and a wide baseline camera (imaging means) for imaging the measurement target object irradiated with the slit light from the laser light source 1, respectively. The narrow baseline camera 2a is provided relatively near the laser light source 1, and the wide baseline camera 2b is provided relatively far from the laser light source 1. That is, in the present embodiment, at least two cameras are provided, and the camera and the laser light source are arranged so that the distance between the first camera and the laser light source is different from the distance between the second camera and the laser light source. I have. Also,
Reference numeral 3 denotes a light emission control unit (light emission control unit) that outputs a timing signal to the laser light source 1 to control the light emission timing of the laser light source 1 and the imaging timing of the narrow baseline camera 2a and the wide baseline camera 2b. ).

【0018】また、4はカメラ2によって撮像された画
像を取り込みA/D変換(アナログ/デジタル変換)し
て画像メモリに記憶する画像取り込み部であり、5は画
像取り込み部4によって取り込まれた画像を基に計測対
象物体までの距離を算出する距離推定部(距離算出手
段)である。また、8はロボットの移動経路を決定する
移動経路決定部、6は移動経路決定部8が決定した経路
情報と距離推定部5による距離算出結果とを基にロボッ
トの足の着地位置を決定する着地位置決定部、7は着地
位置決定部6が決定した着地位置に足を持っていくよう
にロボットのバランスを取りながらロボットの脚を駆動
するモータを制御する脚制御部(脚制御手段)である。
Reference numeral 4 denotes an image capturing unit which captures an image captured by the camera 2 and performs A / D conversion (analog / digital conversion) and stores it in an image memory. Reference numeral 5 denotes an image captured by the image capturing unit 4. Is a distance estimating unit (distance calculating means) that calculates the distance to the measurement target object based on the distance. Reference numeral 8 denotes a moving path determining unit that determines the moving path of the robot, and 6 determines the landing position of the robot's foot based on the path information determined by the moving path determining unit 8 and the distance calculation result by the distance estimating unit 5. A landing position determination unit 7 is a leg control unit (leg control means) that controls a motor that drives the legs of the robot while balancing the robot so as to bring the foot to the landing position determined by the landing position determination unit 6. is there.

【0019】図2は、本実施形態が利用している光切断
法の原理を示す断面図である。図2において、符号90
1は三次元計測装置に設けられたスリット光源、902
は前記三次元計測装置に設けられている撮像のためのレ
ンズ、903はレンズ902による像の結像面、905
は結像面903の中心点であり、この中心点905は結
像面903と撮像方向軸との交点である。また、901
aはスリット光源901から照射されるスリット光面、
910は測定対象物体、911はスリット光面901a
が測定対象物体を照射している照射点の一つである。
FIG. 2 is a sectional view showing the principle of the light section method used in the present embodiment. In FIG.
Reference numeral 1 denotes a slit light source provided in the three-dimensional measuring device;
Reference numeral 903 denotes a lens for imaging provided in the three-dimensional measurement apparatus, reference numeral 903 denotes an image forming plane of an image by the lens 902, and reference numeral 905
Is the center point of the imaging plane 903, and this center point 905 is the intersection of the imaging plane 903 and the imaging direction axis. Also, 901
a is a slit light surface emitted from the slit light source 901;
910 is an object to be measured, 911 is a slit light surface 901a
Is one of the irradiation points irradiating the object to be measured.

【0020】ここで、スリット光源901とレンズ90
2の中心との距離をL(基線長)とする。また、図上の
基準線は、スリット光源901とレンズ902とを結ぶ
線を含む測定面(図6の断面に垂直な面)に垂直な方向
を示している。また、スリット光の測定面に対する角度
をθ、レンズ902の中心と照射点911とを結ぶ線の
測定面に対する角度をφとする。ここで、測定面から測
定対象物体910までの距離Zを求めるためには、次式
のような計算を行えば良い。
Here, the slit light source 901 and the lens 90
The distance from the center of 2 is L (base line length). The reference line in the drawing indicates a direction perpendicular to the measurement surface (the surface perpendicular to the cross section in FIG. 6) including the line connecting the slit light source 901 and the lens 902. The angle of the slit light with respect to the measurement surface is θ, and the angle of the line connecting the center of the lens 902 and the irradiation point 911 with respect to the measurement surface is φ. Here, in order to determine the distance Z from the measurement surface to the measurement target object 910, a calculation such as the following equation may be performed.

【0021】Z=L・tan(θ)・tan(φ)/
(tan(θ)+tan(φ)) ただし、「tan()」は正接関数を表わす。
Z = Ltan (θ) tan (φ) /
(Tan (θ) + tan (φ)) where “tan ()” represents a tangent function.

【0022】なお、上記φは、撮像方向(中心点905
とレンズ902の中心とを結ぶ方向)の撮像面に対する
角度φ0と撮像方向に対する照射点911の変位角φ1
とを用いて、次式で表わされる。
Note that φ is the imaging direction (center point 905).
Φ0 with respect to the imaging plane (in the direction connecting the lens and the center of the lens 902) and the displacement angle φ1 of the irradiation point 911 with respect to the imaging direction.
And is expressed by the following equation.

【0023】φ=φ0+φ1Φ = φ0 + φ1

【0024】また、変位角φ1は、レンズ902と結像
面903との間の距離lと、結像面903における照射
点911の像の中心点905からの変位Δxを用いて、
次式で表わされる。
The displacement angle φ1 is calculated by using the distance 1 between the lens 902 and the image plane 903 and the displacement Δx of the irradiation point 911 from the image center point 905 on the image plane 903.
It is expressed by the following equation.

【0025】φ1=arctan(Δx/l) ただし、「arctan()」は正接逆関数を表わす。Φ1 = arctan (Δx / l) where “arctan ()” represents an inverse tangent function.

【0026】以上、断面図を用いて説明したが、スリッ
ト光は当該断面だけではなく、測定対象物体910の表
面に線状の切断線を形成するように照射されるため、測
定面からその切断線上の各箇所までの距離を測定するこ
とができる。本実施形態では、レーザ光源1はマルチス
リット光を照射するため、その各々が形成する光切断線
を用いて、照射される範囲の測定を行うことが可能であ
る。
As described above with reference to the cross-sectional view, the slit light is applied not only to the cross section but also to form a linear cutting line on the surface of the object 910 to be measured. The distance to each point on the line can be measured. In the present embodiment, since the laser light source 1 irradiates the multi-slit light, it is possible to measure the illuminated range using the light cutting line formed by each.

【0027】図3は、本実施形態による脚式移動ロボッ
トの外見的構造を示す側面図である。この図において、
符号20は床面、20aは床面20上に存在している突
起面、21は人間型ロボットである。また、この人間型
ロボット21は、上腕部22a、下腕部22b、手部2
2c、胴部23(本体)、腰部24(本体)、脚部25
などの各部から成っている。なお上腕部22aと下腕部
22bと手部22cとそれらをつなぐ関節によって、対
象物を空間内で移動させるための多関節マニピュレータ
が構成される。
FIG. 3 is a side view showing the external structure of the legged mobile robot according to the present embodiment. In this figure,
Reference numeral 20 denotes a floor surface, 20a denotes a protruding surface existing on the floor surface 20, and 21 denotes a humanoid robot. The humanoid robot 21 includes an upper arm 22a, a lower arm 22b, and a hand 2
2c, trunk 23 (body), waist 24 (body), leg 25
It consists of each part. The upper arm 22a, the lower arm 22b, the hand 22c, and the joints connecting them form a multi-joint manipulator for moving an object in space.

【0028】また、31〜34は人間型ロボット21の
各部をつなぐ関節の回転軸である。例えば、上腕部22
aは、関節を介して胴部23に取り付けられており、回
転軸31を中心として図示する矢印破線(A)のような
運動を行う。例えば、この人間型ロボット21が荷物を
運搬するときには、肘関節を曲げて上腕部22aと下腕
部22bとがほぼ90度の角度をなすようにしてそこに
荷物を抱えることが可能である。
Numerals 31 to 34 denote rotation axes of joints that connect various parts of the humanoid robot 21. For example, the upper arm 22
“a” is attached to the trunk 23 via a joint, and makes a motion about the rotation shaft 31 as shown by a broken arrow (A) in the figure. For example, when the humanoid robot 21 carries a load, it is possible to hold the load by bending the elbow joint so that the upper arm 22a and the lower arm 22b form an angle of approximately 90 degrees.

【0029】また、27は外部センサである。この外部
センサ27には、少なくとも図1に示したレーザ光源1
と狭基線長カメラ2aと広基線長カメラ2bとが組み込
まれており、レーザ光源1によって符号28で示す範囲
にマルチスリット光を照射するとともに、照射された床
面20や突起面20aを狭基線長カメラ2aと広基線長
カメラ2bとのいずれかあるいは両方によって撮像す
る。そして前述の原理によって各光切断線形成位置まで
の距離を計測し、足の着地位置を決定し、脚の移動を制
御する。
Reference numeral 27 denotes an external sensor. The external sensor 27 includes at least the laser light source 1 shown in FIG.
And a narrow base length camera 2a and a wide base length camera 2b. The laser light source 1 irradiates a multi-slit light to a range indicated by reference numeral 28, and irradiates the irradiated floor surface 20 and projection surface 20a with a narrow base line. An image is taken by one or both of the long camera 2a and the wide baseline camera 2b. Then, the distance to each light cutting line forming position is measured according to the above-described principle, the landing position of the foot is determined, and the movement of the leg is controlled.

【0030】通常サイズの人間型ロボットにおいて、図
3に示したように腰部に外部センサを設ける場合と、従
来技術のように頭部に外部センサを設ける場合とでは、
以下に述べるような違いが生じることが、実験等によっ
て判明している。
In a humanoid robot of a normal size, the case where an external sensor is provided on the waist as shown in FIG. 3 and the case where an external sensor is provided on the head as in the prior art are:
It has been found through experiments and the like that the following differences occur.

【0031】(1)最大基線長 基線長、つまりスリット光源とカメラとの間の距離は、
頭部に設ける場合よりも腰部に設ける場合のほうが広く
とることができる。例えば、頭部に設ける場合の最大基
線長が7センチメートル(cm)程度であるのに対し
て、腰部に設ける場合には20cm程度とすることがで
きる。
(1) Maximum Base Line Length The base line length, that is, the distance between the slit light source and the camera is:
It can be wider when provided on the waist than when provided on the head. For example, while the maximum base line length is about 7 cm (cm) when provided on the head, it can be about 20 cm when provided on the waist.

【0032】(2)床面までの距離 外部センサから床面までの距離は、頭部に設ける場合よ
りも腰部に設ける場合のほうが小さい。例えば、頭部に
設ける場合は150cm程度であるのに対して、腰部に
設ける場合には80cm程度である。
(2) Distance to Floor The distance from the external sensor to the floor is smaller when it is provided on the waist than when it is provided on the head. For example, it is about 150 cm when provided on the head, and about 80 cm when provided on the waist.

【0033】(3)計測精度 上記の最大基線長と床面までの距離の違いにより、頭部
に設ける場合より腰部に設ける場合のほうが高精度な計
測をすることができる。例えば、同じタイプのカメラお
よびレンズを用いた撮影を行う場合、頭部に設けられた
外部センサの計測精度が±55ミリメートル(mm)程
度であるのに対して、腰部に設けられた場合の計測制度
は±5mm程度であり、絶対値において10倍以上の精
度差が生じる。
(3) Measurement accuracy Due to the difference between the maximum base line length and the distance to the floor, higher accuracy can be obtained when the sensor is provided at the waist than at the head. For example, when performing photographing using the same type of camera and lens, the measurement accuracy of the external sensor provided on the head is about ± 55 mm (mm), whereas the measurement accuracy of the external sensor provided on the waist is The precision is about ± 5 mm, and a precision difference of 10 times or more occurs in absolute value.

【0034】(4)防震/追従機能の必要性 頭部に設ける外部センサで±5mm程度の距離計測制度
を実現するためには光切断線の撮像に望遠レンズを用い
る必要があるが、二足歩行を行うロボットの頭部にこの
ように画角の狭い望遠レンズを設けて安定的な計測を行
うためには、移動に伴って生じる振動の影響を受けにく
くするための防震機能や、撮像対象を追従する追従機能
を設ける必要が生じる。腰部に外部センサを設ける場合
には、特にこれらの機能を付加せずに±5mmの精度を
実現することができる。よって、ロボットの構成の複雑
さやコストの観点からは、腰部に外部センサを設ける方
が有利である。
(4) Necessity of Seismic Isolation / Follow-up Function In order to realize a distance measuring system of about ± 5 mm with an external sensor provided on the head, it is necessary to use a telephoto lens for imaging of a light cutting line. In order to provide a telephoto lens with a narrow angle of view on the head of a walking robot to perform stable measurement, an anti-shake function to reduce the effects of vibration caused by movement and the imaging target It is necessary to provide a following function for following the following. When an external sensor is provided on the waist, an accuracy of ± 5 mm can be achieved without adding these functions. Therefore, it is more advantageous to provide an external sensor at the waist from the viewpoint of the complexity and cost of the configuration of the robot.

【0035】(5)視野 頭部に外部センサを設ける場合は、首関節等を動かすこ
とにより、上下左右の広い範囲を視野に捉えることがで
きる。一方、腰部に外部センサを設ける場合には、基本
的には視野は前方だけであり、腰をある程度左右に回す
ことができる場合にもその視野範囲は限定的である。
(5) Field of View When an external sensor is provided on the head, a wide range of up, down, left, and right can be captured by moving a neck joint or the like. On the other hand, when an external sensor is provided on the waist, the field of view is basically only the front, and the range of the field of view is limited even when the waist can be turned left and right to some extent.

【0036】(6)環境認識/遠隔操縦との共存 頭部に外部センサを設ける場合には、ロボットの動作環
境の認識の処理と床面等までの距離計測の処理とを時分
割で行う必要があり、制御が複雑になる。一方、腰部に
設けられる外部センサは、床面等の計測を行うのみであ
るため、比較的容易に環境認識/遠隔操縦と共存するこ
とができる。
(6) Coexistence with Environment Recognition / Remote Control When an external sensor is provided on the head, it is necessary to perform processing for recognizing the operating environment of the robot and processing for measuring the distance to the floor or the like in a time sharing manner. Control becomes complicated. On the other hand, since the external sensor provided on the waist only measures the floor surface or the like, it can relatively easily coexist with environment recognition / remote control.

【0037】(7)レーザ光反射強度 頭部に外部センサを設ける場合には床面等で反射してカ
メラに入射するレーザ光の強度は0.29倍であるのに
対して、腰部に外部センサを設ける場合のそれは3.5
倍である。これら両者間では約12倍の開きがあり、腰
部に外部センサを設ける場合のほうが光切断線を確実に
認識して安定的な計測を行うことができる。
(7) Reflection intensity of laser light When an external sensor is provided on the head, the intensity of the laser light reflected on the floor or the like and incident on the camera is 0.29 times, whereas the intensity of the external light is When a sensor is provided, it is 3.5
It is twice. There is approximately a 12-fold gap between the two, and when an external sensor is provided on the waist, the light cutting line can be recognized more reliably and stable measurement can be performed.

【0038】(8)腕部による床面の隠蔽 頭部に外部センサを設ける場合には、腕部を胴部より前
方に出した状態において床面の一部が遮られ、計測可能
な範囲が狭まる。また、胴部より前方で、荷物を腕部で
抱えたり手に持ったりした場合には、さらに計測範囲が
狭まり、まったく計測できなくなってしまう場合もあ
る。 一方、腰部に外部センサを設ける場合には、腕部
や手による床面の隠蔽は全くなくなるか、あるいは圧倒
的に少なくなり、ロボットの動作中も安定的に床面等を
計測することができる。
(8) Concealment of floor surface by arm When an external sensor is provided on the head, a part of the floor is blocked when the arm is put forward from the trunk, so that the measurable range is reduced. Narrow. In addition, when the luggage is held by the arm or held in the hand in front of the trunk, the measurement range is further narrowed, and the measurement may not be performed at all. On the other hand, when an external sensor is provided on the waist, the floor is not concealed at all by the arms or hands, or is significantly reduced, and the floor and the like can be stably measured even during the operation of the robot. .

【0039】(9)床面に対する腰位置の位置決め精度 頭部に外部センサを設ける場合には、腰部から頭部まで
の間の運動自由度があるため、この間の幾何補正が必要
になるとともに、位置決め精度が低くなる。一方、腰部
に外部センサを設ける場合には、腰と外部センサが直結
しており、ロボットの動作中も一体となっているため位
置決め精度が高い。
(9) Positioning accuracy of the waist position with respect to the floor surface When an external sensor is provided on the head, since there is a degree of freedom of movement from the waist to the head, geometric correction during this time is required. Positioning accuracy decreases. On the other hand, when an external sensor is provided on the waist, the waist and the external sensor are directly connected and are integrated during the operation of the robot, so that the positioning accuracy is high.

【0040】以上のように、従来技術のように頭部に外
部センサを設ける場合に比べて、本実施形態のように腰
部に設ける場合のほうが、計測精度や、コストや、計測
方向の維持や、マニピュレータによる隠蔽の影響などの
点において有利である。
As described above, when the external sensor is provided on the head as in the prior art, the measurement accuracy, cost, maintenance of the measurement direction, This is advantageous in terms of the influence of concealment by the manipulator.

【0041】次に、本実施形態における2台のカメラの
使い分けについて説明する。図1にも示したように、本
実施形態によるロボットは狭基線長カメラ2aと広基線
長カメラ2bとを備えている。狭基線長カメラ2aと広
基線長カメラ2bの画角が互いに等しい場合、狭基線長
カメラ2aで撮った画像は、広基線長カメラ2bで撮っ
た画像に比べて、より広い距離レンジに存在する測定対
象物体を捉えることができる。一方、光切断法の原理か
ら明らかなように、広基線長カメラ2bで撮った画像を
用いることにより、狭基線長カメラ2aで撮った画像を
用いる場合よりも高精度な距離測定を行うことができ
る。つまり、狭基線長カメラ2aと広基線長カメラ2b
とを適宜使い分けることにより、より広い範囲の測定対
象物体までの距離をより高精度に測定することが可能と
なる。つまり、例えば、まず狭基線長カメラ2aを用い
て測定対象物体までの距離を大まかな精度で測定し、こ
の距離測定結果に応じて必要な場合には広基線長カメラ
2bの撮像方向を調整し、次に広基線長カメラ2bを用
いて測定対象物体までの距離を高精度で測定するように
する。これにより、広い距離レンジの測定対象物体を高
精度に測定することが可能となる。
Next, the proper use of two cameras in this embodiment will be described. As shown in FIG. 1, the robot according to the present embodiment includes a narrow baseline camera 2a and a wide baseline camera 2b. When the angles of view of the narrow baseline camera 2a and the wide baseline camera 2b are equal to each other, the image captured by the narrow baseline camera 2a exists in a wider distance range than the image captured by the wide baseline camera 2b. An object to be measured can be captured. On the other hand, as is clear from the principle of the light section method, it is possible to perform distance measurement with higher accuracy by using an image taken by the wide baseline camera 2b than by using an image taken by the narrow baseline camera 2a. it can. That is, the narrow baseline camera 2a and the wide baseline camera 2b
It is possible to more accurately measure the distance to the object to be measured in a wider range by appropriately using. That is, for example, first, the distance to the object to be measured is measured with rough accuracy using the narrow baseline camera 2a, and the imaging direction of the wide baseline camera 2b is adjusted if necessary according to the distance measurement result. Then, the distance to the object to be measured is measured with high accuracy using the wide baseline camera 2b. This makes it possible to measure a measurement target object in a wide distance range with high accuracy.

【0042】また、これら2台のカメラを用いて二眼立
体視を行うことによって、床面を高精度で検出するとと
もに、遠方の障害物を高精度で検出することができる。
このような二眼立体視を行うためには、例えば、両カメ
ラで撮像した画像をそれぞれA/D変換(アナログ/デ
ジタル変換)して画像メモリに取り込み、対応処理手段
によって、これら複数の画像にそれぞれ含まれる同一の
撮像物体の対応付けを行い、対応のとれた撮像物体まで
の距離を三角測量の原理に基づいて当該物体の視差を用
いて算出するようにする。このような二眼立体視を用い
た計測の詳細は、例えば本出願人の出願による「車両用
環境認識装置」(特開平9−159442号公報))な
どに記載されている。
Further, by performing binocular stereoscopic vision using these two cameras, a floor surface can be detected with high accuracy, and a distant obstacle can be detected with high accuracy.
In order to perform such binocular stereoscopic vision, for example, images captured by both cameras are respectively A / D converted (analog / digital converted) and fetched into an image memory. The same included imaging object is associated with each other, and the distance to the associated imaging object is calculated using the parallax of the object based on the principle of triangulation. The details of such measurement using binocular stereovision are described in, for example, "Vehicle Environment Recognition Apparatus" (Japanese Patent Application Laid-Open No. 9-159442) filed by the present applicant.

【0043】なお、上記実施形態においては、狭基線長
カメラ2aと広基線長カメラ2bの2台のカメラを用い
ることとしたが、カメラの台数は任意であり、1台であ
っても良いし3台以上であっても良い。
In the above embodiment, two cameras, the narrow base length camera 2a and the wide base length camera 2b, are used. However, the number of cameras is arbitrary, and one camera may be used. There may be three or more.

【0044】また、上記実施形態においては腰部に外部
センサを設けることとしたが、腰部に限らず、例えば腰
部周辺など、縦方向において脚部とマニピュレータとの
間の任意の位置に外部センサを設けるようにしても良
い。また、人間型ロボットに限らず、脚部より上方に配
置されたマニピュレータを有する脚式移動ロボットにお
いて、縦方向において脚部とマニピュレータとの間の任
意の位置に外部センサを設けるようにした場合にも、同
様の効果が得られる。
In the above embodiment, the external sensor is provided at the waist, but the external sensor is provided at an arbitrary position between the leg and the manipulator in the vertical direction, for example, around the waist, for example. You may do it. In addition, in the case of a legged mobile robot having a manipulator disposed above a leg, not limited to a humanoid robot, when an external sensor is provided at an arbitrary position between the leg and the manipulator in the vertical direction. Has the same effect.

【0045】ここで、外部センサをマニピュレータより
下に設ける理由は、前述のように床面計測の際のマニピ
ュレータによる干渉を避けるためである。また、外部セ
ンサを脚部より上に設ける理由は、必要な範囲を広く計
測できるようにするためである。仮に、例えば脚部に外
部センサを設けた場合には、以下に説明するような不具
合が生じる。
Here, the reason why the external sensor is provided below the manipulator is to avoid interference by the manipulator when measuring the floor surface as described above. The reason why the external sensor is provided above the leg is to enable a wide range to be measured. If, for example, an external sensor is provided on the leg, the following problem will occur.

【0046】図4は、人間型ロボットの脚部に外部セン
サを設けた場合のマルチスリット光照射範囲を示す側面
図である。図4において、符号21は人間型ロボット、
40は床面、40aは床面40上に存在している障害物
の上面、40bは同障害物の側面、47は人間型ロボッ
ト21の脚部に設けられた外部センサ、48は外部セン
サ47によるマルチスリット光照射範囲である。図示す
るように、この例では、外部センサ47の設置位置が低
すぎるために、障害物の側面40bの一部を計測するこ
とはできるものの、上面40aや障害物の向こう側の床
面を計測することができない。このように計測範囲が制
限されることによって、ある程度の高さの障害物ならば
跨いで通れるという脚式ロボットのメリットを活かせな
くなってしまう。
FIG. 4 is a side view showing a multi-slit light irradiation range when an external sensor is provided on the leg of the humanoid robot. In FIG. 4, reference numeral 21 denotes a humanoid robot,
40 is a floor surface, 40a is an upper surface of an obstacle existing on the floor surface 40, 40b is a side surface of the obstacle, 47 is an external sensor provided on the leg of the humanoid robot 21, and 48 is an external sensor 47 Is a multi-slit light irradiation range. As shown, in this example, since the installation position of the external sensor 47 is too low, a part of the side surface 40b of the obstacle can be measured, but the top surface 40a and the floor surface beyond the obstacle are measured. Can not do it. By restricting the measurement range in this way, the advantage of the legged robot that an obstacle having a certain height can be traversed cannot be utilized.

【0047】また、図4に示すような障害物がない状況
においても、外部センサの設置位置が低すぎると、床面
を照射する充分な角度が得られないために遠い方の計測
制度が悪くなったり、階段を降りる場合に階段面を計測
するのに必要な照射角度が得られなかったりという不都
合が生じる。
In addition, even when there is no obstacle as shown in FIG. 4, if the external sensor is installed at an excessively low position, a sufficient angle for irradiating the floor cannot be obtained, so that the measurement system at a distant place is poor. In addition, there is a problem in that an irradiation angle required for measuring a stair surface cannot be obtained when descending the stairs.

【0048】[0048]

【発明の効果】以上説明したように、この発明によれ
ば、脚式移動ロボットにおいて、下方の計測対象物体を
検出する外部センサを、脚部と本体との結合部よりも上
でありかつマニピュレータと本体との結合部よりも下に
設けているため、マニピュレータの干渉を受けずに計測
対象物体を検知・計測することが可能となる。
As described above, according to the present invention, in the legged mobile robot, the external sensor for detecting the object to be measured below is provided above the joint between the leg and the main body and the manipulator is provided. It is possible to detect and measure the object to be measured without receiving the interference of the manipulator since it is provided below the joint between the body and the main body.

【0049】また、この発明によれば、人間型ロボット
の腰部または腰部周辺に外部センサを配置しているた
め、首関節や胴部の動きによらず、常に前方つまり進行
方向の床面や障害物を容易かつ安定的に検知・計測する
ことが可能となる。
Further, according to the present invention, since the external sensor is arranged at the waist or around the waist of the humanoid robot, the floor or obstacle in the forward direction, that is, the traveling direction is always irrespective of the movement of the neck joint or the torso. Objects can be easily and stably detected and measured.

【0050】また、この発明によれば、外部センサは、
スリット光を照射する発光手段と該スリット光が前記計
測対象物体上に形成する光切断線を撮像する撮像手段と
を備えており、この撮像手段によって撮像された画像を
基に光切断法などを用いて計測対象物体までの距離を算
出するため、脚式移動ロボットは床面等までの距離を知
り、床面等の形状を検出できる。また、この算出された
距離および形状を基に、足の着地位置を決定し脚の動き
を制御することができる。
Further, according to the present invention, the external sensor
Light emitting means for irradiating slit light and imaging means for imaging a light cutting line formed by the slit light on the object to be measured are provided, and a light cutting method or the like is performed based on an image taken by the imaging means. Since the distance to the object to be measured is calculated using the distance, the legged mobile robot knows the distance to the floor or the like and can detect the shape of the floor or the like. In addition, the landing position of the foot can be determined based on the calculated distance and shape, and the movement of the leg can be controlled.

【0051】また、この発明によれば、前記撮像手段は
少なくとも2個のカメラで構成され、これらのカメラで
撮像された各画像の中の同一の物体を対応付け、この対
応付けられた物体の視差を用いて当該物体までの距離を
算出するため、二眼立体視を用いて、下方の床面を高精
度で計測するとともに遠方の障害物を高精度で検出する
ことができる。
Further, according to the present invention, the imaging means is constituted by at least two cameras, and associates the same object in each image captured by these cameras, Since the distance to the object is calculated using the parallax, the lower floor surface can be measured with high accuracy and the distant obstacle can be detected with high accuracy using binocular stereovision.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施形態による脚式移動ロボッ
トの要部構成を示すブロック図である。
FIG. 1 is a block diagram showing a main configuration of a legged mobile robot according to an embodiment of the present invention.

【図2】 同実施形態で利用している光切断法の原理を
示す断面図である。
FIG. 2 is a cross-sectional view showing the principle of the light-section method used in the embodiment.

【図3】 同実施形態による脚式移動ロボットの外見的
構造を示す側面図である。
FIG. 3 is a side view showing an external structure of the legged mobile robot according to the embodiment.

【図4】 ロボットにおける外部センサの設置位置が不
適切な場合の例を示す側面図である。
FIG. 4 is a side view showing an example where the installation position of the external sensor in the robot is inappropriate.

【符号の説明】[Explanation of symbols]

1 レーザ光源 2a 狭基線長カメラ 2b 広基線長カメラ 3 発光制御部 4 画像取り込み部 5 距離推定部 6 着地位置決定部 7 脚制御部 8 移動経路決定部 20 床面 20a 突起面 21 人間型ロボット 22a 上腕部 22b 下腕部 23 胴部 24 腰部 25 脚部 27 外部センサ 28 マルチスリット光照射範囲 31,32,33,34 関節の回転軸 A 上腕部22aの運動を示す破線 DESCRIPTION OF SYMBOLS 1 Laser light source 2a Narrow base length camera 2b Wide base length camera 3 Light emission control part 4 Image capture part 5 Distance estimation part 6 Landing position determination part 7 Leg control part 8 Movement path determination part 20 Floor surface 20a Projection surface 21 Humanoid robot 22a Upper arm part 22b Lower arm part 23 Body part 24 Waist part 25 Leg part 27 External sensor 28 Multi-slit light irradiation range 31, 32, 33, 34 Joint rotation axis A Broken line showing movement of upper arm part 22a

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G02B 7/28 G02B 7/11 B G03B 15/00 H Fターム(参考) 2F065 AA01 AA06 AA67 DD11 FF01 FF02 FF04 FF09 GG04 HH05 HH06 JJ03 JJ05 JJ26 LL04 QQ03 QQ24 QQ31 2H051 BB11 BB25 CC02 3F059 AA00 BA02 BB06 BC10 CA04 CA06 DA03 DA05 DA08 DB02 DB10 DC08 DD12 FA05 FB12 FB17 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G02B 7/28 G02B 7/11 B G03B 15/00 HF term (Reference) 2F065 AA01 AA06 AA67 DD11 FF01 FF02 FF04 FF09 GG04 HH05 HH06 JJ03 JJ05 JJ26 LL04 QQ03 QQ24 QQ31 2H051 BB11 BB25 CC02 3F059 AA00 BA02 BB06 BC10 CA04 CA06 DA03 DA05 DA08 DB02 DB10 DC08 DD12 FA05 FB12 FB17

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 移動を目的として本体に結合されている
脚部と、対象物を空間内で移動させるために前記本体に
結合されているマニピュレータとを有し、前記マニピュ
レータと前記本体との結合部が前記脚部と前記本体との
結合部よりも上に配置されている脚式移動ロボットにお
いて、 前記マニピュレータと前記本体との結合部よりも下であ
りかつ前記脚部と前記本体との結合部よりも上に、計測
対象物体を検出する外部センサを備えていることを特徴
とする脚式移動ロボット。
An object comprising: a leg coupled to a main body for movement; and a manipulator coupled to the main body for moving an object in a space, wherein the manipulator is coupled to the main body. A leg-type mobile robot, wherein a portion is disposed above a joint between the leg and the main body, wherein the portion is below a joint between the manipulator and the main body and the leg is coupled to the main body. A legged mobile robot comprising an external sensor for detecting an object to be measured, above a part.
【請求項2】 前記脚式移動ロボットは、腰部を有する
人間型ロボットであり、 前記外部センサは、前記腰部にまたは前記腰部周辺に配
置されていることを特徴とする請求項1に記載の脚式移
動ロボット。
2. The leg according to claim 1, wherein the legged mobile robot is a humanoid robot having a waist, and the external sensor is disposed at the waist or around the waist. Mobile robot.
【請求項3】 前記外部センサは、スリット光を照射す
る発光手段と該スリット光が前記計測対象物体上に形成
する光切断線を撮像する撮像手段とを備えていることを
特徴とする請求項1または2に記載の脚式移動ロボッ
ト。
3. The external sensor according to claim 2, further comprising: a light emitting unit that emits slit light; and an image pickup unit that captures an optical cutting line formed by the slit light on the object to be measured. 3. The legged mobile robot according to 1 or 2.
【請求項4】 前記撮像手段によって撮像された画像を
基に前記計測対象物体までの距離を算出する距離算出手
段を備えていることを特徴とする請求項3に記載の脚式
移動ロボット。
4. The legged mobile robot according to claim 3, further comprising a distance calculation unit that calculates a distance to the object to be measured based on an image captured by the imaging unit.
【請求項5】 前記距離算出手段によって算出された距
離の情報を基に前記脚部の動きを制御する脚制御手段を
備えていることを特徴とする請求項4に記載の脚式移動
ロボット。
5. The legged mobile robot according to claim 4, further comprising leg control means for controlling movement of the leg based on information on the distance calculated by the distance calculation means.
【請求項6】 前記撮像手段によって撮像された画像を
基に光切断法を用いて周囲を監視することを特徴とする
請求項3から5までのいずれかに記載の脚式移動ロボッ
ト。
6. The legged mobile robot according to claim 3, wherein the surroundings are monitored using a light section method based on the image captured by the image capturing unit.
【請求項7】 前記撮像手段は少なくとも2個のカメラ
で構成され、これらのカメラで撮像された各画像の中の
同一の物体を対応付け、この対応付けられた物体の視差
を用いて当該物体までの距離を算出することを特徴とす
る請求項3から6までのいずれかに記載の脚式移動ロボ
ット。
7. The image pickup means comprises at least two cameras, associates the same object in each image imaged by these cameras, and uses the parallax of the associated object to determine the object. The legged mobile robot according to any one of claims 3 to 6, wherein the distance to the mobile robot is calculated.
JP2000345820A 2000-11-13 2000-11-13 Legged mobile robot Expired - Lifetime JP4476468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000345820A JP4476468B2 (en) 2000-11-13 2000-11-13 Legged mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000345820A JP4476468B2 (en) 2000-11-13 2000-11-13 Legged mobile robot

Publications (2)

Publication Number Publication Date
JP2002144278A true JP2002144278A (en) 2002-05-21
JP4476468B2 JP4476468B2 (en) 2010-06-09

Family

ID=18819785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000345820A Expired - Lifetime JP4476468B2 (en) 2000-11-13 2000-11-13 Legged mobile robot

Country Status (1)

Country Link
JP (1) JP4476468B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040039028A (en) * 2002-10-30 2004-05-10 엘지전자 주식회사 Roadblock detection apparatus for robot
JP2005067281A (en) * 2003-08-20 2005-03-17 Toshiba Corp Distance detecting device, air bag control device, and distance detecting method
JP2005177927A (en) * 2003-12-19 2005-07-07 Yaskawa Electric Corp Mobile robot
JP2006192562A (en) * 2004-12-14 2006-07-27 Honda Motor Co Ltd Autonomous mobile robot
JP2007319939A (en) * 2006-05-30 2007-12-13 Toyota Motor Corp Leg walking type movable body, and system for controlling the same
JP2008224380A (en) * 2007-03-12 2008-09-25 Univ Of Electro-Communications Device and method for recognizing movement environment
EP1975046A1 (en) * 2007-03-29 2008-10-01 Honda Motor Co., Ltd Legged locomotion robot
JP2008264947A (en) * 2007-04-20 2008-11-06 Toyota Motor Corp Plane sensing method and mobile robot
US7643906B2 (en) 2006-05-09 2010-01-05 Industrial Technology Research Institute Obstacle and cliff avoiding system and method thereof
US7742840B2 (en) 2004-12-14 2010-06-22 Honda Motor Co., Ltd. Autonomous mobile robot
JP2010253655A (en) * 2009-04-28 2010-11-11 Toyota Motor Corp Legged robot and control method for the same
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot
JP2012117833A (en) * 2010-11-29 2012-06-21 Equos Research Co Ltd Image recognition device, mounting type robot, and image recognition program
JP2012242368A (en) * 2011-05-24 2012-12-10 Nsk Ltd Movement environment recognition device and method
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
CN112917471A (en) * 2019-12-06 2021-06-08 纬创资通股份有限公司 Control device, exoskeleton system and control method
WO2022153842A1 (en) * 2021-01-18 2022-07-21 ソニーグループ株式会社 Moving device and moving device control method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040039028A (en) * 2002-10-30 2004-05-10 엘지전자 주식회사 Roadblock detection apparatus for robot
JP2005067281A (en) * 2003-08-20 2005-03-17 Toshiba Corp Distance detecting device, air bag control device, and distance detecting method
JP2005177927A (en) * 2003-12-19 2005-07-07 Yaskawa Electric Corp Mobile robot
US7742840B2 (en) 2004-12-14 2010-06-22 Honda Motor Co., Ltd. Autonomous mobile robot
JP2006192562A (en) * 2004-12-14 2006-07-27 Honda Motor Co Ltd Autonomous mobile robot
US7933684B2 (en) 2004-12-14 2011-04-26 Honda Motor Co., Ltd. Autonomous mobile robot
JP4564447B2 (en) * 2004-12-14 2010-10-20 本田技研工業株式会社 Autonomous mobile robot
US7643906B2 (en) 2006-05-09 2010-01-05 Industrial Technology Research Institute Obstacle and cliff avoiding system and method thereof
JP2007319939A (en) * 2006-05-30 2007-12-13 Toyota Motor Corp Leg walking type movable body, and system for controlling the same
JP2008224380A (en) * 2007-03-12 2008-09-25 Univ Of Electro-Communications Device and method for recognizing movement environment
EP1975046A1 (en) * 2007-03-29 2008-10-01 Honda Motor Co., Ltd Legged locomotion robot
US8019145B2 (en) 2007-03-29 2011-09-13 Honda Motor Co., Ltd. Legged locomotion robot
JP2008264947A (en) * 2007-04-20 2008-11-06 Toyota Motor Corp Plane sensing method and mobile robot
JP2010253655A (en) * 2009-04-28 2010-11-11 Toyota Motor Corp Legged robot and control method for the same
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
JP2012117833A (en) * 2010-11-29 2012-06-21 Equos Research Co Ltd Image recognition device, mounting type robot, and image recognition program
JP2012242368A (en) * 2011-05-24 2012-12-10 Nsk Ltd Movement environment recognition device and method
CN112917471A (en) * 2019-12-06 2021-06-08 纬创资通股份有限公司 Control device, exoskeleton system and control method
EP3831541A1 (en) * 2019-12-06 2021-06-09 Wistron Corporation Exoskeleton system, control device and control method
CN112917471B (en) * 2019-12-06 2022-05-24 纬创资通股份有限公司 Control device, exoskeleton system and control method
WO2022153842A1 (en) * 2021-01-18 2022-07-21 ソニーグループ株式会社 Moving device and moving device control method

Also Published As

Publication number Publication date
JP4476468B2 (en) 2010-06-09

Similar Documents

Publication Publication Date Title
US11408728B2 (en) Registration of three-dimensional coordinates measured on interior and exterior portions of an object
JP2002144278A (en) Legged mobile robot
JP5290324B2 (en) Method and system for accurately positioning at least one object in a final pose in space
US9279661B2 (en) Information processing apparatus and information processing method
JP4015161B2 (en) Industrial robot controller
US20140371910A1 (en) Robot system and robot control method
WO2019012770A1 (en) Imaging device and monitoring device
JP3754402B2 (en) Industrial robot control method and control apparatus
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP2005526229A (en) 6-dimensional laser tracking system and method
CN106537185B (en) Device for detecting obstacles by means of intersecting planes and detection method using said device
AU2015270607B2 (en) Device for detection of obstacles in a horizontal plane and detection method implementing such a device
EP3193229B1 (en) Mobile body control device and mobile body
US10697754B2 (en) Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera
JP2956657B2 (en) Distance measuring device
JP2002213920A (en) Method and device for confirming position of moving body
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera
JP3925129B2 (en) Three-dimensional imaging apparatus and method
JP2004077262A (en) Three-dimensional imaging apparatus and method
JP4381593B2 (en) 3D measuring device
JP2003148926A (en) Portable three-dimensional shape measuring apparatus
JP2003200377A (en) Robot and method for measuring distance by robot
JPH0712893Y2 (en) Non-contact 3D position measuring device
JPS5991308A (en) Method for detecting surface configuration
US10885368B2 (en) Six-dimensional smart target

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100310

R150 Certificate of patent or registration of utility model

Ref document number: 4476468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

EXPY Cancellation because of completion of term