JPH05285868A - Walking control device for leg type moving robot - Google Patents

Walking control device for leg type moving robot

Info

Publication number
JPH05285868A
JPH05285868A JP4121432A JP12143292A JPH05285868A JP H05285868 A JPH05285868 A JP H05285868A JP 4121432 A JP4121432 A JP 4121432A JP 12143292 A JP12143292 A JP 12143292A JP H05285868 A JPH05285868 A JP H05285868A
Authority
JP
Japan
Prior art keywords
walking
stop
flow chart
robot
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4121432A
Other languages
Japanese (ja)
Inventor
Yuji Haikawa
有二 配川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP4121432A priority Critical patent/JPH05285868A/en
Publication of JPH05285868A publication Critical patent/JPH05285868A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To perform stable walking by a method wherein the walking mode of a leg type moving robot having a plurality of leg part links is classified into a plurality of walking modes, a target value is described through combination of the walking modes, and the drive control value of the leg part link is decided based on the target value. CONSTITUTION:A square sensor 32 comprising a CCD camera is arranged to the base body 24 of a two-feet walking leg type moving robot 1 having right and left leg part links 2 and an output therefrom is inputted to a control unit 26 through an image processing unit 34. In which case, evaluation is effected by means of a first evaluation function for throttling the whole shape feature point of a whole object where environment acknowledge information is hierachically described, a list of a feature point candidacy is produced in the order of the evaluated results, and based on the list, walking plan processing is performed. Moving operation of a robot is divided into five kinds of straight advancing, walking up and down stairs, conversion of a direction, regulation of a walking width (in a longitudinal direction), and a regulation of a walking width in a lateral direction with a stop therebetween. Through combination of the operations, walking operation is executed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は脚式移動ロボットの歩
行制御装置に関し、より具体的には所定の環境内を移動
する脚式移動ロボットにおいてその歩行制御を容易とし
たものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a walking control device for a legged mobile robot, and more particularly, to a legged mobile robot that moves in a predetermined environment to facilitate its walking control.

【0002】[0002]

【従来の技術】近時、脚式の移動型ロボットとしては特
開昭62−97005号公報に記載のものなどが提案さ
れている。
2. Description of the Related Art Recently, a legged mobile robot such as that disclosed in Japanese Patent Laid-Open No. 62-97005 has been proposed.

【0003】[0003]

【発明が解決しようとする課題】そのような脚式移動ロ
ボットが現実に歩行するときは、障害物が多数存在する
環境内を障害物を回避しつつ移動できる様に歩行制御し
なければならず、その様な環境でも安定した歩行制御を
実現することは、実際には容易ではない。
When such a legged mobile robot actually walks, it is necessary to control walking so that it can move while avoiding obstacles in an environment where there are many obstacles. Actually, it is not easy to realize stable walking control even in such an environment.

【0004】従って、この発明の目的は、障害物が多数
存在する様な環境においても安定に歩行制御できる様に
した脚式移動ロボットの歩行制御装置を提供することに
ある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a walking control device for a legged mobile robot capable of performing stable walking control even in an environment where many obstacles are present.

【0005】[0005]

【課題を解決するための手段】上記した課題を解決する
ためにこの発明は例えば請求項1項に示す如く、複数本
の脚部リンクを備えてなる脚式移動ロボットの歩行制御
装置において、歩行態様を複数個の歩行様式に分類し、
該複数個の歩行様式の組み合わせで目標値を記述し、該
目標値となるべく前記脚部リンクの駆動制御値を決定す
る様に構成した。
In order to solve the above-mentioned problems, the present invention provides a walking control device for a legged mobile robot comprising a plurality of leg links, as set forth in claim 1, for example. The mode is classified into a plurality of walking patterns,
The target value is described by a combination of the plurality of walking patterns, and the drive control value of the leg link is determined to be the target value.

【0006】[0006]

【作用】歩行態様を複数個の歩行様式に分類し、その組
み合わせで目標値を記述し、その目標値となる様に脚部
リンクの駆動制御値を決定することから、複雑な環境を
移動するとき、目標とする経路の記述が明確となって制
御が容易となり、安定した歩行制御を実現することがで
きる。
[Function] The walking mode is classified into a plurality of walking modes, the target value is described by the combination, and the drive control value of the leg link is determined so as to be the target value, thereby moving in a complicated environment. At this time, the description of the target route becomes clear, control becomes easy, and stable walking control can be realized.

【0007】[0007]

【実施例】以下、この発明の実施例を説明する。図1は
この発明に係わる脚式移動ロボットの歩行制御装置を全
体的に示す説明スケルトン図であり、左右それぞれの脚
部リンク2に6個の関節(軸)を備える(理解の便宜の
ために各関節(軸)をそれを駆動する電動モータで例示
する)。該6個の関節(軸)は上から順に、腰の脚部回
旋用の関節(軸)10R,10L(右側をR、左側をL
とする。以下同じ)、腰のピッチ方向(y軸まわり)の
関節(軸)12R,12L、同ロール方向(x軸まわ
り)の関節(軸)14R,14L、膝部のピッチ方向の
関節(軸)16R,16L、足首部のピッチ方向の関節
(軸)18R,18L、同ロール方向の関節(軸)20
R,20Lとなっており、その下部には足平(足部)2
2R,22Lが取着されると共に、最上位には基体(胴
体部24)が設けられ、その内部には後で述べる様にマ
イクロ・コンピュータを備えた制御ユニット26が格納
される。上記において腰関節は関節(軸)10R
(L),12R(L),14R(L)から構成され、ま
た足関節は、関節(軸)18R(L),20R(L)か
ら構成される。また、腰関節と膝関節との間は大腿リン
ク28R,28Lで、膝関節と足関節との間は下腿リン
ク30R,30Lで連結される。
Embodiments of the present invention will be described below. FIG. 1 is an explanatory skeleton diagram generally showing a walking control device for a legged mobile robot according to the present invention, in which each of the left and right leg links 2 has six joints (axes) (for convenience of understanding). Each joint (axis) is exemplified by an electric motor that drives it). The six joints (axes) are, in order from the top, joints (axes) 10R and 10L for rotating the legs of the waist (R on the right side, L on the left side).
And The same shall apply hereinafter), joints (axis) 12R, 12L in the waist pitch direction (around the y axis), joints (axis) 14R, 14L in the same roll direction (around the x axis), and joints (axis) 16R in the knee pitch direction. , 16L, pitch direction joints (axes) 18R, 18L, and roll direction joints (axis) 20
R, 20L, with a foot (foot) 2 below it
2R and 22L are attached, a base body (body portion 24) is provided at the uppermost position, and a control unit 26 equipped with a microcomputer is housed therein, as will be described later. In the above, the hip joint is a joint (axis) 10R
(L), 12R (L), 14R (L), and the ankle joint is composed of joints (axes) 18R (L), 20R (L). Further, the hip joint and the knee joint are connected by thigh links 28R and 28L, and the knee joint and the ankle joint are connected by lower leg links 30R and 30L.

【0008】脚部リンク2は左右の足についてそれぞれ
6つの自由度を与えられ、歩行中にこれらの6×2=1
2個の関節(軸)をそれぞれ適宜な角度に駆動すること
で、足全体に所望の動きを与えることができ、任意に3
次元空間を歩行することができる様に構成される。先に
述べた様に、上記した関節は電動モータからなり、更に
はその出力を倍力する減速機などを備えるが、その詳細
は先に本出願人が提案した出願(特願平1−32421
8号、特開平3−184782号)などに述べられてお
り、それ自体はこの発明の要旨とするところではないの
で、これ以上の説明は省略する。
The leg link 2 is given 6 degrees of freedom for each of the left and right feet, and these 6 × 2 = 1 during walking.
By driving each of the two joints (axes) at an appropriate angle, it is possible to give the desired movement to the entire foot, and
It is constructed so that it can walk in a dimensional space. As described above, the above-mentioned joint is composed of an electric motor, and is further provided with a speed reducer that boosts its output, and the details thereof are described in the application previously proposed by the present applicant (Japanese Patent Application No. 1-324221).
No. 8, JP-A-3-184782) and the like, and since they are not the gist of the present invention, further description thereof will be omitted.

【0009】ここで、図1に示すロボット1の基体24
には、公知のCCD(固体映像素子)カメラからなる視
覚センサ32が1個(単眼)配置され、その出力はマイ
クロ・コンピュータからなる画像処理ユニット34に送
られる。また、足首部には公知の6軸力センサ36が設
けられ、足平を介してロボットに伝達されるx,y,z
方向の力成分Fx,Fy,Fzとその方向まわりのモー
メント成分Mx,My,Mzとを測定し、足部の着地の
有無と支持脚に加わる力の大きさと方向とを検出する。
また、基体24の上部には一対の傾斜センサ40,42
が設置され、x−z平面内のz軸に対する傾きとその角
速度および角加速度と、同様にy−z平面内のz軸に対
する傾きとその角速度および角加速度とを検出する。ま
た、各関節の電動モータには、その回転量を検出するロ
ータリエンコーダが設けられる(図1において足関節の
電動モータ用のもののみを示す)。これらの出力は前記
した制御ユニット26に送られる。
Here, the base body 24 of the robot 1 shown in FIG.
One visual sensor 32 (monocular), which is a known CCD (solid-state image device) camera, is arranged in the camera, and its output is sent to an image processing unit 34, which is a microcomputer. Further, a well-known 6-axis force sensor 36 is provided on the ankle, and x, y, z transmitted to the robot via the foot
The force components Fx, Fy, Fz in the direction and the moment components Mx, My, Mz around the direction are measured to detect the presence or absence of landing of the foot and the magnitude and direction of the force applied to the supporting leg.
In addition, a pair of tilt sensors 40, 42 is provided on the upper portion of the base body 24.
Is installed, and the inclination with respect to the z axis in the xz plane and its angular velocity and angular acceleration, as well as the inclination with respect to the z axis in the yz plane and its angular velocity and angular acceleration are detected. Further, the electric motor of each joint is provided with a rotary encoder for detecting the amount of rotation thereof (only an electric motor for the ankle joint is shown in FIG. 1). These outputs are sent to the control unit 26 described above.

【0010】図2は制御ユニット26の詳細を示すブロ
ック図であり、マイクロ・コンピュータから構成され
る。そこにおいて傾斜センサ40,42などの出力はA
/D変換器50でデジタル値に変換され、その出力はバ
ス52を介してRAM54に送られる。また各電動モー
タに隣接して配置されるエンコーダの出力は可逆カウン
タ56を介してRAM54内に入力される。またユーザ
が目標位置などを入力するためにキーボードとマウス5
8が設けられ(図1で図示省略)、その出力はマイクロ
・コンピュータからなるユーザインタフェース60を通
じてマイクロ・コンピュータ内に送出される。更に、前
記した画像処理ユニット34の出力も通信インタフェー
ス62を通じて同様にマイクロ・コンピュータ内に取り
込まれる。制御ユニット内には演算装置64が設けられ
ており、ROM66に格納されている環境地図に基づい
て後で詳細に述べる様に現在位置の認識処理を行って歩
行制御値を決定し、可逆カウンタ56から送出される実
測値との偏差から電動モータの速度指令値を算出し、D
/A変換器68を介してサーボアンプに送出する。
FIG. 2 is a block diagram showing the details of the control unit 26, which is composed of a microcomputer. The outputs of the tilt sensors 40 and 42 are A
It is converted into a digital value by the / D converter 50, and its output is sent to the RAM 54 via the bus 52. The output of the encoder arranged adjacent to each electric motor is input to the RAM 54 via the reversible counter 56. In addition, the keyboard and mouse for the user to input the target position etc. 5
8 is provided (not shown in FIG. 1), and its output is sent into the microcomputer through the user interface 60 composed of the microcomputer. Further, the output of the above-mentioned image processing unit 34 is likewise taken into the microcomputer through the communication interface 62. An arithmetic unit 64 is provided in the control unit, and based on the environment map stored in the ROM 66, the current position is recognized as described later in detail to determine the walking control value and the reversible counter 56. Calculate the speed command value of the electric motor from the deviation from the measured value sent from
It is sent to the servo amplifier via the / A converter 68.

【0011】続いて、この制御ユニットの動作を説明す
る。
Next, the operation of this control unit will be described.

【0012】図3はその動作を環境認識処理に焦点をお
いて示す機能ブロック図である。図示の如く、前記した
ROM66に格納した環境地図に基づいて視覚センサ3
2を通じて得た画像情報から現在位置を認識しつつ移動
制御を行うものである。
FIG. 3 is a functional block diagram showing the operation focusing on the environment recognition processing. As shown, the visual sensor 3 is based on the environment map stored in the ROM 66.
The movement control is performed while recognizing the current position from the image information obtained through 2.

【0013】以下、図4のフロー・チャート(PAD図
(構造化フロー・チャート))を参照してその詳細を説
明する。
The details will be described below with reference to the flow chart of FIG. 4 (PAD diagram (structured flow chart)).

【0014】先ず、S10において移動環境における初
期現在位置の概略値、即ち、最初にロボット1が立って
いる位置と方向とを入力し、次いでS12において移動
目標、即ち、目標点の位置とロボットの方向とを入力す
る。この入力は図2に示したキーボード、マウス58と
ユーザインタフェース60とを通じて行う。
First, in S10, an approximate value of the initial current position in the moving environment, that is, the position and direction in which the robot 1 is first standing is input, and then in S12, the moving target, that is, the position of the target point and the robot. Enter the direction and. This input is performed through the keyboard, mouse 58 and user interface 60 shown in FIG.

【0015】ここで、この実施例においては、移動環境
として図5に示す様な室内環境を想定する。即ち、ロボ
ットは与えられた命令に従って階段を昇降し、2本の柱
の間を通過して目標点に辿りつくための経路を選んで、
その経路を参考にして移動動作を実行する。環境地図は
図6に良く示す如く、最上位レベルから第2レベルを経
て第3レベルに至る様に階層的に記述する。最上位レベ
ルは建物内の結合関係を示すものでエリアの結合として
記述される。エリアはルームとリンクで構成される。こ
こでルームとは部屋や廊下の様に領域的に一固まりに考
えられる空間を、リンクとはルームの間を移動するため
に通過しなければいけない階段、ドアなどの場所を意味
する。最上位レベルの下には、物体配置情報が第2レベ
ルとして記述され、更にその下に、各物体について後で
述べる接近禁止領域の情報、形状特徴の情報などが記述
される。図7と図8にその詳細を示す。この様な情報が
環境地図としてROM66内に格納される。尚、以下で
は図5に示した部屋1内の移動に限って説明する。
In this embodiment, it is assumed that the moving environment is an indoor environment as shown in FIG. That is, the robot goes up and down the stairs according to the given command, selects a route for passing between the two pillars and reaching the target point,
The movement operation is executed with reference to the route. As shown in FIG. 6, the environment map is hierarchically described from the highest level to the second level to the third level. The highest level shows the connection relationship within a building and is described as the connection of areas. The area consists of rooms and links. Here, a room means a space that can be considered as a group of areas such as a room or a corridor, and a link means a place such as a staircase or a door that must pass through to move between rooms. Below the highest level, object placement information is described as a second level, and further below that, information on an inaccessible area, shape feature information, etc. for each object are described. The details are shown in FIGS. 7 and 8. Such information is stored in the ROM 66 as an environment map. Note that the following description will be limited to the movement within the room 1 shown in FIG.

【0016】図4フロー・チャートにおいては次いでS
14に進んで経路計画処理を行う。脚式移動ロボット、
特に2足歩行のものにおいては、指定された距離を進ん
だり、指定された経路上を移動するなど、進行方向を自
由に制御することは簡単ではない。しかしながら、移動
制御では、その様な移動の実現が不可欠である。そこ
で、この実施例では、移動動作を「停止」を挟んで幾つ
かの基本歩行機能に分割して実行する様にした。これに
よって拘束条件式の算出が容易となると共に、基本歩行
機能を実行する制御処理のみで移動制御を実現すること
ができる。基本歩行機能は図9に示す様に、(a)直
進、(b)階段昇降、(c)方向転換、(d)歩幅合わ
せ(前後)、(e)歩幅合わせ(左右)の5種とした。
S14の経路計画処理の時点ではこの様に基本歩行機能
の結合として表現し、軌道としての直接表現はしない。
Next, in the flow chart of FIG.
Proceed to 14 to perform route planning processing. Legged mobile robot,
Particularly in the case of bipedal walking, it is not easy to freely control the traveling direction such as traveling a designated distance or moving on a designated route. However, in movement control, realization of such movement is essential. Therefore, in this embodiment, the moving operation is divided into several basic walking functions with "stop" interposed therebetween and executed. This facilitates the calculation of the constraint conditional expression, and the movement control can be realized only by the control processing for executing the basic walking function. As shown in FIG. 9, there are five basic walking functions: (a) going straight, (b) going up and down stairs, (c) changing direction, (d) step adjustment (front and back), and (e) step adjustment (left and right). ..
At the time of the route planning processing in S14, the basic walking function is expressed as described above, and the trajectory is not directly expressed.

【0017】このS14での経路計画処理は具体的に
は、図10に示す様な必須通過点を生成し(S16)、
図11に示す様な障害物との干渉を検討しつつ図12に
示す様な障害物回避経路を生成する(S18)ことであ
る。ここで、必須通過点としては、階段下目標点A、階
段降り始め点B、階段領域脱出点Cでの位置と方向とす
る。これを詳細に示すと、図13の様になる。
Specifically, the route planning process in S14 generates an essential passing point as shown in FIG. 10 (S16),
This is to generate an obstacle avoidance route as shown in FIG. 12 while considering interference with the obstacle as shown in FIG. 11 (S18). Here, the essential passing points are the position and direction at the stairs target point A, stairs starting point B, and staircase area exit point C. FIG. 13 shows this in detail.

【0018】図4フロー・チャートにおいては続いてS
20に進み、階段下目標点(A点)への移動制御を行
う。
In the flow chart of FIG.
In step 20, the movement control to the stairs target point (point A) is performed.

【0019】そのサブルーチンを示す図14フロー・チ
ャートを参照して説明すると、先ずS100において現
在位置の認識を行う。具体的には、先ずS102におい
て選択処理の準備を行う。図15はそのサブルーチンを
示すフロー・チャートであり、選択処理の準備はS10
20,S1021に記載する様に、推定現在位置におけ
るカメラ(視覚センサ32)の視野計算の準備を行うこ
とである。図16にそれを示す。
This will be described with reference to the flow chart of FIG. 14 showing the subroutine. First, in S100, the current position is recognized. Specifically, first, preparation for selection processing is performed in S102. FIG. 15 is a flow chart showing the subroutine, and the preparation for selection processing is S10.
As described in 20, S1021, preparation for the visual field calculation of the camera (visual sensor 32) at the estimated current position is performed. It is shown in FIG.

【0020】図14フロー・チャートにおいて、続いて
S104に進んで形状特徴点の絞り込みを行う。図17
はそのサブルーチンを示すフロー・チャートである。形
状特徴点の絞り込み処理は、環境情報に記載された形状
特徴点の中から、形状特徴点の候補を算出するために、
階層的に記述されている環境知識情報の全物体の全形状
特徴点(図8に示す)に対して絞り込みのための第1の
評価関数による評価を行い、その評価結果の順に特徴点
候補のリストを作り出す。第1の評価関数としては、遠
くの点ほど認識精度が悪く、他の形状との誤認識の可能
性が大きいという一般的な性質から、ロボットからの距
離を認識誤差の大きさに関する評価関数として採用し
た。特徴点候補の数は、次の最適特徴形状点選出処理に
必要な数だけ用意すれば良いので、その数を予め設定し
て不要の分は捨てている。原理的には捨てずに全ての形
状特徴点の順番のリストを求めても良い。
In the flow chart of FIG. 14, the process then proceeds to S104 to narrow down the shape feature points. FIG. 17
Is a flow chart showing the subroutine. The shape feature point narrowing-down process is performed in order to calculate shape feature point candidates from the shape feature points described in the environment information.
All shape feature points (shown in FIG. 8) of all objects of the environmental knowledge information described hierarchically are evaluated by the first evaluation function for narrowing down, and feature point candidates are selected in the order of the evaluation result. Create a list. As the first evaluation function, the distance from the robot is used as the evaluation function related to the size of the recognition error because of the general property that the recognition accuracy is poorer as the point is farther away and the possibility of erroneous recognition with other shapes is high. Adopted. Since it is sufficient to prepare the number of feature point candidates required for the next optimum feature shape point selection processing, the number is set in advance and unnecessary portions are discarded. In principle, a list of the order of all shape feature points may be obtained without discarding.

【0021】具体的には図17フロー・チャートのS1
040からS1048に示す如く、環境情報に記述され
ている対象物体のノードデータ(図8に示す)から形状
特徴点を選び出し、その形状特徴点がそのときのカメラ
の視野の中に入っているかを調べる。次にロボットから
形状特徴点までの距離を計算する。単眼による視覚処理
なので、図18に示す様に、カメラから形状特徴点まで
の視線が環境情報に記載されている形状特徴点の高さを
横切る点までの距離により、ロボットから形状特徴点ま
での距離を求める。
Specifically, S1 in the flow chart of FIG.
As shown in 040 to S1048, shape feature points are selected from the node data (shown in FIG. 8) of the target object described in the environment information, and whether the shape feature points are within the field of view of the camera at that time is determined. Find out. Next, the distance from the robot to the shape feature point is calculated. Since the visual processing is performed by a single eye, as shown in FIG. 18, the distance from the robot to the shape feature point depends on the distance from the camera to the shape feature point that crosses the height of the shape feature point described in the environment information. Find the distance.

【0022】この手法では形状特徴点までの距離しか測
定できないので、ロボットの現在位置を求めるために
は、少なくとも2点以上の形状特徴点までの距離を求め
る必要がある。この実施例ではその必要最小限の2点の
距離から位置を決定している。他方、この手法では2点
が挟む角度が小さいと、方向の測定誤差が大きくなる。
そのため、図14フロー・チャートにおいて次のS10
6の最適形状特徴点の選択処理において、測定誤差が大
きくならない様にした。
Since only the distance to the shape feature point can be measured by this method, it is necessary to obtain the distance to at least two shape feature points in order to obtain the current position of the robot. In this embodiment, the position is determined from the minimum required distance of two points. On the other hand, in this method, if the angle between the two points is small, the measurement error in the direction becomes large.
Therefore, in the flow chart of FIG.
In the process of selecting the optimum shape feature point of 6, the measurement error is prevented from increasing.

【0023】即ち、図19サブルーチン・フロー・チャ
ートに示す最適形状特徴点の選択処理では、形状特徴点
候補の上位2点の挟む角度が、誤差の許容量から決めら
れる角度(許容角度)よりも大きかったら、そのまま2
点を最適形状特徴点として決定し、その2点からロボッ
トの現在位置を計算する(S1060〜S1062)。
また、許容角度より小さければ、視野の中にある他の形
状特徴点候補を含めた2点によって挟む角度を大きくで
きるか否か判断する(S1063)。このとき、全ての
組み合わせを調べる様にすると、候補の数が多くなった
場合に処理時間が急速に長くなるので、この実施例では
上位2点のうち、1点を交換することとして、その組み
合わせの中で挟み角が最大となる2点の組を最適形状特
徴点と決定している。例えば、図20に示す如く、候補
1,2による挟み角αが許容角度より小さいときは、候
補1,2の一方、この場合は1を4に代え、新たな挟み
角βを求めて許容角度と比較する様にした。
That is, in the optimum shape feature point selection processing shown in the subroutine flow chart of FIG. 19, the angle sandwiched between the upper two points of the shape feature point candidates is smaller than the angle (allowable angle) determined from the allowable amount of error. If it is big, just 2
The point is determined as the optimum shape feature point, and the current position of the robot is calculated from the two points (S1060 to S1062).
If it is smaller than the allowable angle, it is determined whether the angle sandwiched by two points including other shape feature point candidates in the field of view can be increased (S1063). At this time, if all the combinations are examined, the processing time rapidly increases when the number of candidates increases. Therefore, in this embodiment, one of the upper two points is exchanged and the combination is changed. Among them, the set of two points having the maximum included angle is determined as the optimum shape feature point. For example, as shown in FIG. 20, when the included angle α between the candidates 1 and 2 is smaller than the allowable angle, one of the candidates 1 and 2, in this case 1 is replaced with 4, and a new included angle β is obtained to determine the allowable angle. I tried to compare with.

【0024】尚、評価関数としては更に、近くに誤認識
しやすい形状がある場合に、その様な形状の特徴点の使
用を避ける様に、視覚認識のアルゴリズムの認識確率に
関する関数を使用しても良い。また、複雑な環境の中を
移動する場合には、複数の視覚認識やソナーなどの他の
環境認識手段を併用して現在位置を認識することが考え
られるが、その場合には、それらの処理の容易さや、認
識精度なども考慮した評価関数を設定して形状特徴点を
決定しても良い。
Further, as the evaluation function, when there is a shape that is easily erroneously recognized in the vicinity, a function relating to the recognition probability of the visual recognition algorithm is used so as to avoid the use of the feature points of such shape. Is also good. In addition, when moving in a complicated environment, it is possible to recognize the current position using multiple environment recognition means such as multiple visual recognition and sonar. The shape feature point may be determined by setting an evaluation function in consideration of the ease of recognition and recognition accuracy.

【0025】図14フロー・チャートに戻ると、S10
7において選択した特徴点の位置測定を通じて現在位置
を認識した後、続いてS108に進んで歩行計画処理を
行う。これは図21に示す様に指定された移動目標とな
る様に基本歩行機能へ展開する作業を意味する。具体的
にはそのサブルーチンを示す図22フロー・チャートに
従って説明すると、S1080において転換角度などを
決定し、S1081において歩数と余りを決定する。よ
り具体的には図22の下部に注記した様に、最初にα度
転換し(モードP1とする)、n歩前進し(モードP
2)、余りl′mを歩幅合わせで前進し(モードP
3)、最後にβ度転換する(モードP4)歩行を計画す
る(尚、各モードの後に付した(a)などは、図9に示
す該当する基本歩行機能を示す)。
Returning to the flow chart of FIG. 14, S10
After recognizing the current position through the position measurement of the feature point selected in 7, the process proceeds to S108 and the walking planning process is performed. This means the work of expanding to the basic walking function so as to become the designated movement target as shown in FIG. Specifically, description will be made according to the flow chart of FIG. 22 showing the subroutine. In S1080, the turning angle and the like are determined, and in S1081, the number of steps and the remainder are determined. More specifically, as noted in the lower part of FIG. 22, first α degrees are changed (mode P1), and n steps forward (mode P).
2) Move forward through the remainder l'm with stride adjustment (mode P
3) Finally, plan walking by β-degree conversion (mode P4) (note that (a) added after each mode indicates the corresponding basic walking function shown in FIG. 9).

【0026】図14フロー・チャートにおいては続い
て、S110に進んで歩行制御処理を行う。これはS1
12に示す様に歩行計画による基本歩行モードの順次実
行を意味しており、具体的には図23のサブルーチン・
フロー・チャートにおいてS1120〜S1123に示
す如く、モードP1からP4を順次実行すべく、制御値
を決定することを意味する。但し、ここで留意すべきこ
とは、この段階において制御は、該当する基本歩行機能
を実現する様に、図1に示した12個の関節についての
角度指令値で決定されることであり、より具体的には角
度指令値とエンコーダを通して得た実際値との偏差を解
消する様にサーボアンプを介して各モータを駆動する様
に行われる。但し、その詳細はこの発明の目的とすると
ころではないので、これ以上の説明は省略する。
In the flow chart of FIG. 14, subsequently, the process proceeds to S110, and the walking control process is performed. This is S1
As shown in FIG. 12, it means the sequential execution of the basic walking mode according to the walking plan. Specifically, the subroutine of FIG.
As indicated by S1120 to S1123 in the flow chart, it means that the control value is determined so as to sequentially execute the modes P1 to P4. However, it should be noted here that the control at this stage is determined by the angle command values for the twelve joints shown in FIG. 1 so as to realize the corresponding basic walking function. Specifically, each motor is driven via a servo amplifier so as to eliminate the deviation between the angle command value and the actual value obtained through the encoder. However, the details thereof are not the object of the present invention, and therefore further description will be omitted.

【0027】図14フロー・チャートにおいては、続い
てS114において移動誤差の認識処理、即ち、移動目
標(階段下)への指令値に基づく移動後の現在位置の推
定値に対してS100と同様の現在位置の認識を行って
指令値との移動誤差を認識する処理を行い、S116〜
S120で誤差が所定値を超えると判断されるときは、
誤差がその所定値以下になるまで修正移動を反復する。
図24に移動指令から推定した現在位置と視覚センサを
通じて求めた現在位置とから、移動誤差を求める状態を
示す。尚、図25は画像処理による形状特徴点の確認作
業の説明図である。
In the flow chart of FIG. 14, the movement error recognition processing is performed in S114, that is, the estimated value of the current position after movement based on the command value to the movement target (down the stairs) is the same as in S100. A process of recognizing the current position and recognizing a movement error from the command value is performed, and S116 to
When it is determined in S120 that the error exceeds the predetermined value,
The correction movement is repeated until the error becomes equal to or less than the predetermined value.
FIG. 24 shows a state in which a movement error is obtained from the current position estimated from the movement command and the current position obtained through the visual sensor. Note that FIG. 25 is an explanatory diagram of the confirmation work of the shape feature points by image processing.

【0028】図4フロー・チャートに戻ると、続いてS
22〜S28に進んで階段登り動作などが行われるが、
これはS20の階段下目標点への移動で述べたと同様
に、現在位置を認識して歩行(移動)制御を行い、移動
誤差を認識して修正移動を行うことであるので、その詳
細は省略する。
Returning to the flow chart of FIG.
Go to 22-S28 to climb stairs, etc.
This is to recognize the current position and perform the walking (movement) control, and to recognize the movement error and perform the correction movement in the same manner as described in the movement to the target point under the stairs in S20, so the details are omitted. To do.

【0029】この実施例は、上記の如く、歩行計画を実
現するに際して歩行様式を「停止」を挟んで5種の基本
歩行機能に分類し、その組み合わせで記述すると共に、
歩行制御処理において記述された基本歩行機能となる様
に、各関節の駆動制御値を決定する様にした。従って、
拘束条件式の算出が容易となると共に、複雑な環境を移
動するときも経路の記述が容易となり、障害物を確実に
回避させることができて安定した歩行制御を実現するこ
とができる。
In this embodiment, as described above, when the walking plan is realized, the walking mode is classified into five basic walking functions with "stop" in between and the combination is described.
The drive control value of each joint is determined so as to achieve the basic walking function described in the walking control process. Therefore,
The constraint condition expression can be easily calculated, the route can be easily described even when moving in a complicated environment, an obstacle can be reliably avoided, and stable walking control can be realized.

【0030】尚、図21で述べた基本歩行機能への展開
はさまざまなバリエーションが可能であり、例えば図2
6の場合などは左右の歩幅合わせを行ってから直進して
も良く、或いは図21のときと同様に方向転換して直進
した後再度方向転換しても良い。
The basic walking function described in FIG. 21 can be expanded in various ways. For example, FIG.
In the case of 6, for example, the left and right strides may be adjusted before proceeding straight, or as in the case of FIG. 21, the direction may be changed to proceed straight and then change direction again.

【0031】更には、この発明を2足歩行の脚式移動ロ
ボットについて説明したが、それに限られるものではな
く、1足ないしは3足以上の脚式移動ロボットにも妥当
するものである。
Further, although the present invention has been described with respect to a bipedal legged mobile robot, the present invention is not limited to this and is also applicable to a legged mobile robot having one leg or three or more legs.

【0032】[0032]

【発明の効果】請求項1項にあっては、複数本の脚部リ
ンクを備えてなる脚式移動ロボットの歩行制御装置にお
いて、歩行態様を複数個の歩行様式に分類し、該複数個
の歩行様式の組み合わせで目標値を記述し、該目標値と
なるべく前記脚部リンクの駆動制御値を決定する如く構
成したので、複雑な環境を移動するときも経路の記述が
容易となり、障害物を確実に回避させることができて安
定した歩行制御を実現することができる。
According to the first aspect of the present invention, in a walking control device for a legged mobile robot having a plurality of leg links, the walking mode is classified into a plurality of walking patterns, and the plurality of walking patterns are classified into a plurality of walking patterns. Since the target value is described by a combination of walking patterns and the drive control value of the leg link is determined so as to be the target value, it becomes easy to describe the route even when moving in a complicated environment, and to avoid obstacles. It is possible to surely avoid it and to realize stable walking control.

【0033】請求項2項の装置にあっては、前記複数個
の歩行様式の組み合わせは少なくとも、停止→直進→停
止、停止→登り→停止、停止→降り→停止、停止→方向
転換→停止、停止→歩幅合わせ→停止、のいずれかであ
る如く構成したので、拘束条件式の算出が容易となると
共に、複雑な環境を移動するときも経路の記述が一層容
易となり、障害物を確実に回避させることができて一層
安定した歩行制御を実現することができる。
In the apparatus according to claim 2, the combination of the plurality of walking patterns is at least stop → straight ahead → stop, stop → climb → stop, stop → fall → stop, stop → direction change → stop, Since it is configured as one of stop → step adjustment → stop, it becomes easy to calculate the constraint condition expression and it becomes easier to describe the route even when moving in a complicated environment, and obstacles are surely avoided. It is possible to realize more stable walking control.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明に係る移動体の脚式移動ロボットの歩
行制御装置を全体的に示す概略図である。
FIG. 1 is an overall schematic view of a walking control device for a legged mobile robot for a mobile body according to the present invention.

【図2】図1に示す制御ユニットの説明ブロック図であ
る。
FIG. 2 is an explanatory block diagram of a control unit shown in FIG.

【図3】図2に示す制御ユニットの動作を示す機能ブロ
ック図である。
FIG. 3 is a functional block diagram showing an operation of the control unit shown in FIG.

【図4】図2に示す制御ユニットの動作を示すフロー・
チャートである。
4 is a flow chart showing the operation of the control unit shown in FIG.
It is a chart.

【図5】図4フロー・チャートで予定する移動環境の説
明図である。
FIG. 5 is an explanatory diagram of a planned moving environment in the flow chart of FIG.

【図6】図5の環境地図の記述例を具体的に示す説明図
である。
FIG. 6 is an explanatory diagram specifically showing a description example of the environment map of FIG.

【図7】図6の記述例の第3レベルをより詳細に示す説
明図である。
FIG. 7 is an explanatory diagram showing the third level of the description example of FIG. 6 in more detail.

【図8】図6の記述例の第3レベルをより詳細に示す説
明図で、特に特徴点の記述を詳細に示す説明図である。
8 is an explanatory diagram showing the third level of the description example of FIG. 6 in more detail, and particularly an explanatory diagram showing details of feature points in detail.

【図9】図4フロー・チャートで予定する基本歩行機能
を示す説明図である。
FIG. 9 is an explanatory diagram showing a basic walking function planned in the flow chart of FIG. 4;

【図10】図4フロー・チャートの中の必須通過点の生
成を示す説明図である。
FIG. 10 is an explanatory diagram showing generation of essential passing points in the flow chart of FIG. 4;

【図11】図4フロー・チャートの中の中間目標点の生
成を示す説明図である。
FIG. 11 is an explanatory diagram showing the generation of intermediate target points in the flow chart of FIG. 4;

【図12】図4フロー・チャートの中の中間目標点の生
成を示す同様の説明図である。
FIG. 12 is a similar explanatory diagram showing the generation of intermediate target points in the flow chart of FIG. 4;

【図13】図4フロー・チャートの中の中間目標点の生
成で設定された経路を示す説明図である。
13 is an explanatory diagram showing a route set in the generation of an intermediate target point in the flow chart of FIG.

【図14】図4フロー・チャートの中の階段下目標点へ
の移動のサブルーチンを示すフロー・チャートである。
FIG. 14 is a flow chart showing a subroutine for moving to a target point under the stairs in the flow chart of FIG. 4;

【図15】図14フロー・チャートの中の現在位置の認
識のうち、選択処理の準備のサブルーチンを示すフロー
・チャートである。
FIG. 15 is a flow chart showing a subroutine of preparation for selection processing in the recognition of the current position in the flow chart of FIG.

【図16】図15フロー・チャートの動作を示す説明図
である。
FIG. 16 is an explanatory diagram showing the operation of the flow chart of FIG. 15;

【図17】図14フロー・チャートの中の形状特徴点の
絞り込みのサブルーチンを示すフロー・チャートであ
る。
17 is a flow chart showing a subroutine for narrowing down the shape feature points in the flow chart of FIG.

【図18】図17フロー・チャートの動作を示す説明図
である。
FIG. 18 is an explanatory diagram showing the operation of the flow chart of FIG. 17;

【図19】図14フロー・チャートの中の最適形状特徴
点の選択のサブルーチンを示すフロー・チャートであ
る。
FIG. 19 is a flow chart showing a subroutine for selecting an optimum shape feature point in the flow chart of FIG. 14;

【図20】図19フロー・チャートの動作を示す説明図
である。
FIG. 20 is an explanatory diagram showing the operation of the flow chart of FIG. 19;

【図21】移動目標の指定と基本歩行機能への展開を示
す説明図である。
FIG. 21 is an explanatory diagram showing designation of a moving target and expansion to a basic walking function.

【図22】図14フロー・チャートの中の歩行計画処理
のサブルーチンを示すフロー・チャートである。
FIG. 22 is a flow chart showing a subroutine of a walking planning process in the flow chart of FIG.

【図23】図14フロー・チャートの中の歩行計画によ
る基本歩行モードの順次実行のサブルーチンを示すフロ
ー・チャートである。
23 is a flow chart showing a subroutine of sequential execution of a basic walking mode according to a walking plan in the flow chart of FIG.

【図24】移動指令から推定した現在位置とロボットの
現在位置の認識結果との誤差を示す説明図である。
FIG. 24 is an explanatory diagram showing an error between the current position estimated from the movement command and the recognition result of the current position of the robot.

【図25】画像処理による形状特徴点の認識を示す説明
図である。
FIG. 25 is an explanatory diagram showing recognition of shape feature points by image processing.

【図26】図21と同様な基本歩行機能への展開の他の
バリエーションを示す説明図である。
FIG. 26 is an explanatory diagram showing another variation of the development to the same basic walking function as in FIG. 21.

【符号の説明】[Explanation of symbols]

1 脚式移動ロボット(2足歩行ロボ
ット) 24 基体 26 制御ユニット 32 視覚センサ 34 画像処理ユニット 58 キーボード、マウス 60 ユーザインタフェース
1 leg type mobile robot (bipedal walking robot) 24 base 26 control unit 32 visual sensor 34 image processing unit 58 keyboard, mouse 60 user interface

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数本の脚部リンクを備えてなる脚式移
動ロボットの歩行制御装置において、歩行態様を複数個
の歩行様式に分類し、該複数個の歩行様式の組み合わせ
で目標値を記述し、該目標値となるべく前記脚部リンク
の駆動制御値を決定することを特徴とする脚式移動ロボ
ットの歩行制御装置。
1. A walking control device for a legged mobile robot comprising a plurality of leg links, classifies a walking mode into a plurality of walking modes, and describes a target value by combining the plurality of walking modes. Then, the walking control device of the legged mobile robot, wherein the drive control value of the leg link is determined as much as the target value.
【請求項2】 前記複数個の歩行様式の組み合わせは少
なくとも、停止→直進→停止、停止→登り→停止、停止
→降り→停止、停止→方向転換→停止、停止→歩幅合わ
せ→停止、のいずれかであることを特徴とする請求項1
項に記載の脚式移動ロボットの歩行制御装置。
2. The combination of the plurality of walking patterns is at least stop → straight ahead → stop, stop → climb → stop, stop → fall → stop, stop → direction change → stop, stop → step adjustment → stop. It is or, It is characterized by the above-mentioned.
A walking control device for a legged mobile robot according to item.
JP4121432A 1992-04-15 1992-04-15 Walking control device for leg type moving robot Withdrawn JPH05285868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4121432A JPH05285868A (en) 1992-04-15 1992-04-15 Walking control device for leg type moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4121432A JPH05285868A (en) 1992-04-15 1992-04-15 Walking control device for leg type moving robot

Publications (1)

Publication Number Publication Date
JPH05285868A true JPH05285868A (en) 1993-11-02

Family

ID=14810999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4121432A Withdrawn JPH05285868A (en) 1992-04-15 1992-04-15 Walking control device for leg type moving robot

Country Status (1)

Country Link
JP (1) JPH05285868A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0856457A2 (en) 1997-01-31 1998-08-05 Honda Giken Kogyo Kabushiki Kaisha Gait generation system of legged mobile robot
EP1018467A1 (en) * 1996-07-25 2000-07-12 Honda Giken Kogyo Kabushiki Kaisha Gait generating device for leg type moving robot
WO2002040222A1 (en) * 2000-11-17 2002-05-23 Sony Corporation Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot
JP2003050559A (en) * 2001-08-07 2003-02-21 Honda Motor Co Ltd Autonomously movable robot

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1018467A1 (en) * 1996-07-25 2000-07-12 Honda Giken Kogyo Kabushiki Kaisha Gait generating device for leg type moving robot
US6301524B1 (en) 1996-07-25 2001-10-09 Honda Giken Kogyo Kabushiki Kaisha Gait generation system of legged mobile robot
EP1018467B1 (en) * 1996-07-25 2003-10-22 Honda Giken Kogyo Kabushiki Kaisha Gait generating device for leg type moving robot
EP0856457A2 (en) 1997-01-31 1998-08-05 Honda Giken Kogyo Kabushiki Kaisha Gait generation system of legged mobile robot
US5936367A (en) * 1997-01-31 1999-08-10 Honda Giken Kogyo Kabushiki Kaisha Gait generation system of legged mobile robot
WO2002040222A1 (en) * 2000-11-17 2002-05-23 Sony Corporation Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot
US6961640B2 (en) 2000-11-17 2005-11-01 Sony Corporation Motion control for a legged robot
US7076338B2 (en) 2000-11-17 2006-07-11 Sony Corporation Motion unit generating method for legged mobile robot
KR100824179B1 (en) * 2000-11-17 2008-04-21 소니 가부시끼 가이샤 Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot
JP2003050559A (en) * 2001-08-07 2003-02-21 Honda Motor Co Ltd Autonomously movable robot
JP4642287B2 (en) * 2001-08-07 2011-03-02 本田技研工業株式会社 Autonomous mobile robot

Similar Documents

Publication Publication Date Title
JP3176701B2 (en) Mobile object current position recognition processor
JP3330710B2 (en) Mobile robot position detection and control device
EP1018467B1 (en) Gait generating device for leg type moving robot
JP3273443B2 (en) Trajectory generation method and apparatus for robot links and the like
JP3078009B2 (en) Walking control device for legged mobile robot
JP3278467B2 (en) Control device for mobile robot
US5838130A (en) Locomotion control system of legged mobile robot
US7400939B2 (en) Robot device, motion control device for robot device and motion control method
JP5978028B2 (en) Mobile robot controller
JP3167404B2 (en) Robot joint drive controller
KR101549817B1 (en) robot walking control apparatus and method thereof
JPH08305440A (en) Device and method for controlling motion of ordinary wheel type omnidirectional vehicle
US20060059975A1 (en) Force sensor abnormality detection system for legged mobile robot
EP1733852B1 (en) Gait generator for mobile robot
JP2003236780A (en) Bi-pedal humanoid robot
JP3026276B2 (en) Emergency stop control device for legged mobile robot
JP2010069546A (en) Robot control apparatus, robot control method, and robot control program
JP2005182826A (en) Polyhedron recognition device
JP3167420B2 (en) Walking control device for legged mobile robot
EP2428335B1 (en) Robot and control method thereof
JP2005288561A (en) Humanoid robot
JPH05285868A (en) Walking control device for leg type moving robot
JP3024023B2 (en) Walking control device for legged mobile robot
JP2569579Y2 (en) Legged mobile robot with visual sensor
JPH0671578A (en) Walking controller for leg type transfer robot

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990706