JPH02188809A - Controller for avoiding obstacle of traveling object - Google Patents

Controller for avoiding obstacle of traveling object

Info

Publication number
JPH02188809A
JPH02188809A JP1008351A JP835189A JPH02188809A JP H02188809 A JPH02188809 A JP H02188809A JP 1008351 A JP1008351 A JP 1008351A JP 835189 A JP835189 A JP 835189A JP H02188809 A JPH02188809 A JP H02188809A
Authority
JP
Japan
Prior art keywords
obstacle
danger
vector
degree
avoidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1008351A
Other languages
Japanese (ja)
Inventor
Yoichiro Maeda
前田 陽一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP1008351A priority Critical patent/JPH02188809A/en
Publication of JPH02188809A publication Critical patent/JPH02188809A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To attain the flexible avoiding actions like those of human beings against a dynamic obstacle set in any state with no deadlock by calculating the avoiding direction based on the degree of danger obtained via a fuzzy recognizing part. CONSTITUTION:The present positions of a mobile robot 1, an obstacle, and a target point received from a sensor group 13 are converted into the polar coordinate display by a state input part 14 in terms of a robot coordinate system. Then a fuzzy recognizing part 16 decides a static degree of danger based on the polar coordinate display of those positions and also a dynamic degree of danger based on the polar coordinate display of speed respectively. A behavior deciding part 17 decides an avoiding vector from a decision table contained in a data base part 15 and based on the dynamic and static degrees of danger. Then the part 17 synthesizes the avoiding vector and a target arriving vector to decide a steering vector. Thus the flexible avoiding actions are attained like those of human beings.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、動的障害物が存在する環境中で走行する移
動ロボットのような移動体の障害物回避制御装置に関す
るものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an obstacle avoidance control device for a mobile object such as a mobile robot that travels in an environment where dynamic obstacles exist.

〔従来の技術〕[Conventional technology]

第8図は例えば特開昭63−5408号公報に示された
従来の移動体の障害物回避制御装置の原理図であり、図
において、1は移動体としての移動ロボット、2は外界
センサとしての距離センサ(例えば超音波センサから成
る)、OBは障害物、Rは移動ロボット1と障害物OB
との距離を示す。
FIG. 8 is a principle diagram of a conventional obstacle avoidance control device for a moving object disclosed in, for example, Japanese Unexamined Patent Publication No. 63-5408. In the figure, 1 is a mobile robot as a moving object, and 2 is an external sensor. distance sensor (for example, consisting of an ultrasonic sensor), OB is the obstacle, R is the mobile robot 1 and the obstacle OB
Indicates the distance from

またPは距離情報より仮想的に構成した立体像(ポテン
シャル面)を示す。
Further, P indicates a three-dimensional image (potential surface) virtually constructed from distance information.

次に動作について説明する。例えば、第8図(A)に示
す2次元子面を走行する移動ロボット1が未知の障害物
OBに衝突しないように運動制御する例について考えて
みると、移動ロボット1が距離センサ2の出力(距離情
報、即ち距離R)によって、障害物OBの存在を検出し
、距離を認識することになる。
Next, the operation will be explained. For example, consider an example in which the mobile robot 1 traveling on a two-dimensional surface shown in FIG. 8(A) is controlled to avoid colliding with an unknown obstacle OB. (Distance information, ie, distance R), the presence of the obstacle OB is detected and the distance is recognized.

第8図(A)に示す如く移動ロボット1の作業空間(運
動空間)がX、 Y軸の2次元であるとすると、第8図
(B) 、 (C)の如くこれにP軸を加えた3次元の
仮想空間を仮定する。そして、第8図(A)の作業空間
で得た距離センサ2の出力(距離R)に対し、仮想空間
のRの位置にX、Y軸方向に広がりを持ちP軸方向に高
さを持つ立体像Pを生成する。即ち、実空間での距離セ
ンサ2の出力を仮想空間の立体像Pに変換する。
If the work space (movement space) of the mobile robot 1 is two-dimensional with the X and Y axes as shown in Figure 8 (A), then the P axis is added to this as shown in Figures 8 (B) and (C). Assume a three-dimensional virtual space. Then, with respect to the output (distance R) of the distance sensor 2 obtained in the work space of Fig. 8 (A), the position R in the virtual space has an extent in the X and Y axis directions and a height in the P axis direction. A three-dimensional image P is generated. That is, the output of the distance sensor 2 in real space is converted into a three-dimensional image P in virtual space.

この仮想空間では、第8図(C)の如く1次元の距離情
報が多次元の立体的な対象物として表されることになる
In this virtual space, one-dimensional distance information is represented as a multidimensional three-dimensional object as shown in FIG. 8(C).

この仮想空間での変換像はP軸方向に高さを持っtいる
ので、移動ロボット1に対応する仮想空間上の位置Aに
おける障害物OBの立体像によるP軸方向の場の状態量
を用いて制御量を求めることができ、これによって移動
ロボット1の運動を適応制御するものである。
Since this transformed image in the virtual space has a height t in the P-axis direction, we use the state quantity of the field in the P-axis direction due to the 3D image of the obstacle OB at position A in the virtual space corresponding to the mobile robot 1. The control amount can be obtained by using the control amount, and the movement of the mobile robot 1 can be adaptively controlled based on this.

即ち、n次元の実空間(作業空間)に対しくn+1)次
元の仮想空間を仮定し、仮想空間に実空間でのセンサ出
力による立体像を形成し、立体像から移動ロボット1に
対する制御量を得ようとするものである。
That is, assuming an n+1)-dimensional virtual space relative to an n-dimensional real space (work space), a three-dimensional image is formed in the virtual space by the sensor output in the real space, and the control amount for the mobile robot 1 is calculated from the three-dimensional image. That's what you're trying to get.

この場合、n次元実空間に対する(n+1)次元仮想空
間で実空間でのセンサ出力を立体像に変換しているので
、1次元の検出情報を多次元の情報として取扱うことが
できる。
In this case, since the sensor output in the real space is converted into a three-dimensional image in the (n+1)-dimensional virtual space relative to the n-dimensional real space, one-dimensional detection information can be handled as multidimensional information.

従って、この仮想空間を一種の制御基とすることによっ
て、立体像を適当な形状(例えば、第8図(C)の如く
多次元正規分布曲面)に定めることにより、第8図(C
)の移動ロボット1のA点のX。
Therefore, by using this virtual space as a kind of control base and defining the stereoscopic image in an appropriate shape (for example, a multidimensional normal distribution surface as shown in FIG. 8(C)),
) at point A of mobile robot 1.

Y軸方向の制御量を立体像PのA点での高さや傾きから
得ることができる。
The control amount in the Y-axis direction can be obtained from the height and inclination of the stereoscopic image P at point A.

即ち、第8図(A)の障害物回避の例では、仮想空間上
では、センサ出力による立体像Pに近づかないような制
御量が得られ、これによって障害物回避運動が実行され
ることになる。
That is, in the example of obstacle avoidance shown in FIG. 8(A), in the virtual space, a control amount that does not approach the three-dimensional image P based on the sensor output is obtained, and as a result, the obstacle avoidance movement is executed. Become.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来の移動体の障害物回避制御装置は以上のように構成
されているので、外界センサとしである一 程度、精度のよいセンサが必要となり、また目標位置と
移動体との間に障害物が存在する場合には、正のポテン
シャルと負のポテンシャルとが釣り合う停留という現象
が起こり、その結果、デッドロックに移動体が乗り上げ
るという問題点があった。
Since the conventional obstacle avoidance control device for a moving object is configured as described above, a sensor with a certain degree of accuracy is required as an external sensor, and it is also necessary to use a sensor with a certain degree of accuracy as an external sensor. If such exists, a phenomenon called stagnation occurs in which the positive potential and negative potential are balanced, and as a result, there is a problem in that the moving object gets stuck in a deadlock.

この発明は上記のような問題点を解消するためになされ
たもので、入力情報を提供する外界センサとして特に高
精度のものが要求されず、また人間に似た柔軟な回避行
動が可能になる移動体の障害物回避制御装置を得ること
を目的とする。
This invention was made to solve the above-mentioned problems; it does not require particularly high precision external sensors that provide input information, and it also enables flexible avoidance behavior similar to humans. The purpose of this invention is to obtain an obstacle avoidance control device for a moving body.

〔課題を解決するための手段〕[Means to solve the problem]

この発明に係る移動体の障害物回避制御装置は、データ
ベース部、外界センサからの入力情報に対して移動体の
障害物に対する静的危険度、動的危険度から成る危険度
を前記データベース部内のデータに基づきファジィ理論
により求めるファジィ認識部、このファジィ認識部が求
めた前記静的危険度、動的危険度、前記データベース部
内のデータから前記移動体の回避方向を求める行動決定
部、この行動決定部が求めた回避方向から移動体の移動
データを求める移動データ生成部を備えたものである。
The obstacle avoidance control device for a moving object according to the present invention has a database section that calculates the degree of danger consisting of static danger level and dynamic danger level for the obstacle of the moving body based on the input information from the external sensor. A fuzzy recognition unit that calculates based on fuzzy theory based on data, the static risk level and dynamic risk level calculated by this fuzzy recognition unit, an action determination unit that calculates the avoidance direction of the moving object from the data in the database unit, and this action determination unit. The apparatus includes a movement data generation part that obtains movement data of the moving object from the avoidance direction obtained by the part.

〔作 用〕[For production]

この発明における移動体の障害物回避制御装置は、ファ
ジィ認識部が、外界センサからの入力情報に対しデータ
ベース部内のデータに基づき曖昧な静的危険度、動的危
険度から成る危険度を先ず求め、これに基づき次に行動
決定部が、更に前記データベース部内のデータから移動
体の回避方向を求めて、人間の行動に似た回避行動を実
現する。
In the obstacle avoidance control device for a mobile object according to the present invention, the fuzzy recognition section first determines the degree of danger consisting of ambiguous static degree of danger and dynamic degree of danger based on the data in the database section based on the input information from the external sensor. Based on this, the action determining section further determines the avoidance direction of the moving object from the data in the database section, and realizes an avoidance action similar to human action.

〔実施例〕〔Example〕

以下、この発明の一実施例を図について説明する。第1
図において、lは移動体としての移動ロボット、12は
この発明による移動体の障害物回避制御装置を実現する
ための、この発明が要部とする判断機構、13は障害物
との距離を計測する外界センサとしての、例えば超音波
センサから成るセンサ群、14はセンサ群13からのセ
ンサ情報を変換処理して所定の入力情報を得る状態入力
部、15は後述する静的危険度、動的危険度から成る危
険度および回避方向を求めるためのメンバーシップ関数
およびデイシジョンテーブルを記憶する判断機構12内
のデータベース部、16は前記状態入力部14からの曖
昧な入力情報から前記危険度を大まかに認識する情報を
発生するファジィ認識部、17はこの危険度の情報から
移動ロポッ)lの実際の回避方向を決定する行動決定部
、18はこの行動決定部17が決定した回避方向から移
動ロボット1の実際の移動データを作成する移動データ
生成部、19はその移動データに基づき、モータ等のア
クチュエータ群20にサーボ指令を与えるサーボ指令部
である。
An embodiment of the present invention will be described below with reference to the drawings. 1st
In the figure, l is a mobile robot as a moving body, 12 is a determination mechanism which is a main part of the present invention for realizing the obstacle avoidance control device for a mobile body according to the present invention, and 13 is a measuring mechanism for measuring the distance to an obstacle. 14 is a state input unit that converts sensor information from the sensor group 13 to obtain predetermined input information, and 15 is a static risk level and a dynamic level sensor, which will be described later. A database section 16 in the judgment mechanism 12 that stores membership functions and decision tables for determining the risk level and the avoidance direction consisting of the risk level, calculates the risk level from ambiguous input information from the state input section 14. 17 is a fuzzy recognition unit that generates roughly recognition information; 17 is an action determining unit that determines the actual avoidance direction of the moving robot); 18 is a movement determination unit that determines the avoidance direction determined by this action determination unit 17; A movement data generating section 19 that creates actual movement data of the robot 1 is a servo command section that gives servo commands to a group of actuators 20 such as motors based on the movement data.

第2図は判断機構12の機能を概念的に示す判断フロー
チャートを示すもので、以下、この発明の第1図に示し
た実施例の動作を説明する。
FIG. 2 shows a judgment flowchart conceptually showing the function of the judgment mechanism 12, and the operation of the embodiment shown in FIG. 1 of this invention will be explained below.

先ず、基本的な動作から説明すると、センサ群13から
入力する距離情報は、状態入力部14にてロボット座標
系からみた障害物の位置および速度を表す極座標値の入
力情報に変換される。この入力情報は判断機構12に送
られ、しかしてこの判断機構12では、データベース部
15に記憶されているメンバーシップ関数により、ファ
ジィ認識部16で現在の障害物の状態に対する危険度を
求め、また行動決定部17でデータベース部15のデイ
シジョンテーブルを用いて実際の回避方向を決定する。
First, to explain the basic operation, the distance information input from the sensor group 13 is converted by the state input unit 14 into input information of polar coordinate values representing the position and speed of the obstacle as seen from the robot coordinate system. This input information is sent to the judgment mechanism 12, and in the judgment mechanism 12, a fuzzy recognition section 16 calculates the degree of danger for the current obstacle condition using the membership function stored in the database section 15. The action determining unit 17 uses the decision table in the database unit 15 to determine the actual avoidance direction.

さらに、この求められた回避方向から移動データ生成部
18で具体的な移動量の移動データに変換し、それをサ
ーボ指令部19に与えてそのサーボ指令によりアクチュ
エータ群20を駆動する。
Furthermore, the movement data generation unit 18 converts the obtained avoidance direction into movement data of a specific movement amount, and provides it to the servo command unit 19 to drive the actuator group 20 in accordance with the servo command.

次に、判断機構12の動作を、第2図に基づきより詳し
く説明する。センサ群13からの状態入力情報としで、
移動ロボット1.障害物、目標点の現在位置が与えられ
ると、状態入力部14でまずこれらを相対位置(S−、
St )および相対速度(uJ、 、 IJt )に換
算して、最終的にロボット座標系から見た極座標表示に
変換する。次にファジィ認識部16では位置の極座標表
示を用いて静的危険度αを決定し、また速度の極座標表
示を用いて動的危険度βを決定する。すなわち、静的危
険度αは人間が進む方向の目前にある物はど危険を惑し
ることを示すパラメータで、動的危険度βは人間に向か
って速いスピードで進んでくる物体に危険を感じること
を示すパラメータと考えることができる。なお、前記静
的危険度α、動的危険度βの決定に際しては、ファジィ
認識部16はデータベース部15のメンバーシップ関数
を用いる。
Next, the operation of the determining mechanism 12 will be explained in more detail with reference to FIG. As the status input information from the sensor group 13,
Mobile robot 1. When the current positions of obstacles and target points are given, the state input unit 14 first converts them into relative positions (S-,
St) and relative velocity (uJ, , IJt), and finally converted to polar coordinates as seen from the robot coordinate system. Next, the fuzzy recognition unit 16 determines the static risk α using the polar coordinate representation of the position, and determines the dynamic danger β using the polar coordinate representation of the speed. In other words, the static danger level α is a parameter that indicates that objects in front of the direction in which a person is moving poses a danger, while the dynamic danger level β indicates that an object that is moving toward a person at a high speed poses a danger. It can be thought of as a parameter that indicates what you feel. Note that the fuzzy recognition unit 16 uses the membership function of the database unit 15 when determining the static risk level α and the dynamic risk level β.

次に、この静的危険度α、動的危険度βに基づき、行動
決定部17では、データベース部15内のデイシジョン
テーブルから、回避ベクトル0が決定される。さらに行
動決定部17は、目標点に対する目標到達ベクトルDが
得られれば、回避ベクトル0と目標到達ベクトルDとを
合成することにより、操舵ベクトルMが決定される。な
お、目標到達ベクトルDは、絶えず目標点を向いた定ベ
クトルにより与えられる。そして得られた操舵ベクトル
Mにより、移動データ生成部IBにおいて指令操舵角が
求められ、移動データとして出力される。
Next, based on the static risk level α and dynamic risk level β, the action determining unit 17 determines the avoidance vector 0 from the decision table in the database unit 15. Furthermore, if the target reaching vector D for the target point is obtained, the action determining unit 17 determines the steering vector M by combining the avoidance vector 0 and the target reaching vector D. Note that the target arrival vector D is given by a constant vector that constantly points toward the target point. Based on the obtained steering vector M, a command steering angle is determined in the movement data generating section IB and outputted as movement data.

ここで、移動ロボット1が移動障害物を回避しながら目
標点に向かって行く状態モデルを第3図に示す。ここで
、図中のベクトルは以下のものを示すものとする。
Here, FIG. 3 shows a state model in which the mobile robot 1 moves toward a target point while avoiding moving obstacles. Here, the vectors in the figure indicate the following.

1’r、P、、PL、:移動ロボット1.障害物、目標
点の絶対位置ベクトル V、、V。、Vt :移動ロボット1.障害物、目標点
の絶対速度ベクトル $、、$t :移動ロポッ)1座標系から見た障害物、
目標点の相対位置ベクトル a、、、Ut :移動ロボット1座標系から見た障害物
、目標点の相対速度ベクトル 0 ;移動ロボット1の障害物回避ベクトルID=移動
ロボット1の目標到達ベクトルM =移動ロボット1の
操舵ベクトル 次に、判断機構12におけるより詳細な処理内容につい
て以下に更に説明する。先ず、ファジィ理論に基づき、
移動ロボット1と障害物との静的な位置関係から生じる
危険性の表現について説明する。
1'r,P,,PL,: Mobile robot 1. Absolute position vectors of obstacles and target points, V,,V. , Vt: Mobile robot 1. Obstacle, absolute velocity vector of target point $,, $t: Moving robot) Obstacle seen from one coordinate system,
Relative position vector a,,, Ut of target point: Obstacle seen from mobile robot 1 coordinate system, relative velocity vector of target point 0; Obstacle avoidance vector ID of mobile robot 1 = Goal arrival vector M of mobile robot 1 = Steering Vector of Mobile Robot 1 Next, more detailed processing contents in the determination mechanism 12 will be further explained below. First, based on fuzzy theory,
The expression of danger arising from the static positional relationship between the mobile robot 1 and obstacles will be explained.

移動ロボット1の絶対座標系における方位(進行方向)
をφとし、絶対速度ベクトルをvr−[V、8.VP、
]7丁([]”は転置を示す)とすると、φは次式で表
される。
Orientation (progressing direction) of mobile robot 1 in the absolute coordinate system
Let φ be the absolute velocity vector vr-[V,8. V.P.
]7 ([]” indicates transposition), φ is expressed by the following formula.

φ= K / 2  tan−’ (Vry/ Vry
)また、ロボット直交座標系から見た障害物の相対位置
ベクトル$。は、次式で求まる。
φ=K/2 tan-' (Vry/Vry
) Also, the relative position vector $ of the obstacle seen from the robot Cartesian coordinate system. is determined by the following formula.

$、=R・(P、−P、)=[S、x、S、、]’  
(2)よって、ロボット極座標系(角度は進行方向を0
°とし、その右を正、左を負とする)から見た障害物の
距離り、および方位θ1は、 L、=  S、、”+S、、”         (3
)θm= π/ 2  jan−’ (soy/ 5o
ll)   (4)となる。このし、、θ8から第4図
(a)、 (b)のメンバーシップ関数を構成する。
$,=R・(P,-P,)=[S,x,S,,]'
(2) Therefore, the robot polar coordinate system (the angle is 0 with respect to the direction of movement)
degree, the right side is positive and the left side is negative), and the direction θ1 of the obstacle is L,=S,, ``+S,,'' (3
) θm= π/ 2 jan-' (soy/ 5o
ll) (4) becomes. Then, the membership functions shown in FIGS. 4(a) and 4(b) are constructed from θ8.

極座標方位θ8は一90″から90’まで(移動ロボッ
ト1の進行方向に対し真横より前方の範囲)に物体が存
在するときのみを考え、第4図(a)のような4段階の
メンバーシップ関数を設定する。
The polar coordinate direction θ8 is considered only when an object exists in the range from 190'' to 90' (the range from directly beside to in front of the moving direction of the mobile robot 1), and has four levels of membership as shown in Fig. 4(a). Set the function.

ここで、移動ロボット1に対しL L (Left L
arge)は左側に大きい角度、L S (Left 
Small)は左側に小さい角度、RS (Right
 Small)は右側に小さい角度、RL (Righ
t Large)は右側に大きい角度にそれぞれ物体が
存在するときを表している。なお、この場合のメンバー
シップ関数は三角状の関数を用いた。
Here, L L (Left L
arge) is a large angle to the left, L S (Left
Small) is a small angle to the left, RS (Right
Small) is a small angle on the right side, RL (Right
t Large) indicates when an object exists at a large angle on the right side. Note that a triangular function was used as the membership function in this case.

次に、極座標距離り、はOから150cmまでに物体が
存在するときを考え、第4図(b)のような3段階のメ
ンバーシップ関数を設けた。すなわち、N (Near
)は近いとき、M (Mediam)は中間域、F (
Par)は遠いときを示している。
Next, we considered the case where an object exists within 150 cm from the polar coordinate distance 0, and provided a three-stage membership function as shown in FIG. 4(b). That is, N (Near
) is close, M (Medium) is in the middle range, F (
Par) indicates a far time.

これらの方位および距離のファジィ表現に対し、静的危
険度αを第4図(C)のようなメンバーシップ関数でフ
ァジィ表現を行う。ここで、左側はLDL (Left
 Danger Large)、  L D S (L
eft Danger3s+aJI)、  L S S
  (Left 5afe Sn+all)、  L 
S L(Left Small Large )の順に
、右側は、RDL(Right  Danger  L
arge)  、  RD S  (Right  D
angerSmall)、 RS S (Right 
5afe Small) 、 RS L (Right
Safe Large)の順に危険度が大きいことを表
す。
For these fuzzy expressions of direction and distance, static risk α is expressed using a membership function as shown in FIG. 4(C). Here, the left side is LDL (Left
Danger Large), L D S (L
eft Danger3s+aJI), L S S
(Left 5afe Sn+all), L
In the order of SL (Left Small Large), the right side is RDL (Right Danger L).
arge), RD S (Right D
(angerSmall), RS S (Right
5afe Small), RS L (Right
Safe, Large) indicates the highest degree of risk.

メンバーシップ関数は横軸の負側がロボット左側の危険
度、正側がロボット右側の危険度を示し、O付近が安全
、−4および1付近が危険であることを表している。
In the membership function, the negative side of the horizontal axis indicates the degree of danger on the left side of the robot, and the positive side indicates the degree of danger on the right side of the robot, with the vicinity of O indicating safety and the vicinity of -4 and 1 indicating danger.

以上のメンバーシップ関数に対し、第5図に従いファジ
ィ推論を行う。図で、LL、LS、R3゜RL、N、M
、Fは方位および距離のファジィ表現で、これらに対し
静的危険度を図のように決定する。例えば、やや右(R
3)で近く(N)に障害物が存在するときは右が大変危
険(RDL)、太き(左(LL)で中間域(M)にある
ときは左がやや安全(LSS)などと判断する。このよ
うにして、方位および距離の極座標値が与えられれば、
ファジィ推論により合成メンバーシップ関数の重心とし
て、静的危険度αが決定される。
Fuzzy inference is performed on the above membership functions according to FIG. In the figure, LL, LS, R3゜RL, N, M
, F are fuzzy representations of direction and distance, and the static risk is determined for these as shown in the figure. For example, slightly to the right (R
In 3), when there is an obstacle nearby (N), the right side is considered very dangerous (RDL), and when it is thick (left (LL)) and in the middle range (M), the left side is considered slightly safer (LSS). In this way, given the polar coordinate values of direction and distance,
The static risk α is determined as the center of gravity of the composite membership function by fuzzy inference.

次に、移動ロボット1と障害物との相対速度の方位およ
び大きさから生ずる危険性をファジィ理論により表現す
ることについて考える。
Next, we will consider expressing the danger caused by the direction and magnitude of the relative velocity between the mobile robot 1 and an obstacle using fuzzy theory.

前述の移動ロボット1の座標系変換行列Rを用いると、
ロボット直交座標系から見た障害物の相対速度ベクトル
U0は、次のようになる。
Using the coordinate system transformation matrix R of the mobile robot 1 described above,
The relative velocity vector U0 of the obstacle seen from the robot orthogonal coordinate system is as follows.

TJo=R・(Vo−Vr)=[Uax+Uoy]” 
  (5)さらに、このベクトルを障害物の方向をy軸
方向とするロボット直交座標系から見た相対速度ベクト
ルB 、 rに変換する。
TJo=R・(Vo−Vr)=[Uax+Uoy]”
(5) Furthermore, this vector is converted into relative velocity vectors B and r as seen from the robot orthogonal coordinate system with the direction of the obstacle as the y-axis direction.

U、’=R,・U、=[U、、’、U、、’]”   
 (6)従って、障害物の方向を向いたロボット極座標
系(角度は障害物方向O°、右が正、左が負)から見た
障害物の速度Wuおよび速度方位φ1は、次式のように
なる。
U,'=R,・U,=[U,,',U,,']"
(6) Therefore, the speed Wu and speed direction φ1 of the obstacle as seen from the polar coordinate system of the robot facing the direction of the obstacle (the angle is 0° in the direction of the obstacle, positive on the right, negative on the left) are as follows: become.

we4j胛コ〒+−U、、’ ”      (7)φ
8−π/ 2  jan−’ (Uoy’ / Uox
’ )  (8)第4図(ロ)は極座標速度方位φ。の
メンバーシップ関数を示す。速度方位は−180”から
180゜まで(移動ロボット1に対する障害物の方向を
中心に全方向の速度を考慮)を考え、6段階のメンバー
シップ関数を設定している。図でVLL(Veloci
ty Left Large)+ V L M (Ve
locity LeftMediu+n) + V L
 S (Velocity Left Small)は
左側、VRS (Velocity Right Sm
all ) 、 V RM(Velocity Rig
ht Medium)、 V RL (Velocit
yRight Large)は右側の速度方位を示す。
we4j胛子〒+-U、,' ” (7)φ
8-π/2 jan-'(Uoy'/Uox
') (8) Figure 4 (b) shows the polar coordinate velocity direction φ. The membership function of The velocity direction is considered from -180" to 180° (considering the velocity in all directions centering on the direction of the obstacle to the mobile robot 1), and a six-step membership function is set. In the figure, VLL (Veloci
ty Left Large) + V L M (Ve
location LeftMedium+n) + V L
S (Velocity Left Small) is on the left side, VRS (Velocity Right Sm
all ), V RM (Velocity Rig
ht Medium), V RL (Velocit
yRight Large) indicates the right velocity direction.

ここで注意すべきことは、速度方位は障害物速度からロ
ボット速度を引いた相対速度を用いているため0゜付近
のときは障害物が遠ざかっていることを、180°また
は180’付近は障害物が近づいていることを示すとい
うことである。
What should be noted here is that the speed direction uses the relative speed obtained by subtracting the robot speed from the obstacle speed, so when it is around 0°, it means that the obstacle is moving away, and when it is around 180° or 180', it means that the obstacle is moving away. It indicates that something is approaching.

次に極座標速度Wuのメンバーシップ関数を第4図(e
)に示す。速度は0から100CI/Sまでの大きさを
考え、図のような2段階のメンバーシップ関数を設けて
いる。すなわち、V S (Veloci tySlo
w)は遅いとき、V F (Velocity Fas
t)は速いときを示す。
Next, the membership function of the polar coordinate velocity Wu is shown in Figure 4 (e
). Considering the speed from 0 to 100 CI/S, a two-stage membership function as shown in the figure is provided. That is, V S (Velocity Slo
w) is slow, V F (Velocity Fas
t) indicates fast speed.

次に動的危険度βは静的危険度αと同じ第4図(ロ)の
メンバーシップ関数を用いることにする。これらのメン
バーシップ関数を用いて第5図に従ってファジィ推論を
行う。図で移動ロボット1を中心に■S、■Fが速度の
大きさ、VLL、VLM。
Next, the dynamic risk level β uses the same membership function shown in FIG. 4 (b) as the static risk level α. Fuzzy inference is performed using these membership functions according to FIG. In the figure, ■S and ■F are the magnitude of the velocity, VLL, and VLM for mobile robot 1.

VLS、VR5,VRM、VRLは速度方位(7)7ア
ジイ表現である。例えば、大きな(VF)右向きの速度
で近づいている(VRL)障害物の速度は右向きにかな
り危険(RDL)、小さな(VS)左向きの速度で遠ざ
かっている(VLS)障害物の速度は左向きにかなり安
全(L S L)などと判断する。以上のように速度お
よび速度方位が得られれば、ファジィ推論で動的危険度
βが求まる。
VLS, VR5, VRM, and VRL are velocity direction (7)7agii expressions. For example, the speed of an obstacle approaching with a large (VF) rightward speed (VRL) is very dangerous to the right (RDL), and the speed of a small (VS) obstacle that is moving away with a leftward speed (VLS) is moving leftward. It is judged as fairly safe (LSL). Once the speed and speed direction are obtained as described above, the dynamic risk degree β can be determined by fuzzy inference.

さらに、すでに得られた静的危険度αは、動的危険度β
により障害物に対する回避ベクトルをデイシジョンテー
ブルを用いて決定することを考える。横軸をα、縦軸を
βとして、回避方向を定めた表を第6図に示す。このデ
イシジョンテーブルはさまざまな回避戦略を定義するこ
とが可能であるが、本方式では比較的人間に近い決定を
行うように戦略設定を行った。表の中の数字は回避方向
を表しており、第7図にこの回避方向を示す。
Furthermore, the already obtained static risk α is equal to the dynamic risk β
Consider determining the avoidance vector for an obstacle using a decision table. FIG. 6 shows a table in which the avoidance directions are determined, with α being the horizontal axis and β being the vertical axis. This decision table can define various avoidance strategies, but in this method, the strategies were set to make decisions relatively similar to humans. The numbers in the table represent the avoidance direction, and this avoidance direction is shown in FIG.

1+〜5+は右方向のステアリング、1−〜5−は左方
向のステアリングで、それぞれ1から順に15′″ずつ
大きくなり5では75″のステアリングを示している。
1+ to 5+ represent rightward steering, and 1- to 5- represent leftward steering, each increasing by 15'' from 1, with 5 indicating 75'' steering.

尚、0はステアリングを切らずにそのまま走行する。こ
こには人間の行動ノウハウにあたる特徴的な回避戦略を
盛り込むことが可能である。
Note that when the vehicle is set to 0, the vehicle continues to drive without turning the steering wheel. It is possible to incorporate characteristic avoidance strategies that correspond to human behavioral know-how here.

以上のようにして決定された回避方向は、ロボット直交
座標系における単位ベクトルとして与えられ、これが障
害物回避ベクトル0となる。
The avoidance direction determined as described above is given as a unit vector in the robot orthogonal coordinate system, and this becomes the obstacle avoidance vector 0.

以上に述べたことは障害物に対する対応決定に関する問
題であったが、さらに目標点に到達するための方式につ
いて述べる。障害物に対しては概略的な危険度判定、複
雑な回避戦略などを模擬するために、ファジィやデイシ
ジョンテーブルを用いたが、目標点に対しては単にロボ
ットが目標力向を向くように次の単位ベクトルを与える
ものとする。
The above-mentioned problem was related to determining the response to obstacles, but we will also discuss the method for reaching the target point. For obstacles, we used fuzzy and decision tables to simulate rough risk judgments and complex avoidance strategies, but for the target point, we simply made the robot face the target force direction. Let be given the following unit vector.

D=st/1stl =(rt−r、)/1rt−r、l    (9)二の
目標到達ベクトルDは障害物回避ベクトル0と同じく、
ロボット直交座標系の単位ベクトルとして表現される。
D=st/1stl = (rt-r,)/1rt-r,l (9) The second goal arrival vector D is the same as the obstacle avoidance vector 0,
It is expressed as a unit vector in the robot Cartesian coordinate system.

障害物に対する回避ベクトルは第6図で決められた回避
方向の単位ベクトルで、目標点に対する到達ベクトルは
(9)式で決まる単位ベクトルでそれぞれ与えられる。
The avoidance vector for the obstacle is given by the unit vector in the avoidance direction determined in FIG. 6, and the arrival vector for the target point is given by the unit vector determined by equation (9).

これらのべ、クトルより次式で操舵(ステアリング)ベ
クトルを決定する。
From these vectors, the steering vector is determined using the following formula.

M=(D+0)/ I I)+01    01この0
(D式で得られた操舵ベクトルMの方向に移動ロボット
lのステアリングが設定され、この単位ベクトルにあら
かじめ与えられた速度を乗じた大きさだけ次回の指令値
として移動データ生成部18に出力される。
M=(D+0)/I I)+01 01 this 0
(The steering of the mobile robot l is set in the direction of the steering vector M obtained by equation D, and the magnitude obtained by multiplying this unit vector by the speed given in advance is output to the movement data generation unit 18 as the next command value. Ru.

なお、上記実施例では移動ロボット1に対する障害物回
避の例を示したが、移動体としてマニピュレータを想定
し、そのマニピュレータの手先先端や各関節の障害物回
避などにもこの発明を適用できる。
In the above embodiment, an example of obstacle avoidance for the mobile robot 1 was shown, but assuming a manipulator as the moving object, the present invention can also be applied to obstacle avoidance at the tip of the hand or each joint of the manipulator.

また、上記実施例では回避方法として最終的に回避方向
を決定するような例を示したが、回避速度などを決定す
る方法でもよい。
Further, in the above embodiment, an example was shown in which the avoidance direction was ultimately determined as the avoidance method, but a method of determining the avoidance speed or the like may also be used.

また、上記実施例では外界センサとして超音波センサを
例に示したが、距離や速度を大まかに計測できるもので
あれば何でもよい。
Further, in the above embodiments, an ultrasonic sensor is used as an external sensor, but any sensor may be used as long as it can roughly measure distance and speed.

〔発明の効果〕〔Effect of the invention〕

以上のように、この発明によれば、ファジィ理論により
曖昧な危険度を求めるデータ等を記憶するデータベース
部、前記危険度を求めるファジィ認識部、この求められ
た危険度から移動体の回避方向を求める行動決定部によ
り移動体の障害物回避制御装置を構成したので、どのよ
うな状態にある動的障害物に対してもデッドロックに乗
り上げることなく、人間に似たフレキシブルな回避動作
が可能となる効果がある。
As described above, according to the present invention, there is a database unit that stores data etc. for determining the vague degree of risk using fuzzy theory, a fuzzy recognition unit that determines the degree of risk, and an avoidance direction of the moving object based on the determined degree of risk. Since we configured an obstacle avoidance control device for a moving object using the desired action determining unit, we are able to perform flexible avoidance movements similar to those of humans without deadlocking against dynamic obstacles in any state. There is a certain effect.

また、障害物の検出情報も、超音波センサ等の低精度の
外界センサによる曖昧な情報で良いため、センサシステ
ムを安価に構成できる効果もある。
Furthermore, since the obstacle detection information may be ambiguous information obtained by a low-precision external sensor such as an ultrasonic sensor, the sensor system can be configured at a low cost.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例による移動体の障害物回避
制御装置の構成図、第2図は判断機構12の判断フロー
チャートを示す説明図、第3図は障害物回避の設定条件
の説明図、第4図はデータベース部δ内のメンバーシッ
プ関数の説明図、第5図は静的危険度α、動的危険度β
の決定方法の説明図、第6図はデータベース部15内の
デイシジョンテーブルの説明図、第7図は回避方向の説
明図、第8図は従来の移動体の障害物回避制御装置の説
明図である。 1は移動ロボット(移動体)、13はセンサ群(外界セ
ンサ)、15はデータベース部、16はファジィ認識部
、17は行動決定部、18は移動データ生成部。 なお、図中、同一符号は同一、又は相当部分を示す。
FIG. 1 is a configuration diagram of an obstacle avoidance control device for a moving object according to an embodiment of the present invention, FIG. 2 is an explanatory diagram showing a judgment flowchart of the judgment mechanism 12, and FIG. 3 is an explanation of setting conditions for obstacle avoidance. Figure 4 is an explanatory diagram of the membership function in the database part δ, and Figure 5 is a static risk level α and a dynamic risk level β.
FIG. 6 is an explanatory diagram of the decision table in the database unit 15, FIG. 7 is an explanatory diagram of the avoidance direction, and FIG. 8 is an explanatory diagram of the conventional obstacle avoidance control device for a moving object. It is a diagram. 1 is a mobile robot (mobile body), 13 is a sensor group (external sensor), 15 is a database section, 16 is a fuzzy recognition section, 17 is an action determination section, and 18 is a movement data generation section. In addition, in the figures, the same reference numerals indicate the same or equivalent parts.

Claims (1)

【特許請求の範囲】[Claims] 移動体の障害物を検出する外界センサと、前記障害物に
対する前記移動体の静的危険度および動的危険度から成
る危険度を決定するためのデータおよび前記危険度から
前記移動体の回避方向を決定するためのデータを記憶す
るデータベース部と、前記外界センサからの入力情報に
対して前記データベース部内のデータに基づき前記静的
危険度、動的危険度をファジィ理論により求めるファジ
ィ認識部と、このファジィ認識部により求められた静的
危険度、動的危険度および前記データベース部内のデー
タに基づき、前記移動体の回避方向を求める行動決定部
と、この行動決定部からの回避方向により前記移動体の
移動データを求めて該移動体を当該回避方向に移動せし
める移動データ生成部とを備えた移動体の障害物回避制
御装置。
an external sensor that detects an obstacle on a moving body; data for determining a degree of danger consisting of a static degree of danger and a dynamic degree of danger of the mobile body with respect to the obstacle; and an avoidance direction of the mobile body based on the degree of danger; a database unit that stores data for determining the above, and a fuzzy recognition unit that calculates the static risk level and the dynamic risk level based on the data in the database unit based on the input information from the external sensor using fuzzy theory; an action determining unit that determines the avoidance direction of the moving object based on the static risk level and dynamic risk level determined by the fuzzy recognition unit and data in the database unit; An obstacle avoidance control device for a moving body, comprising: a movement data generation unit that obtains movement data of a body and causes the moving body to move in the avoidance direction.
JP1008351A 1989-01-17 1989-01-17 Controller for avoiding obstacle of traveling object Pending JPH02188809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1008351A JPH02188809A (en) 1989-01-17 1989-01-17 Controller for avoiding obstacle of traveling object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1008351A JPH02188809A (en) 1989-01-17 1989-01-17 Controller for avoiding obstacle of traveling object

Publications (1)

Publication Number Publication Date
JPH02188809A true JPH02188809A (en) 1990-07-24

Family

ID=11690804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1008351A Pending JPH02188809A (en) 1989-01-17 1989-01-17 Controller for avoiding obstacle of traveling object

Country Status (1)

Country Link
JP (1) JPH02188809A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04209014A (en) * 1990-11-30 1992-07-30 Fujita Corp Monitor and control equipment for travel state of unmanned traveling vehicle
JPH04324505A (en) * 1991-04-09 1992-11-13 Internatl Business Mach Corp <Ibm> Autonomous moving machine and apparatus and method for controlling moving machine
JPH07200061A (en) * 1993-12-09 1995-08-04 Internatl Business Mach Corp <Ibm> System for avoidance of obstacle
JP2004157829A (en) * 2002-11-07 2004-06-03 Matsushita Electric Works Ltd Autonomous moving device and autonomous movement control method
JP2008171207A (en) * 2007-01-11 2008-07-24 Fuji Heavy Ind Ltd Vehicle driving support device
JP2008254134A (en) * 2007-04-06 2008-10-23 Honda Motor Co Ltd Moving device, its control method and control program
CN103324196A (en) * 2013-06-17 2013-09-25 南京邮电大学 Multi-robot path planning and coordination collision prevention method based on fuzzy logic
CN105182979A (en) * 2015-09-23 2015-12-23 上海物景智能科技有限公司 Mobile robot obstacle detecting and avoiding method and system
WO2019124343A1 (en) * 2017-12-19 2019-06-27 株式会社ダイヘン Moving body

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04209014A (en) * 1990-11-30 1992-07-30 Fujita Corp Monitor and control equipment for travel state of unmanned traveling vehicle
JPH04324505A (en) * 1991-04-09 1992-11-13 Internatl Business Mach Corp <Ibm> Autonomous moving machine and apparatus and method for controlling moving machine
JPH07200061A (en) * 1993-12-09 1995-08-04 Internatl Business Mach Corp <Ibm> System for avoidance of obstacle
JP2004157829A (en) * 2002-11-07 2004-06-03 Matsushita Electric Works Ltd Autonomous moving device and autonomous movement control method
JP2008171207A (en) * 2007-01-11 2008-07-24 Fuji Heavy Ind Ltd Vehicle driving support device
JP2008254134A (en) * 2007-04-06 2008-10-23 Honda Motor Co Ltd Moving device, its control method and control program
US8204679B2 (en) 2007-04-06 2012-06-19 Honda Motor Co., Ltd. Mobile apparatus, control device and control program
CN103324196A (en) * 2013-06-17 2013-09-25 南京邮电大学 Multi-robot path planning and coordination collision prevention method based on fuzzy logic
CN105182979A (en) * 2015-09-23 2015-12-23 上海物景智能科技有限公司 Mobile robot obstacle detecting and avoiding method and system
WO2019124343A1 (en) * 2017-12-19 2019-06-27 株式会社ダイヘン Moving body
JP2019109773A (en) * 2017-12-19 2019-07-04 株式会社ダイヘン Moving object

Similar Documents

Publication Publication Date Title
Yang et al. Neural-learning-based telerobot control with guaranteed performance
Woods et al. A novel potential field controller for use on aerial robots
Lapierre et al. Combined path-following and obstacle avoidance control of a wheeled robot
Freda et al. Vision-based interception of a moving target with a nonholonomic mobile robot
Shi et al. Collision avoidance for redundant robots in position-based visual servoing
JP6321905B2 (en) Joint system control method, storage medium, and control system
WO2017166767A1 (en) Information processing method, mobile device, and computer storage medium
Pajak et al. Point-to-point collision-free trajectory planning for mobile manipulators
JPH02188809A (en) Controller for avoiding obstacle of traveling object
Heins et al. Mobile manipulation in unknown environments with differential inverse kinematics control
WO2020181255A1 (en) Collaborative task execution with humans and robotic vehicles
US20220009101A1 (en) Control device, control method, and non-transitory recording medium
Ouyang et al. Virtual velocity vector-based offline collision-free path planning of industrial robotic manipulator
Sadeghian et al. Visual servoing with safe interaction using image moments
Kim et al. Single 2D lidar based follow-me of mobile robot on hilly terrains
Lang et al. Application of visual servo control in autonomous mobile rescue robots
Lang et al. Developments in visual servoing for mobile manipulation
Cuan et al. Gesture2path: Imitation learning for gesture-aware navigation
Thomas et al. Plane-to-plane positioning by proximity-based control
Lu et al. Human-robot collision detection based on the improved camshift algorithm and bounding box
Tarmizi et al. Latest trend in person following robot control algorithm: A review
CN113927603A (en) Mechanical arm dragging control method and device, computer equipment and storage medium
Islam et al. Haptics and virtual reality based bilateral telemanipulation of miniature aerial vehicle over open communication network
Quyen Bui et al. Sonar-based obstacle avoidance using region partition scheme
Hirukawa et al. Image feature based navigation of nonholonomic mobile robots with active camera