JPS6258311A - Mobile robot - Google Patents

Mobile robot

Info

Publication number
JPS6258311A
JPS6258311A JP60197593A JP19759385A JPS6258311A JP S6258311 A JPS6258311 A JP S6258311A JP 60197593 A JP60197593 A JP 60197593A JP 19759385 A JP19759385 A JP 19759385A JP S6258311 A JPS6258311 A JP S6258311A
Authority
JP
Japan
Prior art keywords
list
area
mobile robot
robot
obstacles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60197593A
Other languages
Japanese (ja)
Other versions
JP2543848B2 (en
Inventor
Toshi Asano
浅野 都司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP19759385A priority Critical patent/JP2543848B2/en
Publication of JPS6258311A publication Critical patent/JPS6258311A/en
Application granted granted Critical
Publication of JP2543848B2 publication Critical patent/JP2543848B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To enable a robot itself to reach correctly a target point by storing previously the distance between obstacles in the (x) and (y) directions that is different in each area and collating said distance between obstacles with the value stored previously through a range finder set on the robot. CONSTITUTION:The distances between obstacles and the area distances are displayed in a list as shown by an equation I for each area. The area name in the list is called a direction indicator and an area connection list (expression II) is obtained. Then both lists (expressions I and II) are taught to a mobile robot. The mobile robot is moved autonomously in various ways. For instance, an area connection list including both points A2 and A23 is searched at first with input of a start point AS=A2 and a target point AG=A23. Here it is decided that an answer is obtained as long as such a list is obtained. Then the procedure proceeds to another step. However no such list is available in this example, and therefore the connection list including the point A23 is searched. Thus (Y, A23, A22) are obtained and the procedure proceeds to the next process.

Description

【発明の詳細な説明】 〔発明の属する技術分野〕 この発明は、ビルの床面を走るメイルロボットや夜間見
まわシロボット等が自律運転するに必要な地図情報を作
りながら移動できる移動ロボットに関する。
[Detailed description of the invention] [Technical field to which the invention pertains] This invention relates to a mobile robot that can move while creating map information necessary for autonomous operation of a mail robot, a night-time lookout robot, etc. that runs on the floor of a building. .

〔発明の技術的背景とその間d点〕[Technical background of the invention and point d]

従来、移動ロボットを自動運転する揚曾、床面に信号線
や発振器を埋設して、移動ロボットをその信号−に沿っ
て誘導したり1発振器の信号を移動ロボットで受信して
、移動ロボットの位置を確認していた。ま九、最近は、
移動ロボットに視覚センサを搭載し1周囲の景色を認識
して、移動ロボットを自律的に運転しようと云う試みも
なされているが、認識に時間を要するうえに大形計算機
を必要とする点で未だ実用に程遠い。
Conventionally, when driving a mobile robot automatically, signal lines and oscillators were buried in the floor, and the mobile robot was guided along the signals, and the mobile robot received the signal from one oscillator. I was checking the location. Maku, recently,
Attempts have been made to equip a mobile robot with a visual sensor to recognize the surrounding scenery and drive the mobile robot autonomously, but this method takes time and requires a large computer. It is still far from practical use.

〔発明の目的〕[Purpose of the invention]

この発明の目的は、高速かつ低コストで、移動ロボット
が自分の位置を認識しかつ目的地へ至る径路を自分で見
出し、自律的に移動すること可能ならしむ移動ロボット
を提供するにある。
An object of the present invention is to provide a mobile robot that can recognize its own position, find its own route to its destination, and move autonomously at high speed and at low cost.

〔発明の概要〕[Summary of the invention]

本発明は自律的に制御される移動ロボットにおいて、移
動ロボットの活動範囲を、移動ロボットに搭載したレン
ジファインダーで計測可能な移動ロボットの前後方向及
び左右方向の障害物間距離で特徴づけされる単位領域に
分割し、該単位領域名、該単位領域の大きさ、該単位領
域における該障害物間距離からなる単位領域リストと該
単位領域の結合の方向と結合している領域の名称からな
る領域給仕リストを該ロボットの活動範囲の地図として
該移動ロボットの制御用計算機にあらかじめ入力してお
くことを特徴とした移動ロボットである。
The present invention relates to an autonomously controlled mobile robot, in which the activity range of the mobile robot is defined by a unit characterized by the distance between obstacles in the front-rear direction and the left-right direction of the mobile robot, which can be measured by a range finder mounted on the mobile robot. An area divided into areas and consisting of a unit area list consisting of the unit area name, the size of the unit area, the distance between the obstacles in the unit area, the direction of connection of the unit area, and the name of the connected area. This mobile robot is characterized in that a serving list is input in advance into a control computer of the mobile robot as a map of the robot's activity range.

〔発明の効果〕〔Effect of the invention〕

本発明によれば出発点がら目標点までの径路をロボット
自身で見出し、自律的に動かすことができる。
According to the present invention, the robot can find the route from the starting point to the target point by itself and can move autonomously.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明の一実施例について詳細に説明する。第1
図は本発明の実施例である移動ロボット10とこの移動
ロボット10に積載された制御装置19(一点鎖線で示
す)の機能とを示した図である。移動ロボット10には
4方側面に各面2ヶづつ車載距離センサ1,2.・・・
、8が配置され、操舵駆動手段20.車輪駆動手段21
で駆動される車輪22.・・・、25が設けられている
Hereinafter, one embodiment of the present invention will be described in detail. 1st
The figure shows a mobile robot 10 according to an embodiment of the present invention and the functions of a control device 19 (indicated by a chain line) mounted on the mobile robot 10. The mobile robot 10 is equipped with vehicle-mounted distance sensors 1, 2, two on each side on four sides. ...
, 8 are arranged, and the steering drive means 20. Wheel drive means 21
Wheels driven by 22. ..., 25 are provided.

制御O装置jt19は、車載距離センサ群26からの各
々のセンサからの信号で移動ロボット10の周囲の距離
を測定して、この移動ロボット10の位置をメモリ一手
段28のデータと共に認識する。
The control device jt19 measures the distance around the mobile robot 10 using signals from each sensor from the vehicle-mounted distance sensor group 26, and recognizes the position of the mobile robot 10 together with the data in the memory unit 28.

この位置データは自己位置認識結果出力手段29でモニ
ターしている。メモリ一手段28はそのメモリー内容に
領域リスト30と領域結付リスト31が記憶されている
。このメモリ一手段のデータは出発点と目標点の指定を
行なう指定手段32からのデータと共に径路探索手段3
3に入力して分岐リスト34を生成する。この分岐リス
ト34のデータとメモリ一手段28のデータとを移動ロ
ボット制両データ先盾手段35に入力して移動ロボット
10の制御データ36を得て、このデータ36によって
ロボッ)10の駆動手段20.21を動作させる。尚、
これらのデータ処理はCPUおよびメモリの構成で行な
われ′る。
This position data is monitored by self-position recognition result output means 29. The memory means 28 stores an area list 30 and an area association list 31 in its memory contents. The data in this memory means is stored in the route searching means 3 along with the data from the specifying means 32 for specifying the starting point and the target point.
3 to generate a branch list 34. The data of this branch list 34 and the data of the memory means 28 are inputted to the mobile robot control data vanguard means 35 to obtain the control data 36 of the mobile robot 10, and this data 36 is used to control the driving means 20 of the robot 10. Run .21. still,
These data processes are performed by a CPU and memory configuration.

次に第2図〜第4.鍔を参照し本発明の詳細な説明する
。第2図は1本発明の基本のひとつである地図の単位領
域への分割法を説明する図である。
Next, Figures 2 to 4. The present invention will be described in detail with reference to the collar. FIG. 2 is a diagram illustrating a method of dividing a map into unit areas, which is one of the basics of the present invention.

移動ロボットが搭載されているレンジファインダーで前
後左右の壁等の障害物迄の距離を計測したとすると、そ
の計測値によって第2図の如りA1〜八〇の単位領域(
以下単に領域と呼ぶンに分割することができる。
If the range finder on which the mobile robot is mounted measures the distance to obstacles such as front, rear, left, and right walls, the measured values will be used to calculate the unit area from A1 to 80 (as shown in Figure 2).
It can be divided into areas, which will hereinafter be simply referred to as areas.

即ち八1ではX方向の障害物間距離はlI −Y方向の
障害物間距離!、であり、AIではそれぞれlk*16
となる。
In other words, in 81, the distance between obstacles in the X direction is lI - the distance between obstacles in the Y direction! , and in AI each lk*16
becomes.

このように各領域によって異なるX方向、X方向の障害
物間距離をあらかじめロボッ・トに記憶。
In this way, the robot memorizes the X direction and distance between obstacles in the X direction, which vary depending on each area, in advance.

教示しておいた上で、ロボットIこ搭載したレンジファ
インダーで、障害物間距離を計測し、これを記憶値と比
較対間すれば、ロボット10の位置を自動的に確認でき
る。
After being taught, the robot 10's position can be automatically confirmed by measuring the distance between obstacles using a range finder mounted on the robot 10, and comparing this with a stored value.

ここでは、各領域の障害物間距離と領域距離を次のよう
にリスト表示することにし、これらを領域リスト30と
呼ぶ。
Here, the distance between obstacles and the area distance of each area will be displayed in a list as follows, and these will be referred to as an area list 30.

(As  −js  −Is  −At  −Is  
)(A、、l、、l・ 、1B−Is) (As  e l*  m’s  # ’4 1 Is
  ン(A、 、lk、It、 、l、。、!、)ただ
しl k −19十13 + 11゜ 上記リストの第1要素は領域名を、第2.第3要素は、
X方向、X方向の障害物間距離、第4.第5要素は、領
域の−X方向、y方向の長さく距離ノを表わしている。
(As −js −Is −At −Is
)(A,,l,,l・,1B-Is) (As e l* m's #'4 1 Is
(A, , lk, It, , l, ., !,) where l k −1913 + 11° The first element in the above list is the area name, the second . The third element is
X direction, distance between obstacles in the X direction, 4th. The fifth element represents the length and distance of the area in the -X and y directions.

このように領域分けした地図をロボットに記憶させる方
法を第3図を例にとり説明する。ここでは、X方向、X
方向の領域のつながりを、その方向と領域のリストとし
て表瑣する1例えば(xeAt*At eAs )は、
X方向にAl eAs # Amの順で領域がつながっ
ていることを示す、したがってこれは(−X eAs 
mAs * AIンのようにも表現できる。リストの第
1要素をここでは方向インジケータと呼ぶことにする。
A method for storing a map divided into areas in this manner in a robot will be explained using FIG. 3 as an example. Here, the X direction,
For example, (xeAt*At eAs) expresses the connection of areas in a direction as a list of the directions and areas.
This shows that the regions are connected in the order of Al eAs # Am in the X direction, so this is (-X eAs
It can also be expressed as mAs * AI. The first element of the list will be referred to here as the direction indicator.

またこのリストを領域結合リスト31と呼ぶことにする
Further, this list will be referred to as the area combination list 31.

第3図の列では、領域給仕りストは次のようになる。In the column of FIG. 3, the area waitstaff is as follows:

(XsAt eAr tAs ) CY−At −A4− As 、 Ate−Asy)(
X#A5 +Aa eAr eAll eA、5Ato
)(X  *  Att  I  Att  s  A
lfi  e  A14  m  Att)(xe A
lg + Att # A18 )()’ a AL 
 e Ass s A19 @ AI。ノ(x、AIO
,A、l、A、、) (Y = Ata −Att) 以上述べた領域リス)30と領域結合リスト31を移動
ロボット10に教示すれば、これですべて地図情報が記
憶され念ことになる。
(XsAt eArt As ) CY-At -A4- As , Ate-Asy) (
X#A5 +Aa eAr eAll eA, 5Ato
)(X * Att I Att s A
lfi e A14 m Att) (xe A
lg + Att # A18 ) ()' a AL
e Ass s A19 @ AI.ノ(x, AIO
, A, l, A, , ) (Y = Ata - Att) If the above-mentioned area list 30 and area combination list 31 are taught to the mobile robot 10, all the map information will be stored.

これらの地図情報を使りて、移動ロボットを自律的に動
かす方法は種々考えられる。その具体例を第4図の流れ
図を参照して説明する。
There are various ways to autonomously move a mobile robot using this map information. A specific example will be explained with reference to the flowchart of FIG.

第4図のガでは、一般に横形探索と呼ばれる方法と、逆
探索法の組合せを採用している。
The moth in FIG. 4 employs a combination of a method generally called horizontal search and an inverse search method.

いま出発点A s −AH、目標点AG−A□をステッ
プ1で入力すると、始めにAIとA□を含む領域納会リ
ストを探す、ここでこのようなリストがあれば解が得ら
れたこと齋ごなるのでステップ36に移るが、本例では
存在しないのでステップ6でA□を含む領域納会リスト
を探し。
Now, if we input the starting point A s - AH and the target point AG - A □ in step 1, we will first search for an area collection list that includes AI and A □, and if we have such a list, we will have obtained the solution. Since this is the case, the process moves to step 36, but in this example, it does not exist, so in step 6, a search is made for an area payment list that includes A□.

(Y、A□、A□) が得られる。又、結合リストはひとつしか無いので1分
岐リス)BGの頭にAGを加え B””(AI5) Cs    ”(Y−AI 、  Att)となる。
(Y, A□, A□) is obtained. Also, since there is only one linked list, AG is added to the head of BG (one-branch list), resulting in B""(AI5) Cs"(Y-AI, Att).

次にステップ121こ移り−Ctの子リストとその分岐
点を求める。子リストとは、親リスト(CI)に含まれ
る要素をリストに含む(共有する)親リスト以外の領域
結合リストで、共有要素を分岐点と云う0本例の場合は
、CIの子リストは(X。
Next, at step 121, the child list of Ct and its branch points are determined. A child list is a combined list of areas other than the parent list that includes (shares) elements included in the parent list (CI).In this example, the shared element is called a branch point.In this example, the child list of CI is (X.

Ato eAtt e ’*t) e分岐点はs A1
1となる。
Ato eAtt e '*t) e branch point is s A1
It becomes 1.

この子リストにAs(−へt)が含まれていれば、出発
点から目標点迄に至る領域のつながりが得られた訳であ
る故、ステップ15で、分岐リストBGの頭に分岐点A
0を加えてステップ26に移る。
If this child list contains As (- to t), the connection of the area from the starting point to the target point has been obtained, so in step 15, the branch point A is added to the head of the branch list BG.
Add 0 and proceed to step 26.

本例では、 (X、A、。e AH* AttンにA、
は含まれていないから、ステップ8に戻り、ステップ9
でB’−(Aat eAttン となり、ステップ11で Ct ” (Xe Ato # Au * Alm )
となる。
In this example, (X, A,.e AH* Attton has A,
is not included, so return to step 8 and step 9
becomes B'-(Aat eAttton, and in step 11 Ct ” (Xe Ato # Au * Alm)
becomes.

ステップ12で再びC3の子リスト(Y、A、。In step 12, C3's child list (Y, A, .

Ass * An # Ato )と分岐点A、。が求
まる。この子リストにAs(A、)が無いからC3のと
きと同様に””(Awe sA***AH) C,−(YtAs 、A工a A16 m AI。〕と
なる。
Ass * An # Ato) and branch point A,. is found. Since there is no As(A,) in this child list, it becomes "" (Awe sA ****AH) C, - (YtAs, A 工 a A 16 m AI.) as in the case of C3.

そしてステップ12でC3の子リストと分岐点を求め、
(X、A□、A□#A□e A14 ) a A14と
(X。
Then, in step 12, find the child list of C3 and the branch point,
(X, A□, A□#A□e A14) a A14 and (X.

A、 、A、 、A、 、A、 、A、 、A、。)、
A、が得られる。
A, ,A, ,A, ,A, ,A, ,A,. ),
A is obtained.

これらの子リストにA s (−A、 )は含まれてい
ないが、子リストが複数あるので、ステップ14,8を
径由してステップ16に移る。I−3であるからステッ
プ19に移る。
These child lists do not include A s (-A, ), but since there are multiple child lists, the process moves to step 16 via steps 14 and 8. Since it is I-3, the process moves to step 19.

以上で目標点から出発して経路を求める逆探索は終りで
ある。このフローチャートでは、逆探索を一本路が続(
迄行うようにしている。
This completes the inverse search for finding a route starting from the target point. In this flowchart, the inverse search follows one path (
I'm trying to do it until now.

次に順探索にうつる。先ず、分岐リストB@をステップ
20で定義する。BGが目標点からの分岐点でリストを
作ったのに対し、Bsは、出発点からの分岐点のリスト
になる。
Next, move on to sequential search. First, a branch list B@ is defined in step 20. While BG creates a list of branch points from the target point, Bs creates a list of branch points from the starting point.

ステップ21でAs(mA、)を含む領域結−ft I
Jストを求めこれを自Jとする。また1分岐リストBs
の末尾にAs(wA、)を加えこれをbtj・lとする
In step 21, the area containing As (mA, ) is determined by -ft I
Find the J strike and make this your J. Also 1 branch list Bs
Add As(wA,) to the end of and make this btj·l.

本例では、 C□−(X=A* −At 、As ) −Btt−(
At )Cwt”(YtAs 、A、 mAs eAl
l 、Aty)Bu−(At) となる。
In this example, C□-(X=A*-At, As)-Btt-(
At) Cwt”(YtAs, A, mAs eAl
l,Aty)Bu-(At).

次にステップ22で、C1,とc、 、 cmとC1が
それぞれ共有要素を持つかどうかを調べる。ここで注意
することは、i−0即ち目標点で経路が二分している場
合は、これらを示す領域結合リストC*’、C*(ステ
ップ17参照ンと共有する要素の有無を調べることにな
ることである。
Next, in step 22, it is checked whether C1, c, cm, and C1 each have a shared element. It should be noted here that if the route is bisected at i-0, that is, the target point, check to see if there are any elements in common with the area combination lists C*' and C* (see step 17) that indicate these points. It is what happens.

本例では共有要素がないので、C11e C1mの子リ
ストと分岐点を求めC2jとし、BuJを作るII C
1lは子リストを持たないので消去されC1tの子リス
トと分岐点が次のように求まる。
In this example, there is no shared element, so find the child list and branch point of C11e and C1m, set it as C2j, and create BuJ II C
Since 1l has no child list, it is deleted, and the child list and branch point of C1t are determined as follows.

Cu =(X−Ag −At −”q −As 、Ae
 −Aso)−B10−(At #A@) Cxt=(X−At□ @ Alg # A11 t 
A14 # A11ンBu = (At −A□) Cts −(X −Ate・41丁・Alg)Bus−
(A意、A1り そこで、ステップ22に戻シC□とC,、C□とC1C
□とC3がそれぞれ共有要素を持つかどうか順次調べる
Cu = (X-Ag-At-”q-As, Ae
-Aso) -B10-(At #A@) Cxt=(X-At□ @Alg #A11 t
A14 # A11 Bu = (At −A□) Cts −(X −Ate・41st・Alg)Bus−
(A intends, A1. Then, return to step 22. C□ and C, , C□ and C1C
It is sequentially checked whether □ and C3 each have a shared element.

COとCsはA・を共有しているので、不テップ27に
移り、共有要素A、をB!xのリストの末尾に加え Bu−(At 、A、、Am ン とする。
Since CO and Cs share A, we move to step 27 and change the shared elements A and B! In addition to the end of the list of x, let Bu-(At, A,, Am) be added.

ステップ28でB1とBGを加えて全体の分岐リストB
を作る。Bは B= (At −Am −Am−AI。* 八12 e
 AH)となる。
In step 28, add B1 and BG to create the entire branch list B.
make. B is B= (At -Am -Am-AI.* 812 e
AH).

分岐リストBが得られたことは、出発点As(mAs)
から目標点AG(−Ass)に至る道すじが決ったこと
を示し、各要素は、移動ロボットが進行方向を変える点
(ステアリング点]でもある。
The fact that branch list B was obtained means that the starting point As(mAs)
This indicates that the route from to the target point AG (-Ass) has been decided, and each element is also a point (steering point) at which the mobile robot changes its direction of movement.

ステップ29以降で移動ロボットの制御情報を作る。先
づ始めに分岐リストBに含まれる要素の頭からニラ即ち
A、、A・を含む領域績eQストを求め、方向インジケ
ータを除<At〜A6の前後の要素を削除して0重 と
するm At # Atを含む領域結合リストは (Y、A、 、A、 、A・# A11 m Aty 
)でA、の前に領域要素はないが、A、の後にはA□、
AIがあるので、これらを削除してCI  =(Y−A
s  、A4  、As  ン″となる。−これと同様
にして、A・、A、を含む領域結分リスト、A・、At
。を含む結合リスト、・・・・・・・・・A□ 、A1
.を含む結合リストを求めCI # C1# ”・CI
  を求める。
From step 29 onwards, control information for the mobile robot is created. First, find the area score eQ that includes chives, that is, A, , A, from the beginning of the elements included in branch list B, and remove the direction indicator. Delete the elements before and after At to A6 to make it 0 times. The area combination list containing m At # At is (Y, A, , A, , A・# A11 m At
), there is no area element before A, but after A there are A□,
Since there is AI, delete these and create CI = (Y-A
s , A4 , As '.-Similarly, the area joint list containing A, A, A, At
. A joined list containing ・・・・・・・・・A□ , A1
.. Find a linked list containing CI # C1 # ”・CI
seek.

所で、Alg s Altを含む領域結合リストは(Y
、鳥3.A□) であるが1分岐リストの順番A□、A!3とは逆になっ
ている。この場合は、方向インジケータYに1−)符合
をつけることになる。結局ステップ29から33迄の作
業で CI = (Y 、 At 、 A4 、 At )C
I ”(X* At @ At IAs * At )
Cs ”(Y*A@ *A11 *All*A!。90
番 −(X 、A、。 、A□−An)C,−(−Y、
A□、A□) が求まる。これらのC1〜C,と領域リストを使って移
動ロボットの制御情報をステップ35で次のようにして
作る。
By the way, the area combination list containing Alg s Alt is (Y
, bird 3. A□) However, the order of the 1-branch list is A□, A! 3 is the opposite. In this case, the direction indicator Y will be given a 1-) sign. In the end, through the work from steps 29 to 33, CI = (Y, At, A4, At)C
I” (X* At @ At IAs * At )
Cs ”(Y*A@ *A11 *All*A!.90
No. -(X,A,.,A□-An)C,-(-Y,
A□, A□) can be found. Using these C1 to C and the area list, control information for the mobile robot is created in step 35 as follows.

ロボットはAs(−At)から出発するが、領域結合リ
ストC1より、方向インジケータがYであるから、y方
向に進める。その距111y*は7s−4のy方向の長
さX 1 / 2 +A、のy方向の長さ十A、の、方
向の長さ×1/!として計算する。
The robot starts from As(-At), but since the direction indicator is Y according to the area combination list C1, it advances in the y direction. The distance 111y* is the length in the y direction of 7s-4 X 1/2 +A, the length in the y direction of 10 A, the length in the direction x 1/! Calculate as.

各領域の長さは、領域リストを領域名で呼び出し求める
The length of each area is determined by calling the area list using the area name.

同様にしてA、からA、迄の距離x1は、zlmA・の
X方向の長さ×1721000X方向の長さ十A、のX
方向の長さ+A、のX方向の長さ×172 として求め
る・ そして、A・では、今迄y方向に進んでいたロボットを
X方向に進めるのだから90度ステアリングを右に切る
ように制御することになる。
Similarly, the distance x1 from A to A is the length of zlmA in the X direction x 1721000 x the length in the X direction of 10A.
The length in the direction + A is determined as the length in the X direction x 172. Then, in A, the robot that has been moving in the y direction until now is moving in the X direction, so control the steering wheel by 90 degrees to the right. It turns out.

以上の如り、シて、出発点から目標点迄、移動ロボット
を自律的に動かす制御情報を自由に作ることができる。
As described above, it is possible to freely create control information for autonomously moving a mobile robot from a starting point to a target point.

領域リストの第2.第3要素は、移動ロボットが自分の
位置を判断するのに使うと前にも述べたが、ロボットに
現在位置から成る目標点迄移動するように指示したより
な場會に、現在位置の領域名を知るのに使う。即ち、前
後方向と横方向の障害物迄の距離を計測し、これに分数
する領域リストを探し出す。若しこの領域リストが複数
あればそれらの領域から移動ロボットがはみ出す程度に
前後、左右tこ移動させ前後方向と横方向の障害物距離
を計測しその領域が含まれる領域結合リストを探し出し
、その領域の隣接領域の障害物距離と照合して現在位置
を求める。
2nd area list. As mentioned earlier, the third element is used by a mobile robot to judge its own position, but in a situation where the robot is instructed to move to a target point consisting of its current position, Used to know names. That is, the distance to the obstacle in the longitudinal and lateral directions is measured, and an area list that is a fraction of the distance is found. If there are multiple area lists, move the mobile robot back and forth, left and right to the extent that it protrudes from those areas, measure the obstacle distance in the front/back direction and lateral direction, find the area combination list that includes that area, and The current position is determined by comparing the distance to obstacles in the area adjacent to the area.

移動ロボットの前後方向、横方向の障害物迄の距離は、
レンジファインダーで容易に計測できる。
The distance to obstacles in the front, back, and lateral directions of the mobile robot is
It can be easily measured with a range finder.

第5図はその一列で、超音波センサを移動ロボットの前
後、左右−ことりつけて、それぞれ障害物迄の距離を計
測する。
FIG. 5 shows one row of ultrasonic sensors attached to the front, back, left and right sides of the mobile robot to measure the distance to each obstacle.

第5図において10は移動ロボット、矢印はロボットの
向き11は廊下、12.13は壁等の障害物、1〜8は
ロボットにと9つけられた超音波センサである。いま1
番目の超音波センサの計測値をrliとすると、 rl、=rlv、rl、xrl、、rl、zr/、、r
17amrノ、がロボット10の成る側面が障害物と平
行になる条件となる。そこで、このような条件が得られ
る迄ロボットを自動的に動くようにしておけば領域区分
を決める障害物間距離はrl、+r1.十幅方向センサ
間距離、 rjl +rj@十長手方向センサ間距離、
として容易に求まる。
In FIG. 5, reference numeral 10 indicates a mobile robot, arrows indicate the direction of the robot, 11 indicates a corridor, 12 and 13 indicate obstacles such as walls, and 1 to 8 indicate ultrasonic sensors attached to the robot. Now 1
Letting the measured value of the ultrasonic sensor rli, rl, = rlv, rl, xrl,, rl, zr/,, r
17 amr is the condition in which the side surface of the robot 10 is parallel to the obstacle. Therefore, if the robot is made to move automatically until such conditions are obtained, the distance between obstacles that determine the area division will be rl, +r1. Distance between ten sensors in the width direction, rjl +rj@distance between ten longitudinal sensors,
It can be easily obtained as .

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実tIIIf11を示す構成図、第2
図は本発明の基本のひとつである単位領域の区分法を説
明する図、第3図は本発明のもうひとつの基本となる単
位領域の結合リストの作り方を説明する図、第4図は単
位領域リストと単位領域結分リストを移動ロボットの自
律1IFII却に使う方法の一列をしめす流れ図、第5
図は障害物間距離の計測法を示す図である。 Al 〜A4 IAs s r 11〜r l@ ”−
障害物間距離、1〜8・・・超音波センサ、10・・・
移動ロボット% 11・・・廊下、12.13・・・壁
。 代理人 弁理士  則 近 憲 右 同     竹 花 喜久男 第2図 第  3 図 第  4 図(α) 第  4 図 (b)
FIG. 1 is a configuration diagram showing the actual tIIIf11 of the present invention, and FIG.
The figure is a diagram explaining the division method of unit areas, which is one of the basics of the present invention. Figure 3 is a diagram explaining how to create a combined list of unit areas, which is another basic of the present invention. Figure 4 is a diagram explaining the unit area. Flowchart illustrating a sequence of methods for using region lists and unit region combination lists for autonomous control of mobile robots, Part 5
The figure is a diagram showing a method of measuring distance between obstacles. Al ~A4 IAs s r 11~r l@”-
Distance between obstacles, 1 to 8...Ultrasonic sensor, 10...
Mobile robot% 11...corridor, 12.13...wall. Agent Patent Attorney Ken Nori Chika Kikuo Takehana Figure 2 Figure 3 Figure 4 (α) Figure 4 (b)

Claims (1)

【特許請求の範囲】[Claims] 自律的に制御される移動ロボットにおいて、移動ロボッ
トに搭載したレンジファインダーで計測可能な移動ロボ
ットの前後方向及び左右方向の障害物間距離で特徴づけ
される単位領域に分割し、該単位領域名、該単位領域の
大きさ、該単位領域における該障害物間距離からなる単
位領域リストと該単位領域の結合の方向と結合している
領域の名称からなる領域結合リストを該ロボットの活動
範囲の地図として該移動ロボットの制御用計算機にあら
かじめ入力しておく手段を具備したことを特徴とした移
動ロボット。
An autonomously controlled mobile robot is divided into unit areas characterized by distances between obstacles in the front-rear direction and left-right direction of the mobile robot that can be measured with a range finder mounted on the mobile robot, and the unit area name, A unit area list consisting of the size of the unit area, the distance between the obstacles in the unit area, and an area combination list consisting of the direction of connection of the unit area and the name of the area connected to the map of the robot's activity range. A mobile robot, characterized in that it is equipped with means for inputting information into a control computer of the mobile robot in advance.
JP19759385A 1985-09-09 1985-09-09 Autonomous mobile Expired - Lifetime JP2543848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19759385A JP2543848B2 (en) 1985-09-09 1985-09-09 Autonomous mobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19759385A JP2543848B2 (en) 1985-09-09 1985-09-09 Autonomous mobile

Publications (2)

Publication Number Publication Date
JPS6258311A true JPS6258311A (en) 1987-03-14
JP2543848B2 JP2543848B2 (en) 1996-10-16

Family

ID=16377064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19759385A Expired - Lifetime JP2543848B2 (en) 1985-09-09 1985-09-09 Autonomous mobile

Country Status (1)

Country Link
JP (1) JP2543848B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03500098A (en) * 1987-03-24 1991-01-10 フラウンホッファー ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ. Method for controlling a self-propelled vehicle, as well as a self-propelled vehicle
JPH06126925A (en) * 1992-10-21 1994-05-10 Shinko Seisakusho Co Ltd Offset printing press
JPH0954617A (en) * 1995-08-08 1997-02-25 Samsung Electron Co Ltd Device and method for recognizing position of robot
JP2008052669A (en) * 2006-08-28 2008-03-06 Matsushita Electric Works Ltd Autonomous moving unit
KR100822738B1 (en) * 2006-12-06 2008-04-17 고려대학교 산학협력단 Path planning method of moblie robots
WO2009107430A1 (en) 2008-02-26 2009-09-03 トヨタ自動車株式会社 Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure
JP2012256344A (en) * 2012-08-06 2012-12-27 Hitachi Industrial Equipment Systems Co Ltd Robot system
WO2016072186A1 (en) * 2014-11-07 2016-05-12 株式会社日立産機システム Location detecting device, control method, and autonomous vehicle

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03500098A (en) * 1987-03-24 1991-01-10 フラウンホッファー ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ. Method for controlling a self-propelled vehicle, as well as a self-propelled vehicle
JPH06126925A (en) * 1992-10-21 1994-05-10 Shinko Seisakusho Co Ltd Offset printing press
JPH0954617A (en) * 1995-08-08 1997-02-25 Samsung Electron Co Ltd Device and method for recognizing position of robot
JP2008052669A (en) * 2006-08-28 2008-03-06 Matsushita Electric Works Ltd Autonomous moving unit
KR100822738B1 (en) * 2006-12-06 2008-04-17 고려대학교 산학협력단 Path planning method of moblie robots
WO2009107430A1 (en) 2008-02-26 2009-09-03 トヨタ自動車株式会社 Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure
JP2009205226A (en) * 2008-02-26 2009-09-10 Toyota Motor Corp Autonomous moving robot, method of estimating self position, method and apparatus for creating environmental map, and data structure of environmental map
EP2256574A1 (en) * 2008-02-26 2010-12-01 Toyota Jidosha Kabushiki Kaisha Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure
EP2256574A4 (en) * 2008-02-26 2011-12-07 Toyota Motor Co Ltd Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure
US9239580B2 (en) 2008-02-26 2016-01-19 Toyota Jidosha Kabushiki Kaisha Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map
JP2012256344A (en) * 2012-08-06 2012-12-27 Hitachi Industrial Equipment Systems Co Ltd Robot system
WO2016072186A1 (en) * 2014-11-07 2016-05-12 株式会社日立産機システム Location detecting device, control method, and autonomous vehicle

Also Published As

Publication number Publication date
JP2543848B2 (en) 1996-10-16

Similar Documents

Publication Publication Date Title
US20190370691A1 (en) Artificial intelligence robot for determining cleaning route using sensor data and method for the same
Cameron et al. Advanced Guided Vehicles: Aspects of the Oxford AGV project
CN108475059A (en) Autonomous vision guided navigation
Löper et al. Automated valet parking as part of an integrated travel assistance
JP7330142B2 (en) Method, Apparatus, Device and Medium for Determining Vehicle U-Turn Path
Figueroa et al. A robust navigation system for autonomous vehicles using ultrasonics
CN107644273A (en) A kind of navigation path planning method and equipment
CN108136867A (en) The vehicle location point retransmission method of automatic driving vehicle
Lambert et al. Safe path planning in an uncertain-configuration space
US11945463B2 (en) Navigation route planning method for autonomous vehicles
EP4180895B1 (en) Autonomous mobile robots for coverage path planning
CN113492841B (en) Parking control method and device and computer readable storage medium
US11970185B2 (en) Data structure for storing information relating to an environment of an autonomous vehicle and methods of use thereof
JP2018124416A (en) Movement assist system, movement assist device, movement assist terminal, movement assist method, map creation system, map creation device, and information acquisition terminal
Beeson et al. Integrating Multiple Representations of Spatial Knowledge for Mapping, Navigation, and Communication.
JPS6258311A (en) Mobile robot
CN113433937A (en) Heuristic exploration-based layered navigation obstacle avoidance system and layered navigation obstacle avoidance method
CN114879660A (en) Robot environment sensing method based on target driving
Ohki et al. Local path planner for mobile robot in dynamic environment based on distance time transform method
Peng et al. Tracking control of human-following robot with sonar sensors
CN112549033A (en) Trajectory control method and device, robot and storage medium
Luo et al. A Max-Min Ant System Approach to Autonomous Navigation
JP2022030664A (en) Information processor, information processing method, program, information processing system, and vehicle control system
JP3009372B2 (en) Driving control method for autonomous vehicles
Mohiuddin et al. An Efficient Lidar Sensing System For Self-Driving Cars