JPH07121235A - Position self-recognizing method for moving robot - Google Patents

Position self-recognizing method for moving robot

Info

Publication number
JPH07121235A
JPH07121235A JP5267122A JP26712293A JPH07121235A JP H07121235 A JPH07121235 A JP H07121235A JP 5267122 A JP5267122 A JP 5267122A JP 26712293 A JP26712293 A JP 26712293A JP H07121235 A JPH07121235 A JP H07121235A
Authority
JP
Japan
Prior art keywords
point
robot
angle
projection
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5267122A
Other languages
Japanese (ja)
Inventor
Hisayoshi Sugiyama
久佳 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5267122A priority Critical patent/JPH07121235A/en
Publication of JPH07121235A publication Critical patent/JPH07121235A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To enable the robot to recognize its position correctly at all times even when performing operation accompanied by long-distance movement. CONSTITUTION:The robot moves while recognizing its position, and also predicts an error in position recognition at the same time (step 1). An image of a peripheral body is stored and the recognition position is stored at the same time (steps 2 and 3). When the predicted error reaches a reference error, the position which is closest to a current position among points where the peripheral body is stored before is selected (steps 4 and 5). The image of the peripheral body which is stored at the selected point is moved in the direction wherein the difference from the peripheral state of the current point decreases (step 6). When the selected position is reached, the recognition of the position of the robot is replaced with the position recognition of the selected position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、移動ロボット(以下、
単にロボットと呼ぶ)が、そのロボットが行動する領域
において自己の位置を認識する方法に関する。
The present invention relates to a mobile robot (hereinafter,
Simply referred to as a robot), and a method of recognizing its own position in an area where the robot moves.

【0002】[0002]

【従来の技術】ロボットが環境内を移動して種々の作業
を行なう際、その環境における自己の位置を常に認識し
ている必要がある。この認識を可能にする方法として、
従来、デッド・レコニングがある。デッド・レコニング
とは、ロボットがある基準点を出発して移動する際、例
えば車輪によって移動するならば、その車輪の回転数に
車輪の円周を乗じた値を移動距離とみなして、基準点に
対する自己の位置を認識する方法である。移動の途中で
方向転換があれば、例えば左右の車輪の回転数の差をも
とにして回転角度を知ることができる。ロボットは、方
向転換の度にその回転角度と移動距離を積算してゆくこ
とにより、常に自己の位置を認識することが可能にな
る。
2. Description of the Related Art When a robot moves in an environment and performs various tasks, it is necessary to always recognize its own position in the environment. As a method to enable this recognition,
Conventionally, there is dead reckoning. Dead reckoning means that when the robot starts from a certain reference point and moves, for example, if it moves by wheels, the value obtained by multiplying the rotation speed of the wheel by the circumference of the wheel is regarded as the movement distance, and the reference point This is a method of recognizing one's position with respect to. If the direction is changed during the movement, the rotation angle can be known based on the difference between the rotation speeds of the left and right wheels, for example. The robot can always recognize its own position by accumulating the rotation angle and the moving distance each time the direction is changed.

【0003】[0003]

【発明が解決しようとする課題】しかし、デッド・レコ
ニングに基づく位置認識には、ロボットの移動にともな
って誤差が増大する点に問題がある。すなわち、デッド
・レコニングにおいてはまず車輪の円周値をあらかじめ
測定する必要があるが、その測定値自体が誤差を含むう
えに、ロボットが移動する際に移動面と車輪がスリップ
する場合がある。これらの原因によって生ずる位置認識
の誤差は、移動距離が短ければ微小な値にとどまるが、
移動距離が長くなれば次第に累積されて無視できない誤
差となる。したがって、ロボットが環境内を移動して種
々の作業を行なう際、自己位置をデッド・レコニングに
基づいて認識しようとすれば、長距離の移動をともなう
作業において位置認識が不正確になり、この結果作業の
遂行が困難になるという問題がある。
However, position recognition based on dead reckoning has a problem in that an error increases as the robot moves. That is, in dead reckoning, it is necessary to first measure the circumferential value of the wheel in advance, but the measured value itself may include an error, and the moving surface and the wheel may slip when the robot moves. The error in position recognition caused by these causes is very small if the moving distance is short,
If the moving distance becomes long, the error gradually accumulates and becomes a non-negligible error. Therefore, if the robot tries to recognize its own position based on dead reckoning when moving in the environment and performing various tasks, position recognition becomes inaccurate in tasks involving long-distance movement. There is a problem that it becomes difficult to carry out work.

【0004】本発明の目的は、ロボットの自己位置認識
に関する従来方法に起因する上記の問題点を解決し、ロ
ボットが長距離の移動をともなう作業を行なう場合にお
いても自己の位置を常に正しく認識し、この結果として
作業の遂行を可能とする、移動ロボットの自己位置認識
方法を提供することにある。
An object of the present invention is to solve the above-mentioned problems caused by the conventional method for recognizing the self-position of the robot, and to always correctly recognize the self-position even when the robot performs work involving long-distance movement. The object of the present invention is to provide a method for recognizing the position of a mobile robot, which makes it possible to perform work as a result.

【0005】[0005]

【課題を解決するための手段】本発明の、移動ロボット
の自己位置認識方法は、デッド・レコニングを用いてお
おまかな自己の位置を認識しながら移動し、同時にデッ
ド・レコニングによって生ずる位置認識の誤差を予想す
るステップと、移動の途中、所定の地点に達すると、自
己の周囲に存在する物体の像を、該地点を中心とする仮
想的な円周上に射影し、射影された物体の像を特徴づけ
る情報を記憶し、同時にデッド・レコニングによって認
識した位置を記憶するステップと、位置認識の予想誤差
があらかじめ定められた基準値にまで増大すると、以前
に周囲の物体の像を特徴づける量を記憶した地点のう
ち、現在の地点に最も近い地点を選択するステップと、
前記の選択された地点における前記情報と現在の地点に
おける前記情報の差異が減少する方向にわずかな距離だ
け移動する操作を、前記差異が零になるまで繰返すステ
ップと、前記差異が零になると、その地点の位置を、選
択された地点の、記憶されている位置と認識するステッ
プを含む。
A method of recognizing a self position of a mobile robot according to the present invention moves while recognizing a rough self position by using dead reckoning, and at the same time, an error in position recognition caused by dead reckoning. And when a predetermined point is reached during the movement, the image of the object existing around itself is projected on a virtual circumference centered on the point, and the image of the projected object is projected. The step of storing the information that characterizes, and at the same time, the position recognized by dead reckoning, and when the prediction error of position recognition increases to a predetermined reference value, the amount that characterizes the image of the surrounding object previously. Of the points stored in, selecting the closest point to the current point,
Repeating the operation of moving a small distance in a direction in which the difference between the information at the selected point and the information at the current point decreases until the difference becomes zero, and when the difference becomes zero, Recognizing the location of that point as the stored location of the selected point.

【0006】[0006]

【作用】本発明の特徴は、ロボットが環境内における自
己の位置を認識する方法として、前記のデッド・レコニ
ングに加えて、周囲に存在する物体の自己との相対的位
置関係を用いる点にある。ここに、周囲に存在する物体
のロボットとの相対的位置関係とは、例えばロボットか
ら見た各物体の距離や方向など、各時点におけるロボッ
トを基準とした物体の位置のことを指す。周囲に存在す
る物体のロボットとの相対的位置関係の利用に関して、
本発明には次の2点の特徴がある。
A feature of the present invention is that, as a method for the robot to recognize its own position in the environment, in addition to the dead reckoning described above, the relative positional relationship between the surrounding objects and itself is used. . Here, the relative positional relationship between the objects existing around the robot and the robot refers to the position of the object with respect to the robot at each time point, such as the distance and direction of each object viewed from the robot. Regarding the use of the relative positional relationship between the surrounding objects and the robot,
The present invention has the following two features.

【0007】第1に、この相対的位置関係の利用は、ロ
ボットが環境内の種々の地点において自己を中心とする
仮想的な円周上に射影した周囲の物体の像を記憶し、そ
れらの記憶した像を現在の周囲の状況と比較することに
よって行なうことである。
First, the use of this relative positional relationship stores the images of surrounding objects projected by a robot on a virtual circumference centered on itself at various points in the environment. This is done by comparing the stored image with the current surrounding conditions.

【0008】第2に、既に記憶した周囲の物体の像を現
在の周囲の状況と比較する際には、まず現在の位置に最
も近い地点において記憶した像を選択し、その像と周囲
の状況との差異が減少する方向に移動し、両者が一致し
たならば、像を記憶した地点の位置を現在の位置として
認識することである。
Secondly, when comparing the already stored image of the surrounding object with the current surrounding situation, first, the stored image at the point closest to the current position is selected, and the image and the surrounding situation are selected. If the two are in agreement with each other by moving in a direction in which the difference between and decreases, the position of the point where the image is stored is recognized as the current position.

【0009】周囲に存在する物体の自己との相対的位置
関係の利用に関する上記の2点の特徴のうち、より重要
な点は第2の特徴である。すなわち、ロボットの周囲の
状況が以前に記憶した周囲の物体の像と一致する地点に
移動すれば、デッド・レコニングに起因する位置認識の
誤差を、以前に周囲の物体の像を記憶した地点における
位置認識が含む誤差にまで減少させることができる。し
たがって、この第2の特徴が示す操作を、ロボットが環
境内を移動する過程において適宜行なうことにより、デ
ッド・レコニングによって生ずる位置認識の誤差が累積
することを防ぎ、この結果、ロボットの位置認識が含む
誤差を常に小さい値にとどめることが可能になる。ま
た、上記第1の特徴は、複雑な環境においても周囲の状
況をわずかな記憶量でロボットが記憶することを可能に
する。この結果、本発明を容易に実施できる。
Of the above-mentioned two features concerning the use of the relative positional relationship between the surrounding objects and the self, the more important feature is the second feature. In other words, if the robot's surroundings move to a point that matches the previously stored image of the surrounding object, the position recognition error due to dead reckoning will occur at the point where the image of the surrounding object was previously stored. The error included in the position recognition can be reduced. Therefore, by appropriately performing the operation indicated by the second feature in the process of the robot moving in the environment, it is possible to prevent the position recognition error caused by dead reckoning from accumulating, and as a result, the position recognition of the robot is performed. It is possible to always keep the included error to a small value. The first feature enables the robot to store the surrounding situation with a small amount of memory even in a complicated environment. As a result, the present invention can be easily implemented.

【0010】なお、周囲に存在する物体とロボットの相
対的位置関係を表わす情報として、射影を円の中心から
見た視角と、該視角の2等分線が基準となる方向となす
角度である方向角度を用いることができる。
As information representing the relative positional relationship between the object existing in the surroundings and the robot, it is the angle formed by the viewing angle of the projection viewed from the center of the circle and the reference direction of the bisector of the viewing angle. Directional angles can be used.

【0011】この場合、選択された地点における仮想的
な円周上の各々の射影に対して、現在の地点における仮
想的な円周上の射影のうち方向角度が最も近いものどう
しを対応づける。そして、現在の地点における仮想的な
円周上の各射影について、方向が、当該射影を円の中心
から見た視角の2等分線が示す方向で、向きが、当該射
影の視角度と、前記の選択された地点における仮想的な
円周上の対応する視角度の差が減少する向きであり、大
きさの絶対値が両視角度の差に比例する径ベクトルと、
方向が、当該射影を円の中心から見た視角の2等分線に
直交し、向きが、当該射影の方向角度と、前記の選択さ
れた地点における仮想的な円周上の対応する方向角度の
差が減少する向きであり、大きさの絶対値が両方向角度
の差に比例する角ベクトルを求める。このようにして、
現在の地点における仮想的な円周上の全ての射影につい
て求められた径ベクトルと角ベクトルを合成し、合成さ
れたベクトルが示す方向に向かって、該合成されたベク
トルの大きさに比例した距離だけ移動する。
In this case, the projections on the virtual circumference at the selected point are associated with the projections on the virtual circumference at the current point that have the closest directional angles. Then, for each projection on the virtual circumference at the current point, the direction is the direction indicated by the bisector of the viewing angle when the projection is viewed from the center of the circle, and the direction is the viewing angle of the projection, A diameter vector in which the difference between the corresponding viewing angles on the virtual circumference at the selected point is in a decreasing direction, and the absolute value of the magnitude is proportional to the difference between the two viewing angles,
The direction is orthogonal to the bisector of the viewing angle when the projection is viewed from the center of the circle, and the orientation is the direction angle of the projection and the corresponding direction angle on the virtual circumference at the selected point. The angle vector is such that the difference between the two decreases and the absolute value of the magnitude is proportional to the difference between the two directions. In this way
A distance vector proportional to the size of the combined vector in the direction indicated by the combined vector, by combining the diameter vector and the angle vector obtained for all projections on the virtual circumference at the current point. Just move.

【0012】[0012]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0013】図1は本発明の一実施例の、移動ロボット
の自己位置認識方法を示すフローチャート、図2は図1
中のステップ6の詳細フローチャートである。
FIG. 1 is a flow chart showing a method for recognizing a self position of a mobile robot according to an embodiment of the present invention, and FIG.
It is a detailed flowchart of step 6 in the inside.

【0014】なお、ロボットの構成例については、先に
出願した「移動ロボットの環境学習方法」(特願平4−
66317号)において説明した構成例を基本とする。
この構成例についての記述は省略する。以下の実施例に
おけるロボットは、この基本的な構成例に加えてさらに
ジャイロコンパスを有し、このジャイロコンパスによっ
てつねに一定方向(例えば北)を認識することができる
ものとする。
Regarding the configuration example of the robot, the previously filed “method for learning environment of mobile robot” (Japanese Patent Application No. 4-
No. 66317).
A description of this configuration example is omitted. It is assumed that the robots in the following embodiments further have a gyro compass in addition to this basic configuration example, and can always recognize a certain direction (for example, north) by this gyro compass.

【0015】図3は、ロボットが境界線21によって区
切られた環境内を移動する様子を上方から見た図であ
る。環境内には、物体22〜26が存在する。ロボット
27は、地点Aを出発して環境内を移動する。ロボット
27は、この出発点Aを基準点として環境内の位置認識
を行なう(例えば、ロボット27が自己の位置を2次元
直交座標軸上の座標値として認識し、地点Aを座標軸の
原点とみなす)。ロボット27は、デッド・レコニング
を用いておおまかな自己の位置を認識しながら移動し、
同時にデッド・レコニングによって生ずる位置認識の誤
差を予想する(ステップ1)。この誤差の予想値を、以
下では予想誤差と呼ぶ。予想誤差は、移動距離に比例し
て増大する(比例係数は、あらかじめ移動距離と誤差と
の関係を計測することによって定める)。
FIG. 3 is a view from above showing how the robot moves in the environment bounded by the boundary line 21. Objects 22-26 are present in the environment. The robot 27 departs from the point A and moves in the environment. The robot 27 recognizes the position in the environment using the starting point A as a reference point (for example, the robot 27 recognizes its own position as a coordinate value on a two-dimensional orthogonal coordinate axis, and regards the point A as the origin of the coordinate axis). . The robot 27 moves while recognizing its rough position using dead reckoning,
At the same time, a position recognition error caused by dead reckoning is predicted (step 1). The expected value of this error is hereinafter referred to as the expected error. The prediction error increases in proportion to the moving distance (the proportionality coefficient is determined by measuring the relationship between the moving distance and the error in advance).

【0016】ロボット27は移動の途中、B〜Gの各地
点を通過する度に周囲の物体の像を記憶し、同時に各々
の地点において(デッド・レコニングに基づいて)認識
した位置を記憶する(ステップ2,3)。周囲の物体の
像を記憶する地点の選択方法、および像の記憶方法の具
体例は、後に述べる。ロボット27は、地点Gを通過し
た後に地点Hに達する。ロボット27は、この地点Hに
おける予想誤差が、あらかじめ定めた基準値(基準誤差
と呼ぶ)にまで増大したことを知り、ロボット27は、
以前に周囲の物体の像を記憶した地点のうち現在の地点
に最も近い地点を選択する(ステップ4,5)。この結
果、地点Eが選択される。
The robot 27 stores images of surrounding objects each time it passes through each of the points B to G while moving, and at the same time stores the recognized position (based on dead reckoning) at each point ( Steps 2 and 3). A specific example of a method of selecting a point for storing an image of a surrounding object and a method of storing an image will be described later. The robot 27 reaches the point H after passing the point G. The robot 27 knows that the predicted error at this point H has increased to a predetermined reference value (called a reference error), and the robot 27
Of the points where the images of surrounding objects were previously stored, the point closest to the current point is selected (steps 4 and 5). As a result, the point E is selected.

【0017】ロボット27は、選択した地点Eにおいて
記憶した周囲の物体の像と現在の周囲の状況との差異が
減少する方向に移動し、この差異がゼロとなる地点Eに
到達する(ステップ6)。この操作の具体例は後述す
る。このときロボット27は、自己の位置認識を、先に
地点Eにおいて周囲の物体の像と同時に記憶していた位
置認識に置き換える(ステップ7)。この結果、ロボッ
ト27の予想誤差は、先に地点Eに置いて認識していた
値まで減少する。
The robot 27 moves in a direction in which the difference between the image of the surrounding objects stored at the selected point E and the current surrounding situation decreases, and reaches the point E where this difference becomes zero (step 6). ). A specific example of this operation will be described later. At this time, the robot 27 replaces its own position recognition with the position recognition previously stored at the same time as the image of the surrounding object at the point E (step 7). As a result, the prediction error of the robot 27 is reduced to the value previously recognized at the point E.

【0018】ロボット27は、この操作を繰り返すこと
によって(ステップ8)、長距離の移動をともなう作業
を遂行する場合においても、デッド・レコニングによる
位置認識の予想誤差を基準誤差以下にとどめることがで
きる。
By repeating this operation (step 8), the robot 27 can keep the predicted error of position recognition due to dead reckoning below the reference error even when performing work involving long-distance movement. .

【0019】図4は、ロボット27の移動にともなって
予想誤差が増大する様子を示した図である。横軸がロボ
ット27の移動距離を表わし、縦軸が予想誤差を表わ
す。横軸には、記号A〜Hによって、環境内においてロ
ボット27が通過する各地点A〜Hに対応する移動距離
が示されている。ロボット27の予想誤差は、出発点A
においてはゼロであり、移動距離に比例して増大する。
先に述べたように、地点Hにおいて予想誤差が基準誤差
に達するので、ロボット27は以前に周囲の物体の像を
記憶した地点の中から地点Eを選択してその地点に到達
する。このとき、ロボット27の予想誤差は、先に地点
Eにおいて認識していた値にまで減少する。
FIG. 4 is a diagram showing how the prediction error increases as the robot 27 moves. The horizontal axis represents the movement distance of the robot 27, and the vertical axis represents the prediction error. On the horizontal axis, symbols A to H indicate movement distances corresponding to points A to H in the environment where the robot 27 passes. The prediction error of the robot 27 is the starting point A.
Is zero at and increases in proportion to the distance traveled.
As described above, since the prediction error reaches the reference error at the point H, the robot 27 selects the point E from the points previously storing the images of the surrounding objects and reaches the point. At this time, the prediction error of the robot 27 is reduced to the value previously recognized at the point E.

【0020】次に、ロボット27が周囲の物体の像を記
憶する地点の選択方法、像の記憶方法、および記憶した
像と周囲の状況との差異が減少する方向に移動し、この
差異がゼロになる地点に到達する方法についてのそれぞ
れの例を述べる。
Next, the robot 27 moves in a direction in which the method of selecting a point for storing the image of the surrounding object, the method of storing the image, and the difference between the stored image and the surrounding situation are reduced, and this difference is zero. We will give examples of how to reach each point.

【0021】まず、像の記憶方法について述べる。図5
は、図3における地点Eにおいてロボット27が周囲の
物体の像を記憶する例を示した図である。この地点Eに
おいて、ロボット27は、周囲に存在する物体23,2
4および25の像を、仮想的な円周(以下、仮想円周と
呼ぶ)28の上に射影する(物体の観測には、例えばテ
レビカメラを使用する)。例えば物体23の像は、仮想
円周28上の射影29となる。この射影29は、ロボッ
ト27が有するジャイロスコープが示す一定方向30
(例えば北)を基準とする角度θ1 およびα1 によって
表わされる。ここに、α1 は物体23をロボット27が
見た視角であり、θ1 は視角α1 の2等分線31が方向
30となす角度である(以後は、前者を視角度、後者を
方向角度と呼ぶ)。ロボット27は、地点Eにおいて、
デッド・レコニングによって認識した位置(本実施例に
おいては、xy直交座標系における座標値(x,y)と
する)、周囲に存在する物体の個数n(地点Eにおいて
はn=3)、および上記のθ 1 ,α1 をそれぞれの物体
について求めた値の組を一括して記憶する(以下では、
これらの値をそれぞれ位置情報、個数情報および角度情
報と呼び、総称して地点情報と呼ぶ。特に、記憶装置に
記憶された地点情報のことを記憶地点情報と呼ぶ)。地
点Eにおける地点情報は、{x,y},3,{θ1 ,α
1 },{θ2 ,α2 },{θ3 ,α3 }となる。ただ
し、物体24および25を表わす角度情報をそれぞれ
{θ2 ,α2},{θ3 ,α3 }とした。ロボット27
は、環境内の複数の地点(図3の場合は地点A〜G)に
おいて、それぞれの地点における地点情報を収集し、記
憶地点情報を蓄える。
First, a method of storing an image will be described. Figure 5
Indicates that the robot 27 is in the surrounding area at point E in FIG.
It is the figure which showed the example which memorize | stores the image of an object. At this point E
The robot 27 uses the objects 23, 2 existing in the surroundings.
The images of 4 and 25 are virtual circumferences (hereinafter,
Project on 28 (calling)
Use a Levi camera). For example, the image of the object 23 is a virtual
It becomes a projection 29 on the circumference 28. This projection 29 is a robot
Constant direction 30 indicated by the gyroscope of the toe 27
Angle θ with reference to (for example, north)1 And α1 By
Represented. Where α1 Robot 27
Viewing angle, θ1 Is the viewing angle α1 The bisector 31 of is the direction
It is an angle formed with 30 (hereinafter, the former is the viewing angle, the latter is
Called direction angle). The robot 27
Position recognized by dead reckoning (in this embodiment
And the coordinate values (x, y) in the xy Cartesian coordinate system
, N, the number of objects existing around (at point E
Is n = 3), and the above θ 1 , Α1 Each object
The set of values obtained for is collectively stored (in the following,
These values are used as position information, number information and angle information, respectively.
It is called information and is collectively called point information. Especially for storage devices
The stored spot information is called stored spot information). Ground
The point information at the point E is {x, y}, 3, {θ1 , Α
1 }, {Θ2 , Α2 }, {Θ3 , Α3 } Becomes. However
The angle information representing the objects 24 and 25, respectively.
2 , Α2}, {Θ3 , Α3 } Was set. Robot 27
At multiple points in the environment (points A to G in the case of Fig. 3)
In addition, we collect and record the spot information at each spot.
Store information about storage points.

【0022】図6は、ロボット27が以前に記憶した像
と現在の周囲の状況との差異が減少する方向に移動し、
この差異がゼロになる地点に到達する方法の例を示す図
である。いま、ロボット27は図3における地点Hに位
置しているものとする。先に述べたように、ロボット2
7はこの地点においてデッド・レコニングによって生ず
る予想誤差が基準誤差に達したことを知り、以前に周囲
の物体の像を記憶した地点のうち現在の位置に最も近い
地点を選択する。この選択は、すべての記憶地点情報が
含む位置情報を地点Hにおける位置認識{x’,y’}
と比較することによって行なう。この結果、地点Eが選
択される。
FIG. 6 shows that the robot 27 moves in a direction in which the difference between the previously stored image and the current surrounding situation decreases.
It is a figure which shows the example of the method of reaching the point where this difference becomes zero. Now, it is assumed that the robot 27 is located at the point H in FIG. As mentioned above, the robot 2
7 knows that the prediction error caused by dead reckoning at this point has reached the reference error, and selects the point closest to the current position among the points previously storing the images of the surrounding objects. This selection is performed by recognizing the position information included in all the stored position information at the position H {x ', y'}.
By comparing with. As a result, the point E is selected.

【0023】ロボット27は、地点Eにおける場合と同
様に、地点Hにおける周囲の物体23,24および25
の像を、仮想円周32の上に射影する。この場合、例え
ば物体23の像は、仮想円周32上の射影33となる。
この射影33を、ジャイロスコープが示す一定方向30
を基準とする角度θ'1およびα'1によって表わす。この
結果、地点Hにおける地点情報は、{x’,y’},
3,{θ'1,α'1},{θ'2,α'2},{θ'3,α'3
となる。ただし、地点Hにおける物体24および25の
角度情報をそれぞれ(θ'2 ,α'2 ),(θ'3,α'3
とした。図6には、地点Eにおける仮想円周28および
各物体23,24,25の射影を重ねて示した。
The robot 27 is similar to the case at the point E, and the surrounding objects 23, 24 and 25 at the point H.
The image of is projected onto the virtual circumference 32. In this case, for example, the image of the object 23 becomes a projection 33 on the virtual circumference 32.
This projection 33 is projected in the fixed direction 30 indicated by the gyroscope.
Is represented by angles θ ′ 1 and α ′ 1 . As a result, the point information at the point H is {x ', y'},
3, {θ '1, α ' 1}, {θ '2, α' 2}, {θ '3, α' 3}
Becomes However, the angle information of the objects 24 and 25 at the point H is (θ ′ 2 , α ′ 2 ), (θ ′ 3 , α ′ 3 ), respectively.
And In FIG. 6, the virtual circumference 28 at the point E and the projections of the objects 23, 24, 25 are shown in an overlapping manner.

【0024】次に、ロボット27は、仮想円周28上の
射影と仮想円周32上の射影どうしの対応づけを行なう
(ステップ11)。この操作は、仮想円周28上の各々
の射影に対し、その角度情報のうち方向角度が最も近い
ものを仮想円周32上の射影の中から選択することによ
って行なう。この結果、例えば射影29に対して射影3
3が組み合わされる。ロボット27は、それぞれの射影
どうしの組み合わせに対して、2種類の移動ベクトル
(径ベクトルおよび角ベクトルと呼ぶ)を求める(ステ
ップ12)。ここに、移動ベクトルとは、そのベクトル
が示す方向にロボットが移動すれば、対応づけられたそ
れぞれの射影どうしの角度情報の差異が減少することを
表わすベクトルである。移動ベクトルの大きさは、角度
情報どうしの差異の程度を表わす。
Next, the robot 27 associates the projections on the virtual circumference 28 with the projections on the virtual circumference 32 (step 11). This operation is performed by selecting, for each projection on the virtual circumference 28, the projection having the closest direction angle from the projections on the virtual circumference 32 among the angle information. As a result, for example, the projection 3 with respect to the projection 29
3 are combined. The robot 27 obtains two types of movement vectors (called radius vector and angle vector) for each combination of projections (step 12). Here, the movement vector is a vector indicating that if the robot moves in the direction indicated by the vector, the difference in angle information between the associated projections decreases. The magnitude of the movement vector represents the degree of difference between the pieces of angle information.

【0025】2種類の移動ベクトルのうち径ベクトル
は、角度情報のうち特に視角度の差異が減少する移動方
向を示す。径ベクトルは、ロボット27が物体を見た視
角の2等分線が示す方向を向いたベクトルである。例え
ば、物体23を見た視角の2等分線34が示す方向を向
いたベクトル35が、射影33に対応する径ベクトルで
ある。径ベクトルの大きさは、組み合わされた射影どう
しの視角度の相対関係にもとづいて求める。例えば射影
33の視角度α'1が射影29の視角度α1 より小さけれ
ば、そのことは地点Hにおける物体23との距離が地点
Eにおける距離より大きいことを意味する。したがっ
て、ロボット27は、2等分線34が示す方向と同じ方
向に移動することによって両視角度の差を減少させるこ
とができる。すなわち径ベクトル35は正の大きさを持
つ必要がある。また、その絶対値は、例えば両視角度ど
うしの差α'1−α1 に、ある比例係数を乗じて求める。
Of the two types of movement vectors, the diameter vector indicates the movement direction in which the difference in the viewing angle among the angle information is reduced. The radius vector is a vector oriented in the direction indicated by the bisector of the visual angle at which the robot 27 looks at the object. For example, the vector 35 directed in the direction indicated by the bisector 34 of the viewing angle when the object 23 is viewed is the diameter vector corresponding to the projection 33. The size of the diameter vector is obtained based on the relative relationship of the viewing angles of the combined projections. For example, if the viewing angle α ′ 1 of the projection 33 is smaller than the viewing angle α 1 of the projection 29, this means that the distance to the object 23 at the point H is larger than the distance at the point E. Therefore, the robot 27 can reduce the difference between the viewing angles by moving in the same direction as the direction of the bisector 34. That is, the diameter vector 35 needs to have a positive size. Further, the absolute value is obtained, for example, by multiplying the difference α ′ 1 −α 1 between the two viewing angles by a certain proportional coefficient.

【0026】一方、角ベクトルは、方向角度の差異が減
少する移動方向を示す。角ベクトルは、ロボット27が
物体を見た視角の2等分線に直交し、一定方向30に対
する角度(以下、絶対角度と呼ぶ)が増大する方向を向
いたベクトルである。例えば、物体23を見た視角の2
等分線34に直交するベクトル36が、射影33に対応
する角ベクトルである。角ベクトルの大きさは、組み合
わされた射影どうしの方向角度の相対関係にもとづいて
求める。例えば射影33の方向角度θ'1が射影29の方
向角度θ1 より大きければ、そのことは地点Hにおける
物体23の絶対角度が地点Eにおける値より大きいこと
を意味する。したがって、ロボット27は、2等分線3
4の絶対角度が減少する方向に移動することによって両
方向角度の差を減少させることができる。すなわち角ベ
クトル36は正の大きさを持つ必要がある。また、その
絶対値は、例えば両方向角度どうしの差θ'1−θ1 に、
ある比例係数を乗じて求める。
On the other hand, the angle vector indicates the moving direction in which the difference in the direction angle decreases. The angle vector is a vector that is orthogonal to the bisector of the visual angle at which the robot 27 looks at the object and is oriented in a direction in which the angle (hereinafter, referred to as an absolute angle) with respect to the constant direction 30 increases. For example, if the viewing angle of the object 23 is 2
A vector 36 orthogonal to the bisector 34 is an angle vector corresponding to the projection 33. The size of the angle vector is obtained based on the relative relationship between the direction angles of the combined projections. For example, if the directional angle θ ′ 1 of the projection 33 is larger than the directional angle θ 1 of the projection 29, it means that the absolute angle of the object 23 at the point H is larger than the value at the point E. Therefore, the robot 27 divides the bisector 3
By moving in the direction in which the absolute angle of 4 decreases, it is possible to reduce the difference between the angles in both directions. That is, the angle vector 36 needs to have a positive size. Also, the absolute value is, for example, the difference θ ′ 1 −θ 1 between the two-direction angles,
Multiply by a certain proportional coefficient.

【0027】以上の操作により、仮想円周28上の射影
と仮想円周32上の射影どうしのそれぞれの組み合わせ
に対して径ベクトルと角ベクトルが得られる。ロボット
27は、これらのベクトルをすべて合成したベクトル
(合成移動ベクトルと呼ぶ)を求める(ステップ1
3)。次に、ロボット27は、合成移動ベクトルが示す
方向に向かって、合成移動ベクトルの大きさに比例した
わずかな距離だけ移動する(ステップ15)。このわず
かの移動の後に、ロボット27は再び上記の操作を繰り
返し、新たな合成移動ベクトルを求める(ステップ11
〜13)。もしロボット27がこの一連の移動の後に地
点Eに到達したならば、その地点における仮想円周上の
射影は、仮想円周28上の投影とすべて一致する。した
がって、各射影どうしの組み合わせから求めた径ベクト
ルおよび角ベクトルはすべてゼロになる(ステップ1
4)。ロボット27は、これらのベクトルがすべてゼロ
になったことから、地点Eに到達したことを認識する。
By the above operation, the radius vector and the angle vector are obtained for each combination of the projections on the virtual circumference 28 and the projections on the virtual circumference 32. The robot 27 obtains a vector (referred to as a combined movement vector) obtained by combining all of these vectors (step 1).
3). Next, the robot 27 moves in the direction indicated by the combined movement vector by a slight distance proportional to the magnitude of the combined movement vector (step 15). After this slight movement, the robot 27 repeats the above operation again to obtain a new combined movement vector (step 11).
~ 13). If the robot 27 reaches the point E after this series of movements, the projection on the virtual circumference at that point will all coincide with the projection on the virtual circumference 28. Therefore, the radius vector and angle vector obtained from the combination of the projections are all zero (step 1
4). The robot 27 recognizes that the point E has been reached because all of these vectors have become zero.

【0028】最後に、ロボット27が周囲の物体の像を
記憶する地点の選択方法を、図3に示したロボットの移
動例にもとづいて説明する。ロボット27は最初、地点
Aにおいて周囲の物体の像を記憶し、記憶地点情報とす
る。次に、図3に示した経路にしたがって移動し、その
過程において適宜停止して(例えば、前回停止した地点
からの移動距離がある値を超えた地点で再び停止して)
地点情報を得る。ロボット27は、新たな地点情報を得
る度に、地点Aにおける記憶地点情報と比較する。両者
の差異がある程度を超えたならば(例えば、上記の合成
移動ベクトルを両者の差異にもとづいて求め、その大き
さがある値を超えたならば)、その地点における地点情
報を記憶して記憶地点情報とする。図3は、新たな記憶
地点情報が地点Bにおいて生じたことを示している。次
に、ロボット27は、地点Bにおける記憶地点情報を移
動経路中に得た地点情報と比較しながら移動し、地点C
において新たな記憶地点情報を得る。以下、同様な操作
を繰り返す。
Finally, a method of selecting a point where the robot 27 stores the images of surrounding objects will be described based on the example of movement of the robot shown in FIG. The robot 27 first stores the image of the surrounding object at the point A and uses it as the storage point information. Next, move along the route shown in FIG. 3 and stop appropriately in the process (for example, stop again at a point where the moving distance from the point where the vehicle stopped last time exceeds a certain value).
Get point information. Each time the robot 27 obtains new spot information, it compares it with the stored spot information at the spot A. If the difference between the two exceeds a certain level (for example, if the above composite movement vector is obtained based on the difference between the two and the magnitude exceeds a certain value), the point information at that point is stored and stored. Use as point information. FIG. 3 shows that new storage location information has occurred at location B. Next, the robot 27 moves while comparing the stored spot information at the spot B with the spot information obtained on the moving route, and moves to the spot C.
In, get new memory point information. Hereinafter, the same operation is repeated.

【0029】[0029]

【発明の効果】以上説明したように本発明は、デッド・
レコニングに加えて、周囲に存在する物体のロボットと
の相対的位置関係を用いて自己の位置を認識し、位置認
識の予想誤差が基準値にまで増大すると、相対的位置関
係を記憶しておいた地点のうち現在の地点に最も近い地
点を選択し、両地点における相対的位置関係の誤差が減
少する方向へ移動し、両相対的位置関係が一致した時点
で、その地点の位置を現在の地点の位置と認識すること
により、ロボットの長距離の移動をともなう作業を行な
う場合においても環境内の自己の位置を常に正しく認識
し、この結果として作業の遂行を可能にする効果があ
る。
As described above, according to the present invention, the dead
In addition to reckoning, the robot recognizes its own position using the relative positional relationship between the surrounding objects and the robot, and stores the relative positional relationship when the predicted position recognition error increases to a reference value. Select the closest point to the current point among the existing points, move to the direction in which the error in the relative positional relationship at both points decreases, and when the relative positional relationship matches, change the position of that point to the current point. By recognizing the position of a point, even when performing a work involving a long-distance movement of a robot, it is possible to always correctly recognize its own position in the environment, and as a result, it is possible to perform the work.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の、移動ロボットの自己位置
認識方法を示すフローチャートである。
FIG. 1 is a flowchart showing a method of recognizing a self position of a mobile robot according to an embodiment of the present invention.

【図2】図1中のステップ6の詳細フローチャートであ
る。
FIG. 2 is a detailed flowchart of step 6 in FIG.

【図3】ロボット27が環境内を移動する様子を示した
模式図である。
FIG. 3 is a schematic diagram showing how a robot 27 moves in an environment.

【図4】ロボット27の移動に伴なって予想誤差が増大
する様子を示した模式図である。
FIG. 4 is a schematic diagram showing how the prediction error increases as the robot 27 moves.

【図5】図1における地点Eにおいてロボット27が周
囲の物体の像23,24,25を記憶する例を示した模
式図である。
5 is a schematic diagram showing an example in which the robot 27 stores images 23, 24, 25 of surrounding objects at a point E in FIG. 1. FIG.

【図6】ロボット27が以前に記憶した記憶地点情報と
現在の地点情報との差異が減少する方向に移動し、この
差異がゼロになる地点に到達する方法を示した模式図で
ある。
FIG. 6 is a schematic diagram showing a method in which the robot 27 moves in a direction in which the difference between the previously stored memory location information and the current location information decreases, and reaches a point where the difference becomes zero.

【符号の説明】[Explanation of symbols]

1〜8,11〜15 ステップ 21 環境を区切る境界線 22〜26 物体 27 ロボット 28,32 仮想円周 29,33 射影 30 ジャイロコンパスが示す一定方向 31,34 2等分線 35 径ベクトル 36 角ベクトル A〜H 地点 α1 ,α'1 視角度 θ1 ,θ'1 方向角度1-8, 11-15 Step 21 Boundary line that delimits environment 22-26 Object 27 Robot 28,32 Virtual circumference 29,33 Projection 30 Constant direction indicated by gyro compass 31,34 Bisecting line 35 Diameter vector 36 Angle vector A to H points α 1 , α ′ 1 viewing angle θ 1 , θ ′ 1 direction angle

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 移動ロボットが、その行動する領域にお
いて自己の位置を認識する方法であって、 デッド・レコニングを用いておおまかな自己の位置を認
識しながら移動し、同時にデッド・レコニングによって
生ずる位置認識の誤差を予想するステップと、 移動の途中、所定の地点に達すると、自己の周囲に存在
する物体の像を、該地点を中心とする仮想的な円周上に
射影し、射影された物体の像を特徴づける情報を記憶
し、同時にデッド・レコニングによって認識した位置を
記憶するステップと、 位置認識の予想誤差があらかじめ定められた基準値にま
で増大すると、以前に周囲の物体の像を特徴づける量を
記憶した地点のうち、現在の地点に最も近い地点を選択
するステップと、 前記の選択された地点における前記情報と現在の地点に
おける前記情報の差異が減少する方向にわずかな距離だ
け移動する操作を、前記差異が零になるまで繰返すステ
ップと、 前記差異が零になると、その地点の位置を、選択された
地点の、記憶されている位置と認識するステップを含
む、移動ロボットの自己位置認識方法。
1. A method for a mobile robot to recognize its own position in an area in which the mobile robot moves, and moves while recognizing the rough position of itself using dead reckoning, and at the same time a position caused by dead reckoning. The step of predicting the recognition error, and when reaching a predetermined point during the movement, the image of the object existing around itself is projected on a virtual circle centered on that point and projected. Storing the information that characterizes the image of the object and at the same time storing the position recognized by dead reckoning, and when the prediction error of position recognition increases to a predetermined reference value, the image of the surrounding object is previously stored. Selecting a point closest to the current point among the points storing the amount to be characterized, the information and the current point at the selected point Repeating the operation of moving a slight distance in the direction in which the difference of the information decreases until the difference becomes zero, and when the difference becomes zero, the position of the point is stored in the selected point. A method for recognizing a self-position of a mobile robot, the method including the step of recognizing the position of the mobile robot.
【請求項2】 前記情報は、前記射影を円の中心から見
た視角と、該視角の2等分線が基準となる方向となす角
度である方向角度であり、 前記の選択された地点における仮想的な円周上の各々の
射影に対して、現在の地点における仮想的な円周上の射
影のうち方向角度が最も近いものどうしを対応づけ、 現在の地点における仮想的な円周上の各射影について、
方向が、当該射影を円の中心から見た視角の2等分線が
示す方向で、向きが、当該射影の視角度と、前記の選択
された地点における仮想的な円周上の対応する視角度の
差が減少する向きであり、大きさの絶対値が両視角度の
差に比例する径ベクトルと、方向が、当該射影を円の中
心から見た視角の2等分線に直交し、向きが、当該射影
の方向角度と、前記の選択された地点における仮想的な
円周上の対応する方向角度の差が減少する向きであり、
大きさの絶対値が両方向角度の差に比例する角ベクトル
を求め、 現在の地点における仮想的な円周上の全ての射影につい
て求められた径ベクトルと角ベクトルを合成し、 合成されたベクトルが示す方向に向かって、該合成され
たベクトルの大きさに比例した距離だけ移動する、請求
項1記載の移動ロボットの自己位置認識方法。
2. The information is a direction angle, which is an angle formed by a viewing angle of the projection viewed from the center of a circle and a direction in which a bisector of the viewing angle is a reference, and at the selected point. For each projection on the virtual circumference, the projections on the virtual circumference at the current location that have the closest directional angles are associated, and the projections on the virtual circumference at the current location are associated. For each projection,
The direction is the direction indicated by the bisector of the viewing angle when the projection is viewed from the center of the circle, and the orientation is the viewing angle of the projection and the corresponding viewing on the virtual circumference at the selected point. The direction in which the difference in angle is reduced, the radius vector whose absolute value of the magnitude is proportional to the difference in both viewing angles, and the direction are orthogonal to the bisector of the viewing angle when the projection is viewed from the center of the circle, The orientation is an orientation in which the difference between the direction angle of the projection and the corresponding direction angle on the virtual circumference at the selected point decreases.
The angle vector whose absolute value is proportional to the difference between the angles in both directions is obtained, and the radius vector and angle vector obtained for all projections on the virtual circumference at the current point are combined, and the combined vector is The self-position recognition method for a mobile robot according to claim 1, wherein the mobile robot moves in the direction indicated by a distance proportional to the magnitude of the combined vector.
JP5267122A 1993-10-26 1993-10-26 Position self-recognizing method for moving robot Pending JPH07121235A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5267122A JPH07121235A (en) 1993-10-26 1993-10-26 Position self-recognizing method for moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5267122A JPH07121235A (en) 1993-10-26 1993-10-26 Position self-recognizing method for moving robot

Publications (1)

Publication Number Publication Date
JPH07121235A true JPH07121235A (en) 1995-05-12

Family

ID=17440381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5267122A Pending JPH07121235A (en) 1993-10-26 1993-10-26 Position self-recognizing method for moving robot

Country Status (1)

Country Link
JP (1) JPH07121235A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020010257A (en) * 2000-07-28 2002-02-04 김인광 Apparatus and method for recognizing self-position in robort system
KR100601960B1 (en) * 2004-08-05 2006-07-14 삼성전자주식회사 Simultaneous localization and map building method for robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020010257A (en) * 2000-07-28 2002-02-04 김인광 Apparatus and method for recognizing self-position in robort system
KR100601960B1 (en) * 2004-08-05 2006-07-14 삼성전자주식회사 Simultaneous localization and map building method for robot

Similar Documents

Publication Publication Date Title
US11195300B2 (en) Smoothness constraint for camera pose estimation
JP3843119B2 (en) Moving body motion calculation method and apparatus, and navigation system
CN110057352A (en) A kind of camera attitude angle determines method and device
CN109676604A (en) Robot non-plane motion localization method and its motion locating system
JP7036400B2 (en) Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
CN106814753B (en) Target position correction method, device and system
US11158065B2 (en) Localization of a mobile unit by means of a multi hypothesis kalman filter method
US9122278B2 (en) Vehicle navigation
JP2007042095A (en) Method for detecting relative position of mobile unit by comparing scan of environment, mobile unit, computer program and computer readable data carrier
CN111540011A (en) Hybrid metric-topology camera based positioning
JP6801269B2 (en) Autonomous mobile device
CN113587930B (en) Indoor and outdoor navigation method and device of autonomous mobile robot based on multi-sensor fusion
US20160379365A1 (en) Camera calibration device, camera calibration method, and camera calibration program
CN109141411B (en) Positioning method, positioning device, mobile robot, and storage medium
WO2020248210A1 (en) Roadmodel manifold for 2d trajectory planner
WO2020137110A1 (en) Movement amount estimation device
CN111664857A (en) Self-position estimating device, self-position estimating method and recording medium
CN111045433B (en) Obstacle avoidance method for robot, robot and computer readable storage medium
JPH07121235A (en) Position self-recognizing method for moving robot
Pereira et al. Backward motion for estimation enhancement in sparse visual odometry
US11865724B2 (en) Movement control method, mobile machine and non-transitory computer readable storage medium
CN114740869A (en) Robot obstacle avoidance method and system based on multi-sensor fusion estimation and iterative pre-search
JP2019124573A (en) Vehicle position estimation apparatus, vehicle position estimation method, and vehicle position estimation program
JP7338351B2 (en) TRACK PATH GENERATION DEVICE, METHOD AND PROGRAM
CN114127658B (en) 3D mileage in 6D space using road model 2D manifold