JPH10260724A - Map generating method for passage environment - Google Patents

Map generating method for passage environment

Info

Publication number
JPH10260724A
JPH10260724A JP9085809A JP8580997A JPH10260724A JP H10260724 A JPH10260724 A JP H10260724A JP 9085809 A JP9085809 A JP 9085809A JP 8580997 A JP8580997 A JP 8580997A JP H10260724 A JPH10260724 A JP H10260724A
Authority
JP
Japan
Prior art keywords
mobile robot
line segment
data
grid map
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9085809A
Other languages
Japanese (ja)
Inventor
Hidefumi Hida
秀文 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP9085809A priority Critical patent/JPH10260724A/en
Publication of JPH10260724A publication Critical patent/JPH10260724A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Abstract

PROBLEM TO BE SOLVED: To provide a method with which an error can be cleared when the level of this error is comparatively low and line segment extracting method to the result of shape measurement is facilitated as well even when the errors of estimated values in the position and direction of robot due to a dead reconning method occur. SOLUTION: From the shape measured result 102 of passage environment letting a wall existent in position relation made orthogonal by a scanning type laser sensor loaded on a mobile robot and an estimated value 109 in the position and direction of this mobile robot provided by the dead reconning method, the line segment corresponding to the mutually orthogonal wall almost expressing the shape of this passage environment is extracted so that the map of passage environment required for this mobile robot can be generated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、走査型のレーザセ
ンサを搭載した移動ロボットによる通路環境の地図生成
をする方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for generating a map of a passage environment by a mobile robot equipped with a scanning laser sensor.

【0002】[0002]

【従来の技術】近年、病院等の屋内通路環境にて自律走
行をしながら、各種の運搬作業を行うサービスロボット
が普及しつつある。前記自律走行とは、ガイドテープ等
によって誘導を必要とせずに、移動ロボットが走行する
ことである。しかし、前記サービスロボットが自律走行
を行うためには、予め作業を行う通路環境の地図を作成
し、サービスロボットに教示する必要がある。ここで、
前記地図とは、通路環境内に存在する壁やその他の障害
物を線分にて表現した情報である。そして、従来、この
地図の作成は人がコンピュータ上で起動する描画ツール
(以下、CADと称する)を利用して、建築図面等の情
報に従い行っている。また、この課題を解決しようとす
る手段として、適切なセンサシステムを搭載した移動ロ
ボットをジョイスティイク等により、地図生成の必要な
通路環境を誘導しつつ、前記センサシステムによって通
路環境内の形状を計測し、この計測の結果得られたデー
タとデッドレコニングの技術を利用して、前記サービス
ロボットが必要とする通路環境の地図生成をする方法が
提案されている(特開平7−110709)。
2. Description of the Related Art In recent years, service robots that perform various types of transport work while autonomously traveling in an indoor passage environment such as a hospital have become widespread. The autonomous traveling means that the mobile robot travels without requiring guidance by a guide tape or the like. However, in order for the service robot to perform autonomous traveling, it is necessary to prepare a map of a passage environment in which work is to be performed and to teach the service robot to the service robot. here,
The map is information expressing walls and other obstacles existing in the passage environment by line segments. Conventionally, this map is created using a drawing tool (hereinafter, referred to as CAD) activated by a person on a computer in accordance with information such as architectural drawings. Further, as means for solving this problem, a mobile robot equipped with an appropriate sensor system is guided by a joystick or the like to a passage environment required for map generation, and the shape of the passage environment is formed by the sensor system. There has been proposed a method of generating a map of a passage environment required by the service robot using the data obtained as a result of the measurement and the technique of dead reckoning (Japanese Patent Laid-Open No. 7-110709).

【0003】[0003]

【発明が解決しようとする課題】ところが、特開平7−
110709の方法では、主にデッドレコニング法で得
た移動ロボットの位置と向きの推定値を利用しているた
め、移動ロボットの誘導時に遂次生じる位置と向きの推
定値の誤差が、生成する地図の精度に大きく影響すると
いう問題がある。よって、特開平7−110709の方
法で得られる通路環境の形状計測の結果は、実際の通路
環境の形状とは異なることになる。特に、XYの直交座
標系で表現した2次元の地図上においては直線分になる
はずの真直の壁の形状が、実際の計測結果で曲線とな
り、地図生成のために必要な線分抽出処理が困難とな
る。そこで本発明は、デッドレコニング法によるロボッ
トの位置と向きの推定値の誤差が生じた場合でも、誤差
の程度が比較的小さい場合はこれをクリアすることがで
き、形状計測の結果に対する線分抽出処理も容易となる
方法を提供することを目的とする。
However, Japanese Patent Application Laid-Open No.
In the method of 110709, since the estimated values of the position and orientation of the mobile robot obtained mainly by the dead reckoning method are used, errors in the estimated values of the position and orientation that occur successively when the mobile robot is guided are caused by errors in the generated map. There is a problem that it greatly affects the accuracy of the data. Therefore, the shape measurement result of the passage environment obtained by the method of JP-A-7-110709 is different from the actual shape of the passage environment. In particular, on a two-dimensional map expressed in an XY rectangular coordinate system, the shape of a straight wall, which should be a straight line, becomes a curve in the actual measurement result, and the line segment extraction processing required for map generation is performed. It will be difficult. Therefore, the present invention can clear the error of the estimated value of the position and orientation of the robot by the dead reckoning method if the degree of the error is relatively small, and can extract the line segment from the shape measurement result. An object is to provide a method that facilitates processing.

【0004】[0004]

【課題を解決するための手段】本発明は、操作者が、走
査型のレーザセンサを搭載した移動ロボットをジョイス
ティック等により、地図生成の必要な屋内通路環境を誘
導しつつ、前記レーザセンサによって前記屋内通路環境
の形状計測をし、この計測結果のデータとデッドレコニ
ング法で得た移動ロボットの位置と向きの推定値を利用
して、前記サービスロボットが必要とする屋内通路環境
の地図生成をする。また、本発明においては、屋内通路
環境に存在する壁は一般的に互いに直交した位置関係に
あることを前提とする。よって、通路環境の形状を概略
表現している壁の情報を互いに直交した線分として抽出
し、この抽出線分による2次元の地図の生成を目的とす
る。以下、本発明における地図生成の方法を図1にてス
テップ毎に説明する。
SUMMARY OF THE INVENTION According to the present invention, an operator guides a mobile robot equipped with a scanning type laser sensor to an indoor passage environment required for map generation by using a joystick or the like while using the laser sensor. The shape of the indoor passage environment is measured, and a map of the indoor passage environment required by the service robot is generated using the data of the measurement result and the estimated value of the position and orientation of the mobile robot obtained by the dead reckoning method. . Further, in the present invention, it is assumed that the walls existing in the indoor passage environment generally have a positional relationship orthogonal to each other. Therefore, the object of the present invention is to extract information of a wall that roughly represents the shape of the passage environment as line segments orthogonal to each other, and to generate a two-dimensional map using the extracted line segments. Hereinafter, a method of generating a map according to the present invention will be described step by step with reference to FIG.

【0005】(ステップ101)レーザセンサによる1
回目の形状計測は、移動ロボットの向きが、進行方向と
平行して存在する壁とほぼ等しい状態を行う必要があ
る。よって、地図生成を開始する前にロボットの初期位
置、及び向きの設定を適切に行う。ただし、2回目以降
の形状計測は任意の姿勢を行うことができる。
(Step 101) 1 by laser sensor
In the shape measurement for the first time, it is necessary to perform a state in which the direction of the mobile robot is substantially equal to the wall existing in parallel with the traveling direction. Therefore, the initial position and orientation of the robot are appropriately set before starting the map generation. However, any posture can be taken for the second and subsequent shape measurements.

【0006】(ステップ102)レーザセンサによる1
回目の形状計測は、ステップ101の処理を正しく終え
た後に行う。また、2回目以降の形状計測は、ジョイス
ティック等により移動ロボットを次の形状計測位置に案
内し静止させた後に行う。なお、形状計測の結果得るこ
とのできるデータは、レーザセンサの位置と向きを座標
原点として、通路環境内に存在する壁や障害物の表面上
の複数の点座標であり、適切に設けたバッファ内に格納
する。
(Step 102) 1 by laser sensor
The first shape measurement is performed after the processing in step 101 is correctly completed. The second and subsequent shape measurements are performed after the mobile robot is guided to the next shape measurement position by a joystick or the like and is stopped. The data that can be obtained as a result of the shape measurement are a plurality of point coordinates on the surface of a wall or an obstacle existing in the passage environment, using the position and orientation of the laser sensor as the coordinate origin, and an appropriately provided buffer. Store in.

【0007】(ステップ103)ステップ102の処理
の結果得られたデータは、レーザセンサの位置と向きを
座標原点とした点データの集合であり、いわゆるローカ
ル座標系にで表現されている。よって、以後の処理のた
めに、デッドレコニング法で推定した移動ロボットの前
回の形状計測の状態からの位置と向きの変位を利用し
て、座標変換によりグローバル座標系における形状計測
データ(点データの集合)を求め、結果を適切に設けた
バッファ内に格納する。
(Step 103) The data obtained as a result of the processing in step 102 is a set of point data having the position and orientation of the laser sensor as the coordinate origin, and is expressed in a so-called local coordinate system. Therefore, for the subsequent processing, using the displacement of the position and the direction from the state of the previous shape measurement of the mobile robot estimated by the dead reckoning method, the shape measurement data in the global coordinate system (point data Set) and stores the result in a suitably provided buffer.

【0008】(ステップ104)ステップ103の処理
の結果得られたグローバル座標系における形状計測デー
タに対し、X軸方向とY軸方向で格子状に分割したグリ
ット地図データを作成する。つまり、全ての格納状の領
域に対し、A[j][i](jは1〜n、iは1〜mの
整数)で表現したバッファを確保し、領域A[j]
[i]内には下式の条件を満たす全点データの個数とそ
れぞれの座標値を格納する。 (xmax /m)*(i−1)<x<(xmax /m)*i ∩ (ymax /n)*(j−1)<y<(ymax /n)*j ここで、xmax 、ymax は、それぞれ定義するグリッド
地図データのX軸方向、Y軸方向の最大値である。更
に、格納された全点データの個数が適切に設定した数K
個以上の場合は、各グリット地図データに付属する状態
フラグをオンにし、その他の場合はオフにする。
(Step 104) Grit map data is created by dividing the shape measurement data in the global coordinate system obtained as a result of the processing of step 103 into a grid in the X-axis direction and the Y-axis direction. That is, a buffer represented by A [j] [i] (j is 1 to n and i is an integer of 1 to m) is secured for all the storage areas, and the area A [j]
In [i], the number of all point data satisfying the condition of the following expression and respective coordinate values are stored. ( Xmax / m) * (i-1) <x <( xmax / m) * i ( ymax / n) * (j-1) <y <( ymax / n) * j x max and y max are the maximum values of the defined grid map data in the X-axis direction and the Y-axis direction, respectively. Further, the number of stored all-point data is set to an appropriately set number K.
If the number is greater than or equal to the number, the state flag attached to each grid map data is turned on, and otherwise the state flag is turned off.

【0009】(ステップ105)ステップ104の処理
の結果得られたグリッド地図データA[j][i](j
は1〜n、iは1〜mの整数)の中で、格納された点デ
ータがK個以上あり、対象とするグリッド地図データA
[j][i]周辺のグリッド地図データについて下式の
4条件の内少なくとも1つを満たすものは、対象のグリ
ッド地図データに付属する状態フラグをオフにする。こ
の処理は、グリッド地図データ中でX軸方向とY軸方向
の交差を構成する点をデータを含むグリッド地図のデー
タの除去を目的とする。 A[j+1][i]の点データ数≧K∩A[j][i−
1]点データ数≧K A[j+1][i]の点データ数≧K∩A[j][i+
1]点データ数≧K A[j−1][i]の点データ数≧K∩A[j][i−
1]点データ数≧K A[j−1][i]の点データ数≧K∩A[j][i+
1]点データ数≧K
(Step 105) Grid map data A [j] [i] (j obtained as a result of the processing of step 104
Are 1 to n and i is an integer of 1 to m), and there are K or more stored point data, and the target grid map data A
[J] [i] If the surrounding grid map data satisfies at least one of the following four conditions, the state flag attached to the target grid map data is turned off. The purpose of this processing is to remove data of the grid map that includes points forming the intersection of the X-axis direction and the Y-axis direction in the grid map data. Number of point data of A [j + 1] [i] ≧ K∩A [j] [i−
1] Number of point data ≧ K A [j + 1] [i] Number of point data ≧ K∩A [j] [i +
1] Number of point data ≧ K A [j−1] [i] Number of point data ≧ K∩A [j] [i−
1] Number of point data ≧ K A [j−1] [i] Number of point data ≧ K∩A [j] [i +
1] Number of point data ≧ K

【0010】(ステップ106)ステップ105の処理
の結果を得られた状態フラグがオンのグリッド地図デー
タを対象にしてレベリング処理を行ない、同一の線分の
みを構成する点データを格納しているグリッド地図デー
タの各組み合わせ(以下、これをグリッド地図データ列
と称する)を生成する。
(Step 106) A leveling process is performed on grid map data for which the state flag obtained from the process of step 105 is on, and grid data storing point data constituting only the same line segment is stored. Each combination of map data (hereinafter referred to as a grid map data sequence) is generated.

【0011】(ステップ107)ステップ106の処理
の結果得られたグリッド地図のデータ列の中で、各々を
構成するグリッド数が、適切に設定したしきい値よりも
小さいものは、このグリッド地図データ列を以後の線分
抽出処理の対象から除外する。これによって以後の線分
抽出処理の対象となるグリッド地図データ列は比較的長
い線分(以後、これを主線分と称する)を構成すること
ができるものだけとなる。
(Step 107) Among the data strings of the grid map obtained as a result of the processing in step 106, the data strings whose number of grids constituting each is smaller than a suitably set threshold value are set in this grid map data. The column is excluded from the target of the subsequent line segment extraction processing. As a result, the grid map data sequence to be subjected to the subsequent line segment extraction processing is only the one that can form a relatively long line segment (hereinafter referred to as a main line segment).

【0012】(ステップ108)ステップ107の処理
の結果得られる主線分を構成しうる各グリッド地図デー
タ列中の全点データに対して最小自乗近似法を適用し、
1本の直線で近似する。この際、近似処理を行って得ら
れる近似の悪さの評価値(以後、これを最小自乗誤差と
称する)が、予め適切に設定したしきい値よりも小さく
なった場合は、この結果得られる直線を表すパラメータ
(傾きと接片の座標)をそれぞれ適切に儲けたバッファ
内に格納する。また、各主線分の2端点に対応する座標
値を決定するために、直線近似処理の際に利用した点の
データの内、互いに最も距離の離れた2点を抽出し、そ
れぞれの点が近似された直線上で対応する座標を求め
る。そして、この結果得られた2端点の座標値を、対応
する直線を表すパラメータが格納されたバッファ内の適
切な領域に同じく格納する。
(Step 108) The least squares approximation method is applied to all point data in each grid map data sequence which can form a main line segment obtained as a result of the processing of Step 107,
Approximate by one straight line. At this time, if the evaluation value of the poor approximation obtained by performing the approximation processing (hereinafter, referred to as a least square error) becomes smaller than a threshold value appropriately set in advance, a straight line obtained as a result is obtained. (Coordinates of the inclination and the contact piece) are stored in the appropriately profited buffers. In addition, in order to determine the coordinate values corresponding to the two end points of each main line, two points which are the farthest apart from each other are extracted from the data of the points used in the straight line approximation processing, and each point is approximated. Find the corresponding coordinates on the straight line. Then, the coordinate values of the two end points obtained as a result are stored in an appropriate area in the buffer in which the parameters representing the corresponding straight lines are stored.

【0013】(ステップ109)第N回目の形状計測デ
ータに対するステップ108の処理結果、つまり主線分
を表すパラメータと、第N−1回目の形状計測データに
基ずく主線分の抽出結果を利用して、デッドレコニング
法による移動ロボットの位置と向きの推定値の誤差を求
める。ステップ109の処理過程に関しては、図2のフ
ローチャートのステップ201〜206で詳細に説明す
る。
(Step 109) Using the processing result of step 108 for the N-th shape measurement data, that is, the parameter representing the main line segment and the extraction result of the main line segment based on the (N-1) th shape measurement data And the error of the estimated value of the position and orientation of the mobile robot by the dead reckoning method. The processing of step 109 will be described in detail in steps 201 to 206 of the flowchart of FIG.

【0014】(ステップ110)ステップ109の処理
の結果得られたデッドレコニング法による移動ロボット
の位置と向きの推定値の誤差を利用して、推定値の誤差
分が適切に修正されるようグローバル座標系における第
N回目の形状計測データに対して座標変換処理を行な
い、第N−1回目と第N回目の形状計測データを融合し
て再度線分の抽出処理を行う。また上述と同様の座標変
換処理を抽出できた主線分に対しても行い、この結果得
られた修正後の主線分の情報は、適切に設けたバッファ
内に格納しておき、第N+1回目の主線分の抽出処理の
ため利用する。
(Step 110) Using the error of the estimated value of the position and orientation of the mobile robot by the dead reckoning method obtained as a result of the processing of step 109, the global coordinates are appropriately corrected so that the error of the estimated value is appropriately corrected. The coordinate conversion process is performed on the N-th shape measurement data in the system, and the (N-1) -th and N-th shape measurement data are merged to perform a line segment extraction process again. The same coordinate transformation processing as described above is also performed on the extracted main line segment, and the information on the corrected main line segment obtained as a result is stored in an appropriately provided buffer, and the (N + 1) -th time Used for main line segment extraction processing.

【0015】(ステップ111)形状計測に利用する移
動ロボット上に搭載したマンマシンインタフェース装置
を利用して、必要に応じ操作者が地図生成処理の終了を
移動ロボットに伝達し、この伝達された内容に応じてロ
ボットが地図生成処理の終了か続行を判断する。
(Step 111) Using a man-machine interface device mounted on the mobile robot used for shape measurement, the operator informs the mobile robot of the end of the map generation processing as necessary, and the transmitted contents Determines whether to end or continue the map generation processing in accordance with.

【0016】(ステップ112)第N回目の形状計測デ
ータに対する主線分の抽出処理を終了した後、第N+1
回目の形状計測データを得るために、レーザセンサを搭
載した移動ロボットの通路環境内での位置と向きを更新
する。この更新は、移動ロボットの操作者がジョイステ
ィック等により、適切な場所へ移動ロボットを誘導して
行う。次に、ステップ109の処理過程の詳細を図2の
フローチャート中でステップ201〜206別に説明す
る。
(Step 112) After completing the main line segment extraction processing for the N-th shape measurement data, the (N + 1) -th
In order to obtain the second shape measurement data, the position and orientation of the mobile robot equipped with the laser sensor in the passage environment are updated. This update is performed by an operator of the mobile robot guiding the mobile robot to an appropriate place using a joystick or the like. Next, the details of the processing in step 109 will be described for each of steps 201 to 206 in the flowchart of FIG.

【0017】(ステップ201)第N回目の形状計測デ
ータに対するステップ108の処理の結果得られる各主
線分と、第N−1回目の形状計測データに基ずく主線分
の抽出処理の結果得た主線分間での対応を決定する。対
応を決定する条件は、互いの主線分を表すパラメータで
ある傾きの差と、2端点の中心点のX軸方向、Y軸方
向、何れか一方向の座標値の差が、それぞれ適切に設定
したしきい値よりも小さいこととする。ここで、X軸方
向に延びた主線分間ではY軸方向の距離差を、Y軸方向
に延びた主線分間ではX軸方向の距離差をそれぞれ利用
する。そして、対応決定できた互いの主線分を表すパラ
メータを、適切に設けたバッファ内にそれぞれ格納す
る。
(Step 201) Each main line segment obtained as a result of the processing of step 108 for the N-th shape measurement data, and the main line obtained as a result of the main line segment extraction processing based on the (N-1) th shape measurement data Determine the response in minutes. The condition for determining the correspondence is that the difference between the inclinations, which are the parameters representing the main line segments, and the difference between the coordinate values in the X-axis direction and the Y-axis direction of the center point of the two end points are set appropriately. It is assumed that it is smaller than the threshold value. Here, a distance difference in the Y-axis direction is used for a main line extending in the X-axis direction, and a distance difference in the X-axis direction is used for a main line extending in the Y-axis direction. Then, the parameters representing the main line segments determined to correspond to each other are stored in appropriately provided buffers.

【0018】(ステップ202)ステップ201の処理
の過程で得られる各対応決定できた主線分間での向きの
差を、適切に設けたバッファ内に格納する。
(Step 202) The difference between the directions between the main lines determined in the course of the processing in step 201 is stored in an appropriately provided buffer.

【0019】(ステップ203)ステップ202の処理
の結果得た全ての対応決定できた主線分間での向きの差
の平均値を求め、この値をΔθとして移動ロボットの向
きの推定値の誤差とし、適切に設けたバッファ内に格納
する。
(Step 203) An average value of the difference in direction between the main lines determined as a result of the processing in step 202 is obtained, and this value is defined as Δθ to be an error in the estimated value of the direction of the mobile robot. Store in an appropriately provided buffer.

【0020】(ステップ204)ステップ203の処理
の結果得たΔθを利用して、移動ロボットの向きの推定
値の誤差の影響を除去する。つまり、ローカル座標系の
原点回りに、第N回目の主線分の抽出処理で得た全主線
分に対し−Δθの回転の座標変換を行う。
(Step 204) Using the Δθ obtained as a result of the processing in step 203, the effect of the error in the estimated value of the orientation of the mobile robot is removed. In other words, the rotation transformation of −Δθ is performed on all the main line segments obtained by the N-th main line segment extraction process around the origin of the local coordinate system.

【0021】(ステップ205)ステップ204の処理
の結果得た向きの推定値の誤差を除去した主線分に対
し、対応決定できたX軸方向に延びた主線分間ではY軸
方向の距離を求め、Y軸方向に延びた主線分間ではX軸
方向の距離差を求め、適切に設けたバッファ内にフラグ
等を利用し何れの方向の距離差であるかが分かるように
して格納する。ここで、距離差とは各主線分の2端点の
中心点のX軸方向、或いはY軸方向に座標値間の差のこ
とである。
(Step 205) With respect to the main line segment extending in the X-axis direction that can be determined to correspond to the main line segment from which the error of the estimated value of the direction obtained as a result of the processing in step 204 has been removed, the distance in the Y-axis direction is obtained. A distance difference in the X-axis direction is calculated for the main line extending in the Y-axis direction, and stored in an appropriately provided buffer so as to recognize the distance difference in any direction using a flag or the like. Here, the distance difference is a difference between coordinate values in the X-axis direction or the Y-axis direction of the center point of the two end points of each main line.

【0022】(ステップ206)ステップ205の処理
の結果得られた全てのX軸方向の距離差の平均値と、全
てのY軸方向の距離差の平均値を求め、それぞれの結果
をデッドレコニング法による移動ロボットのX軸方向の
推定値の誤差ΔX、或いはY軸方向の推定値の誤差ΔY
として、適切に設けたバッファ内に格納する。上述の方
法で地図生成を行うことにより、デッドレコニング法に
よる移動ロボットの位置と向きの推定値の誤差は遂次ク
リアでき、真直の壁の形状がXYの直交座標系で表現し
た2次元の地図上においては直線分として容易に抽出で
きる。
(Step 206) The average value of all the distance differences in the X-axis direction and the average value of all the distance differences in the Y-axis direction obtained as a result of the processing of Step 205 are obtained, and the respective results are calculated by the dead reckoning method. Error of the estimated value of the mobile robot in the X-axis direction ΔX or error of the estimated value in the Y-axis direction ΔY
And store it in an appropriately provided buffer. By performing the map generation by the above-described method, the error of the estimated value of the position and the orientation of the mobile robot by the dead reckoning method can be gradually cleared, and the shape of the straight wall is expressed in the XY rectangular coordinate system. In the above, it can be easily extracted as a straight line component.

【0023】[0023]

【発明の実施の形態】以下、本発明の具体的実施例を説
明する。図3は、本発明で利用する回転走査型のレーザ
センサを搭載した移動ロボットの外観の例であり、30
1は回転走査型のレーザセンサ、302は地図生成シス
テムの中央制御部、303は移動ロボットにジョイステ
ィックからの命令信号を伝送するためのケーブル、30
4ジョイスティック、305は移動ロボット、306は
エンコーダ付きの駆動輪、307はキャスタを示してい
る。図4は、本発明で利用する回転走査型のレーザセン
サを搭載した移動ロボットのハードウェアのシステム構
成の例であり、401は前記ジョイスティック304、
402は前記ジョイスティック304からの命令信号を
伝送するためのケーブル303、403は前記中央制御
部302に演算部、404、405は前記演算部403
と前記レーザセンサ301のセンサドライバを接続する
バス、406は前記レーザセンサ301のセンサドライ
バ、407は前記レーザセンサ301のセンサヘッド部
からのセンサ信号を前記センサドライバ406に伝送す
るたののケーブル、408は前記レーザセンサのセンサ
ヘッド部、409、411は前記演算部403と前記中
央制御部302の記憶部410を接続するバス、410
は前記中央制御部302の記憶部、412、413は前
記演算部403と前記駆動輪306のモータドライバを
接続するバス、414は前記駆動輪306のモータドラ
イバ、415、416は前記駆動輪306と前記モータ
ドライバ414の間で信号を伝送するケーブル、417
は前記駆動輪を示している。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, specific embodiments of the present invention will be described. FIG. 3 shows an example of the appearance of a mobile robot equipped with a rotary scanning laser sensor used in the present invention.
Reference numeral 1 denotes a rotary scanning laser sensor; 302, a central control unit of a map generation system; 303, a cable for transmitting a command signal from a joystick to a mobile robot;
Four joysticks, 305 is a mobile robot, 306 is a drive wheel with an encoder, and 307 is a caster. FIG. 4 is an example of a system configuration of hardware of a mobile robot equipped with a rotary scanning type laser sensor used in the present invention. Reference numeral 401 denotes the joystick 304;
402 is a cable 303 for transmitting a command signal from the joystick 304, 403 is an arithmetic unit to the central control unit 302, and 404 and 405 are arithmetic units 403
A bus connecting the sensor driver of the laser sensor 301 to the sensor driver 406; a sensor driver 406 of the laser sensor 301; a cable 407 for transmitting a sensor signal from the sensor head of the laser sensor 301 to the sensor driver 406; 408, a sensor head unit of the laser sensor; 409, 411, a bus connecting the arithmetic unit 403 and the storage unit 410 of the central control unit 302;
Are the storage units of the central control unit 302, 412 and 413 are buses connecting the arithmetic unit 403 and the motor driver of the driving wheel 306, 414 is the motor driver of the driving wheel 306, 415 and 416 are the driving wheel 306. A cable 417 for transmitting signals between the motor drivers 414;
Indicates the driving wheels.

【0024】図5は本発明の地図生成の方法を適用する
屋内通路環境の例であり、501、502、506、5
07はそれぞれ1枚の壁、503、504、505はそ
れぞれ移動ロボットが前記レーザセンサ301を利用し
て形状計測を行う位置を示している。ただし、形状計測
は503、504、505の順番で行うものとする。前
記503の位置で第1回目の形状計測を行い得たデータ
を横軸X、縦軸Yのローカル座標系にて表した結果が図
6であり、図中の601は前記壁502の計測データ、
602は前記壁501の計測データ、604は前記壁5
07の計測データ、603は前記ローカル座標系の原点
を示している。前記504の位置で第2回目の形状計測
を行ない得たデータを横軸X、縦軸Yのローカル座標系
にて表した結果が図7であり、図中の701は前記壁5
02の計測データ、702は前記壁501の計測デー
タ、704は前記壁506の計測データ、705は前記
壁507の計測データ、703は前記ローカル座標系の
原点を示している。前記505の位置で第3回目の形状
計測を行い得たデータを横軸X、縦軸Yのローカル座標
系にて表した結果が図8であり、図中の801は前記壁
501の計測データ、803は前記壁506の計測デー
タ、802は前記ローカル座標系の原点を示している。
以後の説明を一般的に且つ容易にするために、前記第1
回目の形状計測を行い得たデータの主線分の抽出処理は
正しく終了したものと仮定して、下記では前記第2回目
の形状計測を行ない得たデータの主線分の抽出処理を例
として説明する。 前記ステップ103の処理によって
前記第2回目の形状計測を行い得たデータをグローバル
座標系で表現し直し、前記ステップ104の処理で利用
するグリッド地図データX軸方向のグリッド数を12
(m=12)、Y軸方向のグリッド数を12(y=1
2)として生成されたものに投影した結果が図9であ
り、図中の901はA[1][1]で表現されたグリッ
ド、902はA[12][1]で表現されたグリッド、
903はA[1][12]で表現されたグリッド、90
4はA[12][12]で表現されたグリッド、90
5、906、907、908はそれぞれ前記計測データ
701、702、704、705を座標変換した結果の
データを示している。前記ステップ104の処理で、各
グリッドに格納された点データの数が1個以上(K=
1)の場合に各グリッド地図データに付属する状態フラ
グをオンにするとして、図9中で示された形状計測デー
タのグリッド地図データを生成した結果が図10あり、
図中の1001、1002、1003、1004はそれ
ぞれ前記座標変換後の計測データ905、906、90
7、908を処理した結果、状態フラグがオンになった
グリッドを示している。前記ステップ105の処理で、
グリッド地図データ中でX軸方向とY軸方向の交差を構
成する点データを含むものを除去し、更に、前記ステッ
プ106のラベリング処理の各線分のグリッド地図デー
タ列を生成した結果が図11であり、図中の1102、
1104が前記除去の対象となった点データを格納した
グリッド地図データ、1101、1103、1105、
1106はそれぞれ前記壁502、501、506、5
07に対応する点データのみを構成するグリッド地図デ
ータ列を示している。前記ステップ107の処理で、前
記グリッド地図データ列1101、1103、110
5、1106を各々を構成するグリッド数が3個以下で
あるものは、以後の線分抽出処理の対象から除外すると
して得た結果が図12であり、図中の101、1202
はそれぞれ以後の主線分の抽出処理の対象として残った
グリッド地図データ列である。前記ステップ108の処
理で、前記グリッド地図データ例1201、1202内
の全点データに対して最小自乗近似法による直線近似を
行い、その際得られる最小自乗誤差が適切に設定したし
きい値よりも小さくなり、更に2端点の抽出処理を行い
得た主線分が、それぞれ図13中の1301、1304
で示された線分である。また、図13中の1302、1
303、1305は前記第1回目の形状計測データに対
する主線分の抽出処理を行い得た結果であり、それぞれ
前記壁502、501、507に対応する線分である。
前記ステップ201の処理で、前記主線分1301と1
302が対応決定でき、前記主線分1304と1303
が対応決定できたとして、前記ステップ202、20
3、204の処理で、前記主線分1301、1304を
前記第2回目の形状計測位置504のローカル座標系の
原点回りに回転の座標変換を行い、デッドレコニング法
による移動ロボットの向きの推定値の誤差の影響を除去
した結果が図14である。図中の1401、1402は
それぞれ座標変換前の前記主線分1301、1304の
座標変換後の主線分を示している。前記ズテップ20
5、206の処理で、前記主線分1401と1302の
X軸方向の座標値の差からデッドレコニング法による移
動ロボットのX軸方向の推定値の誤差(ΔX)を求め、
前記主線分1402と1303のY軸方向の座標値の差
からデッドレコニング法による移動ロボットのY軸方向
の推定値の誤差(ΔY)を求め、前記ステップ110に
処理で、前記ΔX、ΔYの値を利用した座標変換処理に
より、図6で示した前記第1回目の形状計測データと、
図7で示した前記第2回目の形状計測データを融合して
得たデータの線分抽出処理で、新たな線分の抽出処理を
行った結果が図15中の主線分1501、1502、1
503である。前記ステップ111の処理で、操作者が
前記ジョイステックを用いて地図生成処理の終了を移動
ロボットに伝えた場合は、これを判断して移動ロボット
は地図生成処理を終了し、操作者が移動ロボットに続行
を伝えた場合は、前記ステップ112の処理で移動ロボ
ットを前記第3回目の形状計測位置505に誘導した
後、上述した線分抽出処理を再度行う。
FIG. 5 shows an example of an indoor passage environment to which the map generation method of the present invention is applied.
Reference numeral 07 denotes a single wall, and reference numerals 503, 504, and 505 denote positions where the mobile robot performs shape measurement using the laser sensor 301, respectively. However, shape measurement is performed in the order of 503, 504, and 505. FIG. 6 shows the data obtained by performing the first shape measurement at the position 503 in the local coordinate system of the horizontal axis X and the vertical axis Y, and 601 in the figure indicates measurement data of the wall 502. ,
602 is measurement data of the wall 501, 604 is the wall 5
Measurement data 07 and 603 indicate the origin of the local coordinate system. FIG. 7 shows the data obtained by performing the second shape measurement at the position 504 in the local coordinate system of the horizontal axis X and the vertical axis Y, and 701 in FIG.
02 measurement data, 702 indicates the measurement data of the wall 501, 704 indicates the measurement data of the wall 506, 705 indicates the measurement data of the wall 507, and 703 indicates the origin of the local coordinate system. FIG. 8 shows the data obtained by performing the third shape measurement at the position 505 in the local coordinate system of the horizontal axis X and the vertical axis Y, and 801 in the figure indicates measurement data of the wall 501. , 803 indicate measurement data of the wall 506, and 802 indicates the origin of the local coordinate system.
In order to make the following description general and easy, the first
Assuming that the process of extracting the main line of the data obtained by performing the second shape measurement has been correctly completed, the process of extracting the main line of the data obtained by performing the second shape measurement will be described below as an example. . The data obtained by performing the second shape measurement by the process of step 103 is re-expressed in the global coordinate system, and the number of grids in the X-axis direction used in the process of step 104 is set to 12
(M = 12), the number of grids in the Y-axis direction is 12 (y = 1
FIG. 9 shows the result of projection onto the image generated as 2), in which 901 is a grid represented by A [1] [1], 902 is a grid represented by A [12] [1],
Reference numeral 903 denotes a grid represented by A [1] [12];
4 is a grid represented by A [12] [12], 90
5, 906, 907, and 908 indicate data obtained as a result of coordinate conversion of the measurement data 701, 702, 704, and 705, respectively. In the process of step 104, the number of point data stored in each grid is one or more (K =
FIG. 10 shows the result of generating grid map data of the shape measurement data shown in FIG. 9 by turning on the state flag attached to each grid map data in the case of 1).
1001, 1002, 1003, and 1004 in the figure are measurement data 905, 906, and 90 after the coordinate transformation, respectively.
7 and 908 show grids whose status flags have been turned on. In the processing of step 105,
FIG. 11 shows the result of removing the grid map data including the point data forming the intersection between the X-axis direction and the Y-axis direction and generating a grid map data string for each line of the labeling processing in step 106. Yes, 1102 in the figure,
1104 is grid map data 1101, 1103, 1105, which stores the point data to be removed.
1106 is the wall 502, 501, 506, 5
7 shows a grid map data sequence constituting only the point data corresponding to 07. In the processing of the step 107, the grid map data strings 1101, 1103, 110
5 and 1106 having three or less grids are excluded from the target of the subsequent line segment extraction processing, and the results obtained are shown in FIG.
Are grid map data strings remaining as targets of the subsequent main line extraction processing. In the processing of the step 108, a straight line approximation by the least squares approximation method is performed on all the point data in the grid map data examples 1201 and 1202, and the least square error obtained at that time is smaller than the appropriately set threshold value. The main line segments that have become smaller and have been further subjected to the extraction processing of the two end points are denoted by 1301 and 1304 in FIG.
This is the line segment indicated by. Further, 1302, 1 in FIG.
Reference numerals 303 and 1305 denote results obtained by performing the main line segment extraction processing on the first shape measurement data, and are line segments corresponding to the walls 502, 501, and 507, respectively.
In the processing of step 201, the main line segments 1301 and 1
302 can be determined, and the main line segments 1304 and 1303 can be determined.
Are determined to correspond, the steps 202, 20
In the processes of Steps 3 and 204, the main line segments 1301 and 1304 are subjected to coordinate transformation for rotation about the origin of the local coordinate system of the second shape measurement position 504, and the estimated value of the orientation of the mobile robot by the dead reckoning method is calculated. FIG. 14 shows the result of removing the influence of the error. In the figure, reference numerals 1401 and 1402 denote main line segments 1301 and 1304 after coordinate conversion before the coordinate conversion, respectively. Step 20
In steps 5 and 206, the error (ΔX) of the estimated value of the mobile robot in the X-axis direction by the dead reckoning method is obtained from the difference between the coordinate values of the main line segments 1401 and 1302 in the X-axis direction.
The error (ΔY) of the estimated value of the mobile robot in the Y-axis direction by the dead reckoning method is obtained from the difference between the coordinate values of the main line segments 1402 and 1303 in the Y-axis direction. The first shape measurement data shown in FIG. 6 by the coordinate conversion process using
In the line segment extraction process of the data obtained by fusing the second shape measurement data shown in FIG. 7, the result of performing the new line segment extraction process is shown by the main line segments 1501, 1502, 1 in FIG.
503. In the process of step 111, when the operator notifies the mobile robot of the end of the map generation process using the joystick, the mobile robot ends the map generation process by determining this, and In step 112, the mobile robot is guided to the third shape measurement position 505, and then the above-described line segment extraction processing is performed again.

【0025】[0025]

【発明の効果】以上述べたように、本発明によれば、デ
ッドレコニング法によるロボットの位置と向きの推定値
の誤差が生じた場合でも、誤差の程度が比較的小さい場
合はこれをクリアすることができ、形状計測の結果に対
する線分抽出処理も容易となるという効果を奏する。
As described above, according to the present invention, even if an error occurs in the estimated value of the position and orientation of the robot by the dead reckoning method, the error is cleared if the error is relatively small. This makes it possible to easily perform line segment extraction processing on the result of shape measurement.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のメインフローチャートFIG. 1 is a main flowchart of the present invention.

【図2】本発明のサブフローチャートFIG. 2 is a sub flowchart of the present invention.

【図3】本発明を実施する移動ロボットの外観の例を示
す図
FIG. 3 is a diagram illustrating an example of the appearance of a mobile robot that implements the present invention.

【図4】本発明を実施する移動ロボットのハードウェア
構成の例を示す図
FIG. 4 is a diagram illustrating an example of a hardware configuration of a mobile robot that implements the present invention.

【図5】本発明を適用する屋内通路環境例を示す図FIG. 5 is a diagram showing an example of an indoor passage environment to which the present invention is applied;

【図6】本発明の線分抽出のアルゴリズムを説明する図FIG. 6 is a view for explaining a line segment extraction algorithm according to the present invention;

【図7】本発明の線分抽出のアルゴリズムを説明する図FIG. 7 is a view for explaining a line segment extraction algorithm according to the present invention;

【図8】本発明の線分抽出のアルゴリズムを説明する図FIG. 8 is a view for explaining a line segment extraction algorithm according to the present invention;

【図9】本発明の線分抽出のアルゴリズムを説明する図FIG. 9 is a view for explaining a line segment extraction algorithm according to the present invention;

【図10】本発明の線分抽出のアルゴリズムを説明する
FIG. 10 is a diagram for explaining an algorithm of line segment extraction according to the present invention.

【図11】本発明の線分抽出のアルゴリズムを説明する
FIG. 11 is a diagram for explaining an algorithm of line segment extraction according to the present invention.

【図12】本発明の線分抽出のアルゴリズムを説明する
FIG. 12 is a view for explaining a line segment extraction algorithm according to the present invention;

【図13】本発明の線分抽出のアルゴリズムを説明する
FIG. 13 is a diagram illustrating an algorithm for extracting a line segment according to the present invention.

【図14】本発明の線分抽出のアルゴリズムを説明する
FIG. 14 is a view for explaining a line segment extraction algorithm according to the present invention;

【図15】本発明の線分抽出のアルゴリズムを説明する
FIG. 15 is a view for explaining a line segment extraction algorithm according to the present invention;

【符号の説明】[Explanation of symbols]

301 レーザセンサ 302 中央制御部 304、401 ジョイスティック 305 移動ロボット 306、417 エンコーダ付駆動輪 307 キャスタ 403 演算部 404、405、409、411、412、413 バ
ス 406 レーザセンサドライバ 303、402、407、415、416 ケーブル 408 レーザセンサヘッド部 410 記憶部 414 モータドライバ
301 laser sensor 302 central control unit 304, 401 joystick 305 mobile robot 306, 417 drive wheel with encoder 307 caster 403 arithmetic unit 404, 405, 409, 411, 412, 413 bus 406 laser sensor driver 303, 402, 407, 415, 416 Cable 408 Laser sensor head unit 410 Storage unit 414 Motor driver

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 移動ロボットに搭載した走査型のレーザ
センサによって直交する位置関係にある壁が存在する通
路環境の形状の計測結果と、デッドレコニング法で得た
前記移動ロボットの位置と向きの推定値から、前記通路
環境の形状を概略表現している互いに直交した壁に対応
する線分を抽出することにより前記移動ロボットが必要
とする通路環境の地図を生成することを特徴とする通路
環境の地図生成方法。
1. A measurement result of a shape of a passage environment in which a wall having an orthogonal positional relationship exists by a scanning laser sensor mounted on a mobile robot, and an estimation of a position and an orientation of the mobile robot obtained by a dead reckoning method. Generating a map of the passage environment required by the mobile robot by extracting, from the values, line segments corresponding to mutually orthogonal walls that schematically represent the shape of the passage environment; Map generation method.
【請求項2】 前記走査型のレーザセンサを利用して得
たレーザセンサの位置と向きを座標原点としたローカル
座標系での形状計測データを、デッドレコニング法によ
る移動ロボットの位置と向きの推定値を利用して、座標
変換処理によりグローバル座標系で表現し直してグリッ
ト地図データを生成し、 前記グリット地図データ中でX軸方向とY軸方向の交差
を構成する点データを含むグリッド地図データは除去し
た後、ラベリング処理によって後述のグリット地図デー
タ列を生成し、 各グリット地図データ列中ので構成するグリット数が予
め設定したしきい値よりも小さいものは以後の線分抽出
処理の対象から除外して、比較的長い線分のみを構成可
能なグリット地図データ列を抽出し、 残った各グリット地図データ列に含まれる全点データに
対し、直線による最小自乗誤差近似を行い、評価値であ
る最小自乗誤差が予め設定したしきい値よりも大きい場
合は以後の線分抽出処理の対象から除外して、極力信頼
性の高い直線だけを以後の線分抽出処理で扱い、 直線近似処理の入力として利用した全点データ間での互
いの距離が最も離れた2端点の近似直線上での対応点を
求めて線分の2端点とし、この時得られた線分と前回の
形状計測データを処理して得た線分の位置と向きのマッ
チング処理の結果から、デッドレコニング法による移動
ロボットの位置と向きの推定値の誤差を求め、 座標変換処理によって前記誤差の影響を除去して線分を
抽出する請求項1記載の通路環境の地図生成方法。
2. Estimating the position and orientation of a mobile robot by a dead reckoning method using shape measurement data in a local coordinate system with the position and orientation of the laser sensor obtained using the scanning laser sensor as a coordinate origin. Using the values, the grid map data is re-expressed in a global coordinate system by a coordinate transformation process to generate grid map data, and grid map data including point data forming an intersection in the X-axis direction and the Y-axis direction in the grid map data. After the removal, a grid map data sequence to be described later is generated by a labeling process.If the number of grids in each grid map data sequence is smaller than a preset threshold, the grid map data sequence is excluded from the target of the subsequent line segment extraction process. Exclude the grid map data sequence that can compose only relatively long line segments and extract all points data included in each remaining grid map data sequence. For the data, the least squares error approximation by a straight line is performed, and when the least squares error that is the evaluation value is larger than a preset threshold, it is excluded from the target of the subsequent line segment extraction processing, and the reliability is as high as possible. Only the straight line is treated in the subsequent line segment extraction processing, and the corresponding point on the approximate straight line of the two end points where the mutual distance between all the point data used as the input of the straight line approximation processing is the longest is calculated. From the result of the matching process between the line segment obtained at this time and the position and direction of the line segment obtained by processing the previous shape measurement data, the error of the estimated value of the position and direction of the mobile robot by the dead reckoning method 2. The path environment map generating method according to claim 1, wherein a line segment is extracted by removing the influence of the error by a coordinate transformation process.
JP9085809A 1997-03-19 1997-03-19 Map generating method for passage environment Pending JPH10260724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9085809A JPH10260724A (en) 1997-03-19 1997-03-19 Map generating method for passage environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9085809A JPH10260724A (en) 1997-03-19 1997-03-19 Map generating method for passage environment

Publications (1)

Publication Number Publication Date
JPH10260724A true JPH10260724A (en) 1998-09-29

Family

ID=13869206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9085809A Pending JPH10260724A (en) 1997-03-19 1997-03-19 Map generating method for passage environment

Country Status (1)

Country Link
JP (1) JPH10260724A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056752A3 (en) * 2000-02-02 2002-03-21 Siemens Ag Method for computer assisted processing of a structure comprising a first element and a second element belonging together
JP2007310866A (en) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd Robot using absolute azimuth and map creation method using it
CN100449444C (en) * 2006-09-29 2009-01-07 浙江大学 Method for moving robot simultanously positioning and map structuring at unknown environment
JP2009515226A (en) * 2005-12-09 2009-04-09 韓國電子通信研究院 Method for creating map and moving method of mobile robot using artificial sign and regional coordinate system
JP2009110249A (en) * 2007-10-30 2009-05-21 Ihi Corp Map creation device and method for determining traveling path of autonomous traveling object
US7660665B2 (en) 2004-11-17 2010-02-09 Hitachi, Ltd. Autonomous mobile equipment and position-of-object and own position detecting system
JP2010061484A (en) * 2008-09-05 2010-03-18 Hitachi Industrial Equipment Systems Co Ltd Mobile object and recovery method from position prediction error state of mobile object
JP2010511957A (en) * 2006-12-08 2010-04-15 韓國電子通信研究院 Apparatus and method for creating an environment map for a moving body capable of quickly adapting to surrounding environmental changes and creating an environment map
US7933686B2 (en) 2006-08-18 2011-04-26 Samsung Electronics Co., Ltd. Method of dividing coverage area for robot and device thereof
JP2011129095A (en) * 2009-12-18 2011-06-30 Korea Electronics Telecommun Map creating method using autonomous traveling robot, optimal travel route computing method using the same, and robot control device carrying out the methods
JP2012212412A (en) * 2010-07-21 2012-11-01 Palo Alto Research Center Inc System and method for real-time mapping of indoor environment using mobile robots with limited sensing
JP2012533749A (en) * 2009-07-22 2012-12-27 ファロ テクノロジーズ インコーポレーテッド Equipment for optical scanning and measurement of surroundings
CN105137998A (en) * 2015-10-13 2015-12-09 徐金平 Autonomous navigation method based on laser scanner
JP2016057236A (en) * 2014-09-11 2016-04-21 安川情報システム株式会社 Self position estimation system and method for estimating self position
CN107728615A (en) * 2017-09-26 2018-02-23 上海思岚科技有限公司 A kind of method and system of adaptive region division
JPWO2017056484A1 (en) * 2015-09-28 2018-04-19 京セラ株式会社 Image processing apparatus, stereo camera apparatus, vehicle, and image processing method
JP2020057307A (en) * 2018-10-04 2020-04-09 日本電産株式会社 System and method for processing map data for use in self-position estimation, and moving entity and control system for the same
JP2020119081A (en) * 2019-01-21 2020-08-06 株式会社豊田中央研究所 Autonomous mobile device
CN113573232A (en) * 2021-07-13 2021-10-29 深圳优地科技有限公司 Robot roadway positioning method, device, equipment and storage medium
JPWO2022070302A1 (en) * 2020-09-30 2022-04-07

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056752A3 (en) * 2000-02-02 2002-03-21 Siemens Ag Method for computer assisted processing of a structure comprising a first element and a second element belonging together
US7660665B2 (en) 2004-11-17 2010-02-09 Hitachi, Ltd. Autonomous mobile equipment and position-of-object and own position detecting system
JP2009515226A (en) * 2005-12-09 2009-04-09 韓國電子通信研究院 Method for creating map and moving method of mobile robot using artificial sign and regional coordinate system
JP2007310866A (en) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd Robot using absolute azimuth and map creation method using it
US7933686B2 (en) 2006-08-18 2011-04-26 Samsung Electronics Co., Ltd. Method of dividing coverage area for robot and device thereof
CN100449444C (en) * 2006-09-29 2009-01-07 浙江大学 Method for moving robot simultanously positioning and map structuring at unknown environment
JP2010511957A (en) * 2006-12-08 2010-04-15 韓國電子通信研究院 Apparatus and method for creating an environment map for a moving body capable of quickly adapting to surrounding environmental changes and creating an environment map
JP2009110249A (en) * 2007-10-30 2009-05-21 Ihi Corp Map creation device and method for determining traveling path of autonomous traveling object
JP2010061484A (en) * 2008-09-05 2010-03-18 Hitachi Industrial Equipment Systems Co Ltd Mobile object and recovery method from position prediction error state of mobile object
JP2012533749A (en) * 2009-07-22 2012-12-27 ファロ テクノロジーズ インコーポレーテッド Equipment for optical scanning and measurement of surroundings
JP2011129095A (en) * 2009-12-18 2011-06-30 Korea Electronics Telecommun Map creating method using autonomous traveling robot, optimal travel route computing method using the same, and robot control device carrying out the methods
JP2012212412A (en) * 2010-07-21 2012-11-01 Palo Alto Research Center Inc System and method for real-time mapping of indoor environment using mobile robots with limited sensing
JP2016057236A (en) * 2014-09-11 2016-04-21 安川情報システム株式会社 Self position estimation system and method for estimating self position
JPWO2017056484A1 (en) * 2015-09-28 2018-04-19 京セラ株式会社 Image processing apparatus, stereo camera apparatus, vehicle, and image processing method
CN105137998A (en) * 2015-10-13 2015-12-09 徐金平 Autonomous navigation method based on laser scanner
CN105137998B (en) * 2015-10-13 2017-12-08 徐金平 A kind of autonomous navigation method based on laser scanner
CN107728615A (en) * 2017-09-26 2018-02-23 上海思岚科技有限公司 A kind of method and system of adaptive region division
JP2020057307A (en) * 2018-10-04 2020-04-09 日本電産株式会社 System and method for processing map data for use in self-position estimation, and moving entity and control system for the same
CN111007845A (en) * 2018-10-04 2020-04-14 日本电产株式会社 Map data processing device and method, mobile body, control system and method
JP2020119081A (en) * 2019-01-21 2020-08-06 株式会社豊田中央研究所 Autonomous mobile device
JPWO2022070302A1 (en) * 2020-09-30 2022-04-07
WO2022070302A1 (en) * 2020-09-30 2022-04-07 Dmg森精機株式会社 Self-propelled device
CN113573232A (en) * 2021-07-13 2021-10-29 深圳优地科技有限公司 Robot roadway positioning method, device, equipment and storage medium
CN113573232B (en) * 2021-07-13 2024-04-19 深圳优地科技有限公司 Robot roadway positioning method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JPH10260724A (en) Map generating method for passage environment
CN110260867B (en) Method, equipment and device for determining and correcting neutral position in robot navigation
EP2343615B1 (en) Autonomous movement device
US6694233B1 (en) System for relative vehicle navigation
US20220412770A1 (en) Map construction method for autonomous driving and related apparatus
US8515612B2 (en) Route planning method, route planning device and autonomous mobile device
JP5157803B2 (en) Autonomous mobile device
JP5187758B2 (en) Unmanned mobile system
JP5298741B2 (en) Autonomous mobile device
JP2007310866A (en) Robot using absolute azimuth and map creation method using it
US20220390950A1 (en) Directed exploration for navigation in dynamic environments
JP5187757B2 (en) Unmanned mobile system
JP5947644B2 (en) Unmanned mobile system
JP2007249631A (en) Polygonal line following mobile robot, and control method for polygonal line following mobile robot
WO2020248210A1 (en) Roadmodel manifold for 2d trajectory planner
JP2920352B2 (en) Traveling control method and apparatus for mobile object
JP2020024618A (en) Moving route acquisition method and moving route acquisition apparatus
CN113125795A (en) Obstacle speed detection method, device, equipment and storage medium
Feng et al. Implementation of dynamic obstacle avoidance on the CMU NavLab
Mansor et al. Path planning in unknown environment with obstacles using virtual window
JP5895682B2 (en) Obstacle detection device and moving body equipped with the same
WO2020248209A1 (en) 3d odometry in 6d space with roadmodel 2d manifold
Hatao et al. Real-time navigation for a personal mobility in an environment with pedestrians
Yamada et al. Vision based obstacle avoidance and target tracking for autonomous mobile robots
US20240061436A1 (en) Moving apparatus and moving apparatus control method