JPH07200777A - Location estimating method in mobile object - Google Patents

Location estimating method in mobile object

Info

Publication number
JPH07200777A
JPH07200777A JP5335665A JP33566593A JPH07200777A JP H07200777 A JPH07200777 A JP H07200777A JP 5335665 A JP5335665 A JP 5335665A JP 33566593 A JP33566593 A JP 33566593A JP H07200777 A JPH07200777 A JP H07200777A
Authority
JP
Japan
Prior art keywords
region
error
configuration
environment
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5335665A
Other languages
Japanese (ja)
Inventor
Haruo Takeda
晴夫 武田
Shinichiro Miyaoka
伸一郎 宮岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5335665A priority Critical patent/JPH07200777A/en
Publication of JPH07200777A publication Critical patent/JPH07200777A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the location estimating method in a mobile object which is capable of obtaining the maximum estimation result of the estimated location of the mobile object with high accuracy based on a preliminarily imparted environmental map and the observed data by an environmental sensor. CONSTITUTION:When data where the distance up to the obstacles which are closest in each of the plural directions within environments is measured by an environmental map and an environmental sensor and area data where the configuration space in a mobile object is divided so that the correspondence relation of light ray and the obstacles may be equal within the same area is imparted, an error minimum configuration within an area where the matching error of measured data and the environmental map is minimized is calculated by each area unit and all the area error minimum configuration corresponding to the smallest value of these plural minimum configuration error values is determined (step 41 to step 60).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は移動体における位置推定
方法に関し、特に、予め与えられた環境マップと、環境
センサによる計測データを基に自らの位置を推定する、
移動体における位置推定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position estimation method for a mobile body, and in particular, estimates its own position based on a given environment map and measurement data obtained by the environment sensor.
The present invention relates to a position estimation method in a mobile body.

【0002】[0002]

【従来の技術】従来、工場や一般オフィス内での自律型
移動ロボット,一般家庭内での自動移動掃除機,屋外の
自動運転自動車など、環境マップを先見知識とする移動
体のナビゲーションを実現するためには、環境センサに
よる観測データと、予め与えられている環境マップとか
ら、移動体の位置推定を如何に正確に行うかが基本的課
題となる。移動体の環境は、一般に可視グラフ、ボロノ
イ図など計算幾何学的手法(例えば、文献:Herbert E
delsbrunner, “Algorithms in CombinatorialGeome
try”Springer-Verlag, 1987 参照)の容易さなどの理
由から、2次元平面の線分の集合で記述されることが多
い。一方、環境センサは、放射方向に複数の光線を持
ち、各光線に沿って最も近い障害物までの距離を計測す
る距離センサの集合で、通常モデル化できる。このと
き、上述の位置推定問題は、観測距離の組と環境マップ
の線分の集合との誤差が小さくなるような、移動体位置
とセンサ方向を求めるパターンマッチング問題に帰着す
る。
2. Description of the Related Art Conventionally, navigation of a mobile body such as an autonomous mobile robot in a factory or a general office, an automatic mobile vacuum cleaner in a general household, an outdoor self-driving car, etc., which has a priori knowledge of an environment map, is realized. In order to do so, the basic problem is how to accurately estimate the position of the moving body from the observation data obtained by the environment sensor and the environment map given in advance. The environment of a mobile body is generally calculated by a geometrical method such as a visible graph or Voronoi diagram (for example, reference: Herbert E.
delsbrunner, “Algorithms in Combinatorial Geome
It is often described as a set of line segments in a two-dimensional plane for reasons such as ease of try "Springer-Verlag, 1987). On the other hand, an environment sensor has a plurality of rays in the radiation direction and each ray Usually, it can be modeled by a set of distance sensors that measure the distance to the nearest obstacle along the line, and the above-mentioned position estimation problem is that the error between the set of observation distances and the set of line segments of the environment map is This results in a pattern matching problem that seeks the position of the moving body and the direction of the sensor so that it becomes smaller.

【0003】このようなマッチングで、従来、代表的な
方法として、例えば、文献:HaruoTakeda and Jean-
Claude Latombe, “Sensory Uncertainty Field f
orMobile Robot Navigation,”IEEE Internati
onal Conference onRobotics and Automation, Nic
e, France, pp.2465-2472, 1992 に記述されている方
法がある。この方法は、まず、観測点の列から直線を構
成すると考えられる点の部分集合を選び、各部分集合に
最小2乗法を用いて直線を当てはめ、更に、各直線が矛
盾なく環境マップに合致する対応を求めることによって
マッチングを実現する方法である。
[0003] With such matching, as a conventional representative method, for example, a reference: Haruo Takeda and Jean-
Claude Latombe, “Sensory Uncertainty Field f
or Mobile Robot Navigation, "IEEE Internati
onal Conference on Robotics and Automation, Nic
e, France, pp.2465-2472, 1992. This method first selects a subset of points that are considered to form a straight line from a sequence of observation points, applies a straight line to each subset using the least squares method, and further, each straight line matches the environment map without contradiction. This is a method for realizing matching by finding correspondence.

【0004】[0004]

【発明が解決しようとする課題】点列に直線を当てはめ
る方法としての、上記従来技術に示した最小2乗法は、
直線の法線方向への観測データの誤差が正規分布に従う
場合に、その観測値の同時確率分布を最大とする最尤推
定直線を与える。但し、上述の2ステップからなる従来
技術では、前段のステップで考慮された推定直線と観測
点列の垂直距離誤差の2乗和を、後段のステップにおい
て直線の組と環境マップの線分の組とのマッチングの誤
差に反映することができなかった。また、観測点の列か
ら1本の直線を構成する点の部分集合を選択する処理
に、マッチングの誤差を反映するのが困難であった。こ
のため、得られる移動体の推定位置は、一般に最尤推定
結果とはならず、移動体の正確なナビゲーションに支障
を生じていた。本発明は上記事情に鑑みてなされたもの
で、その目的とするところは、従来の技術における上述
の如き問題を解消し、移動体の推定位置の最尤推定結果
を得ることを可能とする、移動体における位置推定方法
を提供することにある。
The least squares method shown in the above prior art as a method for fitting a straight line to a point sequence is as follows.
When the error of observed data in the normal direction of a straight line follows a normal distribution, the maximum likelihood estimation line that maximizes the joint probability distribution of the observed values is given. However, in the conventional technique including the above-described two steps, the sum of squares of the vertical distance error between the estimated straight line and the observation point sequence considered in the previous step is used in the subsequent step to set a straight line and a set of environment map line segments. Could not be reflected in the matching error with. Further, it is difficult to reflect the matching error in the process of selecting a subset of points that form one straight line from the sequence of observation points. Therefore, the obtained estimated position of the moving body does not generally give the maximum likelihood estimation result, which hinders accurate navigation of the moving body. The present invention has been made in view of the above circumstances, and an object thereof is to solve the problems as described above in the related art and to obtain the maximum likelihood estimation result of the estimated position of the moving body, It is to provide a position estimation method in a mobile body.

【0005】[0005]

【課題を解決するための手段】本発明の上記目的は、環
境マップと、環境センサにより環境内の複数の方向にそ
れぞれ最も近い障害物までの距離を計測したデータと、
同じ領域内では前記光線と障害物との対応関係が等しく
なるように、前記移動体のコンフィギュレーション空間
を分割した領域データが与えられたとき、各領域単位
に、前記計測データと環境マップとのマッチング誤差が
最小となる領域内誤差最小コンフィギュレーションを計
算し、これら複数の最小コンフィギュレーションの誤差
の値のうち最も小さい値に対応する全域的誤差最小コン
フィギュレーションを求めることを特徴とする移動体に
おける位置推定方法によって達成される。
The above object of the present invention is to provide an environment map and data obtained by measuring distances to obstacles closest to a plurality of directions in the environment by an environment sensor.
When region data obtained by dividing the configuration space of the moving body is given so that the correspondence between the light rays and the obstacle becomes equal in the same region, the measurement data and the environment map are divided in units of each region. In the mobile object, which is characterized by calculating the minimum error configuration within the region where the matching error is the minimum, and obtaining the global minimum error configuration corresponding to the smallest error value of these multiple minimum configurations. It is achieved by the position estimation method.

【0006】[0006]

【作用】本発明に係る移動体における位置推定方法にお
いては、移動体は、環境センサによって環境内の複数の
方向にそれぞれ最も近い障害物までの距離を計測して得
られたデータが与えられると、同じ領域内では光線と障
害物との対応関係が等しくなるように移動体のコンフィ
ギュレーション空間を分割した領域単位に、前記計測デ
ータと仮定した移動体のコンフィギュレーションとか
ら、環境マップとのマッチング誤差を計算して、前記各
領域内で上述のマッチング誤差が最小となる移動体のコ
ンフィギュレーションを探索し、このようにして得られ
た複数の領域内誤差最小値の中で最も小さい値に対応す
るコンフィギュレーションを求める全域的誤差最小コン
フィギュレーションを選択することによって移動体位置
を推定する。
In the position estimating method for a moving body according to the present invention, when the moving body is provided with data obtained by measuring the distances to the obstacles closest to the plurality of directions in the environment by the environment sensor. , Matching with the environment map based on the measured data and the assumed configuration of the moving body in each divided area of the configuration space of the moving body so that the correspondence between the light beam and the obstacle is the same in the same area. The error is calculated, and the configuration of the moving body that minimizes the matching error described above is searched in each of the regions, and it corresponds to the smallest value among the plurality of region minimum error values thus obtained. The position of the moving body is estimated by selecting the minimum global error configuration for which the desired configuration is obtained.

【0007】[0007]

【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。図1は、本発明に係る移動体位置推定環境
の一例を示すものである。図において、1は移動体であ
り、環境のセンサ2を装備している。また、3〜7は環
境内に存在する物体(障害物)、8は目標を示している。
このような環境内で、例えば、移動体1を、物体3〜7
に衝突することなく、また、自らの位置を見失うことな
く目標8まで導く場合などに、与えられたセンサデータ
から、各時点での移動体の位置を正確に推定することが
必須となる。図2は、上述のようなセンサ2を装備した
移動体1の具体的構成例を示すものである。この例で
は、センサ2は、環境内の物体に対して水平平面光線を
放射する光源2aと、このような平面光線が物体上に作
る線Lを観測するためのカメラ2bから成る。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 shows an example of a moving body position estimation environment according to the present invention. In the figure, reference numeral 1 is a moving body, which is equipped with an environment sensor 2. Further, 3 to 7 are objects (obstacles) existing in the environment, and 8 is a target.
In such an environment, for example, the moving body 1 is moved to the objects 3 to 7
It is indispensable to accurately estimate the position of the moving body at each time point from the given sensor data in the case of leading to the target 8 without colliding with the vehicle and without losing sight of its own position. FIG. 2 shows a specific configuration example of the moving body 1 equipped with the sensor 2 as described above. In this example, the sensor 2 comprises a light source 2a which emits a horizontal plane ray to an object in the environment and a camera 2b for observing a line L which such a plane ray makes on the object.

【0008】カメラ2bで撮像される視野Vにおいて、
直線L位置の、視野高さHに対する相対値を観測するこ
とによって、センサ2と物体との絶対距離を計算するこ
とができる。ここで、このような計算を、特定の間隔で
離散化した各方向について行うことによって、放射方向
の距離データの組を得ることができる。なお、環境まで
の距離センサとしては、超音波や赤外線,レーザ光など
による反射波を観測する方法も、実際に多く用いられて
いる。このようなセンサは、通常、移動体の周囲に放射
方向の光軸を向けて配置されるが、その場合には、本発
明に関しては、上述のカメラセンサと全く同じものとし
て、以下、説明を続けることができる。
In the visual field V picked up by the camera 2b,
By observing the relative value of the position of the straight line L with respect to the height H of the visual field, the absolute distance between the sensor 2 and the object can be calculated. Here, by performing such calculation for each direction discretized at a specific interval, a set of distance data in the radial direction can be obtained. As a distance sensor to the environment, a method of observing a reflected wave by ultrasonic waves, infrared rays, laser light, etc. is actually used in many cases. Such a sensor is normally arranged around the moving body with its optical axis in the radiation direction. In that case, the following description will be made on the assumption that the present invention is exactly the same as the camera sensor described above. I can continue.

【0009】図3は、本発明の一実施例に係る移動体位
置推定方法の全体のフローチャートである。本実施例は
大きく2つの処理から成る。すなわち、ステップ10か
ら30は環境のマップが与えられたときに行われる前処
理、ステップ40から60は実際にセンサの計測データ
が与えられたときに行われる位置推定処理である。図3
において、まず、ステップ10で、環境マップが移動体
の情報処理手段に入力される。環境マップは、本実施例
では2次元平面における線分の集合とし、例えば、線分
の始点および終点の2次元座標のリストEj=(Ex1j
Ey1j,Ex2j,Ey2j)、但しj=1,2,・・・・,M
(Mは線分の本数)として表現する。データ入力の手段と
しては、キーボードや通信による直接入力や、データベ
ースなど既に定義されているデータの参照によるもの、
画像認識など他のプログラムからの入力など、様々な形
態が考えられる。ステップ20では離散化した環境の位
置と方向が更新される。
FIG. 3 is an overall flowchart of a moving body position estimating method according to an embodiment of the present invention. This embodiment mainly comprises two processes. That is, steps 10 to 30 are preprocessing performed when the environment map is given, and steps 40 to 60 are position estimation processing performed when the sensor measurement data is actually given. Figure 3
In step 10, first, in step 10, the environment map is input to the information processing means of the mobile body. In this embodiment, the environment map is a set of line segments on a two-dimensional plane. For example, a list of two-dimensional coordinates of the start point and the end point of the line segment E j = (Ex 1j ,
Ey 1j , Ex 2j , Ey 2j ), where j = 1, 2, ..., M
It is expressed as (M is the number of line segments). As a data input method, direct input by keyboard or communication, or reference to already defined data such as database,
Various forms such as input from other programs such as image recognition can be considered. In step 20, the position and direction of the discretized environment are updated.

【0010】第k番目の位置と方向を、以下、コンフィ
ギュレーション Qk=(xk,yk,θk)(但しk=1,2,・・・・,K) と書く。ここで、Kは環境内の離散化コンフィギュレー
ションの個数であり、離散化の解像度が細かいほど大き
くなる。xkとykはそれぞれ環境におけるx,yの絶対
座標、θkは環境に固定された座標軸を基準とする方向
を表わす。本ステップでは、例えば、kを初期値を1と
して1づつインクリメントする。ステップ21では、処
理の対象とする光線を更新選択する。以下の説明中で
は、第i番目の光線のセンサの基準方向に対する相対方
向を、θi(但しi=1,2,・・・・,N)とする。なお、
Nは光線の本数を表わす。ステップ22では、センサの
各光線がどの線分と最初に交わるかを計算する。
The k-th position and direction will be written as configuration Q k = (x k , y k , θ k ) (where k = 1, 2, ..., K). Here, K is the number of discretized configurations in the environment, and the larger the discretization resolution is, the larger it is. x k and y k represent absolute coordinates of x and y in the environment, respectively, and θ k represents a direction with reference to the coordinate axis fixed in the environment. In this step, for example, k is incremented by 1 with an initial value of 1. In step 21, the ray to be processed is updated and selected. In the following description, the relative direction of the i-th light ray with respect to the reference direction of the sensor is θ i (where i = 1, 2, ..., N). In addition,
N represents the number of rays. In step 22, which line segment each ray of the sensor first intersects is calculated.

【0011】なお、この処理は、点(xk,yk)を始点と
し、方向θk+tiに伸びる半直線と交わるすべての線分
について、その交点が最も(xk,yk)に近い線分を選択
することによって実現できる。上述のステップ22をす
べての光線について繰り返し、第kコンフィギュレーシ
ョンにおける光線と線分の対応関係を求め、更に、この
処理をすべてのkについて繰り返すことによって、コン
フィギュレーションQkと 光線iに対する可視線分番号
jの関数、すなわち、j=f(k,i)を求めることがで
きる。前処理の最終ステップ30では、このような対応
関係がすべての光線について等しくなるようなコンフィ
ギュレーションを連結し、コンフィギュレーション空
間、すなわち、位置方向の3次元空間を領域分割する。
In this processing, the point (x k , y k ) is the starting point, and for all line segments that intersect the half line extending in the direction θ k + t i , the point of intersection is the most (x k , y k ). This can be achieved by selecting a line segment that is close. The above step 22 is repeated for all rays to find the correspondence between the rays and the line segments in the k-th configuration, and this process is repeated for all k to obtain the visible line segment for the configuration Q k and the ray i. The function of number j, that is, j = f (k, i) can be obtained. In the final step 30 of the preprocessing, the configurations in which such correspondences are the same for all rays are connected, and the configuration space, that is, the three-dimensional space in the position direction is divided into regions.

【0012】後に詳述するように、このとき、各領域上
の任意の2点はQkの近傍を QNk={k’|‖Qk’−Qk‖≦‖(Dx,Dy,Dt)
‖,k’≠k} (但し、Dx,Dy,Dtはそれぞれx,y,θの解像
度、‖‖はベクトルの最大値ノルム(‖(x,y,z)‖
=max(|x|,|y|,|z|)) と定義するとき、このような近傍のみへの移動によって
到達可能なもの) すなわち、各領域が連結であるように分割する。連結領
域ラベリングは画像処理の基本的処理であり、その具体
的アルゴリズムは、例えば、文献:武田晴夫「MR符号
からの画像連結成分ラベリング」電子情報通信学会論文
誌D-II,1993年11月などに記述されている。
[0012] As described in detail later, this time, QN in the vicinity of any two points Q k on each area k = {k '| ‖Q k ' -Q k ‖ ≦ ‖ (Dx, Dy, Dt )
‖, K '≠ k} (where Dx, Dy, and Dt are the resolutions of x, y, and θ, respectively, and ‖‖ is the maximum norm of the vector (‖ (x, y, z) ‖
= Max (| x |, | y |, | z |)), which can be reached by moving only to such a neighborhood) That is, each region is divided so as to be connected. Connected region labeling is a basic process of image processing, and its concrete algorithm is, for example, the document: Haruo Takeda "Image Connected Component Labeling from MR Codes" IEICE Transactions D-II, November 1993. It is described in.

【0013】次に、実際のセンサ計測データが与えられ
たときに、上述の領域分割結果を利用して、移動体位置
を推定する方法について説明する。ステップ40で処理
対象の光線を更新選択し、ステップ41で距離データを
前述の情報処理手段に獲得する。距離データは、第i番
目の光線の方向で最も近い線分までの距離riで表現す
る。この値には 誤差が含まれている。以下、この距離
データの組と上記線分データとのマッチングの処理を、
上で予め求めた領域単位に行う。具体的には、まず、ス
テップ50で領域の更新を行う。これは、例えば、上記
領域ラベリング結果のラベルの順序に、選択する領域の
ラベル番号を順次更新すればよい。
Next, a method of estimating the position of the moving body by using the above-mentioned area division result when the actual sensor measurement data is given will be described. In step 40, the ray to be processed is updated and selected, and in step 41 the distance data is acquired by the information processing means. The distance data is represented by the distance r i to the closest line segment in the direction of the i-th ray. This value includes an error. Hereinafter, the matching process between the distance data set and the line segment data will be described.
It is performed for each area previously obtained in advance. Specifically, first, in step 50, the area is updated. For this, for example, the label numbers of the selected areas may be sequentially updated in the order of the labels of the area labeling result.

【0014】次に、ステップ51では、後に詳述するよ
うに、所定の初期コンフィギュレーションから、所定の
手続きによって位置決めの候補となるコンフィギュレー
ションが順次更新される。ステップ52では、更新され
たコンフィギュレーションにおいて上記ステップ22と
同様にして各光線と可視線分の交点を求め、これとステ
ップ40で獲得した観測データとの誤差を求める。誤差
の定義についても、後に詳述する。このように、ステッ
プ51,52をその領域内で誤差が最小値になるまで繰
り返し、領域内で観測データと環境が最もマッチする位
置を求める。この処理を、ラベルを付された全領域につ
いて行い、ステップ60ですべての領域内最小値のうち
最も小さい値を選択し、これに対応する位置データを全
域的最小値としてこのセンサ位置すなわち移動体の位置
と推定する。以上の40から60のステップは、必要に
応じて何回でも繰り返すことができる。
Next, at step 51, as will be described in detail later, from the predetermined initial configuration, the configurations which are candidates for positioning are sequentially updated by a predetermined procedure. In step 52, the intersection of each ray and the visible line segment is found in the updated configuration in the same manner as in step 22, and the error between this and the observation data acquired in step 40 is found. The definition of the error will be described later in detail. In this way, steps 51 and 52 are repeated until the error becomes the minimum value in the area, and the position where the observation data and the environment best match is obtained in the area. This process is performed for all labeled regions, and in step 60, the smallest value among all the regions is selected, and the position data corresponding to this is selected as the global minimum value for this sensor position or moving object. It is estimated to be the position of. The above 40 to 60 steps can be repeated as many times as necessary.

【0015】以上の処理を、更に、詳しく説明する。図
4に、以下の説明で必要となる記号の定義を示す。図に
おいて、Oは環境マップの原点、(x,y)はセンサ位置
を表わす。また、R1からR4はセンサの光線であり、
(x,y)を中心に反時計回りのインデクス1−4が付さ
れている。光線本数Nは、ここでは4である。まず、最
小インデクスを持つ光線R1の方向を センサの基準方向
θと定める。θは環境に定義された 絶対座標系x,y
に関する絶対方向とする。基準光線R1に対する第i光
線Riの相対方向をtiとする。従って、第i光線の絶対
方向はθ+tiとなる。また、環境に存在する第j線分
は、以下の説明の都合上 特に線分を問題にしない場合
には、以下、直線(ρj,αj)として扱う。ここに、ρj
は 原点Oから第j線分に下した垂線の長さ、αjは そ
の垂線の環境に対する方向を表わす。
The above processing will be described in more detail. FIG. 4 shows the definition of symbols necessary for the following description. In the figure, O represents the origin of the environment map, and (x, y) represents the sensor position. Also, R 1 to R 4 are light rays of the sensor,
Counterclockwise indexes 1-4 centered on (x, y) are attached. The number N of rays is 4 here. First, the direction of the ray R 1 having the minimum index is set as the reference direction θ of the sensor. θ is the absolute coordinate system x, y defined in the environment
Absolute direction. The relative direction of the i-th ray R i with respect to the reference ray R 1 is t i . Therefore, the absolute direction of the i-th ray is θ + t i . In addition, the j-th line segment existing in the environment will be treated as a straight line (ρ j , α j ), unless the line segment is a problem for the convenience of the following description. Where ρ j
Is the length of the vertical line from the origin O to the j-th line segment, and α j is the direction of the vertical line with respect to the environment.

【0016】初等数学で周知のように、線分端点(Ex
1j,Ey1j)と(Ex2j,Ey2j)の間には、 (Ey2j−Ey1j) sinαj+(Ex2j−Ex1j) cosαj
0 および ρj{(Ey2j−Ey1j) cosαj−(Ex2j−Ex1j) sin
αj}=Ex1jEy2j−Ex2jEy1j なる関係が存在する。次に、ステップ30で行われる位
置(x,y)および方向θの3次元空間の分割について
説明する。図5は、分割された3次元空間を、ある平面
θ=c(cは定数)で切断した 切り口を表わす。本例で
は、環境は太線で示されるE1からE5の5本の線分から
構成される。環境センサは破線で示されるR1からR4
での4本の光線から成る。特に 本図は、θ=0すなわ
ちセンサの基準方向である光線R1の方向が、x軸に一
致する空間の断面を示している。
As is well known in elementary mathematics, line segment end points (Ex
1j, Ey 1j) and (Ex 2j, during Ey 2j) is, (Ey 2j -Ey 1j) sinα j + (Ex 2j -Ex 1j) cosα j =
0 and ρ j {(Ey 2j −Ey 1j ) cosα j − (Ex 2j −Ex 1j ) sin
There is a relationship of α j } = Ex 1j Ey 2j −Ex 2j Ey 1j . Next, regarding the division of the three-dimensional space of the position (x, y) and the direction θ performed in step 30,
explain. FIG. 5 shows a cut surface obtained by cutting the divided three-dimensional space at a certain plane θ = c (c is a constant). In this example, the environment is composed of five line segments E 1 to E 5 indicated by thick lines. The environment sensor consists of four rays R 1 to R 4 indicated by dashed lines. In particular, this figure shows a cross section of a space where θ = 0, that is, the direction of the light ray R 1 which is the reference direction of the sensor coincides with the x axis.

【0017】例えば、このような姿勢にあるセンサが、
図の円で示される位置に存在する場合には、光線R4
1からは、それぞれ、線分E3、E3、E5、E2が可視
状態となる。この状態を4次元ベクトル(3,3,5,
2)と書くことにする。状態ベクトルが同一となる領域
で、本空間を分割すると、その領域境界は、図中に細い
実線で示されるものとなる。各領域に付された4次元ベ
クトルは、その領域中における上記姿勢のセンサの光線
と線分との対応を示す。例えば、上部の領域(3,3,
3,2)に上記姿勢のセンサが置かれれば、領域内の位
置に係らず、光線R4からR1からは、それぞれ線分
3,E3,E3,E2が可視状態となる。このような分割
は、各線分の端点から各光線方向を反転した方向に半直
線を開始し、これがいずれかの線分にあたるまで伸ばす
ことによって求めることができる。
For example, a sensor in such a posture is
When it exists at the position indicated by the circle in the figure, the ray R 4 ~
From R 1 , line segments E 3 , E 3 , E 5 , and E 2 become visible, respectively. This state is converted into a four-dimensional vector (3, 3, 5,
I will write 2). When the main space is divided into areas where the state vectors are the same, the area boundaries are shown by thin solid lines in the figure. The four-dimensional vector attached to each area indicates the correspondence between the ray of the sensor having the above-mentioned orientation and the line segment in the area. For example, the upper area (3, 3,
If the sensor with the above attitude is placed in (3, 2), line segments E 3 , E 3 , E 3 , E 2 are visible from the rays R 4 to R 1 regardless of the position in the area. . Such division can be obtained by starting a half line from the end point of each line segment in the direction in which each ray direction is inverted and extending it until it reaches any line segment.

【0018】このような分割は、実際には上述のよう
に、離散化したコンフィギュレーション空間での上記N
次元状態ベクトルの連結領域をラベリングすることによ
って求める。更に、ステップ30では各領域の代表点と
して、同じラベルを持ち、かつ連結した領域の重心を求
める。ここで、x,yについては平均値、θについては
単位方向ベクトルの総和の方向を重心の座標とする。図
6に、このようにして計算した各領域の重心を示す。こ
こに示す例では、四角形環境の中で始終点座標を乱数に
よって発生し、総計10本の線分から成る環境を作成
し、その中で領域分割を行った結果を示す。図中の各短
ベクトルが重心の位置方向を示す。位置または方向の小
さな動きに対して可視線分の組合せが変化する位置では
ベクトルが密、すなわち、領域が細かく分割される。こ
れらのベクトルは、領域内最小値探索においてステップ
51の位置方向の初期値として利用される。
Such division is actually performed by the above N in the discretized configuration space as described above.
It is obtained by labeling the connected region of the dimensional state vector. Further, in step 30, as a representative point of each area, the center of gravity of the connected areas having the same label is obtained. Here, x and y are average values, and θ is the direction of the sum of the unit direction vectors as the coordinates of the center of gravity. FIG. 6 shows the center of gravity of each region calculated in this way. In the example shown here, the start and end point coordinates are generated by random numbers in a quadrangle environment, an environment consisting of a total of 10 line segments is created, and the result of region division in that is shown. Each short vector in the figure indicates the position direction of the center of gravity. The vector is dense, that is, the region is finely divided at the position where the combination of visible line segments changes with respect to a small movement of the position or direction. These vectors are used as initial values in the position direction in step 51 in the area minimum value search.

【0019】次に、ステップ52で行われるマッチング
誤差の計算方法について説明する。コンフィギュレーシ
ョン(x,y,θ)にあるセンサの第i光線が、当該領域
で見る線分の番号をji、センサ誤差がない場合の第i
光線のセンサ計測距離をr0iとすると、 r0i=|{ρjx cosαj−y sinαj}/cos(θ+ti−αj)}| ・・・・(1) となる。これは、一般に2本の直線 x cosα+y sinα=ρ および y−b=(x−a) tanθ の交点が x={ρ−b sinα+a sinα tanθ}/{cosα+sinα tanθ} y={ρ−b sinα−a cosα}tan θ/{cosα+sinα tanθ}+b であるから、点(a,b)と上記交点との距離は |{ρ−a cosα−b sinα}/cos(θ−α)| となることからただちに導くことができる。
Next, the method of calculating the matching error performed in step 52 will be described. The i-th ray of the sensor in the configuration (x, y, θ) is the number of the line segment seen in the area j i , and the i-th ray when there is no sensor error.
When the sensor measurement distance of the light beam is r 0i , r 0i = | {ρ j x cosα j −y sinα j } / cos (θ + t i −α j )} | ... (1) This is because the intersection of two straight lines x cos α + y sin α = ρ and y−b = (x−a) tan θ is x = {ρ−b sin α + a sin α tan θ} / {cos α + sin α tan θ} y = {ρ−b sin α− Since a cos α} tan θ / {cos α + sin α tan θ} + b, the distance between the point (a, b) and the intersection is | {ρ−a cos α−b sin α} / cos (θ−α) | I can lead you immediately.

【0020】ここで、第i光線のセンサ計測距離をri
とするとき、計測距離と上記真の距離の誤差を と定義する。これは計測距離と真の距離の差を真の距離
で正規化したものの2乗和であり、多くのセンサの特性
に合致したものである。上式に(1)を代入することによ
って、 を得る。ステップ50で領域を与えられることによって
iが一意に決まり、環境マップからαjとρjが決定す
る。
Here, the sensor measurement distance of the i-th ray is r i
The error between the measured distance and the true distance It is defined as This is the sum of squares of the difference between the measured distance and the true distance normalized by the true distance, which matches the characteristics of many sensors. By substituting (1) into the above equation, To get Given the region in step 50, j i is uniquely determined, and α j and ρ j are determined from the environment map.

【0021】ステップ51で、位置(x,y)および方向
θが与えられる。従って、ステップ52では、上記pの
値を計算することができる。図7に、誤差の値の分布を
示す。図において、4本の放射線が、真のセンサのコン
フィギュレーションを示す。また、破線はコンフィギュ
レーション空間における領域の境界を示す。濃いグレー
で示される部分が誤差が小さい部分、淡いグレーで示さ
れる部分が誤差が大きい部分を示す。上記pの領域内の
最小値は、ステップ51で位置,方向を、例えば次のよ
うに更新することによって探索する。ステップ50で領
域が与えられると、ステップ30で計算された領域重心
(図6参照)を初期値として、探索を開始する。初期値
(x0,y0,θ0)に対してp(x0,y0,θ0)の値ととも
に、その点での偏微分 k=∂p/∂x| x=x0 および h=∂p/∂y| y=y0 の値を計算する。
In step 51, the position (x, y) and the direction θ are given. Therefore, in step 52, the value of p can be calculated. FIG. 7 shows the distribution of error values. In the figure, four rays represent the true sensor configuration. Also, the broken line indicates the boundary of the region in the configuration space. The portion shown in dark gray shows a small error, and the portion shown in light gray shows a large error. The minimum value in the area of p is searched in step 51 by updating the position and direction, for example, as follows. The area centroid calculated in step 30 given the area in step 50.
(See FIG. 6) is used as an initial value to start the search. initial value
(x 0, y 0, θ 0) with respect to p (x 0, y 0, θ 0) with the value of the partial differential k = ∂p / ∂x at that point | x = x 0 and h = ∂ Calculate the value of p / ∂y | y = y 0 .

【0022】次に、θ=θ0において、2次元ベクトル
(h,k)方向に その領域の境界Qa0および、Qb0を求
める。これは、図8に示すように、その領域において、
各光線が、それぞれの可視線分の端点を通る位置に平行
移動したときの、(x,y)の値(図では線分Ejと光線
Riの組(Ej,Ri)で示される区間で表示)のうち、最
も内側の位置(上記各区間の共通部分でハッチングを施
した区間)を求めることによって得ることができる。こ
こで求めたQaとQbの区間で、(x0,y0)を初期値とす
るベクトル(h,k)方向の1次元の最小値探索を行う。
1次元の関数の最小値探索のアルゴリズムとしては、例
えば、広く知られているBrentの方法(W.Press, B.
Flannery, S.Teukolsky, W.Vetterling,“Numeri
cal Recipes in C” Cambridge University Pres
s, pp.299-302,1988)を利用することができる。
Next, at θ = θ 0 , a two-dimensional vector
The boundaries Q a0 and Q b0 of the region are obtained in the (h, k) direction. This is, as shown in FIG.
The value of (x, y) when each ray is translated to the position passing through the end point of each visible line segment (in the figure, the section indicated by the pair (E j , R i ) of the line segment Ej and the ray Ri) Of the above), the innermost position (section hatched at the common part of each section) can be obtained. A one-dimensional minimum value search in the vector (h, k) direction having (x 0 , y 0 ) as an initial value is performed in the section between Q a and Q b obtained here.
As a minimum value search algorithm for a one-dimensional function, for example, the widely known Brent method (W. Pres, B.
Flannery, S. Teukolsky, W. Vetterling, “Numeri
cal Recipes in C ”Cambridge University Pres
s, pp.299-302, 1988).

【0023】次に、ここで求めた最小点(x1,y1)に対
して、θ方向の最小値探索を行う。まず、点(x1,y1)
において、θ方向の、その領域の境界QcおよびQdを
求める。これは、図9に示すように、その領域において
各光線がそれぞれの可視線分の端点を通る位置に回転移
動したときの θの値(図では線分Ejと光線Riの組
(Ej,Ri)で示される円周上の区間で表示)のうち、も
っとも内側の位置(上記各区間の共通部分でハッチング
を施した区間)を求めることによって 得ることができ
る。ここで求めたQcとQdの区間で、θ1=θ0を初期
値とするθ方向の1次元の最小値探索を行う。本1次元
探索にも、上と同じアルゴリズムを用いることができ
る。
Next, the minimum value (x 1 , y 1 ) obtained here is searched for the minimum value in the θ direction. First, the point (x 1 , y 1 )
In, the boundaries Qc and Qd of the region in the θ direction are obtained. As shown in FIG. 9, this is the value of θ when each light ray is rotationally moved to a position passing through the end point of each visible line segment in the region (in the figure, a combination of the line segment E j and the light ray R i ).
It can be obtained by finding the innermost position (section hatched at the common part of the above sections) among (indicated by the section on the circumference indicated by (E j , R i )). A one-dimensional minimum value search in the θ direction with θ 1 = θ 0 as the initial value is performed in the section between Qc and Qd obtained here. The same algorithm as above can be used for this one-dimensional search.

【0024】以下ステップ51で、(x,y)方向の最小
値探索とθ方向の最小値探索を交互にくり返しながら、
領域内の最小点を求める。ステップ53では、上述の、
引き続く2回の1次元の最小値探索において、いずれの
探索においても初期値から最小値までの移動距離がある
しきい値よりも小さい場合に、最小値に到達したと判定
する。図10に、実際のパターンマッチングの過程の例
を示す。利用した環境は、図6に示すものと全く同じも
のである。(a)は観測距離に誤差が全く含まれない場合
の1例である。 Q0が領域重心(初期値)、Q1が最初の
探索処理結果、QGがマッチング最終結果であり、各1
次元探索結果の(x,y,θ)に観測結果をマッピングし
た4本の光線の状態を、マッチングの途中経過として示
している。
In step 51, the minimum value search in the (x, y) direction and the minimum value search in the θ direction are alternately repeated.
Find the minimum point in the region. In step 53,
In the subsequent two one-dimensional minimum value searches, if the moving distance from the initial value to the minimum value is smaller than a certain threshold value in any search, it is determined that the minimum value has been reached. FIG. 10 shows an example of the actual pattern matching process. The environment used is exactly the same as that shown in FIG. (a) is an example when the observation distance does not include any error. Q 0 is the area centroid (initial value), Q 1 is the first search processing result, and Q G is the matching final result.
The state of four light rays in which the observation result is mapped to (x, y, θ) of the dimension search result is shown as the progress of matching.

【0025】QGの最終結果における各観測点がそれぞ
れの線分に完全に一致していることが示されている。
(b)は誤差をもつ観測データに対するマッチング結果の
1例を示す。誤差をもつデータは、観測距離に 真の長
さの0.1倍の標準偏差をもつ正規乱数を加えることに
よって生成した。本マッチング結果は、上記(2)の基準
を最小にする最適なものと言える。また、(c)は複数の
結果が存在するケースを示しており、2つの最小点に対
して2つの領域で行われた探索結果が異なる点の同じ最
小値に到達することを示している。(d)は4本の光線が
それぞれ異なる4つの線分に対応するケースを示してい
る。
It is shown that each observation point in the final result of QG completely matches with each line segment.
(b) shows an example of a matching result for observation data having an error. Data with error was generated by adding a normal random number with a standard deviation of 0.1 times the true length to the observation distance. This matching result can be said to be the optimal one that minimizes the criterion of (2). Further, (c) shows a case where there are a plurality of results, and shows that the search results performed in the two regions with respect to the two minimum points reach the same minimum value at different points. (d) shows a case where four light rays correspond to four different line segments.

【0026】上記実施例によれば、光線と線分の対応が
同一であるようなコンフィギュレーションのクラス単位
にマッチングの誤差が最小となるような点を求め、これ
を可能性のあるすべての光線と線分の対応について行っ
て、全域的な最小値を求めるので、各光線の計測誤差の
同時確率分布を最小とする移動体位置の最尤推定が可能
となり、精度の高い移動体位置推定が実現できる効果が
ある。なお、上記実施例は本発明の一例を示したもので
あり、本発明はこれに限定されるべきものではないこと
は言うまでもないことである。例えば、上述の実施例で
は、コンフィギュレーション空間の分割データを環境マ
ップから自動的に生成したが、これは、環境マップから
手計算によってキーボードから与えても、以下の位置推
定の処理を全く同様に行うことができる。
According to the above-described embodiment, a point that minimizes the matching error is obtained for each configuration class unit in which the correspondence between the ray and the line segment is the same, and this is calculated for all possible ray rays. Since the minimum value over the entire area is obtained by performing the correspondence between the line segment and the line segment, it is possible to estimate the maximum likelihood of the moving body position that minimizes the joint probability distribution of the measurement error of each ray, and to estimate the moving body position with high accuracy. There is an effect that can be realized. It is needless to say that the above embodiment shows one example of the present invention, and the present invention should not be limited to this. For example, in the above-described embodiment, the divided data of the configuration space is automatically generated from the environment map. However, even if this is given from the keyboard by manual calculation from the environment map, the following position estimation processing is performed in exactly the same manner. It can be carried out.

【0027】また、以上の処理を行う情報処理手段は、
必ずしも移動体上に物理的に装着されている必要はな
く、例えば、無線モデムによって移動体自身とは論理的
に接続された遠隔のコンピュータにあってもよい。更
に、上記実施例においては2次元平面の環境マップと、
3次元の移動体コンフィギュレーションを前提とした
が、これを、3次元空間の環境マップと4次元以上のコ
ンフィギュレーションを前提とする移動体に適用するこ
とも、同様にして可能である。なお、本実施例では、環
境の障害物は線分に限ったが、これを任意の形状の障害
物に拡張することができる。また、以上の実施例では3
次元コンフィギュレーション空間の分割を、離散化して
求めた空間の点のラベルを連結成分ラベリング手法によ
って統合する手続きによって行ったが、これを逆に各線
分の端点から逆光線方向に分割線を発することによっ
て、解析的に求めることもできる。
The information processing means for performing the above processing is
It does not necessarily have to be physically mounted on the mobile unit, and may be a remote computer logically connected to the mobile unit itself by a wireless modem, for example. Further, in the above embodiment, a two-dimensional plane environment map,
Although a three-dimensional moving body configuration is assumed, it is also possible to apply this to a three-dimensional space environment map and a moving body that assumes a four-dimensional configuration or more. In this embodiment, the obstacle in the environment is limited to the line segment, but it can be extended to the obstacle having any shape. In the above embodiment, 3
The dimensional configuration space was divided by the procedure of integrating the labels of the points in the discretized space by the connected component labeling method. Conversely, this is done by issuing a dividing line from the end point of each line segment in the backward ray direction. , Can also be calculated analytically.

【0028】また、連結領域であっても、図11に示す
ように領域内極小点を複数生じる場合が存在するので、
領域形状の判定結果に基づいて領域を細分割し、特殊な
状況を解消することができる。また、分割された領域の
代表点、すなわち、前述のステップ50における初期値
は、必ずしも各領域の重心である必要はなく、領域内の
任意の点に設定しても、同様のマッチング結果を得るこ
とができる。従って、領域の代表点は、光線と線分のす
べての対応関係について、そのような各状態を実現可能
なコンフィギュレーションの探索を行うことによって、
より完全な領域分割を行うことができる。また、本実施
例では、マッチングの誤差を式(1)に従って定義した
が、これを通常の最小2乗法で用いられる誤差、すなわ
ち、線分からデータ点までの垂直距離の2乗和で定義し
ても、以下、全く同様にして、この基準での最適なマッ
チング結果を得ることができる。
Further, even in a connected area, there are cases where a plurality of local minimum points are generated as shown in FIG.
It is possible to subdivide the region based on the determination result of the region shape and solve the special situation. Further, the representative point of the divided area, that is, the initial value in step 50 described above does not necessarily have to be the center of gravity of each area, and the same matching result can be obtained even if it is set to an arbitrary point in the area. be able to. Therefore, the representative point of the region is, by performing a search for a configuration capable of realizing each such state, for all correspondences between rays and line segments,
More complete area division can be performed. Further, in the present embodiment, the matching error is defined according to the equation (1). However, this is defined by the error used in the ordinary least squares method, that is, the sum of squares of the vertical distance from the line segment to the data point. Even in the same manner, the optimum matching result based on this criterion can be obtained.

【0029】また、本実施例では、最小値の探索におい
て、各1次元探索で境界を求めてチェックを行ったが、
探索の終了条件などの設定方法によっては、あらかじめ
境界を求めておくことによって処理を効率化できる場合
もある。更に、本実施例では、ステップ50ではすべて
の領域について探索を行うように領域を更新したが、実
際の移動体のナビゲーションでは過去の位置姿勢の履歴
や、制御コマンド情報を利用して、デッドレコニング手
法や、カルマンフィルタ手法などにより、環境センサ情
報以前に、ある程度の位置方向の情報が得られる場合が
多い。このような場合には、得られた位置方向情報の特
定の周囲のみの領域を探索することによって、計算時間
を大幅に短縮することが可能である。
Further, in the present embodiment, in the search for the minimum value, the boundary is obtained and checked in each one-dimensional search.
Depending on the setting method such as the search termination condition, it may be possible to improve the processing efficiency by obtaining the boundary in advance. Further, in the present embodiment, the regions are updated so as to search for all the regions in step 50. However, in actual navigation of the moving body, dead reckoning is performed by using past position / orientation history and control command information. In many cases, information about the position and direction can be obtained before the environmental sensor information by the method or the Kalman filter method. In such a case, it is possible to significantly reduce the calculation time by searching a region only around the specific position and direction information obtained.

【0030】[0030]

【発明の効果】以上、詳細に説明した如く、本発明によ
れば、移動体の推定位置の最尤推定結果を得ることを可
能とする、移動体における位置推定方法を実現できると
いう顕著な効果を奏するものである。
As described above in detail, according to the present invention, it is possible to realize a position estimation method in a moving body that can obtain the maximum likelihood estimation result of the estimated position of the moving body. Is played.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る移動体位置推定環境の一例を示す
図である。
FIG. 1 is a diagram showing an example of a moving body position estimation environment according to the present invention.

【図2】実施例に係る移動体の具体的構成例を示す図で
ある。
FIG. 2 is a diagram showing a specific configuration example of a moving body according to an embodiment.

【図3】実施例に係る移動体の位置推定方法の全体フロ
ーチャートである。
FIG. 3 is an overall flowchart of a method for estimating a position of a moving body according to an embodiment.

【図4】記号の定義を示す図である。FIG. 4 is a diagram showing definitions of symbols.

【図5】3次元領域分割の1断面を示す図である。FIG. 5 is a diagram showing one cross section of three-dimensional region division.

【図6】領域重心の例を示す図である。FIG. 6 is a diagram showing an example of a region center of gravity.

【図7】誤差関数の空間分布を示す図である。FIG. 7 is a diagram showing a spatial distribution of an error function.

【図8】xy平面における領域境界探索を示す図であ
る。
FIG. 8 is a diagram showing a region boundary search on an xy plane.

【図9】t方向への領域境界探索を示す図である。FIG. 9 is a diagram showing a region boundary search in the t direction.

【図10】パターンマッチング実例を示す図である。FIG. 10 is a diagram showing an example of pattern matching.

【図11】領域内極小点が複数存在する例を示す図であ
る。
FIG. 11 is a diagram showing an example in which a plurality of local minimum points exist.

【符号の説明】[Explanation of symbols]

1 移動体 2 環境のセンサ 3〜7 環境内に存在する物体(障害物) 8 目標 10 環境マップの入力手段 22 光線と線分の対応計算手段 30 3次元コンフィギュレーション空間分割手段 41距離データの獲得手段 52 マッチング誤差の計算手段 60 最小値選択手段 DESCRIPTION OF SYMBOLS 1 Moving object 2 Environmental sensor 3-7 Object (obstacle) existing in the environment 8 Target 10 Environment map input means 22 Ray-line correspondence calculation means 30 Three-dimensional configuration space division means 41 Acquisition of distance data Means 52 Calculating means for matching error 60 Minimum value selecting means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05D 1/02 K J G06T 7/60 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G05D 1/02 KJ G06T 7/60

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 予め与えられた複数の障害物から成る環
境マップと、光線を用いる環境センサによる計測データ
とを基に自らの位置を推定する、移動体における位置推
定方法であって、前記環境マップと、前記環境センサに
より環境内の複数の方向にそれぞれ最も近い障害物まで
の距離を計測したデータと、同じ領域内では前記光線と
障害物との対応関係が等しくなるように、前記移動体の
コンフィギュレーション空間を分割した領域データが与
えられたとき、各領域単位に、前記計測データと環境マ
ップとのマッチング誤差が最小となる領域内誤差最小コ
ンフィギュレーションを計算し、これら複数の最小コン
フィギュレーションの誤差の値のうち最も小さい値に対
応する全域的誤差最小コンフィギュレーションを求める
ことを特徴とする移動体における位置推定方法。
1. A position estimation method in a moving body, which estimates a position of a mobile body based on an environment map made up of a plurality of obstacles given in advance and measurement data obtained by an environment sensor using light rays. The map and the data obtained by measuring the distances to the obstacles closest to each other in a plurality of directions in the environment by the environment sensor, and the moving body so that the correspondence between the light beam and the obstacle is the same in the same region. When the region data obtained by dividing the configuration space of is given, the region error minimum configuration that minimizes the matching error between the measurement data and the environment map is calculated for each region unit, and these multiple minimum configurations are calculated. Of the minimum error value of the global error corresponding to the smallest global error configuration. Position estimation method for moving objects.
【請求項2】 前記環境マップは2次元平面で定義さ
れ、該環境マップにおいて各障害物は前記2次元平面上
の線分で表現されており、また、前記コンフィギュレー
ション空間は前記2次元平面上の位置と方向との3次元
で定義されており、前記領域データは各領域の代表コン
フィギュレーションの集合であり、前記領域内誤差最小
コンフィギュレーションは初期値をその領域の代表コン
フィギュレーションとして、領域境界を超えないようチ
ェックしながらマッチング誤差を減少する方向へのコン
フィギュレーションの更新を繰返すことを特徴とする請
求項1記載の移動体における位置推定方法。
2. The environment map is defined by a two-dimensional plane, each obstacle in the environment map is represented by a line segment on the two-dimensional plane, and the configuration space is on the two-dimensional plane. Is defined in three dimensions of position and direction, the region data is a set of representative configurations of each region, and the minimum error within the region configuration is an initial value as a representative configuration of the region, and the region boundary is defined. The method for estimating a position in a moving body according to claim 1, wherein the configuration update is repeated in a direction to reduce the matching error while checking that the difference is not exceeded.
【請求項3】 同じ領域内では、前記領域データは前記
環境マップから計算することを特徴とする請求項1また
は2記載の移動体の位置推定方法。
3. The method for estimating the position of a moving body according to claim 1, wherein within the same area, the area data is calculated from the environment map.
JP5335665A 1993-12-28 1993-12-28 Location estimating method in mobile object Pending JPH07200777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5335665A JPH07200777A (en) 1993-12-28 1993-12-28 Location estimating method in mobile object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5335665A JPH07200777A (en) 1993-12-28 1993-12-28 Location estimating method in mobile object

Publications (1)

Publication Number Publication Date
JPH07200777A true JPH07200777A (en) 1995-08-04

Family

ID=18291147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5335665A Pending JPH07200777A (en) 1993-12-28 1993-12-28 Location estimating method in mobile object

Country Status (1)

Country Link
JP (1) JPH07200777A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
KR100866380B1 (en) * 2007-02-13 2008-11-03 한국과학기술연구원 Method for esrimating location using ObjectionRecognition of a robot
JP2009190164A (en) * 2008-02-15 2009-08-27 Korea Inst Of Scinence & Technology Object recognition and method for estimating self-position of robot based on information about surrounding environment including recognized object
JP2011210183A (en) * 2010-03-30 2011-10-20 Shimizu Corp Mobile object position detection system and method
KR101240181B1 (en) * 2008-11-10 2013-03-07 한국전자통신연구원 Method and apparatus and for generating safe path of mobile robot
CN112130166A (en) * 2020-09-04 2020-12-25 江苏智库智能科技有限公司 AGV positioning method and device based on reflector network

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
KR100866380B1 (en) * 2007-02-13 2008-11-03 한국과학기술연구원 Method for esrimating location using ObjectionRecognition of a robot
JP2009190164A (en) * 2008-02-15 2009-08-27 Korea Inst Of Scinence & Technology Object recognition and method for estimating self-position of robot based on information about surrounding environment including recognized object
US8024072B2 (en) 2008-02-15 2011-09-20 Korea Institute Of Science And Technology Method for self-localization of robot based on object recognition and environment information around recognized object
KR101240181B1 (en) * 2008-11-10 2013-03-07 한국전자통신연구원 Method and apparatus and for generating safe path of mobile robot
JP2011210183A (en) * 2010-03-30 2011-10-20 Shimizu Corp Mobile object position detection system and method
CN112130166A (en) * 2020-09-04 2020-12-25 江苏智库智能科技有限公司 AGV positioning method and device based on reflector network
CN112130166B (en) * 2020-09-04 2023-11-28 江苏智库智能科技有限公司 AGV positioning method and device based on reflector network

Similar Documents

Publication Publication Date Title
Cox Blanche: Position estimation for an autonomous robot vehicle
Olson Probabilistic self-localization for mobile robots
KR101202695B1 (en) Autonomous movement device
Drumheller Mobile robot localization using sonar
US6442476B1 (en) Method of tracking and sensing position of objects
US6639553B2 (en) Passive/ranging/tracking processing method for collision avoidance guidance
JP5800613B2 (en) Position / posture estimation system for moving objects
JP5016399B2 (en) Map information creation device and autonomous mobile device equipped with the map information creation device
CN111678516B (en) Bounded region rapid global positioning method based on laser radar
Cho et al. Map based indoor robot navigation and localization using laser range finder
Gonzalez et al. A mobile robot iconic position estimator using a radial laser scanner
Johnson et al. 3-D object modeling and recognition for telerobotic manipulation
JPH07200777A (en) Location estimating method in mobile object
Donoso-Aguirre et al. Mobile robot localization using the Hausdorff distance
D'Orazio et al. Mobile robot position determination using visual landmarks
Reina et al. A two-stage mobile robot localization method by overlapping segment-based maps
Stella et al. Self-location of a mobile robot by estimation of camera parameters
Cupec et al. Global localization based on 3d planar surface segments
Dudek et al. Model-based map construction for robot localization
Bang et al. Sensor-based local homing using omnidirectional range and intensity sensing system for indoor mobile robot navigation
JPH06259131A (en) Mobile robot guidance controller
Bixler et al. A sensory input system for autonomous mobile robots
Martínez Mobile robot self-localization by matching successive laser scans via genetic algorithms
El Amin et al. Development of adaptive line tracking breakpoint detection algorithm for room sensing using LiDAR sensor
Odaka et al. Localization in tunnels using feature-based scan matching