JPH02259913A - Self normal positioning method for mobile object - Google Patents

Self normal positioning method for mobile object

Info

Publication number
JPH02259913A
JPH02259913A JP1081030A JP8103089A JPH02259913A JP H02259913 A JPH02259913 A JP H02259913A JP 1081030 A JP1081030 A JP 1081030A JP 8103089 A JP8103089 A JP 8103089A JP H02259913 A JPH02259913 A JP H02259913A
Authority
JP
Japan
Prior art keywords
marker
self
error
range
markers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1081030A
Other languages
Japanese (ja)
Other versions
JP2839282B2 (en
Inventor
Hiroyuki Onishi
弘之 大西
Takeshi Yamashita
剛 山下
Yoshio Kinoshita
良夫 木下
Kazuhiko Onishi
和彦 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP1081030A priority Critical patent/JP2839282B2/en
Publication of JPH02259913A publication Critical patent/JPH02259913A/en
Application granted granted Critical
Publication of JP2839282B2 publication Critical patent/JP2839282B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To prevent errors from being accumulated by expressing a moving environment with the use of a model by means of computer graphics, restricting the position and posture of a camera viewpoint based on the sensor information of the mobile object, generating predictive information, processing a picture with the use of the predictive information, and utilizing the processing for the restriction of the viewpoint in the next self-normal positioning. CONSTITUTION:A mobile robot 3 restricts the position and posture of a camera viewpoint in a certain range by the output of a rotary encoder attached to a wheel 2, generates a window where a marker exists in an input picture in the method of computer graphics, processes the input picture with the use of the window, and extracts the marker. Further the marker of the environmental model is allowed to correspond to the extracted marker, the self-normal positioning is settled, the resolution of an image pickup means 1 and the error of marker detection are taken into consideration, the self-normal positioning is evaluated, the error range is obtained again, and the corrected range is utilized for the area setting of the error range at a next presumed position. Thus the measuring errors of the amount of travel are not accumulated, and the mobile object can arrive at the target place only with the error of the self- normal positioning.

Description

【発明の詳細な説明】 発明の目的; (産業上の利用分野) この発明はり動ロボット等の移動体が自己定位して誤差
範囲を求めながら次回の推定地点に利用して所定ルート
上を移動する場合の自己定位方法に関し、特に出発地及
び目的地が与えられたとき、移動体が内蔵している環境
モデルよりB動ルートを生成し、視覚センサからの人力
情報と環境モデルとの対応づけにより移動体の位置、姿
勢を計算して移動するようにした自己定位方法に関する
[Detailed Description of the Invention] Purpose of the Invention; (Industrial Application Field) This invention enables a mobile object such as a mobile robot to self-localize and determine an error range while moving on a predetermined route using the next estimated point. Regarding the self-localization method when moving objects, especially when the starting point and destination are given, a B movement route is generated from the environmental model built in the mobile object, and the human power information from the visual sensor is correlated with the environmental model. This invention relates to a self-localization method that calculates the position and orientation of a moving object and moves it.

(従来の技術) 地上を動く移動体は、通常車輪の回転やステアリング角
を検出して累積計算することにより、自己の移動距離や
方向の変化を計測している。これはデッドレコニングと
称され、移動体が自己の現在位置を知る上で基本となる
ものであるが、誤差が累積して行くという致命的な問題
を有する。
(Prior Art) A mobile object moving on the ground usually measures its own travel distance and changes in direction by detecting wheel rotation and steering angle and performing cumulative calculations. This is called dead reckoning, and is fundamental for a moving object to know its current location, but it has a fatal problem of accumulating errors.

このため、移動体は何らかの方法で環境を計測して現在
位置を知り、上記デッドレコニングによる計測値を補正
する必要がある。そのための手段としては、■環境(地
上)側に移動体のための目印や灯台を設置する方法、■
環境に既存している特徴点を目印に利用する方法がある
。しかし、前者■の方法では特に目印や灯台を設置しな
ければならない煩雑さがあり、後者■の方法が望ましい
For this reason, it is necessary for the moving body to measure the environment by some method to know its current position and to correct the measured value due to the dead reckoning described above. Methods for this include: ■ installing landmarks and lighthouses for moving objects on the environment (ground) side, ■
There is a method of using existing feature points in the environment as landmarks. However, the former method (2) is particularly complicated in that it requires the installation of landmarks and lighthouses, so the latter method (2) is preferable.

(発明が解決しようとする課題) 後者■の方法を採用するためにはには視覚センサ等によ
フて大量の情報を移動体に入力し、それを処理して位置
確認に必要な情報を抽出する必要がある。このような自
己定位法として、第25回自動制御連合講演会で発表(
昭和57年11月)された“カルマンフィルタによる移
動ロボットの位置推定°′(中村達也、上1)実)があ
るが、偏差に関する状態方程式と観測方程式とを用いて
おり、この2つの方程式はモデル化されたものであり、
現実のものとはギャップがあり過ぎて適用は困難である
。また、第4回 日本ロボット学会学術講演会(昭和6
1年12月15〜17日)の°°単眼自立ロボットのた
めのある位置決め問題°°(杉原厚吉)は組合せのみに
着眼しており、撮像手段の画像からの抽出については未
解決であり、また組合せの爆発が起こる可能性がある。
(Problem to be solved by the invention) In order to adopt the latter method, it is necessary to input a large amount of information to the mobile object using a visual sensor, etc., and process it to obtain the information necessary for position confirmation. need to be extracted. This self-localization method was presented at the 25th Automatic Control Association Conference (
``Position Estimation of Mobile Robots Using Kalman Filter'' (Tatsuya Nakamura, Volume 1), published in November 1982, uses a state equation and an observation equation related to deviation, and these two equations are used in the model. It has been converted into
There is a huge gap between this and reality, making it difficult to apply. Also, the 4th Academic Conference of the Robotics Society of Japan (Showa 6)
A certain positioning problem for a monocular autonomous robot (Atsukichi Sugihara) published by December 15-17, 2017 focuses only on combinations, and the extraction from the images of the imaging means is unsolved. Also, combinatorial explosions may occur.

この発明は上述のような事情よりなされたものであり、
この発明の目的は、移動体が移動する環境をコンピュー
タグラフィックスによるモデルを用いて表現し、移動体
の車輪に取付けたセンサの情報からカメラ視点の位置、
姿勢を拘束してコンピュータグラフィックス手法を用い
て予測情報を生成し、この生成された予測情報を利用し
て画像処理を行ない、誤差範囲を求め、次回の自己定位
での視点の拘束に利用するようにし、所定ルート上を移
動しても誤差が累積しないようにした移動体の自己定位
方法を提供することにある。
This invention was made due to the circumstances mentioned above,
The purpose of this invention is to represent the environment in which a moving object moves using a computer graphics model, and to calculate the position of the camera viewpoint from information from sensors attached to the wheels of the moving object.
The posture is constrained and predicted information is generated using a computer graphics method, and the generated predicted information is used to perform image processing to determine the error range and used to constrain the viewpoint in the next self-localization. An object of the present invention is to provide a self-localization method for a moving object that prevents errors from accumulating even when moving along a predetermined route.

発明の構成; (課題を解決するための手段) この発明は移動ロボット等の移動体の自己定位方法に関
するもので、この発明の上記目的は、予め障害物の位置
を記憶させた環境モデルファイルを用意し、移動体が所
定距離進んだとき、前記移動体に設けられた移動量検出
手段の出力によりその地点を推定し、その推定地点から
ある誤差範囲の領域を設定し、その領域内の各点から前
記移動体に設けられた撮像手段が捉えるであろう予測画
像を前記環境モデルファイルからコンピュータグラフィ
ックス手法を用いて生成し、前記環境モデルの障害物の
特徴要素であるマーカが存在する範囲を求め、前記撮像
手段からの入力画像中において前記求められた範囲内の
領域からのみ実際のマーカの抽出を行ない、前記環境モ
デルのマーカと抽出されたマーカとを対応づけて自己定
位を行ない、前記撮像手段の分解能及びマーカ検出の誤
差を考慮して前記自己定位の評価を行なって誤差範囲を
求め直し、次回の推定地点における誤差範囲の領域設定
に利用することによって達成される。
Structure of the Invention; (Means for Solving the Problems) The present invention relates to a self-localization method for a mobile object such as a mobile robot. When the moving object has traveled a predetermined distance, the point is estimated based on the output of the movement amount detection means provided on the moving object, an area within a certain error range is set from the estimated point, and each point within that area is A predicted image that would be captured by an imaging means provided on the moving body from a point is generated from the environment model file using a computer graphics method, and a range where a marker that is a characteristic element of an obstacle in the environment model exists is generated. , extracting actual markers only from the region within the determined range in the input image from the imaging means, and performing self-localization by correlating the markers of the environmental model with the extracted markers; This is achieved by evaluating the self-localization taking into account the resolution of the imaging means and the error in marker detection, recalculating the error range, and using it to set the error range at the next estimated point.

(作用) 移動ロボットの機能としては、環境において自己の位置
、姿勢を同定する機能が必須となる。ガスレートジャイ
ロ、ロータリエンコーダ等のセンサを用いて位置、姿勢
を同定する方法では誤差が累積するため適当な補正が必
要となる。そのために、環境から画像情報を人力し、何
等かの特徴をロボットに内蔵している環境モデルと照合
することにより、自己の位置、姿勢を同定する方法が有
効である。ここにおいて、ロボットが移動する環境とし
て、(1)環境は既知であり多面体世界である、(2)
床面は平坦であると仮定し、人工的な環境においては上
記仮定(1)及び(2)は実用性を大きく制限するもの
ではない。以上の仮定のもとで、この発明ではロボット
が移動する環境を多面体で表現し、マーカ(たとえば垂
直エツジ)を自己定位のための標識としている。
(Function) The function of a mobile robot is to identify its own position and posture in the environment. In methods of identifying position and orientation using sensors such as gas rate gyros and rotary encoders, errors accumulate and appropriate correction is required. For this purpose, it is effective to identify the robot's own position and posture by manually inputting image information from the environment and comparing certain characteristics with an environmental model built into the robot. Here, as the environment in which the robot moves, (1) the environment is known and is a polyhedral world; (2)
It is assumed that the floor surface is flat, and the above assumptions (1) and (2) do not greatly limit practicality in an artificial environment. Based on the above assumptions, in this invention, the environment in which the robot moves is expressed as a polyhedron, and markers (for example, vertical edges) are used as signs for self-orientation.

この発明では、ロボットが移動する空間についての知識
を環境モデルとして内蔵し、位置、姿勢は3個のマーカ
から計算する。ここで、問題となるのは入力画像からの
マーカの抽出と、抽出されたマーカと、環境モデル中の
マーカとの対応づけであるが、この発明ではロボットに
取付けたロータリエンコーダの出力によりカメラ視点の
位置姿勢をある範囲に拘束することでこれを解決してい
る。つまり、視点の位置、姿勢をある範囲内に拘束する
ことにより、入力画像中でマーカが存在する領域(以後
、ウィンドウとする)をコンピュータグラフィックスの
手法で生成し、このウィンドウを用いて入力画像を処理
してマーカの抽出を行なう。この場合の特徴としてトッ
プダウンの画像処理が挙げられる。ウィンドウを用いる
ことで、ウィンドウ内には必ずマーカが1個存在すると
仮定できるので、画像処理をトップダウンで行うことが
可能となり、マーカの抽出が容易となるのである。他の
特徴として簡単な対応づけがあり、ウィンドウを生成し
た段階で環境モデルとの対応づけが行なわれている。各
マーカに対するウィンドウが重ならない場合には、抽出
したマーカと環境モデル中のマーカとか一意に対応する
。また、ウィンドウが重なる場合には、抽出したマーカ
に対して環境モデル中のマーカが複数個対応する。抽出
したマーカに対する複数個の対応候補については、検証
により簡単に誤対応を防止するようになっている。
In this invention, knowledge about the space in which the robot moves is incorporated as an environment model, and the position and orientation are calculated from three markers. The problem here is the extraction of markers from the input image and the correspondence between the extracted markers and the markers in the environment model, but in this invention, the output of the rotary encoder attached to the robot is used to This problem is solved by constraining the position and orientation of . In other words, by constraining the position and orientation of the viewpoint within a certain range, an area where the marker exists in the input image (hereinafter referred to as a window) is generated using computer graphics techniques, and this window is used to generate the input image. The marker is extracted by processing. A feature of this case is top-down image processing. By using a window, it can be assumed that one marker always exists within the window, so image processing can be performed in a top-down manner, making it easier to extract markers. Another feature is easy mapping, and the mapping with the environment model is done at the stage of window generation. If the windows for each marker do not overlap, the extracted marker and the marker in the environment model uniquely correspond. Furthermore, if the windows overlap, a plurality of markers in the environment model correspond to the extracted marker. A plurality of correspondence candidates for the extracted marker are verified to easily prevent incorrect correspondences.

この発明では第1図に示すように環境情報の人力手段と
して1台のCCDカメラ(イメージセンサ)1を搭載し
、車輪2に取付けたロータリエンコーダによって移vJ
量を計測でき、自己定位と移動を繰返しながら目的地へ
到達する移動ロボット3を考える。移動ロボット3は環
境からCCDカメラ1を介して第2図に示すような画像
情報を人力する。この場合、移動する床面ば平坦で、移
動は第3図に示すようにX、Y方向の並進成分とZ軸回
りの回転成分だけとする。ロボット3が移動する環境は
第4図に示す如く既知であって多面体世界であり、第5
図に示す如く出発地spから目的地GPまでのルートを
自動生成し、出発地SPにおいてロボット3は定位され
ている。ロボット3はルート上のサブゴールP1〜P、
で自己定位を行ないながら目的地GPまで進み、障害物
4,5.6を避けるようにしてルートを生成する。
In this invention, as shown in FIG.
Let us consider a mobile robot 3 that can measure quantities and reaches its destination while repeating self-orientation and movement. The mobile robot 3 manually obtains image information as shown in FIG. 2 from the environment via the CCD camera 1. In this case, the floor surface to be moved is flat, and the movement consists of only translational components in the X and Y directions and rotational components around the Z axis, as shown in FIG. The environment in which robot 3 moves is known as a polyhedral world as shown in Figure 4, and
As shown in the figure, a route from the starting point SP to the destination GP is automatically generated, and the robot 3 is oriented at the starting point SP. Robot 3 has subgoals P1 to P on the route,
Proceed to the destination GP while performing self-orientation, and generate a route while avoiding obstacles 4 and 5.6.

尚、障害物とは、環境内に存在している物体のことを意
味する。
Note that an obstacle means an object existing in the environment.

ここで、自己定位の基本的な考え方を説明する。簡単の
ために第6図に示す如く自己定位と移動を繰返して1次
元空間を出発地Sから目的地Gへ移動するロボットを想
定し、移動中の任意の地点Pと任意の地点Qについて考
える。先ず地点Pで自己定位する。自己定位の誤差によ
りロボットは実際には区間Spに存在している。そして
、ロボットは地点Pから地点Qへ移動するが、ロボット
は地点Pでの自己定位の誤差とロータリエンコーダで求
めたり動量の計測誤差とで、区間Sq’ に存在してい
る可能性が大きい。地点Qで自己定位すると、自己定位
の誤差によりロボットは実際には区間Sqに存在してい
る。このように地点Qで区間SQ’ を設定できれば視
点の拘束(後述する)により区間Sqに自己定位ができ
、ロータリエンコーダの計測誤差はクリアできる。よっ
て、啓勤量の計測誤差が累積・することはなく、自己定
位の誤差で目的地Gへ到達できるのである。
Here, the basic concept of self-localization will be explained. For simplicity, assume a robot that moves from a starting point S to a destination G in a one-dimensional space by repeating self-orientation and movement as shown in Figure 6, and consider an arbitrary point P and an arbitrary point Q during the movement. . First, self-localization is performed at point P. Due to the self-localization error, the robot actually exists in the section Sp. Then, the robot moves from point P to point Q, but there is a high possibility that the robot exists in section Sq' due to an error in self-localization at point P and an error in measuring the amount of movement determined by the rotary encoder. When self-localizing at point Q, the robot actually exists in section Sq due to an error in self-localizing. If the section SQ' can be set at the point Q in this way, self-localization can be achieved in the section Sq by constraining the viewpoint (described later), and the measurement error of the rotary encoder can be cleared. Therefore, the measurement error of the amount of effort does not accumulate and the destination G can be reached with the error of self-orientation.

次に視点の拘束について説明すると、第3図に示す如く
ロボット3の位置、姿勢をX、Y方向の並進成分x、y
とZ軸回りの回転成分θとで(x、y、θ)と表現し、
移動量をX、Y方向の並進成分dx、dyとZ軸回りの
回転成分dθとで(dx、dy、 de)と表現する。
Next, to explain the constraint of the viewpoint, as shown in Fig. 3, the position and posture of the robot 3 are determined by
and rotation component θ around the Z axis, expressed as (x, y, θ),
The amount of movement is expressed as (dx, dy, de) by translational components dx and dy in the X and Y directions and rotational component dθ around the Z axis.

視点の拘束を行なうために定位誤差、計測誤差を次のよ
うに定義する。先ずロボット3がある地点(x、y、 
θ)で自己定位した結果が(x’、y’、θ“)であっ
たとぎ、各成分の定位誤差δX、δy、δθを次の(1
)式で定義する。
In order to constrain the viewpoint, localization error and measurement error are defined as follows. First, the point where robot 3 is (x, y,
If the result of self-localization is (x', y', θ'') at
) defined by the formula.

そして、ロボット3がある地点から(dx、dy、dθ
)だけ移動してロータリエンコーダから求まる移動量が
(dx’ 、dy’ 、dθ°)であったとき、各成分
の計測誤差ΔX、Δy、Δθを次の(2)式で定義する
Then, from the point where robot 3 is (dx, dy, dθ
) and the amount of movement determined from the rotary encoder is (dx', dy', dθ°), then the measurement errors ΔX, Δy, and Δθ of each component are defined by the following equation (2).

ここで、 第7図に示すようにロボット3が地点P(Xp、y*+
θP)で自己定位した後に(dx、dy、dθ)だけ移
動し、地点Q (Xq、3’q、θ、)へ到達したとす
る。地点Pでの自己定位結果とロータリエンコーダから
求まる移動量(dx’ 、dy’ 、dθ゛)により、
ロボットは次の(3)式に示す範囲に存在することが、
(1) 、 (2)式より導かれる。
Here, as shown in FIG.
Suppose that after self-localizing at θP), the robot moves by (dx, dy, dθ) and reaches point Q (Xq, 3'q, θ,). Based on the self-localization result at point P and the movement amount (dx', dy', dθ゛) found from the rotary encoder,
The robot exists within the range shown by the following equation (3),
It is derived from equations (1) and (2).

である。It is.

ここにおいて、ロボットは移動前の自己定位結果(Xp
’、Vp’、θ、°ンと移動量(dx’、dy’、dθ
”)を常時把握しているため、真の現在地(x、、 3
’(1+θq)を(3)式より制限すること、即ち視点
がどの範囲にあるかを予測することができ、これを視点
の拘束という。
Here, the robot uses the self-localization result (Xp
', Vp', θ, °n and movement amount (dx', dy', dθ
”), the true current location (x,, 3
'(1+θq) can be restricted using equation (3), that is, the range of the viewpoint can be predicted, and this is called viewpoint constraint.

次に、ウィンドウ生成のアルゴリズムについて説明する
Next, the window generation algorithm will be explained.

先ず視点の位置、姿勢を、移動前の自己定位の結果及び
移動量の計測値から前記(3)式を用いて拘束する。視
点の位置、姿勢を第8図(八)の領域VAに示すように
拘束した後に領域内を離散化しく実際には、例えば円V
Cに外接する正方形VAをORも用いて求め、その正方
形内の各点を周辺も含めて離散化する。この離散化され
る点の数は一定としているので正方形の大きさが変化す
れば、各点のピッチが変わることになる。)、離散化し
た各地点で視点vpを設定し、その視点vpで環境がど
のように見えるかを訃算した予測画像をコンピュータグ
ラフィックスの手法を用いて同図(B)のように各視点
vp毎に生成する。なお、第8図(A)のWは世界(絶
対)座標系を示し、Rはロボット座標系を示している。
First, the position and orientation of the viewpoint are constrained using equation (3) above from the result of self-orientation before movement and the measured value of the amount of movement. After constraining the position and orientation of the viewpoint as shown in the area VA in FIG.
A square VA circumscribing C is found using OR as well, and each point within the square is discretized including its surroundings. Since the number of points to be discretized is fixed, if the size of the square changes, the pitch of each point will change. ), a viewpoint VP is set at each discretized point, and a predicted image of how the environment will look at that viewpoint VP is calculated for each viewpoint using a computer graphics method, as shown in the same figure (B). Generated for each vp. Note that W in FIG. 8(A) indicates the world (absolute) coordinate system, and R indicates the robot coordinate system.

次に、各視点vPにおける予測画像中のマーカ(たとえ
ば垂直エツジ)に注目してウィンドウを形成する。環境
モデルファイル中のマーカをり、予測画像上でのマーカ
をし“とすると、第8図(B)の予測画像例ではマーカ
し3.′・・・114°・・・LlnoとマーカL21
°”’L24°”’L2n°とが存在し、マーカLll
°・・・し、4゛・・・Llnoによって形成されるウ
ィンドウW、は同図(C)のようになる。マーカL21
゛・・・L24゛・・・L2□゛についても同様のウィ
ンドウW2(図示せず)を形成する。各マーカのウィン
ドウが重なった場合には、第9図に示す如くそれらウィ
ンドウを統合した後区間を細分化して処理する。第9図
はマーカLl’ によって形成されるウィンドウW1と
、マーカL2° によって形成されるウィンドウW2と
、マーカL3°によって形成されるウィンドウW、と、
マーカL4’ によって形成されるウィンドウW4と、
マーカL5“によって形成されるウィンドウW5とが重
なり、1つのウィンドウWを形成する様子を示している
。ウィンドウから抽出されたマーカには、環境モデル中
の複数個のマーカを第1θ図(^)の如く対応表で区間
51〜S5で対応づける。そして、実画像からのマーカ
の抽出順序を決めるためにウィンドウのソーティングを
行なう。
Next, a window is formed by focusing on markers (for example, vertical edges) in the predicted image at each viewpoint vP. If we set the marker in the environment model file and the marker on the predicted image as "," then in the predicted image example of FIG. 8(B), marker 3.'...114°...Llno and marker L21
°"'L24°"'L2n° exists, and the marker Lll
. . , and the window W formed by 4 . . . Llno is as shown in FIG. Marker L21
A similar window W2 (not shown) is formed for ゛...L24゛...L2□゛. If the windows of each marker overlap, the windows are integrated as shown in FIG. 9, and then the sections are subdivided and processed. FIG. 9 shows a window W1 formed by the marker Ll', a window W2 formed by the marker L2°, a window W formed by the marker L3°,
a window W4 formed by marker L4';
The window W5 formed by the marker L5" overlaps to form one window W. The marker extracted from the window includes multiple markers in the environment model as shown in Figure 1θ (^) Correspondence is made between sections 51 to S5 in the correspondence table as shown in FIG.

ソーティング条件は高(憂先順位順に、イ)シきい値以
上の大きさのマーカ、口)視点の位置、姿勢の変化に対
して見え方の変化が大きいマーカ、八)距離が近いマー
カ、二)画像の端にあるマーカとなる。
The sorting conditions are high (in descending order of priority): (a) markers whose size is larger than the threshold; (mouth) markers whose visibility changes greatly with changes in viewpoint position and posture; (viii) markers that are close in distance; ) serves as a marker at the edge of the image.

次にマーカの抽出について説明すると、生成したウィン
ドウ個々に対して、マーカの抽出個数が所定の値になる
まで下記の処理を行なう。
Next, explaining the extraction of markers, the following process is performed for each generated window until the number of extracted markers reaches a predetermined value.

先ず第11図(A)の如くスムージングによってウィン
ドウW、内の個々の画素に対してエツジ保存用平滑フィ
ルタを2回作用させ、ウィンドウWI内の個々の画素に
対して5obel変換(エツジ強調処理)を行ない、5
obel変換のエツジ強度及びエツジ方向から同図(B
)及び(C)の如く2値化を行なう。2値化の条件は、
エツジ方向の場合には同図(C)のようにエツジ方向が
ある範囲以内(たとえば90°±10” )を“1”と
し、エツジ強度の場合は同図(B)のよ、うにエラ少強
度がしきい値以上である強度を1”とする。このように
して第11図(D)の如く2値化されたウィンドウW1
内の個々の画素に対して同図(E)のようなHough
変換を行ない、ピーク点PPより同図(F)で示すよう
な画像上での位置方程式を求めてマーカMを抽出する。
First, as shown in FIG. 11(A), an edge preservation smoothing filter is applied twice to each pixel in the window W by smoothing, and each pixel in the window WI is subjected to 5obel conversion (edge enhancement processing). 5.
The same figure (B
) and (C). The conditions for binarization are:
In the case of the edge direction, as shown in the same figure (C), the edge direction within a certain range (for example, 90° ± 10") is set to "1," and in the case of the edge strength, as shown in the same figure (B), the error is small. The intensity that is greater than or equal to the threshold value is defined as 1''. In this way, the window W1 is binarized as shown in FIG. 11(D).
Hough as shown in the same figure (E) for each pixel in
After conversion, the marker M is extracted by determining a position equation on the image as shown in FIG. 3(F) from the peak point PP.

第1θ図(A)のような対応付リストをもとに、抽出し
たマーカを環境モデル中のマーカに同図(1)〜(3)
のように対応づける。
Based on the correspondence list shown in Figure 1θ (A), the extracted markers are added to the markers in the environment model (1) to (3) in the same figure.
Correlate as follows.

一方、ロボットの位置、姿勢は、第12図に示す実画像
から抽出したマーカA’、B’、C’より第13図に示
す如< AB、Bに間の角度α、βを計算し、次の(4
)式を解くことで求まる。これに関しては後述する。
On the other hand, the position and posture of the robot are calculated from the markers A', B', and C' extracted from the real image shown in Fig. 12, as shown in Fig. 13. Next (4
) can be found by solving the equation. This will be discussed later.

上述のように計算された位置、姿勢が正しいかどうかは
、その位置、姿勢においてコンピュータグラフィックス
画像を作成し、コンピュータグラフィックス画像上のマ
ーカと入力画像から抽出したマーカとが一致するかどう
かを調べれば分る。位置、姿勢の計算に用いたマーカA
’、B’、C’は、カメラパラメータ、マーカ抽出時の
誤差を持っているため、計算された位置、姿勢は第14
図に示す斜線領域LAとなる。その時、検証されるマー
カDが入力画像上に現れる範囲を計算することができる
To determine whether the position and orientation calculated as described above are correct, create a computer graphics image at that position and orientation, and check whether the markers on the computer graphics image match the markers extracted from the input image. You'll know if you look into it. Marker A used to calculate position and orientation
', B', and C' have errors in camera parameters and marker extraction, so the calculated position and orientation are the 14th
This becomes the shaded area LA shown in the figure. The range in which the marker D to be verified appears on the input image can then be calculated.

よって、マーカDの検証はその範囲内でマーカが検出さ
れているかどうかを調べればよい。ここで、マーカA’
、B’ 、C’の抽出誤差は予め設定できないため、マ
ーカA’、B’、C’の抽出誤差はマーカD°の検証が
成功するか、又は一定の大きさになるまで1画素ずつ広
げて行なう。すなわち、第14図に示すロボットの存在
領域(誤差範囲) LAが広がって行き、かつマーカD
の検証範囲も広がって行くことになる。
Therefore, marker D can be verified by checking whether the marker is detected within the range. Here, marker A'
, B', and C' cannot be set in advance, so the extraction errors of markers A', B', and C' are expanded pixel by pixel until verification of marker D° is successful or until a certain size is reached. Let's do it. In other words, the robot's existence area (error range) LA shown in FIG. 14 expands, and the marker D
The scope of verification will also expand.

このようにして抽出したマーカからロボットの位置、姿
勢の計算に用いる3個のマーカの組合せの全てについて
上記検証を行ない、その中で誤差範囲を最小とする位置
、姿勢を自己定位の結果とする。
The above verification is performed for all three marker combinations used to calculate the robot's position and orientation from the markers extracted in this way, and the position and orientation that minimizes the error range are taken as the self-localization results. .

(実施例) 第15図はこの発明の動作例を示しており、第1図に示
す移動ロボット3は第5図に示す如く予め定められてい
る出発地SPから目的地GPまでのルート及びサブゴー
ル(PL、P2.・・・)に従って、障害物を避けなが
ら移動しくステップSl) 、サブゴール(Pl、P2
.・・・)に来たか否かを常時判定しており(ステップ
S2)、サブゴールに達したときに一旦停止する(ステ
ップ53)。この停止したサブゴールP、では第16図
に示すように、前回のサブゴールP 11−11での誤
差r+1−11.0゜−1) に今回の移動によるロー
タリエンコーダの誤差eiを加えた領域内の各点から見
えるであろう画像をコンピュータグラフィックス手法に
より作成し、環境モデルのマーカの存在する画像上の範
囲であるウィンドウW。
(Example) FIG. 15 shows an example of the operation of the present invention, in which the mobile robot 3 shown in FIG. (PL, P2...), move while avoiding obstacles Step Sl), subgoal (Pl, P2...)
.. ...) is constantly determined (step S2), and once the subgoal is reached, the subgoal is temporarily stopped (step 53). In this stopped subgoal P, as shown in Fig. 16, the error in the previous subgoal P (r+1-11.0°-1) plus the error ei of the rotary encoder due to the current movement is calculated. An image that can be seen from each point is created using a computer graphics method, and a window W is created, which is the range on the image where markers of the environment model exist.

を決定する(ステップS4)。次に、実際の画像におい
て上述の如く求めたマーカ存在領域内からのみマーカが
存在するか否かを判断し、マーカが存在すれば抽出する
(スップS5)、そして、抽出された3個以上のマーカ
が環境モデルのマーカのどれと対応するかを逐−調べて
最終的な位置及び姿勢を決定し、同時にそのときの誤差
r1.θ1を記憶して次のサブゴールP(1や1.に備
える(ステップS6)。上記動作を目的地GPまで繰返
すことによフてルート上を8動する(ステップS7)。
is determined (step S4). Next, in the actual image, it is determined whether or not a marker exists only within the marker existence area determined as described above, and if a marker exists, it is extracted (step S5), and the extracted three or more The final position and orientation are determined by sequentially checking which of the markers in the environment model the marker corresponds to, and at the same time, the error r1. θ1 is memorized and prepared for the next subgoal P (1 or 1.) (step S6). By repeating the above operation up to the destination GP, eight movements are made on the route (step S7).

次に、第17図のフローチャートを参照して自己定位の
方法を説明する。つまり、第15図のステップ54〜S
6の詳細を説明する。
Next, the self-localization method will be explained with reference to the flowchart in FIG. In other words, steps 54 to S in FIG.
6 will be explained in detail.

先ず、前回サブゴールP(1−11の誤差r(1−11
+θ、ト、)と今回サブゴールP1のロータリエンコー
ダの誤差elの2つにより視点の領域を第16図のVA
の如く決定しくステップ510)、領域VA内を第8図
(A)に示すように離散化して各視点vPを決める(ス
テップ511)。上記各視点vPについてその視点から
見えるであろう予測画像を第8図(B)のようにコンピ
ュータグラフィクスの手法により生成し、環境モデルの
マーカの存在範囲であるウィンドウW上を決める(ステ
ップ512)。このとぎ姿勢誤差θ目−1)も考慮し、
次にマーカの存在範囲であるウィンドウが重なり合うか
否かを判定しくステップ513)、重なり合う場合には
各ウィンドウを統合しくステップ514)、第10図に
示すようなマーカの候補リストを作成する(ステップ5
15)。次に、実際の画像(入力画像)より上記求めた
ウィンドウ範囲゛からのみマーカを見つけて抽出しくス
テップ516)、抽出したマーカが3個以上有るか否か
を判断しくステップ517)、2個以下の場合には処理
不能となって停止する(ステップ5ta)。
First, the error r(1-11 of the previous subgoal P(1-11)
+θ, t, ) and the error el of the rotary encoder of subgoal P1 this time to define the viewpoint area as VA in Figure 16.
(Step 510), the area VA is discretized as shown in FIG. 8(A), and each viewpoint vP is determined (Step 511). For each of the above-mentioned viewpoints vP, a predicted image that will be seen from that viewpoint is generated using a computer graphics method as shown in FIG. 8(B), and the window W, which is the existing range of the marker of the environment model, is determined (step 512). . Considering this sharpening posture error θth -1),
Next, it is determined whether or not the windows in the existing range of markers overlap (step 513), and if they overlap, the windows are integrated (step 514), and a marker candidate list as shown in FIG. 10 is created (step 513). 5
15). Next, from the actual image (input image), find and extract markers only from the window range obtained above (step 516), determine whether there are 3 or more extracted markers (step 517), 2 or less In this case, the process becomes impossible and stops (step 5ta).

上記ステップ517において抽出したマーカか3個以上
有る場合には、抽出した全マーカより3個のマーカを選
び(ステップ520)、当該3個のマーカを第10図(
1)の最上部(Ll’、L2°、L4°)のように環境
モデルの候補リストのマーカと一旦対応づけ(ステップ
521)、3個のマーカの抽出誤差を第14図の領域L
Aのように仮定する(ステップ522)。そして、次に
第18図に示す如く自己定位の誤差範囲Q1〜Q8を計
算する(ステップ523)。第18図における誤差範囲
LAの9点Q。−06は で表わされ、1≦に≦8として誤差「1.θ1は次のよ
うに求められる。
If there are three or more markers extracted in step 517, select three markers from all the extracted markers (step 520), and select the three markers as shown in FIG. 10 (step 520).
1), the topmost part (Ll', L2°, L4°) is once associated with the marker in the candidate list of the environment model (step 521), and the extraction error of the three markers is calculated as the region L in Fig. 14.
Assume as A (step 522). Then, as shown in FIG. 18, the self-localization error range Q1 to Q8 is calculated (step 523). 9 points Q of the error range LA in FIG. −06 is expressed as , and the error “1.θ1 is determined as follows, assuming 1≦ and ≦8.

そして、誤差範囲LA内において検証を行なうマーカが
入力画像中に存在する領域をコンピュータグラフィック
スの手法を用いて計算する(ステップ524)。計算さ
れた領域内に検証するマーカが存在するか否かを調べ(
ステップ525)、次に検証率がある割合以上(例えば
80%以上)か否かを判定しくステップ530)、ある
割合よりも小さい場合には抽出誤差D0の画素を広げ(
ステップ534)、D 、 h)所定値(例えば3)よ
りも小さければステップS23にリターンする(ステッ
プ535)。また、検証率がある割合以上の場合には誤
差範囲の面積を計算しくステップ531)、面積が最小
であるか否かを判定しくステップ532)、最小であれ
ば面積及び誤差「1.θ1を更新する(ステップ533
)。第19図(八)はDe−1でウィンドウwlにマー
カD°が重ならないので検証失敗となる例を示し、同図
(8)もD8−2でウィンドウw2にマーカD°が重ら
ないので検証失敗となる例を示し、同図(C)はDe・
3でウィンドウ胃3にマーカD°が重なり検証が成功し
た例を示している。この場合、検証率は100%となる
。即ち、検証すべき領域が1つしかないときは0%か1
00%のいずれかとなる。そして、候補リストのマーカ
と全て対応づけが終了したか否かを判定しくステップ5
36)、終了しておれば更に3個のマーカの選び方が全
て終了したか否かを判定する(ステップ537)。ステ
ップ53Bで全て対応づけが終了していない場合はステ
ップ521にリターンする。
Then, the area where the marker to be verified exists in the input image within the error range LA is calculated using computer graphics techniques (step 524). Check whether the marker to be verified exists within the calculated area (
Step 525), then it is determined whether the verification rate is at least a certain percentage (for example, 80% or more) or not (Step 530), and if it is smaller than a certain percentage, the pixels of the extraction error D0 are expanded (
Steps 534), D, and h) If it is smaller than a predetermined value (for example, 3), the process returns to step S23 (step 535). In addition, if the verification rate is higher than a certain percentage, the area of the error range is calculated (step 531), and it is determined whether the area is the minimum (step 532). Update (step 533
). Figure 19 (8) shows an example in which verification fails because marker D° does not overlap window w1 at De-1, and (8) in the same figure also shows an example in which verification fails because marker D° does not overlap window w2 at D8-2. An example of verification failure is shown in (C) of the same figure.
3 shows an example in which the marker D° overlaps the window stomach 3 and the verification is successful. In this case, the verification rate is 100%. In other words, if there is only one area to verify, 0% or 1
00%. Then, in step 5, it is determined whether all the markers in the candidate list have been associated with each other.
36), if it has been completed, it is further determined whether or not all three marker selections have been completed (step 537). If all correspondences are not completed in step 53B, the process returns to step 521.

次に、第14図及び第18図で説明した自己定位の誤差
範囲について説明すると、環境モデル20とイメージセ
ンサlOとの実際の関係は第20図のようになっている
が、上下左右が逆になるので反対側位置10^にイメー
ジセンサlOがあると考えて第21図のような構成を考
える。その座標関係は第22図のようになり、OCはレ
ンズ中心座標を示している。
Next, to explain the self-localization error range explained in FIGS. 14 and 18, the actual relationship between the environment model 20 and the image sensor IO is as shown in FIG. Therefore, assuming that the image sensor IO is located at the opposite position 10^, consider a configuration as shown in FIG. 21. The coordinate relationship is as shown in FIG. 22, where OC indicates the lens center coordinates.

そして、角度α、βの求め方を以下に説明する。The method for determining the angles α and β will be explained below.

イメージセンサlO上の入力画像へ’ 、B’ 、C’
は環境モデル20の^、B、Cと対応づけられる。画像
へ°はイメージセンサ10の何画素目に写っているかは
分るので、第23図に示すような画像A゛と光軸との距
離℃1は求まり(画素間隔は既知)、またレンズの焦点
距離fは既知である。従って、α、=tan−’(n 
l/f)で角度α1が求まり、同様に角度α2も求まり
、結局α;α、−α2で角度αが求まる。
To the input image on the image sensor lO', B', C'
are associated with ^, B, and C of the environment model 20. Since we know which pixel of the image sensor 10 the image A is reflected in, we can find the distance C1 between the image A and the optical axis as shown in Figure 23 (pixel spacing is known), and The focal length f is known. Therefore, α,=tan-'(n
l/f), angle α1 is found, angle α2 is found in the same way, and finally angle α is found from α;α, -α2.

同様にして角度βも求まる。一方、第14図及び第24
図に示すように3点^、B、Ocを通る円の中心をK。
The angle β is found in the same way. On the other hand, Figures 14 and 24
As shown in the figure, the center of the circle passing through the three points ^, B, and Oc is K.

とすると、ZRAB=90°で、線分ABの長さは環境
モデル20より求まるのでsinα=A8;/2r+か
ら円の半径r、が求まる。環境モデル20よりへ1口の
座標は既知であるので、半径rlが求まれは中心に1の
座標(a+、b+)は求まる。同様にして3点B、C,
Oeを通る円の中心に2の座標(az、b2)も求まる
。従って、前記(4)式から点Ocの座標(x、y)が
求められる。
Then, since ZRAB=90° and the length of line segment AB can be found from the environmental model 20, the radius r of the circle can be found from sin α=A8;/2r+. Since the coordinates of one end of the environment model 20 are known, the radius rl is found, and the coordinates (a+, b+) of one at the center are found. Similarly, 3 points B, C,
The coordinates (az, b2) of 2 are also found at the center of the circle passing through Oe. Therefore, the coordinates (x, y) of the point Oc can be found from the above equation (4).

これをQoとする。Let this be Qo.

次に、姿勢θ(カメラ光軸とXwのなす角)の求め方に
ついて述べる。第25図に示すように、線分へ°・しと
光軸のなす角α1は既に求められている一方、A点の座
標は環境モデル20から分っており、点Ocの座標も求
まっているので、線分A“・Ocと軸れのなす各θ°は
演算で求められ、姿勢θはθ工θ°−α1となる。
Next, how to obtain the attitude θ (the angle between the camera optical axis and Xw) will be described. As shown in FIG. 25, while the angle α1 between the optical axis and the line segment has already been found, the coordinates of point A are known from the environment model 20, and the coordinates of point Oc have also been found. Therefore, each θ° between the line segment A"·Oc and the axis is calculated, and the attitude θ is θ°-α1.

次に、第19図で説明したようにイメージセンサ10の
標本化の誤差である1画素を考慮する場合について述べ
る。第26図に示すように画像へ’、B’をそれぞれ1
画素広げたときの角度α□、は前回と同様にして求めら
れ、第27図に示すように画像^゛、B°をそれぞれ1
画素狭めたときの角度α1nも前回と同様に求められる
。同様に、角度βIIIMM+β、、、Inも求められ
る。従って、点0c(QO)と同様にして点Q1〜q6
の座標(X、Y、θ)が(5)式の如く求められる。
Next, a case will be described in which one pixel, which is the sampling error of the image sensor 10, is considered as explained in FIG. 19. As shown in Figure 26, add 1 ' and B' to the image.
The angle α□ when the pixels are expanded is found in the same way as the previous time, and as shown in Figure 27, the images ^゛ and B° are each 1
The angle α1n when the pixels are narrowed is also found in the same way as the previous time. Similarly, the angle βIIIMM+β, . . . In is also determined. Therefore, similarly to point 0c (QO), points Q1 to q6
The coordinates (X, Y, θ) of are determined as in equation (5).

ステップ517において、マーカが4つ以上あるときに
は今回使用した3つ以外のマーカが入力画像中に存在す
る領域を計算する。これはQ。(XOYO+ Qo)〜
Qa(Xs、Ya、θ8)の各点から見える予測画像を
コンピュータグラフィックス手法で計算し、今回使用し
た3つ以外のマーカが存在するウィンドウD°を求める
。そして、入力画像のウィンドウD°内に実際にマーカ
が有るかどうかを調べ、検証率80%以上ならばOKと
する。領域が複数あるとき、例えば5つの領域があって
その内の4つ以上の領域でそれぞれ該当するマーカが有
ったときは、415 X100−110%となり0にと
する。次に、点Q、〜Q8で囲まれる斜線部面積を計算
し、最小ならその面積及び誤差rI、θ1を記憶して更
新する。
In step 517, if there are four or more markers, an area where markers other than the three used this time exist in the input image is calculated. This is Q. (XOYO+Qo)~
A predicted image visible from each point of Qa (Xs, Ya, θ8) is calculated using a computer graphics method, and a window D° in which markers other than the three used this time exist is determined. Then, it is checked whether a marker actually exists within the window D° of the input image, and if the verification rate is 80% or higher, it is determined to be OK. When there are multiple areas, for example, when there are five areas and four or more of the areas have corresponding markers, the value is 415 x 100-110%, which is set to 0. Next, the area of the shaded area surrounded by points Q and Q8 is calculated, and if it is the minimum, the area and errors rI and θ1 are stored and updated.

もし検証率が80%未満であれば、第26図に示すよう
にイメージセンサの画素をもう1つ広げてα、8゜、β
、、8つを求め(α、βより2画素分広げたことになる
)、同様に第27図に示すようにもう1画素減らしてα
III I n +βmin ’(α、βより2画素分
狭めたことになる)を求めて、以下同様な処理を行なう
。次に対応づけの組合せを変えて同様に行ない、全ての
対応づけの組合せを終了すれば、次の組合せの3つのマ
ーカを選んで同様の処理を行ない、結局QI〜Q8で成
る領域面積が最小となるもので自己定位することになる
。そのときの誤差rl+ 01が次回の誤差の基準とな
る。
If the verification rate is less than 80%, expand the image sensor pixel by one more as shown in Figure 26.
.
III I n +βmin' (which means narrowing down by two pixels from α and β) is obtained, and the same processing is performed thereafter. Next, change the combination of correspondences and repeat the same process. Once all the combinations of correspondences have been completed, select the next combination of three markers and perform the same process. It will be self-localized based on the following. The error rl+01 at that time becomes the standard for the next error.

発明の効果; 以上のようにこの発明によれば、マーカが存在しそうな
領域について画像処理を行なうので効率が良く、領域を
区切っているので画像からのマーカの抽出が安定する。
Effects of the Invention: As described above, according to the present invention, image processing is performed on areas where markers are likely to exist, which is efficient, and because the areas are divided, extraction of markers from images is stable.

また、余分な線を抽出するのを防いでいるので、抽出し
たマーカと環境モデル中のマーカとの対応づけの効率が
良い。さらに、自己定位の誤差範囲を求め直して次回の
推定地点における誤差範囲の領域設定に利用しているの
で、誤差範囲が累積することもなく、所定ルート上を移
動することができる。
Furthermore, since unnecessary lines are prevented from being extracted, the efficiency of associating extracted markers with markers in the environment model is high. Furthermore, since the self-localization error range is recalculated and used to set the error range at the next estimated point, the error range does not accumulate and it is possible to move along the predetermined route.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の移動ロボットの外観構成図、第2図
は撮像手段による環境の入力画像の一例を示す図、第3
図はロボットの座標系を説明するための図、第4図はロ
ボットが移動する環境の一例を示す・図、第5図は第4
図の環境に対するルート生成の様子を示す歯、第6図は
自己定位を説明するための模式図、第7図は視点の拘束
を説明するための図、第8図は視点領域の離散化及びウ
ィンドウの生成を説明するための図、第9図はウィンド
ウの合成を説明するための図、第1O図は抽出したマー
カの対応づけを示す図、第11図はウィンドウよりマー
カの抽出を行なう様子を示すフロー図、第12図は入力
画像中のマーカの例を示す図、第13図はロボットの位
置、姿勢の計算原理を説明するための図、第14図は自
己定位の誤差を説明する。ための図、第15図はこの発
明のロボット移動の様子′を示すフローチャート、第1
6図はサブゴールで自己停止しなかられ動する様子を示
す図、第17図はこの発明による自己定位の動作例を示
すフローチャート、第18図はロボット位置、姿勢の誤
差範囲を説明するための図、第19図は位置、姿勢につ
いての検証の例を示す図、第20図〜第25図は位置、
姿勢の誤差範囲の計算を説明するための図、第26図及
び第27図は画像入力範囲の変更を説明するための図で
ある。 1・・・CCDカメラ、2・・・車輪、3・・・移動ロ
ボット、10・・・イメージセンサ、20・・・環境モ
デル。
FIG. 1 is an external configuration diagram of a mobile robot of the present invention, FIG. 2 is a diagram showing an example of an input image of the environment by an imaging means, and FIG.
The figure is a diagram for explaining the coordinate system of the robot, Figure 4 is a diagram showing an example of the environment in which the robot moves, and Figure 5 is the diagram for explaining the robot's coordinate system.
Figure 6 is a schematic diagram for explaining self-localization, Figure 7 is a diagram for explaining viewpoint constraint, and Figure 8 is a diagram for discretizing viewpoint area and Figure 9 is a diagram for explaining window generation, Figure 9 is a diagram for explaining window composition, Figure 1O is a diagram showing the correspondence of extracted markers, and Figure 11 is a diagram showing how markers are extracted from windows. 12 is a diagram showing an example of a marker in an input image, FIG. 13 is a diagram to explain the principle of calculating the robot's position and orientation, and FIG. 14 is a diagram to explain errors in self-localization. . Figure 15 is a flowchart showing how the robot moves according to the present invention.
Figure 6 is a diagram showing how the robot moves without self-stopping at a subgoal, Figure 17 is a flowchart showing an example of self-localization operation according to the present invention, and Figure 18 is a diagram for explaining the error range of robot position and posture. , FIG. 19 is a diagram showing an example of verification regarding position and orientation, and FIGS. 20 to 25 are positions,
FIGS. 26 and 27 are diagrams for explaining calculation of the posture error range, and diagrams for explaining changing the image input range. DESCRIPTION OF SYMBOLS 1... CCD camera, 2... Wheel, 3... Mobile robot, 10... Image sensor, 20... Environmental model.

Claims (1)

【特許請求の範囲】[Claims] 1、予め障害物の位置を記憶させた環境モデルファイル
を用意し、移動体が所定距離進んだとき、前記移動体に
設けられた移動量検出手段の出力によりその地点を推定
し、その推定地点からある誤差範囲の領域を設定し、そ
の領域内の各点から前記移動体に設けられた撮像手段が
捉えるであろう予測画像を前記環境モデルファイルから
コンピュータグラフィックス手法を用いて生成し、前記
環境モデルの障害物の特徴要素であるマーカが存在する
範囲を求め、前記撮像手段からの入力画像中において前
記求められた範囲内の領域からのみ実際のマーカの抽出
を行ない、前記環境モデルのマーカと抽出されたマーカ
とを対応づけて自己定位を行ない、前記撮像手段の分解
能及びマーカ検出の誤差を考慮して前記自己定位の評価
を行なって誤差範囲を求め直し、次回の推定地点におけ
る誤差範囲の領域設定に利用するようにしたことを特徴
とする移動体の自己定位方法。
1. Prepare an environment model file in which the positions of obstacles are stored in advance, and when the moving object has progressed a predetermined distance, estimate the point based on the output of the movement amount detection means provided on the moving object, and calculate the estimated point. A region with a certain error range is set from the environment model file, and a predicted image that will be captured by the imaging means provided on the moving body is generated from each point within the region using a computer graphics method. The range in which a marker, which is a characteristic element of an obstacle in the environmental model, exists is determined, and the actual marker is extracted only from the region within the determined range in the input image from the imaging means, and the marker of the environmental model is extracted. The self-localization is performed by associating the image with the extracted marker, and the self-localization is evaluated taking into account the resolution of the imaging means and the error of marker detection, and the error range is recalculated, and the error range at the next estimated point is determined. A self-localization method for a moving object, characterized in that it is used for setting an area.
JP1081030A 1989-03-31 1989-03-31 Mobile object self-localization method Expired - Fee Related JP2839282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1081030A JP2839282B2 (en) 1989-03-31 1989-03-31 Mobile object self-localization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1081030A JP2839282B2 (en) 1989-03-31 1989-03-31 Mobile object self-localization method

Publications (2)

Publication Number Publication Date
JPH02259913A true JPH02259913A (en) 1990-10-22
JP2839282B2 JP2839282B2 (en) 1998-12-16

Family

ID=13735069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1081030A Expired - Fee Related JP2839282B2 (en) 1989-03-31 1989-03-31 Mobile object self-localization method

Country Status (1)

Country Link
JP (1) JP2839282B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012086029A1 (en) * 2010-12-22 2012-06-28 株式会社日立製作所 Autonomous movement system
US8600603B2 (en) 2008-12-17 2013-12-03 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8600603B2 (en) 2008-12-17 2013-12-03 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot
WO2012086029A1 (en) * 2010-12-22 2012-06-28 株式会社日立製作所 Autonomous movement system

Also Published As

Publication number Publication date
JP2839282B2 (en) 1998-12-16

Similar Documents

Publication Publication Date Title
US11530924B2 (en) Apparatus and method for updating high definition map for autonomous driving
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
US8588471B2 (en) Method and device of mapping and localization method using the same
KR101956447B1 (en) Method and apparatus for position estimation of unmanned vehicle based on graph structure
US11512975B2 (en) Method of navigating an unmanned vehicle and system thereof
KR101423139B1 (en) Method for localization and mapping using 3D line, and mobile body thereof
JP5016399B2 (en) Map information creation device and autonomous mobile device equipped with the map information creation device
JP2009193240A (en) Mobile robot and method for generating environment map
JP2020064056A (en) Device and method for estimating position
CN112740274A (en) System and method for VSLAM scale estimation on robotic devices using optical flow sensors
TWI772743B (en) Information processing device and mobile robot
Hoang et al. Multi-sensor perceptual system for mobile robot and sensor fusion-based localization
Kim et al. Autonomous mobile robot localization and mapping for unknown construction environments
AU2018439310A1 (en) Method of navigating a vehicle and system thereof
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
Hsu et al. Application of multisensor fusion to develop a personal location and 3D mapping system
Hoang et al. A simplified solution to motion estimation using an omnidirectional camera and a 2-D LRF sensor
JPH02259913A (en) Self normal positioning method for mobile object
JP2839281B2 (en) Mobile object self-localization method
Hoang et al. Proposal of algorithms for navigation and obstacles avoidance of autonomous mobile robot
US11662742B2 (en) Self-position estimation method
CN115836262A (en) Trajectory planning method and motion control method based on images and mobile machine using methods
CN113673462A (en) Logistics AGV positioning method based on lane line
Zeghmi et al. A Kalman-particle hybrid filter for improved localization of AGV in indoor environment

Legal Events

Date Code Title Description
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees