JPS63186308A - Method and device for guiding mobile object - Google Patents
Method and device for guiding mobile objectInfo
- Publication number
- JPS63186308A JPS63186308A JP62017849A JP1784987A JPS63186308A JP S63186308 A JPS63186308 A JP S63186308A JP 62017849 A JP62017849 A JP 62017849A JP 1784987 A JP1784987 A JP 1784987A JP S63186308 A JPS63186308 A JP S63186308A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- map
- distance
- time
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000012545 processing Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 abstract description 10
- 238000006243 chemical reaction Methods 0.000 abstract description 7
- 230000003287 optical effect Effects 0.000 abstract description 4
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 101100065137 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) prt-1 gene Proteins 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 241001385733 Aesculus indica Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、TVカメラ等から入力した画像をもとに生成
される距離情報を用いた移動体の誘導方法、および装置
に関し、特に、移動に伴い変(ヒする距離情報から誘導
に必要な地図を生成する移動体の誘導方法、および装置
に関する。[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a method and device for guiding a moving body using distance information generated based on images input from a TV camera, etc. The present invention relates to a method and apparatus for guiding a moving object, which generates a map necessary for guidance from distance information that changes as the distance changes.
産業用ロボット等の視宜装置において、環境の3次元位
置座標情報を取り込む機能は不可欠であり、また、ロボ
ットの目としては、TVカメラから取り入れた明暗情報
に基づいて画像の解釈を行うもの、スリット光源の折れ
曲がり具合から物体の形状を判定するもの、あるいは、
レーザ光線により、対象物体までの測距を行い、その距
離情報に基づいて物本の認識を行うもの等がある。The function of capturing three-dimensional positional coordinate information of the environment is essential for viewing devices such as industrial robots, and the robot's eyes interpret images based on brightness information obtained from TV cameras. A device that determines the shape of an object based on the degree of bending of a slit light source, or
There are devices that measure the distance to a target object using a laser beam and recognize the object based on the distance information.
例えば、″地図作成型視覚システムの情報処理。For example, ``information processing in cartographic visual systems.
日本ロボット学会誌、1.984年6月、第15頁〜第
23頁″に記載さ小ている方法では、移動体誘導を目的
として外界センサから得られる測距データをもとに地図
を作成している。The method described in Journal of the Robotics Society of Japan, June 1.984, pp. 15-23'' creates a map based on ranging data obtained from external sensors for the purpose of guiding moving objects. are doing.
この方法は、レーザビーム等の外界センサにより得られ
る測距データをもとに、スプライン関数による測距点間
の補間と、過去からの地形情報(地図)とから、刻々と
正確な地図にするように更新していくものである。This method uses distance measurement data obtained from external sensors such as laser beams, interpolation between distance measurement points using a spline function, and past topographical information (map) to create an ever-precise map. It will be updated as follows.
この場合、必要となるのは過去の地形情報に現時点での
測距データを付加するまでの変換量(回転・並進量)で
あり、この方法では、この変換量がエンコーダ等のセン
サにより正しく得られていることも前提としている。In this case, what is required is the amount of conversion (amount of rotation/translation) required to add the current distance measurement data to the past topographical information, and in this method, this amount of conversion can be accurately obtained using a sensor such as an encoder. It is also assumed that
ところが、実際には、この変換量は誤差量が常に付加さ
れるため、時刻がたつにつれ実際の量とかけ離れた値に
なり、蓄積地図が不正確なものになろう
〔発明が解決しようとする問題点〕
上記従来技術では、エンコーダー等による移動体の位置
情報の誤差量について、配慮がなされていなかった。However, in reality, an error amount is always added to this converted amount, so as time passes, the value becomes far different from the actual amount, and the accumulated map becomes inaccurate. Problem] In the above-mentioned conventional technology, no consideration was given to the amount of error in the position information of the moving body by the encoder or the like.
すなわち、移動体の位置情報が正確に得られるという仮
定のもとに、時刻に伴い得られる測距データと、過去の
蓄積地図情報との対応ができることを利用していた。That is, based on the assumption that position information of a moving object can be obtained accurately, the ability to correspond between distance measurement data obtained over time and past accumulated map information has been utilized.
このため、得られた地図の精度に間順があった。For this reason, the accuracy of the obtained maps varied.
本発明の目的は、このような問題点を改善し、エンコー
ダ等の誤差量を含む移動体の位置情報に依存せずに、よ
り正確な移動体の移動量を求め、かつ、時系列的に得ら
れる複数の画像間での対応付けの精度の不安定さに強い
地図生成を行なうことが可能な移動体の誘導方法、およ
び装置を提供することにある。The purpose of the present invention is to improve such problems, to obtain a more accurate movement amount of a moving object without depending on the position information of the moving object including the error amount of the encoder, and to calculate the amount of movement of the moving object in a time-series manner. It is an object of the present invention to provide a method and device for guiding a moving body that can generate a map that is resistant to instability in the accuracy of correspondence between a plurality of images obtained.
上記目的を達成するため、本発明の移動体の誘導方法は
、TVカメラから入力される画像をもとに生成される距
離情報と、各時刻における画像間のマツチング結果とを
用いて、移動体の移動量(回転、並進)を最小2乗法に
より求め、かつ複数の画像間での対応を考慮することで
、その精度を向上させ、各時刻での距離情報を蓄積地図
へ付加していくことに特徴がある。In order to achieve the above object, the moving object guidance method of the present invention uses distance information generated based on images input from a TV camera and matching results between images at each time to guide the moving object. By calculating the amount of movement (rotation, translation) using the least squares method and considering the correspondence between multiple images, we improve the accuracy and add distance information at each time to the stored map. There are characteristics.
また、本発明の移動体の誘導装置は、TVカメラから現
在時刻に入力した原画像と、一時刻前に入力した原画像
とをマツチングする手段(画像間マsノチング部)、各
時刻の入力画像をもとに算出した距這情報と、その原画
像のマツチング結果とを用い、最小2乗法により、その
移動体の移動量を算出する手段(移動量算出部)、およ
び、その移動量ど一時刻前の地図情報とを用いて、地図
更新を行う手段(地図更新部)を備えたことに特徴があ
る。The moving body guidance device of the present invention also includes means for matching an original image inputted from a TV camera at the current time with an original image inputted one time ago (image matching section), and an input at each time. A means for calculating the amount of movement of the moving object by the least squares method using distance information calculated based on the image and the matching result of the original image; It is characterized by having means (map update section) for updating the map using map information from one hour ago.
本発明においては、移動体の視点を原点とする3次元座
標位置として得られる距離画像と、現時刻の画像と一時
刻前の画像とのマツチング処理結果と用いて移動量を算
出し、かつ、時系列的に得られる複数の画像間における
対応を考慮することにより地図生成を行なう。In the present invention, the amount of movement is calculated using a distance image obtained as a three-dimensional coordinate position with the viewpoint of the moving object as the origin, and a matching processing result between an image at the current time and an image one time ago, and Maps are generated by considering the correspondence between multiple images obtained in chronological order.
このため、時刻がたつごとに誤差が重んでいくエンコー
ダ等のセンサを用いた従来の地図更新よりも正確な地図
を生成することができる。For this reason, it is possible to generate a more accurate map than conventional map updating using sensors such as encoders whose errors increase with time.
以下、本発明の一実施例を図面により説明する。 An embodiment of the present invention will be described below with reference to the drawings.
第1図は、本発明の一実施例における移動体誘導装置の
構成図である。FIG. 1 is a configuration diagram of a moving body guiding device in an embodiment of the present invention.
本実施例の移!IJ体誘導装置は、TVカメラ11、画
像入力部12、画像間マツチング部13、距雛画像生成
部14、移動量算出部15、地図更新部1G、地図記憶
部I7、および移動体誘導用コント・ローラ18を備え
、各部については、下記のような構成、および機能を有
する。Transfer of this example! The IJ body guidance device includes a TV camera 11, an image input unit 12, an image matching unit 13, a distance image generation unit 14, a movement amount calculation unit 15, a map update unit 1G, a map storage unit I7, and a moving body guidance control unit. - Equipped with rollers 18, each part has the following configuration and function.
TVカメう11は2台備えられて、実環境を取り込み、
また、画像入力部12は、A/D変換機。Two TV cameras are equipped to capture the real environment.
Further, the image input section 12 is an A/D converter.
イメージメモリ等を備える。Equipped with image memory, etc.
距離画像生成部14は、TV右カメラ1から入力された
画像をもとに距離情報を算出する。この距離情報は、原
画像の画素の1点1点についての距離情報であり、その
距離情報の2次元配列が距灘画像である。The distance image generation unit 14 calculates distance information based on the image input from the TV right camera 1. This distance information is distance information for each pixel of the original image, and a two-dimensional array of this distance information is a distance image.
なお、二の算出方法については、特願昭59−237G
OQ号に記載されている方法と同様であり、左右のカメ
ラから入力される2枚の画像から距離を生成するつ
画像間マツチング部13は、時刻毎に入力される画像間
の対応を取る。Regarding the second calculation method, please refer to the patent application No. 59-237G.
This method is similar to the method described in No. OQ, and the inter-image matching unit 13 generates a distance from two images input from the left and right cameras, and takes correspondence between images input at each time.
移動量算出部15は、距離画像生成部14と画像間マコ
ノチング部13との出力結果を用いて、移動体の移動量
を算出する。The movement amount calculating section 15 calculates the movement amount of the moving object using the output results of the distance image generation section 14 and the inter-image makonoting section 13.
地図更新部16は、移動量算出部15が算出した移動量
を用いて、各時刻において距離画賑から得られる距離情
報、つまり、空間位置座標を変換し、地図記憶部17に
蓄積された地図に付加する。The map update unit 16 converts the distance information obtained from the distance image crowd at each time using the movement amount calculated by the movement amount calculation unit 15, that is, the spatial position coordinates, and updates the map stored in the map storage unit 17. Add to.
移動体誘導用コントローラ18は、生成された地図情報
を用いて移動体の誘導経路等を算出する。The mobile object guidance controller 18 uses the generated map information to calculate a guidance route for the mobile object.
以上のような構成の移動体誘導装置により、移動体の正
確な移動量を得て、地図更新、および蓄積を行い、移動
体を誘導する。The moving object guidance device configured as described above obtains the accurate movement distance of the moving object, updates and stores the map, and guides the moving object.
第3図は、本発明の一実施例における移動環境設定の説
明図である。FIG. 3 is an explanatory diagram of mobile environment settings in one embodiment of the present invention.
本実施例の移動体誘導装置において、時刻tにおける移
動体の動作環境を設定する場合、(i)が示す平面図の
ように、綱長い、廊下の右奥、および真中に、棚、およ
び障害物となる箱が置かれた空間を動作環境として設定
する。なお、点し 、点T−−1、および矢線は、それ
ぞれ、現時刻の移動体の位置、一時刻前の位置、および
視線を示す。In the moving object guidance device of this embodiment, when setting the operating environment of the moving object at time t, as shown in the plan view (i), there are a long rope, a shelf at the back right of the hallway, a shelf, and an obstacle. The space where the object box is placed is set as the operating environment. Note that the dot , the point T--1, and the arrow indicate the position of the moving object at the current time, the position one time ago, and the line of sight, respectively.
また、点し において得られた原画像は、(11)のよ
うに示されろう
さらに、現時刻における各画素と、一時刻前における各
画素との対応を求め、(山)のように、各画素がどの方
向に移動したかを算出する。In addition, the original image obtained by dotting will be shown as shown in (11).Furthermore, find the correspondence between each pixel at the current time and each pixel at one time ago, and form each pixel like (a mountain). Calculate in which direction the pixel has moved.
第2図は、本発明の一実施例における地図更新処理フロ
ーチャート、第4図は本発明の一実施例における各時刻
の座標系を示す説明図、第5図は本発明の一実施例の移
動体誘導装置が生成した地図側図である5
第2図、および第3図のように、時刻tにおけるLI!
1図更新処理の過程については、まず、現時刻tでTV
右カメラ1から入力した左右画像PL(t)、およびP
R(t)を用い(200)、距離情報を距離画像生成部
14において算出する(201)。FIG. 2 is a map update processing flowchart in one embodiment of the present invention, FIG. 4 is an explanatory diagram showing the coordinate system at each time in one embodiment of the present invention, and FIG. 5 is a movement diagram in one embodiment of the present invention. As shown in FIG. 2 and FIG. 3, which are side views of the map generated by the body guidance device, LI!
Regarding the process of update processing in Figure 1, first, at the current time t, the TV
Left and right images PL(t) input from right camera 1, and P
Using R(t) (200), distance information is calculated in the distance image generation unit 14 (201).
なお、この場合の測定基準は入力された左右画像の中、
右画像を中心として算出する。In this case, the measurement standard is the input left and right images,
Calculate centering on the right image.
その算出結果は、各画素が示す実空間上の3次元位置を
、視点を原点とする座標系により表現したものである。The calculation result represents the three-dimensional position in real space indicated by each pixel using a coordinate system with the viewpoint as the origin.
すなわち、原画像PR(t)内の画素P(it J)に
対し、それらの画素の1点1点についての距離情報の2
次元配列である距離画像D(t)により、その画素が示
す空間座標(x+ ’It 7)を得ることがでさ、P
R(J:9P (l、J )l−+(x、y r z
)εD(t)と表わされる。That is, for each pixel P(it J) in the original image PR(t), the distance information 2 for each pixel is
Using the distance image D(t), which is a dimensional array, it is possible to obtain the spatial coordinate (x+'It 7) indicated by the pixel, P
R(J:9P (l, J)l−+(x, y r z
)εD(t).
次に、画像間マツチング部13において、一時刻前を示
す時刻t−1における原画PR(t−1)と、現時刻t
における原画PR(t)との対応を求める(202)。Next, in the inter-image matching unit 13, the original image PR (t-1) at time t-1, which is one hour ago, and the current time t
The correspondence with the original picture PR(t) is determined (202).
すなわち、原画PR(t−1)の各画素が、現時刻すの
原画PR(t)内のどの画素に対応しているかを探索す
る処理を行う。That is, a process is performed to search to which pixel in the original picture PR(t) at the current time each pixel of the original picture PR(t-1) corresponds.
なお、その探索については、″アーティフィシャル・イ
ンテリジェンス17.1981年、第185頁〜203
頁(Artificjal Tntelligenc
e、Vnl。Regarding the search, please refer to "Artificial Intelligence 17. 1981, pp. 185-203.
Page (Artificjal Tntelligenc
e, Vnl.
17.1981.、pp185〜203)”に記載され
ているLl Orn and S chunckの
オプティカル・フローアルゴリズムを用いる。この方法
では、2つの原画像において、各画素の濃淡情報が一致
する方向を見て、各画素がどの方向に移動したのかを算
出する。17.1981. , pp. 185-203)" is used. In this method, in the two original images, each pixel is Calculate which direction it moved.
こうして算出されたオプティカル・フローパタンは第3
図(iii )に示され、各矢印はPR(t−1)の各
画素が、PR(t)のどの画素位置に対応しているかを
示す。The optical flow pattern calculated in this way is the third
As shown in Figure (iii), each arrow indicates which pixel position in PR(t) each pixel of PR(t-1) corresponds to.
これらの2つの処理、つまり、距離画像生成と画像間の
マツチングとを実行すると、さらに、移動量算出部15
において、移動量算出処理を行う(203L
この場合、時刻t−1の原画PR(t−1)内の点P’
−” (+ l J)には、この時刻における視点を
原点とする座標系における3次元位@ p ’Cr −
1(x、 y’+ z)が対応する。When these two processes, that is, distance image generation and matching between images, are executed, the movement amount calculation unit 15
At 203L, a movement amount calculation process is performed (203L). In this case, a point P' in the original image PR (t-1) at time t-1
−” (+ l J) is the three-dimensional position @ p 'Cr − in the coordinate system whose origin is the viewpoint at this time.
1(x, y'+z) corresponds.
また、P’−1(i l J)が時刻tの原画PR(t
)内のどの点に対応しているかは、画像間マツチング処
理の緒果により、その点に対応する点までの移動量が、
例えば、(ul、 (i、 j L vt、 l、 j
))というベクトル量として得られるため、Pt(i
+++6 (+ l JLj+V、(+ ; j))と
いう点であることがわかる
さらに、この点ptに対する実空間の位置座標は、この
時刻tの視点を原点とする座標系でP(xl、y′、y
′)と得られている。Also, P'-1(i l J) is the original picture PR(t
) The distance to which the point corresponds depends on the result of the inter-image matching process.
For example, (ul, (i, j L vt, l, j
)), so Pt(i
+++6 (+ l JLj+V, (+ ; j)) Moreover, the position coordinates of this point pt in real space are P(xl, y' ,y
′) is obtained.
そこで、この位置情報をもとに移動量(回転量。Therefore, based on this position information, we calculate the amount of movement (amount of rotation).
#L進量)を次のようにL7て求める。#L base quantity) is obtained by L7 as follows.
すなわち、第4図のように、時刻t−1における座標系
0t−1−Xカー1、■、−1、z’o −1ニ対して
、 X、 + 、軸、Y6−1I!It、 Zb−II
IIの各々に対する回転量をα、β、γとし、並進量を
ΔX、Δy、ΔLとすると、微小時間においては、P
−” +(Q、x ptl −” +V)ニよIJ
定* ロA カP”に対応する点である。That is, as shown in FIG. 4, for the coordinate system 0t-1-Xcar1, -1, z'o-1 at time t-1, X, +, axis, Y6-1I! It, Zb-II
If the rotation amounts for each of II are α, β, and γ, and the translation amounts are ΔX, Δy, and ΔL, in a minute time, P
−” +(Q, x ptl −” +V) Niyo IJ
This is the point corresponding to the point * RO A KA P”.
但し、V=(ΔX、Δy、Δl)であり、へ=(α、β
、γ)である。However, V = (ΔX, Δy, Δl), and to = (α, β
, γ).
そこで、未知量Q、およびVを次のように最小2乗法に
より求める。Therefore, the unknown quantities Q and V are determined by the method of least squares as follows.
まず、この移動量0、およびVを求める上で、対象とす
る点として、距雇画微算出において精度がよくかつ、オ
プティカル・フローの信頼性が高い部分である点、つま
り、明るさの2次微分値が0である点を用いる。First, in calculating the amount of movement 0 and V, the target point is a point that has good accuracy in distance image calculation and high reliability of optical flow, that is, a point with a brightness of 2. A point where the order differential value is 0 is used.
それらの点で、時刻t−1の対象とする点の集合を、
(PH−’ (x、y、z): 4.= 1. ・・
・。From those points, the set of points targeted at time t-1 is
(PH-' (x, y, z): 4.= 1....
・.
n)とし、対応する時刻セの点の集合を、(P4(x’
Iy’ Hz’ ): =’r・・・+n)とする
と、E= u 1+ p茎−(P+に:’+Ω×PR−
1+v)I2という相
式で示される量Eが最小となるときのa、および■を求
める。n), and the set of points at the corresponding time C is (P4(x'
Iy'Hz'):='r...+n), then E= u 1+ p stem-(P+:'+Ω×PR-
1+v) Find a and ■ when the quantity E shown by the phase equation I2 is minimum.
なお、■・Uはノルムであり、その式を、Pλ(x’
、y’ 、y、’ )、P4 (X4 v ykl 7
4 )、Q、=(α、β、γ)、V=(△X、Δy、△
Z)として具体的に表現すると、
E=Σ[(x4−(x4+β・vh−γ・y++ΔX)
)2丸
+(yに−(隙+γ・Xゑ一α・7遥+Δy))2+(
イー(唖+α・f−β・輛+△z))2]となる。Note that ■・U is the norm, and its formula can be written as Pλ(x'
, y' , y,' ), P4 (X4 v ykl 7
4), Q, = (α, β, γ), V = (△X, Δy, △
Specifically expressed as Z), E=Σ[(x4-(x4+β・vh-γ・y++ΔX)
) 2 circles + (to y - (gap + γ・X eichi α・7 Haruka + Δy)) 2 + (
Yi(唖+α・f−β・輛+△z))2].
こうして求めたQ、およびVをもとに、過去蓄積地図情
報、つまり、点座標を現在座標系へ変換するか、または
、逆に初期時刻1=0における座標系をワールド座標系
として、各時刻における点座標を変換する。Based on Q and V obtained in this way, the past accumulated map information, that is, the point coordinates, can be converted to the current coordinate system, or conversely, the coordinate system at the initial time 1 = 0 is used as the world coordinate system, and each time Transform the point coordinates in .
すなわち、時刻t−1からむへの変換量Ω、および■の
組をAt−t=(Ω、V)とおくと、嗅=へウ−1−P
f/!、(危=1.・・・、n)という関係があること
から、現有時刻tにおける地図MうをMf、=At、−
1 ・Mカー1+D(ヒ)として定める。In other words, if we set At-t=(Ω, V) as the amount of conversion Ω from time t-1 to Mu, and ■, then smell=Heu-1-P
f/! , (danger = 1...., n), the map M at the current time t is Mf, = At, -
1 ・Defined as M car 1 + D (hi).
この式の意味は、時刻t−1の地図M6−1に記憶され
ている全ての点を、変換aAf、−1により変換し、時
刻tに得られた空間点の集合D(t)を加えた点の集合
を、現時刻tの地図Mとすることを示している。The meaning of this formula is that all points stored in the map M6-1 at time t-1 are transformed by transformation aAf,-1, and the set D(t) of spatial points obtained at time t is added. This indicates that the set of points obtained is the map M at the current time t.
低し、変換量Aも−0は、ある関値δを定めて、ち
il PA −At、−I P、e、 l >δ(i=
1. ・・・、n)なる対、心意P!、および、X−t
を除外するようにして再度求め直すことにより、正確さ
を増すようにしておいてもよい。If the conversion amount A is -0, a certain function value δ is determined, and il PA −At, −I P, e, l > δ(i=
1. ..., n) Naru vs. Mindfulness P! , and X-t
Accuracy may be increased by recalculating by excluding .
さらに、変換量Atの精度を上るため、例えば、移動体
の進行方向(TV力、メラの向き)を右へ変えるという
ような急激な変化を除き、n回分の画像に渡って対応す
る点の組を用いて、変換量を修正していくこともできろ
う
すなわち、あるf直δ′を定めて、IIP/、 −A
”pt−nll〉δ′という条件を満足する対応売
点Pえ 、およびpt−nを除いて、変換量A来意
兎
を再構成する。Furthermore, in order to improve the accuracy of the conversion amount At, for example, excluding sudden changes such as changing the moving direction of the moving object (TV force, direction of the camera) to the right, the corresponding points are calculated over n images. It is also possible to modify the amount of transformation using the set, that is, by determining a certain f direction δ′,
The conversion amount A is reconstructed by excluding the corresponding selling points P and pt-n that satisfy the condition "pt-nll>δ'.
但し、も=1.・・・・、n′であり、A′ミA、−□
。However, also=1. ..., n', and A'mi A, -□
.
At−2,・・・・+At+−nである。At-2,...+At+-n.
このようにして、再構成した変換量により、距離画像の
精度、および画像間マツチングの精度に不安定さがあっ
ても、移動体誘導に必要な立体的な地図が、第5図のよ
うに、点の集合として構成され、記憶される(204,
205)。In this way, even if the accuracy of the range image and the accuracy of matching between images are unstable, the three-dimensional map necessary for guiding moving objects can be created by the reconstructed transformation amount as shown in Figure 5. , is constructed and stored as a set of points (204,
205).
本発明によれば、現時刻の距離画像と、現時刻の原画像
と一時刻前の原画像とのマツチング結果とを用いること
により、移動体の移動量を求めるため、誤差量が常に伴
うエンコーダ等の位置情報を用いた地図生成に比軟して
、より正確な地図を生成することができる、
また、3次元空間座標として得ることができる距離画像
を用いることにより、生成される地図は立体的に記述す
ることができる。According to the present invention, the amount of movement of a moving object is determined by using a distance image at the current time and the matching result between the original image at the current time and the original image one time ago, so an encoder that always has an error amount is used. It is possible to generate more accurate maps compared to map generation using positional information such as can be described in terms of
さらに、時刻毎に集まる移動量を複数の画像に渡って修
正し、地図生成を行うことにより、各時刻毎に得られる
距離画像と画像間対応付けの精度との不安定さに強い地
図生成を行うことができる。Furthermore, by correcting the amount of movement gathered at each time across multiple images and generating a map, we can generate a map that is resistant to instability in the accuracy of distance images obtained at each time and the accuracy of the correspondence between images. It can be carried out.
第1図は本発明の一実施例における移動体誘導装置の構
成図、第2図は本発明の一実施例における地図更新処理
フローチャート、第3図は本発明の一実施例における移
動環境設定の説明図、第4図は本発明の一実施例におけ
る各時刻の座標系を示す説明図、第5図は本発明の一実
施例の移動体誘導装置が生成した地図同図である。
+]:TVカメラ、12:画像入力部、13:画像間マ
ツチング部、14;距離画像生成部、15:移動量算出
部216:地図更新部、17:地図記憶部、18:移動
体誘導用コントローラ、r−ヵ。
T−t、−t:移動体の位置、P:画素、rt、β、γ
:回転量、△X、Δy、ΔZ:並進量、O,Of、、O
g−1:移動体の視点(原点L Xf、 r ”b r
zt l Xt −1+”+、−1t Z+J−、、
x、v、Z :座標軸。
第 1 図
第 2 図
第 3 図
(iiJ
(iil)第 4 図
tlFIG. 1 is a block diagram of a moving object guidance device in an embodiment of the present invention, FIG. 2 is a flowchart of a map update process in an embodiment of the present invention, and FIG. 3 is a flowchart of a moving environment setting in an embodiment of the present invention. An explanatory diagram, FIG. 4 is an explanatory diagram showing a coordinate system at each time in an embodiment of the present invention, and FIG. 5 is a map generated by a moving body guiding device according to an embodiment of the present invention. +]: TV camera, 12: Image input unit, 13: Image matching unit, 14: Distance image generation unit, 15: Movement amount calculation unit 216: Map update unit, 17: Map storage unit, 18: For guiding moving objects Controller, r-ca. T-t, -t: position of moving object, P: pixel, rt, β, γ
: Rotation amount, △X, Δy, ΔZ: Translation amount, O, Of, , O
g-1: Viewpoint of moving object (origin L
zt l Xt −1+”+, −1t Z+J−,,
x, v, Z: coordinate axes. Figure 1 Figure 2 Figure 3 (iiJ
(iii) Figure 4 tl
Claims (1)
らの入力画像をもとに、距離を計測して距離情報を算出
し、該距離情報をもとに移動環境を地図として生成し、
該生成地図を蓄積する移動体の誘導方法において、現在
時刻に入力された原画像と一時刻前に入力された原画像
とをマッチングし、該マッチング処理結果と一時刻前の
記憶地図情報とから、該移動体の移動量を、時刻間の距
離情報に対して最小2乗法を用いて求め、各時刻毎の移
動量について、複数枚の画像間で対応をとり、地図更新
を行なうことを特徴とする移動体の誘導方法。 2、複数のTVカメラと、該TVカメラからの入力画像
をもとに距離を計測して、距離情報を算出する手段と、
該距離情報をもとに移動環境を地図として生成する処理
を行う手段と、該生成地図を蓄積する手段とを備え、移
動環境に関する事前知識を持たない移動体の誘導装置に
おいて、現在時刻に入力した原画像と、一時刻前に入力
した原画像とをマッチングする手段、各時刻で得られた
該距離情報と、該マッチング結果とを用い、上記移動体
の移動量を、時刻間の距離情報に対し、最小2乗法によ
り求める手段、および、該移動量と上記蓄積手段に蓄積
された一時刻前の地図情報とを用いて、地図更新を行う
手段を備えたことを特徴とする移動体の誘導装置。[Claims] 1. Measure distance and calculate distance information based on input images from a TV camera without having prior knowledge of the moving environment, and map the moving environment based on the distance information. generate as,
In the method for guiding a mobile object that stores the generated map, an original image input at the current time is matched with an original image input one hour ago, and the matching processing result is used from the stored map information one hour ago. , the amount of movement of the moving object is determined using the least squares method on distance information between times, and the map is updated by comparing the amount of movement at each time between multiple images. A method for guiding a moving object. 2. A plurality of TV cameras and means for calculating distance information by measuring distance based on input images from the TV cameras;
In a guidance device for a moving object having no prior knowledge of the moving environment, the device includes means for generating a map of the moving environment based on the distance information, and means for accumulating the generated map, and inputs the current time. Means for matching the original image inputted one time ago with the original image input one time ago, and using the distance information obtained at each time and the matching result, the amount of movement of the moving object is determined by distance information between times. A mobile object characterized in that it is equipped with means for calculating by least squares method, and means for updating a map using the amount of movement and map information stored one time ago in the storage means. Guidance device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62017849A JPS63186308A (en) | 1987-01-28 | 1987-01-28 | Method and device for guiding mobile object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62017849A JPS63186308A (en) | 1987-01-28 | 1987-01-28 | Method and device for guiding mobile object |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63186308A true JPS63186308A (en) | 1988-08-01 |
Family
ID=11955106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62017849A Pending JPS63186308A (en) | 1987-01-28 | 1987-01-28 | Method and device for guiding mobile object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63186308A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004133567A (en) * | 2002-10-09 | 2004-04-30 | Hitachi Ltd | Mobile object and its position detector |
WO2007069726A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Self-position identifying method and device, and three-dimensional shape measurement method and device |
WO2007069721A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device |
WO2007069724A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data aligning method and device |
WO2016157428A1 (en) * | 2015-03-31 | 2016-10-06 | パイオニア株式会社 | Measurement device, measurement method, and program |
WO2016189898A1 (en) * | 2015-05-22 | 2016-12-01 | 富士フイルム株式会社 | Robot device and movement control method for robot device |
WO2016189896A1 (en) * | 2015-05-22 | 2016-12-01 | 富士フイルム株式会社 | Robot device and movement control method for robot device |
-
1987
- 1987-01-28 JP JP62017849A patent/JPS63186308A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004133567A (en) * | 2002-10-09 | 2004-04-30 | Hitachi Ltd | Mobile object and its position detector |
WO2007069726A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Self-position identifying method and device, and three-dimensional shape measurement method and device |
WO2007069721A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device |
WO2007069724A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data aligning method and device |
JPWO2007069721A1 (en) * | 2005-12-16 | 2009-05-28 | 株式会社Ihi | 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus |
JPWO2007069726A1 (en) * | 2005-12-16 | 2009-05-28 | 株式会社Ihi | Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus |
JPWO2007069724A1 (en) * | 2005-12-16 | 2009-05-28 | 株式会社Ihi | Method and apparatus for aligning 3D shape data |
JP4650751B2 (en) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | Method and apparatus for aligning 3D shape data |
JP4650752B2 (en) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus |
JP4650750B2 (en) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus |
US8116558B2 (en) | 2005-12-16 | 2012-02-14 | Ihi Corporation | Three-dimensional shape data position matching method and device |
US8121399B2 (en) | 2005-12-16 | 2012-02-21 | Ihi Corporation | Self-position identifying method and device, and three-dimensional shape measuring method and device |
US8300048B2 (en) | 2005-12-16 | 2012-10-30 | Ihi Corporation | Three-dimensional shape data recording/display method and device, and three-dimensional shape measuring method and device |
WO2016157428A1 (en) * | 2015-03-31 | 2016-10-06 | パイオニア株式会社 | Measurement device, measurement method, and program |
WO2016189898A1 (en) * | 2015-05-22 | 2016-12-01 | 富士フイルム株式会社 | Robot device and movement control method for robot device |
WO2016189896A1 (en) * | 2015-05-22 | 2016-12-01 | 富士フイルム株式会社 | Robot device and movement control method for robot device |
JPWO2016189896A1 (en) * | 2015-05-22 | 2018-02-15 | 富士フイルム株式会社 | Robot apparatus and movement control method of robot apparatus |
US10877475B2 (en) | 2015-05-22 | 2020-12-29 | Fujifilm Corporation | Robot device and method of controlling movement of robot device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3679549B1 (en) | Visual-inertial odometry with an event camera | |
Burschka et al. | Vision-based control of mobile robots | |
Gracias et al. | Mosaic-based navigation for autonomous underwater vehicles | |
Roumeliotis et al. | Distributed multirobot localization | |
TWI827649B (en) | Apparatuses, systems and methods for vslam scale estimation | |
RU2661964C2 (en) | Method for automatic formation of smooth movement trajectories of a mobile robot in unknown environment | |
JPS63186308A (en) | Method and device for guiding mobile object | |
Wunsche | Detection and control of mobile robot motion by real-time computer vision | |
Tsuji et al. | Dynamic scene analysis for a mobile robot in a man-made environment | |
Lang et al. | Developments in visual servoing for mobile manipulation | |
JP3512894B2 (en) | Relative moving amount calculating apparatus and relative moving amount calculating method | |
Kröse et al. | Heading direction of a mobile robot from the optical flow | |
JP2023015634A (en) | Information processing apparatus, moving object control system, information processing method, and program | |
D'Orazio et al. | Mobile robot navigation by multi-sensory integration | |
Leng et al. | An improved method for odometry estimation based on EKF and Temporal Convolutional Network | |
KR100703882B1 (en) | Mobile robot capable of pose sensing with a single camera and method thereof | |
Cao et al. | Omnidirectional dynamic vision positioning for a mobile robot | |
Rocchi et al. | A Practical Vision-Aided Multi-Robot Autonomous Navigation using Convolutional Neural Network | |
Chen et al. | Using multiple view geometry within extended Kalman filter framework for simultaneous localization and map-building | |
Medeiros et al. | UAV target-selection: 3D pointing interface system for large-scale environment | |
Sogo et al. | Mobile robot navigation by a distributed vision system | |
JP2001266129A (en) | Navigation controller by picture of navigation body and navigation control method | |
Kozlov et al. | Development of an Autonomous Robotic System Using the Graph-based SPLAM Algorithm | |
Yadav et al. | Overview of Optical Flow Technique for Mobile Robot Obstacle Avoidance | |
JPH0453266B2 (en) |