JPH01140014A - Estimating method of state of moving body - Google Patents

Estimating method of state of moving body

Info

Publication number
JPH01140014A
JPH01140014A JP29757187A JP29757187A JPH01140014A JP H01140014 A JPH01140014 A JP H01140014A JP 29757187 A JP29757187 A JP 29757187A JP 29757187 A JP29757187 A JP 29757187A JP H01140014 A JPH01140014 A JP H01140014A
Authority
JP
Japan
Prior art keywords
image
map
coordinates
memory
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP29757187A
Other languages
Japanese (ja)
Inventor
Fuminobu Furumura
文伸 古村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP29757187A priority Critical patent/JPH01140014A/en
Publication of JPH01140014A publication Critical patent/JPH01140014A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Abstract

PURPOSE:To enable the easy execution of collating a distorted observed image obtained by a sensor of a moving body making an arbitrary motion, with a map, and also making said image correspond to the map, by producing a map image from map data in accordance with prior information on the position and attitude of the moving body. CONSTITUTION:Sensed image data loaded from a sensor 1 mounted on a moving body are stored in an image memory and displayed simultaneously. Data processing device CPU 5 executes a process of estimating the position and attitude of the moving body. From the map data in a memory 6 and prior information 7 on the position and attitude of the moving body stored in the memory, a map image having distortion corresponding to an image sensed by the sensor 1 set in the state conforming to said prior information 7 is generated, and it is stored in the memory 2 and displayed 3. Next, the coordinates in an image of a characteristic point indicated by a user on the image displayed 3 are fetched, and parameters regarding the position and the posture are estimated from the coordinates, map coordinates of a corresponding point in the map data 6 and the prior information 7. The prior information 7 is updated by the values of the parameters, while the updated information is outputted outside 8 for control and operation of the moving body.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は移動体搭載センサによる画像の処理に係り、特
に移動体の位置・姿勢をリアルタイムに推定するのに好
適なマンマシン表示・処理方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to image processing by a sensor mounted on a moving object, and in particular to a man-machine display/processing method suitable for estimating the position and orientation of a moving object in real time. Regarding.

〔従来の技術〕[Conventional technology]

移動体に搭載したセンサによる撮影画像中の特徴点の位
置と、その特徴点の3次元空間における座標すなわち地
図座標から画像撮影時の移動体の運動状態すなわち3次
元空間における位置および姿勢を推定する方法は標定と
呼ばれ従来から知られている。その方法は例えば特願昭
60−195849に記載されている。
Estimating the motion state of the moving object at the time of image capture, that is, the position and orientation in three-dimensional space, from the position of a feature point in an image captured by a sensor mounted on the moving object and the coordinates of the feature point in three-dimensional space, that is, map coordinates. The method is called orientation and has been known for a long time. The method is described, for example, in Japanese Patent Application No. 60-195849.

上記従来技術は、地球観測衛星の撮影画像の歪補正を目
的として、衛星の軌道・姿勢のパラメータを、衛星セン
サによる撮影の幾何学的モデルにもとづき、特徴点の像
位置と地図座標から最小2乗法により推定するものであ
る。地球観測衛星の場合は、衛星の軌道・姿勢を一定と
する制御がなされるため撮影画像の形状歪は比較的小さ
く、同一地域について撮影画像の歪が近似的に再現性を
持つ特徴がある。また処理も通常オフラインのバッチ処
理として行なわれる。この場合上記推定処理の入力とし
て必要な、特徴点の画像中の位置の検出は次のいずれか
の方法により行なわれている。
The above-mentioned conventional technology, for the purpose of correcting distortion of images taken by earth observation satellites, calculates the parameters of the orbit and attitude of the satellite by a minimum of It is estimated by multiplication. In the case of earth observation satellites, the orbit and attitude of the satellite are controlled to be constant, so the shape distortion of captured images is relatively small, and the distortion of captured images is approximately reproducible for the same area. Processing is also normally performed as offline batch processing. In this case, the position of the feature point in the image, which is necessary as an input for the estimation process, is detected by one of the following methods.

(1)該当特徴点の緯度、経度、高度をあらかじめ地図
より読み取っておく、さらに地図の該当箇所と、事前に
撮影された同一地域の衛星画像の写真あるいは航空写真
から該当箇所を切り抜いたものとをアルバムとして用意
しておく、衛星画像を処理するために推定処理を行なう
際に、オペレータは上述のアルバムを参考にして、デイ
スプレィ表示された処理対象画像から特徴点の画素座標
を読み取る。
(1) Read the latitude, longitude, and altitude of the relevant feature point from the map in advance, and then cut out the relevant location from the map and a satellite image photograph or aerial photograph of the same area taken in advance. is prepared as an album. When performing estimation processing to process satellite images, the operator refers to the above-mentioned album and reads the pixel coordinates of feature points from the image to be processed displayed on the display.

(2)事前に撮影された同一地域の衛星画像から該当特
徴点を中心とする小画像片(例えば32X32画素の寸
法)を切り出し、地図から読み取った緯度、経度、高度
と共にファイルに収納しておく。衛星画像を処理するた
め推定処理を行なう際に、注目特徴点に対応する小画像
片を上記ファイルから読み出し、画像片と撮影画像との
相関により対応点を求め。
(2) Cut out a small image piece (for example, 32 x 32 pixels) centered on the relevant feature point from a satellite image of the same area taken in advance and store it in a file along with the latitude, longitude, and altitude read from the map. . When performing estimation processing to process a satellite image, a small image piece corresponding to the feature point of interest is read from the above file, and corresponding points are determined by correlation between the image piece and the photographed image.

その画素座標を読み出す。Read out the pixel coordinates.

〔発明が解決しようとする間頭点〕[The problem that the invention is trying to solve]

上記従来技術は、地球観測衛星の画像のように画像の基
慴地図に対する歪が比較的小さく、また歪に再現性があ
ることを前提としている。これに対し、一般の移動体で
は任意の経路、姿勢をとり得るので歪は再現性がなく、
また大きくなる場合がある。また移動体の誘導・制御に
利用するため状態推定にリアルタイム処理が要求される
。そこで予め用意した固定的な画像や地図と観測画像を
対応づける上記方法では、移動体の運動により歪が変化
するR側画像との対応が困混であるという問題がある。
The above-mentioned conventional technology is based on the premise that the distortion of the image with respect to the base map, such as the image of an earth observation satellite, is relatively small and that the distortion is reproducible. On the other hand, general moving objects can take any desired path and posture, so distortion is not reproducible.
It may also become larger. In addition, real-time processing is required for state estimation in order to use it for guiding and controlling moving objects. Therefore, in the above-mentioned method of associating a fixed image or map prepared in advance with an observed image, there is a problem that it is difficult to correspond to the R-side image whose distortion changes due to the movement of the moving object.

したがって本発明の第1の目的は、任意の運動をする移
動体に搭載したセンサによる歪んだJl!?I1g画像
と地図との照合、対応づけを容易にする手段を提供する
ことにある。
Therefore, the first object of the present invention is to obtain distorted Jl! ? The object of the present invention is to provide a means for easily collating and associating an I1g image with a map.

従来技術の第2の問題点は、観測画像中に、地°図上の
位置座標が既知の基準となる特徴点が少ない時に推定精
度が低下する、さらに基準点がない時推定ができないこ
とである。これに対し観測画像中に、地図上の位置が既
知の基準となる特徴的な線状物がある場合があるが、従
来技術ではこの特徴線の位置情報を推定に利用すること
ができない、したがって本発明の第2の目的は、画像中
の特徴線を移動体の状態推定に用いることにより、推定
精度を高める手段を提供することにある。
The second problem with the conventional technology is that the estimation accuracy decreases when there are few feature points in the observed image that serve as references whose position coordinates on the map are known, and furthermore, estimation cannot be performed when there are no reference points. be. On the other hand, although there may be a characteristic linear object in the observed image that serves as a reference whose position on the map is known, the conventional technology cannot use the position information of this characteristic line for estimation. A second object of the present invention is to provide a means for improving estimation accuracy by using characteristic lines in an image to estimate the state of a moving object.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的の第1は、移動体に搭載されたセンサと1画像
メモリと、地図データメモリと、移動体の位置・姿勢に
関する先験情報を格納するモメリと、データ処理装置と
1画像表示装置と、画像座標入力装置とより成る画像処
理システムにおいて、画像表示装置に表示されたセンサ
画像の中から人間が画像座標入力装置により指示した地
図上の座標が既知な特徴点の画像座標から、データ処理
装置に移動体の位置・姿勢を推定させる際、移動体の位
置・姿勢に関する先験情報に従い地図データから歪んだ
地図画像を生成し1表示装置にセンサ画像と同時に表示
することにより、達成される。
The first of the above objectives is to combine a sensor mounted on a moving object, an image memory, a map data memory, a memory that stores a priori information regarding the position and orientation of the moving object, a data processing device, and an image display device. In an image processing system comprising an image coordinate input device, data processing is performed from the image coordinates of a feature point whose coordinates on a map are known, which is indicated by a human using the image coordinate input device from among the sensor images displayed on the image display device. When a device estimates the position and orientation of a moving object, this is achieved by generating a distorted map image from map data according to a priori information regarding the position and orientation of the moving object and displaying it on a display device simultaneously with the sensor image. .

また上記目的の第2は、前記移動体の位置・姿勢の推定
において地図上の座標が既知な特徴点の画像座標に加え
て、あるいはその代りに、地図上の位置が既知なほぼ特
徴的線分の画像中の位置を用いることにより、達成され
る。
The second objective is to estimate the position and orientation of the moving body by using almost characteristic lines whose positions on the map are known, in addition to or in place of the image coordinates of feature points whose coordinates on the map are known. This is achieved by using the position in the image of minutes.

〔作用〕[Effect]

データ処理装置は移動体の位置・姿勢に関する先験情報
に従い、メモリに格納された地図データから移動体搭載
のセンサの撮影画像に近い歪を持つ地図画像を生成し、
画像表示装置にセンサ画像と同時に表示する。それによ
って、人間は2つの画像の表示を見て地図と撮影画像の
対応づけが容易になるので1画像中の特徴点の位置を画
像座標入力装置から入力することが容易になる。
The data processing device generates a map image having a distortion close to the image captured by the sensor mounted on the mobile object from the map data stored in the memory according to a priori information regarding the position and orientation of the mobile object,
Displayed simultaneously with the sensor image on the image display device. This makes it easy for a person to associate the map and the photographed image by looking at the display of the two images, making it easy for a person to input the position of a feature point in one image from the image coordinate input device.

また地図上の座標が既知な特徴点に加えて、地図上の位
置が既知の特徴的な線分の撮影画像中の座標を移動体の
位置・姿勢の推定に用いることができる。それによって
、特徴点の数が小さいあるいは特徴点が無くても、特徴
的な線分が画像中にある場合に推定の精度を高めること
ができる。
In addition to feature points whose coordinates on the map are known, the coordinates of characteristic line segments whose positions on the map are known can be used in the photographed image to estimate the position and orientation of the moving object. Thereby, even if the number of feature points is small or there are no feature points, the accuracy of estimation can be improved when a characteristic line segment is present in the image.

〔実施例〕〔Example〕

以下1本発明の一実施例を図を用いて説明する。 An embodiment of the present invention will be described below with reference to the drawings.

第1図は、本発明による画像処理システムの全体構成図
である。移動体に搭載されたセンサ1から取り込まれた
撮影画像データは、画像メモリ2に蓄えられると同時に
、画像表示装置3に表示される。データ処理装置5は第
2図に示す手順に従い移動体の位置・姿勢の推定処理を
行なう。まずメモリ6に蓄えられた地図データとメモリ
7に蓄えられた移動体の位置・姿勢に関する先験情報と
から、該先験情報に従う状態にある移動に搭載されたセ
ンサの撮影画像に対応した歪を持つ地図画像の生成20
を行ない、その地図画像のメモリ2への書き込みと表示
装置3への表示21を行なう。
FIG. 1 is an overall configuration diagram of an image processing system according to the present invention. Photographed image data captured from a sensor 1 mounted on a moving body is stored in an image memory 2 and simultaneously displayed on an image display device 3. The data processing device 5 performs the process of estimating the position and orientation of the moving body according to the procedure shown in FIG. First, from the map data stored in the memory 6 and the a priori information regarding the position and orientation of the mobile body stored in the memory 7, a distortion corresponding to an image taken by a sensor mounted on a moving object that is in a state according to the a priori information is calculated. Generation of map image with 20
Then, the map image is written into the memory 2 and displayed 21 on the display device 3.

次に利用者が装置3の表示画像上で指示した特徴点の画
像中の座標の取り込み22を行ない、その座標と、メモ
リ6より読出した地図データの中の対応点の地図座標と
、メモリ7から読出した先験情報とを用いて位置・姿勢
に関するパラメータの推定23を行なう。推定結果得ら
れたパラメータ値はメモリ7中の先験情報の更新24に
使うとともに、移動体の制御・操作等の目的に使うため
外部8への出力25を行なう、なお、1つの撮影画像中
に複数の特徴点がある場合に、処理22はすべての特徴
点についてまとめて行ない、その結果を行いて処理23
を1回行なってもよいが、処理20ら24を1つの特徴
点ごとに行なってもよい。
Next, the coordinates in the image of the feature point designated by the user on the display image of the device 3 are imported 22, and the coordinates, the map coordinates of the corresponding point in the map data read from the memory 6, and the memory 7 Estimation 23 of parameters related to position and orientation is performed using the a priori information read from . The parameter values obtained as the estimation results are used for updating 24 the a priori information in the memory 7, and are also output 25 to the external device 8 for use in controlling and manipulating the moving object. If there are multiple feature points in
may be performed once, or processes 20 to 24 may be performed for each feature point.

後者の場合には特徴点を1つ指示するごとにパラメータ
の推定精度が高まり、従ってそれを用いて表示される地
図画像と撮影画像とがより近い歪を持つことになり、利
用者による両画像の対応づけとそれにもとづく新たな特
徴点の指示が容易かつ高精度になる効果がある。
In the latter case, the accuracy of parameter estimation increases each time a feature point is specified, and the map image displayed using the feature point and the photographed image will have similar distortions, and the user will be able to This has the effect of making it easier and more accurate to make the correspondence and specify new feature points based on the correspondence.

第3図(a)、(b)はメモリ7中の先験情報の構成を
示す図である。移動体の状態を表わすパラメータ30と
して移動体の特定点例えば搭載センサの中心点の地図座
標系における座標 (X V + V V + Z v)と、地図座標系に
対する移動体固定種糸の各軸まわりの回転を表わすパラ
メータR,P、 ■の事前確率分布の期待値を用いる。
FIGS. 3(a) and 3(b) are diagrams showing the structure of a priori information in the memory 7. FIG. The parameters 30 representing the state of the moving object include the coordinates (X V + V V + Z v) of a specific point on the moving object, for example, the center point of the mounted sensor, in the map coordinate system, and each axis of the seed thread fixed to the moving object with respect to the map coordinate system. The expected values of the prior probability distribution of parameters R, P, and (2) representing the rotation around are used.

またこれら6変数の誤差共分散行列−P、の各要素31
を併せ持たせておく。この先験情報は、移動体搭載の位
置・姿勢センサの測定値から、あるいは事前のセンサ画
像から推定された状態パラメータの推定結果からの予測
値として外部8で用意し与えられる。
Also, each element 31 of the error covariance matrix −P of these six variables
Let's have it together. This a priori information is prepared and given externally 8 as a predicted value from the measured value of a position/orientation sensor mounted on the moving object or from the estimation result of a state parameter estimated from a sensor image in advance.

第4図(a)、(b)はメモリ中の地図データの構成を
示す図である。地図中の特徴点データ41は識別子41
1とその地図座標412とから成る。
FIGS. 4(a) and 4(b) are diagrams showing the structure of map data in memory. Feature point data 41 in the map is an identifier 41
1 and its map coordinates 412.

特徴線データ42は識別子421と、該線を線分列で近
似した際の節点の地図座標列422とから成る。
The characteristic line data 42 consists of an identifier 421 and a map coordinate sequence 422 of the node when the line is approximated by a sequence of line segments.

第5図は表示装置3への撮影画像50の表示例を示す図
、第6図は表示装置3への地図画像60の表示例を示す
図である。
FIG. 5 is a diagram showing an example of displaying the photographed image 50 on the display device 3, and FIG. 6 is a diagram showing an example of displaying the map image 60 on the display device 3.

以下第2図中の処理の詳細について説明する。The details of the process shown in FIG. 2 will be explained below.

まず各座標系を第7図、第8図を用いて定義しておく。First, each coordinate system is defined using FIGS. 7 and 8.

画像70の座標CQ* p)を座標軸71のごとく定め
る。移動体に搭載センサに固定した座標系80、移動体
に固定した座標系81.地図座標系82を第8図(a)
〜(c)のごとく定める。
The coordinates CQ*p) of the image 70 are determined as a coordinate axis 71. A coordinate system 80 fixed to a sensor mounted on the moving body, a coordinate system 81 fixed to the moving body. The map coordinate system 82 is shown in FIG. 8(a).
~(c).

座標系80の2軸は光軸85と一致させ、Z軸の負の方
向に焦点距離fだけ離れた位置に焦点面83と該面上の
座標系84を考える。
Two axes of the coordinate system 80 are made to coincide with the optical axis 85, and a focal plane 83 and a coordinate system 84 on the plane are considered at a position separated by a focal length f in the negative direction of the Z axis.

地図画像の生成処理20は次のごとく行なう。The map image generation process 20 is performed as follows.

第8図点−P−86の地図座標r=(x  y  z)
”が地図データにより与えられているとする。このとき
焦点面83上の像旦′87の座標を求める。
Map coordinates of point P-86 in Figure 8 r = (x y z)
'' is given by the map data. At this time, the coordinates of the image point '87 on the focal plane 83 are determined.

点tに対する視線ベクトル88を地図座標系で1゜セン
サ固定座標系で18と表わすと、 Q=M、M1主。      (1)式なる関係がある
。ここにM工は座標系80から81へのまたM2は座標
系81から82への回転直交行列であり、M工はセンサ
の取付角または走査角により、またM2は移動体の状態
のうち姿勢角R,P、Yより により与えられる。ここでR,P、Yはメモリ7中の値
を用いる。一方地図系で点旦の座標は。
If the line of sight vector 88 for point t is expressed as 1° in the map coordinate system and 18 in the sensor fixed coordinate system, then Q=M, M1 principal. There is a relationship as shown in equation (1). Here, M-factor is a rotation orthogonal matrix from coordinate system 80 to 81, and M2 is a rotation orthogonal matrix from coordinate system 81 to 82. Given by the angles R, P, and Y. Here, values in the memory 7 are used for R, P, and Y. On the other hand, the coordinates of Tendan in the map system are.

L=二v + 1L(3)式 で与えられる。ここに工、v=(Xv  Yv  Zv
)”は移動体の状態のうち位置パラメータより与えられ
る。これもメモリ中の値を用いる。(1)、(3)式を
解いた Q g =M 1TM 2 ” (r  r v)  
  (4)式から与えられる19を(X!l  Vta
  Z9)Tとおくと、像点旦′8座標(X、Y)は で与えられる。この(X、Y)を画像の(Q、p)に により変換できる。ここにa。、a□、bo。
L = 2v + 1L It is given by the formula (3). Here, v = (Xv Yv Zv
)" is given by the position parameter of the state of the moving body. This also uses the value in memory. Q g = M 1TM 2 " (r r v) by solving equations (1) and (3).
19 given from equation (4) is (X!l Vta
Z9)T, the coordinates (X, Y) of the image point are given by. This (X, Y) can be converted into (Q, p) of the image. Here a. , a□, bo.

blは座標系71の定義により定まる定数である。bl is a constant determined by the definition of the coordinate system 71.

以上の(4)〜(6)式計算をメモリ6中の特徴点の座
標412および特徴線の節点列の座標422に対し施せ
ば地図を構成する点の画像座標が得られる。特徴点につ
いては種別411に対応する記号をメモリ2中の該当画
像座標に書き込み、特徴線については例えば節点列の画
像座標を結ぶ線分に対応する画素に所定の濃度値を書き
込む。この画像データを21で表示する。第6図は建物
61゜橋62を記号で、道路63.線路64.JI+6
5を線で表示した例である。
The image coordinates of the points constituting the map can be obtained by applying the above calculations to the coordinates 412 of the feature points in the memory 6 and the coordinates 422 of the node array of the feature line. For feature points, a symbol corresponding to the type 411 is written at the corresponding image coordinates in the memory 2, and for feature lines, for example, a predetermined density value is written at the pixel corresponding to the line segment connecting the image coordinates of the nodal array. This image data is displayed at 21. In Figure 6, buildings 61°, bridges 62 are symbols, roads 63. Railway line 64. JI+6
This is an example in which 5 is displayed as a line.

パラメータの推定23は次のように行なう、第1番目の
特徴点の画像座標について、処理22により利用者の指
示入力から取り込んだ値を一χ−1= (Q  p)”
、(4)〜(6)式により計算した値をfl=(Qp)
”とする、ここにi=1゜・・・、N、但しNは画像中
の特徴点の総数である。
Parameter estimation 23 is performed as follows. Regarding the image coordinates of the first feature point, the value taken in from the user's instruction input in process 22 is calculated as χ−1=(Q p)"
, the value calculated using equations (4) to (6) is fl=(Qp)
”, where i=1°..., N, where N is the total number of feature points in the image.

いま未知パラメータベクトル x= (RP  Y  xv  7v  Xv)”とお
くと、王は次式の評価関数Jを最小にするものとして与
えられる。
If we now set the unknown parameter vector x= (RP Y xv 7v Xv), then the king is given as the one that minimizes the evaluation function J of the following equation.

ここに−XO*POはメモリ7中の未知パラメータの先
験情報からそれぞれ期待値と誤差共分散行列により与え
られる。誤差ベクトル11は±l:□l−土1(8)式 により与えられ、Wは重みマトリックスで、elの誤差
共分散行列の並行列として与えればよい。
Here, -XO*PO is given by the expected value and the error covariance matrix from the a priori information of the unknown parameters in the memory 7, respectively. The error vector 11 is given by the equation (8), where W is a weight matrix and it can be given as parallel columns of the error covariance matrix of el.

(7)式の解重は最小2乗法あるいはカルマンフィルタ
により求めることができる6カルマンフイルタの場合に
は、特徴点のデータを1つずつ処理するので、その都度
得られる入の推定結果とその誤地図画像表示を更新する
ことができる。
The deweighting of equation (7) can be obtained by the least squares method or the Kalman filter.In the case of the 6-Kalman filter, the data of the feature points are processed one by one, so the input estimation results obtained each time and the error map Image display can be updated.

次に画像中の特徴点の一部あるいは全部の代りに特徴線
を推定に用いる実施例について説明する。
Next, an example will be described in which feature lines are used for estimation instead of some or all of the feature points in an image.

第2図の処理手順において処理22の代りに第9図に示
すごとく特徴線の代表点の画像座標の取り込み221を
行なう。これは第10図に示すごとく表示装置に表示さ
れた画像100の中で、センサ画像の特徴線lotと地
図画像の特徴線102の対応を、前者の代表点−P、1
03の画像座標と、対応する後者の線分104のそれぞ
れについて利用者が表示を見て入力装置44から指示す
ることにより行なわれる。後者について処理装置5はメ
モU 6の点列422を検索することにより該当する線
分の地図座標系での直線方程式を求める。方程式は、線
分上の点座櫟について r=rl+u        (9)式の形で与えられ
る。Llは線分を含む直線上の代表点P□の座標、工は
直線の単位方向ベクトルである。第11図を用いて推定
に必要な幾何学的関係を説明する。注目した特徴線の線
分110の代表点旦、と単位方向ベクトル土112が与
えられたとき、視線114に対応するベクトルQはセン
サ座標系では(4)式と同様 ng=M1”M2” (rt−rv)    (10)
式%式%) くと、−P−0のセンサ面83上の像−P、’115の
座標(xt  Yt)は(5)式で与えられる。−方ベ
クトル且に対応する像の単位方向ベクトルaは a/1zXM1τM 2 T((r x  r v) 
X u)     (11)式で与えられる。ここにI
 Z= (OO1)”、/ハ平行の意である。いま土を
平面83上の2次元ベクトルとし、土=(Cx Cy)
Tと表わす、−力筒10図のごとく利用者の指示により
与えられたセンサ画像の代表点ヱ、のセンサ面上の位置
をP、117とする。この点の座標系84における座標
は、指示により与えられた(Q  p)がら(6)式の
逆変換により与えられる。それを(X2Y2)Tとする
。このとき幾何学モデルがら予測される線分の像118
と、指示点−?−2の像117との距離は1画像上では e= ((Xz  Xo)Cy+ (yz  Yo)C
x) ・α  (12)式となる。ここにαはスケール
用の定数である。
In the processing procedure of FIG. 2, instead of the process 22, as shown in FIG. 9, the image coordinates of the representative point of the feature line are captured 221. This means that in the image 100 displayed on the display device as shown in FIG.
This is done by the user viewing the display and giving instructions from the input device 44 regarding the image coordinates 03 and the corresponding latter line segment 104. Regarding the latter, the processing device 5 searches the point sequence 422 of the memo U 6 to find the linear equation of the corresponding line segment in the map coordinate system. The equation is given in the form of r=rl+u (9) for a point square on a line segment. Ll is the coordinate of the representative point P□ on the straight line including the line segment, and 〇 is the unit direction vector of the straight line. The geometric relationships necessary for estimation will be explained using FIG. 11. When the representative point of the line segment 110 of the characteristic line of interest is given, and the unit direction vector 112 is given, the vector Q corresponding to the line of sight 114 is expressed as ng=M1"M2" in the sensor coordinate system as in equation (4). rt-rv) (10)
The coordinates (xt Yt) of the image -P, '115 on the sensor surface 83 of -P-0 are given by equation (5). - direction vector and the unit direction vector a of the corresponding image are a/1zXM1τM 2 T((r x r v)
X u) is given by equation (11). here I
Z= (OO1)", /ha means parallel. Now let soil be a two-dimensional vector on the plane 83, soil = (Cx Cy)
Let P, 117 be the position on the sensor surface of the representative point of the sensor image given by the user's instruction as shown in FIG. The coordinates of this point in the coordinate system 84 are given by inverse transformation of equation (6) from (Q p) given by the instruction. Let it be (X2Y2)T. At this time, the line segment image 118 predicted from the geometric model
And the indicated point -? The distance from the image 117 of −2 to the image 117 on one image is e= ((Xz Xo)Cy+ (yz Yo)C
x) ・α Equation (12) is obtained. Here α is a constant for scale.

こうして定義される誤差eを用いて、次のように推定問
題が定義できる。すなわち(7)式で特徴点の場合に用
いたベクトル土1の代りに特徴線の場合は(12)式で
定義したスカラー81を用いる。また2X2の重み行列
の代りに重みのスカラーWを用いる。ここで画像中に特
徴点と特徴線が混在してもよい、この時は(7)式の代
りに(7)式 を用いればよい、ここにilは第i特徴点の誤差ベクト
ル、8Jは第j特徴線の誤差スカラーである0本方式に
よれば1画像中に推定の基準となる特徴をより多く指定
することができ、推定精度を高めることが可能となる。
Using the error e defined in this way, an estimation problem can be defined as follows. That is, in place of the vector 1 used in the case of feature points in equation (7), in the case of feature lines, the scalar 81 defined in equation (12) is used. Also, a weight scalar W is used instead of a 2×2 weight matrix. Here, feature points and feature lines may coexist in the image. In this case, equation (7) can be used instead of equation (7). Here, il is the error vector of the i-th feature point, and 8J is According to the zero-line method, which is an error scalar for the j-th feature line, more features that serve as the reference for estimation can be specified in one image, and the estimation accuracy can be improved.

なお表示装置2は1つのみ用意し、センサ撮影画像と地
図画像を例えば色を変えてオーバレイ表示してもよいが
、2つ用意し両画像を各々別の装置に表示してもよい。
Note that only one display device 2 may be prepared and the sensor photographed image and the map image may be displayed in an overlay manner, for example, in different colors, but two may be prepared and both images displayed on separate devices.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、利用者は表示装置にセンサ画像と同時
に、センサ画像に近い歪を持つ地図画像が表示されるの
で1両画像の対応づけによる地図、 とセンサ画像の照
合が歪の状態によらず容易になるため1画像中の特徴点
を用いた移動体の状態推定精度の向上がリアルタイム処
理でも可能となる効果がある。
According to the present invention, a map image having a distortion close to that of the sensor image is displayed on the display device at the same time as the sensor image, so that the map image and the sensor image can be matched in a distorted state by associating the two images. This has the effect of making it possible to improve the accuracy of estimating the state of a moving body using feature points in one image even in real-time processing.

また画像中の特徴点に加え特徴線の位置情報も推定に利
用できるので、推定精度を向上させる効果がある。
In addition, position information of feature lines in addition to feature points in the image can be used for estimation, which has the effect of improving estimation accuracy.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例による画像処理システムの全
体構成図、第2図は該システムを構成する処理装置の処
理手順を示す図、第3図は同じく先験情報メモリの構成
図、第4図は同じく地図データメモリの構成図、第5図
はセンサ画像の表示例を、示す図、第6図は地図画像の
表示例を示す図。 第7図は画像座標を説明するための図、第8図は撮像の
幾何学的関係を説明するための図、第9図は第2の実施
例における処理装置の処理手順を示す図、第10図は該
実施例のセンサ画像及び地図画像の表示例、第11図は
同じく該実施例の幾何学的関係を説明するための図であ
る。 13図 114I!l 第7団 第q図
FIG. 1 is an overall configuration diagram of an image processing system according to an embodiment of the present invention, FIG. 2 is a diagram showing a processing procedure of a processing device constituting the system, and FIG. 3 is a configuration diagram of an a priori information memory. FIG. 4 is a block diagram of the map data memory, FIG. 5 is a diagram showing an example of displaying a sensor image, and FIG. 6 is a diagram showing an example of displaying a map image. FIG. 7 is a diagram for explaining image coordinates, FIG. 8 is a diagram for explaining the geometric relationship of imaging, FIG. 9 is a diagram for explaining the processing procedure of the processing device in the second embodiment, and FIG. FIG. 10 is a display example of a sensor image and a map image of this embodiment, and FIG. 11 is a diagram for explaining the geometrical relationship of this embodiment. 13 Figure 114I! l Group 7, Figure q

Claims (2)

【特許請求の範囲】[Claims] 1.移動体に搭載されたセンサと、画像メモリと、地図
データメモリと、移動体の位置・姿勢に関する先験情報
を格納するメモリと、データ処理装置と、画像表示装置
と、画像座標入力装置とより成る画像処理システムにお
いて、画像表示装置に表示されたセンサ画像の中から人
間が画像座標入力装置により指示した地図上の座標が既
知な特徴点の画像座標から、データ処理装置に移動体の
位置・姿勢を推定させる際、移動体の位置・姿勢に関す
る先験情報に従い地図データから歪んだ地図画像を生成
し、表示装置にセンサ画像と同時に表示することを特徴
とする移動体の状態推定方法。
1. A sensor mounted on the moving object, an image memory, a map data memory, a memory for storing a priori information regarding the position and orientation of the moving object, a data processing device, an image display device, and an image coordinate input device. In this image processing system, a data processing device calculates the position and location of a moving object from the image coordinates of a feature point whose coordinates on a map are known, which are specified by a human using an image coordinate input device from a sensor image displayed on an image display device. A method for estimating the state of a moving object, characterized in that when estimating the attitude, a distorted map image is generated from map data according to a priori information regarding the position and attitude of the moving object, and the map image is displayed on a display device simultaneously with a sensor image.
2.前記移動体の位置・姿勢の推定において地図上の座
標が既知な特徴点の画像座標に加えて、あるいはその代
りに、地図上の位置が既知な特徴的線分の画像中の位置
を用いることを特徴とする特許請求の範囲第1項に記載
の移動体の状態推定方法。
2. In estimating the position and orientation of the moving object, in addition to or in place of the image coordinates of feature points whose coordinates on the map are known, the positions of characteristic line segments whose positions on the map are known are used in the image. A method for estimating the state of a moving body according to claim 1, characterized in that:
JP29757187A 1987-11-27 1987-11-27 Estimating method of state of moving body Pending JPH01140014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29757187A JPH01140014A (en) 1987-11-27 1987-11-27 Estimating method of state of moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29757187A JPH01140014A (en) 1987-11-27 1987-11-27 Estimating method of state of moving body

Publications (1)

Publication Number Publication Date
JPH01140014A true JPH01140014A (en) 1989-06-01

Family

ID=17848274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29757187A Pending JPH01140014A (en) 1987-11-27 1987-11-27 Estimating method of state of moving body

Country Status (1)

Country Link
JP (1) JPH01140014A (en)

Similar Documents

Publication Publication Date Title
CN106679648B (en) Visual inertia combination SLAM method based on genetic algorithm
US7193636B2 (en) Image processing device and method therefor and program codes, storing medium
Zhang et al. 3D dynamic scene analysis: a stereo based approach
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
EP2959315B1 (en) Generation of 3d models of an environment
EP1596330B1 (en) Estimating position and orientation of markers in digital images
US20180150974A1 (en) Image processing apparatus, method, and program
CN111735439B (en) Map construction method, map construction device and computer-readable storage medium
US20040062419A1 (en) Landmark, apparatus, and method for effectively determining position of autonomous vehicles
Lim et al. Real-time single camera SLAM using fiducial markers
CN108403146A (en) Based on 3-D supersonic imaging method and device combined of multi-sensor information
CN107862733B (en) Large-scale scene real-time three-dimensional reconstruction method and system based on sight updating algorithm
US6175648B1 (en) Process for producing cartographic data by stereo vision
CN109900274A (en) A kind of image matching method and system
EP3599588A1 (en) Rendering an object
Rizaev et al. Solution of the problem of superposing image and digital map for detection of new objects
CN113160221B (en) Image processing method, image processing device, computer equipment and storage medium
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
US20040055794A1 (en) Information display system and portable information terminal
Somov et al. In-flight Alignment Calibration of a Space Telescope with a Star Tracker Cluster
JPH01140014A (en) Estimating method of state of moving body
CN115294280A (en) Three-dimensional reconstruction method, apparatus, device, storage medium, and program product
Makadia et al. Correspondenceless ego-motion estimation using an imu
Haase et al. AR binocular: Augmented reality system for nautical navigation
CN113223163A (en) Point cloud map construction method and device, equipment and storage medium