JPS62249287A - Position measuring system - Google Patents

Position measuring system

Info

Publication number
JPS62249287A
JPS62249287A JP61092091A JP9209186A JPS62249287A JP S62249287 A JPS62249287 A JP S62249287A JP 61092091 A JP61092091 A JP 61092091A JP 9209186 A JP9209186 A JP 9209186A JP S62249287 A JPS62249287 A JP S62249287A
Authority
JP
Japan
Prior art keywords
image
point
points
corresponding points
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61092091A
Other languages
Japanese (ja)
Inventor
Takuji Nishitani
西谷 卓史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61092091A priority Critical patent/JPS62249287A/en
Priority to US07/041,228 priority patent/US4825393A/en
Publication of JPS62249287A publication Critical patent/JPS62249287A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain an accurate position measurement by detecting only a part (blocked area) which is photographed in the image on one side of the correspondence between points of a pair of images. CONSTITUTION:The information to display a pair of images photographed by TV cameras 10 and 11 is stored into memory parts 12 and 13. Into a similarity table 14, the similarity between respective points obtained by using the image data of the memory parts 12 and 13. Corresponding determining parts 15 and 16 read the data of similarity from the table 14 and counts the corresponding point with one side image and other side image concerning respective images. These counting results are sent to a closed area extracting part 17, it is investigated whether or not the pair of the corresponding points is coincident, and the dissident point is extracted as the closed area. A position measuring part 18 counts the position of respective points excluding the closed area by using the dislocation quantity of the corresponding point. Thus, to execute a position measurement excluding the closed area, the reliability of the position measuring result can be increased.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は1位置計測装置に関し、特に、同一対象物から
異なる位置又は時刻で得られた一対の画像情報を用いて
、対象物の位置又は距離を計測するのに好適な位置計測
方式に関する。この種の装置は、画像情報を用いて機器
を制御する各種の装置(例えば、視覚を持つロボット、
外景に応答する乗物の自動制御装置、ITVと連動する
プロセス制御装置など)にとって不可欠のものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a single-position measuring device, and in particular, uses a pair of image information obtained from the same object at different positions or times to determine the position or position of the object. The present invention relates to a position measurement method suitable for measuring distance. This type of device includes various devices that control equipment using image information (e.g. robots with vision,
It is indispensable for automatic vehicle control devices that respond to the external environment, process control devices that work with ITV, etc.).

〔従来の技術〕[Conventional technology]

前記の型の位置計測装置においては、一方の画像のある
点が他方の画像のどの点と対応するかを自動処理によっ
て決定することが必要である。そのための従来方法の一
つが、r立体テレビジョンの奥行情報信号の形成方法」
 (特許公報(B2)昭60−10564 )に記載さ
れている。この方法は。
In position measuring devices of the type described above, it is necessary to determine by automatic processing which point in one image corresponds to which point in the other image. One of the conventional methods for this purpose is a method for forming depth information signals for stereoscopic television.
(Patent Publication (B2) Sho 60-10564). This method is.

2つの画像信号を比較し、信号波形がほぼ一致した時の
画素のずれ量から、物体の奥行き情報を得るものであり
、高速な処理に適している。しかし、信号波形の比較を
するに際し、一方の画像をシフトしつつ他方の画像と比
較するため、片方の画像にしか映っていない物体に対す
る画素に対しても位置を求めてしまう、しかし1片方の
画像にしか映っていない部分(閉塞領域)に対しては1
本来距離は求められない、従って、精度の良い位置情報
を得るには、このような閉塞領域を正しく検出し除去す
る必要がある。
This method compares two image signals and obtains depth information of an object from the amount of pixel shift when the signal waveforms almost match, and is suitable for high-speed processing. However, when comparing signal waveforms, one image is shifted and compared with the other image, so the position of a pixel for an object that is only visible in one image is determined. 1 for parts that are only visible in the image (occluded areas)
Originally, distance cannot be determined, so in order to obtain accurate position information, it is necessary to correctly detect and remove such occluded areas.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記従来技術は、一方の画像と他方の画像との対応点の
みを求めるため、一方の画像にのみ映じている閉塞領域
に対する配慮がされておらず、この領域に対しては誤っ
た位置計測を行ってしまうという問題があった。
The above-mentioned conventional technology only finds corresponding points between one image and the other image, so it does not take into account occluded areas that appear only in one image, and incorrect position measurements may occur for this area. There was a problem with leaving.

本発明の目的は、一対の画像の点間の対応付けにおいて
、閉塞領域を検出することにより、誤った対応付けを除
去し、精緻な位置計測を行うことにある。
An object of the present invention is to remove erroneous correspondence and perform precise position measurement by detecting occluded areas in correspondence between points in a pair of images.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的を達成するため、一方の画像(Aとする)の各
点すべてに対して他方の画像(Bとする)の対応する点
を求め、逆に1画像Bの各点すべてに対して画像Aの対
応する点を求める。この後、それぞれの処理において得
られた対応点の対が一致しない部分を検出する。この部
分が閉塞領域であり、この部分を除外して位置の計測を
行うことにより、誤った対応の少ない位置計測を行うこ
とができる。
In order to achieve the above purpose, for each point in one image (denoted as A), the corresponding point in the other image (denoted as B) is determined, and conversely, for each point in one image B, the corresponding point is calculated. Find the corresponding point of A. Thereafter, portions where the pairs of corresponding points obtained in each process do not match are detected. This part is a closed area, and by excluding this part and measuring the position, it is possible to perform position measurement with fewer erroneous correspondences.

〔作用〕[Effect]

一対の画像情報から位置情報を得るためには。 To obtain location information from a pair of image information.

位置情報を得ようとする物体が双方の画像に映じている
必要がある。双方の画像に映っている点の対応点は、ど
ちらの画像から求めても同一の対となる。しかし、一方
の画像にしか映っていない点は、類似した点が他方の画
像にはないため、他方の画像から対応点を求めた場合、
この点と対応する対はないことになる。このように、一
対の画像の双方から対応点を求めることにより、閉塞領
域に対する誤った対応を除去できる。
The object whose location information is to be obtained must be visible in both images. Corresponding points appearing in both images are the same pair no matter which image they are found from. However, points that appear only in one image do not have similar points in the other image, so when finding corresponding points from the other image,
There is no pair corresponding to this point. In this way, by finding corresponding points from both of a pair of images, erroneous correspondences to occluded areas can be removed.

〔実施例〕〔Example〕

第1図は、本発明が適用された位置計測装置の一例を示
す、TVカメラ10および11により撮像された一対の
画像を表わす情報は1画像記憶部12および13に一旦
記憶される0両眼立体視の場合であれば、異なる位置か
ら同時に撮像された2枚の画像が記憶されるが、TVカ
メラが移動する場合は、TVカメラは一台で、異なる時
刻に撮像された2枚の画像を、画像記憶部12および1
3にそれぞれ記憶してもよい、類似度テーブル14には
、画像記憶部12および13の画像データを用いて求め
られる各点間の類似度が記憶される。対応点決定部15
および16では、類似度テーブル14から類似度のデー
タを読出して、一方の画像と他方の画像との対応点を算
定する。この対応点の算定は、対応点決定部15におい
ては画像記憶部12の画像の各点に対する対応点を算定
し、対応点決定部16においては画像記憶部13の画像
の各点に対する対応点を算定する。これらの算定結果は
閉塞領域抽出部17に送られ、対応点の対が一致してい
るかを調べ、一致しない点を閉塞領域として抽出する0
位置計測部18では、閉塞領域を除いた各点の位置を対
応点のずれ量を用いて演算する。
FIG. 1 shows an example of a position measuring device to which the present invention is applied. Information representing a pair of images taken by TV cameras 10 and 11 is temporarily stored in image storage units 12 and 13. In the case of stereoscopic viewing, two images taken at the same time from different positions are stored, but when the TV camera moves, only one TV camera is used and two images taken at different times are stored. , image storage units 12 and 1
In the similarity table 14, which may be stored in each of the image storage units 12 and 13, the similarity between each point determined using the image data in the image storage units 12 and 13 is stored. Corresponding point determination unit 15
In step 16, similarity data is read from the similarity table 14, and corresponding points between one image and the other image are calculated. In calculating the corresponding points, the corresponding point determination unit 15 calculates the corresponding points for each point of the image in the image storage unit 12, and the corresponding point determination unit 16 calculates the corresponding points for each point of the image in the image storage unit 13. Calculate. These calculation results are sent to the closed region extraction unit 17, which checks whether the pairs of corresponding points match and extracts points that do not match as closed regions.
The position measurement unit 18 calculates the position of each point excluding the occluded area using the shift amount of the corresponding points.

以下、両眼立体視の場合を例にとって、前記各部におけ
る処理の詳細を説明する0両眼立体視の場合、特願昭5
9−237600 (r画像間の対応関係を用いる位置
計測装置における対応点決定方法」)に記載されている
ように、対応点の探索は両画像の対応する走査線内で行
うことができる0画像記憶部12および13に記憶され
る画像は、TVカメラ10および11により撮像された
画像が、このように変換されて記憶されているものとす
る。
The details of the processing in each section will be explained below, taking the case of binocular stereopsis as an example.In the case of binocular stereopsis, the patent application
9-237600 (Method for determining corresponding points in a position measuring device using correspondence between r images), the search for corresponding points can be performed within the corresponding scanning lines of both images. It is assumed that the images stored in the storage units 12 and 13 are images captured by the TV cameras 10 and 11, converted in this manner, and stored.

以下の説明は、このような画像の一対の走査線に対する
処理について述べる。
The following discussion describes processing for a pair of scan lines of such an image.

類似度テーブル14には、右眼像の画像データと左眼像
の画像データを用いて求められる類似度が記憶される。
The similarity table 14 stores the similarity obtained using the image data of the right eye image and the image data of the left eye image.

すなわち、第2図に示すように、点A(ipj)には右
眼像のi番目の画素と左眼像のj番目の画素の類似度が
記憶される0位置を計測する範囲に応じてこのテーブル
の巾は適当に定めればよい1例えば、右眼像と左眼像の
ずれかに画素以内である場合は、i−に≦j≦i+にの
範囲でテーブルの値を求めればよい。
That is, as shown in FIG. 2, point A (ipj) has a 0 position where the similarity between the i-th pixel of the right eye image and the j-th pixel of the left eye image is stored. The width of this table can be determined appropriately. For example, if the deviation between the right eye image and the left eye image is within pixels, the table value can be calculated within the range of i-≦j≦i+. .

類似度は、次式に示すように、右眼像と左限像の各点が
持つ明るさの値R(i)、L(j)を用いて、A(i、
j)= I R(i) −L(j)l    ・・・(
1)あるいは。
As shown in the following formula, the similarity is calculated as A(i,
j)=I R(i) −L(j)l...(
1) Or.

A(i、j)= (R(i)−L(j))”   −(
2)により求める。さらに、右眼と右眼像の各点におけ
る明るさの変化量DR(i)、DR(j)を用いて、A
(i、j)”IDR(i)−DL(j)I    ・・
・(3)あるいは A(i、j)=lDR(i)−DL(j)l”   ・
・・(4)などを用いてもよい。
A(i,j)=(R(i)−L(j))”−(
2). Furthermore, using the amount of change in brightness DR(i) and DR(j) at each point of the right eye and the right eye image, A
(i, j)"IDR(i)-DL(j)I...
・(3) Or A(i,j)=lDR(i)−DL(j)l”・
...(4) etc. may also be used.

対応点演算部15および16では次のような処理を行っ
て対応点を求める。まず、対応点演算部15では、左眼
像の一点(画素)を中心とする適当な巾の小領域を第3
図の斜線部のように設定し、を求める。第(5)式のう
ち、ARta(d)が最大値を示すdの値をdaとする
とdaが右眼像のia番目の画素と左眼像とのずれ量を
示す、すなわち、右眼像のia番目のIl素と左眼像の
ia+da番目の画素が対応点の対であることになる。
The corresponding point calculation units 15 and 16 perform the following processing to obtain corresponding points. First, the corresponding point calculation unit 15 calculates a small area of an appropriate width centered on one point (pixel) of the left eye image into a third
Set as shown in the shaded area in the figure and find. In equation (5), if da is the value of d where ARta(d) has the maximum value, then da represents the amount of deviation between the ia-th pixel of the right eye image and the left eye image, that is, the right eye image The ia-th Il element of the left-eye image and the ia+da-th pixel of the left eye image are a pair of corresponding points.

この処理を右眼像のすべての画素に対して求め、右眼像
と左眼像との対応点を求める。次に、対応点演算部16
では、左眼像の一点(画素゛)を中心とする適当な巾の
小領域を第4図の斜線部のように設定し。
This process is performed on all pixels of the right eye image to find corresponding points between the right eye image and the left eye image. Next, the corresponding point calculation unit 16
Now, set a small area of an appropriate width centered on one point (pixel ') of the left eye image, as shown in the shaded area in Figure 4.

を求める。第(6)式のうち、ALja(d)が最大値
を示すdの値をdaとすると、daが左眼像のj&番目
の画素と右眼像とのずれ量を示す、すなわち、左眼像の
j&番目の画素と右眼像のja+d&番目の画素が対応
点の対であることになる。
seek. In Equation (6), if da is the value of d where ALja(d) has the maximum value, then da indicates the amount of deviation between the j&th pixel of the left eye image and the right eye image, that is, the left eye The j&th pixel of the image and the ja+d&th pixel of the right eye image are a pair of corresponding points.

閉塞領域抽出部17は、対応点決定部15および16の
結果を用いて閉塞領域の抽出を行う、この手順を第5図
を用いて説明する。第5図(a)および(b)はそれぞ
れ右眼像および左眼像であり、A−A’は対応点を求め
ている一対の走査線である。いま、右眼像の各点が対応
する左眼像の点を対応点決定部15で求めた結果を第5
図(c)とし、左眼像の各点が対応する右眼像の点を対
応点決定部16で求めた結果を第5図(d)とする。
The closed region extraction section 17 extracts a closed region using the results of the corresponding point determination sections 15 and 16. This procedure will be explained with reference to FIG. FIGS. 5(a) and 5(b) are a right eye image and a left eye image, respectively, and AA' is a pair of scanning lines for finding corresponding points. Now, the corresponding point determination unit 15 calculates the points of the left eye image to which each point of the right eye image corresponds, and the result is determined by the fifth
FIG. 5(c) shows the results obtained by the corresponding point determination unit 16 of the points of the right eye image to which each point of the left eye image corresponds, and FIG. 5(d) shows the results.

閉塞領域抽出部17では、この第5図(c)と第5図(
d)の対応点の共通部を求め閉塞領域に対する対応点に
除去し、第5図(e)に示す対応点を得る。具体的には
、右眼像の各1iWsの対応点を順次取り出し、例えば
右眼像のia番目の画素の対応点が左眼像のj a番目
の画素である場合、左眼像のja番目のa素の対応点が
右眼像の画素番号Laと一致しているかを調べてゆけば
よい、一致しない場合は閉塞領域に対する対応点であり
The closed area extraction unit 17 extracts the images shown in FIG. 5(c) and FIG. 5(
The common part of the corresponding points in d) is determined and removed to correspond to the closed area, thereby obtaining the corresponding points shown in FIG. 5(e). Specifically, the corresponding points of each 1iWs of the right eye image are sequentially extracted, and for example, if the corresponding point of the ia-th pixel of the right-eye image is the ja-th pixel of the left-eye image, the ja-th pixel of the left-eye image is It is only necessary to check whether the corresponding point of element a matches the pixel number La of the right eye image. If they do not match, it is a corresponding point to the occluded area.

対応点の対から除去する。Remove from pairs of corresponding points.

tJRm領域抽領域抽出部上7.閉sM域の対応8点を
除去された対応点の対をもとに1位置計測部18におい
て対象物の位置を計算する。なお、対象物の位置は、各
対応点対の右眼像と左眼像における座標、TVカメラの
光学系の中心座標およびレンズの焦点距離により算出す
る(特願昭59−2376000号公報を参照)。
tJRm region extraction region extraction part 7. The position of the object is calculated in the 1-position measurement unit 18 based on the pair of corresponding points from which the 8 corresponding points in the closed sM region have been removed. The position of the object is calculated from the coordinates of each pair of corresponding points in the right eye image and left eye image, the center coordinates of the optical system of the TV camera, and the focal length of the lens (see Japanese Patent Application No. 59-2376000). ).

以上1両眼視像における実施例について述べてきた1本
発明は、両眼視像のような、対応する走査線上でのみ対
応点を求めればよい場合に限らず、任意方向に相対変位
する対象を異なる時刻で撮像した画像のように、2次元
的な範囲で対応点を求める必要がある場合にも適用でき
る。
The present invention, which has been described above with respect to embodiments in binocular images, is applicable not only to cases where corresponding points need to be found only on corresponding scanning lines, such as binocular images, but also to objects that are relatively displaced in arbitrary directions. This method can also be applied to cases where it is necessary to find corresponding points in a two-dimensional range, such as images taken at different times.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、対となる画像のうち一方にのみ映じて
いる外界の部分(y!4塞領域)を容易に抽出でき、こ
の部分を除去して位置計測を行えるため、位置計測結果
の信頼性が増す効果がある。
According to the present invention, it is possible to easily extract the part of the outside world that appears only in one of the paired images (y!4 occluded area), and to perform position measurement by removing this part, the position measurement results can be This has the effect of increasing reliability.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明を実施するための装置のブロックダイヤ
グラム、第2図は右眼像と左眼像の各画素の類似度テー
ブルの説明図、第3図は両眼視の場合における右眼像の
対応点を求める方法を説明する図、第4図は両眼視の場
合における左眼像の対応点を求める方法を説明する図、
第5図は本発第 1 図 第 2 目 第 3 図 第4図 左峨(I41番号 バ %5 z
Fig. 1 is a block diagram of an apparatus for implementing the present invention, Fig. 2 is an explanatory diagram of a similarity table for each pixel of the right eye image and left eye image, and Fig. 3 is a diagram of the right eye in the case of binocular vision. FIG. 4 is a diagram illustrating a method for finding corresponding points in images; FIG. 4 is a diagram explaining a method for finding corresponding points in left-eye images in the case of binocular vision;
Figure 5 shows the main engine Figure 1 Figure 2 Item 3 Figure 4 Left side (I41 number bar %5 z

Claims (1)

【特許請求の範囲】 1、外界の像を表わす画像情報を発生する手段と、この
画像情報を処理して一対の画像の互に対応する点の対を
決定し、各対をなす2点の位置関係に基づき、当該両点
に対応する外界の点の位置を算定する演算部とを備えた
位置計測装置において、各画像上の所定の点につき対と
なる画像上の対応する点をたがいに他の画像から求め、
双方の画像から求めた対応点の対のうち、一致度が所定
の範囲内にある対応点のみを抽出することを特徴とする
位置計測方式。 2、上記対応点対の決定を行うに際し、一方の画像上の
所定の点に対し、対となる他方の画像上の対応する点を
求め、上記他方の画像上の各点に対する対応点が複数個
ある場合、該他方の画像から対応する点を求めて、上記
一方の画像から求めた対応点との一致度が所定の範囲内
にある対応点のみを真の対応点とすることを特徴とする
第1項の位置計測方式。 3、上記所定の点は各画像における特徴点であることを
特徴とする第1項または第2項の位置計測方式。 4、上記各画像における特徴点は、各点の近傍における
画像の明るさの変化量の大きさに応じて選択することを
特徴とする第3項の位置計測方式。 5、上記画像間の対応する点は、一方の画像上に設定し
た小領域と、他方の画像上に設定した小領域との類似度
にもとづき決定することを特徴とする第1項乃至第4項
いずれか1項の位置計測方式。
[Scope of Claims] 1. Means for generating image information representing an image of the external world, processing this image information to determine pairs of mutually corresponding points in a pair of images, and determining points of two points forming each pair. In a position measuring device that includes a calculation unit that calculates the position of a point in the outside world that corresponds to both points based on the positional relationship, for a given point on each image, the corresponding point on the paired image is Find from other images,
A position measurement method characterized by extracting only corresponding points whose degree of coincidence is within a predetermined range from a pair of corresponding points obtained from both images. 2. When determining the above-mentioned corresponding point pairs, for a given point on one image, the corresponding point on the other image to be paired is determined, and there are multiple corresponding points for each point on the other image. If there are two corresponding points, the corresponding points are determined from the other image, and only the corresponding points whose degree of coincidence with the corresponding points determined from the one image is within a predetermined range are considered as true corresponding points. The position measurement method of the first term. 3. The position measurement method according to item 1 or 2, wherein the predetermined point is a feature point in each image. 4. The position measurement method according to item 3, wherein the feature points in each image are selected according to the amount of change in brightness of the image in the vicinity of each point. 5. Items 1 to 4, characterized in that the corresponding points between the images are determined based on the degree of similarity between a small area set on one image and a small area set on the other image. Position measurement method for any one of the terms.
JP61092091A 1986-04-23 1986-04-23 Position measuring system Pending JPS62249287A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP61092091A JPS62249287A (en) 1986-04-23 1986-04-23 Position measuring system
US07/041,228 US4825393A (en) 1986-04-23 1987-04-22 Position measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61092091A JPS62249287A (en) 1986-04-23 1986-04-23 Position measuring system

Publications (1)

Publication Number Publication Date
JPS62249287A true JPS62249287A (en) 1987-10-30

Family

ID=14044770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61092091A Pending JPS62249287A (en) 1986-04-23 1986-04-23 Position measuring system

Country Status (1)

Country Link
JP (1) JPS62249287A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018037A (en) * 2005-07-05 2007-01-25 Toyota Central Res & Dev Lab Inc Image recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018037A (en) * 2005-07-05 2007-01-25 Toyota Central Res & Dev Lab Inc Image recognition device
JP4635746B2 (en) * 2005-07-05 2011-02-23 株式会社豊田中央研究所 Image recognition device

Similar Documents

Publication Publication Date Title
US10260862B2 (en) Pose estimation using sensors
JP3242529B2 (en) Stereo image matching method and stereo image parallax measurement method
US6118475A (en) Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
JP3064928B2 (en) Subject extraction method
US5757674A (en) Three-dimensional position detecting apparatus
JPS59182688A (en) Stereoscopic processor
JPH08294143A (en) Method for corresponding between images and inter-image parallax measurement method
EP1395059B1 (en) Intruding-object detection apparatus
JP3008875B2 (en) Subject extraction device
JPH07109625B2 (en) 3D stereoscopic method
JPH03200007A (en) Stereoscopic measuring instrument
JP3103478B2 (en) Compound eye imaging device
JPH0814861A (en) Method of measuring three-dimensional shape and device therefor
JPS62249287A (en) Position measuring system
JPH02100589A (en) Binocular parallax detecting method
CN114155280A (en) Binocular line tracking method, device and equipment
JP3253328B2 (en) Distance video input processing method
JP2000028354A (en) Three-dimensional image processing device
JP3340599B2 (en) Plane estimation method
JP2001238230A (en) Device for extracting three-dimensional structural information in multiple-lens stereoscopic television system
JPH0624000B2 (en) Compound stereoscopic device
JP2000331160A (en) Device and method for matching and recording medium stored with matching program
JP2809348B2 (en) 3D position measuring device
JP2979619B2 (en) Stereoscopic device
JPS62249288A (en) Position measuring system using correspondence relation between images