JPS63218815A - Position measuring method - Google Patents

Position measuring method

Info

Publication number
JPS63218815A
JPS63218815A JP62053882A JP5388287A JPS63218815A JP S63218815 A JPS63218815 A JP S63218815A JP 62053882 A JP62053882 A JP 62053882A JP 5388287 A JP5388287 A JP 5388287A JP S63218815 A JPS63218815 A JP S63218815A
Authority
JP
Japan
Prior art keywords
image
dimensional image
imaging means
target object
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62053882A
Other languages
Japanese (ja)
Inventor
Shinichi Murakami
伸一 村上
Hideya Ichihara
市原 英也
Tokishirou Takahashi
高橋 時市郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP62053882A priority Critical patent/JPS63218815A/en
Publication of JPS63218815A publication Critical patent/JPS63218815A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To calculate the three-dimensional position of an object with good accuracy, by determining a reference two-dimensional image and the position of the image at the aiming point of the object in a reference two-dimensional image and determining the three-dimensional coordinates of the aiming point on the object from the position of the aiming point and a predetermined distance. CONSTITUTION:An image analyzer 5 reads the image shown on a drawing 20A taken by a TV camera 2 from an image memory 6 and cuts the mask 22A containing the image of the aiming point predetermined on the image. Next, the image of a drawing 20B taken by a camera 3 is read from the memory 6 and a mask 22B having the same size is cut from the image centering around the position where the aiming point is present and the correlation between the mask images cut from the drawings 20A, 20B is calculated. Then, calculation is performed with respect to some positions moved up and down, and left and right centering around a region where the presence of the aiming point is estimated to calculate a position where correlation is largest. Then, two-coordinates positions p1, q1, r1 and p2 q2, r2 are set to the identification position of the objective aiming point. From these values, the coordinates position (x, y, z) of the aiming point is obtained.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、位置測定方法に関するものであり、更に詳述
するならば、3次元空間内に置かれた物体の3次元座標
位置を、テレビカメラのような簡易な撮像手段を用いて
求める簡易な距離測量方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention relates to a position measuring method, and more specifically, to measure the three-dimensional coordinate position of an object placed in a three-dimensional space using a television camera. The present invention relates to a simple distance measurement method using such a simple imaging means.

従来の技術 従来、テレビカメラを用いて3次元空間内の物体の座標
位置を求める方法としては、(1)物体に対して光源よ
りスリット像を投影し、物体表面にスリット縞模様を表
示し、テレビカメラに写ったその物体像表面の縞の陰影
パターンの線巾の間隔を解析して物体の3次元座標位置
を求める方法や、(2)テレビカメラ3台を用いて、各
カメラに写った画像間の相関関係を用いて物体の3次元
座標位置を求必る方法等が知られていた。
BACKGROUND ART Conventionally, methods for determining the coordinate position of an object in three-dimensional space using a television camera include (1) projecting a slit image onto the object from a light source to display a slit striped pattern on the object surface; (2) A method of determining the three-dimensional coordinate position of an object by analyzing the line width interval of the striped shadow pattern on the surface of the object's image captured by a television camera; A method of determining the three-dimensional coordinate position of an object using the correlation between images has been known.

発明が解決しようとする問題点 しかし、(1)の方法では対象物体を暗室の中で撮影し
なければならないこと、また、(2)の方法では3つの
画面の中での物体の同一点の判定に繁雑な処理を必要と
することなどの欠点があった。
Problems to be Solved by the Invention However, in method (1), the object must be photographed in a dark room, and in method (2), it is difficult to identify the same point on the object in three screens. This method has drawbacks such as requiring complicated processing for determination.

そこで、本発明は、上記欠点を解決し、通常の照明の下
で位置測定できると共に、機器構成が簡単で、且つ簡易
な処理手順で精度良く対象物体の3次元座標位置を計測
できる位置測定方法を提供することにある。
Therefore, the present invention solves the above-mentioned drawbacks, and provides a position measuring method that can measure the position under normal lighting, has a simple equipment configuration, and can accurately measure the three-dimensional coordinate position of a target object with a simple processing procedure. Our goal is to provide the following.

問題点を解決するための手段 本発明によるならば、対象物体を基準位置に置いた撮像
手段により′撮影して基準二次元画像を得、前記基準位
置から所与の距離離れた参照位置に置いた撮像手段によ
り前記対象物体を撮影して参照二次元画像を得て、前記
基準二次元画像と前記参照二次元画像との間の相関性を
求めてそれら基準二次元画像と参照二次元画像内の前記
対象物体の着目点の像の位置を決定し、前記基準二次元
画像と前記参照二次元画像内における前記着目点のそれ
ぞれの位置と前記所与の距離とから前記対象物体上の着
目点の三次元座標位置を決定することを特徴とする位置
測定方法が提供される。
Means for Solving the Problems According to the present invention, a reference two-dimensional image is obtained by photographing a target object using an imaging means placed at a reference position, and the object is placed at a reference position a given distance away from the reference position. A reference two-dimensional image is obtained by photographing the target object using an imaging means, and the correlation between the reference two-dimensional image and the reference two-dimensional image is determined, and the correlation between the reference two-dimensional image and the reference two-dimensional image is determined. determine the position of the image of the point of interest on the target object, and determine the point of interest on the target object from the respective positions of the point of interest in the reference two-dimensional image and the reference two-dimensional image and the given distance. Provided is a position measuring method characterized by determining a three-dimensional coordinate position of.

作用 以上の方法において、基準位置と参照位置との近接した
2つの位置で撮影した2つの画像について相関処理を実
施することにより、それぞれの画像内における対象物体
の着目点の像の二次元座標位置を特定することができる
。一方、撮像手段の光学系のレンズ面と結像面との距離
は知ることができるので、上記した基準位置と参照位置
との間の距離並びに2つの画像内における対象物体の着
目点の像の二次元座標位置とから、立体幾何学的に対象
物体の着目点の位置を求めることができる。
Effect In the method described above, by performing correlation processing on two images taken at two positions close to each other, the standard position and the reference position, the two-dimensional coordinate position of the image of the target object's point of interest in each image is determined. can be identified. On the other hand, since the distance between the lens surface of the optical system of the imaging means and the imaging surface can be known, the distance between the above-mentioned standard position and the reference position as well as the image of the point of interest of the target object in the two images can be known. From the two-dimensional coordinate position, the position of the point of interest of the target object can be found three-dimensionally geometrically.

かかる処理において、対象物体の画像内容の相関処理を
行うことにより、対象物体像の着目点の同一性の判定を
行っているが、相関計算の対象となる画像の類似度が高
いので、従来の相関処理に較べて簡単に処理できる。更
に、立体幾何学的に対象物体の着目点の位置を求めるの
で、物体の3次元位置の精度が良く求めることができる
In this process, the identity of the target object image is determined by performing correlation processing on the image contents of the target object, but since the similarity of the images targeted for correlation calculation is high, the conventional It is easier to process than correlation processing. Furthermore, since the position of the point of interest of the target object is determined three-dimensionally, the three-dimensional position of the object can be determined with high accuracy.

実施例 以下、添付図面を参照して本発明による位置測定方法の
実施例を説明する。なお、以下の実施例は、本発明を例
示するに過ぎない。従って、本発明は、それら実施例に
限定されるものではなく、特許請求の範囲内において様
々な変更や修正が可能である。
Embodiments Hereinafter, embodiments of the position measuring method according to the present invention will be described with reference to the accompanying drawings. It should be noted that the following examples merely illustrate the present invention. Therefore, the present invention is not limited to these embodiments, and various changes and modifications can be made within the scope of the claims.

第1図は、本発明による位置測定方法を実施するための
装置のブロック図である。図示の位置測定装置は、対象
物体1を撮影する一対のテレビカメラ2及び3を有して
いる。それらテレビカメラ2及び3は、撮影光学系のレ
ンズの焦点距離fが同じであり、互いに水平方向に距離
dだけ離れて設置されている。テレビカメラ2及び3が
撮影した映像は、テレビカメラ切り替え装置4により一
方が選択されて、画像解析装置5を介して画像メモリ6
に記憶される。本実施例では、画像解析装置5は、入力
映像信号をデジタル化して画像メモリ6に出力すると共
に、画像メモリ6から画像データを読出して後述する相
関処理を実施し、且つ必要な演算処理を実施する。一方
、画像メモリ6は、少なくとも2つの画像を記憶する容
量を有している。
FIG. 1 is a block diagram of an apparatus for implementing the position measuring method according to the invention. The illustrated position measuring device has a pair of television cameras 2 and 3 that photograph a target object 1 . The television cameras 2 and 3 have the same focal length f of the lenses of their photographic optical systems, and are installed horizontally apart from each other by a distance d. One of the images taken by the television cameras 2 and 3 is selected by the television camera switching device 4, and the images are sent to the image memory 6 via the image analysis device 5.
is memorized. In this embodiment, the image analysis device 5 digitizes the input video signal and outputs it to the image memory 6, reads the image data from the image memory 6, performs correlation processing to be described later, and performs necessary arithmetic processing. do. On the other hand, the image memory 6 has a capacity to store at least two images.

第2図は、第1図の装置を使用しての位置測定方法の原
理を図解する図である。
FIG. 2 is a diagram illustrating the principle of a position measuring method using the apparatus of FIG. 1.

第2図において、0は、テレビカメラ2の水平な光軸が
撮影光学系のレンズ面と交差する点に設定された測距系
の座標原点である。座標原点0を基準する直角三次元座
標(X、 Y、 Z)系を想定して、テレビカメラ2の
光軸をX軸とし、座標原点0でX軸と直交する水平な軸
をY軸とし、座標原点0でX軸と直交する垂直な軸をZ
軸とする。従って、テレビカメラ3の光軸は、Y軸に沿
って距離dだけテレビカメラ2の光軸から離れており、
テレビカメラ2の光軸に平行にあり、更に、テレビカメ
ラ3の撮影光学系のレンズ面は、テレビカメラ2の撮影
光学系のレンズ面と同一平面にある。
In FIG. 2, 0 is the coordinate origin of the ranging system, which is set at the point where the horizontal optical axis of the television camera 2 intersects the lens surface of the photographing optical system. Assuming a rectangular three-dimensional coordinate system (X, Y, Z) with the coordinate origin 0 as the reference, the optical axis of the television camera 2 is the X axis, and the horizontal axis perpendicular to the X axis at the coordinate origin 0 is the Y axis. , the vertical axis perpendicular to the X axis at the coordinate origin 0 is Z
The axis. Therefore, the optical axis of the television camera 3 is separated from the optical axis of the television camera 2 by a distance d along the Y axis,
It is parallel to the optical axis of the television camera 2, and furthermore, the lens surface of the photographing optical system of the television camera 3 is on the same plane as the lens surface of the photographing optical system of the television camera 2.

更に、テレビカメラ2とテレビカメラ3の撮影光学系は
、同一焦点距離を有しているので、像平面も共通の平面
に位置する。
Furthermore, since the photographing optical systems of the television camera 2 and the television camera 3 have the same focal length, their image planes are also located on a common plane.

かかる座標系において、対象物体の着目点Pの座標位置
を(x、y、z)とし、更に、撮影光学系のレンズ面に
平行で着目点Pを含む平面を物体面とする。一方、テレ
ビカメラ2の像平面は、座標原点Oから焦点距離f離れ
て位置しており、その像平面に写った物体上のP点の像
■1 の座標位置を(1)+、 q++ r、)とする
。更に、テレビカメラ3の像平面は、テレビカメラ3の
レンズ面からその先軸に沿って焦点距離f離れて位置し
ている。
In this coordinate system, the coordinate position of the point of interest P of the target object is defined as (x, y, z), and furthermore, a plane parallel to the lens surface of the photographing optical system and including the point of interest P is defined as the object plane. On the other hand, the image plane of the television camera 2 is located at a focal distance f from the coordinate origin O, and the coordinate position of the image ■1 of point P on the object captured on the image plane is (1) +, q++ r , ). Further, the image plane of the television camera 3 is located at a distance f from the lens surface of the television camera 3 along its forward axis.

従って、X軸上において、Y−Z面から焦点距離f離れ
て位置している。そのテレビカメラ3の像平面に写った
物体上のP点の(R,I2の座標位置を(p2.Q2.
I2 )とする。
Therefore, it is located on the X-axis at a focal distance f away from the Y-Z plane. The coordinate position of (R, I2) of point P on the object captured on the image plane of the television camera 3 is (p2.Q2.
I2).

なお、hはテレビカメラから物体着目点までのX軸に沿
った距離である。
Note that h is the distance along the X-axis from the television camera to the point of interest on the object.

次に第1図、第2図を用いて本発明による方法の実施例
について説明する。
Next, an embodiment of the method according to the present invention will be described using FIGS. 1 and 2.

まず、測距しようとする対象物体lをテレビカメラ2で
撮影する。この撮影画像は、テレビカメラ切り替え装置
4を通って画像解析装置5へ送られる。画像解析装置5
はこの画像1画面分を画像メモリ6に蓄える。次にテレ
ビカメラ切り替え装置4を動作させ、対象物体1をテレ
ビカメラ2よりdだけ離れたテレビカメラ3で撮影する
。この撮影画面もテレビカメラ切り替え装置4を通って
画像解析装置5へ送られ、画像メモリ6に1画面分蓄え
られる。
First, the television camera 2 photographs the target object l to be measured. This photographed image is sent to the image analysis device 5 through the television camera switching device 4. Image analysis device 5
stores this image for one screen in the image memory 6. Next, the television camera switching device 4 is operated, and the target object 1 is photographed by the television camera 3, which is located a distance d from the television camera 2. This photographed screen is also sent to the image analysis device 5 through the television camera switching device 4, and stored in the image memory 6 for one screen.

この時、2台のテレビカメラの焦点距離が同じであるこ
と、また2台のテレビカメラの光軸が平行であるとする
と、対象物体上の着目点Pの座標値と2台のテレビカメ
ラの像平面上のP点の像の座標値の間に次の関係が成立
する。
At this time, assuming that the focal lengths of the two television cameras are the same and that the optical axes of the two television cameras are parallel, the coordinate values of the point of interest P on the target object and the two television cameras are The following relationship holds true between the coordinate values of the image of point P on the image plane.

上式をx、y、zについて解くことにより9着目点Pの
座標値(x、y、z)は次のようになる。
By solving the above equation for x, y, and z, the coordinate values (x, y, z) of the ninth point of interest P are as follows.

X”d−1)l/(q2  Q+) y=d I Q+/(q2  Q+)    (2)z
=d−r+/(q2 qI) ここで、d測定可能な値であり、またテレビカメラに写
った物体像の座標値(+)+、 Ql+ rl  )及
び(1)2. q2. I2)の値は画像解析装置5で
測定可能な値である。従って、2台のテレビカメラに写
った物体像の上の1つの着目点の座標値から、対象物体
上の着目点の座標値を求めることができる。
X”d-1)l/(q2 Q+) y=d I Q+/(q2 Q+) (2)z
=d−r+/(q2 qI) Here, d is a measurable value and is the coordinate value of the object image captured by the television camera (+)+, Ql+ rl ) and (1)2. q2. The value of I2) is a value that can be measured by the image analysis device 5. Therefore, the coordinate value of the point of interest on the target object can be determined from the coordinate value of one point of interest on the object images captured by the two television cameras.

そこで次に、テレビカメラ1及び2によって撮影された
2つの画像上で、対象物体上の同一着目点を同定する方
法について述べる。
Next, a method for identifying the same point of interest on a target object on two images taken by television cameras 1 and 2 will be described.

第3図は、この2つの画像から同一着目点を同定する方
法を説明する図であり、第3図(a)は、テレビカメラ
2で撮影された画像、第3図(b)は、テレビカメラ3
で撮影された画像である。第3図(a)及び(b)には
、第1図の対象物体1の像2OA及び20Bが図示され
ている。かかる像2OA及び20Bに対して、対象物体
上に採られた着目点Pを抽出するためのマスク22A及
び22Bをそれぞれ設定する。
FIG. 3 is a diagram illustrating a method for identifying the same point of interest from these two images. FIG. 3(a) is an image taken by the television camera 2, and FIG. camera 3
This is an image taken in . 3(a) and 3(b), images 2OA and 20B of the target object 1 of FIG. 1 are illustrated. Masks 22A and 22B are set for the images 2OA and 20B, respectively, for extracting the point of interest P taken on the target object.

ここで、着目点の同定操作は次のように実施する。即ち
、画像解析装置5は、画像メモリ6よりテレビカメラ2
で撮影された第3図(a)に示す画像を読み出し、その
画像上で予め定められた着目点Pの像を含む適当な大き
さのマスク22Aを切り出す。次に画像メモリ6よりテ
レビカメラ3で撮影された第3図ら)に示す画像を読み
出し、その画像上で前記対象着目点Pが存在すると推測
される位置を中心にして、前記と同一サイズのマスク2
2Bで画面を切り出す。この第3図(b)より切り出さ
れたマスク画像と、前に第3図(a)より切り出された
マスク画像との相関性を計算する。この相関性の計算は
、第3図ら)上でP点の存在推定領域を中心に切出しマ
スクを上下、左右に移動させた幾つかの位置に対して行
い、その内で最も相関の大きな位置を求める。この操作
で得られたP点に対する2つの座標位置が、対象着目点
の同定位置(pl。
Here, the operation of identifying the point of interest is performed as follows. That is, the image analysis device 5 reads the television camera 2 from the image memory 6.
The image shown in FIG. 3(a) taken in 1 is read out, and a mask 22A of an appropriate size containing an image of a predetermined point of interest P is cut out from the image. Next, the image shown in FIG. 3 et al. taken by the television camera 3 is read out from the image memory 6, and a mask of the same size as the above is placed on the image, centering on the position where the target point of interest P is estimated to exist. 2
Cut out the screen with 2B. The correlation between this mask image cut out from FIG. 3(b) and the mask image cut out previously from FIG. 3(a) is calculated. This correlation calculation is performed for several positions by moving the cutout mask vertically and horizontally around the estimated existence area of point P on Figure 3, etc., and among them, the position with the largest correlation is demand. The two coordinate positions for point P obtained through this operation are the identified position (pl) of the target point of interest.

q+、r+)及び(+)2. Q2. r2)となるこ
とは明らかであろう。すなわち、マスク22Δの中心が
、対象着目点の同定位置(p+、Q++ r+  )と
なり、マスク22A内の画像と最も相関度が高い画像が
得られた時のマスク22Bの中心が、対象着目点の同定
位置(p2. q2. r2)となる。
q+, r+) and (+)2. Q2. r2). That is, the center of the mask 22Δ becomes the identified position (p+, Q++ r+) of the target point of interest, and the center of the mask 22B when the image with the highest correlation with the image in the mask 22A is obtained is the identified position of the target point of interest. This becomes the identified position (p2. q2. r2).

そこで、これらの値に前記の式(2)を用いると着目点
の座標位置(x、y、z)を得ることができる。
Therefore, by using equation (2) above for these values, the coordinate position (x, y, z) of the point of interest can be obtained.

上記説明では、2台のテレビカメラで撮影された画像を
一旦画像メモリ6へ蓄積した後、着目点の候補位置での
画像内容の相関性を計算するとしていたが、テレビカメ
ラから人力される画像信号そのものに対して、相関性の
判定演算を行うことも可能であることは明らかであろう
In the above explanation, the images taken by the two television cameras are stored in the image memory 6, and then the correlation between the image contents at the candidate position of the point of interest is calculated. It is clear that it is also possible to perform correlation determination calculations on the signals themselves.

また、前記説明では、テレビカメラとしてテレビカメラ
2及び3の2台を用いた場合について説明したが、1台
のテレビカメラ例えばテレビカメラ2のみを用い、第1
図のテレビカメラ切り替え装置4の代わりにカメラ移動
装置を用いて1枚の画像を撮影した後テレビカメラを指
定された距離dだけ平行移動し、2枚目の画像を撮影す
るようにしても上記と全く同様の測距動作が行えること
は明らかであろう。
Further, in the above description, the case where two television cameras 2 and 3 are used as the television camera was explained, but if only one television camera, for example television camera 2, is used, the first
Even if a camera moving device is used instead of the television camera switching device 4 shown in the figure to photograph one image, the television camera is moved in parallel by a specified distance d, and a second image is photographed. It is clear that the same distance measuring operation can be performed.

次に、上記した位置測定方法の3次元位置の検出精度を
向上させた実施例について説明する。即ち、上に述べた
方法において、対象物体を2回撮影するテレビカメラの
離隔距離dが小さい場合には、式(2)からも分かるよ
うに、距離の検出精度が十分でない場合がある。この時
には、テレビカメラの撮影位置dを大きく採ることとな
るが、dが大きくなると2枚の画像において、物体の着
目点の画像内容が異なって見えることとなり、相関性が
正確に検出されない恐れがある。
Next, an embodiment will be described in which the three-dimensional position detection accuracy of the above-described position measuring method is improved. That is, in the method described above, if the distance d between the television cameras that photograph the target object twice is small, the distance detection accuracy may not be sufficient, as can be seen from equation (2). In this case, the shooting position d of the TV camera is set to be large, but if d becomes large, the image content of the object's focus point will appear different in the two images, and there is a risk that the correlation will not be detected accurately. be.

第4図は、この欠点を解決する高精度な位置測定方法の
動作を説明する図で、参照番号2A、2B、2C・・・
2Nは、それぞれY軸に沿って間隔dで移動したテレビ
カメラの各位置を示している。
FIG. 4 is a diagram explaining the operation of a highly accurate position measuring method that solves this drawback, with reference numbers 2A, 2B, 2C...
2N indicates each position of the television camera moved by an interval d along the Y axis.

また、第5図(a)、ら)、(C)、(d)は、第4図
の各テレビカメラ位置で撮影された画像を示す図であり
、参照番号24A、24B、24C・・24Nは、各画
像における着目点のマスクを示している。
5(a), 5(a), 5(c), and 5(d) are diagrams showing images taken at each television camera position in FIG. 4, with reference numbers 24A, 24B, 24C, . . . 24N. indicates a mask of the point of interest in each image.

この高精度な位置測定方法の動作は次のようになる。即
ち、第4図のように、テレビカメラをY軸に沿って連続
的に移動させながら、対象物体を撮影してゆく。この時
、各テレビカメラからは、第5図に示す様に、画像内容
を少しずつ異なった画像が得られる。ここで最初の画像
例えば第5図(a)に対して、対象物体の着目点に対応
するマスク24Aを切出したとする。次にこの切出した
マスクを次の画像第5図(b)対応する着目点の推定位
置に持ってゆき、相関性の調査(パターンマツチング)
を行う。ここで、テレビカメラの位i2Aと2Bとの距
離dが十分近ければ、高い相関性が保証される。そこで
、第5図ら〕の画像に対し、最も高い相関度が得られた
着目点位置のマスク24Bを切出し、つぎの撮影画像即
ち、第5図(C)の画像に対する相関性調査の基準パタ
ーンとする。次に、テレビカメラ位置2Cで得られた第
5図(C)に示す画像に対して同様な処理を行い、この
新たに切出した基準パターンを用いて相関性の調査を行
う。このようにすると、連続する画像間では着目点の画
像内容は類似しているので、高い相関性を確保した形で
着目点位置を抽出することができる。その結果、最終的
にはnd (nは繰返し回数)だけ離れた2台のテレビ
カメラで撮影された画像に対し、高い精度で物体上の着
目点の同一性の判定ができることとなり、高精度で位置
測定を実施することができる。
The operation of this highly accurate position measuring method is as follows. That is, as shown in FIG. 4, the target object is photographed while continuously moving the television camera along the Y axis. At this time, images with slightly different image contents are obtained from each television camera, as shown in FIG. Here, it is assumed that a mask 24A corresponding to the point of interest of the target object is cut out from the first image, for example, FIG. 5(a). Next, bring this cut-out mask to the estimated position of the corresponding point of interest in the next image (Figure 5(b)) and investigate the correlation (pattern matching).
I do. Here, if the distance d between the television cameras i2A and 2B is sufficiently close, a high correlation is guaranteed. Therefore, the mask 24B at the position of the point of interest where the highest degree of correlation was obtained is cut out from the images in Figure 5, et al., and used as the standard pattern for the correlation investigation for the next photographed image, that is, the image in Figure 5 (C). do. Next, similar processing is performed on the image shown in FIG. 5(C) obtained at the television camera position 2C, and correlation is investigated using this newly cut out reference pattern. In this way, since the image content of the point of interest is similar between consecutive images, it is possible to extract the position of the point of interest while ensuring a high correlation. As a result, it will be possible to determine the identity of a point of interest on an object with high accuracy for images taken by two television cameras separated by nd (n is the number of repetitions), and with high accuracy. Position measurements can be performed.

発明の詳細 な説明したように、本発明の位置測定方法によると、テ
レビカメラのような撮像手段による対象物体の撮影は通
常の照明条件の下で行える。また、撮影された2枚の画
像は、その撮影方法から分かる様に非常に類似した画像
であり、相関性の計算時に着目点の存在範囲の推定が容
易であり、計算量が少なくて良い。従って、高い精度で
3次元の距離測量が行える。更に、テレビカメラを含め
た機器構成が簡易であるので、広く実用に供することが
可能である。
As described in detail, according to the position measuring method of the present invention, a target object can be photographed by an imaging means such as a television camera under normal lighting conditions. In addition, the two captured images are very similar as can be seen from the capturing method, and when calculating the correlation, it is easy to estimate the existence range of the point of interest, and the amount of calculation can be small. Therefore, three-dimensional distance measurement can be performed with high accuracy. Furthermore, since the equipment configuration including the television camera is simple, it can be put to a wide range of practical applications.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明による位置測定方法を実施する装置の
構成例を示すブロック図、 第2図は、本発明による位置測定方法の原理を図解する
図、 第3図は、同一着目点を同定する方法を図解する図、 第4図は、本発明による位置測定方法での高精度な測距
方式の動作を図解する図、 第5図は、第4図のテレビカメラ位置で撮影された画像
を示す図である。 〔主な参照番号〕 l・・対象物体 2.3・・テレビカメラ 4・・テレビカメラ切り替え装置 5・・画像解析装置 6・ ・画1象メモリ 22A、22B、24A、24B、24C,24N・・
・マスク
FIG. 1 is a block diagram showing an example of the configuration of a device that implements the position measuring method according to the present invention, FIG. 2 is a diagram illustrating the principle of the position measuring method according to the present invention, and FIG. 3 shows the same points of interest. Figure 4 is a diagram illustrating the identification method; Figure 4 is a diagram illustrating the operation of the high-precision ranging method in the position measurement method according to the present invention; Figure 5 is a diagram illustrating the operation of the high-precision ranging method in the position measurement method according to the present invention; It is a figure showing an image. [Main reference numbers] l...Target object 2.3...Television camera 4...Television camera switching device 5...Image analysis device 6...Image 1 image memory 22A, 22B, 24A, 24B, 24C, 24N...・
·mask

Claims (9)

【特許請求の範囲】[Claims] (1)対象物体を基準位置に置いた撮像手段により撮影
して基準二次元画像を得、前記基準位置から所与の距離
離れた参照位置に置いた撮像手段により前記対象物体を
撮影して参照二次元画像を得て、前記基準二次元画像と
前記参照二次元画像との間の相関性を求めてそれら基準
二次元画像と参照二次元画像内の前記対象物体の着目点
の像の位置を決定し、前記基準二次元画像と前記参照二
次元画像内における前記着目点のそれぞれの位置と前記
所与の距離とから前記対象物体上の着目点の三次元座標
位置を決定することを特徴とする位置測定方法。
(1) A reference two-dimensional image is obtained by photographing a target object with an imaging means placed at a reference position, and a reference two-dimensional image is obtained by photographing the target object with an imaging means placed at a reference position a given distance from the reference position. Obtain a two-dimensional image, determine the correlation between the standard two-dimensional image and the reference two-dimensional image, and determine the position of the image of the target object in the standard two-dimensional image and the reference two-dimensional image. and determining the three-dimensional coordinate position of the point of interest on the target object from the respective positions of the point of interest in the standard two-dimensional image and the reference two-dimensional image and the given distance. position measurement method.
(2)前記基準位置に置いた撮像手段の光軸に対して、
前記参照位置に置いた撮像手段の光軸を平行に位置させ
て、該撮像手段により前記対象物体を撮影して前記参照
二次元画像を用意することを特徴とする特許請求の範囲
第(1)項記載の位置測定方法。
(2) With respect to the optical axis of the imaging means placed at the reference position,
Claim (1) characterized in that the reference two-dimensional image is prepared by photographing the target object using the imaging means with the optical axes of the imaging means placed at the reference position parallel to each other. Position measurement method described in section.
(3)前記基準位置に置いた撮像手段の光学系のレンズ
面と、前記参照位置に置いた撮像手段の光学系のレンズ
面とが同一平面に位置するように、前記参照位置に前記
撮像手段を位置付けて、該撮像手段により前記対象物体
を撮影して前記参照二次元画像を用意することを特徴と
する特許請求の範囲第(1)項または第(2)項記載の
位置測定方法。
(3) The imaging means is placed at the reference position such that the lens surface of the optical system of the imaging means placed at the reference position and the lens surface of the optical system of the imaging means placed at the reference position are located on the same plane. The position measuring method according to claim 1 or 2, characterized in that the reference two-dimensional image is prepared by positioning the target object and photographing the target object by the imaging means.
(4)直角三次元座標〔X、Y、Z〕系での前記対象物
体の前記着目点の座標位置(x、y、z)を式 x=d・p_1/(q_2−q_1) y=d・q_1/(q_2−q_1) z=d・r_1/(q_2−q_1) 但し、X:前記基準位置に置いた撮像手段の光軸と光学
系のレンズ面との交点を原点とし、前記基準位置に置い
た撮像手段の光軸に沿った座標軸 Y:前記基準位置に置いた撮像手段の光軸と光学系のレ
ンズ面との交点を原点としてX軸に直交し、前記基準位
置に置いた撮像手段の光軸と前記基準位置に置いた撮像
手段の光軸とにより形成される平面内に位置する座標軸 Z:前記基準位置に置いた撮像手段の光軸と光学系のレ
ンズ面との交点を原点としてX軸とY軸とに直交する座
標軸 d:前記基準位置に置いた撮像手段の光軸と前記参照位
置に置いた撮像手段の光軸とのY軸上での距離 p_1:前記基準位置及び前記参照位置に置いた撮像手
段の像平面のX軸上の座標位置 q_1:前記基準位置に置いた撮像手段の像平面の前記
着目点のY軸上の座標位置 r_1:前記基準位置に置いた撮像手段の像平面の前記
着目点のZ軸上の座標位置 q_2:前記参照位置に置いた撮像手段の像平面の前記
着目点のY軸上の座標位置 により求めることを特徴とする特許請求の範囲第(3)
項記載の位置測定方法。
(4) The coordinate position (x, y, z) of the point of interest of the target object in the orthogonal three-dimensional coordinate [X, Y, Z] system is expressed by the formula x=d・p_1/(q_2-q_1) y=d・q_1/(q_2-q_1) z=d・r_1/(q_2-q_1) However, X: The origin is the intersection of the optical axis of the imaging means placed at the reference position and the lens surface of the optical system; Coordinate axis Y along the optical axis of the imaging means placed at the reference position: The coordinate axis Y is perpendicular to the X-axis with the intersection of the optical axis of the imaging means placed at the reference position and the lens surface of the optical system as the origin, and the image taken at the reference position. Coordinate axis Z located within a plane formed by the optical axis of the means and the optical axis of the imaging means placed at the reference position: the intersection of the optical axis of the imaging means placed at the reference position and the lens surface of the optical system Coordinate axis d perpendicular to the X-axis and Y-axis as the origin: distance p_1 on the Y-axis between the optical axis of the imaging means placed at the reference position and the optical axis of the imaging means placed at the reference position p_1: the reference position and coordinate position q_1 on the X-axis of the image plane of the imaging means placed at the reference position: coordinate position r_1 on the Y-axis of the point of interest on the image plane of the imaging means placed at the reference position: The coordinate position q_2 on the Z-axis of the point of interest on the image plane of the imaging means placed at the reference position: determined by the coordinate position on the Y-axis of the point of interest on the image plane of the imaging means placed at the reference position. Range number (3)
Position measurement method described in section.
(5)前記撮像手段としてテレビカメラを使用し、2台
のテレビカメラを前記基準位置と前記参照位置に配置し
て、それぞれ前記基準二次元画像と前記参照二次元画像
を撮影することを特徴とする特許請求の範囲第第(1)
項から第(4)項までのいずれか1項記載の位置測定方
法。
(5) A television camera is used as the imaging means, and two television cameras are placed at the standard position and the reference position to photograph the standard two-dimensional image and the reference two-dimensional image, respectively. Claim No. (1)
The position measuring method according to any one of paragraphs to (4).
(6)前記撮像手段としてテレビカメラを使用し、1台
のテレビカメラを前記基準位置に置いて前記基準二次元
画像を撮影し、更に前記テレビカメラを前記参照位置に
移動して前記参照二次元画像を撮影することを特徴とす
る特許請求の範囲第(1)項から第(4)項までのいず
れか1項記載の位置測定方法。
(6) A television camera is used as the imaging means, one television camera is placed at the reference position to photograph the reference two-dimensional image, and the television camera is further moved to the reference position to capture the reference two-dimensional image. A position measuring method according to any one of claims (1) to (4), characterized in that an image is photographed.
(7)前記対象物体を前記基準位置に置いて前記撮像手
段により撮影して前記基準二次元画像を用意した後、前
記基準位置から所与の方向に所与の距離d離れた第1の
参照位置において前記撮像手段により前記対象物体を撮
影して第1の参照二次元画像を用意し、前記基準二次元
画像と前記第1の参照二次元画像との間の相関性を求め
て、前記基準二次元画像内の前記対象物体の着目点像を
含む領域と最も高い相関度を有する前記第1の参照二次
元画像内の前記対象物体の着目点像を含む第1の参照領
域を決定し、更に、前記第1の参照位置から前記所与の
方向に更に前記所与の距離d離れた第2の参照位置にお
いて前記撮像手段により前記対象物体を撮影して第2の
参照二次元画像を用意し、前記第1及び第2の参照二次
元画像との間の相関性を求めて、前記第1の中間参照領
域に対して最も高い相関度を有する前記第2の中間二次
元画像内の前記対象物体の着目点像を含む第2の参照領
域を決定し、上記操作をn(n≧2)回繰り返して、第
nの参照二次元画像の第nの参照領域を決定し、前記基
準二次元画像の前記着目点の位置と、前記第nの参照二
次元画像内における前記第nの参照領域内の前記着目点
の位置と、距離ndとから前記対象物体上の着目点の三
次元座標位置を決定することを特徴とする特許請求の範
囲第(1)項から第(6)項までのいずれか1項記載の
位置測定方法。
(7) After preparing the reference two-dimensional image by placing the target object at the reference position and photographing it with the imaging means, a first reference image is placed at a given distance d in a given direction from the reference position. A first reference two-dimensional image is prepared by photographing the target object by the imaging means at the position, and a correlation between the reference two-dimensional image and the first reference two-dimensional image is determined, and the reference two-dimensional image is obtained. determining a first reference area including the point of interest image of the target object in the first reference two-dimensional image that has the highest correlation with the area including the point of interest image of the target object in the two-dimensional image; Furthermore, a second reference two-dimensional image is prepared by photographing the target object with the imaging means at a second reference position further away from the first reference position by the given distance d in the given direction. The correlation between the first and second reference two-dimensional images is determined, and the second intermediate two-dimensional image having the highest degree of correlation with respect to the first intermediate reference area is selected. Determine a second reference area that includes the focal point image of the target object, repeat the above operation n (n≧2) times, determine the n-th reference area of the n-th reference two-dimensional image, and then Three-dimensional coordinates of the point of interest on the target object from the position of the point of interest in the dimensional image, the position of the point of interest within the n-th reference area in the n-th reference two-dimensional image, and the distance nd. A position measuring method according to any one of claims (1) to (6), characterized in that the position is determined.
(8)前記撮像手段により得られた画像を画像記憶装置
に記憶して、該画像記憶装置に記憶した画像を読み出し
て画像解析装置により相関性の検出を実施することを特
徴とする特許請求の範囲第(1)項から第(7)項まで
のいずれか1項記載の位置測定方法。
(8) The image obtained by the imaging means is stored in an image storage device, the image stored in the image storage device is read out, and the correlation is detected by an image analysis device. The position measuring method according to any one of the ranges (1) to (7).
(9)2台のテレビカメラを前記基準位置と前記参照位
置とに配置して、それぞれ前記基準二次元画像及び前記
参照二次元画像を撮影することを特徴とする特許請求の
範囲第(1)項から第(8)項までのいずれか1項記載
の位置測定方法。
(9) Claim (1) characterized in that two television cameras are arranged at the standard position and the reference position to photograph the standard two-dimensional image and the reference two-dimensional image, respectively. The position measuring method according to any one of paragraphs to (8).
JP62053882A 1987-03-09 1987-03-09 Position measuring method Pending JPS63218815A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62053882A JPS63218815A (en) 1987-03-09 1987-03-09 Position measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62053882A JPS63218815A (en) 1987-03-09 1987-03-09 Position measuring method

Publications (1)

Publication Number Publication Date
JPS63218815A true JPS63218815A (en) 1988-09-12

Family

ID=12955112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62053882A Pending JPS63218815A (en) 1987-03-09 1987-03-09 Position measuring method

Country Status (1)

Country Link
JP (1) JPS63218815A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02267676A (en) * 1989-04-07 1990-11-01 Kobe Steel Ltd Stereoscopic image device
CN102314706A (en) * 2010-07-08 2012-01-11 三星电机株式会社 Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus
CN109682312A (en) * 2018-12-13 2019-04-26 上海集成电路研发中心有限公司 A kind of method and device based on camera measurement length

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02267676A (en) * 1989-04-07 1990-11-01 Kobe Steel Ltd Stereoscopic image device
CN102314706A (en) * 2010-07-08 2012-01-11 三星电机株式会社 Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus
CN109682312A (en) * 2018-12-13 2019-04-26 上海集成电路研发中心有限公司 A kind of method and device based on camera measurement length

Similar Documents

Publication Publication Date Title
EP1580523A1 (en) Three-dimensional shape measuring method and its device
JP2004163292A (en) Survey system and electronic storage medium
CN109883391B (en) Monocular distance measurement method based on digital imaging of microlens array
CN105953741B (en) System and method for measuring local geometric deformation of steel structure
WO2017199285A1 (en) Image processing device and image processing method
JP3696336B2 (en) How to calibrate the camera
JP2017098859A (en) Calibration device of image and calibration method
JPH03200007A (en) Stereoscopic measuring instrument
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JPH10320558A (en) Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium
CN106643731A (en) System and method for tracking and measuring point target
JPS63218815A (en) Position measuring method
RU2311615C2 (en) Method of contactless measuring of projection sizes of object
JPS6256814A (en) Calibration system for three-dimensional position measuring camera
JPH0875454A (en) Range finding device
JPH11194027A (en) Three-dimensional coordinate measuring instrument
Sueishi et al. Mirror-based high-speed gaze controller calibration with optics and illumination control
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
RU2685761C1 (en) Photogrammetric method of measuring distances by rotating digital camera
Katada et al. The triangulation of toe-in style stereo camera
JP3446020B2 (en) Shape measurement method
JP3340599B2 (en) Plane estimation method
JPH11223516A (en) Three dimensional image pickup device
Kainz et al. Estimation of camera intrinsic matrix parameters and its utilization in the extraction of dimensional units
Guo et al. The internal parameter calibration based on sub-pixel threshold segment algorithm