JPS62249286A - Position measuring system using correspondence relation between images - Google Patents

Position measuring system using correspondence relation between images

Info

Publication number
JPS62249286A
JPS62249286A JP61092088A JP9208886A JPS62249286A JP S62249286 A JPS62249286 A JP S62249286A JP 61092088 A JP61092088 A JP 61092088A JP 9208886 A JP9208886 A JP 9208886A JP S62249286 A JPS62249286 A JP S62249286A
Authority
JP
Japan
Prior art keywords
point
images
image
brightness
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61092088A
Other languages
Japanese (ja)
Inventor
Takuji Nishitani
西谷 卓史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61092088A priority Critical patent/JPS62249286A/en
Priority to US07/041,228 priority patent/US4825393A/en
Publication of JPS62249286A publication Critical patent/JPS62249286A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To execute accurately the corresponding between the points of a pair of images by counting the force of gravity corresponding to the characteristic quantity (brightness, and changing quantity of the brightness of a near point) of the pair of images. CONSTITUTION:The image information photographed by a TV camera 11 is stored into an image memory part 12. In case of a binocular stereopsia, two images photographed simultaneously from a different position are stored. A pretreatment part 13 reads image information from the image memory part 12, counts the average brightness and the changing quantity of the brightness of a near point for a small area of suitable dimensions and sends the result to a corresponding point determining part 14. The corresponding point determining part 14 counts the corresponding relation between respective small areas with the received data and sends the instruction to the pretreatment part 13 based upon the result. The pretreatment part 13 executes the changing of the size of an area and the setting of an initial value. By repeating such a processing, when the calculating result of the corresponding relation is sufficiently converged, the counting result is sent to a three-dimensional distance determining part 15 and here, the position is counted.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、位置計測装置に関し、特に、同一対象物から
異なる位置又は時刻で得られた一対の画て機鼎を制御す
る各種の装置(例えば、視覚を持つロボット、外景に応
答する乗物の自動制御装置。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a position measuring device, and in particular to various devices ( For example, robots with vision, automatic control devices for vehicles that respond to the external environment.

ITVと連動するプロセス制御装置など)にとって、不
可欠なものである。
It is indispensable for process control equipment (such as process control equipment that works with ITV).

〔従来の技術〕[Conventional technology]

前記の型の位置計測装置においては、一方の画像のある
点が他方の画像のどの点と対応するかを、自動処理によ
って決定することが必要である。そのための従来方法の
一つが、“サイエンス”。
In position measuring devices of the type mentioned above, it is necessary to determine by automatic processing which point in one image corresponds to which point in the other image. One of the conventional methods for this purpose is "science."

194巻、 15.1976年10月(”5cienc
e” Vol。
Volume 194, 15. October 1976 ("5cienc
e” Vol.

194 、15 0ctober、1976)の第28
3〜287頁に掲載されている〔ディー・マールとティ
ー・ポギオによるパ立体不均衡の協調計算”(D、 N
arr。
194, 150ctober, 1976) No. 28
Cooperative calculation of P-steric disequilibrium by D. Marr and T. Poggio” published on pages 3-287 (D, N
arr.

T、 Poggio Cooperativa Com
putation of 5tare。
T, Poggio Cooperativa Com
putation of 5tare.

Dfsparity″)を参照のこと〕。Dfsparity'')].

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

この方法は、並列演算が可能なため、高速処理に適して
いる。しかしながら、この方法は、2レベルに量子化さ
れた画素からなる画像について。
This method is suitable for high-speed processing because parallel calculations are possible. However, this method only works for images consisting of pixels that are quantized to two levels.

画素と画素の間の対応関係を求めるものであるため、対
応付けが粗い、すなわち、一方の画像のある画素を他方
の画像の画素と画素の中間位置に対応付けることはでき
ない、その結果、算出される位置の精度が不充分である
。また、2レベルに量子化された画像しか扱えないため
、誤った対応付けを行ってしまい、算出された位置を大
巾に誤る点が多くなってしまう。
Since the purpose is to find the correspondence between pixels, the correspondence is rough; that is, it is not possible to correspond a certain pixel in one image to a position intermediate between pixels in the other image, and as a result, the calculated The accuracy of the position is insufficient. Further, since only images quantized to two levels can be handled, incorrect correspondences are made, and the calculated positions are often greatly incorrect.

本発明の目的は、一対の画像における点間の対応付けを
精緻なものとし、ひいては、位置計測の精度を改善する
ことにある。
An object of the present invention is to refine the correspondence between points in a pair of images, and to improve the accuracy of position measurement.

〔問題点を解決するための手段〕[Means for solving problems]

本発明の特徴は、一方の画像の特徴量と他方の画像の特
徴量(明るさ、近傍の点の明るさの変化量等)に対応し
た引力の計算を行うところにある。
The feature of the present invention is to calculate the gravitational force corresponding to the feature amount of one image and the feature amount (brightness, amount of change in brightness of neighboring points, etc.) of the other image.

通常、引力が大きくなる対応点は各点に対して複数個存
在する。これらの対応点のうちの一つが正しい対応点で
ある。この正しい対応点を求めるために1次のような性
質を利用する。すなわち、物体の表面上での奥行きの変
動は一般に滑らかであり、しかも不連続的な変化は物体
の境界縁のところでしか生じない、この性質を利用する
ために。
Usually, each point has a plurality of corresponding points where the gravitational force becomes large. One of these corresponding points is the correct corresponding point. In order to find this correct corresponding point, a first-order property is used. In other words, to take advantage of the fact that variations in depth on the surface of an object are generally smooth, and discontinuous changes occur only at the edges of the object.

一方の画像の各点と、他方の画像の各点とを連結するネ
ットワークを考える。
Consider a network that connects each point in one image with each point in the other image.

このネットワーク上の各ノード(連結点)において、対
応する両画像上の点の間に働く引力を計算し、この引力
の評価値分布から対応点を決定する。このような引力の
分布を求めるために、引力を評価するための係数を導入
し、この係数と引力との積により対応度を評価する6ネ
ツトワーク上の各ノードにおける係数の値を、そのノー
ドの近傍のノードが持つ対応度の評価値により調整する
ことにより定常解を求める。このとき、各ノードが持つ
引力の評価値が、それらのノードに対応する画像上の点
の間の対応の度合を表わす。
At each node (connection point) on this network, the attractive force acting between corresponding points on both images is calculated, and corresponding points are determined from the evaluation value distribution of this attractive force. In order to find the distribution of such attractive forces, we introduce a coefficient to evaluate the attractive force, and evaluate the degree of correspondence by multiplying this coefficient by the attractive force.6 The value of the coefficient at each node on the network is calculated from that node. A steady-state solution is found by adjusting the correspondence evaluation values of nodes in the vicinity of . At this time, the evaluation value of the attractive force possessed by each node represents the degree of correspondence between the points on the image corresponding to those nodes.

〔作用〕[Effect]

通常、処理対象となる2つの画像の間における対応点の
ずれは非常に小さいから、各画像上の点に接続される点
の数(ネットワーク上のノードの数)はさほど大きくな
く、したがって、前記のようなネットワークを用いた自
動処理が実用的なものとなる。
Normally, the deviation between corresponding points between two images to be processed is very small, so the number of points (number of nodes on the network) connected to a point on each image is not very large. Automatic processing using a network like this becomes practical.

〔実施例〕〔Example〕

第1図は、本発明が適用された位置計測装置の一実施例
のブロック構成図である。TVカメラ11により撮像さ
れた画像を表わす情報は、画像記憶部13に一旦記憶さ
れる1両眼立体視の場合であれば、異なる位置から同時
に撮像された2枚の画像が記憶されるが、計測主体と計
測対象の間の相対的な移動があれば、異なる時刻に撮像
された2枚の画像が記憶されてもよい、演算部10は。
FIG. 1 is a block diagram of an embodiment of a position measuring device to which the present invention is applied. The information representing the image captured by the TV camera 11 is temporarily stored in the image storage unit 13. In the case of monocular stereoscopic vision, two images captured simultaneously from different positions are stored. If there is a relative movement between the measurement subject and the measurement target, the calculation unit 10 may store two images taken at different times.

この例では、前処理部13と、対応点決定部]4と、距
離計算部15とからなる。前処理部13は。
In this example, it consists of a preprocessing section 13, a corresponding point determination section]4, and a distance calculation section 15. The preprocessing section 13 is.

画像記憶部12から画像情報を読出して、適当な寸法の
小領域ごとに、平均明るさや近傍の点の明るさの変化量
などを計算し、結果を対応点決定部14に送る。対応点
決定部14は、受取ったデータを用いて各小領域間の対
応関係を算定し、その結果に基づいて前処理部13に指
示を送り、これに応じて前処理部13は、領域の大きさ
の変更や前処理および計算の初期値の設定などを実行す
る。
The image information is read from the image storage section 12, and the average brightness and the amount of change in brightness of neighboring points are calculated for each small region of appropriate size, and the results are sent to the corresponding point determination section 14. The corresponding point determining unit 14 calculates the correspondence between each small region using the received data, and sends an instruction to the preprocessing unit 13 based on the result. Performs changes in size, preprocessing, and setting initial values for calculations.

このような処理が適当な回数だけ繰返されて対応関係の
算定結果が充分収束すると、その算定結果は三次元距離
計算部15に送られ、ここで位置の計算が行われる。
When such processing is repeated an appropriate number of times and the calculation result of the correspondence relationship is sufficiently converged, the calculation result is sent to the three-dimensional distance calculation section 15, where the position calculation is performed.

以下1両眼立体視の場合を例にとって、前記各部におけ
る処理の詳細を説明する1両眼立体視の場合、左右の眼
に対応する2台のTVカメラ11が設けられ、それらの
位置は既知である。この場合、対応点の探索は、5pi
polar 1ine上に局限することができる。 e
pipolar 1ineとは、第2図に示すように、
右カメラのレンズ中心22.左カメラのレンズ中心23
及び対象点Pの3点により決定される平面と、各カメラ
の画像24.25との交線21である(「情報処理J 
Vol、24.Nn、12゜p 、 1449 ”米国
における画像理解研究”参照)。
In the case of single binocular stereoscopic viewing, two TV cameras 11 corresponding to the left and right eyes are provided, and their positions are known. It is. In this case, the search for corresponding points is 5pi
It can be localized on polar 1ine. e
pipolar 1ine is, as shown in Figure 2,
Right camera lens center 22. Left camera lens center 23
and the intersection line 21 between the plane determined by the three points of interest point P and the images 24 and 25 of each camera ("Information Processing J
Vol, 24. Nn, 12°p, 1449 (see “Image Understanding Research in the United States”).

画像記憶部12には、 epipolar 1ineが
両画像の対応する走査線に一致するように1画像情報を
変換して記憶する。このような形で記憶することにより
1両画像の対応する走査線上の点の間の対応関係を調べ
れば済むことになる。
In the image storage unit 12, one image information is converted and stored so that epipolar 1ine matches the corresponding scanning line of both images. By storing the data in this format, it is only necessary to check the correspondence between points on corresponding scanning lines of one image.

次に、前処理部13における処理を説明する。Next, the processing in the preprocessing section 13 will be explained.

第3図において、31は左眼像であり、32は右眼像で
ある。33は対応点決定の対象となる走査線であり、e
pipolar 1ineに一致している。前処理部1
3は、この走査線33を含むnXn画素の小領域34i
 (i=1.2.・・・tm)を取上げて。
In FIG. 3, 31 is a left eye image, and 32 is a right eye image. 33 is a scanning line for which corresponding points are determined; e
It matches pipolar 1ine. Pre-processing section 1
3 is a small area 34i of nXn pixels including this scanning line 33.
Take (i=1.2...tm).

その小領域の平均明るさを次式により算出する。The average brightness of the small area is calculated using the following formula.

ここに、nは小領域の一辺の画素数、RI (x。Here, n is the number of pixels on one side of the small area, RI (x.

y)e LI (x+ y)はそれぞれ位置(x、y)
の右眼像と左眼像の画素が持つ明るさの量、Qは対応点
を決定し、三次元距離を求めたい走査線の番号、mは小
領域の個数である。
y) e LI (x+ y) is the position (x, y) respectively
Q is the number of the scanning line for determining the corresponding point and finding the three-dimensional distance, and m is the number of small areas.

次に、このようにして求めた各小領域の明るさを用いて
、明るさの変化量(微分値)を次式により計算する。
Next, using the brightness of each small area obtained in this way, the amount of change (differential value) in brightness is calculated using the following equation.

ここに、dは微分を行う近傍の巾を表わす定数、σ1は
微分と同時に平滑化を行うパラメータである。
Here, d is a constant representing the width of the neighborhood where differentiation is performed, and σ1 is a parameter that performs smoothing at the same time as differentiation.

以上が前処理部13における処理の内容である。The above is the content of the processing in the preprocessing section 13.

次に、対応点決定部14について説明する。対応点決定
部14では、第4図に示すようなネットワークを想定し
、そのネットワーク上の各ノードの引力を計算する。第
4図は、右眼像に対する各微分値BR(i)を縦軸方向
の点46とし、左限像に対する微分値BL (j)を横
軸方向の点47とし、一方の像の各点から他方の画像の
点へとノードを設けて接続することにより構成したネッ
トワークである。なお、各点iと接続される対向画像上
の点は、実際には、対向する点及びその近傍の適当な個
数に局限することができ1図には9個のみが例示されて
いる。
Next, the corresponding point determination unit 14 will be explained. The corresponding point determination unit 14 assumes a network as shown in FIG. 4 and calculates the attractive force of each node on the network. In FIG. 4, each differential value BR(i) for the right eye image is taken as a point 46 in the vertical axis direction, and the differential value BL (j) for the left limit image is taken as a point 47 in the horizontal axis direction, and each point in one image is This is a network constructed by providing and connecting nodes from one point to another point in the image. Note that the points on the opposing image connected to each point i can actually be limited to an appropriate number of opposing points and their vicinity, and only nine points are illustrated in FIG.

対応点決定部14では、このネットワークに対し1次の
計算手順の(n)〜(III)の計算を数回行って、は
ぼ定常解に達したところで対応点を決定する。
The corresponding point determining unit 14 performs calculations (n) to (III) of the first-order calculation procedure several times for this network, and determines corresponding points when a nearly stationary solution is reached.

(1)各ノードに対し、引力の係数R(x、j)の初期
値を設定する。
(1) Set the initial value of the coefficient of attraction R(x, j) for each node.

(If)各ノードに対する対応度合X(Le j)を次
式により計算する。
(If) The degree of correspondence X(Le j) for each node is calculated using the following equation.

ここに、σ2は引力の強さを決めるパラメータである。Here, σ2 is a parameter that determines the strength of attraction.

(III)各ノードに対する引力の多数R(ie j)
を次式により更新する。
(III) The number of attractions R(ie j) for each node
is updated using the following formula.

R’ (1tj) =R(i tj)+β・ΔR(le
j)   ・・・(4)ただし。
R' (1tj) =R(i tj)+β・ΔR(le
j) ...(4) However.

である、ここに、ωは引力の評価値Xに対する重み係数
であり、第5図に示す関数の値である。また、βは適当
な補正係数である。Qは重みづけを行う巾を示す定数で
あり、第5図の例では0=4である。
, where ω is a weighting coefficient for the evaluation value X of the attractive force, and is the value of the function shown in FIG. Further, β is an appropriate correction coefficient. Q is a constant indicating the weighting width, and in the example of FIG. 5, 0=4.

以上のようにして定常解が得られたとき、対応点は次式
のように求められる。
When the steady solution is obtained as described above, the corresponding points can be found as shown in the following equation.

ここに、 pI:右眼像のi番目の小領域と対応する左
眼像の小領域の番号 a:対応点を求めるiJを示す定数 である。第(8)式および第(9)式は、右眼像のi番
目の小領域と接続されているノードから、引力の評価値
が最も大きいものを選び、このノードを中心とする±a
の巾以内にあるノードの持つ引力の評価値に対し、ノー
ド間の距離を重みとして加重平均をすることを示してい
る。なおpIが小数部分を含むとき、その小数部分は、
小領域と次の小領域の間の点を示すものと解釈する。
Here, pI: number of the small region of the left eye image corresponding to the i-th small region of the right eye image; a: a constant indicating iJ for finding the corresponding point. Equations (8) and (9) are calculated by selecting the node with the largest evaluation value of attractive force from the nodes connected to the i-th small region of the right eye image, and calculating ±a with this node as the center.
This indicates that the evaluation values of the attractive forces of nodes within the width are weighted and averaged using the distance between nodes as weights. Note that when pI includes a decimal part, the decimal part is
It is interpreted as indicating the point between one subregion and the next subregion.

次に、第6図のフローチャートを用いて、計算の手順を
詳細に説明する。まず、ステップ1において第(1)式
を用いて各小領域の平均明るさを求めるとともに、R(
xy j)の初期値を設定する。
Next, the calculation procedure will be explained in detail using the flowchart shown in FIG. First, in step 1, the average brightness of each small area is calculated using equation (1), and R(
xy j).

る。計算開始時のR(i、j)は5.0程度の適当な値
に設定しておけば良い0次の手順ステップ2では、この
小領域の平均明るさを用いて、第(2)式により微分量
を計算する。この微分量を用い、ステップ3およびステ
ップ4では第(3)式によるX(it j)の計算およ
び第(4)式〜第(7)式によるR(t、j)の計算を
数回くり返す。ただし、この計算をくり返しながら第(
3)式のσ2を次第に小さくシ、対応付けを精緻にして
ゆく、ステップ3およびステップ4を数回繰り返した後
Ru. R (i, j) at the start of calculation should be set to an appropriate value of about 5.0. In step 2 of the 0th order procedure, using the average brightness of this small area, equation (2) Calculate the differential quantity by. Using this differential amount, in steps 3 and 4, calculation of X(it j) by equation (3) and calculation of R(t, j) by equations (4) to (7) are repeated several times. return. However, by repeating this calculation,
3) After repeating steps 3 and 4 several times, gradually decreasing σ2 in the equation and refining the correspondence.

ステップ2に戻りσ1を小さくして第(2)式の計算を
行い、微分値を精細なものとし、ステップ3〜ステツプ
4の計算をくり返す、これらの演算終了後、ステップ5
により対応点の計算を行い、ステップ1に戻る。ステッ
プ1では、平均明るさを求める領域の大きさnを小さく
して第(1)式による計算を行うとともに、ステップ5
の対応点の計算結果にもとづき、次式によりR(zej
)の初期値を設定する。
Return to step 2, reduce σ1, calculate equation (2), refine the differential value, and repeat the calculations of steps 3 and 4. After completing these calculations, step 5
Then, calculate the corresponding points and return to step 1. In step 1, the size n of the area for which the average brightness is calculated is reduced and calculation is performed using equation (1), and in step 5
Based on the calculation results of the corresponding points, R(zej
) to set the initial value.

R(i *j)= 10.0−(j −(i + p’
1))”−(10)ただし−R(i、j)<0.0とな
る場合はR(x v j)=0.0とする。またp1′
はステップ5の結果がら、新しいネットワーク上におけ
る右眼像の点iが対応する左眼像の点のずれ量である。
R (i * j) = 10.0 - (j - (i + p'
1))" - (10) However, if -R (i, j) < 0.0, set R (x v j) = 0.0. Also, p1'
As a result of step 5, is the shift amount of the point i of the left eye image to which point i of the right eye image corresponds on the new network.

第(lO)式の初期値を用いてステップ2〜ステツプ5
の計算をくり返す。
Steps 2 to 5 using the initial value of equation (lO)
Repeat the calculation.

以上述べた計算を、平均明るさを求める小領域の大きさ
nを順次小さくして繰り返すことにより最終的な対応点
を求めることができる。
The final corresponding points can be obtained by repeating the calculations described above while successively decreasing the size n of the small area for which the average brightness is to be obtained.

以上が対応点決定部14における処理手順である。ここ
で、第(4)式〜第(7)式は次のような意義を有する
。一般に、移動体が移動する環境において、はとんどの
場所で、対象の表面は滑らかに変化すると考えられ(こ
れをcontinuity assumptionとい
う)、隣接する画素では距離の変化は小さい。
The above is the processing procedure in the corresponding point determining section 14. Here, Equations (4) to (7) have the following meanings. Generally, in an environment where a moving body moves, the surface of the object is considered to change smoothly at most places (this is called continuity assumption), and the change in distance between adjacent pixels is small.

第(4)弐〜第(7)式が示すように、引力の評価値の
大きいノードがあれば、そのノードの近隣のノードは引
力の係数R(i、j)を大きくし、遠く離れるに従いR
(x、j)が小さくなるような重み付けWによってR(
x、j)を更新し、更に、iの近隣の点(it1)と接
続されているノードについても、前記の重み付け(すな
わち、it1で最大となる重み付け)による更新量を加
算することにより、continuity assum
ption を満足させることができる。
As shown in Equations (4) 2 to (7), if there is a node with a large evaluation value of attraction, the neighboring nodes of that node will increase the coefficient of attraction R(i, j), and the farther away they are, the more R
R(
The continuity assum
ption can be satisfied.

次に、第7図を用いて距離計算部15の説明をする。第
7図に示すように、VLとVRを左右それぞれのカメラ
の光学系の中心座標とし、PL(xLy yム)tP*
 (xR@ yR)を前方物体の表面上の1点P (x
、 yRz)が左右のカメラ撮像面に作る像の位置とし
、fをレンズの焦点距離とする。このとき1点Pの位置
は、周知のようにXムーXR で与えられる。距離計算部15においては、対応点決定
部14の計算結果である各点の(XR* yR)t(X
L、yム)と第(11)式を用いて、画像上の各点に対
応する物体上の各点の三次元距離を計算する。
Next, the distance calculation section 15 will be explained using FIG. As shown in Fig. 7, VL and VR are the center coordinates of the optical systems of the left and right cameras, respectively, and PL(xLy ym)tP*
(xR@yR) is one point P (x
, yRz) are the positions of images formed on the left and right camera imaging surfaces, and f is the focal length of the lens. At this time, the position of one point P is given by XmuXR, as is well known. In the distance calculation unit 15, (XR*yR)t(X
The three-dimensional distance of each point on the object corresponding to each point on the image is calculated using Equation (11).

本実施例による処理結果の一例を第8図〜第9図に示す
。第8図(a)、(b)は1画像記憶部12に記憶され
た対応するある一対の走査線上のそれぞれ右眼像と左眼
像であり、横軸は画素番号で、縦軸は明るさを示す、こ
の画像データに対し。
Examples of processing results according to this embodiment are shown in FIGS. 8 and 9. FIGS. 8(a) and 8(b) are right eye images and left eye images on a pair of corresponding scanning lines stored in the 1-image storage unit 12, respectively, where the horizontal axis is the pixel number and the vertical axis is the brightness. For this image data, which shows

前処理部13において、2×2画素の小領域ごとの平均
明るさと、その微分値を計算し、対応点決定部14にお
いて対応点の決定計算を行う。次いで、この結果を用い
て抵抗の初期値を決定し、1×1画素の小領域ごとの平
均明るさを用いた一巡の計算を行う、対応点決定部14
において最終的に得られる結果を第9図(a)に示す、
横軸は画素番号であり、縦軸は右眼像に対して左眼色が
右にずれている画素数である。ここでは、微分値の絶対
値が大きい画素についてのみ計算結果をそのまま表示し
、その他の点については前記の点の補間をしている。第
9図(b)は、第7図に基づいて三次元距離計算部15
で計算した結果のy方向距離(奥行き)を示したもので
ある。
The preprocessing unit 13 calculates the average brightness and its differential value for each small area of 2×2 pixels, and the corresponding point determination unit 14 performs calculations to determine the corresponding points. Next, the corresponding point determination unit 14 determines the initial value of the resistance using this result, and performs one round calculation using the average brightness of each small area of 1×1 pixel.
The final results obtained are shown in FIG. 9(a).
The horizontal axis is the pixel number, and the vertical axis is the number of pixels in which the left eye color is shifted to the right with respect to the right eye image. Here, only the calculation results for pixels with large absolute values of differential values are displayed as they are, and for other points, the above-mentioned points are interpolated. FIG. 9(b) shows the three-dimensional distance calculation unit 15 based on FIG.
This shows the distance in the y direction (depth) calculated in .

以上、両眼視像における実施例について述べてきた0本
発明は、両眼視像のような、対応する走査線上でのみ対
応点を求めればよい場合に限らず、任意方向に相対変位
する対象を異なる時刻で撮像した画像のように、2次元
的な範囲で対応点を求める必要がある場合にも適用でき
る。
The present invention, which has been described above with respect to embodiments in binocular images, is applicable not only to cases where corresponding points need to be found only on corresponding scanning lines, such as in binocular images, but also to objects that are relatively displaced in arbitrary directions. This method can also be applied to cases where it is necessary to find corresponding points in a two-dimensional range, such as images taken at different times.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、対応点の決定に際して、画像の濃淡情
報をそのまま(2値に量子化せずに)扱うことができ、
また、画素と画素の間での対応付けに限られず、一方の
画像の画素を他方の画像における画素と画素の間の位置
に対応付けが可能になり、ひいては、位置又は距離の計
測精度が向上する。
According to the present invention, when determining corresponding points, the shading information of an image can be treated as is (without being quantized into binary values),
In addition, it is not limited to mapping between pixels, but it is now possible to map pixels in one image to positions between pixels in the other image, which in turn improves the accuracy of position or distance measurement. do.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明を実施するための装置のブロック構成図
、第2図は両眼視の場合におけるepipolar 1
ineの説明図、第3図は両眼視の場合における前処理
を説明するための画像の略図、第4図は対応する走査線
上で対応点を決定するためのネットワークの図、第51
1は引力の係数の更新に用いられる重み係数のグラフ、
第6図は本発明−こよる処理手順を説明するためのフロ
ーチャート、第7図は画像上の対応点の位置と被計測点
の位置の関係を示す模式図、第8図および第9図は本発
明による処理結果の一例を示すグラフである。 第 1 目 /U 第 5 図 W″ 第2 図 P z %3 口 →ズ              →χ第40 閉乙 図 M7 ロ
FIG. 1 is a block diagram of an apparatus for implementing the present invention, and FIG. 2 is an epipolar 1 diagram for binocular vision.
FIG. 3 is a schematic diagram of an image for explaining preprocessing in the case of binocular vision, FIG. 4 is a diagram of a network for determining corresponding points on the corresponding scanning line, and FIG.
1 is a graph of weighting coefficients used to update the coefficient of gravity,
FIG. 6 is a flowchart for explaining the processing procedure according to the present invention, FIG. 7 is a schematic diagram showing the relationship between the positions of corresponding points on an image and the positions of measured points, and FIGS. 8 and 9 are 3 is a graph showing an example of processing results according to the present invention. 1st/U 5th Figure W″ 2nd P z %3 口 → Z → χ40th closed Figure M7

Claims (1)

【特許請求の範囲】 1、外界の像を表わす画像情報を発生する手段と、この
画像情報を処理して一対の画像の互いに対応する点の対
を決定し、各対をなす2点の位置関係に基づき、当該両
点に対応する外界の点の位置を算定する演算部とを備え
た位置計測装置において、各対応点対が、一方の画像の
各点が持つ特徴量と他方の画像の各点が持つ特徴量との
間で発生する引力の分布に基づいて決定されることを特
徴とする画像間の対応関係を用いる位置計測方式。 2、上記画像の各点の特徴量が各点の持つ明るさである
ことを特徴とする第1項の画像間の対応関係を用いる位
置計測方式。 3、上記画像の各点の特徴量が、各点の近傍の点の明る
さの変化量であることを特徴とする第1項の画像間の対
応関係を用いる位置計測方式。
[Claims] 1. Means for generating image information representing an image of the external world, processing this image information to determine pairs of mutually corresponding points in a pair of images, and determining the positions of two points forming each pair. In a position measuring device equipped with an arithmetic unit that calculates the position of a point in the external world that corresponds to both points based on the relationship, each pair of corresponding points is calculated based on the feature amount of each point in one image and the position of the other image. A position measurement method that uses a correspondence relationship between images, which is determined based on the distribution of gravitational force generated between each point and the feature quantity. 2. A position measurement method using the correspondence between images as described in item 1, characterized in that the feature amount of each point in the image is the brightness of each point. 3. The position measurement method using the correspondence between images as described in item 1, wherein the feature amount of each point of the image is the amount of change in brightness of a point in the vicinity of each point.
JP61092088A 1986-04-23 1986-04-23 Position measuring system using correspondence relation between images Pending JPS62249286A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP61092088A JPS62249286A (en) 1986-04-23 1986-04-23 Position measuring system using correspondence relation between images
US07/041,228 US4825393A (en) 1986-04-23 1987-04-22 Position measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61092088A JPS62249286A (en) 1986-04-23 1986-04-23 Position measuring system using correspondence relation between images

Publications (1)

Publication Number Publication Date
JPS62249286A true JPS62249286A (en) 1987-10-30

Family

ID=14044685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61092088A Pending JPS62249286A (en) 1986-04-23 1986-04-23 Position measuring system using correspondence relation between images

Country Status (1)

Country Link
JP (1) JPS62249286A (en)

Similar Documents

Publication Publication Date Title
US4825393A (en) Position measuring method
CN110853075B (en) Visual tracking positioning method based on dense point cloud and synthetic view
EP1303839B1 (en) System and method for median fusion of depth maps
Vaudrey et al. Differences between stereo and motion behaviour on synthetic and real-world stereo sequences
CN111127540B (en) Automatic distance measurement method and system for three-dimensional virtual space
CN101577004B (en) Rectification method for polar lines, appliance and system thereof
CN109859253A (en) A kind of solid matching method, device and electronic equipment
CN105551020A (en) Method and device for detecting dimensions of target object
CN110458952B (en) Three-dimensional reconstruction method and device based on trinocular vision
CN111123242A (en) Combined calibration method based on laser radar and camera and computer readable storage medium
CN113763569A (en) Image annotation method and device used in three-dimensional simulation and electronic equipment
CN111862236B (en) Self-calibration method and system for fixed-focus binocular camera
CN115082450A (en) Pavement crack detection method and system based on deep learning network
CN111998862A (en) Dense binocular SLAM method based on BNN
CN112907573A (en) Depth completion method based on 3D convolution
CN112270701B (en) Parallax prediction method, system and storage medium based on packet distance network
JPH10240934A (en) Object extractor
CN116430398A (en) Distance measurement method and device based on TOF camera and binocular vision data fusion
CN116051658A (en) Camera hand-eye calibration method and device for target detection based on binocular vision
CN110068308B (en) Distance measurement method and distance measurement system based on multi-view camera
JPS62249286A (en) Position measuring system using correspondence relation between images
CN112258635B (en) Three-dimensional reconstruction method and device based on improved binocular matching SAD algorithm
CN115239559A (en) Depth map super-resolution method and system for fusion view synthesis
CN113850293A (en) Positioning method based on multi-source data and direction prior joint optimization
CN110910438B (en) High-speed stereo matching algorithm for ultrahigh-resolution binocular image