JPS6166108A - Method and apparatus for measuring position and shape of object - Google Patents

Method and apparatus for measuring position and shape of object

Info

Publication number
JPS6166108A
JPS6166108A JP59187270A JP18727084A JPS6166108A JP S6166108 A JPS6166108 A JP S6166108A JP 59187270 A JP59187270 A JP 59187270A JP 18727084 A JP18727084 A JP 18727084A JP S6166108 A JPS6166108 A JP S6166108A
Authority
JP
Japan
Prior art keywords
corresponding point
image
points
correspondence
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59187270A
Other languages
Japanese (ja)
Other versions
JPH0371043B2 (en
Inventor
Minoru Ito
稔 伊藤
Akira Ishii
明 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP59187270A priority Critical patent/JPS6166108A/en
Publication of JPS6166108A publication Critical patent/JPS6166108A/en
Publication of JPH0371043B2 publication Critical patent/JPH0371043B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To judge the correctness or error of correspondence, by obtaining the intersection of projected straight lines of visual lines on the third image with respect to possible corresponding points, which are obtained from two images, and studying the evaluated value obtained by comparing the vicinity of the intersection and the possible corresponding points. CONSTITUTION:A point (c) agrees with the intersection of two projected straight lines L1 and L2. Meanwhile, the corresponding point of a point (a) in an image 17 on an image 18 is located on a projected straight line L3 of a visual line OAP on the image 18. When a possible corresponding point (b) is selected on said projected straight line L3, the point on an image 19, which simultaneously corresponds to both (a) and (b) much become the intersection (c) of the projected straight line L1 and the projected straight line L2. When an erroneous corresponding point, e.g., b' is selected, a projected straight line of a visual line OBb' on the image 19 becomes L4, and the point, which simultaneously corresponds to both (a) and b', becomes c'. Therefore, similarity of (a) and c' and b' and c' is strikingly lowered. Thus the fact that b' is erroneous correspondence can be readily judged.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は少なくとも3箇所以上から取得した複数枚の2
次元画像から立体視対応点処理によシ物体の位置・形状
を3次元計測する物体位置・形状計測方法に係り、特に
、カメラ位置による見え隠れ部分を識別処理して物体の
位置・形状を計測する物体位置・形状計測方法と、この
方法を実施する装置に関するものである。
[Detailed Description of the Invention] [Industrial Field of Application] The present invention is directed to a plurality of 2-sheet images obtained from at least three locations.
This relates to an object position/shape measurement method that three-dimensionally measures the position/shape of an object from a dimensional image by stereoscopic corresponding point processing, and in particular, measures the position/shape of an object by identifying visible and hidden parts due to camera position. The present invention relates to a method for measuring the position and shape of an object, and an apparatus for implementing this method.

〔従来技術〕[Prior art]

従来、物体の位置・形状を計測する方法としては、2次
元画像としてテレビカメラ像を用いて3次元計測する方
法が一般的であり、その方法としては大別して次の3種
類がある。
Conventionally, as a method for measuring the position and shape of an object, a three-dimensional measurement method using a television camera image as a two-dimensional image has been common, and the methods can be roughly classified into the following three types.

すなわち、1)物体にスポット光、スリット光あるいは
格子像を照射してその投影像をテレビカメラで観測して
処理する投光式、2)像が鮮明になるようにレンズ位置
を調節する自動焦点式(別名、鮮鋭度検出式)、3)2
台のテレビカメラで観測し、両画像の対応点処理を施し
て画像間視差を求め、三角測畦の原理に基づき物体の3
次元位置・形状に換算する両眼立体視法がある。
Namely, 1) a projection type that illuminates an object with spot light, slit light, or a grating image, and then observes and processes the projected image with a television camera; 2) automatic focusing that adjusts the lens position to make the image clear; Formula (also known as sharpness detection formula), 3) 2
Observe with a TV camera on a stand, and process the corresponding points of both images to find the parallax between the images. Based on the principle of triangulation,
There is a binocular stereoscopic method that converts into dimensional position and shape.

これらのうち、上記1)の投光式と2)の自動焦点式は
光の走査またはレンズ走査をするなどの機械的な走査を
要するため、高速性能−耐久性に問題があり、また、高
分解能が得難いという本質的な問題がある。
Among these, the above 1) floodlight type and 2) automatic focus type require mechanical scanning such as light scanning or lens scanning, so they have problems with high-speed performance and durability. There is an essential problem that resolution is difficult to obtain.

一方、上記3)の両眼立体視法は、機械的走査を必要と
せず、また、高分解能計測も可能であシ、さらに、計測
対象物体の制約も上記1)と2)に比べ少ないので、汎
用的手法としても優れている。
On the other hand, the binocular stereoscopic viewing method described in 3) above does not require mechanical scanning, is capable of high-resolution measurement, and has fewer restrictions on the object to be measured than methods 1) and 2) above. , it is also an excellent general-purpose method.

しかし々から、この両眼立体視法においては、両像間の
対応点処理の方法に問題が多い。
However, in this binocular stereoscopic viewing method, there are many problems in the method of processing corresponding points between both images.

以下に、この両眼立体視法の原理とカメラ位置による見
え隠れ部分の処理に関する問題点について図面を参照し
て具体的に説明する。
Below, the principle of binocular stereoscopic viewing and problems related to processing of visible and hidden parts depending on the camera position will be specifically explained with reference to the drawings.

従来提案されている両眼立体視法の構成の一例を第1O
図に示し説明すると、図において、1と2はそれぞれX
軸上(X方向)におかれ、かつ座標原点0からお互いに
等距離に位置したテレビカメラで、これらのテレビカメ
ラ1およびテレビカメラ2の向きはお互いにほぼ平行に
置かれている。
An example of the configuration of a conventionally proposed binocular stereoscopic viewing method is shown in Part 1.
To illustrate and explain, in the figure, 1 and 2 are each X
The television cameras are placed on the axis (in the X direction) and equidistant from each other from the coordinate origin 0, and the orientations of the television cameras 1 and 2 are approximately parallel to each other.

3は対象物体(以下、物体と略称する)で、この物体3
は座標原点Oから、テレビカメラ1とテレビカメラ2の
距離に比べ十分大き々距離をへだててY軸上に置かれて
いる。なお、2はz軸である。
3 is a target object (hereinafter abbreviated as object), and this object 3
is placed on the Y axis at a distance that is sufficiently larger than the distance between the television cameras 1 and 2 from the coordinate origin O. Note that 2 is the z-axis.

第11図は、対応点を決定する代表的方法として局所相
関法により得ら減だ評価値の分布の例を示す説明図であ
る。このil1図偵) 、 (b) 、 (e)におい
て、4および5はそれぞれ第10図に示すテレビカメラ
1およびテレビカメラ2の画像である。
FIG. 11 is an explanatory diagram showing an example of the distribution of evaluation values obtained by the local correlation method as a typical method for determining corresponding points. In these images, 4 and 5 are images taken by television camera 1 and television camera 2, respectively, shown in FIG. 10.

そして、第11図(a)に示す画像4の任意の特徴点a
に対する第11図6)に示す画像5での対応点すはほぼ
水平な1本の直ML(射影直線)上に存在する。
Then, any feature point a of the image 4 shown in FIG. 11(a)
The corresponding points in image 5 shown in FIG.

この直線の式は、2台のカメラがOY(第10図参照)
に対照に置かれた場合について引用する女性・自弁「物
体認識のための両眼立体視」電総研を報37.12(’
73)(以下、文献1とする)のP1105における式
(4,17)  に記載されている。
The equation of this straight line is that the two cameras are OY (see Figure 10).
37.12 ('
73) (hereinafter referred to as Document 1), in P1105, formula (4, 17).

そして、射影直線り上で窓(例えば、5×5マトリクス
)を掃引しながらその窓の中のパターンと、画像4の任
意の特徴点aを中心とした同じサイズの窓の中のパター
ンとを比較し、パターン構成、明るさ力どの評価値を求
める。この評価値として一般に、相互相関関数を用いる
ことが多い。
Then, while sweeping a window (for example, a 5 x 5 matrix) on the projection straight line, the pattern in the window and the pattern in the same size window centered on an arbitrary feature point a of image 4 are calculated. Compare and find evaluation values such as pattern composition, brightness, and power. Generally, a cross-correlation function is often used as this evaluation value.

この相互相関関数は画像のマツチング技術の分野で一般
によく知られており、その代表例は上記文献10PII
IOにおける式(5,2)に記載されている。そして、
2枚の画像を取得する場合のカメラレンズの絞り条件が
ほぼ同一のときは、文献1のPIIIOにおける式(5
,4)に示された誤差評価関数を用いることができる。
This cross-correlation function is generally well known in the field of image matching technology, and a typical example is the above-mentioned document 10 PII.
It is described in formula (5,2) in IO. and,
When the aperture conditions of the camera lens are almost the same when acquiring two images, the formula (5
, 4) can be used.

以下、この誤差評価関数の値を評価値ρと呼ぶことにす
る。この評価値ρは比較部分が対応する程小さくなり、
完全に一致すれば、0の値をもつ。逆に、比較部分が対
応しない場合には太き々値をもつ。
Hereinafter, the value of this error evaluation function will be referred to as evaluation value ρ. This evaluation value ρ becomes smaller as the comparison parts correspond,
A complete match has a value of 0. Conversely, if the comparison parts do not correspond, they have a bold value.

第11図(c)の6は射影直線り土で窓を掃引したとき
の評価値ρの変化を示したものである。tは評価値のし
きい値であって、対応点でのρ値より大きい値が予め与
えられている。そして、評価値は対応点で最小かつしき
い値tより小さいはずであるから、評価値が設定したし
きい値より小さく、かつ最小となるところを対応点と決
定する。この対応点が定まると画像間視差を算出し、物
体3(第10図参照)の3次元位置座標に換算するとと
ができる。
6 in FIG. 11(c) shows the change in the evaluation value ρ when the window is swept using a projection straight line. t is a threshold value of the evaluation value, and a value larger than the ρ value at the corresponding point is given in advance. Then, since the evaluation value should be the minimum at the corresponding point and smaller than the threshold value t, the point where the evaluation value is smaller than the set threshold value and is the minimum is determined as the corresponding point. Once these corresponding points are determined, the inter-image parallax can be calculated and converted into three-dimensional position coordinates of the object 3 (see FIG. 10).

〔発明が解決しようとする問題点3 以上のように、両眼立体視法においては、2枚の画像間
で対応点処理を施すことが重要な手続であるが、次のよ
うな問題がある。
[Problem to be solved by the invention 3 As mentioned above, in binocular stereopsis, performing corresponding point processing between two images is an important procedure, but there are the following problems. .

すなわち、従来の両眼立体視法では、カメラ位置による
見え隠れ部分の取扱いが困難である。そして、極く簡単
々物体で、かつその物体の形状や背景にあるシーンが予
め分っている時には見え隠れ部分の取扱いが必ずしも不
可能ではないが、この場合には予め高度々画像認識処理
が必要となり、また物体と背景についての知識が必要で
ある。この処理および知識の与え方は未解決であり、今
後の課題となっている。
That is, in the conventional binocular stereoscopic viewing method, it is difficult to handle visible and hidden parts depending on the camera position. If it is a very simple object and the shape of the object and the scene in the background are known in advance, it is not necessarily impossible to handle visible and hidden parts, but in this case, advanced image recognition processing is required in advance. It also requires knowledge about the object and the background. How this processing and knowledge is provided remains unresolved and remains a challenge for the future.

このため、従来は、見え隠れ部分がないととを前提とす
ることが多い。この前提を満すためには、カメラ間隔を
狭くする必要が生じる。しかし、カメラ間隔を狭くする
と、計測誤差は間隔に逆比例して増大するため、むやみ
に狭くするととができ々い。
For this reason, conventionally, it is often assumed that there are no visible or hidden parts. In order to satisfy this premise, it is necessary to narrow the distance between the cameras. However, if the distance between the cameras is narrowed, the measurement error increases in inverse proportion to the distance, so it is difficult to make the distance too narrow.

一方、見え隠れ部分を許容した場合、見え隠れ面のふち
が両画像で見えていても対応点を検出することができな
い。この理由を、第12図により説明する。
On the other hand, if visible and hidden parts are allowed, corresponding points cannot be detected even if the edges of the visible and hidden surfaces are visible in both images. The reason for this will be explained with reference to FIG.

この第12図は両眼立体視法における見え隠れ部分の取
扱いを説明するための図で、(a)は左画像を示したも
のであり、(1))は右画像を示したものである。
This FIG. 12 is a diagram for explaining the handling of visible and hidden parts in binocular stereoscopic viewing, in which (a) shows the left image, and (1)) shows the right image.

そして、7および8はそれぞれ直方体を左側カメラおよ
び右側カメラで観測した画像である。aおよびa′は画
像7の特徴点であり、bおよびb′はそれぞれ画像7の
特徴点aおよび特徴点a′に対応する画像8上の求めた
い正しい対応点である。
7 and 8 are images of the rectangular parallelepiped observed by the left camera and the right camera, respectively. a and a' are the feature points of the image 7, and b and b' are the desired correct corresponding points on the image 8 corresponding to the feature point a and the feature point a' of the image 7, respectively.

そして特徴点aの左側の面9と対応点b′の右側の面1
0は見え隠れ部分である0、なお、11.12は両眼立
体視法により計測可能な稜線である。
Then, the left surface 9 of the feature point a and the right surface 1 of the corresponding point b'
0 is the visible/hidden portion, and 11.12 is the ridge line that can be measured by binocular stereoscopic viewing.

さて、ここで、特徴点aの周辺部分と対応点すの周辺部
分を比較すると、特徴点aの左側部分が背景と全く同一
の明るさでない限シ明るさ分布が著しく異なるから、評
価値ρは著しく高くなってしまい、従来方法では特徴点
aと対応点すは対応点ではないと判定される。また、同
様に特徴点a′と対応点b′は対応点ではないと判定さ
れる。このため、この第12図で縦方向の稜線部は対応
点を持たないこととなる。そして 水平方向のエツジは
両眼立体視法では対応付けができなく、また、2本の稜
線11と稜線12についてもエツジの片側が見え隠れ部
分となっているので対応が得られ々い。このため、すべ
てのエツジについて位置計測は不可能となる。
Now, if we compare the surrounding area of the feature point a and the surrounding area of the corresponding point S, unless the left side of the feature point a has exactly the same brightness as the background, the brightness distribution will be significantly different, so the evaluation value ρ becomes extremely high, and in the conventional method, it is determined that the feature point a and the corresponding point S are not corresponding points. Similarly, it is determined that the feature point a' and the corresponding point b' are not corresponding points. Therefore, the vertical ridgeline portion in FIG. 12 does not have corresponding points. Edges in the horizontal direction cannot be correlated using binocular stereoscopic viewing, and correspondence cannot be obtained between the two edges 11 and 12 because one side of the edges is hidden and visible. Therefore, it is impossible to measure the position of all edges.

この第12図の例で見られるように、従来の両眼立体視
法では、カメラ位置による見え隠れ部分の取扱いが困難
であった。
As seen in the example of FIG. 12, in the conventional binocular stereoscopic viewing method, it is difficult to handle visible and hidden parts depending on the camera position.

本発明は以上の点に鑑み、このよう力問題を解決すると
共にかかる欠点を除去すべくなされたもので、その目的
は従来困難であったカメラ位置による見え隠れ部分の多
い物体をも計測対象とすることができ、片側が見え隠れ
部分となるエツジの計測および見え隠れ部分の識別を行
々うことができ、また、その処理アルゴリズムは複数枚
画像間対応点処理によるので極めて簡単になシ、かつ信
頼性を向上することができ、かつカメラ間隔を大きくす
ることができるため、高精度な計測ができる物体位置・
形状計測方法およびこの方法を実施する装置を提供する
ととにある。
In view of the above points, the present invention was made in order to solve the force problem and eliminate such drawbacks, and the purpose is to measure objects that have many visible and hidden parts depending on the camera position, which was difficult in the past. It is possible to measure edges where one side is visible and hidden, and to identify visible and hidden areas, and the processing algorithm is extremely simple and reliable because it uses corresponding point processing between multiple images. Since it is possible to improve object positioning and camera spacing, it is possible to increase the distance between cameras.
It is an object of the present invention to provide a shape measurement method and an apparatus for carrying out the method.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は非同一直線上の少なくとも3箇所から2次元画
像を取得し、その2次元画像のうち2枚の画像間の対応
付けを行なうことにより対応点候補を求め、基準画の特
徴点およびその特徴点に対するその対応点候補から他の
画像上へのそれぞれの射影直線を求め、その射影直線の
交点から上記他の画像上の対応点の存在位置を予測し、
その位置と上記基準画の特徴点もしくは上記対応点候補
との対応度合をエツジの一方の側と他の側について独立
に求め、上記エツジの片側の見え隠れ部分の存在を識別
することにより対応点の正誤を判定し、対応点を選別す
ることによって、物体位置・形状を計測し得るようにし
た方法であり、画像入力部と、この画像入力部の出力を
入力とし、その画像入力部のパラメータリストおよび特
徴点を抽出する前処理演算部と、この前処理演算部の出
力を入力とし非同−直綜上の少なくとも3箇所から取得
した2次元画像のうち2枚の画像間の対応付けを行なう
ことにより対応点候補を求め、基準画の特徴点およびそ
の特徴点に対するその対応点候補から他の画像上へのそ
れぞれの射影直線を求め、その射影直線の交点から上記
他の画像上の対応点の存在位置を予測し、その位置と上
記基準画の特徴点もしくは上記対応点候補との対応度合
をエツジの一方の側と他の側について独立に求め、前記
エツジの片側の見え隠れ部分の存在を識別することによ
り対応点の正誤を判定し、対応点を選別する対応点選別
機能を実行する対応点検出用演算部と、この対応点検出
用演算部の出力を入力とし該演算部によって対応が得ら
れた特徴点を実空間座標に変換して座標を算出する座標
算出部とを備えてなる装置である。
The present invention acquires two-dimensional images from at least three locations on non-colinear lines, and finds corresponding point candidates by associating two of the two-dimensional images, and identifies the feature points of the reference image and its corresponding point candidates. Find respective projection straight lines on other images from the corresponding point candidates for the feature points, predict the existing positions of the corresponding points on the other images from the intersections of the projected straight lines,
The degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate is determined independently for one side and the other side of the edge, and by identifying the presence of visible and hidden parts on one side of the edge, the corresponding point can be determined. This is a method that can measure the position and shape of an object by determining whether it is correct or incorrect and selecting corresponding points.It uses an image input section and the output of this image input section as input, and a parameter list of the image input section. and a preprocessing calculation unit that extracts feature points, and the output of this preprocessing calculation unit is used as input to perform correspondence between two of the two-dimensional images obtained from at least three locations on the non-uniform orthogonal helix. Then, from the feature points of the reference image and the corresponding point candidates for the feature points, project straight lines onto other images, and from the intersections of the projected straight lines, find the corresponding points on the other images. The existence position of the edge is predicted, and the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate is determined independently for one side of the edge and the other side, and the existence of a hidden part on one side of the edge is determined. There is a corresponding point detection calculation section that executes a corresponding point sorting function that determines whether the corresponding points are correct or incorrect by identifying them, and selects the corresponding points. The apparatus includes a coordinate calculation unit that converts the obtained feature points into real space coordinates and calculates the coordinates.

また、本発明は、非同一直線上の少なくとも3箇所から
2次元画像を取得し、その2次元画像のうち2枚の画像
からエツジの一方の側と他の側について独立に対応度を
調べることにより独立に対応点候補を求め、かつ基準画
のエツジおよびそのエツジに対するその対応点候補から
他の画像上へのそれぞれの射影直線を求め、その射影直
線の交点から上記他の画像上の対応点の存在位置を予測
し、その位置と上記基準画の特徴点もしくは上記対応点
候補との対応度合を調べて見え隠れ部分の存在を識別す
ることにより対応点候補の正誤を判定し、対応点を選別
することによって、物体位置・形状を計測し得るように
した方法であり、画像入力部と、この画像入力部の出力
を入力としその画像入力部のパラメータリストおよび特
徴点を抽出する前処理演算部と、この前処理演算部の出
力を入力とし非同−直綜上の少々くとも3箇所から取得
した2次元画像のうち2枚の画像からエツジの一方の側
と他の側について独立に対応度を調べることにより独立
に対応点候補を求め、かつ基準画のエツジおよびそのエ
ツジに対するその対応点候補から他の画像上へのそれぞ
れの射影直線を求め、その射影直線の交点から上記他の
画像上の対応点の存在位置を予測し、その位置と上記基
準画の特徴点もしくは上記対応点候補との対応度合を調
べて見え隠れ部分の存在を識別することにより対応点候
補の正誤を判定し、対応点を選別する対応点選別機能を
実行する対応点検出用演算部と、この対応点検出用演算
部の出力を入力としその演算部によって対応が得られた
特徴点を実空間座標に変換して座標を算出する座標算出
部とを備えてなる装置である。
Furthermore, the present invention acquires two-dimensional images from at least three locations on non-colinear lines, and independently examines the degree of correspondence between one side and the other side of an edge from two of the two-dimensional images. Find corresponding point candidates independently by Predict the location of the corresponding point, check the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate, identify the existence of visible and hidden parts, determine whether the corresponding point candidate is correct, and select the corresponding point. This method is capable of measuring the position and shape of an object by doing so, and includes an image input section and a preprocessing calculation section that receives the output of this image input section and extracts the parameter list and feature points of the image input section. Then, using the output of this preprocessing calculation unit as input, one side and the other side of the edge are independently processed from two of the two-dimensional images obtained from at least three locations on the non-isogonal orthogonal helix. Corresponding point candidates are determined independently by examining the degree of the reference image, and respective projection straight lines are determined from the edge of the reference image and the corresponding point candidates for that edge onto other images, and from the intersection of the projected straight lines, the corresponding point candidates are determined from the other image. Predicting the existing position of the corresponding point above, checking the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate, and determining whether the corresponding point candidate is correct or incorrect by identifying the presence of visible or hidden parts, A corresponding point detection calculation unit that performs a corresponding point selection function to select corresponding points, and the output of this corresponding point detection calculation unit is input, and the feature points for which correspondence has been obtained are converted into real space coordinates by the calculation unit. This device includes a coordinate calculation unit that calculates coordinates using the coordinate calculation unit.

また、本発明は、非同一直線上の少なくとも3箇所から
2次元画像を取得し、その2次元画像のうち2枚の画像
間の対応付けを行なうことにより対応点候補を求め、基
準画の特徴点およびその特徴点に対するその対応点候補
から他の画像上へのそれぞれの射影直線を求め、その射
影直線の交点から上記他の画像上の対応点の存在位置を
予測し、その位置と上記基準画の特徴点もしくは上記対
応点候補との対応度合を調べることにより対応点候補の
正誤を判定して対応点を選別する第1の対応点選別機能
およびこの第1の対応点選別機能によっては正しい対応
点が得られなかった特徴点について、上記予測した対応
点の存在位置と上記基準画の特徴点もしくは上記対応点
候補との対応度合をエツジの−・方の側と他の側につい
て独立に求め、上記エツジの片側の見え隠れ部分の存在
を識別することにより対応点の正誤を判定し、対応点を
選別する第2の対応点選別機能および上記取得した2次
元画像のうち2枚の画像からエツジの一方の側と他の側
について独立に対応度を調べることにより独立に対応点
候補を求め、かつ上記基準画のエツジとそのエツジに対
するその対応点候補から他の画像」二への射影直線を求
め、その射影直線の交点から上記他の画像上の対応点の
存在位置を予測し、その位置と上記基準画の特徴点もし
くは上記対応点候補との対応度合を調べて見え隠れ部分
の存在を識別することにより対応点候補の正誤を判定し
、対応点を選別する第3の対応点選別機能とにより対応
点を得ることによって、物体位置・形状を計測し得るよ
うにした方法であり、画像入力部と、この画像入力部の
出力を入力としその画像入力部のパラメータリストおよ
び特徴点を抽出する前処理演算部と、この前処理演算部
の出力を入力とし前述の第1と第2および第3の対応点
選別機能を実行する対応点検出用演算部と、この対応点
検出用演算部の出力を入力とし該演算部によって対応が
得られた特徴点を実空間座標に変換して座標を算出する
座標算出部とを備えてなる装置である。
Furthermore, the present invention obtains two-dimensional images from at least three locations on non-colinear lines, and determines corresponding point candidates by associating two of the two-dimensional images, and determines the characteristics of the reference image. Find the respective projection straight lines onto other images from points and their corresponding point candidates for the feature points, predict the existing positions of the corresponding points on the other images from the intersections of the projected straight lines, and calculate the positions and the above criteria. A first corresponding point selection function that determines whether a corresponding point candidate is correct or incorrect by checking the degree of correspondence with the feature points of the image or the corresponding point candidate and selects corresponding points; For feature points for which no corresponding point was obtained, the degree of correspondence between the predicted location of the corresponding point and the feature point of the reference image or the corresponding point candidate is determined independently for the −・ side of the edge and the other side. A second corresponding point selection function that determines whether the corresponding points are correct or incorrect by identifying the presence of visible and hidden parts on one side of the edge, and selects the corresponding points from two of the two-dimensional images obtained above. Corresponding point candidates are obtained independently by examining the degree of correspondence on one side and the other side of the edge, and a projection straight line is drawn from the edge of the reference image and the corresponding point candidate for that edge onto another image. , predict the existing position of the corresponding point on the other image from the intersection of the projection straight line, and check the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate to determine the existence of visible and hidden parts. This is a method in which the position and shape of an object can be measured by determining the correctness of corresponding point candidates by identifying them, and obtaining corresponding points by a third corresponding point selection function that selects corresponding points. an input section, a preprocessing operation section that takes the output of this image input section as input and extracts the parameter list and feature points of the image input section; A corresponding point detection calculation unit that performs a third corresponding point selection function, and the output of this corresponding point detection calculation unit is input, and the feature points for which correspondences are obtained by the calculation unit are converted into real space coordinates and the coordinates are This device includes a coordinate calculation unit that calculates

〔作用〕[Effect]

本発明においては、同一直線上の少々くとも3箇所から
複数枚の2次元画像を取得し、その画像間で、立体視対
応点処理を行ない、エツジ周辺のみならずエツジの片側
の明るさ分布をも比較して対応の度合を調べることによ
りエツジ周辺に存在するカメラ位置による見え隠れ部分
を識別し対応の正誤を判定することにより物体の位置・
形状を3次元計測するものである。
In the present invention, a plurality of two-dimensional images are acquired from at least three locations on the same straight line, and stereoscopic corresponding point processing is performed between the images to create a brightness distribution not only around the edge but also on one side of the edge. By comparing the values and checking the degree of correspondence, we can identify the visible and hidden parts around the edge due to the camera position, and determine whether the correspondence is correct or not.
It measures the shape in three dimensions.

〔実施例〕〔Example〕

以下、図面に基づき本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail based on the drawings.

第1図は本発明による物体位置・形状計測方法の一実施
例を説明するための構成図で、2次元画像の取得手段と
してテレビカメラを用いた場合の本発明におけるカメラ
配置の実施例を示したものである。
FIG. 1 is a block diagram for explaining an embodiment of the object position/shape measuring method according to the present invention, and shows an embodiment of the camera arrangement according to the present invention when a television camera is used as a means for acquiring two-dimensional images. It is something that

図において、、x、y、zは空間座標、13はテレビカ
メラ、14はこのテレビカメラ13のX方向に配置した
テレビカメラ、15はテレビカメラ13の斜め右上方の
2方向に配置したテレビカメラである。また、16はY
軸上に置かれた対象物体(物体)であり、この例では立
方体である。
In the figure, x, y, and z are spatial coordinates, 13 is a television camera, 14 is a television camera placed in the X direction of this television camera 13, and 15 is a television camera placed in two directions diagonally to the upper right of the television camera 13. It is. Also, 16 is Y
A target object (object) placed on the axis, in this example a cube.

第2図は第1図に示す実施例におけるテレピカするため
、カメラ位置による見え隠れ部分がない場合を例にとっ
て説明する。
FIG. 2 will be explained by taking as an example a case where there is no visible or hidden part due to the camera position for telepicture in the embodiment shown in FIG.

図において、1Tはテレビカメラ13の画像、−20= 18はテレビカメラ14の画像、19はテレビカメラ1
5の画像である。ここで、各テレビカメラ13.14.
15のレンズ中心をそれぞれoA、o。
In the figure, 1T is the image of the television camera 13, -20=18 is the image of the television camera 14, and 19 is the image of the television camera 1.
This is the image of No. 5. Here, each television camera 13.14.
15 lens centers oA and o, respectively.

およびOcとする。そして、物体16上の任童の点Pの
像(点) a + bおよび点Cはそれぞれ視線OAP
 I OBPおよびOcP上にのっているため、点Cは
視線OAPおよび視線OB Pの画像19への射影型a
 lL+ r L2上に存在する。すなわち、点Cはこ
の2本の射影直線Ll + L2の交点と一致する。一
方、画像17中の点aに対する画像18上の対応点は視
線OAPの画像18への射影直線L3上にある。
and Oc. The image (point) a + b of the point P of the child on the object 16 and the point C are the line of sight OAP.
Since point C is on OBP and OcP, point C is a projection type a of line of sight OAP and line of sight OBP onto image 19.
lL+ r Exists on L2. That is, point C coincides with the intersection of these two projection straight lines Ll + L2. On the other hand, the corresponding point on the image 18 to the point a in the image 17 is on the projection straight line L3 of the line of sight OAP onto the image 18.

この射影直線L3上で対応点候補すを選ぶと、aとbの
両者に同時に対応する画像19上の像は射影直線L1と
射影直線L2の交点Cになければならない。しかし誤っ
た対応点候補、例えば、図中b′を選ぶと、視線0Bb
l  の画像19への射影直線はL4 となシ、aとb
′の両者に同時に対応する点は射影直線り、と射影直線
L4の交点C′となって正しい交点Cから大きくずれる
。このため、aとC′およびb′とC′の近傍の類似度
(前述した評価値の逆数に相当)は共に著しく低下し、
b′が誤対応であることを容易に判定することができる
When corresponding point candidates are selected on this projection straight line L3, the image on the image 19 corresponding to both a and b at the same time must be at the intersection C of the projection straight line L1 and the projection straight line L2. However, if you select an incorrect corresponding point candidate, for example b' in the figure, the line of sight 0Bb
The projection straight line of l onto image 19 is L4, a and b.
The point that simultaneously corresponds to both the projection straight line L4 and the projection straight line L4 becomes the intersection C', which deviates greatly from the correct intersection C. Therefore, the similarity (corresponding to the reciprocal of the above-mentioned evaluation value) in the vicinity of a and C' and b' and C' both decrease significantly,
It can be easily determined that b' is an incorrect correspondence.

以上のように、2枚の画像から得られる対応点候補につ
いて、各々の視線の第3の画像への射影直線の交点(以
降、予測対応点と呼ぶ)を求め、その近傍と対応点候補
とを比較した評価値を調べることにより対応の正誤を判
定することができる。
As described above, for the corresponding point candidates obtained from the two images, the intersection points of the projection straight lines of each line of sight onto the third image (hereinafter referred to as predicted corresponding points) are found, and the vicinity and corresponding point candidates are calculated. It is possible to determine whether the correspondence is correct or incorrect by examining the evaluation values compared.

つぎに、射影直線の求め方を文献1および第10図を参
照して説明する。
Next, how to obtain a projection straight line will be explained with reference to Document 1 and FIG.

まず、文献1には、2つのカメラの位置、方向に厳格な
制約を課し、その条件のもとで、射影直線の求め方が記
載されている。すなわち、第10図で示したx、y、z
の各座標系において、2つのテレビカメラの位置および
方向が2軸に対称な関係を有する場合を扱っている。し
かるに、3眼画像においては、第1図で明らかなように
、少なくともテレビ少メラ13とテレビカメラ15およ
びテレビカメラ14とテレビカメラ15はZ軸に対称で
はない。このため、3眼画像間の射影直線[111L2
 + L3を文献1で示されている方法、またはその修
正では求めることができない。ここでは、任意座標に任
意方向に置かれた2つのテレビカメラからの画像間で射
影直線を求める方法は従来全く不明であったので、その
方法を以下、射影直線L3の直線方程式を求める場合を
例にとって具体的に説明する。
First, Document 1 imposes strict constraints on the positions and directions of two cameras, and describes how to obtain a projection straight line under those conditions. That is, x, y, z shown in Figure 10
In each coordinate system, we are dealing with a case where the positions and directions of two television cameras have a symmetrical relationship about two axes. However, in the three-lens image, as is clear from FIG. 1, at least the television camera 13 and the television camera 15, and the television camera 14 and the television camera 15 are not symmetrical about the Z axis. For this reason, the projection straight line [111L2
+L3 cannot be obtained by the method shown in Document 1 or its modification. Here, since the method of finding a projected straight line between images from two television cameras placed at arbitrary coordinates and in any direction has been completely unknown, the method will be described below as a case of finding the linear equation of the projected straight line L3. A specific explanation will be given as an example.

いま、テレビカメラ13のカメラパラメータとしてレン
ズ焦点距離はfA 、レンズ中心OAは座標(aA、b
A、hA)に置かれ、光軸はy−z面とαA、x−y面
とfAの角度を力すものとする。また、テレビカメ21
4のカメラパラメータとして、レンズ焦点距離はfn+
レンズ中心OBは座標(XB。
Now, as camera parameters of the television camera 13, the lens focal length is fA, and the lens center OA is the coordinates (aA, b
A, hA), and the optical axis makes an angle of αA with the y-z plane and fA with the x-y plane. Also, TV camera 21
As a camera parameter of 4, the lens focal length is fn+
The lens center OB is at the coordinates (XB.

Y B + Z a )に置かれ、光軸はY−Z面の”
 B I X  Y面とψBの角度をなすものとする。
Y B + Z a ), and the optical axis is in the Y-Z plane.
B I X It is assumed that it forms an angle of ψB with the Y plane.

また、他のカメラパラメータとして、カメラ撮像面と光
軸との交点(光軸点)は、テレビカメラ13では、カメ
2撮像面座標において(hoA+VoA)、テレビカメ
ラ14ではカメラ撮像面座標において(hge、voB
)とし、画像と実像との大きさの変換比をそれぞれ(M
XA 、 Myn ) + (MXB 、 Myn )
とする。
In addition, as other camera parameters, the intersection of the camera imaging plane and the optical axis (optical axis point) is (hoA+VoA) in the camera 2 imaging plane coordinates for the television camera 13, and (hge) in the camera imaging plane coordinates for the television camera 14. ,voB
), and the conversion ratio of the size of the image and the real image is (M
XA, Myn) + (MXB, Myn)
shall be.

そして、テレビカメラ13の画像17の任意の点(hA
、 VA)は(x、y、z)座標では次のように表わさ
れる。
Then, any point (hA
, VA) is expressed in (x, y, z) coordinates as follows.

ただし、 ・・・・・(2) ξXA”  MXA(hOA  hA)       
 @@@*@(3)ξyA=My(vAvoA)   
      e @ @ @ * (4)である。一方
、対応点(hB、 VB)の(x、y、z)座標表示を
(Xn + YB r ZB)とすると、(XA I 
YA rZA )とは次の関係をもつ。
However, ... (2) ξXA" MXA (hOA hA)
@@@*@(3) ξyA=My(vAvoA)
e @ @ @ * (4). On the other hand, if the (x, y, z) coordinates of the corresponding points (hB, VB) are (Xn + YB r ZB), then (XA I
YA rZA ) has the following relationship.

この連立方程式を解くと、結果は A(XB−in)十B(Yn−bn)+C(Zu−ha
)=O”(7)ただし、 A−qz(bB−bA)−(hB−hA)・・e・・(
8)n=qz(bn  hA) Qz(JLBaA) 
  ”””(9)C””  QX(bB  bA) +
bBbA*5essQO)qz = (XA−aA)/
(YA−bA)     ・11111111aυqz
 ” ’(ZA hA)/(YAbA)     a 
@ @ 1111 (121上式で分母−〇のときも式
(7)は成立することを証明できる。
When this simultaneous equation is solved, the result is A(XB-in) + B(Yn-bn) + C(Zu-ha
)=O" (7) However, A-qz(bB-bA)-(hB-hA)...e...(
8) n=qz(bn hA) Qz(JLBaA)
"""(9)C"" QX(bB bA) +
bBbA*5essQO)qz = (XA-aA)/
(YA-bA) ・11111111aυqz
” '(ZA hA)/(YAbA) a
@ @ 1111 (121It can be proven that equation (7) also holds true when the denominator is -0 in the above equation.

一方、(Xn + Ys + ZB)と(hB+ vn
)の関係は式(1)〜(4)においてA −+ Bは書
きかえた式で与れられる。
On the other hand, (Xn + Ys + ZB) and (hB + vn
) is given by rewriting A −+ B in equations (1) to (4).

そして、この書きかえた式と上記式(7)により次式が
得られる。
Then, the following equation is obtained by this rewritten equation and the above equation (7).

ulξzn+u2ξ)’b+u3−=0      ”
””Q31ただし、 そして、上記式(3) 、 (4)でAをBに書きかえ
、式OJに代入すると、射影直線(I、J)として次式
を導入できる。
ulξzn+u2ξ)'b+u3-=0”
””Q31 However, by replacing A with B in the above equations (3) and (4) and substituting it into equation OJ, the following equation can be introduced as the projection straight line (I, J).

vI I  V2J  V3=Oeas*eQ5まただ
し、 以上L3の直線方程式の求め方を説明したが、Ll +
 L2 * L4  等任意カメラパラメータをもつカ
メラからの画像間の射影直線も全く同様に求めることが
できる。
vI I V2J V3=Oeas*eQ5 However, we have explained how to find the linear equation of L3 above, but Ll +
A projection straight line between images from a camera having arbitrary camera parameters such as L2 * L4 can also be found in exactly the same way.

つぎに、対応点が検出されたときの距離算出法を説明す
る。ととでは、第2図で画像17中の点aの対応点とし
て画像18中の点すが選択されている場合を例にとって
述べる。
Next, a distance calculation method when corresponding points are detected will be explained. In the following, a case will be described taking as an example a case where a point in the image 18 is selected as the corresponding point to the point a in the image 17 in FIG. 2.

いま、aはテレビカメラ13の撮像面座標で(hB r
 vl) 、bはテレビカメラ14の撮像面座標で(h
b 、 vb)とすると、前述の式(1)〜(4)によ
)aおよびbの(x、y、z)座標系での座標(Xa。
Now, a is the coordinates of the imaging plane of the television camera 13 (hB r
vl), b is the coordinates of the imaging plane of the television camera 14, and (h
b, vb), then the coordinates (Xa) of a and b in the (x, y, z) coordinate system according to the above equations (1) to (4).

Ya 、 Za )および(Xb 、 Yb 、 Zb
)が求まる。そして、物体16上の点Pの座標(x、y
、z)は直線OAaおよびOB bの交点であるから、
次式の連立方程式が成立する。
Ya, Za) and (Xb, Yb, Zb
) can be found. Then, the coordinates (x, y
, z) is the intersection of straight lines OAa and OB b, so
The following simultaneous equations hold true.

この連立方程式から (qx(Yb  bn)  (Xb−am))Ya (
bAqz−(aA−a B ) )(Yl)−bn )
 −b B (Xb−1n )・・・・・0 によりYが求められる。
From this simultaneous equation, (qx(Yb bn) (Xb-am))Ya (
bAqz-(aA-aB))(Yl)-bn)
-b B (Xb-1n)...0 Y is determined.

たたし、 QX=(Xa  aA)/(Ya  bA)     
 ・・・拳・(イ)そして、式α1により求めたYを式
(Iηに代入してXが求められる。とれを次式 に代入して2が求められる。
Ta, QX=(Xa aA)/(Ya bA)
...Fist・(A) Then, X is obtained by substituting Y obtained by equation α1 into equation (Iη). 2 is obtained by substituting it into the following equation.

このようにして、対応点処理の結果から物体上の点の座
標を算出することができる。
In this way, the coordinates of a point on the object can be calculated from the result of the corresponding point processing.

第3図は3眼画像の立体視対応点処理の流れの実施例を
示すフローチャートで、対応点処理全体のうちの第1ス
テツプを示すものである。なお、物体の見え隠れ部分は
、ここでは対応なしの結果が得られ、後述する見え隠れ
部処理(第2ステツプ)で再度対応点処理される。
FIG. 3 is a flowchart showing an example of the flow of stereoscopic corresponding point processing for trinocular images, and shows the first step of the entire corresponding point processing. Note that for visible and hidden parts of the object, a result of no correspondence is obtained here, and corresponding points are processed again in the visible and hidden part processing (second step), which will be described later.

この第3図において、20.21は画像処理の分野で一
般によく行なわれる前処理で、との処理20は3画像の
エツジ強度・方向を検出するエツジ検出処理であり、従
来種々の方法が提案されている。ここではロビンンン・
オペレータによるエツジ検出を打力う。
In FIG. 3, 20 and 21 are preprocessing that is commonly performed in the field of image processing, and 20 is an edge detection process that detects the edge strength and direction of three images, and various methods have been proposed in the past. has been done. Here Robin
Allows the operator to detect edges.

そして、このエツジ検出処理20は引用する「画像処理
サブルーチン・パッケージJ 5PIDERUSER’
 S MANTJAL 、 1982 、協同システム
開発(株)(以下、文献2とする)に記載された画像処
理サブルーチン・パッケージ5PIDERを用いるとと
により容易に実行することができる。また、処理21は
細線化を行なって特徴点を得る細線化処理である。そし
て、エツジ強度がやや大きい点すべてにおいてエツジ方
向(立体の稜の部分では稜線の方向)に垂直な方向のエ
ツジ強度の変化を調ベエッジ強度が最大となる点を特徴
点(エツジ)とする。
This edge detection processing 20 is performed by the cited "image processing subroutine package J 5PIDERUSER'.
This can be easily executed by using the image processing subroutine package 5PIDER described in S. MANTJAL, 1982, Kyodo System Development Co., Ltd. (hereinafter referred to as Document 2). Further, processing 21 is a thinning process for obtaining feature points by thinning the lines. Then, the change in edge strength in the direction perpendicular to the edge direction (the direction of the edge line in the case of a three-dimensional edge part) at all points where the edge strength is somewhat large is measured.The point where the edge strength is maximum is defined as a feature point (edge).

々お、この文献2の5PIDERの中にも細線化処理サ
ブルーチンが記載されている。
Furthermore, a thinning processing subroutine is also described in 5PIDER of this document 2.

22はテレビカメラ13の画像1Tの各特徴点(エツジ
)について射影直線L 1 + Lllの方程式、テレ
ビカメラ14および15の画像18および19の各特徴
点(エツジ)についてそれぞれ射影直線L2およびL5
の方程式を算出する処理である。
22 is the equation of the projection straight line L 1 + Lll for each feature point (edge) of the image 1T of the television camera 13, and the projection straight line L2 and L5 for each feature point (edge) of the images 18 and 19 of the television camera 14 and 15, respectively.
This is the process of calculating the equation.

ここで、この算出する方法は前述の式(1)〜α0です
でに示した。そして、処理22′では、各特徴点(エツ
ジ)について、そのエツジが射影直線L3とほぼ平行(
実施例では方向角度差25°以内のとき平行として扱っ
た)のとき処理26に、さもなくば処理23に処理をふ
り分ける。23はテレビカメラ13の画像17とテレビ
カメラ14の画像18の初期対応付けを行なう処理であ
り、画像1Tの各特徴点(エツジ)に対する画像18上
の対応点候補を優先順位をつけて選び出す。そして、評
価値は画像17の特徴点(エツジ)および画像18の射
影直線上の特徴点の近傍濃度分布を比較する局所相関法
により求められる。そして、この局所相関法は、具体的
には特徴点(エツジ)近傍に5×5の窓を設け、画像1
7と画像18での窓内濃度分析から窓画像IP1 、 
rp、を作り、次式0りにより比較する方法を用いた。
Here, the method of calculating this has already been shown in the above-mentioned equations (1) to α0. Then, in process 22', for each feature point (edge), the edge is approximately parallel to the projection straight line L3 (
In the embodiment, when the direction angle difference is within 25 degrees, it is treated as parallel), the process is assigned to process 26, otherwise, the process is assigned to process 23. 23 is a process for performing an initial correspondence between the image 17 of the television camera 13 and the image 18 of the television camera 14, in which candidates for corresponding points on the image 18 for each feature point (edge) of the image 1T are selected with priority. Then, the evaluation value is determined by a local correlation method that compares the neighboring density distributions of the feature points (edges) of the image 17 and the feature points on the projection straight line of the image 18. Specifically, this local correlation method creates a 5×5 window near the feature points (edges), and
Window image IP1 from window density analysis in 7 and image 18,
A method was used in which rp was created and compared using the following equation.

ここで、窓画像IP2は画像マツチングにおけるテンプ
レート画像に相当する。
Here, the window image IP2 corresponds to a template image in image matching.

・1」・(2渇 また、実験においては、しきい値として100の値を用
いたが、200でも特に問題がなかったことから、10
0〜200の値が適当と思われる。そして、エツジ方向
が45°以内に一致しない、あるいはρがしきい値より
大きい画像18上の特徴点(エツジ)に対しては対応点
候補ではないと判定する。
・1''・(2) In addition, in the experiment, a value of 100 was used as the threshold value, but since there was no particular problem with 200, 10
A value between 0 and 200 seems appropriate. Then, it is determined that feature points (edges) on the image 18 whose edge directions do not match within 45 degrees or whose ρ is larger than a threshold value are not corresponding point candidates.

ここで、この対応点候補が1つもなかった特徴点(エツ
ジ)については処理23′で対応点なしとして処理が保
留される。
Here, for feature points (edges) for which there is no corresponding point candidate, processing is suspended as there is no corresponding point in step 23'.

24は処理23により求めた各対応点候補について、画
像19上の2本の射影直線の交点、すなかち、予測対応
点を算出する処理である。そして、2本の射影直線a 
r I  b p J  cl−0と&2I−b2J(
!2”0(al +bl +e1 +a21b!+02
は定数)の交点は、((elbg  czbt)/(a
tbz  azbtL(az c+  at 02 )
/(ILI bz  a2bl))  で与えられる。
24 is a process of calculating the intersection of two projection straight lines on the image 19, that is, a predicted corresponding point for each corresponding point candidate obtained in process 23. And two projective straight lines a
r I b p J cl-0 and &2I-b2J (
! 2”0(al +bl +e1 +a21b!+02
is a constant) is the intersection of ((elbg czbt)/(a
tbz azbtL (az c+ at 02)
/(ILI bz a2bl)).

ここで、この予測対応点の周辺で画素間隔の5倍以内の
範囲にエツジ(特徴点)が存在する場合には、最も近く
にあるエツジ点を正しい予測対応点として修正する。こ
れはカメラ位置・パンメータの誤差や、像の歪などによ
り、本来エツジにのるべき予測対応点がずれることがあ
るからであり、また、整数計算による四捨五入の誤差の
蓄積によってもずれが生じるからである。なお、この実
施例の実験結果によれば、最大画素間隔の4倍のずれが
局部的にみられた。
Here, if an edge (feature point) exists in a range within five times the pixel interval around this predicted corresponding point, the nearest edge point is corrected as the correct predicted corresponding point. This is because the predicted corresponding point that should be on the edge may shift due to camera position/pan meter errors, image distortion, etc. Also, shifts may occur due to accumulation of rounding errors due to integer calculations. It is. According to the experimental results of this example, a deviation of four times the maximum pixel interval was observed locally.

25は画像17の特徴点(エツジ)と画像19の予測対
応点について局所相関法により評価値を求める処理であ
る。ここで、この評価値の計算は前述の式(22+によ
って行なわれる。そして、処理29において、対応点候
補のうち、評価値がしきい値以下であって、かつ最小の
ものを選択し、それを対応点と決定する。
25 is a process of obtaining evaluation values for the feature points (edges) of the image 17 and the predicted corresponding points of the image 19 by the local correlation method. Here, the calculation of this evaluation value is performed by the above-mentioned formula (22+. Then, in step 29, among the corresponding point candidates, the one whose evaluation value is less than or equal to the threshold and the smallest is selected, and is determined as the corresponding point.

一方、26は画像18の代わりに画像19と初期対応付
けを行なう処理である。そして、その設定値は処理23
の場合と同様に、画像17の特徴点(エツジ)および画
像19の射影直線上の特徴点(エツジ)の近傍濃度分布
を比較して求める上記局所相関法によシ求めた。この評
価式は前述の式(221である。これにより、画像19
上の対応点候補を選択する。ここで、対応点候補が1つ
も見つからなかった特徴点(エツジ)については処理2
6′で■対応点なしとして処理が保留される。
On the other hand, 26 is a process of performing initial association with image 19 instead of image 18. Then, the setting value is processed in step 23.
As in the case of , the above-mentioned local correlation method was used to compare and find the density distributions near the feature points (edges) of image 17 and the feature points (edges) on the projection line of image 19. This evaluation formula is the above-mentioned formula (221).As a result, the image 19
Select the corresponding point candidate above. Here, for feature points (edges) for which no corresponding point candidates were found, process 2
At 6', processing is suspended as there is no corresponding point.

21は処理24と同様に処理26により求めた画像19
上の各対応点候補について画像18上の2本の射影直l
1iL 3およびL5の交点、すなわち、予測対応点を
算出する処理である。ただしL5は視線OcPの画像1
8への射影直線である。28は処理25と同様に画像1
7の特徴点(エツジ)および画像18の予測対応点の近
傍一度分布を局所相関法により比較し評価値を求める処
理である。
21 is the image 19 obtained by processing 26 in the same manner as processing 24.
For each corresponding point candidate above, two projection lines on image 18
This is a process of calculating the intersection of 1iL3 and L5, that is, the predicted corresponding point. However, L5 is image 1 of the line of sight OcP.
This is the projection straight line to 8. 28 is image 1 as in process 25.
This is a process of comparing the neighborhood distribution of the feature points (edges) of 7 and the predicted corresponding points of image 18 using the local correlation method to obtain an evaluation value.

そして、処理29において、対応点候補のうち、評価値
がしきい値以下であシかつ最小のものを選択し、それを
対応点とする。ここで、もしも対応点が見つからないと
きは、処理29′で■保留状態となり、第2ステツプの
処理を待つ。
Then, in process 29, among the corresponding point candidates, the one whose evaluation value is less than or equal to the threshold value and has the smallest value is selected, and this is set as the corresponding point. Here, if a corresponding point is not found, the process 29' enters into a pending state and waits for the second step process.

30は対応点処理の結果に基づき画像17の各特徴点(
エツジ)について実空間座標を求める処理であり、前述
の式07)〜01)により計算する。そして、処理31
では上述の処理結果を3次元立体表示する。具体的には
、x−y 、 y−z 、 x−Z O透視図に変換す
る。
30, each feature point (
This is a process of finding real space coordinates for edges), and is calculated using equations 07) to 01) described above. Then, process 31
Now, the above processing results are displayed in three-dimensional form. Specifically, it is converted into x-y, y-z, x-ZO perspective views.

以上説明したように、見え隠れ部分が彦い場合には少な
くとも3台のテレビカメラで写し出された物体上の各点
を実空間座標(x、y、z)に変換し記録することがで
きる。このため、見え隠れ部分を除き、ある基準点から
物体までの距離、方向を求めることができ、また、物体
−ヒの各点間の位置関係から物体の形状を認識し、物体
の種類を識別することができる。
As explained above, when visible and hidden parts are hidden, each point on the object captured by at least three television cameras can be converted into real space coordinates (x, y, z) and recorded. Therefore, excluding visible and hidden parts, it is possible to find the distance and direction from a certain reference point to an object, and also recognize the shape of the object from the positional relationship between each point of the object and the object, and identify the type of object. be able to.

つぎに、両眼立体視法では困難であったカメラ位置によ
る見え隠れ部分の堰扱いの原理を第4図を用いて説明す
る。
Next, the principle of handling visible and hidden parts depending on the camera position, which is difficult in the binocular stereoscopic viewing method, will be explained using FIG. 4.

この本発明における見え隠れ部分の取扱方法を説明する
ための説明図である第4図における処理は第3図で示し
た流れを基本とする処理を第1ステツプとして終了した
後、まだ対応点が確定していない特徴点について第2ス
テツプの処理として行なわれるものである。
The processing in FIG. 4, which is an explanatory diagram for explaining the method of handling visible and hidden parts in the present invention, is based on the flow shown in FIG. This is performed as a second step for feature points that have not yet been processed.

この第4図において、(C)に示す32および(d)に
示す33は前述と同じくそれぞれ第1カメラと第2カメ
ラによる左画像および右画像であり、34゜35はカメ
ラ位置による見え隠れ部分(側面)である。(a)に示
す36と(b)に示す36′はそれぞれ第3カメラの異
なる位置における画像の例である。
In this FIG. 4, 32 shown in (C) and 33 shown in (d) are the left image and right image respectively taken by the first camera and the second camera as described above, and 34° and 35 are the visible and hidden parts ( side). 36 shown in (a) and 36' shown in (b) are examples of images taken at different positions of the third camera, respectively.

そして、(a)に示す画像36では側面34が見え、側
面35 ((b)参照)が隠れている場合であり、缶)
に示す画像36′では側面35が見え、側面34((a
)0禰)が見えている場合を示す。
In the image 36 shown in (a), the side surface 34 is visible and the side surface 35 (see (b)) is hidden.
In the image 36' shown in , the side surface 35 is visible, and the side surface 34 ((a
)0ne) is visible.

まず、(a)に示す第3の画像36が得られる第3のカ
メラ位置について説明する。
First, the third camera position where the third image 36 shown in (a) is obtained will be explained.

(c)に示す左画像32の点aに対する(d)に示す右
画像33上の対応点は前述の第3図のフローチャートに
おける第1ステツプで説明した従来の局所相関法では見
い出せ彦いが、(a)に示す画像36上では対応点候補
a“が見つかる。
The corresponding point on the right image 33 shown in (d) for the point a on the left image 32 shown in (c) cannot be found using the conventional local correlation method explained in the first step in the flow chart of FIG. A corresponding point candidate a" is found on the image 36 shown in (a).

そして、点aと対応点候補a″による画像33上の予測
対応点をa′とすると、a“が正しい対応点であるとき
はa′がエツジ上にのシ、かつ、エツジの片側周辺だけ
を比較した相関法(以下、片側相関法とよび、さらに右
側の比較のときを特に、右側相関法、左側の比較のとき
を特に左側相関法と呼ぶこととし、エツジの左右を含め
た周辺の明るさ分布を比較する前述までの局所相関法と
区別する。)において、右側相関法の評価値ρ(評価両
数は後述する)が小さくなり、&r&’およびaIIが
対応関係にあることが分る。仮にa”が不正な対応点の
ときはa′がエツジ上から通常かなり大きい距離だけは
ずれるから対応の誤りを容易に識別することができる。
If the predicted corresponding point on the image 33 between point a and corresponding point candidate a'' is a', then when a'' is the correct corresponding point, a' is on the edge and only around one side of the edge. (hereinafter referred to as the one-sided correlation method, and the comparison on the right side is especially called the right-side correlation method, and the comparison on the left side is especially called the left-side correlation method. ), the evaluation value ρ (both evaluation numbers will be described later) of the right-side correlation method becomes smaller, indicating that &r&' and aII are in a corresponding relationship. Ru. If a'' is an incorrect corresponding point, a' will usually deviate from the edge by a fairly large distance, so the error in correspondence can be easily identified.

一方、点すについても、左と右を入れ替えて考えれば、
全く同様の手順で対応関係を得、かつ見え隠れ部分の確
認をすることができる。一方、画像32の特徴点である
Cは、画像36においてのみ対応点候補C”が見つかる
。ここで、もし仮に、画像33に対応点候補がみつかっ
たとしても画像36上の予測対応点は通常エツジ上には
なく、評価値は高く々す、対応の誤りを明確に判定する
こ′とができる。そして、Cとc″による画像33上の
予測対応点は隠れたエツジ83上にあるため、画像33
の見えているエツジにのっていない。このためC“はC
の対応点である確認はできかい。このような場合には処
理を一旦保留状態にしておき、3眼対応点処理がすべて
の特徴点に対して求め終えた時点で、後述の第3ステッ
プ段階の処理を行なう。そして、この第3ステツプでは
、対応点候補から第2ステツプ甘での対応確定点を除去
し、対応点候補や、その存在領域をしぼっていき、対応
点を求めていく。
On the other hand, when thinking about dosing, if we switch the left and right sides,
Correspondence can be obtained using exactly the same procedure, and visible and hidden parts can be confirmed. On the other hand, for feature point C in image 32, a corresponding point candidate C'' is found only in image 36.Here, even if a corresponding point candidate is found in image 33, the predicted corresponding point on image 36 is usually Since the predicted corresponding points on the image 33 from C and c'' are on the hidden edge 83, the evaluation value is high and the error in correspondence can be clearly determined. , image 33
It is not on the visible edge. Therefore, C” is C
Is it possible to confirm the corresponding point? In such a case, the process is temporarily put on hold, and when the trinocular corresponding point process has been completed for all feature points, the third step described below is performed. Then, in the third step, the points whose correspondence is determined in the second step are removed from the corresponding point candidates, and the corresponding point candidates and their regions are narrowed down to find corresponding points.

つぎに、第3のカメラの位置が異なる画像36′の場合
について説明する。
Next, the case of an image 36' in which the position of the third camera is different will be explained.

前述の画像36の場合には基準画を左画像32としたが
、画像36′の場合には基準画を右画像33とすれば画
像36の場合と同じ処理ができる。しかし、できれば基
準画を統一した方が処理の一貫性が保てる。ここでは、
画像36′の場合でも基準画を左画像32として処理す
る方法を述べる。片側相関法によりaの対応点候補を画
像33の中で探すと、右側相関の評価値ρ′が小さい点
a′が求まる。そして、aとa′に対する画像36′上
の予測対応点a”は a/が正しい対応点の場合にはエ
ツジ上に存在し、かつ a/近傍とa“近傍の局所相関
において評価値ρが小さくなりa′とa“の近傍はよく
対応していることが分る。したがって、aとa′および
a“はお互いに対応関係にあると判断される。
In the case of the aforementioned image 36, the left image 32 is used as the reference image, but in the case of the image 36', the same processing as in the case of the image 36 can be performed by using the right image 33 as the reference image. However, if possible, it would be better to unify the reference image to maintain consistency in processing. here,
A method of processing the reference image as the left image 32 even in the case of the image 36' will be described. When a corresponding point candidate for a is searched for in the image 33 using the one-sided correlation method, a point a' with a small right side correlation evaluation value ρ' is found. Then, the predicted corresponding point a'' on the image 36' for a and a' exists on the edge if a/ is a correct corresponding point, and the evaluation value ρ is It can be seen that the neighborhood of a' and a'' correspond well to each other. Therefore, it is determined that a, a' and a'' have a correspondence relationship with each other.

つぎに、bはaの場合と反対に画像33土のb′と左側
相関法で評価値ρ′が小さくなり、b/が対応点候補と
して選択される。そして、bとb′から画像36′上の
予測対応点b“を求めると、それはエツジ上にのり、か
つb′とb“の周辺の局所相関による評価値ρは小さく
なっているから、b、b’およびb“が対応関係にある
ことが分る。対応点候補としてb′以外のものがあった
場合には、画像36′で予測対応点がエツジ上にのらな
いので、その対応点候補が誤った対応点であることを判
定することができる。
Next, in contrast to the case of a, the evaluation value ρ' of b becomes smaller by the left side correlation method with b' of image 33, and b/ is selected as a corresponding point candidate. Then, when we calculate the predicted corresponding point b" on the image 36' from b and b', it lies on the edge, and the evaluation value ρ due to the local correlation around b' and b" is small, so b , b' and b" have a correspondence relationship. If there is a corresponding point candidate other than b', the predicted corresponding point does not lie on the edge in image 36', so the correspondence It can be determined that the point candidate is an incorrect corresponding point.

ここで、片側相関法について具体的に説明する。Here, the one-sided correlation method will be specifically explained.

まず、エツジの右側でかつエツジの極近くにnXm(例
えば5X5マトリクス)の微小領域(窓)を切り出し、
その部分に対して前述の式(2りにより評価値ρ′を算
出するとエツジの右側の対応度を得ることができる。そ
して、エツジの左側の比較も同様であり、また、任意方
向のエツジについてもエツジ垂直方向の極く近くに微小
領域(窓)を切シ出し、その部分に対して上記式(2り
により評価値ρ′を算出すると対応の度合がわかる。し
かし、一般にエツジの片側の面ではエツジ部分程明暗変
化が大きくないので、以下に記載する実施例では、上記
方法をとらず次のようにした。すなわち、エツジに垂線
をひき、画素間隔の1.4倍もしくは2.8倍離れた位
置を中心として3×3または5×5画素の微小領域を切
り出してから、その正方形領域の頂点位置にある画素を
領域からとシ除く。そして、残った5″または21の画
素の平均明るさと、明るさのばらつきを表わす分散を求
める。この2つの物理量をエツジの片側一方における特
徴量とする。2つのエツジE1 r B2の片側同志の
比較による評価値を、 とした。ただし、m r nはm+n=1の条件で選択
するが、通常m=n==0.5とした。また、対応のし
きい値は50〜100を用いた。
First, cut out a micro region (window) of nXm (for example, 5X5 matrix) on the right side of the edge and very close to the edge.
If the evaluation value ρ' is calculated using the above formula (2) for that part, the degree of correspondence on the right side of the edge can be obtained.The same applies to the comparison on the left side of the edge. The degree of correspondence can be determined by cutting out a minute area (window) very close to the edge perpendicular direction and calculating the evaluation value ρ' using the above formula (2) for that area. Since the change in brightness is not as large as that at the edges, in the example described below, the above method was not used, but instead the following method was used: In other words, a perpendicular line was drawn at the edge, and the pixel spacing was 1.4 times or 2.8 times the pixel spacing. After cutting out a micro area of 3 x 3 or 5 x 5 pixels centered on a position twice as far away, remove the pixels at the apex position of the square area from the area.Then, remove the pixels at the apex position of the square area from the area. Calculate the average brightness and the variance representing the brightness variation. These two physical quantities are taken as the feature values on one side of the edge. The evaluation value by comparing the two edges E1 r B2 on one side is as follows. However, m r n is selected under the condition of m+n=1, but usually m=n==0.5.Furthermore, a corresponding threshold value of 50 to 100 was used.

以上、画像36と画像36′の場合に分けて説明したが
、この画像36と画像36′の場合を予め区別してから
処理することは現実にはできない。そこで第2ステツプ
の処理の中で場合分けを自動的に行なう手続が必要と彦
る。
Although the case of the image 36 and the image 36' has been explained separately above, in reality, it is not possible to distinguish between the cases of the image 36 and the image 36' in advance and then process them. Therefore, there is a need for a procedure to automatically perform case classification in the second step process.

この手続を含め第2ステツプの実施例を第5図に示す。An embodiment of the second step including this procedure is shown in FIG.

この本発明の対応点処理のフローチャートを示す第5図
において全体の手続ぎは第5図(a)に示す第1〜第3
ステツプに分類される。
In FIG. 5 showing a flowchart of the corresponding point processing according to the present invention, the entire procedure is shown in steps 1 to 3 shown in FIG. 5(a).
It is classified into steps.

この第1ステツプは前述の第3図で開示した処理20〜
31である。そして、第2ステツプは見え隠れ部分の処
理であル、第3ステツプはM2ステップでも対応が得ら
れない部分の処理である。
This first step is the process 20 to 20 disclosed in FIG. 3 above.
It is 31. The second step is processing for visible and hidden parts, and the third step is processing for parts for which correspondence cannot be obtained even in step M2.

ここで、この第2ステツプの処理は第1ステツプで未解
決な特徴点のみを取扱う。
Here, this second step processing deals with only the feature points that were unresolved in the first step.

そして、基準画像を画像32としてそれを画像Aと表わ
し、画像33を画像B2画像36−jたは画像36′を
画像Cと表わすこととする。
The reference image will be referred to as image 32, which will be referred to as image A, and image 33 will be referred to as image B2, image 36-j, or image 36' will be referred to as image C.

第2ステツプを示す第5図(b)において、処理37で
画像Aの特徴点のエツジ方向と射影直線L1の方向を比
較し、平行ならば処理43に処理が移り、平行でないと
きには処理38に移る。この処理38では前述のM3図
の処理23七同様に画像Aと画像C間の初期対応点処理
を行なう。そして、対応点候補が存在すれば処理39に
おいて画像Bでの予測対応点を前述の式(1)〜α0に
より求めた2本の射影直線の交点として求め、それがエ
ツジーヒもしくはその近くにのっているかを調べる。の
っていれば、処理40においてその点と画像Aまたは画
像Cについて片側相関法により、エツジの両側について
独立に評価値ρ′を前述の式(231により求め、エツ
ジの一方の側がしきい値より小さい評価値をもっていれ
ば対応を確定する。ここで、処理37゜38’ 、 4
 Gまたは42で否(、N)と判定された場合には処理
43に処13Jlが移る。そして、処理43〜47では
処理38〜42で画(IJBと画像Cが入れ替るだけで
同様の処理が行なわれる。処理43゜45または処理4
7で否(N)と判定されると、処理はさらに処理48に
移り、画像Aと画像Bで片側相関法による評価値ρ′(
式(2濁)を求め、しきい値より小さい評価値をもつ対
応点候補を優先順をつけて選び出す。そして、対応点候
補が存在する場合には、処理50において各対応点候補
について、画像Cでの予測対応点を、第3図に示す第1
ステツプの場合と同様に、画像Aと画像Bから画像Cへ
の2本の射影直線Lt 、L2 (tJ 2図の射影直
線Ll + L2に相当する)の交点として求める。
In FIG. 5(b) showing the second step, in process 37, the edge direction of the feature point of image A and the direction of the projection straight line L1 are compared, and if they are parallel, the process moves to process 43, and if they are not parallel, the process moves to process 38. Move. In this process 38, initial corresponding point processing between image A and image C is performed in the same way as process 237 in the above-mentioned diagram M3. Then, if a corresponding point candidate exists, in step 39, the predicted corresponding point in image B is determined as the intersection of the two projection straight lines obtained by the above equation (1) to α0, and if the predicted corresponding point is located at or near the Find out if it is. If it is, in step 40, the evaluation value ρ' for both sides of the edge is determined independently using the above formula (231) using the one-sided correlation method for that point and image A or image C, and one side of the edge is set to the threshold value. If it has a smaller evaluation value, the correspondence is determined. Here, processing 37°38', 4
If the result is G or 42, the process 13Jl moves to process 43. Then, in processes 43 to 47, similar processes are performed in processes 38 to 42, except that the images (IJB and image C are replaced).
7, the process further moves to process 48, where the evaluation value ρ'(
Equation (2) is determined, and corresponding point candidates having evaluation values smaller than the threshold are selected in order of priority. If there are corresponding point candidates, in step 50, the predicted corresponding points in image C are calculated for each corresponding point candidate in the first diagram shown in FIG.
As in the case of the step, it is determined as the intersection of two projection straight lines Lt and L2 (corresponding to the projection straight line Ll + L2 in Fig. tJ2) from image A and image B to image C.

そして、処理51でその予測対応点がエツジ上に存在す
る場合には、画像Bと画像Cで、局所相関法による評価
値ρ(式(2つ)を求める。また、処理53で、その評
価値がしきい値より小さくかつ最小のものを探し、それ
が存在すれば対応確定とする。なお、処理40.45お
よび処理51において予測対応点がエツジにのっていな
くてもエツジの近くにあればエツジにのっていると判断
する。
Then, in process 51, if the predicted corresponding point exists on the edge, the evaluation value ρ (formula (2)) is calculated using the local correlation method for image B and image C. The value is smaller than the threshold value and the minimum value is searched, and if it exists, the correspondence is confirmed.In addition, even if the predicted corresponding point is not on the edge in process 40.45 and process 51, it is found near the edge. If so, it is determined that it is on the edge.

そして、処理54は対応確定の処理である。この実施例
では、予測対応点と最近接エツジとの距離が画素間かく
の5倍以内であれば、エツジ上にあるとし、予測対応点
に最近接したエツジ点を正しい予測対応点として修正し
た。また、処理51は必ずしも必要でないが、エツジの
高いところの対応を得る通常の場合には、この処理51
の判定を入れた方が処理効率が高くなることがある。
Process 54 is a process for determining the correspondence. In this example, if the distance between the predicted corresponding point and the nearest edge is within 5 times the pixel distance, it is assumed that the edge point is on the edge, and the edge point closest to the predicted corresponding point is corrected as the correct predicted corresponding point. . Further, although the process 51 is not necessarily necessary, in the normal case where correspondence of high edges is obtained, this process 51
Processing efficiency may be higher if this judgment is included.

この第5図6)に示す第2ステツプでも、なお、未解決
な特徴点((2)で処理保留状態になっている)は、第
5図(c)に示す第3ステツプで処理される。
Even in the second step shown in FIG. 5(6), unresolved feature points (processing pending state in (2)) are processed in the third step shown in FIG. 5(c). .

この第5図(c)において、55.56・・・・−62
はそれぞれ各処理を示す。
In this Figure 5(c), 55.56...-62
indicate each process.

この第3ステツプでは、処理55または処理60におい
てそれぞれM2または第1ステツプの初期対応点候補の
中に第2ステツプまでに確定した特徴点が含捷れる場合
はそれを除去して対応点候補をしぼる。その結果、候補
が1つのみになったとき、または残った複数の候補のう
ち1つのみが著しく対応の度合が高い(評価値が小)場
合には、その候補を対応点と判定する。なお、画像Aと
画像Bまたは画像AとIfii像Cの射影直線士の対応
順岸が一致しているという拘束条件をつけてよい場合に
は、第2ステツプまでに確定した特徴点を用いて、求め
たい対応点の存在領域を限定するととができ、処理の信
頼性をさらに向上させることができる。
In this third step, if the feature points determined up to the second step are included in the initial corresponding point candidates of M2 or the first step in process 55 or process 60, respectively, they are removed and the corresponding point candidates are created. Squeeze. As a result, when there is only one candidate, or when only one of the remaining candidates has a significantly high degree of correspondence (evaluation value is small), that candidate is determined to be a corresponding point. In addition, if it is acceptable to impose a constraint condition that image A and image B or image A and Ifii image C have the same corresponding order of the projective lineman, then the feature points determined up to the second step can be used. , it is possible to limit the area where the corresponding points to be found exist, and the reliability of the processing can be further improved.

以上のように、カメラ位置による見え隠れ部分が予め分
っていないような場合にも見え隠れ部分の処理ができる
As described above, visible and hidden parts can be processed even when the visible and hidden parts depending on the camera position are not known in advance.

このように、本発明の物体位置・形状計測方法は、非同
一直線上の少なくとも3箇所から2次元画像を取得し、
その画像についてエツジの右側と左側について独立に対
応の度合を調べ、エツジの右側または左側の隠れ部分の
存在を識別することにより、対応点候補の正誤を判定す
る処理を行彦っている。
In this way, the object position/shape measurement method of the present invention acquires two-dimensional images from at least three locations on non-collinear lines,
The degree of correspondence is independently examined on the right and left sides of the edge in the image, and the presence of hidden parts on the right or left side of the edge is identified, thereby performing a process of determining whether the corresponding point candidate is correct or incorrect.

第6図は前述の物体位置・形状計測方法を実施した装置
の一実施例を示すブロック図で、3眼画像間対応点処理
を利用した物体位置・形状計測装置の全体の構成例を示
したものである。
FIG. 6 is a block diagram showing an example of an apparatus implementing the above-mentioned object position/shape measurement method, and shows an example of the overall configuration of an object position/shape measurement apparatus that utilizes corresponding point processing between trinocular images. It is something.

この第6図において、13,14.15は前述の第1図
で示した3台のテレビカメラ、63a 、 63b+8
3cはそれぞれテレビカメ?14.15.16に対応し
各テレビカメラ13〜15からの映像信号をディジタル
信号に変換するアナログ・ディジタルコンバータ(以下
、A/Dコンバータと略称する)で、これらは画像入力
部を構成している。64はA/Dコンバータ63a〜6
3cの各出力を入力とし一時記憶する画像メモリ、65
はこの画像メモリ64の出力を入力とする前処理演算回
路、66はこの前処理演算回路65によって得られた特
徴点の位置と特徴量を記録する特徴量テーブルで、これ
らは上記画像入力部の出力を入力としその画像入力部の
パラメータリストおよび特徴点を抽出する前処理演算部
6Tを構成している。68はカメラ・パラメータテーブ
ルである。
In this Figure 6, 13, 14, and 15 are the three television cameras shown in Figure 1 above, 63a, 63b+8.
Is each 3c a TV camera? An analog-to-digital converter (hereinafter abbreviated as A/D converter) that corresponds to 14.15.16 and converts the video signal from each television camera 13 to 15 into a digital signal, and these constitute an image input section. There is. 64 is an A/D converter 63a to 6
Image memory 65 that receives and temporarily stores each output of 3c.
numeral 66 is a preprocessing arithmetic circuit that receives the output of the image memory 64 as an input, and a feature table 66 records the positions and feature amounts of feature points obtained by the preprocessing arithmetic circuit 65. These are the features of the image input section. It constitutes a preprocessing calculation section 6T that receives the output as input and extracts the parameter list and feature points of the image input section. 68 is a camera parameter table.

69は前処理演算部61における特徴量テーブル66か
らの出力を入力としカメラ・パラメータテーブル68を
基にして射影直線パラメータを算出する演算回路、70
は射影直線パラメータテーブル、71は演算回路69に
よって得られた演算結果である対応点処理結果を記録す
る対応点テーブルで、これらは3眼対応点検出モジュー
ルT2を構成している。
69 is an arithmetic circuit that receives the output from the feature table 66 in the preprocessing arithmetic unit 61 and calculates a projection straight line parameter based on the camera parameter table 68;
71 is a projection straight line parameter table, and 71 is a corresponding point table for recording the corresponding point processing result which is the calculation result obtained by the calculation circuit 69, and these constitute the trinocular corresponding point detection module T2.

そして、この3眼対応点検出モジュールT2は、非同一
直線上の少なくとも3箇所以上から取得した2次元画像
のうち2枚の画像間の対応付けを行なうことによシ対応
点候補を求め、基準画の特徴点およびその特徴点に対す
るその対応点候補から他の画像上へのそれぞれの射影直
線を求め、該射影直線の交点から前記他の画像上の対応
点の存在位置を予測し、その位置と上記基準画の特徴点
もしくは上記対応点候補との対応度合をエツジの一方の
側と他の側について独立に求め、上記エツジの片側の見
え隠れ部分の存在を識別することにより対応点の正誤を
判定し、対応点を選別する第1の対応点選別機能および
この第1の対応点選別機能によっては正しい対応点が得
られなかった特徴点について、上記予測した対応点の存
在位置と上記基準画の特徴点もしくは上記対応点候補と
の対応度合をエツジの一方の側と他の側について独立に
求め、上記エツジの片側の見え隠れ部分の存在を識別す
ることにより対応点の正誤を判定し対応点を選別する第
2の対応点選別機能および上記取得した2次元画像のう
ち2枚の画像からエツジの一方の側と他の側について独
立に対応度を調べることによル対応点候補を求め、かつ
上記基準画のエツジとそのエツジに対する該対応点候補
から他の画像上への射影直線を求め、その射影直線の交
点から上記他の画像上の対応点の存在位置を予測し、そ
の位置と上記基準画の特徴点もしくは上記対応点候補と
の対応度合を調べて見え隠れ部分の存在を識別すること
により対応点候補の正誤を判定し、対応点を選別する第
3の対応点選別機能を実行する対応点検出用演算部を構
成している。
Then, this trinocular corresponding point detection module T2 obtains corresponding point candidates by performing correspondence between two of the two-dimensional images obtained from at least three locations on non-colinear lines, and Obtain respective projection straight lines onto other images from the feature points of the image and their corresponding point candidates for the feature points, predict the existing positions of the corresponding points on the other images from the intersections of the projected straight lines, and calculate the positions. The degree of correspondence between the feature point of the reference image or the corresponding point candidate is determined independently for one side of the edge and the other side, and the correctness of the corresponding point is determined by identifying the presence of visible and hidden parts on one side of the edge. The first corresponding point selection function determines and selects corresponding points, and for feature points for which correct corresponding points are not obtained by this first corresponding point selection function, the predicted existing positions of the corresponding points and the reference image are used. The degree of correspondence with the feature point or the corresponding point candidate is determined independently for one side of the edge and the other side, and the correctness of the corresponding point is determined by identifying the existence of a visible or hidden part on one side of the edge. A second corresponding point selection function that selects the corresponding points and independently examines the degree of correspondence on one side and the other side of the edge from two of the two-dimensional images obtained above to obtain corresponding point candidates; Then, obtain a projection straight line onto another image from the edge of the reference image and the corresponding point candidate for the edge, predict the existing position of the corresponding point on the other image from the intersection of the projected straight line, and calculate the position and A third corresponding point selection function is executed to determine whether the corresponding point candidates are correct or incorrect by checking the degree of correspondence with the feature points of the reference image or the corresponding point candidates and identifying the existence of visible and hidden parts, and to select the corresponding points. It constitutes a corresponding point detection calculation unit.

73はこの3販対応点検出モジュール72における対応
点テーブル71の出力とカメラ・パラメータテーブル6
8の出力を入力とする座標算出モジュールで、この座標
算出モジュールγ3は、上記対応点検出用演算部によっ
て対応が得られた特徴点を実空間座標に変換して座標を
算出する座標算出部を構成している。74はこの座標検
出モジュール73の変換結果を記録する座標テーブル、
75は座標算出モジュール73によって得られた変換結
果を立体的に表示するグラフィックモジュール、76は
このグラフィックモジュール75の出力を入力とするグ
ラフィックディ沫プレイ装置、76は結果に基づき図示
し々い外部機器を制御するために設けられた外部入出力
インターフェースである。
73 is the output of the corresponding point table 71 in this 3rd sale corresponding point detection module 72 and the camera parameter table 6
This coordinate calculation module γ3 is a coordinate calculation module that receives the output of 8 as input, and this coordinate calculation module γ3 has a coordinate calculation unit that converts the feature points whose correspondence has been obtained by the corresponding point detection calculation unit into real space coordinates and calculates the coordinates. It consists of 74 is a coordinate table that records the conversion results of this coordinate detection module 73;
Reference numeral 75 denotes a graphic module that three-dimensionally displays the conversion result obtained by the coordinate calculation module 73, 76 a graphic display device that receives the output of this graphic module 75 as input, and 76 various external devices (not shown) based on the results. This is an external input/output interface provided to control the

つぎにこのM6図に示す実施例の動作を第3図を参照し
て説明する。
Next, the operation of the embodiment shown in FIG. M6 will be explained with reference to FIG.

まず、3台のテレビカメラ14,15.16で得た映像
信号はA/Dコンバータ63a r 63b * 63
cによルデイジタル信号に変換され、3枚以上から成る
画像メモリ27に一旦記憶される。そして、前処理演算
回路65によ勺第3図に示すエツジ検出処理20および
細線化処理21が順次施され、特徴点の位置と特徴量が
特徴量テーブル66に記録される。ここまでの動作は一
般によくいわれる前処理演算部60の動作である。
First, the video signals obtained by the three television cameras 14, 15, and 16 are sent to A/D converters 63a r 63b * 63
c is converted into a digital signal and temporarily stored in an image memory 27 consisting of three or more images. Then, the preprocessing calculation circuit 65 sequentially performs edge detection processing 20 and thinning processing 21 shown in FIG. The operations up to this point are the operations of the preprocessing calculation section 60, which is generally often referred to.

つぎに、求められた各特徴点についての射影直線ハラメ
ータを、カメラ・パラメータテーブル68を基にし演算
回路69によって算出し、その結果を射影直線テーブル
T1に記録する。なお、射影重縁パラメータは、予じめ
必要な分をすべて求めて射影直線パラメータテーブル7
0に記録しておく代わりに、次段階以降で必要に々つた
時毎に算出してもよい。続いて第3図に示した初期対応
付は処理23から対応点選択決定処理29までを演算回
路69で行なう。この処理では、必要に応じ画像メモリ
64や特徴量テーブル66を参照し、また、対応点テー
ブルγ1に途中結果の記録あるいは読出しを行なう。そ
して、処理終了後、対応点テーブル71を調べれば対応
点決定までの履歴が1目で分る。つぎに、対応点が得ら
れた特徴点は座標算出モジュール73により実空間座標
に変換され、その結果が座標テーブル74に記録される
Next, the projection straight line harameter for each of the obtained feature points is calculated by the calculation circuit 69 based on the camera parameter table 68, and the result is recorded in the projection straight line table T1. In addition, for the projected multi-edge parameters, all necessary parameters are obtained in advance and created in the projected straight line parameter table 7.
Instead of recording it as 0, it may be calculated every time it becomes necessary in the next stage. Subsequently, the initial correspondence shown in FIG. 3 is performed by the arithmetic circuit 69 from processing 23 to corresponding point selection determination processing 29. In this process, the image memory 64 and the feature table 66 are referred to as necessary, and intermediate results are recorded or read from the corresponding point table γ1. After the processing is completed, by checking the corresponding point table 71, the history up to the determination of the corresponding points can be seen at a glance. Next, the feature points for which corresponding points have been obtained are converted into real space coordinates by the coordinate calculation module 73, and the results are recorded in the coordinate table 74.

また、この座標算出モジュール73によって実空間座標
に変換された結果は、グラフィック・モジュール75に
よシ物体の透視図や概観図に変換され色付けされた稜、
グラフィックディスプレイ装置76により立体表示され
る。また、座標算出モジュール73によって得られた物
体座標データは外部入出力インタフェース7Tを通して
外部機器制御に利用される。
The results converted into real space coordinates by the coordinate calculation module 73 are converted into a perspective view or an overview view of the object by the graphics module 75, and colored edges,
The graphic display device 76 displays the image three-dimensionally. Further, the object coordinate data obtained by the coordinate calculation module 73 is used for external device control through the external input/output interface 7T.

つぎに、カメラ位置による見え隠れ部分の多い物体を対
象とし、本発明の装置の実施例を第7図および第8図に
より説明する。
Next, an embodiment of the apparatus of the present invention will be described with reference to FIGS. 7 and 8, targeting an object that has many visible and hidden parts depending on the camera position.

この第7図は積木を3台のテレビカメラで観測した像の
一例を示したものであり、稜の長さ30闘の六角柱に高
さ30日の六角錐をのせた積木を3台のテレビカメラで
観測しその画像メモリの内容を第6図に示すグラフィッ
クディスプレイ装置76に表示し、ビデオプリンタで写
真にとりその像のエツジを示したものである。A、B、
Cはそれぞれ入力画像を示す。
This figure 7 shows an example of an image of a building block observed with three television cameras.The building block has a hexagonal pyramid with a height of 30 days mounted on a hexagonal pillar with a ridge length of 30 days. The image is observed with a television camera, the contents of the image memory are displayed on a graphic display device 76 shown in FIG. 6, and a photograph is taken with a video printer to show the edges of the image. A, B,
C each indicates an input image.

そして、カメラの位置座標は(x、y、z)表示で、(
−200園、 0 、100m+x) 、 (200閣
、0゜100m) 、 (−100m 、 0 、40
0m+) 、俯角はそれぞれ0.1 、0.1および0
4であり、光軸とY−2面との交点のYm標は共に90
0mm、レンズの焦点距離55闘である。
The position coordinates of the camera are expressed as (x, y, z), and (
-200 garden, 0, 100m+x), (200 temple, 0°100m), (-100m, 0, 40
0m+), the depression angles are 0.1, 0.1 and 0, respectively.
4, and the Ym marks at the intersection of the optical axis and the Y-2 plane are both 90
0mm, the focal length of the lens is 55 mm.

第8図は第7図の像を本発明の対応点処理を用いて物体
実空間座標に変換し表示した結果で、第7図に示す左下
入力画像Aを基準画として処理した結果を一旦第6図に
示す座標テーブル74に記録した後グラフィック・モジ
ュール75でX−Z。
Figure 8 shows the result of converting the image in Figure 7 into object real space coordinates using the corresponding point processing of the present invention. After recording in the coordinate table 74 shown in FIG.

X−Y、Y−Z座標透視図に変換した後、グラフィック
・ディスプレイ装置γ6で表示するとともにビデオプリ
ンタで写真にとった結果を示したものである。そして、
左から第1ステツプの結果1゜第2ステップ着での結果
II、第3ステップまでの結果Iである。また、(a)
は正面から見た透視図X−2を示したものであり、缶)
は真上から見た透視図X−Y、(c)は真横から見た透
視図y−zを示したものである。
The result is shown after being converted into an X-Y, Y-Z coordinate perspective view, displayed on a graphic display device γ6, and photographed using a video printer. and,
From the left, the results are 1 for the first step, result II for the second step, and result I for the third step. Also, (a)
is a perspective view of X-2 seen from the front (can)
(c) shows a perspective view X-Y seen from directly above, and (c) shows a perspective view y-z seen from directly side.

この第8図において、破線は本来、第2ステツプ′まで
の処理では対応の確認が決まらない部分であるが、見え
隠れ部分を除き画像間で対応の順序が保存されていると
いう条件のもとて第2ステツプの見え隠れ部分の判定段
階で対応が得られたものである。そして、実験による対
応点処理の結果、特徴点数1164 、未対応点121
.誤対応Oであり、対応確定率約90%、未対応率10
%、誤対応O係であった。また、最大計測誤差はX−Z
軸方向が±0.3m+Y軸方向±4ttaa以内であり
、それは、画像のサンプリング間隔による量子化誤差と
ほぼ一致している。なお、局部相関法による従来の両眼
立体視法では対応の確定率はわずか17%にすぎなかっ
た。
In Fig. 8, the broken lines are originally the parts where the correspondence cannot be confirmed in the processing up to the second step', but under the condition that the correspondence order is preserved between images except for visible and hidden parts. The correspondence was obtained in the second step, which was the stage of determining visible and hidden parts. As a result of corresponding point processing through experiments, the number of feature points is 1164, and the uncorresponding points are 121.
.. Wrong response O, response confirmation rate approximately 90%, non-response rate 10
%, it was Person O who responded incorrectly. Also, the maximum measurement error is X-Z
The axial direction is within ±0.3 m + Y-axis direction ±4ttaa, which almost matches the quantization error due to the image sampling interval. In addition, in the conventional binocular stereoscopic viewing method using the local correlation method, the correspondence accuracy rate was only 17%.

このように、本発明による物体位置・形状計測装置を用
いると、少なくとも3台のカメラで物体を観測し、見え
隠れ部分を含む物体各点の実空間座標を求め、物体位置
・形状を記録し、立体表示することができる。
As described above, when the object position/shape measuring device according to the present invention is used, an object is observed with at least three cameras, the real space coordinates of each point on the object including visible and hidden parts are determined, and the object position/shape is recorded. It can be displayed in 3D.

第9図は本発明の自立ロボットへの応用例を示す構成図
である。
FIG. 9 is a configuration diagram showing an example of application of the present invention to an autonomous robot.

この第9図において、13,14.15は前述したテレ
ビカメラ、16は対象物体(物体)である。
In FIG. 9, 13, 14, and 15 are the aforementioned television cameras, and 16 is a target object.

そして、78は第6図で例示した物体位置・形状計測装
置、T7はこの物体位置・形状計測装置7Bに含まれる
前述の外部入出力インタフェース、19はシステム主制
御装置、80はこのシステム主制御装置T9によって制
御されるロボットコントローラ、81はこのロボットコ
ントローラ80によって制御されるロボット本体、82
はロボットアームである。
78 is the object position/shape measuring device illustrated in FIG. 6, T7 is the aforementioned external input/output interface included in this object position/shape measuring device 7B, 19 is a system main controller, and 80 is this system main controller. A robot controller 81 is controlled by the device T9, and a robot body 82 is controlled by the robot controller 80.
is a robot arm.

つぎに、この第9図に示す応用例の動作を説明する。Next, the operation of the application example shown in FIG. 9 will be explained.

まず、テレビカメラ13,14.15によシ物体16の
画像信号が得られ、その画像信号は物体位置・形状計測
装置γBに入力し、物体16の各点の座標が得られると
共に3次元表示される。そして、システム主制御装置7
9では物体位置・形状計測装置78から外部入出力イン
タフェースT1を経由して伝達された物体座標データに
基づきロボットアーム82を物体位置に移動するための
移動量、方向および軌跡を算出する。また物体16をつ
かむ際の指の方向および指の間隔を算出する。
First, an image signal of the object 16 is obtained by the television cameras 13, 14, 15, and the image signal is input to the object position/shape measuring device γB, where the coordinates of each point on the object 16 are obtained and a three-dimensional display is performed. be done. And the system main controller 7
At step 9, the amount of movement, direction, and trajectory for moving the robot arm 82 to the object position are calculated based on the object coordinate data transmitted from the object position/shape measuring device 78 via the external input/output interface T1. Furthermore, the direction of the fingers and the distance between the fingers when grasping the object 16 are calculated.

つぎに、ロボットコントローラ80において、ロボット
本体81の移動量に対応した各ジヨイントの駆動モータ
(図示せず)の回転数と速度、アームを駆動するジヨイ
ントのモータ回転数と速度を算出し、各ジヨイント駆動
信号を発生する。一方、物体位置・形状計測装置γ8で
は常時物体16の位置・形状を観測し、物体16が移動
または変形したり障害物が入ったりすると、システム主
制御装置79でロボット本体81の動きの変更指令を発
する。また、物体位置・形状計測装置78ではロボット
アーム82が物体16に接近した時、ロボットアーム8
2の位置および方向もU識できるので、物体16とロボ
ットアーム82の位置関係が求められる。この位置関係
に基づき、システム主制御装置79ではロボットアーム
82の細かい動作を決定し、ロボットコントローラ80
に指令を与えることができる。
Next, the robot controller 80 calculates the rotation speed and speed of a drive motor (not shown) for each joint corresponding to the amount of movement of the robot main body 81 and the rotation speed and speed of the motor of the joint that drives the arm, and Generates a drive signal. On the other hand, the object position and shape measuring device γ8 constantly observes the position and shape of the object 16, and when the object 16 moves or deforms or an obstacle enters, the system main controller 79 issues a command to change the movement of the robot body 81. emits. Further, in the object position/shape measuring device 78, when the robot arm 82 approaches the object 16, the robot arm 82
Since the position and direction of object 2 can also be recognized, the positional relationship between object 16 and robot arm 82 can be determined. Based on this positional relationship, the system main controller 79 determines detailed movements of the robot arm 82, and the robot controller 80
can give commands to.

そして、この第9図に示す応用例においては、任意の物
体が任意の位置におかれたとき、物体の位置と形状を視
覚認識し、その結果に基づきロボットのアーム82を移
動して物体をつかみ上げ、所定の位置に運ぶという自立
的な動作をさせることができる。また、物体16はシス
テムの応答速度以内であれば移動していても、その動き
を追ってロボットアーム82でつかみ上げてしまうこと
ができる。
In the application example shown in FIG. 9, when an arbitrary object is placed at an arbitrary position, the position and shape of the object are visually recognized, and based on the results, the robot's arm 82 is moved to move the object. It can be made to perform independent movements such as picking it up and carrying it to a predetermined position. Furthermore, even if the object 16 is moving within the response speed of the system, it can be picked up by the robot arm 82 by following its movement.

以上、本発明を、主に、縦方向エツジを代表例として説
明したが、エツジの左右を、エツジの上下あるい伏一般
的にエツジに対して垂直な反対2方向と読みかえること
により、水平方向を含むすべての方向のエツジについて
も全く同様に取扱うことができる。すなわち、これは前
述の第5図(a)。
Above, the present invention has been mainly explained using a vertical edge as a representative example. Edges in all directions can be treated in exactly the same way. That is, this is the above-mentioned FIG. 5(a).

(b) 、 ((りに示すフローチャートではすべての
方向のエツジに通用できる処理となっている。
(b) , (The flowchart shown in (()) is a process that can be applied to edges in all directions.

なお、上記実施例においては、3眼画像を用いる場合を
例にとって説明したが、本発明はこれに限定されるもの
ではなく、4眼以上の画像を用い、3眼画像により求め
た対応点候補について第4眼目以降の画像により上記の
”方法と同様の検証を行なうことによって、さらに処理
の正確さを高めることができる。
In addition, although the above-mentioned example was explained using a case where a three-eye image is used as an example, the present invention is not limited to this. The accuracy of the processing can be further improved by performing verification similar to the above method using images from the fourth eye onward.

また、上記実施例においては、初期対応点処理により評
価値が低い、つまり、対応の度合が高い対応点候補を予
め複数個選択した後、各対応点候補について第3の画像
との対応を調べ正誤判定する処理を行なう場合を例にと
って説明したが、本発明はこれに限定されるものではな
く、類似パターンが多く含まれることなどのため、上位
数個の対応点候補の中に正しい対応点が入らない場合が
生じる可能性がある。この場合、あるいはその恐れがあ
る場合には、射影直線に沿ってしきい値以下の評価値を
もつ点を探し、それが見つかシ次第、M3の画像との対
応を調べ、正誤判定するという手順を併用することによ
り、正誤判定の精度を高め、類似パターンの中から正し
い対応点を検出することができる。
In addition, in the above embodiment, after selecting in advance a plurality of corresponding point candidates with low evaluation values, that is, with a high degree of correspondence, through initial corresponding point processing, the correspondence with the third image is checked for each corresponding point candidate. Although the description has been given using an example of a case where processing to determine correctness or incorrectness is performed, the present invention is not limited to this, and since many similar patterns are included, it is possible to find a correct corresponding point among the top several corresponding point candidates. There may be cases where the In this case, or if there is a possibility of this happening, the procedure is to search for a point with an evaluation value below the threshold value along the projection straight line, and as soon as it is found, check the correspondence with the M3 image and determine whether it is correct or incorrect. By using this in combination, it is possible to improve the accuracy of correct/incorrect judgment and to detect correct corresponding points from among similar patterns.

また、上記実施例においては、第1ステツプを全画像に
ついて実施し、その終了後第2ステツプに入る形態を例
にとって実施したが、本発明はこれに限定されるもので
はなく、特徴点毎に、第1から第2ステツプまでを実施
する形態でも構わない。
Furthermore, in the above embodiment, the first step is carried out for the entire image, and the second step is started after the completion of the first step. , the first to second steps may be implemented.

また、上記実施例においては、テレビカメラから画像を
用いる方式を例にとって説明したが、本発明はこれに限
定されるものではなく、スチールカメラにより得た写真
を用いることも可能であり、用いるカメラの種類は問わ
ない。そして、画像入力の際の観測位置・方向などのパ
ラメータが明らかであれば、画像入力手段に特別の条件
が与えられるものではない。
Further, in the above embodiment, a method using images from a television camera was explained as an example, but the present invention is not limited to this, and it is also possible to use photographs obtained from a still camera, depending on the camera used. The type does not matter. As long as parameters such as observation position and direction at the time of image input are clear, no special conditions are given to the image input means.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明は、非同一直線上の少なく
とも3箇所から2次元画像を取得し、その画像について
エツジの右側と左側について独立に対応の度合を調べ、
エツジの右側または左側の隠れ部分の存在を識別するこ
とにより対応点候補の正誤を判定する処理を行なうよう
にしたものであるから、従来困難であったカメラ位置に
よる見え隠れ部分の多い物体をも計測対象とすることが
でき、片側が見え隠れ部分となるエツジの計測および見
え隠れ部分の識別を行なうことができ、壕だ、その処理
アルゴリズムは複数枚画像間対応点処理によるので極め
て簡単になり、かつ信頼性が高くなるので、実用上の効
果は極めて大である。
As explained above, the present invention acquires two-dimensional images from at least three locations on non-collinear lines, independently examines the degree of correspondence on the right and left sides of edges in the images, and
Since the process is performed to determine whether a corresponding point candidate is correct or incorrect by identifying the presence of hidden parts on the right or left side of edges, it is also possible to measure objects with many visible and hidden parts depending on the camera position, which was previously difficult. It is possible to measure edges where one side is visible and hidden, and to identify visible and hidden areas.The processing algorithm is extremely simple and reliable because it uses corresponding point processing between multiple images. Since the properties are improved, the practical effect is extremely large.

さらにまた、従来、見え隠れ部分をなくすためカメラ間
隔を狭め精度を犠牲にしていたが、本発明によれば、見
え隠れ部分の処理が可能となったことによりカメラ間隔
を自由に大きくすることができるため、高精度な計測を
行なうことができると共に、処理の正確さを高めること
ができ、また、カメラ位置・方向および焦点距離々との
カメラパラメータは各カメラとも任意に設定することが
できるので、カメラの設定が容易となるばかりでなく、
同時に3台以上のカメラを設定するかわりに1台のカメ
ラを移動し々から3枚以上の複数枚画像を得て、その画
像間で本発明による立体視対応処理を行なうという手順
により、カメラ台数を減らすことや、カメラ間距離を自
由にかえて、計測領域および要求精度を対象に応じて弾
力的に変更するととが容易と表るという点において極め
て有効である。
Furthermore, in the past, in order to eliminate visible and hidden parts, the camera interval was narrowed and accuracy was sacrificed, but according to the present invention, it is now possible to process visible and hidden parts, so the camera interval can be freely increased. , it is possible to perform highly accurate measurements and increase the accuracy of processing, and camera parameters such as camera position/direction and focal length can be set arbitrarily for each camera. Not only is it easier to set up the
Instead of setting three or more cameras at the same time, one camera is moved one after another to obtain three or more images, and the stereoscopic viewing processing according to the present invention is performed between the images. It is extremely effective in that it is easy to reduce the amount of noise, and to freely change the distance between cameras to flexibly change the measurement area and required accuracy depending on the object.

このように、本発明の方法では、従来の両眼立体視法に
比して多大の効果があり、少なくとも3箇所以上から取
得した複数枚の2次元画像から立体視対応点処理によ勺
物体の位置・形状を3次元計測する場合において、カメ
ラ位置による見え隠れ部分を識別処理する物体位置・形
状計測方法としては独自のものである。
As described above, the method of the present invention has a great effect compared to the conventional binocular stereoscopic viewing method, and it is possible to identify objects by stereoscopic corresponding point processing from a plurality of two-dimensional images acquired from at least three locations. When three-dimensionally measuring the position and shape of an object, this method is unique as an object position/shape measurement method that identifies visible and hidden parts depending on the camera position.

また、信頼性の高い汎用的な物体位置・形状計測装置を
実現することができるという点において極めて有効であ
る。
Further, the present invention is extremely effective in that a highly reliable and general-purpose object position/shape measuring device can be realized.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明による物体位置・形状計測方法の一実施
例を説明するための構成図、第2図は第1図の実施例に
おけるテレビカメラ3台の画像間での対応点処理の原理
説明図、第3図は第1図および第2図の動作説明に供す
る3眼画像の立体視対応処理の70−チャート、第4図
は本発明における見え隠れ部分の取扱い方法を説明する
ための説明図、第5図は本発明における対応点処理の流
れを示すフローチャート、第6図は本発明による物体位
置・形状計測装置の一実施例を示すブロック図、第7図
は積木を3台のテレビカメラで観測した像を示す説明図
、第8図は第7図の像を本発明における対応点処理を用
いて物体空間座標に変換し表示した結果を示す説明図、
第9図は本発明の自立ロボットへの応用例を示す構成図
、第10図は従来の両眼立体視法の一例を示す構成図、
第11図は局所相関法により得られた評価値の分布の例
を示す説明図、第12図は従来の両眼立体視法における
見え隠れ部分の取扱いを説明するための説明図である。 13〜15・・・・テレビカメラ、16・・・・対象物
体、11〜19・・・・画像、32・・・・左画像、3
3・・・・右画像、34.350・・・見え隠れ部分、
36.36’・・拳・画像、63a 〜63(! @ 
1111 @ A/Dコンバータ、54@@@・画像メ
モリ、65・・・・前処理演算回路、66・・・・特徴
量テーブル、67・・・・前処理演算部、68・・・・
カメ2・パラメータテーブル、69・・・拳演算回路、
γ0・・・・射影直線パラメータテーブル、71o・・
・対応点テーブル、T2・・・・3眼対応点検出モジュ
ール、13・・・・座標算出モジュール、74・・拳・
座標テーブル、75・・・・グラフィックモジュール1
6・eII・グラフィックディスプレイ装置。
Figure 1 is a block diagram for explaining an embodiment of the object position/shape measurement method according to the present invention, and Figure 2 is the principle of corresponding point processing between images from three television cameras in the embodiment of Figure 1. An explanatory diagram, FIG. 3 is a 70-chart of stereoscopic vision compatible processing of trinocular images to explain the operation of FIGS. 1 and 2, and FIG. 4 is an explanation to explain the method of handling visible and hidden parts in the present invention. 5 is a flowchart showing the flow of corresponding point processing in the present invention, FIG. 6 is a block diagram showing an embodiment of the object position/shape measuring device according to the present invention, and FIG. An explanatory diagram showing an image observed by a camera; FIG. 8 is an explanatory diagram showing the result of converting the image in FIG. 7 into object space coordinates using the corresponding point processing of the present invention and displaying the image;
FIG. 9 is a block diagram showing an example of application of the present invention to an autonomous robot; FIG. 10 is a block diagram showing an example of a conventional binocular stereoscopic viewing method;
FIG. 11 is an explanatory diagram showing an example of the distribution of evaluation values obtained by the local correlation method, and FIG. 12 is an explanatory diagram for explaining the handling of visible and hidden parts in the conventional binocular stereoscopic viewing method. 13-15...Television camera, 16...Target object, 11-19...Image, 32...Left image, 3
3... Right image, 34.350... Visible and hidden parts,
36.36'...fist/image, 63a ~63(! @
1111 @ A/D converter, 54 @ @ Image memory, 65... Pre-processing calculation circuit, 66... Feature amount table, 67... Pre-processing calculation unit, 68...
Turtle 2 parameter table, 69...fist calculation circuit,
γ0... Projection straight line parameter table, 71o...
- Corresponding point table, T2... Trinocular corresponding point detection module, 13... Coordinate calculation module, 74... Fist...
Coordinate table, 75...Graphic module 1
6.eII.Graphic display device.

Claims (6)

【特許請求の範囲】[Claims] (1)非同一直線上の少なくとも3箇所から2次元画像
を取得し、該2次元画像のうち2枚の画像間の対応付け
を行なうことにより対応点候補を求め、基準画の特徴点
およびその特徴点に対する該対応点候補から他の画像上
へのそれぞれの射影直線を求め、該射影直線の交点から
前記他の画像上の対応点の存在位置を予測し、その位置
と前記基準画の特徴点もしくは前記対応点候補との対応
度合をエッジの一方の側と他の側について独立に求め、
前記エッジの片側の見え隠れ部分の存在を識別すること
により対応点の正誤を判定し、対応点を選別することに
よつて、物体位置・形状を計測し得るようにしたことを
特徴とする物体位置・形状計測方法。
(1) Obtain two-dimensional images from at least three locations on non-colinear lines, find corresponding point candidates by associating two of the two-dimensional images, and identify the feature points of the reference image and their Find each projection straight line from the corresponding point candidate for the feature point onto another image, predict the existing position of the corresponding point on the other image from the intersection of the projected straight line, and calculate the position and the characteristics of the reference image. The degree of correspondence with the point or the corresponding point candidate is determined independently on one side and the other side of the edge,
The object position is characterized in that the object position and shape can be measured by determining whether the corresponding points are correct or incorrect by identifying the existence of a visible or hidden part on one side of the edge, and by selecting the corresponding points.・Shape measurement method.
(2)画像入力部と、この画像入力部の出力を入力とし
該画像入力部のパラメータリストおよび特徴点を抽出す
る前処理演算部と、この前処理演算部の出力を入力とし
非同一直線上の少なくとも3箇所から取得した2次元画
像のうち2枚の画像間の対応付けを行なうことにより対
応点候補を求め、基準画の特徴点およびその特徴点に対
する該対応点候補から他の画像上へのそれぞれの射影直
線を求め、該射影直線の交点から前記他の画像上の対応
点の存在位置を予測し、その位置と前記基準画の特徴点
もしくは前記対応点候補との対応度合をエッジの一方の
側と他の側について独立に求め、前記エッジの片側の見
え隠れ部分の存在を識別することにより対応点の正誤を
判定し、対応点を選別する対応点選別機構を実行する対
応点検出用演算部と、この対応点検出用演算部の出力を
入力とし該演算部によつて対応が得られた特徴点を実空
間座標に変換して座標を算出する座標算出部とを備えて
なることを特徴とする物体位置・形状計測装置。
(2) An image input unit, a preprocessing calculation unit that receives the output of this image input unit as input and extracts the parameter list and feature points of the image input unit, and a preprocessing calculation unit that receives the output of this preprocessing calculation unit and uses non-collinear lines as input. Corresponding point candidates are obtained by associating two of the two-dimensional images obtained from at least three locations, and the corresponding point candidates for the feature points of the reference image and the feature points are transferred to other images. Find each projection straight line, predict the existing position of the corresponding point on the other image from the intersection of the projected straight line, and calculate the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate of the edge. For detecting corresponding points, which calculates one side and the other side independently, determines whether the corresponding points are correct or incorrect by identifying the existence of visible and hidden parts on one side of the edge, and executes a corresponding point sorting mechanism that selects the corresponding points. comprising a calculation unit and a coordinate calculation unit that receives the output of the corresponding point detection calculation unit and calculates the coordinates by converting the feature points for which the correspondence has been obtained by the calculation unit into real space coordinates. An object position/shape measuring device featuring:
(3)非同一直線上の少なくとも3箇所から2次元画像
を取得し、該2次元画像のうち2枚の画像からエッジの
一方の側と他の側について独立に対応度を調べることに
より独立に対応点候補を求め、かつ基準画のエッジおよ
びそのエッジに対する該対応点候補から他の画像上への
それぞれの射影直線を求め、該射影直線の交点から前記
他の画像上の対応点の存在位置を予測し、その位置と前
記基準画の特徴点もしくは前記対応点候補との対応度合
を調べて見え隠れ部分の存在を識別するととにより対応
点候補の正誤を判定し、対応点を選別することによつて
、物体位置・形状を計測し得るようにしたことを特徴と
する物体位置・形状計測方法。
(3) Obtain two-dimensional images from at least three locations on non-collinear lines, and independently examine the degree of correspondence between one side and the other side of the edge from two of the two-dimensional images. Find corresponding point candidates, find the edge of the reference image and each projection straight line from the corresponding point candidate for that edge onto another image, and determine the location of the corresponding point on the other image from the intersection of the projected straight lines. is predicted, and the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate is checked to identify the presence of a visible or hidden part, and the correctness of the corresponding point candidate is determined and the corresponding points are selected. Therefore, an object position/shape measuring method is characterized in that the object position/shape can be measured.
(4)画像入力部と、この画像入力部の出力を入力とし
該画像入力部のパラメータリストおよび特徴点を抽出す
る前処理演算部と、この前処理演算部の出力を入力とし
非同一直線上の少なくとも3箇所から取得した2次元画
像のうち2枚の画像からエッジの一方の側と他の側につ
いて独立に対応度を調べることにより独立に対応点候補
を求め、かつ基準画のエッジおよびそのエッジに対する
該対応点候補から他の画像上へのそれぞれの射影直線を
求め、該射影直線の交点から前記他の画像上の対応点の
存在位置を予測し、その位置と前記基準画の特徴点もし
くは前記対応点候補との対応度合を調べて見え隠れ部分
の存在を識別することにより対応点候補の正誤を判定し
、対応点を選別する対応点選別機能を実行する対応点検
出用演算部と、この対応点検出用演算部の出力を入力と
し該演算部によつて対応が得られた特徴点を実空間座標
に変換して座標を算出する座標算出部とを備えてなるこ
とを特徴とする物体位置・形状計測装置。
(4) An image input section, a preprocessing operation section that takes the output of this image input section as input and extracts the parameter list and feature points of the image input section, and uses the output of this preprocessing operation section as input and Correspondence point candidates are independently determined by independently examining the degree of correspondence on one side and the other side of the edge from two of the two-dimensional images obtained from at least three locations on the reference image. Find each projection straight line from the corresponding point candidate for the edge onto another image, predict the existing position of the corresponding point on the other image from the intersection of the projected straight line, and calculate the position and the feature point of the reference image. or a corresponding point detection calculation unit that executes a corresponding point selection function that determines whether the corresponding point candidate is correct or incorrect by checking the degree of correspondence with the corresponding point candidate and identifying the existence of visible and hidden parts, and selects corresponding points; It is characterized by comprising a coordinate calculating section which receives the output of the corresponding point detection calculating section and calculates the coordinates by converting the feature points for which correspondence has been obtained by the calculating section into real space coordinates. Object position/shape measurement device.
(5)非同一直線上の少なくとも3箇所から2次元画像
を取得し、該2次元画像のうち2枚の画像間の対応付け
を行なうことにより対応点候補を求め、基準画の特徴点
およびその特徴点に対する該対応点候補から他の画像上
へのそれぞれの射影直線を求め、該射影直線の交点から
前記他の画像上の対応点の存在位置を予測し、その位置
と前記基準画の特徴点もしくは前記対応点候補との対応
度合を調べることにより対応点候補の正誤を判定して対
応点を選別する第1の対応点選別機能および該第1の対
応点選別機能によつては正しい対応点が得られなかつた
特徴点について、前記予測した対応点の存在位置と前記
基準画の特徴点もしくは前記対応点候補との対応度合を
エッジの一方の側と他の側について独立に求め、前記エ
ッジの片側の見え隠れ部分の存在を識別することにより
対応点の正誤を判定し、対応点を選別する第2の対応点
選別機能および前記取得した2次元画像のうち2枚の画
像からエッジの一方の側と他の側について独立に対応度
を調べることにより独立に対応点候補を求め、かつ前記
基準画のエッジとそのエッジに対する該対応点候補から
他の画像上への射影直線を求め、該射影直線の交点から
前記他の画像上の対応点の存在位置を予測し、その位置
と前記基準画の特徴点もしくは前記対応点候補との対応
度合を調べて見え隠れ部分の存在を識別することにより
対応点候補の正誤を判定し、対応点を選別する第3の対
応点選別機能とにより対応点を得ることによつて、物体
位置・形状を計測し得るようにしたことを特徴とする物
体位置・形状計測方法。
(5) Obtain two-dimensional images from at least three locations on non-colinear lines, find corresponding point candidates by associating two of the two-dimensional images, and identify the feature points of the reference image and their Find each projection straight line from the corresponding point candidate for the feature point onto another image, predict the existing position of the corresponding point on the other image from the intersection of the projected straight line, and calculate the position and the characteristics of the reference image. A first corresponding point selection function that determines whether a corresponding point candidate is correct or incorrect and selects corresponding points by checking the degree of correspondence with a point or the corresponding point candidate, and a correct response depending on the first corresponding point selection function. For the feature points for which no points were obtained, the degree of correspondence between the predicted existing position of the corresponding point and the feature point of the reference image or the corresponding point candidate is determined independently for one side and the other side of the edge, and the A second corresponding point selection function that determines whether the corresponding points are correct or incorrect by identifying the presence of a visible or hidden part on one side of the edge, and selects the corresponding points; independently find corresponding point candidates by independently examining the degree of correspondence on the side of the reference image and the other side, and find a projection straight line from the corresponding point candidate to the edge of the reference image and the edge onto another image, By predicting the existing position of the corresponding point on the other image from the intersection of the projection straight lines, and checking the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate, and identifying the presence of a visible or hidden part. An object position characterized in that the position and shape of an object can be measured by obtaining corresponding points by determining whether corresponding point candidates are correct or incorrect and selecting a third corresponding point selection function to select corresponding points.・Shape measurement method.
(6)画像入力部と、この画像入力部の出力を入力とし
該画像入力部のパラメータリストおよび特徴点を抽出す
る前処理演算部と、この前処理演算部の出力を入力とし
非同一直線上の少なくとも3箇所から取得した2次元画
像のうち2枚の画像間の対応付けを行なうことにより対
応点候補を求め、基準画の特徴点およびその特徴点に対
する該対応点候補から他の画像上へのそれぞれの射影直
線を求め、該射影直線の交点から前記他の画像上の対応
点の存在位置を予測し、その位置と前記基準画の特徴点
もしくは前記対応点候補との対応度合を調べることによ
り対応点候補の正誤を判定して対応点を選別する第1の
対応点選別機能および該第1の対応点選別機能によつて
は正しい対応点が得られなかつた特徴点について、前記
予測した対応点の存在位置と前記基準画の特徴点もしく
は前記対応点候補との対応度合をエッジの一方の側と他
の側について独立に求め、前記エッジの片側の見え隠れ
部分の存在を識別することにより対応点の正誤を判定し
対応点を選別する第2の対応点選別機能および前記取得
した2次元画像のうち2枚の画像からエッジの一方の側
と他の側について独立に対応度を調べることにより独立
に対応点候補を求め、かつ前記基準画のエッジとそのエ
ッジに対する該対応点候補から他の画像上への射影直線
を求め、該射影直線の交点から前記他の画像上の対応点
の存在位置を予測し、その位置と前記基準画の特徴点も
しくは前記対応点候補との対応度合を調べて見え隠れ部
分の存在を識別することにより対応点候補の正誤を判定
し、対応点を選別する第3の対応点選別機能とを実行す
る対応点検出用演算部と、この対応点検出用演算部の出
力を入力とし該演算部によつて対応が得られた特徴点を
実空間座標に変換して座標を算出する座標算出部とを備
えてなることを特徴とする物体位置・形状計測装置。
(6) An image input section, a preprocessing operation section that takes the output of this image input section as input and extracts the parameter list and feature points of the image input section, and uses the output of this preprocessing calculation section as input and Corresponding point candidates are obtained by associating two of the two-dimensional images obtained from at least three locations, and the corresponding point candidates for the feature points of the reference image and the feature points are transferred to other images. , predicting the location of the corresponding point on the other image from the intersection of the projection straight line, and checking the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate. A first corresponding point selection function that determines the correctness of corresponding point candidates and selects corresponding points, and a feature point for which correct corresponding points were not obtained by the first corresponding point selection function, By determining the degree of correspondence between the existing position of the corresponding point and the feature point of the reference image or the corresponding point candidate independently for one side and the other side of the edge, and identifying the presence of a visible or hidden part on one side of the edge. A second corresponding point selection function that determines whether the corresponding points are correct or incorrect and selects the corresponding points; and independently examining the degree of correspondence on one side and the other side of the edge from two of the acquired two-dimensional images. , independently obtain corresponding point candidates, obtain a projection straight line from the edge of the reference image and the corresponding point candidate for that edge onto another image, and calculate the corresponding point on the other image from the intersection of the projected straight line. Predict the existing position, check the degree of correspondence between the position and the feature point of the reference image or the corresponding point candidate, identify the existence of visible and hidden parts, determine whether the corresponding point candidate is correct, and select the corresponding point. A corresponding point detection calculation unit that performs a third corresponding point selection function, and the output of this corresponding point detection calculation unit is input, and the feature points for which correspondence is obtained by the calculation unit are converted into real space coordinates. 1. An object position/shape measuring device comprising: a coordinate calculating section for calculating coordinates.
JP59187270A 1984-09-08 1984-09-08 Method and apparatus for measuring position and shape of object Granted JPS6166108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59187270A JPS6166108A (en) 1984-09-08 1984-09-08 Method and apparatus for measuring position and shape of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59187270A JPS6166108A (en) 1984-09-08 1984-09-08 Method and apparatus for measuring position and shape of object

Publications (2)

Publication Number Publication Date
JPS6166108A true JPS6166108A (en) 1986-04-04
JPH0371043B2 JPH0371043B2 (en) 1991-11-11

Family

ID=16203048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59187270A Granted JPS6166108A (en) 1984-09-08 1984-09-08 Method and apparatus for measuring position and shape of object

Country Status (1)

Country Link
JP (1) JPS6166108A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6390705A (en) * 1986-10-03 1988-04-21 Sumitomo Metal Ind Ltd Quantitative remaining size detecting method for in-furnace refractory
JPS63503092A (en) * 1986-04-11 1988-11-10 ヴァルション テクニリーネン ツキムスケスクス Three-dimensional monitoring method of target space
JPH01250709A (en) * 1988-03-30 1989-10-05 Kinki Nippon Tetsudo Kk Method and apparatus for discriminating between two-dimensional and three-dimensional objects
KR100422370B1 (en) * 2000-12-27 2004-03-18 한국전자통신연구원 An Apparatus and Method to Measuring Dimensions of 3D Object on a Moving Conveyor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63503092A (en) * 1986-04-11 1988-11-10 ヴァルション テクニリーネン ツキムスケスクス Three-dimensional monitoring method of target space
JPS6390705A (en) * 1986-10-03 1988-04-21 Sumitomo Metal Ind Ltd Quantitative remaining size detecting method for in-furnace refractory
JPH01250709A (en) * 1988-03-30 1989-10-05 Kinki Nippon Tetsudo Kk Method and apparatus for discriminating between two-dimensional and three-dimensional objects
KR100422370B1 (en) * 2000-12-27 2004-03-18 한국전자통신연구원 An Apparatus and Method to Measuring Dimensions of 3D Object on a Moving Conveyor

Also Published As

Publication number Publication date
JPH0371043B2 (en) 1991-11-11

Similar Documents

Publication Publication Date Title
US20170160077A1 (en) Method of inspecting an object with a vision probe
JP2016001181A (en) System and method for runtime determination of camera mis-calibration
JP2021193400A (en) Method for measuring artefact
JPS62206684A (en) Position and shape measuring method by pattern projection
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
WO2015159835A1 (en) Image processing device, image processing method, and program
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
JPS6166108A (en) Method and apparatus for measuring position and shape of object
US6884980B2 (en) Method and apparatus for automatic focusing of an optical device
JPH06243236A (en) Setting device for coordinate system correction parameter of visual recognizer
US20230070281A1 (en) Methods and systems of generating camera models for camera calibration
WO2020075213A1 (en) Measurement apparatus, measurement method, and microscopic system
JP2004354320A (en) Recognition verification system for imaging object
RU139478U1 (en) ROBOTIC OBJECT MANAGEMENT SYSTEM
JP3253328B2 (en) Distance video input processing method
JP2567923B2 (en) Distance measurement method
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
JPH1096607A (en) Object detector and plane estimation method
JP3340599B2 (en) Plane estimation method
US20190113336A1 (en) Multi-Directional Triangulation Measuring System with Method
JP4153322B2 (en) Method and apparatus for associating measurement points in photogrammetry
JPH10318715A (en) Image measuring apparatus
JP2000028355A (en) Three-dimensional image processing device
JPS6166107A (en) Method and apparatus for measuring position and shape of object
RU2065133C1 (en) Method of automated measurement of coordinates of points of external medium to plot its three-dimensional model in stereo television system of technical vision