JPH02245610A - Object position measuring system by binocular stereoscopy - Google Patents

Object position measuring system by binocular stereoscopy

Info

Publication number
JPH02245610A
JPH02245610A JP1065909A JP6590989A JPH02245610A JP H02245610 A JPH02245610 A JP H02245610A JP 1065909 A JP1065909 A JP 1065909A JP 6590989 A JP6590989 A JP 6590989A JP H02245610 A JPH02245610 A JP H02245610A
Authority
JP
Japan
Prior art keywords
section
unit
sides
plane
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1065909A
Other languages
Japanese (ja)
Inventor
Yuji Nakagawa
祐治 中川
Tomoko Segawa
智子 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1065909A priority Critical patent/JPH02245610A/en
Publication of JPH02245610A publication Critical patent/JPH02245610A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To achieve a higher speed of a corresponding processing by performing a binocular stereoscopy by the use of a plurality of cameras to search points corresponding to each other on a picture obtained with the respective cameras. CONSTITUTION:An area dividing section 10 divides right and left input images obtained by performing binocular stereoscopy into areas of the same texture independently and the areas as sides are labeled. Finally, the dividing section 10 outputs a label image as the entire image labeled. A structure generating section 20 judges an overlapping relation with other sides for each of the sides labeled by the division section 10 to infer a vertical relation of the individual sides over the entire image. A coarsely corresponding section 30 selects candidates of right and left sides to be corresponded from a structure of right and left images obtained by the generating section 20. A side corresponding section 40 performs a corresponding for each candidate of the right and left sides selected to calculate a mutual parallax. Then, based on the parallax obtained, a distance calculating section 50 calculates a distance between the cameras and the sides by a theory of trigonometrical survey.

Description

【発明の詳細な説明】 〔概  要〕 複数のカメラによる両眼立体視を行い、それぞれのカメ
ラで得られた画像上で互いに対応する点を探索し、三角
測量の原理によりカメラと物体との間の距離を得る、両
眼立体視による物体位置測定方式に関し、 対応付けの処理を高速化できるようにすると共に、誤対
応による影響を最小限に抑えることができるようにする
ことを目的とし、 複数のカメラの両眼立体視によって得られた左右の画像
をそれぞれ独立に同一テクスチャの領域に分割し、y9
1域を面として各面にラベルを付ける領域分割部と、該
領域分割部によってラベルの付けられた面毎に、他の面
との重なり関係を判定し、画像全体に渡って個々の面の
上下関係を推論する構造生成部と、該構造生成部で得ら
れた左右画像の構造から、対応付けを行う左右の面の候
補を選択する粗対応部と、該粗対応部で選択された左右
の面の候補毎に対応付けを行って、互いの視差を算出す
る面対応付は部と、該面対応付は部で得られた視差に基
づき、三角測量の原理によりカメラと面との距離を算出
する距離算出部とを有するように構成する。
[Detailed Description of the Invention] [Summary] Performs binocular stereoscopic vision using multiple cameras, searches for mutually corresponding points on images obtained by each camera, and uses the principle of triangulation to determine the relationship between the camera and the object. With regard to object position measurement methods using binocular stereopsis to obtain the distance between The left and right images obtained by binocular stereoscopic vision from multiple cameras are each independently divided into areas with the same texture, and y9
A region dividing section labels each surface using one region as a surface, and for each surface labeled by the region dividing section, the overlapping relationship with other surfaces is determined, and the overlapping relationship of each surface is determined over the entire image. a structure generation unit that infers the vertical relationship; a rough correspondence unit that selects left and right plane candidates to be correlated from the structures of the left and right images obtained by the structure generation unit; The surface mapping section calculates the mutual parallax by mapping each surface candidate, and the surface mapping calculates the distance between the camera and the surface using the principle of triangulation based on the parallax obtained in the section. and a distance calculation unit that calculates the distance.

〔産業上の利用分野〕[Industrial application field]

本発明は、例えばロボットや自動走行車の視覚として用
いられたり、或いは物体の3次元形状を求めるために用
いられる物体位置測定方式に係り、更に詳しくは、複数
のカメラによる両眼立体視を行い、それぞれのカメラで
得られた画像上で互いに対応する点を探索し、三角測量
の原理によりカメラと物体との間の距離を得る、両眼立
体視による物体位置測定方式に関する。
The present invention relates to an object position measurement method that is used, for example, as a visual aid for robots and self-driving cars, or to determine the three-dimensional shape of an object. , relates to a binocular stereoscopic object position measurement method that searches for mutually corresponding points on images obtained by each camera and obtains the distance between the camera and the object using the principle of triangulation.

〔従来の技術〕[Conventional technology]

第16図は、従来における両眼立体視の原理を示す図で
ある。
FIG. 16 is a diagram showing the principle of conventional binocular stereopsis.

同図において、まず左右のカメラ101.102により
、対象物体の左右の画像を得て、これら左右の画像から
要素抽出部103.104でエツジ等の要素を抽出する
。そして、要素毎の対応付は部105により、左右の要
素間で対応付けを行う、続いて、距離算出部106によ
り、上記の対応付けられた左右の要素毎に視差を求め、
この視差とカメラパラメータ(カメラ間距離、焦点距離
等)から三角測量の原理によりカメラと物体までの距離
を計算する。
In the figure, left and right cameras 101 and 102 first obtain left and right images of the target object, and element extraction units 103 and 104 extract elements such as edges from these left and right images. Then, the mapping unit 105 performs mapping between the left and right elements for each element, and then the distance calculation unit 106 calculates the parallax for each of the correlated left and right elements,
From this parallax and camera parameters (inter-camera distance, focal length, etc.), the distance between the camera and the object is calculated using the principle of triangulation.

ここで、上記対応付は部105による要素毎の対応付け
の原理を、第17図に基づき簡単に説明する。なお、こ
こでは、左右画像ML 、 Ms+上のYW7oにおけ
る走査線!上でエツジ同士の対応付けを考える。
Here, the principle of the correspondence for each element by the correspondence unit 105 will be briefly explained based on FIG. 17. In addition, here, the scanning line at YW7o on the left and right images ML, Ms+! Consider the correspondence between edges above.

同図において、今、左画像MLにおける走査線2上のエ
ツジの数nLは9で、右画像における走査線上のエツジ
の数n、は8であるとすると、エツジの対応付けの候補
としてはnLXni=72通りの組み合わせが可能とな
る。この左右エツジの組み合わせが張る面を探索平面P
と呼び、この探索平面P上のエツジの交差点をノードと
呼ぶことにする。すると、対応付けの問題は探索平面P
上でノードOからノードMに至る経路を決定する問題と
なり、これに関しては、例えば動的計画法を用いた方法
がある(「動的計画法によるステレオ画像の区間対応法
」大田友−1池田克夫 電子通信学会論文誌’85/4
Vo1.J68−D No、4  参照)。
In the figure, if the number nL of edges on the scanning line 2 in the left image ML is 9 and the number n of edges on the scanning line 2 in the right image is 8, then nLXni is the edge association candidate. =72 combinations are possible. Search plane P for the surface covered by this combination of left and right edges
The intersection of edges on this search plane P will be called a node. Then, the problem of mapping is the search plane P
The above problem is to determine the route from node O to node M, and for this, for example, there is a method using dynamic programming. Katsuo Institute of Electronics and Communication Engineers Journal '85/4
Vol1. J68-D No. 4).

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来の両眼立体視の技術においては、左右画像間で
拘束条件(エビポーラ条件等)を満たす全ての要素につ
いて対応付けを行わなければならない、そのため、要素
の数nが増加するとnの2乗に比例して計算量が増加し
、よって処理の高速化が実現できないという問題があっ
た。
In the above-mentioned conventional binocular stereoscopic viewing technology, it is necessary to make correspondences between all the elements that satisfy the constraint conditions (Epipolar condition, etc.) between the left and right images. Therefore, when the number of elements n increases, There is a problem in that the amount of calculation increases in proportion to the amount of processing, and therefore it is not possible to achieve faster processing.

また、対応付けを画像全体で行っているので、1つでも
誤対応が発生すると、その後の対応付けに影響を与える
という問題もあった。
Furthermore, since the correspondence is made for the entire image, there is also the problem that if even one incorrect correspondence occurs, it will affect the subsequent correspondence.

本発明は、対応付けの処理を高速化できるようにすると
共に、誤対応による影響を最小限に抑えることができる
ようにすることを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to speed up the mapping process and to minimize the effects of incorrect mapping.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は本発明の原理構成図であり、第2図はその説明
図である。
FIG. 1 is a diagram showing the principle configuration of the present invention, and FIG. 2 is an explanatory diagram thereof.

第1図において、10は、複数のカメラの両眼立体視に
よって得られた左右の人力画像を、それぞれ独立に同一
テクスチャ(濃淡や模様)の領域に分割し、この領域を
面として各面にラベルを付ける領域分割部である。この
領域分割部10は、最後に画像全体でラベルが付けられ
たラベル画像を出力する。
In Fig. 1, 10 independently divides the left and right human images obtained by binocular stereoscopic vision from multiple cameras into areas with the same texture (shading and pattern), and uses these areas as surfaces to divide each side into areas. This is an area dividing section that attaches labels. The area dividing unit 10 finally outputs a label image in which the entire image is labeled.

20は、領域分割部10によってラベルの付けられた回
毎に、他の面との重なり関係を判定し、画像全体に渡っ
て個々の面の上下関係を推論する構造生成部である。
Reference numeral 20 denotes a structure generation unit that determines the overlapping relationship with other planes each time the area division unit 10 labels the area, and infers the vertical relationship of each plane over the entire image.

30は、構造生成部20で得られた左右画像の構造(個
々の面の上下関係)から、対応付けを行う左右の面の候
補を選択する粗対応部である。
Reference numeral 30 denotes a rough correspondence unit that selects left and right plane candidates to be correlated from the structure of the left and right images (vertical relationship between individual planes) obtained by the structure generation unit 20.

40は、粗対応部30で選択された左右の面の候補毎に
対応付けを行って、互いの視差を算出する面対応付は部
である。
Reference numeral 40 denotes a surface matching section that performs matching for each of the left and right surface candidates selected by the coarse matching section 30 and calculates mutual parallax.

50は、面対応付は部40で得られた視差に基づき、三
角測量の原理によりカメラと面との距離を算出する距離
算出部である。
Reference numeral 50 denotes a distance calculation unit that calculates the distance between the camera and the surface based on the parallax obtained by the surface mapping unit 40 and based on the principle of triangulation.

すなわち本発明では、まず第2図(a)、(b)に示す
ように、左右のカメラから得られた左右の画像があった
時、これらを独立に領域分割部1oで領域分割してラベ
ル(図中の1.2.3.4等)を付ける。次に、これら
の画像に対して、構造生成部20で第2図(C)、(d
)に示すように構造生成を行って、面の上下関係を求め
る。続いて、粗対応部30により、第2図(e)に示す
ように、左右の面の上下関係に従って、対応付けを行う
面の候補を決定し、これによって得られた左右の面の候
補に対して、面対応部40で第2図(f)に示すように
面対応付けを行う。そして最後に、視差に基づいて、三
角@量の原理でカメラと面との距離を計算する。
That is, in the present invention, first, as shown in FIGS. 2(a) and 2(b), when there are left and right images obtained from left and right cameras, these are independently divided into regions by the region dividing unit 1o and labeled. (1.2.3.4 etc. in the figure). Next, for these images, the structure generation unit 20 generates images in FIGS.
), perform structure generation to determine the vertical relationship of the surfaces. Next, as shown in FIG. 2(e), the rough correspondence unit 30 determines surface candidates to be mapped according to the vertical relationship between the left and right surfaces, and the resulting left and right surface candidates are On the other hand, the surface correspondence section 40 performs surface correspondence as shown in FIG. 2(f). Finally, based on the parallax, the distance between the camera and the surface is calculated using the triangle@quantity principle.

〔作   用〕[For production]

本発明によれば、複数の物体(面)を左右のカメラで観
測した時に重なっている面があれば、領域分割により各
面が分割され、構造生成により各分割された面の上下関
係が推論されるやよって、上面から下面に向かって回毎
の対応付けを行うことにより、要素の数に比例した速度
で対応付けが実現でき、距離情報や物体の3次元情報を
高速に得ることができる。
According to the present invention, if there are overlapping surfaces when observing multiple objects (surfaces) with left and right cameras, each surface is divided by region division, and the vertical relationship of each divided surface is inferred by structure generation. By performing the mapping each time from the top surface to the bottom surface, mapping can be achieved at a speed proportional to the number of elements, and distance information and three-dimensional information of the object can be obtained at high speed. .

また、領域毎に対応付けを行っているので、たとえ誤対
応が生じたとしても、その影響は該当領域にのみ留まり
、他の領域へ影響を及ぼすことはなくなる。
Furthermore, since correspondence is made for each area, even if an incorrect correspondence occurs, the effect will remain only on the relevant area and will not affect other areas.

一方、複数の物体(面)を左右のカメラで観測した時に
重なっている面がない時は、構造生成による面の上下関
係は抽出されないので、左右の領域の総当たり(要素の
数の2乗)に関して対応付けを行うことになり、対応付
けの速度は従来と変わらないが、領域分割により、誤対
応の影響を他の領域へ及ぼすことはなくなる。
On the other hand, if there are no overlapping surfaces when observing multiple objects (surfaces) with the left and right cameras, the vertical relationship of the surfaces is not extracted by structure generation, so ), and the speed of the mapping is the same as before, but by dividing the regions, the influence of incorrect correspondence will no longer be exerted on other regions.

〔実  施  例〕〔Example〕

以下、本発明の実施例について、図面を参照しながら説
明する。
Embodiments of the present invention will be described below with reference to the drawings.

第3図〜第6図は、それぞれ第1図に示した領域分割部
10、構造生成部20、粗対応部30及び面対応付は部
40について、本発明の一実施例の構成を示すブロック
図である。以下、各ブロックについて、順に説明してい
く。
FIGS. 3 to 6 are block diagrams showing the configuration of an embodiment of the present invention with respect to the area division section 10, structure generation section 20, rough correspondence section 30, and surface correspondence section 40 shown in FIG. 1, respectively. It is a diagram. Each block will be explained in turn below.

(領域分割部10) 領域分割部lOは、第3図に示すように、テクスチャ解
析部11及び領域ラベル付は部工2から構成されている
(Region Dividing Unit 10) As shown in FIG. 3, the area dividing unit 10 includes a texture analysis unit 11 and a region labeling unit 2.

まず、テクスチャ解析部11では、入力画像から、濃淡
や模様等のテクスチャの同じ領域毎に画像を分割する。
First, the texture analysis unit 11 divides the input image into regions with the same texture such as shading or pattern.

次に、領域ラベル付は部12では、テクスチャが同一の
領域を面と呼ぶことにし、各回毎に異なるラベルを割り
当て、最後に、画像全体でラベルが付けられたラベル画
像を出力する(第2図(a)、(b)参照)。
Next, in the region labeling section 12, regions with the same texture are called surfaces, and a different label is assigned each time.Finally, a label image in which the entire image is labeled is output (second (See Figures (a) and (b)).

(構造生成部20) 構造生成部20は、第4図に示すように、境界線抽出部
21、三面接続点抽出部22、T型接続判定部23、及
び面関係探索部24から構成されている。
(Structure Generation Unit 20) The structure generation unit 20, as shown in FIG. There is.

〈境界線抽出部21〉 境界線抽出部21では、上記領域分割部10で得られた
ラベル画像の中から、同一ラベルの面の境界線を抽出す
る。この境界線を抽出して得られた画像を線画と呼ぶ。
<Boundary Line Extraction Unit 21> The boundary line extraction unit 21 extracts the boundary lines of surfaces with the same label from among the label images obtained by the area division unit 10. The image obtained by extracting this boundary line is called a line drawing.

ラベル画像と1画は、互いに同じ大きさの画像で、同一
ラベルの境界は線画の境界に相当する。
The label image and one stroke are images of the same size, and the boundaries of the same label correspond to the boundaries of line drawings.

く三面接続点抽出部22〉 三面接続点抽出部22では、上記線画を構成す。Three-sided connection point extraction unit 22> The three-sided connection point extraction unit 22 constructs the line drawing.

る境界線の各交7点の中から、3つの境界が交差する三
面接続点を抽出する。
A three-sided connection point where three boundaries intersect is extracted from each of the seven intersection points of the boundary lines.

ここで、上記三面接続点の抽出方法の具体例を、第7図
に基づき説明する。
Here, a specific example of the method for extracting the three-plane connection points will be explained based on FIG. 7.

3つの境界線による接続点である三面接続点は、第7図
(a)に示すような4種類の形で現れる。そこでまず、
これらと同形の4種類のテンプレートを用いて線画上を
走査し、マツチングを行うことにより、三面接続点の画
像上における位置を求める。
A three-sided connection point, which is a connection point between three boundary lines, appears in four types of shapes as shown in FIG. 7(a). So first,
By scanning the line drawing using four types of templates having the same shape as these and performing matching, the positions of the three-sided connection points on the image are determined.

この位置を求めた際、その接続点にラベル(、L )を
付ける。
When this position is determined, a label (,L) is attached to the connection point.

上記のマツチングで得られた全ての三面接続点に対し、
第7図(b)に示すように、各接続点(−例として接続
点J3を考える)を端点とする3つの境界線をそれぞれ
他の接続点(接続点J2、J6、JT)に到達するまで
4近傍の画素をたどる。このようにしてたどった3つの
境界線(Jz−Jz間、Jl、  J3間1、JT  
Jl間の各境界線)は画素列として保持し、端点である
接続点のラベルと共に境界線情報として保持する。また
、境界線を介して隣接した接続点間の繋がりも、次の処
理への情報の1つとして記録する。
For all three-sided connection points obtained by the above matching,
As shown in Fig. 7(b), three boundary lines with each connection point (consider connection point J3 as an example) as an end point each reach other connection points (connection points J2, J6, JT). 4 neighboring pixels are traced up to 4. The three boundaries traced in this way (Jz-Jz, Jl, J3-1, JT
Each boundary line (between Jl) is held as a pixel column, and is held as boundary line information together with the label of the connection point that is the end point. Furthermore, the connection between adjacent connection points via a boundary line is also recorded as one of the information for the next process.

続いて、三面接続点の画像上における座標位置に基づき
、ラベル画像より三面接続点を構成する三面のラベルを
求める。具体的には、第7図(C)に示すように、三面
接続点の画素(0)の周囲にある任意の画素(・)を始
点として、時計回りに周囲の画素値を調べる。この時最
初に出てくる3種類のラベルが、三面接続点を構成する
三面のラベルである。
Next, based on the coordinate position of the three-sided connection point on the image, the labels of the three sides making up the three-sided connection point are determined from the label image. Specifically, as shown in FIG. 7(C), starting from an arbitrary pixel (•) around the pixel (0) of the three-sided connection point, surrounding pixel values are checked clockwise. The first three types of labels that appear at this time are three-sided labels that constitute the three-sided connection point.

次に、どの面がどの境界線を構成しているかを調べる。Next, find out which faces make up which boundaries.

そのために、第7図(d)に示すように、各接続点を構
成する三面のラベルを、たとえばJl(AI A3 A
I )のように3項のリストの形で表す。そして、互い
に隣接する接続点を構成している面を比較する。例えば
、接続点J3とその隣接の接続点J2とのリストを比較
すると、これらの共通面はA1とA3であることがわか
る。このことから、面A1とA3のいずれかが、境界線
J2J3 J&若しくはJ2 Jl JTを構成する面
であることもわかる。同様に、接続点J3とその隣接の
接続点J6とのリストを比較すると、これらの共通面が
A、とAIであることから、この面AIとAIのいずれ
かが境界線J2 J:l J6若しくはJL、Jl J
Tを構成する面であることがわかる。
For this purpose, as shown in FIG. 7(d), the three-sided label constituting each connection point is, for example, Jl (AI A3 A
I ) is expressed in the form of a list of three terms. Then, the surfaces forming adjacent connection points are compared. For example, when comparing the list of connection point J3 and its adjacent connection point J2, it is found that their common planes are A1 and A3. From this, it can be seen that either plane A1 or A3 is a plane forming the boundary line J2J3 J& or J2 Jl JT. Similarly, when comparing the list of connection point J3 and its adjacent connection point J6, since their common planes are A and AI, one of these planes AI and AI is the boundary line J2 J:l J6 Or JL, Jl J
It can be seen that this is a surface that constitutes T.

そして、これら2つの結果から、第7図(e)に示すよ
うに、面A+ 、A3 、Asがそれぞれ境界線J2J
3 Jb 、J2 Jl JT 、Jb Jl Jqを
構成することがわかる。
From these two results, as shown in FIG.
3 Jb , J2 Jl JT , and Jb Jl Jq.

最後に、例えば三面接続点aにおいて面Bが構成する境
界線cad (c、dは接続点のラベル)を(B  c
  d)と表すようにすると、例えば接続点J3は第7
図(f)に示すように(AI  J2 Jb )(A:
I J2 JT )(AI Jb J))と表すことが
できる。これを全ての三面接続点に関して表し、三面接
続点情報として次のT型接続判定部23(第4図)に引
き渡す。
Finally, for example, the boundary line cad (c, d are the labels of the connection points) formed by the surface B at the three-face connection point a is defined as (B c
d), for example, the connection point J3 is the seventh
As shown in figure (f), (AI J2 Jb) (A:
I J2 JT ) (AI Jb J)). This is expressed for all three-sided connection points and passed to the next T-type connection determination section 23 (FIG. 4) as three-sided connection point information.

<T型接続判定部23〉 T型接続判定部23では、まず三面接続点を3本の直線
と見なし、それぞれについて直線近似を行う。そして、
これによって得られた3本の直線をT型接続と呼び、こ
の接続の仕方により3つの面の重なり関係を決定する。
<T-type connection determination unit 23> The T-type connection determination unit 23 first regards the three-sided connection points as three straight lines, and performs linear approximation for each. and,
The three straight lines thus obtained are called a T-type connection, and the overlapping relationship between the three surfaces is determined by the way this connection is made.

これらの処理について、第8図に基づき、以下に具体的
に述べる。
These processes will be specifically described below based on FIG.

まず、上記三面接続点抽出部22で得られた境界線情報
より、各接続点から伸びる境界線を直線近似し、接続点
から直接伸びる直線を求める。直線近似法としては、例
えばデユーダ(Duda)とハート(Hart)のスプ
リッティング(Spl itting)法を用いること
ができる(Duda、R,0,and P、E、Har
t:“Pattern  Recognition  
and  5cene  Analysisll、Ne
wYork、Wiley、 1973参照)。−例とし
て、この方法を接続点J3に対して実行した場合につい
て述べてみる。この場合は、まず第8図(a)に示すよ
うに、接続点J3と隣接する接続点J2、J6、JTと
の間をそれぞれ直線(Jl J2 、Jy J6 、J
3J?)で結ぶ。そして、接続点J3と接続点J2、J
6、JTとの間の境界線情報により、上記の直線から最
も離れている点(第8図(a)ではJl、J2)を求め
、その間の距離を所定の闇値と比較する。もし距離が闇
値以上であれば、第8図(b)に示すように、その点J
I   J2と各接続点J2、J3、J6とを結ぶ。続
いて、新たにできた直線J3 J”、J” J2、J3
 J’ 、J’  J6に対しても、上記と同様にして
最も離れている点を求め、その間の距離を閾値と比較し
、闇値以上であれば、更に新たな直線を結ぶ(第8図(
C))。このようにして、同様な処理を操り返すことに
より、最終的には第8図(d)に示すように、接続点J
3から直接伸びる3本の直線J3 J” 、J3 J’
 、J3 J7を得る。このような3本の直線をT型接
続と呼び、その交点をT型接続点と呼ぶ。
First, from the boundary line information obtained by the three-sided connection point extracting section 22, the boundary line extending from each connection point is approximated by a straight line, and a straight line extending directly from the connection point is determined. As a linear approximation method, for example, Duda and Hart's splitting method can be used (Duda, R,0, and P,E,Har
t: “Pattern Recognition”
and 5 scene analysis, Ne
(see York, Wiley, 1973). - As an example, let us describe the case where this method is executed for connection point J3. In this case, first, as shown in FIG. 8(a), straight lines (Jl J2 , Jy J6 , J
3J? ). Then, the connection point J3 and the connection points J2, J
6. Based on the boundary line information between JT and JT, find the point farthest from the above straight line (Jl, J2 in FIG. 8(a)), and compare the distance between them with a predetermined darkness value. If the distance is greater than the darkness value, the point J
Connect I J2 and each connection point J2, J3, and J6. Next, the newly created straight line J3 J”, J” J2, J3
For J' and J' J6, find the farthest point in the same way as above, compare the distance between them with the threshold, and if it is greater than the darkness value, connect a new straight line (see Figure 8). (
C)). In this way, by repeating the same process, the connection point J is finally reached as shown in FIG. 8(d).
Three straight lines extending directly from 3 J3 J", J3 J'
, J3 obtains J7. These three straight lines are called a T-type connection, and their intersection is called a T-type connection point.

次に、上記直線近億の結果であるT型接続を用いて、各
接続点における隣合った境界線の成す角度を求める。そ
して、それらの角度の中で、πrad(・180 @)
に最も近いものを選び、その角度を成す2直線の属する
境界線を求めれば、この境界線が上面に属するものであ
る。例えば接続点J3については、第8図(e)に示す
ように2直線J3 J2とJ3 J’ 、2直線J3 
J2とJ3J?、及び2直線J3 J’ とJ3 J?
の成す角度を求め、それぞれの角度をat 、a2、a
3 とすると、alがπradに最も近いので、第8図
(f)に示すように境界線J2 J3 Jbを上面に属
する境界線であると判断する。
Next, using the T-type connection which is the result of the linear approach described above, the angle formed by adjacent boundary lines at each connection point is determined. And among those angles, πrad (・180 @)
If we select the closest one and find the boundary line to which the two straight lines forming the angle belong, this boundary line belongs to the top surface. For example, regarding the connection point J3, as shown in FIG. 8(e), two straight lines J3 J2 and J3 J', two straight lines J3
J2 and J3J? , and two straight lines J3 J' and J3 J?
Find the angle formed by at, a2, a
3, since al is closest to πrad, the boundary line J2 J3 Jb is determined to be the boundary line belonging to the upper surface, as shown in FIG. 8(f).

更に、三面接続点抽出部22で得られた三面接続点情報
と、上記の上面に属する境界線とから、上面のラベルを
求める。例えば接続点J3については、第7図(f)に
示したような三面接続点情報(J3  : (AIJZ
J4)(AzJzJt)(AsJ6J7))が得られて
おり、また第8図げ)に示したように境界線Jz J3
 J6が上面に属する境界線であるとわかっているので
、これらのことから、第8図(g)に示すように面A1
が面A3 、’ A5の上面であることがわかる。ただ
し、面A3と面A、の上下関係は、この時点では不明で
ある。これらの情報は、第8図(5)に示すように3項
のリストの形で表し、T型接続点情報として、次の面関
係探索部24へ転送する。なお、第8図(5)において
、三面の重なり関係が(a  b  c)と表現されて
いる場合、面aは面bScの上面であり、面すと面Cの
関係は不明であることを示しているものとする。
Furthermore, a label for the top surface is obtained from the three-face connection point information obtained by the three-face connection point extraction unit 22 and the boundary line belonging to the above-mentioned top surface. For example, for connection point J3, three-sided connection point information (J3: (AIJZ
J4) (AzJzJt) (AsJ6J7)) is obtained, and as shown in Figure 8), the boundary line Jz J3
Since J6 is known to be the boundary line belonging to the upper surface, from these facts, the surface A1 is determined as shown in Figure 8 (g).
It can be seen that these are the upper surfaces of surfaces A3 and 'A5. However, the vertical relationship between surface A3 and surface A is unknown at this point. These pieces of information are expressed in the form of a three-item list as shown in FIG. 8 (5), and are transferred to the next surface relationship search unit 24 as T-type connection point information. In addition, in Fig. 8 (5), when the overlapping relationship of three surfaces is expressed as (a b c), surface a is the upper surface of surface bSc, and the relationship between surface C and surface C is unknown. shall be shown.

く面関係探索部24〉 面関係探索部24では、上記三面接続判定部23で得ら
れた個々のT型接続点における三面の重なり関係を二面
間の重なり関係に変換し、その後、二面間の重なり関係
を画像中に存在する全ての面に伝播させて、画像全体に
おける重なり関係を求める。これらの処理について、第
9図に基づき、以下に具体的に述べる。
Plane relationship search unit 24> The plane relationship search unit 24 converts the overlapping relationship of the three planes at each T-shaped connection point obtained by the three plane connection determination unit 23 into an overlap relationship between two planes, and then The overlapping relationship between the images is propagated to all surfaces existing in the image, and the overlapping relationship in the entire image is determined. These processes will be specifically described below based on FIG. 9.

まず、第9図(a)に示すようなT型接続点情報から、
第9図(b)に示すように面別に全ての情報を取り出し
て、これらから第9図(C)に示すように各面の上面を
求めると共に、隣接関係にあるにもかかわらず関係が不
明である面を求める。なお、王記第9図(b)、(C)
において、矢印は重なり関係(矢印の頭側が上面)を示
し、実線は同一面を示し、点線は隣接関係にありながら
上下関係が不明な面を示している。そして、これらの関
係を対応付けた、すなわち各面とその上面及び隣接関係
にあり重なり関係が不明な面とを対応付けた、第9図(
d)に示すような二面量関係情報を出力する。すなわち
、この二面量関係情報を作成するにあたっては、まず、
各面に対して、上面を記述する欄(上面欄)と、関係が
不明である隣接面を記述する欄(関係不明欄)とを設け
、各欄に初期値としてN U L Lを設定しておく。
First, from the T-type connection point information as shown in FIG. 9(a),
As shown in Figure 9 (b), all the information is extracted for each surface, and from this, the upper surface of each surface is determined as shown in Figure 9 (C), and even though there is an adjacent relationship, the relationship is unknown. Find the surface that is. In addition, the Book of Kings, Figures 9 (b) and (C)
In , the arrows indicate an overlapping relationship (the head side of the arrow is the top surface), the solid line indicates the same surface, and the dotted line indicates a surface that is in an adjacent relationship but whose vertical relationship is unknown. FIG. 9 (
Output the dihedral amount relationship information as shown in d). In other words, in creating this dihedral relationship information, first,
For each surface, provide a column for describing the top surface (top surface column) and a column for describing adjacent surfaces with unknown relationships (unknown relationship column), and set N U L L as the initial value in each column. I'll keep it.

その後、T型接続点情報(第9図(a)参照)の3項の
リストの1項目目(すなわち上面)を二面量関係情報の
2項目及び3項目目の面に登録する。続いて、上面に関
する登録が終了した後、各面に対し、登録した上面内に
登録されていない隣接面のうち、隣接面にもその面が上
面として登録されていない場合(例えば面A4とA、の
ような場合)、その隣接面を関係不明の斗閏に登録する
Thereafter, the first item (that is, the top surface) of the three-item list of T-type connection point information (see FIG. 9(a)) is registered as the second and third items of the two-sided amount relationship information. Subsequently, after the registration of the top surface is completed, for each surface, among the adjacent surfaces that are not registered in the registered top surface, if that surface is also not registered as a top surface (for example, surfaces A4 and A , etc.), the adjacent surface is registered in the unrelated douen.

ここで、上記第9図(d)に示した二面量関係情報にお
いて、例えば面A、について見てみると、面A5よりも
面A+ 、Aaが上面であって、かつ面A4とは隣接し
ているが重なり関係が不明であることがわかる。また、
例えば面A、について見てみると、上面の欄にNULL
があるので、面A+には上面がないことがわかる。
Here, in the two-sided amount relation information shown in FIG. 9(d) above, if we look at surface A, for example, surface A+ is higher than surface A5, and Aa is the upper surface and is adjacent to surface A4. However, the overlapping relationship is unclear. Also,
For example, when looking at surface A, there is NULL in the top column.
Therefore, it can be seen that surface A+ does not have an upper surface.

次に、重なり関係不明の面をまとめ上げる。例えば第9
図(C)に示したように面A4と面A5とが関係不明で
あるとすると、これらを第9図(e)に示すように統合
する。そして、これらの関係をまとめて、第9図(f)
に示すように1つの面として両面の持つ上面を一括して
登録する。ただし、両者に重複する面(ここではAs)
は1つの面として登録する。このように二面量関係情報
を修正した情報を全面間関係情報と呼び、この情報を左
右画像の構造(第2図(C)、(d)参照)として次の
粗対応部30(第1図)に転送する。
Next, we summarize aspects that overlap and have unknown relationships. For example, the 9th
Assuming that the relationship between surfaces A4 and A5 is unknown as shown in FIG. 9(C), they are integrated as shown in FIG. 9(e). Then, by summarizing these relationships, Figure 9 (f)
As shown in the figure, the upper surfaces of both sides are registered as one surface. However, the aspect that overlaps with both (here As)
is registered as one surface. Information obtained by correcting the two-plane amount relationship information in this way is called inter-plane relationship information, and this information is used as the structure of the left and right images (see FIGS. Transfer to (Figure).

(粗対応部30) 粗対応部30は、第5図に示すように、構造探索部31
、エビポーラ条件判定部32、及び輝度分布判定部33
から構成されており、その全体的な処理の流れを第10
図に示す。
(Rough correspondence unit 30) As shown in FIG.
, Epipolar condition determination section 32, and brightness distribution determination section 33
The overall process flow is shown in the 10th section.
As shown in the figure.

く構造探索部31〉 構造探索部31では、上記構造生成部20で得られた左
右画像の構造(すなわち、面の重なり関係を示す全面間
関係情報)から、対応付は可能な面(ラベル)の組み合
わせを決定する(第10図のステップat)。この際、
面の組み合わせは、構造の順位が反映されるように、上
位レベル同士の組み合わせから始めて下位レベル同士へ
と向かうように行う。また、組み合わせの範囲は、同一
レベル同士の組み合わせを優先的に行うようにし、後述
するエビポーラ条件判定部32や輝度分布判定部33で
却下された組み合わせがある場合には、その分だけ組み
合わせの範囲を拡大していくものとする。
Structure Searching Unit 31> The structure searching unit 31 finds faces (labels) that can be matched based on the structures of the left and right images obtained by the structure generating unit 20 (i.e., inter-surface relationship information indicating the overlapping relationship between the faces). (step at in FIG. 10). On this occasion,
Surfaces are combined starting from upper levels and working their way down to lower levels so that the order of the structure is reflected. In addition, the range of combinations is such that combinations of the same level are performed preferentially, and if there is a combination rejected by the Epipolar condition determination unit 32 or brightness distribution determination unit 33, which will be described later, the range of combinations is increased by that amount. shall be expanded.

くエビポーラ条件判定部32〉 エビポーラ条件判定部32では、上記構造探索部31で
指定されたラベルに対応する領域を左右のラベル画像か
ら取り出し、その領域に対してエビポーラ条件を適用し
て、この条件が満たされるかどうかを判定する。上記エ
ビポーラ条件としては、左右面のY軸方向の最大部分と
最小部分を求め(第10図のステップa2)、これらに
共有部分が存在するかどうか(第10図のステップa3
)という弱い制約を適用する。ここで、エピポーラ条件
が満たされた場合には、そのラベルを次の輝度分布判定
部33へ送り、一方、満たされない場合には、構造探索
部31へ返却された旨の情報を返す。
Ebi-polar condition determination section 32> The Ebi-polar condition determination section 32 extracts the region corresponding to the label specified by the structure search section 31 from the left and right label images, applies the Ebi-polar condition to the region, and determines this condition. Determine whether the conditions are satisfied. The above Epipolar conditions include finding the maximum and minimum parts of the left and right surfaces in the Y-axis direction (step a2 in Figure 10), and determining whether there is a shared part between them (step a3 in Figure 10).
) is applied. Here, if the epipolar condition is satisfied, the label is sent to the next brightness distribution determining section 33, whereas if it is not satisfied, information indicating that it has been returned to the structure searching section 31 is returned.

く輝度分布判定部33〉 輝度分布判定部33では、まず、上記エピポーラ条件を
満たすラベルに対応する領域を左右の人力画像から取り
出し、その領域の輝度情報を得る(第10図のステップ
a4)。そして、この輝度情報から、左右の領域の輝度
の平均値IL、IRを求める(第10図のステップas
)。続いて、その差(l IL −[Rl)を求め、こ
れと閾値δを比較することにより、左右の領域の輝度分
布の類似性を判定する(第10図のステップa6)。
Luminance Distribution Determining Unit 33> The brightness distribution determining unit 33 first extracts the region corresponding to the label satisfying the above epipolar condition from the left and right manual images, and obtains the luminance information of the region (step a4 in FIG. 10). Then, from this luminance information, the average values IL and IR of the luminance of the left and right regions are calculated (step as in FIG. 10).
). Subsequently, the difference (l IL -[Rl) is found and compared with the threshold value δ to determine the similarity of the brightness distributions of the left and right regions (step a6 in FIG. 10).

ここで、IIL   IRI<δの場合、すなわち左右
の輝度分布が類似している場合には、その左右面を対応
付けの候補として次の面対応付は部4゜へ送り(第10
図のステップa7)、一方、類似していない場合には構
造探索部31へ返却された旨の情報を返す。
Here, if IIL IRI < δ, that is, if the left and right luminance distributions are similar, the left and right surfaces are considered as matching candidates and sent to section 4° for the next surface matching (10th
In step a7) of the figure, on the other hand, if they are not similar, information to the effect that it has been returned to the structure search unit 31 is returned.

(面対応付は部40) 面対応付は部40は、第6図に示すように、屈曲点探索
部41、対応セグメント生成部42、平面拘束部43、
及び視差算出部44から構成されており、その全体的な
処理の流れを第11図に示す。
(Plane correspondence section 40) As shown in FIG.
and a parallax calculating section 44, and the overall processing flow is shown in FIG.

〈屈曲点探索部41〉 屈曲点探索部41では、上記粗対応部30で得られた左
右の面の候補について、面の境界を直線セグメント化す
るために、境界線の傾きが急変する屈曲点を探索する(
第11図のステップb+)。
<Bend Point Search Unit 41> The bend point search unit 41 searches for bend points where the slope of the boundary line suddenly changes, in order to segment the boundary of the surfaces into straight line segments for the left and right surface candidates obtained by the rough correspondence unit 30. Explore (
Step b+) in FIG.

この際、境界線の傾きの変化は、例えばに−曲率(「パ
ターン情報処理」長尾真著、コロナ社、p。
At this time, the change in the slope of the boundary line is determined by, for example, the -curvature ("Pattern Information Processing" by Makoto Nagao, Corona Publishing, p.

82等参照)によって測定し、このに−曲率の絶対値が
一定値以上で局所的に極大又は極小な点を屈曲点とする
。この処理は、左右の面に対して独立に行う。
82, etc.), and the point where the absolute value of the curvature is at least a certain value and locally maximum or minimum is defined as a bending point. This process is performed independently for the left and right surfaces.

く対応セグメント生成部42〉 対応セグメント生成部42では、まず、上記屈曲点探索
部4Lで得られた屈曲点で面の境界線を分割しく第11
図のステップb2)、その分割された境界線の代わりに
、隣り合った屈曲点間に直線を当てはめる(第11図の
ステップbz)。この時、屈曲点間における直線と境界
線との誤差、すなわち直線から最も離れている境界線上
の点と直線との距離を、所定の閾値εと比較する(第1
1図のステップb4)。ここで、誤差が閾値εよりも小
さい場合は、その直線をセグメントとしく第11図のス
テップb5)、一方、誤差が闇値ε以上である場合は、
その直線から最も離れている境界線上の点で、その直線
を更に分割して新たな直線を当てはめる。このような処
理を左右の面の境界線に対して繰り返し行うことにより
、一連の直線セグメントを得る。
Corresponding segment generation unit 42> The corresponding segment generation unit 42 first divides the boundary line of the surface at the bending point obtained by the bending point search unit 4L.
Step b2) in the figure, a straight line is applied between adjacent bending points instead of the divided boundary line (step bz in Figure 11). At this time, the error between the straight line and the boundary line between the bending points, that is, the distance between the point on the boundary line that is farthest from the straight line and the straight line, is compared with a predetermined threshold ε (first
Step b4 in Figure 1). Here, if the error is smaller than the threshold ε, the straight line is set as a segment (step b5 in FIG. 11), whereas if the error is greater than the dark value ε,
At the point on the boundary line that is farthest from the straight line, divide the straight line further and apply a new straight line. A series of straight line segments is obtained by repeating this process for the boundaries between the left and right surfaces.

次に、この直線セグメントを左右で比較して、同一エビ
ボーラライン上に対応するセグメントの端点かない場合
には、セグメントを更に細分化し、左右の対応セグメン
トを得る(第11図のステ・シブb6)。
Next, this straight line segment is compared left and right, and if there is no end point of the corresponding segment on the same Ebibora line, the segment is further subdivided to obtain left and right corresponding segments (Step B6 in Figure 11). ).

く平面拘束部43〉 −iに、左右のカメラで観測された面が、同一の3次元
空間内の面ならば、左右の画像上で対応する3つの点で
3次元平面を張ったとすると、それ以外の対応点もこと
ごとくその3次元平面上に射影されるはずである。この
ように対応点を3次元平面上に射影することを平面拘束
と呼ぶ、また、逆に左右のカメラで観測された面が、3
次元空間内で異なる面であるならば、対応すると思われ
る3つの点で張られた3次元平面にそれ以外の対応点を
射影しても、その3次元平面上には分布しない。この原
理を用いると、左右画像上の面が3次元空間上の同一面
であるか否かを判定することができる。
If the surfaces observed by the left and right cameras are in the same three-dimensional space, then if a three-dimensional plane is drawn from three corresponding points on the left and right images, then All other corresponding points should also be projected onto that three-dimensional plane. Projecting corresponding points onto a three-dimensional plane in this way is called plane constraint, and conversely, the plane observed by the left and right cameras is
If they are different planes in the dimensional space, even if other corresponding points are projected onto a three-dimensional plane spanned by three points that are considered to correspond, they will not be distributed on that three-dimensional plane. Using this principle, it is possible to determine whether the surfaces on the left and right images are the same surface in three-dimensional space.

第12図に、標準カメラモデルにおいて3次元平面(a
x+by+cz=1)を左右のカメラで観測した時の様
子を示し、対応点と3次元平面との関係を以下に示す。
Figure 12 shows a three-dimensional plane (a
x+by+cz=1) is observed with the left and right cameras, and the relationship between the corresponding points and the three-dimensional plane is shown below.

3次元平面上の点Pを左側のカメラCの座標系で観測し
た時の座標をP (x、y、z)とし、Z=0における
座標をA (X、Y)とすると、が得られる。一方、カ
メラ間距離をUとすると、となる。同様に右側のカメラ
C°の座標系で観測した時の点Pの座標をP(x’、 
 ’、z’)とし、z’−oにおける座標をB(X”、
Y゛)とすると、 となる。そこで0式を平面の方程式に代入すると、とな
る。よっての式より、 と表すことができる。よって、■弐より、X’  = 
(1+ua)X+ubY+uc  ・・・■が得られる
If the coordinates of a point P on a three-dimensional plane observed in the coordinate system of the camera C on the left are P (x, y, z), and the coordinates at Z=0 are A (X, Y), then the following is obtained. . On the other hand, if the distance between cameras is U, then Similarly, the coordinates of point P when observed in the coordinate system of the right camera C° are P(x',
', z'), and the coordinates at z'-o are B(X'',
If Y゛), then it becomes . So, by substituting equation 0 into the plane equation, we get: Therefore, from the formula, it can be expressed as. Therefore, from ■2, X' =
(1+ua)X+ubY+uc...■ is obtained.

従って、対応する点が3点求まれば、平面の方程式が決
定される。3点の座標をそれぞれ(LY+ )、(Xz
 、Y2 )、(X3 、Y3 )として■式を解くと
、 u             u          
 uただし、 y 11 aX+bY+c となり、平面の方程式(ax+by+cz=1)が決定
される。
Therefore, if three corresponding points are found, the equation of the plane is determined. The coordinates of the three points are (LY+) and (Xz
, Y2 ), (X3 , Y3 ) and solve the ■ equation, u u
u However, it becomes y 11 aX+bY+c, and the plane equation (ax+by+cz=1) is determined.

これらのことから、平面拘束部43では、まず対応する
3点より3次元平面を決定する(第11図のステップb
7)。そして、この平面上に他の対応点が拘束されるか
どうかを決めるには、上記0式を用いて右側の対応点を
左側の座標系に射影しく第11図のステップb8)、そ
の時の対応点同士のずれを求め、複数の対応点における
ずれの平均値と闇値との比較により、平面拘束を満たす
かどうかの判定を行う(第11図のステップbq)。
Based on these facts, the plane constraint unit 43 first determines a three-dimensional plane from the three corresponding points (step b in FIG. 11).
7). To determine whether other corresponding points are constrained on this plane, use the above equation 0 to project the corresponding points on the right onto the coordinate system on the left (step b8 in Figure 11), and then The deviation between the points is determined, and by comparing the average value of deviations at a plurality of corresponding points with the darkness value, it is determined whether the plane constraint is satisfied (step bq in FIG. 11).

ここで、平面拘束を満たす場合には、左右のセグメント
を次の視差算出部44へ送り、一方、平面拘束を満たさ
ない場合には、構造探索部31 (第5図)へ却下され
た旨の情報を返す。
Here, if the plane constraint is satisfied, the left and right segments are sent to the next parallax calculation unit 44, while if the plane constraint is not satisfied, the rejected segment is sent to the structure search unit 31 (Fig. 5). Return information.

く視差算出部44〉 視差算出部44では、平面拘束部43を通過した左右セ
グメントから、回毎に視差を算出する(第11図のステ
ップb +o)。視差は、第13図に示すように、同−
Y座標(y、)における左右の対応点のX座標の差(η
、−ξX)の値を点(ηx、yo)に保存することによ
り与えられる。
Disparity Calculation Unit 44> The disparity calculation unit 44 calculates the disparity each time from the left and right segments that have passed through the plane restraint unit 43 (steps b + o in FIG. 11). As shown in Fig. 13, the parallax is
The difference (η
, -ξX) at the point (ηx, yo).

(距離算出部50) 距離算出部50では、左右のカメラの視点と物体表面と
の間の距離Rt、Riを求める。そのために、まず左右
のカメラ座標系とカメラヘッド座標系を第14図に示す
ように定義する。ここで、2つの視点間の距離(基線長
)を2a、両光軸のなす角度(輻較角)を2αとし、ま
た簡単のために物体の像はカメラヘッド座標系に平行投
影されているものとする。すると、第15図において、
△ABCとΔDEFは相似形となり、 DE    DF AB    2a であるから、 となる。ここで、DFを求めるためにカメラ座標系から
カメラヘッド座標系への変換を考えると、(ηg 、 
 77y) 4 (−a +77x /cosα、  
0. 1.  )(ξ8.ξ、)→(a+ξ、 /co
scr、  O,ξy )であるから、 一方、左右の光軸がカメラ座標系のX軸とカメラヘッド
座標系のχ軸上を横切る時の距離Lo、Roは、以下の
ように表すことができる。
(Distance Calculation Unit 50) The distance calculation unit 50 calculates the distances Rt and Ri between the viewpoints of the left and right cameras and the object surface. For this purpose, first, the left and right camera coordinate systems and the camera head coordinate system are defined as shown in FIG. Here, the distance between the two viewpoints (baseline length) is 2a, the angle formed by both optical axes (convergence angle) is 2α, and for simplicity, the image of the object is projected parallel to the camera head coordinate system. shall be taken as a thing. Then, in Figure 15,
Since △ABC and ∆DEF are similar and DE DF AB 2a, the following holds true. Here, considering the transformation from the camera coordinate system to the camera head coordinate system in order to find the DF, (ηg,
77y) 4 (-a +77x /cosα,
0. 1. )(ξ8.ξ,)→(a+ξ, /co
scr, O, ξy ), On the other hand, the distances Lo and Ro when the left and right optical axes cross the X axis of the camera coordinate system and the χ axis of the camera head coordinate system can be expressed as follows. .

1、、=  77x   j、anα Ro=  ξXtancr 以上より、左右のカメラ座標系と物体までの光軸の距離
RL 、R,lは、 左カメラの場合: (1)η8く0なら RL=DE  LO(2)ηつ≧
0なら RL =DE+L。
1,, = 77x j, anα Ro = ξXtancr From the above, the distances RL, R, l between the left and right camera coordinate systems and the optical axis to the object are: For the left camera: (1) If η8 is 0, then RL = DE LO (2) η≧
If it is 0, RL = DE + L.

右カメラの場合: (1)ξ8くOなら RR= D E + R。For right camera: (1) If ξ8×O, then RR=DE+R.

(2)ξ8≧0なら RR=DE−R,)と求まる。(2) If ξ8≧0, RR=DE−R,) can be found.

このようにしてカメラと物体表面との距離が求まると、
左右のカメラ座標系からカメラヘッド座標系への座標変
換により、物体表面の三次元座標を求めることができる
Once the distance between the camera and the object surface is determined in this way,
The three-dimensional coordinates of the object surface can be determined by coordinate transformation from the left and right camera coordinate systems to the camera head coordinate system.

左カメラ座標系からカメラヘッド座標系への座標変換は
、 となる。
The coordinate transformation from the left camera coordinate system to the camera head coordinate system is as follows.

一方、右カメラ座標系からカメラヘッド座標系への座標
変換は、 となる。
On the other hand, the coordinate transformation from the right camera coordinate system to the camera head coordinate system is as follows.

このいずれかを用いることにより、物体の三次元情報を
得ることができる。
By using either of these, three-dimensional information about an object can be obtained.

以上に述べたように、本実施例によれば、複数の物体(
面)を左右のカメラで観測した時に重なっている面があ
れば、領域分割部10により各面が分割され、構造生成
部20によって各分割された面の上下関係が推論される
。よって、粗対応部30及び面対応付は部40により上
面から下面に向かって回毎の対応付けを行うことにより
、要素の数に比例した速度で対応付けが実現でき、距離
情報や物体の三次元情報を橿めて高速に得ることができ
る。また、領域毎に対応付けを行っているので、成る領
域で誤対応が生じても、その影響は該当領域にのみ留ま
り、他の領域へ影響が及ぶことはなくなる。
As described above, according to this embodiment, a plurality of objects (
If there are any overlapping surfaces when the surfaces (surfaces) are observed with the left and right cameras, the area dividing section 10 divides each surface, and the structure generating section 20 infers the vertical relationship of each divided surface. Therefore, the coarse correspondence section 30 and the surface correspondence section 40 perform correspondence from the top surface to the bottom surface each time, thereby realizing correspondence at a speed proportional to the number of elements, and distance information and the cubic object of the object. You can quickly extract the original information. Further, since the correspondence is made for each area, even if an incorrect correspondence occurs in the area, the effect will be limited to the corresponding area and will not affect other areas.

一方、複数の物体(面)を左右のカメラで観測した時に
重なっている面がない時は、構造生成部20による面の
上下関係は抽出されないので、左右の領域の総当たり(
要素の数の二乗)に関して対応付けを行うことになり、
対応付けの速度は従来と変わらないが、領域分割がなさ
れるので、誤対応の影響が他に及ぶ心配はなくなる。
On the other hand, if there are no overlapping surfaces when multiple objects (surfaces) are observed with the left and right cameras, the vertical relationship of the surfaces is not extracted by the structure generation unit 20, so the brute force of the left and right regions (
(the square of the number of elements),
The speed of matching is the same as before, but because area division is performed, there is no need to worry about incorrect matching affecting others.

(発明の効果〕 本発明によれば、特に入力画像中に互いに重なっている
面がある場合に、その対応付けの処理を著しく高速化す
ることができる。また、成る領域で誤対応が発生した場
合であっても、その後の対応付けへの影響をなくして、
誤対応による悪影響を最小限に抑えることができる。
(Effects of the Invention) According to the present invention, it is possible to significantly speed up the matching process, especially when there are surfaces in the input image that overlap with each other. Even if the
The negative effects of incorrect responses can be minimized.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理構成図、 第2図(a)〜(f)は本発明の原理説明図、第3図、
第4図、第5図、及び第6図はそれぞれ本発明の一実施
例に係る領域分割部10、構造生成部20.粗対応部3
0、及び面対応部40の具体的構成を示すブロック図、 第7図(a)〜(f)は三面接続点抽出部22の処理を
説明するための図、 第8図(a)〜(h)はT型接続判定部23の処理を説
明するための図、 第9図(a)〜(f)は面関係探索部24の処理を説明
するための図、 第10図は粗対応部30の全体的な処理の流れを示すフ
ローチャート、 第11図は面対応付は部40の全体的な処理の流れを示
すフローチャート、 第12図は平面拘束部43による平面拘束の原理を示す
図、 第13図は視差算出部44による視差を求める原理を示
す図、 第14図はカメラヘッド座標系及び左右のカメラ座標系
を示す図、 第15図は距離算出部50による距離算出の原理を示す
図、 第16図は従来における両眼立体視の原理を示す図、 第17図は従来における対応付けの原理を示す図である
。 10・・・領域分割部、 11・・・テクスチャ解析部、 12・・・領域ラベル付は部、 20・・・構造生成部、 21・・・境界線抽出部、 22・・・三面接続点抽出部、 23・・・T型接続判定部、 24・・・面関係探索部、 30・・・粗対応部、 31・・・構造探索部、 32・・・エビポーラ条件判定部、 33・・・輝度分布判定部、 40・・・面対応付は部、 41・・・屈曲点探索部、 ・対応セグメント生成部、 ・平面拘束部、 ・視差算出部、 ・距離算出部。
Figure 1 is a diagram showing the principle configuration of the present invention, Figures 2 (a) to (f) are diagrams explaining the principle of the present invention, Figure 3,
FIG. 4, FIG. 5, and FIG. 6 respectively show a region dividing unit 10 and a structure generating unit 20 according to an embodiment of the present invention. Rough correspondence part 3
0, and a block diagram showing the specific configuration of the surface correspondence section 40. FIGS. h) is a diagram for explaining the processing of the T-type connection determination section 23, FIGS. 9(a) to (f) are diagrams for explaining the processing of the surface relationship search section 24, and FIG. 11 is a flowchart showing the overall processing flow of the surface mapping section 40; FIG. 12 is a diagram showing the principle of plane constraint by the plane constraint section 43; FIG. 13 is a diagram showing the principle of calculating parallax by the parallax calculation unit 44, FIG. 14 is a diagram showing the camera head coordinate system and left and right camera coordinate systems, and FIG. 15 is a diagram showing the principle of distance calculation by the distance calculation unit 50. 16 is a diagram showing the principle of conventional binocular stereoscopic vision, and FIG. 17 is a diagram showing the principle of conventional correspondence. DESCRIPTION OF SYMBOLS 10... Area division part, 11... Texture analysis part, 12... Area labeling part, 20... Structure generation part, 21... Boundary line extraction part, 22... Three-sided connection point Extraction unit, 23... T-type connection determination unit, 24... Surface relationship search unit, 30... Rough correspondence unit, 31... Structure search unit, 32... Ebipolar condition determination unit, 33... - Brightness distribution determination section, 40... Plane correspondence section, 41... Bend point search section, - Corresponding segment generation section, - Plane constraint section, - Parallax calculation section, - Distance calculation section.

Claims (1)

【特許請求の範囲】 複数のカメラの両眼立体視によって得られた左右の画像
をそれぞれ独立に同一テクスチャの領域に分割し、該領
域を面として各面にラベルを付ける領域分割部(10)
と、 該領域分割部(10)によってラベルの付けられた面毎
に、他の面との重なり関係を判定し、画像全体に渡って
個々の面の上下関係を推論する構造生成部(20)と、 該構造生成部(20)で得られた左右画像の構造から、
対応付けを行う左右の面の候補を選択する粗対応部(3
0)と、 該粗対応部(30)で選択された左右の面の候補毎に対
応付けを行って、互いの視差を算出する面対応付け部(
40)と、 該面対応付け部(40)で得られた視差に基づき、三角
測量の原理によりカメラと面との距離を算出する距離算
出部(50)とを有することを特徴とする両眼立体視に
よる物体位置測定方式。
[Scope of Claims] A region dividing unit (10) that independently divides left and right images obtained by binocular stereoscopic vision of a plurality of cameras into regions having the same texture, and labels each surface using the regions as surfaces.
and a structure generation unit (20) that determines the overlapping relationship with other planes for each plane labeled by the area division unit (10) and infers the vertical relationship of each plane over the entire image. And from the structure of the left and right images obtained by the structure generation unit (20),
Rough correspondence part (3
0), and a surface matching section (30) that performs matching for each of the left and right surface candidates selected by the coarse matching section (30) and calculates mutual parallax.
40), and a distance calculating section (50) that calculates the distance between the camera and the surface based on the principle of triangulation based on the parallax obtained by the surface matching section (40). Object position measurement method using stereoscopic vision.
JP1065909A 1989-03-20 1989-03-20 Object position measuring system by binocular stereoscopy Pending JPH02245610A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1065909A JPH02245610A (en) 1989-03-20 1989-03-20 Object position measuring system by binocular stereoscopy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1065909A JPH02245610A (en) 1989-03-20 1989-03-20 Object position measuring system by binocular stereoscopy

Publications (1)

Publication Number Publication Date
JPH02245610A true JPH02245610A (en) 1990-10-01

Family

ID=13300560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1065909A Pending JPH02245610A (en) 1989-03-20 1989-03-20 Object position measuring system by binocular stereoscopy

Country Status (1)

Country Link
JP (1) JPH02245610A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314243A (en) * 1992-04-03 1993-11-26 Sony Corp Three-dimensional shape restoring method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314243A (en) * 1992-04-03 1993-11-26 Sony Corp Three-dimensional shape restoring method

Similar Documents

Publication Publication Date Title
Svoboda et al. Epipolar geometry for central catadioptric cameras
Zhang et al. A 3D reconstruction method for pipeline inspection based on multi-vision
Herbst et al. Toward online 3-d object segmentation and mapping
JP2004086779A (en) Obstacle detection device and its method
CN110702025B (en) Grating type binocular stereoscopic vision three-dimensional measurement system and method
JPH0719832A (en) Extracting method for corresponding points of pulirity of images
CN106225676A (en) Method for three-dimensional measurement, Apparatus and system
Elstrom et al. Stereo-based registration of ladar and color imagery
Yong-guo et al. The navigation of mobile robot based on stereo vision
WO2023112971A1 (en) Three-dimensional model generation device, three-dimensional model generation method, and three-dimensional model generation program
Alibhai et al. Contour-based correspondence for stereo
JPH02245610A (en) Object position measuring system by binocular stereoscopy
CN113012238B (en) Method for quick calibration and data fusion of multi-depth camera
Kang et al. 3D urban reconstruction from wide area aerial surveillance video
Harvent et al. Shape measurement using a new multi-step stereo-DIC algorithm that preserves sharp edges
Kurka et al. Automatic estimation of camera parameters from a solid calibration box
CN114119891A (en) Three-dimensional reconstruction method and reconstruction system for robot monocular semi-dense map
Iqbal et al. Real time 3D depth estimation and measurement of un-calibrated stereo and thermal images
Cui et al. Epipolar geometry for prism-based single-lens stereovision
Zhao et al. The obstacle avoidance and navigation based on stereo vision for mobile robot
JPH02247781A (en) Device for forming image-structured segment
JP2020161080A (en) Image processing device and program
JPH033080A (en) Corresponding preprocessing system based upon image construction
Huang et al. a critical analysis of internal reliability for uncertainty quantification of dense image matching in multi-view stereo
Wilf et al. Cumulative Evidence for Scene Change Detection and Local Map Updates