JPH06243258A - Depth detector - Google Patents

Depth detector

Info

Publication number
JPH06243258A
JPH06243258A JP5030904A JP3090493A JPH06243258A JP H06243258 A JPH06243258 A JP H06243258A JP 5030904 A JP5030904 A JP 5030904A JP 3090493 A JP3090493 A JP 3090493A JP H06243258 A JPH06243258 A JP H06243258A
Authority
JP
Japan
Prior art keywords
correspondence
area
image
areas
small
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5030904A
Other languages
Japanese (ja)
Inventor
Kazunori Onoguchi
一則 小野口
Hiroshi Hattori
寛 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5030904A priority Critical patent/JPH06243258A/en
Publication of JPH06243258A publication Critical patent/JPH06243258A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To realize correspondence of high correspondence position precision by reducing erroneous correspondence between two pictures regardless of a complicated scene. CONSTITUTION:Picture processing parts 3a to 3n and 3'a to 3'n subjects picture information, which are stored in picture memories 2a and 2b, to picture processings different from one another. Area correspondence candidate selecting parts 5a to 5n collate areas obtained as the result of picture processings to select correspondence candidates of individual small areas included in respective areas from collation results of the whole of areas. Area correspondence candidfates obtained by selecting parts 5a to 5n by each small area division result and their reliabilities are registered in an area correspondence reliability memory 6. A correspondence determining part collates segments, which are obtained by edge segment extracting parts 8a and 8b, or density correlations in correspondence candidate areas of individual small areas described in the area correspondence reliability memory 6 to determine the corresponding areas, thus improving the precision of correspondence positions.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像からシーンの奥行き
を求める奥行き検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a depth detecting device for obtaining the depth of a scene from an image.

【0002】[0002]

【従来の技術】近年、TVカメラから画像を入力し、こ
の画像情報を用いて画像内に含まれている対象物体のT
Vカメラからの距離(奥行き)を求める手法が種々考え
られている。ここで画像からシーンの奥行きを求める手
法としては、対象に対する知識をある程度利用し1枚の
画像から求める単眼視、2枚の画像間で対応付けを行な
い3角測量で求めるステレオ視、3枚以上の画像を用い
る多眼視、及び移動しながら入力した画像を用いるモー
ションステレオ等が挙げられる。この中で、ステレオ視
は、他の手法と比較して、シーンに対する知識が特に必
要なく、かつ2台の静止したカメラで奥行きが得られる
という利点を有している。ただし、ステレオ視は3角測
量で奥行きを算出するため、2枚の画像間で対応付けを
行なう必要があり、この手法として、従来、領域ベース
の対応付けや形状ベースの対応付け等様々な手法が提案
されている。
2. Description of the Related Art In recent years, an image is input from a TV camera and the T of a target object included in the image is used by using this image information.
Various methods for obtaining the distance (depth) from the V camera have been considered. Here, as a method of obtaining the depth of a scene from an image, monocular vision obtained from one image by utilizing knowledge to an object to some extent, stereoscopic vision obtained by triangulation by associating between two images, and three or more Multi-viewing using an image of, and a motion stereo using an image input while moving, and the like. Among them, the stereoscopic view has an advantage over other methods in that knowledge about the scene is not particularly required and the depth can be obtained by two stationary cameras. However, in stereo vision, since depth is calculated by triangulation, it is necessary to make correspondence between two images. As this method, conventionally, various methods such as area-based correspondence and shape-based correspondence are used. Is proposed.

【0003】先ず、領域ベースの対応付けとしては、2
枚の画像間で濃度相関をとる手法、またはSSDA法な
どが良く用いられるが、処理時間が膨大であり、かつ奥
行きが不連続に変化する部分など2枚の画像間で見え方
が大きく変化する所に対してはうまく照合がとれないと
いう問題点がある。また、奥行きを算出する分解能を高
めるためには相関をとるウィンドウのサイズを小さくす
る必要があるが、ウィンドウを小さくすると誤対応が多
くなるという問題点がある。
First, the area-based correspondence is 2
A method of taking a density correlation between two images or an SSDA method is often used, but the processing time is enormous and the appearance changes greatly between the two images such as a portion where the depth changes discontinuously. However, there is a problem that it is not possible to collate well. Further, in order to increase the resolution for calculating the depth, it is necessary to reduce the size of the window for correlation, but there is a problem in that if the window is made smaller, there will be more erroneous correspondence.

【0004】また、色などの情報を用いて領域分割し、
この領域毎に対応付けを行なう手法も提案されている
が、領域分割結果の精度が高くないと奥行き算出に十分
な精度の対応がとれないという問題点がある。また、シ
ーンによって有効な画像処理手段が異なるという問題点
も存在する。
Area division is performed using information such as color,
A method of associating each area has been proposed, but there is a problem that if the accuracy of the area division result is not high, the accuracy of depth calculation cannot be sufficiently met. There is also a problem that effective image processing means differs depending on the scene.

【0005】一方、形状ベースの対応付けとしては、画
像からエッジセグメントを抽出し、セグメント毎の形状
や接続関係を用いて対応付けを行なう手段が良く用いら
れるが、シーンが複雑になると類似のセグメントが増大
するため、セグメントのつながりを広い範囲で照合しな
いと対応付けができないという問題点が生じる。また、
個々のセグメント毎に独立に対応付けを行なうと、繰り
返しパターン等の場合のように対応が決定できない場合
が生じる。
On the other hand, as the shape-based association, a means for extracting the edge segment from the image and performing the association by using the shape and connection relationship of each segment is often used. Therefore, there is a problem that the correspondence cannot be established unless the connection of the segments is collated in a wide range. Also,
If the individual segments are associated with each other independently, the correspondence may not be determined as in the case of a repeated pattern.

【0006】[0006]

【発明が解決しようとする課題】以上述べた様にステレ
オ視を用いた従来の奥行き検出装置においては、2枚の
画像間で領域ベースの対応付け及び形状ベースの対応付
けの各巾についても正確に照合がとれないという欠点が
有った。
As described above, in the conventional depth detecting apparatus using stereo vision, the widths of the area-based correspondence and the shape-based correspondence between two images are also accurate. There was a drawback that it could not be checked.

【0007】本発明の目的は、ステレオ視を用いて対象
物までの奥行きを求める際に、2枚の画像間で細かい単
位で正確に位置合わせが行える奥行き検出装置を提供す
ることにある。
It is an object of the present invention to provide a depth detecting device capable of accurately aligning two images in fine units when determining the depth to an object using stereoscopic vision.

【0008】[0008]

【課題を解決するための手段】本発明は、画像データを
入力するための複数の画像入力手段と、これらの画像入
力手段より入力された画像データを夫々記憶するための
複数の画像メモリと、これらの画像メモリに記憶された
夫々の画像データを小領域に分割して複数種の画像処理
を夫々に施す複数の画像処理手段と、1つの前記記憶デ
ータに対応した前記複数の画像処理手段の夫々の画像処
理結果に従って該画像データの各小領域を夫々統合する
複数のラベリング手段と、このラベリング手段により前
記画像処理結果毎に得られた各画像データの統合領域に
対し他の前記画像データの各小領域について同種の画像
処理結果を用いて照合領域を夫々選定する複数の領域対
応候補選定手段と、これら領域対応候補選定手段より夫
々選定された照合領域内の各小領域を当該統合領域内の
各小領域に対応付けて信頼度と共に記憶した領域対応信
頼度メモリと、この領域対応信頼度メモリに記憶された
信頼度に従って前記統合領域に対応する照合領域を決定
しこれらの各小領域単位での位置合わせを行なう対応決
定手段と、この対応決定手段により得られた位置合わせ
結果を用いて前記画像データに対応した奥行き距離を算
出する距離算出手段とを具備したことを特徴とするもの
である。
SUMMARY OF THE INVENTION The present invention comprises a plurality of image input means for inputting image data, and a plurality of image memories for respectively storing the image data input by these image input means, Each of the image data stored in these image memories is divided into small areas, and a plurality of image processing means for respectively performing a plurality of types of image processing, and a plurality of image processing means corresponding to the one stored data are provided. A plurality of labeling means for respectively integrating the respective small areas of the image data according to the respective image processing results, and an integrated area of the respective image data obtained by the labeling means for each of the image processing results of the other image data. A plurality of area-corresponding candidate selecting means for selecting matching areas for each small area using the same type of image processing results, and matching selected by these area-corresponding candidate selecting means. An area-corresponding reliability memory in which each small area in the area is associated with each small area in the integrated area and stored together with the reliability, and collation corresponding to the integrated area according to the reliability stored in the area-related reliability memory Correspondence deciding means for deciding a region and performing alignment in units of each of these small regions, and distance calculating means for calculating a depth distance corresponding to the image data using the alignment result obtained by the correspondence deciding means. It is characterized by having.

【0009】[0009]

【作用】本発明によれば複数の異なった画像処理手段を
備え、独立に画像処理を行なうため、シーンの種類によ
り一部の画像処理の効果が下がっても、他の画像処理が
これを補うことができる。また、個々の小領域の対応候
補を、その小領域に隣接する同じ画像処理結果を持つ全
領域の照合結果から求めるため、画像処理の結果の誤差
に強くなる。また、領域対応信頼度メモリに、小領域の
対応候補が各領域対応候補選定手段により独立に登録さ
れるため、領域対応候補選定手段の一部が対応付けの候
補から漏らしても、他の領域対応候補選定手段の結果か
ら補うことができる。また、領域の対応により対応する
領域候補を限定することにより、セグメント照合や相関
照合に伴う誤対応が減少し、かつセグメントが含まれる
領域全体の概略の対応が既にとれているため、内部のセ
グメントの対応順序を考慮することで繰り返しパターン
が含まれる部分の対応付けも可能となる。また、領域対
応信頼度メモリに登録された領域対応候補からの対応領
域の選別を、セグメント照合、または、相関照合で行な
うと同時に、これらの照合により、小領域内部の正確な
位置決めができるので、領域による対応付けが含む対応
位置精度の悪さを補うことができる。
According to the present invention, since a plurality of different image processing means are provided and the image processing is performed independently, even if the effect of a part of the image processing is lowered depending on the type of scene, another image processing compensates for this. be able to. Further, since the correspondence candidate of each small area is obtained from the matching result of all areas adjacent to the small area and having the same image processing result, the error in the result of the image processing is strong. Further, since the correspondence candidates of the small area are independently registered in the area correspondence reliability memory by each area correspondence candidate selection means, even if a part of the area correspondence candidate selection means is leaked from the correspondence candidates, other areas are not registered. It can be supplemented from the result of the correspondence candidate selection means. In addition, by limiting the corresponding area candidates by area correspondence, erroneous correspondence due to segment matching and correlation matching is reduced, and the rough correspondence of the entire area including the segment is already taken. By considering the correspondence order of, it becomes possible to associate the part including the repeated pattern. In addition, since the corresponding areas are selected from the area correspondence candidates registered in the area correspondence reliability memory by segment matching or correlation matching, at the same time, by these matching, accurate positioning inside the small area can be performed. It is possible to compensate for the poor accuracy of the corresponding position included in the correspondence by area.

【0010】[0010]

【実施例】以下、本発明の一実施例を図面に従い説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0011】図1は同実施例における奥行き検出装置の
概略構成を示すもので、TVカメラ1a,1b、画像メ
モリ2a,2b、画像処理部3a,3b,〜3n,3′
a,3′b,〜3′n、ラベリング部4a,4b〜4
n、領域対応候補選定部5a,5b〜5n、領域対応信
頼度メモリ6,対応決定部7,エッジセグメント抽出部
8a,8b、距離算出部9から構成される。
FIG. 1 shows a schematic structure of the depth detecting apparatus in the embodiment, which is a TV camera 1a, 1b, image memories 2a, 2b, image processing units 3a, 3b, 3n, 3 '.
a, 3'b, ~ 3'n, labeling parts 4a, 4b ~ 4
n, area correspondence candidate selection units 5a, 5b to 5n, area correspondence reliability memory 6, correspondence determination unit 7, edge segment extraction units 8a, 8b, and distance calculation unit 9.

【0012】このような構成において、TVカメラ1a
から入力される画像データを画像メモリ2aへ、またT
Vカメラ1bから入力される画像データを画像メモリ2
bへ送る。画像処理部3a〜3nは画像メモリ2aに格
納された画像データを図2に示すように夫々m×mサイ
ズの小領域に分割し、各小領域において独立に異なる画
像処理アルゴリズムを適用して各小領域をラベル付けす
る。また画像処理の際に算出した画像処理データを各小
領域毎に格納する。画像処理部3′a〜3′nは夫々画
像処理部3a〜3nと同じ画像処理アルゴリズムを、画
像メモリ2bに格納されている画像データから求めた各
小領域に適用し、ラベル付けするとともに各画像処理デ
ータを格納する。この点に関し、n=2の場合、つまり
画像処理部が2つの場合について詳しく説明する。
In such a structure, the TV camera 1a
Image data input from the
Image data input from the V camera 1b is stored in the image memory 2
Send to b. The image processing units 3a to 3n divide the image data stored in the image memory 2a into m × m size small areas as shown in FIG. 2, and apply different image processing algorithms to each small area independently. Label small areas. Further, the image processing data calculated during the image processing is stored for each small area. The image processing units 3'a to 3'n apply the same image processing algorithm as that of the image processing units 3a to 3n to each of the small areas obtained from the image data stored in the image memory 2b, and label each small area. Stores image processing data. In this regard, a case where n = 2, that is, a case where there are two image processing units will be described in detail.

【0013】画像処理部3a及び画像処理部3′aはエ
ッジの密度及び方向を用いて画像中の各小領域をラベル
付けする。図3に画像処理部3a・3′aで行なう処理
の流れを示す。まず、画像メモリ2a・2bに格納され
た画像全体に対し、それぞれ図5に示す3×3のマスク
(ソーベルオペレータ)による空間フィルタリングを行
ない、エッジの強度画像Is とエッジの方向画像Id を
求める。エッジの方向は図6に示すような4方向にサン
プリングするため、Id の各画素は方向に応じて0〜3
の値が割り当てられる。図2に示すように、(i,j)
番目の小領域をRijとする。Is のRijに対応する領域
中で輝度の総和Mijを求め、Mijが予め設定しておいた
閾値TH1よりも大きい場合、つまりエッジの密度が高
い場合に、Id のRijに対応する領域でヒストグラムH
を求める。このヒストグラムHの分布を予め設定してお
いたヒストグラム群の分布と照合して、最も近い分布を
示すラベル番号を小領域Rijに付加する。図7に予め設
定しておいたヒストグラム群の一部を示す。Hが図7
(a)の分布に近いならRijにラベル0が、(b)の分
布に近いならラベル1が、また、(c)の分布に近いな
らラベルnが付加される。Is 中のすべての小領域に対
し、以上の処理を行ないラベル付けするとともに、各R
ijにMijの値をそれぞれ格納しておく。
The image processing unit 3a and the image processing unit 3'a label each small area in the image using the density and direction of the edge. FIG. 3 shows the flow of processing performed by the image processing units 3a and 3'a. First, the entire image stored in the image memories 2a and 2b is subjected to spatial filtering by a 3 × 3 mask (Sobel operator) shown in FIG. 5 to obtain an edge intensity image Is and an edge direction image Id. . Since the edges are sampled in four directions as shown in FIG. 6, each pixel of Id is 0 to 3 depending on the direction.
Is assigned the value of. As shown in FIG. 2, (i, j)
Let Rij be the second small region. In the area corresponding to Rij of Id, when the sum Mij of luminance is obtained in the area corresponding to Rij of Is, and Mij is larger than a preset threshold TH1, that is, when the edge density is high, the histogram H
Ask for. The distribution of the histogram H is collated with the distribution of a preset histogram group, and the label number indicating the closest distribution is added to the small area Rij. FIG. 7 shows a part of the preset histogram group. H is Figure 7
If it is close to the distribution of (a), label 0 is added to Rij, if it is close to the distribution of (b), label 1 is added, and if it is close to the distribution of (c), label n is added. All the small areas in Is are labeled by performing the above processing.
The value of Mij is stored in ij.

【0014】画像処理部3b及び画像処理部3′bは色
の情報を用いて画像中の各小領域をラベル付けする。図
4に画像処理部3b・3′bで行なう処理の流れを示
す。まず、画像メモリ2bに格納された画像全体に対
し、各画素の色相及び彩度を算出し、色相画像Ih と彩
度画像Ic を求める。Ic のRijに対応する小領域中で
輝度の総和Lijを求め、Lijが予め設定しておいた閾値
TH2よりも大きい場合、つまり彩度が高い場合に、こ
の領域では色の情報が有効である判断し、Ih のRijに
対応する領域でヒストグラムH′を求める。このヒトグ
ラムH′の分布を予め設定しておいたヒストグラム群の
分布と照合して、最も近い分布を示すラベル番号を小領
域Rijに付加する。Ic 中のすべての小領域に対し、以
上の処理を行ないラベル付けするとともに、各RijにL
ijの値をそれぞれ格納しておく。
The image processing section 3b and the image processing section 3'b label each small area in the image using the color information. FIG. 4 shows the flow of processing performed by the image processing units 3b and 3'b. First, the hue and saturation of each pixel are calculated for the entire image stored in the image memory 2b, and the hue image Ih and the saturation image Ic are obtained. In the small area corresponding to Rij of Ic, the total luminance Lij is obtained, and when Lij is larger than a preset threshold TH2, that is, when the saturation is high, the color information is effective in this area. Judgment is made, and a histogram H'is obtained in the area corresponding to Rij of Ih. The distribution of this human gram H'is collated with the distribution of the preset histogram group, and the label number showing the closest distribution is added to the small region Rij. All the small areas in Ic are labeled by performing the above processing and L
Store the values of ij respectively.

【0015】ラベリング部4a,4bは、画像処理部3
a,3bで求めた各小領域Rijのラベルに対し、同一ラ
ベルでかつ4隣接である小領域をそれぞれまとめ上げて
いく。図8(a)に、画像処理部3aでラベル付けられ
た各小領域Rijが4つの領域K1〜K4にまとめ上げら
れた例を示す。また、図8(b)に画像処理部3bでラ
ベル付けられた各小領域Rijが3つの領域S1〜S3に
まとめ上げられた例を示す。
The labeling units 4a and 4b are the image processing unit 3.
With respect to the labels of the small areas Rij obtained in a and 3b, the small areas having the same label and being adjacent to each other are grouped together. FIG. 8A shows an example in which the small areas Rij labeled by the image processing unit 3a are put together into four areas K1 to K4. Further, FIG. 8B shows an example in which the small areas Rij labeled by the image processing unit 3b are put together into three areas S1 to S3.

【0016】領域対応候補選定部5aはラベリング部4
aにより得られた領域Ki (図8(a)ではi=1〜
4)を画像処理部3′aより得られた小領域Rij(1<
i<m,1<j<m)のラベル付け結果上で設定した探
索領域Wi 中で照合することにより、対応候補を選定す
る。探索領域は、TVカメラ1a・1bの設置状態によ
って変化するが、TVカメラ1a・1bの光軸を平行に
設定すると、エピポーララインは画像の横軸に平行とな
るため、Ki を照合する場合、Ki と同じ高さに探索領
域Wi を設定する(図9)。ラベリング部4aにより得
られた領域Kiが図9(a)の斜線に示すように小領域
Rst(1<s<m,1<t<m)から構成されていると
する。図10に示すようにKi をWi 中の小領域Rij上
でラスタ走査しながら重なっている小領域間のラベルを
比較し、もしラベルが同一の場合には、Rstのエッジ濃
度の総和MstとRijのエッジ濃度の総和Mijの差 Sst=|Mst−Mij| を求める。同一ラベルの小領域がN1個あるとし、それ
ぞれのSstの総和がZ1であるとする。この時、信頼度
δ1と重複度γ1を δ1=Z1/N1 γ1=N1/P1 と定義する。ここで、P1はKi が含む全小領域数であ
る。γ1が1に近くかつδ1が0に近い程、Ki の各小
領域Rstは類似の小領域Rijと重なっていることになる
ため、対応がとれている可能性が高い。このため、Ki
をWi 内でラスタ走査しながらδ1、及びγ1を求め、 0<δ1<Tδ1 (1) Tγ1<γ1<1 (2) を満たす場合に、各小領域Rst Ki に相当する領域対
応信頼度メモリ6の各位置(s,t)に、重なっている
小領域Rijの各位置(i,j)とδ1、γ1の値を登録
する。ここで、Tδ1,Tγ1は予め設定しておいた閾
値である。例えば、図11に示すように{Rst,Rs +
1t ,Rs +2,Rs +3t ,Rs +3t+1,Rs +
4t +1,Rs +5t +1,Rs +6t +1} Ki で
あり、ラスタ走査中に図11の位置でδ1とγ1が
(1)、(2)式の条件を満たしたとすると領域対応信
頼度メモリには以下の情報が登録される。 (s,t)←(i,j) (s+1,t)←(i+1,j) (s+2,t)←(i+2,j) (s+3,t)←(i+3,j) (s+3,t+1)←(i+3,j+1) (s+4,t+1)←(i+4,j+1) (s+5,t+1)←(i+5,j+1) (s+6,t+1)←(i+6,j+1)
The area correspondence candidate selection section 5a is a labeling section 4.
Area Ki obtained by a (i = 1 to 1 in FIG. 8A)
4) is a small region Rij (1 <1 <obtained by the image processing unit 3'a.
Correspondence candidates are selected by collating in the search area Wi set on the labeling result of i <m, 1 <j <m). The search area changes depending on the installation state of the TV cameras 1a and 1b. However, when the optical axes of the TV cameras 1a and 1b are set to be parallel, the epipolar line is parallel to the horizontal axis of the image. The search area Wi is set at the same height as Ki (FIG. 9). It is assumed that the area Ki obtained by the labeling unit 4a is composed of small areas Rst (1 <s <m, 1 <t <m) as shown by the hatched areas in FIG. 9 (a). As shown in FIG. 10, Ki is raster-scanned on the small area Rij in Wi and the labels between the overlapping small areas are compared. If the labels are the same, the sum Mst and Rij of the edge densities of Rst are compared. The difference Sst = | Mst−Mij | of the sum Mij of the edge densities of is obtained. It is assumed that there are N1 small areas having the same label and the total sum of the respective Sst is Z1. At this time, the reliability δ1 and the degree of overlap γ1 are defined as δ1 = Z1 / N1 γ1 = N1 / P1. Here, P1 is the total number of small areas included in Ki. As .gamma.1 is closer to 1 and .delta.1 is closer to 0, each small region Rst of Ki overlaps with a similar small region Rij. Therefore, Ki
Δ1 and γ1 are raster-scanned in Wi, and when 0 <δ1 <Tδ1 (1) Tγ1 <γ1 <1 (2) is satisfied, the region correspondence reliability memory 6 corresponding to each small region Rst Ki The respective positions (i, j) of the overlapping small areas Rij and the values of δ1 and γ1 are registered in the respective positions (s, t) of. Here, Tδ1 and Tγ1 are threshold values set in advance. For example, as shown in FIG. 11, {Rst, Rs +
1t, Rs +2, Rs + 3t, Rs + 3t + 1, Rs +
4t + 1, Rs + 5t + 1, Rs + 6t + 1} Ki, and if δ1 and γ1 satisfy the conditions of (1) and (2) at the position of FIG. Information is registered. (S, t) ← (i, j) (s + 1, t) ← (i + 1, j) (s + 2, t) ← (i + 2, j) (s + 3, t) ← (i + 3, j) (s + 3, t + 1) ← (I + 3, j + 1) (s + 4, t + 1) ← (i + 4, j + 1) (s + 5, t + 1) ← (i + 5, j + 1) (s + 6, t + 1) ← (i + 6, j + 1)

【0017】ここで、(s,t)←(i,j)は領域信
頼度メモリ6の(s,t)の位置に、対応領域候補とし
て位置(i,j)とその時のδ1及びγ1を加えること
を示している。領域対応候補選定部5aでは、ラベリン
グ部4aによって得られたすべての領域(図8(a)の
例ではK1〜k4)に対し、以上の処理を行ない領域信
頼度メモリにTVカメラ1aより得られた画像中の各小
領域に対応するTVカメラ1bからの画像中の小領域の
候補を登録していく。
Here, (s, t) ← (i, j) is the position (i, j) as the corresponding region candidate at the position (s, t) of the region reliability memory 6 and δ1 and γ1 at that time. It indicates that it is added. In the area correspondence candidate selection unit 5a, all the areas (K1 to k4 in the example of FIG. 8A) obtained by the labeling unit 4a are subjected to the above processing and are obtained from the TV camera 1a in the area reliability memory. The small area candidates in the image from the TV camera 1b corresponding to each small area in the image are registered.

【0018】領域対応候補選定部5bはラベリング部4
bにより得られた領域Si (図8(b)ではi=1〜
3)を画像処理部3′bより得られた小領域Rij(1<
i<m,1<j<m)のラベル付け結果上で設定した探
索領域中で照合することにより、対応候補を選定する。
探索領域Wi は、領域対応候補選定部5aの場合と同様
に設定する。ラベリング部4bにより得られた領域Si
が図12(a)の斜線に示すように小領域Rst(1<s
<m,1<t<m)から構成されているとする。Si を
Wi 中の小領域Rij上でラスタ走査しながら重なってい
る小領域間のラベルを比較し、もしラベルが同一の場合
には、Rstの彩度の総和LstとRijの彩度の総和Lijの
差 Tst=|Lst−Lij| を求める。同一ラベルの小領域がN2個あるとし、それ
ぞれのTstの総和がZ2であるとする。この時、信頼度
δ2と重複度γ2を δ2=Z2/N2 γ2=N2/P2 と定義する。ここで、P2はSi が含む全小領域数であ
る。γ2が1に近くかつδ2が0に近い程、Si の各小
領域Rstは類似の小領域Rijと重なっていることになる
ため、対応がとれている可能性が高い。このため、Si
をWi 内でラスタ走査しながらδ2、及びγ2を求め、 0<δ2<Tδ2 (3) Tγ2<γ2<1 (4) を満たす場合に、各小領域Rst Si に相当する領域対
応信頼度メモリ6の各位置(s,t)に、重なっている
小領域Rijの各位置(i,j)とδ2、γ2の値を登録
する。ここで、Tδ2,Tγ2は予め設定しておいた閾
値である。例えば図13に示すように、{Rst,Rs +
1t ,Rs +2t ,Rs +3t } Si であり、ラスタ
走査中に図13の位置でδ2とγ2が(3)、(4)式
の条件を満たしたとすると領域対応信頼度メモリには以
下の情報が登録される。 (s,t)←(i,j) (s+1,t)←(i+1,j) (s+2,t)←(i+2,j) (s+3,t)←(i+3,j)
The area correspondence candidate selection unit 5b is a labeling unit 4.
Area Si obtained from b (i = 1 to 1 in FIG. 8B)
3) is a small region Rij (1 <1 <obtained by the image processing unit 3'b.
Correspondence candidates are selected by matching in the search area set on the labeling result of i <m, 1 <j <m).
The search area Wi is set in the same manner as in the case of the area correspondence candidate selection unit 5a. Area Si obtained by the labeling section 4b
Is a small area Rst (1 <s
<M, 1 <t <m). Si is raster-scanned on the small area Rij in Wi, and the labels between the overlapping small areas are compared. If the labels are the same, the sum Lst of the saturation of Rst and the sum Lij of the saturation of Rij are compared. The difference Tst = | Lst−Lij | It is assumed that there are N2 small areas having the same label and the total sum of Tst is Z2. At this time, the reliability δ2 and the overlapping degree γ2 are defined as δ2 = Z2 / N2 γ2 = N2 / P2. Here, P2 is the total number of small areas included in Si. As .gamma.2 is closer to 1 and .delta.2 is closer to 0, each small region Rst of Si overlaps with a similar small region Rij. Therefore, Si
Δ2 and γ2 are raster-scanned within Wi, and if 0 <δ2 <Tδ2 (3) Tγ2 <γ2 <1 (4) is satisfied, the region correspondence reliability memory 6 corresponding to each small region Rst Si At each position (s, t) of (1), each position (i, j) of the overlapping small region Rij and the values of δ2 and γ2 are registered. Here, Tδ2 and Tγ2 are threshold values set in advance. For example, as shown in FIG. 13, {Rst, Rs +
1t, Rs + 2t, Rs + 3t} Si, and if δ2 and γ2 satisfy the conditions of equations (3) and (4) at the position of FIG. 13 during raster scanning, the following information is stored in the area correspondence reliability memory. be registered. (S, t) ← (i, j) (s + 1, t) ← (i + 1, j) (s + 2, t) ← (i + 2, j) (s + 3, t) ← (i + 3, j)

【0019】ここで、(s,t)←(i,j)は領域信
頼度メモリ6の(s,t)の位置に、対応領域候補とし
て位置(i,j)とその時のδ2及びγ2を加えること
を示している。領域対応候補選定部5bでは、ラベリン
グ部4bによって得られたすべての領域(図8(b)の
例ではS1〜S4)に対し、以上の処理を行ない領域信
頼度メモリにTVカメラ1aより得られた画像中の各小
領域に対応するTVカメラ1bからの画像中の小領域の
候補を登録していく。
Here, (s, t) ← (i, j) is the position (i, j) in the area reliability memory 6 at the position (s, t) and the position (i, j) as the corresponding area candidate and δ2 and γ2 at that time. It indicates that it is added. In the area correspondence candidate selection unit 5b, all the areas (S1 to S4 in the example of FIG. 8B) obtained by the labeling unit 4b are subjected to the above processing and are obtained from the TV camera 1a in the area reliability memory. The small area candidates in the image from the TV camera 1b corresponding to each small area in the image are registered.

【0020】領域対応候補選定部5aにより、すでに領
域信頼度メモリ6の(s,t)に同一の領域(i,j)
が登録されている場合には登録されている信頼度δ1及
び重複度γ1を δ=k1・δ1+k2・δ2 γ=k3・γ1+k4・γ2 なる線形式(k1、k2、k3、k4は定数)により新
たな信頼度δ及び重複度γに変更する。逆に、領域候補
選定部5bにより、すでに領域信頼度メモリ6の(s,
t)に同一の領域が登録されている場合には同様の変更
を領域対応候補選定部5aが実行する。
By the area correspondence candidate selection section 5a, the same area (i, j) has already been stored in (s, t) of the area reliability memory 6.
If is registered, the registered reliability δ1 and duplication degree γ1 are renewed by the linear form (k1, k2, k3, k4 are constants) δ = k1 ・ δ1 + k2 ・ δ2 γ = k3 ・ γ1 + k4 ・ γ2 The reliability δ and the redundancy γ are changed. On the contrary, the area candidate selection unit 5b has already set (s,
If the same area is registered in t), the area correspondence candidate selection unit 5a executes the same change.

【0021】対応決定部7では、領域対応候補選定部5
a,5bにより領域対応信頼度メモリに登録された対応
領域候補から、対応する領域を決定し、かつ相関及びエ
ッジセグメントのマッチングにより詳細な位置合わせを
行なう。まず、画像処理部3aにより得られたラベルの
種類から、領域信頼度メモリに登録された対応候補の選
定に相関を用いるが、エッジセグメントを用いるかを決
める。領域対応信頼度メモリの(s,t)に対応する候
補として(i,j)n (0<n<k)が登録されている
場合、つまり、TVカメラ1aより得た画像中の小領域
Rstの対応候補として、TVカメラ1bより得た画像中
のk箇所の小領域Rijが登録されている場合を考える。
小領域Rst内のエッジの密度が低くかつ単一方向を示し
ているなら、エッジセグメント抽出部8a・8bにより
得られたRst及びRij内部のエッジセグメント同士の照
合を行なう。図14に示すように、小領域Rstを横切る
セグメントに対し、その隣接しているセグメントも含め
て、個々のセグメントの長さや傾き、また隣接している
セグメント間の接続関係が類似しているものがRijの周
辺に存在するか否かを調べる。そして、k箇所の対応候
補小領域に対し最も類似しているセグメントが存在する
領域をRstの対応領域として決め、セグメントの対応位
置を正確な対応付け位置として距離算出部へ送り距離を
求める。また、小領域Rst内のエッジ密度が高くかつ方
向性が乏しいならk箇所の対応候補小領域Rijの周辺で
それぞれRstとの濃度相関をとり、最も相関値の高い領
域をRstの対応領域と定め、相関がピークとなる位置を
正確な対応付け位置として距離算出部へ送り距離を求め
る。
In the correspondence determining unit 7, the area correspondence candidate selecting unit 5
The corresponding area is determined from the corresponding area candidates registered in the area correspondence reliability memory by a and 5b, and the detailed alignment is performed by the correlation and the matching of the edge segment. First, based on the type of label obtained by the image processing unit 3a, correlation is used to select a correspondence candidate registered in the area reliability memory, but whether an edge segment is used is determined. When (i, j) n (0 <n <k) is registered as a candidate corresponding to (s, t) in the area correspondence reliability memory, that is, the small area Rst in the image obtained from the TV camera 1a. Consider a case where k small areas Rij in the image obtained from the TV camera 1b are registered as the correspondence candidates of.
If the density of edges in the small area Rst is low and indicates a single direction, the edge segments inside Rst and Rij obtained by the edge segment extraction units 8a and 8b are compared. As shown in FIG. 14, with respect to a segment that crosses the small region Rst, the length and inclination of each segment, including the adjacent segment, and the connection relationship between adjacent segments are similar. Is present around Rij. Then, the region in which the segment most similar to the k correspondence candidate small regions exists is determined as the corresponding region of Rst, and the corresponding position of the segment is determined as the accurate corresponding position, and the sending distance is obtained to the distance calculation unit. Further, if the edge density in the small region Rst is high and the directivity is poor, the density correlation with Rst is taken around each of the k corresponding candidate small regions Rij, and the region having the highest correlation value is determined as the corresponding region of Rst. , The position at which the correlation has a peak is set as an accurate associating position, and the sending distance is obtained to the distance calculating unit.

【0022】ここでは、画像処理部が2つである場合に
ついて説明したが、図1に示すように画像処理部及び領
域対応候補選定部の数には制限がなく、上述と同様の処
理で実現できる。
Here, the case where the number of image processing units is two has been described, but as shown in FIG. 1, there is no limit to the number of image processing units and area correspondence candidate selection units, and the same processing as described above is realized. it can.

【0023】このように、領域対応候補選定部は個々の
小領域の対応候補を、その小領域が含まれる全体の領域
の照合結果から求めるため、画像処理部による小領域の
ラベル付けの一部が誤っていても、対応付けの誤りを回
避することができる。また各領域候補選定部が独立に対
応候補を求め、領域対応信頼度メモリに書き込んでいく
ため、領域対応信頼度メモリに登録されている各小領域
の対応候補の信頼度は、各領域候補選定部が求めるそれ
ぞれの出力結果を反映することができる。つまり、領域
対応信頼度メモリに登録されている各小領域の対応候補
の信頼度は、多くの領域候補選定部が高い信頼度を与え
た候補だけではなく、領域候補選定部の一部が高い信頼
度を与えたものも登録されるため、一部の画像処理部の
誤りにより、真に対応する小領域が対応付け候補から漏
れることを防ぐことができる。さらに、対応決定部が小
領域のエッジによるラベル付けを用いてセグメント照合
が有利な小領域が濃度相関照合が有利な小領域小領域か
を予め判定し、領域対応信頼度メモリに登録されている
対応候補の選定を行なうため、セグメント照合や濃度相
関照合が含む不具合な点を回避することができ、かつ小
領域毎の対応を画素レベルの対応まで精密化することが
できる。
As described above, since the area correspondence candidate selection unit obtains the correspondence candidate of each small area from the collation result of the entire area including the small area, part of the labeling of the small area by the image processing unit is performed. Even if is incorrect, it is possible to avoid an incorrect association. Further, since each area candidate selection unit independently obtains the correspondence candidate and writes it in the area correspondence reliability memory, the reliability of the correspondence candidate of each small area registered in the area correspondence reliability memory is determined by each area candidate selection. It is possible to reflect each output result desired by the department. In other words, the reliability of the correspondence candidates of each small area registered in the area correspondence reliability memory is not only the candidate given the high reliability by many area candidate selection units, but also a part of the area candidate selection unit has a high reliability. Since the one to which the reliability is given is also registered, it is possible to prevent the small region corresponding to the true from leaking from the association candidates due to an error in some image processing units. Furthermore, the correspondence determination unit uses the labeling of the edges of the small areas to determine in advance whether the small area for which segment matching is advantageous is the small area for which density correlation matching is advantageous, and is registered in the area correspondence reliability memory. Since the correspondence candidate is selected, it is possible to avoid the disadvantages involved in the segment matching and the density correlation matching, and it is possible to refine the correspondence for each small area to the pixel level correspondence.

【0024】[0024]

【発明の効果】本発明においては、複数の画像処理情報
を用いると共に、小領域毎の対応付けの信頼度をその小
領域を含む領域の照合結果から求めるため、画像処理の
誤りの影響を低く押えることができる。又、小領域を対
応付けた後、セグメントや相関を用いて領域内部の精密
な位置合わせを行なうため、テクスチャーが混み入って
いる領域に対しても対応付けの誤りを減らすことができ
る。以上により、2枚の画像間で細かい単位で正確に位
置合わせを行なうことが可能となる。
According to the present invention, since a plurality of pieces of image processing information are used and the reliability of the association for each small area is obtained from the collation result of the area including the small area, the influence of image processing error is reduced. You can hold it down. Further, since the small areas are associated with each other and the precise alignment of the inside of the areas is performed by using the segment or the correlation, it is possible to reduce the association error even in the area where the texture is crowded. As described above, it becomes possible to perform accurate alignment between two images in a fine unit.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例の概略構成を示すブロック
図。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention.

【図2】 本発明の一実施例の小領域を説明するための
図。
FIG. 2 is a diagram for explaining a small area according to an embodiment of the present invention.

【図3】 本発明の一実施例の画像処理部3a・3′a
の処理フローチャート図。
FIG. 3 is a diagram showing an image processing unit 3a, 3'a according to an embodiment of the present invention.
FIG.

【図4】 本発明の一実施例の画像処理部3b・3′b
の処理フローチャート図。
FIG. 4 is a diagram showing an image processing unit 3b, 3′b according to an embodiment of the present invention.
FIG.

【図5】 本発明の一実施例の画像処理部3a・3′a
のエッジオペレータを説明するための図。
FIG. 5 is an image processing unit 3a, 3'a according to an embodiment of the present invention.
For explaining the edge operator of FIG.

【図6】 本発明の一実施例の画像処理部3a・3′a
のエッジの方向を説明するための図。
FIG. 6 is an image processing unit 3a, 3'a according to an embodiment of the present invention.
For explaining the direction of the edge of the.

【図7】 本発明の一実施例の画像処理部3a・3′a
の小領域のラベル付けを説明するための図。
FIG. 7 is an image processing unit 3a, 3'a according to an embodiment of the present invention.
For explaining the labeling of the small areas of the.

【図8】 本発明の一実施例のラベリング部4aの小ラ
ベルの統合を説明するための図。
FIG. 8 is a diagram for explaining the integration of small labels of the labeling unit 4a according to the embodiment of the present invention.

【図9】 本発明の一実施例の領域対応候補選定部5a
の探索領域を説明するための図。
FIG. 9 is a region correspondence candidate selection unit 5a according to an embodiment of the present invention.
For explaining the search area of FIG.

【図10】 本発明の一実施例の領域対応候補選定部5
aの領域の走査を説明するための図。
FIG. 10 is a region correspondence candidate selection unit 5 according to an embodiment of the present invention.
The figure for demonstrating the scan of the area | region of a.

【図11】 本発明の一実施例の領域対応候補選定部5
aの領域対応信頼度メモリへの登録を説明するための
図。
FIG. 11 is a region correspondence candidate selection unit 5 according to an embodiment of the present invention.
The figure for demonstrating registration to the area | region corresponding reliability memory of a.

【図12】 本発明の一実施例の領域対応候補選定部5
bの探索領域を説明するための図。
FIG. 12 is a region correspondence candidate selection unit 5 according to an embodiment of the present invention.
The figure for demonstrating the search area | region of b.

【図13】 本発明の一実施例の領域対応候補選定部5
bの領域対応信頼度メモリへの登録を説明するための
図。
FIG. 13 is a region correspondence candidate selection unit 5 according to an embodiment of the present invention.
The figure for demonstrating registration to the area | region corresponding reliability memory of b.

【図14】 本発明の一実施例のセグメント照合を説明
するための図。
FIG. 14 is a diagram for explaining segment matching according to an embodiment of the present invention.

【符号の説明】 1a,1b…TVカメラ 2a,2b…画像メモリ 3a,3b〜3n,3′a,3′b,〜3′n…画像処
理部 4a,4b〜4n…ラベリング部 5a,5b〜5n…領域対応候補選定部 6…領域対応信頼度メモリ 7…対応決定部 8a,8b…エッジセグメント抽出部 9…距離算出部
[Description of Reference Signs] 1a, 1b ... TV camera 2a, 2b ... Image memory 3a, 3b-3n, 3'a, 3'b, -3'n ... Image processing unit 4a, 4b-4n ... Labeling unit 5a, 5b -5n ... Region correspondence candidate selection unit 6 ... Region correspondence reliability memory 7 ... Correspondence determination unit 8a, 8b ... Edge segment extraction unit 9 ... Distance calculation unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像データを入力するための複数の画像
入力手段と、これらの画像入力手段より入力された画像
データを夫々記憶するための複数の画像メモリと、これ
らの画像メモリに記憶された夫々の画像データを小領域
に分割して複数種の画像処理を夫々に施す複数の画像処
理手段と、1つの前記画像データに対応した前記複数の
画像処理手段の夫々の画像処理結果に従って該画像デー
タの各小領域を夫々統合する複数のラベリング手段と、
このラベリング手段により前記画像処理結果毎に得られ
た各画像データの統合領域に対し他の前記画像データの
各小領域について同種の画像処理結果を用いて照合領域
を夫々選定する複数の領域対応候補選定手段と、これら
領域対応候補選定手段より夫々選定された照合領域内の
各小領域を当該統合領域内の各小領域に対応付けて信頼
度と共に記憶した領域対応信頼度メモリと、この領域対
応信頼度メモリに記憶された信頼度に従って前記統合領
域に対応する照合領域を決定し、これらの各小領域単位
での位置合わせを行なう対応決定手段と、この対応決定
手段により得られた位置合わせ結果を用いて前記画像デ
ータに対応した奥行き距離を算出する距離算出手段とを
具備したことを特徴とする奥行き検出装置。
1. A plurality of image input means for inputting image data, a plurality of image memories for respectively storing the image data inputted by these image input means, and a plurality of image memories stored in these image memories. A plurality of image processing means for dividing each image data into small areas and performing a plurality of types of image processing respectively, and the image according to the image processing results of the plurality of image processing means corresponding to one image data. A plurality of labeling means for integrating each small area of data,
A plurality of region-correspondence candidates that select matching regions by using the same type of image processing result for each small region of the other image data for the integrated region of each image data obtained for each image processing result by the labeling means. The selection means, the area correspondence reliability memory that stores the small areas in the collation areas respectively selected by the area correspondence candidate selection means in association with the small areas in the integrated area together with the reliability, and the area correspondence Correspondence determining means for determining the collation area corresponding to the integrated area according to the reliability stored in the reliability memory, and performing alignment for each of these small areas, and the alignment result obtained by this correspondence determining means. And a distance calculating unit that calculates a depth distance corresponding to the image data by using the depth detecting apparatus.
JP5030904A 1993-02-19 1993-02-19 Depth detector Pending JPH06243258A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5030904A JPH06243258A (en) 1993-02-19 1993-02-19 Depth detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5030904A JPH06243258A (en) 1993-02-19 1993-02-19 Depth detector

Publications (1)

Publication Number Publication Date
JPH06243258A true JPH06243258A (en) 1994-09-02

Family

ID=12316716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5030904A Pending JPH06243258A (en) 1993-02-19 1993-02-19 Depth detector

Country Status (1)

Country Link
JP (1) JPH06243258A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138053A (en) * 1994-11-08 1996-05-31 Canon Inc Subject imformation processor and remote control device
JP2009210486A (en) * 2008-03-05 2009-09-17 Ntt Comware Corp Depth data generating device, depth data generation method, and program thereof
US8708890B2 (en) 2010-01-15 2014-04-29 Olympus Corporation Endoscope apparatus and method of measuring subject
JP2017044530A (en) * 2015-08-25 2017-03-02 株式会社Ihi Obstacle detection system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138053A (en) * 1994-11-08 1996-05-31 Canon Inc Subject imformation processor and remote control device
JP2009210486A (en) * 2008-03-05 2009-09-17 Ntt Comware Corp Depth data generating device, depth data generation method, and program thereof
US8708890B2 (en) 2010-01-15 2014-04-29 Olympus Corporation Endoscope apparatus and method of measuring subject
JP2017044530A (en) * 2015-08-25 2017-03-02 株式会社Ihi Obstacle detection system

Similar Documents

Publication Publication Date Title
KR101956149B1 (en) Efficient Determination of Optical Flow Between Images
US6011558A (en) Intelligent stitcher for panoramic image-based virtual worlds
JP4095491B2 (en) Distance measuring device, distance measuring method, and distance measuring program
US7218773B2 (en) Pose estimation method and apparatus
EP0848886B1 (en) Method and apparatus for determining the position of a tv camera for use in a virtual studio
US6205242B1 (en) Image monitor apparatus and a method
EP0526938A2 (en) Method and apparatus for determining the distance between an image and an object
US6181345B1 (en) Method and apparatus for replacing target zones in a video sequence
JP2002259976A (en) Method and device for detecting specific point
JPH0935061A (en) Image processing method
CN110473221A (en) A kind of target object automatic scanning system and method
JP4521568B2 (en) Corresponding point search method, relative orientation method, three-dimensional image measurement method, corresponding point search device, relative orientation device, three-dimensional image measurement device, corresponding point search program, and computer-readable recording medium recording the corresponding point search program
JP2961264B1 (en) Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
JPH05181411A (en) Map information collation and update system
JPH10255057A (en) Mobile object extracting device
JPH05215547A (en) Method for determining corresponding points between stereo images
JPH06243258A (en) Depth detector
US5825916A (en) Illuminant color detection
US6483949B1 (en) Image processing apparatus and method, and medium therefor
JP2981382B2 (en) Pattern matching method
JP2807137B2 (en) 3D shape detection method
WO1997006631A2 (en) Apparatus and method for object tracking
JP2961140B2 (en) Image processing method
JP2006145419A (en) Image processing method
Ehambram et al. An Approach to Marker Detection in IR-and RGB-images for an Augmented Reality Marker.