JP2001243451A - Inter-image correspondence searching method - Google Patents

Inter-image correspondence searching method

Info

Publication number
JP2001243451A
JP2001243451A JP2000055789A JP2000055789A JP2001243451A JP 2001243451 A JP2001243451 A JP 2001243451A JP 2000055789 A JP2000055789 A JP 2000055789A JP 2000055789 A JP2000055789 A JP 2000055789A JP 2001243451 A JP2001243451 A JP 2001243451A
Authority
JP
Japan
Prior art keywords
correspondence
similarity
reliability
pixel
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000055789A
Other languages
Japanese (ja)
Inventor
Hidekazu Iwaki
秀和 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000055789A priority Critical patent/JP2001243451A/en
Publication of JP2001243451A publication Critical patent/JP2001243451A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an inter-image correspondence searching method which can efficiently find close correspondence by a more accurate method with higher reliability. SOLUTION: This inter-image correspondence searching method which searches for correspondence between images having different viewpoints has an input step for inputting the images having the different viewpoints, a classification step for classifying the pixels or areas of the inputted images by properties, and a search step for finding the similarities by the pixels or areas between the inputted images and searching for corresponding pixel pair or area pair.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、視点の異なる複数
の画像間の対応を探索する画像間対応探索方法に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an inter-image correspondence search method for searching for a correspondence between a plurality of images having different viewpoints.

【0002】[0002]

【従来の技術】視点の異なる複数の画像間の対応する画
素あるいは領域を求める手法が従来より数多く提案され
ており、その中でも、画素あるいは領域の近傍の局所的
な情報を用いて対応を求めるエリアベースマッチング法
がよく適用される。
2. Description of the Related Art There have been proposed many methods for finding a corresponding pixel or area between a plurality of images having different viewpoints. Among them, an area for which a correspondence is obtained by using local information near a pixel or an area is proposed. The base matching method is often applied.

【0003】従来、提案された方式の中には以下の2つ
の方法が知られている。第1の方法(Qian Chen & Gera
rd Medioni,“A Volumetric Stereo Matching Method:A
pplication to Image-Based Modeling,”Proceedings o
n Computer Vision and Pattern Recognition Conferen
ce ‘99, Vol. 1, pp.29-34, June 1999)では、注目画
素近傍の濃淡値と、対応を探索すべき他画像の画素近傍
の濃淡値とで正規化相関を計算して類似度マップを作成
し、その中でも特に類似度が高い対応を『種対応』とす
る。次にその近傍に関して類似度を調べ、ある一定以上
の類似度であればその対応を新たに種対応とし、その新
たな種対応に関しても同様の処理を行うことにより、さ
らに新たな種対応を生成していき、対応マップを作成す
る方式である。
Conventionally, the following two methods are known among the proposed methods. The first method (Qian Chen & Gera
rd Medioni, “A Volumetric Stereo Matching Method: A
pplication to Image-Based Modeling, ”Proceedings o
n Computer Vision and Pattern Recognition Conferen
ce '99, Vol. 1, pp. 29-34, June 1999), calculate the normalized correlation between the gray value near the target pixel and the gray value near the pixel of the other image to be searched for similarity. A degree map is created, and a correspondence with a particularly high degree of similarity among them is defined as a "seed correspondence". Next, the similarity is checked with respect to the neighborhood, and if the similarity is equal to or more than a certain value, the correspondence is set as a new seed correspondence, and the same processing is performed for the new seed correspondence, thereby generating a new seed correspondence. Then, a correspondence map is created.

【0004】また、第2の方法((株)グラフィックス
・コミュニケーション・テクノロジー、“距離検出方法
とその装置”、特開平2−268515)では、画像を
ブロックに分割し、そのブロックごとに対応を求める手
法に関しており、ブロック内の画素の濃淡値の変化量を
算出し、その変化量と予め決められているある閾値とを
比較し、その大小により対応を探索するかどうかを判断
することにより、対応探索の高信頼化、高速化を実現す
るという方式である。
In the second method (Graphics Communication Technology, Inc., "Distance Detection Method and Apparatus", Japanese Patent Laid-Open No. 2-268515), an image is divided into blocks and each block is dealt with. Regarding the method of obtaining, by calculating the amount of change in the gray value of the pixel in the block, comparing the amount of change with a predetermined threshold, and determining whether to search for correspondence based on the magnitude, This is a method of realizing high reliability and high speed of correspondence search.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
第1の方法では、本来対応が不可能な画素間の対応も探
索してしまうために、対応マップに誤りが生じるという
問題点がある。
However, in the above-mentioned first method, there is a problem that a correspondence map is erroneous because a correspondence between pixels which cannot be dealt with is searched for.

【0006】また、上記の第2の方法では、 1)ブロックごとの対応が求まるため、密な対応を求め
たい場合には使用できない。
In the above-mentioned second method, 1) since a correspondence is obtained for each block, it cannot be used when a close correspondence is desired.

【0007】2)濃淡値の変化量を対応探索を行うかど
うかの実行判定の指標としてしか扱っていないため、対
応の信頼性が低い場合でも、信頼性が高い対応と同じよ
うに扱ってしまい全体として信頼性が低くなるといった
問題点があった。
[0007] 2) Since the amount of change in the gray value is treated only as an index for determining whether or not to perform a correspondence search, even if the correspondence is unreliable, it is treated in the same way as a highly reliable correspondence. There was a problem that reliability was lowered as a whole.

【0008】本発明はこのような課題に着目してなされ
たものであり、その目的とするところは、より正確でか
つより信頼度の高い方法で密な対応を効率的に求めるこ
とができる画像間対応探索方法を提供することにある。
The present invention has been made in view of such a problem, and an object of the present invention is to provide an image capable of efficiently obtaining a close response by a more accurate and more reliable method. An object of the present invention is to provide an inter-correspondence search method.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明は視点の異なる複数の画像間の対応を
探索する画像間対応探索方法であり、視点の異なる複数
の画像を入力する入力ステップと、上記入力した複数の
画像の各々について、画像内の画素又は領域を所定の性
質によって分類する分類ステップと、上記分類の結果を
利用して、上記入力画像間の各画素又は各領域ごとの類
似度を求めて対応する画素対又は領域対を探索する探索
ステップとを有する。
According to a first aspect of the present invention, there is provided an image correspondence search method for searching for a correspondence between a plurality of images having different viewpoints. An input step of inputting, for each of the plurality of input images, a classification step of classifying pixels or regions in the image according to a predetermined property, and using the result of the classification, each pixel or each pixel between the input images. And searching for a corresponding pixel pair or region pair by obtaining the similarity for each region.

【0010】また、第2の発明は第1の発明における画
像間対応探索方法において、上記探索ステップは、上記
分類の結果と上記探索ステップ中で求めた類似度より、
対応信頼度の高い画素対又は領域対を初期種対応として
求めるステップを有し、この初期種対応を利用して、対
応する画素対又は領域対を探索する。
According to a second aspect of the present invention, in the method for searching for correspondence between images according to the first aspect, the search step comprises the steps of:
A step of obtaining a pixel pair or a region pair having high correspondence reliability as an initial type correspondence is used, and a corresponding pixel pair or area pair is searched using the initial type correspondence.

【0011】また、第3の発明は第1の発明における画
像間対応探索方法において、上記探索ステップにおいて
上記分類の結果を利用するとは、上記分類の結果に基づ
いて選択された画素又は領域を処理対象より除外するこ
とである。
According to a third invention, in the method for searching for correspondence between images in the first invention, the step of using the result of the classification in the search step includes processing a pixel or an area selected based on the result of the classification. It is to be excluded from the target.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0013】(第1実施形態)まず、本発明の画像間対
応探索方法の第1実施形態について説明する。図1は本
発明の第1実施形態を説明するための構成図である。本
実施形態のアルゴリズムの大きな流れは以下の通りであ
る。
(First Embodiment) First, a first embodiment of an inter-image correspondence search method according to the present invention will be described. FIG. 1 is a configuration diagram for explaining a first embodiment of the present invention. The big flow of the algorithm of this embodiment is as follows.

【0014】(1)まず画像入力手段1によって視点の
異なる複数の画像D1を生成する。
(1) First, a plurality of images D1 having different viewpoints are generated by the image input means 1.

【0015】(2)次に画像領域分類手段2において、
複数の画像D1それぞれに対して画像内の画素あるいは
領域をその性質ごとに分類し分類情報D2を生成する。
(2) Next, in the image area classification means 2,
For each of the plurality of images D1, pixels or regions in the images are classified according to their properties to generate classification information D2.

【0016】(3)同時に類似度計算手段3において、
分類情報D2を考慮しながら入力画像間の各画素あるい
は領域ごとの類似度D3を算出する。
(3) At the same time, in the similarity calculating means 3,
The similarity D3 for each pixel or region between input images is calculated in consideration of the classification information D2.

【0017】(4)次に対応探索手段4において、分類
情報D2を考慮しながら類似度計算手段3において得ら
れた類似度D3をもとに、対応する画素対あるいは領域
対を探索して対応D4を求める。
(4) Next, the correspondence searching means 4 searches for a corresponding pixel pair or area pair based on the similarity D3 obtained by the similarity calculating means 3 while considering the classification information D2. Find D4.

【0018】全体の機器構成としては、例えば、複数も
しくは一つのカメラとそのカメラによって撮影された複
数の画像D1に対して処理を行う画像処理装置とで構成
される。ここで分類情報D2の利用方法としては、例え
ば、対応探索において原理的に対応が正確に求められる
かどうかを判定するために用いられる。一つの例をあげ
れば、注目画素の近傍が完全に均一な場合には、原理的
にエリアマッチングによる対応探索が不可能なため、そ
のような領域を分類情報D2をもとに予め排除すること
によって誤対応を防ぎ、また、探索時間の短縮を実現で
きる。そのような分類情報D2としては、注目画素近傍
の濃度値の分散などを利用できる。詳細に関しては、後
述する。
The overall device configuration includes, for example, a plurality or one camera and an image processing apparatus for processing a plurality of images D1 captured by the camera. Here, as a method of using the classification information D2, for example, the classification information D2 is used to determine whether a correspondence can be accurately obtained in principle in a correspondence search. As an example, if the vicinity of the target pixel is completely uniform, it is impossible to search for correspondence by area matching in principle. Therefore, such a region should be excluded in advance based on the classification information D2. As a result, erroneous responses can be prevented, and the search time can be reduced. As such classification information D2, variance of density values near the target pixel can be used. Details will be described later.

【0019】以下に図1に示す各構成要素について詳細
に説明する。以下では、簡単のため二つの異なる視点か
ら二つの画像に関して説明を行うが、本発明はそのよう
な制限を受ける発明ではないことは明白である。
Hereinafter, each component shown in FIG. 1 will be described in detail. In the following, two images will be described from two different viewpoints for simplicity, but it is clear that the present invention is not an invention subject to such limitations.

【0020】まず画像入力手段1について説明する。画
像入力手段1は、異なる二つの視点からデジタルカメラ
等で撮像された画像群あるいは対応探索のための適切な
前処理が施された画像群をそれぞれ2次元配列に格納し
出力するか、もしくは、画像がカラーである場合には各
色ごとに2次元配列に格納し出力する。ここで、異なる
視点からの撮影は、異なる位置に配置された複数のカメ
ラによる撮影であったり、一つのカメラで異なる位置に
移動して撮影したものであってもよい。ここでいうとこ
ろの適切な処理には、例えば、レクティフィケーション
や、画像撮影時に付加されるノイズを除去するための平
滑化フィルタ、メジアンフィルタ等の処理を含む。
First, the image input means 1 will be described. The image input unit 1 stores and outputs, in a two-dimensional array, a group of images captured by a digital camera or the like from two different viewpoints or a group of images subjected to appropriate preprocessing for searching for correspondence, or If the image is a color, the image is stored and output in a two-dimensional array for each color. Here, shooting from different viewpoints may be shooting by a plurality of cameras arranged at different positions, or may be shooting by moving to a different position with one camera. The appropriate processing here includes, for example, rectification and processing such as a smoothing filter and a median filter for removing noise added during image capturing.

【0021】図2はレクティフイケーション前の2枚の
画像(図2(a)、(b))と、その処理において得ら
れた2枚の画像(図2(c)、(d))を模式的に表し
たものである。ここでいうレクティフィケーションと
は、異なる視点から撮影された画像を、カメラ・キャリ
ブレーション・パラメータをもとに、左右の画素のエピ
ポーララインを水平にし行ごとに一致させるような操作
を意味し、例えば、文献『Emanuele Trucco, Alessandr
o Verri,“Introductory Techniques for 3-D Computer
Vision,”Prentice-Hall, New Jersey, USA, 1998』に
その詳細が述べられているのでここではその説明を省略
する。
FIG. 2 shows two images before rectification (FIGS. 2A and 2B) and two images (FIGS. 2C and 2D) obtained in the processing. This is a schematic representation. Here, rectification means an operation of making images taken from different viewpoints horizontal based on the camera calibration parameters, making epipolar lines of the left and right pixels horizontal and matching each other, For example, see the document Emanuele Trucco, Alessandr
o Verri, “Introductory Techniques for 3-D Computer
The details are described in Vision, "Prentice-Hall, New Jersey, USA, 1998", and the description thereof is omitted here.

【0022】次に画像領域分類手段2について説明す
る。画像領域分類手段2は、画像入力手段1からの画像
群の2次元配列を入力として、その各2次元配列をスキ
ャンしながら、各画素に関してその注目画素近傍の情報
を用いて適切な性質を算出し、その性質を2次元配列に
格納し分類情報D2として出力するものである。
Next, the image area classifying means 2 will be described. The image area classifying means 2 receives the two-dimensional array of the image group from the image input means 1 as input, and scans the two-dimensional array to calculate an appropriate property for each pixel by using information on the vicinity of the target pixel. Then, the properties are stored in a two-dimensional array and output as classification information D2.

【0023】例えば画素近傍として、注目画素を中心と
した((2M+1)×(2M+1))の大きさ(ここで
Mは正の整数)の正方形の中の画素を考える。その画素
近傍に関してその濃淡値の分散を計算し、分散がある閾
値よりも小さければ0を、大きければ1を2次元配列に
格納し、分類情報D2として出力する。ここでいう画素
近傍として、注目画素を中心とした正方形、長方形、円
形や、画素ごとに異なる領域を用いることが考えられる
が、画素近傍の決め方が本発明に制限を与えるものでは
ないことは明白である。ここでいう分類情報D2とその
利用方法としては、例えば、以下のようなものが考えら
れる。ただし、ここであげた分類情報D2とその利用方
法の種類が、本発明に制限を与えるものではないことは
明白である。
For example, consider a pixel in a square of ((2M + 1) × (2M + 1)) (here, M is a positive integer) centered on the pixel of interest as a pixel neighborhood. The variance of the gray value is calculated for the vicinity of the pixel, and if the variance is smaller than a certain threshold value, 0 is stored, and if it is larger, 1 is stored in a two-dimensional array and output as classification information D2. As the pixel neighborhood here, it is conceivable to use a square, a rectangle, a circle centered on the pixel of interest, or a different area for each pixel, but it is clear that how to determine the pixel neighborhood does not limit the present invention. It is. As the classification information D2 and the method of using it, for example, the following can be considered. However, it is clear that the classification information D2 and the kind of the method of use thereof do not limit the present invention.

【0024】(1)画像の均一性を計るための分類情報
D2として、例えば、注目画素近傍の濃度値の分散、最
大変化幅、その平均からのずれがある閾値よりも大きい
画素の数や、濃度値の微分値または2次微分値の分散、
最大変化幅、その平均からのずれがある閾値よりも大き
い画素の数を2次元配列に格納する。そして、例えば、 1)その均一性がある閾値よりも高ければ、信頼性のあ
る類似度D3が得られないと判断し、類似度計算、ある
いは対応探索をはじめから行わないという利用方法が考
えられる。そのことにより、誤対応を防ぎ、類似度計算
あるいは対応探索を高速化することができる。
(1) As classification information D2 for measuring the uniformity of an image, for example, the variance of the density value near the target pixel, the maximum change width, the number of pixels whose deviation from the average is larger than a threshold value, The variance of the density derivative or the second derivative,
The maximum change width and the number of pixels whose deviation from the average is larger than a certain threshold are stored in a two-dimensional array. Then, for example, 1) if the uniformity is higher than a certain threshold, it is determined that a reliable similarity D3 cannot be obtained, and a similarity calculation or a correspondence search is not performed from the beginning. . As a result, erroneous correspondence can be prevented, and similarity calculation or correspondence search can be speeded up.

【0025】2)その均一性が低いつまり近傍画素が複
雑であれば、もし対応が見つかったときには、その対応
の信頼性が高いということがいえるので、均一性を類似
度D3や対応の信頼性として用いることもできる。
2) If the uniformity is low, that is, if the neighboring pixels are complicated, if a correspondence is found, it can be said that the reliability of the correspondence is high. Can also be used.

【0026】3)濃度値の微分の分散、最大変化幅、そ
の平均からのずれがある閾値よりも大きい画素の数等を
用いて、視差の変化の度合いを計ることも可能である。
例えば、これらの値がある程度小さい場合には、その領
域内では、濃度値が滑らかに変化しており、視差の変化
が少ない可能性が高いので、そのような画素に関して求
められた対応は、信頼性があると考えられる。
3) The degree of change in parallax can be measured using the variance of the derivative of the density value, the maximum change width, the number of pixels whose deviation from the average is larger than a threshold value, and the like.
For example, if these values are small to some extent, the density value changes smoothly within that region, and there is a high possibility that the change in parallax is small. It is thought that there is.

【0027】4)正規化相関を用いた類似度算出方式の
ように注目画素近傍の平均を無視して類似度を算出する
方法では、画素値が線形に変化しているような画像の領
域(グラデーション領域)において誤対応が生じる可能
性が非常に高い。そこで、均一性の例えば、濃度値の微
分値の分散を調べて、グラデーション領域を検出し、そ
の領域では類似度を算出しないようにすることで類似度
の信頼性を高めることができる。
4) In the method of calculating the similarity by ignoring the average in the vicinity of the target pixel as in the similarity calculation method using the normalized correlation, an image region in which the pixel value changes linearly ( It is very likely that an erroneous response will occur in the gradation area). Therefore, the reliability of the similarity can be increased by checking the uniformity, for example, the variance of the differential value of the density value, detecting the gradation area, and not calculating the similarity in that area.

【0028】といった、利用方法が考えられる。ただ
し、画像の均一性を計るための分類情報D2の種類や、
その利用方法が本発明に制限を与えるものではないこと
は明白である。ここでいう濃度値の微分、2次微分は、
次のものが考えられる。注目画素の座標を(i,j)、
濃度値をP(i,j)、微分値をD(i,j)とおけ
ば、
Such a method of utilization can be considered. However, the type of the classification information D2 for measuring the uniformity of the image,
Clearly, its use does not limit the invention. The derivative of the density value and the second derivative here are
The following can be considered. The coordinates of the pixel of interest are (i, j),
If the density value is P (i, j) and the differential value is D (i, j),

【0029】[0029]

【数1】 (Equation 1)

【0030】である。DV ,DH はそれぞれi方向,j
方向のソーベルフィルタによる結果である。もしくは、
V ,DH をそれぞれ用いる方法も考えられる。2次微
分に関しては1次微分された画像に関してもう一度1次
微分を行う。ただし、微分の方法が本発明に制限を与え
るものではないことは明白である。また、ここでいう最
大変化幅は、注目画素近傍の中での濃度値もしくはその
微分値の最小値と最大値の差である。
## EQU1 ## DV and DH are in the i direction and j, respectively.
This is the result of the Sobel filter in the direction. Or
A method using D V and D H is also conceivable. As for the secondary differentiation, the primary differentiation is performed once again on the image obtained by performing the primary differentiation. However, it is clear that the method of differentiation does not limit the present invention. The maximum change width here is the difference between the minimum value and the maximum value of the density value or its differential value in the vicinity of the target pixel.

【0031】(2)画素の濃度値を利用する代わりに、
例えば、RGB表現されたカラーの画素に対して、各R
GBそれぞれに対して分散を計算し、その中で分散の一
番高い色を2次元配列として格納する。その性質は例え
ば、類似度計算において、各色に関してそれぞれ類似度
計算し、その分散の一番高い色に大きい重み付けを行っ
て重み付け平均をした値を類似度D3として用いるとい
った利用方法が考えられる。そのことにより、より信頼
度の高い対応を求めることができる。ただし、色の表現
方法や、そこから得られる分類情報D2の種類、その利
用方法が本発明に制限を与えるものではないことは明白
である。
(2) Instead of using the density value of a pixel,
For example, for a pixel of a color represented by RGB, each R
The variance is calculated for each of the GBs, and the color having the highest variance is stored as a two-dimensional array. For example, in the similarity calculation, a similarity calculation may be performed for each color, and a value obtained by weighting the color with the highest variance and performing weighted averaging as the similarity D3 may be used. As a result, a more reliable response can be obtained. However, it is clear that the method of expressing the color, the type of the classification information D2 obtained therefrom, and the method of using the same do not limit the present invention.

【0032】(3)注目画素近傍の平均値を2次元配列
として格納する。そして、例えば、その平均の大きさに
応じて、その注目画素に関する類似度D3の計算や、対
応探索を実行するか判断したり、その信頼性を判断した
りする。そのことにより、例えば黒い領域で、CCDに
よる揺らぎなどで分散は小さくはないが、その分散その
ものが信頼性がないような領域を予め排除することによ
り、対応の信頼性を高めることができる。
(3) The average value in the vicinity of the target pixel is stored as a two-dimensional array. Then, for example, in accordance with the average size, it is determined whether to calculate the similarity D3 for the target pixel, to execute the correspondence search, or to determine its reliability. As a result, for example, in a black region, the dispersion is not small due to fluctuation due to the CCD or the like, but the region in which the dispersion itself is not reliable can be eliminated in advance, thereby improving the reliability of the response.

【0033】次に類似度計算手段3について説明する。
類似度計算手段3は、画像入力手段1からの画像群(複
数の画像D1)と、画像領域分類手段2からの分類情報
D2を入力し、分類情報D2を考慮しながら、片方の画
像の注目画素近傍と、もう一方の画像の類似度D3を算
出したい画素近傍の濃淡値を用いて類似度D3を計算
し、類似度D3を画像の縦横方向(u,v)と視差方向
(d)の3次元の配列として出力するものである。
Next, the similarity calculating means 3 will be described.
The similarity calculating unit 3 receives an image group (a plurality of images D1) from the image input unit 1 and classification information D2 from the image region classification unit 2, and pays attention to one of the images while considering the classification information D2. The similarity D3 is calculated using the gray value of the neighborhood of the pixel and the neighborhood of the pixel for which it is desired to calculate the similarity D3 of the other image, and the similarity D3 is calculated in the vertical and horizontal directions (u, v) and the parallax direction (d) of the image. It is output as a three-dimensional array.

【0034】図3はその3次元配列を説明したものであ
る。例えば、左の画像を基準として、左の画像の座標が
(i,j)である画素L(i,j)に対して、右の画像
の座標が(i+k,j)である画素R(i−k,j)
(0<k<D)との類似度D3を計算して格納する。こ
こでいう画素近傍として、注目画素を中心とした正方
形、長方形、円形に限らず、画素ごとに異なる領域を用
いることが考えられるが、画素近傍の決め方が本発明に
制限を与えるものではないことは明白である。
FIG. 3 illustrates the three-dimensional array. For example, on the basis of the left image, a pixel R (i, j) whose coordinates of the right image is (i + k, j) for a pixel L (i, j) whose coordinates of the left image is (i, j). -K, j)
A similarity D3 with (0 <k <D) is calculated and stored. The pixel neighborhood here is not limited to a square, rectangle, or circle centered on the pixel of interest, and it is conceivable to use a different area for each pixel. However, how to determine the pixel neighborhood does not limit the present invention. Is obvious.

【0035】[0035]

【数2】 (Equation 2)

【0036】閾値以上の差の数、のいずれか一つの数を
用いるか、あるいは上記複数の数を画素ごとに適応的に
切り換えて用いることが考えられる。しかしながら、類
似度D3は上記した数に限定されるものではない。
It is conceivable to use any one of the numbers of differences equal to or larger than the threshold value or to adaptively switch and use the plurality of numbers for each pixel. However, the similarity D3 is not limited to the number described above.

【0037】また、類似度D3の計算方法として、例え
ば、類似度D3を算出する対象である2枚の画像に対し
て直接計算するのではなく、縮小や、ぼかされた画像を
用いて大まかに類似度D3がよいと思われる領域を算出
してから、細部に関して類似度D3を計算していくいわ
ゆる多重解像度解析を用いた手法(文献『シャープ
(株),特開平7−103734号公報,“ステレオ対
応探索装置”』)を用いてもよい。
As a method of calculating the similarity D3, for example, instead of directly calculating the two images for which the similarity D3 is to be calculated, the similarity D3 is roughly calculated using a reduced or blurred image. A method using a so-called multi-resolution analysis in which a region in which the similarity D3 is considered to be good is calculated, and then the similarity D3 is calculated for details (see "Sharp Corporation, Japanese Patent Laid-Open No. “Stereo correspondence search device” ”).

【0038】次に対応探索手段4について説明する。対
応探索手段4は、画像領域分類手段2からの分類情報D
2と、類似度計算手段3からの類似度D3から対応を探
索し、対応マップを出力するものである。例えば、基準
となる画像の注目画素に関してもう片方の画像の中で類
似度と類似度の信頼性を考慮して最も対応している可能
性の高い画素と対応づける。ここでいう類似度の信頼性
とは、画像領域分類手段2における分類情報の種類とそ
の利用方法に関する記述において説明してあるのでここ
では省略する。
Next, the correspondence search means 4 will be described. Correspondence search means 4 receives classification information D from image area classification means 2
2 and a similarity D3 from the similarity calculating means 3 to search for a correspondence and output a correspondence map. For example, the pixel of interest of the reference image is associated with the pixel most likely to correspond in the other image in consideration of the similarity and the reliability of the similarity in the other image. The reliability of the similarity here is described in the description of the type of the classification information in the image area classification means 2 and the method of using the classification information, and thus the description is omitted here.

【0039】ここでいう対応マップは、例えば、左の画
像を基準として、左の画像の注目画素に対応する右の画
像上の画素がどれだけずれているかを左画像上にプロッ
トした視差マップ(2次元配列)などが考えられる。た
だし、この対応マップの出力方法が、本発明に制限を与
えるものではないことは明白である。
The correspondence map referred to here is, for example, a disparity map (plotted on the left image, indicating how much the pixel on the right image corresponding to the target pixel of the left image is shifted with respect to the left image. Two-dimensional array). However, it is clear that the method of outputting the correspondence map does not limit the present invention.

【0040】(第2実施形態)以下、本発明の画像間対
応探索方法の第2実施形態について説明する。図4は本
発明の第2実施形態を説明するための構成図である。第
2実施形態の構成は、第1実施形態の構成に初期種対応
生成手段5を加えたものである。以下に、新たに設けた
初期種対応生成手段5に関する説明と、この初期種対応
生成手段5によって生成された初期種対応D5の具体的
な利用方法に関する詳細な説明を行う。
(Second Embodiment) Hereinafter, a second embodiment of the method for searching for correspondence between images according to the present invention will be described. FIG. 4 is a configuration diagram for explaining the second embodiment of the present invention. The configuration of the second embodiment is obtained by adding the initial type correspondence generation unit 5 to the configuration of the first embodiment. Hereinafter, a description will be given of the newly provided initial type correspondence generation means 5 and a detailed description of a specific method of using the initial type correspondence D5 generated by the initial type correspondence generation means 5.

【0041】初期種対応生成手段5は、類似度計算手段
3からの類似度D3と、画像領域分類手段2からの分類
情報D2を入力として、分類情報D2と類似度D3マッ
プをもとに対応の信頼度が高い対応を初期種対応D5と
してその座標と視差を3次元ベクトルの形式で格納し出
力するものである。以下、初期種対応の具体的な生成方
法について詳細に説明する。
The initial type correspondence generating means 5 receives the similarity D3 from the similarity calculating means 3 and the classification information D2 from the image area classifying means 2 as input and performs correspondence based on the classification information D2 and the similarity D3 map. Is stored as an initial type correspondence D5 and its coordinates and disparity are stored and output in the form of a three-dimensional vector. Hereinafter, a specific generation method for the initial type will be described in detail.

【0042】(1)前述の類似度D3の3次元配列の中
で視差方向に類似度D3をスキャンし、極大の数をカウ
ントし、極大が一つしかない画素を求める。
(1) The similarity D3 is scanned in the parallax direction in the three-dimensional array of the similarity D3, the number of the local maximums is counted, and a pixel having only one local maximum is obtained.

【0043】(2)(1)で求めた画素の中で極大であ
る類似度D3が、ある閾値よりも大きい画素を求める。
(2) A pixel having a maximum similarity D3 greater than a certain threshold value among the pixels obtained in (1) is obtained.

【0044】(3)(2)で求めた画素に対して対応の
信頼度を算出する。
(3) The reliability corresponding to the pixel obtained in (2) is calculated.

【0045】(4)(2)で求めた画素を対応の信頼度
でソートし、対応の信頼度の高い順に上から例えば10
0個を初期種対応D5としてその座標と視差を3次元ベ
クトルの形式で格納する。
(4) The pixels obtained in (2) are sorted according to the corresponding reliability.
The coordinates and the parallax are stored in the form of a three-dimensional vector with 0 as the initial type correspondence D5.

【0046】ここで対応の信頼度とは、例えば、片方の
画像の注目画素に対応する画素をもう一方の画像のある
領域内で探索を行う際、その類似度D3と、その領域内
にある画素に関する類似度D3のピークに関するそのユ
ニークさ、幅と、その注目画素の分類情報D2から算出
される値である。分類情報D2を用いる方法に関して
は、第1実施形態の画像領域分類手段2に関する記述に
おいて詳細に説明してあるのでここでは省略する。その
利用方法としては、例えば、類似度D3のピークの幅で
説明すれば、その幅が広ければ広いほど、そのピークは
信頼性がないことになり、ある閾値よりも広い幅をもっ
たピークは初期種対応D5としては採用しないというも
のがある。ただし、対応の信頼度の計算方法が、本発明
に制限を与えるものではないことは明白である。
Here, the correspondence reliability means, for example, when a pixel corresponding to a target pixel of one image is searched for in a certain region of another image, the similarity D3 and the similarity D3 are present in that region. This is a value calculated from the uniqueness and width of the peak of the similarity D3 for the pixel and the classification information D2 of the pixel of interest. The method using the classification information D2 has been described in detail in the description of the image area classification means 2 of the first embodiment, and will not be described here. As a method of use, for example, if the width of the peak of the similarity D3 is described, the wider the width is, the less reliable the peak is. There is one that is not adopted as the initial type correspondence D5. However, it is clear that the method of calculating the corresponding reliability does not limit the present invention.

【0047】図5は、初期種対応を用いた対応の探索を
模式的に表したものである。図5を用いて対応の探索に
ついて詳細を説明する。ここでは、簡単のため、対応を
探索するのに類似度D3のみを用いた場合について説明
するが、この探索方法が本研究に制限を与えるものでは
ない。
FIG. 5 schematically shows a search for a correspondence using the initial kind correspondence. The search for the correspondence will be described in detail with reference to FIG. Here, for simplicity, a case will be described in which only the similarity D3 is used to search for a correspondence, but this search method does not limit the present study.

【0048】(1)まず、前述の類似度D3の3次元配
列の中で、初期種対応生成手段5により既に求まってい
る種対応の座標から、uの正方向の画素に注目する。
(1) First, in the three-dimensional array of the similarity D3, attention is paid to a pixel in the positive direction of u from the kind-correspondence already obtained by the initial kind correspondence generating means 5.

【0049】(2)その着目した画素の視差を調べて現
在いる座標の視差に近い視差を幾つか比べて類似度D3
が最大であり、かつその類似度D3がある閾値よりも大
きい場合にその視差がその座標の視差であるとし、その
座標と視差を3次元ベクトルを種対応として格納する。
(2) Check the parallax of the pixel of interest and compare several parallaxes close to the parallax of the current coordinates to determine the similarity D3
Is the maximum and the similarity D3 is larger than a certain threshold, the disparity is determined to be the disparity of the coordinates, and the coordinates and the disparity are stored as a three-dimensional vector corresponding to the seed.

【0050】(3)これを残りの3方向(uの負方向、
vの正方向、vの負方向)に関して行う。
(3) This is performed in the remaining three directions (negative direction of u,
(positive direction of v, negative direction of v).

【0051】(4)現在の種対応を、対応として対応マ
ップに格納し、次の種対応に進み(1)に戻る。このス
テップを種対応がなくなるまで繰り返す。ここで、ステ
ップ(2)において類似度D3が最大である視差を注目
画素の視差としたが、第1実施形態の画像領域分類手段
2に関する記述における均一性を用いた類似度D3の信
頼性を用いて、例えば、(類似度D3+信頼度)が最大
になる視差を注目画素の視差とすることが考えられる。
分類情報D2を用いる方法に関しては、画像領域分類手
段2において詳細に説明してある。
(4) The current species correspondence is stored in the correspondence map as the correspondence, and the process proceeds to the next species correspondence and returns to (1). This step is repeated until there is no seed correspondence. Here, in step (2), the disparity having the maximum similarity D3 is determined as the disparity of the pixel of interest. However, the reliability of the similarity D3 using the uniformity in the description regarding the image area classification unit 2 of the first embodiment is determined. For example, it is conceivable that the disparity that maximizes (similarity D3 + reliability) is set as the disparity of the pixel of interest.
The method of using the classification information D2 is described in detail in the image area classification means 2.

【0052】また、この第2実施形態において、分類情
報D2の特殊な利用方法が考えられるのでそれを説明す
る。まず、注目画素の勾配をベクトルとして2次元配列
に格納する。そして、その勾配の方向と強さに応じて、
例えば、注目画素に隣接する画素の対応探索に用いる閾
値を変化させることが考えられる。例えば、その隣接方
向に強い勾配が存在した場合には、その画素の対応を種
対応とすることを抑制するように閾値を変化させること
によって、視差が変化している可能性のある領域での誤
対応を減少させることができる。ここで注目画素の勾配
は次のようなものが考えられる。注目画素の座標を
(i,j)、濃度値をP(i,j)、勾配をG(i,
j)とおけば、
In the second embodiment, a special use of the classification information D2 can be considered, which will be described. First, the gradient of the pixel of interest is stored as a vector in a two-dimensional array. And according to the direction and strength of the gradient,
For example, it is conceivable to change a threshold value used for a correspondence search of a pixel adjacent to the target pixel. For example, when there is a strong gradient in the adjacent direction, by changing the threshold value so as to suppress the correspondence of the pixel from being a seed correspondence, an area in which the parallax may have changed may be used. False responses can be reduced. Here, the gradient of the pixel of interest may be as follows. The coordinates of the pixel of interest are (i, j), the density value is P (i, j), and the gradient is G (i, j).
j)

【0053】[0053]

【数3】 (Equation 3)

【0054】である。ただし、勾配の計算方法が本発明
に制限を与えるものではないことは明白である。
Is as follows. However, it is clear that the method of calculating the gradient does not limit the present invention.

【0055】(第3実施形態)以下、本発明の画像間対
応探索方法の第3実施形態について説明する。図6は本
発明の第3実施形態を説明するための構成図である。第
3実施形態は第1実施形態の類似度計算手段内3に、類
似度計算実行判定手段301と類似度計算実行手段30
2を設けたものである。類似度計算実行判定手段301
では、複数の画像D1を入力して分類情報D2をもとに
注目画素に関して類似度計算を実行するべきかどうかを
判定する。類似度計算実行手段302はこのときの判定
結果に応じて類似度計算の実行を実施する。判定に用い
る分類情報D2の種類や利用方法に関しては、第1実施
形態の画像領域分類手段2においてその詳細が説明して
あるのでここでは省略する。
(Third Embodiment) Hereinafter, a third embodiment of the method for searching for correspondence between images according to the present invention will be described. FIG. 6 is a configuration diagram for explaining the third embodiment of the present invention. In the third embodiment, the similarity calculation execution determining means 301 and the similarity calculation execution means 30 are included in the similarity calculation means 3 of the first embodiment.
2 is provided. Similarity calculation execution determination means 301
Then, it is determined whether or not the similarity calculation should be performed on the target pixel based on the classification information D2 by inputting a plurality of images D1. The similarity calculation execution means 302 executes the similarity calculation according to the determination result at this time. The type and use method of the classification information D2 used for the determination have been described in detail in the image area classification unit 2 of the first embodiment, and thus will not be described here.

【0056】(第4実施形態)以下、本発明の画像間対
応探索方法の第4実施形態について説明する。図7は本
発明の第4実施形態を説明するための構成図である。第
4実施形態は第2実施形態の対応探索手段4内に、隣接
対応判定手段401と種対応格納手段402を設けたも
のである。隣接対応判定手段401では、分類情報D2
と類似度D3をもとに、初期種対応D5及び種対応格納
手段402からの種対応D402に隣接した対応に関し
てその信頼性を判定する。
(Fourth Embodiment) Hereinafter, a fourth embodiment of the inter-image correspondence search method according to the present invention will be described. FIG. 7 is a configuration diagram for explaining the fourth embodiment of the present invention. In the fourth embodiment, an adjacent correspondence judging means 401 and a kind correspondence storing means 402 are provided in the correspondence searching means 4 of the second embodiment. In the adjacent correspondence determination unit 401, the classification information D2
And the similarity D3, the reliability of the initial type correspondence D5 and the correspondence adjacent to the type correspondence D402 from the type correspondence storage unit 402 is determined.

【0057】種対応格納手段402では、隣接対応判定
手段401によって信頼性のある対応であると判定され
た対応を新たな種対応D401として格納する。判定に
用いる分類情報D2の種類や利用方法もしくは類似度の
利用方法に関しては、第2実施形態においてその詳細が
説明してあるのでここでは省略する。
The type correspondence storage means 402 stores the type of correspondence determined as reliable by the adjacent type determination means 401 as a new type correspondence D401. The type, use method, or use method of the similarity of the classification information D2 used for the determination are described in detail in the second embodiment, and will not be described here.

【0058】(第5実施形態)以下、本発明の画像間対
応探索方法の第5実施形態について説明する。図8は本
発明の第5実施形態を説明するための構成図である。第
5実施形態は、第2実施形態の対応探索手段4内に、隣
接対応判定手段401と種対応格納手段402と対応信
頼度算出手段403と対応再探索手段404とを設けた
ものである。隣接対応判定手段401と種対応格納手段
402に関しては第4実施形態においてその詳細が説明
してあるのでここでは省略する。
(Fifth Embodiment) Hereinafter, a fifth embodiment of the method for searching for correspondence between images according to the present invention will be described. FIG. 8 is a configuration diagram for explaining the fifth embodiment of the present invention. In the fifth embodiment, the correspondence search means 4 of the second embodiment is provided with an adjacent correspondence determination means 401, a kind correspondence storage means 402, a correspondence reliability calculation means 403, and a correspondence re-search means 404. The details of the adjacent correspondence determination means 401 and the kind correspondence storage means 402 have been described in the fourth embodiment, and will not be described here.

【0059】対応信頼度算出手段403では、得られた
対応に関してその対応の信頼度を算出する。具体的に
は、例えば視差が大きいような領域では必ずオクルージ
ョン(隠蔽)が発生する。オクルージョンが発生してい
るはずの領域にもし対応が存在した場合にはその対応は
信頼性がないと判断できる。ここでいうオクルージョン
とは、2枚の画像間で片方の画像にしか撮像されていな
い領域のことである。主に手前にある物体が視差によっ
て移動しその影になっていた領域がオクルージョンとな
る。もしくは、分類情報D2を考慮して、第1実施形態
で述べた類似度の信頼性等を用いて対応の信頼性を算出
しても良い。ただし、対応の信頼度の算出方法が本発明
に制限を与えるものではないことは明白である。
The correspondence reliability calculating means 403 calculates the reliability of the obtained correspondence. Specifically, for example, occlusion (occlusion) always occurs in a region where the parallax is large. If there is a correspondence in an area where occlusion should have occurred, it can be determined that the correspondence is not reliable. The occlusion here is an area where only one image is captured between two images. The occlusion is mainly the area where the object in front is moved due to parallax and is in the shadow of the object. Alternatively, in consideration of the classification information D2, the reliability of the correspondence may be calculated using the reliability of the similarity described in the first embodiment. However, it is clear that the method of calculating the corresponding reliability does not limit the present invention.

【0060】(第6実施形態)以下、本発明の画像間対
応探索方法の第6実施形態について説明する。図9は本
発明の第6実施形態を説明するための構成図である。第
6実施形態は第4あるいは第5実施形態の隣接対応判定
手段401内に、類似度計算信頼度判定手段4011と
隣接対応信頼度算出手段4012を設けたものである。
(Sixth Embodiment) Hereinafter, a sixth embodiment of the method for searching for correspondence between images according to the present invention will be described. FIG. 9 is a configuration diagram for explaining the sixth embodiment of the present invention. In the sixth embodiment, a similarity calculation reliability determination unit 4011 and an adjacent correspondence reliability calculation unit 4012 are provided in the adjacent correspondence determination unit 401 of the fourth or fifth embodiment.

【0061】類似度計算信頼度判定手段4011では、
分類情報D2と類似度D3とをもとに算出された類似度
の計算の信頼度を算出する。分類情報D2を用いた類似
度の計算の信頼度の算出方法に関しては、第1実施形態
の分類情報D2の説明の個所で詳細に説明してあるので
ここでは省略する。類似度D3を用いた類似度の計算の
信頼度の算出方法は、例えば、前述の類似度D3の3次
元配列の中で視差方向に類似度D3をスキャンし、類似
度の和を求める。この類似度の和がもし大きければ注目
画素に似た画素が多く存在する可能性が高いので信頼性
は低いと判断する。ただし、この類似度の計算の信頼度
の算出方法の種類が本発明に制限を与えるものでないこ
とは明白である。
In the similarity calculation reliability determination means 4011,
The reliability of the calculation of the similarity calculated based on the classification information D2 and the similarity D3 is calculated. The method of calculating the reliability of the similarity calculation using the classification information D2 has been described in detail in the description of the classification information D2 in the first embodiment, and thus will not be repeated here. As a method of calculating the reliability of the similarity calculation using the similarity D3, for example, the similarity D3 is scanned in the parallax direction in the above-described three-dimensional array of the similarities D3, and the sum of the similarities is obtained. If the sum of the similarities is large, it is highly likely that there are many pixels similar to the pixel of interest, and thus it is determined that the reliability is low. However, it is apparent that the type of the method of calculating the reliability of the similarity calculation does not limit the present invention.

【0062】隣接対応信頼度算出手段4012では、初
期種対応D5、類似度D3、類似度の計算の信頼度D4
011、分類情報D2をもとに、着目している対応に隣
接した対応の信頼性を判定する。この対応の信頼性の判
定方法に関しては、第2実施形態において詳細に説明し
てあるのでここでは省略する。
The adjacent correspondence reliability calculating means 4012 calculates the initial kind correspondence D5, the similarity D3, and the reliability D4 of the similarity calculation.
011 Based on the classification information D2, the reliability of the correspondence adjacent to the correspondence of interest is determined. The method of determining the reliability of the correspondence has been described in detail in the second embodiment, and will not be described here.

【0063】A.なお、上記した具体的実施形態から以
下のような手順を有する発明が抽出される。
A. An invention having the following procedure is extracted from the specific embodiment described above.

【0064】1.視点の異なる複数の画像間の対応を探
索する画像間対応探索方法であって、視点の異なる複数
の画像を入力する入力ステップと、上記入力した複数の
画像の各々について、画像内の画素又は領域を所定の性
質によって分類する分類ステップと、上記分類の結果を
利用して、上記入力画像間の各画素又は各領域ごとの類
似度を求めて対応する画素対又は領域対を探索する探索
ステップとを有することを特徴とする画像間対応探索方
法。
1. An image correspondence search method for searching for a correspondence between a plurality of images having different viewpoints, comprising: an input step of inputting a plurality of images having different viewpoints; and for each of the plurality of input images, a pixel or a region in the image. And a search step of searching for a corresponding pixel pair or region pair by obtaining a similarity between each pixel or each region between the input images by using the result of the classification. A method for searching for correspondence between images, characterized by comprising:

【0065】2.上記探索ステップは、上記分類の結果
と上記探索ステップ中で求めた類似度より、対応信頼度
の高い画素対又は領域対を初期種対応として求めるステ
ップを有し、この初期種対応を利用して、対応する画素
対又は領域対を探索することを特徴とする1.に記載の
画像間対応探索方法。
2. The search step includes a step of obtaining a pixel pair or a region pair having a high correspondence reliability as an initial type correspondence from the result of the classification and the similarity obtained in the search step, and utilizing this initial type correspondence. , Searching for a corresponding pixel pair or region pair. 2. The method for searching for correspondence between images according to item 1.

【0066】3.上記探索ステップにおいて上記分類の
結果を利用するとは、上記分類の結果に基づいて選択さ
れた画素又は領域を処理対象より除外することであるこ
とを特徴とする1.に記載の画像間対応探索方法。
3. The use of the result of the classification in the search step is to exclude a pixel or a region selected based on the result of the classification from processing targets. 2. The method for searching for correspondence between images according to item 1.

【0067】4.上記分類ステップにおける所定の性質
は、各画素又は各領域とその近傍の物理量に基づいて算
出される性質であることを特徴とする3.に記載の画像
間対応探索方法。
4. 2. The predetermined property in the classification step is a property calculated based on a physical quantity of each pixel or each area and its vicinity. 2. The method for searching for correspondence between images according to item 1.

【0068】5.上記分類ステップにおける所定の性質
は、各画素又は各領域とその近傍のテクスチャパラメー
タに基づいて算出される性質であることを特徴とする
3.に記載の画像間対応探索方法。
5. 2. The predetermined property in the classification step is a property calculated based on a texture parameter of each pixel or each area and its vicinity. 2. The method for searching for correspondence between images according to item 1.

【0069】6.上記分類ステップにおける所定の性質
は、対応する画素対又は領域対を探索する場合に利用可
能な性質であることを特徴とする1.に記載の画像間対
応探索方法。
6. The predetermined property in the classification step is a property that can be used when searching for a corresponding pixel pair or area pair. 2. The method for searching for correspondence between images according to item 1.

【0070】7.上記分類ステップにおける所定の性質
は、各画素又は各領域とその近傍の物理量に基づいて算
出される性質であることを特徴とする6.に記載の画像
間対応探索方法。
7. 5. The predetermined property in the classification step is a property calculated based on the physical quantity of each pixel or each area and its vicinity. 2. The method for searching for correspondence between images according to item 1.

【0071】8.上記分類ステップにおける所定の性質
は、各画素又は各領域とその近傍のテクスチャパラメー
タに基づいて算出される性質であることを特徴とする
6.に記載の画像間対応探索方法。
8. 5. The predetermined property in the classification step is a property calculated based on a texture parameter of each pixel or each area and its vicinity. 2. The method for searching for correspondence between images according to item 1.

【0072】9.上記分類ステップにおける所定の性質
は、対応する画素対又は領域対を探索する場合に利用可
能な性質であることを特徴とする3.に記載の画像間対
応探索方法。
9. 2. The predetermined property in the classification step is a property that can be used when searching for a corresponding pixel pair or area pair. 2. The method for searching for correspondence between images according to item 1.

【0073】10.上記探索ステップにおいて類似度を
求める処理は、各画素又は各領域毎に類似度計算をする
かどうか判定するステップと、上記判定結果に基づいて
類似度を求めるステップを含むことを特徴とする1.に
記載の画像間対応探索方法。
10. The process of calculating the similarity in the search step includes a step of determining whether or not to calculate the similarity for each pixel or each region, and a step of calculating the similarity based on the determination result. 2. The method for searching for correspondence between images according to item 1.

【0074】11.上記初期種対応を求めるにあたり、
類似度のピークのユニークさ、類似度のピーク幅、画素
又は領域近傍のテクスチャパラメータのうち、少なくと
も1つを用いることを特徴とする2.に記載の画像間対
応探索方法。
11. In seeking the above initial species support,
It is characterized in that at least one of uniqueness of a peak of similarity, peak width of similarity, and a texture parameter near a pixel or an area is used. 2. The method for searching for correspondence between images according to item 1.

【0075】12.上記求めた初期種対応において、隣
接する画素又は領域の対応の信頼度を求めるステップ
と、上記信頼度に基づいて対応を認められた対応を、新
たに種対応として格納するステップと、上記格納された
種対応に対してさらに隣接する画素又は領域の対応の信
頼度を求めるステップとをさらに有することを特徴とす
る2.に記載の画像間対応探索方法。
12. In the obtained initial type correspondence, a step of obtaining the reliability of the correspondence between the adjacent pixels or regions, a step of newly storing the correspondence recognized based on the reliability as a type correspondence, Determining the reliability of the correspondence between pixels or regions that are further adjacent to the type correspondence. 2. The method for searching for correspondence between images according to item 1.

【0076】13.上記隣接する画像又は領域の信頼度
を求めるステップは、上記分類ステップの分類結果を利
用して、求めた類似度の信頼度を求めるステップと、上
記類似度と、上記類似度の信頼度と、上記分類ステップ
の分類結果とを用いて、隣接する画素又は領域の信頼度
を求めるステップとを有することを特徴とする12.に
記載の画像間対応探索方法。
13. The step of obtaining the reliability of the adjacent image or region is a step of obtaining the reliability of the obtained similarity using the classification result of the classification step, the similarity, and the reliability of the similarity, 11. using the classification result of the classification step to determine the reliability of an adjacent pixel or region. 2. The method for searching for correspondence between images according to item 1.

【0077】14.上記類似度の信頼度は、類似度のピ
ークのユニークさ、類似度のピーク幅、類似度のピーク
の2次微分、類似度の和、注目画素近傍のテクスチャパ
ラメータ、雑音の分散のうち少なくとも1つに基づくも
のであることを特徴とする13.に記載の画像間対応探
索方法。
14. The reliability of the similarity is at least one of the uniqueness of the similarity peak, the peak width of the similarity, the second derivative of the similarity peak, the sum of the similarities, the texture parameter near the pixel of interest, and the noise variance. 13. It is characterized in that 2. The method for searching for correspondence between images according to item 1.

【0078】15.上記求めた初期種対応において、隣
接する画素又は領域の対応の信頼度を求めるステップ
と、上記信頼度に基づいて対応を認められた対応を、新
たに種対応として格納するステップと、上記分類ステッ
プの分類結果と、上記探索ステップで求めた類似度をも
とに、上記格納された対応の信頼度を求めるステップ
と、上記求めた対応の信頼度をもとに、対応を再検討す
るステップと、上記再検討された対応に対して、さらに
隣接する画素又は領域の対応の信頼度を求めるステップ
とをさらに有することを特徴とする2.に記載の画像間
対応探索方法。
15. In the obtained initial type correspondence, a step of obtaining the reliability of the correspondence between the adjacent pixels or regions, a step of storing the correspondence recognized based on the reliability as a new type correspondence, and a step of the classification step A step of obtaining the reliability of the stored correspondence based on the classification result of the above and the similarity obtained in the search step; and a step of reexamining the correspondence based on the reliability of the obtained correspondence. Determining the reliability of the correspondence of the adjacent pixel or region with respect to the reconsidered correspondence. 2. The method for searching for correspondence between images according to item 1.

【0079】16.上記隣接する画像又は領域の信頼度
を求めるステップは、上記分類ステップの分類結果を利
用して、求めた類似度の信頼度を求めるステップと、上
記類似度と、上記類似度の信頼度と、上記分類ステップ
の分類結果とを用いて、隣接する画素又は領域の対応の
信頼度を求めるステップを有することを特徴とする1
5.に記載の画像間対応探索方法。
16. The step of obtaining the reliability of the adjacent image or region is a step of obtaining the reliability of the obtained similarity using the classification result of the classification step, the similarity, and the reliability of the similarity, A step of obtaining the reliability of the correspondence between adjacent pixels or areas using the classification result of the classification step.
5. 2. The method for searching for correspondence between images according to item 1.

【0080】17.上記類似度の信頼度は、類似度のピ
ークのユニークさ、類似度のピーク幅、類似度のピーク
の2次微分、類似度の和、注目画素近傍のテクスチャパ
ラメータ、雑音の分散のうち少なくとも1つに基づくも
のであることを特徴とする16.に記載の画像間対応探
索方法。
17. The reliability of the similarity is at least one of the uniqueness of the similarity peak, the peak width of the similarity, the second derivative of the similarity peak, the sum of the similarities, the texture parameter near the pixel of interest, and the noise variance. 16. It is based on 2. The method for searching for correspondence between images according to item 1.

【0081】18.上記対応の信頼性は、上記格納され
た対応の視差の滑らかさ、上記格納された対応の視差の
2次微分、上記類似度のピークのユニークさ、上記類似
度のピーク幅、注目画素近傍のテクスチャパラメータの
少なくとも1つに基づくものであることを特徴とする1
6.に記載の画像間対応探索方法。
18. The reliability of the correspondence is the smoothness of the stored correspondence disparity, the second derivative of the stored correspondence disparity, the uniqueness of the similarity peak, the peak width of the similarity, and the vicinity of the pixel of interest. 1 based on at least one of the texture parameters
6. 2. The method for searching for correspondence between images according to item 1.

【0082】19.視点の異なる複数の画像間の対応を
探索する画像間対応探索方法において、視点の異なる複
数の画像を入力する画像入力ステップと、前記画像入力
ステップにおいて得られた複数の画像それぞれに対して
画像内の画素あるいは領域をその性質ごとに分類し分類
情報を生成する画像領域分類ステップと、前記画像領域
分類ステップにおいて得られた分類情報をもとに入力画
像間の各画素あるいは領域ごとの類似度を計算する類似
度計算ステップと、前記画像領域分類ステップにおいて
得られた分類情報と、前記類似度計算ステップにおいて
得られた類似度とをもとに、対応する画素対あるいは領
域対を探索する対応探索ステップと、を具備することを
特徴とする画像間対応探索方法。
19. In an inter-image correspondence search method for searching for a correspondence between a plurality of images having different viewpoints, an image input step of inputting a plurality of images having different viewpoints, and an intra-image processing for each of the plurality of images obtained in the image input step. An image region classification step of classifying pixels or regions of each of them according to their properties to generate classification information, and calculating the similarity of each pixel or region between input images based on the classification information obtained in the image region classification step. A similarity calculation step for calculating, a classification search obtained in the image area classification step, and a corresponding search for searching for a corresponding pixel pair or area pair based on the similarity obtained in the similarity calculation step. And a step of searching for correspondence between images.

【0083】20.前記画像領域分類ステップにおいて
得られた分類情報と、前記類似度計算ステップにおいて
得られた類似度をもとに対応信頼度の高い画素対あるい
は領域対を初期種対応として求める初期種対応生成ステ
ップを有し、初期種対応を用いて対応探索ステップにお
いて対応する画素対あるいは領域対を探索することを特
徴とする19.に記載の画像間対応探索方法。
20. A classification information obtained in the image region classification step, and an initial type correspondence generation step of obtaining a pixel pair or a region pair having high correspondence reliability as an initial type correspondence based on the similarity obtained in the similarity calculation step. 18. The method according to claim 19, wherein a corresponding pixel pair or region pair is searched in the correspondence search step using the initial kind correspondence. 2. The method for searching for correspondence between images according to item 1.

【0084】21.前記画像領域分類ステップは、前記
類似度計算ステップにおいて類似度の計算を行うかどう
かの判定の手がかりとなる性質をもとに分類することを
特徴とする19.に記載の画像間対応探索方法。
21. 18. The image area classification step is characterized in that the image area is classified based on a property serving as a clue for determining whether or not to calculate the similarity in the similarity calculation step. 2. The method for searching for correspondence between images according to item 1.

【0085】22.前記画像領域分類ステップにおける
類似度の計算を行うかどうかの判定の手がかりとなる性
質が注目画素近傍をもとに算出されることを特徴とする
21.に記載の画像間対応探索方法。
22. 20. A property that is a clue for determining whether or not to calculate the similarity in the image area classification step is calculated based on the vicinity of the target pixel. 2. The method for searching for correspondence between images according to item 1.

【0086】23.前記画像領域分類ステップにおける
類似度の計算を行うかどうかの判定の手がかりとなる性
質が注目画素近傍のテクスチャパラメータであることを
特徴とする21.に記載の画像間対応探索方法。
23. 20. The property which is a clue for determining whether or not to calculate the similarity in the image area classification step is a texture parameter near the target pixel. 2. The method for searching for correspondence between images according to item 1.

【0087】24.前記画像領域分類ステップは、前記
対応探索ステップにおいて探索の手がかりとなる性質を
もとに分類することを特徴とする19.に記載の画像間
対応探索方法。
24. 18. The image area classification step is characterized in that classification is performed in the correspondence search step based on a property serving as a clue for search. 2. The method for searching for correspondence between images according to item 1.

【0088】25.前記画像領域分類ステップにおける
探索の手がかりとなる性質が注目画素近傍をもとに計算
されることを特徴とする24.に記載の画像間対応探索
方法。
25. 23. A property serving as a clue for search in the image area classification step is calculated based on the vicinity of a target pixel. 2. The method for searching for correspondence between images according to item 1.

【0089】26.前記画像領域分類ステップにおける
探索の手がかりとなる性質が、注目画素近傍のテクスチ
ャパラメータであることを特徴とする24.に記載の画
像間対応探索方法。
26. 23. The characteristic that is a clue for the search in the image area classification step is a texture parameter near the pixel of interest. 2. The method for searching for correspondence between images according to item 1.

【0090】27.前記画像領域分類ステップは、前記
類似度計算ステップにおいて類似度の計算を行うかどう
かの判定の手がかりとなる性質をもとに分類するととも
に、前記対応探索ステップにおいて探索の手がかりとな
る性質をもとに分類することを特徴とする19.に記載
の画像間対応探索方法。
27. The image area classification step classifies based on a property that is a clue for determining whether or not to calculate the similarity in the similarity calculation step, and based on a property that is a clue for the search in the correspondence search step. 19. characterized in that: 2. The method for searching for correspondence between images according to item 1.

【0091】28.前記類似度計算ステップは、前記画
像領域分類ステップにおいて得られた分類情報をもとに
類似度の計算を実行するかどうかの判定を行う類似度計
算実行判定ステップと、前記類似度計算実行判定ステッ
プでの判定結果をもとに類似度の計算を行う類似度計算
実行ステップとを有する19.に記載の画像間対応探索
方法。
28. The similarity calculation step is a similarity calculation execution determination step of determining whether to execute similarity calculation based on the classification information obtained in the image area classification step, and the similarity calculation execution determination step 18. a similarity calculation execution step of calculating similarity based on the determination result in 2. The method for searching for correspondence between images according to item 1.

【0092】29.前記初期種対応生成ステップは、
1)前記類似度計算ステップにおいて得られた類似度の
ピークのユニークさ、または2)前記類似度計算ステッ
プにおいて得られた類似度のピークの幅、または3)注
目画素近傍のテクスチャパラメータのうち少なくとも一
つを用いて信頼度の高い対応を生成することを特徴とす
る19.に記載の画像間対応探索方法。
29. The initial type correspondence generation step includes
1) uniqueness of the similarity peak obtained in the similarity calculation step, or 2) width of the similarity peak obtained in the similarity calculation step, or 3) texture parameter near the pixel of interest. 19. A method for generating a highly reliable correspondence by using one of them. 2. The method for searching for correspondence between images according to item 1.

【0093】30.前記対応探索ステップは、前記画像
領域分類ステップにおいて得られた分類情報と、前記類
似度計算ステップにおいて得られた類似度とをもとに前
記初期種対応生成ステップにおいて得られた初期種対応
に隣接する画素あるいは領域対の対応信頼度を算出する
隣接対応判定ステップと、前記隣接対応判定ステップに
よって対応すると判定された対応を新たに種対応として
格納する種対応格納ステップとを有し、新たに前記種対
応格納ステップで格納された種対応に関してさらに同様
に前記隣接対応判定ステップにて判定していくことを特
徴とする20.に記載の画像間対応探索方法。
30. The correspondence search step is based on the classification information obtained in the image area classification step and the similarity obtained in the similarity calculation step, and is adjacent to the initial type correspondence obtained in the initial type correspondence generation step. An adjacent correspondence determining step of calculating the correspondence reliability of the pixel or region pair to be executed, and a seed correspondence storing step of storing the correspondence determined to correspond by the adjacent correspondence determining step as a new seed correspondence. 20. The kind correspondence stored in the kind correspondence storing step is further similarly determined in the adjacent correspondence determining step. 2. The method for searching for correspondence between images according to item 1.

【0094】31.前記隣接対応判定ステップは、前記
画像領域分類ステップにおいて得られた分類情報を考慮
しながら前記類似度計算ステップにおいて得られた類似
度の計算の信頼度を算出する類似度計算信頼度算出ステ
ップと、前記類似度計算信頼度算出ステップにおいて得
られた類似度の計算の信頼度と、前記画像領域分類ステ
ップにおいて得られた分類情報と、前記類似度計算ステ
ップにおいて得られた類似度とをもとに種対応に隣接す
る画素あるいは領域対の対応信頼度を算出する隣接対応
信頼度算出ステップを有することを特徴とする30.に
記載の画像間対応探索方法。
31. The adjacent correspondence determination step is a similarity calculation reliability calculation step of calculating the reliability of the calculation of the similarity obtained in the similarity calculation step while considering the classification information obtained in the image area classification step, Based on the reliability of the calculation of the similarity obtained in the similarity calculation reliability calculation step, the classification information obtained in the image area classification step, and the similarity obtained in the similarity calculation step 30. An adjacent correspondence reliability calculating step of calculating the correspondence reliability of a pixel or an area pair adjacent to the kind correspondence. 2. The method for searching for correspondence between images according to item 1.

【0095】32.前記類似度計算信頼度算出ステップ
において得られた類似度の計算の信頼度が、1)前記類
似度計算ステップにおいて得られた類似度のピークのユ
ニークさ、または2)前記類似度計算ステップにおいて
得られた類似度のピークの幅、または3)前記類似度計
算ステップにおいて得られた類似度のピークの2次微
分、または4)前記類似度計算ステップにおいて得られ
た類似度の和または5)注目画素近傍のテクスチャパラ
メータ、または6)雑音の分散のうち少なくとも一つで
あることを特徴とする31.に記載の画像間対応探索方
法。
32. The reliability of the similarity calculation obtained in the similarity calculation reliability calculation step is 1) the uniqueness of the peak of the similarity obtained in the similarity calculation step, or 2) the uniqueness of the similarity calculation step. The width of the similarity peak obtained, or 3) the second derivative of the similarity peak obtained in the similarity calculation step, or 4) the sum of the similarity obtained in the similarity calculation step, or 5) the notice. 31. It is at least one of a texture parameter near a pixel and 6) a variance of noise. 2. The method for searching for correspondence between images according to item 1.

【0096】33.前記対応探索ステップは、前記画像
領域分類ステップにおいて得られた分類情報と、前記類
似度計算ステップにおいて得られた類似度をもとに前記
初期種対応生成ステップにおいて得られた初期種対応に
隣接する画素あるいは領域対の対応信頼度を算出する隣
接対応判定ステップと、前記隣接対応判定ステップによ
って対応すると判定された対応を新たに種対応として格
納する種対応格納ステップと、前記画像領域ステップに
おいて得られた分類情報と前記類似度計算ステップにお
いて得られた類似度をもとに前記種対応格納ステップで
格納された対応の信頼度を算出する対応信頼度算出ステ
ップと、対応信頼度算出ステップにおいて得られた対応
の信頼度をもとに対応を再探索する対応再探索ステップ
とを有し、新たに前記種対応格納ステップで格納された
種対応に関してさらに同様に前記隣接対応判定ステップ
にて判定していくことを特徴とする19.に記載の画像
間対応探索方法。
33. The correspondence search step is adjacent to the initial type correspondence obtained in the initial type correspondence generation step based on the classification information obtained in the image area classification step and the similarity obtained in the similarity calculation step. An adjacent correspondence determining step of calculating a correspondence reliability of a pixel or an area pair; a seed correspondence storing step of newly storing a correspondence determined to correspond by the adjacent correspondence determining step as a seed correspondence; and the image area step. A correspondence reliability calculation step of calculating the reliability of the correspondence stored in the type correspondence storage step based on the classified information obtained and the similarity obtained in the similarity calculation step; and a correspondence reliability calculation step. Re-searching step for searching again for correspondence based on the reliability of the correspondence. 19, characterized in that to continue to determine at further Similarly the adjacent corresponding determining step with respect to the species corresponding stored at-flop. 2. The method for searching for correspondence between images according to item 1.

【0097】34.前記隣接対応判定ステップは、前記
画像領域分類ステップにおいて得られた分類情報を考慮
しながら前記類似度計算ステップにおいて得られた類似
度の計算の信頼度を算出する類似度計算信頼度算出ステ
ップと、前記類似度計算信頼度算出ステップにおいて得
られた類似度の計算の信頼度と、前記画像領域分類ステ
ップにおいて得られた分類情報と、前記類似度計算ステ
ップにおいて得られた類似度とをもとに種対応に隣接す
る画素あるいは領域対の対応信頼度を算出する隣接対応
信頼度算出ステップを有することを特徴とする33.に
記載の画像間対応探索方法。
34. The adjacent correspondence determination step is a similarity calculation reliability calculation step of calculating the reliability of the calculation of the similarity obtained in the similarity calculation step while considering the classification information obtained in the image area classification step, Based on the reliability of the calculation of the similarity obtained in the similarity calculation reliability calculation step, the classification information obtained in the image area classification step, and the similarity obtained in the similarity calculation step 33. An adjacent correspondence reliability calculating step of calculating the correspondence reliability of a pixel or an area pair adjacent to the kind correspondence. 2. The method for searching for correspondence between images according to item 1.

【0098】35.前記類似度計算信頼度算出ステップ
において得られた類似度の計算の信頼度が、1)前記類
似度計算ステップにおいて得られた類似度のピークのユ
ニークさ、または2)前記類似度計算ステップにおいて
得られた類似度のピークの幅、または3)前記類似度計
算ステップにおいて得られた類似度のピークの2次微
分、または4)前記類似度計算ステップにおいて得られ
た類似度の和または5)注目画素近傍のテクスチャパラ
メータ、または6)雑音の分散のうち少なくとも一つで
あることを特徴とする34.に記載の画像間対応探索方
法。
35. The reliability of the similarity calculation obtained in the similarity calculation reliability calculation step is 1) the uniqueness of the peak of the similarity obtained in the similarity calculation step, or 2) the uniqueness of the similarity calculation step. The width of the similarity peak obtained, or 3) the second derivative of the similarity peak obtained in the similarity calculation step, or 4) the sum of the similarity obtained in the similarity calculation step, or 5) the notice. 34. It is at least one of a texture parameter near a pixel and 6) a variance of noise. 2. The method for searching for correspondence between images according to item 1.

【0099】36.前記対応信頼度算出ステップにより
得られる対応の信頼度が、1)前記種対応格納ステップ
に格納された対応の視差の滑らかさ、または2)前記種
対応格納ステップに格納された対応の視差の2次微分、
または3)前記類似度計算ステップにおいて得られた類
似度のピークのユニークさ、または4)前記類似度計算
ステップにおいて得られた類似度のピークの幅、または
5)注目画素近傍のテクスチャパラメータのうち少なく
とも一つであることを特徴とする34.に記載の画像間
対応探索方法。
36. The reliability of the correspondence obtained by the correspondence reliability calculation step is 2) the smoothness of the corresponding parallax stored in the species correspondence storage step, or 2) the corresponding parallax stored in the species correspondence storage step. Second derivative,
Or 3) the uniqueness of the similarity peak obtained in the similarity calculation step, or 4) the width of the similarity peak obtained in the similarity calculation step, or 5) the texture parameter in the vicinity of the target pixel. 34. characterized by at least one 2. The method for searching for correspondence between images according to item 1.

【0100】B.以下に上記した発明19.〜 36.
の効果及び対応する実施形態について説明する。
B. The invention described below 19. ~ 36.
Effects and corresponding embodiments will be described.

【0101】19.によれば、類似度計算ステップにお
ける類似度計算や、対応探索ステップにおける対応探索
において、注目画素近傍だけでなく、画像領域分類ステ
ップにおいて得られた分類情報も用いることによって、
類似度計算の高効率化、対応の高信頼化が実現できる。
また、19.は上記した第1実施形態に対応する。
19. According to the similarity calculation in the similarity calculation step and the correspondence search in the correspondence search step, by using not only the vicinity of the target pixel but also the classification information obtained in the image area classification step,
High efficiency of the similarity calculation and high reliability of the correspondence can be realized.
Also, 19. Corresponds to the first embodiment described above.

【0102】20.によれば、対応探索を行う際に、画
像領域分類ステップにおいて得られた分類情報をもとに
構成初期種対応生成ステップにより対応信頼度の高い対
応を種対応として求め、種対応をもとに対応探索を行う
ことにより、対応の高信頼化が実現できる。また、2
0.は上記した第2実施形態に対応する。
20. According to the above, when performing a correspondence search, a correspondence with high correspondence reliability is obtained as a seed correspondence by a configuration initial kind correspondence generation step based on the classification information obtained in the image area classification step, and based on the seed correspondence. By performing the correspondence search, high reliability of the correspondence can be realized. Also, 2
0. Corresponds to the above-described second embodiment.

【0103】21.は上記した第1実施形態に対応す
る。
21. Corresponds to the first embodiment described above.

【0104】22.は上記した第1実施形態に対応す
る。
22. Corresponds to the first embodiment described above.

【0105】23.は上記した第1実施形態に対応す
る。
23. Corresponds to the first embodiment described above.

【0106】24.は上記した第1実施形態に対応す
る。
24. Corresponds to the first embodiment described above.

【0107】25.は上記した第1実施形態に対応す
る。
25. Corresponds to the first embodiment described above.

【0108】26.は上記した第1実施形態に対応す
る。
26. Corresponds to the first embodiment described above.

【0109】27.は上記した第1実施形態に対応す
る。
27. Corresponds to the first embodiment described above.

【0110】28.によれば、画像領域分類ステップに
おいて得られた分類情報をもとに類似度計算実行判定ス
テップによって、信頼性のある類似度が得られるかどう
かの判定を行い、その結果信頼性のある類似度が計算で
きると判定された画素あるいは領域に対してのみ、類似
度計算実行ステップにて類似度の計算を行うことによ
り、類似度の計算が高速化される。さらに信頼性のない
類似度に関しては対応探索が実行されないため、初期種
対応生成ステップ、対応探索ステップにおいて誤対応が
減少する。また、28.は上記した第3実施形態に対応
する。
28. According to the method, a similarity calculation execution determination step determines whether or not a reliable similarity can be obtained based on the classification information obtained in the image region classification step, and as a result, a reliable similarity By calculating the similarity in the similarity calculation execution step only for the pixels or regions for which it has been determined that can be calculated, the calculation of the similarity is speeded up. Further, since the correspondence search is not executed for the unreliable similarity, erroneous correspondence is reduced in the initial type correspondence generation step and the correspondence search step. 28. Corresponds to the third embodiment described above.

【0111】29.は上記した第3実施形態に対応す
る。
29. Corresponds to the third embodiment described above.

【0112】30.によれば、画像領域分類ステップに
おいて得られた分類情報と類似度計算ステップにおいて
得られた類似度をもとに初期種対応生成ステップにおい
て得られた初期種対応に隣接する画素あるいは領域対の
対応信頼度を算出し、その信頼度をもとに対応を判定
し、新たに種対応として格納し、その新たな種対応に関
して同様な処理を行い、伝播的に対応を探索していくよ
うにしたので、初期種対応周辺の対応の信頼性が保証さ
れ、全体として対応の高信頼化が実現できる。また、3
0.は上記した第4実施形態に対応する。
30. According to the above, the correspondence between the pixel or region pair adjacent to the initial type correspondence obtained in the initial type correspondence generation step based on the classification information obtained in the image area classification step and the similarity obtained in the similarity calculation step The reliability is calculated, the correspondence is determined based on the reliability, stored as a new species correspondence, the same processing is performed for the new species correspondence, and the correspondence is searched for in a propagation manner. Therefore, the reliability of the response in the vicinity of the initial type response is guaranteed, and the reliability of the response as a whole can be improved. Also, 3
0. Corresponds to the fourth embodiment described above.

【0113】31.によれば、画像領域分類ステップに
おいて得られた分類情報と類似度計算ステップにおいて
得られた類似度をもとに類似度計算信頼度算出ステップ
において類似度の信頼度を算出し、隣接対応信頼度算出
ステップにおいて類似度の信頼度を考慮しながら対応を
探索することによって、対応の高信頼化が実現できる。
また、32.は上記した第6実施形態に対応する。
31. According to the method, the reliability of the similarity is calculated in the similarity calculation reliability calculation step based on the classification information obtained in the image region classification step and the similarity obtained in the similarity calculation step, and the adjacent correspondence reliability is calculated. By searching for a correspondence in consideration of the reliability of the similarity in the calculation step, the reliability of the correspondence can be improved.
32. Corresponds to the sixth embodiment described above.

【0114】32.は上記した第6実施形態に対応す
る。
32. Corresponds to the sixth embodiment described above.

【0115】33.によれば、画像領域分類ステップに
おいて得られた分類情報と種対応格納ステップに格納さ
れた対応と類似度計算ステップにおいて得られた類似度
をもとに対応信頼度算出ステップにおいて種対応格納ス
テップに格納された対応の信頼度を算出し、対応の信頼
度をもとに対応再探索ステップにおいて再度対応探索す
るようにしたので、未対応領域、誤対応領域を減少さ
せ、対応の高信頼化、高精度化を実現することができ
る。また、33.は上記した第5実施形態に対応する。
33. According to the classification information obtained in the image area classification step and the correspondence stored in the species correspondence storage step and the similarity obtained in the similarity calculation step, the correspondence reliability calculation step in the species correspondence storage step The reliability of the stored correspondence is calculated, and the correspondence is searched again in the correspondence re-searching step based on the reliability of the correspondence. Higher accuracy can be realized. 33. Corresponds to the fifth embodiment described above.

【0116】34.によれば、画像領域分類ステップに
おいて得られた分類情報と類似度計算ステップにおいて
得られた類似度をもとに類似度計算信頼度算出ステップ
において類似度の信頼度を算出し、隣接対応信頼度算出
ステップにおいて算出された類似度の信頼性を考慮しな
がら探索するようにしたので、対応の高信頼化が実現で
きる。また、34.は上記した第6実施形態に対応す
る。
34. According to the method, the reliability of the similarity is calculated in the similarity calculation reliability calculation step based on the classification information obtained in the image region classification step and the similarity obtained in the similarity calculation step, and the adjacent correspondence reliability is calculated. Since the search is performed in consideration of the reliability of the similarity calculated in the calculation step, the corresponding high reliability can be realized. 34. Corresponds to the sixth embodiment described above.

【0117】35.は上記した第6実施形態に対応す
る。
35. Corresponds to the sixth embodiment described above.

【0118】36.は上記した第5実施形態に対応す
る。
36. Corresponds to the fifth embodiment described above.

【0119】[0119]

【発明の効果】本発明によれば、より正確でかつより信
頼度の高い方法で密な対応を効率的に求めることができ
る画像間対応探索方法を提供することができる。
According to the present invention, it is possible to provide a method for searching for a correspondence between images, which can efficiently obtain a dense correspondence by a more accurate and more reliable method.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態を説明するための構成図
である。
FIG. 1 is a configuration diagram for explaining a first embodiment of the present invention.

【図2】レクティフイケーション前の2枚の画像と、そ
の処理において得られた2枚の画像を模式的に表した図
である。
FIG. 2 is a diagram schematically showing two images before rectification and two images obtained in the processing.

【図3】類似度D3を画像の縦横方向(u,v)と視差
方向(d)の3次元に配列したようすを示す図である。
FIG. 3 is a diagram showing how similarities D3 are arranged in three dimensions in the vertical and horizontal directions (u, v) and the parallax direction (d) of an image.

【図4】本発明の第2実施形態を説明するための構成図
である。
FIG. 4 is a configuration diagram for explaining a second embodiment of the present invention.

【図5】初期種対応を用いた対応の探索を模式的に表し
たようすを示す図である。
FIG. 5 is a diagram schematically illustrating a search for a correspondence using an initial kind correspondence.

【図6】本発明の第3実施形態を説明するための構成図
である。
FIG. 6 is a configuration diagram for explaining a third embodiment of the present invention.

【図7】本発明の第4実施形態を説明するための構成図
である。
FIG. 7 is a configuration diagram for explaining a fourth embodiment of the present invention.

【図8】本発明の第5実施形態を説明するための構成図
である。
FIG. 8 is a configuration diagram for explaining a fifth embodiment of the present invention.

【図9】本発明の第6実施形態を説明するための構成図
である。
FIG. 9 is a configuration diagram for explaining a sixth embodiment of the present invention.

【符号の説明】 1 画像入力手段 2 画像領域分類手段 3 類似度計算手段 4 対応探索手段 5 初期種対応生成手段 301 類似度計算実行判定手段 302 類似度計算実行手段 401 隣接対応判定手段 402 種対応格納手段 403 対応信頼度算出手段 404 対応再探索手段 4011 類似度計算信頼度判定手段 4012 隣接対応信頼度算出手段[Description of Signs] 1 Image input means 2 Image area classification means 3 Similarity calculation means 4 Correspondence search means 5 Initial type correspondence generation means 301 Similarity calculation execution determination means 302 Similarity calculation execution means 401 Adjacent correspondence determination means 402 types correspondence Storage means 403 Correspondence reliability calculation means 404 Correspondence re-search means 4011 Similarity calculation reliability determination means 4012 Adjacent correspondence reliability calculation means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA51 DD06 FF05 JJ03 JJ05 JJ26 QQ13 QQ24 QQ26 QQ27 QQ28 QQ33 QQ34 QQ38 QQ41 QQ42 5B057 BA11 CE05 DA20 DB06 DB09 DC02 DC32 5L096 CA05 EA06 FA32 FA33 FA34 GA03 GA55 JA03 9A001 BB02 FF03 HH23  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA51 DD06 FF05 JJ03 JJ05 JJ26 QQ13 QQ24 QQ26 QQ27 QQ28 QQ33 QQ34 QQ38 QQ41 QQ42 5B057 BA11 CE05 DA20 DB06 DB09 DC02 DC32 5L096 CA05 EA06 FA32 FA33 FA03 FA03 FA03 FA03

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 視点の異なる複数の画像間の対応を探索
する画像間対応探索方法であって、 視点の異なる複数の画像を入力する入力ステップと、 上記入力した複数の画像の各々について、画像内の画素
又は領域を所定の性質によって分類する分類ステップ
と、 上記分類の結果を利用して、上記入力画像間の各画素又
は各領域ごとの類似度を求めて対応する画素対又は領域
対を探索する探索ステップとを有することを特徴とする
画像間対応探索方法。
1. An image correspondence search method for searching for a correspondence between a plurality of images having different viewpoints, comprising: an input step of inputting a plurality of images having different viewpoints; And a classification step of classifying the pixels or regions in a predetermined property according to a predetermined property.Using the result of the classification, the similarity of each pixel or each region between the input images is obtained, and a corresponding pixel pair or region pair A search step for searching.
【請求項2】 上記探索ステップは、 上記分類の結果と上記探索ステップ中で求めた類似度よ
り、対応信頼度の高い画素対又は領域対を初期種対応と
して求めるステップを有し、 この初期種対応を利用して、対応する画素対又は領域対
を探索することを特徴とする請求項1記載の画像間対応
探索方法。
2. The method according to claim 1, wherein the searching step includes a step of obtaining a pixel pair or a region pair having high correspondence reliability as an initial type correspondence from the result of the classification and the similarity obtained in the searching step. 2. The method according to claim 1, wherein the correspondence is used to search for a corresponding pixel pair or region pair.
【請求項3】 上記探索ステップにおいて上記分類の結
果を利用するとは、上記分類の結果に基づいて選択され
た画素又は領域を処理対象より除外することであること
を特徴とする請求項1記載の画像間対応探索方法。
3. The method according to claim 1, wherein using the result of the classification in the search step includes excluding a pixel or an area selected based on the result of the classification from processing targets. Inter-image correspondence search method.
JP2000055789A 2000-03-01 2000-03-01 Inter-image correspondence searching method Pending JP2001243451A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000055789A JP2001243451A (en) 2000-03-01 2000-03-01 Inter-image correspondence searching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000055789A JP2001243451A (en) 2000-03-01 2000-03-01 Inter-image correspondence searching method

Publications (1)

Publication Number Publication Date
JP2001243451A true JP2001243451A (en) 2001-09-07

Family

ID=18576853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000055789A Pending JP2001243451A (en) 2000-03-01 2000-03-01 Inter-image correspondence searching method

Country Status (1)

Country Link
JP (1) JP2001243451A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028662A (en) * 2009-07-29 2011-02-10 Sony Corp Image processing device, image pickup device, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241410A (en) * 1995-03-07 1996-09-17 Oki Electric Ind Co Ltd Corresponding point searching device and method
JPH08285587A (en) * 1995-04-13 1996-11-01 Mitsui Constr Co Ltd Photographic surveying method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241410A (en) * 1995-03-07 1996-09-17 Oki Electric Ind Co Ltd Corresponding point searching device and method
JPH08285587A (en) * 1995-04-13 1996-11-01 Mitsui Constr Co Ltd Photographic surveying method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028662A (en) * 2009-07-29 2011-02-10 Sony Corp Image processing device, image pickup device, image processing method, and program

Similar Documents

Publication Publication Date Title
US11562498B2 (en) Systems and methods for hybrid depth regularization
CN101512601B (en) Method for determining a depth map from images, device for determining a depth map
Kamencay et al. Improved Depth Map Estimation from Stereo Images Based on Hybrid Method.
US20110176722A1 (en) System and method of processing stereo images
KR100745691B1 (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
CN109086724B (en) Accelerated human face detection method and storage medium
CN104685513A (en) Feature based high resolution motion estimation from low resolution images captured using an array source
EP1442614A1 (en) Method and apparatus for image matching
CN111160291B (en) Human eye detection method based on depth information and CNN
CN106530407A (en) Three-dimensional panoramic splicing method, device and system for virtual reality
US6480620B1 (en) Method of and an apparatus for 3-dimensional structure estimation
Stentoumis et al. A local adaptive approach for dense stereo matching in architectural scene reconstruction
CN110458857A (en) Central symmetry pel detection method, device, electronic equipment and readable storage medium storing program for executing
Mukherjee et al. A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision
Chen et al. Range image segmentation for modeling and object detection in urban scenes
Wietrzykowski et al. Stereo plane R-CNN: Accurate scene geometry reconstruction using planar segments and camera-agnostic representation
CN106446832B (en) Video-based pedestrian real-time detection method
CN110717910B (en) CT image target detection method based on convolutional neural network and CT scanner
JPH05215547A (en) Method for determining corresponding points between stereo images
Borisagar et al. A novel segment-based stereo matching algorithm for disparity map generation
JP2001153633A (en) Stereoscopic shape detecting method and its device
CN106056599B (en) A kind of object recognition algorithm and device based on Object Depth data
CN109063543A (en) A kind of video frequency vehicle recognition methods, system and device again considering local deformation
Xiao et al. A segment-based stereo matching method with ground control points
JP2001243451A (en) Inter-image correspondence searching method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525