JPH06265322A - Method for detecting parallax error from a plurality of images - Google Patents

Method for detecting parallax error from a plurality of images

Info

Publication number
JPH06265322A
JPH06265322A JP5050899A JP5089993A JPH06265322A JP H06265322 A JPH06265322 A JP H06265322A JP 5050899 A JP5050899 A JP 5050899A JP 5089993 A JP5089993 A JP 5089993A JP H06265322 A JPH06265322 A JP H06265322A
Authority
JP
Japan
Prior art keywords
line
parallax
image
occlusion part
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5050899A
Other languages
Japanese (ja)
Inventor
Katsuhiko Mori
克彦 森
Katsumi Iijima
克己 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5050899A priority Critical patent/JPH06265322A/en
Publication of JPH06265322A publication Critical patent/JPH06265322A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE:To detect the parallax error of the entire region of an image by estimating the corresponding point at an occlusion part even if the occlusion part is generated. CONSTITUTION:In S11, the corresponding points of a plurality of images obtained by a plurality of image-pickup systems are extracted to obtain a parallax line. In S12, it is judged whether the parallax line includes an occlusion part or not. In S13, it is judged whether each line which is cut by the occlusion part indicates a same object or not when the occlusion part is included. In S15, the occlusion part is smoothly interpolated for connecting the parallax line smoothly when it is judged that each line indicates the same object. On the other hand, in S14, only the lines indicating the objects in front of each image pick-up system are extended and lines are interpolated when it is judged that each line does not indicate the same object. In this case, the parallax line at the occlusion part is not connected smoothly.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の撮像系により撮
像された複数の画像からの対応点抽出処理方法、すなわ
ち視差検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of extracting corresponding points from a plurality of images picked up by a plurality of image pickup systems, that is, a parallax detecting method.

【0002】[0002]

【従来の技術】従来、複数の撮像系により撮像された複
数の画像からの対応点抽出方法の代表的なものとして
は、テンプレートマッチング法と、視覚の処理に基づく
協調アルゴリズムとがある。
2. Description of the Related Art Conventionally, there are a template matching method and a collaborative algorithm based on visual processing as typical methods of extracting corresponding points from a plurality of images picked up by a plurality of image pickup systems.

【0003】テンプレートマッチング法は、左撮像系と
右撮像系とを有する複眼撮像を考え、左撮像系により左
画像が撮像され、右撮像系により右画像が撮像されると
した場合、例えば左画像中のある1点を囲むテンプレー
トを考え、そのテンプレートの画像に対する右画像中で
の類似性を比較することによって、対応点を決定するも
のである。なお、類似性の比較には、以下に示す二通り
の方法がる。
The template matching method considers compound-eye imaging having a left imaging system and a right imaging system, and if the left imaging system captures a left image and the right imaging system captures a right image, for example, a left image. A corresponding point is determined by considering a template surrounding a certain point in the inside and comparing the similarity in the right image with the image of the template. There are two methods for comparing the similarities.

【0004】(a)SSDA法(Sequential Similarity
Detection Algorithm) SSDA法は、以下の(1)式で示すように、左画像の
エピポーラライン上の全ての画素及び右画像のエピポー
ラライン上の全ての画素に対して、左画像のテンプレー
ト内の画像中の画素値と探索する右画像中の画素値との
差を加算して、得られた和E(x,y)が最小値になる
座標を対応点の座標とするものである。
(A) SSDA method (Sequential Similarity)
Detection Algorithm) In the SSDA method, as shown in the following equation (1), for all pixels on the epipolar line of the left image and all pixels on the epipolar line of the right image, the image in the template of the left image The difference between the pixel value in the inside and the pixel value in the right image to be searched for is added, and the coordinate at which the obtained sum E (x, y) becomes the minimum value is used as the coordinate of the corresponding point.

【0005】[0005]

【数1】 SSDA法では、今までに計算した他の座標における最
小値よりも計算中の画素値の差の和が大きくなった場合
には、計算を中止して次の座標に移動してもよいため、
余分な計算をなくして計算時間を短縮することができ
る。
[Equation 1] In the SSDA method, if the sum of the differences in the pixel values being calculated becomes larger than the minimum value at other coordinates calculated up to now, the calculation may be stopped and the coordinates may be moved to the next coordinate.
The calculation time can be shortened by eliminating extra calculation.

【0006】(b)相関法 相関法は、以下の(2)式に示すように、左画像のテン
プレート内の画像中の画素値と探索する右画像中の画素
値との相互相関をとることにより相関値ρ(x,y)を
求めて、求めた相関値ρ(x,y)が最大値となる座標
を対応点の座標とするものである。
(B) Correlation Method The correlation method is to obtain the cross-correlation between the pixel value in the image in the template of the left image and the pixel value in the right image to be searched, as shown in the following equation (2). Then, the correlation value ρ (x, y) is obtained in accordance with, and the coordinate at which the obtained correlation value ρ (x, y) becomes the maximum value is used as the coordinate of the corresponding point.

【0007】[0007]

【数2】 なお、(2)式に示した正規化相互相関では、最大値は
“1”となる。
[Equation 2] In the normalized cross-correlation shown in equation (2), the maximum value is "1".

【0008】次に、協調アルゴリズムについて説明す
る。
Next, the cooperation algorithm will be described.

【0009】David Marrにより提案された協調アルゴリ
ズムは、以下に示す3つの規則を用いて視差ラインを得
るアルゴリズムである(D. Marr, Vision: A Computatio
nalInvestigation into the Human Representation and
Processing of VisualInformation, W. H. Freeman &
Co., San Francisco Calif., 1982) 。 規則1(適合性)‥‥‥黒点は黒点とのみ整合し得る。 規則2(一意性)‥‥‥殆ど常に、一つの画像の一つの
黒点は、他方の画像の唯一の黒点と整合し得る。 規則3(連続性)‥‥‥整合する点の視差は、殆ど全域
で滑らかに変化する。
The cooperative algorithm proposed by David Marr is an algorithm for obtaining a parallax line using the following three rules (D. Marr, Vision: A Computatio
nalInvestigation into the Human Representation and
Processing of Visual Information, WH Freeman &
Co., San Francisco Calif., 1982). Rule 1 (Compatibility) ... Black dots can only match black dots. Rule 2 (Uniqueness) ... Almost always one black dot in one image can match the only black dot in the other image. Rule 3 (Continuity) The parallax of matching points changes smoothly in almost all areas.

【0010】協調アルゴリズムを実現する対応点抽出装
置は、Marrによると、多くの処理装置が並列にかつ相互
に結合されたネットワークを形成してなるものであり、
図18の(a)に示すグラフの各交点または節点に、小
さな処理装置がそれぞれ置かれる。もし節点が黒点の正
しい対を表すならば、該節点に置かれた処理装置は最終
的に値“1”をもち、一方、もしそれが正しくない対
(誤標的)を表すならば、該処理装置は値“0”をも
つ。
According to Marr, the corresponding point extracting device for realizing the cooperative algorithm is a network in which many processing devices are connected in parallel to each other,
A small processor is placed at each intersection or node of the graph shown in FIG. If the node represents a correct pair of black dots, the processor placed at the node will eventually have the value "1", while if it represents an incorrect pair (false target), the process The device has the value "0".

【0011】規則2から、ただ1つの対応が水平または
垂直の線に沿って許される。そこで、各水平または垂直
の線に沿った節点に置かれた処理装置は全て、互いに抑
制し合うようにする。これは各線に沿った競合の結果、
ただ一つの処理装置が値“1”として生き残り、他の処
理装置の値を全て“0”にすることで、規則2を満足し
ようという考え方によるものである。
From Rule 2, only one correspondence is allowed along a horizontal or vertical line. Thus, all processors placed at the nodes along each horizontal or vertical line are constrained to each other. This is the result of competition along each line,
This is because only one processor survives as a value "1" and all other processors have a value "0" to satisfy the rule 2.

【0012】規則3によれば、正しい対は破線に沿って
存在しやすいので、この方向に並ぶ処理装置間に、興奮
性の結合を挿入する。これは、各局所的な処理装置に図
18の(b)に示すような構造を与える。すなわち、両
眼からの視線に対応する水平の線201および垂直の線
202に沿う処理装置には抑制性結合をかけ、視差一定
の線に対応する斜めの線203に沿う処理装置には興奮
性結合をかける。このアルゴリズムは二次元の画像に応
用することができる。その場合は、図18の(c)に示
すように、抑制性結合はそのままで、興奮性結合が視差
一定の二次元の微小近傍204にかかるようにする。
According to Rule 3, the correct pair is likely to lie along the dashed line, so that an excitatory coupling is inserted between the processors aligned in this direction. This gives each local processing device a structure as shown in FIG. That is, the inhibitory coupling is applied to the processing devices along the horizontal line 201 and the vertical line 202 corresponding to the line of sight from both eyes, and the excitability is applied to the processing device along the oblique line 203 corresponding to the line with constant parallax. Apply a bond. This algorithm can be applied to two-dimensional images. In that case, as shown in FIG. 18C, the excitatory connection is applied to the two-dimensional minute neighborhood 204 with a constant parallax while the inhibitory connection remains unchanged.

【0013】かかる対応点抽出装置では、左画像と右画
像とをそれぞれ撮り、二つの黒点が整合する所(誤標的
も含めて全て)は“1”を与えて他は全て“0”を与え
ることにより、処理装置のネットワークに負荷を加えた
のち、ネットワークを走らせる。各処理装置は興奮性近
傍の“1”を合計し、抑制性近傍の“1”を合計する。
そして、一方の合計に適当な重みをかけたのち、結果の
数値を引き算する。もし結果がある閾値を超えればその
処理装置は値“1”にセットされ、もしそうでなければ
その処理装置は“0”にセットされる。形式的に、この
アルゴリズムは、次の(3)式に示す反復関係によって
表される。
In such a corresponding point extracting device, the left image and the right image are respectively taken, and "1" is given where the two black points match (all including the false target), and "0" is given for all the others. As a result, the network of the processing device is loaded and then the network is run. Each processor sums "1" s in the excitatory neighborhood and "1" s in the inhibitory neighborhood.
Then, after applying an appropriate weight to one of the totals, the resulting numerical values are subtracted. If the result exceeds a certain threshold then the processor is set to the value "1", otherwise the processor is set to "0". Formally, this algorithm is represented by the iterative relationship shown in equation (3) below.

【0014】[0014]

【数3】 ここで、[Equation 3] here,

【0015】[0015]

【外1】 は、図18の(a)に示したネットワークにおける位置
(x,y)、視差d、及び時間tに対応する細胞の状態
を示す。S(x,y,d)は局所的興奮性近傍、O
(x,y,d)は抑制性近傍である。εは抑制定数であ
り。σは閾値関数である。初期状態Co は、定められた
視差範囲内で、誤標的を含む可能な対を全て含んでい
る。ここで、それは各繰り返しごとに加えられる(そう
する必要はないが、こうするとアルゴリズムがより速く
収束する)。
[Outer 1] Shows the state of cells corresponding to position (x, y), parallax d, and time t in the network shown in FIG. S (x, y, d) is the local excitability neighborhood, O
(X, y, d) is near inhibitory. ε is the inhibition constant. σ is a threshold function. The initial state C o contains all possible pairs containing false targets within the defined parallax range. Here it is added each iteration (though it need not be, but this will cause the algorithm to converge faster).

【0016】[0016]

【発明が解決しようとする課題】しかしながら、上述し
た従来の対応点抽出方法においては、複数の撮像系で立
体物を撮像した際に、一方の撮像系では撮像されている
が他方の撮像系では撮像されていない部分すなわちオク
ルージョン部が生じる場合があり、このオクルージョン
部においては対応点が抽出されない、つまり視差が検出
不可能であるるという問題点があった。
However, in the above-mentioned conventional corresponding point extraction method, when a three-dimensional object is imaged by a plurality of image pickup systems, one of the image pickup systems takes an image, while the other image pickup system takes an image. There is a problem that a part that is not imaged, that is, an occlusion part may occur, and in this occlusion part, corresponding points are not extracted, that is, parallax cannot be detected.

【0017】そこで本発明は、オクルージョン部が生じ
ても、オクルージョン部での対応点を推定して画像全域
の視差を検出可能な、複数画像からの視差検出方法を提
供することを目的とする。
Therefore, an object of the present invention is to provide a parallax detection method from a plurality of images, which can detect the parallax in the entire image by estimating the corresponding points in the occlusion part even if the occlusion part occurs.

【0018】[0018]

【課題を解決するための手段】上記目的を達成するため
本発明の複数画像からの視差検出方法は、それぞれ複数
の撮像系で同一物体を撮像することにより得られた複数
の画像から、一つの画像中の任意の点に対する他の画像
中の対応点を抽出する、複数画像からの視差検出方法に
おいて、前記対応点の抽出を行なえずにオクルージョン
部となる部位が存在する場合には、前記対応点の抽出が
行なわれている部位の視差を表わす線または面の形状に
基づいて前記物体の形状を推定し、前記オクルージョン
部の補間処理を行なうことを特徴とする。
In order to achieve the above object, a method of detecting parallax from a plurality of images according to the present invention provides a method for obtaining a single image from a plurality of images obtained by imaging the same object with a plurality of imaging systems. Extracting a corresponding point in another image with respect to an arbitrary point in an image, in a parallax detection method from a plurality of images, if there is a part that becomes an occlusion part without extracting the corresponding point, the corresponding It is characterized in that the shape of the object is estimated based on the shape of the line or the surface representing the parallax of the portion where the points are extracted, and the occlusion section is interpolated.

【0019】また、前記視差を表す線または面の形状か
ら前記物体が一つの物体か否かを判断し、前記物体が一
つの物体であると判断された場合には前記オクルージョ
ン部を滑らかな線で補間し、前記物体が複数の物体であ
ると判断された場合には、前記撮像系に対して手前に存
在する物体の視差を表わす線または面の形状を延長して
前記オクルージョン部を補間してもよい。。
Further, it is judged from the shape of the line or surface representing the parallax whether or not the object is a single object, and if it is judged that the object is a single object, the occlusion part is made into a smooth line. If it is determined that the object is a plurality of objects, the shape of a line or a surface representing the parallax of the object existing in front of the imaging system is extended to interpolate the occlusion part. May be. .

【0020】そして、前記視差を表わす線または面の形
状は、前記視差を表わす線または面の曲率を用いること
ができる。
The shape of the line or surface representing the parallax may be the curvature of the line or surface representing the parallax.

【0021】[0021]

【作用】上記のとおり構成された本発明では、対応点の
抽出を行なえずにオクルージョン部となる部位が存在す
る場合には、対応点の抽出が行なわれている部位の視差
を表わす線または面の形状に基づいて物体の形状を推定
し、オクルージョン部の補間処理を行なうことで、対応
点が抽出できないオクルージョン部が存在してもオクル
ージョン部における対応点が抽出され、各画像のオーバ
ーラップ部の全ての領域における対応点の抽出、すなわ
ち視差検出が可能となる。
In the present invention configured as described above, when the corresponding points cannot be extracted and there is a part which becomes the occlusion part, a line or a plane representing the parallax of the part where the corresponding points are extracted is present. By estimating the shape of the object based on the shape of, and performing the interpolation processing of the occlusion part, the corresponding point in the occlusion part is extracted even if the occlusion part where the corresponding point cannot be extracted exists, and the overlap part of each image is It is possible to extract corresponding points in all areas, that is, detect parallax.

【0022】そして、物体の形状の推定は、物体の視差
を表わす線または面の形状により撮像された物体が一つ
か否かを判断し、物体が一つの物体のときにはオクルー
ジョン部を滑らかな線で補間し、複数の物体のときには
撮像系に対して手前に存在する物体の視差を表わす線ま
たは面の形状を延長してオクルージョン部を補間するこ
とにより可能となる。
The shape of the object is estimated by determining whether or not there is one imaged object based on the shape of the line or surface representing the parallax of the object, and when there is only one object, the occlusion part is a smooth line. This can be done by interpolating, and in the case of a plurality of objects, the occlusion part is interpolated by extending the shape of the line or surface representing the parallax of the object existing in front of the imaging system.

【0023】[0023]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0024】(第1実施例)図1は、本発明の複数画素
からの視差検出方法の第1実施例のフローチャートであ
る。本実施例の視差検出方法を簡単に説明すると、ま
ず、複数の撮像系により得られた複数の画像から、従来
の技術で述べた対応点抽出法により各画像の対応点を抽
出し、後述する視差ラインを得る(S11)。そして、
この視差ラインが空白となる部分すなわちオクルージョ
ン部を含むかどうかを判断し(S12)、オクルージョ
ン部を含まない場合には何も処理を施さないが、オクル
ージョン部を含む場合には、オクルージョン部で分断さ
れたそれぞれのラインが同一物体を表わしているものか
どうかを判断する(S13)。ここで、同一物体を表わ
していると判断されたら、オクルージョン部を滑らかな
補間によってうめて視差ラインを滑らかに結ぶ(S1
5)。一方、同一物体を表わしていないと判断された
ら、各撮像系に対して手前にある物体を表わすラインの
みを延長してライン同志を補間する(S14)。このと
き、オクルージョン部での視差ラインは滑らかには結ば
ない。
(First Embodiment) FIG. 1 is a flowchart of a first embodiment of a method for detecting parallax from a plurality of pixels according to the present invention. The parallax detection method of the present embodiment will be briefly described. First, corresponding points of each image are extracted from a plurality of images obtained by a plurality of imaging systems by the corresponding point extraction method described in the related art, and will be described later. A parallax line is obtained (S11). And
It is determined whether or not this parallax line includes a blank portion, that is, an occlusion portion (S12). If no occlusion portion is included, no processing is performed. If an occlusion portion is included, the occlusion portion is used for division. It is determined whether or not the respective lines thus formed represent the same object (S13). If it is determined that they represent the same object, the occlusion part is filled in by smooth interpolation to connect the parallax lines smoothly (S1).
5). On the other hand, if it is determined that they do not represent the same object, only the line representing the object in front of each imaging system is extended to interpolate the lines (S14). At this time, the parallax lines in the occlusion part are not connected smoothly.

【0025】上述した各手順に基づいて、オクルージョ
ン部における対応点抽出すなわち視差検出が行なわれ
る。以下に、上述した各手順について詳細に説明する。
Corresponding point extraction, that is, parallax detection, is performed in the occlusion section based on the above-described procedures. Below, each procedure mentioned above is demonstrated in detail.

【0026】まず、視差ラインという概念について説明
する。
First, the concept of parallax lines will be described.

【0027】本実施例では、例えば図2に示すような、
それぞれ光軸LL 、LR が平行となるように配置された
左撮像系25と右撮像系26とよりなる複眼撮像装置を
考える。各撮像系25、26は、それぞれ撮像素子とし
てCCD等のセンサ(不図示)が備えられている。ま
た、説明を簡単にするため、各撮像系25、26のセン
サにより得られる左画像21および右画像22はそれぞ
れ各撮像系25、26と被写体30との間の位置に示す
とともに、左右各画像21、22上のずれはx方向の一
次元ずれしか存在しないとする。以下の図においても特
にことわりがなければこれに従う。
In this embodiment, for example, as shown in FIG.
Consider a compound-eye imaging device including a left imaging system 25 and a right imaging system 26, which are arranged so that their optical axes L L and L R are parallel to each other. Each of the image pickup systems 25 and 26 is provided with a sensor (not shown) such as a CCD as an image pickup element. In order to simplify the description, the left image 21 and the right image 22 obtained by the sensors of the image pickup systems 25 and 26 are shown at the positions between the image pickup systems 25 and 26 and the subject 30, and the left and right images are shown. It is assumed that the displacements on 21 and 22 are only one-dimensional displacements in the x direction. Unless otherwise specified, the following figures are also followed.

【0028】図2において、被写体20上の点Pと左撮
像系25のレンズ中心23と右撮像系26のレンズ中心
24との3点を結んで生成される平面をエピポーラ面2
9といい、そのエピポーラ面29が、左画像21中を横
切るラインを左のエピポーラライン27、右画像22中
を横切るラインを右のエピポーラライン28という。
In FIG. 2, the epipolar surface 2 is a plane formed by connecting three points P on the object 20, the lens center 23 of the left imaging system 25 and the lens center 24 of the right imaging system 26.
A line whose epipolar plane 29 crosses the left image 21 is called a left epipolar line 27, and a line which crosses the right image 22 is called a right epipolar line 28.

【0029】今は、各撮像系25、26の光軸LL 、L
R が平行な複眼撮像装置について考えているので、この
複眼撮像装置により図3に示すように平面被写体32を
撮像すると、この平面被写体32は各画像21、22中
にひずみなく撮像される。よって、左右のエピポーララ
イン27、28はそれぞれ各画像21、22をx方向に
読み出すことによって得られる。
Now, the optical axes L L and L of the image pickup systems 25 and 26 are used.
Since a compound eye image pickup device in which R is parallel is considered, when the planar object 32 is imaged by this compound eye image pickup device as shown in FIG. 3, the planar object 32 is imaged in each image 21, 22 without distortion. Therefore, the left and right epipolar lines 27 and 28 are obtained by reading the respective images 21 and 22 in the x direction.

【0030】一方、図3に示すように各撮像系25、2
6の光軸LL 、LR が平行でない状態、すなわち各光軸
L 、LR が含まれる平面において各撮像系25、26
のレンズ中心23、24を結ぶ直線に垂直な直線と各光
軸LL 、LR とがある所定の角度(輻輳角)をもって交
わる状態で平面被写体32を撮像した時は、各光軸
L 、LR が平行な場合と同様に撮像しても、この平面
被写体32は各画像21、22中に台形ひずみをもって
撮像される。この場合には、各撮像系25,26の輻輳
角は既知なので一次変換により画像を再配置して、複眼
撮像装置の光軸LL、LR が平行であるときの画像を得
る。これによって左右のエピポーラライン27、28は
再配置された画像のx方向を読み出すことによって得ら
れる。
On the other hand, as shown in FIG.
6 optical axis LL, LRAre not parallel, that is, each optical axis
LL, LRIn the plane including
Line and each light perpendicular to the line connecting the lens centers 23 and 24 of
Axis LL, LRWith a certain angle (convergence angle)
When the flat subject 32 is imaged in different states,
L L, LREven if the images are taken in the same way as when the
The subject 32 has a trapezoidal distortion in each of the images 21 and 22.
It is imaged. In this case, the congestion of each imaging system 25, 26
Since the corners are known, the image is rearranged by the linear transformation and the compound eye
Optical axis L of imaging deviceL, LRGet the image when are parallel
It As a result, the left and right epipolar lines 27, 28
Obtained by reading the x-direction of the repositioned image
Be done.

【0031】上述のようにして得られた左右のエピポー
ラライン27、28を、図5に示すように配置すること
によって得られる画面を視差画面51と呼ぶ。すなわ
ち、左のエピポーラライン27を横軸、右のエピポーラ
ライン28を縦軸とし、左右のエピポーラライン27、
28の左端27a、28aが視差画面51の左下端の点
に対応するように、左右のエピポーラライン27、28
を直交配置することによって得られる画面が視差画面5
1である。
A screen obtained by arranging the left and right epipolar lines 27 and 28 obtained as described above as shown in FIG. 5 is called a parallax screen 51. That is, the left epipolar line 27 is the horizontal axis, the right epipolar line 28 is the vertical axis, and the left and right epipolar lines 27,
The left and right epipolar lines 27, 28 are arranged so that the left ends 27a, 28a of the 28 correspond to the lower left point of the parallax screen 51.
The screen obtained by arranging at right angles is the parallax screen 5.
It is 1.

【0032】ここで、図6に示すように、左右各撮像系
25、26の光軸LL 、LR が平行な複眼撮像装置によ
って、平面視半円柱状の物体61の背景に平板状の物体
62が配置された景色を撮像し、左右各画像からそれぞ
れ得られた左右のエピポーラライン27、28の対応点
を、図5に示した視差画面51上にプロットしていく
と、理想的には図7に示すようなラインを得ることがで
きる。このラインを視差ライン71と呼ぶ。つまりこの
視差ライン71は左右のエピポーラライン13、14の
対応点を示し、同時に視差も示す。
Here, as shown in FIG. 6, a compound eye image pickup device in which the optical axes L L and L R of the left and right image pickup systems 25 and 26 are parallel to each other is used to form a flat plate on the background of the semi-cylindrical object 61 in plan view. Ideally, by capturing the landscape in which the object 62 is arranged and plotting the corresponding points of the left and right epipolar lines 27 and 28 respectively obtained from the left and right images on the parallax screen 51 shown in FIG. Can obtain a line as shown in FIG. This line is called a parallax line 71. That is, the parallax line 71 indicates the corresponding points of the left and right epipolar lines 13 and 14, and also indicates the parallax.

【0033】以下、この視差ライン71についてもう少
し詳しく説明する。左右のエピポーラライン13、14
上で視差が一定の所では、視差画面51上における視差
ライン71は45度右上がりの直線となる。この視差ラ
イン71の変化により左右の画像中の視差変化がわか
る。このことを図8を参照して説明する。図8の(a)
に示すように、左右各撮像系25、26のレンズ中心2
3、24からの奥行きが一定となる位置をそれぞれ同じ
記号☆、★、○、◎で表わし、これを図8の(b)に示
す視差画面51上にプロットすると、視差画面51上で
はそれぞれ同じ記号同志が45右上がりの直線上にプロ
ットされる。また、図8の(a)に一点鎖線で示すよう
な、途中で☆の位置から★の位置に突出する凸状の物体
81を撮像したときに得られる視差ラインは、図8の
(b)に一点鎖線で示すように、☆の示す視差ラインよ
り始まり、途中で★の示す視差ラインに移り、最後に再
び☆の示す視差ラインに戻ることになる。さらに、図8
の(a)、(b)より、視差画面51の右上がりの対角
線は各レンズ中心23、24からの奥行が無限遠の視差
ラインを示すことが理解できる。
The parallax line 71 will be described in more detail below. Left and right epipolar lines 13 and 14
In the place where the parallax is constant above, the parallax line 71 on the parallax screen 51 is a straight line rising 45 degrees to the right. By the change of the parallax line 71, the change of parallax in the left and right images can be known. This will be described with reference to FIG. FIG. 8 (a)
As shown in, the lens center 2 of each of the left and right imaging systems 25 and 26
Positions where the depths from 3 and 24 are constant are represented by the same symbols ☆, ★, ○, and ◎, respectively, and when they are plotted on the parallax screen 51 shown in FIG. The comrades are plotted on a straight line rising 45 to the right. In addition, as shown by the alternate long and short dash line in FIG. 8A, the parallax line obtained when an image of a convex object 81 protruding midway from the star position to the star position is captured is shown in FIG. As indicated by the alternate long and short dash line, it starts from the parallax line indicated by *, moves to the parallax line indicated by * on the way, and finally returns to the parallax line indicated by *. Furthermore, FIG.
From (a) and (b), it can be understood that the diagonal line rising to the right of the parallax screen 51 indicates a parallax line whose depth from each lens center 23, 24 is infinite.

【0034】上述したように、視差ライン71は各レン
ズ中心23、24からの奥行を示している。したがって
図7に示した視差画面51中の右下端の点Aから、視差
画面51中の左上端に向かう矢印の方向に視差ライン7
1を見たとすると、その形状が実際の三次元の景色の物
体配置を表現している。つまり、視差ライン71により
三次元の景色の物体配置を推定することが可能となる。
As described above, the parallax line 71 indicates the depth from each lens center 23, 24. Therefore, from the point A at the lower right corner in the parallax screen 51 shown in FIG. 7 to the upper left corner in the parallax screen 51, the parallax line 7 is drawn.
Looking at 1, the shape represents the actual object arrangement of the three-dimensional landscape. That is, the parallax line 71 makes it possible to estimate the object arrangement of a three-dimensional scene.

【0035】今、図6に示した物体61、62を左右各
撮像系25、26で撮像し、得られた左右各画像の対応
点を、例えば従来の技術で示したテンプレートマッチン
グ法で(別に他の方法でもよい)抽出した結果、図9に
示すように、視差画面51中に、2つの空白領域すなわ
ちオクルージョン部91で分断された3本のライン9
2、93、94を得たとする。これら2つのオクルージ
ョン部91は、左撮像系25では撮像されるが右撮像系
26では撮像されず、また右撮像系26では撮像される
が左撮像系25では撮像されず、対応点が抽出できない
所である。以下に、各オクルージョン部91における対
応点を抽出する方法を示す。
Now, the objects 61 and 62 shown in FIG. 6 are picked up by the left and right image pickup systems 25 and 26, and the corresponding points of the obtained left and right images are determined by the template matching method shown in the prior art (separately). As a result of the extraction, as shown in FIG. 9, in the parallax screen 51, two blank areas, that is, three lines 9 divided by the occlusion section 91 are obtained.
It is assumed that 2, 93, and 94 are obtained. These two occlusion parts 91 are imaged by the left imaging system 25 but not by the right imaging system 26, and by the right imaging system 26 but not by the left imaging system 25, and corresponding points cannot be extracted. It is a place. The method of extracting corresponding points in each occlusion unit 91 will be described below.

【0036】図9において、視差画面51の右下端の点
Bから、得られたライン92、93、94をみると一番
手前にライン93が見える。このラインの意味を考察し
てみる。例えば、図10の(a)に示すように平面視方
形状の物体101の背景に平板状の物体102が配置さ
れている景色を左右各撮像系25、26により撮像した
とき、理想的には図10の(b)の視差画面51中に描
かれた視差ライン103が得られる。また、図11の
(a)に示すように平面視三角形状の物体111の背景
に平板状の物体112が配置されている景色を左右各撮
像系25、26により撮像したとき、理想的には図11
の(b)の視差画面51中に描かれた視差ライン113
が得られる。これらの結果から、視差画面51中に現わ
れる視差ラインの形状は、撮像される物体の形状に類似
するということができ、図9に示したライン93は、円
弧状の形状を有する物体を撮像することにより得られた
ものであると推定することができる。
In FIG. 9, when the obtained lines 92, 93, and 94 are viewed from the point B at the lower right corner of the parallax screen 51, the line 93 can be seen at the forefront. Let's consider the meaning of this line. For example, as shown in FIG. 10A, when a landscape in which a flat object 102 is arranged on the background of an object 101 having a rectangular shape in plan view is imaged by the left and right imaging systems 25 and 26, ideally, The parallax line 103 drawn in the parallax screen 51 of FIG. 10B is obtained. Further, as shown in FIG. 11A, when a landscape in which a flat object 112 is arranged on the background of a triangular object 111 in plan view is imaged by the left and right imaging systems 25 and 26, ideally, Figure 11
(B) Parallax line 113 drawn in the parallax screen 51
Is obtained. From these results, it can be said that the shape of the parallax line appearing in the parallax screen 51 is similar to the shape of the imaged object, and the line 93 shown in FIG. 9 images the object having an arcuate shape. It can be estimated that it was obtained by the above.

【0037】ここで、「一物体の可視表面における視差
は、連続的に変化する。」という仮定を定義すると、こ
の仮定により、図9に示した視差画面51中に発生した
各オクルージョン部91の、ライン92、93、94と
の接続部はできるだけ滑らかな線でつなぐ必要があると
わかる。また、図9中のライン92とライン93との間
のオクルージョン部91において対応点を推定すること
によって得られる、ライン92からの延長線とライン9
3からの延長線とは必ず交点をもつわけであるが、前記
仮定から、ライン92とライン93とが同一物体から得
られたものであれば各延長線は滑らかに結ばなければな
らない。一方、同一物体から得られたものでないならば
各延長線は滑らかに結んではいけない。この同一物体か
否かの判断は、ライン92とライン93の形状から判断
できる。ライン93とライン94との間のオクルージョ
ン部91についても同様である。
Here, if the assumption that "the parallax on the visible surface of one object continuously changes" is defined, this occlusion of each occlusion part 91 generated in the parallax screen 51 shown in FIG. It is understood that it is necessary to connect the connecting portions with the lines 92, 93, 94 with lines that are as smooth as possible. Further, an extension line from the line 92 and the line 9 obtained by estimating the corresponding points in the occlusion section 91 between the line 92 and the line 93 in FIG.
The extension lines from 3 always have intersections, but from the above assumption, if the line 92 and the line 93 are obtained from the same object, the extension lines must be connected smoothly. On the other hand, the extension lines must not be connected smoothly unless they are obtained from the same object. Whether the objects are the same or not can be determined from the shapes of the lines 92 and 93. The same applies to the occlusion portion 91 between the line 93 and the line 94.

【0038】上記のことから、図9中の各オクルージョ
ン部91の対応点を含む、全ての対応点を示す線は、表
している物体ごとのラインを合わせたものだと考えるこ
とができる。また、その線を視差画面51上に関数とし
てグラフ化して表すことができる。つまり、視差ライン
71(図7参照)を、左のエピポーラライン27の画素
の番号を入力値とし、右のエピポーラライン28の画素
の番号を出力値とする関数と考える。すると、各物体を
表すライン毎に関数が存在し、オクルージョン部91の
対応点も含む、全ての対応点を示す視差ライン71の関
数をF、各物体を表す各関数をF1 ,F2 ,・・・,F
k とすると F=F1 +F2 +・・・+Fk (4) と表すことができる。この(4)式中の各関数F1 ,F
2 ・・・,Fk は、視差ライン71が表している物体を
判断することによって得られる。
From the above, it can be considered that the lines showing all the corresponding points including the corresponding points of each occlusion section 91 in FIG. 9 are the lines for each object represented. In addition, the line can be graphed and displayed as a function on the parallax screen 51. That is, the parallax line 71 (see FIG. 7) is considered as a function having the pixel number of the left epipolar line 27 as an input value and the pixel number of the right epipolar line 28 as an output value. Then, there is a function for each line representing each object, the function of the parallax line 71 indicating all corresponding points including the corresponding points of the occlusion unit 91 is F, and each function representing each object is F 1 , F 2 , ..., F
Letting k be F = F 1 + F 2 + ... + F k (4) Each function F 1 , F in this equation (4)
2, ..., F k are obtained by determining the object represented by the parallax line 71.

【0039】以下に図9において、補間された関数Fと
しての視差ライン71を得る方法を示す。この関数Fを
得るためには、幾つかのパラメータが存在する。それ
は、得られているラインの形状、オクルージョン部91
の隙間の大きさ等である。ここで一例として、ラインの
形状を表すパラメータとしてラインの曲率ρを使用す
る。今回は簡単のためこのラインの曲率ρだけでライン
の形状から同一物体か否かの判断をすることにする。ラ
イン93の曲率をρ93、ライン94の曲率をρ94とし、
またライン93を表す関数をF93、ライン94を表す関
数をF94とする。図9から、ライン93の曲率ρ93とラ
イン94の曲率ρ94とは異なるので、ライン93を表す
関数F93とライン94を表す関数F94は違うものと判断
される。そこで関数F93と関数F94とは滑らかに結ばな
い。また、点Bから見たとき、ライン93の方がライン
94よりも手前に存在し、ライン93の表す物体の方が
ライン94の表す物体よりも手前に存在すると判断され
るので、ライン93とライン94との間のオクルージョ
ン部91は、ライン93の形状を延ばすことによって補
間する。その補間されたラインとライン94とは滑らか
には結ばない。ライン92とライン93との間のオクル
ージョン部91においても同様に、ライン93の形状を
延ばすことによって補間し、補間されたラインとライン
92とは滑らかに結ばない。これにより、図7に示した
視差ライン71が得られる。
A method of obtaining the parallax line 71 as the interpolated function F will be described below with reference to FIG. To obtain this function F, there are several parameters. The shape of the obtained line is the occlusion part 91.
Is the size of the gap. Here, as an example, the curvature ρ of the line is used as a parameter representing the shape of the line. For the sake of simplicity this time, it will be decided whether or not the objects are the same from the shape of the line only by the curvature ρ of the line. The curvature of the line 93 is ρ 93 , the curvature of the line 94 is ρ 94 ,
The function representing the line 93 is F 93 , and the function representing the line 94 is F 94 . From FIG. 9, since the curvature ρ 93 of the line 93 and the curvature ρ 94 of the line 94 are different, it is determined that the function F 93 representing the line 93 and the function F 94 representing the line 94 are different. Therefore, the function F 93 and the function F 94 are not connected smoothly. Further, when viewed from the point B, it is determined that the line 93 is present in front of the line 94 and the object represented by the line 93 is present in front of the object represented by the line 94. The occlusion part 91 between the line 94 and the line 94 interpolates by extending the shape of the line 93. The interpolated line and the line 94 are not connected smoothly. Similarly, in the occlusion portion 91 between the line 92 and the line 93, interpolation is performed by extending the shape of the line 93, and the interpolated line and the line 92 are not connected smoothly. As a result, the parallax line 71 shown in FIG. 7 is obtained.

【0040】以上説明したように、オクルージョン部9
1以外で得られるライン92、93、94、およびオク
ルージョン部91の隙間の大きさを基に実際の三次元の
景色の物体配置を推定し、全体の視差ライン71を検出
することで、左右各撮像系25、26で撮像された画像
の全域にわたって、対応点抽出つまり視差検出すること
が可能となった。
As described above, the occlusion section 9
By estimating the actual object arrangement of the three-dimensional scene based on the sizes of the gaps between the lines 92, 93, 94 and the occlusion part 91 obtained by other than 1, and detecting the entire parallax line 71, Corresponding point extraction, that is, parallax detection can be performed over the entire area of the images captured by the imaging systems 25 and 26.

【0041】さらに、初めにも述べたように本実施例で
は、説明をわかりやすくするため、左右各画像21、2
2上のずれがセンサのx軸方向にしか存在しないという
一次元ずれのみで考えたが、これに限定するものではな
い。例えば、二次元ずれが生じている画像の場合、今ま
で示した方法でx方向の一次元ずれを検出した後、セン
サのy方向に信号を読み出してx方向と同様にy方向の
ずれを検出し、x,y各方向のずれを合成することによ
り、二次元ずれも検出できる。また、二次元ずれを検出
する別の方法として、左右各撮像系25、26で得られ
た左画像21および右画像22を図12に示すように配
置して視差立体111を構成し、その中に従来の技術で
示したテンプレートマッチング法等の対応点抽出法を用
いて得られた対応点をプロットすると、視差ラインが面
になった視差面が得られる。そして、この視差面を基
に、上述した手順と同様な手順でオクルージョン部の視
差を検出することも可能である。また、この方法の改良
版として、全画像を使用するのではなく複数対のエピポ
ーララインを使用して、同様に視差立体121を構成し
て視差面を生成し、同様にオクルージョン部の視差を検
出することも可能である。
Further, as described above, in the present embodiment, in order to make the explanation easy to understand, each of the left and right images 21, 2 is
Although the deviation on 2 exists only in the x-axis direction of the sensor, the one-dimensional deviation is considered, but the invention is not limited to this. For example, in the case of an image having a two-dimensional shift, a one-dimensional shift in the x direction is detected by the method described above, and then a signal is read in the y direction of the sensor to detect the shift in the y direction as in the x direction. However, a two-dimensional shift can also be detected by combining the shifts in the x and y directions. As another method of detecting the two-dimensional shift, the left image 21 and the right image 22 obtained by the left and right imaging systems 25 and 26 are arranged as shown in FIG. When the corresponding points obtained by using the corresponding point extraction method such as the template matching method shown in the related art are plotted, a parallax plane having parallax lines as planes can be obtained. Then, based on this parallax surface, it is also possible to detect the parallax of the occlusion part by the same procedure as the above-mentioned procedure. In addition, as an improved version of this method, a plurality of pairs of epipolar lines are used instead of the entire image, and a parallax solid 121 is similarly configured to generate a parallax plane, and similarly parallax of an occlusion part is detected. It is also possible to do so.

【0042】さらに、図13に示すように、左撮像系2
5および右撮像系26を輻輳角が互いに外向きとなるよ
うに配置させ、左撮像系25および右撮像系26の両方
で撮像可能なオーバラップ部131が撮像範囲の一部に
しかないときも、エピポーララインの再配置を行い、同
様にオーバラップ部131内のオクルージョン部の視差
を検出することが可能である。
Further, as shown in FIG. 13, the left imaging system 2
5 and the right imaging system 26 are arranged so that the vergence angles are directed outwards from each other, and when the overlapping part 131 that can be imaged by both the left imaging system 25 and the right imaging system 26 is only a part of the imaging range, It is possible to rearrange the epipolar lines and similarly detect the parallax of the occlusion part in the overlap part 131.

【0043】左右各撮像系25、26に輻輳角がつく
と、レンズ中心23、24からの奥行が一定の位置での
視差ラインは変化する。例えば、図13に示したように
輻輳角が外向きのときに撮像した物体が、レンズ中心2
3、24からの奥行きが無限遠の所に存在するとした場
合には、図14に破線で示すような弧状の視差ライン1
41が得られる。逆に輻輳角が内向きのときには、輻輳
角がないときの視差ライン71に対して対称となる位置
に一点鎖線で示したような弧状の視差ライン141’が
得られる。輻輳角がついたときの視差ライン141、1
41’の曲率は、輻輳角の大きさに応じて変化する。よ
って、このようにそれぞれ輻輳角がついたときの視差ラ
インの様子がわかっていれば、左右各撮像系25、26
に輻輳角がついたときでも、画像及びエピポーラライン
の再配置を行わなずに輻輳角がないときと同様の処理を
行い、オーバーラップ部131内の全ての視差を検出す
ることは可能である。
When the left and right image pickup systems 25 and 26 have a convergence angle, the parallax line at a position where the depth from the lens centers 23 and 24 is constant changes. For example, as shown in FIG. 13, the object imaged when the vergence angle is outward is the lens center 2
If the depths from 3 and 24 exist at infinity, an arc-shaped parallax line 1 as shown by a broken line in FIG.
41 is obtained. On the contrary, when the vergence angle is inward, an arc-shaped parallax line 141 'as shown by a chain line is obtained at a position symmetrical to the parallax line 71 when there is no vergence angle. Parallax lines 141 and 1 when a convergence angle is attached
The curvature of 41 'changes according to the magnitude of the angle of convergence. Therefore, if the state of the parallax lines when the convergence angles are respectively obtained in this way is known, the left and right imaging systems 25, 26
It is possible to detect all parallax in the overlap part 131 by performing the same processing as when there is no vergence angle without rearranging the image and epipolar line even when the vergence angle is attached to .

【0044】(第2実施例)今、従来の技術で示したテ
ンプレートマッチング法等の対応点抽出法に基づいて、
2つの撮像系で得られた各画像の対応点を抽出して視差
画面上にプロットした結果、図15に示すような、4つ
のオクルージョン部151で分断された5本のライン1
52、153、154、155、156が描かれた視差
画面51を得たとする。そして、図16に示すように、
各ライン152、153、154、155、156をそ
の曲率を維持しつつ延長して滑らかにつながるものと連
結する。これにより図16においては、ライン152と
ライン156とが連結されるとともに、ライン153と
ライン155とが連結され、2つの領域161、162
を形成する。領域161、162はそれぞれ三次元の景
色に配置された物体を示している。
(Second Embodiment) Now, based on the corresponding point extraction method such as the template matching method shown in the prior art,
As a result of extracting the corresponding points of each image obtained by the two imaging systems and plotting them on the parallax screen, five lines 1 divided by four occlusion units 151 as shown in FIG.
It is assumed that the parallax screen 51 in which 52, 153, 154, 155, and 156 are drawn is obtained. Then, as shown in FIG.
Each line 152, 153, 154, 155, 156 is connected while extending its length while maintaining its curvature and connecting smoothly. As a result, in FIG. 16, the line 152 and the line 156 are connected, and the line 153 and the line 155 are connected, so that the two regions 161 and 162 are connected.
To form. Areas 161 and 162 respectively represent objects arranged in a three-dimensional scene.

【0045】このように、各ライン152、153、1
54、155、156の形状とオクルージョン部151
の隙間をパラメータとして、各ライン152、153、
154、155、156を補間することにより各物体を
分離できる。図16に示した視差画面51に、視差画面
51の右下端の点Aより陰線処理を施すことにより、図
17に示すような視差ライン171が得られる。これに
より、2つの撮像系で得られた各画像の視差が検出可能
となる。
In this way, each line 152, 153, 1
54, 155, 156 shapes and occlusion section 151
Of the lines 152, 153,
Each object can be separated by interpolating 154, 155, and 156. The parallax line 171 as shown in FIG. 17 is obtained by performing the hidden line processing on the parallax screen 51 shown in FIG. 16 from the point A at the lower right end of the parallax screen 51. Accordingly, the parallax of each image obtained by the two image pickup systems can be detected.

【0046】以上説明した各実施例では2つの撮像系で
得られた2つの画像についての視差検出の処理について
示したが、撮像系の数はこれに限られるものではなく、
3つ以上であってもよい。
In each of the embodiments described above, the parallax detection processing for two images obtained by the two image pickup systems has been described, but the number of image pickup systems is not limited to this.
There may be three or more.

【0047】[0047]

【発明の効果】以上説明したように本発明によれば、対
応点の抽出が行なわれている部位の視差を表わす線また
は面の形状に基づいて物体の形状を推定し、オクルージ
ョン部の補間処理を行なうことで、物体を複数の撮像系
で撮像した際に生じるオクルージョン部における対応点
抽出つまり視差検出が可能となり、撮像された各画像の
オーバーラップ部の全ての領域にわたって視差を検出す
ることができる。
As described above, according to the present invention, the shape of an object is estimated based on the shape of a line or a surface representing the parallax of the part where the corresponding points are extracted, and the interpolation processing of the occlusion part is performed. By performing the above, it becomes possible to extract corresponding points in the occlusion part, that is, to detect parallax, which occurs when an object is imaged by a plurality of imaging systems. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の複数画像からの視差検出方法の一実施
例のフローチャートである。
FIG. 1 is a flowchart of an embodiment of a parallax detection method from a plurality of images according to the present invention.

【図2】左右2つの撮像系を有する複眼撮像装置により
被写体を撮像したときに得られる左右画像のエピポーラ
ラインを説明するための図である。
FIG. 2 is a diagram for explaining epipolar lines of left and right images obtained when a subject is imaged by a compound-eye imaging device having two left and right imaging systems.

【図3】左右各撮像系の光軸が平行に配置された複眼撮
像装置により平面被写体を撮像したときに得られる左右
画像を示す図である。
FIG. 3 is a diagram showing left and right images obtained when a planar subject is imaged by a compound eye imaging device in which optical axes of left and right imaging systems are arranged in parallel.

【図4】左右各撮像系が輻輳角を有する複眼撮像装置に
より平面被写体を撮像したときに得られる左右画像を示
す図である。
FIG. 4 is a diagram showing left and right images obtained when a flat subject is imaged by a compound eye imaging device in which each of the left and right imaging systems has a convergence angle.

【図5】左右のエピポーララインから構成される視差画
面を示す図である。
FIG. 5 is a diagram showing a parallax screen composed of left and right epipolar lines.

【図6】平面視半円柱状の物体の背景に平板状の物体が
配置された景色を撮像するときの、各物体と左右各撮像
系の配置を示す図である。
FIG. 6 is a diagram showing the arrangement of each object and each of the left and right imaging systems when capturing an image of a landscape in which a flat object is arranged on the background of a semicylindrical object in plan view.

【図7】図6に示した2つの物体を撮像して得られる理
想的な視差ラインを示す視差画面の図である。
7 is a diagram of a parallax screen showing ideal parallax lines obtained by imaging the two objects shown in FIG.

【図8】左右各撮像系のレンズ中心からの奥行きに対す
る視差ラインの変化を説明するための図で、同図(a)
は左右各撮像系に対する位置による左右のエピポーララ
インへの対応を示す図、同図(b)は同図(a)により
得られた視差画面の図である。
FIG. 8 is a diagram for explaining changes in the parallax line with respect to the depth from the lens center of each of the left and right imaging systems, and FIG.
Is a diagram showing the correspondence to the left and right epipolar lines depending on the positions with respect to the left and right imaging systems, and FIG. 11B is a diagram of the parallax screen obtained in FIG.

【図9】オクルージョン部により視差ラインが途切れて
いる、補間前の視差画面の図である。
FIG. 9 is a diagram of a parallax screen before interpolation in which parallax lines are interrupted by an occlusion unit.

【図10】図9に示した視差画面上のラインの意味を考
察するための図で、同図(a)は平面視方形状の物体の
背景に平板状の物体が配置された景色を撮像するとき
の、各物体と左右各撮像系の配置を示す図、同図(b)
は同図(a)に示した2つの物体を撮像して得られる理
想的な視差ラインを示す視差画面の図である。
FIG. 10 is a diagram for considering the meaning of lines on the parallax screen shown in FIG. 9, and FIG. 10 (a) is an image of a landscape in which a flat object is arranged on the background of an object having a rectangular shape in plan view. FIG. 2B is a diagram showing the arrangement of each object and each of the left and right imaging systems when
[Fig. 6] is a diagram of a parallax screen showing ideal parallax lines obtained by imaging the two objects shown in Fig. 14A.

【図11】図9に示した視差画面上のラインの意味を考
察するための図で、同図(a)は平面視三角形状の物体
の背景に平板状の物体が配置された景色を撮像するとき
の、各物体と左右各撮像系の配置を示す図、同図(b)
は同図(a)に示した2つの物体を撮像して得られる理
想的な視差ラインを示す視差画面の図である。
11 is a diagram for considering the meaning of lines on the parallax screen shown in FIG. 9, and FIG. 11A is an image of a landscape in which a flat object is arranged on the background of a triangular object in plan view. FIG. 2B is a diagram showing the arrangement of each object and each of the left and right imaging systems when
[Fig. 6] is a diagram of a parallax screen showing ideal parallax lines obtained by imaging the two objects shown in Fig. 14A.

【図12】左右各画像の二次元ずれを検出する方法の一
例を説明するための図である。
FIG. 12 is a diagram for explaining an example of a method for detecting a two-dimensional shift between left and right images.

【図13】輻輳角が外向きのときの左右各撮像系の配置
を示す図である。
FIG. 13 is a diagram showing the arrangement of left and right imaging systems when the convergence angle is outward.

【図14】輻輳角がないとき、輻輳角が外向きのとき、
および輻輳角が内向きのときの無限遠での視差ラインを
示す視差画面の図である。
FIG. 14: When there is no vergence angle, when the vergence angle is outward,
FIG. 11 is a diagram of a parallax screen showing a parallax line at infinity when the vergence angle is inward.

【図15】本発明の複数画像からの視差検出方法の第2
実施例を説明するための、ある物体を撮像して得られた
補間前の視差ラインを示す視差画面の図である。
FIG. 15 is a second method of detecting parallax from a plurality of images according to the present invention.
FIG. 8 is a diagram of a parallax screen showing parallax lines before interpolation obtained by imaging a certain object, for explaining the embodiment.

【図16】図15に示した各ラインを延長して各ライン
の補間を行なった視差画面の図である。
FIG. 16 is a diagram of a parallax screen in which each line shown in FIG. 15 is extended and each line is interpolated.

【図17】図16に示した視差画面に陰影処理を施して
得られた理想的な視差ラインを示す視差画面の図であ
る。
17 is a diagram of a parallax screen showing ideal parallax lines obtained by performing shading processing on the parallax screen shown in FIG.

【図18】協調アルゴリズムを説明するための図であ
る。
FIG. 18 is a diagram for explaining a cooperation algorithm.

【符号の説明】[Explanation of symbols]

20 被写体 21 左画像 22 右画像 23、24 レンズ中心 25 左撮像系 26 右撮像系 27 左のエピポーラライン 27a、28a 左端 28 右のエピポーラライン 29 エピポーラ面 32 平面被写体 51 視差画面 61、62、81、101、102、111、112
物体 71、103、113、141、141’、171
視差ライン 91、151 オクルージョン部 92、93、94、152、153、154、155、
156 ライン 131 オーバーラップ部 161、162 領域 LL 、LR 光軸
20 subject 21 left image 22 right image 23, 24 lens center 25 left imaging system 26 right imaging system 27 left epipolar line 27a, 28a left edge 28 right epipolar line 29 epipolar surface 32 plane subject 51 parallax screen 61, 62, 81, 101, 102, 111, 112
Objects 71, 103, 113, 141, 141 ', 171
Parallax lines 91, 151 occlusion parts 92, 93, 94, 152, 153, 154, 155,
156 Line 131 Overlap part 161, 162 Region L L , L R Optical axis

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 それぞれ複数の撮像系で同一物体を撮像
することにより得られた複数の画像から、一つの画像中
の任意の点に対する他の画像中の対応点を抽出する、複
数画像からの視差検出方法において、 前記対応点の抽出を行なえずにオクルージョン部となる
部位が存在する場合には、前記対応点の抽出が行なわれ
ている部位の視差を表わす線または面の形状に基づいて
前記物体の形状を推定し、前記オクルージョン部の補間
処理を行なうことを特徴とする、複数画像からの視差検
出方法。
1. A plurality of images, each of which is obtained by imaging the same object with a plurality of imaging systems, extracts a corresponding point in another image with respect to an arbitrary point in one image. In the parallax detection method, when there is a part that becomes an occlusion part without being able to extract the corresponding points, the shape based on the shape of the line or surface representing the parallax of the part where the corresponding points are extracted is A parallax detection method from a plurality of images, characterized by estimating the shape of an object and performing interpolation processing of the occlusion part.
【請求項2】 前記視差を表す線または面の形状から前
記物体が一つの物体か否かを判断し、前記物体が一つの
物体であると判断された場合には前記オクルージョン部
を滑らかな線で補間し、前記物体が複数の物体であると
判断された場合には、前記撮像系に対して手前に存在す
る物体の視差を表わす線または面の形状を延長して前記
オクルージョン部を補間する、請求項1に記載の複数画
素からの視差検出方法。
2. It is determined whether or not the object is a single object from the shape of the line or surface representing the parallax, and if the object is a single object, the occlusion part is a smooth line. When it is determined that the object is a plurality of objects, the shape of the line or the surface representing the parallax of the object existing in front of the imaging system is extended to interpolate the occlusion part. A method for detecting parallax from a plurality of pixels according to claim 1.
【請求項3】 前記視差を表わす線または面の形状は、
前記視差を表わす線または面の曲率を用いる、請求項1
または2に記載の複数画像からの視差検出方法。
3. The shape of the line or surface representing the parallax is
The line or surface curvature representing the parallax is used.
Alternatively, the parallax detection method from a plurality of images described in 2.
JP5050899A 1993-03-11 1993-03-11 Method for detecting parallax error from a plurality of images Pending JPH06265322A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5050899A JPH06265322A (en) 1993-03-11 1993-03-11 Method for detecting parallax error from a plurality of images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5050899A JPH06265322A (en) 1993-03-11 1993-03-11 Method for detecting parallax error from a plurality of images

Publications (1)

Publication Number Publication Date
JPH06265322A true JPH06265322A (en) 1994-09-20

Family

ID=12871597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5050899A Pending JPH06265322A (en) 1993-03-11 1993-03-11 Method for detecting parallax error from a plurality of images

Country Status (1)

Country Link
JP (1) JPH06265322A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008093287A (en) * 2006-10-13 2008-04-24 Olympus Medical Systems Corp Medical image processing apparatus and method
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
JP2009531927A (en) * 2006-03-31 2009-09-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Efficient encoding of multiple fields of view
JP2012195626A (en) * 2011-03-14 2012-10-11 Dainippon Printing Co Ltd Parallax image generating apparatus, parallax image generating method, program, and storage medium
JP2012527787A (en) * 2009-05-21 2012-11-08 インテル・コーポレーション A method for high-speed 3D construction from images

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009531927A (en) * 2006-03-31 2009-09-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Efficient encoding of multiple fields of view
US9986258B2 (en) 2006-03-31 2018-05-29 Koninklijke Philips N.V. Efficient encoding of multiple views
JP2008093287A (en) * 2006-10-13 2008-04-24 Olympus Medical Systems Corp Medical image processing apparatus and method
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
JP2012527787A (en) * 2009-05-21 2012-11-08 インテル・コーポレーション A method for high-speed 3D construction from images
JP2012195626A (en) * 2011-03-14 2012-10-11 Dainippon Printing Co Ltd Parallax image generating apparatus, parallax image generating method, program, and storage medium

Similar Documents

Publication Publication Date Title
CN111066065B (en) System and method for hybrid depth regularization
EP2064675B1 (en) Method for determining a depth map from images, device for determining a depth map
JP6016061B2 (en) Image generation apparatus, image display apparatus, image generation method, and image generation program
JP5792157B2 (en) Image processing apparatus, method, program, and recording medium
JP3054681B2 (en) Image processing method
JP2011060216A (en) Device and method of processing image
JPH0719832A (en) Extracting method for corresponding points of pulirity of images
JP2953154B2 (en) Shape synthesis method
JP2910698B2 (en) Three-dimensional structure estimation method and apparatus
US5680474A (en) Corresponding point extraction method for a plurality of images
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
JP3008875B2 (en) Subject extraction device
JPH06265322A (en) Method for detecting parallax error from a plurality of images
WO2019019160A1 (en) Method for acquiring image information, image processing device, and computer storage medium
JP2001153633A (en) Stereoscopic shape detecting method and its device
JP2003050110A (en) Three-dimensional shape data producing system and method, program and recording medium
JP6648916B2 (en) Imaging device
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JPH09229648A (en) Input/output method and device for image information
JPH0624000B2 (en) Compound stereoscopic device
CN111080689B (en) Method and device for determining face depth map
CN112424566B (en) Distance measuring camera
TWI514325B (en) System and method of revising depth of a 3d image pair
JPH047805B2 (en)
JP2003173433A (en) Three-dimensional information acquiring method, device and program and recording medium