JPH09153148A - Correcting condition detector for stereoscopic picture - Google Patents
Correcting condition detector for stereoscopic pictureInfo
- Publication number
- JPH09153148A JPH09153148A JP7312396A JP31239695A JPH09153148A JP H09153148 A JPH09153148 A JP H09153148A JP 7312396 A JP7312396 A JP 7312396A JP 31239695 A JP31239695 A JP 31239695A JP H09153148 A JPH09153148 A JP H09153148A
- Authority
- JP
- Japan
- Prior art keywords
- images
- condition
- search
- candidate
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、ステレオ画像に
おいてエピポーララインを合わせるために必要なステレ
オ画像の修正条件を検出する装置、特に、位相差判明点
の検出率を利用して修正条件を検出する装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for detecting a correction condition of a stereo image necessary for matching epipolar lines in a stereo image, and more particularly, to detect the correction condition by utilizing a detection rate of a phase difference determination point. Regarding the device.
【0002】[0002]
【従来の技術】従来より、3次元画像の距離情報を得る
ための汎用的な手法として、2眼ステレオ画像法が用い
られている。2眼ステレオ画像法では、左右カメラで得
た左右画像を走査して、これら画像において相対応する
画素すなわち対応点を検出する。対応点の位相差から距
離情報を得ることができる。誤対応を減らし対応点の検
出精度を向上するためには、左右画像のエピポーラライ
ンを合わせることが重要である。2. Description of the Related Art Conventionally, a twin-lens stereo image method has been used as a general-purpose method for obtaining distance information of a three-dimensional image. In the binocular stereo image method, the left and right images obtained by the left and right cameras are scanned to detect corresponding pixels, that is, corresponding points in these images. Distance information can be obtained from the phase difference between corresponding points. In order to reduce false correspondences and improve the detection accuracy of corresponding points, it is important to match the epipolar lines of the left and right images.
【0003】エピポーララインを合わせる手法として
は、例えば、テストパターンを左右カメラで撮影し画像
認識技術を用いて行なうもの(文献:情報処理 vol.31
No.5 May 1990 pp.650〜659 )がある。As a method of aligning epipolar lines, for example, a test pattern is photographed by left and right cameras and image recognition technology is used (reference: information processing vol.31.
No.5 May 1990 pp.650-659).
【0004】[0004]
【発明が解決しようとする課題】画像認識技術を用いて
行なう従来手法では、予め定められた形状のテストパタ
ーンを認識することにより、左右画像のエピポーラライ
ンを合わせる。従って対応点の検出を行なっている最中
に、何らかの要因によって左右画像のエピポーラライン
がずれた場合、これら左右画像中にテストパターンと同
じパターンが存在する場合にしか、そのずれを修正でき
ない。すなわちテストパターンと同じパターンが存在し
ない場合には、修正できないという不都合があった。In the conventional method using the image recognition technique, the epipolar lines of the left and right images are aligned by recognizing a test pattern having a predetermined shape. Therefore, when the epipolar lines of the left and right images are displaced due to some factor while detecting the corresponding points, the displacement can be corrected only when the same pattern as the test pattern exists in these left and right images. That is, if the same pattern as the test pattern does not exist, there is an inconvenience that it cannot be corrected.
【0005】従ってテストパターンと同じパターンが存
在しなくても、左右画像のエピポーララインを合わせる
ために必要な修正条件を検出できる装置の実現が望まれ
ていた。Therefore, it has been desired to realize an apparatus capable of detecting the correction condition necessary for matching the epipolar lines of the left and right images even if the same pattern as the test pattern does not exist.
【0006】さらに好ましくは、テストパターンと同じ
パターンが存在しなくても、左右画像のエピポーラライ
ンを合わせるために必要な修正条件が検出できることに
加え、この修正条件を迅速に検出できる装置の実現が望
まれていた。More preferably, even if the same pattern as the test pattern does not exist, it is possible to detect the correction condition necessary for matching the epipolar lines of the left and right images, and to realize an apparatus that can quickly detect the correction condition. Was wanted.
【0007】ここで検出する修正条件は、例えば、左右
画像のエピポーララインを合わせるべく左右画像の一方
を画像変換する場合に用いる当該画像変換条件として使
用されたり、左右画像のエピポーララインを合わせるべ
く左右画像を撮影している左右カメラのレンズ光軸を機
械的に調整する場合に用いる当該光軸調整条件として使
用されたりする。The correction condition detected here is used, for example, as the image conversion condition used when image conversion of one of the left and right images is performed to match the epipolar lines of the left and right images, or the correction condition is adjusted to match the epipolar lines of the left and right images. It may be used as the optical axis adjustment condition used when mechanically adjusting the lens optical axes of the left and right cameras that are capturing images.
【0008】[0008]
【課題を解決するための手段】前述した従来の課題を解
決するため、請求項1記載の発明は、左右画像のエピポ
ーララインを合わせるための修正条件を検出する修正条
件検出装置において、条件設定部、画像変換部、対応点
探索部、評価値算出部及び最大値検出部を備えて成るこ
とを特徴とする。In order to solve the above-mentioned conventional problems, the invention according to claim 1 is a correction condition detecting device for detecting a correction condition for matching epipolar lines of left and right images, and a condition setting unit. , An image conversion unit, a corresponding point search unit, an evaluation value calculation unit, and a maximum value detection unit.
【0009】条件設定部は修正条件を検出するための複
数種類の候補条件を順次に設定し、画像変換部は左右画
像の一方を候補条件に従って画像変換する。画像変換部
が行なう画像変換としては、画像の平行移動、回転及び
倍率変換を挙げることができ、画像変換部が行なう画像
変換に候補条件を用いる。画像の倍率変換は、画像の拡
大もしくは縮小を行なうことを表す。The condition setting unit sequentially sets a plurality of types of candidate conditions for detecting the correction conditions, and the image conversion unit converts one of the left and right images according to the candidate condition. The image conversion performed by the image conversion unit may include parallel movement, rotation, and magnification conversion of the image, and the candidate conditions are used for the image conversion performed by the image conversion unit. The conversion of the image magnification indicates that the image is enlarged or reduced.
【0010】画像の平行移動に関わる候補条件には、x
軸方向(水平方向)への平行移動量を段階的に定めた任
意好適個数の複数の条件Δx1 、Δx2 、……や、y軸
方向(高さ方向)への平行移動量を段階的に定めた任意
好適個数の複数の条件Δy1、Δy2 、……を用いるこ
とができる。x軸方向への平行移動量Δx1 、Δx2、
……のうち後述する評価値が最大となるものが、エピポ
ーララインを合わせるのに適したx軸方向への平行移動
量となり、y軸方向への平行移動量Δy1 、Δy2 、…
…のうち後述する評価値が最大となるものが、エピポー
ララインを合わせるのに適したy軸方向への平行移動量
となる。The candidate condition relating to the parallel movement of the image is x
An arbitrary suitable number of conditions Δx 1 , Δx 2 , ... In which the parallel movement amount in the axial direction (horizontal direction) is determined stepwise, and the parallel movement amount in the y-axis direction (height direction) is gradually changed. It is possible to use a plurality of conditions Δy 1 , Δy 2 , ... Amount of parallel movement in the x-axis direction Δx 1 , Δx 2 ,
The one with the maximum evaluation value described later is the parallel movement amount in the x-axis direction suitable for aligning the epipolar lines, and the parallel movement amounts Δy 1 , Δy 2 , in the y-axis direction ,.
The one having the maximum evaluation value described later among the ... Is the amount of parallel movement in the y-axis direction suitable for aligning the epipolar lines.
【0011】画像の回転に関わる候補条件には、x軸回
りの回転角度を段階的に定めた任意好適個数の複数の条
件Δα1 °、Δα2 °……や、y軸回りの回転角度を段
階的に定めた任意好適個数の複数の条件Δβ1 °、Δβ
2 °、……や、z軸回りの回転角度を段階的に定めた任
意好適個数の複数の条件Δγ1 °、Δγ2 °、……を用
いることができる。x軸回りの回転角度Δα1 °、Δα
2 °……のうち後述する評価値が最大となるものが、エ
ピポーララインを合わせるのに適したx軸回りの回転角
度となり、y軸回りの回転角度Δβ1 °、Δβ2 °……
のうち後述する評価値が最大となるものが、エピポーラ
ラインを合わせるのに適したy軸回りの回転角度とな
り、z軸回りの回転角度Δγ1 °、Δγ2 °……のうち
後述する評価値が最大となるものが、エピポーラライン
を合わせるのに適したz軸回りの回転角度となる。The candidate conditions relating to the rotation of the image include a plurality of conditions Δα 1 °, Δα 2 °, etc. of an arbitrary suitable number in which the rotation angle around the x axis is determined stepwise, and the rotation angle around the y axis. A plurality of conditions of an arbitrary suitable number determined in stages Δβ 1 °, Δβ
It is possible to use 2 °, ... Or a plurality of conditions Δγ 1 °, Δγ 2 ° ,. Rotation angle around x-axis Δα 1 °, Δα
That evaluation value to be described later of the 2 ° ...... is maximum becomes the x-axis rotation angle suitable for matching the epipolar line, y axis rotation angle Δβ 1 °, Δβ 2 ° ......
Of these, the one with the largest evaluation value described later is the rotation angle around the y-axis suitable for matching the epipolar line, and the rotation angle around the z-axis Δγ 1 °, Δγ 2 °. The maximum rotation angle is the rotation angle around the z-axis suitable for matching the epipolar line.
【0012】画像の倍率変換に関わる候補条件には、拡
大率を段階的に定めた任意好適個数の複数の条件K1 、
K2 、……と、縮小率を段階的に定めた任意好適個数の
複数の条件k1 、k2 、……とを用いることができる。
拡大率K1 、K2 、……及び縮小率k1 、k2 、……の
うち後述する評価値が最大となるものが、エピポーララ
インを合わせるのに適した変換倍率となる。The candidate conditions relating to the magnification conversion of the image include a plurality of conditions K 1 of an arbitrary suitable number in which the enlargement ratio is determined stepwise.
K 2 , ... And a plurality of conditions k 1 , k 2 ,.
Of the enlargement ratios K 1 , K 2 , ... And the reduction ratios k 1 , k 2 , ..., the one having the maximum evaluation value described later is the conversion magnification suitable for matching the epipolar lines.
【0013】左右画像のエピポーララインを精度良く合
わせるためには、これらx軸方向への平行移動量、y軸
方向への平行移動量、x軸回りの回転角度、y軸回りの
回転角度、z軸回りの回転角度及び変換倍率の全ての種
類の候補条件について、候補条件の種類毎に評価値が最
大となる候補条件を検出するのが好ましいが、実用上問
題ない範囲であれば、x軸方向への平行移動量、y軸方
向への平行移動量、x軸回りの回転角度、y軸回りの回
転角度、z軸回りの回転角度及び変換倍率の一部の種類
の候補条件についてのみ、候補条件の種類毎に評価値が
最大となる候補条件を検出するようにしても良い。尚、
画像のz軸方向(奥行き方向)への平行移動は、画像の
倍率変換と等価である。In order to accurately match the epipolar lines of the left and right images, the parallel movement amount in the x-axis direction, the parallel movement amount in the y-axis direction, the rotation angle around the x-axis, the rotation angle around the y-axis, z It is preferable to detect the candidate condition that maximizes the evaluation value for each type of candidate conditions for all types of candidate conditions such as the rotation angle around the axis and the conversion magnification, but if there is no practical problem, the x-axis Parallel translation amount in the direction, translation amount in the y-axis direction, rotation angle around the x-axis, rotation angle around the y-axis, rotation angle around the z-axis, and only some types of candidate conditions for conversion magnification, The candidate condition having the maximum evaluation value may be detected for each type of candidate condition. still,
The parallel movement of the image in the z-axis direction (depth direction) is equivalent to the magnification conversion of the image.
【0014】評価値が最大となる候補条件を検出しよう
とする画像変換についてのみ、条件設定部は候補条件を
設定しかつ画像変換部は画像変換を行なえば良い。The condition setting unit may set the candidate condition and the image conversion unit may perform the image conversion only for the image conversion for which the candidate condition having the maximum evaluation value is detected.
【0015】対応点探索部は、走査方向、走査対象とな
る画素の階調表現、若しくは、走査対象となる画素の色
を異ならせて複数種の探索条件を設定し、画像変換後の
左右画像を左右探索画像とする。The corresponding point search unit sets a plurality of types of search conditions by making the scanning direction, the gradation expression of the pixel to be scanned, or the color of the pixel to be scanned different, and setting the left and right images after image conversion. Are left and right search images.
【0016】そして対応点探索部は、探索条件に従って
左右探索画像を走査し、相対応する水平走査線上におい
て左探索画像の画素特徴と右探索画像の画素特徴とを比
較して、画素特徴の差が閾値以下となる左右探索画像の
画素を対応候補点として検出し、各探索条件毎に検出し
た対応候補点の集合において共通集合となる対応候補点
を対応点として検出する。然る後、対応点探索部は、対
応点検出結果を用いて左右探索画像における位相差の判
明点及び不明点を検出する。The corresponding point search unit scans the left and right search images according to the search conditions, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and determines the difference between the pixel features. Pixels in the left and right search images whose values are less than or equal to a threshold value are detected as corresponding candidate points, and corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition are detected as corresponding points. After that, the corresponding point searching unit detects the identified point and the unknown point of the phase difference in the left and right search images using the corresponding point detection result.
【0017】走査方向を異ならせて複数種の探索条件を
設定する場合は、次の如くして対応候補点を検出する。When a plurality of types of search conditions are set by making the scanning directions different, the corresponding candidate points are detected as follows.
【0018】すなわち左右探索画像において相対応する
水平走査線上に存在する画素であって、左右探索画像の
一方の画像の画素を着目点、及び、左右探索画像の他方
の画像の画素を対照点とする。着目点走査方向を右方向
(水平走査線上において左から右へ向かう方向)としか
つ対照点走査方向を右方向とする条件aと、着目点走査
方向を右方向としかつ対照点走査方向を左方向(水平走
査線上において右から左へ向かう方向)とする条件b、
着目点走査方向を左方向としかつ対照点走査方向を右方
向とする条件c、着目点走査方向を左方向としかつ対照
点走査方向を左方向とする条件dの4種の条件のなかか
ら選択した少なくとも2種の条件を、探索条件として設
定して、対応候補点を検出する。That is, among the pixels existing on the corresponding horizontal scanning lines in the left and right search images, the pixel of one image of the left and right search images is the target point, and the pixel of the other image of the left and right search images is the control point. To do. Condition a in which the point of interest scanning direction is the right direction (direction from left to right on the horizontal scanning line) and the control point scanning direction is the right direction, and the point of interest scanning direction is the right direction and the control point scanning direction is the left direction Condition b, which is (direction from right to left on the horizontal scanning line),
Select from four types of conditions: condition c in which the scanning direction of the point of interest is left and the scanning direction of the contrast point is right, and condition d in which the scanning direction of the point of interest is left and the scanning direction of contrast point is left. The corresponding candidate points are detected by setting at least two kinds of conditions as described above as search conditions.
【0019】条件a〜dいずれの場合も、水平走査線上
において着目点走査方向へ順次に数えて第i番目の着目
点に対し、水平走査上の対照点を対照点走査方向へ順次
に走査してゆく。第i番目の着目点に対し画素特徴の差
が閾値以下となる対照点を検出することなく対照点の走
査を終了したら、次に第i+1番目の着目点に対し対照
点の走査を行なう。また第i番目の着目点に対し画素特
徴の差が閾値以下となる対照点を検出したら、当該第i
番目の着目点と対照点とを対応候補点として検出し、然
る後、第i+1番目の着目点に対し対照点の走査を行な
う。In any of the conditions a to d, the control point on the horizontal scan is sequentially scanned in the control point scanning direction with respect to the ith target point on the horizontal scanning line in the scanning direction of the target point. Go on. When the scanning of the control point is completed without detecting the control point in which the difference between the pixel features is equal to or less than the threshold value for the i-th target point, the control point is scanned next for the (i + 1) th target point. When a control point in which the difference in pixel feature is less than or equal to the threshold is detected for the ith target point, the ith target point is detected.
The n-th point of interest and the control point are detected as corresponding candidate points, and thereafter, the control point is scanned for the (i + 1) th point of interest.
【0020】このように着目点走査方向若しくは対象点
走査方向を異ならせて左右探索画像を走査するという複
数種の探索条件を設定し、各探索条件毎に得た対応候補
点の集合において共通集合となる対応候補点を候補点と
して検出することにより、誤対応を減少させることがで
きる。In this way, a plurality of types of search conditions are set, that is, the left and right search images are scanned by changing the scanning direction of the target point or the scanning direction of the target point, and a common set is set in the set of corresponding candidate points obtained for each search condition. The false correspondence can be reduced by detecting the corresponding correspondence candidate points as the candidate points.
【0021】走査対象となる画素の階調表現を異ならせ
て複数種の探索条件を設定する場合は、次の如くして対
応候補点を検出する。When a plurality of types of search conditions are set by changing the gradation expression of the pixel to be scanned, the corresponding candidate points are detected as follows.
【0022】すなわち対応点探索部は、左右探索画像の
階調を変換して階調表現の異なる複数種の左右探索画像
を用意する。そして階調表現を異ならせた各左右探索画
像について対応候補点を検出し、各階調表現毎に得た対
応候補点の集合において共通集合となる対応候補点を対
応点として検出する。例えば、左右カメラにより256
階調の白黒画像を左右画像として得てこの左右画像を左
右探索画像として得た場合、まず階調変換しない256
階調の左右探索画像を走査して対応候補点を検出し、さ
らに256階調の左右探索画像を階調変換して32階調
の左右探索画像を得、この32階調の左右探索画像を走
査して対応候補点を検出する。そしてこれら256階調
及び32階調の左右探索画像から検出した対応候補点の
共通集合を対応点として検出する。或は、左右カメラに
より256階調の白黒画像を左右画像として得てこの左
右画像を左右探索画像として得た場合、この256階調
の左右探索画像を階調変換して、階調表現を異ならせた
複数種の16階調の左右探索画像を生成する。この場
合、階調の段階数は同じ16階調であり最初及び最後の
階調幅ここでは第1番目及び第16番目の階調幅を異な
らせた16階調の左右探索画像を生成することとなる。
そして階調表現を異ならせた16階調の左右探索画像を
それぞれ走査して対応候補点を検出し、各16階調の左
右探索画像毎に検出した対応候補点の共通集合を対応点
として検出する。That is, the corresponding point search section converts the gradation of the left and right search images to prepare a plurality of types of left and right search images having different gradation expressions. Corresponding candidate points are detected for each of the left and right search images with different gradation expressions, and the corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each gradation expression are detected as corresponding points. For example, with left and right cameras 256
When a black and white image with gradation is obtained as a left and right image and this left and right image is obtained as a left and right search image, gradation conversion is not performed 256
The gradation left and right search images are scanned to detect corresponding candidate points, and the 256 gradation left and right search images are converted into gradations to obtain 32 gradation left and right search images. The corresponding candidate points are detected by scanning. Then, a common set of correspondence candidate points detected from the left and right search images of 256 gradations and 32 gradations is detected as a corresponding point. Alternatively, when a black and white image of 256 gradations is obtained as a left and right image by the left and right cameras and this left and right image is obtained as a left and right search image, the left and right search images of 256 gradations are subjected to gradation conversion and different gradation expressions are obtained. A plurality of types of left and right search images of 16 gradations are generated. In this case, the number of gradation levels is the same 16 gradations, and the left and right search images of 16 gradations with different first and 16th gradation widths are generated here. .
Then, the 16-gradation left and right search images with different gradation representations are scanned to detect corresponding candidate points, and a common set of corresponding candidate points detected for each 16-gradation left and right search images is detected as the corresponding points. To do.
【0023】このように階調の段階数を異ならせた複数
種の画像をそれぞれ左右探索画像として対応候補点を検
出するという複数種の探索条件を設定し、若しくは、階
調の段階数を同一として最初及び最後の階調幅を異なら
せた複数種の画像をそれぞれ左右探索画像として対応候
補点を検出するという複数種の探索条件を設定し、各探
索条件毎に得た対応候補点の集合において共通集合とな
る対応候補点を候補点として検出することにより、誤対
応を減少させることができる。As described above, plural kinds of images having different gradation steps are set as left and right search images to detect corresponding candidate points, and plural kinds of search conditions are set, or the gradation steps are the same. As a set of a plurality of types of search conditions in which a plurality of types of images with different first and last gradation widths are used as the left and right search images to detect corresponding candidate points, and in a set of corresponding candidate points obtained for each search condition By detecting the corresponding candidate points that form a common set as the candidate points, it is possible to reduce the false correspondence.
【0024】走査対象となる画素の色を異ならせて複数
種の探索条件を設定する場合は、次の如くして対応候補
点を検出する。When a plurality of types of search conditions are set by making the color of the pixel to be scanned different, the corresponding candidate points are detected as follows.
【0025】すなわち左右カメラにより左右画像として
カラー画像を得た場合には、対応点探索部は、カラー画
像である左右画像の赤色画像、緑色画像及び青色画像か
ら選択した2種又は3種の色画像を左右探索画像とす
る。そして左右探索画像について各色画像毎に対応候補
点を検出し、各色画像毎に得た対応候補点の集合におい
て共通集合となる対応候補点を対応点として検出する。
例えばカラー画像である左右画像の赤色画像、緑色画像
及び青色画像をそれぞれ左右探索画像とし、各色毎に左
右探索画像を走査して対応候補点を検出する。そして赤
色画像について得た対応候補点の集合と緑色画像につい
て得た対応候補点の集合と青色画像について得た対応候
補点の集合とにおいて、共通集合となる対応候補点を対
応点として検出する。That is, when color images are obtained as left and right images by the left and right cameras, the corresponding point search unit determines two or three colors selected from the red image, the green image and the blue image of the left and right images which are color images. Let the images be left and right search images. Corresponding candidate points are detected for each color image in the left and right search images, and corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each color image are detected as corresponding points.
For example, a red image, a green image, and a blue image of left and right images that are color images are used as left and right search images, and the left and right search images are scanned for each color to detect corresponding candidate points. Then, in the set of corresponding candidate points obtained for the red image, the set of corresponding candidate points obtained for the green image, and the set of corresponding candidate points obtained for the blue image, corresponding candidate points forming a common set are detected as corresponding points.
【0026】このように左右カメラにより左右画像とし
てカラー画像を得た場合に、左右画像の赤色画像、緑色
画像及び青色画像から選択した複数種の色画像をそれぞ
れ左右探索画像とするという複数種の探索条件を設定
し、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点を対応点を検出することにより、
誤対応を減少させることができる。In this way, when color images are obtained as left and right images by the left and right cameras, a plurality of types of color images selected from the red image, the green image and the blue image of the left and right images are respectively used as the left and right search images. By setting the search conditions and detecting the corresponding points that are common sets in the set of corresponding candidate points obtained for each search condition,
False correspondence can be reduced.
【0027】対応点探索部は、左右探索画像を走査して
得た対応点検出結果を用いて、左右探索画像における位
相差の判明点及び不明点を検出する。The corresponding point search unit detects the identified point and the unknown point of the phase difference in the left and right search images by using the corresponding point detection results obtained by scanning the left and right search images.
【0028】評価値算出部は左右探索画像における位相
差判明点の検出率を用いて候補条件の種類毎に候補条件
の評価値を求め、最大値検出部は候補条件の種類毎に最
大の評価値を得た候補条件を修正条件として検出する。The evaluation value calculation unit obtains the evaluation value of the candidate condition for each kind of candidate condition using the detection rate of the phase difference known point in the left and right search images, and the maximum value detection unit makes the maximum evaluation for each kind of candidate condition. The candidate condition that has obtained the value is detected as the correction condition.
【0029】既に述べたように、x軸方向への平行移動
量、y軸方向への平行移動量、x軸回りの回転角度、y
軸回りの回転角度、z軸回りの回転角度及び変換倍率の
全ての種類の候補条件について、候補条件の種類毎に候
補条件の評価値を求めそして候補条件の種類毎に評価値
が最大となる候補条件を検出しても良いし、実用上問題
ない範囲であれば、x軸方向への平行移動量、y軸方向
への平行移動量、x軸回りの回転角度、y軸回りの回転
角度、z軸回りの回転角度及び変換倍率の一部の種類の
候補条件についてのみ、候補条件の種類毎に候補条件の
評価値を求めそして評価値が最大となる候補条件を検出
するようにしても良い。As described above, the parallel movement amount in the x-axis direction, the parallel movement amount in the y-axis direction, the rotation angle around the x-axis, y
With respect to all kinds of candidate conditions of the rotation angle around the axis, the rotation angle around the z axis, and the conversion magnification, the evaluation value of the candidate condition is obtained for each kind of candidate condition, and the evaluation value becomes maximum for each kind of candidate condition. Candidate conditions may be detected, and within a range that does not cause any practical problem, the parallel movement amount in the x-axis direction, the parallel movement amount in the y-axis direction, the rotation angle around the x-axis, the rotation angle around the y-axis. , The rotation angle around the z-axis and the conversion factor only for some types of candidate conditions, the evaluation value of the candidate condition is calculated for each type of the candidate condition, and the candidate condition having the maximum evaluation value is detected. good.
【0030】さらに請求項5の発明は、左右画像のエピ
ポーララインを合わせるための修正条件を検出する修正
条件検出装置において、条件設定部、画像変換部、階調
変換部、レベル切出し部、対応点探索部、評価値算出部
及び最大値検出部を備えて成ることを特徴とする。Further, in the correction condition detecting device for detecting the correction condition for matching the epipolar lines of the left and right images, the condition setting unit, the image conversion unit, the gradation conversion unit, the level cutout unit, and the corresponding points. It is characterized by comprising a search unit, an evaluation value calculation unit and a maximum value detection unit.
【0031】条件設定部は修正条件を検出するための複
数種類の候補条件を順次に設定し、画像変換部はm階調
の左右画像の一方を候補条件に従って画像変換する。画
像変換部が行なう画像変換としては、画像の平行移動、
回転及び倍率変換を挙げることができ、画像変換部が行
なう画像変換に候補条件を用いる。画像の倍率変換は画
像の拡大もしくは縮小を行なうことを表す。画像変換部
は左右カメラにより得たm階調の左右画像を画像変換す
る。The condition setting unit sequentially sets a plurality of types of candidate conditions for detecting the correction condition, and the image conversion unit performs image conversion on one of the left and right images of m gradations according to the candidate condition. Image conversion performed by the image conversion unit includes parallel movement of images,
Rotation and magnification conversion can be mentioned, and the candidate condition is used for the image conversion performed by the image conversion unit. Image magnification conversion indicates that the image is enlarged or reduced. The image conversion unit performs image conversion on the left and right images of m gradations obtained by the left and right cameras.
【0032】画像の平行移動に関わる候補条件には、x
軸方向への平行移動量を段階的に定めた任意好適個数の
複数の条件Δx1 、Δx2 、……や、y軸方向への平行
移動量を段階的に定めた任意好適個数の複数の条件Δy
1 、Δy2 、……を用いることができる。x軸方向への
平行移動量Δx1 、Δx2 、……のうち後述する評価値
が最大となるものが、エピポーララインを合わせるのに
適したx軸方向への平行移動量となり、y軸方向への平
行移動量Δy1 、Δy2 、……のうち後述する評価値が
最大となるものが、エピポーララインを合わせるのに適
したy軸方向への平行移動量となる。The candidate condition relating to the parallel movement of the image is x
A plurality of arbitrary suitable numbers of conditions Δx 1 , Δx 2 , ... In which the translation amount in the axial direction is determined stepwise, and a plurality of arbitrary suitable numbers in which the translation amount in the y-axis direction is determined stepwise. Condition Δy
1 , Δy 2 , ... Can be used. The parallel movement amount in the x-axis direction, Δx 1 , Δx 2 , ..., which has the maximum evaluation value described later is the parallel movement amount in the x-axis direction suitable for aligning the epipolar line, and the y-axis direction. Of the parallel movement amounts Δy 1 , Δy 2 , ..., Which has the maximum evaluation value described later is the parallel movement amount in the y-axis direction suitable for aligning the epipolar lines.
【0033】画像の回転に関わる候補条件には、x軸回
りの回転角度を段階的に定めた任意好適個数の複数の条
件Δα1 °、Δα2 °……や、y軸回りの回転角度を段
階的に定めた任意好適個数の複数の条件Δβ1 °、Δβ
2 °、……や、z軸回りの回転角度を段階的に定めた任
意好適個数の複数の条件Δγ1 °、Δγ2 °、……を用
いることができる。x軸回りの回転角度Δα1 °、Δα
2 °……のうち後述する評価値が最大となるものが、エ
ピポーララインを合わせるのに適したx軸回りの回転角
度となり、y軸回りの回転角度Δβ1 °、Δβ2 °……
のうち後述する評価値が最大となるものが、エピポーラ
ラインを合わせるのに適したy軸回りの回転角度とな
り、z軸回りの回転角度Δγ1 °、Δγ2 °……のうち
後述する評価値が最大となるものが、エピポーラライン
を合わせるのに適したz軸回りの回転角度となる。As the candidate conditions relating to the rotation of the image, an arbitrary suitable number of plural conditions Δα 1 °, Δα 2 °, etc., in which the rotation angle about the x axis is determined stepwise, and the rotation angle about the y axis are included. A plurality of conditions of an arbitrary suitable number determined in stages Δβ 1 °, Δβ
It is possible to use 2 °, ... Or a plurality of conditions Δγ 1 °, Δγ 2 ° ,. Rotation angle around x-axis Δα 1 °, Δα
That evaluation value to be described later of the 2 ° ...... is maximum becomes the x-axis rotation angle suitable for matching the epipolar line, y axis rotation angle Δβ 1 °, Δβ 2 ° ......
Of these, the one with the largest evaluation value described later is the rotation angle around the y-axis suitable for matching the epipolar line, and the rotation angle around the z-axis Δγ 1 °, Δγ 2 °. The maximum rotation angle is the rotation angle around the z-axis suitable for matching the epipolar line.
【0034】画像の倍率変換に関わる候補条件には、拡
大率を段階的に定めた任意好適個数の複数の条件K1 、
K2 、……と縮小率を段階的に定めた任意好適個数の複
数の条件k1 、k2 、……とを用いることができる。拡
大率K1 、K2 、……及び縮小率k1 、k2 、……のう
ち後述する評価値が最大となるものが、エピポーラライ
ンを合わせるのに適した変換倍率となる。The candidate conditions relating to the magnification conversion of the image include a plurality of conditions K 1 of an arbitrary suitable number in which the enlargement ratio is determined stepwise.
K 2, a plurality of conditions of any suitable number of ... and the reduction rate determined in steps k 1, k 2, can be used and ..... Of the enlargement ratios K 1 , K 2 , ... And the reduction ratios k 1 , k 2 , ..., the one having the maximum evaluation value described later is the conversion magnification suitable for matching the epipolar lines.
【0035】左右画像のエピポーララインを精度良く合
わせるためには、これらx軸方向への平行移動量、y軸
方向への平行移動量、x軸回りの回転角度、y軸回りの
回転角度、z軸回りの回転角度及び変換倍率の全ての種
類の候補条件について、候補条件の種類毎に評価値が最
大となる候補条件を検出するのが好ましいが、実用上問
題ない範囲であれば、y軸方向への平行移動量、z軸方
向への平行移動量、x軸回りの回転角度、y軸回りの回
転角度、z軸回りの回転角度及び変換倍率の一部の種類
の候補条件についてのみ、候補条件の種類毎に評価値が
最大となる候補条件を検出するようにしても良い。尚、
画像のz軸方向(奥行き方向)への平行移動は、画像の
倍率変換と等価である。In order to accurately match the epipolar lines of the left and right images, the parallel movement amount in the x-axis direction, the parallel movement amount in the y-axis direction, the rotation angle around the x-axis, the rotation angle around the y-axis, z It is preferable to detect the candidate condition having the maximum evaluation value for each type of candidate conditions for all types of candidate conditions of the rotation angle around the axis and the conversion magnification, but if there is no practical problem, the y-axis Direction translation amount, z translation direction translation amount, x-axis rotation angle, y-axis rotation angle, z-axis rotation angle, and conversion factor only for some types of candidate conditions, The candidate condition having the maximum evaluation value may be detected for each type of candidate condition. still,
The parallel movement of the image in the z-axis direction (depth direction) is equivalent to the magnification conversion of the image.
【0036】評価値が最大となる候補条件を検出しよう
とする画像変換についてのみ、条件設定部は候補条件を
設定しかつ画像変換部は画像変換を行なえば良い。The condition setting unit may set the candidate condition and the image conversion unit may perform the image conversion only for the image conversion for which the candidate condition having the maximum evaluation value is detected.
【0037】階調変換部は画像変換後の左右画像をn階
調(m>n)の左右画像に変換し、レベル切出し部は階
調変換後の左右画像から、着目した一種類又は複数種類
の階調レベルの左右画像を左右着目レベル画像として切
り出す。The gradation conversion unit converts the left and right images after image conversion into left and right images of n gradations (m> n), and the level cutout unit selects one or a plurality of types from the left and right images after gradation conversion. The left and right images having the gradation levels of are cut out as left and right attention level images.
【0038】階調変換部は左右カメラにより得たm階調
(例えばm=256)の左右画像を、n階調(例えばn
=32)の左右画像に変換する。そしてレベル切出し部
は階調変換後のn階調の左右画像において、1種類又は
複数種類の階調レベルに着目して、着目した階調レベル
の左右画像を左右着目レベル画像として切り出す。The gradation conversion unit converts the left and right images of m gradations (for example, m = 256) obtained by the left and right cameras into n gradations (for example, n).
= 32) to the left and right images. Then, the level cutout unit pays attention to one or a plurality of kinds of gradation levels in the left and right images of n gradations after gradation conversion, and cuts out the left and right images of the focused gradation level as left and right focused level images.
【0039】このように左右カメラにより得たm階調の
左右画像を、m>nなるn階調の左右画像に変換し、さ
らにn階調の左右画像から着目した階調レベルの左右画
像のみを左右着目レベル画像として切り出す。後述する
ように、この左右着目レベル画像を左右探索画像として
対応候補点を検出することにより、対応候補点の検出速
度を向上させることができる。In this way, the left and right images of m gradations obtained by the left and right cameras are converted into left and right images of n gradations where m> n, and only the left and right images of gradation levels focused on from the left and right images of n gradations. Are cut out as left and right focus level images. As will be described later, the detection speed of the corresponding candidate points can be improved by detecting the corresponding candidate points using the left and right focus level images as the left and right search images.
【0040】対応点探索部は、走査方向、走査対象とな
る画素の階調表現、若しくは、走査対象となる画素の色
を異ならせて複数種の探索条件を設定し、左右着目レベ
ル画像を左右探索画像とする。The corresponding point search unit sets a plurality of types of search conditions by differentiating the scanning direction, the gradation expression of the pixel to be scanned or the color of the pixel to be scanned, and sets the left and right focus level images to the left and right. Let it be a search image.
【0041】そして対応点探索部は、探索条件に従って
左右探索画像を走査し、相対応する水平走査線上におい
て左探索画像の画素特徴と右探索画像の画素特徴とを比
較して、画素特徴の差が閾値以下となる左右探索画像の
画素を対応候補点として検出し、各探索条件毎に検出し
た対応候補点の集合において共通集合となる対応候補点
を対応点として検出する。然る後、対応点探索部は、対
応点検出結果を用いて左右探索画像における位相差の判
明点及び不明点を検出する。The corresponding point search unit scans the left and right search images according to the search condition, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and determines the difference between the pixel features. Pixels in the left and right search images whose values are less than or equal to a threshold value are detected as corresponding candidate points, and corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition are detected as corresponding points. After that, the corresponding point searching unit detects the identified point and the unknown point of the phase difference in the left and right search images using the corresponding point detection result.
【0042】走査方向を異ならせて複数種の探索条件を
設定する場合は、次の如くして対応候補点を検出する。When a plurality of types of search conditions are set by making the scanning directions different, the corresponding candidate points are detected as follows.
【0043】すなわち左右探索画像において相対応する
水平走査線上に存在する画素であって、左右探索画像の
一方の画像の画素を着目点、及び、左右探索画像の他方
の画像の画素を対照点とする。着目点走査方向を右方向
(水平走査線上において左から右へ向かう方向)としか
つ対照点走査方向を右方向とする条件aと、着目点走査
方向を右方向としかつ対照点走査方向を左方向(水平走
査線上において右から左へ向かう方向)とする条件b、
着目点走査方向を左方向としかつ対照点走査方向を右方
向とする条件c、着目点走査方向を左方向としかつ対照
点走査方向を左方向とする条件dの4種の条件のなかか
ら選択した少なくとも2種の条件を、探索条件として設
定して、対応候補点を検出する。That is, among the pixels existing on the corresponding horizontal scanning lines in the left and right search images, the pixel of one image of the left and right search images is the target point, and the pixel of the other image of the left and right search images is the control point. To do. Condition a in which the point of interest scanning direction is the right direction (direction from left to right on the horizontal scanning line) and the control point scanning direction is the right direction, and the point of interest scanning direction is the right direction and the control point scanning direction is the left direction Condition b, which is (direction from right to left on the horizontal scanning line),
Select from four types of conditions: condition c in which the scanning direction of the point of interest is left and the scanning direction of the contrast point is right, and condition d in which the scanning direction of the point of interest is left and the scanning direction of contrast point is left. The corresponding candidate points are detected by setting at least two kinds of conditions as described above as search conditions.
【0044】条件a〜dいずれの場合も、水平走査線上
において着目点走査方向へ順次に数えて第i番目の着目
点に対し、水平走査上の対照点を対照点走査方向へ順次
に走査してゆく。第i番目の着目点に対し画素特徴の差
が閾値以下となる対照点を検出することなく対照点の走
査を終了したら、次に第i+1番目の着目点に対し対照
点の走査を行なう。また第i番目の着目点に対し画素特
徴の差が閾値以下となる対照点を検出したら、当該第i
番目の着目点と対照点とを対応候補点として検出し、然
る後、第i+1番目の着目点に対し対照点の走査を行な
う。In any of the conditions a to d, the control point on the horizontal scanning is sequentially scanned in the control point scanning direction with respect to the i-th target point counted sequentially in the control point scanning direction on the horizontal scanning line. Go on. When the scanning of the control point is completed without detecting the control point in which the difference between the pixel features is equal to or less than the threshold value for the i-th target point, the control point is scanned next for the (i + 1) th target point. When a control point in which the difference in pixel feature is less than or equal to the threshold is detected for the ith target point, the ith target point is detected.
The n-th point of interest and the control point are detected as corresponding candidate points, and thereafter, the control point is scanned for the (i + 1) th point of interest.
【0045】このように着目点走査方向若しくは対象点
走査方向を異ならせて左右探索画像を走査するという複
数種の探索条件を設定し、各探索条件毎に得た対応候補
点の集合において共通集合となる対応候補点を候補点と
して検出することにより、誤対応を減少させることがで
きる。In this way, a plurality of types of search conditions are set, that is, the left and right search images are scanned by changing the scanning direction of the point of interest or the scanning direction of the target point, and a common set is set in the set of corresponding candidate points obtained for each search condition. The false correspondence can be reduced by detecting the corresponding correspondence candidate points as the candidate points.
【0046】走査対象となる画素の階調表現を異ならせ
て複数種の探索条件を設定する場合は、次の如くして対
応候補点を検出する。When a plurality of types of search conditions are set by varying the gradation expression of the pixel to be scanned, the corresponding candidate points are detected as follows.
【0047】すなわち対応点探索部は、左右探索画像の
階調を変換して階調表現の異なる複数種の左右探索画像
を用意する。そして階調表現を異ならせた各左右探索画
像について対応候補点を検出し、各階調表現毎に得た対
応候補点の集合において共通集合となる対応候補点を対
応点として検出する。例えば、32階調の白黒画像を左
右着目レベル画像として得てこの32階調の左右着目レ
ベル画像を左右探索画像として得た場合、まず階調変換
しない32階調の左右探索画像を走査して対応候補点を
検出し、さらに32階調の左右探索画像を階調変換して
16階調の左右探索画像を得、この16階調の左右探索
画像を走査して対応候補点を検出する。そしてこれら3
2階調及び16階調の左右探索画像から検出した対応候
補点の共通集合を対応点として検出する。或は、32階
調の白黒画像を左右着目レベル画像として得てこの32
階調の左右着目レベル画像を左右探索画像とした場合、
この32階調の左右探索画像を階調変換して、階調表現
を異ならせた複数種の16階調の左右探索画像を生成す
る。この場合、階調の段階数は同じ16階調であり最初
及び最後の階調幅ここでは第1番目及び第16番目の階
調幅を異ならせた16階調の左右探索画像を生成するこ
ととなる。そして階調表現を異ならせた16階調の左右
探索画像をそれぞれ走査して対応候補点を検出し、各1
6階調の左右探索画像毎に検出した対応候補点の共通集
合を対応点として検出する。That is, the corresponding point searching section converts the gradations of the left and right search images to prepare a plurality of types of left and right search images having different gradation expressions. Corresponding candidate points are detected for each of the left and right search images with different gradation expressions, and the corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each gradation expression are detected as corresponding points. For example, when a black-and-white image of 32 gradations is obtained as a left and right focused level image and this left and right focused level image of 32 gradations is obtained as a left and right search image, first, a left and right searched image of 32 gradations that is not subjected to gradation conversion is scanned. Correspondence candidate points are detected, and the left and right search images of 32 gradations are subjected to gradation conversion to obtain left and right search images of 16 gradations, and the left and right search images of 16 gradations are scanned to detect correspondence candidate points. And these 3
A common set of corresponding candidate points detected from the left and right search images of 2 gradations and 16 gradations is detected as the corresponding points. Alternatively, a black and white image of 32 gradations is obtained as the left and right focus level images,
When the left and right focus level images of gradation are used as the left and right search images,
The left and right search images of 32 gradations are gradation-converted to generate a plurality of types of left and right search images of 16 gradations with different gradation expressions. In this case, the number of gradation levels is the same 16 gradations, and the left and right search images of 16 gradations with different first and 16th gradation widths are generated here. . Then, the left and right search images of 16 gradations different in gradation expression are scanned to detect corresponding candidate points, and
A common set of corresponding candidate points detected for each of the 6-gradation left and right search images is detected as a corresponding point.
【0048】このように階調の段階数を異ならせた複数
種の画像をそれぞれ左右探索画像として対応候補点を検
出するという複数種の探索条件を設定し、若しくは、階
調の段階数を同一として最初及び最後の階調幅を異なら
せた複数種の画像をそれぞれ左右探索画像として対応候
補点を検出するという複数種の探索条件を設定し、各探
索条件毎に得た対応候補点の集合において共通集合とな
る対応候補点を候補点として検出することにより、誤対
応を減少させることができる。As described above, plural kinds of images having different gradation steps are set as left and right search images, and plural kinds of search conditions for detecting corresponding candidate points are set, or the gradation steps have the same gradation number. As a set of a plurality of types of search conditions in which a plurality of types of images with different first and last gradation widths are used as the left and right search images to detect corresponding candidate points, and in a set of corresponding candidate points obtained for each search condition By detecting the corresponding candidate points that form a common set as the candidate points, it is possible to reduce the false correspondence.
【0049】走査対象となる画素の色を異ならせて複数
種の探索条件を設定する場合は、次の如くして対応候補
点を検出する。When a plurality of types of search conditions are set by making the color of the pixel to be scanned different, the corresponding candidate points are detected as follows.
【0050】すなわち左右カメラにより左右画像として
カラー画像を得た場合には、対応点探索部は、カラー画
像である左右画像の赤色画像、緑色画像及び青色画像か
ら選択した2種又は3種の色画像を左右探索画像とす
る。そして左右探索画像について各色画像毎に対応候補
点を検出し、各色画像毎に得た対応候補点の集合におい
て共通集合となる対応候補点を対応点として検出する。
例えばカラー画像である左右画像の赤色画像、緑色画像
及び青色画像をそれぞれ左右探索画像とし、各色毎に左
右探索画像を走査して対応候補点を検出する。そして赤
色画像について得た対応候補点の集合と緑色画像につい
て得た対応候補点の集合と青色画像について得た対応候
補点の集合とにおいて、共通集合となる対応候補点を対
応点として検出する。That is, when color images are obtained as left and right images by the left and right cameras, the corresponding point searching section determines two or three colors selected from the red image, the green image and the blue image of the left and right images which are color images. Let the images be left and right search images. Corresponding candidate points are detected for each color image in the left and right search images, and corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each color image are detected as corresponding points.
For example, a red image, a green image, and a blue image of left and right images that are color images are used as left and right search images, and the left and right search images are scanned for each color to detect corresponding candidate points. Then, in the set of corresponding candidate points obtained for the red image, the set of corresponding candidate points obtained for the green image, and the set of corresponding candidate points obtained for the blue image, corresponding candidate points forming a common set are detected as corresponding points.
【0051】このように左右カメラにより左右画像とし
てカラー画像を得た場合に、左右画像の赤色画像、緑色
画像及び青色画像から選択した複数種の色画像をそれぞ
れ左右探索画像とするという複数種の探索条件を設定
し、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点を対応点を検出することにより、
誤対応を減少させることができる。In this way, when color images are obtained as left and right images by the left and right cameras, a plurality of types of color images selected from the red image, the green image and the blue image of the left and right images are used as the left and right search images. By setting the search conditions and detecting the corresponding points that are common sets in the set of corresponding candidate points obtained for each search condition,
False correspondence can be reduced.
【0052】対応点探索部は、左右探索画像を走査して
得た対応点検出結果を用いて、左右探索画像における位
相差の判明点及び不明点を検出する。The corresponding point searching unit detects the identified point and the unknown point of the phase difference in the left and right search images by using the corresponding point detection results obtained by scanning the left and right search images.
【0053】評価値算出部は左右探索画像における位相
差判明点の検出率を用いて、候補条件の種類毎に候補条
件の評価値を求め、最大値検出部は候補条件の種類毎に
最大の評価値を得た候補条件を修正条件として検出す
る。The evaluation value calculation unit obtains the evaluation value of the candidate condition for each type of candidate condition using the detection rate of the phase difference known point in the left and right search images, and the maximum value detection unit determines the maximum value for each type of candidate condition. The candidate condition for which the evaluation value is obtained is detected as the correction condition.
【0054】既に述べたように、x軸方向への平行移動
量、y軸方向への平行移動量、x軸回りの回転角度、y
軸回りの回転角度、z軸回りの回転角度及び変換倍率の
全ての種類の候補条件について、候補条件の種類毎に候
補条件の評価値を求めそして候補条件の種類毎に評価値
が最大となる候補条件を検出しても良いし、実用上問題
ない範囲であれば、x軸方向への平行移動量、y軸方向
への平行移動量、x軸回りの回転角度、y軸回りの回転
角度、z軸回りの回転角度及び変換倍率の一部の種類の
候補条件についてのみ、候補条件の種類毎に候補条件の
評価値を求めそして評価値が最大となる候補条件を検出
するようにしても良い。As described above, the parallel movement amount in the x-axis direction, the parallel movement amount in the y-axis direction, the rotation angle around the x-axis, y
With respect to all kinds of candidate conditions of the rotation angle around the axis, the rotation angle around the z axis, and the conversion magnification, the evaluation value of the candidate condition is obtained for each kind of candidate condition, and the evaluation value becomes maximum for each kind of candidate condition. Candidate conditions may be detected, and within a range that does not cause any practical problem, the parallel movement amount in the x-axis direction, the parallel movement amount in the y-axis direction, the rotation angle around the x-axis, the rotation angle around the y-axis. , The rotation angle around the z-axis and the conversion factor only for some types of candidate conditions, the evaluation value of the candidate condition is calculated for each type of the candidate condition, and the candidate condition having the maximum evaluation value is detected. good.
【0055】さらに請求項9の発明は、左右画像のエピ
ポーララインを合わせるための修正条件を検出する修正
条件検出装置において、条件設定部、画像変換部、対応
点探索部、評価値算出部及び最大値検出部を備えて成る
ことを特徴とする。Further, in the correction condition detecting device for detecting the correction condition for matching the epipolar lines of the left and right images, the condition setting part, the image converting part, the corresponding point searching part, the evaluation value calculating part and the maximum value are added. It is characterized by comprising a value detection unit.
【0056】条件設定部は高さ方向修正条件を検出する
ための候補条件を順次に設定し、画像変換部は左右画像
の一方を候補条件に従って画像変換する。画像変換部は
x軸方向を水平方向、y軸方向を高さ方向及びz軸方向
を奥行き方向とし、高さ方向修正条件を検出するための
画像変換としてy軸方向(高さ方向)への平行移動を行
ない、この画像変換に候補条件を用いる。The condition setting unit sequentially sets candidate conditions for detecting the height direction correction condition, and the image conversion unit performs image conversion on one of the left and right images according to the candidate condition. The image conversion unit sets the x-axis direction as the horizontal direction, the y-axis direction as the height direction, and the z-axis direction as the depth direction, and performs image conversion for detecting the height direction correction condition in the y-axis direction (height direction). The translation is performed and the candidate condition is used for this image conversion.
【0057】候補条件には、y軸方向への平行移動量を
段階的に定めた任意好適個数の複数の条件Δy1 、Δy
2 、……を用いることができる。z軸方向への平行移動
量Δy1 、Δy2 、……のうち後述する評価値が最大と
なるものが、エピポーララインを合わせるのに適したy
軸方向への平行移動量すなわち高さ方向修正条件とな
る。The candidate conditions include a plurality of conditions Δy 1 and Δy of an arbitrary suitable number in which the amount of parallel movement in the y-axis direction is determined stepwise.
2 , ... can be used. Of the translation amounts Δy 1 , Δy 2 , ... In the z-axis direction, the one having the maximum evaluation value described later is y suitable for matching the epipolar line.
It is the amount of parallel movement in the axial direction, that is, the height direction correction condition.
【0058】対応点探索部は、走査方向、走査対象とな
る画素の階調表現、若しくは、走査対象となる画素の色
を異ならせて複数種の探索条件を設定し、画像変換後の
左右画像を左右探索画像とする。The corresponding point search unit sets a plurality of types of search conditions by making the scanning direction, the gradation expression of the pixel to be scanned or the color of the pixel to be scanned different, and setting the left and right images after image conversion. Are left and right search images.
【0059】そして対応点探索部は、探索条件に従って
左右探索画像を走査し、相対応する水平走査線上におい
て左探索画像の画素特徴と右探索画像の画素特徴とを比
較して画素特徴の差が閾値以下となる左右探索画像の画
素を対応候補点として検出し、各探索条件毎に検出した
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する。然る後、対応点探索部は、対応
点検出結果を用いて左右探索画像における位相差の判明
点及び不明点を検出する。Then, the corresponding point search unit scans the left and right search images according to the search conditions, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and finds the difference between the pixel features. Pixels in the left and right search images that are equal to or less than the threshold value are detected as corresponding candidate points, and corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition are detected as corresponding points. After that, the corresponding point searching unit detects the identified point and the unknown point of the phase difference in the left and right search images using the corresponding point detection result.
【0060】走査方向を異ならせて複数種の探索条件を
設定する場合は、次の如くして対応候補点を検出する。When a plurality of types of search conditions are set by making the scanning directions different, the corresponding candidate points are detected as follows.
【0061】すなわち左右探索画像において相対応する
水平走査線上に存在する画素であって、左右探索画像の
一方の画像の画素を着目点、及び、左右探索画像の他方
の画像の画素を対照点とする。着目点走査方向を右方向
(水平走査線上において左から右へ向かう方向)としか
つ対照点走査方向を右方向とする条件aと、着目点走査
方向を右方向としかつ対照点走査方向を左方向(水平走
査線上において右から左へ向かう方向)とする条件b、
着目点走査方向を左方向としかつ対照点走査方向を右方
向とする条件c、着目点走査方向を左方向としかつ対照
点走査方向を左方向とする条件dの4種の条件のなかか
ら選択した少なくとも2種の条件を、探索条件として設
定して、対応候補点を検出する。That is, among the pixels existing on the corresponding horizontal scanning lines in the left and right search images, the pixel of one image of the left and right search images is the target point, and the pixel of the other image of the left and right search images is the control point. To do. Condition a in which the point of interest scanning direction is the right direction (direction from left to right on the horizontal scanning line) and the control point scanning direction is the right direction, and the point of interest scanning direction is the right direction and the control point scanning direction is the left direction Condition b, which is (direction from right to left on the horizontal scanning line),
Select from four types of conditions: condition c in which the scanning direction of the point of interest is left and the scanning direction of the contrast point is right, and condition d in which the scanning direction of the point of interest is left and the scanning direction of contrast point is left. The corresponding candidate points are detected by setting at least two kinds of conditions as described above as search conditions.
【0062】条件a〜dいずれの場合も、水平走査線上
において着目点走査方向へ順次に数えて第i番目の着目
点に対し、水平走査上の対照点を対照点走査方向へ順次
に走査してゆく。第i番目の着目点に対し画素特徴の差
が閾値以下となる対照点を検出することなく対照点の走
査を終了したら、次に第i+1番目の着目点に対し対照
点の走査を行なう。また第i番目の着目点に対し画素特
徴の差が閾値以下となる対照点を検出したら、当該第i
番目の着目点と対照点とを対応候補点として検出し、然
る後、第i+1番目の着目点に対し対照点の走査を行な
う。In any of the conditions a to d, the control point on the horizontal scanning is sequentially scanned in the control point scanning direction with respect to the i-th target point counted sequentially in the control point scanning direction on the horizontal scanning line. Go on. When the scanning of the control point is completed without detecting the control point in which the difference between the pixel features is equal to or less than the threshold value for the i-th target point, the control point is scanned next for the (i + 1) th target point. When a control point in which the difference in pixel feature is less than or equal to the threshold is detected for the ith target point, the ith target point is detected.
The n-th point of interest and the control point are detected as corresponding candidate points, and thereafter, the control point is scanned for the (i + 1) th point of interest.
【0063】このように着目点走査方向若しくは対象点
走査方向を異ならせて左右探索画像を走査するという複
数種の探索条件を設定し、各探索条件毎に得た対応候補
点の集合において共通集合となる対応候補点を候補点と
して検出することにより、誤対応を減少させることがで
きる。In this way, a plurality of types of search conditions are set, in which the left and right search images are scanned by changing the scanning direction of the point of interest or the scanning direction of the target point, and a common set is set in the set of corresponding candidate points obtained for each search condition. The false correspondence can be reduced by detecting the corresponding correspondence candidate points as the candidate points.
【0064】走査対象となる画素の階調表現を異ならせ
て複数種の探索条件を設定する場合は、次の如くして対
応候補点を検出する。When a plurality of types of search conditions are set by changing the gradation expression of the pixel to be scanned, the corresponding candidate points are detected as follows.
【0065】すなわち対応点探索部は、左右探索画像の
階調を変換して階調表現の異なる複数種の左右探索画像
を用意する。そして階調表現を異ならせた各左右探索画
像について対応候補点を検出し、各階調表現毎に得た対
応候補点の集合において共通集合となる対応候補点を対
応点として検出する。例えば、左右カメラにより256
階調の白黒画像を左右画像として得てこの左右画像を左
右探索画像として得た場合、まず階調変換しない256
階調の左右探索画像を走査して対応候補点を検出し、さ
らに256階調の左右探索画像を階調変換して32階調
の左右探索画像を得、この32階調の左右探索画像を走
査して対応候補点を検出する。そしてこれら256階調
及び32階調の左右探索画像から検出した対応候補点の
共通集合を対応点として検出する。或は、左右カメラに
より256階調の白黒画像を左右画像として得てこの左
右画像を左右探索画像として得た場合、この256階調
の左右探索画像を階調変換して、階調表現を異ならせた
複数種の16階調の左右探索画像を生成する。この場
合、階調の段階数は同じ16階調であり最初及び最後の
階調幅ここでは第1番目及び第16番目の階調幅を異な
らせた16階調の左右探索画像を生成することとなる。
そして階調表現を異ならせた16階調の左右探索画像を
それぞれ走査して対応候補点を検出し、各16階調の左
右探索画像毎に検出した対応候補点の共通集合を対応点
として検出する。That is, the corresponding point searching section converts the gradation of the left and right search images to prepare a plurality of types of left and right search images having different gradation expressions. Corresponding candidate points are detected for each of the left and right search images with different gradation expressions, and the corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each gradation expression are detected as corresponding points. For example, with left and right cameras 256
When a black and white image with gradation is obtained as a left and right image and this left and right image is obtained as a left and right search image, gradation conversion is not performed 256
The gradation left and right search images are scanned to detect corresponding candidate points, and the 256 gradation left and right search images are converted into gradations to obtain 32 gradation left and right search images. The corresponding candidate points are detected by scanning. Then, a common set of correspondence candidate points detected from the left and right search images of 256 gradations and 32 gradations is detected as a corresponding point. Alternatively, when a black and white image of 256 gradations is obtained as a left and right image by the left and right cameras and this left and right image is obtained as a left and right search image, the left and right search images of 256 gradations are subjected to gradation conversion and different gradation expressions are obtained. A plurality of types of left and right search images of 16 gradations are generated. In this case, the number of gradation levels is the same 16 gradations, and the left and right search images of 16 gradations with different first and 16th gradation widths are generated here. .
Then, the 16-gradation left and right search images with different gradation representations are scanned to detect corresponding candidate points, and a common set of corresponding candidate points detected for each 16-gradation left and right search images is detected as the corresponding points. To do.
【0066】このように階調の段階数を異ならせた複数
種の画像をそれぞれ左右探索画像として対応候補点を検
出するという複数種の探索条件を設定し、若しくは、階
調の段階数を同一として最初及び最後の階調幅を異なら
せた複数種の画像をそれぞれ左右探索画像として対応候
補点を検出するという複数種の探索条件を設定し、各探
索条件毎に得た対応候補点の集合において共通集合とな
る対応候補点を候補点として検出することにより、誤対
応を減少させることができる。As described above, a plurality of types of search conditions are set in which a plurality of types of images having different gradation levels are used as left and right search images to detect corresponding candidate points, or the number of gradation levels is the same. As a set of a plurality of types of search conditions in which a plurality of types of images with different first and last gradation widths are used as the left and right search images to detect corresponding candidate points, and in a set of corresponding candidate points obtained for each search condition By detecting the corresponding candidate points that form a common set as the candidate points, it is possible to reduce the false correspondence.
【0067】走査対象となる画素の色を異ならせて複数
種の探索条件を設定する場合は、次の如くして対応候補
点を検出する。When a plurality of types of search conditions are set by making the color of the pixel to be scanned different, the corresponding candidate points are detected as follows.
【0068】すなわち左右カメラにより左右画像として
カラー画像を得た場合には、対応点探索部は、カラー画
像である左右画像の赤色画像、緑色画像及び青色画像か
ら選択した2種又は3種の色画像を左右探索画像とす
る。そして左右探索画像について各色画像毎に対応候補
点を検出し、各色画像毎に得た対応候補点の集合におい
て共通集合となる対応候補点を対応点として検出する。
例えばカラー画像である左右画像の赤色画像、緑色画像
及び青色画像をそれぞれ左右探索画像とし、各色毎に左
右探索画像を走査して対応候補点を検出する。そして赤
色画像について得た対応候補点の集合と緑色画像につい
て得た対応候補点の集合と青色画像について得た対応候
補点の集合とにおいて、共通集合となる対応候補点を対
応点として検出する。That is, when color images are obtained as left and right images by the left and right cameras, the corresponding point searching section determines two or three colors selected from the red image, the green image and the blue image of the left and right images which are color images. Let the images be left and right search images. Corresponding candidate points are detected for each color image in the left and right search images, and corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each color image are detected as corresponding points.
For example, a red image, a green image, and a blue image of left and right images that are color images are used as left and right search images, and the left and right search images are scanned for each color to detect corresponding candidate points. Then, in the set of corresponding candidate points obtained for the red image, the set of corresponding candidate points obtained for the green image, and the set of corresponding candidate points obtained for the blue image, corresponding candidate points forming a common set are detected as corresponding points.
【0069】このように左右カメラにより左右画像とし
てカラー画像を得た場合に、左右画像の赤色画像、緑色
画像及び青色画像から選択した複数種の色画像をそれぞ
れ左右探索画像とするという複数種の探索条件を設定
し、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点を対応点を検出することにより、
誤対応を減少させることができる。When color images are obtained as left and right images by the left and right cameras as described above, a plurality of types of color images selected from the red image, the green image and the blue image of the left and right images are used as left and right search images. By setting the search conditions and detecting the corresponding points that are common sets in the set of corresponding candidate points obtained for each search condition,
False correspondence can be reduced.
【0070】対応点探索部は、左右探索画像を走査して
得た対応点検出結果を用いて、左右探索画像において高
さ方向のずれ量が大となる近距離位相差の判明点及び不
明点を検出する。The corresponding point searching unit uses the corresponding point detection results obtained by scanning the left and right search images to find out the unknown and unknown points of the short-distance phase difference in which the amount of shift in the height direction in the left and right search images is large. To detect.
【0071】評価値算出部は左右探索画像において高さ
方向のずれ量が大となる近距離位相差につき位相差判明
点の検出率を求め当該検出率を用いて高さ方向候補条件
の評価値を求め、最大値検出部は最大の評価値を得た高
さ方向候補条件を高さ方向修正条件として検出する。The evaluation value calculation unit obtains the detection rate of the phase difference determination point for the short-distance phase difference in which the shift amount in the height direction in the left and right search images is large, and uses the detection rate to evaluate the height direction candidate condition. Then, the maximum value detection unit detects the height direction candidate condition having the maximum evaluation value as the height direction correction condition.
【0072】さらに請求項13の発明は左右画像のエピ
ポーララインを合わせるための修正条件を検出する修正
条件検出装置において、条件設定部、画像変換部、対応
点探索部、評価値算出部及び最大値検出部を備えて成る
ことを特徴とする。Further, in the correction condition detecting device for detecting the correction condition for matching the epipolar lines of the left and right images, the condition setting part, the image converting part, the corresponding point searching part, the evaluation value calculating part and the maximum value are set. It is characterized by comprising a detection unit.
【0073】条件設定部はチルト角修正条件を検出する
ための候補条件を順次に設定し、画像変換部は左右画像
の一方を候補条件に従って画像変換する。画像変換部は
x軸方向を水平方向、y軸方向を高さ方向及びz軸方向
を奥行き方向とし、チルト角修正条件を検出するための
画像変換としてz軸回りの回転を行ない、この画像変換
に候補条件を用いる。The condition setting unit sequentially sets the candidate conditions for detecting the tilt angle correction condition, and the image conversion unit converts one of the left and right images according to the candidate condition. The image conversion unit performs rotation around the z axis as image conversion for detecting the tilt angle correction condition, with the x axis direction as the horizontal direction, the y axis direction as the height direction, and the z axis direction as the depth direction. Use candidate conditions for.
【0074】候補条件には、z軸回りの回転角度を段階
的に定めた任意好適個数の複数の条件Δγ1 、Δγ2 、
……を用いることができる。z軸回りの回転角度Δγ
1 、Δγ2 、……のうち後述する評価値が最大となるも
のが、エピポーララインを合わせるのに適したz軸回り
の回転角度すなわちチルト角修正条件となる。As the candidate conditions, an arbitrary suitable number of plural conditions Δγ 1 , Δγ 2 , in which the rotation angle around the z axis is determined stepwise,
... can be used. Rotation angle about z-axis Δγ
Among 1 , 1 , Δγ 2 , ..., the one with the maximum evaluation value described later is the rotation angle around the z-axis suitable for aligning the epipolar line, that is, the tilt angle correction condition.
【0075】対応点探索部は、走査方向、走査対象とな
る画素の階調表現、若しくは、走査対象となる画素の色
を異ならせて複数種の探索条件を設定し、画像変換後の
左右画像を左右探索画像とする。The corresponding point search unit sets a plurality of types of search conditions by making the scanning direction, the gradation expression of the pixel to be scanned or the color of the pixel to be scanned different, and setting the left and right images after image conversion. Are left and right search images.
【0076】そして対応点探索部は、探索条件に従って
左右探索画像を走査し、相対応する水平走査線上におい
て左探索画像の画素特徴と右探索画像の画素特徴とを比
較して画素特徴の差が閾値以下となる左右探索画像の画
素を対応候補点として検出し、各探索条件毎に検出した
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する。然る後、対応点探索部は、対応
点検出結果を用いて左右探索画像における位相差の判明
点及び不明点を検出する。Then, the corresponding point search unit scans the left and right search images according to the search conditions, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and finds the difference between the pixel features. Pixels in the left and right search images that are equal to or less than the threshold value are detected as corresponding candidate points, and corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition are detected as corresponding points. After that, the corresponding point searching unit detects the identified point and the unknown point of the phase difference in the left and right search images using the corresponding point detection result.
【0077】走査方向を異ならせて複数種の探索条件を
設定する場合は、次の如くして対応候補点を検出する。When a plurality of types of search conditions are set by making the scanning directions different, the corresponding candidate points are detected as follows.
【0078】すなわち左右探索画像において相対応する
水平走査線上に存在する画素であって、左右探索画像の
一方の画像の画素を着目点、及び、左右探索画像の他方
の画像の画素を対照点とする。着目点走査方向を右方向
(水平走査線上において左から右へ向かう方向)としか
つ対照点走査方向を右方向とする条件aと、着目点走査
方向を右方向としかつ対照点走査方向を左方向(水平走
査線上において右から左へ向かう方向)とする条件b、
着目点走査方向を左方向としかつ対照点走査方向を右方
向とする条件c、着目点走査方向を左方向としかつ対照
点走査方向を左方向とする条件dの4種の条件のなかか
ら選択した少なくとも2種の条件を、探索条件として設
定して、対応候補点を検出する。That is, among the pixels existing on the corresponding horizontal scanning lines in the left and right search images, the pixel of one image of the left and right search images is the target point, and the pixel of the other image of the left and right search image is the control point. To do. Condition a in which the point of interest scanning direction is the right direction (direction from left to right on the horizontal scanning line) and the control point scanning direction is the right direction, and the point of interest scanning direction is the right direction and the control point scanning direction is the left direction Condition b, which is (direction from right to left on the horizontal scanning line),
Select from four types of conditions: condition c in which the scanning direction of the point of interest is left and the scanning direction of the contrast point is right, and condition d in which the scanning direction of the point of interest is left and the scanning direction of contrast point is left. The corresponding candidate points are detected by setting at least two kinds of conditions as described above as search conditions.
【0079】条件a〜dいずれの場合も、水平走査線上
において着目点走査方向へ順次に数えて第i番目の着目
点に対し、水平走査上の対照点を対照点走査方向へ順次
に走査してゆく。第i番目の着目点に対し画素特徴の差
が閾値以下となる対照点を検出することなく対照点の走
査を終了したら、次に第i+1番目の着目点に対し対照
点の走査を行なう。また第i番目の着目点に対し画素特
徴の差が閾値以下となる対照点を検出したら、当該第i
番目の着目点と対照点とを対応候補点として検出し、然
る後、第i+1番目の着目点に対し対照点の走査を行な
う。In any of the conditions a to d, the control point on the horizontal scan is sequentially scanned in the control point scanning direction with respect to the i-th target point counted in the scanning direction of the target point on the horizontal scanning line. Go on. When the scanning of the control point is completed without detecting the control point in which the difference between the pixel features is equal to or less than the threshold value for the i-th target point, the control point is scanned next for the (i + 1) th target point. When a control point in which the difference in pixel feature is less than or equal to the threshold is detected for the ith target point, the ith target point is detected.
The n-th point of interest and the control point are detected as corresponding candidate points, and thereafter, the control point is scanned for the (i + 1) th point of interest.
【0080】このように着目点走査方向若しくは対象点
走査方向を異ならせて左右探索画像を走査するという複
数種の探索条件を設定し、各探索条件毎に得た対応候補
点の集合において共通集合となる対応候補点を候補点と
して検出することにより、誤対応を減少させることがで
きる。As described above, a plurality of types of search conditions are set such that the left and right search images are scanned by changing the scanning direction of the point of interest or the scanning direction of the target point, and a common set is set in the set of corresponding candidate points obtained for each search condition. The false correspondence can be reduced by detecting the corresponding correspondence candidate points as the candidate points.
【0081】走査対象となる画素の階調表現を異ならせ
て複数種の探索条件を設定する場合は、次の如くして対
応候補点を検出する。When a plurality of types of search conditions are set by changing the gradation expression of the pixel to be scanned, the corresponding candidate points are detected as follows.
【0082】すなわち対応点探索部は、左右探索画像の
階調を変換して階調表現の異なる複数種の左右探索画像
を用意する。そして階調表現を異ならせた各左右探索画
像について対応候補点を検出し、各階調表現毎に得た対
応候補点の集合において共通集合となる対応候補点を対
応点として検出する。例えば、左右カメラにより256
階調の白黒画像を左右画像として得てこの左右画像を左
右探索画像として得た場合、まず階調変換しない256
階調の左右探索画像を走査して対応候補点を検出し、さ
らに256階調の左右探索画像を階調変換して32階調
の左右探索画像を得、この32階調の左右探索画像を走
査して対応候補点を検出する。そしてこれら256階調
及び32階調の左右探索画像から検出した対応候補点の
共通集合を対応点として検出する。或は、左右カメラに
より256階調の白黒画像を左右画像として得てこの左
右画像を左右探索画像として得た場合、この256階調
の左右探索画像を階調変換して、階調表現を異ならせた
複数種の16階調の左右探索画像を生成する。この場
合、階調の段階数は同じ16階調であり最初及び最後の
階調幅ここでは第1番目及び第16番目の階調幅を異な
らせた16階調の左右探索画像を生成することとなる。
そして階調表現を異ならせた16階調の左右探索画像を
それぞれ走査して対応候補点を検出し、各16階調の左
右探索画像毎に検出した対応候補点の共通集合を対応点
として検出する。That is, the corresponding point searching section converts the gradation of the left and right search images to prepare a plurality of types of left and right search images having different gradation expressions. Corresponding candidate points are detected for each of the left and right search images with different gradation expressions, and the corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each gradation expression are detected as corresponding points. For example, with left and right cameras 256
When a black and white image with gradation is obtained as a left and right image and this left and right image is obtained as a left and right search image, gradation conversion is not performed 256
The gradation left and right search images are scanned to detect corresponding candidate points, and the 256 gradation left and right search images are converted into gradations to obtain 32 gradation left and right search images. The corresponding candidate points are detected by scanning. Then, a common set of correspondence candidate points detected from the left and right search images of 256 gradations and 32 gradations is detected as a corresponding point. Alternatively, when a black and white image of 256 gradations is obtained as a left and right image by the left and right cameras and this left and right image is obtained as a left and right search image, the left and right search images of 256 gradations are subjected to gradation conversion and different gradation expressions are obtained. A plurality of types of left and right search images of 16 gradations are generated. In this case, the number of gradation levels is the same 16 gradations, and the left and right search images of 16 gradations with different first and 16th gradation widths are generated here. .
Then, the 16-gradation left and right search images with different gradation representations are scanned to detect corresponding candidate points, and a common set of corresponding candidate points detected for each 16-gradation left and right search images is detected as the corresponding points. To do.
【0083】このように階調の段階数を異ならせた複数
種の画像をそれぞれ左右探索画像として対応候補点を検
出するという複数種の探索条件を設定し、若しくは、階
調の段階数を同一として最初及び最後の階調幅を異なら
せた複数種の画像をそれぞれ左右探索画像として対応候
補点を検出するという複数種の探索条件を設定し、各探
索条件毎に得た対応候補点の集合において共通集合とな
る対応候補点を候補点として検出することにより、誤対
応を減少させることができる。As described above, plural kinds of images having different gradation steps are set as left and right search images, and plural kinds of search conditions are set to detect corresponding candidate points. As a set of a plurality of types of search conditions in which a plurality of types of images with different first and last gradation widths are used as the left and right search images to detect corresponding candidate points, and in a set of corresponding candidate points obtained for each search condition By detecting the corresponding candidate points that form a common set as the candidate points, it is possible to reduce the false correspondence.
【0084】走査対象となる画素の色を異ならせて複数
種の探索条件を設定する場合は、次の如くして対応候補
点を検出する。When a plurality of types of search conditions are set by making the color of the pixel to be scanned different, the corresponding candidate points are detected as follows.
【0085】すなわち左右カメラにより左右画像として
カラー画像を得た場合には、対応点探索部は、カラー画
像である左右画像の赤色画像、緑色画像及び青色画像か
ら選択した2種又は3種の色画像を左右探索画像とす
る。そして左右探索画像について各色画像毎に対応候補
点を検出し、各色画像毎に得た対応候補点の集合におい
て共通集合となる対応候補点を対応点として検出する。
例えばカラー画像である左右画像の赤色画像、緑色画像
及び青色画像をそれぞれ左右探索画像とし、各色毎に左
右探索画像を走査して対応候補点を検出する。そして赤
色画像について得た対応候補点の集合と緑色画像につい
て得た対応候補点の集合と青色画像について得た対応候
補点の集合とにおいて、共通集合となる対応候補点を対
応点として検出する。That is, when color images are obtained as left and right images by the left and right cameras, the corresponding point searching unit determines two or three types of colors selected from the red image, the green image and the blue image of the left and right images which are color images. Let the images be left and right search images. Corresponding candidate points are detected for each color image in the left and right search images, and corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each color image are detected as corresponding points.
For example, a red image, a green image, and a blue image of left and right images that are color images are used as left and right search images, and the left and right search images are scanned for each color to detect corresponding candidate points. Then, in the set of corresponding candidate points obtained for the red image, the set of corresponding candidate points obtained for the green image, and the set of corresponding candidate points obtained for the blue image, corresponding candidate points forming a common set are detected as corresponding points.
【0086】このように左右カメラにより左右画像とし
てカラー画像を得た場合に、左右画像の赤色画像、緑色
画像及び青色画像から選択した複数種の色画像をそれぞ
れ左右探索画像とするという複数種の探索条件を設定
し、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点を対応点を検出することにより、
誤対応を減少させることができる。In this way, when color images are obtained as left and right images by the left and right cameras, a plurality of types of color images selected from the red image, the green image and the blue image of the left and right images are used as the left and right search images. By setting the search conditions and detecting the corresponding points that are common sets in the set of corresponding candidate points obtained for each search condition,
False correspondence can be reduced.
【0087】対応点探索部は、左右探索画像を走査して
得た対応点検出結果を用いて、左右探索画像においてチ
ルト角のずれ量が大となる遠距離位相差の判明点及び不
明点を検出する。The corresponding point search unit uses the corresponding point detection results obtained by scanning the left and right search images to identify the clear and unknown points of the long-distance phase difference in which the shift amount of the tilt angle is large in the left and right search images. To detect.
【0088】評価値算出部は左右探索画像においてチル
ト角のずれ量が大となる遠距離位相差につき位相差判明
点の検出率を求め当該検出率を用いてチルト角候補条件
の評価値を求め、最大値検出部は最大の評価値を得たチ
ルト角候補条件をチルト角修正条件として検出する。The evaluation value calculation unit obtains the detection rate of the phase difference determination point for the long-distance phase difference in which the shift amount of the tilt angle is large in the left and right search images, and obtains the evaluation value of the tilt angle candidate condition using the detection rate. The maximum value detection unit detects the tilt angle candidate condition having the maximum evaluation value as the tilt angle correction condition.
【0089】[0089]
<請求項1の発明の第一実施形態>図1は請求項1の発
明の第一実施形態の説明に供する機能ブロック図であ
る。同図において10及び12は2眼ステレオ画像法に
用いる左カメラ及び右カメラを示す。左カメラ10で撮
影した左画像を第一左メモリ14に、また右カメラ12
で撮影した右画像を第一右メモリ16に格納する。<First Embodiment of the Invention of Claim 1> FIG. 1 is a functional block diagram for explaining the first embodiment of the invention of claim 1. In the figure, reference numerals 10 and 12 denote a left camera and a right camera used for the binocular stereo image method. The left image captured by the left camera 10 is stored in the first left memory 14, and the right camera 12 is also stored.
The right image photographed in step 1 is stored in the first right memory 16.
【0090】18は修正条件検出装置を示し、この実施
形態の修正条件検出装置18は、左カメラ10及び右カ
メラ12で撮影した左画像及び右画像の、エピポーララ
イン合わせに用いる修正条件を検出する。さらにこれに
加えこの実施形態の修正条件検出装置18は、左カメラ
10及び右カメラ12で撮影した左画像及び右画像の一
方を、検出した修正条件に基づいて画像変換し、画像変
換後の左画像及び右画像を第二左メモリ20及び第二右
メモリ22に格納する。修正条件に基づく画像変換後の
左画像及び右画像にあっては、エピポーララインが一致
し或はほぼ一致した状態となっている。Reference numeral 18 denotes a correction condition detection device. The correction condition detection device 18 of this embodiment detects correction conditions used for epipolar line alignment of the left and right images taken by the left camera 10 and the right camera 12. . In addition to this, the correction condition detection device 18 of the present embodiment performs image conversion of one of the left image and the right image captured by the left camera 10 and the right camera 12 based on the detected correction condition, and the left after image conversion is performed. The image and the right image are stored in the second left memory 20 and the second right memory 22. In the left image and the right image after the image conversion based on the correction condition, the epipolar lines are in the same or almost the same state.
【0091】24は対応点探索装置を示す。対応点探索
装置24は、修正条件に基づく画像変換後の左画像及び
右画像を走査してこれら左画像及び右画像において相対
応する画素(対応点)を検出し、さらに対応点の位相差
を、検出して距離情報メモリ26に格納する。対応点の
位相差は3次元画像の距離情報として利用されるもので
ある。Reference numeral 24 indicates a corresponding point searching device. The corresponding point searching device 24 scans the left image and the right image after the image conversion based on the correction condition to detect corresponding pixels (corresponding points) in the left image and the right image, and further detects the phase difference between the corresponding points. , And stores it in the distance information memory 26. The phase difference between the corresponding points is used as distance information of the three-dimensional image.
【0092】そしてこの実施形態の修正条件検出装置1
8は、条件設定部28、画像変換部30、対応点探索部
32、評価値算出部34及び最大値検出部36と、第三
左メモリ38及び第三右メモリ40とを備える。Then, the correction condition detecting apparatus 1 of this embodiment
8 includes a condition setting unit 28, an image converting unit 30, a corresponding point searching unit 32, an evaluation value calculating unit 34, a maximum value detecting unit 36, a third left memory 38 and a third right memory 40.
【0093】条件設定部28は修正条件を検出するため
の複数種類の候補条件を順次に設定し、画像変換部30
は左カメラ10及び右カメラ12により得た左画像及び
右画像の一方を、候補条件に従って画像変換する。The condition setting unit 28 sequentially sets a plurality of types of candidate conditions for detecting the correction condition, and the image conversion unit 30
Converts one of the left image and the right image obtained by the left camera 10 and the right camera 12 according to the candidate condition.
【0094】ここでは条件設定部28は補正条件を検出
するための複数種類の候補条件と、エピポーララインを
合わせるための複数種類の修正条件とを記憶する。記憶
する修正条件は、最大値検出部36により検出された修
正条件である。Here, the condition setting unit 28 stores a plurality of types of candidate conditions for detecting the correction conditions and a plurality of types of correction conditions for matching the epipolar lines. The correction condition to be stored is the correction condition detected by the maximum value detection unit 36.
【0095】修正条件を検出する場合に、条件設定部2
8は候補条件を画像変換部30に対して出力し、画像変
換部30は左カメラ10及び右カメラ12により得た左
画像及び右画像の一方を、この候補条件に従って画像変
換する。画像変換部30は候補条件に基づく画像変換後
の左画像及び右画像を、第三左メモリ38及び第三右メ
モリ40に格納する。これらメモリ38及び40に格納
された左画像及び右画像の一方は画像変換された画像と
なり、他方は画像変換されていない画像となる。When the correction condition is detected, the condition setting unit 2
8 outputs the candidate condition to the image conversion unit 30, and the image conversion unit 30 performs image conversion on one of the left image and the right image obtained by the left camera 10 and the right camera 12 according to the candidate condition. The image conversion unit 30 stores the left image and the right image after the image conversion based on the candidate conditions in the third left memory 38 and the third right memory 40. One of the left image and the right image stored in these memories 38 and 40 is an image-converted image, and the other is an image that has not been image-converted.
【0096】またエピポーララインを合わせる場合に、
条件設定部28は修正条件を画像変換部30に対して出
力し、画像変換部30は左カメラ10及び右カメラ12
により得た左画像及び右画像の一方を、この修正条件に
従って画像変換する。画像変換部30は修正条件に基づ
く画像変換後の左画像及び右画像を、第二左メモリ20
及び第二右メモリ22に格納する。これらメモリ20及
び22に格納された左画像及び右画像の一方は画像変換
された画像となり、他方は画像変換されていない画像と
なる。When the epipolar line is matched,
The condition setting unit 28 outputs the correction condition to the image conversion unit 30, and the image conversion unit 30 outputs the left camera 10 and the right camera 12.
One of the left image and the right image obtained by the above is subjected to image conversion according to this correction condition. The image conversion unit 30 outputs the left image and the right image after the image conversion based on the correction condition to the second left memory 20.
And the second right memory 22. One of the left image and the right image stored in the memories 20 and 22 is an image-converted image, and the other is an image that is not image-converted.
【0097】条件設定部28は、画像の平行移動、回転
及び倍率変換に関わる候補条件を記憶する。従って最大
値検出部36が検出する修正条件は画像の平行移動、回
転及び倍率変換に関わる修正条件となり、画像変換部3
0が候補条件及び修正条件に従って行なう画像変換は画
像の平行移動、回転及び倍率変換となる。これら平行移
動、回転及び倍率変換としては、既知の手法を用いるこ
とができる。The condition setting section 28 stores candidate conditions relating to parallel movement, rotation and magnification conversion of an image. Therefore, the correction condition detected by the maximum value detection unit 36 is the correction condition relating to the parallel movement, rotation, and magnification conversion of the image, and the image conversion unit 3
Image conversion performed by 0 according to the candidate condition and the correction condition is image parallel movement, rotation, and magnification conversion. Known methods can be used for these parallel movement, rotation, and magnification conversion.
【0098】画像の平行移動に関わる候補条件として
は、x軸方向(水平方向)への平行移動量を段階的に定
めた複数個例えば5個の移動量Δx1 〜Δx5 と、y軸
方向(垂直方向もしくは高さ方向)への平行移動量を段
階的に定めた複数個例えば5個の変数Δy1 〜Δy5 と
を記憶し、従って画像の平行移動に関わる候補条件とし
て2種類の候補条件Δx1 〜Δx5 及びΔy1 〜Δy5
を記憶する。[0098] The candidate condition relating to translation of the image, the x-axis direction plurality example five moving amount Δx 1 ~Δx 5 that defines the parallel movement amount in the (horizontal) stepwise, y-axis direction two candidates as candidate condition storing a plurality example five variable Δy 1 ~Δy 5 which defines stepwise translation of the (vertical or height direction), thus involving translation of the image Conditions Δx 1 to Δx 5 and Δy 1 to Δy 5
Is stored.
【0099】x軸方向への平行移動量Δx1 〜Δx5 の
うち後述する評価値が最大となるものが、x軸方向への
平行移動に関わる修正条件となり、またy軸方向への平
行移動量Δy1 〜Δy5 のうち後述する評価値が最大と
なるものがy軸方向への平行移動に関わる修正条件とな
る。Among the parallel movement amounts Δx 1 to Δx 5 in the x-axis direction, the one having the maximum evaluation value described later is the correction condition relating to the parallel movement in the x-axis direction, and the parallel movement in the y-axis direction. Among the quantities Δy 1 to Δy 5, the one having the maximum evaluation value described later is the correction condition related to the parallel movement in the y-axis direction.
【0100】画像の回転に関わる候補条件としては、x
軸回りの回転角度を段階的に定めた複数個例えば5個の
角度Δα1 °〜Δα5 °と、y軸回りの回転角度を段階
的に定めた複数個例えば5個の角度Δβ1 °〜Δβ5 °
と、z軸回りの回転角度を段階的に定めた複数個例えば
5個の角度Δγ1 °〜Δγ5 とを記憶し、従って画像の
回転に関わる候補条件として3種類の候補条件Δα1 °
〜Δα5 °、Δβ1 °〜Δβ5 °及びΔγ1 °〜Δγ5
°を記憶する。The candidate condition relating to the image rotation is x
A plurality of, for example, five angles Δα 1 ° to Δα 5 ° in which the rotation angle around the axis is determined in stages, and a plurality of, for example, five angles Δβ 1 ° in which the rotation angle around the y axis is determined in stages. Δβ 5 °
And a plurality of, for example, five angles Δγ 1 ° to Δγ 5 in which the rotation angle around the z-axis is determined stepwise, and therefore, three types of candidate conditions Δα 1 ° as candidate conditions relating to image rotation.
~ Δα 5 °, Δβ 1 ° ~ Δβ 5 ° and Δγ 1 ° ~ Δγ 5
Remember °.
【0101】x軸回りの回転角度Δα1 °〜Δα5 °の
うち後述する評価値が最大となるものが、x軸回りの回
転に関わる修正条件となり、y軸回りの回転角度Δβ1
°〜Δβ5 °のうち後述する評価値が最大となるもの
が、y軸回りの回転に関わる修正条件となり、さらにz
軸回りの回転角度Δγ1 °〜Δγ5 のうち後述する評価
値が最大となるものが、z軸回りの回転に関わる修正条
件となる。Among the rotation angles Δα 1 ° to Δα 5 ° about the x-axis, the one having the largest evaluation value described later is the correction condition relating to the rotation about the x-axis, and the rotation angle Δβ 1 about the y-axis.
The one with the maximum evaluation value described below among ° to Δβ 5 ° is the correction condition related to the rotation around the y-axis, and z
Among the rotation angles Δγ 1 ° to Δγ 5 about the axis, the one having the maximum evaluation value described later is the correction condition related to the rotation about the z axis.
【0102】画像の倍率変換に関わる候補条件として
は、画像の拡大率を段階的に定めた複数個例えば5個の
変換倍率K1 〜K5 と、画像の縮小率を段階的に定めた
複数個例えば5個の変換倍率k1 〜k5 とを記憶し、従
って画像の倍率変換に関わる候補条件として1種類の変
換倍率を記憶する。As the candidate conditions relating to image magnification conversion, a plurality of image enlargement rates are set in stages, for example, five conversion magnifications K 1 to K 5, and a plurality of image reduction rates are set in stages. For example, five conversion magnifications k 1 to k 5 are stored, and thus one kind of conversion magnification is stored as a candidate condition relating to the conversion of the image magnification.
【0103】変換倍率K1 〜K5 及びk1 〜k5 のうち
後述する評価値が最大となるものが、倍率変換に関わる
修正条件となる。尚、画像の倍率変換は、z軸方向(奥
行き方向)への平行移動と等価である。Among the conversion magnifications K 1 to K 5 and k 1 to k 5 , the one having the maximum evaluation value described later is the correction condition relating to the magnification conversion. Note that the image magnification conversion is equivalent to parallel movement in the z-axis direction (depth direction).
【0104】対応点探索部32は、走査方向、走査対象
となる画素の階調表現、若しくは、走査対象となる画素
の色を異ならせて複数種の探索条件を設定し、画像変換
後の左右画像を左右探索画像とする。ここでは走査対象
となる画素の階調表現を異ならせて複数種の探索条件を
設定し、画像変換後の左右画像を全面にわたって左右探
索画像とする。The corresponding point searching unit 32 sets a plurality of types of search conditions by making the scanning direction, the gradation expression of the pixel to be scanned, or the color of the pixel to be scanned different, and sets the left and right after image conversion. Let the images be left and right search images. Here, a plurality of types of search conditions are set by differentiating the gradation expression of pixels to be scanned, and the left and right images after image conversion are set as left and right search images.
【0105】そして対応点探索部32は、探索条件に従
って左右探索画像を走査し、相対応する水平走査線上に
おいて左探索画像の画素特徴と右探索画像の画素特徴と
を比較して画素特徴の差が閾値以下となる左右探索画像
の画素を対応候補点として検出する。さらに対応点探索
部32は各探索条件毎に検出した対応候補点の集合にお
いて共通集合となる対応候補点を対応点として検出す
る。ここでは画素特徴を画素濃度とする。Then, the corresponding point search unit 32 scans the left and right search images according to the search conditions, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and compares the pixel feature differences. The pixels of the left and right search images in which is less than or equal to the threshold are detected as corresponding candidate points. Further, the corresponding point searching unit 32 detects, as corresponding points, corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition. Here, the pixel feature is the pixel density.
【0106】例えば第三左メモリ38及び第三右メモリ
40に格納した画像変換後の左画像及び右画像が256
階調の白黒画像である場合に、この256階調の左右画
像を全面にわたって階調変換して32階調の左右画像を
得この32階調の左右画像全面を左右探索画像とする第
一の探索条件を設定する。さらにこの256階調の左右
画像を全面にわたって階調変換して16階調の左右画像
を得この16階調の左右画像を全面にわたって左右探索
画像とする第二の探索条件を設定する。そして第一の探
索条件による32階調の左右探索画像を全面にわたり走
査して、相対応する水平走査線上において画素特徴の差
が閾値以下となる左右探索画像の画素を、第一の探索条
件による対応候補点として検出する。さらに第二の探索
条件による16階調の左右探索画像を全面にわたり走査
して、相対応する水平走査線上において画素特徴の差が
閾値以下となる左右探索画像の画素を、第二の探索条件
による対応候補点として検出する。然る後、第一の探索
条件で検出した対応候補点の集合と第二の探索条件で検
出した対応候補点の集合とにおいて共通集合となる対応
候補点を対応点として検出する。For example, the converted left image and right image stored in the third left memory 38 and the third right memory 40 are 256.
In the case of a grayscale black-and-white image, the 256-gradation left and right images are gradation-converted over the entire surface to obtain a 32-gradation left-right image. Set search conditions. Further, the right and left images of 256 gradations are converted over the entire surface to obtain left and right images of 16 gradations, and a second search condition is set so that the left and right images of 16 gradations are left and right search images. Then, the left and right search images of 32 gradations according to the first search condition are scanned over the entire surface, and the pixels of the left and right search images for which the difference in pixel feature on the corresponding horizontal scanning lines is equal to or less than the threshold value are determined by the first search condition. Detect as correspondence candidate points. Furthermore, the left and right search images of 16 gradations under the second search condition are scanned over the entire surface, and the pixels of the left and right search images for which the difference in pixel feature on the corresponding horizontal scanning lines is less than or equal to the threshold value are determined by the second search condition. Detect as correspondence candidate points. Then, the corresponding candidate points that are a common set in the set of corresponding candidate points detected under the first search condition and the set of corresponding candidate points detected under the second search condition are detected as corresponding points.
【0107】尚、画素特徴としては、画素濃度のほか種
々のものを用いることができる。例えば、画素を濃度に
応じてグループ化しひとつのグループの画素の集まりを
パターンと表すものとすれば、対応点探索部32は左右
探索画像の各画素毎に画素が属するパターンの幅や長さ
を検出し、当該幅や長さを画素特徴として用いるように
してもよい。この場合、左探索画像の画素特徴を検出す
るときは左探索画像を走査し右探索画像の画素特徴を検
出するときは右探索画像を走査する。そして画素特徴を
検出しようとする画素を通る水平走査線上において当該
画素が属するパターンの幅を検出する。また画素特徴を
検出しようとする画素を通る垂直走査線上において当該
画素が属するパターンの長さを検出する。As the pixel characteristics, various ones other than the pixel density can be used. For example, if pixels are grouped according to density and a group of pixels in one group is represented as a pattern, the corresponding point search unit 32 determines the width and length of the pattern to which the pixel belongs for each pixel of the left and right search images. It may be detected and the width or length may be used as a pixel feature. In this case, the left search image is scanned when detecting the pixel features of the left search image, and the right search image is scanned when detecting the pixel features of the right search image. Then, the width of the pattern to which the pixel belongs is detected on the horizontal scanning line passing through the pixel for which the pixel feature is to be detected. Further, the length of the pattern to which the pixel belongs is detected on the vertical scanning line passing through the pixel for which the pixel feature is to be detected.
【0108】次に対応点探索部32は、対応点検出結果
を用いて左右探索画像における位相差の判明点及び不明
点を検出する。ここでは、対応点の位相差に基づいて対
応不明点(対応点として検出されなかった画素)に対し
て位相差を推定し当て嵌める。位相差を当て嵌めること
ができなかった対応不明点を位相差不明点として検出す
る。然る後、対応不明点に当て嵌めた位相差に関して、
位相差が正しいか否かを検定する。そしてこの検定によ
り正しいと判定された位相差の対応不明点を位相差判明
点として、正しくないと判定された位相差の対応不明点
を位相差不明点として検出する。Next, the corresponding point searching unit 32 detects the identified point and the unknown point of the phase difference in the left and right search images by using the corresponding point detection result. Here, the phase difference is estimated and applied to the unclear point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, regarding the phase difference applied to the correspondence unknown point,
Test whether the phase difference is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is detected as the unknown phase difference point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the unknown phase difference point.
【0109】尚、位相差判明点及び位相差不明点の検出
は、ここで述べた以外の種々の方法で行なうことができ
る。例えば、対応不明点に対する位相差の当て嵌めを行
なわず、左右探索画像において対応点となる画素を位相
差判明点として及び対応不明点となる画素を位相差不明
点として検出するようにしても良い。The phase difference known point and the phase difference unknown point can be detected by various methods other than those described here. For example, without applying the phase difference to the correspondence unknown point, the pixel serving as the corresponding point in the left and right search images may be detected as the phase difference known point and the pixel serving as the correspondence unknown point may be detected as the phase difference unknown point. .
【0110】評価値算出部34は、左右探索画像におけ
る位相差判明点の検出率を用いて、候補条件の種類毎に
候補条件の評価値を求める。ここでは左右探索画像にお
ける位相差判明点の検出率を、各候補条件毎に求め、当
該検出率を候補条件の評価値とする。The evaluation value calculation unit 34 obtains the evaluation value of the candidate condition for each kind of candidate condition using the detection rate of the phase difference determination point in the left and right search images. Here, the detection rate of the phase difference determination point in the left and right search images is obtained for each candidate condition, and the detection rate is set as the evaluation value of the candidate condition.
【0111】最大値検出部36は、候補条件の種類毎
に、最大の評価値を得た候補条件を修正条件として検出
する。ここでは最大値検出部36は、検出した修正条件
を条件設定部28に記憶させる。The maximum value detection unit 36 detects, as a correction condition, the candidate condition that has the maximum evaluation value for each type of candidate condition. Here, the maximum value detection unit 36 stores the detected correction condition in the condition setting unit 28.
【0112】図2は請求項1の発明の第一実施形態の動
作の流れを示す図である。同図においては、複数種類の
候補条件及び修正条件のうち1種類に着目し、当該着目
種について、候補条件を用いて修正条件を検出する場合
の動作の流れを示す。FIG. 2 is a diagram showing the operation flow of the first embodiment of the invention of claim 1. In the same figure, the flow of the operation in the case of focusing on one type out of a plurality of types of candidate conditions and correction conditions and detecting the correction conditions for the focused species using the candidate conditions is shown.
【0113】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかの1種類を着目種の候補条件
として設定し(S1)、然る後、条件設定部28は着目
種の複数個の候補条件のなかから選択した1個の候補条
件(選択候補条件)を出力する(S2)。例えば着目種
の候補条件をx軸方向への平行移動に関わる候補条件Δ
x1 〜Δx5 とし、着目種の複数個の候補条件Δx1 〜
Δx5 のなかから選択した1個の候補条件Δx1 を出力
する。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting section 28 first sets one of the plurality of types of candidate conditions as a target condition candidate condition (S1), Then, the condition setting unit 28 outputs one candidate condition (selected candidate condition) selected from the plurality of candidate conditions of the target species (S2). For example, the candidate condition of the target species is a candidate condition Δ related to the parallel movement in the x-axis direction.
x 1 to Δx 5 and a plurality of candidate conditions Δx 1 to
One candidate condition Δx 1 selected from Δx 5 is output.
【0114】次に画像変換部30は、条件設定部28か
ら入力した選択候補条件に従って左画像及び右画像の一
方を画像変換する(S3)。Next, the image conversion unit 30 performs image conversion of one of the left image and the right image according to the selection candidate condition input from the condition setting unit 28 (S3).
【0115】図3は画像変換前(画像変換部が画像変換
を終了する前)の左右画像を格納する第一左右メモリの
説明に供する図であって、図4は画像変換後(画像変換
部が画像変換を終了した後)の左右画像を格納する第三
左右メモリの説明に供する図である。FIG. 3 is a diagram for explaining the first left and right memories for storing the left and right images before the image conversion (before the image conversion unit finishes the image conversion), and FIG. 4 is after the image conversion (the image conversion unit). FIG. 9 is a diagram for explaining a third left / right memory that stores left and right images after (after the end of image conversion).
【0116】図3(A)及び図3(B)にも示すよう
に、第一左メモリ14の格納領域14a上及び第一右メ
モリ16の格納領域16a上にはそれぞれ、画素単位に
x、y座標を設定してあり、左カメラ10で撮影した画
像変換前の左画像42を第一左メモリ14に、また右カ
メラ12で撮影した画像変換前の右画像44を第一右メ
モリ16に格納する。As shown in FIGS. 3 (A) and 3 (B), x is stored in pixel units on the storage area 14a of the first left memory 14 and storage area 16a of the first right memory 16, respectively. The y coordinate is set, the left image 42 before image conversion captured by the left camera 10 is stored in the first left memory 14, and the right image 44 before image conversion captured by the right camera 12 is stored in the first right memory 16. Store.
【0117】また図4(A)及び図4(B)にも示すよ
うに、第三左メモリ38の格納領域38a上及び第三右
メモリ40の格納領域40a上にもそれぞれ、画素単位
にx、y座標を設定してあり、画像変換後の左画像42
を第三メモリ38に、また画像変換部30が画像変換後
の右画像44を第三右メモリ40に格納する。As shown in FIGS. 4 (A) and 4 (B), x is also assigned to each pixel on the storage area 38a of the third left memory 38 and the storage area 40a of the third right memory 40. , Y coordinate is set, and the left image 42 after image conversion is set.
In the third memory 38, and the image converter 30 stores the right image 44 after the image conversion in the third right memory 40.
【0118】ここで左画像42は画像変換せず右画像4
4は画像変換するものとすれば、画像変換部30は左カ
メラ10からの左画像42を、第一左メモリ14から読
み出し画像変換せずに第三左メモリ38に格納する。こ
れと共に画像変換部30は右カメラ12からの右画像4
4を、第一右メモリ16から読み出し画像変換せずに第
三右メモリ40に格納する。画像変換は条件設定部28
から入力した候補条件に応じて行なう。例えば候補条件
Δx1 を入力した場合は、右画像44の各画素をx軸方
向へΔx1 だけ平行移動する画像変換を行ない、画像変
換した右画像44を第三右メモリ40に格納する。Here, the left image 42 is not converted into the right image 4
If the image conversion unit 4 performs image conversion, the image conversion unit 30 reads the left image 42 from the left camera 10 from the first left memory 14 and stores it in the third left memory 38 without image conversion. Along with this, the image conversion unit 30 displays the right image 4 from the right camera 12.
4 is read from the first right memory 16 and stored in the third right memory 40 without image conversion. The image conversion is performed by the condition setting unit 28
Perform according to the candidate conditions input from. For example, when the candidate condition Δx 1 is input, image conversion is performed in which each pixel of the right image 44 is translated by Δx 1 in the x-axis direction, and the image-converted right image 44 is stored in the third right memory 40.
【0119】尚、候補条件として画像の回転或は倍率変
換に関わる候補条件を設定している場合に、左画像を画
像変換するときは、図3(A)にも示すように、左カメ
ラ10のレンズ光軸に対応する左画像中央の画素を、回
転或は倍率変換の中心として、画像変換を行なう。同様
に右画像を画像変換するときは、図3(B)にも示すよ
うに、右カメラ12のレンズ光軸に対応する右画像中央
の画素を、回転或は倍率変換の中心として、画像変換を
行なう。When a candidate condition relating to image rotation or magnification conversion is set as the candidate condition, when the left image is converted into an image, as shown in FIG. Image conversion is performed with the pixel in the center of the left image corresponding to the optical axis of the lens as the center of rotation or magnification conversion. Similarly, when performing image conversion on the right image, as shown in FIG. 3B, the pixel at the center of the right image corresponding to the lens optical axis of the right camera 12 is used as the center of rotation or magnification conversion. Do.
【0120】次に対応点探索部32は、走査対象となる
画素の階調表現を異ならせて複数種の探索条件を設定す
ると共に、画像変換後の左右画像全面を左右探索画像と
し、各探索条件毎に、左右探索画像における対応候補点
を検出する(S4)。Next, the corresponding point search unit 32 sets a plurality of types of search conditions by changing the gradation expression of the pixel to be scanned, and sets the entire left and right images after image conversion as left and right search images, and performs each search. Corresponding candidate points in the left and right search images are detected for each condition (S4).
【0121】例えば第三左メモリ38及び第三右メモリ
40に格納した画像変換後の左画像42及び右画像44
を256階調の白黒画像とした場合、この256階調の
左画像42及び右画像44を階調変換して32階調の左
画像42及び右画像44を得、この32階調の左画像4
2及び右画像44を左探索画像及び右探索画像とする第
一の探索条件を設定する。さらにこの256階調の左画
像42及び右画像44を階調変換して16階調の左画像
42及び右画像44を得、この16階調の左画像42及
び右画像44を左探索画像及び右探索画像とする第二の
探索条件を設定する。For example, the image-converted left image 42 and right image 44 stored in the third left memory 38 and the third right memory 40.
Is a black-and-white image with 256 gradations, the left image 42 and the right image 44 with 256 gradations are subjected to gradation conversion to obtain a left image 42 and a right image 44 with 32 gradations. Four
The first search condition for setting the 2 and right images 44 as the left search image and the right search image is set. Further, the left image 42 and the right image 44 of 256 gradations are subjected to gradation conversion to obtain the left image 42 and the right image 44 of 16 gradations, and the left image 42 and the right image 44 of 16 gradations are converted to the left search image and The second search condition for the right search image is set.
【0122】対応点探索部32は左右探索画像において
相対応する水平走査線L(垂直方向の座標yが同じ水平
走査線L。図4(A)、図4(B)参照。)上の1ライ
ン分の画像を格納する左右ラインメモリを有し、第一の
探索条件で対応候補点を検出するときは、水平走査線L
上の256階調の左画像42を第三左メモリ38から読
み出して32階調に変換し32階調に変換した1ライン
分の左画像42を左ラインメモリに格納する。これと共
に水平走査線L上の256階調の右画像44を第三右メ
モリ40から読み出して32階調に変換し32階調に変
換した1ライン分の右画像44を右ラインメモリに格納
する。The corresponding point searching unit 32 is located on the corresponding horizontal scanning line L (horizontal scanning line L having the same vertical coordinate y; see FIGS. 4A and 4B) in the left and right search images. When the corresponding candidate points are detected under the first search condition, the horizontal scanning line L
The upper left image 42 with 256 gradations is read from the third left memory 38, converted into 32 gradations, and the left image 42 for one line converted into 32 gradations is stored in the left line memory. At the same time, the right image 44 with 256 gradations on the horizontal scanning line L is read from the third right memory 40, converted into 32 gradations, and the right image 44 for one line converted into 32 gradations is stored in the right line memory. .
【0123】そして対応点探索部32は、第一の探索条
件による1ライン分の左画像42及び右画像44を走査
する。ここで階調変換した1ライン分の左画像42及び
右画像44の一方の画素を着目点、及び、他方の画素を
対照点とし、水平走査線L上において所定の主走査方向
例えば右方向へ順次に数えて第i番目の着目点に対し、
水平走査線L上の対照点を所定の主走査方向例えば右方
向へ順次に走査してゆく。第i番目の着目点に対し画素
特徴例えば画素濃度の差が閾値以下となる対照点を検出
することなく対照点の走査を終了したら、次に第i+1
番目の着目点に対し対照点の走査を行なう。また第i番
目の着目点に対し画素特徴の差が閾値以下となる対照点
を検出したら、当該第i番目の着目点と対照点とを対応
候補点として検出し、然る後、第i+1番目の着目点に
対し対照点の走査を行なう。Then, the corresponding point searching unit 32 scans the left image 42 and the right image 44 for one line according to the first search condition. Here, one pixel of the left image 42 and the right image 44 for one line, which has been subjected to gradation conversion, is used as a target point and the other pixel as a reference point, and in the predetermined main scanning direction, for example, the right direction on the horizontal scanning line L. For the i-th point of interest counting sequentially,
The control points on the horizontal scanning line L are sequentially scanned in a predetermined main scanning direction, for example, to the right. When the scanning of the control point is completed without detecting the control point in which the difference in pixel characteristics, for example, the pixel density, is equal to or less than the threshold value for the i-th point of interest
The control point is scanned for the second point of interest. When a control point in which the difference in pixel feature is less than or equal to the threshold value with respect to the i-th point of interest is detected, the i-th point of interest and the control point are detected as corresponding candidate points. The control point is scanned for the point of interest.
【0124】このように相対応する水平走査線L上の左
右探索画像を走査し、画素特徴の差が閾値以下となった
ら次の着目点を走査して、対応候補点を検出する。そし
て左右探索画像全面にわたって水平走査線L上の対応候
補点の検出を終了したら、第一の探索条件による対応候
補点の検出を終了する。In this way, the left and right search images on the corresponding horizontal scanning lines L are scanned, and when the difference in pixel feature becomes equal to or less than the threshold value, the next point of interest is scanned to detect the corresponding candidate point. When the detection of the corresponding candidate points on the horizontal scanning line L is completed over the entire left and right search images, the detection of the corresponding candidate points according to the first search condition is ended.
【0125】第二の探索条件で対応候補点を検出すると
きも第一の探索条件の場合と同様にして、相対応する水
平走査線L上の左右探索画像を走査し、画素特徴の差が
閾値以下となったら次の着目点を走査して、対応候補点
を検出する。そして左右探索画像全面にわたって水平走
査線L上の対応候補点の検出を終了したら、第二の探索
条件による対応候補点の検出を終了する。When the corresponding candidate points are detected under the second search condition, the left and right search images on the corresponding horizontal scanning lines L are scanned in the same manner as in the case of the first search condition, and the difference in pixel feature is When it is less than or equal to the threshold value, the next point of interest is scanned to detect a corresponding candidate point. When the detection of the corresponding candidate points on the horizontal scanning line L is completed over the entire left and right search images, the detection of the corresponding candidate points according to the second search condition is ended.
【0126】全種類の探索条件について、左右探索画像
全面にわたり水平走査線L上の対応候補点の検出を終了
したら、次に対応点探索部32は、各探索条件毎に得た
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する(S5)。After detecting the corresponding candidate points on the horizontal scanning line L over the entire left and right search images for all types of search conditions, the corresponding point searching unit 32 next finds the corresponding candidate points obtained for each search condition. Corresponding candidate points that are a common set in the set are detected as corresponding points (S5).
【0127】前述のように相対応する水平走査線L上の
左右探索画像を走査し、画素特徴の差が閾値以下となっ
たら次の着目点を走査して、対応候補点を検出するの
で、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点は、確率的に確からしい対応候補
点の集まりとなる。As described above, the left and right search images on the corresponding horizontal scanning lines L are scanned, and when the difference in pixel feature becomes less than or equal to the threshold value, the next point of interest is scanned to detect the corresponding candidate point. Corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each search condition are a set of corresponding candidate points that are probabilistically probable.
【0128】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出し、位相
差判明点或はこれに加え位相差不明点の検出個数を評価
値算出部34に対し出力する(S6)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point using the corresponding point detection result, and evaluates the phase difference known point or the number of detected phase difference unknown points. The value is output to the value calculator 34 (S6).
【0129】ここで検出する位相差判明点及び位相差不
明点は、現在の左右探索画像となっている左右画像全面
に関わるものである。The phase difference known point and the phase difference unknown point detected here relate to the entire left and right images which are the current left and right search images.
【0130】またここでは、対応点の位相差に基づいて
対応不明点(対応点として検出されなかった画素)に対
して位相差を推定し当て嵌める。位相差を当て嵌めるこ
とができなかった対応不明点を位相差不明点として検出
する。然る後、対応不明点に当て嵌めた位相差が、正し
いか否かを検定する。そしてこの検定により正しいと判
定された位相差の対応不明点を位相差判明点とし、正し
くないと判定された位相差の対応不明点を位相差不明点
として検出する。Further, here, the phase difference is estimated and applied to the unclear point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, it is verified whether the phase difference applied to the unclear point is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is set as the phase difference determination point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the phase difference unknown point.
【0131】次に評価値算出部32は、位相差判明点の
検出個数を用いて位相差判明点の検出率を求め、(S
2)で条件設定部28が出力した選択候補条件の評価値
として当該位相差判明点の検出率を最大値検出部36に
格納する(S7)。Next, the evaluation value calculation section 32 obtains the detection rate of the phase difference known points by using the number of detected phase difference known points, and (S
The detection rate of the phase difference determination point is stored in the maximum value detection unit 36 as the evaluation value of the selection candidate condition output by the condition setting unit 28 in 2) (S7).
【0132】ここで求める位相差判明点の検出率は、現
在の左右探索画像となっている左右画像全面に関わるも
のである。この場合の位相差判明点の検出率は、例え
ば、 (位相差判明点の検出率)=(左探索画像における位相
差判明点の検出個数)/(左カメラで撮影した1枚の左
画像の全画素数)、 (位相差判明点の検出率)=(左探索画像における位相
差判明点の検出個数)/(左探索画像における位相差判
明点及び位相差不明点の検出個数の和)、 或は、(位相差判明点の検出率)=(右探索画像におけ
る位相差判明点の検出個数)/(右カメラで撮影した1
枚の右画像の全画素数)、 (位相差判明点の検出率)=(右探索画像における位相
差判明点の検出個数)/(右探索画像における位相差判
明点及び位相差不明点の検出個数の和)と表すことがで
きる。The detection rate of the phase difference determination point obtained here relates to the entire right and left images which are the current left and right search images. The detection rate of the phase difference known point in this case is, for example, (the detection rate of the phase difference known point) = (the number of detected phase difference known points in the left search image) / (the left image captured by the left camera) Total number of pixels), (Detection rate of phase difference known points) = (Number of detected phase difference known points in left search image) / (Sum of detected number of phase difference known points and phase difference unknown points in left search image), Alternatively, (the detection rate of the phase difference known point) = (the number of detected phase difference known points in the right search image) / (1 shot by the right camera
(Total number of pixels in one right image), (rate of detection of phase difference known point) = (number of detected phase difference known points in right search image) / (detection of phase difference known point and phase difference unknown point in right search image) It can be expressed as the sum of the numbers).
【0133】次に条件設定部28は着目種の全ての候補
条件を選択し終えたか否かを判定する(S8)。Next, the condition setting unit 28 determines whether or not all candidate conditions for the target species have been selected (S8).
【0134】条件設定部28が着目種の全ての候補条件
を選択し終えていないと判定すると、条件設定部28は
着目種の次の候補条件を選択し(S9)、然る後、選択
した候補条件を出力する(S2)。If the condition setting unit 28 determines that all candidate conditions of the target species have not been selected, the condition setting unit 28 selects the next candidate condition of the target species (S9), and then selects. The candidate condition is output (S2).
【0135】例えば着目種の候補条件Δx1 〜Δx5 の
うちΔx1 についてのみ選択し終えており、Δx2 〜Δ
x5 についての選択を終えていなければ、残りの候補条
件Δx2 〜Δx5 のなかから選択した一つの候補条件Δ
x2 を選択し、選択した候補条件Δx2 を出力する。For example, among the candidate conditions Δx 1 to Δx 5 of the target species, only Δx 1 has been selected, and Δx 2 to Δx
If the selection for x 5 has not been completed, one candidate condition Δ selected from the remaining candidate conditions Δx 2 to Δx 5.
x 2 is selected, and the selected candidate condition Δx 2 is output.
【0136】また条件設定部28が着目種の全ての候補
条件を選択し終えたと判定すると、最大値検出部36は
着目種の各候補条件毎に得た評価値のなかから最大の評
価値を検出し、最大の評価値を得た候補条件を修正条件
として検出する。そして最大値検出部28は当該着目種
の修正条件を条件設定部28に格納する(S10)。然
る後、修正条件検出装置18は、当該着目種の修正条件
を検出するための処理を終了する(終了)。When the condition setting unit 28 determines that all candidate conditions of the target species have been selected, the maximum value detection unit 36 determines the maximum evaluation value from the evaluation values obtained for each candidate condition of the target species. The candidate condition that has been detected and has the maximum evaluation value is detected as the correction condition. Then, the maximum value detection unit 28 stores the correction condition of the target species in the condition setting unit 28 (S10). After that, the correction condition detection device 18 ends the process for detecting the correction condition of the target species (end).
【0137】例えば着目種の全ての候補条件Δx1 〜Δ
x5 を選択し終えたならば、着目種の候補条件Δx1 〜
Δx5 の各候補条件毎に得た評価値のなかから最大の評
価値を検出し、最大の評価値を得た候補条件例えばΔx
4 を当該着目種の修正条件として検出する。For example, all candidate conditions Δx 1 to Δ of the target species
When x 5 is selected, candidate condition Δx 1 for the target species
The maximum evaluation value is detected from among the evaluation values obtained for each candidate condition of Δx 5, and the candidate condition for which the maximum evaluation value is obtained, for example, Δx
4 is detected as the correction condition for the target species.
【0138】修正条件検出装置18は、x軸方向への平
行移動量、y軸方向への平行移動量、x軸回りの回転角
度、y軸回りの回転角度、z軸回りの回転角度及び変換
倍率の各種類の候補条件毎に、上述したS1〜S10の
処理を行ない、そして候補条件の各種類毎に修正条件を
検出する。The correction condition detecting device 18 has a translation amount in the x-axis direction, a translation amount in the y-axis direction, a rotation angle around the x-axis, a rotation angle around the y-axis, a rotation angle around the z-axis and conversion. The above-described processing of S1 to S10 is performed for each candidate condition of each type of magnification, and the correction condition is detected for each type of candidate condition.
【0139】図5は修正条件検出の説明に供する図であ
る。同図においては、縦軸に候補条件の評価値及び横軸
にx軸方向への平行移動量に関わる候補条件を取って示
してある。FIG. 5 is a diagram for explaining the detection of the correction condition. In the figure, the vertical axis shows the evaluation value of the candidate condition, and the horizontal axis shows the candidate condition relating to the parallel movement amount in the x-axis direction.
【0140】着目種の各候補条件Δx1 〜Δx5 毎に個
別に、画像変換を行なって得た評価値は、位相差判明点
の検出率を用いて得たものである。従って画像変換後の
左右画像においてエピポーララインが一致した状態に近
く従ってエピポーララインのずれ量が小さければ評価値
は大きくなり、また画像変換後の左右画像においてエピ
ポーララインのずれ量が大きければ評価値は小さくな
る。修正条件の検出はこのような現象を利用したもので
あり、従って着目種の複数個の候補条件のうち最大の評
価値を得た候補条件を修正条件として検出することによ
り、エピポーラライン合わせに適した修正条件を検出で
きる。The evaluation value obtained by individually performing image conversion for each candidate condition Δx 1 to Δx 5 of the target species is obtained by using the detection rate of the phase difference determination point. Therefore, the left and right images after the image conversion are close to the state where the epipolar lines match, so that the evaluation value is large if the deviation amount of the epipolar lines is small, and the evaluation value is large if the deviation amount of the epipolar lines is large in the left and right images after image conversion. Get smaller. The detection of the correction condition utilizes such a phenomenon, and therefore, by detecting the candidate condition having the maximum evaluation value among the plurality of candidate conditions of the target species as the correction condition, it is suitable for epipolar line matching. The modified condition can be detected.
【0141】候補条件の各種類毎に用意する複数個の候
補条件において、候補条件の変化の幅を大きくし過ぎる
と、エピポーラライン合わせに適した修正条件を検出す
ることが難しくなる。そこでこの点を考慮し、候補条件
の各種類毎に用意する複数個の候補条件においては、エ
ピポーラライン合わせに適した変化の幅で、段階的に値
を異ならせた複数個の候補条件を、用意する。If the range of change of the candidate conditions is made too large in the plurality of candidate conditions prepared for each kind of candidate condition, it becomes difficult to detect the correction condition suitable for epipolar line alignment. Therefore, in consideration of this point, in a plurality of candidate conditions prepared for each type of candidate condition, a plurality of candidate conditions with different values stepwise with a range of change suitable for epipolar line matching, prepare.
【0142】例えば、x軸方向への平行移動に関わる候
補条件Δx1 〜Δx5 を1/3画素間隔で段階的に異な
らせ、x軸回りの回転に関わる候補条件Δα1 〜Δα5
を1°間隔で段階的に異ならせ、倍率変換に関わる候補
条件ΔK1 〜ΔK5 及びΔk1 〜Δk5 を1%間隔で段
階的に異ならせる。For example, the candidate conditions Δx 1 to Δx 5 relating to the parallel movement in the x-axis direction are made to differ stepwise at intervals of 1/3 pixel, and the candidate conditions Δα 1 to Δα 5 relating to the rotation around the x-axis.
The stepwise varied at 1 ° intervals, varying the candidate condition ΔK 1 ~ΔK 5 and Δk 1 ~Δk 5 related to magnification conversion in steps of 1% intervals.
【0143】次に対応点の位相差検出及び対応不明点の
位相差当て嵌めにつき説明する。対応点探索部32は、
各探索条件毎に得た対応候補点の集合において共通集合
となる対応候補点を対応点として検出するので、図4
(A)及び図4(B)にも示すように、左右探索画像に
おいて検出された対応点a、bは水平走査線L上の画素
となる。Next, the phase difference detection of the corresponding points and the phase difference fitting of the unknown points will be described. The corresponding point searching unit 32
In the set of corresponding candidate points obtained for each search condition, corresponding candidate points forming a common set are detected as corresponding points.
As shown in FIGS. 4A and 4B, corresponding points a and b detected in the left and right search images are pixels on the horizontal scanning line L.
【0144】位相差は、|(左探索画像における対応点
aのx座標)−(右探索画像における対応点のx座標)
|で表され、例えば図4(A)及び図4(B)に示すよ
うに、対応点aが座標(5、4)に位置し対応点bが座
標(8、4)に位置する場合には、対応点a及びbの位
相差としてそれぞれ|5−8|=3を検出することとな
る。The phase difference is | (x coordinate of corresponding point a in left search image)-(x coordinate of corresponding point in right search image)
When the corresponding point a is located at coordinates (5, 4) and the corresponding point b is located at coordinates (8, 4) as shown in FIG. 4 (A) and FIG. 4 (B), for example. Will detect | 5-8 | = 3 as the phase difference between the corresponding points a and b.
【0145】図6は対応不明点の位相差当て嵌めの説明
に供する図である。対応点探索部32は、検出した対応
点の位相差を用いて、左右探索画像における対応不明点
(対応点として検出されなかった画素)に対し、位相差
を推定し当て嵌める。FIG. 6 is a diagram for explaining the phase difference fitting of unclear points. The corresponding point searching unit 32 estimates and applies the phase difference to the unidentified points (pixels not detected as corresponding points) in the left and right search images by using the detected phase difference of the corresponding points.
【0146】位相差を推定し当て嵌める方法には種々の
方法を用いることができるが、ここでは対応点に接する
若しくは対応点近傍に位置する対応不明点がある場合
に、当該対応不明点の位相差は対応点の位相差に等しい
と推定し、この対応点の位相差を、当該対応不明点に当
て嵌める。具体的には、左探索画像若しくは右探索画像
における対応点の座標を(x1 、y1 )、左探索画像若
しくは右探索画像における対応不明点の座標を(x2 、
y2 )とするとき、対応不明点の座標(x2 、y2 )
が、x2 =x1 かつy1 −α≦y2 ≦y1 +αを満足す
る場合、若しくは、x1 −β≦x2 ≦x1 +βかつy2
=y1 を満足する場合に、座標(x1 、y1)の対応点
の位相差を、座標(x2 、y2 )の対応不明点の位相差
とする。α、βは自然数であり、例えばα=β=2とす
る。対応不明点の周囲に複数個の対応点が存在する場合
には、当該不明点に対し複数個の位相差を当て嵌めるこ
ととなる。Various methods can be used for estimating and fitting the phase difference. Here, if there is a correspondence unknown point that is in contact with the corresponding point or near the corresponding point, the position of the corresponding unknown point is calculated. It is estimated that the phase difference is equal to the phase difference of the corresponding points, and the phase difference of the corresponding points is applied to the corresponding unknown point. Specifically, the coordinates of the corresponding points in the left search image or the right search image are (x 1 , y 1 ), and the coordinates of the correspondence unknown points in the left search image or the right search image are (x 2 ,
y 2 ), the coordinates of the correspondence unknown point (x 2 , y 2 )
Satisfies x 2 = x 1 and y 1 −α ≦ y 2 ≦ y 1 + α, or x 1 −β ≦ x 2 ≦ x 1 + β and y 2
= Y 1 is satisfied, the phase difference at the corresponding point at the coordinates (x 1 , y 1 ) is set as the phase difference at the unknown point at the coordinates (x 2 , y 2 ). α and β are natural numbers, for example α = β = 2. When there are a plurality of corresponding points around the unknown point, a plurality of phase differences are applied to the unknown point.
【0147】例えば図6において、α=β=2とした場
合に、x2 =x1 かつy1 −α≦y2 ≦y1 +αを満足
する座標(x2 、y2 )の画素と、x1 −β≦x2 ≦x
1 +βかつy2 =y1 を満足する座標(x2 、y2 )の
画素とを、ハッチングを付して示してある。これらハッ
チングを付した画素が対応不明点である場合に、当該対
応不明点に対して、座標(x1 、y1 )の対応点の位相
差を当て嵌める。図中、第三左メモリ38において1画
素分の格納領域38aを1マスの矩形で表してある。For example, in FIG. 6, when α = β = 2, a pixel having coordinates (x 2 , y 2 ) satisfying x 2 = x 1 and y 1 −α ≦ y 2 ≦ y 1 + α, x 1 −β ≦ x 2 ≦ x
Pixels at coordinates (x 2 , y 2 ) that satisfy 1 + β and y 2 = y 1 are shown with hatching. When these hatched pixels are unclear points, the phase difference of the corresponding points at the coordinates (x 1 , y 1 ) is applied to the unclear points. In the figure, the storage area 38a for one pixel in the third left memory 38 is represented by a rectangle of one square.
【0148】次に対応不明点に当て嵌めた位相差の検定
につき説明する。位相差を検定する方法としては種々の
方法を用いることができるが、ここでは次に述べるよう
に検定を行なう。Next, the verification of the phase difference applied to the unclear point will be described. Various methods can be used as a method for testing the phase difference, but here, the testing is performed as described below.
【0149】左探索画像において対応不明点に当て嵌め
た位相差を検定するときは、左探索画像中の位相差判明
点を検定点とすると共に、右探索画像において検定点に
対応する位置から検定点に当て嵌めた位相差だけずれた
位置の、右探索画像中の画素を参照点とする。そして左
探索画像中の検定点の濃度と右探索画像中の参照点の濃
度との差が閾値以下となるとき当該検定点に当て嵌めた
位相差は正しいと判定する。また左探索画像中の検定点
の濃度と右探索画像中の参照点の濃度との差が閾値を越
えるとき当該検定点に当て嵌めた位相差は正しくないと
判定する。When testing the phase difference applied to the uncertain point in the left search image, the phase difference known point in the left search image is used as the test point, and the test is performed from the position corresponding to the test point in the right search image. A pixel in the right search image at a position shifted by the phase difference fitted to the point is used as a reference point. Then, when the difference between the density of the verification point in the left search image and the density of the reference point in the right search image is less than or equal to the threshold value, it is determined that the phase difference fitted to the verification point is correct. Further, when the difference between the density of the verification point in the left search image and the density of the reference point in the right search image exceeds the threshold value, it is determined that the phase difference applied to the verification point is incorrect.
【0150】右探索画像において対応不明点に当て嵌め
た位相差を検定するときは、右探索画像中の位相差判明
点を検定点とすると共に、左探索画像において検定点に
対応する位置から検定点に当て嵌めた位相差だけずれた
位置の、左探索画像中の画素を参照点とする。そして右
探索画像中の検定点の濃度と左探索画像中の参照点の濃
度との差が閾値以下となるとき当該検定点に当て嵌めた
位相差は正しいと判定する。また右探索画像中の検定点
の濃度と左探索画像中の参照点の濃度との差が閾値を越
えるとき当該検定点の位相差は正しくないと判定する。When testing the phase difference applied to the uncertain point in the right search image, the phase difference known point in the right search image is used as the test point, and the test is performed from the position corresponding to the test point in the left search image. A pixel in the left search image at a position shifted by the phase difference fitted to the point is used as a reference point. When the difference between the density of the test point in the right search image and the density of the reference point in the left search image is less than or equal to the threshold value, it is determined that the phase difference fitted to the test point is correct. When the difference between the density of the verification point in the right search image and the density of the reference point in the left search image exceeds the threshold, it is determined that the phase difference of the verification point is incorrect.
【0151】次に図7及び図8を参照して、左探索画像
において対応不明点に当て嵌めた位相差を検定する処理
につき説明する。図7は対応点探索部が行なう位相差検
定処理の流れを示す図である。図8は左探索画像につい
て位相差検定を行なう場合の、検定点と参照点との位置
関係を説明するための図である。Next, with reference to FIG. 7 and FIG. 8, a description will be given of the processing for testing the phase difference fitted to the unidentified point in the left search image. FIG. 7 is a diagram showing the flow of the phase difference verification process performed by the corresponding point search unit. FIG. 8 is a diagram for explaining the positional relationship between the test point and the reference point when the phase difference test is performed on the left search image.
【0152】対応点探索部32は、左探索画像の対応不
明点に対し位相差の当て嵌めを終了すると、当て嵌めた
位相差の検定を開始し(開始)、まず、左探索画像にお
いて位相差を当て嵌めた全ての対応不明点を、走査し終
えたか否かを判定する(S1)。When the corresponding point searching unit 32 finishes fitting the phase difference to the correspondence unknown point in the left search image, it starts verification of the fitted phase difference (start), and first, the phase difference in the left search image. It is determined whether or not all of the correspondence uncertain points fitted with are completely scanned (S1).
【0153】(1−A)S1で位相差を当て嵌めた全て
の対応不明点を走査し終えていないと判定した場合に
は、対応点探索部32は、左探索画像において位相差を
当て嵌めた対応不明点を検定点とし、検定点の濃度dを
第三左メモリ38から読み出す(S2)。(1-A) When it is determined in S1 that all the uncertain points to which the phase difference has been fitted have not been scanned, the corresponding point searching unit 32 applies the phase difference to the left search image. The unclear correspondence point is used as a test point, and the density d of the test point is read from the third left memory 38 (S2).
【0154】次に対応点探索部32は、右探索画像にお
いて検定点に対応する位置から検定点に当て嵌めた位相
差Lだけずれた位置の、右探索画像中の画素を参照点と
し、参照点の濃度Dを第三右メモリ40から読み出す
(S3)。Next, the corresponding point searching unit 32 uses the pixel in the right search image at the position shifted from the position corresponding to the test point in the right search image by the phase difference L fitted to the test point as a reference point, and makes a reference. The density D at the point is read from the third right memory 40 (S3).
【0155】左探索画像における検定点の座標(x0 、
y0 )とするとき、右探索画像における参照点の座標
(x0 −L、y0 )である。例えば図8(A)にも示す
ように左探索画像における検定点の座標(6、6)であ
り当該検定点の位相差L=2である場合には、図8
(B)にも示すように右探索画像における参照点の座標
(4、6)となる。The coordinates (x 0 ,
y 0 ), the coordinates (x 0 −L, y 0 ) of the reference point in the right search image. For example, in the case where the coordinates (6, 6) of the test point in the left search image and the phase difference L = 2 of the test point as shown in FIG.
As shown in (B), the coordinates (4, 6) of the reference point in the right search image are obtained.
【0156】次いで対応点探索部32は、読み出した濃
度d、Dの差|d−D|が閾値THL以下となるか否か
を判定する(S4)。Then, the corresponding point searching unit 32 determines whether or not the difference | d−D | between the read densities d and D is equal to or less than the threshold value THL (S4).
【0157】S4で濃度差|d−D|は閾値THLを越
えると判定した場合、対応点探索部32は、検定点に当
て嵌めた位相差は正しくないと判定して当該検定点を位
相差不明点として検出し(S5)、然る後、S1の処理
を行なう。When it is determined in S4 that the density difference | d−D | exceeds the threshold value THL, the corresponding point searching unit 32 determines that the phase difference fitted to the test point is not correct, and the test point is set to the phase difference. It is detected as an unknown point (S5), and after that, the process of S1 is performed.
【0158】S4で濃度差|d−D|は閾値THL以下
であると判定した場合、対応点探索部32は、検定点に
当て嵌めた位相差は正しいと判定して当該検定点を位相
差判明点として検出し(S6)、然る後、S1の処理を
行なう。上述した位相差検定において、濃度差|d−D
|が閾値THL以下となる検定点及び参照点の組み合わ
せは、対応点となる可能性が確率的に高い画素の組み合
わせであり、従って確率的に確からしい位相差を正しい
と判定できる。When it is determined in S4 that the density difference | d−D | is less than or equal to the threshold value THL, the corresponding point searching unit 32 determines that the phase difference fitted to the test point is correct, and the test point is the phase difference. It is detected as a clear point (S6), and thereafter, the process of S1 is performed. In the phase difference test described above, the density difference | d−D
The combination of the test point and the reference point where | is equal to or less than the threshold value THL is a combination of pixels that are probabilistically likely to be corresponding points, and thus it is possible to determine that the stochastic phase difference is correct.
【0159】検定点に対して複数個の位相差を当て嵌め
ている場合には、各位相差毎に、参照点を得て濃度差|
d−D|が閾値THL以下となるか否かを判定する。例
えば座標(6、6)の検定点に対して2個の位相差2、
1を当て嵌めている場合には、座標(4、6)の参照点
と座標(5、6)の参照点とを得、これら2個の参照点
のそれぞれについて濃度差|d−D|が閾値THL以下
となるか否かを判定する。When a plurality of phase differences are applied to the test points, a reference point is obtained for each phase difference and the density difference |
It is determined whether d−D | becomes equal to or less than the threshold value THL. For example, two phase differences 2, with respect to the test point of coordinates (6, 6),
When 1 is applied, the reference point of coordinates (4, 6) and the reference point of coordinates (5, 6) are obtained, and the density difference | d−D | is calculated for each of these two reference points. It is determined whether or not it becomes equal to or less than the threshold value THL.
【0160】全ての位相差について濃度差|d−D|が
閾値THLを越えた場合には、当該検定点に当て嵌めた
位相差は正しくないと判定し当該検定点を位相差不明点
として検出する。閾値THL以下となった位相差が一個
又は複数個ある場合には、当該検定点に当て嵌めた位相
差は正しいと判定し、当該検定点を位相差判明点として
検出する。When the density difference | d−D | exceeds the threshold value THL for all the phase differences, it is determined that the phase difference fitted to the relevant test point is not correct, and the test point is detected as the phase difference unknown point. To do. When there is one or a plurality of phase differences below the threshold THL, it is determined that the phase difference fitted to the test point is correct, and the test point is detected as the phase difference known point.
【0161】検定点に対し複数個の位相差が当て嵌めら
れている場合でも、各位相差毎に、参照点を得て濃度差
|d−D|が閾値THL以下となるか否かを判定するの
で、確率的に確からしい位相差を当て嵌めた検定点を、
位相差判明点として検出することができる。Even when a plurality of phase differences are applied to the test points, it is determined for each phase difference whether or not the density difference | d−D | becomes less than or equal to the threshold value THL. Therefore, the verification point to which the stochastic phase difference is applied is
It can be detected as a phase difference determination point.
【0162】(1−B)S1で位相差を当て嵌めた全て
の対応不明点を走査し終えたと判定した場合には、左探
索画像の対応不明点に関して位相差検定を終了する(終
了)。(1-B) When it is determined in S1 that all the uncertain points to which the phase difference has been applied have been scanned, the phase difference test is ended for the uncertain points in the left search image (end).
【0163】尚、上述した位相差検定に用いる閾値TH
Lは、対応点探索部32において対応点を探索するため
に用いる閾値よりも大きな値とするのが良い。但し、閾
値THLを大きくし過ぎると、正しいと判定される位相
差の確率的な確からしさが低下するので、実用上充分な
確率的確からしさが得られる範囲内の任意好適な値に、
閾値THLを設定する。The threshold value TH used in the phase difference test described above.
L is preferably set to a value larger than the threshold value used for searching the corresponding points in the corresponding point searching unit 32. However, if the threshold value THL is made too large, the probability of probability of the phase difference being determined to be correct is lowered, so to an arbitrary suitable value within the range in which stochastic accuracy that is practically sufficient is obtained,
The threshold value THL is set.
【0164】次に図7及び図9を参照して、右探索画像
において対応不明点に当て嵌めた位相差を検定する処理
につき説明する。図9は右探索画像について位相差検定
を行なう場合の、検定点と参照点との位置関係を説明す
るための図である。Next, with reference to FIG. 7 and FIG. 9, the processing for testing the phase difference fitted to the uncertain point in the right search image will be described. FIG. 9 is a diagram for explaining the positional relationship between the test point and the reference point when the phase difference test is performed on the right search image.
【0165】対応点探索部32は、右探索画像の対応不
明点に対し位相差の当て嵌めを終了すると、当て嵌めた
位相差の検定を開始し(開始)、まず、右探索画像にお
いて位相差を当て嵌めた全ての対応不明点を、走査し終
えたか否かを判定する(S1)。When the corresponding point searching unit 32 finishes fitting the phase difference to the unidentified point in the right search image, it starts verification of the fitted phase difference (start), and first, the phase difference in the right search image. It is determined whether or not all of the correspondence uncertain points fitted with are completely scanned (S1).
【0166】(2−A)S1で位相差を当て嵌めた全て
の対応不明点を走査し終えていないと判定した場合に
は、対応点探索部32は、右探索画像において位相差を
当て嵌めた対応不明点を検定点とし、検定点の濃度dを
第三右メモリ40から読み出す(S2)。(2-A) If it is determined in S1 that all the uncertain points to which the phase difference has been fitted have not been scanned, the corresponding point searching unit 32 applies the phase difference to the right search image. The correspondence unknown point is used as a test point, and the density d of the test point is read from the third right memory 40 (S2).
【0167】次に対応点探索部32は、左探索画像にお
いて検定点に対応する位置から検定点に当て嵌めた位相
差Lだけずれた位置の、左探索画像中の画素を参照点と
し、参照点の濃度Dを第三左メモリ38から読み出す
(S3)。Next, the corresponding point searching unit 32 sets the pixel in the left search image at a position deviated from the position corresponding to the test point in the left search image by the phase difference L fitted to the test point as a reference point, and makes a reference. The density D of the point is read from the third left memory 38 (S3).
【0168】右探索画像における検定点の座標(x0 、
y0 )とするとき、左探索画像における参照点の座標
(x0 +L、y0 )である。例えば図9(B)において
座標(4、6)の画素が右探索画像における検定点であ
り当該検定点の位相差L=3である場合には、図9
(A)において座標(7、6)の画素が左探索画像にお
ける参照点となる。The coordinates (x 0 ,
y 0 ), the coordinates (x 0 + L, y 0 ) of the reference point in the left search image. For example, in the case where the pixel at the coordinates (4, 6) in FIG. 9B is the test point in the right search image and the phase difference L = 3 between the test points,
In (A), the pixel at coordinates (7, 6) becomes the reference point in the left search image.
【0169】次いで対応点探索部32は、読み出した濃
度d、Dの差|d−D|が閾値THL以下となるか否か
を判定する(S4)。Then, the corresponding point searching unit 32 determines whether or not the difference | d−D | between the read densities d and D is equal to or less than the threshold value THL (S4).
【0170】S4で濃度差|d−D|は閾値THLを越
えると判定した場合、対応点探索部32は、検定点に当
て嵌めた位相差は正しくないと判定して当該検定点を位
相差不明点として検出し(S5)、然る後、S1の処理
を行なう。When it is determined in S4 that the density difference | d−D | exceeds the threshold value THL, the corresponding point searching unit 32 determines that the phase difference fitted to the verification point is not correct, and the corresponding verification point is subjected to the phase difference. It is detected as an unknown point (S5), and after that, the process of S1 is performed.
【0171】S4で濃度差|d−D|は閾値THL以下
であると判定した場合、対応点探索部32は、検定点に
当て嵌めた位相差は正しいと判定して当該検定点を位相
差判明点として検出し(S6)、然る後、S1の処理を
行なう。When it is determined in S4 that the density difference | d−D | is less than or equal to the threshold value THL, the corresponding point searching unit 32 determines that the phase difference fitted to the test point is correct, and the test point is the phase difference. It is detected as a clear point (S6), and thereafter, the process of S1 is performed.
【0172】(2−B)S1で全面を走査し終えたと判
定した場合には、右探索画像の対応不明点につき位相差
検定を終了する(終了)。(2-B) If it is determined in S1 that the entire surface has been scanned, the phase difference test is completed for the uncertain points in the right search image (end).
【0173】位相差判明点の検出率を求めるときに左探
索画像における位相差判明点の検出個数を用いる場合に
は、左探索画像について位相差検定を行ない、位相差検
定終了後に左探索画像における位相差判明点の検出個数
を用いて位相差判明点の検出率を求める。When the number of detected phase difference known points in the left search image is used when obtaining the detection rate of the phase difference known point, the phase difference test is performed on the left search image, and after the phase difference test is completed, the left search image is detected. The detection rate of the phase difference known points is obtained using the number of detected phase difference known points.
【0174】また位相差判明点の検出率を求めるときに
右探索画像における位相差判明点の検出個数を用いる場
合には、右探索画像について位相差検定を行ない、位相
差検定終了後に右探索画像における位相差判明点の検出
個数を用いて位相差判明点の検出率を求める。Further, when the number of detected phase difference known points in the right search image is used when obtaining the detection rate of the phase difference known point, the phase difference test is performed on the right search image, and after the phase difference test is completed, the right search image is detected. The detection rate of the phase difference known point is obtained by using the detected number of the phase difference known point in.
【0175】左探索画像又は右探索画像における位相差
判明点の検出個数を、位相差判明点の検出率を求めるの
に用いない場合は、左探索画像又は右探索画像の位相差
検定を行なわなくて良い。When the number of detected phase difference known points in the left search image or the right search image is not used for obtaining the detection rate of the phase difference known points, the phase difference test of the left search image or the right search image is not performed. Good.
【0176】位相差検定を終了した位相差判明点の検出
個数を用いて、位相差判明点の検出率を求め、当該位相
差判明点の検出率から候補条件の評価値を得ることによ
り、エピポーラライン合わせに必要な修正条件の検出精
度を高めることができる。The detection rate of the phase difference known point is obtained by using the number of detected phase difference known points for which the phase difference verification is completed, and the evaluation value of the candidate condition is obtained from the detection rate of the phase difference known point, whereby the epipolar It is possible to improve the detection accuracy of the correction condition necessary for line alignment.
【0177】第一左メモリ14に格納される左カメラ1
0からの左画像と、第一右メモリ16に格納される右カ
メラ12からの右画像とは、t秒間隔に1画面の割合で
書き改められる。Left camera 1 stored in first left memory 14
The left image from 0 and the right image from the right camera 12 stored in the first right memory 16 are rewritten at a rate of one screen every t seconds.
【0178】修正条件の検出は、1画面ずつこれらメモ
リ14、16の左右画像から検出するようにしても良い
し、複数画面おきにこれらメモリ14、16の左右画像
から検出するようにしても良い。The correction conditions may be detected one by one from the left and right images of the memories 14 and 16 or may be detected from the left and right images of the memories 14 and 16 every plural screens. .
【0179】また左右カメラ10、12で撮影した左右
画像が静止画像である場合には、修正条件の各種類毎
に、複数画面おきに修正条件を検出して複数個の修正条
件を得、そして修正条件の各種類毎に複数個の修正条件
を平均したものを得て平均した修正条件を用いて、左右
カメラ10、12で撮影した左右画像のエピポーラライ
ンを合わせるようにしても良い。静止画像であっても画
面毎にノイズの状況が変化するので、数画面おきに得た
修正条件を平均したものを用いることにより、エピポー
ラライン合わせの精度を上げることができる。When the left and right images photographed by the left and right cameras 10 and 12 are still images, the correction condition is detected every plural screens for each type of correction condition to obtain a plurality of correction conditions. It is also possible to obtain an average of a plurality of correction conditions for each type of correction conditions and use the averaged correction conditions to match the epipolar lines of the left and right images captured by the left and right cameras 10 and 12. Even in the case of a still image, the noise situation changes from screen to screen, so that the accuracy of epipolar line alignment can be improved by using an average of correction conditions obtained every few screens.
【0180】<請求項1の発明の第二実施形態>図10
は請求項1の発明の第二実施形態の説明に供する機能ブ
ロック図である。以下、主として請求項1の発明の第一
実施形態と相違する点につき説明し、請求項1の発明の
第一実施形態と同様の点については、その詳細な説明を
省略する。<Second Embodiment of the Invention of Claim 1> FIG.
FIG. 3 is a functional block diagram provided for explaining a second embodiment of the invention of claim 1. Hereinafter, differences from the first embodiment of the invention of claim 1 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 1 will be omitted.
【0181】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、さらに領域切出し部4
6とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the area cutout unit 4
6 is provided.
【0182】領域切出し部46は画像変換後の左右画像
上に垂直方向に分散させた複数個の着目領域から、左右
着目領域画像を順次に切出し、対応点探索部32は左右
着目領域画像を左右探索画像として、候補条件が同じ各
左右探索画像毎に、対応候補点、対応点、位相差の判明
点及び不明点を検出する。The area cutout unit 46 sequentially cuts out the left and right attention area images from a plurality of attention areas vertically dispersed on the left and right images after the image conversion, and the corresponding point search unit 32 outputs the left and right attention area images to the left and right. Corresponding candidate points, corresponding points, known phase differences, and unknown points are detected for each of the left and right search images having the same candidate condition as the search image.
【0183】評価値算出部34は候補条件が同じ各左右
探索画像毎に位相差判明点の検出率を求め候補条件が同
じ左右探索画像について求めた検出率の平均値を当該候
補条件の評価値とする。The evaluation value calculation unit 34 obtains the detection rate of the phase difference determination point for each of the left and right search images having the same candidate condition, and calculates the average value of the detection rates obtained for the left and right search images having the same candidate condition as the evaluation value of the candidate condition. And
【0184】図11は請求項1の発明の第二実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち1種類に着目し、当該着
目種について、候補条件を用いて修正条件を検出する場
合の動作の流れを示す。FIG. 11 is a diagram showing the operation flow of the second embodiment of the invention of claim 1. In the same figure, the flow of the operation in the case of focusing on one type out of a plurality of types of candidate conditions and correction conditions and detecting the correction conditions for the focused species using the candidate conditions is shown.
【0185】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかの1種類を着目種の候補条件
として設定し(S1)、然る後、条件設定部28は着目
種の複数個の候補条件のなかから選択した1個の候補条
件(選択候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), first, the condition setting unit 28 sets one of a plurality of types of candidate conditions as a target condition candidate condition (S1), Then, the condition setting unit 28 outputs one candidate condition (selected candidate condition) selected from the plurality of candidate conditions of the target species (S2).
【0186】例えば着目種の候補条件をx軸方向への平
行移動に関わる候補条件Δx1 〜Δx5 とし、着目種の
複数個の候補条件Δx1 〜Δx5 のなかから選択した1
個の候補条件Δx1 を出力する。[0186] For example, the candidate condition Δx 1 ~Δx 5 involved the interest species candidate condition parallel movement in the x-axis direction was selected from among the focus species plurality of candidate condition Δx 1 ~Δx 5 1
The candidate conditions Δx 1 are output.
【0187】次に画像変換部30は、条件設定部28か
ら入力した選択候補条件に従って左画像及び右画像の一
方を画像変換し、画像変換後の左画像及び右画像を第三
左メモリ38及び第三右メモリ40に格納する(S
3)。Next, the image conversion unit 30 performs image conversion on one of the left image and the right image in accordance with the selection candidate condition input from the condition setting unit 28, and outputs the image-converted left image and right image to the third left memory 38 and the third left memory 38. Stored in the third right memory 40 (S
3).
【0188】ここで左画像42は画像変換せず右画像4
4は画像変換するものとすれば、図3(A)及び図4
(A)にも示すように、画像変換部30は左カメラ10
からの左画像42を、第一左メモリ14から読み出し画
像変換せずに第三左メモリ38に格納する。これと共に
画像変換部30は、図3(B)及び図4(B)にも示す
ように、右カメラ12からの右画像44を、第一右メモ
リ16から読み出し画像変換せずに第三右メモリ40に
格納する。画像変換は条件設定部28から入力した候補
条件に応じて行なう。例えば候補条件Δx1 を入力した
場合は、右画像44の各画素をx軸方向へΔx1 だけ平
行移動する画像変換を行ない、画像変換した右画像44
を第三右メモリ40に格納する。Here, the left image 42 is not converted into the right image 4
Assuming that the image conversion 4 is image conversion, FIG.
As shown in (A), the image conversion unit 30 uses the left camera 10
The left image 42 is read from the first left memory 14 and stored in the third left memory 38 without image conversion. Along with this, as shown in FIGS. 3B and 4B, the image conversion unit 30 reads the right image 44 from the right camera 12 from the first right memory 16 and performs the third right conversion without performing image conversion. It is stored in the memory 40. The image conversion is performed according to the candidate condition input from the condition setting unit 28. For example, when the candidate condition Δx 1 is input, image conversion is performed in which each pixel of the right image 44 is translated in the x-axis direction by Δx 1 , and the image-converted right image 44 is obtained.
Is stored in the third right memory 40.
【0189】次に領域切出し部46は、画像変換後の左
右画像上に垂直方向(y方向)に分散させた複数個の着
目領域から、左右着目領域画像を切り出す(S4)。Next, the area cutout unit 46 cuts out the left and right attention area images from a plurality of attention areas dispersed in the vertical direction (y direction) on the left and right images after the image conversion (S4).
【0190】図12は着目領域、着目領域画像の説明に
供する図であり、図12(A)にあっては第三左メモリ
38に格納した左画像42に関わる着目領域48、着目
領域画像50を、また図12(B)にあっては第三右メ
モリ40に格納した右画像44に関わる着目領域52、
着目領域画像54を示す。図中、着目領域画像50、5
4をハッチングを付して示す。FIG. 12 is a diagram for explaining the attention area and the attention area image. In FIG. 12A, the attention area 48 and the attention area image 50 related to the left image 42 stored in the third left memory 38. 12B, a region of interest 52 related to the right image 44 stored in the third right memory 40,
The attention area image 54 is shown. In the figure, attention area images 50, 5
4 is shown with hatching.
【0191】図12(A)及び図12(B)にも示すよ
うに、第三左メモリ38及び第三右メモリ40には画像
変換後の左画像42及び右画像44が格納されている。
この第三左メモリ38の左画像42上に垂直方向に分散
させて複数個の着目領域48を設定し、この第三右メモ
リ40の右画像44上に垂直方向に分散させて複数個の
着目領域52を設定する。As shown in FIGS. 12A and 12B, the left image 42 and the right image 44 after image conversion are stored in the third left memory 38 and the third right memory 40.
A plurality of regions of interest 48 are vertically dispersed on the left image 42 of the third left memory 38, and a plurality of regions of interest 48 are vertically dispersed on the right image 44 of the third right memory 40. The area 52 is set.
【0192】これら左右画像42、44における着目領
域48、50の配設個数及び垂直方向の幅は同一であ
り、例えば、着目領域48、52の配設個数を3個とし
垂直方向の幅を水平走査線1本分の幅とする。尚、着目
領域48、52の垂直方向の幅を水平走査線複数本分の
幅としても構わない。In the left and right images 42 and 44, the number of attention areas 48 and 50 and the width in the vertical direction are the same. For example, the number of attention areas 48 and 52 is three and the width in the vertical direction is horizontal. The width is one scan line. The vertical widths of the regions of interest 48 and 52 may be the widths of a plurality of horizontal scanning lines.
【0193】また左画像42上に設定した複数個の着目
領域48とそれぞれ同じ垂直位置(y座標位置)にそれ
ぞれ、右画像44上の着目領域52を設定している。図
示例では、y=3、6、9の位置にそれぞれ着目領域4
8、50を設定している。Further, the attention area 52 on the right image 44 is set at the same vertical position (y coordinate position) as the plurality of attention areas 48 set on the left image 42. In the illustrated example, the regions of interest 4 are located at the positions y = 3, 6, and 9, respectively.
8 and 50 are set.
【0194】そして領域切出し部46は左右画像42、
44上の相対応するy座標の着目領域48、52例えば
y=3の着目領域48、52から、1ライン分の左右着
目領域画像50、54を切り出し記憶する。Then, the area cut-out section 46 displays the left and right images 42,
From the target areas 48, 52 corresponding to the y coordinates corresponding to 44, for example, the target areas 48, 52 of y = 3, left and right target area images 50, 54 for one line are cut out and stored.
【0195】次に対応点探索部32は、走査対象となる
画素の階調表現を異ならせて複数種の探索条件を設定す
ると共に、左右着目領域画像を左右探索画像とし、各探
索条件毎に、左右探索画像における対応候補点を検出す
る(S5)。Next, the corresponding point search unit 32 sets a plurality of types of search conditions by changing the gradation expression of the pixel to be scanned, and sets the left and right target area images as left and right search images, and for each search condition. , Corresponding candidate points in the left and right search images are detected (S5).
【0196】例えば領域切出し部46が記憶する左右着
目領域画像50、54を256階調の白黒画像とした場
合、この256階調の左右着目領域画像50、54を階
調変換して32階調の左右着目領域画像50、54を
得、この32階調の左右着目領域画像50、54を左右
探索画像とする第一探索条件を設定する。さらにこの2
56階調の左右着目領域画像50、54を階調変換して
16階調の左右着目領域画像50、54を得、この16
階調の左右着目領域画像50、54を左右探索画像とす
る第二の探索条件を設定する。For example, when the left and right attention area images 50 and 54 stored in the area cutout unit 46 are made into black and white images of 256 gradations, the left and right attention area images 50 and 54 of 256 gradations are subjected to gradation conversion to obtain 32 gradations. The left and right attention area images 50 and 54 are obtained, and the first search condition is set such that the left and right attention area images 50 and 54 of 32 gradations are used as the left and right search images. This 2
The left and right attention area images 50 and 54 of 56 gradations are subjected to gradation conversion to obtain the left and right attention area images 50 and 54 of 16 gradations.
A second search condition is set such that the left and right attention area images 50 and 54 of the gradation are left and right search images.
【0197】対応点探索部32は左右探索画像において
相対応する水平走査線L上の1ライン分の画像を格納す
る左右ラインメモリを有し、第一の探索条件で対応候補
点を検出するときは、水平走査線L上の256階調の左
着目領域画像50を領域切出し部46から読み出して3
2階調に変換し32階調に変換した1ライン分の左着目
領域画像50を左ラインメモリに格納する。これと共に
水平走査線L上の256階調の右着目領域画像54を領
域切出し部46から読み出して32階調に変換し32階
調に変換した1ライン分の右着目領域画像54を右ライ
ンメモリに格納する。The corresponding point searching unit 32 has a left and right line memory for storing an image of one line on the horizontal scanning line L corresponding to each other in the left and right search images, and when detecting a corresponding candidate point under the first search condition. Reads the left focus area image 50 of 256 gradations on the horizontal scanning line L from the area cutout unit 46, and reads 3
The left attention area image 50 for one line, which has been converted into 2 gradations and converted into 32 gradations, is stored in the left line memory. Along with this, the right focus area image 54 of 256 gradations on the horizontal scanning line L is read from the area cutout unit 46, converted into 32 gradations, and converted into 32 gradations. To store.
【0198】そして対応点探索部32は、第一の探索条
件による1ライン分の左着目領域画像50及び右着目領
域画像54を走査する。ここで階調変換した1ライン分
の左着目領域画像50及び右着目領域画像54の一方の
画素を着目点、及び、他方の画素を対照点とし、水平走
査線L上において所定の主走査方向へ順次に数えて第i
番目の着目点に対し、水平走査線L上の対照点を所定の
主走査方向へ順次に走査してゆく。第i番目の着目点に
対し画素特徴の差が閾値以下となる対照点を検出するこ
となく対照点の走査を終了したら、次に第i+1番目の
着目点に対し対照点の走査を行なう。また第i番目の着
目点に対し画素特徴の差が閾値以下となる対照点を検出
したら、当該第i番目の着目点と対照点とを対応候補点
として検出し、然る後、第i+1番目の着目点に対し対
照点の走査を行なう。Then, the corresponding point searching unit 32 scans the left target area image 50 and the right target area image 54 for one line under the first search condition. Here, one pixel of the left target area image 50 and the right target area image 54 for one line, which has been subjected to gradation conversion, is used as a target point and the other pixel as a reference point, and a predetermined main scanning direction is set on the horizontal scanning line L. Counting sequentially to i
The control point on the horizontal scanning line L is sequentially scanned in the predetermined main scanning direction with respect to the second target point. When the scanning of the control point is completed without detecting the control point in which the difference between the pixel features is equal to or less than the threshold value for the i-th target point, the control point is scanned next for the (i + 1) th target point. When a control point in which the difference in pixel feature is less than or equal to the threshold value with respect to the i-th point of interest is detected, the i-th point of interest and the control point are detected as corresponding candidate points. The control point is scanned for the point of interest.
【0199】このように相対応する水平走査線L上の左
右探索画像ここでは左右着目領域画像52、54を走査
し、画素特徴の差が閾値以下となったら次の着目点を走
査して、対応候補点を検出する。そして左右探索画像全
面にわたって水平走査線L上の対応候補点の検出を終了
したら、第一の探索条件による対応候補点の検出を終了
する。In this way, the left and right search images on the corresponding horizontal scanning lines L are scanned here, the left and right target area images 52 and 54, and when the difference between the pixel features becomes less than or equal to the threshold value, the next target point is scanned. Detect corresponding candidate points. When the detection of the corresponding candidate points on the horizontal scanning line L is completed over the entire left and right search images, the detection of the corresponding candidate points according to the first search condition is ended.
【0200】第二の探索条件で対応候補点を検出すると
きも第一の探索条件の場合と同様にして、相対応する水
平走査線L上の左右探索画像を走査し、画素特徴の差が
閾値以下となったら次の着目点を走査して、対応候補点
を検出する。そして左右探索画像全面にわたって水平走
査線L上の対応候補点の検出を終了したら、第二の探索
条件による対応候補点の検出を終了する。When detecting the corresponding candidate points under the second search condition, the left and right search images on the corresponding horizontal scanning lines L are scanned in the same manner as in the case of the first search condition, and the difference in pixel feature is found. When it is less than or equal to the threshold value, the next point of interest is scanned to detect a corresponding candidate point. When the detection of the corresponding candidate points on the horizontal scanning line L is completed over the entire left and right search images, the detection of the corresponding candidate points according to the second search condition is ended.
【0201】全種類の探索条件について、左右探索画像
全面にわたり水平走査線L上の対応候補点の検出を終了
したら、次に対応点探索部32は、各探索条件毎に得た
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する(S6)。After detecting the corresponding candidate points on the horizontal scanning line L over the entire left and right search images for all types of search conditions, the corresponding point searching unit 32 next finds the corresponding candidate points obtained for each search condition. Corresponding candidate points that are a common set in the set are detected as corresponding points (S6).
【0202】例えば上述した第一の探索条件で検出した
対応候補点の集合と第二の探索条件で検出した対応候補
点の集合とで共通集合となる対応候補点を、対応点とし
て検出する。For example, the corresponding candidate points that are a common set of the set of corresponding candidate points detected under the first search condition and the set of corresponding candidate points detected under the second search condition are detected as corresponding points.
【0203】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出し、位相
差判明点或はこれに加え位相差不明点の検出個数を評価
値算出部34に対し出力する(S7)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point by using the corresponding point detection result, and evaluates the phase difference known point or the number of detected phase difference unknown points. The value is output to the value calculation unit 34 (S7).
【0204】ここで検出する位相差判明点及び位相差不
明点は、現在の左右探索画像を読み出した1個の着目領
域48、52に関わるものである。The phase difference known point and the phase difference unknown point detected here are related to one region of interest 48, 52 from which the current left and right search images are read.
【0205】またここでは、対応点の位相差に基づいて
対応不明点(対応点として検出されなかった画素)に対
して位相差を推定し当て嵌める。位相差を当て嵌めるこ
とができなかった対応不明点を位相差不明点として検出
する。然る後、対応不明点に当て嵌めた位相差が、正し
いか否かを検定する。そしてこの検定により正しいと判
定された位相差の対応不明点を位相差判明点とし、正し
くないと判定された位相差の対応不明点を位相差不明点
として検出する。Further, here, the phase difference is estimated and applied to the unclear point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, it is verified whether the phase difference applied to the unclear point is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is set as the phase difference determination point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the phase difference unknown point.
【0206】次に評価値算出部32は、位相差判明点の
検出個数を用いて位相差判明点の検出率を求め、当該位
相差判明点の検出率を最大値検出部36に格納する(S
8)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination point using the number of detected phase difference determination points, and stores the detection rate of the phase difference determination point in the maximum value detection unit 36 ( S
8).
【0207】ここで求める位相差判明点の検出率は、現
在の左右探索画像を読み出した1個の着目領域48、5
2に関わるものである。この場合の位相差判明点の検出
率は、例えば、 (位相差判明点の検出率)=(左探索画像における位相
差判明点の検出個数)/(左カメラで撮影した1枚の左
画像の全画素数)、 (位相差判明点の検出率)=(左探索画像における位相
差判明点の検出個数)/(左探索画像における位相差判
明点及び位相差不明点の検出個数の和)、 或は、(位相差判明点の検出率)=(右探索画像におけ
る位相差判明点の検出個数)/(右カメラで撮影した1
枚の右画像の全画素数)、 (位相差判明点の検出率)=(右探索画像における位相
差判明点の検出個数)/(右探索画像における位相差判
明点及び位相差不明点の検出個数の和)で表される。The detection rate of the phase difference determination point obtained here is one of the target regions 48 and 5 from which the current left and right search images are read.
It is related to 2. The detection rate of the phase difference known point in this case is, for example, (the detection rate of the phase difference known point) = (the number of detected phase difference known points in the left search image) / (the left image captured by the left camera) Total number of pixels), (Detection rate of phase difference known points) = (Number of detected phase difference known points in left search image) / (Sum of detected number of phase difference known points and phase difference unknown points in left search image), Alternatively, (the detection rate of the phase difference known point) = (the number of detected phase difference known points in the right search image) / (1 shot by the right camera
(Total number of pixels in one right image), (rate of detection of phase difference known point) = (number of detected phase difference known points in right search image) / (detection of phase difference known point and phase difference unknown point in right search image) It is represented by the sum of the numbers).
【0208】次に領域切出し部46は、第三左右メモリ
38、40に現在格納されている画像変換後の左右画像
42、44に関して、全ての着目領域48、52から左
右着目領域画像50、54を切り出し終えたか(読み出
し終えたか)否かを判定する(S9)。Next, the area cut-out unit 46, from all the attention areas 48, 52 to the left and right attention area images 50, 54 with respect to the left and right images 42, 44 after the image conversion currently stored in the third left and right memories 38, 40. It is determined whether or not the cutting has been completed (reading has been completed) (S9).
【0209】現在の画像変換後の左右画像42、44に
関して全ての着目領域48、52の切出しを終了してい
なければ、領域切出し部46は切出し未終了の1組の着
目領域48、52を選択し(S10)、然る後、選択し
た着目領域48、52から次の左右着目領域画像50、
54を切り出す(S4)。If the cutout of all the attention areas 48, 52 for the left and right images 42, 44 after the current image conversion is not completed, the area cutout unit 46 selects one set of the not-yet-finished cutout areas 48, 52. (S10), and then, from the selected attention areas 48 and 52 to the next left and right attention area images 50,
54 is cut out (S4).
【0210】例えば図12の例においてy=3の着目領
域48、52からの切出しを終了し、y=6、9の着目
領域48、52からの切出しを終了していなければ、切
出し未終了の1組の着目領域48、52としてy=6の
着目領域48、52を選択する。For example, in the example of FIG. 12, if the cutting out from the target areas 48 and 52 of y = 3 is finished and the cutting out from the target areas 48 and 52 of y = 6 and 9 is not finished, the cutout is not completed. As the set of attention areas 48 and 52, the attention areas 48 and 52 with y = 6 are selected.
【0211】現在の画像変換後の左右画像42、44に
関して全ての着目領域48、52の切出しを終了したな
らば、評価値算出部34は現在の画像変換後の左右画像
42、44を得た候補条件に関して、各着目領域48、
50毎に得た検出率の平均値を求め、この平均値を当該
候補条件の評価値として最大値検出部36に格納する
(S11)。After cutting out all the regions of interest 48 and 52 for the left and right images 42 and 44 after the current image conversion, the evaluation value calculation unit 34 obtains the left and right images 42 and 44 after the current image conversion. Regarding the candidate condition, each attention area 48,
The average value of the detection rates obtained for every 50 is calculated, and this average value is stored in the maximum value detection unit 36 as the evaluation value of the candidate condition (S11).
【0212】例えば現在の画像変換後の左右画像42、
44が候補条件Δx1 に従って得たものである場合、y
=3、6、9の各着目領域48、52毎に得た検出率の
平均値を当該候補条件Δx1 の評価値として得ることと
なる。For example, the left and right images 42 after the current image conversion,
If 44 is obtained according to the candidate condition Δx 1 , then y
The average value of the detection rates obtained for the respective attention areas 48, 52 of = 3, 6, 9 is obtained as the evaluation value of the candidate condition Δx 1 .
【0213】次に条件設定部28は着目種の全ての候補
条件を選択し終えたか否かを判定する(S12)。Next, the condition setting section 28 determines whether or not all candidate conditions for the target species have been selected (S12).
【0214】着目種の全ての候補条件を選択し終えてい
なければ、条件設定部28は着目種の次の候補条件を選
択し(S13)、然る後、選択した候補条件を出力する
(S2)。If all candidate conditions of the target species have not been selected, the condition setting section 28 selects the next candidate condition of the target species (S13), and then outputs the selected candidate conditions (S2). ).
【0215】例えば着目種の候補条件Δx1 〜Δx5 の
うちΔx1 についてのみ選択し終えており、Δx2 〜Δ
x5 についての選択を終えていなければ、残りの候補条
件Δx2 〜Δx5 のなかから選択した一つの候補条件Δ
x2 を選択し、選択した候補条件Δx2 を出力する。For example, among the candidate conditions Δx 1 to Δx 5 of the target species, only Δx 1 has been selected, and Δx 2 to Δx
If the selection for x 5 has not been completed, one candidate condition Δ selected from the remaining candidate conditions Δx 2 to Δx 5.
x 2 is selected, and the selected candidate condition Δx 2 is output.
【0216】また着目種の全ての候補条件を選択し終え
たならば、最大値検出部36は着目種の各候補条件毎に
得た評価値のなかから最大の評価値を検出し、最大の評
価値を得た候補条件を修正条件として検出する。そして
最大値検出部28は当該着目種の修正条件を条件設定部
28に格納する(S14)。然る後、修正条件検出装置
18は、当該着目種の修正条件を検出するための処理を
終了する(終了)。When all the candidate conditions of the target species have been selected, the maximum value detection unit 36 detects the maximum evaluation value from the evaluation values obtained for each candidate condition of the target species and determines the maximum evaluation value. The candidate condition for which the evaluation value is obtained is detected as the correction condition. Then, the maximum value detection unit 28 stores the correction condition of the target species in the condition setting unit 28 (S14). After that, the correction condition detection device 18 ends the process for detecting the correction condition of the target species (end).
【0217】例えば着目種の全ての候補条件Δx1 〜Δ
x5 を選択し終えたならば、着目種の候補条件Δx1 〜
Δx5 の各候補条件毎に得た評価値のなかから最大の評
価値を検出し、最大の評価値を得た候補条件例えばΔx
4 を当該着目種の修正条件として検出する。For example, all candidate conditions Δx 1 to Δ of the target species
When x 5 is selected, candidate condition Δx 1 for the target species
The maximum evaluation value is detected from among the evaluation values obtained for each candidate condition of Δx 5, and the candidate condition for which the maximum evaluation value is obtained, for example, Δx
4 is detected as the correction condition for the target species.
【0218】修正条件検出装置18は、x軸方向への平
行移動量、y軸方向への平行移動量、x軸回りの回転角
度、y軸回りの回転角度、z軸回りの回転角度及び変換
倍率の各種類の候補条件毎に、上述したS1〜S14の
処理を行ない、そして候補条件の各種類毎に修正条件を
検出する。The correction condition detecting device 18 has a translation amount in the x-axis direction, a translation amount in the y-axis direction, a rotation angle around the x-axis, a rotation angle around the y-axis, a rotation angle around the z-axis and conversion. The above-described processing of S1 to S14 is performed for each candidate condition of each type of magnification, and the correction condition is detected for each type of candidate condition.
【0219】この実施形態においては、左右探索画像を
左右画像42、44の一部である着目領域画像50、5
4としており、従って修正条件を検出するのに必要な画
像の走査量を減少させることができるので、修正条件の
検出時間を短縮できる。In this embodiment, the left and right search images are focused area images 50, 5 which are part of the left and right images 42, 44.
Therefore, the scanning amount of the image required to detect the correction condition can be reduced, and the detection time of the correction condition can be shortened.
【0220】<請求項1の発明の第三実施形態>次に図
10を参照し、請求項1の発明の第三実施形態につき説
明する。以下、主として請求項1の発明の第二実施形態
と相違する点につき説明し、請求項1の発明の第二実施
形態と同様の点については、その詳細な説明を省略す
る。<Third Embodiment of Invention of Claim 1> Next, with reference to FIG. 10, a third embodiment of the invention of Claim 1 will be described. Hereinafter, differences from the second embodiment of the invention of claim 1 will be mainly described, and detailed description of the same points as the second embodiment of the invention of claim 1 will be omitted.
【0221】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、さらに領域切出し部4
6とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the area cutout unit 4
6 is provided.
【0222】評価値算出部34は、候補条件が同じ各左
右探索画像毎に位相差判明点の検出率を求め、候補条件
が同じ左右探索画像について求めた検出率のうち、上位
から順次に所定個数の検出率を選択し、当該選択により
得た検出率の平均値を候補条件の評価値とする。The evaluation value calculation unit 34 obtains the detection rate of the phase difference determination point for each of the left and right search images having the same candidate condition, and sequentially determines the detection rates obtained for the left and right search images having the same candidate condition from the top. The detection rate of the number is selected, and the average value of the detection rates obtained by the selection is used as the evaluation value of the candidate condition.
【0223】図13は請求項1の発明の第三実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち1種類に着目し、当該着
目種について、候補条件を用いて修正条件を検出する場
合の動作の流れを示す。FIG. 13 is a diagram showing the operational flow of the third embodiment of the invention of claim 1. In the same figure, the flow of the operation in the case of focusing on one type out of a plurality of types of candidate conditions and correction conditions and detecting the correction conditions for the focused species using the candidate conditions is shown.
【0224】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかの1種類を着目種の候補条件
として設定し(S1)、然る後、条件設定部28は着目
種の複数個の候補条件のなかから選択した1個の候補条
件(選択候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting section 28 first sets one of the plurality of types of candidate conditions as a candidate condition of the target species (S1), Then, the condition setting unit 28 outputs one candidate condition (selected candidate condition) selected from the plurality of candidate conditions of the target species (S2).
【0225】次に画像変換部30は、条件設定部28か
ら入力した選択候補条件に従って左画像及び右画像の一
方を画像変換し、画像変換後の左画像及び右画像を第三
左メモリ38及び第三右メモリ40に格納する(S
3)。Next, the image conversion unit 30 performs image conversion on one of the left image and the right image in accordance with the selection candidate condition input from the condition setting unit 28, and outputs the image-converted left image and right image to the third left memory 38 and the third left memory 38. Stored in the third right memory 40 (S
3).
【0226】次に領域切出し部46は、画像変換後の左
右画像上に垂直方向(y方向)に分散させた複数個の着
目領域から、左右着目領域画像を切り出す(S4)。Next, the area cutout unit 46 cuts out the left and right attention area images from a plurality of attention areas dispersed in the vertical direction (y direction) on the left and right images after the image conversion (S4).
【0227】次に対応点探索部32は、走査対象となる
画素の階調表現を異ならせて複数種の探索条件を設定す
ると共に、左右着目領域画像を左右探索画像とし、各探
索条件毎に、左右探索画像における対応候補点を検出す
る(S5)。Next, the corresponding point searching unit 32 sets a plurality of types of search conditions by changing the gradation expression of the pixel to be scanned and sets the left and right focused area images as left and right search images, and for each search condition. , Corresponding candidate points in the left and right search images are detected (S5).
【0228】全種類の探索条件について、左右探索画像
全面にわたり水平走査線L上の対応候補点の検出を終了
したら、次に対応点探索部32は、各探索条件毎に得た
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する(S6)。After detecting the corresponding candidate points on the horizontal scanning line L over the entire left and right search images for all types of search conditions, the corresponding point searching unit 32 next finds the corresponding candidate points obtained for each search condition. Corresponding candidate points that are a common set in the set are detected as corresponding points (S6).
【0229】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出し、位相
差判明点或はこれに加え位相差不明点の検出個数を評価
値算出部34に対し出力する(S7)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point by using the corresponding point detection result, and evaluates the phase difference known point or the number of detected phase difference unknown points. The value is output to the value calculation unit 34 (S7).
【0230】次に評価値算出部32は、位相差判明点の
検出個数を用いて位相差判明点の検出率を求め、当該位
相差判明点の検出率を最大値検出部36に格納する(S
8)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination points using the number of detected phase difference determination points, and stores the detection rate of the phase difference determination points in the maximum value detection unit 36 ( S
8).
【0231】次に領域切出し部46は、第三左右メモリ
38、40に現在格納されている画像変換後の左右画像
42、44に関して、全ての着目領域48、52から左
右着目領域画像50、54を切り出し終えたか(読み出
し終えたか)否かを判定する(S9)。Next, the area cut-out unit 46, for the left and right images 42, 44 after image conversion currently stored in the third left and right memories 38, 40, reads out all the attention areas 48, 52 from the left and right attention area images 50, 54. It is determined whether or not the cutting has been completed (reading has been completed) (S9).
【0232】現在の画像変換後の左右画像42、44に
関して全ての着目領域48、52の切出しを終了してい
なければ、領域切出し部46は切出し未終了の1組の着
目領域48、52を選択し(S10)、然る後、選択し
た着目領域48、52から次の左右着目領域画像50、
54を切り出す(S4)。If the cutting out of all the attention areas 48, 52 has not been completed for the current left and right images 42, 44 after the image conversion, the area cutting unit 46 selects a set of not-yet-cut out attention areas 48, 52. (S10), and then, from the selected attention areas 48 and 52 to the next left and right attention area images 50,
54 is cut out (S4).
【0233】現在の画像変換後の左右画像42、44に
関して全ての着目領域48、52の切出しを終了したな
らば、評価値算出部34は現在の画像変換後の左右画像
42、44を得た候補条件に関して、各着目領域48、
50毎に得た検出率のうち上位の検出率を選択する(S
11)。After cutting out all the regions of interest 48 and 52 for the current left and right images 42 and 44 after the image conversion, the evaluation value calculation section 34 obtains the left and right images 42 and 44 after the current image conversion. Regarding the candidate condition, each attention area 48,
Of the detection rates obtained for every 50, the higher detection rate is selected (S
11).
【0234】次に評価値算出部34は、選択した上位の
検出率の平均値を求め、この平均値を現在の画像変換後
の左右画像42、44を得た候補条件に関する評価値と
して、最大値検出部36に格納する(S12)。Next, the evaluation value calculation unit 34 obtains the average value of the selected upper detection rates, and uses this average value as the maximum evaluation value for the candidate conditions for obtaining the left and right images 42, 44 after the current image conversion. It stores in the value detection part 36 (S12).
【0235】ここで現在の画像変換後の左右画像42、
44上に設定する着目領域48、52の総個数は同じで
あるので、その総個数をR個とすれば、総個数R個の着
目領域48、52から総個数R個の検出率を得ることと
なる。そして総個数R個の検出率のなかから上位r1個
(r1はR>r1>1なる自然数)の検出率を選択し、
選択した上位r1個の検出率の平均値を評価値とする。
(R−r1)>0なる下位(R−r1)個の検出率は評
価値の算出に用いない。Here, the left and right images 42 after the current image conversion,
Since the total number of the target areas 48 and 52 set on 44 is the same, if the total number is R, the detection rate of the total number R can be obtained from the total number R of the target areas 48 and 52. Becomes Then, among the detection rates of the total number R, the detection rate of the top r1 (r1 is a natural number such that R>r1> 1) is selected,
The average value of the detection rates of the selected top r1 is set as the evaluation value.
The lower (R-r1) detection rates of (R-r1)> 0 are not used for calculating the evaluation value.
【0236】例えば総個数R=30個の着目領域48、
52を設定し、これら着目領域から総個数R=30個の
検出率を得たものとすれば、上位r1=10〜20個の
検出率を用いて評価値を得、下位(R−r1)=20〜
10個の検出率は評価値の算出に用いない。For example, the total number R = 30 target areas 48,
If 52 is set and the detection rate of the total number R = 30 is obtained from these regions of interest, the evaluation value is obtained using the detection rates of the upper r1 = 10 to 20, and the lower (R-r1) = 20 ~
The 10 detection rates are not used for calculating the evaluation value.
【0237】次に条件設定部28は着目種の全ての候補
条件を選択し終えたか否かを判定する(S13)。Next, the condition setting section 28 determines whether or not all candidate conditions for the target species have been selected (S13).
【0238】着目種の全ての候補条件を選択し終えてい
なければ、条件設定部28は着目種の次の候補条件を選
択し(S13)、然る後、選択した候補条件を出力する
(S2)。If all candidate conditions of the target species have not been selected, the condition setting section 28 selects the next candidate condition of the target species (S13), and then outputs the selected candidate conditions (S2). ).
【0239】また着目種の全ての候補条件を選択し終え
たならば、最大値検出部36は着目種の各候補条件毎に
得た評価値のなかから最大の評価値を検出し、最大の評
価値を得た候補条件を修正条件として検出する。そして
最大値検出部28は当該着目種の修正条件を条件設定部
28に格納する(S15)。然る後、修正条件検出装置
18は、当該着目種の修正条件を検出するための処理を
終了する(終了)。When all the candidate conditions of the target species have been selected, the maximum value detection unit 36 detects the maximum evaluation value from the evaluation values obtained for each candidate condition of the target species, The candidate condition for which the evaluation value is obtained is detected as the correction condition. Then, the maximum value detection unit 28 stores the correction condition of the target species in the condition setting unit 28 (S15). After that, the correction condition detection device 18 ends the process for detecting the correction condition of the target species (end).
【0240】修正条件検出装置18は、x軸方向への平
行移動量、y軸方向への平行移動量、x軸回りの回転角
度、y軸回りの回転角度、z軸回りの回転角度及び変換
倍率の各種類の候補条件毎に、上述したS1〜S15の
処理を行ない、そして候補条件の各種類毎に修正条件を
検出する。The correction condition detecting device 18 has a translation amount in the x-axis direction, a translation amount in the y-axis direction, a rotation angle around the x-axis, a rotation angle around the y-axis, a rotation angle around the z-axis and conversion. The above-described processing of S1 to S15 is performed for each candidate condition of each kind of magnification, and the correction condition is detected for each kind of candidate condition.
【0241】この実施形態においても、請求項1の第二
実施形態と同様に、左右探索画像を左右画像42、44
の一部である着目領域画像50、54としており、従っ
て修正条件を検出するのに必要な画像の走査量を減少さ
せることができるので、修正条件の検出時間を短縮でき
る。Also in this embodiment, as in the second embodiment of claim 1, the left and right search images are changed to the left and right images 42, 44.
The target area images 50 and 54, which are a part of the above, and therefore, the scanning amount of the image necessary for detecting the correction condition can be reduced, so that the detection time of the correction condition can be shortened.
【0242】さらにこの実施形態によれば、候補条件の
各種類毎に評価値を求める場合に、上位複数個の検出率
の平均値を用いて評価値を求め、下位の検出率を評価値
の算出に用いないので、修正条件の検出精度を向上でき
る。Further, according to this embodiment, when the evaluation value is obtained for each type of candidate condition, the evaluation value is obtained by using the average value of the detection rates of the plurality of upper ranks, and the lower detection rate is calculated as the evaluation value. Since it is not used for the calculation, the detection accuracy of the correction condition can be improved.
【0243】図14はこの実施形態における修正条件検
出精度の向上の説明に供する図である。図の縦軸には候
補条件の評価値及び横軸にはx軸方向への平行移動量に
関わる候補条件を取ってあり、図14(A)にあっては
候補条件Δx4 について求めた総個数R個の検出率に関
し全個数の検出率のばらつき範囲及び平均値を示し、図
14(B)にあっては候補条件Δx4 について求めた総
個数R個の検出率に関し上位r1個の検出率のばらつき
範囲及び平均値を示す。FIG. 14 is a diagram for explaining the improvement of the correction condition detection accuracy in this embodiment. The vertical axis of the figure shows the evaluation value of the candidate condition and the horizontal axis shows the candidate condition relating to the amount of translation in the x-axis direction. In FIG. 14A, the total obtained for the candidate condition Δx 4 is shown. The variation range and the average value of the detection rates of all the numbers are shown for the detection rate of the number R, and in FIG. 14B, the detection of the top r1 is performed for the detection rate of the total number R obtained for the candidate condition Δx 4. The range of variation and the average value are shown.
【0244】左カメラ10、右カメラ12、画像変換部
30における画像の量子化誤差により、着目領域の左右
探索画像においてノイズの乗り方が相違する場合、その
ような着目領域では検出率が極端に低下する。In the case where the noise riding is different between the left and right search images of the target area due to the quantization error of the image in the left camera 10, the right camera 12, and the image conversion unit 30, the detection rate becomes extremely high in such a target area. descend.
【0245】従って図14(A)にも示すように、候補
条件Δx4 について求めた総個数R個の検出率中に、そ
のような極端に値の小さな検出率が含まれる場合、これ
ら総個数R個の検出率の平均値を当該候補条件Δx4 の
評価値に用いると、ノイズに起因して評価値の値が低く
なるため、修正条件を精度良く検出することが難しくな
る。Therefore, as also shown in FIG. 14A, when the detection rate of the total number R obtained for the candidate condition Δx 4 includes such an extremely small detection rate, the total number If the average value of the R detection rates is used as the evaluation value of the candidate condition Δx 4 , the evaluation value becomes low due to noise, which makes it difficult to accurately detect the correction condition.
【0246】そこで図14(B)にも示すように、総個
数R個の検出率のうち上位r1個の検出率を選択して、
これら上位r1個の検出率の平均値を評価値とする。評
価値算出に用いない下位の検出率中には、ノイズに起因
して極端に値の低くなった検出率が含まれている可能性
が高いので、このように上位の検出率を用い下位の検出
率は用いないようにして評価値を求めるようにすること
により、修正条件の検出精度を向上することができる。Therefore, as shown in FIG. 14B, the detection rate of the top r1 is selected from the detection rates of the total number R, and
The average value of the detection rates of these top r1 is set as the evaluation value. Since it is highly possible that the lower detection rate not used for evaluation value calculation contains the detection rate whose value is extremely low due to noise, the upper detection rate is used in this way. By detecting the evaluation value without using the detection rate, it is possible to improve the detection accuracy of the correction condition.
【0247】<請求項1の発明の第四実施形態>図15
は請求項1の発明の第四実施形態の説明に供する機能ブ
ロック図である。以下、主として請求項1の発明の第一
実施形態と相違する点につき説明し、請求項1の発明の
第一実施形態と同様の点については、その詳細な説明を
省略する。<Fourth Embodiment of the Invention of Claim 1> FIG.
FIG. 6 is a functional block diagram provided for explaining a fourth embodiment of the invention of claim 1. Hereinafter, differences from the first embodiment of the invention of claim 1 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 1 will be omitted.
【0248】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、さらに画面選択部56
とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the screen selection unit 56.
And
【0249】第一左メモリ14に格納される左カメラ1
0からの左画像と、第一右メモリ16に格納される右カ
メラ12からの右画像とは、t秒間に1画面の割合で書
き改められる。Left camera 1 stored in first left memory 14
The left image from 0 and the right image from the right camera 12 stored in the first right memory 16 are rewritten at a rate of one screen in t seconds.
【0250】この実施形態では、この1画面毎に修正条
件を検出するのではなく、数画面毎に修正条件を検出す
る。画面選択部56は、数画面毎に、第一左メモリ1
4、第一右メモリ16から左画像、右画像を読み出し画
像変換部30へ入力する。In this embodiment, the correction condition is not detected for each screen, but the correction condition is detected for every several screens. The screen selection unit 56 displays the first left memory 1 for every several screens.
4. The left image and the right image are read from the first right memory 16 and input to the image conversion unit 30.
【0251】画像変換部30は画面選択部56から入力
した左画像、右画像を、候補条件に従って画像変換し
て、第三左メモリ38、第三右メモリ40に格納する。
この結果、修正条件検出装置18は、画面選択部56に
より数画面毎に読み出された左画像、右画像につき修正
条件を検出することとなる。The image converting section 30 converts the left image and the right image input from the screen selecting section 56 according to the candidate conditions and stores them in the third left memory 38 and the third right memory 40.
As a result, the correction condition detection device 18 detects the correction condition for the left image and the right image read by the screen selection unit 56 for every several screens.
【0252】また画像変換部30は画面選択部56から
入力した左画像、右画像を、修正条件に従って画像変換
して、第二左メモリ20、第二右メモリ22に格納す
る。この結果、対応点探索装置24は、画面選択部56
により数画面毎に読み出された左画像、右画像につき、
対応点の検出及び位相差を検出することとなる。Further, the image conversion section 30 converts the left image and the right image input from the screen selection section 56 according to the correction conditions and stores them in the second left memory 20 and the second right memory 22. As a result, the corresponding point searching device 24 has the screen selecting unit 56.
The left image and the right image read out every few screens by
The corresponding points will be detected and the phase difference will be detected.
【0253】通常、左カメラ10、右カメラ12は防振
構造上に設置され、多少の振動では左カメラ10、右カ
メラ12で撮影される左画像、右画像のエピポーラライ
ンはずれないようになっている。従って対応点探索装置
24が行なう対応点の検出において、数画面毎に検出し
た修正条件に基づき、エピポーララインを合わせた左画
像、右画像を走査して対応点を検出しても、対応点の検
出率を実用上充分に向上させることができる。Normally, the left camera 10 and the right camera 12 are installed on the anti-vibration structure, and the epipolar lines of the left image and the right image taken by the left camera 10 and the right camera 12 do not come off with some vibration. There is. Therefore, in the detection of the corresponding points performed by the corresponding point searching device 24, even if the corresponding points are detected by scanning the left image and the right image with the epipolar line based on the correction condition detected for every several screens, the corresponding points are detected. The detection rate can be sufficiently improved in practical use.
【0254】対応点探索部32は、修正条件を検出する
ための処理例えば各候補条件毎に評価値を求める処理を
並列して行なえるようにコンピュータを用いて構成され
るが、数画面毎に修正条件を検出するようにすることに
より、その並列処理数を減少させて並列処理に必要なメ
モリ容量を減少させ、或は、処理速度のより低速なコン
ピュータを用いて対応点探索部32を構成したりするこ
とができる。この結果、対応点探索部32の装置規模を
小さくし、或は、装置コストを低減したりすることがで
きる。The corresponding point searching unit 32 is configured by using a computer so that the processing for detecting the correction condition, for example, the processing for obtaining the evaluation value for each candidate condition can be performed in parallel, but for each several screens. By detecting the correction condition, the number of parallel processings is reduced to reduce the memory capacity required for parallel processing, or the corresponding point searching unit 32 is configured using a computer with a slower processing speed. You can As a result, the device scale of the corresponding point searching unit 32 can be reduced, or the device cost can be reduced.
【0255】<請求項1の発明の第五実施形態>図16
は請求項1の発明の第五実施形態の説明に供する機能ブ
ロック図である。以下、主として請求項1の発明の第一
実施形態と相違する点につき説明し、請求項1の発明の
第一実施形態と同様の点については、その詳細な説明を
省略する。<Fifth Embodiment of the Invention of Claim 1> FIG.
FIG. 9 is a functional block diagram provided for explaining a fifth embodiment of the invention of claim 1. Hereinafter, differences from the first embodiment of the invention of claim 1 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 1 will be omitted.
【0256】この実施形態の修正条件検出装置58は、
修正条件検出部60、検出率算出部62及び比較判定部
64を備える。The correction condition detecting device 58 of this embodiment is
A correction condition detection unit 60, a detection rate calculation unit 62, and a comparison determination unit 64 are provided.
【0257】修正条件検出部60は、請求項1の発明の
第一実施形態と同様に、条件設定部28、画像変換部3
0、対応点探索部32、評価値算出部34及び最大値検
出部36と、第三左メモリ38及び第三右メモリ40と
を備える。The correction condition detecting unit 60 includes the condition setting unit 28 and the image converting unit 3 as in the first embodiment of the present invention.
0, a corresponding point searching unit 32, an evaluation value calculating unit 34, a maximum value detecting unit 36, a third left memory 38 and a third right memory 40.
【0258】検出率算出部62は、対応点探索装置24
における対応点の検出率を求める。例えば、対応点探索
装置24における対応点の検出個数もしくはこれに加え
対応不明点の検出個数を用いて、 (対応点の検出率)=(第二左メモり20の左画像にお
ける対応点の検出個数)/(第二左メモリ20の左画像
における対応点及び対応不明点の検出個数の和)、 (対応点の検出率)=(第二左メモり20の左画像にお
ける対応点の検出個数)/(第二左メモリ20の左画像
における対応点及び対応不明点の検出個数の和) で表される。The detection rate calculation unit 62 uses the corresponding point searching device 24.
Find the detection rate of corresponding points in. For example, by using the number of detected corresponding points in the corresponding point search device 24 or the number of detected unidentified points in addition to this, (corresponding point detection rate) = (detection of corresponding points in the left image of the second left memory 20) (Number) / (sum of detection numbers of corresponding points and correspondence unknown points in the left image of the second left memory 20), (detection rate of corresponding points) = (detection number of corresponding points in the left image of the second left memory 20) ) / (Sum of detected numbers of corresponding points and correspondence unknown points in the left image of the second left memory 20).
【0259】比較判定部64は検出率算出部62から対
応点の検出率を入力し、対応点の検出率を閾値と比較す
る。The comparison / determination unit 64 inputs the detection rate of the corresponding points from the detection rate calculation unit 62 and compares the detection rate of the corresponding points with a threshold value.
【0260】修正条件検出部60は比較判定部64から
対応点の検出率と閾値との比較結果を入力し、対応点の
検出率が閾値以下であれば新たな修正条件を検出し、検
出した新たな修正条件に従って画像変換した左画像、右
画像を第二左メモリ20、第二左右メモリ22に格納す
る。The correction condition detection unit 60 inputs the comparison result of the detection rate of corresponding points and the threshold value from the comparison determination unit 64, and if the detection rate of corresponding points is less than or equal to the threshold value, a new correction condition is detected and detected. The left image and the right image, which have undergone image conversion according to the new correction conditions, are stored in the second left memory 20 and the second left / right memory 22.
【0261】また修正条件検出部60は対応点の検出率
が閾値を越えれば新たな修正条件を検出する処理は行な
わず、既に検出済みの修正条件に従って画像変換した左
画像、右画像を第二左メモリ20、第二右メモリ22に
格納する。If the detection rate of the corresponding points exceeds the threshold value, the correction condition detecting section 60 does not perform the process of detecting a new correction condition, but the second image is converted into the left image and the right image which have been image-converted according to the already detected correction condition. The data is stored in the left memory 20 and the second right memory 22.
【0262】尚、対応点探索装置24、修正条件検出装
置58を動作させる前に、通常行なわれる如く、左カメ
ラ10、右カメラ12のレンズ光軸を機械的に移動調整
して、これら左カメラ10、12により撮影される左画
像、右画像のエピポーララインを大まかに調整してお
き、その後、この実施形態の修正条件検出装置58によ
り修正条件に基づく画像変換を行なって左画像、右画像
のエピポーララインを合わせるようにすると良い。Before operating the corresponding point searching device 24 and the correction condition detecting device 58, the lens optical axes of the left camera 10 and the right camera 12 are mechanically moved and adjusted as is usually done, and these left cameras are operated. The epipolar lines of the left image and the right image captured by 10 and 12 are roughly adjusted, and then the correction condition detection device 58 of this embodiment performs image conversion based on the correction condition to obtain the left image and the right image. It is better to match the epipolar line.
【0263】この実施形態によれば、対応点の検出率が
閾値以下となった場合にのみ、修正条件の検出を行なう
ので、修正条件検出に要する処理時間を長く確保するこ
とができる。対応点探索部32は、通常、修正条件を検
出するための処理を並列して行なうことができるコンピ
ュータを用いて構成されるが、対応点の検出率が閾値以
下となった場合にのみ、修正条件の検出を行なうことに
より、その並列処理数を減少させて並列処理に必要なメ
モリ容量を減少させ、或は、処理速度のより低速なコン
ピュータを用いて対応点探索部32を構成したりするこ
とができる。この結果、対応点探索部32の装置規模を
小さくし、或は、装置コストを低減したりすることがで
きる。According to this embodiment, since the correction condition is detected only when the detection rate of the corresponding points becomes equal to or less than the threshold value, it is possible to secure a long processing time for detecting the correction condition. The corresponding point searching unit 32 is usually configured by using a computer that can perform the processing for detecting the correction condition in parallel, but the correction is performed only when the detection rate of the corresponding points becomes equal to or less than the threshold value. By detecting the condition, the number of parallel processings is reduced to reduce the memory capacity required for parallel processing, or the corresponding point searching unit 32 is configured by using a computer with a slower processing speed. be able to. As a result, the device scale of the corresponding point searching unit 32 can be reduced, or the device cost can be reduced.
【0264】また何らかの要因により左画像、右画像の
エピポーララインがずれれば、対応点探索装置24にお
ける対応点の検出率が低下するので、エピポーラライン
がずれたときに修正条件を検出してエピポーララインを
合わせることができる。If the epipolar lines of the left image and the right image deviate from each other for some reason, the detection rate of the corresponding points in the corresponding point searching device 24 decreases. Therefore, when the epipolar lines deviate, the correction condition is detected and the epipolar line is detected. You can match the lines.
【0265】<請求項5の発明の第一実施形態>図17
は請求項5の発明の第一実施形態の説明に供する機能ブ
ロック図である。以下、主として請求項1の発明の第一
実施形態と相違する点につき説明し、請求項1の発明の
第一実施形態と同様の点については、その詳細な説明を
省略する。<First Embodiment of Invention of Claim 5> FIG.
FIG. 9 is a functional block diagram provided for explaining a first embodiment of the invention of claim 5; Hereinafter, differences from the first embodiment of the invention of claim 1 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 1 will be omitted.
【0266】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38, and the third right memory 40 are provided.
【0267】さらにこの実施形態の修正条件検出装置1
8は、階調変換部66及びレベル切出し部68と、第四
左メモリ70及び第四右メモリ72とを備える。Further, the correction condition detecting device 1 of this embodiment
8 includes a gradation conversion unit 66 and a level cutout unit 68, a fourth left memory 70 and a fourth right memory 72.
【0268】条件設定部28は修正条件を検出するため
の複数種類の候補条件を順次に設定し、画像変換部30
は左カメラ10及び右カメラ12により得たm階調の左
画像及びm階調の右画像の一方を、候補条件に従って画
像変換する。The condition setting unit 28 sequentially sets a plurality of types of candidate conditions for detecting the correction condition, and the image conversion unit 30
Converts one of the m-gradation left image and the m-gradation right image obtained by the left camera 10 and the right camera 12 according to the candidate condition.
【0269】ここでは条件設定部28は補正条件を検出
するための複数種類の候補条件と、エピポーララインを
合わせるための複数種類の修正条件とを記憶する。記憶
する修正条件は、最大値検出部36により検出された修
正条件である。Here, the condition setting unit 28 stores a plurality of types of candidate conditions for detecting the correction conditions and a plurality of types of correction conditions for matching the epipolar lines. The correction condition to be stored is the correction condition detected by the maximum value detection unit 36.
【0270】条件設定部28は、画像の平行移動、回転
及び倍率変換に関わる候補条件を記憶する。従って最大
値検出部36が検出する修正条件は画像の平行移動、回
転及び倍率変換に関わる修正条件となり、画像変換部3
0が候補条件及び修正条件に従って行なう画像変換は画
像の平行移動、回転及び倍率変換となる。The condition setting section 28 stores candidate conditions relating to parallel movement, rotation and magnification conversion of an image. Therefore, the correction condition detected by the maximum value detection unit 36 is the correction condition relating to the parallel movement, rotation, and magnification conversion of the image, and the image conversion unit 3
Image conversion performed by 0 according to the candidate condition and the correction condition is image parallel movement, rotation, and magnification conversion.
【0271】階調変換部66は画像変換後の左右画像を
n階調(m>n)の左右画像に変換し、レベル切出し部
68は階調変換後の左右画像から、着目した1種類又は
複数種類の階調レベルここでは着目した1種類の階調レ
ベルの、左右画像を左右着目レベル画像として切り出
す。The gradation conversion unit 66 converts the left and right images after image conversion into left and right images of n gradations (m> n), and the level cutout unit 68 selects one or more of the left and right images after the gradation conversion. Plural kinds of gradation levels Here, the left and right images of one kind of gradation level of interest are cut out as left and right attention level images.
【0272】例えば左右カメラ10、12により得たm
=256階調の左右画像を得た場合に、画像変換部30
は候補条件に従ってm=256階調の左右画像の一方を
画像変換し、階調変換部66は画像変換後のm=256
階調の左右画像をn=16階調の左右画像に変換し、レ
ベル切出し部68は階調変換後の16階調の左右画像か
ら、着目した1種類の階調レベル例えば第8番目の階調
レベルの左右画像を左右着目レベル画像として切り出
す。For example, m obtained by the left and right cameras 10 and 12.
= 256 gradation left and right images are obtained, the image conversion unit 30
Image-converts one of the left and right images having m = 256 gradations according to the candidate condition, and the gradation conversion unit 66 sets m = 256 after the image conversion.
The left and right images of gradation are converted into left and right images of n = 16 gradations, and the level cutout unit 68 selects one kind of gradation level from the left and right images of 16 gradations after the gradation conversion, for example, the eighth floor. The left and right images of the tone level are cut out as left and right focus level images.
【0273】対応点探索部32は、走査方向、走査対象
となる画素の階調表現、若しくは、走査対象となる画素
の色を異ならせて複数種の探索条件を設定し、左右着目
レベル画像を左右探索画像とする。The corresponding point search unit 32 sets a plurality of types of search conditions by making the scanning direction, the gradation expression of the pixel to be scanned, or the color of the pixel to be scanned different, and sets the left and right focus level images. Left and right search images.
【0274】そして対応点探索部32は、探索条件に従
って左右探索画像を走査し、相対応する水平走査線上に
おいて左探索画像の画素特徴と右探索画像の画素特徴と
を比較して画素特徴の差が閾値以下となる左右探索画像
の画素を対応候補点として検出する。さらに対応点探索
部32は各探索条件毎に検出した対応候補点の集合にお
いて共通集合となる対応候補点を対応点として検出す
る。Then, the corresponding point searching unit 32 scans the left and right search images according to the search conditions, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and compares the pixel feature differences. The pixels of the left and right search images in which is less than or equal to the threshold are detected as corresponding candidate points. Further, the corresponding point searching unit 32 detects, as corresponding points, corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition.
【0275】ここでは、白黒画像の左右着目レベル画像
を左右探索画像とする。また左右探索画像において相対
応する水平走査線上に存在する画素であって、左右探索
画像の一方の画素を着目点、及び、左右探索画像の他方
の画像の画素を対照点とする。そして走査方向を異なら
せた複数種類の探索条件すなわち着目点走査方向及び又
は対照点走査方向を異ならせた複数種の探索条件を設定
する。Here, the left and right focus level images of the black and white image are the left and right search images. In addition, one pixel of the left and right search images, which is a pixel existing on the corresponding horizontal scanning line in the left and right search images, is a target point, and a pixel of the other image of the left and right search images is a control point. Then, a plurality of types of search conditions with different scanning directions, that is, a plurality of types of search conditions with different target point scanning directions and / or control point scanning directions are set.
【0276】そして探索条件に従って、左右探索画像の
相対応する水平走査線L上において着目点走査方向へ順
次に数えて第i番目の着目点に対し、相対応する水平走
査線L上の対照点を対照点走査方向へ順次に走査して行
く。第i番目の着目点に対し画素特徴の差が閾値以下と
なる対照点を検出することなく水平走査線L上の対照点
を全て走査し終えたら、次に第i+1番目の着目点に対
し対照点の走査を行なう。また第i番目の着目点に対し
画素特徴の差が閾値以下となる対照点を検出したら、当
該第i番目の着目点と対照点とを対応候補点として検出
し、然る後、第i+1番目の着目点に対し対照点の走査
を行なう。Then, according to the search condition, on the corresponding horizontal scanning line L of the left and right search images, the control point on the horizontal scanning line L corresponding to the i-th point of interest sequentially counted in the scanning direction of the point of interest. Are sequentially scanned in the control point scanning direction. When all the control points on the horizontal scanning line L have been scanned without detecting control points whose pixel feature difference is less than or equal to the threshold value for the i-th point of interest, then the i + 1-th point of interest is checked. Do a point scan. When a control point in which the difference in pixel feature is less than or equal to the threshold value with respect to the i-th point of interest is detected, the i-th point of interest and the control point are detected as corresponding candidate points. The control point is scanned for the point of interest.
【0277】このようにして各探索条件毎に対応候補点
を検出したら、各探索条件毎に検出した対応候補点の集
合において共通集合となる対応候補点を対応点として検
出する。When the corresponding candidate points are detected for each search condition in this way, the corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition are detected as corresponding points.
【0278】例えば、着目点走査方向を右方向(x座標
が次第に大きくなる方向)としかつ対照点走査方向を右
方向とする第一の探索条件と、着目点走査方向を右方向
としかつ対照点走査方向を左方向(y座標が次第に小さ
くなる方向)とする第二の探索条件とを設定する。そし
て第一の探索条件に従って左右探索画像を走査して対応
候補点を検出し、さらに第二の探索条件に従って左右探
索画像を走査して対応候補点を検出し、第一の探索条件
により検出した対応候補点の集合と第二の探索条件によ
り検出した対応候補点の集合とにおいて共通集合となる
対応候補点を対応点として検出する。For example, a first search condition in which the scanning direction of the point of interest is the right direction (direction in which the x coordinate gradually increases) and the scanning direction of the control point is the right direction, and the scanning direction of the target point is the right direction and the control point is A second search condition that sets the scanning direction to the left (direction in which the y coordinate gradually decreases) is set. Then, the left and right search images are scanned according to the first search condition to detect corresponding candidate points, and the left and right search images are further scanned according to the second search condition to detect corresponding candidate points, which are detected according to the first search condition. Corresponding candidate points that are a common set in the set of corresponding candidate points and the set of corresponding candidate points detected by the second search condition are detected as corresponding points.
【0279】次に対応点探索部32は、対応点検出結果
を用いて左右探索画像における位相差の判明点及び不明
点を検出する。ここでは、対応点の位相差に基づいて対
応不明点(対応点として検出されなかった画素)に対し
て位相差を推定し当て嵌める。位相差を当て嵌めること
ができなかった対応不明点を位相差不明点として検出す
る。然る後、対応不明点に当て嵌めた位相差に関して、
位相差が正しいか否かを検定する。そしてこの検定によ
り正しいと判定された位相差の対応不明点を位相差判明
点として、正しくないと判定された位相差の対応不明点
を位相差不明点として検出する。Next, the corresponding point searching unit 32 detects the identified point and the unknown point of the phase difference in the left and right search images by using the corresponding point detection result. Here, the phase difference is estimated and applied to the unclear point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, regarding the phase difference applied to the correspondence unknown point,
Test whether the phase difference is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is detected as the unknown phase difference point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the unknown phase difference point.
【0280】評価値産出部34は左右探索画像における
位相差判明点の検出率を用いて、候補条件の種類毎に候
補条件の評価値を求める。ここでは左右探索画像におけ
る位相差判明点の検出率を、各候補条件毎に求め、当該
検出率を候補条件の評価値とする。The evaluation value producing section 34 obtains the evaluation value of the candidate condition for each kind of candidate condition by using the detection rate of the phase difference known point in the left and right search images. Here, the detection rate of the phase difference determination point in the left and right search images is obtained for each candidate condition, and the detection rate is set as the evaluation value of the candidate condition.
【0281】最大値検出部36は候補条件の種類毎に最
大の評価値を得た候補条件を修正条件として検出する。
ここでは最大値検出部36は、検出した修正条件を条件
設定部28に記憶させる。The maximum value detection unit 36 detects, as a correction condition, the candidate condition that has the maximum evaluation value for each type of candidate condition.
Here, the maximum value detection unit 36 stores the detected correction condition in the condition setting unit 28.
【0282】図18は請求項1の発明の第一実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち1種類に着目し、当該着
目種について、候補条件を用いて修正条件を検出する場
合の動作の流れを示す。FIG. 18 is a diagram showing a flow of operations of the first embodiment of the invention of claim 1. In the same figure, the flow of the operation in the case of focusing on one type out of a plurality of types of candidate conditions and correction conditions and detecting the correction conditions for the focused species using the candidate conditions is shown.
【0283】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかの1種類を着目種の候補条件
として設定し(S1)、然る後、条件設定部28は着目
種の複数個の候補条件のなかから選択した1個の候補条
件(選択候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detection device 18 (start), the condition setting unit 28 first sets one of a plurality of types of candidate conditions as a target condition candidate condition (S1), Then, the condition setting unit 28 outputs one candidate condition (selected candidate condition) selected from the plurality of candidate conditions of the target species (S2).
【0284】次に画像変換部30は、左右カメラ10、
12により撮影したm階調の左右画像の一方を、条件設
定部28から入力した選択候補条件に従って画像変換
し、画像変換後の左右画像を第三左右メモリ38、40
に格納する(S3)。左右カメラ10、12により撮影
した左右画像は第一左右メモリ14、16に格納されて
おり、画像変換部30は第一左右メモリ14、16の左
右画像を読み出し、読み出した左右画像の一方は画像変
換し他方は画像変換せずに、画像変換後の左右画像を第
三左右メモリ38、40に格納する。Next, the image conversion section 30 includes the left and right cameras 10,
One of the left and right images of m gradations photographed by 12 is subjected to image conversion according to the selection candidate condition input from the condition setting unit 28, and the left and right images after the image conversion are processed into the third left and right memories 38, 40.
(S3). The left and right images taken by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is an image. The left and right images after the image conversion are stored in the third left and right memories 38 and 40 without converting the other image.
【0285】次に階調変換部66は画像変換後の左右画
像を第三左右メモリ38、40から読み出してn階調
(m>n)の左右画像に変換し、階調変換後の左右画像
を第四左右メモリ70、72に格納する(S4)。例え
ばm=256階調及びn=16階調である。Next, the gradation converting unit 66 reads the left and right images after image conversion from the third left and right memories 38 and 40 and converts them into left and right images of n gradations (m> n), and the left and right images after gradation conversion. Is stored in the fourth left and right memories 70 and 72 (S4). For example, m = 256 gradations and n = 16 gradations.
【0286】次にレベル切出し部68は、第四左右メモ
リ70、72に格納されている階調変換後の左右画像を
走査して、着目した1種類の階調レベルの画素を検出
し、この着目階調レベルの画素から成る左右画像を、左
右着目レベル画像として切り出す(S5)。例えばn=
16階調の第8番目の階調レベルを着目階調レベルとす
る。Next, the level cut-out unit 68 scans the left and right images after gradation conversion stored in the fourth left and right memories 70 and 72, detects a pixel of one kind of gradation level of interest, and The left and right images composed of pixels of the target gradation level are cut out as left and right target level images (S5). For example, n =
The eighth gradation level of 16 gradations is set as the focused gradation level.
【0287】次に対応点探索部32は、走査方向を異な
らせて複数種の探索条件を設定すると共に、左右着目レ
ベル画像を左右探索画像とし、各探索条件毎に、左右探
索画像における対応候補点を検出する(S6)。ここで
は階調変換後の左右画像全面に対応する左右着目レベル
画像を、左右探索画像とする。Next, the corresponding point searching unit 32 sets a plurality of types of search conditions by changing the scanning directions, sets the left and right focus level images as left and right search images, and sets the correspondence candidates in the left and right search images for each search condition. A point is detected (S6). Here, the left and right focus level images corresponding to the entire surface of the left and right images after gradation conversion are set as the left and right search images.
【0288】例えば左右カメラ10、12により撮影し
た左右画像が白黒画像であって従って左右探索画像とし
て白黒画像が得られるものとする。さらに左探索画像の
画素を着目点、及び、右探索画像の画素を対照点とし、
着目点走査方向を右方向及び対照点走査方向を右方向と
する第一の探索条件と、着目点走査方向を右方向及び対
照点走査方向を左方向とする第二の探索条件とを設定す
る。For example, it is assumed that the left and right images photographed by the left and right cameras 10 and 12 are black and white images, so that a black and white image can be obtained as a left and right search image. Furthermore, the pixel of the left search image is the point of interest, and the pixel of the right search image is the control point,
Set a first search condition in which the point-of-interest scanning direction is the right direction and a control point scanning direction is the right direction, and a second search condition in which the point-of-interest scanning direction is the right direction and the control point scanning direction is the left direction. .
【0289】そして第一の探索条件に従って、左右探索
画像の相対応する水平走査線L上において着目点走査方
向へ順次に数えて第i番目の着目点に対し、相対応する
水平走査線L上の対照点を対照点走査方向へ順次に走査
して行く。第i番目の着目点に対し画素特徴例えば画素
濃度の差が閾値以下となる対照点を検出することなく水
平走査線L上の対照点を全て走査し終えたら、次に第i
+1番目の着目点に対し対照点の走査を行なう。また第
i番目の着目点に対し画素特徴の差が閾値以下となる対
照点を検出したら、当該第i番目の着目点と対照点とを
対応候補点として検出し、然る後、第i+1番目の着目
点に対し対照点の走査を行なう。そして左右探索画像全
面にわたって水平走査線L上の着目点及び対照点の走査
を終了したら、第一の探索条件による対応候補点の検出
を終了する。同様にして第二の探索条件で左右探索画像
を走査して、第二の探索条件による対応候補点の検出を
終了する。Then, according to the first search condition, on the horizontal scanning line L corresponding to the left and right search images, the i-th point of interest sequentially counted in the scanning direction of the point of interest is detected on the horizontal scanning line L corresponding thereto. The control points are sequentially scanned in the control point scanning direction. When all the control points on the horizontal scanning line L have been scanned without detecting the control points where the difference in pixel characteristics, for example, the pixel density, is less than or equal to the threshold value with respect to the i-th point of interest,
The control point is scanned for the + 1st point of interest. When a control point in which the difference in pixel feature is less than or equal to the threshold value with respect to the i-th point of interest is detected, the i-th point of interest and the control point are detected as corresponding candidate points. The control point is scanned for the point of interest. Then, when the scanning of the target point and the control point on the horizontal scanning line L is completed over the entire left and right search images, the detection of the corresponding candidate points under the first search condition is completed. Similarly, the left and right search images are scanned under the second search condition, and the detection of the corresponding candidate points under the second search condition is completed.
【0290】全種類の探索条件について、対応候補点の
検出を終了したら、次に対応点探索部32は、各探索条
件毎に得た対応候補点の集合において共通集合となる対
応候補点を対応点として検出する(S7)。When the detection of the corresponding candidate points is completed for all types of search conditions, the corresponding point searching unit 32 then finds the corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each search condition. It is detected as a point (S7).
【0291】前述のように相対応する水平走査線L上の
左右探索画像を走査し、画素特徴の差が閾値以下となっ
たら次の着目点を走査して、対応候補点を検出するの
で、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点を対応点として検出することによ
って、確率的に確からしい対応点を検出することができ
る。As described above, the left and right search images on the corresponding horizontal scanning lines L are scanned, and when the difference in pixel feature becomes less than or equal to the threshold value, the next point of interest is scanned to detect the corresponding candidate point. By detecting corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each search condition as corresponding points, it is possible to detect corresponding points that are probabilistically probable.
【0292】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出し、位相
差判明点或はこれに加え位相差不明点の検出個数を評価
値算出部34に対し出力する(S8)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point using the corresponding point detection result, and evaluates the phase difference known point or the number of detected phase difference unknown points. The value is output to the value calculator 34 (S8).
【0293】ここで検出する位相差判明点及び位相差不
明点は、左右探索画像全面に関わるものである。The phase difference known point and the phase difference unknown point detected here relate to the entire left and right search images.
【0294】次に評価値算出部32は、位相差判明点の
検出個数を用いて位相差判明点の検出率を求め、(S
2)で条件設定部28が出力した選択候補条件の評価値
として当該位相差判明点の検出率を最大値検出部36に
格納する(S9)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference known points by using the number of detected phase difference known points, and (S
The detection rate of the phase difference determination point is stored in the maximum value detection unit 36 as the evaluation value of the selection candidate condition output by the condition setting unit 28 in 2) (S9).
【0295】ここで求める位相差判明点の検出率は、現
在の左右探索画像となっている左右画像全面に関わるも
のである。The detection rate of the phase difference determination point obtained here relates to the entire left and right images which are the current left and right search images.
【0296】次に条件設定部28は着目種の全ての候補
条件を選択し終えたか否かを判定する(S10)。Next, the condition setting section 28 determines whether or not all candidate conditions for the target species have been selected (S10).
【0297】条件設定部28が着目種の全ての候補条件
を選択し終えていないと判定すると、条件設定部28は
着目種の次の候補条件を選択し(S11)、然る後、選
択した候補条件を出力する(S2)。When the condition setting section 28 determines that all candidate conditions of the target species have not been selected, the condition setting section 28 selects the next candidate condition of the target species (S11), and then selects. The candidate condition is output (S2).
【0298】また条件設定部28が着目種の全ての候補
条件を選択し終えたと判定すると、最大値検出部36は
着目種の各候補条件毎に得た評価値のなかから最大の評
価値を検出し、最大の評価値を得た候補条件を修正条件
として検出する。そして最大値検出部28は当該着目種
の修正条件を条件設定部28に格納する(S12)。然
る後、修正条件検出装置18は、当該着目種の修正条件
を検出するための処理を終了する(終了)。When the condition setting unit 28 determines that all candidate conditions of the target species have been selected, the maximum value detection unit 36 determines the maximum evaluation value from the evaluation values obtained for each candidate condition of the target species. The candidate condition that has been detected and has the maximum evaluation value is detected as the correction condition. Then, the maximum value detection unit 28 stores the correction condition of the target species in the condition setting unit 28 (S12). After that, the correction condition detection device 18 ends the process for detecting the correction condition of the target species (end).
【0299】この実施形態によれば、左右カメラ10、
12により撮影して得た左右画像を階調変換しさらに階
調変換後の左右画像から着目階調レベルの画素のみから
成る左右着目レベル画像を切り出し、左右着目レベル画
像を左右探索画像として対応点を検出するので、エピポ
ーラライン合わせに用いる修正条件を検出するのに要す
る時間を短縮できる。According to this embodiment, the left and right cameras 10,
The left and right images obtained by photographing with 12 are gradation-converted, and the left and right attention level images consisting of only the pixels of the gradation level of attention are cut out from the left and right images after gradation conversion, and the left and right attention level images are used as left and right search images. Is detected, it is possible to shorten the time required to detect the correction condition used for epipolar line alignment.
【0300】また上述したこの実施形態の説明では、走
査方向を異ならせて複数種類の探索条件を設定する場合
につき、階調変換部66、レベル切出し部68、対応点
探索部32の動作の流れを説明したが、走査対象となる
画素の階調表現或は走査対象となる画素の色を異ならせ
て複数種類の探索条件を設定することもできる。In the above description of this embodiment, the operation flow of the gradation conversion unit 66, the level cutout unit 68, and the corresponding point search unit 32 when a plurality of types of search conditions are set by changing the scanning direction. However, it is also possible to set a plurality of types of search conditions by changing the gradation expression of the pixel to be scanned or the color of the pixel to be scanned.
【0301】走査対象となる画素の階調表現を異ならせ
る場合は、例えば、次の如くすれば良い。すなわち左右
画像を白黒画像として、階調変換部66は画像変換後の
m階調の左右画像をn1 (m>n1 )階調の左右画像に
変換し、レベル切出し部68は階調変換後のn1 階調の
左右画像から左右着目レベル画像を切り出し、対応点探
索部32はこの左右着目レベル画像について対応候補点
の検出を行なう。n1階調の左右着目レベル画像につき
対応候補点の検出を終了したら、次に階調変換部66は
画像変換後のm階調の左右画像をn2 階調の左右画像に
変換し、レベル切出し部68は階調変換後のn2 (m>
n2 )階調の左右画像から左右着目レベル画像を切り出
し、対応点探索部32はこの左右着目レベル画像につい
て対応候補点の検出を行なう。この際、n1 =n2 とし
てn1 階調の左右画像の最初及び最後の階調幅とn2 階
調の左右画像の最初及び最後の階調幅とを異ならせて、
階調表現を異ならせる。或は、n1 ≠n2 として階調表
現を異ならせる。このように走査対象となる画素の階調
表現を異ならせたn1 階調及びn2 階調の左右画像から
切り出した左右着目レベル画像について対応候補点を検
出するという複数種の探索条件を設定して、対応候補点
を検出し、各探索条件毎に検出した対応候補点の集合に
おいて共通集合となる対応候補点を対応点として検出す
れば良い。When the gradation expression of the pixel to be scanned is made different, for example, the following may be done. That is, the left and right images are black and white images, the gradation conversion unit 66 converts the left and right images of m gradations after the image conversion into left and right images of n 1 (m> n 1 ) gradations, and the level cutout unit 68 converts the gradations. Left and right attention level images are cut out from the subsequent left and right images of n 1 gradations, and the corresponding point searching unit 32 detects corresponding candidate points for the left and right attention level images. After the detection of the corresponding candidate points for the left and right focused level images of n 1 gray levels is completed, the gray level conversion unit 66 then converts the m gray level left and right images after image conversion into n 2 gray level left and right images. The cutout portion 68 is n 2 (m>
The left and right focused level images are cut out from the left and right images of n 2 ) gradation, and the corresponding point searching unit 32 detects the corresponding candidate points for the left and right focused level images. At this time, by setting n 1 = n 2 , the first and last gray scale widths of the left and right images of n 1 gray scale are made different from the first and last gray scale widths of the left and right images of n 2 gray scale,
Different gradation expression. Alternatively, the gradation expression is made different by setting n 1 ≠ n 2 . In this way, a plurality of types of search conditions are set to detect the corresponding candidate points for the left and right focus level images cut out from the left and right images of n 1 gradation and n 2 gradation in which the gradation expression of the pixel to be scanned is different. Then, the corresponding candidate points may be detected, and the corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition may be detected as the corresponding points.
【0302】また走査対象となる画素の色を異ならせる
場合は、例えば次の如くすれば良い。すなわち左右画像
をカラー画像として、階調変換部66は画像変換後のm
階調の左右画像をn(m>n)階調の左右画像に変換
し、レベル切出し部68は階調変換後のn階調の左右画
像から、着目した階調レベルの赤色画素のみから成る左
右着目レベル画像を切り出し、対応点探索部32はこの
赤色画素の左右着目レベル画像について対応候補点の検
出を行なう。赤色画素の左右着目レベル画像につき対応
候補点の検出を終了したら、次にレベル切出し部68は
階調変換後のn階調の左右画像から、着目した階調レベ
ルの緑色画素のみから成る左右着目レベル画像を切り出
し、対応点探索部32はこの緑色画素の左右着目レベル
画像について対応候補点の検出を行なう。緑色画素の左
右着目レベル画像につき対応候補点の検出を終了した
ら、次にレベル切出し部68は階調変換後のn階調の左
右画像から、着目した階調レベルの青色画素のみから成
る左右着目レベル画像を切り出し、対応点探索部32は
この青色画素の左右着目レベル画像について対応候補点
の検出を行なう。このように走査対象となる画素の色を
異ならせた左右着目レベル画像について対応候補点を検
出するという複数種の探索条件を設定して、対応候補点
を検出し、各探索条件毎に検出した対応候補点の集合に
おいて共通集合となる対応候補点を対応点として検出す
れば良い。When the color of the pixel to be scanned is made different, the following may be done, for example. That is, with the left and right images as color images, the gradation conversion unit 66 uses m after image conversion.
The left and right images of gradation are converted into left and right images of n (m> n) gradations, and the level cutout unit 68 is composed of only the red pixels of the focused gradation level from the left and right images of n gradations after gradation conversion. The left and right attention level images are cut out, and the corresponding point searching unit 32 detects the corresponding candidate points for the left and right attention level images of the red pixels. When the detection of the corresponding candidate points is completed for the left and right focused level images of the red pixels, the level cut-out unit 68 next examines the left and right focused images of the green level of the focused gray level from the left and right images of n gray levels after the gray level conversion. The level image is cut out, and the corresponding point searching unit 32 detects the corresponding candidate points for the left and right focused level images of the green pixel. When the detection of the corresponding candidate points is completed for the left and right focused level images of the green pixels, the level cutout unit 68 next examines the left and right images of the n gradations after the gradation conversion and focuses the left and right focused pixels including only the blue pixels of the focused gradation level. The level image is cut out, and the corresponding point searching unit 32 detects corresponding candidate points for the right and left focused level images of the blue pixel. In this way, a plurality of types of search conditions are set to detect corresponding candidate points for left and right focus level images in which the color of the pixel to be scanned is different, and the corresponding candidate points are detected and detected for each search condition. Corresponding candidate points that are a common set in the set of corresponding candidate points may be detected as corresponding points.
【0303】<請求項5の発明の第二実施形態>次に図
17を参照し、請求項5の発明の第二実施形態につき説
明する。以下、主として請求項5の発明の第一実施形態
と相違する点につき説明し、請求項5の発明の第一実施
形態と同様の点については、その詳細な説明を省略す
る。<Second Embodiment of Invention of Claim 5> Next, a second embodiment of the invention of claim 5 will be described with reference to FIG. Hereinafter, differences from the first embodiment of the invention of claim 5 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 5 will be omitted.
【0304】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38, and the third right memory 40 are provided.
【0305】さらにこの実施形態の修正条件検出装置1
8は、階調変換部66及びレベル切出し部68と、第四
左メモリ70及び第四右メモリ72とを備える。Further, the correction condition detecting device 1 of this embodiment
8 includes a gradation conversion unit 66 and a level cutout unit 68, a fourth left memory 70 and a fourth right memory 72.
【0306】この実施形態では、レベル切出し部68は
階調変換後の左右画像から着目した複数種類の階調レベ
ルの左右画像を順次に左右着目レベル画像として切り出
し、評価値算出部は候補条件が同じ各左右探索画像毎に
位相差判明点の検出率を求め、候補条件が同じ左右探索
画像について求めた検出率の平均値を当該候補条件の評
価値とする。In this embodiment, the level cutout unit 68 sequentially cuts out the left and right images of a plurality of different gradation levels of interest from the left and right images after gradation conversion as the left and right attention level images, and the evaluation value calculation unit sets the candidate condition as a candidate condition. The detection rate of the phase difference determination point is obtained for each of the same left and right search images, and the average value of the detection rates obtained for the left and right search images having the same candidate condition is set as the evaluation value of the candidate condition.
【0307】図19は請求項5の発明の第二実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち1種類に着目し、当該着
目種について、候補条件を用いて修正条件を検出する場
合の動作の流れを示す。FIG. 19 is a diagram showing the operation flow of the second embodiment of the invention of claim 5. In the same figure, the flow of the operation in the case of focusing on one type out of a plurality of types of candidate conditions and correction conditions and detecting the correction conditions for the focused species using the candidate conditions is shown.
【0308】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかの1種類を着目種の候補条件
として設定し(S1)、然る後、条件設定部28は着目
種の複数個の候補条件のなかから選択した1個の候補条
件(選択候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting unit 28 first sets one of the plurality of types of candidate conditions as a target condition candidate condition (S1), Then, the condition setting unit 28 outputs one candidate condition (selected candidate condition) selected from the plurality of candidate conditions of the target species (S2).
【0309】次に画像変換部30は、左右カメラ10、
12により撮影したm階調の左右画像の一方を、条件設
定部28から入力した選択候補条件に従って画像変換
し、画像変換後の左右画像を第三左右メモリ38、40
に格納する(S3)。左右カメラ10、12により撮影
した左右画像は第一左右メモリ14、16に格納されて
おり、画像変換部30は第一左右メモリ14、16の左
右画像を読み出し、読み出した左右画像の一方は画像変
換し他方は画像変換せずに、画像変換後の左右画像を第
三左右メモリ38、40に格納する。Next, the image conversion section 30 includes the left and right cameras 10,
One of the left and right images of m gradations photographed by 12 is subjected to image conversion according to the selection candidate condition input from the condition setting unit 28, and the left and right images after the image conversion are processed into the third left and right memories 38, 40.
(S3). The left and right images taken by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is an image. The left and right images after the image conversion are stored in the third left and right memories 38 and 40 without converting the other image.
【0310】次に階調変換部66は画像変換後の左右画
像を第三左右メモリ38、40から読み出してn階調
(m>n)の左右画像に変換し、階調変換後の左右画像
を第四左右メモリ70、72に格納する(S4)。Next, the gradation converting unit 66 reads the left and right images after image conversion from the third left and right memories 38 and 40 and converts them into left and right images of n gradations (m> n), and the left and right images after gradation conversion. Is stored in the fourth left and right memories 70 and 72 (S4).
【0311】次にレベル切出し部68は、階調変換後の
左右画像から、着目した複数種類の階調レベルの左右画
像を順次に左右着目レベル画像として切り出す。レベル
切出し部68は、第四左右メモリ70、72に格納され
ている階調変換後の左右画像を走査して、着目した複数
種類の階調レベルのうち1種類の階調レベルの画素を検
出し、この着目階調レベルの画素から成る左右画像を、
左右着目レベル画像として切り出す(S5)。例えばn
=16階調のうち、第5番目、第8番目及び第11番目
の階調レベルに着目し、これら着目階調レベルのうちま
ず第5番目の階調レベルの画素から成る左右画像を、左
右着目レベル画像として切り出す。Next, the level cutout unit 68 sequentially cuts out the left and right images of the plurality of types of gradation levels of interest from the left and right images after the gradation conversion as left and right focused level images. The level cutout unit 68 scans the gradation-converted left and right images stored in the fourth left and right memories 70 and 72 to detect pixels of one kind of gradation level among a plurality of kinds of focused gradation levels. Then, the left and right images consisting of pixels of this gradation level of interest are
It is cut out as left and right focus level images (S5). For example, n
= 5th, 8th, and 11th gradation levels out of 16 gradations, the left and right images composed of the pixels of the 5th gradation level among these focused gradation levels Cut out as a level image of interest.
【0312】次に対応点探索部32は、走査方向を異な
らせて複数種の探索条件を設定すると共に、左右着目レ
ベル画像を左右探索画像とし、各探索条件毎に、左右探
索画像における対応候補点を検出する(S6)。ここで
は階調変換後の左右画像全面に対応する左右着目レベル
画像を、左右探索画像とする。Next, the corresponding point search unit 32 sets a plurality of types of search conditions by changing the scanning directions, sets the left and right focus level images as left and right search images, and sets the correspondence candidates in the left and right search images for each search condition. A point is detected (S6). Here, the left and right focus level images corresponding to the entire surface of the left and right images after gradation conversion are set as the left and right search images.
【0313】全種類の探索条件について、対応候補点の
検出を終了したら、次に対応点探索部32は、各探索条
件毎に得た対応候補点の集合において共通集合となる対
応候補点を対応点として検出する(S7)。When the detection of the corresponding candidate points is completed for all types of search conditions, the corresponding point searching unit 32 then sets the corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each search condition. It is detected as a point (S7).
【0314】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出し、位相
差判明点或はこれに加え位相差不明点の検出個数を評価
値算出部34に対し出力する(S8)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point by using the corresponding point detection result, and evaluates the phase difference known point or the number of detected phase difference unknown points. The value is output to the value calculator 34 (S8).
【0315】ここで検出する位相差判明点及び位相差不
明点は、左右探索画像全面に関わるものである。The phase difference known point and the phase difference unknown point detected here relate to the entire left and right search images.
【0316】次に評価値算出部32は、位相差判明点の
検出個数を用いて位相差判明点の検出率を求め、(S
2)で条件設定部28が出力した選択候補条件の評価値
として当該位相差判明点の検出率を最大値検出部36に
格納する(S9)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference known points by using the number of detected phase difference known points, and (S
The detection rate of the phase difference determination point is stored in the maximum value detection unit 36 as the evaluation value of the selection candidate condition output by the condition setting unit 28 in 2) (S9).
【0317】ここで求める位相差判明点の検出率は、現
在の左右探索画像となっている左右画像全面に関わるも
のである。The detection rate of the phase difference determination point obtained here relates to the entire left and right images which are the current left and right search images.
【0318】次にレベル切出し部68は、着目した全て
の種類の階調レベルにつき左右着目レベル画像の切出し
を終了したか否かを判定する(S10)。Next, the level cutout unit 68 determines whether or not the cutout of the left and right focus level images has been completed for all the gradation levels of the focus (S10).
【0319】着目した全ての種類の階調レベルにつき終
了していなければ、レベル切出し部68は残りの着目し
た種類の階調レベルを選択し(S11)、選択着目階調
レベルにつき左右着目レベル画像の切出しを行なう(S
5)。例えばn=16階調のうち、第5番目、第8番目
及び第11番目の階調レベルに着目し、第5番目の階調
レベルについてのみ左右着目レベル画像の切出しを終了
していれば、次の着目階調レベルとして第8番目の階調
レベルを選択し当該第8番目の着目選択階調レベルにつ
き左右着目レベル画像の切出しを行なう。If not finished for all the gradation levels of interest, the level cutout unit 68 selects the remaining gradation levels of the interest type (S11), and the left and right focus level images for the selected gradation levels are selected. Cut out (S
5). For example, if the 5th, 8th, and 11th gradation levels among n = 16 gradations are focused and the cutout of the left and right focused level images is completed only for the 5th gradation level, The eighth gradation level is selected as the next gradation level of interest, and the left and right focus level images are cut out for the eighth selected gradation level of interest.
【0320】また着目した全ての種類の階調レベルにつ
き終了していれば、次に評価値算出部34は各着目階調
レベル毎に得た位相差判明点検出率の平均値を求め、こ
の平均値を、(S2)で条件選択部28が出力した候補
条件の評価値として最大値検出部36に格納する(S1
2)。例えば例えばn=16階調のうち、第5番目、第
8番目及び第11番目の階調レベルに着目し、これら3
種類の着目階調レベルの全種類につき左右着目レベル画
像の切出しを終了していれば、これら3種類の着目階調
レベル毎に得た位相差判明点検出率の平均値を求めるこ
ととなる。If the processing has been completed for all the gradation levels of interest, then the evaluation value calculation unit 34 obtains the average value of the phase difference determination point detection rates obtained for each of the gradation levels of interest. The average value is stored in the maximum value detection unit 36 as the evaluation value of the candidate condition output by the condition selection unit 28 in (S2) (S1).
2). For example, paying attention to the 5th, 8th, and 11th gradation levels of n = 16 gradations, these 3
If the cutout of the left and right focus level images has been completed for all the target grayscale levels of each type, the average value of the phase difference determination point detection rates obtained for each of these three types of target grayscale levels will be obtained.
【0321】次に条件設定部28は着目種の全ての候補
条件を選択し終えたか否かを判定する(S13)。Next, the condition setting section 28 determines whether or not all candidate conditions for the target species have been selected (S13).
【0322】着目種の全ての候補条件を選択し終えてい
なければ、条件設定部28は着目種の次の候補条件を選
択し(S14)、然る後、選択した候補条件を出力する
(S2)。If all candidate conditions of the target species have not been selected, the condition setting unit 28 selects the next candidate condition of the target species (S14), and then outputs the selected candidate conditions (S2). ).
【0323】また着目種の全ての候補条件を選択し終え
たのであれば、最大値検出部36は着目種の各候補条件
毎に得た評価値のなかから最大の評価値を検出し、最大
の評価値を得た候補条件を修正条件として検出する。そ
して最大値検出部28は当該着目種の修正条件を条件設
定部28に格納する(S15)。然る後、修正条件検出
装置18は、当該着目種の修正条件を検出するための処
理を終了する(終了)。If all candidate conditions of the target species have been selected, the maximum value detecting unit 36 detects the maximum evaluation value from the evaluation values obtained for each candidate condition of the target species, The candidate condition that has obtained the evaluation value of is detected as the correction condition. Then, the maximum value detection unit 28 stores the correction condition of the target species in the condition setting unit 28 (S15). After that, the correction condition detection device 18 ends the process for detecting the correction condition of the target species (end).
【0324】<請求項5の発明の第三実施形態>次に図
17を参照し、請求項5の発明の第三実施形態につき説
明する。以下、主として請求項5の発明の第一実施形態
と相違する点につき説明し、請求項5の発明の第一実施
形態と同様の点については、その詳細な説明を省略す
る。<Third Embodiment of the Invention of Claim 5> Next, with reference to FIG. 17, a third embodiment of the invention of claim 5 will be described. Hereinafter, differences from the first embodiment of the invention of claim 5 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 5 will be omitted.
【0325】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38, and the third right memory 40 are provided.
【0326】さらにこの実施形態の修正条件検出装置1
8は、階調変換部66及びレベル切出し部68と、第四
左メモリ70及び第四右メモリ72とを備える。Further, the correction condition detecting apparatus 1 of this embodiment
8 includes a gradation conversion unit 66 and a level cutout unit 68, a fourth left memory 70 and a fourth right memory 72.
【0327】この実施形態では、レベル切出し部68は
階調変換後の左右画像から、着目した複数種類の階調レ
ベルの左右画像を順次に左右着目レベル画像として切り
出し、評価値算出部34は候補条件が同じ各左右探索画
像毎に位相差判明点の検出率を求め、候補条件が同じ左
右探索画像について求めた検出率のうち、上位から順次
に所定個数の検出率を選択し、当該選択により得た検出
率の平均値を候補条件の評価値とする。In this embodiment, the level cutout unit 68 sequentially cuts out left and right images of a plurality of types of gradation levels of interest from the left and right images after gradation conversion as left and right attention level images, and the evaluation value calculation unit 34 selects candidates. The detection rate of the phase difference determination point is obtained for each of the left and right search images with the same condition, and a predetermined number of detection rates are sequentially selected from the higher order among the detection rates obtained for the left and right search images with the same candidate condition, and by the selection, The average value of the obtained detection rates is used as the evaluation value of the candidate condition.
【0328】図20は請求項5の発明の第三実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち1種類に着目し、当該着
目種について、候補条件を用いて修正条件を検出する場
合の動作の流れを示す。FIG. 20 is a diagram showing an operational flow of the third embodiment of the invention of claim 5. In the same figure, the flow of the operation in the case of focusing on one type out of a plurality of types of candidate conditions and correction conditions and detecting the correction conditions for the focused species using the candidate conditions is shown.
【0329】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかの1種類を着目種の候補条件
として設定し(S1)、然る後、条件設定部28は着目
種の複数個の候補条件のなかから選択した1個の候補条
件(選択候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting unit 28 first sets one of the plurality of types of candidate conditions as the target condition candidate condition (S1), Then, the condition setting unit 28 outputs one candidate condition (selected candidate condition) selected from the plurality of candidate conditions of the target species (S2).
【0330】次に画像変換部30は、左右カメラ10、
12により撮影したm階調の左右画像の一方を、条件設
定部28から入力した選択候補条件に従って画像変換
し、画像変換後の左右画像を第三左右メモリ38、40
に格納する(S3)。左右カメラ10、12により撮影
した左右画像は第一左右メモリ14、16に格納されて
おり、画像変換部30は第一左右メモリ14、16の左
右画像を読み出し、読み出した左右画像の一方は画像変
換し他方は画像変換せずに、画像変換後の左右画像を第
三左右メモリ38、40に格納する。Next, the image conversion section 30 includes the left and right cameras 10,
One of the left and right images of m gradations photographed by 12 is subjected to image conversion according to the selection candidate condition input from the condition setting unit 28, and the left and right images after the image conversion are processed into the third left and right memories 38, 40.
(S3). The left and right images taken by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is an image. The left and right images after the image conversion are stored in the third left and right memories 38 and 40 without converting the other image.
【0331】次に階調変換部66は画像変換後の左右画
像を第三左右メモリ38、40から読み出してn階調
(m>n)の左右画像に変換し、階調変換後の左右画像
を第四左右メモリ70、72に格納する(S4)。Next, the gradation conversion unit 66 reads the left and right images after image conversion from the third left and right memories 38 and 40 and converts them into left and right images of n gradations (m> n), and the left and right images after gradation conversion. Is stored in the fourth left and right memories 70 and 72 (S4).
【0332】次にレベル切出し部68は、階調変換後の
左右画像から、着目した複数種類の階調レベルの左右画
像を順次に左右着目レベル画像として切り出す。レベル
切出し部68は、第四左右メモリ70、72に格納され
ている階調変換後の左右画像を走査して、着目した複数
種類の階調レベルのうち1種類の階調レベルの画素を検
出し、この着目階調レベルの画素から成る左右画像を、
左右着目レベル画像として切り出す(S5)。例えばn
=16階調のうち、第5番目、第8番目及び第11番目
の階調レベルに着目し、これら着目階調レベルのうちま
ず第5番目の階調レベルの画素から成る左右画像を、左
右着目レベル画像として切り出す。Next, the level cutout unit 68 sequentially cuts out the left and right images of the plurality of types of gradation levels of interest from the left and right images after the gradation conversion as left and right focus level images. The level cutout unit 68 scans the gradation-converted left and right images stored in the fourth left and right memories 70 and 72 to detect pixels of one kind of gradation level among a plurality of kinds of focused gradation levels. Then, the left and right images consisting of pixels of this gradation level of interest are
It is cut out as left and right focus level images (S5). For example, n
= 5th, 8th, and 11th gradation levels out of 16 gradations, the left and right images composed of the pixels of the 5th gradation level among these focused gradation levels Cut out as a level image of interest.
【0333】次に対応点探索部32は、走査方向を異な
らせて複数種の探索条件を設定すると共に、左右着目レ
ベル画像を左右探索画像とし、各探索条件毎に、左右探
索画像における対応候補点を検出する(S6)。ここで
は階調変換後の左右画像全面に対応する左右着目レベル
画像を、左右探索画像とする。Next, the corresponding point searching unit 32 sets a plurality of types of search conditions by changing the scanning directions, sets the left and right focus level images as left and right search images, and sets the correspondence candidates in the left and right search images for each search condition. A point is detected (S6). Here, the left and right focus level images corresponding to the entire surface of the left and right images after gradation conversion are set as the left and right search images.
【0334】全種類の探索条件について、対応候補点の
検出を終了したら、次に対応点探索部32は、各探索条
件毎に得た対応候補点の集合において共通集合となる対
応候補点を対応点として検出する(S7)。After detecting the corresponding candidate points for all types of search conditions, the corresponding point searching unit 32 then finds a corresponding candidate point that is a common set in the set of corresponding candidate points obtained for each search condition. It is detected as a point (S7).
【0335】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出し、位相
差判明点或はこれに加え位相差不明点の検出個数を評価
値算出部34に対し出力する(S8)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point using the corresponding point detection result, and evaluates the phase difference known point or the number of detected phase difference unknown points. The value is output to the value calculator 34 (S8).
【0336】ここで検出する位相差判明点及び位相差不
明点は、左右探索画像全面に関わるものである。The phase difference known point and the phase difference unknown point detected here relate to the entire left and right search images.
【0337】次に評価値算出部32は、位相差判明点の
検出個数を用いて位相差判明点の検出率を求め、(S
2)で条件設定部28が出力した選択候補条件の評価値
として当該位相差判明点の検出率を最大値検出部36に
格納する(S9)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference known points by using the number of detected phase difference known points, and (S
The detection rate of the phase difference determination point is stored in the maximum value detection unit 36 as the evaluation value of the selection candidate condition output by the condition setting unit 28 in 2) (S9).
【0338】ここで求める位相差判明点の検出率は、現
在の左右探索画像となっている左右画像全面に関わるも
のである。The detection rate of the phase difference determination point obtained here relates to the entire left and right images which are the current left and right search images.
【0339】次にレベル切出し部68は、着目した全て
の種類の階調レベルにつき左右着目レベル画像の切出し
を終了したか否かを判定する(S10)。Next, the level cutout unit 68 determines whether or not the cutout of the left and right attention level images has been completed for all the gradation levels of interest (S10).
【0340】着目した全ての種類の階調レベルにつき終
了していなければ、レベル切出し部68は残りの着目し
た種類の階調レベルを選択し(S11)、選択着目階調
レベルにつき左右着目レベル画像の切出しを行なう(S
5)。例えばn=16階調のうち、第5番目、第8番目
及び第11番目の階調レベルに着目し、第5番目の階調
レベルについてのみ左右着目レベル画像の切出しを終了
していれば、次の着目階調レベルとして第8番目の階調
レベルを選択し当該第8番目の着目選択階調レベルにつ
き左右着目レベル画像の切出しを行なう。If not finished for all the gradation levels of interest, the level cutout unit 68 selects the remaining gradation levels of the interest type (S11), and the left and right focus level images for the selected gradation levels of interest. Cut out (S
5). For example, if the 5th, 8th, and 11th gradation levels among n = 16 gradations are focused and the cutout of the left and right focused level images is completed only for the 5th gradation level, The eighth gradation level is selected as the next gradation level of interest, and the left and right focus level images are cut out for the eighth selected gradation level of interest.
【0341】また着目した全ての種類の階調レベルにつ
き終了していれば、次に評価値算出部34は、当該候補
条件に関し各着目階調レベル毎に得た位相差判明点の検
出率のなかから、上位の検出率を選択する(S12)。If the processing has been completed for all the gradation levels of interest, the evaluation value calculation unit 34 then determines the detection rate of the phase difference determination point obtained for each gradation level of interest for the candidate condition. Among them, the higher detection rate is selected (S12).
【0342】次に評価値算出部34は、選択した上位の
検出率の平均値を求め、この平均値を当該候補条件に関
する評価値として、最大値検出部36に格納する(S1
3)。Next, the evaluation value calculation unit 34 obtains the average value of the selected upper detection rates, and stores this average value in the maximum value detection unit 36 as the evaluation value for the candidate condition (S1).
3).
【0343】ここで1個の候補条件について、種類の異
なるR個の階調レベルをそれぞれ着目階調レベルとして
設定するものとすれば、これら着目階調レベル毎に位相
差判明点の検出率を得るので、総個数R個の検出率を得
ることとなる。そして総個数R個の検出率のなかから上
位r1個の検出率(r1はR>r1>1なる自然数)の
検出率を選択し、選択した上位r1個の検出率の平均値
を評価値とする。(R−r1)>0なる下位(R−r
1)個の検出率は評価値の算出には用いない。Here, assuming that R gradation levels of different types are set as the gradation levels of interest for one candidate condition, the detection rate of the phase difference determination point is determined for each of these gradation levels of interest. Therefore, the detection rate of the total number R is obtained. Then, the detection rate of the top r1 detection rates (r1 is a natural number such that R>r1> 1) is selected from the detection rates of the total number R, and the average value of the selected detection rates of the top r1 is set as the evaluation value. To do. Lower (R-r1)> 0 (R-r
1) The detection rates are not used for calculating the evaluation value.
【0344】次に条件設定部28は着目種の全ての候補
条件を選択し終えたか否かを判定する(S14)。Next, the condition setting section 28 determines whether or not all candidate conditions for the target species have been selected (S14).
【0345】着目種の全ての候補条件を選択し終えてい
なければ、条件設定部28は着目種の次の候補条件を選
択し(S15)、然る後、選択した候補条件を出力する
(S2)。If all candidate conditions of the target species have not been selected, the condition setting section 28 selects the next candidate condition of the target species (S15), and then outputs the selected candidate conditions (S2). ).
【0346】また着目種の全ての候補条件を選択し終え
たのであれば、最大値検出部36は着目種の各候補条件
毎に得た評価値のなかから最大の評価値を検出し、最大
の評価値を得た候補条件を修正条件として検出する。そ
して最大値検出部28は当該着目種の修正条件を条件設
定部28に格納する(S16)。然る後、修正条件検出
装置18は、当該着目種の修正条件を検出するための処
理を終了する(終了)。If all candidate conditions for the target species have been selected, the maximum value detection unit 36 detects the maximum evaluation value from the evaluation values obtained for each candidate condition for the target species, The candidate condition that has obtained the evaluation value of is detected as the correction condition. Then, the maximum value detection unit 28 stores the correction condition of the target species in the condition setting unit 28 (S16). After that, the correction condition detection device 18 ends the process for detecting the correction condition of the target species (end).
【0347】<請求項9の発明の第一実施形態>図21
は請求項9の発明の第一実施形態の説明に供する機能ブ
ロック図である。以下、請求項1の発明の第一実施形態
と相違する点につき説明し、請求項1の発明の第一実施
形態と同様の点についてはその詳細な説明を省略する。<First Embodiment of the Invention of Claim 9> FIG.
FIG. 10 is a functional block diagram provided for explaining a first embodiment of the invention of claim 9; Hereinafter, differences from the first embodiment of the invention of claim 1 will be described, and detailed description of the same points as the first embodiment of the invention of claim 1 will be omitted.
【0348】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、さらに位相差範囲入力
部74とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the phase difference range input unit 74 are further provided.
【0349】条件設定部28は高さ方向修正条件を検出
するための候補条件を順次に設定し、画像変換部30は
左カメラ10及び右カメラ12により得た左画像及び右
画像の一方を、候補条件に従って画像変換する。The condition setting unit 28 sequentially sets the candidate conditions for detecting the height direction correction condition, and the image conversion unit 30 sets one of the left image and the right image obtained by the left camera 10 and the right camera 12, Image conversion is performed according to the candidate conditions.
【0350】ここでは高さ方向修正条件を含みそれ以外
の種類の修正条件をも検出するものであって、条件設定
部28は修正条件を検出するための複数種類の候補条件
と、エピポーララインを合わせるための複数種類の修正
条件とを記憶する。記憶する修正条件は、最大値検出部
36により検出された修正条件である。これら複数種類
の候補条件及び修正条件のうち1種類は、高さ方向の候
補条件及び修正条件である。Here, other types of correction conditions including the height direction correction conditions are also detected, and the condition setting unit 28 selects a plurality of types of candidate conditions for detecting the correction conditions and the epipolar line. A plurality of types of correction conditions for matching are stored. The correction condition to be stored is the correction condition detected by the maximum value detection unit 36. One of the plurality of types of candidate conditions and correction conditions is a height direction candidate condition and a correction condition.
【0351】条件設定部28は、画像の平行移動、回転
及び倍率変換に関わる候補条件を記憶する。従って最大
値検出部36が検出する修正条件は画像の平行移動、回
転及び倍率変換に関わる修正条件となり、画像変換部3
0が候補条件及び修正条件に従って行なう画像変換は画
像の平行移動、回転及び倍率変換となる。これら平行移
動、回転及び倍率変換としては、既知の手法を用いるこ
とができる。The condition setting section 28 stores candidate conditions relating to parallel movement, rotation and magnification conversion of an image. Therefore, the correction condition detected by the maximum value detection unit 36 is the correction condition relating to the parallel movement, rotation, and magnification conversion of the image, and the image conversion unit 3
Image conversion performed by 0 according to the candidate condition and the correction condition is image parallel movement, rotation, and magnification conversion. Known methods can be used for these parallel movement, rotation, and magnification conversion.
【0352】対応点探索部32は、走査方向、走査対象
となる画素の階調表現、若しくは、走査対象となる画素
の色を異ならせて複数種の探索条件を設定し、画像変換
後の左右画像を左右探索画像とする。ここでは左右カメ
ラ10、12によりカラー画像の左右画像を得、走査対
象となる画素の色を異ならせて複数種の探索条件を設定
する。また画像変換後の左右画像を全面にわたって左右
探索画像とする。The corresponding point searching unit 32 sets a plurality of types of search conditions by making the scanning direction, the gradation expression of the pixel to be scanned or the color of the pixel to be scanned different, and setting the left and right after image conversion. Let the images be left and right search images. Here, the left and right images of the color image are obtained by the left and right cameras 10 and 12, and the color of the pixel to be scanned is made different to set a plurality of types of search conditions. Further, the left and right images after the image conversion are used as the left and right search images over the entire surface.
【0353】そして対応点探索部32は、探索条件に従
って左右探索画像を走査し、相対応する水平走査線上に
おいて左探索画像の画素特徴と右探索画像の画素特徴と
を比較して画素特徴の差が閾値以下となる左右探索画像
の画素を対応候補点として検出する。さらに対応点探索
部32は各探索条件毎に検出した対応候補点の集合にお
いて共通集合となる対応候補点を対応点として検出す
る。ここでは画素特徴を画素濃度とする。Then, the corresponding point searching unit 32 scans the left and right search images according to the search condition, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and compares the pixel feature differences. The pixels of the left and right search images in which is less than or equal to the threshold are detected as corresponding candidate points. Further, the corresponding point searching unit 32 detects, as corresponding points, corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition. Here, the pixel feature is the pixel density.
【0354】例えば、画像変換後の左右画像としてカラ
ー画像を第三左メモリ38及び第三右メモリ40に格納
し、これら画像変換後の左右画像のうち赤色画像を左右
探索画像とする第一の探索条件と、画像変換後の左右画
像のうち青色画像を左右探索画像とする第二の探索条件
とを設定する。そして第一の探索条件により赤色画像の
左右探索画像を走査して、相対応する水平走査線上にお
いて画素特徴の差が閾値以下となる左右探索画像の画素
を、第一の探索条件による対応候補点として検出する。
さらに第二の探索条件により青色画像の左右探索画像を
走査して、相対応する水平走査線上において画素特徴の
差が閾値以下となる左右探索画像の画素を、第二の探索
条件による対応候補点として検出する。然る後、第一の
探索条件で検出した対応候補点の集合と第二の探索条件
で検出した対応候補点の集合とにおいて共通集合となる
対応候補点を対応点として検出する。For example, a color image is stored in the third left memory 38 and the third right memory 40 as left and right images after image conversion, and the red image of these left and right images after image conversion is the first left and right search image. The search condition and the second search condition in which the blue image of the left and right images after the image conversion is used as the left and right search images are set. Then, the left and right search images of the red image are scanned under the first search condition, and the pixels of the left and right search image where the pixel feature difference on the corresponding horizontal scanning lines is less than or equal to the threshold value To detect as.
Furthermore, the left and right search images of the blue image are scanned under the second search condition, and the pixels of the left and right search images for which the difference in pixel feature on the corresponding horizontal scanning lines is less than or equal to the threshold are identified as the corresponding candidate points according to the second search condition. To detect as. Then, the corresponding candidate points that are a common set in the set of corresponding candidate points detected under the first search condition and the set of corresponding candidate points detected under the second search condition are detected as corresponding points.
【0355】次に対応点探索部32は、対応点検出結果
を用いて左右探索画像において高さ方向のずれ量が大と
なる近距離位相差の判明点及び不明点を検出する。オペ
レータは、高さ方向のずれ量が大となる近距離位相差の
範囲を、位相差範囲入力部74を介して対応点探索部3
2に入力する。例えば位相差が80以上となる範囲を、
高さ方向のずれ量が大となる近距離位相差の範囲として
入力する。Next, the corresponding point search unit 32 detects the identified point and the unknown point of the short-distance phase difference in which the shift amount in the height direction is large in the left and right search images using the corresponding point detection result. The operator uses the phase difference range input unit 74 to set the range of the short-distance phase difference in which the shift amount in the height direction is large, through the corresponding point search unit 3
Enter 2 For example, the range where the phase difference is 80 or more,
It is input as the range of the short-distance phase difference in which the amount of deviation in the height direction is large.
【0356】ここでは、対応点の位相差に基づいて対応
不明点(対応点として検出されなかった画素)に対して
位相差を推定し当て嵌める。位相差を当て嵌めることが
できなかった対応不明点を位相差不明点として検出す
る。然る後、対応不明点に当て嵌めた位相差に関して、
位相差が正しいか否かを検定する。そしてこの検定によ
り正しいと判定された位相差の対応不明点を位相差判明
点として、正しくないと判定された位相差の対応不明点
を位相差不明点として検出する。Here, the phase difference is estimated and applied to the unclear point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, regarding the phase difference applied to the correspondence unknown point,
Test whether the phase difference is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is detected as the unknown phase difference point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the unknown phase difference point.
【0357】走査対象となる画素の色を異ならせて複数
種類の探索条件を設定しているので、走査対象となる画
素の色毎に、位相差の当て嵌め及び位相差の検定を行な
う。走査対象となる画素の全ての色について位相差が正
しいと判定された画素のみを位相差判明点とし、走査対
象となる画素の色のいずれかの色で位相差が正しくない
と判定された画素は位相差不明点とする。Since a plurality of types of search conditions are set by making the color of the pixel to be scanned different, the fitting of the phase difference and the verification of the phase difference are performed for each color of the pixel to be scanned. Pixels for which the phase difference is determined to be correct for all the colors of the pixel to be scanned, and the phase difference is determined to be incorrect for any of the colors of the pixel to be scanned. Is the point of unknown phase difference.
【0358】然る後、位相差判明点のうち、高さ方向の
ずれ量が大となる近距離位相差の判明点を検出する。After that, among the phase difference known points, the close distance phase difference known point where the amount of deviation in the height direction becomes large is detected.
【0359】評価値算出部34は、左右探索画像におい
て高さ方向のずれ量が大となる近距離位相差につき位相
差判明点の検出率を求め、当該検出率を用いて、高さ方
向候補条件の評価値を求める。ここでは左右探索画像に
おいて高さ方向のずれ量が大となる近距離位相差につき
各高さ方向候補条件毎に位相差判明点の検出率を求め当
該検出率を高さ方向候補条件の評価値とする。The evaluation value calculation unit 34 obtains the detection rate of the phase difference determination point for the short-distance phase difference in which the displacement amount in the height direction in the left and right search images is large, and uses the detection rate to detect the height direction candidate. Calculate the evaluation value of the condition. Here, the detection rate of the phase difference known point is calculated for each height direction candidate condition for the short-distance phase difference in which the amount of deviation in the height direction in the left and right search images is large, and the detection rate is the evaluation value of the height direction candidate condition. And
【0360】最大値検出部36は、最大の評価値を得た
高さ方向候補条件を高さ方向修正条件として検出する。
ここでは最大値検出部36は検出した高さ方向修正条件
を条件設定部28に格納する。The maximum value detecting unit 36 detects the height direction candidate condition that has obtained the maximum evaluation value as the height direction correction condition.
Here, the maximum value detection unit 36 stores the detected height direction correction condition in the condition setting unit 28.
【0361】図22は請求項9の発明の第二実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち、高さ方向の候補条件及
び修正条件に着目し、高さ方向候補条件を用いて高さ方
向修正条件を検出する場合の動作の流れを示す。FIG. 22 is a diagram showing the operation flow of the second embodiment of the invention of claim 9. In the figure, the flow of the operation in the case of detecting the height direction correction condition using the height direction candidate condition by paying attention to the height direction candidate condition and the correction condition among a plurality of types of candidate conditions and correction conditions Indicates.
【0362】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかから高さ方向の候補条件を選
択して設定し(S1)、然る後、条件設定部28は複数
個の高さ方向候補条件のなかから選択した1個の高さ方
向候補条件(選択高さ方向候補条件)を出力する(S
2)。高さ方向候補条件はy軸方向への平行移動に関わ
る候補条件であって、例えば5個の高さ方向候補条件Δ
y1 〜Δy5 のなかから選択した1個の高さ方向候補条
件Δy1 を出力する。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting section 28 first selects and sets a candidate condition in the height direction from a plurality of kinds of candidate conditions (S1). After that, the condition setting unit 28 outputs one height direction candidate condition (selected height direction candidate condition) selected from the plurality of height direction candidate conditions (S).
2). The height direction candidate conditions are candidate conditions relating to the parallel movement in the y-axis direction, and for example, five height direction candidate conditions Δ
outputs one height direction candidate condition [Delta] y 1 selected from among y 1 ~Δy 5.
【0363】次に画像変換部30は、左右カメラ10、
12により撮影した左右画像の一方を、条件設定部28
から入力した選択高さ方向候補条件に従って画像変換
し、画像変換後の左右画像を第三左右メモリ38、40
に格納する(S3)。左右カメラ10、12により撮影
された左右画像は第一左右メモリ14、16に格納され
ており、画像変換部30は第一左右メモリ14、16の
左右画像を読み出し、読み出した左右画像の一方は画像
変換し他方は画像変換せずに、画像変換後の左右画像を
第三左右メモリ38、40に格納する。Next, the image conversion section 30 includes the left and right cameras 10,
One of the left and right images captured by the condition setting unit 28
The image is converted in accordance with the selected height direction candidate condition input from, and the left and right images after the image conversion are converted into the third left and right memories 38, 40.
(S3). The left and right images captured by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is The left and right images after the image conversion are stored in the third left and right memories 38 and 40 without image conversion for the other.
【0364】次に対応点探索部32は、走査対象となる
画素の色を異ならせて複数種の探索条件を設定すると共
に、画像変換後の左右画像全面を左右探索画像とし、各
探索条件毎に、左右探索画像における対応候補点を検出
する(S4)。ここでは画素の色を異ならせて複数種類
の探索条件を設定するので左右カメラ10、12により
撮影される左右画像をカラー画像とする。Next, the corresponding point searching unit 32 sets a plurality of types of search conditions by making the color of the pixel to be scanned different and sets the entire left and right images after image conversion as the left and right search images. Then, the corresponding candidate points in the left and right search images are detected (S4). Here, since different types of search conditions are set by making the colors of the pixels different, the left and right images photographed by the left and right cameras 10 and 12 are color images.
【0365】例えば第三左右メモリ38、40に格納し
た画像変換後のカラー画像の左右画像のうち、赤色左右
画像を左右探索画像として走査する第一の探索条件と、
青色左右画像を左右探索画像として走査する第二の探索
条件とを設定する。そして対応点探索部32は第一の探
索条件により赤色左右画像を走査して、相対応する水平
走査線L上の1ライン分の赤色左右画像を第三左右メモ
リ38、40から切り出して、対応点探索部32が備え
る左右ラインメモリに格納する。ここで赤色左右画像に
おいて一方の画素を着目点、及び、他方の画素を対照点
とし、相対応する水平走査線L上において所定の主走査
方向例えば右方向に順次に数えて第i番目の着目点に対
し、水平走査線L上の対照点を所定の主走査方向例えば
右方向へ順次に走査して行く。第i番目の着目点に対し
画素特徴例えば画素濃度の差が閾値以下となる対照点を
検出することなく対照点の走査を終了したら、次に第i
+1番目の着目点に対し対照点の走査を行なう。また第
i番目の着目点に対し画素特徴の差が閾値以下となる対
照点を検出したら、当該第i番目の着目点と対照点とを
対応候補点として検出し、然る後、第i+1番目の着目
点に対し対照点の走査を行なう。第三左右メモリ38、
40の左右画像全面について第一の探索条件による対応
候補点の検出を終了したら次に第一の探索条件と同様に
して、第二の探索条件により青色左右画像を走査して、
第二の探索条件による対応候補点の検出を行なう。For example, of the left and right images of the color images after image conversion stored in the third left and right memories 38 and 40, the first search condition for scanning the red left and right images as the left and right search images,
A second search condition for scanning the blue left and right images as the left and right search images is set. Then, the corresponding point search unit 32 scans the red left and right images under the first search condition, cuts out one line of the red left and right images on the corresponding horizontal scanning line L from the third left and right memories 38, 40, and responds. The data is stored in the left and right line memories included in the point search unit 32. Here, in the red left and right images, one pixel is a target point and the other pixel is a reference point, and the i-th target is sequentially counted in a predetermined main scanning direction, for example, the right direction on the corresponding horizontal scanning line L. With respect to the points, the control points on the horizontal scanning line L are sequentially scanned in a predetermined main scanning direction, for example, the right direction. When the scanning of the control point is completed without detecting the control point in which the difference in pixel characteristics, for example, the pixel density, is less than or equal to the threshold value with respect to the i-th point of interest,
The control point is scanned for the + 1st point of interest. When a control point in which the difference in pixel feature is less than or equal to the threshold value with respect to the i-th point of interest is detected, the i-th point of interest and the control point are detected as corresponding candidate points. The control point is scanned for the point of interest. Third left and right memory 38,
When the detection of the corresponding candidate points by the first search condition is completed for the entire left and right images of 40, then the blue left and right images are scanned by the second search condition in the same manner as the first search condition.
Corresponding candidate points are detected by the second search condition.
【0366】全種類の探索条件について、対応候補点の
検出を終了したら、次に対応点探索部32は、各探索条
件毎に得た対応候補点の集合において共通集合となる対
応候補点を対応点として検出する(S5)。After detecting the corresponding candidate points for all types of search conditions, the corresponding point searching unit 32 then finds a corresponding candidate point that is a common set in the set of corresponding candidate points obtained for each search condition. It is detected as a point (S5).
【0367】前述のように相対応する水平走査線L上の
左右探索画像を走査し、画素特徴の差が閾値以下となっ
たら次の着目点を走査して、対応候補点を検出するの
で、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点は、確率的に確からしい対応候補
点の集まりとなる。As described above, the left and right search images on the corresponding horizontal scanning lines L are scanned, and when the difference in pixel feature becomes less than or equal to the threshold value, the next point of interest is scanned to detect the corresponding candidate point. Corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each search condition are a set of corresponding candidate points that are probabilistically probable.
【0368】次に対応点探索部32は、対応点検出結果
を用いて近距離位相差範囲における位相差判明点及び位
相差不明点を検出する(S6)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point in the short distance phase difference range by using the corresponding point detection result (S6).
【0369】ここで検出する位相差判明点及び位相差不
明点は、現在の左右探索画像となっている左右画像全面
に関してのものである。The phase difference known point and the phase difference unknown point detected here are for the entire left and right images which are the current left and right search images.
【0370】またここでは、対応点の位相差に基づいて
対応不明点(対応点として検出されなかった画素)に対
して位相差を推定し当て嵌める。位相差を当て嵌めるこ
とができなかった対応不明点を位相差不明点として検出
する。然る後、対応不明点に当て嵌めた位相差が、正し
いか否かを検定する。そしてこの検定により正しいと判
定された位相差の対応不明点を位相差判明点とし、正し
くないと判定された位相差の対応不明点を位相差不明点
として検出する。Further, here, the phase difference is estimated and applied to the unclear point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, it is verified whether the phase difference applied to the unclear point is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is set as the phase difference determination point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the phase difference unknown point.
【0371】走査対象となる画素の色を異ならせて複数
種類の探索条件を設定しているので、走査対象となる画
素の色毎に、位相差の当て嵌め及び位相差の検定を行な
う。走査対象となる画素の全ての色について位相差が正
しいと判定された画素のみを位相差判明点とし、走査対
象となる画素の色のいずれかの色で位相差が正しくない
と判定された画素は位相差不明点とする。或は、走査対
象となる画素の全ての色で位相差が正しくないと判定さ
れた画素は位相差不明点とする。そして走査対象となる
画素において位相差が正しいと判定された色と位相差が
正しくないと判定された色とが混在する場合は、多数決
の原理により位相差が正しいか否かを判定し、その判定
結果に応じて位相差の判明点か不明点かを決定するよう
にしても良い。Since a plurality of types of search conditions are set by making the color of the pixel to be scanned different, the fitting of the phase difference and the verification of the phase difference are performed for each color of the pixel to be scanned. Pixels for which the phase difference is determined to be correct for all the colors of the pixel to be scanned, and the phase difference is determined to be incorrect for any of the colors of the pixel to be scanned. Is the point of unknown phase difference. Alternatively, a pixel for which the phase difference is determined to be incorrect in all the colors of the pixel to be scanned is set as the phase difference unknown point. Then, in the case where the color that is determined to have the correct phase difference and the color that is determined to have the incorrect phase difference coexist in the pixel to be scanned, it is determined whether or not the phase difference is correct by the principle of majority voting. It may be possible to determine whether the phase difference is known or unknown according to the determination result.
【0372】次に対応点探索部32は、近距離位相差範
囲における位相差判明点の検出個数を評価値算出部34
に対し出力する(S7)。例えば位相差80以上の範囲
を近距離位相差範囲とする。Next, the corresponding point searching unit 32 determines the number of detected phase difference known points in the short distance phase difference range as the evaluation value calculation unit 34.
To (S7). For example, a range having a phase difference of 80 or more is defined as a short range phase difference range.
【0373】次に評価値算出部32は、近距離位相差範
囲における位相差判明点の検出個数を用いて位相差判明
点の検出率を求め、(S2)で条件設定部28が出力し
た選択高さ方向候補条件の評価値として当該近距離位相
差範囲における位相差判明点の検出率を最大値検出部3
6に格納する(S8)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination points by using the number of detected phase difference determination points in the short distance phase difference range, and the selection output by the condition setting unit 28 in (S2). As the evaluation value of the height direction candidate condition, the maximum detection unit 3 detects the detection rate of the phase difference known point in the short distance phase difference range.
6 (S8).
【0374】次に条件設定部28は全ての高さ方向候補
条件を選択し終えたか否かを判定する(S9)。Next, the condition setting section 28 determines whether or not all height direction candidate conditions have been selected (S9).
【0375】全ての高さ方向候補条件を選択し終えてい
なければ、条件設定部28は次の高さ方向候補条件を選
択し(S10)、然る後、選択した高さ方向候補条件を
出力する(S2)。If all the height direction candidate conditions have not been selected, the condition setting unit 28 selects the next height direction candidate condition (S10), and then outputs the selected height direction candidate condition. Yes (S2).
【0376】例えば高さ方向候補条件Δy1 〜Δy5 の
うちΔy1 についてのみ選択し終えており、Δy2 〜Δ
y5 についての選択を終えていなければ、残りの候補条
件Δy2 〜Δy5 のなかから選択した一つの候補条件Δ
y2 を選択し、選択した高さ方向候補条件Δy2 を出力
する。For example, among the height direction candidate conditions Δy 1 to Δy 5 , only Δy 1 has been selected, and Δy 2 to Δy.
If the selection for y 5 has not been completed, one candidate condition Δ selected from the remaining candidate conditions Δy 2 to Δy 5.
y 2 is selected, and the selected height direction candidate condition Δy 2 is output.
【0377】また全ての高さ方向候補条件を選択し終え
ていなければ、最大値検出部36は各高さ方向候補条件
毎に得た評価値のなかから最大の評価値を検出し、最大
の評価値を得た高さ方向候補条件を高さ方向修正条件と
して検出する。そして最大値検出部28は当該高さ方向
修正条件を条件設定部28に格納する(S11)。然る
後、修正条件検出装置18は、高さ方向修正条件を検出
するための処理を終了する(終了)。If all the height direction candidate conditions have not been selected, the maximum value detecting unit 36 detects the maximum evaluation value from the evaluation values obtained for each height direction candidate condition and determines the maximum value. The height direction candidate condition for which the evaluation value is obtained is detected as the height direction correction condition. Then, the maximum value detection unit 28 stores the height direction correction condition in the condition setting unit 28 (S11). After that, the correction condition detection device 18 ends the process for detecting the height direction correction condition (end).
【0378】この実施形態によれば、近距離位相差範囲
における位相差判明点の検出率を評価値として、最大の
評価値を得た高さ方向候補条件を高さ方向修正条件とす
る。近距離位相差範囲では高さ方向のずれ量が大きくな
るので、近距離位相差範囲における位相差判明点の検出
率を評価値として高さ方向修正条件を検出することによ
り、エピポーラライン合わせにより適した高さ方向修正
条件を検出できる。According to this embodiment, the detection rate of the phase difference determination point in the short distance phase difference range is used as the evaluation value, and the height direction candidate condition that obtains the maximum evaluation value is used as the height direction correction condition. Since the amount of deviation in the height direction is large in the short distance phase difference range, it is more suitable for epipolar line matching by detecting the height direction correction condition with the detection rate of the phase difference known point in the short distance phase difference range as the evaluation value. The height correction condition can be detected.
【0379】<請求項9の発明の第二実施形態>図23
は請求項9の発明の第二実施形態の説明に供する機能ブ
ロック図である。以下、主として請求項9の発明の第一
実施形態と相違する点につき説明し、請求項9の発明の
第一実施形態と同様の点については、その詳細な説明を
省略する。<Second Embodiment of Invention of Claim 9> FIG.
FIG. 10 is a functional block diagram provided for explaining a second embodiment of the invention of claim 9; Hereinafter, differences from the first embodiment of the invention of claim 9 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 9 will be omitted.
【0380】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、位相差範囲入力部74
と、さらに領域切出し部46とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the phase difference range input unit 74.
And a region cutout unit 46.
【0381】領域切出し部46は画像変換後の左右画像
上に垂直方向に分散させた複数個の着目領域から、左右
着目領域画像を順次に切り出し、対応点探索部32は左
右着目領域画像を左右探索画像として、候補条件が同じ
各左右探索画像毎に、対応候補点、対応点、位相差の判
明点及び不明点を検出する。The area cutout unit 46 sequentially cuts out the left and right attention area images from a plurality of attention areas vertically dispersed on the left and right images after the image conversion, and the corresponding point searching unit 32 outputs the left and right attention area images to the left and right. Corresponding candidate points, corresponding points, known phase differences, and unknown points are detected for each of the left and right search images having the same candidate condition as the search image.
【0382】評価値算出部34は、左右探索画像におい
て高さ方向のずれ量が大となる近距離位相差につき高さ
方向候補条件が同じ各左右探索画像毎に位相差判明点の
検出率を求め高さ方向候補条件が同じ左右探索画像につ
いて求めた検出率の平均値を当該高さ方向候補条件の評
価値とする。The evaluation value calculation unit 34 determines the detection rate of the phase difference determination point for each of the left and right search images having the same height direction candidate condition for the short-distance phase difference in which the shift amount in the height direction in the left and right search images is large. The average value of the detection rates obtained for the left and right search images having the same height direction candidate condition is set as the evaluation value of the height direction candidate condition.
【0383】図24は請求項9の発明の第二実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち高さ方向の候補条件及び
修正条件に着目し、高さ方向候補条件を用いて高さ方向
修正条件を検出する場合の動作の流れを示す。FIG. 24 is a diagram showing the operational flow of the second embodiment of the invention of claim 9. In the same figure, focusing on candidate conditions and correction conditions in the height direction among a plurality of types of candidate conditions and correction conditions, the flow of operation when detecting the height direction correction conditions using the height direction candidate conditions is shown. Show.
【0384】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかから高さ方向候補条件を選択
して設定し(S1)、然る後、条件設定部28は複数個
の高さ方向候補条件のなかから選択した1個の候補条件
(選択高さ方向候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting unit 28 first selects and sets a height direction candidate condition from a plurality of types of candidate conditions (S1), Then, the condition setting unit 28 outputs one candidate condition (selected height direction candidate condition) selected from the plurality of height direction candidate conditions (S2).
【0385】次に画像変換部30は、条件設定部28か
ら入力した選択高さ方向候補条件に従って左画像及び右
画像の一方を画像変換し、画像変換後の左画像及び右画
像を第三左メモリ38及び第三右メモリ40に格納する
(S3)。左右カメラ10、12により撮影した左右画
像は第一左右メモリ14、16に格納されており、画像
変換部30は第一左右メモリ14、16の左右画像を読
み出し、読み出した左右画像の一方は画像変換せず他方
は画像変換して、画像変換後の左右画像を第三左右メモ
リ38、40に格納する。Next, the image conversion unit 30 performs image conversion of one of the left image and the right image according to the selected height direction candidate condition input from the condition setting unit 28, and the image-converted left image and right image are converted to the third left image. The data is stored in the memory 38 and the third right memory 40 (S3). The left and right images taken by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is an image. The other image is converted without being converted, and the left and right images after the image conversion are stored in the third left and right memories 38 and 40.
【0386】次に領域切出し部46は、画像変換後の左
右画像上に垂直方向(y方向)に分散させた複数個の着
目領域から、左右着目領域画像を切り出す(S4)。Next, the area cutout unit 46 cuts out the left and right attention area images from the plurality of attention areas dispersed in the vertical direction (y direction) on the left and right images after the image conversion (S4).
【0387】例えば、図12にも示すように、左右着目
領域画像の垂直方向における幅を水平走査線1本分の幅
もしくは複数本分の幅ここでは1本分の幅とし、領域切
出し部46は、第三左右メモリ38、40に格納した画
像変換後の左右画像から、相対応する水平走査線L上の
左右着目領域画像を切り出し、切り出した水平走査線L
上の左右着目領域画像を対応点探索部32の左右ライン
メモリに格納する。For example, as also shown in FIG. 12, the width in the vertical direction of the left and right target area images is set to the width of one horizontal scanning line or the width of a plurality of horizontal scanning lines, here the width of one line, and the area cut-out portion 46 Is a horizontal scanning line L that is obtained by cutting out the left and right target area images on the corresponding horizontal scanning lines L from the left and right images after image conversion stored in the third left and right memories 38 and 40.
The upper left and right attention area images are stored in the left and right line memories of the corresponding point searching unit 32.
【0388】次に対応点探索部32は、走査対象となる
画素の色を異ならせて複数種の探索条件を設定すると共
に、左右着目領域画像を左右探索画像とし、各探索条件
毎に、左右探索画像における対応候補点を検出する(S
5)。Next, the corresponding point search unit 32 sets a plurality of types of search conditions by making the color of the pixel to be scanned different and sets the left and right target area images as the left and right search images, and sets the left and right for each search condition. Corresponding candidate points in the search image are detected (S
5).
【0389】全種類の探索条件について、左右探索画像
全面にわたり水平走査線L上の対応候補点の検出を終了
したら、次に対応点探索部32は、各探索条件毎に得た
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する(S6)。After detecting the corresponding candidate points on the horizontal scanning line L over the entire left and right search images for all types of search conditions, the corresponding point searching unit 32 next finds the corresponding candidate points obtained for each search condition. Corresponding candidate points that are a common set in the set are detected as corresponding points (S6).
【0390】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出する(S
7)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point using the corresponding point detection result (S).
7).
【0391】ここで検出する位相差判明点及び位相差不
明点は、現在の左右探索画像を読み出した1個の着目領
域48、52に関するものである。ここでも対応不明点
に対する位相差の当て嵌めと当て嵌めた位相差の検定と
を行なう。The phase difference known point and the phase difference unknown point detected here relate to the one region of interest 48, 52 from which the current left and right search images are read. Also here, the fitting of the phase difference to the unclear point and the verification of the fitted phase difference are performed.
【0392】次に対応点探索部32は、近距離位相差範
囲において位相差判明点を検出し、近距離位相差範囲に
おける位相差判明点の検出個数を評価値算出部34に対
し出力する(S8)。Next, the corresponding point searching unit 32 detects phase difference known points in the short distance phase difference range and outputs the detected number of phase difference known points in the short distance phase difference range to the evaluation value calculation unit 34 ( S8).
【0393】次に評価値算出部32は、近距離位相差範
囲における位相差判明点の検出個数を用いて位相差判明
点の検出率を求め、当該位相差判明点の検出率を最大値
検出部36に格納する(S9)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination point using the number of detected phase difference determination points in the short distance phase difference range, and detects the maximum value of the detection rate of the phase difference determination point. The data is stored in the unit 36 (S9).
【0394】次に領域切出し部46は、第三左右メモリ
38、40に現在格納されている画像変換後の左右画像
に関して、全ての着目領域から左右着目領域画像を切り
出し終えたか(読み出し終えたか)否かを判定する(S
10)。Next, the area cut-out unit 46 has finished cutting out (reading out) the left and right attention area images from all the attention areas with respect to the left and right images after image conversion currently stored in the third left and right memories 38 and 40. Determine whether or not (S
10).
【0395】現在の画像変換後の左右画像に関して全て
の着目領域の切出しを終了していなければ、領域切出し
部46は左右着目領域画像の切出し未終了の1組の着目
領域を選択し(S11)、然る後、選択した着目領域か
ら次の左右着目領域画像を切り出す(S4)。If the extraction of all the attention areas has not been completed for the current left and right images after image conversion, the area extraction unit 46 selects a set of attention areas for which the left and right attention area images have not been cut out (S11). After that, the next right and left attention area images are cut out from the selected attention area (S4).
【0396】例えば図12の例においてy=3の着目領
域48、52からの切出しを終了し、y=6、9の着目
領域48、52からの切出しを終了していなければ、切
出し未終了の1組の着目領域48、52としてy=6の
着目領域48、52を選択する。For example, in the example of FIG. 12, if the cutting out from the target areas 48 and 52 of y = 3 is finished and the cutting out from the target areas 48 and 52 of y = 6 and 9 is not finished, the cutout is not completed. As the set of attention areas 48 and 52, the attention areas 48 and 52 with y = 6 are selected.
【0397】現在の画像変換後の左右画像42、44に
関して全ての着目領域の切出しを終了したならば、評価
値算出部34は現在の画像変換後の左右画像を得た高さ
方向候補条件に関して、各着目領域毎に得た検出率の平
均値を求め、この平均値を当該高さ方向候補条件の評価
値として最大値検出部36に格納する(S12)。After cutting out all the target areas for the left and right images 42, 44 after the current image conversion, the evaluation value calculation unit 34 determines the height direction candidate condition for obtaining the left and right images after the current image conversion. The average value of the detection rates obtained for each of the regions of interest is calculated, and this average value is stored in the maximum value detection unit 36 as the evaluation value of the height direction candidate condition (S12).
【0398】例えば現在の画像変換後の左右画像42、
44が候補条件Δy1 に従って得たものである場合、図
12の例においてy=3、6、9の各着目領域48、5
2毎に得た検出率の平均値を当該候補条件Δy1 の評価
値として得ることとなる。For example, the left and right images 42 after the current image conversion,
When 44 is obtained according to the candidate condition Δy 1 , in the example of FIG. 12, the target regions 48, 5 of y = 3, 6, 9 are obtained.
The average value of the detection rates obtained for each 2 is obtained as the evaluation value of the candidate condition Δy 1 .
【0399】次に条件設定部28は全ての高さ方向候補
条件を選択し終えたか否かを判定する(S13)。Next, the condition setting unit 28 determines whether or not all height direction candidate conditions have been selected (S13).
【0400】全ての高さ方向候補条件を選択し終えてい
なければ、条件設定部28は次の高さ方向候補条件を選
択し(S14)、然る後、選択した高さ方向候補条件を
出力する(S2)。If all the height direction candidate conditions have not been selected, the condition setting unit 28 selects the next height direction candidate condition (S14), and then outputs the selected height direction candidate condition. Yes (S2).
【0401】例えば高さ方向候補条件Δy1 〜Δy5 の
うちΔy1 についてのみ選択し終えており、Δy2 〜Δ
y5 についての選択を終えていなければ、残りの候補条
件Δy2 〜Δy5 のなかから選択した一つの候補条件Δ
y2 を選択し、選択した候補条件Δy2 を出力する。For example, among the height direction candidate conditions Δy 1 to Δy 5 , only Δy 1 has been selected, and Δy 2 to Δy
If the selection for y 5 has not been completed, one candidate condition Δ selected from the remaining candidate conditions Δy 2 to Δy 5.
Select y 2 and output the selected candidate condition Δy 2 .
【0402】また全ての高さ方向候補条件を選択し終え
たならば、最大値検出部36は各高さ方向候補条件毎に
得た評価値のなかから最大の評価値を検出し、最大の評
価値を得た高さ方向候補条件を高さ方向修正条件として
検出する。そして最大値検出部28は当該高さ方向修正
条件を条件設定部28に格納する(S15)。然る後、
修正条件検出装置18は、高さ方向修正条件を検出する
ための処理を終了する(終了)。When all height direction candidate conditions have been selected, the maximum value detection unit 36 detects the maximum evaluation value from the evaluation values obtained for each height direction candidate condition, The height direction candidate condition for which the evaluation value is obtained is detected as the height direction correction condition. Then, the maximum value detection unit 28 stores the height direction correction condition in the condition setting unit 28 (S15). After that,
The correction condition detection device 18 ends the processing for detecting the height direction correction condition (end).
【0403】この実施形態においては、左右探索画像を
画像変換後の左右画像の一部である着目領域画像として
おり、従って高さ方向修正条件を検出するのに必要な画
像の走査量を減少させることができるので、高さ方向修
正条件の検出時間を短縮できる。In this embodiment, the left and right search images are the region of interest image which is a part of the left and right images after the image conversion, so that the scanning amount of the image necessary for detecting the height direction correction condition is reduced. Therefore, it is possible to shorten the detection time of the height direction correction condition.
【0404】<請求項9の発明の第三実施形態>次に図
23を参照し、請求項9の発明の第三実施形態につき説
明する。以下、主として請求項9の発明の第二実施形態
と相違する点につき説明し、請求項9の発明の第二実施
形態と同様の点については、その詳細な説明を省略す
る。<Third Embodiment of the Invention of Claim 9> Next, with reference to FIG. 23, a third embodiment of the invention of claim 9 will be described. Hereinafter, differences from the second embodiment of the invention of claim 9 will be mainly described, and detailed description of the same points as the second embodiment of the invention of claim 9 will be omitted.
【0405】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、さらに領域切出し部4
6とを備える。The correction condition detection device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the area cutout unit 4
6 is provided.
【0406】評価値算出部34は、左右探索画像におい
て高さ方向のずれ量が大となる近距離位相差につき高さ
方向候補条件が同じ各左右探索画像毎に位相差判明点の
検出率を求め高さ方向候補条件が同じ左右探索画像につ
いて求めた検出率のうち上位から順次に所定個数の検出
率を選択し当該選択により得た検出率の平均値を高さ方
向候補条件の評価値とする。The evaluation value calculation unit 34 determines the detection rate of the phase difference determination point for each of the left and right search images having the same height direction candidate condition for the short-distance phase difference in which the shift amount in the height direction in the left and right search images is large. Among the detection rates obtained for the left and right search images having the same height direction candidate condition, a predetermined number of detection rates are sequentially selected from the top, and the average value of the detection rates obtained by the selection is used as the evaluation value of the height direction candidate condition. To do.
【0407】図25は請求項9の発明の第二実施形態の
動作の流れを示す図である。同図においては、複数種類
の候補条件及び修正条件のうち高さ方向の候補条件及び
修正条件に着目し、高さ方向候補条件を用いて高さ方向
修正条件を検出する場合の動作の流れを示す。FIG. 25 is a diagram showing the operational flow of the second embodiment of the invention of claim 9. In the same figure, focusing on candidate conditions and correction conditions in the height direction among a plurality of types of candidate conditions and correction conditions, the flow of operation when detecting the height direction correction conditions using the height direction candidate conditions is shown. Show.
【0408】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかから高さ方向候補条件を選択
して設定し(S1)、然る後、条件設定部28は複数個
の高さ方向候補条件のなかから選択した1個の候補条件
(選択高さ方向候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting unit 28 first selects and sets a height direction candidate condition from a plurality of types of candidate conditions (S1), Then, the condition setting unit 28 outputs one candidate condition (selected height direction candidate condition) selected from the plurality of height direction candidate conditions (S2).
【0409】次に画像変換部30は、条件設定部28か
ら入力した選択高さ方向候補条件に従って左画像及び右
画像の一方を画像変換し、画像変換後の左画像及び右画
像を第三左メモリ38及び第三右メモリ40に格納する
(S3)。左右カメラ10、12により撮影した左右画
像は第一左右メモリ14、16に格納されており、画像
変換部30は第一左右メモリ14、16の左右画像を読
み出し、読み出した左右画像の一方は画像変換せず他方
は画像変換して、画像変換後の左右画像を第三左右メモ
リ38、40に格納する。Next, the image conversion unit 30 performs image conversion on one of the left image and the right image in accordance with the selected height direction candidate condition input from the condition setting unit 28, and the image-converted left image and right image are converted to the third left image. The data is stored in the memory 38 and the third right memory 40 (S3). The left and right images taken by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is an image. The other image is converted without being converted, and the left and right images after the image conversion are stored in the third left and right memories 38 and 40.
【0410】次に領域切出し部46は、画像変換後の左
右画像上に垂直方向(y方向)に分散させた複数個の着
目領域から、左右着目領域画像を切り出す(S4)。Next, the area cutout unit 46 cuts out the left and right attention area images from a plurality of attention areas dispersed in the vertical direction (y direction) on the left and right images after the image conversion (S4).
【0411】次に対応点探索部32は、走査対象となる
画素の色を異ならせて複数種の探索条件を設定すると共
に、左右着目領域画像を左右探索画像とし、各探索条件
毎に、左右探索画像における対応候補点を検出する(S
5)。Next, the corresponding point search unit 32 sets a plurality of types of search conditions by making the color of the pixel to be scanned different and sets the left and right target area images as left and right search images, and sets the left and right for each search condition. Corresponding candidate points in the search image are detected (S
5).
【0412】全種類の探索条件について、左右探索画像
全面にわたり水平走査線L上の対応候補点の検出を終了
したら、次に対応点探索部32は、各探索条件毎に得た
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する(S6)。When the detection of the corresponding candidate points on the horizontal scanning line L is completed over the entire left and right search images for all types of search conditions, the corresponding point searching unit 32 next finds the corresponding candidate points obtained for each search condition. Corresponding candidate points that are a common set in the set are detected as corresponding points (S6).
【0413】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出する(S
7)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point using the corresponding point detection result (S).
7).
【0414】次に対応点探索部32は、近距離位相差範
囲において位相差判明点を検出し、近距離位相差範囲に
おける位相差判明点の検出個数を評価値算出部34に対
し出力する(S8)。Next, the corresponding point searching unit 32 detects a phase difference known point in the short distance phase difference range and outputs the detected number of phase difference known points in the short distance phase difference range to the evaluation value calculation unit 34 ( S8).
【0415】次に評価値算出部32は、近距離位相差範
囲における位相差判明点の検出個数を用いて位相差判明
点の検出率を求め、当該位相差判明点の検出率を最大値
検出部36に格納する(S9)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination point using the number of detected phase difference determination points in the short distance phase difference range, and detects the maximum value of the detection rate of the phase difference determination point. The data is stored in the unit 36 (S9).
【0416】次に領域切出し部46は、第三左右メモリ
38、40に現在格納されている画像変換後の左右画像
に関して、全ての着目領域から左右着目領域画像を切り
出し終えたか(読み出し終えたか)否かを判定する(S
10)。Next, the area cut-out unit 46 has finished cutting out the left and right attention area images from all the attention areas (whether the reading has been completed) with respect to the left and right images after image conversion currently stored in the third left and right memories 38 and 40. Determine whether or not (S
10).
【0417】現在の画像変換後の左右画像に関して全て
の着目領域の切出しを終了していなければ、領域切出し
部46は左右着目領域画像の切出し未終了の1組の着目
領域を選択し(S11)、然る後、選択した着目領域か
ら次の左右着目領域画像を切り出す(S4)。If the extraction of all the attention areas has not been completed for the current left and right images after image conversion, the area extraction unit 46 selects a set of attention areas for which the left and right attention area images have not been cut out (S11). After that, the next right and left attention area images are cut out from the selected attention area (S4).
【0418】現在の画像変換後の左右画像に関して全て
の着目領域の切出しを終了したならば、評価値算出部3
4は現在の画像変換後の左右画像を得た高さ方向候補条
件に関し、各着目領域毎に得た検出率のうち上位の検出
率を選択する(S12)。When the extraction of all the target areas has been completed for the left and right images after the current image conversion, the evaluation value calculation unit 3
Reference numeral 4 relates to the height direction candidate condition for obtaining the right and left images after the current image conversion, and selects a higher detection rate among the detection rates obtained for each attention area (S12).
【0419】次に評価値算出部34は、選択した上位の
検出率の平均値を求め、この平均値を現在の画像変換後
の左右画像を得た高さ方向候補条件に関する評価値とし
て、最大値検出部36に格納する(S13)。Next, the evaluation value calculation unit 34 obtains the average value of the selected upper detection rates, and uses this average value as the maximum evaluation value for the height direction candidate condition for obtaining the left and right images after the current image conversion. It stores in the value detection part 36 (S13).
【0420】ここで図12で説明したように現在の画像
変換後の左右画像42、44上に設定する着目領域4
8、52の総個数は同じであるので、その総個数をR個
とすれば、総個数R個の着目領域48、52から総個数
R個の検出率を得ることとなる。そして総個数R個の検
出率のなかから上位r1個(r1はR>r1>1なる自
然数)の検出率を選択し、選択した上位r1個の検出率
の平均値を評価値とする。(R−r1)>0なる下位
(R−r1)個の検出率は評価値の算出に用いない。Here, as described with reference to FIG. 12, the attention area 4 set on the left and right images 42 and 44 after the current image conversion.
Since the total number of 8 and 52 is the same, assuming that the total number is R, the detection rate of the total number R is obtained from the R regions of interest 48 and 52. Then, the detection rate of the top r1 (r1 is a natural number of R>r1> 1) is selected from the detection rates of the total number R, and the average value of the detection rates of the selected top r1 is set as the evaluation value. The lower (R-r1) detection rates of (R-r1)> 0 are not used for calculating the evaluation value.
【0421】例えば総個数R=30個の着目領域48、
52を設定し、これら着目領域から総個数R=30個の
検出率を得たものとすれば、上位r1=10〜20個の
検出率を用いて評価値を得、下位(R−r1)=20〜
10個の検出率は評価値の算出に用いない。For example, the total number R = 30 target regions 48,
If 52 is set and the detection rate of the total number R = 30 is obtained from these regions of interest, the evaluation value is obtained using the detection rates of the upper r1 = 10 to 20, and the lower (R-r1) = 20 ~
The 10 detection rates are not used for calculating the evaluation value.
【0422】次に条件設定部28は全ての高さ方向候補
条件を選択し終えたか否かを判定する(S14)。Next, the condition setting unit 28 determines whether or not all height direction candidate conditions have been selected (S14).
【0423】全ての高さ方向候補条件を選択し終えてい
なければ、条件設定部28は次の高さ方向候補条件を選
択し(S15)、然る後、選択した高さ方向候補条件を
出力する(S2)。If all the height direction candidate conditions have not been selected, the condition setting unit 28 selects the next height direction candidate condition (S15), and thereafter outputs the selected height direction candidate condition. Yes (S2).
【0424】また全ての高さ方向候補条件を選択し終え
たならば、最大値検出部36は各高さ方向候補条件毎に
得た評価値のなかから最大の評価値を検出し、最大の評
価値を得た高さ方向候補条件を高さ方向修正条件として
検出する。そして最大値検出部28は当該高さ方向修正
条件を条件設定部28に格納する(S16)。然る後、
修正条件検出装置18は、高さ方向修正条件を検出する
ための処理を終了する(終了)。When all the height direction candidate conditions have been selected, the maximum value detecting unit 36 detects the maximum evaluation value from the evaluation values obtained for each height direction candidate condition and determines the maximum value. The height direction candidate condition for which the evaluation value is obtained is detected as the height direction correction condition. Then, the maximum value detection unit 28 stores the height direction correction condition in the condition setting unit 28 (S16). After that,
The correction condition detection device 18 ends the processing for detecting the height direction correction condition (end).
【0425】この実施形態においても、請求項9の第二
実施形態と同様に、左右探索画像を画像変換後の左右画
像の一部である着目領域画像としており、従って高さ方
向修正条件を検出するのに必要な画像の走査量を減少さ
せることができるので、高さ方向修正条件の検出時間を
短縮できる。Also in this embodiment, as in the second embodiment of the ninth aspect, the left and right search images are set as the attention area images which are part of the left and right images after the image conversion, and therefore the height direction correction condition is detected. Since it is possible to reduce the scanning amount of the image required for the adjustment, it is possible to shorten the detection time of the height direction correction condition.
【0426】さらにこの実施形態によれば、高さ方向候
補条件の評価値を求める場合に、上位複数個の検出率の
平均値を用いて評価値を求め、下位の検出率を評価値の
算出に用いないので、高さ方向修正条件の検出精度を向
上できる。Further, according to this embodiment, when the evaluation value of the height direction candidate condition is obtained, the evaluation value is obtained by using the average value of the plurality of detection rates of the upper rank, and the lower detection rate is calculated. Therefore, it is possible to improve the detection accuracy of the correction condition in the height direction.
【0427】<請求項13の発明の第一実施形態>次に
図21を参照して請求項13の発明の第一実施形態につ
き説明する。以下、請求項1の発明の第一実施形態と相
違する点につき説明し、請求項1の発明の第一実施形態
と同様の点についてはその詳細な説明を省略する。<First Embodiment of Invention of Claim 13> Next, a first embodiment of the invention of claim 13 will be described with reference to FIG. Hereinafter, differences from the first embodiment of the invention of claim 1 will be described, and detailed description of the same points as the first embodiment of the invention of claim 1 will be omitted.
【0428】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、さらに位相差範囲入力
部74とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the phase difference range input unit 74 are further provided.
【0429】条件設定部28はチルト角修正条件を検出
するための候補条件を順次に設定し、画像変換部30は
左カメラ10及び右カメラ12により得た左画像及び右
画像の一方を、候補条件に従って画像変換する。チルト
角は、x軸方向を水平方向、y軸方向を垂直方向(高さ
方向)、z軸方向を奥行き方向としたとき、z軸回りの
画像回転角度である。The condition setting unit 28 sequentially sets candidate conditions for detecting the tilt angle correction condition, and the image conversion unit 30 selects one of the left image and the right image obtained by the left camera 10 and the right camera 12 as a candidate. Image conversion according to the conditions. The tilt angle is an image rotation angle around the z-axis when the x-axis direction is the horizontal direction, the y-axis direction is the vertical direction (height direction), and the z-axis direction is the depth direction.
【0430】ここではチルト角修正条件を含みそれ以外
の種類の修正条件をも検出するものであって、条件設定
部28は修正条件を検出するための複数種類の候補条件
と、エピポーララインを合わせるための複数種類の修正
条件とを記憶する。記憶する修正条件は、最大値検出部
36により検出された修正条件である。これら複数種類
の候補条件及び修正条件のうち1種類は、チルト角の候
補条件及び修正条件である。Here, the condition setting unit 28 detects the correction conditions of other types including the tilt angle correction condition, and the condition setting unit 28 matches a plurality of types of candidate conditions for detecting the correction conditions with the epipolar line. A plurality of types of correction conditions for storing are stored. The correction condition to be stored is the correction condition detected by the maximum value detection unit 36. One of these plural types of candidate conditions and correction conditions is a tilt angle candidate condition and correction condition.
【0431】条件設定部28は、画像の平行移動、回転
及び倍率変換に関わる候補条件を記憶する。従って最大
値検出部36が検出する修正条件は画像の平行移動、回
転及び倍率変換に関わる修正条件となり、画像変換部3
0が候補条件及び修正条件に従って行なう画像変換は画
像の平行移動、回転及び倍率変換となる。これら平行移
動、回転及び倍率変換としては、既知の手法を用いるこ
とができる。The condition setting unit 28 stores candidate conditions relating to parallel movement, rotation and magnification conversion of an image. Therefore, the correction condition detected by the maximum value detection unit 36 is the correction condition relating to the parallel movement, rotation, and magnification conversion of the image, and the image conversion unit 3
Image conversion performed by 0 according to the candidate condition and the correction condition is image parallel movement, rotation, and magnification conversion. Known methods can be used for these parallel movement, rotation, and magnification conversion.
【0432】対応点探索部32は、走査方向、走査対象
となる画素の階調表現、若しくは、走査対象となる画素
の色を異ならせて複数種の探索条件を設定し、画像変換
後の左右画像を左右探索画像とする。ここでは左右カメ
ラ10、12によりカラー画像の左右画像を得、走査対
象となる画素の色を異ならせて複数種の探索条件を設定
する。また画像変換後の左右画像を全面にわたって左右
探索画像とする。The corresponding point searching unit 32 sets a plurality of types of search conditions by making the scanning direction, the gradation expression of the pixel to be scanned, or the color of the pixel to be scanned different, and sets the right and left after image conversion. Let the images be left and right search images. Here, the left and right images of the color image are obtained by the left and right cameras 10 and 12, and the color of the pixel to be scanned is made different to set a plurality of types of search conditions. Further, the left and right images after the image conversion are used as the left and right search images over the entire surface.
【0433】そして対応点探索部32は、探索条件に従
って左右探索画像を走査し、相対応する水平走査線上に
おいて左探索画像の画素特徴と右探索画像の画素特徴と
を比較して画素特徴の差が閾値以下となる左右探索画像
の画素を対応候補点として検出する。さらに対応点探索
部32は各探索条件毎に検出した対応候補点の集合にお
いて共通集合となる対応候補点を対応点として検出す
る。ここでは画素特徴を画素濃度とする。Then, the corresponding point searching unit 32 scans the left and right search images according to the search condition, compares the pixel features of the left search image and the pixel features of the right search image on the corresponding horizontal scanning lines, and compares the pixel feature differences. The pixels of the left and right search images in which is less than or equal to the threshold are detected as corresponding candidate points. Further, the corresponding point searching unit 32 detects, as corresponding points, corresponding candidate points forming a common set in the set of corresponding candidate points detected for each search condition. Here, the pixel feature is the pixel density.
【0434】例えば、画像変換後の左右画像としてカラ
ー画像を第三左メモリ38及び第三右メモリ40に格納
し、これら画像変換後の左右画像のうち赤色画像を左右
探索画像とする第一の探索条件と、画像変換後の左右画
像のうち青色画像を左右探索画像とする第二の探索条件
とを設定する。そして第一の探索条件により赤色画像の
左右探索画像を走査して、相対応する水平走査線上にお
いて画素特徴の差が閾値以下となる左右探索画像の画素
を、第一の探索条件による対応候補点として検出する。
さらに第二の探索条件により青色画像の左右探索画像を
走査して、相対応する水平走査線上において画素特徴の
差が閾値以下となる左右探索画像の画素を、第二の探索
条件による対応候補点として検出する。然る後、第一の
探索条件で検出した対応候補点の集合と第二の探索条件
で検出した対応候補点の集合とにおいて共通集合となる
対応候補点を対応点として検出する。For example, a color image is stored in the third left memory 38 and the third right memory 40 as the left and right images after the image conversion, and the red image of the left and right images after the image conversion is the first left and right search image. The search condition and the second search condition in which the blue image of the left and right images after the image conversion is used as the left and right search images are set. Then, the left and right search images of the red image are scanned under the first search condition, and the pixels of the left and right search image where the pixel feature difference on the corresponding horizontal scanning lines is less than or equal to the threshold value To detect as.
Furthermore, the left and right search images of the blue image are scanned under the second search condition, and the pixels of the left and right search images for which the difference in pixel feature on the corresponding horizontal scanning lines is less than or equal to the threshold are identified as the corresponding candidate points according to the second search condition. To detect as. Then, the corresponding candidate points that are a common set in the set of corresponding candidate points detected under the first search condition and the set of corresponding candidate points detected under the second search condition are detected as corresponding points.
【0435】次に対応点探索部32は、対応点検出結果
を用いて左右探索画像においてチルト角のずれ量が大と
なる遠距離位相差の判明点及び不明点を検出する。オペ
レータは、高さ方向のずれ量が大となる遠距離位相差の
範囲を、位相差範囲入力部74を介して対応点探索部3
2に入力する。例えば位相差が80未満となる範囲を、
チルト角のずれ量が大となる遠距離位相差の範囲として
入力する。Next, the corresponding point searching unit 32 detects the identified point and the unknown point of the long-distance phase difference in which the shift amount of the tilt angle is large in the left and right search images by using the corresponding point detection result. The operator uses the phase difference range input unit 74 to set the range of the long-distance phase difference in which the amount of deviation in the height direction is large, through the corresponding point search unit 3
Enter 2 For example, if the phase difference is less than 80,
Input as the range of the long-distance phase difference in which the amount of tilt angle deviation is large.
【0436】ここでは、対応点の位相差に基づいて対応
不明点(対応点として検出されなかった画素)に対して
位相差を推定し当て嵌める。位相差を当て嵌めることが
できなかった対応不明点を位相差不明点として検出す
る。然る後、対応不明点に当て嵌めた位相差に関して、
位相差が正しいか否かを検定する。そしてこの検定によ
り正しいと判定された位相差の対応不明点を位相差判明
点として、正しくないと判定された位相差の対応不明点
を位相差不明点として検出する。Here, the phase difference is estimated and applied to the unidentified point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, regarding the phase difference applied to the correspondence unknown point,
Test whether the phase difference is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is detected as the unknown phase difference point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the unknown phase difference point.
【0437】走査対象となる画素の色を異ならせて複数
種類の探索条件を設定しているので、走査対象となる画
素の色毎に、位相差の当て嵌め及び位相差の検定を行な
う。走査対象となる画素の全ての色について位相差が正
しいと判定された画素のみを位相差判明点とし、走査対
象となる画素の色のいずれかの色で位相差が正しくない
と判定された画素は位相差不明点とする。或は、走査対
象となる画素の全ての色で位相差が正しくないと判定さ
れた画素は、位相差不明点とする。そして走査対象とな
る画素において位相差が正しいと判定された色と位相差
が正しくないと判定された色とが混在する場合は、多数
決の原理により位相差が正しいか否かを判定し、その判
定結果に応じて位相差の判明点か不明点かを決定しても
良い。Since a plurality of types of search conditions are set by making the color of the pixel to be scanned different, the fitting of the phase difference and the verification of the phase difference are performed for each color of the pixel to be scanned. Pixels for which the phase difference is determined to be correct for all the colors of the pixel to be scanned, and the phase difference is determined to be incorrect for any of the colors of the pixel to be scanned. Is the point of unknown phase difference. Alternatively, a pixel for which the phase difference is determined to be incorrect in all the colors of the pixel to be scanned is set as the phase difference unknown point. Then, in the case where the color that is determined to have the correct phase difference and the color that is determined to have the incorrect phase difference coexist in the pixel to be scanned, it is determined whether or not the phase difference is correct by the principle of majority voting. It may be determined whether the phase difference is known or unknown depending on the determination result.
【0438】然る後、位相差判明点のうち、チルト角の
ずれ量が大となる遠距離位相差の判明点を検出する。Then, of the phase difference known points, the long distance phase difference known point where the deviation amount of the tilt angle is large is detected.
【0439】評価値算出部34は、左右探索画像におい
てチルト角のずれ量が大となる遠距離位相差につき位相
差判明点の検出率を求め、当該検出率を用いて、チルト
角候補条件の評価値を求める。ここでは左右探索画像に
おいてチルト角のずれ量が大となる遠距離位相差につき
各チルト角候補条件毎に位相差判明点の検出率を求め当
該検出率をチルト角候補条件の評価値とする。The evaluation value calculation unit 34 obtains the detection rate of the phase difference determination point for the long-distance phase difference in which the shift amount of the tilt angle is large in the left and right search images, and uses the detection rate to determine the tilt angle candidate condition. Obtain an evaluation value. Here, the detection rate of the phase difference determination point is calculated for each tilt angle candidate condition for the long-distance phase difference in which the shift amount of the tilt angle is large in the left and right search images, and the detection rate is set as the evaluation value of the tilt angle candidate condition.
【0440】最大値検出部36は、最大の評価値を得た
チルト角候補条件をチルト角修正条件として検出する。
ここでは最大値検出部36は検出したチルト角修正条件
を条件設定部28に格納する。The maximum value detecting unit 36 detects the tilt angle candidate condition that has obtained the maximum evaluation value as the tilt angle correction condition.
Here, the maximum value detection unit 36 stores the detected tilt angle correction condition in the condition setting unit 28.
【0441】図26は請求項13の発明の第二実施形態
の動作の流れを示す図である。同図においては、複数種
類の候補条件及び修正条件のうち、チルト角の候補条件
及び修正条件に着目し、チルト角候補条件を用いてチル
ト角修正条件を検出する場合の動作の流れを示す。FIG. 26 is a diagram showing the operational flow of the second embodiment of the thirteenth invention. In the same figure, focusing on the tilt angle candidate condition and the correction condition among a plurality of types of the candidate condition and the correction condition, the flow of the operation when the tilt angle correction condition is detected using the tilt angle candidate condition is shown.
【0442】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかからチルト角の候補条件を選
択して設定し(S1)、然る後、条件設定部28は複数
個のチルト角候補条件のなかから選択した1個のチルト
角候補条件(選択チルト角候補条件)を出力する(S
2)。チルト角候補条件はz軸回りの回転に関わる候補
条件であって、例えば5個のチルト角候補条件Δγ1 〜
Δγ5 のなかから選択した1個のチルト角候補条件Δγ
1 を出力する。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting unit 28 first selects and sets a tilt angle candidate condition from a plurality of kinds of candidate conditions (S1), After that, the condition setting unit 28 outputs one tilt angle candidate condition (selected tilt angle candidate condition) selected from the plurality of tilt angle candidate conditions (S).
2). The tilt angle candidate conditions are candidate conditions relating to rotation around the z-axis, and for example, five tilt angle candidate conditions Δγ 1 to
One tilt angle candidate condition Δγ selected from Δγ 5
Outputs 1 .
【0443】次に画像変換部30は、左右カメラ10、
12により撮影した左右画像の一方を、条件設定部28
から入力した選択チルト角候補条件に従って画像変換
し、画像変換後の左右画像を第三左右メモリ38、40
に格納する(S3)。左右カメラ10、12により撮影
された左右画像は第一左右メモリ14、16に格納され
ており、画像変換部30は第一左右メモリ14、16の
左右画像を読み出し、読み出した左右画像の一方は画像
変換し他方は画像変換せずに、画像変換後の左右画像を
第三左右メモリ38、40に格納する。Next, the image conversion section 30 includes the left and right cameras 10,
One of the left and right images captured by the condition setting unit 28
The image is converted in accordance with the selected tilt angle candidate condition input from, and the left and right images after the image conversion are converted into the third left and right memories 38, 40.
(S3). The left and right images captured by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is The left and right images after the image conversion are stored in the third left and right memories 38 and 40 without image conversion for the other.
【0444】次に対応点探索部32は、走査対象となる
画素の色を異ならせて複数種の探索条件を設定すると共
に、画像変換後の左右画像全面を左右探索画像とし、各
探索条件毎に、左右探索画像における対応候補点を検出
する(S4)。ここでは画素の色を異ならせて複数種類
の探索条件を設定するので左右カメラ10、12により
撮影される左右画像をカラー画像とする。Next, the corresponding point search unit 32 sets a plurality of types of search conditions by making the color of the pixel to be scanned different and sets the entire left and right images after image conversion as the left and right search images. Then, the corresponding candidate points in the left and right search images are detected (S4). Here, since different types of search conditions are set by making the colors of the pixels different, the left and right images photographed by the left and right cameras 10 and 12 are color images.
【0445】例えば第三左右メモリ38、40に格納し
た画像変換後のカラー画像の左右画像のうち、赤色左右
画像を左右探索画像として走査する第一の探索条件と、
青色左右画像を左右探索画像として走査する第二の探索
条件とを設定する。そして対応点探索部32は第一の探
索条件により赤色左右画像を走査して、相対応する水平
走査線L上の1ライン分の赤色左右画像を第三左右メモ
リ38、40から切り出して、対応点探索部32が備え
る左右ラインメモリに格納する。ここで赤色左右画像に
おいて一方の画素を着目点、及び、他方の画素を対照点
とし、相対応する水平走査線L上において所定の主走査
方向例えば右方向に順次に数えて第i番目の着目点に対
し、水平走査線L上の対照点を所定の主走査方向例えば
右方向へ順次に走査して行く。第i番目の着目点に対し
画素特徴例えば画素濃度の差が閾値以下となる対照点を
検出することなく対照点の走査を終了したら、次に第i
+1番目の着目点に対し対照点の走査を行なう。また第
i番目の着目点に対し画素特徴の差が閾値以下となる対
照点を検出したら、当該第i番目の着目点と対照点とを
対応候補点として検出し、然る後、第i+1番目の着目
点に対し対照点の走査を行なう。第三左右メモリ38、
40の左右画像全面について第一の探索条件による対応
候補点の検出を終了したら次に第一の探索条件と同様に
して、第二の探索条件により青色左右画像を走査して、
第二の探索条件による対応候補点の検出を行なう。For example, among the left and right images of the color images after image conversion stored in the third left and right memories 38 and 40, the first search condition for scanning the red left and right images as the left and right search images,
A second search condition for scanning the blue left and right images as the left and right search images is set. Then, the corresponding point search unit 32 scans the red left and right images under the first search condition, cuts out one line of the red left and right images on the corresponding horizontal scanning line L from the third left and right memories 38, 40, and responds. The data is stored in the left and right line memories included in the point search unit 32. Here, in the red left and right images, one pixel is a target point and the other pixel is a reference point, and the i-th target is sequentially counted in a predetermined main scanning direction, for example, the right direction on the corresponding horizontal scanning line L. With respect to the points, the control points on the horizontal scanning line L are sequentially scanned in a predetermined main scanning direction, for example, the right direction. When the scanning of the control point is completed without detecting the control point in which the difference in pixel characteristics, for example, the pixel density, is less than or equal to the threshold value with respect to the i-th point of interest,
The control point is scanned for the + 1st point of interest. When a control point in which the difference in pixel feature is less than or equal to the threshold value with respect to the i-th point of interest is detected, the i-th point of interest and the control point are detected as corresponding candidate points. The control point is scanned for the point of interest. Third left and right memory 38,
When the detection of the corresponding candidate points by the first search condition is completed for the entire left and right images of 40, then the blue left and right images are scanned by the second search condition in the same manner as the first search condition.
Corresponding candidate points are detected by the second search condition.
【0446】全種類の探索条件について、対応候補点の
検出を終了したら、次に対応点探索部32は、各探索条
件毎に得た対応候補点の集合において共通集合となる対
応候補点を対応点として検出する(S5)。When the detection of corresponding candidate points is completed for all types of search conditions, the corresponding point searching unit 32 then associates corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each search condition. It is detected as a point (S5).
【0447】前述のように相対応する水平走査線L上の
左右探索画像を走査し、画素特徴の差が閾値以下となっ
たら次の着目点を走査して、対応候補点を検出するの
で、各探索条件毎に得た対応候補点の集合において共通
集合となる対応候補点は、確率的に確からしい対応候補
点の集まりとなる。As described above, the left and right search images on the corresponding horizontal scanning lines L are scanned, and when the difference between the pixel features becomes equal to or less than the threshold value, the next point of interest is scanned to detect the corresponding candidate point. Corresponding candidate points that are a common set in the set of corresponding candidate points obtained for each search condition are a set of corresponding candidate points that are probabilistically probable.
【0448】次に対応点探索部32は、対応点検出結果
を用いて遠距離位相差範囲における位相差判明点及び位
相差不明点を検出する(S6)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point in the long-distance phase difference range using the corresponding point detection result (S6).
【0449】ここで検出する位相差判明点及び位相差不
明点は、現在の左右探索画像となっている左右画像全面
に関してのものである。The phase difference known point and the phase difference unknown point detected here are for the entire left and right images which are the current left and right search images.
【0450】またここでは、対応点の位相差に基づいて
対応不明点(対応点として検出されなかった画素)に対
して位相差を推定し当て嵌める。位相差を当て嵌めるこ
とができなかった対応不明点を位相差不明点として検出
する。然る後、対応不明点に当て嵌めた位相差が、正し
いか否かを検定する。そしてこの検定により正しいと判
定された位相差の対応不明点を位相差判明点とし、正し
くないと判定された位相差の対応不明点を位相差不明点
として検出する。Further, here, the phase difference is estimated and applied to the unclear point (pixels not detected as the corresponding point) based on the phase difference of the corresponding points. An uncertain point that cannot be fitted with a phase difference is detected as a phase difference unknown point. After that, it is verified whether the phase difference applied to the unclear point is correct. Then, the unknown correspondence point of the phase difference determined to be correct by this test is set as the phase difference determination point, and the unknown correspondence point of the phase difference determined to be incorrect is detected as the phase difference unknown point.
【0451】走査対象となる画素の色を異ならせて複数
種類の探索条件を設定しているので、走査対象となる画
素の色毎に、位相差の当て嵌め及び位相差の検定を行な
う。走査対象となる画素の全ての色について位相差が正
しいと判定された画素のみを位相差判明点とし、走査対
象となる画素の色のいずれかの色で位相差が正しくない
と判定された画素は位相差不明点とする。Since a plurality of types of search conditions are set by making the color of the pixel to be scanned different, a phase difference fitting and a phase difference test are performed for each color of the pixel to be scanned. Pixels for which the phase difference is determined to be correct for all the colors of the pixel to be scanned, and the phase difference is determined to be incorrect for any of the colors of the pixel to be scanned. Is the point of unknown phase difference.
【0452】次に対応点探索部32は、遠距離位相差範
囲における位相差判明点の検出個数を評価値算出部34
に対し出力する(S7)。例えば位相差80未満の範囲
を遠距離位相差範囲とする。Next, the corresponding point searching section 32 determines the number of detected phase difference known points in the long-distance phase difference range by the evaluation value calculating section 34.
To (S7). For example, the range where the phase difference is less than 80 is defined as the long-distance phase difference range.
【0453】次に評価値算出部32は、遠距離位相差範
囲における位相差判明点の検出個数を用いて位相差判明
点の検出率を求め、(S2)で条件設定部28が出力し
た選択チルト角候補条件の評価値として当該遠距離位相
差範囲における位相差判明点の検出率を最大値検出部3
6に格納する(S8)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination points using the number of detected phase difference determination points in the long distance phase difference range, and the selection output by the condition setting unit 28 in (S2). As the evaluation value of the tilt angle candidate condition, the maximum value detection unit 3 uses the detection rate of the phase difference known point in the long-distance phase difference range.
6 (S8).
【0454】次に条件設定部28は全てのチルト角候補
条件を選択し終えたか否かを判定する(S9)。Next, the condition setting section 28 determines whether or not all the tilt angle candidate conditions have been selected (S9).
【0455】全てのチルト角候補条件を選択し終えてい
なければ、条件設定部28は次のチルト角候補条件を選
択し(S10)、然る後、選択したチルト角候補条件を
出力する(S2)。If all the tilt angle candidate conditions have not been selected, the condition setting section 28 selects the next tilt angle candidate condition (S10), and thereafter outputs the selected tilt angle candidate condition (S2). ).
【0456】例えばチルト角候補条件Δγ1 〜Δγ5 の
うちΔγ1 についてのみ選択し終えており、Δγ2 〜Δ
γ5 についての選択を終えていなければ、残りの候補条
件Δγ2 〜Δγ5 のなかから選択した一つの候補条件Δ
γ2 を選択し、選択したチルト角候補条件Δγ2 を出力
する。For example, among the tilt angle candidate conditions Δγ 1 to Δγ 5 , only Δγ 1 has been selected, and Δγ 2 to Δγ
If the selection for γ 5 has not been completed, one candidate condition Δ selected from the remaining candidate conditions Δγ 2 to Δγ 5
γ 2 is selected, and the selected tilt angle candidate condition Δγ 2 is output.
【0457】また全てのチルト角候補条件を選択し終え
ていなければ、最大値検出部36は各チルト角候補条件
毎に得た評価値のなかから最大の評価値を検出し、最大
の評価値を得たチルト角候補条件をチルト角修正条件と
して検出する。そして最大値検出部28は当該チルト角
修正条件を条件設定部28に格納する(S11)。然る
後、修正条件検出装置18は、チルト角修正条件を検出
するための処理を終了する(終了)。If all the tilt angle candidate conditions have not been selected, the maximum value detection unit 36 detects the maximum evaluation value from the evaluation values obtained for each tilt angle candidate condition and determines the maximum evaluation value. The obtained tilt angle candidate condition is detected as the tilt angle correction condition. Then, the maximum value detection unit 28 stores the tilt angle correction condition in the condition setting unit 28 (S11). After that, the correction condition detection device 18 ends the process for detecting the tilt angle correction condition (end).
【0458】この実施形態によれば、遠距離位相差範囲
における位相差判明点の検出率を評価値として、最大の
評価値を得たチルト角候補条件をチルト角修正条件とす
る。遠距離位相差範囲ではチルト角のずれ量が大きくな
るので、遠距離位相差範囲における位相差判明点の検出
率を評価値としてチルト角修正条件を検出することによ
り、エピポーラライン合わせにより適したチルト角修正
条件を検出できる。According to this embodiment, the detection rate of the phase difference determination point in the long-distance phase difference range is used as the evaluation value, and the tilt angle candidate condition that gives the maximum evaluation value is used as the tilt angle correction condition. Since the amount of tilt angle shift is large in the long-distance phase difference range, the tilt angle correction condition is detected by using the detection rate of the phase difference determination point in the long-distance phase difference range as an evaluation value, so that a tilt more suitable for epipolar line alignment can be obtained. The corner correction condition can be detected.
【0459】<請求項13の発明の第二実施形態>次に
図23を参照して請求項13の発明の第二実施形態につ
いて説明する。以下、主として請求項13の発明の第一
実施形態と相違する点につき説明し、請求項13の発明
の第一実施形態と同様の点については、その詳細な説明
を省略する。<Second Embodiment of Invention of Claim 13> Next, a second embodiment of the invention of claim 13 will be described with reference to FIG. Hereinafter, differences from the first embodiment of the invention of claim 13 will be mainly described, and detailed description of the same points as the first embodiment of the invention of claim 13 will be omitted.
【0460】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、位相差範囲入力部74
と、さらに領域切出し部46とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the phase difference range input unit 74.
And a region cutout unit 46.
【0461】領域切出し部46は画像変換後の左右画像
上に垂直方向に分散させた複数個の着目領域から、左右
着目領域画像を順次に切り出し、対応点探索部32は左
右着目領域画像を左右探索画像として、候補条件が同じ
各左右探索画像毎に、対応候補点、対応点、位相差の判
明点及び不明点を検出する。The area cutout unit 46 sequentially cuts out the left and right attention area images from the plurality of attention areas vertically dispersed on the left and right images after the image conversion, and the corresponding point searching unit 32 outputs the left and right attention area images to the left and right. Corresponding candidate points, corresponding points, known phase differences, and unknown points are detected for each of the left and right search images having the same candidate condition as the search image.
【0462】評価値算出部34は、左右探索画像におい
てチルト角のずれ量が大となる遠距離位相差につきチル
ト角候補条件が同じ各左右探索画像毎に位相差判明点の
検出率を求めチルト角候補条件が同じ左右探索画像につ
いて求めた検出率の平均値を当該チルト角候補条件の評
価値とする。The evaluation value calculation unit 34 obtains the detection rate of the phase difference determination point for each left and right search image having the same tilt angle candidate condition for the long-distance phase difference in which the deviation amount of the tilt angle is large in the left and right search images. The average value of the detection rates obtained for the left and right search images having the same angle candidate condition is set as the evaluation value of the tilt angle candidate condition.
【0463】図27は請求項13の発明の第二実施形態
の動作の流れを示す図である。同図においては、複数種
類の候補条件及び修正条件のうちチルト角の候補条件及
び修正条件に着目し、チルト角候補条件を用いてチルト
角修正条件を検出する場合の動作の流れを示す。FIG. 27 is a diagram showing the operational flow of the second embodiment of the thirteenth invention. In the same figure, focusing on the tilt angle candidate condition and the correction condition among a plurality of types of candidate conditions and correction conditions, the flow of the operation when the tilt angle correction condition is detected using the tilt angle candidate condition is shown.
【0464】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかからチルト角候補条件を選択
して設定し(S1)、然る後、条件設定部28は複数個
のチルト角候補条件のなかから選択した1個の候補条件
(選択チルト角候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting section 28 first selects and sets a tilt angle candidate condition from a plurality of kinds of candidate conditions (S1), and After that, the condition setting unit 28 outputs one candidate condition (selected tilt angle candidate condition) selected from the plurality of tilt angle candidate conditions (S2).
【0465】次に画像変換部30は、条件設定部28か
ら入力した選択チルト角候補条件に従って左画像及び右
画像の一方を画像変換し、画像変換後の左画像及び右画
像を第三左メモリ38及び第三右メモリ40に格納する
(S3)。左右カメラ10、12により撮影した左右画
像は第一左右メモリ14、16に格納されており、画像
変換部30は第一左右メモリ14、16の左右画像を読
み出し、読み出した左右画像の一方は画像変換せず他方
は画像変換して、画像変換後の左右画像を第三左右メモ
リ38、40に格納する。Next, the image conversion unit 30 performs image conversion on one of the left image and the right image in accordance with the selected tilt angle candidate condition input from the condition setting unit 28, and stores the image-converted left image and right image in the third left memory. 38 and the third right memory 40 (S3). The left and right images taken by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is an image. The other image is converted without being converted, and the left and right images after the image conversion are stored in the third left and right memories 38 and 40.
【0466】次に領域切出し部46は、画像変換後の左
右画像上に垂直方向(y方向)に分散させた複数個の着
目領域から、左右着目領域画像を切り出す(S4)。Next, the area cutout unit 46 cuts out the left and right attention area images from a plurality of attention areas dispersed in the vertical direction (y direction) on the left and right images after the image conversion (S4).
【0467】例えば、図12にも示すように、左右着目
領域画像の垂直方向における幅を水平走査線1本分の幅
もしくは複数本分の幅ここでは1本分の幅とし、領域切
出し部46は、第三左右メモリ38、40に格納した画
像変換後の左右画像から、相対応する水平走査線L上の
左右着目領域画像を切り出し、切り出した水平走査線L
上の左右着目領域画像を対応点探索部32の左右ライン
メモリに格納する。For example, as shown in FIG. 12, the width in the vertical direction of the left and right target area images is set to the width of one horizontal scanning line or the width of a plurality of horizontal scanning lines, and in this case, the width of one area is set. Is a horizontal scanning line L that is obtained by cutting out the left and right target area images on the corresponding horizontal scanning lines L from the left and right images after image conversion stored in the third left and right memories 38 and 40.
The upper left and right attention area images are stored in the left and right line memories of the corresponding point searching unit 32.
【0468】次に対応点探索部32は、走査対象となる
画素の色を異ならせて複数種の探索条件を設定すると共
に、左右着目領域画像を左右探索画像とし、各探索条件
毎に、左右探索画像における対応候補点を検出する(S
5)。Next, the corresponding point searching unit 32 sets a plurality of types of search conditions by making the color of the pixel to be scanned different and sets the left and right target area images as the left and right search images, and sets the left and right for each search condition. Corresponding candidate points in the search image are detected (S
5).
【0469】全種類の探索条件について、左右探索画像
全面にわたり水平走査線L上の対応候補点の検出を終了
したら、次に対応点探索部32は、各探索条件毎に得た
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する(S6)。After detecting the corresponding candidate points on the horizontal scanning line L over the entire left and right search images for all types of search conditions, the corresponding point searching unit 32 next finds the corresponding candidate points obtained for each search condition. Corresponding candidate points that are a common set in the set are detected as corresponding points (S6).
【0470】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出する(S
7)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point using the corresponding point detection result (S).
7).
【0471】ここで検出する位相差判明点及び位相差不
明点は、現在の左右探索画像を読み出した1個の着目領
域48、52に関するものである。ここでも対応不明点
に対する位相差の当て嵌めと当て嵌めた位相差の検定と
を行なう。The phase difference known point and the phase difference unknown point detected here are related to the one region of interest 48, 52 from which the current left and right search images are read. Also here, the fitting of the phase difference to the unclear point and the verification of the fitted phase difference are performed.
【0472】次に対応点探索部32は、遠距離位相差範
囲において位相差判明点を検出し、遠距離位相差範囲に
おける位相差判明点の検出個数を評価値算出部34に対
し出力する(S8)。Next, the corresponding point searching unit 32 detects a phase difference known point in the long distance phase difference range and outputs the detected number of phase difference known points in the long distance phase difference range to the evaluation value calculation unit 34 ( S8).
【0473】次に評価値算出部32は、遠距離位相差範
囲における位相差判明点の検出個数を用いて位相差判明
点の検出率を求め、当該位相差判明点の検出率を最大値
検出部36に格納する(S9)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination point using the number of detected phase difference determination points in the long-distance phase difference range, and detects the maximum value of the detection rate of the phase difference determination point. The data is stored in the unit 36 (S9).
【0474】次に領域切出し部46は、第三左右メモリ
38、40に現在格納されている画像変換後の左右画像
に関して、全ての着目領域から左右着目領域画像を切り
出し終えたか(読み出し終えたか)否かを判定する(S
10)。Then, the area cut-out unit 46 has finished cutting out (reading out) the left and right attention area images from all the attention areas with respect to the left and right images after image conversion currently stored in the third left and right memories 38 and 40. Determine whether or not (S
10).
【0475】現在の画像変換後の左右画像に関して全て
の着目領域の切出しを終了していなければ、領域切出し
部46は左右着目領域画像の切出し未終了の1組の着目
領域を選択し(S11)、然る後、選択した着目領域か
ら次の左右着目領域画像を切り出す(S4)。If the extraction of all the attention areas has not been completed for the current left and right images after image conversion, the area extraction unit 46 selects a set of attention areas for which the left and right attention area images have not been cut out (S11). After that, the next right and left attention area images are cut out from the selected attention area (S4).
【0476】例えば図12の例においてy=3の着目領
域48、52からの切出しを終了し、y=6、9の着目
領域48、52からの切出しを終了していなければ、切
出し未終了の1組の着目領域48、52としてy=6の
着目領域48、52を選択する。For example, in the example of FIG. 12, if the cutting out from the target areas 48 and 52 of y = 3 is completed and the cutting out from the target areas 48 and 52 of y = 6 and 9 is not completed, the cutout is not completed. As the set of attention areas 48 and 52, the attention areas 48 and 52 with y = 6 are selected.
【0477】現在の画像変換後の左右画像42、44に
関して全ての着目領域の切出しを終了したならば、評価
値算出部34は現在の画像変換後の左右画像を得たチル
ト角候補条件に関して、各着目領域毎に得た検出率の平
均値を求め、この平均値を当該チルト角候補条件の評価
値として最大値検出部36に格納する(S12)。After cutting out all the target areas for the left and right images 42 and 44 after the current image conversion, the evaluation value calculation unit 34 determines the tilt angle candidate conditions for obtaining the left and right images after the current image conversion. An average value of the detection rates obtained for each of the regions of interest is calculated, and this average value is stored in the maximum value detection unit 36 as the evaluation value of the tilt angle candidate condition (S12).
【0478】例えば現在の画像変換後の左右画像42、
44が候補条件Δy1 に従って得たものである場合、図
12の例においてy=3、6、9の各着目領域48、5
2毎に得た検出率の平均値を当該候補条件Δy1 の評価
値として得ることとなる。For example, the left and right images 42 after the current image conversion,
When 44 is obtained according to the candidate condition Δy 1 , in the example of FIG. 12, the target regions 48, 5 of y = 3, 6, 9 are obtained.
The average value of the detection rates obtained for each 2 is obtained as the evaluation value of the candidate condition Δy 1 .
【0479】次に条件設定部28は全てのチルト角候補
条件を選択し終えたか否かを判定する(S13)。Next, the condition setting section 28 determines whether or not all the tilt angle candidate conditions have been selected (S13).
【0480】全てのチルト角候補条件を選択し終えてい
なければ、条件設定部28は次のチルト角候補条件を選
択し(S14)、然る後、選択したチルト角候補条件を
出力する(S2)。If all the tilt angle candidate conditions have not been selected, the condition setting section 28 selects the next tilt angle candidate condition (S14), and thereafter outputs the selected tilt angle candidate condition (S2). ).
【0481】例えばチルト角候補条件Δγ1 〜Δγ5 の
うちΔγ1 についてのみ選択し終えており、Δγ2 〜Δ
γ5 についての選択を終えていなければ、残りの候補条
件Δγ2 〜Δγ5 のなかから選択した一つの候補条件Δ
γ2 を選択し、選択した候補条件Δγ2 を出力する。For example, among the tilt angle candidate conditions Δγ 1 to Δγ 5 , only Δγ 1 has been selected and Δγ 2 to Δ
If the selection for γ 5 has not been completed, one candidate condition Δ selected from the remaining candidate conditions Δγ 2 to Δγ 5
γ 2 is selected and the selected candidate condition Δγ 2 is output.
【0482】また全てのチルト角候補条件を選択し終え
たならば、最大値検出部36は各チルト角候補条件毎に
得た評価値のなかから最大の評価値を検出し、最大の評
価値を得たチルト角候補条件をチルト角修正条件として
検出する。そして最大値検出部28は当該チルト角修正
条件を条件設定部28に格納する(S15)。然る後、
修正条件検出装置18は、チルト角修正条件を検出する
ための処理を終了する(終了)。When all the tilt angle candidate conditions have been selected, the maximum value detection unit 36 detects the maximum evaluation value from the evaluation values obtained for each tilt angle candidate condition and determines the maximum evaluation value. The obtained tilt angle candidate condition is detected as the tilt angle correction condition. Then, the maximum value detection unit 28 stores the tilt angle correction condition in the condition setting unit 28 (S15). After that,
The correction condition detection device 18 ends the process for detecting the tilt angle correction condition (end).
【0483】この実施形態においては、左右探索画像を
画像変換後の左右画像の一部である着目領域画像として
おり、従ってチルト角修正条件を検出するのに必要な画
像の走査量を減少させることができるので、チルト角修
正条件の検出時間を短縮できる。In this embodiment, the left and right search images are the area of interest image which is a part of the left and right images after the image conversion, so that the scanning amount of the image necessary for detecting the tilt angle correction condition can be reduced. Therefore, the detection time of the tilt angle correction condition can be shortened.
【0484】<請求項13の発明の第三実施形態>次に
図23を参照し、請求項13の発明の第三実施形態につ
き説明する。以下、主として請求項13の発明の第二実
施形態と相違する点につき説明し、請求項13の発明の
第二実施形態と同様の点についてはその詳細な説明を省
略する。<Third Embodiment of Invention of Claim 13> Next, with reference to FIG. 23, a third embodiment of the invention of Claim 13 will be described. Hereinafter, differences from the second embodiment of the invention of claim 13 will be mainly described, and detailed description of the same points as the second embodiment of the invention of claim 13 will be omitted.
【0485】この実施形態の修正条件検出装置18は、
条件設定部28、画像変換部30、対応点探索部32、
評価値算出部34及び最大値検出部36と、第三左メモ
リ38及び第三右メモリ40と、さらに領域切出し部4
6とを備える。The correction condition detecting device 18 of this embodiment is
Condition setting unit 28, image conversion unit 30, corresponding point search unit 32,
The evaluation value calculation unit 34 and the maximum value detection unit 36, the third left memory 38 and the third right memory 40, and the area cutout unit 4
6 is provided.
【0486】評価値算出部34は、左右探索画像におい
てチルト角のずれ量が大となる遠距離位相差につきチル
ト角候補条件が同じ各左右探索画像毎に位相差判明点の
検出率を求めチルト角候補条件が同じ左右探索画像につ
いて求めた検出率のうち上位から順次に所定個数の検出
率を選択し当該選択により得た検出率の平均値をチルト
角候補条件の評価値とする。The evaluation value calculation unit 34 obtains the detection rate of the phase difference determination point for each left and right search image having the same tilt angle candidate condition for the long-distance phase difference in which the deviation amount of the tilt angle is large in the left and right search images. Of the detection rates obtained for the left and right search images with the same angle candidate condition, a predetermined number of detection rates are sequentially selected from the top, and the average value of the detection rates obtained by the selection is used as the evaluation value of the tilt angle candidate condition.
【0487】図28は請求項13の発明の第二実施形態
の動作の流れを示す図である。同図においては、複数種
類の候補条件及び修正条件のうちチルト角の候補条件及
び修正条件に着目し、チルト角候補条件を用いてチルト
角修正条件を検出する場合の動作の流れを示す。FIG. 28 is a diagram showing the operational flow of the second embodiment of the thirteenth invention. In the same figure, focusing on the tilt angle candidate condition and the correction condition among a plurality of types of candidate conditions and correction conditions, the flow of the operation when the tilt angle correction condition is detected using the tilt angle candidate condition is shown.
【0488】オペレータが動作開始信号を修正条件検出
装置18に入力すると(開始)、まず条件設定部28は
複数種類の候補条件のなかからチルト角候補条件を選択
して設定し(S1)、然る後、条件設定部28は複数個
のチルト角候補条件のなかから選択した1個の候補条件
(選択チルト角候補条件)を出力する(S2)。When the operator inputs an operation start signal to the correction condition detecting device 18 (start), the condition setting section 28 first selects and sets a tilt angle candidate condition from a plurality of types of candidate conditions (S1). After that, the condition setting unit 28 outputs one candidate condition (selected tilt angle candidate condition) selected from the plurality of tilt angle candidate conditions (S2).
【0489】次に画像変換部30は、条件設定部28か
ら入力した選択チルト角候補条件に従って左画像及び右
画像の一方を画像変換し、画像変換後の左画像及び右画
像を第三左メモリ38及び第三右メモリ40に格納する
(S3)。左右カメラ10、12により撮影した左右画
像は第一左右メモリ14、16に格納されており、画像
変換部30は第一左右メモリ14、16の左右画像を読
み出し、読み出した左右画像の一方は画像変換せず他方
は画像変換して、画像変換後の左右画像を第三左右メモ
リ38、40に格納する。Next, the image conversion unit 30 performs image conversion on one of the left image and the right image in accordance with the selected tilt angle candidate condition input from the condition setting unit 28, and stores the image-converted left image and right image in the third left memory. 38 and the third right memory 40 (S3). The left and right images taken by the left and right cameras 10 and 12 are stored in the first left and right memories 14 and 16, and the image conversion unit 30 reads the left and right images of the first left and right memories 14 and 16, and one of the read left and right images is an image. The other image is converted without being converted, and the left and right images after the image conversion are stored in the third left and right memories 38 and 40.
【0490】次に領域切出し部46は、画像変換後の左
右画像上に垂直方向(y方向)に分散させた複数個の着
目領域から、左右着目領域画像を切り出す(S4)。Next, the area cutout unit 46 cuts out the left and right attention area images from a plurality of attention areas dispersed in the vertical direction (y direction) on the left and right images after the image conversion (S4).
【0491】次に対応点探索部32は、走査対象となる
画素の色を異ならせて複数種の探索条件を設定すると共
に、左右着目領域画像を左右探索画像とし、各探索条件
毎に、左右探索画像における対応候補点を検出する(S
5)。Next, the corresponding point searching unit 32 sets a plurality of types of search conditions by making the color of the pixel to be scanned different and sets the left and right target area images as the left and right search images. Corresponding candidate points in the search image are detected (S
5).
【0492】全種類の探索条件について、左右探索画像
全面にわたり水平走査線L上の対応候補点の検出を終了
したら、次に対応点探索部32は、各探索条件毎に得た
対応候補点の集合において共通集合となる対応候補点を
対応点として検出する(S6)。After detecting the corresponding candidate points on the horizontal scanning line L over the entire left and right search images for all kinds of search conditions, the corresponding point searching unit 32 next finds the corresponding candidate points obtained for each search condition. Corresponding candidate points that are a common set in the set are detected as corresponding points (S6).
【0493】次に対応点探索部32は、対応点検出結果
を用いて位相差判明点及び位相差不明点を検出する(S
7)。Next, the corresponding point searching unit 32 detects the phase difference known point and the phase difference unknown point using the corresponding point detection result (S).
7).
【0494】次に対応点探索部32は、遠距離位相差範
囲において位相差判明点を検出し、遠距離位相差範囲に
おける位相差判明点の検出個数を評価値算出部34に対
し出力する(S8)。Next, the corresponding point searching unit 32 detects a phase difference known point in the long distance phase difference range and outputs the detected number of phase difference known points in the long distance phase difference range to the evaluation value calculation unit 34 ( S8).
【0495】次に評価値算出部32は、遠距離位相差範
囲における位相差判明点の検出個数を用いて位相差判明
点の検出率を求め、当該位相差判明点の検出率を最大値
検出部36に格納する(S9)。Next, the evaluation value calculation unit 32 obtains the detection rate of the phase difference determination point using the number of detected phase difference determination points in the long-distance phase difference range, and detects the maximum value of the detection rate of the phase difference determination point. The data is stored in the unit 36 (S9).
【0496】次に領域切出し部46は、第三左右メモリ
38、40に現在格納されている画像変換後の左右画像
に関して、全ての着目領域から左右着目領域画像を切り
出し終えたか(読み出し終えたか)否かを判定する(S
10)。Next, the area cutout unit 46 has finished cutting out the left and right attention area images from all the attention areas with respect to the left and right images after image conversion which are currently stored in the third left and right memories 38 and 40 (whether or not they have been read out). Determine whether or not (S
10).
【0497】現在の画像変換後の左右画像に関して全て
の着目領域の切出しを終了していなければ、領域切出し
部46は左右着目領域画像の切出し未終了の1組の着目
領域を選択し(S11)、然る後、選択した着目領域か
ら次の左右着目領域画像を切り出す(S4)。If the cutout of all the attention areas has not been completed for the left and right images after the current image conversion, the area cutout unit 46 selects a set of not-yet-cut out attention areas of the left and right attention area images (S11). After that, the next right and left attention area images are cut out from the selected attention area (S4).
【0498】現在の画像変換後の左右画像に関して全て
の着目領域の切出しを終了したならば、評価値算出部3
4は現在の画像変換後の左右画像を得たチルト角候補条
件に関し、各着目領域毎に得た検出率のうち上位の検出
率を選択する(S12)。[0498] If the extraction of all regions of interest has been completed for the left and right images after the current image conversion, the evaluation value calculation unit 3
Reference numeral 4 relates to a tilt angle candidate condition for obtaining the right and left images after the current image conversion, and selects a higher detection rate among the detection rates obtained for each attention area (S12).
【0499】次に評価値算出部34は、選択した上位の
検出率の平均値を求め、この平均値を現在の画像変換後
の左右画像を得たチルト角候補条件に関する評価値とし
て、最大値検出部36に格納する(S13)。Next, the evaluation value calculation unit 34 obtains the average value of the selected upper detection rates, and uses this average value as the maximum value as the evaluation value for the tilt angle candidate condition for obtaining the left and right images after the current image conversion. It stores in the detection part 36 (S13).
【0500】ここで図12で説明したように現在の画像
変換後の左右画像42、44上に設定する着目領域4
8、52の総個数は同じであるので、その総個数をR個
とすれば、総個数R個の着目領域48、52から総個数
R個の検出率を得ることとなる。そして総個数R個の検
出率のなかから上位r1個(r1はR>r1>1なる自
然数)の検出率を選択し、選択した上位r1個の検出率
の平均値を評価値とする。(R−r1)>0なる下位
(R−r1)個の検出率は評価値の算出に用いない。As described with reference to FIG. 12, the attention area 4 set on the left and right images 42 and 44 after the current image conversion.
Since the total number of 8 and 52 is the same, assuming that the total number is R, the detection rate of the total number R is obtained from the R regions of interest 48 and 52. Then, the detection rate of the top r1 (r1 is a natural number of R>r1> 1) is selected from the detection rates of the total number R, and the average value of the detection rates of the selected top r1 is set as the evaluation value. The lower (R-r1) detection rates of (R-r1)> 0 are not used for calculating the evaluation value.
【0501】例えば総個数R=30個の着目領域48、
52を設定し、これら着目領域から総個数R=30個の
検出率を得たものとすれば、上位r1=10〜20個の
検出率を用いて評価値を得、下位(R−r1)=20〜
10個の検出率は評価値の算出に用いない。For example, the total number R = 30 target regions 48,
If 52 is set and the detection rate of the total number R = 30 is obtained from these regions of interest, the evaluation value is obtained using the detection rates of the upper r1 = 10 to 20, and the lower (R-r1) = 20 ~
The 10 detection rates are not used for calculating the evaluation value.
【0502】次に条件設定部28は全てのチルト角候補
条件を選択し終えたか否かを判定する(S14)。Next, the condition setting section 28 determines whether or not all the tilt angle candidate conditions have been selected (S14).
【0503】全てのチルト角候補条件を選択し終えてい
なければ、条件設定部28は次のチルト角候補条件を選
択し(S15)、然る後、選択したチルト角候補条件を
出力する(S2)。If all the tilt angle candidate conditions have not been selected, the condition setting section 28 selects the next tilt angle candidate condition (S15), and then outputs the selected tilt angle candidate condition (S2). ).
【0504】また全てのチルト角候補条件を選択し終え
たならば、最大値検出部36は各チルト角候補条件毎に
得た評価値のなかから最大の評価値を検出し、最大の評
価値を得たチルト角候補条件をチルト角修正条件として
検出する。そして最大値検出部28は当該チルト角修正
条件を条件設定部28に格納する(S16)。然る後、
修正条件検出装置18は、チルト角修正条件を検出する
ための処理を終了する(終了)。When all the tilt angle candidate conditions have been selected, the maximum value detection unit 36 detects the maximum evaluation value from the evaluation values obtained for each tilt angle candidate condition and determines the maximum evaluation value. The obtained tilt angle candidate condition is detected as the tilt angle correction condition. Then, the maximum value detection unit 28 stores the tilt angle correction condition in the condition setting unit 28 (S16). After that,
The correction condition detection device 18 ends the process for detecting the tilt angle correction condition (end).
【0505】この実施形態においても、請求項13の第
二実施形態と同様に、左右探索画像を画像変換後の左右
画像の一部である着目領域画像としており、従ってチル
ト角修正条件を検出するのに必要な画像の走査量を減少
させることができるので、チルト角修正条件の検出時間
を短縮できる。Also in this embodiment, as in the second embodiment of the thirteenth aspect, the left and right search images are the region-of-interest images which are part of the left and right images after image conversion, and therefore the tilt angle correction condition is detected. Since it is possible to reduce the scanning amount of the image necessary for the above, it is possible to shorten the detection time of the tilt angle correction condition.
【0506】さらにこの実施形態によれば、チルト角候
補条件の評価値を求める場合に、上位複数個の検出率の
平均値を用いて評価値を求め、下位の検出率を評価値の
算出に用いないので、チルト角修正条件の検出精度を向
上できる。Further, according to this embodiment, when the evaluation value of the tilt angle candidate condition is obtained, the evaluation value is obtained by using the average value of the plurality of detection rates of the upper order, and the lower detection rate is used for the calculation of the evaluation value. Since it is not used, the detection accuracy of the tilt angle correction condition can be improved.
【0507】[0507]
【発明の効果】上述した説明からも明らかなように、請
求項1の発明によれば、1種につき複数個の候補条件を
用意して複数種類の候補条件を用意し、左右カメラによ
り得た左右画像の一方を、候補条件に従って画像変換し
て、画像変換後の左右画像から位相差の判明点及び不明
点を検出する。そして各候補条件毎に、画像変換後の左
右画像における位相差判明点の検出率を用いて候補条件
の評価値を得、最大の評価値を得た候補条件を、エピポ
ーララインを合わせるために用いる修正条件として検出
する。As is apparent from the above description, according to the invention of claim 1, a plurality of candidate conditions are prepared for each type, and a plurality of types of candidate conditions are prepared and obtained by the left and right cameras. One of the left and right images is subjected to image conversion in accordance with the candidate condition, and the known point and the unknown point of the phase difference are detected from the left and right images after the image conversion. Then, for each candidate condition, the evaluation value of the candidate condition is obtained using the detection rate of the phase difference known point in the left and right images after image conversion, and the candidate condition having the maximum evaluation value is used to match the epipolar line. Detect as a correction condition.
【0508】しかも位相差の判明点及び不明点の検出の
際には、複数種類の探索条件を設定し、探索条件に従っ
て画像変換後の左右画像を走査し、相対応する水平走査
線上において画素特徴の差が閾値以下となる画素を対応
候補点として検出する。そして各探索条件毎に検出した
対応候補点の集合において共通集合となる対応候補点を
対応点として検出し、対応点検出結果を用いて位相差の
判明点及び不明点を検出する。In addition, when the point of unknown phase difference and the point of unknown phase difference are detected, a plurality of types of search conditions are set, the left and right images after image conversion are scanned according to the search conditions, and pixel features are displayed on the corresponding horizontal scanning lines. Pixels having a difference of less than or equal to a threshold value are detected as corresponding candidate points. Then, in the set of corresponding candidate points detected for each search condition, corresponding candidate points forming a common set are detected as corresponding points, and the detected point and the unknown point of the phase difference are detected using the corresponding point detection result.
【0509】これがため請求項1の発明によれば、左右
カメラにより撮影する左右画像中に、特定のテストパタ
ーンが存在しなくても、エピポーララインを合わせるた
めに用いる修正条件を検出できる。Therefore, according to the first aspect of the present invention, the correction condition used for aligning the epipolar line can be detected even if there is no specific test pattern in the left and right images taken by the left and right cameras.
【0510】また請求項5の発明によれば、1種につき
複数個の候補条件を用意して複数種類の候補条件を用意
し、左右カメラにより得た左右画像の一方を、候補条件
に従って画像変換して、画像変換後の左右画像から位相
差の判明点及び不明点を検出する。そして各候補条件毎
に、画像変換後の左右画像における位相差判明点の検出
率を用いて候補条件の評価値を得、最大の評価値を得た
候補条件を、エピポーララインを合わせるために用いる
修正条件として検出する。According to the invention of claim 5, a plurality of candidate conditions are prepared for each type, a plurality of types of candidate conditions are prepared, and one of the left and right images obtained by the left and right cameras is image-converted according to the candidate condition. Then, the known point and the unknown point of the phase difference are detected from the left and right images after the image conversion. Then, for each candidate condition, the evaluation value of the candidate condition is obtained using the detection rate of the phase difference known point in the left and right images after image conversion, and the candidate condition having the maximum evaluation value is used to match the epipolar line. Detect as a correction condition.
【0511】しかも位相差の判明点及び不明点の検出の
際には、複数種類の探索条件を設定し、探索条件に従っ
て画像変換後の左右画像を走査し、相対応する水平走査
線上において画素特徴の差が閾値以下となる画素を対応
候補点として検出する。そして各探索条件毎に検出した
対応候補点の集合において共通集合となる対応候補点を
対応点として検出し、対応点検出結果を用いて位相差の
判明点及び不明点を検出する。[0511] Moreover, when detecting the unknown point or the unknown point of the phase difference, a plurality of types of search conditions are set, the left and right images after image conversion are scanned according to the search conditions, and the pixel features are displayed on the corresponding horizontal scanning lines. Pixels having a difference of less than or equal to a threshold value are detected as corresponding candidate points. Then, in the set of corresponding candidate points detected for each search condition, corresponding candidate points forming a common set are detected as corresponding points, and the detected point and the unknown point of the phase difference are detected using the corresponding point detection result.
【0512】これがため請求項5の発明によれば、左右
カメラにより撮影する左右画像中に、特定のテストパタ
ーンが存在しなくても、エピポーララインを合わせるた
めに用いる修正条件を検出できる。Therefore, according to the invention of claim 5, the correction condition used for aligning the epipolar line can be detected even if no specific test pattern is present in the left and right images photographed by the left and right cameras.
【0513】さらに請求項5の発明によれば、画像変換
後の左右画像をm階調からn階調に変換して、画像変換
後のn階調の左右画像のうち着目した1種又は複数種の
階調レベルの画像のみを走査して、修正条件を検出する
ので、修正条件を検出するのに要する時間を短縮できる
という利点がある。According to the fifth aspect of the present invention, the left and right images after the image conversion are converted from m gradations to n gradations, and one or more selected ones of the left and right images of the n gradations after the image conversion. Since the correction condition is detected by scanning only the image of the gradation level of some kind, there is an advantage that the time required to detect the correction condition can be shortened.
【0514】また請求項9の発明によれば、複数個の高
さ方向候補条件を用意して、左右カメラにより得た左右
画像の一方を、高さ方向候補条件に従って画像変換し
て、画像変換後の左右画像から位相差の判明点及び不明
点を検出する。そして各候補条件毎に、高さ方向のずれ
量が大となる近距離位相差範囲における位相差判明点の
検出率を用いて高さ方向候補条件の評価値を得、最大の
評価値を得た高さ方向候補条件を、エピポーララインを
合わせるために用いる高さ方向修正条件として検出す
る。According to the ninth aspect of the present invention, a plurality of height direction candidate conditions are prepared, and one of the left and right images obtained by the left and right cameras is image-converted according to the height direction candidate condition to perform image conversion. Detected and unclear points of the phase difference are detected from the left and right images. Then, for each candidate condition, the evaluation value of the height direction candidate condition is obtained by using the detection rate of the phase difference determination point in the short distance phase difference range in which the amount of deviation in the height direction is large, and the maximum evaluation value is obtained. The height direction candidate condition is detected as a height direction correction condition used for matching the epipolar line.
【0515】しかも位相差の判明点及び不明点の検出の
際には、複数種類の探索条件を設定し、探索条件に従っ
て画像変換後の左右画像を走査し、相対応する水平走査
線上において画素特徴の差が閾値以下となる画素を対応
候補点として検出する。そして各探索条件毎に検出した
対応候補点の集合において共通集合となる対応候補点を
対応点として検出し、対応点検出結果を用いて位相差の
判明点及び不明点を検出する。[0515] Moreover, when detecting a phase difference determination point and an unknown point, a plurality of types of search conditions are set, the left and right images after image conversion are scanned according to the search conditions, and pixel features are displayed on corresponding horizontal scanning lines. Pixels having a difference of less than or equal to a threshold value are detected as corresponding candidate points. Then, in the set of corresponding candidate points detected for each search condition, corresponding candidate points forming a common set are detected as corresponding points, and the detected point and the unknown point of the phase difference are detected using the corresponding point detection result.
【0516】これがため請求項9の発明によれば、左右
カメラにより撮影する左右画像中に、特定のテストパタ
ーンが存在しなくても、エピポーララインを合わせるた
めに用いる高さ方向修正条件を検出できる。Therefore, according to the invention of claim 9, the height direction correction condition used for aligning the epipolar line can be detected even if there is no specific test pattern in the left and right images photographed by the left and right cameras. .
【0517】しかも請求項9の発明によれば、高さ方向
のずれ量が大となる近距離位相差範囲における位相差判
明点の検出率を用いて高さ方向の候補条件の評価値を得
て、最大の評価値を得た高さ方向候補条件を高さ方向修
正条件として検出するので、エピポーラライン合わせに
より適した高さ方向修正条件を検出することができる。Further, according to the invention of claim 9, the evaluation value of the candidate condition in the height direction is obtained by using the detection rate of the phase difference determination point in the short distance phase difference range where the shift amount in the height direction is large. Then, the height direction candidate condition having the maximum evaluation value is detected as the height direction correction condition, so that the height direction correction condition more suitable for the epipolar line alignment can be detected.
【0518】また請求項13の発明によれば、複数個の
チルト角候補条件を用意して、左右カメラにより得た左
右画像の一方を、チルト角候補条件に従って画像変換し
て、画像変換後の左右画像から位相差の判明点及び不明
点を検出する。そして各候補条件毎に、チルト角のずれ
量が大となる近距離位相差範囲における位相差判明点の
検出率を用いてチルト角候補条件の評価値を得、最大の
評価値を得たチルト角候補条件を、エピポーララインを
合わせるために用いるチルト角修正条件として検出す
る。According to the thirteenth aspect of the present invention, a plurality of tilt angle candidate conditions are prepared, one of the left and right images obtained by the left and right cameras is subjected to image conversion according to the tilt angle candidate conditions, and after the image conversion, Detected and unknown phase difference is detected from the left and right images. Then, for each candidate condition, the evaluation value of the tilt angle candidate condition is obtained by using the detection rate of the phase difference determination point in the short distance phase difference range where the amount of tilt angle deviation is large, and the tilt that has the maximum evaluation value is obtained. The angle candidate condition is detected as a tilt angle correction condition used to match the epipolar line.
【0519】しかも位相差の判明点及び不明点の検出の
際には、複数種類の探索条件を設定し、探索条件に従っ
て画像変換後の左右画像を走査し、相対応する水平走査
線上において画素特徴の差が閾値以下となる画素を対応
候補点として検出する。そして各探索条件毎に検出した
対応候補点の集合において共通集合となる対応候補点を
対応点として検出し、対応点検出結果を用いて位相差の
判明点及び不明点を検出する。[0519] Moreover, when detecting the unknown point or the unknown point of the phase difference, a plurality of types of search conditions are set, the left and right images after image conversion are scanned according to the search conditions, and the pixel features are displayed on the corresponding horizontal scanning lines. Pixels having a difference of less than or equal to a threshold value are detected as corresponding candidate points. Then, in the set of corresponding candidate points detected for each search condition, corresponding candidate points forming a common set are detected as corresponding points, and the detected point and the unknown point of the phase difference are detected using the corresponding point detection result.
【0520】これがため請求項13の発明によれば、左
右カメラにより撮影する左右画像中に、特定のテストパ
ターンが存在しなくても、エピポーララインを合わせる
ために用いるチルト角修正条件を検出できる。Therefore, according to the thirteenth aspect of the present invention, the tilt angle correction condition used for aligning the epipolar line can be detected even if no specific test pattern is present in the left and right images photographed by the left and right cameras.
【0521】しかも請求項13の発明によれば、チルト
角のずれ量が大となる近距離位相差範囲における位相差
判明点の検出率を用いてチルト角の候補条件の評価値を
得て、最大の評価値を得たチルト角候補条件をチルト角
修正条件として検出するので、エピポーラライン合わせ
により適したチルト角修正条件を検出することができ
る。Further, according to the invention of claim 13, the evaluation value of the candidate condition of the tilt angle is obtained by using the detection rate of the phase difference determination point in the short distance phase difference range where the deviation amount of the tilt angle is large, Since the tilt angle candidate condition having the maximum evaluation value is detected as the tilt angle correction condition, it is possible to detect the tilt angle correction condition more suitable for epipolar line alignment.
【図1】実施形態の説明に供する機能ブロック図であ
る。FIG. 1 is a functional block diagram for explaining an embodiment.
【図2】1種類の候補条件に着目した動作の流れを示す
図である。FIG. 2 is a diagram showing a flow of operations focusing on one kind of candidate condition.
【図3】(A)及び(B)は第一左右メモリに格納され
る左右画像の説明に供する図である。3A and 3B are diagrams for explaining left and right images stored in a first left and right memory.
【図4】(A)及び(B)は第三左右メモリに格納され
る左右画像の説明に供する図である。4A and 4B are diagrams for explaining left and right images stored in a third left and right memory.
【図5】修正条件検出の説明に供する図である。FIG. 5 is a diagram for explaining detection of a correction condition.
【図6】位相差当て嵌めの説明に供する図である。FIG. 6 is a diagram for explaining the phase difference fitting.
【図7】位相差検定処理の流れを示す図である。FIG. 7 is a diagram showing a flow of phase difference verification processing.
【図8】(A)及び(B)は検定点、参照点の説明に供
する図である。8 (A) and 8 (B) are diagrams for explaining a test point and a reference point.
【図9】(A)及び(B)は検定点、参照点の説明に供
する図である。9 (A) and 9 (B) are diagrams for explaining a test point and a reference point.
【図10】実施形態の説明に供する機能ブロック図であ
る。FIG. 10 is a functional block diagram for explaining the embodiment.
【図11】1種類の候補条件に着目した動作の流れを示
す図である。FIG. 11 is a diagram showing a flow of operations focusing on one type of candidate condition.
【図12】(A)及び(B)は着目領域、着目領域画像
の説明に供する図である。FIG. 12A and FIG. 12B are diagrams for explaining a target area and a target area image.
【図13】1種類の候補条件に着目した動作の流れを示
す図である。FIG. 13 is a diagram showing a flow of operations focusing on one type of candidate condition.
【図14】(A)及び(B)は修正条件の検出精度向上
の説明に供する図である。14A and 14B are diagrams for explaining the improvement of detection accuracy of a correction condition.
【図15】実施形態の説明に供する機能ブロック図であ
る。FIG. 15 is a functional block diagram for explaining the embodiment.
【図16】実施形態の説明に供する機能ブロック図であ
る。FIG. 16 is a functional block diagram for explaining the embodiment.
【図17】実施形態の説明に供する機能ブロック図であ
る。FIG. 17 is a functional block diagram for explaining the embodiment.
【図18】1種類の候補条件に着目した動作の流れを示
す図である。FIG. 18 is a diagram showing a flow of operations focusing on one kind of candidate condition.
【図19】1種類の候補条件に着目した動作の流れを示
す図である。FIG. 19 is a diagram showing a flow of operations focusing on one type of candidate condition.
【図20】1種類の候補条件に着目した動作の流れを示
す図である。FIG. 20 is a diagram showing a flow of operations focusing on one type of candidate condition.
【図21】実施形態の説明に供する機能ブロック図であ
る。FIG. 21 is a functional block diagram for explaining the embodiment.
【図22】高さ方向候補条件に着目した動作の流れを示
す図である。FIG. 22 is a diagram showing a flow of operations focusing on height direction candidate conditions.
【図23】実施形態の説明に供する機能ブロック図であ
る。FIG. 23 is a functional block diagram for explaining the embodiment.
【図24】高さ方向候補条件に着目した動作の流れを示
す図である。FIG. 24 is a diagram showing a flow of an operation focusing on the height direction candidate condition.
【図25】高さ方向候補条件に着目した動作の流れを示
す図である。FIG. 25 is a diagram showing a flow of operations focusing on height direction candidate conditions.
【図26】チルト角候補条件に着目した動作の流れを示
す図である。FIG. 26 is a diagram showing a flow of operations focusing on tilt angle candidate conditions.
【図27】チルト角候補条件に着目した動作の流れを示
す図である。FIG. 27 is a diagram showing a flow of operations focusing on tilt angle candidate conditions.
【図28】チルト角候補条件に着目した動作の流れを示
す図である。FIG. 28 is a diagram showing a flow of operations focusing on a tilt angle candidate condition.
18:修正条件検出装置 28:条件設定部 30:画像変換部 32:対応点探索部 34:評価値算出部 36:最大値検出部 46:領域切出し部 18: Correction condition detection device 28: Condition setting unit 30: Image conversion unit 32: Corresponding point search unit 34: Evaluation value calculation unit 36: Maximum value detection unit 46: Region cutout unit
Claims (16)
ための修正条件を検出する修正条件検出装置において、 修正条件を検出するための複数種類の候補条件を順次に
設定する条件設定部と、 左右画像の一方を、候補条件に従って画像変換する画像
変換部と、 走査方向、走査対象となる画素の階調表現、若しくは、
走査対象となる画素の色を異ならせて複数種の探索条件
を設定し、画像変換後の左右画像を左右探索画像とし、
前記探索条件に従って左右探索画像を走査し、相対応す
る水平走査線上において左探索画像の画素特徴と右探索
画像の画素特徴とを比較して画素特徴の差が閾値以下と
なる左右探索画像の画素を対応候補点として検出し、各
探索条件毎に検出した対応候補点の集合において共通集
合となる対応候補点を対応点として検出し、該対応点検
出結果を用いて左右探索画像における位相差の判明点及
び不明点を検出する対応点探索部と、 左右探索画像における位相差判明点の検出率を用いて、
候補条件の種類毎に候補条件の評価値を求める評価値算
出部と、 候補条件の種類毎に最大の評価値を得た候補条件を修正
条件として検出する最大値検出部とを備えて成ることを
特徴とするステレオ画像の修正条件検出装置。1. A correction condition detection device for detecting a correction condition for matching epipolar lines of left and right images, and a condition setting unit for sequentially setting a plurality of types of candidate conditions for detecting the correction condition, and a left and right image One of them is an image conversion unit that performs image conversion according to a candidate condition, a scanning direction, a gradation expression of pixels to be scanned, or
Different colors of pixels to be scanned are used to set multiple types of search conditions, and the left and right images after image conversion are used as left and right search images.
The left and right search images are scanned according to the search condition, and the pixel features of the left search image and the pixel features of the right search image are compared on the corresponding horizontal scanning lines, and the pixels of the left and right search images in which the difference between the pixel features is less than or equal to a threshold value. Is detected as a corresponding candidate point, a corresponding candidate point that is a common set in the set of corresponding candidate points detected for each search condition is detected as a corresponding point, and the corresponding point detection result is used to detect the phase difference of the left and right search images. By using the corresponding point search unit that detects the unknown point and the unknown point, and the detection rate of the phase difference known point in the left and right search images,
An evaluation value calculation unit that obtains an evaluation value of a candidate condition for each type of candidate condition, and a maximum value detection unit that detects the candidate condition that has the maximum evaluation value for each type of candidate condition as a correction condition A correction condition detection device for a stereo image, characterized by:
検出装置において、 対応点探索部は、画像変換後の左右画像全面を左右探索
画像とし、 評価値算出部は、左右探索画像における位相差判明点の
検出率を、各候補条件毎に求め、当該検出率を候補条件
の評価値とすることを特徴とするステレオ画像の修正条
件検出装置。2. The stereo image correction condition detection device according to claim 1, wherein the corresponding point search unit sets the entire left and right images after image conversion to the left and right search images, and the evaluation value calculation unit sets the phase difference between the left and right search images. A correction condition detection device for a stereo image, wherein a detection rate of a clarification point is obtained for each candidate condition, and the detection rate is used as an evaluation value of the candidate condition.
検出装置において、 画像変換後の左右画像上に垂直方向に分散させた複数個
の着目領域から、左右着目領域画像を順次に切出す領域
切出し部を備え、 対応点探索部は、左右着目領域画像を左右探索画像と
し、 評価値算出部は、候補条件が同じ各左右探索画像毎に位
相差判明点の検出率を求め、候補条件が同じ左右探索画
像について求めた検出率の平均値を当該候補条件の評価
値とすることを特徴とするステレオ画像の修正条件検出
装置。3. The stereo image correction condition detecting device according to claim 1, wherein the left and right attention area images are sequentially cut out from a plurality of attention areas vertically dispersed on the left and right images after image conversion. The corresponding point search unit uses the left and right attention area images as the left and right search images, and the evaluation value calculation unit obtains the detection rate of the phase difference determination point for each left and right search image with the same candidate condition, and the candidate condition is A correction condition detection device for a stereo image, wherein an average value of detection rates obtained for the same left and right search images is used as an evaluation value of the candidate condition.
検出装置において、 画像変換後の左右画像上に垂直方向に分散させた複数個
の着目領域から、左右着目領域画像を順次に切出す領域
切出し部を備え、 対応点探索部は、左右着目領域画像を左右探索画像と
し、 評価値算出部は、候補条件が同じ各左右探索画像毎に位
相差判明点の検出率を求め、候補条件が同じ左右探索画
像について求めた検出率のうち、上位から順次に所定個
数の検出率を選択し、当該選択により得た検出率の平均
値を候補条件の評価値とすることを特徴とするステレオ
画像の修正条件検出装置。4. The stereo image correction condition detecting device according to claim 1, wherein the left and right attention area images are sequentially cut out from a plurality of attention areas vertically dispersed on the left and right images after image conversion. The corresponding point search unit uses the left and right attention area images as the left and right search images, and the evaluation value calculation unit obtains the detection rate of the phase difference determination point for each left and right search image with the same candidate condition, and the candidate condition is Of the detection rates obtained for the same left and right search images, a predetermined number of detection rates are sequentially selected from the top, and the average value of the detection rates obtained by the selection is used as the evaluation value of the candidate condition. Correction condition detection device.
ための修正条件を検出する修正条件検出装置において、 修正条件を検出するための複数種類の候補条件を順次に
設定する条件設定部と、 m階調の左右画像の一方を、候補条件に従って画像変換
する画像変換部と、 画像変換後の左右画像をn階調(m>n)の左右画像に
変換する階調変換部と、 階調変換後の左右画像から、着目した一種類又は複数種
類の階調レベルの左右画像を左右着目レベル画像として
切り出すレベル切出し部と、 走査方向、走査対象となる画素の階調表現、若しくは、
走査対象となる画素の色を異ならせて複数種の探索条件
を設定し、左右着目レベル画像を左右探索画像とし、前
記探索条件に従って左右探索画像を走査し、相対応する
水平走査線上において左探索画像の画素特徴と右探索画
像の画素特徴とを比較して画素特徴の差が閾値以下とな
る左右探索画像の画素を対応候補点として検出し、各探
索条件毎に検出した対応候補点の集合において共通集合
となる対応候補点を対応点として検出し、該対応点検出
結果を用いて左右探索画像における位相差の判明点及び
不明点を検出する対応点探索部と、 左右探索画像における位相差判明点の検出率を用いて、
候補条件の種類毎に候補条件の評価値を求める評価値算
出部と、 候補条件の種類毎に最大の評価値を得た候補条件を修正
条件として検出する最大値検出部とを備えて成ることを
特徴とするステレオ画像の修正条件検出装置。5. A correction condition detecting device for detecting a correction condition for matching epipolar lines of left and right images, a condition setting section for sequentially setting a plurality of types of candidate conditions for detecting the correction condition, and m gradations. An image conversion unit for converting one of the left and right images of the image according to a candidate condition, a gradation conversion unit for converting the left and right images after the image conversion into left and right images of n gradations (m> n), and A level cutout unit that cuts out, from the left and right images, left and right images of one or more types of gradation levels of interest as left and right attention level images, a scanning direction, a gradation expression of pixels to be scanned, or
A plurality of types of search conditions are set by differentiating the colors of pixels to be scanned, the left and right focus level images are used as left and right search images, the left and right search images are scanned according to the search conditions, and left search is performed on the corresponding horizontal scanning lines. A set of corresponding candidate points detected for each search condition by detecting the pixels of the left and right search images where the difference between the pixel features is equal to or less than the threshold value by comparing the pixel features of the image with the pixel features of the right search image. In the corresponding point search unit that detects a corresponding candidate point that becomes a common set as a corresponding point in the above, and detects a known point and an unknown point of the phase difference in the left and right search images, and the phase difference in the left and right search images. Using the detection rate of the clarification point,
An evaluation value calculation unit that obtains an evaluation value of a candidate condition for each type of candidate condition, and a maximum value detection unit that detects the candidate condition that has the maximum evaluation value for each type of candidate condition as a correction condition A correction condition detection device for a stereo image, characterized by:
検出装置において、 レベル切出し部は、階調変換後の左右画像から、着目し
た1種類の階調レベルの左右画像のみを左右着目レベル
画像として切り出すレベル切出し部と、 評価値算出部は、左右探索画像における位相差判明点の
検出率を、各候補条件毎に求め、当該検出率を候補条件
の評価値とすることを特徴とするステレオ画像の修正条
件検出装置。6. The stereo image correction condition detection device according to claim 5, wherein the level cutout unit extracts only the left and right images of one type of gradation level of interest from the left and right images after gradation conversion. The level cutout unit and the evaluation value calculation unit obtain the detection rate of the phase difference determination point in the left and right search images for each candidate condition, and use the detection rate as the evaluation value of the candidate condition. Image correction condition detection device.
検出装置において、 レベル切出し部は、階調変換後の左右画像から、着目し
た複数種類の階調レベルの左右画像を順次に左右着目レ
ベル画像として切り出し、 評価値算出部は、候補条件が同じ各左右探索画像毎に位
相差判明点の検出率を求め、候補条件が同じ左右探索画
像について求めた検出率の平均値を当該候補条件の評価
値とすることを特徴とするステレオ画像の修正条件検出
装置。7. The stereo image correction condition detection device according to claim 5, wherein the level cutout unit sequentially obtains left and right images of a plurality of types of gradation levels of interest from the left and right images after gradation conversion. The evaluation value calculation unit obtains the detection rate of the phase difference determination point for each of the left and right search images having the same candidate condition, and the average value of the detection rates obtained for the left and right search images having the same candidate condition is used as the candidate condition. A correction condition detection device for a stereo image, which is characterized by using an evaluation value.
検出装置において、 レベル切出し部は、階調変換後の左右画像から、着目し
た複数種類の階調レベルの左右画像を順次に左右着目レ
ベル画像として切り出し、 評価値算出部は、候補条件が同じ各左右探索画像毎に位
相差判明点の検出率を求め、候補条件が同じ左右探索画
像について求めた検出率のうち、上位から順次に所定個
数の検出率を選択し、当該選択により得た検出率の平均
値を候補条件の評価値とすることを特徴とするステレオ
画像の修正条件検出装置。8. The stereo image correction condition detection device according to claim 5, wherein the level cutout unit sequentially obtains left and right images of a plurality of types of gradation levels of interest from the left and right images after gradation conversion. The evaluation value calculation unit obtains the detection rate of the phase difference determination point for each of the left and right search images with the same candidate condition, and sequentially determines the detection rate for the left and right search images with the same candidate condition from the top. A correction condition detection device for a stereo image, wherein a detection ratio of a number is selected, and an average value of the detection ratios obtained by the selection is used as an evaluation value of a candidate condition.
ための修正条件を検出する修正条件検出装置において、 高さ方向修正条件を検出するための候補条件を順次に設
定する条件設定部と、左右画像の一方を、候補条件に従
って画像変換する画像変換部と、 走査方向、走査対象となる画素の階調表現、若しくは、
走査対象となる画素の色を異ならせて複数種の探索条件
を設定し、画像変換後の左右画像を左右探索画像とし、
前記探索条件に従って左右探索画像を走査し、相対応す
る水平走査線上において左探索画像の画素特徴と右探索
画像の画素特徴とを比較して画素特徴の差が閾値以下と
なる左右探索画像の画素を対応候補点として検出し、各
探索条件毎に検出した対応候補点の集合において共通集
合となる対応候補点を対応点として検出し、該対応点検
出結果を用いて左右探索画像において高さ方向のずれ量
が大となる近距離位相差の判明点及び不明点を検出する
対応点探索部と、 左右探索画像において高さ方向のずれ量が大となる近距
離位相差につき位相差判明点の検出率を求め当該検出率
を用いて高さ方向候補条件の評価値を求める評価値算出
部と、 最大の評価値を得た高さ方向候補条件を高さ方向修正条
件として検出する最大値検出部とを備えて成ることを特
徴とするステレオ画像の修正条件検出装置。9. A correction condition detecting device for detecting a correction condition for matching epipolar lines of left and right images, and a condition setting section for sequentially setting candidate conditions for detecting a height direction correction condition, and a left and right image One of them is an image conversion unit that performs image conversion according to a candidate condition, a scanning direction, a gradation expression of pixels to be scanned, or
Different colors of pixels to be scanned are used to set multiple types of search conditions, and the left and right images after image conversion are used as left and right search images.
The left and right search images are scanned according to the search condition, and the pixel features of the left search image and the pixel features of the right search image are compared on the corresponding horizontal scanning lines, and the pixels of the left and right search images in which the difference between the pixel features is less than or equal to a threshold value. Is detected as a corresponding candidate point, a corresponding candidate point that is a common set in the set of corresponding candidate points detected for each search condition is detected as a corresponding point, and the corresponding point detection result is used to determine the height direction in the left and right search images. The corresponding point search unit that detects the unknown point and the unknown point of the short-distance phase difference that causes a large amount of deviation of the phase difference and the phase difference determination point of the short-range phase difference that causes a large amount of deviation in the height direction in the left and right search images. An evaluation value calculation unit that calculates the detection rate and uses the detection rate to calculate the evaluation value of the height direction candidate condition, and the maximum value detection that detects the height direction candidate condition that has the maximum evaluation value as the height direction correction condition. Comprises a section and Fixed condition detection apparatus of the stereo image, wherein the door.
件検出装置において、 対応点探索部は、画像変換後の左右画像全面を左右探索
画像とし、 評価値算出部は、左右探索画像において高さ方向のずれ
量が大となる近距離位相差につき各高さ方向候補条件毎
に位相差判明点の検出率を求め当該検出率を高さ方向候
補条件の評価値とすることを特徴とするステレオ画像の
修正条件検出装置。10. The stereo image correction condition detection device according to claim 9, wherein the corresponding point search unit sets the entire left and right images after image conversion to the left and right search images, and the evaluation value calculation unit sets the height in the left and right search images. Stereo characterized by detecting the detection rate of the phase difference determination point for each height direction candidate condition for the short-distance phase difference with a large amount of direction deviation and using the detection rate as the evaluation value of the height direction candidate condition. Image correction condition detection device.
件検出装置において、 画像変換後の左右画像上に垂直方向に分散させた複数個
の着目領域から、左右着目領域画像を順次に切り出す領
域切出し部を備え、 対応点探索部は、左右着目領域画像を左右探索画像と
し、 評価値算出部は、左右探索画像において高さ方向のずれ
量が大となる近距離位相差につき高さ方向候補条件が同
じ各左右探索画像毎に位相差判明点の検出率を求め高さ
方向候補条件が同じ左右探索画像について求めた検出率
の平均値を当該高さ方向候補条件の評価値とすることを
特徴とするステレオ画像の修正条件検出装置。11. The stereo image correction condition detection device according to claim 9, wherein a left and right attention area image is sequentially cut out from a plurality of attention areas vertically dispersed on the left and right images after image conversion. The corresponding point search unit uses the left and right target area images as the left and right search images, and the evaluation value calculation unit determines the height direction candidate condition for the short-distance phase difference in which the height direction shift amount is large in the left and right search images. The detection rate of the phase difference determination point is calculated for each of the left and right search images with the same height direction candidate condition. A stereo image correction condition detecting device.
件検出装置において、 画像変換後の左右画像上に垂直方向に分散させた複数個
の着目領域から、左右着目領域画像を順次に切り出す領
域切出し部を備え、 対応点探索部は、左右着目領域画像を左右探索画像と
し、 評価値算出部は、左右探索画像において高さ方向のずれ
量が大となる近距離位相差につき高さ方向候補条件が同
じ各左右探索画像毎に位相差判明点の検出率を求め高さ
方向候補条件が同じ左右探索画像について求めた検出率
のうち上位から順次に所定個数の検出率を選択し当該選
択により得た検出率の平均値を高さ方向候補条件の評価
値とすることを特徴とするステレオ画像の修正条件検出
装置。12. The stereo image correction condition detecting device according to claim 9, wherein the left and right attention area images are sequentially cut out from a plurality of attention areas vertically dispersed on the left and right images after image conversion. The corresponding point search unit uses the left and right target area images as the left and right search images, and the evaluation value calculation unit determines the height direction candidate condition for the short-distance phase difference in which the height direction shift amount is large in the left and right search images. The detection rate of the phase difference determination point is calculated for each of the left and right search images with the same value, and a predetermined number of detection rates are sequentially selected from the top of the detection rates calculated for the left and right search images with the same height direction candidate condition, and the selection rate is obtained. A correction condition detection device for a stereo image, wherein the average value of the detection rates is used as an evaluation value of the height direction candidate condition.
るための修正条件を検出する修正条件検出装置におい
て、 チルト角修正条件を検出するための候補条件を順次に設
定する条件設定部と、 左右画像の一方を、候補条件に従って画像変換する画像
変換部と、 走査方向、走査対象となる画素の階調表現、若しくは、
走査対象となる画素の色を異ならせて複数種の探索条件
を設定し、画像変換後の左右画像を左右探索画像とし、
前記探索条件に従って左右探索画像を走査し、相対応す
る水平走査線上において左探索画像の画素特徴と右探索
画像の画素特徴とを比較して画素特徴の差が閾値以下と
なる左右探索画像の画素を対応候補点として検出し、各
探索条件毎に検出した対応候補点の集合において共通集
合となる対応候補点を対応点として検出し、該対応点検
出結果を用いて左右探索画像においてチルト角のずれ量
が大となる遠距離位相差の判明点及び不明点を検出する
対応点探索部と、 左右探索画像においてチルト角のずれ量が大となる遠距
離位相差につき位相差判明点の検出率を求め当該検出率
を用いてチルト角候補条件の評価値を求める評価値算出
部と、 最大の評価値を得たチルト角候補条件をチルト角修正条
件として検出する最大値検出部とを備えて成ることを特
徴とするステレオ画像の修正条件検出装置。13. A correction condition detection device for detecting a correction condition for matching epipolar lines of left and right images, and a condition setting section for sequentially setting candidate conditions for detecting a tilt angle correction condition, and one of the left and right images. And an image conversion unit for converting an image according to a candidate condition, a scanning direction, a gradation expression of pixels to be scanned, or
Different colors of pixels to be scanned are used to set multiple types of search conditions, and the left and right images after image conversion are used as left and right search images.
The left and right search images are scanned according to the search condition, and the pixel features of the left search image and the pixel features of the right search image are compared on the corresponding horizontal scanning lines, and the pixels of the left and right search images in which the difference between the pixel features is less than or equal to a threshold Is detected as a corresponding candidate point, a corresponding candidate point that is a common set in the set of corresponding candidate points detected for each search condition is detected as a corresponding point, and the tilt angle of the left and right search images is detected using the corresponding point detection result. Corresponding point search unit that detects known and unknown points of long-distance phase difference with large shift amount, and detection rate of phase difference known point with respect to long-distance phase difference with large shift amount of tilt angle in left and right search images And an evaluation value calculation unit that obtains an evaluation value of a tilt angle candidate condition using the detection rate, and a maximum value detection unit that detects the tilt angle candidate condition that has obtained the maximum evaluation value as a tilt angle correction condition. Become Fixed condition detection apparatus of the stereo image, wherein the door.
条件検出装置において、 対応点探索部は、画像変換後の左右画像全面を左右探索
画像とし、 評価値算出部は、左右探索画像においてチルト角のずれ
量が大となる遠距離位相差につき各チルト角候補条件毎
に位相差判明点の検出率を求め当該検出率をチルト角候
補条件の評価値とすることを特徴とするステレオ画像の
修正条件検出装置。14. The stereo image correction condition detection device according to claim 13, wherein the corresponding point search unit sets the entire left and right images after image conversion to the left and right search images, and the evaluation value calculation unit sets the tilt angle in the left and right search images. Correction of a stereo image characterized in that the detection rate of the phase difference known point is obtained for each tilt angle candidate condition for a long-distance phase difference with a large deviation amount and the detection rate is used as an evaluation value of the tilt angle candidate condition. Condition detection device.
条件検出装置において、 画像変換後の左右画像上に垂直方向に分散させた複数個
の着目領域から、左右着目領域画像を順次に切り出す領
域切出し部を備え、 対応点探索部は、左右着目領域画像を左右探索画像と
し、 評価値算出部は、左右探索画像においてチルト角のずれ
量が大となる遠距離位相差につきチルト角候補条件が同
じ各左右探索画像毎に位相差判明点の検出率を求めチル
ト角候補条件が同じ左右探索画像について求めた検出率
の平均値を当該チルト角候補条件の評価値とすることを
特徴とするステレオ画像の修正条件検出装置。15. The stereo image correction condition detecting device according to claim 13, wherein the left and right attention area images are sequentially cut out from a plurality of attention areas vertically dispersed on the left and right images after image conversion. The corresponding point search unit uses the left and right target area images as the left and right search images, and the evaluation value calculation unit has the same tilt angle candidate condition for the long-distance phase difference in which the shift amount of the tilt angle is large in the left and right search images. A stereo image characterized in that the detection rate of the phase difference determination point is obtained for each of the left and right search images, and the average value of the detection rates obtained for the left and right search images having the same tilt angle candidate condition is used as the evaluation value of the tilt angle candidate condition. Correction condition detection device.
条件検出装置において、 画像変換後の左右画像上に垂直方向に分散させた複数個
の着目領域から、左右着目領域画像を順次に切り出す領
域切出し部を備え、 対応点探索部は、左右着目領域画像を左右探索画像と
し、 評価値算出部は、左右探索画像においてチルト角のずれ
量が大となる遠距離位相差につきチルト角候補条件が同
じ各左右探索画像毎に位相差判明点の検出率を求めチル
ト角候補条件が同じ左右探索画像について求めた検出率
のうち上位から順次に所定個数の検出率を選択し当該選
択により得た検出率の平均値を当該チルト角候補条件の
評価値とすることを特徴とするステレオ画像の修正条件
検出装置。16. The stereo image correction condition detection device according to claim 13, wherein the left and right attention area images are sequentially cut out from a plurality of attention areas vertically dispersed on the left and right images after image conversion. The corresponding point search unit uses the left and right focus area images as the left and right search images, and the evaluation value calculation unit has the same tilt angle candidate condition for the long-distance phase difference in which the tilt angle shift amount is large in the left and right search images. The detection rate of the phase difference determination point is calculated for each of the left and right search images.A predetermined number of detection rates are sequentially selected from the higher order among the detection rates obtained for the left and right search images with the same tilt angle candidate condition, and the detection rate obtained by the selection is calculated. A correction condition detection device for a stereo image, wherein an average value of the above is used as an evaluation value of the tilt angle candidate condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31239695A JP3265171B2 (en) | 1995-11-30 | 1995-11-30 | Stereo image correction condition detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31239695A JP3265171B2 (en) | 1995-11-30 | 1995-11-30 | Stereo image correction condition detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09153148A true JPH09153148A (en) | 1997-06-10 |
JP3265171B2 JP3265171B2 (en) | 2002-03-11 |
Family
ID=18028748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31239695A Expired - Fee Related JP3265171B2 (en) | 1995-11-30 | 1995-11-30 | Stereo image correction condition detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3265171B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101142279B1 (en) * | 2010-10-20 | 2012-05-07 | 주식회사 아이닉스 | An apparatus for aligning images in stereo vision system and the method thereof |
JP2017040549A (en) * | 2015-08-19 | 2017-02-23 | シャープ株式会社 | Image processing device and error determination method |
-
1995
- 1995-11-30 JP JP31239695A patent/JP3265171B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101142279B1 (en) * | 2010-10-20 | 2012-05-07 | 주식회사 아이닉스 | An apparatus for aligning images in stereo vision system and the method thereof |
JP2017040549A (en) * | 2015-08-19 | 2017-02-23 | シャープ株式会社 | Image processing device and error determination method |
Also Published As
Publication number | Publication date |
---|---|
JP3265171B2 (en) | 2002-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7436430B2 (en) | Obstacle detection apparatus and method | |
US8427488B2 (en) | Parallax image generating apparatus | |
US7471809B2 (en) | Method, apparatus, and program for processing stereo image | |
EP1343332A2 (en) | Stereoscopic image characteristics examination system | |
US20030035098A1 (en) | Pose estimation method and apparatus | |
JPH08294143A (en) | Method for corresponding between images and inter-image parallax measurement method | |
JP3448868B2 (en) | Image coincidence detecting device and image coincidence detecting method | |
CN111480183A (en) | Light field image rendering method and system for generating perspective effect | |
JP4296617B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP3066173B2 (en) | Pattern matching method | |
JPH07103734A (en) | Apparatus for searching stereocorrespondence | |
US20020012452A1 (en) | Method, system and apparatus | |
JPH05215547A (en) | Method for determining corresponding points between stereo images | |
JP3265171B2 (en) | Stereo image correction condition detection device | |
JP2981382B2 (en) | Pattern matching method | |
JPH10187972A (en) | Discriminating method for light source color | |
JPH11190611A (en) | Three-dimensional measuring method and three-dimensional measuring processor using this method | |
JPH0688706A (en) | Method for determining positions of observing point and object point | |
CN106485731B (en) | A kind of picture position method for registering based on improvement Hough transformation | |
JPH06168331A (en) | Patter matching method | |
CN116612007B (en) | Method and device for splicing sub-apertures on surface of optical element | |
JPH10283478A (en) | Method for extracting feature and and device for recognizing object using the same method | |
JP2516844B2 (en) | Parts detection method and device | |
JP2006047252A (en) | Image processing unit | |
US20240257490A1 (en) | Focal position estimation method, focal position estimation system, model generation method, model generation system, focal position estimation model, and non-transitory computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20011218 |
|
LAPS | Cancellation because of no payment of annual fees |