JP2006047252A - Image processing unit - Google Patents

Image processing unit Download PDF

Info

Publication number
JP2006047252A
JP2006047252A JP2004232394A JP2004232394A JP2006047252A JP 2006047252 A JP2006047252 A JP 2006047252A JP 2004232394 A JP2004232394 A JP 2004232394A JP 2004232394 A JP2004232394 A JP 2004232394A JP 2006047252 A JP2006047252 A JP 2006047252A
Authority
JP
Japan
Prior art keywords
matching
image
image processing
value
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004232394A
Other languages
Japanese (ja)
Inventor
Motoya Ogawa
原也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2004232394A priority Critical patent/JP2006047252A/en
Priority to US11/198,035 priority patent/US7697749B2/en
Publication of JP2006047252A publication Critical patent/JP2006047252A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enhance precision for evaluation reliability in misdetection of correspondence point with respect to matching processing. <P>SOLUTION: A plurality of images Gb, Gc are picked up by an imaging part 2, comprising one or a plurality of cameras 9, 10, the matching processing for the images Gb, Gc is carried out in a stereo-processing part 5, one or a plurality of feature amounts are extracted from the images Gb, Gc by a determination part 11 of a parallex correction part 7, reliability of matching processings for the plurality of images by the stereo-processing part 5 is evaluated based on the one or a plurality of feature amounts, and mismatchings generated in the matching processing are corrected by a subsequent correction part 12, based on the evaluation information from the determination part 11. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置に係り、特にマッチング処理が施された複数の画像から抽出された複数の特徴量に基づいて誤対応点の検出精度及びマッチング処理に対する信頼性評価の精度の向上を図ることが可能な画像処理装置に関する。   The present invention relates to an image processing apparatus, and in particular, to improve the accuracy of detection of erroneous corresponding points and the accuracy of reliability evaluation for matching processing based on a plurality of feature amounts extracted from a plurality of images subjected to matching processing. The present invention relates to an image processing apparatus that can

近年、3次元形状情報を得るための画像計測装置として、障害物検出装置や、高度計測装置が開発されており、自動車又はヘリコプタ等の移動体に搭載されている。これらの装置には、2台のカメラを用いるステレオ画像法が利用されており、三角測量の原理により、ステレオ撮像した1組の画像を処理して3次元の距離情報を求め、求めた距離情報に基づいて自己位置認識を行うようになっている。   In recent years, an obstacle detection device and an altitude measurement device have been developed as image measurement devices for obtaining three-dimensional shape information, and are mounted on a moving body such as an automobile or a helicopter. These apparatuses use a stereo image method using two cameras, and by using a triangulation principle, a set of stereo images is processed to obtain three-dimensional distance information, and the obtained distance information is obtained. Based on this, self-position recognition is performed.

上記したステレオ画像法は、複数のカメラを用いて2つ以上の異なる視線方向から同一対象物を撮像し、得られた複数の画像における画像同士を対応付ける、すなわち対応点付け(以下、マッチング処理)を行うことによって3次元空間における計測対象物の位置を求める画像処理方法であり、その際に利用される代表的なマッチングの手法には、Pixel−besedマッチング法、Area−basedマッチング法、Feature−based法が挙げられ、なかでもArea−basedマッチング法は、高精度で、対象物の3次元形状を画素毎に求めることに有効な手法として広く利用されている。   In the stereo image method described above, the same object is imaged from two or more different gaze directions using a plurality of cameras, and the images in the obtained plurality of images are associated with each other, that is, corresponding points (hereinafter referred to as matching processing). Is an image processing method for obtaining the position of a measurement object in a three-dimensional space. Typical matching methods used in this case include a pixel-based matching method, an area-based matching method, and a feature- The based-based matching method is widely used, and the Area-based matching method is widely used as a method that is highly accurate and effective for obtaining the three-dimensional shape of the object for each pixel.

Area−basedマッチング法とは、一の画像における点と対応する点を、他の画像で探索する際に、一のカメラ(以下、基準カメラ)で撮像された画像(以下、基準画像Gb)において、ある局所的なウィンドウを設定し、これをテンプレートとして他のカメラ(以下、比較カメラ)で撮像された画像(以下、比較画像Gc)の上で位置を変えながら設定された探索範囲内においてマッチング処理を行う方法であり、具体的には、図8に示すように、基準カメラの焦点Ob、比較カメラの焦点Oc及び観測点Pから構成される平面と、基準画像Gbの画像面及び比較画像Gcの画像面が直交する直線(以下、エピポーラ・ラインE)の線上に沿って、一画素ずつずらしながら走査させて、設定された探索範囲内において対応する画素(以下、対応点)を探索し、SAD(差分絶対値和)、SSD(差分2乗和)、正規化相関等の評価式の最小点又は最大点を検出することにより、各画像における対応点の決定を行っている。また、これら対応点が真の正解であるか否かの判定が、抽出された評価関数の解析値、周辺領域との関連性等の特徴量に基づいて、閾値処理や、フィルタリング処理によって行われ、処理結果から誤った対応点付け(以下、ミスマッチング)が発生していると判定された場合には、補正処理を行うことによりミスマッチングを抑制している。   In the area-based matching method, when a point corresponding to a point in one image is searched for in another image, an image (hereinafter referred to as a reference image Gb) captured by one camera (hereinafter referred to as a reference camera) is used. Set a certain local window and use this as a template to match within the search range set while changing the position on an image (hereinafter referred to as comparative image Gc) captured by another camera (hereinafter referred to as comparative camera) Specifically, as shown in FIG. 8, a plane composed of the focus Ob of the reference camera, the focus Oc of the comparison camera, and the observation point P, the image plane of the reference image Gb, and the comparison image, as shown in FIG. Scanning is performed while shifting one pixel at a time along a straight line (hereinafter referred to as epipolar line E) in which the image plane of Gc is orthogonal, and the corresponding pixel within the set search range ( (Corresponding points) and searching for the minimum or maximum points of the evaluation formulas such as SAD (sum of absolute differences), SSD (sum of squared differences), normalized correlation, etc. Making a decision. In addition, the determination as to whether or not these corresponding points are true correct is performed by threshold processing or filtering processing based on the analysis value of the extracted evaluation function, the feature amount such as the relevance to the surrounding area, and the like. When it is determined from the processing result that an incorrect corresponding score (hereinafter referred to as “mismatching”) has occurred, the mismatching is suppressed by performing a correction process.

しかし、上述したArea−basedマッチング法によるステレオ画像法を利用した場合でも、ミスマッチングを完全に解消することが困難であり、対応策の一つとして開発された3台以上のカメラを用いて3枚以上の画像を用いてマッチング処理を行うマルチベースラインステレオ画像装置を使用することで、ミスマッチングの発生を抑制することができる。しかしながら、装置の構成が複雑になると共に、マッチング処理の際に取り扱われる画像の数が増加し、処理工程が増加するという問題が生じていた。   However, even when the stereo image method based on the above-described Area-based matching method is used, it is difficult to completely eliminate the mismatching, and 3 or more cameras that are developed as one of the countermeasures are used. The occurrence of mismatching can be suppressed by using a multi-baseline stereo image device that performs a matching process using two or more images. However, the configuration of the apparatus becomes complicated, and the number of images handled in the matching process increases, resulting in an increase in processing steps.

そこで、ステレオ画像法におけるミスマッチングの抑制を図ることが可能な画像処理装置として、異なる視点から計測対象画像を撮り込んで画像間のマッチング処理を行う距離画像生成において、距離画像生成における画像間対応付け処理に適用するテンプレートのサイズを可変とすると共に、変化率、行列固有値、分散値等の特徴量を算出し、閾値と比較することによって、テンプレート画像の評価を行うことにより、同一又は類似したパターンの出現を低減させた状態でマッチング処理を行う画像処理装置が開発されている(例えば、特許文献1参照)。   Therefore, as an image processing device capable of suppressing mismatching in the stereo image method, in the distance image generation in which the measurement target images are captured from different viewpoints and the matching processing between the images is performed, the inter-image correspondence in the distance image generation The template size to be applied to the attaching process is made variable, and feature values such as rate of change, matrix eigenvalue, variance value, etc. are calculated and compared with a threshold value. An image processing apparatus that performs matching processing in a state where the appearance of a pattern is reduced has been developed (see, for example, Patent Document 1).

また、ミスマッチングによる誤対応点を除去し、適切に補正することが可能な画像処理装置として、多数決フィルタ手段により、記憶された3次元画像情報の中から注目する小領域を中心とした小領域群を抽出し、予め設定した条件に基づいて小領域群の各小領域のアドレス及び視差に応じた加算度数を設定し、視差毎に加算度数を加算処理することで最大度数視差を抽出し、この最大度数視差に応じて注目する小領域の視差の補正を行う画像処理装置が開発されている(例えば、特許文献2参照)。
特開2001−194126号公報 特開平11−248446号公報
In addition, as an image processing apparatus capable of removing an erroneous correspondence point due to mismatching and correcting appropriately, a small area centered on a small area of interest from among stored three-dimensional image information by majority filtering means Extract a group, set the addition frequency according to the address and parallax of each small area of the small area group based on preset conditions, extract the maximum frequency parallax by adding the addition power for each parallax, An image processing apparatus that corrects the parallax of a small region of interest in accordance with the maximum power parallax has been developed (see, for example, Patent Document 2).
JP 2001-194126 A Japanese Patent Laid-Open No. 11-248446

しかしながら、上述した画像処理装置の場合、評価関数の解析値、輝度値の分散等、個々の特徴量のみに基づいて誤対応点の検出及びマッチング処理に対する信頼性評価を行っているため、濃淡、形状、色彩等の特徴が殆どない対象物や、同一又は類似したパターンが連続して存在する対象物に対してマッチング処理を行う場合には、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度とが低下してしまうという問題が生じている。   However, in the case of the above-described image processing apparatus, since the evaluation of reliability of the miscorresponding point and the matching process is performed based only on individual feature amounts such as the analysis value of the evaluation function, the variance of the luminance value, etc., When matching processing is performed on an object that has almost no features such as shape and color, or on an object that has the same or similar pattern in succession, the detection accuracy of the miscorresponding point and the reliability of the matching process There is a problem that the accuracy of evaluation is lowered.

また、これら精度の低い検出結果及び信頼性評価に基づいて後続の補正処理を行うことにより、算出される3次元画像情報の計測精度が低下してしまうという問題が生じている。   Further, there is a problem that the measurement accuracy of the calculated three-dimensional image information is lowered by performing the subsequent correction process based on the detection result and the reliability evaluation with low accuracy.

本発明は前記した点に鑑みてなされたものであり、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度とを向上させることにより、検出結果及び信頼性評価に基づいて行われる後続の補正処理によって算出される3次元画像情報の計測精度の向上を図ることが可能なステレオ画像処理装置を提供することを目的とする。   The present invention has been made in view of the above-described points, and the subsequent processing performed based on the detection result and the reliability evaluation by improving the accuracy of detecting the miscorresponding point and the accuracy of the reliability evaluation for the matching process. An object of the present invention is to provide a stereo image processing apparatus capable of improving the measurement accuracy of the three-dimensional image information calculated by the correction process.

以上の課題を解決するために、請求項1に記載の発明に係る画像処理装置は、
複数の画像を撮像する一又は複数のカメラからなる撮像部と、
前記複数の画像に対してマッチング処理を行うステレオ処理部とを具備する画像処理装置において、
マッチング処理が施された複数の画像から一又は複数の特徴量を抽出する判定要素抽出部と、
抽出された前記特徴量に基づいて前記マッチング処理の信頼性評価を行う判定部及び前記判定部による評価情報に基づいて前記マッチング処理の際に生じる誤対応を補正する補正部を備えた視差補正部とを具備することを特徴とする。
In order to solve the above problems, an image processing apparatus according to the invention described in claim 1 includes:
An imaging unit composed of one or more cameras that capture a plurality of images;
In an image processing apparatus comprising a stereo processing unit that performs matching processing on the plurality of images,
A determination element extraction unit that extracts one or a plurality of feature amounts from a plurality of images subjected to matching processing;
A parallax correction unit including a determination unit that performs reliability evaluation of the matching process based on the extracted feature amount, and a correction unit that corrects an erroneous response that occurs during the matching process based on evaluation information by the determination unit It is characterized by comprising.

請求項1に記載の発明によれば、ステレオ処理部による複数の画像に対するマッチング処理の信頼性評価を、複数の特徴量に基づいて判定するので、一の特徴量による判定が不可能又は判定結果が曖昧な計測対象物であっても、正確な誤対応点の検出及びマッチング処理に対する信頼性評価を行うことができる。   According to the first aspect of the present invention, since the reliability evaluation of the matching processing for the plurality of images by the stereo processing unit is determined based on the plurality of feature amounts, the determination by one feature amount is impossible or the determination result Even if the measurement object is ambiguous, it is possible to accurately detect the miscorresponding points and evaluate the reliability of the matching process.

請求項2に記載の発明に係る画像処理装置は、前記判定部が、前記ステレオ処理部による複数の画像に対するマッチング処理の信頼性評価を行うニューラルネットを用いて構成されていることを特徴とする。   An image processing apparatus according to a second aspect of the invention is characterized in that the determination unit is configured using a neural network that performs reliability evaluation of matching processing on a plurality of images by the stereo processing unit. .

請求項2に記載の発明によれば、判定部はニューラルネットを用いて構成されているので、入力される特徴量が多い場合であっても、短い処理時間で信頼性評価を行うことができる。   According to the second aspect of the present invention, since the determination unit is configured using a neural network, it is possible to perform reliability evaluation in a short processing time even when a large amount of feature is input. .

請求項3に記載の発明に係る画像処理装置は、前記特徴量が、マッチング処理に用いられる評価関数の解析結果、画素領域の独創性を示す要素又は周辺画素領域との関連性を示す要素のうち少なくとも1つを含むことを特徴とする。   In the image processing apparatus according to the third aspect of the present invention, the feature amount is an analysis result of an evaluation function used for matching processing, an element indicating originality of a pixel area, or an element indicating relevance to a surrounding pixel area. It includes at least one of them.

請求項3に記載の発明によれば、複数の種類の特徴量が入力された判定部において前記マッチング処理に対する信頼性評価を行うので、一の特徴量による判定が不可能又は判定結果が曖昧な計測対象物であっても、他の特徴量を組み合わせることで、正確な誤対応点の検出及びマッチング処理に対する信頼性評価を行うことができる。   According to the third aspect of the present invention, since the reliability evaluation for the matching process is performed in the determination unit to which a plurality of types of feature amounts are input, determination using one feature amount is impossible or the determination result is ambiguous. Even a measurement object can be combined with other feature quantities to perform accurate miscorresponding point detection and reliability evaluation for matching processing.

請求項4に記載の発明に係る画像処理装置は、前記マッチング処理に用いられる評価関数の解析結果が、評価関数の値又は評価関数の形状を示す要素のうち少なくとも1つを含むことを特徴とする。   The image processing apparatus according to claim 4 is characterized in that an analysis result of an evaluation function used in the matching process includes at least one of an element indicating a value of an evaluation function or a shape of the evaluation function. To do.

請求項4に記載の発明によれば、従来別個に入力されていた評価関数の値と、評価関数の形状を示す要素とが共に入力されることで、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度の向上を図ることができる。   According to the invention described in claim 4, the value of the evaluation function that has been separately input and the element indicating the shape of the evaluation function are input together, so that the detection accuracy of the miscorresponding point and the matching process are performed. Therefore, it is possible to improve the accuracy of reliability evaluation.

請求項5に記載の発明に係る画像処理装置は、前記評価関数の形状を示す要素が、極小点の数、最小点を含む谷の幅寸法又は最小点を含む谷の鋭角度のうち少なくとも1つを含むことを特徴とする。   According to a fifth aspect of the present invention, in the image processing apparatus according to the fifth aspect, the element indicating the shape of the evaluation function is at least one of the number of local minimum points, the width of the valley including the minimum point, or the acute angle of the valley including the minimum point. It is characterized by including one.

請求項5に記載の発明によれば、評価関数の形状を示す要素として、極小点の数、最小点を含む谷の幅寸法及び最小点を含む谷の鋭角度が新たに追加されたことで、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度の向上を図ることができる。   According to the invention described in claim 5, as the element indicating the shape of the evaluation function, the number of local minimum points, the width dimension of the valley including the minimum point, and the acute angle of the valley including the minimum point are newly added. Thus, it is possible to improve the accuracy of detection of erroneous corresponding points and the accuracy of reliability evaluation for matching processing.

請求項6に記載の発明に係る画像処理装置は、前記画素領域の独創性を示す要素が、画素領域におけるエピポーラ・ラインに沿った方向への差分の絶対値が所定の値を超える画素の数、画素領域におけるエピポーラ・ラインに沿った方向への差分の絶対値の平均又は画素領域における輝度値の分散のうち少なくとも1つを含むことを特徴とする。   The image processing apparatus according to claim 6, wherein the element indicating the originality of the pixel region is a number of pixels in which an absolute value of a difference in a direction along the epipolar line in the pixel region exceeds a predetermined value. And at least one of an average of absolute values of differences in a direction along the epipolar line in the pixel region and a variance of luminance values in the pixel region.

請求項6に記載の発明によれば、従来使用されていた画素領域における輝度値の分散の他に、画素領域におけるエピポーラ・ラインに沿った方向への差分の絶対値が所定の値を超える画素の数と、画素領域におけるエピポーラ・ラインに沿った方向への差分の絶対値の平均とが新たな要素として追加されたことで、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度の向上を図ることができる。   According to the invention described in claim 6, in addition to the dispersion of the luminance value in the pixel area that has been conventionally used, the pixel whose absolute value of the difference in the direction along the epipolar line in the pixel area exceeds a predetermined value And the average of the absolute value of the difference in the direction along the epipolar line in the pixel area are added as new elements, so that the detection accuracy of miscorresponding points and the accuracy of reliability evaluation for matching processing are added. Can be improved.

請求項7に記載の発明に係る画像処理装置は、前記周辺画素領域との関連性を示す要素が、自己マッチング処理における評価関数の値が所定の値を下回る画素領域の数、極小点の数、最小点を含む谷の幅寸法、最小点を含む谷の鋭角度又は任意に選択した一の画素領域の近傍において同一の視差を出力する画素領域の数のうち少なくとも1つを含むことを特徴とする。   In the image processing apparatus according to claim 7, the number of pixel regions and the number of local minimum points whose elements indicating the relationship with the surrounding pixel regions are less than a predetermined value of the evaluation function in the self-matching process. , Including at least one of the width dimension of the valley including the minimum point, the acute angle of the valley including the minimum point, or the number of pixel regions outputting the same parallax in the vicinity of one arbitrarily selected pixel region. And

請求項7に記載の発明によれば、従来使用されていた自己マッチング処理における任意に選択した一の画素領域の近傍において同一の視差を出力するブロックの数の他に、自己マッチング処理における評価関数の値が所定の値を下回るブロックの数、極小点の数、最小点を含む谷の幅寸法及び最小点を含む谷の鋭角度が新たな要素として追加されたことで、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度の向上を図ることができる。   According to the seventh aspect of the present invention, in addition to the number of blocks that output the same parallax in the vicinity of one arbitrarily selected pixel area in the conventionally used self-matching process, the evaluation function in the self-matching process is used. The number of blocks whose value is less than the specified value, the number of local minimum points, the width of the valley including the minimum point, and the acute angle of the valley including the minimum point are added as new elements, and detection of miscorresponding points The accuracy and the accuracy of the reliability evaluation for the matching process can be improved.

本発明によれば、複数の画像を撮像する一又は複数のカメラからなる撮像部と、撮像部で撮像された複数の画像に対してマッチング処理を行うステレオ処理部とを具備する画像処理装置において、マッチング処理が施された複数の画像から一又は複数の特徴量を抽出する判定要素抽出部と、抽出された特徴量に基づいてマッチング処理の信頼性評価を行う判定部及び前記判定部による評価情報に基づいてマッチング処理の際に生じる誤対応を補正する補正部を備えた視差補正部とを具備するので、一の特徴量による判定が不可能又は判定結果が曖昧な場合であっても、複数の特徴量に基づいて判定することにより、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度の向上を図ることが可能となり、これによって、これら検出結果及び信頼性評価に基づいて行われる後続の補正処理によって算出される3次元画像情報の計測精度の向上を図ることができる。   According to the present invention, in an image processing apparatus including an imaging unit including one or a plurality of cameras that capture a plurality of images, and a stereo processing unit that performs a matching process on the plurality of images captured by the imaging unit. A determination element extraction unit that extracts one or a plurality of feature amounts from a plurality of images subjected to matching processing, a determination unit that performs reliability evaluation of matching processing based on the extracted feature amounts, and an evaluation by the determination unit Since it includes a parallax correction unit that includes a correction unit that corrects miscorrespondence that occurs during matching processing based on information, even if determination by one feature amount is impossible or the determination result is ambiguous, By making a determination based on a plurality of feature amounts, it is possible to improve the accuracy of detection of miscorresponding points and the accuracy of reliability evaluation for matching processing. It is possible to improve the measurement accuracy of the three-dimensional image information calculated by the subsequent correction process is performed based on the results and reliability evaluation.

以下、本発明を実施するための最良の形態について図面を用いて説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、発明の範囲を以下の実施形態及び図示例に限定するものではない。
図1から図7を参照しながら、本発明に係る画像処理装置について説明する。
図1に示すように、本実施形態における画像処理装置1は、撮像部2と、画像入力部3と、元画像メモリ4と、ステレオ処理部5と、判定要素抽出部6と、視差補正部7と、距離画像メモリ8とを備えて構成されている。
The best mode for carrying out the present invention will be described below with reference to the drawings. However, although various technically preferable limitations for implementing the present invention are given to the embodiments described below, the scope of the invention is not limited to the following embodiments and illustrated examples.
The image processing apparatus according to the present invention will be described with reference to FIGS.
As shown in FIG. 1, the image processing apparatus 1 according to the present embodiment includes an imaging unit 2, an image input unit 3, an original image memory 4, a stereo processing unit 5, a determination element extraction unit 6, and a parallax correction unit. 7 and a distance image memory 8.

撮像部2は、2台のカメラ9,10を備えて構成され、これらのカメラ9,10は、互いに同期が取れ、かつ、シャッタースピードが可変なカメラであり、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等のイメージセンサが内蔵されている。このうち一方のカメラ(以下、基準カメラ9)は、ステレオ処理の際の基準画像Gbを、他方のカメラ(以下、比較カメラ10)は、ステレオ処理の際の比較画像Gcを撮像するようになっており、各カメラ9,10は、所定の基線長で互いの撮像面垂直軸が平行となるよう配置されている。   The imaging unit 2 includes two cameras 9 and 10, and these cameras 9 and 10 are cameras that can be synchronized with each other and have a variable shutter speed, a CCD (Charge Coupled Device) sensor, An image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) sensor is incorporated. One of these cameras (hereinafter referred to as reference camera 9) captures a reference image Gb during stereo processing, and the other camera (hereinafter referred to as comparison camera 10) captures a comparison image Gc during stereo processing. The cameras 9 and 10 are arranged so that the vertical axes of the imaging planes are parallel to each other with a predetermined baseline length.

画像入力部3は、撮像部2から送信されたアナログ撮像信号に対応して、ゲインコントロールアンプを有するアナログインターフェース(図示せず)と、画像の明暗部に対して対数変換を行うログ変換テーブル(図示せず)と、アナログ画像データをデジタル画像に変換するA/Dコンバータ(図示せず)と、輝度の補正及び画像の幾何学的な変換を行う補正回路(図示せず)とを備えて構成されている。このような画像入力部3では、撮像部2から送信された各撮像信号を、アナログインターフェースにおけるゲインコントロールアンプによりアナログ画像信号の明るさバランスが揃えられた後、ログ変換により低輝度部分のコントラストを改善する等の画像補正が行われ、さらに、A/Dコンバータにより所定の輝度階調、例えば256階調のグレースケールのデジタル画像データに変換され、最後に、補正回路による画像の回転又は平行移動等の幾何学的な変換、いわゆるアフィン変換によりカメラの取り付け位置に起因した基準画像Gbと比較画像Gcとの間のズレが補正されるようになっている。   The image input unit 3 corresponds to the analog imaging signal transmitted from the imaging unit 2 and an analog interface (not shown) having a gain control amplifier, and a log conversion table (logarithmic conversion is performed on the light and dark part of the image). (Not shown), an A / D converter (not shown) for converting analog image data into a digital image, and a correction circuit (not shown) for correcting brightness and geometrically converting the image. It is configured. In such an image input unit 3, the brightness balance of the analog image signal is adjusted for each imaging signal transmitted from the imaging unit 2 by the gain control amplifier in the analog interface, and then the contrast of the low-brightness portion is obtained by log conversion. Image correction such as improvement is performed, and further, it is converted into digital image data of a predetermined luminance gradation, for example, 256 gradation gray scale by the A / D converter, and finally the image is rotated or translated by the correction circuit. The deviation between the reference image Gb and the comparative image Gc due to the camera mounting position is corrected by geometrical transformation such as so-called affine transformation.

元画像メモリ4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリや、磁気ディスク、光ディスク等の記録媒体からなり、画像入力部3により変換されたデジタル画像データがストアされるようになっている。   The original image memory 4 includes a semiconductor memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), a recording medium such as a magnetic disk and an optical disk, and stores the digital image data converted by the image input unit 3. It has become so.

ステレオ処理部5は、シティブロック距離計算回路、最小・最大値検出回路及びずれ量決定回路を備えて構成されており、基準画像Gbと比較画像Gcとの間の相関を求めることにより、対応する画素が特定され、対象物までの距離に応じて生じる画素のずれ量(以下、視差X)に基づいて、対象物までの遠近情報が3次元画像情報(以下、距離画像)として数値化されるようになっている。
このうちシティブロック距離計算回路では、元画像メモリ4にストアされた基準画像Gb及び比較画像Gcの2枚の画像に対して、図2に示すように、各画像Gb,Gcにおける横5×縦5画素の画素領域(以下、マッチングブロック)毎にマッチング処理が行われ、基準画像Gbと比較画像Gcとの一致度の指標であるシティブロック距離Cは、評価関数であるSADの値として算出されるようになっている。また、最小・最大値検出回路では、算出されたシティブロック距離Cの最小値Cmin、最大値Cmax及び平均値Caveが検出され、後続のずれ量決定回路では、得られた最小値Cminが基準画像Gbと比較画像Gcとの一致を示すものであるか否かが検証されて、視差Xが決定されるようになっている。
The stereo processing unit 5 includes a city block distance calculation circuit, a minimum / maximum value detection circuit, and a shift amount determination circuit. The stereo processing unit 5 responds by obtaining a correlation between the reference image Gb and the comparison image Gc. A pixel is specified, and perspective information to the target is digitized as three-dimensional image information (hereinafter, distance image) based on a pixel shift amount (hereinafter, parallax X) that occurs according to the distance to the target. It is like that.
Among them, in the city block distance calculation circuit, as shown in FIG. 2, the horizontal 5 × vertical of each of the images Gb and Gc is applied to the two images of the reference image Gb and the comparison image Gc stored in the original image memory 4. A matching process is performed for each pixel area of 5 pixels (hereinafter referred to as a matching block), and a city block distance C, which is an index of the degree of coincidence between the reference image Gb and the comparison image Gc, is calculated as a value of SAD as an evaluation function. It has become so. The minimum / maximum value detection circuit detects the minimum value Cmin, maximum value Cmax, and average value Cave of the calculated city block distance C, and the subsequent shift amount determination circuit uses the obtained minimum value Cmin as the reference image. It is verified whether or not Gb and the comparison image Gc coincide with each other, and the parallax X is determined.

SADとは、下記式数1に示すように、基準画像Gb及び比較画像Gcにおける対応する画素の輝度値Ibi,j、Ici,jを差分した絶対値の総和のことであり、図3に示すように、SADによって算出されるシティブロック距離Cを縦軸、視差Xを横軸とする2次元座標上にSAD関数が求められ、基準画像Gbと比較画像Gcとの一致度、すなわちマッチング処理に対する信頼度が高いほどシティブロック距離Cは小さく、信頼度が低いほどシティブロック距離Cは大きくなる。 SAD is the sum of absolute values obtained by subtracting the luminance values Ib i, j and Ic i, j of corresponding pixels in the reference image Gb and the comparison image Gc, as shown in Equation 1 below. As shown, the SAD function is obtained on the two-dimensional coordinates with the city block distance C calculated by SAD as the vertical axis and the parallax X as the horizontal axis, and the degree of coincidence between the reference image Gb and the comparison image Gc, that is, matching The city block distance C is smaller as the processing reliability is higher, and the city block distance C is larger as the reliability is lower.

Figure 2006047252
ここで、Ibi,jは、基準画像Gbにおけるマッチングブロックの横i番目、縦j番目の画素の輝度値を、Ici,jは、比較画像Gcにおけるマッチングブロックの横i番目、縦j番目の画素の輝度値を示す。
Figure 2006047252
Here, Ib i, j is the luminance value of the i-th and j-th pixels of the matching block in the reference image Gb, and Ic i, j is the i-th and j-th columns of the matching block in the comparison image Gc. The luminance value of the pixel is shown.

また、ずれ量決定回路で行われる検証は、予め設定されたしきい値Ca又はCbに対して、シティブロック距離Cの最大値Cmax又は最小値Cminが、最大値≦Caと、最大値−最小値≧Cbとをそれぞれ満たすか否かにより行われ、さらに、基準画像Gbのマッチングブロックにおける横方向の隣接画素間の輝度差が、予め設定されたしきい値よりも大きいか否かによっても行われる。これら3つの条件を満たす場合には視差Xが出力され、満たさない場合には、データは採用されずに棄却される。   Further, the verification performed by the deviation amount determination circuit is such that the maximum value Cmax or the minimum value Cmin of the city block distance C is a maximum value ≦ Ca and a maximum value−minimum with respect to a preset threshold value Ca or Cb. Whether or not each of the values ≧ Cb is satisfied is satisfied, and further, whether or not the luminance difference between adjacent pixels in the horizontal direction in the matching block of the reference image Gb is larger than a preset threshold value. Is called. When these three conditions are satisfied, the parallax X is output, and when the conditions are not satisfied, the data is not adopted and rejected.

判定要素抽出部6は、マッチング処理に対する信頼性評価を行う際の判定基準となる特徴量が抽出されるようになっている。抽出される特徴量は、評価関数であるSADの解析結果と、マッチングブロックの独創性を示す要素と、周辺マッチングブロックとの関連性を示す要素と、計3つの要素に大別され、以下それぞれについて詳細に説明する。   The determination element extraction unit 6 is configured to extract a feature amount that is a determination criterion when performing reliability evaluation for the matching process. The extracted feature values are roughly divided into three elements, the analysis result of SAD, which is an evaluation function, the element indicating the originality of the matching block, and the element indicating the relationship with the surrounding matching block. Will be described in detail.

まず始めに、SADの解析結果について説明する。
SADの解析結果は、シティブロック距離Cの値と、SAD関数の形状に関する要素とに分けられる。このうち、シティブロック距離Cの値には、シティブロック距離Cの最小値Cminと、最大値Cmaxと、平均値Caveとが挙げられ、ステレオ処理部5におけるシティブロック距離計算回路によって算出される。
First, the analysis result of SAD will be described.
The analysis result of SAD is divided into a value of city block distance C and an element related to the shape of the SAD function. Among these, the value of the city block distance C includes a minimum value Cmin, a maximum value Cmax, and an average value Cave of the city block distance C, and is calculated by a city block distance calculation circuit in the stereo processing unit 5.

一方、SAD関数の形状に関する要素には、極小点の数と、最小点を含む谷の幅寸法W1と、最小点を含む谷の鋭角度とが挙げられる。
極小点の数とは、マッチングブロックにおける横i番目の画素のシティブロック距離をCi、SAD関数の平均値を閾値として、この閾値以下の点で、点iの近傍に存在するN個の点(N>2で固定値)に対して、Ci-N>Ci-(N-1)…>Ci、かつ、Ci+N>Ci+(N-1)…>Ciの条件を満たす点の数、すなわち谷の数のことである。
On the other hand, elements relating to the shape of the SAD function include the number of minimum points, the width W1 of the valley including the minimum point, and the acute angle of the valley including the minimum point.
The number of local minimum points is defined as N points (n) (n) near the point i, where Ci is the city block distance of the i-th horizontal pixel in the matching block and the average value of the SAD function is a threshold value. against N> fixed value 2), C iN> C i- (N-1) ...> C i and, satisfying point C i + N> C i + (N-1) ...> C i Is the number of valleys, that is, the number of valleys.

最小点を含む谷の幅寸法W1とは、極小点に対する左近傍方向についてk×Ci-n>Ci-n-1が成立する最小のnと、右近傍方向についてk×Ci+m>Ci+m+1が成立する最小のmとを加算したn+mのことであり、対象物に連続した階調の変化、いわゆるグラデーションが緩やかなほど谷の幅寸法W1は大きく、急であるほど小さい。ここで、kは定数であり、通常は1と設定されている。 The width dimension W1 of the valley including the minimum point is the minimum n that satisfies k × C in > C in-1 in the left vicinity direction with respect to the minimum point, and k × C i + m > C i + in the right vicinity direction. This is n + m obtained by adding the minimum m for which m + 1 holds, and the valley width dimension W1 is larger as the gradation change continuous to the object, the so-called gradation is gentler, and smaller as it is steeper. Here, k is a constant and is normally set to 1.

最小点を含む谷の鋭角度は、2種類の方法により算出され、一つは、上記した最小点を含む谷の幅寸法W1の両端におけるシティブロック距離Cの平均値と、最小点におけるシティブロック距離Cの値との差分を、最小点を含む谷の幅寸法W1で割って算出する方法であり、谷全体の鋭角度を検出することができる。もう一つは、下記式数2に示すように、最小点を含む谷の両隣におけるシティブロック距離Cの値の差分を平均して算出する方法であり、近傍の鋭角度を検出することができる。これら谷の鋭角度は、グラデーションが緩やかなほど谷の鋭角度は小さく、グラデーションが急であるほど谷の鋭角度は大きくなる。   The acute angle of the valley including the minimum point is calculated by two types of methods. One is the average value of the city block distances C at both ends of the width dimension W1 of the valley including the minimum point and the city block at the minimum point. This is a method of calculating by dividing the difference from the value of the distance C by the width dimension W1 of the valley including the minimum point, and the acute angle of the entire valley can be detected. The other is a method of calculating the average of the difference between the values of the city block distance C on both sides of the valley including the minimum point as shown in the following formula 2, and can detect the acute angle of the neighborhood. . The sharp angle of these valleys is such that the gentler the gradation, the smaller the acute angle of the valley, and the sharper the gradation, the larger the acute angle of the valley.

Figure 2006047252
Figure 2006047252

次に、マッチングブロックの独創性を示す要素について説明する。
マッチングブロックの独創性を示す要素として、マッチングブロックにおけるエピポーラ・ラインEに沿った方向への差分の絶対値が所定の値を超える画素の数と、マッチングブロックにおけるエピポーラ・ラインEに沿った方向への差分の絶対値の平均値と、マッチングブロックにおける輝度値の分散とが挙げられる。
Next, the element which shows the originality of a matching block is demonstrated.
As elements indicating the originality of the matching block, the number of pixels in which the absolute value of the difference in the direction along the epipolar line E in the matching block exceeds a predetermined value and the direction along the epipolar line E in the matching block Average value of the absolute value of the difference between them and variance of the luminance value in the matching block.

マッチングブロックにおけるエピポーラ・ラインEに沿った方向への差分の絶対値Di,jは、下記式数3により算出され、算出された差分の絶対値Di,jが所定の値を超える画素の数を特徴量とする。 Absolute value D i of the difference in the direction along the epipolar line E in the matching block, j is calculated by the following equation number 3, of the calculated difference absolute value D i, j is the pixel exceeds a predetermined value The number is a feature value.

Figure 2006047252
Figure 2006047252

また、上記した算出方法により求められたマッチングブロックにおけるエピポーラ・ラインEに沿った方向への差分の絶対値Di,jを、下記式数4により平均して、マッチングブロックにおけるエピポーラ・ラインEに沿った方向への差分の絶対値の平均Daveを特徴量とする。 In addition, the absolute value D i, j of the difference in the direction along the epipolar line E in the matching block obtained by the above-described calculation method is averaged by the following formula 4 to obtain the epipolar line E in the matching block. The average Dave of the absolute value of the difference in the direction along the direction is used as the feature amount.

Figure 2006047252
Figure 2006047252

さらに、上記したマッチングブロックにおけるエピポーラ・ラインEに沿った方向への差分の絶対値の平均Daveを利用して、下記式数5に示すマッチングブロックにおける輝度値の分散Vを特徴量とする。   Further, using the average Dave of the absolute values of the differences in the direction along the epipolar line E in the above-described matching block, the luminance value variance V in the matching block expressed by Equation 5 below is used as a feature amount.

Figure 2006047252
Figure 2006047252

最後に、周辺マッチングブロックとの関連性を示す要素について説明する。
周辺マッチングブロックとの関連性を示す要素として、自己マッチング処理において自ブロックと類似したブロックの数と、自己マッチング処理におけるSAD関数の平均値と、自己マッチング処理におけるSAD関数の形状に関する値と、自ブロックの周辺で同一の視差を出力したブロックの数とが挙げられる。
Finally, the element indicating the relevance with the peripheral matching block will be described.
As elements indicating the relationship with the peripheral matching block, the number of blocks similar to the own block in the self-matching process, the average value of the SAD function in the self-matching process, the value related to the shape of the SAD function in the self-matching process, And the number of blocks that output the same parallax around the block.

自己マッチング処理において自ブロックと類似したブロックの数とは、同一画像であって、任意に選択された横5×縦5画素のマッチングブロック(以下、自ブロック)をエピポーラ・ラインEに沿った方向に一ブロックずつずらしながら走査させて、この自ブロックと、エピポーラ・ラインEの線上に沿って存在するマッチングブロックとの間で行われる対応付け、いわゆる自己マッチング処理が行われ、シティブロック距離Csが算出される。このようにして算出されたシティブロック距離Csが所定の値を下回るブロックの数が、自己マッチング処理において自ブロックと類似したマッチングブロックの数であり、この数が多いほどマッチング処理に対する信頼度は低く、この数が少ないほど高くなる。   In the self-matching process, the number of blocks similar to the self-block is the same image, and an arbitrarily selected matching block (hereinafter referred to as self-block) of 5 × 5 pixels along the epipolar line E In this case, a scan is performed while shifting the block one block at a time, and an association, a so-called self-matching process, is performed between the own block and a matching block existing along the epipolar line E, and the city block distance Cs is Calculated. The number of blocks in which the city block distance Cs calculated in this way is less than a predetermined value is the number of matching blocks similar to the own block in the self-matching process, and the greater the number, the lower the reliability for the matching process. The smaller this number is, the higher it becomes.

自己マッチング処理により算出されるシティブロック距離Csとは、下記式数6に示すように、自ブロックの輝度値Si,jと、エピポーラ・ラインEの線上に沿って存在するマッチングブロックの輝度値Si+1,jとの差分の絶対値の総和により求められる。また、図4に示すように、算出された自己マッチング処理によるシティブロック距離Csを縦軸、エピポーラ・ラインEに沿った走査方向Yを横軸とする2次元の座標上にSAD関数のグラフが求められる。 The city block distance Cs calculated by the self-matching process is the brightness value S i, j of the own block and the brightness value of the matching block existing along the epipolar line E, as shown in the following equation (6). It is obtained from the sum of absolute values of differences from S i + 1, j . Also, as shown in FIG. 4, a graph of the SAD function is plotted on the two-dimensional coordinates with the vertical axis of the city block distance Cs calculated by the self-matching process and the horizontal axis of the scanning direction Y along the epipolar line E. Desired.

Figure 2006047252
ここで、Si,jは、図5に示すように、縦3×横3ブロックのマッチングブロック領域の縦i番目、横j番目のマッチングブロックの輝度値を、Si+1,jは、縦i+1番目、横j番目のマッチングブロックの輝度値を示す。
Figure 2006047252
Here, as shown in FIG. 5, S i, j is the luminance value of the i-th and j-th matching blocks in the matching block region of 3 × 3 blocks, and S i + 1, j is The luminance values of the i + 1th vertical and jth horizontal matching blocks are shown.

自己マッチング処理のシティブロック距離Csの平均値とは、自己マッチング処理により算出されたシティブロック距離Csを平均した値のことであり、この値が小さいほどマッチング処理に対する信頼度は低いことが多く、この値が大きいほど信頼度は高いことが多い。   The average value of the city block distance Cs of the self-matching process is a value obtained by averaging the city block distances Cs calculated by the self-matching process. The smaller the value, the lower the reliability for the matching process. The larger this value, the higher the reliability.

自己マッチング処理におけるSAD関数の形状に関する値には、極小点の数と、最小点を含む谷の幅寸法W2と、最小点を含む谷の鋭角度とが挙げられる。ここで、自己マッチング処理におけるSAD関数の最小点とは、自ブロックが存在する位置、いわゆる自己位置にあたり、シティブロック距離Csはゼロとなる。これらの値の算出方法は、上記した通常のマッチング処理におけるSAD関数の形状に関する値の算出方法と同一であり、マッチング処理に対する信頼度の判定基準も同一である。   Values relating to the shape of the SAD function in the self-matching process include the number of local minimum points, the width W2 of the valley including the minimum point, and the acute angle of the valley including the minimum point. Here, the minimum point of the SAD function in the self-matching process is a position where the own block exists, that is, a so-called self position, and the city block distance Cs is zero. The calculation method of these values is the same as the calculation method of the value related to the shape of the SAD function in the above-described normal matching process, and the reliability criterion for the matching process is also the same.

自ブロックの周辺で同一の視差を出力するブロックの数とは、図5に示すマッチングブロック領域における中心のマッチングブロックを自ブロックとした場合、自ブロックを囲繞する8つのマッチングブロックのうち、出力する視差が自ブロックの出力する視差と同一であるマッチングブロックの数のことであり、この数が多いほどマッチング処理に対する信頼度は高く、少ないほど信頼度は低い。   The number of blocks that output the same parallax around the own block is output from among the eight matching blocks surrounding the own block when the central matching block in the matching block area shown in FIG. This is the number of matching blocks in which the parallax is the same as the parallax output by the own block. The greater the number, the higher the reliability for the matching process, and the lower the reliability.

視差補正部7は、図6に示すように、誤対応点の検出及びマッチング処理に対する信頼性評価を行う判定部11と、判定部11による評価情報に基づいて補正処理を行う補正部12とを備えて構成されている。このうち判定部11は、図7に示すように、非線形の3層の階層型ニューラルネット13を用いて構成され、ステレオ処理部5の最小・最大値検出回路及び判定要素抽出部6から送信される特徴量に基づいて、マッチング処理の際に生じる誤対応点が検出されると共に、ステレオ処理部5によるマッチング処理が「高」、「中」、「低」の3段階の信頼度で判定され、例えば「低」と判定された場合には、後続の補正部12により補正処理が施されて、正確な距離画像が後続の距離画像メモリ8に送信され、ストアされるようになっている。   As shown in FIG. 6, the parallax correction unit 7 includes a determination unit 11 that performs detection of an erroneous correspondence point and reliability evaluation for matching processing, and a correction unit 12 that performs correction processing based on evaluation information from the determination unit 11. It is prepared for. Among these, the determination unit 11 is configured using a non-linear three-layer hierarchical neural network 13 as shown in FIG. 7, and is transmitted from the minimum / maximum value detection circuit and the determination element extraction unit 6 of the stereo processing unit 5. On the basis of the feature amount, a miscorresponding point generated in the matching process is detected, and the matching process by the stereo processing unit 5 is determined with three levels of reliability of “high”, “medium”, and “low”. For example, when it is determined as “low”, correction processing is performed by the subsequent correction unit 12, and an accurate distance image is transmitted to and stored in the subsequent distance image memory 8.

次に、本実施形態における画像処理装置の作用について説明する。
画像処理装置1の入力スイッチ(図示せず)を押すことで、撮像部2における2台のカメラ9,10により、アナログデータである基準画像Gb及び比較画像Gcがそれぞれ撮像され、画像入力部3に送信される。送信された基準画像Gb及び比較画像Gcは、画像入力部におけるアナログインターフェースにより明るさバランスが揃えられた後、ログ変換テーブルにより低輝度部分のコントラストを改善する等の画像補正処理が行われる。さらに、A/Dコンバータにより所定の輝度階調のデジタルデータに変換された後、補正回路によりアフィン変換が施され、元画像メモリ4に送信、ストアされる。
Next, the operation of the image processing apparatus in this embodiment will be described.
By pressing an input switch (not shown) of the image processing apparatus 1, the reference image Gb and the comparison image Gc that are analog data are respectively captured by the two cameras 9 and 10 in the imaging unit 2, and the image input unit 3. Sent to. The transmitted reference image Gb and comparison image Gc are subjected to image correction processing such as improving the contrast of the low-brightness portion using a log conversion table after the brightness balance is aligned by the analog interface in the image input unit. Further, after being converted into digital data of a predetermined luminance gradation by the A / D converter, affine transformation is performed by the correction circuit, which is transmitted and stored in the original image memory 4.

元画像メモリ4にストアされた基準画像Gb及び比較画像Gcは、ステレオ処理部5におけるシティブロック距離計算回路により、比較画像Gcに存在するエピポーラ・ラインEに沿った方向に一ブロックずつずらしながら走査されて、基準画像Gbにおける一の画素と、比較画像Gcにおいて対応する一の画素との間のシティブロック距離Cが算出される。さらに、最小・最大値検出回路により、算出されたシティブロック距離Cの最小値Cmin、最大値Cmax及び平均値Caveが検出され、後続のずれ量決定回路において最小値Cminが基準画像Gbと比較画像Gcとの一致を示すものであるか否かが検証されて視差Xが決定される。   The reference image Gb and the comparison image Gc stored in the original image memory 4 are scanned while being shifted one block at a time along the epipolar line E existing in the comparison image Gc by the city block distance calculation circuit in the stereo processing unit 5. Thus, the city block distance C between one pixel in the reference image Gb and one corresponding pixel in the comparison image Gc is calculated. Further, the minimum value Cmin, the maximum value Cmax and the average value Cave of the calculated city block distance C are detected by the minimum / maximum value detection circuit, and the minimum value Cmin is compared with the reference image Gb in the subsequent shift amount determination circuit. It is verified whether or not it is coincident with Gc, and the parallax X is determined.

このように決定された視差Xと、最小・最大値検出回路により検出されたシティブロック距離Cの最小値Cmin、最大値Cmax及び平均値Caveとが、視差補正部7に送信される。同時に、判定要素抽出部6により、特徴量であるSAD関数の形状に関する値と、マッチングブロックの独創性を示す要素と、周辺ブロックとの関連性を示す要素とが抽出され、視差補正部7に送信される。   The parallax X determined in this way and the minimum value Cmin, the maximum value Cmax, and the average value Cave of the city block distance C detected by the minimum / maximum value detection circuit are transmitted to the parallax correction unit 7. At the same time, the determination element extraction unit 6 extracts a value related to the shape of the SAD function, which is a feature amount, an element indicating the originality of the matching block, and an element indicating the relevance to the peripheral blocks, and the parallax correction unit 7 Sent.

視差補正部7では、判定部11において、これら特徴量に基づいて誤対応点が検出されると共に、マッチング処理に対する信頼性評価が行われる。これら誤対応点の検出結果及びマッチング処理の評価度は、後続の補正部12に送信され、評価度に応じて距離画像に対して補正処理が施されて、基準画像Gbの一の画素に対応する距離画像として距離画像メモリ8にストアされる。さらに、同様の作業を繰り返すことにより画像全体に渡る距離画像が算出され、距離画像メモリ8にストアされて、一連の画像処理作業が完了する。   In the parallax correction unit 7, the determination unit 11 detects a miscorresponding point based on these feature amounts, and performs reliability evaluation for the matching process. The detection result of these miscorresponding points and the evaluation degree of the matching process are transmitted to the subsequent correction unit 12, and the distance image is corrected according to the evaluation degree to correspond to one pixel of the reference image Gb. The distance image is stored in the distance image memory 8 as a distance image. Further, by repeating the same operation, a distance image over the entire image is calculated and stored in the distance image memory 8 to complete a series of image processing operations.

このとき、視差補正部7の判定部11による誤対応点の検出及びマッチング処理に対する信頼性評価は、ステレオ処理部5の最小・最大値検出回路及び判定要素抽出部6により抽出されたSADの解析結果、マッチングブロックの独創性及び周辺マッチングブロックとの関連性といった特徴量が、「正」若しくは「誤」の2値又は「正」、「誤」若しくは「どちらでもない」の3値で識別する識別器、すなわち、図7に示すような非線形の3層の階層型ニューラルネット13に入力され、入力された特徴量に基づいて誤対応点が検出され、マッチング処理に対する信頼度が「高」、「中」、「低」の3段階で判定される。信頼度が「高」と判定された場合には、補正部12において補正処理は行われず、「低」と判定された場合には、補正処理が行われる。一方、「中」と判定された場合には、例えば自ブロックの周辺に存在する信頼度が「高」であるマッチングブロックの情報に基づいて補正処理が行われ、画像全体に渡る正確な距離画像が算出される。   At this time, the reliability evaluation for the detection of the miscorresponding point by the determination unit 11 of the parallax correction unit 7 and the matching process is performed by analyzing the SAD extracted by the minimum / maximum value detection circuit of the stereo processing unit 5 and the determination element extraction unit 6. As a result, the feature quantity such as the originality of the matching block and the relevance to the surrounding matching block is identified by a binary value of “correct” or “false” or a ternary value of “correct”, “false” or “neither”. 7 is input to a discriminator, that is, a non-linear three-layer hierarchical neural network 13 as shown in FIG. 7, an erroneous correspondence point is detected based on the input feature amount, and the reliability for the matching process is “high”. Judgment is made in three stages, “medium” and “low”. When the reliability is determined to be “high”, the correction process is not performed in the correction unit 12, and when it is determined to be “low”, the correction process is performed. On the other hand, when it is determined as “medium”, for example, a correction process is performed based on information on matching blocks having a high reliability around the own block, and an accurate distance image over the entire image is obtained. Is calculated.

以上より、本実施形態における画像処理装置によれば、2枚の画像Gb,Gcを撮像する2台のカメラ9,10からなる撮像部2と、撮像部2で撮像された2枚の画像Gb,Gcに対してマッチング処理を行うステレオ処理部5とを具備する画像処理装置において、マッチング処理が施された2枚の画像Gb,Gcから複数の特徴量を抽出する判定要素抽出部6と、抽出された複数の特徴量に基づいてステレオ処理部5による複数の画像Gb,Gcに対するマッチング処理の信頼性評価を行う判定部11と、判定部11による評価情報に基づいてマッチング処理の際に生じる誤対応を補正する補正部12とを備えて構成された視差補正部を具備するので、一の特徴量による判定が不可能又は判定結果が曖昧な場合であっても、複数の特徴量に基づいて判定することにより、誤対応点の検出精度と、マッチング処理に対する信頼性評価の精度の向上を図ることが可能となり、これによって、これら検出結果及び信頼性評価に基づいて行われる後続の補正処理における計測精度の向上を図ることができる。   As described above, according to the image processing apparatus of the present embodiment, the imaging unit 2 including the two cameras 9 and 10 that capture the two images Gb and Gc, and the two images Gb captured by the imaging unit 2. , Gc, and a stereo processing unit 5 that performs matching processing on Gc, a determination element extraction unit 6 that extracts a plurality of feature amounts from the two images Gb and Gc that have been subjected to matching processing, A determination unit 11 that performs reliability evaluation of matching processing on a plurality of images Gb and Gc by the stereo processing unit 5 based on the extracted feature amounts, and a matching process that is performed based on evaluation information by the determination unit 11 And a parallax correction unit configured to include a correction unit 12 that corrects erroneous correspondence. Even when determination with one feature amount is impossible or the determination result is ambiguous, a plurality of feature amounts are included. Therefore, it is possible to improve the accuracy of detection of miscorresponding points and the accuracy of the reliability evaluation for the matching process, and thereby the subsequent correction performed based on the detection result and the reliability evaluation. Measurement accuracy in the processing can be improved.

なお、撮像部2は、本実施形態に限定されず、一定の時間間隔で複数の画像を撮像する1台のカメラから構成され、各画像中のフレームの各点がどのような速度成分をもっているかを表す速度ベクトルの場、いわゆるオプティカルフローを検出するようになっていてもよい。   Note that the imaging unit 2 is not limited to the present embodiment, and is configured by a single camera that captures a plurality of images at regular time intervals, and what speed component each frame point in each image has. A velocity vector field representing the so-called optical flow may be detected.

また、判定部11には、抽出されたすべての特徴量が入力されているが、必ずしもすべての特徴量が必要なわけではなく、適用例に応じて必要とされる特徴量のみが入力されてもよい。   Further, although all the extracted feature values are input to the determination unit 11, not all the feature values are necessarily required, and only the feature values required according to the application example are input. Also good.

さらに、識別器の設計及び識別器による学習的な獲得には、本実施形態に限定されず、従来のパターン認識で一般的に用いられているもの、例えばk−最近傍識別法(k−NN)、サポートベクタマシン(SVM)、部分空間法等が適用されていてもよい。   Further, the design of the discriminator and learning acquisition by the discriminator are not limited to the present embodiment, but those commonly used in conventional pattern recognition, for example, the k-nearest neighbor discrimination method (k-NN). ), A support vector machine (SVM), a subspace method, or the like may be applied.

さらに、判定部11は、必ずしもすべてニューラルネットで構成される必要なわけではなく、判定部11の一部のみがニューラルネットで構成されていてもよい。   Furthermore, the determination unit 11 does not necessarily have to be configured with a neural network, and only a part of the determination unit 11 may be configured with a neural network.

本発明に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置のマッチングブロックを示す平面図である。It is a top view which shows the matching block of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置によるマッチング処理の結果を示すグラフである。It is a graph which shows the result of the matching process by the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置による自己マッチング処理の結果を示すグラフである。It is a graph which shows the result of the self-matching process by the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置の自ブロック及び周辺マッチングブロックを示す平面図である。It is a top view which shows the own block and periphery matching block of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置の視差補正部の構成を示すブロック図である。It is a block diagram which shows the structure of the parallax correction part of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置に適用されたニューラルネットを示す概略図である。It is the schematic which shows the neural network applied to the image processing apparatus which concerns on this invention. 2台のカメラを用いたステレオ画像法の原理を示す概念図である。It is a conceptual diagram which shows the principle of the stereo imaging method using two cameras.

符号の説明Explanation of symbols

1 画像処理装置
2 撮像部
5 ステレオ処理部
6 判定要素抽出部
7 視差補正部
8 画像メモリ
9 基準カメラ
10 比較カメラ
11 判定部
12 補正部
13 ニューラルネット
E エピポーラ・ライン
Gb 基準画像
Gc 比較画像
W1,W2 最小点を含む谷の幅寸法
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Image pick-up part 5 Stereo processing part 6 Determination element extraction part 7 Parallax correction part 8 Image memory 9 Reference camera 10 Comparison camera 11 Determination part 12 Correction part 13 Neural network E Epipolar line Gb Reference image Gc Comparison image W1, W2 Width dimension of the valley including the minimum point

Claims (7)

複数の画像を撮像する一又は複数のカメラからなる撮像部と、
前記複数の画像に対してマッチング処理を行うステレオ処理部とを具備する画像処理装置において、
マッチング処理が施された複数の画像から一又は複数の特徴量を抽出する判定要素抽出部と、
抽出された前記特徴量に基づいて前記マッチング処理の信頼性評価を行う判定部及び前記判定部による評価情報に基づいて前記マッチング処理の際に生じる誤対応を補正する補正部を備えた視差補正部とを具備することを特徴とする画像処理装置。
An imaging unit composed of one or more cameras that capture a plurality of images;
In an image processing apparatus comprising a stereo processing unit that performs matching processing on the plurality of images,
A determination element extraction unit that extracts one or a plurality of feature amounts from a plurality of images subjected to matching processing;
A parallax correction unit including a determination unit that performs reliability evaluation of the matching process based on the extracted feature amount, and a correction unit that corrects an erroneous response that occurs during the matching process based on evaluation information by the determination unit An image processing apparatus comprising:
前記判定部は、前記ステレオ処理部による複数の画像に対するマッチング処理の信頼性評価を行うニューラルネットを用いて構成されていることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit is configured using a neural network that performs reliability evaluation of matching processing on a plurality of images by the stereo processing unit. 前記特徴量は、マッチング処理に用いられる評価関数の解析結果、画素領域の独創性を示す要素又は周辺画素領域との関連性を示す要素のうち少なくとも1つを含むことを特徴とする請求項1に記載の画像処理装置。   The feature amount includes at least one of an analysis result of an evaluation function used for matching processing, an element indicating originality of a pixel area, and an element indicating relevance with a surrounding pixel area. An image processing apparatus according to 1. 前記マッチング処理に用いられる評価関数の解析結果は、評価関数の値又は評価関数の形状を示す要素のうち少なくとも1つを含むことを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein an analysis result of the evaluation function used for the matching processing includes at least one of an element indicating a value of the evaluation function or a shape of the evaluation function. 前記評価関数の形状を示す要素は、極小点の数、最小点を含む谷の幅寸法又は最小点を含む谷の鋭角度のうち少なくとも1つを含むことを特徴とする請求項4に記載の画像処理装置。   5. The element according to claim 4, wherein the element indicating the shape of the evaluation function includes at least one of a number of local minimum points, a width dimension of a valley including a minimum point, or an acute angle of a valley including a minimum point. Image processing device. 前記画素領域の独創性を示す要素は、画素領域におけるエピポーラ・ラインに沿った方向への差分の絶対値が所定の値を超える画素の数、画素領域におけるエピポーラ・ラインに沿った方向への差分の絶対値の平均又は画素領域における輝度値の分散のうち少なくとも1つを含むことを特徴とする請求項3に記載の画像処理装置。   The element indicating the originality of the pixel area is the number of pixels in which the absolute value of the difference in the direction along the epipolar line in the pixel area exceeds a predetermined value, the difference in the direction along the epipolar line in the pixel area The image processing apparatus according to claim 3, comprising at least one of an average of absolute values of values and a variance of luminance values in a pixel region. 前記周辺画素領域との関連性を示す要素は、自己マッチング処理における評価関数の値が所定の値を下回る画素領域の数、極小点の数、最小点を含む谷の幅寸法、最小点を含む谷の鋭角度又は任意に選択した一の画素領域の近傍において同一の視差を出力する画素領域の数のうち少なくとも1つを含むことを特徴とする請求項3のいずれか一項に記載の画像処理装置。   The elements indicating the relationship with the surrounding pixel area include the number of pixel areas whose evaluation function value in the self-matching process is lower than a predetermined value, the number of minimum points, the width dimension of the valley including the minimum point, and the minimum point. 4. The image according to claim 3, comprising at least one of the number of pixel areas that output the same parallax at an acute angle of a valley or in the vicinity of one arbitrarily selected pixel area. 5. Processing equipment.
JP2004232394A 2004-08-09 2004-08-09 Image processing unit Pending JP2006047252A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004232394A JP2006047252A (en) 2004-08-09 2004-08-09 Image processing unit
US11/198,035 US7697749B2 (en) 2004-08-09 2005-08-05 Stereo image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004232394A JP2006047252A (en) 2004-08-09 2004-08-09 Image processing unit

Publications (1)

Publication Number Publication Date
JP2006047252A true JP2006047252A (en) 2006-02-16

Family

ID=36025951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004232394A Pending JP2006047252A (en) 2004-08-09 2004-08-09 Image processing unit

Country Status (1)

Country Link
JP (1) JP2006047252A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010509670A (en) * 2006-11-03 2010-03-25 ポステック・アカデミー‐インダストリー・ファウンデーション Message transmission based stereo image matching system
JP2013239078A (en) * 2012-05-16 2013-11-28 Toyota Motor Corp Image analysis device, image analysis method and image analysis program
WO2014010293A1 (en) * 2012-07-13 2014-01-16 株式会社日本自動車部品総合研究所 Position detection device and position detection program
JP2015118582A (en) * 2013-12-19 2015-06-25 ソニー株式会社 Information processor, information processing method and program
JP2018504652A (en) * 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Prominent feature based mobile positioning

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010509670A (en) * 2006-11-03 2010-03-25 ポステック・アカデミー‐インダストリー・ファウンデーション Message transmission based stereo image matching system
US8427524B2 (en) 2006-11-03 2013-04-23 Postech Academy-Industry Foundation Message propagation-based stereo image matching system
JP2013239078A (en) * 2012-05-16 2013-11-28 Toyota Motor Corp Image analysis device, image analysis method and image analysis program
WO2014010293A1 (en) * 2012-07-13 2014-01-16 株式会社日本自動車部品総合研究所 Position detection device and position detection program
JP2014020845A (en) * 2012-07-13 2014-02-03 Nippon Soken Inc Position detection device and position detection program
US9626765B2 (en) 2012-07-13 2017-04-18 Denso Corporation Position detection device detecting a position of target object and a position detection program
JP2015118582A (en) * 2013-12-19 2015-06-25 ソニー株式会社 Information processor, information processing method and program
JP2018504652A (en) * 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Prominent feature based mobile positioning
US10599149B2 (en) 2015-10-09 2020-03-24 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning

Similar Documents

Publication Publication Date Title
US7697749B2 (en) Stereo image processing device
CN109035276B (en) Image edge extraction method and device and automatic driving system
CN108960211B (en) Multi-target human body posture detection method and system
JP3539788B2 (en) Image matching method
JP4772839B2 (en) Image identification method and imaging apparatus
US20080292192A1 (en) Human detection device and method and program of the same
CN108470356B (en) Target object rapid ranging method based on binocular vision
JPH07336669A (en) Stereo image corresponding method and stereo image parallax measuring method
JP4689758B1 (en) Image coincidence point detection apparatus, image coincidence point detection method, and recording medium
CN110084830B (en) Video moving object detection and tracking method
JP5262705B2 (en) Motion estimation apparatus and program
WO2018147059A1 (en) Image processing device, image processing method, and program
CN104966283A (en) Imaging layered registering method
JP4935769B2 (en) Plane region estimation apparatus and program
CN105607218A (en) Image auto-focusing method measurement data transmission device and method based on fuzzy entropy
JP2006047252A (en) Image processing unit
CN111583315A (en) Novel visible light image and infrared image registration method and device
WO2022247684A1 (en) Detection method and system for base-station feeder line, and related apparatus
JPH08329110A (en) Method for processing picture
JP5754931B2 (en) Image analysis apparatus, image analysis method, and program
CN113409334A (en) Centroid-based structured light angle point detection method
JP6602286B2 (en) Image processing apparatus, image processing method, and program
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium
JP7066580B2 (en) Image processing equipment
CN111630569A (en) Binocular matching method, visual imaging device and device with storage function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091201