JP5338724B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP5338724B2
JP5338724B2 JP2010065406A JP2010065406A JP5338724B2 JP 5338724 B2 JP5338724 B2 JP 5338724B2 JP 2010065406 A JP2010065406 A JP 2010065406A JP 2010065406 A JP2010065406 A JP 2010065406A JP 5338724 B2 JP5338724 B2 JP 5338724B2
Authority
JP
Japan
Prior art keywords
image
region
straight line
coordinates
epipolar line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010065406A
Other languages
Japanese (ja)
Other versions
JP2011198167A (en
Inventor
宏 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2010065406A priority Critical patent/JP5338724B2/en
Publication of JP2011198167A publication Critical patent/JP2011198167A/en
Application granted granted Critical
Publication of JP5338724B2 publication Critical patent/JP5338724B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、ステレオ画像の第1画像内で指定される注目点に対応する第2画像内の対応点の座標を導出する対応点探索処理を実行するための画像処理装置及び画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program for executing corresponding point search processing for deriving coordinates of corresponding points in a second image corresponding to a point of interest specified in a first image of a stereo image. It is.

対象物を異なる視点から見た複数の画像からなるステレオ画像を用いた対応点探索処理は、三次元画像計測及びコンピュータビジョンなどの様々な分野において重要な画像処理技術である。ステレオ画像に基づく対応点探索処理は、ステレオ画像を構成する第1画像及び第2画像に基づいて、第1画像内で指定される注目点に対応する第2画像内の対応点の座標を導出する処理である。また、対応点は、第1画像における注目点の画像に対して相関の高い画像が存在する第2画像内の点である。また、昨今、対応点探索処理において、対応点の座標を高精度で導出することが求められている。   Corresponding point search processing using a stereo image composed of a plurality of images obtained by viewing an object from different viewpoints is an important image processing technique in various fields such as three-dimensional image measurement and computer vision. The corresponding point search process based on the stereo image derives the coordinates of the corresponding point in the second image corresponding to the point of interest specified in the first image based on the first image and the second image constituting the stereo image. It is processing to do. The corresponding point is a point in the second image where an image having a high correlation with the image of the target point in the first image exists. Recently, in the corresponding point search process, it is required to derive the coordinates of the corresponding point with high accuracy.

従来、精度の高い対応点探索処理の手法として、位相差解析(Phase-difference Spectrum Analysis)の手法が存在する。以下、その手法のことをPSA法と称する。PSA法は、例えば、非特許文献1、非特許文献2、特許文献1及び特許文献2などに示されている。   Conventionally, there is a method of phase difference analysis (Phase-difference Spectrum Analysis) as a method of high-accuracy corresponding point search processing. Hereinafter, this method is referred to as a PSA method. The PSA method is shown in, for example, Non-Patent Document 1, Non-Patent Document 2, Patent Document 1, and Patent Document 2.

以下、図17〜図19を参照しつつ、PSA法について説明する。PSA法は、以下に示される手順により、第1画像における注目点の座標(x01, y01)に対する第2画像における対応点の座標(x02, y02)の偏差の座標(dx0, dy0)を導出する手法である。以下、その偏差の座標を、対応点偏差座標と称する。なお、(dx0, dy0) = (x02-x01, y02-y01)である。   Hereinafter, the PSA method will be described with reference to FIGS. In the PSA method, the coordinates (dx0, dy0) of the deviation of the coordinates (x02, y02) of the corresponding point in the second image with respect to the coordinates (x01, y01) of the target point in the first image are derived by the procedure shown below. It is a technique. Hereinafter, the coordinates of the deviation are referred to as corresponding point deviation coordinates. Note that (dx0, dy0) = (x02-x01, y02-y01).

PSA法では、第1画像及び第2画像各々に相当する空間周波数領域での位相画像である第1位相画像及び第2位相画像が算出される。これらの位相画像は、第1画像及び第2画像各々に対して2次元離散的フーリエ変換を施すことによって得られる。   In the PSA method, a first phase image and a second phase image, which are phase images in the spatial frequency domain corresponding to the first image and the second image, are calculated. These phase images are obtained by performing a two-dimensional discrete Fourier transform on each of the first image and the second image.

次に、両位相画像の周波数成分各々について、第1位相画像と第2位相画像との間の周波数成分(u, v)に応じた位相差Δθ(u, v)が算出される。なお、u及びvは、周波数空間における座標値である。   Next, for each frequency component of both phase images, a phase difference Δθ (u, v) corresponding to the frequency component (u, v) between the first phase image and the second phase image is calculated. U and v are coordinate values in the frequency space.

また、PSA法では、対応点偏差座標(dx0, dy0)のとり得る範囲を示す投票空間100が設定される。投票空間100は、予め定められた空間周期で複数の単位領域に区分されることによって離散化されている。その空間周期に応じて対応点偏差座標(dx0, dy0)の導出の分解能(精度)が定まる。   In the PSA method, a voting space 100 indicating a possible range of the corresponding point deviation coordinates (dx0, dy0) is set. The voting space 100 is discretized by being divided into a plurality of unit regions at a predetermined spatial period. The resolution (accuracy) for deriving the corresponding point deviation coordinates (dx0, dy0) is determined according to the spatial period.

図17は、投票空間100の一例を示す模式図である。図17に示される例では、投票空間100は、ΔX軸方向及びΔY軸方向の各々において10個の区間に離散化されている。投票空間100における予め定められた空間周期で区分(離散化)された複数の単位領域は、投票領域20と称される。投票空間100の設定は、画像処理装置が、投票領域20の配列に相当するデータ領域をメモリ内に確保することを意味する。即ち、投票領域20各々は、メモリ内に確保されるデータ領域における要素データ各々に対応する。投票空間100の大きさ及び投票領域20の空間周期は、適用対象に応じて予め決定される。   FIG. 17 is a schematic diagram illustrating an example of the voting space 100. In the example shown in FIG. 17, the voting space 100 is discretized into 10 sections in each of the ΔX axis direction and the ΔY axis direction. A plurality of unit areas that are segmented (discretized) in a predetermined spatial period in the voting space 100 are referred to as voting areas 20. Setting the voting space 100 means that the image processing apparatus secures a data area corresponding to the array of voting areas 20 in the memory. That is, each voting area 20 corresponds to each element data in the data area secured in the memory. The size of the voting space 100 and the spatial period of the voting area 20 are determined in advance according to the application target.

そして、PSA法では、周波数成分(u,v)、その周波数成分に基づく位相差Δθ(u, v)及び投票空間における座標(dx,dy)を変数とする所定の式に、周波数成分(u,v)及びその周波数成分に基づき算出される位相差Δθ(u, v)を適用することにより、投票空間100内の直線(一次式)が導出される。そのようにして導出される一次式は、一般に、投票関数と称される。周波数成分(u,v)及びその周波数成分(u,v)に対応する位相差Δθ(u, v)を、周波数成分(u,v)、位相差Δθ(u, v)及び座標(dx,dy)を変数(パラメータ)とする所定の式に適用することにより得られる投票空間100内の直線は、周波数成分(u,v)に応じて定まる対応点偏差座標(dx0, dy0)の候補となる位置を表す。以下、この直線のことを、候補直線と称する。   In the PSA method, the frequency component (u, v), the phase difference Δθ (u, v) based on the frequency component, and the coordinate (dx, dy) in the voting space are changed into a predetermined expression as variables. , v) and a phase difference Δθ (u, v) calculated based on the frequency component thereof, a straight line (primary expression) in the voting space 100 is derived. The linear expression thus derived is generally called a voting function. The frequency component (u, v) and the phase difference Δθ (u, v) corresponding to the frequency component (u, v) are changed to the frequency component (u, v), the phase difference Δθ (u, v) and the coordinates (dx, A straight line in the voting space 100 obtained by applying to a predetermined expression having dy) as a variable (parameter) is a candidate for the corresponding point deviation coordinate (dx0, dy0) determined according to the frequency component (u, v). Represents the position. Hereinafter, this straight line is referred to as a candidate straight line.

図18は、ある1つの周波数成分(u, v)に対応する一本の候補直線32を含む投票空間100の一例を示す模式図である。周波数成分(u,v)及び位相差Δθ(u, v)を投票関数に適用することにより、投票空間100の座標系における直線である候補直線32を表す一次式が得られる。PSA法においては、画像処理装置が、投票空間100にプロットされた候補直線32と重なる投票領域20を特定する。以下、このようにして特定される投票領域20を特定投票領域23と称する。図18において、特定投票領域23は砂模様の網掛けが付されている。   FIG. 18 is a schematic diagram illustrating an example of the voting space 100 including one candidate straight line 32 corresponding to a certain frequency component (u, v). By applying the frequency component (u, v) and the phase difference Δθ (u, v) to the voting function, a linear expression representing the candidate straight line 32 that is a straight line in the coordinate system of the voting space 100 is obtained. In the PSA method, the image processing apparatus specifies the voting area 20 that overlaps with the candidate straight line 32 plotted in the voting space 100. Hereinafter, the voting area 20 specified in this way is referred to as a specific voting area 23. In FIG. 18, the specific voting area 23 is shaded with sand.

さらに、PSA法では、周波数成分(u, v)各々について、候補直線32の導出と、その候補直線32と重なる特定投票領域23の特定とが順次繰り返される。さらに、特定投票領域23が特定されるごとに、その特定投票領域23に対して所定の投票値を順次積算する処理が実行される。   Further, in the PSA method, for each frequency component (u, v), the derivation of the candidate straight line 32 and the specification of the specific voting area 23 overlapping the candidate straight line 32 are sequentially repeated. Further, every time the specific voting area 23 is specified, a process of sequentially adding a predetermined voting value to the specific voting area 23 is executed.

図19は、複数の周波数成分(u, v)各々に対応する複数の候補直線32を含む投票空間100の状態の一例を示す模式図である。 図19において、1つの候補直線32のみと重なる特定投票領域23は、砂模様の網掛けが付され、複数の候補直線32と重なる特定投票領域23は、斜線の網掛け又は黒塗りが付されている。複数の周波数成分(u, v)各々について投票直線32の導出と特定投票領域23の特定とが繰り返されれることにより、図19に示される状態が得られる。   FIG. 19 is a schematic diagram illustrating an example of a state of the voting space 100 including a plurality of candidate straight lines 32 corresponding to a plurality of frequency components (u, v). In FIG. 19, the specific voting area 23 that overlaps with only one candidate straight line 32 is shaded with sand, and the specific voting area 23 that overlaps with a plurality of candidate straight lines 32 is shaded or shaded. ing. The state shown in FIG. 19 is obtained by repeating the derivation of the voting line 32 and the specification of the specific voting region 23 for each of the plurality of frequency components (u, v).

そして、PSA法では、全ての周波数成分(u, v)について、特定投票領域23の特定及び投票値の積算が終了したときに、投票値の積算値のピーク位置の座標が、対応点偏差座標(dx0, dy0)として特定される。また、第2画像における対応点の座標(x02, y02)は、第1画像における注目点の座標(x01, y01)と対応点偏差座標(dx0, dy0)とに基づいて算出される。   In the PSA method, for all frequency components (u, v), when the specification of the specific voting area 23 and the integration of the voting values are completed, the coordinates of the peak positions of the integrated values of the voting values are the corresponding point deviation coordinates. Identified as (dx0, dy0). Further, the coordinates (x02, y02) of the corresponding point in the second image are calculated based on the coordinates (x01, y01) of the attention point and the corresponding point deviation coordinates (dx0, dy0) in the first image.

投票値の積算値のピーク位置の座標は、例えば、投票値の積算値が最大である特定投票領域23(投票領域20)の座標、又は投票値の積算値を重み係数とする特定投票領域23の集合の重心位置の座標などである。図19は、投票値の積算値が最大である特定投票領域23が、投票値の積算値のピーク位置230(黒塗り部分)として特定された様子を示す。   The coordinate of the peak position of the integrated value of the vote value is, for example, the coordinate of the specific vote area 23 (voting area 20) where the integrated value of the vote value is the maximum, or the specific vote area 23 using the integrated value of the vote value as a weighting factor. The coordinates of the center of gravity position of the set. FIG. 19 shows a state in which the specific voting area 23 having the maximum integrated voting value is specified as the peak position 230 (black portion) of the integrated voting value.

一方、ステレオ画像において成立する法則として、エピポーラ幾何の法則が知られている。エピポーラ幾何の詳細は、例えば、非特許文献3に示されている。エピポーラ幾何によれば、ステレオ画像の第1画像において1つの注目点が指定されると、ステレオ画像の第2画像において、第1画像の注目点に対応する対応点の位置は、エピポーラ線と称される直線上に限定される。第2画像におけるエピポーラ線の位置は、実験的に導出することができ、また、ステレオ画像を撮像する2つのカメラの特性及びそれらの位置関係に基づく理論計算によっても導出することができる。   On the other hand, epipolar geometry is known as a law that holds in stereo images. The details of the epipolar geometry are shown in Non-Patent Document 3, for example. According to the epipolar geometry, when one attention point is designated in the first image of the stereo image, the position of the corresponding point corresponding to the attention point of the first image in the second image of the stereo image is referred to as an epipolar line. Is limited to a straight line. The position of the epipolar line in the second image can be derived experimentally, and can also be derived by theoretical calculation based on the characteristics of two cameras that capture a stereo image and their positional relationship.

特開2001−175864号公報JP 2001-175864 A 特開2003−099787号公報JP 2003-099787 A

Isamu KOUZAKI, Tomonori KANEKO, Minoru ITO, "Precise and reliable image shift detection by a new phase-difference spectrum analysis", IEICE TRANSACTIONS on Information and Systems Academic Journal 2004, E87D/1 58-65Isamu KOUZAKI, Tomonori KANEKO, Minoru ITO, "Precise and reliable image shift detection by a new phase-difference spectrum analysis", IEICE TRANSACTIONS on Information and Systems Academic Journal 2004, E87D / 1 58-65 幸月 勇 他4名、「位相差からの高精度な画像シフト量検出法」、画像の認識・理解シンポジウム(MIRU 2002)、発行 2002年7月、II-379 - II-384Isamu Kozuki and 4 others, “Highly accurate image shift detection method from phase difference”, Image Recognition and Understanding Symposium (MIRU 2002), published July 2002, II-379-II-384 徐 剛、辻 三郎、「3次元ビジョン」、発行 1998年4月20日 共立出版株式会社、P.61-77Tsuyoshi Tsuyoshi and Saburo Tsuji, “Three-dimensional Vision”, published April 20, 1998 Kyoritsu Publishing Co., Ltd., P.61-77

しかしながら、従来のPSA法は、投票空間100における全ての投票領域20と全ての周波数成分(u,v)との組合せ各々について、投票値の積算を行うべきか否かの判別が必要となるため、投票処理の演算負荷が高い。また、投票空間100における投票領域20の区分の数を少なくすることにより、投票処理の演算負荷は軽減されるが、対応点の座標の算出精度が悪化する。そのため、従来のPSA法は、対応点の座標の算出の高精度化と高速化とを両立することが難しいという問題点があった。   However, in the conventional PSA method, it is necessary to determine whether or not to add up vote values for each combination of all voting areas 20 and all frequency components (u, v) in the voting space 100. The computation load of voting processing is high. Also, by reducing the number of sections of the voting area 20 in the voting space 100, the calculation load of the voting process is reduced, but the calculation accuracy of the coordinates of the corresponding points is deteriorated. Therefore, the conventional PSA method has a problem that it is difficult to achieve both high accuracy and high speed calculation of the coordinates of corresponding points.

また、エピポーラ幾何の法則を用いるだけでは、第1画像の注目点に対応する第2画像の対応点の座標を一意に特定することはではない。   Further, simply using the epipolar geometry law does not uniquely identify the coordinates of the corresponding point of the second image corresponding to the point of interest of the first image.

本発明の目的は、PSA法を応用した画像処理により、ステレオ画像の第1画像内で指定される注目点の座標に対する第2画像内の対応点の座標の偏差を、高精度かつ比較的軽い演算負荷で算出する対応点探索処理を実現できることである。   An object of the present invention is to provide a highly accurate and relatively light deviation of the coordinates of corresponding points in the second image with respect to the coordinates of the target point specified in the first image of the stereo image by image processing applying the PSA method. The corresponding point search process calculated with the calculation load can be realized.

本発明に係る画像処理装置は、ステレオ画像を構成する第1画像及び第2画像各々に相当する空間周波数領域での位相画像である第1位相画像及び第2位相画像に基づいて、前記第1画像内で指定される注目点に対応する前記第2画像内の対応点の座標を導出する対応点探索処理を実行する装置であり、以下の各構成要素を備える。
(1)第1の構成要素は、前記第1画像における前記注目点の座標に対する前記第2画像における前記対応点の座標の偏差の座標である対応点偏差座標のとり得る範囲を示す基準候補領域における、前記注目点に対応するエピポーラ線に相当する第1の直線に沿う一部のエピポーラ線相当領域を特定するエピポーラ線相当領域特定部である。
(2)第2の構成要素は、前記第1位相画像と前記第2位相画像との間における周波数成分に応じた位相差を算出する位相差算出部である。
(3)第3の構成要素は、前記エピポーラ線相当領域内で、周波数成分及び該周波数成分に対応する前記位相差を予め定められた式に適用することにより得られる前記基準候補領域内の第2の直線と重なる重複領域を特定する重複領域特定部である。
(4)第4の構成要素は、前記重複領域の座標に応じた前記対応点偏差座標を導出する偏差座標導出部である。
The image processing apparatus according to the present invention is based on the first phase image and the second phase image that are phase images in the spatial frequency domain corresponding to the first image and the second image constituting the stereo image, respectively. An apparatus for executing a corresponding point search process for deriving the coordinates of a corresponding point in the second image corresponding to a point of interest specified in an image, and includes the following components.
(1) A first candidate element is a reference candidate area indicating a possible range of corresponding point deviation coordinates, which are coordinates of deviation of the corresponding point coordinates in the second image with respect to the coordinates of the target point in the first image. Is an epipolar line equivalent region specifying unit for specifying a part of the epipolar line equivalent region along the first straight line corresponding to the epipolar line corresponding to the attention point.
(2) The second component is a phase difference calculation unit that calculates a phase difference according to a frequency component between the first phase image and the second phase image.
(3) The third component is a first component in the reference candidate region obtained by applying a frequency component and the phase difference corresponding to the frequency component to a predetermined formula in the region corresponding to the epipolar line. It is an overlapping area specific | specification part which specifies the overlapping area which overlaps with 2 straight lines.
(4) A fourth component is a deviation coordinate deriving unit that derives the corresponding point deviation coordinates according to the coordinates of the overlapping region.

また、本発明に係る画像処理装置において、前記重複領域特定部は、前記基準候補領域が離散化された部分領域である複数の投票領域のうち、前記エピポーラ線相当領域と前記第2の直線とが重なる部分を含む前記投票領域を前記重複領域として特定することが考えられる。   In the image processing device according to the present invention, the overlapping area specifying unit may include the epipolar line equivalent area and the second straight line among a plurality of voting areas that are partial areas in which the reference candidate area is discretized. It is conceivable to specify the voting area including the overlapping part as the overlapping area.

また、本発明に係る画像処理装置において、前記エピポーラ線相当領域特定部は、次の(1−1)〜(1−3)のいずれかに示される処理を行うことが考えられる。
(1−1)前記エピポーラ線相当領域特定部は、複数の前記投票領域のうち前記第1の直線と重なる前記投票領域の集合を前記エピポーラ線相当領域として特定する。
(1−2)前記エピポーラ線相当領域特定部は、複数の前記投票領域のうち前記第1の直線に対して予め定められた範囲内に存在する前記投票領域の集合を前記エピポーラ線相当領域として特定する。
(1−3)前記エピポーラ線相当領域特定部は、前記基準候補領域内の前記第1の直線と一致する部分を前記エピポーラ線相当領域として特定する。
In the image processing apparatus according to the present invention, the epipolar line equivalent region specifying unit may perform the processing shown in any of (1-1) to (1-3) below.
(1-1) The epipolar line equivalent area specifying unit specifies, as the epipolar line equivalent area, a set of voting areas that overlap the first straight line among the plurality of voting areas.
(1-2) The epipolar line equivalent area specifying unit sets, as the epipolar line equivalent area, a set of the voting areas existing within a predetermined range with respect to the first straight line among the plurality of voting areas. Identify.
(1-3) The epipolar line equivalent region specifying unit specifies a portion that coincides with the first straight line in the reference candidate region as the epipolar line equivalent region.

また、本発明に係る画像処理装置において、各構成要素が次の(2−1)及び(2−2)に示される処理を行うことが考えられる。
(2−1)前記位相差算出部及び前記重複領域特定部は、予め定められた終了条件が成立するまで周波数成分各々について前記位相差の算出及び該位相差に対応する前記重複領域の特定を順次実行する。
(2−2)前記偏差座標導出部は、前記重複領域特定部により複数の周波数成分各々について順次特定される前記重複領域における前記投票領域各々に対して投票値を順次積算し、前記基準候補領域における前記投票値の積算値のピーク位置の座標を前記対応点偏差座標として特定する。
Further, in the image processing apparatus according to the present invention, it is conceivable that each component performs the processing shown in the following (2-1) and (2-2).
(2-1) The phase difference calculation unit and the overlap area specifying unit calculate the phase difference and specify the overlap area corresponding to the phase difference for each frequency component until a predetermined termination condition is satisfied. Run sequentially.
(2-2) The deviation coordinate deriving unit sequentially accumulates vote values for each of the voting regions in the overlapping region sequentially specified for each of a plurality of frequency components by the overlapping region specifying unit, and the reference candidate region The coordinates of the peak position of the integrated value of the voting value at are specified as the corresponding point deviation coordinates.

また、本発明に係る画像処理装置において、前記エピポーラ線相当領域特定部が、(1−2)に示される処理を行う場合、各構成要素が次の(3−1)及び(3−2)に示される処理を行うことが考えられる。
(3−1)前記位相差算出部及び前記重複領域特定部は、予め定められた終了条件が成立するまで周波数成分各々について前記位相差の算出及び該位相差に対応する前記重複領域の特定を順次実行する。
(3−2)前記偏差座標導出部は、前記重複領域特定部により複数の周波数成分各々について順次特定される前記重複領域における前記投票領域各々に対して、前記第1の直線との位置関係に応じて重み付けされた投票値を順次積算し、前記基準候補領域における前記投票値の積算値のピーク位置の座標を前記対応点偏差座標として特定する。
Further, in the image processing apparatus according to the present invention, when the epipolar line equivalent region specifying unit performs the process shown in (1-2), each component is the following (3-1) and (3-2). It is conceivable to perform the processing shown in FIG.
(3-1) The phase difference calculation unit and the overlap region specifying unit calculate the phase difference and specify the overlap region corresponding to the phase difference for each frequency component until a predetermined termination condition is satisfied. Run sequentially.
(3-2) The deviation coordinate deriving unit has a positional relationship with the first straight line with respect to each of the voting regions in the overlapping region sequentially specified for each of a plurality of frequency components by the overlapping region specifying unit. Accordingly, the weighted vote values are sequentially accumulated, and the coordinates of the peak position of the accumulated value of the vote values in the reference candidate region are specified as the corresponding point deviation coordinates.

また、前記終了条件は、次の(4−1)又は(4−2)のいずれかの条件であることが考えられる。
(4−1)前記終了条件は、前記投票領域各々における前記投票値の積算値が予め定められた条件を満たすことである。
(4−2)前記終了条件は、予め定められた個数の周波数成分について前記位相差の算出及びその位相差に対応する前記重複領域の特定が行われたことである。
The termination condition may be any of the following conditions (4-1) or (4-2).
(4-1) The termination condition is that an integrated value of the vote values in each of the vote areas satisfies a predetermined condition.
(4-2) The termination condition is that the phase difference is calculated for a predetermined number of frequency components and the overlapping region corresponding to the phase difference is specified.

また、本発明に係る画像処理装置において、各構成要素が次の(5−1)、(5−2)及び(5−3)に示される処理を行うことが考えられる。
(5−1)前記エピポーラ線相当領域特定部は、前記基準候補領域内の前記第1の直線と一致する部分を前記エピポーラ線相当領域として特定する。
(5−2)前記重複領域特定部は、前記第1の直線と前記第2の直線との交点を前記重複領域として特定する。
(5−3)前記偏差座標導出部は、前記基準候補領域における複数の前記交点の座標を統合した座標を前記対応点偏差座標として導出する。
In the image processing apparatus according to the present invention, it is conceivable that each component performs the processes shown in the following (5-1), (5-2), and (5-3).
(5-1) The epipolar line equivalent region specifying unit specifies a portion that coincides with the first straight line in the reference candidate region as the epipolar line equivalent region.
(5-2) The overlapping area specifying unit specifies an intersection between the first straight line and the second straight line as the overlapping area.
(5-3) The deviation coordinate deriving unit derives a coordinate obtained by integrating the coordinates of the plurality of intersections in the reference candidate region as the corresponding point deviation coordinate.

また、本発明に係る画像処理装置において、各構成要素が次の(6−1)、(6−2)及び(6−3)に示される処理を行うことが考えられる。
(6−1)前記エピポーラ線相当領域特定部は、前記基準候補領域内の前記第1の直線と一致する部分を前記エピポーラ線相当領域として特定する。
(6−2)前記重複領域特定部は、前記第1の直線と前記第2の直線との交点を前記重複領域として特定する。
(6−3)前記偏差座標導出部は、前記基準候補領域における1つの前記交点の座標を前記対応点偏差座標として導出する。
Further, in the image processing apparatus according to the present invention, it is conceivable that each component performs the processes shown in the following (6-1), (6-2), and (6-3).
(6-1) The epipolar line equivalent region specifying unit specifies a portion that coincides with the first straight line in the reference candidate region as the epipolar line equivalent region.
(6-2) The overlapping area specifying unit specifies an intersection between the first straight line and the second straight line as the overlapping area.
(6-3) The deviation coordinate deriving unit derives the coordinates of one intersection point in the reference candidate region as the corresponding point deviation coordinates.

また、本発明に係る画像処理装置において、前記エピポーラ線相当領域特定部が次の(7−1)又は(7−2)に示される処理を行うことが考えられる。
(7−1)前記エピポーラ線相当領域特定部は、記憶部に予め記憶された換算情報に基づいて、前記第1画像における前記注目点の座標から前記基準候補領域における前記第1の直線の位置を算出し、算出された前記第1の直線の位置に基づいて前記エピポーラ線相当領域を特定する。
(7−2)前記エピポーラ線相当領域特定部は、前記注目点の座標の候補に対応して記憶部に予め記憶された前記エピポーラ線相当領域を表す情報に従って前記エピポーラ線相当領域を特定する。
In the image processing apparatus according to the present invention, it is conceivable that the epipolar-line-equivalent region specifying unit performs the processing shown in the following (7-1) or (7-2).
(7-1) The epipolar line-equivalent area specifying unit, based on the conversion information stored in advance in the storage unit, determines the position of the first straight line in the reference candidate area from the coordinates of the attention point in the first image. And the region corresponding to the epipolar line is specified based on the calculated position of the first straight line.
(7-2) The epipolar line equivalent region specifying unit specifies the epipolar line equivalent region according to information representing the epipolar line equivalent region stored in advance in a storage unit corresponding to the coordinate candidate of the target point.

また、本発明に係る画像処理装置が、前記基準候補領域の座標系における一の座標軸と前記第1の直線とが平行となるように前記基準候補領域を設定する平行化処理部を備えることも考えられる。   The image processing apparatus according to the present invention may further include a parallelization processing unit that sets the reference candidate region so that one coordinate axis in the coordinate system of the reference candidate region is parallel to the first straight line. Conceivable.

また、本発明は、以上に示した本発明に係る画像処理装置が備える各構成要素が実行する処理をコンピュータ(プロセッサ)に実行させるための画像処理プログラムとして構成されることも考えられる。   Further, the present invention may be configured as an image processing program for causing a computer (processor) to execute processing executed by each component included in the image processing apparatus according to the present invention described above.

本発明においては、基準候補領域において、エピポーラ線に相当する第1の直線に沿う領域と、周波数成分に応じて定まる直線と、が重なる重複領域の座標に基づいて、対応点偏差座標が導出される。ここで、対応点偏差座標は、ステレオ画像の第1画像における注目点の座標とステレオ画像の第2画像における対応点の座標との偏差の座標である。また、基準候補領域は、対応点偏差座標のとり得る範囲を示す領域である。この基準候補領域は、従来のPSA法における投票空間に相当する。本発明においては、対応点の探索範囲が、基準候補領域のうちの第1の直線に沿う一部の領域(エピポーラ線相当領域)に限定される。従って、エピポーラ線相当領域内における対応点の探索(重複領域の特定)が、高い空間分解能で実行された場合でも、演算負荷は比較的低く抑えられる。そのため、本発明によれば、注目点の座標に対する対応点の座標の偏差を、高精度かつ比較的軽い演算負荷で算出する対応点探索処理を実現することが可能となる。   In the present invention, in the reference candidate region, the corresponding point deviation coordinates are derived based on the coordinates of the overlapping region in which the region along the first straight line corresponding to the epipolar line and the straight line determined according to the frequency component overlap. The Here, the corresponding point deviation coordinates are coordinates of a deviation between the coordinates of the point of interest in the first image of the stereo image and the coordinates of the corresponding point in the second image of the stereo image. The reference candidate region is a region indicating a range that can be taken by the corresponding point deviation coordinates. This reference candidate area corresponds to a voting space in the conventional PSA method. In the present invention, the search range for corresponding points is limited to a part of the reference candidate region along the first straight line (a region corresponding to an epipolar line). Therefore, even when the search for corresponding points in the region corresponding to the epipolar line (identification of the overlapping region) is executed with high spatial resolution, the calculation load can be kept relatively low. Therefore, according to the present invention, it is possible to realize the corresponding point search process for calculating the deviation of the coordinates of the corresponding point with respect to the coordinates of the target point with high accuracy and relatively light calculation load.

また、エピポーラ線に相当する第1の直線と重なる前記投票領域の集合のみが、前記エピポーラ線相当領域として特定されることにより、前記エピポーラ線相当領域がより狭く限定され、演算負荷の低減効果が一層高まる。この手法は、エピポーラ線に相当する第1の直線の位置の精度(信頼性)が特に高い場合に有効である。なお、基準候補領域内の前記第1の直線と一致する部分が、前記エピポーラ線相当領域として特定される場合も同様の作用効果を奏する。   In addition, since only the set of voting areas that overlap the first straight line corresponding to the epipolar line is specified as the epipolar line equivalent area, the epipolar line equivalent area is more narrowly limited, and the effect of reducing the computation load is reduced. Increased further. This method is effective when the accuracy (reliability) of the position of the first straight line corresponding to the epipolar line is particularly high. It should be noted that the same effect can be obtained when a portion that coincides with the first straight line in the reference candidate region is specified as the epipolar line equivalent region.

一方、第1の直線の位置は、各種の誤差により、本来の位置から多少ずれる状況が考えられる。その場合、第1の直線に対して予め定められた範囲内に存在する投票領域の集合を、前記エピポーラ線相当領域として特定することが有効である。これにより、第1の直線の位置ずれの可能性が考慮されるとともに、エピポーラ幾何の法則を基準した高精度での対応点探索が可能となる。   On the other hand, the position of the first straight line may be slightly deviated from the original position due to various errors. In that case, it is effective to specify a set of voting areas existing within a predetermined range with respect to the first straight line as the epipolar line equivalent area. Thereby, the possibility of the positional deviation of the first straight line is taken into account, and the corresponding point search with high accuracy based on the law of epipolar geometry can be performed.

また、本発明において、(2−1)及び(2−2)に示される処理が実行される場合、従来のPSA法と同様に投票処理が行われることになる。但し、本発明においては、投票処理の対象となる領域が、従来のPSA法に比べてごく狭く限定される。そのため、本発明における投票処理は、従来のPSA法における投票処理よりも格段に演算負荷が低い。   In the present invention, when the processes shown in (2-1) and (2-2) are executed, the voting process is performed as in the conventional PSA method. However, in the present invention, the area to be voted for is limited to be very narrow compared to the conventional PSA method. Therefore, the voting process in the present invention has a much lower calculation load than the voting process in the conventional PSA method.

また、本発明において、(3−2)に示される処理は、前記エピポーラ線相当領域が、エピポーラ線に相当する第1の直線を基準に一定の幅を有する場合に、第1の直線との位置関係に応じて重み付けされた投票値を積算する処理である。これにより、第1の直線の位置が、本来の位置から多少ずれている可能性が考慮されるとともに、エピポーラ幾何の法則をより重視した対応点探索が可能となる。   In the present invention, the process shown in (3-2) is performed when the region corresponding to the epipolar line has a certain width with respect to the first straight line corresponding to the epipolar line. This is a process of accumulating the voting values weighted according to the positional relationship. Thereby, the possibility that the position of the first straight line is slightly deviated from the original position is taken into consideration, and corresponding point search that emphasizes the law of epipolar geometry can be performed.

また、本発明において、例えば、(4−1)又は(4−2)に示されるような終了条件の成立をもって投票処理を終了することにより、演算負荷のさらなる低減が可能となる。本発明においては、エピポーラ幾何の法則に基づいて、基準候補領域の中で対応点偏差座標である又はそれに近い位置である可能性の高い一部の領域のみが、重複領域として特定される。即ち、投票処理において、投票値は、対応点偏差座標である又はそれに近い位置である可能性の高い一部の領域のみに集中的に積算される。従って、本発明においては、比較的少ない周波数成分についての投票処理が終了した段階で、投票値の積算値の分布に基づく対応点偏差座標の特定が行われても、高い精度が確保される。   Further, in the present invention, for example, the calculation load can be further reduced by terminating the voting process when the termination condition as shown in (4-1) or (4-2) is satisfied. In the present invention, based on the law of epipolar geometry, only a part of the reference candidate area that is likely to be a corresponding point deviation coordinate or a position close thereto is identified as an overlapping area. In other words, in the voting process, the voting values are intensively integrated only in a part of the area that is likely to be the corresponding point deviation coordinates or a position close thereto. Therefore, in the present invention, high accuracy is ensured even if the corresponding point deviation coordinates are specified based on the distribution of the integrated value of the vote values at the stage where the vote process for relatively few frequency components is completed.

一方、本発明において、(5−1)〜(5−3)又は(6−1)〜(6−3)に示される処理が行われることにより、従来のPSA法と同様の投票処理を行うことなく対応点偏差座標の導出が可能となる。   On the other hand, in the present invention, the voting process similar to the conventional PSA method is performed by performing the processes shown in (5-1) to (5-3) or (6-1) to (6-3). Accordingly, the corresponding point deviation coordinates can be derived.

また、エピポーラ線相当領域が、(7−1)に示される処理によって特定されることにより、エピポーラ線相当領域の情報を予め記憶するためのメモリを用意する必要がなくなる。一方、エピポーラ線相当領域が、(7−2)に示される処理によって特定されることにより、エピポーラ線相当領域を特定するために要する時間を短縮することが可能となる。   In addition, since the epipolar line equivalent region is specified by the process shown in (7-1), it is not necessary to prepare a memory for storing information on the epipolar line equivalent region in advance. On the other hand, by specifying the epipolar line equivalent region by the process shown in (7-2), it is possible to shorten the time required to specify the epipolar line equivalent region.

また、本発明に係る画像処理装置が、平行化処理部を備えることにより、重複領域を特定するための演算負荷が低減され、画像処理の演算負荷がさらに低減される。   In addition, since the image processing apparatus according to the present invention includes the parallelization processing unit, the calculation load for specifying the overlapping region is reduced, and the calculation load for the image processing is further reduced.

本発明の実施形態に係る画像処理装置の概略ブロック図である。1 is a schematic block diagram of an image processing apparatus according to an embodiment of the present invention. 本発明の第1実施形態に係る画像処理装置による対応点探索処理の手順を表すフローチャートである。It is a flowchart showing the procedure of the corresponding point search process by the image processing apparatus which concerns on 1st Embodiment of this invention. 投票空間におけるエピポーラ線相当領域の第1例を示す模式図である。It is a schematic diagram which shows the 1st example of the epipolar line equivalent area | region in voting space. 投票空間におけるエピポーラ線相当領域の第2例を示す模式図である。It is a schematic diagram which shows the 2nd example of the epipolar line equivalent area | region in voting space. 投票空間におけるエピポーラ線相当領域の第3例を示す模式図である。It is a schematic diagram which shows the 3rd example of the epipolar line equivalent area | region in voting space. 投票空間におけるエピポーラ線相当領域の第1例と一本の候補直線とが重なる重複領域の第1例を示す模式図である。It is a schematic diagram which shows the 1st example of the overlap area | region with which the 1st example of the epipolar line equivalent area | region in a voting space overlaps with one candidate straight line. 投票空間におけるエピポーラ線相当領域の第2例と一本の候補直線とが重なる重複領域の第2例を示す模式図である。It is a schematic diagram which shows the 2nd example of the overlap area | region with which the 2nd example of the epipolar line equivalent area | region in a voting space overlaps with one candidate straight line. 投票空間におけるエピポーラ線相当領域の第3例と一本の候補直線とが重なる重複領域の第3例を示す模式図である。It is a schematic diagram which shows the 3rd example of the overlap area | region with which the 3rd example of an epipolar line equivalent area | region in a voting space overlaps with one candidate straight line. 投票空間におけるエピポーラ線相当領域の第1例と複数本の候補直線とが重なる重複領域の第1例を示す模式図である。It is a schematic diagram which shows the 1st example of the overlapping area where the 1st example of an epipolar line equivalent area | region in a voting space overlaps with a some candidate straight line. 投票空間におけるエピポーラ線相当領域の第2例と複数本の候補直線とが重なる重複領域の第2例を示す模式図である。It is a schematic diagram which shows the 2nd example of the overlap area | region with which the 2nd example of an epipolar line equivalent area | region in a voting space and a several candidate straight line overlap. 投票空間におけるエピポーラ線相当領域の第3例と複数本の候補直線とが重なる重複領域の第3例を示す模式図である。It is a schematic diagram which shows the 3rd example of the overlapping area where the 3rd example of an epipolar line equivalent area | region in a voting space overlaps with a some candidate straight line. 本発明の第2実施形態に係る画像処理装置による対応点探索処理の手順を表すフローチャートである。It is a flowchart showing the procedure of the corresponding point search process by the image processing apparatus which concerns on 2nd Embodiment of this invention. 対応点偏差座標のとり得る範囲である基準候補領域の模式図である。It is a schematic diagram of a reference candidate region that is a range that can be taken by corresponding point deviation coordinates. 基準候補領域におけるエピポーラ線に相当する直線を示す模式図である。It is a schematic diagram which shows the straight line equivalent to the epipolar line in a reference | standard candidate area | region. 基準候補領域におけるエピポーラ線に相当する直線と一本の候補直線とが交差する状態を示す模式図である。It is a schematic diagram which shows the state where the straight line equivalent to the epipolar line in a reference | standard candidate area | region and one candidate straight line cross | intersect. 基準候補領域におけるエピポーラ線に相当する直線と複数の候補直線とが交差する状態を示す模式図である。It is a schematic diagram which shows the state which the straight line equivalent to the epipolar line in a reference | standard candidate area | region and a some candidate straight line cross | intersect. PSA法における投票空間を示す模式図である。It is a schematic diagram which shows the voting space in PSA method. 一本の候補直線を含む投票空間の一例を示す模式図である。It is a schematic diagram which shows an example of the voting space containing one candidate straight line. 複数の候補直線を含む投票空間の一例を示す模式図である。It is a schematic diagram which shows an example of the voting space containing a some candidate straight line.

以下添付図面を参照しながら、本発明の実施の形態について説明する。なお、以下の実施の形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。なお、以下の説明においては、特段の解説がない限り、「画像」という用語は、画像データと同じ意味で用いられている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The following embodiments are examples embodying the present invention, and do not limit the technical scope of the present invention. In the following description, unless otherwise specified, the term “image” is used in the same meaning as image data.

まず、図1に示されるブロック図を参照しつつ、本発明の実施形態に係る画像処理装置10の構成について説明する。画像処理装置10は、後述する第1実施形態及び第2実施形態の両方において採用されるハードウェア構成を有している。図1に示されるように、画像処理装置10は、画像入力インターフェース11、フレームメモリ12、画像処理プロセッサ13、ROM(Read Only Memory)(14)及びデータ出力インターフェース15を備える。   First, the configuration of the image processing apparatus 10 according to the embodiment of the present invention will be described with reference to the block diagram shown in FIG. The image processing apparatus 10 has a hardware configuration that is employed in both a first embodiment and a second embodiment to be described later. As shown in FIG. 1, the image processing apparatus 10 includes an image input interface 11, a frame memory 12, an image processor 13, a ROM (Read Only Memory) (14), and a data output interface 15.

画像入力インターフェース11は、ステレオ画像を撮像する2台のカメラ1,2各々から、撮像によって得られる画像を入力し、その画像をフレームメモリ12に記録する回路基板である。2台のカメラ1,2は、同一の撮像対象を異なる方向から撮像するように配置され、これにより、2台のカメラ1,2により得られる2つの画像は、ステレオ画像を構成する。以下、第1のカメラ1により得られる画像を第1画像、第2のカメラにより得られる画像を第2画像と称する。   The image input interface 11 is a circuit board that inputs an image obtained by imaging from each of the two cameras 1 and 2 that capture a stereo image and records the image in the frame memory 12. The two cameras 1 and 2 are arranged so as to capture the same imaging target from different directions, and thus the two images obtained by the two cameras 1 and 2 constitute a stereo image. Hereinafter, an image obtained by the first camera 1 is referred to as a first image, and an image obtained by the second camera is referred to as a second image.

フレームメモリ12は、画像が記録される高速メモリである。画像入力インターフェース11によってフレームメモリ12に記録された画像は、画像処理プロセッサ13によって読み出されたり、加工されたりする。   The frame memory 12 is a high-speed memory in which images are recorded. An image recorded in the frame memory 12 by the image input interface 11 is read or processed by the image processor 13.

画像処理プロセッサ13は、DSP(Digital Signal Processor)又はMPU(Micro Processor Unit)などのプロセッサにより構成されている。画像処理プロセッサ13は、ROM(11)に予め記憶された画像処理プログラムを実行することにより、ステレオ画像に基づく対応点探索処理を実行する。   The image processor 13 includes a processor such as a DSP (Digital Signal Processor) or an MPU (Micro Processor Unit). The image processor 13 executes a corresponding point search process based on a stereo image by executing an image processing program stored in advance in the ROM (11).

画像処理プログラムは、エピポーラ処理モジュール131、フーリエ変換モジュール132、位相画像処理モジュール133、重複領域処理モジュール134及び対応点座標算計算モジュール135などのプログラムモジュールを含む。画像処理プロセッサ13は、それらのプログラムモジュール131〜135を主メモリに展開して実行することにより、各プログラムモジュール131〜135によって規定される処理を実行する複数のハードウェアの集合体として機能する。   The image processing program includes program modules such as an epipolar processing module 131, a Fourier transform module 132, a phase image processing module 133, an overlapping region processing module 134, and a corresponding point coordinate calculation calculation module 135. The image processor 13 functions as an aggregate of a plurality of hardware that executes processes defined by the program modules 131 to 135 by developing and executing the program modules 131 to 135 in the main memory.

即ち、画像処理プロセッサ13は、エピポーラ幾何に関する処理を行うエピポーラ処理部、フーリエ変換に関する処理を行うフーリエ変換部、位相画像に関する演算を行う位相画像処理部、後述する重複領域の特定に関する演算を行う重複領域処理部及び対応点座標の演算を行う対応点座標演算部として機能する。   That is, the image processing processor 13 is an epipolar processing unit that performs processing related to epipolar geometry, a Fourier transform unit that performs processing related to Fourier transform, a phase image processing unit that performs calculations related to phase images, and an overlap that performs calculations related to identification of overlapping regions, which will be described later. It functions as an area processing unit and a corresponding point coordinate calculation unit that calculates corresponding point coordinates.

ROM(14)は、画像処理プロセッサ13によって実行される画像処理プログラム及び画像処理プロセッサ13が参照する各種のデータを記憶するメモリである。   The ROM (14) is a memory that stores an image processing program executed by the image processor 13 and various data referred to by the image processor 13.

データ出力インターフェース15は、画像処理プロセッサ13から引き渡される画像処理の結果のデータを、当該画像処理装置10の外部の装置へ出力する回路基板である。   The data output interface 15 is a circuit board that outputs image processing result data delivered from the image processing processor 13 to an external device of the image processing apparatus 10.

<<第1実施形態>>
次に、図2に示されるフローチャートを参照しつつ、本発明の第1実施形態に係る画像処理装置が実行する対応点探索処理について説明する。フローチャートにおいて、S1〜S11は、処理の手順の識別符号を表す。前述したように、本実施形態に係る画像処理装置は、図1に示した画像処理装置10のハードウェア構成を備えている。以下の説明では、便宜上、本実施形態に係る画像処理装置を第1画像処理装置と称する。
<< First Embodiment >>
Next, the corresponding point search process executed by the image processing apparatus according to the first embodiment of the present invention will be described with reference to the flowchart shown in FIG. In the flowchart, S1 to S11 represent identification codes of processing procedures. As described above, the image processing apparatus according to the present embodiment has the hardware configuration of the image processing apparatus 10 shown in FIG. In the following description, for convenience, the image processing apparatus according to the present embodiment is referred to as a first image processing apparatus.

図2に示される対応点探索処理が開始される前に、画像入力インターフェース11が、ステレオ画像を構成する第1画像及び第2画像の各データを予めフレームメモリ12に記録する。また、対応点探索処理は、予め指定される第1画像内の1つ又は複数の注目点(注目点の座標)ごとに実行される。注目点(注目点の座標)の情報は、例えば、ROM(14)に予め記憶されること、又は、不図示のデータ入力インターフェースを通じて外部装置から入力されることが考えられる。   Before the corresponding point search process shown in FIG. 2 is started, the image input interface 11 records each data of the first image and the second image constituting the stereo image in the frame memory 12 in advance. Further, the corresponding point search process is executed for each one or a plurality of attention points (coordinates of the attention points) in the first image designated in advance. The information on the point of interest (coordinates of the point of interest) may be stored in advance in the ROM (14) or input from an external device through a data input interface (not shown), for example.

<ステップS1>
画像処理装置10による対応点探索処理において、画像処理プロセッサ13は、図17に示されるような投票空間100、即ち、複数の投票領域20の配列を設定する(S1)。より具体的には、画像処理プロセッサ13は、フレームメモリ12内に、投票空間100の投票領域20各々に相当するデータが配列されるメモリ領域を確保する。このステップS1の処理は、例えば、画像処理プロセッサ13がエピポーラ処理モジュール131を実行することにより実現される。
<Step S1>
In the corresponding point search process by the image processing apparatus 10, the image processor 13 sets the voting space 100 as shown in FIG. 17, that is, an array of a plurality of voting areas 20 (S1). More specifically, the image processor 13 secures a memory area in the frame memory 12 in which data corresponding to each voting area 20 of the voting space 100 is arranged. The processing in step S1 is realized by the image processor 13 executing the epipolar processing module 131, for example.

前述したように、投票空間100は、対応点偏差座標(dx0,dy0)のとり得る範囲を示す領域である。また、対応点偏差座標(dx0,dy0)は、第1画像における注目点の座標(x10,y10)に対する第2画像における対応点の座標(x20,y20)の偏差の座標である。従って、投票空間100の座標軸の一方は、第1画像における注目点のX軸方向の座標値x0に対する第2画像におけるX軸方向の各座標値の偏差dxの座用軸であり、他方は、第1画像における注目点のY軸方向の座標値y0に対する第2画像におけるY軸方向の各座標値の偏差dyの座用軸である。図17において、座標値dxの座標軸はΔXと記され、座標値dyの座標軸はΔYと記されている。   As described above, the voting space 100 is an area indicating a possible range of the corresponding point deviation coordinates (dx0, dy0). The corresponding point deviation coordinates (dx0, dy0) are the coordinates of the deviation of the coordinates (x20, y20) of the corresponding points in the second image with respect to the coordinates (x10, y10) of the target point in the first image. Accordingly, one of the coordinate axes of the voting space 100 is a seat axis for the deviation dx of each coordinate value in the X-axis direction in the second image with respect to the coordinate value x0 in the X-axis direction of the target point in the first image, and the other is This is a sitting axis of deviation dy of each coordinate value in the Y-axis direction in the second image with respect to the coordinate value y0 in the Y-axis direction of the target point in the first image. In FIG. 17, the coordinate axis of the coordinate value dx is denoted by ΔX, and the coordinate axis of the coordinate value dy is denoted by ΔY.

投票空間100を特定するための投票空間100の範囲(上限及び下限の境界値)及び2つの座標軸各々の方向における投票領域20の数(区分数)の情報は、第1画像処理装置が適用される対象に応じて予め与えられる。その情報は、例えば、ROM(14)に予め記憶されること、又は不図示のデータ入力インターフェースを通じて外部装置から入力されることが考えられる。なお、投票空間は、前記基準候補領域の一例である。   The first image processing apparatus is applied to information on the range (upper and lower boundary values) of the voting space 100 for specifying the voting space 100 and the number of voting areas 20 (number of sections) in each of the two coordinate axes. It is given in advance according to the target. For example, the information may be stored in advance in the ROM (14) or may be input from an external device through a data input interface (not shown). The voting space is an example of the reference candidate area.

<ステップS2>
次に、画像処理プロセッサ13は、投票空間100内の一部の領域であるエピポーラ線相当領域を設定する(S2)。このステップS2の処理は、画像処理プロセッサ13がエピポーラ処理モジュール131を実行することにより実現される。なお、エピポーラ処理モジュール131を実行する画像処理プロセッサ13が、前記エピポーラ線相当領域特定部の一例である。
<Step S2>
Next, the image processor 13 sets an epipolar line equivalent region, which is a partial region in the voting space 100 (S2). The processing in step S2 is realized by the image processor 13 executing the epipolar processing module 131. The image processor 13 that executes the epipolar processing module 131 is an example of the epipolar line equivalent region specifying unit.

エピポーラ線相当領域は、投票空間100内における、注目点に対応するエピポーラ線に相当する直線に沿う一部の領域である。また、注目点に対応するエピポーラ線に相当する直線は、注目点の座標に応じて一意に定まる第2画像内のエピポーラ線に対し、第2画像の座標系から投票空間100の座標系への座標系変換を施すことにより得られる直線である。以下、この直線のことをエピポーラ線相当の直線31と称する。   The epipolar line equivalent region is a part of the voting space 100 along a straight line corresponding to the epipolar line corresponding to the attention point. In addition, a straight line corresponding to the epipolar line corresponding to the point of interest is a line from the coordinate system of the second image to the coordinate system of the voting space 100 with respect to the epipolar line in the second image that is uniquely determined according to the coordinates of the point of interest. It is a straight line obtained by performing coordinate system conversion. Hereinafter, this straight line is referred to as a straight line 31 corresponding to an epipolar line.

以下、図3から図5を参照しつつ、エピポーラ線相当の直線31に沿うエピポーラ線相当領域の設定方法の具体例について説明する。図3から図5は、それぞれ、投票空間100におけるエピポーラ線相当領域21の第1例から第3例の各々を示す模式図である。図3から図5において、エピポーラ線相当領域21には砂模様の網掛けが付されている。   Hereinafter, a specific example of a method for setting the epipolar line equivalent region along the straight line 31 equivalent to the epipolar line will be described with reference to FIGS. 3 to 5. FIGS. 3 to 5 are schematic views showing the first to third examples of the epipolar line equivalent region 21 in the voting space 100, respectively. In FIGS. 3 to 5, the epipolar line equivalent area 21 is shaded with sand.

図3に示される第1例は、画像処理プロセッサ13が、複数の投票領域20のうち、エピポーラ線相当の直線31と重なる投票領域20の集合をエピポーラ線相当領域21として特定した例である。   The first example shown in FIG. 3 is an example in which the image processor 13 specifies a set of voting areas 20 that overlap with a straight line 31 equivalent to an epipolar line as the epipolar line equivalent area 21 among a plurality of voting areas 20.

また、図4に示される第2例は、画像処理プロセッサ13が、複数の投票領域20のうち、エピポーラ線相当の直線31に対して予め定められた範囲内に存在する投票領域20の集合をエピポーラ線相当領域21として特定した例である。図4に示される例では、エピポーラ線相当の直線31と重なる投票領域20と、その投票領域20に隣接する投票領域20とが、エピポーラ線相当領域21として特定されている。   In the second example shown in FIG. 4, the image processor 13 sets a set of voting areas 20 existing within a predetermined range with respect to a straight line 31 corresponding to an epipolar line among a plurality of voting areas 20. This is an example specified as the epipolar line equivalent region 21. In the example shown in FIG. 4, the voting area 20 that overlaps the straight line 31 corresponding to the epipolar line and the voting area 20 adjacent to the voting area 20 are specified as the epipolar line equivalent area 21.

また、図5に示される第3例は、画像処理プロセッサ13が、投票空間内のエピポーラ線相当の直線31と一致する部分をエピポーラ線相当領域21として特定した例である。   Further, the third example shown in FIG. 5 is an example in which the image processor 13 specifies a part that coincides with the straight line 31 corresponding to the epipolar line in the voting space as the epipolar line equivalent region 21.

第1画像における注目点に対応する第2画像におけるエピポーラ線の位置は、実験的に導出することができ、また、ステレオ画像を撮像する2つのカメラ1,2の特性及びそれらの位置関係に基づく理論計算によっても導出することができる。その方法は、非特許文献3などに示されるように周知であるので、ここでは説明を省略する。また、既知の情報に基づいて、第2画像の座標系から投票空間100の座標系への座標変換を行うことができる。   The position of the epipolar line in the second image corresponding to the point of interest in the first image can be derived experimentally, and is based on the characteristics of the two cameras 1 and 2 that capture a stereo image and their positional relationship It can also be derived by theoretical calculation. Since this method is well known as shown in Non-Patent Document 3 and the like, description thereof is omitted here. Also, coordinate conversion from the coordinate system of the second image to the coordinate system of the voting space 100 can be performed based on known information.

従って、エピポーラ線相当の直線31も、実験的に導出することができ、また、2つのカメラ1,2の特性及びそれらの位置関係に基づく理論計算によっても導出することができる。画像処理プロセッサ13がエピポーラ線相当領域を特定する方法は、例えば、次の2通りの方法が考えられる。   Therefore, the straight line 31 corresponding to the epipolar line can also be derived experimentally, and can also be derived by theoretical calculation based on the characteristics of the two cameras 1 and 2 and their positional relationship. For example, the following two methods are conceivable as the method by which the image processor 13 identifies the region corresponding to the epipolar line.

第1の方法は、ROM(14)などの記憶部に予め記憶された換算情報に基づいて、第1画像における注目点の座標(x01,y01)から、投票空間100におけるエピポーラ線相当の直線31の位置(一次式)を算出し、算出された直線31の位置に基づいて、その直線31に沿うエピポーラ線相当領域21を特定する方法である。エピポーラ線相当の直線31の位置に基づいてエピポーラ線相当領域21を特定する方法の例は、前述した通りである。この第1の方法によれば、エピポーラ線相当領域21の情報を予め記憶するためのメモリを用意する必要がなくなる。   In the first method, a straight line 31 corresponding to an epipolar line in the voting space 100 is calculated from the coordinates (x01, y01) of the point of interest in the first image based on conversion information stored in advance in a storage unit such as a ROM (14). This is a method of calculating the position (primary expression) of, and specifying the epipolar line equivalent region 21 along the straight line 31 based on the calculated position of the straight line 31. An example of a method for specifying the epipolar line equivalent region 21 based on the position of the straight line 31 corresponding to the epipolar line is as described above. According to the first method, it is not necessary to prepare a memory for storing information on the epipolar line equivalent region 21 in advance.

なお、第1の方法に用いられる換算情報は、画像処理プロセッサ13がプログラムの実行中に参照するデータとして記憶されることの他、画像処理プロセッサ13が実行するプログラム内に定義されることも考えられる。この換算情報は、エピポーラ線相当領域21を直接的に特定する情報に比べ、ごく少量の情報である。   Note that the conversion information used in the first method is not only stored as data referred to by the image processor 13 during execution of the program, but also defined in the program executed by the image processor 13. It is done. This conversion information is a very small amount of information compared to information that directly specifies the epipolar line equivalent region 21.

第2の方法は、注目点の座標(x01,y01)の候補に対応付けられてROM(14)などの記憶部に予め記憶されたエピポーラ線相当領域21を表す情報に従ってエピポーラ線相当領域21を特定する方法である。この第2の方法によれば、エピポーラ線相当領域21を特定するために要する時間を短縮することが可能となる。   In the second method, the epipolar line equivalent region 21 is associated with the candidate coordinates (x01, y01) of the target point and is stored in advance in the storage unit such as the ROM (14) according to the information representing the epipolar line equivalent region 21. It is a method to specify. According to the second method, it is possible to reduce the time required to specify the epipolar line equivalent region 21.

<ステップS3>
また、画像処理プロセッサ13は、第1画像及び第2画像の各データに対して周知の離散フーリエ変換処理を実行することにより、周波数領域での第1画像及び周波数領域での第2画像の各データを算出する(S3)。即ち、画像処理プロセッサ13は、離散フーリエ変換処理により、第1画像に相当する第1周波数画像及び第2画像に相当する第2周波数画像を算出する。以下、第1画像における各画素値をI1(x,y)、第2画像における各画素値をI2(x,y)、第1周波数画像をF1(u,v)、第2周波数画像をF2(u,v)と記載する。ここで、(u,v)は、画像の周波数成分、即ち、周波領域の2次元座標系における座標である。このステップS3の処理は、画像処理プロセッサ13がフーリエ変換モジュール132を実行することにより実現される。
<Step S3>
Further, the image processor 13 performs a well-known discrete Fourier transform process on each data of the first image and the second image, thereby each of the first image in the frequency domain and the second image in the frequency domain. Data is calculated (S3). That is, the image processor 13 calculates a first frequency image corresponding to the first image and a second frequency image corresponding to the second image by discrete Fourier transform processing. Hereinafter, each pixel value in the first image is I1 (x, y), each pixel value in the second image is I2 (x, y), the first frequency image is F1 (u, v), and the second frequency image is F2. It is described as (u, v). Here, (u, v) is the frequency component of the image, that is, the coordinates in the two-dimensional coordinate system of the frequency domain. The process of step S3 is realized by the image processor 13 executing the Fourier transform module 132.

<ステップS4>
また、画像処理プロセッサ13は、周波数成分(u,v)の選択順序を設定する(S4)。周波数成分(u,v)の選択順序は、周波数成分(u,v)ごとに以降のステップS5からステップS9までの処理が実行される際に、その処理に適用される周波数成分(u,v)の順序である。なお、複数の周波数成分(u,v)の中から代表する1つの周波数成分(u,v)のみを選択することも考えられる。
<Step S4>
Further, the image processor 13 sets the selection order of the frequency component (u, v) (S4). The frequency component (u, v) is selected in the order of the frequency components (u, v) applied to the processing when the subsequent processing from step S5 to step S9 is executed for each frequency component (u, v). ) Order. It is also conceivable to select only one representative frequency component (u, v) from among a plurality of frequency components (u, v).

周波数成分(u,v)の選択順序は、例えば、予め定められた順序であること、又は第1周波数画像F1(u,v)及び第2周波数画像F2(u,v)のクロススペクトルの大きい順序であること、などが考えられる。クロススペクトルは、周波数成分(u,v)各々における、第1周波数画像F1(u,v)と第2周波数画像F2(u,v)との間の相関の高さを表す。そのため、クロススペクトルの大きさに基づいて周波数成分(u,v)の選択順序を設定することは、第1周波数画像F1(u,v)と第2周波数画像F2(u,v)との間の相関が高くなる周波数成分(u,v)から順に選択されることにつながる。このステップS4の処理は、画像処理プロセッサ13が位相画像処理モジュール133を実行することにより実現される。   The selection order of the frequency components (u, v) is, for example, a predetermined order or a large cross spectrum between the first frequency image F1 (u, v) and the second frequency image F2 (u, v). The order may be considered. The cross spectrum represents the level of correlation between the first frequency image F1 (u, v) and the second frequency image F2 (u, v) in each frequency component (u, v). Therefore, setting the selection order of the frequency components (u, v) based on the size of the cross spectrum is between the first frequency image F1 (u, v) and the second frequency image F2 (u, v). Are sequentially selected from the frequency components (u, v) that increase the correlation of. The processing in step S4 is realized by the image processor 13 executing the phase image processing module 133.

<ステップS5>
そして、画像処理プロセッサ13は、ステップS4で設定された順序に従って、周波数成分(u,v)を順次選択する(S5)。画像処理プロセッサ13は、選択した周波数成分(u,v)について以下のステップS6からステップS10までの処理を実行することにより、予め定められた終了条件が成立するまでステップS6からステップS10までの処理を繰り返す。
<Step S5>
Then, the image processor 13 sequentially selects the frequency components (u, v) according to the order set in step S4 (S5). The image processor 13 executes the following processing from step S6 to step S10 for the selected frequency component (u, v), thereby performing processing from step S6 to step S10 until a predetermined end condition is satisfied. repeat.

<ステップS6>
周波数成分(u,v)の選択ごとに、画像処理プロセッサ13は、選択した周波数成分(u,v)における第1周波数画像と第2周波数画像との間の位相差Δθ(u,v)を算出する(S6)。ステップS5及びS6の処理は、画像処理プロセッサ13が位相画像処理モジュール133を実行することにより実現される。
<Step S6>
For each selection of the frequency component (u, v), the image processor 13 calculates the phase difference Δθ (u, v) between the first frequency image and the second frequency image at the selected frequency component (u, v). Calculate (S6). The processing in steps S5 and S6 is realized by the image processor 13 executing the phase image processing module 133.

なお、第1周波数画像F1(u,v)及び第2周波数画像F2(u,v)の振幅成分Cr(u,v)は、周波数成分(u,v)を(1)式に適用することによって算出される。(1)式は、クロススペクトルを算出する式である。また、第1周波数画像F1(u,v)及び第2周波数画像F2(u,v)の位相差Δθ(u,v)は、周波数成分(u,v)を(2)式に適用することによって算出される。   For the amplitude component Cr (u, v) of the first frequency image F1 (u, v) and the second frequency image F2 (u, v), the frequency component (u, v) is applied to the equation (1). Is calculated by The expression (1) is an expression for calculating a cross spectrum. The phase difference Δθ (u, v) between the first frequency image F1 (u, v) and the second frequency image F2 (u, v) applies the frequency component (u, v) to equation (2). Is calculated by

Figure 0005338724
Figure 0005338724

Figure 0005338724
Figure 0005338724

ステップS5及びステップS6の処理は、画像処理プロセッサ13が位相画像処理モジュール133を実行することにより実現される。なお、位相画像処理モジュール133を実行する画像処理プロセッサ13が、前記位相差算出部の一例である。   The processes in steps S5 and S6 are realized by the image processor 13 executing the phase image processing module 133. The image processor 13 that executes the phase image processing module 133 is an example of the phase difference calculation unit.

<ステップS7>
次に、画像処理プロセッサ13は、周波数成分(u,v)、位相差Δθ(u, v)及び投票空間における座標(dx,dy)を変数とする(3)式に、選択されている周波数成分(u,v)及びその周波数成分に基づき算出された位相差Δθ(u, v)を適用することにより、投票空間100内の直線である候補直線の式(一次式)の係数を算出する(S7)。なお、(3)式において、M及びNは、ステレオ画像のX軸方向及びY軸方向各々のサイズ(画素数)であり、既知の定数である。
<Step S7>
Next, the image processor 13 selects the frequency selected in the equation (3) using the frequency component (u, v), the phase difference Δθ (u, v), and the coordinates (dx, dy) in the voting space as variables. By applying the phase difference Δθ (u, v) calculated based on the component (u, v) and its frequency component, the coefficient of the candidate straight line equation (primary equation) that is a straight line in the voting space 100 is calculated. (S7). In Equation (3), M and N are the sizes (number of pixels) of the stereo image in the X-axis direction and the Y-axis direction, respectively, and are known constants.

Figure 0005338724
Figure 0005338724

この(3)式は、非特許文献1などに示されるように、周波数成分(u,v)、位相差Δθ(u, v)及び投票空間100における座標 (dx,dy)の各パラメータの間で成立する関係式である。   As shown in Non-Patent Document 1, etc., this equation (3) is calculated between the parameters of the frequency component (u, v), the phase difference Δθ (u, v), and the coordinates (dx, dy) in the voting space 100. This is a relational expression that holds.

<ステップS8>
さらに、画像処理プロセッサ13は、ステップS2で設定したエピポーラ線相当領域21内で、ステップS7の処理の結果に基づく候補直線と重なる領域を特定する(S8)。以下、その領域を重複領域22と称する。
<Step S8>
Further, the image processor 13 identifies an area that overlaps with the candidate straight line based on the result of the process in step S7 in the epipolar line equivalent area 21 set in step S2 (S8). Hereinafter, this area is referred to as an overlapping area 22.

ステップS7及びステップS8の処理は、画像処理プロセッサ13が重複領域処理モジュール134を実行することにより実現される。なお、重複領域処理モジュール134を実行する画像処理プロセッサ13が、前記重複領域特定部の一例である。   The processing of step S7 and step S8 is realized by the image processor 13 executing the overlapping area processing module 134. The image processor 13 that executes the overlapping area processing module 134 is an example of the overlapping area specifying unit.

以下、図6から図8を参照しつつ、重複領域22の特定方法の具体例について説明する。図6から図8は、それぞれ、ステップS8において特定される重複領域22の第1例から第3例の各々を示す模式図である。図6から図8において、重複領域22には斜線の網掛けが付されている。   Hereinafter, a specific example of the method for identifying the overlapping region 22 will be described with reference to FIGS. 6 to 8. FIGS. 6 to 8 are schematic diagrams showing the first to third examples of the overlapping region 22 specified in step S8, respectively. 6 to 8, the overlapping area 22 is shaded with hatching.

図6から図8までのいずれの例も、画像処理プロセッサ13が、投票空間100における複数の投票領域20のうち、エピポーラ線相当領域21と候補直線31とが重なる部分を含む投票領域20を重複領域21として特定した例である。   In any of the examples from FIG. 6 to FIG. 8, the image processor 13 overlaps the voting area 20 including the part where the epipolar line equivalent area 21 and the candidate straight line 31 overlap among the plurality of voting areas 20 in the voting space 100. This is an example specified as the region 21.

図6は、第1例におけるエピポーラ線相当領域21(図3)を形成する投票領域20の集合の中で、一本の候補直線32と重なる投票領域20の集合が、重複領域22として設定された例(第1例)を示す模式図である。   FIG. 6 shows that a set of voting areas 20 that overlap with one candidate straight line 32 is set as an overlapping area 22 in the set of voting areas 20 that form the epipolar line equivalent area 21 (FIG. 3) in the first example. It is a schematic diagram which shows the example (1st example).

図7は、第2例におけるエピポーラ線相当領域21(図4)を形成する投票領域20の集合の中で、一本の候補直線32と重なる投票領域20の集合が、重複領域22として設定された例(第2例)を示す模式図である。   FIG. 7 shows that a set of voting areas 20 that overlap with one candidate straight line 32 is set as an overlapping area 22 in the set of voting areas 20 that form the epipolar line equivalent area 21 (FIG. 4) in the second example. It is a schematic diagram which shows the example (2nd example).

図8は、エピポーラ線相当の直線31と一致するエピポーラ線相当領域21(図5)と一本の候補直線32とが重なる部分(交点)を含む投票領域20が、重複領域22として設定された例(第3例)を示す模式図である。   In FIG. 8, the voting area 20 including the portion (intersection) where the epipolar line equivalent area 21 (FIG. 5) and the single candidate straight line 32 coincide with the straight line 31 equivalent to the epipolar line is set as the overlapping area 22. It is a schematic diagram which shows an example (3rd example).

<ステップS9>
さらに、画像処理プロセッサ13は、一本の候補直線32に対応する重複領域22が特定されるごとに、その重複領域22に含まれる投票領域20各々に対し、予め定められた投票値を積算する(S9)。即ち、画像処理プロセッサ13は、重複領域22とされた投票領域20各々に対応するフレームメモリ12内の各データ領域に、その領域に格納されているデータに対して所定の投票値を加算する。なお、投票空間100に対応するフレームメモリ12内の各データ領域の初期値は0である。
<Step S9>
Further, every time an overlapping area 22 corresponding to one candidate straight line 32 is specified, the image processor 13 accumulates a predetermined vote value for each voting area 20 included in the overlapping area 22. (S9). That is, the image processor 13 adds a predetermined voting value to the data stored in the data area in the frame memory 12 corresponding to each of the voting areas 20 defined as the overlapping areas 22. Note that the initial value of each data area in the frame memory 12 corresponding to the voting space 100 is zero.

投票値は、重複領域22として特定された全ての投票領域20各々に対して同一の値とすることが考えられる。その他、エピポーラ線相当の直線31に対して比較的広い幅を有するエピポーラ線相当領域21が設定される第2例(図7)においては、位置に応じて異なる投票値を採用することが考えられる。   The voting value may be the same value for each of all the voting areas 20 specified as the overlapping area 22. In addition, in the second example (FIG. 7) in which the epipolar line equivalent region 21 having a relatively wide width with respect to the straight line 31 corresponding to the epipolar line is set, it is conceivable to employ different voting values depending on the position. .

より具体的には、画像処理プロセッサ13が、周波数成分(u,v)ごとに順次特定される重複領域22における投票領域20各々に対して、エピポーラ線相当の直線31に対する位置が近いものほど大きな重み付けがなされた投票値を順次積算することが考えられる。例えば、エピポーラ線相当の直線31と重なる投票領域20を基準の投票領域とし、基準の投票領域に近いほど大きな投票値を割り当てることが考えられる。   More specifically, the image processor 13 is larger as the position relative to the straight line 31 corresponding to the epipolar line is closer to each of the voting areas 20 in the overlapping area 22 sequentially specified for each frequency component (u, v). It is conceivable to sequentially accumulate weighted voting values. For example, a voting area 20 that overlaps with a straight line 31 corresponding to an epipolar line may be used as a reference voting area, and a larger voting value may be assigned as it is closer to the reference voting area.

<ステップS10>
画像処理プロセッサ13は、ステップS5からステップS9の処理を実行するごとに、予め定められた終了条件が成立しているか否かを判別する(S10)。そして、画像処理プロセッサ13は、その終了条件が成立するまで、周波数成分(u,v)の選択(S5)と、選択した周波数成分(u,v)各々についての位相差Δθ(u,v)の算出(S6)と、その位相差Δθ(u,v)に対応する重複領域22の特定(S8)と、重複領域22に対する投票値の積算(S9)とを順次実行する。
<Step S10>
The image processor 13 determines whether or not a predetermined end condition is satisfied each time the processing from step S5 to step S9 is executed (S10). The image processor 13 selects the frequency component (u, v) (S5) and the phase difference Δθ (u, v) for each selected frequency component (u, v) until the termination condition is satisfied. Calculation (S6), identification of overlapping region 22 corresponding to the phase difference Δθ (u, v) (S8), and integration of vote values for overlapping region 22 (S9) are sequentially executed.

以下、図9から図11を参照しつつ、複数の周波数成分(u,v)について投票処理(S5〜S9)が行われることにより、複数の候補直線32各々と重なる重複領域22が特定された状況について説明する。図9から図11は、それぞれ、先に説明した図6から図8に対応する。図9から図1において、重複領域22には斜線の網掛け又は黒塗りが付されている。   Hereinafter, with reference to FIG. 9 to FIG. 11, voting processing (S5 to S9) is performed for a plurality of frequency components (u, v), whereby the overlapping region 22 that overlaps each of the plurality of candidate straight lines 32 is specified. Explain the situation. 9 to 11 correspond to FIGS. 6 to 8 described above, respectively. 9 to 1, the overlapping area 22 is shaded or blackened.

図9は、第1例におけるエピポーラ線相当領域21(図3)を形成する投票領域20の集合の中で、複数の候補直線32各々と重なる投票領域20の集合が、重複領域22として設定された例(第1例)を示す模式図である。   FIG. 9 shows a set of voting areas 20 that overlap with each of the plurality of candidate straight lines 32 among the set of voting areas 20 forming the epipolar line equivalent area 21 (FIG. 3) in the first example. It is a schematic diagram which shows the example (1st example).

図10は、第2例におけるエピポーラ線相当領域21(図4)を形成する投票領域20の集合の中で、複数の候補直線32各々と重なる投票領域20の集合が、重複領域22として設定された例(第2例)を示す模式図である。   FIG. 10 shows that a set of voting areas 20 that overlap each of a plurality of candidate straight lines 32 is set as an overlapping area 22 in the set of voting areas 20 that form the epipolar line equivalent area 21 (FIG. 4) in the second example. It is a schematic diagram which shows the example (2nd example).

図11は、第3例におけるエピポーラ線相当領域21(図5)であるエピポーラ線相当の直線31と複数の候補直線32各々とが重なる部分(交点)を含む投票領域20が、重複領域22として設定された例(第3例)を示す模式図である。   In FIG. 11, the voting area 20 including a portion (intersection) where the straight line 31 corresponding to the epipolar line and the plurality of candidate straight lines 32 each overlap with the epipolar line corresponding area 21 (FIG. 5) in the third example is defined as the overlapping area 22. It is a schematic diagram which shows the example (3rd example) set.

終了条件は、投票領域20各々における投票値の積算値が、予め定められた条件を満たすことである。その条件は、例えば、投票値の積算値P1,P2が、次の(4)式を満たすことである。(4)式において、Hは、全ての周波数成分(u,v)の数であり、hは、投票処理(投票値の積算)が終了した周波数成分(u,v)の数であり、Umaxは、投票処理1回当たりの投票値の最大値であり、P1及びP2は、h個の周波数成分(u,v)についての投票処理が行われた時点での投票値の積算値の最大値及び2番目に大きい値である。なお、投票領域20の位置に応じた投票値の重み付けが行われない場合、Umaxは、1回の投票において投票領域20ごとに加算される投票値であり、通常は"1"である。   The end condition is that the integrated value of the voting value in each voting area 20 satisfies a predetermined condition. The condition is, for example, that the integrated values P1 and P2 of the vote values satisfy the following expression (4). In Equation (4), H is the number of all frequency components (u, v), h is the number of frequency components (u, v) for which voting processing (voting value accumulation) has been completed, and Umax Is the maximum voting value per voting process, and P1 and P2 are the maximum integrated values of voting values at the time when the voting process is performed for h frequency components (u, v) And the second largest value. Note that, when the voting value is not weighted according to the position of the voting area 20, Umax is a voting value added for each voting area 20 in one voting, and is normally “1”.

Figure 0005338724
Figure 0005338724

(4)式を満足することは、現時点で投票値の積算値がP1である投票領域20が、投票値の積算値が最終的に最大となることが確定したことを意味する。従って、最終的に投票値の積算値が最大となる投票領域20の位置に基づいて対応点偏差座標(dx0,dy0)を導出する場合、(4)式を終了条件とすることが有効である。   Satisfying the expression (4) means that the voting area 20 whose voting value integrated value is P1 at the present time is finally determined to have the maximum voting value integrated value. Therefore, when the corresponding point deviation coordinates (dx0, dy0) are derived based on the position of the voting area 20 where the integrated value of the voting value finally becomes the maximum, it is effective to use the expression (4) as an end condition. .

また、投票領域20各々における投票値の積算値に基づく終了条件は、他の条件も考えられる。例えば、投票値の積算値の最大値P1が、予め定められたしきい値以上であること、投票値の積算値の最大値P1と、投票値の積算値の2番目に大きい値P2との差(P1-P2)が、予め定められたしきい値以上であること、又はそれら両方の条件を満たすこと、などが考えられる。   In addition, other conditions may be considered as the end condition based on the integrated value of the vote value in each vote area 20. For example, the maximum integrated value P1 of the voting value is equal to or greater than a predetermined threshold, the maximum integrated value P1 of the voting value, and the second largest value P2 of the integrated voting value It is conceivable that the difference (P1-P2) is greater than or equal to a predetermined threshold value, or that both conditions are satisfied.

また、終了条件が、予め定められた個数の周波数成分(u,v)について、位相差Δθ(u,v)の算出(6)と、その位相差Δθ(u,v)に対応する重複領域22の特定(S8)と、投票値の積算(S9)とが行われたことである場合も考えられる。また、代表する1つの周波数成分(u,v)についての投票処理が終了したこと、又は、全ての周波数成分(u,v)についての投票処理が終了したことを終了条件とすることも考えられる。   In addition, for the predetermined number of frequency components (u, v), the end condition is the calculation (6) of the phase difference Δθ (u, v) and the overlapping region corresponding to the phase difference Δθ (u, v). It is also conceivable that 22 identifications (S8) and voting value accumulation (S9) have been performed. It is also conceivable that the end condition is that the voting process for one representative frequency component (u, v) has been completed, or that the voting process has been completed for all frequency components (u, v). .

<ステップS11>
そして、終了条件が成立すると、画像処理プロセッサ13は、投票領域20各々の投票値の積算値に基づいて、投票値が積算された投票領域20の座標に応じた対応点偏差座標(dx0,dy0)を算出する(S11)。より具体的には、画像処理プロセッサ13は、投票空間100における投票値の積算値のピーク位置の座標を、対応点偏差座標(dx0,dy0)として算出する。
<Step S11>
When the end condition is satisfied, the image processor 13 determines the corresponding point deviation coordinates (dx0, dy0) according to the coordinates of the voting area 20 in which the voting values are integrated, based on the integrated value of the voting values in each voting area 20. ) Is calculated (S11). More specifically, the image processor 13 calculates the coordinates of the peak position of the integrated value of the vote value in the vote space 100 as the corresponding point deviation coordinates (dx0, dy0).

ステップS9からステップS11の処理は、画像処理プロセッサ13が対応点座標算計算モジュール135を実行することにより実現される。なお、対応点座標算計算モジュール135を実行する画像処理プロセッサ13が、前記偏差座標導出部の一例である。   The processing from step S9 to step S11 is realized by the image processor 13 executing the corresponding point coordinate calculation module 135. The image processor 13 that executes the corresponding point coordinate calculation module 135 is an example of the deviation coordinate deriving unit.

例えば、画像処理プロセッサ13は、終了条件が成立したときの投票値の積算値が最大である投票領域20の中心の座標を、対応点偏差座標(dx0,dy0)として算出する。或いは、画像処理プロセッサ13は、終了条件が成立したときの投票値の積算値を重み係数として、重複領域22の重心位置の座標を対応点偏差座標(dx0,dy0)として算出する。   For example, the image processor 13 calculates the coordinates of the center of the voting area 20 where the integrated value of the voting values when the end condition is satisfied is the corresponding point deviation coordinates (dx0, dy0). Alternatively, the image processor 13 calculates the coordinates of the barycentric position of the overlapping region 22 as the corresponding point deviation coordinates (dx0, dy0) using the integrated value of the vote values when the end condition is satisfied as a weighting coefficient.

図9から図11は、投票値の積算値が最大である投票領域20が、投票値の積算値のピーク位置220(黒塗り部分)として特定された様子を示す。なお、終了条件が成立したときに、投票値の積算が行われた投票領域20が1つである場合、その投票領域20の中心の座標が、対応点偏差座標(dx0,dy0)として算出される。   9 to 11 show a state in which the voting area 20 having the maximum integrated voting value is specified as the peak position 220 (black portion) of the integrated voting value. When the end condition is satisfied, if there is one voting area 20 on which the voting value is accumulated, the coordinates of the center of the voting area 20 are calculated as corresponding point deviation coordinates (dx0, dy0). The

また、ステップS11の処理において、画像処理プロセッサ13は、以上のようにして算出した対応点偏差座標(dx0,dy0)の情報を、データ出力インターフェース15を通じて外部装置へ出力する。或いは、画像処理プロセッサ13は、第1画像における注目点の座標(x01, y01)と対応点偏差座標(dx0, dy0)とに基づいて、第2画像における対応点の座標(x02, y02)を算出し、その座標(x02,y02)の情報を、データ出力インターフェース15を通じて外部装置へ出力する。以上に示した処理が、第1画像処理装置における対応点探索処理である。   In the process of step S11, the image processor 13 outputs the information of the corresponding point deviation coordinates (dx0, dy0) calculated as described above to the external device through the data output interface 15. Alternatively, the image processor 13 determines the coordinates (x02, y02) of the corresponding point in the second image based on the coordinates (x01, y01) of the target point in the first image and the corresponding point deviation coordinates (dx0, dy0). The information of the coordinates (x02, y02) is calculated and output to the external device through the data output interface 15. The process described above is the corresponding point search process in the first image processing apparatus.

第1画像処理装置の対応点探索処理によれば、対応点偏差座標(dx0,dy0)のとり得る範囲に相当する投票空間100において、エピポーラ線相当の直線31に沿うエピポーラ線相当領域21と、周波数成分(u,v)に応じて定まる候補直線32と、が重なる重複領域22の座標に基づいて、対応点偏差座標(dx0,dy0)が導出される。そのため、対応点の探索範囲、即ち、投票値の積算の対象となる投票領域20の範囲が、エピポーラ線相当の直線31に沿う一部の領域(エピポーラ線相当領域21)に限定される。従って、対応点の探索(重複領域22の特定)が、高い空間分解能で実行された場合でも、即ち、投票領域20の区分数が多い場合でも、対応点探索処理の演算負荷は比較的低く抑えられる。そのため、第1画像処理装置によれば、注目点の座標に対する対応点の座標の偏差を、高精度かつ比較的軽い演算負荷で算出することが可能となる。   According to the corresponding point search processing of the first image processing apparatus, in the voting space 100 corresponding to the range that the corresponding point deviation coordinates (dx0, dy0) can take, the epipolar line equivalent region 21 along the straight line 31 equivalent to the epipolar line, Corresponding point deviation coordinates (dx0, dy0) are derived based on the coordinates of the overlapping area 22 where the candidate straight line 32 determined according to the frequency component (u, v) overlaps. Therefore, the search range of corresponding points, that is, the range of the voting area 20 that is the target of voting value accumulation, is limited to a part of the area (epipolar line equivalent area 21) along the straight line 31 equivalent to the epipolar line. Therefore, even when the corresponding point search (identification of the overlapping region 22) is executed with high spatial resolution, that is, when the number of sections of the voting region 20 is large, the calculation load of the corresponding point search process is kept relatively low. It is done. Therefore, according to the first image processing apparatus, it is possible to calculate the deviation of the coordinate of the corresponding point from the coordinate of the target point with high accuracy and a relatively light calculation load.

また、図3、図6及び図9に示された第1例のように、エピポーラ線相当の直線31と重なる投票領域20の集合のみが、エピポーラ線相当領域21として特定されることにより、エピポーラ線相当領域21がより狭く限定され、演算負荷の低減効果が一層高まる。この手法は、エピポーラ線相当の直線31の位置の精度(信頼性)が特に高い場合に有効である。なお、図5、図8及び図11に示された第3例のように、投票空間100内のエピポーラ線相当の直線31と一致する部分が、エピポーラ線相当領域21として特定される場合も同様の作用効果を奏する。   Further, as in the first example shown in FIGS. 3, 6, and 9, only the set of voting areas 20 that overlap with the straight line 31 corresponding to the epipolar line is specified as the epipolar line equivalent area 21, thereby The line equivalent region 21 is more narrowly limited, and the effect of reducing the calculation load is further enhanced. This method is effective when the accuracy (reliability) of the position of the straight line 31 corresponding to the epipolar line is particularly high. The same applies to the case where the portion corresponding to the epipolar line equivalent line 31 in the voting space 100 is specified as the epipolar line equivalent region 21 as in the third example shown in FIGS. 5, 8, and 11. Has the effect of.

一方、エピポーラ線相当の直線31の位置は、各種の誤差により、本来の位置から多少ずれる状況が考えられる。その場合、図4、図7及び図10に示された第2例のように、エピポーラ線相当の直線31に対して予め定められた範囲内に存在する投票領域20の集合を、エピポーラ線相当領域21として特定することが有効である。このように比較的広い幅を有するエピポーラ線相当領域21が特定されることにより、直線31の位置ずれの可能性が考慮されるとともに、エピポーラ幾何の法則を基準した高精度での対応点探索が可能となる。特に、ステップS9において、直線31との位置関係に応じて重み付けされた投票値を積算することにより、直線31の位置ずれの可能性が考慮されつつも、エピポーラ幾何の法則をより重視した対応点探索が可能となる。   On the other hand, the position of the straight line 31 corresponding to the epipolar line may be slightly deviated from the original position due to various errors. In that case, as in the second example shown in FIGS. 4, 7, and 10, a set of voting areas 20 existing within a predetermined range with respect to the straight line 31 corresponding to the epipolar line is equivalent to the epipolar line. It is effective to specify the area 21. By specifying the epipolar line equivalent region 21 having a relatively wide width in this way, the possibility of positional deviation of the straight line 31 is taken into consideration, and the corresponding point search with high accuracy based on the law of epipolar geometry is performed. It becomes possible. In particular, in step S9, by adding up the weighted voting values according to the positional relationship with the straight line 31, the possibility of positional deviation of the straight line 31 is taken into account, and corresponding points that place greater importance on the law of epipolar geometry Search is possible.

また、終了条件の成立をもって投票処理を終了すること(S10)により、演算負荷のさらなる低減が可能となる。第1画像処理装置においては、エピポーラ幾何の法則に基づいて、投票空間100の中で対応点偏差座標(dx0,dy0)である又はそれに近い位置である可能性の高い一部の領域のみが、重複領域22として特定される。即ち、投票処理において、投票値は、対応点偏差座標(dx0,dy0)である又はそれに近い位置である可能性の高い一部の投票領域20のみに集中的に積算される。従って、第1画像処理装置においては、比較的少ない周波数成分(u,v)についての投票処理が終了した段階で、投票値の積算値の分布に基づく対応点偏差(dx0,dy0)の特定が行われても、高い精度が確保される。   Further, the calculation load can be further reduced by ending the voting process when the end condition is satisfied (S10). In the first image processing apparatus, based on the epipolar geometry law, only a part of the region that is likely to be the corresponding point deviation coordinate (dx0, dy0) or a position close to it in the voting space 100, It is specified as the overlapping area 22. In other words, in the voting process, the voting value is intensively integrated only in a part of the voting area 20 that is likely to be the corresponding point deviation coordinate (dx0, dy0) or a position close thereto. Therefore, in the first image processing apparatus, the corresponding point deviation (dx0, dy0) is specified based on the distribution of the integrated values of the voting values at the stage where the voting processing for relatively few frequency components (u, v) is completed. Even if done, high accuracy is ensured.

<<第2実施形態>>
次に、図12に示されるフローチャートを参照しつつ、本発明の第2実施形態に係る画像処理装置が実行する対応点探索処理について説明する。フローチャートにおいて、S21〜S31は、処理の手順の識別符号を表す。前述したように、本実施形態に係る画像処理装置は、図1に示した画像処理装置10のハードウェア構成を備えている。以下の説明では、便宜上、本実施形態に係る画像処理装置を第2画像処理装置と称する。
<< Second Embodiment >>
Next, the corresponding point search process executed by the image processing apparatus according to the second embodiment of the present invention will be described with reference to the flowchart shown in FIG. In the flowchart, S21 to S31 represent process procedure identification codes. As described above, the image processing apparatus according to the present embodiment has the hardware configuration of the image processing apparatus 10 shown in FIG. In the following description, for convenience, the image processing apparatus according to the present embodiment is referred to as a second image processing apparatus.

第2画像処理装置の対応点探索処理は、第1画像処理装置の対応点探索処理に対し、一部の処理のみが異なる。以下、第2画像処理装置の対応点探索処理について、第1画像処理装置の対応点探索処理と異なる点を主として説明する。   The corresponding point search process of the second image processing apparatus is different from the corresponding point search process of the first image processing apparatus only in some processes. Hereinafter, the corresponding point search process of the second image processing apparatus will be mainly described in terms of differences from the corresponding point search process of the first image processing apparatus.

<ステップS21>
画像処理装置2による対応点探索処理において、画像処理プロセッサ13は、図13に示されるような基準候補領域101を設定する(S21)。基準候補領域101は、対応点偏差座標(dx0,dy0)のとり得る範囲を示す領域である。より具体的には、画像処理プロセッサ13は、基準候補領域101の範囲を特定する情報を主メモリ内に設定する。このステップS1の処理は、例えば、画像処理プロセッサ13がエピポーラ処理モジュール131を実行することにより実現される。
<Step S21>
In the corresponding point search process by the image processing apparatus 2, the image processor 13 sets a reference candidate region 101 as shown in FIG. 13 (S21). The reference candidate area 101 is an area indicating a possible range of the corresponding point deviation coordinates (dx0, dy0). More specifically, the image processor 13 sets information specifying the range of the reference candidate region 101 in the main memory. The processing in step S1 is realized by the image processor 13 executing the epipolar processing module 131, for example.

基準候補領域101を特定するための情報は、第2画像処理装置が適用される対象に応じて予め与えられる。その情報は、例えば、ROM(14)に予め記憶されること、又は不図示のデータ入力インターフェースを通じて外部装置から入力されることが考えられる。   Information for specifying the reference candidate region 101 is given in advance according to a target to which the second image processing apparatus is applied. For example, the information may be stored in advance in the ROM (14) or may be input from an external device through a data input interface (not shown).

<ステップS22>
次に、画像処理プロセッサ13は、第1画像処理装置におけるステップS2の処理と同様に、基準候補領域101内の一部の領域であるエピポーラ線相当領域21を設定する(S22)。但し、このステップS22において設定されるエピポーラ線相当領域21は、図5に示された第3例と同様に、基準候補領域101内のエピポーラ線相当の直線31と一致する部分である。
<Step S22>
Next, the image processor 13 sets the epipolar line equivalent region 21 which is a partial region in the reference candidate region 101, similarly to the process of step S2 in the first image processing apparatus (S22). However, the epipolar line equivalent region 21 set in step S22 is a portion that coincides with the epipolar line equivalent straight line 31 in the reference candidate region 101, as in the third example shown in FIG.

即ち、画像処理プロセッサ13は、ROM(14)などの記憶部に予め記憶された換算情報に基づいて、第1画像における注目点の座標(x01,y01)から、基準候補領域101におけるエピポーラ線相当の直線31の位置(一次式)を算出する。このステップS22の処理は、画像処理プロセッサ13がエピポーラ処理モジュール131を実行することにより実現される。なお、エピポーラ処理モジュール131を実行する画像処理プロセッサ13が、前記エピポーラ線相当領域特定部の一例である。   That is, the image processor 13 corresponds to the epipolar line in the reference candidate region 101 from the coordinates (x01, y01) of the target point in the first image based on the conversion information stored in advance in a storage unit such as the ROM (14). The position (linear expression) of the straight line 31 is calculated. The processing in step S22 is realized by the image processor 13 executing the epipolar processing module 131. The image processor 13 that executes the epipolar processing module 131 is an example of the epipolar line equivalent region specifying unit.

図14は、基準候補領域101におけるエピポーラ線相当の直線31を示す模式図である。このエピポーラ線相当の直線31と一致する直線状の部分が、エピポーラ線相当領域21として設定される。ステップS22の処理は、画像処理プロセッサ13がエピポーラ処理モジュール131を実行することにより実現される。なお、エピポーラ処理モジュール131を実行する画像処理プロセッサ13が、前記エピポーラ線相当領域特定部の一例である。   FIG. 14 is a schematic diagram showing a straight line 31 corresponding to an epipolar line in the reference candidate region 101. A linear portion that coincides with the straight line 31 corresponding to the epipolar line is set as the epipolar line equivalent region 21. The process in step S22 is realized by the image processor 13 executing the epipolar processing module 131. The image processor 13 that executes the epipolar processing module 131 is an example of the epipolar line equivalent region specifying unit.

<ステップS23>
また、画像処理プロセッサ13は、第1画像処理装置におけるステップS3の処理と同様に、周波数領域での第1画像である第1周波数画像をF1(u,v)と、周波数領域での第2画像である第2周波数画像をF2(u,v)の各データを算出する(S23)。
<Step S23>
Similarly to the process of step S3 in the first image processing apparatus, the image processor 13 converts the first frequency image, which is the first image in the frequency domain, to F1 (u, v) and the second frequency domain in the frequency domain. Each data of F2 (u, v) is calculated from the second frequency image which is an image (S23).

<ステップS24>
また、画像処理プロセッサ13は、第1画像処理装置におけるステップS4の処理と同様に、周波数成分(u,v)の選択順序を設定する(S24)。なお、複数の周波数成分(u,v)の中から代表する1つの周波数成分(u,v)のみを選択することも考えられる。
<Step S24>
Further, the image processor 13 sets the selection order of the frequency components (u, v) in the same manner as the process of step S4 in the first image processing apparatus (S24). It is also conceivable to select only one representative frequency component (u, v) from among a plurality of frequency components (u, v).

<ステップS25>
そして、画像処理プロセッサ13は、ステップS24で設定された順序に従って、周波数成分(u,v)を順次選択する(S25)。画像処理プロセッサ13は、選択した周波数成分(u,v)について以下のステップS26からステップS30までの処理を実行することにより、予め定められた終了条件が成立するまでステップS26からステップS30までの処理を繰り返す。
<Step S25>
Then, the image processor 13 sequentially selects the frequency components (u, v) according to the order set in step S24 (S25). The image processor 13 performs the processing from step S26 to step S30 until a predetermined end condition is satisfied by executing the following processing from step S26 to step S30 for the selected frequency component (u, v). repeat.

<ステップS26>
周波数成分(u,v)の選択ごとに、画像処理プロセッサ13は、第1画像処理装置におけるステップS6の処理と同様に、位相差Δθ(u,v)を算出する(S26)。ステップS25及びステップS26の処理は、画像処理プロセッサ13が位相画像処理モジュール133を実行することにより実現される。なお、位相画像処理モジュール133を実行する画像処理プロセッサ13が、前記位相差算出部の一例である。
<Step S26>
Each time the frequency component (u, v) is selected, the image processor 13 calculates the phase difference Δθ (u, v) in the same manner as in step S6 in the first image processing apparatus (S26). The processing in steps S25 and S26 is realized by the image processor 13 executing the phase image processing module 133. The image processor 13 that executes the phase image processing module 133 is an example of the phase difference calculation unit.

<ステップS27>
次に、画像処理プロセッサ13は、第1画像処理装置におけるステップS7の処理と同様に、周波数成分(u,v)、位相差Δθ(u, v)及び投票空間における座標(dx,dy)を変数とする(3)式に、選択されている周波数成分(u,v)及びその周波数成分に基づき算出された位相差Δθ(u, v)を適用することにより、基準候補領域101内の直線である候補直線32の式(一次式)の係数を算出する(S27)。
<Step S27>
Next, the image processor 13 obtains the frequency component (u, v), the phase difference Δθ (u, v), and the coordinates (dx, dy) in the voting space in the same manner as in step S7 in the first image processing apparatus. By applying the selected frequency component (u, v) and the phase difference Δθ (u, v) calculated based on the frequency component to the equation (3) as a variable, a straight line in the reference candidate region 101 is obtained. The coefficient of the equation (primary equation) of the candidate straight line 32 is calculated (S27).

<ステップS28>
さらに、画像処理プロセッサ13は、ステップS22で設定したエピポーラ線相当領域21、即ち、エピポーラ線相当の直線31と、ステップS27の処理の結果に基づく候補直線32との交点の座標を算出する(S28)。この交点は、第1実施形態における重複領域22に相当する。即ち、ステップS28において、画像処理プロセッサ13は、エピポーラ線相当の直線31と候補直線32との交点を、重複領域22として特定する。
<Step S28>
Further, the image processor 13 calculates the coordinates of the intersection of the epipolar line equivalent region 21 set in step S22, that is, the straight line 31 equivalent to the epipolar line, and the candidate straight line 32 based on the result of the process in step S27 (S28). ). This intersection corresponds to the overlapping region 22 in the first embodiment. In other words, in step S <b> 28, the image processor 13 specifies the intersection of the straight line 31 corresponding to the epipolar line and the candidate straight line 32 as the overlapping region 22.

ステップS27及びステップS28の処理は、画像処理プロセッサ13が重複領域処理モジュール134を実行することにより実現される。なお、重複領域処理モジュール134を実行する画像処理プロセッサ13が、前記重複領域特定部の一例である。   The processing in step S27 and step S28 is realized by the image processor 13 executing the overlapping area processing module 134. The image processor 13 that executes the overlapping area processing module 134 is an example of the overlapping area specifying unit.

図15は、エピポーラ線相当の直線31と一致するエピポーラ線相当領域21と一本の候補直線32との交点が、重複領域22として設定された状況を示す模式図である。   FIG. 15 is a schematic diagram showing a situation in which the intersection of the epipolar line equivalent region 21 and one candidate straight line 32 that coincides with the straight line 31 equivalent to the epipolar line is set as the overlapping region 22.

<ステップS29>
さらに、画像処理プロセッサ13は、一本の候補直線32に対応する重複領域22(交点)が特定されるごとに、その交点の座標を主メモリに記録する(S29)。
<Step S29>
Further, every time an overlapping region 22 (intersection) corresponding to one candidate straight line 32 is specified, the image processor 13 records the coordinates of the intersection in the main memory (S29).

<ステップS30>
そして、画像処理プロセッサ13は、ステップS25からステップS29の処理を実行するごとに、第1画像処理装置によるステップS29の処理と同様に、予め定められた終了条件が成立しているか否かを判別する(S30)。そして、画像処理プロセッサ13は、その終了条件が成立するまで、周波数成分(u,v)の選択(S25)と、選択した周波数成分(u,v)各々についての位相差Δθ(u,v)の算出(S26)と、その位相差Δθ(u,v)に対応する重複領域22(交点)の特定及び記録(S28、S29)とを順次実行する。
<Step S30>
The image processor 13 determines whether or not a predetermined end condition is satisfied, similar to the process of step S29 by the first image processing apparatus, every time the processes of step S25 to step S29 are executed. (S30). Then, the image processor 13 selects the frequency component (u, v) (S25) and the phase difference Δθ (u, v) for each selected frequency component (u, v) until the termination condition is satisfied. Calculation (S26) and identification and recording (S28, S29) of the overlapping area 22 (intersection) corresponding to the phase difference Δθ (u, v) are sequentially executed.

終了条件は、例えば、エピポーラ線相当の直線31上における予め定められた長さの範囲内に、予め定められた個数以上の重複領域22(交点)が集中して存在することである。   The termination condition is, for example, that a predetermined number or more of overlapping regions 22 (intersection points) are concentrated and exist within a predetermined length range on the straight line 31 corresponding to the epipolar line.

また、終了条件が、予め定められた個数の周波数成分(u,v)について、位相差Δθ(u,v)の算出(26)と、その位相差Δθ(u,v)に対応する重複領域22(交点)の特定(S28)とが行われたことである場合も考えられる。また、代表する1つの周波数成分(u,v)についてステップS26〜S29の処理が終了したこと、又は、全ての周波数成分(u,v)についてステップS26〜S29の処理が終了したこと、などを終了条件とすることも考えられる。   In addition, for a predetermined number of frequency components (u, v), the end condition is the calculation (26) of the phase difference Δθ (u, v) and the overlapping region corresponding to the phase difference Δθ (u, v). It is also conceivable that 22 (intersection) is identified (S28). Further, the processing of steps S26 to S29 is completed for one representative frequency component (u, v), or the processing of steps S26 to S29 is completed for all frequency components (u, v). An end condition may be considered.

図16は、エピポーラ線相当の直線31と一致するエピポーラ線相当領域21と複数の候補直線32各々との交点が、重複領域22として設定された状況を示す模式図である。   FIG. 16 is a schematic diagram showing a situation where the intersections between the epipolar line equivalent region 21 and each of the plurality of candidate straight lines 32 that coincide with the straight line 31 equivalent to the epipolar line are set as the overlapping region 22.

<ステップS31>
そして、終了条件が成立すると、画像処理プロセッサ13は、基準候補領域101における複数の重複領域22(交点)の座標を統合した座標を、対応点偏差座標(dx0,dy0)として算出する。例えば、複数の重複領域22(交点)の重心位置の座標を対応点偏差座標(dx0,dy0)として算出することが考えられる。なお、ステップS26〜S29の処理が、代表する1つの周波数成分(u,v)についてのみ行われた場合には、エピポーラ線相当の直線31と1本の候補直線32との交点が、対応点偏差座標(dx0,dy0)として算出される。
<Step S31>
When the end condition is satisfied, the image processor 13 calculates coordinates obtained by integrating the coordinates of the plurality of overlapping areas 22 (intersection points) in the reference candidate area 101 as corresponding point deviation coordinates (dx0, dy0). For example, it is conceivable to calculate the coordinates of the barycentric positions of a plurality of overlapping regions 22 (intersection points) as corresponding point deviation coordinates (dx0, dy0). In addition, when the process of step S26-S29 is performed only about one representative frequency component (u, v), the intersection of the straight line 31 equivalent to an epipolar line and one candidate straight line 32 is a corresponding point. Calculated as deviation coordinates (dx0, dy0).

また、ステップS31の処理において、画像処理プロセッサ13は、以上のようにして算出した対応点偏差座標(dx0,dy0)の情報を、データ出力インターフェース15を通じて外部装置へ出力する。或いは、画像処理プロセッサ13は、第1画像における注目点の座標(x01, y01)と対応点偏差座標(dx0, dy0)とに基づいて、第2画像における対応点の座標(x02, y02)を算出し、その座標(x02,y02)の情報を、データ出力インターフェース15を通じて外部装置へ出力する。以上に示した処理が、第2画像処理装置における対応点探索処理である。   In step S31, the image processor 13 outputs the corresponding point deviation coordinate (dx0, dy0) information calculated as described above to the external device via the data output interface 15. Alternatively, the image processor 13 determines the coordinates (x02, y02) of the corresponding point in the second image based on the coordinates (x01, y01) of the target point in the first image and the corresponding point deviation coordinates (dx0, dy0). The information of the coordinates (x02, y02) is calculated and output to the external device through the data output interface 15. The process described above is the corresponding point search process in the second image processing apparatus.

第2画像処理装置の対応点探索処理によれば、第1画像処理装置と同様に、注目点の座標に対する対応点の座標の偏差を、高精度かつ比較的軽い演算負荷で算出することが可能となる。特に、第2画像処理装置の対応点探索処理は、第1画像処理装置において行われる投票処理が不要であるので、より軽い演算負荷で対応点偏差座標(dx0, dy0)を算出できる。   According to the corresponding point search processing of the second image processing device, as in the first image processing device, it is possible to calculate the deviation of the coordinates of the corresponding point with respect to the coordinates of the target point with high accuracy and a relatively light calculation load. It becomes. In particular, since the corresponding point search process of the second image processing apparatus does not require the voting process performed in the first image processing apparatus, the corresponding point deviation coordinates (dx0, dy0) can be calculated with a lighter calculation load.

<<第3実施形態>>
以上に示した実施形態において、投票空間100又は基準候補領域101の座標系における一方の座標軸(ΔX軸又はΔY軸)と、エピポーラ線相当の直線31とが平行となるように、投票空間100又は基準候補領域101を設定することが考えられる。
<< Third Embodiment >>
In the embodiment described above, one of the coordinate axes (ΔX axis or ΔY axis) in the coordinate system of the voting space 100 or the reference candidate region 101 and the straight line 31 corresponding to the epipolar line are parallel to each other. It is conceivable to set the reference candidate region 101.

即ち、画像処理プロセッサ13が、投票空間100又は基準候補領域101の座標系における一方の座標軸(ΔX軸又はΔY軸)とエピポーラ線相当の直線31とを平行にする平行化処理を実行することが考えられる。この場合、画像処理プロセッサ13は、不図示の平行化処理のプログラムモジュールを実行することによって実現される。なお、その平行化処理のプログラムモジュールを実行する画像処理プロセッサ13が、前記平行化処理部の一例である。   That is, the image processor 13 executes a parallelizing process for making one coordinate axis (ΔX axis or ΔY axis) in the coordinate system of the voting space 100 or the reference candidate region 101 parallel to the straight line 31 corresponding to the epipolar line. Conceivable. In this case, the image processor 13 is realized by executing a program module for parallelization processing (not shown). The image processor 13 that executes the parallel processing program module is an example of the parallel processing unit.

平行化処理は、例えば、図2又は図12に示される対応点探索処理が行われる前に、第2画像に対してエピポーラ線と一方の座標軸(X軸又はY軸)とのなす角度分だけ回転処理を施すことによって実現される。   For example, before the corresponding point search processing shown in FIG. 2 or FIG. 12 is performed, the parallelization processing is performed by the angle formed by the epipolar line and one coordinate axis (X axis or Y axis) with respect to the second image. This is realized by applying a rotation process.

平行化処理が行われることにより、投票空間100又は基準候補領域101におけるエピポーラ線相当の直線31を特定する情報は、ΔY軸の切片の情報のみ又はΔX軸の切片の情報のみとなる。これにより、エピポーラ線相当領域21の設定及び重複領域22の特定に要する演算負荷がさらに軽減される。   By performing the parallelization process, the information specifying the straight line 31 corresponding to the epipolar line in the voting space 100 or the reference candidate region 101 is only the information on the ΔY-axis intercept or the information on the ΔX-axis intercept. Thereby, the calculation load required for setting the epipolar line equivalent region 21 and specifying the overlapping region 22 is further reduced.

1,2 カメラ
10 画像処理装置
11 画像入力インターフェース
12 フレームメモリ
13 画像処理プロセッサ
14 ROM
15 データ出力インターフェース
20 投票領域
21 エピポーラ線相当領域
22 重複領域又は交点
23 特定投票領域
131 エピポーラ処理モジュール
132 フーリエ変換モジュール
133 位相画像処理モジュール
134 重複領域処理モジュール
135 対応点座標算計算モジュール
S1〜S31 処理手順の識別符号
DESCRIPTION OF SYMBOLS 1, 2 Camera 10 Image processing apparatus 11 Image input interface 12 Frame memory 13 Image processor 14 ROM
15 Data Output Interface 20 Voting Area 21 Epipolar Line Equivalent Area 22 Overlapping Area or Intersection 23 Specific Voting Area 131 Epipolar Processing Module 132 Fourier Transform Module 133 Phase Image Processing Module 134 Overlapping Area Processing Module 135 Corresponding Point Coordinate Calculation Module S1-S31 Processing Procedure identification code

Claims (15)

ステレオ画像を構成する第1画像及び第2画像各々に相当する空間周波数領域での位相画像である第1位相画像及び第2位相画像に基づいて、前記第1画像内で指定される注目点に対応する前記第2画像内の対応点の座標を導出する対応点探索処理を実行する画像処理装置であって、
前記第1画像における前記注目点の座標に対する前記第2画像における前記対応点の座標の偏差の座標である対応点偏差座標のとり得る範囲を示す基準候補領域における、前記注目点に対応するエピポーラ線に相当する第1の直線に沿う一部のエピポーラ線相当領域を特定するエピポーラ線相当領域特定部と、
前記第1位相画像と前記第2位相画像との間における周波数成分に応じた位相差を算出する位相差算出部と、
前記エピポーラ線相当領域内で、周波数成分及び該周波数成分に対応する前記位相差を予め定められた式に適用することにより得られる前記基準候補領域内の第2の直線と重なる重複領域を特定する重複領域特定部と、
前記重複領域の座標に応じた前記対応点偏差座標を導出する偏差座標導出部と、
を備えることを特徴とする画像処理装置。
Based on the first phase image and the second phase image, which are phase images in the spatial frequency domain corresponding to each of the first image and the second image constituting the stereo image, the attention point designated in the first image An image processing device that executes corresponding point search processing for deriving coordinates of corresponding points in the corresponding second image,
Epipolar line corresponding to the target point in a reference candidate region indicating a possible range of the corresponding point deviation coordinate that is a coordinate of the deviation of the coordinate of the corresponding point in the second image with respect to the coordinate of the target point in the first image An epipolar line equivalent region specifying part for specifying a part of the epipolar line equivalent region along the first straight line corresponding to
A phase difference calculator that calculates a phase difference according to a frequency component between the first phase image and the second phase image;
In the region corresponding to the epipolar line, an overlapping region that overlaps a second straight line in the reference candidate region obtained by applying a frequency component and the phase difference corresponding to the frequency component to a predetermined formula is specified. An overlapping area specifying part;
A deviation coordinate deriving unit for deriving the corresponding point deviation coordinates according to the coordinates of the overlapping region;
An image processing apparatus comprising:
前記重複領域特定部は、前記基準候補領域が離散化された部分領域である複数の単位領域のうち、前記エピポーラ線相当領域と前記第2の直線とが重なる部分を含む前記単位領域を前記重複領域として特定する請求項1に記載の画像処理装置。   The overlapping region specifying unit includes the overlapping unit region including a portion where the epipolar line equivalent region and the second straight line overlap each other among a plurality of unit regions that are partial regions in which the reference candidate region is discretized. The image processing apparatus according to claim 1, wherein the image processing apparatus is specified as a region. 前記エピポーラ線相当領域特定部は、複数の前記単位領域のうち前記第1の直線と重なる前記単位領域の集合を前記エピポーラ線相当領域として特定する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the epipolar line equivalent region specifying unit specifies, as the epipolar line equivalent region, a set of the unit regions that overlap the first straight line among the plurality of unit regions. 前記エピポーラ線相当領域特定部は、複数の前記単位領域のうち前記第1の直線に対して予め定められた範囲内に存在する前記単位領域の集合を前記エピポーラ線相当領域として特定する請求項2に記載の画像処理装置。   The epipolar line equivalent region specifying unit specifies, as the epipolar line equivalent region, a set of unit regions existing within a predetermined range with respect to the first straight line among the plurality of unit regions. An image processing apparatus according to 1. 前記エピポーラ線相当領域特定部は、前記基準候補領域内の前記第1の直線と一致する部分を前記エピポーラ線相当領域として特定する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the epipolar line equivalent region specifying unit specifies a portion that coincides with the first straight line in the reference candidate region as the epipolar line equivalent region. 前記位相差算出部及び前記重複領域特定部は、予め定められた終了条件が成立するまで周波数成分各々について前記位相差の算出及び該位相差に対応する前記重複領域の特定を順次実行し、
前記偏差座標導出部は、前記重複領域特定部により複数の周波数成分各々について順次特定される前記重複領域における前記単位領域各々に対して投票値を順次積算し、前記基準候補領域における前記投票値の積算値のピーク位置の座標を前記対応点偏差座標として特定する請求項2から請求項5のいずれかに記載の画像処理装置。
The phase difference calculation unit and the overlap region specifying unit sequentially execute calculation of the phase difference and specification of the overlap region corresponding to the phase difference for each frequency component until a predetermined end condition is satisfied,
The deviation coordinate deriving unit sequentially accumulates voting values for each of the unit regions in the overlapping region sequentially specified for each of a plurality of frequency components by the overlapping region specifying unit, and calculates the voting values in the reference candidate region. 6. The image processing apparatus according to claim 2, wherein coordinates of a peak position of an integrated value are specified as the corresponding point deviation coordinates.
前記位相差算出部及び前記重複領域特定部は、予め定められた終了条件が成立するまで周波数成分各々について前記位相差の算出及び該位相差に対応する前記重複領域の特定を順次実行し、
前記偏差座標導出部は、前記重複領域特定部により複数の周波数成分各々について順次特定される前記重複領域における前記単位領域各々に対して、前記第1の直線との位置関係に応じて重み付けされた投票値を順次積算し、前記基準候補領域における前記投票値の積算値のピーク位置の座標を前記対応点偏差座標として特定する請求項4に記載の画像処理装置。
The phase difference calculation unit and the overlap region specifying unit sequentially execute calculation of the phase difference and specification of the overlap region corresponding to the phase difference for each frequency component until a predetermined end condition is satisfied,
The deviation coordinate deriving unit is weighted according to the positional relationship with the first straight line for each of the unit regions in the overlapping region sequentially specified for each of a plurality of frequency components by the overlapping region specifying unit. The image processing apparatus according to claim 4, wherein the vote values are sequentially accumulated, and the coordinates of the peak position of the accumulated value of the vote values in the reference candidate region are specified as the corresponding point deviation coordinates.
前記終了条件は、前記単位領域各々における前記投票値の積算値が予め定められた条件を満たすことである請求項6又は請求項7に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the end condition is that an integrated value of the vote values in each of the unit areas satisfies a predetermined condition. 前記終了条件は、予め定められた個数の周波数成分について前記位相差の算出及び該位相差に対応する前記重複領域の特定が行われたことである請求項6又は請求項7に記載の画像処理装置。   8. The image processing according to claim 6, wherein the termination condition is that the phase difference is calculated and the overlapping region corresponding to the phase difference is specified for a predetermined number of frequency components. apparatus. 前記エピポーラ線相当領域特定部は、前記基準候補領域内の前記第1の直線と一致する部分を前記エピポーラ線相当領域として特定し、
前記重複領域特定部は、前記第1の直線と前記第2の直線との交点を前記重複領域として特定し、
前記偏差座標導出部は、前記基準候補領域における複数の前記交点の座標を統合した座標を前記対応点偏差座標として導出する請求項1に記載の画像処理装置。
The epipolar line equivalent region specifying unit specifies a portion coinciding with the first straight line in the reference candidate region as the epipolar line equivalent region,
The overlapping area specifying unit specifies an intersection between the first straight line and the second straight line as the overlapping area,
The image processing apparatus according to claim 1, wherein the deviation coordinate deriving unit derives, as the corresponding point deviation coordinates, a coordinate obtained by integrating the coordinates of the plurality of intersections in the reference candidate region.
前記エピポーラ線相当領域特定部は、前記基準候補領域内の前記第1の直線と一致する部分を前記エピポーラ線相当領域として特定し、
前記重複領域特定部は、前記第1の直線と前記第2の直線との交点を前記重複領域として特定し、
前記偏差座標導出部は、前記基準候補領域における1つの前記交点の座標を前記対応点偏差座標として導出する請求項1に記載の画像処理装置。
The epipolar line equivalent region specifying unit specifies a portion coinciding with the first straight line in the reference candidate region as the epipolar line equivalent region,
The overlapping area specifying unit specifies an intersection between the first straight line and the second straight line as the overlapping area,
The image processing apparatus according to claim 1, wherein the deviation coordinate deriving unit derives the coordinates of one intersection point in the reference candidate region as the corresponding point deviation coordinates.
前記エピポーラ線相当領域特定部は、記憶部に予め記憶された換算情報に基づいて、前記第1画像における前記注目点の座標から前記基準候補領域における前記第1の直線の位置を算出し、算出された前記第1の直線の位置に基づいて前記エピポーラ線相当領域を特定する請求項1から請求項11のいずれかに記載の画像処理装置。   The epipolar line equivalent region specifying unit calculates the position of the first straight line in the reference candidate region from the coordinates of the attention point in the first image based on conversion information stored in advance in a storage unit. The image processing apparatus according to claim 1, wherein the region corresponding to the epipolar line is specified based on the position of the first straight line. 前記エピポーラ線相当領域特定部は、前記注目点の座標の候補に対応して記憶部に予め記憶された前記エピポーラ線相当領域を表す情報に従って前記エピポーラ線相当領域を特定する請求項1から請求項11のいずれかに記載の画像処理装置。   The epipolar line equivalent region specifying unit specifies the epipolar line equivalent region according to information representing the epipolar line equivalent region stored in advance in a storage unit corresponding to the coordinate candidate of the target point. The image processing apparatus according to any one of 11. 前記基準候補領域の座標系における一の座標軸と前記第1の直線とが平行となるように前記基準候補領域を設定する平行化処理部を備える請求項1から請求項13のいずれかに記載の画像処理装置。   The parallel processing part which sets the said reference candidate area | region so that the one coordinate axis in the coordinate system of the said reference candidate area | region and the said 1st straight line may become parallel is provided. Image processing device. ステレオ画像を構成する第1画像及び第2画像各々に相当する空間周波数領域での位相画像である第1位相画像及び第2位相画像に基づいて、前記第1画像内で指定される注目点に対応する前記第2画像内の対応点の座標を導出する対応点探索処理をコンピュータに実行させるための画像処理プログラムであって、
前記第1画像における前記注目点の座標に対する前記第2画像における前記対応点の座標の偏差の座標である対応点偏差座標のとり得る範囲を示す基準候補領域における、前記注目点に対応するエピポーラ線に相当する第1の直線に沿う一部のエピポーラ線相当領域を特定するエピポーラ線相当領域特処理と、
前記第1位相画像と前記第2位相画像との間における周波数成分に応じた位相差を算出する位相差算処理と、
前記エピポーラ線相当領域内で、周波数成分及び該周波数成分に対応する前記位相差を予め定められた式に適用することにより得られる前記基準候補領域内の第2の直線と重なる重複領域を特定する重複領域特処理と、
前記重複領域の座標に応じた前記対応点偏差座標を導出する偏差座標導出処理と、
をコンピュータに実行させるための画像処理装置プログラム。
Based on the first phase image and the second phase image, which are phase images in the spatial frequency domain corresponding to each of the first image and the second image constituting the stereo image, the attention point designated in the first image An image processing program for causing a computer to execute corresponding point search processing for deriving coordinates of corresponding points in the corresponding second image,
Epipolar line corresponding to the target point in a reference candidate region indicating a possible range of the corresponding point deviation coordinate that is a coordinate of the deviation of the coordinate of the corresponding point in the second image with respect to the coordinate of the target point in the first image Epipolar line equivalent region special processing for identifying a part of the epipolar line equivalent region along the first straight line corresponding to
A phase difference calculation process for calculating a phase difference according to a frequency component between the first phase image and the second phase image;
In the region corresponding to the epipolar line, an overlapping region that overlaps a second straight line in the reference candidate region obtained by applying a frequency component and the phase difference corresponding to the frequency component to a predetermined formula is specified. Overlapping area special processing,
Deviation coordinate derivation processing for deriving the corresponding point deviation coordinates according to the coordinates of the overlapping region;
An image processing apparatus program for causing a computer to execute.
JP2010065406A 2010-03-23 2010-03-23 Image processing apparatus and image processing program Expired - Fee Related JP5338724B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065406A JP5338724B2 (en) 2010-03-23 2010-03-23 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065406A JP5338724B2 (en) 2010-03-23 2010-03-23 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2011198167A JP2011198167A (en) 2011-10-06
JP5338724B2 true JP5338724B2 (en) 2013-11-13

Family

ID=44876253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065406A Expired - Fee Related JP5338724B2 (en) 2010-03-23 2010-03-23 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5338724B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106767405B (en) * 2016-12-15 2019-07-05 深圳大学 The method and device of the quick corresponding point matching of phase mapping assist three-dimensional imaging system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3468182B2 (en) * 1999-12-21 2003-11-17 日本電気株式会社 Image matching apparatus and image matching method
JP2004234423A (en) * 2003-01-31 2004-08-19 Seiko Epson Corp Stereoscopic image processing method, stereoscopic image processor and stereoscopic image processing program
JP4993686B2 (en) * 2006-11-09 2012-08-08 アズビル株式会社 Corresponding point search method and three-dimensional position measurement method

Also Published As

Publication number Publication date
JP2011198167A (en) 2011-10-06

Similar Documents

Publication Publication Date Title
JP4883223B2 (en) Motion vector generation apparatus and motion vector generation method
Zhu et al. A marker-free method for structural dynamic displacement measurement based on optical flow
US20150310617A1 (en) Display control device and display control method
JP2021119507A (en) Traffic lane determination method, traffic lane positioning accuracy evaluation method, traffic lane determination apparatus, traffic lane positioning accuracy evaluation apparatus, electronic device, computer readable storage medium, and program
JP5428618B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6658625B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2008185375A (en) 3d shape calculation device of sar image, and distortion correction device of sar image
JP4941565B2 (en) Corresponding point search apparatus and corresponding point searching method
JP6332951B2 (en) Image processing apparatus, image processing method, and program
JP7238984B2 (en) Vibration measuring device, vibration measuring method, and program
JP4694624B2 (en) Image correction apparatus and method, and computer program
JPWO2019198534A1 (en) Vibration analysis device, control method of vibration analysis device, vibration analysis program and recording medium
JP5110235B1 (en) Image processing apparatus, image processing method, and program
WO2014132754A1 (en) Image-processing device and image-processing method
JP5082856B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
JP5679406B2 (en) Target speed specifying device, target speed specifying program, and target speed specifying method
JP6040782B2 (en) Image processing apparatus and program
JP5338724B2 (en) Image processing apparatus and image processing program
Dowson et al. Estimating the joint statistics of images using nonparametric windows with application to registration using mutual information
JP6163868B2 (en) Image processing method, image processing apparatus, and image processing program
JP5310402B2 (en) Image conversion parameter calculation apparatus, image conversion parameter calculation method, and program
JP5051670B2 (en) Image processing apparatus, image processing method, and image processing program
JP6996569B2 (en) Measurement system, correction processing device, correction processing method, and program
JP5728399B2 (en) Measuring device, method and program
JP2024082479A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130722

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees