JP2011165117A - Apparatus, method and program for processing image - Google Patents
Apparatus, method and program for processing image Download PDFInfo
- Publication number
- JP2011165117A JP2011165117A JP2010029992A JP2010029992A JP2011165117A JP 2011165117 A JP2011165117 A JP 2011165117A JP 2010029992 A JP2010029992 A JP 2010029992A JP 2010029992 A JP2010029992 A JP 2010029992A JP 2011165117 A JP2011165117 A JP 2011165117A
- Authority
- JP
- Japan
- Prior art keywords
- image
- boundary
- block
- combination
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法および画像処理プログラムに関し、特に、ステレオマッチングを行なう画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program, and more particularly to an image processing device, an image processing method, and an image processing program that perform stereo matching.
従来のステレオ処理方式の一例として、たとえば、特許文献1(特開平4−299474号公報)には、以下のような技術が開示されている。すなわち、2つの画像A,Bのブロック同士の画素値の相関を、相関計算手段で計算する。AからB方向、およびBからA方向のそれぞれについて、その対応の相関値による順位付けを相関係数順位付け手段で行なう。さらにAからB方向、およびBからA方向の順位の和を相関係数順位加算手段で求める。この順位の和を積算し、対応のないブロックの数に応じた一定のペナルティを加えたものが最小になる対応の組み合わせを最小加算順位選択手段によって求める。 As an example of a conventional stereo processing method, for example, Patent Document 1 (Japanese Patent Laid-Open No. 4-299474) discloses the following technique. That is, the correlation between the pixel values of the blocks of the two images A and B is calculated by the correlation calculation means. For each of the directions from A to B and from B to A, the correlation coefficients are ranked by the correlation coefficient ranking means. Further, the sum of the ranks in the A to B direction and the B to A direction is obtained by the correlation coefficient rank adding means. The sum of the ranks is integrated, and the minimum combination rank selection means obtains the corresponding combination that minimizes the sum of a certain penalty corresponding to the number of uncorresponding blocks.
ここで、相関係数の計算には、非特許文献1に示されているような2つの画像におけるM×Nサイズのブロック間での相関値を用いるテンプレートマッチングが知られており、マッチングが達成されたときの中央位置(注目点)をテンプレート画像位置(対応点)とするのが一般的である。この場合に、たとえばM,Nには11,13などの奇数が用いられ、中心となる画素の位置(注目点)でマッチングが得られ、当該注目点が対応点として得られたとする処理を行なう。
Here, for the calculation of the correlation coefficient, template matching using a correlation value between M × N size blocks in two images as shown in Non-Patent
また、特許文献2(特開平11−183142号公報)には、以下のような技術が開示されている。すなわち、被測定物体に対する輝度情報および距離情報を測定する三次元画像撮像方法において、上記被測定物体を複数の撮像位置から撮影して複数の視差画像を取得する。次に、上記視差画像の一つを輝度情報とするとともに、この輝度情報となる基準視差画像とその撮像位置に最も近い撮像位置での第1の視差画像との画像対からステレオ視に必要な第1回目の対応画素探索を行い、第1のオクルージョンが発生しない範囲において上記画像対の視差から輝度情報の各画素に対する撮像位置からの各距離を算出して距離情報として記憶する。次に、上記基準視差画像とその撮像位置に2番目に近い撮像位置での第2の視差画像との画像対から再度対応画素探索を行い、第2のオクルージョンが発生しない範囲において各画素に対応する各距離を算出し、距離が算出できた画素については既に記憶している距離情報を書き換える距離情報書換処理を行なう。次に、この距離情報書換処理について、上記基準視差画像と撮像位置の近さが3番目以降の各視差画像との画像対で順次処理を繰り返し行なう。そして、上記第1のオクルージョンが発生している範囲の画素については、距離情報がないオクルージョン画素として記憶し、上記第1のオクルージョンが発生している範囲の画素については、この画素に対する最近傍の画素の距離情報を割り当てる。 Patent Document 2 (Japanese Patent Laid-Open No. 11-183142) discloses the following technique. That is, in a three-dimensional image imaging method for measuring luminance information and distance information for a measured object, the measured object is photographed from a plurality of imaging positions to obtain a plurality of parallax images. Next, one of the parallax images is used as luminance information, and is necessary for stereo viewing from the image pair of the reference parallax image serving as the luminance information and the first parallax image at the imaging position closest to the imaging position. The first corresponding pixel search is performed, and each distance from the imaging position for each pixel of the luminance information is calculated from the parallax of the image pair within a range where the first occlusion does not occur, and stored as distance information. Next, the corresponding pixel search is performed again from the image pair of the reference parallax image and the second parallax image at the imaging position second closest to the imaging position, and each pixel is handled in a range where the second occlusion does not occur. Each distance to be calculated is calculated, and a distance information rewriting process for rewriting the already stored distance information is performed for the pixels for which the distance has been calculated. Next, in the distance information rewriting process, the process is sequentially repeated for image pairs of the reference parallax image and each parallax image whose imaging position is close to the third and subsequent positions. Then, the pixel in the range where the first occlusion occurs is stored as an occlusion pixel without distance information, and the pixel in the range where the first occlusion occurs is the nearest neighbor to this pixel. Assign pixel distance information.
テンプレート画像を用いてマッチングを行なうステレオマッチング手法においては、ステレオ処理しようとする対象物に急峻な形状変化があると、その変化部分付近におけるステレオマッチングの精度が低下する場合がある、という課題がある。 A stereo matching method that uses a template image for matching has a problem in that if there is a sharp shape change in an object to be stereo processed, the accuracy of stereo matching in the vicinity of the changed portion may be reduced. .
その理由は、次のとおりである。すなわち、形状変化部分の周辺には、両方の画像間での対応がない部分である隠れ領域(オクルージョン領域)が存在する。そして、相関係数の計算において、隠れ領域と非隠れ領域の境界部分付近での相関係数値が必ずしも最大とならず、ステレオマッチングの対応ミスが発生するためである。以下、模式図を用いてこれを説明する。 The reason is as follows. In other words, there is a hidden area (occlusion area) that is a part where there is no correspondence between both images around the shape change part. In the correlation coefficient calculation, the correlation coefficient value in the vicinity of the boundary portion between the hidden area and the non-hidden area is not necessarily maximized, and a stereo matching correspondence error occurs. Hereinafter, this will be described with reference to schematic views.
図11は、L画像およびR画像の撮影方法を示す模式図である。図12は、ステレオ画像におけるL画像およびR画像の見え方の違いを説明するための図である。 FIG. 11 is a schematic diagram illustrating a method for capturing an L image and an R image. FIG. 12 is a diagram for explaining a difference in appearance between the L image and the R image in the stereo image.
図11に示す被写体BLは、たとえば航空写真の撮影対象のビルディングである。また、図12に示すステレオ画像、すなわちL画像(左画像)およびR画像(右画像)は、図11に示すLおよびRの位置において連続して撮影された航空写真である。すなわち、図11に示すようにして撮影した場合に得られるL画像およびR画像の模式図が図12に示されている。 A subject BL shown in FIG. 11 is, for example, a building from which an aerial photograph is taken. Further, the stereo image shown in FIG. 12, that is, the L image (left image) and the R image (right image) are aerial photographs continuously taken at the positions L and R shown in FIG. That is, FIG. 12 shows a schematic diagram of an L image and an R image obtained when shooting is performed as shown in FIG.
図13は、ステレオ画像における隠れ領域を説明するための図である。図14は、左右の高さ画像を示す図である。 FIG. 13 is a diagram for explaining a hidden area in a stereo image. FIG. 14 is a diagram showing the left and right height images.
L画像およびR画像間で対応する点を求めることで、高さの値を求めた結果の例が図14に示されている。L高さ画像は、L画像の各点に対応する点をR画像中から求め、L画像の点およびR画像の対応点間の位置のずれ量、すなわち視差を高さとして求めた結果を示す画像である。同様に、R高さ画像は、R画像の各点に対応する点をL画像中から求め、R画像の点およびL画像の対応点間の位置のずれ量、すなわち視差を高さとして求めた結果を示す画像である。 FIG. 14 shows an example of the result of obtaining the height value by obtaining the corresponding points between the L image and the R image. The L-height image indicates a result obtained by obtaining points corresponding to each point of the L image from the R image and obtaining a positional deviation amount between the L image point and the corresponding point of the R image, that is, the parallax as the height. It is an image. Similarly, in the R height image, points corresponding to each point of the R image are obtained from the L image, and the amount of positional deviation between the points of the R image and the corresponding points of the L image, that is, the parallax is obtained as the height. It is an image which shows a result.
ここで、L高さ画像およびR高さ画像には、各々の撮影範囲が重ならないので高さが求められない領域(図14のハッチング領域)が、それぞれ左右に存在する。このL画像およびR画像の撮影範囲が重ならない部分、すなわち図14のハッチング領域については、撮影範囲のみをステレオマッチングの対象とするにより、容易に対処可能である。 Here, in the L-height image and the R-height image, there are left and right areas (hatched areas in FIG. 14) where the respective imaging ranges do not overlap and the height cannot be obtained. A portion where the shooting ranges of the L image and the R image do not overlap, that is, the hatched area in FIG. 14, can be easily dealt with by setting only the shooting range as a target of stereo matching.
一方、L高さ画像およびR高さ画像には、撮影時に被写体BLによって隠されるために、一方の画像には写っているが他方の画像には写っていない領域、すなわち隠れ領域OCL1,OCL2が存在する。 On the other hand, since the L-height image and the R-height image are hidden by the subject BL at the time of shooting, there are areas that are reflected in one image but not in the other image, that is, hidden areas OCL1 and OCL2. Exists.
図15は、隠れ領域と非隠れ領域の境界において相関係数計算が行なわれるブロック画像を示す図である。すなわち、図15は、隠れ領域を含んだブロック画像の処理を示している。 FIG. 15 is a diagram illustrating a block image in which correlation coefficient calculation is performed at the boundary between a hidden area and a non-hidden area. That is, FIG. 15 shows processing of a block image including a hidden area.
図15を参照して、ブロック画像Aは、対応点Pを中心とするブロック全体がL画像およびR画像双方に写っている場合の画像である。この場合、同じ対象が写っているブロック画像同士の相関係数が最大となることが成立する。 Referring to FIG. 15, block image A is an image when the entire block centering on corresponding point P is shown in both the L image and the R image. In this case, it is established that the correlation coefficient between the block images in which the same object is captured is maximized.
一方、ブロック画像Bにおいては、注目点PがL画像およびR画像双方に写っているが、相関係数が計算される領域の一部は隠れ領域OCLに対応している。すなわち、図12
に示す場合を考えると、L画像の領域Fの相関と、R画像の領域Dおよび領域Eの相関とを比較していることになる(領域Dおよび領域Eが隠れ領域)。
On the other hand, in the block image B, the attention point P appears in both the L image and the R image, but a part of the region where the correlation coefficient is calculated corresponds to the hidden region OCL. That is, FIG.
When the case shown in FIG. 2 is considered, the correlation between the region F of the L image and the correlation between the region D and the region E of the R image are compared (the region D and the region E are hidden regions).
このため、ブロック画像に隠れ領域が存在する場合には、一般に、相関係数が一致する可能性は低下し、一方、他のブロック画像との組み合わせにおいてより高い相関が得られてしまう可能性、すなわち誤った対応点を求めてしまう可能性が高くなってしまう。 For this reason, when there is a hidden area in the block image, generally, the possibility that the correlation coefficients match with each other is reduced, while on the other hand, a higher correlation may be obtained in combination with other block images, That is, there is a high possibility that an incorrect corresponding point will be obtained.
ここで、特許文献1に記載の技術は、2つの画像の対応付けを行なうマッチングに際し、双方向にマッチングを行なうことにより、オクルージョンのある画像間においても正確な対応付けを行なうためのものであるが、特許文献1に記載の技術を超えて精度の高いマッチングを行なう技術が望まれる。
Here, the technique described in
また、特許文献2に記載の技術では、対応画素探索処理を複数の画像について行なう必要があり、処理量が増大してしまう。また、オクルージョンが発生した場合に最近傍の画素の距離情報を割り当てる処理を行なっているに過ぎないため、ステレオマッチングにおいて隠れ領域の周辺でのマッチング率を向上させることはできない。
Further, in the technique described in
この発明は、上述の課題を解決するためになされたもので、その目的は、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうことが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することである。 The present invention has been made to solve the above-described problems. The purpose of the present invention is to achieve high-accuracy matching with simple processing even in the presence of a hidden region in a stereo matching method for searching for corresponding points by template matching. An image processing apparatus, an image processing method, and an image processing program that can be performed are provided.
上記課題を解決するために、この発明のある局面に係わる画像処理装置は、第1の画像および第2の画像の各々を複数のブロック画像に分割するための画像分割部と、被写体の影響によって上記第1の画像および上記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を上記第1の画像および上記第2の画像においてそれぞれ指定するための境界画素指定部と、上記第1の画像および上記第2の画像における各上記境界画素に基づいて相関計算範囲を決定するための相関計算範囲決定部と、上記第1の画像における上記複数のブロック画像と上記第2の画像における上記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出するための相関計算部と、上記相関計算部によって算出された、上記組み合わせごとの相関係数の値を用いて、上記組み合わせに関し上記第1の画像におけるブロック画像から上記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ上記組み合わせに関し上記第2の画像におけるブロック画像から上記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうための相関係数順位付け部と、上記組み合わせごとに、上記第1の順位と上記第2の順位の和を算出するための相関係数順位加算部と、各上記組み合わせ間の複数のパスを生成するためのパス生成部と、上記複数のパスを接続することによって表現される上記組み合わせのグループごとに、上記相関係数順位加算部によって算出された和を加算し、上記加算の結果が最小となる上記グループを動的計画法を用いて求めるための最終加算順位選択部とを備える。 In order to solve the above problems, an image processing apparatus according to an aspect of the present invention includes an image dividing unit for dividing each of a first image and a second image into a plurality of block images, and an influence of a subject. A boundary that is one or a plurality of pixels corresponding to a boundary between a hidden area that is not shown in any of the first image and the second image and a non-hidden area that is shown in both A boundary pixel designating unit for designating pixels in the first image and the second image, respectively, and a correlation calculation range is determined based on each of the boundary pixels in the first image and the second image. A correlation calculation range determining unit, and a combination of all or part of the plurality of block images in the first image and the plurality of block images in the second image For each combination, the correlation calculation unit for calculating the correlation coefficient of the pixel value according to the correlation calculation range, and the correlation coefficient value for each combination calculated by the correlation calculation unit, The first ranking is performed in descending order of the correlation coefficient from the block image in the first image to the block image in the second image, and the block image in the second image is related to the first in relation to the combination. A correlation coefficient ranking unit for performing the second ranking in descending order of the correlation coefficient with respect to the block image in each image, and for each combination, the sum of the first rank and the second rank is calculated. It is expressed by connecting the plurality of paths with a correlation coefficient rank adding unit for calculating, a path generating unit for generating a plurality of paths between the combinations. For each group of the combination, a sum calculated by the correlation coefficient rank addition unit is added, and a final addition rank selection unit for obtaining the group that minimizes the result of the addition using dynamic programming, Is provided.
上記課題を解決するために、この発明のある局面に係わる画像処理方法は、(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって上記第1の画像および上記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を上記第1の画像および上記第2の画像においてそれぞれ指定するステップと、(c)上記第1の画像および上記第2の画像における各上記境界画素に基づいて相関計算範囲を決定するステップと、(d)上記第1の画像における上記
複数のブロック画像と上記第2の画像における上記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出するステップと、(e)上記(d)のステップにおいて算出された、上記組み合わせごとの相関係数の値を用いて、上記組み合わせに関し上記第1の画像におけるブロック画像から上記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ上記組み合わせに関し上記第2の画像におけるブロック画像から上記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、(f)上記組み合わせごとに、上記第1の順位と上記第2の順位の和を算出するステップと、(g)各上記組み合わせ間の複数のパスを生成するステップと、(h)上記複数のパスを接続することによって表現される上記組み合わせのグループごとに、上記(f)のステップにおいて算出された和を加算し、上記加算の結果が最小となる上記グループを動的計画法を用いて求めるステップとを含む。
In order to solve the above problems, an image processing method according to an aspect of the present invention includes (a) a step of dividing each of the first image and the second image into a plurality of block images; One or a plurality of pixels corresponding to a boundary between a hidden area that is not reflected in any of the first image and the second image and a non-hidden area that is reflected in any of the first image and the second image due to influence. Designating a certain boundary pixel in each of the first image and the second image, and (c) determining a correlation calculation range based on each boundary pixel in the first image and the second image. And (d) for each or some combination between the plurality of block images in the first image and the plurality of block images in the second image, (E) calculating the correlation coefficient of the pixel value according to the correlation calculation range; and (e) using the correlation coefficient value for each combination calculated in the step (d) above, The first ranking is performed in descending order of the correlation coefficient from the block image in the image to the block image in the second image, and the block image in the second image in the first image is related to the combination. Performing a second ranking in descending order of the correlation coefficient to the block image; (f) calculating a sum of the first ranking and the second ranking for each combination; and (g ) Generating a plurality of paths between each of the combinations; and (h) for each group of the combinations expressed by connecting the plurality of paths. The adds the sum calculated in step (f), and determining the group to which the result of the addition is minimized by using a dynamic programming.
上記課題を解決するために、この発明のある局面に係わる画像処理プログラムは、(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって上記第1の画像および上記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を上記第1の画像および上記第2の画像においてそれぞれ指定するステップと、(c)上記第1の画像および上記第2の画像における各上記境界画素に基づいて相関計算範囲を決定するステップと、(d)上記第1の画像における上記複数のブロック画像と上記第2の画像における上記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出するステップと、(e)上記(d)のステップにおいて算出された、上記組み合わせごとの相関係数の値を用いて、上記組み合わせに関し上記第1の画像におけるブロック画像から上記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ上記組み合わせに関し上記第2の画像におけるブロック画像から上記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、(f)上記組み合わせごとに、上記第1の順位と上記第2の順位の和を算出するステップと、(g)各上記組み合わせ間の複数のパスを生成するステップと、(h)上記複数のパスを接続することによって表現される上記組み合わせのグループごとに、上記(f)のステップにおいて算出された和を加算し、上記加算の結果が最小となる上記グループを動的計画法を用いて求めるステップとをコンピュータに実行させる。 In order to solve the above problems, an image processing program according to an aspect of the present invention includes: (a) a step of dividing each of the first image and the second image into a plurality of block images; and (b) a subject image. One or a plurality of pixels corresponding to a boundary between a hidden area that is not reflected in any of the first image and the second image and a non-hidden area that is reflected in any of the first image and the second image due to influence. Designating a certain boundary pixel in each of the first image and the second image, and (c) determining a correlation calculation range based on each boundary pixel in the first image and the second image. (D) a combination of all or part of the plurality of block images in the first image and the plurality of block images in the second image. (E) calculating a correlation coefficient of pixel values according to the correlation calculation range; and (e) using the correlation coefficient value for each combination calculated in the step (d) above, The first ranking is performed in the descending order of the correlation coefficient from the block image in the first image to the block image in the second image, and the first image from the block image in the second image is related to the combination. Performing a second ranking in descending order of the correlation coefficient to the block image in the image; (f) calculating a sum of the first ranking and the second ranking for each of the combinations; (G) generating a plurality of paths between each of the combinations, and (h) a group of the combinations expressed by connecting the plurality of paths. Each in the above by adding the sum calculated in step (f), and a step of obtaining using dynamic programming the group result of the addition is minimized to the computer.
本発明によれば、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうことができる。 According to the present invention, in a stereo matching method for searching for corresponding points by template matching, high-precision matching can be performed with simple processing even when a hidden region exists.
以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.
<第1の実施の形態>
[概要]
本発明の第1の実施の形態に係る画像処理装置は、隠れ領域と非隠れ領域の境界を指定するための後述する境界画素指定部21を用いて明示的に対応を与えることにより、境界点での誤対応を修正するものである。
<First Embodiment>
[Overview]
The image processing apparatus according to the first embodiment of the present invention uses the boundary pixel designating unit 21 (to be described later) for designating the boundary between the hidden region and the non-hidden region, thereby providing a boundary point. It is intended to correct mishandling in.
図1は、隠れ領域と非隠れ領域の境界における境界画素の指定方法を説明するための図である。図1は、境界画素指定部21が与える上記対応の例を示している。図2は、隠れ領域と非隠れ領域の境界部分の拡大図である。
FIG. 1 is a diagram for explaining a method for specifying a boundary pixel at the boundary between a hidden area and a non-hidden area. FIG. 1 shows an example of the correspondence given by the boundary
図1および図2を参照して、境界画素指定部21は、L画像およびR画像において互いに対応するエッジ、すなわち隠れ領域と非隠れ領域の境界を示す線分を指定する。ここでは、境界画素指定部21は、α1とα2を対応する境界としてそれぞれL画像およびR画像において指定し、また、β1とβ2を対応する境界としてそれぞれL画像およびR画像において指定する。
Referring to FIGS. 1 and 2, boundary
後述する相関計算範囲設定部22は、明示的に与えられた境界付近におけるマッチング処理のために相関係数を計算する際に、ステレオマッチングの対象となるブロック画像における計算範囲を変化させる。これにより、境界画素指定部21によって指定された境界に対応する画素(以下、境界画素とも称する。)がマッチングウィンドウすなわち相関計算範囲に含まれる場合において、上記線分を境界として注目点を含む領域と含まない領域とに分割し、注目点を含む側の領域のみにおいて相関係数を計算し、マッチングの判定を行なうことが可能となる。
The correlation calculation
図3は、境界画素がブロック画像に存在する場合の相関計算範囲の変形を示す図である。図3は、通常の相関計算範囲のブロック画像Aと、相関計算範囲設定部(マッチングウィンドウ変形部)22による変形後のブロック画像Bを示している。 FIG. 3 is a diagram illustrating a modification of the correlation calculation range when the boundary pixel exists in the block image. FIG. 3 shows a block image A in a normal correlation calculation range and a block image B after deformation by the correlation calculation range setting unit (matching window deformation unit) 22.
変形後のブロック画像Bでは、同一の領域と判定されたL画像およびR画像の領域同士のみでマッチング判定を行なうことができるため、隠れ領域Hによる影響を取り除いた相関係数の値を得ることができる。このような構成により、注目点Pを含む側の領域のみの相関係数に基づいて精度の高いマッチングを行なうことができる。 In the deformed block image B, since the matching determination can be performed only between the regions of the L image and the R image determined to be the same region, the correlation coefficient value from which the influence of the hidden region H is removed is obtained. Can do. With such a configuration, highly accurate matching can be performed based on the correlation coefficient of only the region on the side including the attention point P.
本発明の第1の実施の形態に係る画像処理装置201は、典型的には、汎用的なアーキテクチャを有するコンピュータを基本構造としており、予めインストールされたプログラムを実行することで、後述するような各種機能を提供する。一般的に、このようなプログラムは、フレキシブルディスク(Flexible Disk)およびCD−ROM(Compact Disk Read Only Memory)などの記録媒体に格納されて、あるいはネットワークなどを介して流通する。このような汎用的なコンピュータを利用する場合には、本実施の形態に係る機能を提供するためのアプリケーションに加えて、コンピュータの基本的な機能を提供するためのOS(Operating System)がインストールされていてもよい。この場合には、本実施の形態に係るプログラムは、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の順序および/またはタイミングで呼出して処理を実行するものであってもよい。すなわち、本実施の形態に係るプログラム自体は、上記のようなモジュールを含んでおらず、OSと協働して処理が実行される場合もある。したがって、本実施の形態に係るプログラムとしては、上記のようなモジュールを含まない形態であってもよい。
The
さらに、本実施の形態に係るプログラムは、他のプログラムの一部に組み込まれて提供されるものであってもよい。この場合でも、本実施の形態に係るプログラム自体は、上記のような組み込み先の他のプログラムが有するモジュールを含んでおらず、当該他のプログラムと協働して処理が実行される。すなわち、本実施の形態に係るプログラムとしては、このような他のプログラムに組み込まれた形態であってもよい。 Furthermore, the program according to the present embodiment may be provided by being incorporated in a part of another program. Even in this case, the program itself according to the present embodiment does not include a module included in the other program as described above, and the processing is executed in cooperation with the other program. That is, the program according to the present embodiment may be in a form incorporated in such another program.
なお、代替的に、プログラムの実行により提供される機能の一部もしくは全部を専用のハードウェア回路として実装してもよい。 Alternatively, some or all of the functions provided by program execution may be implemented as a dedicated hardware circuit.
[装置構成]
図4は、本発明の第1の実施の形態に係る画像処理装置の概略構成図である。図4を参照して、画像処理装置201は、演算処理部であるCPU(Central Processing Unit)101と、記憶部としてのメインメモリ102およびハードディスク103と、入力インターフェイス104と、表示コントローラ105と、データリーダ/ライタ106と、通信インターフェイス107とを備える。これらの各部は、バス121を介して互いにデータ通信可能に接続される。
[Device configuration]
FIG. 4 is a schematic configuration diagram of the image processing apparatus according to the first embodiment of the present invention. Referring to FIG. 4, an
CPU101は、ハードディスク103に格納されたプログラム(コード)をメインメモリ102に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ102は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置であり、ハードディスク103から読み出されたプログラムに加えて、各種の演算処理結果を示すデータなどを保持する。また、ハードディスク103は不揮発性の磁気記憶装置であり、CPU101で実行されるプログラムに加えて、各種設定値などが格納される。このハードディスク103にインストールされるプログラムは、後述するように、記録媒体111に格納された状態で流通する。なお、ハードディスク103に加えて、あるいはハードディスク103に代えて、フラッシュメモリなどの半導体記憶装置を採用してもよい。
The
入力インターフェイス104は、CPU101とキーボード108、マウス109および図示しないタッチパネルなどの入力部との間のデータ伝送を仲介する。すなわち、入力インターフェイス104は、ユーザが入力部を操作することで与えられる操作指令などの外部からの入力を受け付ける。
The
表示コントローラ105は、表示部の典型例であるディスプレイ110と接続され、デ
ィスプレイ110での表示を制御する。すなわち、表示コントローラ105は、CPU101による画像処理の結果などをユーザに対して表示する。ディスプレイ110は、たとえばLCD(Liquid Crystal Display)またはCRT(Cathode Ray Tube)である。
The
データリーダ/ライタ106は、CPU101と記録媒体111の間のデータ伝送を仲介する。すなわち、記録媒体111は、画像処理装置201で実行されるプログラムなどが格納された状態で流通し、データリーダ/ライタ106は、この記録媒体111からプログラムを読み出す。また、データリーダ/ライタ106は、CPU101の内部指令に応答して、画像処理装置201における処理結果などを記録媒体111へ書き込む。なお、記録媒体111は、たとえば、CF(Compact Flash)およびSD(Secure Digital)などの汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)などの磁気記憶媒体、またはCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体である。
The data reader /
通信インターフェイス107は、CPU101とパーソナルコンピュータおよびサーバ装置などの間のデータ伝送を仲介する。通信インターフェイス107は、典型的には、イーサネット(登録商標)またはUSB(Universal Serial Bus)の通信機能を有する。なお、記録媒体111に格納されたプログラムを画像処理装置201にインストールする形態に代えて、通信インターフェイス107を介して配信サーバなどからダウンロードしたプログラムを画像処理装置201にインストールしてもよい。
The
また、画像処理装置201には、必要に応じてプリンタなどの他の出力装置が接続されてもよい。
Further, the
[制御構造]
次に、画像処理装置201における各種機能を提供するための制御構造について説明する。
[Control structure]
Next, a control structure for providing various functions in the
図5は、本発明の第1の実施の形態に係る画像処理装置が提供する制御構造を示すブロック図である。図5に示す各ブロックは、ハードディスク103に格納されたプログラム(コード)などをメインメモリ102に展開して、CPU101に実行させることで提供される。なお、図5に示すモジュールの一部もしくは全部がハードウェアに実装されているファームウェアによって提供される場合もある。あるいは、図5に示す制御構造の一部もしくは全部を専用ハードウェアおよび/または配線回路によって実現してもよい。
FIG. 5 is a block diagram showing a control structure provided by the image processing apparatus according to the first embodiment of the present invention. Each block shown in FIG. 5 is provided by developing a program (code) stored in the
図5を参照して、画像処理装置201は、その制御構造として、画像入力部10と、画像記憶部11と、画像分割部12と、相関計算部13と、相関係数順位付け部14と、相関係数順位加算部15と、パス生成部16と、最終加算順位選択部17と、境界画素指定部21と、相関計算範囲決定部22とを備える。
Referring to FIG. 5, the
画像入力部10、画像記憶部11、画像分割部12、相関計算部13、相関係数順位付け部14、相関係数順位加算部15、パス生成部16、および最終加算順位選択部17は、たとえば特許文献1の図4に示す構成と同様の動作を行なう。
The
具体的には、画像入力部10は、2つの画像(L画像およびR画像)を入力する。画像記憶部11は、画像入力部10へ入力された画像を記憶する。これらの画像は、たとえば、図4に示す記録媒体111からデータリーダ/ライタ106を介して画像入力部10へ送られ、画像入力部10は、これらの画像を画像記憶部11であるメインメモリ102またはハードディスク103に格納する。
Specifically, the
画像分割部12は、画像記憶部11に記憶されているL画像およびR画像を、位置的な重複を許して複数のブロック画像に分割する。各画像における複数のブロック画像は、隣り合うブロック画像の一部領域が互いに重なり合うように設けられる。画像分割部12は、たとえば特許文献1の図4に示す構成と同様に、L画像およびR画像の各々を走査線ごとに分割し、分割した走査線に対応する部分を、一部領域が重なり合いながら配列される複数のブロック画像に分割する。
The
境界画素指定部21は、L画像およびR画像の各々における境界に対応する画素である境界画素の入力を受け付ける。
The boundary
相関計算範囲決定部22は、境界画素指定部21によって得られた境界画素の情報を用いることにより、L画像およびR画像双方における注目点の周囲の相関計算をそれぞれ行なう範囲(相関計算範囲)を決定する。
The correlation calculation
相関計算部13は、L画像におけるブロック画像およびR画像におけるブロック画像間において、ブロック画像に含まれる画素値の相互相関を計算する。相関計算部13は、たとえば特許文献1の図4に示す構成と同様に、同じ位置の走査線上に存在する、L画像における複数のブロック画像とR画像における複数のブロック画像との間のすべてまたは一部の組み合わせごとに、相関計算範囲に従って画素値の相関係数を算出する。
The
相関係数順位付け部14は、相関計算部13によって得られたL画像におけるブロック画像とR画像におけるブロック画像の組み合わせごとの相関係数の値を用いて、これらの組み合わせに関し、L画像におけるブロック画像からR画像におけるブロック画像への相関係数の大きい順の順位付け、およびR画像からL画像への相関係数の大きい順の順位付けを行なう。
The correlation
相関係数順位加算部15は、これらの組み合わせごとに、相関係数順付け部140によって得られたL画像におけるブロック画像からR画像におけるブロック画像の順位と、R画像における同じブロック画像からL画像における同じブロック画像への順位の和を計算する。
For each of these combinations, the correlation coefficient
パス生成部16は、各組み合わせ間の複数のパスを生成する。パス生成部16は、たとえば特許文献1の図4に示す構成と同様に、対応点間の接続する候補をすべてパスとして生成する。すなわち、パス生成部16は、上記組み合わせについて、隣接した組み合わせ同士のパスだけでなく、隣接しない組み合わせ同士のパスも生成する。
The
最終加算順位選択部17は、パス生成部16によって生成されたパスから最良のパスを動的計画法によって求める。最終加算順位選択部17は、たとえば特許文献1の図4に示す構成と同様に、パス生成部16によって生成された各パスを接続することによって表現されるすべての組み合わせのグループごとに、相関係数順位加算部15によって求めた順位の和を加算する。
The final addition
そして、最終加算順位選択部17は、たとえば特許文献1の図4に示す構成と同様に、この加算結果に、各グループにおける組み合わせに含まれないブロック画像の数に応じた一定のペナルティを加え、この結果が最小になるグループを動的計画法を用いて求める。すなわち、最終加算順位選択部17は、特許文献1の段落[0052]〜[0053]および図9に示すような方法により、最良のパスを求める。
And the last addition
[動作]
次に、本発明の第1の実施の形態に係る画像処理装置の動作について図面を用いて説明
する。本発明の第1の実施の形態では、画像処理装置201を動作させることによって、本発明の第1の実施の形態に係るステレオマッチング方法が実施される。よって、本発明の第1の実施の形態に係るステレオマッチング方法の説明は、以下の画像処理装置201の動作説明に代える。なお、以下の説明においては、適宜図5を参照する。
[Operation]
Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described with reference to the drawings. In the first embodiment of the present invention, the stereo matching method according to the first embodiment of the present invention is performed by operating the
図6は、本発明の第1の実施の形態に係る画像処理装置がステレオマッチング処理を行なう際の動作手順を示すフローチャートである。 FIG. 6 is a flowchart showing an operation procedure when the image processing apparatus according to the first embodiment of the present invention performs the stereo matching process.
図6を参照して、まず、画像入力部10は、ステレオ処理の対象となるL画像およびR画像を入力する(ステップS2)。
Referring to FIG. 6, first, the
次に、画像記憶部11は、これらのL画像およびR画像を記憶する(ステップS4)。ここで、L画像およびR画像は、エピポーララインに画像が配列された平行化済みの画像である。以降の処理における対応点の探索は、L画像およびR画像の同じ行ごとに対応点を求める処理を繰り返すことにより、両画像全体の対応を求める。
Next, the
次に、画像分割部12は、L画像およびR画像の各々を複数のブロック画像に分割する。具体的には、画像分割部12は、画像記憶部11から取得したL画像およびR画像の各行について、重なり合うM×Nの大きさを持つ複数のブロック画像にそれぞれ分割する。たとえば、対応点を1画素ごとに求める場合には、ブロック画像は、互いに1画素ずつずれて重なり合うように配列される(ステップS6)。
Next, the
次に、境界画素指定部21は、画像記憶部11からL画像およびR画像を取得する。そして、境界画素指定部21は、被写体の影響によってL画像およびR画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する画素である境界画素をL画像およびR画像においてそれぞれ指定する。本発明の第1の実施の形態では、境界画素指定部21は、ユーザの操作による各境界画素の指定を受け付ける。具体的には、境界画素指定部21は、たとえば図1に示すように両方の画像を図4に示す画像記憶部11に並べて表示し、利用者が両画像の対応する場所にマウス109等を用いて線分を与える操作を受け付けることにより、境界画素を指定する(ステップS8)。
Next, the boundary
ここでは、境界線は隠れ領域と注目する対象である非隠れ領域との境界部分であって、この注目する対象の内側に引くものとする。これにより、L画像およびR画像のi行目には、複数の境界点の組すなわち(i,L1)−(i,R1),(i,L2)−(i,R2),・・・(i,Ln)−(i,Rn)というn個の境界画素の組が与えられる。 Here, the boundary line is a boundary portion between the hidden area and the non-hidden area that is the target of attention, and is drawn inside the target of interest. As a result, a set of a plurality of boundary points, i.e., (i, L1)-(i, R1), (i, L2)-(i, R2),. A set of n boundary pixels, i, Ln)-(i, Rn) is given.
次に、相関計算範囲決定部22は、L画像およびR画像における各境界画素に基づいて相関計算範囲を決定する。具体的には、相関計算範囲決定部22は、L画像およびR画像のブロック画像間の相関係数を求めるための相関計算範囲を決定する。ここで、ブロック画像は前述のようにM×Nの大きさを持つため、左右のブロック画像のいずれにも境界画素指定部21で指定された境界画素が含まれない場合には、M×Nの矩形の画像が相関計算範囲となる(ステップS10)。
Next, the correlation calculation
次に、相関計算部13は、L画像における複数のブロック画像とR画像における複数のブロック画像との間のすべてまたは一部の組み合わせごとに、相関計算範囲決定部22によって決定された相関計算範囲に従って画素値の相関係数を算出する(ステップS12)。
Next, the
次に、相関係数順位付け部14は、相関計算部13によって算出された、組み合わせご
との相関係数の値を用いて、組み合わせに関しL画像におけるブロック画像からR画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ組み合わせに関しR画像におけるブロック画像からL画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なう(ステップS14)。
Next, the correlation
次に、相関係数順位加算部15は、組み合わせごとに、上記第1の順位と上記第2の順位の和を算出する(ステップS16)。
Next, the correlation coefficient
次に、パス生成部16は、各組み合わせ間の複数のパスを生成する(ステップS18)。
Next, the
次に、最終加算順位選択部17は、複数のパスを接続することによって表現される組み合わせのグループごとに、相関係数順位加算部15によって算出された和を加算し、加算の結果が最小となるグループを動的計画法を用いて求める(ステップS20)。最終加算順位選択部17によって求められたグループから、対応点となる画素位置が得られる(ステップS22)。
Next, the final addition
図7は、本発明の第1の実施の形態に係る相関計算範囲決定部が指定する相関計算範囲の例を示す図である。図7は、図2に対応している。 FIG. 7 is a diagram illustrating an example of the correlation calculation range specified by the correlation calculation range determination unit according to the first embodiment of the present invention. FIG. 7 corresponds to FIG.
図7を参照して、相関計算範囲決定部22は、境界画素指定部21によって指定された境界画素がブロック画像に含まれる場合には、注目点Pを含む境界線の内側の領域のみを相関計算範囲とする。ここで、境界上の点すなわち境界画素については、相関計算範囲に含める。
Referring to FIG. 7, when the boundary pixel specified by the boundary
相関計算範囲決定部22は、求めた相関計算範囲を相関計算部13に送る。相関計算部13は、相関計算範囲決定部22から受けた相関計算範囲に従い、L画像およびR画像それぞれの注目点すなわち対応画素間の相関係数を求める。
The correlation calculation
図8は、ブロック画像を用いて相関行列を求める方法を示す図である。図8は、相関行列のイメージを示している。 FIG. 8 is a diagram illustrating a method for obtaining a correlation matrix using a block image. FIG. 8 shows an image of the correlation matrix.
図8を参照して、相関行列中の(i,j)の値は、L画像のある行でのi番目の画素と、R画像の対応する行でのj番目の画素との相関度合いを示す。 Referring to FIG. 8, the value of (i, j) in the correlation matrix indicates the degree of correlation between the i-th pixel in a certain row of the L image and the j-th pixel in the corresponding row of the R image. Show.
相関計算部13によって得られる結果は、L画像およびR画像における各々の位置を行および列で表し、相関係数を値として持つ相関行列を求めることに相当する。
The result obtained by the
ところで、特許文献2に記載の技術では、対応画素探索処理を複数の画像について行なう必要があり、処理量が増大してしまうという問題点があった。また、オクルージョンが発生した場合に最近傍の画素の距離情報を割り当てる処理を行なっているに過ぎないため、ステレオマッチングにおいて隠れ領域の周辺でのマッチング率を向上させることはできないという問題点があった。これらの問題点を解決し、かつ特許文献1に記載の技術を超えて精度の高いマッチングを行なう技術が望まれる。
By the way, in the technique described in
これに対して、本発明の第1の実施の形態では、境界画素指定部21が、被写体の影響によってL画像およびR画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する画素である境界画素をL画像およびR画像においてそれぞれ指定する。相関計算範囲決定部22は、L画像およびR画像における各境界画素に基づいて相関計算範囲を決定する。相関計算部13は、画像分割
部12がL画像およびR画像の各々を分割することによって得られた複数のブロック画像を用いて、L画像における複数のブロック画像とR画像における複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出する。
On the other hand, in the first embodiment of the present invention, the boundary
このようにして、本発明の第1の実施の形態では、対応点の周囲に隠れ領域がある場合に、隠れ領域と非隠れ領域の境界を指定することで相関計算の計算範囲を変形させる。これにより、隠れ領域であって明らかに他方画像の画素と対応しない部分についての相関計算を省くことができるため、処理量を低減し、かつ相関計算による対応点探索の精度を向上させることができる。 As described above, in the first embodiment of the present invention, when there is a hidden region around the corresponding point, the calculation range of the correlation calculation is deformed by designating the boundary between the hidden region and the non-hidden region. As a result, it is possible to omit the correlation calculation for a portion that is a hidden region and does not clearly correspond to the pixel of the other image, thereby reducing the processing amount and improving the accuracy of the corresponding point search by the correlation calculation. .
すなわち、本発明の第1の実施の形態に係る画像処理装置における各構成要素のうち、画像分割部12、相関計算部13、相関係数順位付け部14、相関係数順位加算部15、パス生成部16、最終加算順位選択部17、境界画素指定部21および相関計算範囲決定部22からなる最小構成により、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうという本発明の目的を達成することが可能となる。
That is, among the components in the image processing apparatus according to the first embodiment of the present invention, the
なお、本発明の第1の実施の形態は、隠れ領域と非隠れ領域との境界線に接する画素であって非隠れ領域における画素を境界画素として指定し、この境界画素を相関計算範囲に含める構成であるとしたが、これに限定するものではない。隠れ領域と非隠れ領域との境界線に接する画素であって隠れ領域における画素を境界画素として指定し、この境界画素を相関計算範囲に含めない構成としてもよい。また、各ブロック画像における境界画素は、1つであってもよいし、複数であってもよい。 In the first embodiment of the present invention, a pixel that is in contact with a boundary line between a hidden region and a non-hidden region and a pixel in the non-hidden region is designated as a boundary pixel, and the boundary pixel is included in the correlation calculation range. Although it is the configuration, it is not limited to this. A pixel that is in contact with the boundary line between the hidden region and the non-hidden region, and a pixel in the hidden region is designated as a boundary pixel, and the boundary pixel may not be included in the correlation calculation range. Further, the number of boundary pixels in each block image may be one or plural.
また、本発明の第1の実施の形態では、図6に示すフローチャートにおいて、ステップS6の動作の後に、ステップS8の動作を行なう構成であるとしたが、これに限定するものではなく、ステップS8の動作の後に、ステップS6の動作を行なう構成であってもよい。 Further, in the first embodiment of the present invention, in the flowchart shown in FIG. 6, the operation of step S8 is performed after the operation of step S6. However, the present invention is not limited to this. A configuration in which the operation of step S6 is performed after the above operation may be employed.
次に、本発明の他の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。 Next, another embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.
<第2の実施の形態>
本実施の形態は、第1の実施の形態に係る画像処理装置と比べて境界の指定方法を変更した画像処理装置に関する。以下で説明する内容以外は第1の実施の形態に係る画像処理装置と同様である。
<Second Embodiment>
The present embodiment relates to an image processing apparatus in which the boundary designation method is changed as compared with the image processing apparatus according to the first embodiment. The contents other than those described below are the same as those of the image processing apparatus according to the first embodiment.
図9は、本発明の第2の実施の形態に係る画像処理装置が提供する制御構造を示すブロック図である。図10は、本発明の第2の実施の形態に係る画像処理装置がステレオマッチング処理を行なう際の動作手順を示すフローチャートである。 FIG. 9 is a block diagram showing a control structure provided by the image processing apparatus according to the second embodiment of the present invention. FIG. 10 is a flowchart showing an operation procedure when the image processing apparatus according to the second embodiment of the present invention performs the stereo matching process.
図9に示す各ブロックは、ハードディスク103に格納されたプログラム(コード)などをメインメモリ102に展開して、CPU101に実行させることで提供される。なお、図9に示すモジュールの一部もしくは全部がハードウェアに実装されているファームウェアによって提供される場合もある。あるいは、図9に示す制御構造の一部もしくは全部を専用ハードウェアおよび/または配線回路によって実現してもよい。
Each block shown in FIG. 9 is provided by developing a program (code) stored in the
画像処理装置202は、本発明の第1の実施の形態に係る画像処理装置201と比べて、その制御構造として、境界画素指定部21の代わりに境界画素検出部23および境界画
素対応付け部24を備える。
Compared with the
境界画素検出部23は、境界画素の候補をL画像およびR画像からそれぞれ検出する。すなわち、境界画素検出部23は、L画像およびR画像を参照し、それぞれの画像から明瞭な境界線と判断される線分を抽出する(ステップS7)。
The boundary
境界画素対応付け部24は、L画像における境界画素の候補とR画像における境界画素の候補とを対応付けることにより、L画像およびR画像における境界画素をそれぞれ指定する。すなわち、境界画素対応付け部24は、L画像およびR画像の各々において抽出された境界線間の対応付けを行なう(ステップS9)。
The boundary
より詳細には、境界画素検出部23は、たとえば、2次元の画像処理技術としてよく知られているエッジ抽出の技術を用いる。すなわち、境界画素検出部23は、エッジの強さを用いることにより一定以上の強さを持つ線分をすべて抽出し、抽出した線分に対して膨張収縮処理などを行って小さなノイズを除去した後、細線化処理を行なうことで境界を示す線分を得る。この段階ではL画像およびR画像について独立に処理が行われ、それぞれの画像から境界線の候補となる線分が得られる。境界画素検出部23は、得られた線分を、L画像およびR画像とともに境界画素対応付け部24へ送る。
More specifically, the boundary
境界画素対応付け部24は、境界画素検出部23から境界線の候補となる線分、ならびにL画像およびR画像を受けて、同一走査線上にある線分について、線分の向きおよび線分の長さ、ならびに線分の周囲の類似度などに基づいて、L画像およびR画像の線分間の対応付けを行なう。
The boundary
境界画素対応付け部24は、このようにして得られた境界画素を示す線分間の対応関係を本発明の第1の実施の形態に係る境界画素指定部21と同様の形式で相関計算範囲決定部22に送る。この対応関係は、境界画素検出部23において相関計算を行なう範囲を決定するために用いられる。
The boundary
その他の構成および動作は第1の実施の形態に係る画像処理装置と同様であるため、ここでは詳細な説明を繰り返さない。 Since other configurations and operations are the same as those of the image processing apparatus according to the first embodiment, detailed description thereof will not be repeated here.
このように、本発明の第2の実施の形態では、境界画素検出部23および境界画素対応付け部24により、本発明の第1の実施の形態における境界画素指定部21と同様の対応付けを行なうことが可能となる。このような構成により、境界画素をユーザ等が明示的に指定することなく自律的に境界を指定し、相関計算範囲を変形させることができる。これにより、隠れ領域であって明らかに他方の画素と対応しない部分についての相関計算を省くことができるため、処理量を低減し、かつ相関計算による対応点選択の精度を向上させることができる。
As described above, in the second embodiment of the present invention, the boundary
なお、本発明の第2の実施の形態では、図10に示すフローチャートにおいて、ステップS6の動作の後に、ステップS7およびステップS9の動作を行なう構成であるとしたが、これに限定するものではなく、ステップS7およびステップS9の動作の後に、ステップS6の動作を行なう構成であってもよい。 In the second embodiment of the present invention, in the flowchart shown in FIG. 10, the operation of step S7 and step S9 is performed after the operation of step S6. However, the present invention is not limited to this. A configuration in which the operation of step S6 is performed after the operations of step S7 and step S9 may be adopted.
上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The above embodiment should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
本発明によれば、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうことができる。したがって、本発明は、ステレオマッチング処理によって、たとえば、航空写真から土地の高さを測定する用途に適用可能であり、また、ロボットの視覚機能で奥行きを知覚する用途にも適用可能であるため、産業上の利用可能性を有している。 According to the present invention, in a stereo matching method for searching for corresponding points by template matching, high-precision matching can be performed with simple processing even when a hidden region exists. Therefore, the present invention can be applied to an application for measuring the height of land from an aerial photograph, for example, by stereo matching processing, and can also be applied to an application for perceiving depth by the visual function of a robot. Has industrial applicability.
上記実施の形態の一部または全部は以下の付記のようにも記載されうるが、本発明の範囲は、以下の付記に限定されるものではない。 Although a part or all of the above embodiments can be described as the following supplementary notes, the scope of the present invention is not limited to the following supplementary notes.
[付記1]
(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するステップと、
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとを含む、画像処理方法。
[Appendix 1]
(A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing method including a step of obtaining using a planning method.
[付記2]
前記(b)のステップにおいては、ユーザの操作による前記各境界画素の指定を受け付ける、付記1に記載の画像処理方法。
[Appendix 2]
The image processing method according to
[付記3]
前記(b)のステップは、
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するステップとを含む、付記1に記載の画像処理方法。
[Appendix 3]
The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing method according to
[付記4]
(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するステップと、
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとをコンピュータに実行させる、画像処理プログラム。
[Appendix 4]
(A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing program for causing a computer to execute a step obtained using a planning method.
[付記5]
前記(b)のステップにおいては、ユーザの操作による前記各境界画素の指定を受け付ける、付記4に記載の画像処理プログラム。
[Appendix 5]
The image processing program according to appendix 4, wherein in the step (b), designation of each boundary pixel by a user operation is accepted.
[付記6]
前記(b)のステップは、
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するステップとを含む、付記4に記載の画像処理プログラム。
[Appendix 6]
The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing program according to appendix 4, including:
10 画像入力部
11 画像記憶部
12 画像分割部
13 相関計算部
14 相関係数順位付け部
15 相関係数順位加算部
16 パス生成部
17 最終加算順位選択部
21 境界画素指定部
22 相関計算範囲決定部
22 境界画素検出部
23 境界画素対応付け部
101 CPU
102 メインメモリ
103 ハードディスク
104 入力インターフェイス
105 表示コントローラ
106 データリーダ/ライタ
107 通信インターフェイス
108 キーボード
109 マウス
110 ディスプレイ
111 記録媒体
121 バス
201 画像処理装置
DESCRIPTION OF
DESCRIPTION OF
Claims (9)
被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するための境界画素指定部と、
前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するための相関計算範囲決定部と、
前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するための相関計算部と、
前記相関計算部によって算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうための相関係数順位付け部と、
前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するための相関係数順位加算部と、
各前記組み合わせ間の複数のパスを生成するためのパス生成部と、
前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記相関係数順位加算部によって算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるための最終加算順位選択部とを備える、画像処理装置。 An image dividing unit for dividing each of the first image and the second image into a plurality of block images;
One or more corresponding to a boundary between a hidden area that is an area that is not shown in either the first image or the second image due to the influence of the subject and a non-hidden area that is an area that is shown in both A boundary pixel designating unit for designating a boundary pixel that is a pixel in each of the first image and the second image;
A correlation calculation range determination unit for determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
A correlation coefficient of a pixel value is calculated according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image. A correlation calculation unit for
Using the correlation coefficient value for each combination calculated by the correlation calculation unit, the correlation coefficient from the block image in the first image to the block image in the second image with respect to the combination in descending order. And the second order in the descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. A number ranking section;
A correlation coefficient rank adding unit for calculating a sum of the first rank and the second rank for each combination;
A path generator for generating a plurality of paths between each of the combinations;
For each group of the combinations expressed by connecting the plurality of paths, the sum calculated by the correlation coefficient rank adding unit is added, and the group that minimizes the result of the addition is determined by dynamic programming. An image processing apparatus comprising: a final addition rank selection unit for obtaining using
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するための境界画素検出部と、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するための境界画素対応付け部とを含む、請求項1に記載の画像処理装置。 The boundary pixel designating part is
A boundary pixel detector for detecting the boundary pixel candidates from the first image and the second image, respectively.
By specifying the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing apparatus according to claim 1, further comprising a boundary pixel associating unit.
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み
合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとを含む、画像処理方法。 (A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing method including a step of obtaining using a planning method.
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するステップとを含む、請求項4に記載の画像処理方法。 The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing method of Claim 4 containing these.
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとをコンピュータに実行させる、画像処理プログラム。 (A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing program for causing a computer to execute a step obtained using a planning method.
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界
画素をそれぞれ指定するステップとを含む、請求項7に記載の画像処理プログラム。
The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing program according to claim 7, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010029992A JP5051670B2 (en) | 2010-02-15 | 2010-02-15 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010029992A JP5051670B2 (en) | 2010-02-15 | 2010-02-15 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011165117A true JP2011165117A (en) | 2011-08-25 |
JP5051670B2 JP5051670B2 (en) | 2012-10-17 |
Family
ID=44595690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010029992A Active JP5051670B2 (en) | 2010-02-15 | 2010-02-15 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5051670B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017043258A1 (en) * | 2015-09-09 | 2017-03-16 | シャープ株式会社 | Calculating device and calculating device control method |
JP2020021126A (en) * | 2018-07-30 | 2020-02-06 | キヤノン株式会社 | Image processing device and control method thereof, distance detection device, imaging device, program |
WO2021245972A1 (en) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | Computation device and parallax calculation method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH033080A (en) * | 1989-05-31 | 1991-01-09 | Fujitsu Ltd | Corresponding preprocessing system based upon image construction |
JPH04299474A (en) * | 1991-03-27 | 1992-10-22 | Nec Corp | Picture matching system |
JPH07282259A (en) * | 1994-04-13 | 1995-10-27 | Matsushita Electric Ind Co Ltd | Parallax arithmetic unit and image composite device |
JPH08263696A (en) * | 1995-03-01 | 1996-10-11 | Meidensha Corp | Three-dimensional object model generating method |
JPH10191396A (en) * | 1996-12-26 | 1998-07-21 | Matsushita Electric Ind Co Ltd | Intermediate view point image generating method, parallax estimate method and image transmission method |
JP2004362469A (en) * | 2003-06-06 | 2004-12-24 | Softopia Japan Foundation | Apparatus and method for detecting moving object using active sensor, and program for detecting animal body |
JP2006350465A (en) * | 2005-06-13 | 2006-12-28 | Nec Corp | Image matching device, image matching method, and program for image matching |
-
2010
- 2010-02-15 JP JP2010029992A patent/JP5051670B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH033080A (en) * | 1989-05-31 | 1991-01-09 | Fujitsu Ltd | Corresponding preprocessing system based upon image construction |
JPH04299474A (en) * | 1991-03-27 | 1992-10-22 | Nec Corp | Picture matching system |
JPH07282259A (en) * | 1994-04-13 | 1995-10-27 | Matsushita Electric Ind Co Ltd | Parallax arithmetic unit and image composite device |
JPH08263696A (en) * | 1995-03-01 | 1996-10-11 | Meidensha Corp | Three-dimensional object model generating method |
JPH10191396A (en) * | 1996-12-26 | 1998-07-21 | Matsushita Electric Ind Co Ltd | Intermediate view point image generating method, parallax estimate method and image transmission method |
JP2004362469A (en) * | 2003-06-06 | 2004-12-24 | Softopia Japan Foundation | Apparatus and method for detecting moving object using active sensor, and program for detecting animal body |
JP2006350465A (en) * | 2005-06-13 | 2006-12-28 | Nec Corp | Image matching device, image matching method, and program for image matching |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017043258A1 (en) * | 2015-09-09 | 2017-03-16 | シャープ株式会社 | Calculating device and calculating device control method |
JPWO2017043258A1 (en) * | 2015-09-09 | 2018-05-24 | シャープ株式会社 | COMPUTER DEVICE, COMPUTER DEVICE CONTROL METHOD, AND COMPUTER PROGRAM |
JP2020021126A (en) * | 2018-07-30 | 2020-02-06 | キヤノン株式会社 | Image processing device and control method thereof, distance detection device, imaging device, program |
JP7195801B2 (en) | 2018-07-30 | 2022-12-26 | キヤノン株式会社 | Image processing device and its control method, distance detection device, imaging device, program |
WO2021245972A1 (en) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | Computation device and parallax calculation method |
Also Published As
Publication number | Publication date |
---|---|
JP5051670B2 (en) | 2012-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6801653B1 (en) | Information processing apparatus and method as well as medium | |
US9607384B2 (en) | Optimal patch ranking for coordinate transform estimation of microscope images from sparse patch shift estimates | |
US20110176731A1 (en) | Information processing apparatus, information processing method, and program therefor | |
JP4941565B2 (en) | Corresponding point search apparatus and corresponding point searching method | |
JP5250847B2 (en) | Image processing apparatus, information processing system, image processing method, and program | |
WO2019093457A1 (en) | Information processing device, information processing method and program | |
JP2011203108A (en) | Apparatus and method for measuring three-dimensional distance | |
JP5051670B2 (en) | Image processing apparatus, image processing method, and image processing program | |
TWI462056B (en) | Image processing method, apparatus, and computer program product | |
US8861838B2 (en) | Apparatus and method for correcting stereoscopic image using matching information | |
JP5170005B2 (en) | Image processing apparatus, image processing method, and program | |
US20210279903A1 (en) | Distance measuring camera | |
JP5728399B2 (en) | Measuring device, method and program | |
US10332259B2 (en) | Image processing apparatus, image processing method, and program | |
JP2018133064A (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP2000055658A (en) | Image processing device and method and providing medium | |
US10484658B2 (en) | Apparatus and method for generating image of arbitrary viewpoint using camera array and multi-focus image | |
JP3452188B2 (en) | Tracking method of feature points in 2D video | |
JP5446516B2 (en) | Image processing device | |
JP5464671B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2006003276A (en) | Three dimensional geometry measurement system | |
US11443410B2 (en) | Image processing method and image processing apparatus | |
KR20190072987A (en) | Stereo Depth Map Post-processing Method with Scene Layout | |
JP7416573B2 (en) | Stereoscopic image generation device and its program | |
JP7259498B2 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120418 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120627 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5051670 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |