JP2011165117A - Apparatus, method and program for processing image - Google Patents

Apparatus, method and program for processing image Download PDF

Info

Publication number
JP2011165117A
JP2011165117A JP2010029992A JP2010029992A JP2011165117A JP 2011165117 A JP2011165117 A JP 2011165117A JP 2010029992 A JP2010029992 A JP 2010029992A JP 2010029992 A JP2010029992 A JP 2010029992A JP 2011165117 A JP2011165117 A JP 2011165117A
Authority
JP
Japan
Prior art keywords
image
boundary
block
combination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010029992A
Other languages
Japanese (ja)
Other versions
JP5051670B2 (en
Inventor
Toshiyuki Kamiya
俊之 神谷
Toru Miyazaki
徹 宮崎
Hiroyuki Yagyu
弘之 柳生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Priority to JP2010029992A priority Critical patent/JP5051670B2/en
Publication of JP2011165117A publication Critical patent/JP2011165117A/en
Application granted granted Critical
Publication of JP5051670B2 publication Critical patent/JP5051670B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform accurate matching by simple processing even when a hidden area is present in a stereo-matching method for performing a corresponding point search by template matching. <P>SOLUTION: A boundary pixel designation part 21 designates a boundary pixel that is composed of one or more pixels corresponding to a boundary between the hidden area that is an area not projected in either of a first image and a second image by the effect of an object and a non-hidden area that is an area projected in both respectively in the first image and the second image. A correlation calculation range determination part 22 determines a correlation calculation range based on the respective boundary pixels in the first image and the second image. A correlation calculation part 13 calculates, for each of overall or partial combinations between a plurality of block images in the first image and a plurality of block images in the second image, a correlation coefficient of pixel value according to the correlation calculation range. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関し、特に、ステレオマッチングを行なう画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing device, an image processing method, and an image processing program, and more particularly to an image processing device, an image processing method, and an image processing program that perform stereo matching.

従来のステレオ処理方式の一例として、たとえば、特許文献1(特開平4−299474号公報)には、以下のような技術が開示されている。すなわち、2つの画像A,Bのブロック同士の画素値の相関を、相関計算手段で計算する。AからB方向、およびBからA方向のそれぞれについて、その対応の相関値による順位付けを相関係数順位付け手段で行なう。さらにAからB方向、およびBからA方向の順位の和を相関係数順位加算手段で求める。この順位の和を積算し、対応のないブロックの数に応じた一定のペナルティを加えたものが最小になる対応の組み合わせを最小加算順位選択手段によって求める。   As an example of a conventional stereo processing method, for example, Patent Document 1 (Japanese Patent Laid-Open No. 4-299474) discloses the following technique. That is, the correlation between the pixel values of the blocks of the two images A and B is calculated by the correlation calculation means. For each of the directions from A to B and from B to A, the correlation coefficients are ranked by the correlation coefficient ranking means. Further, the sum of the ranks in the A to B direction and the B to A direction is obtained by the correlation coefficient rank adding means. The sum of the ranks is integrated, and the minimum combination rank selection means obtains the corresponding combination that minimizes the sum of a certain penalty corresponding to the number of uncorresponding blocks.

ここで、相関係数の計算には、非特許文献1に示されているような2つの画像におけるM×Nサイズのブロック間での相関値を用いるテンプレートマッチングが知られており、マッチングが達成されたときの中央位置(注目点)をテンプレート画像位置(対応点)とするのが一般的である。この場合に、たとえばM,Nには11,13などの奇数が用いられ、中心となる画素の位置(注目点)でマッチングが得られ、当該注目点が対応点として得られたとする処理を行なう。   Here, for the calculation of the correlation coefficient, template matching using a correlation value between M × N size blocks in two images as shown in Non-Patent Document 1 is known, and matching is achieved. In general, the template position (corresponding point) is set as the center position (attention point) at the time. In this case, for example, odd numbers such as 11 and 13 are used for M and N, matching is obtained at the position of the center pixel (attention point), and processing that assumes that the attention point is obtained as a corresponding point is performed. .

また、特許文献2(特開平11−183142号公報)には、以下のような技術が開示されている。すなわち、被測定物体に対する輝度情報および距離情報を測定する三次元画像撮像方法において、上記被測定物体を複数の撮像位置から撮影して複数の視差画像を取得する。次に、上記視差画像の一つを輝度情報とするとともに、この輝度情報となる基準視差画像とその撮像位置に最も近い撮像位置での第1の視差画像との画像対からステレオ視に必要な第1回目の対応画素探索を行い、第1のオクルージョンが発生しない範囲において上記画像対の視差から輝度情報の各画素に対する撮像位置からの各距離を算出して距離情報として記憶する。次に、上記基準視差画像とその撮像位置に2番目に近い撮像位置での第2の視差画像との画像対から再度対応画素探索を行い、第2のオクルージョンが発生しない範囲において各画素に対応する各距離を算出し、距離が算出できた画素については既に記憶している距離情報を書き換える距離情報書換処理を行なう。次に、この距離情報書換処理について、上記基準視差画像と撮像位置の近さが3番目以降の各視差画像との画像対で順次処理を繰り返し行なう。そして、上記第1のオクルージョンが発生している範囲の画素については、距離情報がないオクルージョン画素として記憶し、上記第1のオクルージョンが発生している範囲の画素については、この画素に対する最近傍の画素の距離情報を割り当てる。   Patent Document 2 (Japanese Patent Laid-Open No. 11-183142) discloses the following technique. That is, in a three-dimensional image imaging method for measuring luminance information and distance information for a measured object, the measured object is photographed from a plurality of imaging positions to obtain a plurality of parallax images. Next, one of the parallax images is used as luminance information, and is necessary for stereo viewing from the image pair of the reference parallax image serving as the luminance information and the first parallax image at the imaging position closest to the imaging position. The first corresponding pixel search is performed, and each distance from the imaging position for each pixel of the luminance information is calculated from the parallax of the image pair within a range where the first occlusion does not occur, and stored as distance information. Next, the corresponding pixel search is performed again from the image pair of the reference parallax image and the second parallax image at the imaging position second closest to the imaging position, and each pixel is handled in a range where the second occlusion does not occur. Each distance to be calculated is calculated, and a distance information rewriting process for rewriting the already stored distance information is performed for the pixels for which the distance has been calculated. Next, in the distance information rewriting process, the process is sequentially repeated for image pairs of the reference parallax image and each parallax image whose imaging position is close to the third and subsequent positions. Then, the pixel in the range where the first occlusion occurs is stored as an occlusion pixel without distance information, and the pixel in the range where the first occlusion occurs is the nearest neighbor to this pixel. Assign pixel distance information.

特開平4−299474号公報JP-A-4-299474 特開平11−183142号公報JP-A-11-183142

新編画像解析ハンドブック 高木幹雄,下田陽久、東京大学出版会、pp.1669-1672New Edition Image Analysis Handbook Mikio Takagi, Yoshihisa Shimoda, University of Tokyo Press, pp.1669-1672

テンプレート画像を用いてマッチングを行なうステレオマッチング手法においては、ステレオ処理しようとする対象物に急峻な形状変化があると、その変化部分付近におけるステレオマッチングの精度が低下する場合がある、という課題がある。   A stereo matching method that uses a template image for matching has a problem in that if there is a sharp shape change in an object to be stereo processed, the accuracy of stereo matching in the vicinity of the changed portion may be reduced. .

その理由は、次のとおりである。すなわち、形状変化部分の周辺には、両方の画像間での対応がない部分である隠れ領域(オクルージョン領域)が存在する。そして、相関係数の計算において、隠れ領域と非隠れ領域の境界部分付近での相関係数値が必ずしも最大とならず、ステレオマッチングの対応ミスが発生するためである。以下、模式図を用いてこれを説明する。   The reason is as follows. In other words, there is a hidden area (occlusion area) that is a part where there is no correspondence between both images around the shape change part. In the correlation coefficient calculation, the correlation coefficient value in the vicinity of the boundary portion between the hidden area and the non-hidden area is not necessarily maximized, and a stereo matching correspondence error occurs. Hereinafter, this will be described with reference to schematic views.

図11は、L画像およびR画像の撮影方法を示す模式図である。図12は、ステレオ画像におけるL画像およびR画像の見え方の違いを説明するための図である。   FIG. 11 is a schematic diagram illustrating a method for capturing an L image and an R image. FIG. 12 is a diagram for explaining a difference in appearance between the L image and the R image in the stereo image.

図11に示す被写体BLは、たとえば航空写真の撮影対象のビルディングである。また、図12に示すステレオ画像、すなわちL画像(左画像)およびR画像(右画像)は、図11に示すLおよびRの位置において連続して撮影された航空写真である。すなわち、図11に示すようにして撮影した場合に得られるL画像およびR画像の模式図が図12に示されている。   A subject BL shown in FIG. 11 is, for example, a building from which an aerial photograph is taken. Further, the stereo image shown in FIG. 12, that is, the L image (left image) and the R image (right image) are aerial photographs continuously taken at the positions L and R shown in FIG. That is, FIG. 12 shows a schematic diagram of an L image and an R image obtained when shooting is performed as shown in FIG.

図13は、ステレオ画像における隠れ領域を説明するための図である。図14は、左右の高さ画像を示す図である。   FIG. 13 is a diagram for explaining a hidden area in a stereo image. FIG. 14 is a diagram showing the left and right height images.

L画像およびR画像間で対応する点を求めることで、高さの値を求めた結果の例が図14に示されている。L高さ画像は、L画像の各点に対応する点をR画像中から求め、L画像の点およびR画像の対応点間の位置のずれ量、すなわち視差を高さとして求めた結果を示す画像である。同様に、R高さ画像は、R画像の各点に対応する点をL画像中から求め、R画像の点およびL画像の対応点間の位置のずれ量、すなわち視差を高さとして求めた結果を示す画像である。   FIG. 14 shows an example of the result of obtaining the height value by obtaining the corresponding points between the L image and the R image. The L-height image indicates a result obtained by obtaining points corresponding to each point of the L image from the R image and obtaining a positional deviation amount between the L image point and the corresponding point of the R image, that is, the parallax as the height. It is an image. Similarly, in the R height image, points corresponding to each point of the R image are obtained from the L image, and the amount of positional deviation between the points of the R image and the corresponding points of the L image, that is, the parallax is obtained as the height. It is an image which shows a result.

ここで、L高さ画像およびR高さ画像には、各々の撮影範囲が重ならないので高さが求められない領域(図14のハッチング領域)が、それぞれ左右に存在する。このL画像およびR画像の撮影範囲が重ならない部分、すなわち図14のハッチング領域については、撮影範囲のみをステレオマッチングの対象とするにより、容易に対処可能である。   Here, in the L-height image and the R-height image, there are left and right areas (hatched areas in FIG. 14) where the respective imaging ranges do not overlap and the height cannot be obtained. A portion where the shooting ranges of the L image and the R image do not overlap, that is, the hatched area in FIG. 14, can be easily dealt with by setting only the shooting range as a target of stereo matching.

一方、L高さ画像およびR高さ画像には、撮影時に被写体BLによって隠されるために、一方の画像には写っているが他方の画像には写っていない領域、すなわち隠れ領域OCL1,OCL2が存在する。   On the other hand, since the L-height image and the R-height image are hidden by the subject BL at the time of shooting, there are areas that are reflected in one image but not in the other image, that is, hidden areas OCL1 and OCL2. Exists.

図15は、隠れ領域と非隠れ領域の境界において相関係数計算が行なわれるブロック画像を示す図である。すなわち、図15は、隠れ領域を含んだブロック画像の処理を示している。   FIG. 15 is a diagram illustrating a block image in which correlation coefficient calculation is performed at the boundary between a hidden area and a non-hidden area. That is, FIG. 15 shows processing of a block image including a hidden area.

図15を参照して、ブロック画像Aは、対応点Pを中心とするブロック全体がL画像およびR画像双方に写っている場合の画像である。この場合、同じ対象が写っているブロック画像同士の相関係数が最大となることが成立する。   Referring to FIG. 15, block image A is an image when the entire block centering on corresponding point P is shown in both the L image and the R image. In this case, it is established that the correlation coefficient between the block images in which the same object is captured is maximized.

一方、ブロック画像Bにおいては、注目点PがL画像およびR画像双方に写っているが、相関係数が計算される領域の一部は隠れ領域OCLに対応している。すなわち、図12
に示す場合を考えると、L画像の領域Fの相関と、R画像の領域Dおよび領域Eの相関とを比較していることになる(領域Dおよび領域Eが隠れ領域)。
On the other hand, in the block image B, the attention point P appears in both the L image and the R image, but a part of the region where the correlation coefficient is calculated corresponds to the hidden region OCL. That is, FIG.
When the case shown in FIG. 2 is considered, the correlation between the region F of the L image and the correlation between the region D and the region E of the R image are compared (the region D and the region E are hidden regions).

このため、ブロック画像に隠れ領域が存在する場合には、一般に、相関係数が一致する可能性は低下し、一方、他のブロック画像との組み合わせにおいてより高い相関が得られてしまう可能性、すなわち誤った対応点を求めてしまう可能性が高くなってしまう。   For this reason, when there is a hidden area in the block image, generally, the possibility that the correlation coefficients match with each other is reduced, while on the other hand, a higher correlation may be obtained in combination with other block images, That is, there is a high possibility that an incorrect corresponding point will be obtained.

ここで、特許文献1に記載の技術は、2つの画像の対応付けを行なうマッチングに際し、双方向にマッチングを行なうことにより、オクルージョンのある画像間においても正確な対応付けを行なうためのものであるが、特許文献1に記載の技術を超えて精度の高いマッチングを行なう技術が望まれる。   Here, the technique described in Patent Document 1 is for performing accurate matching between images having occlusion by performing bidirectional matching when matching is performed for matching two images. However, a technique for performing high-precision matching beyond the technique described in Patent Document 1 is desired.

また、特許文献2に記載の技術では、対応画素探索処理を複数の画像について行なう必要があり、処理量が増大してしまう。また、オクルージョンが発生した場合に最近傍の画素の距離情報を割り当てる処理を行なっているに過ぎないため、ステレオマッチングにおいて隠れ領域の周辺でのマッチング率を向上させることはできない。   Further, in the technique described in Patent Document 2, it is necessary to perform the corresponding pixel search process for a plurality of images, which increases the processing amount. In addition, when the occlusion occurs, only the process of assigning the distance information of the nearest pixel is performed, so that the matching rate around the hidden region cannot be improved in stereo matching.

この発明は、上述の課題を解決するためになされたもので、その目的は、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうことが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することである。   The present invention has been made to solve the above-described problems. The purpose of the present invention is to achieve high-accuracy matching with simple processing even in the presence of a hidden region in a stereo matching method for searching for corresponding points by template matching. An image processing apparatus, an image processing method, and an image processing program that can be performed are provided.

上記課題を解決するために、この発明のある局面に係わる画像処理装置は、第1の画像および第2の画像の各々を複数のブロック画像に分割するための画像分割部と、被写体の影響によって上記第1の画像および上記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を上記第1の画像および上記第2の画像においてそれぞれ指定するための境界画素指定部と、上記第1の画像および上記第2の画像における各上記境界画素に基づいて相関計算範囲を決定するための相関計算範囲決定部と、上記第1の画像における上記複数のブロック画像と上記第2の画像における上記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出するための相関計算部と、上記相関計算部によって算出された、上記組み合わせごとの相関係数の値を用いて、上記組み合わせに関し上記第1の画像におけるブロック画像から上記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ上記組み合わせに関し上記第2の画像におけるブロック画像から上記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうための相関係数順位付け部と、上記組み合わせごとに、上記第1の順位と上記第2の順位の和を算出するための相関係数順位加算部と、各上記組み合わせ間の複数のパスを生成するためのパス生成部と、上記複数のパスを接続することによって表現される上記組み合わせのグループごとに、上記相関係数順位加算部によって算出された和を加算し、上記加算の結果が最小となる上記グループを動的計画法を用いて求めるための最終加算順位選択部とを備える。   In order to solve the above problems, an image processing apparatus according to an aspect of the present invention includes an image dividing unit for dividing each of a first image and a second image into a plurality of block images, and an influence of a subject. A boundary that is one or a plurality of pixels corresponding to a boundary between a hidden area that is not shown in any of the first image and the second image and a non-hidden area that is shown in both A boundary pixel designating unit for designating pixels in the first image and the second image, respectively, and a correlation calculation range is determined based on each of the boundary pixels in the first image and the second image. A correlation calculation range determining unit, and a combination of all or part of the plurality of block images in the first image and the plurality of block images in the second image For each combination, the correlation calculation unit for calculating the correlation coefficient of the pixel value according to the correlation calculation range, and the correlation coefficient value for each combination calculated by the correlation calculation unit, The first ranking is performed in descending order of the correlation coefficient from the block image in the first image to the block image in the second image, and the block image in the second image is related to the first in relation to the combination. A correlation coefficient ranking unit for performing the second ranking in descending order of the correlation coefficient with respect to the block image in each image, and for each combination, the sum of the first rank and the second rank is calculated. It is expressed by connecting the plurality of paths with a correlation coefficient rank adding unit for calculating, a path generating unit for generating a plurality of paths between the combinations. For each group of the combination, a sum calculated by the correlation coefficient rank addition unit is added, and a final addition rank selection unit for obtaining the group that minimizes the result of the addition using dynamic programming, Is provided.

上記課題を解決するために、この発明のある局面に係わる画像処理方法は、(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって上記第1の画像および上記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を上記第1の画像および上記第2の画像においてそれぞれ指定するステップと、(c)上記第1の画像および上記第2の画像における各上記境界画素に基づいて相関計算範囲を決定するステップと、(d)上記第1の画像における上記
複数のブロック画像と上記第2の画像における上記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出するステップと、(e)上記(d)のステップにおいて算出された、上記組み合わせごとの相関係数の値を用いて、上記組み合わせに関し上記第1の画像におけるブロック画像から上記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ上記組み合わせに関し上記第2の画像におけるブロック画像から上記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、(f)上記組み合わせごとに、上記第1の順位と上記第2の順位の和を算出するステップと、(g)各上記組み合わせ間の複数のパスを生成するステップと、(h)上記複数のパスを接続することによって表現される上記組み合わせのグループごとに、上記(f)のステップにおいて算出された和を加算し、上記加算の結果が最小となる上記グループを動的計画法を用いて求めるステップとを含む。
In order to solve the above problems, an image processing method according to an aspect of the present invention includes (a) a step of dividing each of the first image and the second image into a plurality of block images; One or a plurality of pixels corresponding to a boundary between a hidden area that is not reflected in any of the first image and the second image and a non-hidden area that is reflected in any of the first image and the second image due to influence. Designating a certain boundary pixel in each of the first image and the second image, and (c) determining a correlation calculation range based on each boundary pixel in the first image and the second image. And (d) for each or some combination between the plurality of block images in the first image and the plurality of block images in the second image, (E) calculating the correlation coefficient of the pixel value according to the correlation calculation range; and (e) using the correlation coefficient value for each combination calculated in the step (d) above, The first ranking is performed in descending order of the correlation coefficient from the block image in the image to the block image in the second image, and the block image in the second image in the first image is related to the combination. Performing a second ranking in descending order of the correlation coefficient to the block image; (f) calculating a sum of the first ranking and the second ranking for each combination; and (g ) Generating a plurality of paths between each of the combinations; and (h) for each group of the combinations expressed by connecting the plurality of paths. The adds the sum calculated in step (f), and determining the group to which the result of the addition is minimized by using a dynamic programming.

上記課題を解決するために、この発明のある局面に係わる画像処理プログラムは、(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって上記第1の画像および上記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を上記第1の画像および上記第2の画像においてそれぞれ指定するステップと、(c)上記第1の画像および上記第2の画像における各上記境界画素に基づいて相関計算範囲を決定するステップと、(d)上記第1の画像における上記複数のブロック画像と上記第2の画像における上記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出するステップと、(e)上記(d)のステップにおいて算出された、上記組み合わせごとの相関係数の値を用いて、上記組み合わせに関し上記第1の画像におけるブロック画像から上記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ上記組み合わせに関し上記第2の画像におけるブロック画像から上記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、(f)上記組み合わせごとに、上記第1の順位と上記第2の順位の和を算出するステップと、(g)各上記組み合わせ間の複数のパスを生成するステップと、(h)上記複数のパスを接続することによって表現される上記組み合わせのグループごとに、上記(f)のステップにおいて算出された和を加算し、上記加算の結果が最小となる上記グループを動的計画法を用いて求めるステップとをコンピュータに実行させる。   In order to solve the above problems, an image processing program according to an aspect of the present invention includes: (a) a step of dividing each of the first image and the second image into a plurality of block images; and (b) a subject image. One or a plurality of pixels corresponding to a boundary between a hidden area that is not reflected in any of the first image and the second image and a non-hidden area that is reflected in any of the first image and the second image due to influence. Designating a certain boundary pixel in each of the first image and the second image, and (c) determining a correlation calculation range based on each boundary pixel in the first image and the second image. (D) a combination of all or part of the plurality of block images in the first image and the plurality of block images in the second image. (E) calculating a correlation coefficient of pixel values according to the correlation calculation range; and (e) using the correlation coefficient value for each combination calculated in the step (d) above, The first ranking is performed in the descending order of the correlation coefficient from the block image in the first image to the block image in the second image, and the first image from the block image in the second image is related to the combination. Performing a second ranking in descending order of the correlation coefficient to the block image in the image; (f) calculating a sum of the first ranking and the second ranking for each of the combinations; (G) generating a plurality of paths between each of the combinations, and (h) a group of the combinations expressed by connecting the plurality of paths. Each in the above by adding the sum calculated in step (f), and a step of obtaining using dynamic programming the group result of the addition is minimized to the computer.

本発明によれば、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうことができる。   According to the present invention, in a stereo matching method for searching for corresponding points by template matching, high-precision matching can be performed with simple processing even when a hidden region exists.

隠れ領域と非隠れ領域の境界における境界画素の指定方法を説明するための図である。It is a figure for demonstrating the designation | designated method of the boundary pixel in the boundary of a hidden region and a non-hidden region. 隠れ領域と非隠れ領域の境界部分の拡大図である。It is an enlarged view of the boundary part of a hidden region and a non-hidden region. 境界画素がブロック画像に存在する場合の相関計算範囲の変形を示す図である。It is a figure which shows the deformation | transformation of the correlation calculation range when a boundary pixel exists in a block image. 本発明の第1の実施の形態に係る画像処理装置の概略構成図である。1 is a schematic configuration diagram of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る画像処理装置が提供する制御構造を示すブロック図である。It is a block diagram which shows the control structure which the image processing apparatus which concerns on the 1st Embodiment of this invention provides. 本発明の第1の実施の形態に係る画像処理装置がステレオマッチング処理を行なう際の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure at the time of the image processing apparatus which concerns on the 1st Embodiment of this invention performing a stereo matching process. 本発明の第1の実施の形態に係る相関計算範囲決定部が指定する相関計算範囲の例を示す図である。It is a figure which shows the example of the correlation calculation range which the correlation calculation range determination part which concerns on the 1st Embodiment of this invention designates. ブロック画像を用いて相関行列を求める方法を示す図である。It is a figure which shows the method of calculating | requiring a correlation matrix using a block image. 本発明の第2の実施の形態に係る画像処理装置が提供する制御構造を示すブロック図である。It is a block diagram which shows the control structure which the image processing apparatus which concerns on the 2nd Embodiment of this invention provides. 本発明の第2の実施の形態に係る画像処理装置がステレオマッチング処理を行なう際の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure at the time of the image processing apparatus which concerns on the 2nd Embodiment of this invention performing a stereo matching process. L画像およびR画像の撮影方法を示す模式図である。It is a schematic diagram which shows the imaging | photography method of L image and R image. ステレオ画像におけるL画像およびR画像の見え方の違いを説明するための図である。It is a figure for demonstrating the difference in the appearance of the L image and R image in a stereo image. ステレオ画像における隠れ領域を説明するための図である。It is a figure for demonstrating the hidden area in a stereo image. 左右の高さ画像を示す図である。It is a figure which shows a left-right height image. 隠れ領域と非隠れ領域の境界において相関係数計算が行なわれるブロック画像を示す図である。It is a figure which shows the block image in which a correlation coefficient calculation is performed in the boundary of a hidden area and a non-hidden area.

以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.

<第1の実施の形態>
[概要]
本発明の第1の実施の形態に係る画像処理装置は、隠れ領域と非隠れ領域の境界を指定するための後述する境界画素指定部21を用いて明示的に対応を与えることにより、境界点での誤対応を修正するものである。
<First Embodiment>
[Overview]
The image processing apparatus according to the first embodiment of the present invention uses the boundary pixel designating unit 21 (to be described later) for designating the boundary between the hidden region and the non-hidden region, thereby providing a boundary point. It is intended to correct mishandling in.

図1は、隠れ領域と非隠れ領域の境界における境界画素の指定方法を説明するための図である。図1は、境界画素指定部21が与える上記対応の例を示している。図2は、隠れ領域と非隠れ領域の境界部分の拡大図である。   FIG. 1 is a diagram for explaining a method for specifying a boundary pixel at the boundary between a hidden area and a non-hidden area. FIG. 1 shows an example of the correspondence given by the boundary pixel designating unit 21. FIG. 2 is an enlarged view of a boundary portion between the hidden area and the non-hidden area.

図1および図2を参照して、境界画素指定部21は、L画像およびR画像において互いに対応するエッジ、すなわち隠れ領域と非隠れ領域の境界を示す線分を指定する。ここでは、境界画素指定部21は、α1とα2を対応する境界としてそれぞれL画像およびR画像において指定し、また、β1とβ2を対応する境界としてそれぞれL画像およびR画像において指定する。   Referring to FIGS. 1 and 2, boundary pixel specifying unit 21 specifies edges corresponding to each other in the L image and the R image, that is, a line segment indicating the boundary between the hidden region and the non-hidden region. Here, the boundary pixel designating unit 21 designates α1 and α2 as corresponding boundaries in the L image and the R image, respectively, and designates β1 and β2 as corresponding boundaries in the L image and the R image, respectively.

後述する相関計算範囲設定部22は、明示的に与えられた境界付近におけるマッチング処理のために相関係数を計算する際に、ステレオマッチングの対象となるブロック画像における計算範囲を変化させる。これにより、境界画素指定部21によって指定された境界に対応する画素(以下、境界画素とも称する。)がマッチングウィンドウすなわち相関計算範囲に含まれる場合において、上記線分を境界として注目点を含む領域と含まない領域とに分割し、注目点を含む側の領域のみにおいて相関係数を計算し、マッチングの判定を行なうことが可能となる。   The correlation calculation range setting unit 22 to be described later changes the calculation range in the block image to be subjected to stereo matching when calculating the correlation coefficient for the matching process in the vicinity of the explicitly given boundary. Thereby, when a pixel corresponding to the boundary specified by the boundary pixel specifying unit 21 (hereinafter also referred to as a boundary pixel) is included in the matching window, that is, the correlation calculation range, the region including the attention point with the line segment as a boundary. It is possible to perform the matching determination by calculating the correlation coefficient only in the region including the attention point.

図3は、境界画素がブロック画像に存在する場合の相関計算範囲の変形を示す図である。図3は、通常の相関計算範囲のブロック画像Aと、相関計算範囲設定部(マッチングウィンドウ変形部)22による変形後のブロック画像Bを示している。   FIG. 3 is a diagram illustrating a modification of the correlation calculation range when the boundary pixel exists in the block image. FIG. 3 shows a block image A in a normal correlation calculation range and a block image B after deformation by the correlation calculation range setting unit (matching window deformation unit) 22.

変形後のブロック画像Bでは、同一の領域と判定されたL画像およびR画像の領域同士のみでマッチング判定を行なうことができるため、隠れ領域Hによる影響を取り除いた相関係数の値を得ることができる。このような構成により、注目点Pを含む側の領域のみの相関係数に基づいて精度の高いマッチングを行なうことができる。   In the deformed block image B, since the matching determination can be performed only between the regions of the L image and the R image determined to be the same region, the correlation coefficient value from which the influence of the hidden region H is removed is obtained. Can do. With such a configuration, highly accurate matching can be performed based on the correlation coefficient of only the region on the side including the attention point P.

本発明の第1の実施の形態に係る画像処理装置201は、典型的には、汎用的なアーキテクチャを有するコンピュータを基本構造としており、予めインストールされたプログラムを実行することで、後述するような各種機能を提供する。一般的に、このようなプログラムは、フレキシブルディスク(Flexible Disk)およびCD−ROM(Compact Disk Read Only Memory)などの記録媒体に格納されて、あるいはネットワークなどを介して流通する。このような汎用的なコンピュータを利用する場合には、本実施の形態に係る機能を提供するためのアプリケーションに加えて、コンピュータの基本的な機能を提供するためのOS(Operating System)がインストールされていてもよい。この場合には、本実施の形態に係るプログラムは、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の順序および/またはタイミングで呼出して処理を実行するものであってもよい。すなわち、本実施の形態に係るプログラム自体は、上記のようなモジュールを含んでおらず、OSと協働して処理が実行される場合もある。したがって、本実施の形態に係るプログラムとしては、上記のようなモジュールを含まない形態であってもよい。   The image processing apparatus 201 according to the first embodiment of the present invention typically has a basic structure of a computer having a general-purpose architecture, and will be described later by executing a preinstalled program. Provide various functions. In general, such a program is stored in a recording medium such as a flexible disk and a CD-ROM (Compact Disk Read Only Memory) or distributed via a network or the like. When using such a general-purpose computer, an OS (Operating System) for providing basic functions of the computer is installed in addition to the application for providing the functions according to the present embodiment. It may be. In this case, the program according to the present embodiment may execute processing by calling necessary modules out of program modules provided as part of the OS in a predetermined order and / or timing. Good. That is, the program itself according to the present embodiment does not include the module as described above, and the process may be executed in cooperation with the OS. Therefore, the program according to the present embodiment may have a form that does not include the above-described module.

さらに、本実施の形態に係るプログラムは、他のプログラムの一部に組み込まれて提供されるものであってもよい。この場合でも、本実施の形態に係るプログラム自体は、上記のような組み込み先の他のプログラムが有するモジュールを含んでおらず、当該他のプログラムと協働して処理が実行される。すなわち、本実施の形態に係るプログラムとしては、このような他のプログラムに組み込まれた形態であってもよい。   Furthermore, the program according to the present embodiment may be provided by being incorporated in a part of another program. Even in this case, the program itself according to the present embodiment does not include a module included in the other program as described above, and the processing is executed in cooperation with the other program. That is, the program according to the present embodiment may be in a form incorporated in such another program.

なお、代替的に、プログラムの実行により提供される機能の一部もしくは全部を専用のハードウェア回路として実装してもよい。   Alternatively, some or all of the functions provided by program execution may be implemented as a dedicated hardware circuit.

[装置構成]
図4は、本発明の第1の実施の形態に係る画像処理装置の概略構成図である。図4を参照して、画像処理装置201は、演算処理部であるCPU(Central Processing Unit)101と、記憶部としてのメインメモリ102およびハードディスク103と、入力インターフェイス104と、表示コントローラ105と、データリーダ/ライタ106と、通信インターフェイス107とを備える。これらの各部は、バス121を介して互いにデータ通信可能に接続される。
[Device configuration]
FIG. 4 is a schematic configuration diagram of the image processing apparatus according to the first embodiment of the present invention. Referring to FIG. 4, an image processing apparatus 201 includes a central processing unit (CPU) 101 that is an arithmetic processing unit, a main memory 102 and a hard disk 103 as a storage unit, an input interface 104, a display controller 105, data A reader / writer 106 and a communication interface 107 are provided. These units are connected to each other via a bus 121 so that data communication is possible.

CPU101は、ハードディスク103に格納されたプログラム(コード)をメインメモリ102に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ102は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置であり、ハードディスク103から読み出されたプログラムに加えて、各種の演算処理結果を示すデータなどを保持する。また、ハードディスク103は不揮発性の磁気記憶装置であり、CPU101で実行されるプログラムに加えて、各種設定値などが格納される。このハードディスク103にインストールされるプログラムは、後述するように、記録媒体111に格納された状態で流通する。なお、ハードディスク103に加えて、あるいはハードディスク103に代えて、フラッシュメモリなどの半導体記憶装置を採用してもよい。   The CPU 101 performs various operations by developing programs (codes) stored in the hard disk 103 in the main memory 102 and executing them in a predetermined order. The main memory 102 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory), and stores data indicating various arithmetic processing results in addition to programs read from the hard disk 103. To do. The hard disk 103 is a non-volatile magnetic storage device, and stores various setting values in addition to programs executed by the CPU 101. The program installed in the hard disk 103 is distributed in a state of being stored in the recording medium 111 as will be described later. In addition to the hard disk 103 or instead of the hard disk 103, a semiconductor storage device such as a flash memory may be employed.

入力インターフェイス104は、CPU101とキーボード108、マウス109および図示しないタッチパネルなどの入力部との間のデータ伝送を仲介する。すなわち、入力インターフェイス104は、ユーザが入力部を操作することで与えられる操作指令などの外部からの入力を受け付ける。   The input interface 104 mediates data transmission between the CPU 101 and an input unit such as a keyboard 108, a mouse 109, and a touch panel (not shown). That is, the input interface 104 receives an external input such as an operation command given by a user operating the input unit.

表示コントローラ105は、表示部の典型例であるディスプレイ110と接続され、デ
ィスプレイ110での表示を制御する。すなわち、表示コントローラ105は、CPU101による画像処理の結果などをユーザに対して表示する。ディスプレイ110は、たとえばLCD(Liquid Crystal Display)またはCRT(Cathode Ray Tube)である。
The display controller 105 is connected to a display 110 that is a typical example of a display unit, and controls display on the display 110. That is, the display controller 105 displays the result of image processing by the CPU 101 to the user. The display 110 is, for example, an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube).

データリーダ/ライタ106は、CPU101と記録媒体111の間のデータ伝送を仲介する。すなわち、記録媒体111は、画像処理装置201で実行されるプログラムなどが格納された状態で流通し、データリーダ/ライタ106は、この記録媒体111からプログラムを読み出す。また、データリーダ/ライタ106は、CPU101の内部指令に応答して、画像処理装置201における処理結果などを記録媒体111へ書き込む。なお、記録媒体111は、たとえば、CF(Compact Flash)およびSD(Secure Digital)などの汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)などの磁気記憶媒体、またはCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体である。   The data reader / writer 106 mediates data transmission between the CPU 101 and the recording medium 111. That is, the recording medium 111 is distributed in a state where a program executed by the image processing apparatus 201 is stored, and the data reader / writer 106 reads the program from the recording medium 111. Further, the data reader / writer 106 writes the processing result in the image processing apparatus 201 into the recording medium 111 in response to the internal command of the CPU 101. The recording medium 111 is, for example, a general-purpose semiconductor storage device such as CF (Compact Flash) and SD (Secure Digital), a magnetic storage medium such as a flexible disk, or a CD-ROM (Compact Disk Read Only). Memory).

通信インターフェイス107は、CPU101とパーソナルコンピュータおよびサーバ装置などの間のデータ伝送を仲介する。通信インターフェイス107は、典型的には、イーサネット(登録商標)またはUSB(Universal Serial Bus)の通信機能を有する。なお、記録媒体111に格納されたプログラムを画像処理装置201にインストールする形態に代えて、通信インターフェイス107を介して配信サーバなどからダウンロードしたプログラムを画像処理装置201にインストールしてもよい。   The communication interface 107 mediates data transmission between the CPU 101 and a personal computer, a server device, or the like. The communication interface 107 typically has an Ethernet (registered trademark) or USB (Universal Serial Bus) communication function. Instead of installing the program stored in the recording medium 111 in the image processing apparatus 201, a program downloaded from a distribution server or the like via the communication interface 107 may be installed in the image processing apparatus 201.

また、画像処理装置201には、必要に応じてプリンタなどの他の出力装置が接続されてもよい。   Further, the image processing apparatus 201 may be connected to another output device such as a printer as necessary.

[制御構造]
次に、画像処理装置201における各種機能を提供するための制御構造について説明する。
[Control structure]
Next, a control structure for providing various functions in the image processing apparatus 201 will be described.

図5は、本発明の第1の実施の形態に係る画像処理装置が提供する制御構造を示すブロック図である。図5に示す各ブロックは、ハードディスク103に格納されたプログラム(コード)などをメインメモリ102に展開して、CPU101に実行させることで提供される。なお、図5に示すモジュールの一部もしくは全部がハードウェアに実装されているファームウェアによって提供される場合もある。あるいは、図5に示す制御構造の一部もしくは全部を専用ハードウェアおよび/または配線回路によって実現してもよい。   FIG. 5 is a block diagram showing a control structure provided by the image processing apparatus according to the first embodiment of the present invention. Each block shown in FIG. 5 is provided by developing a program (code) stored in the hard disk 103 in the main memory 102 and causing the CPU 101 to execute it. Note that some or all of the modules shown in FIG. 5 may be provided by firmware implemented in hardware. Alternatively, part or all of the control structure shown in FIG. 5 may be realized by dedicated hardware and / or a wiring circuit.

図5を参照して、画像処理装置201は、その制御構造として、画像入力部10と、画像記憶部11と、画像分割部12と、相関計算部13と、相関係数順位付け部14と、相関係数順位加算部15と、パス生成部16と、最終加算順位選択部17と、境界画素指定部21と、相関計算範囲決定部22とを備える。   Referring to FIG. 5, the image processing apparatus 201 has, as its control structure, an image input unit 10, an image storage unit 11, an image division unit 12, a correlation calculation unit 13, and a correlation coefficient ranking unit 14. , A correlation coefficient rank addition unit 15, a path generation unit 16, a final addition rank selection unit 17, a boundary pixel designation unit 21, and a correlation calculation range determination unit 22.

画像入力部10、画像記憶部11、画像分割部12、相関計算部13、相関係数順位付け部14、相関係数順位加算部15、パス生成部16、および最終加算順位選択部17は、たとえば特許文献1の図4に示す構成と同様の動作を行なう。   The image input unit 10, the image storage unit 11, the image division unit 12, the correlation calculation unit 13, the correlation coefficient ranking unit 14, the correlation coefficient rank addition unit 15, the path generation unit 16, and the final addition rank selection unit 17 are For example, the same operation as that shown in FIG.

具体的には、画像入力部10は、2つの画像(L画像およびR画像)を入力する。画像記憶部11は、画像入力部10へ入力された画像を記憶する。これらの画像は、たとえば、図4に示す記録媒体111からデータリーダ/ライタ106を介して画像入力部10へ送られ、画像入力部10は、これらの画像を画像記憶部11であるメインメモリ102またはハードディスク103に格納する。   Specifically, the image input unit 10 inputs two images (L image and R image). The image storage unit 11 stores the image input to the image input unit 10. These images are sent, for example, from the recording medium 111 shown in FIG. 4 to the image input unit 10 via the data reader / writer 106, and the image input unit 10 stores these images in the main memory 102 that is the image storage unit 11. Alternatively, it is stored in the hard disk 103.

画像分割部12は、画像記憶部11に記憶されているL画像およびR画像を、位置的な重複を許して複数のブロック画像に分割する。各画像における複数のブロック画像は、隣り合うブロック画像の一部領域が互いに重なり合うように設けられる。画像分割部12は、たとえば特許文献1の図4に示す構成と同様に、L画像およびR画像の各々を走査線ごとに分割し、分割した走査線に対応する部分を、一部領域が重なり合いながら配列される複数のブロック画像に分割する。   The image dividing unit 12 divides the L image and the R image stored in the image storage unit 11 into a plurality of block images while allowing positional overlap. The plurality of block images in each image are provided such that partial areas of adjacent block images overlap each other. For example, as in the configuration shown in FIG. 4 of Patent Document 1, the image dividing unit 12 divides each of the L image and the R image for each scanning line, and a part of the portion corresponding to the divided scanning line overlaps. Then, it is divided into a plurality of block images arranged.

境界画素指定部21は、L画像およびR画像の各々における境界に対応する画素である境界画素の入力を受け付ける。   The boundary pixel designating unit 21 receives input of boundary pixels that are pixels corresponding to the boundary in each of the L image and the R image.

相関計算範囲決定部22は、境界画素指定部21によって得られた境界画素の情報を用いることにより、L画像およびR画像双方における注目点の周囲の相関計算をそれぞれ行なう範囲(相関計算範囲)を決定する。   The correlation calculation range determination unit 22 uses the boundary pixel information obtained by the boundary pixel specification unit 21 to determine ranges (correlation calculation ranges) for performing correlation calculation around the point of interest in both the L image and the R image. decide.

相関計算部13は、L画像におけるブロック画像およびR画像におけるブロック画像間において、ブロック画像に含まれる画素値の相互相関を計算する。相関計算部13は、たとえば特許文献1の図4に示す構成と同様に、同じ位置の走査線上に存在する、L画像における複数のブロック画像とR画像における複数のブロック画像との間のすべてまたは一部の組み合わせごとに、相関計算範囲に従って画素値の相関係数を算出する。   The correlation calculation unit 13 calculates the cross-correlation of pixel values included in the block image between the block image in the L image and the block image in the R image. Correlation calculation unit 13 is, for example, similar to the configuration shown in FIG. 4 of Patent Document 1, all or a plurality of block images in the L image and a plurality of block images in the R image existing on the scanning line at the same position. For each combination, the correlation coefficient of the pixel value is calculated according to the correlation calculation range.

相関係数順位付け部14は、相関計算部13によって得られたL画像におけるブロック画像とR画像におけるブロック画像の組み合わせごとの相関係数の値を用いて、これらの組み合わせに関し、L画像におけるブロック画像からR画像におけるブロック画像への相関係数の大きい順の順位付け、およびR画像からL画像への相関係数の大きい順の順位付けを行なう。   The correlation coefficient ranking unit 14 uses the value of the correlation coefficient for each combination of the block image in the L image and the block image in the R image obtained by the correlation calculation unit 13, and relates to these combinations. Ranking is performed in descending order of the correlation coefficient from the image to the block image in the R image and in descending order of the correlation coefficient from the R image to the L image.

相関係数順位加算部15は、これらの組み合わせごとに、相関係数順付け部140によって得られたL画像におけるブロック画像からR画像におけるブロック画像の順位と、R画像における同じブロック画像からL画像における同じブロック画像への順位の和を計算する。   For each of these combinations, the correlation coefficient rank adding unit 15 ranks the block image in the R image from the block image in the L image obtained by the correlation coefficient ordering unit 140, and the L image from the same block image in the R image. Calculate the sum of ranks for the same block image in.

パス生成部16は、各組み合わせ間の複数のパスを生成する。パス生成部16は、たとえば特許文献1の図4に示す構成と同様に、対応点間の接続する候補をすべてパスとして生成する。すなわち、パス生成部16は、上記組み合わせについて、隣接した組み合わせ同士のパスだけでなく、隣接しない組み合わせ同士のパスも生成する。   The path generation unit 16 generates a plurality of paths between the combinations. For example, the path generation unit 16 generates all candidates for connection between corresponding points as paths, as in the configuration shown in FIG. That is, the path generation unit 16 generates not only the paths between the adjacent combinations but also the paths between the non-adjacent combinations for the above combinations.

最終加算順位選択部17は、パス生成部16によって生成されたパスから最良のパスを動的計画法によって求める。最終加算順位選択部17は、たとえば特許文献1の図4に示す構成と同様に、パス生成部16によって生成された各パスを接続することによって表現されるすべての組み合わせのグループごとに、相関係数順位加算部15によって求めた順位の和を加算する。   The final addition rank selection unit 17 obtains the best path from the paths generated by the path generation unit 16 by dynamic programming. For example, as in the configuration illustrated in FIG. 4 of Patent Document 1, the final addition rank selection unit 17 performs the correlation for each group of all combinations expressed by connecting the paths generated by the path generation unit 16. The sum of the ranks obtained by the number rank addition unit 15 is added.

そして、最終加算順位選択部17は、たとえば特許文献1の図4に示す構成と同様に、この加算結果に、各グループにおける組み合わせに含まれないブロック画像の数に応じた一定のペナルティを加え、この結果が最小になるグループを動的計画法を用いて求める。すなわち、最終加算順位選択部17は、特許文献1の段落[0052]〜[0053]および図9に示すような方法により、最良のパスを求める。   And the last addition order selection part 17 adds a fixed penalty according to the number of block images not included in the combination in each group, for example, similarly to the configuration shown in FIG. 4 of Patent Document 1, The group that minimizes this result is obtained using dynamic programming. That is, the final addition order selection unit 17 obtains the best path by the method shown in paragraphs [0052] to [0053] of Patent Document 1 and FIG.

[動作]
次に、本発明の第1の実施の形態に係る画像処理装置の動作について図面を用いて説明
する。本発明の第1の実施の形態では、画像処理装置201を動作させることによって、本発明の第1の実施の形態に係るステレオマッチング方法が実施される。よって、本発明の第1の実施の形態に係るステレオマッチング方法の説明は、以下の画像処理装置201の動作説明に代える。なお、以下の説明においては、適宜図5を参照する。
[Operation]
Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described with reference to the drawings. In the first embodiment of the present invention, the stereo matching method according to the first embodiment of the present invention is performed by operating the image processing apparatus 201. Therefore, the description of the stereo matching method according to the first embodiment of the present invention is replaced with the operation description of the image processing apparatus 201 below. In the following description, FIG. 5 will be referred to as appropriate.

図6は、本発明の第1の実施の形態に係る画像処理装置がステレオマッチング処理を行なう際の動作手順を示すフローチャートである。   FIG. 6 is a flowchart showing an operation procedure when the image processing apparatus according to the first embodiment of the present invention performs the stereo matching process.

図6を参照して、まず、画像入力部10は、ステレオ処理の対象となるL画像およびR画像を入力する(ステップS2)。   Referring to FIG. 6, first, the image input unit 10 inputs an L image and an R image that are targets of stereo processing (step S2).

次に、画像記憶部11は、これらのL画像およびR画像を記憶する(ステップS4)。ここで、L画像およびR画像は、エピポーララインに画像が配列された平行化済みの画像である。以降の処理における対応点の探索は、L画像およびR画像の同じ行ごとに対応点を求める処理を繰り返すことにより、両画像全体の対応を求める。   Next, the image storage unit 11 stores these L and R images (step S4). Here, the L image and the R image are parallelized images in which images are arranged in epipolar lines. The search for corresponding points in the subsequent processing is to obtain the correspondence between the two images as a whole by repeating the process of obtaining the corresponding points for each same row of the L image and the R image.

次に、画像分割部12は、L画像およびR画像の各々を複数のブロック画像に分割する。具体的には、画像分割部12は、画像記憶部11から取得したL画像およびR画像の各行について、重なり合うM×Nの大きさを持つ複数のブロック画像にそれぞれ分割する。たとえば、対応点を1画素ごとに求める場合には、ブロック画像は、互いに1画素ずつずれて重なり合うように配列される(ステップS6)。   Next, the image dividing unit 12 divides each of the L image and the R image into a plurality of block images. Specifically, the image dividing unit 12 divides each row of the L image and the R image acquired from the image storage unit 11 into a plurality of block images having an overlapping size of M × N. For example, when the corresponding points are obtained for each pixel, the block images are arranged so as to overlap each other with a shift of one pixel (step S6).

次に、境界画素指定部21は、画像記憶部11からL画像およびR画像を取得する。そして、境界画素指定部21は、被写体の影響によってL画像およびR画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する画素である境界画素をL画像およびR画像においてそれぞれ指定する。本発明の第1の実施の形態では、境界画素指定部21は、ユーザの操作による各境界画素の指定を受け付ける。具体的には、境界画素指定部21は、たとえば図1に示すように両方の画像を図4に示す画像記憶部11に並べて表示し、利用者が両画像の対応する場所にマウス109等を用いて線分を与える操作を受け付けることにより、境界画素を指定する(ステップS8)。   Next, the boundary pixel specifying unit 21 acquires the L image and the R image from the image storage unit 11. Then, the boundary pixel specifying unit 21 is a pixel corresponding to the boundary between the hidden area that is an area that is not captured in either the L image or the R image due to the subject and the non-hidden area that is an area that is captured in both. Are designated in the L image and the R image, respectively. In the first embodiment of the present invention, the boundary pixel specifying unit 21 receives the specification of each boundary pixel by a user operation. Specifically, the boundary pixel designating unit 21 displays both images side by side in the image storage unit 11 shown in FIG. 4 as shown in FIG. 1, for example, and the user places the mouse 109 or the like at the corresponding location of both images. A boundary pixel is designated by accepting an operation for giving a line segment using it (step S8).

ここでは、境界線は隠れ領域と注目する対象である非隠れ領域との境界部分であって、この注目する対象の内側に引くものとする。これにより、L画像およびR画像のi行目には、複数の境界点の組すなわち(i,L1)−(i,R1),(i,L2)−(i,R2),・・・(i,Ln)−(i,Rn)というn個の境界画素の組が与えられる。   Here, the boundary line is a boundary portion between the hidden area and the non-hidden area that is the target of attention, and is drawn inside the target of interest. As a result, a set of a plurality of boundary points, i.e., (i, L1)-(i, R1), (i, L2)-(i, R2),. A set of n boundary pixels, i, Ln)-(i, Rn) is given.

次に、相関計算範囲決定部22は、L画像およびR画像における各境界画素に基づいて相関計算範囲を決定する。具体的には、相関計算範囲決定部22は、L画像およびR画像のブロック画像間の相関係数を求めるための相関計算範囲を決定する。ここで、ブロック画像は前述のようにM×Nの大きさを持つため、左右のブロック画像のいずれにも境界画素指定部21で指定された境界画素が含まれない場合には、M×Nの矩形の画像が相関計算範囲となる(ステップS10)。   Next, the correlation calculation range determination unit 22 determines the correlation calculation range based on each boundary pixel in the L image and the R image. Specifically, the correlation calculation range determination unit 22 determines a correlation calculation range for obtaining a correlation coefficient between the block images of the L image and the R image. Here, since the block image has a size of M × N as described above, when neither of the left and right block images includes the boundary pixel specified by the boundary pixel specifying unit 21, M × N The rectangular image is the correlation calculation range (step S10).

次に、相関計算部13は、L画像における複数のブロック画像とR画像における複数のブロック画像との間のすべてまたは一部の組み合わせごとに、相関計算範囲決定部22によって決定された相関計算範囲に従って画素値の相関係数を算出する(ステップS12)。   Next, the correlation calculation unit 13 determines the correlation calculation range determined by the correlation calculation range determination unit 22 for all or some combinations between the plurality of block images in the L image and the plurality of block images in the R image. The correlation coefficient of the pixel value is calculated according to (Step S12).

次に、相関係数順位付け部14は、相関計算部13によって算出された、組み合わせご
との相関係数の値を用いて、組み合わせに関しL画像におけるブロック画像からR画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ組み合わせに関しR画像におけるブロック画像からL画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なう(ステップS14)。
Next, the correlation coefficient ranking unit 14 uses the correlation coefficient value calculated for each combination calculated by the correlation calculation unit 13 to correlate the block image in the L image to the block image in the R image with respect to the combination. The first ranking is performed in the descending order of the number, and the second ranking is performed in the descending order of the correlation coefficient from the block image in the R image to the block image in the L image with respect to the combination (step S14).

次に、相関係数順位加算部15は、組み合わせごとに、上記第1の順位と上記第2の順位の和を算出する(ステップS16)。   Next, the correlation coefficient rank adding unit 15 calculates the sum of the first rank and the second rank for each combination (step S16).

次に、パス生成部16は、各組み合わせ間の複数のパスを生成する(ステップS18)。   Next, the path generation unit 16 generates a plurality of paths between the combinations (step S18).

次に、最終加算順位選択部17は、複数のパスを接続することによって表現される組み合わせのグループごとに、相関係数順位加算部15によって算出された和を加算し、加算の結果が最小となるグループを動的計画法を用いて求める(ステップS20)。最終加算順位選択部17によって求められたグループから、対応点となる画素位置が得られる(ステップS22)。   Next, the final addition rank selection unit 17 adds the sum calculated by the correlation coefficient rank addition unit 15 for each group of combinations expressed by connecting a plurality of paths, and the addition result is minimized. Is determined using dynamic programming (step S20). From the group obtained by the final addition rank selection unit 17, the pixel position that becomes the corresponding point is obtained (step S22).

図7は、本発明の第1の実施の形態に係る相関計算範囲決定部が指定する相関計算範囲の例を示す図である。図7は、図2に対応している。   FIG. 7 is a diagram illustrating an example of the correlation calculation range specified by the correlation calculation range determination unit according to the first embodiment of the present invention. FIG. 7 corresponds to FIG.

図7を参照して、相関計算範囲決定部22は、境界画素指定部21によって指定された境界画素がブロック画像に含まれる場合には、注目点Pを含む境界線の内側の領域のみを相関計算範囲とする。ここで、境界上の点すなわち境界画素については、相関計算範囲に含める。   Referring to FIG. 7, when the boundary pixel specified by the boundary pixel specifying unit 21 is included in the block image, the correlation calculation range determination unit 22 correlates only the area inside the boundary line including the point of interest P. The calculation range. Here, points on the boundary, that is, boundary pixels are included in the correlation calculation range.

相関計算範囲決定部22は、求めた相関計算範囲を相関計算部13に送る。相関計算部13は、相関計算範囲決定部22から受けた相関計算範囲に従い、L画像およびR画像それぞれの注目点すなわち対応画素間の相関係数を求める。   The correlation calculation range determination unit 22 sends the obtained correlation calculation range to the correlation calculation unit 13. The correlation calculation unit 13 obtains a correlation coefficient between the attention points of the L image and the R image, that is, the corresponding pixels, according to the correlation calculation range received from the correlation calculation range determination unit 22.

図8は、ブロック画像を用いて相関行列を求める方法を示す図である。図8は、相関行列のイメージを示している。   FIG. 8 is a diagram illustrating a method for obtaining a correlation matrix using a block image. FIG. 8 shows an image of the correlation matrix.

図8を参照して、相関行列中の(i,j)の値は、L画像のある行でのi番目の画素と、R画像の対応する行でのj番目の画素との相関度合いを示す。   Referring to FIG. 8, the value of (i, j) in the correlation matrix indicates the degree of correlation between the i-th pixel in a certain row of the L image and the j-th pixel in the corresponding row of the R image. Show.

相関計算部13によって得られる結果は、L画像およびR画像における各々の位置を行および列で表し、相関係数を値として持つ相関行列を求めることに相当する。   The result obtained by the correlation calculation unit 13 is equivalent to obtaining a correlation matrix in which each position in the L image and the R image is represented by rows and columns and the correlation coefficient is a value.

ところで、特許文献2に記載の技術では、対応画素探索処理を複数の画像について行なう必要があり、処理量が増大してしまうという問題点があった。また、オクルージョンが発生した場合に最近傍の画素の距離情報を割り当てる処理を行なっているに過ぎないため、ステレオマッチングにおいて隠れ領域の周辺でのマッチング率を向上させることはできないという問題点があった。これらの問題点を解決し、かつ特許文献1に記載の技術を超えて精度の高いマッチングを行なう技術が望まれる。   By the way, in the technique described in Patent Document 2, it is necessary to perform the corresponding pixel search process for a plurality of images, and there is a problem that the processing amount increases. In addition, when occlusion occurs, only the process of assigning distance information of the nearest pixel is performed, so there is a problem that the matching rate around the hidden region cannot be improved in stereo matching. . A technique for solving these problems and performing highly accurate matching beyond the technique described in Patent Document 1 is desired.

これに対して、本発明の第1の実施の形態では、境界画素指定部21が、被写体の影響によってL画像およびR画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する画素である境界画素をL画像およびR画像においてそれぞれ指定する。相関計算範囲決定部22は、L画像およびR画像における各境界画素に基づいて相関計算範囲を決定する。相関計算部13は、画像分割
部12がL画像およびR画像の各々を分割することによって得られた複数のブロック画像を用いて、L画像における複数のブロック画像とR画像における複数のブロック画像との間のすべてまたは一部の組み合わせごとに、上記相関計算範囲に従って画素値の相関係数を算出する。
On the other hand, in the first embodiment of the present invention, the boundary pixel designating unit 21 is reflected in both the hidden area that is not reflected in either the L image or the R image due to the influence of the subject. A boundary pixel that is a pixel corresponding to a boundary with a non-hidden region that is a region that is present is designated in each of the L image and the R image. The correlation calculation range determination unit 22 determines the correlation calculation range based on each boundary pixel in the L image and the R image. The correlation calculating unit 13 uses a plurality of block images obtained by the image dividing unit 12 dividing each of the L image and the R image, and uses a plurality of block images in the L image and a plurality of block images in the R image. The correlation coefficient of the pixel value is calculated in accordance with the correlation calculation range for all or a part of the combinations between the two.

このようにして、本発明の第1の実施の形態では、対応点の周囲に隠れ領域がある場合に、隠れ領域と非隠れ領域の境界を指定することで相関計算の計算範囲を変形させる。これにより、隠れ領域であって明らかに他方画像の画素と対応しない部分についての相関計算を省くことができるため、処理量を低減し、かつ相関計算による対応点探索の精度を向上させることができる。   As described above, in the first embodiment of the present invention, when there is a hidden region around the corresponding point, the calculation range of the correlation calculation is deformed by designating the boundary between the hidden region and the non-hidden region. As a result, it is possible to omit the correlation calculation for a portion that is a hidden region and does not clearly correspond to the pixel of the other image, thereby reducing the processing amount and improving the accuracy of the corresponding point search by the correlation calculation. .

すなわち、本発明の第1の実施の形態に係る画像処理装置における各構成要素のうち、画像分割部12、相関計算部13、相関係数順位付け部14、相関係数順位加算部15、パス生成部16、最終加算順位選択部17、境界画素指定部21および相関計算範囲決定部22からなる最小構成により、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうという本発明の目的を達成することが可能となる。   That is, among the components in the image processing apparatus according to the first embodiment of the present invention, the image dividing unit 12, the correlation calculating unit 13, the correlation coefficient ranking unit 14, the correlation coefficient rank adding unit 15, the path Even if there is a hidden region in the stereo matching method for searching for corresponding points by template matching, with the minimum configuration including the generation unit 16, the final addition rank selection unit 17, the boundary pixel specification unit 21, and the correlation calculation range determination unit 22. It is possible to achieve the object of the present invention to perform highly accurate matching with simple processing.

なお、本発明の第1の実施の形態は、隠れ領域と非隠れ領域との境界線に接する画素であって非隠れ領域における画素を境界画素として指定し、この境界画素を相関計算範囲に含める構成であるとしたが、これに限定するものではない。隠れ領域と非隠れ領域との境界線に接する画素であって隠れ領域における画素を境界画素として指定し、この境界画素を相関計算範囲に含めない構成としてもよい。また、各ブロック画像における境界画素は、1つであってもよいし、複数であってもよい。   In the first embodiment of the present invention, a pixel that is in contact with a boundary line between a hidden region and a non-hidden region and a pixel in the non-hidden region is designated as a boundary pixel, and the boundary pixel is included in the correlation calculation range. Although it is the configuration, it is not limited to this. A pixel that is in contact with the boundary line between the hidden region and the non-hidden region, and a pixel in the hidden region is designated as a boundary pixel, and the boundary pixel may not be included in the correlation calculation range. Further, the number of boundary pixels in each block image may be one or plural.

また、本発明の第1の実施の形態では、図6に示すフローチャートにおいて、ステップS6の動作の後に、ステップS8の動作を行なう構成であるとしたが、これに限定するものではなく、ステップS8の動作の後に、ステップS6の動作を行なう構成であってもよい。   Further, in the first embodiment of the present invention, in the flowchart shown in FIG. 6, the operation of step S8 is performed after the operation of step S6. However, the present invention is not limited to this. A configuration in which the operation of step S6 is performed after the above operation may be employed.

次に、本発明の他の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。   Next, another embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.

<第2の実施の形態>
本実施の形態は、第1の実施の形態に係る画像処理装置と比べて境界の指定方法を変更した画像処理装置に関する。以下で説明する内容以外は第1の実施の形態に係る画像処理装置と同様である。
<Second Embodiment>
The present embodiment relates to an image processing apparatus in which the boundary designation method is changed as compared with the image processing apparatus according to the first embodiment. The contents other than those described below are the same as those of the image processing apparatus according to the first embodiment.

図9は、本発明の第2の実施の形態に係る画像処理装置が提供する制御構造を示すブロック図である。図10は、本発明の第2の実施の形態に係る画像処理装置がステレオマッチング処理を行なう際の動作手順を示すフローチャートである。   FIG. 9 is a block diagram showing a control structure provided by the image processing apparatus according to the second embodiment of the present invention. FIG. 10 is a flowchart showing an operation procedure when the image processing apparatus according to the second embodiment of the present invention performs the stereo matching process.

図9に示す各ブロックは、ハードディスク103に格納されたプログラム(コード)などをメインメモリ102に展開して、CPU101に実行させることで提供される。なお、図9に示すモジュールの一部もしくは全部がハードウェアに実装されているファームウェアによって提供される場合もある。あるいは、図9に示す制御構造の一部もしくは全部を専用ハードウェアおよび/または配線回路によって実現してもよい。   Each block shown in FIG. 9 is provided by developing a program (code) stored in the hard disk 103 in the main memory 102 and causing the CPU 101 to execute it. Note that some or all of the modules shown in FIG. 9 may be provided by firmware implemented in hardware. Alternatively, part or all of the control structure shown in FIG. 9 may be realized by dedicated hardware and / or a wiring circuit.

画像処理装置202は、本発明の第1の実施の形態に係る画像処理装置201と比べて、その制御構造として、境界画素指定部21の代わりに境界画素検出部23および境界画
素対応付け部24を備える。
Compared with the image processing apparatus 201 according to the first embodiment of the present invention, the image processing apparatus 202 has a control structure in which a boundary pixel detection unit 23 and a boundary pixel association unit 24 are used instead of the boundary pixel specifying unit 21. Is provided.

境界画素検出部23は、境界画素の候補をL画像およびR画像からそれぞれ検出する。すなわち、境界画素検出部23は、L画像およびR画像を参照し、それぞれの画像から明瞭な境界線と判断される線分を抽出する(ステップS7)。   The boundary pixel detection unit 23 detects boundary pixel candidates from the L image and the R image, respectively. That is, the boundary pixel detection unit 23 refers to the L image and the R image, and extracts a line segment that is determined to be a clear boundary line from each image (step S7).

境界画素対応付け部24は、L画像における境界画素の候補とR画像における境界画素の候補とを対応付けることにより、L画像およびR画像における境界画素をそれぞれ指定する。すなわち、境界画素対応付け部24は、L画像およびR画像の各々において抽出された境界線間の対応付けを行なう(ステップS9)。   The boundary pixel association unit 24 specifies boundary pixels in the L image and the R image by associating the boundary pixel candidates in the L image with the boundary pixel candidates in the R image. In other words, the boundary pixel association unit 24 performs association between the boundary lines extracted in each of the L image and the R image (step S9).

より詳細には、境界画素検出部23は、たとえば、2次元の画像処理技術としてよく知られているエッジ抽出の技術を用いる。すなわち、境界画素検出部23は、エッジの強さを用いることにより一定以上の強さを持つ線分をすべて抽出し、抽出した線分に対して膨張収縮処理などを行って小さなノイズを除去した後、細線化処理を行なうことで境界を示す線分を得る。この段階ではL画像およびR画像について独立に処理が行われ、それぞれの画像から境界線の候補となる線分が得られる。境界画素検出部23は、得られた線分を、L画像およびR画像とともに境界画素対応付け部24へ送る。   More specifically, the boundary pixel detection unit 23 uses, for example, an edge extraction technique that is well known as a two-dimensional image processing technique. That is, the boundary pixel detection unit 23 extracts all line segments having a certain level of strength by using the edge strength, and performs expansion and contraction processing on the extracted line segments to remove small noises. Thereafter, a line segment indicating a boundary is obtained by performing a thinning process. At this stage, the L image and the R image are processed independently, and line segments that are candidates for the boundary line are obtained from the respective images. The boundary pixel detection unit 23 sends the obtained line segment to the boundary pixel association unit 24 together with the L image and the R image.

境界画素対応付け部24は、境界画素検出部23から境界線の候補となる線分、ならびにL画像およびR画像を受けて、同一走査線上にある線分について、線分の向きおよび線分の長さ、ならびに線分の周囲の類似度などに基づいて、L画像およびR画像の線分間の対応付けを行なう。   The boundary pixel associating unit 24 receives the line segment that is a candidate for the boundary line from the boundary pixel detection unit 23, and the L image and the R image, and for the line segment on the same scanning line, Based on the length and the degree of similarity around the line segment, the L image and the R image are associated with each other.

境界画素対応付け部24は、このようにして得られた境界画素を示す線分間の対応関係を本発明の第1の実施の形態に係る境界画素指定部21と同様の形式で相関計算範囲決定部22に送る。この対応関係は、境界画素検出部23において相関計算を行なう範囲を決定するために用いられる。   The boundary pixel associating unit 24 determines the correlation calculation range in the same manner as the boundary pixel designating unit 21 according to the first embodiment of the present invention. Send to part 22. This correspondence is used to determine the range in which the boundary pixel detection unit 23 performs the correlation calculation.

その他の構成および動作は第1の実施の形態に係る画像処理装置と同様であるため、ここでは詳細な説明を繰り返さない。   Since other configurations and operations are the same as those of the image processing apparatus according to the first embodiment, detailed description thereof will not be repeated here.

このように、本発明の第2の実施の形態では、境界画素検出部23および境界画素対応付け部24により、本発明の第1の実施の形態における境界画素指定部21と同様の対応付けを行なうことが可能となる。このような構成により、境界画素をユーザ等が明示的に指定することなく自律的に境界を指定し、相関計算範囲を変形させることができる。これにより、隠れ領域であって明らかに他方の画素と対応しない部分についての相関計算を省くことができるため、処理量を低減し、かつ相関計算による対応点選択の精度を向上させることができる。   As described above, in the second embodiment of the present invention, the boundary pixel detecting unit 23 and the boundary pixel associating unit 24 perform the same association as the boundary pixel specifying unit 21 in the first embodiment of the present invention. Can be performed. With such a configuration, it is possible to change the correlation calculation range by autonomously specifying the boundary without explicitly specifying the boundary pixel by the user or the like. As a result, the correlation calculation for the hidden region that does not clearly correspond to the other pixel can be omitted, so that the processing amount can be reduced and the accuracy of the corresponding point selection by the correlation calculation can be improved.

なお、本発明の第2の実施の形態では、図10に示すフローチャートにおいて、ステップS6の動作の後に、ステップS7およびステップS9の動作を行なう構成であるとしたが、これに限定するものではなく、ステップS7およびステップS9の動作の後に、ステップS6の動作を行なう構成であってもよい。   In the second embodiment of the present invention, in the flowchart shown in FIG. 10, the operation of step S7 and step S9 is performed after the operation of step S6. However, the present invention is not limited to this. A configuration in which the operation of step S6 is performed after the operations of step S7 and step S9 may be adopted.

上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The above embodiment should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明によれば、テンプレートマッチングによる対応点探索を行なうステレオマッチング手法において、隠れ領域が存在する場合でも簡易な処理で精度の高いマッチングを行なうことができる。したがって、本発明は、ステレオマッチング処理によって、たとえば、航空写真から土地の高さを測定する用途に適用可能であり、また、ロボットの視覚機能で奥行きを知覚する用途にも適用可能であるため、産業上の利用可能性を有している。   According to the present invention, in a stereo matching method for searching for corresponding points by template matching, high-precision matching can be performed with simple processing even when a hidden region exists. Therefore, the present invention can be applied to an application for measuring the height of land from an aerial photograph, for example, by stereo matching processing, and can also be applied to an application for perceiving depth by the visual function of a robot. Has industrial applicability.

上記実施の形態の一部または全部は以下の付記のようにも記載されうるが、本発明の範囲は、以下の付記に限定されるものではない。   Although a part or all of the above embodiments can be described as the following supplementary notes, the scope of the present invention is not limited to the following supplementary notes.

[付記1]
(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するステップと、
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとを含む、画像処理方法。
[Appendix 1]
(A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing method including a step of obtaining using a planning method.

[付記2]
前記(b)のステップにおいては、ユーザの操作による前記各境界画素の指定を受け付ける、付記1に記載の画像処理方法。
[Appendix 2]
The image processing method according to appendix 1, wherein in the step (b), designation of each boundary pixel by a user operation is accepted.

[付記3]
前記(b)のステップは、
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するステップとを含む、付記1に記載の画像処理方法。
[Appendix 3]
The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing method according to claim 1, further comprising:

[付記4]
(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するステップと、
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとをコンピュータに実行させる、画像処理プログラム。
[Appendix 4]
(A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing program for causing a computer to execute a step obtained using a planning method.

[付記5]
前記(b)のステップにおいては、ユーザの操作による前記各境界画素の指定を受け付ける、付記4に記載の画像処理プログラム。
[Appendix 5]
The image processing program according to appendix 4, wherein in the step (b), designation of each boundary pixel by a user operation is accepted.

[付記6]
前記(b)のステップは、
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するステップとを含む、付記4に記載の画像処理プログラム。
[Appendix 6]
The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing program according to appendix 4, including:

10 画像入力部
11 画像記憶部
12 画像分割部
13 相関計算部
14 相関係数順位付け部
15 相関係数順位加算部
16 パス生成部
17 最終加算順位選択部
21 境界画素指定部
22 相関計算範囲決定部
22 境界画素検出部
23 境界画素対応付け部
101 CPU
102 メインメモリ
103 ハードディスク
104 入力インターフェイス
105 表示コントローラ
106 データリーダ/ライタ
107 通信インターフェイス
108 キーボード
109 マウス
110 ディスプレイ
111 記録媒体
121 バス
201 画像処理装置
DESCRIPTION OF SYMBOLS 10 Image input part 11 Image memory | storage part 12 Image division part 13 Correlation calculation part 14 Correlation coefficient ranking part 15 Correlation coefficient order | rank addition part 16 Path generation part 17 Final addition order | rank selection part 21 Boundary pixel designation | designated part 22 Correlation calculation range determination Unit 22 boundary pixel detection unit 23 boundary pixel association unit 101 CPU
DESCRIPTION OF SYMBOLS 102 Main memory 103 Hard disk 104 Input interface 105 Display controller 106 Data reader / writer 107 Communication interface 108 Keyboard 109 Mouse 110 Display 111 Recording medium 121 Bus 201 Image processing apparatus

Claims (9)

第1の画像および第2の画像の各々を複数のブロック画像に分割するための画像分割部と、
被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するための境界画素指定部と、
前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するための相関計算範囲決定部と、
前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するための相関計算部と、
前記相関計算部によって算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうための相関係数順位付け部と、
前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するための相関係数順位加算部と、
各前記組み合わせ間の複数のパスを生成するためのパス生成部と、
前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記相関係数順位加算部によって算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるための最終加算順位選択部とを備える、画像処理装置。
An image dividing unit for dividing each of the first image and the second image into a plurality of block images;
One or more corresponding to a boundary between a hidden area that is an area that is not shown in either the first image or the second image due to the influence of the subject and a non-hidden area that is an area that is shown in both A boundary pixel designating unit for designating a boundary pixel that is a pixel in each of the first image and the second image;
A correlation calculation range determination unit for determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
A correlation coefficient of a pixel value is calculated according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image. A correlation calculation unit for
Using the correlation coefficient value for each combination calculated by the correlation calculation unit, the correlation coefficient from the block image in the first image to the block image in the second image with respect to the combination in descending order. And the second order in the descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. A number ranking section;
A correlation coefficient rank adding unit for calculating a sum of the first rank and the second rank for each combination;
A path generator for generating a plurality of paths between each of the combinations;
For each group of the combinations expressed by connecting the plurality of paths, the sum calculated by the correlation coefficient rank adding unit is added, and the group that minimizes the result of the addition is determined by dynamic programming. An image processing apparatus comprising: a final addition rank selection unit for obtaining using
前記境界画素指定部は、ユーザの操作による前記各境界画素の指定を受け付ける、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the boundary pixel specifying unit receives specification of each boundary pixel by a user operation. 前記境界画素指定部は、
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するための境界画素検出部と、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するための境界画素対応付け部とを含む、請求項1に記載の画像処理装置。
The boundary pixel designating part is
A boundary pixel detector for detecting the boundary pixel candidates from the first image and the second image, respectively.
By specifying the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing apparatus according to claim 1, further comprising a boundary pixel associating unit.
(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するステップと、
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み
合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとを含む、画像処理方法。
(A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing method including a step of obtaining using a planning method.
前記(b)のステップにおいては、ユーザの操作による前記各境界画素の指定を受け付ける、請求項4に記載の画像処理方法。   The image processing method according to claim 4, wherein in the step (b), designation of each boundary pixel by a user operation is received. 前記(b)のステップは、
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界画素をそれぞれ指定するステップとを含む、請求項4に記載の画像処理方法。
The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing method of Claim 4 containing these.
(a)第1の画像および第2の画像の各々を複数のブロック画像に分割するステップと、(b)被写体の影響によって前記第1の画像および前記第2の画像のいずれかにおいて写っていない領域である隠れ領域といずれにも写っている領域である非隠れ領域との境界に対応する1または複数の画素である境界画素を前記第1の画像および前記第2の画像においてそれぞれ指定するステップと、
(c)前記第1の画像および前記第2の画像における各前記境界画素に基づいて相関計算範囲を決定するステップと、
(d)前記第1の画像における前記複数のブロック画像と前記第2の画像における前記複数のブロック画像との間のすべてまたは一部の組み合わせごとに、前記相関計算範囲に従って画素値の相関係数を算出するステップと、
(e)前記(d)のステップにおいて算出された、前記組み合わせごとの相関係数の値を用いて、前記組み合わせに関し前記第1の画像におけるブロック画像から前記第2の画像におけるブロック画像への相関係数の大きい順の第1の順位づけを行ない、かつ前記組み合わせに関し前記第2の画像におけるブロック画像から前記第1の画像におけるブロック画像への相関係数の大きい順の第2の順位づけを行なうステップと、
(f)前記組み合わせごとに、前記第1の順位と前記第2の順位の和を算出するステップと、
(g)各前記組み合わせ間の複数のパスを生成するステップと、
(h)前記複数のパスを接続することによって表現される前記組み合わせのグループごとに、前記(f)のステップにおいて算出された和を加算し、前記加算の結果が最小となる前記グループを動的計画法を用いて求めるステップとをコンピュータに実行させる、画像処理プログラム。
(A) dividing each of the first image and the second image into a plurality of block images; and (b) not appearing in either the first image or the second image due to the influence of the subject. A step of designating boundary pixels, which are one or a plurality of pixels, corresponding to the boundary between a hidden area that is an area and a non-hidden area that is reflected in both areas in the first image and the second image, respectively. When,
(C) determining a correlation calculation range based on each of the boundary pixels in the first image and the second image;
(D) a correlation coefficient of pixel values according to the correlation calculation range for every or some combination between the plurality of block images in the first image and the plurality of block images in the second image Calculating steps,
(E) Using the value of the correlation coefficient for each combination calculated in step (d), the phase from the block image in the first image to the block image in the second image for the combination The first ranking is performed in descending order of the number of relations, and the second ranking is performed in descending order of the correlation coefficient from the block image in the second image to the block image in the first image with respect to the combination. Performing steps,
(F) calculating the sum of the first rank and the second rank for each combination;
(G) generating a plurality of paths between each said combination;
(H) For each group of the combinations expressed by connecting the plurality of paths, the sum calculated in the step (f) is added, and the group that minimizes the result of the addition is dynamically added. An image processing program for causing a computer to execute a step obtained using a planning method.
前記(b)のステップにおいては、ユーザの操作による前記各境界画素の指定を受け付ける、請求項7に記載の画像処理プログラム。   The image processing program according to claim 7, wherein in the step (b), designation of each boundary pixel by a user operation is accepted. 前記(b)のステップは、
前記境界画素の候補を前記第1の画像および前記第2の画像からそれぞれ検出するステップと、
前記第1の画像における前記境界画素の候補と前記第2の画像における前記境界画素の候補とを対応付けることにより、前記第1の画像および前記第2の画像における前記境界
画素をそれぞれ指定するステップとを含む、請求項7に記載の画像処理プログラム。

The step (b)
Detecting the boundary pixel candidates from the first image and the second image, respectively.
Designating the boundary pixels in the first image and the second image by associating the boundary pixel candidates in the first image with the boundary pixel candidates in the second image, respectively. The image processing program according to claim 7, comprising:

JP2010029992A 2010-02-15 2010-02-15 Image processing apparatus, image processing method, and image processing program Active JP5051670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010029992A JP5051670B2 (en) 2010-02-15 2010-02-15 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010029992A JP5051670B2 (en) 2010-02-15 2010-02-15 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2011165117A true JP2011165117A (en) 2011-08-25
JP5051670B2 JP5051670B2 (en) 2012-10-17

Family

ID=44595690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010029992A Active JP5051670B2 (en) 2010-02-15 2010-02-15 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5051670B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043258A1 (en) * 2015-09-09 2017-03-16 シャープ株式会社 Calculating device and calculating device control method
JP2020021126A (en) * 2018-07-30 2020-02-06 キヤノン株式会社 Image processing device and control method thereof, distance detection device, imaging device, program
WO2021245972A1 (en) * 2020-06-05 2021-12-09 日立Astemo株式会社 Computation device and parallax calculation method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH033080A (en) * 1989-05-31 1991-01-09 Fujitsu Ltd Corresponding preprocessing system based upon image construction
JPH04299474A (en) * 1991-03-27 1992-10-22 Nec Corp Picture matching system
JPH07282259A (en) * 1994-04-13 1995-10-27 Matsushita Electric Ind Co Ltd Parallax arithmetic unit and image composite device
JPH08263696A (en) * 1995-03-01 1996-10-11 Meidensha Corp Three-dimensional object model generating method
JPH10191396A (en) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd Intermediate view point image generating method, parallax estimate method and image transmission method
JP2004362469A (en) * 2003-06-06 2004-12-24 Softopia Japan Foundation Apparatus and method for detecting moving object using active sensor, and program for detecting animal body
JP2006350465A (en) * 2005-06-13 2006-12-28 Nec Corp Image matching device, image matching method, and program for image matching

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH033080A (en) * 1989-05-31 1991-01-09 Fujitsu Ltd Corresponding preprocessing system based upon image construction
JPH04299474A (en) * 1991-03-27 1992-10-22 Nec Corp Picture matching system
JPH07282259A (en) * 1994-04-13 1995-10-27 Matsushita Electric Ind Co Ltd Parallax arithmetic unit and image composite device
JPH08263696A (en) * 1995-03-01 1996-10-11 Meidensha Corp Three-dimensional object model generating method
JPH10191396A (en) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd Intermediate view point image generating method, parallax estimate method and image transmission method
JP2004362469A (en) * 2003-06-06 2004-12-24 Softopia Japan Foundation Apparatus and method for detecting moving object using active sensor, and program for detecting animal body
JP2006350465A (en) * 2005-06-13 2006-12-28 Nec Corp Image matching device, image matching method, and program for image matching

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043258A1 (en) * 2015-09-09 2017-03-16 シャープ株式会社 Calculating device and calculating device control method
JPWO2017043258A1 (en) * 2015-09-09 2018-05-24 シャープ株式会社 COMPUTER DEVICE, COMPUTER DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2020021126A (en) * 2018-07-30 2020-02-06 キヤノン株式会社 Image processing device and control method thereof, distance detection device, imaging device, program
JP7195801B2 (en) 2018-07-30 2022-12-26 キヤノン株式会社 Image processing device and its control method, distance detection device, imaging device, program
WO2021245972A1 (en) * 2020-06-05 2021-12-09 日立Astemo株式会社 Computation device and parallax calculation method

Also Published As

Publication number Publication date
JP5051670B2 (en) 2012-10-17

Similar Documents

Publication Publication Date Title
US6801653B1 (en) Information processing apparatus and method as well as medium
US9607384B2 (en) Optimal patch ranking for coordinate transform estimation of microscope images from sparse patch shift estimates
US20110176731A1 (en) Information processing apparatus, information processing method, and program therefor
JP4941565B2 (en) Corresponding point search apparatus and corresponding point searching method
JP5250847B2 (en) Image processing apparatus, information processing system, image processing method, and program
WO2019093457A1 (en) Information processing device, information processing method and program
JP2011203108A (en) Apparatus and method for measuring three-dimensional distance
JP5051670B2 (en) Image processing apparatus, image processing method, and image processing program
TWI462056B (en) Image processing method, apparatus, and computer program product
US8861838B2 (en) Apparatus and method for correcting stereoscopic image using matching information
JP5170005B2 (en) Image processing apparatus, image processing method, and program
US20210279903A1 (en) Distance measuring camera
JP5728399B2 (en) Measuring device, method and program
US10332259B2 (en) Image processing apparatus, image processing method, and program
JP2018133064A (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2000055658A (en) Image processing device and method and providing medium
US10484658B2 (en) Apparatus and method for generating image of arbitrary viewpoint using camera array and multi-focus image
JP3452188B2 (en) Tracking method of feature points in 2D video
JP5446516B2 (en) Image processing device
JP5464671B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006003276A (en) Three dimensional geometry measurement system
US11443410B2 (en) Image processing method and image processing apparatus
KR20190072987A (en) Stereo Depth Map Post-processing Method with Scene Layout
JP7416573B2 (en) Stereoscopic image generation device and its program
JP7259498B2 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120627

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120717

R150 Certificate of patent or registration of utility model

Ref document number: 5051670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350