JP5769248B2 - Stereo matching processing device, stereo matching processing method, and program - Google Patents

Stereo matching processing device, stereo matching processing method, and program Download PDF

Info

Publication number
JP5769248B2
JP5769248B2 JP2011204569A JP2011204569A JP5769248B2 JP 5769248 B2 JP5769248 B2 JP 5769248B2 JP 2011204569 A JP2011204569 A JP 2011204569A JP 2011204569 A JP2011204569 A JP 2011204569A JP 5769248 B2 JP5769248 B2 JP 5769248B2
Authority
JP
Japan
Prior art keywords
parallax
image
specified
calculated
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011204569A
Other languages
Japanese (ja)
Other versions
JP2013065247A (en
Inventor
弘之 柳生
弘之 柳生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2011204569A priority Critical patent/JP5769248B2/en
Publication of JP2013065247A publication Critical patent/JP2013065247A/en
Application granted granted Critical
Publication of JP5769248B2 publication Critical patent/JP5769248B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ステレオ画像について、同一対象を撮像している各画像中の対応点を求めるステレオマッチング処理装置、ステレオマッチング処理方法、及び、これらを実現するためのプログラムに関する。   The present invention relates to a stereo matching processing device, a stereo matching processing method, and a program for realizing these, for obtaining a corresponding point in each image capturing the same object for a stereo image.

従来から、3次元データの自動生成方法として、人工衛星又は航空機等から得られる画像を基に、ステレオマッチング処理を行うことによって、地形を示す3次元データ[DSM(Digital Surface Model)データ]を生成する方法が広く知られている。また、この方法において、対応の取れない点が存在する場合は、オペレータを介在させて、修正が行われる。   Conventionally, three-dimensional data [DSM (Digital Surface Model) data] indicating terrain is generated by performing stereo matching processing based on images obtained from artificial satellites or aircraft as an automatic method for generating three-dimensional data. How to do is widely known. Further, in this method, when there is a point that cannot be dealt with, correction is performed with an operator interposed.

ここで、ステレオマッチング処理とは、異なる視点から撮影した2枚の画像、いわゆるステレオ画像から、同一の点を撮像している各画像中の対応点を求め、その視差を用いて、三角測量の原理によって対象までの奥行き及び対象の形状を求める処理のことである。   Here, the stereo matching process is to obtain a corresponding point in each image capturing the same point from two images taken from different viewpoints, that is, a so-called stereo image, and use that parallax to calculate triangulation. It is a process for obtaining the depth to the object and the shape of the object according to the principle.

このステレオマッチング処理については、既に様々な手法が提案されている(例えば、特許文献1参照)。具体的には、特許文献1に開示された手法では、まず、異なる視点から撮影することにより得られた1組2枚の立体写真を対象として、一方の写真中の各点が特定される。次に、他方の写真中から、一方の写真で特定された各点と同じ地表点を表す点が特定される。そして、一方の写真中の各点と、他方の写真中の対応する各点との視差に基づいて、これらの点の高さ情報が算出され、算出された高さ情報によって3次元地形データが生成される。   Various methods have already been proposed for this stereo matching process (see, for example, Patent Document 1). Specifically, in the method disclosed in Patent Document 1, first, each point in one photograph is specified for a set of two stereoscopic photographs obtained by photographing from different viewpoints. Next, a point representing the same ground point as each point specified in one photo is specified from the other photo. Then, based on the parallax between each point in one photo and each corresponding point in the other photo, the height information of these points is calculated, and the three-dimensional terrain data is obtained from the calculated height information. Generated.

特開2004−046777号公報JP 2004-046777 A

ところで、特許文献1に開示されたステレオ処理では、重複する部分を含む2枚の画像間で互いに対応する点(対応点)が探索され、そして、対応点に基づいて、三角測量の原理によって対応点の奥行きが求められている。このため、対応点の探索が重要であり、対応点を探索する処理に、多くの計算時間がかかってしまう場合がある。   By the way, in the stereo processing disclosed in Patent Document 1, points (corresponding points) corresponding to each other between two images including overlapping portions are searched for, and based on the corresponding points, corresponding to the principle of triangulation The depth of the point is required. For this reason, searching for corresponding points is important, and it may take a lot of calculation time to search for corresponding points.

特に、画像として航空写真を用いる場合、一枚の航空写真は、縦方向で10000画素、横方向で10000画素程度の画像であり、2枚の航空写真間の対応点の探索には、多大な計算時間を要することがある。   In particular, when an aerial photograph is used as an image, one aerial photograph is an image having about 10000 pixels in the vertical direction and about 10000 pixels in the horizontal direction, and it is very difficult to search for corresponding points between the two aerial photographs. Calculation time may be required.

一方、対応点の探索にかかる計算時間を短縮化する方法として、次の方法が考えられる。まず、2つの撮影位置を結ぶ線と対応点との距離が一定の範囲に収まる場合には、対応する視差量も一定の範囲に収まることになる。よって、最初に、視差量に予め範囲(以下「探索範囲」と表記する。)を設定し、設定した探索範囲よりも大きな分割サイズで画像を分割する。次に、分割後の画像毎のステレオ処理を並列に実行する。このような方法によれば、処理時間を短縮することができると考えられる。   On the other hand, the following method can be considered as a method for shortening the calculation time required for searching for corresponding points. First, when the distance between the line connecting the two shooting positions and the corresponding point falls within a certain range, the corresponding amount of parallax also falls within the certain range. Therefore, first, a range (hereinafter referred to as “search range”) is set in advance for the amount of parallax, and the image is divided with a larger division size than the set search range. Next, stereo processing for each divided image is executed in parallel. According to such a method, it is considered that the processing time can be shortened.

しかしながら、画像中に写っている対象の奥行き(航空写真の場合は、地物の高さ)を、ステレオ処理を行う前に、予め知ることは困難であるため、写っている対象物全ての視差を確定することも困難である。従って、写っている対象物全てにおいて視差量よりも分割サイズが大きくなるように画像が分割されているかどうかを確認する必要があり、全ての分割画像を対象として、対応点のマッチングを試みる必要がある。   However, since it is difficult to know in advance the depth of the object in the image (the height of the feature in the case of aerial photographs) before performing stereo processing, the parallax of all the objects in the image It is also difficult to determine. Therefore, it is necessary to check whether the image is divided so that the division size is larger than the amount of parallax in all the captured objects, and it is necessary to try matching corresponding points for all the divided images. is there.

そして、マッチングの結果、マッチング対象となった2つの分割画像において、それらのある対応点についての視差量が探索範囲以上であった場合は、画像の分割設定をやり直して、再度マッチングを行なう必要がある。逆に、視差量が探索範囲内であった場合は、無駄なマッチング処理が行われたことになる。このように、単に画像分割するだけでは、処理時間の短縮化を図ることは困難であると考えられる。   Then, as a result of matching, in the two divided images to be matched, if the amount of parallax for a certain corresponding point is equal to or greater than the search range, it is necessary to perform image division setting again and perform matching again. is there. Conversely, if the amount of parallax is within the search range, a wasteful matching process has been performed. Thus, it is considered difficult to shorten the processing time by simply dividing the image.

本発明の目的の一例は、上記問題を解消し、ステレオ画像から、同一の点を撮像している対応点を求めて、視差を算出する際において、処理の高速化を図り得る、ステレオマッチング処理装置、ステレオマッチング処理方法、及び、プログラムを提供することにある。   An example of an object of the present invention is a stereo matching process that solves the above-described problem and that can obtain a corresponding point that captures the same point from a stereo image, and that can speed up the process when calculating the parallax. An apparatus, a stereo matching processing method, and a program are provided.

上記目的を達成するため、本発明の一側面におけるステレオマッチング処理装置は、異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうための装置であって、
前記2つの画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、第1の視差算出部と、
前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、画像分割部と、
互いに対応する2つの分割された部分毎に、当該部分中に存在する前記対応する点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、視差探索範囲設定部と、
前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、第2の視差算出部と、
を備えている、ことを特徴とする。
In order to achieve the above object, a stereo matching processing device according to one aspect of the present invention is a device for performing stereo matching processing on two images obtained by photographing the same object from different angles,
A first parallax calculating unit that specifies a plurality of pairs of points corresponding to each other in the two images and calculates a parallax for each of the specified sets;
An image dividing unit that divides the two images so that the divided parts correspond to each other;
For each of the two divided parts corresponding to each other, the corresponding set of points existing in the part is specified, and based on the value of the parallax calculated for the specified set, the parallax maximum in the part A parallax search range setting unit that specifies a value and a minimum value and sets a parallax search range;
For each of the two divided parts corresponding to each other, a plurality of pairs of points corresponding to each other between the two parts are newly specified, the parallax is calculated for each newly specified pair, and the calculated value is A second parallax calculation unit that outputs the calculated parallax as the newly specified parallax in the part when it falls within the parallax search range set in the part;
It is characterized by having.

また、上記目的を達成するため、本発明の一側面におけるステレオマッチング処理方法は、異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうための方法であって、
(a)前記2つの画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、ステップと、
(b)前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、ステップと、
(c)互いに対応する2つの分割された部分毎に、当該部分中に存在する前記(b)のステップで特定された前記対応点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、ステップと、
(d)前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、ステップと、
を有する、ことを特徴とする。
In order to achieve the above object, a stereo matching processing method according to one aspect of the present invention is a method for performing stereo matching processing on two images obtained by photographing the same object from different angles. And
(A) identifying a plurality of pairs of points corresponding to each other in the two images, and calculating a parallax for each identified group; and
(B) dividing the two images such that the respective divided portions correspond to each other;
(C) For each of the two divided parts corresponding to each other, the set of corresponding points specified in the step (b) existing in the part is specified, and the parallax calculated for the specified set is specified. Identifying the parallax maximum and minimum values in the part based on the value, and setting a parallax search range; and
(D) For each of the two divided parts corresponding to each other, a plurality of pairs of points corresponding to each other between the two parts are newly specified, and the parallax is calculated and calculated for each newly specified pair Outputting the calculated parallax as the newly identified parallax in the part when the value falls within the parallax search range set in the part; and
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうためのプログラムであって、
前記コンピュータに、
(a)前記2つの画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、ステップと、
(b)前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、ステップと、
(c)互いに対応する2つの分割された部分毎に、当該部分中に存在する前記(b)のステップで特定された前記対応点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、ステップと、
(d)前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、ステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, a program according to one aspect of the present invention is a program for performing stereo matching processing on two images obtained by photographing the same object from different angles by a computer. And
In the computer,
(A) identifying a plurality of pairs of points corresponding to each other in the two images, and calculating a parallax for each identified group; and
(B) dividing the two images such that the respective divided portions correspond to each other;
(C) For each of the two divided parts corresponding to each other, the set of corresponding points specified in the step (b) existing in the part is specified, and the parallax calculated for the specified set is specified. Identifying the parallax maximum and minimum values in the part based on the value, and setting a parallax search range; and
(D) For each of the two divided parts corresponding to each other, a plurality of pairs of points corresponding to each other between the two parts are newly specified, and the parallax is calculated and calculated for each newly specified pair Outputting the calculated parallax as the newly identified parallax in the part when the value falls within the parallax search range set in the part; and
Is executed.

以上のように、本発明によれば、ステレオ画像から、同一の点を撮像している対応点を求めて、視差を算出する際において、処理の高速化を図ることができる。   As described above, according to the present invention, it is possible to increase the processing speed when calculating the parallax by obtaining the corresponding point capturing the same point from the stereo image.

図1は、本発明の実施の形態におけるステレオマッチング処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a stereo matching processing device according to an embodiment of the present invention. 図2は、本発明の実施の形態におけるステレオマッチング処理装置の動作を示すフロー図である。FIG. 2 is a flowchart showing the operation of the stereo matching processing device according to the embodiment of the present invention. 図3は、本発明の実施の形態における行なわれる縮小画像の作成処理を説明する図である。FIG. 3 is a diagram illustrating reduced image creation processing performed in the embodiment of the present invention. 図4は、本発明の実施の形態におけるステレオマッチング処理で行なわれる画像の分割処理を説明する図である。FIG. 4 is a diagram for explaining image division processing performed in stereo matching processing according to the embodiment of the present invention. 図5は、本発明の実施の形態におけるステレオマッチング処理装置を実現するコンピュータの一例を示すブロック図である。FIG. 5 is a block diagram illustrating an example of a computer that implements the stereo matching processing device according to the embodiment of the present invention.

(実施の形態)
以下、本発明の実施の形態における、ステレオマッチング処理装置、ステレオマッチング処理方法、及びプログラムについて、図1〜図5を参照しながら説明する。
(Embodiment)
Hereinafter, a stereo matching processing device, a stereo matching processing method, and a program according to an embodiment of the present invention will be described with reference to FIGS.

[装置構成]
最初に、本発明の実施の形態におけるステレオ処理装置の構成について図1を用いて説明する。図1は、本発明の実施の形態におけるステレオマッチング処理装置の構成を示すブロック図である。
[Device configuration]
First, the configuration of the stereo processing device according to the embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a stereo matching processing device according to an embodiment of the present invention.

図1に示す、本実施の形態におけるステレオマッチング処理装置100は、異なる角度から同一対象を撮影して得られた2つの画像(以下「ステレオ画像」と表記する。)を対象に、ステレオマッチング処理を実施する装置である。   The stereo matching processing device 100 according to the present embodiment shown in FIG. 1 performs stereo matching processing on two images (hereinafter referred to as “stereo images”) obtained by photographing the same object from different angles. It is an apparatus which implements.

図1に示すように、ステレオマッチング処理装置100は、第1の視差算出部30と、画像分割部40と、視差探索範囲設定部50と、第2の視差算出部60とを備えている。このうち、第1の視差算出部30は、ステレオ画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する。   As illustrated in FIG. 1, the stereo matching processing device 100 includes a first parallax calculation unit 30, an image division unit 40, a parallax search range setting unit 50, and a second parallax calculation unit 60. Among these, the first parallax calculation unit 30 specifies a plurality of sets of points corresponding to each other in the stereo image, and calculates the parallax for each specified set.

画像分割部40は、ステレオ画像を、それぞれの分割された部分が互いに対応するように分割する。視差探索範囲設定部50は、まず、互いに対応する2つの分割された部分(以下「ペア部分」と表記する。)毎に、当該ペア部分中に存在する対応点の組を特定する。次に、視差探索範囲設定部50は、特定した対応点の組について先に算出されている視差の値に基づいて、当該ペア部分における視差の最大値と最小値とを特定して、当該ペア部分での視差探索範囲を設定する。   The image dividing unit 40 divides the stereo image so that the divided parts correspond to each other. First, the parallax search range setting unit 50 identifies a pair of corresponding points existing in each paired part (hereinafter referred to as “paired part”) corresponding to each other. Next, the parallax search range setting unit 50 identifies the parallax maximum value and the minimum value in the pair portion based on the parallax value previously calculated for the identified pair of corresponding points, and sets the pair Set the parallax search range in the part.

第2の視差算出部60は、まず、ペア部分毎に、当該ペア部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出する。そして、第2の視差算出部60は、算出した値が当該ペア部分に設定された視差探索範囲に収まる場合に、算出した視差を、当該ペア部分における、新たに特定した当該組の視差として出力する。   First, the second parallax calculation unit 60 newly specifies a plurality of pairs of points corresponding to each other between the pair parts for each pair part, and calculates the parallax for each newly specified set. Then, the second parallax calculation unit 60 outputs the calculated parallax as the newly specified parallax in the pair portion when the calculated value falls within the parallax search range set in the pair portion. To do.

このように、本実施の形態では、分割画像において、視差の最小値と最大値とが予め求められるので、分割画像間の視差の算出は、この求められた範囲内で行なえば良い。このため、ステレオ画像から、同一の点を撮像している対応点を求めて、視差を算出する際において、無駄な処理を行なう必要がなく、処理の高速化が図られる。   As described above, in the present embodiment, since the minimum value and the maximum value of the parallax are obtained in advance in the divided image, the parallax between the divided images may be calculated within the obtained range. For this reason, it is not necessary to perform useless processing when calculating the parallax by obtaining corresponding points capturing the same point from the stereo image, and the processing speed can be increased.

ここで、本実施の形態におけるステレオマッチング処理装置100の構成について、更に具体的に説明する。本実施の形態においては、ステレオマッチング処理装置100は、後述するようにコンピュータによって実現できる。また、ステレオマッチング処理装置100は、後述するコンピュータの他に、アプリケーションプログラムを実行可能な機器、例えば、携帯電話、スマートフォン、タブレット型の情報機器、PDAによっても実現可能である。   Here, the configuration of stereo matching processing apparatus 100 in the present embodiment will be described more specifically. In the present embodiment, stereo matching processing device 100 can be realized by a computer as will be described later. The stereo matching processing device 100 can also be realized by a device that can execute an application program, for example, a mobile phone, a smartphone, a tablet-type information device, or a PDA, in addition to the computer described later.

また、図1に示すように、ステレオマッチング処理100は、第1の視差算出部30、画像分割部40、視差探索範囲設定部50、及び第2の視差算出部60に加えて、画像受付部10と、縮小画像作成部20と、画像合成部70と、画像出力部80とを備えている。   As shown in FIG. 1, the stereo matching process 100 includes an image reception unit in addition to the first parallax calculation unit 30, the image division unit 40, the parallax search range setting unit 50, and the second parallax calculation unit 60. 10, a reduced image creation unit 20, an image composition unit 70, and an image output unit 80.

画像受付部10は、ユーザによる、キーボード又はマウス等(図1において図示せず)を利用した操作に応じて、ステレオマッチング処理に使用される複数のステレオ画像(典型的には、ペアの画像データ)の入力を受け付ける。   The image receiving unit 10 receives a plurality of stereo images (typically paired image data) used for stereo matching processing in response to a user operation using a keyboard or a mouse (not shown in FIG. 1). ).

「ステレオ画像」は、2台のカメラを用いて、異なる位置からほぼ同一の領域を撮影することによって得られた画像である。ここで、ステレオ画像のうち、左側に配置されたカメラで撮影された画像を、以下「左画像」と表記し、右側に配置されたカメラで撮影された画像を、以下、「右画像」と表記する。また、本実施の形態では、ステレオ画像としては、例えば、デジタル画像に変換された一対の航空写真、一対の衛星写真が挙げられる。また、ステレオ画像の画像データには、画像データそのものだけでなく、画像を撮影した位置、撮影した方向、画角などが含まれる。   A “stereo image” is an image obtained by photographing almost the same region from different positions using two cameras. Here, among the stereo images, an image taken with the camera arranged on the left side is hereinafter referred to as “left image”, and an image taken with the camera arranged on the right side is hereinafter referred to as “right image”. write. Moreover, in this Embodiment, as a stereo image, a pair of aerial photograph converted into the digital image and a pair of satellite photograph are mentioned, for example. Further, the image data of the stereo image includes not only the image data itself but also the position where the image was captured, the direction in which the image was captured, the angle of view, and the like.

また、画像受付部10は、撮影時のカメラパラメータを標定する標定処理、及び左画像と右画像とを必要に応じて共通平行面に再投影する平行化処理等を実行することもできる。ここで、「標定処理」とは、評価の対象について所定の値を求める処理をいう。更に、「平行化処理」とは、左画像及び右画像上のエピポールを結ぶエピポーラ線が複数の走査線の一つに一致するように、左画像と右画像とを共通平行面に再投影する処理をいう。   The image receiving unit 10 can also perform an orientation process for locating camera parameters at the time of shooting, a parallelization process for reprojecting the left image and the right image onto a common parallel plane as necessary. Here, the “orientation process” refers to a process for obtaining a predetermined value for an evaluation target. Furthermore, the “parallelization processing” is to re-project the left image and the right image on a common parallel plane so that the epipolar line connecting the epipole on the left image and the right image matches one of the plurality of scanning lines. Refers to processing.

そして、画像受付部10は、受付けたステレオ画像の画像データを、縮小画像作成部20と、画像分割部40とに入力する。なお、評定処理及び平行化処理は、別の機能ブロックによって実行されても良い。   Then, the image receiving unit 10 inputs the received image data of the stereo image to the reduced image creating unit 20 and the image dividing unit 40. Note that the rating process and the parallelization process may be executed by different functional blocks.

縮小画像作成部20は、画像受付部10から渡された画像データに基づいて、それが表すステレオ画像それぞれの縮小画像を作成する。縮小画像作成部20は、後述する図3に示すように、例えば、ステレオ画像の左画像と右画像とを、任意の倍率で縮小することにより、左画像の縮小画像と右画像の縮小画像とを生成する。   The reduced image creation unit 20 creates a reduced image of each stereo image represented by the image data received from the image receiving unit 10. As illustrated in FIG. 3 to be described later, the reduced image creation unit 20 reduces the left image and the right image of the stereo image at an arbitrary magnification, for example, thereby reducing the reduced image of the left image and the reduced image of the right image. Is generated.

本実施の形態では、このように、ステレオ画像が縮小され、縮小画像について後述の処理が行なわれる。このため、本実施の形態によれば、縮小画像を作成しない場合と比べて、ステレオマッチング処理のいっそうの高速化が図られる。   In the present embodiment, the stereo image is reduced in this way, and the processing described later is performed on the reduced image. For this reason, according to the present embodiment, the stereo matching process can be further accelerated as compared with the case where the reduced image is not created.

また、本実施の形態では、第1の視差算出部30は、ステレオ画像の縮小画像(以下「ステレオ縮小画像」と表記する。)に基づいて、上述した視差の算出を実行する。以下、第1の視差算出部30は、「縮小画像視差算出部30」と表記する。   In the present embodiment, the first parallax calculation unit 30 performs the above-described parallax calculation based on a reduced image of a stereo image (hereinafter referred to as “stereo reduced image”). Hereinafter, the first parallax calculation unit 30 is referred to as a “reduced image parallax calculation unit 30”.

具体的には、まず、縮小画像視差算出部30は、縮小画像作成部20で生成された縮小画像同士での同じ地点を写す画像内の位置を検出する。即ち、縮小画像間の同じ地点に対応する対応点(特徴点)の組を検出する。同じ地点に対応する対応点の組は、通常2つの画像の中で、対応する付近の小領域の画像相関をとり、相関係数が最大となる位置から検出できる。   Specifically, first, the reduced image parallax calculation unit 30 detects a position in an image that captures the same point among the reduced images generated by the reduced image creation unit 20. That is, a set of corresponding points (feature points) corresponding to the same point between the reduced images is detected. A pair of corresponding points corresponding to the same point can be detected from a position where the correlation coefficient is maximized by taking the image correlation of the corresponding small area in the two images.

また、縮小画像視差算出部30は、対象となるステレオ縮小画像において、左画像及び右画像(平行化済画像対)に対して、ステレオマッチング処理、具体的にはDP(Dynamic Programming)マッチング処理を実行し、左画像と右画像との間での位置ずれ(視差)を計測し、視差データを生成する。   Further, the reduced image parallax calculation unit 30 performs stereo matching processing, specifically DP (Dynamic Programming) matching processing, on the left image and the right image (parallelized image pair) in the target stereo reduced image. Execute, measure the positional deviation (parallax) between the left image and the right image, and generate parallax data.

そして、縮小画像視差算出部30によってステレオマッチング処理が実行されると、その結果、ステレオ縮小画像の画像データが表す各画素に対応して、左右の画像間での視差が得られる。なお、ここでは、視差算出のための画像の切り出し処理は、地面を基準に行なわれており、地面について視差はゼロであるとする。よって、ここで得られる視差は、建物等といった地面からの突起に対応する視差であると考えることができる。   When the stereo matching process is executed by the reduced image parallax calculation unit 30, as a result, the parallax between the left and right images is obtained corresponding to each pixel represented by the image data of the stereo reduced image. Here, it is assumed that the image clipping process for calculating the parallax is performed with reference to the ground, and the parallax is zero with respect to the ground. Therefore, the parallax obtained here can be considered as parallax corresponding to a protrusion from the ground such as a building.

また、ステレオマッチング処理の具体例としては、一般的な特徴量を求めて対応付ける処理、左右画像の相関を求める処理等、様々なものが存在するが、本実施の形態では、具体的なステレオマッチング処理は特に限定されるものではない。ステレオマッチング処理の具体例としては、例えば、特公平8−16930号公報に開示された処理が挙げられる。   Further, as specific examples of the stereo matching process, there are various processes such as a process for obtaining and associating a general feature amount and a process for obtaining a correlation between left and right images. In this embodiment, a specific stereo matching process is provided. The processing is not particularly limited. As a specific example of the stereo matching process, for example, a process disclosed in Japanese Patent Publication No. 8-16930 can be cited.

画像分割部40は、本実施の形態では、画像受付部10から渡されたステレオ画像を、複数のブロック画像に分割する(後述の図4参照)。また、ブロック画像のサイズは、予め設定されても良いし、画像分割部40によって、縮小画像視差算出部30で算出された視差値に基づいて、計算されても良い。   In the present embodiment, the image dividing unit 40 divides the stereo image passed from the image receiving unit 10 into a plurality of block images (see FIG. 4 described later). The size of the block image may be set in advance or may be calculated by the image dividing unit 40 based on the parallax value calculated by the reduced image parallax calculating unit 30.

視差探索範囲設定部50は、本実施の形態では、画像分割部40で作成された全てのペア部分について、縮小画像視差算出部30で得られた視差値のうち、当該ペア部分に相当する領域内での、最大の視差値と最小の視差値とを抽出する。この最大値及び最小値は、それぞれ、ペア部分毎の視差探索範囲の上限及び下限として設定される。   In the present embodiment, the parallax search range setting unit 50 is an area corresponding to the pair portion of the parallax values obtained by the reduced image parallax calculation unit 30 for all the pair portions created by the image dividing unit 40. The maximum parallax value and the minimum parallax value are extracted. The maximum value and the minimum value are respectively set as an upper limit and a lower limit of the parallax search range for each pair part.

第2の視差算出部60(以下、「視差算出部60」と表記する。)は、画像分割部40で生成されたペア部分を対象として、各部分の同じ地点を写す画像内の位置を検出する。即ち、本実施の形態では、視差算出部60は、ペアとなった画像の同じ地点に対応する対応点(特徴点)の組を新たに検出する。同じ地点に対応する対応点の組は、通常2つの画像の中で、対応する付近の小領域の画像相関をとり、相関係数が最大となる位置から検出される。   The second parallax calculation unit 60 (hereinafter, referred to as “parallax calculation unit 60”) detects the position in the image that captures the same point of each part for the pair part generated by the image dividing unit 40. To do. In other words, in the present embodiment, the parallax calculation unit 60 newly detects a set of corresponding points (feature points) corresponding to the same point of the paired images. A set of corresponding points corresponding to the same point is usually detected from a position where the correlation coefficient of the corresponding small region in the two images is taken and the correlation coefficient is maximized.

また、視差算出部60は、縮小画像視差算出部30と同様の上述したステレオマッチング処理を実行する。そして、視差算出部60は、ステレオマッチング処理によって算出した視差が、視差探索範囲内にあるかどうかを判定し、視差探索範囲内にある場合は、算出した視差を、ペア部分の対応点の視差として、画像合成部70に出力する。   Further, the parallax calculation unit 60 executes the above-described stereo matching process similar to the reduced image parallax calculation unit 30. Then, the parallax calculation unit 60 determines whether or not the parallax calculated by the stereo matching process is within the parallax search range. If the parallax is within the parallax search range, the parallax is calculated using the parallax of the corresponding point of the pair part. Is output to the image composition unit 70.

画像合成部70は、視差算出部60によってペア部分毎に算出された対応点の視差に基づいて、ステレオ画像を構成する左画像と右画像とを合成し、3次元画像を表す3次元データ(DSMデータ)を生成する。また、画像合成部70は、生成した3次元データを画像出力部80に出力する。   The image synthesis unit 70 synthesizes the left image and the right image constituting the stereo image based on the parallax of the corresponding points calculated for each pair part by the parallax calculation unit 60, and represents three-dimensional data ( DSM data) is generated. In addition, the image composition unit 70 outputs the generated three-dimensional data to the image output unit 80.

画像出力部80は、画像合成部70から、3次元データが出力されてくると、この3次元データを表現するDSM画像を生成し、これを出力する。また、画像出力部80は、DSM画像と共に、ステレオマッチング処理の結果等を出力することもできる。   When the three-dimensional data is output from the image synthesis unit 70, the image output unit 80 generates a DSM image representing the three-dimensional data and outputs this. Further, the image output unit 80 can output the result of the stereo matching process and the like together with the DSM image.

[装置動作]
次に、本発明の実施の形態におけるステレオマッチング処理装置100の動作について図2を用いて説明する。図2は、本発明の実施の形態におけるステレオマッチング処理装置の動作を示すフロー図である。また、本実施の形態では、ステレオマッチング処理装置100を動作させることによって、ステレオマッチング処理方法が実施される。よって、本実施の形態におけるステレオマッチング処理方法の説明は、以下のステレオマッチング処理装置100の動作説明に代える。
[Device operation]
Next, the operation of the stereo matching processing device 100 according to the embodiment of the present invention will be described with reference to FIG. FIG. 2 is a flowchart showing the operation of the stereo matching processing device according to the embodiment of the present invention. In this embodiment, the stereo matching processing method is implemented by operating the stereo matching processing device 100. Therefore, the description of the stereo matching processing method in the present embodiment is replaced with the following description of the operation of the stereo matching processing device 100.

図2に示すように、最初に、画像受付部10は、処理の対象となるステレオ画像の入力を受け付ける(ステップS101)。そして、画像受付部10は、入力を受け付けたステレオ画像を、縮小画像作成部20及び画像分割部40に出力する。   As shown in FIG. 2, first, the image receiving unit 10 receives an input of a stereo image to be processed (step S101). Then, the image receiving unit 10 outputs the received stereo image to the reduced image creating unit 20 and the image dividing unit 40.

なお、上述したように、ステレオ画像は、2台のカメラを用いて、異なる位置からほぼ同一の領域を撮影することによって得られた画像である。また、後述するように、ステレオ画像内の各位置に対応する対応点の組が検出されて、ステレオマッチング処理が行われる。   Note that, as described above, a stereo image is an image obtained by photographing almost the same region from different positions using two cameras. Further, as will be described later, a set of corresponding points corresponding to each position in the stereo image is detected, and stereo matching processing is performed.

次に、縮小画像作成部20は、画像受付部10から渡されたステレオ画像を縮小して、ステレオ縮小画像を作成する(ステップS102)。図3は、本発明の実施の形態における行なわれる縮小画像の作成処理を説明する図である。図3に示すように、縮小画像作成部20は、ステレオ画像を構成する左画像及び右画像をそれぞれ縮小して、縮小画像を作成する。   Next, the reduced image creating unit 20 creates a stereo reduced image by reducing the stereo image passed from the image receiving unit 10 (step S102). FIG. 3 is a diagram illustrating reduced image creation processing performed in the embodiment of the present invention. As shown in FIG. 3, the reduced image creation unit 20 creates a reduced image by reducing the left image and the right image constituting the stereo image.

ステップS102において、画像を縮小する際の縮小倍率、縮小画像のサイズ等は、適宜設定される。また、縮小画像作成部20は、ステレオ縮小画像を作成した後、作成したステレオ縮小画像を縮小画像視差算出部30に出力する。   In step S102, the reduction magnification when reducing the image, the size of the reduced image, and the like are set as appropriate. The reduced image creation unit 20 creates a stereo reduced image, and then outputs the created stereo reduced image to the reduced image parallax calculation unit 30.

次に、縮小画像視差算出部30は、縮小画像作成部20から出力されたステレオ縮小画像から、同じ地点を写す画像内の対応点の組を検出し(図3参照)、当該対応点の組から、視差を算出する(ステップS103)。そして、縮小画像視差算出部30は、算出した視差を、視差探索範囲設定部50に出力する。なお、図3中の左画像及び右画像において、丸で囲った部分は、検出された対応点を示しており、線で結ばれた部分同士が対応している。   Next, the reduced image parallax calculation unit 30 detects a set of corresponding points in the image showing the same point from the stereo reduced image output from the reduced image creation unit 20 (see FIG. 3), and sets the corresponding points. From this, the parallax is calculated (step S103). Then, the reduced image parallax calculation unit 30 outputs the calculated parallax to the parallax search range setting unit 50. In the left image and the right image in FIG. 3, the circled portions indicate detected corresponding points, and the portions connected by lines correspond to each other.

次に、画像分割部40は、図3に示すように、画像受付部10で受け付けられたステレオ画像を構成している右画像及び左画像を、それぞれ、予め設定されたサイズで複数のブロック画像に分割する(ステップS104)。そして、画像分割部40は、生成した分割画像を、視差算出部60に出力する。図4は、本発明の実施の形態におけるステレオマッチング処理で行なわれる画像の分割処理を説明する図である。   Next, as shown in FIG. 3, the image dividing unit 40 converts the right image and the left image constituting the stereo image received by the image receiving unit 10 into a plurality of block images each having a preset size. (Step S104). Then, the image dividing unit 40 outputs the generated divided image to the parallax calculating unit 60. FIG. 4 is a diagram for explaining image division processing performed in stereo matching processing according to the embodiment of the present invention.

次に、視差探索範囲設定部50は、画像分割部40で作成された分割画像(ペア部分)毎に、それぞれの分割位置で囲まれた領域内での、ステップS103で算出された視差の最大値と最小値とを特定し、特定した最小値から最大値までを当該分割画像(ペア部分)での視差探索範囲として設定する(ステップS105)。また、視差探索範囲設定部50は、設定した視差探索範囲を、視差算出部60に通知する。   Next, the parallax search range setting unit 50 calculates the maximum parallax calculated in step S <b> 103 in the region surrounded by each division position for each divided image (pair portion) created by the image dividing unit 40. A value and a minimum value are specified, and the range from the specified minimum value to the maximum value is set as a parallax search range in the divided image (pair portion) (step S105). Further, the parallax search range setting unit 50 notifies the parallax calculation unit 60 of the set parallax search range.

具体的には、視差探索範囲設定部50は、ペア部分毎に、当該ペア部分の領域においてステップS103で検出された対応点の組を特定し(図3参照)、更に、特定した組について算出された視差を特定する。そして、視差探索範囲設定部50は、特定した視差の中から、最大値と最小値とを抽出し、抽出した最小値から最大値までを視差探索範囲とする。   Specifically, the disparity search range setting unit 50 identifies, for each pair part, the pair of corresponding points detected in step S103 in the pair part region (see FIG. 3), and further calculates the identified pair. Identify the parallax. Then, the parallax search range setting unit 50 extracts the maximum value and the minimum value from the specified parallax, and sets the extracted minimum value to the maximum value as the parallax search range.

次に、視差探索範囲設定部50は、全ての分割画像(ペア部分)についてステップS105が実行されているかどうかを判断する(ステップS106)。ステップS106の判断の結果、全ての分割画像についてステップS105が実行されていない場合は、視差探索範囲設定部50は、再度、ステップS105を実行する。   Next, the parallax search range setting unit 50 determines whether or not step S105 is executed for all divided images (pair portions) (step S106). If step S105 is not executed for all the divided images as a result of the determination in step S106, the parallax search range setting unit 50 executes step S105 again.

一方、ステップS106の判断の結果、全ての分割画像についてステップS105が実行されている場合は、視差算出部60は、画像分割部40によって作成されたペア部分毎に、同じ地点を写す画像内の対応点の組を新たに検出し、当該対応点の組について視差を算出する。また、視差算出部60は、算出した視差が、ステップS105で設定された視差探索範囲内にあるかどうかを判定し、視差探索範囲内にある場合にのみ、算出した視差を、ペア部分の対応点の視差とする(ステップS107)。また、視差算出部60は、得られたペア部分の対応点の視差を、画像合成部70に出力する。   On the other hand, if the result of determination in step S106 is that step S105 has been executed for all of the divided images, the parallax calculation unit 60 includes, for each pair part created by the image division unit 40, an image in the image that captures the same point. A pair of corresponding points is newly detected, and the parallax is calculated for the pair of corresponding points. Further, the parallax calculation unit 60 determines whether the calculated parallax is within the parallax search range set in step S105, and only when the calculated parallax is within the parallax search range, The parallax is set as a point (step S107). Further, the parallax calculation unit 60 outputs the obtained parallax of the corresponding point of the pair part to the image synthesis unit 70.

次に、画像合成部70は、視差算出部60から出力されてきた各ペア部分の対応点の視差に基づいて、ステップS101で入力を受け付けたステレオ画像の左画像と右画像とを合成し、3次元データ(DSMデータ)を生成する(ステップS108)。そして、画像合成部70は、生成した3次元データを、画像出力部80に出力する。   Next, the image synthesis unit 70 synthesizes the left image and the right image of the stereo image received in step S101 based on the parallax of the corresponding points of each pair portion output from the parallax calculation unit 60, Three-dimensional data (DSM data) is generated (step S108). Then, the image composition unit 70 outputs the generated three-dimensional data to the image output unit 80.

次に、画像出力部80は、画像合成部70から渡された3次元データに基づいて、3次元画像(DSM画像)を生成し、これを出力する(ステップS109)。以上により、ステレオマッチング処理装置100における処理は終了する。   Next, the image output unit 80 generates a three-dimensional image (DSM image) based on the three-dimensional data passed from the image composition unit 70, and outputs this (step S109). Thus, the processing in the stereo matching processing device 100 ends.

[実施の形態による効果]
以上のように、本実施の形態によれば、ステレオ画像について、同一の点を撮像している各画像中の対応点を容易に求めることができる。また、分割画像間の視差の算出は、視差探索範囲を基準にして行なえば良いため、ステレオ画像から対応点を求めて、視差を算出する際において、無駄な処理を行なう必要がなく、処理の高速化が図られる。また、視差探索範囲を求めるための処理は、縮小されたステレオ画像に基づいて行われるので、よりいっそうの高速化が可能となる。
[Effects of the embodiment]
As described above, according to the present embodiment, it is possible to easily obtain corresponding points in each image capturing the same point for a stereo image. Further, since the parallax between the divided images may be calculated based on the parallax search range, it is not necessary to perform useless processing when calculating the parallax by obtaining the corresponding points from the stereo image. High speed is achieved. In addition, since the process for obtaining the parallax search range is performed based on the reduced stereo image, the speed can be further increased.

[プログラム]
また、本実施の形態におけるプログラムは、コンピュータに、図2に示すステップS101〜S109を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態におけるステレオマッチング処理装置100とステレオマッチング処理方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、画像受付部10、縮小画像作成部20、縮小画像視差算出部30、画像分割部40、視差探索範囲設定部50、視差算出部60、画像合成部70、及び画像出力部80として機能し、処理を行なう。つまり、本実施の形態におけるステレオマッチング処理装置100は、専用のシステムによらず、通常のコンピュータを用いて実現可能である。
[program]
Moreover, the program in this Embodiment should just be a program which makes a computer perform step S101-S109 shown in FIG. By installing and executing this program in a computer, the stereo matching processing device 100 and the stereo matching processing method in the present embodiment can be realized. In this case, the CPU (Central Processing Unit) of the computer includes an image receiving unit 10, a reduced image creating unit 20, a reduced image parallax calculating unit 30, an image dividing unit 40, a parallax search range setting unit 50, a parallax calculating unit 60, an image composition. Functions as the unit 70 and the image output unit 80 and performs processing. That is, the stereo matching processing device 100 according to the present embodiment can be realized using a normal computer without using a dedicated system.

また、本実施の形態におけるプログラムは、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納された状態で配布されても良い。更に、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該プログラムが格納されている場合は、通常のコンピュータが、当該プログラムをダウンロード等して、これをインストールすることで、ステレオマッチング処理装置100が実現される。   Further, the program in the present embodiment may be distributed in a state of being stored in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.). Furthermore, when the program is stored in a storage device included in a server device on a communication network such as the Internet, a normal computer downloads the program and installs it, so that the stereo matching processing device 100 is realized.

また、ステレオマッチング処理装置100の機能が、コンピュータのOS(オペレーティングシステム)とアプリケーションプログラムとの分担によって実現される場合、又はOSとアプリケーションプログラムとの協働によって実現される場合とが考えられる。このような場合は、アプリケーションプログラムの部分のみが、記録媒体、又はサーバ装置が有する記憶装置に格納されていれば良い。   Further, it is conceivable that the function of the stereo matching processing device 100 is realized by sharing between the OS (operating system) of the computer and the application program, or realized by cooperation between the OS and the application program. In such a case, only the application program portion needs to be stored in the recording medium or the storage device included in the server device.

また、本実施の形態におけるプログラムは、搬送波に重畳されることによって、通信ネットワークを介して配信されても良い。例えば、通信ネットワーク上のWebサーバに、当該プログラムが掲示されている場合は、当該プログラムは、ネットワークを介して配信される。そして、当該プログラムは起動されると、OSの制御下で、他のアプリケーションプログラムと同様に実行され、処理を行う。   Further, the program in the present embodiment may be distributed via a communication network by being superimposed on a carrier wave. For example, when the program is posted on a Web server on a communication network, the program is distributed via the network. When the program is activated, it is executed and processed in the same manner as other application programs under the control of the OS.

ここで、本実施の形態におけるプログラムを実行することによって、ステレオマッチング処理装置100を実現するコンピュータの一例について図5を用いて説明する。図5は、本発明の実施の形態におけるステレオマッチング処理装置を実現するコンピュータの一例を示すブロック図である。   Here, an example of a computer that realizes the stereo matching processing device 100 by executing the program according to the present embodiment will be described with reference to FIG. FIG. 5 is a block diagram illustrating an example of a computer that implements the stereo matching processing device according to the embodiment of the present invention.

図5に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。   As shown in FIG. 5, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are connected to each other via a bus 121 so that data communication is possible.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。   The CPU 111 performs various calculations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。   Specific examples of the storage device 113 include a hard disk and a semiconductor storage device such as a flash memory. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse. The display controller 115 is connected to the display device 119 and controls display on the display device 119. The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash)及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。   Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD-ROM (Compact Disk). Optical storage media such as Read Only Memory).

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記12)によって表現することができるが、以下の記載に限定されるものではない。   Part or all of the above-described embodiments can be expressed by (Appendix 1) to (Appendix 12) described below, but is not limited to the following description.

(付記1)
異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうための装置であって、
前記2つの画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、第1の視差算出部と、
前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、画像分割部と、
互いに対応する2つの分割された部分毎に、当該部分中に存在する前記対応する点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、視差探索範囲設定部と、
前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、第2の視差算出部と、
を備えている、ことを特徴とするステレオマッチング処理装置。
(Appendix 1)
A device for performing a stereo matching process on two images obtained by photographing the same object from different angles,
A first parallax calculating unit that specifies a plurality of pairs of points corresponding to each other in the two images and calculates a parallax for each of the specified sets;
An image dividing unit that divides the two images so that the divided parts correspond to each other;
For each of the two divided parts corresponding to each other, the corresponding set of points existing in the part is specified, and based on the value of the parallax calculated for the specified set, the parallax maximum in the part A parallax search range setting unit that specifies a value and a minimum value and sets a parallax search range;
For each of the two divided parts corresponding to each other, a plurality of pairs of points corresponding to each other between the two parts are newly specified, the parallax is calculated for each newly specified pair, and the calculated value is A second parallax calculation unit that outputs the calculated parallax as the newly specified parallax in the part when it falls within the parallax search range set in the part;
A stereo matching processing device characterized by comprising:

(付記2)
前記2つの画像を縮小して、2つの縮小画像を生成する、縮小画像作成部を更に備え、
前記第1の視差算出部が、前記2つの縮小画像を対象として、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、
付記1に記載のステレオマッチング処理装置。
(Appendix 2)
A reduced image creation unit that reduces the two images to generate two reduced images;
The first parallax calculation unit specifies a plurality of pairs of points corresponding to each other for the two reduced images, and calculates a parallax for each specified set;
The stereo matching processing device according to attachment 1.

(付記3)
前記第2の視差算出部が出力する視差に基づいて、前記2つの画像の撮影対象の3次元データを作成する、画像合成部を更に備えている、
付記1または2に記載のステレオマッチング処理装置。
(Appendix 3)
An image compositing unit that creates three-dimensional data to be imaged of the two images based on the parallax output from the second parallax calculating unit;
The stereo matching processing device according to appendix 1 or 2.

(付記4)
前記2つの画像が、航空写真又は衛星写真である、付記1〜3のいずれかに記載のステレオマッチング処理装置。
(Appendix 4)
The stereo matching processing device according to any one of appendices 1 to 3, wherein the two images are aerial photographs or satellite photographs.

(付記5)
異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうための方法であって、
(a)前記2つの画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、ステップと、
(b)前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、ステップと、
(c)互いに対応する2つの分割された部分毎に、当該部分中に存在する前記(b)のステップで特定された前記対応する点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、ステップと、
(d)前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、ステップと、
を有する、ことを特徴とするステレオマッチング処理方法。
(Appendix 5)
A method for performing a stereo matching process on two images obtained by photographing the same object from different angles,
(A) identifying a plurality of pairs of points corresponding to each other in the two images, and calculating a parallax for each identified group; and
(B) dividing the two images such that the respective divided portions correspond to each other;
(C) For each of two divided parts corresponding to each other, the set of corresponding points specified in the step (b) existing in the part is specified, and the parallax calculated for the specified set A parallax search range is set by identifying the maximum and minimum values of the parallax in the part based on the value of
(D) For each of the two divided parts corresponding to each other, a plurality of pairs of points corresponding to each other between the two parts are newly specified, and the parallax is calculated and calculated for each newly specified pair Outputting the calculated parallax as the newly identified parallax in the part when the value falls within the parallax search range set in the part; and
A stereo matching processing method characterized by comprising:

(付記6)
(f)前記2つの画像を縮小して、2つの縮小画像を生成する、ステップを更に有し、
前記(a)のステップで、前記2つの縮小画像を対象として、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、
付記5に記載のステレオマッチング処理方法。
(Appendix 6)
(F) further reducing the two images to generate two reduced images;
In the step (a), a plurality of pairs of points corresponding to each other are specified for the two reduced images, and the parallax is calculated for each specified group.
The stereo matching processing method according to attachment 5.

(付記7)
(g)前記(d)のステップで出力する視差に基づいて、前記2つの画像の撮影対象の3次元データを作成する、ステップを更に有する、
付記5または6に記載のステレオマッチング処理方法。
(Appendix 7)
(G) based on the parallax output in the step (d), further creating a three-dimensional data of the two images to be imaged;
The stereo matching processing method according to appendix 5 or 6.

(付記8)
前記2つの画像が、航空写真又は衛星写真である、付記5〜7のいずれかに記載のステレオマッチング処理方法。
(Appendix 8)
The stereo matching processing method according to any one of appendices 5 to 7, wherein the two images are aerial photographs or satellite photographs.

(付記9)
コンピュータによって、異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうためのプログラムであって、
前記コンピュータに、
(a)前記2つの画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、ステップと、
(b)前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、ステップと、
(c)互いに対応する2つの分割された部分毎に、当該部分中に存在する前記(b)のステップで特定された前記対応する点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、ステップと、
(d)前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、ステップと、
を実行させるプログラム。
(Appendix 9)
A program for performing stereo matching processing on two images obtained by photographing the same object from different angles by a computer,
In the computer,
(A) identifying a plurality of pairs of points corresponding to each other in the two images, and calculating a parallax for each identified group; and
(B) dividing the two images such that the respective divided portions correspond to each other;
(C) For each of two divided parts corresponding to each other, the set of corresponding points specified in the step (b) existing in the part is specified, and the parallax calculated for the specified set A parallax search range is set by identifying the maximum and minimum values of the parallax in the part based on the value of
(D) For each of the two divided parts corresponding to each other, a plurality of pairs of points corresponding to each other between the two parts are newly specified, and the parallax is calculated and calculated for each newly specified pair Outputting the calculated parallax as the newly identified parallax in the part when the value falls within the parallax search range set in the part; and
A program that executes

(付記10)
(f)前記2つの画像を縮小して、2つの縮小画像を生成する、ステップを、更に前記コンピュータに実行させ、
前記(a)のステップで、前記2つの縮小画像を対象として、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、
付記9に記載のプログラム。
(Appendix 10)
(F) causing the computer to further execute a step of reducing the two images to generate two reduced images;
In the step (a), a plurality of pairs of points corresponding to each other are specified for the two reduced images, and the parallax is calculated for each specified group.
The program according to appendix 9.

(付記11)
(g)前記(d)のステップで出力する視差に基づいて、前記2つの画像の撮影対象の3次元データを作成する、ステップを、更に前記コンピュータに実行させる、
付記9または10に記載のプログラム。
(Appendix 11)
(G) Based on the parallax output in the step of (d), creating the three-dimensional data of the imaging target of the two images, further causing the computer to execute the step.
The program according to appendix 9 or 10.

(付記12)
前記2つの画像が、航空写真又は衛星写真である、付記9〜11のいずれかに記載のプログラム。
(Appendix 12)
The program according to any one of appendices 9 to 11, wherein the two images are aerial photographs or satellite photographs.

以上、上述した実施の形態は、説明のためのものであり、本発明の範囲を制限するものではなく、本発明においては、種々の変形及び応用が可能である。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。また、その他、上述したハードウエェア構成及びフローチャートは一例であり、任意に変更および修正が可能である。   As mentioned above, the above-mentioned embodiment is for description, does not limit the scope of the present invention, and various modifications and applications are possible in the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention. In addition, the above-described hardware configuration and flowchart are merely examples, and can be arbitrarily changed and modified.

以上説明したように、本発明によれば、ステレオ画像から、同一の点を撮像している対応点を求めて、視差を計算する際に、処理の高速化が可能になる。本発明は、ステレオマッチング処理が求められる分野、特に、航空写真又は衛星写真から、3次元画像を作成する分野に有用である。   As described above, according to the present invention, it is possible to increase the processing speed when calculating the parallax by obtaining the corresponding point capturing the same point from the stereo image. The present invention is useful in the field where stereo matching processing is required, particularly in the field of creating a three-dimensional image from an aerial photograph or a satellite photograph.

10 ステレオマッチング処理装置
10 画像受付部
20 縮小画像作成部
30 縮小画像視差算出部(第1の視差算出部)
40 画像分割部
50 視差探索範囲設定部
60 視差算出部(第2の視差算出部)
70 画像合成部
80 画像出力部
100 ステレオマッチング処理装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
DESCRIPTION OF SYMBOLS 10 Stereo matching processing apparatus 10 Image reception part 20 Reduced image creation part 30 Reduced image parallax calculation part (1st parallax calculation part)
40 image division unit 50 parallax search range setting unit 60 parallax calculation unit (second parallax calculation unit)
70 Image Composition Unit 80 Image Output Unit 100 Stereo Matching Processing Device 110 Computer 111 CPU
112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader / Writer 117 Communication Interface 118 Input Device 119 Display Device 120 Recording Medium 121 Bus

Claims (5)

異なる角度から同一対象を撮影して得られた2つの原画像を対象に、ステレオマッチング処理を行なうための装置であって、
前記2つの原画像を縮小して、2つの縮小画像を生成する、縮小画像作成部と、
前記2つの縮小画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、第1の視差算出部と、
前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、画像分割部と、
互いに対応する2つの分割された部分毎に、当該部分中に存在する、前記縮小画像における前記対応する点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、視差探索範囲設定部と、
前記原画像における前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、第2の視差算出部と、
を備えている、ことを特徴とするステレオマッチング処理装置。
An apparatus for performing a stereo matching process on two original images obtained by photographing the same object from different angles,
A reduced image creating unit that reduces the two original images to generate two reduced images;
A first parallax calculating unit that specifies a plurality of pairs of points corresponding to each other in the two reduced images, and calculates a parallax for each of the specified sets;
An image dividing unit that divides the two original images so that the respective divided portions correspond to each other;
For each of two divided parts corresponding to each other, the corresponding point set in the reduced image that exists in the part is specified, and the part based on the parallax value calculated for the specified set A parallax search range setting unit that specifies a parallax search range by specifying the maximum value and the minimum value of the parallax in
For each of the two divided portions corresponding to each other in the original image , a plurality of pairs of points corresponding to each other between the two portions are newly specified, and the parallax is calculated for each newly specified set and calculated. A second parallax calculation unit that outputs the calculated parallax as the newly specified parallax in the part when the calculated value falls within the parallax search range set in the part;
A stereo matching processing device characterized by comprising:
前記第2の視差算出部が出力する視差に基づいて、前記2つの画像の撮影対象の3次元データを作成する、画像合成部を更に備えている、
請求項1に記載のステレオマッチング処理装置。
An image compositing unit that creates three-dimensional data to be imaged of the two images based on the parallax output from the second parallax calculating unit;
The stereo matching processing device according to claim 1 .
前記2つの画像が、航空写真又は衛星写真である、請求項1または2に記載のステレオマッチング処理装置。 The two images are aerial or satellite photographs, stereo matching apparatus according to claim 1 or 2. 異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうための方法であって、
(a)前記2つの原画像を縮小して、2つの縮小画像を生成する、ステップと、
)前記2つの縮小画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、ステップと、
(c)前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、ステップと、
(d)互いに対応する2つの分割された部分毎に、当該部分中に存在する、前記縮小画像における前記(b)のステップで特定された前記対応する点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、ステップと、
前記原画像における前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、ステップと、
を有する、ことを特徴とするステレオマッチング処理方法。
A method for performing stereo matching processing on two original images obtained by photographing the same object from different angles,
(A) reducing the two original images to generate two reduced images; and
( B ) identifying a plurality of pairs of points corresponding to each other in the two reduced images, and calculating a parallax for each identified group; and
(C) dividing the two original images so that the respective divided portions correspond to each other; and
(D) For each of two divided parts corresponding to each other, the set of corresponding points specified in the step (b) in the reduced image existing in the part is specified, and the specified set Based on the calculated parallax value, specifying the maximum and minimum parallax values in the part and setting a parallax search range; and
( E ) For each of the two corresponding divided parts in the original image , a plurality of pairs of points corresponding to each other between the two parts are newly specified, and the parallax is calculated for each newly specified pair And when the calculated value falls within the parallax search range set in the part, the calculated parallax is output as the newly specified parallax of the part; and
A stereo matching processing method characterized by comprising:
コンピュータによって、異なる角度から同一対象を撮影して得られた2つの画像を対象に、ステレオマッチング処理を行なうためのプログラムであって、
前記コンピュータに、
(a)前記2つの原画像を縮小して、2つの縮小画像を生成する、ステップと、
)前記2つの縮小画像において、互いに対応する点の組を複数特定し、特定した組毎に、視差を算出する、ステップと、
(c)前記2つの画像を、それぞれの分割された部分が互いに対応するように分割する、ステップと、
(d)互いに対応する2つの分割された部分毎に、当該部分中に存在する、前記縮小画像における前記(b)のステップで特定された前記対応する点の組を特定し、特定した組について算出された前記視差の値に基づいて、当該部分における前記視差の最大値と最小値とを特定して、視差探索範囲を設定する、ステップと、
前記原画像における前記互いに対応する2つの分割された部分毎に、当該2つの部分間において互いに対応する点の組を新たに複数特定し、新たに特定した各組について、視差を算出し、算出した値が当該部分に設定された前記視差探索範囲に収まる場合に、算出した視差を、当該部分における新たに特定した当該組の視差として出力する、ステップと、
を実行させるプログラム。
A program for performing stereo matching processing on two original images obtained by photographing the same object from different angles by a computer,
In the computer,
(A) reducing the two original images to generate two reduced images; and
( B ) identifying a plurality of pairs of points corresponding to each other in the two reduced images, and calculating a parallax for each identified group; and
(C) dividing the two original images so that the respective divided portions correspond to each other; and
(D) For each of two divided parts corresponding to each other, the set of corresponding points specified in the step (b) in the reduced image existing in the part is specified, and the specified set Based on the calculated parallax value, specifying the maximum and minimum parallax values in the part and setting a parallax search range; and
( E ) For each of the two corresponding divided parts in the original image , a plurality of pairs of points corresponding to each other between the two parts are newly specified, and the parallax is calculated for each newly specified pair And when the calculated value falls within the parallax search range set in the part, the calculated parallax is output as the newly specified parallax of the part; and
A program that executes
JP2011204569A 2011-09-20 2011-09-20 Stereo matching processing device, stereo matching processing method, and program Active JP5769248B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011204569A JP5769248B2 (en) 2011-09-20 2011-09-20 Stereo matching processing device, stereo matching processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011204569A JP5769248B2 (en) 2011-09-20 2011-09-20 Stereo matching processing device, stereo matching processing method, and program

Publications (2)

Publication Number Publication Date
JP2013065247A JP2013065247A (en) 2013-04-11
JP5769248B2 true JP5769248B2 (en) 2015-08-26

Family

ID=48188673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011204569A Active JP5769248B2 (en) 2011-09-20 2011-09-20 Stereo matching processing device, stereo matching processing method, and program

Country Status (1)

Country Link
JP (1) JP5769248B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005163A1 (en) 2013-07-12 2015-01-15 三菱電機株式会社 High-resolution image generation device, high-resolution image generation method, and high-resolution image generation program
CN105872516A (en) * 2015-12-28 2016-08-17 乐视致新电子科技(天津)有限公司 Method and device for obtaining parallax parameters of three-dimensional film source
CN105651258B (en) * 2015-12-30 2018-07-13 杨正林 Active visual angle binocular range-measurement system and method
JP7253323B2 (en) * 2018-02-14 2023-04-06 オムロン株式会社 Three-dimensional measurement system and three-dimensional measurement method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120351A (en) * 1997-10-15 1999-04-30 Fujitsu Ltd Image matching device and storage medium to store image matching program
JP2008082870A (en) * 2006-09-27 2008-04-10 Setsunan Univ Image processing program, and road surface state measuring system using this
JP4382797B2 (en) * 2006-11-09 2009-12-16 株式会社山武 Corresponding point search method and three-dimensional position measurement method
JP2008225778A (en) * 2007-03-12 2008-09-25 Toshiba Corp Image processor
JP4877243B2 (en) * 2008-02-06 2012-02-15 コニカミノルタホールディングス株式会社 Corresponding point search apparatus and method
JP5229733B2 (en) * 2008-11-25 2013-07-03 Necシステムテクノロジー株式会社 Stereo matching processing device, stereo matching processing method and program
JP5428618B2 (en) * 2009-07-29 2014-02-26 ソニー株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
US8290248B2 (en) * 2009-12-31 2012-10-16 Mitsubishi Electric Research Laboratories, Inc. Determining disparity search range in stereo videos
JP2012133408A (en) * 2010-12-17 2012-07-12 Sharp Corp Image processing device and program

Also Published As

Publication number Publication date
JP2013065247A (en) 2013-04-11

Similar Documents

Publication Publication Date Title
JP6760957B2 (en) 3D modeling method and equipment
KR102483641B1 (en) Method and apparatus for processing binocular image
US9905011B2 (en) Apparatus, system, and method for processing information and program for the same
US8531505B2 (en) Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium
JP2014071850A (en) Image processing apparatus, terminal device, image processing method, and program
US20200134847A1 (en) Structure depth-aware weighting in bundle adjustment
JP6662382B2 (en) Information processing apparatus and method, and program
JP5769248B2 (en) Stereo matching processing device, stereo matching processing method, and program
CN111882655A (en) Method, apparatus, system, computer device and storage medium for three-dimensional reconstruction
JP6156922B2 (en) Three-dimensional data generation apparatus, three-dimensional data generation method, and program
JP6601893B2 (en) Image processing apparatus, image processing method, and program
CN108174179B (en) Method and computer-readable storage medium for modeling an imaging device
KR20210036574A (en) Method and apparatus for estimating pose
JP2017126264A (en) Information processor, information processing method and program
KR101741501B1 (en) Apparatus and Method for Estimation of Distance between Camera and Object
JP6991700B2 (en) Information processing equipment, information processing method, program
JP5041382B2 (en) Stereo matching processing device, stereo matching processing method, and program
CN113840130A (en) Depth map generation method, device and storage medium
JP6071142B2 (en) Image converter
KR20200057929A (en) Method for rectification of stereo images captured by calibrated cameras and computer program
CN116109807B (en) Panoramic SLAM method, device, computing equipment and storage medium
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium
CN110310251B (en) Image processing method and device
JP7195785B2 (en) Apparatus, method and program for generating 3D shape data
JP6168601B2 (en) Image converter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130918

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140409

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140609

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20150123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150618

R150 Certificate of patent or registration of utility model

Ref document number: 5769248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150