JP2006033294A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2006033294A JP2006033294A JP2004207783A JP2004207783A JP2006033294A JP 2006033294 A JP2006033294 A JP 2006033294A JP 2004207783 A JP2004207783 A JP 2004207783A JP 2004207783 A JP2004207783 A JP 2004207783A JP 2006033294 A JP2006033294 A JP 2006033294A
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinates
- vertical parallax
- dimensional
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、立体視画像を生成する画像処理装置に関する。 The present invention relates to an image processing apparatus that generates a stereoscopic image.
下記非特許文献1および非特許文献2には、航空測量のための光学センサであるスリーラインスキャナ(TLS : Three Line Scanner)が搭載されたTLSシステムについて開示されている。スリーラインスキャナは、平行に並べられた三つのラインセンサカメラにより構成されており、それぞれのラインセンサカメラにより前方視、直下視、後方視の三方向の画像が同時に取得される。このようなスリーラインスキャナは、例えば、ヘリコプター等の飛翔体の進行方向に対して垂直に搭載される。これにより、飛翔体が飛行している際に各ラインセンサカメラにより地上面が走査され、地上対象物の三重ステレオ画像を取得することができる。
上述したスリーラインスキャナを搭載したTLSシステムでは、GPS(Global Positioning System)およびIMU(Inertial Measurement Unit)によりラインセンサカメラの位置および姿勢データを含む飛行軌跡データが取得されている。ところが、この飛行軌跡データには、様々な要因により誤差が生じてしまう。したがって、異なる方向から撮影された前方視画像、直下視画像および後方視画像の各画像に基づいて立体視画像を生成した場合には、縦方向の視差である縦視差が発生してしまう。なお、飛行軌跡データに誤差が生じる要因としては、例えば、GPSやIMUにおける温度ドリフトによるもの、ラインセンサのデータ取得間隔とGPSのデータ取得間隔の相違によるもの、地上基準点の測定誤差によるもの、飛行軌跡データのモデリング誤差によるもの、飛行高度の変動によるもの、飛行軌跡に対する地形の変化によるもの等がある。 In the TLS system equipped with the above-described three-line scanner, flight trajectory data including the position and orientation data of the line sensor camera is acquired by GPS (Global Positioning System) and IMU (Inertial Measurement Unit). However, an error occurs in the flight trajectory data due to various factors. Therefore, when a stereoscopic image is generated based on each of the forward-view image, the direct-view image, and the rear-view image captured from different directions, a vertical parallax that is a vertical parallax occurs. Factors that cause errors in flight trajectory data include, for example, temperature drift in GPS and IMU, differences in line sensor data acquisition interval and GPS data acquisition interval, ground reference point measurement errors, There are those due to modeling errors in flight trajectory data, variations in flight altitude, and changes in topography with respect to the flight trajectory.
ここで、図12および図13を参照して、ある地上基準点Pを撮影した際に縦視差Yが発生する仕組みについて説明する。図12に示すPTは実際の飛行軌跡を示すラインであり、UTは飛行軌跡データにより表される飛行軌跡ラインである。図12および図13に示すNaは直下視画像であり、Baは後方視画像である。NaPは飛行軌跡データに基づいて確定された直下視画像Na上における点Pの対応点であり、BaPは飛行軌跡データに基づいて確定された後方視画像Ba上における点Pの対応点である。CaPは飛行軌跡データに誤差がない場合に直下視画像Na上および前方視画像Fa上に確定される点Pの対応点である。つまり、誤差のある飛行軌跡データに基づいて点Pの対応点を確定した場合には、図13に示すように直下視画像Na上の対応点NaPと後方視画像Ba上の対応点BaPとの間には縦視差Yが発生してしまうことになる。 Here, with reference to FIG. 12 and FIG. 13, a mechanism in which the vertical parallax Y is generated when a certain ground reference point P is photographed will be described. PT shown in FIG. 12 is a line indicating an actual flight trajectory, and UT is a flight trajectory line represented by flight trajectory data. Na shown in FIGS. 12 and 13 is a direct view image, and Ba is a back view image. NaP is a corresponding point of the point P on the direct-view image Na determined based on the flight trajectory data, and BaP is a corresponding point of the point P on the rear-view image Ba determined based on the flight trajectory data. CaP is a corresponding point of the point P determined on the direct-view image Na and the forward-view image Fa when there is no error in the flight trajectory data. That is, when the corresponding point of the point P is determined based on the flight trajectory data having an error, the corresponding point NaP on the direct-view image Na and the corresponding point BaP on the rear-view image Ba as shown in FIG. A vertical parallax Y occurs between them.
そこで、本発明は、上述した課題を解決するために、縦視差をより軽減させた立体視画像を生成させることができる画像処理装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing apparatus capable of generating a stereoscopic image with reduced vertical parallax in order to solve the above-described problems.
本発明の画像処理装置は、撮影方向が異なる複数のラインセンサにより撮像された一次元画像群からなる複数の二次元画像に基づいて、立体視画像を生成する画像処理装置であって、複数の二次元画像間に生じる縦方向の視差である縦視差を補正する縦視差補正手段を備え、縦視差補正手段により縦視差が補正された後の画像に基づいて立体視画像を生成することを特徴とする。 An image processing apparatus of the present invention is an image processing apparatus that generates a stereoscopic image based on a plurality of two-dimensional images composed of a one-dimensional image group captured by a plurality of line sensors having different shooting directions. The apparatus includes a vertical parallax correction unit that corrects vertical parallax, which is vertical parallax generated between two-dimensional images, and generates a stereoscopic image based on the image after the vertical parallax is corrected by the vertical parallax correction unit. And
この発明によれば、縦視差補正手段により複数の二次元画像間に生じる縦視差が補正されるため、様々な要因により縦視差が生じた複数の二次元画像に基づいて立体視画像を生成する場合であっても、縦視差をより軽減させた立体視画像を生成させることが可能となる。 According to the present invention, the vertical parallax correction unit corrects the vertical parallax generated between the plurality of two-dimensional images. Therefore, the stereoscopic image is generated based on the plurality of two-dimensional images in which the vertical parallax is generated due to various factors. Even in this case, it is possible to generate a stereoscopic image in which the vertical parallax is further reduced.
本発明の画像処理装置において、立体視画像を画面上に表示させる表示手段と、表示手段により表示された立体視画像上に指標を表示させる指標表示手段とをさらに備え、縦視差補正手段は、指標により立体視画像上にある任意の位置が特定されるたびに、縦視差を補正させることが好ましい。このようにすれば、立体視画像上にある任意の位置が指標で特定されるたびに、当該指標により特定された位置を基準にして縦視差補正された後の立体視画像を表示させることが可能となる。 The image processing apparatus of the present invention further includes display means for displaying a stereoscopic image on the screen, and index display means for displaying an index on the stereoscopic image displayed by the display means. It is preferable to correct the vertical parallax each time an arbitrary position on the stereoscopic image is specified by the index. In this way, every time an arbitrary position on the stereoscopic image is specified by the index, the stereoscopic image after the vertical parallax correction is displayed with reference to the position specified by the index can be displayed. It becomes possible.
本発明の画像処理装置において、縦視差補正手段は、複数の二次元画像のいずれか一の二次元画像を基準画像とし、基準画像上の座標を第1の座標として決定する第1の座標決定手段と、複数の二次元画像のうち基準画像以外の二次元画像から、第1の座標決定手段により決定された第1の座標に対応する第2の座標を決定する第2の座標決定手段と、第1の座標および第2の座標に基づいて、立体視画像上の座標を決定する第3の座標決定手段とを含んで構成させることが好ましい。 In the image processing apparatus of the present invention, the vertical parallax correction unit is configured to determine a first coordinate that determines any one of a plurality of two-dimensional images as a reference image and coordinates on the reference image as first coordinates. And second coordinate determining means for determining a second coordinate corresponding to the first coordinate determined by the first coordinate determining means from a two-dimensional image other than the reference image among the plurality of two-dimensional images. It is preferable to include a third coordinate determining unit that determines coordinates on the stereoscopic image based on the first coordinates and the second coordinates.
このようにすれば、基準画像上にある第1の座標と、この第1の座標に対応する他の画像上にある第2の座標とに基づいて立体視画像上の座標を決定させることができる。すなわち、第1の座標に対応する第2の座標が決定されることにより、第1の座標と第2の座標との間に生じる縦視差が軽減され、ひいては、縦視差がより軽減された立体視画像を生成させることが可能となる。 In this way, the coordinate on the stereoscopic image can be determined based on the first coordinate on the reference image and the second coordinate on the other image corresponding to the first coordinate. it can. In other words, by determining the second coordinate corresponding to the first coordinate, the vertical parallax generated between the first coordinate and the second coordinate is reduced, and as a result, the solid whose vertical parallax is further reduced. A visual image can be generated.
本発明の画像処理装置において、複数の二次元画像間における相関座標情報を記憶させる記憶手段をさらに備え、第2の座標決定手段は、記憶手段により記憶された相関座標情報から、第1の座標に対応する第2の座標を抽出することにより第2の座標を決定させることが好ましい。このようにすれば、予め記憶された相関座標情報に基づいて、第1の座標に対応する第2の座標を抽出させることができるため、立体視画像上にある任意の位置が指標で特定されてから立体視画像が生成されるまでの処理時間を短縮させることが可能となる。 The image processing apparatus of the present invention further includes storage means for storing correlation coordinate information between a plurality of two-dimensional images, and the second coordinate determination means uses the first coordinate from the correlation coordinate information stored in the storage means. It is preferable to determine the second coordinates by extracting the second coordinates corresponding to. In this way, since the second coordinate corresponding to the first coordinate can be extracted based on the correlation coordinate information stored in advance, an arbitrary position on the stereoscopic image is specified by the index. It is possible to reduce the processing time from when the stereoscopic image is generated to when the stereoscopic image is generated.
本発明の画像処理装置において、縦視差補正手段は、複数の二次元画像の解像度を落として各二次元画像のそれぞれに対応する低解像度画像を生成する低解像度画像生成手段と、各低解像度画像間で対応する所定の領域に基づいて、当該所定の領域に対応する対応領域を、各低解像度画像に対応する二次元画像からそれぞれ抽出する対応領域抽出手段と、各低解像度画像に対応する高解像度画像である二次元画像の対応領域間における相関座標を決定する相関座標決定手段と、相関座標に基づいて、立体視画像上の座標を決定する立体視画像座標決定手段とを含んで構成させることが好ましい。 In the image processing apparatus of the present invention, the vertical parallax correction unit includes a low-resolution image generation unit that generates a low-resolution image corresponding to each two-dimensional image by reducing the resolution of the plurality of two-dimensional images, and each low-resolution image. A corresponding region extracting unit that extracts a corresponding region corresponding to the predetermined region from a two-dimensional image corresponding to each low-resolution image based on a predetermined region corresponding to each other, and a high-level corresponding to each low-resolution image A correlation coordinate determination unit that determines correlation coordinates between corresponding regions of a two-dimensional image that is a resolution image, and a stereoscopic image coordinate determination unit that determines coordinates on the stereoscopic image based on the correlation coordinates are configured. It is preferable.
このようにすれば、解像度を落として縦視差の影響を軽減させた各低解像度画像間で対応する所定の領域に基づいて、この各所定の領域に対応する二次元画像上の対応領域が抽出されるため、各二次元画像間で対応する領域を、高解像度画像である二次元画像から直接抽出する場合に比して、抽出後の各二次元画像の領域間における縦視差を軽減させることができる。また、このような縦視差が軽減された後の各対応領域に基づいて、各対応領域間における相関座標が決定され、この相関座標に基づいて、立体視画像上の座標が決定されるため、縦視差がより軽減された立体視画像を生成させることが可能となる。さらに、各二次元画像の対応領域間における相関座標を決定することで縦視差を補正することができるため、各二次元画像の全領域間における相関座標を決定する場合に比して、処理時間を大幅に削減することができる。 In this way, a corresponding region on the two-dimensional image corresponding to each predetermined region is extracted based on a predetermined region corresponding to each low resolution image with reduced resolution and reduced influence of vertical parallax. Therefore, the vertical parallax between the two-dimensional image regions after extraction can be reduced compared to the case where the corresponding regions between the two-dimensional images are directly extracted from the two-dimensional image that is a high-resolution image. Can do. In addition, since the correlation coordinates between the corresponding areas are determined based on the corresponding areas after the reduction of the vertical parallax, the coordinates on the stereoscopic image are determined based on the correlation coordinates. A stereoscopic image with reduced vertical parallax can be generated. Furthermore, since the vertical parallax can be corrected by determining the correlation coordinates between the corresponding areas of each two-dimensional image, the processing time is longer than when determining the correlation coordinates between all areas of each two-dimensional image. Can be greatly reduced.
本発明の画像処理装置において、複数の二次元画像が、ラインセンサの撮影時における位置データおよび姿勢データに基づいて幾何補正される幾何補正画像であることが好ましい。このようにすれば、ラインセンサにより撮像された一次元画像群からなる複数の二次元画像を、位置データおよび姿勢データに基づいて幾何補正した後の幾何補正画像に基づいて、立体視画像を生成させることができる。 In the image processing apparatus of the present invention, it is preferable that the plurality of two-dimensional images are geometrically corrected images that are geometrically corrected based on position data and posture data at the time of photographing by the line sensor. In this way, a stereoscopic image is generated based on a geometrically corrected image obtained by geometrically correcting a plurality of two-dimensional images composed of a one-dimensional image group captured by the line sensor based on position data and posture data. Can be made.
本発明の画像処理装置において、複数の二次元画像のいずれか一の二次元画像が、各二次元画像間における相関座標同士の縦視差に基づいて幾何補正される幾何補正画像であることが好ましい。このようにすれば、縦視差の発生要因となる誤差を多く含むデータ(例えばラインセンサの撮影時における位置データおよび姿勢データ)を用いることなく、立体視画像を生成させることができる。 In the image processing apparatus of the present invention, any one of the plurality of two-dimensional images is preferably a geometrically corrected image that is geometrically corrected based on the vertical parallax between the correlation coordinates between the two-dimensional images. . In this way, it is possible to generate a stereoscopic image without using data including many errors that cause vertical parallax (for example, position data and orientation data at the time of shooting by the line sensor).
また、本発明の画像処理装置は、撮影方向が異なる複数のラインセンサを空中で移動させながら撮像した一次元画像群からなる複数の二次元画像に基づいて、左目用の画像および右目用の画像からなる立体視画像を画面上に表示させる画像処理装置であって、立体視画像上に指標を表示させる指標表示手段と、立体視画像を画面上に表示させる表示手段とを備え、表示手段は、指標が立体視画像上に設定されると、複数の二次元画像間に生じる縦方向の視差である縦視差が補正された後の複数の二次元画像に基づく立体視画像を画面上に表示させ、当該立体視画像を立体的に見せることを特徴とする。 The image processing apparatus according to the present invention also includes a left-eye image and a right-eye image based on a plurality of two-dimensional images composed of a one-dimensional image group captured while moving a plurality of line sensors having different shooting directions in the air. An image processing apparatus for displaying a stereoscopic image comprising: an index display means for displaying an index on a stereoscopic image; and a display means for displaying a stereoscopic image on the screen. When the index is set on the stereoscopic image, the stereoscopic image based on the plurality of two-dimensional images after correcting the vertical parallax that is the vertical parallax generated between the plurality of two-dimensional images is displayed on the screen. The stereoscopic image is displayed in a three-dimensional manner.
この発明によれば、様々な要因により縦視差が生じた複数の二次元画像に基づく立体視画像を表示させる場合であっても、表示手段により、縦視差が補正された後の複数の二次元画像に基づく立体視画像が、画面上に立体的に表示される。 According to the present invention, even when displaying a stereoscopic image based on a plurality of two-dimensional images in which vertical parallax has occurred due to various factors, a plurality of two-dimensional images after the vertical parallax has been corrected by the display means A stereoscopic image based on the image is stereoscopically displayed on the screen.
本発明に係る画像処理装置によれば、縦視差をより軽減させた立体視画像を生成させることができる。 The image processing apparatus according to the present invention can generate a stereoscopic image with reduced vertical parallax.
以下、本発明に係る画像処理装置の各実施形態を図面に基づき説明する。なお、各図において、同一要素には同一符号を付して重複する説明を省略する。 Hereinafter, embodiments of an image processing apparatus according to the present invention will be described with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted.
[第1実施形態]
まず、本発明の第1実施形態について説明する。本実施形態における画像処理装置は、撮影方向が異なる複数のラインセンサにより撮像された一次元画像群からなる複数の二次元画像に基づいて立体視画像を生成し、この生成した立体視画像を画面上に表示する装置である。ここで、本実施形態においては、撮影方向が異なる複数のラインセンサとして、スリーラインスキャナ(TLS)を構成するラインセンサ(カメラ)を用いることとする。ラインセンサは、複数の画素を一次元に配列したものであり、各ラインセンサは、ヘリコプター等の飛翔体の進行方向に対して垂直となる方向を長手方向として所定の間隔をあけて配置される。
[First embodiment]
First, a first embodiment of the present invention will be described. The image processing apparatus according to the present embodiment generates a stereoscopic image based on a plurality of two-dimensional images composed of a one-dimensional image group captured by a plurality of line sensors having different shooting directions, and displays the generated stereoscopic image on a screen. It is a device that displays on top. Here, in the present embodiment, a line sensor (camera) constituting a three-line scanner (TLS) is used as a plurality of line sensors having different shooting directions. The line sensor is a plurality of pixels arranged in a one-dimensional manner, and each line sensor is arranged at a predetermined interval with a direction perpendicular to the traveling direction of a flying object such as a helicopter as a longitudinal direction. .
図1は、建物上のある点Qを撮影する瞬間における各ラインセンサの位置を示している。図1に示すように、第1のラインセンサA1は、飛翔体の進行方向(図1の矢印da)に対して前寄りの下方向(図1の矢印db)に建物上の点Qを捉える。第2のラインセンサA2は、飛翔体の直下方向(図1の矢印dc)に建物上の点Qを捉える。第3のラインセンサA3は、飛翔体の進行方向に対して後寄りの下方向(図1の矢印dd)に建物上の点Qを捉える。すなわち、第1のラインセンサA1により撮像された一次元画像群に基づいて前方視画像が生成され、第2のラインセンサA2により撮像された一次元画像群に基づいて直下視画像が生成され、第3のラインセンサA3により撮像された一次元画像群に基づいて後方視画像が生成される。 FIG. 1 shows the position of each line sensor at the moment of photographing a certain point Q on the building. As shown in FIG. 1, the first line sensor A1 captures a point Q on the building in a forward downward direction (arrow db in FIG. 1) with respect to the traveling direction of the flying object (arrow da in FIG. 1). . The second line sensor A2 captures the point Q on the building in the direction directly below the flying object (arrow dc in FIG. 1). The third line sensor A3 captures the point Q on the building in a downward downward direction (arrow dd in FIG. 1) closer to the traveling direction of the flying object. That is, a forward view image is generated based on the one-dimensional image group captured by the first line sensor A1, and a nadir view image is generated based on the one-dimensional image group captured by the second line sensor A2. A rear view image is generated based on the one-dimensional image group captured by the third line sensor A3.
本実施形態においては、一次元画像群からなる二次元画像として、前方視画像、直下視画像および後方視画像を用いることとする。また、これらの前方視画像、直下視画像および後方視画像から2種類の二次元画像を選択し、この選択した2種類の二次元画像に基づいて立体視画像を生成する。さらに、二次元画像は、土地を被膜する建物や植生を含めた地表データ(DSM:Digital Surface Model)であってもよいし、建物や植生を含まない地表データ(DTM:Digital Terrain Model)であってもよい。 In the present embodiment, a front-view image, a direct-view image, and a rear-view image are used as a two-dimensional image composed of a one-dimensional image group. Further, two types of two-dimensional images are selected from these forward-view images, direct-view images, and rear-view images, and a stereoscopic image is generated based on the selected two types of two-dimensional images. Furthermore, the two-dimensional image may be ground surface data (DSM: Digital Surface Model) including buildings and vegetation covering the land, or ground surface data (DTM: Digital Terrain Model) not including buildings and vegetation. May be.
図2は、本実施形態における画像処理装置1の機能構成を例示する図である。図2に示すように、画像処理装置1は、幾何補正部10と、立体視部20と、縦視差補正部30(縦視差補正手段)と、表示部40(表示手段)と、指標表示部50(指標表示手段)とを有する。画像処理装置1は、上述した各部における処理に用いられる各種情報をデータベースに格納しており、このようなデータベースとして、例えば、飛行軌跡データベース60および相関座標情報データベース70(記憶手段)がある。
FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus 1 in the present embodiment. As shown in FIG. 2, the image processing apparatus 1 includes a
ここで、飛行軌跡データベース60は、データ項目として、例えば、画像座標(x,y)、撮影時におけるラインセンサの位置(X,Y,Z)、撮影時におけるラインセンサの姿勢角(ω,φ,κ)、および撮影時刻(t)を有する。画像座標(x,y)のx成分はラインセンサのライン番号であり、y成分は画素番号である。
Here, the
また、相関座標情報データベース70には、各二次元画像間における相関座標に関する相関座標情報が格納されている。具体的に説明すると、相関座標情報は、前方視画像、直下視画像および後方視画像の各画像間において相関関係のある画像座標を組にして対応づけた情報である。相関座標情報データベース70には、後述する画像マッチング部33によって実行される前方視画像、直下視画像および後方視画像の各画像間におけるマッチング処理で求められた相関座標情報が予め登録されている。
The correlation coordinate
幾何補正部10は、ラインセンサにより撮像された一次元画像群からなる2種類の二次元画像、撮影時におけるラインセンサの位置(X,Y,Z)、および撮影時におけるラインセンサの姿勢角(ω,φ,κ)に基づいて、各二次元画像の幾何補正画像を生成する。
The
図3は、幾何補正部10により、二次元画像と、位置・姿勢データを含む飛行軌跡データとに基づいて幾何補正画像が生成される過程を模式した図である。L1は、飛行軌跡データに基づく飛行軌跡ラインであり、L2は、実際に飛翔体が飛行した理想的な飛行軌跡ラインである。G1は、一次元画像群からなる二次元画像であり、H1は、平均地盤高に設けた水平面である平均地盤高平面であり、G2は、二次元画像G1を平均地盤高平面H1に投影した後の投影画像である。H2は、幾何補正画像平面であり、G3は、投影画像G2を幾何補正画像平面H2に投影した後の幾何補正画像である。L3は、幾何補正画像G3上の準エピポーラ直線である。
FIG. 3 is a diagram schematically illustrating a process in which a geometric correction image is generated by the
まず、幾何補正部10は、図3に示す二次元画像G1上の各画素を、それぞれの画素が属する一次元画像に対応する位置・姿勢データを用いることにより、次式に基づいて平均地盤高平面H1に投影する。すなわち、二次元画像G1に基づいて平均地盤高平面H1への投影画像G2を生成する。
ここで、上式の“Z0”は平均地盤高であり、(XN,YN,ZN)は一次元画像の撮影時におけるラインセンサの位置座標であり、(r11,r12,・・・,r33)は一次元画像の撮影時におけるラインセンサの姿勢角である。また、(XP,YP)は平均地盤高平面H1に投影された投影画像G2上にある画素の水平座標であり、(xP,yP)は二次元画像G1上にある画素の水平座標であり、fはラインセンサの焦点距離である。 Here, “Z 0 ” in the above equation is the average ground height, (X N , Y N , Z N ) is the position coordinates of the line sensor at the time of capturing a one-dimensional image, and (r 11 , r 12 , .., R 33 ) is the attitude angle of the line sensor at the time of taking a one-dimensional image. (X P , Y P ) is the horizontal coordinate of the pixel on the projection image G2 projected on the average ground height plane H1, and (x P , y P ) is the horizontal coordinate of the pixel on the two-dimensional image G1. Is the coordinate, and f is the focal length of the line sensor.
次に、幾何補正部10は、図3に示す理想的な飛行軌跡ラインL2を以下のようにして求める。(1)飛行軌跡ラインL2に対応する姿勢角r’である(ω’N,φ’N,κ’N)のうち、“ω’N”と“φ’N”を0に設定し、“κ’N”には飛行軌跡ラインL1に対応する姿勢角rの一要素である“κN”の平均値を設定する。(2)飛行軌跡ラインL2の位置データ(X’N,Y’N,Z’N)は、飛行軌跡ラインL1の水平位置(XN,YN)に近似する直線であり、飛行軌跡ラインL1の平均飛行高(ZN)により表される直線となるように設定する。(3)ラインセンサの焦点距離f等の内部標定パラメタはそのまま変更せずに保持する。
Next, the
次に、幾何補正部10は、上述した(1)〜(3)の条件にしたがって求められた飛行軌跡ラインL2の位置データ(X’N,Y’N,Z’N)および姿勢角(r’11,r’12,・・・,r’33)を用いて、もう一方の幾何補正画像とほぼエピポーラ関係を有する幾何補正画像G3を生成する。すなわち、図3に示す平均地盤高平面H1に投影した投影画像G2上の各画素を、飛行軌跡ラインL2の位置・姿勢データを用いることにより、次式に基づいて幾何補正画像平面H2上に投影する。
なお、上式に基づいて投影された幾何補正画像G3上の各画素は、幾何補正画像G3内でリサンプリングされて不規則に分布するとともに、二次元画像G1内における対応画素と同じ画素値を有する。 Each pixel on the geometric correction image G3 projected based on the above formula is resampled in the geometric correction image G3 and irregularly distributed, and has the same pixel value as the corresponding pixel in the two-dimensional image G1. Have.
立体視部20は、幾何補正部10により生成された2種類の幾何補正画像に基づいて立体視画像を生成する。
The
縦視差補正部30は、各二次元画像間に生じる縦視差を補正する縦視差補正処理を行う。すなわち、前方視画像、直下視画像および後方視画像の各画像間に生じる縦視差を補正する。具体的に説明すると、画面上に表示された立体視画像上にある任意の点がメスマーク(指標)により選択され決定(設定)されると、このメスマークにより特定された点を基準にして、各二次元画像間に生じる縦視差を補正する。なお、メスマークにより特定されるのは、点に限られず、線や所定の領域であってもよい。すなわち、縦視差補正処理の基準となる位置が特定されればよい。縦視差補正部30は、縦視差が補正された後の2種類の二次元画像に対応する幾何補正画像に基づいて立体視画像を生成する。すなわち、縦視差が補正された後の2種類の幾何補正画像を左右それぞれの目で見ることで立体的に見える立体視画像を生成する。
The vertical
縦視差補正部30は、逆投影部31(第1の座標決定手段)と、画像マッチング部33(第2の座標決定手段)と、ステレオ計測部35(第3の座標決定手段)と、処理終了判断部37とを有する。
The vertical
逆投影部31は、メスマークにより特定された画面上の点に対応する地上座標を確定する。逆投影部31は、確定した地上座標を、各二次元画像のうち、後述する画像マッチング部33において行われるマッチング時の基準画像として用いられる二次元画像上に逆投影(バックプロジェクション)する。
The
画像マッチング部33は、逆投影部31により基準画像上に逆投影された座標(第1の座標)に対応する他の二次元画像上の座標(第2の座標)を決定する。すなわち、画像マッチング部33は、相関座標情報データベース70から、逆投影された座標に対応する他の二次元画像上の座標を抽出する。
The image matching unit 33 determines a coordinate (second coordinate) on another two-dimensional image corresponding to the coordinate (first coordinate) back-projected on the reference image by the
ここで、画像マッチングの手法の一例であるエリアマッチング(面積相関)法を用いて2種類の二次元画像間における相関座標を求める方法について説明する。エリアマッチング法では、各二次元画像の画素同士を比較して対応座標を決定するのではなく、注目している画素の周りを含む面(ウィンドウ)同士で比較することにより対応座標を決定する。具体的に説明すると、面の中にある座標それぞれについて両方の二次元画像中で差をとり、その差の合計が最小となる座標を対応座標とする。このようにして、2種類の二次元画像間の対応座標(相関座標情報)をランダムに決定する。 Here, a method for obtaining correlation coordinates between two types of two-dimensional images using an area matching (area correlation) method, which is an example of an image matching method, will be described. In the area matching method, pixels in each two-dimensional image are not compared with each other to determine the corresponding coordinates, but the corresponding coordinates are determined by comparison between surfaces (windows) including the periphery of the pixel of interest. More specifically, for each coordinate in the surface, a difference is taken in both two-dimensional images, and the coordinate having the smallest difference is defined as the corresponding coordinate. In this way, corresponding coordinates (correlation coordinate information) between two types of two-dimensional images are determined at random.
画像マッチング部33は、エリアマッチング法を用いて決定したランダムな相関座標情報を、図4に示す格子単位にリサンプリングする。ここで、図4に示すNは直下視画像であり、Fは前方視画像である。図4は、直下視画像N上の正方格子を基準にして、この正方格子を構成する各格子点が前方視画像F上ではどの位置に存在するのかを示す図である。エリアマッチング法により決定されたランダムな相関座標情報を、図4に示す格子を基準にしてリサンプリングすることによって、直下視画像N上の正方格子内にある座標NPの対応座標FPが、前方視画像F上の変形格子内における双一次内挿等によって瞬時に求めることが可能になる。 The image matching unit 33 resamples the random correlation coordinate information determined using the area matching method in units of lattices shown in FIG. Here, N shown in FIG. 4 is a direct view image, and F is a forward view image. FIG. 4 is a diagram showing in which position on the forward-view image F each lattice point constituting the square lattice is located with reference to a square lattice on the nadir image N. By re-sampling the random correlation coordinate information determined by the area matching method with reference to the lattice shown in FIG. 4, the corresponding coordinate FP of the coordinate NP in the square lattice on the nadir image N is forward-viewed. It can be obtained instantaneously by bilinear interpolation or the like in the deformation grid on the image F.
このようなエリアマッチングを行うことにより、第1の座標に対応する幾何補正画像上の座標と、第2の座標に対応する幾何補正画像上の座標との間には縦視差がほとんど生じなくなる。すなわち、両幾何補正画像は準エピポーラ関係を有することとなる。 By performing such area matching, vertical parallax hardly occurs between the coordinates on the geometric correction image corresponding to the first coordinates and the coordinates on the geometric correction image corresponding to the second coordinates. That is, both geometric correction images have a quasi-epipolar relationship.
なお、本実施形態における相関座標情報データベース70には、例えば、上述したエリアマッチングを用いて決定された各二次元画像間における相関座標情報が予め登録されている。したがって、画像マッチング部33は、メスマークで画面上の位置が特定された場合に、処理に多大な時間を要するマッチング処理をその都度行うことなく、相関座標情報データベース70から第1の座標に対応する第2の座標を取得することができる。すなわち、処理時間を大幅に削減することができる。
In the correlation coordinate
ステレオ計測部35は、画像マッチング部33により決定された相関座標情報と飛行軌跡データの位置・姿勢データとに基づいて、例えば、前方交会法等を含む三角測量により地上座標を求める。
Based on the correlation coordinate information determined by the image matching unit 33 and the position / orientation data of the flight trajectory data, the
処理終了判断部37は、メスマークで特定された点に対応する地物以外の全ての地物について縦視差補正処理が行われたか否かを判定する。処理終了判断部37は、全ての地物について縦視差補正処理が行われたと判定した場合に、縦視差補正処理を終了させる。
The process
表示部40は、立体視画像を画面上に表示させる。すなわち、立体視部20により生成された立体視画像や、縦視差補正部30により縦視差が補正された後の立体視画像を画面上に表示させる。具体的に説明すると、表示部40は、例えば、2種類の画像(立体視画像を構成する左目用の画像と右目用の画像)を、交互に高速に切り換えて一の画面上に表示させる。この場合に、ユーザは、立体視専用メガネをかけて画面を見ることにより、画面上に表示された画像を立体的に見ることができる。ここで、立体視専用メガネの左右それぞれのレンズ部分には、液晶シャッターが設けられている。この液晶シャッターを、2種類の画像の切り換えタイミングに同期させて交互に開閉させることにより、画面上に表示された画像を立体的に見せることが可能となる。
The
指標表示部50は、表示部40により表示された立体視画像上にメスマークを表示させる。
The
次に、図5ないし図7を参照して本実施形態における画像処理装置1の動作を説明する。まず、本実施形態における画像処理装置1において実行される画像処理の概要について図5を参照して説明する。ここで、画像処理が実行される前に、以下の処理が前処理として行われる。まず、ユーザの操作指示により、立体視の対象となる2種類の二次元画像(例えば、直下視画像と前方視画像)が選択される。次に、選択された直下視画像と前方視画像のうち、いずれか一方の画像が基準画像に設定される。これらの前処理が行われた後に図5に示す画像処理が開始される。 Next, the operation of the image processing apparatus 1 in this embodiment will be described with reference to FIGS. First, an overview of image processing executed in the image processing apparatus 1 according to the present embodiment will be described with reference to FIG. Here, before the image processing is executed, the following processing is performed as preprocessing. First, two types of two-dimensional images (for example, a nadir view image and a forward view image) to be stereoscopically viewed are selected according to a user operation instruction. Next, one of the selected direct-view image and forward-view image is set as the reference image. After these pre-processing is performed, the image processing shown in FIG. 5 is started.
まず、幾何補正部10は、直下視画像、前方視画像および飛行軌跡データに基づいて、それぞれの画像に対応する幾何補正画像を生成する(ステップS1)。
First, the
次に、立体視部20は、ステップS1において生成された2種類の幾何補正画像に基づいて立体視画像を生成する。これにより、表示部40は、立体視部20により生成された立体視画像を画面上に表示させる(ステップS2)。
Next, the
次に、縦視差補正部30は、立体視画像上にある任意の点がメスマークで特定されたか否かを判定する(ステップS3)。この判定の結果がNOである場合(ステップS3;NO)に、処理はステップS3に移行する。すなわち、ステップS3の判定において、判定の結果がYESになるまでステップS3の判定が繰り返される。
Next, the vertical
一方、ステップS3の判定において、立体視画像上にある任意の点がメスマークで特定されたと判定された場合(ステップS3;YES)に、縦視差補正部30は、直下視画像と前方視画像との間に生じる縦視差を補正するための縦視差補正処理を行う(ステップS4)。この縦視差補正処理の詳細については後述する。縦視差補正処理が行われた後に、表示部40は、縦視差が補正された後の立体視画像を画面上に表示させる(ステップS5)。なお、実際の画像処理においては、ステップS5で縦視差が補正された後の立体視画像が画面上に表示された後は、再度ステップS3以降の処理が繰り返されることとなる。そして、ユーザの操作指示により終了指示が入力された場合に、上述した画像処理が終了する。
On the other hand, when it is determined in step S3 that an arbitrary point on the stereoscopic image is specified by the female mark (step S3; YES), the vertical
次に、図6および図7を参照して上述したステップS4(図5参照)において行われる縦視差補正処理について説明する。ここで、図7に示すNは直下視画像であり、Fは前方視画像である。Ngは直下視画像Nの幾何補正画像であり、Fgは前方視画像Fの幾何補正画像である。Mはメスマークであり、P1は地上座標を示し、P2は地上座標P1が直下視画像N上に逆投影された座標を示し、P3は直下視画像座標P2に対応する前方視画像F上の座標を示す。P4は直下視画像座標P2に対応する幾何補正画像Ng上の座標を示し、P5は前方視画像座標P3に対応する幾何補正画像Fg上の座標を示す。 Next, the vertical parallax correction process performed in step S4 (see FIG. 5) described above with reference to FIGS. 6 and 7 will be described. Here, N shown in FIG. 7 is a direct view image, and F is a forward view image. Ng is a geometrically corrected image of the nadir image N, and Fg is a geometrically corrected image of the forward image F. M is a female mark, P1 indicates the ground coordinates, P2 indicates the coordinates on which the ground coordinates P1 are back-projected on the nadir image N, and P3 is the coordinates on the forward image F corresponding to the nadir image coordinates P2. Indicates. P4 indicates the coordinates on the geometric correction image Ng corresponding to the nadir view image coordinate P2, and P5 indicates the coordinates on the geometric correction image Fg corresponding to the forward view image coordinate P3.
まず、逆投影部31は、メスマークMにより特定された画面上の点に対応する地上座標P1を確定し(ステップS11)、この地上座標P1を、基準画像である直下視画像N上に逆投影する(ステップS12)。これにより、直下視画像N上の座標P2が求まる。
First, the
次に、画像マッチング部33は、直下視画像座標P2に対応する前方視画像F上の座標を決定するために、相関座標情報データベース70から直下視画像座標P2に対応する前方視画像座標P3を抽出する(ステップS13)。すなわち、エリアマッチングにより直下視画像座標P2に対応する座標として決定された前方視画像座標P3が、相関座標情報データベース70から抽出される。なお、図7に示すように、直下視画像座標P2に対応する幾何補正画像Ng上の座標P4と、前方視画像座標P3に対応する幾何補正画像Fg上の座標P5との間には縦視差がほとんど発生しない。
Next, the image matching unit 33 determines, from the correlation coordinate
次に、ステレオ計測部35は、画像マッチング部33により対応づけられた直下視画像座標P2と前方視画像座標P3、および飛行軌跡データの位置・姿勢データに基づいて、前方交会法を用いて地上座標を求める(ステップS14)。
Next, the
次に、処理終了判断部37は、メスマークで特定された点に対応する地物以外の全ての地物について上述した縦視差補正処理が行われたか否かを判定する(ステップS15)。この判定がNOである場合(ステップS15;NO)には、処理をステップS11に移行する。すなわち、全ての地物について縦視差補正処理が行われるまで、上述したステップS11からステップS14までの処理を繰り返す。
Next, the processing
一方、ステップS15の判定において、メスマークで特定された点に対応する地物以外の全ての地物について上述した縦視差補正処理が行われたと判定された場合(ステップS15;YES)には、縦視差補正処理を終了する。 On the other hand, if it is determined in step S15 that the vertical parallax correction process described above has been performed for all features other than the feature corresponding to the point specified by the female mark (step S15; YES), The parallax correction process ends.
上述した第1実施形態における画像処理装置1では、ステレオ計測部35が、逆投影部31により基準画像上に逆投影された座標と、画像マッチング部33により決定された他の二次元画像上の座標とに基づいて、地上座標を求めているため、縦視差がより軽減された立体視画像を生成させることが可能となる。
In the above-described image processing apparatus 1 according to the first embodiment, the
また、上述した第1実施形態における画像処理装置1では、相関座標情報データベース70に記憶された相関座標情報に基づいて、逆投影部31により基準画像上に逆投影された座標に対応する他の二次元画像上の座標を抽出させることができるため、立体視画像上にある任意の位置がメスマークで特定されてから立体視画像が生成されるまでの処理時間を短縮させることが可能となる。
Further, in the image processing apparatus 1 according to the first embodiment described above, based on the correlation coordinate information stored in the correlation coordinate
なお、上述した第1実施形態においては、画像マッチングを行う際に、相関座標情報データベース70を用いて対応点を決定しているが、必ずしも相関座標情報データベース70を用いる必要はない。すなわち、メスマークで画面上の点が特定されるごとに、基準二次元画像上に逆投影された座標に基づいて画像マッチングを実行し、他の二次元画像上に存在する対応座標を求めることとしてもよい。
In the first embodiment described above, when image matching is performed, corresponding points are determined using the correlation coordinate
[第2実施形態]
次に、本発明の第2実施形態について説明する。まず、図8を参照して第2実施形態における画像処理装置2の機能構成について説明する。図8に示す第2実施形態における画像処理装置2の機能構成が、第1実施形態における画像処理装置1の機能構成と異なる点は、第2実施形態における縦視差補正部30Sの機能構成の一部が、第1実施形態における縦視差補正部30の機能構成の一部と異なる点、および第2実施形態における画像処理装置2が相関座標情報データベース70を備えていない点である。したがって、それ以外の機能構成は、第1実施形態における画像処理装置1の機能構成と同様であるため、各構成要素には同一の符合を付しその説明は省略すると共に、以下において第1実施形態との相違点について詳述する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. First, the functional configuration of the
図8に示すように、第2実施形態における画像処理装置2の縦視差補正部30Sは、低解像度画像生成部38(低解像度画像生成手段)と、対応領域抽出部39(対応領域抽出手段)と、画像マッチング部33S(相関座標決定手段)と、ステレオ計測部35S(立体視画像座標決定手段)とを有する。
As shown in FIG. 8, the vertical
低解像度画像生成部38は、立体視画像の対象となる複数の二次元画像の解像度を落として、各二次元画像に対応する低解像度画像を生成する。すなわち、低解像度画像生成部38は、例えば、前方視画像、直下視画像および後方視画像の解像度を落として、前方視画像の低解像度画像と、直下視画像の低解像度画像と、後方視画像の低解像度画像とを生成する。
The low-resolution
このように、低解像度画像を生成することによって、高解像度画像間で顕著に生じていた縦視差を、低解像度画像間では軽減させることが可能となる。 Thus, by generating a low-resolution image, it is possible to reduce the vertical parallax that was noticeably generated between the high-resolution images between the low-resolution images.
対応領域抽出部39は、低解像度画像生成部38により生成された各低解像度画像間で対応する所定の領域に基づいて、この各所定の領域に対応する対応領域を、各低解像度画像に対応する二次元画像からそれぞれ抽出する。低解像度画像間で対応する所定の領域としては、例えば、メスマークにより特定された画面上の点に対応する各低解像度画像上の点の周辺領域が該当する。したがって、例えば、メスマークにより画面上の点が特定された場合に、対応領域抽出部39は、直下視画像の低解像度画像上からメスマークに対応する領域を抽出し、この抽出した領域に対応する直下視画像上の領域を、対応領域として直下視画像から抽出する。これと同様にして、前方視画像または後方視画像からも対応領域を抽出する。なお、メスマークにより特定された画面上の点に対応する低解像度画像上の点を求める方法としては、例えば、メスマークにより特定された画面上の点に対応する地上座標を確定し、この確定した地上座標を低解像度画像上に逆投影する方法がある。
The corresponding
このように、解像度を落として縦視差の影響を軽減させた各低解像度画像間で対応する所定の領域(メスマークにより特定された点に対応する各領域)に基づいて、二次元画像上から対応領域を抽出することによって、各二次元画像間で対応する領域を高解像度画像である二次元画像から直接抽出する場合に比して、抽出後の各二次元画像の領域間における縦視差をより軽減させることが可能となる。 In this way, based on a predetermined area (each area corresponding to a point specified by a female mark) corresponding to each low-resolution image with reduced resolution and reduced influence of vertical parallax, it can be handled from the two-dimensional image By extracting the regions, the vertical parallax between the regions of each two-dimensional image after extraction is greater than when the corresponding region between each two-dimensional image is extracted directly from the two-dimensional image that is a high-resolution image. It becomes possible to reduce.
画像マッチング部33Sは、対応領域抽出部39により抽出された各対応領域間において相関関係にある相関座標を決定する。すなわち、画像マッチング部33は、例えば、エリアマッチング(面積相関)法を用いて2種類の対応領域間における相関座標を求める。このエリアマッチング法については、第1実施形態において説明したエリアマッチング法と同様であるため説明を省略する。
The image matching unit 33S determines correlation coordinates that are correlated between the corresponding regions extracted by the corresponding
このように、相関座標を決定する際の比較対象を、二次元画像の対応領域のみに限定することができるため、二次元画像の全領域を比較対象とする場合に比して、処理時間を大幅に削減させることができる。 As described above, since the comparison target when determining the correlation coordinates can be limited only to the corresponding region of the two-dimensional image, the processing time can be reduced as compared with the case where the entire region of the two-dimensional image is the comparison target. It can be greatly reduced.
ステレオ計測部35Sは、画像マッチング部33Sにより決定された相関座標に基づいて、立体視画像上の座標を決定する。すなわち、ステレオ計測部35Sは、画像マッチング部33Sにより決定された相関座標情報と飛行軌跡データの位置・姿勢データとに基づいて、例えば、前方交会法等を含む三角測量により地上座標を求める。
The
このように、縦視差が軽減された後の各対応領域間における相関座標に基づいて、立体視画像上の座標が決定されるため、縦視差がより軽減された立体視画像を生成させることが可能となる。 As described above, since the coordinates on the stereoscopic image are determined based on the correlation coordinates between the corresponding regions after the reduction of the vertical parallax, it is possible to generate a stereoscopic image with further reduced vertical parallax. It becomes possible.
次に、図9を参照して第2実施形態における画像処理装置2において行われる縦視差補正処理(図5のステップS4)について説明する。すなわち、基準画像として設定された直下視画像と、前方視画像との間に生じる縦視差を補正するための縦視差補正処理について説明する。なお、第2実施形態における画像処理装置2において実行される画像処理の概要は、第1実施形態における画像処理装置1において実行される画像処理の概要(図5参照)と同様であるため、その説明を省略する。
Next, the vertical parallax correction process (step S4 in FIG. 5) performed in the
まず、低解像度画像生成部38は、直下視画像および前方視画像の解像度を落として、直下視画像の低解像度画像および前方視画像の低解像度画像を生成する(ステップS21)。
First, the low-resolution
次に、対応領域抽出部39は、メスマークにより特定された画面上の点に対応する地上座標を確定し、この確定した地上座標を、直下視画像の低解像度画像上および前方視画像の低解像度画像上に逆投影する。そして、対応領域抽出部39は、直下視画像の低解像度画像上および前方視画像の低解像度画像上から、逆投影した点近傍の領域を抽出し、この抽出した各領域に対応する直下視画像上の領域および前方視画像上の領域を、対応領域として直下視画像および前方視画像から抽出する(ステップS22)。
Next, the corresponding
次に、画像マッチング部33Sは、対応領域抽出部39により抽出された直下視画像に対応する高解像度画像の対応領域と前方視画像に対応する高解像度画像の対応領域との間における相関座標を、エリアマッチング(面積相関)法を用いて決定する(ステップS23)。
Next, the image matching unit 33S calculates the correlation coordinates between the corresponding region of the high resolution image corresponding to the nadir view image extracted by the corresponding
次に、ステレオ計測部35Sは、画像マッチング部33Sにより決定された相関座標、および飛行軌跡データの位置・姿勢データに基づいて、前方交会法を用いて地上座標を求める(ステップS24)。これにより、縦視差補正処理は終了する。
Next, the
以上のように、上述した各実施形態における画像処理装置1,2では、縦視差補正部30,30Sにより2種類の二次元画像間に生じる縦視差を補正することができるため、様々な要因により縦視差が生じた複数の二次元画像に基づいて立体視画像を生成する場合であっても、縦視差をより軽減させた立体視画像を生成させることが可能となる。
As described above, in the
また、上述した各実施形態における画像処理装置1,2では、縦視差補正部30,30Sが、指標表示部50により表示されたメスマークにより特定された位置を基準にして縦視差を補正するため、立体視画像上にある任意の位置がメスマークで特定されるたびに、縦視差が補正された後の立体視画像を画面上に表示させることができる。
Further, in the
以上で説明したように、上述した各実施形態における画像処理装置1,2は、従来実現することが困難であるとされた縦視差補正を可能とした。従来の画像処理技術においては、縦視差が生じた複数の二次元画像に基づいて立体視画像を生成しようとしても、縦視差の影響によりエピポーラ線が一致しないため、二次元画像間でのマッチングがうまく行えなかった。したがって、手作業で縦視差を除去する必要があった。しかしながら、手作業で縦視差を除去する場合であっても、道路縁を連続的に取得することや、等高線を取得することには困難を要していた。その結果、良好な計測精度が得られなかった。
As described above, the
これに対して上述した各実施形態における画像処理装置1,2では、エリアマッチングを用いることにより、基準画像である直下視画像上の座標に対応する前方視画像または後方視画像上の座標(相関座標情報)が、エピポーラ線に関係なく決定されるため、この対応する座標に基づいてステレオ計測することによって、縦視差が補正された後の立体視画像を生成することができる。
On the other hand, in the
なお、上述した各実施形態においては、縦視差補正を行う際に、幾何補正部10により生成された2種類の幾何補正画像に基づいて縦視差補正を行っているが、縦視差補正を行う対象となる二次元画像は、幾何補正部10により生成された2種類の幾何補正画像に限られない。例えば、図10に示す二次元画像と、他の二次元画像とに基づいて、図11に示す幾何補正画像を生成し、この図11に示す幾何補正画像と、他の二次元画像とに基づいて上述した縦視差補正処理を行うこととしてもよい。
In each of the above-described embodiments, when performing vertical parallax correction, vertical parallax correction is performed based on two types of geometric correction images generated by the
図10は、2種類の二次元画像(例えば、前方視画像および直下視画像)に基づいて立体視画像を生成する場合に、何れか一方の二次元画像における画素の配列状態を示すグラフである。また、図11は、図10に示す二次元画像を幾何補正して後の幾何補正画像における画素の配列状態を示すグラフである。以下の説明においては、説明の便宜のため、図10に示すグラフを、前方視画像における画素の配列状態を示すグラフであることとし、図11に示すグラフを、前方視画像の幾何補正画像における画素の配列状態を示すグラフであることとする。図10および図11に示すグラフのX軸はラインセンサのライン番号を示し、Y軸は画素番号を示す。 FIG. 10 is a graph showing an arrangement state of pixels in one of the two-dimensional images when generating a stereoscopic image based on two types of two-dimensional images (for example, a forward-view image and a direct-view image). . FIG. 11 is a graph showing a pixel arrangement state in the geometrically corrected image after geometric correction of the two-dimensional image shown in FIG. In the following description, for convenience of explanation, the graph shown in FIG. 10 is a graph showing the pixel arrangement state in the forward-view image, and the graph shown in FIG. 11 is shown in the geometrically corrected image of the forward-view image. It is assumed that the graph shows the pixel arrangement state. 10 and 11, the X axis indicates the line number of the line sensor, and the Y axis indicates the pixel number.
ここで、図10に示す前方視画像が、図11に示す幾何補正画像に変換される手順((1)〜(3))について説明する。(1) 前方視画像と直下視画像間における相関座標をライン番号ごとに決定する。(2) (1)で決定された相関座標間の縦視差をライン番号ごとに算出する。(3) (2)で算出された縦視差に基づいて、当該縦視差に対応するライン番号の画素列を縦視差分だけY方向にシフトする。上述した手順により変換された幾何補正画像(図11参照)は、縦視差の発生要因となる誤差を多く含む位置・姿勢データを用いることなく生成される。したがって、このような幾何補正画像を用いて、上述した実施形態における縦視差補正処理を行うことにより、縦視差をより一層軽減させた立体視画像を生成することができる。 Here, the procedure ((1) to (3)) for converting the forward-view image shown in FIG. 10 into the geometrically corrected image shown in FIG. 11 will be described. (1) The correlation coordinates between the forward view image and the nadir view image are determined for each line number. (2) The vertical parallax between the correlation coordinates determined in (1) is calculated for each line number. (3) Based on the vertical parallax calculated in (2), the pixel column of the line number corresponding to the vertical parallax is shifted in the Y direction by the vertical parallax. The geometrically corrected image (see FIG. 11) converted by the above-described procedure is generated without using position / posture data including many errors that cause vertical parallax. Therefore, a stereoscopic image in which the vertical parallax is further reduced can be generated by performing the vertical parallax correction process in the above-described embodiment using such a geometrically corrected image.
また、上述した実施形態においては、表示部40が、2種類の画像を交互に高速に切り換えて一の画面上に表示させることによって、立体視画像を立体的に見せているが、立体視画像を立体的に見せる手段はこれに限られない。例えば、立体視画像を表示する画面部分に液晶シャッターを設け、画面上に表示させる2種類の画像を、それぞれ垂直および水平の偏光面を有する画像に変換して交互に画面上に表示させることとしてもよい。この場合に、ユーザは、偏光メガネをかけて画面を見ることにより、画面上に表示された画像を立体的に見ることができる。また、例えば、左目専用の表示画面と右目専用の表示画面とを有するゴーグルタイプの表示装置において、立体視画像を構成する左目用の画像と右目用の画像とをそれぞれの表示画面に表示することで立体的に見せることとしてもよい。
In the above-described embodiment, the
1,2・・・画像処理装置、10・・・幾何補正部、20・・・立体視部、30,30S・・・縦視差補正部、31・・・逆投影部、33,33S・・・画像マッチング部、35,35S・・・ステレオ計測部、37・・・処理終了判断部、38・・・低解像度画像生成部、39・・・対応領域抽出部、40・・・表示部、50・・・指標表示部、60・・・飛行軌跡データベース、70・・・相関座標情報データベース。
DESCRIPTION OF
Claims (8)
前記複数の二次元画像間に生じる縦方向の視差である縦視差を補正する縦視差補正手段を備え、
前記縦視差補正手段により前記縦視差が補正された後の画像に基づいて前記立体視画像を生成することを特徴とする画像処理装置。 An image processing apparatus that generates a stereoscopic image based on a plurality of two-dimensional images composed of one-dimensional image groups captured by a plurality of line sensors having different shooting directions,
Vertical parallax correction means for correcting vertical parallax, which is vertical parallax generated between the plurality of two-dimensional images,
An image processing apparatus that generates the stereoscopic image based on an image after the vertical parallax is corrected by the vertical parallax correction unit.
前記表示手段により表示された前記立体視画像上に指標を表示させる指標表示手段とをさらに備え、
前記縦視差補正手段は、前記指標により前記立体視画像上にある任意の位置が特定されるたびに、前記縦視差を補正することを特徴とする請求項1記載の画像処理装置。 Display means for displaying the stereoscopic image on a screen;
Index display means for displaying an index on the stereoscopic image displayed by the display means,
The image processing apparatus according to claim 1, wherein the vertical parallax correction unit corrects the vertical parallax every time an arbitrary position on the stereoscopic image is specified by the index.
前記複数の二次元画像のいずれか一の二次元画像を基準画像とし、当該基準画像上の座標を第1の座標として決定する第1の座標決定手段と、
前記複数の二次元画像のうち前記基準画像以外の二次元画像から、前記第1の座標決定手段により決定された第1の座標に対応する第2の座標を決定する第2の座標決定手段と、
前記第1の座標および前記第2の座標に基づいて、前記立体視画像上の座標を決定する第3の座標決定手段とを含んで構成されることを特徴とする請求項1または2記載の画像処理装置。 The vertical parallax correction means includes
A first coordinate determining means for determining any one of the plurality of two-dimensional images as a reference image and determining a coordinate on the reference image as a first coordinate;
Second coordinate determining means for determining a second coordinate corresponding to the first coordinate determined by the first coordinate determining means from a two-dimensional image other than the reference image among the plurality of two-dimensional images; ,
The third coordinate determining unit that determines coordinates on the stereoscopic image based on the first coordinates and the second coordinates, and comprising: a third coordinate determining unit that determines coordinates on the stereoscopic image. Image processing device.
前記第2の座標決定手段は、前記記憶手段により記憶された前記相関座標情報から、前記第1の座標に対応する前記第2の座標を抽出することにより前記第2の座標を決定することを特徴とする請求項3記載の画像処理装置。 Storage means for storing correlation coordinate information between the plurality of two-dimensional images;
The second coordinate determining means determines the second coordinates by extracting the second coordinates corresponding to the first coordinates from the correlated coordinate information stored in the storage means. The image processing apparatus according to claim 3, wherein:
前記複数の二次元画像の解像度を落として前記各二次元画像のそれぞれに対応する低解像度画像を生成する低解像度画像生成手段と、
前記各低解像度画像間で対応する所定の領域に基づいて、当該所定の領域に対応する対応領域を、前記各低解像度画像に対応する前記二次元画像からそれぞれ抽出する対応領域抽出手段と、
前記各低解像度画像に対応する高解像度画像である前記二次元画像の前記対応領域間における相関座標を決定する相関座標決定手段と、
前記相関座標に基づいて、前記立体視画像上の座標を決定する立体視画像座標決定手段とを含んで構成されることを特徴とする請求項1または2記載の画像処理装置。 The vertical parallax correction means includes
Low-resolution image generation means for generating a low-resolution image corresponding to each of the two-dimensional images by reducing the resolution of the plurality of two-dimensional images;
Based on a predetermined area corresponding to each of the low resolution images, a corresponding area extracting unit that extracts a corresponding area corresponding to the predetermined area from the two-dimensional image corresponding to each of the low resolution images;
Correlation coordinate determining means for determining correlation coordinates between the corresponding regions of the two-dimensional image which is a high resolution image corresponding to each of the low resolution images;
The image processing apparatus according to claim 1, further comprising: a stereoscopic image coordinate determining unit that determines coordinates on the stereoscopic image based on the correlation coordinates.
前記立体視画像上に指標を表示させる指標表示手段と、
前記立体視画像を画面上に表示させる表示手段とを備え、
前記表示手段は、前記指標が前記立体視画像上に設定されると、前記複数の二次元画像間に生じる縦方向の視差である縦視差が補正された後の前記複数の二次元画像に基づく前記立体視画像を画面上に表示させ、当該立体視画像を立体的に見せることを特徴とする画像処理装置。 Display on the screen a stereoscopic image consisting of an image for the left eye and an image for the right eye based on a plurality of two-dimensional images consisting of a group of one-dimensional images captured while moving a plurality of line sensors in different shooting directions in the air An image processing device for causing
Index display means for displaying an index on the stereoscopic image;
Display means for displaying the stereoscopic image on a screen,
When the indicator is set on the stereoscopic image, the display unit is based on the plurality of two-dimensional images after correcting vertical parallax that is vertical parallax generated between the plurality of two-dimensional images. An image processing apparatus that displays the stereoscopic image on a screen and makes the stereoscopic image appear stereoscopically.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004207783A JP2006033294A (en) | 2004-07-14 | 2004-07-14 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004207783A JP2006033294A (en) | 2004-07-14 | 2004-07-14 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006033294A true JP2006033294A (en) | 2006-02-02 |
Family
ID=35899128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004207783A Pending JP2006033294A (en) | 2004-07-14 | 2004-07-14 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006033294A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104735436A (en) * | 2014-12-29 | 2015-06-24 | 深圳超多维光电子有限公司 | Single camera three-dimensional imaging method and electronic device |
KR20200084974A (en) * | 2019-01-03 | 2020-07-14 | 단국대학교 산학협력단 | Method for estimation of depth of water using hyperspectral image |
KR20200084972A (en) * | 2019-01-03 | 2020-07-14 | 단국대학교 산학협력단 | Method for acquisition of hyperspectral image using an unmanned aerial vehicle |
-
2004
- 2004-07-14 JP JP2004207783A patent/JP2006033294A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104735436A (en) * | 2014-12-29 | 2015-06-24 | 深圳超多维光电子有限公司 | Single camera three-dimensional imaging method and electronic device |
KR20200084974A (en) * | 2019-01-03 | 2020-07-14 | 단국대학교 산학협력단 | Method for estimation of depth of water using hyperspectral image |
KR20200084972A (en) * | 2019-01-03 | 2020-07-14 | 단국대학교 산학협력단 | Method for acquisition of hyperspectral image using an unmanned aerial vehicle |
KR102164522B1 (en) | 2019-01-03 | 2020-10-13 | 단국대학교 산학협력단 | Method for estimation of depth of water using hyperspectral image |
KR102169687B1 (en) * | 2019-01-03 | 2020-10-26 | 단국대학교 산학협력단 | Method for acquisition of hyperspectral image using an unmanned aerial vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107316325B (en) | Airborne laser point cloud and image registration fusion method based on image registration | |
JP6483075B2 (en) | Method of 3D panoramic mosaicing of scenes | |
KR101754599B1 (en) | System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image | |
Teller et al. | Calibrated, registered images of an extended urban area | |
JP4851239B2 (en) | Image processing apparatus and processing method thereof | |
EP2910899B1 (en) | A method and a system for building a three-dimensional model from satellite images | |
CA2813742A1 (en) | Rapid 3d modeling | |
JP2007322170A (en) | Method of aerial photographic survey | |
CN108399631B (en) | Scale invariance oblique image multi-view dense matching method | |
CN1878318A (en) | Three-dimensional small-sized scene rebuilding method based on dual-camera and its device | |
KR101346192B1 (en) | Aviation surveying system for correction realtime of aviation image | |
JP2020008802A (en) | Three-dimensional map generation device and three-dimensional map generation method | |
KR102159134B1 (en) | Method and system for generating real-time high resolution orthogonal map for non-survey using unmanned aerial vehicle | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
JP3808833B2 (en) | Aerial photogrammetry | |
JP2010128608A (en) | Stereo matching processing system, stereo matching processing method, and program | |
JP4809134B2 (en) | Image processing apparatus and processing method thereof | |
JP4851240B2 (en) | Image processing apparatus and processing method thereof | |
CN108955642B (en) | Large-breadth equivalent center projection image seamless splicing method | |
KR100956446B1 (en) | Method for automatic extraction of optimal 3d-object facade texture using digital aerial images | |
JP2009271895A (en) | Image set and method for independent rectification | |
JP4813263B2 (en) | Image processing apparatus and processing method thereof | |
JP2006033294A (en) | Image processing apparatus | |
JP5885974B2 (en) | Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data | |
US20190268519A1 (en) | A bundle adjustment system |