JP2006033294A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2006033294A
JP2006033294A JP2004207783A JP2004207783A JP2006033294A JP 2006033294 A JP2006033294 A JP 2006033294A JP 2004207783 A JP2004207783 A JP 2004207783A JP 2004207783 A JP2004207783 A JP 2004207783A JP 2006033294 A JP2006033294 A JP 2006033294A
Authority
JP
Japan
Prior art keywords
image
coordinates
vertical parallax
dimensional
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004207783A
Other languages
Japanese (ja)
Inventor
Gruen Armin
グリュン アーミン
Li Zhang
力 張
Tianen Chen
天恩 陳
Koichi Tsuno
浩一 津野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eidgenoessische Technische Hochschule Zurich ETHZ
Starlabo Corp
Original Assignee
Eidgenoessische Technische Hochschule Zurich ETHZ
Starlabo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eidgenoessische Technische Hochschule Zurich ETHZ, Starlabo Corp filed Critical Eidgenoessische Technische Hochschule Zurich ETHZ
Priority to JP2004207783A priority Critical patent/JP2006033294A/en
Publication of JP2006033294A publication Critical patent/JP2006033294A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a stereoscopic vision image which made vertical parallax alleviate more. <P>SOLUTION: An inverse projection unit 31 determines ground coordinates corresponding to a point on a screen specified by a measuring mark, this ground coordinates are inversely projected on directly under the visual image of a reference image, and directly viewed image coordinates are obtained. An image matching unit 33 extracts a forward visual image coordinates corresponding to the directly under the visual image coordinates from a correlation coordinates information database 70 to determine the coordinates on the forward visual image corresponding to the directly under-viewed image coordinates. A stereo measuring unit 35 obtains the ground coordinates by using the front graphic intersection based on the position/attitude data of the directly under the visual image coordinates, the forward visual image coordinates and the flight locus data treated by the image matching unit 33. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、立体視画像を生成する画像処理装置に関する。   The present invention relates to an image processing apparatus that generates a stereoscopic image.

下記非特許文献1および非特許文献2には、航空測量のための光学センサであるスリーラインスキャナ(TLS : Three Line Scanner)が搭載されたTLSシステムについて開示されている。スリーラインスキャナは、平行に並べられた三つのラインセンサカメラにより構成されており、それぞれのラインセンサカメラにより前方視、直下視、後方視の三方向の画像が同時に取得される。このようなスリーラインスキャナは、例えば、ヘリコプター等の飛翔体の進行方向に対して垂直に搭載される。これにより、飛翔体が飛行している際に各ラインセンサカメラにより地上面が走査され、地上対象物の三重ステレオ画像を取得することができる。
津野浩一,「スリーラインスキャナ(TLS)とその応用、写真測量とリモートセンシング」,日本写真測量学会,VOL.41,NO.4,2002,PP.37-44 Andreas Eckardt,et al,「Performance of the imaging system in the LH Systems ADS40 airborne digital sensor」,International Archives of Photogrammetry and Remote Sensing ,Vol.XXXIII,Part B1,Amsterdam 2000
Non-Patent Document 1 and Non-Patent Document 2 below disclose a TLS system equipped with a three-line scanner (TLS), which is an optical sensor for aerial surveying. The three-line scanner is composed of three line sensor cameras arranged in parallel, and images in three directions of front view, direct view, and rear view are simultaneously acquired by each line sensor camera. Such a three-line scanner is mounted perpendicular to the traveling direction of a flying object such as a helicopter. Thereby, when the flying object is flying, the ground surface is scanned by each line sensor camera, and a triple stereo image of the ground object can be acquired.
Koichi Tsuno, “Three Line Scanner (TLS) and its Applications, Photogrammetry and Remote Sensing”, Photographic Society of Japan, VOL.41, NO.4, 2002, PP.37-44 Andreas Eckardt, et al, "Performance of the imaging system in the LH Systems ADS40 airborne digital sensor", International Archives of Photogrammetry and Remote Sensing, Vol.XXXIII, Part B1, Amsterdam 2000

上述したスリーラインスキャナを搭載したTLSシステムでは、GPS(Global Positioning System)およびIMU(Inertial Measurement Unit)によりラインセンサカメラの位置および姿勢データを含む飛行軌跡データが取得されている。ところが、この飛行軌跡データには、様々な要因により誤差が生じてしまう。したがって、異なる方向から撮影された前方視画像、直下視画像および後方視画像の各画像に基づいて立体視画像を生成した場合には、縦方向の視差である縦視差が発生してしまう。なお、飛行軌跡データに誤差が生じる要因としては、例えば、GPSやIMUにおける温度ドリフトによるもの、ラインセンサのデータ取得間隔とGPSのデータ取得間隔の相違によるもの、地上基準点の測定誤差によるもの、飛行軌跡データのモデリング誤差によるもの、飛行高度の変動によるもの、飛行軌跡に対する地形の変化によるもの等がある。   In the TLS system equipped with the above-described three-line scanner, flight trajectory data including the position and orientation data of the line sensor camera is acquired by GPS (Global Positioning System) and IMU (Inertial Measurement Unit). However, an error occurs in the flight trajectory data due to various factors. Therefore, when a stereoscopic image is generated based on each of the forward-view image, the direct-view image, and the rear-view image captured from different directions, a vertical parallax that is a vertical parallax occurs. Factors that cause errors in flight trajectory data include, for example, temperature drift in GPS and IMU, differences in line sensor data acquisition interval and GPS data acquisition interval, ground reference point measurement errors, There are those due to modeling errors in flight trajectory data, variations in flight altitude, and changes in topography with respect to the flight trajectory.

ここで、図12および図13を参照して、ある地上基準点Pを撮影した際に縦視差Yが発生する仕組みについて説明する。図12に示すPTは実際の飛行軌跡を示すラインであり、UTは飛行軌跡データにより表される飛行軌跡ラインである。図12および図13に示すNaは直下視画像であり、Baは後方視画像である。NaPは飛行軌跡データに基づいて確定された直下視画像Na上における点Pの対応点であり、BaPは飛行軌跡データに基づいて確定された後方視画像Ba上における点Pの対応点である。CaPは飛行軌跡データに誤差がない場合に直下視画像Na上および前方視画像Fa上に確定される点Pの対応点である。つまり、誤差のある飛行軌跡データに基づいて点Pの対応点を確定した場合には、図13に示すように直下視画像Na上の対応点NaPと後方視画像Ba上の対応点BaPとの間には縦視差Yが発生してしまうことになる。   Here, with reference to FIG. 12 and FIG. 13, a mechanism in which the vertical parallax Y is generated when a certain ground reference point P is photographed will be described. PT shown in FIG. 12 is a line indicating an actual flight trajectory, and UT is a flight trajectory line represented by flight trajectory data. Na shown in FIGS. 12 and 13 is a direct view image, and Ba is a back view image. NaP is a corresponding point of the point P on the direct-view image Na determined based on the flight trajectory data, and BaP is a corresponding point of the point P on the rear-view image Ba determined based on the flight trajectory data. CaP is a corresponding point of the point P determined on the direct-view image Na and the forward-view image Fa when there is no error in the flight trajectory data. That is, when the corresponding point of the point P is determined based on the flight trajectory data having an error, the corresponding point NaP on the direct-view image Na and the corresponding point BaP on the rear-view image Ba as shown in FIG. A vertical parallax Y occurs between them.

そこで、本発明は、上述した課題を解決するために、縦視差をより軽減させた立体視画像を生成させることができる画像処理装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing apparatus capable of generating a stereoscopic image with reduced vertical parallax in order to solve the above-described problems.

本発明の画像処理装置は、撮影方向が異なる複数のラインセンサにより撮像された一次元画像群からなる複数の二次元画像に基づいて、立体視画像を生成する画像処理装置であって、複数の二次元画像間に生じる縦方向の視差である縦視差を補正する縦視差補正手段を備え、縦視差補正手段により縦視差が補正された後の画像に基づいて立体視画像を生成することを特徴とする。   An image processing apparatus of the present invention is an image processing apparatus that generates a stereoscopic image based on a plurality of two-dimensional images composed of a one-dimensional image group captured by a plurality of line sensors having different shooting directions. The apparatus includes a vertical parallax correction unit that corrects vertical parallax, which is vertical parallax generated between two-dimensional images, and generates a stereoscopic image based on the image after the vertical parallax is corrected by the vertical parallax correction unit. And

この発明によれば、縦視差補正手段により複数の二次元画像間に生じる縦視差が補正されるため、様々な要因により縦視差が生じた複数の二次元画像に基づいて立体視画像を生成する場合であっても、縦視差をより軽減させた立体視画像を生成させることが可能となる。   According to the present invention, the vertical parallax correction unit corrects the vertical parallax generated between the plurality of two-dimensional images. Therefore, the stereoscopic image is generated based on the plurality of two-dimensional images in which the vertical parallax is generated due to various factors. Even in this case, it is possible to generate a stereoscopic image in which the vertical parallax is further reduced.

本発明の画像処理装置において、立体視画像を画面上に表示させる表示手段と、表示手段により表示された立体視画像上に指標を表示させる指標表示手段とをさらに備え、縦視差補正手段は、指標により立体視画像上にある任意の位置が特定されるたびに、縦視差を補正させることが好ましい。このようにすれば、立体視画像上にある任意の位置が指標で特定されるたびに、当該指標により特定された位置を基準にして縦視差補正された後の立体視画像を表示させることが可能となる。   The image processing apparatus of the present invention further includes display means for displaying a stereoscopic image on the screen, and index display means for displaying an index on the stereoscopic image displayed by the display means. It is preferable to correct the vertical parallax each time an arbitrary position on the stereoscopic image is specified by the index. In this way, every time an arbitrary position on the stereoscopic image is specified by the index, the stereoscopic image after the vertical parallax correction is displayed with reference to the position specified by the index can be displayed. It becomes possible.

本発明の画像処理装置において、縦視差補正手段は、複数の二次元画像のいずれか一の二次元画像を基準画像とし、基準画像上の座標を第1の座標として決定する第1の座標決定手段と、複数の二次元画像のうち基準画像以外の二次元画像から、第1の座標決定手段により決定された第1の座標に対応する第2の座標を決定する第2の座標決定手段と、第1の座標および第2の座標に基づいて、立体視画像上の座標を決定する第3の座標決定手段とを含んで構成させることが好ましい。   In the image processing apparatus of the present invention, the vertical parallax correction unit is configured to determine a first coordinate that determines any one of a plurality of two-dimensional images as a reference image and coordinates on the reference image as first coordinates. And second coordinate determining means for determining a second coordinate corresponding to the first coordinate determined by the first coordinate determining means from a two-dimensional image other than the reference image among the plurality of two-dimensional images. It is preferable to include a third coordinate determining unit that determines coordinates on the stereoscopic image based on the first coordinates and the second coordinates.

このようにすれば、基準画像上にある第1の座標と、この第1の座標に対応する他の画像上にある第2の座標とに基づいて立体視画像上の座標を決定させることができる。すなわち、第1の座標に対応する第2の座標が決定されることにより、第1の座標と第2の座標との間に生じる縦視差が軽減され、ひいては、縦視差がより軽減された立体視画像を生成させることが可能となる。   In this way, the coordinate on the stereoscopic image can be determined based on the first coordinate on the reference image and the second coordinate on the other image corresponding to the first coordinate. it can. In other words, by determining the second coordinate corresponding to the first coordinate, the vertical parallax generated between the first coordinate and the second coordinate is reduced, and as a result, the solid whose vertical parallax is further reduced. A visual image can be generated.

本発明の画像処理装置において、複数の二次元画像間における相関座標情報を記憶させる記憶手段をさらに備え、第2の座標決定手段は、記憶手段により記憶された相関座標情報から、第1の座標に対応する第2の座標を抽出することにより第2の座標を決定させることが好ましい。このようにすれば、予め記憶された相関座標情報に基づいて、第1の座標に対応する第2の座標を抽出させることができるため、立体視画像上にある任意の位置が指標で特定されてから立体視画像が生成されるまでの処理時間を短縮させることが可能となる。   The image processing apparatus of the present invention further includes storage means for storing correlation coordinate information between a plurality of two-dimensional images, and the second coordinate determination means uses the first coordinate from the correlation coordinate information stored in the storage means. It is preferable to determine the second coordinates by extracting the second coordinates corresponding to. In this way, since the second coordinate corresponding to the first coordinate can be extracted based on the correlation coordinate information stored in advance, an arbitrary position on the stereoscopic image is specified by the index. It is possible to reduce the processing time from when the stereoscopic image is generated to when the stereoscopic image is generated.

本発明の画像処理装置において、縦視差補正手段は、複数の二次元画像の解像度を落として各二次元画像のそれぞれに対応する低解像度画像を生成する低解像度画像生成手段と、各低解像度画像間で対応する所定の領域に基づいて、当該所定の領域に対応する対応領域を、各低解像度画像に対応する二次元画像からそれぞれ抽出する対応領域抽出手段と、各低解像度画像に対応する高解像度画像である二次元画像の対応領域間における相関座標を決定する相関座標決定手段と、相関座標に基づいて、立体視画像上の座標を決定する立体視画像座標決定手段とを含んで構成させることが好ましい。   In the image processing apparatus of the present invention, the vertical parallax correction unit includes a low-resolution image generation unit that generates a low-resolution image corresponding to each two-dimensional image by reducing the resolution of the plurality of two-dimensional images, and each low-resolution image. A corresponding region extracting unit that extracts a corresponding region corresponding to the predetermined region from a two-dimensional image corresponding to each low-resolution image based on a predetermined region corresponding to each other, and a high-level corresponding to each low-resolution image A correlation coordinate determination unit that determines correlation coordinates between corresponding regions of a two-dimensional image that is a resolution image, and a stereoscopic image coordinate determination unit that determines coordinates on the stereoscopic image based on the correlation coordinates are configured. It is preferable.

このようにすれば、解像度を落として縦視差の影響を軽減させた各低解像度画像間で対応する所定の領域に基づいて、この各所定の領域に対応する二次元画像上の対応領域が抽出されるため、各二次元画像間で対応する領域を、高解像度画像である二次元画像から直接抽出する場合に比して、抽出後の各二次元画像の領域間における縦視差を軽減させることができる。また、このような縦視差が軽減された後の各対応領域に基づいて、各対応領域間における相関座標が決定され、この相関座標に基づいて、立体視画像上の座標が決定されるため、縦視差がより軽減された立体視画像を生成させることが可能となる。さらに、各二次元画像の対応領域間における相関座標を決定することで縦視差を補正することができるため、各二次元画像の全領域間における相関座標を決定する場合に比して、処理時間を大幅に削減することができる。   In this way, a corresponding region on the two-dimensional image corresponding to each predetermined region is extracted based on a predetermined region corresponding to each low resolution image with reduced resolution and reduced influence of vertical parallax. Therefore, the vertical parallax between the two-dimensional image regions after extraction can be reduced compared to the case where the corresponding regions between the two-dimensional images are directly extracted from the two-dimensional image that is a high-resolution image. Can do. In addition, since the correlation coordinates between the corresponding areas are determined based on the corresponding areas after the reduction of the vertical parallax, the coordinates on the stereoscopic image are determined based on the correlation coordinates. A stereoscopic image with reduced vertical parallax can be generated. Furthermore, since the vertical parallax can be corrected by determining the correlation coordinates between the corresponding areas of each two-dimensional image, the processing time is longer than when determining the correlation coordinates between all areas of each two-dimensional image. Can be greatly reduced.

本発明の画像処理装置において、複数の二次元画像が、ラインセンサの撮影時における位置データおよび姿勢データに基づいて幾何補正される幾何補正画像であることが好ましい。このようにすれば、ラインセンサにより撮像された一次元画像群からなる複数の二次元画像を、位置データおよび姿勢データに基づいて幾何補正した後の幾何補正画像に基づいて、立体視画像を生成させることができる。   In the image processing apparatus of the present invention, it is preferable that the plurality of two-dimensional images are geometrically corrected images that are geometrically corrected based on position data and posture data at the time of photographing by the line sensor. In this way, a stereoscopic image is generated based on a geometrically corrected image obtained by geometrically correcting a plurality of two-dimensional images composed of a one-dimensional image group captured by the line sensor based on position data and posture data. Can be made.

本発明の画像処理装置において、複数の二次元画像のいずれか一の二次元画像が、各二次元画像間における相関座標同士の縦視差に基づいて幾何補正される幾何補正画像であることが好ましい。このようにすれば、縦視差の発生要因となる誤差を多く含むデータ(例えばラインセンサの撮影時における位置データおよび姿勢データ)を用いることなく、立体視画像を生成させることができる。   In the image processing apparatus of the present invention, any one of the plurality of two-dimensional images is preferably a geometrically corrected image that is geometrically corrected based on the vertical parallax between the correlation coordinates between the two-dimensional images. . In this way, it is possible to generate a stereoscopic image without using data including many errors that cause vertical parallax (for example, position data and orientation data at the time of shooting by the line sensor).

また、本発明の画像処理装置は、撮影方向が異なる複数のラインセンサを空中で移動させながら撮像した一次元画像群からなる複数の二次元画像に基づいて、左目用の画像および右目用の画像からなる立体視画像を画面上に表示させる画像処理装置であって、立体視画像上に指標を表示させる指標表示手段と、立体視画像を画面上に表示させる表示手段とを備え、表示手段は、指標が立体視画像上に設定されると、複数の二次元画像間に生じる縦方向の視差である縦視差が補正された後の複数の二次元画像に基づく立体視画像を画面上に表示させ、当該立体視画像を立体的に見せることを特徴とする。   The image processing apparatus according to the present invention also includes a left-eye image and a right-eye image based on a plurality of two-dimensional images composed of a one-dimensional image group captured while moving a plurality of line sensors having different shooting directions in the air. An image processing apparatus for displaying a stereoscopic image comprising: an index display means for displaying an index on a stereoscopic image; and a display means for displaying a stereoscopic image on the screen. When the index is set on the stereoscopic image, the stereoscopic image based on the plurality of two-dimensional images after correcting the vertical parallax that is the vertical parallax generated between the plurality of two-dimensional images is displayed on the screen. The stereoscopic image is displayed in a three-dimensional manner.

この発明によれば、様々な要因により縦視差が生じた複数の二次元画像に基づく立体視画像を表示させる場合であっても、表示手段により、縦視差が補正された後の複数の二次元画像に基づく立体視画像が、画面上に立体的に表示される。   According to the present invention, even when displaying a stereoscopic image based on a plurality of two-dimensional images in which vertical parallax has occurred due to various factors, a plurality of two-dimensional images after the vertical parallax has been corrected by the display means A stereoscopic image based on the image is stereoscopically displayed on the screen.

本発明に係る画像処理装置によれば、縦視差をより軽減させた立体視画像を生成させることができる。   The image processing apparatus according to the present invention can generate a stereoscopic image with reduced vertical parallax.

以下、本発明に係る画像処理装置の各実施形態を図面に基づき説明する。なお、各図において、同一要素には同一符号を付して重複する説明を省略する。   Hereinafter, embodiments of an image processing apparatus according to the present invention will be described with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted.

[第1実施形態]
まず、本発明の第1実施形態について説明する。本実施形態における画像処理装置は、撮影方向が異なる複数のラインセンサにより撮像された一次元画像群からなる複数の二次元画像に基づいて立体視画像を生成し、この生成した立体視画像を画面上に表示する装置である。ここで、本実施形態においては、撮影方向が異なる複数のラインセンサとして、スリーラインスキャナ(TLS)を構成するラインセンサ(カメラ)を用いることとする。ラインセンサは、複数の画素を一次元に配列したものであり、各ラインセンサは、ヘリコプター等の飛翔体の進行方向に対して垂直となる方向を長手方向として所定の間隔をあけて配置される。
[First embodiment]
First, a first embodiment of the present invention will be described. The image processing apparatus according to the present embodiment generates a stereoscopic image based on a plurality of two-dimensional images composed of a one-dimensional image group captured by a plurality of line sensors having different shooting directions, and displays the generated stereoscopic image on a screen. It is a device that displays on top. Here, in the present embodiment, a line sensor (camera) constituting a three-line scanner (TLS) is used as a plurality of line sensors having different shooting directions. The line sensor is a plurality of pixels arranged in a one-dimensional manner, and each line sensor is arranged at a predetermined interval with a direction perpendicular to the traveling direction of a flying object such as a helicopter as a longitudinal direction. .

図1は、建物上のある点Qを撮影する瞬間における各ラインセンサの位置を示している。図1に示すように、第1のラインセンサA1は、飛翔体の進行方向(図1の矢印da)に対して前寄りの下方向(図1の矢印db)に建物上の点Qを捉える。第2のラインセンサA2は、飛翔体の直下方向(図1の矢印dc)に建物上の点Qを捉える。第3のラインセンサA3は、飛翔体の進行方向に対して後寄りの下方向(図1の矢印dd)に建物上の点Qを捉える。すなわち、第1のラインセンサA1により撮像された一次元画像群に基づいて前方視画像が生成され、第2のラインセンサA2により撮像された一次元画像群に基づいて直下視画像が生成され、第3のラインセンサA3により撮像された一次元画像群に基づいて後方視画像が生成される。   FIG. 1 shows the position of each line sensor at the moment of photographing a certain point Q on the building. As shown in FIG. 1, the first line sensor A1 captures a point Q on the building in a forward downward direction (arrow db in FIG. 1) with respect to the traveling direction of the flying object (arrow da in FIG. 1). . The second line sensor A2 captures the point Q on the building in the direction directly below the flying object (arrow dc in FIG. 1). The third line sensor A3 captures the point Q on the building in a downward downward direction (arrow dd in FIG. 1) closer to the traveling direction of the flying object. That is, a forward view image is generated based on the one-dimensional image group captured by the first line sensor A1, and a nadir view image is generated based on the one-dimensional image group captured by the second line sensor A2. A rear view image is generated based on the one-dimensional image group captured by the third line sensor A3.

本実施形態においては、一次元画像群からなる二次元画像として、前方視画像、直下視画像および後方視画像を用いることとする。また、これらの前方視画像、直下視画像および後方視画像から2種類の二次元画像を選択し、この選択した2種類の二次元画像に基づいて立体視画像を生成する。さらに、二次元画像は、土地を被膜する建物や植生を含めた地表データ(DSM:Digital Surface Model)であってもよいし、建物や植生を含まない地表データ(DTM:Digital Terrain Model)であってもよい。   In the present embodiment, a front-view image, a direct-view image, and a rear-view image are used as a two-dimensional image composed of a one-dimensional image group. Further, two types of two-dimensional images are selected from these forward-view images, direct-view images, and rear-view images, and a stereoscopic image is generated based on the selected two types of two-dimensional images. Furthermore, the two-dimensional image may be ground surface data (DSM: Digital Surface Model) including buildings and vegetation covering the land, or ground surface data (DTM: Digital Terrain Model) not including buildings and vegetation. May be.

図2は、本実施形態における画像処理装置1の機能構成を例示する図である。図2に示すように、画像処理装置1は、幾何補正部10と、立体視部20と、縦視差補正部30(縦視差補正手段)と、表示部40(表示手段)と、指標表示部50(指標表示手段)とを有する。画像処理装置1は、上述した各部における処理に用いられる各種情報をデータベースに格納しており、このようなデータベースとして、例えば、飛行軌跡データベース60および相関座標情報データベース70(記憶手段)がある。   FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus 1 in the present embodiment. As shown in FIG. 2, the image processing apparatus 1 includes a geometric correction unit 10, a stereoscopic unit 20, a vertical parallax correction unit 30 (vertical parallax correction unit), a display unit 40 (display unit), and an index display unit. 50 (index display means). The image processing apparatus 1 stores various types of information used for processing in the above-described units in a database. Examples of such databases include a flight trajectory database 60 and a correlation coordinate information database 70 (storage means).

ここで、飛行軌跡データベース60は、データ項目として、例えば、画像座標(x,y)、撮影時におけるラインセンサの位置(X,Y,Z)、撮影時におけるラインセンサの姿勢角(ω,φ,κ)、および撮影時刻(t)を有する。画像座標(x,y)のx成分はラインセンサのライン番号であり、y成分は画素番号である。   Here, the flight trajectory database 60 includes, as data items, for example, image coordinates (x, y), the position (X, Y, Z) of the line sensor at the time of shooting, and the attitude angle (ω, φ) of the line sensor at the time of shooting. , Κ) and photographing time (t). The x component of the image coordinates (x, y) is a line number of the line sensor, and the y component is a pixel number.

また、相関座標情報データベース70には、各二次元画像間における相関座標に関する相関座標情報が格納されている。具体的に説明すると、相関座標情報は、前方視画像、直下視画像および後方視画像の各画像間において相関関係のある画像座標を組にして対応づけた情報である。相関座標情報データベース70には、後述する画像マッチング部33によって実行される前方視画像、直下視画像および後方視画像の各画像間におけるマッチング処理で求められた相関座標情報が予め登録されている。   The correlation coordinate information database 70 stores correlation coordinate information related to correlation coordinates between two-dimensional images. More specifically, the correlated coordinate information is information in which image coordinates having a correlation are associated with each other between the forward-viewed image, the nadir-viewed image, and the backward-viewed image. In the correlation coordinate information database 70, correlation coordinate information obtained by a matching process between the forward-view image, the nadir-view image, and the rear-view image executed by the image matching unit 33 described later is registered in advance.

幾何補正部10は、ラインセンサにより撮像された一次元画像群からなる2種類の二次元画像、撮影時におけるラインセンサの位置(X,Y,Z)、および撮影時におけるラインセンサの姿勢角(ω,φ,κ)に基づいて、各二次元画像の幾何補正画像を生成する。   The geometric correction unit 10 includes two types of two-dimensional images composed of a one-dimensional image group captured by the line sensor, the position (X, Y, Z) of the line sensor at the time of shooting, and the attitude angle of the line sensor at the time of shooting ( Based on (ω, φ, κ), a geometrically corrected image of each two-dimensional image is generated.

図3は、幾何補正部10により、二次元画像と、位置・姿勢データを含む飛行軌跡データとに基づいて幾何補正画像が生成される過程を模式した図である。L1は、飛行軌跡データに基づく飛行軌跡ラインであり、L2は、実際に飛翔体が飛行した理想的な飛行軌跡ラインである。G1は、一次元画像群からなる二次元画像であり、H1は、平均地盤高に設けた水平面である平均地盤高平面であり、G2は、二次元画像G1を平均地盤高平面H1に投影した後の投影画像である。H2は、幾何補正画像平面であり、G3は、投影画像G2を幾何補正画像平面H2に投影した後の幾何補正画像である。L3は、幾何補正画像G3上の準エピポーラ直線である。   FIG. 3 is a diagram schematically illustrating a process in which a geometric correction image is generated by the geometric correction unit 10 based on a two-dimensional image and flight trajectory data including position / posture data. L1 is a flight trajectory line based on the flight trajectory data, and L2 is an ideal flight trajectory line on which the flying object actually flew. G1 is a two-dimensional image composed of a one-dimensional image group, H1 is an average ground height plane that is a horizontal plane provided at the average ground height, and G2 is a projection of the two-dimensional image G1 onto the average ground height plane H1. It is a later projected image. H2 is a geometrically corrected image plane, and G3 is a geometrically corrected image after the projection image G2 is projected onto the geometrically corrected image plane H2. L3 is a quasi-epipolar line on the geometric correction image G3.

まず、幾何補正部10は、図3に示す二次元画像G1上の各画素を、それぞれの画素が属する一次元画像に対応する位置・姿勢データを用いることにより、次式に基づいて平均地盤高平面H1に投影する。すなわち、二次元画像G1に基づいて平均地盤高平面H1への投影画像G2を生成する。

Figure 2006033294
First, the geometric correction unit 10 uses the position / posture data corresponding to the one-dimensional image to which each pixel belongs for each pixel on the two-dimensional image G1 shown in FIG. Project to the plane H1. That is, the projection image G2 to the average ground height plane H1 is generated based on the two-dimensional image G1.
Figure 2006033294

ここで、上式の“Z”は平均地盤高であり、(X,Y,Z)は一次元画像の撮影時におけるラインセンサの位置座標であり、(r11,r12,・・・,r33)は一次元画像の撮影時におけるラインセンサの姿勢角である。また、(X,Y)は平均地盤高平面H1に投影された投影画像G2上にある画素の水平座標であり、(x,y)は二次元画像G1上にある画素の水平座標であり、fはラインセンサの焦点距離である。 Here, “Z 0 ” in the above equation is the average ground height, (X N , Y N , Z N ) is the position coordinates of the line sensor at the time of capturing a one-dimensional image, and (r 11 , r 12 , .., R 33 ) is the attitude angle of the line sensor at the time of taking a one-dimensional image. (X P , Y P ) is the horizontal coordinate of the pixel on the projection image G2 projected on the average ground height plane H1, and (x P , y P ) is the horizontal coordinate of the pixel on the two-dimensional image G1. Is the coordinate, and f is the focal length of the line sensor.

次に、幾何補正部10は、図3に示す理想的な飛行軌跡ラインL2を以下のようにして求める。(1)飛行軌跡ラインL2に対応する姿勢角r’である(ω’,φ’,κ’)のうち、“ω’”と“φ’”を0に設定し、“κ’”には飛行軌跡ラインL1に対応する姿勢角rの一要素である“κ”の平均値を設定する。(2)飛行軌跡ラインL2の位置データ(X’,Y’,Z’)は、飛行軌跡ラインL1の水平位置(X,Y)に近似する直線であり、飛行軌跡ラインL1の平均飛行高(Z)により表される直線となるように設定する。(3)ラインセンサの焦点距離f等の内部標定パラメタはそのまま変更せずに保持する。 Next, the geometric correction unit 10 obtains an ideal flight locus line L2 shown in FIG. 3 as follows. (1) Of the attitude angles r ′ corresponding to the flight trajectory line L2, (ω ′ N , φ ′ N , κ ′ N ), “ω ′ N ” and “φ ′ N ” are set to 0, In κ ′ N ”, an average value of“ κ N ”, which is one element of the attitude angle r corresponding to the flight trajectory line L1, is set. (2) The position data (X ′ N , Y ′ N , Z ′ N ) of the flight locus line L2 is a straight line that approximates the horizontal position (X N , Y N ) of the flight locus line L1, and the flight locus line L1 Is set to be a straight line represented by the average flying height (Z N ). (3) The internal orientation parameters such as the focal length f of the line sensor are kept unchanged.

次に、幾何補正部10は、上述した(1)〜(3)の条件にしたがって求められた飛行軌跡ラインL2の位置データ(X’,Y’,Z’)および姿勢角(r’11,r’12,・・・,r’33)を用いて、もう一方の幾何補正画像とほぼエピポーラ関係を有する幾何補正画像G3を生成する。すなわち、図3に示す平均地盤高平面H1に投影した投影画像G2上の各画素を、飛行軌跡ラインL2の位置・姿勢データを用いることにより、次式に基づいて幾何補正画像平面H2上に投影する。

Figure 2006033294
Next, the geometric correction unit 10 obtains the position data (X ′ N , Y ′ N , Z ′ N ) and the attitude angle (r) of the flight trajectory line L2 obtained according to the above conditions (1) to (3). '11, r' 12, ··· , with r '33), to produce a geometric correction image G3 having a substantially epipolar relationship with other geometric correction image. That is, each pixel on the projection image G2 projected on the average ground height plane H1 shown in FIG. 3 is projected on the geometric correction image plane H2 based on the following equation by using the position / posture data of the flight trajectory line L2. To do.
Figure 2006033294

なお、上式に基づいて投影された幾何補正画像G3上の各画素は、幾何補正画像G3内でリサンプリングされて不規則に分布するとともに、二次元画像G1内における対応画素と同じ画素値を有する。   Each pixel on the geometric correction image G3 projected based on the above formula is resampled in the geometric correction image G3 and irregularly distributed, and has the same pixel value as the corresponding pixel in the two-dimensional image G1. Have.

立体視部20は、幾何補正部10により生成された2種類の幾何補正画像に基づいて立体視画像を生成する。   The stereoscopic unit 20 generates a stereoscopic image based on the two types of geometric correction images generated by the geometric correction unit 10.

縦視差補正部30は、各二次元画像間に生じる縦視差を補正する縦視差補正処理を行う。すなわち、前方視画像、直下視画像および後方視画像の各画像間に生じる縦視差を補正する。具体的に説明すると、画面上に表示された立体視画像上にある任意の点がメスマーク(指標)により選択され決定(設定)されると、このメスマークにより特定された点を基準にして、各二次元画像間に生じる縦視差を補正する。なお、メスマークにより特定されるのは、点に限られず、線や所定の領域であってもよい。すなわち、縦視差補正処理の基準となる位置が特定されればよい。縦視差補正部30は、縦視差が補正された後の2種類の二次元画像に対応する幾何補正画像に基づいて立体視画像を生成する。すなわち、縦視差が補正された後の2種類の幾何補正画像を左右それぞれの目で見ることで立体的に見える立体視画像を生成する。   The vertical parallax correction unit 30 performs vertical parallax correction processing for correcting vertical parallax generated between the two-dimensional images. That is, the vertical parallax generated between each of the forward-view image, the direct-view image, and the rear-view image is corrected. More specifically, when an arbitrary point on the stereoscopic image displayed on the screen is selected and determined (set) by the female mark (index), each point is determined based on the point specified by the female mark. Corrects vertical parallax that occurs between two-dimensional images. Note that what is specified by the female mark is not limited to a point, but may be a line or a predetermined region. In other words, a position serving as a reference for the vertical parallax correction process may be specified. The vertical parallax correction unit 30 generates a stereoscopic image based on the geometric correction images corresponding to the two types of two-dimensional images after the vertical parallax is corrected. That is, a stereoscopic image that is viewed stereoscopically is generated by viewing the two types of geometrically corrected images after correcting the vertical parallax with the left and right eyes.

縦視差補正部30は、逆投影部31(第1の座標決定手段)と、画像マッチング部33(第2の座標決定手段)と、ステレオ計測部35(第3の座標決定手段)と、処理終了判断部37とを有する。   The vertical parallax correction unit 30 includes a back projection unit 31 (first coordinate determination unit), an image matching unit 33 (second coordinate determination unit), a stereo measurement unit 35 (third coordinate determination unit), and a process. And an end determination unit 37.

逆投影部31は、メスマークにより特定された画面上の点に対応する地上座標を確定する。逆投影部31は、確定した地上座標を、各二次元画像のうち、後述する画像マッチング部33において行われるマッチング時の基準画像として用いられる二次元画像上に逆投影(バックプロジェクション)する。   The back projection unit 31 determines the ground coordinates corresponding to the point on the screen specified by the knife mark. The back projection unit 31 back-projects (back projections) the determined ground coordinates onto a two-dimensional image used as a reference image at the time of matching performed in the image matching unit 33 described later, among the two-dimensional images.

画像マッチング部33は、逆投影部31により基準画像上に逆投影された座標(第1の座標)に対応する他の二次元画像上の座標(第2の座標)を決定する。すなわち、画像マッチング部33は、相関座標情報データベース70から、逆投影された座標に対応する他の二次元画像上の座標を抽出する。   The image matching unit 33 determines a coordinate (second coordinate) on another two-dimensional image corresponding to the coordinate (first coordinate) back-projected on the reference image by the back projection unit 31. That is, the image matching unit 33 extracts coordinates on another two-dimensional image corresponding to the backprojected coordinates from the correlation coordinate information database 70.

ここで、画像マッチングの手法の一例であるエリアマッチング(面積相関)法を用いて2種類の二次元画像間における相関座標を求める方法について説明する。エリアマッチング法では、各二次元画像の画素同士を比較して対応座標を決定するのではなく、注目している画素の周りを含む面(ウィンドウ)同士で比較することにより対応座標を決定する。具体的に説明すると、面の中にある座標それぞれについて両方の二次元画像中で差をとり、その差の合計が最小となる座標を対応座標とする。このようにして、2種類の二次元画像間の対応座標(相関座標情報)をランダムに決定する。   Here, a method for obtaining correlation coordinates between two types of two-dimensional images using an area matching (area correlation) method, which is an example of an image matching method, will be described. In the area matching method, pixels in each two-dimensional image are not compared with each other to determine the corresponding coordinates, but the corresponding coordinates are determined by comparison between surfaces (windows) including the periphery of the pixel of interest. More specifically, for each coordinate in the surface, a difference is taken in both two-dimensional images, and the coordinate having the smallest difference is defined as the corresponding coordinate. In this way, corresponding coordinates (correlation coordinate information) between two types of two-dimensional images are determined at random.

画像マッチング部33は、エリアマッチング法を用いて決定したランダムな相関座標情報を、図4に示す格子単位にリサンプリングする。ここで、図4に示すNは直下視画像であり、Fは前方視画像である。図4は、直下視画像N上の正方格子を基準にして、この正方格子を構成する各格子点が前方視画像F上ではどの位置に存在するのかを示す図である。エリアマッチング法により決定されたランダムな相関座標情報を、図4に示す格子を基準にしてリサンプリングすることによって、直下視画像N上の正方格子内にある座標NPの対応座標FPが、前方視画像F上の変形格子内における双一次内挿等によって瞬時に求めることが可能になる。   The image matching unit 33 resamples the random correlation coordinate information determined using the area matching method in units of lattices shown in FIG. Here, N shown in FIG. 4 is a direct view image, and F is a forward view image. FIG. 4 is a diagram showing in which position on the forward-view image F each lattice point constituting the square lattice is located with reference to a square lattice on the nadir image N. By re-sampling the random correlation coordinate information determined by the area matching method with reference to the lattice shown in FIG. 4, the corresponding coordinate FP of the coordinate NP in the square lattice on the nadir image N is forward-viewed. It can be obtained instantaneously by bilinear interpolation or the like in the deformation grid on the image F.

このようなエリアマッチングを行うことにより、第1の座標に対応する幾何補正画像上の座標と、第2の座標に対応する幾何補正画像上の座標との間には縦視差がほとんど生じなくなる。すなわち、両幾何補正画像は準エピポーラ関係を有することとなる。   By performing such area matching, vertical parallax hardly occurs between the coordinates on the geometric correction image corresponding to the first coordinates and the coordinates on the geometric correction image corresponding to the second coordinates. That is, both geometric correction images have a quasi-epipolar relationship.

なお、本実施形態における相関座標情報データベース70には、例えば、上述したエリアマッチングを用いて決定された各二次元画像間における相関座標情報が予め登録されている。したがって、画像マッチング部33は、メスマークで画面上の位置が特定された場合に、処理に多大な時間を要するマッチング処理をその都度行うことなく、相関座標情報データベース70から第1の座標に対応する第2の座標を取得することができる。すなわち、処理時間を大幅に削減することができる。   In the correlation coordinate information database 70 according to the present embodiment, for example, correlation coordinate information between two-dimensional images determined using the area matching described above is registered in advance. Therefore, when the position on the screen is specified by the female mark, the image matching unit 33 corresponds to the first coordinate from the correlation coordinate information database 70 without performing matching processing that requires a long time for processing each time. A second coordinate can be obtained. That is, the processing time can be greatly reduced.

ステレオ計測部35は、画像マッチング部33により決定された相関座標情報と飛行軌跡データの位置・姿勢データとに基づいて、例えば、前方交会法等を含む三角測量により地上座標を求める。   Based on the correlation coordinate information determined by the image matching unit 33 and the position / orientation data of the flight trajectory data, the stereo measurement unit 35 obtains ground coordinates by, for example, triangulation including the forward intersection method.

処理終了判断部37は、メスマークで特定された点に対応する地物以外の全ての地物について縦視差補正処理が行われたか否かを判定する。処理終了判断部37は、全ての地物について縦視差補正処理が行われたと判定した場合に、縦視差補正処理を終了させる。   The process end determination unit 37 determines whether or not the vertical parallax correction process has been performed on all the features other than the feature corresponding to the point specified by the female mark. When it is determined that the vertical parallax correction process has been performed on all the features, the process end determination unit 37 ends the vertical parallax correction process.

表示部40は、立体視画像を画面上に表示させる。すなわち、立体視部20により生成された立体視画像や、縦視差補正部30により縦視差が補正された後の立体視画像を画面上に表示させる。具体的に説明すると、表示部40は、例えば、2種類の画像(立体視画像を構成する左目用の画像と右目用の画像)を、交互に高速に切り換えて一の画面上に表示させる。この場合に、ユーザは、立体視専用メガネをかけて画面を見ることにより、画面上に表示された画像を立体的に見ることができる。ここで、立体視専用メガネの左右それぞれのレンズ部分には、液晶シャッターが設けられている。この液晶シャッターを、2種類の画像の切り換えタイミングに同期させて交互に開閉させることにより、画面上に表示された画像を立体的に見せることが可能となる。   The display unit 40 displays a stereoscopic image on the screen. That is, the stereoscopic image generated by the stereoscopic unit 20 and the stereoscopic image after the vertical parallax correction unit 30 has corrected the vertical parallax are displayed on the screen. More specifically, for example, the display unit 40 causes two types of images (left-eye image and right-eye image constituting a stereoscopic image) to be alternately switched at high speed and displayed on one screen. In this case, the user can view the image displayed on the screen in a three-dimensional manner by viewing the screen with the glasses for stereoscopic viewing. Here, a liquid crystal shutter is provided on each of the left and right lens portions of the stereoscopic glasses. By alternately opening and closing the liquid crystal shutter in synchronization with the switching timing of the two types of images, the image displayed on the screen can be displayed in three dimensions.

指標表示部50は、表示部40により表示された立体視画像上にメスマークを表示させる。   The index display unit 50 displays a female mark on the stereoscopic image displayed by the display unit 40.

次に、図5ないし図7を参照して本実施形態における画像処理装置1の動作を説明する。まず、本実施形態における画像処理装置1において実行される画像処理の概要について図5を参照して説明する。ここで、画像処理が実行される前に、以下の処理が前処理として行われる。まず、ユーザの操作指示により、立体視の対象となる2種類の二次元画像(例えば、直下視画像と前方視画像)が選択される。次に、選択された直下視画像と前方視画像のうち、いずれか一方の画像が基準画像に設定される。これらの前処理が行われた後に図5に示す画像処理が開始される。   Next, the operation of the image processing apparatus 1 in this embodiment will be described with reference to FIGS. First, an overview of image processing executed in the image processing apparatus 1 according to the present embodiment will be described with reference to FIG. Here, before the image processing is executed, the following processing is performed as preprocessing. First, two types of two-dimensional images (for example, a nadir view image and a forward view image) to be stereoscopically viewed are selected according to a user operation instruction. Next, one of the selected direct-view image and forward-view image is set as the reference image. After these pre-processing is performed, the image processing shown in FIG. 5 is started.

まず、幾何補正部10は、直下視画像、前方視画像および飛行軌跡データに基づいて、それぞれの画像に対応する幾何補正画像を生成する(ステップS1)。   First, the geometric correction unit 10 generates a geometric correction image corresponding to each image based on the nadir view image, the forward view image, and the flight trajectory data (step S1).

次に、立体視部20は、ステップS1において生成された2種類の幾何補正画像に基づいて立体視画像を生成する。これにより、表示部40は、立体視部20により生成された立体視画像を画面上に表示させる(ステップS2)。   Next, the stereoscopic unit 20 generates a stereoscopic image based on the two types of geometrically corrected images generated in step S1. Thereby, the display unit 40 displays the stereoscopic image generated by the stereoscopic unit 20 on the screen (step S2).

次に、縦視差補正部30は、立体視画像上にある任意の点がメスマークで特定されたか否かを判定する(ステップS3)。この判定の結果がNOである場合(ステップS3;NO)に、処理はステップS3に移行する。すなわち、ステップS3の判定において、判定の結果がYESになるまでステップS3の判定が繰り返される。   Next, the vertical parallax correction unit 30 determines whether or not an arbitrary point on the stereoscopic image is specified by the female mark (step S3). If the result of this determination is NO (step S3; NO), the process proceeds to step S3. That is, in the determination in step S3, the determination in step S3 is repeated until the determination result is YES.

一方、ステップS3の判定において、立体視画像上にある任意の点がメスマークで特定されたと判定された場合(ステップS3;YES)に、縦視差補正部30は、直下視画像と前方視画像との間に生じる縦視差を補正するための縦視差補正処理を行う(ステップS4)。この縦視差補正処理の詳細については後述する。縦視差補正処理が行われた後に、表示部40は、縦視差が補正された後の立体視画像を画面上に表示させる(ステップS5)。なお、実際の画像処理においては、ステップS5で縦視差が補正された後の立体視画像が画面上に表示された後は、再度ステップS3以降の処理が繰り返されることとなる。そして、ユーザの操作指示により終了指示が入力された場合に、上述した画像処理が終了する。   On the other hand, when it is determined in step S3 that an arbitrary point on the stereoscopic image is specified by the female mark (step S3; YES), the vertical parallax correction unit 30 performs the direct view image, the forward view image, and the forward view image. A vertical parallax correction process for correcting the vertical parallax generated during the period is performed (step S4). Details of the vertical parallax correction processing will be described later. After the vertical parallax correction process is performed, the display unit 40 displays the stereoscopic image after the vertical parallax correction is performed on the screen (step S5). In actual image processing, after the stereoscopic image after the vertical parallax is corrected in step S5 is displayed on the screen, the processing in step S3 and subsequent steps is repeated again. Then, when an end instruction is input according to a user operation instruction, the above-described image processing ends.

次に、図6および図7を参照して上述したステップS4(図5参照)において行われる縦視差補正処理について説明する。ここで、図7に示すNは直下視画像であり、Fは前方視画像である。Ngは直下視画像Nの幾何補正画像であり、Fgは前方視画像Fの幾何補正画像である。Mはメスマークであり、P1は地上座標を示し、P2は地上座標P1が直下視画像N上に逆投影された座標を示し、P3は直下視画像座標P2に対応する前方視画像F上の座標を示す。P4は直下視画像座標P2に対応する幾何補正画像Ng上の座標を示し、P5は前方視画像座標P3に対応する幾何補正画像Fg上の座標を示す。   Next, the vertical parallax correction process performed in step S4 (see FIG. 5) described above with reference to FIGS. 6 and 7 will be described. Here, N shown in FIG. 7 is a direct view image, and F is a forward view image. Ng is a geometrically corrected image of the nadir image N, and Fg is a geometrically corrected image of the forward image F. M is a female mark, P1 indicates the ground coordinates, P2 indicates the coordinates on which the ground coordinates P1 are back-projected on the nadir image N, and P3 is the coordinates on the forward image F corresponding to the nadir image coordinates P2. Indicates. P4 indicates the coordinates on the geometric correction image Ng corresponding to the nadir view image coordinate P2, and P5 indicates the coordinates on the geometric correction image Fg corresponding to the forward view image coordinate P3.

まず、逆投影部31は、メスマークMにより特定された画面上の点に対応する地上座標P1を確定し(ステップS11)、この地上座標P1を、基準画像である直下視画像N上に逆投影する(ステップS12)。これにより、直下視画像N上の座標P2が求まる。   First, the backprojection unit 31 determines the ground coordinates P1 corresponding to the point on the screen specified by the female mark M (step S11), and backprojects the ground coordinates P1 onto the direct view image N that is the reference image. (Step S12). Thereby, the coordinate P2 on the nadir image N is obtained.

次に、画像マッチング部33は、直下視画像座標P2に対応する前方視画像F上の座標を決定するために、相関座標情報データベース70から直下視画像座標P2に対応する前方視画像座標P3を抽出する(ステップS13)。すなわち、エリアマッチングにより直下視画像座標P2に対応する座標として決定された前方視画像座標P3が、相関座標情報データベース70から抽出される。なお、図7に示すように、直下視画像座標P2に対応する幾何補正画像Ng上の座標P4と、前方視画像座標P3に対応する幾何補正画像Fg上の座標P5との間には縦視差がほとんど発生しない。   Next, the image matching unit 33 determines, from the correlation coordinate information database 70, the forward view image coordinate P3 corresponding to the direct view image coordinate P2 to determine the coordinate on the forward view image F corresponding to the direct view image coordinate P2. Extract (step S13). That is, the forward view image coordinates P3 determined as the coordinates corresponding to the direct view image coordinates P2 by area matching are extracted from the correlation coordinate information database 70. As shown in FIG. 7, there is a vertical parallax between the coordinate P4 on the geometrically corrected image Ng corresponding to the nadir image coordinate P2 and the coordinate P5 on the geometrically corrected image Fg corresponding to the forward image coordinate P3. Hardly occurs.

次に、ステレオ計測部35は、画像マッチング部33により対応づけられた直下視画像座標P2と前方視画像座標P3、および飛行軌跡データの位置・姿勢データに基づいて、前方交会法を用いて地上座標を求める(ステップS14)。   Next, the stereo measurement unit 35 uses the forward intersection method based on the direct view image coordinates P2 and the forward view image coordinates P3 associated with the image matching unit 33 and the position / posture data of the flight trajectory data. The coordinates are obtained (step S14).

次に、処理終了判断部37は、メスマークで特定された点に対応する地物以外の全ての地物について上述した縦視差補正処理が行われたか否かを判定する(ステップS15)。この判定がNOである場合(ステップS15;NO)には、処理をステップS11に移行する。すなわち、全ての地物について縦視差補正処理が行われるまで、上述したステップS11からステップS14までの処理を繰り返す。   Next, the processing end determination unit 37 determines whether or not the vertical parallax correction processing described above has been performed on all the features other than the feature corresponding to the point specified by the female mark (step S15). If this determination is NO (step S15; NO), the process proceeds to step S11. That is, the above-described processing from step S11 to step S14 is repeated until the vertical parallax correction processing is performed for all the features.

一方、ステップS15の判定において、メスマークで特定された点に対応する地物以外の全ての地物について上述した縦視差補正処理が行われたと判定された場合(ステップS15;YES)には、縦視差補正処理を終了する。   On the other hand, if it is determined in step S15 that the vertical parallax correction process described above has been performed for all features other than the feature corresponding to the point specified by the female mark (step S15; YES), The parallax correction process ends.

上述した第1実施形態における画像処理装置1では、ステレオ計測部35が、逆投影部31により基準画像上に逆投影された座標と、画像マッチング部33により決定された他の二次元画像上の座標とに基づいて、地上座標を求めているため、縦視差がより軽減された立体視画像を生成させることが可能となる。   In the above-described image processing apparatus 1 according to the first embodiment, the stereo measurement unit 35 has the coordinates back-projected on the reference image by the back-projection unit 31 and the other two-dimensional image determined by the image matching unit 33. Since the ground coordinates are obtained based on the coordinates, it is possible to generate a stereoscopic image with reduced vertical parallax.

また、上述した第1実施形態における画像処理装置1では、相関座標情報データベース70に記憶された相関座標情報に基づいて、逆投影部31により基準画像上に逆投影された座標に対応する他の二次元画像上の座標を抽出させることができるため、立体視画像上にある任意の位置がメスマークで特定されてから立体視画像が生成されるまでの処理時間を短縮させることが可能となる。   Further, in the image processing apparatus 1 according to the first embodiment described above, based on the correlation coordinate information stored in the correlation coordinate information database 70, the other corresponding to the coordinates back-projected on the reference image by the back projection unit 31. Since the coordinates on the two-dimensional image can be extracted, it is possible to shorten the processing time from when an arbitrary position on the stereoscopic image is specified by the female mark until the stereoscopic image is generated.

なお、上述した第1実施形態においては、画像マッチングを行う際に、相関座標情報データベース70を用いて対応点を決定しているが、必ずしも相関座標情報データベース70を用いる必要はない。すなわち、メスマークで画面上の点が特定されるごとに、基準二次元画像上に逆投影された座標に基づいて画像マッチングを実行し、他の二次元画像上に存在する対応座標を求めることとしてもよい。   In the first embodiment described above, when image matching is performed, corresponding points are determined using the correlation coordinate information database 70, but the correlation coordinate information database 70 is not necessarily used. That is, each time a point on the screen is specified by a female mark, image matching is performed based on the coordinates back-projected on the reference two-dimensional image, and corresponding coordinates existing on other two-dimensional images are obtained. Also good.

[第2実施形態]
次に、本発明の第2実施形態について説明する。まず、図8を参照して第2実施形態における画像処理装置2の機能構成について説明する。図8に示す第2実施形態における画像処理装置2の機能構成が、第1実施形態における画像処理装置1の機能構成と異なる点は、第2実施形態における縦視差補正部30Sの機能構成の一部が、第1実施形態における縦視差補正部30の機能構成の一部と異なる点、および第2実施形態における画像処理装置2が相関座標情報データベース70を備えていない点である。したがって、それ以外の機能構成は、第1実施形態における画像処理装置1の機能構成と同様であるため、各構成要素には同一の符合を付しその説明は省略すると共に、以下において第1実施形態との相違点について詳述する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. First, the functional configuration of the image processing apparatus 2 in the second embodiment will be described with reference to FIG. The functional configuration of the image processing device 2 in the second embodiment shown in FIG. 8 is different from the functional configuration of the image processing device 1 in the first embodiment, as one of the functional configurations of the vertical parallax correction unit 30S in the second embodiment. Is different from a part of the functional configuration of the vertical parallax correction unit 30 in the first embodiment, and the image processing apparatus 2 in the second embodiment does not include the correlation coordinate information database 70. Therefore, since the other functional configuration is the same as the functional configuration of the image processing apparatus 1 in the first embodiment, the same reference numerals are given to the respective components and the description thereof will be omitted, and the first embodiment will be described below. Differences from the form will be described in detail.

図8に示すように、第2実施形態における画像処理装置2の縦視差補正部30Sは、低解像度画像生成部38(低解像度画像生成手段)と、対応領域抽出部39(対応領域抽出手段)と、画像マッチング部33S(相関座標決定手段)と、ステレオ計測部35S(立体視画像座標決定手段)とを有する。   As shown in FIG. 8, the vertical parallax correction unit 30S of the image processing apparatus 2 in the second embodiment includes a low resolution image generation unit 38 (low resolution image generation unit) and a corresponding region extraction unit 39 (corresponding region extraction unit). And an image matching unit 33S (correlation coordinate determination means) and a stereo measurement unit 35S (stereoscopic image coordinate determination means).

低解像度画像生成部38は、立体視画像の対象となる複数の二次元画像の解像度を落として、各二次元画像に対応する低解像度画像を生成する。すなわち、低解像度画像生成部38は、例えば、前方視画像、直下視画像および後方視画像の解像度を落として、前方視画像の低解像度画像と、直下視画像の低解像度画像と、後方視画像の低解像度画像とを生成する。   The low-resolution image generation unit 38 generates a low-resolution image corresponding to each two-dimensional image by reducing the resolution of the plurality of two-dimensional images that are targets of the stereoscopic image. That is, the low-resolution image generation unit 38 reduces the resolution of the forward-view image, the direct-view image, and the backward-view image, for example, the low-resolution image of the forward-view image, the low-resolution image of the direct-view image, and the backward-view image. A low resolution image.

このように、低解像度画像を生成することによって、高解像度画像間で顕著に生じていた縦視差を、低解像度画像間では軽減させることが可能となる。   Thus, by generating a low-resolution image, it is possible to reduce the vertical parallax that was noticeably generated between the high-resolution images between the low-resolution images.

対応領域抽出部39は、低解像度画像生成部38により生成された各低解像度画像間で対応する所定の領域に基づいて、この各所定の領域に対応する対応領域を、各低解像度画像に対応する二次元画像からそれぞれ抽出する。低解像度画像間で対応する所定の領域としては、例えば、メスマークにより特定された画面上の点に対応する各低解像度画像上の点の周辺領域が該当する。したがって、例えば、メスマークにより画面上の点が特定された場合に、対応領域抽出部39は、直下視画像の低解像度画像上からメスマークに対応する領域を抽出し、この抽出した領域に対応する直下視画像上の領域を、対応領域として直下視画像から抽出する。これと同様にして、前方視画像または後方視画像からも対応領域を抽出する。なお、メスマークにより特定された画面上の点に対応する低解像度画像上の点を求める方法としては、例えば、メスマークにより特定された画面上の点に対応する地上座標を確定し、この確定した地上座標を低解像度画像上に逆投影する方法がある。   The corresponding area extracting unit 39 corresponds to each low resolution image by using the corresponding area corresponding to each predetermined area based on the predetermined area corresponding to each low resolution image generated by the low resolution image generating unit 38. Respectively extracted from the two-dimensional images. As the predetermined area corresponding to the low resolution images, for example, the peripheral area of the point on each low resolution image corresponding to the point on the screen specified by the female mark corresponds. Therefore, for example, when a point on the screen is specified by a female mark, the corresponding region extraction unit 39 extracts a region corresponding to the female mark from the low-resolution image of the nadir view image, and directly below the extracted region. An area on the visual image is extracted from the direct-view image as a corresponding area. In the same manner, the corresponding region is extracted from the front view image or the rear view image. As a method for obtaining a point on the low-resolution image corresponding to the point on the screen specified by the female mark, for example, the ground coordinates corresponding to the point on the screen specified by the female mark are determined, and this determined ground There is a method of back projecting coordinates onto a low resolution image.

このように、解像度を落として縦視差の影響を軽減させた各低解像度画像間で対応する所定の領域(メスマークにより特定された点に対応する各領域)に基づいて、二次元画像上から対応領域を抽出することによって、各二次元画像間で対応する領域を高解像度画像である二次元画像から直接抽出する場合に比して、抽出後の各二次元画像の領域間における縦視差をより軽減させることが可能となる。   In this way, based on a predetermined area (each area corresponding to a point specified by a female mark) corresponding to each low-resolution image with reduced resolution and reduced influence of vertical parallax, it can be handled from the two-dimensional image By extracting the regions, the vertical parallax between the regions of each two-dimensional image after extraction is greater than when the corresponding region between each two-dimensional image is extracted directly from the two-dimensional image that is a high-resolution image. It becomes possible to reduce.

画像マッチング部33Sは、対応領域抽出部39により抽出された各対応領域間において相関関係にある相関座標を決定する。すなわち、画像マッチング部33は、例えば、エリアマッチング(面積相関)法を用いて2種類の対応領域間における相関座標を求める。このエリアマッチング法については、第1実施形態において説明したエリアマッチング法と同様であるため説明を省略する。   The image matching unit 33S determines correlation coordinates that are correlated between the corresponding regions extracted by the corresponding region extraction unit 39. That is, the image matching unit 33 obtains correlation coordinates between two types of corresponding regions using, for example, an area matching (area correlation) method. Since this area matching method is the same as the area matching method described in the first embodiment, description thereof is omitted.

このように、相関座標を決定する際の比較対象を、二次元画像の対応領域のみに限定することができるため、二次元画像の全領域を比較対象とする場合に比して、処理時間を大幅に削減させることができる。   As described above, since the comparison target when determining the correlation coordinates can be limited only to the corresponding region of the two-dimensional image, the processing time can be reduced as compared with the case where the entire region of the two-dimensional image is the comparison target. It can be greatly reduced.

ステレオ計測部35Sは、画像マッチング部33Sにより決定された相関座標に基づいて、立体視画像上の座標を決定する。すなわち、ステレオ計測部35Sは、画像マッチング部33Sにより決定された相関座標情報と飛行軌跡データの位置・姿勢データとに基づいて、例えば、前方交会法等を含む三角測量により地上座標を求める。   The stereo measurement unit 35S determines the coordinates on the stereoscopic image based on the correlation coordinates determined by the image matching unit 33S. That is, the stereo measurement unit 35S obtains the ground coordinates by triangulation including, for example, the forward intersection method based on the correlation coordinate information determined by the image matching unit 33S and the position / posture data of the flight trajectory data.

このように、縦視差が軽減された後の各対応領域間における相関座標に基づいて、立体視画像上の座標が決定されるため、縦視差がより軽減された立体視画像を生成させることが可能となる。   As described above, since the coordinates on the stereoscopic image are determined based on the correlation coordinates between the corresponding regions after the reduction of the vertical parallax, it is possible to generate a stereoscopic image with further reduced vertical parallax. It becomes possible.

次に、図9を参照して第2実施形態における画像処理装置2において行われる縦視差補正処理(図5のステップS4)について説明する。すなわち、基準画像として設定された直下視画像と、前方視画像との間に生じる縦視差を補正するための縦視差補正処理について説明する。なお、第2実施形態における画像処理装置2において実行される画像処理の概要は、第1実施形態における画像処理装置1において実行される画像処理の概要(図5参照)と同様であるため、その説明を省略する。   Next, the vertical parallax correction process (step S4 in FIG. 5) performed in the image processing apparatus 2 in the second embodiment will be described with reference to FIG. That is, the vertical parallax correction process for correcting the vertical parallax generated between the direct-view image set as the reference image and the forward-view image will be described. The outline of the image processing executed in the image processing apparatus 2 in the second embodiment is the same as the outline of the image processing executed in the image processing apparatus 1 in the first embodiment (see FIG. 5). Description is omitted.

まず、低解像度画像生成部38は、直下視画像および前方視画像の解像度を落として、直下視画像の低解像度画像および前方視画像の低解像度画像を生成する(ステップS21)。   First, the low-resolution image generation unit 38 generates a low-resolution image of the direct-view image and a low-resolution image of the forward-view image by reducing the resolution of the direct-view image and the forward-view image (step S21).

次に、対応領域抽出部39は、メスマークにより特定された画面上の点に対応する地上座標を確定し、この確定した地上座標を、直下視画像の低解像度画像上および前方視画像の低解像度画像上に逆投影する。そして、対応領域抽出部39は、直下視画像の低解像度画像上および前方視画像の低解像度画像上から、逆投影した点近傍の領域を抽出し、この抽出した各領域に対応する直下視画像上の領域および前方視画像上の領域を、対応領域として直下視画像および前方視画像から抽出する(ステップS22)。   Next, the corresponding area extraction unit 39 determines the ground coordinates corresponding to the point on the screen specified by the female mark, and uses the determined ground coordinates on the low resolution image of the direct view image and the low resolution of the forward view image. Backproject onto the image. Then, the corresponding region extraction unit 39 extracts a region near the back-projected point from the low-resolution image of the direct-view image and the low-resolution image of the forward-view image, and the direct-view image corresponding to each of the extracted regions The upper region and the region on the forward view image are extracted from the direct view image and the forward view image as corresponding regions (step S22).

次に、画像マッチング部33Sは、対応領域抽出部39により抽出された直下視画像に対応する高解像度画像の対応領域と前方視画像に対応する高解像度画像の対応領域との間における相関座標を、エリアマッチング(面積相関)法を用いて決定する(ステップS23)。   Next, the image matching unit 33S calculates the correlation coordinates between the corresponding region of the high resolution image corresponding to the nadir view image extracted by the corresponding region extracting unit 39 and the corresponding region of the high resolution image corresponding to the forward view image. Then, it is determined using an area matching (area correlation) method (step S23).

次に、ステレオ計測部35Sは、画像マッチング部33Sにより決定された相関座標、および飛行軌跡データの位置・姿勢データに基づいて、前方交会法を用いて地上座標を求める(ステップS24)。これにより、縦視差補正処理は終了する。   Next, the stereo measurement unit 35S obtains the ground coordinates using the forward intersection method based on the correlation coordinates determined by the image matching unit 33S and the position / posture data of the flight trajectory data (step S24). Thereby, the vertical parallax correction process is completed.

以上のように、上述した各実施形態における画像処理装置1,2では、縦視差補正部30,30Sにより2種類の二次元画像間に生じる縦視差を補正することができるため、様々な要因により縦視差が生じた複数の二次元画像に基づいて立体視画像を生成する場合であっても、縦視差をより軽減させた立体視画像を生成させることが可能となる。   As described above, in the image processing apparatuses 1 and 2 in the above-described embodiments, the vertical parallax generated between two types of two-dimensional images can be corrected by the vertical parallax correction units 30 and 30S. Even when a stereoscopic image is generated based on a plurality of two-dimensional images in which vertical parallax has occurred, it is possible to generate a stereoscopic image with reduced vertical parallax.

また、上述した各実施形態における画像処理装置1,2では、縦視差補正部30,30Sが、指標表示部50により表示されたメスマークにより特定された位置を基準にして縦視差を補正するため、立体視画像上にある任意の位置がメスマークで特定されるたびに、縦視差が補正された後の立体視画像を画面上に表示させることができる。   Further, in the image processing apparatuses 1 and 2 in each of the above-described embodiments, the vertical parallax correction units 30 and 30S correct vertical parallax with reference to the position specified by the female mark displayed by the index display unit 50. Every time an arbitrary position on the stereoscopic image is specified by the female mark, the stereoscopic image after the vertical parallax is corrected can be displayed on the screen.

以上で説明したように、上述した各実施形態における画像処理装置1,2は、従来実現することが困難であるとされた縦視差補正を可能とした。従来の画像処理技術においては、縦視差が生じた複数の二次元画像に基づいて立体視画像を生成しようとしても、縦視差の影響によりエピポーラ線が一致しないため、二次元画像間でのマッチングがうまく行えなかった。したがって、手作業で縦視差を除去する必要があった。しかしながら、手作業で縦視差を除去する場合であっても、道路縁を連続的に取得することや、等高線を取得することには困難を要していた。その結果、良好な計測精度が得られなかった。   As described above, the image processing apparatuses 1 and 2 in each of the above-described embodiments enable the vertical parallax correction that has been conventionally difficult to be realized. In the conventional image processing technology, even if an attempt is made to generate a stereoscopic image based on a plurality of two-dimensional images in which vertical parallax has occurred, the epipolar lines do not match due to the influence of vertical parallax, so matching between two-dimensional images is not possible. I couldn't do it well. Therefore, it has been necessary to remove vertical parallax manually. However, even when the vertical parallax is manually removed, it has been difficult to obtain road edges continuously and to obtain contour lines. As a result, good measurement accuracy could not be obtained.

これに対して上述した各実施形態における画像処理装置1,2では、エリアマッチングを用いることにより、基準画像である直下視画像上の座標に対応する前方視画像または後方視画像上の座標(相関座標情報)が、エピポーラ線に関係なく決定されるため、この対応する座標に基づいてステレオ計測することによって、縦視差が補正された後の立体視画像を生成することができる。   On the other hand, in the image processing apparatuses 1 and 2 in each of the above-described embodiments, by using area matching, the coordinates (correlation) on the front view image or the back view image corresponding to the coordinates on the nadir image that is the reference image are used. Since the coordinate information is determined irrespective of the epipolar line, a stereoscopic image after correcting the vertical parallax can be generated by performing stereo measurement based on the corresponding coordinates.

なお、上述した各実施形態においては、縦視差補正を行う際に、幾何補正部10により生成された2種類の幾何補正画像に基づいて縦視差補正を行っているが、縦視差補正を行う対象となる二次元画像は、幾何補正部10により生成された2種類の幾何補正画像に限られない。例えば、図10に示す二次元画像と、他の二次元画像とに基づいて、図11に示す幾何補正画像を生成し、この図11に示す幾何補正画像と、他の二次元画像とに基づいて上述した縦視差補正処理を行うこととしてもよい。   In each of the above-described embodiments, when performing vertical parallax correction, vertical parallax correction is performed based on two types of geometric correction images generated by the geometric correction unit 10. The two-dimensional image to be is not limited to the two types of geometric correction images generated by the geometric correction unit 10. For example, based on the two-dimensional image shown in FIG. 10 and another two-dimensional image, the geometrically corrected image shown in FIG. 11 is generated, and based on the geometrically corrected image shown in FIG. 11 and the other two-dimensional image. The vertical parallax correction process described above may be performed.

図10は、2種類の二次元画像(例えば、前方視画像および直下視画像)に基づいて立体視画像を生成する場合に、何れか一方の二次元画像における画素の配列状態を示すグラフである。また、図11は、図10に示す二次元画像を幾何補正して後の幾何補正画像における画素の配列状態を示すグラフである。以下の説明においては、説明の便宜のため、図10に示すグラフを、前方視画像における画素の配列状態を示すグラフであることとし、図11に示すグラフを、前方視画像の幾何補正画像における画素の配列状態を示すグラフであることとする。図10および図11に示すグラフのX軸はラインセンサのライン番号を示し、Y軸は画素番号を示す。   FIG. 10 is a graph showing an arrangement state of pixels in one of the two-dimensional images when generating a stereoscopic image based on two types of two-dimensional images (for example, a forward-view image and a direct-view image). . FIG. 11 is a graph showing a pixel arrangement state in the geometrically corrected image after geometric correction of the two-dimensional image shown in FIG. In the following description, for convenience of explanation, the graph shown in FIG. 10 is a graph showing the pixel arrangement state in the forward-view image, and the graph shown in FIG. 11 is shown in the geometrically corrected image of the forward-view image. It is assumed that the graph shows the pixel arrangement state. 10 and 11, the X axis indicates the line number of the line sensor, and the Y axis indicates the pixel number.

ここで、図10に示す前方視画像が、図11に示す幾何補正画像に変換される手順((1)〜(3))について説明する。(1) 前方視画像と直下視画像間における相関座標をライン番号ごとに決定する。(2) (1)で決定された相関座標間の縦視差をライン番号ごとに算出する。(3) (2)で算出された縦視差に基づいて、当該縦視差に対応するライン番号の画素列を縦視差分だけY方向にシフトする。上述した手順により変換された幾何補正画像(図11参照)は、縦視差の発生要因となる誤差を多く含む位置・姿勢データを用いることなく生成される。したがって、このような幾何補正画像を用いて、上述した実施形態における縦視差補正処理を行うことにより、縦視差をより一層軽減させた立体視画像を生成することができる。   Here, the procedure ((1) to (3)) for converting the forward-view image shown in FIG. 10 into the geometrically corrected image shown in FIG. 11 will be described. (1) The correlation coordinates between the forward view image and the nadir view image are determined for each line number. (2) The vertical parallax between the correlation coordinates determined in (1) is calculated for each line number. (3) Based on the vertical parallax calculated in (2), the pixel column of the line number corresponding to the vertical parallax is shifted in the Y direction by the vertical parallax. The geometrically corrected image (see FIG. 11) converted by the above-described procedure is generated without using position / posture data including many errors that cause vertical parallax. Therefore, a stereoscopic image in which the vertical parallax is further reduced can be generated by performing the vertical parallax correction process in the above-described embodiment using such a geometrically corrected image.

また、上述した実施形態においては、表示部40が、2種類の画像を交互に高速に切り換えて一の画面上に表示させることによって、立体視画像を立体的に見せているが、立体視画像を立体的に見せる手段はこれに限られない。例えば、立体視画像を表示する画面部分に液晶シャッターを設け、画面上に表示させる2種類の画像を、それぞれ垂直および水平の偏光面を有する画像に変換して交互に画面上に表示させることとしてもよい。この場合に、ユーザは、偏光メガネをかけて画面を見ることにより、画面上に表示された画像を立体的に見ることができる。また、例えば、左目専用の表示画面と右目専用の表示画面とを有するゴーグルタイプの表示装置において、立体視画像を構成する左目用の画像と右目用の画像とをそれぞれの表示画面に表示することで立体的に見せることとしてもよい。   In the above-described embodiment, the display unit 40 displays the stereoscopic image stereoscopically by alternately switching the two types of images at high speed and displaying them on one screen. The means for making the image appear three-dimensional is not limited to this. For example, a liquid crystal shutter is provided in a screen portion for displaying a stereoscopic image, and two types of images to be displayed on the screen are converted into images having vertical and horizontal polarization planes and alternately displayed on the screen. Also good. In this case, the user can see the image displayed on the screen three-dimensionally by viewing the screen while wearing polarized glasses. Further, for example, in a goggle type display device having a display screen dedicated to the left eye and a display screen dedicated to the right eye, the image for the left eye and the image for the right eye constituting the stereoscopic image are displayed on the respective display screens. It is good also as showing it in three dimensions.

建造物上のある点を撮影する瞬間における各ラインセンサの位置を説明するための図である。It is a figure for demonstrating the position of each line sensor in the moment which image | photographs a certain point on a building. 第1実施形態における画像処理装置の機能構成を例示する図である。It is a figure which illustrates the function structure of the image processing apparatus in 1st Embodiment. 二次元画像と飛行軌跡データとに基づいて幾何補正画像が生成される過程を模式した図である。It is the figure which modeled the process in which a geometric correction image is produced | generated based on a two-dimensional image and flight locus data. エリアマッチングを用いて二次元画像間の対応点を求める方法について説明するための図である。It is a figure for demonstrating the method of calculating | requiring the corresponding point between two-dimensional images using area matching. 画像処理における概要動作を示すフローチャートである。It is a flowchart which shows the outline | summary operation | movement in an image process. 第1実施形態における縦視差補正処理における動作を示すフローチャートである。It is a flowchart which shows the operation | movement in the vertical parallax correction process in 1st Embodiment. 第1実施形態における縦視差補正処理の過程を模式した図である。It is the figure which modeled the process of the vertical parallax correction process in 1st Embodiment. 第2実施形態における画像処理装置の機能構成を例示する図である。It is a figure which illustrates the function structure of the image processing apparatus in 2nd Embodiment. 第2実施形態における縦視差補正処理における動作を示すフローチャートである。It is a flowchart which shows the operation | movement in the vertical parallax correction process in 2nd Embodiment. 前方視画像における画素の配列状態を示す図である。It is a figure which shows the arrangement | sequence state of the pixel in a front view image. 前方視画像の幾何補正画像における画素の配列状態を示す図である。It is a figure which shows the arrangement | sequence state of the pixel in the geometric correction image of a front view image. 縦視差が発生する仕組みについて説明するための図である。It is a figure for demonstrating the mechanism in which a vertical parallax generate | occur | produces. 縦視差が発生する仕組みについて説明するための図である。It is a figure for demonstrating the mechanism in which a vertical parallax generate | occur | produces.

符号の説明Explanation of symbols

1,2・・・画像処理装置、10・・・幾何補正部、20・・・立体視部、30,30S・・・縦視差補正部、31・・・逆投影部、33,33S・・・画像マッチング部、35,35S・・・ステレオ計測部、37・・・処理終了判断部、38・・・低解像度画像生成部、39・・・対応領域抽出部、40・・・表示部、50・・・指標表示部、60・・・飛行軌跡データベース、70・・・相関座標情報データベース。   DESCRIPTION OF SYMBOLS 1, 2 ... Image processing apparatus, 10 ... Geometric correction | amendment part, 20 ... Stereoscopic part, 30, 30S ... Vertical parallax correction part, 31 ... Back projection part, 33, 33S ... Image matching unit, 35, 35S ... stereo measurement unit, 37 ... processing end determination unit, 38 ... low resolution image generation unit, 39 ... corresponding region extraction unit, 40 ... display unit, 50... Indicator display section, 60... Flight trajectory database, 70.

Claims (8)

撮影方向が異なる複数のラインセンサにより撮像された一次元画像群からなる複数の二次元画像に基づいて、立体視画像を生成する画像処理装置であって、
前記複数の二次元画像間に生じる縦方向の視差である縦視差を補正する縦視差補正手段を備え、
前記縦視差補正手段により前記縦視差が補正された後の画像に基づいて前記立体視画像を生成することを特徴とする画像処理装置。
An image processing apparatus that generates a stereoscopic image based on a plurality of two-dimensional images composed of one-dimensional image groups captured by a plurality of line sensors having different shooting directions,
Vertical parallax correction means for correcting vertical parallax, which is vertical parallax generated between the plurality of two-dimensional images,
An image processing apparatus that generates the stereoscopic image based on an image after the vertical parallax is corrected by the vertical parallax correction unit.
前記立体視画像を画面上に表示させる表示手段と、
前記表示手段により表示された前記立体視画像上に指標を表示させる指標表示手段とをさらに備え、
前記縦視差補正手段は、前記指標により前記立体視画像上にある任意の位置が特定されるたびに、前記縦視差を補正することを特徴とする請求項1記載の画像処理装置。
Display means for displaying the stereoscopic image on a screen;
Index display means for displaying an index on the stereoscopic image displayed by the display means,
The image processing apparatus according to claim 1, wherein the vertical parallax correction unit corrects the vertical parallax every time an arbitrary position on the stereoscopic image is specified by the index.
前記縦視差補正手段は、
前記複数の二次元画像のいずれか一の二次元画像を基準画像とし、当該基準画像上の座標を第1の座標として決定する第1の座標決定手段と、
前記複数の二次元画像のうち前記基準画像以外の二次元画像から、前記第1の座標決定手段により決定された第1の座標に対応する第2の座標を決定する第2の座標決定手段と、
前記第1の座標および前記第2の座標に基づいて、前記立体視画像上の座標を決定する第3の座標決定手段とを含んで構成されることを特徴とする請求項1または2記載の画像処理装置。
The vertical parallax correction means includes
A first coordinate determining means for determining any one of the plurality of two-dimensional images as a reference image and determining a coordinate on the reference image as a first coordinate;
Second coordinate determining means for determining a second coordinate corresponding to the first coordinate determined by the first coordinate determining means from a two-dimensional image other than the reference image among the plurality of two-dimensional images; ,
The third coordinate determining unit that determines coordinates on the stereoscopic image based on the first coordinates and the second coordinates, and comprising: a third coordinate determining unit that determines coordinates on the stereoscopic image. Image processing device.
前記複数の二次元画像間における相関座標情報を記憶させる記憶手段をさらに備え、
前記第2の座標決定手段は、前記記憶手段により記憶された前記相関座標情報から、前記第1の座標に対応する前記第2の座標を抽出することにより前記第2の座標を決定することを特徴とする請求項3記載の画像処理装置。
Storage means for storing correlation coordinate information between the plurality of two-dimensional images;
The second coordinate determining means determines the second coordinates by extracting the second coordinates corresponding to the first coordinates from the correlated coordinate information stored in the storage means. The image processing apparatus according to claim 3, wherein:
前記縦視差補正手段は、
前記複数の二次元画像の解像度を落として前記各二次元画像のそれぞれに対応する低解像度画像を生成する低解像度画像生成手段と、
前記各低解像度画像間で対応する所定の領域に基づいて、当該所定の領域に対応する対応領域を、前記各低解像度画像に対応する前記二次元画像からそれぞれ抽出する対応領域抽出手段と、
前記各低解像度画像に対応する高解像度画像である前記二次元画像の前記対応領域間における相関座標を決定する相関座標決定手段と、
前記相関座標に基づいて、前記立体視画像上の座標を決定する立体視画像座標決定手段とを含んで構成されることを特徴とする請求項1または2記載の画像処理装置。
The vertical parallax correction means includes
Low-resolution image generation means for generating a low-resolution image corresponding to each of the two-dimensional images by reducing the resolution of the plurality of two-dimensional images;
Based on a predetermined area corresponding to each of the low resolution images, a corresponding area extracting unit that extracts a corresponding area corresponding to the predetermined area from the two-dimensional image corresponding to each of the low resolution images;
Correlation coordinate determining means for determining correlation coordinates between the corresponding regions of the two-dimensional image which is a high resolution image corresponding to each of the low resolution images;
The image processing apparatus according to claim 1, further comprising: a stereoscopic image coordinate determining unit that determines coordinates on the stereoscopic image based on the correlation coordinates.
前記複数の二次元画像が、前記ラインセンサの撮影時における位置データおよび姿勢データに基づいて幾何補正される幾何補正画像であることを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。   The plurality of two-dimensional images are geometrically corrected images that are geometrically corrected based on position data and posture data at the time of photographing by the line sensor. Image processing device. 前記複数の二次元画像のいずれか一の二次元画像が、各二次元画像間における相関座標同士の縦視差に基づいて幾何補正される幾何補正画像であることを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。   The one-dimensional two-dimensional image of the plurality of two-dimensional images is a geometrically corrected image that is geometrically corrected based on a vertical parallax between correlation coordinates between the two-dimensional images. The image processing apparatus according to any one of the above. 撮影方向が異なる複数のラインセンサを空中で移動させながら撮像した一次元画像群からなる複数の二次元画像に基づいて、左目用の画像および右目用の画像からなる立体視画像を画面上に表示させる画像処理装置であって、
前記立体視画像上に指標を表示させる指標表示手段と、
前記立体視画像を画面上に表示させる表示手段とを備え、
前記表示手段は、前記指標が前記立体視画像上に設定されると、前記複数の二次元画像間に生じる縦方向の視差である縦視差が補正された後の前記複数の二次元画像に基づく前記立体視画像を画面上に表示させ、当該立体視画像を立体的に見せることを特徴とする画像処理装置。
Display on the screen a stereoscopic image consisting of an image for the left eye and an image for the right eye based on a plurality of two-dimensional images consisting of a group of one-dimensional images captured while moving a plurality of line sensors in different shooting directions in the air An image processing device for causing
Index display means for displaying an index on the stereoscopic image;
Display means for displaying the stereoscopic image on a screen,
When the indicator is set on the stereoscopic image, the display unit is based on the plurality of two-dimensional images after correcting vertical parallax that is vertical parallax generated between the plurality of two-dimensional images. An image processing apparatus that displays the stereoscopic image on a screen and makes the stereoscopic image appear stereoscopically.
JP2004207783A 2004-07-14 2004-07-14 Image processing apparatus Pending JP2006033294A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004207783A JP2006033294A (en) 2004-07-14 2004-07-14 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004207783A JP2006033294A (en) 2004-07-14 2004-07-14 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2006033294A true JP2006033294A (en) 2006-02-02

Family

ID=35899128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004207783A Pending JP2006033294A (en) 2004-07-14 2004-07-14 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2006033294A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104735436A (en) * 2014-12-29 2015-06-24 深圳超多维光电子有限公司 Single camera three-dimensional imaging method and electronic device
KR20200084974A (en) * 2019-01-03 2020-07-14 단국대학교 산학협력단 Method for estimation of depth of water using hyperspectral image
KR20200084972A (en) * 2019-01-03 2020-07-14 단국대학교 산학협력단 Method for acquisition of hyperspectral image using an unmanned aerial vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104735436A (en) * 2014-12-29 2015-06-24 深圳超多维光电子有限公司 Single camera three-dimensional imaging method and electronic device
KR20200084974A (en) * 2019-01-03 2020-07-14 단국대학교 산학협력단 Method for estimation of depth of water using hyperspectral image
KR20200084972A (en) * 2019-01-03 2020-07-14 단국대학교 산학협력단 Method for acquisition of hyperspectral image using an unmanned aerial vehicle
KR102164522B1 (en) 2019-01-03 2020-10-13 단국대학교 산학협력단 Method for estimation of depth of water using hyperspectral image
KR102169687B1 (en) * 2019-01-03 2020-10-26 단국대학교 산학협력단 Method for acquisition of hyperspectral image using an unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
CN107316325B (en) Airborne laser point cloud and image registration fusion method based on image registration
JP6483075B2 (en) Method of 3D panoramic mosaicing of scenes
KR101754599B1 (en) System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image
Teller et al. Calibrated, registered images of an extended urban area
JP4851239B2 (en) Image processing apparatus and processing method thereof
EP2910899B1 (en) A method and a system for building a three-dimensional model from satellite images
CA2813742A1 (en) Rapid 3d modeling
JP2007322170A (en) Method of aerial photographic survey
CN108399631B (en) Scale invariance oblique image multi-view dense matching method
CN1878318A (en) Three-dimensional small-sized scene rebuilding method based on dual-camera and its device
KR101346192B1 (en) Aviation surveying system for correction realtime of aviation image
JP2020008802A (en) Three-dimensional map generation device and three-dimensional map generation method
KR102159134B1 (en) Method and system for generating real-time high resolution orthogonal map for non-survey using unmanned aerial vehicle
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP3808833B2 (en) Aerial photogrammetry
JP2010128608A (en) Stereo matching processing system, stereo matching processing method, and program
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP4851240B2 (en) Image processing apparatus and processing method thereof
CN108955642B (en) Large-breadth equivalent center projection image seamless splicing method
KR100956446B1 (en) Method for automatic extraction of optimal 3d-object facade texture using digital aerial images
JP2009271895A (en) Image set and method for independent rectification
JP4813263B2 (en) Image processing apparatus and processing method thereof
JP2006033294A (en) Image processing apparatus
JP5885974B2 (en) Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data
US20190268519A1 (en) A bundle adjustment system