JP4574969B2 - Construction method of numerical terrain model using multi-line sensor - Google Patents

Construction method of numerical terrain model using multi-line sensor Download PDF

Info

Publication number
JP4574969B2
JP4574969B2 JP2003322021A JP2003322021A JP4574969B2 JP 4574969 B2 JP4574969 B2 JP 4574969B2 JP 2003322021 A JP2003322021 A JP 2003322021A JP 2003322021 A JP2003322021 A JP 2003322021A JP 4574969 B2 JP4574969 B2 JP 4574969B2
Authority
JP
Japan
Prior art keywords
images
elevation data
stereo matching
terrain model
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003322021A
Other languages
Japanese (ja)
Other versions
JP2005091510A (en
Inventor
正 笹川
由美子 福澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2003322021A priority Critical patent/JP4574969B2/en
Publication of JP2005091510A publication Critical patent/JP2005091510A/en
Application granted granted Critical
Publication of JP4574969B2 publication Critical patent/JP4574969B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Description

本発明は数値写真地図(デジタルオルソフォト)や景観画像(鳥瞰図を含む)を作成するのに使用して好適なマルチラインセンサーを用いた数値地形モデルの構築方法に関する。   The present invention relates to a method for constructing a numerical terrain model using a multiline sensor suitable for creating a numerical photograph map (digital orthophoto) and a landscape image (including a bird's eye view).

一般に数値写真地図(デジタルオルソフォト)や景観画像(鳥瞰図を含む)を形成するのに数値地形モデル(DTM)が使用されている。   In general, a numerical terrain model (DTM) is used to form a numerical photograph map (digital orthophoto) and a landscape image (including a bird's-eye view).

従来、この数値地形モデルを構築するのに、航空機からオーバーラップ量60%以上の条件で飛行しながらアナログ・カメラで撮影しこれをスキャナでデジタル化後、オーバーラップした2枚のデジタル写真から対応点をステレオマッチングすることにより得られる標高データを使用していた。   Conventionally, to build this numerical terrain model, it is possible to capture from an overlapped digital photograph after shooting with an analog camera while flying from an aircraft with an overlap amount of 60% or more and digitizing it with a scanner. Elevation data obtained by stereo-matching points was used.

撮影した航空写真のデジタル化はこの航空写真をスキャナにより読み取ることにより画像データとし、同じ個所を視点を変えて撮影した2つの画像データから対応点をステレオマッチングすることで撮影位置の地形や、建造等の標高データを得ていた(例えば非特許文献1参照。)。
中村英夫、村井俊治著「測量学」技報堂出版株式会社出版、1981年5月25日
Digitization of the aerial photograph taken is converted into image data by reading the aerial photograph with a scanner, and the corresponding point is stereo-matched from two image data taken from different viewpoints, and the terrain of the shooting position or construction Etc. (for example, refer nonpatent literature 1).
Hideo Nakamura, Toshiharu Murai “Surveying Survey”, published by Gihodo Publishing Co., Ltd., May 25, 1981

従来の航空写真では、3重のオーバーラップが20%しかなく、対象地域全体のステレオマッチングは2枚の写真、すなわち1ペアからしかマッチングできなかった。これではオクルージョン部分全てをカバーするマッチングは不可能で、足りない情報は、周辺データから補間して得ていた。よって作成されるDTMの精度も向上できない。オーバーラップ量を増やして更に多重撮影も考えられるが、元来写真は中心投影であり、建物等により発生するオクルージョンは写真中心から放射状(2次元)に発生し、これを考慮して多数枚の対応点の計算は非常に複雑な計算を要することになる。   In conventional aerial photographs, there was only 20% of triple overlap, and stereo matching of the entire target area could only be matched from two photographs, that is, one pair. In this case, matching that covers the entire occlusion portion is impossible, and missing information is obtained by interpolating from surrounding data. Therefore, the accuracy of the created DTM cannot be improved. Multiple shots can be considered by increasing the amount of overlap. Originally, the photograph is a central projection, and the occlusion generated by the building, etc. is generated radially (two-dimensional) from the center of the photograph. The calculation of corresponding points requires a very complicated calculation.

本発明は斯る点に鑑み高精度の数値地形モデルを得ることができるようにすることを目的とする。   SUMMARY OF THE INVENTION In view of the above, an object of the present invention is to obtain a highly accurate numerical landform model.

上記課題を解決し、本発明の目的を達成するため、本発明のマルチラインセンサーを用いた数値地形モデルの構築方法は、第1の飛行コースにおける前方視、直下視及び後方視のラインセンサーより夫々得られる互に重なる第1、第2及び第3の画像を得るとともに、第2の飛行コースにおける前方視、直下視及び後方視のラインセンサーより夫々得られる第1、第2及び第3の画像に50%以上重なり、互に重なる第4、第5及び第6の画像を得るようにしている。
そして、同一位置における方向視の異なる第1から第6の画像をパーソナルコンピュータの演算処理部に供給し、この演算処理部のステレオマッチング処理部において、方向視の異なる第1から第6の画像に基づいて15通りのステレオマッチングを行って、15通りの標高データを得る。その後、上記15通りの標高データを演算処理部のクラスター領域分割処理部に供給して、建物をベースにした基本標高データに基づいて、該建物の周囲をクラスター領域に分割する。そして、クラスター領域に分割した分割領域毎に、演算処理部の統計処理部において、15通りの標高データの統計処理を行い、更に、演算処理部の精度評価処理部において、統計処理部で統計処理した15通りの標高データの中で、建物の周囲のオクルージョン領域のないブロックとオクルージョン領域のあるブロックの評価を行う。
最後に、評価した15通りの標高データを、演算処理部の組み合わせ選定処理部において、建物の周囲のオクルージョン領域をなくす標高データの組み合わせを選定する。
In order to solve the above-described problems and achieve the object of the present invention, a method for constructing a numerical terrain model using the multi-line sensor of the present invention is based on a line sensor for front view, nadir view, and rear view on the first flight course. The first, second, and third images that are obtained from each other are obtained, and the first, second, and third images that are obtained from the front view, direct view, and rear view line sensors in the second flight course, respectively. The fourth, fifth, and sixth images are obtained by overlapping with each other by 50% or more and overlapping each other.
Then, the first to sixth images having different directional views at the same position are supplied to the calculation processing unit of the personal computer, and the stereo matching processing unit of the calculation processing unit converts the first to sixth images having different directional views. Based on the 15 types of stereo matching, 15 types of elevation data are obtained. Thereafter, the 15 types of elevation data are supplied to the cluster area division processing unit of the arithmetic processing unit, and the periphery of the building is divided into cluster areas based on the basic elevation data based on the building. Then, for each divided region divided into cluster regions, the statistical processing unit of the arithmetic processing unit performs statistical processing of 15 kinds of elevation data, and further, the statistical processing unit performs statistical processing in the accuracy evaluation processing unit of the arithmetic processing unit. Among the 15 types of elevation data, a block having no occlusion area and a block having an occlusion area around the building are evaluated.
Finally, the combination of elevation data for eliminating the occlusion area around the building is selected from the evaluated 15 types of elevation data in the combination selection processing unit of the arithmetic processing unit.

本発明によれば第1及び第2の飛行コースにおける撮影画像の重複部が50%以上としているので、この重複部では方視方向の異なる複数のラインセンサーが例えば前方視、直下視及び後方視のラインセンサーの3個であったときは一地点に対し6枚の画像が得られ、この6枚の撮影主点の異なる画像の15通りの組み合わせによるステレオマッチングを行って15通りの標高データを得、この15通りの標高データを選択処理して標高データの組み合わせ選定することにより、高精度の数値地形モデルを得ることができる。   According to the present invention, the overlapping portion of the captured images in the first and second flight courses is 50% or more. In this overlapping portion, the plurality of line sensors having different directions of viewing are, for example, forward view, direct view, and backward view. When there are three line sensors, six images are obtained for one point, and 15 types of elevation data are obtained by performing stereo matching based on 15 combinations of these six images with different photographing main points. In addition, a high-precision numerical landform model can be obtained by selecting these 15 types of elevation data and selecting a combination of the elevation data.

本発明によれば例えば建物の周囲にオクルージョン(隠蔽)部を低減するようにした標高データの組み合わせを選定でき、高精度の数値地形モデルを得ることができる。   According to the present invention, for example, a combination of elevation data in which an occlusion (concealment) portion is reduced around a building can be selected, and a highly accurate numerical landform model can be obtained.

以下図面を参照して本発明マルチラインセンサーを用いた数値地形モデルの構築方法を実施するための最良の形態の例につき説明する。   Hereinafter, an example of the best mode for carrying out a method for constructing a numerical terrain model using a multiline sensor of the present invention will be described with reference to the drawings.

図1は本例マルチラインセンサーを用いた数値地形モデルの構築方法の説明に供する機能ブロックである。   FIG. 1 is a functional block for explaining a method of constructing a numerical terrain model using the multiline sensor of this example.

図1において、1は入力部を示し、この入力部1は図2に示す如く航空機2に搭載したデジタルエアボーンセンサーよりの数値地形モデルを構築しようとする地域の画像を得る如くする。   In FIG. 1, reference numeral 1 denotes an input unit. The input unit 1 obtains an image of a region where a digital terrain model is to be constructed from a digital airborne sensor mounted on an aircraft 2 as shown in FIG.

このデジタルエアボーンセンサーは、前方視、直下視及び後方視の異なる3方向視のラインセンサーにより撮影し、飛行コースに応じた図3に示す如き3つの重なるデジタル画像2a,2b及び2cを得る如くなされたものである。   This digital airborne sensor is photographed by three-direction line sensors different in forward view, direct view and backward view to obtain three overlapping digital images 2a, 2b and 2c according to the flight course as shown in FIG. It is a thing.

この前方視のラインセンサーより得られる画像2aは図4Aに示す如く、所定の撮影幅Wの建物3等の後側より見た画像であり、この直下視のラインセンサーより得られる画像2bは図4Bに示す如く所定撮影幅Wの建物3等の上面側より見た画像であり、後方視のラインセンサーより得られる画像2cは図4Cに示す如く、所定撮影幅Wの建物3等の前側より見た画像である。   As shown in FIG. 4A, the image 2a obtained from the front-view line sensor is an image viewed from the rear side of the building 3 or the like having a predetermined photographing width W. The image 2b obtained from the direct-view line sensor is shown in FIG. 4B is an image viewed from the upper surface side of the building 3 or the like having a predetermined shooting width W as shown in FIG. 4B, and an image 2c obtained from the line sensor in the rear view is as shown in FIG. This is the image I saw.

本例においてはこの数値地形モデルを構築しようとする地域を飛行コースを変えて図2に示す如く2回撮影して画像を得る如くする。この場合は本例においては、この2回の撮影の撮影幅W即ち画像が50%以上重なる如くする。このとき、この2回の撮影した画像の重なった部分では同一位置における方向視の異なる6枚の画像が得られる。この2回の飛行コースは同方向であっても良いし、逆方向であっても良い。   In this example, the area where the numerical terrain model is to be constructed is photographed twice as shown in FIG. In this case, in this example, the photographing width W of the two photographings, that is, the images are overlapped by 50% or more. At this time, six images with different directional views at the same position are obtained in the overlapping portion of the two captured images. The two flight courses may be in the same direction or in opposite directions.

今、図5A,Bに示す如く例えば縦横夫々100mで高さが200mの建物3が所定間隔に所定個有る地域の数値地形モデル(DTM)を構築するために、まず図5Aに示す如く南コース10Sを飛行し、地域11S例えば2000m×2000mを撮影して南側前方視画像2aS、南側直下視画像2bS及び南側後方視画像2cSを得る。   As shown in FIGS. 5A and 5B, in order to construct a numerical terrain model (DTM) of an area where there are a predetermined number of buildings 3 each having a height of 100 m and a height of 200 m at predetermined intervals as shown in FIGS. The aircraft travels 10S, and the area 11S, for example, 2000 m × 2000 m is photographed to obtain the south front view image 2aS, the south direct view image 2bS, and the south rear view image 2cS.

次に図5Bに示す如く南コース10Sの飛行時の撮影画像即ち地域11Sと50%重なるように北コース10Nを飛行し、地域11Sと50%重なる例えば2000m×2000mの地域11Nを撮影して、北側前方視画像2aN、北側直下視画像2bN及び北側後方視画像2cNを得る。   Next, as shown in FIG. 5B, the captured image at the time of flight of the south course 10S, that is, the north course 10N flies 50% to overlap the area 11S, and the area 11N of 2000 m × 2000 m that overlaps the area 11S, for example, 50% is photographed. A north front view image 2aN, a north side direct view image 2bN, and a north side rear view image 2cN are obtained.

この場合、北コース10Nを南コース10Sと同方向に飛行したときのこの2回の撮影による前方視画像2aS及び2aNの合成画像は図6Aに示す如くなる。この図6Aの斜線部分はオクルージョン(隠蔽)領域である。図6Bはこの図6Aの部分拡大図を示す。   In this case, when the north course 10N flies in the same direction as the south course 10S, a composite image of the forward-view images 2aS and 2aN obtained by the two shootings is as shown in FIG. 6A. The shaded area in FIG. 6A is an occlusion area. FIG. 6B shows a partially enlarged view of FIG. 6A.

また北コース10Nを南コース10Sと同方向に飛行したときのこの2回の撮影による直下視画像2bS及び2bNの合成画像は図7Aに示す如くである。この図7Aの斜線部分はオクルージョン(隠蔽)領域である。図7Bはこの図7Aの部分拡大図を示す。   Further, a composite image of the nadir images 2bS and 2bN obtained by the two photographings when the north course 10N flies in the same direction as the south course 10S is as shown in FIG. 7A. The shaded area in FIG. 7A is an occlusion area. FIG. 7B shows a partially enlarged view of FIG. 7A.

また北コース10Nを南コース10Sと同方向に飛行したときのこの2回の撮影による後方視画像2cS及び2cNの合成画像は図8Aに示す如くである。この図8Aの斜線部分はオクルージョン(隠蔽)領域である。図8Bは図8Aの部分拡大図を示す。   Further, a composite image of the rear-view images 2cS and 2cN obtained by the two shootings when the north course 10N flies in the same direction as the south course 10S is as shown in FIG. 8A. The shaded area in FIG. 8A is an occlusion area. FIG. 8B shows a partially enlarged view of FIG. 8A.

また北コース10Nを南コース10Sと逆方向に飛行したときのこの2回の撮影による前方視画像2aS及び2aNの合成画像は図9Aに示す如くである。この図9Aの斜線部分はオクルージョン(隠蔽)領域である。図9Bは図9Aの部分拡大図を示す。   Further, a composite image of the forward-view images 2aS and 2aN obtained by the two shootings when the north course 10N flies in the opposite direction to the south course 10S is as shown in FIG. 9A. The shaded area in FIG. 9A is an occlusion area. FIG. 9B shows a partially enlarged view of FIG. 9A.

また北コース10Nを南コース10Sと逆方向に飛行したときのこの2回の撮影による直下視画像2bS及び2bNの合成画像は図7A及びBに示す如くで北コース10Nを南コース10Sと同方向に飛行したときの2回の撮影による直下視画像2bS及び2bNの合成画像と同じである。   Further, when the north course 10N flies in the opposite direction to the south course 10S, the composite images of the directly viewed images 2bS and 2bN obtained by the two shootings are as shown in FIGS. 7A and B, and the north course 10N is in the same direction as the south course 10S. This is the same as the synthesized image of the nadir images 2bS and 2bN obtained by the two shootings when the aircraft flew.

また、北コース10Nを南コース10Sと逆方向に飛行したときのこの2回の撮影による後方視画像2cS及び2cNの合成画像は図10Aに示す如くである。この図10Aの斜線部分はオクルージョン(隠蔽)領域である。図10Bは図10Aの部分拡大図を示す。   Further, a composite image of the rear-view images 2cS and 2cN obtained by the two shootings when the north course 10N flies in the opposite direction to the south course 10S is as shown in FIG. 10A. The shaded area in FIG. 10A is an occlusion area. FIG. 10B shows a partially enlarged view of FIG. 10A.

この入力部1に得られる同一位置における方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNをパーソナルコンピュータ等より成る演算処理部5に供給する。また航空機2に得られるGPS(Global Positioning System)データ、IMU(Inertial Measurement Unit)データより形成した航空機2の位置・姿勢の補正データをこの演算処理部5に供給する。   The six images 2aS, 2bS, 2cS, 2aN, 2bN, and 2cN obtained in the same position at the same position and obtained in the input unit 1 are supplied to the arithmetic processing unit 5 including a personal computer or the like. Further, position / posture correction data of the aircraft 2 formed from GPS (Global Positioning System) data and IMU (Internal Measurement Unit) data obtained for the aircraft 2 is supplied to the arithmetic processing unit 5.

この演算処理部5においては、まず座標補正処理部5aでこの補正データを使用して方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNの座標補正処理を行い、この座標補正処理を行った方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNをステレオマッチング処理部5bに供給する。   In this arithmetic processing unit 5, first, the coordinate correction processing unit 5a uses this correction data to perform coordinate correction processing of six images 2aS, 2bS, 2cS, 2aN, 2bN, and 2cN having different directional views. Six images 2aS, 2bS, 2cS, 2aN, 2bN, and 2cN that have been subjected to the correction process and are different in direction are supplied to the stereo matching processing unit 5b.

このステレオマッチング処理部5bにおいては、この方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNで15通りのステレオマッチングを行い15通りの標高データを得る如くする。この15通りの標高データを記憶部6に記憶する如くする。   In this stereo matching processing section 5b, 15 different stereo matchings are performed on the six images 2aS, 2bS, 2cS, 2aN, 2bN, and 2cN having different directional views to obtain 15 different elevation data. The 15 kinds of elevation data are stored in the storage unit 6.

この15通りの標高データとしては飛行コースが10S及び10Nが同方向のときは図11に示す如くであり、飛行コース10S及び10Nが逆方向のときは図12に示す如くである。この図11、図12において斜線部はオクルージョン(隠蔽)領域を示す。   The 15 kinds of elevation data are as shown in FIG. 11 when the flight courses 10S and 10N are in the same direction, and as shown in FIG. 12 when the flight courses 10S and 10N are in the opposite direction. In FIG. 11 and FIG. 12, the shaded area indicates an occlusion area.

この15通りの標高データをクラスター領域分割処理部5cに供給する。このクラスター領域分割処理部5cにおいては、基本標高データ本例では建物3の標高データ)を元に、この建物3の周囲を8ブロックへクラスター領域分割し、統計処理部5dで、この分割領域毎に、この15通りの標高データを統計処理し、精度評価処理部5eで図13Bに示す如く、建物3の周囲のオクルージョン(隠蔽)領域のないブロックを良とし、オクルージョン(隠蔽)領域のあるブロックを否とする如く評価する。 The 15 kinds of elevation data are supplied to the cluster area division processing unit 5c. The cluster area division processing unit 5c divides the periphery of the building 3 into 8 blocks based on the basic elevation data (in this example, the elevation data of the building 3 ) , and the statistical processing unit 5d Each of these 15 types of altitude data is statistically processed, and the accuracy evaluation processing unit 5e accepts a block having no occlusion (hidden) area around the building 3 as shown in FIG. 13B, and has an occlusion (hidden) area. Evaluate the block as denial.

この15通りの標高データの標高結果を記憶部6に記憶し、標高データの組み合わせ選定処理部5fで、例えば建物3の周囲にオクルージョン(隠蔽)領域をなくす標高データの組み合わせを選定する。この場合標高データの組み合わせの数が少ない程良とする。   The altitude results of these 15 types of altitude data are stored in the storage unit 6, and the altitude data combination selection processing unit 5f selects, for example, a combination of altitude data that eliminates an occlusion (concealment) area around the building 3. In this case, the smaller the number of elevation data combinations, the better.

例えば図14、図15Aに示す如く飛行コース10S及び10Nが同方向の場合、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと飛行コース10Nの直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせを選定することで建物3の周囲のブロックにオクルージョン(隠蔽)領域をなくすことができる。   For example, as shown in FIGS. 14 and 15A, when the flight courses 10S and 10N are in the same direction, the elevation data obtained by stereo matching of the front view image 2aS and the nadir view image 2bS of the flight course 10S and the nadir view image 2bN and the rear view of the flight course 10N By selecting a combination with elevation data obtained by stereo matching of the visual image 2cN, an occlusion (concealment) region can be eliminated in the blocks around the building 3.

この飛行コース10S及び10Nが同方向の場合に選定される標高データの候補としては、上述図14、図15Aに示す外に、図15Bに示す如く、飛行コース10Sの直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データと飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データとの組み合わせ、図15Cに示す如く、飛行コース10Sの前方視画像2aS及び後方視画像2cSのステレオマッチングによる標高データと、飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データと直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせ、図15Dに示す如く、飛行コース10Nの前方視画像2aN及び後方視画像2cNのステレオマッチングによる標高データと、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データとの組み合わせを選定する。   The altitude data candidates selected when the flight courses 10S and 10N are in the same direction include the direct view image 2bS and the rear view of the flight course 10S as shown in FIG. 15B in addition to those shown in FIGS. 14 and 15A. A combination of elevation data obtained by stereo matching of the image 2cS and elevation data 2aN of the flight course 10N and elevation data obtained by stereo matching of the nadir view image 2bN. As shown in FIG. 15C, the forward view image 2aS and the rear view image of the flight course 10S. Combination of altitude data by stereo matching of 2cS and altitude data by stereo matching of forward view image 2aN and nadir view image 2bN of flight course 10N and stereo matching of nadir view image 2bN and back view image 2cN, FIG. 15D As shown in front of flight course 10N Elevation data obtained by stereo matching of the visual image 2aN and the rear view image 2cN, and elevation data obtained by stereo matching of the front view image 2aS and the direct view image 2bS of the flight course 10S, and the stereo match of the direct view image 2bS and the rear view image 2cS. Select a combination with data.

また、この飛行コース10S及び10Nが逆方向の場合に選定される標高データの候補は、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと、飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データとの組み合わせ、飛行コース10Sの直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データと、飛行コース10Nの直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせ、飛行コース10Sの前方視画像2aS及び後方視画像2cSのステレオマッチングによる標高データと、飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データと直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせ、飛行コース10Nの前方視画像2aN及び後方視画像2cNのステレオマッチングによる標高データと、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データとの組み合わせを選定する。   Further, the altitude data candidates selected when the flight courses 10S and 10N are in the reverse direction are elevation data obtained by stereo matching of the forward view image 2aS and the direct view image 2bS of the flight course 10S and the forward view of the flight course 10N. A combination of altitude data obtained by stereo matching of the image 2aN and the nadir view image 2bN, altitude data obtained by stereo matching of the nadir view image 2bS and the rear view image 2cS of the flight course 10S, and a nadir view image 2bN and a rear view image of the flight course 10N. Combination of elevation data by stereo matching of 2cN, elevation data by stereo matching of front view image 2aS and rear view image 2cS of flight course 10S, and elevation by stereo matching of front view image 2aN and nadir view image 2bN of flight course 10N data A combination of elevation data obtained by stereo matching of the nadir image 2bN and the rear view image 2cN, altitude data obtained by stereo matching of the front view image 2aN and the rear view image 2cN of the flight course 10N, and the front view image 2aS of the flight course 10S A combination of elevation data obtained by stereo matching of the visual image 2bS and elevation data obtained by stereo matching of the direct-view image 2bS and the rear-view image 2cS is selected.

図15C、D、図16C、Dは3つの標高データを使用しているのに組み合わせの候補としたのは、前方視画像及び後方視画像のステレオマッチングによる標高データがステレオマッチングする視野角が広く精度が良いものが得られると考えられることによる。   15C, D, FIG. 16C, and D use the three elevation data, but the combination is selected because the elevation data obtained by stereo matching of the forward-viewing image and the rear-viewing image has a wide viewing angle. This is because it is considered that a product with good accuracy can be obtained.

この標高データの組み合わせ選定処理部5fで上述候補の組み合わせ及びその他の組み合わせの内最良の標高データの組み合わせを選定し、この選定された標高データの組み合わせを数値地形モデル作成部7に供給し、この数値地形モデル作成部7でこの選定された標高データの組み合わせに基いて数値地形モデル(DTM)を作成する。   The elevation data combination selection processing unit 5f selects the best combination of the above-mentioned candidate and other combinations, and supplies the selected combination of elevation data to the numerical terrain model creation unit 7. The numerical terrain model creation unit 7 creates a numerical terrain model (DTM) based on the selected combination of elevation data.

図1において、8はオペレータが種々の操作、指令を行う操作部、9はこの数値地形モデル作成の状況等を表示する表示部である。   In FIG. 1, 8 is an operation unit where the operator performs various operations and commands, and 9 is a display unit for displaying the status of the numerical terrain model creation.

本例によれば飛行コース10S及び10Nにおける撮影画像の重複部が50%以上としているので、この重複部では一地点に対し6枚の画像が得られ、この6枚の撮影主点の異なる画像の15(62)通りの組み合わせによるステレオマッチングを行って15通りの標高データを得、この15通りの標高データより例えば建物3の周囲にオクルージョン(隠蔽)領域をなくすようにした標高データの組み合わせを得ることができ、高精度の数値地形モデルを得ることができる。 According to this example, since the overlapping portion of the captured images in the flight courses 10S and 10N is 50% or more, six images are obtained for one point in the overlapping portion, and the six images having different photographing main points are obtained. 15 ( 6 C 2 ) combinations of the above are obtained to obtain 15 kinds of elevation data, and from the 15 kinds of elevation data, for example, the occlusion (concealment) area around the building 3 is eliminated. Combinations can be obtained, and a highly accurate numerical terrain model can be obtained.

尚上述例においては、前方視のラインセンサー、直下視のラインセンサー及び後方視のラインセンサーの異なる3方視のラインセンサーを使用した例につき述べたが、このラインセンサーは飛行方向と取付けラインセンサーの角度によって3方視ラインセンサー以外の2方視あるいは4方視以上のラインセンサーであっても良い。この場合も上述例同様の作用効果が得られることは容易に理解できよう。   In the above-mentioned example, the example using the line sensor for the three-sided view different from the line sensor for the forward view, the line sensor for the direct view and the line sensor for the rear view is described. Depending on the angle, a line sensor other than the three-way line sensor may be used. In this case, it can be easily understood that the same effect as the above-described example can be obtained.

また本発明は上述例に限ることなく本発明の要旨を逸脱することなくその他種々の構成が採り得ることは勿論である。   Further, the present invention is not limited to the above-described examples, and various other configurations can be adopted without departing from the gist of the present invention.

本発明マルチラインセンサーを用いた数値地形モデルの構築方法の実施の形態の例の説明に供する機能ブロック図である。It is a functional block diagram with which it uses for description of the example of embodiment of the construction method of the numerical terrain model using the multiline sensor of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention. 本発明の説明に供する線図である。It is a diagram with which it uses for description of this invention.

符号の説明Explanation of symbols

1‥‥入力部、2‥‥航空機、2aS,2bS,2cS,2aN,2bN,2cN‥‥画像、3‥‥建物、5‥‥演算処理部、5a‥‥座標補正処理部、5b‥‥ステレオマッチング処理部、5c‥‥クラスター領域分割処理部、5d‥‥統計処理部、5e‥‥精度評価処理部、5f‥‥標高データの組み合わせ選定処理部、6‥‥記憶部、7‥‥数値地形モデル作成部、8‥‥操作部、9‥‥表示部 DESCRIPTION OF SYMBOLS 1 ... Input part, 2 ... Aircraft, 2aS, 2bS, 2cS, 2aN, 2bN, 2cN ... Image, 3 ... Building, 5 ... Operation processing part, 5a ... Coordinate correction processing part, 5b ... Stereo Matching processing unit, 5c ... Cluster area division processing unit, 5d ... Statistical processing unit, 5e ... Accuracy evaluation processing unit, 5f ... Altitude data combination selection processing unit, 6 ... Storage unit, 7 ... Numerical landform Model creation section, 8 ... operation section, 9 ... display section

Claims (9)

第1の飛行コースにおける前方視、直下視及び後方視のラインセンサーより夫々得られる互に重なる第1、第2及び第3の画像を得るステップと、
第2の飛行コースにおける前記前方視、直下視及び後方視のラインセンサーより夫々得られる前記第1、第2及び第3の画像に50%以上重なり、互に重なる第4、第5及び第6の画像を得るステップと、
同一位置における前記方向視の異なる第1から第6の画像をパーソナルコンピュータの演算処理部に供給するステップと、
前記演算処理部のステレオマッチング処理部において、前記方向視の異なる第1から第6の画像に基づいて15通りのステレオマッチングを行って、15通りの標高データを得るステップと、
前記15通りの標高データを前記演算処理部のクラスター領域分割処理部に供給して、建物をベースにした基本標高データに基づいて、該建物の周囲をクラスター領域に分割するステップと、
前記クラスター領域に分割した分割領域毎に、前記演算処理部の統計処理部において、前記15通りの標高データを統計処理するステップと、
前記演算処理部の精度評価処理部において、前記統計処理部で統計処理した前記15通りの標高データの中で、前記建物の周囲のオクルージョン領域のないブロックとオクルージョン領域のあるブロックの評価を行うステップと、
前記15通りの標高データを、前記演算処理部の組み合わせ選定処理部において、前記建物の周囲のオクルージョン領域をなくす標高データの組み合わせを選定するステップと、を含む、マルチラインセンサーを用いた数値地形モデルの構築方法。
Obtaining mutually overlapping first, second and third images respectively obtained from the front view, direct view and back view line sensors in the first flight course;
The fourth, fifth, and sixth layers overlap each other by 50% or more with the first, second, and third images respectively obtained from the front view, direct view, and rear view line sensors in the second flight course. Obtaining an image of
Supplying first to sixth images having different directional views at the same position to an arithmetic processing unit of a personal computer;
In the stereo matching processing unit of the arithmetic processing unit, performing 15 types of stereo matching based on the first to sixth images having different direction views to obtain 15 types of elevation data;
Supplying the 15 types of altitude data to the cluster area division processing unit of the arithmetic processing unit, and dividing the periphery of the building into cluster areas based on the basic altitude data based on the building;
Statistically processing the 15 types of elevation data in the statistical processing unit of the arithmetic processing unit for each divided region divided into the cluster regions;
In the accuracy evaluation processing unit of the arithmetic processing unit , a step of evaluating a block having no occlusion area and a block having an occlusion area around the building among the 15 types of elevation data statistically processed by the statistical processing unit When,
Selecting the combination of elevation data for eliminating the occlusion area around the building in the combination selection processing unit of the arithmetic processing unit from the 15 types of elevation data, and a numerical terrain model using a multiline sensor How to build.
前記第1及び第2の飛行コースの飛行方向を同方向とし、前記第1及び第2の画像のステレオマッチングによる標高データと、前記第5及び第6の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   A combination of elevation data obtained by stereo matching of the first and second images and elevation data obtained by stereo matching of the fifth and sixth images, wherein the flight directions of the first and second flight courses are the same direction. The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a model. 前記第1及び第2の飛行コースの飛行方向を同方向とし、前記第2及び第3の画像のステレオマッチングによる標高データと、前記第4及び第5の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   A combination of elevation data obtained by stereo matching of the second and third images and elevation data obtained by stereo matching of the fourth and fifth images, with the flight directions of the first and second flight courses being the same direction. The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a model. 前記第1及び第2の飛行コースの飛行方向を同方向とし、前記第1及び第3の画像のステレオマッチングによる標高データと、第4及び第5の画像のステレオマッチングによる標高データと、第5及び第6の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   Elevation data obtained by stereo matching of the first and third images, elevation data obtained by stereo matching of the fourth and fifth images, The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a combination with elevation data obtained by stereo matching of the sixth image. 前記第1及び第2の飛行コースの飛行方向を同方向とし、前記第1及び第2の画像のステレオマッチングによる標高データと、第2及び第3の画像のステレオマッチングによる標高データと、第4及び第6の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   Elevation data obtained by stereo matching of the first and second images, elevation data obtained by stereo matching of the second and third images, and a fourth direction, wherein the first and second flight courses have the same flight direction. The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a combination with elevation data obtained by stereo matching of the sixth image. 前記第1及び第2の飛行コースの飛行方向を互に逆方向とし、前記第1及び第2の画像のステレオマッチングによる標高データと、前記第4及び第5の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   Elevation data obtained by stereo matching of the first and second images, and elevation data obtained by stereo matching of the fourth and fifth images, wherein the flight directions of the first and second flight courses are opposite to each other. The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a combination. 前記第1及び第2の飛行コースの飛行方向を互に逆方向とし、前記第2及び第3の画像のステレオマッチングによる標高データと、前記第5及び第6の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   Elevation data obtained by stereo matching of the second and third images, and elevation data obtained by stereo matching of the fifth and sixth images, wherein the flight directions of the first and second flight courses are opposite to each other. The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a combination. 前記第1及び第2の飛行コースの飛行方向を互に逆方向とし、前記第1及び第3の画像のステレオマッチングによる標高データと、第4及び第5の画像のステレオマッチングによる標高データと、第5及び第6の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   The flight directions of the first and second flight courses are opposite to each other, the elevation data by stereo matching of the first and third images, and the elevation data by stereo matching of the fourth and fifth images, The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a combination with elevation data obtained by stereo matching of the fifth and sixth images. 前記第1及び第2の飛行コースの飛行方向を互に逆方向とし、前記第1及び第2の画像のステレオマッチングによる標高データと、第2及び第3の画像のステレオマッチングによる標高データと、第4及び第6の画像のステレオマッチングによる標高データとの組み合わせを選定して前記数値地形モデルを得る、請求項1に記載のマルチラインセンサーを用いた数値地形モデルの構築方法。   The flight directions of the first and second flight courses are opposite to each other, elevation data by stereo matching of the first and second images, and elevation data by stereo matching of the second and third images, The method for constructing a numerical terrain model using a multi-line sensor according to claim 1, wherein the numerical terrain model is obtained by selecting a combination with altitude data obtained by stereo matching of the fourth and sixth images.
JP2003322021A 2003-09-12 2003-09-12 Construction method of numerical terrain model using multi-line sensor Expired - Fee Related JP4574969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003322021A JP4574969B2 (en) 2003-09-12 2003-09-12 Construction method of numerical terrain model using multi-line sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003322021A JP4574969B2 (en) 2003-09-12 2003-09-12 Construction method of numerical terrain model using multi-line sensor

Publications (2)

Publication Number Publication Date
JP2005091510A JP2005091510A (en) 2005-04-07
JP4574969B2 true JP4574969B2 (en) 2010-11-04

Family

ID=34453519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003322021A Expired - Fee Related JP4574969B2 (en) 2003-09-12 2003-09-12 Construction method of numerical terrain model using multi-line sensor

Country Status (1)

Country Link
JP (1) JP4574969B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102544043B1 (en) * 2021-04-01 2023-06-15 네이버랩스 주식회사 Method and system for updating aerial map using image by drone

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000088523A (en) * 1998-09-09 2000-03-31 Tech Res & Dev Inst Of Japan Def Agency Recognition equipment and method of object using feature vector
JP2003140544A (en) * 2001-11-07 2003-05-16 Nakanihon Koku Kk Method for discriminating characteristic land feature and device for the same
JP2004030461A (en) * 2002-06-27 2004-01-29 Starlabo Corp Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2807622B2 (en) * 1993-12-13 1998-10-08 株式会社コア Aircraft integrated photography system
JP3653769B2 (en) * 1995-02-07 2005-06-02 朝日航洋株式会社 Flow measuring method and apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000088523A (en) * 1998-09-09 2000-03-31 Tech Res & Dev Inst Of Japan Def Agency Recognition equipment and method of object using feature vector
JP2003140544A (en) * 2001-11-07 2003-05-16 Nakanihon Koku Kk Method for discriminating characteristic land feature and device for the same
JP2004030461A (en) * 2002-06-27 2004-01-29 Starlabo Corp Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon

Also Published As

Publication number Publication date
JP2005091510A (en) 2005-04-07

Similar Documents

Publication Publication Date Title
JP6483075B2 (en) Method of 3D panoramic mosaicing of scenes
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
Morgan Epipolar resampling of linear array scanner scenes
ES2787226T3 (en) Oblique Mosaic Images and Methods for Making and Using Them
EP2247094A1 (en) Orthophotographic image creating method and imaging device
JP6079131B2 (en) Image processing apparatus, method, and program
US20140376821A1 (en) Method and system for determining position and/or orientation
US20100054627A1 (en) Methods and systems for creating an aligned bank of images with an iterative self-correction technique for coordinate acquisition and object detection
EP2918972A2 (en) Method and handheld distance measuring device for generating a spatial model
JP6616967B2 (en) Map creation apparatus and map creation method
JP5147980B1 (en) Object multiple image associating device, data reproducing device thereof, and image processing system
WO2011040239A1 (en) Wide angle imaging device and measurement system
JP2005268847A (en) Image generating apparatus, image generating method, and image generating program
JP6854195B2 (en) Image processing device, image processing method and program for image processing
JP4698271B2 (en) Topographic three-dimensional data generation method, topographic change evaluation method, and topographic change evaluation system
JP7051616B2 (en) Image display system and method
CN108399631B (en) Scale invariance oblique image multi-view dense matching method
CN110573834A (en) Construction management device and construction management method
JP6910454B2 (en) Methods and systems for generating composite top-view images of roads
JP2005077385A (en) Image correlation method, survey method and measuring system using them
US7451060B2 (en) Method of producing aerial photograph data
JP3808833B2 (en) Aerial photogrammetry
JP5805574B2 (en) Perimeter monitoring equipment for work machines
JP4574969B2 (en) Construction method of numerical terrain model using multi-line sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100819

R150 Certificate of patent or registration of utility model

Ref document number: 4574969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees