JP4574969B2 - Construction method of numerical terrain model using multi-line sensor - Google Patents
Construction method of numerical terrain model using multi-line sensor Download PDFInfo
- Publication number
- JP4574969B2 JP4574969B2 JP2003322021A JP2003322021A JP4574969B2 JP 4574969 B2 JP4574969 B2 JP 4574969B2 JP 2003322021 A JP2003322021 A JP 2003322021A JP 2003322021 A JP2003322021 A JP 2003322021A JP 4574969 B2 JP4574969 B2 JP 4574969B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- elevation data
- stereo matching
- terrain model
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
Description
本発明は数値写真地図(デジタルオルソフォト)や景観画像(鳥瞰図を含む)を作成するのに使用して好適なマルチラインセンサーを用いた数値地形モデルの構築方法に関する。 The present invention relates to a method for constructing a numerical terrain model using a multiline sensor suitable for creating a numerical photograph map (digital orthophoto) and a landscape image (including a bird's eye view).
一般に数値写真地図(デジタルオルソフォト)や景観画像(鳥瞰図を含む)を形成するのに数値地形モデル(DTM)が使用されている。 In general, a numerical terrain model (DTM) is used to form a numerical photograph map (digital orthophoto) and a landscape image (including a bird's-eye view).
従来、この数値地形モデルを構築するのに、航空機からオーバーラップ量60%以上の条件で飛行しながらアナログ・カメラで撮影しこれをスキャナでデジタル化後、オーバーラップした2枚のデジタル写真から対応点をステレオマッチングすることにより得られる標高データを使用していた。 Conventionally, to build this numerical terrain model, it is possible to capture from an overlapped digital photograph after shooting with an analog camera while flying from an aircraft with an overlap amount of 60% or more and digitizing it with a scanner. Elevation data obtained by stereo-matching points was used.
撮影した航空写真のデジタル化はこの航空写真をスキャナにより読み取ることにより画像データとし、同じ個所を視点を変えて撮影した2つの画像データから対応点をステレオマッチングすることで撮影位置の地形や、建造等の標高データを得ていた(例えば非特許文献1参照。)。
従来の航空写真では、3重のオーバーラップが20%しかなく、対象地域全体のステレオマッチングは2枚の写真、すなわち1ペアからしかマッチングできなかった。これではオクルージョン部分全てをカバーするマッチングは不可能で、足りない情報は、周辺データから補間して得ていた。よって作成されるDTMの精度も向上できない。オーバーラップ量を増やして更に多重撮影も考えられるが、元来写真は中心投影であり、建物等により発生するオクルージョンは写真中心から放射状(2次元)に発生し、これを考慮して多数枚の対応点の計算は非常に複雑な計算を要することになる。 In conventional aerial photographs, there was only 20% of triple overlap, and stereo matching of the entire target area could only be matched from two photographs, that is, one pair. In this case, matching that covers the entire occlusion portion is impossible, and missing information is obtained by interpolating from surrounding data. Therefore, the accuracy of the created DTM cannot be improved. Multiple shots can be considered by increasing the amount of overlap. Originally, the photograph is a central projection, and the occlusion generated by the building, etc. is generated radially (two-dimensional) from the center of the photograph. The calculation of corresponding points requires a very complicated calculation.
本発明は斯る点に鑑み高精度の数値地形モデルを得ることができるようにすることを目的とする。 SUMMARY OF THE INVENTION In view of the above, an object of the present invention is to obtain a highly accurate numerical landform model.
上記課題を解決し、本発明の目的を達成するため、本発明のマルチラインセンサーを用いた数値地形モデルの構築方法は、第1の飛行コースにおける前方視、直下視及び後方視のラインセンサーより夫々得られる互に重なる第1、第2及び第3の画像を得るとともに、第2の飛行コースにおける前方視、直下視及び後方視のラインセンサーより夫々得られる第1、第2及び第3の画像に50%以上重なり、互に重なる第4、第5及び第6の画像を得るようにしている。
そして、同一位置における方向視の異なる第1から第6の画像をパーソナルコンピュータの演算処理部に供給し、この演算処理部のステレオマッチング処理部において、方向視の異なる第1から第6の画像に基づいて15通りのステレオマッチングを行って、15通りの標高データを得る。その後、上記15通りの標高データを演算処理部のクラスター領域分割処理部に供給して、建物をベースにした基本標高データに基づいて、該建物の周囲をクラスター領域に分割する。そして、クラスター領域に分割した分割領域毎に、演算処理部の統計処理部において、15通りの標高データの統計処理を行い、更に、演算処理部の精度評価処理部において、統計処理部で統計処理した15通りの標高データの中で、建物の周囲のオクルージョン領域のないブロックとオクルージョン領域のあるブロックの評価を行う。
最後に、評価した15通りの標高データを、演算処理部の組み合わせ選定処理部において、建物の周囲のオクルージョン領域をなくす標高データの組み合わせを選定する。
In order to solve the above-described problems and achieve the object of the present invention, a method for constructing a numerical terrain model using the multi-line sensor of the present invention is based on a line sensor for front view, nadir view, and rear view on the first flight course. The first, second, and third images that are obtained from each other are obtained, and the first, second, and third images that are obtained from the front view, direct view, and rear view line sensors in the second flight course, respectively. The fourth, fifth, and sixth images are obtained by overlapping with each other by 50% or more and overlapping each other.
Then, the first to sixth images having different directional views at the same position are supplied to the calculation processing unit of the personal computer, and the stereo matching processing unit of the calculation processing unit converts the first to sixth images having different directional views. Based on the 15 types of stereo matching, 15 types of elevation data are obtained. Thereafter, the 15 types of elevation data are supplied to the cluster area division processing unit of the arithmetic processing unit, and the periphery of the building is divided into cluster areas based on the basic elevation data based on the building. Then, for each divided region divided into cluster regions, the statistical processing unit of the arithmetic processing unit performs statistical processing of 15 kinds of elevation data, and further, the statistical processing unit performs statistical processing in the accuracy evaluation processing unit of the arithmetic processing unit. Among the 15 types of elevation data, a block having no occlusion area and a block having an occlusion area around the building are evaluated.
Finally, the combination of elevation data for eliminating the occlusion area around the building is selected from the evaluated 15 types of elevation data in the combination selection processing unit of the arithmetic processing unit.
本発明によれば第1及び第2の飛行コースにおける撮影画像の重複部が50%以上としているので、この重複部では方視方向の異なる複数のラインセンサーが例えば前方視、直下視及び後方視のラインセンサーの3個であったときは一地点に対し6枚の画像が得られ、この6枚の撮影主点の異なる画像の15通りの組み合わせによるステレオマッチングを行って15通りの標高データを得、この15通りの標高データを選択処理して標高データの組み合わせ選定することにより、高精度の数値地形モデルを得ることができる。 According to the present invention, the overlapping portion of the captured images in the first and second flight courses is 50% or more. In this overlapping portion, the plurality of line sensors having different directions of viewing are, for example, forward view, direct view, and backward view. When there are three line sensors, six images are obtained for one point, and 15 types of elevation data are obtained by performing stereo matching based on 15 combinations of these six images with different photographing main points. In addition, a high-precision numerical landform model can be obtained by selecting these 15 types of elevation data and selecting a combination of the elevation data.
本発明によれば例えば建物の周囲にオクルージョン(隠蔽)部を低減するようにした標高データの組み合わせを選定でき、高精度の数値地形モデルを得ることができる。 According to the present invention, for example, a combination of elevation data in which an occlusion (concealment) portion is reduced around a building can be selected, and a highly accurate numerical landform model can be obtained.
以下図面を参照して本発明マルチラインセンサーを用いた数値地形モデルの構築方法を実施するための最良の形態の例につき説明する。 Hereinafter, an example of the best mode for carrying out a method for constructing a numerical terrain model using a multiline sensor of the present invention will be described with reference to the drawings.
図1は本例マルチラインセンサーを用いた数値地形モデルの構築方法の説明に供する機能ブロックである。 FIG. 1 is a functional block for explaining a method of constructing a numerical terrain model using the multiline sensor of this example.
図1において、1は入力部を示し、この入力部1は図2に示す如く航空機2に搭載したデジタルエアボーンセンサーよりの数値地形モデルを構築しようとする地域の画像を得る如くする。
In FIG. 1, reference numeral 1 denotes an input unit. The input unit 1 obtains an image of a region where a digital terrain model is to be constructed from a digital airborne sensor mounted on an
このデジタルエアボーンセンサーは、前方視、直下視及び後方視の異なる3方向視のラインセンサーにより撮影し、飛行コースに応じた図3に示す如き3つの重なるデジタル画像2a,2b及び2cを得る如くなされたものである。
This digital airborne sensor is photographed by three-direction line sensors different in forward view, direct view and backward view to obtain three overlapping
この前方視のラインセンサーより得られる画像2aは図4Aに示す如く、所定の撮影幅Wの建物3等の後側より見た画像であり、この直下視のラインセンサーより得られる画像2bは図4Bに示す如く所定撮影幅Wの建物3等の上面側より見た画像であり、後方視のラインセンサーより得られる画像2cは図4Cに示す如く、所定撮影幅Wの建物3等の前側より見た画像である。
As shown in FIG. 4A, the image 2a obtained from the front-view line sensor is an image viewed from the rear side of the
本例においてはこの数値地形モデルを構築しようとする地域を飛行コースを変えて図2に示す如く2回撮影して画像を得る如くする。この場合は本例においては、この2回の撮影の撮影幅W即ち画像が50%以上重なる如くする。このとき、この2回の撮影した画像の重なった部分では同一位置における方向視の異なる6枚の画像が得られる。この2回の飛行コースは同方向であっても良いし、逆方向であっても良い。 In this example, the area where the numerical terrain model is to be constructed is photographed twice as shown in FIG. In this case, in this example, the photographing width W of the two photographings, that is, the images are overlapped by 50% or more. At this time, six images with different directional views at the same position are obtained in the overlapping portion of the two captured images. The two flight courses may be in the same direction or in opposite directions.
今、図5A,Bに示す如く例えば縦横夫々100mで高さが200mの建物3が所定間隔に所定個有る地域の数値地形モデル(DTM)を構築するために、まず図5Aに示す如く南コース10Sを飛行し、地域11S例えば2000m×2000mを撮影して南側前方視画像2aS、南側直下視画像2bS及び南側後方視画像2cSを得る。
As shown in FIGS. 5A and 5B, in order to construct a numerical terrain model (DTM) of an area where there are a predetermined number of
次に図5Bに示す如く南コース10Sの飛行時の撮影画像即ち地域11Sと50%重なるように北コース10Nを飛行し、地域11Sと50%重なる例えば2000m×2000mの地域11Nを撮影して、北側前方視画像2aN、北側直下視画像2bN及び北側後方視画像2cNを得る。
Next, as shown in FIG. 5B, the captured image at the time of flight of the
この場合、北コース10Nを南コース10Sと同方向に飛行したときのこの2回の撮影による前方視画像2aS及び2aNの合成画像は図6Aに示す如くなる。この図6Aの斜線部分はオクルージョン(隠蔽)領域である。図6Bはこの図6Aの部分拡大図を示す。
In this case, when the
また北コース10Nを南コース10Sと同方向に飛行したときのこの2回の撮影による直下視画像2bS及び2bNの合成画像は図7Aに示す如くである。この図7Aの斜線部分はオクルージョン(隠蔽)領域である。図7Bはこの図7Aの部分拡大図を示す。
Further, a composite image of the nadir images 2bS and 2bN obtained by the two photographings when the
また北コース10Nを南コース10Sと同方向に飛行したときのこの2回の撮影による後方視画像2cS及び2cNの合成画像は図8Aに示す如くである。この図8Aの斜線部分はオクルージョン(隠蔽)領域である。図8Bは図8Aの部分拡大図を示す。
Further, a composite image of the rear-view images 2cS and 2cN obtained by the two shootings when the
また北コース10Nを南コース10Sと逆方向に飛行したときのこの2回の撮影による前方視画像2aS及び2aNの合成画像は図9Aに示す如くである。この図9Aの斜線部分はオクルージョン(隠蔽)領域である。図9Bは図9Aの部分拡大図を示す。
Further, a composite image of the forward-view images 2aS and 2aN obtained by the two shootings when the
また北コース10Nを南コース10Sと逆方向に飛行したときのこの2回の撮影による直下視画像2bS及び2bNの合成画像は図7A及びBに示す如くで北コース10Nを南コース10Sと同方向に飛行したときの2回の撮影による直下視画像2bS及び2bNの合成画像と同じである。
Further, when the
また、北コース10Nを南コース10Sと逆方向に飛行したときのこの2回の撮影による後方視画像2cS及び2cNの合成画像は図10Aに示す如くである。この図10Aの斜線部分はオクルージョン(隠蔽)領域である。図10Bは図10Aの部分拡大図を示す。
Further, a composite image of the rear-view images 2cS and 2cN obtained by the two shootings when the
この入力部1に得られる同一位置における方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNをパーソナルコンピュータ等より成る演算処理部5に供給する。また航空機2に得られるGPS(Global Positioning System)データ、IMU(Inertial Measurement Unit)データより形成した航空機2の位置・姿勢の補正データをこの演算処理部5に供給する。
The six images 2aS, 2bS, 2cS, 2aN, 2bN, and 2cN obtained in the same position at the same position and obtained in the input unit 1 are supplied to the arithmetic processing unit 5 including a personal computer or the like. Further, position / posture correction data of the
この演算処理部5においては、まず座標補正処理部5aでこの補正データを使用して方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNの座標補正処理を行い、この座標補正処理を行った方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNをステレオマッチング処理部5bに供給する。
In this arithmetic processing unit 5, first, the coordinate
このステレオマッチング処理部5bにおいては、この方向視の異なる6枚の画像2aS,2bS,2cS,2aN,2bN,2cNで15通りのステレオマッチングを行い15通りの標高データを得る如くする。この15通りの標高データを記憶部6に記憶する如くする。
In this stereo
この15通りの標高データとしては飛行コースが10S及び10Nが同方向のときは図11に示す如くであり、飛行コース10S及び10Nが逆方向のときは図12に示す如くである。この図11、図12において斜線部はオクルージョン(隠蔽)領域を示す。
The 15 kinds of elevation data are as shown in FIG. 11 when the
この15通りの標高データをクラスター領域分割処理部5cに供給する。このクラスター領域分割処理部5cにおいては、基本標高データ(本例では建物3の標高データ)を元に、この建物3の周囲を8ブロックへクラスター領域分割し、統計処理部5dで、この分割領域毎に、この15通りの標高データを統計処理し、精度評価処理部5eで図13Bに示す如く、建物3の周囲のオクルージョン(隠蔽)領域のないブロックを良とし、オクルージョン(隠蔽)領域のあるブロックを否とする如く評価する。
The 15 kinds of elevation data are supplied to the cluster area
この15通りの標高データの標高結果を記憶部6に記憶し、標高データの組み合わせ選定処理部5fで、例えば建物3の周囲にオクルージョン(隠蔽)領域をなくす標高データの組み合わせを選定する。この場合標高データの組み合わせの数が少ない程良とする。
The altitude results of these 15 types of altitude data are stored in the
例えば図14、図15Aに示す如く飛行コース10S及び10Nが同方向の場合、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと飛行コース10Nの直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせを選定することで建物3の周囲のブロックにオクルージョン(隠蔽)領域をなくすことができる。
For example, as shown in FIGS. 14 and 15A, when the
この飛行コース10S及び10Nが同方向の場合に選定される標高データの候補としては、上述図14、図15Aに示す外に、図15Bに示す如く、飛行コース10Sの直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データと飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データとの組み合わせ、図15Cに示す如く、飛行コース10Sの前方視画像2aS及び後方視画像2cSのステレオマッチングによる標高データと、飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データと直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせ、図15Dに示す如く、飛行コース10Nの前方視画像2aN及び後方視画像2cNのステレオマッチングによる標高データと、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データとの組み合わせを選定する。
The altitude data candidates selected when the
また、この飛行コース10S及び10Nが逆方向の場合に選定される標高データの候補は、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと、飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データとの組み合わせ、飛行コース10Sの直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データと、飛行コース10Nの直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせ、飛行コース10Sの前方視画像2aS及び後方視画像2cSのステレオマッチングによる標高データと、飛行コース10Nの前方視画像2aN及び直下視画像2bNのステレオマッチングによる標高データと直下視画像2bN及び後方視画像2cNのステレオマッチングによる標高データとの組み合わせ、飛行コース10Nの前方視画像2aN及び後方視画像2cNのステレオマッチングによる標高データと、飛行コース10Sの前方視画像2aS及び直下視画像2bSのステレオマッチングによる標高データと直下視画像2bS及び後方視画像2cSのステレオマッチングによる標高データとの組み合わせを選定する。
Further, the altitude data candidates selected when the
図15C、D、図16C、Dは3つの標高データを使用しているのに組み合わせの候補としたのは、前方視画像及び後方視画像のステレオマッチングによる標高データがステレオマッチングする視野角が広く精度が良いものが得られると考えられることによる。 15C, D, FIG. 16C, and D use the three elevation data, but the combination is selected because the elevation data obtained by stereo matching of the forward-viewing image and the rear-viewing image has a wide viewing angle. This is because it is considered that a product with good accuracy can be obtained.
この標高データの組み合わせ選定処理部5fで上述候補の組み合わせ及びその他の組み合わせの内最良の標高データの組み合わせを選定し、この選定された標高データの組み合わせを数値地形モデル作成部7に供給し、この数値地形モデル作成部7でこの選定された標高データの組み合わせに基いて数値地形モデル(DTM)を作成する。 The elevation data combination selection processing unit 5f selects the best combination of the above-mentioned candidate and other combinations, and supplies the selected combination of elevation data to the numerical terrain model creation unit 7. The numerical terrain model creation unit 7 creates a numerical terrain model (DTM) based on the selected combination of elevation data.
図1において、8はオペレータが種々の操作、指令を行う操作部、9はこの数値地形モデル作成の状況等を表示する表示部である。 In FIG. 1, 8 is an operation unit where the operator performs various operations and commands, and 9 is a display unit for displaying the status of the numerical terrain model creation.
本例によれば飛行コース10S及び10Nにおける撮影画像の重複部が50%以上としているので、この重複部では一地点に対し6枚の画像が得られ、この6枚の撮影主点の異なる画像の15(6C2)通りの組み合わせによるステレオマッチングを行って15通りの標高データを得、この15通りの標高データより例えば建物3の周囲にオクルージョン(隠蔽)領域をなくすようにした標高データの組み合わせを得ることができ、高精度の数値地形モデルを得ることができる。
According to this example, since the overlapping portion of the captured images in the
尚上述例においては、前方視のラインセンサー、直下視のラインセンサー及び後方視のラインセンサーの異なる3方視のラインセンサーを使用した例につき述べたが、このラインセンサーは飛行方向と取付けラインセンサーの角度によって3方視ラインセンサー以外の2方視あるいは4方視以上のラインセンサーであっても良い。この場合も上述例同様の作用効果が得られることは容易に理解できよう。 In the above-mentioned example, the example using the line sensor for the three-sided view different from the line sensor for the forward view, the line sensor for the direct view and the line sensor for the rear view is described. Depending on the angle, a line sensor other than the three-way line sensor may be used. In this case, it can be easily understood that the same effect as the above-described example can be obtained.
また本発明は上述例に限ることなく本発明の要旨を逸脱することなくその他種々の構成が採り得ることは勿論である。 Further, the present invention is not limited to the above-described examples, and various other configurations can be adopted without departing from the gist of the present invention.
1‥‥入力部、2‥‥航空機、2aS,2bS,2cS,2aN,2bN,2cN‥‥画像、3‥‥建物、5‥‥演算処理部、5a‥‥座標補正処理部、5b‥‥ステレオマッチング処理部、5c‥‥クラスター領域分割処理部、5d‥‥統計処理部、5e‥‥精度評価処理部、5f‥‥標高データの組み合わせ選定処理部、6‥‥記憶部、7‥‥数値地形モデル作成部、8‥‥操作部、9‥‥表示部 DESCRIPTION OF SYMBOLS 1 ... Input part, 2 ... Aircraft, 2aS, 2bS, 2cS, 2aN, 2bN, 2cN ... Image, 3 ... Building, 5 ... Operation processing part, 5a ... Coordinate correction processing part, 5b ... Stereo Matching processing unit, 5c ... Cluster area division processing unit, 5d ... Statistical processing unit, 5e ... Accuracy evaluation processing unit, 5f ... Altitude data combination selection processing unit, 6 ... Storage unit, 7 ... Numerical landform Model creation section, 8 ... operation section, 9 ... display section
Claims (9)
第2の飛行コースにおける前記前方視、直下視及び後方視のラインセンサーより夫々得られる前記第1、第2及び第3の画像に50%以上重なり、互に重なる第4、第5及び第6の画像を得るステップと、
同一位置における前記方向視の異なる第1から第6の画像をパーソナルコンピュータの演算処理部に供給するステップと、
前記演算処理部のステレオマッチング処理部において、前記方向視の異なる第1から第6の画像に基づいて15通りのステレオマッチングを行って、15通りの標高データを得るステップと、
前記15通りの標高データを前記演算処理部のクラスター領域分割処理部に供給して、建物をベースにした基本標高データに基づいて、該建物の周囲をクラスター領域に分割するステップと、
前記クラスター領域に分割した分割領域毎に、前記演算処理部の統計処理部において、前記15通りの標高データを統計処理するステップと、
前記演算処理部の精度評価処理部において、前記統計処理部で統計処理した前記15通りの標高データの中で、前記建物の周囲のオクルージョン領域のないブロックとオクルージョン領域のあるブロックの評価を行うステップと、
前記15通りの標高データを、前記演算処理部の組み合わせ選定処理部において、前記建物の周囲のオクルージョン領域をなくす標高データの組み合わせを選定するステップと、を含む、マルチラインセンサーを用いた数値地形モデルの構築方法。 Obtaining mutually overlapping first, second and third images respectively obtained from the front view, direct view and back view line sensors in the first flight course;
The fourth, fifth, and sixth layers overlap each other by 50% or more with the first, second, and third images respectively obtained from the front view, direct view, and rear view line sensors in the second flight course. Obtaining an image of
Supplying first to sixth images having different directional views at the same position to an arithmetic processing unit of a personal computer;
In the stereo matching processing unit of the arithmetic processing unit, performing 15 types of stereo matching based on the first to sixth images having different direction views to obtain 15 types of elevation data;
Supplying the 15 types of altitude data to the cluster area division processing unit of the arithmetic processing unit, and dividing the periphery of the building into cluster areas based on the basic altitude data based on the building;
Statistically processing the 15 types of elevation data in the statistical processing unit of the arithmetic processing unit for each divided region divided into the cluster regions;
In the accuracy evaluation processing unit of the arithmetic processing unit , a step of evaluating a block having no occlusion area and a block having an occlusion area around the building among the 15 types of elevation data statistically processed by the statistical processing unit When,
Selecting the combination of elevation data for eliminating the occlusion area around the building in the combination selection processing unit of the arithmetic processing unit from the 15 types of elevation data, and a numerical terrain model using a multiline sensor How to build.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003322021A JP4574969B2 (en) | 2003-09-12 | 2003-09-12 | Construction method of numerical terrain model using multi-line sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003322021A JP4574969B2 (en) | 2003-09-12 | 2003-09-12 | Construction method of numerical terrain model using multi-line sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005091510A JP2005091510A (en) | 2005-04-07 |
JP4574969B2 true JP4574969B2 (en) | 2010-11-04 |
Family
ID=34453519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003322021A Expired - Fee Related JP4574969B2 (en) | 2003-09-12 | 2003-09-12 | Construction method of numerical terrain model using multi-line sensor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4574969B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102544043B1 (en) * | 2021-04-01 | 2023-06-15 | 네이버랩스 주식회사 | Method and system for updating aerial map using image by drone |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000088523A (en) * | 1998-09-09 | 2000-03-31 | Tech Res & Dev Inst Of Japan Def Agency | Recognition equipment and method of object using feature vector |
JP2003140544A (en) * | 2001-11-07 | 2003-05-16 | Nakanihon Koku Kk | Method for discriminating characteristic land feature and device for the same |
JP2004030461A (en) * | 2002-06-27 | 2004-01-29 | Starlabo Corp | Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2807622B2 (en) * | 1993-12-13 | 1998-10-08 | 株式会社コア | Aircraft integrated photography system |
JP3653769B2 (en) * | 1995-02-07 | 2005-06-02 | 朝日航洋株式会社 | Flow measuring method and apparatus |
-
2003
- 2003-09-12 JP JP2003322021A patent/JP4574969B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000088523A (en) * | 1998-09-09 | 2000-03-31 | Tech Res & Dev Inst Of Japan Def Agency | Recognition equipment and method of object using feature vector |
JP2003140544A (en) * | 2001-11-07 | 2003-05-16 | Nakanihon Koku Kk | Method for discriminating characteristic land feature and device for the same |
JP2004030461A (en) * | 2002-06-27 | 2004-01-29 | Starlabo Corp | Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon |
Also Published As
Publication number | Publication date |
---|---|
JP2005091510A (en) | 2005-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6483075B2 (en) | Method of 3D panoramic mosaicing of scenes | |
JP6329343B2 (en) | Image processing system, image processing apparatus, image processing program, and image processing method | |
JP2016057108A (en) | Arithmetic device, arithmetic system, arithmetic method and program | |
Morgan | Epipolar resampling of linear array scanner scenes | |
ES2787226T3 (en) | Oblique Mosaic Images and Methods for Making and Using Them | |
EP2247094A1 (en) | Orthophotographic image creating method and imaging device | |
JP6079131B2 (en) | Image processing apparatus, method, and program | |
US20140376821A1 (en) | Method and system for determining position and/or orientation | |
US20100054627A1 (en) | Methods and systems for creating an aligned bank of images with an iterative self-correction technique for coordinate acquisition and object detection | |
EP2918972A2 (en) | Method and handheld distance measuring device for generating a spatial model | |
JP6616967B2 (en) | Map creation apparatus and map creation method | |
JP5147980B1 (en) | Object multiple image associating device, data reproducing device thereof, and image processing system | |
WO2011040239A1 (en) | Wide angle imaging device and measurement system | |
JP2005268847A (en) | Image generating apparatus, image generating method, and image generating program | |
JP6854195B2 (en) | Image processing device, image processing method and program for image processing | |
JP4698271B2 (en) | Topographic three-dimensional data generation method, topographic change evaluation method, and topographic change evaluation system | |
JP7051616B2 (en) | Image display system and method | |
CN108399631B (en) | Scale invariance oblique image multi-view dense matching method | |
CN110573834A (en) | Construction management device and construction management method | |
JP6910454B2 (en) | Methods and systems for generating composite top-view images of roads | |
JP2005077385A (en) | Image correlation method, survey method and measuring system using them | |
US7451060B2 (en) | Method of producing aerial photograph data | |
JP3808833B2 (en) | Aerial photogrammetry | |
JP5805574B2 (en) | Perimeter monitoring equipment for work machines | |
JP4574969B2 (en) | Construction method of numerical terrain model using multi-line sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100810 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4574969 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130827 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |