JP2003323640A - Method, system and program for preparing highly precise city model using laser scanner data and aerial photographic image - Google Patents

Method, system and program for preparing highly precise city model using laser scanner data and aerial photographic image

Info

Publication number
JP2003323640A
JP2003323640A JP2002127672A JP2002127672A JP2003323640A JP 2003323640 A JP2003323640 A JP 2003323640A JP 2002127672 A JP2002127672 A JP 2002127672A JP 2002127672 A JP2002127672 A JP 2002127672A JP 2003323640 A JP2003323640 A JP 2003323640A
Authority
JP
Japan
Prior art keywords
area
image
region
laser scanner
dsm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002127672A
Other languages
Japanese (ja)
Other versions
JP4058293B2 (en
Inventor
Kazuo Oda
和夫 織田
Heito O
汪平涛
Takeshi Doihara
健 土居原
Ryosuke Shibazaki
亮介 柴崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2002127672A priority Critical patent/JP4058293B2/en
Publication of JP2003323640A publication Critical patent/JP2003323640A/en
Application granted granted Critical
Publication of JP4058293B2 publication Critical patent/JP4058293B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To construct a highly precise three-dimensional city model by combining the advantages of the altitude precision of laser scanner data, the advantages of the high resolution of an aerial photograph, and a conventional variable density DEM (Digital Elevation Model). <P>SOLUTION: This system is provided with a coordinate calculating module 10, a ground height calculating module 11, a region division processing part 15, a horizontal face stereo matching processing part 16, a region division processing part 17, a polygon generation processing part 18, and a three-dimensional modeling processing part 19. Each of stereo aerial photographic pictures is divided into regions to obtain an image region whose hue is uniform. Stereo matching is carried out by using the altitude value of the three-dimensional point group of the laser scanner overlapping each color region as an initial value. When the calculation result of the obtained altitude value represents almost the same altitude as the initial value, the altitude value being the calculation result is applied to the region to generate the DSM. Then, the horizontal region of the obtained DSM is recognized by region division, and linear extraction is carried out in a peripheral region on the stereo image corresponding to each region, and the results are polygonzied. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】レーザスキャナデータと空中
写真画像を用いて、空中写真画像の建物面を容易に精度
よく3次元化できる高精度都市モデルの生成装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-accuracy city model generation apparatus that can easily and accurately convert a building surface of an aerial photograph image into three dimensions by using laser scanner data and an aerial photograph image.

【0002】[0002]

【従来の技術】高精度の都市モデルを生成する手法は、
一般にレーザスキャナデータを用いる手法とステレオマ
ッチングによる手法とがある。
2. Description of the Related Art A method for generating a highly accurate city model is
Generally, there are a method using laser scanner data and a method using stereo matching.

【0003】例えば、レーザスキャナデータは、飛行機
又はヘリコプター等の航空機から地表にレーザ光をスキ
ャニングし、これらの受光データを解析することで、図
21に示すようなレーザデータを得る。この図21は、
図21(b)に対象エリア(航空写真で示している)
を、図21(a)にそのレーザデータを示している。図
20(a)に示すように、レーザデータは細かな点列に
なっており、それぞれが3次元座標(x、y、z)を有
している。
For example, laser scanner data is obtained by scanning laser light from an aircraft such as an airplane or a helicopter onto the surface of the ground and analyzing the received light data to obtain laser data as shown in FIG. This Figure 21
Target area (shown in aerial photograph) in Figure 21 (b)
FIG. 21A shows the laser data. As shown in FIG. 20A, the laser data is a series of fine dots, each of which has three-dimensional coordinates (x, y, z).

【0004】従って、レーザスキャナデータは、3次元
座標を有するので航空写真のステレオマッチングなどに
比べて、図22に示す標高精度の高いDSM(Digi
tal Surface Modelの略で、建物など
の地物を含む地表面の形状を表現するモデル)をとるこ
とができる。
Therefore, since the laser scanner data has three-dimensional coordinates, the DSM (Digital) shown in FIG. 22 has a high altitude accuracy as compared with stereo matching of aerial photographs.
It is an abbreviation for tal Surface Model, and can be a model that represents the shape of the ground surface including features such as buildings.

【0005】一方、航空写真により自動標高計測を行う
ステレオマッチング手法(図20を参照)もある。この
ステレオマッチングは、画像間の各画素の対応関係を求
め、三角測量の原理で各対応点位置での3次元座標を求
めるもので、高密度に標高データを計測することができ
る。
On the other hand, there is also a stereo matching method (see FIG. 20) in which automatic elevation measurement is performed using aerial photographs. In this stereo matching, the correspondence relationship of each pixel between the images is obtained, and the three-dimensional coordinates at each corresponding point position are obtained by the principle of triangulation, and the altitude data can be measured at high density.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、レーザ
スキャナーデータによる手法は標高に関する精度の高い
データが得られるが、3次元点群から都市モデルのよう
な直線構造を多く持つデータを生成する場合には、境界
部分を正確に取るために、データをさらに高密度化する
必要がある。
However, although the method using the laser scanner data can obtain highly accurate data regarding the elevation, when generating data having many linear structures such as a city model from a three-dimensional point cloud. , It is necessary to further densify the data in order to accurately take the boundary part.

【0007】つまり、レーザデータは細かな点列(3次
元点群)であり、これ以上の解像度を得ることは容易で
はない。
That is, the laser data is a fine point sequence (three-dimensional point group), and it is not easy to obtain a resolution higher than this.

【0008】また、レーザスキャナデータを高密度化す
ると、データ取得にかかるコスト及びデータ容量が莫大
になり、コスト面とデータハンドリングの両面で問題が
ある。
Further, when the density of the laser scanner data is increased, the cost for acquiring the data and the data capacity become enormous, and there are problems in terms of both cost and data handling.

【0009】一方、ステレオマッチング手法に用いる画
像は高分解能であり、人工構造物の境界や領域の識別に
有効である。しかしながら、ステレオマッチングは隠れ
などの影響により標高変化の激しい箇所での標高計測精
度が低く、境界を直接3次元的に計測するのに問題が生
じる。
On the other hand, the image used for the stereo matching method has a high resolution and is effective for identifying the boundary or area of the artificial structure. However, the stereo matching has a low altitude measurement accuracy in a place where the altitude changes drastically due to an influence such as hiding, which causes a problem in directly measuring the boundary three-dimensionally.

【0010】本発明は、レーザスキャナデータの標高精
度の利点と、航空写真の高分解能であることの利点、お
よび既往の疎密度DEM(Digital Eleva
tion Modelの略で、地盤高を表現するモデ
ル。概略地盤高がわかるので地盤高として利用できる)
を組み合わせ、精度の高い都市3次元モデルを構築する
ことを目的とする。
The present invention has the advantages of elevation accuracy of laser scanner data, the advantage of high resolution of aerial photography, and the existing sparse density DEM (Digital Eleva).
An abbreviation of "Tion Model", a model expressing the ground height. You can use it as the ground height because you can see the approximate ground height.)
The purpose is to build a highly accurate three-dimensional city model by combining

【0011】[0011]

【課題を解決するための手段】本発明のレーザスキャナ
データと空中写真画像を用いた高精度都市モデルの生成
方法は、データベースに保存されている所定地域の空中
写真画像から連続して同じ色彩の画素の色領域を抽出
し、該抽出後に、データベースに保存されている前記所
定地域のレーザスキャナデータに基づいて得られたデジ
タル地表面モデルに対して前記色領域を用いた水平面ス
テレオマッチングを行いDSMを生成し、前記DSMの
水平領域と空中写真画像とを用いて、前記DSMの水平
領域の周辺部に対応する画像上の線構造情報から直線化
を行い、この直線に囲まれた領域の画素列を3次元化す
ることによって前記水平領域を3次元点列化することを
要旨とする。
A method of generating a high-accuracy urban model using laser scanner data and aerial photograph images of the present invention is a method of continuously generating the same color from aerial photograph images of a predetermined area stored in a database. The color area of the pixel is extracted, and after the extraction, horizontal plane stereo matching using the color area is performed on the digital ground surface model obtained based on the laser scanner data of the predetermined area stored in the database to perform DSM. By using the horizontal area of the DSM and the aerial photograph image, linearization is performed from the line structure information on the image corresponding to the peripheral portion of the horizontal area of the DSM, and the pixels in the area surrounded by the straight line are generated. The gist of the present invention is to convert the horizontal region into a three-dimensional dot array by converting the array into three-dimensional.

【0012】また、本発明の高精度都市モデルの生成シ
ステムは、データベースに保存されている所定地域の空
中写真画像から連続して同じ色彩の画素の色領域を抽出
する手段と、該抽出後に、データベースに保存されてい
る前記所定地域のレーザスキャナデータに基づいて得ら
れたデジタル地表面モデルに対して前記色領域を用いた
水平面ステレオマッチングを行いDSM領域を生成する
手段と、前記DSMの水平領域と空中写真画像とを用い
て、前記DSMの水平領域の周辺部に対応する画像上の
線構造情報から直線化を行う手段と、この直線に囲まれ
た領域の画素列を3次元化することによって前記水平領
域を3次元点列化する手段とを備えたことを要旨とす
る。
Further, the high-precision city model generation system of the present invention comprises means for continuously extracting color regions of pixels of the same color from aerial photograph images of a predetermined area stored in the database, and after the extraction, A means for generating a DSM area by performing horizontal plane stereo matching using the color area on a digital ground surface model obtained based on the laser scanner data of the predetermined area stored in a database; and a horizontal area of the DSM. Means for linearizing from the line structure information on the image corresponding to the peripheral portion of the horizontal area of the DSM, and a pixel row in the area surrounded by the straight line using the And a means for converting the horizontal region into a three-dimensional point sequence.

【0013】さらに、本発明の高精度都市モデルの生成
のプログラムは、コンピュータに、データベースに保存
された所定地域のレーザスキャナデータを読み込みさせ
る手段、データベースに保存された所定地域の空中写真
画像の内で色彩が均一な画素のかたまりの色領域を順次
抽出させる手段、前記抽出後にデータベースに保存され
た所定地域のデジタル地表モデルに対して、前記色領域
が水平であるとして前記水平面ステレオマッチングを行
わせる手段、前記水平面ステレオマッチングの結果得ら
れる標高値の計算結果が前記デジタル地表面モデルのレ
ーザスキャナデータと同程度の標高値かどうかを判定さ
せる手段、前記同程度の標高値と判定しときは、前記色
領域に標高値を適用してDSMを生成し、保存させる手
段、前記DSMの水平領域をマスク領域とし、これを膨
張した画像及び収縮した画像を生成し、これらの領域を
合成して前記マスク領域の周辺の線抽出領域を取得させ
る手段、前記空中写真画像の前記マスク領域及びその周
辺に対応する箇所のエッジ画像を取得させ、該エッジ抽
出画像と前記線抽出領域を重ねさせ、前記マスク領域の
周辺のエッジ画像を抽出する手段、前記周辺エッジ画像
に対してHough変換を行って周辺エッジ画像の各エ
ッジを直線化させる手段、前記直線化された直線化エッ
ジ画像に、前記収縮マスク画像と比較させ、前記直線化
エッジ画像上から不要なエッジを除去した線分を取得さ
せる手段、前記線分を追跡して得られる多角形を生成
し、その中から前記マスク領域と最も重なる多角形座標
列を取り出す手段、前記多角形座標列に対して前記標高
値を与えて前記抽出された色領域を3次元化させる手
段、として機能させるためのプログラムを備えたことを
要旨とする。
Further, the program for generating a high-precision city model of the present invention is a means for causing a computer to read laser scanner data of a predetermined area stored in a database, and an aerial photograph image of the predetermined area stored in the database. Means for sequentially extracting a color region of a group of pixels having a uniform color, and causing the digital stereo model of a predetermined region stored in the database after the extraction to perform the horizontal plane stereo matching assuming that the color region is horizontal. Means, the calculation result of the elevation value obtained as a result of the horizontal plane stereo matching means for determining whether the elevation value is similar to the laser scanner data of the digital ground surface model, when determining the elevation value of the same, Means for applying an elevation value to the color area to generate a DSM and storing the DSM; A flat area is used as a mask area, an expanded image and a contracted image are generated, means for synthesizing these areas to obtain a line extraction area around the mask area, the mask area of the aerial photograph image, and A means for obtaining an edge image of a portion corresponding to the periphery, superimposing the edge extraction image and the line extraction area, and extracting an edge image around the mask area, and performing Hough conversion on the peripheral edge image. Means for linearizing each edge of the peripheral edge image, and the linearized linearized edge image is compared with the contraction mask image to obtain a line segment from which unnecessary edges are removed from the linearized edge image. Means for generating a polygon obtained by tracing the line segment, and means for extracting a polygon coordinate sequence that most overlaps the mask area from the polygon, the polygon coordinate sequence And summarized in that with a program for functioning as a means for three-dimensional the extracted color region giving said elevation value for.

【0014】[0014]

【発明の実施の形態】本実施の形態は、レーザスキャナ
データにステレオ撮影された空中写真画像データから得
られる領域情報・線構造情報を援用することによって、
人工構造物の境界を精度よく抽出し、自動建物多角形化
および3次元モデル化を行う。
BEST MODE FOR CARRYING OUT THE INVENTION In the present embodiment, by incorporating area information and line structure information obtained from stereoscopic aerial photograph image data into laser scanner data,
The boundaries of artificial structures are extracted accurately, and automatic building polygonalization and three-dimensional modeling are performed.

【0015】まず、ステレオ空中写真画像の各々を領域
分割する事により、色彩が均一な画像領域を得る。この
ような画像領域は、建物の屋上及び路面・グランド・そ
の他広い平坦地に対応していると考えられる。
First, by dividing each of the stereo aerial photographic images into regions, an image region having a uniform color is obtained. Such image areas are considered to correspond to the rooftop of the building, the road surface, the ground, and other large flat areas.

【0016】各色領域に重なるレーザスキャナの3次元
点群の標高値を初期値として、ステレオマッチングを行
う。その結果得られる標高値の計算結果が初期値とほぼ
同じ高さになった場合はその領域に計算結果の標高値を
与え、DSM(Digital Surface Mo
delの略で、建物等の地物を含む地表面の形状を表現
するモデル)を生成する。これにより、レーザスキャナ
データでは曖昧であった地物境界をより高精度に表現す
ることができるようにしている。
Stereo matching is performed with the elevation value of the three-dimensional point group of the laser scanner overlapping each color region as an initial value. When the calculation result of the elevation value obtained as a result becomes almost the same as the initial value, the elevation value of the calculation result is given to the area, and the DSM (Digital Surface Mo
Abbreviation of del, a model expressing the shape of the ground surface including features such as buildings is generated. As a result, the feature boundary, which was ambiguous in the laser scanner data, can be expressed with higher accuracy.

【0017】続いて上記で得られたDSMの高い方から
順に水平な領域を領域分割によって認識し、各領域に対
応するステレオ画像上の周辺領域で直線抽出を行い、そ
の結果を多角形化する。既往のDEMや地域の平均的地
盤高に対するDSMの差が任意に設定する閾値以下にあ
る領域は、建物以外の領域であり、地盤高と推定する。
これによって、建物領域を3次元多角形化することがで
きる。更に多角形化された建物領域を角柱状に構成する
事によって、3次元モデルを得る事が可能となるもので
ある。
Next, the horizontal regions are sequentially recognized by region division from the highest DSM obtained above, and straight lines are extracted in the peripheral region on the stereo image corresponding to each region, and the result is polygonalized. . An area in which the difference in DSM with respect to the existing DEM or the average ground height of the area is equal to or less than a threshold value that is arbitrarily set is an area other than the building and is estimated to be the ground height.
Thereby, the building area can be made into a three-dimensional polygon. Furthermore, a three-dimensional model can be obtained by forming the polygonal building area into a prismatic shape.

【0018】本発明を実現する3次元計測装置の構成を
図1に示す。3次元計測システム1は、パーソナルコン
ピュータ本体2、ステレオ画像等を格納する外部記憶装
置3、ディスプレイ4という一般的なパーソナルコンピ
ュータからなる。また、次のことが前提として与えられ
ている。
FIG. 1 shows the configuration of a three-dimensional measuring apparatus that realizes the present invention. The three-dimensional measurement system 1 comprises a general personal computer including a personal computer main body 2, an external storage device 3 for storing stereo images and the like, and a display 4. In addition, the following is given as a premise.

【0019】(1)入力データ 次の各種データが、外部記憶装置3に格納されていると
する。
(1) Input data It is assumed that the following various data are stored in the external storage device 3.

【0020】(a)ステレオ空中写真画像(IL および
R (図20))とその標定要素と、(b)レーザスキ
ャナデータが保存されている。このレーザスキャナデー
タは3次元座標の集まりであり、以下ではLPi (i=
1...nLP)で表す(図21(a))。
[0020] (a) and stereo aerial photograph image (I L and I R (FIG. 20)) and its orientation parameters are saved (b) laser scanner data. This laser scanner data is a set of three-dimensional coordinates. In the following, LP i (i =
1 ... n LP ) (FIG. 21 (a)).

【0021】(c)デジタル地形モデル(DEM))。
地盤高を表し、国土数値情報などの所与のデータを用い
てよい(図22)。
(C) Digital Terrain Model (DEM)).
Representing the ground height, given data such as national numerical information may be used (FIG. 22).

【0022】(2)計算モジュール 次の計算モジュールが与えられているものとする。この
計算モジュールは、座標計算モジュール10と、地盤高
計算モジュール11等からなる。
(2) Calculation Module It is assumed that the following calculation module is provided. This calculation module includes a coordinate calculation module 10, a ground height calculation module 11 and the like.

【0023】座標計算モジュール10は、ステレオ空中
写真画像の標定要素を読み取り、3次元座標と、ステレ
オ画像I1 およびI2 の座標との間の変換を行う。これ
は特願2000−251456で座標変換関数・逆座標
変換関数として与えられているものと同じとする。
The coordinate calculation module 10 reads the orientation elements of the stereo aerial photographic image and performs conversion between the three-dimensional coordinates and the coordinates of the stereo images I 1 and I 2 . This is the same as that given as the coordinate conversion function / reverse coordinate conversion function in Japanese Patent Application No. 2000-251456.

【0024】つまり、輝度画像IL、IRについて、地
上の3次元座標が投影される各画像の画像座標算出のた
めの座標変換関数FX、逆座標変換関数関数GX(総称
して標定情報ともいう)を用いる。
That is, for the brightness images IL and IR, the coordinate conversion function FX and the inverse coordinate conversion function function GX (collectively referred to as orientation information) for calculating the image coordinates of each image on which the three-dimensional coordinates on the ground are projected. To use.

【0025】例えば、3次元空間内の点(x,y,z)
が投影される左右画像のピクセル座標(x1pix,y
1pix)および(x2pix,y2pix)を計算す
る。
For example, a point (x, y, z) in a three-dimensional space
Pixel coordinates (x 1pix , y
1pix ) and ( x2pix , y2pix ).

【0026】すなわち、次の4つの座標変換関数FX1
(x,y,z)、FY1(x,y,z)、FX2(x,
y,z)、FY2(x,y,z)を解析的、もしくは手
続き的に決定する。
That is, the following four coordinate conversion functions FX1
(X, y, z), FY1 (x, y, z), FX2 (x,
y, z) and FY2 (x, y, z) are determined analytically or procedurally.

【0027】 x1pix=FX1(x,y,z) 式(1) y1pix=FY1(x,y,z) 式(2) x2pix=FX2(x,y,z) 式(3) y2pix=FY2(x,y,z) 式(4) また、z=一定として式(1),式(2)を解析的又は
手続的に解くと、各画像上の点がある標高zにあると仮
定した時の地上でのx座標とy座標を求めることができ
る。
X 1pix = FX1 (x, y, z) Formula (1) y 1pix = FY1 (x, y, z) Formula (2) x 2pix = FX2 (x, y, z) Formula (3) y 2pix = FY2 (x, y, z) Equation (4) Further, when Equation (1) and Equation (2) are solved analytically or procedurally with z = constant, it is found that a point on each image is at an altitude z. It is possible to obtain the x-coordinate and the y-coordinate on the ground when it is assumed.

【0028】 x=GX1(x1pix,y1pix,z) 式(5) y=GY1(x1pix,y1pix,z) 式(6) 同様に式(3),式(4)について解くと、 x=GX2(x2pix,y2pix,z) 式(7) y=GY2(x2pix,y2pix,z) 式(8) である。X = GX1 (x 1pix , y 1pix , z) Expression (5) y = GY1 (x 1pix , y 1pix , z) Expression (6) Similarly, solving Expressions (3) and (4) gives: x = GX2 ( x2pix , y2pix , z) Formula (7) y = GY2 ( x2pix , y2pix , z) Formula (8).

【0029】このような関数は、例えば図2に示す不定
形窓を用いているときに使用する。この図2は、航空機
によって得た画像I1を画面に表示し、この画像上でマ
ウス操作等で地物Buの輪郭に相当する閉領域B1を与
える。そして、この閉領域に投影が一致する位置に不定
形窓Plhを発生させ、標高H(z)を変化させる。
Such a function is used, for example, when the irregular window shown in FIG. 2 is used. In FIG. 2, an image I1 obtained by an aircraft is displayed on the screen, and a closed region B1 corresponding to the contour of the feature Bu is given on the image by mouse operation or the like. Then, the irregular window Plh is generated at a position where the projection coincides with this closed region, and the altitude H (z) is changed.

【0030】例えば30m、80m、150mの順に標
高を変化させると、30m、80m、150mと変化し
たときの輝度画像I1、I2における不定形窓Plhの
輝度画像I1、I2の投影位置をその都度求めながら、
この位置における不定形窓Plhを投影したときの輝度
画像I1、I2における輝度値を比較し、評価関数によ
って最も一致(近似)したと判定されるときの不定形窓
P1hの高さ(標高値)としている。
For example, when the altitude is changed in the order of 30 m, 80 m, and 150 m, the projection positions of the brightness images I1 and I2 of the irregular window Plh in the brightness images I1 and I2 when they change to 30 m, 80 m, and 150 m are obtained each time. While
The height (elevation value) of the irregular window P1h when it is determined by the evaluation function that the luminance values in the luminance images I1 and I2 when the irregular window Plh is projected at this position are compared (estimated) by the evaluation function I am trying.

【0031】地盤高計算モジュール11は、DEMを読
み取り、適当な内挿計算を用いることによって、与えら
れた水平座標位置における地盤高を計算する。
The ground height calculation module 11 reads the DEM and calculates the ground height at a given horizontal coordinate position by using an appropriate interpolation calculation.

【0032】H=GElv(x,y) 例えばDEMが正方メッシュデータならば、バイリニア
法等の内挿方法、DEMがランダムな配置の3次元点群
ならば、三角メッシュを用いた内挿法を用いる。
H = GElv (x, y) For example, if the DEM is a square mesh data, an interpolation method such as the bilinear method is used. If the DEM is a three-dimensional point group having a random arrangement, an interpolation method using a triangular mesh is used. To use.

【0033】すなわち、本実施の形態では、座標計算モ
ジュール10、地盤高計算モジュール11等によって、
レーザスキャナデータにステレオ撮影された空中写真画
像データから得られる領域情報・線構造情報を援用し
て、例えば、人工構造物の境界を精度よく抽出し、自動
建物多角形化および3次元モデル化を行う。
That is, in the present embodiment, the coordinate calculation module 10, the ground height calculation module 11, etc.
Using the area information and line structure information obtained from the aerial photograph image data captured in stereo with the laser scanner data, for example, the boundaries of artificial structures can be accurately extracted, and automatic building polygonalization and three-dimensional modeling can be performed. To do.

【0034】この3次元化モデルの生成においては、ま
ず、ステレオ空中写真画像の各々を領域分割する事によ
り、色彩が均一な画像領域を得る。
In the generation of this three-dimensional model, first, each of the stereo aerial photographic images is divided into regions to obtain image regions of uniform color.

【0035】このような画像領域は、建物の屋上及び路
面・グランド・その他広い平坦地に対応していると考え
られる。
It is considered that such an image area corresponds to the roof of a building, the road surface, the ground, and other wide flat ground.

【0036】各色領域に重なるレーザスキャナの3次元
点群の標高値を初期値として、ステレオマッチングを行
い、その結果得られる標高値の計算結果が初期値とほぼ
同じ高さになった場合はその領域に計算結果の標高値を
与え、DSMを生成する。これにより、レーザスキャナ
データでは曖昧であった地物境界をより高精度に表現す
ることができる。
Stereo matching is performed with the elevation value of the three-dimensional point group of the laser scanner overlapping each color region as the initial value, and when the resulting elevation value calculation result is almost the same as the initial value, the stereo matching is performed. The elevation value of the calculation result is given to the area, and the DSM is generated. As a result, the feature boundary, which was ambiguous in the laser scanner data, can be expressed with higher accuracy.

【0037】続いて上記で得られたDSMの水平な領域
を領域分割によって認識し、各領域に対応するステレオ
画像上の周辺領域で直線抽出を行い、その結果を多角形
化する。
Subsequently, the horizontal area of the DSM obtained above is recognized by area division, straight line extraction is performed in the peripheral area on the stereo image corresponding to each area, and the result is polygonalized.

【0038】既往のDEMや地域の平均的地盤高に対す
るDSMの差が任意に設定する閾値以下にある領域は、
建物以外の領域であり、地盤高と推定する。これによっ
て、建物領域を3次元多角形化することができる。更に
多角形化された建物領域を角柱状に構成する事によっ
て、3次元モデルを得る事ができる。
Areas where the difference of DSM with respect to the existing DEM or the average ground height of the area is less than or equal to a threshold value set arbitrarily,
It is an area other than buildings and is estimated to be the ground height. Thereby, the building area can be made into a three-dimensional polygon. Furthermore, a three-dimensional model can be obtained by forming the polygonal building area into a prismatic shape.

【0039】本発明の実施形態の概略を図1を用いて簡
単に説明する。図1に示すように、次の5つの部分から
成り立っている。
The outline of the embodiment of the present invention will be briefly described with reference to FIG. As shown in FIG. 1, it consists of the following five parts.

【0040】初めに、データベース(図示せず)に保存
されているステレオ空中写真画像(IR、IL)を読み
込んで、ステレオ空中写真画像の各々を領域分割(同じ
色を一塊りとする領域:同じ色彩の画素が連続する領
域)する事により、色彩が画像領域(建物の屋上及び路
面・グランド・その他広い平坦地に対応していると考え
られる)を得るステレオ画像の色彩による領域分割処理
部15と、各分割領域(分割色領域ともいう)に重なる
レーザスキャナデータの3次元点群の標高値を初期値と
して、ステレオマッチングを行う水平面ステレオマッチ
ング処理部16と、この水平面ステレオマッチング処理
後の結果得られる標高値の計算結果が初期値とほぼ同じ
高さになった場合はその領域に計算結果の標高値を与
え、DSM(Digital Surface Mod
elの略で、建物等の地物を含む地表面の形状を表現す
るモデル)を生成するDSMの領域分割処理部17と、
多角形生成処理部18と、3次元モデル化処理部19等
とからなる。
First, a stereo aerial photograph image (IR, IL) stored in a database (not shown) is read, and each of the stereo aerial photograph images is divided into regions (regions having the same color as a group: the same). The area segmentation processing unit 15 based on the color of the stereo image for obtaining the image area (which is considered to correspond to the rooftop of the building, the road surface, the ground, and other large flat grounds) by making the color pixels continuous) And a horizontal plane stereo matching processing unit 16 that performs stereo matching with the elevation value of the three-dimensional point group of the laser scanner data overlapping each divided area (also referred to as a divided color area) as an initial value, and the result after this horizontal plane stereo matching processing. If the calculated altitude value is almost the same as the initial value, the calculated altitude value is given to that area, and the DSM (Digi al Surface Mod
Abbreviation of el, a DSM area division processing unit 17 that generates a model that represents the shape of the ground surface including features such as buildings.
It includes a polygon generation processing unit 18, a three-dimensional modeling processing unit 19 and the like.

【0041】以下にこれらの各処理(ステレオ画像の色
彩による領域分割処理、水平面ステレオマッチング処
理、DSMの分割処理、多角形生成処理、3次元モデル
化処理)の詳細をフローチャートを用いて説明する。
Details of each of these processes (region dividing process by color of stereo image, horizontal plane stereo matching process, DSM dividing process, polygon generating process, three-dimensional modeling process) will be described below with reference to flowcharts.

【0042】(ステレオ画像の色彩による領域分割処理
部15)ステレオ画像の色彩による領域分割について図
3のフローチャートを用いて詳細に説明する。
(Stereo Image Color Segmentation Processing Unit 15) The stereo image color segmentation will be described in detail with reference to the flowchart of FIG.

【0043】初めに、領域分割に必要なパラメータを設
定する(S10)。例えば、反復型領域拡張法によって
領域分割を行う場合は、次の3つのパラメータがユーザ
により指定されているものとする。
First, parameters required for area division are set (S10). For example, when performing area division by the iterative area expansion method, it is assumed that the following three parameters are specified by the user.

【0044】・初期しきい値 ・しきい値の増分 ・反復打ち切りのためのしきい値 次に、ステレオ空中写真画像の内、左画像ILを外部記
憶装置3から内部に読み込む(S11)。
Initial threshold value, threshold value increment, threshold value for repetitive truncation Next, the left image I L of the stereo aerial photograph image is read in from the external storage device 3 (S11).

【0045】次に、画像の輝度情報や色情報を用いて領
域分割処理を行う(図4参照)。この領域分割処理で
は、まずメディアンフィルタなどで小さな孤立点を除去
した後、除去画像の輝度や色が均一な連続領域ごとに識
別番号を付ける。
Next, area division processing is performed using the luminance information and color information of the image (see FIG. 4). In this area division processing, first, small isolated points are removed by a median filter or the like, and then an identification number is given to each continuous area in which the luminance and color of the removed image are uniform.

【0046】なお、領域分割の方法としては、反復型領
域拡張法など一般に広く行われている領域分割方法を用
いてもよい。
As the area dividing method, a widely used area dividing method such as an iterative area expanding method may be used.

【0047】そして、領域分割の結果(単色で塗られた
領域)、各画素が何番目の識別番号の領域に属するかが
わかるラベル番号が与えられるものとする。この左画像
のラベル番号を格納する配列をLL(i,j)とする。
Then, as a result of the area division (area painted in a single color), a label number for identifying to which area of the identification number each pixel belongs is given. The array that stores the label number of the left image is LL (i, j).

【0048】すなわち、LL(i,j)=nならば、画
像iカラムjラインの画素が、ラベル番号nの領域に属
することを意味する。
That is, if LL (i, j) = n, it means that the pixel of the image i column and the j line belongs to the area of the label number n.

【0049】次に、領域分割によって求められたラベル
格納配列LL(i,j)を左画像のラベルとして外部記
憶装置3に格納する領域分割結果保存処理を行う(S1
3)。
Next, a region division result storage process is performed in which the label storage array LL (i, j) obtained by the region division is stored in the external storage device 3 as the label of the left image (S1).
3).

【0050】そして、左画像読込(S11)〜領域分割
結果保存処理(S13)と同様の処理を右画像IR につ
いて同様に行う右画像読込処理(S14)と領域分割処
理(S15)とを行い、右画像のラベル格納配列LR
(i,j)を外部記憶装置3に格納する(S16)。
Then, the right image reading process (S14) and the region dividing process (S15), which are the same as the left image reading process (S11) to the region dividing result saving process (S13), are performed on the right image I R. , Right image label storage array LR
(I, j) is stored in the external storage device 3 (S16).

【0051】つまり、S14〜S16は右画像読み込み
・領域分割・領域分割結果保存を行っている。
That is, in S14 to S16, the right image is read, the area is divided, and the area division result is saved.

【0052】次に、水平面ステレオマッチング処理につ
いて説明する。
Next, the horizontal plane stereo matching process will be described.

【0053】(水平面ステレオマッチング)領域分割さ
れた各画像領域が水平であると仮定し、その拘束の元で
領域分割された部分を「不定形窓を用いた画像間拡張イ
メージマッチング方法(特願2000−25145
6)」を行い、デジタル地表面モデル(DSM)を生成
する。ここでのDSMとは、地表面の標高をメッシュ点
上で表現するものである。例えば、メッシュの原点を
(x0,y0)、メッシュ間隔をdとすると、DSM配
列h(ix,iy)は、座標(x0+d・ix、y0+
d・iy)での標高を与えるものとする。また、DSM
配列の原点や大きさは、ユーザが与える対象範囲にあわ
せて設定するものとする。前述の水平面ステレオマッチ
ングは、各分割領域を不定形窓として、これを変化させ
て拡張ステレオモデルの両方の画像上の投影位置を求
め、この投影位置における不定形窓で区切られた領域の
輝度値をそれぞれ求めて輝度値を比較し、比較結果が最
も一致するときの不定形窓の高さを拡張ステレオモデル
における地物の高さとする拡張ステレオマッチングによ
る標高付与処理を行う。
(Horizontal Plane Stereo Matching) It is assumed that each of the divided image areas is horizontal, and the area-divided portion is subjected to the "inter-image extended image matching method using an irregular window (Patent application 2000-25145
6) ”to generate a digital ground surface model (DSM). Here, the DSM expresses the altitude of the ground surface on mesh points. For example, when the origin of the mesh is (x0, y0) and the mesh interval is d, the DSM array h (ix, iy) has coordinates (x0 + d · ix, y0 +).
d. iy) altitude shall be given. Also, DSM
The origin and size of the array are set according to the target range given by the user. In the horizontal plane stereo matching described above, each divided area is used as an irregular window, the projection position on both images of the extended stereo model is obtained by changing this, and the brightness value of the area separated by the irregular window at this projected position. Then, the brightness values are compared with each other, and the altitude imparting process is performed by the extended stereo matching in which the height of the irregular window when the comparison result is the best match is the height of the feature in the extended stereo model.

【0054】図5は平面ステレオマッチングを説明する
フローチャートである。初めに、左右画像をメモリ上に
読み込む(S20)。
FIG. 5 is a flow chart for explaining the plane stereo matching. First, the left and right images are read in the memory (S20).

【0055】次に、DSM配列を格納するDSM配列を
初期化する(S21)。初期化するDSM配列は次の3
つとする。
Next, the DSM array for storing the DSM array is initialized (S21). The DSM array to be initialized is the following 3
Let's do it.

【0056】・hL(ix,iy):左画像領域分割結
果から生成されるDSM ・hR(ix,iy):右画像領域分割結果から生成さ
れるDSM ・hLR(ix,iy):左右画像領域分割結果から生
成されるDSM なお、DSM配列の原点や範囲は、ユーザがあらかじめ
与えるものとする。初期化にあたっては、すべての配列
の値を一定値hinitとしておく。hinitは、実
際にはありえない小さな値(−9999など)であり、
DSM配列がhinitであるということは、平面ステ
レオマッチングによってDSMが計算されていないこと
を示す。
HL (ix, iy): DSM generated from the left image area division result hR (ix, iy): DSM generated from the right image area division result hLR (ix, iy): Left and right image area DSM generated from division result The origin and range of the DSM array are given by the user in advance. Upon initialization, the values of all the arrays are set to a constant value hinit. hinit is a small value (-9999, etc.) that is impossible in reality,
The fact that the DSM sequence is hinit indicates that the DSM has not been calculated by plane stereo matching.

【0057】次に、左右画像の画像領域の分割結果を読
込む(S22)。つまり、画像領域分割結果をメモリ上
の配列L(i,j)に読み込む。
Next, the result of dividing the image areas of the left and right images is read (S22). That is, the image area division result is read into the array L (i, j) on the memory.

【0058】そして、各領域毎L(i,j)に記録され
ているラベル番号が付けられた各々の領域について、番
号順に次の処理を行う。
Then, the following processing is performed in the order of numbers with respect to the respective areas having the label numbers recorded in L (i, j) for each area.

【0059】この処理は、レーザスキャナデータの重ね
合わせと概略標高の計算を行う(S23)。
In this process, the laser scanner data is overlaid and the approximate altitude is calculated (S23).

【0060】例えば、レーザスキャナデータLpiの画像
への投影位置を座標計算モジュールによって計算し、そ
の中で処理中の領域に重なるものを検索する(図6を参
照)。 次に、更に重なった点のヒストグラムを作り、
ヒストグラムが最大になる標高Hmodeを、領域の概略標
高として与える。
For example, the projection position of the laser scanner data L pi on the image is calculated by the coordinate calculation module, and the one that overlaps the area being processed is searched (see FIG. 6). Next, make a histogram of the points that overlap,
The altitude H mode at which the histogram becomes maximum is given as the approximate altitude of the region.

【0061】次に、平面ステレオマッチングによる標高
値の計算を行う(S24)。この計算は、領域形状を不
定形窓として、特願2000−251456の不定形窓
法により画像領域の最適標高を計算する(図7参照)。
Next, the elevation value is calculated by plane stereo matching (S24). In this calculation, the optimum altitude of the image area is calculated by the irregular window method of Japanese Patent Application No. 2000-251456, using the area shape as an irregular window (see FIG. 7).

【0062】そして、計算結果の標高をHopt とする。
なお、L(i,j)にLL(i,j)を読み込んだ場合
は、画像ILをI1、IRをI2とする。また、LR(i,
j)を読み込んだ場合は、画像IRをI1、ILをI2とす
る。
The altitude of the calculation result is H opt .
When LL (i, j) is read in L (i, j), the image I L is I 1 and I R is I 2 . Also, LR (i,
When j) is read, the image I R is I 1 and I L is I 2 .

【0063】そして、標高値が次の条件を満たすかどう
かを検定する(S25)。
Then, it is tested whether or not the altitude value satisfies the following condition (S25).

【0064】|Hmode −Hopt |<ΔH ここでΔHは標高検定のしきい値である。| H mode −H opt | <ΔH where ΔH is the threshold value of the altitude test.

【0065】次に、標高値の検定で条件を満たす場合
は、座標計算モジュール10を用いて画像領域に対応す
る地上座標を求め、処理画像が左画像ならDSM配列h
L(ix,iy)に標高値Hopt を格納する。右画像な
らDSMは配列hR(ix,iy))に格納する。すべ
ての領域について処理済みでなければ、S23に戻る
(S27)。すべての領域について処理が終わった場合
は、S22に戻って次の画像を読み込み、同様の処理を
行う(S28)。
Next, if the conditions for the elevation value test are satisfied, the coordinate calculation module 10 is used to obtain the ground coordinates corresponding to the image area. If the processed image is the left image, the DSM array h
The altitude value H opt is stored in L (ix, iy). If it is the right image, DSM is stored in array hR (ix, iy)). If not processed for all the regions, the process returns to S23 (S27). When the processing has been completed for all areas, the process returns to S22 to read the next image, and the same processing is performed (S28).

【0066】次に、DSM配列hL(x,y)とhR
(x,y)を融合し、hLR(x,y)を生成するDS
Mの融合処理を行う(S29:図8参照)。
Next, the DSM arrays hL (x, y) and hR
A DS that fuses (x, y) to produce hLR (x, y)
Fusion processing of M is performed (S29: refer to FIG. 8).

【0067】[0067]

【数1】 このDSM配列を外部記憶装置に格納する(S30)。[Equation 1] The DSM array is stored in the external storage device (S30).

【0068】(DSMの領域分割)DSMを水平な領域
に分割する。DSMの領域分割のフローを図9に示す。
(DSM Area Division) The DSM is divided into horizontal areas. FIG. 9 shows a flow of DSM area division.

【0069】DSMの領域分割は、図9に示すように、
DSMhLR(x,y)をDSM配列h(x,y)に読
み込む(S31)。
Area division of DSM is performed as shown in FIG.
The DSMhLR (x, y) is read into the DSM array h (x, y) (S31).

【0070】そして、この読み込んだDSM配列h
(x,y)、水平領域ごとに領域分割する(S32)。
Then, the read DSM array h
(X, y), the area is divided for each horizontal area (S32).

【0071】具体的には、高さが一定の範囲Dhの間に
ある連続領域をひとつの領域とする。そして、各領域に
識別番号をラベルとして付け、ラベル格納配列LH
(x,y)に格納する。すなわち、LH(x,y)=n
ならば、DSMh(x,y)が、識別番号nの領域に属
することを意味する。識別番号がnに対応する領域をR
LH(n)とする。
More specifically, a continuous area having a constant height Dh is defined as one area. Then, an identification number is attached to each area as a label, and the label storage array LH
Store in (x, y). That is, LH (x, y) = n
Then, it means that DSMh (x, y) belongs to the area of the identification number n. The area corresponding to the identification number n is R
LH (n).

【0072】次に、このラベル格納配列LH(x,y)
を外部記憶装置に格納する(S33)。
Next, this label storage array LH (x, y)
Is stored in the external storage device (S33).

【0073】(水平領域の多角形化)次に、各水平領域
の境界を直線によって多角形化する。多角形化にあたっ
ては、ステレオ画像を援用する。多角形化の概略フロー
を図10に示す。
(Polygonization of Horizontal Area) Next, the boundary of each horizontal area is polygonized by a straight line. Stereo images are used for polygonization. FIG. 10 shows a schematic flow of polygonization.

【0074】初めに、DSMとその領域分割結果を読み
込む(S40)。具体的には、ラベルLH(x,y)と
それに対応するDSMh(x,y)を外部記憶装置から
読み込む。
First, the DSM and its area division result are read (S40). Specifically, the label LH (x, y) and the corresponding DSMh (x, y) are read from the external storage device.

【0075】次に、水平領域ごとの処理として、LH
(x,y)に格納されたラベル番号k=1〜n(nはラ
ベルの個数)の各々の領域について、以下の処理を行
う。
Next, as processing for each horizontal area, LH
The following processing is performed for each area of the label number k = 1 to n (n is the number of labels) stored in (x, y).

【0076】まず、地盤高計算モジュール11を用い
て、各領域RLH(k)の位置での地盤高HGを計算す
る。このとき、領域の標高H(k)との差が閾値(2m
程度)より大きいかどうかを以下の式で判定する地表面
からの高さの判定処理を行う(S41)。
First, the ground height calculation module 11 is used to calculate the ground height HG at the position of each region RLH (k). At this time, the difference from the altitude H (k) of the area is a threshold value (2 m
The height from the ground surface is determined by the following formula (S41).

【0077】H(k)−HG>ΔHB そして、領域の標高H(k)との差が閾値より、大きい
場合は、この領域が建物であるとみなし、以下の処理を
行う。
H (k) -HG> ΔHB Then, when the difference from the altitude H (k) of the area is larger than the threshold value, this area is regarded as a building and the following processing is performed.

【0078】座標計算モジュール10を用いてラベル領
域RLH(k)に対応する画像領域を求め、その周辺を
含めて切り出す「対応する画像領域の切り出し」処理を
行う(S42)。
An image area corresponding to the label area RLH (k) is obtained by using the coordinate calculation module 10 and a "cut-out of corresponding image area" processing for cutting out the area including the periphery is performed (S42).

【0079】このとき、図11に示すように、切り出し
原点を(xc0,yc0)、切り出した画像をIc、切
り出しサイズをsxc,sycとする。また、Icと同
じサイズをもつDSMのマスク画像Icmとする。
At this time, as shown in FIG. 11, the clipping origin is (xc0, yc0), the clipped image is Ic, and the clipping size is sxc, syc. Further, the mask image Icm of DSM having the same size as Ic is set.

【0080】このIcmのマスク画像は、Ic上でRL
H(k)に対応する領域でコードT(≠0)、それ以外
で0となる2値画像である。
This Icm mask image is RL on Ic.
It is a binary image in which the code T (≠ 0) is in the area corresponding to H (k) and is 0 in other areas.

【0081】次に、画像Ic上で、Icmで指定される
マスクの周辺部で直線抽出を行うために、線抽出のため
のバッファIcbを生成する線抽出域のバッファリング
処理を行う(S43:図12参照)。
Next, on the image Ic, buffering processing of the line extraction area for generating the buffer Icb for line extraction is performed in order to perform straight line extraction in the peripheral portion of the mask specified by Icm (S43: (See FIG. 12).

【0082】具体的には、Icbは、図12に示すよう
に、IcmをNfat回膨張させた膨張マスクIcmf
atと、IcmfatをNthin回収縮された収縮マ
スクIcmthinとを生成し、この2つのマスクから
次のような関係式を成立させる。
Specifically, as shown in FIG. 12, Icb is an expansion mask Icmf obtained by expanding Icm Nfat times.
At and a contraction mask Icmthin obtained by contracting Icmfat Nth times are generated, and the following relational expression is established from these two masks.

【0083】 Icb(i,j)=T(Icmfat(i,j)=T∩Icmthin(i,j)=0) =0(それ以外) 収縮マスクIcmthinは、もとのマスクIcmと同
じかそれよりも少なくする。よって、Nfat<Nth
inとする。
Icb (i, j) = T (Icmfat (i, j) = T∩Icmthin (i, j) = 0) = 0 (other than that) The contraction mask Icmthin is the same as or smaller than the original mask Icm. Less than. Therefore, Nfat <Nth
in.

【0084】次に、図13に示すように、切り出し画像
Ic上でエッジ抽出を行う(S44)。エッジ抽出方法
は例えば、次の仕様を満たすものとする。
Next, as shown in FIG. 13, edge extraction is performed on the cut image Ic (S44). The edge extraction method satisfies the following specifications, for example.

【0085】・エッジ上の点とそれ以外で2値化され
る。
Binarization of points on the edge and other points.

【0086】・エッジが細線化されている(エッジの幅
が1ピクセルである)。
The edge is thinned (the width of the edge is 1 pixel).

【0087】このようなエッジ抽出方法として、Can
nyオペレータやSusansオペレータなどがある。
また、Sobel等のエッジ強調オペレータを施し、そ
の後2値化・細線化を行っても良い。
As such an edge extraction method, Can
There are a ny operator and a Susans operator.
Alternatively, an edge enhancement operator such as Sobel may be applied, and then binarization and thinning may be performed.

【0088】ここで得たエッジをIceとする。これに
線抽出用バッファのマスク画像Icbの共通領域をとる
ことによって、マスクの周辺部のみのエッジ画像をIc
eから得る。このエッジ画像をIcebとする(図1
4)。
The edge obtained here is defined as Ice. By taking a common area of the mask image Icb of the line extraction buffer in this, an edge image of only the peripheral portion of the mask is Ic
Get from e. This edge image is defined as Iceb (see FIG. 1).
4).

【0089】次に、マスク周辺のエッジ抽出画像Ice
bのエッジ上の点を使ってHough変換の原理で直線
の抽出を行う直線化処理を行う(S45:図14参
照)。
Next, the edge extraction image Ice around the mask
Linearization processing is performed to extract a straight line by the Hough transform principle using points on the edge of b (S45: see FIG. 14).

【0090】Hough変換では、直線の方程式を法線
方向θと原点からの距離ρを使ってxcosθ+ysinθ=
ρとおき、(θ−ρ)空間において直線を抽出する方法
である。Hough変換は画像から直線や円等の図形を
抽出するための一手法である。
In the Hough transform, the equation of the straight line is calculated by using the normal direction θ and the distance ρ from the origin, and xcosθ + ysinθ =
This is a method of extracting a straight line in the (θ−ρ) space by placing ρ. Hough transform is a method for extracting a figure such as a straight line or a circle from an image.

【0091】また、抽出する直線の数nhoughとして、
最もたくさんのエッジ上の点を通る直線のパラメータの
対(θ1 ,ρ1 )からnhough番目にエッジの点を通る
直線の対(θnhoughρnhough)までを抽出する(図1
5参照)。
As the number of extracted straight lines n hough ,
From the parameter pair (θ 1 , ρ 1 ) of the straight line passing through the points on the most edges to the pair of straight lines (θ nhough ρ nhough ) passing through the n hough- th edge point are extracted (FIG. 1).
5).

【0092】次に、Hough変換で抽出されたすべて
の直線について交点を求め、線分化する直線の線分化処
理を行う(S46、図14の線分化)。
Next, intersection points are obtained for all the straight lines extracted by the Hough transform, and the line segmentation processing for the line segments is performed (S46, line segmentation in FIG. 14).

【0093】そして、収縮マスクIcmthinと重な
る線分を削除するマスクとの重複部分削除処理を行う
(図14参照)。
Then, a process of deleting the overlapping portion with the mask for deleting the line segment overlapping the contraction mask Icmthin is performed (see FIG. 14).

【0094】次に、線分を領域毎に多角形化(点列化)
し、更に、その多角形の中で、マスク画像Icmと最も
大きな共通領域を持つ多角形を、ラベル領域RLH
(k)に対応する多角形とする(S48)。この多角形
は、画像座標列PlI(k)とする(図16参照)。
Next, the line segment is made polygonal for each area (point sequence formation).
In addition, among the polygons, the polygon having the largest common area with the mask image Icm is defined as the label area RLH.
The polygon corresponding to (k) is set (S48). This polygon is set as the image coordinate sequence PlI (k) (see FIG. 16).

【0095】次に、画像座標で与えられたPlI(k)
を、3次元空間の多角形PlT(k)に変換する3次元
点列化処理を行う(S49)。このとき、3次元空間で
の多角形のZ座標は、領域の標高H(k)とする(図1
7参照)。
Next, PlI (k) given in image coordinates
Is converted into a polygon PlT (k) in the three-dimensional space, and a three-dimensional point sequence processing is performed (S49). At this time, the Z coordinate of the polygon in the three-dimensional space is the altitude H (k) of the area (see FIG. 1).
7).

【0096】そして、得られた多角形座標列PlI
(k)を外部記憶装置に保存した後に(S50)、次の
領域に移る(S51)。
Then, the obtained polygonal coordinate sequence PlI
After storing (k) in the external storage device (S50), the process moves to the next area (S51).

【0097】(3次元モデル化処理)前述の3次元モデ
ル化処理について説明を補充する。各多角形を角柱状の
三次元モデルに変換する概略フローを図18に示す。
(3D Modeling Process) The description of the 3D modeling process will be supplemented. FIG. 18 shows a schematic flow of converting each polygon into a prismatic three-dimensional model.

【0098】3次元モデル化処理においては、図16に
示す多角形座標列PlI(k)を外部記憶装置から読み
出し(S60)、多角形の地表面位置の計算を行う(S
61)。
In the three-dimensional modeling process, the polygon coordinate sequence PlI (k) shown in FIG. 16 is read from the external storage device (S60), and the ground surface position of the polygon is calculated (S60).
61).

【0099】この計算は、地盤高計算モジュールによ
り、多角形座標列PlT(k)を構成する各点の水平座
標位置において、地表面位置の高さを求め、PlT
(k)に対応する底面多角形PlE(k)を計算する
(図19参照)。
In this calculation, the ground height calculation module obtains the height of the ground surface position at the horizontal coordinate position of each point forming the polygonal coordinate sequence PlT (k), and PlT
A bottom polygon PlE (k) corresponding to (k) is calculated (see FIG. 19).

【0100】次に、多角形PlT(k)と底面多角形P
lE(k)の対応する辺と、これらの辺の両端を鉛直線
で結んだ四角形を側面として、角柱3次元モデルBLD
を建物モデルとする多角形の建物モデル化処理を行う
(S62)。
Next, the polygon PlT (k) and the bottom polygon P
A three-dimensional model of a prism BLD with the sides corresponding to lE (k) and the quadrangles connecting both ends of these sides with vertical lines as side surfaces.
A polygonal building modeling process is performed by using as a building model (S62).

【0101】この角柱3次元モデルBLDは、角柱の頂
上多角形PlT(k)と底面多角形PlE(k)、およ
び側面多角形群PlWi (i=1,...nPlT(k))から構
成される(図19参照)。ここでnPlT(k)は、頂上多角
形PlT(k)の頂点数である。
This prism three-dimensional model BLD has a top polygon PlT (k) and a bottom polygon PlE (k), and a side polygon group PlW i (i = 1, ... n PlT (k) ) of the prism. (See FIG. 19). Here, n PlT (k) is the number of vertices of the top polygon PlT (k).

【0102】そして、得られた角柱3次元BLDを外部
記憶装置に格納する(S63)。格納にあたっては、V
RMLなどの3次元モデル表記用フォーマットを用いる
のが好ましい。
Then, the obtained prismatic three-dimensional BLD is stored in the external storage device (S63). When storing, V
It is preferable to use a three-dimensional model notation format such as RML.

【0103】従って、航空写真内の建物形状の精密計算
や、3次元モデル生成に利用可能である。
Therefore, it can be used for the accurate calculation of the building shape in the aerial photograph and the generation of the three-dimensional model.

【0104】なお、上記実施の形態では、水平面ステレ
オマッチングは不定形窓を用いた水平面ステレオマッチ
ングとして説明したが特願2002−127512に記
載の平面ステレオマッチング方式を用いてもよい。
In the above embodiment, the horizontal plane stereo matching is described as the horizontal plane stereo matching using the irregular window, but the flat plane stereo matching method described in Japanese Patent Application No. 2002-127512 may be used.

【0105】この平面ステレオマッチングは、ステレオ
写真に写る平面が中心投影の原理に基づき射影変換によ
り、対応付けられることを利用し、その平面上にある3
点(どの3点も一直線上にない)の対応関係についてエ
ピポーラ条件を満たす拘束条件を設定することによっ
て、その面の上での射影変換係数を自動的に決定する。
This plane stereo matching utilizes the fact that planes appearing in a stereo photograph are associated with each other by projective transformation based on the principle of central projection.
The projective transformation coefficient on the surface is automatically determined by setting a constraint condition that satisfies the epipolar condition with respect to the correspondence between points (none of the three points is on a straight line).

【発明の効果】以上のように本発明によれば、データベ
ースに保存されている所定地域の空中写真画像から連続
して同じ色彩の画素の色領域を抽出し、該抽出後に、デ
ータベースに保存されている前記所定地域のレーザスキ
ャナデータに基づいて得られたデジタル地表面モデルに
対して前記色領域を用いたステレオマッチングを行いD
SMを生成する。
As described above, according to the present invention, the color regions of the pixels of the same color are continuously extracted from the aerial photograph image of the predetermined area stored in the database, and after the extraction, the color regions are stored in the database. Stereo matching using the color area is performed on the digital ground surface model obtained based on the laser scanner data of the predetermined area.
Generate SM.

【0106】そして、DSM内の水平領域と画像を用い
て、水平領域周辺部に対応する画像上の線構造情報から
直線化を行い、この直線に囲まれた領域の画素列を3次
元化することによって前記水平領域を3次元点列化す
る。
Then, using the horizontal region and the image in the DSM, linearization is performed from the line structure information on the image corresponding to the peripheral portion of the horizontal region, and the pixel row in the region surrounded by this straight line is three-dimensionalized. By doing so, the horizontal region is made into a three-dimensional point sequence.

【0107】これにより、レーザスキャナデータでは曖
昧であった地物境界をより高精度に表現することができ
るという効果が得られている。
As a result, the effect that the feature boundary, which was ambiguous in the laser scanner data, can be expressed with higher accuracy is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】レーザスキャナデータと空中写真画像を用いた
高精度都市モデルの生成装置の概略構成図である。
FIG. 1 is a schematic configuration diagram of a high-precision city model generation device using laser scanner data and aerial photograph images.

【図2】不定形窓を用いた標高値の付与を説明する説明
図である。
FIG. 2 is an explanatory diagram for explaining how to assign an altitude value using an irregular window.

【図3】ステレオ画像の色彩による領域分割を説明する
フローチャートである。
FIG. 3 is a flowchart for explaining area division by color of a stereo image.

【図4】画像の領域分割を説明する説明図である。FIG. 4 is an explanatory diagram illustrating area division of an image.

【図5】水平面ステレオマッチングを説明するフローチ
ャートである。
FIG. 5 is a flowchart illustrating horizontal plane stereo matching.

【図6】レーザスキャナーデータの重ね合わせを説明す
る説明図である。
FIG. 6 is an explanatory diagram illustrating superposition of laser scanner data.

【図7】不定形窓による水平ステレオマッチングを説明
する説明図である。
FIG. 7 is an explanatory diagram illustrating horizontal stereo matching using an irregular window.

【図8】DSMの合成を説明する説明図である。FIG. 8 is an explanatory diagram illustrating DSM synthesis.

【図9】DSMの領域分割を説明するフローチャートで
ある。
FIG. 9 is a flowchart illustrating DSM area division.

【図10】水平領域の多角形化を説明するフローチャー
トである。
FIG. 10 is a flowchart illustrating polygonization of a horizontal area.

【図11】画像領域の切り出しを説明する説明図であ
る。
FIG. 11 is an explanatory diagram illustrating clipping of an image area.

【図12】線抽出域のバッファリングを説明する説明図
である。
FIG. 12 is an explanatory diagram illustrating buffering of a line extraction area.

【図13】エッジ抽出を説明する説明図である。FIG. 13 is an explanatory diagram illustrating edge extraction.

【図14】直線化および直線の線分化の説明図である。FIG. 14 is an explanatory diagram of straightening and line segmentation of a straight line.

【図15】Hough変換の説明図である。FIG. 15 is an explanatory diagram of Hough conversion.

【図16】多角形化の説明図である。FIG. 16 is an explanatory diagram of polygonization.

【図17】3次元点列化を説明する説明図である。[Fig. 17] Fig. 17 is an explanatory diagram illustrating three-dimensional dot string formation.

【図18】3次元モデル化を説明するフローチャートで
ある。
FIG. 18 is a flowchart illustrating three-dimensional modeling.

【図19】本実施の形態による建物の3次元モデル化を
説明する説明図である。
FIG. 19 is an explanatory diagram illustrating a three-dimensional modeling of a building according to this embodiment.

【図20】ステレオ空中写真を説明する説明図である。FIG. 20 is an explanatory diagram illustrating a stereo aerial photograph.

【図21】レーザスキャナーデータを説明する説明図で
ある。
FIG. 21 is an explanatory diagram illustrating laser scanner data.

【図22】デジタル地形モデルを説明する説明図であ
る。
FIG. 22 is an explanatory diagram illustrating a digital terrain model.

【符号の説明】[Explanation of symbols]

10 標計算モジュール 11 地盤高計算モジュール 15 領域分割処理部 16 水平面ステレオマッチング処理部 17 領域分割処理部 18 多角形生成処理部 19 3次元モデル化処理部 10 Standard calculation module 11 Ground height calculation module 15 Area division processing unit 16 Horizontal stereo matching unit 17 Area division processing unit 18 Polygon generation processing unit 19 3D modeling processor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 200 G06T 7/00 200A 7/60 300 7/60 300A G09B 29/00 G09B 29/00 Z (72)発明者 土居原 健 東京都新宿区新宿4−2−18新宿光風ビル アジア航測株式会社内 (72)発明者 柴崎 亮介 東京都江東区猿江1丁目5−3−408 Fターム(参考) 2C032 HB05 HC23 5B050 AA01 BA04 BA09 BA15 DA04 EA06 EA09 EA13 EA19 EA26 FA02 FA06 5B057 AA13 CA01 CA12 CA16 CB13 CB16 CD14 CE08 CE15 CH01 DA08 DA16 DB02 DB06 DC09 DC16 DC25 5L096 AA02 AA09 BA20 CA04 EA02 FA06 FA15 GA10 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 identification code FI theme code (reference) G06T 7/00 200 G06T 7/00 200A 7/60 300 7/60 300A G09B 29/00 G09B 29/00 Z (72) Inventor Ken Doihara Shinjuku-ku, Tokyo Shinjuku-ku 4-2-18 Shinjuku Kofu Building Asia Air Survey Co., Ltd. (72) Inventor Ryosuke Shibasaki 1-5-3-408 F-term, Saroe, Koto-ku, Tokyo 2C032 HB05 HC23 5B050 AA01 BA04 BA09 BA15 DA04 EA06 EA09 EA13 EA19 EA26 FA02 FA06 5B057 AA13 CA01 CA12 CA16 CB13 CB16 CD14 CE08 CE15 CH01 DA08 DA16 DB02 DB06 DC09 DC16 DC25 5L096 AA02 GA10 FA06 CA20 FA04 FA20 FA04 FA20 FA04 FA20 FA04 FA04

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 データベースに保存されている所定地域
の空中写真画像から連続して同じ色彩の画素の色領域を
抽出し、 該抽出後に、データベースに保存されている前記所定地
域のレーザスキャナデータに基づいて得られたデジタル
地表面モデルに対して前記色領域を用いた水平面ステレ
オマッチングを行いDSMを生成し、 前記DSMの水平領域と空中写真画像とを用いて、前記
DSMの水平領域の周辺部に対応する画像上の線構造情
報から直線化を行い、 この直線に囲まれた領域の画素列を3次元化することに
よって前記水平領域を3次元点列化することを特徴とす
るレーザスキャナデータと空中写真画像を用いた高精度
都市モデルの生成方法。
1. A color region of pixels of the same color is continuously extracted from an aerial photograph image of a predetermined region stored in a database, and after the extraction, a laser scanner data of the predetermined region is stored in the database. A horizontal plane stereo matching using the color region is performed on the obtained digital ground surface model to generate a DSM, and using the horizontal region of the DSM and the aerial photograph image, a peripheral portion of the horizontal region of the DSM is generated. Laser scanner data, characterized in that linearization is performed from the line structure information on the image corresponding to, and the horizontal region is transformed into a three-dimensional dot sequence by three-dimensionalizing a pixel column in a region surrounded by the straight line. Method for Generating High-Precision Urban Models Using Image and Aerial Photographs.
【請求項2】 前記水平面ステレオマッチングは、前記
空中写真画像の色彩情報を利用して均一な色領域を抽出
し、各色領域が水平であると仮定して行うことを特徴と
する請求項1記載のレーザスキャナデータと空中写真画
像を用いた高精度都市モデルの生成方法。
2. The horizontal plane stereo matching is performed by extracting uniform color areas by using color information of the aerial photograph image and assuming that each color area is horizontal. Method for high-precision urban model generation using laser scanner data and aerial photograph images of Japan.
【請求項3】 前記水平面ステレオマッチングを行った
ときの標高値の計算結果がレーザスキャナデータとほぼ
同じ高さになった場合はその領域に計算結果の標高値を
与えることによって、レーザスキャナデータで得られる
DSMと同じ標高値を有する前記水平領域を前記DSM
の領域に生成することを特徴とする請求項1又は2記載
のレーザスキャナデータと空中写真画像を用いた高精度
都市モデルの生成方法。
3. When the calculation result of the elevation value when the horizontal plane stereo matching is performed becomes almost the same height as the laser scanner data, the elevation value of the calculation result is given to the area to obtain the laser scanner data. The horizontal area having the same elevation value as the obtained DSM is set to the DSM.
The high-precision city model generation method using the laser scanner data and the aerial photograph image according to claim 1, wherein the high-precision city model is generated in the area.
【請求項4】 前記DSMの中の水平領域は、領域分割
によって抽出し、各領域に対応するステレオ画像上の周
辺領域で直線抽出を行い、その結果を多角形化すること
によって建物領域の3次元多角形化を行うことを特徴と
する請求項1、2又は3記載のレーザスキャナデータと
空中写真画像を用いた高精度都市モデルの生成方法。
4. A horizontal area in the DSM is extracted by area division, a straight line is extracted in a peripheral area on a stereo image corresponding to each area, and the result is polygonalized so that the 3 areas of the building area are extracted. A method for generating a high-precision city model using laser scanner data and an aerial photograph image according to claim 1, 2 or 3, wherein three-dimensional polygonalization is performed.
【請求項5】 前記建物領域の3次元多角形化は、角柱
状に構成することを特徴とする請求項1、2、3又は4
記載のレーザスキャナデータと空中写真画像を用いた高
精度都市モデルの生成方法。
5. The three-dimensional polygonalization of the building area is configured in a prismatic shape.
A method for generating a high-precision city model using the described laser scanner data and an aerial photograph image.
【請求項6】 データベースに保存されている所定地域
の空中写真画像から連続して同じ色彩の画素の色領域を
抽出する手段と、 該抽出後に、データベースに保存されている前記所定地
域のレーザスキャナデータに基づいて得られたデジタル
地表面モデルに対して前記色領域を用いた水平面ステレ
オマッチングを行いDSM領域を生成する手段と、 前記DSMの水平領域と空中写真画像とを用いて、前記
DSMの水平領域の周辺部に対応する画像上の線構造情
報から直線化を行う手段と、 この直線に囲まれた領域の画素列を3次元化することに
よって前記水平領域を3次元点列化する手段とを有する
ことを特徴とする高精度都市モデルの生成システム。
6. A means for continuously extracting color regions of pixels of the same color from an aerial photograph image of a predetermined region stored in a database, and a laser scanner of the predetermined region stored in the database after the extraction. Means for performing horizontal plane stereo matching using the color region to generate a DSM region for a digital ground surface model obtained based on data, and using the horizontal region of the DSM and the aerial photograph image, Means for linearizing from the line structure information on the image corresponding to the peripheral part of the horizontal area, and means for converting the horizontal area into a three-dimensional point array by three-dimensionalizing the pixel row in the area surrounded by the straight line A high-precision city model generation system characterized by having.
【請求項7】 前記水平面ステレオマッチングは、前記
空中写真画像の色彩情報を利用して均一な色領域を抽出
し、各色領域が水平であると仮定して行うことを特徴と
する請求項6記載の高精度都市モデルの生成システム。
7. The horizontal plane stereo matching is performed by extracting uniform color areas using color information of the aerial photograph image and assuming that each color area is horizontal. High-precision urban model generation system.
【請求項8】 前記水平面ステレオマッチングを行った
ときの標高値の計算結果がレーザスキャナデータとほぼ
同じ高さになった場合は、その領域に計算結果の標高値
を与えることによって、レーザスキャナデータで得られ
るDSMと同じ標高値を有する前記水平領域を前記DS
Mの領域に生成する手段とを有することを特徴とする請
求項6又は8記載の高精度都市モデルの生成システム。
8. When the calculation result of the elevation value when the horizontal plane stereo matching is performed becomes almost the same height as the laser scanner data, the elevation value of the calculation result is given to the area to obtain the laser scanner data. The horizontal area having the same elevation value as the DSM obtained in
9. The high-precision city model generation system according to claim 6, further comprising means for generating the area in M.
【請求項9】 前記DSMの中の水平領域は、領域分割
によって抽出し、各領域に対応するステレオ画像上の周
辺領域で直線抽出を行い、その結果を多角形化すること
によって建物領域の3次元多角形化を行うことを特徴と
する請求項6、7又は8記載のレーザスキャナデータと
空中写真画像を用いた高精度都市モデルの生成システ
ム。
9. The horizontal area in the DSM is extracted by area division, straight lines are extracted in the peripheral area on the stereo image corresponding to each area, and the result is polygonalized so that the three areas of the building area are extracted. 9. A high-precision city model generation system using laser scanner data and aerial photographic images according to claim 6, 7 or 8 for performing dimensional polygonalization.
【請求項10】 前記建物領域の3次元多角形化は、角
柱状に構成することを特徴とする請求項6、7、8又は
9記載の高精度都市モデルの生成システム。
10. The high-precision city model generation system according to claim 6, wherein the three-dimensional polygonalization of the building area is formed in a prismatic shape.
【請求項11】 コンピュータに、 データベースに保存された所定地域のレーザスキャナデ
ータを読み込みさせる手段、 データベースに保存された所定地域の空中写真画像の内
で色彩が均一な画素のかたまりの色領域を順次抽出させ
る手段、 前記抽出後にデータベースに保存された所定地域のデジ
タル地表モデルに対して、前記色領域が水平であるとし
て前記水平面ステレオマッチングを行わせる手段、 前記ステレオマッチングの結果得られる標高値の計算結
果が前記デジタル地表面モデルのレーザスキャナデータ
と同程度の標高値かどうかを判定させる手段、 前記同程度の標高値と判定しときは、前記色領域に標高
値を適用してDSMを生成し、保存させる手段、 前記DSMの水平領域をマスク領域とし、これを膨張し
た画像及び収縮した画像を生成し、これらの領域を合成
して前記マスク領域の周辺の線抽出領域を取得させる手
段、 前記空中写真画像の前記マスク領域及びその周辺に対応
する箇所のエッジ画像を取得させ、該エッジ抽出画像と
前記線抽出領域を重ねさせ、前記マスク領域の周辺のエ
ッジ画像を抽出する手段、 前記周辺エッジ画像に対してHough変換を行って周
辺エッジ画像の各エッジを直線化させる手段、 前記直線化された直線化エッジ画像に、前記収縮マスク
画像と比較させ、前記直線化エッジ画像上から不要なエ
ッジを除去した線分を取得させる手段、 前記線分を追跡して得られる多角形を生成し、その中か
ら前記マスク領域と最も重なる多角形座標列を取り出す
手段、 前記多角形座標列に対して前記標高値を与えて前記抽出
された色領域を3次元化させる手段、 として機能させるための高精度都市モデルの生成のプロ
グラム。
11. A means for causing a computer to read laser scanner data of a predetermined region stored in a database, and a color region of a group of pixels having a uniform color in the aerial photograph image of the predetermined region stored in the database are sequentially arranged. Means for extracting, means for performing the horizontal stereo matching on the digital ground model of the predetermined area stored in the database after the extraction, assuming that the color region is horizontal, calculation of the elevation value obtained as a result of the stereo matching Means for determining whether or not the result is the same altitude value as the laser scanner data of the digital ground surface model, and when determining the same altitude value, apply the altitude value to the color area to generate a DSM. A means for storing, a horizontal area of the DSM is used as a mask area, and an expanded image and a deflated area are used. Means for obtaining a line extraction area around the mask area by synthesizing these areas, and obtaining an edge image of a location corresponding to the mask area and its periphery of the aerial photograph image, Means for overlapping the edge extraction image and the line extraction area to extract an edge image around the mask area; means for performing Hough transform on the peripheral edge image to linearize each edge of the peripheral edge image; A means for obtaining a line segment from which unnecessary edges are removed from the straightened edge image by comparing the straightened edge image that has been linearized with the contraction mask image, and a polygon obtained by tracing the line segment. A means for generating a polygonal coordinate sequence that most overlaps with the mask region, and giving the elevation value to the polygonal coordinate sequence, and extracting the extracted color region. Means for Motoka Precision urban model generation program to function as a.
JP2002127672A 2002-04-26 2002-04-26 Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model Expired - Lifetime JP4058293B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002127672A JP4058293B2 (en) 2002-04-26 2002-04-26 Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002127672A JP4058293B2 (en) 2002-04-26 2002-04-26 Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model

Publications (2)

Publication Number Publication Date
JP2003323640A true JP2003323640A (en) 2003-11-14
JP4058293B2 JP4058293B2 (en) 2008-03-05

Family

ID=29541675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002127672A Expired - Lifetime JP4058293B2 (en) 2002-04-26 2002-04-26 Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model

Country Status (1)

Country Link
JP (1) JP4058293B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005172634A (en) * 2003-12-11 2005-06-30 Asia Air Survey Co Ltd Method for measuring occupancy classified by altitude, and method for compensating flooded depth using the same
JP2007074674A (en) * 2005-09-09 2007-03-22 Sony Corp Image processing apparatus and method, and program
KR100715460B1 (en) * 2004-04-06 2007-05-07 이엔지정보기술 주식회사 Apparatus and method for generating digital elevation model with high accuracy by using laser scanning data
JP2008226189A (en) * 2007-03-15 2008-09-25 Aisin Seiki Co Ltd Feature point detection device and program
WO2009003529A1 (en) * 2007-07-04 2009-01-08 Saab Ab Arrangement and method for providing a three dimensional map representation of an area
WO2009016807A1 (en) * 2007-07-27 2009-02-05 Pasco Corporation Spatial information database generating device and spatial information database generating program
JP2009145314A (en) * 2007-12-17 2009-07-02 Korea Electronics Telecommun Digital photogrammetry by integrated modeling of different types of sensors, and its device
WO2009131108A1 (en) * 2008-04-23 2009-10-29 株式会社パスコ Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program
JP2010151577A (en) * 2008-12-25 2010-07-08 Shimizu Corp Device and method for inspecting arrangement of reinforcing bar
JP2011158278A (en) * 2010-01-29 2011-08-18 Pasuko:Kk Method and device for filtering laser data
JP2012243226A (en) * 2011-05-23 2012-12-10 Nec System Technologies Ltd Ground height data generation device, ground height data generation method, and program
JP2013072705A (en) * 2011-09-27 2013-04-22 Kumagai Gumi Co Ltd Detection method of discontinuity surface on rock bed slope and detection device of the same
JP2013072704A (en) * 2011-09-27 2013-04-22 Kumagai Gumi Co Ltd Extraction method of discontinuity surface of tunnel working face and device of the same
JP2013088999A (en) * 2011-10-18 2013-05-13 Aero Asahi Corp Building extraction device, method, and program
JP2015141147A (en) * 2014-01-30 2015-08-03 国際航業株式会社 Charting method by point group image, and charting device by point group image
CN108986207A (en) * 2018-06-29 2018-12-11 广东星舆科技有限公司 A kind of road based on true road surface data and emulation modelling method is built along the line
KR102058626B1 (en) 2017-11-29 2019-12-23 (주)엔젤스윙 Method and Device for visualizing the change in topography
CN113642065A (en) * 2021-06-28 2021-11-12 中国地质大学(武汉) Indoor semi-automatic drawing and modeling method based on DXF vector plane diagram
CN113658336A (en) * 2021-07-28 2021-11-16 贵州图智信息技术有限公司 Three-dimensional automatic modeling method and system
US11657437B2 (en) 2017-11-29 2023-05-23 Angelswing Inc Method and apparatus for providing drone data by matching user with provider

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005172634A (en) * 2003-12-11 2005-06-30 Asia Air Survey Co Ltd Method for measuring occupancy classified by altitude, and method for compensating flooded depth using the same
KR100715460B1 (en) * 2004-04-06 2007-05-07 이엔지정보기술 주식회사 Apparatus and method for generating digital elevation model with high accuracy by using laser scanning data
JP2007074674A (en) * 2005-09-09 2007-03-22 Sony Corp Image processing apparatus and method, and program
JP2008226189A (en) * 2007-03-15 2008-09-25 Aisin Seiki Co Ltd Feature point detection device and program
WO2009003529A1 (en) * 2007-07-04 2009-01-08 Saab Ab Arrangement and method for providing a three dimensional map representation of an area
US9094673B2 (en) 2007-07-04 2015-07-28 Saab Ab Arrangement and method for providing a three dimensional map representation of an area
US8218824B2 (en) 2007-07-27 2012-07-10 Pasco Corporation Spatial information database generating device and spatial information database generating program
JP2009032063A (en) * 2007-07-27 2009-02-12 Pasuko:Kk Device and program for generating space information database
WO2009016807A1 (en) * 2007-07-27 2009-02-05 Pasco Corporation Spatial information database generating device and spatial information database generating program
JP4719753B2 (en) * 2007-12-17 2011-07-06 韓國電子通信研究院 Digital photogrammetry method and apparatus using heterogeneous sensor integrated modeling
JP2009145314A (en) * 2007-12-17 2009-07-02 Korea Electronics Telecommun Digital photogrammetry by integrated modeling of different types of sensors, and its device
US8538151B2 (en) 2008-04-23 2013-09-17 Pasco Corporation Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program
WO2009131108A1 (en) * 2008-04-23 2009-10-29 株式会社パスコ Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program
JPWO2009131108A1 (en) * 2008-04-23 2011-08-18 株式会社パスコ Building roof contour recognition apparatus, building roof contour recognition method, and building roof contour recognition program
JP4880069B2 (en) * 2008-04-23 2012-02-22 株式会社パスコ Building roof contour recognition apparatus, building roof contour recognition method, and building roof contour recognition program
CN101978395B (en) * 2008-04-23 2012-10-03 株式会社博思科 Building roof outline recognizing device, and building roof outline recognizing method
JP2010151577A (en) * 2008-12-25 2010-07-08 Shimizu Corp Device and method for inspecting arrangement of reinforcing bar
JP2011158278A (en) * 2010-01-29 2011-08-18 Pasuko:Kk Method and device for filtering laser data
JP2012243226A (en) * 2011-05-23 2012-12-10 Nec System Technologies Ltd Ground height data generation device, ground height data generation method, and program
JP2013072705A (en) * 2011-09-27 2013-04-22 Kumagai Gumi Co Ltd Detection method of discontinuity surface on rock bed slope and detection device of the same
JP2013072704A (en) * 2011-09-27 2013-04-22 Kumagai Gumi Co Ltd Extraction method of discontinuity surface of tunnel working face and device of the same
JP2013088999A (en) * 2011-10-18 2013-05-13 Aero Asahi Corp Building extraction device, method, and program
JP2015141147A (en) * 2014-01-30 2015-08-03 国際航業株式会社 Charting method by point group image, and charting device by point group image
KR102058626B1 (en) 2017-11-29 2019-12-23 (주)엔젤스윙 Method and Device for visualizing the change in topography
US11657437B2 (en) 2017-11-29 2023-05-23 Angelswing Inc Method and apparatus for providing drone data by matching user with provider
CN108986207A (en) * 2018-06-29 2018-12-11 广东星舆科技有限公司 A kind of road based on true road surface data and emulation modelling method is built along the line
CN108986207B (en) * 2018-06-29 2023-05-23 广东星舆科技有限公司 Road and along-line building simulation modeling method based on real pavement data
CN113642065A (en) * 2021-06-28 2021-11-12 中国地质大学(武汉) Indoor semi-automatic drawing and modeling method based on DXF vector plane diagram
CN113642065B (en) * 2021-06-28 2024-03-12 中国地质大学(武汉) Indoor semi-automatic drawing and modeling method based on DXF vector plan
CN113658336A (en) * 2021-07-28 2021-11-16 贵州图智信息技术有限公司 Three-dimensional automatic modeling method and system

Also Published As

Publication number Publication date
JP4058293B2 (en) 2008-03-05

Similar Documents

Publication Publication Date Title
CN109872397B (en) Three-dimensional reconstruction method of airplane parts based on multi-view stereo vision
JP4058293B2 (en) Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model
US7509241B2 (en) Method and apparatus for automatically generating a site model
EP1242966B1 (en) Spherical rectification of image pairs
JP4284644B2 (en) 3D model construction system and 3D model construction program
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
US20100328308A1 (en) Three Dimensional Mesh Modeling
JP2005308553A (en) Three-dimensional image measuring device and method
JP6534296B2 (en) Three-dimensional model generation device, three-dimensional model generation method, and program
CN103839286B (en) The true orthophoto of a kind of Object Semanteme constraint optimizes the method for sampling
JP2007193850A (en) Change region recognition apparatus
JP2002063580A (en) Inter-image expansion image matching method using indefinite shape window
JP2019095821A (en) Stone wall management system, stone wall management method, and computer program
CN112767459A (en) Unmanned aerial vehicle laser point cloud and sequence image registration method based on 2D-3D conversion
CN116051980B (en) Building identification method, system, electronic equipment and medium based on oblique photography
Verhoeven et al. From 2D (to 3D) to 2.5 D: not all gridded digital surfaces are created equally
Qin et al. A methodology for true orthorectification of large-scale urban aerial images and automatic detection of building occlusions using digital surface model
CN114387532A (en) Boundary identification method and device, terminal, electronic equipment and unmanned equipment
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
JP2006172099A (en) Changed region recognition device and change recognition system
KR101079359B1 (en) A system for generating digital map using an aerial photograph and aerial light detection of ranging data
KR101083902B1 (en) A system for generating 3-dimensional spatial information using an aerial lidar surveying data
CN116152389B (en) Visual angle selection and texture alignment method for texture mapping and related equipment
KR101103491B1 (en) A system and method for generating road layer using an aerial light detection and ranging data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071217

R150 Certificate of patent or registration of utility model

Ref document number: 4058293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term