JP2003141567A - Three-dimensional city model generating device and method of generating three-dimensional city model - Google Patents

Three-dimensional city model generating device and method of generating three-dimensional city model

Info

Publication number
JP2003141567A
JP2003141567A JP2001341885A JP2001341885A JP2003141567A JP 2003141567 A JP2003141567 A JP 2003141567A JP 2001341885 A JP2001341885 A JP 2001341885A JP 2001341885 A JP2001341885 A JP 2001341885A JP 2003141567 A JP2003141567 A JP 2003141567A
Authority
JP
Japan
Prior art keywords
edge
roof
building
dimensional
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001341885A
Other languages
Japanese (ja)
Inventor
Madhavan Babu
マダワン バブ
Saika O
彩華 王
Kazuhiko Yamamoto
山本  和彦
Original Assignee
Japan Science & Technology Corp
科学技術振興事業団
Softopia Japan Foundation
財団法人ソフトピアジャパン
Madhavan Babu
マダワン バブ
Kazuhiko Yamamoto
山本 和彦
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science & Technology Corp, 科学技術振興事業団, Softopia Japan Foundation, 財団法人ソフトピアジャパン, Madhavan Babu, マダワン バブ, Kazuhiko Yamamoto, 山本 和彦 filed Critical Japan Science & Technology Corp
Priority to JP2001341885A priority Critical patent/JP2003141567A/en
Publication of JP2003141567A publication Critical patent/JP2003141567A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional city model generation device and a method of generating a three-dimensional city model capable of accurately detecting a roof edge line such as a gable. SOLUTION: An edge detecting part 80 detects a boundary edge between a building and a ground based on a range data provided with the three- dimensional coordinate value of the surface shape of a city space. A thinning part 40 thins the edge. A vectorizing part 50 vectorizes the thinned outline edge. The plane of the roof of the building is divided by an area dividing part 60. The planes is respectively applied to the areas adjoining mutually by a plane applying part. Roof edges formed between the adjoining areas are detected by a roof edge detecting part 80. A polygonizing part 90 polygonizes based on the outline edge obtained by the vectorizing part 50 and the detected roof edge. A three-dimensional model generating part 100 generates a three- dimensional model based on the polygonized data.

Description

【発明の詳細な説明】Detailed Description of the Invention
【0001】[0001]
【発明の属する技術分野】本発明は、3次元都市モデル
生成方法及びその装置に関し、特に上空から地面を撮像
したレンジデータを使用した3次元都市モデル生成装置
及びその方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional city model generation method and apparatus, and more particularly to a three-dimensional city model generation apparatus and range method using range data obtained by imaging the ground from the sky.
【0002】[0002]
【従来の技術】従来、複数の航空写真から得られた高さ
データ等を用いて画像処理手法を用いて3次元都市モデ
ル生成方法が提案されている。従来の航空写真から得ら
れた高さデータは低密度であり、又、精度が悪い問題が
あり、そのためにこれらのデータを使用して得られる3
次元都市モデルは、その精度が悪くなる問題がある。
又、これらの従来のモデル構築方法では、かなりの人手
を伴う作業が要求されていた。
2. Description of the Related Art Conventionally, a three-dimensional city model generation method has been proposed using an image processing method using height data obtained from a plurality of aerial photographs. The height data obtained from conventional aerial photographs have low density and also have a problem of inaccuracy. Therefore, these data can be used to obtain 3
The dimensional city model has a problem that its accuracy becomes poor.
Further, in these conventional model building methods, a work requiring a considerable amount of manpower is required.
【0003】近年、航空機等に搭載したレーザスキャナ
にて都市空間を走査することにより上空から地面を撮像
したレンジデータALS(Airborne−Laser Scanne
r)が得られている。前記レンジデータALSは、3次
元座標値を備えたデータであり、このレンジデータAL
Sを使用して3次元都市モデルを生成することが期待さ
れている。
In recent years, range data ALS (Airborne-Laser Scanne) in which the ground is imaged from the sky by scanning the urban space with a laser scanner mounted on an aircraft or the like.
r) has been obtained. The range data ALS is data having three-dimensional coordinate values.
It is expected that S will be used to generate a three-dimensional city model.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、レンジ
データALSを使用して高精度な3次元都市モデルを生
成する方法は、いくつか提案はされてはいるが、好適な
結果は得られていないのが現状である。
However, although some methods have been proposed for generating a highly accurate three-dimensional city model using range data ALS, no suitable result has been obtained. Is the current situation.
【0005】特に、切妻作りの屋根を備えた日本家屋が
含まれる都市空間では、前記日本家屋のルーフエッジの
検出が難しく、未だこのルーフエッジ検出を好適に行う
ことができる3次元都市モデル生成方法については提案
されていない。なお、ルーフエッジとは、異なる方向に
向く屋根面を複数備えた屋根において、これらの屋根面
間に形成されるエッジをいう。例えば、切妻のように桁
行方向に棟木を設けて、そこから互いに反対方向に雨水
を流す屋根において、その棟木に対応するエッジライン
を含む。又、寄棟の場合には、妻屋根と平屋根との間に
形成される境界のエッジが含まれる。
Particularly, in a city space including a Japanese house having a gabled roof, it is difficult to detect the roof edge of the Japanese house, and it is still possible to suitably detect the roof edge. Is not proposed. The roof edge refers to an edge formed between roof surfaces of a roof having a plurality of roof surfaces facing different directions. For example, in a roof such as a gable provided with purlins in the column direction and from which rainwater flows in opposite directions, edge lines corresponding to the purses are included. In the case of a dormitory, the edge of the boundary formed between the gable roof and the flat roof is included.
【0006】本発明は上記問題点を解決するためになさ
れたものであって、その目的は、切妻等のようなルーフ
エッジラインを高精度に検出できる3次元都市モデル生
成装置及びその方法を提供することにある。
The present invention has been made to solve the above problems, and an object thereof is to provide a three-dimensional city model generation apparatus and method capable of detecting a roof edge line such as a gable with high accuracy. To do.
【0007】[0007]
【課題を解決するための手段】上記問題点を解決するた
め、請求項1記載の発明は、上空から地面を撮像した都
市空間の表面形状の3次元座標値を備えたレンジデータ
に含まれる画像データに基づいて、建物と地面との境界
である外形エッジを検出するエッジ検出工程と、前記外
形エッジをベクトル化するベクトル化工程と、前記画像
データに基づき建物の屋根の平面に領域分割する領域分
割工程と、領域分割され、互いに隣接した領域に対して
それぞれ平面を設定し、設定した平面と隣接する領域の
平面とを当てはめる平面当てはめ工程と、前記平面当て
はめ工程により、隣接した領域間に形成されたルーフエ
ッジを検出するルーフエッジ検出工程と、前記ベクトル
化工程で得られた外形エッジと、前記ルーフエッジ検出
工程で検出されたルーフエッジに基づいて、ポリゴン化
するポリゴン化工程と、ポリゴン化工程にてポリゴン化
されたデータに基づいて3次元モデルを形成するモデル
形成工程とを備えた3次元都市モデル生成方法を要旨と
している。
In order to solve the above problems, the invention according to claim 1 is an image included in range data including three-dimensional coordinate values of the surface shape of an urban space obtained by imaging the ground from the sky. An edge detection step of detecting an outer edge that is a boundary between the building and the ground based on the data, a vectorization step of vectorizing the outer edge, and an area divided into planes of the roof of the building based on the image data. Formed between adjacent regions by a dividing step, a plane fitting step of setting a plane for each of the areas that are divided and adjacent to each other, and fitting the set plane and the plane of the adjacent area, and the plane fitting step. Roof edge detecting step for detecting the roof edge formed, outer edge obtained in the vectorizing step, and roof edge detecting step detected in the roof edge detecting step Based on Fuejji, and the polygon step of polygon reduction, the gist 3D city model generation method and a model forming step of forming a three-dimensional model based on the polygon of data by the polygon process.
【0008】請求項2の発明は、請求項1において、前
記レンジデータを修正スーサン(SUSAN)フィルタにて
処理する平滑化工程を備え、同平滑化工程の後に、前記
エッジ検出工程及び領域分割工程を行うことを特徴とす
る。
According to a second aspect of the present invention, in the first aspect, there is provided a smoothing step of processing the range data with a modified Susan filter, and after the smoothing step, the edge detecting step and the area dividing step. It is characterized by performing.
【0009】請求項3に記載の発明は、請求項1又は請
求項2において、前記エッジ検出工程は、ラプラシアン
−ガウシアンフィルタとソーベルフィルタを通して得た
エッジ強度値を用いて建物境界候補を抽出し、その候補
の中から建物形状の拘束条件を用いて非建物境界の除去
を行うものであることを特徴とする。
According to a third aspect of the present invention, in the first or second aspect, the edge detecting step extracts a building boundary candidate using an edge strength value obtained through a Laplacian-Gaussian filter and a Sobel filter. , The non-building boundary is removed from the candidates by using the constraint condition of the building shape.
【0010】前記建物境界候補は、エッジ形状が対象と
なる。ここで、建物形状の拘束条件は、下記のa〜dの
条件である。 a. すべての建物は制限のあるサイズを持っているこ
とから、エッジが所定の閾値の大きさを有すること。
The candidate for the building boundary is an edge shape. Here, the constraint conditions of the building shape are the following conditions a to d. a. Edges have a certain threshold size, as all buildings have a limited size.
【0011】b. エッジが描くラインが閉じているこ
と。 エッジが描くラインが閉じている場合、建物形状のエッ
ジとする。これは、建物を平面視した場合、常に建物形
状のエッジのラインは閉じているからである。例えば、
長方形、正方形等のエッジがある。
B. The line drawn by the edge is closed. If the line drawn by the edge is closed, the edge is the building shape. This is because the line of the edge of the building shape is always closed when the building is viewed in plan. For example,
There are edges such as rectangles and squares.
【0012】c. 一定の対称性を備えていること。 d. 円形エッジでないこと。 これは円形エッジを除去する(木を建物と誤認識するこ
とを回避する)ことを意味する。円形エッジは、下記の
式を満足するものである。
C. Have a certain symmetry. d. Not a circular edge. This means removing circular edges (avoiding false recognition of trees as buildings). The circular edge satisfies the following formula.
【0013】円形c=p2/A ただし、pは、エッジ長さ。Aはエッジによってカバーさ
れたエリアの面積である。例えば、完全な円では、c=4
となり、正方形ではc=16となる。
Circle c = p 2 / A where p is the edge length. A is the area covered by the edge. For example, in a perfect circle, c = 4
And c = 16 for a square.
【0014】エッジの円形が4に非常に接近している場
合、その場合、エッジは非建物のエッジとして分類す
る。この処理は、円形エッジ或いは建物でないエッジ
(非建物のエッジ)を削除するのに好適である。
If the circle of edges is very close to 4, then the edge is classified as a non-building edge. This process is suitable for deleting circular edges or non-building edges (non-building edges).
【0015】請求項4の発明は、上空から地面を撮像し
た都市空間の表面形状の3次元座標値を備えたレンジデ
ータに含まれる画像データに基づいて、建物と地面との
境界である外形エッジを検出するエッジ検出手段と、前
記外形エッジをベクトル化するベクトル化手段と、前記
画像データに基づき建物の屋根の平面に領域分割する領
域分割手段と、領域分割され、互いに隣接した領域に対
してそれぞれ平面を設定し、設定した平面と隣接する領
域の平面とを当てはめる平面当てはめ手段と、前記平面
当てはめ手段により、隣接した領域間に形成されたルー
フエッジを検出するルーフエッジ検出手段と、前記ベク
トル化手段で得られた外形エッジと、前記ルーフエッジ
検出手段で検出されたルーフエッジに基づいて、ポリゴ
ン化するポリゴン化手段と、ポリゴン化手段にてポリゴ
ン化されたデータに基づいて3次元モデルを形成するモ
デル形成手段とを備えた3次元都市モデル生成装置を要
旨とするものである。
According to a fourth aspect of the present invention, based on the image data included in the range data including the three-dimensional coordinate values of the surface shape of the city space obtained by imaging the ground from the sky, the contour edge which is the boundary between the building and the ground. Edge detecting means for detecting, the vectorizing means for vectorizing the outer edge, the area dividing means for dividing the area into the plane of the roof of the building on the basis of the image data, and the area-divided areas adjacent to each other. Plane fitting means for setting respective planes and fitting the set planes to the planes of the adjacent areas; roof edge detecting means for detecting the roof edge formed between the adjacent areas by the plane fitting means; and the vector A polygon to be polygonized based on the outer edge obtained by the converting means and the roof edge detected by the roof edge detecting means. Means and is for the gist 3D city model generator with a model forming means for forming a three-dimensional model based on the polygon of data by the polygon means.
【0016】請求項5の発明は、請求項4において、前
記航空レンジデータを修正スーサン(SUSAN)フィルタ
にて処理する平滑化手段を備え、前記エッジ検出手段及
び領域分割手段は、前記平滑化手段にて平滑化されたデ
ータを元にそれぞれの処理を行うことを特徴とする。
According to a fifth aspect of the present invention, in the fourth aspect, there is provided smoothing means for processing the aviation range data with a modified Susan filter, and the edge detecting means and the area dividing means are the smoothing means. Each processing is performed based on the data smoothed by.
【0017】請求項6の発明は、請求項4又は請求項5
において、前記エッジ検出手段は、ラプラシアン−ガウ
シアンフィルタとソーベルフィルタを通して得たエッジ
強度値を用いて建物境界候補を抽出し、その候補の中か
ら、建物形状の拘束条件を用いて非建物境界の除去を行
うものであることを特徴とする。
The invention of claim 6 is the invention according to claim 4 or claim 5.
In the above, the edge detecting means extracts a building boundary candidate using the edge intensity value obtained through the Laplacian-Gaussian filter and the Sobel filter, and from among the candidates, a non-building boundary of the non-building boundary using the constraint condition of the building shape. It is characterized by being removed.
【0018】[0018]
【発明の実施の形態】以下、本発明を具体化した一実施
の形態を図1〜図14を参照して説明する。図1は3次
元都市モデル生成装置(以下、モデル生成装置という)
110の概略図を示している。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to FIGS. FIG. 1 shows a three-dimensional city model generation device (hereinafter referred to as a model generation device).
A schematic of 110 is shown.
【0019】モデル生成装置110は、高さ閾値処理部
10、平滑化処理部20、エッジ検出部30、細線化部
40、ベクトル化部50を備えている。又、モデル生成
装置110は、領域分割部60、平面当てはめ部70、
ルーフエッジ検出部80、ポリゴン化部90及び3次元
モデル生成部100を備えている。モデル生成装置11
0は、具体的には、コンピュータにて構成されている。
The model generation device 110 includes a height threshold processing unit 10, a smoothing processing unit 20, an edge detection unit 30, a thinning unit 40, and a vectorization unit 50. In addition, the model generation device 110 includes an area dividing unit 60, a plane fitting unit 70,
A roof edge detection unit 80, a polygonization unit 90, and a three-dimensional model generation unit 100 are provided. Model generation device 11
0 is specifically configured by a computer.
【0020】高さ閾値処理部10は高さ閾値処理手段に
相当し、平滑化処理部20は平滑化処理手段に相当す
る。又、エッジ検出部30はエッジ検出手段に相当し、
細線化部40は細線化手段に相当する。ベクトル化部5
0はベクトル化手段に相当し、領域分割部60は領域分
割手段に相当する。
The height threshold processing unit 10 corresponds to height threshold processing means, and the smoothing processing unit 20 corresponds to smoothing processing means. Further, the edge detection unit 30 corresponds to edge detection means,
The thinning unit 40 corresponds to thinning means. Vectorization part 5
0 corresponds to vectorization means, and the area division unit 60 corresponds to area division means.
【0021】さらに、平面当てはめ部70は平面当ては
め手段に相当し、ルーフエッジ検出部80はルーフエッ
ジ検出手段に相当する。ポリゴン化部90はポリゴン化
手段に相当し、3次元モデル生成部100はモデル形成
手段に相当する。
Further, the plane fitting section 70 corresponds to the plane fitting means, and the roof edge detecting section 80 corresponds to the roof edge detecting means. The polygonization unit 90 corresponds to polygonization means, and the three-dimensional model generation unit 100 corresponds to model formation means.
【0022】前記モデル生成装置110のコンピュータ
は図示しないROM及びRAMを備え、前記ROMに3
次元都市モデル生成プログラムを格納している。又、R
AMは前記プログラムを実行するときの作業用メモリと
なる。又、モデル生成装置110は図示しない外部記憶
装置を備えており、各種データが読み出し、又は書き込
み可能になっている。又、モデル生成装置110は外部
からの種々のデータを入力可能な図示しない入力装置を
備え、前記高さ閾値処理部10に入力可能である。又、
3次元モデル生成部100は図示しない表示装置に対し
て3次元モデルデータを出力し、同表示装置にて、3次
元モデルの画像表示が可能にされている。
The computer of the model generation device 110 is provided with a ROM and a RAM (not shown), and the ROM is provided with
Stores a dimensional city model generator. Also, R
The AM serves as a working memory when executing the program. Further, the model generation device 110 includes an external storage device (not shown), and various data can be read or written. Further, the model generation device 110 includes an input device (not shown) capable of inputting various data from the outside, and can input the data to the height threshold processing unit 10. or,
The three-dimensional model generation unit 100 outputs three-dimensional model data to a display device (not shown), and the display device can display an image of the three-dimensional model.
【0023】次に、図1〜図14を参照して、本実施形
態のモデル生成装置110の動作を説明する。 (高さ閾値処理部10)高さ閾値処理部10では、図示
しない入力装置から、レンジデータALSを入力する。
Next, the operation of the model generation device 110 of this embodiment will be described with reference to FIGS. (Height Threshold Processing Unit 10) The height threshold processing unit 10 inputs range data ALS from an input device (not shown).
【0024】レンジデータALSは、航空機に搭載した
レーザスキャナにて地上に存在する建物等からなる都市
空間を撮像して得られたものである。この撮像されて得
られた画像データ(濃淡画像データ)の各画素には、撮
像された物体表面の3次元座標値を有するデータが含ま
れている。レーザスキャナで撮像された画像データは、
レーザスキャナを原点とした視点座標系であるため、高
さ閾値処理部10では、公知の方法により、視点座標系
から、グローバル座標系(x1,y1,z1)に座標変
換する。そして、高さ閾値処理部10では、このグロー
バル座標系(x1,y1,z1)に変換された、画像デ
ータ中、所定の高さ閾値以上のものを建物候補として区
分し、それ以外のものを地面として区分する。
The range data ALS is obtained by imaging a city space consisting of buildings and the like existing on the ground with a laser scanner mounted on an aircraft. Each pixel of the image data (grayscale image data) obtained by this image pickup includes data having a three-dimensional coordinate value of the imaged object surface. The image data captured by the laser scanner is
Since it is the viewpoint coordinate system with the laser scanner as the origin, the height threshold processing unit 10 performs coordinate conversion from the viewpoint coordinate system to the global coordinate system (x1, y1, z1) by a known method. Then, in the height threshold processing unit 10, in the image data converted into the global coordinate system (x1, y1, z1), those having a predetermined height threshold or more are classified as building candidates, and the others are classified. Classify as the ground.
【0025】高さ閾値処理部10で処理された画像デー
タは、平滑化処理部20に入力される。 (平滑化処理部20)平滑化処理部20では、入力され
た画像データを修正スーサン(SUSAN)フィルタによっ
て、ノイズ除去と平滑化を行う。
The image data processed by the height threshold processing unit 10 is input to the smoothing processing unit 20. (Smoothing processing unit 20) The smoothing processing unit 20 performs noise removal and smoothing on the input image data by a modified Susan (SUSAN) filter.
【0026】ここで、スーサン(SUSAN)フィルタと修
正スーサン(SUSAN)フィルタについて説明する。スー
サン(SUSAN:Smoothing over Univalue Segment A
ssimilating)フィルタは、平滑化フィルタの一種であ
る。図3に示す、3×3画素の大きさのフィルタで説明
する。同図では画像中の注目画素(以下、注目点とい
う)をN0とし、その周囲の8個の画素(なお、注目点
に隣接する画素を近傍といい、この場合、8近傍とい
う)をN1〜N8としている。スーサン(SUSAN)フィ
ルタでは、8近傍の各点の重みは、その点から注目点ま
での距離のガウシアン(Gaussian)関数(図4参照)
と、各点の値と注目点の値との差Hとの差のガウシアン
(Gaussian)関数(図5参照)とを掛け合わせたもので
ある。
Now, the Susan (SUSAN) filter and the modified Susan (SUSAN) filter will be described. SUSAN: Smoothing over Univalue Segment A
The ssimilating filter is a kind of smoothing filter. A filter having a size of 3 × 3 pixels shown in FIG. 3 will be described. In the figure, a pixel of interest (hereinafter, referred to as a point of interest) in the image is designated as N0, and eight surrounding pixels (pixels adjacent to the point of interest are referred to as neighborhoods, in this case, 8 neighborhoods) are designated as N1 It is set to N8. In the SUSAN filter, the weight of each point near 8 is the Gaussian function of the distance from that point to the point of interest (see Fig. 4).
And the difference H between the value of each point and the value of the point of interest are multiplied by a Gaussian function (see FIG. 5).
【0027】スーサン(SUSAN)フィルタは下記式
(1)で表される。
The SUSAN filter is represented by the following equation (1).
【0028】[0028]
【数1】 …(1) Sはフィルタのサイズを決める値である。すなわち、フ
ィルタのサイズは、2S+1である。Tはスーサン(SU
SAN)フィルタで定義されている閾値である。 σは標準偏差である このように、スーサン(SUSAN)フィルタは明るさと空
間ドメインのシグマフィルタと空間ドメインガウシアン
(Gaussian)フィルタを組合わせたようなものになって
いる。
[Equation 1] (1) S is a value that determines the size of the filter. That is, the size of the filter is 2S + 1. T is Susan (SU
This is the threshold defined by the SAN) filter. σ is the standard deviation. Thus, the SUSAN filter is like a combination of brightness and spatial domain sigma filters and spatial domain Gaussian filters.
【0029】一般的な平均フィルタやガウシアン(Gaus
sian)平滑化フィルタでは、注目点の近傍に仲間外れの
値を持つ点が存在した場合、平滑結果は、その外れ値に
大きく引きずられる。スーサン(SUSAN)フィルタの特
徴は、注目点の値とあまり違う点においては、その重み
を小さくし、その影響を軽減する効果があることであ
る。
General average filter and Gaussian (Gaus
sian) smoothing filter, if there is a point with outliers in the vicinity of the point of interest, the smoothing result is greatly dragged to that outlier. The characteristic of the Susan filter is that it has the effect of reducing its weight and reducing its effect at points that are very different from the value of the point of interest.
【0030】なお、ガウシアン(Gaussian)平滑化フィ
ルタは、各点の重みをその点から注目点までの距離のガ
ウシアン(Gaussian)関数にしたものである。しかし、
スーサン(SUSAN)フィルタでは、注目点自身が仲間外
れの値を持った場合、すなわち、注目点がスパイク性ノ
イズの場合、全く効果がない。
The Gaussian smoothing filter uses the weight of each point as a Gaussian function of the distance from the point to the point of interest. But,
The Susan filter has no effect when the point of interest itself has an outlier value, that is, when the point of interest is spiked noise.
【0031】レンジデータALSは、レーザレーダデー
タであり、前記のようなスパイク性ノイズ、すなわち、
スペックル(小さな斑点状の)なノイズを持っている。
そこで、平滑化処理部20では、修正スーサン(SUSA
N)フィルタを使用している。
The range data ALS is laser radar data, and has spike noise as described above, that is,
Has speckle (small speckled) noise.
Therefore, in the smoothing processing unit 20, the modified Susan (SUSA
N) You are using a filter.
【0032】修正スーサン(SUSAN)フィルタでは、各
点の重みをその点から注目点までの距離のガウシアン
(Gaussian)関数と、各点の値と注目点の近傍点の値の
中間値(メディアン)との差のガウシアン(Gaussian)
関数を掛け合わせたものにしている(図6(b)参
照)。
In the modified Susan (SUSAN) filter, the weight of each point is a Gaussian function of the distance from that point to the point of interest, and the intermediate value (median) between the value of each point and the value of the point near the point of interest. Gaussian difference
The function is multiplied (see FIG. 6B).
【0033】修正スーサン(SUSAN)フィルタは、下記
式(2)で表される。
The modified Susan filter is expressed by the following equation (2).
【0034】[0034]
【数2】 …(2) ここで、f(i,j)は原画像でg(i,j)は目的画
像である。
[Equation 2] (2) where f (i, j) is the original image and g (i, j) is the target image.
【0035】Sはフィルタのサイズを決める値である。
すなわち、フィルタのサイズは、2S+1である。Tは
オリジナルスーサン(SUSAN)フィルタで定義されてい
る閾値である。σは標準偏差である。
S is a value that determines the size of the filter.
That is, the size of the filter is 2S + 1. T is a threshold defined by the original Susan filter. σ is a standard deviation.
【0036】fm(i0,j0)は下記式で表すf
(i0,j0)の近傍のメディアン(中央値)である。 fm(i0,j0)=median{f(i0+k,j0+l),k=−S……S;l=−S… …S} …(3) 修正スーサン(SUSAN)フィルタでは、もっと平滑化効
果を得るために、元のスーサン(SUSAN)フィルタに係
る式中のf(i0,j0)をfm(i0,j0)に変えたも
のである。
Fm (i 0 , j 0 ) is represented by the following formula f
It is the median (median) in the vicinity of (i 0 , j 0 ). fm (i 0, j 0) = median {f (i 0 + k, j 0 + l), k = -S ...... S; l = -S ... ... S} ... (3) fixes Susan (SUSAN) filter Then, in order to obtain a more smoothing effect, f (i 0 , j 0 ) in the formula relating to the original Susan filter is changed to fm (i 0 , j 0 ).
【0037】平滑化処理部20で処理された画像データ
は、エッジ検出部30及び領域分割部60に入力され
る。 (エッジ検出部30)エッジ検出部30では、入力され
た画像データを基に外形エッジとしての建物エッジ(境
界エッジともいう)の検出を行う。ここで、建物エッジ
はステップエッジである。ステップエッジとは、建物は
地面と直交する側壁(壁面)を有するため、この側壁を
上空から見た場合に、エッジとして現れる部分である。
The image data processed by the smoothing processing section 20 is input to the edge detecting section 30 and the area dividing section 60. (Edge Detection Unit 30) The edge detection unit 30 detects a building edge (also referred to as a boundary edge) as an outer edge based on the input image data. Here, the building edge is a step edge. The step edge is a portion that appears as an edge when the building has a side wall (wall surface) orthogonal to the ground, when the side wall is viewed from above.
【0038】本実施形態のエッジ検出処理では、ラプラ
シアン−ガウシアン(Laplacian−Gaussian)フィルタ
を使用している。ラプラシアン−ガウシアンフィルタ
(以下、LoGフィルタという)は、画像の中にラプラ
シアン(Laplacian)値がゼロになる場所(ゼロクロス
点)、すなわち、Laplacianの符号が変わる点を検出す
る。
In the edge detection processing of this embodiment, a Laplacian-Gaussian filter is used. The Laplacian-Gaussian filter (hereinafter referred to as LoG filter) detects a place (zero cross point) where the Laplacian value becomes zero in the image, that is, a point where the sign of Laplacian changes.
【0039】このような点は画像の「エッジ」のとこ
ろ、つまり、画像のインテンシティ(輝度)が激しく変
化する場所によく現れる。LoGフィルタは、画像の空
間的な2次微分を計算する。このフィルタでは、一定の
インテンシティを持つエリア(すなわち、インテンシテ
ィの勾配が0であるエリア)では、LoGフィルタの出
力はゼロである。
Such points often appear at the "edges" of the image, that is, where the image intensity (luminance) changes drastically. The LoG filter calculates the spatial second derivative of the image. In this filter, the output of the LoG filter is zero in an area having a certain intensity (that is, an area where the intensity gradient is 0).
【0040】しかし、インテンシティが変化する場所に
おいて、暗いサイドでは、LoGフィルタの出力は正の
値で、明るいサイドではその出力は負の値になる。この
意味では、異なるインテンシティを持つ2つの一様領域
の間に存在するある程度のシャープなエッジにおいて、
LoGフィルタの出力は以下のようになる。
However, in the place where the intensity changes, the output of the LoG filter has a positive value on the dark side and the output has a negative value on the bright side. In this sense, at some sharp edges that exist between two uniform areas with different intensities,
The output of the LoG filter is as follows.
【0041】 1) エッジに遠いところでは、0 2) エッジを挟む一方側の一辺では正の値 3) エッジを挟む他方側の一辺では負の値 4) エッジ上、すなわち、エッジを挟む両辺の間では
0 ガウシアン(Gaussian)分布が中心が0で、標準分散が
σであるLoGフィルタでは、以下のような式で表され
る。
1) At a place far from the edge, 0 2) Positive value on one side sandwiching the edge 3) Negative value on one side sandwiching the edge 4) On the edge, that is, on both sides sandwiching the edge In a LoG filter having a Gaussian distribution centered between 0 and a standard variance of σ, a LoG filter is expressed by the following equation.
【0042】[0042]
【数3】 …(4) 図7(a)は、長さが200ピクセル(画素)で、1つ
のステップエッジを含む1次元画像を示す。図7(b)
は図7(a)の画像を基にしたσ=3ピクセル(画素)
の1次元LoGフィルタの出力を示している。
[Equation 3] (4) FIG. 7A shows a one-dimensional image having a length of 200 pixels and including one step edge. Figure 7 (b)
Is σ = 3 pixels (pixels) based on the image of FIG.
The output of the one-dimensional LoG filter is shown.
【0043】上記のように式(4)で示すLoGフィル
タを使用して、ラプラシアン画像を作成する。そして、
ラプラシアン画像の注目画素(注目点)が負で、かつ、
その4近傍の画素のうち、少なくとも1つの画素の画素
値が正であるか否かを確認する。4近傍の画素のうち少
なくとも1つの画素値が正である場合には、ラプラシア
ン画像に対して、ソーベルフィルタにてエッジ強度(エ
ッジ強度値)を算出する。
A Laplacian image is created by using the LoG filter represented by the equation (4) as described above. And
The pixel of interest (attention point) of the Laplacian image is negative, and
It is confirmed whether or not the pixel value of at least one of the four neighboring pixels is positive. When at least one of the four neighboring pixels has a positive pixel value, the Sobel filter calculates the edge strength (edge strength value) for the Laplacian image.
【0044】ソーベルフィルタは、図8(a)に示すx
方向のマスクオペレータを備え、注目点を中心とした9
つの画素値に対する係数行列の各係数値が対応するそれ
ぞれの画素値に対して乗算され、その結果が合計され
る。
The Sobel filter is represented by x shown in FIG.
With a mask operator in the direction, 9
Each coefficient value of the coefficient matrix for one pixel value is multiplied for each corresponding pixel value and the results are summed.
【0045】このときの合計値をMxとする。又、ソー
ベルフィルタは、図8(b)に示すy方向のマスクオペ
レータを備え、注目点を中心とした9つの画素値に対す
る係数行列の各係数値が対応するそれぞれの画素値に対
して乗算され、その結果が合計される。
The total value at this time is Mx. Further, the Sobel filter includes a mask operator in the y direction shown in FIG. 8B, and multiplies each pixel value corresponding to each coefficient value of the coefficient matrix for nine pixel values centered on the target point. And the results are summed.
【0046】このときの合計値をMyとする。上記のそ
れぞれの合計値Mx,Myから、エッジ強度値Emが式
(5)により、算出される。
Let the total value at this time be My. The edge strength value Em is calculated by the equation (5) from the respective total values Mx and My.
【0047】[0047]
【数4】 Em= …(5) このエッジ強度値Emが所定の閾値以上のときは、次式
(6)によりエッジ方向Eθを計算して、エッジ方向に
係る画像に格納する。このようにして、各画素につい
て、処理を実行する。
[Equation 4] Em = ... (5) When this edge strength value Em is equal to or greater than a predetermined threshold value, the edge direction E? In this way, the process is executed for each pixel.
【0048】[0048]
【数5】 Eθ …(6) このようにして、エッジ検出部30では、エッジ検出方
向画像を作成する。
[Equation 5] Eθ (6) In this way, the edge detection unit 30 creates an edge detection direction image.
【0049】次に、エッジ検出部30では、前記エッジ
検出方向画像のエッジ分類を行う。分類は、下記のa〜
dの拘束条件を観点として行う。 a. すべての建物は制限のあるサイズを持っているこ
とから、エッジが所定の閾値の大きさを有すること。
Next, the edge detection unit 30 classifies the edges of the edge detection direction image. The classification is from a to
The constraint condition of d is used as a viewpoint. a. Edges have a certain threshold size, as all buildings have a limited size.
【0050】b. エッジが描くラインが閉じているこ
と。 エッジが描くラインが閉じている場合、建物形状のエッ
ジとする。これは、建物を平面視した場合、常に建物形
状のエッジのラインは閉じているからである。例えば、
長方形、正方形等のエッジがある。
B. The line drawn by the edge is closed. If the line drawn by the edge is closed, the edge is the building shape. This is because the line of the edge of the building shape is always closed when the building is viewed in plan. For example,
There are edges such as rectangles and squares.
【0051】c. 一定の対称性を備えていること。 d. 円形エッジでないこと。 これは円形エッジを除去する(木を建物と誤認識するこ
とを回避する)ことを意味する。円形エッジは、下記の
式を満足するものである。
C. Have a certain symmetry. d. Not a circular edge. This means removing circular edges (avoiding false recognition of trees as buildings). The circular edge satisfies the following formula.
【0052】円形c=p2/A …(7) ただし、pは、エッジ長さ。Aはエッジによってカバーさ
れたエリアの面積である。例えば、完全な円では、c=4
となり、正方形ではc=16となる。
Circle c = p 2 / A (7) where p is the edge length. A is the area covered by the edge. For example, in a perfect circle, c = 4
And c = 16 for a square.
【0053】エッジの円形が4に非常に接近している場
合、その場合、エッジは非建物のエッジとして分類す
る。以上の条件を満足するもののエッジ検出方向画像デ
ータはエッジ検出部30から次の細線化部40に入力さ
れる。
If the edge circle is very close to 4, then the edge is classified as a non-building edge. The edge detection direction image data that satisfies the above conditions is input from the edge detection unit 30 to the next thinning unit 40.
【0054】(細線化部40)細線化部40では、前記
エッジ検出方向画像データを圧縮するとともに、後のベ
クトル化の効率処理のためにエッジ検出方向画像の細線
化を公知の方法により行う。
(Thinning unit 40) In the thinning unit 40, the edge detection direction image data is compressed and the edge detection direction image is thinned by a known method for efficient vectorization processing later.
【0055】(ベクトル化部50)ベクトル化部50で
は、細線化部40で細線化された各エッジの画像データ
に基づいて、そのエッジ(境界エッジ)の端点、長さ及
び向きをベクトル化する。 (領域分割部60)又、領域分割部60では、平滑化処
理部20から入力した画像データを領域分割する。
(Vectorization unit 50) The vectorization unit 50 vectorizes the end points, lengths and directions of the edges (boundary edges) based on the image data of each edge thinned by the thinning unit 40. . (Region Dividing Unit 60) Further, the region dividing unit 60 divides the image data input from the smoothing processing unit 20 into regions.
【0056】この領域分割は、下記の公知文献に記載さ
れた方法で行っている。 文献名:Hoover,A.,Jean-Baptiste,G.,Jiang,X.,Flynn,
P.J.,Bunke,H.,Goldgof,D.B.,Boweyer,K.,Fggert,D.W.,
Fitzgibbon,A., and Fisher,R.B.,1996. An experiment
al comparison of range image segmentation algorit
hms. IEEE Trasactions on Pattern Analysis and Mach
ine Intelligence, Vol.18,No.7,673-689 この領域分割手法については公知であるので、簡単に説
明する。
This area division is performed by the method described in the following publicly known documents. Reference: Hoover, A., Jean-Baptiste, G., Jiang, X., Flynn,
PJ, Bunke, H., Goldgof, DB, Boweyer, K., Fggert, DW,
Fitzgibbon, A., and Fisher, RB, 1996. An experiment
al comparison of range image segmentation algorit
hms. IEEE Trasactions on Pattern Analysis and Mach
ine Intelligence, Vol.18, No.7, 673-689 This area segmentation method is well known and will be briefly described.
【0057】この方法は、各画素の平面の適合を計算
し、次に、画素が類似した平面方程式を有する領域を拡
張することにより行われる。すなわち、この方法は、基
となる領域の法線ベクトルと注目点の法線ベクトルを比
較し、ある条件に当てはまった場合は、注目点も基とな
る領域に吸収されるようにする。その後、他の点を注目
点として同じように基となる領域と比較する。
This method works by computing the plane fit of each pixel and then expanding the region where the pixels have similar plane equations. That is, this method compares the normal vector of the base region with the normal vector of the point of interest, and if a certain condition is satisfied, the point of interest is also absorbed in the base region. Then, other points are used as the points of interest and similarly compared with the base region.
【0058】この場合のある条件とは、下記の4条件で
ある。 1.注目点と上下左右の点(4近傍)が隣接しているこ
と 2.注目点の法線と基となる領域の法線との角度差が所
定の閾値内であること 3.注目点を含む平面と、基となる領域の平面との3次
元空間における垂直距離が所定の閾値内であること 4.注目点と上下左右の点(4近傍)との3次元空間に
おける距離が所定の閾値内であること 上記条件を全て満たす場合は、領域分割部60では基と
なる領域と注目点とが同じであるとして、同じ表面であ
るピクセル(画素)に対して同じラベルを付与する、す
なわち、領域を拡張する。
The certain conditions in this case are the following four conditions. 1. 1. The point of interest and the upper, lower, left, and right points (near 4) are adjacent to each other. 2. The angle difference between the normal line of the point of interest and the normal line of the base area is within a predetermined threshold value. 3. The vertical distance in the three-dimensional space between the plane including the point of interest and the plane of the base region is within a predetermined threshold. The distance in the three-dimensional space between the point of interest and the upper, lower, left, and right points (near four) is within a predetermined threshold. When all the above conditions are satisfied, the area dividing unit 60 determines that the original area is the same as the point of interest. If so, the same label is given to the pixels having the same surface, that is, the area is expanded.
【0059】この領域分割処理は、各画素(ピクセル)
の平面の適合を演算し、次に、画素(ピクセル)が類似
した平面方程式を持っている領域を拡張することを意味
する。
This area division processing is performed for each pixel.
Means to compute the fit of the planes of and then extend the region where the pixels have similar plane equations.
【0060】この領域の拡張(膨張)は、対象となる注
目点が無くなるまで行うが、対象となる注目点がなくな
った際に、ある閾値より領域が小さい場合には、その領
域については、消去し、その閾値を超えた領域のみ残す
ように処理する。
This area is expanded (expanded) until there are no target points of interest, but when the target points of interest disappear, if the area is smaller than a certain threshold value, the area is erased. Then, processing is performed so that only the area exceeding the threshold is left.
【0061】又、1つの基となる領域が終了した場合に
は、次に別の基となる領域に関しても同じ処理を行う。
このようにして、領域分割部60にて領域分割を行う。 (平面当てはめ部70)平面当てはめ部70は、前記領
域分割部60にて領域分割された各領域に対して、平面
を当てはめる処理を行う。
When one base area is completed, the same processing is performed on another base area.
In this way, the area division unit 60 performs area division. (Plane Fitting Unit 70) The plane fitting unit 70 performs a process of fitting a plane to each area divided by the area dividing unit 60.
【0062】領域分割処理は、屋根などの穏やかに傾斜
(変化)している箇所では過分割が生じたり(図9
(a)参照)、或いは不完全分割が生じ(図9(b)参
照)、これらを解消するために平面当てはめ処理が平面
当てはめ部70にて実行される。
In the area division processing, excessive division may occur in a gently sloping (changing) portion such as a roof (see FIG. 9).
(See (a)) or incomplete division occurs (see FIG. 9B), and in order to eliminate these, the plane fitting process is executed by the plane fitting unit 70.
【0063】図9(a)中のα,βは、領域分割で得ら
れるルーフエッジの場合の例を示し、この例では、点線
a,bが真のルーフエッジであることを示している。図
9(b)では、領域分割処理の結果、Z1〜Z3の領域
が互いに隣接していない状態を示している。
In FIG. 9A, α and β indicate an example of a roof edge obtained by area division, and in this example, dotted lines a and b indicate that they are true roof edges. In FIG. 9B, as a result of the area division processing, the areas Z1 to Z3 are not adjacent to each other.
【0064】平面当てはめ部70は、領域分割された各
領域{Ri,i=1……r}について、最小二乗法を使用
して平面方程式を求める。すなわち、各領域に対して、
下記平面方程式 Z=aX+bY+c …(8) を適用する。
The plane fitting unit 70 obtains a plane equation for each of the divided regions {R i , i = 1 ... R} by using the least square method. That is, for each area
The following plane equation Z = aX + bY + c (8) is applied.
【0065】又、領域分割された各領域{Ri,i=1…
…r}に対してジャンプエッジと境界エッジを越えない
ように、繰り返して公知の膨張処理を施す。図9(c)
は、図9(a)の状態から、平面当てはめによって得ら
れたルーフエッジa,bを示している。図9(d)は、
図(b)の状態から平面当てはめによって得られたルー
フエッジγ、δを示している。
Further, each of the divided regions {R i , i = 1 ...
.. r} is repeatedly subjected to known expansion processing so as not to exceed the jump edge and the boundary edge. FIG. 9 (c)
9 shows roof edges a and b obtained by plane fitting from the state of FIG. 9 (a). FIG. 9D shows
The roof edges γ and δ obtained by plane fitting from the state of FIG.
【0066】なお、建物の3つのタイプのエッジには下
記の3つのエッジの種類がある。建物の境界を示す
(a)境界エッジ、(b)表面の不連続を示すジャンプ
エッジ、及び(c)隣接した屋根平面間に形成されるル
ーフエッジである。
There are the following three types of edges in the three types of edges of a building. (A) Border edge indicating a building boundary, (b) jump edge indicating a surface discontinuity, and (c) a roof edge formed between adjacent roof planes.
【0067】(ルーフエッジ検出部80)ルーフエッジ
検出部80では、前記膨張処理で突き当たる領域、そし
て、領域の接続関係{(Ri,Rj)}を検出する。
(Roof Edge Detecting Section 80) The roof edge detecting section 80 detects the area abutted by the expansion processing and the connection relation {(R i , R j )} of the areas.
【0068】ここで、ルーフエッジ検出部80での前記
接続関係の検出処理について説明する。領域RiとRj
平面方程式をそれぞれ a1X+b1Y+c1Z+d1=0 …(9) a2X+b2Y+c2Z+d2=0 …(10) とする。
Now, the process of detecting the connection relationship in the roof edge detecting section 80 will be described. The plane equations of the regions R i and R j are a 1 X + b 1 Y + c 1 Z + d 1 = 0 (9) a 2 X + b 2 Y + c 2 Z + d 2 = 0 (10).
【0069】そして、隣接する2つの領域のルーフエッ
ジ(Ri,Rj)の画像における方程式は、以下のように
iとRjの方程式から直接に計算する。 (a12−c12)X+(b12−c12)Y+(d12−c12)=0 …(11) そして、画像投影中心(i0,j0)とx,y軸のスケー
ル係数xscl、ysclを用いて、この直線方程式(11)
を画像格子点にマッピングする。
Then, the equation in the image of the roof edges (R i , R j ) of the two adjacent regions is directly calculated from the equations of R i and R j as follows. (A 1 c 2 −c 1 a 2 ) X + (b 1 c 2 −c 1 b 2 ) Y + (d 1 c 2 −c 1 d 2 ) = 0 (11) Then, the image projection center (i 0 , j 0 ) and the scale factors x scl and y scl of the x and y axes, this linear equation (11)
To the image grid points.
【0070】(i0,j0)とx,y軸のスケール係数x
scl、ysclは各格子点のレンジデータの3次元点を使っ
て推定することができる。上記直線マッピングは以下の
方程式で計算することにより、画像座標系(i、j)に写像
する。
(I 0 , j 0 ) and the scale factor x on the x and y axes
scl and y scl can be estimated using the three-dimensional points of the range data of each grid point. The above linear mapping is mapped to the image coordinate system (i, j) by calculating with the following equation.
【0071】 j=xsclx +j0 …(12) j=yscly +i0 …(13) (ポリゴン化部90)ポリゴン化部90は、ベクトル化
部50及びルーフエッジ検出部80から入力されたそれ
ぞれの境界エッジ及びルーフエッジから、境界エッジと
ルーフエッジの交点及び境界エッジ間の交点を求める演
算を行う。
J = x scl x + j 0 (12) j = y scl y + i 0 (13) ( Polygonization unit 90) The polygonization unit 90 is input from the vectorization unit 50 and the roof edge detection unit 80. From the respective boundary edges and roof edges, calculations are performed to find the intersections of the boundary edges and the roof edges and the intersections between the boundary edges.
【0072】この演算例を以下に説明する。例えば図1
0に示すように、境界エッジLR1〜LR4に関して、ハフ
変換を使用して線分化し、2次元の直線方程式を求め
る。又、屋根部分の2つの領域に対して個々の平面方程
式を求めておき、これから平面と平面の交線であるルー
フエッジLbを含む直線方程式(y=ax+b)を求め
る。なお、a,bはパラメータである。なお、それぞれ
のエッジは事前にベクトル化されている。
An example of this calculation will be described below. Figure 1
As shown in 0, the boundary edges L R1 to L R4 are divided into lines using the Hough transform to obtain a two-dimensional linear equation. Further, individual plane equations are obtained for the two regions of the roof portion, and a linear equation (y = ax + b) including the roof edge L b which is the line of intersection between the planes is obtained from this. Note that a and b are parameters. In addition, each edge is vectorized in advance.
【0073】図11において、ルーフエッジを含む直線
bと境界エッジを含む直線LR2とLR4間のP0,P1
交点は、直線Lbの直線方程式と、直線LR2とLR4のそ
れぞれの直線方程式から求める。
In FIG. 11, the intersection of P 0 and P 1 between the straight line L b including the roof edge and the straight lines L R2 and L R4 including the boundary edge is the straight line equation of the straight line L b and the straight lines L R2 and L R4. From each linear equation of.
【0074】なお、直線Lbと直線LR1が平行でない場
合、若しくは直線Lbと直線LR3が平行でない場合、Lb
−LR1間、又は、Lb−LR3間の交点も得られる。しか
し、これらは、境界エッジ近傍にはないため、それらを
除外し、境界エッジ近傍にある交点P0,P1のみを抽出
する。
If the straight line L b and the straight line L R1 are not parallel, or if the straight line L b and the straight line L R3 are not parallel, then L b
An intersection between -L R1 or L b -L R3 is also obtained. However, since these are not near the boundary edge, they are excluded and only the intersection points P 0 and P 1 near the boundary edge are extracted.
【0075】又、境界エッジを含む直線LR1〜LR4間の
交点P2〜P5を同様にそれぞれの直線の直線方程式を求
める。上記のように求めた交点P0〜P5に基づいて再
度、各エッジを、ベクトル化する。 (3次元モデル生成部100)上記のように各エッジ間
の交点及びベクトル化されたエッジのデータに基づい
て、3次元モデル生成部100では、3次元モデルを生
成する。
Further, the straight line equations of the respective straight lines L 2 to P 5 between the straight lines L R1 to L R4 including the boundary edges are similarly obtained. Each edge is vectorized again based on the intersection points P 0 to P 5 obtained as described above. (3D Model Generation Unit 100) The 3D model generation unit 100 generates a 3D model based on the intersection points between the edges and the vectorized edge data as described above.
【0076】図12〜図14には、その例を示す。ポリ
ゴン化部90の処理で得られた6つの交点P0〜P5は
2次元上の値である。そこで、画像投影中心(i0
0)とx,y軸のスケール係数xsclとyscl、及び屋
根部分の2つの平面方程式を用いて、この2次元上の値
を3次元値の値に変換する。これにより、屋根部分の3
次元座標値を得る(図12参照)。
12 to 14 show an example thereof. The six intersections P0 to P5 obtained by the processing of the polygonization unit 90 are two-dimensional values. Therefore, the image projection center (i 0 ,
j 0 ), the scale factors x scl and y scl for the x and y axes , and the two plane equations of the roof portion are used to convert these two-dimensional values into three-dimensional values. This makes the roof part 3
Obtain dimensional coordinate values (see FIG. 12).
【0077】次に、境界エッジの交点P2〜P5と、地
面の平面方程式から地面と境界エッジの交点を垂直に結
ぶ直線L0〜L3とを求め、同時に地面との交点G0〜
G3を求める(図13参照)。
Next, the intersections P2 to P5 of the boundary edges and the straight lines L0 to L3 that vertically connect the intersections of the ground and the boundary edges are obtained from the plane equation of the ground, and at the same time the intersections G0 to the ground are obtained.
G3 is obtained (see FIG. 13).
【0078】得られた交点P0〜P5,G0〜G3を基
に、壁を生成し、建物の3次元モデルを生成する(図1
4参照)。このようにして、得られている各境界エッジ
と、ルーフエッジに基づいて建物の3次元モデルを生成
することにより、3次元都市モデルが生成される。この
生成された3次元都市モデルを、3次元モデル生成部1
00から図示しない表示装置に出力することにより、3
次元都市モデルの画像を得ることができる。
A wall is generated based on the obtained intersections P0 to P5 and G0 to G3, and a three-dimensional model of the building is generated (FIG. 1).
4). In this way, a three-dimensional city model is generated by generating a three-dimensional model of the building based on the obtained boundary edges and the roof edge. The three-dimensional model generation unit 1
00 to a display device (not shown)
An image of a dimensional city model can be obtained.
【0079】図2は、前記各部10〜100にて実行処
理されるステップを含むフローチャートである。前記各
部10〜100の処理と対応する各ステップには、前記
各部10〜100に付された符号の頭にそれぞれSを付
加した。従って、各ステップでの処理は、前記各部10
〜100の説明と同じであるので、対応する各部を参照
されたい。
FIG. 2 is a flow chart including the steps executed by the respective units 10 to 100. In the steps corresponding to the processes of the respective units 10 to 100, S is added to the head of the reference numerals assigned to the respective units 10 to 100. Therefore, the processing in each step is performed by
Since the description is the same as that of ˜100, refer to the corresponding parts.
【0080】従って、S10の高さ閾値処理は高さ閾値
処理工程に相当し、S20のノイズ除去と平滑化処理は
平滑化処理工程に相当する。又、S30のエッジ検出は
エッジ検出工程に相当し、S40の細線化は細線化工程
に相当する。
Therefore, the height threshold value processing of S10 corresponds to the height threshold value processing step, and the noise removal and smoothing processing of S20 corresponds to the smoothing processing step. The edge detection in S30 corresponds to the edge detection step, and the thinning in S40 corresponds to the thinning step.
【0081】又、S50のベクトル化は、ベクトル化工
程に相当し、S60の領域分割は領域分割工程に相当す
る。さらに、S70の平面当てはめは平面当てはめ工程
に相当し、S80のルーフエッジ検出はルーフエッジ検
出工程に相当する。さらに、S90のポリゴン化はポリ
ゴン化工程に相当し、S100の3次元都市モデル生は
モデル形成工程に相当する。
The vectorization in S50 corresponds to the vectorization step, and the area division in S60 corresponds to the area division step. Further, the plane fitting in S70 corresponds to the plane fitting step, and the roof edge detection in S80 corresponds to the roof edge detecting step. Further, the polygon formation in S90 corresponds to the polygon formation process, and the three-dimensional city model student in S100 corresponds to the model formation process.
【0082】上記実施の形態によれば、下記の効果を有
する。 (1) 本実施形態では、上空から地面を撮像した都市
空間の表面形状の3次元座標値を備えたレンジデータに
含まれる画像データに基づいて、建物と地面との境界で
あるエッジを検出するエッジ検出工程(S30)を備え
ている。さらに、エッジ検出工程(S30)で検出され
たエッジを細線化する細線化工程(S40)と、細線化
された外形エッジをベクトル化するベクトル化工程(S
50)を備えている。又、画像データに基づき建物の屋
根の平面を領域分割する領域分割工程(60)と、領域
分割され、互いに隣接した領域に対してそれぞれ平面を
設定し、設定した平面と隣接する領域の平面とを当ては
める平面当てはめ工程(S70)とを備えている。さら
に、平面当てはめ工程(S70)により、隣接した領域
間に形成されたルーフエッジを検出するルーフエッジ検
出工程(S80)を備えている。又、ベクトル化工程
(S50)で得られた外形エッジと、ルーフエッジ検出
工程(S80)で検出されたルーフエッジに基づいて、
ポリゴン化するポリゴン化工程(S90)を備えてい
る。さらに、ポリゴン化工程(S90)にてポリゴン化
されたデータに基づいて3次元モデルを形成するモデル
形成工程(100)とを備えている。
According to the above embodiment, the following effects are obtained. (1) In the present embodiment, the edge that is the boundary between the building and the ground is detected based on the image data included in the range data that includes the three-dimensional coordinate values of the surface shape of the urban space obtained by imaging the ground from the sky. An edge detection step (S30) is provided. Further, a thinning step (S40) for thinning the edges detected in the edge detecting step (S30) and a vectorization step (S for vectorizing the thinned outer edges).
50). In addition, an area dividing step (60) of dividing the plane of the roof of the building based on the image data, and setting a plane for each of the areas that are divided and adjacent to each other. And a flat surface fitting step (S70). Further, a roof edge detecting step (S80) of detecting a roof edge formed between the adjacent regions by the plane fitting step (S70) is provided. In addition, based on the outer edge obtained in the vectorization step (S50) and the roof edge detected in the roof edge detection step (S80),
A polygon forming step (S90) of forming a polygon is provided. Further, there is a model forming step (100) for forming a three-dimensional model based on the polygonized data in the polygon forming step (S90).
【0083】従来は、複数の航空写真から得られた高さ
データ等を用いて画像処理手法を用いた手法で行ってい
たが、これらは高さ情報が低密度であり、又、精度が悪
い問題があった。
Conventionally, an image processing method is used by using height data obtained from a plurality of aerial photographs, but these methods have a low density of height information and are poor in accuracy. There was a problem.
【0084】それに対して、本実施形態の3次元都市モ
デル生成方法では、切妻等のようなルーフエッジライン
を高精度に検出できる。すなわち、本実施形態では、レ
ンジデータに含まれる画像データは、高密度でかつ高精
度の高さ情報が得られるているため、このレンジデータ
から得られた3次元都市モデルは、高密度なものとな
る。
On the other hand, in the three-dimensional city model generation method of this embodiment, a roof edge line such as a gable can be detected with high accuracy. That is, in this embodiment, since the image data included in the range data has high-density and high-precision height information, the three-dimensional city model obtained from this range data has a high density. Becomes
【0085】図15(a)中、Mはエッジ検出工程(S
30)及び細線化工程(S40)にて得られた境界エッ
ジであり、Nは領域分割工程(S60)、平面当てはめ
部(S70)及びルーフエッジ検出部80にて得られた
ルーフエッジである。
In FIG. 15A, M is an edge detecting step (S
30) and the boundary edges obtained in the thinning step (S40), and N is the roof edge obtained in the area dividing step (S60), the plane fitting section (S70) and the roof edge detecting section 80.
【0086】同図に示すように、これらの工程で得られ
た境界エッジM及びルーフエッジNのデータをポリゴン
化工程(S90)にてポリゴン化することにより、同図
(a)の右方に示すものとなる。そして、ポリゴン化し
たものをモデル生成工程(S100)で3次元モデル生
成すると、図15(b)に示すようになる。
As shown in the figure, the data of the boundary edge M and the roof edge N obtained in these steps are polygonized in the polygonation step (S90), so that the right side of FIG. Will be shown. Then, when the three-dimensional model is generated in the model generating step (S100) from the polygonalized one, the result is as shown in FIG.
【0087】(2) 又、従来提案されてきた手法は、
大別すると、画像データからエッジ情報を抽出し、3次
元モデルを構築する手法と、建物領域を抽出して3次元
モデルを構築する手法に大別できる。
(2) Further, the conventionally proposed method is
The method can be roughly classified into a method of extracting edge information from image data and constructing a three-dimensional model, and a method of extracting a building region and constructing a three-dimensional model.
【0088】前記エッジ情報を用いる手法は、建物エッ
ジからその領域内の高さ情報(平均など)から3次元モ
デルを構築している。そのため、屋根形状を持つ建物や
複雑な形状の建物を表現するのは困難であった。
In the method using the edge information, a three-dimensional model is constructed from height information (average etc.) in the area from the building edge. Therefore, it is difficult to represent a building with a roof shape or a complex shape.
【0089】又、同様に領域情報を用いる手法は、簡単
な屋根形状に関してはある程度可能であるが、境界エッ
ジ(領域境界)を正確に抽出することは困難であり、
又、複雑な形状を持つ建物は表現できなかった。
Similarly, the method of using the area information is possible to some extent for a simple roof shape, but it is difficult to accurately extract the boundary edge (area boundary).
Also, a building with a complicated shape could not be represented.
【0090】それに対して、本実施形態では、境界エッ
ジを好適に検出できるエッジ検出工程(S30)とルー
フエッジを好適に検出可能にする領域分割工程(S6
0)との両工程を備えている。このため、本実施形態で
は、複雑な形状の建物を正確にモデリングすることがで
きる。
On the other hand, in this embodiment, an edge detecting step (S30) capable of suitably detecting a boundary edge and an area dividing step (S6) capable of suitably detecting a roof edge.
0) and both steps are provided. Therefore, in this embodiment, a building having a complicated shape can be accurately modeled.
【0091】(3) 本実施形態では、レンジデータを
修正スーサン(SUSAN)フィルタにて処理する平滑化工
程(S20)を備えている。又、平滑化工程(S20)
の後に、前記エッジ検出工程(S30)及び領域分割工
程(S60)を行うようにしている。
(3) The present embodiment is provided with a smoothing step (S20) of processing range data with a modified Susan filter. In addition, the smoothing step (S20)
After that, the edge detecting step (S30) and the area dividing step (S60) are performed.
【0092】すなわち、本実施形態の修正スーサン(SU
SAN)フィルタでは、スパイク性のノイズを持つレンジ
データに対し、フィルタ中心の値を用いるのではなく、
近傍のメディアン値(中央値)を用いた。この結果、従
来のスーサン(SUSAN)フィルタの持つ性質(エッジが
保存される)を保ちながら、スパイク性のノイズを除去
でき、平滑化の効果を上げることができる。
That is, the modified Susan (SU of the present embodiment
SAN) filter does not use the filter center value for range data with spiked noise,
The median value (median value) in the neighborhood was used. As a result, spike noise can be removed and the smoothing effect can be improved while maintaining the property of the conventional SUSAN filter (preserving edges).
【0093】(4) 本実施形態では、エッジ検出工程
(S30)は、ラプラシアン−ガウシアンフィルタとソ
ーベルフィルタを通して得たエッジ強度値を用いて建物
境界候補を抽出している。そして、その候補の中から、
建物形状の拘束条件を用いて非建物境界の除去を行うよ
うにしている。
(4) In this embodiment, in the edge detecting step (S30), the building boundary candidate is extracted by using the edge strength value obtained through the Laplacian-Gaussian filter and the Sobel filter. And from the candidates,
The non-building boundary is removed by using the constraint condition of the building shape.
【0094】すなわち、上空から地面を撮像した都市空
間の表面形状の3次元座標値を備えたレンジデータで
は、建物エッジはステップエッジであり、閉じたエッジ
である。このため、このようなレンジデータの特性を生
かして、ラプラシアン−ガウシアンフィルタとソーベル
フィルタのエッジ強度値を用いて建物境界候補を正確に
抽出することができる。
That is, in the range data provided with the three-dimensional coordinate values of the surface shape of the city space obtained by imaging the ground from the sky, the building edge is a step edge and is a closed edge. Therefore, by utilizing the characteristics of such range data, the building boundary candidate can be accurately extracted using the edge strength values of the Laplacian-Gaussian filter and the Sobel filter.
【0095】又、建物の拘束条件を使用することから、
非建物の除去を好適に行うことができる。 (5) 本実施形態では、領域分割工程(S60)後、
平面当てはめ工程(S70)にて、処理するようにし
た。
Since the building constraint conditions are used,
The non-building can be suitably removed. (5) In the present embodiment, after the area dividing step (S60),
Processing was performed in the plane fitting step (S70).
【0096】領域分割工程(S60)を、レンジデータ
に適用した場合、屋根などの穏やかに変化している箇所
においては、過分割や、領域の欠落による不完全分割が
生じる。これに対して本実施形態では、上記のように平
面当てはめ工程(S70)を領域分割工程(S60)の
後に行うことにより、正確な屋根形状や、ルーフエッジ
の抽出を行うことができる。
When the area dividing step (S60) is applied to the range data, excessive division or incomplete division due to the lack of areas occurs at a portion such as a roof where the area changes gently. On the other hand, in the present embodiment, by performing the plane fitting step (S70) after the area dividing step (S60) as described above, it is possible to accurately extract the roof shape and the roof edge.
【0097】(6) 本実施形態では、上空から地面を
撮像した都市空間の表面形状の3次元座標値を備えたレ
ンジデータに基づいて、建物と地面との境界であるエッ
ジを検出するエッジ検出部30(エッジ検出手段)を備
えている。又、検出されたエッジを細線化する細線化部
40(細線化手段)を備えている。又、細線化された外
形エッジをベクトル化するベクトル化部50(ベクトル
化手段)を備えている。さらに、画像データに基づき建
物の屋根の平面を領域分割する領域分割部60(領域分
割手段)を備えている。又、領域分割され、互いに隣接
した領域に対してそれぞれ平面を設定し、設定した平面
と隣接する領域の平面とを当てはめる平面当てはめ部7
0(平面当てはめ手段)を備えている。
(6) In the present embodiment, edge detection for detecting an edge that is a boundary between a building and the ground, based on range data including three-dimensional coordinate values of the surface shape of the urban space obtained by imaging the ground from the sky. The unit 30 (edge detecting means) is provided. Further, a thinning section 40 (thinning means) for thinning the detected edge is provided. Further, a vectorization unit 50 (vectorization means) for vectorizing the thinned outer edges is provided. Further, it is provided with a region dividing unit 60 (region dividing means) for dividing the plane of the roof of the building into regions based on the image data. In addition, the plane fitting unit 7 is divided into areas and planes are set for the areas adjacent to each other, and the set planes and the planes of the adjacent areas are fitted.
0 (plane fitting means) is provided.
【0098】又、平面当てはめ部70により、隣接した
領域間に形成されたルーフエッジを検出するルーフエッ
ジ検出部80(ルーフエッジ検出手段)を備えている。
さらに、ベクトル化部50で得られた外形エッジと、ル
ーフエッジ検出部80で検出されたルーフエッジに基づ
いて、ポリゴン化するポリゴン化部90(ポリゴン化手
段)を備えている。そして、ポリゴン化部90にてポリ
ゴン化されたデータに基づいて3次元モデルを形成する
3次元モデル生成部(モデル形成手段)とを備えてい
る。
Further, a roof edge detecting section 80 (roof edge detecting means) for detecting the roof edge formed between the adjacent areas by the plane fitting section 70 is provided.
Further, it is provided with a polygonization unit 90 (polygonization means) for converting the outline edges obtained by the vectorization unit 50 and the roof edges detected by the roof edge detection unit 80 into polygons. Further, it is provided with a three-dimensional model generation section (model forming means) that forms a three-dimensional model based on the data polygonized by the polygonization section 90.
【0099】この結果、上記(1)と同様の作用効果を
奏する。 (7) 本実施形態では、レンジデータを修正スーサン
(SUSAN)フィルタにて処理する平滑化処理部20(平
滑化手段)を備えている。そして、エッジ検出部30及
び領域分割部60は、平滑化処理部20にて平滑化され
たデータを元にそれぞれの処理を行うようにした。
As a result, the same operational effect as the above (1) can be obtained. (7) In the present embodiment, the smoothing processing unit 20 (smoothing means) that processes the range data with the modified Susan filter is provided. Then, the edge detection unit 30 and the region division unit 60 are configured to perform respective processes based on the data smoothed by the smoothing processing unit 20.
【0100】この結果、上記(3)と同様の効果を奏す
る。 (8) 本実施形態では、エッジ検出部30は、ラプラ
シアン−ガウシアンフィルタとソーベルフィルタを通し
て得たエッジ強度値を用いて建物境界候補を抽出するよ
うにした。そして、その候補の中から、少なくとも建物
形状の拘束条件を用いて非建物境界の除去を行うように
した。
As a result, the same effect as the above (3) can be obtained. (8) In the present embodiment, the edge detection unit 30 extracts the building boundary candidate using the edge intensity value obtained through the Laplacian-Gaussian filter and the Sobel filter. Then, the non-building boundary is removed from the candidates using at least the constraint condition of the building shape.
【0101】この結果、上記(4)と同様の効果を奏す
る。 (9) 本実施形態では、境界エッジを好適に検出でき
るエッジ検出部30とルーフエッジを好適に検出可能に
する領域分割部60との両部を備えている。このため、
本実施形態では、上記(2)と同様の効果を奏する。
As a result, the same effect as the above (4) can be obtained. (9) In the present embodiment, both the edge detection unit 30 capable of suitably detecting the boundary edge and the area dividing unit 60 capable of suitably detecting the roof edge are provided. For this reason,
In this embodiment, the same effect as the above (2) is obtained.
【0102】(10) 本実施形態では、領域分割部6
0の処理後、平面当てはめ部70にて、処理するように
した。この結果、上記(5)と同様の効果を奏する。
(10) In this embodiment, the area dividing section 6
After the treatment of 0, the plane fitting unit 70 was used for treatment. As a result, the same effect as the above (5) is obtained.
【0103】なお、本発明の実施形態は上記実施の形態
に限定されるものではなく、発明の趣旨を逸脱しない範
囲で、適宜に変更して次のように実施することもでき
る。 (1) 本実施形態のレンジデータは、航空機に搭載し
たレーザスキャナにて撮像したレンジデータとしたが、
衛星に搭載したレーザスキャナから撮像して得たレンジ
データであってもよい。
The embodiment of the present invention is not limited to the above-mentioned embodiment, and may be appropriately modified and implemented as follows without departing from the spirit of the invention. (1) The range data of the present embodiment is the range data imaged by the laser scanner mounted on the aircraft,
It may be range data obtained by imaging from a laser scanner mounted on the satellite.
【0104】(2) 前記実施形態に示した例は切妻の
屋根形式のもので説明したが、他の屋根形式、例えば、
寄棟、方形、入母屋に対しても同様に3次元モデル生成
ができることは勿論のことである。
(2) Although the example shown in the above embodiment has been described as a gable roof type, other roof types, for example,
Needless to say, a three-dimensional model can be similarly generated for a dormitory, a square, and a barn.
【0105】(3) 前記実施形態中、細線化部40及
び細線化S40を省略してもよい。
(3) In the above embodiment, the thinning section 40 and the thinning S40 may be omitted.
【0106】[0106]
【発明の効果】以上詳述したように、請求項1乃至請求
項6に記載の発明は、切妻等のようなルーフエッジライ
ンを高精度に検出できる効果を奏する。
As described above in detail, the inventions according to claims 1 to 6 have an effect that a roof edge line such as a gable can be detected with high accuracy.
【0107】請求項2及び請求項5に記載の発明は、従
来のスーサン(SUSAN)フィルタの持つ性質(エッジが
保存される)を保ちながら、スパイク性のノイズを除去
でき、平滑化の効果を上げることができる。
The inventions of claims 2 and 5 can remove spike noise while maintaining the property (edge is preserved) of a conventional Susan filter, and have an effect of smoothing. Can be raised.
【0108】請求項3及び請求項6に記載の発明は、レ
ンジデータの特性を生かして、ラプラシアン−ガウシア
ンフィルタとソーベルフィルタのエッジ強度値を用いて
建物境界候補を正確に抽出することができる。又、建物
の拘束条件を使用することから、非建物の除去を好適に
行うことができる。
According to the third and sixth aspects of the present invention, by utilizing the characteristics of the range data, the building boundary candidate can be accurately extracted using the edge strength values of the Laplacian-Gaussian filter and the Sobel filter. . Further, since the constraint condition of the building is used, the non-building can be suitably removed.
【図面の簡単な説明】[Brief description of drawings]
【図1】3次元都市モデル生成装置の概略図。FIG. 1 is a schematic diagram of a three-dimensional city model generation device.
【図2】3次元都市モデル生成方法を示すフローチャー
ト。
FIG. 2 is a flowchart showing a three-dimensional city model generation method.
【図3】スーサン(SUSAN)フィルタの説明図。FIG. 3 is an explanatory diagram of a SUSAN filter.
【図4】距離のガウシアン(Gaussian)関数の説明図。FIG. 4 is an explanatory diagram of a Gaussian function of distance.
【図5】スーサン(SUSAN)フィルタで使用される注目
点と8近傍との差Hとの差のガウシアン(Gaussian)関
数の説明図。
FIG. 5 is an explanatory diagram of a Gaussian function of a difference between a point of interest used in a SUSAN filter and a difference H between the eight neighborhoods.
【図6】(a)は、図5と同じガウシアン(Gaussian)
関数の説明図、(b)は、修正スーサン(SUSAN)で使
用されるガウシアン(Gaussian)関数の説明図。
6 (a) is the same Gaussian (Gaussian) as FIG.
Explanatory drawing of a function, (b) is explanatory drawing of the Gaussian (Gaussian) function used by modified Susan (SUSAN).
【図7】(a)は200ピクセル(画素)で、1つのス
テップエッジを含む1次元画像を示す説明図、(b)は
LoGフィルタの出力を示す説明図。
7A is an explanatory diagram showing a one-dimensional image including 200 pixels (pixels) and one step edge, and FIG. 7B is an explanatory diagram showing an output of a LoG filter.
【図8】(a)はソーベルフィルタのx方向のマスクオ
ペレータに関する係数行列を示す説明図、(b)は同じ
くソーベルフィルタのy方向のマスクオペレータに関す
る係数行列を示す説明図。
FIG. 8A is an explanatory diagram showing a coefficient matrix for a mask operator in the x direction of a Sobel filter, and FIG. 8B is an explanatory diagram showing a coefficient matrix for a mask operator in the y direction of a sobel filter.
【図9】(a)は、領域分割における過分割の説明図、
(b)は同じく不完全分割の説明図、(c)は(a)の
状態から平面当てはめによって得られるルーフエッジの
説明図、(d)は(b)の状態から平面当てはめによっ
て得られるルーフエッジの説明図。
FIG. 9A is an explanatory diagram of excessive division in area division;
(B) is an explanatory view of incomplete division, (c) is an explanatory view of a roof edge obtained by plane fitting from the state of (a), and (d) is a roof edge obtained by plane fitting from the state of (b). Explanatory drawing of.
【図10】ポリゴン化の説明図。FIG. 10 is an explanatory diagram of polygonization.
【図11】同じくポリゴン化の説明図。FIG. 11 is an explanatory diagram of polygonization similarly.
【図12】3次元モデル生成の説明図。FIG. 12 is an explanatory diagram of three-dimensional model generation.
【図13】3次元モデル生成の説明図。FIG. 13 is an explanatory diagram of three-dimensional model generation.
【図14】3次元モデル生成の説明図。FIG. 14 is an explanatory diagram of three-dimensional model generation.
【図15】(a)はエッジ検出工程、領域分割工程等を
合わせた場合の作用の説明図、(b)は、ポリゴン化の
説明図。
FIG. 15A is an explanatory diagram of an operation when an edge detection process, a region division process, and the like are combined, and FIG. 15B is an explanatory diagram of polygonization.
【符号の説明】[Explanation of symbols]
20…平滑化処理部(平滑化処理手段) 30…エッジ検出部(エッジ検出手段) 40…細線化部(細線化手段) 50…ベクトル化部(ベクトル化手段) 60…領域分割部(領域分割手段) 70…平面当てはめ部(平面当てはめ手段) 80…ルーフエッジ検出部(ルーフエッジ検出手段) 90…ポリゴン化部(ポリゴン化手段) 100…3次元モデル生成部(モデル形成手段) 20 ... Smoothing processing section (smoothing processing means) 30 ... Edge detection section (edge detection means) 40 ... Thinning portion (thinning means) 50 ... Vectorization unit (vectorization means) 60 ... Area dividing unit (area dividing means) 70 ... Flat surface fitting portion (flat surface fitting means) 80 ... Roof edge detecting section (roof edge detecting means) 90 ... Polygonization unit (polygonization means) 100 ... Three-dimensional model generation unit (model forming means)
─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───
【手続補正書】[Procedure amendment]
【提出日】平成13年12月14日(2001.12.
14)
[Submission date] December 14, 2001 (2001.12.
14)
【手続補正2】[Procedure Amendment 2]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0028[Correction target item name] 0028
【補正方法】変更[Correction method] Change
【補正内容】[Correction content]
【0028】[0028]
【数1】 はフィルタのサイズを決める値である。すなわち、フ
ィルタのサイズは、2S+1である。Tはスーサン(SU
SAN)フィルタで定義されている閾値である。 σは標準偏差である このように、スーサン(SUSAN)フィルタは明るさと空
間ドメインのシグマフィルタと空間ドメインガウシアン
(Gaussian)フィルタを組合わせたようなものになって
いる。
[Equation 1] S is a value that determines the size of the filter. That is, the size of the filter is 2S + 1. T is Susan (SU
This is the threshold defined by the SAN) filter. σ is the standard deviation. Thus, the SUSAN filter is like a combination of brightness and spatial domain sigma filters and spatial domain Gaussian filters.
【手続補正3】[Procedure 3]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0034[Correction target item name] 0034
【補正方法】変更[Correction method] Change
【補正内容】[Correction content]
【0034】[0034]
【数2】 こで、f(i,j)は原画像でg(i,j)は目的画
像である。
[Equation 2] In here, f (i, j) in the original image g (i, j) is an object image.
【手続補正4】[Procedure amendment 4]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0042[Correction target item name] 0042
【補正方法】変更[Correction method] Change
【補正内容】[Correction content]
【0042】[0042]
【数3】 7(a)は、長さが200ピクセル(画素)で、1つ
のステップエッジを含む1次元画像を示す。図7(b)
は図7(a)の画像を基にしたσ=3ピクセル(画素)
の1次元LoGフィルタの出力を示している。
[Equation 3] FIG. 7A shows a one-dimensional image having a length of 200 pixels (pixel) and including one step edge. Figure 7 (b)
Is σ = 3 pixels (pixels) based on the image of FIG.
The output of the one-dimensional LoG filter is shown.
【手続補正5】[Procedure Amendment 5]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0047[Correction target item name] 0047
【補正方法】変更[Correction method] Change
【補正内容】[Correction content]
【0047】[0047]
【数4】 のエッジ強度値Emが所定の閾値以上のときは、次式
(6)によりエッジ方向Eθを計算して、エッジ方向に
係る画像に格納する。このようにして、各画素につい
て、処理を実行する。
[Equation 4] When this edge intensity value Em is equal to or greater than a predetermined threshold value, by calculating the edge direction Eθ by the following equation (6), stored in the image according to the edge direction. In this way, the process is executed for each pixel.
【手続補正6】[Procedure correction 6]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0048[Correction target item name] 0048
【補正方法】変更[Correction method] Change
【補正内容】[Correction content]
【0048】[0048]
【数5】 のようにして、エッジ検出部30では、エッジ検出方
向画像を作成する。
[Equation 5] As this, the edge detecting section 30, creates an edge detection direction image.
───────────────────────────────────────────────────── フロントページの続き (71)出願人 598131203 山本 和彦 岐阜県岐阜市則武中1−9−18−202 (72)発明者 バブ マダワン 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン 内 (72)発明者 王 彩華 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン 内 (72)発明者 山本 和彦 岐阜県岐阜市則武中1丁目9番地18−202 号 Fターム(参考) 5B050 BA02 BA09 BA17 DA02 EA05 EA06 EA14 EA27 EA28 5L096 FA06 GA55    ─────────────────────────────────────────────────── ─── Continued front page    (71) Applicant 598131203             Kazuhiko Yamamoto             1-9-18-202 Norichu, Gifu City, Gifu Prefecture (72) Inventor Bab Madawan             7 goods at 4-1, Kagano, Ogaki City, Gifu Prefecture             Within Softopia Japan (72) Inventor Wang Aika             7 goods at 4-1, Kagano, Ogaki City, Gifu Prefecture             Within Softopia Japan (72) Inventor Kazuhiko Yamamoto             Noritake 1-9-9, Noritake, Gifu City, Gifu Prefecture 18-202             issue F-term (reference) 5B050 BA02 BA09 BA17 DA02 EA05                       EA06 EA14 EA27 EA28                 5L096 FA06 GA55

Claims (6)

    【特許請求の範囲】[Claims]
  1. 【請求項1】 上空から地面を撮像した都市空間の表面
    形状の3次元座標値を備えたレンジデータに含まれる画
    像データに基づいて、建物と地面との境界である外形エ
    ッジを検出するエッジ検出工程と、 前記外形エッジをベクトル化するベクトル化工程と、 前記画像データに基づき建物の屋根の平面に領域分割す
    る領域分割工程と、 領域分割され、互いに隣接した領域に対してそれぞれ平
    面を設定し、設定した平面と隣接する領域の平面とを当
    てはめる平面当てはめ工程と、 前記平面当てはめ工程により、隣接した領域間に形成さ
    れたルーフエッジを検出するルーフエッジ検出工程と、 前記ベクトル化工程で得られた外形エッジと、前記ルー
    フエッジ検出工程で検出されたルーフエッジに基づい
    て、ポリゴン化するポリゴン化工程と、 ポリゴン化工程にてポリゴン化されたデータに基づいて
    3次元モデルを形成するモデル形成工程とを備えた3次
    元都市モデル生成方法。
    1. Edge detection for detecting an outline edge which is a boundary between a building and the ground, based on image data included in range data having three-dimensional coordinate values of the surface shape of an urban space obtained by imaging the ground from the sky. A step, a vectorization step of vectorizing the outline edges, an area division step of dividing the area into planes of the roof of the building based on the image data, and a plane is set for each of the areas that are adjacent to each other. A plane fitting step of fitting the set plane and a plane of an adjacent area; a roof edge detecting step of detecting a roof edge formed between the adjacent areas by the plane fitting step; and a vectorization step. A contouring step for polygonizing the outer edge and the roof edge detected in the roof edge detecting step; And a model forming step of forming a three-dimensional model based on the polygonized data in the gonizing step.
  2. 【請求項2】 前記レンジデータを修正スーサン(SUSA
    N)フィルタにて処理する平滑化工程を備え、同平滑化
    工程の後に、前記エッジ検出工程及び領域分割工程を行
    うことを特徴とする請求項1に記載の3次元都市モデル
    生成方法。
    2. The range data is modified by Susan (SUSA).
    N) The three-dimensional city model generation method according to claim 1, further comprising a smoothing step of processing with a filter, and the edge detecting step and the area dividing step are performed after the smoothing step.
  3. 【請求項3】 前記エッジ検出工程は、ラプラシアン−
    ガウシアンフィルタとソーベルフィルタを通して得たエ
    ッジ強度値を用いて建物境界候補を抽出し、その候補の
    中から、少なくとも建物形状の拘束条件を用いて非建物
    境界の除去を行うものであることを特徴とする請求項1
    又は請求項2に記載の3次元都市モデル生成方法。
    3. The edge detection step is Laplacian-
    The feature is that the building boundary candidates are extracted by using the edge strength values obtained through the Gaussian filter and the Sobel filter, and the non-building boundaries are removed from the candidates by using at least the constraint condition of the building shape. Claim 1
    Alternatively, the three-dimensional city model generation method according to claim 2.
  4. 【請求項4】 上空から地面を撮像した都市空間の表面
    形状の3次元座標値を備えたレンジデータに基づいて、
    建物と地面との境界である外形エッジを検出するエッジ
    検出手段と、 前記外形エッジをベクトル化するベクトル化手段と、 前記画像データに基づき建物の屋根の平面に領域分割す
    る領域分割手段と、 領域分割され、互いに隣接した領域に対してそれぞれ平
    面を設定し、設定した平面と隣接する領域の平面とを当
    てはめる平面当てはめ手段と、 前記平面当てはめ手段により、隣接した領域間に形成さ
    れたルーフエッジを検出するルーフエッジ検出手段と、 前記ベクトル化手段で得られた外形エッジと、前記ルー
    フエッジ検出手段で検出されたルーフエッジに基づい
    て、ポリゴン化するポリゴン化手段と、 ポリゴン化手段にてポリゴン化されたデータに基づいて
    3次元モデルを形成するモデル形成手段とを備えた3次
    元都市モデル生成装置。
    4. Based on range data provided with three-dimensional coordinate values of the surface shape of an urban space obtained by imaging the ground from the sky,
    An edge detecting unit that detects an outer edge that is a boundary between the building and the ground; a vectorizing unit that vectorizes the outer edge; an area dividing unit that divides the area into a plane of the roof of the building based on the image data; Plane fitting means that divides and sets a plane for each adjacent area, and fits the set plane and the plane of the adjacent area, and a roof edge formed between the adjacent areas by the plane fitting means. Roof edge detecting means for detecting, outer edge obtained by the vectorizing means, polygonalizing means for polygonizing based on the roof edge detected by the roof edge detecting means, and polygonalizing by the polygonalizing means And a model forming means for forming a three-dimensional model based on the obtained data.
  5. 【請求項5】 前記航空レンジデータを修正スーサン
    (SUSAN)フィルタにて処理する平滑化手段を備え、前
    記エッジ検出手段及び領域分割手段は、前記平滑化手段
    にて平滑化されたデータを元にそれぞれの処理を行うこ
    とを特徴とする請求項4に記載に3次元都市モデル生成
    装置。
    5. The smoothing means for processing the aviation range data with a modified Susan filter, wherein the edge detecting means and the area dividing means are based on the data smoothed by the smoothing means. The three-dimensional city model generation device according to claim 4, wherein each processing is performed.
  6. 【請求項6】 前記エッジ検出手段は、ラプラシアン−
    ガウシアンフィルタとソーベルフィルタを通して得たエ
    ッジ強度値を用いて建物境界候補を抽出し、その候補の
    中から、少なくとも建物形状の拘束条件を用いて非建物
    境界の除去を行うものであることを特徴とする請求項4
    又は請求項5に記載の3次元都市モデル生成装置。
    6. The edge detection means is a Laplacian-
    The feature is that the building boundary candidates are extracted by using the edge strength values obtained through the Gaussian filter and the Sobel filter, and the non-building boundaries are removed from the candidates by using at least the constraint condition of the building shape. Claim 4
    Alternatively, the three-dimensional city model generation device according to claim 5.
JP2001341885A 2001-11-07 2001-11-07 Three-dimensional city model generating device and method of generating three-dimensional city model Pending JP2003141567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001341885A JP2003141567A (en) 2001-11-07 2001-11-07 Three-dimensional city model generating device and method of generating three-dimensional city model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001341885A JP2003141567A (en) 2001-11-07 2001-11-07 Three-dimensional city model generating device and method of generating three-dimensional city model

Publications (1)

Publication Number Publication Date
JP2003141567A true JP2003141567A (en) 2003-05-16

Family

ID=19155837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001341885A Pending JP2003141567A (en) 2001-11-07 2001-11-07 Three-dimensional city model generating device and method of generating three-dimensional city model

Country Status (1)

Country Link
JP (1) JP2003141567A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005140953A (en) * 2003-11-06 2005-06-02 Pasuko:Kk Method for extracting edge feature
JP2006317221A (en) * 2005-05-11 2006-11-24 Nec Corp Object recognition device and recognition method
CN101814196A (en) * 2010-03-09 2010-08-25 浙江大学 Method for designing three-dimensional cartoon toys based on pictures
JP2012221491A (en) * 2011-04-04 2012-11-12 Harman Becker Automotive Systems Gmbh Navigation device and method of outputting three-dimensional roof structure, and method of generating database
JP2012230594A (en) * 2011-04-27 2012-11-22 Topcon Corp Three-dimensional point group position data processor, three-dimensional point group position data processing method, three-dimensional point group position data processing system, and program
KR101524074B1 (en) * 2008-07-17 2015-06-01 삼성전자주식회사 Method for Image Processing
JP2015125774A (en) * 2013-12-26 2015-07-06 ダッソー システムズDassault Systemes Diminished reality
EP3054263A4 (en) * 2013-10-02 2016-11-02 Panasonic Ip Man Co Ltd Dimension measurement device, dimension measurement method, dimension measurement system, and program
KR101804840B1 (en) * 2016-09-29 2017-12-05 연세대학교 산학협력단 Method and Apparatus for Surface Image Processing Based on Convolutional Neural Network

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005140953A (en) * 2003-11-06 2005-06-02 Pasuko:Kk Method for extracting edge feature
JP4584567B2 (en) * 2003-11-06 2010-11-24 株式会社パスコ Feature edge extraction method
JP2006317221A (en) * 2005-05-11 2006-11-24 Nec Corp Object recognition device and recognition method
KR101524074B1 (en) * 2008-07-17 2015-06-01 삼성전자주식회사 Method for Image Processing
CN101814196A (en) * 2010-03-09 2010-08-25 浙江大学 Method for designing three-dimensional cartoon toys based on pictures
JP2012221491A (en) * 2011-04-04 2012-11-12 Harman Becker Automotive Systems Gmbh Navigation device and method of outputting three-dimensional roof structure, and method of generating database
US9568332B2 (en) 2011-04-04 2017-02-14 Harman Becker Automotive Systems Gmbh Navigation system for outputting a three-dimensional roof structure and generating a database
JP2012230594A (en) * 2011-04-27 2012-11-22 Topcon Corp Three-dimensional point group position data processor, three-dimensional point group position data processing method, three-dimensional point group position data processing system, and program
EP3054263A4 (en) * 2013-10-02 2016-11-02 Panasonic Ip Man Co Ltd Dimension measurement device, dimension measurement method, dimension measurement system, and program
JP2015125774A (en) * 2013-12-26 2015-07-06 ダッソー システムズDassault Systemes Diminished reality
KR101804840B1 (en) * 2016-09-29 2017-12-05 연세대학교 산학협력단 Method and Apparatus for Surface Image Processing Based on Convolutional Neural Network

Similar Documents

Publication Publication Date Title
CN106780524B (en) Automatic extraction method for three-dimensional point cloud road boundary
Liasis et al. Satellite images analysis for shadow detection and building height estimation
Zhang et al. Automatic construction of building footprints from airborne LIDAR data
US7509241B2 (en) Method and apparatus for automatically generating a site model
JP4926116B2 (en) Image inspection device
Jung et al. Automated 3D wireframe modeling of indoor structures from point clouds using constrained least-squares adjustment for as-built BIM
Dal Poz et al. Automated extraction of road network from medium-and high-resolution images
CN103985133A (en) Search method and system for optimal splicing lines among images based on graph-cut energy optimization
Chong et al. Automatic solid decomposition and reduction for non-manifold geometric model generation
Sohn et al. An implicit regularization for 3D building rooftop modeling using airborne lidar data
US7928978B2 (en) Method for generating multi-resolution three-dimensional model
Eo et al. Coregistration of terrestrial lidar points by adaptive scale-invariant feature transformation with constrained geometry
Son et al. Rapid 3D object detection and modeling using range data from 3D range imaging camera for heavy equipment operation
Kumar et al. Road network extraction from high resolution multispectral satellite imagery based on object oriented techniques
JP3078166B2 (en) Object recognition method
Quackenbush et al. Road extraction: A review of LiDAR-focused studies
JP4058293B2 (en) Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model
JP2003141567A (en) Three-dimensional city model generating device and method of generating three-dimensional city model
Koutaki et al. Automatic road extraction based on cross detection in suburb
Yogeswaran et al. 3d surface analysis for automated detection of deformations on automotive body panels
Wang Automatic extraction of building outline from high resolution aerial imagery
JPH1049668A (en) Method for extracting characteristic from grey level document picture, and device therefor
JP2005173128A (en) Contour shape extractor
Zabuawala et al. Fusion of LiDAR and aerial imagery for accurate building footprint extraction
Tarsha Kurdi et al. Automatic filtering and 2D modeling of airborne laser scanning building point cloud

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129