JP5360989B2 - 地理情報生成システム及び地理情報生成方法 - Google Patents

地理情報生成システム及び地理情報生成方法 Download PDF

Info

Publication number
JP5360989B2
JP5360989B2 JP2009224204A JP2009224204A JP5360989B2 JP 5360989 B2 JP5360989 B2 JP 5360989B2 JP 2009224204 A JP2009224204 A JP 2009224204A JP 2009224204 A JP2009224204 A JP 2009224204A JP 5360989 B2 JP5360989 B2 JP 5360989B2
Authority
JP
Japan
Prior art keywords
building
line segment
grid
frequency
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009224204A
Other languages
English (en)
Other versions
JP2011076178A (ja
Inventor
タオ グオ
頼子 風間
隆司 樋野
義昭 賀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2009224204A priority Critical patent/JP5360989B2/ja
Priority to US12/850,816 priority patent/US8483425B2/en
Publication of JP2011076178A publication Critical patent/JP2011076178A/ja
Application granted granted Critical
Publication of JP5360989B2 publication Critical patent/JP5360989B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、地理情報生成システムに関し、特に、航空写真から建物形状を抽出する技術に関する。
建物の地理的情報(特に、建物形状)は土地台帳を管理するために重要である。従来の地上の調査や、航空写真の手作業によるデジタル化は、通常、そのコストが高い。リモートセンシングによって得られた画像データ(例えば、航空写真の他に人工衛星によって得られた画像を含む。以下、両者を航空写真と総称する。)から建物の形状を抽出する方法は、地理情報システム(GIS)のデータを更新するために、将来的に有望な方法である。しかし、この問題は、複雑であることから、その解決が数十年間試みられてきた。
過去数十年における建物形状の抽出の研究において、非特許文献1に示すように、完全に自動的に建物形状を抽出するツールは提案されていない。従来の方法は、その方法に用いられる基本的な特徴によって、一般的に二つのカテゴリーに分類される。一つは、建物の境界に沿って建物のエッジを繋げるエッジリンク法である。もう一つは、領域拡張アルゴリズムを用いて、互いに類似する隣接画素を結合することによって建物領域を生成する方法である。
しかし、何れの方法も、ノイズに敏感で、境界や輪郭線が不鮮明である複雑なケースを取り扱うことができない。そのため、これらの方法は、現実には、極めて少ないケースに適用できるだけである。現在、半自動化システムは、最も効率的であるが、正確な地理的形状で建物形状の地図を生成できることは少ない。
非特許文献2には、エネルギー関数を最小化することによって輪郭線を変形させ、ラジアル・キャスティング アルゴリズムを用いて初期輪郭線を生成する動的輪郭モデル(例えば、スネークモデル)が記載されている。この方法によって、衛星画像(例えば、QuickBirdによって撮影された画像)から、半自動的に建物を抽出することができる。しかし、ラジアル・キャスティング アルゴリズムによって抽出された建物形状は大雑把かつ不規則なので、この問題を解決することができない。
特許文献1には、ユーザから与えられた初期点の近くのエッジを繋げることによって、建物の境界を半自動的に抽出する方法が記載されている。しかし、特許文献1に記載されている方法は、エッジが対象の建物のものであるかを決めるためには十分ではない。
特許文献2には、建物領域を区別するために空中からのレーザ走査によるデータを用いて、イメージデータを結合し、建物形状を抽出する方法が記載されている。しかし、特許文献2に記載されている方法は、使用されるレーザ走査によるデータが高価で、異なるソースのデータを結合することから不確実性をもたらす。
特開2004−341422号公報 特開2003−346144号公報
Gulch, E. and Muller, H. New applications of semi-automatic building acquisition. In Automatic Extraction of Man-Made Objects From Aerial and Space Images(III), Edited by Emmanuel P.Baltsavias, Armin Gruen, Luc Van Gool. ISBN: 90-5809-252-6. by A.A. BALKEMA PUBLISHERS, pp.103-114. 2001. Mayunga, S.D., Zhang, Y. and Coleman, D.J. Semi-automatic building extraction utilizing Quickbird imagery. In Stilla, U. Rottensteiner, F. and Hinz, S. (Eds) CMRT05. IAPRS, Vol.XXXVI, Part 3/W24 - Vienna, Austria, August 29-30, 2005.
航空写真からの建物形状の抽出において、建物の検出及び建物の抽出が困難である。
建物検出の目的は、建物の位置を検出し、他の物体と建物を区別することである。航空写真において、周囲の物体、例えば、郊外では駐車場、草地、更地、水域、道路及び人造物から、建物を分離することは困難である。なぜなら、これらの他の物体は建物とは類似する特徴(例えば、形状、テクスチャ、スペクトルの特徴など)を有しているからである。そのため、今日まで、一般的なルールとして建物の検出及び建物の抽出に効果的な種類の特徴やこれらの特徴の組み合わせは見出されていない。
この技術分野で、「建物の抽出」という語は多用されている。従来の多くの方法及びシステムは、建物の抽出を目指しており、建物の位置又は大雑把な領域を見出すものである。本発明では、建物の検出は、建物の形状のアウトラインを導出し、導出された形状を幾何学的に表示することである。
本発明の課題である、許容できる地理的誤差内で建物の境界の抽出することは困難性が高い。なぜなら、建物が多様な屋根形状及び基礎形状を有するからである。さらに、影、印影、ノイズ、他の物体(例えば、木、他の構造物)との重なりによって、想定可能な誤差が生じる。従来のボックスモデル法は、建物を箱形(長方形)として扱う一般的な方法である。しかし、ボックスモデル法は、建物の形状を描く簡単な方法であり、結果として大まかな近似となる。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、空中写真から建物の形状を抽出する地理情報生成システムであって、プログラムを実行するプロセッサと、前記プログラムの実行に必要なデータを記憶するメモリと、前記空中写真を格納する記憶部と、を備え、前記プロセッサは、形状を抽出する対象となる前記建物の位置の指定を受け付け、隣接する画素の類似性が閾値より高い画素を抽出することによって、エッジを抽出する範囲である建物領域を定め、前記定められた建物領域が、前記指定された位置を含まない場合、前記閾値を低く変更して、再度、隣接する画素の類似性が前記変更された閾値より高い画素を抽出することによって、エッジを抽出する範囲である建物領域を定め、前記記憶部に格納された空中写真中の隣接する画素の特徴量に基づいて、画像のエッジを検出し、前記検出されたエッジの方向を解析することによって、建物の方向を抽出し、前記抽出された建物の方向の直線を用いて、該建物の外形のポリゴンを生成することを特徴とする。
本発明の代表的な実施の形態によれば、建物形状を正確に抽出することができる。
本発明の実施の形態の地図作成システムの構成を示すブロック図である。 本発明の実施の形態の建物形状抽出処理の全体を示すフローチャートである。 本発明の実施の形態のスペクトルによるランドマークの除去を説明する図である。 本発明の実施の形態のスペクトルによる植生の除去を説明する図である。 本発明の実施の形態による道路の除去を説明する図である。 本発明の実施の形態のスペクトルによる水域の除去を説明する図である。 本発明の実施の形態のユーザの選択によって実行される処理を説明する図である。 本発明の実施の形態の建物抽出処理の詳細を示すフローチャートである。 本発明の実施の形態の角度ヒストグラム生成処理の詳細を示すフローチャートである。 本発明の実施の形態において角度ヒストグラム生成処理を説明する図である。 本発明の実施の形態において角度ヒストグラム生成処理を説明する図である。 本発明の実施の形態において角度ヒストグラム生成処理を説明する図である。 本発明の実施の形態の建物方向抽出処理の詳細を示すフローチャートである。 本発明の実施の形態の線分分類処理の詳細を示すフローチャートである。 本発明の実施の形態のグリッド生成処理の詳細を示すフローチャートである。 本発明の実施の形態の分割線抽出処理の詳細を示すフローチャートである。 本発明の実施の形態の分割線からの偏差rを説明する図である。 本発明の実施の形態の分割線からの偏差rを説明する図である。 本発明の実施の形態における線分の分類を説明する図である。 本発明の実施の形態における線分の分類を説明する図である。 本発明の実施の形態のグリッドの生成を説明する図である。 本発明の実施の形態のセルの類似度を算出する処理のフローチャートである。 本発明の実施の形態の地図作成システムによって処理される建物屋根を示す図である。 本発明の実施の形態の地図作成システムによって処理される建物屋根の画像を示す図である。 本発明の実施の形態の地図作成システムによって抽出された建物屋根の線形エッジを示す図である。 本発明の実施の形態の地図作成システムによって建物の方向に垂直なクラスに分類された線分を示す図である。 本発明の実施の形態の地図作成システムによって抽出された分割線を示す図である。 本発明の実施の形態の地図作成システムによって建物の方向に平行なクラスに分類された線分を示す図である。 本発明の実施の形態の地図作成システムによって抽出された分割線を示す図である。 本発明の実施の形態の地図作成システムおいて分割線によってグリッドに分割された建物領域を示す図である。 本発明の実施の形態の地図作成システムにおいてセルを結合することによって生成された建物の屋根領域を示す図である。 本発明の実施の形態の地図作成システムによって生成された建物形状のポリゴンを示す図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態による建物形状の抽出の過程を説明する図である。 本発明の実施の形態によって抽出された建物形状を示す図である。
<システム構成>
図1は、本発明の実施の形態の地図作成システムの構成を示すブロック図である。
本実施の形態の地図作成システムは、入力部110、表示部120、画像記録部130、演算部140、地図出力部150及び記憶部160を備える計算機である。入力部110、表示部120、画像記録部130、地図出力部150及び記憶部160は、演算部140を介して(又は、相互にバスによって)、接続されている。
入力部110は、画像入力部111及び位置入力部112を備える。画像入力部111は、建物の画像が入力される装置で、例えば、光ディスクドライブ、USBインターフェース等によって構成される。位置入力部112は、オペレータが指示を入力するユーザインターフェースで、マウス等のポインティングデバイス、キーボード等によって構成される。
表示部120は、画像表示部121及び地図表示部122を備える。画像表示部121は、地図作成システムによって処理される画像を表示する表示装置である。地図表示部122は、地図作成システムによって作成された地図を表示する表示装置である。なお、画像表示部121と地図表示部122とは、同じ表示装置によって構成しても、異なる表示装置によって構成してもよい。
画像記録部130は、この地図作成システムによって処理される画像を格納する記憶装置であり、例えば、ハードディスク装置、不揮発性メモリ等によって構成される。演算部140は、演算装置(プロセッサ)であって、プログラムを実行することによって本システムで行われる処理を実行する。
地図出力部150は、地図作成システムによって作成される地図を出力する装置で、例えば、プリンタ、プロッタ等によって構成される。記憶部160は、演算部140によって実行されるプログラム、地図情報、及び、建物形状のデータベースを格納する記憶装置であり、例えば、ハードディスク装置、不揮発性メモリ等によって構成される。
<処理>
図2は、本発明の実施の形態の建物形状抽出処理の全体のフローチャートである。
まず、画像入力部111に入力された建物の画像(例えば、航空写真)を、スペクトル及び幾何学形状を解析して植生、水域及び道路を画像から除去する。具体的には、樹木、森、草等が植わっている植生は、特定のスペクトルの光を発している。このため、この特定のスペクトルを持つ領域を写真画像から区別することができる。植生のスペクトルは、可視光(赤色光)、赤外線等の複数のチャネルの光を用いた、公知のNDVI法(Normalized Difference Vegetation Index法)を使用することによって解析することができる。また、プール、池、湖、水路、川である水域のNDVI値は極めて0に近いので、この領域を写真画像から除去する。一方、道路、更地、建物は、特定できないスペクトルを持つ。しかし、道路は直線に長く続くという幾何学的特徴を有するので、この幾何学的形状を持つ領域を写真画像から除去する(S11)。
図3Aから図3Dは、スペクトルによるランドマークの除去を説明する図である。
図3Bは、NDVI法によって特定された植生を示し、図3Cは、幾何学的形状(長い直線)によって特定された道路を示し、図3Dは、NDVI法によって特定された水域を示す。ステップS11では、これらの植生(図3B)、道路(図3C)及び水域(図3D)を合成した画像(図3A)をマスク画像として使用することによって、航空写真から植生、道路及び水域を除去することができる。
その後、位置入力部112によって、形状を抽出する建物内の初期位置(P(X,Y))の指定を、画像上で受け付ける(S21)。そして、指定された初期位置を含む所定の範囲の画像を切り出す(S22)。この切り出された領域が、ROI(Region of Interest)である。ROIによって作業領域が限定されるので、処理速度を早めることができる。
その後、切り出されたROIから建物領域を抽出する(S23)。ステップS23では、抽出された建物領域は建物の境界と完全には一致していなくてもよいが、処理の対象の建物を含み、かつ、建物の輪郭線に近いことが望ましい。この建物領域抽出処理の詳細は、図5を用いて後述する。
その後、抽出された建物領域内の画像のエッジを検出する(S31)。このエッジの検出は公知の方法を用いることができ、例えば、隣接する画素の特徴量(例えば、明るさ、色情報など)の変化が所定の閾値より大きい場合に、エッジであると判定することができる。
その後、抽出されたエッジを線分(SLS:Straight Line Segments)にあてはめる(S32)。その後、ステップS32で抽出された線分の角度のヒストグラムを生成する(S33)。この角度ヒストグラム生成処理の詳細は、図6を用いて後述する。
その後、角度ヒストグラムに基づいて建物の方向を抽出する(S34)。通常、人工の建物の角は直角又は直角に近い角度を持つ。このため、抽出された線分は直交座標系上で直交する方向に存在する。そのため、線分が並んだ方向が建物の方向に決まる。この角度ヒストグラム生成処理の詳細は、図8を用いて後述する。
その後、ステップS32で抽出された線分の偏差に基づいて、線分を水平方向と垂直方向との二つのクラスに分類する(S35)。この線分分類処理の詳細は、図9を用いて後述する。
その後、二つのクラスに分類された線分に基づいて、グリッドを生成する(S36)。このグリッド生成処理の詳細は、図10から図12を用いて後述する。
その後、各グリッドによって分割されたセルのスペクトルを計算し、計算されたスペクトルに基づいてセルの類似度を計算して、類似すると判定されたセルを特定する(S41)。この類似度算出処理の詳細は図14を用いて後述する。
その後、類似するセルを結合して、直線で囲まれた建物形状のポリゴンを生成する(S42)。この様に生成された建物形状のポリゴンは、建物の屋根の形状とよく整合する。
その後、生成されたポリゴンの外部との境界線を抽出し、抽出された境界線によるポリゴンを建物形状としてデータベースに格納する(S51)。なお、ステップS51において、抽出された境界線が十分か、又は、修正が必要かを選択するためのユーザインターフェースを提供してもよい。
その後、画像において、抽出した建物形状の領域をマスクする(S52)。このマスクによって、マスクされた領域は再び処理対象に選ばれることがなく、建物領域を抽出する処理が重複して実行されることを防ぐ。
図4は、ユーザの選択によって実行される処理(S52)を説明する図である。このS52の処理では、図4に示す判定テーブルを参照して、処理内容が決定される。
建物形状の抽出が成功した場合、建物形状が抽出された領域はマスクされ、この領域が再び選ばれることがなくなる、重複して建物領域が抽出されない。
一方、建物形状の抽出が失敗した場合、この領域はマスクされないので、この領域を再び選ぶことが可能となり、再び建物領域を抽出する処理がされる画像領域となる。
その後、他の建物を抽出するか否かをの入力を受け付ける(S61)。そして、ユーザから他の建物を抽出する入力があった場合、ステップS21に戻り、初期位置の指定を受け付ける。
一方、ユーザから建物の抽出を終了する入力があった場合、ステップS51で、データベースに格納された建物形状を読み出して、読み出した建物形状を地図上に書き込むことによって、建物の形状の地図(例えば、図26)を作成し(S71)、この建物形状抽出処理を終了する。
図5は、本発明の実施の形態の建物抽出処理(S23)の詳細を示すフローチャートである。
まず、ROI内のピクセルの間の類似インデックスSを十分に高い値に設定し(S231)、類似インデックスSを用いたイメージ分割法(例えば、グラフカット法)によって、ROI内の画像を区分けする(S232)。ここで、類似インデックスSを十分に高い値に設定したのは、隣接する画素間で高い類似性を求め、対象区域を均質で小さな領域に区分けするためである。
その後、ステップS21において指定された点P(X,Y)が、区分けされた領域に含まれるか否かを判定する(S233)。
その結果、点P(X,Y)が区分けされた領域に含まれない場合、対象とする建物を含む領域が抽出されていない。このため、隣接する画素間が弱い関係付けでも類似すると判定されるように、類似インデックスSを小さくする。その後、ステップS232に戻り、点P(X,Y)が含まれる領域が区分けされるまで、ステップS232〜S233の処理を繰り返す。
一方、点P(X,Y)が区分けされた領域に含まれる場合、この領域は、この領域の周囲と有意差を有し、点P(X,Y)を含む領域である。このため、点P(X,Y)を含む領域を建物領域として出力する(S235)。なお、ステップS235で出力された建物領域の周囲を所定の長さ又は面積だけ広くして建物領域としてもよい。
図6は、本発明の実施の形態の角度ヒストグラム生成処理(S33)の詳細を示すフローチャートである。
まず、各線分(SLS)の長さli及び方向θiを計算する(S331)。方向θiは、線分長liによってヒストグラムへの寄与が定まるように、線分長liを係数として重み付けされる。
そして、数式(1)を用いて、全ての線分の角度のヒストグラムの値を計算する(S332)。
この角度のヒストグラムの値を計算は、全ての線分について繰り返し行われた後に、角度ヒストグラム生成処理(S33)を終了する。
図7Aから図7Cは、角度ヒストグラム生成処理(S33)の過程を説明する図である。
SLSに当てはめられた線形エッジは、図7Aに示すように、線分によって表される。
前述したように、人造の建物の壁と壁との間の角度はほぼ直角であり、建物の形状は長方形となる。また、他の形状の建物は、通常、長方形の組み合わせである。航空写真から建物を発見する場合、この直角は顕著な特徴となる。
図7Aに示される線分を角度を軸として、線分の長さで重み付けをしたヒストグラムを図7Bに示す。また、同様に、線分の長さで重み付けをした円ヒストグラムを図7Cに示す。
図7B及び図7Cによると、直角をなす二つのピークが明確に現れており、この二つのピークが建物の方向を最も特徴付ける。そして、その一方の強いピークを与える角度が、建物の方向となる。
図8は、本発明の実施の形態の建物方向抽出処理(S34)の詳細を示すフローチャートである。
まず、建物方向抽出処理を実行するために各パラメータを初期設定する。具体的には、方向角β=0、最大ヒストグラム値H=0、探索用角度θ=0に設定する(S341)。
その後、角度θが、0°以上、90°未満であるか否かを判定する(S342)。これによって、0≦θ<90の範囲において、ステップS343からステップS346のループの処理が繰り返し行われる。一方、0≦θ<90の範囲を超えた(すなわち、θが90°以上になった)場合、ステップS347に進む。
ステップS343では、数式(2)を用いて、各オルト角のヒストグラム値h(θ)を計算する。ここで、オルト角とは、+90度又は−90度離れた角の組である。
この数式(2)では、角度θの前後±cの範囲のヒストグラム値を加算する。このcは、角度θの近傍を表す角度であり、ステップS346で後述する探索用角度のステップsの半分を用いるとよい。さらに、数式(2)では、角度θの近傍のヒストグラム値に、角度θ+90°の近傍のヒストグラム値も加算される。これは、通常、建物の隣接する壁は直交していることに基づくものである。
ヒストグラムの値h(θ)が計算された後、h(θ)と最大ヒストグラム値Hとを比較する(S344)。その結果、h(θ)がHより大きければ、建物の方向角に近い角度が得られているので、最大ヒストグラム値Hを更新するために、Hにh(θ)を設定し、h(θ)を与えた角度θを方向角βに設定する(S345)。一方、h(θ)がHより大きくなければ、最大ヒストグラム値Hを更新する必要がないので、計算されたh(θ)を無視して、ステップS346に進む。
ステップS346では、角度θに加算値sを加えて新たなθを定め、ステップS342に戻り、0≦θ<90の範囲内で繰り返しh(θ)を計算する。
ステップS347では、方向角βを建物の方向角に設定する(S347)。
図9は、本発明の実施の形態の線分分類処理(S35)の詳細を示すフローチャートである。
まず、各線分の方向角θと建物の方向角βとを比較するために、偏差δ=|θ−β|を計算し、計算された偏差δと所定値αとを比較する(S351)。このαは線分の方向角の許容できる偏差である。
その結果、δ≦αであれば、線分の方向角θは建物の方向角βに近いので、この線分を建物の方向に平行な線分に分類する(S352)。一方、|δ−90°|≦αであれば、線分の方向角θは建物の方向角βと略直交しているので、この線分を建物の方向に垂直な線分に分類する(S353)。さらに、δ>αかつ|δ−90|>αであれば、この線分は建物の輪郭線と無関係なので、この線分を削除する(S354)。
そして、ステップS351〜S354の処理を繰り返すことによって、全ての線分を分類する。
図10は、本発明の実施の形態のグリッド生成処理(S36)の詳細を示すフローチャートである。
まず、二つのクラスに分類された線分の各群から、2方向の分割線を抽出する(S361)。この分割線抽出処理の詳細は、図11を用いて後述する。
その後、抽出された分割線を交差させて、建物領域をグリッドに分割する(S362)。
図11は、本発明の実施の形態の分割線抽出処理(S361)の詳細を示すフローチャートであり、直交する二つの座標軸の方向の各々に分割線抽出処理が実行される。
まず、建物領域の空白画像を準備し、この空白画像上に、建物の方向角の方向の線分を出力する(S3611)。その後、画像領域内の各線分のi行(又は、列)方向のピクセル数h(i)を計算する(S3612)。このピクセル数h(i)は各線分の長さを表す。
その後、h(i)の最大値max[h(i)]を計算し、h_maxに設定する。具体的には、h(i)とh_maxとを比較し、h(i)がh_max以上であれば、意味のある線がi行の近くにあるので、h(i)をh_maxに設定する(S3613)。
その後、h_maxとtとを比較する(S3614)。tは所定の閾値で、線分が主要なグリッド線となる線分であると判定される閾値である。
h_maxがtより小さければ、この分割線抽出処理を終了し、iに所定値(例えば、ステップS3617で用いるrの2倍の値)を加算し、次の線分を処理する。ここで、iは、行及び列を表す一連の番号であり、rは、各行及び列のバッファレンジ(近隣の所定の範囲)を定める。例えば、i=nである場合、n番目行を意味する。i=10であり、かつr=3である場合、10番目の行のバッファレンジは、n=7〜13である。一方、h_maxがt以上であれば、線分が主要なグリッド線であるので、式(3)を用いて、バッファレンジ内のi行(又は、列)のh(i)のヒストグラムの値H(i)を計算する(S3615)。
分割線の正確な位置は、H(J)がmax[H(i)]となるJである、このため、式(4)を用いて、分割線のヒストグラムの最大値を計算する。計算されたH_maxを与えるJが線分の密度が最も高い位置なので、Jの値を分割線の位置として出力する(S3616)。
J行に分割線が出力された場合、J行の近くの線分はJ行の分割線のヒストグラムに貢献しており、これらの線分の他の分割線への影響は低減されるべきである。このため、式(5)を用いて、分割線の近くの線分のピクセル数h(i)の値を再計算する(S3617)。ここで、rは、図12A及び図12Bに示すように、分割線からの偏差を示し、分割線から±rの範囲内の線分は、J行の分割線に統合される。この計算によって、J行の近くのh(i)の値が小さくなる。
その後、S3616に戻り、iに所定値(例えば、ステップS3617で用いるrの2倍の値)を加算し、次の線分を処理する。ここで、iは、行及び列を表す一連の番号である。
図13Aから図13Cは、線分が分類され、建物領域がグリッドに分割される過程を説明する図である。
図7Aに示される線形エッジ(SLS)から分類された建物の方向に垂直及び平行な線分のうち、図13Aは、平行な線分を示し、図13Bは、垂直な線分を示す。その後、図13Cに示すように、建物の方向に垂直及び平行な分割線が定められる。
図14は、本発明の実施の形態のセルの類似度を算出する処理(S41)のフローチャートである。
まず、グリッド内のピクセルのRGB値をHSI色空間に変換する(S411)。この色空間の変換は、HSI色空間は知覚される色空間と近く、知覚される色の違いはHSI色空間におけるユークリッド距離と相関が高いためである。
その後、平均値シフト法(Mean Shift Algorithm)によって、各グリッド内のピクセルをセグメント化する(S412)。平均値シフト法は、画像をセグメント化するための多用途の方法で、基本画素群(basic image clusters)の数を減らすことができる。
その後、セグメント化された領域のうち、小さい領域(すなわち、断片化され、ノイズによって生じた領域)を除去する(S413)。
その後、数式(6)を用い、グリッドの類似度を示す平均ベクトルを計算する(S414)。
そして、ステップS411からS414の処理を繰り返し、全てのグリッドについて平均ベクトルを計算する。
その後、計算された平均ベクトル間のユークリッド距離を用いて、隣接するグリッドの類似度を計算する(S415)。
次に、本発明の処理によって、航空写真がどのように変化するかを説明する。
本発明の実施の形態では、航空写真から、効率的に建物形状を抽出することができる。また、本実施の形態の方法は、他のデータを使用することなく、建物形状を抽出することができる。
さらに、建物の位置だけでなく、直線で囲まれた建物のモデルに基づいて、建物の幾何学的な形状を抽出することができる。これは、幾何学的誤差を小さくし、複雑な建物形状を単純化する。
図15に示すように、建物の屋根は、通常、棟を有し、複雑な形状である。建物の屋根は、撮影条件や撮像素子の限界によって、ぼやけてしまう。建物の屋根の画像は、図16に示すように、所定のグリッド上に描かれる。
図17に示すように、ステップS31において抽出された画像のエッジは、建物の物理的な境界と一致する。また、画像中のノイズが、エッジとして検出される。
前述したように、抽出された線形のエッジはSLSに当てはめられる(S32)。その後、ステップS33でヒストグラムが生成される。次に、SLSの角度ヒストグラムに基づいて建物の方向を抽出する(S34)。SLSは、図18及び 図20に示すように、建物の方向に垂直な線分と平行な線分とに分類される。
その後、建物の方向に垂直な線分に基づいて、図19に示す垂直方向の分割線が抽出され、建物の方向に平行な線分に基づいて、図21に示す平行方向の分割線が抽出される(S361)。
その後、図22に示すように、抽出された分割線を用いて生成されたグリッドによって、建物領域が分割される。
図23は、類似するセルを結合して建物の屋根領域を生成し(S41、S42)、生成された屋根領域から抽出された境界線によるポリゴン(図24)が建物形状としてデータベースに格納される(S51)。
図25Aから図25Gは、実際の画像からの建物形状の抽出を説明する図である。
建物領域(ROI)が抽出された航空写真から画像エッジが抽出される(S31、図25A)。その後、抽出された画像エッジが線分(SLS)に当てはめられる(S32、図25B)。抽出された線分は、建物方向と水平な方向の線分と垂直な方向の線分とに分類される(S35、図25C、図25D)。
その後、分類された二つのクラスの線分に基づいて、グリッドが生成される(S36、図25E)。次に、グリッドによって生成されたセルの類似度を計算し、類似と判定されたセルをマークする(S41、図25F)。そして、類似と判定されたセルを結合し(S42、図25G)、結合されたセルの外形線で囲まれた建物形状のポリゴンを生成する(S51、図25H)。
このように、複数の建物領域において抽出された建物形状を一つの地図上に表示することによって、図26に示す建物形状地図を作成することができる。
航空写真から建物形状を抽出する場合、建物のエッジが弱かったり、他の建物形状との重なりによって、建物のエッジが全部又は部分的に見えない場合がある。このような場合、従来の方法(エッジリンク法)によると、エッジを結合するために検出されるエッジが弱い、直角が不正確、等の状態は、正確なエッジの候補を定めるのには十分ではない。そのため、通常は、建物のエッジの見えない部分は建物形状が抽出できない。一方、領域ベース手法では、対象の建物の境界の位置が不正確なことがある。具体的には、画像のエッジまで、建物領域の画素が拡張しないので、重なりがある画像のエッジまで建物領域を引き出す方法がない。
本発明の実施の形態によると、基本的な特徴(例えば、エッジ、領域)を直線の建物モデルに融和させた。その結果、複雑なケース、例えば、エッジが弱い場合や、エッジの重なりがあっても、地理的な建物モデルと基本的な特徴とを適切に対応させる。このため、本発明の実施の形態によると、従来の技術と比較し、正確に建物形状を抽出することができる。
110 入力部
111 画像入力部
112 位置入力部
120 表示部
130 画像記録部
140 演算部
150 地図出力部
160 記憶部
121 画像表示部
122 地図表示部

Claims (10)

  1. 空中写真から建物の形状を抽出する地理情報生成システムであって、
    プログラムを実行するプロセッサと、前記プログラムの実行に必要なデータを記憶するメモリと、前記空中写真を格納する記憶部と、を備え、
    前記プロセッサは、
    形状を抽出する対象となる前記建物の位置の指定を受け付け、
    隣接する画素の類似性が閾値より高い画素を抽出することによって、エッジを抽出する範囲である建物領域を定め、
    前記定められた建物領域が、前記指定された位置を含まない場合、前記閾値を低く変更して、再度、隣接する画素の類似性が前記変更された閾値より高い画素を抽出することによって、エッジを抽出する範囲である建物領域を定め、
    前記記憶部に格納された空中写真中の隣接する画素の特徴量に基づいて、画像のエッジを検出し、
    前記検出されたエッジの方向を解析することによって、建物の方向を抽出し、
    前記抽出された建物の方向の直線を用いて、該建物の外形のポリゴンを生成することを特徴とする地理情報生成システム。
  2. 前記検出されたエッジが当てはまる線分を定め、
    前記定められた線分の角度に基づいて前記建物の方向を定め、
    前記定められた線分を、前記定められた建物の方向又は該方向と直交する方向に分類し、
    前記分類された線分が存在する位置にグリッドを生成し、
    前記生成されたグリッドに従って、該建物の外形のポリゴンを生成することを特徴とする請求項1に記載の地理情報生成システム。
  3. 前記生成されたグリッドによって区分された各領域の色スペクトルを計算し、前記計算された色スペクトルに基づいて隣接する前記各領域の類似度を計算し、
    前記計算された類似度が所定の閾値より大きい領域を結合して、直線で囲まれた建物形状のポリゴンを生成することを特徴とする請求項2に記載の地理情報生成システム。
  4. 前記定められた線分の長さによって重み付けされた、当該線分の位置の第1頻度を求め、前記第1頻度が所定の閾値より大きい位置に前記グリッドを構成するグリッド線を生成し、
    前記生成されたグリッド線の近くの線分の第1頻度が、当該グリッド線の第1頻度に加算されるように、当該グリッド線の第1頻度を計算することを特徴とする請求項2に記載の地理情報生成システム。
  5. 前記定められた線分の長さによって重み付けされた、当該線分の角度の第2頻度を求め、前記第2頻度が高い角度を建物の方向に定めることを特徴とする請求項3に記載の地理情報生成システム。
  6. 空中写真から建物の形状を抽出する地理情報生成方法であって、
    前記方法は、プログラムを実行するプロセッサと、前記プログラムの実行に必要なデータを記憶するメモリと、前記空中写真を格納する記憶部と、を備える計算機システムで実行され、
    前記方法は、
    形状を抽出する対象となる前記建物について、オペレータによる位置の指定を受け付け、
    エッジを抽出する前に、隣接する画素の類似性が閾値より高い画素を抽出することによって、エッジを抽出する範囲である建物領域を定め、
    前記定められた建物領域が、前記指定された位置を含まない場合、前記閾値を低く変更して、再度、隣接する画素の類似性が前記変更された閾値より高い画素を抽出することによって、エッジを抽出する範囲である建物領域を定め、
    前記記憶部に格納された空中写真中の隣接する画素の特徴量に基づいて、画像のエッジを検出し、
    前記検出されたエッジの方向を解析することによって、建物の方向を抽出し、
    前記抽出された建物の方向の直線を用いて、該建物の外形のポリゴンを生成することを特徴とする地理情報生成方法。
  7. 前記検出されたエッジが当てはまる線分を定め、
    前記定められた線分の角度に基づいて前記建物の方向を定め、
    前記定められた線分を、前記定められた建物の方向又は該方向と直交する方向に分類し、
    前記分類された線分が存在する位置にグリッドを生成し、
    前記生成されたグリッドに従って、該建物の外形のポリゴンを生成することを特徴とする請求項6に記載の地理情報生成方法。
  8. 前記生成されたグリッドによって区分された各領域の色スペクトルを計算し、前記計算された色スペクトルに基づいて隣接する前記各領域の類似度を計算し、
    前記計算された類似度が所定の閾値より大きい領域を結合して、直線で囲まれた建物形状のポリゴンを生成することを特徴とする請求項7に記載の地理情報生成方法。
  9. 前記定められた線分の長さによって重み付けされた、当該線分の位置の第1頻度を求め、前記第1頻度が所定の閾値より大きい位置に前記グリッドを構成するグリッド線を生成し、
    前記生成されたグリッド線の近くの線分の第1頻度が、当該グリッド線の第1頻度に加算されるように、前記第1頻度を計算することを特徴とする請求項7に記載の地理情報生成方法。
  10. 前記定められた線分の長さによって重み付けされた、当該線分の角度の第2頻度を求め、前記第2頻度が高い角度を建物の方向に定めることを特徴とする請求項7に記載の地理情報生成方法。
JP2009224204A 2009-09-29 2009-09-29 地理情報生成システム及び地理情報生成方法 Active JP5360989B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009224204A JP5360989B2 (ja) 2009-09-29 2009-09-29 地理情報生成システム及び地理情報生成方法
US12/850,816 US8483425B2 (en) 2009-09-29 2010-08-05 Geospatial information creating system and geospatial information creating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009224204A JP5360989B2 (ja) 2009-09-29 2009-09-29 地理情報生成システム及び地理情報生成方法

Publications (2)

Publication Number Publication Date
JP2011076178A JP2011076178A (ja) 2011-04-14
JP5360989B2 true JP5360989B2 (ja) 2013-12-04

Family

ID=43780443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009224204A Active JP5360989B2 (ja) 2009-09-29 2009-09-29 地理情報生成システム及び地理情報生成方法

Country Status (2)

Country Link
US (1) US8483425B2 (ja)
JP (1) JP5360989B2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8817049B2 (en) * 2011-04-29 2014-08-26 Microsoft Corporation Automated fitting of interior maps to general maps
US9086484B2 (en) * 2011-06-30 2015-07-21 The Boeing Company Context-based target recognition
US9639757B2 (en) * 2011-09-23 2017-05-02 Corelogic Solutions, Llc Building footprint extraction apparatus, method and computer program product
AU2012345876B2 (en) * 2011-11-29 2018-06-07 Pictometry International Corp. System for automatic structure footprint detection from oblique imagery
CN103455995B (zh) * 2012-05-31 2016-08-03 富士通株式会社 图像处理装置、图像处理方法和扫描仪
KR101225208B1 (ko) * 2012-06-14 2013-01-22 (주)대한지적기술단 폴리건 자동생성 수치지도 시스템 및 이를 이용한 수치지도 제작 방법
US9031281B2 (en) * 2012-06-22 2015-05-12 Microsoft Technology Licensing, Llc Identifying an area of interest in imagery
US20140119639A1 (en) * 2012-10-31 2014-05-01 Microsoft Corporation Water-body classification
US9547805B1 (en) * 2013-01-22 2017-01-17 The Boeing Company Systems and methods for identifying roads in images
CN104080039B (zh) * 2013-03-26 2017-12-05 富士通株式会社 无线定位方法和装置
US9031325B2 (en) 2013-07-19 2015-05-12 Digitalglobe, Inc. Automatic extraction of built-up footprints from high resolution overhead imagery through manipulation of alpha-tree data structures
US10444954B2 (en) * 2013-11-11 2019-10-15 Here Global B.V. Distinguishable geographic area presentation
US9619711B2 (en) 2014-09-29 2017-04-11 Digitalglobe, Inc. Multi-spectral image labeling with radiometric attribute vectors of image space representation components
US11170215B1 (en) 2016-04-28 2021-11-09 Reality Analytics, Inc. System and method for discriminating and demarcating targets of interest in a physical scene
CN105957114B (zh) * 2016-05-09 2018-12-11 北京小米移动软件有限公司 对图像中多边形进行检测的方法及装置
US10462389B2 (en) * 2016-07-01 2019-10-29 The Boeing Company Method and apparatus for using a regionally specific spectral model to identify the spectral bands for use for isolating remotely sensed materials of interest
US9977962B2 (en) 2016-07-01 2018-05-22 The Boeing Company Method and apparatus for on-board software selection of bands of a hyperspectral sensor based on simulated spectral representation of the region of interest
US10656305B2 (en) * 2016-07-01 2020-05-19 The Boeing Company Method and apparatus for simulating spectral information of geographic areas
JP6712965B2 (ja) * 2017-04-25 2020-06-24 京セラ株式会社 電子機器、生成方法及び生成システム
JP6991574B2 (ja) * 2018-02-15 2022-01-12 東京都公立大学法人 地図データ作成方法および地図データ作成プログラム
CN108564638B (zh) 2018-04-20 2020-07-10 京东方科技集团股份有限公司 一种基于地理图像学确定人流热区的方法和装置
CN108960089A (zh) * 2018-06-20 2018-12-07 中科禾信遥感科技(苏州)有限公司 一种茶树林遥感监测的方法及装置
CN109614513B (zh) * 2018-12-06 2020-07-10 武汉大学 一种面向区域覆盖的遥感影像数据选取方法和系统
CN112689740A (zh) * 2018-12-31 2021-04-20 谷歌有限责任公司 微调的导航方向
CN110796042B (zh) * 2019-10-16 2023-04-21 长江大学 基于偏移阴影样本形态变换的高分遥感影像建筑物提取方法
CN111598101B (zh) * 2020-05-25 2021-03-23 中国测绘科学研究院 基于遥感影像场景分割的城区智能提取方法、系统及设备
CN112819913A (zh) * 2021-02-03 2021-05-18 杭州高斯洪堡科技有限公司 一种生成多尺度房屋检测矢量图的方法
CN113743351B (zh) * 2021-09-14 2023-07-04 北京石油化工学院 一种基于边缘方向语义信息的遥感影像场景识别的方法
CN115471367B (zh) * 2022-09-28 2023-05-23 浙江臻善科技股份有限公司 一种用于闲置农房盘活的房屋归类系统及方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293696A (ja) * 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
US7509241B2 (en) * 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
TW550521B (en) * 2002-02-07 2003-09-01 Univ Nat Central Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings
JP4027130B2 (ja) * 2002-03-19 2007-12-26 株式会社パスコ 図形整形プログラム
US7639842B2 (en) * 2002-05-03 2009-12-29 Imagetree Corp. Remote sensing and probabilistic sampling based forest inventory method
JP4139137B2 (ja) 2002-05-23 2008-08-27 株式会社パスコ 建物外形抽出方法およびシステム
JP4319857B2 (ja) * 2003-05-19 2009-08-26 株式会社日立製作所 地図作成方法
US7752018B2 (en) * 2006-07-20 2010-07-06 Harris Corporation Geospatial modeling system providing building roof type identification features and related methods
US8224097B2 (en) * 2008-06-12 2012-07-17 Sri International Building segmentation for densely built urban regions using aerial LIDAR data
US8209152B2 (en) * 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation

Also Published As

Publication number Publication date
US8483425B2 (en) 2013-07-09
US20110075882A1 (en) 2011-03-31
JP2011076178A (ja) 2011-04-14

Similar Documents

Publication Publication Date Title
JP5360989B2 (ja) 地理情報生成システム及び地理情報生成方法
Brolly et al. Algorithms for stem mapping by means of terrestrial laser scanning
Lee et al. Fusion of lidar and imagery for reliable building extraction
US10521694B2 (en) 3D building extraction apparatus, method and system
US20150234863A1 (en) Automated feature extraction from imagery
Hormese et al. Automated road extraction from high resolution satellite images
Zeybek Classification of UAV point clouds by random forest machine learning algorithm
Jarząbek-Rychard et al. 3D building reconstruction from ALS data using unambiguous decomposition into elementary structures
JP2006285310A (ja) 森林の樹冠の評価方法及びその樹冠評価プログラム
US11804025B2 (en) Methods and systems for identifying topographic features
Grigillo et al. Automated building extraction from IKONOS images in suburban areas
JP4385244B2 (ja) 地形形状抽出方法、地形形状抽出システム及びプログラム
Koc-San et al. A model-based approach for automatic building database updating from high-resolution space imagery
CN116994029A (zh) 一种用于多源数据的融合分类方法及系统
Jia Object-based land cover classification with orthophoto and lidar data
Wolf et al. Applicability of neural networks for image classification on object detection in mobile mapping 3d point clouds
Zhang et al. Machine learning methods for Unesco Chinese heritage: Complexity and comparisons
Rajji et al. Building height estimation from high resolution satellite images
Li et al. Geometric object based building reconstruction from satellite imagery derived point clouds
Vozikis Automated generation and updating of digital city models using high-resolution line scanning systems
Loghin et al. Supervised classification and its repeatability for point clouds from dense VHR tri-stereo satellite image matching using machine learning
Kanjir et al. Application of object based approach to heterogeneous land cover/use
Koç San Approaches for automatic urban building extraction and updating from high resolution satellite imagery
Grote et al. Road extraction in suburban areas by region-based road subgraph extraction and evaluation
Dibs et al. Analysis of Remotely Sensed Imagery and Architecture Environment for Modelling 3D Detailed Buildings Using Geospatial Techniques

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130830

R150 Certificate of patent or registration of utility model

Ref document number: 5360989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250