JPH11283012A - 陰の認識方法 - Google Patents

陰の認識方法

Info

Publication number
JPH11283012A
JPH11283012A JP10086233A JP8623398A JPH11283012A JP H11283012 A JPH11283012 A JP H11283012A JP 10086233 A JP10086233 A JP 10086233A JP 8623398 A JP8623398 A JP 8623398A JP H11283012 A JPH11283012 A JP H11283012A
Authority
JP
Japan
Prior art keywords
region
area
shadow
image
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10086233A
Other languages
English (en)
Inventor
Kanji Yokogawa
完治 横川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP10086233A priority Critical patent/JPH11283012A/ja
Publication of JPH11283012A publication Critical patent/JPH11283012A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 写真画像中に含まれる陰の領域をコンピュー
タ画像処理によって自動的に認識し、陰の領域に存在す
る対象物の認識率を高め、地図の作成を支援すること。 【解決手段】 リモートセンシング画像を属性が一定の
領域の集合に分割し、2つの互いに隣接する領域につい
て、(a)一方の領域の北端の点が他方の領域に隣接し
ている、(b)2つの領域は同じ色である、(c)一方
の領域は他方の領域に比べて暗い、という3つの条件を
満たすリモートセンシング画像中の2つの領域を探索し
て、陰影の領域を認識する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、航空写真画像や衛
星画像等のいわゆるリモートセンシング画像から、その
画像中に含まれる物体や地形などの対象物の陰の領域を
自動的に認識する方法に係り、リモートセンシング画像
から地図を作成するシステムに使用して好適な陰の認識
方法に関するものである。
【0002】
【従来の技術】航空写真を基に地図を作成する方法が知
られている。ここで、地図とは、地形図、住宅地図、道
路地図、土地利用図、土地被覆図等を指す。航空写真を
用いて前記のような地図を作成する技術については、
「コンピュータマッピング」(坂内、角本、太田、林
著:昭晃堂、1992年p45〜p50)に地図作成手
法と題して記述されている。
【0003】図6は、航空写真画像を用いた従来の地図
作成の手順を示すフローチャートであり、まず、地図作
成の計画を立て(ステップ601)、そにおけ威嚇に基
づいて、基準点測量と水準測量を行い(ステップ60
2)、対象地域を含む空中写真撮影を行う(ステップ6
03)。次に、写真を現状処理し(ステップ604)現
地調査と空中三角測量を並行して行い(ステップ60
5、606)、図化する(ステップ607)。ここで、
「図化」とは、実体図化機(stereo plotter)により航
空写真から道路・建物・等高線等の図面を作成する工程
である。
【0004】次に、補備測量を行い(ステップ60
8)、編集・製図を行い(ステップ609)、最後に地
図として印刷する(ステップ610)。
【0005】ここで、現地調査とは、現像した空中写真
を携行し、樹木の陰などに隠された部分や地名、建物の
名称、土地利用状況など、写真上に表されていない部分
の調査を行うことである。また、補備測量とは、木や建
物の陰、急峻かつ複雑な地形は写真だけでは判断でき
ず、図化できないので、素図を携え、地上測量で補足す
ることである。
【0006】このように、従来においては、樹木などの
陰で隠された部分については、補備測量という人手を使
って陰の部分の領域の地図を作成していた。
【0007】
【発明が解決しようとする課題】近年、電波や光、赤外
を利用する人工衛星を使用したリモートセンシング技術
の進歩により、人が簡単に近づけない場所や広い地域の
物理量を測ることが可能になってきている。特に、衛星
画像はマルチスペクトルのセンサで得られ、その解像度
は1m以下になってきている。そのため、多くの地表の
物体を認識したり、測量したりすることが可能となっ
た。衛星画像の応用範囲は、気象予報、資源探査、汚染
監視等多くの分野に広がっている。当然、衛星画像を用
いた地図の作成が試みられるようになってきた。
【0008】しかし、衛星画像の場合、対象地域が広範
囲に渡り、しかも国内とは限らないので、一般に現地調
査の実施は非常に困難である。したがって、陰の領域の
部分については、陰の存在が障害となり、正確な地図を
作成することが非常に困難であるという問題点を抱えて
いる。これは、現地調査が不可能な航空写真から地図を
作成する場合でも同様である。
【0009】本発明は、このような問題を解決するもの
であり、その目的は、写真画像中に含まれる陰の領域を
コンピュータ画像処理によって自動的に認識し、陰の領
域に存在する対象物の認識率を高め、地図の作成を支援
することができる陰の認識方法を提供することにある。
【0010】
【課題を解決するための手段】上記目的を達成するため
に、本発明は、リモートセンシング画像を属性が一定の
領域の集合に分割し、2つの互いに隣接する領域につい
て、(a)一方の領域の北端の点が他方の領域に隣接し
ている、(b)2つの領域は同じ色である、(c)一方
の領域は他方の領域に比べて暗い、という3つの条件を
満たすリモートセンシング画像中の2つの領域を探索し
て、陰影の領域を認識することを特徴とする。
【0011】
【発明の実施の形態】以下、本発明を図示する実施形態
に基づいて詳細に説明する。まず、本発明の原理につい
て説明する。本発明の陰を認識する処理は、大きく分け
て2段階で行われる。まず、画像を、その属性が一定で
ある領域の集合{Ri|i=1,2,...,n}に分
割する。次に、ある幾つかの条件を満たす陰の領域を探
し出す。最初の段階の画像分割は、既知の方法を用い、
画像全体を幾つかの領域に前もって分割する。この後、
1つ領域を取り出し、その領域内で属性が一様でない場
合、この領域をさらに幾つかの領域に分割する。また、
互いに隣接した幾つかの領域の組を取り出し、この領域
の組の上で属性が一様であれば、領域の組を併合して一
つの領域を生成する。
【0012】以上の分割と併合を可能な限り繰り返し行
い、最終的に画像分割の結果が得られる。1つの一様性
の判断基準は、ある画素の値と領域上の平均値との間の
差の最大値がある閾値を超えるか否かである。画像分割
に関しては、次の文献の113ページ〜116ページに
かけて「Split-and-merge algorithms」と題して記述さ
れている。
【0013】「Theo Pavlidis:Algorithms for Graphic
s and Image Processing, ComputerScience Press, In
c.,1982」 陰の認識の処理の第2段階は、陰に関する3つの条件を
満たす領域の組Ri、Rjを、画像分割して得られた領
域の集合から選び出すことである。陰の領域Riを陰で
ない領域Rjと併合することにより、より正確な地図を
作成できる。
【0014】次の3つの条件(1)〜(3)は、領域R
iは陰の領域であり、領域Rjは陰でない領域であるこ
との十分条件である。
【0015】(1)領域Riと領域Rjは同じ物質で被
覆されている。
【0016】(2)領域Riは領域Rjに比べて暗い。
【0017】(3)領域Riは領域Rjとの境界で領域
Rjの南側に隣接している部分がある。
【0018】条件(1)は必ずしも一般には成立しな
い。しかし、陰の領域とその周囲の領域が同じ性質の土
地である場合が多い。例えば、樹木の周囲に草原が広が
っているとすると、樹木の陰の領域は草原の一部であ
り、陰でない草原の領域に囲まれている。本発明では、
このような種類の陰を処理の対象として考え、この条件
を仮定する。
【0019】条件(2)は陰の言葉の意味から明らかで
ある。条件(3)は太陽が日本を含む北半球の地域で
は、南よりに位置するので、図1のように、陰の領域が
日光の障害物となる建物101の北側に広がり、陰でな
い領域の南側に陰の領域Riと陰でない領域Rjとの境
界が存在することを表している。
【0020】これらの条件から、次のように実際のコン
ピュータ処理に適用しやすい同値または必要条件が導く
ことができる。条件(1)を言い換えると、(4)領域
Riの各波長帯の反射率と領域Rjの各波長帯の反射率
は同じである。明らかに次の条件(5)は条件(4)か
ら導かれる。
【0021】(5)領域Riと領域Rjの色は同じであ
る。また、次の条件(6)は条件(3)の必要条件であ
る。
【0022】(6)領域Riの北端の点が領域Rjに隣
接している。ここで、領域Riの北端の点pN=(x
N,yN)とは、領域Riの点でそのy座標が最大の値
yNをとる点である。ただし、座標系はx軸が東の方
向、y軸が北の方向にそれぞれ向いているものとする。
北端の点pNが領域Rjに隣接しているとは、北端の点
pNの北側の点p=(xN,yN+1)が領域Rjの点
であることである。条件(3)の“南側に隣接してい
る”という表現はややあいまいであるが、この“領域の
北端の点”という概念は明確な意味を持ち、コンピュー
タ処理に向いている。
【0023】以上から、陰の認識の処理は、陰に関する
3つの条件(2)と(5)と(6)を満たす領域の組R
i、Rjを画像分割の結果得られた領域の集合から選び
出すことに帰着する。
【0024】最初に、幾つかの用語の説明を述べる。ま
ず、リモートセンシング画像RSはある大きさの長方形
の画像で、画像に属す各画素RS(x,y)は幾つかの
波長帯の光の強度を成分として持つベクトルである。例
えば、赤外、赤、青、緑の四つの波長帯の光の強度を値
として持つ4次元ベクトルである。したがって、この場
合、リモートセンシング画像は6次元空間となる。領域
は連結した画素の集まりである。言い換えると、領域は
2つ以上の図形に分離していない画像の部分集合であ
る。ただし、1つ以上の穴を含む場合もある。画素の色
は、画素のベクトルを正規化してできる単位ベクトル
(色ベクトルと呼ぶ)のことである。領域の色または色
ベクトルは、その領域全体について領域に属する画素の
色ベクトルを平均したものである。画素の明るさは、画
素のベクトルの大きさである。領域の明るさは、その領
域全体について領域に属する画素の明るさを平均したも
のである。
【0025】画像分割の結果、すなわち、領域の集合
{Ri|i=1,2,...,n}の情報は、リモート
センシング画像RSと同じ大きさの配列IMAGEによ
って表現されている。領域Riに属す点を(x,y)と
すると、IMAGE(x,y)=iとなっている。
【0026】図2(a)は、空間が領域R1、R2、R
3という3つの領域に画像分割されている例を示す。図
2(b)に、これに対応する配列IMAGEの値が示さ
れている。領域R1に属す点(x,y)に対してIMA
GE(x,y)の値は「1」である。言い換えると、同
様に、配列IMAGEの中の値「2」の点の集合が領域
R1を形成し、値「3」の点の集合が領域R1を形成し
ている。この場合、値「3」の方が明るいことを意味し
ている。
【0027】陰の領域を認識する処理は、陰に関する条
件(6)と(5)と(2)をこの順序で領域の組が満た
すかを調べる。但し、条件(6)は隣接した領域の組を
抽出するので、処理効率の都合上、最初に位置する必要
があるが、条件(5)と条件(2)の順序は入れ替わる
ことも原理的に可能である。
【0028】図3は、陰の領域を認識する処理のフロー
チャートである。まず、画像分割で得られた領域の集合
から1つの領域Riを取り出す(ステップ301)。次
に、領域Riの境界を一周して、領域Riの北端の点p
Nの集合を求める(ステップ302)。北端の点は複数
個あることもあり得る。
【0029】なお、領域の境界を一周するアルゴリズム
については、先に挙げたPavlidisの文献の142ページ
〜148ページにかけてContour tracingと題して記述
がある。
【0030】次に、北端の点pNを1つ取り出す(ステ
ップ303)。取り出しに失敗したならば、ステップ3
01に戻る。取りだしに成功したならば、北端の点pN
に隣接する領域Rjを求める(ステップ304)。
【0031】次に、領域Riと領域Rjの色が同じか判
断する(ステップ305)。色が異なれば、ステップ3
03に戻る。色が同じであれば、領域Riが領域Rjよ
り暗いか判断する(ステップ306)。暗くなければ、
ステップ303に戻る。暗ければ、領域Riは陰の領域
と認識する(ステップ307)。次にステップ301に
戻る。全ての領域を調べ尽くすまで、以上の処理を繰り
返す。
【0032】上記のアルゴリズムの中で、領域の色や明
るさを使用しているが、その計算法を説明するために、
ここではより一般的に領域の属性のついてその求め方を
示す。
【0033】配列aは、リモートセンシング画像RSと
同じ大きさの配列で、その要素a(x,y)は点(x,
y)の属性を保持している。領域Riの属性Aはその領
域全体について領域に属する点(x,y)の属性a
(x,y)を平均したものである。
【0034】図4は、領域Riの属性Aを計算するフロ
ーチヤートである。まず、領域Riの境界線上の点(x
s,ys)を求める(ステップ401)。この点は配列
IMAGEを左から右へ、下から上へ走査を行い、最初
にIMAGE(xs,ys)=iとなる点である。
【0035】次に,点(xs,ys)をスタート点とし
て、領域Riの境界を一周し、領域Riのx座標の最小
値x1、最大値x2、および、y座標の最小値y1、最
大値y2を求める(ステップ402)。すなわち、領域
Riを囲む外接長方形の情報を獲得する。なお、領域の
境界線を一周するアルゴリズムは前に述べたようにPa
vlidisの文献に記述されている。
【0036】次に、変数TとSに初期値「0」を設定す
る(ステップ403)。次に外接長方形を左から右へ、
下から上へ走査を行い、IMAGE(x,y)=i、す
なわち、点(x,y)が領域Riの点となるたびに(ス
テップ408)、点(x,y)の属性a(x,y)をT
に加え、Sを「1」だけ増やす(ステップ409)。最
後に、Tを領域Riの面積となるSで割り、領域Riの
属性Aの値が求まる(ステップ412)。
【0037】2つの領域Ri、Rjが同じ色であるか否
かの1つの判断基準ステップ305(図3)は、次の通
りである。
【0038】領域Ri、Rjの色ベクトルをそれぞれV
i,Vjとすると、この色ベクトルの差の絶対値|Vi
−Vj|がある閾値を超えるか否かで決める。ただし、
以上の判断基準は正規化のために乗算、平方根等の計算
を必要とする欠点がある。
【0039】これを簡素化した判断基準として、2つの
波長帯の画像の除算してできる画像、いわゆる比画像を
用いる。例えば、リモートセンシング画像RSの全ての
画素について、赤の波長帯の値を青の波長帯の値で割っ
た値を持つ画素からなる画像が、赤の画像を青の画像で
除算してできる比画像である。
【0040】陰の領域Riの比画像の値と陰でない領域
Rjの比画像の値の差の絶対値がある閾値を超えるか否
かで決める。この判断基準の利点は、計算量が少ないこ
とと、比画像の種類を増やせば、かなり正確な判断が可
能なこと、陰の入射光が日向の入射光に比例することを
仮定すれば、陰と日向の比画像の値は同じになることで
ある。最後の点については、次のように示される。ま
ず、反射係数の定義から、 I0(λ)=p(λ)Ii(λ) ……(1) これを比画像の式に代入して I0(λ1)/I0(λ2)=p(λ1)Ii(λ1)/p(λ2)Ii(λ2) ……(2) 陰の入射光が日向の入射光に比例するので、 Ii′(λ)=aIi(λ) ……(3) したがって、 I0′(λ1)/I0′(λ2)=I0(λ1)/I0(λ2) ……(4) ただし、λ:波長、Ii(λ):日向の入射光、p
(λ):反射係数、I0(λ):日向の反射光、α:定
数、Ii′(λ):陰の入射光、I0′(λ):陰の反射
光。
【0041】領域Riが領域Rjに比べて暗いか否かの
判断基準ステップ306(図3)は領域Riの明るさが
領域Rjの明るさより小さいか否かである。
【0042】次に、本発明の陰の認識方法を利用して陰
の影響を除去する地図作成における応用例について、説
明する。図5(a)は、建物、その建物の敷地、道路、
道路上の陰等からなるリモートセンシング画像を表して
いる。図6(b)は、リモートセンシング画像を上述し
た方法によって画像分割した結果である。道路の部分
は、建物の陰の領域R4と陰でない領域R5に分離され
ている。この段階では、道路は領域R5だけが認識さ
れ、領域R4の部分の情報が欠落している。このため、
画像分割の結果を直接利用して地図を作成しようとする
と、道路の部分は大きな変形を受けてしまう。
【0043】そこで、次の段階で本発明を適用すると、
陰の領域R4と陰でない領域R5の組が探索結果として
得られ、領域R4と領域R5とが本来同じ性質を持つ領
域であることが分かる。そこで、領域R4と領域R5と
を併合し、新たな領域領域R’を生成し、この領域R’
全体が道路であることが確定する。同様に、陰の領域R
3と陰でない領域R1とを併合し、新たな領域R″を得
る。図5(c)は、以上のような陰の認識を行って、得
られた地図を表すものである。このように、従来、陰の
影響で地図の作成が困難であった部分が、本発明の方法
を適用することにより、正当に認識される。これによ
り、現地調査を実施できないような地域の地図を作成す
る作業を支援することができる。
【0044】
【発明の効果】以上のように、本発明の陰の認識方法に
よれば、リモートセンシング画像中の陰を自動的に抽出
することができるので、現地調査が不可能な地域の地図
を作成するのに役立てることができる。
【図面の簡単な説明】
【図1】陰の領域を有する画像の一例を示す図である。
【図2】本発明の陰の認識方法における画像分割の仕方
を説明する図である。
【図3】陰の領域を抽出する処理手順を示すフローチャ
ートである。
【図4】陰の領域の属性を求める処理のフローチャート
である。
【図5】陰が存在する画像から道路地図を作成する場合
の説明図である。
【図6】従来の航空写真による地図作成手順を示すフロ
ーチャートである。
【符号の説明】
Ri…陰の領域、Rj…陰でない領域。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 リモートセンシング画像から地図を生成
    する場合の陰の認識方法であって、 リモートセンシング画像を属性が一定の領域の集合に分
    割し、2つの互いに隣接する領域について、(a)一方
    の領域の北端の点が他方の領域に隣接している、(b)
    2つの領域は同じ色である、(c)一方の領域は他方の
    領域に比べて暗い、という3つの条件を満たすリモート
    センシング画像中の2つの領域を探索して、陰影の領域
    を認識することを特徴とする陰の認識方法。
JP10086233A 1998-03-31 1998-03-31 陰の認識方法 Pending JPH11283012A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10086233A JPH11283012A (ja) 1998-03-31 1998-03-31 陰の認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10086233A JPH11283012A (ja) 1998-03-31 1998-03-31 陰の認識方法

Publications (1)

Publication Number Publication Date
JPH11283012A true JPH11283012A (ja) 1999-10-15

Family

ID=13881085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10086233A Pending JPH11283012A (ja) 1998-03-31 1998-03-31 陰の認識方法

Country Status (1)

Country Link
JP (1) JPH11283012A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003521860A (ja) * 2000-02-04 2003-07-15 セルニウム、インコーポレーテッド 防犯カメラの自動スクリーニングシステム
JP2006252529A (ja) * 2005-02-09 2006-09-21 Asia Air Survey Co Ltd 地物環境状況提供方法及びそのプログラム
WO2007083494A1 (ja) * 2006-01-17 2007-07-26 Nec Corporation 図形認識装置、図形認識方法および図形認識プログラム
JP2007219231A (ja) * 2006-02-17 2007-08-30 Hitachi Software Eng Co Ltd 航空画像処理装置および航空画像処理方法
WO2013002349A1 (ja) * 2011-06-29 2013-01-03 富士通株式会社 植物種識別装置、方法およびプログラム
EP3893149A1 (en) 2020-04-06 2021-10-13 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for correcting road region
US11588955B2 (en) 2020-06-11 2023-02-21 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for image conversion

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003521860A (ja) * 2000-02-04 2003-07-15 セルニウム、インコーポレーテッド 防犯カメラの自動スクリーニングシステム
JP2006252529A (ja) * 2005-02-09 2006-09-21 Asia Air Survey Co Ltd 地物環境状況提供方法及びそのプログラム
WO2007083494A1 (ja) * 2006-01-17 2007-07-26 Nec Corporation 図形認識装置、図形認識方法および図形認識プログラム
US8229162B2 (en) 2006-01-17 2012-07-24 Nec Corporation Graphic recognition device, graphic recognition method, and graphic recognition program
JPWO2007083494A1 (ja) * 2006-01-17 2009-06-11 日本電気株式会社 図形認識装置、図形認識方法および図形認識プログラム
JP4647514B2 (ja) * 2006-02-17 2011-03-09 株式会社日立ソリューションズ 航空画像処理装置および航空画像処理方法
US7809191B2 (en) 2006-02-17 2010-10-05 Hitachi Software Engineering Co., Ltd. Image processing system and image processing method for aerial photograph
JP2007219231A (ja) * 2006-02-17 2007-08-30 Hitachi Software Eng Co Ltd 航空画像処理装置および航空画像処理方法
WO2013002349A1 (ja) * 2011-06-29 2013-01-03 富士通株式会社 植物種識別装置、方法およびプログラム
JP5673823B2 (ja) * 2011-06-29 2015-02-18 富士通株式会社 植物種識別装置、方法およびプログラム
US9230170B2 (en) 2011-06-29 2016-01-05 Fujitsu Limited Plant species identification apparatus and method
EP3893149A1 (en) 2020-04-06 2021-10-13 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for correcting road region
US11842494B2 (en) 2020-04-06 2023-12-12 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for correcting road region
US11588955B2 (en) 2020-06-11 2023-02-21 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for image conversion

Similar Documents

Publication Publication Date Title
Schiewe Segmentation of high-resolution remotely sensed data-concepts, applications and problems
US9619711B2 (en) Multi-spectral image labeling with radiometric attribute vectors of image space representation components
JP2006285310A (ja) 森林の樹冠の評価方法及びその樹冠評価プログラム
CN109840553A (zh) 耕地作物类型的提取方法及系统、存储介质、电子设备
Mostafa et al. Shadow identification in high resolution satellite images in the presence of water regions
Grigillo et al. Automated building extraction from IKONOS images in suburban areas
CN113255452A (zh) 一种目标水体的提取方法及提取系统
JPH11283012A (ja) 陰の認識方法
Luo et al. An evolutionary shadow correction network and a benchmark UAV dataset for remote sensing images
Bolter et al. Detection and reconstruction of human scale features from high resolution interferometric SAR data
Chaloeivoot et al. Building detection from terrestrial images
JP4941420B2 (ja) 目標物検出システム
Hui et al. Individual tree extraction from UAV lidar point clouds based on self-adaptive Mean shift segmentation
JP2001357380A (ja) 画像処理による森林地域の評価方法及びこの評価に関するプログラムを記憶した記憶媒体
JP2009289078A (ja) 目標物検出システム
Dayal et al. Diagnostic utilisation of ground based imaging and non-imaging sensors for digital documentation of heritage sites
Kanjir et al. Application of object based approach to heterogeneous land cover/use
Lopez-Ornelas et al. Satellite image segmentation using graph representation and morphological processing
Liu et al. Identification of Damaged Building Regions from High-Resolution Images Using Superpixel-Based Gradient and Autocorrelation Analysis
Karagianni Road extraction through digital processing and visual interpretation of satellite images
Straub et al. Automatic extraction of trees and buildings from image and height data in an urban environment
Lee Object-oriented classification of urban areas using lidar and aerial images
Narwade et al. Automatic road extraction from airborne LiDAR: A review
He et al. Automatic Registration Between Low-Altitude LiDAR Point Clouds and Aerial Images Using Road Features
Rachee Segmentation of satellite imagery of Amedi site using Chan–Vese model with saliency estimation