JP5086157B2 - 画像判読支援方法 - Google Patents

画像判読支援方法 Download PDF

Info

Publication number
JP5086157B2
JP5086157B2 JP2008097127A JP2008097127A JP5086157B2 JP 5086157 B2 JP5086157 B2 JP 5086157B2 JP 2008097127 A JP2008097127 A JP 2008097127A JP 2008097127 A JP2008097127 A JP 2008097127A JP 5086157 B2 JP5086157 B2 JP 5086157B2
Authority
JP
Japan
Prior art keywords
interpretation
image
feature
result
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008097127A
Other languages
English (en)
Other versions
JP2009251793A (ja
Inventor
竜治 嶺
頼子 風間
伸裕 石丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008097127A priority Critical patent/JP5086157B2/ja
Priority to US12/416,303 priority patent/US8379992B2/en
Publication of JP2009251793A publication Critical patent/JP2009251793A/ja
Application granted granted Critical
Publication of JP5086157B2 publication Critical patent/JP5086157B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、リモートセンシング画像を用いた画像解析、特にその画像判読支援技術に関する。
航空機、ヘリコプター、気球、人工衛星などの飛しょう体によって撮影された画像(以下、リモートセンシング画像と呼ぶ)には様々な地物が存在する。これらの地物を人手によって見分けることを目視判読、画像判読、あるいは、単に判読と呼ぶ。
リモートセンシング画像を目視判読することで、様々な情報を得ることが可能になる。例えば、地震や火災などにより被災した地域の上空から得られるリモートセンシング画像は、その広域性や情報量から、被害状況を把握する上で非常に有用である。また、港湾や公海を撮影したリモートセンシング画像を判読することで、海上交通量の定常的な観測を行うことが可能となる。また、道路や鉄道を含む地域を撮影したリモートセンシング画像を判読することで、道路地図や鉄道地図作成することができる。また、撮影時期をずらして同一地域を複数回撮影して、リモートセンシング画像を得て、それらの画像の差分を抽出することで、道路の建設状況を把握することができる。さらに、地物の構造の整然度をみることで市街化率、農地率、などを算出する指標に用いることもできる。また、火災シミュレーション、市街化開発の推移、都市計画などに役立てることもできる。
このような判読作業は、リモートセンシング画像を計算機のディスプレイに表示して、目視により地物を判読し、個々の地物の種類を示す地物の名称をリモートセンシング画像の上に重畳して記入していくことで行われる。あるいは、リモートセンシング画像を紙などの媒体に印刷し、それを目視によって判読してその結果を紙の上に記入し、その後、判読結果を電子化することもある。
このような判読作業を効率よく行う方法として、これまでに以下の方法が提案されている。すなわち、リモートセンシング画像と、該リモートセンシング画像に対する判読結果を用意し、画像と判読結果を数秒間隔で交互に表示させる、いわゆる、フリッカー表示させることで、人間の視覚の残像効果を利用して効率よく判読作業を進める方法がある。(例えば、特許文献1参照)。
また、分光特性、放射特性、散乱特性、テクスチャ、形状のいずれか、あるいは、これらの組み合わせた技術を用いて、リモートセンシング画像中の地物を自動的に分類(以下、自動分類)する方法が提案されている(例えば、特許文献2)。この自動分類の結果、リモートセンシング画像のどの位置に、どの地物が存在しているかわかる。この結果を判読作業の代わりとする。この文献に開示された手法では、地物の種類ごとに、地物の抽出アルゴリズムやパラメータを変えることで、より高精度な自動分類を実現している。また、地物の種類がわからない場合には、複数の地物抽出アルゴリズムを用いて複数の分類結果を得て、最後に分類結果の尤度(正確度)の高い順に出力する方法も開示されている。
特開2001−338292号公報 特開2001−307106号公報
しかしながら、地物の判読作業は人間が行うので、誤った地物の種類を付与してしまう可能性がある。この地物判読の精度をより高くするためには、同一のリモートセンシング画像に対する判読結果の確認、修正を再度行うことが考えられる。このような見直し作業を複数回繰り返すことにより、徐々に判読精度が高まること期待できる。
しかし、飛しょう体で一度に撮影される範囲は広く、例えば人工衛星で撮像したリモートセンシング画像は数十キロ×数十キロの広範囲に及ぶこともあり、そのような画像の隅々まで目視によって判読するのは非常に時間がかかるという問題があった。また、近年では多くの人工衛星が打ち上げられ、入手可能なリモートセンシング画像が多くなってきている。より正確な地物の判読には複数の衛星からの画像を用いることもあるが、人工衛星の数だけ判読作業量が増えるという問題があった。さらに、飛しょう体に搭載されているセンサの空間分解能も向上する傾向にあり、より正確に地物の判読が行えるようになる一方で、地物の判読に適した画像を拡大して表示すると、限られた大きさのディスプレイ上に広大な画像を表示したり、スクロールしたりするのに時間がかかり、作業時間が増えるという問題があった。
また、特許文献1に記載の方法では、一つ一つの地物に対して人手で判読結果を付与していくので、作業ミスにより同一の地物に対しても異なる判読結果を付与してしまう可能性があった。さらに、地物を見逃す可能性があった。
また、特許文献2に記載の方法では自動分類技術を用いている。しかし、自動分類技術は完全ではなく、飛しょう体のセンサの変動特性、撮像時の気象、撮影場所の照明条件などによって、リモートセンシング画像中の地物の見え方が大きく変動し、分類結果も大きく変わることがある。このため、自動分類結果を判読結果として代用すると、判読結果が安定しないという問題があった。
本発明では、これらの問題を解決する画像判読支援方法、及びその装置を提供することを目的とする。
上記目的を解決するため、本願で開示する発明の概要は以下のとおりである。
まず、センシング画像を目視判読した個々の地物の位置および地物の種類を、センシング画像中の位置と関連づける。つぎに、該センシング画像から地物の種類を自動分類し、分類尤度と位置とを関連づける。そして、この自動分類によって得られた分類尤度のばらつきを調べて、特異な値となる地物を検索して、その位置に存在する地物の判読結果を判読修正候補として提示し、判読作業の修正を容易にする画像判読支援方法を提供する。
また、センシング画像から地物を目視判読した結果得た判読結果を、センシング画像中の位置と関連付けて保存し、センシング画像に基づき地物を自動分類した自動分類結果を、類似度或いは尤度、及びセンシング画像中の位置と関連づけて保存する。そして、自動分類した結果、類似度が他の地物と比べて大きく異なる地物、或いは尤度が閾値以下となる少なくともひとつ以上の地物の位置をもとに、判読結果を検索し、判読結果が異なる地物、すなわち判読結果が誤っている可能性が高い地物を抽出し、ユーザに、該地物の判読結果を判読修正候補として提示し、判読作業の修正を容易にする画像判読支援方法を提供する。
更に、センシング画像から地物を判読するのを支援する画像判読支援装置を記憶部と処理部と表示部とで構成する。そして、この記憶部に、地物を判読した結果の判読結果を、地物のセンシング画像中の位置と関連付けして、且つセンシング画像から地物の種類を、処理部で自動分類した結果の自動分類結果を、地物の類似度あるいは尤度と、地物のセンシング画像中の位置と関連付けしたデータとして保存しておき、処理部において、これらの保存されたデータに基づき、判読修正候補となる地物を抽出し、表示部に判読修正候補として出力する画像判読支援装置を提供する。
自動分類では、好適には、画像から分光特性、放射特性、散乱特性、テクスチャ、形状のいずれか、あるいは、これらの組み合わせによって地物を自動的に分類する。なお、この自動分類に用いる手段は、分光特性、放射特性、散乱特性、テクスチャ、形状のいずれか、あるいは、これらの組み合わせに限定されるものではないことは言うまでもない。
本発明によれば、地物の自動分類技術を利用することで、同一の地物に対する人間の目視判読の曖昧さを減らし、高精度な判読結果を容易に得ることができる。
以下,この発明の実施形態について図面を参照して詳細に説明する。ここで、本願で「地物」とは、人工物であるか自然物であるかにかかわらず、地上に存在しうる物体の概念を表し、河川、山、植物、道路、鉄道、橋、建物、航空機、船舶、車両、列車などを指す。また「地物の種類」とは、河川、山、植物、道路、鉄道等の種別でもよいし、アスファルト道、未舗装の道路、などような種別でもよい。特に後者の自然物の場合は、「地物の種別」とは、植物の名前を指す。
本実施例においては、航空機、ヘリコプター、気球、人工衛星などの飛しょう体のセンサによって地表面の放射・反射電磁波を測定・記録したリモートセンシング画像を対象として説明する。尚、本願の適応対象としては、飛しょう体に搭載したセンサで撮影したリモートセンシング画像に限らず、観測センサの位置と撮影日時が予めわかり,観測対象と観測センサとの距離がある程度あり、さまざまな状況において撮像されたセンシング画像であれば適応可能である。
図1は,画像判読支援装置の第1の実施例を示すブロック構成図である。画像判読支援装置112は観測センサ102から観測信号を得て、画像データベース103にセンシング画像を蓄積する。この画像判読支援装置112は通常の計算機で構成される。この計算機は、少なくとも、画像データベース103等のデータベースや各種プログラムを記憶する記憶部、及びプログラムを実行する中央処理部(CPU)などからなる。また、計算機には、後で説明するディスプレイ、キーボード、マウス等が付属する。更に、各種のデータベースは計算機とネットワークを介して接続された記憶部である外部記憶装置に蓄積することも可能である。
観測センサ102は、例えば都市域や海域などの観測対象を撮影し、観測画像、観測センサの位置、観測対象の位置、観測日時を出力する。観測センサ102の位置は、例えば、緯度、経度、高度の3組の数値で表現できる。観測センサの位置の取得方法は、GPS(Global Positioning System)による方法がある。観測対象の位置は観測センサ102が撮影した領域の範囲と、撮影画像の原点から地物が存在する相対的な位置関係から、地物の緯度、経度を対応付けすることによって求められる。観測センサが撮影した領域の範囲は、例えば、矩形範囲を想定し矩形の北西の緯度と経度、および、矩形の南東の緯度と経度の、4つの数値の組みで表現できる。観測日時は観測センサ102が搭載されている装置に内蔵されている時計の時刻を読み取ることで実現できる。
撮像はユーザの指示に基づくものであっても、予め定めたルールにのっとって所定期間毎に行われるものであっても良い。また、観測センサ102は、光学系センサのような受動型センサでもかまわないし、合成開口レーダのような能動型センサでもかまわない。また、ハイパースペクトルセンサを用いて、各々の観測波長域ごとに画像生成処理を行う構成にしてもよい。
画像表示装置104は、画像データベース103中の画像を表示出力する装置である。上述した計算機のディスプレイなどを用いて実現することができる。画像判読結果入力装置105は、画像を目視判読した結果を判読結果データベース106に入力する装置である。計算機の情報入力手段、たとえばキーボード、マウスや、専用の入力機器などで実現できる。判読結果データベース106には、各画像の判読結果を格納する。判読日時、地物名称、画像IDなどをキーに、判読結果の検索、判読結果の登録などができるようになっている。このデータベース106も計算機の記憶部などに蓄積される。
画像判読支援装置112中の自動分類手段115は、判読結果データベース106から判読した各地物の位置を示す領域座標を引き出すとともに、画像データベース103から判読した画像を引き出し、当該画像の当該領域座標の地物の自動分類を行い、地物の自動分類結果を出力する。
そして、判読結果修正候補抽出手段107は、出力・蓄積される自動分類結果を参照し、判読作業の結果が誤っている可能性が高い地物候補を出力する。その結果は、上述したディスプレイ等の判読結果修正候補表示装置108に表示される。判読作業者は、その候補を見て、判読結果を修正したい場合は、キーボード、マウスなどで構成される判読結果修正結果入力装置109を用いて修正作業をする。判読結果更新手段110は、修正結果を判読結果データベース106に格納する。最後に、判読結果閲覧装置111で、判読結果を参照することができる。なお、自動分類手段115、及び判読結果修正候補抽出手段107、判読結果更新手段110は、例えば上述した計算機の処理部であるCPUで実行されるプログラムで構成される。
図2は、実施例1における画像データベース103で用いられるデータ構造の構成例である。画像データベースは、大きくわけて画像管理テーブル201と画像データ209、210、211、…から構成される。画像管理テーブル201の画像ID202には、画像固有の番号を格納する。撮影日時203には当該画像を撮影した日時を格納する。撮影領域座標204には、当該画像の撮影範囲を格納する。撮影領域の表現方法としては、撮影領域の四隅の緯度と経度で表現できる。画像へのポインタ格納領域205には、画像ID202に対応する画像へのポインタを格納する。ポインタ206、207、208は画像管理テーブル中の各要素と、画像データを関連付ける役割をする。すなわち、このポインタをたどることで画像IDから画像データを参照することができる。例えば、画像IDが1の画像は、ポインタ206をたどり、画像データ209と関連付けられている。
図3は、実施例1における判読結果データベース106で用いられるデータ構造の構成例である。判読結果データベースは、大きくわけて判読結果管理テーブル301と、判読結果データ310、311、312、…から構成される。判読結果管理テーブル301の画像ID302には、画像固有の番号を格納する。撮影領域座標304には、判読の対象にした画像の撮影範囲を格納する。図2の撮影領域座標204と同様に、撮影領域の四隅の緯度と経度で表現する。判読作業時間305には、判読作業の開始日時と終了日時を格納する。判読結果へのポインタ格納領域306には、判読結果データ310、311、312、…へのポインタを格納する。ポインタ307、308、309は判読結果管理テーブル中の各要素と、判読結果データを関連付ける役割をする。すなわち、このポインタをたどることで、画像IDから判読結果データを参照することができる。例えば、画像IDが1の画像は、ポインタ307をたどり、判読結果データ312と関連づけられている。地物ID313には地物のIDを、地物領域座標314には当該地物が位置する座標を、地物名称315には目視判読の結果得られた地物の種類を示す地物名称を、それぞれ格納する。
図15は、実施例1における自動分類手段115で出力される自動分類結果のデータ構造の構成例である。自動分類結果のデータ構造は、後で説明するように、判読結果データベース106に自動分類手段115の結果得られた尤度1516を付け加えた構造になっている。この自動分類結果データを保存する場合は、判読結果データベース106に追加で保存しても良いし、図示されない、別個に設けた自動分類結果データベースに蓄積しても良い。自動分類結果は、大きくわけて自動分類結果テーブル1501と、自動分類結果データ1510から構成される。
同図に明らかなように、自動分類結果管理テーブル1501の画像ID1502には、画像固有の番号を格納する。撮影領域座標1504には、判読の対象にした画像の撮影範囲を格納する。図3の撮影領域座標304と同様に、撮影領域の四隅の緯度と経度で表現する。判読作業時間1514には、判読作業の開始日時と終了日時を格納する。自動分類結果へのポインタ格納領域1506には、自動分類結果データ1510、1511、1512、…へのポインタを格納する。ポインタ1507、1508、1509は自動分類結果管理テーブル中の各要素と、自動分類結果データを関連付ける役割をする。すなわち、このポインタをたどることで、画像IDから自動分類結果データを参照することができる。例えば、画像IDが1の画像は、ポインタ1507をたどり、自動分類結果データ1512と関連づけられている。地物ID1513には地物のIDを、地物領域座標1514には当該地物が位置する座標を、地物名称1515には目視判読の結果得られた地物名称を、尤度1516には自動分類の結果得られた尤度を、それぞれ格納する。
図4は、実施例1における目視判読装置113で用いられる、画像表示装置104および判読結果入力装置105の作業中の一具体例を示す図である。判読結果入力装置の画面401はファイル選択メニュー402から、判読作業を行う対象の画像を選択することができる。画像表示領域405には、選択した画像が表示される。判読作業が行いやすいように、表示倍率選択ボタン403であらかじめ定められたいくつかの拡大倍率から適切な拡大倍率を選んで画像を表示することが可能である。拡大倍率入力領域404は、任意の拡大倍率をキーボードから入力することができる。画像の拡大縮小の微小な調整は、拡大・縮小ボタン414を押すことによって調整することも可能である。また画像表示領域405の脇にはスクロールバー406があり、これをマウスで操作することで地物が映っている画像を適切な位置に表示することができる。
地物の領域を設定するには、ボタン407、408、409、410、411を用いる。例えば、地物として建物等を想定し、地物の領域を矩形で表現したいときには、矩形領域設定ボタン407を押してから、マウスで画像中の地物の外接矩形を描くことで、地物の座標を入力する。また、道路のような線分を地物として想定する場合は、線分領域設定ボタン408を押してから、マウスで画像中の道路の始点および終点を選択することで、地物の座標を入力する。同様に、409は地物を点の集合で表現する場合を想定している。ボタン411は任意の輪郭で地物を表現する場合、ボタン412は任意の形状の領域を想定している。
地物名称選択ボタン412は、地物の名称、即ちこれから判読する地物の種類を、あらかじめ決められたいつかの地物の種類から選ぶ。また、地物名称入力領域413から、地物の種類を示す地物名称を直接入力してもよい。
判読作業が終わったら、確定ボタン414を押し、判読作業を終える。判読作業結果を破棄して途中で終了する場合には、取消しボタン415を押す。
なお、一枚の画像に同一の地物名称を持つ複数の地物が存在する場合は、それらの地物をまとめて選択して地物名称選択ボタン412で地物名称を設定、あるいは、地物名称入力領域413に直接名称を入力するようにしてもよい。このようにすることにより、一つ一つの地物に物体名称を設定する場合に比べ、ユーザの負荷を低減できる。
図11は、実施例1における画像判読支援装置112の画像判読支援フローを示した図である。以下、この図を用いて本実施例の画像判読支援フローを概説する。まず、観測センサ102で、観測対象101を撮影する。撮影した結果は、画像データベース103に格納される(S1101)。そして、格納された画像は画像表示装置104に表示され、図4に示した画像表示装置および判読結果入力装置を用いて、まず人手による目視判読作業を行う(S1102)。続いて、自動分類にて各々の地物に尤度を付与する(S1103)。それから、この自動分類の尤度を用いて、目視判読結果が誤っている可能性がある地物の抽出、すなわち、判読結果修正候補を抽出する(S1104)。最後に、修正が必要と思われる判読結果修正候補に対して判読結果の修正を行う(S1105)。
図12は、上述した画像判読支援フロー中の目視判読(図11のS1102)の処理フローの一具体例を示した図である。以下、この図を用いて画像判読フローを説明する。まず、画像データベース103から、画像判読対象となる画像を選択する(S1201)。次に、選択した画像に含まれる全ての地物判読を行う(S1202)。地物の判読は、地物が図4に示す画像表示領域405に含まれるように、必要に応じてスクロールバー406で画像の表示領域を調整する(S1203)。続いて、判読をしやすいように表示倍率設定403や、表示倍率入力部404に直接倍率を入力したりして、必要に応じて画像を拡大、もしくは、縮小表示する(S1204)。そして、地物の形状に応じて、地物領域形状設定ボタン407、408、409、410、411を選択し(S1205)、マウス等のポインティングデバイスで地物領域を囲む(S1206)。そして選択した地物の名称を入力する(S1207)。
図14は、上述した画像判読支援フロー中の、自動分類にて地物に尤度を付与する処理(図11のS1103)のフローの一具体例を示した図である。以下、この図を用いて、処理フローを説明する。ここでは、画像判読結果データベース106にN個の判読結果データが含まれるとして、i番目の画像(1≦i≦N)に対し以下の処理を行う(S1401)。i番目の判読結果データに含まれる地物すべてを調べながら、地物の名称がjであるとユーザが判読した全ての地物を探索する(S1402)。そして、各々の地物k(1≦k≦M)に対する画像から特徴量を抽出する(S1403)。ここで、Mは、i番目の判読結果データに含まれる地物の個数である。続いて、判読結果データベース106を参照して当該地物kの名称の尤度を計算する。特徴量の抽出手法と尤度の計算方法は、例えば、田村秀行編のコンピュータ画像処理pp.251−286(オーム出版局、2002年12月)に開示されている。最後に計算された尤度を図15に示した自動分類結果1501の尤度1516に格納する。
図11のS1104において、図1の判読結果修正候補抽出手段107は、自動分類結果1501の尤度1516が予め定められた閾値よりも小さい地物をのみを、判読結果修正候補として抽出し、判読結果修正候補表示装置108に送る。
図13は、本実施例における、判読結果修正作業フロー(図11のS1105)の一例を示した図である。以下、この図を用いて、判読結果修正作業フローを説明する。判読結果修正作業フローでは、上述の通り図4に示した目視判読支援装置のインタフェースであるディスプレイやキーボード等を利用することができる。まず、判読結果修正候補表示装置108に表示され、判読結果修正候補抽出手段107で抽出した判読結果修正候補が含まれている画像を選択する(S1301)。次に、その画像に含まれる全ての判読結果修正候補に対して、判読結果修正結果入力装置109を用いて修正作業を行う(S1302)。修正作業は、必要に応じて画像の拡大・縮小表示を行い、人が地物を判読しやすい縮尺でディスプレイに表示する(S1303)。
次に、地物領域の修正が必要か判断し(S1304)、必要であれば地物領域の修正を行う(S1305)。地物領域を指定する形状を変えたい場合は、地物領域形状設定ボタン407、408、409、410、411を押して形状も修正する。さらに、判読結果と画像を比較して、地物の種類を示す地物名称の修正が必要かをユーザが判断し(S1306)、必要であれば地物名称の修正を行う(S1307)。修正作業が行われた場合には、判読結果データ310の地物名称315が修正された地物名称で上書きされる。
このような構成にすることで、判読結果修正候補、すなわち地物の判読結果が誤っている可能性が高い候補を効率よく抽出できるため、高い精度の判読結果を容易に得ることができる。
続いて、本実施例による効率向上について、具体例を例示する。高精度な判読結果を得るのに要する時間は、たとえば以下のようにして見積もることができる。すなわち、10キロメートル×10キロメートルのリモートセンシング画像に10000個の地物が写っており、最初の目視による判読では5%の地物を誤って判読し、判読結果を見直すごとに誤りは半分になると仮定する。この場合、最初の判読で500個の誤り、2回目の判読で250個の誤り、3回目の判読で125個の誤り、…となり、判読の誤りを0にするには合計10回の判読が必要となる。各判読において、10キロメートル×10キロメートルのリモートセンシング画像全域を目視判読する必要がある。すなわち、のべ10000×10回=100000個の地物の目視判読作業が必要となる。
一方、実施例1に示す方法では、2回目の判読においては500箇所の地物についてのみ判読結果の見直しをすればよく、3回目の判読においては250箇所の地物についてのみ判読結果の見直しをすればよい。したがって、誤りを0にするまでに、10000+500+250+…=11000個の地物の目視判読作業ですむことになる。したがって、目視判読を繰り返す場合にくらべ、約9分の1の作業時間ですむことになる。
なお、上述した本実施例では、静止画像を対象に説明したが、動画を対象にして同様の効果を得られる。また、本実施例では、地球の表面を観測することを前提に説明したが、本発明はこの実施形態に限定されるものではない。例えば惑星探査用の宇宙船などにおいても適用可能である。
次に、第2の実施例について説明する。以下では、第1の実施例との違いを中心に述べる。本実施例では、実施例1と異なり、目視判読に先立ち、自動分類が実行される。
図16は、実施例2における、画像判読支援フローを示した図である。以下、この図を用いて画像判読支援フローを概説する。まず、観測センサ102で、観測対象101を撮影する。撮影した結果は、画像データベース103に格納される(S1601)。そして、画像中に写っている地物を自動分類して各々の地物に類似度を付与する(S1602)。そして、画像は画像表示装置104に表示され、図4に示した画像表示装置および判読結果入力装置を用いて、人手による目視判読作業を行う(S1603)。それから、上述の自動分類による類似度を用いて、目視判読結果が誤っている可能性がある地物の抽出、すなわち、判読結果の修正候補を抽出する(S1604)。最後に、修正が必要と思われる候補に対して目視判読結果の修正を行う(S1605)。
図5は、判読結果修正候補抽出(S1604)の処理フローの一例を示した図である。以下、この図を用いて、判読結果修正候補抽出フローを説明する。ここでは、画像判読結果データベース106にN個の判読結果テーブルが含まれるとして、i番目の画像(1≦i≦N)に対し以下の処理を行う(S501)。i番目の画像の判読結果データに含まれる地物すべてを調べながら、地物の名称がjであるとユーザが判読した全ての地物を探索する(S502)。そして、各々の地物k(1≦k≦M)に対する画像から特徴量を抽出する(S503)。ただし、Mは、i番目の判読結果データに含まれる地物の個数である。続いて、判読結果データベース106を参照して当該地物kの名称が、jと判読した地物同士の類似度を計算する(S504、S505)。
類似度の具体的計算法には、本例では画素値からの相互相関係数を用いたが、スペクトル、テクスチャ、輝度分布などの特徴量を用いてもよい。また、地物の全長、全幅を用いてもよい。以下では,相互相関係数例に説明する。相互相関係数は,リモートセンシング画像から所定の大きさでくりぬいた部分画像の画素値から計算する。相互相関係数の算出方法は、例えば、上述した田村秀行編のコンピュータ画像処理pp.252−254に開示されている。最後に、相互相関係数が閾値以下の地物xを抽出し(S506)、それらを判読結果修正候補として出力する。判読結果修正候補を格納するデータの構造は、判読結果データ310を用いることができる。
なお、自動分類の対象となる地物の数が限られる場合は、S1602において類似度の代わりに、尤度を用いることもできる。このときの判読結果修正候補抽出(S1604)の処理フローは、図5において、S505の「相互相関係数を計算」、とあるところを、「尤度を計算」に、S506の「相互相関係数が閾値以下の再判読候補として抽出」、とあるところを、「尤度が閾値以下の地物xを再判読候補として抽出」、とそれぞれ読み替えればよい。
図6は、相互相関係数の一例を示した図である。この例では4つの地物の種類ごとに相関係数を計算し、計算した値が各ます目に格納されている。例えば、地物ID2と地物1の相互相関は0.9と比較的高く、地物ID3と地物ID1の相関は0.8である。
なお上記では、地物同士の類似度を求めるのになお、判読結果修正候補抽出手段107では、全ての地物が判読結果修正の可能性があるとして相互相関係数を計算したが、この実施形態に限定されるものではない。例えば、ユーザが指定した地物のみとの相互相関係数を計算してもよい。
このような構成にすることにより、最初の判読作業でユーザが見逃した地物に対しても判読結果修正候補としてユーザに提示することが可能となる。その結果、効率よく高精度な判読結果を得ることができる。
次に、第3の実施例について説明する。以下では実施例1との違いを中心に述べる。図7は,本実施例に係わる画像判読支援装置の判読結果修正候補抽出手段107のフローの一例を示したのものである。
ここでは、判読結果データベース106にN個の判読結果データが含まれるとして、i番目の画像(1≦i≦N)に対し以下の処理を行う(S701)。i番目の判読結果データに含まれる地物すべてを調べながら、地物の名称がjであるとユーザが判読した全ての地物を探索する(S702)。そして、各々の地物k(1≦k≦M)に対する画像から特徴量を抽出する(S703)。ただし、Mは、i番目の判読結果データに含まれる地物の個数である。
続いて、判読結果データベース106を参照して当該地物kの名称が、地物名称jらしい尤度Lを算出する(S705)。尤度Lの算出方法としては、テンプレートマッチング(上述の田村秀行編、コンピュータ画像処理、オーム出版局、pp.259−260)による方法や、統計的に物体を分類する方法(上述の田村秀行編、コンピュータ画像処理、オーム出版局、pp.271―281)などを用いることができる。続いて、地物kの名称がjらしい尤度Lの平均mと、標準偏差sを算出する。最後に、m−s<尤度L<m+sとなる地物xを判読結果修正候補として出力する。判読結果修正候補は、判読結果データ310と同じデータ形式で表現できる。
図8は、判読の結果同一の地物名称を持つと判断された複数の地物に対し、自動分類によって尤度Lを算出した結果を並べたものである。横軸が地物のID、縦軸が尤度をあらわしている。同図中で、801は尤度の平均mを、802は尤度の平均m+標準偏差sを、803は尤度の平均m−標準偏差sを、それぞれあらわしている。そして、804は、尤度Lが尤度の平均m±標準偏差sの間に収まっている地物、805は、尤度Lが尤度の平均m±sの外側にある地物を、それぞれあらわしている。
上記の方法では、尤度の平均と標準偏差からのずれをもって、地物の尤度の許容範囲を表現したが、当然この方法に限定されない。例えば、ロバスト推定(高木幹雄、画像解析ハンドブック、東京大学出版会、2004)などの方法も用いることができる。また、あらかじめユーザが定めた許容範囲をもとに、地物の尤度を設定するようにしてもよい。
また、判読結果修正候補抽出手段107では、全ての地物が判読結果修正の可能性があるとして尤度を計算したが、この実施形態に限定されるものではない。例えば、ユーザが指定した地物のみとの類似の度合いを計算してもよい。
このような構成にすることにより、最初の判読作業でユーザが見逃した地物に対しても判読結果修正候補としてユーザに提示することが可能となる。その結果、効率よく高精度な判読結果を得ることができる。
次に、第4の実施例について説明する。以下では第1の実施例との違いを中心に述べる。図9は、本実施例にかかわる画像判読支援装置における判読結果修正候補抽出手段107のフローを示したものである。この実施例では、画像データベース103を参照しながら、同一の撮影日時近辺で撮影されたリモートセンシング画像を検索し、それら複数のリモートセンシング画像の中から、同一の地物と判読した地物を抽出し、判読結果修正候補を抽出する判定基準に用いる。
すなわち、画像判読結果データベース106にN個の判読結果データが含まれるとして、i番目の画像(1≦i≦N)に対し以下の処理を行う(S901)。i番目の判読結果データを参照して同一の撮影日時の画像ii全てに対して以下の処理を行う(S902)。画像iiに対する判読結果に含まれる全地物を調べながら、地物の名称がjであるとユーザが判読した全ての地物を探索する(S903)。そして、各々の地物k(1≦k≦M)に対する画像から特徴量を抽出する(S904)。ただし、Mは、i番目の判読結果データに含まれる地物の個数である。
続いて、判読結果データベース106を参照して当該地物kの名称が、地物名称jらしい尤度Lを算出する(S906)。尤度Lの算出方法としては、図5の説明と同様な方法で行うことができる。続いて、地物名称jと判読した地物kの名称がjらしい尤度Lの平均mと、標準偏差sを算出する(S907)。最後に、m−s<尤度L<m+sとなる地物xを判読結果修正候補として出力する(S908)。判読結果修正は、判読結果データ301と同一の構造で表現できる。
このような構成にすることにより、より多くの地物を用いて尤度の平均値mおよび標準偏差sを計算することができるので、安定して判読結果修正を抽出することができる。
画像の撮影日時が近い画像のみに絞り込む理由は、撮影日時が近い画像同士は画像の変化が少なく、同じ地物は同じ地物として目視判読、ないしは、自動分類される可能性が高く、尤度のばらつきの計算の正確さが増すためである。
この画像の撮影日時の近さについては、どのような地物を判読するかによって適切に定めておけばよい。地物として、道路、鉄道、橋、建物などを想定するのであれば、それらを建設する長い期間にわたって画像の変化は少ないとみなせるので、たとえば、数ヶ月から数年とすればよい。また、航空機、船舶、車両、列車などの移動物体を想定するのであれば、移動速度に応じて、たとえば、数時間から数日とすればよい。
以上の説明においては、実施例1との差分について述べた。画像判読支援フローとして図11に示したフローの代わりに図16に示したフローを用いた実現方法も考えられる。
図10は、第5の実施例にかかわる画像判読支援装置の判読結果修正候補抽出手段107のフローの一例を示したものである。実施例1との差異についてのみ、以下説明する。この実施例では、画像データベース103を参照しながら、同一の撮影位置付近で撮影されたリモートセンシング画像を検索し、それらの複数のリモートセンシング画像の中から、同一の地物と判読した地物を抽出し、判読結果修正候補を抽出する判定基準に用いる。
すなわち、画像判読結果データベース106にN個の判読結果データが含まれるとして、i番目の画像(1≦i≦N)に対し以下の処理を行う(S1001)。i番目の判読結果データを参照して近隣の撮影位置の画像ii全てに対して以下の処理を行う(S1002)。画像iiに対する判読結果に含まれる全地物を調べながら、地物の名称がjであるとユーザが判読した全ての地物を探索する(S1003)。そして、各々の地物k(1≦k≦M)に対する画像から特徴量を抽出する(S1004)。ただし、Mは、i番目の判読結果データに含まれる地物の個数である。続いて、判読結果データベース106を参照して当該地物kの名称が、地物名称jらしい尤度Lを算出する(S1006)。尤度Lの算出方法としては、図5の説明と同様な方法で行うことができる。続いて、地物名称jと判読した地物kの名称がjらしい尤度Lの平均mと、標準偏差sを算出する(S1007)。最後に、m−s<尤度L<m+sとなる地物xを判読結果修正候補として出力する(S1008)。判読結果修正候補は、判読結果データ310を流用して表現できる。
このような構成にすることにより、より多くの地物を用いて尤度の平均値mおよび標準偏差sを計算することができるので、安定して判読結果修正候補を抽出することができる。
画像の撮影位置が近い画像のみに絞り込む理由は、撮影位置が近い画像同士は画像の変化が少なく、同じ地物は同じ地物として目視判読、ないしは、自動分類される可能性が高く尤度のばらつきの計算の正確さが増すためである。また、道路、鉄道、橋など、大きな地物について、同一の地物が含まれている可能性が高いためである。
画像の撮影位置の近隣さについては、どのような地物を判読するかによって適切に定めておけばよい。地物として、道路、鉄道、橋、建物などを想定するのであれば、それらを含む、たとえば、数メートルから数キロメートルとすればよい。また、航空機、船舶、車両、列車などの移動物体を想定するのであれば、移動物体の大きさに応じて、たとえば、数メートルから数十メートルとすればよい。
以上の説明においては、近隣の撮影位置で撮影した画像で絞り込むことを述べたが、実施例4で述べたように撮影日時でさらに絞りこむことも考えられる。
また、以上の説明においては、実施例1との差分について述べた。画像判読支援フローとして図11に示したフローの代わりに図16に示したフローを用いた実現方法も考えられることは言うまでもない。
実施例1の画像判読支援装置のブロック構成図である。 実施例1の画像データベースデータ構造の構成例を示す図である。 実施例1の判読結果データベースのデータ構造の構成例を示す図である。 実施例1の判読結果入力装置の表示画面の例を示す図である。 実施例1の再判読候補抽出手段107の処理フローの一例を示す図である。 実施例1の地物同士の相関度を一覧表にした、相互相関行列の一例を示す図である。 実施例3の再判読候補抽出手段107の処理フローの一例を示す図である。 実施例3の地物分類結果のばらつき具合を示す図である。 実施例4の再判読候補抽出手段107の処理フローの一例を示す図である。 実施例5の再判読候補抽出手段107の処理フローの一例を示す図である。 実施例1の画像判読支援フローの一例を示す図である。 実施例1の画像判読作業フローの一例を示す図である。 実施例1の画像再判読作業フローの一例を示す図である。 実施例1の自動分類にて地物に尤度を付与する処理フローの一例を示す図である。 実施例1の自動分類結果のデータ構造の一例を示す図である。 実施例2の画像判読支援フローの一例を示す図である。
符号の説明
101…観測対象、102…観測センサ、103…画像データベース、104…画像表示装置、105…目視判読結果入力装置、106…判読結果データベース、107…判読結果修正候補抽出手段、108…判読結果修正候補表示装置、109…判読結果修正結果入力装置、110…判読結果更新手段、111…判読結果閲覧装置、201…画像管理テーブル、202…画像ID、203…撮影日時、204…撮影領域座標、205…画像データへのポインタを格納する領域、206…観測画像データへのポインタ、207…観測画像データへのポインタ、208…観測画像データへのポインタ、209…観測画像、210…観測画像、211…観測画像、212…画像データベース、301…判読結果管理テーブル、302…画像ID、303…画像の撮影日時、304…撮影領域の座標、305…判読作業時間、306…判読結果データへのポインタを格納する領域、307…判読結果データへのポインタ、308…判読結果データへのポインタ、309…判読結果データへのポインタ、310…判読結果データ、311…判読結果データ、312…判読結果データ、313…地物ID、314…地物領域座標、315…地物名称、316…判読結果データベース、401…判読結果入力装置の画面、402…判読対象画像ファイル選択ボタン、403…画像拡大表示倍率選択ボタン、404…拡大表示倍率、405…画像表示領域、406…画像スクロールバー、407…地物領域形状設定ボタン、408…地物領域形状設定ボタン、409…地物領域形状設定ボタン、410…地物領域形状設定ボタン、411…地物領域形状設定ボタン、412…地物名称選択ボタン、413…地物名称入力領域、414…確定ボタン、415…取消ボタン、801…尤度の平均値、802…尤度の平均値+標準偏差、803…尤度の平均値−標準偏差物体名、804…当該尤度が、(尤度の平均値+尤度の標準偏差)から(尤度の平均値−尤度の標準偏差)の間に収まっている例、805…当該尤度が、(尤度の平均値+尤度の標準偏差)から(尤度の平均値−尤度の標準偏差)の外にある例、1501…判読結果管理テーブル、1502…画像ID、1503…画像の撮影日時、1504…撮影領域の座標、1505…判読作業時間、1506…判読結果テーブルへのポインタを格納する領域、1507…判読結果テーブルへのポインタ、1508…判読結果テーブルへのポインタ、1509…判読結果テーブルへのポインタ、1510…判読結果テーブル、1511…判読結果テーブル、312…判読結果テーブル、1513…地物ID、1514…地物領域座標、1515…地物名称、1516…尤度。

Claims (2)

  1. 処理部を有し、センシング画像から地物を判読する装置における画像判読支援方法であって、
    複数個の地物について、その種類を判読した判読結果を、前記センシング画像中の位置と関連付けて保存し、
    前記処理部で、前記センシング画像から前記地物の種類自動分類した自動分類結果を、尤度、及び前記センシング画像中の位置と関連づけて保存し、
    前記処理部は、
    前記判読結果から、同一種の地物と判読された複数個の前記地物を抽出し、
    抽出した複数の地物について、前記判読結果を参照して、前記センシング画像中の位置を求め、
    保存した自動分類結果を参照し、前記求めた複数の位置における判読結果のうち、特異な尤度を有する判読結果を判読結果修正候補として出力する
    ことを特徴とする画像判読支援方法。
  2. 処理部を有し、センシング画像から地物を判読する装置における画像判読支援方法であって、
    複数個の地物について、その種類を判読した判読結果を、前記センシング画像中の位置と関連付けて保存し、
    前記処理部で、前記センシング画像から前記地物の種類自動分類した自動分類結果を、類似度あるいは尤度、及び前記センシング画像中の位置と関連づけて保存し、
    前記処理部は、
    保存した自動分類結果を参照しある前記地物と他の類似度が、他の前記地物同士の類似度とは大きく異なる前記地物、或いは前記尤度が所定の閾値以下である少なくとも一個の前記地物の前記位置を求め
    保存した前記判読結果を参照し、求めた位置における判断結果を、判読結果修正候補として出力する
    ことを特徴とする画像判読支援方法。
JP2008097127A 2008-04-03 2008-04-03 画像判読支援方法 Active JP5086157B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008097127A JP5086157B2 (ja) 2008-04-03 2008-04-03 画像判読支援方法
US12/416,303 US8379992B2 (en) 2008-04-03 2009-04-01 Computer-aided image interpretation method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008097127A JP5086157B2 (ja) 2008-04-03 2008-04-03 画像判読支援方法

Publications (2)

Publication Number Publication Date
JP2009251793A JP2009251793A (ja) 2009-10-29
JP5086157B2 true JP5086157B2 (ja) 2012-11-28

Family

ID=41133349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008097127A Active JP5086157B2 (ja) 2008-04-03 2008-04-03 画像判読支援方法

Country Status (2)

Country Link
US (1) US8379992B2 (ja)
JP (1) JP5086157B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5673550B2 (ja) * 2009-11-20 2015-02-18 日本電気株式会社 画像修復システム、画像修復方法及び画像修復プログラム
CN101930547A (zh) * 2010-06-24 2010-12-29 北京师范大学 一种基于面向对象的无监督分类的遥感影像自动分类方法
CN104700100A (zh) * 2015-04-01 2015-06-10 哈尔滨工业大学 面向高空间分辨率遥感大数据的特征提取方法
CN106875481B (zh) * 2016-12-30 2019-04-02 中科星图股份有限公司 一种三维可视化遥感影像地表分类模型的制作方法
CN108229271B (zh) * 2017-01-23 2020-10-13 北京市商汤科技开发有限公司 解译遥感图像的方法、装置和电子设备
CN106683096B (zh) * 2017-01-25 2019-09-03 中国科学院寒区旱区环境与工程研究所 基于卫星遥感影像的冻土灾害信息提取方法及装置
CN107704835B (zh) * 2017-10-16 2020-10-30 北京市遥感信息研究所 一种利用光谱遥感图像识别海上人工设施的方法
US11551032B1 (en) * 2018-03-14 2023-01-10 United States Of America As Represented By The Secretary Of The Navy Machine learning based automated object recognition for unmanned autonomous vehicles
KR20210006971A (ko) 2018-12-18 2021-01-19 구글 엘엘씨 지오로케이션 예측을 위한 시스템 및 방법
CN111126298B (zh) * 2019-12-25 2024-01-09 二十一世纪空间技术应用股份有限公司 遥感信息的解译方法、装置及电子设备
JP7555734B2 (ja) 2020-06-16 2024-09-25 株式会社インテック 家屋異動検出システム、家屋異動検出方法及び家屋異動検出プログラム
CN111931747B (zh) * 2020-10-10 2021-01-29 中南大学 一种适于多任务迭代学习记忆的遥感图像分类方法
CN112668565B (zh) * 2020-12-10 2023-02-14 中国科学院西安光学精密机械研究所 一种针对具有遮挡形变的圆形目标判读方法
CN115455408B (zh) * 2022-09-14 2023-04-07 中国电子科技集团公司第十五研究所 一种网络空间推演与安全评估方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1494942A (en) * 1975-04-01 1977-12-14 Erb D Image interpretation instrument
US5675661A (en) * 1995-10-12 1997-10-07 Northrop Grumman Corporation Aircraft docking system
GB9808712D0 (en) * 1997-11-05 1998-06-24 British Aerospace Automatic target recognition apparatus and process
JP3978979B2 (ja) * 2000-04-20 2007-09-19 株式会社日立製作所 目標物検出方法及び目標物検出装置
JP2001338292A (ja) 2000-05-24 2001-12-07 Kazunari Era 写真画像判読業務支援システム
US7203342B2 (en) * 2001-03-07 2007-04-10 Schlumberger Technology Corporation Image feature extraction

Also Published As

Publication number Publication date
US8379992B2 (en) 2013-02-19
JP2009251793A (ja) 2009-10-29
US20090252424A1 (en) 2009-10-08

Similar Documents

Publication Publication Date Title
JP5086157B2 (ja) 画像判読支援方法
Nikolakopoulos et al. Combination of aerial, satellite, and UAV photogrammetry for mapping the diachronic coastline evolution: the case of Lefkada Island
Nelson et al. DEM production methods and sources
Ehlers et al. Automated analysis of ultra high resolution remote sensing data for biotope type mapping: new possibilities and challenges
Alonzo et al. Mapping tall shrub biomass in Alaska at landscape scale using structure-from-motion photogrammetry and lidar
JP4129879B2 (ja) 画像解析装置、画像解析方法及びプログラム
JP2007293558A (ja) 目標物認識プログラム及び目標物認識装置
KR100948099B1 (ko) 항공 레이저 측량을 이용한 식생의 면적 산출 시스템 및 방법
Oguchi et al. Data sources
Duarte et al. Open-source GIS application for UAV photogrammetry based on MicMac
Wurm et al. Quantification of urban structure on building block level utilizing multisensoral remote sensing data
Iheaturu et al. A simplified structure-from-motion photogrammetry approach for urban development analysis
Bilaşco et al. 3D reconstruction of landslides for the acquisition of digital databases and monitoring spatiotemporal dynamics of landslides based on GIS spatial analysis and UAV techniques
Kumar Forest inventory parameters and carbon mapping from airborne LIDAR
Bornaetxea et al. r. survey: a tool for calculating visibility of variable-size objects based on orientation
Büyüksalih et al. Design for 3D city model management using remote sensing and GIS: A case study for the Golden Horn in Istanbul, Turkey
Milojković et al. Method of topographic inventarization and GPS technology in geospatial modeling
Wu et al. An Assessment of Errors Using Unconventional Photogrammetric Measurement Technology-with UAV Photographic Images as an Example
Ondulo et al. High spatial resolution satellite imagery for Pid improvement in Kenya
Zentai New technologies in making orienteering maps
Ayhan et al. Three dimensional monitoring of urban development by means of ortho-rectified aerial photographs and high-resolution satellite images
Pan Monitoring coastal environments using remote sensing and GIS
JP7505566B2 (ja) 表示制御装置、表示制御方法及びプログラム
CN112734924B (zh) 一种路基边坡实景三维模型可视化建模方法
Gomez Pointcloud Generation in Geomorphology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120906

R150 Certificate of patent or registration of utility model

Ref document number: 5086157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3