JP2012517650A - 場面の内容に基づく点群データの視覚化のための方法及びシステム - Google Patents
場面の内容に基づく点群データの視覚化のための方法及びシステム Download PDFInfo
- Publication number
- JP2012517650A JP2012517650A JP2011550196A JP2011550196A JP2012517650A JP 2012517650 A JP2012517650 A JP 2012517650A JP 2011550196 A JP2011550196 A JP 2011550196A JP 2011550196 A JP2011550196 A JP 2011550196A JP 2012517650 A JP2012517650 A JP 2012517650A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image data
- point cloud
- scene
- radiometric image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Generation (AREA)
Abstract
色と空間データを結びつけるシステム及び方法が提供される。前記システム及び方法において、場面タグが、場所についての放射測定画像800の部分804のために選択される。さらに、前記放射測定画像データの前記第一の部分に関連する前記空間データ200の部分が選択される。前記場面タグに基づいて、前記空間データの前記部分の色空間関数500、600が選択される。前記色空間関数は、前記空間データの高度座標の関数として、色相、彩度及び輝度(HSIを定義する。)前記空間データの前記部分は、前記空間データの前記部分に基づく前記色空間関数から選択されるHSI値を用いて表示される。前記システム及び方法において、場面タグはそれぞれ異なる区分に関連する。各色空間関数は、関連する区分の前記HSI値における所定の異なるバリエーションを表す。
Description
本発明は、点群データの視覚化の分野に関し、特に、場面の内容に基づく点群データの視覚化に関する。
三次元(3D)の検出システムは、様々なアプリケーションで用いる場所についての3D画像を生成するために一般に用いられる。例えば、そのような3D画像は、軍事行動若しくは市民運動、立体地図の生成、又は場所の監視のための、安全訓練の作成又は環境整備に用いられる。そのような検出システムは、一般に、場所に関する高度データを取得することにより動作する。3Dの検出システムの一例は、LIDAR(Light Detection And Ranging)である。LIDARによる3D検出システムは、時に画像フレーム(image frame)と呼ばれるフレームを生成するため、レーザー光の単一のパルスからの複数の距離のエコーを記録することにより、データを生成する。したがって、LIDARデータの各画像フレームは、センサー開口部内の複数の距離のエコーに対応する三次元内の位置の集合(3D点群)で構成される。これらの点は、三次元空間における規則的な格子上の値を表す“ボクセル”へとまとめられる。3D撮像において用いられるボクセルは、2D撮像装置との関連で用いられるピクセルに類似している。これらのフレームは、場所の3D画像を再構築するために処理されることができる。この点について、3D点群における点のそれぞれは、3Dの場面内の実際の面を表す個々のx、y及びzの値を有することが理解されるべきである。
3D点群の解釈(interpretation)をさらに支援するために、カラーマップが点群データの視覚化を高めるために用いられている。すなわち、3D点群内の点のそれぞれのために、色が、高度のような所定の変数にしたがって選択される。したがって、色のバリエーションは、一般に、異なった高さ、あるいは地表からの高度における点を特定するために用いられる。そのような従来のカラーマップの使用にもかかわらず、3D点群データは、解釈するための困難性を有している。
本発明の実施形態は、場面の内容に基づきカラーマップを用いて空間データ又は点群データの視覚化のシステム及び方法を提供する。本発明の第一の実施形態において、場所のための空間データの視覚化及び解釈の改善のための方法が提供される。前記方法は、前記場所の放射測定画像データの第一の部分のための、複数の場面タグから第一の場面タグを選択する段階と、前記空間データの第一の部分を選択する段階であって、前記空間データは、前記放射測定画像データの前記第一の部分に関連する複数の三次元(3D)データ点を含む、段階を有する。前記方法は、複数の色空間関数から前記空間データの前記第一の部分の第一の色空間関数を選択する段階であって、前記選択は前記第一の場面タグに基づき、さらに、前記複数の色空間関数の夫々は、前記複数の3Dデータ点の高度座標の関数として色相、彩度及び輝度(HSI)の値を定義する段階をさらに有する。前記方法は、前記空間データの前記第一の部分に関連する前記複数の3Dデータ点を用いて前記第一の色空間関数から選択される、前記HSI値を用いて前記空間データの前記第一の部分を表示する段階をさらに有する。前記方法において、前記複数の場面タグは、複数の区分に関連し、さらに、前記複数の色空間関数の夫々は、前記複数の区分の一に関連する前記HSI値における異なった所定のバリエーションを表す。
本発明の第二の実施形態において、場所のための空間データの視覚化及び解釈を改善するためのシステムが提供される。前記システムは、前記場所に関連する前記空間データ及び放射測定画像データの受信のための記憶部と、前記記憶部へ通信するように結合される処理部とを有する。前記システムにおいて、前記処理部は、前記場所の放射測定画像データの第一の部分のための、複数の場面タグから第一の場面タグを選択する段階と、前記空間データの第一の部分を選択する段階であって、前記空間データの前記第一の部分は、前記放射測定画像データの前記第一の部分に関連する複数の三次元(3D)データ点を有する、段階のために構成される。前記処理部は、また、複数の色空間関数から前記空間データの前記第一の部分のための第一の色空間関数を選択する段階であって、該選択する段階は前記第一の場面タグに基づき、さらに、前記複数の色空間関数の夫々は、前記複数の3Dデータ点の高度座標の関数として色相、彩度及び輝度(HSI)の値を定義する、段階のためにも構成される。前記システムは、前記空間データの前記第一の部分に関連する前記複数の3Dデータ点を用いて前記第一の色空間関数から選択される、前記HSI値を用いて前記空間データの前記第一の部分を表示する段階のためにさらに構成される。前記システムにおいて、前記複数の場面タグは、複数の区分に関連付けられ、さらに、前記複数の色空間関数の夫々は、前記複数の区分の一に関連する前記HSI値における異なった所定のバリエーションを表す。
本発明の第三の実施形態において、場所に関する空間データの視覚化及び解釈を改善するためのコンピュータプログラムが格納されるコンピュータ読み取り可能な記憶媒体が提供される。前記コンピュータプログラムは、複数のコードの部分を有し、前記複数のコードの部分はコンピュータによって実行可能である。前記コンピュータプログラムは、場所に関する放射測定画像データの第一の部分のための複数の場面タグから第一の場面タグを選択する段階と、前記空間データの第一の部分を選択する段階のためのコードの部分を有し、前記空間データは、前記放射測定画像データの前記第一の部分に関連する複数の三次元(3D)データ点を含む。前記コンピュータプログラムは、複数の色空間関数から前記空間データの前記第一の部分のために第一の色空間関数を選択する段階のためのコードの部分もまた有し、前記選択は前記第一の場面タグに基づき、さらに前記複数の色空間関数の夫々は、前記複数の3Dデータ点の高度座標の関数として色相、彩度及び輝度(HSI)の値を定義する。前記コンピュータプログラムは、前記空間データの前記第一の部分に関連する前記複数の3Dデータ点を用いて前記第一の色空間関数から選択される、前記HSI値を用いて前記空間データの前記第一の部分を表示するためのコードの部分をさらに有する。前記コンピュータプログラムにおいて、前記複数の場面タグは、複数の区分に関連付けられ、前記複数の色空間関数の夫々は、前記複数の区分の一に関連する前記HSI値における異なる所定のバリエーションを表す。
場面の内容に基づきカラーマップを用いて空間データ又は点群データの視覚化を改善するシステム及び方法が提供される。
本発明は、添付される図面への参照と共に説明される。図面において、同様の要素又は同等の要素に対して同様の参照番号が用いられる。図面は一定の比率の縮尺で描かれておらず、本発明のいくつかの実施形態を単に説明するために提供されるに過ぎない。本発明のいくつかの態様が、説明のための応用例への参照と共に、以下に説明される。多数の固有の詳細、関係及び方法が、本発明の完全な理解を提供するために説明されることを理解すべきである。関連する技術分野の当業者は、しかしながら、本発明が、一つ以上の固有の詳細なしに、あるいは他の方法とともに、実行されることができることを容易に理解するであろう。他の例では、既知の構造又は動作は、本発明を曖昧にすることを避けるために示されていない。本発明は、いくつかの動作が、異なる順序及び/又は他の動作若しくはイベントと同時に起こり得るように、説明される動作又はイベントの順序に限定されない。さらに、説明される動作又はイベント全てが、本発明に従う手順を実現するために必要とされるわけではない。
3D画像システムは、3D点群データの一つ以上のフレームを生成する。そのような3D画像システムの一例は、従来のLIDAR画像システムである。一般に、そのようなLIDARシステムは、目標に対する距離を決定するため、高出力のレーザー、光検出器及びタイミング回路を用いる。従来のLIDARシステムにおいて、一つ以上のレーザーパルスが場面(scene)を照らすために用いられる。それぞれのパルスは、検出器アレーと連動して動作するタイミング回路を起動する。一般に、前記システムは、レーザーから目標までと、検出器アレーに戻るまでの往復経路を通過する光のパルスのピクセルごとの時間を測定する。ターゲットから反射された光は検出器アレー内で検出され、往復の伝播時間が、目標上の点への距離を決定するために測定される。計算されたレンジ又は距離の情報は、目標を含む多数の点のために取得されることにより、3D点群が生成される。前記3D点群は、オブジェクトの3D形状を表示するために用いられることができる。
一般に、場面におけるオブジェクトを特定するために3D点群データを解釈することは、困難である可能性がある。前記3D点群は基準場所に関する空間的な情報のみを特定するため、せいぜい場面におけるオブジェクトの高さと形状のみが提供される。いくつかの従来のシステムは、高さの違いを突き止める観察者を支援するため、3D点群データに沿った強度画像もまた提供する。しかしながら、人間の視覚野は、一般に、場面における異なるオブジェクトの形状、大きさ及び色を含む、場面についての情報の組み合わせに基づいて、観察されているオブジェクトを解釈する。したがって、従来の3D点群は、たとえ強度画像と関連付けられても、前記視覚野にとって、3D点群により結像される多数のオブジェクトを適切に特定するために不十分な情報を一般に提供するに過ぎない。一般に、人間の視覚野は、既に観察されたオブジェクト及び既に観察された場面に基づき、場面において観察されるオブジェクトを特定することにより、機能する。結果として、視覚野による場面内のオブジェクトの適切な特定は、オブジェクトの特性の特定だけでなく、場面内の異なるオブジェクトの種類の間の既知の関連の特定に頼る。
従来の3D点群表示システムの制限を克服し、人間の視覚野による3D点群データの解釈を容易にするため、本発明の実施形態は、放射測定画像に基づいて前記3D点群データの異なるエリアに異なるカラーマップを適用するシステム及び方法を提供する。特に、異なる地形種別に関連する異なるカラーマップが、放射測定画像内の関連するエリアのタグ付け又は区分に従って3D点群と関連付けられる。例えば、前記放射測定画像のエリアが、人造の地形のエリアを示すとき(例えば、ビル、車道、乗り物のような、地形が人工の地形又は人造の地形が多数を占める領域)、そのような領域で一般的に観察される色の範囲に関連するカラーマップが、対応する3D点群の領域に適用される。その一方、前記放射測定画像のエリアが、自然の地形のエリアを示すとき(例えば、水、木、砂漠のような、植物又は他の自然の地形が多数を占めるエリア)、それらの種類のエリアで一般的に観察される色の範囲に関連するカラーマップが、対応する3D点群のエリアに適用される。結果として、3D点群の異なる部分へ異なるカラーマップを適用することにより、3D点群の異なる部分内のオブジェクト形状によりもっともらしく関連する色が観察者に示され、そして人間の視覚野によってより容易に認識可能である。
ここで用いられるように、“放射測定画像”の語は、一つ以上の電磁波波長に関して動作する一つ以上のセンサー又は検出器を用いて取得される、場所についての二次元表現(画像)を表す。
本発明の一実施形態による3D点群データ及び関連する画像データの収集のための例示的なデータ収集システム100が、図1に示される。図1において示されるように、結像されるべき物理的な体積(volume)180は、木、乗り物及びビルのような一つ以上のオブジェクト104、106を含むことができる。本発明の目的のため、物理的な体積108は、地理的な場所であると理解されることができる。例えば、地理的な場所は、ジャングル若しくは木々を有する森林エリアの一部、又は都市若しくは多数のビル若しくは他の人工の構造物を有する町の一部であることができる。
本発明のいくつかの実施形態において、物理的な体積108は、様々な異なるセンサーを用いて結像される。図1において示されるように、3D点群データは、一つ以上のセンサー102−i、102−jを用いて収集されることができる。さらに、関連する放射測定画像のデータは、一つ以上の他の放射測定画像センサー103−i、103−jを用いて収集されることができる。センサー102−i、102−j、103−i及び103−jは、あらゆる遠隔に配置されるセンサー又は撮像装置であることができる。例えば、センサー102−i、102−j、103−i及び103−jは、(制限ではない)例として、高い眺望用の構造物、航空機、宇宙船又は天体上で動作するために配置され得る。すなわち、遠隔のデータは、物理的な体積108について上方の、固定又は可動のあらゆる位置から取得される。さらに、センサー102−i、102−j、103−i及び103−jは分離した画像システムとして示されているが、二つ以上のセンサー102−i、102−j、103−i及び103−jが単一の画像システムへと組み合わされることができる。さらに、単一のセンサーは、二つ以上の異なる姿勢(pose)におけるデータを取得するよう構成されることができる。例えば、航空機又は宇宙船上の単一のセンサーは、物理的な体積108上を移動するとき、画像データを取得するよう構成されることができる。
ある場合に、センサー102−i及び102−jとオブジェクト104との間の視界の線が、別のオブジェクト(遮蔽物)106により部分的に不明瞭になることがある。LIDARシステムの場合、遮蔽物106は、木の葉のような自然の物質又は偽装網のような人工の物質からなる可能性がある。多くの場合、遮蔽物106は、事実上、やや透過性(porous)である。それ故、センサー102−i、102−jは、遮蔽物106の透過性のエリアを通じて、可視であるオブジェクト104の断片を検出することができる。そのような透過性のエリアを通じて可視であるオブジェクト104の断片は、センサーの特定の場所に依存して変化する。
例えばセンサー102−i及び102−jにおける複数の姿勢からのデータの収集により、3D点群データの集合が取得されることができる。一般的に、データの集合は、レジストレーション(registration)処理を用いて生ずる。レジストレーション処理は、データが意味のあるように組み合わされることができるよう、センサーの回転に関するフレームと位置との間の変動の修正により、二つ以上のフレームからデータを組み合わせる。当業者によって理解されるように、このデータを整合(register)するために用いられることができる複数の異なる技術が存在する。そのようなレジストレーションの後、二つ以上のフレームから集められた3D点群データは、遮蔽物106により不明瞭にされるオブジェクト104の特定を改善するために分析されることができる。しかしながら、本発明の実施形態は、集められたデータに単に制限されない。すなわち、3D点群データは、複数の画像フレーム又は単一の画像フレームを用いて生成されることができる。
本発明のいくつかの実施形態において、センサー103−i及び103−jにより集められる放射測定画像データは、様々な放射計のセンサーから取得される、波長の特定の範囲にそれぞれ関連する(すなわちスペクトル帯)、画像の輝度データを有することができる。したがって、本発明のいくつかの実施形態において、放射測定画像データは、マルチスペクトル(〜4周波数帯)、ハイパースペクトル(100周波数帯より大きい)及び/又はパンクロマティック(panchromatic)(単一周波数帯)の画像データを含むことができる。さらに、これらの周波数帯は、人間にとって可視又は不可視である波長を含み得る。
本発明のいくつかの実施形態において、3D点群データの集合又はマルチバンドの放射測定画像の融合は、あらゆる種類の集合技術又は融合技術を用いて実行されることができる。前記集合又は融合は、3D点群データ及び放射測定画像データに関連するメタデータに基づいて組み合わせられるべきデータのレジストレーション又は位置合わせ(alignment)に基づくことができる。メタデータは、センサー又は結像される場所に関する、あらゆる追加の情報を含み、レジストレーション処理を容易にするために適切な情報を含むことができる。(制限ではない)例として、メタデータは、日付及び/若しくは画像取得時刻、結像されている地理的な場所を特定する情報又はセンサーの場所を特定する情報を含む。例えば、結像されている地理的な場所を特定する情報は、長方形の画像の4つの角の地理的な座標を含むことができ、メタデータ内で提供されることができる。
本発明のいくつかの実施形態は、ある場所の3D点群データの一つのセットに関して一般に記載されている。その場所は、同一の場所に関連する、ある放射測定画像データの対応するセットと組み合わされる。しかしながら、本発明はそれに関して制限されない。本発明のいくつかの実施形態において、多くの3D点群データ及び多くの放射測定画像データのセットが組み合わせられることができる。例えば、3D点群データ及び/又は放射測定画像データの組み合わせは、本発明のいくつかの実施形態において用いられることができる。
図2は、本発明の一実施形態により取得される3D点群データ200を含む例示的な画像フレームである。本発明のいくつかの実施形態において、3D点群データ200は、図1に示されるように、異なる姿勢におけるセンサー102−i、102−jにより取得される3D点群データのような二つ以上のフレームから組み合わせられることができる。さらに、3D点群データ200は、適切なレジストレーション処理を用いて整合されることができる。そのような、3D点群データ200は、体積内のデータ点のセットの位置を定義し、それぞれがx、y及びz軸上の位置に基づいて三次元空間内で定義されることができる。センサー102−i、102−jにより実行される計測(集合が用いられるならば)及びあらゆる後続のレジストレーション処理は、各データ点のx、y、z位置を定義するために用いられる。すなわち、各データ点は、地理的な場所及び高度に関連する。
本発明のいくつかの実施形態において、3D点群データは、視覚化を改善するために色分けされる。例えば、3D点群データの各点の表示色は、高度又は各点のz軸の位置に従って選択される。どの特定の色を、複数のz軸座標の位置の点のために表示するか決定するため、カラーマップが用いられることができる。例えば、赤色が3メートル未満の高さに位置する全ての点のために用いられることができ、緑色が3メートルと5メートルとの間の高さに位置する全ての点のために用いられることができ、青色が5メートルより上に位置する全ての点のために用いられることができる。より詳細なカラーマップは、z軸に沿ってより小さな増分に従って変動する、より広い範囲の色を用いることができる。カラーマップの使用は、3D点群データにより表現される、視覚化されている構造物においていくらか役に立ち得るが、3D点群データ内の全ての点に対し、従来の単一のカラーマップを適用することは、視覚化の改善の目的にために一般に効果的ではない。まず第一に、例えば従来の赤、緑、青(RGB)カラーマップにおいて広すぎる範囲の色を提供することにより、オブジェクト内で一般に観察される色のバリエーションと一致しない3D点群の色分けのバリエーションを得る。第二に、従来の単一のカラーマップの提供により、いくつかの種類の場面のために不正な色付けがなされる。したがって、本発明の実施形態は、撮像される場所における複数の種類の地形のための複数のカラーマップを用いる、改善された3D点群の視覚化を代わりに提供する。ここで、複数のカラーマップは、一般に地形に関連する異なる種類の地形(すなわち、ビル、木々、車道、水域)のために調整されることができる。そのような構成により、3D点群データの異なるエリアが、そのエリア内のオブジェクトの種類に関係するそれぞれのエリアの色を用いて色分けされることができる。さらに、そのような構成は、人間の視覚野によって、3D点群データの改善された解釈を可能にする。
あらゆる種類の異なるカラーマップが用いられることができるが、本発明のいくつかの実施形態において、色相、彩度及び輝度(HSI色空間)に従って定義される直線的でない(non−linear)カラーマップが、場面のそれぞれの種類のために用いられることができる。ここで用いられるように、“色相”は純粋な色を意味し、“彩度”は色の度合い(degree)又は色のコントラストを意味し、“輝度”は色の明るさを意味する。したがって、HSI色空間における特定の色は、トリプル(triples)と呼ばれるHSI値(h、s、i)のセットにより一意に表される。Hの値は、0から360[度]の範囲に通常は分布し得る(0[度]<h<360[度])。s及びiの値は、0から1の範囲に通常は分布する(0<s<1)、(0<i<1)。便宜上、ここで述べたように、Hの値はh/360として計算される正規化された値として表される。
有意に、HSI色空間は、人間が色を一般に理解するようモデル化されている。したがって、HSI色空間は、異なる場面の3D点群データの視覚化のために異なる色空間を作成するとき役に立ち得る。さらに、HSIトリプルは、よく知られた、赤、緑及び青の“原色”の組み合わせによるRGB色空間系のような、他の色空間の定義へと容易に変換されることができる。したがって、HSI色空間で表される色は、RGBベースの装置で用いるRGB値へと容易に変換されることができる。反対に、RGB色空間で表される色は、HSI色空間へと数学的に変換されることができる。この関係の例は、以下の表において説明される。
したがって、本発明のいくつかの実施形態において、撮像される場所の異なるエリアに適用されるカラーマップは、前記位置のオブジェクトの種類のために適切に選択される。例えば、図4Aは、自然エリアのためにどのようにカラーマップが開発されるかを概念的に表す。図4Aは、自然地域又は地方部に含まれる、いくつかの定義される高度又は標高のレベルを理解するために有益である。図4Aは、全体で透過性の遮蔽物を示し得る木404の傘の真下の、地面401の上にオブジェクト402が配置されることを表す。木404は、地表面405と、地面よりいくらか高いこずえの高さ410の間にあることが観察できる。こずえの高さ410の実際の高さは、木の種類に依存する。しかしながら、予測される木の最上部の高さは、既知の地理的エリア内で予測可能な範囲に収まることができる。例えば、図4Aは、熱帯地方の設定における木404、特にヤシの木を示す。ヤシの木の最上部の高さは、およそ40メートルであると見積もられる。したがって、そのようなエリアのカラーマップは、少なくとも主として、そのようなエリアにおいて一般に観察される種類の木、土及び地面の植物に基づくことができる。図4Aにおいて示されるような熱帯地方の設定の場合、カラーマップは、こずえの高さ410において緑の色相、地表面405において茶の色相のデータ点を提供する。
同様に、図4Bは、都市エリアのためにどのようにカラーマップが開発されるかを概念的に表す。図4Bは、都市部に含まれる、いくつかの定義される高度又は標高のレベルを理解するために有益である。図4Bは、低い都市構造物454(例えば、家)及び高い都市構造物456(例えば、高層ビル)の傍に、オブジェクト402が地面451の上に配置されていることを表す。低い都市構造物454は、地表面405と、地面451よりいくらか高い、低い都市構造物の高さ458との間にあることが観察できる。高い都市構造物456は、地表面405と、地面451よりいくらか高い、高い都市構造物の高さ460との間にあることも観察できる。高さ458、460の実際の高さは、構造物の種類に依存する。しかしながら、予測される高い構造物及び低い構造物の高さは、既知の地理エリア内で予測可能な範囲に収まることができる。例えば、図4Bは、2階建ての家及び4階建てのビルを有する都市エリアを示す。それぞれの構造物の高さは、およそ25メートル及び50メートルであると見積もられる。したがって、そのようなエリアのカラーマップは、少なくとも主として、そのようなエリアにおいて一般に観察される種類の高い構造物456及び低い構造物454並びにそのようなエリアにおける車道に基づくことができる。図4Bにおいて示されるような場合、カラーマップは、高い構造物の高さ460において灰色の色相(例えば、コンクリート)、低い構造物の高さ458において黒又は赤の色相(例えば、赤いレンガ及び黒い屋根板)、地表面405にいて暗い灰色(例えば、アスファルト)の色相のデータ点を提供する。いくつかの実施形態において、カラーマップを単純化するため、全ての構造物は同じ範囲の色に関連付けられ得る。例えば、いくつかの実施形態において、都市部は、灰色のみを指定するカラーマップと関連付けられることができる。
本発明のいくつかの実施形態において、地上の車両のようないくつかの種類のオブジェクトは、複数の種類のエリアに配置されることができる。一般に、地上の車両は、所定の目標の高さの範囲406内の高さを一般に有する。すなわち、そのようなオブジェクトの構造物は、地表面405と、いくらか上部の高さの限度408との間にある。実際の上部の高さの限度は、特定の種類の車両に依存する。例えば、典型的なトラック、バス又は軍事車両の高さは、一般に約3.5メートルである。典型的な乗用車の高さは、一般に約1.5メートルである。したがって、地方部のカラーマップ及び都市部のカラーマップ両方において、そのような高さのデータ点は、観察されている場面の種類に関わらず、そのようなオブジェクトの特定を容易にするため、異なる色が提供される。例えば、いくつかの場面において一般的に遭遇しない色が、観察者に対してそのようなオブジェクトの場所を強調するために用いられることができる。
図5は、地表面より上の高度又は高さにしたがって変動するHSI色空間に基づいて、自然エリア又は地方エリアのような、自然の地形を有するエリア又は場所のための、例示的な正規化されたカラーマップ500の図の表現を表している。カラーマップ500を理解するための支援として、先に図4Aにおいて識別される、いくつかの基準点が提供される。例えば、カラーマップ500は、地表面405、オブジェクトの高さの範囲406に関する上部の高さの限度408及びこずえの高さ410を表す。図5において、色相502、彩度504及び輝度506の正規化された曲線が、地表面405(高さがゼロ)と目標物の範囲の上部の高さの限度408(この例においては約4.5メートル)との間の値の所定の範囲にわたって、それぞれ直線的に変化していることが観察できる。色相502のための正規化された曲線は、上部の高さの限度408においてピーク値に達する。その後、高度がこずえの高さ410へ増加するにつれ、徐々に、かつ、概して直線的に減少する。
彩度及び輝度を表す正規化された曲線も、目標物の範囲の上部の高さの限度408において、局部的なピーク値を有する。しかしながら、彩度及び輝度の正規化された曲線504及び506は非単調である。すなわち、それらは、標高(高度)の増加に伴って値が徐々に増加し、あるいは減少しないことを意味する。本発明の実施形態によれば、それらの曲線のそれぞれは、目標物の高さの範囲408より上の高度の所定の範囲内で最初に値が減少し、次に値が増加する。例えば、図5において、22.5メートル付近で、正規化された彩度曲線504における変曲点が存在することが観察できる。同様に、正規化された輝度曲線506における42.5メートル付近で変曲点が存在する。正規化された彩度曲線504及び正規化された輝度曲線506の直線でない部分における遷移及び変曲点は、正弦曲線のような周期関数としてそれらの曲線のそれぞれを定義することにより得ることができる。さらに、本発明はこの点に関して制限されない。特に、正規化された輝度曲線504は、この場合において約40メートルである、こずえの高さにおいてピーク値へと戻る。
特に、彩度及び輝度の正規化された曲線504、506におけるピーク値は、3D点群データをみるとき、スポット照明効果(spotlighting effect)をもたらす。つまり、目標物の高さの範囲の上部の高さの限度付近に位置するデータ点は、ピーク値である彩度及び輝度を有する。その視覚効果は、目標物の頂上において照明を照らすこととよく似ているので、目標物の存在と種類の特定を容易にする。こずえの高さでの彩度曲線504における二番目のピーク値は、3D点群データをみるとき、同様の視覚的効果を有する。しかしながら、この場合、スポット照明効果というよりむしろ、こずえの高さでの彩度値におけるピーク値は、木の頂上の太陽の光とよく似ている視覚効果を作り出す。輝度曲線506は、こずえの高さに近づくとき、局所的なピーク値を示す。組み合わされる効果は、データをより自然な外観にし、自然に3D点群データの視覚化及び解釈にとても役立つ。
図6は、地表面より上の高度又は高さにしたがって変動するHSI色空間に基づいて、都市エリアのような、人工の地形又は人造の地形を有するエリア又は場所のための例示的な正規化されたカラーマップ600の図の表現を表す。カラーマップ600を理解するための支援として、先に図4Bにおいて識別される、いくつかの基準点が提供される。例えば、カラーマップ600は、地表面405、オブジェクトの高さの範囲406に関する上部の高さの限度408及び高い構造物の高さ460を表す。図6において、地表面405と高い構造物の高さ460との間で、色相602及び彩度606はゼロであり、同時に輝度604は同じ範囲にわたって変化していることが観察できる。そのようなカラーマップは、都市部におけるオブジェクトに共通に関連する色を表す灰色のカラーマップを提供する。図6から、図5における輝度506の変動と完全に同一に、輝度606が変動することが観察できる。このことは、都市部に関連する3D点群データをみるとき、同様のスポット照明効果を提供する。これは、上で説明したように、3D点群データのより自然な配色を提供するだけでなく、前記の3D点群データの自然エリア内のような同様の照明を提供する。すなわち、自然の地形及び人工の地形を有する3D点群データ内の隣接するエリアは、同一の光源により光を当てられるようにみえる。しかしながら、本発明はこの点において制限されず、本発明の他の実施形態において、3D点群の異なる部分の輝度は、異なって変動することができる。
図7を参照すると、それぞれ自然地域及び都市部に関連する、例示的なカラーマップ500及び600の別の表現が示される。前記表現は、3D点群データのセットのための結果の配色のより直感的な理解を得るために有益である。図4Aにおいて前もって説明したように、目標物の高さの範囲406は、地表面405と上部の高さの限度408との間にある。したがって、図7は、−0.08(331[度])と0.20(72[度])の間にある高さの範囲に対応する色相の値と、0.1から1までの彩度及び輝度を有する自然エリア又は場所のカラーマップを提供する。すなわち、目標物の高さの範囲406内の色は、図7において自然地域の例示的なカラーマップにより示されるように、暗い茶色から始まって黄色になる。
図7における自然地域の例示的なカラーマップを再び参照すると、目標物の高さの範囲の上部の高さの限度408とこずえの高さ410の間にある高度に位置するデータ点は、色相の値が0.20(72[度])から0.34(122.4[度])になり、輝度の値が0.6から1.0になり、さらに彩度の値が0.4から1になる。ちなわち、対象物の高さの範囲の上部の高さの限度408と、木のエリアの木のこずえの高さ410との間の色は、図7に示されるように、明るく照らされる緑から始まり、低い彩度により暗く照らされる緑になり、次に明るい彩度で照らされる緑へ戻る。これは、色相のために直線のカラーマップを使用するが、彩度及び輝度のためには正弦曲線をの使用することに起因する。
自然エリア又は自然地域のための図7におけるカラーマップは、地面に対し最も近い位置の点群データの色相が、高度0メートルからおよそ目標物の高さの範囲の上部の高さの限度408までの高度に対応するz軸座標において、急速に変動することを表す。この例において、上部の高さの限度は約4.5メートルである。しかしながら、本発明の実施形態は、この点において制限されない。例えば、この高度の範囲内で、データ点は、色相において暗い茶色(0メートルから始まる)から始まり、中間の茶色、明るい茶色、黄褐色、そして黄色(約4.5メートル)へと変動することができる。便宜上、自然地域のための例示的なカラーマップのための図7における色相は、暗い茶色、中間の茶色、明るい茶色、及び黄色により、粗く表現されている。しかしながら、自然エリア又は自然地域のためのカラーマップにおいて用いられる実際の色のバリエーションは、図7において示されるように、かなり巧妙であることができる。
図7における自然地域の例示的なカラーマップを再度参照すると、暗い茶は、最も低い高度において、自然エリア又は自然地域内の点群データのために有利に選択される。なぜなら、暗い茶は、土又は大地を表すために効果的な、視覚的な象徴(metaphor)を示すからである。色相は、黒い茶色から、中間の茶、明るい茶、黄褐色へと徐々に遷移し、それらの全ては岩及び他の地表を表すために有益な象徴である。言うまでもなく、実際のオブジェクトの色相は、あらゆる自然の場面内のこれらの高度において植物又は地形は他の色相であり得る。例えば、地面は緑色の草で覆われていても良い。しかしながら、本発明のいくつかの実施形態において、3D点群データの視覚化のため、これらの色相における低い高度(0から5メートル)の点群データを、大地の表面に最も近い暗い茶色を用いて一般に表現することが有益であることがわかっている。
自然エリア又は自然地域の図7におけるカラーマップは、高度およそ4.5メートルに対応するz座標を有する点群データのために、黄褐色から黄色への遷移もまた定義する。4.5メートルとは、およそ目標物の高さの範囲406の上部の高さの限度408である。自然エリアのために、目標物の高さの範囲の上部の高さの限度における黄色へ遷移するカラーマップを選択することは、いくつかの利点がある。そのような利点を理解するため、およそ上部の高さの限度406に位置する点群データは、しばしば場面内のオブジェクトの形状に対応する外形又は形状をなし得ることを最初に理解することが重要である。
上部の高さの限度408において黄色の色相で3D点群データを表示するための、図7における自然エリア又は自然地域のためのカラーマップを選択することにより、図5に示すように、いくつかの利点が得られる。黄色の色相は、低い高度において点群データのために用いられる暗い茶色の色相と共に、明確なコントラストを提供する。このことは、地形の表面に対する鋭いコントラストで車両の外形を表示することにより、車両に関する人間の視覚化を支援する。しかしながら、別の利点もまた得られる。黄色の色相は、車両の上面における太陽光の照射の有益な視覚的象徴である。この点に関して、彩度及び輝度曲線もまた、上部の高さの限度408においてピークを表していたことを思い出すべきである。この視覚的な効果は、車両の上面を照らす強烈な太陽光の外観を作り出す。これらの特徴の組み合わせが、3D点群データ内に含まれる目標物の視覚化においてとても役に立つ。
図7における自然地域の例示的なカラーマップをもう一度参照すると、上部の高さの限度408(約4.5メートル)よりすぐ上の高さのために、自然エリア又は自然地域における点群データの色相は、木の葉に対応して明るい緑色として定義されていることが観察できる。明るい緑色は、図5において定義される彩度のピーク値及び輝度のピーク値と一致する。図5に関して上で述べたように、明るい緑色の彩度及び輝度は、上部の高さの限度408(この例においては4.5メートルに対応する)の近くのピーク値から減少する。彩度曲線は、約22メートルの高度に対応する0を有する。輝度曲線は、およそ42メートルに対応する高度において0を有する。最終的に、彩度及び輝度曲線504、506は、それぞれこずえの高さ410において二番目のピークを有する。特に、色相は、上部の高さの限度408より上の高度全体にわたって緑を残している。したがって、目標物の高さの範囲406の上部の高さの制限408より上の3D点群データの視覚的な外観は、自然地域のための例示的なカラーマップのための図7における遷移により示されるように、明るい緑色から、中間の緑色、くすんだうす緑色、そして最終的にこずえの高さ410における明るい黄緑色まで変動するようにみえる。これらの高度のための3D点群データの外観における推移は、図5において示される曲線により定義されるように、緑色に関連する彩度及び輝度における変動に対応する。
特に、彩度及び輝度曲線504、506における二番目のピークは、こずえの高さ410において生じる。図7の自然地域の例示的なカラーマップにおいて示されるように、色相は黄緑色である。この組み合わせの視覚効果は、自然の場面内で木の上部を明るい太陽光で照らす外観を作り出すことである。反対に、彩度及び輝度曲線504、506におけるゼロの値は、こずえの高さより下の、日陰になった低層の植物及び木の葉の視覚的外観を作り出す。
都市部のような、人造の地形又は人工の地形が多くを占めるエリア又は場所の3D点群データのための、同様の着色効果が図7において示される。先に図4Bにおいて説明したように、目標物の高さの範囲406は、地表面405と上部の高さの限度408との間にある。したがって、図7は、0.1から1の幅がある高度の範囲に対応する輝度の値を有する都市エリアのための、例示的なカラーマップを提供する。すなわち、目標物の高さの範囲406内の色は、図7に示すように、暗い灰色から始まって白になる。
図7の都市部のための例示的なカラーマップを再度参照すると、目標物の高さの範囲の上部の高さの限度408と高い構造物の高さ460の間にある高度に位置するデータ点は、既に図6において説明したように、0.6から始まり1.0になる。すなわち、目標物の高さの範囲の上部の高さの限度408から高い構造物の高さ460の範囲の色は、都市部の例示的なカラーマップのための図7における遷移により示されるように、白又は明るい灰色から始まり、中間の灰色になり、次に白又は明るい灰色に戻る。これは、輝度のカラーマップの周期関数の使用に起因する。
図7におけるカラーマップは、都市エリアのような人工の地形又は人造の地形が多くを占める場所における、地表に最も近い位置の点群データの輝度が、0メートルからおよそ目標物の高さの範囲の上部の高さの限度408までの高度に対応するz軸座標において、急激に変動することを表している。この例において、上部の高さの限度は約4.5メートルである。しかしながら、本発明の実施形態は、この点において制限されない。例えば、この範囲の高度のデータ点の色は、(0メートルから始まり)暗い灰色から、中間の灰色、明るい灰色、そして(およそ4.5メートルにおいて)白色まで変動し得る。便宜上、都市部のための図7における色は、暗い灰色、中間の灰色、明るい灰色及び白色の指定により粗く表現されている。しかしながら、都市部及び人工の地形又は人造の地形により多くを占める他の場所のためのカラーマップにおいて用いられる実際の色のバリエーションは、図7において示されるように、かなり巧妙であることができる。
図7の都市エリアのための例示的なカラーマップを再度参照すると、暗い灰色は、最も低い高度における点群データのために有利に選択される。なぜなら、暗い灰色は、車道を表現するために効果的な、視覚的な象徴を示すからである。この例示的なカラーマップ内で、色相は、この暗い灰色から、中間の灰色、明るい茶、次にその間に徐々に遷移し、それらの全ては標識、信号、歩道、路地、街頭及び他の歩行者がアクセス可能な構造物又は車両がアクセス可能な構造物を表すために有益な象徴である。言うまでもなく、これらの高度における実際のオブジェクトの色相は、他の色であることができる。例えば、街路又は車道は、その表面に様々なマークを有することができる。しかしながら、都市部及び他の人工の地形又は人造の地形により多数を占める場所における3D点群データの視覚化のために、これらの色相における低い高度(0から5メートル)の点群データを、大地の表面に最も近い暗い灰色を用いて、一般に表現することが有益であることがわかっている。
都市エリアの図7における例示的なカラーマップは、高度およそ4.5メートルに対応するz座標を有する、都市部における点群データのために、明るい灰色から白色への遷移もまた定義する。4.5メートルとは、およそ目標物の高さの範囲406の上部の高さの限度408である。目標物の高さの範囲の上部の高さの限度における白色へ遷移する都市エリアのカラーマップを選択することは、いくつかの利点がある。そのような利点を理解するため、およそ上部の高さの限度406に位置する点群データは、しばしば場面内のオブジェクトの形状に対応する外形又は形状をなし得ることを最初に理解することが重要である。
上部の高さの限度408において白色で都市部の3D点群データを表示するための、図7における都市エリアのための例示的なカラーマップを選択することにより、いくつかの利点が得られる。白色の色相は、低い高度において点群データのために用いられる暗い灰色の色相と共に、明確なコントラストを提供する。このことは、地形の表面に対する鋭いコントラストで車両の外形を表示することにより、車両に関する人間の視覚化を支援する。しかしながら、別の利点もまた得られる。白色は、オブジェクトの上面における太陽光の照射の有益な視覚的象徴である。この点に関して、輝度曲線もまた、上部の高さの限度408においてピークを表していたことを思い出すべきである。この視覚的な効果は、車両のようなオブジェクトの上面を照らす強烈な太陽光の外観を作る。これらの特徴の組み合わせが、3D点群データ内に含まれる目標物の視覚化においてとても役に立つ。
図7における都市エリアの例示的なカラーマップをもう一度参照すると、上部の高さの限度408(約4.5メートル)よりすぐ上の高さのために、都市部における点群データの色相は、輝度曲線604の0の位置における約22メートルに至るまで、明るい灰色が中間の灰色に遷移するように定義されていることが観察できる。22メートルを超えると、都市部の点群の色は、高い構造物の高さ460における輝度のピークとともに、中間の灰色から明るい灰色又は白色へ遷移するよう定義される。この組み合わせの視覚効果は、都市の場面内の高い構造物の上部を明るい太陽光が照らす外観を作り出すことである。輝度曲線604における0の点は、高い構造物の高さ460より低い、ビルの陰及び他の構造物の日陰側の視覚的外観を作る。
上で述べたように、撮像される場所の異なった部分へ様々なカラーマップを適用する前に、場面のタグ又は場面の区分が撮像される場所の部分のそれぞれのために取得される。この処理は、図8A−8Cにおいて概念的に示される。第一に、図8Aの例示的な画像のような、3D点群データが集められている、関心のある場所の放射測定画像800からの画像データは、図1について上で説明されたように取得されることができる。前記画像データは、いかなる高度情報も含んでいないが、関心のある場所における様々なオブジェクトのサイズ、形状及び境界の情報を含む。そのような情報は、場面タグの作成のために本発明において利用されることができる。すなわち、そのような情報は、3D点群の特定の部分に位置する特徴の一つ以上の種類の数を決定するために用いられることができる。そして、これらの地形は、3D点群の様々な部分のの場面タグを決定するために用いられることができる。例えば、コーナー検出法(corner detector)は、領域が自然の特徴(例えば木又は水)により占められているか、又は人造の特徴により占められているかの決定要因として用いられることができる。例えば、図3Aにおいて示されるように、都市エリア内にみられるより多数のビル302、道路306及び他の人造の構造物により、都市エリアはより多くのコーナーのある特徴を有する傾向がある。反対に、図3Bにおいて示されるように、自然のオブジェクトに一般に関連する不規則なパターン及び形状により、自然エリアはよりそのようなコーナーの特徴がより少ない傾向がある。したがって、関心のある場所の放射測定画像800を取得した後、放射測定画像800は、特徴検出アルゴリズムを用いて分析されることができる。例えば、図8Bは、コーナー検出アルゴリズムを用いて図8Aを分析した結果を表す。例示する目的のため、放射測定画像800においてコーナー検出アルゴリズムにより発見されたコーナーは、マーク802により識別される。
図8Bのための特徴検出はコーナー検出に関して説明されるが、本発明の実施形態はその点に制限されない。本発明のいくつかの実施形態において、あらゆる種類の特徴が、コーナー、ブロブ(blob)及び/又はリッジ(ridge)検出を含み(しかし限定されない)、場面タグの作成のために用いられ、識別されることができる。さらに、本発明のいくつかの実施形態において、識別された特徴は、一つ以上の特定のサイズのオブジェクトの場所を決定するためにさらに用いられることができる。放射測定画像における特徴の数の決定は、放射測定画像に様々な種類の特徴検出アルゴリズムを適用することによりなされることができる。例えば、コーナー検出アルゴリズムは、いつくか例を挙げると、Harrisオペレータ、ShiとTomasiの方法、曲率による方法(level curve curvature)、SUSAN(smallest univalue segment assimilating nucleus)及びFAST(features from accelerated segment test)アルゴリズムを含み得る。しかしながら、あらゆる特徴検出アルゴリズムが、放射測定画像における特定の種類の特徴を検出するために用いられることができる。
しかしながら、本発明の実施形態は、もっぱら地理的な方法に制限されない。本発明のいくつかの実施形態において、放射測定データそのものの分析は、場面タグの作成又は区分のために用いられることができる。例えば、スペクトル解析は、マルチスペクトル画像から近赤外線域(750−900nm)及び/又は中赤外線域(1550−1750nm)及び赤域(600−700nm)を用いて、植物のエリアを発見するために実行されることができる。そのような実施形態において、正規化差植生指標(NDVI(normalized difference vegetation index)=(IR−R)/(IR+R))の計算は、正常な植物の領域を識別するために用いられることができる。そのような分析において、エリアは、正常な植物の総量に従ってタグ付けされることができる(例えば、<0.1 植物なし、0.2−0.3 低木又は草原、0.6−0.8 温帯及び/又は熱帯の熱帯雨林)。しかしながら、本発明のいくつかの実施形態において、あらゆる固有の周波数を用いて特徴を識別することに制限されない。
本発明のいくつかの実施形態において、あらゆる数及び種類のスペクトル帯が、特徴を識別するために評価されることができ、さらに、特徴又はエリアをタグ付け又は区分するために評価されることができる。本発明のいくつかの実施形態において、特徴検出は、一つの方法に制限されない。もっと正確に言えば、本発明のいくつかの実施形態において、あらゆる数の特徴検出方法が用いられることができる。例えば、地理的な分析方法及び放射測定分析方法の組み合わせは、放射測定画像800における特徴を識別するために用いられることができる。
一度、(区分又はタグ付けの目的のために)関心のある特徴が放射測定画像800において検出されると、放射測定画像800はグリッド806を形成するために、例えば図8Cに示されるように、複数の領域804へと分割されることができる。正方形の領域804のグリッド806が図8Cにおいて示されているが、本発明はこの点において制限されず、放射測定画像はあらゆる方法により分割されることができる。制限閾値は、この領域におけるコーナーの数に関して設定されることができる。一般に、そのような制限閾値は、実験的に決定されることができ、地理的な場所により変動することができる。一般に、都市エリア及び自然エリアのコーナーに基づく区分の場合、一般的な都市エリアは、コーナーに関連する多数のピクセルを含むことが予想される。したがって、放射測定画像の領域におけるコーナーの数が、前記閾値より大きい又は等しいとき、都市のカラーマップは、3D点群データの対応する部分のために使用される。
放射測定画像は、領域へのグリッドへと割り当てられることができるが、本発明のいくつかの実施形態において、前記放射測定画像は、特徴の場所(すなわち、マーク802)に基づく領域へと分割されることができる。例えば、領域804は、最初に放射測定画像800内の場所を多数の識別された特徴とともに識別し、さらに、そのようなエリアのため、最小の数の領域を提供するためにグリッド806を中心に配置することにより、選択されることができる。領域804の最初の一つの部分は、最小の数がそのような場所のために使用できるよう選択される。他の領域804の指定は、この初期の設定から進むことができる。カラーマップが放射測定画像の各部分のために選択された後、3D点群データは整合されることができ、放射測定画像と位置合わせされる。そのようなレジストレーションは、上で述べたように、放射測定画像と3D点群データに関連するメタデータに基づくことができる。あるいは、実施形態において、スペクトル解析法が用いられるとき、放射測定画像の各ピクセルは、個別の領域とみなされることができる。結果として、カラーマップは、放射測定画像内のピクセル単位で異なり得る。
あるグリッドのただ一つの例示的な実施形態が図8Cに示されているが、本発明はこの点について制限されるものではない。本発明のいくつかの実施形態において、3D点群データは、あらゆるサイズ及び/又は形状の領域へと分割されることができる。例えば、図8Cにおけるグリッドの大きさと比べて小さいグリッドが、最終的に結合された画像の色解像度を改善するために用いられることができる。例えば、図3Aのエリア300のような、グリッド804の一がビルと木の両方を含むエリアを有するとき、もっぱら都市として一つのグリッドを区分し、対応するカラーマップを適用することは、不適切な配色を有する、多くの木々及び他の自然の地形をもたらすだろう。しかしながら、より小さいサイズの領域を用いることにより、地方部又は自然地域としてタグ付けされる領域の数が増加し得るため、木々及び他の自然の地形が周辺の都市の地形にしたがって色付けされる可能性は減少する。つまり、複数のグリッドが図3Aにおけるエリア300に適用されるとき、エリア300はもっぱり都市であるとみなされないだろう。より正確には、第一のカラーマップが木々308を含むグリッドに適用されることができ、第二のカラーマップがビル302を含むグリッドに適用される。同様に、そのようなより小さいサイズのグリッドにより、図3Bのエリア350におけるビル356が、周辺の木々352に従って色づけされるよりむしろ、適切に色付けされる可能性が高くなる。
3D点群データ及び放射測定画像が整合された後、領域804のそれぞれのカラーマップは、次に、色データを3D点群データへ加えるために用いられる。この処理の例示的な結果のセットは、図9A及び9Bに示される。図9A及び9Bは、本発明の一実施形態に従って色データを加えた後の、3D点群データ900の上からの視点及び遠近法による視点を示す。特に、図9A及び9Bは、自然地域及び都市部の識別並びに図5及び図6における自然地域及び都市部のためにそれぞれ定義されたHSI値の応用に基づく色を含む3D点群データ900を示す。図9A及び9Bにおいて示されるように、点群データ900内のビル902は、現在、それらの識別を容易にするため、図6に従って、灰色で効果的に色分けされている。同様に、点群データ900内の他のオブジェクト904もまた、点群データ900内において、それらの識別を容易にするため図5に従って現在効果的に色分けされている。したがって、色の組み合わせは、3D点群データの視覚化及び解釈を単純化し、さらに観察者に対してより意味のある方法で3D点群データを表示する。
3D点群の部分の区分は、例示的な都市の場面タグ又は自然の場面タグ及び対応するカラーマップに関して説明しているが、本発明の実施形態は、それら二種類の場面タグにもっぱら制限されない。本発明のいくつかの実施形態において、あらゆる数及び種類の場面タグが用いられることができる。例えば、一つの区分の方法は、自然エリアのタグ付け及び都市エリアのタグ付けに加えて、農業エリア又は半農業エリア(及び対応するカラーマップ)のためのタグ付けを含むことができる。さらに、それらのエリアのそれぞれのために、それらのエリアのサブクラスもまたタグ付けされることができ、異なるカラーマップを有することができる。例えば、農業エリア及び準農業エリアは、作物の種類又は植物の種類と同様に、用途の種類に従ってタグ付けされることができる。都市エリアは、その上、用途に従って(例えば、居住用、産業用、商業用、等)タグ付けされることができる。同様に、自然エリアは、植物の種類又は存在している水の地形に従ってタグ付けされることができる。しかしながら、本発明のいくつかの実施形態は、いかなる単一の種類の区分方法にもっぱら制限されない。さらに、あらゆる種類の区分方法が、本発明のいくつかの実施形態とともに用いられることができる。
さらに、既に述べたように、放射測定画像の各ピクセルは、放射測定画像の異なるエリアとみなされることができる。その結果として、スペクトル解析法は、放射測定画像内の特定の種類のオブジェクトを識別するためにさらに利用されることができる。図10は、そのようなスペクトル解析の例示的な結果を示す。図10が示すように、スペクトル解析は、オブジェクトにより反射され及び/又はオブジェクトにより吸収される波長又は周波数帯に基づいて異なる種類の地形を識別するために用いられることができる。図10は、ある電磁波放射の波長のために、植物(緑)、ビル及び他の構造物(紫)並びに水域(青緑色)は、マルチスペクトル画像又はハイパースペクトル画像の一つ以上のスペクトル帯を評価することにより一般に識別されることができる。そのような結果は、オブジェクトのより正確なタグ付けを行うため、3D点群データと組み合わせられ得る。
例えば、正規化差植生指数(NDVI)値は、既に説明した通り、放射測定画像内の植物及び他の地形を識別するために用いられることができ、さらに、3D点群データ内の関連する点へ対応するカラーマップを適用することができる。例えば、タグ付けされているそのような地形の例示的な結果を図11A及び11Bに示す。図11A及び11Bは、本発明の一実施形態に従い、NVDI値を用いたタグ付けにより色データを追加した後の、3D点群データの上からの視点及び遠近法による視点を表す。図11A及び図11Bに示されるように、木々及び他の植物と関連する3D点群データは、様々な緑の色相に関連するカラーマップを用いて色づけされている。地表又は他のオブジェクトのような他の地形は、黒、茶及びぼやけた黄の様々な色相と関連するカラーマップを用いて色付けされている。
地表面の高度が実質的に一定である本発明のいくつかの実施形態について議論してきたが、多くの場合、地表面の高度は変動し得る。説明はしないが、3D点群データにより表現される一つの場面の中でそのような地表面の高度の変動があると、場面の視覚化及びオブジェクトの視覚化が困難になることがある。
本発明のいくつかの実施形態において、カラーマップを3Dデータに適用するとき、地形の高度の変動を説明するために、3D点群データにより表現される場面の体積は、複数の下位の体積へと分割されることができる。これは、図12において概念的に示される。図12において示されるように、3D点群データの各フレーム1200は、複数の下位の体積1202へと分割されることができる。個別の下位の体積1202は、3D点群データの各フレームにより表される全体の体積と比べ、合計の体積において相当に小さくなるよう選択されることができる。下位の体積1202の正確なサイズは、場面において現われる選択されたオブジェクトの予期されるサイズ及び地形の高度の変動に基づいて選択されることができる。さらに、本発明は、下位の体積1202に関していかなる特定のサイズにも制限されない。
下位の体積1002のそれぞれは、3D点群データにより表現される地形の表面の特定の部分と合わせることができる。本発明の一実施形態によれば、地表面405は、下位の体積それぞれのために定義されることができる。地表面405は、下位の体積内の最も低い高度の3D点群データ点として決定されることができる。例えば、LIDARのような種類の測距装置(ranging device)の場合、これは、下位の体積内で測距装置により受信される最後の返答である。下位の体積のそれぞれの地表基準高度を設定することにより、3D点群の様々な部分に用いられるカラーマップは、場面のその部分の真の地表面を適切に基準とされることを可能にする。
本発明に関する先述の説明を踏まえると、本発明は、ハードウェア、ソフトウェア又はハードウェアとソフトウェアとの組み合わせであり得ることが認識されるべきである。発明の配置に従って、方法は、一つの処理システムにおける集中型システムで実現されることができ、あるいは、異なる要素が相互接続された複数のシステムに広くまたがる分散型システムで実現されることができる。ここで示される方法を実行するよう構成されるいかなる種類のコンピュータシステム又は他の装置が適切である。ハードウェアとソフトウェアとの一般的に組み合わせは、読み込まれて実行されるとき、ここで示される方法を実行するようコンピュータシステムを制御する、コンピュータプログラムを有する汎用コンピュータプロセッサ又はデジタル信号プロセッサであり得る。
本発明は、コンピュータプログラム製品内にもまた組み込まれることができる。コンピュータプログラムは、ここで示される方法の実装を可能にする全ての方法を含み、さらに、コンピュータシステム内に読み込まれる時、それらの方法を実行することができる。現在の文脈におけるコンピュータプログラム又はアプリケーションとは、あらゆる言語、コード又は表記法において、システムに、直接的か、a)別の言語、コード又は表記法の変換;b)異なるデータ型の再構成のいずれか又は両方の後かに、特定の機能を実行させる情報処理能力をもたらす、命令のセットのあらゆる表現を意味する。
本発明の様々な実施形態が上で説明されているが、それらは例としてのみ表現され、制限として表現されているものではないことが理解されるべきである。開示される実施形態に対する数値的な変更は、本発明の精神又は範囲を逸脱することなく、本開示書に従ってなされることができる。したがって、本発明の広さ及び範囲は、上で示されたあらゆる実施形態により制限されるべきではない。もっと正確に言えば、本発明の範囲は、後のクレーム及びその均等物に従って定義されるべきである。
本発明は、一つ以上の実装に関して図示され説明されているが、当業者は、本明細書及び付属の図面を読んで理解することにより、均等な変更及び修正に思い当たる。さらに、本発明の特定の特徴は、複数の実装のうちただ一つに関して開示されている可能性があるが、そのような特徴は、あらゆる既知の応用又は特定の応用のために望ましく有益であり得る、他の実装の他の一つ以上の特徴と組み合わせられることができる。
ここで用いられる用語は、特定の実施形態を示す目的のみで使用され、本発明の制限を意図するものではない。ここで用いられるように、単数形の“一つの(a)”、“一つの(an)”及び“前記、該(the)”は、文脈により明示的に他の意味が示されない限りは、同様に複数形を含むことが意図される。さらに、“含んでいる”、“含む”、“有している”、“有する(has)”、“有する(with)”又はそれらの変形の語が詳細な説明及び/又はクレームにおいて用いられる限りでは、そのような用語は“からなる”と同様の方法を含むよう意図される。
他で定義されない限り、ここで用いられる全ての用語(技術用語及び科学用語を含む)は、本発明が属する技術分野の当業者により共通に理解されるものと同一の意味を有する。一般に用いられる辞書において定義されるような用語は、従来技術との関連で、それらの意味と一致する意味を有するよう解釈されるべきであり、ここではっきりとそのように定義されない限り、理想的又は過度に形式的な意味において解釈されない。
100 データ収集システム100
200 空間データ
300 都市部
350 自然地域又は地方部
500 色空間関数
600 色空間関数
800 放射測定画像
200 空間データ
300 都市部
350 自然地域又は地方部
500 色空間関数
600 色空間関数
800 放射測定画像
Claims (12)
- 場所のための空間データの視覚化及び解釈を改善する方法であって:
前記場所の放射測定画像データの第一の部分のための、複数の場面タグから第一の場面タグを選択する段階と;
前記空間データの第一の部分を選択する段階であって、前記空間データは、前記放射測定画像データの前記第一の部分に関連する複数の三次元(3D)データ点を含む、段階と;
複数の色空間関数から前記空間データの前記第一の部分の第一の色空間関数を選択する段階であって、当該選択は前記第一の場面タグに基づき、さらに、前記複数の色空間関数の夫々は、前記複数の3Dデータ点の高度座標の関数として色相、彩度及び輝度(HSI)の値を定義する、段階と;
前記空間データの前記第一の部分に関連する前記複数の3Dデータ点を用いて前記第一の色空間関数から選択される、前記HSI値を用いて前記空間データの前記第一の部分を表示する段階と;
を有し、
前記複数の場面タグは、複数の区分に関連し、さらに、前記複数の色空間関数の夫々は、前記複数の区分の一に関連する前記HSI値における異なった所定のバリエーションを表す
ことを特徴とする方法。 - 前記の第一の場面タグを選択する段階は:
前記放射測定画像データを複数の部分へ分割する段階と;
前記複数の部分の夫々のための前記複数の場面タグの一を選択する段階と;
をさらに有する、請求項1に記載の方法。 - 前記の第一の場面タグを選択する段階は:
前記放射測定画像データの前記第一の部分における一つ以上の特徴の種類を認識する段階と;
前記放射測定画像データの前記第一の部分において認識される前記特徴の種類の少なくとも一に基づく前記空間データの前記第一の部分の前記第一の場面タグを決定する段階と;
をさらに有する、請求項1に記載の方法。 - 前記の認識する段階は、前記放射測定画像データの前記第一の部分の幾何解析と、前記放射測定画像データの前記第一の部分のスペクトル解析とのうち少なくとも一の実行に基づいて、前記特徴の種類を識別する段階をさらに有する、請求項3に記載の方法。
- 前記の幾何解析を実行する段階は、エッジの特徴、コーナーの特徴、ブロブ(blog)の特徴又はリッジ(ridge)の特徴の中の少なくとも一を検出する段階を有する、請求項4に記載の方法。
- 前記放射測定画像データは、複数のスペクトル帯の画像データからなり、さらに、前記のスペクトル解析を実行する段階は、前記複数のスペクトル帯の少なくとも一を評価することにより特徴を検出する段階を有する、請求項4に記載の方法。
- 場所のための空間データの視覚化及び解釈を改善するシステムであって:
前記場所に関連する前記空間データ及び放射測定画像データの受信のための記憶部と;
前記記憶部へ通信するように結合される処理部であって:
前記場所の放射測定画像データの第一の部分のための、複数の場面タグから第一の場面タグを選択する段階と;
前記空間データの第一の部分を選択する段階であって、前記空間データの前記第一の部分は、前記放射測定画像データの前記第一の部分に関連する複数の三次元(3D)データ点を有する、段階と;
複数の色空間関数から前記空間データの前記第一の部分のための第一の色空間関数を選択する段階であって、当該選択は前記第一の場面タグに基づき、さらに、前記複数の色空間関数の夫々は、前記複数の3Dデータ点の高度座標の関数として色相、彩度及び輝度(HSI)の値を定義する、段階と;
前記空間データの前記第一の部分に関連する前記複数の3Dデータ点を用いて前記第一の色空間関数から選択される、前記HSI値を用いて前記空間データの前記第一の部分を表示する段階;
のために構成される、処理部;
を有し、
前記複数の場面タグは、複数の区分に関連付けられ、さらに、前記複数の色空間関数の夫々は、前記複数の区分の一に関連する前記HSI値における異なった所定のバリエーションを表す
ことを特徴とするシステム。 - 前記の第一の場面タグを選択する段階の間、前記処理部は:
前記放射測定画像データを複数の部分へ分割する段階と;
前記複数の部分の夫々のための前記複数の場面タグの一を選択する段階;
のためにさらに構成される、請求項7に記載のシステム。 - 前記の第一の場面タグを選択する段階の間、前記処理部は:
前記放射測定画像データの前記第一の部分における一つ以上の特徴の種類を認識する段階と;
前記放射測定画像データの前記第一の部分において認識される前記特徴の種類の少なくとも一に基づく前記空間データの前記第一の部分の前記第一の場面タグを決定する段階;
のためにさらに構成される、請求項7に記載のシステム。 - 前記の認識する段階の間、前記処理部は:
前記放射測定画像データの前記第一の部分の幾何解析と、前記放射測定画像データの前記第一の部分のスペクトル解析とのうち少なくとも一の実行に基づいて、前記特徴の種類を識別する段階;
のためにさらに構成される、請求項9に記載のシステム。 - 前記の幾何解析を実行する段階は、
エッジの特徴、コーナーの特徴、ブロブ(blog)の特徴又はリッジ(ridge)の特徴の中の少なくとも一を検出する段階
を有する、請求項10に記載のシステム。 - 前記放射測定画像データは、複数のスペクトル帯の画像データからなり、さらに、前記のスペクトル解析を実行する段階は、前記複数のスペクトル帯の少なくとも一を評価することにより特徴を検出する段階を有する、請求項10に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/378,353 US20100208981A1 (en) | 2009-02-13 | 2009-02-13 | Method for visualization of point cloud data based on scene content |
US12/378,353 | 2009-02-13 | ||
PCT/US2010/023723 WO2010093673A1 (en) | 2009-02-13 | 2010-02-10 | Method for visualization of point cloud data based on scene content |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012517650A true JP2012517650A (ja) | 2012-08-02 |
Family
ID=42109960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011550196A Withdrawn JP2012517650A (ja) | 2009-02-13 | 2010-02-10 | 場面の内容に基づく点群データの視覚化のための方法及びシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20100208981A1 (ja) |
EP (1) | EP2396772A1 (ja) |
JP (1) | JP2012517650A (ja) |
KR (1) | KR20110119783A (ja) |
CN (1) | CN102317979A (ja) |
CA (1) | CA2751247A1 (ja) |
WO (1) | WO2010093673A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017521757A (ja) * | 2014-05-30 | 2017-08-03 | キャタピラー オブ オーストラリア ピーティーワイ リミテッド | 鉱山工事現場に関連付けられた標高の図化 |
JP2019117432A (ja) * | 2017-12-26 | 2019-07-18 | パイオニア株式会社 | 表示制御装置 |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
US20090231327A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Method for visualization of point cloud data |
US20090232388A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
US8290305B2 (en) * | 2009-02-13 | 2012-10-16 | Harris Corporation | Registration of 3D point cloud data to 2D electro-optical image data |
US8179393B2 (en) * | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
US20110115812A1 (en) * | 2009-11-13 | 2011-05-19 | Harris Corporation | Method for colorization of point cloud data based on radiometric imagery |
US20110200249A1 (en) * | 2010-02-17 | 2011-08-18 | Harris Corporation | Surface detection in images based on spatial data |
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
JP5161936B2 (ja) * | 2010-08-11 | 2013-03-13 | 株式会社パスコ | データ解析装置、データ解析方法、及びプログラム |
US9147282B1 (en) | 2011-11-02 | 2015-09-29 | Bentley Systems, Incorporated | Two-dimensionally controlled intuitive tool for point cloud exploration and modeling |
US8963921B1 (en) * | 2011-11-02 | 2015-02-24 | Bentley Systems, Incorporated | Technique for enhanced perception of 3-D structure in point clouds |
US9165383B1 (en) | 2011-11-21 | 2015-10-20 | Exelis, Inc. | Point cloud visualization using bi-modal color schemes based on 4D lidar datasets |
CN102779353B (zh) * | 2012-05-31 | 2014-08-20 | 哈尔滨工程大学 | 一种具有距离保持特性的高光谱彩色可视化方法 |
US10162471B1 (en) | 2012-09-28 | 2018-12-25 | Bentley Systems, Incorporated | Technique to dynamically enhance the visualization of 3-D point clouds |
EP2720171B1 (en) * | 2012-10-12 | 2015-04-08 | MVTec Software GmbH | Recognition and pose determination of 3D objects in multimodal scenes |
US9275267B2 (en) * | 2012-10-23 | 2016-03-01 | Raytheon Company | System and method for automatic registration of 3D data with electro-optical imagery via photogrammetric bundle adjustment |
US9992021B1 (en) | 2013-03-14 | 2018-06-05 | GoTenna, Inc. | System and method for private and point-to-point communication between computing devices |
WO2014193418A1 (en) * | 2013-05-31 | 2014-12-04 | Hewlett-Packard Development Company, L.P. | Three dimensional data visualization |
US9558571B2 (en) | 2013-08-28 | 2017-01-31 | Adobe Systems Incorporated | Contour gradients using three-dimensional models |
US9418309B2 (en) * | 2013-09-17 | 2016-08-16 | Motion Metrics International Corp. | Method and apparatus for performing a fragmentation assessment of a material |
KR102172954B1 (ko) * | 2013-11-08 | 2020-11-02 | 삼성전자주식회사 | 보행 보조 로봇 및 보행 보조 로봇의 제어 방법 |
CN103955966B (zh) * | 2014-05-12 | 2017-07-07 | 武汉海达数云技术有限公司 | 基于ArcGIS的三维激光点云渲染方法 |
US10032311B1 (en) * | 2014-09-29 | 2018-07-24 | Rockwell Collins, Inc. | Synthetic image enhancing system, device, and method |
CN104636982B (zh) * | 2014-12-31 | 2019-04-30 | 北京中农腾达科技有限公司 | 一种基于植物种植的管理系统及其方法 |
AU2017221222B2 (en) * | 2016-02-15 | 2022-04-21 | Pictometry International Corp. | Automated system and methodology for feature extraction |
JP6945785B2 (ja) * | 2016-03-14 | 2021-10-06 | イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ | 3dポイントクラウドの処理方法 |
CN108241365B (zh) * | 2016-12-27 | 2021-08-24 | 法法汽车(中国)有限公司 | 估计空间占据的方法和装置 |
CN107093210B (zh) * | 2017-04-20 | 2021-07-16 | 北京图森智途科技有限公司 | 一种激光点云标注方法及装置 |
EP3623752A1 (de) * | 2018-09-17 | 2020-03-18 | Riegl Laser Measurement Systems GmbH | Verfahren zum generieren einer orthogonalansicht eines objekts |
US10937202B2 (en) * | 2019-07-22 | 2021-03-02 | Scale AI, Inc. | Intensity data visualization |
CN112150606B (zh) * | 2020-08-24 | 2022-11-08 | 上海大学 | 一种基于点云数据的螺纹表面三维重构方法 |
IL291800B2 (en) * | 2022-03-29 | 2023-04-01 | Palm Robotics Ltd | Aerial spectral system and method, for detecting infection of the red palm weevil in palm trees |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5247587A (en) * | 1988-07-15 | 1993-09-21 | Honda Giken Kogyo Kabushiki Kaisha | Peak data extracting device and a rotary motion recurrence formula computing device |
US5901246A (en) * | 1995-06-06 | 1999-05-04 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6081750A (en) * | 1991-12-23 | 2000-06-27 | Hoffberg; Steven Mark | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6400996B1 (en) * | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US6418424B1 (en) * | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5875108A (en) * | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5416848A (en) * | 1992-06-08 | 1995-05-16 | Chroma Graphics | Method and apparatus for manipulating colors or patterns using fractal or geometric methods |
US5495562A (en) * | 1993-04-12 | 1996-02-27 | Hughes Missile Systems Company | Electro-optical target and background simulation |
JP3030485B2 (ja) * | 1994-03-17 | 2000-04-10 | 富士通株式会社 | 3次元形状抽出方法及び装置 |
US6526352B1 (en) * | 2001-07-19 | 2003-02-25 | Intelligent Technologies International, Inc. | Method and arrangement for mapping a road |
US6405132B1 (en) * | 1997-10-22 | 2002-06-11 | Intelligent Technologies International, Inc. | Accident avoidance system |
US5781146A (en) * | 1996-03-11 | 1998-07-14 | Imaging Accessories, Inc. | Automatic horizontal and vertical scanning radar with terrain display |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US5999650A (en) * | 1996-11-27 | 1999-12-07 | Ligon; Thomas R. | System for generating color images of land |
US6420698B1 (en) * | 1997-04-24 | 2002-07-16 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three-dimensional objects |
IL121431A (en) * | 1997-07-30 | 2000-08-31 | Gross David | Method and system for display of an additional dimension |
US6094163A (en) * | 1998-01-21 | 2000-07-25 | Min-I James Chang | Ins alignment method using a doppler sensor and a GPS/HVINS |
US6206691B1 (en) * | 1998-05-20 | 2001-03-27 | Shade Analyzing Technologies, Inc. | System and methods for analyzing tooth shades |
US20020176619A1 (en) * | 1998-06-29 | 2002-11-28 | Love Patrick B. | Systems and methods for analyzing two-dimensional images |
US6448968B1 (en) * | 1999-01-29 | 2002-09-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for rendering graphical objects represented as surface elements |
US6904163B1 (en) * | 1999-03-19 | 2005-06-07 | Nippon Telegraph And Telephone Corporation | Tomographic image reading method, automatic alignment method, apparatus and computer readable medium |
GB2349460B (en) * | 1999-04-29 | 2002-11-27 | Mitsubishi Electric Inf Tech | Method of representing colour images |
US6476803B1 (en) * | 2000-01-06 | 2002-11-05 | Microsoft Corporation | Object modeling system and process employing noise elimination and robust surface extraction techniques |
US7027642B2 (en) * | 2000-04-28 | 2006-04-11 | Orametrix, Inc. | Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects |
US6792136B1 (en) * | 2000-11-07 | 2004-09-14 | Trw Inc. | True color infrared photography and video |
US6690820B2 (en) * | 2001-01-31 | 2004-02-10 | Magic Earth, Inc. | System and method for analyzing and imaging and enhanced three-dimensional volume data set using one or more attributes |
AUPR301401A0 (en) * | 2001-02-09 | 2001-03-08 | Commonwealth Scientific And Industrial Research Organisation | Lidar system and method |
AU2002257442A1 (en) * | 2001-05-14 | 2002-11-25 | Fadi Dornaika | Attentive panoramic visual sensor |
US6694264B2 (en) * | 2001-12-19 | 2004-02-17 | Earth Science Associates, Inc. | Method and system for creating irregular three-dimensional polygonal volume models in a three-dimensional geographic information system |
US6980224B2 (en) * | 2002-03-26 | 2005-12-27 | Harris Corporation | Efficient digital map overlays |
US20040109608A1 (en) * | 2002-07-12 | 2004-06-10 | Love Patrick B. | Systems and methods for analyzing two-dimensional images |
US20040114800A1 (en) * | 2002-09-12 | 2004-06-17 | Baylor College Of Medicine | System and method for image segmentation |
US6782312B2 (en) * | 2002-09-23 | 2004-08-24 | Honeywell International Inc. | Situation dependent lateral terrain maps for avionics displays |
US7098809B2 (en) * | 2003-02-18 | 2006-08-29 | Honeywell International, Inc. | Display methodology for encoding simultaneous absolute and relative altitude terrain data |
US7242460B2 (en) * | 2003-04-18 | 2007-07-10 | Sarnoff Corporation | Method and apparatus for automatic registration and visualization of occluded targets using ladar data |
US7298376B2 (en) * | 2003-07-28 | 2007-11-20 | Landmark Graphics Corporation | System and method for real-time co-rendering of multiple attributes |
US7046841B1 (en) * | 2003-08-29 | 2006-05-16 | Aerotec, Llc | Method and system for direct classification from three dimensional digital imaging |
US7103399B2 (en) * | 2003-09-08 | 2006-09-05 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
US7831087B2 (en) * | 2003-10-31 | 2010-11-09 | Hewlett-Packard Development Company, L.P. | Method for visual-based recognition of an object |
US20050171456A1 (en) * | 2004-01-29 | 2005-08-04 | Hirschman Gordon B. | Foot pressure and shear data visualization system |
WO2006121457A2 (en) * | 2004-08-18 | 2006-11-16 | Sarnoff Corporation | Method and apparatus for performing three-dimensional computer modeling |
US7804498B1 (en) * | 2004-09-15 | 2010-09-28 | Lewis N Graham | Visualization and storage algorithms associated with processing point cloud data |
KR100662507B1 (ko) * | 2004-11-26 | 2006-12-28 | 한국전자통신연구원 | 다목적 지리정보 데이터 저장 방법 |
US7974461B2 (en) * | 2005-02-11 | 2011-07-05 | Deltasphere, Inc. | Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets |
US7777761B2 (en) * | 2005-02-11 | 2010-08-17 | Deltasphere, Inc. | Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set |
US7477360B2 (en) * | 2005-02-11 | 2009-01-13 | Deltasphere, Inc. | Method and apparatus for displaying a 2D image data set combined with a 3D rangefinder data set |
US8131041B2 (en) * | 2005-08-09 | 2012-03-06 | Koninklijke Philips Electronics N.V. | System and method for selective blending of 2D x-ray images and 3D ultrasound images |
US7822266B2 (en) * | 2006-06-02 | 2010-10-26 | Carnegie Mellon University | System and method for generating a terrain model for autonomous navigation in vegetation |
CN1928921A (zh) * | 2006-09-22 | 2007-03-14 | 东南大学 | 三维扫描系统中特征点云带的自动搜索方法 |
US7990397B2 (en) * | 2006-10-13 | 2011-08-02 | Leica Geosystems Ag | Image-mapped point cloud with ability to accurately represent point coordinates |
US7940279B2 (en) * | 2007-03-27 | 2011-05-10 | Utah State University | System and method for rendering of texel imagery |
US8218905B2 (en) * | 2007-10-12 | 2012-07-10 | Claron Technology Inc. | Method, system and software product for providing efficient registration of 3D image data |
TWI353561B (en) * | 2007-12-21 | 2011-12-01 | Ind Tech Res Inst | 3d image detecting, editing and rebuilding system |
US8249346B2 (en) * | 2008-01-28 | 2012-08-21 | The United States Of America As Represented By The Secretary Of The Army | Three dimensional imaging method and apparatus |
US20090225073A1 (en) * | 2008-03-04 | 2009-09-10 | Seismic Micro-Technology, Inc. | Method for Editing Gridded Surfaces |
US20090231327A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Method for visualization of point cloud data |
US20090232388A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
US8155452B2 (en) * | 2008-10-08 | 2012-04-10 | Harris Corporation | Image registration using rotation tolerant correlation method |
US8427505B2 (en) * | 2008-11-11 | 2013-04-23 | Harris Corporation | Geospatial modeling system for images and related methods |
US8179393B2 (en) * | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
US8290305B2 (en) * | 2009-02-13 | 2012-10-16 | Harris Corporation | Registration of 3D point cloud data to 2D electro-optical image data |
US20110115812A1 (en) * | 2009-11-13 | 2011-05-19 | Harris Corporation | Method for colorization of point cloud data based on radiometric imagery |
US20110200249A1 (en) * | 2010-02-17 | 2011-08-18 | Harris Corporation | Surface detection in images based on spatial data |
-
2009
- 2009-02-13 US US12/378,353 patent/US20100208981A1/en not_active Abandoned
-
2010
- 2010-02-10 EP EP10708005A patent/EP2396772A1/en not_active Withdrawn
- 2010-02-10 JP JP2011550196A patent/JP2012517650A/ja not_active Withdrawn
- 2010-02-10 CA CA2751247A patent/CA2751247A1/en not_active Abandoned
- 2010-02-10 KR KR1020117020425A patent/KR20110119783A/ko not_active Application Discontinuation
- 2010-02-10 CN CN2010800074912A patent/CN102317979A/zh active Pending
- 2010-02-10 WO PCT/US2010/023723 patent/WO2010093673A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017521757A (ja) * | 2014-05-30 | 2017-08-03 | キャタピラー オブ オーストラリア ピーティーワイ リミテッド | 鉱山工事現場に関連付けられた標高の図化 |
JP2019117432A (ja) * | 2017-12-26 | 2019-07-18 | パイオニア株式会社 | 表示制御装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2010093673A1 (en) | 2010-08-19 |
US20100208981A1 (en) | 2010-08-19 |
CA2751247A1 (en) | 2010-08-19 |
KR20110119783A (ko) | 2011-11-02 |
CN102317979A (zh) | 2012-01-11 |
EP2396772A1 (en) | 2011-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012517650A (ja) | 場面の内容に基づく点群データの視覚化のための方法及びシステム | |
Näsi et al. | Remote sensing of bark beetle damage in urban forests at individual tree level using a novel hyperspectral camera from UAV and aircraft | |
Mallinis et al. | Object-based classification using Quickbird imagery for delineating forest vegetation polygons in a Mediterranean test site | |
Zhou | An object-based approach for urban land cover classification: Integrating LiDAR height and intensity data | |
Heiden et al. | Urban structure type characterization using hyperspectral remote sensing and height information | |
Myeong et al. | Urban cover mapping using digital, high-spatial resolution aerial imagery | |
Myint et al. | Per-pixel vs. object-based classification of urban land cover extraction using high spatial resolution imagery | |
JP5025803B2 (ja) | ポイントクラウドデータの可視化方法 | |
Morsy et al. | Airborne multispectral lidar data for land-cover classification and land/water mapping using different spectral indexes | |
CN101403795A (zh) | 估算城区树覆盖率的遥感测量方法及其遥感测量系统 | |
Wang et al. | Building visual green index: A measure of visual green spaces for urban building | |
Yang et al. | Impervious surface extraction in urban areas from high spatial resolution imagery using linear spectral unmixing | |
Chen et al. | Land cover mapping in urban environments using hyperspectral APEX data: A study case in Baden, Switzerland | |
Heldens et al. | Integration of remote sensing based surface information into a three-dimensional microclimate model | |
Mustafa et al. | Identification and mapping of tree species in urban areas using worldview-2 imagery | |
Zhang | Multiscale quantification of urban composition from EO-1/Hyperion data using object-based spectral unmixing | |
Wang et al. | A new object-class based gap-filling method for PlanetScope satellite image time series | |
Tong et al. | A two-phase classification of urban vegetation using airborne LiDAR data and aerial photography | |
Zhou et al. | A framework for precisely thinning planning in a managed pure Chinese fir forest based on UAV remote sensing | |
Villa | Imperviousness indexes performance evaluation for mapping urban areas using remote sensing data | |
Zaki et al. | Individual tree crown (ITC) delineation using watershed transformation algorithm for tropical lowland dipterocarp | |
Bruce | Object oriented classification: case studies using different image types with different spatial resolutions | |
Berger et al. | Using geographic object-based image analysis (GEOBIA) for urban land cover mapping and settlement density assessment | |
Elgy | Airborne remote sensing for urban drainage | |
López | Object-based methods for mapping and monitoring of urban trees with multitemporal image analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20121022 |