JP2012517652A - シーン補間及び登録性能評価のための2d電子光学的画像及び3d点群データの融合 - Google Patents
シーン補間及び登録性能評価のための2d電子光学的画像及び3d点群データの融合 Download PDFInfo
- Publication number
- JP2012517652A JP2012517652A JP2011550200A JP2011550200A JP2012517652A JP 2012517652 A JP2012517652 A JP 2012517652A JP 2011550200 A JP2011550200 A JP 2011550200A JP 2011550200 A JP2011550200 A JP 2011550200A JP 2012517652 A JP2012517652 A JP 2012517652A
- Authority
- JP
- Japan
- Prior art keywords
- image
- content
- regions
- color map
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
共通シーンの改善された可視化及び登録処理の成功裏の補間のための3D点群と2D画像を組み合わせる方法及びシステムについて開示している。結果として得られた融合データは、オリジナルの3D点群からの情報及び2D画像からの情報の組み合わせを有する。オリジナルの3D点群データは、カラーマップタグ化処理に従ってカラー符号化される。異なるセンサからのデータを融合することにより、結果として得られるシーンは、戦争空間認識、目標識別、レンダリングされたシーンにおける変化検出及び成功裏の登録の決定に関連する有用な複数の属性を有する。
Description
本発明は二次元画像データ及び三次元画像データの登録に関し、特に、2D画像データ及び3D画像データの登録性能の視覚的な解釈のための方法に関する。この技術は、登録の成功性を判定するメトリックとして用いられる。
従来の電子光学的(EO)センサは、そのような画像データの収集のために長く用いられ、一般に、二次元データを生成するものである。そのようなデータは一般に、x及びy座標軸により全体的に規定されることが可能である平面フィールドに対する画像の投影に対応している。近年、三次元イメージングデータに対する関心が高まってきている。例えば、LIDARシステムは、三次元点群データを生成するように、高エネルギーレーザ、光学的検出器及びタイミング回路を用いる。3D点群における各々の点は、x、y及びz座標軸系により規定される三次元空間における種々の位置で規定される点により3D点群データが三次元で配置されることを除いて、ディジタルカメラにより生成される画素データに空間的に幾分似ている。1つの主な違いは、LIDARは距離データである一方、2D EOデータは、位置情報及び強度データの両方を有することである。しかしながら、LIDARセンサは滞留し、故に、強度‘画像’を生成するモードが存在する。このモードは、データアライメント又は登録を判定するための本明細書に記載されている2つのデータの種類の重なり合いを達成するためには必要ないことに留意する必要がある。
点群データは、生データにおけるオブジェクト又は地形特徴が容易に区別可能でないために、解釈することは困難であり得る。それに代えて、生の点群データは、三次元座標系において殆ど不定形の且つ十分な情報を有さない点の収集として現れ得る。カラーマップは、点群データを視覚化する助けとなるように用いられてきた。例えば、カラーマップは、各々の点の高度座標の関数として、3D点群における各々の点の色を選択的に変えるように用いられてきた。そのようなシステムにおいては、色の変化は、地表面の上方の異なる高さ又は高度における複数の点を表すように用いられる。そのような従来のカラーマップの使用にも拘わらず、3D点群データは、依然として解釈するのが困難なままである。 同じシーンについて2D EOイメージングデータを3D点群データと組み合わせることは有利である。この目的はときどき、データ融合と呼ばれる。しかしながら、画像データの2つの異なるセットの組み合わせは、複数の点を空間的にアライメントする画像登録ステップを必ず必要とする。そのような画像登録ステップは通常、各々の画像と関連付けられたメタデータにより支援される。例えば、そのようなメタデータは、1)センサのオリエンテーション及び姿勢情報と、2)画像の角の点と関連付けられる緯度座標及び経度座標と、3)点群データの場合の、点群データについての生のx、y及びz点位置とを有することが可能である。
2D画像から3D画像への登録ステップは、異なるデータ収集時間及び異なる相対的なセンサ位置における異なるセンサにより取得されるEOデータ及びLIDARデータの正確なアライメントを必要とするために、困難であり、時間を要するものである。更に、点群データは通常、かなり複雑なセンサ間登録の問題に対処するには、EO画像データと比べてより困難である。しかしながら、得られる登録されたEOデータ及びLIDARデータの視覚的な解釈はしばしば、人間の分析にとって依然として困難なままである。そのような困難性の1つの理由は、2種類のイメージングデータの登録及び融合の後にさえ、三次元LIDAR点群は、二次元画像データを表す平坦な二次元平面状に浮かんでいるように現れる。これは、2つの注目すべき課題をもたらす。特に、それは、人間が融合された画像データにより表されるシーンを可視化することをより困難なものにする。これは、点群データが二次元画像にどのように適合するかを理解することが困難であるために、生じる。同じ影響はまた、登録処理がどのようにうまく機能するかを評価することをより困難にする。平坦な二次元表面の上方に浮かんでいるように現れる三次元点群データにより、点群(例えば、構造、乗り物)より表される種々の特徴が二次元画像(例えば、建物の外形又は土地専有面積、及び道路)において対応する特徴とどれ位うまくアライメントできるかを人間が判定することは困難である。選択された特定の登録スキームにも拘らず、その結果の性能を評価することは有用である。
本発明は、共通シーンの改善された視覚化及び登録処理の成功の解釈のための3D点群との2D画像の組み合わせのための方法及びシステムに関する。その結果として得られた融合されたデータは、組み合わされたオリジナルの3D点群からの情報及び2D画像からの情報を有する。オリジナルの3D点群データは、カラーマップトリガ処理に従って、カラー符号化される。異なるセンサからのデータを融合することにより、結果として得られるシーンは、戦争空間認識、目標識別、レンダリングされたシーンにおける変化検出及び成功裏の登録の決定に関連する複数の有用な属性を有する。
2D画像を3D点群LIDARと組み合わせる方法は複数のステップを有する。画像が未だに登録されていない場合、その方法は、2D画像及び3D点群がアライメントされる登録ステップから開始することが可能である。その後、その方法は、共通シーンにおける複数の領域の選択されたコンテンツに基づく特徴を特定するように、2D画像を分析するステップを有する。例えば、コンテンツに基づく特徴は、都市シーンのコンテンツ、自然シーンのコンテンツ、水のコンテンツ、及び人工的な構造物のコンテンツを含むことが可能である。識別された複数領域の各々は、その領域のコンテンツに基づく特徴に対応するカラーマップタグが割り当てられる。
2D画像を用いるカラーマップタグの割り当てに続いて、異なるカラーマップが、カラーマップタグに従って、3D点群の複数の領域の各々に割り当てられる。‘領域’タイプの画像が2D画像から生成される。即ち、仮想3D点群が、2D画像における各々の画素に対してZ値を割り当てることにより2D画像から形成され、ここで、各々のZ値は、3D LIDARにおける且つそのZ値を仮定する最近接点に対する補間に基づいて、決定される。仮想3D点群についてのカラー値は、2D画像における対応する画素のカラー値に基づいて割り当てられる。しばしば、2D画像カラー情報は、RGB値に変換される11又は16ビット値で供給される。最終的には、融合されたシーンが、仮想領域画像及び3D点群データを重ね合わせることにより生成される。
このようにして生成される融合されたシーンは、登録ステップの性能又は品質を評価する上で特に有用である。特に、その融合されたシーンは、共通領域における特徴が適切にアライメントされているかどうかを判定するように、視覚的に調べられることが可能である。
本発明においては、2D画像が修正され、次いで共通シーンについて3D点群データと融合される。その処理は、そのシーンの分析を容易にし、画像登録処理の品質の改善された評価を可能にする。2D画像及び3D点群データが、適切な登録処理を利用して、登録される。その後、3D点群データは、地表テーブルを特定し、規定するように処理される。地表テーブルは、シーンにおける地表の輪郭を表す。地表テーブルはその場合、2D画像の、地表面の輪郭を有する仮想3D画像に変換されるように用いられる。仮想3D画像は、2D画像の画素に関連付けられたZ値を選択的に修正することにより生成され、それらの画素は一般に、地表テーブルにより規定されたZ値に適合している。このようにして、地表面の輪郭が2D画像に与えられ、それにより、仮想3D画像が生成される。一旦、この処理が終了すると、前に登録された3D点群データは仮想3D画像に重ね合わされる。その結果として得られる融合された3D画像は、シーンの改善された視覚化を提供し、登録の品質のより良好な評価を可能にする。
本発明について、本発明の例示としての実施形態が示されている添付図を参照して、以下に詳述する。本発明は、しかしながら、多くの種々の形態で具現化されることが可能であり、以下に記載する実施形態に限定されるとして解釈されるべきではない。例えば、本発明は、方法、データ処理システム又はコンピュータプログラムとして具現化されることが可能である。従って、本発明は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、又はハードウェア/ソフトウェアの実施形態としての形式をとることが可能である。
本発明は、点群を有する三次元(3D)画像データ及び二次元(2D)画像データを含む登録処理の相対的な性能を評価する方法に関する。本発明の目的のために、2D画像データ及び3D点群データは、ある登録処理により既に登録されていることを前提としている。種々の登録処理が当該技術分野において知られている。従って、特定の登録処理については、ここでは、詳細には説明しない。
本発明は、1つのコンピュータシステムで実現されることが可能である。代替として、本発明は、複数の相互接続されたコンピュータシステムで実現されることが可能である。本明細書で記載している方法を実行するように適合されたコンピュータシステム又は他の装置は何れも適するものである。ハードウェア及びソフトウェアの代表的な組み合わせは汎用コンピュータシステムであることが可能である。汎用コンピュータシステムは、本明細書で記載している方法を実行するようなコンピュータシステムを制御することが可能であるコンピュータプログラムを有することが可能である。
本発明は、コンピュータ使用可能記憶媒体(例えば、ハードディスク又はCD−ROM)におけるコンピュータプログラムプロダクトの形式をとることが可能である。コンピュータ使用可能記憶媒体は、媒体において具現化されるコンピュータ使用可能プログラムコードを有することが可能である。本明細書で用いている用語“コンピュータプログラムプロダクト”は、本明細書で記載している方法の実施を可能にする特徴全てを有する装置のことをいう。本明細書におけるコンピュータプログラム、ソフトウェアアプリケーション、コンピュータソフトウェアルーチン及び/又はそれらの用語の他の変換は、情報処理能力を有するシステムが、直接に、若しくは、a)他の言語、コード又は表記法への変換、又はb)異なる材料形状での再現、の何れか又は両方の後に、特定の機能を実行するようにすることが意図された命令の集合の何れかの言語、コード又は表記法における何れかの表現を意味している。
コンピュータシステム100は、サーバコンピュータ、顧客ユーザコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、ラップトップコンピュータ、デスクトップコンピュータ、制御システム、ネットワークルータ、スイッチ又はブリッジ、装置が行う動作を特定する命令の集合(シーケンシャル、等)を実行することが可能である何れかの他の装置の種々の種類を有することが可能である。本明細書における装置は、音声、映像又はデータ通信をもたらす何れかの電子装置を有することが可能であることが理解される必要がある。更に、単独のコンピュータが示されている一方、表現“コンピュータシステム”は、本明細書で記載されている何れかの1つ又はそれ以上の方法論を実行する命令の集合(又は複数の集合)を別個に又は連携して実行する演算装置の何れかの集合を有するとして理解することができる。
コンピュータシステム100は、プロセッサ(中央演算処理装置(CPU))、グラフィクス処理ユニット(GPU)、CPU及びGPUの両方、主メモリ104、バス108を介して互いに通信するスタティックメモリ106を有することが可能である。コンピュータシステム100は、映像ディスプレイ(例えば、液晶ディスプレイ(LCD))、フラットパネル、固体ディスプレイ又はブラウン管(CRT)等のディスプレイユニット110を更に有することが可能である。コンピュータシステム100は、入力装置112(例えば、キーボード)、カーソル制御装置114(例えば、マウス)、ディスクドライブユニット116、信号発生装置118(例えば、スピーカ又はリモートコントロール)及びネットワークインタフェース装置120を有することが可能である。
ディスク装置ユニット116は、本明細書で記載している1つ又はそれ以上の方法論、手法又は機能を実行する1つ又はそれ以上の命令の集合124(例えば、ソフトウェアコード)が記憶されているコンピュータ読み出し可能記憶媒体122を有することが可能である。命令124は、コンピュータシステム100による実行中に、主メモリ104、スタティックメモリ106及び/又はプロセッサ102に完全に又は少なくとも一部が存在することが可能である。主メモリ104及びプロセッサ102はまた、機械読み出し可能媒体を有することが可能である。
特定のアプリケーション用集積回路、プログラマブルロジックアレイ及び他のハードウェア装置を有する専用ハードウェア実施構成が更に、本明細書で説明している方法を実行するように構成されることが可能であるが、それらに限定されるものではない。種々の実施形態の装置及びシステムを有することが可能であるアプリケーションは、種々の電子システム及びコンピュータシステムを広範に有することが可能である。一部の実施形態は、モジュール間で及びモジュールを介して通信される関連制御信号及びデータ信号により1つ又はそれ以上の特定の相互接続されたハードウェアモジュールにおける機能を実施する。従って、例示としてのシステムは、ソフトウェア、ファームウェア及びハードウェアの実施に適用することが可能である。
本発明の種々の実施形態に従って、下に記載の方法は、コンピュータ読み取り可能記憶媒体にソフトウェアプログラムとして記憶されることが可能であり、コンピュータプロセッサにおいて実行させることが可能である。更に、ソフトウェアの実施は、本明細書で説明している方法を実施することも可能である分散処理、成分/オブジェクト分散処理、並列処理、仮想マシン処理を有することが可能であるが、それらに限定されるものではない。
本発明の種々の実施形態においては、コンピュータ読み取り可能記憶媒体は、命令124を有する、又はネットワーク環境126に接続された装置が音声データ及び/又は映像データを送信する又は受信することが可能であるように伝播される信号から命令124を受信して、実行する、並びに命令124を用いてネットワーク126において通信することが可能である。命令124は更に、ネットワークインタフェース装置120を介してネットワーク126において送信又は受信されることが可能である。
コンピュータ読み取り可能記憶媒体122は、信号記憶媒体であるとして例示としての実施形態に示されている一方、用語“コンピュータ読み取り可能記憶媒体”は、1つ又はそれ以上の命令の集合を記憶する単独の媒体又は複数の媒体(例えば、集中データベース又は分散データベース、並びに/若しくは関連キャッシュ及びサーバ)を有するとして捉えられる必要がある。用語“コンピュータ読み取り可能記憶媒体”はまた、機械により命令の集合を記憶する、符号化する又は担持することが可能である、そして本明細書の方法論の何れかの1つ又はそれ以上を機械が実行するようにする、何れかの媒体を有するとして捉えられる必要がある。
用語“コンピュータ読み取り媒体”は従って、1つ又はそれ以上の読み出し専用メモリ(ROM;不揮発性)、ランダムアクセスメモリ(RAM)又は他の書き換え可能(揮発性)メモリを収容するメモリカード又は他のパッケージ等の固体メモリ;ディスク又はテープ等の光磁気媒体又は光媒体;送信媒体におけるコンピュータ命令を実施する信号等の搬送波信号;並びに/若しくは電子メールへのディジタルファイル添付若しくは有形記憶媒体に相当する分散媒体であるとみなされる他の自律型情報アーカイブ又はアーカイブの集合;を有するとして捉えられるが、それらに限定されるものではない。従って、その開示は、ここで列挙され、相当するとみなされた後継の媒体を含むように、本明細書におけるソフトウェア実施構成が記憶されているコンピュータ読み取り可能媒体又は分散媒体の何れか1つ又はそれ以上を有するとみなされる。
当業者は、図1に示しているコンピュータシステムアーキテクチャはコンピュータシステムの1つの有効な実施例であることを理解することができる。しかしながら、本発明は、この点に限定されるものではなく、何れかの他の適切なコンピュータシステムアーキテクチャも、制限されることなく用いられることが可能である。
ここで図2を参照するに、フローチャートが示されている。そのフローチャートは、点群を有する三次元(3D)画像データ及び二次元(2D)画像データを含む登録処理の相対的性能を評価するために用いられる処理を理解する上で有用である。その方法は、ステップ202から開始し、共通シーンについての2D画像データ及び3D画像データの取得についてのステップ203に進む。
図3に示すように、第1及び第2イメージングセンサ302、304の各々は共通シーン306の画像データを取得する。2つのイメージングセンサが図3に示されているが、本発明はそれに限定されるものでないことを理解する必要がある。それに代えて、共通のセンサが、異なった2回で用いられることが可能である。重要であることに、図3においては、第1衛星302は2D画像データを収集することができ、第2センサ304は3D点群画像データを収集することができる。
有利であることに、取得された二次元画像データは、カラーで提示されることが可能であるマルチスペクトル画像である。しかしながら、本発明は、パンクロマティック画像と共に用いられることも可能である。本明細書で記載している二次元画像データは、当業者が知っているような何れかの適切なイメージングセンサにより収集されることが可能である。例えば、地球軌道衛星及び航空機のデータ収集プラットフォームは一般に、電子光学的(EO)センサを用いて、2D画像データを収集する。本明細書で用いている用語“電子光学的センサ”は一般に、選択されたサンプル期間について、イメージング装置の画像検知表面に対して、シーンからの放射線を画像化するために光学システムが用いられる広範の装置の何れか1つのことをいう。イメージング装置は、光応答性領域の二次元アレイの形式をとることが可能である。イメージング装置に基づく種々の半導体については、当該技術分野において知られている。例えば、CCD(charge coupled device)及びフォトダイオードアレイはしばしば、制限を伴わずに、この目的のために用いられる。更に、上記のイメージング装置は、単なる例示として把握され、本発明は、何れかの特定のEO型のイメージング装置に限定されるようには意図されていない。例えば、本発明は医療用画像の登録のために用いられることも可能である。
多様な異なる種類のイメージングセンサが、3Dデータを、特に、3D点群データを生成するように用いられることが可能である。本発明は、イメージングシステムのそれらの多様な種類の何れかから得られた3D点群データの登録性能を評価するために利用されることが可能である。3D点群の1つ又はそれ以上のフレームを生成する3Dイメージングシステムの一実施例は従来のLIDARイメージングシステムである。LIDARデータの各々のフレームは、複数範囲のエコーに対応する三次元の点(3D点群)の収集を有する。それらの点は、三次元空間における規則的な光子における値を表す“ボクセル”に組織化されることが可能である。3Dイメージングで用いられるボクセルは、2Dイメージング装置に関連して用いられる画素に類似するものである。それらのフレームは、目的の3D画像を再構成するように処理される。この関連で、3D点群における各々の点は、3Dのシーンにおける実際の表面を表す、個別のx、y及びz値を有する。
例示としての3D画像データの立方体500が図5に示されている一方、2D画像データのフレームが図6に示されている。2D画像データ600のフレームは単独のxy平面において規定される一方、3D画像データの立方体500は、三次元(x,y,z)で規定される点群502を有する。更に、例示としての図5の3D画像データは立方体として境界が画定されているが、本発明はこの点に限定されるものでないことに留意する必要がある。立方体はこの目的のために用いられる従来からの形状であることが理解できるが、3Dデータは、何れかの他の適切な形状のボリュームにおいて規定されることが可能である。例えば、立方体の代わりに、矩形状の角柱が3D点群データセットを、境界を画定するように用いられることも可能である。上記にも拘らず、便宜上、本発明については、点群データの立方体に関連付けて記載されている。
図3をもう一度参照するに、イメージングセンサ302、304が異なる位置及びオリエンテーションをそれぞれ有することを理解することができる。当業者はときどき、それらのセンサの位置及びオリエンテーションのことをそれらのセンサの姿勢という。例えば、センサ302は、3D画像データが取得されたときの姿勢パラメータにより規定される姿勢を有するといわれる。
上記から、センサ302、304により取得された2D画像及び3D点データは一般に、異なるセンサにより中心合わせされた座標系に基づいていることが理解できる。従って、2D画像及び3D点データは、異なる座標系に対して規定される。当業者は、異なる座標系が2つ又はそれ以上の画像センサからの2D画像及び3D点データが共通座標系で適切に表されることが可能である前に、必要に応じて、空間において回転され、平行移動される必要がある。上記の処理は一般に、登録と呼ばれている。
ステップ204においては、2D画像を構成する画素は、3D点データに共通のX、Yフォーマットに変換される。当業者は理解できるであろうように、3D点群データは一般に、高さのZ座標に加えて、緯度及び経度(X,Y)座標に関して表される。それとは対照的に、2D画像画素データは典型的には、異なるフォーマットにある。ステップ204においては、2D画像は、3D画像を較正する点群データと関連付けられたフォーマットと整合性を有するX、Yフォーマットに変換される。
ステップ206においては、2D画像データ及び3Dデータは、2D画像及び3D点群を表すことが可能であるある登録処理により登録される。何れかの適切なアルゴリズム又は登録処理が、当業者が認識しているように、この目的のために用いられる。本発明は、登録処理が実行される方法に直接、関するものではないため、そのような登録処理については、ここでは、詳細には説明しない。登録処理の結果は、ある登録スキームに従って実質的に登録された共通シーンについての2D画像データ及び3D点群データである。
その処理は、2D画像の画像コンテンツ分析を実行することによるステップ208に進む。画像コンテンツ分析は、2D画像に含まれる特定のフィーチャ又は領域の特徴が特定される又は選択される統計的分析である。この分析は、フィーチャ抽出ステップとみなされる。例えば、従来のシーンコンテンツ検出アルゴリズムを用いて、そのシーンは、都会領域と自然領域に分離されることが可能である。図4に示しているように、都会領域404は、多数の建物及び他の人工的な構造物を含むとして識別される2D画像における領域であり得る。建物及び他の人工的な構造物は一般に、多くの直線的なエッジ及び角を、そのような構造物は、当業者が認識しているように、種々のエッジ及び角検出アルゴリズムを用いることにより容易に認識されることが可能である。自然領域402は、都会領域以外の領域として識別され得る。更に、本発明はこの点に限定されるものではなく、種々の他の種類の画像認識アルゴルズムが、都会、自然又は他の種類の領域を認識するように用いられることが可能である。例えば、他の種類の領域としては、岩又は砂漠領域、森林領域、農地領域、水領域等があり得る。
都会対自然である広い領域又は範囲を単に識別することの代替として、又はそれに加えて、シーンコンテンツ検出アルゴリズムは、シーン内に含まれる特定の個別のフィーチャを検出することが可能である。例えば、シーンコンテンツ検出アルゴリズムは、2D画像において存在する道路06を識別することが可能である。シーンコンテンツ検出アルゴリズムは、個々の建物408又は他の種類の構造物を制限なしで識別するように用いられることも可能である。例えば、乗り物が識別されることも可能である。それらの機能を実行するアルゴリズムについては、当該技術分野で知られているので、ここでは、詳細には説明しない。
画像コンテンツ検出分析が終了した後、その処理はステップ212に進む。ステップ212においては、異なるカラーマップタグが、2D画像の選択されたX、Y座標領域について割り当てられる。異なるカラーマップタグは、識別された異なる領域又はフィーチャ402、404、406、408について割り当てられる。例えば、第1タイプのカラーマップタグは、都会として識別される何れかの領域404に対して割り当てられることが可能である一方、第2カラーマップタグは、自然として指定された何れかの領域402に対して割り当てられることが可能である。更に、異なるカラーマップタグは、画像306において識別された個々の建物408又は道路406等の特定のフィーチャのX座標及びY座標と関連付けられることが可能である。
本発明の一実施形態に従って、各々の個別のカラーマップタグは、特定のカラーマップに関連付けられる。更に、各々のカラーマップは、特定の種類のシーン又はシーンコンテンツと関連付けられたフィーチャを視覚化する助けとなるように有利に選択される。例えば、1つのそのようなカラーマップについては、Minearによる米国特許出願公開第12/046,880号明細書に記載されている。その特許文献に詳細に開示されているように、カラーマップは、異なる高度の特徴をハイライトするように、色相、飽和度及び強度を選択的に選択することにより、シーンにおける特定の種類の対象を強調するようにデザインされ得る。このHSI空間において生成されたそれらのカラーマップは、樹冠の下及び樹木限界線の上等の対象領域における強度のハイライトを非線形的に可能にする。特に、カラーマップは、色飽和及び強度について規定された値が1つ又はそれ以上の所定の高度でピーク値を有するように、選択されることが可能である。例えば、ピーク値は、所定のフィーチャの高度範囲の高度の上限に略対応する高度に与えられることが可能である。カラーマップは、特定の種類のシーンコンテンツ、例えば、建物、植物又は道路に通常関連付けられる補色が選択されることも可能である。
ステップ214においては、地表面テーブルが3D点群を用いて生成される。地表面テーブルは、3D点群に含まれるシーンの地表面輪郭の表現(テーブル形式)とみなされる。それは、3D点群の均一な格子に基づき、X、Y及びZ座標軸に関して規定される。地表面テーブルは、シーンの各々の格子化領域についての近似的な高度を表すZ値を規定する。
ステップ214においては、地表面テーブルが3D点群を用いて生成される。地表面テーブルは、3D点群に含まれるシーンの地表面輪郭の表現(テーブル形式)とみなされる。それは、3D点群の均一な格子に基づき、X、Y及びZ座標軸に関して規定される。地表面テーブルは、シーンの各々の格子化領域についての近似的な高度を表すZ値を規定する。
地方面テーブルがどのように作成されるかを理解するためには、3D点群データの性質を先ず、考慮することは有用である。3D点群データを取得するために用いられるシステム(例えば、LIDAR)は一般に、“ラストリターン”データ点を測定する。そのような“ラストリターン”点はしばしば、地面データノイズに関連付けられる反射エネルギーの結果である。従って、下方に存在する地形の真のマップを表すのではなく、生の3D点群データにおける各々のX、Y点に関連するZ値はまた、植物、乗り物及び構造物等の種々の他のオブジェクトに対応する。地形又は地表面に対応する複数の点の集合を決定するように、地形における輪郭に実際には対応しない乗り物、構造物及び植物等を抽出する又は推定する少なくとも一部の後処理が通常、必要である。3D点群データに基づいてそのような地表面の高度を抽出する又は推定する種々のアルゴリズムが知られている。何れかのそのようなアルゴリズムが、地表面テーブルを作成するために用いられることが可能である。
一旦、ステップ214において、地表面テーブルが作成されると、その処理はステップ216に進む。ステップ216においては、データ点は、生の3D点群から選択的に検出される。実際には、3D点群データは、地表面又は地形に関連付けられる点を取り除くことにより減少される。本発明の実施形態に従って、3D LIDARデータにおける各々の副領域について、これは、その副領域についての地表面テーブルにおいて特定されるZ値(足す小さいΔZ)を上回らない副領域における何れかの点を検出することにより達成される。例えば、特定の副領域についてのZ値は1mであることが可能である。その場合、その副領域にある生の点群データ内の各々の点について、生のデータポイントの高度又はZ値が、高さで1m+小さいΔZ以下であるかどうかの判定が行われることが可能である。それが肯定的である場合、その点は検出され、そうでない場合は、その点はそのままにしておかれる。更に、何れかの他の技術が生の点群データから地表面データ点を選択的に検出するように用いられることが可能であることが理解される必要がある。適用される技術にも拘わらず、このステップの目的は、地表面レベルのすぐ上のあるZ値以下の点群データにおける全ての点を削除することである。これは、画像登録処理の性能を評価する目的のためには一般に有用でない、地表ノイズを削除するように行われる。
ステップ216に続いて、その方法は、ステップ218に進む。カラーマップタグが、2D画像に含まれる特定のX、Y領域について、ステップ212において割り当てられるが、カラーマップは実際には、2D画像に関連付けられた画素に色を割り当てるようには用いられない。それに代えて、カラーマップは、3D点群データの対応するX、Y領域における点に色を割り当てるためのステップ218において用いられる。2D画像及び3D点群が登録されるために、特定のシーンにおける領域及びフィーチャは、各々の画像データセットにおける略同じX、Y座標領域を有する。例えば、規定されたX、Y座標領域を有する2Dシーンにおける特定の都会領域は、3D点群データにおける略同じX、Y座標領域に対応する。これは、そのシーンの種々の他のフィーチャ、例えば、個々の建物及び道路に関しても真である。その場合、実際には、シーンの異なる部分について適切なカラーマップが、2D画像を用いて、特定され、そしてステップ218において、カラーマップが、3D点群の対応する領域に含まれるデータ点に対して適用される。
ステップ220においては、割り当てられたカラーマップが、3D点群における各々のデータ点についてRGBカラー値を演算する又は決定するように用いられる。カラーマップはZ座標の関数であり、故に、3D点群における各々の点の実際のカラーは、3D画像のX、Y領域に割り当てられた特定のカラーマップに基づき、そしてその特定の点のZ値又は相対的な高さに基づく。相対的な高さは、地表面に対して測定されることが可能である。
当業者は、テーブル呼ばれるカラーマップ、スケジュール又は数式が、どの特定のRGBカラー値が特定のZ値を有する点に割り当てられる必要があるかを判定するために用いられることを理解することができる。何れかの適切なカラーマップが、この目的のために用いられることが可能である。しかしながら、観測者にとってある可視化の利益を有するカラーマップを選択することは有利である。例えば、異なる高度においてフィーチャをハイライトするように色相及び強度を選択的に選択することにより、シーンにおける特定の種類の対象を強調するようにデザインされたカラーマップを用いることは有利である。特定のシーンに対応するとして一般に理解される特定の色相を用いるカラーマップを選択することも有利である。例えば、茶褐色、黄褐色及び緑色が、植物の色に自動的に対応するように、自然領域について用いられることが可能である。それとは対照的に、種々の灰色の色相が、都会領域についてのユーザの理解とより一貫性を有するようにすることが可能である。
ステップ222においては、ステップ214における3D画像データから導出された地表面テーブルが、2D画像データの各々の画素に対してZ値を割り当てるように用いられる。Z値は、地表面テーブルの領域におけるZ値を補間することにより決定される。一旦、適切なZ値が地表面テーブルから演算されると、そのZ値は、2D画像における画素についてのZ値として割り当てられる。その結果は、2D画像の画素に基づく仮想3D点群である。これについては、地表面テーブルからのZ値が2D画像データに割り当てられた後の仮想3D画像702の輪郭を示す図7に、概念的に示されている。図7においては、2D EO画像は仮想3D距離画像に変換されている。
その方法は、ステップ222で得られた仮想3D距離画像における各々の点についてRGBカラー値を演算することによりステップ224に進む。その仮想3D画像についてのRGBカラー値は何れかの適切なカラーマップに基づいている。仮想3D距離画像のカラーマップについての良好な選択は、最終的な融合されたプロダクトに乱されないように最小の色相変化を有する選択である。特に、各々の仮想3D点は、ここでは、X、Y及びZ座標及びカラー値を有する。
ステップ226においては、その方法は、3D点群データを2D EO画像から生成された仮想3D画像と融合するステップに進む。その融合処理は、オリジナルの3D点群及び仮想3D点群からの関連情報を組み合わせる。これは、視覚的な解釈及びシーンの認識のための環境についての付加情報を得るように、1つのシーンに異なる情報源を組み合わせることを含むために、真の融合である。
その結果として得られる、ステップ226に従って融合されたシーンは、オリジナルのLIDAR点群データからの組み合わされた情報と、2D画像からの情報とを有する3Dシーンである。オリジナルの3D点群データは、カラーマップタグ付け処理に従ってカラー符号化される。その結果として得られる3Dシーンは、空間認識、目標識別、レンダリングシーンにおける変化検出及び登録成功の決定に対処することに関連する複数の有用な属性を有する。それらのフィーチャの各々については、下でより詳細に説明する。
ここで図8を参照するに、図7に示す実施例と類似している仮想3D画像を生成するように用いられる2D画像の実施例を示している。図9は、図8の2D画像が、図7におけるように仮想3D画像に先ず変換され、次いで図2に示されている種々のステップに従って、3D点群データと融合された融合画像を示している。図9における画像は、シーンの可視化及び登録処理の性能の評価においてユーザを支援するように、コンピュータのスクリーンにおいて回転され、拡大され、そして三次元で見ることができる。
戦争空間認識等のためのシーン補間のフィールドにおいて、図9における融合シーンは、人間の眼に対して可視化をより明瞭に且つより自然にする。点群データはもはや、平坦な二次元画像の上方に浮かんでいるようには見えない。そうではなく、2D画像は、シーンの実際の地表面の輪郭に対応する仮想3D画像に変換されている。その結果として得られた融合画像においては、地表の輪郭は、3D点群データに対して改善されたコンテキスト及び意味を与える。規定され、次いで3D点に対してマッピングされたカラーモデルは、対応する領域及びフィーチャの現実世界のカラーと密接な関係にあるように、有利に選択されている。これは、データを可視化するときに、ユーザにとっての親しみ易さを与える。目標認識のフィールドにおいては、融合画像における目標は、既知の目標のデータベースにより抽出されて、相関付けられることが可能である。変化検出のフィールドにおいては、時間分離された融合シーンは、オブジェクトの違い及び乗り物の動きについて、重ね合わされて、比較されることが可能である。
更に、結果として得られた融合シーンは、登録処理が成功裏に行われたかどうかを判定するために、かなり有用である。3D点群データを2D画像データにより登録するように試みるときに遭遇する課題の1つは、登録処理が2つのデータセットを適切に登録しているかどうかを判定することである。図1乃至7に関連して記載している処理は、登録の品質を人間が視覚的に評価することを可能にする。結果として得られた融合画像においては、実際の3D点群データと並列化された仮想3D画像の地表の輪郭は、3D点群データに改善されたコンテキスト及び意味を与える。これは、3D点群データにより表されるオブジェクトが2D画像データに相対して適切に位置付けられるようにみえる融合画像を登録処理が生成したかどうかを、人間が評価する良好な機会を提供する。また、3D点群における点をカラー符号化することにより、明瞭な視覚的補間が、シーンにおけるフィーチャの適切なアライメントに対して可能にされる。例えば、視覚的な評価が、建物の角、乗り物、道路等のアライメントに関して行われる。この視覚的評価処理は、そのようなカラー符号化を用いない場合には、かなり困難である又は不可能である。
Claims (20)
- 共通シーンの改善された可視化のための3D画像と2D画像を組み合わせる方法であって:
前記共通シーンにおける複数の領域の特徴に基づいて、選択されたコンテンツを特定するように前記2D画像を分析するステップ;
前記領域の特徴に基づいてコンテンツに対応するカラーマップタグを前記複数の領域に選択的に割り当てるステップ;
前記カラーマップタグに従って前記3D画像の複数の領域の各々に異なるカラーマップを選択的に割り当てるステップ;
前記3D画像における地表の輪郭に基づいて、前記2D画像における画素にZ値を割り当てることにより、前記2D画像から仮想3D画像を生成するステップ;
好ましいカラーマップに基づいて前記仮想3Dにおける複数の点についてカラー値を決定するステップ;並びに
前記3D画像及び前記仮想3D画像を重ね合わせることにより融合画像を生成するステップ;
を有する方法。 - 前記共通シーンにおけるフィーチャが適切にアライメントされているかどうかを判定するように、前記融合画像を調べることにより、登録するステップの性能及び品質を評価するステップ;
を更に有する、請求項1に記載の方法。 - 前記コンテンツに基づく特徴は、都会コンテンツ、自然コンテンツ、水コンテンツ及び人工的な構造物コンテンツを有する群から選択される、請求項1に記載の方法。
- 前記人工的な構造物コンテンツは、建物、家、道路及び乗り物を有する群から選択される、請求項3に記載の方法。
- 前記3D画像は、各々の点がX、Y及びZ座標軸値に従って規定される3D点群を有する複数の点を有し、前記2D画像は、X軸及びY軸により規定される値に従って排他的に規定された位置を有する複数の画素を有する、請求項1に記載の方法。
- 前記2D画像において特定された前記複数の領域の対応するX、Y座標値に対して割り当てられた前記カラーマップタグに基づいて、前記3D画像の複数の領域においてX、Y及びZ座標値を有する1つ又はそれ以上の点に対して各々の前記カラーマップを割り当てるステップ、を更に有する、請求項5に記載の方法。
- 前記融合画像を生成するステップに先だって、地表面データを有する前記3D画像の一部を取り除くステップを更に有する、請求項1に記載の方法。
- 前記Z値を割り当てるステップは:
前記X、Y座標値を有する各々の2D画素について、同じX、Y座標値を有する前記3D画像の前記地表の輪郭からのZ値を割り当てるステップ;
特定の2D画素と同じX、Y座標値を有する前記3D画像においてデータ点が存在しない場合に、Z値を補間する又は推定するステップ;
を更に有する、請求項5に記載の方法。 - 前記カラーマップが用いられる領域の特徴に基づいて、前記コンテンツに一般に関連付けられた補色又は色相に対して、複数の前記カラーマップが選択される、請求項1に記載の方法。
- 前記2D画像及び前記3D画像を登録するステップを更に有する、請求項1に記載の方法。
- 共通シーンの改善された可視化のための3D画像と2D画像を組み合わせるシステムであって:
命令の集合がプログラムされたコンピュータ;
を有するシステムであって、前記命令の集合は:
前記共通シーンにおける複数の領域の特徴に基づいて、選択されたコンテンツを特定するように前記2D画像を分析するステップ;
前記領域の特徴に基づいてコンテンツに対応するカラーマップタグを前記複数の領域に選択的に割り当てるステップ;
前記カラーマップタグに従って前記3D画像の複数の領域の各々に異なるカラーマップを選択的に割り当てるステップ;
前記3D画像における地表の輪郭に基づいて、前記2D画像における画素にZ値を割り当てることにより、前記2D画像から仮想3D画像を生成するステップ;
好ましいカラーマップに基づいて前記仮想3Dにおける複数の点についてカラー値を決定するステップ;並びに
前記3D画像及び前記仮想3D画像を重ね合わせることにより融合画像を生成するステップ;
を有する、システム。 - 前記共通シーンにおけるフィーチャが適切にアライメントされているかどうかを判定するように、前記融合画像を調べることにより、登録するステップの性能及び品質を評価するステップ;
を更に有する、請求項11に記載のシステム。 - 前記コンテンツに基づく特徴は、都会コンテンツ、自然コンテンツ、水コンテンツ及び人工的な構造物コンテンツを有する群から選択される、請求項11に記載のシステム。
- 前記人工的な構造物コンテンツは、建物、家、道路及び乗り物を有する群から選択される、請求項13に記載のシステム。
- 前記3D画像は、各々の点がX、Y及びZ座標軸値に従って規定される3D点群を有する複数の点を有し、前記2D画像は、X軸及びY軸により規定される値に従って排他的に規定された位置を有する複数の画素を有する、請求項11に記載のシステム。
- 前記2D画像において特定された前記複数の領域の対応するX、Y座標値に対して割り当てられた前記カラーマップタグに基づいて、前記3D画像の複数の領域においてX、Y及びZ座標値を有する1つ又はそれ以上の点に対して各々の前記カラーマップを割り当てるように、前記コンピュータはプログラムされている、請求項15に記載のシステム。
- 前記融合画像を生成するステップに先だって、地表面データを有する前記3D画像の一部を取り除くように、前記コンピュータはプログラムされている、請求項11に記載のシステム。
- 前記Z値を割り当てるステップは:
前記X、Y座標値を有する各々の2D画素について、同じX、Y座標値を有する前記3D画像の前記地表の輪郭からのZ値を割り当てるステップ;
特定の2D画素と同じX、Y座標値を有する前記3D画像においてデータ点が存在しない場合に、Z値を補間する又は推定するステップ;
を更に有する、請求項15に記載のシステム。 - 前記カラーマップが用いられる領域の特徴に基づいて、前記コンテンツに一般に関連付けられた補色又は色相に対して、複数の前記カラーマップが選択される、請求項11に記載のシステム。
- 前記2D画像及び前記3D画像を登録するように、前記コンピュータはプログラムされている、請求項11に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/371,186 | 2009-02-13 | ||
US12/371,186 US8179393B2 (en) | 2009-02-13 | 2009-02-13 | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
PCT/US2010/023738 WO2010093682A1 (en) | 2009-02-13 | 2010-02-10 | Fusion of a 2d electro-optical image and 3d point cloud data for scene interpretation and registration performance assessment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012517652A true JP2012517652A (ja) | 2012-08-02 |
Family
ID=42173204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011550200A Withdrawn JP2012517652A (ja) | 2009-02-13 | 2010-02-10 | シーン補間及び登録性能評価のための2d電子光学的画像及び3d点群データの融合 |
Country Status (8)
Country | Link |
---|---|
US (1) | US8179393B2 (ja) |
EP (1) | EP2396766A1 (ja) |
JP (1) | JP2012517652A (ja) |
KR (1) | KR20110127202A (ja) |
CN (1) | CN102317973A (ja) |
BR (1) | BRPI1005836A2 (ja) |
CA (1) | CA2751025A1 (ja) |
WO (1) | WO2010093682A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009374A (ja) * | 2014-06-25 | 2016-01-18 | 株式会社東芝 | 情報処理装置、方法及びプログラム |
JP2016045641A (ja) * | 2014-08-21 | 2016-04-04 | カシオ計算機株式会社 | 画像処理装置、画像処理方法、プログラム |
JP2016217940A (ja) * | 2015-05-22 | 2016-12-22 | 株式会社東芝 | 表面欠陥評価装置、表面欠陥検査システムおよび表面欠陥検査方法 |
JP2018060572A (ja) * | 2012-09-05 | 2018-04-12 | ウェイモ エルエルシー | 複数の情報源を用いる建設区域検出 |
JP2018535402A (ja) * | 2016-01-12 | 2018-11-29 | 三菱電機株式会社 | 異なる分解能を有するセンサーの出力を融合するシステム及び方法 |
US10277836B2 (en) | 2016-03-07 | 2019-04-30 | Ricoh Company, Ltd. | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
CN110018470A (zh) * | 2019-03-01 | 2019-07-16 | 北京纵目安驰智能科技有限公司 | 基于多传感器前融合的实例标注方法、模型、终端和存储介质 |
JP7034530B2 (ja) | 2016-01-18 | 2022-03-14 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 情報処理方法、デバイス、および端末 |
CN114267041A (zh) * | 2022-03-01 | 2022-04-01 | 北京鉴智科技有限公司 | 场景中对象的识别方法及装置 |
Families Citing this family (94)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
US20090231327A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Method for visualization of point cloud data |
US20090232388A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
US20100209019A1 (en) * | 2009-01-23 | 2010-08-19 | Confoy Robert E | Shipping package that converts into a backpack |
US8179393B2 (en) | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
US8290305B2 (en) * | 2009-02-13 | 2012-10-16 | Harris Corporation | Registration of 3D point cloud data to 2D electro-optical image data |
US20100208981A1 (en) * | 2009-02-13 | 2010-08-19 | Harris Corporation | Method for visualization of point cloud data based on scene content |
US20110115812A1 (en) * | 2009-11-13 | 2011-05-19 | Harris Corporation | Method for colorization of point cloud data based on radiometric imagery |
US9317965B2 (en) * | 2009-11-16 | 2016-04-19 | Autodesk, Inc. | Uniform point cloud decimation |
US8525848B2 (en) * | 2009-11-16 | 2013-09-03 | Autodesk, Inc. | Point cloud decimation engine |
US8488877B1 (en) * | 2009-12-02 | 2013-07-16 | Hrl Laboratories, Llc | System for object recognition in colorized point clouds |
JP5480914B2 (ja) * | 2009-12-11 | 2014-04-23 | 株式会社トプコン | 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム |
US20110200249A1 (en) * | 2010-02-17 | 2011-08-18 | Harris Corporation | Surface detection in images based on spatial data |
US8525835B1 (en) * | 2010-02-24 | 2013-09-03 | The Boeing Company | Spatial data compression using implicit geometry |
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
US9132352B1 (en) | 2010-06-24 | 2015-09-15 | Gregory S. Rabin | Interactive system and method for rendering an object |
KR101030763B1 (ko) * | 2010-10-01 | 2011-04-26 | 위재영 | 이미지 획득 유닛, 방법 및 연관된 제어 유닛 |
KR101791590B1 (ko) * | 2010-11-05 | 2017-10-30 | 삼성전자주식회사 | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 |
US8818124B1 (en) * | 2011-03-04 | 2014-08-26 | Exelis, Inc. | Methods, apparatus, and systems for super resolution of LIDAR data sets |
US8963921B1 (en) | 2011-11-02 | 2015-02-24 | Bentley Systems, Incorporated | Technique for enhanced perception of 3-D structure in point clouds |
US9147282B1 (en) | 2011-11-02 | 2015-09-29 | Bentley Systems, Incorporated | Two-dimensionally controlled intuitive tool for point cloud exploration and modeling |
DE102012206329A1 (de) * | 2012-04-17 | 2013-05-23 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zur Ermittlung eines Disparitätsbildes oder einer 3D-Punktwolke |
CN102695070B (zh) * | 2012-06-12 | 2014-06-04 | 浙江大学 | 一种立体图像的深度一致性融合处理方法 |
CN103544688B (zh) * | 2012-07-11 | 2018-06-29 | 东芝医疗系统株式会社 | 医用图像融合装置和方法 |
US9275302B1 (en) * | 2012-08-24 | 2016-03-01 | Amazon Technologies, Inc. | Object detection and identification |
KR102245648B1 (ko) | 2012-09-10 | 2021-04-29 | 에이매스, 아이엔씨. | 복수의 기기를 이용한 다차원의 환경 데이터 캡쳐 |
CN103679108B (zh) | 2012-09-10 | 2018-12-11 | 霍尼韦尔国际公司 | 具有多个图像传感器的光学标记读取装置 |
US10162471B1 (en) | 2012-09-28 | 2018-12-25 | Bentley Systems, Incorporated | Technique to dynamically enhance the visualization of 3-D point clouds |
US9992021B1 (en) | 2013-03-14 | 2018-06-05 | GoTenna, Inc. | System and method for private and point-to-point communication between computing devices |
US9754165B2 (en) * | 2013-07-30 | 2017-09-05 | The Boeing Company | Automated graph local constellation (GLC) method of correspondence search for registration of 2-D and 3-D data |
US20150134384A1 (en) * | 2013-11-08 | 2015-05-14 | Sharper Shape Ltd. | System and method for allocating resources |
GB2520338A (en) * | 2013-11-19 | 2015-05-20 | Nokia Corp | Automatic scene parsing |
US9412040B2 (en) * | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
KR101404655B1 (ko) * | 2014-04-18 | 2014-06-09 | 국방과학연구소 | 레이저 레이더의 3차원 원시 데이터의 고유값 비율을 이용한 송전선 추출 방법 |
KR20150142923A (ko) * | 2014-06-12 | 2015-12-23 | 한국전자통신연구원 | 소포 인입 시스템 및 그 방법 |
US10412594B2 (en) * | 2014-07-31 | 2019-09-10 | At&T Intellectual Property I, L.P. | Network planning tool support for 3D data |
CA2959335A1 (en) * | 2014-08-26 | 2016-03-03 | Massachusetts Institute Of Technology | Methods and apparatus for three-dimensional (3d) imaging |
US10032311B1 (en) * | 2014-09-29 | 2018-07-24 | Rockwell Collins, Inc. | Synthetic image enhancing system, device, and method |
US9984494B2 (en) * | 2015-01-26 | 2018-05-29 | Uber Technologies, Inc. | Map-like summary visualization of street-level distance data and panorama data |
US10362293B2 (en) | 2015-02-20 | 2019-07-23 | Tetra Tech, Inc. | 3D track assessment system and method |
US10452949B2 (en) * | 2015-11-12 | 2019-10-22 | Cognex Corporation | System and method for scoring clutter for use in 3D point cloud matching in a vision system |
CN105551068B (zh) * | 2015-12-07 | 2018-07-24 | 中国人民解放军空军装备研究院雷达与电子对抗研究所 | 一种三维激光扫描与光学照片的合成方法 |
US10482681B2 (en) | 2016-02-09 | 2019-11-19 | Intel Corporation | Recognition-based object segmentation of a 3-dimensional image |
US10373380B2 (en) | 2016-02-18 | 2019-08-06 | Intel Corporation | 3-dimensional scene analysis for augmented reality operations |
US9971956B2 (en) * | 2016-03-21 | 2018-05-15 | International Business Machines Corporation | Detection and presentation of differences between 3D models |
GB2550567A (en) | 2016-05-20 | 2017-11-29 | Nokia Technologies Oy | Point Cloud Matching Method |
US10325370B1 (en) * | 2016-05-31 | 2019-06-18 | University Of New Brunswick | Method and system of coregistration of remote sensing images |
US10573018B2 (en) * | 2016-07-13 | 2020-02-25 | Intel Corporation | Three dimensional scene reconstruction based on contextual analysis |
US10066946B2 (en) | 2016-08-26 | 2018-09-04 | Here Global B.V. | Automatic localization geometry detection |
CN106796728A (zh) * | 2016-11-16 | 2017-05-31 | 深圳市大疆创新科技有限公司 | 生成三维点云的方法、装置、计算机系统和移动设备 |
EP3324209A1 (en) * | 2016-11-18 | 2018-05-23 | Dibotics | Methods and systems for vehicle environment map generation and updating |
JP6171079B1 (ja) * | 2016-12-22 | 2017-07-26 | 株式会社Cygames | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
CN108241365B (zh) * | 2016-12-27 | 2021-08-24 | 法法汽车(中国)有限公司 | 估计空间占据的方法和装置 |
CN110325818B (zh) * | 2017-03-17 | 2021-11-26 | 本田技研工业株式会社 | 经由多模融合的联合3d对象检测和取向估计 |
WO2018199958A1 (en) * | 2017-04-27 | 2018-11-01 | Hewlett-Packard Development Company, L.P. | Object recognition |
EP3399757A1 (en) * | 2017-05-04 | 2018-11-07 | Thomson Licensing | Method and apparatus to encode and decode two-dimension point clouds |
US10504003B1 (en) * | 2017-05-16 | 2019-12-10 | State Farm Mutual Automobile Insurance Company | Systems and methods for 3D image distification |
WO2018236347A1 (en) * | 2017-06-20 | 2018-12-27 | Hewlett-Packard Development Company, L.P. | DETERMINATIONS OF SENSOR POSITIONS |
US11204896B2 (en) | 2017-08-18 | 2021-12-21 | International Business Machines Corporation | Scalable space-time density data fusion |
US11487988B2 (en) | 2017-08-31 | 2022-11-01 | Ford Global Technologies, Llc | Augmenting real sensor recordings with simulated sensor data |
US11455565B2 (en) | 2017-08-31 | 2022-09-27 | Ford Global Technologies, Llc | Augmenting real sensor recordings with simulated sensor data |
US10462485B2 (en) * | 2017-09-06 | 2019-10-29 | Apple Inc. | Point cloud geometry compression |
EP3467777A1 (en) | 2017-10-06 | 2019-04-10 | Thomson Licensing | A method and apparatus for encoding/decoding the colors of a point cloud representing a 3d object |
CN107655898B (zh) * | 2017-10-10 | 2023-11-03 | 山西省智慧交通研究院有限公司 | 一种用于公路隧道检测的立体扫描机器人及其实施方法 |
CN109839922B (zh) * | 2017-11-28 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 用于控制无人驾驶车辆的方法及装置 |
US11093759B2 (en) | 2018-03-06 | 2021-08-17 | Here Global B.V. | Automatic identification of roadside objects for localization |
CN108332684A (zh) * | 2018-04-23 | 2018-07-27 | 中国科学院苏州生物医学工程技术研究所 | 一种基于结构光照明显微技术的三维轮廓测量方法 |
US10807623B2 (en) | 2018-06-01 | 2020-10-20 | Tetra Tech, Inc. | Apparatus and method for gathering data from sensors oriented at an oblique angle relative to a railway track |
US11377130B2 (en) | 2018-06-01 | 2022-07-05 | Tetra Tech, Inc. | Autonomous track assessment system |
CN108921925B (zh) * | 2018-06-27 | 2022-12-09 | 广州视源电子科技股份有限公司 | 基于激光雷达和视觉融合的语义点云生成方法和装置 |
CN110719497B (zh) * | 2018-07-12 | 2021-06-22 | 华为技术有限公司 | 点云编解码方法和编解码器 |
EP3623752A1 (de) * | 2018-09-17 | 2020-03-18 | Riegl Laser Measurement Systems GmbH | Verfahren zum generieren einer orthogonalansicht eines objekts |
WO2020067751A1 (ko) | 2018-09-28 | 2020-04-02 | 재단법인대구경북과학기술원 | 이종 센서 간의 데이터 융합 장치 및 방법 |
US11360970B2 (en) | 2018-11-13 | 2022-06-14 | International Business Machines Corporation | Efficient querying using overview layers of geospatial-temporal data in a data analytics platform |
US10846817B2 (en) | 2018-11-15 | 2020-11-24 | Toyota Research Institute, Inc. | Systems and methods for registering 3D data with 2D image data |
US10846818B2 (en) | 2018-11-15 | 2020-11-24 | Toyota Research Institute, Inc. | Systems and methods for registering 3D data with 2D image data |
US10627512B1 (en) * | 2018-11-29 | 2020-04-21 | Luminar Technologies, Inc. | Early fusion of lidar return data with camera information |
US10924721B2 (en) * | 2018-12-20 | 2021-02-16 | Intel Corporation | Volumetric video color assignment |
US10846511B2 (en) * | 2018-12-20 | 2020-11-24 | Here Global B.V. | Automatic detection and positioning of pole-like objects in 3D |
CN109947242B (zh) * | 2019-02-26 | 2022-06-24 | 贵州翰凯斯智能技术有限公司 | 一种基于信息融合的工厂虚拟应用系统及使用方法 |
CN110008843B (zh) * | 2019-03-11 | 2021-01-05 | 武汉环宇智行科技有限公司 | 基于点云和影像数据的车辆目标联合认知方法和系统 |
CA3130198C (en) | 2019-05-16 | 2022-05-17 | Darel Mesher | System and method for generating and interpreting point clouds of a rail corridor along a survey path |
DE102019129986A1 (de) * | 2019-11-07 | 2021-05-12 | Sick Ag | Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten |
US11935288B2 (en) * | 2019-12-01 | 2024-03-19 | Pointivo Inc. | Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon |
CN110988912B (zh) * | 2019-12-06 | 2022-12-02 | 青岛慧拓智能机器有限公司 | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 |
CN110782465B (zh) * | 2019-12-30 | 2020-03-27 | 中智行科技有限公司 | 一种基于激光雷达的地面分割方法、装置及存储介质 |
JP2022042146A (ja) * | 2020-09-02 | 2022-03-14 | 株式会社トプコン | データ処理装置、データ処理方法およびデータ処理用プログラム |
CN112066994B (zh) * | 2020-09-28 | 2022-07-22 | 河海大学常州校区 | 一种消防机器人局部自主导航方法及系统 |
CN112367514B (zh) * | 2020-10-30 | 2022-12-09 | 京东方科技集团股份有限公司 | 三维场景构建方法、装置、系统和存储介质 |
CN113139730B (zh) * | 2021-04-27 | 2022-03-11 | 浙江悦芯科技有限公司 | 一种基于数字孪生模型的电力设备状态评估方法及系统 |
CN113298947B (zh) * | 2021-04-28 | 2023-10-03 | 江苏省送变电有限公司 | 一种基于多源数据融合的变电站三维建模方法介质及系统 |
CN113762090B (zh) * | 2021-08-16 | 2024-03-08 | 国网浙江省电力有限公司湖州供电公司 | 一种特高压密集输电通道灾害监测预警方法 |
CN114049385A (zh) * | 2021-10-15 | 2022-02-15 | 哈尔滨工业大学(威海) | 基于自适应配准的多激光雷达自主建网系统、方法、终端 |
EP4198870A1 (en) * | 2021-12-17 | 2023-06-21 | dSPACE GmbH | A method for generating a bird s eye view image |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4688008A (en) | 1986-02-03 | 1987-08-18 | Motorola, Inc. | Locking, adjustable waveguide shorting piston |
US5247587A (en) * | 1988-07-15 | 1993-09-21 | Honda Giken Kogyo Kabushiki Kaisha | Peak data extracting device and a rotary motion recurrence formula computing device |
US6418424B1 (en) * | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5875108A (en) * | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6081750A (en) * | 1991-12-23 | 2000-06-27 | Hoffberg; Steven Mark | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5901246A (en) * | 1995-06-06 | 1999-05-04 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6400996B1 (en) * | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
JPH05205072A (ja) | 1992-01-23 | 1993-08-13 | Toshiba Corp | 電力系統の表示装置 |
US5416848A (en) * | 1992-06-08 | 1995-05-16 | Chroma Graphics | Method and apparatus for manipulating colors or patterns using fractal or geometric methods |
US6526352B1 (en) * | 2001-07-19 | 2003-02-25 | Intelligent Technologies International, Inc. | Method and arrangement for mapping a road |
US6405132B1 (en) * | 1997-10-22 | 2002-06-11 | Intelligent Technologies International, Inc. | Accident avoidance system |
US5781146A (en) * | 1996-03-11 | 1998-07-14 | Imaging Accessories, Inc. | Automatic horizontal and vertical scanning radar with terrain display |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6420698B1 (en) * | 1997-04-24 | 2002-07-16 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three-dimensional objects |
IL121431A (en) * | 1997-07-30 | 2000-08-31 | Gross David | Method and system for display of an additional dimension |
DE19746639A1 (de) | 1997-10-22 | 1999-05-06 | Gta Geoinformatik Gmbh | Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte |
US6206691B1 (en) | 1998-05-20 | 2001-03-27 | Shade Analyzing Technologies, Inc. | System and methods for analyzing tooth shades |
US20020176619A1 (en) * | 1998-06-29 | 2002-11-28 | Love Patrick B. | Systems and methods for analyzing two-dimensional images |
US6904163B1 (en) * | 1999-03-19 | 2005-06-07 | Nippon Telegraph And Telephone Corporation | Tomographic image reading method, automatic alignment method, apparatus and computer readable medium |
GB2349460B (en) * | 1999-04-29 | 2002-11-27 | Mitsubishi Electric Inf Tech | Method of representing colour images |
US6476803B1 (en) * | 2000-01-06 | 2002-11-05 | Microsoft Corporation | Object modeling system and process employing noise elimination and robust surface extraction techniques |
US7027642B2 (en) * | 2000-04-28 | 2006-04-11 | Orametrix, Inc. | Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects |
WO2002093916A2 (en) * | 2001-05-14 | 2002-11-21 | Elder James H | Attentive panoramic visual sensor |
US20040109608A1 (en) | 2002-07-12 | 2004-06-10 | Love Patrick B. | Systems and methods for analyzing two-dimensional images |
AU2003270654A1 (en) * | 2002-09-12 | 2004-04-30 | Baylor College Of Medecine | System and method for image segmentation |
US7098809B2 (en) * | 2003-02-18 | 2006-08-29 | Honeywell International, Inc. | Display methodology for encoding simultaneous absolute and relative altitude terrain data |
US7242460B2 (en) * | 2003-04-18 | 2007-07-10 | Sarnoff Corporation | Method and apparatus for automatic registration and visualization of occluded targets using ladar data |
EP1492054B1 (en) | 2003-06-23 | 2019-07-31 | Harman Becker Automotive Systems GmbH | Method and apparatus for capturing and displaying a three-dimensional scene |
EP1505547B1 (en) | 2003-08-05 | 2010-12-22 | Geotechnos S.R.L. | Method for surveying, processing and making use of data concerning the topographic conformation and the morphology of land and road network |
US7046841B1 (en) * | 2003-08-29 | 2006-05-16 | Aerotec, Llc | Method and system for direct classification from three dimensional digital imaging |
US7103399B2 (en) * | 2003-09-08 | 2006-09-05 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
US7831087B2 (en) | 2003-10-31 | 2010-11-09 | Hewlett-Packard Development Company, L.P. | Method for visual-based recognition of an object |
DE10357184A1 (de) * | 2003-12-08 | 2005-07-07 | Siemens Ag | Verfahren zur fusionierten Bilddarstellung |
US20050171456A1 (en) | 2004-01-29 | 2005-08-04 | Hirschman Gordon B. | Foot pressure and shear data visualization system |
US7145562B2 (en) * | 2004-05-03 | 2006-12-05 | Microsoft Corporation | Integration of three dimensional scene hierarchy into two dimensional compositing system |
US7728833B2 (en) * | 2004-08-18 | 2010-06-01 | Sarnoff Corporation | Method for generating a three-dimensional model of a roof structure |
US7777761B2 (en) * | 2005-02-11 | 2010-08-17 | Deltasphere, Inc. | Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set |
US7974461B2 (en) * | 2005-02-11 | 2011-07-05 | Deltasphere, Inc. | Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets |
US7477360B2 (en) * | 2005-02-11 | 2009-01-13 | Deltasphere, Inc. | Method and apparatus for displaying a 2D image data set combined with a 3D rangefinder data set |
US7822266B2 (en) | 2006-06-02 | 2010-10-26 | Carnegie Mellon University | System and method for generating a terrain model for autonomous navigation in vegetation |
US7990397B2 (en) * | 2006-10-13 | 2011-08-02 | Leica Geosystems Ag | Image-mapped point cloud with ability to accurately represent point coordinates |
US7940279B2 (en) | 2007-03-27 | 2011-05-10 | Utah State University | System and method for rendering of texel imagery |
US8218905B2 (en) | 2007-10-12 | 2012-07-10 | Claron Technology Inc. | Method, system and software product for providing efficient registration of 3D image data |
US20090225073A1 (en) * | 2008-03-04 | 2009-09-10 | Seismic Micro-Technology, Inc. | Method for Editing Gridded Surfaces |
US20090232388A1 (en) | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
US20090231327A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Method for visualization of point cloud data |
US20090232355A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data using eigenanalysis |
US8155452B2 (en) | 2008-10-08 | 2012-04-10 | Harris Corporation | Image registration using rotation tolerant correlation method |
US8427505B2 (en) * | 2008-11-11 | 2013-04-23 | Harris Corporation | Geospatial modeling system for images and related methods |
US8290305B2 (en) * | 2009-02-13 | 2012-10-16 | Harris Corporation | Registration of 3D point cloud data to 2D electro-optical image data |
US20100208981A1 (en) * | 2009-02-13 | 2010-08-19 | Harris Corporation | Method for visualization of point cloud data based on scene content |
US8179393B2 (en) | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
US20110115812A1 (en) * | 2009-11-13 | 2011-05-19 | Harris Corporation | Method for colorization of point cloud data based on radiometric imagery |
US20110200249A1 (en) | 2010-02-17 | 2011-08-18 | Harris Corporation | Surface detection in images based on spatial data |
-
2009
- 2009-02-13 US US12/371,186 patent/US8179393B2/en active Active
-
2010
- 2010-02-10 BR BRPI1005836A patent/BRPI1005836A2/pt not_active IP Right Cessation
- 2010-02-10 EP EP10704684A patent/EP2396766A1/en not_active Withdrawn
- 2010-02-10 CN CN2010800074857A patent/CN102317973A/zh active Pending
- 2010-02-10 KR KR1020117021303A patent/KR20110127202A/ko not_active Application Discontinuation
- 2010-02-10 WO PCT/US2010/023738 patent/WO2010093682A1/en active Application Filing
- 2010-02-10 CA CA2751025A patent/CA2751025A1/en not_active Abandoned
- 2010-02-10 JP JP2011550200A patent/JP2012517652A/ja not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018060572A (ja) * | 2012-09-05 | 2018-04-12 | ウェイモ エルエルシー | 複数の情報源を用いる建設区域検出 |
JP2016009374A (ja) * | 2014-06-25 | 2016-01-18 | 株式会社東芝 | 情報処理装置、方法及びプログラム |
JP2016045641A (ja) * | 2014-08-21 | 2016-04-04 | カシオ計算機株式会社 | 画像処理装置、画像処理方法、プログラム |
JP2016217940A (ja) * | 2015-05-22 | 2016-12-22 | 株式会社東芝 | 表面欠陥評価装置、表面欠陥検査システムおよび表面欠陥検査方法 |
JP2018535402A (ja) * | 2016-01-12 | 2018-11-29 | 三菱電機株式会社 | 異なる分解能を有するセンサーの出力を融合するシステム及び方法 |
JP7034530B2 (ja) | 2016-01-18 | 2022-03-14 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 情報処理方法、デバイス、および端末 |
US10277836B2 (en) | 2016-03-07 | 2019-04-30 | Ricoh Company, Ltd. | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
US10827133B2 (en) | 2016-03-07 | 2020-11-03 | Ricoh Company, Ltd. | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
CN110018470A (zh) * | 2019-03-01 | 2019-07-16 | 北京纵目安驰智能科技有限公司 | 基于多传感器前融合的实例标注方法、模型、终端和存储介质 |
CN114267041A (zh) * | 2022-03-01 | 2022-04-01 | 北京鉴智科技有限公司 | 场景中对象的识别方法及装置 |
CN114267041B (zh) * | 2022-03-01 | 2022-05-13 | 北京鉴智科技有限公司 | 场景中对象的识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2010093682A1 (en) | 2010-08-19 |
KR20110127202A (ko) | 2011-11-24 |
EP2396766A1 (en) | 2011-12-21 |
US20100207936A1 (en) | 2010-08-19 |
CN102317973A (zh) | 2012-01-11 |
CA2751025A1 (en) | 2010-08-19 |
BRPI1005836A2 (pt) | 2019-09-24 |
US8179393B2 (en) | 2012-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012517652A (ja) | シーン補間及び登録性能評価のための2d電子光学的画像及び3d点群データの融合 | |
Mao et al. | An improved approach to estimate above-ground volume and biomass of desert shrub communities based on UAV RGB images | |
Tong et al. | Building-damage detection using pre-and post-seismic high-resolution satellite stereo imagery: A case study of the May 2008 Wenchuan earthquake | |
Gruszczyński et al. | Comparison of low-altitude UAV photogrammetry with terrestrial laser scanning as data-source methods for terrain covered in low vegetation | |
EP2494525B1 (en) | A method for automatic material classification and texture simulation for 3d models | |
Wurm et al. | Investigating the applicability of Cartosat-1 DEMs and topographic maps to localize large-area urban mass concentrations | |
Kuc et al. | Sentinel-2 imagery for mapping and monitoring imperviousness in urban areas | |
Huang et al. | Semantics-aided 3D change detection on construction sites using UAV-based photogrammetric point clouds | |
Capaldo et al. | DSM generation from high resolution imagery: applications with WorldView-1 and Geoeye-1. | |
US20080089577A1 (en) | Feature extraction from stereo imagery | |
Maurer et al. | Tapping into the Hexagon spy imagery database: A new automated pipeline for geomorphic change detection | |
Yang et al. | An endmember optimization approach for linear spectral unmixing of fine-scale urban imagery | |
Zhang et al. | Lidar-guided stereo matching with a spatial consistency constraint | |
US8139863B1 (en) | System for capturing, characterizing and visualizing lidar and generic image data | |
Rönnholm | Registration quality-towards integration of laser scanning and photogrammetry | |
Shin et al. | True orthoimage generation using airborne lidar data with generative adversarial network-based deep learning model | |
Hong et al. | Orthorectification of Large Datasets of Multi-scale Archival Aerial Imagery: A Case Study from Türkiye | |
Yoo et al. | True orthoimage generation by mutual recovery of occlusion areas | |
Buckley et al. | The benefits of terrestrial laser scanning and hyperspectral data fusion products | |
Khan et al. | Clifford geometric algebra-based approach for 3D modeling of agricultural images acquired by UAVs | |
JP6207968B2 (ja) | 林相解析装置、林相解析方法及びプログラム | |
Loghin et al. | Supervised classification and its repeatability for point clouds from dense VHR tri-stereo satellite image matching using machine learning | |
Sima | An improved workflow for image-and laser-based virtual geological outcrop modelling | |
Hughes et al. | Investigation of joint visibility between SAR and optical images of urban environments | |
Rajpriya et al. | Generation of 3D Model for Urban area using Ikonos and Cartosat-1 Satellite Imageries with RS and GIS Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20121022 |