JP6168833B2 - 3DGeoArcを用いた多モードデータの画像登録 - Google Patents

3DGeoArcを用いた多モードデータの画像登録 Download PDF

Info

Publication number
JP6168833B2
JP6168833B2 JP2013093877A JP2013093877A JP6168833B2 JP 6168833 B2 JP6168833 B2 JP 6168833B2 JP 2013093877 A JP2013093877 A JP 2013093877A JP 2013093877 A JP2013093877 A JP 2013093877A JP 6168833 B2 JP6168833 B2 JP 6168833B2
Authority
JP
Japan
Prior art keywords
target image
sensor
reference model
dimensional
geoarc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013093877A
Other languages
English (en)
Other versions
JP2013232195A5 (ja
JP2013232195A (ja
Inventor
ユリ オウェッコ,
ユリ オウェッコ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2013232195A publication Critical patent/JP2013232195A/ja
Publication of JP2013232195A5 publication Critical patent/JP2013232195A5/ja
Application granted granted Critical
Publication of JP6168833B2 publication Critical patent/JP6168833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Description

本発明は、画像登録システムと方法に関し、具体的には、3D−GeoArcを用いてシーンの一又は複数の多モード画像を同シーンの3D表示と組み合わせる画像登録技術に関する。
画像登録は、一又は複数のデータセットを組み合わせて単一のデータ表示を形成するプロセスである。データセットは、複数の写真、異なるセンサから得られたデータ、異なる時間のデータ、又は異なるフォーマットに格納されたデータでありうる。画像登録技術は、二つ以上の画像又は画像から選択された点を組み合わせることにより、原画像の各々から得られたデータを含む合成画像を生成する。いくつかの画像登録技術は、一のデータセット(標的とよぶ)の詳細を、第2のデータセット(基準とよぶ)に投影する。いくつかの画像登録技術は、標的画像を、格納されている一又は複数の基準画像と比較するか、又はそのような基準画像に変換する。このような画像登録技術は、画像内の関連する点又は構造が、結果として得られる復号画像内において相関するように、画像間で点を関連付けるアルゴリズムを用いることがある。
画像登録のいくつかの方法では、類似しているように見える点、線、及び輪郭といった画像内の特定のフィーチャ間の詳細な対応を検索する。このような外観に基づく方法では、発見した対応を用いて、標的画像を一又は複数の基準画像へと変換又はマッピングする。このような技術は、画像内に表示されたオブジェクト、シーン、又は構造の種類の専門知識を持つ個人による入力を伴う。専門家は、登録技術が相関を試みる画像内の一組のランドマーク的フィーチャを識別することができる。例えば、一の画像登録方法は、人間の頭部を異なる軸でスライスした二つのMRI画像を比較することができ、医者は二つの画像内における小脳(ランドマーク)に対応する点(及び/又はこれらの点を取り囲む輪郭)を識別することができる。次いでこの画像登録アルゴリズムは、ランドマーク間の既知の関係性に基づいて標的画像を基準画像にマッピングする。このように、標的画像内において可視のランドマークを、基準画像内において既に識別されているランドマークとマッチングすることにより、登録技術は、標的画像がどのように基準画像と整列するかについて結論を出すことができる。
他の画像登録方法では、相関計量を使用して、画像内の詳細な容積に基づく(又は3D幾何学的な)結像を比較する。このような幾何学的方法のいくつかは、次いで、容積に基づくフィーチャがどの程度緊密に整列するかに基づいて、標的画像と基準画像との間の視差を表す距離を測定する。二つの画像の登録では、このような距離測定を減らすマッピングを見つけるための助けとなる最適化の等式を利用する。このような方法は、画像全体又は部分画像を登録することができ、部分画像が登録される場合、部分画像は対応するフィーチャ点として処理することができる。
他のいくつかの画像登録方法は、地理空間情報を使用して、構造又はフィーチャの基準源を供給している。地理空間情報(又はジオロケーション)は、一般に、オブジェクトの現実世界における地理的な位置の識別を指す。ジオロケーションは、位置を評価する手順、又は実際に評価された位置を指すことができる。地理空間情報は、写真に含まれるフィーチャと、そのようなフィーチャ又は構造の実際の地理的位置との間の結びつきを示すことができる。例えば、いくつかの現在地認識アルゴリズムは、GPSタグの付いた、オンラインリポジトリーに基づくクラウドソース式画像収集を、直接的フィーチャマッチング技術及び多視点ジオメトリーと組み合わせて使用する。標的画像は、通りの角又は記念建造物から取得され、次いで場所認識アルゴリズムが、保存されている大量の基準画像をスキャンすることにより、基準データベース内において最も類似のフィーチャを見つけようと試みる。このような場所認識アルゴリズムは、このようなジオロケーションを可能にするために、大規模な画像データベースを必要とする。
本発明の一又は複数の実施形態は、他の情報の中でも特に標的画像を生成したセンサ由来の視点データと3D−GeoArcとを使用して、シーンの多モード画像を、同シーンの三次元(3D)表示に登録することを可能にする方法、システム、技術、及び/又は解決法を説明する。
有利な一実施形態では、下記のステップを含む画像登録方法を実行することができる(例えば、コンピュータなどのデータ処理システムの少なくとも一部において)。この方法の第1のステップは、シーンの三次元基準モデルを確立することを含む。方法の次のステップは、シーンの標的画像を獲得することを含む。標的画像は、センサによって捕獲されたものでありうる。方法の次のステップは、一又は複数の三次元geoarc(GeoArcとも呼ぶ)を用いて標的画像を捕獲したセンサの視点を決定することを含む。このとき、センサの視点は三次元基準モデルに対して決定することができる。方法の次のステップは、標的画像に基づくデータを三次元基準モデルに基づくデータと関連付けることにより、シーンの合成三次元表示を生成することを含む。このとき、センサの視点を使用して関連付けを行なうことができる。
本発明のいくつかの実施形態では、センサの視点を決定することは、さらに、以下のサブステップを含む。第1のサブステップは、三次元基準モデルに含まれる一又は複数のフィーチャ対を識別することを含む。三次元基準モデルは、地理空間インテリジェンスシステムデータベースの情報を使用して確立される。次のサブステップは、標的画像に含まれる一又は複数のフィーチャ対を識別することを含む。三次元基準モデル内及び標的画像内において識別されるフィーチャ対は、基準モデル及び標的画像の回転及び縮尺によって変化しないように特徴づけることができる。次に、標的画像内の各フィーチャ対について、方法は、(1)標的画像内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、(2)標的画像内のフィーチャ対に関連付けられる角度を推定し、(3)三次元基準モデルに関連付けられる三次元geoarc表面であって、標的画像内のフィーチャ対と推定角度との関係を表すgeoarc表面を生成することができる。次のサブステップは、三次元基準モデルに対して、三次元空間内で二つ以上の三次元geoarc表面が重複する位置を識別することを含む。本発明のいくつかの実施形態では、三次元geoarc表面を生成することは、geoarc表面の厚みを変化させることにより、推定角度の不確実性を表示することを含む。本発明のいくつかの実施形態では、生成されたgeoarc表面は、既に生成されているgeoarc表面と重複し、三次元容積を生むことがある。
本発明のいくつかの実施形態では、センサの視点を決定することは、さらに以下のサブステップを含む。第1のサブステップは、決定されるセンサの視点として、最も多くのgeoarc表面が重複する位置を選択することを含む。次に、標的画像内の各フィーチャ対について、方法は、三次元geoarc表面の、基準データによるチェックによれば不正確である視点に関連する部分を無視又は除去することにより、生成された三次元geoarc表面を精緻化する。次のサブステップは、決定されたセンサの視点を、基準データを参照することにより認証し、決定されたセンサの視点が正確である場合に標的画像において可視でなければならない追加的フィーチャを予測することを含む。本発明のいくつかの実施形態では、センサの視点を決定するステップは、三次元基準モデルを任意の数の領域に区分すること、及びそれら領域の一又は複数の内部において見込みのあるセンサの視点を決定することを含む。
本発明のいくつかの実施形態では、合成三次元表示を生成することは、さらに、以下のサブステップを含む。第1のサブステップは、センサの位置、及び合成三次元表示に対するセンサの角度を決定することを含む。次のサブステップは、標的画像内において可視である一又は複数のオブジェクトの、合成三次元表示に対する位置を、各オブジェクトについて、センサの位置に一方向へのオフセットを加えることにより決定することを含む。次のサブステップは、標的画像に関連付けられた一又は複数のオブジェクトを、実時間で、3D合成シーンへ投影することを含む。
別の有利な一実施形態では、下記のステップを含む画像登録方法を実行することができる(例えば、コンピュータなどのデータ処理システムの少なくとも一部において)。この方法の第1のステップは、三次元基準モデルに含まれる一又は複数のフィーチャ対を識別することを含む。方法の次のステップは、標的画像に含まれる一又は複数のフィーチャ対を識別することを含む。次に、標的画像内の各フィーチャ対について、方法は、(1)標的画像内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、(2)標的画像内のフィーチャ対に関連付けられる角度を推定し、(3)三次元基準モデルに関連付けられる三次元geoarc表面であって、標的画像内のフィーチャ対と推定角度との関係を表すgeoarc表面を生成し、(4)三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を、三次元基準モデルに対して識別することができる。本発明のいくつかの実施形態では、geoarc表面の厚みを変化させることにより、推定角度の不確実性を表示することができる。本発明のいくつかの実施形態では、生成されたgeoarc表面は、既に生成済みのgeoarc表面と重複し、三次元容積を生むことがある。
別の有利な一実施形態では、画像を捕獲するように適合されたセンサ、及びセンサに通信可能に連結されたデータ処理システムを備えた航空ビークルが説明される。データ処理システムは、シーンの三次元基準モデルを確立するようにプログラムされる。データ処理システムは、さらに、センサからシーンの標的画像を獲得するようにプログラムすることができる。データ処理システムは、さらに、一又は複数の三次元geoarcを用いて、標的画像を捕獲したセンサの視点を、三次元基準モデルに対して決定するようにプログラムすることができる。データ処理システムは、さらに、標的画像に基づくデータを三次元基準モデルに基づくデータと関連付けることにより、シーンの合成三次元表示を生成するようにプログラムすることができる。このとき、センサの視点を使用して関連付けを行なってもよい。
本発明のいくつかの実施形態では、センサの視点を決定するために、データ処理システムは、三次元基準モデル内における一又は複数のフィーチャ対を識別するようにさらにプログラムされる。データ処理システムは、さらに、標的画像内における一又は複数のフィーチャ対を識別するようにプログラムされてもよい。標的画像内の各フィーチャ対について、データ処理システムは、さらに、(1)標的画像内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、(2)標的画像内のフィーチャ対に関連付けられる角度を推定し、(3)三次元基準モデルに関連付けられる三次元geoarc表面であって、標的画像内のフィーチャ対と推定角度との関係を表すgeoarc表面を生成するようにプログラムされてもよい。データ処理システムは、さらに、三次元空間内で二つ以上の三次元geoarc表面が重複する位置を、三次元基準モデルに対して識別するようにプログラムされてもよい。本発明のいくつかの実施形態では、シーンの合成三次元表示を生成するために、データ処理システムは、さらに、標的画像に関連付けられる一又は複数のオブジェクトを、実時間で、3D合成シーンに投影するようにプログラムされる。
本発明のいくつかの実施形態では、センサは航空ビークル上で、ランドスケープとシーンとがセンサの視野に含まれるように位置する。本発明のいくつかの実施形態では、データ処理システムは、三次元基準モデルを含む基準データを格納するメモリであって、センサによって捕獲された画像を格納するメモリを含むことができる。
上述のフィーチャ、機能及び利点は、様々な実施形態において独立に実現することが可能であるか、さらに別の実施形態において組み合わせることが可能である。これらの実施形態について、以下の説明及び添付図面を参照してさらに詳細に説明する。
以下に複数の特徴及び利点を記載するうえで、実施例として添付図面を用いて複数の実施形態について説明する。
本発明の一又は複数の実施形態に従って実行される例示的ステップを示す高レベルのフロー図である。 本発明の一又は複数の実施形態に従って実行される例示的ステップを示す高レベルのフロー図である。 本発明の一又は複数の実施形態の説明を助ける例示的幾何学形状を示している。 本発明の一又は複数の実施形態の説明を助ける例示的な情報の流れを示している。 本発明の一又は複数の実施形態の説明を助ける例示的幾何学形状を示している。 本発明の一又は複数の実施形態の説明を助ける例示的幾何学形状を示している。 本発明の一又は複数の実施形態の技術の、例示的シーンと例示的適用とを示している。 一又は複数の例示的試験の結果の例を示している。 一又は複数の例示的試験の結果の例を示している。 一又は複数の例示的シミュレーションの画像及び結果の例を示している。 本発明の一又は複数の実施形態による航空ビークルの、斜め上から見た眺めを示している。 本発明の一又は複数の実施形態による航空ビークルの、斜め下から見た眺めを示している。 本発明の一又は複数の実施形態による例示的なデータ処理システムのブロック図である。 本発明の一又は複数の実施形態による、プログラムコードと他のコンポーネントとの間の例示的相互作用を示すブロック図である。 本発明の一又は複数の実施形態による、ネットワークに接続されたデータ処理システムとコンポーネントからなる例示的システムを示す図である。
画像登録のための技術が存在するとはいえ、現行技術には複数の欠点がある。例えば、現行技術の多くは、直接登録を実行するために、特定のフィーチャ間の対応を発見しようと試みる。このような技術では、二つのフィーチャが一致することを確認するために考慮を要するデータ点が大量であるために、複雑な演算を必要とする。いくつかの現行技術は、例えば、カメラ又はセンサから取得した標的画像と基準画像又はモデルとの間での画像変換を必要とする。加えて、これらの技術は、一致しているフィーチャを見つけるための、基準画像データベースの大規模検索と、標的画像を、基準データベース内において視覚的に類似する画像又はモデルと一致させる複雑なアルゴリズムとを必要とする。これらの技術は、類似性を決定するために種々の複雑な方法を使用し、そのような方法には、「語の袋(bag−of−words)法」(全体的類似性を測るために、画像内の任意の数の類似のフィーチャを検出すること)が含まれる。このような複雑な方法は、良好な写真が撮られている場所や都市部では役立つが、農村部ではデータベース内のデータ量が不十分である。加えて、特定のフィーチャ間の対応を発見することは、フィーチャが異なる波長で又は種類の異なるセンサで作成された記録から生成されている場合、困難でありうる。
現行の、幾何学に基づく方法も欠点を有している。このような技術は、実世界(又は地上レベルの構造データ)から精度の高い幾何モデルを生成することが可能な都市設定で最も一般的に使用されている。この場合、登録技術は、標的画像と格納されているモデルとの間の3Dアラインメントを検出するために、弁別的な点、反復パターン、及びラインクラスタリングの類似性を使用する。このような技術は、有望な結果を示す一方、基準モデル及び基準データベースを形成するための地上レベルの画像が十分でない任意のシーン又はエリアには適してない。加えて、現行技術は、画像内の部分領域を検出して一致させることがあり、このような一致部分領域が登録アルゴリズムを混乱させる結果、画像全体の登録が正確に行われないことがある。
さらに、現行技術は、異なる様相を使用して獲得された画像(例えば、異なるセンサを用いて獲得された画像、又は異なるフォーマット又は寸法で捕獲された画像)を高い精度で登録することができない。これは、異なる様相の画像を登録するときに現行技術が利用する仮定が正しいと証明されないためである。例えば、従来の画像登録技術の多くは、対応する画像要素(例えば、画素、ボクセルなど)の画像強度が、登録対象である画像内で同一であると仮定する。加えて、異なる様相の画像は、異なる解像度、寸法、又はフォーマットを有する可能性があるか、或いは多種多様な視点から記録されている可能性がある。
現行のジオロケーション登録技術も限界を有している。例えば、そのような技術は、写真が撮られた多様な視点に基づいた精度の高い登録を行わない。加えて、画像、又は他の情報の大規模データベースが必要になるので、このような技術は、都市部又は多数の訪問者を惹きつける他のエリア(訪問者がデータベースに画像を寄与する)といったデータ量の多い地域に限定される。さらに、フィーチャ又はパターンの直接的マッチングを利用する技術の精度は、照明、季節、又は天候の変化により低下しうる。このような技術は、大量の基準画像が必要とされることにより、拡張性の問題も有している。
したがって、もっと精度が高く、柔軟で拡張可能な多モード画像登録のための技術であって、直接的なフィーチャマッチングに異存する必要がなく、精密な幾何モデルを利用する必要もない技術が望まれている。本発明は、他の情報の中でも特に標的画像を生成したセンサ由来の視点データと、GeoArc(geoarcともいう)とを使用して、シーンの多モード画像を、同シーンの三次元(3D)表示に登録することを可能にする技術、方法、及び/又はシステムを説明する。
既存の視点登録システムとは異なり、本明細書に記載される解決法では、標的画像と非常に詳細な基準画像との間での直接的なフィーチャマッチング、又は対応を試行する必要がない。本発明の解決法は、地理的な位置内で人間が自分をどのように位置づけるかについてパターン化される。生態学的生理学における研究により、人間は、不慣れな環境では、主にそのエリアの地形図を使用して自分を位置づけることが示されている。人間は、自身を取りまく環境の複雑なモデルを形成して、このようなモデルに含まれる特定のフィーチャを格納されている基準データと直接一致させようとすることはしない。実際、人間は、反復型の証拠収集プロセスに従い、少数の観察可能な一般のランドマーク的フィーチャ間の関係を考慮する。次いで、人間は仮説を立て、基準データを用いてそれを確認しようと試みる。同様に、本明細書に記載される技術では、証拠を蓄積し、複数の仮説を生成してから、基準モデルと場合によっては他の基準データとによって課される複数の制約を最もよく満たす仮説を使用して、最終的なジオロケーションエリアを生成する。このような技術により、現行の画像登録システムの基礎である徹底的なフィーチャ対フィーチャの対応の問題を解消する必要が回避される。本明細書に記載される解決法は、標的画像内のフィーチャが基準モデル内のものと同種のものであるかどうかと、フィーチャが他のフィーチャと同様の関係を有しているかどうかとを決定すればよいだけである。同じフィーチャ種類(例えば、縁及び角に基づいて)が、シーンの標的画像と3D基準モデルとの両方において検出できるかぎり、標的と基準とを合成3D表示に融合することができる。
本明細書に記載される登録技術により、2Dデータ(例えば、EO、IR、及びSARデータ)及び3Dデータ(例えば、LIDARデータ)などの多モードデータを高い精度で柔軟に融合することが可能になる。EO(電気光学)センサは、光、又は光の変化を電子信号に変換する電子検出器である。それらは、多くの産業用及び民生用アプリケーションに使用される。赤外(IR)センサは、オブジェクトから放射されている赤外光をその視野内において測定する電子デバイスである。SAR(合成開口レーダー)は、遠隔感知用途に頻繁に使用される電磁画像センサである。SARセンサは、航空機又は衛星に取り付けられて、地球表面の高解像度画像を作成するために使用される。LIDAR(光検出及び測距、又はLADAR)は、時にレーザのパルスを使用して、標的に光を照射することにより標的の特性を測定することのできる光学遠隔感知技術である。既述の種類のセンサは、本明細書に記載されるシステム及び解決法に統合することができる。既述の種類の一又は複数のセンサは、ここに記載する解決法の一部又は全部を具現化するシステムに連結可能である。例えば、2D画像センサを、コンピュータコードを実行できるプロセッサを含む汎用コンピュータに連結することができ、この場合、コンピュータは、プロセッサがコンピュータコードを実行すると、2D画像センサから情報を受領して、本発明の解決法を実行するように処理することができる。
本明細書を通して、「融合」という用語は、シーンの一又は複数の標的画像をシーンの一又は複数の基準画像及び/又は3D表示と組み合わせること、及び登録することを意味する。標的画像と、格納されている、実世界の地理的位置及び構造と一致した3Dシーン表示との間で登録が行われる場合には、本明細書を通して、「地理登録」という用語も、登録のプロセスを意味するために使用される。加えて、本明細書の記載は、センサによって生成された標的画像といった画像に言及しているが、本発明の解決法は映像にも適用可能であることを理解されたい。したがって、本発明は、シーンの映像と、同シーンの3D表示との融合を可能にする技術、方法、及び/又はシステムを考慮する。説明を明瞭にするために、本明細書は主として標的画像に言及するが、本明細書の解決法は、標的映像にも機能する。加えて、本明細書は主として標的画像及び/又は映像と基準3D表示との融合について説明するが、基準となる表示は3D表示ではなく2D画像でもよい。
本発明の登録技術は、図1に示すように3つの主要なステップからなる。図1は、本発明の一又は複数の実施形態に従って実行される例示的な主要ステップを示す高レベルのフロー図100である。第1の主要ステップは、シーンの3D基準モデルを形成することを含む基準モデルステップ102である。第2の主要ステップは、標的画像を生成したセンサの3D地理空間視点を推定することを含む視点決定ステップ104である。第3の主要ステップは、標的画像のデータを合成3Dシーン表示に投影することを含む投影ステップ106である。
本明細書に記載される登録技術の第1の主要ステップは、基準モデルステップ102である。この主要ステップは、さらに二つのサブステップを含むことができる。まず、基準モデルと呼ばれるシーンの3Dモデルを作成する。3Dモデルの作成に使用される情報は、例えば、特定のフィーチャを3D空間内の位置に相関させる基準マップから得られる。一実施例では、3Dモデルの作成に使用される情報は、政府機関又は他の何らかのエンティティによって維持される地理空間インテリジェンスシステムデータベースから得られる。このようなデータベースには、地球上の多様な位置に関連する画像、フィーチャ、及び標高データの包括的収集が含まれている。地理空間インテリジェンスシステムデータベースは、特定の実世界フィーチャをそのジオロケーションと相関させる。
次のサブステップでは、3D基準モデル内の様々な種類のフィーチャ(ランドマーク)の位置を識別し、標的画像を3D基準モデルにマッチングさせるための理想的候補としてマークする。標的画像が捕獲された視点が多岐にわたる可能性に対処するために、このようなフィーチャは画像の回転及び縮尺によって変化しないように特徴づけられるか、又はそのように格納される。例えば、本明細書に記載される解決法は、基準モデル内のフィーチャが標的画像内のものと同種(すなわち、曲線及び/又は角が類似)であるかどうかと、フィーチャが他のフィーチャと同様の関係を有しているかどうかとを決定すればよいだけである。
本明細書に記載される登録技術の第2の主要ステップは、標的画像を生成したセンサの視点を推定することを含む視点決定ステップ104である。センサの視点を決定することは、センサのジオロケーション情報(所定の3D基準シーン内におけるセンサの位置)を決定すること、並びにセンサの向いている方向(視角)を決定することを含む。さらなる詳細を図2に示す。図2は、視点決定ステップの一実施例により実行される例示的サブステップを示している。この実施例では、視点決定ステップは以下の六つのサブステップを含んでいる。(1)サブステップ202−標的画像が提供され、標的画像内の、3Dモデル内において識別されるフィーチャの種類に関連するフィーチャを検出する。(2)サブステップ204−較正されたセンサの視野を用いて、標的座標内のフィーチャ対の間の角度を決定する。(3)サブステップ206−標的画像と同種の対を形成する3Dモデル内の各フィーチャ対について、標的画像測定された標的画像のフィーチャ対の角度と不確実性とを使用して、3D−GoeArc(後述する)を生成する。(4)サブステップ208−各3D−GeoArcの、基準データと一致しない視点の位置を表す部分を排除することにより、3D−GeoArc結果を精緻化する。(5)サブステップ210−3D基準モデルと比較して、最も多くの3D−GeoArcが重複する(幾何学的投票)3Dボリュームを見つけ出すことにより、証拠との一貫性が最も高い近似視点位置を決定する。(6)サブステップ212−標的画像を3Dモデルに登録し、随意で登録を認証する。
第1のサブステップ202に関して、標的画像内のフィーチャを検出するときには、まず、標的画像はいずれかの時点でカメラ又はセンサによって取得されたものであると仮定した。図1に示したように、いずれかの時点で標的画像は生成されなければならない(タスク108)が、本発明のいくつかの実施形態では、画像登録プロセスは、タスク108の発生する厳密な時間に関しては柔軟である。標的画像は、実時間で捕獲されてよく、又はステップ104は既に捕獲されていた標的画像を使用してもよい。図2では、標的画像が提供されると、サブステップ202は標的画像内のフィーチャを検出することを含む。サブステップ202の解決法は、標的画像内のフィーチャが基準モデル内のフィーチャと同種であるかどうかを決定するだけでよい。例えば、標的画像内のフィーチャが同じフィーチャ種類(例えば、類似した縁及び/又は角)を有する限り、標的画像内でフィーチャを検出することができ、他のフィーチャとの空間的関係が、基準モデル内の同様のフィーチャの関係性に対してチェックされる。このような技術により、現行の画像登録システムの基礎であるフィーチャ対フィーチャの対応への過度な依存を解消する必要が回避される。このような同種の関係に基づくフィーチャマッチング技術は、フィーチャ対フィーチャの徹底的な対応付けを行う方法より精度は低いが、マッチングの不確実性は登録プロセスの他のステップによって対処される。
本発明のいくつかの実施形態では、基準モデルは任意の数の領域又はセルに区分され、フィーチャ検出(サブステップ202)は、各領域又はセル内において個別に実行される。このような区分の理由は、基準モデル全体で検討すべきフィーチャ関係の数が、潜在的に組み合わせの性質を有しているためである。例えば、基準モデル全体を考慮すると、基準モデル内にN個のランドスケープフィーチャが存在し、且つ標的画像内でr個のフィーチャが可視である場合、登録技術は全部でC(N,r)=N!/(N−r)!r!のr要素の、このようなフィーチャのサブセットについて仮説を立て、位置選定の整合性についてそれらを順位付けする必要がある。これにより、可能な限り最善の位置選定が行われるが、このような技術が不十分である場合もある。
いくつかの実施形態は、すべてのフィーチャ/視点の組み合わせを同時に考慮することを避けるために、階層的アプローチを使用することにより、センサ位置に関する仮説において生じる可能性のある組み合わせ的爆発を制限する。例示的な階層的アプローチは、まず、粗い位置選定ステップを実行し、大きくて目立つフィーチャ対を使用してグローバル検索を粗領域に区分する。粗領域は、目立つフィーチャの数が少ないであろうこと、及びそのようなフィーチャの大きさから、高い信頼度で領域内に視点が位置するが、粗領域内における視点の位置に関する精度が低いことを特徴とする。粗い位置選定に使用される大きくて目立つフィーチャの例としては、山頂、及び大きな建造物が挙げられる。
各粗領域内部において、階層的アプローチは、精緻な位置選定ステップを実行し、大きなフィーチャ対と整合するもっと小さなフィーチャ対を使用て視点位置の精度を上昇させる。精緻な位置選定ステップは、粗領域位置選定品質が粗い順に続行される。加えて、これらの細分領域は、可視性という制約によっても限定される。例えば、精緻な位置選定ステップはいくつかの小さなフィーチャを考慮するが、障害物などによりフィーチャのすべてが可視ではない。加えて、階層的アプローチは、一又は複数のフィーチャ種類の「可視半径」を考慮し、一又は複数のフィーチャの可視性に相関するセルに基準モデルを区分する。可視半径とは、フィーチャからセンサを離してもセンサがフィーチャを捕獲できる最大距離である。セルの形状は、例えば、可視半径を完全に一致させるために円形とすることができるか、又は異なる形状とすることができる(例えば正方形)。異なるフィーチャの可視性に相関する異なるセルが重複してもよい。
細分領域又は可視性セル、或いは両方の組合わせに関係なく、本明細書に記載の登録アルゴリズム及び技術は、各領域及び/又はセルに対して個別に実行することができる。各領域及び/又はセル内部において可能なフィーチャの数は制限され、可能な仮説の数は有意に減少する。例えば、K個のセルが存在する場合、階層的アプローチはアルゴリズムの漸近的複雑性をKC(N/K,r)まで減少させることができる。これは大きな改善である。多数の基準モデルセル及び/又は領域に対処することは最初は大量の可能最終視点を生じるが、この不確実性は上述のように対処され、後述のサブステップでさらに対処される。
残りのサブステップ(サブステップ204−212)をさらに理解するために、フィーチャ対の間の関係(仮説ともよぶ)を規定するために使用されるGeoArc(Geolocation Arc又はgeoarcともよぶ)について説明することが有用であろう。まず、2D−GeoArcについて説明する。図3は、GeoArcの説明を助ける幾何学形状を示している。図3Aは、フィーチャ対である二つの点302、304を含んでいる。本明細書を通して、GeoArc又は仮説を形成するために使用される画像内の二つのフィーチャを、フィーチャ対とよぶ。図3Aは、二つのフィーチャ(点302、304)から様々な距離にある複数の点306、308、310(視点)と、各視点と二つのフィーチャとを結ぶ二つの接続線とを含んでいる。視点が二つのフィーチャから離れるほど、視点に関連付けられた二つの接続線の間の角度(点306、308、310についてそれぞれ示されている角度312、314、316)は小さくなる。さらに、図3Bに示すように、二つの接続線の間の所与の角度について、そのような角度を有する接続線に可能な視点が(円弧に沿って)無限に存在する。上述の説明に関して、「接続線」という用語は物理的な線又は接続を意味するわけではない。そうではなくて、「接続線」は、二つの点の間に延びる想像上の直線の幾何学的概念を意味する。
図4A−Cを参照し、且つ上述の説明を考慮することにより、2D GeoArcを使用した、標的画像(図4Aに示す)の情報の基準モデル(図4Cに示す)への投影方法を理解することができる。センサ又はカメラにより(例えば、地上の一区画の)標的画像が取得されたと仮定する。図4Aは、カメラ又はセンサによって取得された例示的な標的画像402を示している。カメラ又はセンサは、画像402を取得するとき、フィーチャ404及び406を検出することができ、且つ例えば標的画像に関する詳細をスキャンすることにより、センサ(図示しない)とフィーチャ404及び406との間に延びる想像上の接続線(図4Aには示さない)の間の角度(θ)を推定することができる。図4Bは、さらに、センサとフィーチャ404及び406との間に延びる想像上の接続線の間の角度をセンサにより推定する方法を概念的に示している。
いくつかの実施形態では、フィーチャ間の角度を推定するために、登録技術は、センサの較正された視野(FOV)に関する詳細を利用することができる。いくつかの実施例では、カメラに関連付けられたFOVの詳細は前もって分かっている。FOVの詳細には、例えば、センサが一回に捕獲できるシーンの最大角度/ビュー(幅及び高さ)が含まれる。例えば、カメラのレンズ、焦点距離、センササイズなどに関する情報は有用なFOV詳細となる。或いは、センサのFOVは測定可能である。いくつかの実施形態では、FOVは、観察されたデータから生成されるGeoArcの重複により測定される整合性と地理空間精度とを最大化するようにその値を調節することによって推定することもできる。他の実施形態では、センサのFOVは、画像を生成した後で画像の詳細をスキャンすることにより推定される。センサの最大角度/ビュー(換言すれば、センサに最大可能な可視範囲)が判明したら、センサの最大可視範囲内に含まれるオブジェクトについてサブアングルを推定することができる。
基準画像(例えば地上の一区画の空中写真)が存在すると仮定すると、この基準画像には任意の数のフィーチャが含まれてよく、フィーチャの対に基づいて任意の数の2D−GeoArcを生成することができる。標的画像402内に検出されるフィーチャ404及び406が、基準画像412内の二つの基準フィーチャ414及び416(図4Cに示す)と一致すると仮定すると、登録技術は、二つの円弧418、420(GeoArc)を演算し、基準モデル412にマッピングする。二つの円弧418、420は、センサが標的画像を捕獲したときにセンサが基準画像に対して位置していた可能性のある視点を示している。このように、2D−GeoArcは、標的画像内の二つのフィーチャ間の特定の角度関係と一致する可能性のある標準画像内における2D位置からなる円弧(物理的円弧が複数個存在する可能性がある)を指している。2D−GeoArc上の全ての位置において、二つのフィーチャ間に見える角度は同じである。基準画像に関連付けられた2D−GeoArcは、2D空間において可能なセンサ視点位置を限定する。
このように、標的画像内に検出される二つのフィーチャ間の角度関係を基準画像の角度関係とマッチングさせ、標的画像から検出された角度に関連付けられるGeoArcにより規定される基準画像の制約を考慮することにより、ジオロケーションの仮説を立てることができる。ジオロケーションの仮説は、標的画像が取得された可能性のある2D空間内の位置の組である。例えば、ジオロケーションの仮説は、この組{LFr1,LFr2),(LFq1,LFq2),θ}により表される。ここで、LFriは基準モデルのフィーチャであり、LFqjは入力画像フィーチャであり、θはLFqiとLFqjとの間の分離角である。
本明細書を通して、センサによって実行されている決定、推定、及び/又は演算に言及するとき、このような決定、推定、及び/又は演算は、センサ自体に内蔵される装備、回路、又はコードによって実行されるか、又は別の構成では、センサが画像を捕獲した後で画像を解析する別の装置によって実行されると理解されたい。例えば、いくつかの実施形態では、センサ内部の回路又は装備は、想像上の接続線の間の角度(θ)を推定する。他の実施形態では、データ処理システム上で実行されるコンピュータプログラムのような別の装置が、このような推定を実行する。
さらなるフィーチャ関係について上記と同じ2D GeoArc/仮説生成プロセスを実行して、さらなるGeoArc/仮説を生成することができる。次いで、各フィーチャ関係のマッピングによって生成される2D−GeoArcが重複し(図5A参照)、ジオロケーション尤度マップ(GLM)が生成される。例えば、図5Aを参照し、完全な2D−GeoArcを推定すると、GLM502は、二つ以上の2D−GeoArcが交差する点である。2D−GeoArcが完全でない場合、GLMは、センサの視点が存在する尤度の高い2D空間内のエリアを表わす。この場合、新たなGeoArcによりさらに精密な位置選定のための追加的証拠を提供してGLMの面積を縮小することができる(必須ではない)。このように、最も多くの2D−GeoArcの重複が存在する2D空間内の領域は、ジオロケーションエリア(GA)を決定するための最善の証拠を提示することができる。GAは、登録プロセスによって、標的画像が取得された場所である尤度が最も高いと決定された、2D空間内の最終的な位置である。
いずれの登録技術においても、いくらかのレベルの不確実性に対処する必要が生じると思われる。すなわち、GeoArcが完全な線/円弧ではない場合もある。例えば、記載される技術において誤差を生じさせうる一つの要因は、標的画像を捕獲するセンサ(又は、後に標的画像をスキャンする方法)が、センサとフィーチャとの間の正確な距離及び方向を確定することが困難であるために、二つのフィーチャ間の角度を概算せざるをえないことである。例えば、図5Bに示すように、センサデータの誤差又は不確実性によって、2D−GeoArc生成プロセスに不確実性が導入される。図5Bに示すように、不確実性により、各2D−GeoArcに関連付けられる可能な2D位置の範囲が拡大し、したがって基準画像にマッピングされるときにGeoArcに関連付けられる「厚み」を生じさせる。したがって、図5Cに示すように、多GeoArc登録プロセスに不確実性が導入されるとき、二つの2D−GeoArcの交差により、図5Aに示すような交差点ではなく、交差面積510が形成される。しかしながら、さらに多くのフィーチャ関係を解析し、基準画像にマッピングされるGeoArcを増やすと交差エリアは縮小し、したがってGAに関する全体的な不確実性のレベルは最小化される。
基礎となる2D−GeoArcの理解に基づいて、以下に2D−GeoArcの概念をどのように3D−GeoArcに拡大するかを説明する。図6は、3D空間内に存在する一対のフィーチャ602、604間の分離角(θ)を示している。図6に示すように、3D−GeoArcは、フィーチャ対を結ぶ線(又は軸)を中心として2D−GeoArcを(フィーチャ対を含む面内で)「スウィープ」する又は回転させることにより形成される表面である。3D表面上のすべての視点において、二つのフィーチャ間に見える角度は同じである。したがって、2D−GeoArcの概念と同様に、標的画像内の一対のフィーチャ間に観察される分離角は、3D基準モデルに関連付けられる3D−GeoArcを画定し、この3D−GeoArcは、3D空間内で可能なセンサ視点位置を限定する。したがって、3Dの場合、フィーチャ対の関係/関連の仮説は、標的画像(例えば2D画像)内における一対のフィーチャと3D基準モデル内におけるフィーチャ対と間の対応である。このような関連(仮説)により、3D空間内に、真のジオロケーションが位置しうる表面(3D−GeoArcと示される)が画定される。
図7は、本明細書に記載される3D−GeoArcを用いた登録技術が有用でありうる例示的な3Dシーン700を示している。図7に示すように、建造物の二つの角702、704が、センサ706によるシーンの標的画像獲得時にセンサ706によってフィーチャ対として識別されている。この場合、センサはフィーチャ対の間の分離角(θ)の推定を行なっていてもよい。次に、これらのフィーチャ(角702、704)を、3D基準モデル内の二つの類似するフィーチャに関連付けることが可能であると仮定し、角度(θ)が推定済みであるとした場合、登録技術は、トーラスホールの大きさがゼロである「縮退トーラス」に類似する3D−GeoArc708を生成する。この「縮退トーラス」の表面は、シーンの標的画像を捕獲したときにセンサが位置していた可能性のある3D基準モデル内の3D位置の範囲を画定する。
加えて、本明細書に記載の3D−GeoArcを用いた登録技術に関して、標的画像内に新たなフィーチャ対を識別することができ、標的画像と3D基準モデルとの間で新たなフィーチャ関係を解析することにより、新たな仮説/3D−GeoArcを3D基準モデルにマッピングすることができる。3D−GeoArcを重複又は交差させることにより、3Dジオロケーション尤度マップ(3D−GLM)が生成される。フィーチャ対の角度に不確実性がないと仮定すると、二つの3D−GeoArcの交差により3D空間に曲線が生じ、三つのGeoArcの交差により点が生じる。しかしながら、現実には、3D−GeoArc登録は、標的画像センサ(又は後に標的画像を解析するデバイス)の誤差又は不確実性に起因しうる不確実性に対処しなければならない。3D−GeoArcに関し、これらの不確実性はGeoArc表面を「厚く」し、これにより、二つ以上の3D−GeoArcが交差又は重複する場合に3D−GeoArcの交差容積が生じる。このように、3D−GLMは、センサ視点が存在する尤度の高い3D空間内の容積を表す。新たなGeoArcによりさらに精密な位置選定のための追加的証拠を提供して、3D−GLMの容積を低減することができる(必須ではない)。このように、複数の3D−GeoArcが重複する3D空間内の容積は、3Dジオロケーション容積(3D−GV)の良好な候補となる。3D−GVは、登録プロセスによって、標的画像が取得された場所である尤度が最も高いと決定された、3D空間内の最終的な位置の組である。
視点決定ステップ104(図1参照)のサブステップとして、3D−GeoArcが生成された後で、且つ3D−GeoArcが、投票サブステップで考慮される3D−GeoArcの収集に追加される前に、各3D−GeoArcに精緻化プロセスを施すことができる。これは、生成された特定の3D−GeoArcについて、可能な視点の位置として完全なGeoArcに沿った点を考慮することが不十分(又は誤り)であると考えられる場合である。したがって、精緻化プロセスは、3D−GeoArcの、閉塞(遮蔽)によりフィーチャ対を見ることができない視点位置、すなわち重要なフィーチャを検出できない視点位置を表す部分を排除又は無視することができる。加えて、精緻化プロセスは、3D−GeoArcの、基準データ(例えば、地理空間データベースから得られるデータ)に基づくと物理的に不可能な視点位置を表す部分を排除又は無視することができる。例えば、可能性のある視点であると仮定された場所にオブジェクト(例えば、大きな岩又は建造物)が存在する場合、この視点を無視することができる。また、センサが存在するはず(又は存在しないはず)の場所に関する他のあらゆる情報が3D−GeoArcの精緻化を助ける。
加えて、いくつかの実施形態では、上述のように、基準モデルは任意の数の重複セル又は領域に区分される。複数の領域において一度に少数のフィーチャ関係のみを考慮することにより、最初の視点可能位置が大量に得られる。しかしながら、候補のプールは、基準データを用いたチェックの実行によって精緻化され(多くの候補が排除される)、候補仮説に基づいて可視であるはずのフィーチャが予測される。予測されたフィーチャが観察される場合、それらは仮説を補強する追加的証拠として働き、新たなランドマークフィーチャの予測を可能にする。引き続きこのような精緻化技術を複数回繰り返して可能な位置の数を減らすことにより、フィーチャのグローバルマッチングを行う必要なく、迅速かつ効率的にジオロケーションの推定が行われる。
考慮されるGeoArcの収集に、精緻化されたGeoArcのプールが追加されたら、次のサブステップとして、3D−GeoArcを重複させることにより、最も尤度の高いジオロケーション(3D容積)の選択、又は「投票」を実行する。このサブステップは、標的データ及びシーンの基準3Dモデル両方におけるフィーチャ対の関係と最も整合するジオロケーション容積を検索する。各フィーチャ対の関係(3D−GeoArc)は、その関係と整合する可能性のあるセンサ視点の組に幾何制約を課す。したがって、標的画像及び3D基準モデルにおいて観察されるフィーチャ対角度により課される制約を最もよく満たす視点を探す3D−GeoArc投票(又は幾何投票)を用いて、最も尤度の高いセンサ視点が決定される。
3D−GeoArc投票(又は幾何投票)は、最も3D−GeoArcが重複する容積(理想的には一の容積)を見つけ出すプロセスを指す。したがって、3D−GeoArcが最も重複する3D容積を見つけ出すことにより、3D空間内におけるセンサの視点位置に関する確実性レベルを決定することができ、それにより証拠と最も整合する近似視点の位置が決定される。このような幾何投票プロセスにより、登録プロセスの信頼性が増す。標的センサ情報に誤差が含まれる可能性があり、且つ多数のフィーチャのデータを含むデータベース(現行の登録技術で必要とされる)がなくとも、本発明の解決法によれば、限界を有する地上レベルのビューではく、主として容易に利用可能な地理空間マップデータに基づくことにより、高い精度で迅速にセンサの3D位置を決定することができる。
視点推定の主要なステップのうちの最後のサブステップは、標的画像を3D基準モデルに登録し、随意で登録を認証することである。センサのジオロケーションが決定されたら、例えば最終的な視点に対してGeoArcを生成するために使用されたフィーチャを参照することにより、カメラの方向(角度)を決定する。最終的な画像登録(標的画像と3D基準モデルの融合)は、正確なカメラ視点のジオロケーション決定に貢献した3D−GeoArcに対応する標的画像と基準モデルとの間でフィーチャをマッチングすることにより実行される。いくつかの実施形態では、最終的な登録プロセスが完了したら、3D基準モデルを再び使用して、登録/視点決定が正確であれば可視である追加的フィーチャを予測することにより認証を行う。
本明細書に記載される登録技術の第3の主要ステップは投影ステップであり、3D基準モデルに基づいて、標的画像のデータを合成3Dシーン表示に投影することを含む。センサ又はカメラの位置が選定されたら(視点決定)、投影ステップでは、センサの視野内において識別された一又は複数のオブジェクトのジオロケーションを(標的画像から)決定する。カメラ/センサから得られる情報、3D基準モデルから得られる情報、及び視点決定ステップの間に蓄積された関係情報を使用して、投影ステップでは、標的画像の任意の画素の3D合成シーン内の空間位置を推定することができる。
一実施例では、地面の平面情報が3D基準モデルから獲得される。地面平面は、3D基準モデル内で地面と最も整合する3D表面である。次いで、標的画像内のフィーチャ間の角度を推定する方法と同様にして、センサは、センサと標的画像内の一画素との間の視線に関連付けられる角度を推定する。次いで、投影ステップでは、(既知の)センサの視点/位置から地面平面まで想像上の線(又は波線)を引く波線追跡技術が実行される。この実施例では、地面表面上のオブジェクトに関連付けられる各画素が、基準モデルの地面平面上に投影される。別の実施例では、地面ではなく、建造物、橋などに接続するまで波線を引くことにより、構造体上のオブジェクトに関連付けられる画素を投影することができる。また別の実施例では、センサは、センサと標的画像内の一画素との間の視線に関連付けられる角度、ならびに画素とセンサとの間の距離を推定することができる。次いで、3D合成シーン内の画素のジオロケーションが、カメラ/センサのジオロケーション(起点)と一方向へのオフセットとの和(センサが推定した角度及び距離情報に基づく起点を中心とした角度及び距離)として算出される。
カメラ内に検出されたオブジェクトのモデル又はアバターを、3Dマップ又はモデル上の正確な位置に投影することができる。これに関して、3D基準モデルは、2D多モード画像、さらには映像を組み合わせて地理登録することにより、合成3Dシーン表示を生成するための共通フレームワークとして機能する。このような投影は実時間で(動的に)行われるので、標的画像内において識別されたオブジェクトが3D合成シーンへと迅速に投影され、それにより、シーンの動的な実時間3D共通動作ピクチャ、及び多モード画像データを組み合わせるための融合フレームワークが提供される。2Dのシーン画像内で検出された移動オブジェクトを、実時間で、アバターとして3Dフレームワークに投影することができる。
本発明の説明では、「基準モデルに投影される」標的画像データに言及しているが、このフレーズは必ずしも言葉通りに解釈されなくともよい。本発明のいくつかの実施形態では、合成3Dシーン表示は、3D基準モデルに基づくデータの合成であるが、別個のデータ合成である。このような実施例では、標的画像データは、合成シーン表示に投影されるか、又は合成シーン表示内に表示される。
2D−GeoArcを適用する試験により、本発明の登録技術の実用可能性が実証され、標的画像の感知誤差及び他の不確実性があるにもか関わらずその信頼性が実証された。一試験では、カリフォルニア州マリブの面積16km2の地形図を標準モデルとして使用し、近くに位置する45度の視野(FOV)を有するカメラにより標的画像を取得した。この試験では、観察されるランドマークフィーチャはカメラFOV内部でランダムに分散しており、カメラはフィーチャが検出されうる最小(近)及び最大(遠)範囲を有していると仮定した。この試験では、すべての試行について、FOV推定の際のフィーチャの分離角測定の誤差が20%と仮定した。次いで、標的画像内に検出された様々な数のランドマークフィーチャについて2D−GeoArcを重ね合わせることにより、ジオロケーション尤度マップ(GLM)を計算した。次いで、GLMの、高度に2D−GeoArcが重複する部分を識別することにより、ジオロケーションエリア(GA)を検出した。試験は50回のランダムな試行を含み、各試行においてGAが決定された。
2D−GeoArcの適用試験の結果を図8A−Cに示す。図8A−Cは、基準画像の三つの例示的ビュー(例えば地勢)を示しており、各基準画像は、カメラが標的画像内に任意の数の異なるランドマークを検出した結果として生成された一又は複数のジオロケーション尤度マップ(GLM)を含んでいる。図8Aは、カメラが二つのランドマークフィーチャ810、812を検出し、二つのGLM802が生成された試験の結果を示している。図8Bは、カメラが三つのランドマークフィーチャ814、816、818を検出し、GLM804、806が生成された試験の結果を示している。図8Cは、カメラが四つのランドマークフィーチャ820、822、824、826を検出し、GLM808が生成された試験の結果を示している。図8A−Cの画像のすべてにおいて、ダークグレーの領域はGLM(基準画像に対して標的画像を取得したカメラが位置していたと思われるエリア)を示している。図8A−Cの連続画像に示すように、GLM(ダーググレーの領域)の大きさは、カメラによって検出されるフィーチャの数が増えるに従って急激に縮小する。カメラが二つのフィーチャを検出するとき(図8A)、GLM802は二つの完全な三日月形(完全な2D−GeoArc)からなっている。しかしながら、カメラが四つのフィーチャを検出するとき(図8C)、GLM808は比較的小さな面積からなる。
図8D−Fは、50回のランダムな試行によって、検出されたフィーチャの数の関数として生成されたGA(最終的なジオロケーションエリア)の「箱髭図」である。図8D−Fは、三つの図、すなわち、三つの異なる距離範囲の各々につき一つの図を示している。図8Dは、カメラから2〜4kmの距離にあるランドマークのみを考慮した結果を示している(近距離)。図8Eは、カメラから4〜6kmの距離にあるランドマークのみを考慮した結果を示している(遠距離)。図8Fは、カメラから2〜6kmの距離にあるランドマークのみを考慮した結果を示している(混合)。基本的に、図は中央値のGAを示し、このGAは、太横線(例えば、線852、854、856、858、860)で示され、フィーチャの数が3から6に増加すると10分の1に減少する。例えば、4〜6kmの範囲(図8E)では、三つのフィーチャの場合の中央値GAは0.06km2であり、六つのフィーチャの場合の中央値は0.005km2であり、すなわち10分の1に減少している。各中央値GA線の上方と下方にある白色ボックの上部と下部(例えばボックス870、872)によって示される、50回の試行での最大GAと最小GAの間の減少はさらに劇的であり、フィーチャが3から7に増えることにより最大の場合の最高値から最小の場合の最低値まで約100分の1に減少する。
加えて、3D−GeoArcを適用するシミュレーションにより、本明細書に記載の登録技術の実施可能性が示された。試験画像及び例示的なシミュレーションの結果を図9A−Cに示す。この例示的シミュレーションでは、シーンの2D画像(図9Aに示す)を標的画像として使用した。この2D画像はEO画像センサを用いて捕獲した。標的画像内において、異なる方向に向く二つのフィーチャ対(902、904と、906、908)を選択した。次いで、各フィーチャ対について3D−GeoArc表面(910、912)を生成した(図9Bに示す)。図9Bに示すように、二つの3D−GeoArc表面の交差914により3D曲線(又は、不確実性が生じる場合は湾曲容積)が生成される。したがって、センサ視点は、3D−GeoArcの交差914に焦点を当てることにより推定され、新しいフィーチャ対についてさらなる3D−GeoArcを考慮することにより精度を向上させることができる。
シミュレーションは、実際のシーンのLIDAR画像を解析することによりフィーチャ種類及びフィーチャ位置を推定した3D基準モデル生成プロセスも試験した(図9C)。このプロセスは、LIDARデータから地上フィーチャ種類及びフィーチャ位置をうまく排除した。地上フィーチャ(すなわち、道路、駐車場の角及び縁)は、2D EO画像と同じシーンの3D表示との間で類似のフィーチャ種類及びフィーチャ位置の、領域位置マッチングに有用である。
本明細書で既に述べた登録技術の恩恵に加えて、後述では一又は複数の実施形態のさらなる恩恵について説明する。本明細書を通して記載される恩恵及び利点は、限定又は要件ではなく、いくつかの実施形態では記載の恩恵及び/又は利点のうちの一又は複数は省略されてもよい。
本発明の解決法の一の恩恵は、複雑なシーン登録を完了させるスピードであり、これにより拡張性が得られる。拡張性とは、一般に、小さな尺度で作業して、もっと大きな尺度の問題にそれを適用する技術を使用できることを意味する。例えば、単純な基準モデルと単純な標的画像とに効果のある一の画像登録技術(例えば、直接的なフィーチャマッチングを利用するもの)が、複雑な地形に対して、又は既知のランドマークの大規模データベースがない場合や、照明の変化により、検出されるランドマークが、格納されているランドマークとは異なって見えるとき、効果を生まない場合がある。拡張性は大規模な位置推定に重要であるので、本発明者らは、何千万という視覚的フィーチャのインデクシング及びマッチング方法を開発した。その結果、このような方法も、既知のフィーチャを調べるための複雑なフィーチャツリーを必要としている。フィーチャツリーのインデクシングは、複雑で、徹底的な演算を要するプロセスであり、登録プロセスの記憶及びマッチング能を直接低下させ、フィーチャマッチングの弁別性を低下させる場合がある。
本発明の解決法は、直接的なフィーチャマッチングを必要とせず、地上レベルの画像及び3Dスキャンに基づいて構築された精密な幾何モデルに依存する必要がない。したがって、本明細書に記載される解決法では、現行の技術で使用される計算と同程度の負担がプロセッサにかかるマッチングのための計算を実行する必要がない。したがって、本明細書に記載の解決法は、現行技術よりずっと迅速にオブジェクトのジオロケーションを演算することができ、すなわちさらに複雑なシナリオに対処する拡張性を有している。加えて、本明細書に記載の解決法は直接的なフィーチャマッチングに依存しないので、データ量の多いフィーチャデータベースが存在するかどうかに関係なく、且つ照明、季節、及び天候の変化に関係なく、ジオロケーションを演算することができる。同様に、本明細書に記載の解決法は、自然及び都市のフィーチャ両方を使用することができ、これにより任意の環境への一般化が可能である。
本発明の一又は複数の実施形態は様々な用途を有し、これは本明細書に記載の解決法のいくつかの恩恵をさらに強調する。本明細書を通して記載される用途、恩恵、及び利点は、限定又は要件ではなく、いくつかの実施形態はいくつかの用途にもっと適している。
例えば、本発明の一又は複数の実施形態は、空中査察及び/又はUAV(無人航空ビークル)に適用可能である。図10及び11は、それぞれランドスケープ1004、1104の上空を飛行中のUAV1002、1102を含む例示的シーン1000、1100を示している。図10は、UAV1002の、斜め上からの視界を、図11は、UAV1102の、斜め下からの視界を示している。各UAV1002、1102は、本明細書に記載の画像登録技術の一部又は全部を実行することができるデータ処理システムを含んでいる。例示的データ処理システムの詳細について、以下にさらに記載する。データ処理システムは、例えばUAV本体内部に収容されて、UAVに搭載される。各UAV1002、1102は、さらに、センサの視界内部のランドスケープ1004、1104の画像を捕獲できるセンサ又はカメラを含む。例えば、図11に示すように、センサ又はカメラはUAVの機首近く、例えば機首の下側に、透明なハウジング1106内に収容される形で配置できる。この実施例では、センサは下方に角度付けされて、UAVの下側に位置しているので、センサの視界1108(FOV)は広く、これによりセンサは一度に大きなランドスケープ1104のビューを捕獲することができる。動作中、UAV上のセンサは、UAVの下方のランドスケープの一又は複数の標的画像を取得することができる。次いで、UAV内部のデータ処理システムは、標的画像の詳細を所定の3D基準モデルにマッピングする画像登録技術を実行することができる。別の方法では、UAVは、一又は複数の標的画像を、登録技術を実行する遠隔データ処理システムに伝送することができる。
航空ビークル又は査察位置では、多数のセンサ及びプラットフォームから単一の共通動作シーンへの多モード2D及び3D画像データの登録/融合が必要となる。センサデータの融合に加えて、センサの視界内において検出されたオブジェクトのモデル又はアバターを3Dマップ又はモデル上の正確な位置に投影し、動的な実時間3D融合フレームワーク及び共通動作シーンを提供する必要がある。このような画像融合は、多数の異なるカメラアングルを用いて、広い地理的領域に対し、迅速かつ正確に行われる必要がある。本発明の一又は複数の実施形態はこのような解決法を提供する。
他の実施例では、本発明の一又は複数の実施形態は、コンピュータビジョン、医用画像、軍用自動標的認識、遠隔センシング(製図更新)及びコンパイリング、並びに衛星から届いた画像及びデータの解析に使用される。画像登録技術は、神経画像用のタライラッハアトラスなどの解剖学的地図への医用患者データの登録に使用することもできる。画像復元技術は、宇宙から取得された画像を整列させるために天体写真術にも使用され、この場合、コンピュータは、制御点を使用して、一の画像に対して変換を行うことにより、主要なフィーチャを第2の画像と整列させる。画像登録は、パノラマ的画像生成の基本的な部分でもある。さらに、実時間で実施することができ、カメラ及びカメラ電話のような埋め込まれたデバイス上で実行される多数の異なる技術が存在する。本発明の一又は複数の実施形態は、これらの用途のすべてに柔軟性を付加する解決法を供給する。
さらには、画像登録技術を適用可能な用途が多岐にわたることにより、これまで全ての使途について最適化された汎用的方法を開発することは困難であった。その代わり、多数の用途が用途に固有の状況に対処する追加的技術を含んでいた。例えば、一人の患者に関して異なる時点で取得されたデータの医用画像登録には、患者の変形(例えば、呼吸、解剖学的変化、腫瘍の成長などによる)に対処するために弾性(軟式ともいう)登録が使用される。本発明の一又は複数の実施形態が提供する柔軟性により、本発明は、すべてではなくとも多数の使途に最適化された汎用的画像登録方法を提供する。
本発明のいくつかの実装態様では、本明細書に記載の技術、方法、ルーチン、及び/又は解決法は、異なる実施形態の一又は複数のフロー図及びブロック図に示される例示的方法及びルーチンを含めて、本明細書に記載の方法、ルーチン、及び解決法を実施及び/又は実行するようにプログラムされたデータ処理システムによって実行される。本明細書において言及するブロック図又はフロー図の各ブロック又は記号は、コンピュータで使用可能又は読込可能なプログラムコードのモジュール、セグメント、又は部分を表わしており、このプログラムコードは、一又は複数の特定の機能を一又は複数のデータ処理システムによって実施するための一又は複数の実行可能な命令を含んでいる。いくつかの実施形態では、ブロック図又はフロー図のブロック又は記号に示される一又は複数の機能は、図示の順番に行われなくともよい。例えば、場合によっては、連続して示されている2つのブロック又は記号は、含まれる機能によっては、ほぼ同時に実行されても、又は時には逆の順序で実行されてもよい。したがって、本発明の種々の実施形態は、コンピュータ、或いは命令を実行する何らかのデバイス又はシステムにより使用される、或いはそれに接続されて使用されるプログラムコードを提供するコンピュータで使用可能又は読込可能な媒体からアクセス可能なコンピュータプログラム製品の形態をとることができる。別の構成では、本発明の異なる実施形態は、固定記憶域又はハードドライブなどのコンピュータで読込可能な媒体に格納された(及びそのような媒体からアクセス可能な)コンピュータプログラムの形態をとることができる。
ここで図12を参照する。図12は、本発明の方法、ルーチン、及び解決法を実行できる例示的なデータ処理システム1200のブロック図である。この実施例では、データ処理システム1200は通信ファブリック1202を含み、これによりプロセッサユニット1204、メモリ1206、固定記憶域1208、通信ユニット1210、入出力(I/O)装置1212、及びセンサ又はカメラ1214の間の通信が可能である。バスシステムは、通信ファブリック1202を実施するために使用することができ、システムバス又は入出力バスといった一又は複数のバスから構成することができる。バスシステムは、バスシステムに取り付けられた種々のコンポーネント又はデバイスの間でのデータ伝送を行う任意の適切な種類のアーキテクチャを使用して実施することができる。
プロセッサユニット1204は、固定記憶域408(例えばハードドライブ)から、又はコンピュータプログラム製品1220(例えばCD又はDVD)からメモリ1206にローディングできる命令(例えば、ソフトウェアプログラム又はコンピュータコード)を実行する機能を有する。プロセッサユニット1204は、特定の実装態様に応じて、一又は複数のプロセッサの組か、或いはマルチプロセッサコアとすることができる。さらに、プロセッサユニット1204は、単一のチップ上に主要プロセッサと共に二次プロセッサが存在する一又は複数の異種プロセッサシステムを使用して実施してもよい。別の実施例として、プロセッサユニット1204は、同種のプロセッサを複数個含む対称型マルチプロセッサシステムである。
このような実施例では、メモリ1206は、例えば、ランダムアクセスメモリ又は他の何らかの適切な揮発性又は不揮発性の記憶装置であってもよい。固定記憶域1208は、特定の実装態様に応じて様々な形態をとることができる。例えば、固定記憶域1208は、一又は複数のコンポーネント又はデバイスを含みうる。例えば、固定記憶域1208は、ハードドライブ、フラッシュメモリ、書換え形光ディスク、書換え可能磁気テープ、又はそれらの何らかの組み合わせである。固定記憶域1208によって使用される媒体は、取り外し可能なものでもよい。例えば、取り外し可能なハードドライブを使用することができる。
オペレーティングシステムに対する命令は、固定記憶域1208に位置させることができる。特定の一実施形態では、オペレーティングシステムは、任意の数の既知のオペレーティングシステムの何らかのバーションである。アプリケーション及び/又はプログラムに対する命令は、固定記憶域1208に位置させてもよい。これらの命令及び/又はプログラムは、メモリ1206にローディングされてプロセッサユニット1204によって実行される。例えば、メモリ1206のようなメモリにローディングできるコンピュータで実施可能な命令を使用して、プロセッサユニット1204により、本明細書に記載される様々な実施形態のプロセスを実行することができる。これらの命令は、プログラムコード、コンピュータで使用可能なプログラムコード、又はコンピュータで読込可能なプログラムコードと呼ばれ、プロセッサユニット1204内の一つのプロセッサによって読込まれて実行されうる。種々の実施形態のプログラムコードは、メモリ1206又は固定記憶域1208など、種々の物理的な又は有形のコンピュータで読込可能な媒体上に具現化すことができる。
アプリケーション及び/又はプログラムに対する命令は、データ処理システム1200に恒久的に含まれていないコンピュータプログラム製品1220の一部として含まれてもよい。コンピュータプログラム製品1220は、コンピュータで読込可能な媒体1222及びプログラムコード1224の形態を含んでもよい。例えば、プログラムコード1224は、コンピュータで読込可能な媒体1222上に機能的な形態で配置され、データ処理システム1200にローディング又は転送されて、プロセッサユニット1204によって実行される。プログラムコード1224及びコンピュータで読込可能な媒体1222は、コンピュータプログラム製品1220を形成する。一実施例では、コンピュータで読込可能な媒体1222は、例えば、記憶装置(例えば、固定記憶域308の一部であるハードドライブ)上への転送のために、ドライブ又は他のデバイスに挿入又は配置される光ディスク又は磁気ディスクのような有形の形態をとることができる。ドライブ又は他のデバイスは、例えば通信ファブリック1202を介して、データ処理システム1200の他のコンポーネントに接続してそのようなコンポーネントと通信することができる。別の有形の形態では、コンピュータで読込可能な媒体は、データ処理システム1200に接続されている固定記憶域(例えば、ハードドライブ、サムドライブ、又はフラッシュメモリ)でもよい。
本明細書の目的のために、コンピュータで使用可能又は読込可能な媒体は、一般に、システム(例えば命令を実行するシステム)によって使用される、或いはそれに接続されて使用されるデータ(例えば、ソフトウェアプログラム)の収容、格納、通信、伝播、又は運搬を行うことができる任意の有形装置を指す。コンピュータで使用可能又はコンピュータで読込可能な媒体は、例えば、限定しないが、電子システム、磁気システム、光学システム、電磁システム、赤外システム、又は半導体システム、或いは伝播媒体とすることができる。コンピュータで読込可能な媒体の非限定的な実施例には、半導体又は固体状態のメモリ、磁気テープ、取り出し可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、剛性磁気ディスク、及び光ディスクが含まれる。光ディスクには、コンパクトディスク−リードオンリーメモリ(CD−ROM)、コンパクトディスク−リード/ライト(CD−R/W)、及びDVDが含まれる。さらに、コンピュータで使用可能又は読込可能な媒体は、コンピュータで読込可能又は使用可能なプログラムコードを収容又は格納することができ、このコンピュータで読込可能又は使用可能なプログラムコードがコンピュータ上で実行されると、コンピュータは特定のルーチン、手順、ステップなどを実行する。コンピュータで読込可能な媒体の有形形態は、コンピュータで記録可能な記憶媒体とも呼ばれる。
入出力(I/O)装置1212により、データ処理システム1200に接続可能な他のデバイスによるデータの入力及び出力が可能になる。例えば、入出力装置1212は、(CD又はDVDのような)コンピュータで読込可能な媒体、例えばコンピュータで読込可能な媒体1222上に格納されたデータを読み込むことができるCD又はDVDドライブである。入出力装置は、直接的に、又はI/Oコントローラを介して、システムに連結することができる。プログラムコード1224は、コンピュータで読込可能な媒体1222から、入出力装置1212を通して、データ処理システム1200に転送される。
データ処理システム1200について説明した種々のコンポーネントは、種々の実施形態が実施される方法をアーキテクチャ的に限定するものではない。異なる例示的実施形態が、データ処理システム1200について示されているコンポーネントに追加的又は代替的なコンポーネントを含むデータ処理システムにおいて実施されうる。図12に示す他のコンポーネントは、図示の実施例から変更することができる。
プログラムコード1224は、本明細書に記載の画像登録技術により必要とされる演算及びプロセスの多くを実行するコンピュータコードの形態をとることができる。図13は、本発明のフロー図の一又は複数に記載の技術を含め、本明細書に記載の画像登録技術の一又は複数を含みうる例示的プログラムコード1302を示している。プログラムコード1302は基準データベース1304と通信しており、この場合、基準データベースは、本明細書に記載の解決法の一又は複数により必要とされる一又は複数の基準のような基準データを収容している。基準データベース1304は、例えば、図12に示した固定記憶域1208に類似の、固定記憶域に格納されている。別の構成では、基準データベース1304は、プログラムコード1302を実行するデータプロセッサに対して遠隔に位置する記憶装置に格納される。プログラムコード1302は、カメラ又はセンサ1306とも通信し、この場合、センサは、本明細書に記載の解決法の一又は複数により使用される一又は複数の標的画像を捕獲することができる(例えば、センサの視野1308内部のシーン)。センサ1306はデータ処理システムに直接連結され(図12のセンサ1214がデータ処理システム1200に連結されているように)、データ処理システムは画像登録技術を実行する(プログラムコード1302)。別の構成では、画像登録技術を実行するシステム(プログラムコード1302)は、センサ1306から遠隔して位置し、この場合、センサ1306によって捕獲される標的画像は遠隔システムに送信される。
再び図12を参照すると、データ処理システム1200には、データ処理システム1200と他のデータ処理システム又はデバイスとの間に通信を提供する通信ユニット1210が含まれている。このような実施例では、通信ユニット1210はネットワークインターフェースカードである。通信ユニット1210は、データ入力を可能にする物理的及び無線通信リンクユニットの一方又は両方を用いて通信を提供する。通信ユニットは、モデム又はネットワークアダプタといったデータの送受信に使用される一又は複数のデバイスを含むことができる。このような実施例では、通信リンクは物理的なものでもよく、無線でもよい。本発明のいくつかの実施形態では、例えば基準データベース又はセンサ/カメラがデータ処理システム1200から遠隔して設置されている場合、これらの通信ユニット1210は、遠隔コンポーネントとの間でデータが送受信されるようなインターフェースを提供する。例えば、データ処理システム1200は、通信ユニット1210を介して遠隔センサ/カメラからデータを受信するか、又は通信ユニット1210を介して遠隔基準データベースからデータを受信する。
図14は、本発明の一又は複数の実施形態による、ネットワークに接続されたデータ処理システムとコンポーネントからなる例示的ネットワークシステム1400を示す図である。ネットワークシステム1400は、一又は複数のクライアントマシン1404、一又は複数のサーバマシン1402、独立の記憶装置1406、及びビークル1408(例えばUAV)に搭載されるデータ処理システムを接続するネットワーク1410を含むことができる。クライアントマシン1404は、例えばパーソナルコンピュータ又はエンドユーザコンピュータとすることができる。ネットワーク1410は、種々のデータ処理システム(及び場合によっては他のコンポーネント)間に通信リンクを提供するために使用される媒体であり、ネットワーク1410は、有線又は無線通信リンクのような接続、又は場合によっては光ファイバケーブルを含みうる。ネットワーク1410は、インターネット接続を含み、場合によっては遠隔セキュリティ保護接続を含むことができる。いくつかの実施例では、ネットワークプ1410は、互いに通信するためにTCP/IP(TransmissionControlProtocol/InternetProtocol)式のプロトコルを使用するネットワーク及びゲートウェイの世界的集合を表わす。ネットワークシステム1400は、任意の数の同種の又は異なる種類のネットワーク(例えば、イントラネット、ローカルエリアネットワーク(LAN)、又はワイドエリアネットワーク(WAN))として実施することもできる。典型的には、ネットワークシステム1400内部の各データ処理システム及びコンポーネントは、例えば図12の通信ユニット410のような通信ユニットを含み、これによりデータ処理システム又はコンポーネントがネットワーク1410と、さらにはネットワークに接続された他のデータ処理システムと相互作用することができる。
一実施例では、データ処理システムは、ビークル1408(例えばUAV)に搭載され、データ処理システムは、ネットワーク1410との無線通信1412、さらにはネットワークに接続された他のデータ処理システムとの通信を可能にする通信ユニットを含む。ビークル1408に搭載されたデータ処理システムは、図12のデータ処理システム1200に類似している。ビークル1408に搭載されたデータ処理システムは、本明細書に記載の登録技術の一部又は全部を実行することができる。例えば、データ処理システムは、ネットワーク1410を介して基準データを獲得し(例えばサーバマシン1402又はネットワークに接続された記憶装置1406から)、次いでビークル1408に搭載されたデータ処理システムを介して登録演算の残りを実行する。別の実施例では、データ処理システムは、ビークル1408に搭載されたセンサを介して標的画像を獲得し、その標的画像を、ネットワーク1410を介してネットワークに接続されたデータ処理システム(例えば、クライアントマシン1404又はサーバマシン1402内部に含まれている)に送信する。これにより、ネットワークに接続されたデータ処理システムが登録計算の大部分を実行する。
図14は、実施例として意図されており、種々の実施形態をアーキテクチャ的に制限するものではない。ネットワークシステム1400は、図示されているものより多い(又は少ない)サーバマシン1402、クライアントマシン1404、記憶装置1406、ビークル1408、及び場合によっては図示されていない他のデータ処理システム及び/又はデバイスを含むことができる。加えて、ビークル1408は、UAV以外の何らかのビークル、例えば別の種類の航空機、自動車、船などでもよい。加えて、ビークル1408の代わりに、又はそれに加えて、ネットワーク1400は、デバイス内部に包含されるが、ビークルではないセンサ又はカメラ(及び場合によってはデータ処理システム)を含むことができる。例えば、カメラシステムは、支柱、建造物、天然のランドマークに搭載されてもよく、或いは人が運搬してもよい。
図面及びテキストにより、一態様において画像登録方法が開示され、この方法は、シーンの三次元基準モデルを確立すること(700)、シーン(700)の、センサ(706、1214、1306)を用いて捕獲された標的画像(402)を獲得すること、一又は複数の三次元geoarcを使用して、標的画像(402)を捕獲したセンサ(706、1214、1306の視点を決定することであって、センサ(706、1214、1306)の視点が、三次元基準モデルに対して決定されること、並びに、センサ(706、1214、1306)の視点を使用して標的画像(402)から得られるデータを三次元基準モデルから得られるデータと関連付けることにより、シーン(700)の合成三次元表示を生成することを含む。一変形例による画像登録方法では、センサ(706、1214、1306)の視点を決定するステップは、さらに、三次元基準モデル内において一又は複数のフィーチャ対を識別すること、標的画像(402)内の一又は複数のフィーチャ対を識別すること、標的画像(402)内の各フィーチャ対について、標的画像(402)内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、三次元基準モデルに関連付けられる三次元geoarc表面(9110、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との関係を表すgeoarc表面を生成すること、並びに、三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を、三次元基準モデルに対して識別することを含む。
一変形例による画像登録方法では、三次元geoarc表面(910、912)を生成するステップは、geoarc表面(910、912)の厚みを変化させることにより、推定角度(θ)の不確実性を表すこと含む。別の変形例による画像登録方法では、生成されるgeoarc表面(910、912)は、既に生成されているgeoarc表面(910、912)と重複し、三次元容積を生成しうる。別の変形例では、画像登録方法は、さらに、決定されたセンサ(706、1214、1306)の視点としてgeoarc表面が最も多く重複する位置を選択することを含む。また別の変形例では、画像登録方法は、さらに、標的画像内の各フィーチャ対について、三次元geoarc表面(910、912)の、基準データを用いたチェックに基づくと不正確である視点に関連する部分を無視又は除去することにより、生成された三次元geoarc表面(910、912)を精緻化することを含む。また別の変形例では、画像登録方法は、さらに、決定されたセンサ(706、1214、1306)の視点を、基準データを参照することにより認証し、決定されたセンサ(706、1214、1306)の視点が正確である場合に標的画像(402)内で可視でなければならない追加フィーチャを予測することを含む。
一実施例による画像登録方法では、合成三次元表示を生成するステップは、さらに、合成三次元表示に対するセンサ(706、1214、1306)の位置とセンサ(706、1214、1306)の角度(θ)とを決定すること、並びに、標的画像(402)内で可視である一又は複数のオブジェクトの位置を、各オブジェクトについて、センサ(706、1214、1306)の位置に対して一方向へのオフセットを加えることにより、合成三次元表示に対して決定することを含む。また別の実施例による画像登録方法では、シーン(700)の合成三次元表示を生成するステップは、標的画像(402)に関連付けられる一又は複数のオブジェクトを実時間で3D合成シーン(700)に投影することを含む。また別の実施例による画像登録方法では、三次元基準モデルを確立することは、地理空間インテリジェンスシステムデータベースから得られる情報を使用して三次元基準モデルを確立することを含む。
一事例による画像登録方法では、三次元基準モデル内及び標的画像(402)内において識別されるフィーチャ対のフィーチャは、基準モデル及び標的画像(402)の回転及び縮尺によって変化しないように特徴づけられる。別の事例による画像登録方法では、センサ(706、1214、1306)の視点を決定するステップは、三次元基準モデルを任意の数の領域に区分すること、及びそれら領域の一又は複数内部において可能なセンサ(706、1214、1306)の視点を決定することを含む。
一態様では、画像登録方法が開示され、この方法は、三次元基準モデル内において一又は複数のフィーチャ対を識別すること、標的画像(402)内において一又は複数のフィーチャ対を識別すること、標的画像(402)内の各フィーチャ対について、標的画像(402)内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、三次元基準モデルに関連付けられる三次元geoarc表面(9110、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との関係を表すgeoarc表面を生成すること、並びに、三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を、三次元基準モデルに対して識別することを含む。
一変形例では、画像登録方法は、さらに、geoarc表面(910、912)の厚みを変更することにより推定角度(θ)不確実性を表わすことを含む。別の変形例による画像登録方法では、生成されるgeoarc表面(910、912)は、既に生成されているgeoarc表面と重複し、三次元容積を生成しうる。
一態様では、画像を捕獲するセンサ(706、1214、1306)、並びにセンサ(706、1214、1306)と通信可能に連結されたデータ処理システムを含む航空ビークルが開示され、このデータ処理システムは、シーン(700)の三次元基準モデルを確立し、センサ(706、1214、1306)からシーン(700)の標的画像(402)を獲得し、一又は複数の三次元geoarcを用いて、標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、三次元基準モデルに対して決定し、標的画像(402)から得られるデータと三次元基準モデルから得られるデータとを、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成するようにプログラムされている。一変形例による航空ビークルでは、センサ(706、1214、1306)の視点を決定するために、前記データ処理システムは、さらに、三次元基準モデル内において一又は複数のフィーチャ対を識別し、標的画像(402)内において一又は複数のフィーチャ対を識別し、標的画像(402)内の各フィーチャ対について、標的画像(402)内のフィーチャ対を三次元基準モデル内のフィーチャ対の一つに関連付け、標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、三次元基準モデルに関連付けられる三次元geoarc表面(9110、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との関係を表すgeoarc表面を生成し、且つ三次元空間内において、二つ以上の三次元geoarc表面(910、912)が重複する位置を、三次元基準モデルに対して識別するようにプログラムされている。
別の変形例による航空ビークルでは、シーン(700)の合成三次元表示を生成するために、前記データ処理システムは、さらに、標的画像(402)に関連付けられる一又は複数のオブジェクトを、実時間で、3D合成シーン(700)に投影するようにプログラムされる。また別の変形例による航空ビークルでは、センサ(706、1214、1306)は、航空ビークル上において、ランドスケープとシーン(700)とがセンサの視野に含まれるように位置する。また別の変形例による航空ビークルでは、データ処理システムはメモリを含み、メモリは三次元基準モデルを含む基準データを格納するように動作可能であり、且つセンサ(706、1214、1306)によって捕獲された画像を格納するように動作可能である。
上述した種々の有利な実施形態の説明は、例示及び説明を目的とするものであり、完全な説明であること、又はこれらの実施形態を開示された形態に限定することを意図していない。当業者には、多数の修正例及び変形例が明らかであろう。さらに、種々の有利な実施形態は、他の有利な実施形態とは異なる利点を提供することができる。選択された一又は複数の実施形態は、実施形態の原理、実際の用途を最もよく説明するため、及び他の当業者に対し、様々な実施形態の開示内容と、考慮される特定の用途に適した様々な修正との理解を促すために選択及び記述されている。
また、本願は以下に記載する態様を含む。
(態様1)
画像登録方法であって、
シーン(700)の三次元基準モデルを確立すること、
センサ(706、1214、1306)に捕獲されているシーン(700)の標的画像(402)を獲得すること、
標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、一又は複数の三次元geoarcを用いて、三次元基準モデルに対して決定すること、並びに
標的画像(402)から得られるデータを三次元基準モデルから得られるデータに、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成すること
を含む方法。
(態様2)
センサ(706、1214、1306)の視点を決定するステップが、さらに、
三次元基準モデル内において一又は複数のフィーチャ対を識別すること、
標的画像(402)内において一又は複数のフィーチャ対を識別すること、
標的画像(402)内の各フィーチャ対について、
標的画像(402)内のフィーチャ対を、三次元基準モデル内のフィーチャ対のうちの一つに関連付けること、
標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定すること、及び
三次元基準モデルに関連付けられる三次元geoarc表面(910、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との間の関係性を表すgeoarc表面(910、912)を生成すること、並びに
三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を三次元基準モデルに対して識別すること
を含み、
三次元geoarc表面(910、912)を生成するステップが、geoarc表面(910、912)の厚みを変化させることにより、推定角度(θ)の不確実性を表すことを含み、且つ
生成されるgeoarc表面(910、912)が、既に生成されているgeoarc表面と重複して三次元容積を生成する、
態様1に記載の画像登録方法。
(態様3)
さらに、
決定されたセンサ(706、1214、1306)の視点として、最も多くのgeoarc表面が重複する位置を選択すること、並びに
決定されたセンサ(706、1214、1306)の視点を、基準データを参照することにより認証し、決定されたセンサ(706、1214、1306)の視点が正確である場合に標的画像(402)内で可視でなければならない追加フィーチャを予測すること
を含む、態様2に記載の画像登録方法。
(態様4)
さらに、
標的画像(402)内の各フィーチャ対について、
三次元geoarc表面(910、912)の、基準データによるチェックに基づくと不正確である視点に関連する部分を無視又は除去することにより、生成された三次元geoarc表面(910、912)を精緻化すること
を含む、態様2に記載の画像登録方法。
(態様5)
合成三次元表示を生成するステップが、さらに、
合成三次元表示に対するセンサ(706、1214、1306)の位置とセンサ(706、1214、1306)の角度(θ)とを決定すること、並びに
標的画像(402)内において可視である一又は複数のオブジェクトの、合成三次元表示に対する位置を、各オブジェクトについて、センサ(706、1214、1306)の位置に一方向へのオフセットを加えることにより決定すること
を含み、
シーン(700)の合成三次元表示を生成するステップが、標的画像(402)に関連付けられる一又は複数のオブジェクトを実時間で3D合成シーン(700)に投影することを含み、且つ
三次元基準モデルを確立することが、地理空間インテリジェンスシステムデータベースから得られる情報を使用して三次元基準モデルを確立することを含む、
態様1に記載の画像登録方法。
(態様6)
三次元基準モデル内及び標的画像(402)内において識別されるフィーチャ対のフィーチャは、基準モデル及び標的画像(402)の回転及び縮尺によって変化しないように特徴づけられており、且つ
センサ(706、1214、1306)の視点を決定するステップは、三次元基準モデルを任意の数の領域に区分すること、及びそれら領域の一又は複数の内部において可能性のあるセンサ(706、1214、1306)の視点を決定することを含む、
態様2に記載の画像登録方法。
(態様7)
画像を捕獲するセンサ(706、1214、1306)、及び
センサ(706、1214、1306)に通信可能に連結されたデータ処理システム
を備えた航空ビークルであって、データ処理システムが、
シーン(700)の三次元基準モデルを確立し、
センサ(706、1214、1306)からシーン(700)の標的画像(402)を獲得し、
標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、一又は複数の三次元geoarcを用いて、三次元基準モデルに対して決定し、且つ
標的画像(402)から得られるデータを三次元基準モデルから得られるデータに、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成する
ようにプログラムされている、航空ビークル。
(態様8)
センサ(706、1214、1306)の視点を決定するために、前記データ処理システムは、さらに、
三次元基準モデル内において一又は複数のフィーチャ対を識別し、
標的画像(402)内において一又は複数のフィーチャ対を識別し、
標的画像(402)内の各フィーチャ対について、
標的画像(402)内のフィーチャ対を、三次元基準モデル内のフィーチャ対のうちの一つに関連付け、
標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、
三次元基準モデルに関連付けられる三次元geoarc表面(910、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との間の関係性を表すgeoarc表面(910、912)を生成し、且つ
三次元空間内において、二つ以上の三次元geoarc表面(910、912)が重複する位置を、三次元基準モデルに対して識別する
ようにプログラムされている、態様7に記載の航空ビークル。
(態様9)
シーン(700)の合成三次元表示を生成するために、前記データ処理システムは、さらに、標的画像(402)に関連付けられる一又は複数のオブジェクトを、実時間で、3D合成シーン(700)に投影するようにプログラムされている、態様7に記載の航空ビークル。
(態様10)
センサ(706、1214、1306)は、航空ビークル上において、ランドスケープとシーン(700)とがセンサの視野に含まれるように位置しており、
データ処理システムはメモリを含み、
メモリは、三次元基準モデルを含む基準データを格納するように動作可能であり、且つセンサ(706、1214、1306)により捕獲された画像を格納するように動作可能である、
態様7に記載の航空ビークル。
302、304 フィーチャ対の点
306、308、310 視点
312、314、316 フィーチャ対と視点間の角度
402 標的画像
404、406 フィーチャ
412 基準画像
414、416 基準フィーチャ
418、420 可能な視点を含む円弧
502 GLM
510 交差面積
602、604 フィーチャ
700 シーン
702、704 建造物の角
706 センサ
708 3D−GeoArc
802、804、806、808 GLM
810、812、814、816、818、820、822、824、826 ランドマークフィーチャ
902と904、906と908 フィーチャ対
910、912 GeoArc表面
914 GeoArcの交差
1000、1100 シーン
1002、1102 UAV
1004、1104 ランドスケープ
1106 ハウジング
1108 センサの視界
1400 ネットワークシステム
1408 ビークル
1412 無線通信

Claims (9)

  1. 画像登録方法であって、
    シーン(700)の三次元基準モデルを確立すること、
    センサ(706、1214、1306)に捕獲されているシーン(700)の標的画像(402)を獲得すること、
    標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、一又は複数の三次元geoarcを用いて、三次元基準モデルに対して決定すること、並びに
    標的画像(402)から得られるデータを三次元基準モデルから得られるデータに、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成すること
    を含む方法であって、
    センサ(706、1214、1306)の視点を決定するステップが、さらに、
    三次元基準モデル内において一又は複数のフィーチャ対を識別すること、
    標的画像(402)内において一又は複数のフィーチャ対を識別すること、
    標的画像(402)内の各フィーチャ対について、
    標的画像(402)内のフィーチャ対を、三次元基準モデル内のフィーチャ対のうちの一つに関連付けること、
    標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定すること、及び
    三次元基準モデルに関連付けられる三次元geoarc表面(910、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との間の関係性を表すgeoarc表面(910、912)を生成すること、並びに
    三次元空間内において、二つ以上の三次元geoarc表面が重複する位置を三次元基準モデルに対して識別すること
    を含む、方法
  2. 次元geoarc表面(910、912)を生成するステップが、geoarc表面(910、912)の厚みを変化させることにより、推定角度(θ)の不確実性を表すことを含み、且つ
    生成されるgeoarc表面(910、912)が、既に生成されているgeoarc表面と重複して三次元容積を生成する、
    請求項1に記載の画像登録方法。
  3. さらに、
    決定されたセンサ(706、1214、1306)の視点として、最も多くのgeoarc表面が重複する位置を選択すること、並びに
    決定されたセンサ(706、1214、1306)の視点を、基準データを参照することにより認証し、決定されたセンサ(706、1214、1306)の視点が正確である場合に標的画像(402)内で可視でなければならない追加フィーチャを予測すること
    を含む、請求項2に記載の画像登録方法。
  4. さらに、
    標的画像(402)内の各フィーチャ対について、
    三次元geoarc表面(910、912)の、基準データによるチェックに基づくと不正確である視点に関連する部分を無視又は除去することにより、生成された三次元geoarc表面(910、912)を精緻化すること
    を含む、請求項2に記載の画像登録方法。
  5. 合成三次元表示を生成するステップが、さらに、
    合成三次元表示に対するセンサ(706、1214、1306)の位置とセンサ(706、1214、1306)の角度(θ)とを決定すること、並びに
    標的画像(402)内において可視である一又は複数のオブジェクトの、合成三次元表示に対する位置を、各オブジェクトについて、センサ(706、1214、1306)の位置に一方向へのオフセットを加えることにより決定すること
    を含み、
    シーン(700)の合成三次元表示を生成するステップが、標的画像(402)に関連付けられる一又は複数のオブジェクトを実時間で3D合成シーン(700)に投影することを含み、且つ
    三次元基準モデルを確立することが、地理空間インテリジェンスシステムデータベースから得られる情報を使用して三次元基準モデルを確立することを含む、
    請求項1に記載の画像登録方法。
  6. 三次元基準モデル内及び標的画像(402)内において識別されるフィーチャ対のフィーチャは、基準モデル及び標的画像(402)の回転及び縮尺によって変化しないように特徴づけられており、且つ
    センサ(706、1214、1306)の視点を決定するステップは、三次元基準モデルを任意の数の領域に区分すること、及びそれら領域の一又は複数の内部において可能性のあるセンサ(706、1214、1306)の視点を決定することを含む、
    請求項2に記載の画像登録方法。
  7. 画像を捕獲するように適合されたセンサ(706、1214、1306)、及び
    センサ(706、1214、1306)に通信可能に連結されたデータ処理システム
    を備えた航空ビークルであって、データ処理システムが、
    シーン(700)の三次元基準モデルを確立し、
    センサ(706、1214、1306)からシーン(700)の標的画像(402)を獲得し、
    標的画像(402)を捕獲したセンサ(706、1214、1306)の視点を、一又は複数の三次元geoarcを用いて、三次元基準モデルに対して決定し、且つ
    標的画像(402)から得られるデータを三次元基準モデルから得られるデータに、センサ(706、1214、1306)の視点を用いて関連付けることにより、シーン(700)の合成三次元表示を生成する
    ようにプログラムされており、
    センサ(706、1214、1306)の視点を決定するために、前記データ処理システムは、さらに、
    三次元基準モデル内において一又は複数のフィーチャ対を識別し、
    標的画像(402)内において一又は複数のフィーチャ対を識別し、
    標的画像(402)内の各フィーチャ対について、
    標的画像(402)内のフィーチャ対を、三次元基準モデル内のフィーチャ対のうちの一つに関連付け、
    標的画像(402)内のフィーチャ対に関連付けられる角度(θ)を推定し、
    三次元基準モデルに関連付けられる三次元geoarc表面(910、912)であって、標的画像(402)内のフィーチャ対と推定角度(θ)との間の関係性を表すgeoarc表面(910、912)を生成し、且つ
    三次元空間内において、二つ以上の三次元geoarc表面(910、912)が重複する位置を、三次元基準モデルに対して識別する
    ように構成されている、航空ビークル
  8. シーン(700)の合成三次元表示を生成するために、前記データ処理システムは、さらに、標的画像(402)に関連付けられる一又は複数のオブジェクトを、実時間で、3D合成シーン(700)に投影するようにプログラムされている、請求項7に記載の航空ビークル。
  9. センサ(706、1214、1306)は、航空ビークル上において、ランドスケープとシーン(700)とがセンサの視野に含まれるように位置しており、
    データ処理システムはメモリを含み、
    メモリは、三次元基準モデルを含む基準データを格納するように動作可能であり、且つセンサ(706、1214、1306)により捕獲された画像を格納するように動作可能である、
    請求項7に記載の航空ビークル。
JP2013093877A 2012-04-30 2013-04-26 3DGeoArcを用いた多モードデータの画像登録 Active JP6168833B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/459,643 2012-04-30
US13/459,643 US8855442B2 (en) 2012-04-30 2012-04-30 Image registration of multimodal data using 3D-GeoArcs

Publications (3)

Publication Number Publication Date
JP2013232195A JP2013232195A (ja) 2013-11-14
JP2013232195A5 JP2013232195A5 (ja) 2016-06-16
JP6168833B2 true JP6168833B2 (ja) 2017-07-26

Family

ID=48128081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013093877A Active JP6168833B2 (ja) 2012-04-30 2013-04-26 3DGeoArcを用いた多モードデータの画像登録

Country Status (6)

Country Link
US (1) US8855442B2 (ja)
EP (1) EP2660777B1 (ja)
JP (1) JP6168833B2 (ja)
CN (1) CN103377476B (ja)
AU (1) AU2013200708B2 (ja)
BR (1) BR102013010781B1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
CA2902040C (en) * 2013-02-22 2019-07-23 Ohio University Reduction of sensor captured data streamed to an operator
AU2014295972B2 (en) 2013-08-02 2018-10-11 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
CN103810686A (zh) * 2014-02-27 2014-05-21 苏州大学 无缝拼接全景辅助驾驶系统及方法
WO2015160292A1 (en) * 2014-04-14 2015-10-22 Saab Vricon Systems Ab A target determining method and system
CN104036520B (zh) * 2014-07-02 2017-02-15 中国科学院长春光学精密机械与物理研究所 异源建筑物图像配准方法
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9865089B2 (en) * 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US10670396B2 (en) 2014-09-08 2020-06-02 Sikorsky Aircraft Corporation Multi-sensor target location registration
US9288545B2 (en) * 2014-12-13 2016-03-15 Fox Sports Productions, Inc. Systems and methods for tracking and tagging objects within a broadcast
CN104751458B (zh) * 2015-03-23 2017-08-25 华南理工大学 一种基于180°旋转算子的标定角点检测方法
CN104778284B (zh) * 2015-05-11 2017-11-21 苏州大学 一种空间图像查询方法和系统
FR3037429B1 (fr) * 2015-06-15 2018-09-07 Donecle Systeme et procede d'inspection automatique de surface
US9830706B2 (en) * 2015-09-17 2017-11-28 Skycatch, Inc. Generating georeference information for aerial images
CN105744222B (zh) * 2016-02-03 2019-03-26 普宙飞行器科技(深圳)有限公司 一种无人机无线图像/视频传输、共享及存储系统
FR3049744B1 (fr) * 2016-04-01 2018-03-30 Thales Procede de representation synthetique d'elements d'interet dans un systeme de visualisation pour aeronef
SE539807C2 (en) * 2016-04-06 2017-12-05 Advanced Technical Solutions In Scandinavia Ab A METHOD FOR GENERATING A 3D COMBINED MODEL REPRESENTING A SCENE
JP6673761B2 (ja) * 2016-06-24 2020-03-25 八千代エンジニヤリング株式会社 視点場候補提示プログラム及び視点場候補提示装置
US10013798B2 (en) 2016-08-30 2018-07-03 The Boeing Company 3D vehicle localizing using geoarcs
US10402675B2 (en) 2016-08-30 2019-09-03 The Boeing Company 2D vehicle localizing using geoarcs
WO2018098635A1 (en) * 2016-11-29 2018-06-07 Continental Automotive Gmbh Method and system for generating environment model and for positioning using cross-sensor feature point referencing
US10482339B2 (en) 2016-12-09 2019-11-19 United States Of America As Represented By The Secretary Of The Air Force Quantifying computer vision algorithm performance in the presence of system uncertainty
US10235566B2 (en) * 2017-07-21 2019-03-19 Skycatch, Inc. Determining stockpile volume based on digital aerial images and three-dimensional representations of a site
US10515458B1 (en) * 2017-09-06 2019-12-24 The United States Of America, As Represented By The Secretary Of The Navy Image-matching navigation method and apparatus for aerial vehicles
US11079242B2 (en) * 2017-12-29 2021-08-03 Walmart Apollo, Llc System and method for determining autonomous vehicle location using incremental image analysis
US11055862B2 (en) 2018-10-26 2021-07-06 Here Global B.V. Method, apparatus, and system for generating feature correspondence between image views
EP3664038A1 (en) * 2018-12-06 2020-06-10 Ordnance Survey Limited Geospatial surveying tool
CN113743228B (zh) * 2018-12-10 2023-07-14 百度在线网络技术(北京)有限公司 基于多数据融合结果的障碍物存在性检测方法和装置
KR102522923B1 (ko) * 2018-12-24 2023-04-20 한국전자통신연구원 차량의 자기위치 추정 장치 및 그 방법
EP3903285B1 (en) * 2018-12-26 2024-01-24 Elbit Systems Land and C4I Ltd. Methods and systems for camera 3d pose determination
CN110472670B (zh) * 2019-07-24 2022-03-01 上海联影智能医疗科技有限公司 图像中线检测方法、计算机设备和存储介质
US11568638B2 (en) * 2019-09-30 2023-01-31 Raytheon Company Image targeting via targetable 3D data
CN110889905B (zh) * 2019-11-21 2023-06-06 宁波财经学院 基于裸眼3d的产品展示方法和系统
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs
US20210256176A1 (en) * 2020-02-18 2021-08-19 International Business Machines Corporation Development of geo-spatial physical models using historical lineage data
US11676374B1 (en) 2020-04-17 2023-06-13 Raytheon Company Three-dimensional-enabled targeting of imagery with rigorous error propagation
CN113724300A (zh) * 2020-05-25 2021-11-30 北京达佳互联信息技术有限公司 图像配准方法、装置、电子设备及存储介质
US20210377240A1 (en) * 2020-06-02 2021-12-02 FLEX Integration LLC System and methods for tokenized hierarchical secured asset distribution
CN111830966B (zh) * 2020-06-04 2023-12-19 深圳市无限动力发展有限公司 角落识别和清扫方法、装置及存储介质
CN113223065B (zh) * 2021-03-30 2023-02-03 西南电子技术研究所(中国电子科技集团公司第十研究所) Sar卫星图像与光学图像自动匹配方法
US11842504B2 (en) * 2021-08-13 2023-12-12 Mitsubishi Electric Research Laboratories, Inc. Systems and methods for image processing based on optimal transport and epipolar geometry
CN114220063B (zh) * 2021-11-17 2023-04-07 浙江大华技术股份有限公司 目标检测方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5406796A (en) * 1996-03-28 1997-10-17 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
IL120136A0 (en) * 1997-02-03 1997-06-10 Yissum Res Dev Co Synthesizing virtual two dimensional images of three dimensional space from a collection of real two dimensional images
KR20000068660A (ko) * 1997-07-29 2000-11-25 요트.게.아. 롤페즈 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템
JP3720587B2 (ja) * 1998-07-13 2005-11-30 大日本印刷株式会社 画像合成装置
US20010036302A1 (en) 1999-12-10 2001-11-01 Miller Michael I. Method and apparatus for cross modality image registration
EP2387248A3 (en) * 2002-03-27 2012-03-07 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
CN100410622C (zh) * 2004-05-14 2008-08-13 佳能株式会社 用于获得目标物体的位置和方位的信息处理方法和设备
US7580591B2 (en) 2005-07-01 2009-08-25 The Boeing Company Method for generating a synthetic perspective image
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US9123159B2 (en) * 2007-11-30 2015-09-01 Microsoft Technology Licensing, Llc Interactive geo-positioning of imagery
US8191828B2 (en) 2008-05-13 2012-06-05 The Boeing Company Methods and apparatus for aerial recovery of flying apparatus
US20090295791A1 (en) * 2008-05-29 2009-12-03 Microsoft Corporation Three-dimensional environment created from video
US20120019522A1 (en) * 2010-07-25 2012-01-26 Raytheon Company ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM

Also Published As

Publication number Publication date
BR102013010781B1 (pt) 2021-01-26
AU2013200708A1 (en) 2013-11-14
CN103377476A (zh) 2013-10-30
AU2013200708B2 (en) 2017-07-20
EP2660777A2 (en) 2013-11-06
US20130287290A1 (en) 2013-10-31
EP2660777B1 (en) 2019-01-02
US8855442B2 (en) 2014-10-07
EP2660777A3 (en) 2016-11-02
BR102013010781A2 (pt) 2015-06-23
CN103377476B (zh) 2018-04-03
JP2013232195A (ja) 2013-11-14

Similar Documents

Publication Publication Date Title
JP6168833B2 (ja) 3DGeoArcを用いた多モードデータの画像登録
US10598489B2 (en) Visual odometry and pairwise alignment for high definition map creation
US20210058608A1 (en) Method and apparatus for generating three-dimensional (3d) road model
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
US20100045701A1 (en) Automatic mapping of augmented reality fiducials
US10451403B2 (en) Structure-based camera pose estimation system
EP3274964B1 (en) Automatic connection of images using visual features
Tao et al. Automated processing of mobile mapping image sequences
US11513211B2 (en) Environment model using cross-sensor feature point referencing
Andersson et al. Simultaneous localization and mapping for vehicles using ORB-SLAM2
Wei Multi-sources fusion based vehicle localization in urban environments under a loosely coupled probabilistic framework
Khosravani Automatic modeling of building interiors using low-cost sensor systems
Li et al. Error aware multiple vertical planes based visual localization for mobile robots in urban environments
Ahmadabadian Photogrammetric multi-view stereo and imaging network design
Velasco-Sánchez et al. LiLO: Lightweight and low-bias LiDAR Odometry method based on spherical range image filtering
Calloway Adaptive Three-Tier Sensor Fusion Model with Application to See-Through Augmented Reality in Urban Environments
ARAUJO et al. Localization and Navigation with Omnidirectional Images
Wang Hybrid panoramic visual SLAM and point cloud color mapping
Defraiteur et al. Towards a Reference Data Generation Framework for Performance Assessment of Perception Systems
Ruano Sáinz Augmented reality over video stream acquired from UAVs for operations support
Chu Vision-based localization with map information
Yang Vision based estimation, localization, and mapping for autonomous vehicles
David et al. Image-based Localization in Urban Environments
Jonasa et al. IMAGO: Image-guided navigation for visually impaired people
Goodsell et al. Situational awareness for unmanned ground vehicles in semi-structured environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170627

R150 Certificate of patent or registration of utility model

Ref document number: 6168833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250