JP2011526029A - 街路レベル画像の3d建物モデルへの位置合わせ - Google Patents

街路レベル画像の3d建物モデルへの位置合わせ Download PDF

Info

Publication number
JP2011526029A
JP2011526029A JP2011516376A JP2011516376A JP2011526029A JP 2011526029 A JP2011526029 A JP 2011526029A JP 2011516376 A JP2011516376 A JP 2011516376A JP 2011516376 A JP2011516376 A JP 2011516376A JP 2011526029 A JP2011526029 A JP 2011526029A
Authority
JP
Japan
Prior art keywords
building
street
model
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011516376A
Other languages
English (en)
Other versions
JP2011526029A5 (ja
JP5450619B2 (ja
Inventor
ムクティヌタラパティ,カルティク・チャンドラ
タブ,マーク・ダイヴィド
ナギー,ペテ
ビー,ジャオクイアン
キムチー,ギュール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41445164&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2011526029(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2011526029A publication Critical patent/JP2011526029A/ja
Publication of JP2011526029A5 publication Critical patent/JP2011526029A5/ja
Application granted granted Critical
Publication of JP5450619B2 publication Critical patent/JP5450619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

画像データーについての原点(point of origin)情報の地理的位置絶対値に対する位置合わせが、低精度となる場合がある。画像および高精度モデル・データーを整合させるプロセスが、画像内にあるエレメントをモデルの対応するエレメントとマッチングすることによって、画像データーの原点を調節する。街路レベルの画像において、建物の輪郭線を抽出することができ、建物モデルからの対応する輪郭線を、画像に基づく輪郭線上に置くことができる。画像の原点を調節することによって、それぞれの輪郭線を整合させることができる。建物のエッジおよび正面深度の情報も、画像の原点を調節することによって、同様に一致させることができる。次いで、長い一連の画像にわたって、画像をモデル上に自動的に重ねるために、画像の調節した原点を用いることができる。
【選択図】図7

Description

従来技術
[0001] 多くの場合、車両の正確な位置は、汎地球測位システム(GPS)受信機および慣性測定ユニット(IMU)の組み合わせを用いると、判定することができる。このような位置検出システムを用いて車両から取り込まれた画像は、GPSおよびIMUによって供給される測位測定値を用いて、ある場所に位置合わせすることができる。
[0002] しかしながら、都市渓谷(urban canyon)における信号の歪み、機械的許容度、磨耗(wear)等によって、1つ以上の画像センサによって報告される場所が、センサの実際の位置とは異なってしまい、しかもそれを予測できないという場合がある。
[0003] このような不一致の一例を図1に示す。図1は、先行技術による、建物画像データー(例えば、写真データー)50を同じ建物の既存の三次元(3D)モデル52と整合させる試みの結果を示す。見て分かるように、画像ソース位置の3Dモデルの地理的基準に対する位置合わせ精度の欠如のために、画像50とモデル52との間で位置ずれが生じている。
[0004] 本システムおよび方法は、画像および高分解能走査の組み合わせを用い、画像と建物モデルとの間に最良の一致が得られるまで、系統的に画像データーの原点を調節することによって、街路レベルの画像を3D建物モデルに整合させる。1組の画像に対して原点の調節(例えば、カメラ位置)を行うことによって、これらを満足のいくように整合させることができる。街路の対向する両側で画像を選択すると、更に高い精度を得ることができ、整合プロセスのためにデーターの多様性を高めることができる。
[0005] 画像は、建物の3Dモデルと整合されるが、この3Dモデルは、航空機搭載レーザ測距(LIDAR:airborne laser ranging)のような他の技法を用いて発生することができる。街路レベル(即ち、地上よりも上20フィート未満)の画像は、建物の特徴識別のために、街路レベルLIDARデーターによって補足することができる。
[0006] 画像および街路レベルLIDARを処理して、建物のエッジおよび輪郭線(skyline)を抽出し、次いでこれらを3Dモデルに対して投影する。抽出した画像エッジと輪郭線との間の距離、街路レベルのエッジおよび正面深度(facade depth)、ならびに3Dモデルの対応する特徴に基づいて、コスト、または性能指数を求める。次いで、カメラ位置を、その計算された位置を中心にして繰り返し変位させて、コストを計算し直す。次いで、抽出した特徴とモデル化した特徴との間における最良の一致に対応する最低のコストを選択し、対応するカメラ位置を格納することができる。このプロセスは、対向する両側、例えば、街路の両側からの画像を含む一連の画像に沿って画像を組み込むことができる。ソース位置を変位させていくと、考慮した画像全てに対する全体的コストが最も低くなるときに、カメラに対して一層精度の高い絶対位置を表す。図2は、画像54および3Dモデル56の整合を、この技法の結果として示す。
図1は、画像およびモデルの整合についての正しくない原点位置情報の結果の先行技術の図である。 図2は、高精度の原点情報の結果としての画像およびモデル・データーの整合の図である。 図3は、画像位置合わせに用いるのに相応しい汎用計算機のブロック図である。 図4は、画像の連続における一点での輪郭線の識別を示すブロック図である。 図5は、画像の連続における別の点での輪郭線の識別を示すブロック図である。 図6は、街路レベル画像における輪郭線識別の図である。 図7は、輪郭線データーを用いた原点位置調節を示すブロック図である。 図8は、街路レベル画像における輪郭線の一致の図である。 図9は、LIDAR正面および建物エッジ識別を示すブロック図である。 図10は、画像位置合わせのための画像原点調節方法のフロー・チャートである。
[0017] 以下の本文は、多数の異なる実施形態の詳細な説明を明記するが、この記載の法的範囲は、本特許の終端に明記される特許請求の範囲の文言によって定義されることは言うまでもない。詳細な説明は、単なる例示と解釈すべきであり、あらゆる可能な実施形態を記載することは、不可能ではないにしても、現実的ではないので、あらゆる可能な実施形態を記載するのではない。多数の代替実施形態も、現在の技術または本特許の出願日以降に開発された技術のいずれを用いても、実現することができ、これらも特許請求の範囲に該当するものとする。
[0018] また、「本明細書において用いる場合、「 」という用語は...を意味することを定める」という文章または同様の文章を用いて本特許において用語が明示的に定められていないのであれば、その用語の意味を、その平素の意味または通常の意味を超えて、明示的にもまたは暗示的にも限定する意図はなく、このような用語は、本特許のいずれの章において作成されたいずれの言説(特許請求の範囲の文言以外)に基づいても、その範囲を限定するように解釈してはならないことは言うまでもない。本特許の最後にある特許請求の範囲において列挙されているいずれの用語も、本特許において1つの意味で一貫性をもって言及されている場合については、読者を混乱させないことのみを目的とした明確化のためにそれを行ったのであり、このような請求項の用語が、その1つの意味に、暗示等によって限定されることを意図するのではない。最後に、請求項の要素が、「手段」という用語および機能を明記することによって定義され、何の構造の明言もない場合を除いて、いずれの請求項の要素も、35U.S.C.§112、第6パラグラフの適用に基づいて、解釈されることを意図していない。
[0019] 本発明の機能の多く、および本発明の原理の多くは、ソフトウェア・プログラムまたは命令および特定用途ICのような集積回路(IC)によって最良に実現される。尚、当業者は、例えば、得られる時間、現在の技術、および経済的な考慮事項が動機となって行われ得る多大な努力および多くの設計選択にもかかわらず、本明細書に開示されている概念および原理によって導かれれば、このようなソフトウェア命令およびプログラムならびにICを最小限の実験で容易に作成することができるようになることが予期される。したがって、簡潔さのため、そして本発明による原理および概念を曖昧にするあらゆる危険性を極力少なくするために、このようなソフトウェアおよびICのこれ以上の解説は、行うにしても、好ましい実施形態の原理および概念に関して必須なことに限定することとする。
[0020] 図3を参照すると、特許請求する方法および装置を実現するシステム例は、コンピューター110の形態をなす汎用計算機を含む。破線の外郭−の中に示すコンポーネントは、技術的にコンピューター110の部分ではないが、図3の実施形態例を示すために用いられている。コンピューター110のコンポーネントは、限定ではなく、プロセッサ120、システム・メモリー130、ノースブリッジ・チップとしても知られているメモリー/グラフィクス・インターフェース121、およびサウスブリッジ・チップとしても知られているI/Oインターフェース122を含むことができる。システム・メモリー130およびグラフィクス・プロセッサ190を、メモリー/グラフィクス・インターフェース121に結合することができる。モニタ191または他のグラフィック出力デバイスをグラフィクス・プロセッサ190に結合することができる。
[0021] 一連のシステム・バスが、種々のシステム・コンポーネントを結合することができる。これらのシステム・コンポーネントには、プロセッサ120と、メモリー/グラフィクス・インターフェース121と、I/Oインターフェース122との間にある高速システム・バス123、メモリー/グラフィクス・インターフェース121とシステム・メモリー130との間にあるフロント側バス124、およびメモリー/グラフィクス・インターフェース121とグラフィクス・プロセッサ190との間にある高度グラフィクス処理(AGP)バス125を含む。システム・バス123は、一例としてそして限定ではなく、業界標準アーキテクチャ(ISA)バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、及び改良ISA(EISA)バスを含むようなアーキテクチャを含む、数種類のバス構造のいずれでもよい。システム・アーキテクチャが発展するに連れて、他のバス・アーキテクチャやチップ・セットも用いることができるが、一般には次のパターンに従うことが多い。例えば、Intel社やAMD社のような会社がIntel Hub Architecture(IHA)およびHypertransport(商標)アーキテクチャをそれぞれサポートする。
[0022] コンピューター110は、通例、種々のコンピューター読み取り可能媒体を含む。コンピューター読み取り可能媒体は、コンピューター110によってアクセスすることができる入手可能な任意の媒体とすることができ、揮発性および不揮発性双方の媒体、ならびにリムーバブルおよび非リムーバブル媒体を含む。一例としてそして限定ではなく、コンピューター読み取り可能媒体は、コンピューター記憶媒体および通信媒体を含む。コンピューター記憶媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、またはその他のデーターというような情報の格納のために任意の方法または技術で実現された、揮発性および不揮発性双方、リムーバブルおよび非リムーバブル媒体を含む。コンピューター記憶媒体は、限定ではなく、RAM、ROM、EEPROM、フラッシュ・メモリーまたはその他のメモリー技術、CD−ROM、ディジタル・バーサタイル・ディスク(DVD)またはその他の光ディスク・ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージ、またはその他の磁気記憶デバイス、あるいは所望の情報を格納するために用いることができ、そしてコンピューター110によってアクセスすることができる任意の他の媒体を含む。
[0023] システム・メモリー130は、リード・オンリ・メモリー(ROM)131およびランダム・アクセス・メモリー(RAM)132のような、揮発性および/または不揮発性メモリーの形態としたコンピューター記憶媒体を含む。システムROM131は、識別および製造情報のような永続的システム・データー143を収容することができる。実施形態によっては、基本入力/出力システム(BIOS)もシステムROM131に格納できる場合もある。RAM132は、通例、プロセッサ120に直ちにアクセス可能な、および/または現在プロセッサ120によって動作させられているデーターおよび/またはプログラム・モジュールを収容する。一例としてそして限定ではなく、図3は、オペレーティング・システム134、アプリケーション・プログラム135、他のプログラム・モジュール136、およびプログラム・データー137を示す。
[0024] I/Oインターフェース122は、システム・バス123を複数の他のバス126、127、および128に結合することができる。これらのバス126、127、および128は、種々の内部および外部デバイスをコンピューター110に結合する。シリアル・ペリフェラル・インターフェース(SPI)バス126は、基本入力/出力システム(BIOS)メモリー133に接続することができる。BIOSメモリー133は、起動中のように、コンピューター110内部のエレメント間で情報を転送する際に役立つ基本的なルーチンを収容する。
[0025] スーパー入力/出力チップ160を用いて、複数の「旧来の」周辺機器に接続することもできる。一例として、フロッピ・ディスク152、キーボード/マウス162、およびプリンター196等がある。スーパーI/Oチップ160は、実施形態によっては、ピン数が少ない(LPC)バスのようなバス127によって、I/Oインターフェース122に接続することもできる。スーパーI/Oチップ160の種々の実施形態は、商業市場において広く入手可能である。
[0026] 一実施形態では、バス128は周辺素子相互接続(PCI)バスまたはその変形とすることができ、更に高速の周辺機器をI/Oインターフェース122に接続するために用いることができる。また、PCIバスはメザニン・バス(Mezzanine bus)としても知られていることもある。PCIバスの変形には、周辺素子相互接続−表現(PCI−E:Peripheral Component Interconnect-Express)および周辺素子相互接続−拡張(PCI−X:Peripheral Component Interconnect-Extended)バスが含まれる。前者はシリアル・インターフェースを有し、後者は下位互換性のあるパラレル・インターフェースである。他の実施形態では、バス128は、シリアルATAバス(SATA)またはパラレルATA(PATA)の形態とした、高度技術装着(ATA:advanced technology attachment)バスとしてもよい。
[0027] また、コンピューター110は、他のリムーバブル/非リムーバブル、揮発性/不揮発性コンピューター記憶媒体も含むことができる。一例としてに過ぎないが、図3は、非リムーバブル、不揮発性磁気媒体から読み取りを行い、不揮発性磁気媒体に書き込みを行うハード・ディスク・ドライブ140を示す。
[0028] ユニバーサル・シリアル・バス(USB)メモリー153、ファイアワイヤ(IEEE1394)、またはCD/DVDドライブ156のようなリムーバブル媒体は、直接的にまたはインターフェース150を介してPCIバス128に接続することができる。記憶媒体154は、インターフェース150を介して結合することができる。この計算環境例において用いることができる他のリムーバブル/非リムーバブル、揮発性/不揮発性コンピューター記憶媒体には、限定ではなく、磁気テープ・カセット、フラッシュ・メモリー・カード、ディジタル・バーサタイル・ディスク、ディジタル・ビデオ・テープ、ソリッド・ステートRAM、ソリッド・ステートROMなどが含まれる。
[0029] 先に論じたドライブおよびこれらと関連したコンピューター記憶媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、およびその他のデーターの格納をコンピューター110のために提供する。図3において、例えば、ハード・ディスク・ドライブ140は、オペレーティング・システム144、アプリケーション・プログラム145、他のプログラム・モジュール146、およびプログラム・データー147を格納するように示されている。尚、これらのコンポーネントは、オペレーティング・システム134、アプリケーション・プログラム145、他のプログラム・モジュール136、およびプログラム・データー137と同一であっても、または異なっていても可能であることを記しておく。オペレーティング・システム144、アプリケーション・プログラム145、他のプログラム・モジュール146、およびプログラム・データー147は、ここでは、これらが異なるコピーであることを少なくとも図示するために、異なる番号が与えられている。ユーザは、コマンドおよび情報をコンピューター20に、マウス/キーボード162またはその他の入力デバイスの組み合わせというような入力デバイスを通じて入力することができる。他の入力デバイス(図示せず)には、マイクロフォン、ジョイスティック、ゲーム・パッド、衛星ディッシュ、スキャナーなどを含むことができる。これらおよびその他の入力デバイスは、SPI126、LPC127、またはPCI128というようなI/Oインターフェース・バスの内の1つを通じてプロセッサ120に接続されることが多いが、他のバスを用いてもよい。実施形態によっては、他のデバイスをパラレル・ポート、赤外線インターフェース、ゲーム・ポート等(図示せず)に、スーパーI/Oチップ160を通じて結合することもできる。
[0030] コンピューター110は、リモート・コンピューター180のような1つ以上のリモート・コンピューターに、ネットワーク・インターフェース・コントローラ(NIC)170を通じた論理接続を用いて、ネットワーク接続環境において動作することができる。リモート・コンピューター180は、パーソナル・コンピューター、サーバー、ルーター、ネットワークPC、ピア・デバイス、またはその他の一般的なネットワーク・ノードとすることができ、通例、コンピューター110に関して先に説明したエレメントの多くまたは全部を含む。NIC170と図3に示すリモート・コンピューター180との間の論理接続は、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、または双方を含むことができるが、他のネットワークを含んでもよい。このようなネットワーク接続環境は、事務所、企業規模のコンピューター・ネットワーク、イントラネット、およびインターネットでは極普通である。リモート・コンピューター180は、コンピューター110との対話セッションをサポートするウェブ・サーバーも表すことができる。
[0031] 実施形態によっては、ブロードバンド接続が利用できないまたは用いられていないときにネットワーク・インターフェースがモデム(図示せず)を用いるとよい。尚、図示したネットワーク接続は一例であり、コンピューター間において通信を確率する他の手段を用いてもよいことは認められよう。
[0032] 図4から図8は、カメラ位置の精度を地理に関して高めるために同じ場面の3Dモデルについて画像データーをどのように解釈することができるかを示す。この技法を用いる一実施形態では、精密スキャナー、例えば、光検出および測距(LIDAR)機器を航空機に実装(airplane mounted)し、都市エリアのような、地理的領域についての幾何学データーを取り込むために用いることができる。このLIDARデーターから、建物を含む領域の三次元モデルを、10センチメートル程度の精度で発生することができる。このような地理的モデルは貴重なリソースを提供するが、場面に命を吹き込むには、色およびテクスチャ・データーを3Dモデルにつけ加える必要がある場合もある。街路レベルの写真は、所望の現実性を与えることができるが、図1に示すように、写真データーが3Dモデルと適正に整合されていない場合、理解できない混乱が生ずる虞れがある。街路に基づくLIDARデーターは、1センチメートル以内に写真の物体(例えば、建物)に関する写真データーのソース位置をおくことができるが、3Dモデルが用いるような、地理的座標に関するカメラの位置は、1メートル以上もずれることもあり得る。高さが100メートル台の建物の3Dモデル上に写真データーを投影すると、このソース位置の低精度から、図1の不一致が簡単に生ずる可能性がある。
[0033] カメラの地理的位置の低精度に取り組むために、画像および街路レベルLIDARデーターが同じ場面の3Dモデルに最良に一致する(fit)まで、数学的にカメラ位置座標を変化させるために、一層精度が高い航空機搭載および街路レベルLIDARデーターを用いることができる。一旦一連の画像に沿った2点、特に一連の終端付近の2点が正確に突き止められたなら、その一連の画像に沿った他の間隔からの画像は、IMUデーターを用いて仲介点の位置を精度高く突き止めることができる。
[0034] 図4は、連続画像(image run)における1点での輪郭線識別を示すブロック図である。街路402ならびに代表的な建物404、406、および408が示されており、典型的な街路環境を表す。道路410は、当該道路410に沿って画像データーを取り込むために用いられる走路を示す。画像は、周期的な間隔で、道路に沿って取り込むことができる。代表的な第1の位置412が道路410の開始点近くにあり、第1の位置412の観点からの建物の代表的な輪郭線416、418、および420を示す。
[0035] 一実施形態では、当技術分野では周知の最適路アルゴリズムに基づく輪郭線検出アルゴリズムを用いる。このアルゴリズムは、エッジ、勾配の強さおよび方向、ならびに空分類エッジ(sky classification edges)および消失点情報に依存する。例えば、エッジと消失点との組み合わせでは、検討対象の画素を消失点に接続する線上において、空と分類された画素をある割合だけ用いることができる。別の輪郭線検出属性は、既存の建物モデルに基づいて先験的に推測された輪郭線を用いることができる。即ち、画像データーにおいて輪郭線を判定するのに役立てるために、3Dモデル自体を用いることができる。
[0036] 建物404、406、408についてそれぞれ抽出された輪郭線データー416、418、および420は、後に3Dモデルとの比較の一部としてソース位置を判定する際に用いることができる。
[0037] 第1および第2の位置412および414をそれぞれ立方体として示すことによって、道路410におけるその地点での画像のソースの正確な位置が、GPS受信およびIMU精度に対する環境の特質に応じて精度が高くも低くもなり得る、三次元空間における推定値であることを示す。
[0038] 図5は、図4に示した連続画像のような、連続画像における別の点での輪郭線識別を示すブロック図である。先と同様、街路502および建物504、506、および508が示されている。道路510が、この街路に沿った連続画像の進展を示し、道路510に沿って周期的に撮影した画像は、開始点付近の代表的な第1の位置512、および道路510の終点付近の代表的な第2の位置514を含む。実施形態によっては、最も一致するカメラの実際の位置を計算するときに、連続に沿った別の画像を用いるとよい場合もある。
[0039] 図示のように、輪郭線の検出は、第2の位置514の街路レベルの観点からのそれぞれの建物504、506、508各々の輪郭線516、518、520を判定するために用いることができる。
[0040] 次に、この情報を3Dモデル・データーと組み合わせて、元の街路レベル画像を得たカメラの地理的位置に対する補正係数を決定することができる。
[0041] 図6は、様々な建物およびそれらに関連する輪郭線を示す街路レベルの画像602である。検出された輪郭線604は白い線で示されている。黒い線606は、カメラが実際にその報告された位置にあった場合の3Dモデルの投影輪郭線を表す。
[0042] 図7は、代表的な建物702を、検出された輪郭線エッジ704と共に示す。画像ソースを突き止めることができる範囲が、立方体706によって表されている。立方体706は、GPSおよびIMU機器によって記録されたカメラの位置を中心にして配置するとよい。
[0043] 図7に示すように、3Dモデル・データーに基づいて投影された輪郭線を、検出された画像の輪郭線と比較するとよい。例えば、第1の投影708は、立方体706の左上角から位置付ける(locate)ことができ、第2の投影710は、カメラ位置を上中央にして行うことができ、第3の投影712は、立体の右下角から行うことができる。動作において、測定した位置を中心とする3×3×3行列上においてカメラの位置検出(location)を行うことができる。抽出した輪郭線と投影した輪郭線との間の距離は、画像座標のxおよびy次元における絶対距離の和として計算することができる(abs(x1-x2)+abs(y1-y2))。実施形態によっては、誤って検出された輪郭線の部分を考慮するために、100画素を超える距離を考慮しない方がよい場合もある。検出された輪郭線と投影された輪郭線との間における最も近い一致と関連した投影位置を選択して格納することができる。この例では、投影710が最良の一致を表す。IMUデーターは所与の道路の行程に沿って非常に精度が高いので、この所与の道路に沿ったデーターを用いた位置検出動作の実行を用いれば、1回の計算において道路全体の方位を決め直すことができる。
[0044] 図8は、投影輪郭線804を発生するための、異なるカメラ位置を表す複数の投影された輪郭線804を示す街路レベルの図802である。
[0045] 図9は、画像マッチング(matching)のために輪郭線データーを補足するための街路レベルLIDARデーターの使用を示す。建物902は、カメラ位置904からの画像データーに取り込むことができる。エッジ・データー906および908、ならびに正面深度910は、画像データーを取り込むのと同時に記録することができる。先の検出された輪郭線および投影された輪郭線と同様に、エッジ912、914および正面深度916の情報は、建物902の3Dモデルから抽出された投影エッジおよび正面情報と比較することができる。LIDAR深度データーは、検出輪郭線情報よりもロバストであることができ、実際のカメラ位置に関する全てのソース情報を組み合わせるときに、より大きな重みを与えることができる。
[0046] 所与の連続セグメントについてのLIDAR深度の計算では、最初に1つ以上の近隣の建物の3Dモデルを取得すればよい。建物毎に、その連続セグメント(run segment)に面しており大きな面積および幅を有する建物の正面について考慮することができる。各正面(ローカル座標系における)系のエッジの開始位置および終端位置を、3D建物モデルに基づいて計算する。これらのエッジに対応する開始および停止トリガ・イベント、ならびに連続セグメントへの正面エッジの投影を計算する。この情報に基づいて、連続セグメントからの正面深度を求めることができる。
[0047] 開始および停止トリガ・イベントを、LIDAR深度検出モジュールに受け渡す。発見した支配的平面の深度を受け戻す。対象となる正面に最も近い支配的平面(重心の意味で)を選択し、差異(disparity)を計算する。
[0048] LIDARに基づく深度と既存の建物のモデル正面に基づく深度との差が所与の許容度以内である場合、これを考慮に入れる。これを建物正面−LIDAR深度に基づく差異(building facade-LIDAR depth based disparity)と呼ぶ。連続セグメントを取り囲む広い側の建物の正面全体に対する全ての建物正面−LIDAR深度に基づく差異の平均が、LIDAR深度基準の性能指数となる。
[0049] また、IDARエッジの計算は、所与の連続セグメントの近傍にある建物の3D建物モデルを得ることによって開始することもできる。建物毎に、ローカル座標系において建物の幾何学的モデルを用いて、エッジを計算することができる。建物の開始および終端位置、ならびにこれらの建物に対応するトリガ・イベントを計算する。
[0050] これらの開始および停止トリガ・イベントは、Lidarユニット(左または右の舷側)と共に、個々にLIDARエッジ検出モジュールに受け渡される。また、LIDAR深度画像における建物の側面も与えることができる。LIDARエッジ検出モジュールは、その建物のエッジを取り囲む支配的平面を検出し、建物の側面に応じてエッジを発見する。
[0051] LIDAR検出エッジの重心を逆に建物の角から見た画像(building corner-looking image)に投影する。同様に、既存のモデルからの建物エッジに対応する点(カメラと同じ高さを用いる。ローカル座標系における建物の角の位置に対応する)を、逆に投影する。これらの投影の列数の差(画素単位)を、エッジ基準コスト(edge based cost)または性能指数について検討する。これは、画像フレームが完全に垂直であるという仮定に基づく近似コストである。これは、代表的な位置測定モジュールにおいて通例用いられる分解能には、十分に納得がいくものである。
[0052] 連続セグメントを取り囲む全ての建物についてのこれらの差の平均は、LIDARエッジ基準コストまたは性能指数として考慮される(画素単位)。
[0053] 図10は、画像データーのソース位置について変位値を決定する方法1000を示す。ブロック1002において、ソース位置の第1変位値をロードすることができる。ブロック1004において、原初画像から抽出した輪郭線と対応する3Dモデルから計算した輪郭線との間における輪郭線変位に対する性能指数を求める。検査する原初画像の変位毎に、輪郭線の性能指数の計算に、複数の原初画像を用いることができる。
[0054] ブロック1006において、LIDARエッジおよび正面データーに対する性能指数を、LIDARデーターおよび3Dモデル・データーを比較することによって計算することができる。
[0055] ブロック1008において、輪郭線およびLIDAR性能指数を計算することができる。一実施形態では、性能指数を単純に加算する。別の実施形態では、1つの性能指数、例えば、LIDARデーターと関連したデーターの方が精度が高いと見なされた場合、これにより大きな重み付けを行うことができる。
[0056] ブロック1010において、ブロック1008の結果を、以前に格納されている最小値があるのであれば、それと比較することができる。新たな性能指数の値が以前の最小値よりも低い場合、実行は「yes」分岐を辿ってブロック1012に進むことができる。新たな性能指数が現在の最小値以上である場合、実行は「no」分岐を辿り、他にも検査すべき変位値がある場合、実行はブロック1002に進む。
[0057] ブロック1010から「yes」分岐に進む場合、ブロック1012において、性能指数の新たな低い値を格納し、更にこの新たな低い値が得られた変位値も格納する。他にも検査する必要がある変位値がある場合、実行はステップ1002に進むことができる。
[0058] 全ての変位値を検査し終えたなら、最も低い性能指数と関連した変位値を用いて、連続データーを訂正することができる。
[0059] モデル化した建物の正面に実際の画像を用いることができるため、3D画像および位置測定アプリケーションに、新たなレベルの現実性が与えられる。前述した技法を使用することにより、大量の位置測定データーに対する画像とモデルとの一致というともすると膨大な作業となるものの自動化が可能になる。その結果、無頓着なユーザ、業務用アプリケーション開発者、ゲーマーなどが大規模な地理モデリングの精度および現実性を楽しむことができる。
[0060] 以上の本文は、本発明の複数の異なる実施形態の詳細な説明を明記したが、本発明の範囲は、本特許の最後に明記した特許請求の範囲の文言によって定められることは言うまでもない。詳細な説明は、単なる例示と解釈すべきであり、本発明のあらゆる可能な実施形態について記載するのではない。何故なら、あらゆる可能な実施形態を記載することは、不可能ではないにしても、非現実的であるからである。現在の技術または本願の出願日よりも後に開発される技術のいずれかを用いて、複数の代替実施形態を実現することもできるが、これらも、本発明を定める特許請求の範囲に該当するものとする。
[0061] つまり、多くの変更および変形が、本明細書において記載し図示した技法および構造において、本発明の主旨や範囲から逸脱せずに可能である。したがって、本明細書に記載した方法および装置は単なる例示に過ぎず、本発明の範囲を限定するのではないことは言うまでもない。

Claims (20)

  1. 位置データーの訂正方法であって、
    ソース位置を画像に割り当てるステップと、
    前記画像における建物(504)の建物(504)細部を判定するステップと、
    三次元走査から前記建物(504)細部に対応する建物(504)のモデルを抽出するステップと、
    前記建物(504)モデルからのモデル細部を、前記画像からの建物(504)細部に投影するステップと、
    前記建物(504)細部および前記モデル細部が制限値以内で一致するまで、前記ソース位置を調節するステップと、
    前記建物(504)細部および前記モデル細部が前記制限値以内で一致するまで前記ソース位置を調節することによって得られた調節後のソース位置を記録するステップと、
    を含む、方法。
  2. 請求項1記載の方法であって、更に、
    前記画像を前記建物(504)モデルに適用するときに、前記調節後のソース位置を用いるステップを含む、方法。
  3. 請求項1記載の方法において、前記画像における前記建物(504)細部を判定するステップは、
    前記ソース位置からの前記建物(504)の正面までの距離を測定するステップを含む、方法。
  4. 請求項1記載の方法において、前記画像における前記建物(504)細部を判定するステップは、
    エッジおよび勾配の強さを評価するステップと、
    消失点と関連した線上における画素を評価するステップと、
    前記建物(504)モデルから前記建物(504)細部を推定するステップと、
    を含む、方法。
  5. 請求項1記載の方法であって、更に、実行セグメントおよびこの実行セグメントの対向する両側から建物(404)に対応する複数の画像を選択するステップを含む、方法。
  6. 請求項5記載の方法であって、更に、前記モデル細部の投影(710)時に、建物(504)の深度データーおよび建物(504)の輪郭線データー(416)を組み合わせるステップを含む、方法。
  7. 請求項1記載の方法において、前記建物(504)細部を判定するステップは、写真の建物(504)の輪郭線(516)を判定するステップを含む、方法。
  8. 請求項1記載の方法において、前記建物(504)細部を判定するステップは、写真の建物(504)のエッジ(912)を判定するステップを含む、方法。
  9. 請求項1記載の方法において、前記建物(504)細部を判定するステップは、LIDAR輪郭線(516)を判定するステップを含む、方法。
  10. 請求項1記載の方法において、前記建物(504)細部を判定するステップは、LIDAR建物(504)のエッジ(912)を判定するステップを含む、方法。
  11. 請求項1記載の方法において、前記ソース位置を調節するステップは、
    複数の画像を用いて、複数のモデル細部を対応する複数の建物(504)細部に各画像から投影するために、開始点ソース位置を開始点三次元範囲上で調節するステップを含む、方法。
  12. 画像データーを建物(504)のモデルに整合させる方法であって、
    街路(402)−レベルの建物(504)の情報を取り込むステップと、
    ソース位置を前記街路(402)−レベルの建物(504)の情報に割り当てるステップと、
    建物(504)の輪郭線(516)、建物(504)のエッジ(912)、および建物(504)の正面深度(910)を、前記街路(402)−レベルの建物(504)の情報において判定するステップと、
    前記街路(402)−レベルの建物(504)の情報と関連した位置に対応するモデル情報を、空中データーから抽出するステップと、
    性能指数関数を、前記街路(402)−レベルの建物(504)の情報および前記空中データーの対応するエレメントに適用するステップと、
    前記性能指数関数の出力の分析に基づいて、変位係数を計算するステップと、
    前記変位係数を前記ソース位置に適用することによって、前記ソース位置を変更するステップと、
    前記変位係数によって修正されたソース位置を用いて、前記画像データーを前記建物(504)のモデルに整合させるステップと、
    を含む、方法。
  13. 請求項12記載の方法において、前記性能指数関数を適用するステップは、街路(402)−レベルの輪郭線(516)および空中データーの輪郭線(516)を分析するステップを含む、方法。
  14. 請求項12記載の方法において、前記性能指数関数を適用するステップは、街路(402)−レベルの正面と、空中データーの正面とを分析するステップを含む、方法。
  15. 請求項12記載の方法において、前記性能指数関数を適用するステップは、
    街路(402)−レベルの建物(504)のエッジ(912)と、空中データーの建物(504)のエッジ(912)とを分析するステップを含む、方法。
  16. コンピューター読み取り可能記憶媒体(140)であって、
    街路(402)−場面の画像データーを含む街路(402)−レベルの建物(504)の情報を取り込むステップと、
    ソース位置を前記街路(402)−レベルの建物(504)の情報に割り当てるステップと、
    建物(504)の輪郭線(516)、建物(504)のエッジ(912)、および建物(504)の正面深度(910)を、前記街路(402)−レベルの建物(504)の情報において判定するステップと、
    前記街路(402)−レベルの建物(504)情報と関連した位置に対応する空中データーから、建物(504)のモデルを抽出するステップと、
    性能指数関数を、前記街路(402)−レベルの建物(504)の情報および前記空中データーに基づく前記建物(504)のモデルの対応するエレメントに適用するステップと、
    前記性能指数関数の出力の分析に基づいて、変位係数を決定するステップと、
    前記変位係数を前記ソース位置に適用することによって、前記ソース位置を変更するステップと、
    前記変位係数によって変更したソース位置を用いて、前記街路(402)−場面の画像データーを前記建物(504)のモデルに整合させるステップと、
    を含む方法を実行するためのコンピューター実行可能命令を有する、コンピューター読み取り可能記憶媒体(140)。
  17. 請求項16記載のコンピューター読み取り可能記憶媒体において、
    前記性能指数関数を適用するステップは、街路(402)−レベルの建物(504)の輪郭線(516)、エッジ(912)、および正面情報を、対応する空中データーの建物(504)の輪郭線(516)、エッジ(912)、および正面情報と比較するステップを含む、コンピューター読み取り可能記憶媒体。
  18. 請求項16記載のコンピューター読み取り可能記憶媒体において、街路(402)−レベルの建物(504)の情報を取り込むステップは、街路(402)の両側についての街路(402)−レベルの建物(504)の情報を取り込むステップを含む、コンピューター読み取り可能記憶媒体。
  19. 請求項16記載のコンピューター読み取り可能記憶媒体において、街路(402)−レベルの建物(504)の情報を取り込むステップは、二次元写真および三次元レーザ測距(LIDAR)データーの内少なくとも1つを取り込むステップを含む、コンピューター読み取り可能記憶媒体。
  20. 請求項16記載のコンピューター読み取り可能記憶媒体において、性能指数関数を、前記街路(402)−レベルの建物(504)の情報および前記空中データーに基づく前記建物(504)のモデルの対応するエレメントに適用するステップは、性能指数関数を、街路(402)−場面に沿った複数の位置について、前記街路(402)−レベルの建物(504)の情報および前記空中データーに基づく前記建物(504)のモデルの対応するエレメントに適用し、前記複数の位置の各々について、それぞれの性能指数を線形に組み合わせるステップを含む、ンピュータ読み取り可能記憶媒体。
JP2011516376A 2008-06-25 2009-05-20 街路レベル画像の3d建物モデルへの位置合わせ Active JP5450619B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/145,515 US8284190B2 (en) 2008-06-25 2008-06-25 Registration of street-level imagery to 3D building models
US12/145,515 2008-06-25
PCT/US2009/044673 WO2009158083A2 (en) 2008-06-25 2009-05-20 Registration of street-level imagery to 3d building models

Publications (3)

Publication Number Publication Date
JP2011526029A true JP2011526029A (ja) 2011-09-29
JP2011526029A5 JP2011526029A5 (ja) 2012-07-12
JP5450619B2 JP5450619B2 (ja) 2014-03-26

Family

ID=41445164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011516376A Active JP5450619B2 (ja) 2008-06-25 2009-05-20 街路レベル画像の3d建物モデルへの位置合わせ

Country Status (13)

Country Link
US (1) US8284190B2 (ja)
EP (1) EP2289051B1 (ja)
JP (1) JP5450619B2 (ja)
KR (1) KR101629042B1 (ja)
CN (1) CN102084398B (ja)
AU (1) AU2009262925B2 (ja)
BR (1) BRPI0913210A2 (ja)
CA (1) CA2723875C (ja)
MX (1) MX2010014049A (ja)
MY (1) MY166106A (ja)
RU (1) RU2010153345A (ja)
WO (1) WO2009158083A2 (ja)
ZA (1) ZA201007844B (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100061593A1 (en) * 2008-09-05 2010-03-11 Macdonald Willard S Extrapolation system for solar access determination
JP4560128B1 (ja) * 2009-08-13 2010-10-13 株式会社パスコ 地図画像統合データベース生成システム及び地図画像統合データベース生成プログラム
US20150278878A1 (en) * 2009-09-10 2015-10-01 Google Inc. System and method of displaying advertisements
JP5571199B2 (ja) * 2010-01-26 2014-08-13 サーブ アクティエボラーグ 地面に基づく画像と上からとられた画像の組み合わせに基づく三次元モデル法
WO2011091552A1 (en) * 2010-02-01 2011-08-04 Intel Corporation Extracting and mapping three dimensional features from geo-referenced images
US8786845B2 (en) 2010-04-08 2014-07-22 Navteq B.V. System and method of generating and using open sky data
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US20120105581A1 (en) * 2010-10-29 2012-05-03 Sony Corporation 2d to 3d image and video conversion using gps and dsm
US8855911B2 (en) 2010-12-09 2014-10-07 Honeywell International Inc. Systems and methods for navigation using cross correlation on evidence grids
CN103635935B (zh) * 2011-03-18 2016-10-12 苹果公司 3d街道
US9746988B2 (en) * 2011-05-23 2017-08-29 The Boeing Company Multi-sensor surveillance system with a common operating picture
US9639757B2 (en) * 2011-09-23 2017-05-02 Corelogic Solutions, Llc Building footprint extraction apparatus, method and computer program product
US8818722B2 (en) 2011-11-22 2014-08-26 Honeywell International Inc. Rapid lidar image correlation for ground navigation
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
EP2639781A1 (en) * 2012-03-14 2013-09-18 Honda Motor Co., Ltd. Vehicle with improved traffic-object position detection
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9311746B2 (en) 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9157743B2 (en) 2012-07-18 2015-10-13 Honeywell International Inc. Systems and methods for correlating reduced evidence grids
US9183354B2 (en) * 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
WO2014112911A1 (en) 2013-01-21 2014-07-24 Saab Ab Method and arrangement for developing a three dimensional model of an environment
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
CN105103089B (zh) * 2013-06-28 2021-11-09 谷歌有限责任公司 用于基于视频输入生成准确传感器校正的系统和方法
CA2820305A1 (en) 2013-07-04 2015-01-04 University Of New Brunswick Systems and methods for generating and displaying stereoscopic image pairs of geographical areas
US11721066B2 (en) 2013-07-23 2023-08-08 Hover Inc. 3D building model materials auto-populator
AU2013222016A1 (en) * 2013-08-30 2015-03-19 Canon Kabushiki Kaisha Method, system and apparatus for determining a property of an image
US11004259B2 (en) 2013-10-25 2021-05-11 Hover Inc. Estimating dimensions of geo-referenced ground level imagery using orthogonal imagery
US9424672B2 (en) 2013-11-07 2016-08-23 Here Global B.V. Method and apparatus for processing and aligning data point clouds
US9704291B2 (en) 2013-11-08 2017-07-11 Here Global B.V. Structure model creation from a three dimensional surface
EP3066644A1 (en) * 2013-11-08 2016-09-14 Google, Inc. Image based location determination
US10412594B2 (en) 2014-07-31 2019-09-10 At&T Intellectual Property I, L.P. Network planning tool support for 3D data
WO2016107989A1 (en) * 2014-12-31 2016-07-07 Aalto University Foundation Estimation of lower bounds for deviations of as-built structures from as-designed models
EP3271900A4 (en) * 2015-03-17 2019-03-06 Environmental Systems Research Institute, Inc. INTERACTIVE DIMENSIONING OF PARAMETRIC MODELS
US10217242B1 (en) * 2015-05-28 2019-02-26 Certainteed Corporation System for visualization of a building material
US10178303B2 (en) * 2015-05-29 2019-01-08 Hover Inc. Directed image capture
US9507028B1 (en) * 2015-07-23 2016-11-29 Hyundai Motor Company Positioning apparatus and method for vehicle
CN105516584B (zh) * 2015-11-24 2019-07-05 中国科学院生态环境研究中心 全景影像采集系统、基于其的测量天际线的装置和方法
US10339193B1 (en) * 2015-11-24 2019-07-02 Google Llc Business change detection from street level imagery
US10127685B2 (en) * 2015-12-16 2018-11-13 Objectvideo Labs, Llc Profile matching of buildings and urban structures
US10430961B2 (en) * 2015-12-16 2019-10-01 Objectvideo Labs, Llc Using satellite imagery to enhance a 3D surface model of a real world cityscape
US10223829B2 (en) 2016-12-01 2019-03-05 Here Global B.V. Method and apparatus for generating a cleaned object model for an object in a mapping database
US11127201B2 (en) * 2017-01-04 2021-09-21 Gaia3D Inc. Method for providing 3D GIS web services
US20180238690A1 (en) * 2017-02-17 2018-08-23 The Charles Stark Draper Laboratory, Inc. Stellar-Landscape/Horizon Image Navigation
CN112815923B (zh) * 2019-11-15 2022-12-30 华为技术有限公司 视觉定位方法和装置
CN111192366B (zh) * 2019-12-30 2023-04-07 重庆市勘测院 用于建筑高度三维控制的方法及装置、服务器
US11734767B1 (en) 2020-02-28 2023-08-22 State Farm Mutual Automobile Insurance Company Systems and methods for light detection and ranging (lidar) based generation of a homeowners insurance quote
US11107244B1 (en) * 2020-04-17 2021-08-31 Applied Research Associates, Inc. Location determination in a GPS-denied environment with user annotation
US11508138B1 (en) 2020-04-27 2022-11-22 State Farm Mutual Automobile Insurance Company Systems and methods for a 3D home model for visualizing proposed changes to home
US11678140B2 (en) 2020-06-29 2023-06-13 The United States Of America As Represented By The Secretary Of The Army Localization by using skyline data
CN111899512B (zh) * 2020-08-05 2021-04-27 深圳大学 结合天际线观测的车辆轨迹提取方法、系统及存储介质
KR102481537B1 (ko) * 2020-12-08 2022-12-23 주식회사 한화방산 영상 데이터와 지형 고도 데이터를 이용하여 이동체의 방위각 및 자세를 추정하는 장치 및 방법
KR102520189B1 (ko) * 2021-03-02 2023-04-10 네이버랩스 주식회사 무인 비행체 또는 항공기에 의해 촬영된 항공 영상에 기반하여 hd 맵을 생성하는 방법 및 시스템
CN113031041B (zh) * 2021-03-11 2022-06-10 南京航空航天大学 一种基于天际线匹配的城市峡谷组合导航定位方法
WO2023244978A1 (en) * 2022-06-14 2023-12-21 President And Fellows Of Harvard College Building as an instrumentation for data-driven building operation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339127A (ja) * 2004-05-26 2005-12-08 Olympus Corp 画像情報表示装置及び画像情報表示方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5652717A (en) * 1994-08-04 1997-07-29 City Of Scottsdale Apparatus and method for collecting, analyzing and presenting geographical information
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US6420698B1 (en) * 1997-04-24 2002-07-16 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three-dimensional objects
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US7509241B2 (en) * 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US7103211B1 (en) * 2001-09-04 2006-09-05 Geometrix, Inc. Method and apparatus for generating 3D face models from one camera
US7693325B2 (en) * 2004-01-14 2010-04-06 Hexagon Metrology, Inc. Transprojection of geometry data
US7728833B2 (en) * 2004-08-18 2010-06-01 Sarnoff Corporation Method for generating a three-dimensional model of a roof structure
US9049396B2 (en) * 2004-09-29 2015-06-02 Hewlett-Packard Development Company, L.P. Creating composite images based on image capture device poses corresponding to captured images
IL164650A0 (en) * 2004-10-18 2005-12-18 Odf Optronics Ltd An application for the extraction and modeling of skyline for and stabilization the purpese of orientation
US7616807B2 (en) * 2005-02-24 2009-11-10 Siemens Corporate Research, Inc. System and method for using texture landmarks for improved markerless tracking in augmented reality applications
JP2007026201A (ja) 2005-07-19 2007-02-01 Sega Corp 画像処理装置、道路画像描画方法および道路画像描画プログラム
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
US7944547B2 (en) * 2006-05-20 2011-05-17 Zheng Wang Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
US7752018B2 (en) * 2006-07-20 2010-07-06 Harris Corporation Geospatial modeling system providing building roof type identification features and related methods
US7831089B2 (en) * 2006-08-24 2010-11-09 Microsoft Corporation Modeling and texturing digital surface models in a mapping application

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339127A (ja) * 2004-05-26 2005-12-08 Olympus Corp 画像情報表示装置及び画像情報表示方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500773014; 入江徹,外2名: '"実画像と3D地図間のカメラ位置推定に関する研究"' 情報処理学会研究報告 Vol.2004,No.121, 2004, p.85-90, 社団法人情報処理学会 *
JPN6013036374; 入江徹,外2名: '"実画像と3D地図間のカメラ位置推定に関する研究"' 情報処理学会研究報告 Vol.2004,No.121, 2004, p.85-90, 社団法人情報処理学会 *

Also Published As

Publication number Publication date
EP2289051B1 (en) 2017-12-27
CA2723875A1 (en) 2009-12-30
JP5450619B2 (ja) 2014-03-26
MX2010014049A (es) 2011-02-22
ZA201007844B (en) 2012-02-29
WO2009158083A3 (en) 2010-04-01
BRPI0913210A2 (pt) 2016-01-12
KR101629042B1 (ko) 2016-06-09
RU2010153345A (ru) 2012-06-27
US8284190B2 (en) 2012-10-09
AU2009262925B2 (en) 2014-06-26
CN102084398B (zh) 2013-09-25
WO2009158083A2 (en) 2009-12-30
CA2723875C (en) 2018-11-20
US20090322742A1 (en) 2009-12-31
EP2289051A4 (en) 2013-09-11
KR20110030641A (ko) 2011-03-23
CN102084398A (zh) 2011-06-01
MY166106A (en) 2018-05-24
EP2289051A2 (en) 2011-03-02
AU2009262925A1 (en) 2009-12-30

Similar Documents

Publication Publication Date Title
JP5450619B2 (ja) 街路レベル画像の3d建物モデルへの位置合わせ
AU2011362799B2 (en) 3D streets
US20090154793A1 (en) Digital photogrammetric method and apparatus using intergrated modeling of different types of sensors
US10235800B2 (en) Smoothing 3D models of objects to mitigate artifacts
US20220051372A1 (en) Feature matching using features extracted from perspective corrected image
Xu et al. A 3D reconstruction method for buildings based on monocular vision
Arslan 3D object reconstruction from a single image
JP5425045B2 (ja) オブジェクト検出方法、オブジェクト検出装置およびオブジェクト検出プログラム
JP7357087B2 (ja) 浸水高推定装置およびプログラム
Liu et al. Linear target change detection from a single image based on three‐dimensional real scene
Smith et al. Investigation into the orientation of oblique and vertical digital images
Bajaj et al. 3D Dense Reconstruction for Structural Defect Quantification
JP2021105821A (ja) 物体検出装置および物体検出方法
JP2021105820A (ja) 物体検出装置および物体検出方法
Lari et al. Quality analysis of 3D surface reconstruction using multi-platform photogrammetric systems
CN116384103A (zh) 一种融合元宇宙与动态实景的仿真测试方法及系统
JP2006163851A (ja) 形状データ生成装置、形状データ生成方法、及び形状データ生成プログラム
Héno et al. 3D Digitization Using Images
Lundqvist 3D mapping with iPhone

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131225

R150 Certificate of patent or registration of utility model

Ref document number: 5450619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250