JP7043583B2 - 拡張現実画像を生成するための方法 - Google Patents

拡張現実画像を生成するための方法 Download PDF

Info

Publication number
JP7043583B2
JP7043583B2 JP2020219377A JP2020219377A JP7043583B2 JP 7043583 B2 JP7043583 B2 JP 7043583B2 JP 2020219377 A JP2020219377 A JP 2020219377A JP 2020219377 A JP2020219377 A JP 2020219377A JP 7043583 B2 JP7043583 B2 JP 7043583B2
Authority
JP
Japan
Prior art keywords
estimated
portable computer
orientation
computer terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020219377A
Other languages
English (en)
Other versions
JP2021114286A (ja
Inventor
レミ ドリアンコート
サイモン スタンナス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Publication of JP2021114286A publication Critical patent/JP2021114286A/ja
Application granted granted Critical
Publication of JP7043583B2 publication Critical patent/JP7043583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、拡張現実画像を生成するための方法、方法を実装するプログラム、ストレージデバイス、および装置に関する。
モバイル拡張現実
近年、AndroidのARCoreおよびiOSのARKitのリリースにより、モバイル拡張現実が広く利用可能になっている。これにより、ほとんどのユーザがすでに携帯しているハードウェアのみを使用して、現実世界に基づくARゲームおよび他のエクスペリエンスを開発することが可能になった。しかしながら、現在のARプラットフォームがそれらの環境を理解するための機能は非常に制限されており、仮想オブジェクトが正しく遮られず、現実世界との整合性が失われるなどの問題につながる。
この問題を回避する1つの方法は、以前の環境モデルを使用することである。そのようなモデルをもつと、動的な仮想オブジェクトが現実世界の表面と正しく相互作用し、仮想キャラクタが環境中を知的に動くことが可能になる。
そのようなモデルは、商業的なプロモーション、テーマパーク、および史跡を含む、場所固有のエクスペリエンスには現実的である。
そのような現実世界のモデルをもつと、アーティストおよびデザイナが環境の具体的な形状を活用するエクスペリエンスを作成することも可能になる。
拡張建物
建物は、一般的に、それらをARエクスペリエンスに適した環境にするいくつかの特性を共有する:それらの形状は静的かつシンプルであり、しばしば、共通の垂直軸に合わせて長方形の特徴が配置された立方体である。加えて、それらが垂直であり規模が大きいために、多くの建物は、他の人々によって最小限遮蔽されると同時に多数のユーザが見ることができる。この規模の大きさは、環境内でのデバイスの姿勢を登録することにGPSデータが(コンパス方位およびIMUデータと組み合わせて)役立つことも意味する。しかしながら、GPSデータとコンパスデータはどちらも不正確さに悩まされる。GPSは、特に、衛星信号の遮断とマルチパス誤差により、都市環境に弱点がある。この誤差が引き起こす視覚的な位置ずれはかなり大きいので、それらのデータのみに依存する以前の作業では、ユーザが事前定義された視点からエクスペリエンスを見て、次いで、手動でヨーの位置合わせを調整する必要があった。
カメラ姿勢登録
いくつかの以前の作業は、様々なコンピュータビジョン技法を使用して、より正確なカメラ姿勢を導出している。Fondら(2017年)は、ニューラルネットワークを使用して、ファサードデータベースと照合することができる候補ファサード領域に関する様々な手がかりを生成するシステムを開発した。しかしながら、彼らは、小さな変換に対する畳み込みニューラルネットワーク(CNN)記述子の不変性のために、自分達の方法が正確な姿勢推定には適していないことを認めた。
本明細書に開示される発明の目的は、現実世界との位置合わせから逸脱しない拡張現実画像を生成するための方法を提供することである。
本明細書に開示される発明の1つは、拡張現実画像を生成するための方法に関する。
方法は以下のステップを含む。
携帯型コンピュータ端末は、携帯型コンピュータ端末内のGPSユニット、コンパス、および慣性測定ユニットを用いて携帯型コンピュータ端末の位置および3次元方位を推定することにより、第1の推定位置および第1の推定方位を取得する。
携帯型コンピュータ端末は、第1の推定位置および第1の推定方位を使用して、第1のシーンの第1の推定画像を生成する。
携帯型コンピュータ端末は、携帯型コンピュータ端末内のカメラを用いて第1のシーンの第1のカメラ写真を取得する。
携帯型コンピュータ端末は、携帯型コンピュータ端末のおおよその位置および方位を取得するために、第1の推定画像と第1のカメラ写真との間の第1のパターン照合を実行する。
携帯型コンピュータ端末は、携帯型コンピュータ端末の新たな位置および方位へのオフセットにより、携帯型コンピュータ端末のおおよその位置および/または方位を調整する。
携帯型コンピュータ端末は、携帯型コンピュータ端末の現在の位置および方位の情報を取得するために、第2のカメラ写真と第2のシーンの画像との間の第2のパターン照合を実行し、カメラを用いて撮影された第2のカメラ写真および第2のシーンの画像は、携帯型コンピュータ端末の新たな位置および方位を考慮して生成される。
次いで、携帯型コンピュータ端末は、携帯型コンピュータ端末の現在の位置および方位を考慮して、拡張現実画像を生成する。
第1のシーンの建物に関して第1のパターン照合が実行され、第2のシーンの建物に関して第2のパターン照合が実行されることが好ましい。
本明細書に開示される他の発明は、プログラムに関する。プログラムは、本明細書に開示された方法を実行するためにプロセッサが実行するための命令を有する。
本明細書に開示される他の発明は、非一時的コンピュータ可読ストレージデバイスに関する。デバイスは、本明細書に開示された方法を実行するためにプロセッサが実行するための命令を有する。
本明細書に開示される他の発明は、拡張現実画像を生成するための携帯型コンピュータ端末に関する。端末は、プロセッサ、GPSユニット、コンパス、慣性測定ユニット、カメラ、ディスプレイ、および本明細書に開示された方法に対してプロセッサが実行するためのプログラムを記憶したメモリデバイスを備える。GPSユニット、コンパス、慣性測定ユニット、カメラ、ディスプレイ、およびメモリはプロセッサに結合される。
GPS、コンパス、およびVIOシステム(IMU)による正確性は不十分だが信頼性が高い入力データ、カメラフレーム、ならびにローカル環境の部分3Dモデルに基づいて、現実世界の空間内のモバイルデバイスの位置および方位のリアルタイム計算を提供することが可能である。システムは、次いで、仮想コンテンツをライブビデオに正確にレンダリングすることを可能にする。
拡張現実(AR)システムのブロック図である。 拡張現実(AR)システムに関連するサーバシステムを示す図である。 コンピュータの構成例を説明するためのブロック図である。 拡張現実画像を生成するための方法を示すフローチャートである。 ARを実現するデータフローの一例の図である。 パターン照合の一例を示す図である。 オーバーヘッドビューの一例を示す図である。 AR画像の一例を示す図である。
以下の説明では、本明細書の一部を形成する添付の図面を参照し、図面には、実践され得る具体的な実施形態が例示として示される。これらの実施形態は、当業者が本発明を実践することを可能にするために十分詳細に記載され、他の実施形態が利用されてよいこと、ならびに本発明の範囲から逸脱することなく、構造的、論理的、および電気的な変更が行われてよいことを理解されたい。したがって、例示的な実施形態の以下の説明は、限定的な意味で解釈されるべきではなく、本発明の範囲は添付の特許請求の範囲によって定義される。
本明細書に記載される機能またはアルゴリズムは、一実施形態では、ソフトウェアまたはソフトウェアと人間が実施する手順との組合せで実装されてよい。ソフトウェアは、1つもしくは複数のメモリ、またはローカルもしくはネットワーク化された他のタイプのハードウェアベースのストレージデバイスなどのコンピュータ可読媒体またはコンピュータ可読ストレージデバイスに記憶されたコンピュータ実行可能命令から構成されてよい。さらに、そのような機能は、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せであるモジュールに対応する。複数の機能は、必要に応じて1つまたは複数のモジュール内で実行されてよく、記載される実施形態は単なる例である。ソフトウェアは、デジタル信号プロセッサ、ASIC、マイクロプロセッサ、またはパーソナルコンピュータ、サーバ、もしくは他のコンピュータシステムなどのコンピュータシステム上で動作する他のタイプのプロセッサで実行されてよい。
図1は、拡張現実(AR)システムのブロック図を示す。図1は、人が自分に属するデバイスをすばやく識別するための方法を提供する。そのようなARシステムは携帯型コンピュータ端末であり、スマートフォン、携帯電話、タブレット、またはヘッドマウントウェアラブルであってよい。携帯型コンピュータ端末は、AR方法を実装するためにコンピュータシステムを備える。
図1に示されたように、システム1の例は、プロセッサ3、GPSユニット5、コンパス7、慣性測定ユニット(IMU)9、カメラ11、ディスプレイ13、およびメモリデバイス15を備える。すべての要素は、たとえばバス17を介してプロセッサに接続され、バス17を介して情報を交換することができる。システム1は、携帯型コンピュータ端末19に実装されてよい。システムは、通常の携帯型コンピュータ端末が含む場合がある要素またはデバイスをさらに含んでよい。メモリデバイス15は、様々なアプリケーションおよび様々なプログラムを含んでよい。そのような要素の例は、コミュニケーションツール、スピーカ、マイクロフォン、およびGPUである。慣性測定ユニット(IMU)9は、加速度計、ジャイロスコープ、および時々磁力計の組合せを使用して、端末の角速度および方位を測定する電子デバイスであってよい。IMUは、INU(慣性航法ユニット)、IGU(慣性誘導ユニット)、およびIRU(慣性基準ユニット)と呼ばれることがある。コンパス7および慣性測定ユニット(IMU)9は、端末の方位を提供することができるプログラムによって実現されてよい。
図2は、拡張現実(AR)システムに関連するサーバシステムを示す。図1に示されたように、システムは携帯型コンピュータ端末19に実装されてよい。さらに、システムは、図2に示されたように、サーバクライアントシステムに実装されてよい。システムはクラウドシステムであってよい。図2では、携帯型コンピュータ端末19は、ネットワーク22を介してサーバ20に接続される。本明細書において説明される演算処理の一部は、クラウド内のサーバ上で実行されてよい。クラウド処理は、以下で説明される第1の段階と第2の段階の両方での推定画像の生成およびパターン照合を含んでよい。
図3は、コンピュータの構成例を説明するためのブロック図である。システム1内に配置された回路は、制御ユニット21、RAM23、ハードディスクドライブ(HDD)25、音声処理部27、グラフィック処理部29、1つまたは複数のプログラムを記憶するメモリ、通信インターフェース31、インターフェース部33、フレームメモリ35を備えてよい。プログラムがカード型メモリに記憶されるとき、システムはカードスロットを有してよい。制御ユニット21、RAM23、ハードディスクドライブ(HDD)25、音声処理部27、グラフィック処理部29、通信インターフェース31、およびインターフェース部33は、各々内部バス41に接続される。
CPU、ROMなどを備える制御ユニット21は、HDD25またはメモリ37に記憶された制御プログラムに従ってARシステム全体を制御する。制御ユニット21は、たとえば、タイマ割込みを生成するために使用される内部タイマを備える。RAM23は、制御ユニット21用の作業領域としても使用される。
音声信号のD/A変換およびA/D変換を実行するための音声入出力インターフェース機能を備える音声処理部27は、たとえばスピーカから構成される、音声出力デバイス43に接続される。音声処理部27は、様々な制御プログラムに従って処理を実行する制御ユニット21からの音声出力指示に従って音声出力デバイス43に音声信号を出力する。
グラフィック処理部29は、第1の画像表示部51を有するディスプレイデバイス49に接続される。グラフィック処理部29は、制御ユニット21からの描画指示に従ってフレームメモリ35に画像を分配し、また画像表示部51に画像を表示するためのビデオ信号をディスプレイデバイス49に出力する。
通信インターフェース31は、有線またはワイヤレスで別のシステムに接続可能であり、インターネットなどの通信ネットワークにも接続可能である。システム1は、通信インターフェース31の通信機能を使用して別のゲーム機と通信することができる。
操作入力部39、メモリ37、およびタッチパネル45は、インターフェース部33に接続される。インターフェース部33は、ユーザの操作に基づく操作入力部39からの指示データ、および指またはタッチペン47などを使用するタッチパネル45のユーザの操作に基づく指示データをRAM23に記憶する。次いで、制御ユニット21は、RAM23に記憶された指示データに従って演算処理を実行する。
タッチパネル45は、画像表示部51の両方またはいずれかの表示画面の側面に積層される。したがって、制御ユニット21は、タッチパネル45が積層された画像表示部51の両方またはいずれかの側面での表示タイミング、タッチペン47などを使用するタッチパネル45の操作タイミング、および位置座標を管理/制御することにより、プレーヤによる操作入力に応じた入力情報を認識する。ディスプレイデバイス49は、画像表示部51などの複数の画像表示部を有するのではなく、1つの画像表示部で表示画面を構成することができる。
インターフェース部33は、制御ユニット21からの指示に従って、RAM23に記憶されたゲームの進行を示すデータをカードスロット37に挿入された記録媒体70に記憶すること、または記録媒体70に記憶された中断時のゲームデータを読み出し、RAM23にデータを転送することなどの処理を実行する。
制御ユニット21は、RAM23にロードされた制御プログラムに従って、グラフィック処理部29に描画指示を出力すること、または音声処理部27に音声出力指示を出力することなどの様々な処理を実行する。制御ユニット21が処理を実行している間、ゲームの進行に応じて途中で発生するデータは、ワーキングメモリとして使用されるRAM23に記憶される。
拡張現実画像を生成するための方法
図4は、拡張現実画像を生成するための方法を示すフローチャートである。図5はARを実現するデータフローの一例である。図5のコンパスはIMUを含んでよい。図5に示されたように、システムは仮想入出力VIOシステムを含んでよい。
大まかな推定手順
この手順は、携帯型端末の位置および方位を大まかに推定し、ステップ1および2を含む。
ステップ1
携帯型コンピュータ端末、端末は、携帯型コンピュータ端末内のGPSユニット、コンパス、および慣性測定ユニット(IMU)を用いて携帯型コンピュータ端末の位置および3次元方位を推定することにより、第1のシーンの第1の推定位置および第1の推定方位を取得する。GPUユニットは端末の大まかな位置を取得することができる。コンパスおよびIMUは3次元方位を取得することができる。すなわち、位置はGPSユニットから生じる。ピッチおよびロールの方位は(IMU内の)加速度計から生じ、ヨーはコンパスから生じる。
ステップ2
携帯型コンピュータ端末は、第1の推定位置および第1の推定方位を使用して、第1のシーンの第1の推定画像を生成する。端末のメモリは、様々な方位からのシーンの様々な3次元モデルの画像を記憶する。3次元モデルは、1つまたは複数の建物を含むレンダリング画像であってよい。端末は、第1の推定位置および第1の推定方位を使用して、メモリに記憶された画像の候補を読み取る。次いで、端末は、第1の推定位置および方位を使用してシーンの推定写真を生成するために、シーンの3Dモデルを投影する。端末は、以下のステップ4で使用され得るメモリから推定画像として様々な候補を読み取ることができる。
機能/ワイドベースラインパターン照合手順(遠方登録)
この手順は、端末の比較的正確で概算の位置および方位を取得し、ステップ3および4(またはステップ3~5)を含む。
ステップ3
携帯型コンピュータ端末は、カメラによって第1のシーンの第1のカメラ写真を取得する。第1のカメラ写真は端末のメモリに記憶されてよい。端末は連続して写真を撮影することができ、連続して写真を記憶することができる。
ステップ4
携帯型コンピュータ端末は、携帯型コンピュータ端末のおおよその位置および方位を取得するために、第1の推定画像と第1のカメラ写真との間の第1のパターン照合を実行する。このステップはワイドベースラインパターン照合に関連する。第1のパターン照合は、第1のシーンの建物に関して実行されることが好ましい。2つの画像を照合するための方法はよく知られている。パターン照合についての1つの例は、画像および/または写真を3Dポイントに変換し、変換された3Dポイントを使用して照合が実行されることである。照合を実行する際、画像、写真のサイズおよび角度、ならびに3Dポイントの収集は、従来の方法を使用して調整される。一致が見つからない場合、ステップ1に戻って、端末のおおよその位置および方位を取得することができる。一致が見つからずに規定の時間が経過すると、プロセッサは一致が見つからないと判断することができる。さらに、照合が規定回数連続して失敗すると、プロセッサは一致が見つからないと判断することができる。
図6はパターン照合の一例を示す。左側の図は、カメラで撮影された写真である。右側の図は、推定画像および照合の候補である3次元モデルである。第1の推定画像である上の画像は写真と一致しない。次いで、端末は、第1のカメラ写真と第2の推定画像、図6の中央右の画像との間のパターン照合を実行する。端末はパターン照合を実行し、第2の推定画像が写真と一致しないことに気付く。次いで、端末は、第1のカメラ写真と第3の推定画像、図6の右下の画像との間のパターン照合を実行する。この場合、一致が見つかる。
ステップ5
携帯型コンピュータ端末は、携帯型コンピュータ端末の新たな位置および方位へのオフセットにより、携帯型コンピュータ端末のおおよその位置(および/または方位)を調整する。たとえば、シーンの3次元モデルおよびカメラで撮影された写真を考慮して位置が調整される。
図6の場合、3Dポイントおよびそれらの関係が一致するので、第1のカメラ写真と第3の推定画像は一致する。しかしながら、写真および画像のサイズは同じではない。サイズを考慮して、建物からの距離、すなわち端末の位置が調整される。
第1の推定画像および第1のカメラ写真が同じであると評価された場合、ステップ4で使用された位置および方位は正しい。したがって、ステップ5をスキップすることが可能である。ステップ5での初期パターン照合が失敗した場合、端末はステップ4に戻ってよい。
フロー/ナローベースラインパターン照合手順(近接登録)
この手順は、端末の位置および方位が変わったときでも、時間の経過とともに位置および方位の推定精度を維持することであり、ステップ6を含む。
ステップ6
ステップ6は、ステップ5が成功した場合に、ナローベースラインパターン照合を実行し、推定されたデバイスの位置および方位を設定することに関する。携帯型コンピュータ端末は、携帯型コンピュータ端末の現在の位置および方位の情報を取得するために、第2のシーンの第2のカメラ写真と第2のシーンの画像との間の第2のパターン照合を実行し、カメラで撮影された第2のカメラ写真および第2のシーンの画像は、携帯型コンピュータ端末の新たな位置および方位を考慮して生成される。第2のパターン照合は、第2のシーンの建物に関して実行されることが好ましい。携帯型コンピュータ端末の新たな位置および方位は、GPSユニット、コンパス、およびIMUを使用せずに、新しいパターン照合を用いて計算される。一致が見つからずに規定の時間が経過すると、プロセッサは一致が見つからないと判断することができる。さらに、照合が規定回数連続して失敗すると、プロセッサは一致が見つからないと判断することができる。
拡張現実画像手順
この手順はAR画像を作成し、ステップ7を含む。
ステップ7
次いで、携帯型コンピュータ端末は、携帯型コンピュータ端末の現在の位置および方位を考慮して、拡張現実画像を生成する。
拡張現実画像は、携帯型コンピュータ端末のディスプレイに表示される。最後に一致に成功してから一定の時間が経過した場合はステップ1に戻り、そうでない場合はステップ6に戻る。
図7はオーバーヘッドビューの一例を示す。図7は、コンパス方位、GPS位置、変更されたカメラ位置、(近接登録状態の)カメラビュー、(訂正時の)訂正されたVIO位置、およびVIO原点の一例を示す。
上記の方法では、カメラ姿勢の不確実性が比較的大きいときに遠方登録が実行される。仮想オブジェクトはこの状態でレンダリングされない。それは特徴点照合として実装される。
比較的低いカメラ姿勢の不確実性が想定されるとき、近接登録が実行される。仮想オブジェクトはこの状態でレンダリングされる。それは仮想形状を実世界の画像フレームにロックされたままにするのに適している。この状態は、2つのエッジ画像間のオプティカルフローとして実装されてよい。
本明細書に開示される他の発明は、プログラムに関する。プログラムは、本明細書に開示された方法を実行するためにプロセッサが実行するための命令を有する。本明細書に開示される他の発明は、非一時的コンピュータ可読ストレージデバイスに関する。デバイスは、本明細書に開示された方法を実行するためにプロセッサが実行するための命令を有する。
本明細書に開示される他の発明は、拡張現実画像を生成するための携帯型コンピュータ端末に関する。端末は、プロセッサ、GPSユニット、コンパス、慣性測定ユニット、カメラ、ディスプレイ、および本明細書に開示された方法に対してプロセッサが実行するためのプログラムを記憶したメモリデバイスを備える。GPSユニット、コンパス、慣性測定ユニット、カメラ、ディスプレイ、およびメモリはプロセッサに結合される。
本明細書は、
携帯型コンピュータ端末内のGPSユニット、コンパス、および慣性測定ユニットを用いて携帯型コンピュータ端末の位置および3次元方位を推定することにより、第1のシーンの第1の推定位置および第1の推定方位を取得するための手段と、
第1の推定位置および第1の推定方位を使用して、第1のシーンの第1の推定画像を生成するための手段と、
携帯型コンピュータ端末内のカメラを用いて第1のシーンの第1のカメラ写真を取得するための手段と、
携帯型コンピュータ端末のおおよその位置および方位を取得するために、第1の推定画像と第1のカメラ写真との間の第1のパターン照合を実行するための手段と、
携帯型コンピュータ端末の新たな位置および方位へのオフセットにより、携帯型コンピュータ端末のおおよその位置および/または方位を調整するための手段と、
携帯型コンピュータ端末の現在の位置および方位の情報を取得するために、第2のカメラ写真と第2のシーンの画像との間の第2のパターン照合を実行するための手段であって、カメラを用いて撮影された第2のカメラ写真および第2のシーンの画像が、携帯型コンピュータ端末の新たな位置および方位を考慮して生成される、手段と、
携帯型コンピュータ端末の現在の位置および方位を考慮して、拡張現実画像を生成するための手段と
を備える、拡張現実画像を生成するためのシステムをさらに提供する。各手段はデバイスまたは要素と置き換えられてよい。プログラムは、上記のシステムとしてコンピュータを機能させるための命令を有することができる。
1 方法
開発およびテストに使用される建物は他の理由で選択されたが、それは現代の都市建築で発生するいくつかの挑戦的な属性を表す。いくつかのファサードセクションは主にレンガから構成されるが、建物の表面積の大部分は、様々な水平および垂直の角度で突き出ている不規則な窓のセットで出来ている。直射日光がない場合、建物のレンガ面の間のエッジは明確ではなく、窓の面は、それらが反射する空に対して均一なエッジまたは強いエッジがないことがある。建物の面は、垂直に配置された強い勾配をもついくつかのコンポーネントも有する。このため、Arthら(2015年)の方法は適切でないと見なされた。より一般的には、複数のファサードエッジが同時に見えるとは想定されないほど、ユーザが建物に十分近くにいる可能性があると考えられた。
1.1 建物モデル
衛星画像からの測定値を使用して対象の建物の3Dモデルが作成され、地上から撮影された写真を使用してテクスチャが付けられた。写真は、強い指向性の照明効果を回避し、空の反射の構造を簡略化するために、厚い雲で覆われた気候条件の間に撮影された。建物の近くに何本かの小さい木が残っていたが、テクスチャにはほとんど遮る物がなかった。モデル形状は、個々のレンガ間のレリーフおよび不規則な窓セグメント間の方位の下位レベルの違いを含まない少数の大きな面を使用して作成されたが、より高いレベルの建物の形状および寸法は保持された。標準的な拡散テクスチャに加えて、モデルの窓領域を表すバイナリテクスチャも作成された。これの目的は、単純な仮想照明効果が建物に正確にレンダリングされることを可能にすることであった。たとえば、仮想光は窓でのみ反射し、窓がない領域でのみ影を投影するべきである。このテクスチャは、この作業の範囲外であるが、反射が原因で対応関係が信頼できない領域用のマスクとしても役立つ場合がある。
1.2 システム設計
システムの中核的な設計は、最初のカメラ姿勢から建物の3Dモデルの画像(および対応する深度マップ)をレンダリングすることを含む。この姿勢の位置はデバイスのGPSデータから生じる。ピッチおよびロールの方位は(ARcoreを介して)デバイスの加速度計から生じ、ヨーはデバイスのコンパスから生じる。次いで、BRISK機能を使用して、このレンダリングされた画像と現在のカメラフレームとの間の特徴の検出および照合が実行される。次いで、モデル上の特徴点が、深度テクスチャで符号化された深度を使用してカメラ空間内の3D点に変換され、画像間の平行移動および回転を見つけるためにRANSAC手法が使用される。この技法は特定の条件下では成功するが、いくつかの理由で失敗することがある。これらのうちのいくつかは建物の特性に関係する。レンガのコーナーを表す特徴は、通常の繰返しパターン内に特徴が不足する可能性があるので、照合にほとんど失敗した。パターン内のギャップのコーナーは、検出および照合ではるかに成功した。しかしながら、それらの3次元の性質は、3Dモデルの形状の単純さのために、鋭い視点から正確に表現されなかったことを意味した。
照明は概して別の大きな問題であった。環境は屋外であるため、それは時期、時刻、および地域の気象条件に依存するが、視覚オドメトリまたはステレオ深度センシングなどの特徴照合の他のアプリケーションとは異なり、2つの特徴セット間に時間的な近接性は存在しない。別の問題は、最初の姿勢推定と実際の姿勢との間の違いによる特徴のアフィンワーピングである。ワーピングは、2つのフレームが一致する確率を大幅に低下させる。この問題の程度は、GPS誤差のスケールに比例し、デバイスと建物との間の距離に反比例すると考えることができる。実際、いくつかのテスト状況では、前者は後者よりも大幅に大きく、GPS位置は建物の内部として報告された。この問題を軽減するために、建物から一定の距離以上離れた視点にカメラを制限し、次いで照合の試行が失敗するたびに成功するまでカメラ姿勢の推定値を変更するために、発見的方式が開発された。この変更は、最初の制約された位置からの一組の位置オフセットを循環することによって実現された。距離の制約は、実装上の理由から、ならびに建物のフットプリントの凹型セクションの周囲の特定のエッジケースを回避するために、建物モデルの凸型ハルからの距離として定義された。
位置オフセットに加えて、深刻なコンパス誤差が発生した場合に真の領域を確実にカバーするために、方位も変更された。この特徴照合はレンガのファサードからの特徴を検出し照合することができたが、いくつかの理由で窓があるファサードで苦労した。第1に、窓は建物の他の部分ならびに近くの建物の部分を反射した。雲の動きでさえ、特徴の相対的な強度を変えるのに十分であった。第2に、窓自体のギザギザの配置により、これらの反射がより不連続になり、予測が困難になるだけでなく、フラットテクスチャへのそれらのマッピングの精度が低下した。さらに、窓の中の最も強い特徴は、しばしば、建物内部のオフィスにある天井照明の配列であった。これらは、通常の就業時間外にキャプチャされたテクスチャ画像には存在しない。これらの照明の静的、規則的、および放射性の性質により、これらの照明はさらなる研究の興味深い候補になるが、特に暗い照明の時刻では、それらに依存することは、モデル化プロセスをさらに複雑にし、すべての曜日で可能ではなかった。これらの問題に対処するために、他の解決策が調査された。第2の技法は、特定の補完的な特性で識別された。最初に、ラプラシアンフィルタの絶対出力が両方の画像に対して取得された。次いで、ファサードの平面的な性質により見かけの平行移動が非常に滑らかであるという仮定の下で、2つの画像間の対応関係をすばやく見つけるために、Dense Inverse Searchオプティカルフローアルゴリズムが使用された。Dense Inverse Searchオプティカルフローアルゴリズムの例は、本明細書にて文献全体を援用するKroeger, T., Timofte, R., Dai, D. and Van Gool, L., 2016, October. Fast optical flow using dense inverse search. In European Conference on Computer Vision 「pp. 471-488」. Springer, Cham.に記載されている。カメラ画像全体にわたるグリッドパターン内のピクセルのサブセットが、モデル画像内のそれらの対応するピクセル位置とともに選択された。モデルに該当しないものはセットから削除された。特徴ベースの手法と同様に、残りのモデルポイントは3Dに投影されず、2つの画像間の3D変換を見つけるためにRANSACベースのアルゴリズムが使用された。このオプティカルフロー手法は、最終的に、窓領域の照合でかなり成功し、特徴照合よりも高速であることが判明した。しかしながら、より正確な最初のカメラ姿勢推定も必要とされ、大きい遮蔽物に対する堅牢性が低かった。
バイモーダル登録
これら2つの方法の長所と短所のバランスを取るために、ハイブリッド手法が採用された。最初、システムは、GPSおよびコンパスの入力から導出されたカメラ姿勢の正確さを確認できない不確実な状態にあり、したがって仮想コンテンツをユーザに表示しない。それは初期位置誤差に対してより堅牢なので、カメラ姿勢を精緻化しようと試みるために特徴照合ルーチンが使用された。これが達成されると、登録されたカメラ姿勢とVIO姿勢との間の変換が計算され、VIOシステムの座標空間の原点を絶対世界座標に配置し方位付けるために使用される。この方式に基づくと、VIOシステムは、フレームごとに仮想形状を建物にロックし続けるのに十分スムーズかつ迅速に追跡する。しかしながら、VIOが位置合わせからゆっくりと横滑りする可能性もあるので、定期的に登録を実行し続ける必要がある。しかしながら、この時点で、システムはオプティカルフロー登録に切り替わる。それは十分に正確な姿勢推定を有し、このモードが、ユーザが窓ファサードをパンしたときに、より頻繁かつ確実に訂正が行われることを可能にするからである。このモードでは、姿勢変更は実行されない。それにもかかわらず、オプティカルフロー登録を失敗させる特定の状況が存在する。最も一般的な状況は、単にユーザが建物から電話を遠ざけることである。これが一時的なものにすぎない場合、システムは追跡を再開することができる。しかしながら、ユーザが十分に遠くを歩き回るか、またはVIOシステムが追跡を失った場合(たとえば、カメラが覆われているとき)、相対VIO姿勢の誤差が大きすぎて登録に成功しない可能性がある。これに対応するために、登録が一定の数の連続するフレームまたは秒の間失敗した場合、システムは特徴ベースの照合に戻る。VIO姿勢がまだ有効な場合、それはテストする余分の姿勢変更として保持される。システムは、パフォーマンスおよび堅牢性を向上させるために、いくつかの他の発見的方法も含んでいる。1つは、カメラのピッチが特定のしきい値を下回るときに、単に登録を試みないことである。これは、建物がユーザの視点からはほぼ完全に地平線より上にあり、低角度からの視覚情報が茂みおよび人々などの遮蔽物のために信頼性が低いからである。もう1つは、GPS予測から特定のしきい値の距離よりも遠い姿勢に帰着する登録を拒否することである。これにより、特定の低下したケースが原因で時々発生する大きな誤差が回避される。
図8はAR画像の一例を示す。図に示されたように、建物の周りには飛行機が飛んでおり、建物の最上部にはドラゴンがあり、建物の周りには風船が浮かんでおり、建物の側壁には風船の影が描写されている。
実装
上位レベルのシステムは、基礎となるVIO追跡にARCoreを使用するUnityで実装された。下位レベルの画像処理コンポーネントは、OpenCVを使用してC++で書き込まれた。
いくつかの実施形態が上記で詳細に記載されたが、他の修正形態が可能である。たとえば、図に描写された論理フローは、望ましい結果を実現するために、示された特定の順序またはシーケンシャルな順序を必要としない。他のステップが提供されてもよく、記載されたフローからステップが除去されてもよく、記載されたシステムに他のコンポーネントが追加されてもよく、記載されたシステムからコンポーネントが削除されてもよい。他の実施形態は以下の特許請求の範囲内であってよい。
本明細書に記載の方法およびシステムの実施例は、アミューズメント産業において有用である。

Claims (8)

  1. 拡張現実画像を生成するための方法であって、
    携帯型コンピュータ端末内のGPSユニット、コンパス、および慣性測定ユニットを用いて前記携帯型コンピュータ端末の位置および3次元方位を推定することにより、第1のシーンの第1の推定位置および第1の推定方位を取得するステップと、
    前記第1の推定位置および前記第1の推定方位を使用して、前記第1のシーンの第1の推定画像を生成するステップと、
    前記携帯型コンピュータ端末内のカメラを用いて前記第1のシーンの第1のカメラ写真を取得するステップと、
    前記携帯型コンピュータ端末のおおよその位置および方位を取得するために、前記第1の推定画像と前記第1のカメラ写真との間の第1のパターン照合を実行するステップと、
    前記携帯型コンピュータ端末の新たな位置および方位へのオフセットにより、前記携帯型コンピュータ端末の前記おおよその位置および/または方位を調整するステップと、
    前記携帯型コンピュータ端末の現在の位置および方位の情報を取得するために、第2のカメラ写真と第2のシーンの画像との間の第2のパターン照合を実行するステップであって、前記カメラを用いて撮影された前記第2のカメラ写真および前記第2のシーンの前記画像が、前記携帯型コンピュータ端末の前記新たな位置および方位を考慮して生成される、ステップと、
    前記携帯型コンピュータ端末の前記現在の位置および方位を考慮して、拡張現実画像を生成するステップと
    を含む、
    方法であって、
    前記第1のパターン照合を実行するステップにおいて、
    一致が見つからずに規定の時間が経過した場合や、規定回数連続して照合に失敗した場合、前記第1の推定位置および第1の推定方位を取得するステップからやり直し、
    前記第2のパターン照合を実行するステップにおいて、
    一致が見つからずに規定の時間が経過した場合や、規定回数連続して照合に失敗した場合、前記第1の推定位置および第1の推定方位を取得するステップからやり直す、
    方法
  2. 請求項1に記載の方法であって、
    前記3次元方位は、前記カメラのピッチを含み、
    前記第1の推定位置および第1の推定方位を取得するステップにおいて、
    前記カメラのピッチが特定のしきい値を下回る場合、前記第1の推定位置および第1の推定方位を取得するステップをやり直す方法。
  3. 請求項1に記載の方法であって、
    前記第1の推定画像を生成するステップにおいて、
    第1の推定画像内の建物と、前記第1の推定位置との距離が特定のしきい値の距離より遠い場合に、前記第1の推定位置および第1の推定方位を取得するステップからやり直す、 方法。
  4. 請求項1に記載の方法であって、
    前記拡張現実画像を生成するステップは、
    前記第2のシーンの前記画像における窓領域において仮想光が前記窓領域で反射し、前記窓領域以外の領域で影を投影するように前記拡張現実画像を生成する、方法。
  5. 前記第1のシーンの建物に関して前記第1のパターン照合が実行され、前記第2のシーンの建物に関して前記第2のパターン照合が実行される、
    請求項1に記載の方法。
  6. 請求項1に記載の方法を実行するためにプロセッサによって実行される命令を有する、
    プログラム。
  7. 請求項1に記載の前記方法を実行するためにプロセッサによって実行される命令を有する、
    非一時的コンピュータ可読ストレージデバイス。
  8. 拡張現実画像を生成するための携帯型コンピュータ端末であって、
    プロセッサ、GPSユニット、コンパス、慣性測定ユニット、カメラ、ディスプレイ、および請求項1に記載の前記方法に対して前記プロセッサが実行するためのプログラムを記憶したメモリデバイスを備える、
    携帯型コンピュータ端末。
JP2020219377A 2020-01-16 2020-12-28 拡張現実画像を生成するための方法 Active JP7043583B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/745,274 US11315346B2 (en) 2020-01-16 2020-01-16 Method for producing augmented reality image
US16/745274 2020-01-16

Publications (2)

Publication Number Publication Date
JP2021114286A JP2021114286A (ja) 2021-08-05
JP7043583B2 true JP7043583B2 (ja) 2022-03-29

Family

ID=76810052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020219377A Active JP7043583B2 (ja) 2020-01-16 2020-12-28 拡張現実画像を生成するための方法

Country Status (3)

Country Link
US (1) US11315346B2 (ja)
JP (1) JP7043583B2 (ja)
CN (1) CN113140045A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216982A (ja) 2002-01-17 2003-07-31 Sony Corp 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2014526174A (ja) 2011-07-01 2014-10-02 インテル コーポレイション モバイル拡張現実システム
US20170228878A1 (en) 2014-05-28 2017-08-10 Elbit Systems Land And C4I Ltd. Method and system for image georegistration

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
US8326281B2 (en) * 2011-02-16 2012-12-04 Research In Motion Limited Mobile wireless communications device providing object reference data based upon near field communication (NFC) and related methods
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US10366511B2 (en) * 2014-05-28 2019-07-30 Elbit Systems Land And C4I Ltd. Method and system for image georegistration
JP2017129567A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216982A (ja) 2002-01-17 2003-07-31 Sony Corp 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2014526174A (ja) 2011-07-01 2014-10-02 インテル コーポレイション モバイル拡張現実システム
US20170228878A1 (en) 2014-05-28 2017-08-10 Elbit Systems Land And C4I Ltd. Method and system for image georegistration

Also Published As

Publication number Publication date
US11315346B2 (en) 2022-04-26
CN113140045A (zh) 2021-07-20
US20210224538A1 (en) 2021-07-22
JP2021114286A (ja) 2021-08-05

Similar Documents

Publication Publication Date Title
CA3103844C (en) Method for reconstructing three-dimensional space scene based on photographing
TWI494898B (zh) 從地理參考影像擷取和映對三維特徵之技術
Satoh et al. A hybrid registration method for outdoor augmented reality
CN111126304A (zh) 一种基于室内自然场景图像深度学习的增强现实导航方法
TWI797715B (zh) 用於使用從透視校正影像中所提取之特徵的特徵匹配之電腦實施方法、電腦系統及非暫時性電腦可讀記憶體
KR20110068469A (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
AU2011362799A1 (en) 3D streets
US10235800B2 (en) Smoothing 3D models of objects to mitigate artifacts
JP2016006589A (ja) 表示装置、制御プログラム、および制御方法
CN110335351A (zh) 多模态ar处理方法、装置、系统、设备及可读存储介质
US11783540B2 (en) Method for generating roof outlines from lateral images
JP7043583B2 (ja) 拡張現実画像を生成するための方法
CN115601496A (zh) Ar辅助三维地图尺度恢复的方法和系统
CN113034347B (zh) 倾斜摄影图像处理方法、装置、处理设备及存储介质
CN107092348A (zh) 一种沉浸式虚拟现实漫游系统中的视觉定位标识布局方法
Liu et al. Instant SLAM initialization for outdoor omnidirectional augmented reality
JP4896762B2 (ja) 画像処理装置および画像処理プログラム
KR101189167B1 (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
WO2020119572A1 (zh) 形状推断装置、形状推断方法、程序以及记录介质
WO2024095744A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230186508A1 (en) Modeling planar surfaces using direct plane fitting
CN117057086A (zh) 基于目标识别与模型匹配的三维重建方法、装置及设备
Wang Toward automated façade texture generation for 3D photorealistic city modelling with smartphones or tablet PCS
Wang Concept of semi-automated façade mapping for 3D building models with personal mobile computing devices
Sekii et al. 6-DOF camera pose estimation using reference points on an aerial image without altitude information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220316

R150 Certificate of patent or registration of utility model

Ref document number: 7043583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150