JP2020526829A - クラウド対応の拡張現実 - Google Patents

クラウド対応の拡張現実 Download PDF

Info

Publication number
JP2020526829A
JP2020526829A JP2020500105A JP2020500105A JP2020526829A JP 2020526829 A JP2020526829 A JP 2020526829A JP 2020500105 A JP2020500105 A JP 2020500105A JP 2020500105 A JP2020500105 A JP 2020500105A JP 2020526829 A JP2020526829 A JP 2020526829A
Authority
JP
Japan
Prior art keywords
data
client device
map
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020500105A
Other languages
English (en)
Other versions
JP7179819B2 (ja
Inventor
エドワード フィンマン ロス
エドワード フィンマン ロス
イン ディアナ フー シー
イン ディアナ フー シー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Niantic Inc
Original Assignee
Niantic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Niantic Inc filed Critical Niantic Inc
Publication of JP2020526829A publication Critical patent/JP2020526829A/ja
Priority to JP2022183332A priority Critical patent/JP2023022841A/ja
Application granted granted Critical
Publication of JP7179819B2 publication Critical patent/JP7179819B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Abstract

拡張現実システムは、クライアントデバイス上でコンピュータ媒介現実を生成する。クライアントデバイスは、環境の画像データをキャプチャするように構成されたカメラと、クライアントデバイスの測位を記述するロケーションデータをキャプチャするロケーションセンサーとを含むセンサを有する。クライアントデバイスは、仮想オブジェクトを生成して現実を拡張する際に使用するために、画像データおよびロケーションデータを用いて3次元(3−D)マップを作成する。クライアントデバイスは、作成された3−Dマップを外部サーバに送信する。外部サーバは3−Dマップを使用して、外部サーバに格納されたワールドマップを更新する。外部サーバは、ワールドマップのローカル部分をクライアントデバイスに送信する。クライアントデバイスは、クライアントデバイスとマッピングポイントとの間の距離を決定して、クライアントデバイスに表示されるマッピングポイントでコンピュータ媒介現実画像を生成する。

Description

本開示は、一般に、コンピュータを利用したリアリティーシステム(computer-mediated reality system)に関し、より詳細には、クライアントデバイスにより集められたデータから3−Dマップを生成するAR(拡張現実)システムに関する。
本出願は、2017年7月7日出願の米国仮出願第62/529,492号および2018年7月6日出願の米国出願第16/029,530号の恩恵を主張し、両方を参照によりすべて組み入れる。
コンピュータを利用したリアリティテクノロジーは、ハンドヘルドまたはウェアラブルのデバイスを身につけたユーザに、デバイスを通して見ると、環境に関して視覚または聴覚の知覚を追加する、削減する、または変更することを可能にする。AR(拡張現実)は、具体的には、物質的な、現実世界の環境に関してリアルタイムの知覚を、コンピューティングデバイスにおいて生成される感覚入力を使用して、変更するコンピュータを利用したリアリティの類にある。
特定の実施形態によれば、方法は、コンピュータを利用したリアリティデータ(reality data)を生成する。方法は、クライアントデバイスにおける3−D(3次元)マップデータおよびカメラの位置データを生成することを含む。方法は、さらに、3−Dマップデータおよびクライアントデータを外部のサーバに送信し、クライアントデバイスにおけるワールドマップデータを外部のサーバから受信し、クライアントデバイスにおける、コンピュータを利用した現実画像を生成することを含む。ワールドマップデータを、3−Dマップデータを使用して生成することができる。
別の特定の実施形態によれば、ローカルに格納されるアニメーションエンジンを含む拡張現実エンジンは、ポータブルコンピューター上に実行される。アニメーションエンジンは、ポータブルコンピューターにおいて統合される、カメラにより作り出されるデジタル画像のストリームを受信する第一の入力を含む。デジタル画像は、カメラにより見られる環境のリアルタイムに近い視界を表すことができる。アニメーションエンジンは、さらに、ポータブルコンピューターにおいて統合される、ジオロケーションポジショニングシステム(geolocation positioning system)からのジオロケーションポジション(geolocation position)を受信する第二の入力、第一の入力および第二の入力を受信し時間内の特定のポイントにおけるカメラの位置と1つ以上のマッピングポイントにおけるカメラの位置との間の距離を推定する3Dマッピングエンジン、およびコンピュータ生成の画像により覆われる、カメラにより作り出されるデジタル画像のストリームを含む出力を含む。コンピュータ生成の画像は、3Dマップの特定の位置に配置することができ、ユーザが、カメラを空間内の異なる位置に動かすとおりに、特定の位置に置かれたままである。ローカルに格納されるアニメーションエンジンとネットワーク通信をする、ローカルに格納されないオブジェクト検出エンジンは、3Dマップにおけるオブジェクトを検出するのに使用され、検出されるオブジェクトの表示(例えば、位置および識別、例えばタイプなど)をポータブルコンピューターに返すことができる。オブジェクト検出エンジンは、カメラにより作り出されるデジタル画像のストリームからのデジタル画像を含む、ローカルに格納されるアニメーションエンジンから受信される第一の入力、およびローカルに格納されるアニメーションエンジンから受信されるデジタル画像に関連付けられたジオロケーションポジションを含む、ローカルに格納されるアニメーションエンジンから受信される第二の入力を使用することができる。
本開示についての他の特徴および利点を、以下に説明する。
図1は、一実施形態に係る拡張現実データを生成し表示するネットワークコンピューティング環境を示す。 図2は、一実施形態に係る拡張現実データを生成し表示するために図1のコンピューティングシステムにより実行される処理を例示するフローチャートである。 図3は、クライアントデバイスまたはサーバとしての使用に適した例示的なコンピュータを示すハイレベルブロック図である。 図4は、一実施形態による、クライアントデバイスによってキャプチャされた画像の拡張を示すフローチャートである。
システムおよび方法は、(例えば、センチメートル単位の解像度を有する)3−D(3次元)マップを作成し、次に、上記3−Dマップを使用して現実世界とのインタラクションを可能にする。様々な実施形態において、マッピングは、クライアント側(例えば、電話またはヘッドセット)に完成され、先にコンパイルされた映像(imagery)およびマッピングをクライアントデバイスに戻して供給するバックエンドサーバーと一組になる。
一実施形態において、システムは、画像と、クライアント側(例えば、ハンドヘルド端末または身につけられる電子デバイス)のGPS(全地球測位システム)座標とを選択し、選択されたデータを3−Dマップと一組にする。3−Dマップは、カメラ記録モジュール、およびIMU(inertial measurement unit)、例えば、加速度計またはジャイロスコープなどから構築される。クライアントデータは、サーバに送信される。サーバおよびクライアント側のコンピューティングデバイスは、データをともに処理して、可能性があるインタラクション(potential interaction)を決定するだけでなく、オブジェクトおよびジオメトリを確立する。可能性があるインタラクションの例は、ARアニメーションにより部屋に作られるものを含む。
画像および3−Dマップをともに用いて、システムは、オブジェクト検出およびジオメトリ推定を、ニューラルネットワークまたは他の種類のモデルを使用して、完成することができる。ニューラルネットワークの例は、膨大な、連結された簡略化された構成単位(人工ニューロン)を使用する機械学習において使用される計算モデルである。構成単位は、ソフトウェアによりともに連結され、結合される入力信号が十分に大きいならば、構成単位は、構成単位自体の出力信号を発火する。システムは、ディープラーニング(例えば、多層ニューラルネットワーク)を使用して、ARデータを文脈上理解することができる。モデルの他の種類は、他の統計モデルまたは他の機械学習モデルを含むことができる。
いくつかの実施形態において、システムは、ローカルマップを集めて、(例えば、ローカルマップをともにリンクさせることによって)1つ以上のグローバルマップを作成する。集められたマップは、サーバのグローバルマップにともに結合されて、環境のデジタルマップを、または「世界」を生成する。例えば、同様のGPS座標、同様の画像、および予め決められたしきい値の範囲内に一致する部分を含む同様のセンサーデータのどんな組合せに対しても、1つ以上のデバイスにより生成された2つのローカルマップを、重なり合うように決定することができる。したがって、重なり合う部分を使用して、(例えば、グローバルマップを生成することの一部として)ワールドマップおよびローカルマップとの一貫性を有するグローバルな座標系を取得するのに役立たせることができる2つのローカルマップをとじ合わせることができる。ワールドマップを使用して、特定のGPS座標において格納され、さらに、(例えば、フィート単位の解像度を有する)世界の特定の場所に至るまで、3−Dポイントおよび視覚映像(visual image)を介してインデックスを付けられるマップにおいて、先に格納されたアニメーションを記憶している。
説明的な処理は、データをクラウドへ、データをクラウドからマッピングする。本明細書において説明するように、マップは、3−Dピクセルに類似のやり方において、世界を表す空間内の3−Dポイントの集まりである。画像データは、利用可能であり有効であると、3−Dマップとともに送信される。ある例は、3−Dマップデータを、画像データなしに送信する。
様々な実施形態において、クライアントデバイスは、プロセッサにより実行される3−Dアルゴリズムを使用して、3−Dマップを生成する。クライアントデバイスは、画像、3−Dマップ、GPSデータ、および他のどんなセンサーデータであっても(例えば、IMUデータ、他のどんな位置データであっても)、効果的なやり方において送信する。例えば、画像を、送信または処理を詰まらせることがないように、選択的に送信することができる。一実施例において、画像を、新規のビューポイントがあるときに画像が現在のビューポイントにまだ供給されていないと、選択的に送信することができる。画像は、例えば、カメラの視野が過去のまたは最近のカメラポーズ(camera pose)から先行する画像による極小の重なりを有するとき、またはビューポイントがオブジェクトの期待される動きに依存する時間量に対して観測されていないとき、アルゴリズムにより送信するように指定される。別の実施例として、しきい値より大きな時間量が、現在の(または実質上重なり合っている)ビューポイントから先行する画像が供給されて以後に、経過したならば、画像を、供給することができる。今述べたことは、マップに関連付けられた格納された画像が、実世界の位置についての、より現在の(または少なくとも最近の)状態を反映させるために更新されることを可能にすることができる。
様々な実施形態において、クラウド側のデバイスは、3−Dデータおよび画像に基づいて、オブジェクトを検出するリアルタイムの検出システムを含み、実世界の環境にジオメトリを推定する。例えば、フォトリアリスティック(例えば、半稠密なおよび/または稠密な3−D再構成)でない部屋の3−Dマップは、画像により決定可能であり得る。
サーバは、検出システムにより画像および3−Dデータをともに融合して、一貫して難なくインデックスを付けられた、世界の3−Dマップをビルドする、または実世界のマップを、GPSデータを使用して合成する。一度格納されると、実世界のマップは、検索されて、先に格納された実世界のマップおよび関連付けられたアニメーションを配置する。
様々な実施形態において、マッピングおよびトラッキングは、クライアント側において行われる。(世界をデジタル化する)実世界の散在する再構成は、実世界に関するカメラの位置とともに、集められる。マッピングは、ポイントクラウド、または3−Dポイントの集まりを作成することを含む。システムは、疎表現(sparse representation)を、GPSデータとともに、ポイントクラウド情報をシリアライズして送ることによって、サーバに戻して伝達する。クラウドの処理は、(リアルタイムまたはほぼリアルタイムにおいて独立のデバイス間のマップデータを共有する)マルチプレイヤーの性能が(デバイスにローカルに格納されないさらなる体験用のマップおよびアニメーションのデータを格納する)ワーキング物理メモリおよびオブジェクト検出を有することを可能にする。
サーバはマップおよび画像のデータベースを含む。サーバは、GPSデータを使用して、実世界のマップが座標に対して先に格納されたかどうかを決定する。配置されたならば、格納されたマップは、クライアントデバイスに送り戻される。例えば、ホームロケーションのユーザは、ホームロケーションに関連付けられた、先に格納されたデータを受信することができる。加えて、マップおよび画像のデータを、格納された、合成の実世界に加えることができる。
図1は、一実施形態に係る、ネットワーク104を介してアクセスされるエレメントと協働するクライアントデバイス102を含むARコンピューティングシステム100のブロック図である。例えば、エレメントは、ARデータを作り出すサーバーデバイスのコンポーネントであり得る。クライアントデバイス102は、例えば、ゲームエンジン106(例えば、ユニティゲームエンジンまたは別の物理エンジン/レンダリングエンジン)およびARプラットフォーム108を含む。ARプラットフォーム108は、セグメンテーションおよびオブジェクト認識を実行し得る。図1に示すARプラットフォーム108は、クライアント側の画像処理(画像セグメンテーションおよびローカル3D推定などを含む)を実行する複雑なコンピュータビジョンモジュール110を含む。
ARプラットフォーム108は、同時ローカライゼーションおよびマッピング(例えば、SLAM(simultaneous localization and mapping))モジュール112も含む。一実施形態では、SLAM112機能は、空間内のカメラの位置を見つけるためにポイントクラウドおよび追跡を構築するマッピングシステムを含む。この例のSLAMプロセスは、アニメーションまたは拡張された値を実際の単語にさらに再投影する。他の実施形態では、SLAM112は、クライアントデバイス102の周囲の環境をマッピングするために、および/またはその環境内のクライアントデバイス102の位置を決定するために、異なるまたは追加のアプローチを使用し得る。
図1の実施形態では、ARプラットフォーム108は、オブジェクト認識のためのマップ取出モジュール114およびディープラーニングモジュール116も含む。マップ取出モジュール114は、以前に生成されたマップを(例えば、ネットワーク104を介して)取出する。いくつかの実施形態では、マップ取出モジュール114は、いくつかのマップ(例えば、ユーザのホームロケーションのマップ)をローカルに保存してもよい。ディープラーニングモジュール116は、オブジェクト認識のために機械学習アルゴリズムを適用する。ディープラーニングモジュール116は、(例えば、ネットワーク104を介して)外部システムでのトレーニングの後に機械学習アルゴリズムを取得してもよい。いくつかの実施形態では、ディープラーニングモジュール116は、オブジェクト認識および/またはユーザフィードバックの結果を提供して、さらなるモデルトレーニングを可能にしてもよい。
示される実施形態では、ネットワーク104を介してアクセスされる(例えば、サーバコンピューティングデバイスにおける)コンポーネントは、ワンワールドマッピングモジュール120、オブジェクト認識モジュール122、マップデータベース124、オブジェクトデータベース126、およびディープラーニングトレーニングモジュール128と通信するARバックエンドエンジン118を含む。他の実施形態では、追加のまたは異なるコンポーネントが含まれてもよい。さらに、機能は、本明細書で説明されているものとは異なる方法で分散されてもよい。例えば、オブジェクト認識機能の一部またはすべては、クライアントデバイス102で実行されてもよい。
ワンワールドマッピングモジュール120は、異なるローカルマップを融合して、複合現実世界マップを作成する。前述のように、最初にマップを生成したクライアントデバイス102からのGPS位置データが使用されて、隣接または重複している可能性が高いローカルマップを識別し得る。次いで、パターンマッチングが使用され、マップの重複部分を識別でき、または2つのローカルマップが互いに隣接していることを識別できる(たとえば、それらが同じオブジェクトの反対側の表現を含んでいるため)。2つのローカルマップがオーバーラップまたは隣接していると判断された場合、2つのマップが互いにどのように関連するかを示すマッピングが(たとえば、マップデータベースに)格納されることができる。ワンワールドマッピングモジュール120は、1つ以上のクライアントデバイス102から受信したローカルマップを融合し続けて、複合現実世界マップを改善し続けてもよい。いくつかの実施形態では、ワンワールドマッピングモジュール120による改善は、複合現実世界マップの拡張、複合現実世界マップの欠落部分の充填、複合現実世界マップの部分の更新、複数からクライアントデバイス102など受信したローカルマップからの重複部分の集約を含み得る。ワンワールドマッピングモジュール120は、様々なクライアントデバイス102のマップ取出モジュール114によるより効率的な取出のために複合現実世界マップをさらに処理し得る。いくつかの実施形態では、複合現実世界マップの処理は、複合現実世界マップをタイルの1つ以上の層に細分化、および複合現実世界マップの様々な部分のタグ付けを含んでもよい。レイヤーはさまざまなズームに関連付けられ、より高いレベルに比べて、より低いレベルで複合現実世界マップのより詳細な情報が保存される場合がある。
オブジェクト認識モジュール122は、キャプチャされた画像および収集された3Dデータからのオブジェクト情報を使用して、データで表される現実世界の特徴を識別する。このようにして、ネットワーク104は、例えば椅子が3Dロケーションにあると判断し、そのロケーションに関連付けられたオブジェクトデータベース126にアクセスする。ディーブラーニングモジュール128は、マップ情報をオブジェクト情報と融合するために使用され得る。このようにして、ARコンピューティングシステム100は、オブジェクト認識およびマップへの融合のために3D情報を結合し得る。オブジェクト認識モジュール122は、様々なクライアントデバイス102からのキャプチャ画像からオブジェクト情報を継続的に受信して、キャプチャ画像で識別された様々なオブジェクトをオブジェクトデータベース126に追加し得る。いくつかの実施形態では、オブジェクト認識モジュール122は、キャプチャされた画像内の検出されたオブジェクトを様々なカテゴリにさらに区別し得る。一実施形態では、オブジェクト認識モジュール122は、キャプチャされた画像内のオブジェクトを静止または一時的なものとして識別してもよい。例えば、オブジェクト認識モジュール122は、木を静止オブジェクトとして決定する。後続の例では、オブジェクト認識モジュール122は、一時的であると決定される可能性のあるオブジェクトと比較して、静止オブジェクトを少ない頻繁で更新する場合がある。例えば、オブジェクト認識モジュール122は、キャプチャされた画像内の動物が一時的であると判断し、後続の画像内に動物が環境にもはや存在しない場合、オブジェクトを除去し得る。
マップデータベース124は、クライアントデバイス102によって生成されたマップデータを格納するように構成された1つ以上のコンピュータ可読媒体を含む。マップデータは、あるロケーションでクライアントデバイス102によって収集された画像および他のセンサーデータに関連付けられて保存された3−Dポイントクラウドのローカルマップを含むことができる。マップデータは、異なるローカルマップ間の地理的関係を示すマッピング情報も含まれる場合がある。同様に、オブジェクトデータベース126は、認識されたオブジェクトに関する情報を保存するように構成された1つ以上のコンピュータ可読媒体を含む。例えば、オブジェクトデータベース126は、それらのオブジェクトのプロパティをともなう対応するロケーションを有する既知のオブジェクト(例えば、椅子、机、木、建物など)のリストを含んでもよい。プロパティは、オブジェクトタイプに汎用的であるか、オブジェクトのインスタンスごとに定義され得る(たとえば、すべての椅子は家具と見なされますが、各椅子のロケーションは個別に定義され得る)。オブジェクトデータベース126は、各オブジェクトのオブジェクトタイプに基づいてオブジェクトをさらに区別し得る。オブジェクトタイプは、類似した特性に基づいてオブジェクトデータベース126内のすべてのオブジェクトをグループ化することができる。例えば、植物オブジェクトタイプのすべてのオブジェクトは、オブジェクト認識モジュール122またはディープラーニングモジュール128によって、木、茂み、草、つるなどの植物として識別されるオブジェクトであることができる。マップデータベース124およびオブジェクトデータベース126は単一のエンティティとして示されているが、それらは複数のデバイスの複数の記憶媒体にわたって分散されてもよい(例えば、分散データベースとして)。
図2は、一実施形態による、ARデータを生成および表示するためにクライアントデバイス102およびサーバーデバイスによって実行されるプロセスを示すフローチャートである。クライアントデバイス102およびサーバコンピューティングデバイスは、図1に示されるものと同様であってもよい。破線は、クライアントデバイス102とサーバとの間のデータの通信を表し、実線は、単一のデバイス内(たとえば、クライアントデバイス102内またはサーバ内)のデータの通信を示す。他の実施形態では、機能はデバイス間で異なって分散されてもよく、および/または異なるデバイスが使用されてもよい。
202において、生データは、1つ以上のセンサによってクライアントデバイス102で収集される。一実施形態では、生データは、画像データ、慣性計測データ、およびロケーションデータを含む。画像データは、物理的または無線のいずれかでクライアントデバイス102にリンクされた1つ以上のカメラによってキャプチャされてもよい。慣性計測データは、ジャイロスコープ、加速度計、またはそれらの組み合わせを使用して収集されてよく、最大6自由度の慣性計測データ(つまり、3度の並進運動と3度の回転運動)を含み得る。ロケーションデータは、GPS(Global Position System)受信機で収集してもよい。追加の生データは、圧力レベル、照度レベル、湿度レベル、高度レベル、音レベル、音声データなど、他のさまざまなセンサによって収集される場合がある。生データは、クライアントデバイス102において、クライアントデバイス102の様々なセンサによって過去に取得された生データを記録することができる1つ以上のストレージモジュール内に格納されてもよい。
クライアントデバイス102は、204でローカルマップストレージを維持することができる。ローカルマップストレージは、ローカルポイントクラウドデータを含む。ポイントクラウドデータは、構築可能なメッシュサーフェスを形成する空間内の位置を含み得る。204におけるローカルマップストレージは、クライアントデバイス102による使用のための容易な取出のためのローカルポイントクラウドデータの階層的キャッシュを含み得る。204におけるローカルマップストレージは、ローカルポイントクラウドデータに融合されたオブジェクト情報をさらに含み得る。オブジェクト情報は、ローカルポイントクラウドデータ内のさまざまなオブジェクトを指定できる。
202で生データが収集されると、206において、クライアントデバイス102は、マップが初期化されているかどうかをチェックする。206でマップが初期化されている場合、208において、クライアントデバイス102はSLAM機能を開始し得る。SLAM機能は、初期化されたマップ上の空間でカメラのロケーションを見つけるために、ポイントクラウドと追跡を構築するマッピングシステムを含む。この例のSLAMプロセスは、アニメーションまたは拡張された値を実際の単語にさらに再投影する。210で初期化されたマップがない場合、クライアントデバイス102は、ローカルに格納されたマップについて204のローカルマップストレージを探し得る。204のローカルマップストレージにマップが見つかる場合、クライアントデバイス102はSLAM機能により使用のためにそのマップを取り出し得る。210でマップが配置されていない場合、212において、クライアントデバイス102は、初期化モジュールを使用して新しいマップを作成し得る。
新しいマップが作成されると、204において、初期化モジュールは、ローカルマップストレージに新しく作成されたマップを格納し得る。クライアントデバイス102は、ローカルマップストレージ204内のマップデータをサーバ側の220のクラウドマップストレージと定期的に同期させてもよい。マップデータを同期するとき、クライアントデバイス102上のローカルマップストレージ204は、新しく作成されたマップをサーバに送信してもよい。226においてサーバ側は、クラウドマップストレージ220をチェックし、クライアントデバイス102から受信したマップが以前にクラウドマップストレージ220に格納されているかどうかを確認する。そうでない場合、次いで、228において、サーバ側は、クラウドマップストレージ220に格納するために新しいマップを生成する。あるいは、サーバは、228において、新しいマップをクラウドマップストレージ220内の既存のマップに追加してもよい。
クライアント側に戻ると、214において、クライアントデバイス102は、新しい視点が検出されたかどうかを決定する。いくつかの実施形態では、クライアントデバイス102は、キャプチャされた画像のストリーム内の各視点が、クライアントデバイス102に格納された予め存在する視点とオーバーラップが閾値未満であるかどうかを判定する(例えば、ローカルマップストレージ204は、クライアントデバイス120によって撮影された視点を格納し得るまたはクラウドマップストレージ220から取り出し得る)。他の実施形態では、214において、クライアントデバイス102は、多段階決定において新しい視点が検出されたかどうかを決定する。ハイレベルでは、クライアントデバイス102は、クライアントデバイス102の地理的位置のローカル半径内の予め存在する視点を取り出し得る。予め存在する視点から、クライアントデバイス102は、予め存在する視点と比較して、問題としている視点における類似のオブジェクトまたは特徴の識別を開始し得る。例えば、クライアントデバイス102は、問題としている視点における木を識別し、ローカル半径内の予め存在する視点から、木も見えるすべての予め存在する視点をさらに減らしてもよい。クライアントデバイス102は、問題としている視点を予め存在する視点のフィルタリングされたセットに一致させるのにより堅牢な追加のフィルタリング層を使用してもよい。一例では、クライアントデバイス102は、機械学習モデルを使用して、問題としている視点がフィルタリングされたセット内の別の視点と一致するかどうか(すなわち、既存の視点と一致するため問題としている視点は新しくない)を決定する。214で新しい視点が検出された場合、216において、クライアントデバイス102は、ローカル環境推定によって収集されたデータを記録する。例えば、クライアントデバイス102が現在新しい視点を有すると判断すると、新しい視点でキャプチャされた画像は、サーバ(例えば、サーバ側のマップ/画像データベース218)に送信され得る。新しい視点検出モジュールが使用されて、3−Dデータとともに画像をいつ、どのように送信するかを決定し得る。ローカル環境の推定は、ローカルマッピングシステムおよびシリアル化された画像のためおよび/またはマップデータのための更新されたキーフレームを含む。サーバによりローカル環境の推定が用いられて、マップ内の所与のロケーションにある他の視点に関して新しい視点を適合させる。
サーバ側では、新しい視点データ(たとえば、メッシュデータが上部にあるポイントクラウド情報を含む)は、218において、サーバ側のマップ/画像データベースに格納され得る。サーバは、格納されたクラウドマップストレージ220およびオブジェクトデータベース222からの現実世界マップの異なる部分を追加してもよい。(追加されたコンポーネントデータを含む)クラウド環境推定224は、クライアントデバイスに送り返されてもよい。追加されたデータは、ローカルマップストレージ204において格納されることになるポイントおよびメッシュ並びに意味論のラベル(壁やベッドなど)を持つオブジェクトデータを含み得る。
図3は、クライアントデバイス102またはサーバとしての使用に適した例示的なコンピュータ300を示すハイレベルブロック図である。例示的なコンピュータ300は、チップセット304に結合された少なくとも1つのプロセッサ302を含む。チップセット304は、メモリコントローラハブ320および入出力(I/O)コントローラハブ322を含む。メモリ306およびグラフィックスアダプタ312はメモリコントローラハブ320に結合され、ディスプレイ318はグラフィックスアダプタ312に結合される。ストレージデバイス308、キーボード310、ポインティングデバイス314、およびネットワークアダプタ316は、I/Oコントローラハブ322に結合されている。コンピュータ300の他の実施形態は、異なるアーキテクチャを有する。
図3に示す実施形態では、ストレージデバイス308は、ハードドライブ、コンパクトディスクリードオンリーメモリ(CD−ROM)、DVD、またはソリッドステートメモリデバイスなどの非一時的なコンピュータ可読記憶媒体である。メモリ306は、プロセッサ302によって使用される命令およびデータを保持する。ポインティングデバイス314は、マウス、トラックボール、タッチスクリーン、または他のタイプのポインティングデバイスであり、コンピュータシステム300にデータを入力するためにキーボード310(オンスクリーンキーボードでもよい)と組み合わせて使用される。他の実施形態では、コンピュータ300は、タッチスクリーン、ジョイスティック、ボタン、スクロールホイールなど、またはそれらの任意の組み合わせなど、さまざまな他の入力機構を有する。グラフィックスアダプタ312は、ディスプレイデバイス318上に画像および他の情報を表示する。ネットワークアダプタ316は、コンピュータシステム300を1つ以上のコンピュータネットワークに結合する(たとえば、ネットワークアダプタ316は、ネットワーク104を介してクライアントデバイス102をサーバに結合し得る)。
図1のエンティティによって使用されるコンピュータのタイプは、実施形態および当該エンティティによって必要とする処理能力に応じて異なり得る。たとえば、サーバには、説明されている機能を提供するために連携して動作する複数のブレードサーバーを含む分散データベースシステムが含まれる場合がある。さらに、コンピュータに、キーボード310、グラフィックスアダプタ312、およびディスプレイ318など、上記のコンポーネントの一部が欠くことができる。
図4は、一実施形態による、クライアントデバイス(例えば、クライアントデバイス102)によってキャプチャされた画像の拡張400を示すフローチャートである。クライアントデバイスは、画像データおよびロケーションデータを記録するための1つ以上のセンサと、拡張された画像を表示するための1つ以上のディスプレイデバイスとを含む。
クライアントデバイスは、クライアントデバイス上の1つ以上のセンサで画像データおよびロケーションデータを収集する410。一実施形態では、クライアントデバイスは、クライアントデバイスに関連付けられた1つ以上のカメラ(例えば、コンポーネントとしてのカメラ、クライアントデバイスに物理的にリンクされたカメラ、またはクライアントデバイスに無線でリンクされたカメラ)を利用してもよい。画像データは、ビデオファイルとして格納されたビデオデータ、またはビデオファイルからの個別のフレームとして格納されたビデオデータも含み得る。別の実施形態では、クライアントデバイスは、当該クライアントデバイスのロケーションデータを記録するために、GPS受信機、慣性計測ユニット(IMU)、加速度計、ジャイロスコープ、高度計、クライアントデバイスの空間的な位置を決定するための別のセンサ、またはそれらの何らかの組み合わせを利用し得る。
クライアントデバイスは、環境の3Dマップ内における当該クライアントデバイスのロケーションを決定する420。一実施形態では、クライアントデバイスは、収集された画像データまたはロケーションデータに基づいて環境の3Dマップを生成する。別の実施形態では、クライアントデバイスは、外部システムに格納された3−Dマップの一部を取り出す。例えば、クライアントデバイスは、ネットワーク(例えば、ネットワーク104)を介してサーバから複合現実世界3−Dマップの一部を取り出す。取り出された3−Dマップは、実世界のオブジェクトを3−Dマップの空間座標にマップするポイントクラウドデータを含む。次いで、クライアントデバイスは、ロケーションデータを使用して、3−Dマップ内の当該クライアントデバイスの空間的な位置を決定する。追加の実施形態では、クライアントデバイスは、画像データを利用して、3−Dマップ内の当該クライアントデバイスの空間的な位置を決定することを支援する。
クライアントデバイスは、環境の3Dマップ内における当該クライアントデバイスまでのマッピングポイントの距離を決定する430。クライアントデバイスは、3−Dマップ内のマッピングポイントと、当該マッピングポイントの対応する座標を識別する。たとえば、クライアントデバイスは、3−Dマップ内のオブジェクト、たとえば、木、標識、ベンチ、噴水などを識別する。次いで、クライアントデバイスは、識別されたマッピングポイントの座標とクライアントデバイスのロケーションを使用して、クライアントデバイスとマッピングポイントとの間の距離を決定する。
クライアントデバイスは、マッピングポイントに、マッピングポイントからクライアントデバイスまでの距離に基づくサイズの仮想オブジェクトを生成する440。仮想オブジェクトは、クライアントデバイスに格納されている実行可能アプリケーションのアプリケーションプログラミングインターフェイスによって生成され得る。仮想オブジェクトは、3−Dマップのマッピングポイントに配置するために、外部サーバによって送信されてもよい。一部の実施形態では、仮想オブジェクトは、クライアントデバイスの他のセンサによって収集された他の感覚データに基づいて、クライアントデバイスによって選択され得る。仮想オブジェクトは、クライアントデバイスからマッピングポイントまでの距離に基づいてサイズが変化し得る。
クライアントデバイスは、仮想オブジェクトで画像データを拡張する450。画像データ内の仮想オブジェクトのサイズは、マッピングポイントまでのクライアントデバイスの決定された距離に依存する。画像データ内の仮想オブジェクトの外観もまた、クライアントデバイスによって収集された他の感覚データに基づいて変化し得る。いくつかの実施形態では、クライアントデバイスは、仮想オブジェクトに対応するクライアントデバイスにより入力が受信されたたとき(例えば、仮想オブジェクトと対話するユーザ入力)、または感覚データが変化したとき(例えば,クライアントデバイスの動きが時間の間に回転的にまたは並進的に変化する)、仮想オブジェクトで画像データを定期的に更新する。
クライアントデバイスは、仮想オブジェクトとともに拡張された画像データを表示する460。クライアントデバイスは、1つ以上のディスプレイに仮想オブジェクトを表示してもよい。クライアントデバイスが拡張された画像データを継続的に更新する実施形態では、クライアントデバイスは、画像データの拡張に対する更新を反映するために表示も更新する。
当業者は、記載された概念から逸脱することなく、本明細書に開示された装置および技術の多数の使用および変更並びに逸脱を行うことができる。例えば、本開示で図示または説明されるコンポーネントまたは特徴は、図示または説明されるロケーション、設定、またはコンテキストに限定されない。本開示による装置の例は、先行する図の1つ以上を参照して説明したコンポーネント、のすべて、よりも少ないコンポーネント、または、と異なるコンポーネントを含むことができる。したがって、本開示は、本明細書で説明される特定の実装に限定されず、むしろ、添付の特許請求の範囲およびその均等物と一致する可能な限り広い範囲とされる。

Claims (20)

  1. クライアントデバイス上でコンピュータ媒介現実データを生成する方法であって、
    前記クライアントデバイスに統合されたカメラで画像データをキャプチャすることであって、前記画像データは、前記クライアントデバイスの周囲の環境のほぼリアルタイムのビューを表す、ことと、
    前記画像データとロケーションデータに基づいて、3次元(3−D)マップデータを生成することであって、前記3−Dマップデータは前記クライアントデバイスの周囲の環境を空間的に記述する、ことと、
    前記3−Dマップデータを外部サーバに送信することと、
    外部サーバからクライアントデバイスでワールドマップデータのローカル部分を受信することであって、ローカル部分は3−Dマップデータに基づいて選択される、ことと、
    ロケーションデータおよびワールドマップデータの前記ローカル部分に基づいて、ワールドマップデータの前記ローカル部分におけるマッピングポイントと前記クライアントデバイスの空間位置との間の距離を決定することと、
    前記画像データと前記ロケーションデータに基づいて、ワールドマップデータの前記ローカル部分内のマッピングポイントにおけるコンピュータ媒介現実画像を生成することと、
    前記マッピングポイントにおける前記コンピュータ媒介現実画像を表示することと、
    を含む、方法。
  2. 画像データを前記外部サーバに送信することをさらに含み、ワールドマップデータの前記ローカル部分は、前記画像データに基づいてさらに選択される、請求項1に記載の方法。
  3. 前記画像データが新しい視点を含む、請求項2に記載の方法。
  4. 前記視点が1つ以上の他のカメラからの前記外部サーバに格納された複数の画像からの視野と閾値未満のオーバーラップを有する場合、前記画像データ内の視点は前記新しい視点とみなされる、請求項3に記載の方法。
  5. 前記視点の類似の視野をカバーする複数の画像が現在時刻より前の閾値期間よりも前にキャプチャされた場合、前記画像データ内の視点が前記新しい視点とみなされる、請求項3に記載の方法。
  6. ワールドマップデータの前記ローカル部分内の前記マッピングポイントでコンピュータ媒介現実画像を生成することは、前記マッピングポイントと前記クライアントデバイスの前記空間位置との間の距離にさらに基づく、請求項1に記載の方法。
  7. 前記コンピュータ媒介現実画像は、ワールドマップデータのローカルポイント内の前記マッピングポイントに固定された仮想オブジェクトを含む、請求項1に記載の方法。
  8. 前記画像データおよび前記ロケーションデータに基づいて前記外部サーバから仮想オブジェクトを受信することをさらに含み、前記コンピュータ媒介現実画像は前記受信した仮想オブジェクトを含む、請求項7に記載の方法。
  9. 前記画像データおよび前記ロケーションデータに基づいて三次元(3−D)マップデータを生成することは、
    前記画像データに基づいて前記環境内の1つ以上のオブジェクトを識別することと、
    前記画像データおよび前記ロケーションデータに基づいて、前記オブジェクトの各々について1つ以上の空間位置を決定することと
    をさらに含む請求項1に記載の方法。
  10. 前記画像データおよび前記ロケーションデータに基づいて三次元マップデータを生成することは、
    各オブジェクトを複数のオブジェクトタイプのうちの1つに分類することであって、前記複数のオブジェクトタイプは、実質的に同じ空間位置にとどまると予想されるオブジェクトを記述する静止タイプを含む、こと
    をさらに含む請求項9に記載の方法。
  11. 前記環境内の前記クライアントデバイスの後続の空間位置を記述するロケーションセンサーで後続のロケーションデータをキャプチャすることと、
    ロケーションデータおよびワールドマップデータの前記ローカル部分に基づいて、ワールドマップデータの前記ローカル部分の前記マッピングポイントと前記クライアントデバイスの前記後続の空間位置との間の後続の距離を決定することと、
    前記後続のロケーションデータに基づいて、ワールドマップデータの前記ローカル部分内の前記マッピングポイントにおける前記コンピュータ媒介現実画像を調整することと、
    前記マッピングポイントにおける前記コンピュータ媒介現実画像を表示することと
    をさらに含む、請求項1に記載の方法。
  12. 外部サーバ上でコンピュータ媒介現実データを生成する方法であって、
    複数の測位における複数の環境の集合を記述するワールドマップデータを格納することと、
    クライアントデバイスから3次元(3−D)マップデータ、前記クライアントデバイス上のカメラによってキャプチャされた環境の画像データ、およびロケーションセンサーでキャプチャされた前記クライアントデバイスの空間位置を記述するロケーションデータを受信することであって、前記3−Dマップデータは、前記画像データおよび前記ロケーションデータに基づいて前記クライアントデバイスによって生成される、ことと、
    前記ロケーションデータに基づいてワールドマップデータのローカル部分を取り出すことと、
    前記ロケーションデータを使用して前記ワールドマップデータを前記3−Dマップデータで更新することであって、前記ワールドマップデータのローカル部分を識別して前記3−Dマップデータで更新する、ことと、
    前記ワールドマップデータを前記クライアントデバイスに送信することと
    を含む、方法。
  13. 前記画像データおよび前記ロケーションデータに基づいて、環境内の前記クライアントデバイスによって表示される仮想オブジェクトを生成することと、
    前記仮想オブジェクトを前記クライアントデバイスに送信することと
    をさらに含む、請求項12に記載の方法。
  14. 前記画像データは、前記環境の新しい視点を含み、前記ワールドマップデータを更新することは、前記環境の前記新しい視点を前記ワールドマップデータに追加することをさらに含む、請求項12に記載の方法。
  15. 前記新しい視点は、1つ以上の他のカメラから前記外部サーバに格納された複数の画像からの視野と閾値未満のオーバーラップを有する、請求項12に記載の方法。
  16. 前記新しい視点が、前記新しい視点の類似の視野をカバーする前記外部サーバに格納された複数の画像から閾値時間間隔にわたってキャプチャされた、請求項12に記載の方法。
  17. コンピュータ媒介現実を生成するように構成されたアニメーションエンジンであって、 カメラによって生成された画像データおよびカメラと統合されたロケーションセンサーからのロケーションデータを受信するように構成された複雑なビジョンモジュールであて、前記画像データは、前記カメラによってキャプチャされた環境のほぼリアルタイムのビューを表す1つ以上の画像を含む、複雑なビジョンモジュール、
    前記画像データおよび前記ロケーションデータを受信するように構成され、前記画像データおよび前記ロケーションデータに基づいて前記環境の3−Dマップを生成するように構成され、前記画像データおよび前記ロケーションデータに基づいて前記3−Dマップ内に表示されるコンピュータ媒介現実画像を生成するようにさらに構成されたローカリゼーションおよびマッピングモジュール、および
    前記画像データを受信するように構成され、前記画像データに基づいて前記環境内に存在する1つ以上のオブジェクトを決定するように構成された第1のオブジェクト検出モジュール
    を備えた、アニメーションエンジンと、
    前記アニメーションエンジンと通信するデータベースエンジンであって、オブジェクト検出が、
    前記第1のオブジェクト検出モジュールによって決定されたオブジェクトを受信して格納するように構成された第2のオブジェクト検出モジュール、および
    前記ローカリゼーションおよびマッピングモジュールによって生成された前記環境の3−Dマップを受信するように構成され、前記環境の前記3−Dマップを使用してワールドマップを生成するように構成された3−Dマッピングモジュール
    を備えた、データベースエンジンと
    を備えた、拡張現実システム。
  18. 前記ローカリゼーションおよびマッピングモジュールは、前記画像データおよび前記ロケーションデータに基づいて、第1の時間インスタンスにおける前記カメラの第1の空間位置と第1のマッピングポイントとの間の第1の距離をさらに決定するように構成され、前記コンピュータ媒介現実画像は、前記第1の距離に基づいて前記マッピングポイントに表示される仮想オブジェクトを含む、請求項17に記載の拡張現実システム。
  19. 前記アニメーションエンジンが
    前記データベースエンジンの前記3−Dマッピングモジュールからワールドマップデータのローカル部分を受信するように構成されたマップ取出モジュール
    をさらに含む、請求項17に記載の拡張現実システム。
  20. 前記第2のオブジェクト検出モジュールは、前記画像データおよび前記ロケーションデータに基づいて仮想オブジェクトを生成するようにさらに構成され、前記ローカリゼーションおよびマッピングモジュールは、前記第2のオブジェクト検出モジュールによって生成された前記仮想オブジェクトに基づいて、コンピュータ媒介現実画像を生成するように構成され、請求項17に記載の拡張現実システム。
JP2020500105A 2017-07-07 2018-07-07 クラウド対応の拡張現実 Active JP7179819B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022183332A JP2023022841A (ja) 2017-07-07 2022-11-16 クラウド支援型の新しい視点を利用したローカルマップデータの生成

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762529492P 2017-07-07 2017-07-07
US62/529,492 2017-07-07
US16/029,530 2018-07-06
US16/029,530 US10885714B2 (en) 2017-07-07 2018-07-06 Cloud enabled augmented reality
PCT/US2018/041164 WO2019010466A1 (en) 2017-07-07 2018-07-07 INCREASED REALITY THAT CAN USE THE CLOUD

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022183332A Division JP2023022841A (ja) 2017-07-07 2022-11-16 クラウド支援型の新しい視点を利用したローカルマップデータの生成

Publications (2)

Publication Number Publication Date
JP2020526829A true JP2020526829A (ja) 2020-08-31
JP7179819B2 JP7179819B2 (ja) 2022-11-29

Family

ID=64903345

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020500105A Active JP7179819B2 (ja) 2017-07-07 2018-07-07 クラウド対応の拡張現実
JP2022183332A Pending JP2023022841A (ja) 2017-07-07 2022-11-16 クラウド支援型の新しい視点を利用したローカルマップデータの生成

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022183332A Pending JP2023022841A (ja) 2017-07-07 2022-11-16 クラウド支援型の新しい視点を利用したローカルマップデータの生成

Country Status (8)

Country Link
US (3) US10885714B2 (ja)
EP (1) EP3649576A4 (ja)
JP (2) JP7179819B2 (ja)
KR (2) KR20230003646A (ja)
CN (1) CN110892410A (ja)
AU (2) AU2018297358B2 (ja)
CA (1) CA3068645C (ja)
WO (1) WO2019010466A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023509105A (ja) * 2020-10-26 2023-03-07 3アイ インコーポレイテッド ディープラーニングを利用した屋内位置測位方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11077365B2 (en) 2018-06-27 2021-08-03 Niantic, Inc. Low latency datagram-responsive computer network protocol
US10600230B2 (en) * 2018-08-10 2020-03-24 Sheng-Yen Lin Mesh rendering system, mesh rendering method and non-transitory computer readable medium
WO2020054498A1 (ja) * 2018-09-13 2020-03-19 ソニー株式会社 情報処理装置、端末装置、情報処理システム、情報処理方法及びプログラム
US11922489B2 (en) * 2019-02-11 2024-03-05 A9.Com, Inc. Curated environments for augmented reality applications
US11288842B2 (en) 2019-02-15 2022-03-29 Interaptix Inc. Method and system for re-projecting and combining sensor data for visualization
KR20230132894A (ko) 2019-02-25 2023-09-18 나이앤틱, 인크. 증강 현실 모바일 에지 컴퓨팅
US11461586B2 (en) * 2019-06-25 2022-10-04 International Business Machines Corporation Learned interaction with a virtual scenario
CN112785700A (zh) * 2019-11-08 2021-05-11 华为技术有限公司 虚拟物体显示方法、全局地图更新方法以及设备
JP2023507770A (ja) 2019-12-20 2023-02-27 ナイアンティック, インコーポレイテッド データ送信経路選択のためのデータヒエラルキープロトコル
JP7453383B2 (ja) * 2019-12-20 2024-03-19 ナイアンティック, インコーポレイテッド 3dライン接合部を用いた位置決定およびマッピング
EP4078540A4 (en) 2019-12-20 2023-01-18 Niantic, Inc. FUSION OF LOCAL MAPS FROM MAPPING DEVICES
KR102346090B1 (ko) * 2020-05-06 2021-12-31 광운대학교 산학협력단 체적 3d 비디오 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법
KR102449031B1 (ko) * 2020-10-26 2022-09-29 주식회사 쓰리아이 딥러닝을 이용한 실내 위치 측위 방법
CN113398577B (zh) * 2021-05-13 2024-04-09 杭州易现先进科技有限公司 一种线下空间的多人ar互动方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2011186808A (ja) * 2010-03-09 2011-09-22 Sony Corp 情報処理装置、マップ更新方法、プログラム及び情報処理システム
JP2014513822A (ja) * 2011-01-31 2014-06-05 マイクロソフト コーポレーション ゲーム・プレイにおける三次元環境モデルの使用
WO2014119098A1 (ja) * 2013-02-01 2014-08-07 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
JP2016528476A (ja) * 2013-04-30 2016-09-15 クアルコム,インコーポレイテッド Slamマップからのワイドエリア位置推定

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7324687B2 (en) 2004-06-28 2008-01-29 Microsoft Corporation Color segmentation-based stereo 3D reconstruction system and process
US9024972B1 (en) 2009-04-01 2015-05-05 Microsoft Technology Licensing, Llc Augmented reality computing with inertial sensors
KR101650799B1 (ko) * 2009-05-11 2016-08-24 게스티곤 게엠베하 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법
US9429438B2 (en) * 2010-12-23 2016-08-30 Blackberry Limited Updating map data from camera images
EP3654147A1 (en) 2011-03-29 2020-05-20 QUALCOMM Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
US20120306850A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US20130249947A1 (en) * 2011-08-26 2013-09-26 Reincloud Corporation Communication using augmented reality
US20150206343A1 (en) * 2014-01-17 2015-07-23 Nokia Corporation Method and apparatus for evaluating environmental structures for in-situ content augmentation
US9582888B2 (en) 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
US10133947B2 (en) 2015-01-16 2018-11-20 Qualcomm Incorporated Object detection using location data and scale space representations of image data
US10185463B2 (en) * 2015-02-13 2019-01-22 Nokia Technologies Oy Method and apparatus for providing model-centered rotation in a three-dimensional user interface
US9652896B1 (en) * 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9984499B1 (en) * 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US9934587B2 (en) * 2016-06-30 2018-04-03 Daqri, Llc Deep image localization
US10685489B2 (en) * 2017-03-02 2020-06-16 Daqri, Llc System and method for authoring and sharing content in augmented reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2011186808A (ja) * 2010-03-09 2011-09-22 Sony Corp 情報処理装置、マップ更新方法、プログラム及び情報処理システム
JP2014513822A (ja) * 2011-01-31 2014-06-05 マイクロソフト コーポレーション ゲーム・プレイにおける三次元環境モデルの使用
WO2014119098A1 (ja) * 2013-02-01 2014-08-07 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
JP2016528476A (ja) * 2013-04-30 2016-09-15 クアルコム,インコーポレイテッド Slamマップからのワイドエリア位置推定

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023509105A (ja) * 2020-10-26 2023-03-07 3アイ インコーポレイテッド ディープラーニングを利用した屋内位置測位方法
JP7336653B2 (ja) 2020-10-26 2023-09-01 3アイ インコーポレイテッド ディープラーニングを利用した屋内位置測位方法

Also Published As

Publication number Publication date
EP3649576A1 (en) 2020-05-13
KR20230003646A (ko) 2023-01-06
US20210082202A1 (en) 2021-03-18
WO2019010466A1 (en) 2019-01-10
CN110892410A (zh) 2020-03-17
AU2018297358A1 (en) 2020-02-20
AU2022268310A1 (en) 2022-12-15
US11430189B2 (en) 2022-08-30
JP7179819B2 (ja) 2022-11-29
EP3649576A4 (en) 2020-11-04
CA3068645C (en) 2024-01-02
US20220351476A1 (en) 2022-11-03
AU2018297358B2 (en) 2022-09-15
US10885714B2 (en) 2021-01-05
CA3068645A1 (en) 2019-01-10
KR20200020937A (ko) 2020-02-26
KR102480362B1 (ko) 2022-12-22
US20190012840A1 (en) 2019-01-10
JP2023022841A (ja) 2023-02-15

Similar Documents

Publication Publication Date Title
JP7179819B2 (ja) クラウド対応の拡張現実
KR102338560B1 (ko) 장치 위치 측정을 위한 다중 동기화 통합 모델
JP7466649B2 (ja) マッピングデバイスからのローカルマップのマージング
US11969651B2 (en) Merging local maps from mapping devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221116

R150 Certificate of patent or registration of utility model

Ref document number: 7179819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150