JPWO2021076757A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021076757A5
JPWO2021076757A5 JP2022522303A JP2022522303A JPWO2021076757A5 JP WO2021076757 A5 JPWO2021076757 A5 JP WO2021076757A5 JP 2022522303 A JP2022522303 A JP 2022522303A JP 2022522303 A JP2022522303 A JP 2022522303A JP WO2021076757 A5 JPWO2021076757 A5 JP WO2021076757A5
Authority
JP
Japan
Prior art keywords
images
electronic device
pixels
type
portable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022522303A
Other languages
English (en)
Other versions
JP2022551734A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/US2020/055784 external-priority patent/WO2021076757A1/en
Publication of JP2022551734A publication Critical patent/JP2022551734A/ja
Publication of JPWO2021076757A5 publication Critical patent/JPWO2021076757A5/ja
Pending legal-status Critical Current

Links

Description

前述の説明は、例証として提供され、限定することを意図するものではない。
本発明は、例えば、以下を提供する。
(項目1)
複数のタイプのデバイスが、少なくとも1つのネットワークを介して、遠隔位置特定サービスと相互作用するクロスリアリティシステム内において、第1のタイプのポータブル電子デバイスを動作させる方法であって、前記ポータブル電子デバイスは、画像を捕捉するように構成され、前記方法は、
前記ポータブル電子デバイス上のセンサを用いて、複数の画像を捕捉する行為であって、前記複数の画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備える、行為と、
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化する行為と、
前記複数の修正された画像の少なくともサブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択する行為と、
特徴記述子を前記ピクセルの選択されたクラスタから生成する行為と、
前記ネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させる行為と
を含む、方法。
(項目2)
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、前記センサによって捕捉された複数の画像のピクセルに関する明度値を修正することを含む、項目1に記載の方法。
(項目3)
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、ガンマ補正を前記複数の画像に適用することを含む、項目2に記載の方法。
(項目4)
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することはさらに、雑音除去動作を前記複数の画像に適用することを含む、項目3に記載の方法。
(項目5)
前記複数の修正された画像の少なくともサブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することはさらに、レンズ陰影補正動作を前記複数の画像に適用することを含む、項目3に記載の方法。
(項目6)
前記ポータブル電子デバイスは、スマートフォンであり、前記センサは、前記スマートフォン上のカメラである、項目1に記載の方法。
(項目7)
前記複数の修正された画像の少なくともサブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することは、前記複数の修正された画像のサブセット内のピクセルのクラスタを選択することを含み、前記サブセットは、少なくとも部分的に、前記画像内で検出されたモーションブラーに基づいて、前記複数の修正された画像の画像をフィルタリング除去することによって形成される、項目6に記載の方法。
(項目8)
前記ポータブル電子デバイスは、ハンドヘルドデバイスであり、
前記第2のタイプは、その上に搭載される複数のカメラを備える頭部搭載型ディスプレイを備えるウェアラブルデバイスである、
項目1に記載の方法。
(項目9)
特徴記述子を前記ピクセルの選択されたクラスタから生成することは、前記特徴記述子と関連付けられる場所情報を生成することを含む、項目1に記載の方法。
(項目10)
前記遠隔位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームとローカル座標フレームとの間の変換を取得する行為
をさらに含む、項目1に記載の方法。
(項目11)
複数のタイプのデバイスが、少なくとも1つのネットワークを介して、遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスであって、前記ポータブル電子デバイスは、画像を捕捉するように構成され、
複数の画像を捕捉するように構成されるセンサと、
コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、
前記ポータブル電子デバイス上のセンサを用いて、前記複数の画像を捕捉することであって、前記複数の画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備える、ことと、
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することと、
前記複数の修正された画像の少なくともサブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することと、
特徴記述子を前記ピクセルの選択されたクラスタから生成することと、
前記ネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させることと
を行うための命令を備える、少なくとも1つのプロセッサと
を備える、ポータブル電子デバイス。
(項目12)
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、前記センサによって捕捉された複数の画像のピクセルに関する明度値を修正することを含む、項目11に記載のポータブル電子デバイス。
(項目13)
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、ガンマ補正を前記複数の画像に適用することを含む、項目12に記載のポータブル電子デバイス。
(項目14)
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することはさらに、雑音除去動作を前記複数の画像に適用することを含む、項目13に記載のポータブル電子デバイス。
(項目15)
前記複数の修正された画像の少なくともサブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することはさらに、レンズ陰影補正動作を前記複数の画像に適用することを含む、項目13に記載のポータブル電子デバイス。
(項目16)
前記ポータブル電子デバイスは、スマートフォンであり、前記センサは、前記スマートフォン上のカメラであり、
前記複数の修正された画像の少なくともサブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することは、前記複数の修正された画像のサブセット内のピクセルのクラスタを選択することを含み、前記サブセットは、少なくとも部分的に、前記画像内で検出されたモーションブラーに基づいて、前記複数の修正された画像の画像をフィルタリング除去することによって形成される、
項目11に記載のポータブル電子デバイス。
(項目17)
前記ポータブル電子デバイスは、ハンドヘルドデバイスであり、
前記第2のタイプは、その上に搭載される複数のカメラを備える頭部搭載型ディスプレイを備えるウェアラブルデバイスである、
項目11に記載のポータブル電子デバイス。
(項目18)
特徴記述子を前記ピクセルの選択されたクラスタから生成することは、前記特徴記述子と関連付けられる場所情報を生成することを含む、項目11に記載のポータブル電子デバイス。
(項目19)
前記方法はさらに、
前記遠隔位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームとローカル座標フレームとの間の変換を取得する行為を含む、項目11に記載のポータブル電子デバイス。
(項目20)
コンピュータ可読媒体であって、前記コンピュータ可読媒体は、コンピュータ実行可能命令を記憶しており、前記コンピュータ実行可能命令は、少なくとも1つのプロセッサによって実行されると、複数のタイプのデバイスが、少なくとも1つのネットワークを介して、遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスを動作させるための方法を実施するように構成され、前記ポータブル電子デバイスは、画像を捕捉するように構成され、前記方法は、
前記ポータブル電子デバイス上のセンサを用いて、複数の画像を捕捉する行為であって、前記複数の画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備える、行為と、
前記複数の画像を修正し、前記複数の画像内のピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化する行為と、
前記複数の修正された画像の少なくともサブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択する行為と、
特徴記述子を前記ピクセルの選択されたクラスタから生成する行為と、
前記ネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させる行為と
を含む、コンピュータ可読媒体。
(項目21)
複数のタイプのデバイスが、少なくとも1つのネットワークを介して、遠隔位置特定サービスと相互作用するクロスリアリティシステム内において、第1のタイプのポータブル電子デバイスを動作させる方法であって、前記ポータブル電子デバイスは、画像を捕捉するように構成され、前記方法は、
前記ポータブル電子デバイス上のセンサを用いて、複数の画像を捕捉する行為であって、前記捕捉された画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写する複数のピクセルを備える、行為と、
画像をフィルタリング除去することによって、前記複数の画像のサブセットを選択する行為と、
前記複数の画像のサブセット内のピクセルのクラスタを選択する行為であって、前記ピクセルの選択されたクラスタは、前記3D環境内の特徴を表す、行為と、
特徴記述子を前記ピクセルの選択されたクラスタから生成する行為と、
前記ネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させる行為と
を含む、方法。
(項目22)
前記画像をフィルタリング除去することによって、前記複数の画像のサブセットを選択することは、閾値を超えるモーションブラーが検出された画像をフィルタリング除去することを含む、項目21に記載の方法。
(項目23)
前記画像をフィルタリング除去することによって、前記複数の画像のサブセットを選択することは、過剰な明度が検出された画像をフィルタリング除去することを含む、項目21に記載の方法。
(項目24)
前記画像をフィルタリング除去することによって、前記複数の画像のサブセットを選択することは、前記画像が位置特定のために好適ではないと決定される場合、前記画像を破棄することを含む、項目21に記載の方法。
(項目25)
複数のポータブルデバイスを動作させ、仮想コンテンツを3次元(3D)環境内にレンダリングする方法であって、前記方法は、前記複数のポータブルデバイスのポータブルデバイスを備える1つまたはそれを上回るプロセッサを用いて、
前記ポータブルデバイス上に、前記ポータブルデバイス上の1つまたはそれを上回るセンサの出力に基づいて、ローカル座標フレームを生成する行為と、
前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成する行為と、
ネットワークを経由して、位置特定サービスに、前記特徴の複数の記述子と、前記ローカル座標フレーム内に表される前記特徴の位置情報とを送信する行為と、
前記位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を取得する行為と、
仮想オブジェクト座標フレームを有する仮想オブジェクトの仕様と、前記記憶された座標フレームに対する前記仮想オブジェクトの場所とを受信する行為と、
前記仮想オブジェクトを、前記ポータブルデバイスのディスプレイ上に、少なくとも部分的に前記算出された変換および前記仮想オブジェクトの受信された場所に基づいて決定された場所においてレンダリングする行為と
を含み、
複数のポータブル電子デバイスの少なくとも第1の部分は、ディスプレイ画面を伴うハンドヘルドデバイスを備え、前記複数のポータブル電子デバイスの第2の部分は、頭部搭載型ディスプレイを備える、方法。
(項目26)
前記ポータブルデバイス上に、ローカル座標フレームを維持することは、第2の複数のポータブルデバイス毎に、
前記3D環境についての複数の画像を前記ポータブルデバイスの1つまたはそれを上回るセンサから捕捉することと、
少なくとも部分的に、算出された1つまたはそれを上回る持続姿勢に基づいて、前記3D環境についての空間情報を生成することと
を含み、
前記方法は、前記複数のポータブルデバイスの第1および第2の部分のそれぞれが、遠隔サーバに、前記生成された空間情報を伝送することを含み、
前記位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を取得することは、前記変換をクラウドホストされる位置特定サービスから受信することを含む、
項目25に記載の方法。
(項目27)
前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
前記複数のポータブルデバイスの第1および第2の部分が、前記3D環境についての画像を捕捉することと、
前記複数のポータブルデバイスの第1の部分によって捕捉された画像を修正し、前記画像内のピクセルの値を前記複数のポータブルデバイスの第2の部分によって捕捉された画像の値に対して正規化することと
を含む、項目25に記載の方法。
(項目28)
前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
前記複数のポータブルデバイスの第1の部分が、前記3D環境についての画像を捕捉することと、
モーションブラーが検出された前記画像のうちの少なくともいくつかをフィルタリング除去することと
を含む、項目25に記載の方法。
(項目29)
ネットワークを経由して、位置特定サービスに、前記特徴の複数の記述子と、前記ローカル座標フレーム内に表される前記特徴の位置情報とを送信することは、前記複数のポータブルデバイスの第1の部分が、前記複数のポータブルデバイスの第2の部分が前記特徴の記述子を送信するより頻繁に、前記特徴の記述子を送信することを含む、項目25に記載の方法。
(項目30)
前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
前記複数のポータブルデバイスの第1および第2の部分が、前記3D環境についての画像を捕捉することであって、前記捕捉された画像は、ピクセルを備える、ことと、
前記複数のポータブルデバイスの第1の部分が、前記複数のポータブルデバイスの第2の部分が前記特徴の記述子を生成するために使用するより多くのピクセルの数を使用して、前記特徴の記述子を生成することと
を含む、項目25に記載の方法。
(項目31)
前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
前記複数のポータブルデバイスの第1の部分が、2次元特徴の記述子を生成することと、
前記複数のポータブルデバイスの第2の部分が、3次元特徴の記述子を生成することと
を含む、項目25に記載の方法。
(項目32)
クロスリアリティシステム内において、クラウドホストされる位置特定サービスを動作させ、複数のポータブルデバイスと相互作用する方法であって、前記複数のポータブルデバイスは、記憶された座標フレームの使用を通して、仮想コンテンツをXRシステムのフレームワーク内にレンダリングし、共有体験を複数のポータブルデバイスのそれぞれ上に提供し、前記方法は、1つまたはそれを上回るプロセッサを用いて、
前記複数のポータブルデバイスのポータブルデバイス毎に、
位置合わせ要求を前記ポータブルデバイスから受信する行為であって、前記位置合わせは、デバイス識別子と、前記ポータブルデバイスのタイプのインジケーションとを備える、行為と、
前記デバイス識別子と、前記ポータブルデバイスのタイプとを備える前記ポータブルデバイスに関するセッション記録を記憶する行為と、
クラウドホストされる位置特定サービスにおいて、ポータブル電子デバイスの3次元(3D)環境内の特徴のセットについての情報と、第1の座標フレーム内に表される特徴のセットの特徴に関する位置付け情報とを受信する行為と、
前記受信された特徴のセットにマッチングする特徴のセットを有する前記選択されたマップに基づいて、前記記憶されたマップのデータベースから記憶されたマップを選択する行為であって、前記選択された記憶されたマップは、第2の座標フレームを備える、行為と、
前記ポータブル電子デバイスの3次元(3D)環境内の特徴のセットと前記特徴のマッチングするセットとの間の算出された整合に基づいて、前記第1の座標フレームと前記第2の座標フレームとの間の変換を生成する行為であって、前記生成する行為の少なくとも1つの側面は、前記デバイスに関する個別のセッション記録内に記憶された前記デバイスのタイプに基づいて制御される、行為と、
前記変換を前記ポータブル電子デバイスに送信する行為と
を含む、方法。
(項目33)
前記複数のポータブルデバイスの第1の部分は、GPS対応であり、前記複数のポータブルデバイスの第2の部分は、GPS対応ではなく、
前記受信された特徴のセットにマッチングする特徴のセットを有する前記選択されたマップに基づいて、前記記憶されたマップのデータベースから記憶されたマップを選択することは、
前記複数のポータブルデバイスの第1の部分に関して、少なくとも部分的に、前記複数のポータブルデバイスの第1の部分のそれぞれによって提供されるGPS情報に基づいて、記憶されたマップを選択することと、
前記複数のポータブルデバイスの第2の部分に関して、少なくとも部分的に、前記複数のポータブルデバイスの第2の部分のそれぞれによって提供される無線フィンガプリント情報に基づいて、記憶されたマップを選択することと
を含む、項目32に記載の方法。
(項目34)
前記複数のポータブルデバイスの第1の部分は、第1のタイプであり、前記複数のポータブルデバイスの第2の部分は、第2のタイプであり、
前記受信された特徴のセットにマッチングする特徴のセットを有する前記選択されたマップに基づいて、前記記憶されたマップのデータベースから記憶されたマップを選択することは、特定のポータブルデバイスが前記第1のタイプであるかまたは前記第2のタイプであるかに応じて、特定のポータブルデバイスのための記憶されたマップを選択することを含む、
項目32に記載の方法。
(項目35)
少なくとも1つのコンピュータ可読媒体であって、前記少なくとも1つのコンピュータ可読媒体は、その上に記録される命令を有しており、前記命令は、ポータブルデバイスと、位置特定サービスとを備えるコンピューティングシステム内で実行されると、前記コンピューティングシステムに、方法を実施させ、前記方法は、
前記ポータブルデバイスのネイティブ拡張現実(AR)フレームワークから、前記ポータブルデバイスと前記ポータブルデバイスの物理的周囲との間の相互作用に関連する情報を受信する行為であって、前記情報は、前記物理的周囲に関連する画像を備える、行為と、
前記画像情報によって描写される前記物理的周囲の特徴の複数の記述子を生成する行為と、
ローカル座標フレーム内の位置情報と前記特徴の複数の記述子を関連付ける行為と、
前記位置特定サービスに、前記特徴の複数の記述子と、前記ローカル座標フレーム内に表される前記特徴の位置情報とを送信する行為と、
前記ポータブルデバイスの物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信する行為と、
前記場所が、前記ポータブルデバイスのディスプレイ上に、前記仮想コンテンツの規定された場所に基づいて、前記仮想コンテンツを前記物理的周囲に対して位置付けられるようにレンダリングする際に、前記ネイティブ拡張現実(AR)フレームワークによる使用のために構成されるように、前記変換を前記ポータブルデバイス上のアプリケーションによって規定された仮想コンテンツの場所に適用する行為と
を含む、少なくとも1つのコンピュータ可読媒体。
(項目36)
前記ポータブルデバイスの物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信することは、前記変換を前記位置特定サービスから受信することと、前記受信された変換を前記ネイティブARフレームワークによって使用可能なフォーマットに変換することとを含む、項目35に記載の少なくとも1つのコンピュータ可読媒体。
(項目37)
前記ポータブルデバイスの物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信することは、前記ネイティブARフレームワークによって使用可能なフォーマットにおいて、前記変換を前記位置特定サービスから受信することを含む、項目35に記載の少なくとも1つのコンピュータ可読媒体。
(項目38)
前記コンピューティングシステムは、複数のポータブルデバイスを備え、前記場所が、前記ポータブルデバイスのディスプレイ上に、前記仮想コンテンツの規定された場所に基づいて、前記仮想コンテンツを前記物理的周囲に対して位置付けられるようにレンダリングする際に、前記ネイティブ拡張現実(AR)フレームワークによる使用のために構成されるように、前記変換を前記ポータブルデバイス上のアプリケーションによって規定された仮想コンテンツの場所に適用することは、前記複数のポータブルデバイスのそれぞれ上のアプリケーションに、前記場面内の前記仮想オブジェクトを前記複数のポータブルデバイスの全てのディスプレイ上にレンダリングする際に前記アプリケーションによる使用のための変換を提供することを含む、項目35に記載の少なくとも1つのコンピュータ可読媒体。
(項目39)
前記ポータブルデバイスの物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信することは、ネイティブARフレームワークによって使用されるアンカのフォーマットにおいて、前記変換を受信することを含む、項目35に記載の少なくとも1つのコンピュータ可読媒体。

Claims (59)

  1. 複数のタイプのデバイス少なくとも1つのネットワークを介し遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスの作動方法であって、前記ポータブル電子デバイスは、画像を捕捉するように構成され、前記方法は、
    前記ポータブル電子デバイス上のセンサを用いて、複数の画像を捕捉する行為であって、前記複数の画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備える、行為と、
    前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化する行為と、
    少なくとも前記複数の修正された画像サブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択する行為と、
    特徴記述子を前記ピクセルの選択されたクラスタから生成する行為と、
    前記少なくとも1つのネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させる行為と
    を含む、方法。
  2. 前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、前記センサによって捕捉された複数の画像のピクセルに関する明度値を修正することを含む、請求項1に記載の方法。
  3. 前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、ガンマ補正を前記複数の画像に適用することを含む、請求項2に記載の方法。
  4. 前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは雑音除去動作を前記複数の画像に適用することをさらに含む、請求項3に記載の方法。
  5. 少なくとも前記複数の修正された画像サブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することはレンズ陰影補正動作を前記複数の画像に適用することをさらに含む、請求項1~4のいずれかに記載の方法。
  6. 前記ポータブル電子デバイスは、スマートフォンであり、前記センサは、前記スマートフォン上のカメラである、請求項1~4のいずれかに記載の方法。
  7. 少なくとも前記複数の修正された画像サブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することは、前記複数の修正された画像のサブセット内のピクセルのクラスタを選択することを含み、前記サブセットは、少なくとも部分的に、前記画像内で検出されたモーションブラーに基づいて、前記複数の修正された画像のうちの画像をフィルタリング除去することによって形成される、請求項1~4のいずれかに記載の方法。
  8. 前記ポータブル電子デバイスは、ハンドヘルドデバイスであり、
    前記第2のタイプは、その上に搭載される複数のカメラを備える頭部搭載型ディスプレイを備えるウェアラブルデバイスである、請求項1~4のいずれかに記載の方法。
  9. 特徴記述子を前記ピクセルの選択されたクラスタから生成することは、前記特徴記述子と関連付けられる場所情報を生成することを含む、請求項1~4のいずれかに記載の方法。
  10. 前記遠隔位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームとローカル座標フレームとの間の変換を取得する行為
    をさらに含む、請求項1~4のいずれかに記載の方法。
  11. 複数のタイプのデバイス少なくとも1つのネットワークを介し遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスであって、前記ポータブル電子デバイスは、画像を捕捉するように構成され、
    複数の画像を捕捉するように構成されるセンサと、
    コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、
    前記ポータブル電子デバイス上のセンサを用いて、前記複数の画像を捕捉することであって、前記複数の画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備える、ことと、
    前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することと、
    少なくとも前記複数の修正された画像サブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することと、
    特徴記述子を前記ピクセルの選択されたクラスタから生成することと、
    前記少なくとも1つのネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させることと
    を行うための命令を備える、少なくとも1つのプロセッサと
    を備える、ポータブル電子デバイス。
  12. 前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、前記センサによって捕捉された複数の画像のピクセルに関する明度値を修正することを含む、請求項11に記載のポータブル電子デバイス。
  13. 前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、ガンマ補正を前記複数の画像に適用することを含む、請求項12に記載のポータブル電子デバイス。
  14. 前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは雑音除去動作を前記複数の画像に適用することをさらに含む、請求項13に記載のポータブル電子デバイス。
  15. 少なくとも前記複数の修正された画像サブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することはレンズ陰影補正動作を前記複数の画像に適用することをさらに含む、請求項13に記載のポータブル電子デバイス。
  16. 前記ポータブル電子デバイスは、スマートフォンであり、前記センサは、前記スマートフォン上のカメラであり、
    少なくとも前記複数の修正された画像サブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択することは、前記複数の修正された画像のサブセット内のピクセルのクラスタを選択することを含み、前記サブセットは、少なくとも部分的に、前記画像内で検出されたモーションブラーに基づいて、前記複数の修正された画像のうちの画像をフィルタリング除去することによって形成される、請求項11に記載のポータブル電子デバイス。
  17. 前記ポータブル電子デバイスは、ハンドヘルドデバイスであり、
    前記第2のタイプは、その上に搭載される複数のカメラを備える頭部搭載型ディスプレイを備えるウェアラブルデバイスである、請求項11に記載のポータブル電子デバイス。
  18. 特徴記述子を前記ピクセルの選択されたクラスタから生成することは、前記特徴記述子と関連付けられる場所情報を生成することを含む、請求項11~17のいずれかに記載のポータブル電子デバイス。
  19. 前記コンピュータ実行可能命令前記遠隔位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームとローカル座標フレームとの間の変換を取得するための命令を備える、請求項11~17のいずれかに記載のポータブル電子デバイス。
  20. 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、コンピュータ実行可能命令を記憶しており、前記コンピュータ実行可能命令は、少なくとも1つのプロセッサによって実行されると、複数のタイプのデバイス少なくとも1つのネットワークを介し遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスの作動方法を実施するように構成され、前記ポータブル電子デバイスは、画像を捕捉するように構成され、前記方法は、
    前記ポータブル電子デバイス上のセンサを用いて、複数の画像を捕捉する行為であって、前記複数の画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備える、行為と、
    前記複数の画像を修正し、前記複数の画像内の前記ピクセルの値を第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化する行為と、
    少なくとも前記複数の修正された画像サブセット内のピクセルのクラスタを前記3D環境内の特徴を表すものとして選択する行為と、
    特徴記述子を前記ピクセルの選択されたクラスタから生成する行為と、
    前記少なくとも1つのネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させる行為と
    を含む、非一過性コンピュータ可読媒体。
  21. 複数のタイプのデバイス少なくとも1つのネットワークを介し遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスの作動方法であって、前記ポータブル電子デバイスは、画像を捕捉するように構成され、前記方法は、
    前記ポータブル電子デバイス上のセンサを用いて、複数の画像を捕捉する行為であって、前記捕捉された画像は、捕捉時における前記ポータブル電子デバイスの3次元(3D)環境を描写する複数のピクセルを備える、行為と、
    画像をフィルタリング除去することによって、前記複数の画像のサブセットを選択する行為と、
    前記複数の画像のサブセット内のピクセルのクラスタを選択する行為であって、前記ピクセルの選択されたクラスタは、前記3D環境内の特徴を表す、行為と、
    特徴記述子を前記ピクセルの選択されたクラスタから生成する行為と、
    前記ネットワークを介して、前記特徴記述子を前記遠隔位置特定サービスに伝送させる行為と
    を含む、方法。
  22. 像をフィルタリング除去することによって、前記複数の画像のサブセットを選択することは、閾値を超えるモーションブラーが検出された画像をフィルタリング除去することを含む、請求項21に記載の方法。
  23. 像をフィルタリング除去することによって、前記複数の画像のサブセットを選択することは、過剰な明度が検出された画像をフィルタリング除去することを含む、請求項21に記載の方法。
  24. 像をフィルタリング除去することによって、前記複数の画像のサブセットを選択することは、前記画像が位置特定のために好適ではないと決定される場合、前記画像を破棄することを含む、請求項21~23のいずれかに記載の方法。
  25. 想コンテンツを3次元(3D)環境内にレンダリングするための複数のポータブルデバイスの作動方法であって、前記方法は、前記複数のポータブルデバイスのうちのポータブルデバイスを備える1つまたはそれを上回るプロセッサを用いて、
    前記ポータブルデバイス上に、前記ポータブルデバイス上の1つまたはそれを上回るセンサの出力に基づいて、ローカル座標フレームを生成する行為と、
    前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成する行為と、
    ネットワークを経由して、位置特定サービスに、前記特徴の複数の記述子と、前記ローカル座標フレーム内に表される前記特徴の位置情報とを送信する行為と、
    前記位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を取得する行為と、
    仮想オブジェクト座標フレームを有する仮想オブジェクトの仕様と、前記記憶された座標フレームに対する前記仮想オブジェクトの場所とを受信する行為と、
    前記仮想オブジェクトを、前記ポータブルデバイスのディスプレイ上に、少なくとも部分的に前記算出された変換および前記仮想オブジェクトの前記受信された場所に基づいて決定された場所においてレンダリングする行為と
    を含み、
    複数のポータブル電子デバイスの少なくとも第1の部分は、ディスプレイ画面を伴うハンドヘルドデバイスを備え、前記複数のポータブル電子デバイスの第2の部分は、頭部搭載型ディスプレイを備える、方法。
  26. 前記ポータブルデバイス上に、ローカル座標フレームを維持することは、第2の複数のポータブルデバイス毎に、
    前記3D環境についての複数の画像を前記ポータブルデバイスの1つまたはそれを上回るセンサから捕捉することと、
    出された1つまたはそれを上回る持続姿勢に少なくとも部分的に基づいて、前記3D環境についての空間情報を生成することと
    を含み、
    前記方法は、前記複数のポータブルデバイスの第1および第2の部分のそれぞれが、遠隔サーバに、前記生成された空間情報を伝送することを含み、
    前記位置特定サービスから、前記3D環境についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を取得することは、前記変換をクラウドホストされる位置特定サービスから受信することを含む、請求項25に記載の方法。
  27. 前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
    前記複数のポータブルデバイスの第1および第2の部分が、前記3D環境についての画像を捕捉することと、
    前記複数のポータブルデバイスの第1の部分によって捕捉された画像を修正し、前記画像内のピクセルの値を前記複数のポータブルデバイスの第2の部分によって捕捉された画像の値に対して正規化することと
    を含む、請求項25に記載の方法。
  28. 前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
    前記複数のポータブルデバイスの第1の部分が、前記3D環境についての画像を捕捉することと、
    モーションブラーが検出された前記画像のうちの少なくともいくつかをフィルタリング除去することと
    を含む、請求項25に記載の方法。
  29. 前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
    前記複数のポータブルデバイスの第1および第2の部分が、前記3D環境についての画像を捕捉することであって、前記捕捉された画像は、ピクセルを備える、ことと、
    前記複数のポータブルデバイスの第1の部分が、前記複数のポータブルデバイスの第2の部分が前記特徴の記述子を生成するために使用するより多くのピクセルの数を使用して、前記特徴の記述子を生成することと
    を含む、請求項25に記載の方法。
  30. 前記ポータブルデバイス上に、前記3D環境内で感知される複数の特徴に関する複数の記述子を生成することは、
    前記複数のポータブルデバイスの第1の部分が、2次元特徴の記述子を生成することと、
    前記複数のポータブルデバイスの第2の部分が、3次元特徴の記述子を生成することと
    を含む、請求項25に記載の方法。
  31. ネットワークを経由して、位置特定サービスに、前記特徴の複数の記述子と、前記ローカル座標フレーム内に表される前記特徴の位置情報とを送信することは、前記複数のポータブルデバイスの第1の部分が、前記複数のポータブルデバイスの第2の部分が前記特徴の記述子を送信するより頻繁に、前記特徴の記述子を送信することを含む、請求項25~30のいずれかに記載の方法。
  32. 数のポータブルデバイスと相互作用するためのクロスリアリティシステム内におけるクラウドホストされる位置特定サービスの作動方法であって、前記複数のポータブルデバイスは、記憶された座標フレームの使用を通して、仮想コンテンツをXRシステムのフレームワーク内にレンダリングし、共有体験を複数のポータブルデバイスのそれぞれ上に提供し、前記方法は、1つまたはそれを上回るプロセッサを用いて、
    前記複数のポータブルデバイスのポータブルデバイス毎に、
    位置合わせ要求を前記ポータブルデバイスから受信する行為であって、前記位置合わせは、デバイス識別子と、前記ポータブルデバイスのタイプのインジケーションとを備える、行為と、
    前記デバイス識別子と、前記ポータブルデバイスのタイプとを備える前記ポータブルデバイスに関するセッション記録を記憶する行為と、
    クラウドホストされる位置特定サービスにおいて、ポータブル電子デバイスの3次元(3D)環境内の特徴のセットについての情報と、第1の座標フレーム内に表される特徴のセットの特徴に関する位置付け情報とを受信する行為と、
    選択されたマップが前記受信された特徴のセットにマッチングする特徴のセットを有することに基づいて記憶されたマップのデータベースから記憶されたマップを選択する行為であって、前記選択された記憶されたマップは、第2の座標フレームを備える、行為と、
    前記ポータブル電子デバイスの前記3次元(3D)環境内の特徴のセットと前記マッチングする特徴のセットとの間の算出された整合に基づいて、前記第1の座標フレームと前記第2の座標フレームとの間の変換を生成する行為であって、前記生成する行為の少なくとも1つの側面は、前記デバイスに関する個別のセッション記録内に記憶された前記デバイスのタイプに基づいて制御される、行為と、
    前記変換を前記ポータブル電子デバイスに送信する行為と
    を含む、方法。
  33. 前記複数のポータブルデバイスの第1の部分は、第1のタイプであり、前記複数のポータブルデバイスの第2の部分は、第2のタイプであり、
    前記選択されたマップが前記受信された特徴のセットにマッチングする特徴のセットを有することに基づいて、前記記憶されたマップのデータベースから記憶されたマップを選択することは、特定のポータブルデバイスが前記第1のタイプであるかまたは前記第2のタイプであるかに応じて、前記特定のポータブルデバイスのための記憶されたマップを選択することを含む、請求項32に記載の方法。
  34. 前記複数のポータブルデバイスの第1の部分は、GPS対応であり、前記複数のポータブルデバイスの第2の部分は、GPS対応ではなく、
    前記選択されたマップが前記受信された特徴のセットにマッチングする特徴のセットを有することに基づいて、前記記憶されたマップのデータベースから記憶されたマップを選択することは、
    前記複数のポータブルデバイスの第1の部分に関して前記複数のポータブルデバイスの第1の部分のそれぞれによって提供されるGPS情報に少なくとも部分的に基づいて、記憶されたマップを選択することと、
    前記複数のポータブルデバイスの第2の部分に関して前記複数のポータブルデバイスの第2の部分のそれぞれによって提供される無線フィンガプリント情報に少なくとも部分的に基づいて、記憶されたマップを選択することと
    を含む、請求項32または請求項33に記載の方法。
  35. 少なくとも1つの非一過性コンピュータ可読媒体であって、前記少なくとも1つの非一過性コンピュータ可読媒体は、その上に記録される命令を有しており、前記命令は、ポータブルデバイス位置特定サービスとを備えるコンピューティングシステム内で実行されると、前記コンピューティングシステムに、方法を実施させ、前記方法は、
    前記ポータブルデバイスのネイティブ拡張現実(AR)フレームワークから、前記ポータブルデバイスと前記ポータブルデバイスの物理的周囲との間の相互作用に関連する情報を受信する行為であって、前記情報は、前記物理的周囲に関連する画像情報を備える、行為と、
    前記画像情報によって描写される前記物理的周囲の特徴の複数の記述子を生成する行為と、
    ローカル座標フレーム内の位置情報と前記特徴の複数の記述子を関連付ける行為と、
    前記位置特定サービスに、前記特徴の複数の記述子と、前記ローカル座標フレーム内に表される前記特徴の位置情報とを送信する行為と、
    前記ポータブルデバイスの前記物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信する行為と、
    前記場所が、前記ポータブルデバイスのディスプレイ上に、前記仮想コンテンツの規定された場所に基づいて、前記仮想コンテンツを前記物理的周囲に対して位置付けられるようにレンダリングする際に、前記ネイティブ拡張現実(AR)フレームワークによる使用のために構成されるように、前記変換を前記ポータブルデバイス上のアプリケーションによって規定された仮想コンテンツの場所に適用する行為と
    を含む、少なくとも1つの非一過性コンピュータ可読媒体。
  36. 前記ポータブルデバイスの前記物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信することは、前記変換を前記位置特定サービスから受信することと、前記受信された変換を前記ネイティブARフレームワークによって使用可能なフォーマットに変換することとを含む、請求項35に記載の少なくとも1つの非一過性コンピュータ可読媒体。
  37. 前記ポータブルデバイスの前記物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信することは、前記ネイティブARフレームワークによって使用可能なフォーマットにおいて、前記変換を前記位置特定サービスから受信することを含む、請求項35に記載の少なくとも1つの非一過性コンピュータ可読媒体。
  38. 前記ポータブルデバイスの前記物理的周囲についての記憶された空間情報の記憶された座標フレームと前記ローカル座標フレームとの間の変換を受信することは、ネイティブARフレームワークによって使用されるアンカのフォーマットにおいて、前記変換を受信することを含む、請求項35に記載の少なくとも1つの非一過性コンピュータ可読媒体。
  39. 前記コンピューティングシステムは、複数のポータブルデバイスを備え、前記場所が、前記ポータブルデバイスのディスプレイ上に、前記仮想コンテンツの規定された場所に基づいて、前記仮想コンテンツを前記物理的周囲に対して位置付けられるようにレンダリングする際に、前記ネイティブ拡張現実(AR)フレームワークによる使用のために構成されるように、前記変換を前記ポータブルデバイス上のアプリケーションによって規定された仮想コンテンツの場所に適用することは、前記複数のポータブルデバイスのそれぞれ上のアプリケーションに場面内の前記仮想オブジェクトを前記複数のポータブルデバイスの全てのディスプレイ上にレンダリングする際に前記アプリケーションによる使用のための変換を提供することを含む、請求項35~38のいずれかに記載の少なくとも1つの非一過性コンピュータ可読媒体。
  40. 複数のタイプのデバイスが少なくとも1つのネットワークを介して遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスの作動方法であって、前記方法は、
    前記第1のタイプのポータブル電子デバイス上の1つまたはそれを上回るセンサを用いて、複数の画像を捕捉することであって、前記複数の画像は、捕捉時における前記第1のタイプのポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備え、前記捕捉することは、前記第1のタイプのポータブル電子デバイスのネイティブARフレームワークによって制御される、ことと、
    前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することであって、前記第1のタイプのポータブルデバイスの前記ネイティブARフレームワークは、前記遠隔位置特定サービスと動作するように構成されておらず、前記第2のタイプの電子デバイスは、前記遠隔位置特定サービスと動作するように構成されるネイティブARフレームワークを備える、ことと、
    少なくとも前記複数の修正された画像のサブセットに関連する情報を前記遠隔位置特定サービスに伝送させることであって、前記第1のタイプのポータブルデバイスは、少なくとも前記複数の修正された画像のサブセットを前記遠隔位置特定サービスに伝送するように、前記少なくとも1つのネットワークを介して前記遠隔位置特定サービスと通信するように構成される1つまたはそれを上回るコンポーネントを備える、ことと
    を含む、方法。
  41. 前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像は、2次元(2D)画像であり、
    前記第2のタイプの電子デバイスは、3次元(3D)画像を捕捉するように構成される、請求項40に記載の方法。
  42. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記センサによって捕捉された前記複数の画像のピクセルのための着目パラメータに関する値を、前記複数の画像が前記第2のタイプの電子デバイスによって捕捉された場合に予期される値に近似するように、変化させること
    を含む、請求項40に記載の方法。
  43. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記複数の画像のうちの1つの第1の数のピクセルのための着目パラメータに関する値を、前記第2のタイプの電子デバイスを用いて捕捉された前記画像に従って第2の数のピクセルにマッピングすることであって、前記第2の数は、前記第1の数と異なる、こと
    を含む、請求項40に記載の方法。
  44. 前記第1の数は、前記第2の数未満であり、
    前記第1の数のピクセルは、前記第2の数のピクセルが、前記画像が前記第2のタイプの電子デバイスによって捕捉された場合のような値を有する画像を形成するように、前記第2の数のピクセルに補間される、請求項43に記載の方法。
  45. 前記ポータブル電子デバイスは、ハンドヘルドデバイスであって、
    前記第2のタイプは、その上に搭載される複数のカメラを備える頭部搭載型ディスプレイを備えるウェアラブルデバイスである、請求項40に記載の方法。
  46. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記複数の画像のうちの少なくとも2つの画像を組み合わせ、単一の正規化された画像を形成すること
    を含む、請求項40に記載の方法。
  47. 複数のタイプのデバイスが少なくとも1つのネットワークを介して遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスであって、前記第1のタイプのポータブル電子デバイスは、
    複数の画像を捕捉するように構成される1つまたはそれを上回るセンサと、
    コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、
    前記第1のタイプのポータブル電子デバイス上の1つまたはそれを上回るセンサを用いて、複数の画像を捕捉することであって、前記複数の画像は、捕捉時における前記第1のタイプのポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備え、前記捕捉することは、前記第1のタイプのポータブル電子デバイスのネイティブARフレームワークによって制御される、ことと、
    前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することであって、前記第1のタイプのポータブルデバイスの前記ネイティブARフレームワークは、前記遠隔位置特定サービスと動作するように構成されておらず、前記第2のタイプの電子デバイスは、前記遠隔位置特定サービスと動作するように構成されるネイティブARフレームワークを備える、ことと、
    少なくとも前記複数の修正された画像のサブセットに関連する情報を前記遠隔位置特定サービスに伝送させることであって、前記第1のタイプのポータブルデバイスは、少なくとも前記複数の修正された画像のサブセットを前記遠隔位置特定サービスに伝送するように、前記少なくとも1つのネットワークを介して前記遠隔位置特定サービスと通信するように構成される1つまたはそれを上回るコンポーネントを備える、ことと
    を含む方法を実施するための命令を備える、ポータブル電子デバイス。
  48. 前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像は、2次元(2D)画像であり、
    前記第2のタイプの電子デバイスは、3次元(3D)画像を捕捉するように構成される、請求項47に記載のポータブル電子デバイス。
  49. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記センサによって捕捉された前記複数の画像のピクセルのための着目パラメータに関する値を、前記複数の画像が前記第2のタイプの電子デバイスによって捕捉された場合に予期される値に近似するように、変化させること
    を含む、請求項47に記載のポータブル電子デバイス。
  50. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記複数の画像のうちの1つの第1の数のピクセルのための着目パラメータに関する値を、前記第2のタイプの電子デバイスを用いて捕捉された前記画像に従って第2の数のピクセルにマッピングすることであって、前記第2の数は、前記第1の数と異なる、こと
    を含む、請求項47に記載のポータブル電子デバイス。
  51. 前記第1の数は、前記第2の数未満であり、
    前記第1の数のピクセルは、前記第2の数のピクセルが、前記画像が前記第2のタイプの電子デバイスによって捕捉された場合のような値を有する画像を形成するように、前記第2の数のピクセルに補間される、請求項50に記載のポータブル電子デバイス。
  52. 前記ポータブル電子デバイスは、ハンドヘルドデバイスであって、
    前記第2のタイプは、その上に搭載される複数のカメラを備える頭部搭載型ディスプレイを備えるウェアラブルデバイスである、請求項47に記載のポータブル電子デバイス。
  53. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記複数の画像のうちの少なくとも2つの画像を組み合わせ、単一の正規化された画像を形成すること
    を含む、請求項47に記載のポータブル電子デバイス。
  54. コンピュータ実行可能命令を記憶する非一過性コンピュータ可読媒体であって、前記コンピュータ実行可能命令は、少なくとも1つのプロセッサによって実行されると、複数のタイプのデバイスが少なくとも1つのネットワークを介して遠隔位置特定サービスと相互作用するクロスリアリティシステム内における第1のタイプのポータブル電子デバイスの作動方法を実施するように構成され、前記方法は、
    前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて、複数の画像を捕捉することであって、前記複数の画像は、捕捉時における前記第1のタイプのポータブル電子デバイスの3次元(3D)環境を描写するピクセルを備え、前記捕捉することは、前記ポータブル電子デバイスのネイティブARフレームワークによって制御される、ことと、
    前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することであって、前記第1のタイプのポータブルデバイスの前記ネイティブARフレームワークは、前記遠隔位置特定サービスと動作するように構成されておらず、前記第2のタイプの電子デバイスは、前記遠隔位置特定サービスと動作するように構成されるネイティブARフレームワークを備える、ことと、
    少なくとも前記複数の修正された画像のサブセットに関連する情報を前記遠隔位置特定サービスに伝送させることであって、前記第1のタイプのポータブルデバイスは、少なくとも前記複数の修正された画像のサブセットを前記遠隔位置特定サービスに伝送するように、前記少なくとも1つのネットワークを介して前記遠隔位置特定サービスと通信するように構成される1つまたはそれを上回るコンポーネントを備える、ことと
    を含む、非一過性コンピュータ可読媒体。
  55. 前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像は、2次元(2D)画像であり、
    前記第2のタイプの電子デバイスは、3次元(3D)画像を捕捉するように構成される、請求項54に記載の非一過性コンピュータ可読媒体。
  56. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記センサによって捕捉された前記複数の画像のピクセルのための着目パラメータに関する値を、前記複数の画像が前記第2のタイプの電子デバイスによって捕捉された場合に予期される値に近似するように、変化させること
    を含む、請求項54に記載の非一過性コンピュータ可読媒体。
  57. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記複数の画像のうちの1つの第1の数のピクセルのための着目パラメータに関する値を、前記第2のタイプの電子デバイスを用いて捕捉された前記画像に従って第2の数のピクセルにマッピングすることであって、前記第2の数は、前記第1の数と異なる、こと
    を含む、請求項54に記載の非一過性コンピュータ可読媒体。
  58. 前記第1の数は、前記第2の数未満であり、
    前記第1の数のピクセルは、前記第2の数のピクセルが、前記画像が前記第2のタイプの電子デバイスによって捕捉された場合のような値を有する画像を形成するように、前記第2の数のピクセルに補間される、請求項57に記載の非一過性コンピュータ可読媒体。
  59. 前記複数の画像を修正し、前記第1のタイプのポータブル電子デバイス上の前記1つまたはそれを上回るセンサを用いて捕捉された前記複数の画像内のピクセルの値を、前記第2のタイプの電子デバイスを用いて捕捉された画像内のピクセルの値に対して正規化することは、
    前記複数の画像のうちの少なくとも2つの画像を組み合わせ、単一の正規化された画像を形成すること
    を含む、請求項54に記載の非一過性コンピュータ可読媒体。
JP2022522303A 2019-10-15 2020-10-15 複数のデバイスタイプをサポートするクロスリアリティシステム Pending JP2022551734A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962915575P 2019-10-15 2019-10-15
US62/915,575 2019-10-15
PCT/US2020/055784 WO2021076757A1 (en) 2019-10-15 2020-10-15 Cross reality system supporting multiple device types

Publications (2)

Publication Number Publication Date
JP2022551734A JP2022551734A (ja) 2022-12-13
JPWO2021076757A5 true JPWO2021076757A5 (ja) 2023-10-12

Family

ID=75383786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522303A Pending JP2022551734A (ja) 2019-10-15 2020-10-15 複数のデバイスタイプをサポートするクロスリアリティシステム

Country Status (5)

Country Link
US (2) US11257294B2 (ja)
EP (1) EP4046070A4 (ja)
JP (1) JP2022551734A (ja)
CN (1) CN114586071A (ja)
WO (1) WO2021076757A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10957112B2 (en) 2018-08-13 2021-03-23 Magic Leap, Inc. Cross reality system
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
WO2020072985A1 (en) 2018-10-05 2020-04-09 Magic Leap, Inc. Rendering location specific virtual content in any location
JP2020089947A (ja) * 2018-12-06 2020-06-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2021076754A1 (en) 2019-10-15 2021-04-22 Magic Leap, Inc. Cross reality system with localization service
US11632679B2 (en) 2019-10-15 2023-04-18 Magic Leap, Inc. Cross reality system with wireless fingerprints
US11386627B2 (en) 2019-11-12 2022-07-12 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
US11562542B2 (en) 2019-12-09 2023-01-24 Magic Leap, Inc. Cross reality system with simplified programming of virtual content
US11410395B2 (en) 2020-02-13 2022-08-09 Magic Leap, Inc. Cross reality system with accurate shared maps
US11830149B2 (en) 2020-02-13 2023-11-28 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
WO2021163300A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
US11551430B2 (en) 2020-02-26 2023-01-10 Magic Leap, Inc. Cross reality system with fast localization
WO2021222371A1 (en) 2020-04-29 2021-11-04 Magic Leap, Inc. Cross reality system for large scale environments
US11972576B2 (en) * 2020-06-30 2024-04-30 Lyft, Inc. Generating and fusing reconstructions using overlapping map segments
US11522945B2 (en) * 2020-10-20 2022-12-06 Iris Tech Inc. System for providing synchronized sharing of augmented reality content in real time across multiple devices
WO2022245855A1 (en) * 2021-05-18 2022-11-24 Snap Inc. Varied depth determination using stereo vision and phase detection auto focus (pdaf)
US20220375041A1 (en) * 2021-05-18 2022-11-24 Snap Inc. Selective image pyramid computation for motion blur mitigation in visual-inertial tracking
CN114359392B (zh) * 2022-03-16 2022-07-26 荣耀终端有限公司 一种视觉定位方法、装置、芯片系统及存储介质
WO2023219615A1 (en) * 2022-05-11 2023-11-16 Innopeak Technology, Inc. Tracking of multiple extended reality devices
CN115361583B (zh) * 2022-08-10 2024-05-17 吉林动画学院 针对APP与Unity实时渲染视频帧纹理的方法

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100483806B1 (ko) * 2002-07-18 2005-04-20 한국과학기술원 예제동작을 이용한 영상기반 동작복원방법
EP1571834B1 (en) * 2004-03-05 2010-09-15 Mega Vision Corporation Processing apparatus and computer program for adjusting gamma value
US20050228849A1 (en) * 2004-03-24 2005-10-13 Tong Zhang Intelligent key-frame extraction from a video
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US20080303787A1 (en) 2005-10-21 2008-12-11 Zheng Yu Brian Touch Screen Apparatus And Methods
JP2009541017A (ja) 2006-06-26 2009-11-26 アイコシステム コーポレーション ビデオゲームにおいてアバター及び他の生物的又は無生物的アイテムを対話的にカスタマイズする方法及びシステム
US20080090659A1 (en) 2006-10-12 2008-04-17 Maximino Aguilar Virtual world event notification from a persistent world game server in a logically partitioned game console
US8306348B2 (en) * 2007-04-24 2012-11-06 DigitalOptics Corporation Europe Limited Techniques for adjusting the effect of applying kernels to signals to achieve desired effect on signal
JP4292426B2 (ja) 2007-05-15 2009-07-08 ソニー株式会社 撮像装置および撮像データ補正方法
GB0818561D0 (en) 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
US20100208033A1 (en) 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US20100257252A1 (en) * 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
US8839121B2 (en) 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US8514491B2 (en) * 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8185596B2 (en) 2010-02-22 2012-05-22 Samsung Electronics Co., Ltd. Location-based communication method and system
KR20160084502A (ko) 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US8526368B2 (en) 2011-05-17 2013-09-03 Qualcomm Incorporated Wi-Fi access point characteristics database
US20120314031A1 (en) 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
US9082214B2 (en) 2011-07-01 2015-07-14 Disney Enterprises, Inc. 3D drawing system for providing a real time, personalized, and immersive artistic experience
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
EP2751742A1 (en) 2011-08-31 2014-07-09 metaio GmbH Method of matching image features with reference features
US8243102B1 (en) 2011-10-12 2012-08-14 Google Inc. Derivative-based selection of zones for banded map display
US20130141419A1 (en) 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
EP2797542B1 (en) 2011-12-30 2019-08-28 MAKO Surgical Corp. Systems and methods for customizing interactive haptic boundaries
US9530221B2 (en) 2012-01-06 2016-12-27 Pelco, Inc. Context aware moving object detection
EP2812089B1 (en) 2012-02-06 2019-04-10 Sony Interactive Entertainment Europe Limited Book object for augmented reality
US9386297B2 (en) * 2012-02-24 2016-07-05 Casio Computer Co., Ltd. Image generating apparatus generating reconstructed image, method, and computer-readable recording medium
KR20130110907A (ko) 2012-03-30 2013-10-10 삼성전자주식회사 가상 현실과 증강 현실을 이용한 원격 제어 장치 및 방법
US9293118B2 (en) 2012-03-30 2016-03-22 Sony Corporation Client device
US9122321B2 (en) 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
WO2013167864A1 (en) 2012-05-11 2013-11-14 Milan Momcilo Popovich Apparatus for eye tracking
US11089247B2 (en) * 2012-05-31 2021-08-10 Apple Inc. Systems and method for reducing fixed pattern noise in image data
US9743057B2 (en) * 2012-05-31 2017-08-22 Apple Inc. Systems and methods for lens shading correction
US9311750B2 (en) 2012-06-05 2016-04-12 Apple Inc. Rotation operations in a mapping application
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
CN115494654A (zh) 2012-06-11 2022-12-20 奇跃公司 使用波导反射器阵列投射器的多深度平面三维显示器
GB2506338A (en) 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
US8829409B2 (en) 2012-10-10 2014-09-09 Thermo Fisher Scientific Inc. Ultra-high speed imaging array with orthogonal readout architecture
CN102932582B (zh) * 2012-10-26 2015-05-27 华为技术有限公司 实现运动检测的方法及装置
US9596481B2 (en) * 2013-01-30 2017-03-14 Ati Technologies Ulc Apparatus and method for video data processing
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
EP2808842B1 (en) 2013-05-31 2017-08-16 Technische Universität München An apparatus and method for tracking and reconstructing three-dimensional objects
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9329682B2 (en) 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US9779548B2 (en) 2013-06-25 2017-10-03 Jordan Kent Weisman Multiuser augmented reality system
US10533850B2 (en) * 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
WO2015006784A2 (en) * 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
IL291010B2 (en) 2013-11-27 2024-01-01 Magic Leap Inc Virtual and augmented reality systems and methods
WO2015094360A1 (en) 2013-12-20 2015-06-25 Intel Corporation Wi-fi scan scheduling and power adaptation for low-power indoor location
US10586395B2 (en) 2013-12-30 2020-03-10 Daqri, Llc Remote object detection and local tracking using visual odometry
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9830679B2 (en) 2014-03-25 2017-11-28 Google Llc Shared virtual reality
WO2015155628A1 (en) * 2014-04-07 2015-10-15 Eyeways Systems Ltd. Apparatus and method for image-based positioning, orientation and situational awareness
GB2526263B (en) 2014-05-08 2019-02-06 Sony Interactive Entertainment Europe Ltd Image capture method and apparatus
AU2015274283B2 (en) 2014-06-14 2020-09-10 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN104143212A (zh) 2014-07-02 2014-11-12 惠州Tcl移动通信有限公司 基于穿戴设备的增强现实方法及系统
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US9596411B2 (en) * 2014-08-25 2017-03-14 Apple Inc. Combined optical and electronic image stabilization
US10509865B2 (en) 2014-09-18 2019-12-17 Google Llc Dress form for three-dimensional drawing inside virtual reality environment
US10719727B2 (en) * 2014-10-01 2020-07-21 Apple Inc. Method and system for determining at least one property related to at least part of a real environment
CN106663411A (zh) 2014-11-16 2017-05-10 易欧耐特感知公司 用于增强现实准备、处理和应用的系统和方法
CN107209247B (zh) 2014-12-04 2021-06-18 赫尔环球有限公司 支持数据的协作收集
US9685005B2 (en) 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US9697796B2 (en) * 2015-03-26 2017-07-04 Intel Corporation Adaptive linear luma domain video pipeline architecture
US20160300389A1 (en) 2015-04-08 2016-10-13 Exactigo, Inc. Correlated immersive virtual simulation for indoor navigation
US9467718B1 (en) 2015-05-06 2016-10-11 Echostar Broadcasting Corporation Apparatus, systems and methods for a content commentary community
KR101725478B1 (ko) 2015-05-21 2017-04-11 주식회사 맥스트 3d 점군 인식 기반의 증강 현실 출력 방법과 이를 수행하기 위한 장치 및 시스템
US20160381118A1 (en) 2015-06-23 2016-12-29 Microsoft Technology Licensing, Llc Extracting and formatting content from web-resources
US10335572B1 (en) * 2015-07-17 2019-07-02 Naveen Kumar Systems and methods for computer assisted operation
US10492981B1 (en) * 2015-07-17 2019-12-03 Bao Tran Systems and methods for computer assisted operation
WO2017039308A1 (en) 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
CA2941893C (en) 2015-09-14 2020-02-25 The Toronto-Dominion Bank Connected device-based property evaluation
WO2017053821A1 (en) 2015-09-25 2017-03-30 Magic Leap, Inc. Methods and systems for detecting and combining structural features in 3d reconstruction
US20170094227A1 (en) 2015-09-25 2017-03-30 Northrop Grumman Systems Corporation Three-dimensional spatial-awareness vision system
WO2017068824A1 (ja) 2015-10-21 2017-04-27 シャープ株式会社 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体
US9706366B2 (en) 2015-11-06 2017-07-11 International Business Machines Corporation WiFi-fingerprint based indoor localization map
US10567449B2 (en) 2016-02-17 2020-02-18 Meta View, Inc. Apparatuses, methods and systems for sharing virtual elements
US10373380B2 (en) 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
JP6776609B2 (ja) 2016-02-22 2020-10-28 デクセリアルズ株式会社 異方性導電フィルム
US10115234B2 (en) 2016-03-21 2018-10-30 Accenture Global Solutions Limited Multiplatform based experience generation
IL303843B2 (en) 2016-08-11 2024-06-01 Magic Leap Inc Automatic positioning of a virtual object in three-dimensional space
EP4235391A3 (en) 2016-08-22 2023-10-25 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
US10007868B2 (en) 2016-09-19 2018-06-26 Adobe Systems Incorporated Font replacement based on visual similarity
RU2016138608A (ru) * 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
US10354129B2 (en) * 2017-01-03 2019-07-16 Intel Corporation Hand gesture recognition for virtual reality and augmented reality devices
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
US11275163B2 (en) 2017-01-25 2022-03-15 Korea Institute Of Science And Technology Slam method and apparatus robust to wireless environment change
EP3568804A2 (en) * 2017-02-07 2019-11-20 Mindmaze Holding S.A. Systems, methods and apparatuses for stereo vision and tracking
US10460489B2 (en) 2017-03-15 2019-10-29 Facebook, Inc. Visual editor for designing augmented-reality effects and configuring scaling parameters
KR102384232B1 (ko) 2017-03-17 2022-04-06 매직 립, 인코포레이티드 증강 현실 데이터를 레코딩하기 위한 기술
US10600252B2 (en) 2017-03-30 2020-03-24 Microsoft Technology Licensing, Llc Coarse relocalization using signal fingerprints
US9754397B1 (en) 2017-04-07 2017-09-05 Mirage Worlds, Inc. Systems and methods for contextual augmented reality sharing and performance
JP6585665B2 (ja) 2017-06-29 2019-10-02 ファナック株式会社 仮想オブジェクト表示システム
US10929945B2 (en) * 2017-07-28 2021-02-23 Google Llc Image capture devices featuring intelligent use of lightweight hardware-generated statistics
US10503955B2 (en) 2017-08-29 2019-12-10 Synaptics Incorporated Device with improved circuit positioning
WO2019046774A1 (en) * 2017-09-01 2019-03-07 Memorial Sloan Kettering Cancer Center SYSTEMS AND METHODS FOR GENERATING 3D MEDICAL IMAGES BY SCANNING A WHOLE TISSUE BLOCK
US10546387B2 (en) * 2017-09-08 2020-01-28 Qualcomm Incorporated Pose determination with semantic segmentation
EP3710981A4 (en) 2017-11-14 2020-12-23 Magic Leap, Inc. DETECTION AND DESCRIPTION OF FULLY CONVOLUTIVE POINT OF INTEREST BY HOMOGRAPHIC ADAPTATION
CA3084057A1 (en) 2017-12-15 2019-06-20 Magic Leap, Inc. Enhanced pose determination for display device
EP3729382A4 (en) 2017-12-22 2021-01-20 Magic Leap, Inc. PROCESS AND SYSTEM FOR MANAGING AND DISPLAYING VIRTUAL CONTENT IN A MIXED REALITY SYSTEM
US11237004B2 (en) 2018-03-27 2022-02-01 Uatc, Llc Log trajectory estimation for globally consistent maps
US10838574B2 (en) 2018-04-09 2020-11-17 Spatial Systems Inc. Augmented reality computing environments—workspace save and load
US10803671B2 (en) 2018-05-04 2020-10-13 Microsoft Technology Licensing, Llc Authoring content in three-dimensional environment
CN112639664B (zh) 2018-07-24 2023-03-24 奇跃公司 用于确定和/或评价图像显示设备的定位地图的方法和装置
US10957112B2 (en) 2018-08-13 2021-03-23 Magic Leap, Inc. Cross reality system
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
WO2020072985A1 (en) 2018-10-05 2020-04-09 Magic Leap, Inc. Rendering location specific virtual content in any location
US20200211290A1 (en) 2018-12-26 2020-07-02 Lg Electronics Inc. Xr device for providing ar mode and vr mode and method for controlling the same
US11151792B2 (en) 2019-04-26 2021-10-19 Google Llc System and method for creating persistent mappings in augmented reality
US20200364937A1 (en) * 2019-05-16 2020-11-19 Subvrsive, Inc. System-adaptive augmented reality
US11010921B2 (en) * 2019-05-16 2021-05-18 Qualcomm Incorporated Distributed pose estimation
US10854012B1 (en) 2019-05-29 2020-12-01 Dell Products, L.P. Concealing loss of distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures
US20200380263A1 (en) 2019-05-29 2020-12-03 Gyrfalcon Technology Inc. Detecting key frames in video compression in an artificial intelligence semiconductor solution
US10852828B1 (en) 2019-07-17 2020-12-01 Dell Products, L.P. Automatic peripheral pairing with hand assignments in virtual, augmented, and mixed reality (xR) applications
US10936874B1 (en) 2019-08-13 2021-03-02 Dell Products, L.P. Controller gestures in virtual, augmented, and mixed reality (xR) applications
KR20190104928A (ko) 2019-08-22 2019-09-11 엘지전자 주식회사 Xr 디바이스 및 xr 디바이스 제어 방법
WO2021076754A1 (en) 2019-10-15 2021-04-22 Magic Leap, Inc. Cross reality system with localization service
US11632679B2 (en) 2019-10-15 2023-04-18 Magic Leap, Inc. Cross reality system with wireless fingerprints
EP4052086A4 (en) 2019-10-31 2023-11-15 Magic Leap, Inc. EXTENDED REALITY SYSTEM PROVIDING QUALITY INFORMATION ABOUT PERSISTENT COORDINATE FRAMES
US11386627B2 (en) 2019-11-12 2022-07-12 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
US11562542B2 (en) 2019-12-09 2023-01-24 Magic Leap, Inc. Cross reality system with simplified programming of virtual content
JP2023514206A (ja) 2020-02-13 2023-04-05 マジック リープ, インコーポレイテッド 大規模環境のためのクロスリアリティシステム
US11830149B2 (en) 2020-02-13 2023-11-28 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
US11410395B2 (en) 2020-02-13 2022-08-09 Magic Leap, Inc. Cross reality system with accurate shared maps
WO2021163300A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
US11551430B2 (en) 2020-02-26 2023-01-10 Magic Leap, Inc. Cross reality system with fast localization
WO2021222371A1 (en) 2020-04-29 2021-11-04 Magic Leap, Inc. Cross reality system for large scale environments

Similar Documents

Publication Publication Date Title
US11145083B2 (en) Image-based localization
JPWO2021076757A5 (ja)
WO2019149206A1 (zh) 深度估计方法和装置、电子设备、程序和介质
WO2019242262A1 (zh) 基于增强现实的远程指导方法、装置、终端和存储介质
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
US11315328B2 (en) Systems and methods of rendering real world objects using depth information
CA2888943C (en) Augmented reality system and method for positioning and mapping
JP5260705B2 (ja) 3次元拡張現実提供装置
US8817046B2 (en) Color channels and optical markers
CN109743626B (zh) 一种图像显示方法、图像处理方法和相关设备
JP2013141049A (ja) 世界座標系データベースを利用したサーバ及び端末
CN108430032B (zh) 一种实现vr/ar设备位置共享的方法及设备
JP2018026064A (ja) 画像処理装置、画像処理方法、システム
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
WO2018133757A1 (zh) 场景的渲染方法、装置和存储介质
WO2017113729A1 (zh) 360度图像加载方法、加载模块及移动终端
JP2022132063A (ja) 拡張現実提供装置のポーズ決定方法及び装置
EP3840371A1 (en) Image display method, device, and system
JP2016081225A (ja) 情報提示システム
JP2017134775A (ja) 画像処理装置、画像処理方法及びプログラム
CN115761190A (zh) 基于场景映射的多用户增强现实相片浏览方法及系统
JP5864371B2 (ja) 静止画自動生成システム、静止画自動生成システムにおける作業者用情報処理端末及び指示者用情報処理端末、及び判定装置
CN111260544B (zh) 数据处理方法及装置、电子设备和计算机存储介质
CN115222793A (zh) 深度图像的生成及显示方法、装置、系统、可读介质
CN108171802B (zh) 一种云端与终端结合实现的全景增强现实实现方法