JPWO2021222371A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021222371A5
JPWO2021222371A5 JP2022565806A JP2022565806A JPWO2021222371A5 JP WO2021222371 A5 JPWO2021222371 A5 JP WO2021222371A5 JP 2022565806 A JP2022565806 A JP 2022565806A JP 2022565806 A JP2022565806 A JP 2022565806A JP WO2021222371 A5 JPWO2021222371 A5 JP WO2021222371A5
Authority
JP
Japan
Prior art keywords
features
electronic device
gravity
map
sets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022565806A
Other languages
Japanese (ja)
Other versions
JP2023524446A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/029585 external-priority patent/WO2021222371A1/en
Publication of JP2023524446A publication Critical patent/JP2023524446A/en
Publication of JPWO2021222371A5 publication Critical patent/JPWO2021222371A5/ja
Pending legal-status Critical Current

Links

Description

前述の説明は、例証として提供され、限定することを意図するものではない。
本発明は、例えば、以下を提供する。
(項目1)
持続マップのデータベース内の1つまたはそれを上回る持続マップに対する仮想コンテンツの位置の仕様をサポートするXRシステムであって、前記XRシステムは、位置特定サービスを備え、
ポータブル電子デバイスから、3次元(3D)環境の画像内の特徴の複数の集合についての情報を受信するように構成される通信コンポーネントであって、前記情報は、座標フレーム内に表される前記特徴の複数の集合の特徴に関する位置を備える、通信コンポーネントと、
コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、前記通信コンポーネントに接続される位置特定コンポーネントを実装し、前記位置特定コンポーネントは、
前記座標フレームの配向を推定される重力の方向に対して関連付けることと、
前記特徴の複数の集合毎に、候補位置特定として、前記特徴の集合と前記持続マップのデータベース内の持続マップの一部との間の変換を決定するためのプロセスを実施することによって、前記特徴の複数の集合に関する複数の候補位置特定を算出することであって、
前記持続マップの一部は、関連付けられる推定される重力の方向を有し、
前記決定するプロセスは、前記座標フレームと前記関連付けられる推定される重力の方向を整合させる変換を決定するために、前記座標フレームの配向に基づいて制約される、ことと、
前記複数の候補位置特定の中の共有項に基づいて、前記ポータブル電子デバイスの位置特定を生成することと
を行うように構成されている、少なくとも1つのプロセッサと
を備える、XRシステム。
(項目2)
前記座標フレームの配向を推定される重力の方向に対して関連付けることは、前記配向を前記ポータブル電子デバイスから受信することを含む、項目1に記載のXRシステム。
(項目3)
前記座標フレームの配向を推定される重力の方向に対して関連付けることは、
追跡マップを前記ポータブル電子デバイスから受信することと、
重力の推定値に対して配向される持続マップに対する前記追跡マップの配向を算出することと、
前記算出された配向を、持続記憶装置内に、前記ポータブル電子デバイスに関する配向として記憶することと、
続いて、前記ポータブル電子デバイスから前記特徴の複数の集合についての情報を受信することに基づいて、前記記憶された算出された配向にアクセスすることと
を含む、項目1に記載のXRシステム。
(項目4)
前記推定される重力の方向に対する前記特徴の複数の集合に関する前記座標フレームの配向は、前記推定される重力の方向を示すベクトルを備える、項目1に記載のXRシステム。
(項目5)
前記特徴の集合の変換を決定するプロセスは、
少なくとも部分的に、推定される重力の方向に対する個別の座標フレームの配向に基づいて、2つの回転自由度を固定することと、
少なくとも部分的に、前記固定された2つの回転自由度に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
によって制約される、項目1に記載のXRシステム。
(項目6)
前記特徴の集合に関する候補位置特定を算出することは、
前記持続マップのデータベース内の前記持続マップに対する前記特徴の集合の大まかな位置特定を実施することであって、大まかな位置特定は、前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの大まかな変換を算出することを含む、ことと、
前記持続マップに対する前記特徴の集合の精緻化された位置特定を実施することであって、前記特徴の集合の精緻化された位置特定は、前記大まかな変換に基づいて、前記ポータブル電子デバイスの候補位置特定を算出することを含む、ことと
を含む、項目1に記載のXRシステム。
(項目7)
前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの大まかな変換を算出することは、
少なくとも部分的に、対応する推定される重力の方向に対する個別の座標フレームの配向に基づいて、2つの回転自由度を固定することと、
少なくとも部分的に、前記固定された2つの回転自由度に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
を含む、項目6に記載のXRシステム。
(項目8)
前記大まかな変換に基づいて、前記ポータブル電子デバイスの候補位置特定を算出することは、3つの回転自由度および3つの平行移動自由度を算出することを含む、項目7に記載のXRシステム。
(項目9)
前記通信コンポーネントはさらに、
前記位置特定を前記ポータブル電子デバイスに送信するように構成される、項目1に記載のXRシステム。
(項目10)
前記特徴の複数の集合の特徴の位置は、前記ポータブル電子デバイスの座標フレーム内に表される、項目1に記載のXRシステムの位置。
(項目11)
持続マップのデータベース内の持続マップに対する仮想コンテンツの位置の仕様をサポートするXRシステムであって、前記XRシステムは、位置特定サービスを備え、
ポータブル電子デバイスから、3次元(3D)環境の画像内の特徴の複数の集合についての情報を受信するように構成される通信コンポーネントであって、前記情報は、推定される重力の方向に対して整合される寸法を有する座標フレーム内に表される前記特徴の複数の集合の特徴に関する位置を備える、通信コンポーネントと、
コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、前記通信コンポーネントに接続される位置特定コンポーネントを実装し、前記位置特定コンポーネントは、
前記特徴の複数の集合毎に、候補位置特定として、前記特徴の集合と前記持続マップのデータベース内の持続マップの一部との間の変換を決定するためのプロセスを実施することによって、前記特徴の複数の集合に関する複数の候補位置特定を算出することであって、
前記持続マップの一部は、関連付けられる推定される重力の方向を有し、
前記決定するプロセスは、前記特徴の集合に関する重力の方向と前記持続マップの一部の関連付けられる推定される重力の方向を整合させる変換を決定するように制約される、ことと、
前記複数の候補位置特定の中の共有項に基づいて、前記ポータブル電子デバイスの位置特定を生成することと
を行うように構成されている、少なくとも1つのプロセッサと
を備える、XRシステム。
(項目12)
マップマージサービスであって、
前記ポータブル電子デバイスの追跡マップと前記持続マップのデータベース内の持続マップとの間の整合を決定するように構成されるマップ整合コンポーネントであって、前記追跡マップは、前記特徴の複数の集合の少なくとも一部を備える、マップ整合コンポーネントと、
少なくとも部分的に、前記持続マップに対する重力の方向の推定値と、前記追跡マップと前記持続マップとの間の決定された整合とに基づいて、前記ポータブルデバイスの追跡マップに関する推定される重力の方向を算出するように構成される重力推定コンポーネントと
を備え、
前記追跡マップに関する推定される重力の方向は、前記ポータブル電子デバイスに送信される、マップマージサービス
をさらに備える、項目11に記載のXRシステム。
(項目13)
前記特徴の集合の変換を決定するプロセスは、
少なくとも部分的に、推定される重力の方向に対する個別の座標フレームの配向に基づいて、2つの回転自由度を固定することと、
少なくとも部分的に、前記固定された2つの回転自由度に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
によって制約される、項目11に記載のXRシステム。
(項目14)
前記特徴の集合に関する候補位置特定を算出することは、
前記持続マップのデータベース内の前記持続マップに対する前記特徴の集合の大まかな位置特定を実施することであって、大まかな位置特定は、前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの大まかな変換を算出することを含む、ことと、
前記持続マップに対する前記特徴の集合の精緻化された位置特定を実施することであって、前記特徴の集合の精緻化された位置特定は、前記大まかな変換に基づいて、前記ポータブル電子デバイスの候補位置特定を算出することを含む、ことと
を含む、項目11に記載のXRシステム。
(項目15)
前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの大まかな変換を算出することは、
少なくとも部分的に、対応する推定される重力の方向に対する個別の座標フレームの配向に基づいて、2つの回転自由度を固定することと、
少なくとも部分的に、前記固定された2つの回転自由度に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
を含む、項目14に記載のXRシステム。
(項目16)
クロスリアリティシステム内で動作するように構成される電子デバイスであって、前記電子デバイスは、
3次元(3D)環境についての情報を捕捉するように構成される1つまたはそれを上回るセンサであって、前記捕捉された情報は、複数の画像を備える、1つまたはそれを上回るセンサと、
コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、
特徴の複数の集合を前記3D環境の複数の画像から抽出することと、
前記電子デバイスにローカルの座標フレームに対する推定される重力の方向を決定することと、
前記座標フレーム内の前記特徴の複数の集合の特徴の位置を表すことと、
前記クロスリアリティシステムの位置特定サービスに、前記特徴の複数の集合についての情報を送信することであって、前記情報は、前記特徴の複数の集合の特徴の位置および前記座標フレームに対する前記推定される重力の方向を示す、ことと、
前記位置特定サービスから、持続マップのデータベース内の持続マップに対する前記電子デバイスの姿勢を受信することであって、前記電子デバイスの姿勢は、前記位置特定サービスに送信後、10秒未満で受信される、ことと
を行うための命令を備える、少なくとも1つのプロセッサと
を備える、電子デバイス。
(項目17)
前記1つまたはそれを上回るセンサは、少なくとも1つの慣性測定ユニットを備え、
前記推定される重力の方向は、前記少なくとも1つの慣性測定ユニットの出力に基づいて決定される、
項目16に記載の電子デバイス。
(項目18)
前記推定される重力の方向を決定することは、
前記推定される重力の方向を前記クロスリアリティシステムのマップマージサービスから受信することを含む、項目16に記載の電子デバイス。
(項目19)
前記特徴の複数の集合についての情報は、個々の特徴に関する記述子を備える、項目16に記載の電子デバイス。
(項目20)
前記推定される重力の方向に対する前記特徴の複数の集合に関する関係は、特徴の個々の集合に関する前記推定される重力の方向を示すベクトルを備える、項目16に記載の電子デバイス。
(項目21)
前記特徴の複数の集合についての情報は、前記特徴の複数の集合の特徴の姿勢を備える、項目16に記載の電子デバイス。
(項目22)
前記特徴の複数の集合の特徴の姿勢は、それぞれが対応する推定される重力の方向と整合される座標を有する1つまたはそれを上回る座標フレーム内にある、項目21に記載の電子デバイス。
(項目23)
前記特徴の複数の集合の特徴は、前記電子デバイスの少なくとも2つのセンサによって捕捉された複数の画像から抽出される、項目16に記載の電子デバイス。
(項目24)
前記1つまたはそれを上回るセンサは、個別のセンサ座標フレームを有し、
前記特徴の複数の集合についての情報は、個別のセンサ座標フレーム内の特徴と、前記電子デバイス上の前記1つまたはそれを上回るセンサの場所とを備える、
項目23に記載の電子デバイス。
The above description is provided by way of illustration and is not intended to be limiting.
The present invention provides, for example, the following:
(Item 1)
1. An XR system that supports specification of a location of virtual content relative to one or more persistent maps in a database of persistent maps, the XR system comprising: a location service;
a communication component configured to receive information about a plurality of sets of features within an image of a three-dimensional (3D) environment from a portable electronic device, the information comprising positions for the features of the plurality of sets of features represented within a coordinate frame;
At least one processor configured to execute computer-executable instructions to implement a location component coupled to the communication component, the location component comprising:
relating the orientation of the coordinate frame to an estimated direction of gravity;
calculating, for each of the plurality of sets of features, a plurality of candidate localizations for the plurality of sets of features by implementing a process for determining a transformation between the set of features and a portion of a persistent map in the persistent map database as a candidate localization;
a portion of the persistence map having an associated estimated direction of gravity;
the determining process is constrained based on an orientation of the coordinate frame to determine a transformation that aligns the coordinate frame with the associated estimated direction of gravity;
generating a location location for the portable electronic device based on shared terms among the plurality of candidate location locations;
At least one processor configured to:
An XR system comprising:
(Item 2)
2. The XR system of claim 1, wherein associating an orientation of the coordinate frame with respect to an estimated direction of gravity includes receiving the orientation from the portable electronic device.
(Item 3)
Associating the orientation of the coordinate frame with respect to an estimated direction of gravity includes:
receiving a tracking map from the portable electronic device;
calculating an orientation of the tracking map relative to a persistence map oriented relative to an estimate of gravity;
storing the calculated orientation in persistent storage as an orientation for the portable electronic device;
subsequently accessing the stored calculated orientation based on receiving information about the plurality of sets of features from the portable electronic device;
2. The XR system according to item 1, comprising:
(Item 4)
2. The XR system of claim 1, wherein an orientation of the coordinate frame for the plurality of sets of features relative to the estimated direction of gravity comprises a vector indicating the estimated direction of gravity.
(Item 5)
The process of determining a transformation of the set of features comprises:
Fixing two rotational degrees of freedom based, at least in part, on an orientation of the respective coordinate frames relative to an estimated direction of gravity;
calculating one rotational degree of freedom and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom;
2. The XR system according to item 1, constrained by:
(Item 6)
Calculating candidate localizations for the set of features includes:
performing a coarse location of the set of features relative to the persistent map in the database of persistent maps, the coarse location comprising calculating a coarse transformation of the portable electronic device relative to the persistent map in the database of persistent maps;
performing a refined localization of the set of features relative to the persistent map, the refined localization of the set of features including calculating candidate localizations of the portable electronic device based on the coarse transformation;
2. The XR system according to item 1, comprising:
(Item 7)
Calculating a coarse transformation of the portable electronic device relative to the persistent map in the database of persistent maps includes:
Fixing two rotational degrees of freedom based, at least in part, on the orientation of the respective coordinate frames relative to a corresponding estimated direction of gravity;
calculating one rotational degree of freedom and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom;
7. The XR system according to item 6, comprising:
(Item 8)
8. The XR system of claim 7, wherein calculating candidate localizations of the portable electronic device based on the coarse transformation includes calculating three rotational degrees of freedom and three translational degrees of freedom.
(Item 9)
The communication component further comprises:
2. The XR system of claim 1, configured to transmit the location determination to the portable electronic device.
(Item 10)
2. The position of the XR system of claim 1, wherein positions of features of the plurality of sets of features are expressed within a coordinate frame of the portable electronic device.
(Item 11)
1. An XR system supporting specification of a location of virtual content relative to a persistent map in a database of persistent maps, the XR system comprising: a location service;
a communication component configured to receive information about a plurality of sets of features within an image of a three-dimensional (3D) environment from a portable electronic device, the information comprising positions for the features of the plurality of sets of features represented in a coordinate frame having dimensions aligned with respect to an estimated direction of gravity;
At least one processor configured to execute computer-executable instructions to implement a location component coupled to the communication component, the location component comprising:
calculating, for each of the plurality of sets of features, a plurality of candidate localizations for the plurality of sets of features by implementing a process for determining a transformation between the set of features and a portion of a persistent map in the persistent map database as a candidate localization;
a portion of the persistence map having an associated estimated direction of gravity;
the determining process is constrained to determine a transformation that aligns a direction of gravity for the set of features with an associated estimated direction of gravity of a portion of the persistence map;
generating a location location for the portable electronic device based on shared terms among the plurality of candidate location locations;
At least one processor configured to
An XR system comprising:
(Item 12)
A map merge service, comprising:
a map matching component configured to determine a match between a tracking map of the portable electronic device and a persistent map in the persistent map database, the tracking map comprising at least a portion of the plurality of sets of features;
a gravity estimation component configured to calculate an estimated direction of gravity with respect to the tracking map of the portable device based at least in part on an estimate of a direction of gravity with respect to the persistence map and the determined alignment between the tracking map and the persistence map;
Equipped with
the estimated direction of gravity with respect to the tracking map is transmitted to the portable electronic device; and
Item 12. The XR system of item 11, further comprising:
(Item 13)
The process of determining a transformation of the set of features comprises:
Fixing two rotational degrees of freedom based, at least in part, on an orientation of the respective coordinate frames relative to an estimated direction of gravity;
calculating one rotational degree of freedom and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom;
12. The XR system according to item 11, constrained by:
(Item 14)
Calculating candidate localizations for the set of features includes:
performing a coarse location of the set of features relative to the persistent map in the database of persistent maps, the coarse location comprising calculating a coarse transformation of the portable electronic device relative to the persistent map in the database of persistent maps;
performing a refined localization of the set of features relative to the persistent map, the refined localization of the set of features including calculating candidate localizations of the portable electronic device based on the coarse transformation;
Item 12. The XR system according to item 11, comprising:
(Item 15)
Calculating a coarse transformation of the portable electronic device relative to the persistent map in the database of persistent maps includes:
Fixing two rotational degrees of freedom based, at least in part, on an orientation of the respective coordinate frames relative to a corresponding estimated direction of gravity;
calculating one rotational degree of freedom and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom;
Item 15. The XR system according to item 14, comprising:
(Item 16)
1. An electronic device configured to operate within a cross reality system, the electronic device comprising:
one or more sensors configured to capture information about a three-dimensional (3D) environment, the captured information comprising a plurality of images;
At least one processor configured to execute computer-executable instructions, the computer-executable instructions comprising:
Extracting a plurality of sets of features from a plurality of images of the 3D environment;
determining an estimated direction of gravity relative to a coordinate frame local to the electronic device;
representing positions of features of the plurality of sets of features within the coordinate frame;
sending information about the plurality of sets of features to a location service of the cross reality system, the information indicating positions of features of the plurality of sets of features and the estimated direction of gravity relative to the coordinate frame;
receiving from the location service an orientation of the electronic device relative to a persistent map in a database of persistent maps, the orientation of the electronic device being received less than 10 seconds after transmission to the location service;
At least one processor having instructions for performing
An electronic device comprising:
(Item 17)
the one or more sensors comprising at least one inertial measurement unit;
the estimated direction of gravity is determined based on an output of the at least one inertial measurement unit.
Item 17. The electronic device according to item 16.
(Item 18)
Determining the estimated direction of gravity includes:
17. The electronic device of claim 16, further comprising receiving the estimated direction of gravity from a map merge service of the cross reality system.
(Item 19)
20. The electronic device of claim 16, wherein the information about the plurality of sets of features comprises a descriptor for each individual feature.
(Item 20)
20. The electronic device of claim 16, wherein the relationship for the multiple sets of features to the estimated direction of gravity comprises a vector indicating the estimated direction of gravity for each set of features.
(Item 21)
20. The electronic device of claim 16, wherein the information about the plurality of sets of features comprises a pose of a feature of the plurality of sets of features.
(Item 22)
22. The electronic device of claim 21, wherein the feature poses of the plurality of sets of features are in one or more coordinate frames each having coordinates aligned with a corresponding estimated direction of gravity.
(Item 23)
20. The electronic device of claim 16, wherein the features of the plurality of sets of features are extracted from a plurality of images captured by at least two sensors of the electronic device.
(Item 24)
the one or more sensors having individual sensor coordinate frames;
the information about the plurality of sets of features comprises features in individual sensor coordinate frames and locations of the one or more sensors on the electronic device;
24. The electronic device according to item 23.

Claims (24)

持続マップのデータベース内の1つまたはそれを上回る持続マップに対する仮想コンテンツの位置の仕様をサポートするXRシステムであって、前記XRシステムは、位置特定サービスを備え、
ポータブル電子デバイスから、3次元(3D)環境の画像内の特徴の複数の集合についての情報を受信するように構成される通信コンポーネントであって、前記情報は、座標フレーム内に表される前記特徴の複数の集合の特徴に関する位置を備える、通信コンポーネントと、
コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、前記通信コンポーネントに接続される位置特定コンポーネントを実装し、前記位置特定コンポーネントは、
前記座標フレームの配向を推定される重力の方向に対して関連付けることと、
前記特徴の複数の集合毎に、候補位置特定として、前記特徴の集合と前記持続マップのデータベース内の持続マップの一部との間の変換を決定するためのプロセスを実施することによって、前記特徴の複数の集合に関する複数の候補位置特定を算出することであって、
前記持続マップの一部は、関連付けられる推定される重力の方向を有し、
前記決定するプロセスは、前記座標フレームと前記関連付けられる推定される重力の方向を整合させる変換を決定するために、前記座標フレームの配向に基づいて制約される、ことと、
前記複数の候補位置特定の中の共有項に基づいて、前記ポータブル電子デバイスの位置特定を生成することと
を行うように構成されている、少なくとも1つのプロセッサと
を備える、XRシステム。
1. An XR system that supports specification of a location of virtual content relative to one or more persistent maps in a database of persistent maps, the XR system comprising: a location service;
a communication component configured to receive information about a plurality of sets of features within an image of a three-dimensional (3D) environment from a portable electronic device, the information comprising positions for the features of the plurality of sets of features represented within a coordinate frame;
At least one processor configured to execute computer-executable instructions to implement a location component coupled to the communication component, the location component comprising:
relating the orientation of the coordinate frame to an estimated direction of gravity;
calculating, for each of the plurality of sets of features, a plurality of candidate localizations for the plurality of sets of features by implementing a process for determining a transformation between the set of features and a portion of a persistent map in the persistent map database as a candidate localization;
a portion of the persistence map having an associated estimated direction of gravity;
the determining process is constrained based on an orientation of the coordinate frame to determine a transformation that aligns the coordinate frame with the associated estimated direction of gravity;
generating a location location for the portable electronic device based on shared terms among the plurality of candidate location locations; and
前記座標フレームの配向を前記推定される重力の方向に対して関連付けることは、前記配向を前記ポータブル電子デバイスから受信することを含む、請求項1に記載のXRシステム。 The XR system of claim 1 , wherein associating an orientation of the coordinate frame with respect to the estimated direction of gravity includes receiving the orientation from the portable electronic device. 前記座標フレームの配向を推定される重力の方向に対して関連付けることは、
追跡マップを前記ポータブル電子デバイスから受信することと、
前記推定される重力の方向に対して配向される持続マップに対する前記追跡マップの配向を算出することと、
前記算出された配向を、持続記憶装置内に、前記ポータブル電子デバイスに関する配向として記憶することと、
続いて、前記ポータブル電子デバイスから前記特徴の複数の集合についての情報を受信することに基づいて、前記記憶された算出された配向にアクセスすることと
を含む、請求項1に記載のXRシステム。
Associating the orientation of the coordinate frame with respect to an estimated direction of gravity includes:
receiving a tracking map from the portable electronic device;
calculating an orientation of the tracking map relative to a persistence map oriented with respect to the estimated direction of gravity;
storing the calculated orientation in persistent storage as an orientation for the portable electronic device;
and subsequently accessing the stored calculated orientation based on receiving information about the plurality of sets of features from the portable electronic device.
前記推定される重力の方向に対する前記特徴の複数の集合に関する前記座標フレームの配向は、前記推定される重力の方向を示すベクトルを備える、請求項1に記載のXRシステム。 The XR system of claim 1, wherein the orientation of the coordinate frame for the plurality of sets of features relative to the estimated direction of gravity comprises a vector indicating the estimated direction of gravity. 前記決定するプロセスは、
前記推定される重力の方向に対する個別の座標フレームの配向に少なくとも部分的に基づいて、2つの回転自由度を固定することと、
前記固定された2つの回転自由度に少なくとも部分的に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
によって制約される、請求項1~4のいずれかに記載のXRシステム。
The process of determining comprises :
fixing two rotational degrees of freedom based at least in part on an orientation of the respective coordinate frames relative to the estimated direction of gravity;
5. The XR system of claim 1 , wherein the XR system is constrained by: calculating one rotational degree of freedom and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom.
前記特徴の集合に関する候補位置特定を算出することは、
前記持続マップのデータベース内の前記持続マップに対する前記特徴の集合の大まかな位置特定を実施することであって、大まかな位置特定は、前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの大まかな変換を算出することを含む、ことと、
前記持続マップに対する前記特徴の集合の精緻化された位置特定を実施することであって、前記特徴の集合の精緻化された位置特定は、前記大まかな変換に基づいて、前記ポータブル電子デバイスの候補位置特定を算出することを含む、ことと
を含む、請求項1に記載のXRシステム。
Calculating candidate localizations for the set of features includes:
performing a coarse location of the set of features relative to the persistent map in the database of persistent maps, the coarse location comprising calculating a coarse transformation of the portable electronic device relative to the persistent map in the database of persistent maps;
and performing a refined localization of the set of features relative to the persistent map, the refined localization of the set of features comprising calculating candidate localizations of the portable electronic device based on the coarse transformation.
前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの前記大まかな変換を算出することは、
応する推定される重力の方向に対する個別の座標フレームの配向に少なくとも部分的に基づいて、2つの回転自由度を固定することと、
前記固定された2つの回転自由度に少なくとも部分的に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
を含む、請求項6に記載のXRシステム。
Calculating the coarse transformation of the portable electronic device to the persistent map in the database of persistent maps includes:
Fixing two rotational degrees of freedom based at least in part on the orientation of the respective coordinate frames relative to a corresponding estimated direction of gravity;
and calculating one rotational and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom.
前記大まかな変換に基づいて、前記ポータブル電子デバイスの前記候補位置特定を算出することは、3つの回転自由度および3つの平行移動自由度を算出することを含む、請求項7に記載のXRシステム。 The XR system of claim 7 , wherein calculating the candidate localizations of the portable electronic device based on the coarse transformation includes calculating three rotational and three translational degrees of freedom. 前記通信コンポーネントは前記位置特定を前記ポータブル電子デバイスに送信するようにさらに構成される、請求項1または請求項5に記載のXRシステム。 The XR system of claim 1 or claim 5 , wherein the communication component is further configured to transmit the location determination to the portable electronic device. 前記特徴の複数の集合の特徴の位置は、前記ポータブル電子デバイスの座標フレーム内に表される、請求項1または請求項5に記載のXRシステム The XR system of claim 1 or claim 5 , wherein positions of features of the plurality of sets of features are represented in a coordinate frame of the portable electronic device. 持続マップのデータベース内の持続マップに対する仮想コンテンツの位置の仕様をサポートするXRシステムであって、前記XRシステムは、位置特定サービスを備え、
ポータブル電子デバイスから、3次元(3D)環境の画像内の特徴の複数の集合についての情報を受信するように構成される通信コンポーネントであって、前記情報は、推定される重力の方向に対して整合される寸法を有する座標フレーム内に表される前記特徴の複数の集合の特徴に関する位置を備える、通信コンポーネントと、
コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、前記通信コンポーネントに接続される位置特定コンポーネントを実装し、前記位置特定コンポーネントは、
前記特徴の複数の集合毎に、候補位置特定として、前記特徴の集合と前記持続マップのデータベース内の持続マップの一部との間の変換を決定するためのプロセスを実施することによって、前記特徴の複数の集合に関する複数の候補位置特定を算出することであって、
前記持続マップの一部は、関連付けられる推定される重力の方向を有し、
前記決定するプロセスは、前記特徴の集合に関する前記推定される重力の方向と前記持続マップの一部の前記関連付けられる推定される重力の方向を整合させる変換を決定するように制約される、ことと、
前記複数の候補位置特定の中の共有項に基づいて、前記ポータブル電子デバイスの位置特定を生成することと
を行うように構成されている、少なくとも1つのプロセッサと
を備える、XRシステム。
1. An XR system supporting specification of a location of virtual content relative to a persistent map in a database of persistent maps, the XR system comprising: a location service;
a communication component configured to receive information about a plurality of sets of features within an image of a three-dimensional (3D) environment from a portable electronic device, the information comprising positions for the features of the plurality of sets of features represented in a coordinate frame having dimensions aligned with respect to an estimated direction of gravity;
At least one processor configured to execute computer-executable instructions to implement a location determination component coupled to the communication component, the location determination component comprising:
calculating, for each of the plurality of sets of features, a plurality of candidate localizations for the plurality of sets of features by implementing a process for determining a transformation between the set of features and a portion of a persistent map in the persistent map database as a candidate localization;
a portion of the persistence map having an associated estimated direction of gravity;
the determining process is constrained to determine a transformation that aligns the estimated gravity direction for the set of features with the associated estimated gravity direction of a portion of the persistence map ;
generating a location location for the portable electronic device based on shared terms among the plurality of candidate location locations; and
マップマージサービスをさらに備え、前記マップマージサービスは、
前記ポータブル電子デバイスの追跡マップと前記持続マップのデータベース内の持続マップとの間の整合を決定するように構成されるマップ整合コンポーネントであって、前記追跡マップは、前記特徴の複数の集合の少なくとも一部を備える、マップ整合コンポーネントと、
前記持続マップに対する重力の方向の推定値と、前記追跡マップと前記持続マップとの間の前記決定された整合とに少なくとも部分的に基づいて、前記ポータブルデバイスの前記追跡マップに関する前記推定される重力の方向を算出するように構成される重力推定コンポーネントと
を備え、
前記追跡マップに関する前記推定される重力の方向は、前記ポータブル電子デバイスに送信される請求項11に記載のXRシステム。
The map merging service further comprises:
a map matching component configured to determine a match between a tracking map of the portable electronic device and a persistent map in the persistent map database, the tracking map comprising at least a portion of the plurality of sets of features;
a gravity estimation component configured to calculate the estimated direction of gravity with respect to the tracking map of the portable device based at least in part on an estimate of a direction of gravity with respect to the persistence map and the determined alignment between the tracking map and the persistence map;
The XR system of claim 11 , wherein the estimated direction of gravity with respect to the tracking map is transmitted to the portable electronic device .
前記決定するプロセスは、
前記推定される重力の方向に対する個別の座標フレームの配向に少なくとも部分的に基づいて、2つの回転自由度を固定することと、
前記固定された2つの回転自由度に少なくとも部分的に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
によって制約される、請求項11~12のいずれかに記載のXRシステム。
The process of determining comprises :
fixing two rotational degrees of freedom based at least in part on an orientation of the respective coordinate frames relative to the estimated direction of gravity;
Calculating one rotational degree of freedom and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom.
前記特徴の集合に関する候補位置特定を算出することは、
前記持続マップのデータベース内の前記持続マップに対する前記特徴の集合の大まかな位置特定を実施することであって、大まかな位置特定は、前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの大まかな変換を算出することを含む、ことと、
前記持続マップに対する前記特徴の集合の精緻化された位置特定を実施することであって、前記特徴の集合の精緻化された位置特定は、前記大まかな変換に基づいて、前記ポータブル電子デバイスの候補位置特定を算出することを含む、ことと
を含む、請求項11に記載のXRシステム。
Calculating candidate localizations for the set of features includes:
performing a coarse location of the set of features relative to the persistent map in the database of persistent maps, the coarse location comprising calculating a coarse transformation of the portable electronic device relative to the persistent map in the database of persistent maps;
and performing a refined localization of the set of features relative to the persistent map, the refined localization of the set of features comprising calculating candidate localizations of the portable electronic device based on the coarse transformation.
前記持続マップのデータベース内の前記持続マップに対する前記ポータブル電子デバイスの前記大まかな変換を算出することは、
応する推定される重力の方向に対する個別の座標フレームの配向に少なくとも部分的に基づいて、2つの回転自由度を固定することと、
前記固定された2つの回転自由度に少なくとも部分的に基づいて、1つの回転自由度および3つの平行移動自由度を算出することと
を含む、請求項14に記載のXRシステム。
Calculating the coarse transformation of the portable electronic device to the persistent map in the database of persistent maps includes:
Fixing two rotational degrees of freedom based at least in part on the orientation of the respective coordinate frames relative to a corresponding estimated direction of gravity;
and calculating one rotational and three translational degrees of freedom based at least in part on the two fixed rotational degrees of freedom.
クロスリアリティシステム内で動作するように構成される電子デバイスであって、前記電子デバイスは、
3次元(3D)環境についての情報を捕捉するように構成される1つまたはそれを上回るセンサであって、前記捕捉された情報は、複数の画像を備える、1つまたはそれを上回るセンサと、
コンピュータ実行可能命令を実行するように構成される少なくとも1つのプロセッサであって、前記コンピュータ実行可能命令は、
特徴の複数の集合を前記3D環境の前記複数の画像から抽出することと、
前記電子デバイスにローカルの座標フレームに対する推定される重力の方向を決定することと、
前記座標フレーム内の前記特徴の複数の集合の特徴の位置を表すことと、
前記クロスリアリティシステムの位置特定サービスに、前記特徴の複数の集合についての情報を送信することであって、前記情報は、前記特徴の複数の集合の特徴の位置および前記座標フレームに対する前記推定される重力の方向を示す、ことと、
前記位置特定サービスから、持続マップのデータベース内の持続マップに対する前記電子デバイスの姿勢を受信することであって、前記電子デバイスの前記姿勢は、前記位置特定サービスに送信後、10秒未満で受信される、ことと
を行うための命令を備える、少なくとも1つのプロセッサと
を備える、電子デバイス。
1. An electronic device configured to operate within a cross reality system, the electronic device comprising:
one or more sensors configured to capture information about a three-dimensional (3D) environment, the captured information comprising a plurality of images;
At least one processor configured to execute computer-executable instructions, the computer-executable instructions comprising:
Extracting a plurality of sets of features from the plurality of images of the 3D environment;
determining an estimated direction of gravity relative to a coordinate frame local to the electronic device;
representing positions of features of the plurality of sets of features within the coordinate frame;
sending information about the plurality of sets of features to a location service of the cross reality system, the information indicating positions of features of the plurality of sets of features and the estimated direction of gravity relative to the coordinate frame;
and receiving from the location service an orientation of the electronic device relative to a persistent map in a database of persistent maps, the orientation of the electronic device being received less than 10 seconds after transmission to the location service.
前記1つまたはそれを上回るセンサは、少なくとも1つの慣性測定ユニットを備え、
前記推定される重力の方向は、前記少なくとも1つの慣性測定ユニットの出力に基づいて決定される、請求項16に記載の電子デバイス。
the one or more sensors comprising at least one inertial measurement unit;
The electronic device of claim 16 , wherein the estimated direction of gravity is determined based on an output of the at least one inertial measurement unit.
前記推定される重力の方向を決定することは、前記推定される重力の方向を前記クロスリアリティシステムのマップマージサービスから受信することを含む、請求項16に記載の電子デバイス。 The electronic device of claim 16, wherein determining the estimated direction of gravity includes receiving the estimated direction of gravity from a map merge service of the cross reality system. 前記特徴の複数の集合についての情報は、個々の特徴に関する記述子を備える、請求項16に記載の電子デバイス。 The electronic device of claim 16, wherein the information about the plurality of sets of features comprises a descriptor for each individual feature. 前記推定される重力の方向に対する前記特徴の複数の集合に関する関係は、特徴の個々の集合に関する前記推定される重力の方向を示すベクトルを備える、請求項16に記載の電子デバイス。 The electronic device of claim 16, wherein the relationship for the plurality of sets of features to the estimated direction of gravity comprises a vector indicating the estimated direction of gravity for each set of features. 前記特徴の複数の集合についての情報は、前記特徴の複数の集合の特徴の姿勢を備える、請求項16~20のいずれかに記載の電子デバイス。 The electronic device of claim 16 , wherein the information about the plurality of sets of features comprises poses of the features of the plurality of sets of features. 前記特徴の複数の集合の特徴の姿勢は、それぞれが対応する推定される重力の方向と整合される座標を有する1つまたはそれを上回る座標フレーム内にある、請求項21に記載の電子デバイス。 22. The electronic device of claim 21, wherein the poses of the features of the plurality of sets of features are in one or more coordinate frames each having coordinates aligned with a corresponding estimated direction of gravity. 前記特徴の複数の集合の特徴は、前記電子デバイスの少なくとも2つのセンサによって捕捉された複数の画像から抽出される、請求項16に記載の電子デバイス。 The electronic device of claim 16, wherein the features of the plurality of sets of features are extracted from a plurality of images captured by at least two sensors of the electronic device. 前記1つまたはそれを上回るセンサは、個別のセンサ座標フレームを有し、
前記特徴の複数の集合についての情報は、個別のセンサ座標フレーム内の特徴と、前記電子デバイス上の前記1つまたはそれを上回るセンサの場所とを備える、請求項23に記載の電子デバイス。
the one or more sensors having individual sensor coordinate frames;
24. The electronic device of claim 23, wherein the information about the multiple sets of features comprises features in individual sensor coordinate frames and locations of the one or more sensors on the electronic device.
JP2022565806A 2020-04-29 2021-04-28 Cross-reality system for large-scale environments Pending JP2023524446A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063017227P 2020-04-29 2020-04-29
US63/017,227 2020-04-29
PCT/US2021/029585 WO2021222371A1 (en) 2020-04-29 2021-04-28 Cross reality system for large scale environments

Publications (2)

Publication Number Publication Date
JP2023524446A JP2023524446A (en) 2023-06-12
JPWO2021222371A5 true JPWO2021222371A5 (en) 2024-05-10

Family

ID=78293142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022565806A Pending JP2023524446A (en) 2020-04-29 2021-04-28 Cross-reality system for large-scale environments

Country Status (5)

Country Link
US (2) US11900547B2 (en)
EP (1) EP4143794A4 (en)
JP (1) JP2023524446A (en)
CN (1) CN115803788A (en)
WO (1) WO2021222371A1 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3837674A4 (en) 2018-08-13 2022-05-18 Magic Leap, Inc. A cross reality system
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
JP7503542B2 (en) 2018-10-05 2024-06-20 マジック リープ, インコーポレイテッド Rendering location-specific virtual content anywhere
WO2021076754A1 (en) 2019-10-15 2021-04-22 Magic Leap, Inc. Cross reality system with localization service
JP2022551734A (en) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド Cross-reality system that supports multiple device types
JP2022551735A (en) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド Cross-reality system using wireless fingerprints
EP4052086A4 (en) 2019-10-31 2023-11-15 Magic Leap, Inc. Cross reality system with quality information about persistent coordinate frames
WO2021096931A1 (en) 2019-11-12 2021-05-20 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
JP2023504570A (en) 2019-12-09 2023-02-03 マジック リープ, インコーポレイテッド Cross-reality system with simplified programming of virtual content
US11393176B2 (en) * 2020-02-07 2022-07-19 Krikey, Inc. Video tools for mobile rendered augmented reality game
CN115427758A (en) 2020-02-13 2022-12-02 奇跃公司 Cross reality system with accurate shared map
CN115398484A (en) * 2020-02-13 2022-11-25 奇跃公司 Cross reality system with geolocation information priority for location
WO2021163300A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
CN115461787A (en) 2020-02-26 2022-12-09 奇跃公司 Cross reality system with quick positioning
US11391596B2 (en) * 2020-04-28 2022-07-19 Vgis Inc. System and method for converging mediated reality positioning data and geographic positioning data
US11620818B2 (en) * 2020-10-01 2023-04-04 Intel Corporation Spatially sparse neural network accelerator for multi-dimension visual analytics
US11522945B2 (en) * 2020-10-20 2022-12-06 Iris Tech Inc. System for providing synchronized sharing of augmented reality content in real time across multiple devices
US11967041B2 (en) * 2021-05-18 2024-04-23 Microsoft Technology Licensing, Llc Geospatial image processing for targeted data acquisition
US20230236219A1 (en) * 2022-01-21 2023-07-27 Google Llc Visual inertial odometry with machine learning depth
CN114359392B (en) * 2022-03-16 2022-07-26 荣耀终端有限公司 Visual positioning method, device, chip system and storage medium
WO2024098163A1 (en) * 2022-11-11 2024-05-16 Waabi Innovation Inc. Neural hash grid based multi-sensor simulation
WO2024163101A1 (en) * 2023-02-01 2024-08-08 Innopeak Technology, Inc. Method for operating an extended reality device and related devices for safety boundary generation
CN116152383B (en) * 2023-03-06 2023-08-11 深圳优立全息科技有限公司 Voxel model, image generation method, device and storage medium
CN116627849B (en) * 2023-07-24 2024-01-26 中邮消费金融有限公司 System test method, device, equipment and storage medium
US12025454B1 (en) * 2023-07-28 2024-07-02 Goodmaps Inc. Localization of user(s) in environment(s)

Family Cites Families (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100483806B1 (en) 2002-07-18 2005-04-20 한국과학기술원 Motion Reconstruction Method from Inter-Frame Feature Correspondences of a Single Video Stream Using a Motion Library
US20050228849A1 (en) 2004-03-24 2005-10-13 Tong Zhang Intelligent key-frame extraction from a video
US10809071B2 (en) 2017-10-17 2020-10-20 AI Incorporated Method for constructing a map while performing work
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US7583858B2 (en) 2004-10-12 2009-09-01 Eastman Kodak Company Image processing based on direction of gravity
US20080303787A1 (en) 2005-10-21 2008-12-11 Zheng Yu Brian Touch Screen Apparatus And Methods
CA2659672A1 (en) 2006-06-26 2008-01-03 Icosystem Corporation Methods and systems for interactive customization of avatars and other animate or inanimate items in video games
US8781162B2 (en) 2011-01-05 2014-07-15 Ailive Inc. Method and system for head tracking and pose estimation
US20080090659A1 (en) 2006-10-12 2008-04-17 Maximino Aguilar Virtual world event notification from a persistent world game server in a logically partitioned game console
JP4292426B2 (en) 2007-05-15 2009-07-08 ソニー株式会社 Imaging apparatus and imaging data correction method
SG183690A1 (en) 2007-08-06 2012-09-27 Trx Systems Inc Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors
US9812096B2 (en) 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
GB0818561D0 (en) 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
US20100208033A1 (en) 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US8839121B2 (en) 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
KR20100138725A (en) 2009-06-25 2010-12-31 삼성전자주식회사 Method and apparatus for processing virtual world
US9119027B2 (en) 2009-10-06 2015-08-25 Facebook, Inc. Sharing of location-based content item in social networking service
US8185596B2 (en) 2010-02-22 2012-05-22 Samsung Electronics Co., Ltd. Location-based communication method and system
US8600803B1 (en) 2010-05-18 2013-12-03 Google Inc. Incentivizing behavior to address pricing, tax, and currency issues in an online marketplace for digital goods
KR101686171B1 (en) 2010-06-08 2016-12-13 삼성전자주식회사 Apparatus for recognizing location using image and range data and method thereof
WO2012006578A2 (en) 2010-07-08 2012-01-12 The Regents Of The University Of California End-to-end visual recognition system and methods
US11488322B2 (en) * 2010-12-08 2022-11-01 Cognex Corporation System and method for training a model in a plurality of non-perspective cameras and determining 3D pose of an object at runtime with the same
JP5960796B2 (en) 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド Modular mobile connected pico projector for local multi-user collaboration
US8526368B2 (en) 2011-05-17 2013-09-03 Qualcomm Incorporated Wi-Fi access point characteristics database
US20120314031A1 (en) 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
US9082214B2 (en) 2011-07-01 2015-07-14 Disney Enterprises, Inc. 3D drawing system for providing a real time, personalized, and immersive artistic experience
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
WO2013029674A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
US8243102B1 (en) 2011-10-12 2012-08-14 Google Inc. Derivative-based selection of zones for banded map display
US20130141419A1 (en) 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
US8977021B2 (en) 2011-12-30 2015-03-10 Mako Surgical Corp. Systems and methods for customizing interactive haptic boundaries
US9530221B2 (en) 2012-01-06 2016-12-27 Pelco, Inc. Context aware moving object detection
US9310882B2 (en) 2012-02-06 2016-04-12 Sony Computer Entertainment Europe Ltd. Book object for augmented reality
US9386297B2 (en) 2012-02-24 2016-07-05 Casio Computer Co., Ltd. Image generating apparatus generating reconstructed image, method, and computer-readable recording medium
KR20130110907A (en) 2012-03-30 2013-10-10 삼성전자주식회사 Apparatus and method for remote controlling based on virtual reality and augmented reality
US9293118B2 (en) 2012-03-30 2016-03-22 Sony Corporation Client device
US9122321B2 (en) 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
WO2013167864A1 (en) 2012-05-11 2013-11-14 Milan Momcilo Popovich Apparatus for eye tracking
US9311750B2 (en) 2012-06-05 2016-04-12 Apple Inc. Rotation operations in a mapping application
US9310559B2 (en) 2012-06-11 2016-04-12 Magic Leap, Inc. Multiple depth plane three-dimensional display using a wave guide reflector array projector
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
GB2506338A (en) 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
US8829409B2 (en) 2012-10-10 2014-09-09 Thermo Fisher Scientific Inc. Ultra-high speed imaging array with orthogonal readout architecture
US9349072B2 (en) 2013-03-11 2016-05-24 Microsoft Technology Licensing, Llc Local feature based image compression
CN105188516B (en) 2013-03-11 2017-12-22 奇跃公司 For strengthening the System and method for virtual reality
US20140267234A1 (en) 2013-03-15 2014-09-18 Anselm Hook Generation and Sharing Coordinate System Between Users on Mobile
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
WO2014169238A1 (en) 2013-04-11 2014-10-16 Digimarc Corporation Methods for object recognition and related arrangements
US9154919B2 (en) 2013-04-22 2015-10-06 Alcatel Lucent Localization systems and methods
EP2808842B1 (en) 2013-05-31 2017-08-16 Technische Universität München An apparatus and method for tracking and reconstructing three-dimensional objects
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9406137B2 (en) 2013-06-14 2016-08-02 Qualcomm Incorporated Robust tracking using point and line features
US9329682B2 (en) 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
WO2014202258A1 (en) 2013-06-21 2014-12-24 National University Of Ireland, Maynooth A method for mapping an environment
US9779548B2 (en) 2013-06-25 2017-10-03 Jordan Kent Weisman Multiuser augmented reality system
US9646384B2 (en) 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
CN110542938B (en) 2013-11-27 2023-04-18 奇跃公司 Virtual and augmented reality systems and methods
CN106171012B (en) 2013-12-20 2020-01-17 英特尔公司 Wi-Fi scan scheduling and power adaptation for low-power indoor positioning
US10586395B2 (en) 2013-12-30 2020-03-10 Daqri, Llc Remote object detection and local tracking using visual odometry
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9830679B2 (en) 2014-03-25 2017-11-28 Google Llc Shared virtual reality
WO2015155628A1 (en) 2014-04-07 2015-10-15 Eyeways Systems Ltd. Apparatus and method for image-based positioning, orientation and situational awareness
GB2526263B (en) 2014-05-08 2019-02-06 Sony Interactive Entertainment Europe Ltd Image capture method and apparatus
CN112651288B (en) 2014-06-14 2022-09-20 奇跃公司 Method and system for generating virtual and augmented reality
US10068373B2 (en) 2014-07-01 2018-09-04 Samsung Electronics Co., Ltd. Electronic device for providing map information
CN104143212A (en) 2014-07-02 2014-11-12 惠州Tcl移动通信有限公司 Reality augmenting method and system based on wearable device
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US20190347865A1 (en) 2014-09-18 2019-11-14 Google Inc. Three-dimensional drawing inside virtual reality environment
US20200252233A1 (en) 2014-09-24 2020-08-06 James Thomas O'Keeffe System and method for user profile enabled smart building control
US10719727B2 (en) 2014-10-01 2020-07-21 Apple Inc. Method and system for determining at least one property related to at least part of a real environment
US9754419B2 (en) 2014-11-16 2017-09-05 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
US10139471B2 (en) 2014-12-04 2018-11-27 Here Global B.V. Supporting a collaborative collection of data
US10335677B2 (en) 2014-12-23 2019-07-02 Matthew Daniel Fuchs Augmented reality system with agent device for viewing persistent content and method of operation thereof
US9685005B2 (en) 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US20160300389A1 (en) 2015-04-08 2016-10-13 Exactigo, Inc. Correlated immersive virtual simulation for indoor navigation
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
US9467718B1 (en) 2015-05-06 2016-10-11 Echostar Broadcasting Corporation Apparatus, systems and methods for a content commentary community
KR101725478B1 (en) 2015-05-21 2017-04-11 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
US20160381118A1 (en) 2015-06-23 2016-12-29 Microsoft Technology Licensing, Llc Extracting and formatting content from web-resources
WO2017039308A1 (en) 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
ES2920837T3 (en) 2015-09-10 2022-08-10 Oriient New Media Ltd Navigate, track and position mobile devices in areas with no GPS or inaccurate GPS with automatic map generation
CA2941893C (en) 2015-09-14 2020-02-25 The Toronto-Dominion Bank Connected device-based property evaluation
US20170094227A1 (en) 2015-09-25 2017-03-30 Northrop Grumman Systems Corporation Three-dimensional spatial-awareness vision system
JP6944441B2 (en) 2015-09-25 2021-10-06 マジック リープ, インコーポレイテッドMagic Leap,Inc. Methods and systems for detecting and combining structural features in 3D reconstruction
GB201517101D0 (en) 2015-09-28 2015-11-11 Univ Essex Entpr Ltd Mixed-reality system
US10471355B2 (en) 2015-10-21 2019-11-12 Sharp Kabushiki Kaisha Display system, method of controlling display system, image generation control program, and computer-readable storage medium
US9706366B2 (en) 2015-11-06 2017-07-11 International Business Machines Corporation WiFi-fingerprint based indoor localization map
US10254845B2 (en) 2016-01-05 2019-04-09 Intel Corporation Hand gesture recognition for cursor control
US10523865B2 (en) 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
WO2017143303A1 (en) 2016-02-17 2017-08-24 Meta Company Apparatuses, methods and systems for sharing virtual elements
US10373380B2 (en) 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
JP6776609B2 (en) 2016-02-22 2020-10-28 デクセリアルズ株式会社 Anisotropic conductive film
US20180122143A1 (en) 2016-03-15 2018-05-03 Sutherland Cook Ellwood, JR. Hybrid photonic vr/ar systems
US10115234B2 (en) 2016-03-21 2018-10-30 Accenture Global Solutions Limited Multiplatform based experience generation
US10802147B2 (en) 2016-05-18 2020-10-13 Google Llc System and method for concurrent odometry and mapping
US10586391B2 (en) 2016-05-31 2020-03-10 Accenture Global Solutions Limited Interactive virtual reality platforms
CA3033344A1 (en) 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space
IL307594A (en) 2016-08-22 2023-12-01 Magic Leap Inc Virtual, augmented, and mixed reality systems and methods
US10162362B2 (en) 2016-08-29 2018-12-25 PerceptIn, Inc. Fault tolerance to provide robust tracking for autonomous positional awareness
US10007868B2 (en) 2016-09-19 2018-06-26 Adobe Systems Incorporated Font replacement based on visual similarity
US10354129B2 (en) 2017-01-03 2019-07-16 Intel Corporation Hand gesture recognition for virtual reality and augmented reality devices
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
WO2018139773A1 (en) 2017-01-25 2018-08-02 한국과학기술연구원 Slam method and device robust to changes in wireless environment
US10460489B2 (en) 2017-03-15 2019-10-29 Facebook, Inc. Visual editor for designing augmented-reality effects and configuring scaling parameters
EP3596542B1 (en) 2017-03-17 2024-01-17 Magic Leap, Inc. Technique for recording augmented reality data
US10600252B2 (en) 2017-03-30 2020-03-24 Microsoft Technology Licensing, Llc Coarse relocalization using signal fingerprints
US11017592B2 (en) 2017-03-30 2021-05-25 Magic Leap, Inc. Centralized rendering
US9754397B1 (en) 2017-04-07 2017-09-05 Mirage Worlds, Inc. Systems and methods for contextual augmented reality sharing and performance
CN111133365B (en) 2017-05-01 2023-03-31 奇跃公司 Matching content to spatial 3D environment
WO2018222756A1 (en) 2017-05-30 2018-12-06 Ptc Inc. Object initiated communication
CN109145927A (en) 2017-06-16 2019-01-04 杭州海康威视数字技术股份有限公司 The target identification method and device of a kind of pair of strain image
JP6585665B2 (en) 2017-06-29 2019-10-02 ファナック株式会社 Virtual object display system
US10503955B2 (en) 2017-08-29 2019-12-10 Synaptics Incorporated Device with improved circuit positioning
WO2019046774A1 (en) 2017-09-01 2019-03-07 Memorial Sloan Kettering Cancer Center Systems and methods for generating 3d medical images by scanning a whole tissue block
US10546387B2 (en) 2017-09-08 2020-01-28 Qualcomm Incorporated Pose determination with semantic segmentation
US10685456B2 (en) 2017-10-12 2020-06-16 Microsoft Technology Licensing, Llc Peer to peer remote localization for devices
CN111344716B (en) 2017-11-14 2024-07-19 奇跃公司 Full convolution point of interest detection and description via homography transform adaptation
WO2019118886A1 (en) 2017-12-15 2019-06-20 Magic Leap, Inc. Enhanced pose determination for display device
CN111684495A (en) 2017-12-22 2020-09-18 奇跃公司 Method and system for managing and displaying virtual content in a mixed reality system
US11237004B2 (en) 2018-03-27 2022-02-01 Uatc, Llc Log trajectory estimation for globally consistent maps
US10838574B2 (en) 2018-04-09 2020-11-17 Spatial Systems Inc. Augmented reality computing environments—workspace save and load
US10803671B2 (en) 2018-05-04 2020-10-13 Microsoft Technology Licensing, Llc Authoring content in three-dimensional environment
US11321929B2 (en) * 2018-05-18 2022-05-03 Purdue Research Foundation System and method for spatially registering multiple augmented reality devices
US10812711B2 (en) 2018-05-18 2020-10-20 Samsung Electronics Co., Ltd. Semantic mapping for low-power augmented reality using dynamic vision sensor
CN110515452B (en) 2018-05-22 2022-02-22 腾讯科技(深圳)有限公司 Image processing method, image processing device, storage medium and computer equipment
US10706629B2 (en) 2018-06-15 2020-07-07 Dell Products, L.P. Coordinate override in virtual, augmented, and mixed reality (xR) applications
US11182614B2 (en) 2018-07-24 2021-11-23 Magic Leap, Inc. Methods and apparatuses for determining and/or evaluating localizing maps of image display devices
EP3837674A4 (en) 2018-08-13 2022-05-18 Magic Leap, Inc. A cross reality system
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
CN112889118A (en) 2018-09-04 2021-06-01 阿克提雅有限公司 System for determining blood pressure of one or more users
JP7503542B2 (en) 2018-10-05 2024-06-20 マジック リープ, インコーポレイテッド Rendering location-specific virtual content anywhere
US11397438B2 (en) * 2018-11-16 2022-07-26 Robotic Research Opco, Llc Driver aid and autonomous tractor-trailer parking and loading dock alignment system
US10854007B2 (en) 2018-12-03 2020-12-01 Microsoft Technology Licensing, Llc Space models for mixed reality
US20200211290A1 (en) 2018-12-26 2020-07-02 Lg Electronics Inc. Xr device for providing ar mode and vr mode and method for controlling the same
EP3895416A4 (en) 2019-03-27 2022-03-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Three-dimensional localization using light-depth images
US11151792B2 (en) 2019-04-26 2021-10-19 Google Llc System and method for creating persistent mappings in augmented reality
US10748302B1 (en) 2019-05-02 2020-08-18 Apple Inc. Multiple user simultaneous localization and mapping (SLAM)
US11010921B2 (en) 2019-05-16 2021-05-18 Qualcomm Incorporated Distributed pose estimation
US20200364937A1 (en) 2019-05-16 2020-11-19 Subvrsive, Inc. System-adaptive augmented reality
US11145083B2 (en) 2019-05-21 2021-10-12 Microsoft Technology Licensing, Llc Image-based localization
US20200380263A1 (en) 2019-05-29 2020-12-03 Gyrfalcon Technology Inc. Detecting key frames in video compression in an artificial intelligence semiconductor solution
US10854012B1 (en) 2019-05-29 2020-12-01 Dell Products, L.P. Concealing loss of distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures
US10852828B1 (en) 2019-07-17 2020-12-01 Dell Products, L.P. Automatic peripheral pairing with hand assignments in virtual, augmented, and mixed reality (xR) applications
US10936874B1 (en) 2019-08-13 2021-03-02 Dell Products, L.P. Controller gestures in virtual, augmented, and mixed reality (xR) applications
KR20190104928A (en) 2019-08-22 2019-09-11 엘지전자 주식회사 Extended reality device and method for controlling the extended reality device
US11270515B2 (en) 2019-09-04 2022-03-08 Qualcomm Incorporated Virtual keyboard
CN114222960A (en) 2019-09-09 2022-03-22 苹果公司 Multimodal input for computer-generated reality
JP2022551734A (en) * 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド Cross-reality system that supports multiple device types
JP2022551735A (en) * 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド Cross-reality system using wireless fingerprints
WO2021076754A1 (en) 2019-10-15 2021-04-22 Magic Leap, Inc. Cross reality system with localization service
US11494995B2 (en) * 2019-10-29 2022-11-08 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP4052086A4 (en) 2019-10-31 2023-11-15 Magic Leap, Inc. Cross reality system with quality information about persistent coordinate frames
WO2021096931A1 (en) * 2019-11-12 2021-05-20 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
JP2023504570A (en) 2019-12-09 2023-02-03 マジック リープ, インコーポレイテッド Cross-reality system with simplified programming of virtual content
WO2021163300A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
CN115427758A (en) 2020-02-13 2022-12-02 奇跃公司 Cross reality system with accurate shared map
EP4104144A4 (en) * 2020-02-13 2024-06-05 Magic Leap, Inc. Cross reality system for large scale environments
CN115398484A (en) 2020-02-13 2022-11-25 奇跃公司 Cross reality system with geolocation information priority for location
CN115461787A (en) 2020-02-26 2022-12-09 奇跃公司 Cross reality system with quick positioning
US12052408B2 (en) * 2020-02-26 2024-07-30 Intel Corporation Depth based 3D reconstruction using an a-priori depth scene

Similar Documents

Publication Publication Date Title
JPWO2021222371A5 (en)
CN107747941B (en) Binocular vision positioning method, device and system
US10580162B2 (en) Method for determining the pose of a camera and for recognizing an object of a real environment
US11503428B2 (en) Systems and methods for co-localization of multiple devices
JP5920352B2 (en) Information processing apparatus, information processing method, and program
TWI574223B (en) Navigation system using augmented reality technology
JP6255085B2 (en) Locating system and locating method
JP5499762B2 (en) Image processing apparatus, image processing method, program, and image processing system
JP6830140B2 (en) Motion vector field determination method, motion vector field determination device, equipment, computer readable storage medium and vehicle
RU2011127163A (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM AND SYSTEM
JP2017520063A5 (en)
JPWO2021076754A5 (en)
JP2000041173A (en) Deciding method for visual point position attitude, camera device and visual point position sensor
JP2005528707A5 (en)
US20230014421A1 (en) 6DoF INSIDE-OUT TRACKING GAME CONTROLLER INITIAL REGISTRATION
JPWO2021076757A5 (en)
CN111369628A (en) Multi-camera centralized cooperative SLAM method and system
JPWO2021163300A5 (en)
KR102074370B1 (en) Method for providing augmented reality contents
JPWO2020262392A5 (en)
CN115112123A (en) Multi-mobile-robot cooperative positioning method and system based on vision-IMU fusion
CN110119189A (en) The initialization of SLAM system, AR control method, device and system
Calloway et al. Three tiered visual-inertial tracking and mapping for augmented reality in urban settings
CN110501016B (en) Method and device for measuring satellite attitude
CN113077306B (en) Image processing method, device and equipment