JPWO2021243103A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021243103A5
JPWO2021243103A5 JP2022572567A JP2022572567A JPWO2021243103A5 JP WO2021243103 A5 JPWO2021243103 A5 JP WO2021243103A5 JP 2022572567 A JP2022572567 A JP 2022572567A JP 2022572567 A JP2022572567 A JP 2022572567A JP WO2021243103 A5 JPWO2021243103 A5 JP WO2021243103A5
Authority
JP
Japan
Prior art keywords
measurement unit
inertial
head device
inertial measurement
wearable head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022572567A
Other languages
Japanese (ja)
Other versions
JP2023527357A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/034647 external-priority patent/WO2021243103A1/en
Publication of JP2023527357A publication Critical patent/JP2023527357A/en
Publication of JPWO2021243103A5 publication Critical patent/JPWO2021243103A5/ja
Pending legal-status Critical Current

Links

Description

いくつかの実施形態では、本方法はさらに、角加速に基づいて、かつ、さらにウェアラブル頭部デバイスの第1の位置に基づいて、ウェアラブル頭部デバイスの将来的位置を予測することと、ウェアラブル頭部デバイスの将来的位置に基づいて、仮想コンテンツの提示を更新することとを含む。
本発明は、例えば、以下を提供する。
(項目1)
システムであって、
第1の慣性測定ユニットと、
第2の慣性測定ユニットと、
1つまたはそれを上回るプロセッサであって、
前記第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
前記第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、さらに前記第2の慣性データに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することと、
前記ウェアラブル頭部デバイスの第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。
(項目2)
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、項目1に記載のシステム。
(項目3)
前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない第3の慣性測定ユニットをさらに備える、項目2に記載のシステム。
(項目4)
前記方法はさらに、
前記第3の慣性測定ユニットを介して、第3の慣性データを生成すること
を含み、
前記角加速は、さらに前記第3の慣性データに基づいて計算される、
項目3に記載のシステム。
(項目5)
前記角加速に基づいて、前記ウェアラブル頭部デバイスの第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、項目1に記載のシステム。
(項目6)
前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、各状態は、個別の位置データ、個別の速度データ、個別の加速度計バイアスデータ、および個別のジャイロスコープバイアスデータを備える、項目5に記載のシステム。
(項目7)
前記方法はさらに、
前記角加速に基づいて、かつ、さらに前記ウェアラブル頭部デバイスの第1の位置に基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
を含む、項目1に記載のシステム。
(項目8)
方法であって、
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、さらに前記第2の慣性データに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することと、
前記ウェアラブル頭部デバイスの第1の位置に基づいて、仮想コンテンツを提示することと
を含む、方法。
(項目9)
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、項目8に記載の方法。
(項目10)
前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない第3の慣性測定ユニットを介して、第3の慣性データを生成することをさらに含む、項目9に記載の方法。
(項目11)
前記角加速は、さらに前記第3の慣性データに基づいて計算される、項目10に記載の方法。
(項目12)
前記角加速に基づいて、前記ウェアラブル頭部デバイスの第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、項目8に記載の方法。
(項目13)
前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、各状態は、個別の位置データ、個別の速度データ、個別の加速度計バイアスデータ、および個別のジャイロスコープバイアスデータを備える、項目12に記載の方法。
(項目14)
前記角加速に基づいて、かつ、さらに前記ウェアラブル頭部デバイスの第1の位置に基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
をさらに含む、項目8に記載の方法。
(項目15)
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、1つまたはそれを上回る命令を記憶しており、前記1つまたはそれを上回る命令は、電子デバイスの1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、さらに前記第2の慣性データに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することと、
前記ウェアラブル頭部デバイスの第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実施させる、非一過性コンピュータ可読媒体。
(項目16)
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、項目15に記載の非一過性コンピュータ可読媒体。
(項目17)
前記方法はさらに、前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない、第3の慣性測定ユニットを介して、第3の慣性データを生成することを含む、項目16に記載の非一過性コンピュータ可読媒体。
(項目18)
前記角加速に基づいて、前記ウェアラブル頭部デバイスの第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、項目15に記載の非一過性コンピュータ可読媒体。
(項目19)
前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、各状態は、個別の位置データ、個別の速度データ、個別の加速度計バイアスデータ、および個別のジャイロスコープバイアスデータを備える、項目18に記載の非一過性コンピュータ可読媒体。
(項目20)
前記方法はさらに、
前記角加速に基づいて、かつ、さらに前記ウェアラブル頭部デバイスの第1の位置に基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
を含む、項目15に記載の非一過性コンピュータ可読媒体。
In some embodiments, the method further includes predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device, and updating the presentation of the virtual content based on the future position of the wearable head device.
The present invention provides, for example, the following:
(Item 1)
1. A system comprising:
a first inertial measurement unit;
a second inertial measurement unit; and
One or more processors,
receiving first inertial data via the first inertial measurement unit;
receiving second inertial data via the second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration;
presenting virtual content based on a first position of the wearable head device;
one or more processors configured to execute a method comprising:
A system comprising:
(Item 2)
2. The system of claim 1, wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis.
(Item 3)
3. The system of claim 2, further comprising a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit.
(Item 4)
The method further comprises:
generating third inertial data via the third inertial measurement unit;
Including,
The angular acceleration is further calculated based on the third inertial data.
4. The system according to item 3.
(Item 5)
2. The system of claim 1, wherein estimating a first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration.
(Item 6)
6. The system of claim 5, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each state comprising individual position data, individual velocity data, individual accelerometer bias data, and individual gyroscope bias data.
(Item 7)
The method further comprises:
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
updating the presentation of the virtual content based on a future position of the wearable head device;
2. The system according to claim 1, comprising:
(Item 8)
1. A method comprising:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration;
presenting virtual content based on a first position of the wearable head device;
A method comprising:
(Item 9)
9. The method of claim 8, wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis.
(Item 10)
10. The method of claim 9, further comprising generating third inertial data via a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit.
(Item 11)
11. The method of claim 10, wherein the angular acceleration is further calculated based on the third inertial data.
(Item 12)
9. The method of claim 8, wherein estimating a first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration.
(Item 13)
13. The method of claim 12, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each state comprising individual position data, individual velocity data, individual accelerometer bias data, and individual gyroscope bias data.
(Item 14)
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
updating the presentation of the virtual content based on a future position of the wearable head device;
9. The method of claim 8, further comprising:
(Item 15)
A non-transitory computer readable medium having stored thereon one or more instructions that, when executed by one or more processors of an electronic device, cause the one or more processors to:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration;
presenting virtual content based on a first position of the wearable head device;
A non-transitory computer readable medium for carrying out a method comprising:
(Item 16)
Item 16. The non-transitory computer-readable medium of item 15, wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis.
(Item 17)
20. The non-transitory computer-readable medium of claim 16, wherein the method further includes generating third inertial data via a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit.
(Item 18)
20. The non-transitory computer-readable medium of claim 15, wherein estimating a first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration.
(Item 19)
20. The non-transitory computer-readable medium of claim 18, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each state comprising individual position data, individual velocity data, individual accelerometer bias data, and individual gyroscope bias data.
(Item 20)
The method further comprises:
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
updating the presentation of the virtual content based on a future position of the wearable head device;
Item 16. The non-transitory computer-readable medium of item 15, comprising:

Claims (17)

システムであって、
第1の慣性測定ユニットと、
第2の慣性測定ユニットと、
1つまたはそれを上回るプロセッサであって、
前記第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
前記第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ前記第2の慣性データにさらに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することであって、前記角加速に基づいて、前記ウェアラブル頭部デバイスの前記第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、ことと、
前記ウェアラブル頭部デバイスの前記第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。
1. A system comprising:
a first inertial measurement unit;
a second inertial measurement unit; and
One or more processors,
receiving first inertial data via the first inertial measurement unit;
receiving second inertial data via the second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration , where estimating the first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration;
and presenting virtual content based on the first position of the wearable head device.
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、請求項1に記載のシステム。 The system of claim 1, wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis. 前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない第3の慣性測定ユニットをさらに備える、請求項2に記載のシステム。 The system of claim 2, further comprising a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit. 前記方法は
前記第3の慣性測定ユニットを介して、第3の慣性データを生成すること
さらに含み、
前記角加速は前記第3の慣性データにさらに基づいて計算される、請求項3に記載のシステム。
The method comprises :
generating third inertial data via the third inertial measurement unit;
The system of claim 3 , wherein the angular acceleration is calculated further based on the third inertial data.
前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、前記第1の状態および前記第2の状態のそれぞれは、個別の位置データ、個別の速度データ前記第1の慣性測定ユニットまたは前記第2の慣性測定ユニットと関連付けられるバイアスデータを備える、請求項に記載のシステム。 2. The system of claim 1, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each of the first state and the second state comprising respective position data, respective velocity data, and bias data associated with the first inertial measurement unit or the second inertial measurement unit . 前記方法は
前記角加速に基づいて、かつ前記ウェアラブル頭部デバイスの前記第1の位置にさらに基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの前記将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
さらに含む、請求項1に記載のシステム。
The method comprises :
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
and updating the presentation of the virtual content based on the future position of the wearable head device.
方法であって、
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ前記第2の慣性データにさらに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することであって、前記角加速に基づいて、前記ウェアラブル頭部デバイスの前記第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、ことと、
前記ウェアラブル頭部デバイスの前記第1の位置に基づいて、仮想コンテンツを提示することと
を含む、方法。
1. A method comprising:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration , where estimating the first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration;
presenting virtual content based on the first position of the wearable head device.
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、請求項に記載の方法。 The method of claim 7 , wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis. 前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない第3の慣性測定ユニットを介して、第3の慣性データを生成することをさらに含む、請求項に記載の方法。 9. The method of claim 8, further comprising generating third inertial data via a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit. 前記角加速は前記第3の慣性データにさらに基づいて計算される、請求項に記載の方法。 The method of claim 9 , wherein the angular acceleration is calculated further based on the third inertial data. 前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、前記第1の状態および前記第2の状態のそれぞれは、個別の位置データ、個別の速度データ前記第1の慣性測定ユニットまたは前記第2の慣性測定ユニットと関連付けられるバイアスデータを備える、請求項に記載の方法。 8. The method of claim 7, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each of the first state and the second state comprising respective position data, respective velocity data, and bias data associated with the first inertial measurement unit or the second inertial measurement unit . 前記角加速に基づいて、かつ前記ウェアラブル頭部デバイスの前記第1の位置にさらに基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの前記将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
をさらに含む、請求項に記載の方法。
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
and updating the presentation of the virtual content based on the future position of the wearable head device .
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、1つまたはそれを上回る命令を記憶しており、前記1つまたはそれを上回る命令は、電子デバイスの1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ前記第2の慣性データにさらに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することであって、前記角加速に基づいて、前記ウェアラブル頭部デバイスの前記第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、ことと、
前記ウェアラブル頭部デバイスの前記第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実施させる、非一過性コンピュータ可読媒体。
A non-transitory computer readable medium having stored thereon one or more instructions that, when executed by one or more processors of an electronic device, cause the one or more processors to:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration , where estimating the first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration;
and presenting virtual content based on the first position of the wearable head device.
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、請求項13に記載の非一過性コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 13 , wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis. 前記方法は前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しな第3の慣性測定ユニットを介して、第3の慣性データを生成することをさらに含む、請求項14に記載の非一過性コンピュータ可読媒体。 15. The non-transitory computer-readable medium of claim 14 , wherein the method further includes generating third inertial data via a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit. 前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、前記第1の状態および前記第2の状態のそれぞれは、個別の位置データ、個別の速度データ前記第1の慣性測定ユニットまたは前記第2の慣性測定ユニットと関連付けられるバイアスデータを備える、請求項13に記載の非一過性コンピュータ可読媒体。 14. The non-transitory computer-readable medium of claim 13, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each of the first state and the second state comprising respective position data, respective velocity data, and bias data associated with the first inertial measurement unit or the second inertial measurement unit . 前記方法は
前記角加速に基づいて、かつ前記ウェアラブル頭部デバイスの前記第1の位置にさらに基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの前記将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
さらに含む、請求項13に記載の非一過性コンピュータ可読媒体。
The method comprises :
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
and updating the presentation of the virtual content based on the future position of the wearable head device.
JP2022572567A 2020-05-29 2021-05-27 Determination of angular acceleration Pending JP2023527357A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063031985P 2020-05-29 2020-05-29
US63/031,985 2020-05-29
PCT/US2021/034647 WO2021243103A1 (en) 2020-05-29 2021-05-27 Determining angular acceleration

Publications (2)

Publication Number Publication Date
JP2023527357A JP2023527357A (en) 2023-06-28
JPWO2021243103A5 true JPWO2021243103A5 (en) 2024-04-24

Family

ID=78706260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022572567A Pending JP2023527357A (en) 2020-05-29 2021-05-27 Determination of angular acceleration

Country Status (5)

Country Link
US (2) US11561613B2 (en)
EP (1) EP4158615A4 (en)
JP (1) JP2023527357A (en)
CN (1) CN116210021A (en)
WO (1) WO2021243103A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021077024A1 (en) * 2019-10-18 2021-04-22 Magic Leap, Inc. Gravity estimation and bundle adjustment for visual-inertial odometry
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
WO2021243103A1 (en) 2020-05-29 2021-12-02 Magic Leap, Inc. Determining angular acceleration

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
US5933125A (en) * 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US6491391B1 (en) 1999-07-02 2002-12-10 E-Vision Llc System, apparatus, and method for reducing birefringence
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
CA2362895A1 (en) 2001-06-26 2002-12-26 Steve Mann Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license
DE10132872B4 (en) 2001-07-06 2018-10-11 Volkswagen Ag Head mounted optical inspection system
US20030030597A1 (en) 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
CA2388766A1 (en) 2002-06-17 2003-12-17 Steve Mann Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7500747B2 (en) 2003-10-09 2009-03-10 Ipventure, Inc. Eyeglasses with electrical components
CN102068237A (en) 2004-04-01 2011-05-25 威廉·C·托奇 Controllers and Methods for Monitoring Eye Movement, System and Method for Controlling Calculation Device
US20060185432A1 (en) * 2005-01-13 2006-08-24 Harvey Weinberg Five degree of freedom intertial measurement device
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US20120078570A1 (en) * 2010-09-29 2012-03-29 Apple Inc. Multiple accelerometer system
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US9274338B2 (en) 2012-03-21 2016-03-01 Microsoft Technology Licensing, Llc Increasing field of view of reflective waveguide
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
JP6498606B2 (en) 2012-12-06 2019-04-10 グーグル エルエルシー Wearable gaze measurement device and method of use
KR20150103723A (en) 2013-01-03 2015-09-11 메타 컴퍼니 Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US20140195918A1 (en) 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
KR102292031B1 (en) * 2015-06-12 2021-08-20 구글 엘엘씨 Electronic display stabilization for head mounted displays
US10191561B2 (en) * 2015-06-15 2019-01-29 Facebook Technologies, Llc Tracking controllers of a virtual reality system
KR102501752B1 (en) 2015-09-21 2023-02-20 삼성전자주식회사 The method and apparatus for comppensating motion of the head mounted display
US10839547B2 (en) 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking
KR102440358B1 (en) * 2017-10-12 2022-09-05 한화디펜스 주식회사 Inertial-based navigation device and Inertia-based navigation method based on relative preintegration
US10970425B2 (en) 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
US10444932B2 (en) * 2018-01-25 2019-10-15 Institute For Information Industry Virtual space positioning method and apparatus
WO2019164498A1 (en) 2018-02-23 2019-08-29 Sony Mobile Communications Inc. Methods, devices and computer program products for global bundle adjustment of 3d images
JP2020020631A (en) 2018-07-31 2020-02-06 セイコーエプソン株式会社 Attitude estimation method, attitude estimation device, and moving object
WO2021077024A1 (en) 2019-10-18 2021-04-22 Magic Leap, Inc. Gravity estimation and bundle adjustment for visual-inertial odometry
WO2021243103A1 (en) 2020-05-29 2021-12-02 Magic Leap, Inc. Determining angular acceleration

Similar Documents

Publication Publication Date Title
US9367960B2 (en) Body-locked placement of augmented reality objects
JP7287997B2 (en) Positioning method, positioning device, electronic device, vehicle end device, self-driving vehicle, computer readable storage medium and computer program
TWI631342B (en) A method to reduce data rates and power consumption using device based attitude generation
JP2011227017A (en) Device and method for attitude estimation of moving body using inertial sensor, magnetic sensor, and speed meter
WO2020190380A1 (en) Fixed holograms in mobile environments
CN103175528A (en) Strap-down compass gesture measurement method based on strap-down inertial navigation system
US20190271543A1 (en) Method and system for lean angle estimation of motorcycles
JP2015179002A (en) Attitude estimation method, attitude estimation device and program
JP6085375B2 (en) Traveling direction determination device, map matching device, traveling direction determination method, and program
JPWO2021243103A5 (en)
WO2014125809A1 (en) Attitude calculating apparatus, attitude calculating method, portable apparatus, and program
JPWO2020214272A5 (en)
US20230314153A1 (en) Processing System Having A Machine Learning Engine For Providing A Common Trip Format (CTF) Output
JP6452808B2 (en) Low latency simulation apparatus and method using direction prediction, and computer program therefor
JP6250708B2 (en) Traveling direction information output device, map matching device, traveling direction information output method, and program
JPWO2021163626A5 (en)
JP7372949B2 (en) Speed prediction methods, devices, electronic devices, storage media and computer program products
JP2913122B2 (en) Strap down gyro device
US11886245B2 (en) Estimating runtime-frame velocity of wearable device
EP4185938A1 (en) Device tracking with angle-of-arrival data
US20220350365A1 (en) Composite pose estimate for wearable computing device
US20240160244A1 (en) Estimating runtime-frame velocity of wearable device
JP7216761B2 (en) Location information determination method, device and equipment
CN110857860B (en) Positioning conversion method and system thereof
US11946744B2 (en) Synchronization of a gyroscope in a virtual-reality environment