JPWO2021243103A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021243103A5 JPWO2021243103A5 JP2022572567A JP2022572567A JPWO2021243103A5 JP WO2021243103 A5 JPWO2021243103 A5 JP WO2021243103A5 JP 2022572567 A JP2022572567 A JP 2022572567A JP 2022572567 A JP2022572567 A JP 2022572567A JP WO2021243103 A5 JPWO2021243103 A5 JP WO2021243103A5
- Authority
- JP
- Japan
- Prior art keywords
- measurement unit
- inertial
- head device
- inertial measurement
- wearable head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 claims description 66
- 230000001133 acceleration Effects 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 24
Description
いくつかの実施形態では、本方法はさらに、角加速に基づいて、かつ、さらにウェアラブル頭部デバイスの第1の位置に基づいて、ウェアラブル頭部デバイスの将来的位置を予測することと、ウェアラブル頭部デバイスの将来的位置に基づいて、仮想コンテンツの提示を更新することとを含む。
本発明は、例えば、以下を提供する。
(項目1)
システムであって、
第1の慣性測定ユニットと、
第2の慣性測定ユニットと、
1つまたはそれを上回るプロセッサであって、
前記第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
前記第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、さらに前記第2の慣性データに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することと、
前記ウェアラブル頭部デバイスの第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。
(項目2)
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、項目1に記載のシステム。
(項目3)
前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない第3の慣性測定ユニットをさらに備える、項目2に記載のシステム。
(項目4)
前記方法はさらに、
前記第3の慣性測定ユニットを介して、第3の慣性データを生成すること
を含み、
前記角加速は、さらに前記第3の慣性データに基づいて計算される、
項目3に記載のシステム。
(項目5)
前記角加速に基づいて、前記ウェアラブル頭部デバイスの第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、項目1に記載のシステム。
(項目6)
前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、各状態は、個別の位置データ、個別の速度データ、個別の加速度計バイアスデータ、および個別のジャイロスコープバイアスデータを備える、項目5に記載のシステム。
(項目7)
前記方法はさらに、
前記角加速に基づいて、かつ、さらに前記ウェアラブル頭部デバイスの第1の位置に基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
を含む、項目1に記載のシステム。
(項目8)
方法であって、
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、さらに前記第2の慣性データに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することと、
前記ウェアラブル頭部デバイスの第1の位置に基づいて、仮想コンテンツを提示することと
を含む、方法。
(項目9)
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、項目8に記載の方法。
(項目10)
前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない第3の慣性測定ユニットを介して、第3の慣性データを生成することをさらに含む、項目9に記載の方法。
(項目11)
前記角加速は、さらに前記第3の慣性データに基づいて計算される、項目10に記載の方法。
(項目12)
前記角加速に基づいて、前記ウェアラブル頭部デバイスの第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、項目8に記載の方法。
(項目13)
前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、各状態は、個別の位置データ、個別の速度データ、個別の加速度計バイアスデータ、および個別のジャイロスコープバイアスデータを備える、項目12に記載の方法。
(項目14)
前記角加速に基づいて、かつ、さらに前記ウェアラブル頭部デバイスの第1の位置に基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
をさらに含む、項目8に記載の方法。
(項目15)
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、1つまたはそれを上回る命令を記憶しており、前記1つまたはそれを上回る命令は、電子デバイスの1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、さらに前記第2の慣性データに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することと、
前記ウェアラブル頭部デバイスの第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実施させる、非一過性コンピュータ可読媒体。
(項目16)
前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットは、一致する測定軸を共有する、項目15に記載の非一過性コンピュータ可読媒体。
(項目17)
前記方法はさらに、前記一致する測定軸を前記第1の慣性測定ユニットおよび前記第2の慣性測定ユニットと共有しない、第3の慣性測定ユニットを介して、第3の慣性データを生成することを含む、項目16に記載の非一過性コンピュータ可読媒体。
(項目18)
前記角加速に基づいて、前記ウェアラブル頭部デバイスの第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、項目15に記載の非一過性コンピュータ可読媒体。
(項目19)
前記予備積分項は、前記ウェアラブル頭部デバイスの第1の状態を前記ウェアラブル頭部デバイスの第2の状態に関連させ、各状態は、個別の位置データ、個別の速度データ、個別の加速度計バイアスデータ、および個別のジャイロスコープバイアスデータを備える、項目18に記載の非一過性コンピュータ可読媒体。
(項目20)
前記方法はさらに、
前記角加速に基づいて、かつ、さらに前記ウェアラブル頭部デバイスの第1の位置に基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
を含む、項目15に記載の非一過性コンピュータ可読媒体。
In some embodiments, the method further includes predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device, and updating the presentation of the virtual content based on the future position of the wearable head device.
The present invention provides, for example, the following:
(Item 1)
1. A system comprising:
a first inertial measurement unit;
a second inertial measurement unit; and
One or more processors,
receiving first inertial data via the first inertial measurement unit;
receiving second inertial data via the second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration;
presenting virtual content based on a first position of the wearable head device;
one or more processors configured to execute a method comprising:
A system comprising:
(Item 2)
2. The system of claim 1, wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis.
(Item 3)
3. The system of claim 2, further comprising a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit.
(Item 4)
The method further comprises:
generating third inertial data via the third inertial measurement unit;
Including,
The angular acceleration is further calculated based on the third inertial data.
4. The system according to item 3.
(Item 5)
2. The system of claim 1, wherein estimating a first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration.
(Item 6)
6. The system of claim 5, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each state comprising individual position data, individual velocity data, individual accelerometer bias data, and individual gyroscope bias data.
(Item 7)
The method further comprises:
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
updating the presentation of the virtual content based on a future position of the wearable head device;
2. The system according to claim 1, comprising:
(Item 8)
1. A method comprising:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration;
presenting virtual content based on a first position of the wearable head device;
A method comprising:
(Item 9)
9. The method of claim 8, wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis.
(Item 10)
10. The method of claim 9, further comprising generating third inertial data via a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit.
(Item 11)
11. The method of claim 10, wherein the angular acceleration is further calculated based on the third inertial data.
(Item 12)
9. The method of claim 8, wherein estimating a first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration.
(Item 13)
13. The method of claim 12, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each state comprising individual position data, individual velocity data, individual accelerometer bias data, and individual gyroscope bias data.
(Item 14)
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
updating the presentation of the virtual content based on a future position of the wearable head device;
9. The method of claim 8, further comprising:
(Item 15)
A non-transitory computer readable medium having stored thereon one or more instructions that, when executed by one or more processors of an electronic device, cause the one or more processors to:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration;
presenting virtual content based on a first position of the wearable head device;
A non-transitory computer readable medium for carrying out a method comprising:
(Item 16)
Item 16. The non-transitory computer-readable medium of item 15, wherein the first inertial measurement unit and the second inertial measurement unit share a coincident measurement axis.
(Item 17)
20. The non-transitory computer-readable medium of claim 16, wherein the method further includes generating third inertial data via a third inertial measurement unit that does not share the coincident measurement axis with the first inertial measurement unit and the second inertial measurement unit.
(Item 18)
20. The non-transitory computer-readable medium of claim 15, wherein estimating a first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration.
(Item 19)
20. The non-transitory computer-readable medium of claim 18, wherein the pre-integral term relates a first state of the wearable head device to a second state of the wearable head device, each state comprising individual position data, individual velocity data, individual accelerometer bias data, and individual gyroscope bias data.
(Item 20)
The method further comprises:
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
updating the presentation of the virtual content based on a future position of the wearable head device;
Item 16. The non-transitory computer-readable medium of item 15, comprising:
Claims (17)
第1の慣性測定ユニットと、
第2の慣性測定ユニットと、
1つまたはそれを上回るプロセッサであって、
前記第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
前記第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、前記第2の慣性データにさらに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することであって、前記角加速に基づいて、前記ウェアラブル頭部デバイスの前記第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、ことと、
前記ウェアラブル頭部デバイスの前記第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。 1. A system comprising:
a first inertial measurement unit;
a second inertial measurement unit; and
One or more processors,
receiving first inertial data via the first inertial measurement unit;
receiving second inertial data via the second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration , where estimating the first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration;
and presenting virtual content based on the first position of the wearable head device.
前記第3の慣性測定ユニットを介して、第3の慣性データを生成すること
をさらに含み、
前記角加速は、前記第3の慣性データにさらに基づいて計算される、請求項3に記載のシステム。 The method comprises :
generating third inertial data via the third inertial measurement unit;
The system of claim 3 , wherein the angular acceleration is calculated further based on the third inertial data.
前記角加速に基づいて、かつ、前記ウェアラブル頭部デバイスの前記第1の位置にさらに基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの前記将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
をさらに含む、請求項1に記載のシステム。 The method comprises :
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
and updating the presentation of the virtual content based on the future position of the wearable head device.
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、前記第2の慣性データにさらに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することであって、前記角加速に基づいて、前記ウェアラブル頭部デバイスの前記第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、ことと、
前記ウェアラブル頭部デバイスの前記第1の位置に基づいて、仮想コンテンツを提示することと
を含む、方法。 1. A method comprising:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration , where estimating the first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration;
presenting virtual content based on the first position of the wearable head device.
前記ウェアラブル頭部デバイスの前記将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
をさらに含む、請求項7に記載の方法。 predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
and updating the presentation of the virtual content based on the future position of the wearable head device .
第1の慣性測定ユニットを介して、第1の慣性データを受信することと、
第2の慣性測定ユニットを介して、第2の慣性データを受信することと、
前記第1の慣性データに基づいて、かつ、前記第2の慣性データにさらに基づいて、角加速を計算することと、
前記角加速に基づいて、ウェアラブル頭部デバイスの第1の位置を推定することであって、前記角加速に基づいて、前記ウェアラブル頭部デバイスの前記第1の位置を推定することは、前記角加速に基づいて、予備積分項を計算することを含む、ことと、
前記ウェアラブル頭部デバイスの前記第1の位置に基づいて、仮想コンテンツを提示することと
を含む方法を実施させる、非一過性コンピュータ可読媒体。 A non-transitory computer readable medium having stored thereon one or more instructions that, when executed by one or more processors of an electronic device, cause the one or more processors to:
receiving first inertial data via a first inertial measurement unit;
receiving second inertial data via a second inertial measurement unit;
calculating an angular acceleration based on the first inertial data and further based on the second inertial data;
estimating a first position of a wearable head device based on the angular acceleration , where estimating the first position of the wearable head device based on the angular acceleration includes calculating a pre-integral term based on the angular acceleration;
and presenting virtual content based on the first position of the wearable head device.
前記角加速に基づいて、かつ、前記ウェアラブル頭部デバイスの前記第1の位置にさらに基づいて、前記ウェアラブル頭部デバイスの将来的位置を予測することと、
前記ウェアラブル頭部デバイスの前記将来的位置に基づいて、前記仮想コンテンツの提示を更新することと
をさらに含む、請求項13に記載の非一過性コンピュータ可読媒体。
The method comprises :
predicting a future position of the wearable head device based on the angular acceleration and further based on the first position of the wearable head device;
and updating the presentation of the virtual content based on the future position of the wearable head device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063031985P | 2020-05-29 | 2020-05-29 | |
US63/031,985 | 2020-05-29 | ||
PCT/US2021/034647 WO2021243103A1 (en) | 2020-05-29 | 2021-05-27 | Determining angular acceleration |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023527357A JP2023527357A (en) | 2023-06-28 |
JPWO2021243103A5 true JPWO2021243103A5 (en) | 2024-04-24 |
Family
ID=78706260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022572567A Pending JP2023527357A (en) | 2020-05-29 | 2021-05-27 | Determination of angular acceleration |
Country Status (5)
Country | Link |
---|---|
US (2) | US11561613B2 (en) |
EP (1) | EP4158615A4 (en) |
JP (1) | JP2023527357A (en) |
CN (1) | CN116210021A (en) |
WO (1) | WO2021243103A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021077024A1 (en) * | 2019-10-18 | 2021-04-22 | Magic Leap, Inc. | Gravity estimation and bundle adjustment for visual-inertial odometry |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
WO2021243103A1 (en) | 2020-05-29 | 2021-12-02 | Magic Leap, Inc. | Determining angular acceleration |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US5933125A (en) * | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (en) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Head mounted optical inspection system |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
CN102068237A (en) | 2004-04-01 | 2011-05-25 | 威廉·C·托奇 | Controllers and Methods for Monitoring Eye Movement, System and Method for Controlling Calculation Device |
US20060185432A1 (en) * | 2005-01-13 | 2006-08-24 | Harvey Weinberg | Five degree of freedom intertial measurement device |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US20120078570A1 (en) * | 2010-09-29 | 2012-03-29 | Apple Inc. | Multiple accelerometer system |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
JP6498606B2 (en) | 2012-12-06 | 2019-04-10 | グーグル エルエルシー | Wearable gaze measurement device and method of use |
KR20150103723A (en) | 2013-01-03 | 2015-09-11 | 메타 컴퍼니 | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
KR102292031B1 (en) * | 2015-06-12 | 2021-08-20 | 구글 엘엘씨 | Electronic display stabilization for head mounted displays |
US10191561B2 (en) * | 2015-06-15 | 2019-01-29 | Facebook Technologies, Llc | Tracking controllers of a virtual reality system |
KR102501752B1 (en) | 2015-09-21 | 2023-02-20 | 삼성전자주식회사 | The method and apparatus for comppensating motion of the head mounted display |
US10839547B2 (en) | 2017-09-28 | 2020-11-17 | Samsung Electronics Co., Ltd. | Camera pose determination and tracking |
KR102440358B1 (en) * | 2017-10-12 | 2022-09-05 | 한화디펜스 주식회사 | Inertial-based navigation device and Inertia-based navigation method based on relative preintegration |
US10970425B2 (en) | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
US10444932B2 (en) * | 2018-01-25 | 2019-10-15 | Institute For Information Industry | Virtual space positioning method and apparatus |
WO2019164498A1 (en) | 2018-02-23 | 2019-08-29 | Sony Mobile Communications Inc. | Methods, devices and computer program products for global bundle adjustment of 3d images |
JP2020020631A (en) | 2018-07-31 | 2020-02-06 | セイコーエプソン株式会社 | Attitude estimation method, attitude estimation device, and moving object |
WO2021077024A1 (en) | 2019-10-18 | 2021-04-22 | Magic Leap, Inc. | Gravity estimation and bundle adjustment for visual-inertial odometry |
WO2021243103A1 (en) | 2020-05-29 | 2021-12-02 | Magic Leap, Inc. | Determining angular acceleration |
-
2021
- 2021-05-27 WO PCT/US2021/034647 patent/WO2021243103A1/en unknown
- 2021-05-27 JP JP2022572567A patent/JP2023527357A/en active Pending
- 2021-05-27 CN CN202180060739.XA patent/CN116210021A/en active Pending
- 2021-05-27 EP EP21813271.0A patent/EP4158615A4/en active Pending
- 2021-05-27 US US17/332,917 patent/US11561613B2/en active Active
-
2022
- 2022-12-19 US US18/068,392 patent/US20230126026A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9367960B2 (en) | Body-locked placement of augmented reality objects | |
JP7287997B2 (en) | Positioning method, positioning device, electronic device, vehicle end device, self-driving vehicle, computer readable storage medium and computer program | |
TWI631342B (en) | A method to reduce data rates and power consumption using device based attitude generation | |
JP2011227017A (en) | Device and method for attitude estimation of moving body using inertial sensor, magnetic sensor, and speed meter | |
WO2020190380A1 (en) | Fixed holograms in mobile environments | |
CN103175528A (en) | Strap-down compass gesture measurement method based on strap-down inertial navigation system | |
US20190271543A1 (en) | Method and system for lean angle estimation of motorcycles | |
JP2015179002A (en) | Attitude estimation method, attitude estimation device and program | |
JP6085375B2 (en) | Traveling direction determination device, map matching device, traveling direction determination method, and program | |
JPWO2021243103A5 (en) | ||
WO2014125809A1 (en) | Attitude calculating apparatus, attitude calculating method, portable apparatus, and program | |
JPWO2020214272A5 (en) | ||
US20230314153A1 (en) | Processing System Having A Machine Learning Engine For Providing A Common Trip Format (CTF) Output | |
JP6452808B2 (en) | Low latency simulation apparatus and method using direction prediction, and computer program therefor | |
JP6250708B2 (en) | Traveling direction information output device, map matching device, traveling direction information output method, and program | |
JPWO2021163626A5 (en) | ||
JP7372949B2 (en) | Speed prediction methods, devices, electronic devices, storage media and computer program products | |
JP2913122B2 (en) | Strap down gyro device | |
US11886245B2 (en) | Estimating runtime-frame velocity of wearable device | |
EP4185938A1 (en) | Device tracking with angle-of-arrival data | |
US20220350365A1 (en) | Composite pose estimate for wearable computing device | |
US20240160244A1 (en) | Estimating runtime-frame velocity of wearable device | |
JP7216761B2 (en) | Location information determination method, device and equipment | |
CN110857860B (en) | Positioning conversion method and system thereof | |
US11946744B2 (en) | Synchronization of a gyroscope in a virtual-reality environment |