JPWO2020214272A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020214272A5
JPWO2020214272A5 JP2021560020A JP2021560020A JPWO2020214272A5 JP WO2020214272 A5 JPWO2020214272 A5 JP WO2020214272A5 JP 2021560020 A JP2021560020 A JP 2021560020A JP 2021560020 A JP2021560020 A JP 2021560020A JP WO2020214272 A5 JPWO2020214272 A5 JP WO2020214272A5
Authority
JP
Japan
Prior art keywords
pose
input device
user input
estimated
wearable system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021560020A
Other languages
English (en)
Other versions
JP2022529245A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/US2020/021415 external-priority patent/WO2020214272A1/en
Publication of JP2022529245A publication Critical patent/JP2022529245A/ja
Publication of JPWO2020214272A5 publication Critical patent/JPWO2020214272A5/ja
Pending legal-status Critical Current

Links

Description

本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の詳細な説明のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
前記ハンドヘルドユーザ入力デバイス内または上に配置されるEMエミッタであって、前記EMエミッタは、EM場を生成するように構成される、EMエミッタと、
前記頭部搭載型ディスプレイ内または上に配置されるEMセンサであって、前記EMセンサは、前記EM場を感知するように構成される、EMセンサと
を備え、前記EMエミッタに対する前記EMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
ハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記IMUからのIMUデータにアクセスすることであって、前記IMUデータは、前記ハンドヘルドユーザ入力デバイスと関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの推定される姿勢を表す、ことと、
前記EM追跡システムから前記EM場行列にアクセスすることと、
前記ウェアラブルシステムの環境と関連付けられる世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列を計算することと、
少なくとも部分的に、前記EM場行列および前記予測されるEM場行列に基づいて、誤差状態を生成することであって、前記誤差状態は、前記IMU内のバイアスまたは雑音または前記ハンドヘルドユーザ入力デバイスの基準フレームと前記世界基準フレームとの間のオフセットのうちの少なくとも1つを表す、ことと、
前記誤差状態に基づいて、カルマンフィルタを前記IMUデータに適用することと、
前記カルマンフィルタを使用して、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルシステム。
(項目2)
前記IMUは、加速度計またはジャイロスコープのうちの少なくとも1つを備える、項目1に記載のウェアラブルシステム。
(項目3)
前記予測されるEM場行列を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMセンサ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMエミッタ姿勢と前記世界基準フレーム内の前記EMセンサ姿勢との間の相対的姿勢を計算することと
を行うようにプログラムされる、項目1または項目2に記載のウェアラブルシステム。
(項目4)
前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢にアクセスすることと、
前記ハンドヘルドユーザ入力デバイスの基点位置に対する前記EMエミッタの位置を調節するように構成されるEM伝送機付帯性質を適用することと
を行うようにプログラムされる、項目3に記載のウェアラブルシステム。
(項目5)
前記EM伝送機付帯性質は、前記EMエミッタの位置と前記ハンドヘルドユーザ入力デバイスの基点位置との間の変位を備える、項目4に記載のウェアラブルシステム。
(項目6)
前記世界基準フレーム内の前記EMセンサに関する推定値を計算するために、前記ハードウェアプロセッサは、
前記頭部搭載型ディスプレイに関する姿勢に関する推定値にアクセスすることと、
前記頭部搭載型ディスプレイの基点位置に対する前記EMセンサの位置を調節するように構成される、EM受信機付帯性質を適用することと
を行うようにプログラムされる、項目3-5のいずれか1項に記載のウェアラブルシステム。
(項目7)
前記EM受信機付帯性質は、前記EMセンサの位置と前記頭部搭載型ディスプレイの基点位置との間の変位を備える、項目6に記載のウェアラブルシステム。
(項目8)
前記ハードウェアプロセッサはさらに、
前記EM追跡システムから決定される姿勢に基づいて、前記ハンドヘルドユーザ入力デバイスの予測される姿勢を計算すること、または
前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決すること
のうちの1つ以上のものを含む初期化プロシージャを実施するようにプログラムされる、項目1-7のいずれか1項に記載のウェアラブルシステム。
(項目9)
前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決するために、前記ハードウェアプロセッサは、
前記ハンドヘルドユーザ入力デバイスの初期配向が第1の半球内に位置する第1のスレッドを実行することであって、前記第1のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第1の推定値を決定する、ことと、
前記ハンドヘルドユーザ入力デバイスの前記初期配向が前記第1の半球と反対の第2の半球内に位置する第2のスレッドを実行し、前記第2のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第2の推定値を決定することと
を行うようにプログラムされる、項目8に記載のウェアラブルシステム。
(項目10)
前記ハードウェアプロセッサは、それぞれ、前記第1の推定値または前記第2の推定値が、前記ハンドヘルドユーザ入力デバイスの真の姿勢から発散するとき、前記第1のスレッドまたは前記第2のスレッドのいずれかの実行を終了するようにプログラムされる、項目9に記載のウェアラブルシステム。
(項目11)
前記ハードウェアプロセッサは、誤差検出ルーチンを実施するようにプログラムされ、誤差の決定に応答して、前記システムは、補正アクションを実施する、項目1-10のいずれか1項に記載のウェアラブルシステム。
(項目12)
前記誤差検出ルーチンは、前記EMエミッタと前記EMセンサとの間の距離が閾値距離を超えることを決定することを含む、項目11に記載のウェアラブルシステム。
(項目13)
前記補正アクションは、前記システムを再初期化することを含む、項目11または項目12に記載のウェアラブルシステム。
(項目14)
前記ハードウェアプロセッサはさらに、
前記頭部搭載型ディスプレイを介して、仮想コンテンツを前記ウェアラブルシステムのユーザに提示する、または
少なくとも部分的に、前記ハンドヘルドユーザ入力デバイスの移動または回転に基づいて、前記ウェアラブルシステムの環境との相互作用を有効にする
ようにプログラムされる、項目1-13のいずれか1項に記載のウェアラブルシステム。
(項目15)
ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
EM場を生成するように構成される1つ以上のEMエミッタと、
前記EM場を感知するように構成される1つ以上のEMセンサと
を備え、前記EM追跡システムは、前記1つ以上のEMエミッタに対する前記1つ以上のEMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
慣性ナビゲーションシステム(INS)であって、
前記IMUからのIMUデータにアクセスすることと、
前記EM追跡システムからの前記EM場行列にアクセスすることと、
データ融合アルゴリズムを前記IMUデータおよび前記EM場行列に適用し、前記ウェアラブルシステムと関連付けられる世界フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと
を行うように構成される、INSと
を備える、ウェアラブルシステム。
(項目16)
前記1つ以上のEMエミッタは、前記ハンドヘルドユーザ入力デバイス内または上に配置され、前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイ内または上に配置される、項目15に記載のウェアラブルシステム。
(項目17)
前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイの左側上に位置付けられる第1のEMセンサと、前記頭部搭載型ディスプレイの右側上に位置付けられる第2のEMセンサとを備える、項目15または項目16に記載のウェアラブルシステム。
(項目18)
前記EM場行列は、前記第1のEMセンサと関連付けられる第1の加重と、前記第2のEMセンサと関連付けられる第2の加重とに基づいて決定される、項目17に記載のウェアラブルシステム。
(項目19)
前記加重は、前記センサと前記ハンドヘルドユーザ入力デバイスとの間の個別の距離に基づいて決定される、項目18に記載のウェアラブルシステム。
(項目20)
前記データ融合アルゴリズムは、カルマンフィルタを備える、項目15または項目16に記載のウェアラブルシステム。
(項目21)
前記INSは、前記EM場行列と前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列の比較に基づいて、誤差状態を生成するように構成される、項目15-19のいずれか1項に記載のウェアラブルシステム。
(項目22)
前記予測される姿勢は、6自由度姿勢を備える、項目15-18のいずれか1項に記載のウェアラブルシステム。
(項目23)
ウェアラブルシステムのためのハンドヘルドユーザ入力デバイスの姿勢を計算する方法であって、前記方法は、
コンピュータハードウェアを備える慣性ナビゲーションシステム(INS)の制御下で、
前記ハンドヘルドユーザ入力デバイスと関連付けられる姿勢センサからの姿勢データにアクセスすることと、
前記ハンドヘルドユーザ入力デバイスと関連付けられるEM追跡システムと関連付けられる電磁(EM)追跡データにアクセスすることと、
データ融合技法を適用し、前記姿勢データと前記EM追跡データを組み合わせることと、
前記ウェアラブルシステムの環境と関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を含む、方法。
(項目24)
前記姿勢センサは、慣性測定ユニットを備える、項目23に記載の方法。
(項目25)
前記姿勢センサは、加速度計、ジャイロスコープ、磁力計、または光学センサを備える、項目23または項目24に記載の方法。
(項目26)
前記EM追跡システムは、EMエミッタと、EMセンサとを備える、項目23-25のいずれか1項に記載の方法。
(項目27)
前記EMエミッタは、前記ユーザ入力デバイス内または上に配置される、項目26に記載の方法。
(項目28)
前記データ融合技法は、カルマンフィルタを備える、項目23-27のいずれか1項に記載の方法。
(項目29)
項目20-25のいずれか1項に記載の方法を実施するように構成される、INS。
(項目30)
ウェアラブルシステムであって、
前記ハンドヘルドユーザ入力デバイスと、
前記EM追跡システムと、
項目26に記載のINSと、
を備える、ウェアラブルシステム。

Claims (7)

  1. ウェアラブルシステムであって、
    頭部搭載型ディスプレイと、
    慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスであって、前記IMUは、加速度計データまたはジャイロスコープデータのうちの1つ以上のものを備えるIMUデータを生成するように構成される、ハンドヘルドユーザ入力デバイス
    M場を生成するように構成される1つ以上のEMエミッタと、
    記EM場を感知するように構成される1つ以上のEMセンサと
    1つ以上のコンピュータプロセッサであって、
    前記1つ以上のEMセンサによって感知された前記EM場に少なくとも基づいて、前記1つ以上のEMエミッタに対する前記1つ以上のEMセンサの推定される姿勢を決定することと、
    前記IMUデータにアクセスすることと、
    データ融合アルゴリズムを前記IMUデータおよび前記推定される姿勢に適用し、前記ウェアラブルシステムと関連付けられる世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと、
    前記推定される姿勢と前記予測される姿勢との間の差異に少なくとも基づいて、誤差状態を生成すること
    を行うように構成される、1つ以上のコンピュータプロセッサと
    を備える、ウェアラブルシステム。
  2. 前記予測される姿勢を計算するために、前記1つ以上のコンピュータプロセッサは、
    前記世界基準フレーム内の推定されるEMエミッタ姿勢計算することと、
    前記世界基準フレーム内の推定されるEMセンサ姿勢計算することと、
    前記世界基準フレーム内の前記推定されるEMエミッタ姿勢と前記世界基準フレーム内の前記推定されるEMセンサ姿勢との間の相対的姿勢を計算することと
    を行うようにプログラムされる、請求項に記載のウェアラブルシステム。
  3. 前記世界基準フレーム内の前記推定されるEMエミッタ姿勢計算することは、
    前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢にアクセスすることと、
    前記ハンドヘルドユーザ入力デバイスの基点位置に対する前記EMエミッタの位置を調節するように構成されるEM伝送機付帯性質を適用することと
    含む、請求項に記載のウェアラブルシステム。
  4. 前記EM伝送機付帯性質は、前記EMエミッタの位置と前記ハンドヘルドユーザ入力デバイスの前記基点位置との間の変位を備える、請求項に記載のウェアラブルシステム。
  5. 前記1つ以上のコンピュータプロセッサは、
    前記頭部搭載型ディスプレイを介して、仮想コンテンツを前記ウェアラブルシステムのユーザに提示すること、または
    前記ハンドヘルドユーザ入力デバイスの移動または回転に少なくとも部分的に基づいて、前記ウェアラブルシステムの環境との相互作用を可能にすること
    を行うようにさらに構成される、請求項に記載のウェアラブルシステム。
  6. 前記誤差状態は、前記EMエミッタと前記EMセンサとの間の距離が閾値距離を超えること決定に少なくとも基づいて、計算される、請求項に記載のウェアラブルシステム。
  7. コンピューティングシステムによって実施されるコンピュータ化された方法であって、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、ソフトウェア命令を記憶する1つ以上の非一過性コンピュータ可読記憶デバイスとを備え、前記ソフトウェア命令は、前記コンピュータ化された方法を実施するように前記コンピューティングシステムによって実行可能であり、前記コンピュータ化された方法は、
    頭部搭載型ディスプレイシステムのEMセンサによって感知されたEM場に少なくとも基づいて、前記頭部搭載型ディスプレイシステムのEMエミッタに対する前記EMセンサの推定される姿勢を決定することと、
    ハンドヘルドユーザ入力デバイスからIMUデータにアクセスすることであって、前記IMUデータは、加速度計データまたはジャイロスコープデータのうちの1つ以上のものを備える、ことと、
    データ融合アルゴリズムを前記IMUデータおよび前記推定される姿勢に適用し、前記頭部搭載型ディスプレイシステムと関連付けられる世界フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと、
    前記推定される姿勢と前記予測される姿勢との間の差異に少なくとも基づいて、誤差状態を生成することと
    を含む、コンピュータ化された方法。
JP2021560020A 2019-04-15 2020-03-06 電磁追跡のためのセンサ融合 Pending JP2022529245A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962834081P 2019-04-15 2019-04-15
US62/834,081 2019-04-15
PCT/US2020/021415 WO2020214272A1 (en) 2019-04-15 2020-03-06 Sensor fusion for electromagnetic tracking

Publications (2)

Publication Number Publication Date
JP2022529245A JP2022529245A (ja) 2022-06-20
JPWO2020214272A5 true JPWO2020214272A5 (ja) 2023-03-01

Family

ID=72747377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021560020A Pending JP2022529245A (ja) 2019-04-15 2020-03-06 電磁追跡のためのセンサ融合

Country Status (5)

Country Link
US (4) US11016305B2 (ja)
EP (1) EP3956717A4 (ja)
JP (1) JP2022529245A (ja)
CN (1) CN114008514A (ja)
WO (1) WO2020214272A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11188144B2 (en) * 2018-01-05 2021-11-30 Samsung Electronics Co., Ltd. Method and apparatus to navigate a virtual content displayed by a virtual reality (VR) device
DE102020109121A1 (de) * 2019-04-02 2020-10-08 Ascension Technology Corporation Korrektur von Verzerrungen
EP3956717A4 (en) 2019-04-15 2023-01-04 Magic Leap, Inc. SENSOR FUSION FOR ELECTROMAGNETIC TRACKING
US11719850B2 (en) * 2019-06-20 2023-08-08 Sony Interactive Entertainment Inc. Detecting and compensating for magnetic interference in electromagnetic (EM) positional tracking
WO2021236170A1 (en) * 2020-05-18 2021-11-25 Google Llc Low-power semi-passive relative six-degree-of-freedom tracking
US11320896B2 (en) * 2020-08-03 2022-05-03 Facebook Technologies, Llc. Systems and methods for object tracking using fused data
EP4233003A4 (en) 2020-10-26 2024-04-17 Plato Systems Inc CENTRALIZED TRACKING SYSTEM WITH DISTRIBUTED FIXED SENSORS
CN114740967A (zh) * 2021-01-07 2022-07-12 华为技术有限公司 手柄校正方法、电子设备、芯片及可读存储介质
CN112964246B (zh) * 2021-05-17 2021-08-27 北京三快在线科技有限公司 无人机多传感器数据融合方法、装置、存储介质及设备
US11651528B2 (en) * 2021-09-22 2023-05-16 Rockwell Automation Technologies, Inc. Systems and methods for providing context-based data for an industrial automation system
US11797127B1 (en) * 2021-11-16 2023-10-24 Alken Inc. Hybrid tracking with auto-correction
US11995228B2 (en) * 2022-01-11 2024-05-28 Rockwell Collins, Inc. Head tracking system with extended kalman filter combining absolute and relative navigation
CN116019442B (zh) * 2022-12-12 2024-05-14 天津大学 基于uwb/imu融合的运动姿势评估系统
US11880503B1 (en) 2022-12-19 2024-01-23 Rockwell Collins, Inc. System and method for pose prediction in head worn display (HWD) headtrackers

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3868565A (en) 1973-07-30 1975-02-25 Jack Kuipers Object tracking and orientation determination means, system and process
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
WO1998036236A1 (en) 1997-02-13 1998-08-20 Super Dimension Ltd. Six-degree tracking system
US6172499B1 (en) 1999-10-29 2001-01-09 Ascension Technology Corporation Eddy current error-reduced AC magnetic position measurement system
US6774624B2 (en) 2002-03-27 2004-08-10 Ge Medical Systems Global Technology Company, Llc Magnetic tracking system
US6754596B2 (en) 2002-11-01 2004-06-22 Ascension Technology Corporation Method of measuring position and orientation with improved signal to noise ratio
IL165314A (en) 2004-11-21 2009-08-03 Elbit Ltd Electromagnetic tracker
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
EP1998702A2 (en) 2006-03-29 2008-12-10 Stryker Corporation Shielded surgical navigation system that determines the position and orientation of the tracked object with real and virtual dipoles
US10016148B2 (en) * 2006-09-27 2018-07-10 General Electric Company Method and apparatus for correction of multiple EM sensor positions
IL195389A (en) 2008-11-19 2013-12-31 Elbit Systems Ltd Magnetic Field Mapping System and Method
US9201501B2 (en) * 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
KR101997845B1 (ko) 2010-12-24 2019-10-01 매직 립, 인코포레이티드 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
WO2012154620A2 (en) 2011-05-06 2012-11-15 Magic Leap, Inc. Massive simultaneous remote digital presence world
CN103649680B (zh) * 2011-06-07 2016-11-09 形创有限公司 用于3d扫描的传感器定位
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION
WO2013085639A1 (en) 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
CA3111134A1 (en) 2012-04-05 2013-10-10 Magic Leap, Inc. Wide-field of view (fov) imaging devices with active foveation capability
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
KR20150054967A (ko) 2012-09-11 2015-05-20 매직 립, 인코포레이티드 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템
KR102274413B1 (ko) 2013-01-15 2021-07-07 매직 립, 인코포레이티드 초고해상도 스캐닝 섬유 디스플레이
KR20230044041A (ko) 2013-03-11 2023-03-31 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9417452B2 (en) 2013-03-15 2016-08-16 Magic Leap, Inc. Display system and method
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CA3134562A1 (en) 2013-10-16 2015-04-23 Magic Leap, Inc. Virtual or augmented reality headsets having adjustable interpupillary distance
CA2931776A1 (en) 2013-11-27 2015-06-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CN110376743B (zh) 2014-01-31 2022-03-04 奇跃公司 多焦点显示系统和方法
EP3100098B8 (en) 2014-01-31 2022-10-05 Magic Leap, Inc. Multi-focal display system and method
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
EP3140780B1 (en) 2014-05-09 2020-11-04 Google LLC Systems and methods for discerning eye signals and continuous biometric identification
CA3124368C (en) 2014-05-30 2023-04-25 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
NZ735465A (en) 2015-03-05 2021-07-30 Magic Leap Inc Systems and methods for augmented reality
US10180734B2 (en) * 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
NZ747815A (en) * 2016-04-26 2023-05-26 Magic Leap Inc Electromagnetic tracking with augmented reality systems
WO2018052901A1 (en) * 2016-09-13 2018-03-22 Magic Leap, Inc. Sensory eyewear
US10134192B2 (en) * 2016-10-17 2018-11-20 Microsoft Technology Licensing, Llc Generating and displaying a computer generated image on a future pose of a real world object
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
US11347054B2 (en) * 2017-02-16 2022-05-31 Magic Leap, Inc. Systems and methods for augmented reality
US11534246B2 (en) * 2018-06-15 2022-12-27 Verb Surgical Inc. User input device for use in robotic surgery
EP3956717A4 (en) 2019-04-15 2023-01-04 Magic Leap, Inc. SENSOR FUSION FOR ELECTROMAGNETIC TRACKING

Similar Documents

Publication Publication Date Title
US11093036B2 (en) Tracking arm movements to generate inputs for computer systems
JPWO2020214272A5 (ja)
US11016116B2 (en) Correction of accumulated errors in inertial measurement units attached to a user
US10521011B2 (en) Calibration of inertial measurement units attached to arms of a user and to a head mounted device
US10540006B2 (en) Tracking torso orientation to generate inputs for computer systems
KR20180041890A (ko) 가상 객체를 표시하는 방법 및 장치
Lin et al. Development of the wireless ultra-miniaturized inertial measurement unit WB-4: Preliminary performance evaluation
US20190212807A1 (en) Tracking Torso Leaning to Generate Inputs for Computer Systems
US11009964B2 (en) Length calibration for computer models of users to generate inputs for computer systems
US11567564B2 (en) Interactive exercise and training system and method
JP2020529646A5 (ja)
CN111930230A (zh) 姿态检测方法、可穿戴设备及计算机可读存储介质
US10884505B1 (en) Systems and methods for transitioning to higher order degree-of-freedom tracking
EP3732549B1 (en) Method for predicting a motion of an object and method for generating a virtual reality view
KR20100074461A (ko) 동작 감지를 이용하여 제어하는 3차원 마우스 장치 및 방법
JP7291234B2 (ja) ラケット用解析システム、ラケット用解析装置、ラケット用解析プログラム及びラケット用解析方法
KR102334543B1 (ko) 가상현실 기반 주행형 농업기계의 안전교육을 위한 손 동작 추적 시스템 및 방법
TW202217516A (zh) 修改游標位置的方法和系統
CN114428548A (zh) 用户交互的光标的方法和系统
CN108628452B (zh) 虚拟现实设备、基于虚拟现实设备的显示控制方法及装置
US20210072820A1 (en) Sticky device to track arm movements in generating inputs for computer systems
JP6147446B1 (ja) ソフト制約及びペナルティ機能を使用した慣性センサの初期化
US11886245B2 (en) Estimating runtime-frame velocity of wearable device
JP6299639B2 (ja) ジャイロセンサの配置方法
US11061469B2 (en) Head mounted display system and rotation center correcting method thereof