JPWO2020214272A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020214272A5 JPWO2020214272A5 JP2021560020A JP2021560020A JPWO2020214272A5 JP WO2020214272 A5 JPWO2020214272 A5 JP WO2020214272A5 JP 2021560020 A JP2021560020 A JP 2021560020A JP 2021560020 A JP2021560020 A JP 2021560020A JP WO2020214272 A5 JPWO2020214272 A5 JP WO2020214272A5
- Authority
- JP
- Japan
- Prior art keywords
- pose
- input device
- user input
- estimated
- wearable system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Description
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の詳細な説明のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
前記ハンドヘルドユーザ入力デバイス内または上に配置されるEMエミッタであって、前記EMエミッタは、EM場を生成するように構成される、EMエミッタと、
前記頭部搭載型ディスプレイ内または上に配置されるEMセンサであって、前記EMセンサは、前記EM場を感知するように構成される、EMセンサと
を備え、前記EMエミッタに対する前記EMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
ハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記IMUからのIMUデータにアクセスすることであって、前記IMUデータは、前記ハンドヘルドユーザ入力デバイスと関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの推定される姿勢を表す、ことと、
前記EM追跡システムから前記EM場行列にアクセスすることと、
前記ウェアラブルシステムの環境と関連付けられる世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列を計算することと、
少なくとも部分的に、前記EM場行列および前記予測されるEM場行列に基づいて、誤差状態を生成することであって、前記誤差状態は、前記IMU内のバイアスまたは雑音または前記ハンドヘルドユーザ入力デバイスの基準フレームと前記世界基準フレームとの間のオフセットのうちの少なくとも1つを表す、ことと、
前記誤差状態に基づいて、カルマンフィルタを前記IMUデータに適用することと、
前記カルマンフィルタを使用して、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルシステム。
(項目2)
前記IMUは、加速度計またはジャイロスコープのうちの少なくとも1つを備える、項目1に記載のウェアラブルシステム。
(項目3)
前記予測されるEM場行列を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMセンサ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMエミッタ姿勢と前記世界基準フレーム内の前記EMセンサ姿勢との間の相対的姿勢を計算することと
を行うようにプログラムされる、項目1または項目2に記載のウェアラブルシステム。
(項目4)
前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢にアクセスすることと、
前記ハンドヘルドユーザ入力デバイスの基点位置に対する前記EMエミッタの位置を調節するように構成されるEM伝送機付帯性質を適用することと
を行うようにプログラムされる、項目3に記載のウェアラブルシステム。
(項目5)
前記EM伝送機付帯性質は、前記EMエミッタの位置と前記ハンドヘルドユーザ入力デバイスの基点位置との間の変位を備える、項目4に記載のウェアラブルシステム。
(項目6)
前記世界基準フレーム内の前記EMセンサに関する推定値を計算するために、前記ハードウェアプロセッサは、
前記頭部搭載型ディスプレイに関する姿勢に関する推定値にアクセスすることと、
前記頭部搭載型ディスプレイの基点位置に対する前記EMセンサの位置を調節するように構成される、EM受信機付帯性質を適用することと
を行うようにプログラムされる、項目3-5のいずれか1項に記載のウェアラブルシステム。
(項目7)
前記EM受信機付帯性質は、前記EMセンサの位置と前記頭部搭載型ディスプレイの基点位置との間の変位を備える、項目6に記載のウェアラブルシステム。
(項目8)
前記ハードウェアプロセッサはさらに、
前記EM追跡システムから決定される姿勢に基づいて、前記ハンドヘルドユーザ入力デバイスの予測される姿勢を計算すること、または
前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決すること
のうちの1つ以上のものを含む初期化プロシージャを実施するようにプログラムされる、項目1-7のいずれか1項に記載のウェアラブルシステム。
(項目9)
前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決するために、前記ハードウェアプロセッサは、
前記ハンドヘルドユーザ入力デバイスの初期配向が第1の半球内に位置する第1のスレッドを実行することであって、前記第1のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第1の推定値を決定する、ことと、
前記ハンドヘルドユーザ入力デバイスの前記初期配向が前記第1の半球と反対の第2の半球内に位置する第2のスレッドを実行し、前記第2のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第2の推定値を決定することと
を行うようにプログラムされる、項目8に記載のウェアラブルシステム。
(項目10)
前記ハードウェアプロセッサは、それぞれ、前記第1の推定値または前記第2の推定値が、前記ハンドヘルドユーザ入力デバイスの真の姿勢から発散するとき、前記第1のスレッドまたは前記第2のスレッドのいずれかの実行を終了するようにプログラムされる、項目9に記載のウェアラブルシステム。
(項目11)
前記ハードウェアプロセッサは、誤差検出ルーチンを実施するようにプログラムされ、誤差の決定に応答して、前記システムは、補正アクションを実施する、項目1-10のいずれか1項に記載のウェアラブルシステム。
(項目12)
前記誤差検出ルーチンは、前記EMエミッタと前記EMセンサとの間の距離が閾値距離を超えることを決定することを含む、項目11に記載のウェアラブルシステム。
(項目13)
前記補正アクションは、前記システムを再初期化することを含む、項目11または項目12に記載のウェアラブルシステム。
(項目14)
前記ハードウェアプロセッサはさらに、
前記頭部搭載型ディスプレイを介して、仮想コンテンツを前記ウェアラブルシステムのユーザに提示する、または
少なくとも部分的に、前記ハンドヘルドユーザ入力デバイスの移動または回転に基づいて、前記ウェアラブルシステムの環境との相互作用を有効にする
ようにプログラムされる、項目1-13のいずれか1項に記載のウェアラブルシステム。
(項目15)
ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
EM場を生成するように構成される1つ以上のEMエミッタと、
前記EM場を感知するように構成される1つ以上のEMセンサと
を備え、前記EM追跡システムは、前記1つ以上のEMエミッタに対する前記1つ以上のEMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
慣性ナビゲーションシステム(INS)であって、
前記IMUからのIMUデータにアクセスすることと、
前記EM追跡システムからの前記EM場行列にアクセスすることと、
データ融合アルゴリズムを前記IMUデータおよび前記EM場行列に適用し、前記ウェアラブルシステムと関連付けられる世界フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと
を行うように構成される、INSと
を備える、ウェアラブルシステム。
(項目16)
前記1つ以上のEMエミッタは、前記ハンドヘルドユーザ入力デバイス内または上に配置され、前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイ内または上に配置される、項目15に記載のウェアラブルシステム。
(項目17)
前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイの左側上に位置付けられる第1のEMセンサと、前記頭部搭載型ディスプレイの右側上に位置付けられる第2のEMセンサとを備える、項目15または項目16に記載のウェアラブルシステム。
(項目18)
前記EM場行列は、前記第1のEMセンサと関連付けられる第1の加重と、前記第2のEMセンサと関連付けられる第2の加重とに基づいて決定される、項目17に記載のウェアラブルシステム。
(項目19)
前記加重は、前記センサと前記ハンドヘルドユーザ入力デバイスとの間の個別の距離に基づいて決定される、項目18に記載のウェアラブルシステム。
(項目20)
前記データ融合アルゴリズムは、カルマンフィルタを備える、項目15または項目16に記載のウェアラブルシステム。
(項目21)
前記INSは、前記EM場行列と前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列の比較に基づいて、誤差状態を生成するように構成される、項目15-19のいずれか1項に記載のウェアラブルシステム。
(項目22)
前記予測される姿勢は、6自由度姿勢を備える、項目15-18のいずれか1項に記載のウェアラブルシステム。
(項目23)
ウェアラブルシステムのためのハンドヘルドユーザ入力デバイスの姿勢を計算する方法であって、前記方法は、
コンピュータハードウェアを備える慣性ナビゲーションシステム(INS)の制御下で、
前記ハンドヘルドユーザ入力デバイスと関連付けられる姿勢センサからの姿勢データにアクセスすることと、
前記ハンドヘルドユーザ入力デバイスと関連付けられるEM追跡システムと関連付けられる電磁(EM)追跡データにアクセスすることと、
データ融合技法を適用し、前記姿勢データと前記EM追跡データを組み合わせることと、
前記ウェアラブルシステムの環境と関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を含む、方法。
(項目24)
前記姿勢センサは、慣性測定ユニットを備える、項目23に記載の方法。
(項目25)
前記姿勢センサは、加速度計、ジャイロスコープ、磁力計、または光学センサを備える、項目23または項目24に記載の方法。
(項目26)
前記EM追跡システムは、EMエミッタと、EMセンサとを備える、項目23-25のいずれか1項に記載の方法。
(項目27)
前記EMエミッタは、前記ユーザ入力デバイス内または上に配置される、項目26に記載の方法。
(項目28)
前記データ融合技法は、カルマンフィルタを備える、項目23-27のいずれか1項に記載の方法。
(項目29)
項目20-25のいずれか1項に記載の方法を実施するように構成される、INS。
(項目30)
ウェアラブルシステムであって、
前記ハンドヘルドユーザ入力デバイスと、
前記EM追跡システムと、
項目26に記載のINSと、
を備える、ウェアラブルシステム。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
前記ハンドヘルドユーザ入力デバイス内または上に配置されるEMエミッタであって、前記EMエミッタは、EM場を生成するように構成される、EMエミッタと、
前記頭部搭載型ディスプレイ内または上に配置されるEMセンサであって、前記EMセンサは、前記EM場を感知するように構成される、EMセンサと
を備え、前記EMエミッタに対する前記EMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
ハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記IMUからのIMUデータにアクセスすることであって、前記IMUデータは、前記ハンドヘルドユーザ入力デバイスと関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの推定される姿勢を表す、ことと、
前記EM追跡システムから前記EM場行列にアクセスすることと、
前記ウェアラブルシステムの環境と関連付けられる世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列を計算することと、
少なくとも部分的に、前記EM場行列および前記予測されるEM場行列に基づいて、誤差状態を生成することであって、前記誤差状態は、前記IMU内のバイアスまたは雑音または前記ハンドヘルドユーザ入力デバイスの基準フレームと前記世界基準フレームとの間のオフセットのうちの少なくとも1つを表す、ことと、
前記誤差状態に基づいて、カルマンフィルタを前記IMUデータに適用することと、
前記カルマンフィルタを使用して、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルシステム。
(項目2)
前記IMUは、加速度計またはジャイロスコープのうちの少なくとも1つを備える、項目1に記載のウェアラブルシステム。
(項目3)
前記予測されるEM場行列を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMセンサ姿勢に関する推定値を計算することと、
前記世界基準フレーム内の前記EMエミッタ姿勢と前記世界基準フレーム内の前記EMセンサ姿勢との間の相対的姿勢を計算することと
を行うようにプログラムされる、項目1または項目2に記載のウェアラブルシステム。
(項目4)
前記世界基準フレーム内の前記EMエミッタ姿勢に関する推定値を計算するために、前記ハードウェアプロセッサは、
前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢にアクセスすることと、
前記ハンドヘルドユーザ入力デバイスの基点位置に対する前記EMエミッタの位置を調節するように構成されるEM伝送機付帯性質を適用することと
を行うようにプログラムされる、項目3に記載のウェアラブルシステム。
(項目5)
前記EM伝送機付帯性質は、前記EMエミッタの位置と前記ハンドヘルドユーザ入力デバイスの基点位置との間の変位を備える、項目4に記載のウェアラブルシステム。
(項目6)
前記世界基準フレーム内の前記EMセンサに関する推定値を計算するために、前記ハードウェアプロセッサは、
前記頭部搭載型ディスプレイに関する姿勢に関する推定値にアクセスすることと、
前記頭部搭載型ディスプレイの基点位置に対する前記EMセンサの位置を調節するように構成される、EM受信機付帯性質を適用することと
を行うようにプログラムされる、項目3-5のいずれか1項に記載のウェアラブルシステム。
(項目7)
前記EM受信機付帯性質は、前記EMセンサの位置と前記頭部搭載型ディスプレイの基点位置との間の変位を備える、項目6に記載のウェアラブルシステム。
(項目8)
前記ハードウェアプロセッサはさらに、
前記EM追跡システムから決定される姿勢に基づいて、前記ハンドヘルドユーザ入力デバイスの予測される姿勢を計算すること、または
前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決すること
のうちの1つ以上のものを含む初期化プロシージャを実施するようにプログラムされる、項目1-7のいずれか1項に記載のウェアラブルシステム。
(項目9)
前記ハンドヘルドユーザ入力デバイスの配向における曖昧性を解決するために、前記ハードウェアプロセッサは、
前記ハンドヘルドユーザ入力デバイスの初期配向が第1の半球内に位置する第1のスレッドを実行することであって、前記第1のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第1の推定値を決定する、ことと、
前記ハンドヘルドユーザ入力デバイスの前記初期配向が前記第1の半球と反対の第2の半球内に位置する第2のスレッドを実行し、前記第2のスレッドは、前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢の第2の推定値を決定することと
を行うようにプログラムされる、項目8に記載のウェアラブルシステム。
(項目10)
前記ハードウェアプロセッサは、それぞれ、前記第1の推定値または前記第2の推定値が、前記ハンドヘルドユーザ入力デバイスの真の姿勢から発散するとき、前記第1のスレッドまたは前記第2のスレッドのいずれかの実行を終了するようにプログラムされる、項目9に記載のウェアラブルシステム。
(項目11)
前記ハードウェアプロセッサは、誤差検出ルーチンを実施するようにプログラムされ、誤差の決定に応答して、前記システムは、補正アクションを実施する、項目1-10のいずれか1項に記載のウェアラブルシステム。
(項目12)
前記誤差検出ルーチンは、前記EMエミッタと前記EMセンサとの間の距離が閾値距離を超えることを決定することを含む、項目11に記載のウェアラブルシステム。
(項目13)
前記補正アクションは、前記システムを再初期化することを含む、項目11または項目12に記載のウェアラブルシステム。
(項目14)
前記ハードウェアプロセッサはさらに、
前記頭部搭載型ディスプレイを介して、仮想コンテンツを前記ウェアラブルシステムのユーザに提示する、または
少なくとも部分的に、前記ハンドヘルドユーザ入力デバイスの移動または回転に基づいて、前記ウェアラブルシステムの環境との相互作用を有効にする
ようにプログラムされる、項目1-13のいずれか1項に記載のウェアラブルシステム。
(項目15)
ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスと、
電磁(EM)追跡システムであって、
EM場を生成するように構成される1つ以上のEMエミッタと、
前記EM場を感知するように構成される1つ以上のEMセンサと
を備え、前記EM追跡システムは、前記1つ以上のEMエミッタに対する前記1つ以上のEMセンサの推定される姿勢と関連付けられるEM場行列を出力するように構成される、EM追跡システムと、
慣性ナビゲーションシステム(INS)であって、
前記IMUからのIMUデータにアクセスすることと、
前記EM追跡システムからの前記EM場行列にアクセスすることと、
データ融合アルゴリズムを前記IMUデータおよび前記EM場行列に適用し、前記ウェアラブルシステムと関連付けられる世界フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと
を行うように構成される、INSと
を備える、ウェアラブルシステム。
(項目16)
前記1つ以上のEMエミッタは、前記ハンドヘルドユーザ入力デバイス内または上に配置され、前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイ内または上に配置される、項目15に記載のウェアラブルシステム。
(項目17)
前記1つ以上のEMセンサは、前記頭部搭載型ディスプレイの左側上に位置付けられる第1のEMセンサと、前記頭部搭載型ディスプレイの右側上に位置付けられる第2のEMセンサとを備える、項目15または項目16に記載のウェアラブルシステム。
(項目18)
前記EM場行列は、前記第1のEMセンサと関連付けられる第1の加重と、前記第2のEMセンサと関連付けられる第2の加重とに基づいて決定される、項目17に記載のウェアラブルシステム。
(項目19)
前記加重は、前記センサと前記ハンドヘルドユーザ入力デバイスとの間の個別の距離に基づいて決定される、項目18に記載のウェアラブルシステム。
(項目20)
前記データ融合アルゴリズムは、カルマンフィルタを備える、項目15または項目16に記載のウェアラブルシステム。
(項目21)
前記INSは、前記EM場行列と前記ハンドヘルドユーザ入力デバイスの予測される姿勢を表す予測されるEM場行列の比較に基づいて、誤差状態を生成するように構成される、項目15-19のいずれか1項に記載のウェアラブルシステム。
(項目22)
前記予測される姿勢は、6自由度姿勢を備える、項目15-18のいずれか1項に記載のウェアラブルシステム。
(項目23)
ウェアラブルシステムのためのハンドヘルドユーザ入力デバイスの姿勢を計算する方法であって、前記方法は、
コンピュータハードウェアを備える慣性ナビゲーションシステム(INS)の制御下で、
前記ハンドヘルドユーザ入力デバイスと関連付けられる姿勢センサからの姿勢データにアクセスすることと、
前記ハンドヘルドユーザ入力デバイスと関連付けられるEM追跡システムと関連付けられる電磁(EM)追跡データにアクセスすることと、
データ融合技法を適用し、前記姿勢データと前記EM追跡データを組み合わせることと、
前記ウェアラブルシステムの環境と関連付けられる基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢を決定することと
を含む、方法。
(項目24)
前記姿勢センサは、慣性測定ユニットを備える、項目23に記載の方法。
(項目25)
前記姿勢センサは、加速度計、ジャイロスコープ、磁力計、または光学センサを備える、項目23または項目24に記載の方法。
(項目26)
前記EM追跡システムは、EMエミッタと、EMセンサとを備える、項目23-25のいずれか1項に記載の方法。
(項目27)
前記EMエミッタは、前記ユーザ入力デバイス内または上に配置される、項目26に記載の方法。
(項目28)
前記データ融合技法は、カルマンフィルタを備える、項目23-27のいずれか1項に記載の方法。
(項目29)
項目20-25のいずれか1項に記載の方法を実施するように構成される、INS。
(項目30)
ウェアラブルシステムであって、
前記ハンドヘルドユーザ入力デバイスと、
前記EM追跡システムと、
項目26に記載のINSと、
を備える、ウェアラブルシステム。
Claims (7)
- ウェアラブルシステムであって、
頭部搭載型ディスプレイと、
慣性測定ユニット(IMU)を備えるハンドヘルドユーザ入力デバイスであって、前記IMUは、加速度計データまたはジャイロスコープデータのうちの1つ以上のものを備えるIMUデータを生成するように構成される、ハンドヘルドユーザ入力デバイスと、
EM場を生成するように構成される1つ以上のEMエミッタと、
前記EM場を感知するように構成される1つ以上のEMセンサと、
1つ以上のコンピュータプロセッサであって、
前記1つ以上のEMセンサによって感知された前記EM場に少なくとも基づいて、前記1つ以上のEMエミッタに対する前記1つ以上のEMセンサの推定される姿勢を決定することと、
前記IMUデータにアクセスすることと、
データ融合アルゴリズムを前記IMUデータおよび前記推定される姿勢に適用し、前記ウェアラブルシステムと関連付けられる世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと、
前記推定される姿勢と前記予測される姿勢との間の差異に少なくとも基づいて、誤差状態を生成することと
を行うように構成される、1つ以上のコンピュータプロセッサと
を備える、ウェアラブルシステム。 - 前記予測される姿勢を計算するために、前記1つ以上のコンピュータプロセッサは、
前記世界基準フレーム内の推定されるEMエミッタ姿勢を計算することと、
前記世界基準フレーム内の推定されるEMセンサ姿勢を計算することと、
前記世界基準フレーム内の前記推定されるEMエミッタ姿勢と前記世界基準フレーム内の前記推定されるEMセンサ姿勢との間の相対的姿勢を計算することと
を行うようにプログラムされる、請求項1に記載のウェアラブルシステム。 - 前記世界基準フレーム内の前記推定されるEMエミッタ姿勢を計算することは、
前記世界基準フレーム内の前記ハンドヘルドユーザ入力デバイスの姿勢にアクセスすることと、
前記ハンドヘルドユーザ入力デバイスの基点位置に対する前記EMエミッタの位置を調節するように構成されるEM伝送機付帯性質を適用することと
を含む、請求項2に記載のウェアラブルシステム。 - 前記EM伝送機付帯性質は、前記EMエミッタの位置と前記ハンドヘルドユーザ入力デバイスの前記基点位置との間の変位を備える、請求項3に記載のウェアラブルシステム。
- 前記1つ以上のコンピュータプロセッサは、
前記頭部搭載型ディスプレイを介して、仮想コンテンツを前記ウェアラブルシステムのユーザに提示すること、または
前記ハンドヘルドユーザ入力デバイスの移動または回転に少なくとも部分的に基づいて、前記ウェアラブルシステムの環境との相互作用を可能にすること
を行うようにさらに構成される、請求項1に記載のウェアラブルシステム。 - 前記誤差状態は、前記EMエミッタと前記EMセンサとの間の距離が閾値距離を超えることの決定に少なくとも基づいて、計算される、請求項1に記載のウェアラブルシステム。
- コンピューティングシステムによって実施されるコンピュータ化された方法であって、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、ソフトウェア命令を記憶する1つ以上の非一過性コンピュータ可読記憶デバイスとを備え、前記ソフトウェア命令は、前記コンピュータ化された方法を実施するように前記コンピューティングシステムによって実行可能であり、前記コンピュータ化された方法は、
頭部搭載型ディスプレイシステムのEMセンサによって感知されたEM場に少なくとも基づいて、前記頭部搭載型ディスプレイシステムのEMエミッタに対する前記EMセンサの推定される姿勢を決定することと、
ハンドヘルドユーザ入力デバイスからIMUデータにアクセスすることであって、前記IMUデータは、加速度計データまたはジャイロスコープデータのうちの1つ以上のものを備える、ことと、
データ融合アルゴリズムを前記IMUデータおよび前記推定される姿勢に適用し、前記頭部搭載型ディスプレイシステムと関連付けられる世界フレーム内の前記ハンドヘルドユーザ入力デバイスの予測される姿勢を生成することと、
前記推定される姿勢と前記予測される姿勢との間の差異に少なくとも基づいて、誤差状態を生成することと
を含む、コンピュータ化された方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962834081P | 2019-04-15 | 2019-04-15 | |
US62/834,081 | 2019-04-15 | ||
PCT/US2020/021415 WO2020214272A1 (en) | 2019-04-15 | 2020-03-06 | Sensor fusion for electromagnetic tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022529245A JP2022529245A (ja) | 2022-06-20 |
JPWO2020214272A5 true JPWO2020214272A5 (ja) | 2023-03-01 |
Family
ID=72747377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021560020A Pending JP2022529245A (ja) | 2019-04-15 | 2020-03-06 | 電磁追跡のためのセンサ融合 |
Country Status (5)
Country | Link |
---|---|
US (4) | US11016305B2 (ja) |
EP (1) | EP3956717A4 (ja) |
JP (1) | JP2022529245A (ja) |
CN (1) | CN114008514A (ja) |
WO (1) | WO2020214272A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11188144B2 (en) * | 2018-01-05 | 2021-11-30 | Samsung Electronics Co., Ltd. | Method and apparatus to navigate a virtual content displayed by a virtual reality (VR) device |
DE102020109121A1 (de) * | 2019-04-02 | 2020-10-08 | Ascension Technology Corporation | Korrektur von Verzerrungen |
EP3956717A4 (en) | 2019-04-15 | 2023-01-04 | Magic Leap, Inc. | SENSOR FUSION FOR ELECTROMAGNETIC TRACKING |
US11719850B2 (en) * | 2019-06-20 | 2023-08-08 | Sony Interactive Entertainment Inc. | Detecting and compensating for magnetic interference in electromagnetic (EM) positional tracking |
WO2021236170A1 (en) * | 2020-05-18 | 2021-11-25 | Google Llc | Low-power semi-passive relative six-degree-of-freedom tracking |
US11320896B2 (en) * | 2020-08-03 | 2022-05-03 | Facebook Technologies, Llc. | Systems and methods for object tracking using fused data |
EP4233003A4 (en) | 2020-10-26 | 2024-04-17 | Plato Systems Inc | CENTRALIZED TRACKING SYSTEM WITH DISTRIBUTED FIXED SENSORS |
CN114740967A (zh) * | 2021-01-07 | 2022-07-12 | 华为技术有限公司 | 手柄校正方法、电子设备、芯片及可读存储介质 |
CN112964246B (zh) * | 2021-05-17 | 2021-08-27 | 北京三快在线科技有限公司 | 无人机多传感器数据融合方法、装置、存储介质及设备 |
US11651528B2 (en) * | 2021-09-22 | 2023-05-16 | Rockwell Automation Technologies, Inc. | Systems and methods for providing context-based data for an industrial automation system |
US11797127B1 (en) * | 2021-11-16 | 2023-10-24 | Alken Inc. | Hybrid tracking with auto-correction |
US11995228B2 (en) * | 2022-01-11 | 2024-05-28 | Rockwell Collins, Inc. | Head tracking system with extended kalman filter combining absolute and relative navigation |
CN116019442B (zh) * | 2022-12-12 | 2024-05-14 | 天津大学 | 基于uwb/imu融合的运动姿势评估系统 |
US11880503B1 (en) | 2022-12-19 | 2024-01-23 | Rockwell Collins, Inc. | System and method for pose prediction in head worn display (HWD) headtrackers |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3868565A (en) | 1973-07-30 | 1975-02-25 | Jack Kuipers | Object tracking and orientation determination means, system and process |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
WO1998036236A1 (en) | 1997-02-13 | 1998-08-20 | Super Dimension Ltd. | Six-degree tracking system |
US6172499B1 (en) | 1999-10-29 | 2001-01-09 | Ascension Technology Corporation | Eddy current error-reduced AC magnetic position measurement system |
US6774624B2 (en) | 2002-03-27 | 2004-08-10 | Ge Medical Systems Global Technology Company, Llc | Magnetic tracking system |
US6754596B2 (en) | 2002-11-01 | 2004-06-22 | Ascension Technology Corporation | Method of measuring position and orientation with improved signal to noise ratio |
IL165314A (en) | 2004-11-21 | 2009-08-03 | Elbit Ltd | Electromagnetic tracker |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
EP1998702A2 (en) | 2006-03-29 | 2008-12-10 | Stryker Corporation | Shielded surgical navigation system that determines the position and orientation of the tracked object with real and virtual dipoles |
US10016148B2 (en) * | 2006-09-27 | 2018-07-10 | General Electric Company | Method and apparatus for correction of multiple EM sensor positions |
IL195389A (en) | 2008-11-19 | 2013-12-31 | Elbit Systems Ltd | Magnetic Field Mapping System and Method |
US9201501B2 (en) * | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
KR101997845B1 (ko) | 2010-12-24 | 2019-10-01 | 매직 립, 인코포레이티드 | 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템 |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
WO2012154620A2 (en) | 2011-05-06 | 2012-11-15 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
CN103649680B (zh) * | 2011-06-07 | 2016-11-09 | 形创有限公司 | 用于3d扫描的传感器定位 |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
WO2013085639A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
CA3111134A1 (en) | 2012-04-05 | 2013-10-10 | Magic Leap, Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
KR20150054967A (ko) | 2012-09-11 | 2015-05-20 | 매직 립, 인코포레이티드 | 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템 |
KR102274413B1 (ko) | 2013-01-15 | 2021-07-07 | 매직 립, 인코포레이티드 | 초고해상도 스캐닝 섬유 디스플레이 |
KR20230044041A (ko) | 2013-03-11 | 2023-03-31 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9417452B2 (en) | 2013-03-15 | 2016-08-16 | Magic Leap, Inc. | Display system and method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
CA3134562A1 (en) | 2013-10-16 | 2015-04-23 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
CA2931776A1 (en) | 2013-11-27 | 2015-06-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
CN110376743B (zh) | 2014-01-31 | 2022-03-04 | 奇跃公司 | 多焦点显示系统和方法 |
EP3100098B8 (en) | 2014-01-31 | 2022-10-05 | Magic Leap, Inc. | Multi-focal display system and method |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
EP3140780B1 (en) | 2014-05-09 | 2020-11-04 | Google LLC | Systems and methods for discerning eye signals and continuous biometric identification |
CA3124368C (en) | 2014-05-30 | 2023-04-25 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
NZ735465A (en) | 2015-03-05 | 2021-07-30 | Magic Leap Inc | Systems and methods for augmented reality |
US10180734B2 (en) * | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
NZ747815A (en) * | 2016-04-26 | 2023-05-26 | Magic Leap Inc | Electromagnetic tracking with augmented reality systems |
WO2018052901A1 (en) * | 2016-09-13 | 2018-03-22 | Magic Leap, Inc. | Sensory eyewear |
US10134192B2 (en) * | 2016-10-17 | 2018-11-20 | Microsoft Technology Licensing, Llc | Generating and displaying a computer generated image on a future pose of a real world object |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11347054B2 (en) * | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11534246B2 (en) * | 2018-06-15 | 2022-12-27 | Verb Surgical Inc. | User input device for use in robotic surgery |
EP3956717A4 (en) | 2019-04-15 | 2023-01-04 | Magic Leap, Inc. | SENSOR FUSION FOR ELECTROMAGNETIC TRACKING |
-
2020
- 2020-03-06 EP EP20791624.8A patent/EP3956717A4/en active Pending
- 2020-03-06 JP JP2021560020A patent/JP2022529245A/ja active Pending
- 2020-03-06 CN CN202080043487.5A patent/CN114008514A/zh active Pending
- 2020-03-06 US US16/811,584 patent/US11016305B2/en active Active
- 2020-03-06 WO PCT/US2020/021415 patent/WO2020214272A1/en unknown
-
2021
- 2021-04-22 US US17/237,879 patent/US11353709B2/en active Active
-
2022
- 2022-04-29 US US17/733,729 patent/US11550156B2/en active Active
- 2022-12-01 US US18/060,918 patent/US11836284B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093036B2 (en) | Tracking arm movements to generate inputs for computer systems | |
JPWO2020214272A5 (ja) | ||
US11016116B2 (en) | Correction of accumulated errors in inertial measurement units attached to a user | |
US10521011B2 (en) | Calibration of inertial measurement units attached to arms of a user and to a head mounted device | |
US10540006B2 (en) | Tracking torso orientation to generate inputs for computer systems | |
KR20180041890A (ko) | 가상 객체를 표시하는 방법 및 장치 | |
Lin et al. | Development of the wireless ultra-miniaturized inertial measurement unit WB-4: Preliminary performance evaluation | |
US20190212807A1 (en) | Tracking Torso Leaning to Generate Inputs for Computer Systems | |
US11009964B2 (en) | Length calibration for computer models of users to generate inputs for computer systems | |
US11567564B2 (en) | Interactive exercise and training system and method | |
JP2020529646A5 (ja) | ||
CN111930230A (zh) | 姿态检测方法、可穿戴设备及计算机可读存储介质 | |
US10884505B1 (en) | Systems and methods for transitioning to higher order degree-of-freedom tracking | |
EP3732549B1 (en) | Method for predicting a motion of an object and method for generating a virtual reality view | |
KR20100074461A (ko) | 동작 감지를 이용하여 제어하는 3차원 마우스 장치 및 방법 | |
JP7291234B2 (ja) | ラケット用解析システム、ラケット用解析装置、ラケット用解析プログラム及びラケット用解析方法 | |
KR102334543B1 (ko) | 가상현실 기반 주행형 농업기계의 안전교육을 위한 손 동작 추적 시스템 및 방법 | |
TW202217516A (zh) | 修改游標位置的方法和系統 | |
CN114428548A (zh) | 用户交互的光标的方法和系统 | |
CN108628452B (zh) | 虚拟现实设备、基于虚拟现实设备的显示控制方法及装置 | |
US20210072820A1 (en) | Sticky device to track arm movements in generating inputs for computer systems | |
JP6147446B1 (ja) | ソフト制約及びペナルティ機能を使用した慣性センサの初期化 | |
US11886245B2 (en) | Estimating runtime-frame velocity of wearable device | |
JP6299639B2 (ja) | ジャイロセンサの配置方法 | |
US11061469B2 (en) | Head mounted display system and rotation center correcting method thereof |