JPWO2021150623A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021150623A5 JPWO2021150623A5 JP2022544290A JP2022544290A JPWO2021150623A5 JP WO2021150623 A5 JPWO2021150623 A5 JP WO2021150623A5 JP 2022544290 A JP2022544290 A JP 2022544290A JP 2022544290 A JP2022544290 A JP 2022544290A JP WO2021150623 A5 JPWO2021150623 A5 JP WO2021150623A5
- Authority
- JP
- Japan
- Prior art keywords
- interactive content
- user
- hardware processor
- indication
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 claims description 64
- 230000003993 interaction Effects 0.000 claims description 9
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 1
Description
仮想コンテンツを表示するための方法は、双方向コンテンツを第1のコンテンツ場所に表示するステップと、コントローラによって示される方向を備える、第1の指示ベクトルを決定するステップと、第1の指示ベクトルが、双方向コンテンツと関連付けられる、境界された体積と交差するかどうかを決定するステップと、第1の指示ベクトルが、境界された体積と交差しないことの決定に応答して、双方向コンテンツを、第1の指示ベクトルの方向に沿った点と関連付けられる、第2のコンテンツ場所に移動させるステップと、第1の指示ベクトルが境界された体積と交差することの決定に応答して、第1のコンテンツ場所における双方向コンテンツと相互作用するためのインジケーションを受信するステップとを含むことができる。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
前記ユーザの環境の1つまたはそれを上回る画像を捕捉するように構成される外向きに向いたカメラと、
ハンドヘルドコントローラの指示方向を示す指示ベクトルを定義するハンドヘルドコントローラと、
前記ARディスプレイ、前記外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記ARディスプレイを介して、双方向コンテンツオブジェクトを表示することと、
第1の相互作用モードにおいて、前記指示ベクトルが前記双方向コンテンツオブジェクト内に留まる間、前記双方向コンテンツオブジェクト内の前記ハンドヘルドコントローラの移動を示し、前記ハンドヘルドコントローラを介して、前記双方向コンテンツオブジェクトとの相互作用を可能にすることと、
前記双方向コンテンツオブジェクトを基準として、前記指示ベクトルの変化を監視することと、
前記双方向コンテンツオブジェクトの外側の前記指示ベクトルの移動の検出に応答して、前記システムを第2の相互作用モードに更新することであって、前記ハンドヘルドコントローラは、前記双方向コンテンツオブジェクトが前記仮想環境内で前記ハンドヘルドコントローラの移動に追従するように、前記双方向コンテンツオブジェクトの移動を生じさせる、ことと、
前記双方向コンテンツオブジェクトの内側の前記ハンドヘルドコントローラの前記指示ベクトルの移動の検出に応答して、前記システムを前記第1の相互作用モードに更新することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目2)
前記双方向コンテンツオブジェクトは、仮想オブジェクトを含有する境界された体積を備える、項目1に記載のシステム。
(項目3)
前記双方向コンテンツオブジェクトの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、項目1または2のいずれか1項に記載のシステム。
(項目4)
前記ハードウェアプロセッサは、前記双方向コンテンツを第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、項目1-3のいずれか1項に記載のシステム。
(項目5)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目4に記載のシステム。
(項目6)
前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、項目4-5のいずれか1項に記載のシステム。
(項目7)
前記アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、項目6に記載のシステム。
(項目8)
前記ハードウェアプロセッサは、前記ユーザの環境内における前記双方向コンテンツの表示を停止するためのインジケーションを受信するように構成される、項目1-7のいずれか1項に記載のシステム。
(項目9)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目8に記載のシステム。
(項目10)
前記ハードウェアプロセッサは、
第1のユーザ頭部姿勢を決定することと、
前記第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第1のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツを配向することと
を行うように構成される、項目1-9のいずれか1項に記載のシステム。
(項目11)
前記ハードウェアプロセッサは、
第2のユーザ頭部姿勢を決定することと、
前記第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第2のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツオブジェクトを配向することと
を行うように構成される、項目10に記載のシステム。
(項目12)
前記双方向コンテンツオブジェクトのピッチは、前記ユーザの頭部の高さに対して固定される、項目1-11に記載のシステム。
(項目13)
前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を停止させるためのインジケーションを受信することと、
前記移動を停止させるためのインジケーションの受信に応答して、前記双方向コンテンツの表示を前記ユーザの環境内の現在のコンテンツ場所に維持することと
を行うように構成される、項目1-12のいずれか1項に記載のシステム。
(項目14)
前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を開始するためのインジケーションを受信することと、
前記移動を開始するためのインジケーションの受信に応答して、前記双方向コンテンツが前記ユーザの環境内の新しい場所に表示されることを可能にすることと
を行うように構成される、項目13に記載のシステム。
(項目15)
拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
少なくとも6自由度を有するハンドヘルドコントローラと、
前記ARディスプレイ、外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
双方向コンテンツを第1のコンテンツ場所に表示することと、
前記コントローラによって示される方向を備える第1の指示ベクトルを決定することと、
前記第1の指示ベクトルが、前記双方向コンテンツと関連付けられる境界された体積と交差するかどうかを決定することと、
前記第1の指示ベクトルが、前記境界された体積と交差しないことの決定に応答して、前記双方向コンテンツを、前記第1の指示ベクトルの方向に沿った点と関連付けられる第2のコンテンツ場所に移動させることと、
前記第1の指示ベクトルが前記境界された体積と交差することの決定に応答して、前記第1のコンテンツ場所における前記双方向コンテンツと相互作用するためのインジケーションを受信することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目16)
前記双方向コンテンツは、仮想オブジェクトを含有する境界された体積を備える、項目15に記載のシステム。
(項目17)
前記双方向コンテンツの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、項目15または16のいずれか1項に記載のシステム。
(項目18)
前記ハードウェアプロセッサは、前記双方向コンテンツを前記第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、項目15に記載のシステム。
(項目19)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目18に記載のシステム。
(項目20)
前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、項目18-19のいずれか1項に記載のシステム。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
前記ユーザの環境の1つまたはそれを上回る画像を捕捉するように構成される外向きに向いたカメラと、
ハンドヘルドコントローラの指示方向を示す指示ベクトルを定義するハンドヘルドコントローラと、
前記ARディスプレイ、前記外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記ARディスプレイを介して、双方向コンテンツオブジェクトを表示することと、
第1の相互作用モードにおいて、前記指示ベクトルが前記双方向コンテンツオブジェクト内に留まる間、前記双方向コンテンツオブジェクト内の前記ハンドヘルドコントローラの移動を示し、前記ハンドヘルドコントローラを介して、前記双方向コンテンツオブジェクトとの相互作用を可能にすることと、
前記双方向コンテンツオブジェクトを基準として、前記指示ベクトルの変化を監視することと、
前記双方向コンテンツオブジェクトの外側の前記指示ベクトルの移動の検出に応答して、前記システムを第2の相互作用モードに更新することであって、前記ハンドヘルドコントローラは、前記双方向コンテンツオブジェクトが前記仮想環境内で前記ハンドヘルドコントローラの移動に追従するように、前記双方向コンテンツオブジェクトの移動を生じさせる、ことと、
前記双方向コンテンツオブジェクトの内側の前記ハンドヘルドコントローラの前記指示ベクトルの移動の検出に応答して、前記システムを前記第1の相互作用モードに更新することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目2)
前記双方向コンテンツオブジェクトは、仮想オブジェクトを含有する境界された体積を備える、項目1に記載のシステム。
(項目3)
前記双方向コンテンツオブジェクトの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、項目1または2のいずれか1項に記載のシステム。
(項目4)
前記ハードウェアプロセッサは、前記双方向コンテンツを第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、項目1-3のいずれか1項に記載のシステム。
(項目5)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目4に記載のシステム。
(項目6)
前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、項目4-5のいずれか1項に記載のシステム。
(項目7)
前記アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、項目6に記載のシステム。
(項目8)
前記ハードウェアプロセッサは、前記ユーザの環境内における前記双方向コンテンツの表示を停止するためのインジケーションを受信するように構成される、項目1-7のいずれか1項に記載のシステム。
(項目9)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目8に記載のシステム。
(項目10)
前記ハードウェアプロセッサは、
第1のユーザ頭部姿勢を決定することと、
前記第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第1のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツを配向することと
を行うように構成される、項目1-9のいずれか1項に記載のシステム。
(項目11)
前記ハードウェアプロセッサは、
第2のユーザ頭部姿勢を決定することと、
前記第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第2のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツオブジェクトを配向することと
を行うように構成される、項目10に記載のシステム。
(項目12)
前記双方向コンテンツオブジェクトのピッチは、前記ユーザの頭部の高さに対して固定される、項目1-11に記載のシステム。
(項目13)
前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を停止させるためのインジケーションを受信することと、
前記移動を停止させるためのインジケーションの受信に応答して、前記双方向コンテンツの表示を前記ユーザの環境内の現在のコンテンツ場所に維持することと
を行うように構成される、項目1-12のいずれか1項に記載のシステム。
(項目14)
前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を開始するためのインジケーションを受信することと、
前記移動を開始するためのインジケーションの受信に応答して、前記双方向コンテンツが前記ユーザの環境内の新しい場所に表示されることを可能にすることと
を行うように構成される、項目13に記載のシステム。
(項目15)
拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
少なくとも6自由度を有するハンドヘルドコントローラと、
前記ARディスプレイ、外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
双方向コンテンツを第1のコンテンツ場所に表示することと、
前記コントローラによって示される方向を備える第1の指示ベクトルを決定することと、
前記第1の指示ベクトルが、前記双方向コンテンツと関連付けられる境界された体積と交差するかどうかを決定することと、
前記第1の指示ベクトルが、前記境界された体積と交差しないことの決定に応答して、前記双方向コンテンツを、前記第1の指示ベクトルの方向に沿った点と関連付けられる第2のコンテンツ場所に移動させることと、
前記第1の指示ベクトルが前記境界された体積と交差することの決定に応答して、前記第1のコンテンツ場所における前記双方向コンテンツと相互作用するためのインジケーションを受信することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目16)
前記双方向コンテンツは、仮想オブジェクトを含有する境界された体積を備える、項目15に記載のシステム。
(項目17)
前記双方向コンテンツの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、項目15または16のいずれか1項に記載のシステム。
(項目18)
前記ハードウェアプロセッサは、前記双方向コンテンツを前記第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、項目15に記載のシステム。
(項目19)
前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、項目18に記載のシステム。
(項目20)
前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、項目18-19のいずれか1項に記載のシステム。
Claims (20)
- 拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
前記ユーザの環境の1つまたはそれを上回る画像を捕捉するように構成される外向きに向いたカメラと、
ハンドヘルドコントローラであって、前記ハンドヘルドコントローラは、前記ハンドヘルドコントローラの指示方向を示す指示ベクトルを定義する、ハンドヘルドコントローラと、
前記ARディスプレイ、前記外向きに向いたカメラ、および前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記ARディスプレイを介して、双方向コンテンツオブジェクトを表示することと、
第1の相互作用モードにおいて、前記指示ベクトルが前記双方向コンテンツオブジェクト内に留まる間、前記双方向コンテンツオブジェクト内の前記ハンドヘルドコントローラの移動を示し、前記ハンドヘルドコントローラを介して、前記双方向コンテンツオブジェクトとの相互作用を可能にすることと、
前記双方向コンテンツオブジェクトを基準として、前記指示ベクトルの変化を監視することと、
前記双方向コンテンツオブジェクトの外側の前記指示ベクトルの移動の検出に応答して、前記システムを第2の相互作用モードに更新することであって、前記第2の相互作用モードにおいて、前記ハンドヘルドコントローラは、前記双方向コンテンツオブジェクトが仮想環境内で前記ハンドヘルドコントローラの移動に追従するように、前記双方向コンテンツオブジェクトの移動を生じさせる、ことと、
前記双方向コンテンツオブジェクトの内側の前記ハンドヘルドコントローラの前記指示ベクトルの移動の検出に応答して、前記システムを前記第1の相互作用モードに更新することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記双方向コンテンツオブジェクトは、仮想オブジェクトを含有する境界された体積を備える、請求項1に記載のシステム。
- 前記双方向コンテンツオブジェクトの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、請求項2に記載のシステム。
- 前記ハードウェアプロセッサは、前記双方向コンテンツを第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、請求項1に記載のシステム。
- 前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、請求項4に記載のシステム。
- 前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、請求項4に記載のシステム。
- 前記アラートは、グラフィック、触知フィードバック、または音のうちの少なくとも1つを含む、請求項6に記載のシステム。
- 前記ハードウェアプロセッサは、前記ユーザの前記環境内における前記双方向コンテンツの表示を停止するためのインジケーションを受信するように構成される、請求項1に記載のシステム。
- 前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、請求項8に記載のシステム。
- 前記ハードウェアプロセッサは、
第1のユーザ頭部姿勢を決定することと、
前記第1のユーザ頭部姿勢に基づいて、第1のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第1のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツを配向することと
を行うように構成される、請求項1に記載のシステム。 - 前記ハードウェアプロセッサは、
第2のユーザ頭部姿勢を決定することと、
前記第2のユーザ頭部姿勢に基づいて、第2のユーザ視線ベクトルを識別することと、
前記双方向コンテンツオブジェクトの表面が前記第2のユーザ視線ベクトルと垂直となるように、前記双方向コンテンツオブジェクトを配向することと
を行うように構成される、請求項10に記載のシステム。 - 前記双方向コンテンツオブジェクトのピッチは、前記ユーザの頭部の高さに対して固定される、請求項1に記載のシステム。
- 前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を停止させるためのインジケーションを受信することと、
前記移動を停止させるためのインジケーションの受信に応答して、前記双方向コンテンツの表示を前記ユーザの前記環境内の現在のコンテンツ場所に維持することと
を行うように構成される、請求項1に記載のシステム。 - 前記ハードウェアプロセッサは、
前記双方向コンテンツの移動を開始するためのインジケーションを受信することと、
前記移動を開始するためのインジケーションの受信に応答して、前記双方向コンテンツが前記ユーザの前記環境内の新しい場所に表示されることを可能にすることと
を行うように構成される、請求項13に記載のシステム。 - 拡張現実(AR)システムであって、
仮想コンテンツを前記ARシステムのユーザに提示するように構成されるARディスプレイと、
少なくとも6自由度を有するハンドヘルドコントローラと、
前記ARディスプレイおよび前記ハンドヘルドコントローラと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
双方向コンテンツを第1のコンテンツ場所に表示することと、
前記コントローラによって示される方向を備える第1の指示ベクトルを決定することと、
前記第1の指示ベクトルが、前記双方向コンテンツと関連付けられる境界された体積と交差するかどうかを決定することと、
前記第1の指示ベクトルが前記境界された体積と交差しないことの決定に応答して、前記双方向コンテンツを、前記第1の指示ベクトルの方向に沿った点と関連付けられる第2のコンテンツ場所に移動させることと、
前記第1の指示ベクトルが前記境界された体積と交差することの決定に応答して、前記第1のコンテンツ場所における前記双方向コンテンツと相互作用するためのインジケーションを受信することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記双方向コンテンツは、仮想オブジェクトを含有する境界された体積を備える、請求項15に記載のシステム。
- 前記双方向コンテンツの少なくとも1つの縁は、前記仮想オブジェクトの対応する縁より前記仮想オブジェクトの中心から10度さらに離れている、請求項16に記載のシステム。
- 前記ハードウェアプロセッサは、前記双方向コンテンツを前記第1のコンテンツ場所に表示するためのインジケーションを受信するように構成される、請求項15に記載のシステム。
- 前記インジケーションは、前記コントローラ上のボタンの押下および解放を備える、請求項18に記載のシステム。
- 前記ハードウェアプロセッサは、前記ユーザに、前記第1のコンテンツ場所における前記双方向コンテンツの表示をアラートするように構成される、請求項18に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024074313A JP2024105391A (ja) | 2020-01-24 | 2024-05-01 | 単一コントローラを使用したコンテンツ移動および相互作用 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062965708P | 2020-01-24 | 2020-01-24 | |
US62/965,708 | 2020-01-24 | ||
PCT/US2021/014208 WO2021150623A1 (en) | 2020-01-24 | 2021-01-20 | Content movement and interaction using a single controller |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024074313A Division JP2024105391A (ja) | 2020-01-24 | 2024-05-01 | 単一コントローラを使用したコンテンツ移動および相互作用 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2023511905A JP2023511905A (ja) | 2023-03-23 |
JPWO2021150623A5 true JPWO2021150623A5 (ja) | 2024-01-29 |
JP7496424B2 JP7496424B2 (ja) | 2024-06-06 |
Family
ID=76971189
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022544290A Active JP7496424B2 (ja) | 2020-01-24 | 2021-01-20 | 単一コントローラを使用したコンテンツ移動および相互作用 |
JP2024074313A Pending JP2024105391A (ja) | 2020-01-24 | 2024-05-01 | 単一コントローラを使用したコンテンツ移動および相互作用 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024074313A Pending JP2024105391A (ja) | 2020-01-24 | 2024-05-01 | 単一コントローラを使用したコンテンツ移動および相互作用 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11294461B2 (ja) |
EP (1) | EP4094119A4 (ja) |
JP (2) | JP7496424B2 (ja) |
CN (1) | CN115380236A (ja) |
WO (1) | WO2021150623A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11294461B2 (en) | 2020-01-24 | 2022-04-05 | Magic Leap, Inc. | Content movement and interaction using a single controller |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US6091395A (en) * | 1997-12-15 | 2000-07-18 | International Business Machines Corporation | Computer system and method of manipulating a graphical user interface component on a computer display through collision with a pointer |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8665272B2 (en) * | 2007-09-26 | 2014-03-04 | Autodesk, Inc. | Navigation system for a 3D virtual scene |
US8970669B2 (en) | 2009-09-30 | 2015-03-03 | Rovi Guides, Inc. | Systems and methods for generating a three-dimensional media guidance application |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
KR101171660B1 (ko) * | 2010-03-01 | 2012-08-09 | 이문기 | 증강현실의 포인팅 장치 |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
US9348143B2 (en) | 2010-12-24 | 2016-05-24 | Magic Leap, Inc. | Ergonomic head mounted display device and optical system |
RU2017118159A (ru) | 2011-05-06 | 2018-10-30 | Мэджик Лип, Инк. | Мир массового одновременного удаленного цифрового присутствия |
AU2011204946C1 (en) * | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US9255813B2 (en) * | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
RU2017115669A (ru) | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
JP5938977B2 (ja) * | 2012-03-23 | 2016-06-22 | ソニー株式会社 | ヘッドマウントディスプレイ及び手術システム |
US8795080B1 (en) * | 2012-03-30 | 2014-08-05 | Zynga Inc. | Gaming platform providing a game action sweep mechanic |
AU2013243380B2 (en) | 2012-04-05 | 2017-04-20 | Magic Leap, Inc. | Wide-field of view (FOV) imaging devices with active foveation capability |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
EP2895910A4 (en) | 2012-09-11 | 2016-04-20 | Magic Leap Inc | ERGONOMIC HEAD-MOUNTED DISPLAY DEVICE AND OPTICAL SYSTEM |
JP2014127987A (ja) * | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
NZ735752A (en) | 2013-03-15 | 2019-10-25 | Magic Leap Inc | Display system and method |
CN105074625B (zh) | 2013-04-02 | 2018-09-21 | 索尼公司 | 信息处理设备、信息处理方法及计算机可读记录介质 |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9129430B2 (en) * | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
KR20230098359A (ko) | 2013-10-16 | 2023-07-03 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
CA2931776A1 (en) | 2013-11-27 | 2015-06-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
AU2015297035B2 (en) | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
EP3023863A1 (en) * | 2014-11-20 | 2016-05-25 | Thomson Licensing | Device and method for processing visual data, and related computer program product |
JP5876607B1 (ja) | 2015-06-12 | 2016-03-02 | 株式会社コロプラ | フローティング・グラフィカルユーザインターフェース |
US10101803B2 (en) | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
CN105425955A (zh) * | 2015-11-06 | 2016-03-23 | 中国矿业大学 | 多用户沉浸式全互动虚拟现实工程培训系统 |
KR20230098927A (ko) * | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
US10290152B2 (en) | 2017-04-03 | 2019-05-14 | Microsoft Technology Licensing, Llc | Virtual object user interface display |
CA3059234A1 (en) | 2017-04-19 | 2018-10-25 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
KR102694754B1 (ko) | 2017-12-22 | 2024-08-12 | 매직 립, 인코포레이티드 | 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기 위한 방법들 및 시스템 |
US10540941B2 (en) * | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
US11875012B2 (en) * | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US10916064B2 (en) | 2018-07-23 | 2021-02-09 | Magic Leap, Inc. | Method and system for resolving hemisphere ambiguity using a position vector |
US11294461B2 (en) | 2020-01-24 | 2022-04-05 | Magic Leap, Inc. | Content movement and interaction using a single controller |
-
2021
- 2021-01-20 US US17/153,201 patent/US11294461B2/en active Active
- 2021-01-20 CN CN202180023237.XA patent/CN115380236A/zh active Pending
- 2021-01-20 JP JP2022544290A patent/JP7496424B2/ja active Active
- 2021-01-20 EP EP21743796.1A patent/EP4094119A4/en active Pending
- 2021-01-20 WO PCT/US2021/014208 patent/WO2021150623A1/en unknown
-
2022
- 2022-02-16 US US17/673,333 patent/US11619996B2/en active Active
-
2023
- 2023-03-15 US US18/184,586 patent/US20230214015A1/en active Pending
-
2024
- 2024-05-01 JP JP2024074313A patent/JP2024105391A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113853575B (zh) | 具有滑动菜单的人工现实系统 | |
US10754497B2 (en) | Two-handed object manipulations in virtual reality | |
Matsas et al. | Design of a virtual reality training system for human–robot collaboration in manufacturing tasks | |
US20190240573A1 (en) | Method for controlling characters in virtual space | |
CN110476142A (zh) | 虚拟对象用户界面显示 | |
EP2394718A2 (en) | Image generation system, image generation method, and information storage medium for video games | |
TW202105129A (zh) | 具有用於閘控使用者介面元件的個人助理元件之人工實境系統 | |
JP6110893B2 (ja) | 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 | |
CN111459277B (zh) | 基于混合现实的机械臂遥操作系统及交互界面构建方法 | |
US11073902B1 (en) | Using skeletal position to predict virtual boundary activation | |
US20210183135A1 (en) | Feed-forward collision avoidance for artificial reality environments | |
US20230126008A1 (en) | Aircraft vr training system, aircraft vr training method, and aircraft vr training program | |
JP2022184958A (ja) | アニメーション制作システム | |
US20230277941A1 (en) | Information processing system, non-transitory computer-readable storage medium having stored therein information processing program, information processing method, and information processing apparatus | |
US20230135138A1 (en) | Vr training system for aircraft, vr training method for aircraft, and vr training program for aircraft | |
JP4109745B2 (ja) | 三次元空間表示システムにおける物体移動配置装置及び方法 | |
JPWO2021150623A5 (ja) | ||
Ainasoja et al. | Smartphone teleoperation for self-balancing telepresence robots | |
JPH10214344A (ja) | インタラクティブ表示装置 | |
JP6535699B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
US11443471B2 (en) | Animation production method | |
JP2022153476A (ja) | アニメーション制作システム | |
JP6710731B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP3939444B2 (ja) | 映像表示装置 | |
JP3843317B2 (ja) | マニピュレータの動作予告装置 |