JP2018526693A - 仮想現実における注視対話のためのホバー挙動 - Google Patents
仮想現実における注視対話のためのホバー挙動 Download PDFInfo
- Publication number
- JP2018526693A JP2018526693A JP2017556678A JP2017556678A JP2018526693A JP 2018526693 A JP2018526693 A JP 2018526693A JP 2017556678 A JP2017556678 A JP 2017556678A JP 2017556678 A JP2017556678 A JP 2017556678A JP 2018526693 A JP2018526693 A JP 2018526693A
- Authority
- JP
- Japan
- Prior art keywords
- user
- contactless
- movement
- environment
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本願は、2015年8月4日に出願された「仮想現実における注視対話のためのホバー挙動」(Hover Behavior For Gaze Interactions in Virtual Reality)と題された米国特許出願連続番号第62/200,821号の優先権および利益を主張する。その開示はその全体がここに引用により援用される。
本説明は一般に、仮想現実(virtual reality:VR)環境におけるコンピューティングデバイスの使用に関する。
一般に、仮想現実は、コンピュータによって生成された3次元(3D)環境において人を包囲し、没入させることができる。人は、特定の電子デバイスと対話することにより、および/または特定の電子デバイスを物理的に装着することにより、この環境に入ることができる。例示的な電子デバイスは、画面を含むヘルメット、ユーザが画面(たとえば、表示装置またはモニタ)を見るときに覗く眼鏡またはゴーグル、センサ付き手袋、およびセンサを含む外部ハンドヘルドデバイスを含み得るものの、それらに限定されない。人は、一旦VR環境に入ると、その人にとって現実のように見えるような態様で(たとえば、物理的な態様で)3D環境と対話することができる。
一般的な一局面によれば、1つ以上のコンピュータのシステムが、特定の動作またはアクションを行なうように構成され得る。当該動作またはアクションは、動作時に当該システムに当該アクションを行なわせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せが当該システムにインストールされることによって行なわれる。1つ以上のコンピュータプログラムが、特定の動作またはアクションを行なうように構成され得る。当該動作またはアクションは、データ処理装置によって実行されると、当該装置に当該アクションを行なわせる命令を含むことによって行なわれる。
詳細な説明
コンピュータによって生成された仮想現実環境は、ユーザに自分が仮想現実空間に没入していることを忘れさせることができる、ユーザのための体験を作り出すことができる。没入型の体験により、ユーザは、知覚した仮想現実環境(たとえばVR環境)と異なるように対話することを学習するようになり得る。一般に、VR環境は、仮想コンテンツと対話する多くの機構をユーザに提供できる。これらの機構は、電子機器およびセンサを有して構成されたウェアラブル製品といった、特定のユーザ運動を感知するように構成された物理デバイスを含み得る。これらの機構はまた、ユーザの眼球運動および注視方向を感知するためのセンサまたはカメラを含み得る。
例1:コンピュータにより実現される方法であって、当該方法は、仮想環境のために、複数の非接触ターゲットを生成するステップを含み、複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、当該方法はさらに、仮想環境において第1の非接触入力を検出するステップを含み、非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応しており、当該方法はさらに、第1の非接触入力が、少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、第1の非接触入力が予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、少なくとも1つの非接触ターゲットを当該位置で提供するステップと、当該位置で第2の非接触入力を検出するステップに応答して、仮想環境において、少なくとも1つの非接触ターゲットに関連付けられた対話型機能性を実行するステップとを含む、方法。
Claims (20)
- コンピュータにより実現される方法であって、前記方法は、
仮想環境のために、複数の非接触ターゲットを生成するステップを含み、前記複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、前記方法はさらに、
前記仮想環境において第1の非接触入力を検出するステップを含み、前記非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応しており、前記方法はさらに、
前記第1の非接触入力が、前記少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、前記第1の非接触入力が前記予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、前記少なくとも1つの非接触ターゲットを前記位置で提供するステップと、
前記位置で第2の非接触入力を検出するステップに応答して、前記仮想環境において、前記少なくとも1つの非接触ターゲットに関連付けられた前記対話型機能性を実行するステップとを含む、方法。 - 前記第1の非接触入力は、ユーザに関連付けられた減速速度を含み、前記第2の非接触入力は、前記頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、請求項1に記載の方法。
- 前記第1の非接触入力は、ユーザに関連付けられた加速速度を含み、前記第2の非接触入力は、前記頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、請求項1に記載の方法。
- 前記第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、前記ユーザに関連付けられた眼球注視方向を検出するステップを含み、眼球注視は前記頭部装着型デバイスで検出される、請求項1に記載の方法。
- 前記第1の非接触入力が前記予め規定されたしきい値を満たすかどうかを判断するステップは、
前記複数の非接触ターゲットについてのトリガ情報を取得するステップを含み、前記トリガ情報は、対話型機能性を実行するための表示に対応しており、前記判断するステップはさらに、
ユーザに関連付けられた意図を判断するステップと、
前記仮想環境における初期位置と、前記ユーザについての運動速度とを判断するステップと、
前記対話型機能性を実行するための信頼レベルを取得するために、前記意図および前記運動速度を前記トリガ情報と比較するステップとを含む、請求項1に記載の方法。 - 前記意図を判断するステップは、前記ユーザに関連付けられた運動の加速または減速を分析するステップを含む、請求項5に記載の方法。
- 前記第2の非接触入力は、ユーザに関連付けられた眼球注視を含み、前記眼球注視は、前記対話型機能性をトリガするために固定される、請求項1に記載の方法。
- 前記眼球注視は、約50ミリ秒〜約100ミリ秒の固定後に前記対話型機能性をトリガする、請求項7に記載の方法。
- 前記仮想オブジェクトに関連付けられた前記対話型機能性は、前記仮想オブジェクトに対応する非接触の選択可能メニューを含む、請求項1に記載の方法。
- 前記第2の非接触入力を検出するステップに応答して、複数の非接触制御機構を前記位置で提供するステップをさらに含む、請求項1に記載の方法。
- システムであって、
仮想現実環境において仮想現実体験を生成する電子コンピューティングデバイスを含み、前記電子コンピューティングデバイスは物理的空間内でポータブルであり、前記システムはさらに、
前記電子コンピューティングデバイスと通信している複数のセンサを含み、前記センサは、前記物理的空間内の前記電子コンピューティングデバイスにアクセスしているユーザに関連付けられた動きを検出するように構成され、前記システムはさらに、
プロセッサを含み、前記プロセッサは、
ある期間にわたる各動きに関連付けられた速度と、前記動きを行なう前記ユーザの一部分から少なくとも1つの仮想オブジェクトまでの距離とを判断し、
前記期間にわたる前記動きに関連付けられた加速速度を判断することに応答して、前記仮想環境のための第1の対話モードに関与し、
前記期間にわたる前記動きに関連付けられた減速速度を判断することに応答して、前記仮想環境のための第2の対話モードに関与し、
前記仮想現実環境において前記関与されたモードの表示を表示し、前記動きと前記少なくとも1つの仮想オブジェクトとに関連付けられた対話型機能性を実行するために前記関与されたモードを使用するように構成される、システム。 - 前記仮想オブジェクトに関連付けられた前記対話型機能性は、前記仮想オブジェクトに対応する非接触の選択可能メニューを含む、請求項11に記載のシステム。
- 前記第1の対話モードは、前記仮想環境において、前記少なくとも1つの仮想オブジェクト上の選択可能部分を表示することを含み、前記選択可能部分は、前記速度と、前記ユーザの前記一部分から前記少なくとも1つの仮想オブジェクトまでの前記距離との検出後に提供される、請求項11に記載のシステム。
- 前記第2の対話モードは、前記仮想環境において、前記少なくとも1つの仮想オブジェクト上の他の選択可能部分を表示することを含み、前記他の選択可能部分は、予め規定されたしきい値の後に、および、前記ユーザによって行なわれた追加運動の検出後に提供される、請求項11に記載のシステム。
- 前記動きは、前記少なくとも1つの仮想オブジェクトに向かう眼球運動に関連付けられ、前記眼球運動は、約50ミリ秒〜約100ミリ秒の固定後に前記対話型機能性をトリガする、請求項11に記載のシステム。
- 前記動きは、前記ユーザの眼球運動に関連付けられ、前記眼球運動は、前記少なくとも1つの仮想オブジェクトから離れる方に向けられる、請求項11に記載のシステム。
- 前記動きは、前記ユーザの手の運動に関連付けられ、前記手の運動は、前記少なくとも1つの仮想オブジェクトの方に向けられる、請求項11に記載のシステム。
- 命令を含む、非一時的なコンピュータ読取可能媒体であって、前記命令は、コンピュータシステムのプロセッサによって実行されると、前記コンピュータシステムに複数のステップを行なわせ、前記複数のステップは、
仮想環境のために、複数の非接触ターゲットを生成するステップを含み、前記複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、前記複数のステップはさらに、
前記仮想環境において第1の非接触入力を検出するステップを含み、前記非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応しており、前記複数のステップはさらに、
前記第1の非接触入力が、前記少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、前記第1の非接触入力が前記予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、前記少なくとも1つの非接触ターゲットを前記位置で提供するステップと、
前記位置で第2の非接触入力を検出するステップに応答して、前記仮想環境において、前記少なくとも1つの非接触ターゲットに関連付けられた前記対話型機能性を実行するステップとを含む、非一時的なコンピュータ読取可能媒体。 - 前記第1の非接触入力は、ユーザに関連付けられた減速速度を含み、前記第2の非接触入力は、前記頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、請求項18に記載の非一時的なコンピュータ読取可能媒体。
- 前記第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、前記ユーザに関連付けられた眼球注視方向を検出するステップを含み、眼球注視は前記頭部装着型デバイスで検出される、請求項18に記載の非一時的なコンピュータ読取可能媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562200821P | 2015-08-04 | 2015-08-04 | |
US62/200,821 | 2015-08-04 | ||
PCT/US2016/045518 WO2017024118A1 (en) | 2015-08-04 | 2016-08-04 | Hover behavior for gaze interactions in virtual reality |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018526693A true JP2018526693A (ja) | 2018-09-13 |
Family
ID=56684293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556678A Pending JP2018526693A (ja) | 2015-08-04 | 2016-08-04 | 仮想現実における注視対話のためのホバー挙動 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20170038837A1 (ja) |
EP (1) | EP3332311B1 (ja) |
JP (1) | JP2018526693A (ja) |
KR (1) | KR20170130582A (ja) |
CN (1) | CN107787472A (ja) |
WO (1) | WO2017024118A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023099570A (ja) * | 2018-12-27 | 2023-07-13 | 株式会社コロプラ | プログラム、およびシステム |
WO2024166851A1 (ja) * | 2023-02-07 | 2024-08-15 | 株式会社Nttドコモ | 仮想空間管理装置 |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102110208B1 (ko) * | 2015-05-08 | 2020-05-13 | 엘지전자 주식회사 | 안경형 단말기 및 이의 제어방법 |
JP6516585B2 (ja) * | 2015-06-24 | 2019-05-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 制御装置、その方法及びプログラム |
US20170085964A1 (en) * | 2015-09-17 | 2017-03-23 | Lens Entertainment PTY. LTD. | Interactive Object Placement in Virtual Reality Videos |
US10962780B2 (en) * | 2015-10-26 | 2021-03-30 | Microsoft Technology Licensing, Llc | Remote rendering for virtual images |
KR20170051013A (ko) * | 2015-11-02 | 2017-05-11 | 엘지전자 주식회사 | 테더링 형 hmd 및 그 hmd의 제어 방법 |
WO2017161192A1 (en) * | 2016-03-16 | 2017-09-21 | Nils Forsblom | Immersive virtual experience using a mobile communication device |
US10133345B2 (en) * | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US10048751B2 (en) * | 2016-03-31 | 2018-08-14 | Verizon Patent And Licensing Inc. | Methods and systems for gaze-based control of virtual reality media content |
JP6851745B2 (ja) * | 2016-08-04 | 2021-03-31 | 富士通株式会社 | 画像制御方法、装置、及びプログラム |
US10867445B1 (en) * | 2016-11-16 | 2020-12-15 | Amazon Technologies, Inc. | Content segmentation and navigation |
GB2557594B (en) * | 2016-12-09 | 2020-01-01 | Sony Interactive Entertainment Inc | Image processing system and method |
US10482648B2 (en) * | 2016-12-13 | 2019-11-19 | Qualcomm Incorporated | Scene-based foveated rendering of graphics content |
US10120442B2 (en) * | 2016-12-21 | 2018-11-06 | Oculus Vr, Llc | Eye tracking using a light field camera on a head-mounted display |
GB2558284B (en) * | 2016-12-23 | 2021-12-08 | Sony Interactive Entertainment Inc | Virtual reality |
EP3588494B1 (en) * | 2017-02-27 | 2024-04-03 | Sony Group Corporation | Information processing device, information processing method, and program |
US11436811B2 (en) | 2017-04-25 | 2022-09-06 | Microsoft Technology Licensing, Llc | Container-based virtual camera rotation |
JP6947661B2 (ja) * | 2017-05-26 | 2021-10-13 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
SE541650C2 (en) * | 2017-05-30 | 2019-11-19 | Crunchfish Ab | Improved activation of a virtual object |
CN107247424B (zh) * | 2017-06-08 | 2019-03-29 | 浙江大学 | 一种基于激光距离传感器的ar虚拟开关的开关方法 |
US11079899B2 (en) * | 2017-07-26 | 2021-08-03 | Microsoft Technology Licensing, Llc | Dynamic eye-gaze dwell times |
WO2019023014A1 (en) | 2017-07-27 | 2019-01-31 | Intuitive Surgical Operations, Inc. | ASSOCIATION METHODS AND ASSOCIATED SYSTEMS FOR MANIPULATORS |
CN110475523B (zh) * | 2017-07-27 | 2023-06-27 | 直观外科手术操作公司 | 用于操纵器的关联过程和相关系统 |
DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
US10930075B2 (en) * | 2017-10-16 | 2021-02-23 | Microsoft Technology Licensing, Llc | User interface discovery and interaction for three-dimensional virtual environments |
CN111492426B (zh) * | 2017-12-22 | 2024-02-02 | 瑞典爱立信有限公司 | 注视启动的语音控制 |
KR102044856B1 (ko) * | 2017-12-28 | 2019-11-14 | 광운대학교 산학협력단 | 가상현실 기반으로 오토마타를 조립하고 시뮬레이션하는 장치 및 방법 |
JP6582205B2 (ja) * | 2018-02-28 | 2019-10-02 | 株式会社コナミデジタルエンタテインメント | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム |
JP6623481B2 (ja) * | 2018-03-23 | 2019-12-25 | 株式会社コナミデジタルエンタテインメント | 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム |
US10748021B2 (en) | 2018-05-11 | 2020-08-18 | Samsung Electronics Co., Ltd. | Method of analyzing objects in images recorded by a camera of a head mounted device |
US20210318796A1 (en) * | 2018-08-17 | 2021-10-14 | Matrix Analytics Corporation | System and Method for Fabricating Decorative Surfaces |
CN110908568B (zh) * | 2018-09-18 | 2022-11-04 | 网易(杭州)网络有限公司 | 一种虚拟对象的控制方法和装置 |
JP7148624B2 (ja) * | 2018-09-21 | 2022-10-05 | 富士フイルム株式会社 | 画像提案装置、画像提案方法及び画像提案プログラム |
CN109346014B (zh) * | 2018-09-29 | 2020-07-03 | 歌尔科技有限公司 | 一种虚拟现实设备及其屏幕控制方法 |
KR102239877B1 (ko) * | 2018-12-19 | 2021-04-12 | 주식회사 에이투젯 | 3차원 vr 콘텐츠 제작 시스템 |
US11320957B2 (en) | 2019-01-11 | 2022-05-03 | Microsoft Technology Licensing, Llc | Near interaction mode for far virtual object |
US10930244B2 (en) * | 2019-02-19 | 2021-02-23 | Apical Limited | Data processing systems |
US11009698B2 (en) * | 2019-03-13 | 2021-05-18 | Nick Cherukuri | Gaze-based user interface for augmented and mixed reality device |
US11314383B2 (en) * | 2019-03-24 | 2022-04-26 | Apple Inc. | Stacked media elements with selective parallax effects |
CN110248091B (zh) * | 2019-06-12 | 2021-06-04 | Oppo广东移动通信有限公司 | 焦距调整方法及相关产品 |
US11516296B2 (en) * | 2019-06-18 | 2022-11-29 | THE CALANY Holding S.ÀR.L | Location-based application stream activation |
CN115004128A (zh) | 2020-01-27 | 2022-09-02 | 奇跃公司 | 基于注视计时器的用户输入设备的功能增强 |
US11695758B2 (en) * | 2020-02-24 | 2023-07-04 | International Business Machines Corporation | Second factor authentication of electronic devices |
AU2021349382B2 (en) | 2020-09-25 | 2023-06-29 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
US11609629B2 (en) | 2020-10-20 | 2023-03-21 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11392198B2 (en) | 2020-10-20 | 2022-07-19 | ROVl GUIDES, INC. | Methods and systems of extended reality environment interaction based on eye motions |
US11320903B1 (en) | 2020-10-20 | 2022-05-03 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11747896B2 (en) * | 2020-10-20 | 2023-09-05 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11281291B1 (en) | 2020-10-20 | 2022-03-22 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
CN112612363A (zh) * | 2020-12-18 | 2021-04-06 | 上海影创信息科技有限公司 | 基于余光区域的用户非偏好比较方法和系统 |
CN112684883A (zh) * | 2020-12-18 | 2021-04-20 | 上海影创信息科技有限公司 | 多用户对象区分处理的方法和系统 |
US11327630B1 (en) | 2021-02-04 | 2022-05-10 | Huawei Technologies Co., Ltd. | Devices, methods, systems, and media for selecting virtual objects for extended reality interaction |
US11995230B2 (en) * | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
WO2022221851A1 (en) * | 2021-04-13 | 2022-10-20 | Apple Inc. | Methods for providing an immersive experience in an environment |
CN113384233A (zh) * | 2021-06-25 | 2021-09-14 | 长沙学院 | 一种利用vr眼镜快速检测近视的系统 |
US11986739B2 (en) * | 2021-07-09 | 2024-05-21 | Gel Blaster, Inc. | Smart target co-witnessing hit attribution system and method |
US11921918B2 (en) * | 2021-11-16 | 2024-03-05 | Sony Interactive Entertainment LLC | Heads up display in virtual reality |
US12008160B2 (en) * | 2022-03-30 | 2024-06-11 | Apple Inc. | Eye tracking based selection of a user interface (UI) element based on targeting criteria |
US20240103716A1 (en) * | 2022-09-24 | 2024-03-28 | Apple Inc. | Methods for interacting with user interfaces based on attention |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140237366A1 (en) * | 2013-02-19 | 2014-08-21 | Adam Poulos | Context-aware augmented reality object commands |
WO2014204755A1 (en) * | 2013-06-18 | 2014-12-24 | Microsoft Corporation | Multi-step virtual object selection |
WO2014209772A1 (en) * | 2013-06-25 | 2014-12-31 | Microsoft Corporation | Selecting user interface elements via position signal |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2126142A1 (en) * | 1994-06-17 | 1995-12-18 | David Alexander Kahn | Visual communications apparatus |
US20060256133A1 (en) * | 2005-11-05 | 2006-11-16 | Outland Research | Gaze-responsive video advertisment display |
US8181122B2 (en) * | 2007-07-30 | 2012-05-15 | Perceptive Pixel Inc. | Graphical user interface for large-scale, multi-user, multi-touch systems |
EP2659335A4 (en) * | 2010-12-29 | 2016-05-18 | Thomson Licensing | SYSTEM AND METHOD FOR RECOGNIZING GESTURES |
US20130145304A1 (en) * | 2011-12-02 | 2013-06-06 | International Business Machines Corporation | Confirming input intent using eye tracking |
US9135508B2 (en) * | 2011-12-20 | 2015-09-15 | Microsoft Technology Licensing, Llc. | Enhanced user eye gaze estimation |
US9183676B2 (en) * | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
CN105339866B (zh) * | 2013-03-01 | 2018-09-07 | 托比股份公司 | 延迟扭曲凝视交互 |
US9367136B2 (en) * | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
US9230368B2 (en) * | 2013-05-23 | 2016-01-05 | Microsoft Technology Licensing, Llc | Hologram anchoring and dynamic positioning |
EP3140780B1 (en) * | 2014-05-09 | 2020-11-04 | Google LLC | Systems and methods for discerning eye signals and continuous biometric identification |
US10248192B2 (en) * | 2014-12-03 | 2019-04-02 | Microsoft Technology Licensing, Llc | Gaze target application launcher |
CN106200964B (zh) * | 2016-07-06 | 2018-10-26 | 浙江大学 | 一种虚拟现实中基于移动轨迹识别进行人机交互的方法 |
-
2016
- 2016-08-04 WO PCT/US2016/045518 patent/WO2017024118A1/en unknown
- 2016-08-04 JP JP2017556678A patent/JP2018526693A/ja active Pending
- 2016-08-04 EP EP16751116.1A patent/EP3332311B1/en active Active
- 2016-08-04 CN CN201680025846.8A patent/CN107787472A/zh active Pending
- 2016-08-04 US US15/228,319 patent/US20170038837A1/en not_active Abandoned
- 2016-08-04 KR KR1020177030804A patent/KR20170130582A/ko not_active Application Discontinuation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140237366A1 (en) * | 2013-02-19 | 2014-08-21 | Adam Poulos | Context-aware augmented reality object commands |
WO2014204755A1 (en) * | 2013-06-18 | 2014-12-24 | Microsoft Corporation | Multi-step virtual object selection |
WO2014209772A1 (en) * | 2013-06-25 | 2014-12-31 | Microsoft Corporation | Selecting user interface elements via position signal |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023099570A (ja) * | 2018-12-27 | 2023-07-13 | 株式会社コロプラ | プログラム、およびシステム |
JP7466034B2 (ja) | 2018-12-27 | 2024-04-11 | 株式会社コロプラ | プログラム、およびシステム |
WO2024166851A1 (ja) * | 2023-02-07 | 2024-08-15 | 株式会社Nttドコモ | 仮想空間管理装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107787472A (zh) | 2018-03-09 |
EP3332311B1 (en) | 2019-12-04 |
KR20170130582A (ko) | 2017-11-28 |
US20170038837A1 (en) | 2017-02-09 |
WO2017024118A1 (en) | 2017-02-09 |
EP3332311A1 (en) | 2018-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3332311B1 (en) | Hover behavior for gaze interactions in virtual reality | |
EP3332314B1 (en) | Input via context sensitive collisions of hands with objects in virtual reality | |
JP6633256B1 (ja) | 拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成 | |
US10545584B2 (en) | Virtual/augmented reality input device | |
US11181986B2 (en) | Context-sensitive hand interaction | |
US10509487B2 (en) | Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment | |
CN107533374B (zh) | 虚拟现实中的头部、手势和触摸输入的动态切换和合并 | |
KR102338835B1 (ko) | 증강 및/또는 가상 현실 환경에서의 세션 종료 검출 | |
US20170287215A1 (en) | Pass-through camera user interface elements for virtual reality | |
US11941764B2 (en) | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments | |
CN108697935B (zh) | 虚拟环境中的化身 | |
EP3740849B1 (en) | Hybrid placement of objects in an augmented reality environment | |
KR20190133080A (ko) | 증강 현실 시스템용 터치프리 인터페이스 | |
KR20190067227A (ko) | 가상 현실 시스템을 위한 입력 제어기 안정화 기법 | |
US11782571B2 (en) | Device, method, and graphical user interface for manipulating 3D objects on a 2D screen | |
US10474324B2 (en) | Uninterruptable overlay on a display | |
WO2019010337A1 (en) | VOLUMETRIC MULTI-SELECTION INTERFACE FOR SELECTING MULTIPLE ENTITIES IN A 3D SPACE | |
CN116940915A (zh) | 虚拟现实中的部分透视 | |
WO2023283154A1 (en) | Artificial reality teleportation via hand gestures | |
WO2024173045A1 (en) | Simultaneous controller and touch interactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191203 |