JP2023548795A - Eye movement-based extended reality environment interaction method and system - Google Patents

Eye movement-based extended reality environment interaction method and system Download PDF

Info

Publication number
JP2023548795A
JP2023548795A JP2023524125A JP2023524125A JP2023548795A JP 2023548795 A JP2023548795 A JP 2023548795A JP 2023524125 A JP2023524125 A JP 2023524125A JP 2023524125 A JP2023524125 A JP 2023524125A JP 2023548795 A JP2023548795 A JP 2023548795A
Authority
JP
Japan
Prior art keywords
display
extended reality
user
reality environment
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023524125A
Other languages
Japanese (ja)
Other versions
JPWO2022086577A5 (en
Inventor
アンクル アニル アヘル,
スサント セン,
アール バラジ,
サイ ドゥルガ ヴェンカット レディ プリクンタ,
ジョゼ, ジェフリー コップス ロバート
ブイ, アルン クマール ティー
さくら 齋藤
Original Assignee
ロヴィ ガイズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/075,232 external-priority patent/US11392198B2/en
Priority claimed from US17/075,222 external-priority patent/US11320903B1/en
Priority claimed from US17/075,224 external-priority patent/US11609629B2/en
Priority claimed from US17/075,229 external-priority patent/US11281291B1/en
Priority claimed from US17/075,227 external-priority patent/US11747896B2/en
Application filed by ロヴィ ガイズ, インコーポレイテッド filed Critical ロヴィ ガイズ, インコーポレイテッド
Publication of JP2023548795A publication Critical patent/JP2023548795A/en
Publication of JPWO2022086577A5 publication Critical patent/JPWO2022086577A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

エクステンデッドリアリティ環境相互作用のためのシステムおよび方法が、説明される。オブジェクトを含む、エクステンデッドリアリティ環境が、表示のために発生され、第1のセンサが、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出するために使用され、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれる。注視における偏移のインジケータが、注視偏移を検出することに応答して、エクステンデッドリアリティ環境内での表示のために発生され、音声コマンドが、インジケータがオブジェクトの近傍にある間に第2のセンサによって検出される。音声コマンドを検出することに応答して、音声コマンドに対応するアクションが、実行され得る。A system and method for extended reality environment interaction is described. An extended reality environment including an object is generated for display, and a first sensor detects that gaze is shifted from a first portion of the extended reality environment to a second portion of the extended reality environment. The object is excluded from a first portion of the extended reality environment and included within a second portion of the extended reality environment. An indicator of a deviation in gaze is generated for display within the extended reality environment in response to detecting the gaze deviation, and a voice command is activated to the second sensor while the indicator is in the vicinity of the object. detected by. In response to detecting the voice command, an action corresponding to the voice command may be performed.

Description

本開示は、改良されたエクステンデッドリアリティ環境相互作用に関し、特に、眼運動を検出し、検出された眼運動に基づいて、エクステンデッドリアリティ環境内で動作を実施するためのシステムおよび方法が、開示される。 The present disclosure relates to improved extended reality environment interaction, and in particular, systems and methods for detecting eye movements and performing actions within an extended reality environment based on the detected eye movements are disclosed. .

メディア技術における進歩は、仮想現実(VR)、拡張現実(AR)、および複合現実(MR)技術等のエクステンデッドリアリティ(XR)技術の開発につながっている。VRシステムは、3次元コンピュータ発生環境内にユーザを完全に没入させる(例えば、ユーザに環境内にいる感覚を与える)、または部分的に没入させ得る(例えば、ユーザに環境を見ている感覚を与える)。環境は、ユーザが相互作用し得るオブジェクトまたはアイテムを含み得る。ARシステムは、実世界物体にわたってオーバーレイされる拡張された情報等の現実の修正されたバージョンを提供し得る。MRシステムは、双方向性仮想オブジェクトを実世界にマッピングする。そのようなシステムは、立体ディスプレイまたはスマートグラスを備える、頭部搭載型デバイス等のウェアラブルを利用し得る。 Advances in media technology have led to the development of extended reality (XR) technologies, such as virtual reality (VR), augmented reality (AR), and mixed reality (MR) technologies. VR systems may fully immerse the user within a three-dimensional computer-generated environment (e.g., give the user the feeling of being within the environment) or partially immerse the user (e.g., give the user the sense of looking at the environment). give). The environment may include objects or items with which a user can interact. AR systems may provide a modified version of reality, such as augmented information overlaid over real-world objects. MR systems map interactive virtual objects to the real world. Such systems may utilize wearables, such as head-mounted devices, with stereoscopic displays or smart glasses.

XRシステムは、多くの課題を導入する。例えば、環境を視認するために使用されているウェアラブルデバイスは、外部デバイス(例えば、レンズ)を含まない場合があるため、XRシステムが、ユーザがXR環境内で自身の視野または焦点を改変するときを検出することは、困難であり得る。別の実施例として、散瞳および縮瞳は、ユーザがXR環境内で視認しているものまたはユーザの眼に入射する光の量に応じて、変動し得るが、ユーザは、自身の瞳孔に対する制御を有し得ず、したがって、ユーザの瞳孔を監視することは、XR環境内のユーザの注視または視野を決定するための信頼性のある方法ではない場合がある。さらに悪いことに、ユーザの視野が、正確に確認される場合であっても、ユーザの視野内に複数のオブジェクトが、存在する場合、ユーザが相互作用することを所望するオブジェクトを決定することは、困難であり得る。 XR systems introduce many challenges. For example, the wearable device being used to view the environment may not include an external device (e.g., a lens), so the XR system may can be difficult to detect. As another example, mydriasis and miosis may vary depending on what the user is viewing within the XR environment or the amount of light incident on the user's eyes; There may be no control and therefore monitoring the user's pupils may not be a reliable method for determining the user's gaze or field of view within the XR environment. Even worse, even if the user's field of view is accurately ascertained, it is difficult to determine which object the user wishes to interact with if there are multiple objects within the user's field of view. , can be difficult.

加えて、XRに対する現在のアプローチは、ある欠点に悩まされている。1つのアプローチでは、ユーザは、XR環境をナビゲートするために、ハンドジェスチャまたはジョイスティックを採用する。しかしながら、XR環境と相互作用するためにそのようなユーザ入力を要求することは、XRの体験を損なう(すなわち、XR環境が現実ではないことをユーザに思い出させる)ことは言うまでもなく、ユーザにとって面倒または不便であり得る。加えて、XRに対する現在のアプローチでは、ユーザが自身の視野内のオブジェクトに関する情報を便宜的に取得すること、またはユーザがXR環境内で相互作用することは、可能ではない場合がある。 In addition, current approaches to XR suffer from certain drawbacks. In one approach, the user employs hand gestures or a joystick to navigate the XR environment. However, requiring such user input to interact with the XR environment is cumbersome for the user, not to mention detracts from the XR experience (i.e., reminding the user that the XR environment is not real). Or it can be inconvenient. Additionally, current approaches to XR may not allow users to conveniently obtain information about objects within their field of view or to interact within the XR environment.

これらの問題を克服するために、ユーザの視野内のオブジェクトを識別し、ユーザの眼瞼運動を検出し、そのような検出に基づいて、修正された詳細レベルを用いてエクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させるためのシステムおよび方法が、本明細書に提供される。本明細書に説明されるシステムおよび方法はまた、検出された眼瞼運動および記憶された眼瞼運動識別子を合致させるステップと、そのような合致に基づいて、オブジェクトに対してアクションを実施するステップとを提供する。加えて、オブジェクトを含む、エクステンデッドリアリティ環境の新しい部分へのユーザの注視偏移を反映するためのインジケータを発生させ、インジケータがオブジェクトの近傍にある間に音声コマンドが受信されるとき、アクションを実行するためのシステムおよび方法が、提供される。本明細書に説明されるシステムおよび方法はまた、オブジェクトを含む、エクステンデッドリアリティ環境の一部の近傍において、不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させるステップと、オブジェクトの識別された境界に基づいて、そのようなインジケータの不透明度を変動させるステップとを提供する。加えて、ユーザが、エクステンデッドリアリティ環境内のアイテムについての付加的情報を便宜的に取得することを可能にするためのシステムおよび方法が、提供される。 To overcome these issues, we can identify objects within the user's field of view, detect the user's eyelid movements, and based on such detection, identify objects within the extended reality environment using a modified level of detail. Provided herein are systems and methods for regenerating for display. The systems and methods described herein also include matching the detected eyelid movement and the stored eyelid movement identifier, and performing an action on the object based on such matching. provide. In addition, generate an indicator to reflect the user's gaze shift to a new part of the extended reality environment, including the object, and perform an action when a voice command is received while the indicator is in the vicinity of the object. Systems and methods are provided for. The systems and methods described herein also include generating an opacity-based indicator for display within the extended reality environment in the vicinity of a portion of the extended reality environment that includes the object; and varying the opacity of such indicator based on the identified boundary. Additionally, systems and methods are provided for allowing users to conveniently obtain additional information about items within an extended reality environment.

本開示のいくつかの側面では、エクステンデッドリアリティシステムは、第1のオブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、1つまたはそれを上回るセンサから入力を受信する。受信された入力に基づいて、本システムは、視野内の第1のオブジェクトを識別し、眼瞼運動を検出し、眼瞼運動を検出することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させる。したがって、眼瞼運動は、ユーザに着目されるユーザの視野内のオブジェクトを決定することと関連付けられる課題を克服するために、監視されることができる。加えて、ユーザのそのような眼瞼運動を検出することは、ユーザが、例えば、エクステンデッドリアリティ環境内のユーザから遠く離れているように見えるオブジェクトのより細かい詳細を視認することを可能にし、これは、特に、視覚障害を有するユーザに関して、エクステンデッドリアリティシステムにおけるユーザ体験を改良し得る。 In some aspects of the present disclosure, an extended reality system generates an extended reality environment for display that includes a first object and receives input from one or more sensors. Based on the received input, the system identifies a first object in the field of view, detects eyelid movement, and in response to detecting the eyelid movement uses a modified level of detail to identify a first object in the field of view. respawn the object for display. Accordingly, eyelid movement can be monitored to overcome the challenges associated with determining which objects in a user's visual field are of interest to the user. In addition, detecting such eyelid movements of the user allows the user to see finer details of objects that appear far away from the user in an extended reality environment, for example, and this , may improve the user experience in extended reality systems, especially for users with visual impairments.

エクステンデッドリアリティ環境は、視野内の第1のオブジェクトおよび第2のオブジェクトを含む、複数のオブジェクトを備えてもよく、本システムは、検出された眼瞼運動が第1のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させてもよい。本システムが、検出された眼瞼運動が第2のオブジェクトと関連付けられることを決定する場合、本システムは、修正された詳細レベルを用いて第2のオブジェクトを表示のために再発生させてもよい。第1のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの一方にあってもよく、第2のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの他方にあってもよい。 The extended reality environment may include a plurality of objects, including a first object and a second object in the field of view, and the system determines that the detected eyelid movement is associated with the first object. In response, the first object may be regenerated for display using the modified level of detail. If the system determines that the detected eyelid movement is associated with the second object, the system may regenerate the second object for display using the modified level of detail. . The first object may be in one of the foreground or background within the field of view within the extended reality environment, and the second object may be within the other of the foreground or background within the field of view within the extended reality environment. You can.

いくつかの実施形態では、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップは、より高い分解能においてオブジェクトを提示するステップを含む。加えて、または代替として、1つまたはそれを上回るアクションが、1つまたはそれを上回る検出された眼瞼運動に基づいて、第1のオブジェクトに対して実施されてもよい。 In some embodiments, regenerating the first object for display using the modified level of detail includes presenting the object at a higher resolution. Additionally or alternatively, one or more actions may be performed on the first object based on the one or more detected eyelid movements.

本開示のいくつかの側面では、本システムは、ユーザに対する複数のオブジェクトの個別の仮想距離を算出し、視野内の第1のオブジェクトを識別するステップは、第1のオブジェクトが個別の仮想距離のユーザに最近接する仮想距離にあることを決定するステップを含む。 In some aspects of the present disclosure, the system calculates distinct virtual distances of the plurality of objects with respect to the user, and identifying the first object within the field of view includes determining whether the first object is within the distinct virtual distances. determining being at the closest virtual distance to the user.

いくつかの実施形態では、眼瞼運動を検出するステップは、眼瞼の運動の量を決定するステップを含む、および/または眼瞼運動を検出するステップは、1つまたはそれを上回る眼瞼レベルを決定するステップを含む。本システムは、第1のオブジェクトが視野内に留まる間、ユーザがエクステンデッドリアリティ環境内で第1の位置から新しい位置にナビゲートしていることを検出し、新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させてもよい。 In some embodiments, detecting eyelid movement comprises determining an amount of eyelid movement, and/or detecting eyelid movement comprises determining one or more eyelid levels. including. The system detects that the user is navigating from a first position to a new position within the extended reality environment while the first object remains within the field of view, and based on the user's viewpoint at the new position, An updated version of the first object may be generated for display.

本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブルをメモリ内に記憶する。センサを使用して、本システムは、眼瞼運動を検出し、検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させる。検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、本システムは、合致された眼瞼運動に対応するアクションに基づいて、エクステンデッドリアリティ環境の更新されたバージョンを表示のために発生させる。したがって、眼瞼運動は、ユーザが相互作用することを所望する視野内のオブジェクトを決定することと関連付けられる課題を克服するために、監視されることができる。加えて、ユーザのそのような眼瞼運動を検出することは、ユーザが、エクステンデッドリアリティ環境内のユーザから遠く離れているように見えるオブジェクトと相互作用することを可能にし、これは、特に、視覚障害を有するユーザに関して、エクステンデッドリアリティシステムにおけるユーザ体験を改良し得る。 In some aspects of the present disclosure, an extended reality system generates for display an extended reality environment that includes objects, and a table of eyelid movement identifiers and corresponding actions that can be performed on objects in the extended reality environment. is stored in memory. Using the sensor, the system detects eyelid movement and matches the detected eyelid movement to one of the stored eyelid movement identifiers. In response to matching the detected eyelid movement to one of the stored eyelid movement identifiers, the system generates an updated image of the extended reality environment based on the action corresponding to the matched eyelid movement. Generate a version for display. Accordingly, eyelid movement can be monitored to overcome the challenges associated with determining objects within the visual field with which a user desires to interact. In addition, detecting such eyelid movements of the user allows the user to interact with objects that appear far away from the user within the extended reality environment, which is particularly useful for visual impairments. The user experience in an extended reality system may be improved for users with .

オブジェクトは、ユーザの注視がオブジェクトに指向されていることを検出することによって、エクステンデッドリアリティ環境内の複数のオブジェクトから選択されてもよい。本システムは、(例えば、ある眼瞼運動が実施させるアクションに関してユーザに思い出させる、またはユーザを誘導するために)ユーザの注視が指向されるオブジェクトに対して実施可能な眼瞼運動識別子のサブセットを表示のために発生させてもよい。複数のアクションのアクションは、オブジェクトを操作すること、および/またはオブジェクトの外観を改変することに対応してもよい。(例えば、オブジェクトが、書籍である場合、アクションは、書籍のページをめくること、書籍を傾けること、書籍のページを破ること等であってもよい)。本システムは、ユーザの注視がオブジェクト上に留まる間、ユーザがエクステンデッドリアリティ環境内で第1の位置から新しい位置にナビゲートしていることを検出し、新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンであって、改変された外観を有する、オブジェクトの更新されたバージョンを表示のために発生させてもよい。 The object may be selected from the plurality of objects in the extended reality environment by detecting that the user's gaze is directed to the object. The system displays a subset of eyelid movement identifiers that can be performed on the object to which the user's gaze is directed (e.g., to remind or guide the user regarding the action that a certain eyelid movement causes to be performed). It may be generated for The actions of the plurality of actions may correspond to manipulating the object and/or modifying the appearance of the object. (For example, if the object is a book, the action may be turning the pages of the book, tilting the book, tearing the pages of the book, etc.). The system detects that the user is navigating from a first position to a new position within the extended reality environment while the user's gaze remains on the object, and determines a first position based on the user's viewpoint at the new position. An updated version of the object may be generated for display, the updated version of the object having an altered appearance.

いくつかの実施形態では、ユーザは、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、ユーザプロファイルと関連付けられてもよい。オブジェクトに対して実施可能なアクションは、オブジェクトのタイプに基づいて、変動してもよい。眼瞼運動を検出するために、本システムは、所定の期間にわたって眼瞼が閉じられたままであるかどうかを決定し、(例えば、眼瞼運動が不随意の瞬目ではないことを確実にするために)所定の期間にわたって眼瞼が閉じられたままであることを決定することに応答して、検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させてもよい。 In some embodiments, a user may be associated with a user profile that defines a relationship between eyelid movement identifiers and corresponding actions that can be performed on objects within the extended reality environment. The actions that can be performed on an object may vary based on the type of object. To detect eyelid movement, the system determines whether the eyelids remain closed for a predetermined period of time (e.g., to ensure that the eyelid movement is not an involuntary blink). In response to determining that the eyelids remain closed for a predetermined period of time, the detected eyelid movement may be matched to one of the stored eyelid movement identifiers.

本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、第1のセンサを使用して、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出し、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれる。注視偏移を検出することに応答して、本システムは、注視における偏移のインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、第2のセンサを使用することによって、インジケータがオブジェクトの近傍にある間に音声コマンドを検出する。音声コマンドを検出することに応答して、エクステンデッドリアリティシステムは、音声コマンドに対応するアクションを実行する。したがって、エクステンデッドリアリティは、ユーザ体験を改良するために、音声と組み合わせて活用されてもよい。より具体的には、ユーザは、エクステンデッドリアリティ環境をナビ-ゲートするために(例えば、マウスまたはトラックパッドがデスクトップ、ラップトップ、またはモバイルデバイスと併用される方法の代理として)自身の眼を便宜的に使用し、自身の注視の場所に関するリアルタイム確認を受け取り、ユーザの注視のインジケータが、エクステンデッドリアリティ環境内の着目オブジェクトの近傍にあるとき、音声コマンドを介して環境内で所望のアクションを実施してもよい。 In some aspects of the present disclosure, an extended reality system generates for display an extended reality environment comprising an object, and uses a first sensor to direct gaze from a first portion of the extended reality environment to an extended reality environment. Detecting a shift to a second portion of the reality environment, the object is excluded from the first portion of the extended reality environment and included within the second portion of the extended reality environment. In response to detecting the gaze shift, the system generates an indicator of the shift in gaze for display within the extended reality environment, and by using the second sensor, the system generates an indicator of the shift in gaze. Detect voice commands while in the vicinity. In response to detecting the voice command, the extended reality system performs an action corresponding to the voice command. Therefore, extended reality may be leveraged in combination with audio to improve the user experience. More specifically, users may conveniently use their eyes to navigate extended reality environments (e.g., as a proxy for how a mouse or trackpad is used in conjunction with a desktop, laptop, or mobile device). to perform desired actions in the environment via voice commands when the user's gaze indicator is in the vicinity of an object of interest within the extended reality environment. Good too.

双方向性メディアガイドが、表示上に提供されてもよく、上記に言及されるアクションは、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令であってもよい。音声コマンドは、メディアアセットの識別およびアクションを実行するためのコマンド、および/または表示上に新しいメディアアセットを提示するための命令および/またはエンティティに関連するコンテンツを読み出すための命令を含んでもよく、オブジェクトは、エンティティと関連付けられる。 An interactive media guide may be provided on the display, and the actions mentioned above may be instructions related to media assets accessible via the interactive media guide. The voice commands may include commands to identify a media asset and perform an action, and/or to present a new media asset on a display and/or to retrieve content associated with an entity; Objects are associated with entities.

いくつかの実施形態では、エクステンデッドリアリティシステムは、網膜移動のレートが、所定の値を超えるかどうかを決定し、網膜移動のレートが、所定の値を超えることを決定することに応答して、網膜移動を表示上のインジケータの移動に変換するとき、網膜移動を正規化してもよい。本システムは、注視が少なくとも所定の閾値期間にわたってオブジェクトに指向されていることを決定することに応じて、インジケータがオブジェクトの近傍にある(例えば、オブジェクトに重複する)間に音声コマンドを検出してもよい。表示は、仮想現実頭部搭載型デバイスを介して提示される。 In some embodiments, the extended reality system determines whether the rate of retinal movement exceeds a predetermined value, and in response to determining that the rate of retinal movement exceeds the predetermined value. When converting retinal movement to movement of an indicator on a display, the retinal movement may be normalized. The system detects the voice command while the indicator is in the vicinity of (e.g., overlaps with) the object in response to determining that gaze is directed at the object for at least a predetermined threshold period of time. Good too. The display is presented via a virtual reality head-mounted device.

本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、センサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分に指向されていることを検出してもよく、オブジェクトは、エクステンデッドリアリティ環境の第1の部分内に含まれる。エクステンデッドリアリティシステムは、エクステンデッドリアリティ環境の第1の部分の近傍において、複数の不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、オブジェクトの境界を識別し、オブジェクトの識別された境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させてもよい。したがって、ユーザは、エクステンデッドリアリティ環境をナビ-ゲートするために(例えば、マウスまたはトラックパッドがデスクトップ、ラップトップ、またはモバイルデバイスと併用される方法の代理として)自身の眼を便宜的に使用し、自身の注視の場所に関するリアルタイム確認を受け取ってもよく、そのようなリアルタイム注視のインジケータの不透明度は、ユーザの視野を不明瞭にせず、ユーザの体験を劣化させることを回避するように、便宜的に調節される。 In some aspects of the present disclosure, an extended reality system generates for display an extended reality environment comprising an object, and by using a sensor, gaze is directed to a first portion of the extended reality environment. The object may be detected to be within the first portion of the extended reality environment. The extended reality system generates a plurality of opacity-based indicators for display within the extended reality environment in the vicinity of the first portion of the extended reality environment to identify the boundaries of the object and to identify the object's identified boundaries. The opacity of at least one of the plurality of opacity-based indicators may be varied based on the boundary. Accordingly, the user may conveniently use his or her eyes to navigate the extended reality environment (e.g., as a proxy for the way a mouse or trackpad is used in conjunction with a desktop, laptop, or mobile device); One may receive real-time confirmation of the location of one's gaze, and the opacity of such real-time gaze indicators may be adjusted to avoid obscuring the user's field of view and degrading the user's experience. adjusted to.

エクステンデッドリアリティシステムは、不透明度ベースのインジケータのうちの少なくとも1つがオブジェクトの境界に重複するかどうかを決定し、境界に重複する不透明度ベースのインジケータの個別の不透明度を変動させてもよい。複数の不透明度ベースのインジケータは、オブジェクトに向かって指向される矢印である。エクステンデッドリアリティシステムは、センサを使用することによって、注視がエクステンデッドリアリティ環境の第2の部分に偏移しているかどうかを検出し、注視が第2の部分に偏移していることを決定することに応答して、複数の不透明度ベースのインジケータを表示の第2の部分の近傍にオーバーレイさせてもよい。 The extended reality system may determine whether at least one of the opacity-based indicators overlaps a boundary of the object and vary the respective opacity of the opacity-based indicators that overlap the boundary. The opacity-based indicators are arrows directed towards the object. The extended reality system detects whether the gaze is shifted to a second portion of the extended reality environment by using the sensor and determines that the gaze is shifted to the second portion. In response to the display, a plurality of opacity-based indicators may be overlaid proximate the second portion of the display.

いくつかの実施形態では、個別の不透明度は、オブジェクトからの距離に基づいて変動される。例えば、インジケータの個別の不透明度は、(例えば、ユーザが注視しているオブジェクトを強調するために)インジケータとオブジェクトとの間の距離が減少するにつれて増加し、または、(例えば、ユーザが注視しているオブジェクトを不明瞭にすることを回避するために)インジケータとオブジェクトとの間の距離が減少するにつれて増加してもよい。 In some embodiments, the individual opacity is varied based on distance from the object. For example, the individual opacity of the indicator may increase as the distance between the indicator and the object decreases (e.g., to emphasize an object that the user is gazing at) or may increase as the distance between the indicator and the object decreases (e.g., to emphasize the object that the user is gazing at). may be increased as the distance between the indicator and the object decreases (to avoid obscuring the object).

いくつかの実施形態では、双方向性メディアガイドが、表示上に提供されてもよく、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連するアクションが、少なくとも部分的に、検出された注視に基づいて受信される。そのような表示は、仮想現実頭部搭載型デバイスを介して提示される、または仮想現実頭部搭載型デバイスの使用を伴わずに提示されてもよい。 In some embodiments, an interactive media guide may be provided on the display, and an action related to a media asset accessible via the interactive media guide is detected, at least in part. Received based on gaze. Such displays may be presented via a virtual reality head-mounted device or without the use of a virtual reality head-mounted device.

本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、眼運動を検出し、検出に基づいて、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定する。オブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、本システムは、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる。したがって、着目オブジェクトに関する情報が、着目オブジェクトに関連するユーザの眼運動を検出することに基づいて、ユーザに便宜的に表示されてもよい。 In some aspects of the present disclosure, an extended reality system generates an extended reality environment for display that includes an object, detects eye movements, and determines, based on the detection, that the object is within the field of view for at least a predetermined period of time. Determine whether there is. In response to determining that the object is within the field of view for at least a predetermined period of time, the system generates one or more items related to the object for display within the extended reality environment. Therefore, information regarding the object of interest may be conveniently displayed to the user based on detecting the user's eye movements related to the object of interest.

オブジェクトに関連する1つまたはそれを上回るアイテムは、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備えてもよい。本システムはさらに、オブジェクトが第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から少なくとも第2の所定の期間が経過していることを決定し、そのような決定に応答して、1つまたはそれを上回るアイテムの表示を停止してもよい。エクステンデッドリアリティ環境は、仮想現実頭部搭載型デバイスを介して提示されてもよい。いくつかの実施形態では、眼運動を検出するステップは、眼瞼運動を監視するステップまたは注視を監視するステップを含む。 The one or more items associated with the object may comprise textual information, images, video, or any combination thereof. The system further determines that at least a second predetermined period of time has elapsed from the beginning of display of the one or more items without the object being within the field of view for the first predetermined period of time. , may stop displaying one or more items in response to such a determination. Extended reality environments may be presented via virtual reality head-mounted devices. In some embodiments, detecting eye movement includes monitoring eyelid movement or monitoring gaze.

本システムは、仮想現実セッションの間の所定の期間にわたって、視野が連続的に(または非連続的に)オブジェクト上にあることを決定することに応じて、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定してもよい。 The system determines that the object is in the field of view for a predetermined period of time in response to determining that the field of view is continuously (or discontinuously) over the object for a predetermined period of time during a virtual reality session. You may decide whether or not.

いくつかの実施形態では、本システムは、新しいオブジェクトが少なくとも所定の時間にわたって視野内にあることを決定し、そのような決定に応答して、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させ続けてもよい。 In some embodiments, the system determines that the new object has been in view for at least a predetermined period of time and, in response to such determination, selects one or more items associated with the new object. While being generated for display within the extended reality environment, one or more items associated with the object may continue to be generated for display within the extended reality environment.

本開示の上記および他の目的および利点が、同様の参照文字が全体を通して同様の部分を指す、付随の図面と併せて検討される、以下の詳細な説明の考慮に応じて、明白となるであろう。 The above and other objects and advantages of the present disclosure will become apparent upon consideration of the following detailed description, considered in conjunction with the accompanying drawings, in which like reference characters refer to like parts throughout. Probably.

図1は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させる実施例を示す。FIG. 1 illustrates an example of regenerating objects for display within an extended reality environment in accordance with some embodiments of the present disclosure.

図2は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させる実施例を示す。FIG. 2 illustrates an example of regenerating objects for display within an extended reality environment in accordance with some embodiments of the present disclosure.

図3は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のオブジェクトに対してアクションを実施する実施例を示す。FIG. 3 illustrates an example of performing actions on objects in an extended reality environment, according to some embodiments of the present disclosure.

図4A-4Bは、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。4A-4B illustrate an example of receiving voice commands while an indicator is in proximity to an object in an extended reality environment, according to some embodiments of the present disclosure.

図5は、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。FIG. 5 illustrates an example of receiving voice commands while an indicator is in proximity to an object in an extended reality environment, according to some embodiments of the present disclosure.

図6は、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。FIG. 6 illustrates an example of receiving voice commands while an indicator is in proximity to an object in an extended reality environment, according to some embodiments of the present disclosure.

図7は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のアイテムに関連する情報を提示する実施例を示す。FIG. 7 illustrates an example of presenting information related to items in an extended reality environment, according to some embodiments of the present disclosure.

図8は、本開示のいくつかの実施形態による、エクステンデッドリアリティシステムにおける例証的デバイスのブロック図である。FIG. 8 is a block diagram of an exemplary device in an extended reality system, according to some embodiments of the present disclosure.

図9は、本開示のいくつかの実施形態による、例証的エクステンデッドリアリティシステムのブロック図である。FIG. 9 is a block diagram of an illustrative extended reality system, according to some embodiments of the present disclosure.

図10は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。FIG. 10 is a flowchart of a detailed illustrative process for regenerating objects for display within an extended reality environment, according to some embodiments of the present disclosure.

図11は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。FIG. 11 is a flowchart of a detailed illustrative process for regenerating objects for display within an extended reality environment, according to some embodiments of the present disclosure.

図12は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のオブジェクトに対してアクションを実施するための詳細な例証的プロセスのフローチャートである。FIG. 12 is a flowchart of a detailed illustrative process for performing actions on objects in an extended reality environment, according to some embodiments of the present disclosure.

図13は、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信するための詳細な例証的プロセスのフローチャートである。FIG. 13 is a flowchart of a detailed illustrative process for receiving voice commands while an indicator is in proximity to an object in an extended reality environment, according to some embodiments of the present disclosure.

図14は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のインジケータの不透明度を変動させるための詳細な例証的プロセスのフローチャートである。FIG. 14 is a flowchart of a detailed illustrative process for varying the opacity of an indicator in an extended reality environment, according to some embodiments of the present disclosure.

図15は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でアイテムに関連する付加的情報を提示するための詳細な例証的プロセスのフローチャートである。FIG. 15 is a flowchart of a detailed illustrative process for presenting additional information related to items within an extended reality environment, according to some embodiments of the present disclosure.

詳細な説明
図1は、本開示のいくつかの実施形態による、エクステンデッドリアリティ(XR)環境内でオブジェクトを表示のために再発生させる例示的プロセスを図示する。頭部搭載型ディスプレイ102は、画像を投影し、ユーザをその中に没入させるための3次元XR環境100を発生させてもよい。ユーザは、XR環境100内に完全または部分的に没入されてもよく、そのような環境は、完全に仮想環境であってもよい。頭部搭載型ディスプレイ102は、代替として、環境100の発生を促進するために、ウェアラブルデバイス(例えば、スマートグラス)またはカメラおよびXRアプリケーションを装備するコンピュータまたはモバイルデバイスであってもよい。環境100は、代替として、実世界物体がコンピュータ発生オブジェクトまたは情報を用いて補完される、拡張現実(AR)環境、または、例えば、仮想オブジェクトが実世界と相互作用する、または実世界が別様に仮想オブジェクトに接続される、複合現実(MR)であってもよい。いくつかの実施形態では、環境100のユーザの視野または視点は、ユーザが自身の頭部を移動させる際に変化し、他の特徴(例えば、オーディオ)が、好適に修正され、物理的世界をシミュレートする。環境100は、娯楽目的(例えば、ビデオゲーム、映画、ビデオ、スポーツ等)、通信(例えば、ソーシャルメディア)、教育目的(例えば、仮想教室)、職業目的(例えば、訓練シミュレーション)、医療目的等のためのものであってもよい。
DETAILED DESCRIPTION FIG. 1 illustrates an example process for regenerating objects for display within an extended reality (XR) environment, according to some embodiments of the present disclosure. A head-mounted display 102 may generate a three-dimensional XR environment 100 for projecting images and immersing the user therein. A user may be fully or partially immersed within the XR environment 100, and such environment may be completely virtual. Head-mounted display 102 may alternatively be a wearable device (eg, smart glasses) or a computer or mobile device equipped with a camera and an XR application to facilitate the generation of environment 100. Environment 100 may alternatively be an augmented reality (AR) environment in which real-world objects are supplemented with computer-generated objects or information, or in which, for example, virtual objects interact with the real world or the real world differs. It may also be mixed reality (MR), in which virtual objects are connected to virtual objects. In some embodiments, the user's field of view or perspective of the environment 100 changes as the user moves his or her head, and other features (e.g., audio) are suitably modified to reflect the physical world. simulate. Environment 100 may be used for entertainment purposes (e.g., video games, movies, videos, sports, etc.), communication (e.g., social media), educational purposes (e.g., virtual classrooms), vocational purposes (e.g., training simulations), medical purposes, etc. It may be for the purpose.

XRシステムは、ユーザの視野内の1つまたはそれを上回るオブジェクトを識別してもよい。視野は、ディスプレイ102によって所与の時間にユーザに提示される、XR環境100の一部(例えば、360度球体環境におけるある角度)である。視野は、VRデバイスの場合では、立体視を生成するための2D画像の対を備えてもよく、ARデバイス(例えば、スマートグラス)の場合では、視野は、実物体およびARデバイスを使用して実物体の上にオーバーレイされる仮想オブジェクトの混合物(例えば、スマートグラスに関して、カメラを用いて捕捉された写真およびスマートグラスによって追加されたコンテンツ)を含み得る、3Dまたは2D画像を備えてもよい。XR環境が、単一の自由度、例えば、360度の回転を有する場合、任意の視野が、エッジ角度座標(例えば、+135度、+225度)によって、または視野の既知の角度開きと組み合わせられる単一の角度座標(例えば、-55度)によってのいずれかで定義されてもよい。XR環境が、6自由度、すなわち、360度の3つの回転および3つの空間位置を有する場合、任意の視野が、3つの角度座標および3つの空間座標によって定義されてもよい。視野は、したがって、ユーザがXR環境内の特定の場所におり、XRセットを特定の方向に配向しているときに表示される、XR環境の一部として理解され得る。 The XR system may identify one or more objects within the user's field of view. A field of view is a portion of the XR environment 100 (eg, an angle in a 360 degree spherical environment) that is presented to the user at a given time by the display 102. In the case of a VR device, the field of view may comprise a pair of 2D images to generate stereoscopic vision; in the case of an AR device (e.g., smart glasses), the field of view may comprise a pair of 2D images to generate stereoscopic vision, and in the case of an AR device (e.g., smart glasses), the field of view may comprise a pair of 2D images to generate stereoscopic vision; It may comprise a 3D or 2D image that may include a mixture of virtual objects (e.g., for smart glasses, a photo captured using a camera and content added by the smart glasses) overlaid on top of the real object. If the XR environment has a single degree of freedom, e.g. 360 degrees of rotation, then any field of view can be defined by edge angular coordinates (e.g. +135 degrees, +225 degrees) or by a single degree of field combined with a known angular opening of the field. It may be defined either by one angular coordinate (eg -55 degrees). If the XR environment has 6 degrees of freedom, ie, 3 rotations of 360 degrees and 3 spatial positions, any field of view may be defined by 3 angular coordinates and 3 spatial coordinates. A field of view may thus be understood as the part of the XR environment that is displayed when the user is at a particular location within the XR environment and orienting the XR set in a particular direction.

XRシステム(例えば、図9のシステム900)は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、XR環境内の視野の位置を表す座標を含んでもよい。本システムは、XRデバイス102によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。図1の実施例に示されるように、環境100内のユーザの検出された視野は、自動車として描写される、オブジェクト104を含むが、当業者は、任意の数または組み合わせの異なるタイプのオブジェクトが、環境100内に含まれ得ることを理解するであろう。XRシステムは、デフォルト詳細レベル(例えば、デフォルト分解能または表示されるピクセルの数、またはデフォルトサイズまたは外観)においてオブジェクト104を表示のために発生させてもよい。例えば、環境100内のオブジェクトは、デフォルトで4K分解能(3,840×2,160)または任意の他の好適な分解能において提示されてもよい。環境100内のオブジェクトの分解能は、ユーザの眼毎に同一である、または変動してもよい。いくつかの実施形態では、詳細レベルは、オブジェクトのサイズまたは外観を指し得、例えば、オブジェクトは、デフォルトサイズまたはデフォルト色において発生されてもよい。 An XR system (e.g., system 900 of FIG. 9) may generate a data structure related to a field of view that includes object identifiers associated with virtual objects within the field of view; It may also include coordinates representing the location. The system may determine the current field of view and identify objects within the user's field of view based on data structures and/or images captured by the XR device 102. As shown in the example of FIG. 1, the user's detected field of view within environment 100 includes object 104, depicted as a car, but one skilled in the art will appreciate that any number or combination of different types of objects may be included. , may be included within environment 100. The XR system may generate the object 104 for display at a default level of detail (eg, a default resolution or number of pixels displayed, or a default size or appearance). For example, objects in environment 100 may be presented at 4K resolution (3,840×2,160) or any other suitable resolution by default. The resolution of objects within environment 100 may be the same or vary from user to eye. In some embodiments, the level of detail may refer to the size or appearance of an object; for example, the object may be generated at a default size or color.

いくつかの実施形態では、ユーザの視野内の1つまたはそれを上回るオブジェクト104を決定することに応じて、XRシステムは、特定の眼瞼運動があるアクションをオブジェクト104に対して実施させる方法に関してユーザに示す、または別様にガイダンスを提供し得る、識別子106(例えば、「自動車の詳細を修正するために1回瞬目する」)を表示のために発生させてもよい。いくつかの実施形態では、XRシステムは、XR環境内のオブジェクト104に対して実施可能な複数の眼瞼運動識別子および対応するアクションを含む、テーブル(例えば、図8の記憶装置808内に記憶され得る、図3のテーブル316)を参照してもよい。例えば、テーブルは、加えて、示される眼瞼運動を検出することに応じて、ユーザに表示されるオブジェクトのサイズを増加または減少させることに対応し得る、識別子(例えば、2回瞬目する)を記憶してもよい。 In some embodiments, in response to determining the one or more objects 104 within the user's field of view, the XR system may cause the user to perform certain eyelid movements regarding how to cause certain actions to be performed on the objects 104. An identifier 106 (e.g., "blink once to modify vehicle details") may be generated for display, which may indicate or otherwise provide guidance. In some embodiments, the XR system stores a table (e.g., which may be stored in storage device 808 of FIG. , table 316 in FIG. 3). For example, the table may additionally include an identifier (e.g., blinking twice) that may correspond to increasing or decreasing the size of the object displayed to the user in response to detecting the indicated eyelid movement. You may memorize it.

いったん視野内の着目オブジェクトが、識別されると、XRシステムは、センサ(例えば、カメラ)を使用することによって、ユーザの眼瞼運動108を検出してもよい。いくつかの実施形態では、XRシステムは、不随意の瞬目に基づいてアクションを実施することを回避するために(例えば、そのようなアクションがユーザによって所望されない場合)、眼瞼運動が、所定の期間(例えば、0.5秒または1秒)を超えるかどうかを検出してもよい。ユーザの眼瞼運動108(例えば、着目オブジェクトの詳細を修正するアクションに対応する単一の瞬目)を検出することに応答して、XRは、頭部搭載型ディスプレイ102を介してユーザに提供される、オブジェクト104を表示のために再発生させる。例えば、オブジェクト104は、最初に提供されるもの(例えば、4K分解能、3,840×2,160)よりも高い分解能(例えば、8K分解能、7,680×4,320)においてユーザに提示されてもよい。いくつかの実施形態では、検出された眼瞼運動は、XRシステムに、異なる様式でオブジェクト104の詳細を修正させてもよい(例えば、オブジェクトの初期提示と比較してオブジェクトのサイズを増加または減少させる、オブジェクトの初期外観と比較してオブジェクトの色またはテクスチャを変更する等)。 Once the object of interest within the field of view is identified, the XR system may detect the user's eyelid movements 108 by using a sensor (eg, a camera). In some embodiments, the XR system adjusts the eyelid movements to a predetermined range to avoid performing actions based on involuntary blinks (e.g., if such actions are not desired by the user). It may be detected whether a period of time (eg, 0.5 seconds or 1 second) is exceeded. In response to detecting a user's eyelid movement 108 (e.g., a single blink corresponding to an action that modifies details of the object of interest), the XR is provided to the user via the head-mounted display 102. , and regenerates object 104 for display. For example, object 104 is presented to the user at a higher resolution (e.g., 8K resolution, 7,680 x 4,320) than is initially provided (e.g., 4K resolution, 3,840 x 2,160). Good too. In some embodiments, the detected eyelid movement may cause the XR system to modify details of the object 104 in a different manner (e.g., increasing or decreasing the size of the object compared to the initial presentation of the object). , changing the color or texture of an object compared to its initial appearance, etc.).

いくつかの実施形態では、眼瞼運動を検出するステップは、眼瞼の運動の量を決定するステップを含む、または眼瞼運動を検出するステップは、1つまたはそれを上回る眼瞼レベルを決定するステップを含む。例えば、XRシステムは、センサ(例えば、カメラ)を使用して、眼瞼の運動の量を検出してもよく、検出された量と所定の期間にわたる運動の閾値量(例えば、3秒期間にわたって検出される5回の眼瞼運動)を比較してもよく、眼瞼の運動の検出された量が、所定の期間にわたる運動の閾値量を超えるとき、画像が、修正または選択されてもよい。別の実施例として、XRシステムは、センサ(例えば、カメラ)を使用して、所定の期間にわたる1つまたはそれを上回る眼瞼レベル(例えば、明確に異なる眼瞼レベル)を検出してもよく、検出された量と所定の期間にわたる眼瞼レベルの閾値数(例えば、3秒期間にわたって検出される5つの明確に異なる眼瞼レベル)を比較してもよく、眼瞼レベルの検出された数が、所定の期間にわたる眼レベルの閾値数を超えるとき、画像が、修正または選択されてもよい。 In some embodiments, detecting eyelid movement comprises determining an amount of eyelid movement, or detecting eyelid movement comprises determining one or more eyelid levels. . For example, an XR system may use a sensor (e.g., a camera) to detect the amount of eyelid movement, where the detected amount and a threshold amount of movement over a predetermined period (e.g., detected over a 3 second period) The five eyelid movements performed) may be compared and the image may be modified or selected when the detected amount of eyelid movement exceeds a threshold amount of movement over a predetermined period of time. As another example, an XR system may use a sensor (e.g., a camera) to detect one or more eyelid levels (e.g., distinctly different eyelid levels) over a predetermined period of time, and detect may be compared to a threshold number of eyelid levels over a predetermined time period (e.g., five distinct eyelid levels detected over a 3 second period), such that the detected number of eyelid levels over a predetermined time period The image may be modified or selected when a threshold number of eye levels over the range is exceeded.

図2は、複数のオブジェクトがユーザの視野内で検出される、例示的プロセスを示す。XRシステムは、オブジェクト204および208がそれぞれ、頭部搭載型ディスプレイ202を介してXR環境200を表示されているユーザの視野内にあることを検出してもよい。図2の最上部分における環境200に示されるように、ユーザの視野内にあるものとして検出されるオブジェクト204、208は、最初に、デフォルト詳細レベル(例えば、デフォルト分解能またはデフォルトサイズ)で提示されてもよい。眼瞼運動210(例えば、識別子206において示される「自動車の詳細を修正するために1回瞬目する」に対応する)を検出することに応じて、XRシステムは、修正された詳細レベルを用いて視野内のオブジェクト204を表示のために再発生させてもよい(例えば、オブジェクト204の分解能を向上させる)。他方、眼瞼運動212(例えば、識別子206において示される「飛行機の詳細を修正するために2回瞬目する」に対応する)を検出することに応じて、XRシステムは、修正された詳細レベルを用いて視野内のオブジェクト208を表示のために再発生させてもよい(例えば、オブジェクト208の分解能を向上させる)。 FIG. 2 shows an example process in which multiple objects are detected within a user's field of view. The XR system may detect that objects 204 and 208 are each within the field of view of a user who is viewing XR environment 200 via head-mounted display 202. As shown in the environment 200 in the top portion of FIG. 2, objects 204, 208 that are detected as being within the user's field of view are initially presented at a default level of detail (e.g., default resolution or default size). Good too. In response to detecting eyelid movement 210 (e.g., corresponding to "blink once to correct car details" indicated in identifier 206), the XR system uses a modified level of detail to Objects 204 within the field of view may be regenerated for display (eg, improving the resolution of objects 204). On the other hand, in response to detecting eyelid movement 212 (e.g., corresponding to "blink twice to correct airplane details" as indicated in identifier 206), the XR system detects a modified level of detail. may be used to regenerate objects 208 within the field of view for display (eg, to improve the resolution of objects 208).

いくつかの実施形態では、さらなる眼瞼運動212を検出することは、眼瞼運動210を検出することに応答して実施される修正を、続けて逆転させてもよい(例えば、オブジェクト204は、最初にユーザに提示されたデフォルト分解能に戻ってもよい一方、オブジェクト208は、修正された詳細を用いて提示される)。代替として、オブジェクトは、XRセッション全体を通して、および/または将来のセッションにおいて、修正された状態において維持されてもよい。いくつかの実施形態では、眼瞼運動が再実施されていることを検出することは、アクションを逆転させてもよい(例えば、眼瞼運動210を2回目に検出することは、オブジェクト204を最初にユーザに提示されたデフォルト分解能に戻させてもよい)。いくつかの実施形態では、ユーザの視野内にあり得る複数のオブジェクトのうち、そのようなオブジェクトのうちの一方(例えば、オブジェクト204)は、XR環境200の表示の前景にあってもよく、そのようなオブジェクトのうちの他方は、XR環境200内の表示(例えば、オブジェクト208)の背景にあってもよい。加えて、1つまたはそれを上回るアクションが、ユーザの視野内の修正されたオブジェクトに対して実施されてもよい(例えば、特定の眼瞼運動が、自動車オブジェクト204の扉を開放すること、または飛行機オブジェクト208と相互作用することに対応してもよい)。視野内の直近で修正されたオブジェクトは、アクションがそのようなオブジェクトに対して実施され得るように、「選択された」オブジェクトであってもよい。そのような側面は、ユーザから遠い、または別様に詳細に見られることができないほど小さすぎるオブジェクトが、ユーザがオブジェクトを明確に視認することを可能にするために、修正された詳細での表示のために再発生されることを可能にし得る。 In some embodiments, detecting further eyelid movement 212 may subsequently reverse the modifications performed in response to detecting eyelid movement 210 (e.g., object 204 initially The object 208 is presented using the modified details (while the user may be returned to the default resolution presented to the user). Alternatively, the object may be maintained in a modified state throughout the XR session and/or in future sessions. In some embodiments, detecting that the eyelid movement is being performed again may reverse the action (e.g., detecting the eyelid movement 210 a second time may cause the object 204 to be ). In some embodiments, of a plurality of objects that may be within the user's field of view, one such object (e.g., object 204) may be in the foreground of the display of the XR environment 200; The other of such objects may be in the background of a display (eg, object 208) within XR environment 200. Additionally, one or more actions may be performed on modified objects within the user's field of view (e.g., a particular eyelid movement may open the door of a car object 204, or an airplane (may correspond to interacting with object 208). The most recently modified object in the field of view may be a "selected" object so that actions can be performed on such object. Such aspects allow objects that are far from the user or otherwise too small to be seen in detail to be displayed in modified detail to allow the user to clearly see the objects. may be allowed to be regenerated for.

本開示のいくつかの側面では、XRシステムは、ユーザの視野内のオブジェクトと一致するユーザの眼瞼運動を検出してもよく、眼瞼が閉じられる相対的な程度を算出し、ユーザの視野内の最初に焦点を合わせるオブジェクトを決定してもよい。いくつかの実施形態では、ユーザが、XR環境に進入すると、XRシステムは、デフォルト視野を設定し、環境内および/または視野内のオブジェクトの数を検出し、ユーザに対する検出されたオブジェクトのそれぞれの個別の仮想距離または焦点距離を算出してもよい。オブジェクトは、ユーザからの異なる仮想距離にあり得る。いくつかの実施形態では、視野内のオブジェクトを識別するステップは、オブジェクトが、個別の仮想距離または焦点距離のユーザに最近接する仮想距離にあることを決定するステップを含む。仮想距離は、例えば、XR環境内のオブジェクトがユーザから位置する知覚距離であってもよく、XR環境内のオブジェクトの座標に基づいて、計算されてもよい。ユーザの眼瞼レベルは、少なくとも部分的に、そのような仮想距離に基づいて計算されてもよく、眼瞼レベルの変化を検出することに応じて、ユーザに最近接する仮想距離にあるオブジェクトが、検出され、それに修正が実施され得る、着目オブジェクトとして選択されてもよい。 In some aspects of the present disclosure, the XR system may detect the user's eyelid movements that are consistent with objects in the user's field of view, calculate the relative degree to which the eyelids are closed, and calculate the relative degree to which the eyelids are closed. The object to focus on may be determined first. In some embodiments, when a user enters an XR environment, the XR system sets a default field of view, detects the number of objects in the environment and/or field of view, and assigns each detected object to the user. Individual virtual distances or focal lengths may be calculated. Objects may be at different virtual distances from the user. In some embodiments, identifying the object within the field of view includes determining that the object is at the closest virtual distance to the user at the respective virtual distance or focal distance. The virtual distance may be, for example, the perceived distance at which an object within the XR environment is located from the user, and may be calculated based on the coordinates of the object within the XR environment. The user's eyelid level may be calculated based, at least in part, on such virtual distance, and in response to detecting a change in the eyelid level, an object at a virtual distance closest to the user is detected. , may be selected as the object of interest, to which modifications may be performed.

いくつかの実施形態では、XRシステムは、XR環境200の周囲のユーザの移動を検出し、ユーザが動き回る際、ユーザの視野が変化することを検出してもよい。そのような状況では、ユーザの視野は、ユーザの新しい視野内のオブジェクトの数を決定するために、リセットされてもよい。他方、XRシステムが、XR環境200の周囲のユーザの移動を検出するが、ユーザの注視が、依然として特定のオブジェクト上に固定されたままであることを検出する場合、表示200は、ユーザの移動と一貫する、変動された視点からのそのようなオブジェクトを表示のために発生させ、シミュレートされた環境を維持してもよい。いくつかの実施形態では、仮想現実システムによって検出される眼瞼レベルの任意の変化は、ユーザの視野内のその詳細が修正されるべきであるオブジェクトを決定するために使用されてもよい。XRシステムは、センサ(例えば、制御回路網と組み合わせたジャイロスコープ、加速度計、カメラ等)を使用することによって、XR環境内のユーザの移動を追跡してもよい。 In some embodiments, the XR system may detect movement of the user around the XR environment 200 and detect changes in the user's field of view as the user moves around. In such a situation, the user's field of view may be reset to determine the number of objects in the user's new field of view. On the other hand, if the XR system detects the user's movement around the XR environment 200, but the user's gaze remains fixed on a particular object, the display 200 detects the user's movement and the user's gaze remains fixed on a particular object. Such objects from consistent, varied viewpoints may be generated for display to maintain a simulated environment. In some embodiments, any changes in eyelid level detected by the virtual reality system may be used to determine the object in the user's field of view whose details should be modified. An XR system may track a user's movement within an XR environment by using sensors (eg, gyroscopes, accelerometers, cameras, etc. in combination with control circuitry).

図3は、本開示のいくつかの実施形態による、XR環境内のオブジェクトに対してアクションを実施する例示的プロセスを示す。頭部搭載型ディスプレイ302は、オブジェクト304、310、312、314を含む、XR環境300を表示のために発生させてもよい。4つのオブジェクト(書籍オブジェクト304、ランプオブジェクト310、机オブジェクト312、および椅子オブジェクト314)が、環境300内に示されるが、任意の数のオブジェクトおよび任意のタイプのオブジェクトが、表示のために発生され得ることを理解されたい。XRシステム(例えば、図9のシステム900)は、XR環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブル316を(例えば、図8の記憶装置808内に)記憶してもよい。例えば、テーブル316は、所望のアクション「書籍のページをめくるために1回瞬目する、書籍を傾けるために2回瞬目する、書籍からページを破るために3回瞬目する」を促進するためにユーザに表示され得る、識別子306によって示されるような書籍オブジェクト304に関する関連付けを含む、複数の関連付けを記憶してもよい。任意の数のアクションおよび任意のタイプの識別子が、テーブル316内に記憶され得、アクションが、オブジェクトのタイプに依存し得る(例えば、テーブル316は、ランプオブジェクト310に関連する仮想電球をオンにするアクションと関連付けられる識別子を記憶し得る)ことを理解されたい。環境が複数のオブジェクトを含む場合では、オブジェクトは、ユーザの注視がオブジェクトに指向されていることを(例えば、センサを使用して)検出することによって、複数から選択されてもよい。 FIG. 3 illustrates an example process for performing actions on objects in an XR environment, according to some embodiments of the present disclosure. Head-mounted display 302 may generate an XR environment 300 for display, including objects 304, 310, 312, 314. Four objects (a book object 304, a lamp object 310, a desk object 312, and a chair object 314) are shown in the environment 300, but any number and type of objects may be generated for display. I hope you understand what you get. The XR system (e.g., system 900 of FIG. 9) stores (e.g., in storage 808 of FIG. 8) a table 316 of eyelid movement identifiers and corresponding actions that can be performed on objects within the XR environment. Good too. For example, table 316 promotes the desired actions: "Blink once to turn a page in a book, Blink twice to tilt a book, Blink three times to tear a page from a book." A plurality of associations may be stored, including an association for the book object 304 as indicated by the identifier 306, that may be displayed to the user for the book object. Any number of actions and any type of identifier may be stored in table 316, and the actions may depend on the type of object (e.g., table 316 may turn on the virtual light bulb associated with lamp object 310). It should be understood that the identifier associated with the action may be stored). If the environment includes multiple objects, the object may be selected from the plurality by detecting (eg, using a sensor) that the user's gaze is directed toward the object.

XRシステムは、センサ(例えば、カメラ)を使用することによって、ユーザの眼瞼運動を検出する。本システムは、例えば、センサ出力を分析し、そのような出力と記憶される識別子(例えば、所定の数の瞬目、瞬目パターン、眼瞼運動の量、眼瞼レベル等)を比較することによって、検出された眼瞼運動が、テーブル316内の識別子のうちのいずれかに合致するかどうかを決定してもよい。いくつかの実施形態では、記憶される識別子は、音声コマンドまたは他の入力と組み合わせた眼瞼運動を含んでもよい。いくつかの実施形態では、XRシステムは、不随意の瞬目に基づいてアクションを実施することを回避するために(例えば、そのようなアクションがユーザによって所望されない場合)、眼瞼運動が、所定の期間(例えば、0.5秒)を超えるかどうかを検出してもよい。本システムは、経時的なユーザの眼瞼の開放および閉鎖の程度に基づいて、ユーザの眼瞼運動を検出してもよい。 XR systems detect a user's eyelid movements by using a sensor (eg, a camera). The system may, for example, analyze sensor output and compare such output to stored identifiers (e.g., predetermined number of blinks, blink pattern, amount of eyelid movement, eyelid level, etc.). It may be determined whether the detected eyelid movement matches any of the identifiers in table 316. In some embodiments, stored identifiers may include eyelid movements in combination with voice commands or other inputs. In some embodiments, the XR system adjusts the eyelid movements to a predetermined range to avoid performing actions based on involuntary blinks (e.g., if such actions are not desired by the user). It may be detected whether the period (for example, 0.5 seconds) is exceeded. The system may detect the user's eyelid movement based on the degree of opening and closing of the user's eyelids over time.

検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、XRシステムは、合致された眼瞼運動に対応するアクションに基づいて、XR環境300の更新されたバージョンを表示のために発生させる。図3の実施例では、本システムは、書籍のページをめくることと関連付けられる眼瞼運動を検出し(318)、閉じられた書籍を描写する、環境300の上側部分における書籍オブジェクト304と比較して、書籍オブジェクト304のめくられたページを描写する、図3の下側部分における環境300に示されるように、そのようなアクションを実行する。当業者は、環境300内のオブジェクトが、種々の方法で操作され得、例えば、椅子オブジェクト314が、机オブジェクト312の異なる部分に隣接して移動され、または種々の方法で改変され、例えば、椅子オブジェクト314からクッションを除去し得ることを理解するであろう。 In response to matching the detected eyelid movement to one of the stored eyelid movement identifiers, the XR system generates an updated version of the XR environment 300 based on the action corresponding to the matched eyelid movement. Generate a version for display. In the example of FIG. 3, the system detects (318) eyelid movement associated with turning the pages of a book compared to a book object 304 in the upper portion of the environment 300, depicting a closed book. , performs such an action, as shown in the environment 300 in the lower part of FIG. 3, which depicts a turned page of a book object 304. Those skilled in the art will appreciate that objects within environment 300 may be manipulated in various ways, such as chair object 314 being moved adjacent to different parts of desk object 312, or modified in various ways, e.g. It will be appreciated that the cushion may be removed from object 314.

いくつかの実施形態では、選択された着目オブジェクトのために好適な識別子306のサブセットが、特定の眼瞼運動に基づいて実施されるべき利用可能なアクションを決定する際のユーザの便宜のために、ユーザに表示されてもよい。いくつかの実施形態では、XRシステムは、XR環境300内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、1つまたはそれを上回るユーザプロファイルを記憶してもよい。例えば、ユーザプロファイルは、例えば、ユーザの便宜のために識別子306と関連付けて表示され得る、ユーザ選好に調整されるアクション、ユーザのお気に入りのアクション、ユーザの直近で実施されたアクション、ユーザの最も一般的に実施されるアクション、ユーザの購入アクション等を含んでもよい。 In some embodiments, a subset of identifiers 306 suitable for a selected object of interest may be used for the user's convenience in determining available actions to be performed based on a particular eyelid movement. It may be displayed to the user. In some embodiments, the XR system stores one or more user profiles that define relationships between eyelid movement identifiers and corresponding actions that can be performed on objects within the XR environment 300. You can. For example, the user profile may include, for example, actions tailored to the user's preferences, the user's favorite actions, the user's most recently performed actions, the user's most commonly performed actions, etc., which may be displayed in association with the identifier 306 for the user's convenience. It may also include actions performed by users, purchase actions by users, and the like.

いくつかの実施形態では、XRシステムは、XR環境200の周囲のユーザの移動を検出してもよく、ユーザが動き回る際、ユーザの注視が変化することを検出してもよい。そのような状況では、本システムは、新しい着目オブジェクトを選択してもよい。代替として、本システムは、ユーザの注視がオブジェクト上に留まる間、ユーザがXR環境内で第1の位置から新しい位置にナビゲートしていることを検出し、そのような決定に応答して、ユーザの視点に基づいて、オブジェクトの更新されたバージョンを表示のために発生させてもよい(例えば、ユーザに提示されるオブジェクトのサイズまたは角度を改変する)。オブジェクトの更新されたバージョンは、改変された外観(例えば、ユーザがテーブル316内のそのようなアクションと関連付けられる眼瞼運動を以前に実施した場合では、破かれたページを伴う書籍)を有するオブジェクトをユーザに提示することを含んでもよい。 In some embodiments, the XR system may detect movement of the user around the XR environment 200 and may detect changes in the user's gaze as the user moves around. In such situations, the system may select a new object of interest. Alternatively, the system detects that the user is navigating from a first position to a new position within the XR environment while the user's gaze remains on the object, and in response to such determination, Based on the user's perspective, an updated version of the object may be generated for display (eg, altering the size or angle of the object presented to the user). The updated version of the object may include an object with an altered appearance (e.g., a book with torn pages in case the user previously performed an eyelid movement associated with such an action in table 316). It may also include presenting the information to the user.

いくつかの実施形態では、図1-2に議論される側面は、図3の実施形態と組み合わせられてもよい(例えば、XR環境内の単一のユーザセッションにおいて、XR環境内のオブジェクトが、より詳細に再発生されてもよく、種々のアクションが、そのようなオブジェクトに対して実施されてもよい)。 In some embodiments, the aspects discussed in Figures 1-2 may be combined with the embodiment of Figure 3 (e.g., in a single user session within the XR environment, objects within the may be regenerated in more detail and various actions may be performed on such objects).

図4A-4Bは、本開示のいくつかの実施形態による、インジケータがXR環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。XRシステム(例えば、図9のシステム900)は、頭部搭載型ディスプレイ402を介して、ユーザにXR環境400を表示のために発生させてもよい。いくつかの実施形態では、XR環境400は、メディアコンテンツの選択および消費を促進するために、双方向性メディアガイドアプリケーションを含んでもよい。XR環境400は、選択可能なメディアコンテンツに関する識別子に対応し得る、1つまたはそれを上回るオブジェクト408、410を含んでもよい。本システムは、センサ(例えば、カメラ)を使用することによって、ユーザの注視が、XR環境の一部(例えば、オブジェクト408の近傍における(図4A))から、XR環境の別の部分(例えば、オブジェクト410の近傍における(図4B))に偏移していることを検出する。図4A-4Bが、例示的であり、ユーザの注視が、いかなるオブジェクトも含有しない、または複数のオブジェクトを含有し得る、XR環境400の一部から、XR環境400の別の部分に偏移していることを理解されたい。 4A-4B illustrate an example of receiving voice commands while an indicator is in proximity to an object in an XR environment, according to some embodiments of the present disclosure. An XR system (eg, system 900 of FIG. 9) may generate an XR environment 400 for display to a user via a head-mounted display 402. In some embodiments, XR environment 400 may include an interactive media guide application to facilitate selection and consumption of media content. XR environment 400 may include one or more objects 408, 410 that may correspond to identifiers related to selectable media content. The system uses a sensor (e.g., a camera) to shift the user's gaze from one part of the XR environment (e.g., in the vicinity of object 408 (FIG. 4A)) to another part of the XR environment (e.g., in the vicinity of object 408 (FIG. 4A)). (FIG. 4B)) in the vicinity of the object 410 is detected. 4A-4B are exemplary and the user's gaze is shifted from a portion of the XR environment 400 to another portion of the XR environment 400 that may not contain any objects or may contain multiple objects. I want you to understand that I am

注視偏移を検出することに応答して、XRシステムは、XR環境400内に、注視における偏移を示すインジケータ406を表示のために発生させてもよい。例えば、図4Aにおけるインジケータ406は、ユーザの注視が、オブジェクト408(例えば、映画「The Dark Knight」に関する識別子)上にあることを反映し、図4Bでは、インジケータ406は、ユーザの注視が、オブジェクト410(例えば、映画「American Psycho」に関する識別子)に偏移していることを反映する。いくつかの実施形態では、単一のインジケータが、表示のために発生されてもよい、または代替として、複数のインジケータが、表示のために発生されてもよい。いくつかの実施形態では、インジケータは、着目オブジェクトへの近接に基づいて、半透明度において変動してもよい。図4A-4Bの実施例では、インジケータ406は、着目オブジェクトに指向される矢印として示されるが、インジケータが、関連付けられるオブジェクトをユーザに強調させる、または顕著に表示させるための任意の好適な印またはマーキングを備え得ることが、当業者によって理解されるであろう。例えば、インジケータは、着目オブジェクトを強調するためのある色または形状、眼球の画像または絵文字、インジケータの近傍におけるオブジェクトの拡大、インジケータの近傍におけるオブジェクトのアニメーション等であってもよい。 In response to detecting the gaze shift, the XR system may generate for display an indicator 406 in the XR environment 400 that indicates the shift in gaze. For example, indicator 406 in FIG. 4A reflects that the user's gaze is on an object 408 (e.g., an identifier for the movie "The Dark Knight"), and in FIG. 4B, indicator 406 reflects that the user's gaze is on object 408 410 (for example, an identifier related to the movie "American Psycho"). In some embodiments, a single indicator may be generated for display, or alternatively, multiple indicators may be generated for display. In some embodiments, the indicator may vary in translucency based on proximity to the object of interest. In the example of FIGS. 4A-4B, the indicator 406 is shown as an arrow directed at the object of interest, but the indicator 406 may be any suitable indicia or It will be understood by those skilled in the art that markings may be provided. For example, the indicator may be a certain color or shape to emphasize the object of interest, an image or pictogram of an eyeball, an enlargement of the object in the vicinity of the indicator, an animation of the object in the vicinity of the indicator, etc.

本システムは、センサ(例えば、マイクロホン)を使用することによって、(例えば、インジケータが、着目オブジェクトに重複する、または別様にその所定の距離内にある場合)インジケータ406がオブジェクト410の近傍にある間に音声コマンドを検出してもよい。XRシステムは、音声コマンドを処理し、(例えば、音声コマンド内に含まれるオブジェクトと、インジケータ406によって示されるようなユーザの注視が指向されるオブジェクトとの間の合致が存在するという条件で)アクションを実行してもよい。例えば、図4Aの実施例における音声コマンド404を受信することに応じて、本システムは、オブジェクト408と関連付けられるメディアアセット「The Dark Knight」の提示を開始してもよく、図4Bの実施例における音声コマンド405を受信することに応じて、本システムは、オブジェクト410と関連付けられるメディアアセット「American Psycho」の提示を開始してもよい。いくつかの実施形態では、インジケータが、ユーザの注視を正確に反映していないことがユーザによって決定される場合、本システムは、本システムがユーザの注視を再較正することを要求する、および/またはユーザが自身が注視していると考える表示の部分を示す、好適な音声コマンドをユーザから受け取ってもよい。 By using a sensor (e.g., a microphone), the system determines when indicator 406 is in the vicinity of object 410 (e.g., when the indicator overlaps or is otherwise within a predetermined distance of the object of interest). A voice command may be detected in between. The XR system processes the voice command and takes an action (e.g., provided there is a match between the object contained within the voice command and the object to which the user's gaze is directed, as indicated by indicator 406). may be executed. For example, in response to receiving the voice command 404 in the example of FIG. 4A, the system may begin presenting the media asset "The Dark Knight" associated with the object 408, and in response to receiving the voice command 404 in the example of FIG. 4B. In response to receiving voice command 405, the system may begin presenting the media asset "American Psycho" associated with object 410. In some embodiments, if the user determines that the indicator does not accurately reflect the user's gaze, the system requests that the system recalibrate the user's gaze, and/or Alternatively, a suitable voice command may be received from the user indicating the portion of the display that the user believes to be gazing at.

いくつかの実施形態では、ユーザの注視は、眼の網膜移動(センサ、例えば、網膜からの光源の反射を測定するカメラ、眼追跡グラス、画面ベースの眼追跡によって追跡される)に基づいて検出される。ユーザの網膜移動は、表示上のインジケータ406の移動として、XR環境の表示にプロットまたは変換されてもよい。本開示のいくつかの側面では、本システムは、網膜移動のレートが、所定の値を超えるかどうかを決定してもよく、そのような決定に応答して、網膜移動をXR環境の表示上のインジケータ406の移動に変換するとき、正規化を実施する。例えば、注視偏移の速度が、所定の値を超える場合、正規化が、表示上のインジケータ406の移動を減速させるために(例えば、ユーザが表示上のインジケータ406の移動をより容易に追跡することを可能にするために)実施されてもよい。インジケータのクラスタ全体が、表示のそのような新しい部分に移動してもよい。 In some embodiments, the user's gaze is detected based on retinal movement of the eye (tracked by a sensor, e.g., a camera that measures the reflection of a light source from the retina, eye tracking glasses, screen-based eye tracking). be done. The user's retinal movement may be plotted or translated into a display of the XR environment as movement of the indicator 406 on the display. In some aspects of the present disclosure, the system may determine whether the rate of retinal movement exceeds a predetermined value and, in response to such determination, display the retinal movement on a display of the XR environment. Normalization is performed when converting the movement of the indicator 406 into the movement of the indicator 406 . For example, if the rate of gaze shift exceeds a predetermined value, normalization may be used to slow down the movement of indicator 406 on the display (e.g., to make it easier for the user to track movement of indicator 406 on the display). ) may be implemented. The entire cluster of indicators may be moved to such new portion of the display.

いくつかの実施形態では、本システムは、ユーザ音声コマンドに応答する電子音声認識(または音声支援)デバイス(例えば、テレビ、コンピュータ、音声アシスタント)を含み、音声入力は、オーディオまたはデジタル信号(またはオーディオまたはデジタル入力)の形態であってもよい。本システムは、自然言語理解(NLU)技法を実施してもよく、音声コマンドをテキストに転写するために、自然言語理解回路網および/または音声テキスト化回路網を含んでもよく、音声コマンドを解析し、音声入力からキーワードを識別および抽出してもよい。本システムは、抽出されたキーワードと着目オブジェクトと関連付けられるメタデータを比較し、合致が存在するかどうか、例えば、音声コマンドを実行するかどうかを決定してもよい。いくつかの実施形態では、受信された音声コマンドが、インジケータの近傍におけるオブジェクトに合致しない場合、本システムは、ユーザに不一致を通知し、関連付けられるアクションを実行することを控える、または新しい音声コマンドに関してユーザをプロンプトしてもよい。 In some embodiments, the system includes an electronic voice recognition (or voice assistance) device (e.g., television, computer, voice assistant) that responds to user voice commands, and the voice input is an audio or digital signal (or or digital input). The system may implement natural language understanding (NLU) techniques and may include natural language understanding circuitry and/or speech-to-text circuitry to transcribe voice commands into text and parse voice commands. However, keywords may be identified and extracted from voice input. The system may compare the extracted keywords and metadata associated with the object of interest and determine whether a match exists, eg, whether to execute a voice command. In some embodiments, if the received voice command does not match an object in the vicinity of the indicator, the system notifies the user of the mismatch and refrains from performing the associated action or performs the associated action regarding the new voice command. May prompt the user.

いくつかの実施形態では、音声コマンドは、メディアアセットの識別およびアクション(例えば、再生、早送り、巻き戻し等)を実行するためのコマンドまたは表示上に新しいメディアアセットを提示する(例えば、他のメディアアセットを通してスクロールする、またはカルーセル内のメディアアセットの新しいページに移動する)ための命令を含む。本開示のいくつかの側面では、インジケータがオブジェクトの近傍にあることを決定するステップは、ユーザの注視が少なくとも所定の閾値期間(例えば、5秒)にわたってオブジェクトに指向されていることを決定するステップを含む。 In some embodiments, the voice commands include identifying a media asset and commands to perform an action (e.g., play, fast forward, rewind, etc.) or to present a new media asset on the display (e.g., other media Contains instructions for scrolling through assets (or navigating to a new page of media assets in a carousel). In some aspects of the present disclosure, determining that the indicator is in the vicinity of the object includes determining that the user's gaze has been directed toward the object for at least a predetermined threshold period of time (e.g., 5 seconds). including.

図5は、本開示のいくつかの実施形態による、インジケータがXR環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。XRシステム(例えば、図9のシステム900)は、頭部搭載型ディスプレイ502を含み、頭部搭載型ディスプレイ502を用いて、オブジェクト508、510を含む、XR環境500を表示のために発生させてもよい。図5の上側環境500に示されるように、本システムは、センサ(例えば、カメラ)を使用することによって、ユーザの注視がXR環境の一部(例えば、オブジェクト508を含む)に指向されていることを検出してもよい。本システムは、XR環境500のオブジェクト508を含む部分の近傍において、複数の不透明度ベースのインジケータ506をXR環境500内での表示のために発生させてもよい。図5の実施例では、インジケータ506は、着目オブジェクトに指向される矢印として示されるが、インジケータが、関連付けられるオブジェクトをユーザに強調させる、または顕著に表示させるための任意の好適な印またはマーキングを備え得ることが、当業者によって理解されるであろう。例えば、インジケータは、着目オブジェクトを強調するためのある色または形状、眼球の画像または絵文字、インジケータの近傍におけるオブジェクトの拡大、インジケータの近傍におけるオブジェクトのアニメーション等であってもよい。 FIG. 5 illustrates an example of receiving voice commands while an indicator is in proximity to an object in an XR environment, according to some embodiments of the present disclosure. An XR system (e.g., system 900 of FIG. 9) includes a head-mounted display 502 and uses the head-mounted display 502 to generate an XR environment 500, including objects 508, 510, for display. Good too. As shown in the upper environment 500 of FIG. 5, the system uses a sensor (e.g., a camera) to direct the user's gaze to a portion of the XR environment (e.g., including an object 508). may be detected. The system may generate a plurality of opacity-based indicators 506 for display within the XR environment 500 near the portion of the XR environment 500 that includes the object 508. In the example of FIG. 5, indicator 506 is shown as an arrow directed at the object of interest, but indicator 506 may include any suitable indicia or markings to emphasize or prominently display the object with which it is associated to the user. It will be understood by those skilled in the art that this may be provided. For example, the indicator may be a certain color or shape to emphasize the object of interest, an image or pictogram of an eyeball, an enlargement of the object in the vicinity of the indicator, an animation of the object in the vicinity of the indicator, etc.

本システムは、例えば、エッジ検出技法、オブジェクト508の座標を読み出すこと、オブジェクト508を囲繞する面積のピクセル値を分析すること等によって、オブジェクト508の境界(例えば、エッジ、形状輪郭、端)を識別してもよい。オブジェクトの識別された境界に基づいて、XRシステムは、複数の不透明度ベースのインジケータ506のうちの少なくとも1つの不透明度を変動させてもよい。いくつかの実施形態では、本システムは、複数の不透明度ベースのインジケータのうちの少なくとも1つが、オブジェクトの境界に重複する、またはその所定の距離内にあるかどうかを決定してもよく、そのような決定に応答して、オブジェクト508の境界に重複する1つまたはそれを上回るインジケータ506の個別の不透明度を変動させてもよい。例えば、本システムは、図9のXRシステム900における着目オブジェクトの座標とインジケータ506の座標を比較してもよい。いくつかの実施形態では、本システムが、ユーザの注視が表示の一部(例えば、オブジェクト508を含む)から、別のオブジェクト(例えば、オブジェクト510)を含む表示の一部に偏移していることを検出する場合、本システムは、複数の透明度ベースのインジケータを、オブジェクト510を含む表示の部分の近傍にオーバーレイさせる。インジケータのクラスタ全体が、表示のそのような新しい部分に移動してもよい。 The system identifies boundaries (e.g., edges, shape contours, ends) of object 508, such as by edge detection techniques, reading coordinates of object 508, analyzing pixel values of an area surrounding object 508, etc. You may. Based on the identified boundaries of the object, the XR system may vary the opacity of at least one of the plurality of opacity-based indicators 506. In some embodiments, the system may determine whether at least one of the plurality of opacity-based indicators overlaps or is within a predetermined distance of a boundary of the object; In response to such a determination, the individual opacity of one or more indicators 506 that overlap the boundary of object 508 may be varied. For example, the system may compare the coordinates of the object of interest and the coordinates of the indicator 506 in the XR system 900 of FIG. In some embodiments, the system determines that the user's gaze shifts from a portion of the display (e.g., containing object 508) to a portion of the display containing another object (e.g., object 510). If so, the system overlays a plurality of transparency-based indicators near the portion of the display that includes object 510. The entire cluster of indicators may be moved to such new portion of the display.

本システムは、オブジェクトからの距離に基づいて、個別の不透明度を変動させてもよい。図5の実施例に示されるように、インジケータ506の個別の不透明度は、インジケータ506とオブジェクト508との間の距離が減少するにつれて、増加してもよい。これは、それにユーザの注視が指向される表示の部分をユーザに強調するために望ましくあり得る。代替として、図6の実施例に示されるように、インジケータ606の個別の不透明度は、個別のインジケータ606とオブジェクト608との間の距離が減少するにつれて、減少してもよい。これは、着目オブジェクトの部分を不明瞭にすることを最小限にするために望ましくあり得る。いくつかの実施形態では、本システムは、インジケータのうちのいずれかが、着目されない場合がある、別のオブジェクトに重複する、または別様にその近傍にあるかどうかを決定してもよく、そのような状況では、インジケータは、そのような着目されないオブジェクトの部分を不明瞭にすること、またはそのようなオブジェクトが着目されることをユーザに誤って示すことのいずれかを回避するために、半透明であるように設定されてもよい。 The system may vary the individual opacity based on distance from the object. As shown in the example of FIG. 5, the individual opacity of indicator 506 may increase as the distance between indicator 506 and object 508 decreases. This may be desirable to emphasize to the user the portion of the display to which the user's gaze is directed. Alternatively, as shown in the example of FIG. 6, the individual opacity of the indicators 606 may decrease as the distance between the individual indicators 606 and the object 608 decreases. This may be desirable to minimize obscuring portions of the object of interest. In some embodiments, the system may determine whether any of the indicators may not be of interest, overlap another object, or otherwise be in its vicinity; In such situations, the indicator may be semi-concentrated to avoid either obscuring parts of such objects that are not of interest or falsely indicating to the user that such objects are of interest. It may be set to be transparent.

図5および図6の実施例に示されるように、それぞれ、XR環境500、600は、双方向性メディアガイドを含んでもよい。インジケータ506、606の近傍におけるオブジェクトと関連付けられるアクションを実施するための音声コマンドを受信することに応答して、本システムは、アクションを実施してもよい(例えば、オブジェクト508、608と関連付けられる俳優である「Christian Bale」と関連付けられるメタデータを有する映画に関する識別子を提示のために発生させる)。図5-6の実施例は、「俳優」カテゴリに関連するオブジェクトを示すが、種々の他のカテゴリが、表示のために発生され、閲覧されてもよい(例えば、ジャンル、キャスト、監督等)。いくつかの実施形態では、環境500、600は、XR頭部搭載型デバイスの有無を問わずに提示されてもよい。例えば、XR環境は、完全没入型VRとして、または図5-6に示されるようなテレビ画面上にオーバーレイされるARまたはMRにおいて提示されてもよい。 As shown in the examples of FIGS. 5 and 6, respectively, the XR environments 500, 600 may include interactive media guides. In response to receiving a voice command to perform an action associated with an object in the vicinity of the indicator 506, 606, the system may perform the action (e.g., an actor associated with the object 508, 608). An identifier for the movie having metadata associated with "Christian Bale" is generated for presentation). Although the examples of FIGS. 5-6 show objects related to the "actor" category, various other categories may be generated and viewed for display (e.g., genre, cast, director, etc.) . In some embodiments, the environment 500, 600 may be presented with or without an XR head-mounted device. For example, the XR environment may be presented as fully immersive VR or in AR or MR overlaid on a television screen as shown in FIGS. 5-6.

いくつかの実施形態では、図1-4の実施例の特徴は、図5-6の実施例の特徴と併せて使用されてもよい。例えば、インジケータ(例えば、図1におけるインジケータ106等)は、(例えば、図3のテーブル316における)実施可能なアクションと関連付けられ得る、眼瞼運動または注視を実施する際にユーザを誘導するために、ユーザに表示されてもよい。図5および6のインジケータはまた、他の環境(例えば、ビデオゲーム、スポーツ、通信、ソーシャルメディア等)に関連して使用されてもよい。 In some embodiments, the features of the embodiments of FIGS. 1-4 may be used in conjunction with the features of the embodiments of FIGS. 5-6. For example, an indicator (e.g., indicator 106 in FIG. 1) may be associated with an action that can be performed (e.g., in table 316 of FIG. 3) to guide the user in performing eyelid movements or gaze. It may be displayed to the user. The indicators of FIGS. 5 and 6 may also be used in connection with other environments (eg, video games, sports, communications, social media, etc.).

図7は、本開示のいくつかの実施形態による、XR環境内のアイテムに関連する付加的情報を提示する実施例を示す。頭部搭載型ディスプレイ702は、XR環境700をユーザに提示する。XR環境700は、1つまたはそれを上回るオブジェクト、例えば、洗濯機オブジェクト702、冷蔵庫オブジェクト704、壁オブジェクト708等を含んでもよい。いくつかの実施形態では、XR環境700は、環境700内でとられ得るアクションをユーザに示し得る、識別子706を含む。環境700は、建物(例えば、家屋またはアパート)内の部屋を示すが、環境700は、任意の仮想または拡張環境、例えば、山脈、景色の良い場所、ユーザによってプレーされているビデオゲーム等を備えてもよい。 FIG. 7 illustrates an example of presenting additional information related to items within an XR environment, according to some embodiments of the present disclosure. Head-mounted display 702 presents XR environment 700 to the user. XR environment 700 may include one or more objects, such as a washing machine object 702, a refrigerator object 704, a wall object 708, etc. In some embodiments, XR environment 700 includes an identifier 706 that may indicate to the user actions that may be taken within environment 700. Although environment 700 depicts a room within a building (e.g., a house or an apartment), environment 700 may include any virtual or augmented environment, such as a mountain range, a scenic location, a video game being played by a user, etc. You can.

本システムは、(例えば、センサを介して)ユーザの眼運動を検出し、検出された眼運動に基づいて、オブジェクト(例えば、洗濯機オブジェクト702、冷蔵庫オブジェクト704、および/または壁オブジェクト708)が少なくとも所定の期間710(例えば、5秒)にわたってユーザの視野内にあるかどうかを決定する。オブジェクト(例えば、壁オブジェクト)が、少なくとも所定の期間にわたって視野内にあることを決定することに応答して、本システムは、オブジェクト708に関連する1つまたはそれを上回るアイテム714をXR環境内での表示のために発生させる。オブジェクトに関連する1つまたはそれを上回るアイテム714は、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備えてもよく、(例えば、図8の記憶装置808内に記憶される)アイテム情報データベース712から読み出されてもよい。例えば、アイテム714は、壁オブジェクト708の厚さを示し、そのような付加的情報は、ユーザがXR環境700内で頭部搭載型ディスプレイ702を介して壁オブジェクト708を注視するときに提供されてもよい。いくつかの実施形態では、眼運動を検出するステップは、眼瞼運動を監視するステップを含む。本開示のいくつかの側面では、オブジェクト708に関連する1つまたはそれを上回るアイテム714をXR環境内での表示のために発生させるステップは、オブジェクト708が、少なくとも所定の期間にわたって視野内にあること、およびユーザの注視内にあることの両方を検出することに応答して、実施される。いくつかの実施形態では、本システムは、(例えば、ユーザによる、またはユーザの履歴データに基づいて本システムによって推奨される)所定の期間の修正を可能にする。 The system detects the user's eye movements (e.g., via a sensor) and determines whether objects (e.g., washing machine object 702, refrigerator object 704, and/or wall object 708) Determine whether the user is within the user's field of view for at least a predetermined period 710 (eg, 5 seconds). In response to determining that an object (e.g., a wall object) is within the field of view for at least a predetermined period of time, the system displays one or more items 714 associated with the object 708 within the XR environment. generated for display. One or more items 714 associated with an object may comprise textual information, images, videos, or any combination thereof, including item information (e.g., stored in storage 808 of FIG. 8). It may also be read from database 712. For example, item 714 indicates the thickness of wall object 708 and such additional information is provided when a user gazes at wall object 708 via head-mounted display 702 within XR environment 700. Good too. In some embodiments, detecting eye movement includes monitoring eyelid movement. In some aspects of the present disclosure, generating one or more items 714 related to object 708 for display within an XR environment includes object 708 being within view for at least a predetermined period of time. and being within the user's gaze. In some embodiments, the system allows modifications for a predetermined period of time (eg, by the user or recommended by the system based on the user's historical data).

別の実施例として、環境700は、山脈であってもよく、ユーザの(例えば、センサを介して検出された)検出された眼運動に基づいて、オブジェクト(例えば、山)が少なくとも所定の期間にわたってユーザの視野内にあることを決定することに応じて、山オブジェクトに関する情報が、ユーザへの表示のために発生されてもよい(例えば、山の名前、山の標高、山の場所等)。 As another example, the environment 700 may be a mountain range, and based on detected eye movements of the user (e.g., detected via a sensor), the environment 700 may be such that an object (e.g., a mountain) In response to determining that the mountain object is within the user's field of view, information regarding the mountain object may be generated for display to the user (e.g., mountain name, mountain elevation, mountain location, etc.) .

本開示のいくつかの側面では、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、XRセッションの間の所定の期間(例えば、5秒)にわたって視野がオブジェクト上に連続的にあることを決定するステップを含んでもよい。例えば、本システムが、ユーザの視野が所定の期間へのタイマのカウントダウンの間に偏移していることを検出する場合、カウントダウンは、リセットされてもよい。代替として、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、XRセッションの間の所定の期間(例えば、5秒)にわたって視野がオブジェクト上に非連続的にあることを決定するステップを含んでもよい。例えば、本システムが、ユーザの視野が所定の期間へのタイマのカウントダウンの間に偏移していることを検出する場合、カウントダウンは、一時停止され、ユーザの注視がオブジェクトに戻ったことを検出することに応じて、再開されてもよい。 In some aspects of the present disclosure, determining whether the object is within the field of view for a predetermined period includes continuously It may include the step of determining that. For example, if the system detects that the user's visual field has shifted during the timer's countdown to a predetermined period, the countdown may be reset. Alternatively, determining whether the object is within the field of view for a predetermined period of time determines that the field of view is discontinuously over the object for a predetermined period of time (e.g., 5 seconds) during the XR session. May include steps. For example, if the system detects that the user's visual field has shifted during a timer countdown to a predetermined period, the countdown is paused and the system detects that the user's gaze has returned to the object. It may be restarted depending on the situation.

いくつかの実施形態では、本システムは、新しいオブジェクトが少なくとも所定の時間にわたって視野内にあるかどうかを決定してもよい。例えば、本システムがそのような決定を行うことに応答して、本システムは、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをXR環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテム(例えば、オブジェクト708およびアイテム714)をXR環境内での表示のために発生させ続けてもよい。これは、ユーザが、少なくともXRセッションの持続時間の間に複数のアイテムに関する付加的情報を視認することを可能にする。いくつかの実施形態では、付加的情報アイテムは、XR環境内の次のユーザセッションにおいて維持されてもよい。 In some embodiments, the system may determine whether the new object is within view for at least a predetermined amount of time. For example, in response to the system making such a determination, the system generates one or more items related to the new object for display within the XR environment, while One or more items (eg, object 708 and item 714) may continue to be generated for display within the XR environment. This allows the user to view additional information about multiple items for at least the duration of the XR session. In some embodiments, additional information items may be maintained in subsequent user sessions within the XR environment.

いくつかの実施形態では、本システムは、オブジェクト708が第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテム714の表示の開始から少なくとも所定の期間(例えば、10秒)が経過していることを決定してもよい。例えば、アイテム714がユーザに提供されて以降、少なくとも所定の期間(例えば、10秒)が経過しており、アイテム714と関連付けられるオブジェクト708が、そのような期間の間に視野内にない場合、アイテム714の表示は、停止されてもよい(例えば、ユーザが、もはやオブジェクト708に着目していない場合があるため)。 In some embodiments, the system allows at least a predetermined period of time (e.g., 10 It may be determined that a period of time (seconds) has elapsed. For example, if at least a predetermined period of time (e.g., 10 seconds) has elapsed since item 714 was provided to the user, and object 708 associated with item 714 is not within view during such period; The display of item 714 may be stopped (eg, because the user may no longer be focused on object 708).

ある実施形態では、付加的入力(例えば、音声コマンド、ハンドジェスチャ、タッチ)が、ユーザの眼運動を検出することと組み合わせて利用されてもよい。例えば、本システムは、ユーザが、もはや着目アイテムに関連する付加的情報を視認することを所望していないことを示す音声コマンドを受信してもよい、または付加的情報を表示するための音声コマンドを受信してもよく、アイテム情報データベース712から着目アイテム(例えば、アイテム708)に関連する付加的情報を読み出してもよい。 In some embodiments, additional inputs (eg, voice commands, hand gestures, touch) may be utilized in combination with detecting the user's eye movements. For example, the system may receive a voice command indicating that the user no longer wishes to view additional information associated with the item of interest, or a voice command to display additional information. may be received, and additional information related to the item of interest (eg, item 708) may be read from the item information database 712.

図8は、本開示のいくつかの実施形態による、XRシステムにおける例証的デバイスのブロック図である。XRシステムにおけるデバイス800は、コンピュータネットワークを経由してXRデバイス(例えば、それぞれ、図1-7のデバイス102、202、302、402、502、602、702)に伝送される、XR環境を発生させる、表示する、および/または管理するための1つまたはそれを上回るサーバを含んでもよい。デバイス800は、制御回路網804および/またはI/O経路810を含んでもよい。制御回路網804は、処理回路網806等の任意の好適な処理回路網に基づいてもよい。本明細書に言及されるように、処理回路網は、1つまたはそれを上回るマイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、プログラマブル論理デバイス、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)等に基づく回路網を意味するように理解されるべきであり、マルチコアプロセッサ(例えば、デュアルコア、クアッドコア、ヘキサコア、または任意の好適な数のコア)またはスーパーコンピュータを含んでもよい。 FIG. 8 is a block diagram of an exemplary device in an XR system, according to some embodiments of the present disclosure. A device 800 in an XR system generates an XR environment that is transmitted via a computer network to an XR device (e.g., devices 102, 202, 302, 402, 502, 602, 702 of FIGS. 1-7, respectively). , displaying, and/or managing one or more servers. Device 800 may include control circuitry 804 and/or I/O paths 810. Control circuitry 804 may be based on any suitable processing circuitry, such as processing circuitry 806. As referred to herein, processing circuitry may include one or more microprocessors, microcontrollers, digital signal processors, programmable logic devices, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), etc. ), and may include a multi-core processor (e.g., dual-core, quad-core, hexa-core, or any suitable number of cores) or a supercomputer.

いくつかの実施形態では、処理回路網806は、複数の別個のプロセッサまたは処理ユニット、例えば、複数の同一のタイプの処理ユニット(例えば、2つのIntel Core i7プロセッサ)または複数の異なるプロセッサ(例えば、Intel Core i5プロセッサおよびIntel Core i7プロセッサ)を横断して分散されてもよい。I/O経路810は、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を経由して、デバイス情報または他のデータおよび/または他のコンテンツおよびデータを、処理回路網806および記憶装置808を含む制御回路網804に提供してもよい。制御回路網804は、I/O経路810を使用して、コマンド、要求、信号(デジタルおよびアナログ)、および他の好適なデータを送信および受信するために使用されてもよい。I/O経路810は、制御回路網804(および具体的には、処理回路網806)を1つまたはそれを上回る通信経路に接続してもよい。いくつかの実施形態では、記憶装置808は、図3のテーブル316および/または図7のアイテム情報データベース712を含んでもよい。 In some embodiments, processing circuitry 806 includes multiple separate processors or processing units, such as multiple processing units of the same type (e.g., two Intel Core i7 processors) or multiple different processors (e.g., Intel Core i5 processors and Intel Core i7 processors). I/O path 810 includes processing circuitry 806 and storage 808 to transmit device information or other data and/or other content and data via a local area network (LAN) or wide area network (WAN). Control circuitry 804 may also be provided. Control circuitry 804 may be used to send and receive commands, requests, signals (digital and analog), and other suitable data using I/O path 810. I/O path 810 may connect control circuitry 804 (and specifically processing circuitry 806) to one or more communication paths. In some embodiments, storage 808 may include table 316 of FIG. 3 and/or item information database 712 of FIG. 7.

いくつかの実施形態では、制御回路網804は、メモリ(例えば、記憶装置808)内に記憶される、XRコンテンツ発生および/または処理機能の実行のための命令を実行する。命令は、不揮発性メモリ814および/または揮発性メモリ812のいずれかの中に記憶され、実行時に処理回路網806にロードされてもよい。XRコンテンツを発生および処理するためのシステム(例えば、図1-7を参照して説明されるシステム)は、ユーザデバイス(例えば、エンドユーザデバイス920)および/またはサーバ(例えば、サーバ900)上で実装されるスタンドアロンアプリケーションである、またはデバイス800に従って複数のデバイスを横断して分散されてもよい。本システムは、ソフトウェアまたは実行可能命令のセットとして実装されてもよい。XR処理の本明細書に議論される実施形態のうちのいずれかを実施するための命令は、非一過性コンピュータ可読媒体(例えば、ハードドライブ、DRAM集積回路上のランダムアクセスメモリ、BLURAYディスク上の読取専用メモリ等)または一過性コンピュータ可読媒体(例えば、データおよび/または命令を搬送する伝搬信号)上でエンコードされてもよい。例えば、本明細書に説明されるプロセスによる命令は、記憶装置808内に記憶され、デバイス800の制御回路網804によって実行されてもよい。 In some embodiments, control circuitry 804 executes instructions stored in memory (eg, storage 808) for performing XR content generation and/or processing functions. Instructions may be stored in either non-volatile memory 814 and/or volatile memory 812 and loaded into processing circuitry 806 at run time. A system for generating and processing XR content (e.g., the systems described with reference to FIGS. 1-7) may be implemented on a user device (e.g., end-user device 920) and/or on a server (e.g., server 900). It may be a standalone application implemented or distributed across multiple devices according to device 800. The system may be implemented as software or a set of executable instructions. Instructions for implementing any of the embodiments discussed herein of XR processing may be stored on a non-transitory computer-readable medium (e.g., a hard drive, random access memory on a DRAM integrated circuit, on a BLURAY disk). read-only memory, etc.) or on a transitory computer-readable medium (e.g., a propagated signal carrying data and/or instructions). For example, instructions according to the processes described herein may be stored in storage 808 and executed by control circuitry 804 of device 800.

制御回路網804は、1つまたはそれを上回るアナログチューナ、1つまたはそれを上回るMPEG-2デコーダまたは他のデジタルデコード回路網、高精細チューナ、または任意の他の好適な同調またはビデオ回路またはそのような回路の組み合わせ等のビデオ発生回路網および同調回路網を含んでもよい。エンコード回路網(例えば、無線、アナログ、またはデジタル信号を記憶のためのMPEG信号に変換するため)もまた、含まれてもよい。制御回路網804はまた、コンテンツを図9のエンドユーザデバイス920、925、930の好ましい出力フォーマットにアップコンバートおよびダウンコンバートするためのスケーラ回路網を含んでもよい。回路網804はまた、デジタル信号とアナログ信号との間で変換するためのデジタル/アナログコンバータ回路網と、アナログ/デジタルコンバータ回路網とを含んでもよい。同調およびエンコード回路網は、コンテンツを受信し、表示する、再生する、または記録するために使用されてもよい。同調およびエンコード回路網はまた、ガイダンスデータを受信するために使用されてもよい。例えば、同調、ビデオ発生、エンコード、デコード、暗号化、復号化、スケーラ、およびアナログ/デジタル回路網を含む、本明細書に説明される回路網は、1つまたはそれを上回る汎用または特殊化プロセッサ上で起動するソフトウェアを使用して実装されてもよい。複数のチューナが、同時同調機能(例えば、視聴および記録機能、物理的環境のビデオまたは他の記録を組み込むための機能、複数チューナ記録等)を取り扱うために提供されてもよい。記憶装置808が、デバイス800とは別個のデバイスとして提供される場合、同調およびエンコード回路網(複数のチューナを含む)は、記憶装置808と関連付けられてもよい。デバイス800は、各デバイス(例えば、102、202、302、402、502、602、702)と通信する中央デバイスであってもよい。代替として、デバイス800は、デバイス104に対応してもよく、すなわち、各システム(例えば、図1-7の)は、その独自のデバイス920を有していない場合があり、むしろ、単一の中央デバイス800が、システム毎にXR環境発生およびプロセスを実行してもよい。 Control circuitry 804 may include one or more analog tuners, one or more MPEG-2 decoders or other digital decoding circuitry, a high definition tuner, or any other suitable tuning or video circuitry or the like. It may also include video generation circuitry and tuning circuitry, such as a combination of such circuits. Encoding circuitry (eg, to convert wireless, analog, or digital signals to MPEG signals for storage) may also be included. Control circuitry 804 may also include scaler circuitry to upconvert and downconvert content to the preferred output format of end user devices 920, 925, 930 of FIG. Circuitry 804 may also include digital-to-analog converter circuitry and analog-to-digital converter circuitry for converting between digital and analog signals. Tuning and encoding circuitry may be used to receive, display, play, or record content. Tuning and encoding circuitry may also be used to receive guidance data. The circuitry described herein, including, for example, tuning, video generation, encoding, decoding, encryption, decoding, scaler, and analog/digital circuitry, may be implemented on one or more general purpose or specialized processors. may be implemented using software running on the Multiple tuners may be provided to handle simultaneous tuning functions (eg, viewing and recording functions, functions for incorporating video or other recordings of the physical environment, multiple tuner recording, etc.). If storage 808 is provided as a separate device from device 800, tuning and encoding circuitry (including multiple tuners) may be associated with storage 808. Device 800 may be a central device that communicates with each device (eg, 102, 202, 302, 402, 502, 602, 702). Alternatively, device 800 may correspond to device 104, i.e., each system (e.g., of FIGS. 1-7) may not have its own device 920, but rather a single A central device 800 may perform XR environment generation and processing on a per-system basis.

図9は、本開示のいくつかの実施形態による、XRコンテンツシステムの例証的ブロック図を示す。少なくとも1つのXRコンテンツサーバ900が、本明細書に説明されるもの等のXRコンテンツを発生させる。XRコンテンツサーバ900は、インターネット910を経由して、デバイス920、925、930を含む、複数のエンドユーザデバイスにコンテンツを伝送してもよい。エンドユーザXRデバイスは、例えば、パーソナルコンピュータ、モバイルデバイス(例えば、スマートフォン)、および/またはXR環境を提示し、それとの相互作用を可能にするように構成される、XRヘッドセット、ゴーグル、スーツ、グローブ等を含む、ウェアラブルデバイスを含んでもよい。これらのデバイスは、オペレータ/ユーザが、(例えば、表示画面を介して)マルチユーザXRコンテンツを視認し、それと相互作用することを可能にするように構成される。これらのデバイスは、例えば、本明細書に説明されるような視点および注意指向キューを提示する、視覚、オーディオ、および触覚フィードバックを提供してもよい。エンドユーザデバイス920、925、930はまた、インターネット910を介してサーバ900にデータを伝送し、そのようなデータは、デバイス920、925、930が向いている方向(したがって、サーバ900が各デバイス920、925、930上で表示のために発生させなければならないビュー)を示す配向情報、各デバイス920、925、930によって検出されるオーディオ信号、およびXRオブジェクトの選択等のユーザ入力を含む。サーバ900は、次いで、デバイス920、925、930毎にXR環境のビューを発生させてもよい。 FIG. 9 shows an illustrative block diagram of an XR content system, according to some embodiments of the present disclosure. At least one XR content server 900 generates XR content such as that described herein. XR content server 900 may transmit content to multiple end user devices, including devices 920, 925, 930, via the Internet 910. End-user XR devices may include, for example, personal computers, mobile devices (e.g., smartphones), and/or XR headsets, goggles, suits, etc. configured to present and enable interaction with the XR environment. May also include wearable devices, including gloves and the like. These devices are configured to allow operators/users to view and interact with multi-user XR content (eg, via a display screen). These devices may provide visual, audio, and haptic feedback, presenting perspective and attention-directing cues, such as those described herein. The end user devices 920, 925, 930 also transmit data to the server 900 via the Internet 910, and such data is transmitted in the direction in which the devices 920, 925, 930 are facing (so that the server 900 , 925, 930), audio signals detected by each device 920, 925, 930, and user input such as selection of an XR object. Server 900 may then generate a view of the XR environment for each device 920, 925, 930.

図10は、本開示のいくつかの実施形態による、XR環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。プロセス1000またはその任意のステップが、図8-9に示されるデバイスのうちのいずれかの上で実施される、またはそれによって提供され得ることに留意されたい。例えば、プロセス1300は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1000の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図11のプロセス1100、図12のプロセス1200、図13のプロセス1300、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。 FIG. 10 is a flowchart of a detailed illustrative process for regenerating objects for display within an XR environment, according to some embodiments of the present disclosure. Note that process 1000 or any steps thereof may be performed on or provided by any of the devices shown in FIGS. 8-9. For example, process 1300 includes computer-executable instructions that may be implemented on network device 800 and/or server 900 and/or devices 920, 925, 930, such as to distribute control of an extended reality environment among multiple devices. network device 800 (e.g., via control circuitry 804), and/or control circuitry of server 900, and/or devices 920, 925, 930, as instructed by one or more programs of It may also be performed by control circuitry. Additionally, one or more steps of process 1000 may be performed in any other process or embodiment (e.g., process 1100 of FIG. 11, process 1200 of FIG. 12, process 1300 of FIG. 13, process 1400 of FIG. 14, It may be incorporated into or combined with one or more steps of process 1500) of FIG. 15.

1002において、入力/出力(I/O)回路網(例えば、頭部搭載型ディスプレイ102のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。 At 1002, input/output (I/O) circuitry (e.g., I/O circuitry of head-mounted display 102) is connected to a user for entering an XR environment (e.g., a VR, AR, or MR environment). A selection may be received. Such user selections may be received via input (eg, voice commands or touch screen).

1004において、制御回路網(例えば、図8の制御回路網804および/または図1の頭部搭載型ディスプレイ102の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図1の自動車オブジェクト104)を含む、XR環境を表示のために(例えば、図1の頭部搭載型デバイス102を介して)発生させてもよい。 At 1004, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 102 of FIG. 1) selects an object (e.g., An XR environment may be generated for display (eg, via head-mounted device 102 of FIG. 1), including a vehicle object 104 of FIG. 1).

1006において、I/O回路網(例えば、頭部搭載型ディスプレイ102のI/O回路網)が、センサ(例えば、カメラ)から入力を受信してもよい。センサは、ユーザの眼の種々の属性(例えば、眼瞼運動、注視)を検出してもよい。 At 1006, I/O circuitry (eg, I/O circuitry of head-mounted display 102) may receive input from a sensor (eg, a camera). The sensor may detect various attributes of the user's eyes (eg, eyelid movement, gaze).

1008において、制御回路網(例えば、図8の制御回路網804および/または図1の頭部搭載型ディスプレイ102の制御回路網)は、受信された入力に基づいて、ユーザの視野内のオブジェクト(例えば、図1の自動車オブジェクト104)を識別してもよい。いくつかの実施形態では、制御回路網は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、XR環境内の視野の位置を表す座標を含んでもよい。制御回路網は、XRデバイス102によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。 At 1008, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 102 of FIG. 1) determines whether an object ( For example, the car object 104 of FIG. 1) may be identified. In some embodiments, the control circuitry may generate a data structure related to the field of view that includes an object identifier associated with a virtual object within the field of view, and such data structure includes a position of the field of view within the XR environment. It may also include coordinates representing. Control circuitry may determine the current field of view and identify objects within the user's field of view based on the data structures and/or images captured by the XR device 102.

1010において、制御回路網は、センサ(例えば、カメラ)からの受信された入力に基づいて、ユーザの眼瞼運動(例えば、眼瞼運動の量、瞬目パターン、眼瞼レベル等)を検出してもよい。いくつかの実施形態では、そのような眼瞼運動は、ユーザのそのような不随意の瞬目をコマンドとして解釈することを回避するために、不随意の瞬目から区別されてもよい。例えば、本システムは、眼が所定の時間量(例えば、0.5秒)未満にわたって閉じられたままである瞬目パターンを無視してもよい。 At 1010, control circuitry may detect eyelid movement (e.g., amount of eyelid movement, blink pattern, eyelid level, etc.) of the user based on received input from a sensor (e.g., a camera). . In some embodiments, such eyelid movements may be distinguished from involuntary blinks to avoid interpreting such involuntary blinks of the user as commands. For example, the system may ignore blink patterns in which the eyes remain closed for less than a predetermined amount of time (eg, 0.5 seconds).

1012において、制御回路網は、眼瞼運動を検出することに応答して、修正された詳細レベルを用いてオブジェクト(例えば、図1の自動車オブジェクト104)を表示のために再発生させてもよい。例えば、制御回路網は、特定の瞬目パターンを検出することに応じて、より高い分解能においてオブジェクトを表示のために再発生させてもよい。いくつかの実施形態では、制御回路網は、検出された眼瞼運動が、オブジェクトの詳細レベルを修正するための眼瞼運動識別子に合致するかどうかを決定するために、眼瞼運動識別子と実施可能なアクションとの間の関連付けを記憶する、テーブル(例えば、図3のテーブル316)を参照してもよい。 At 1012, control circuitry may regenerate the object (eg, car object 104 of FIG. 1) for display using the modified level of detail in response to detecting the eyelid movement. For example, the control circuitry may regenerate the object for display at a higher resolution in response to detecting a particular blink pattern. In some embodiments, the control circuitry uses the eyelid movement identifier and the possible action to determine whether the detected eyelid movement matches the eyelid movement identifier to modify the level of detail of the object. Reference may also be made to a table (eg, table 316 of FIG. 3) that stores associations between.

図11は、本開示のいくつかの実施形態による、XR環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。例えば、プロセス1100は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1100の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図12のプロセス1200、図13のプロセス1300、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。 FIG. 11 is a flowchart of a detailed illustrative process for regenerating objects for display within an XR environment, according to some embodiments of the present disclosure. For example, process 1100 includes computer-executable instructions that may be implemented on network device 800 and/or server 900 and/or devices 920, 925, 930, such as to distribute control of an extended reality environment among multiple devices. network device 800 (e.g., via control circuitry 804), and/or control circuitry of server 900, and/or devices 920, 925, 930, as instructed by one or more programs of It may also be performed by control circuitry. Additionally, one or more steps of process 1100 may be performed in any other process or embodiment (e.g., process 1000 of FIG. 10, process 1200 of FIG. 12, process 1300 of FIG. 13, process 1400 of FIG. 14, It may be incorporated into or combined with one or more steps of process 1500) of FIG. 15.

1102において、I/O回路網(例えば、頭部搭載型ディスプレイ202のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。 At 1102, I/O circuitry (e.g., I/O circuitry of head-mounted display 202) receives a user selection to enter an XR environment (e.g., a VR, AR, or MR environment). Good too. Such user selections may be received via input (eg, voice commands or touch screen).

1104において、制御回路網(例えば、図8の制御回路網804および/または図2の頭部搭載型ディスプレイ202の制御回路網)が、ユーザ選択を受信することに応答して、複数のオブジェクト(例えば、図2の自動車オブジェクト204および図2の飛行機オブジェクト208)を含む、XR環境を表示のために(例えば、図2の頭部搭載型デバイス202を介して)発生させてもよい。 At 1104, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 202 of FIG. 2) selects the plurality of objects ( An XR environment may be generated for display (eg, via head-mounted device 202 in FIG. 2), including, for example, car object 204 in FIG. 2 and airplane object 208 in FIG. 2).

1106において、I/O回路網(例えば、頭部搭載型ディスプレイ102のI/O回路網)が、センサ(例えば、カメラ)から入力を受信してもよい。センサは、ユーザの眼の種々の属性(例えば、眼瞼運動、注視)を検出してもよい。 At 1106, I/O circuitry (eg, I/O circuitry of head-mounted display 102) may receive input from a sensor (eg, a camera). The sensor may detect various attributes of the user's eyes (eg, eyelid movement, gaze).

1108において、制御回路網(例えば、図8の制御回路網804および/または図1の頭部搭載型ディスプレイ202の制御回路網)は、受信された入力に基づいて、ユーザの視野内のオブジェクト(例えば、図2の自動車オブジェクト204および図2の飛行機オブジェクト208)を識別してもよい。いくつかの実施形態では、制御回路網は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、XR環境内の視野の位置を表す座標を含んでもよい。制御回路網は、XRデバイス202によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。 At 1108, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 202 of FIG. 1) determines an object ( For example, a car object 204 in FIG. 2 and an airplane object 208 in FIG. 2 may be identified. In some embodiments, the control circuitry may generate a data structure related to the field of view that includes an object identifier associated with a virtual object within the field of view, and such data structure includes a position of the field of view within the XR environment. It may also include coordinates representing. Control circuitry may determine the current field of view and identify objects within the user's field of view based on the data structures and/or images captured by the XR device 202.

1110において、制御回路網は、センサ(例えば、カメラ)からの受信された入力に基づいて、ユーザの眼瞼運動(例えば、眼瞼運動の量、瞬目パターン、眼瞼レベル等)を検出してもよい。いくつかの実施形態では、そのような眼瞼運動は、ユーザのそのような不随意の瞬目をコマンドとして解釈することを回避するために、不随意の瞬目から区別されてもよい。例えば、本システムは、眼が所定の時間量(例えば、0.5秒)未満にわたって閉じられたままである瞬目パターンを無視してもよい。 At 1110, control circuitry may detect eyelid movement (e.g., amount of eyelid movement, blink pattern, eyelid level, etc.) of the user based on received input from a sensor (e.g., a camera). . In some embodiments, such eyelid movements may be distinguished from involuntary blinks to avoid interpreting such involuntary blinks of the user as commands. For example, the system may ignore blink patterns in which the eyes remain closed for less than a predetermined amount of time (eg, 0.5 seconds).

1112において、制御回路網は、眼瞼運動が、第1のオブジェクト(例えば、図2の自動車オブジェクト204)と関連付けられるかどうかを決定してもよい。図2の実施例では、制御回路網は、検出された眼瞼運動が、眼瞼運動識別子「自動車の詳細を修正するために1回瞬目する」(例えば、図3のテーブル316内に記憶される)に合致するかどうかを決定してもよい。 At 1112, the control circuitry may determine whether the eyelid movement is associated with the first object (eg, car object 204 of FIG. 2). In the example of FIG. 2, the control circuitry determines that the detected eyelid movement is stored in table 316 of FIG. ) may be determined.

1114において、検出された眼瞼運動が、第1のオブジェクト(例えば、図2の自動車オブジェクト204)に関する眼瞼運動識別子に合致することを決定することに応じて、制御回路網は、修正された詳細レベルを用いてそのようなオブジェクトを表示のために再発生させてもよい。例えば、制御回路網は、特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも高い分解能において、または特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも大きいサイズにおいて、そのようなオブジェクトを表示のために再発生させてもよい。 At 1114, in response to determining that the detected eyelid movement matches an eyelid movement identifier for the first object (e.g., car object 204 of FIG. 2), the control circuitry determines the modified level of detail. may be used to regenerate such objects for display. For example, the control circuitry may be initially presented at a higher resolution than initially presented, or in response to detecting a particular eyeblink pattern. Such objects may be regenerated for display at a larger size than the original.

1116において、制御回路網が、眼瞼運動が第1のオブジェクト(例えば、図2の自動車オブジェクト204)と関連付けられないことを決定する場合、制御回路網は、眼瞼運動が別のオブジェクト(例えば、図2の飛行機オブジェクト208)と関連付けられるかどうかを決定してもよい。図2の実施例では、制御回路網は、検出された眼瞼運動が、眼瞼運動識別子「飛行機の詳細を修正するために2回瞬目する」(例えば、図3のテーブル316内に記憶される)に合致するかどうかを決定してもよい。 At 1116, if the control circuitry determines that the eyelid movement is not associated with the first object (e.g., the car object 204 of FIG. 2), the control circuitry determines that the eyelid movement is associated with another object (e.g., the 2 airplane object 208). In the example of FIG. 2, the control circuitry determines that the detected eyelid movement is stored in table 316 of FIG. ) may be determined.

1118において、検出された眼瞼運動が、第2のオブジェクト(例えば、図2の飛行機オブジェクト208)に関する眼瞼運動識別子に合致することを決定することに応じて、制御回路網は、修正された詳細レベルを用いてそのようなオブジェクトを表示のために再発生させてもよい。例えば、制御回路網は、特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも高い分解能において、または特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも大きいサイズにおいて、オブジェクトを表示のために再発生させてもよい。したがって、ユーザは、自身の眼瞼を作動させることによって、選択的に自身の注視または焦点をXR環境内で偏移させ得る。 At 1118, in response to determining that the detected eyelid movement matches the eyelid movement identifier for the second object (e.g., airplane object 208 of FIG. 2), the control circuitry determines the modified level of detail. may be used to regenerate such objects for display. For example, the control circuitry may be initially presented at a higher resolution than initially presented, or in response to detecting a particular eyeblink pattern. The object may be regenerated for display at a larger size than the one displayed. Thus, a user may selectively shift his gaze or focus within the XR environment by actuating his eyelids.

図12は、本開示のいくつかの実施形態による、XR環境内のオブジェクトに対してアクションを実施するための詳細な例証的プロセスのフローチャートである。例えば、プロセス1200は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1200の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図13のプロセス1300、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。 FIG. 12 is a flowchart of a detailed illustrative process for performing actions on objects in an XR environment, according to some embodiments of the present disclosure. For example, process 1200 includes computer-executable instructions that may be implemented on network device 800 and/or server 900 and/or devices 920, 925, 930, such as to distribute control of an extended reality environment among multiple devices. network device 800 (e.g., via control circuitry 804), and/or control circuitry of server 900, and/or devices 920, 925, 930, as instructed by one or more programs of It may also be performed by control circuitry. Additionally, one or more steps of process 1200 may be performed in any other process or embodiment (e.g., process 1000 of FIG. 10, process 1100 of FIG. 11, process 1300 of FIG. 13, process 1400 of FIG. 14, It may be incorporated into or combined with one or more steps of process 1500) of FIG. 15.

1202において、I/O回路網(例えば、頭部搭載型ディスプレイ302のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。 At 1202, I/O circuitry (e.g., I/O circuitry of head-mounted display 302) receives a user selection to enter an XR environment (e.g., a VR, AR, or MR environment). Good too. Such user selections may be received via input (eg, voice commands or touch screen).

1204において、制御回路網(例えば、図8の制御回路網804および/または図3の頭部搭載型ディスプレイ302の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図3の書籍オブジェクト304)を含む、XR環境を表示のために(例えば、図3の頭部搭載型デバイス302を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図3の書籍オブジェクト304、ランプオブジェクト310、机312、椅子314)を発生させてもよい。 At 1204, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 302 of FIG. 3) selects an object (e.g., An XR environment may be generated for display (eg, via head-mounted device 302 of FIG. 3), including the book object 304 of FIG. 3). In some embodiments, the control circuitry may generate multiple objects (eg, book object 304, lamp object 310, desk 312, chair 314 in FIG. 3).

1206において、制御回路網は、オブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブル(例えば、図3のテーブル316)をメモリ(例えば、図8の記憶装置808および/または図3の頭部搭載型ディスプレイ302の記憶装置)内に記憶する、またはそれにメモリ内でアクセスしてもよい。 At 1206, the control circuitry stores a table (e.g., table 316 of FIG. 3) of eyelid movement identifiers and corresponding actions that can be performed on the object in memory (e.g., storage 808 of FIG. 8 and/or The information may be stored in or accessed in memory (storage of head-mounted display 302).

1208において、制御回路網は、センサ(例えば、カメラ)からの受信された入力に基づいて、ユーザの眼瞼運動(例えば、眼瞼運動の量、瞬目パターン、眼瞼レベル等)を検出してもよい。いくつかの実施形態では、そのような眼瞼運動は、ユーザのそのような不随意の瞬目をコマンドとして解釈することを回避するために、不随意の瞬目から区別されてもよい。例えば、本システムは、眼が所定の時間量(例えば、0.5秒)未満にわたって閉じられたままである瞬目パターンを無視してもよい。 At 1208, the control circuitry may detect eyelid movement of the user (e.g., amount of eyelid movement, blink pattern, eyelid level, etc.) based on received input from a sensor (e.g., a camera). . In some embodiments, such eyelid movements may be distinguished from involuntary blinks to avoid interpreting such involuntary blinks of the user as commands. For example, the system may ignore blink patterns in which the eyes remain closed for less than a predetermined amount of time (eg, 0.5 seconds).

1210において、制御回路網は、検出された眼瞼運動が、テーブル(例えば、図3のテーブル316)内の識別子のうちのいずれかに合致するかどうかを決定する。いくつかの実施形態では、制御回路網は、センサ出力を分析し、そのような出力と記憶される識別子(例えば、所定の数の瞬目、瞬目パターン、眼瞼運動の量、眼瞼レベル等)を比較してもよい。いくつかの実施形態では、記憶される識別子は、音声コマンドまたは他の入力と組み合わせた眼瞼運動を含んでもよい。 At 1210, control circuitry determines whether the detected eyelid movement matches any of the identifiers in a table (eg, table 316 of FIG. 3). In some embodiments, the control circuitry analyzes the sensor output and associates such output with stored identifiers (e.g., predetermined number of blinks, blink pattern, amount of eyelid movement, eyelid level, etc.) You can also compare. In some embodiments, stored identifiers may include eyelid movements in combination with voice commands or other inputs.

1212において、制御回路網は、検出された眼瞼運動が、記憶される眼瞼運動識別子に合致するかどうかを決定する。いくつかの実施形態では、制御回路網は、合致スコアを算出してもよく、算出された合致スコアが所定の閾値を超えるとき、検出された眼瞼運動と記憶される眼瞼運動識別子との間に合致が存在することを決定してもよい。 At 1212, control circuitry determines whether the detected eyelid movement matches a stored eyelid movement identifier. In some embodiments, the control circuitry may calculate a match score, and when the calculated match score exceeds a predetermined threshold, the control circuitry may calculate a match between the detected eyelid movement and the stored eyelid movement identifier. It may be determined that a match exists.

1214において、検出された眼瞼運動が記憶される眼瞼運動識別子に合致することを決定することに応じて、制御回路網は、合致された眼瞼運動に対応するアクションに基づいて、XR環境の更新されたバージョンを表示のために発生させる。図3の実施例では、XR環境300の更新されたバージョンは、(例えば、書籍オブジェクト304が閉じられている、図3の上側部分に図示される環境300と比較して、図3の下側部分に図示される環境300において)めくられたページを有する、書籍オブジェクト304を含む。 At 1214, in response to determining that the detected eyelid movement matches the stored eyelid movement identifier, the control circuitry updates the XR environment based on the action corresponding to the matched eyelid movement. generated version for display. In the example of FIG. 3, the updated version of the XR environment 300 is shown in the lower part of FIG. (In the environment 300 illustrated in the section) includes a book object 304 with a turned page.

図13は、本開示のいくつかの実施形態による、インジケータがXR環境内のオブジェクトの近傍にある間に音声コマンドを受信するための詳細な例証的プロセスのフローチャートである。例えば、プロセス1300は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1300の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図12のプロセス1200、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。 FIG. 13 is a flowchart of a detailed illustrative process for receiving voice commands while an indicator is in proximity to an object in an XR environment, according to some embodiments of the present disclosure. For example, process 1300 includes computer-executable instructions that may be implemented on network device 800 and/or server 900 and/or devices 920, 925, 930, such as to distribute control of an extended reality environment among multiple devices. network device 800 (e.g., via control circuitry 804), and/or control circuitry of server 900, and/or devices 920, 925, 930, as instructed by one or more programs of It may also be performed by control circuitry. Additionally, one or more steps of process 1300 may be performed in any other process or embodiment (e.g., process 1000 of FIG. 10, process 1100 of FIG. 11, process 1200 of FIG. 12, process 1400 of FIG. 14, It may be incorporated into or combined with one or more steps of process 1500) of FIG. 15.

1302において、I/O回路網(例えば、図4A-4Bの頭部搭載型ディスプレイ402のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。 At 1302, I/O circuitry (e.g., the I/O circuitry of head-mounted display 402 of FIGS. 4A-4B) connects a user to an XR environment (e.g., a VR, AR, or MR environment). A selection may be received. Such user selections may be received via input (eg, voice commands or touch screen).

1304において、制御回路網(例えば、図8の制御回路網804および/または図4Aの頭部搭載型ディスプレイ402の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図4のオブジェクト408)を含む、XR環境を表示のために(例えば、図4の頭部搭載型デバイス402を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図4のオブジェクト408および410)を発生させてもよい。 At 1304, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 402 of FIG. 4A) selects an object (e.g., An XR environment may be generated for display (eg, via head-mounted device 402 of FIG. 4), including object 408 of FIG. 4). In some embodiments, control circuitry may generate multiple objects (eg, objects 408 and 410 in FIG. 4).

1306において、制御回路網は、ユーザの注視を検出してもよい。例えば、センサ(例えば、カメラ)が、ユーザの網膜移動を追跡するために使用されてもよく、ユーザのそのような網膜移動は、XR環境(例えば、図4A-4Bの環境400)の表示にプロットされてもよい。 At 1306, control circuitry may detect gaze of the user. For example, a sensor (e.g., a camera) may be used to track a user's retinal movement, and such retinal movement of the user is reflected in a display of an XR environment (e.g., environment 400 of FIGS. 4A-4B). May be plotted.

1308において、制御回路網は、ユーザの注視が、オブジェクト(例えば、図4A-4Bのオブジェクト410)を含む、XR環境の第2の部分に偏移しているかどうかを決定してもよい。いくつかの実施形態では、ユーザの注視は、いかなるオブジェクトも含まれない表示の第1の部分から偏移している場合がある。代替として、表示のそのような第1の部分は、オブジェクト(例えば、図4A-4Bのオブジェクト408)を含んでもよい。 At 1308, control circuitry may determine whether the user's gaze has shifted to a second portion of the XR environment that includes an object (eg, object 410 of FIGS. 4A-4B). In some embodiments, the user's gaze may be shifted away from a first portion of the display that does not include any objects. Alternatively, such a first portion of the display may include an object (eg, object 408 of FIGS. 4A-4B).

1310において、ユーザの注視が、オブジェクト(例えば、図4A-4Bのオブジェクト410)を含む、XR環境のそのような第2の部分に偏移していることを決定することに応答して、制御回路網は、注視における偏移のインジケータ(例えば、図4のインジケータ406)を表示のために発生させてもよい。例えば、そのようなインジケータは、ユーザが、本システムが自身の注視を正確に追跡していることを確認することを可能にする。 At 1310, in response to determining that the user's gaze is shifted to such a second portion of the XR environment that includes an object (e.g., object 410 of FIGS. 4A-4B), the control The circuitry may generate an indicator of the shift in gaze (eg, indicator 406 of FIG. 4) for display. For example, such an indicator allows the user to confirm that the system is accurately tracking his or her gaze.

1312において、ユーザの注視が、XR環境のそのような第2の部分に偏移していないことを決定することに応答して、制御回路網は、ユーザの注視が偏移していない、または表示の異なる部分に偏移していることを決定してもよく、ユーザの注視が指向される表示の部分において、インジケータ(例えば、図4のインジケータ406)を表示のために発生させてもよい。 At 1312, in response to determining that the user's gaze is not shifted to such a second portion of the XR environment, the control circuitry determines whether the user's gaze is not shifted or It may be determined that the display is shifted to a different portion of the display, and an indicator (e.g., indicator 406 of FIG. 4) may be generated for display in the portion of the display where the user's gaze is directed. .

1314において、I/O回路網(例えば、図4A-4Bの頭部搭載型ディスプレイ402のI/O回路網)が、インジケータ(例えば、図4のインジケータ406)が着目オブジェクト(例えば、図4Aのオブジェクト408または図4Bのオブジェクト410)の近傍にある間に音声コマンドを受信してもよい。いくつかの実施形態では、制御回路網(例えば、図8の制御回路網804および/または図4Aの頭部搭載型ディスプレイ402の制御回路網)は、音声コマンドがそのような着目オブジェクトに関連するかどうかを決定してもよい。図4Aの実施例では、制御回路網は、「「The Dark Knight」を再生する」の音声コマンドからキーワードを抽出し、抽出されたキーワードとそれにユーザの注視が指向されるオブジェクト(例えば、オブジェクト408)と関連付けられるメタデータを比較し、音声コマンドが着目オブジェクトに関連するかどうかを決定してもよい。 At 1314, the I/O circuitry (e.g., the I/O circuitry of head-mounted display 402 of FIGS. 4A-4B) indicates that the indicator (e.g., indicator 406 of FIG. 4) is connected to the object of interest (e.g., The voice command may be received while in the vicinity of object 408 (or object 410 of FIG. 4B). In some embodiments, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 402 of FIG. 4A) determines whether the voice command is associated with such object of interest. You may decide whether or not. In the example of FIG. 4A, the control circuitry extracts a keyword from the voice command "Play 'The Dark Knight'" and associates the extracted keyword with the object to which the user's gaze is directed (e.g., object 408). ) may be compared to determine whether the voice command is associated with the object of interest.

1316において、制御回路網は、オブジェクトに関連する音声コマンドに対応するアクションを実行してもよい。例えば、図4Bの実施例では、オブジェクト410、すなわち、メディアコンテンツアイテム「American Psycho」に関する識別子が、インジケータ406の近傍にあり、音声コマンド405(「「American Psycho」を再生する」)を受信することに応じて、ユーザへのそのようなメディアアセットの提示が、開始されてもよい。 At 1316, the control circuitry may perform an action corresponding to the voice command associated with the object. For example, in the example of FIG. 4B, object 410, an identifier for the media content item "American Psycho," is proximate indicator 406 to receive voice command 405 ("play "American Psycho"). In response, presentation of such media assets to the user may be initiated.

図14は、本開示のいくつかの実施形態による、XR環境内のインジケータの不透明度を変動させるための詳細な例証的プロセスのフローチャートである。プロセス1400またはその任意のステップが、図8-9に示されるデバイスのうちのいずれかの上で実施される、またはそれによって提供され得ることに留意されたい。例えば、プロセス1400は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1400の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図12のプロセス1200、図13のプロセス1300、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。 FIG. 14 is a flowchart of a detailed illustrative process for varying the opacity of an indicator in an XR environment, according to some embodiments of the present disclosure. Note that process 1400 or any steps thereof may be performed on or provided by any of the devices shown in FIGS. 8-9. For example, process 1400 includes computer-executable instructions that may be implemented on network device 800 and/or server 900 and/or devices 920, 925, 930, such as to distribute control of an extended reality environment among multiple devices. network device 800 (e.g., via control circuitry 804), and/or control circuitry of server 900, and/or devices 920, 925, 930, as instructed by one or more programs of It may also be performed by control circuitry. Additionally, one or more steps of process 1400 may be performed in any other process or embodiment (e.g., process 1000 of FIG. 10, process 1100 of FIG. 11, process 1200 of FIG. 12, process 1300 of FIG. 13, It may be incorporated into or combined with one or more steps of process 1500) of FIG. 15.

1402において、I/O回路網(例えば、図5の頭部搭載型ディスプレイ502のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。 At 1402, I/O circuitry (e.g., I/O circuitry of head-mounted display 502 of FIG. 5) receives a user selection to enter an XR environment (e.g., a VR, AR, or MR environment). You may receive it. Such user selections may be received via input (eg, voice commands or touch screen).

1404において、制御回路網(例えば、図8の制御回路網804および/または図5の頭部搭載型ディスプレイ502の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境を表示のために(例えば、図5の頭部搭載型デバイス502を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図5のオブジェクト508および510)を発生させてもよい。 At 1404, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 502 of FIG. 5) selects an object (e.g., An XR environment may be generated for display (eg, via head-mounted device 502 of FIG. 5), including object 508 of FIG. 5). In some embodiments, control circuitry may generate multiple objects (eg, objects 508 and 510 in FIG. 5).

1406において、制御回路網は、ユーザの注視を検出してもよい。例えば、センサ(例えば、カメラ)が、ユーザの網膜移動を追跡するために使用されてもよく、ユーザのそのような網膜移動は、XR環境(例えば、図5の環境500)の表示にプロットされてもよい。制御回路網は、ユーザの注視が、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境の一部に指向されているかどうかを決定してもよい。 At 1406, control circuitry may detect gaze of the user. For example, a sensor (e.g., a camera) may be used to track retinal movement of a user, and such retinal movement of the user may be plotted on a display of an XR environment (e.g., environment 500 of FIG. 5). You can. Control circuitry may determine whether the user's gaze is directed at a portion of the XR environment that includes an object (eg, object 508 in FIG. 5).

1410において、ユーザの注視が、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境の一部に指向されていないことを決定することに応じて、制御回路網は、ユーザの注視が、異なるオブジェクト(例えば、図5のオブジェクト510)を含む、XR環境の異なる部分に指向されているかどうかを決定してもよい。 At 1410, in response to determining that the user's gaze is not directed to a portion of the XR environment that includes an object (e.g., object 508 of FIG. 5), the control circuitry causes the user's gaze to It may be determined whether the object is directed to different parts of the XR environment, including different objects (eg, object 510 in FIG. 5).

1410において、ユーザの注視が、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境の一部に指向されていることを決定することに応じて、制御回路網は、XR環境のそのような部分の近傍において、不透明度ベースのインジケータ(例えば、図6のインジケータ506)をXR環境内での表示のために発生させてもよい。他方、ユーザの注視が、異なるオブジェクト(例えば、図5のオブジェクト510)を含む、XR環境の異なる部分に指向されていることを決定することに応じて、制御回路網は、XR環境のそのような異なる部分の近傍において、不透明度ベースのインジケータ(例えば、図6のインジケータ506)をXR環境内での表示のために発生させてもよい。 At 1410, in response to determining that the user's gaze is directed to a portion of the XR environment that includes an object (e.g., object 508 of FIG. 5), the control circuitry directs such a portion of the XR environment. An opacity-based indicator (eg, indicator 506 of FIG. 6) may be generated for display within the XR environment in the vicinity of the portion. On the other hand, in response to determining that the user's gaze is directed to different parts of the XR environment, including different objects (e.g., object 510 of FIG. 5), the control circuitry may Opacity-based indicators (eg, indicator 506 of FIG. 6) may be generated in the vicinity of different portions for display within the XR environment.

1412において、制御回路網は、着目オブジェクト(例えば、図5におけるオブジェクト508)の境界を決定してもよい。例えば、制御回路網は、オブジェクトの境界を決定するために、エッジ検出技法および/またはピクセル比較を実施してもよい。 At 1412, control circuitry may determine the boundaries of the object of interest (eg, object 508 in FIG. 5). For example, the control circuitry may implement edge detection techniques and/or pixel comparisons to determine the boundaries of the object.

1414において、制御回路網は、オブジェクトの識別された境界に基づいて、少なくとも1つの不透明度ベースのインジケータ(例えば、図5のインジケータ506)の不透明度を変動させる。いくつかの実施形態では、着目オブジェクトの境界に重複するインジケータの不透明度は、変動される。例えば、着目オブジェクトの境界に重複するインジケータの不透明度は、着目オブジェクトを不明瞭にすることを回避するために、減少されてもよい(図6)、またはユーザの注視が着目オブジェクトに指向されていることを強調するために、増加されてもよい(図5)。 At 1414, control circuitry varies the opacity of at least one opacity-based indicator (eg, indicator 506 of FIG. 5) based on the identified boundary of the object. In some embodiments, the opacity of the indicator that overlaps the boundary of the object of interest is varied. For example, the opacity of an indicator that overlaps the boundary of the object of interest may be reduced to avoid obscuring the object of interest (Figure 6), or when the user's gaze is directed toward the object of interest. (Figure 5).

図15は、本開示のいくつかの実施形態による、XR環境内でアイテムに関連する付加的情報を提示するための詳細な例証的プロセスのフローチャートである。プロセス1500またはその任意のステップが、図8-9に示されるデバイスのうちのいずれかの上で実施される、またはそれによって提供され得ることに留意されたい。例えば、プロセス1500は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1500の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図12のプロセス1200、図13のプロセス1300、図14のプロセス1400)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。 FIG. 15 is a flowchart of a detailed illustrative process for presenting additional information related to an item within an XR environment, according to some embodiments of the present disclosure. Note that process 1500, or any steps thereof, may be performed on or provided by any of the devices shown in FIGS. 8-9. For example, process 1500 includes computer-executable instructions that may be implemented on network device 800 and/or server 900 and/or devices 920, 925, 930, such as to distribute control of an extended reality environment among multiple devices. network device 800 (e.g., via control circuitry 804), and/or control circuitry of server 900, and/or devices 920, 925, 930, as instructed by one or more programs of It may also be performed by control circuitry. Additionally, one or more steps of process 1500 may be performed in any other process or embodiment (e.g., process 1000 of FIG. 10, process 1100 of FIG. 11, process 1200 of FIG. 12, process 1300 of FIG. 13, It may be incorporated into or combined with one or more steps of process 1400) of FIG. 14.

1502において、I/O回路網(例えば、図7の頭部搭載型ディスプレイ702のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。 At 1502, I/O circuitry (e.g., I/O circuitry of head-mounted display 702 of FIG. 7) receives a user selection to enter an XR environment (e.g., a VR, AR, or MR environment). You may receive it. Such user selections may be received via input (eg, voice commands or touch screen).

1504において、制御回路網(例えば、図8の制御回路網804および/または図7の頭部搭載型ディスプレイ702の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図7のオブジェクト708)を含む、XR環境を表示のために(例えば、図7の頭部搭載型デバイス702を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図7のオブジェクト702、704、708)を発生させてもよい。 At 1504, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 702 of FIG. 7) selects an object (e.g., An XR environment may be generated for display (eg, via head-mounted device 702 of FIG. 7), including object 708 of FIG. 7). In some embodiments, control circuitry may generate multiple objects (eg, objects 702, 704, 708 in FIG. 7).

1506において、制御回路網(例えば、図8の制御回路網804および/または図7の頭部搭載型ディスプレイ702の制御回路網)が、(例えば、センサを使用して)ユーザの眼運動を検出してもよい。 At 1506, control circuitry (e.g., control circuitry 804 of FIG. 8 and/or control circuitry of head-mounted display 702 of FIG. 7) detects eye movements of the user (e.g., using sensors). You may.

1508において、制御回路網は、オブジェクトが少なくとも所定の期間にわたってユーザの視野内にあるかどうかを決定してもよい。いくつかの実施形態では、制御回路網は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、VR環境内の視野の位置を表す座標を含んでもよい。制御回路網は、頭部搭載型ディスプレイ702によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。ある実施形態では、制御回路網は、加えて、ユーザの注視が視野内のオブジェクトに指向されているかどうかを検出してもよい。 At 1508, the control circuitry may determine whether the object is within the user's field of view for at least a predetermined period of time. In some embodiments, the control circuitry may generate a data structure related to the field of view that includes an object identifier associated with a virtual object within the field of view, and such data structure includes a position of the field of view within the VR environment. It may also include coordinates representing. Control circuitry may determine the current field of view and identify objects within the user's field of view based on data structures and/or images captured by head-mounted display 702. In some embodiments, the control circuitry may additionally detect whether the user's gaze is directed at an object within the field of view.

1510において、制御回路網は、オブジェクトが少なくとも所定の期間(例えば、5秒)にわたって視野内にあることを決定することに応答して、制御回路網は、オブジェクト(例えば、図7のオブジェクト708)に関連する1つまたはそれを上回るアイテム(例えば、図7のアイテム714)をXR環境内での表示のために発生させる。いくつかの実施形態では、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定する際、制御回路網は、オブジェクトが、XRセッションの間の連続的(または非連続的)期間にわたってユーザの視野内に留まるかどうかを決定してもよい。 At 1510, in response to determining that the object is within view for at least a predetermined period of time (e.g., 5 seconds), the control circuitry causes the control circuitry to detect the object (e.g., object 708 of FIG. 7). One or more items (eg, item 714 of FIG. 7) related to the XR environment are generated for display within the XR environment. In some embodiments, in determining whether the object is within the field of view for at least the predetermined period of time, the control circuitry determines whether the object is within the user's field of view for continuous (or non-continuous) periods during the XR session. You may also decide whether to stay within the field of view.

上記に議論されるプロセスは、限定ではなく、例証的であることを意図している。当業者は、本明細書に議論されるプロセスのステップが、省略され、修正され、組み合わせられ、および/または再配列され得、任意の付加的ステップが、本発明の範囲から逸脱することなく、実施され得ることを理解するであろう。より一般的には、上記の開示は、限定ではなく、例示的であることを意味する。続く請求項のみが、本発明が含む内容に関する境界を設定することを意味する。さらに、任意の1つの実施形態に説明される特徴および限定が、本明細書の任意の他の実施形態に適用され得、1つの実施形態に関するフローチャートまたは実施例が、好適な様式で任意の他の実施形態と組み合わせられる、異なる順序で行われる、または並行して行われ得ることに留意されたい。加えて、本明細書に説明されるシステムおよび方法は、リアルタイムで実施され得る。また、上記に説明されるシステムおよび/または方法が、他のシステムおよび/または方法に適用される、またはそれに従って使用され得ることに留意されたい。
本明細書は、限定ではないが、以下を含む、実施形態を開示する。
1.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させるステップと、
第1のセンサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出するステップであって、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれる、ステップと、
注視偏移を検出することに応答して、注視における偏移のインジケータをエクステンデッドリアリティ環境内での表示のために発生させるステップと、
第2のセンサを使用することによって、インジケータがオブジェクトの近傍にある間に音声コマンドを検出するステップと、
音声コマンドを検出することに応答して、音声コマンドに対応するアクションを実行するステップと、
を含む、方法。
2.双方向性メディアガイドが、表示上に提供され、アクションは、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、項目1に記載の方法。
3.注視は、眼の網膜移動に基づいて検出され、本方法はさらに、
網膜移動を表示上のインジケータの移動に変換するステップを含む、項目1または2に記載の方法。
4.網膜移動のレートが、所定の値を超えるかどうかを決定するステップと、
網膜移動のレートが、所定の値を超えることを決定することに応答して、網膜移動を表示上のインジケータの移動に変換するとき、網膜移動を正規化するステップと、
をさらに含む、項目3に記載の方法。
5.音声コマンドは、メディアアセットの識別と、アクションを実行するためのコマンドとを含む、項目2-4のいずれかに記載の方法。
6.音声コマンドは、表示上に新しいメディアアセットを提示するための命令を含む、項目2-5のいずれかに記載の方法。
7.オブジェクトは、エンティティと関連付けられ、音声コマンドは、エンティティに関連するコンテンツを読み出すための命令を備える、項目2-6のいずれかに記載の方法。
8.インジケータがオブジェクトの近傍にある間に音声コマンドを検出するステップは、注視が少なくとも所定の閾値期間にわたってオブジェクトに指向されていることを決定するステップを含む、項目1-7のいずれかに記載の方法。
9.インジケータがオブジェクトの近傍にあることは、インジケータがオブジェクトに重複することを含む、項目1-8のいずれかに記載の方法。
10.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目1-9のいずれかに記載の方法。
11.エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、
第1のセンサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出し、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれ、
注視偏移を検出することに応答して、注視における偏移のインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、
第2のセンサを使用することによって、インジケータがオブジェクトの近傍にある間に音声コマンドを検出し、
音声コマンドを検出することに応答して、音声コマンドに対応するアクションを実行する、
ように構成される、制御回路網と、
を備える、システム。
12.双方向性メディアガイドが、表示上に提供され、アクションは、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、項目11に記載のシステム。
13.制御回路網はさらに、
眼の網膜移動に基づいて、注視を検出し、
網膜移動を表示上のインジケータの移動に変換する、
ように構成される、項目11または12に記載のシステム。
14.制御回路網はさらに、
網膜移動のレートが、所定の値を超えるかどうかを決定し、
網膜移動のレートが、所定の値を超えることを決定することに応答して、網膜移動を表示上のインジケータの移動に変換するとき、網膜移動を正規化する、
ように構成される、項目13に記載のシステム。
15.音声コマンドは、メディアアセットの識別と、アクションを実行するためのコマンドとを含む、項目12-14のいずれかに記載のシステム。
16.音声コマンドは、表示上に新しいメディアアセットを提示するための命令を含む、項目12-15のいずれかに記載のシステム。
17.オブジェクトは、エンティティと関連付けられ、音声コマンドは、エンティティに関連するコンテンツを読み出すための命令を備える、項目12-16のいずれかに記載のシステム。
18.制御回路網はさらに、インジケータがオブジェクトの近傍にある間に音声コマンドを検出する際、注視が少なくとも所定の閾値期間にわたってオブジェクトに指向されていることを決定するように構成される、項目11-17のいずれかに記載のシステム。
19.インジケータがオブジェクトの近傍にあることは、インジケータがオブジェクトに重複することを含む、項目11-18のいずれかに記載のシステム。
20.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目11-19のいずれかに記載のシステム。
21.エクステンデッドリアリティ環境相互作用のための方法であって、
第1のオブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させるステップと、
1つまたはそれを上回るセンサから入力を受信するステップと、
受信された入力に基づいて、視野内の第1のオブジェクトを識別するステップと、
受信された入力に基づいて、眼瞼運動を検出するステップと、
眼瞼運動を検出することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップと、
を含む、方法。
22.エクステンデッドリアリティ環境は、複数のオブジェクトを備え、複数のオブジェクトは、第1のオブジェクトと、第2のオブジェクトとを含み、
識別するステップはさらに、視野内の第2のオブジェクトを識別するステップを含み、
修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップは、検出された眼瞼運動が第1のオブジェクトと関連付けられることを決定することに応答して実施される、
項目21に記載の方法。
23.検出された眼瞼運動が第2のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第2のオブジェクトを表示のために再発生させるステップをさらに含む、項目22に記載の方法。
24.第1のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの一方にあり、第2のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの他方にある、項目22または23に記載の方法。
25.修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップは、より高い分解能においてオブジェクトを提示するステップを含む、項目21-24のいずれかに記載の方法。
26.1つまたはそれを上回る検出された眼瞼運動に基づいて、識別されたオブジェクトに対して1つまたはそれを上回るアクションを実施するステップをさらに含む、項目21-25のいずれかに記載の方法。
27.ユーザに対する複数のオブジェクトの個別の仮想距離を算出するステップをさらに含み、
視野内の第1のオブジェクトを識別するステップは、第1のオブジェクトが個別の仮想距離のユーザに最近接する仮想距離にあることを決定するステップを含む、
項目22-26のいずれかに記載の方法。
28.眼瞼運動を検出するステップは、眼瞼の運動の量を決定するステップを含む、項目21-27のいずれかに記載の方法。
29.眼瞼運動を検出するステップは、1つまたはそれを上回る眼瞼レベルを決定するステップを含む、項目21-28のいずれかに記載の方法。
30.第1のオブジェクトがユーザの視野内に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出するステップと、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させるステップと、
をさらに含む、項目21-29のいずれかに記載の方法。
31.エクステンデッドリアリティ環境相互作用のためのシステムであって、
第1のオブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させる、
ように構成される、制御回路網と、
1つまたはそれを上回るセンサから入力を受信する、
ように構成される、入力/出力(I/O)回路網と、
を備え、
制御回路網はさらに、
受信された入力に基づいて、視野内の第1のオブジェクトを識別し、
受信された入力に基づいて、眼瞼運動を検出し、
眼瞼運動を検出することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させる、
ように構成される、システム。
32.エクステンデッドリアリティ環境は、複数のオブジェクトを備え、複数のオブジェクトは、第1のオブジェクトと、第2のオブジェクトとを含み、
制御回路網はさらに、視野内の第2のオブジェクトを識別するように構成され、
制御回路網はさらに、検出された眼瞼運動が第1のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップを実施するように構成される、
項目31に記載のシステム。
33.制御回路網はさらに、
検出された眼瞼運動が第2のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第2のオブジェクトを表示のために再発生させるように構成される、項目32に記載のシステム。
34.第1のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの一方にあり、第2のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの他方にある、項目31または33に記載のシステム。
35.制御回路網はさらに、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させる際、より高い分解能においてオブジェクトを提示するように構成される、項目31-34のいずれかに記載のシステム。
36.制御回路網はさらに、
1つまたはそれを上回る検出された眼瞼運動に基づいて、識別されたオブジェクトに対して1つまたはそれを上回るアクションを実施するように構成される、項目31-35のいずれかに記載のシステム。
37.制御回路網はさらに、
ユーザに対する複数のオブジェクトの個別の仮想距離を算出し、
視野内の第1のオブジェクトを識別する際、第1のオブジェクトが個別の仮想距離のユーザに最近接する仮想距離にあることを決定する、
ように構成される、項目32-36のいずれかに記載のシステム。
38.制御回路網はさらに、眼瞼運動を検出する際、眼瞼の運動の量を決定するように構成される、項目31-37のいずれかに記載のシステム。
39.制御回路網はさらに、眼瞼運動を検出する際、1つまたはそれを上回る眼瞼レベルを決定するように構成される、項目31-38のいずれかに記載のシステム。
40.制御回路網はさらに、
第1のオブジェクトが視野内に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出し、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させる、
ように構成される、項目31-38のいずれかに記載のシステム。
41.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させるステップと、
エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブルをメモリ内に記憶するステップと、
センサを使用することによって、眼瞼運動を検出するステップと、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させるステップと、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、合致された眼瞼運動に対応するアクションに基づいて、エクステンデッドリアリティ環境の更新されたバージョンを表示のために発生させるステップと、
を含む、方法。
42.ユーザの注視がオブジェクトに指向されていることを検出することによって、エクステンデッドリアリティ環境内の複数のオブジェクトからオブジェクトを選択するステップをさらに含む、項目41に記載の方法。
43.ユーザの注視が指向されるオブジェクトに対して実施可能な眼瞼運動識別子のサブセットを表示のために発生させるステップをさらに含む、項目42に記載の方法。
44.複数のアクションのアクションは、オブジェクトを操作することに対応する、項目41-43のいずれかに記載の方法。
45.アクションは、オブジェクトの外観を改変することに対応する、項目41-44のいずれかに記載の方法。
46.ユーザは、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、ユーザプロファイルと関連付けられる、項目41-45のいずれかに記載の方法。
47.ユーザの注視がオブジェクト上に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出するステップと、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させるステップであって、オブジェクトの更新されたバージョンは、改変された外観を有する、ステップと、
をさらに含む、項目45-46に記載の方法。
48.オブジェクトに対して実施可能なアクションは、オブジェクトのタイプに基づいて変動する、項目41-47のいずれかに記載の方法。
49.眼瞼運動を検出するステップは、
眼瞼が所定の期間にわたって閉じられたままであるかどうかを決定するステップを含む、項目41-48のいずれかに記載の方法。
50.検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させるステップは、眼瞼が所定の期間にわたって閉じられたままであることを決定することに応答して、実施される、項目49に記載の方法。
51.エクステンデッドリアリティ環境相互作用のためのシステムであって、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させる、
ように構成される、制御回路網と、
エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブルを記憶する、
ように構成される、メモリと、
を備え、
制御回路網はさらに、
センサを使用することによって、眼瞼運動を検出し、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させ、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、合致された眼瞼運動に対応するアクションに基づいて、エクステンデッドリアリティ環境の更新されたバージョンを表示のために発生させる、
ように構成される、システム。
52.制御回路網はさらに、
ユーザの注視がオブジェクトに指向されていることを検出することによって、エクステンデッドリアリティ環境内の複数のオブジェクトからオブジェクトを選択するように構成される、項目51に記載のシステム。
53.制御回路網はさらに、
ユーザの注視が指向されるオブジェクトに対して実施可能な眼瞼運動識別子のサブセットを表示のために発生させるように構成される、項目51または52に記載のシステム。
54.複数のアクションのアクションは、オブジェクトを操作することに対応する、項目51-53のいずれかに記載のシステム。
55.アクションは、オブジェクトの外観を改変することに対応する、項目51-54のいずれかに記載のシステム。
56.ユーザは、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、ユーザプロファイルと関連付けられる、項目51-55のいずれかに記載のシステム。
57.制御回路網はさらに、
ユーザの注視がオブジェクト上に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出し、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させ、第1のオブジェクトの更新されたバージョンは、改変された外観を有する、
ように構成される、項目55または56に記載のシステム。
58.オブジェクトに対して実施可能なアクションは、オブジェクトのタイプに基づいて変動する、項目51-57のいずれかに記載のシステム。
59.制御回路網はさらに、眼瞼運動を検出する際、
眼瞼が所定の期間にわたって閉じられたままであるかどうかを決定するように構成される、項目51-58のいずれかに記載のシステム。
60.制御回路網はさらに、眼瞼が所定の期間にわたって閉じられたままであることを決定することに応答して、検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させるステップを実施するように構成される、項目59に記載のシステム。
61.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させるステップと、
センサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分に指向されていることを検出するステップであって、オブジェクトは、エクステンデッドリアリティ環境の第1の部分内に含まれる、ステップと、
エクステンデッドリアリティ環境の第1の部分の近傍において、複数の不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させるステップと、
オブジェクトの境界を識別するステップと、
オブジェクトの識別された境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させるステップと、
を含む、方法。
62.複数の不透明度ベースのインジケータのうちの少なくとも1つがオブジェクトの境界に重複するかどうかを決定するステップをさらに含み、
オブジェクトの境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させるステップは、境界に重複する複数の不透明度ベースのインジケータのうちの少なくとも1つの個別の不透明度を変動させるステップを含む、項目61に記載の方法。
63.複数の不透明度ベースのインジケータは、オブジェクトに向かって指向される矢印である、項目61または62に記載の方法。
64.センサを使用することによって、注視がエクステンデッドリアリティ環境の第2の部分に偏移しているかどうかを検出するステップと、
注視が第2の部分に偏移していることを決定することに応答して、複数の不透明度ベースのインジケータを表示の第2の部分の近傍にオーバーレイさせるステップと、
をさらに含む、項目61-63のいずれかに記載の方法。
65.個別の不透明度は、オブジェクトからの距離に基づいて変動される、項目61-64のいずれかに記載の方法。
66.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が減少するにつれて増加する、項目65に記載の方法。
67.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が増加するにつれて増加する、項目65または66に記載の方法。
68.双方向性メディアガイドが、表示上に提供され、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連するアクションが、少なくとも部分的に、検出された注視に基づいて受信される、項目61-67のいずれかに記載の方法。
69.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目61-68のいずれかに記載の方法。
70.表示は、エクステンデッドリアリティ頭部搭載型デバイスの使用を伴わずに提示される、項目61-69のいずれかに記載の方法。
71.エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、
センサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分に指向されていることを検出し、オブジェクトは、エクステンデッドリアリティ環境の第1の部分内に含まれ、
エクステンデッドリアリティ環境の第1の部分の近傍において、複数の不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、
オブジェクトの境界を識別し、
オブジェクトの識別された境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させる、
ように構成される、制御回路網と、
を備える、システム。
72.制御回路網はさらに、
複数の不透明度ベースのインジケータのうちの少なくとも1つがオブジェクトの境界に重複するかどうかを決定し、
オブジェクトの境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させる際、境界に重複する複数の不透明度ベースのインジケータのうちの少なくとも1つの個別の不透明度を変動させる、
ように構成される、項目71に記載のシステム。
73.複数の不透明度ベースのインジケータは、オブジェクトに向かって指向される矢印である、項目71または72に記載のシステム。
74.制御回路網はさらに、
センサを使用することによって、注視がエクステンデッドリアリティ環境の第2の部分に偏移しているかどうかを検出し、
注視が第2の部分に偏移していることを決定することに応答して、複数の不透明度ベースのインジケータを表示の第2の部分の近傍にオーバーレイさせる、
ように構成される、項目71-73のいずれかに記載のシステム。
75.個別の不透明度は、オブジェクトからの距離に基づいて変動される、項目71-74のいずれかに記載のシステム。
76.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が減少するにつれて増加する、項目75に記載のシステム。
77.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が増加するにつれて増加する、項目75または76に記載のシステム。
78.双方向性メディアガイドが、表示上に提供され、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連するアクションが、少なくとも部分的に、検出された注視に基づいて受信される、項目71-77のいずれかに記載のシステム。
79.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目71-78のいずれかに記載のシステム。
80.表示は、エクステンデッドリアリティ頭部搭載型デバイスの使用を伴わずに提示される、項目71-79のいずれかに記載のシステム。
81.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させるステップと、
眼運動を検出するステップと、
検出に基づいて、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定するステップと、
オブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させるステップと、
を含む、方法。
82.オブジェクトに関連する1つまたはそれを上回るアイテムは、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備える、項目81に記載の方法。
83.オブジェクトが第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から少なくとも第2の所定の期間が経過していることを決定するステップと、
オブジェクトが視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から第2の所定の期間が経過していることを決定することに応答して、1つまたはそれを上回るアイテムの表示を停止するステップと、
をさらに含む、項目81または82に記載の方法。
84.眼運動を検出するステップは、眼瞼運動を監視するステップを含む、項目81-83のいずれかに記載の方法。
85.オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させるステップは、オブジェクトが、少なくとも所定の期間にわたって視野内および注視内にあることを決定することに応答して実施される、項目81-84のいずれかに記載の方法。
86.検出に基づいて、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって連続的にオブジェクト上にあることを決定するステップを含む、項目81-85のいずれかに記載の方法。
87.検出に基づいて、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって非連続的にオブジェクト上にあることを決定するステップを含む、項目81-86のいずれかに記載の方法。
88.新しいオブジェクトが少なくとも所定の時間にわたって視野内にあることを決定するステップと、
新しいオブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させ続けるステップと、
をさらに含む、項目81-87のいずれかに記載の方法。
89.所定の期間に関する時間量の修正を可能にするステップをさらに含む、項目81-88のいずれかに記載の方法。
90.エクステンデッドリアリティ環境は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目81-89のいずれかに記載の方法。
91.エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、
眼運動を検出し、
検出に基づいて、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定し、
オブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる、
ように構成される、制御回路網と、
を備える、システム。
92.オブジェクトに関連する1つまたはそれを上回るアイテムは、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備える、項目91に記載のシステム。
93.制御回路網はさらに、
オブジェクトが第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から少なくとも第2の所定の期間が経過していることを決定し、
オブジェクトが視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から第2の所定の期間が経過していることを決定することに応答して、1つまたはそれを上回るアイテムの表示を停止する、
ように構成される、項目91または92に記載のシステム。
94.制御回路網はさらに、眼運動を検出する際、眼瞼運動を監視するように構成される、項目91-93のいずれかに記載のシステム。
95.制御回路網はさらに、オブジェクトが、少なくとも所定の期間にわたって視野内および注視内にあることを決定することに応答して、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させるように構成される、項目91-94のいずれかに記載のシステム。
96.制御回路網はさらに、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定する際、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって連続的にオブジェクト上にあることを決定するように構成される、項目91-95のいずれかに記載のシステム。
97.制御回路網はさらに、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定する際、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって非連続的にオブジェクト上にあることを決定するように構成される、項目91-96のいずれかに記載のシステム。
98.制御回路網はさらに、
新しいオブジェクトが少なくとも所定の時間にわたって視野内にあることを決定し、
新しいオブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させ続ける、
ように構成される、項目91-97のいずれかに記載のシステム。
99.制御回路網はさらに、
所定の期間に関する時間量の修正を可能にするように構成される、項目91-98のいずれかに記載のシステム。
100.エクステンデッドリアリティ環境は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目91-99のいずれかに記載のシステム。
The processes discussed above are intended to be illustrative rather than limiting. Those skilled in the art will appreciate that steps of the processes discussed herein may be omitted, modified, combined, and/or rearranged and any additional steps may be added without departing from the scope of the invention. It will be understood that it can be implemented. More generally, the above disclosure is meant to be illustrative rather than restrictive. The following claims are meant to set forth the boundaries as to what this invention includes. Furthermore, the features and limitations described in any one embodiment may apply to any other embodiments herein, and the flowcharts or examples related to one embodiment may be used for any other embodiment in a suitable manner. It should be noted that the embodiments may be combined, performed in a different order, or performed in parallel. Additionally, the systems and methods described herein may be implemented in real time. It is also noted that the systems and/or methods described above may be applied to or used in accordance with other systems and/or methods.
This specification discloses embodiments including, but not limited to:
1. A method for extended reality environment interaction, the method comprising:
generating for display an extended reality environment comprising objects;
detecting, by using the first sensor, that the gaze is shifted from the first portion of the extended reality environment to the second portion of the extended reality environment, the object being in the extended reality environment; a step excluded from the first part of the extended reality environment and included within the second part of the extended reality environment;
responsive to detecting the gaze shift, generating an indicator of the shift in gaze for display within the extended reality environment;
detecting a voice command while the indicator is in the vicinity of the object by using a second sensor;
in response to detecting the voice command, performing an action corresponding to the voice command;
including methods.
2. 2. The method of item 1, wherein an interactive media guide is provided on the display and the actions are instructions related to media assets accessible through the interactive media guide.
3. The gaze is detected based on the retinal movement of the eye, and the method further includes:
3. A method according to item 1 or 2, comprising converting retinal movement into movement of an indicator on a display.
4. determining whether the rate of retinal movement exceeds a predetermined value;
in response to determining that the rate of retinal movement exceeds a predetermined value, normalizing the retinal movement when converting the retinal movement into movement of the indicator on the display;
The method according to item 3, further comprising:
5. 5. The method of any of items 2-4, wherein the voice commands include identification of a media asset and a command to perform an action.
6. 6. The method of any of items 2-5, wherein the voice commands include instructions to present a new media asset on the display.
7. 7. The method of any of items 2-6, wherein the object is associated with an entity and the voice command comprises an instruction to retrieve content associated with the entity.
8. 8. The method of any of items 1-7, wherein detecting the voice command while the indicator is in the vicinity of the object comprises determining that gaze is directed at the object for at least a predetermined threshold period of time. .
9. 9. The method of any of items 1-8, wherein the indicator being in proximity to the object includes the indicator overlapping the object.
10. The method of any of items 1-9, wherein the display is presented via an extended reality head-mounted device.
11. A system for extended reality environment interaction, the system comprising:
display and
generating an extended reality environment for display, comprising an object;
By using the first sensor, it is detected that the gaze is shifted from the first part of the extended reality environment to the second part of the extended reality environment, and the object is moved to the first part of the extended reality environment. included within a second part of the extended reality environment;
responsive to detecting the gaze shift, generating an indicator of the shift in gaze for display within the extended reality environment;
detecting a voice command while the indicator is in the vicinity of the object by using a second sensor;
in response to detecting the voice command, performing an action corresponding to the voice command;
a control circuitry configured to;
A system equipped with.
12. 12. The system of item 11, wherein an interactive media guide is provided on the display and the actions are instructions related to media assets accessible through the interactive media guide.
13. The control circuitry further includes:
Detects gaze based on retinal movement of the eye;
converting retinal movement into movement of an indicator on the display,
The system according to item 11 or 12, configured to.
14. The control circuitry further includes:
determining whether the rate of retinal movement exceeds a predetermined value;
in response to determining that the rate of retinal movement exceeds a predetermined value, normalizing the retinal movement when converting the retinal movement to movement of the indicator on the display;
The system according to item 13, configured to:
15. 15. The system of any of items 12-14, wherein the voice commands include identification of a media asset and a command to perform an action.
16. 16. The system of any of items 12-15, wherein the voice commands include instructions for presenting new media assets on the display.
17. 17. The system of any of items 12-16, wherein the object is associated with an entity and the voice command comprises an instruction to retrieve content associated with the entity.
18. Items 11-17, wherein the control circuitry is further configured to determine that gaze is directed at the object for at least a predetermined threshold period of time upon detecting a voice command while the indicator is in the vicinity of the object. The system described in any of the above.
19. 19. The system of any of items 11-18, wherein the indicator being in proximity to the object includes the indicator overlapping the object.
20. The system of any of items 11-19, wherein the display is presented via an extended reality head-mounted device.
21. A method for extended reality environment interaction, the method comprising:
generating an extended reality environment for display, including the first object;
receiving input from one or more sensors;
identifying a first object within the field of view based on the received input;
detecting eyelid movement based on the received input;
in response to detecting eyelid movement, regenerating the first object for display using a modified level of detail;
including methods.
22. The extended reality environment includes a plurality of objects, the plurality of objects including a first object and a second object;
The step of identifying further includes identifying a second object within the field of view;
Regenerating the first object for display using the modified level of detail is performed in response to determining that the detected eyelid movement is associated with the first object.
The method described in item 21.
23. Item 22, further comprising regenerating the second object for display using a modified level of detail in response to determining that the detected eyelid movement is associated with the second object. The method described in.
24. Item 22, wherein the first object is in one of the foreground or background in the field of view within the extended reality environment, and the second object is in the other of the foreground or background in the field of view in the extended reality environment. or the method described in 23.
25. 25. A method according to any of items 21-24, wherein regenerating the first object for display using a modified level of detail comprises presenting the object at a higher resolution.
26. The method of any of items 21-25, further comprising performing one or more actions on the identified object based on the one or more detected eyelid movements. .
27. further comprising calculating separate virtual distances of the plurality of objects with respect to the user;
identifying the first object within the field of view includes determining that the first object is at the closest virtual distance to the user of the respective virtual distance;
The method described in any of items 22-26.
28. 28. The method of any of items 21-27, wherein detecting eyelid movement comprises determining the amount of eyelid movement.
29. 29. The method of any of items 21-28, wherein detecting eyelid movement comprises determining one or more eyelid levels.
30. detecting that the user is navigating from the first location to a new location within the extended reality environment while the first object remains within the user's field of view;
generating an updated version of the first object for display based on the user's perspective at the new location;
The method according to any of items 21-29, further comprising:
31. A system for extended reality environment interaction, the system comprising:
generating an extended reality environment for display, including the first object;
a control circuitry configured to;
receiving input from one or more sensors;
an input/output (I/O) circuitry configured to;
Equipped with
The control circuitry further includes:
identifying a first object within the field of view based on the received input;
detecting eyelid movement based on the received input;
in response to detecting the eyelid movement, regenerating the first object for display using the modified level of detail;
The system is configured as follows.
32. The extended reality environment includes a plurality of objects, the plurality of objects including a first object and a second object;
The control circuitry is further configured to identify a second object within the field of view;
The control circuitry further regenerates the first object for display using the modified level of detail in response to determining that the detected eyelid movement is associated with the first object. configured to carry out the
The system described in item 31.
33. The control circuitry further includes:
An item configured to regenerate the second object for display using a modified level of detail in response to determining that the detected eyelid movement is associated with the second object. The system according to 32.
34. Item 31, wherein the first object is in one of the foreground or background in the field of view within the extended reality environment, and the second object is in the other of the foreground or background in the field of view in the extended reality environment. or the system described in 33.
35. The control circuitry is further configured in any of items 31-34 to present the object at a higher resolution when regenerating the first object for display using the modified level of detail. The system described.
36. The control circuitry further includes:
36. The system of any of items 31-35, configured to perform one or more actions on the identified object based on the one or more detected eyelid movements.
37. The control circuitry further includes:
calculate the individual virtual distances of multiple objects to the user,
in identifying a first object within the field of view, determining that the first object is at the closest virtual distance to the user of the respective virtual distance;
37. The system of any of items 32-36, configured to.
38. 38. The system of any of items 31-37, wherein the control circuitry is further configured, upon detecting eyelid movement, to determine the amount of eyelid movement.
39. 39. The system of any of items 31-38, wherein the control circuitry is further configured to determine one or more eyelid levels upon detecting eyelid movement.
40. The control circuitry further includes:
detecting that the user is navigating from a first location to a new location within the extended reality environment while the first object remains within the field of view;
generating an updated version of the first object for display based on the user's perspective at the new location;
39. The system of any of items 31-38, configured to:
41. A method for extended reality environment interaction, the method comprising:
generating an extended reality environment for display, including the object;
storing in memory a table of eyelid movement identifiers and corresponding actions that can be performed on objects in the extended reality environment;
detecting eyelid movement by using a sensor;
matching the detected eyelid movement to one of the stored eyelid movement identifiers;
In response to matching the detected eyelid movement to one of the stored eyelid movement identifiers, displaying an updated version of the extended reality environment based on an action corresponding to the matched eyelid movement. and the steps to cause it to occur.
including methods.
42. 42. The method of item 41, further comprising selecting an object from a plurality of objects in the extended reality environment by detecting that the user's gaze is directed at the object.
43. 43. The method of item 42, further comprising generating for display a subset of operable eyelid movement identifiers for objects toward which the user's gaze is directed.
44. The method according to any of items 41-43, wherein the actions of the plurality of actions correspond to manipulating an object.
45. 45. The method of any of items 41-44, wherein the action corresponds to modifying the appearance of the object.
46. 46. The method of any of items 41-45, wherein the user is associated with a user profile that defines a relationship between eyelid movement identifiers and corresponding actions that can be performed on objects in the extended reality environment.
47. detecting that the user is navigating from a first location to a new location within the extended reality environment while the user's gaze remains on the object;
generating an updated version of the first object for display based on the user's perspective at the new location, the updated version of the object having an altered appearance;
The method of items 45-46, further comprising:
48. 48. The method of any of items 41-47, wherein the actions that can be performed on the object vary based on the type of the object.
49. The step of detecting eyelid movement is
49. A method according to any of items 41-48, comprising determining whether the eyelids remain closed for a predetermined period of time.
50. Matching the detected eyelid movement to one of the stored eyelid movement identifiers is performed in response to determining that the eyelid remains closed for a predetermined period of time, item 49 The method described in.
51. A system for extended reality environment interaction, the system comprising:
generating an extended reality environment for display, including objects;
a control circuitry configured to;
storing a table of eyelid movement identifiers and corresponding actions that can be performed on objects in the extended reality environment;
A memory configured as,
Equipped with
The control circuitry further includes:
By using sensors, detect eyelid movement,
matching the detected eyelid movement to one of the stored eyelid movement identifiers;
In response to matching the detected eyelid movement to one of the stored eyelid movement identifiers, displaying an updated version of the extended reality environment based on an action corresponding to the matched eyelid movement. cause to occur,
The system is configured as follows.
52. The control circuitry further includes:
52. The system of item 51, configured to select an object from a plurality of objects in the extended reality environment by detecting that the user's gaze is directed toward the object.
53. The control circuitry further includes:
53. The system of item 51 or 52, configured to generate for display a subset of operable eyelid movement identifiers for objects at which the user's gaze is directed.
54. The system according to any of items 51-53, wherein the action of the plurality of actions corresponds to manipulating an object.
55. 55. The system of any of items 51-54, wherein the action corresponds to modifying the appearance of the object.
56. 56. The system of any of items 51-55, wherein a user is associated with a user profile that defines a relationship between eyelid movement identifiers and corresponding actions that can be performed on objects in the extended reality environment.
57. The control circuitry further includes:
detecting that the user is navigating from a first location to a new location within the extended reality environment while the user's gaze remains on the object;
generating an updated version of the first object for display based on the user's perspective at the new location, the updated version of the first object having an altered appearance;
57. The system according to item 55 or 56, configured to.
58. 58. The system of any of items 51-57, wherein the actions that can be performed on an object vary based on the type of object.
59. The control circuitry further includes: in detecting eyelid movement;
59. The system according to any of items 51-58, configured to determine whether the eyelids remain closed for a predetermined period of time.
60. The control circuitry further performs the step of matching the detected eyelid movement to one of the stored eyelid movement identifiers in response to determining that the eyelids remain closed for a predetermined period of time. 60. The system of item 59, configured to.
61. A method for extended reality environment interaction, the method comprising:
generating for display an extended reality environment comprising objects;
detecting, by using a sensor, that gaze is directed to a first portion of the extended reality environment, the object being contained within the first portion of the extended reality environment;
generating a plurality of opacity-based indicators for display within the extended reality environment in the vicinity of the first portion of the extended reality environment;
identifying boundaries of the object;
varying the opacity of at least one of the plurality of opacity-based indicators based on the identified boundaries of the object;
including methods.
62. further comprising determining whether at least one of the plurality of opacity-based indicators overlaps a boundary of the object;
Varying the opacity of at least one of the plurality of opacity-based indicators based on a boundary of the object includes varying the individual opacity of at least one of the plurality of opacity-based indicators that overlap the boundary. 62. The method of item 61, comprising the step of varying.
63. 63. The method of item 61 or 62, wherein the plurality of opacity-based indicators are arrows directed towards the object.
64. detecting whether gaze is shifted to a second portion of the extended reality environment by using a sensor;
in response to determining that gaze is shifted to the second portion, overlaying a plurality of opacity-based indicators proximate the second portion of the display;
64. The method of any of items 61-63, further comprising:
65. 65. A method according to any of items 61-64, wherein the individual opacity is varied based on distance from the object.
66. 66. The method of item 65, wherein the individual opacity of the indicators increases as the distance between the individual indicators and the object decreases.
67. 67. A method according to item 65 or 66, wherein the individual opacity of the indicators increases as the distance between the individual indicators and the object increases.
68. Item 61, wherein an interactive media guide is provided on the display and an action related to a media asset accessible via the interactive media guide is received based, at least in part, on the detected gaze. -67. The method according to any one of 67.
69. 69. The method of any of items 61-68, wherein the display is presented via an extended reality head-mounted device.
70. 69. The method of any of items 61-69, wherein the display is presented without the use of an extended reality head-mounted device.
71. A system for extended reality environment interaction, the system comprising:
display and
generating an extended reality environment for display, comprising an object;
detecting, by using a sensor, that gaze is directed to a first portion of the extended reality environment, and the object is contained within the first portion of the extended reality environment;
generating a plurality of opacity-based indicators for display within the extended reality environment in the vicinity of the first portion of the extended reality environment;
identify the boundaries of the object,
varying the opacity of at least one of the plurality of opacity-based indicators based on the identified boundary of the object;
a control circuitry configured to;
A system equipped with.
72. The control circuitry further includes:
determining whether at least one of the plurality of opacity-based indicators overlaps a boundary of the object;
varying the opacity of at least one of the plurality of opacity-based indicators based on a boundary of the object, varying the individual opacity of at least one of the plurality of opacity-based indicators that overlap the boundary; let,
72. The system according to item 71, configured to:
73. 73. The system of item 71 or 72, wherein the plurality of opacity-based indicators are arrows directed towards the object.
74. The control circuitry further includes:
detecting whether the gaze is shifted to a second portion of the extended reality environment by using a sensor;
in response to determining that gaze is shifted to the second portion, overlaying a plurality of opacity-based indicators in the vicinity of the second portion of the display;
The system according to any of items 71-73, configured to.
75. 75. The system of any of items 71-74, wherein the individual opacity is varied based on distance from the object.
76. 76. The system of item 75, wherein the individual opacity of the indicators increases as the distance between the individual indicators and the object decreases.
77. 77. The system of item 75 or 76, wherein the individual opacity of the indicators increases as the distance between the individual indicators and the object increases.
78. Item 71, wherein an interactive media guide is provided on the display and an action related to a media asset accessible via the interactive media guide is received based at least in part on the detected gaze. - The system according to any one of 77.
79. 79. The system of any of items 71-78, wherein the display is presented via an extended reality head-mounted device.
80. 79. The system of any of items 71-79, wherein the display is presented without the use of an extended reality head-mounted device.
81. A method for extended reality environment interaction, the method comprising:
generating an extended reality environment for display, including the object;
detecting eye movements;
determining whether the object is within the field of view for at least a predetermined period of time based on the detection;
Responsive to determining that the object is within the field of view for at least a predetermined period of time, generating one or more items related to the object for display within the extended reality environment;
including methods.
82. 82. The method of item 81, wherein the one or more items associated with the object comprise textual information, images, video, or any combination thereof.
83. determining that at least a second predetermined period of time has elapsed since the beginning of the display of the one or more items without the object being within the field of view for the first predetermined period of time;
the one or more items in response to determining that a second predetermined period of time has elapsed from the beginning of display of the one or more items without the object being within the field of view; a step of stopping display of the
83. The method according to item 81 or 82, further comprising:
84. 84. The method of any of items 81-83, wherein detecting eye movement comprises monitoring eyelid movement.
85. The step of generating one or more items related to the object for display within the extended reality environment is responsive to determining that the object is within the field of view and within the gaze for at least a predetermined period of time. The method according to any of items 81-84, which is carried out by
86. Determining whether the object is within the field of view for a predetermined period of time based on the detection includes determining that the field of view is continuously over the object for a predetermined period of time during the extended reality session. The method described in any of items 81-85.
87. Determining whether the object is within the field of view for a predetermined period of time based on the detection includes determining that the field of view is discontinuously over the object for a predetermined period of time during the extended reality session. , the method according to any of items 81-86.
88. determining that the new object is in view for at least a predetermined amount of time;
in response to determining that the new object is in view for at least a predetermined period of time, generating one or more items related to the new object for display within the extended reality environment; continuing to generate one or more items related to for display within the extended reality environment;
88. The method of any of items 81-87, further comprising:
89. 89. A method according to any of items 81-88, further comprising enabling modification of the amount of time for the predetermined time period.
90. 89. The method of any of items 81-89, wherein the extended reality environment is presented via an extended reality head-mounted device.
91. A system for extended reality environment interaction, the system comprising:
display and
generating an extended reality environment for display, including objects;
detect eye movements,
based on the detection, determining whether the object is within the field of view for at least a predetermined period of time;
in response to determining that the object is within the field of view for at least a predetermined period of time, generating one or more items related to the object for display within the extended reality environment;
a control circuitry configured to;
A system equipped with.
92. 92. The system of item 91, wherein the one or more items associated with the object comprise textual information, images, videos, or any combination thereof.
93. The control circuitry further includes:
determining that at least a second predetermined period of time has elapsed since the beginning of the display of the one or more items without the object being within the field of view for the first predetermined period of time;
the one or more items in response to determining that a second predetermined period of time has elapsed from the beginning of display of the one or more items without the object being within the field of view; stop displaying,
93. The system according to item 91 or 92, configured to.
94. 94. The system of any of items 91-93, wherein the control circuitry is further configured to monitor eyelid movement when detecting eye movement.
95. The control circuitry is further configured to display one or more items associated with the object within the extended reality environment in response to determining that the object is within the field of view and within the gaze for at least a predetermined period of time. 95. The system of any of items 91-94, configured to generate for.
96. The control circuitry is further configured, in determining whether the object is within the field of view for a predetermined period of time, to determine that the field of view is continuously over the object for a predetermined period of time during the extended reality session. The system according to any of items 91-95.
97. The control circuitry is further configured, in determining whether the object is within the field of view for a predetermined period of time, to determine that the field of view is discontinuously over the object for a predetermined period of time during the extended reality session. The system according to any one of items 91-96, wherein
98. The control circuitry further includes:
determining that the new object is in view for at least a predetermined amount of time;
in response to determining that the new object is in view for at least a predetermined period of time, generating one or more items related to the new object for display within the extended reality environment; causing one or more items associated with to occur for display within the extended reality environment;
The system according to any of items 91-97, configured to.
99. The control circuitry further includes:
99. A system according to any of items 91-98, configured to allow modification of an amount of time for a given time period.
100. 99. The system of any of items 91-99, wherein the extended reality environment is presented via an extended reality head-mounted device.

Claims (15)

エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを備えるエクステンデッドリアリティ環境を表示のために発生させることと、
第1のセンサを使用することによって、注視が前記エクステンデッドリアリティ環境の第1の部分から前記エクステンデッドリアリティ環境の第2の部分に偏移していることを検出することであって、前記オブジェクトは、前記エクステンデッドリアリティ環境の第1の部分から除外され、前記エクステンデッドリアリティ環境の第2の部分内に含まれる、ことと、
前記注視偏移を検出することに応答して、前記注視における偏移のインジケータを前記エクステンデッドリアリティ環境内での表示のために発生させることと、
第2のセンサを使用することによって、前記インジケータが前記オブジェクトの近傍にある間に音声コマンドを検出することと、
前記音声コマンドを検出することに応答して、前記音声コマンドに対応するアクションを実行することと
を含む、方法。
A method for extended reality environment interaction, the method comprising:
generating an extended reality environment with objects for display;
detecting, by using a first sensor, that gaze is shifted from a first portion of the extended reality environment to a second portion of the extended reality environment, the object comprising: excluded from a first portion of the extended reality environment and included within a second portion of the extended reality environment;
responsive to detecting the gaze shift, generating an indicator of the shift in gaze for display within the extended reality environment;
detecting a voice command while the indicator is in the vicinity of the object by using a second sensor;
and performing an action corresponding to the voice command in response to detecting the voice command.
双方向性メディアガイドが、前記表示上に提供され、前記アクションは、前記双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、請求項1に記載の方法。 2. The method of claim 1, wherein an interactive media guide is provided on the display and the actions are instructions related to media assets accessible via the interactive media guide. 前記注視は、眼の網膜移動に基づいて検出され、前記方法はさらに、
前記網膜移動を前記表示上の前記インジケータの移動に変換することを含む、請求項1または2に記載の方法。
The gaze is detected based on retinal movement of the eye, and the method further comprises:
3. A method according to claim 1 or 2, comprising converting the retinal movement into a movement of the indicator on the display.
網膜移動のレートが、所定の値を超えるかどうかを決定することと、
前記網膜移動のレートが、前記所定の値を超えることを決定することに応答して、前記網膜移動を前記表示上の前記インジケータの移動に変換するとき、前記網膜移動を正規化することと
をさらに含む、請求項3に記載の方法。
determining whether the rate of retinal movement exceeds a predetermined value;
normalizing the retinal movement when converting the retinal movement into movement of the indicator on the display in response to determining that the rate of the retinal movement exceeds the predetermined value; 4. The method of claim 3, further comprising.
前記音声コマンドは、前記メディアアセットの識別と、前記アクションを実行するためのコマンドとを含む、請求項2-4のいずれかに記載の方法。 A method according to any of claims 2-4, wherein the voice command includes an identification of the media asset and a command to perform the action. 前記音声コマンドは、前記表示上に新しいメディアアセットを提示するための命令を含む、請求項2-5のいずれかに記載の方法。 6. A method according to any of claims 2-5, wherein the voice commands include instructions for presenting new media assets on the display. 前記オブジェクトは、エンティティと関連付けられ、前記音声コマンドは、前記エンティティに関連するコンテンツを読み出すための命令を備える、請求項2-6のいずれかに記載の方法。 7. A method according to any of claims 2-6, wherein the object is associated with an entity and the voice command comprises an instruction to retrieve content associated with the entity. 前記インジケータが前記オブジェクトの近傍にある間に前記音声コマンドを検出することは、前記注視が少なくとも所定の閾値期間にわたって前記オブジェクトに指向されていることを決定することを含む、請求項1-7のいずれかに記載の方法。 8. The method of claim 1-7, wherein detecting the voice command while the indicator is in the vicinity of the object comprises determining that the gaze is directed at the object for at least a predetermined threshold period of time. Any method described. 前記インジケータが前記オブジェクトの近傍にあることは、前記インジケータが前記オブジェクトに重複することを含む、請求項1-8のいずれかに記載の方法。 9. A method according to any of claims 1-8, wherein the indicator being in the vicinity of the object includes the indicator overlapping the object. 前記表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、請求項1-9のいずれかに記載の方法。 A method according to any preceding claim, wherein the display is presented via an extended reality head-mounted device. エクステンデッドリアリティ環境相互作用のためのシステムであって、前記システムは、請求項1-10のいずれかに記載の方法を実行するように構成される制御回路網を備える、システム。 A system for extended reality environment interaction, said system comprising control circuitry configured to carry out the method of any of claims 1-10. エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
制御回路網であって、
オブジェクトを備えるエクステンデッドリアリティ環境を表示のために発生させることと、
第1のセンサを使用することによって、注視が前記エクステンデッドリアリティ環境の第1の部分から前記エクステンデッドリアリティ環境の第2の部分に偏移していることを検出することであって、前記オブジェクトは、前記エクステンデッドリアリティ環境の第1の部分から除外され、前記エクステンデッドリアリティ環境の第2の部分内に含まれる、ことと、
前記注視偏移を検出することに応答して、前記注視における偏移のインジケータを前記エクステンデッドリアリティ環境内での表示のために発生させることと、
第2のセンサを使用することによって、前記インジケータが前記オブジェクトの近傍にある間に音声コマンドを検出することと、
前記音声コマンドを検出することに応答して、前記音声コマンドに対応するアクションを実行することと
を行うように構成される、制御回路網と
を備える、システム。
A system for extended reality environment interaction, the system comprising:
display and
A control circuitry network,
generating an extended reality environment with objects for display;
detecting, by using a first sensor, that gaze is shifted from a first portion of the extended reality environment to a second portion of the extended reality environment, the object comprising: excluded from a first portion of the extended reality environment and included within a second portion of the extended reality environment;
responsive to detecting the gaze shift, generating an indicator of the shift in gaze for display within the extended reality environment;
detecting a voice command while the indicator is in the vicinity of the object by using a second sensor;
and control circuitry configured to: perform an action corresponding to the voice command in response to detecting the voice command.
双方向性メディアガイドが、前記表示上に提供され、前記アクションは、前記双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、請求項12に記載のシステム。 13. The system of claim 12, wherein an interactive media guide is provided on the display and the actions are instructions related to media assets accessible via the interactive media guide. 前記制御回路網はさらに、
眼の網膜移動に基づいて、前記注視を検出することと、
前記網膜移動を前記表示上の前記インジケータの移動に変換することと
を行うように構成される、請求項12または13に記載のシステム。
The control circuitry further includes:
detecting the gaze based on retinal movement of the eye;
14. The system of claim 12 or 13, configured to convert the retinal movement into a movement of the indicator on the display.
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上にエンコードされる命令を有し、前記命令は、制御回路網によって実行されると、前記制御回路網に、請求項1-10のいずれかに記載の方法を実施させる、非一過性コンピュータ可読媒体。 a non-transitory computer-readable medium, the non-transitory computer-readable medium having instructions encoded thereon, the instructions, when executed by control circuitry, causing the control circuitry to , a non-transitory computer-readable medium for implementing the method of any of claims 1-10.
JP2023524125A 2020-10-20 2020-12-29 Eye movement-based extended reality environment interaction method and system Pending JP2023548795A (en)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US17/075,232 US11392198B2 (en) 2020-10-20 2020-10-20 Methods and systems of extended reality environment interaction based on eye motions
US17/075,222 US11320903B1 (en) 2020-10-20 2020-10-20 Methods and systems of extended reality environment interaction based on eye motions
US17/075,229 2020-10-20
US17/075,227 2020-10-20
US17/075,224 2020-10-20
US17/075,224 US11609629B2 (en) 2020-10-20 2020-10-20 Methods and systems of extended reality environment interaction based on eye motions
US17/075,222 2020-10-20
US17/075,229 US11281291B1 (en) 2020-10-20 2020-10-20 Methods and systems of extended reality environment interaction based on eye motions
US17/075,227 US11747896B2 (en) 2020-10-20 2020-10-20 Methods and systems of extended reality environment interaction based on eye motions
US17/075,232 2020-10-20
PCT/US2020/067335 WO2022086577A1 (en) 2020-10-20 2020-12-29 Methods and systems of extended reality environment interaction based on eye motions

Publications (2)

Publication Number Publication Date
JP2023548795A true JP2023548795A (en) 2023-11-21
JPWO2022086577A5 JPWO2022086577A5 (en) 2024-01-15

Family

ID=74236295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023524125A Pending JP2023548795A (en) 2020-10-20 2020-12-29 Eye movement-based extended reality environment interaction method and system

Country Status (6)

Country Link
EP (1) EP4232881A1 (en)
JP (1) JP2023548795A (en)
KR (1) KR20230088436A (en)
AU (1) AU2020473277A1 (en)
CA (1) CA3199085A1 (en)
WO (1) WO2022086577A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10248192B2 (en) * 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
US10186086B2 (en) * 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
US10586360B2 (en) * 2017-11-21 2020-03-10 International Business Machines Corporation Changing view order of augmented reality objects based on user gaze

Also Published As

Publication number Publication date
CA3199085A1 (en) 2022-04-28
WO2022086577A1 (en) 2022-04-28
AU2020473277A1 (en) 2023-06-08
EP4232881A1 (en) 2023-08-30
KR20230088436A (en) 2023-06-19

Similar Documents

Publication Publication Date Title
US11747896B2 (en) Methods and systems of extended reality environment interaction based on eye motions
US10222981B2 (en) Holographic keyboard display
JP7164630B2 (en) Dynamic Graphics Rendering Based on Predicted Saccade Landing Points
US11782506B2 (en) Methods and systems of extended reality environment interaction based on eye motions
CN109496331B (en) Context awareness for user interface menus
CN110785688B (en) Multi-modal task execution and text editing for wearable systems
US11281291B1 (en) Methods and systems of extended reality environment interaction based on eye motions
US20230305626A1 (en) Methods and systems of extended reality environment interaction based on eye motions
US11320903B1 (en) Methods and systems of extended reality environment interaction based on eye motions
US11615596B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP7389270B2 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
RU2749000C2 (en) Systems and methods for animated head of a character
US11579752B1 (en) Augmented reality placement for user feedback
Stebbins et al. Redirecting view rotation in immersive movies with washout filters
Flotyński et al. Extended Reality Environments
JP2023548795A (en) Eye movement-based extended reality environment interaction method and system
US20230381645A1 (en) Methods and systems to activate selective navigation or magnification of screen content
US20240033619A1 (en) Impaired player accessability with overlay logic providing haptic responses for in-game effects
US20240139635A1 (en) Methods and systems for assistive chat interactivity

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240104