CN116209505A - 用于与三维环境进行交互的设备、方法和图形用户界面 - Google Patents

用于与三维环境进行交互的设备、方法和图形用户界面 Download PDF

Info

Publication number
CN116209505A
CN116209505A CN202180065826.4A CN202180065826A CN116209505A CN 116209505 A CN116209505 A CN 116209505A CN 202180065826 A CN202180065826 A CN 202180065826A CN 116209505 A CN116209505 A CN 116209505A
Authority
CN
China
Prior art keywords
user
environment
user interface
view
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180065826.4A
Other languages
English (en)
Inventor
P·洛克尔
S·O·勒梅
W·A·索伦帝诺三世
G·耶基斯
N·W·亨德森
G·I·布彻
R·R·德林格
J·艾夫
A·C·戴伊
J·耶德
J·霍尼格
M·E·汉基
S·W·万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Priority to CN202310886588.4A priority Critical patent/CN116880694A/zh
Publication of CN116209505A publication Critical patent/CN116209505A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Digital Computer Display Output (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种计算机系统在至少部分地在第一用户和第二用户之间共享的三维环境的第一视图中的第一位置处以第一外观显示第一用户界面对象。当显示该第一用户界面对象时,该计算机系统检测由该第一用户进行的第一用户输入。响应于检测到该第一用户输入:根据确定该第二用户当前没有与该第一用户界面对象交互,该计算机系统执行第一操作;并且根据确定该第二用户当前正在与该第一用户界面对象交互,该计算机系统显示该第一用户界面对象不可用于交互的视觉指示,包括改变该第一用户界面对象的外观或位置,并且放弃执行该第一操作。

Description

用于与三维环境进行交互的设备、方法和图形用户界面
相关专利申请
本申请是2021年9月23日提交的美国专利申请17/483,730的延续,其要求2020年9月25日提交的美国临时专利申请63/083,816的优先权,这些专利申请中的每一篇申请均通过引用整体并入本文。
技术领域
本公开整体涉及具有显示生成部件和一个或多个输入设备的计算机系统,该计算机系统提供计算机生成的现实(CGR)体验,包括但不限于经由显示器提供虚拟现实和混合现实体验的电子设备。
背景技术
近年来,用于增强现实的计算机系统的发展显著增加。示例增强现实环境包括至少一些替换或增强物理世界的虚拟元素。用于计算机系统和其他电子计算设备的输入设备(诸如相机、控制器、操纵杆、触敏表面和触摸屏显示器)用于与虚拟/增强现实环境进行交互。示例性虚拟元素包括虚拟对象(包括数字图像、视频、文本、图标、控制元素(诸如按钮),以及其他图形)。
但用于与包括至少一些虚拟元素的环境(例如,应用程序、增强现实环境、混合现实环境和虚拟现实环境)进行交互的方法和界面麻烦、低效且受限。例如,提供用于执行与虚拟对象相关联的动作的不足反馈的系统、需要一系列输入来在增强现实环境中实现期望结果的系统,以及虚拟对象操纵复杂、繁琐且容易出错的系统,会给用户造成巨大的认知负担,并且减损虚拟/增强现实环境的体验感。此外,这些方法花费比所需时间更长的时间,从而浪费能量。这后一考虑在电池驱动的设备中是特别重要的。
发明内容
因此,需要具有改进的方法和界面的计算机系统来向用户提供计算机生成的体验,从而使得用户与计算机系统的交互对用户来说更高效且更直观。所公开的系统、方法和用户界面减少或消除了与用于计算机系统的用户界面相关联的上述缺陷和其他问题,这些计算机系统具有显示生成部件和一个或多个输入设备。此类系统、方法和界面任选地补充或替换用于向用户提供计算机生成的现实的体验的常规系统、方法和用户界面。此类方法和界面通过帮助用户理解所提供的输入与设备对这些输入的响应之间的联系,减少了来自用户的输入的数量、程度和/或性质,从而形成了更有效的人机界面。
根据一些实施方案,一种方法在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处执行。该方法包括:在三维环境的第一视图中显示第一用户界面对象,其中该三维环境至少部分地在第一用户和第二用户之间共享,其中第一用户界面对象在三维环境的第一视图中的第一位置处以第一组外观属性显示;当在三维环境的第一视图中的第一位置处以第一组外观属性显示第一用户界面对象时,检测到由第一用户提供的第一用户输入,其中第一用户输入指向第一用户界面对象。该方法还包括:响应于检测到指向第一用户界面对象的第一用户输入:根据确定第二用户当前没有与第一用户界面对象交互,根据第一用户输入相对于第一用户界面对象执行第一操作;并且根据确定第二用户当前正在与第一用户界面对象交互:显示第一用户界面对象不可用于与第一用户交互的视觉指示,其中显示视觉指示包括改变第一用户界面对象的外观或第一用户界面对象在三维环境的第一视图中的位置中的至少一者;以及放弃根据第一用户输入相对于第一用户界面对象执行第一操作。
根据一些实施方案,一种方法在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处执行,包括:当第一用户在第一物理环境中的第一定位处时,显示与关联于第一物理环境中的第一定位的第一视点相对应的三维环境的第一视图,其中三维环境的第一视图包括表示不同于第一物理环境的第二物理环境中的第一对象的第一用户界面对象,其中第一用户界面对象在三维环境中的相应位置以第一方式与第一对象在第二物理环境中的相应定位相对应;检测第一用户在第一物理环境中的移动和第一对象在第二物理环境中的移动中的至少一者;并且响应于检测到第一用户在第一物理环境中的移动和第一对象在第二物理环境中的移动中的至少一者:显示对应于第二视点的三维环境的第二视图;并且在三维环境的第二视图中显示第一用户界面对象。在三维环境的第二视图中显示第一用户界面对象包括:根据确定以第一方式对应于第一对象在第二物理环境中的相应定位的第一用户界面对象在三维环境中的相应位置距三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的距离大于阈值距离,在三维环境中的第二视图中的第一显示位置处显示第一用户界面对象,其中第一显示位置是第一用户界面对象在三维环境中的相应位置;并且根据确定以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象在三维环境中的相应位置距三维环境中与关联于三维环境的第二视图的第二试点相对应的相应位置的距离小于阈值距离,在三维环境的第二视图中的第二显示位置处显示第一用户界面对象,其中第二显示位置与第一用户界面对象在三维环境中的相应位置偏移。
根据一些实施方案,一种方法在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处执行,包括:以第一沉浸级别显示第一计算机生成的体验;当以第一沉浸级别显示第一计算机生成的体验时,接收对应于第一用户的生物计量数据;响应于接收对应于第一用户的生物计量数据:根据确定对应于第一用户的生物计量数据满足第一标准,以第二沉浸级别显示第一计算机生成的体验,其中以第二沉浸级别显示的第一计算机生成的体验比以第一沉浸级别显示的第一计算机生成的体验占据第一用户的视场的更大部分;并且根据确定对应于第一用户的生物计量数据不满足第一标准,继续以第一沉浸级别显示第一计算机生成的体验。
根据一些实施方案,一种方法在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处执行,包括:显示物理环境的第一视图,其中该物理环境的第一视图包括该物理环境的第一部分的第一表示;当显示物理环境的第一视图时,检测到对应于激活两种或多种类型的计算机生成的感官调整中的第一类型的计算机生成的感官调整的请求的第一用户输入;并且响应于检测到第一用户输入,显示物理环境的第二视图,其中物理环境的第二视图包括物理环境的第一部分的第二表示,其中物理环境的第一部分的第二表示具有根据第一类型的计算机生成的感官调整相对于物理环境的第一部分的第一表示来调整的第一显示属性;当显示物理环境的第二视图时,检测到对应于激活两种或多种类型的计算机生成的感官调整中的第二类型的计算机生成的感官调整的请求的第二用户输入,其中第二类型的计算机生成的感官调整不同于第一类型的计算机生成的感官调整;并且响应于检测到第二用户输入,显示物理环境的第三视图,其中物理环境的第三视图包括物理环境的第一部分的第三表示,其中物理环境的第一部分的第三表示具有第一显示属性和第二显示属性,该第一显示属性根据第一类型的计算机生成的感官调整相对于物理环境的第一部分的第一表示来调整,并且该第二显示属性根据第二类型的计算机生成的感官调整相对于物理环境的第二表示来调整。
根据一些实施方案,一种方法在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处执行,包括:显示三维环境的第一视图,其中该三维环境的第一视图包括物理环境的第一部分的第一表示;当显示包括物理环境的第一部分的第一表示的三维环境的第一视图时,检测到第一用户从物理环境的第一定位到第二定位的移动;并且响应于检测到第一用户从第一定位到第二定位的移动:根据确定到第二定位的移动满足第一标准,其中第一标准包括第二定位对应于与第一类型的锻炼相关联的定位以满足第一标准的第一要求,显示三维环境的第二视图,其中三维环境的第二视图包括对应于第一类型的锻炼的第一组虚拟内容,其中第一组虚拟内容替换包括第二定位的物理环境的第二部分的第二表示的至少一部分;并且根据确定到第二定位的移动满足不同于第一标准的第二标准,其中第二标准包括第二定位对应于与第二类型的锻炼相关联的定位以满足第二标准的第二要求,其中第二类型的锻炼不同于第一类型的锻炼,显示三维环境的第三视图,其中三维环境的第三视图包括对应于第二类型的锻炼的第二组虚拟内容,其中第二组虚拟内容不同于第一组虚拟内容,并且其中第二组虚拟内容替换包括第二定位的物理环境的第三部分的第三表示的至少一部分。
根据一些实施方案,计算机系统包括或通信于显示生成部件(例如,显示器、投影仪、头戴式显示器等)、一个或多个输入设备(例如,一个或多个相机、触敏表面、任选地用于检测与触敏表面的接触强度的一个或多个传感器)、任选地一个或多个触觉输出发生器、一个或多个处理器,以及存储一个或多个程序的存储器;一个或多个程序被配置为由一个或多个处理器执行,并且一个或多个程序包括用于执行或引起执行本文所述方法中的任一种方法的操作的指令。根据一些实施方案,一种非暂态计算机可读存储介质在其中存储有指令,这些指令在被具有显示生成部件、一个或多个输入设备(例如,一个或多个相机、触敏表面、用于检测与触敏表面的接触强度的任选的一个或多个传感器)以及任选的一个或多个触觉输出发生器的计算机系统执行时,使该设备执行本文所述方法中的任一种方法或使本文所述方法中的任一种方法的操作的执行。根据一些实施方案,具有显示生成部件、一个或多个输入设备(例如,一个或多个相机、触敏表面、用于检测与触敏表面的接触强度的任选的一个或多个传感器)、任选的一个或多个触觉输出发生器、存储器和用于执行存储在存储器中的一个或多个程序的一个或多个处理器的计算机系统上的图形用户界面包括在本文所述方法中的任一种方法中所显示的元素中的一个或多个元素,该一个或多个元素响应于输入而被更新,如本文所述方法中的任一种方法所描述的。根据一些实施方案,计算机系统包括:显示生成部件、一个或多个输入设备(例如,一个或多个相机、触敏表面、任选地用于检测与触敏表面的接触强度的一个或多个传感器)以及任选地一个或多个触觉输出发生器;以及用于执行或导致执行本文所述的方法中的任一种方法的操作的装置。根据一些实施方案,用于具有显示生成部件、一个或多个输入设备(例如,一个或多个相机、触敏表面、用于检测与触敏表面的接触强度的任选的一个或多个传感器)以及任选的一个或多个触觉输出发生器的计算机系统中的信息处理设备包括用于执行本文所述方法中的任一种方法的操作或导致本文所述方法中的任一种方法的操作被执行的装置。
因此,为具有显示生成部件的计算机系统提供了改进的方法和界面,以用于与三维环境进行交互并且有利于用户在与三维环境进行交互时使用计算机系统,从而提高此类计算机系统的有效性、效率,以及用户安全性和满意度。此类方法和界面可以补充或替换用于与三维环境进行交互并且有利于用户在与三维环境进行交互时使用计算机系统的常规方法。
需注意,上述各种实施方案可与本文所述任何其他实施方案相结合。本说明书中描述的特征和优点并不全面,具体来说,根据附图、说明书和权利要求书,许多另外的特征和优点对本领域的普通技术人员将是显而易见的。此外,应当指出,出于可读性和指导性目的,在原则上选择了本说明书中使用的语言,并且可以不这样选择以描绘或界定本发明的主题。
附图说明
为了更好地理解各种所述实施方案,应结合以下附图参考下面的具体实施方式,其中类似的附图标号在所有附图中指示对应的部分。
图1是示出根据一些实施方案的用于提供CGR体验的计算机系统的操作环境的框图。
图2是示出根据一些实施方案的计算机系统的被配置为管理和协调用户的CGR体验的控制器的框图。
图3是示出根据一些实施方案的计算机系统的被配置为向用户提供CGR体验的视觉组成部分的显示生成部件的框图。
图4是示出根据一些实施方案的计算机系统的被配置为捕获用户的手势输入的手部跟踪单元的框图。
图5是示出根据一些实施方案的计算机系统的被配置为捕获用户的注视输入的眼睛跟踪单元的框图。
图6是示出根据一些实施方案的闪光辅助的注视跟踪管线的流程图。
图7A-7C是示出根据一些实施方案的在两个或多个用户之间共享的计算机生成的三维环境中与用户界面对象交互的框图。
图7D-7F是示出根据一些实施方案的以不同方式显示相对于三维环境的当前显示视图的视点的物理对象的表示的方法的框图,其中视点根据用户在第一物理环境中的移动而移动,物理对象的表示根据物理对象在不同于第一物理环境的第二物理环境中的移动而移动,并且其中显示表示的方式的改变响应于物理对象的表示与满足预设标准的视点之间的空间关系而触发。
图7G-7J是示出根据一些实施方案的根据改变由计算机系统接收的用户的生物计量数据来改变显示计算机生成的体验的环境的沉浸级别的框图。
图7K-7M是示出根据一些实施方案的当显示包括物理环境的表示的环境的视图时聚合由计算机系统提供的多种类型的感官调整的效果的框图。
图7N-7P是示出根据一些实施方案的根据确定三维环境的视图中的物理环境的该部分对应于相应类型锻炼而在三维环境的视图中选择性地显示对应于该相应类型锻炼的虚拟内容的框图。
图8是根据一些实施方案的支持在两个或多个用户之间共享的计算机生成的三维环境中与用户界面对象交互的方法的流程图。
图9A-9B是根据一些实施方案的以不同方式显示相对于三维环境的当前显示视图的视点的物理对象的表示的方法的流程图,其中视点根据用户在第一物理环境中的移动而移动,物理对象的表示根据物理对象在不同于第一物理环境的第二物理环境中的移动而移动,并且其中显示表示的方式的改变响应于物理对象的表示与视点之间的空间关系满足预设标准而触发。
图10是根据一些实施方案的根据改变由计算机系统接收的用户的生物计量数据来改变显示计算机生成的体验的环境的沉浸级别的方法的流程图。
图11是根据一些实施方案的当显示包括物理环境的表示的环境的视图时聚合由计算机系统提供的多种类型的感官调整的效果的方法的流程图。
图12是根据一些实施方案的根据确定三维环境的视图中的物理环境的该部分对应于相应类型锻炼而在三维环境的视图中选择性地显示对应于该相应类型锻炼的虚拟内容的方法的流程图。
具体实施方式
根据一些实施方案,本公开涉及用于向用户提供计算机生成的现实(CGR)体验的用户界面。
本文所述的系统、方法和GUI以多种方式改进与虚拟/增强现实环境进行的用户界面交互。
在一些实施方案中,计算机系统允许多个用户有权访问在三维环境中显示的第一用户界面对象,但阻止用户在另一用户与第一用户界面对象交互时访问第一用户界面对象。当经由由第一用户使用的第一显示生成部件显示包括第一用户界面对象的三维环境的视图时,计算机系统检测指向第一用户界面对象的第一用户输入。响应于检测到第一用户输入,取决于第一用户界面对象在此时是否可用于与第一用户交互,计算机系统相对于第一用户界面对象执行对应于第一用户输入的第一操作,或者显示第一用户界面对象不可用于与第一用户交互的视觉指示并且放弃执行第一操作。计算机系统根据确定此时另一用户具有对第一用户界面对象的控制而提供视觉指示并且放弃执行第一操作(例如,另一用户正在与第一用户界面对象交互、正在以排除第一用户的同时交互的方式与第一用户界面对象交互、并且/或者在第一用户界面对象上锁定第一用户正试图执行的动作类型等)。在一些实施方案中,显示视觉指示包括在向第一用户示出的三维环境的视图中移动第一用户界面对象以保持第一用户界面对象与第一用户的手部的接近表示之间的预设距离。在一些实施方案中,显示视觉指示包括在向第一用户示出的三维环境的视图中改变第一用户界面对象的视觉外观。在一些实施方案中,当第一用户界面对象被控制用户释放给第一用户(例如,通过投掷手势、丢掷手势等)时,计算机系统旋转第一用户界面对象使得第一用户界面对象以相对于向第一用户示出的三维环境的当前显示视图的视点的预设取向显示。在一些实施方案中,计算机系统通过在第一用户的部分的表示处或附近的位置处(例如,在第一用户的手部的表示中、在用户面部的虚拟位置的手臂可达范围内等)显示第一用户界面对象的表示来提供对第一用户界面对象的控制访问。响应于第一用户与第一用户界面对象交互的尝试,在经由由第一用户使用的显示生成部件显示的三维环境的视图中显示指示第一用户界面对象不可用于与第一用户交互的视觉指示提供了在尝试交互时的直观且及时的反馈,并且减少了三维环境的视图中的不必要的视觉混乱。此外,不需要向与第一用户共享环境的其他用户显示相同的视觉指示,这减少了用户困惑并且提高了人机界面的效率。
在一些实施方案中,计算机系统显示包括物理对象(例如,第二用户、动物、移动无人机等)的表示的三维环境的视图,该物理对象位于与第一用户的物理环境不同的物理环境中(以及由第一用户使用以查看三维环境的第一显示生成部件)。计算机系统任选地根据第一用户(和/或第一显示生成部件)在其物理环境中的移动来移动对应于三维环境的当前显示视图的视点。计算机系统基于物理对象在其物理环境中的位置和移动路径确定物理对象在三维环境中的表示的定位和移动路径。计算机系统利用在三维环境中的位置和在相应物理环境(例如,第一用户和第一显示生成部件的物理环境、物理对象的物理环境等)中的定位之间的第一类型的对应关系(例如,映射和转换关系;任选地,视点、物理对象和第一用户等的不同映射和转换关系)。在一些条件下(例如,由于第一用户的移动和/或物理对象的移动等),如果使用三维环境中的位置与物理环境中的定位之间的第一类型的对应关系来确定位置,则物理对象的表示的位置将在经由第一显示生成部件示出的三维环境的当前显示视图的视点的位置的阈值距离(例如,手臂的长度、三英尺、用户指定的距离等)内。在这种条件下,计算机系统基于第一类型的对应关系在与所确定的位置偏移的调整位置处显示物理对象的表示。在一些实施方案中,调整位置基于不同于第一类型的对应关系的第二类型的对应关系来确定,并且确保调整位置与经由第一显示生成部件示出的三维环境的当前显示视图的视点的位置保持大于阈值距离。计算机系统继续使用第二类型的对应关系来确定物理对象的表示的调整位置,直到基于第一类型的对应计算出的未调整位置与经由第一显示生成部件示出的三维环境的当前显示视图的视点的位置的距离大于阈值距离。通过监视物理对象的表示的位置与经由第一显示生成部件示出的三维环境的当前显示视图的视点的位置之间的相对距离,计算机可以及时地调整物理对象的表示的显示位置,使得视点与物理对象的表示之间的视觉冲突可以被避免。这改善了用户的视觉体验,并且减少了当用户与三维环境交互时的用户困惑和错误。
在一些实施方案中,计算机系统根据对应于用户的生物计量数据来改变计算机生成的体验(例如,视觉体验、视听体验、虚拟现实体验、增强现实体验等)呈现给用户的沉浸级别。例如,当用户调整他/她的身体和情绪状态时(例如主动地或在计算机生成的内容的影响下),在计算机生成的体验开始之后,计算机系统可以检测对应于用户的生物计量数据(例如,心率、血压、呼吸速率等)的变化。根据生物计量数据相对于与不同沉浸级别相关联的相应组的预设标准的变化,计算机系统提高或降低提供给用户的计算机生成的体验的沉浸级别(例如,通过相对于物理环境的表示的视觉显著性来改变虚拟内容的视觉显著性(例如,包括空间范围、视觉深度、颜色饱和度、视觉对比度等)(例如,通过增强虚拟内容的复杂性、空间范围和/或视觉特性,和/或降低物理环境的表示的视觉清晰度、模糊半径、不透明度、颜色饱和度等))。基于与用户相对应的生物计量数据中的变化来调整提供给用户的计算机生成的体验的沉浸级别帮助计算机系统提供较不沉浸的体验和更沉浸的体验之间的更平滑的转变,该转变更好地对应于针对计算机生成的体验的用户的感知状态,从而减少用户困惑并且改进计算机生成的体验的功效。
在一些实施方案中,计算机系统提供增强用户感知物理环境的不同方面(没有特殊装备或计算机系统的帮助可能不容易感知)的能力的多种类型的感官调整功能。计算机系统将两种或多种类型的感官增强功能的效果聚合在物理环境的部分的表示上,使得先前隐藏在由计算机系统提供的物理环境的视图中的该物理环境的部分中呈现的特征和特性可以被展示,而不是允许用户在每次查看物理环境的部分时仅使用一种类型的感官调整功能。允许多种类型的感官调整功能的效果聚合在物理环境的相同部分的表示上并且呈现在包括物理环境的该部分的表示的三维环境的视图中使得用户能够更好地感知和理解物理环境,并且提高了物理环境的计算机生成的视图的有用性。
在一些实施方案中,计算机系统根据确定表示在三维环境的视图中的物理定位与相应类型的锻炼相关联来显示对应于相应类型的锻炼的虚拟内容(例如,虚拟风景、锻炼装备的视觉和功能增强、用户界面、健康和分数面板等)。例如,当用户和显示生成部件在真实世界中从一个定位移动到另一个定位时,三维环境的视图中示出的虚拟内容被调整为对应于与用户和显示生成部件的当前定位相关联的锻炼类型。在一些实施方案中,当定位与多种类型的锻炼相关联时,计算机系统基于其他上下文信息(例如,用户的移动、用户与该定位处的对象的联系等)从与该定位相关联的多种类型的锻炼中选择一种类型的锻炼,并且显示对应于所选类型的锻炼的视觉内容。基于与用户的定位和显示生成部件相关联的相应类型的锻炼来自动地选择和/或改变虚拟内容减少了来自用户的输入的数量、范围和/或性质以实现期望的结果(例如,针对锻炼类型选择合适的虚拟内容、开始特定的锻炼模式等),由此创建更高效的人机界面。
图1-6提供了对用于向用户提供CGR体验的示例性计算机系统的描述。图7A-7C是示出根据一些实施方案的在两个或多个用户之间共享的计算机生成的三维环境中与用户界面对象交互的框图。图7D-7F是示出根据一些实施方案的以不同方式显示相对于三维环境的当前显示视图的视点的物理对象的表示的方法的框图,其中视点根据用户在第一物理环境中的移动而移动,物理对象的表示根据物理对象在不同于第一物理环境的第二物理环境中的移动而移动,并且其中显示表示的方式的改变响应于物理对象的表示与满足预设标准的视点之间的空间关系而触发。图7G-7J是示出根据一些实施方案的根据改变由计算机系统接收的用户的生物计量数据来改变显示计算机生成的体验的环境的沉浸级别的框图。图7K-7M是示出根据一些实施方案的当显示包括物理环境的表示的环境的视图时聚合由计算机系统提供的多种类型的感官调整的效果的框图。图7N-7P是示出根据一些实施方案的根据确定三维环境的视图中的物理环境的该部分对应于相应类型锻炼而在三维环境的视图中选择性地显示对应于该相应类型锻炼的虚拟内容的框图。图7A-7P中的用户界面分别用于示出图8-12中的过程。
在一些实施方案中,如图1中所示,经由包括计算机系统101的操作环境100向用户提供CGR体验。计算机系统101包括控制器110(例如,便携式电子设备的处理器或远程服务器)、显示生成部件120(例如,头戴式设备(HMD)、显示器、投影仪、触摸屏等)、一个或多个输入设备125(例如,眼睛跟踪设备130、手部跟踪设备140、其他输入设备150)、一个或多个输出设备155(例如,扬声器160、触觉输出发生器170和其他输出设备180)、一个或多个传感器190(例如,图像传感器、光传感器、深度传感器、触觉传感器、取向传感器、接近传感器、温度传感器、位置传感器、运动传感器、速度传感器等),以及任选地一个或多个外围设备195(例如,家用电器、可穿戴设备等)。在一些实施方案中,输入设备125、输出设备155、传感器190和外围设备195中的一者或多者与显示生成部件120集成(例如,在头戴式设备或手持式设备中)。
在描述CGR体验时,各种术语用于区别地指代用户可以感测并且/或者用户可以与其进行交互(例如,利用由生成CGR体验的计算机系统101检测到的输入进行交互,这些输入使得生成CGR体验的计算机系统生成与提供给计算机系统101的各种输入对应的音频、视觉和/或触觉反馈)的若干相关但不同的环境。以下是这些术语的子集:
物理环境:物理环境是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品,诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
计算机生成的现实:相反地,计算机生成的现实(CGR)环境是指人们经由电子系统进行感测和/或交互的完全或部分模拟环境。在CGR中,跟踪人的物理运动的子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特性的调节可以响应于物理运动的表示(例如,声音命令)来进行。人可以利用其感觉中的任一者来感测CGR对象和/或与之交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,该音频对象创建3D或空间音频环境,该3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。
虚拟现实:虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或交互的多个虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟和/或通过在计算机生成的环境内人的物理移动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
混合现实:与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致移动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。
增强现实:增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或物理环境的表示上方的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过该显示器直接查看物理环境。该系统可以被配置为在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,该成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得经修改部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除其部分或将其部分进行模糊处理而进行转换。
增强虚拟:增强虚拟(AV)环境是指其中虚拟环境或计算机生成环境结合了来自物理环境的一项或多项感官输入的模拟环境。感官输入可以是物理环境的一个或多个特性的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
硬件:有许多不同类型的电子系统使人能够感测各种CGR环境和/或与各种CGR环境进行交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置成接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统还可以被配置为将虚拟对象投影到物理环境中例如作为全息图,或者投影到物理表面上。在一些实施方案中,控制器110被配置为管理和协调用户的CGR体验。在一些实施方案中,控制器110包括软件、固件和/或硬件的合适组合。下文参考图2更详细地描述控制器110。在一些实施方案中,控制器110是相对于场景105(例如,物理设置/环境)处于本地或远程位置的计算设备。例如,控制器110是位于场景105内的本地服务器。又如,控制器110是位于场景105之外的远程服务器(例如,云服务器、中央服务器等)。在一些实施方案中,控制器110经由一个或多个有线或无线通信通道144(例如,蓝牙、IEEE802.11x、IEEE 802.16x、IEEE 802.3x等)与显示生成部件120(例如,HMD、显示器、投影仪、触摸屏等)通信地耦接。在另一个示例中,控制器110包括在显示生成部件120(例如,HMD或包括显示器和一个或多个处理器的便携式电子设备等)、输入设备125中的一个或多个输入设备、输出设备155中的一个或多个输出设备、传感器190中的一个或多个传感器和/或外围装设备195中的一个或多个外围装设备的壳体(例如,物理外壳)内,或者与上述设备中的一者或多者共享相同的物理壳体或支撑结构。
在一些实施方案中,显示生成部件120被配置为向用户提供CGR体验(例如,至少CGR体验的视觉组成部分)。在一些实施方案中,显示生成部件120包括软件、固件和/或硬件的合适组合。下文相对于图3更详细地描述了显示生成部件120。在一些实施方案中,控制器110的功能由显示生成部件120提供和/或与该显示生成部件组合。
根据一些实施方案,当用户虚拟地和/或物理地存在于场景105内时,显示生成部件120向用户提供CGR体验。
在一些实施方案中,显示生成部件穿戴在用户身体的一部分上(例如,他/她的头部上、他/她的手部上等)。这样,显示生成部件120包括被提供用于显示CGR内容的一个或多个CGR显示器。例如,在各种实施方案中,显示生成部件120包围用户的视场。在一些实施方案中,显示生成部件120是被配置为呈现CGR内容的手持式设备(诸如智能电话或平板电脑),并且用户握持具有朝向用户的视场的显示器和朝向场景105的相机的设备。在一些实施方案中,手持式设备被任选地放置在穿戴在用户的头部上的壳体内。在一些实施方案中,手持式设备被任选地放置在用户前面的支撑件(例如,三脚架)上。在一些实施方案中,显示生成部件120是被配置为呈现CGR内容的CGR室、壳体或房间,其中用户不穿戴或握持显示生成部件120。参考用于显示CGR内容的一种类型的硬件(例如,手持式设备或三脚架上的设备)描述的许多用户界面可以在用于显示CGR内容的另一种类型的硬件(例如,HMD或其他可穿戴计算设备)上实现。例如,示出基于发生在手持式设备或三脚架安装的设备前面的空间中的交互而触发的与CGR内容的交互的用户界面可以类似地用HMD来实现,其中交互发生在HMD前面的空间中,并且对CGR内容的响应经由HMD来显示。类似地,示出基于手持式设备或三脚架安装的设备相对于物理环境(例如,场景105或用户身体的一部分(例如,用户的眼睛、头部或手部))的移动而触发的与CGR内容的交互的用户界面可以类似地用HMD来实现,其中移动是由HMD相对于物理环境(例如,场景105或用户身体的一部分(例如,用户的眼睛、头部或手部))的移动引起的。
尽管在图1中示出了操作环境100的相关特征,但本领域的普通技术人员将从本公开中认识到,为了简洁起见并且为了不模糊本文所公开的示例性实施方案的更多相关方面,未示出各种其他特征。
图2是根据一些实施方案的控制器110的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不使本文所公开的实施方案的更多相关方面晦涩难懂,未示出各种其他特征。为此,作为非限制性示例,在一些实施方案中,控制器110包括一个或多个处理单元202(例如,微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、中央处理单元(CPU)、处理内核等)、一个或多个输入/输出(I/O)设备206、一个或多个通信接口208(例如,通用串行总线(USB)、IEEE802.3x、IEEE 802.11x、IEEE 802.16x、全球移动通信系统(GSM)、码分多址(CDMA)、时分多址(TDMA)、全球定位系统(GPS)、红外(IR)、蓝牙、ZIGBEE以及/或者类似类型的接口)、一个或多个编程(例如,I/O)接口210、存储器220以及用于互连这些部件和各种其他部件的一条或多条通信总线204。
在一些实施方案中,一条或多条通信总线204包括互连和控制系统部件之间的通信的电路。在一些实施方案中,一个或多个I/O设备206包括键盘、鼠标、触控板、操纵杆、一个或多个麦克风、一个或多个扬声器、一个或多个图像传感器、一个或多个显示器等中的至少一种。
存储器220包括高速随机存取存储器,诸如动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、双倍数据速率随机存取存储器(DDR RAM)或者其他随机存取固态存储器设备。在一些实施方案中,存储器220包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器220任选地包括远离一个或多个处理单元202定位的一个或多个存储设备。存储器220包括非暂态计算机可读存储介质。在一些实施方案中,存储器220或者存储器220的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括任选的操作系统230和CGR体验模块240。
操作系统230包括用于处理各种基础系统服务和用于执行硬件相关任务的指令。在一些实施方案中,CGR体验模块240被配置为管理和协调一个或多个用户的单重或多重CGR体验(例如,一个或多个用户的单重CGR体验,或一个或多个用户的相应群组的多重CGR体验)。为此,在各种实施方案中,CGR体验模块240包括数据获取单元242、跟踪单元244、协调单元246和数据传输单元248。
在一些实施方案中,数据获取单元242被配置为从图1的至少显示生成部件120,以及任选地从输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者获取数据(例如,呈现数据、交互数据、传感器数据、定位数据等)。出于该目的,在各种实施方案中,数据获取单元242包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,跟踪单元244被配置为映射场景105,并且跟踪至少显示生成部件120相对于图1的场景105的位置,以及任选地跟踪输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者的位置。出于该目的,在各种实施方案中,跟踪单元244包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。在一些实施方案中,跟踪单元244包括手部跟踪单元243和/或眼睛跟踪单元245。在一些实施方案中,手部跟踪单元243被配置为跟踪用户的手部的一个或多个部分的位置,以及/或者用户的手部的一个或多个部分相对于图1的场景105的、相对于显示生成部件120和/或相对于坐标系(该坐标系是相对于用户的手部定义的)的运动。下文相对于图4更详细地描述了手部跟踪单元243。在一些实施方案中,眼睛跟踪单元245被配置为跟踪用户注视(或更广泛地,用户的眼睛、面部或头部)相对于场景105(例如,相对于物理环境和/或相对于用户(例如,用户的手部))或相对于经由显示生成部件120显示的CGR内容的位置或移动。下文相对于图5更详细地描述了眼睛跟踪单元245。
在一些实施方案中,协调单元246被配置为管理和协调由显示生成部件120,以及任选地由输出设备155和/或外围装设备195中的一者或多者呈现给用户的CGR体验。出于该目的,在各种实施方案中,协调单元246包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,数据传输单元248被配置为将数据(例如,呈现数据、定位数据等)传输到至少显示生成部件120,并且任选地传输到输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者。出于该目的,在各种实施方案中,数据传输单元248包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
尽管数据获取单元242、跟踪单元244(例如,包括眼睛跟踪单元243和手部跟踪单元244)、协调单元246和数据传输单元248被示为驻留在单个设备(例如,控制器110)上,但应当理解,在其他实施方案中,数据获取单元242、跟踪单元244(例如,包括眼睛跟踪单元243和手部跟踪单元244)、协调单元246和数据传输单元248的任何组合可以位于单独计算设备中。
此外,图2更多地用作可以存在于特定具体实施中的各种特征的功能描述,与本文所述的实施方案的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图2中单独示出的一些功能模块可在单个模块中实现,并且单个功能块的各种功能可在各种实施方案中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些实施方案中,部分地取决于为特定具体实施选择的硬件、软件和/或固件的特定组合。
图3是根据一些实施方案的显示生成部件120的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不使本文所公开的实施方案的更多相关方面晦涩难懂,未示出各种其他特征。出于所述目的,作为非限制性示例,在一些实施方案中,HMD 120包括一个或多个处理单元302(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器306、一个或多个通信接口308(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE以及/或者类似类型的接口)、一个或多个编程(例如,I/O)接口310、一个或多个CGR显示器312、一个或多个任选的面向内部并且/或者面向外部的图像传感器314、存储器320以及用于互连这些部件和各种其他部件的一条或多条通信总线304。
在一些实施方案中,一条或多条通信总线304包括用于互连和控制各系统部件之间的通信的电路。在一些实施方案中,一个或多个I/O设备及传感器306包括惯性测量单元(IMU)、加速度计、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血液氧传感器、血糖传感器等)、一个或多个传声器、一个或多个扬声器、触觉引擎以及/或者一个或多个深度传感器(例如,结构光、飞行时间等)等。
在一些实施方案中,一个或多个CGR显示器312被配置为向用户提供CGR体验。在一些实施方案中,一个或多个CGR显示器312对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)以及/或者类似的显示器类型。在一些实施方案中,一个或多个CGR显示器312对应于衍射、反射、偏振、全息等波导显示器。例如,HMD 120包括单个CGR显示器。又如,HMD 120包括针对用户的每只眼睛的CGR显示器。在一些实施方案中,一个或多个CGR显示器312能够呈现MR和VR内容。在一些实施方案中,一个或多个CGR显示器312能够呈现MR或VR内容。
在一些实施方案中,一个或多个图像传感器314被配置为获取与用户面部的包括用户的眼睛的至少一部分对应的图像数据(并且可被称为眼睛跟踪相机)。在一些实施方案中,一个或多个图像传感器314被配置为获取与用户的手部以及任选地用户的手臂的至少一部分对应的图像数据(并且可被称为手部跟踪相机)。在一些实施方案中,一个或多个图像传感器314被配置为面向前方,以便获取与在不存在HMD 120的情况下用户将会看到的场景对应的图像数据(并且可被称为场景相机)。一个或多个任选图像传感器314可包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、一个或多个红外(IR)相机以及/或者一个或多个基于事件的相机等。
存储器320包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些实施方案中,存储器320包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器320任选地包括远离一个或多个处理单元302定位的一个或多个存储设备。存储器320包括非暂态计算机可读存储介质。在一些实施方案中,存储器320或者存储器320的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括任选的操作系统330和CGR呈现模块340。
操作系统330包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。在一些实施方案中,CGR呈现模块340被配置为经由一个或多个CGR显示器312向用户呈现CGR内容。出于该目的,在各种实施方案中,CGR呈现模块340包括数据获取单元342、CGR呈现单元344、CGR映射生成单元346和数据传输单元348。
在一些实施方案中,数据获取单元342被配置为至少从图1的控制器110获取数据(例如,呈现数据、交互数据、传感器数据、定位数据等)。出于所述目的,在各种实施方案中,数据获取单元342包括指令以及/或者用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,CGR呈现单元344被配置为经由一个或多个CGR显示器312呈现CGR内容。出于所述目的,在各种实施方案中,CGR呈现单元344包括指令以及/或者用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,CGR映射生成单元346被配置为基于媒体内容数据生成CGR映射图(例如,混合现实场景的3D映射图或可以在其中放置计算机生成对象的物理环境以生成计算机生成的现实的映射图)。出于所述目的,在各种实施方案中,CGR映射生成单元346包括指令以及/或者用于该指令的逻辑以及启发法和用于该启发法的元数据。
在一些实施方案中,数据传输单元348被配置为将数据(例如,呈现数据、定位数据等)传输到至少控制器110,以及任选地输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者。出于所述目的,在各种实施方案中,数据传输单元348包括指令以及/或者用于指令的逻辑以及启发法和用于启发法的元数据。
尽管数据获取单元342、CGR呈现单元344、CGR映射生成单元346和数据传输单元348被示出为驻留在单个设备(例如,图1的显示生成部件120)上,但应当理解,在其他实施方案中,数据获取单元342、CGR呈现单元344、CGR映射生成单元346和数据传输单元348的任何组合可位于单独计算设备中。
此外,图3更多地用作可能存在于特定实施方案中的各种特征的功能描述,与本文所述的实施方案的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图3中单独示出的一些功能模块可在单个模块中实现,并且单个功能块的各种功能可在各种实施方案中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些实施方案中,部分地取决于为特定具体实施选择的硬件、软件和/或固件的特定组合。
图4是手部跟踪设备140的示例性实施方案的示意性图解。在一些实施方案中,手部跟踪设备140(图1)由手部跟踪单元243控制(图2)来跟踪用户的手部的一个或多个部分的位置,以及/或者用户的手部的一个或多个部分相对于图1的场景105(例如,相对于用户周围的物理环境的一部分、相对于显示生成部件120,或者相对于用户的一部分(例如,用户的面部、眼睛或头部),以及/或者相对于坐标系(该坐标系是相对于用户的手部定义的))的运动。在一些实施方案中,手部跟踪设备140是显示生成部件120的一部分(例如,嵌入头戴式设备中或附接到头戴式设备)。在一些实施方案中,手部跟踪设备140与显示生成部件120分开(例如,位于单独的外壳中或者附接到单独的物理支撑结构)。
在一些实施方案中,手部跟踪设备140包括捕获至少包括人类用户的手部406的三维场景信息的图像传感器404(例如,一个或多个IR相机、3D相机、深度相机和/或彩色相机等)。图像传感器404以足够的分辨率捕获手部图像,以使手指及其相应位置能够被区分。图像传感器404通常捕获用户身体的其他部分、还或可能捕获身体的所有部分的图像,并且可以具有缩放能力或具有增大放大率的专用传感器以用期望分辨率捕获手部的图像。在一些实施方案中,图像传感器404还捕获手部406的2D彩色视频图像和场景的其他元素。在一些实施方案中,图像传感器404与其他图像传感器结合使用以捕获场景105的物理环境,或者用作捕获场景105的物理环境的图像传感器。在一些实施方案中,以将图像传感器404或其一部分的视场用于限定交互空间的方式相对于用户或用户的环境定位图像传感器,在该交互空间中,由图像传感器捕获的手部移动被视为到控制器110的输入。
在一些实施方案中,图像传感器404将包含3D映射数据(以及此外,可能的彩色图像数据)的帧序列输出到控制器110,该控制器从映射数据提取高级信息。该高级信息通常经由应用程序接口(API)提供给在控制器上运行的应用程序,该应用程序相应地驱动显示生成部件120。例如,用户可以通过移动他的手部408并改变他的手部姿势来与在控制器110上运行的软件交互。
在一些实施方案中,图像传感器404将斑点图案投影到包含手部406的场景上并且捕获所投影图案的图像。在一些实施方案中,控制器110基于图案中斑点的横向偏移来通过三角测量计算场景中的点(包括用户的手部的表面上的点)的3D坐标。这种方法是有利的,因为该方法不需要用户握持或穿戴任何种类的信标、传感器或其他标记。该方法给出了场景中的点在距图像传感器404的特定距离处相对于预先确定的参考平面的深度坐标。在本公开中,假设图像传感器404限定x轴、y轴、z轴的正交集合,使得场景中的点的深度坐标对应于由图像传感器测量的z分量。另选地,手部跟踪设备440可基于单个或多个相机或其他类型的传感器而使用其他3D映射方法,诸如立体成像或飞行时间测量。
在一些实施方案中,手部跟踪设备140在用户移动他的手部(例如,整个手部或一根或多根手指)时捕获并处理包含用户的手部的深度映射图的时间序列。在图像传感器404和/或控制器110中的处理器上运行的软件处理3D映射数据以提取这些深度映射图中手部的图像块描述符。软件可基于先前的学习过程将这些描述符与存储在数据库408中的图像块描述符匹配,以便估计每个帧中手部的位姿。位姿通常包括用户的手部关节和手指尖端的3D位置。
软件还可以分析手部和/或手指在序列中的多个帧上的轨迹以识别手势。本文所述的位姿估计功能可以与运动跟踪功能交替,使得每两个(或更多个)帧仅执行一次基于图像块的位姿估计,而跟踪用于找到在剩余帧上发生的位姿的变化。经由上述API向在控制器110上运行的应用程序提供位姿、运动和手势信息。该程序可以例如响应于位姿和/或手势信息而移动和修改呈现在显示生成部件120上的图像,或者执行其他功能。
在一些实施方案中,软件可以例如通过网络以电子形式下载到控制器110,或者可以另选地在有形非暂态介质诸如光学、磁性或电子存储器介质上提供。在一些实施方案中,数据库408同样存储在与控制器110相关联的存储器中。另选地或除此之外,计算机的所描述的功能中的一些或全部可以在专用硬件(诸如,定制或半定制集成电路或可编程数字信号处理器(DSP))中实现。尽管在图4中示出了控制器110,但是举例来说,作为与图像传感器440分开的单元,控制器的处理功能中一些或全部可以由合适的微处理器和软件或由手部跟踪设备402的外壳内的专用电路或与图像传感器404相关联的其他设备执行。在一些实施方案中,这些处理功能中的至少一些可由与显示生成部件120(例如,在电视接收机、手持式设备或头戴式设备中)集成或与任何其他合适的计算机化设备(诸如,游戏控制台或媒体播放器)集成的合适处理器执行。图像传感器404的感测功能同样可以集成到将由传感器输出控制的计算机或其他计算机化装置中。
图4还包括根据一些实施方案的由图像传感器404捕获的深度映射图410的示意图。如上所述,深度图包括具有相应深度值的像素的矩阵。与手部406对应的像素412已经从该映射图中的背景和手腕分割出来。深度映射图410内的每个像素的亮度与其深度值(即,测量的距图像传感器404的z距离)成反比,其中灰色阴影随着深度的增加而变得更暗。控制器110处理这些深度值以便识别和分割图像的具有人类手部特征的组成部分(即,一组相邻像素)。这些特征可包括例如总体大小、形状和从深度映射图序列中的帧到帧的运动。
图4还示意性地示出了根据一些实施方案的控制器110最终从手部406的深度映射图410提取的手部骨骼414。在图4中,骨骼414叠加在已经从原始深度映射图分割出来的手部背景416上。在一些实施方案中,手部的以及任选地在连接到手部的手腕或手臂上的关键特征点(例如,与指关节、手指尖端、手掌中心、手部的连接到手腕的端部等对应的点)被识别并位于手部骨骼414上。在一些实施方案中,控制器110使用这些关键特征点在多个图像帧上的位置和移动来根据一些实施方案确定由手部执行的手势或手部的当前状态。
图5示出了眼睛跟踪设备130(图1)的示例性实施方案。在一些实施方案中,眼睛跟踪设备130由眼睛跟踪单元245(图2)控制来跟踪用户注视相对于场景105或相对于经由显示生成部件120显示的CGR内容的位置和移动。在一些实施方案中,眼睛跟踪设备130与显示生成部件120集成。例如,在一些实施方案中,当显示生成部件120是头戴式设备(诸如,头戴式耳机、头盔、护目镜或眼镜)或放置在可穿戴框架中的手持式设备时,该头戴式设备包括生成CGR内容以供用户观看的部件以及用于跟踪用户相对于CGR内容的注视的部件两者。在一些实施方案中,眼睛跟踪设备130与显示生成部件120分开。例如,当显示生成部件是手持式设备或CGR室时,眼睛跟踪设备130任选地是与手持式设备或CGR室分开的设备。在一些实施方案中,眼睛跟踪设备130是头戴式设备或头戴式设备的一部分。在一些实施方案中,头戴式眼睛跟踪设备130任选地与也是头戴式的显示生成部件或不是头戴式的显示生成部件结合使用。在一些实施方案中,眼睛跟踪设备130不是头戴式设备,并且任选地与头戴式显示生成部件结合使用。在一些实施方案中,眼睛跟踪设备130不是头戴式设备,并且任选地是非头戴式显示生成部件的一部分。
在一些实施方案中,显示生成部件120使用显示机构(例如,左近眼显示面板和右近眼显示面板)来在用户眼睛前面显示包括左图像和右图像的帧,从而向用户提供3D虚拟视图。例如,头戴式显示生成部件可包括位于显示器和用户眼睛之间的左光学透镜和右光学透镜(在本文中被称为眼睛透镜)。在一些实施方案中,显示生成部件可包括或耦接到一个或多个外部摄像机,该一个或多个外部摄像机捕获用户的环境的视频以用于显示。在一些实施方案中,头戴式显示生成部件可具有透明或半透明显示器,并且在该透明或半透明显示器上显示虚拟对象,用户可以透过该透明或半透明显示器直接观看物理环境。在一些实施方案中,显示生成部件将虚拟对象投影到物理环境中。虚拟对象可例如被投影在物理表面上或作为全息图被投影,使得个体使用系统观察叠加在物理环境上方的虚拟对象。在这种情况下,可能不需要用于左眼和右眼的单独的显示面板和图像帧。
如图5中所示,在一些实施方案中,注视跟踪设备130包括至少一个眼睛跟踪相机(例如,红外(IR)或近红外(NIR)相机),以及朝向用户眼睛发射光(例如,IR或NIR光)的照明源(例如,IR或NIR光源,诸如LED的阵列或环)。眼睛跟踪相机可指向用户眼睛以接收光源直接从眼睛反射的IR或NIR光,或者另选地可指向位于用户眼睛和显示面板之间的“热”镜,这些热镜将来自眼睛的IR或NIR光反射到眼睛跟踪相机,同时允许可见光通过。注视跟踪设备130任选地捕获用户眼睛的图像(例如,作为以每秒60帧-120帧(fps)捕获的视频流),分析这些图像以生成注视跟踪信息,并将注视跟踪信息传送到控制器110。在一些实施方案中,用户的两只眼睛通过相应的眼睛跟踪相机和照明源来单独地跟踪。在一些实施方案中,通过相应的眼睛跟踪相机和照明源来跟踪用户的仅一只眼睛。
在一些实施方案中,使用设备特定的校准过程来校准眼睛跟踪设备130以确定用于特定操作环境100的眼睛跟踪设备的参数,例如LED、相机、热镜(如果存在的话)、眼睛透镜和显示屏的3D几何关系和参数。在将AR/VR装备递送给终端用户之前,可以在工厂或另一个设施处执行设备特定的校准过程。设备特定的校准过程可以是自动校准过程或手动校准过程。根据一些实施方案,用户特定的校准过程可以包括对特定用户的眼睛参数的估计,例如瞳孔位置、中央凹位置、光轴、视轴、眼睛间距等。根据一些实施方案,一旦针对眼睛跟踪设备130确定了设备特定参数和用户特定参数,就可以使用闪光辅助方法来处理由眼睛跟踪相机捕获的图像,以确定当前视轴和用户相对于显示器的注视点。
如图5中所示,眼睛跟踪设备130(例如,130A或130B)包括眼睛透镜520和注视跟踪系统,该注视跟踪系统包括定位在用户面部的被执行眼睛跟踪的一侧上的至少一个眼睛跟踪相机540(例如,红外(IR)或近红外(NIR)相机),以及朝向用户眼睛592发射光(例如,IR或NIR光)的照明源530(例如,IR或NIR光源,诸如NIR发光二极管(LED)的阵列或环)。眼睛跟踪相机540可指向位于用户眼睛592和显示器510(例如,头戴式显示器的左显示器面板或右显示器面板,或者手持式设备的显示器、投影仪等)之间的镜子550(这些镜子反射来自眼睛592的IR或NIR光,同时允许可见光通过)(例如,如图5的顶部部分所示),或者另选地可指向用户眼睛592以接收来自眼睛592的反射IR或NIR光(例如,如图5的底部部分所示)。
在一些实施方案中,控制器110渲染AR或VR帧562(例如,用于左显示面板和右显示面板的左帧和右帧)并且将帧562提供给显示器510。控制器110将来自眼睛跟踪相机540的注视跟踪输入542用于各种目的,例如用于处理帧562以用于显示。控制器110任选地基于使用闪光辅助方法或其他合适的方法从眼睛跟踪相机540获取的注视跟踪输入542来估计用户在显示器510上的注视点。根据注视跟踪输入542估计的注视点任选地用于确定用户当前正在看向的方向。
以下描述了用户当前注视方向的几种可能的使用案例,并且不旨在进行限制。作为示例性使用案例,控制器110可以基于所确定的用户注视的方向不同地渲染虚拟内容。例如,控制器110可以在根据用户当前注视方向确定的中央凹区域中以比在外围区域中的分辨率更高的分辨率生成虚拟内容。作为另一个示例,控制器可至少部分地基于用户当前注视方向来在视图中定位或移动虚拟内容。作为另一个示例,控制器可至少部分地基于用户当前注视方向来在视图中显示特定虚拟内容。作为AR应用程序中的另一个示例性使用案例,控制器110可引导用于捕获CGR体验的物理环境的外部相机在所确定方向上聚焦。然后,外部相机的自动聚焦机构可以聚焦于显示器510上用户当前正看向的环境中的对象或表面上。作为另一个示例性使用案例,眼睛透镜520可以是可聚焦透镜,并且控制器使用注视跟踪信息来调整眼睛透镜520的焦点,使得用户当前正看向的虚拟对象具有适当的聚散度以匹配用户眼睛592的会聚。控制器110可以利用注视跟踪信息来引导眼睛透镜520调整焦点,使得用户正看向的靠近的对象出现在正确距离处。
在一些实施方案中,眼睛跟踪设备是头戴式设备的一部分,该部分包括安装在可穿戴外壳中的显示器(例如,显示器510)、两个眼睛透镜(例如,眼睛透镜520)、眼睛跟踪相机(例如,眼睛跟踪相机540),以及光源(例如,光源530(例如,IR或NIR LED))。光源朝向用户眼睛592发射光(例如,IR或NIR光)。在一些实施方案中,光源可围绕透镜中的每个透镜布置成环或圆圈,如图5中所示。在一些实施方案中,例如,八个光源530(例如,LED)围绕每个透镜520布置。然而,可使用更多或更少的光源530,并且可使用光源530的其他布置和位置。
在一些实施方案中,显示器510发射可见光范围内的光,并且不发射IR或NIR范围内的光,并且因此不会在注视跟踪系统中引入噪声。需注意,眼睛跟踪相机540的位置和角度以举例的方式给出,并且不旨在进行限制。在一些实施方案中,单个眼睛跟踪相机540位于用户面部的每一侧上。在一些实施方案中,可在用户面部的每一侧上使用两个或更多个NIR相机540。在一些实施方案中,可在用户面部的每一侧上使用具有较宽视场(FOV)的相机540和具有较窄FOV的相机540。在一些实施方案中,可在用户面部的每一侧上使用以一个波长(例如,850nm)操作的相机540和以不同波长(例如,940nm)操作的相机540。
如图5中所示的注视跟踪系统的实施方案可以例如用于计算机生成的现实(例如,包括虚拟现实和/或混合现实)应用程序,以向用户提供计算机生成的现实(例如,包括虚拟现实、增强现实和/或增强虚拟)体验。
图6示出了根据一些实施方案的闪光辅助的注视跟踪管线。在一些实施方案中,注视跟踪管线通过闪光辅助的注视跟踪系统(例如,如图1和图5中所示的眼睛跟踪设备130)来实现。闪光辅助的注视跟踪系统可保持跟踪状态。最初,跟踪状态为关闭或“否”。当处于跟踪状态时,当分析当前帧以跟踪当前帧中的瞳孔轮廓和闪光时,闪光辅助的注视跟踪系统使用来自先前帧的先前信息。当未处于跟踪状态时,闪光辅助的注视跟踪系统尝试检测当前帧中的瞳孔和闪光,并且如果成功,则将跟踪状态初始化为“是”并且在跟踪状态下继续下一个帧。
如图6中所示,注视跟踪相机可捕获用户左眼和右眼的左图像和右图像。然后将所捕获的图像输入到注视跟踪管线以用于在610处开始处理。如返回到元素600的箭头所指示的,注视跟踪系统可例如以每秒60至120帧的速率继续捕获用户眼睛的图像。在一些实施方案中,可以将每组所捕获的图像输入到管线以用于处理。然而,在一些实施方案中或在一些条件下,不是所有所捕获的帧都由管线处理。
在610处,对于当前所捕获的图像,如果跟踪状态为是,则方法前进到元素640。在610处,如果跟踪状态为否,则如620处所指示的,分析图像以检测图像中的用户瞳孔和闪光。在630处,如果成功检测到瞳孔和闪光,则方法前进到元素640。否则,方法返回到元素610以处理用户眼睛的下一个图像。
在640处,如果从元素410前进,则分析当前帧以部分地基于来自先前帧的先前信息来跟踪瞳孔和闪光。在640处,如果从元素630前进,则基于当前帧中检测到的瞳孔和闪光来初始化跟踪状态。检查元素640处的处理结果以验证跟踪或检测的结果可以是可信的。例如,可检查结果以确定是否在当前帧中成功跟踪或检测到用于执行注视估计的瞳孔和足够数量的闪光。在650处,如果结果不可能是可信的,则跟踪状态被设置为否,并且方法返回到元素610以处理用户眼睛的下一个图像。在650处,如果结果是可信的,则方法前进到元素670。在670处,跟踪状态被设置为YES(如果尚未为是),并且瞳孔和闪光信息被传递到元素680以估计用户的注视点。
图6旨在用作可用于特定具体实施的眼睛跟踪技术的一个示例。如本领域普通技术人员所认识到的,根据各种实施方案,在用于向用户提供CGR体验的计算机系统101中,当前存在或未来开发的其他眼睛跟踪技术可用于取代本文所述的闪光辅助的眼睛跟踪技术或与该闪光辅助的眼睛跟踪技术组合使用。
在本公开中,相对于与计算机系统的交互来描述各种输入方法。当使用一个输入设备或输入方法来提供示例,并且使用另一个输入设备或输入方法来提供另一个示例时,应当理解,每个示例可与相对于另一个示例描述的输入设备或输入方法兼容并且任选地利用该输入设备或输入方法。类似地,相对于与计算机系统的交互来描述各种输出方法。当使用一个输出设备或输出方法来提供示例,并且使用另一个输出设备或输出方法来提供另一个示例时,应当理解,每个示例可与相对于另一个示例描述的输出设备或输出方法兼容并且任选地利用该输出设备或输出方法。类似地,相对于通过计算机系统与虚拟环境或混合现实环境进行的交互来描述各种方法。当使用与虚拟环境的交互来提供示例时,并且使用混合现实环境来提供另一个示例时,应当理解,每个示例可与相对于另一个示例描述的方法兼容并且任选地利用这些方法。因此,本公开公开了作为多个示例的特征的组合的实施方案,而无需在每个示例性实施方案的描述中详尽地列出实施方案的所有特征。
用户界面和相关联的过程
现在将注意力转向可在具有显示生成部件、一个或多个输入设备以及(任选)一个或多个相机的计算机系统(诸如,便携式多功能设备或头戴式设备)上实现的用户界面(“UI”)和相关联过程的实施方案。
图7A-7P示出经由显示生成部件(例如,显示生成部件7100、显示生成部件7200、显示生成部件120等)显示的三维环境以及由指向该三维环境的用户输入和/或从其他计算机系统和/或传感器接收的输入引起的在该三维环境中发生的交互。在一些实施方案中,通过在虚拟对象的位置处检测到的用户注视、通过在物理环境中对应于虚拟对象的定位的位置处执行的手势、通过在物理环境中独立于虚拟对象的定位且该虚拟对象具有输入焦点(例如,通过同时和/或先前检测到的注视输入来选择、通过同时或先前检测到的指针输入来选择、通过同时和/或先前检测到的手势输入来选择等)的位置处执行的手势、通过已将焦点选择器对象(例如,指针对象、选择器对象等)置于虚拟对象的位置处的输入设备来将输入指向三维环境内的虚拟对象。在一些实施方案中,通过用户的手部的移动(例如,整个手部的移动、相应姿势中整个手部的移动、手部的一个部分相对于手部的另一个部分的移动、两只手之间的相对移动等)和/或相对于物理对象的操纵(例如,触摸、滑动、轻击、打开、朝向移动、相对移动等)来将输入指向物理对象的表示或对应于物理对象的虚拟对象。在一些实施方案中,计算机系统根据来自传感器(例如,图像传感器、温度传感器、生物计量传感器、运动传感器、近距离传感器等)的输入和上下文条件(例如,定位、时间、环境中其他人的存在等)显示三维环境的变化(例如,显示另外的虚拟内容,或停止显示现有的虚拟内容,在显示的视觉内容的不同沉浸级别之间转变等)。在一些实施方案中,计算机系统根据来自与计算机系统的用户共享计算机生成的环境(例如,在共享的计算机生成的体验中、在共享的虚拟环境中、在通信会话的共享的虚拟或增强现实环境中等)的其他用户所使用的其他计算机的输入来显示三维环境的变化(例如,显示另外的虚拟内容、或停止显示现有的虚拟内容、在显示的视觉内容的不同沉浸级别之间转变等)。
在一些实施方案中,经由显示生成部件显示的三维环境是虚拟三维环境,包括在三维环境中不同虚拟位置处的虚拟对象和内容,不具有物理环境的表示。在一些实施方案中,三维环境是在三维环境中不同虚拟位置处显示虚拟对象的混合现实环境,该虚拟位置由物理环境的一个或多个物理方面(例如,墙壁、地板、表面的位置和取向、重力方向、当日时间等)所约束。在一些实施方案中,三维环境是包括物理环境的表示的增强现实环境。该物理环境的表示包括三维环境中在不同位置处的物理对象和表面的相应表示,使得物理环境中的不同物理对象和表面之间的空间关系由三维环境中的物理对象和表面的表示之间的空间关系来反映。当相对于三维环境中的物理对象和表面的表示的位置来放置虚拟对象时,它们看起来与物理环境中的物理对象和表面具有对应的空间关系。在一些实施方案中,计算机系统基于用户输入和/或上下文条件在显示不同类型的环境之间转变(例如,在呈现具有不同沉浸级别的计算机生成的环境或体验、调整来自虚拟内容和来自物理环境的表示的音频/视觉感官输入的相对显著性等之间的转变)。
在一些实施方案中,显示生成部件包括其中显示物理环境的表示的透传部分。在一些实施方案中,透传部分是显示生成部件的展示用户周围或用户的视场内的物理环境的至少一部分的透明或半透明(例如,透视)部分。例如,透传部分是头戴式显示器或平视显示器的被制成半透明(例如,小于50%、40%、30%、20%、15%、10%或5%的不透明度)或透明使得用户可以在不移除头戴式显示器或移开平视显示器的情况下透过其查看用户周围的真实世界的部分。在一些实施方案中,当显示虚拟现实或混合现实环境时,透传部分逐渐从半透明或透明转变为完全不透明。在一些实施方案中,显示生成部件的透传部分显示由一个或多个相机(例如,移动设备的与头戴式显示器相关联的后向相机,或者将图像数据馈送到电子设备的其他相机)捕获的物理环境的至少一部分的图像或视频的实时馈送。在一些实施方案中,该一个或多个相机指向物理环境的在用户眼睛的正前方(例如,在显示生成部件后方)的一部分。在一些实施方案中,该一个或多个相机指向物理环境的不在用户眼睛的正前方(例如,在不同物理环境中,或者在用户的侧面或后方)的一部分。
在一些实施方案中,当在对应于物理环境中(例如,在虚拟现实环境、混合现实环境、增强现实环境等中)的一个或多个物理对象的定位的位置处显示虚拟对象时,虚拟对象中的至少一些虚拟对象被显示以代替(例如,替换其显示)相机的实况视图的部分(例如,在实况视图中捕捉的物理环境的部分)。在一些实施方案中,虚拟对象和内容中的至少一些虚拟对象和内容被投影到物理环境中的物理表面或空的空间上,并且通过显示生成部件的透传部分可见(例如,作为物理环境的相机视图的部分可见,或者通过显示生成部件的透明或半透明部分可见等)。在一些实施方案中,虚拟对象和内容中的至少一些虚拟对象和内容显示为覆盖显示器的部分并且遮挡通过显示生成部件的透明或半透明部分可见的物理环境的至少一部分视图。
在一些实施方案中,显示生成部件根据改变三维环境的当前显示视图的视点相对于三维环境的虚拟位置的用户输入或移动来显示三维环境的不同视图。在一些实施方案中,当三维环境是虚拟环境时,视点根据导航或移动请求(例如,空中手势、通过手部的一个部分相对于手部的另一个部分的移动而执行的手势等)移动,而不要求用户的头部、躯干和/或显示生成部件在物理环境中的移动。在一些实施方案中,用户的头部和/或躯干的移动、和/或显示生成部件或计算机系统的其他定位感知元件的移动(例如,由于用户握住显示生成部件或佩戴HMD等)等相对于物理环境的移动导致视点相对于三维环境的对应移动(例如,具有对应移动方向、移动距离、移动速度、和/或取向变化等),从而导致三维环境的当前显示视图的对应变化。在一些实施方案中,当虚拟对象具有相对于视点的预设空间关系时,视点相对于三维环境的移动将导致虚拟对象相对于三维环境的移动,同时保持虚拟对象在视场中的位置(例如,虚拟对象被称为头部锁定)。在一些实施方案中,虚拟对象对用户身体锁定,并且当用户作为整体在物理环境中移动(例如,携带或佩戴计算机系统的显示生成部件和/或其他定位感知部件)时相对于三维环境移动,但是不会响应于用户的头部移动而在三维环境中移动(例如,计算机系统的显示生成部件和/或其他定位感知部件围绕用户在物理环境中的固定的定位旋转)。
在一些实施方案中,图7A-7P中示出的三维环境的视图包括用户的手部、手臂和/或手腕的表示。在一些实施方案中,这些表示是经由显示生成部件提供的物理环境的表示的部分。在一些实施方案中,这些表示不是物理环境的表示的部分,并且在独立于三维环境的视图的三维环境中被分别捕获(例如,通过一个或多个相机指向用户的手部、手臂和手腕)并显示。在一些实施方案中,这些表示包括由计算机系统的一个或多个相机捕获的相机图像或基于由各种传感器捕获的信息的手臂、手腕和/或手部的程式化版本。在一些实施方案中,这些表示替换物理环境的表示的部分的显示、被覆盖在物理环境的表示的部分上或阻挡物理环境的表示的部分的视图。在一些实施方案中,当显示生成部件没有提供物理环境的视图而是提供完全虚拟环境(例如,无相机视图或透明透传部分)时,仍可在虚拟环境中显示用户的一只或两只手臂、手腕和/或手部的实时视觉表示(例如,程式化表示或分割的相机图像)。
图7A-7C是示出根据一些实施方案的在两个或多个用户之间共享的计算机生成的三维环境中与用户界面对象交互的框图。
在一些实施方案中,计算机系统允许多个用户(例如,第一用户7102、第二用户7002、另一用户等)有权访问在三维环境(例如,三维环境7015、另一虚拟环境或增强现实环境等)中显示的第一用户界面对象(例如,第一用户界面对象7016、另一用户界面对象、控制面板、虚拟菜单、媒体对象等),但阻止用户(例如,第一用户7102、或不同于第一用户7102的另一用户等)在另一用户(例如,第二用户7002、不同于第二用户7002的另一用户等)与第一用户界面对象交互时访问第一用户界面对象。当经由由第一用户(例如,第一用户7102)使用的第一显示生成部件(例如,显示生成部件7200、不同类型的显示生成部件诸如HMD等)显示包括第一用户界面对象的三维环境的视图时,计算机系统检测指向第一用户界面对象的第一用户输入(例如,注视输入、手部移动、注视输入与用户手部移动的组合等)。响应于检测到第一用户输入,取决于第一用户界面对象在此时是否可用于与第一用户交互,计算机系统相对于第一用户界面对象执行对应于第一用户输入的第一操作(例如,将第一用户界面对象或其表示移动到第一用户的手部7202的表示7202',执行与改变三维环境的第一用户界面对象相关联的功能(例如,引起三维环境中的虚拟内容的显示或删除、改变三维环境中的其他虚拟内容等)等),或者显示第一用户界面对象不可用于与第一用户交互的视觉指示并且放弃执行第一操作。计算机系统根据确定此时另一用户(例如,第二用户7002)具有对第一用户界面对象的控制而提供视觉指示并且放弃执行第一操作(例如,另一用户正在与第一用户界面对象交互、正在以排除第一用户的同时交互的方式与第一用户界面对象交互、并且/或者在第一用户界面对象上锁定第一用户正试图执行的动作类型等)。在一些实施方案中,显示视觉指示包括在向第一用户示出的三维环境的视图中移动第一用户界面对象以保持第一用户界面对象与第一用户的手部的接近表示之间的预设距离。在一些实施方案中,显示视觉指示包括在向第一用户示出的三维环境的视图中改变第一用户界面对象的视觉外观(例如,如图7C所示,在用户7102侧上的视图)。在一些实施方案中,当第一用户界面对象被控制用户释放给第一用户(例如,通过投掷手势、丢掷手势等)时,计算机系统旋转第一用户界面对象使得第一用户界面对象以相对于向第一用户示出的三维环境的当前显示视图的视点的预设取向显示(例如,以内容侧或控制侧面向第一用户7102显示)。在一些实施方案中,计算机系统通过在第一用户的部分的表示处或附近的位置处(例如,在第一用户7102的手部7202的表示中、在用户面部的虚拟位置的手臂可达范围内等)显示第一用户界面对象的表示来提供对第一用户的第一用户界面对象的控制访问。
在图7A-7C示出的示例中,根据一些实施方案,响应于用户7102和7002中的一个用户使用由所述一个用户控制的计算机系统发起的、并由用户7102和7002中的另一用户使用由所述另一用户控制的计算机系统接受的请求,在第一用户7102与第二用户7002之间共享三维环境7015。在一些实施方案中,两个用户都已经从第三用户使用的计算机系统接收并接受了使用其相应的计算机系统共享三维环境的请求。在一些实施方案中,两个用户都已经发送了使用其相应的计算机系统将三维环境共享到服务器的请求,其中其请求被服务器接受。当共享计算机生成的三维环境时,用户和其相应头部、眼睛、手部、手臂和/或手腕的位置和取向被传感器(例如,相机、运动传感器等)实时捕获或周期性地捕获,并且位置和取向数据被提供给由用户控制的计算机系统中的一者或两者,并且/或者被提供给与计算机系统通信的服务器。定位数据由计算机系统和/或服务器使用,以确定用户及其相应的头部、眼睛、手部、手臂和/或手腕在计算机生成的三维环境中的相应位置和取向,并且对应地,确定包括其相应头部、手臂、手部和/或手腕的用户的表示在经由与用户相关联的不同显示生成部件提供的三维环境的视图中的相应位置、以及经由与用户相关联的不同显示生成部件提供的三维环境的视图的查看视角和视点。
在一些实施方案中,当两个或多个用户共享计算机生成的环境(例如,虚拟会议呼叫、聊天会话、多玩家游戏、共享的计算机生成的体验(例如,群体冥想、锻炼、游戏、协作工作等)等)时,他们可能希望控制并且/或者操纵呈现在计算机生成的环境中的相同用户界面对象(例如,虚拟球、虚拟控制面板、文档或媒体内容、虚拟菜单、用户界面等)。这有时给计算机系统造成困难,使其难以一致区分不同用户相对于用户界面对象的动作的优先级,并且三维环境中的所得的改变可能使用户困惑。如本文所公开,计算机系统响应于第一用户7102与已经在环境中的第二用户7002的控制下的第一用户界面对象7016交互的尝试,通过改变呈现给第一用户7102的环境的视图7015-1中的第一用户界面对象的一组外观属性来提供视觉反馈,从而减少用户的动作之间的冲突并且减少当他们与第一用户界面对象7016交互时的用户困惑。在一些实施方案中,在向具有对第一用户界面对象的控制的第二用户7002示出的三维环境的视图7015-2中呈现的第一用户界面对象7016不会由于第一用户与第一用户界面对象交互的尝试而改变,并且不会在第二用户7002与第一用户界面对象7016交互时引起对第二用户7002的干扰。
图7A示出了示例性物理环境(例如,场景105、另一室内或室外物理环境等)。在一些实施方案中,如图7A中所示,两个或多个用户(例如,用户7102、用户7002等)呈现在相同物理环境中。第一用户7102正在经由第一显示生成部件(例如,显示生成部件7200、由第一用户使用的另一类型的显示生成部件诸如HMD等)查看三维环境7015(例如,增强现实环境、虚拟环境等)的第一视图7015-1。第二用户7002正在经由第二显示生成部件(例如,显示生成部件7100、由第二用户使用的另一类型的显示生成部件诸如HMD等)查看相同三维环境7015的第二视图7015-2。在一些实施方案中,该三维环境7015(例如,当经由第一显示生成部件7200呈现时被标记为7015-1,当经由第二显示生成部件7100呈现时被标记为7015-2等)是共享的计算机生成的体验、通信会话、应用程序环境、游戏、电影等的环境。
在一些实施方案中,第一用户7102和第二用户7002不一定同时定位在相同的物理环境中,并且可以分别定位在两个不同的物理环境中。在一些实施方案中,三维环境7015包括第一用户而非第二用户的物理环境的表示,并且第一用户和第二用户基于第一用户的物理环境在三维环境中具有共享的体验。在一些实施方案中,三维环境7015包括第二用户而非第一用户的物理环境的表示,并且第一用户和第二用户基于第二用户的物理环境在三维环境中具有共享的体验。在一些实施方案中,三维环境7015包括不是第一用户的物理环境或第二用户的物理环境的第三物理环境的表示,并且第一用户和第二用户基于第三物理环境在三维环境中具有共享的体验(例如,参与共享的体验的第三用户的物理环境、不与用户相关联或与不参与共享的体验的用户相关联的另一物理环境等)。在一些实施方案中,三维环境7015包括虚拟三维环境,并且第一用户和第二用户在该虚拟三维环境中具有共享的体验。在一些实施方案中,第一用户和第二用户在他们相应的物理环境(例如,相同的物理环境、不同的物理环境等)中的位置和移动被映射(例如,使用相同的映射关系、或使用不同的映射关系等)到相同的三维环境中的位置和移动,但是三维环境的外观可以被调整(例如,利用不同的壁纸、颜色方案、利用不同的虚拟家具等)以在向相应用户示出的三维环境的视图中与该相应用户相适应。
在一些实施方案中,计算机系统根据确定环境7015的至少一个空间部分(例如,对应于客厅而非厨房的环境的空间部分,对应于第一用户前面的物理空间部分而非第一用户后面的物理空间部分的环境的空间部分等)被共享来确定三维环境至少部分地在第一用户7102和第二用户7002之间共享。在一些实施方案中,计算机系统根据确定环境7015的至少一个空间部分在至少一段时间期间(例如,在第一用户与第二用户之间的通信会话期间、在早晨期间、在工作时间期间、当两个用户都在线时等)被共享来确定三维环境至少部分地在第一用户与第二用户之间共享。在一些实施方案中,计算机系统根据确定环境7105中的对象被完全或部分共享(例如,同时可查看和可访问、同时可查看但不可同时访问、当其他人具有控制(例如,所述其他人可以正在查看或没有正在查看该对象等)时可查看但不可访问)来确定三维环境7015至少部分地在第一用户与第二用户之间共享。在一些实施方案中,计算机系统根据确定三维环境7015的至少一部分(例如,在三维环境的第一视图7015-1中示出的部分、三维环境7015的另一部分等)被显示用于第一用户和第二用户两者同时查看来确定三维环境7015至少部分地在第一用户与第二用户之间共享。在一些实施方案中,计算机系统根据确定三维环境中的虚拟对象中的一些或全部虚拟对象在三维环境中向第一用户和第二用户两者同时显示来确定三维环境7015至少部分地在第一用户与第二用户之间共享。
在图7B和图7C中,计算机系统经由第一显示生成部件7200显示至少部分地在第一用户7102与第二用户7002之间共享的三维环境7015的第一视图7015-1;并且基本上与此同时(例如,针对网络延迟、处理时间延迟等进行调整),该计算机系统或与该计算机系统通信的另一计算机系统经由第二显示生成部件7100显示三维环境7105的第二视图7015-2。根据一些实施方案,第一视图7015-1和第二视图7015-2均包括三维环境的至少第一部分(例如,对应于表示在三维环境中的物理环境的相同部分的相应部分、对应于三维环境的虚拟环境的相同部分的相应部分等)。在一些实施方案中,在三维环境7015的第一视图7015-1和第二视图7105-2中任选地从不同的视角示出三维环境的第一部分(例如,基于第一用户和他/她的物理环境之间相应的空间关系,和/或第一用户和他/她的物理环境之间的相应空间关系等)。
在一些实施方案中,第一视图7015-1具有第一视点,该第一视点具有对应于第一用户7102在他/她的物理环境中的当前定位的位置,并且该位置根据第一用户7102在第一用户7102的物理环境(例如,场景105、另一物理环境等)中的移动而在三维环境7015中移动。在一些实施方案中,第二视图7015-2具有第二视点,该第二视点具有在三维环境7015中对应于第二用户7002在他/她的物理环境中的当前定位的位置,并且该位置根据第二用户7002在第二用户的物理环境(例如,场景105、另一物理环境等)中的移动而在三维环境7015中移动。在一些实施方案中,经由相应显示生成部件(例如,第一显示生成部件7200、第二显示生成部件7100等)示出的三维环境7015的当前显示视图的视点在三维环境7015中具有对应于相应显示生成部件的当前定位的位置,并且该位置根据相应显示生成部件在相应显示生成部件的物理环境(例如,场景105、另一物理环境等)中的移动而在三维环境7015中移动。在一些实施方案中,经由相应显示生成部件(例如,第一显示生成部件7200、第二显示生成部件7100等)示出的三维环境7015的当前显示视图的视点在三维环境中具有对应于与相应显示生成部件相关联的一个或多个相机的当前定位的位置,并且该位置根据与相应显示生成部件相关联的一个或多个相机在相应显示生成部件的物理环境(例如,场景105、另一物理环境等)中的移动而在三维环境7015中移动。在图7A-7C中示出的示例中,即使第一视图7015-1和第二视图7015-2看起来具有相同的视点,但是应当理解,经由第一显示生成部件7200和第二显示生成部件7100示出的相应视图以及它们对应的视点是基于第一显示生成部件(和第一用户)和第二显示生成部件(和第二用户)的相应物理环境中存在的空间关系和移动来分别且独立确定的,并且在给定时间不必完全相同。
在图7B和图7C中,三维环境7015的第一视图7015-1和第二视图7015-2包括一个或多个用户界面对象(例如,第一用户界面对象7016、第二用户界面对象7018、其他用户界面对象、虚拟三维对象等),并且任选地包括一个或多个表面(例如,墙壁7004的表示7004'或7004"、墙壁7006的表示7006'或7006"、地板7008的表示7008'或7008"、虚拟表面诸如虚拟墙壁、虚拟屏幕、虚拟窗口、虚拟风景等)和/或一个或多个物理对象的表示(例如,在物理环境7014中的物理对象7014的表示7014'或7014"、表示在三维环境7015中的另一物理环境中的其他物理对象的表示等)。在一些实施方案中,第一视图7015-1和第二视图7015-2不包括物理环境的表示,并且包括虚拟三维环境(例如,虚拟会议室、游戏环境、虚拟体验、虚拟体育竞技场等)。
在一些实施方案中,第一用户界面对象7016是应用程序的表示,并且与满足预设标准的第一用户界面对象的交互使得计算机系统在三维环境中启动应用程序或执行应用程序的应用程序功能。在一些实施方案中,第一用户界面对象7016是包括多个用户界面对象(例如,可选头像、可选菜单项、可选设备控件、可选内容项、滑块控件、按钮等)的用户界面。在一些实施方案中,第一用户界面对象7016是可根据用户在物理环境中的手部移动而在三维环境中被操纵(例如,变形、分成若干部分、旋转、移动等)的虚拟三维对象。在一些实施方案中,第一用户界面对象7016是单个控件或包括对应于不同功能或操作的多个控件的控制面板。在一些实施方案中,第一用户界面对象7016是信息项、通知、警告等。在一些实施方案中,第一用户界面对象7016是媒体项或文档等。
在一些实施方案中,如图7B和图7C中所示,第一视图7015-1包括第一用户7102的手部7202的表示7202'和第二用户7002的手部7028的表示7028',并且第二视图7015-2包括第一用户7102的手部7202的表示7202"和第二用户7002的手部7028的表示7028"。在图7B和图7C示出的场景中,第二用户7002具有对排除了第一用户7102与第一用户界面对象7016之间的同时交互的第一用户界面对象7016的控制。例如,在一些实施方案中,当第一用户界面对象7016在第一用户7002的控制下时,第一用户界面对象7016显示在三维环境7015中对应于第二用户7002的手部7028在第二用户7002的物理环境中的定位的位置处。在一些实施方案中,当第一用户界面对象7016在第二用户7002的控制下时,第一用户界面对象7016的表示显示在三维环境7015中对应于第二用户7002的手部7028在第二用户7002的物理环境中的定位的位置处,而第一用户界面对象7016显示在与第一用户界面对象7016的表示的位置分离的另一位置处。在该示例中,第二用户7002具有对第一用户界面对象7016的控制,并且第一用户界面对象7016显示在三维环境7015中对应于第二用户的手部7028的定位的位置处。在一些实施方案中,当第一用户界面对象7016在第二用户7002的控制下时,第一用户界面对象7016在三维环境7105中被定向成使得第一用户界面对象7016的预设表面(例如,前表面A、内容呈现表面、交互式表面等)面向对应于三维环境7015的当前显示的第二视图7015-2的视点(例如,向具有对第一用户界面对象7016的控制的第二用户7002示出的视图、由第二显示生成部件7100显示的视图等)。在一些实施方案中,第一用户界面对象7016可由具有对第一用户界面对象7016的控制的第二用户7002在三维环境中重新定向,使得第一用户界面对象7016的预设表面面向对应于三维环境的当前显示的第一视图7015-1的视点(例如,向此时不具有对第一用户界面对象7016的控制的第一用户7102示出的视图、由第一显示生成部件7200显示的视图等)。在一些实施方案中,当第一用户界面对象7016在第二用户7002的控制下并且不与第一用户7102共享时(例如,即使第一用户界面对象7016的内容显示侧在由第一显示生成部件7200呈现给第一用户7102的三维环境的第一视图7015-1内),第一用户界面对象7016上的内容中的至少一些内容仅被示出在三维环境的第二视图7015-2中,而不被示出在三维环境的第一视图7015-1中。在一些实施方案中,第二用户7002可通过重新定向第一用户界面对象7016使得第一用户界面对象7016的隐藏内容对第一用户7102可见,使得第一用户界面对象7016的内容呈现侧背对第二视图7015-2的视点。
在图7B和图7C中,第一视图7015-1和第二视图7015-2二者均包括第一用户的手部7202的相应表示(例如,表示7202'或7202")和第二用户的手部7028的相应表示(例如,表示7028'或7028")。在一些实施方案中,计算机系统基于用户手部的相机视图来显示手部的表示。在一些实施方案中,计算机系统通过显示生成部件的透明部分提供手部的表示的视图。在一些实施方案中,计算机系统基于从定位在第一用户和第二用户的物理环境中的一个或多个传感器接收的传感器信息生成用户手部的程式化表示。在一些实施方案中,用户手部的表示的位置和配置根据用户的手部在用户的物理环境中的定位和配置而改变。在一些实施方案中,计算机系统基于用户手部的相机视图来显示手部的表示。在一些实施方案中,计算机系统在给定时间显示一个用户的手部的表示,但不显示另一用户的手部的表示。例如,当第二用户7002具有对第一用户界面对象7016的控制时,第二用户的手部7028的表示任选地仅显示在向第二用户7002示出的第二视图7015-2中,而非显示在向第一用户7102示出的第一视图7015-1中。在另一示例中,由于第一用户和/或第二用户(和/或其相应的显示生成部件或相机等)在他们相应物理环境中的移动,用户手部的表示可以移入和移出经由相应显示生成部件提供的视场。
在图7B和图7C中,在经由具有对第一用户界面对象7016的控制的第二用户7002所使用的第二显示生成部件7100显示的三维环境的第二视图7015-2中,第一用户界面对象7016以第一组外观属性(例如,由第二显示生成部件向第二用户显示的第一用户界面对象的标准外观(例如,第一形状、第一大小、第一颜色、第一不透明度、第一饱和度级别、第一亮度级别等))显示。第一用户界面对象7016保持在第二用户7002的控制下的第一组外观属性,而不管第一用户7102是否正在尝试利用指向第一用户界面对象的相应移动或输入来访问第一用户界面对象7016。第一用户界面对象7016可以根据第二用户7002与第一用户界面对象7016之间通过第二用户7002所使用的计算机系统的交互以相应方式改变其外观。由第二用户7002与第一用户界面对象7016之间的交互引起的这些外观改变在改变发生的任何给定时间被任选地示出在第一视图7015-1和第二视图7015-2二者之中。
在图7B中,当第一用户7002没有试图访问或获得对第一用户界面对象7016的控制(例如,经由用户的部分(诸如用户手部)的移动、经由注视输入、经由空中手势、经由涉及手部的一个部分相对于手部的另一部分的移动的手势、经由经由控制对象提供的输入等)而第一用户界面对象7016在第二用户7002的控制下时,第一用户界面对象7016在三维环境的第一视图7015-1中与第二视图7015-2中以相同的第一组外观属性显示(任选地,从不同的查看角度,并且/或者编辑隐藏内容等)。如果第一视图和第二视图二者均捕获对应于包括第一用户的手部7202的物理空间的定位的三维环境的部分,则第一用户的手部7202在第一用户7102的物理环境中的移动可以表示在第一视图7015-1和第二视图7015-2二者中。
相反,在图7C中,计算机系统检测由第一用户7102提供的指向第一用户界面对象7016的第一用户输入。例如,在一些实施方案中,计算机系统检测第一用户7102的部分(例如,用户手部7202、第一用户的另一只手等)到第一用户7102的物理环境中对应于第一用户界面对象7016在三维环境7015中的位置的定位的移动。在一些实施方案中,计算机系统检测指向第一用户界面对象7016的注视输入以及结合该注视输入检测的控制输入(例如,手指移动手势、空中手势、由控制器提供的输入等)。在图7C示出的示例中,第一用户输入是第一用户的手部7202到对应于第一用户界面对象7016的位置的定位的移动,并且任选地,具有在三维环境中抓取第一用户界面对象7016的移动或姿势。在一些实施方案中,第一用户7102的手部7202的移动、位置和/或姿势的表示在第一视图7015-1和第二视图7015-2两者中示出。在一些实施方案中,第一用户7102的手部7202的移动、位置和/或姿势的表示仅在第一视图7015-1中示出而不在第二视图7015-2中示出。在一些实施方案中,通过不在第二视图7015-2中示出第一用户7102的手部7202的移动、位置和/或姿势,当第二用户7002与第一用户界面对象7016交互时由第二用户7002使用的计算机系统减少了对第二用户7002的干扰。
在图7C中,响应于检测到指向第一用户界面对象7016的第一用户输入并且根据确定第二用户7002当前正与第一用户界面对象交互(例如,具有对第一用户界面对象7016的控制、具有对排除了第一用户7102所请求的交互的第一用户界面对象的控制等),计算机系统显示第一用户界面对象7016不可用于与第一用户7102交互的视觉指示。在一些实施方案中,显示视觉指示包括改变第一用户界面对象7016的外观或第一用户界面对象7016在三维环境7015的第一视图7015-1中的位置中的至少一者。
在一些实施方案中,计算机系统根据确定第一用户界面对象7016与第二用户7002在三维环境中的虚拟位置具有预设空间关系(例如,第一用户界面对象7016在第二用户的手掌或手部7028的表示中,第一用户界面对象7016在三维环境的第一视图7015-1内的第二用户的私人空间内等)来确定第二用户7002当前正在与第一用户界面对象7016交互。在一些实施方案中,计算机系统根据确定第二用户7002正在通过经由第二显示生成部件7100显示三维环境的第二视图7015-2的计算机系统控制、选择、移动、修改和/或以其他方式与第一用户界面对象7016交互来确定第二用户7002当前正在与第一用户界面对象7016交互。
在一些实施方案中,为了在三维环境7015的第一视图7015-1中显示视觉指示以指示第一用户界面对象7016不可用于与第一用户7102交互,计算机系统以不同于第一组外观属性的第二组外观属性(例如,第二形状、第二大小、第二颜色、第二不透明度、第二饱和度级别、第二亮度级别等)显示第一用户界面对象7016(例如,第二组外观属性提供此时在第二用户的控制下的第一用户界面对象并且不可用于与第一用户交互的视觉指示)。例如,图7C中的第一视图7015-1中示出的第一用户界面对象7016比图7C中的第二视图7015-2中示出的第一用户界面对象更半透明。在一些实施方案中,为了在三维环境7015的第一视图7015-1中显示视觉指示以指示第一用户界面对象7016不可用于与第一用户7102交互,计算机系统在第一用户7102尝试抓取第一用户界面对象7016时将其移开。在一些实施方案中,第一用户界面对象7016在向第二用户7002显示的第二视图7015-2中保持其外观和/或位置,因为仅需要向第一用户7102显示视觉指示。在一些实施方案中,如果由第一用户7102提供的第一用户输入对应于相对于第一用户界面对象7016执行第一操作的请求,则计算机系统根据确定第二用户7002当前正与第一用户界面对象7016交互(例如,具有对第一用户界面对象7016的控制、具有对排除了第一用户7102所请求的交互的第一用户界面对象的控制等),不相对于第一用户界面对象7016执行第一操作。例如,在一些实施方案中,计算机系统不示出第一用户界面对象7106被第一用户的手部7202的表示7202'抓取。在一些实施方案中,计算机系统不示出移动到第一用户的手部7202的表示7202'中的重影图像或第一用户界面对象7016的另一表示。
在一些实施方案中,响应于检测到指向第一用户界面对象7106的第一用户输入并且根据确定第二用户7002当前没有与第一用户界面对象7016交互,计算机系统根据第一用户输入相对于第一用户界面对象执行第一操作。在一些实施方案中,执行第一操作包括根据第一用户输入示出第一用户界面对象7016被第一用户7102抓取或移动(例如,被移动到三维环境中的第一用户7102的虚拟位置、根据第一用户输入的移动而被移动等)。在一些实施方案中,执行第一操作包括示出第一用户界面对象7016被抓取和/或移动到第一用户的手部7202的表示7202'中的重影图像或其他表示。在一些实施方案中,当检测到来自第一用户7102的第一用户输入时,根据确定第二用户7002没有与第一用户界面对象7016交互,第一用户界面对象7106继续以第一组外观属性显示(例如,在第一用户界面对象的原始定位处或在第一用户的手部的表示中等)。
在一些实施方案中,当第一用户7102尝试抓取第一用户界面对象7016或以其他方式与第一用户界面对象交互同时第二用户7002正与第一用户界面对象交互时,计算机系统改变第一用户界面对象的外观,诸如在第一用户7102尝试抓取第一用户界面对象7016时在向第一用户7102显示的第一视图7015-1中淡出第一用户界面对象。例如,计算机系统改变第一用户界面对象7016的第一组外观属性中的至少一个外观属性(例如,增加第一用户界面对象的透明度级别、降低颜色饱和度、降低不透明度、模糊、变暗、降低分辨率、缩小大小等,任选地,同时保持第一用户界面对象7016的周围环境的外观(例如,不改变周围环境的外观和/或视觉显著性)等)以降低第一用户界面对象7016在三维环境的第一视图7015-1中的视觉显著性。在一些实施方案中,响应于检测到第一用户7102已停止尝试与第一用户界面对象7016交互,计算机系统恢复(例如,恢复到紧接在检测到第一用户输入之前或响应于检测到第一用户输入作出改变之前所存在的级别等)响应于第一用户抓取第一用户界面对象或以其他方式与第一用户界面对象交互的尝试而改变的第一用户界面对象的第一组外观属性中的至少一个(例如,一些、全部等)外观属性以恢复第一用户界面对象的视觉显著性。
在一些实施方案中,如果第一用户界面对象7016移动远离对应于第一用户的手部7202的定位的位置(例如,由第二用户7002的动作移动远离三维环境7015中的手部7202的表示7202',和/或根据在三维环境中发生的其他事件(例如,与第一用户7102进行的交互尝试无关的事件)等),则计算机系统恢复(例如,恢复到紧接在检测到第一用户输入之前或响应于检测到第一用户输入而作出改变之前所存在的级别等)响应于第一用户抓取第一用户界面对象或以其他方式与第一用户界面对象交互的尝试而改变的第一用户界面对象的第一组外观属性中的至少一个(例如,一些、全部等)外观属性以恢复第一用户界面对象的视觉显著性。
在一些实施方案中,在第一用户界面对象7016不可用于与第一用户7102交互的视觉指示被显示在第一视图7015-1中之后,计算机系统继续显示该视觉指示,直到计算机系统检测到第二用户7002不再与第一用户界面对象交互和/或已经放弃对第一用户界面对象的控制为止,使得第一用户界面对象可用于与第一用户7102交互。在一些实施方案中,在第一用户界面对象7016不可用于与第一用户7102交互的视觉指示被显示在第一视图7015-1中之后,计算机系统在第一用户已停止经由第一用户输入或另一输入尝试与第一用户界面对象7106交互之后继续显示该视觉指示达预设时间段(例如,十秒、五秒等)。
在一些实施方案中,可根据由具有对第一用户界面对象7016的控制的第二用户7002提供的手势输入(例如,丢掷手势、投掷手势、推动手势等)将第一用户界面对象7016发送到对应于第一用户的定位的位置(例如,对应于第一用户7102的手部7202的位置、对应于围绕第一用户7102的私人空间的位置等)。在一些实施方案中,作为由第二用户7002提供的手势输入的结果,第一用户界面对象7016在从三维环境7015中的第一位置行进到第二位置的同时旋转(例如,重新定向、改变面向方向等)。在一些实施方案中,在第一用户7102已经获得对第一用户界面对象7016的控制之后,还可根据由第一用户7102提供的手势输入(例如,丢掷手势、投掷手势、推动手势等)将第一用户界面对象7016发送到对应于第二用户7002的定位的位置。在一些实施方案中,作为由第一用户7102提供的手势输入的结果,第一用户界面对象7016在从三维环境7015中的第二位置行进到第三位置的同时旋转(例如,重新定向、改变面向方向等)。在一些实施方案中,第一用户界面对象7106旋转以使其内容呈现侧或交互侧面朝第一用户界面对象的接收者。
在一些实施方案中,可响应于由具有对第一用户界面对象的控制的用户提供的手势输入(例如,丢掷手势、投掷手势、推动手势等)而将第一用户界面对象7016发送到三维环境中使第一用户和第二用户两者能够以更好的视图看到第一用户界面对象的位置(例如,显示在三维环境7015的中心,显示在对应于物理环境105的墙壁的位置,显示在三维环境7015中的虚拟表面处等)。在一些实施方案中,第一用户界面对象在行进到三维环境中的该位置时旋转(例如,重新定向、改变面向方向等),使得当它到达三维环境中的该位置时,它将具有使得第一用户和第二用户两者能够查看其内容和/或交互侧和/或与三维环境的该位置处的表面(例如,墙面、桌面、虚拟表面、虚拟屏幕、虚拟桌面等的表示)具有预设空间关系(例如,叠置、平行于、相对于其成角度、垂直于、相对于其直立等)的取向。
在一些实施方案中,计算机系统将第一用户界面对象7016在三维环境的第一视图7015-1中的位置改变为第一用户界面对象7016不可用于与第一用户7102交互的视觉指示。在一些实施方案中,改变第一用户界面对象在三维环境的第一视图7015-1中的位置包括将第一用户界面对象7016从第一用户界面对象的原始位置移动以保持第一用户界面对象与提供第一用户输入的第一用户7102的手部7202的表示7202'之间的至少预设距离(例如,第一用户界面对象看起来在一个或多个方向上移动以避开尝试抓取第一用户界面对象的第一用户7102的手部7202的表示7202')。在一些实施方案中,第一用户界面对象7016的移动伴随着对第一用户界面对象的外观做出的改变(例如,第一用户界面对象在移动以避免第一用户7102的手部的表示7202'变得太靠近其自身时看起来变淡或变暗)。
在一些实施方案中,如果第一用户界面对象7016不在第二用户7002的控制下并且可用于与第一用户7102交互,则计算机系统在三维环境7015的第一视图7015-1中并且任选地还在三维环境的第二视图7015-2中将第一用户界面对象7016朝向第一用户的手部7202的表示7202'移动。
在一些实施方案中,由第一用户7102提供的第一用户输入包括(例如,是、包括、以其开始、以其结束等)预定义选择手势(例如,选择手势是包括食指在同一只手的拇指上的向下触摸的捏合手势(任选地,随后从拇指抬起食指,或轻弹连接到手的手腕,或平移整只手等),包括食指和同一只手的拇指从触摸姿势、捏合手势、捏合并拖动手势、捏合并轻弹手势等彼此拉开的手势)。在一些实施方案中,响应于在第二用户7002不与第一用户界面对象7016交互时检测到第一用户输入,计算机系统选择第一用户界面对象7016作为从第一用户7102接收的后续输入(例如,在保持捏合手势时的拖动手势,在保持捏合手势时的轻弹手势,在预定义选择手势终止之后的拖动手势等)的目标。在一些实施方案中,结合选择第一用户界面对象7016作为从第一用户7102接收的后续输入的目标,计算机系统在对应于第一用户7102的手部7202的定位的位置处显示第一用户界面对象7016的表示(例如,第一用户界面对象的副本、第一用户界面对象的重影图像等),同时将第一用户界面对象7106保持在三维环境的第一视图7015-1中的第一位置处(例如,第一用户界面对象保持在其原始位置处,但可由第一用户7102根据第一用户7102与第一用户界面对象的表示之间的交互来“远程地”控制)。在一些实施方案中,第一用户界面对象的表示被显示在第一用户的手7202的表示7202'附近,但是直到计算机系统检测到由第一用户7102提供的另一选择输入才会去往对应于第一用户的手部的定位的位置。在一些实施方案中,计算机系统根据确定第一用户7102正在提供与选择输入的要求一致的输入来改变第一用户界面对象的表示的形状,并且第一用户界面对象的表示的形状的改变任选地提供关于完成选择输入的要求的视觉指导。在一些实施方案中,与第一用户界面对象的表示的用户交互被转换成与第一用户界面对象的交互,并且使得计算机系统根据第一用户7102与第一用户界面对象的表示之间的交互来执行相对于第一用户界面对象的操作。在一些实施方案中,第一用户界面对象的表示保持显示在第一用户的手部7202的表示7202'的位置处以指示第一用户7102具有对第一用户界面对象的控制,任选地,排除与第一用户共享三维环境的其他用户的交互。
在一些实施方案中,以上关于图7A-7C中的计算机系统、第一显示生成部件7200和第二显示生成部件7100的行为描述的一些或全部特征同样适用于其中第一用户7102和第二用户7002相对于第一用户界面对象7016的角色被颠倒的其他场景。在此类其他场景中,由第一用户和第二用户使用的计算机系统和显示生成部件的操作在特定场景中可相应地被颠倒。上述特征仍然有效,因此为了简洁起见,本文不再重复。
图7D-7F是示出根据一些实施方案的以不同方式显示相对于三维环境的当前显示视图的视点的物理对象的表示的方法的框图,其中视点根据用户在第一物理环境中的移动而移动,物理对象的表示根据物理对象在不同于第一物理环境的第二物理环境中的移动而移动,并且其中显示表示的方式的改变响应于物理对象的表示与满足预设标准的视点之间的空间关系而触发。
在一些实施方案中,计算机系统显示包括物理对象(例如,第二用户7102、动物、移动无人机等)的表示的三维环境7304的视图,该物理对象位于与第一用户(以及第一用户7002用以查看三维环境7204的第一显示生成部件7100)的物理环境(例如,场景105-a,或另一室内或室外物理环境等)不同的物理环境(例如,场景105-b,或另一室内或室外物理环境等)中。计算机系统任选地根据第一用户7002(和/或第一显示生成部件7100)在其物理环境(例如,场景105-a或另一物理环境等)中的移动来移动对应于三维环境7304的当前显示视图的视点。计算机系统基于物理对象在其物理环境(例如,场景105-b或另一物理环境等)中的定位和移动路径来确定物理对象的表示(例如,第二用户7102的表示7102'-a、另一物理对象的表示等)在三维环境7204中的位置和移动路径。计算机系统利用在三维环境7304中的位置和在相应物理环境(例如,第一用户105和第一显示生成部件7100的物理环境7002-a、物理对象的物理环境(例如,第二用户105的物理环境7102-b、物理对象的另一物理环境等)等)中的定位之间的第一类型的对应关系(例如,映射和转换关系;任选地,视点、物理对象和第一用户等的不同映射和转换关系)。在一些条件下(例如,由于第一用户7002的移动和/或物理对象(例如,在该示例中由第二用户7102表示的物理对象)的移动等),如果使用三维环境7304中的位置与物理环境(例如,场景105-a、105-b等)中的定位之间的第一类型的对应关系来确定位置,则物理对象的表示的位置将在经由第一显示生成部件7100示出的三维环境7304的当前显示视图(例如,视图7304-a、7304-a'等)的视点的位置的阈值距离(例如,手臂的长度、三英尺、用户指定的距离等)内。在此类条件下,计算机系统在与基于第一类型的对应关系确定的位置偏移的调整位置处显示物理对象的表示(例如,在该示例中为表示7102'-a)(例如,如图7F中所示)。在一些实施方案中,调整位置基于不同于第一类型的对应关系的第二类型的对应关系来确定,并且确保调整位置与经由第一显示生成部件示出的三维环境的当前显示视图(例如,视图7304-a"、经由第一显示生成部件7100示出的后续视图等)的视点的位置保持大于阈值距离。计算机系统继续使用第二类型的对应关系来确定物理对象的表示(例如,在该示例中,表示7102'-a)的调整位置,直到基于第一类型的对应关系计算出的未调整位置与经由第一显示生成部件示出的三维环境的当前显示视图(例如,视图7304-a、经由第一显示生成部件7100示出的后续视图等)的视点的位置的距离大于阈值距离。
在一些实施方案中,当计算机系统向第一用户7002提供三维环境7304的视图,并且对应于三维环境7304的当前显示视图的视点的位置基于第一用户的头部、身体或眼睛在第一用户7002的物理环境中的位置时,计算机系统有时在对应于物理对象在其相应物理环境中的定位的位置处显示其他物理对象(例如,在该示例中,由第二用户7102表示的物理对象,但是可为不与第一用户7002共享计算机生成的环境7304的无生命对象或有生命对象等)的表示。在一些情况下,即使在第一用户7002与真实世界中的其他物理对象之间不存在实际物理碰撞或不舒适的空间接近的危险或可能性,物理对象的表示的位置也可能与对应于向第一用户示出的视图的视点的位置碰撞或太靠近(例如,如果未被具体调整、以其他方式解决等),并且有时使得第一用户在三维环境中的视觉体验对于第一用户而言不舒适或不和谐。
如本文所公开的,当基于第一类型的对应关系确定的物理对象的表示的位置不在对应于向第一用户示出的三维环境的当前显示视图的视点的阈值范围内时,计算机系统基于三维环境中的位置与物理对象的物理环境中的对应定位之间的第一类型的对应关系或映射关系来确定位于与第一用户不同的物理环境中的物理对象的表示的位置。这意味着,如果物理对象的表示与视点的虚拟位置相距一定距离,则物理对象的表示在三维环境中的移动可以模仿在真实世界中的移动和空间关系的方式对应于物理对象的移动,并且物理对象的表示将不会侵犯第一用户的个人空间的感觉。然而,如果物理对象的表示与视点的虚拟位置非常接近,则物理对象的表示的以相同方式(例如,根据第一类型的对应关系或映射关系)对应于物理对象的移动的移动将导致物理对象的表示以不合理的大小显示、与视点重叠,以及/或者侵犯第一用户的个人空间的感觉。因此,根据确定物理对象的表示将基于第一类型的对应关系或映射关系而在视点的阈值距离内,计算机系统使用三维环境中的位置与物理对象的物理环境中的对应定位之间的第二类型的对应关系或映射关系来计算物理对象的表示的调整位置,使得物理对象的表示可在调整位置处显示和/或以避免以不合理大小显示、与视点重叠以及/或者侵犯第一用户的个人空间的感觉的方式移动。
图7D示出了根据一些实施方案的两个用户(例如,第一用户7002和第二用户7102)共享计算机生成的三维环境7304的场景。在一些实施方案中,第一用户7002位于第一物理环境105-a中,并且第二用户7102位于第二物理环境105-b中。在一些实施方案中,第一物理环境和第二物理环境是相同物理环境的可彼此重叠的部分。在一些实施方案中,第一物理环境和第二物理环境是彼此不重叠的分开的物理环境。在一些实施方案中,第一物理环境和第二物理环境任选地为室内环境、室外环境、一个为室内环境而另一个为室外环境、室内环境和室外环境的混合等。在该示例中,第一物理环境包括物理表面(例如,墙壁7004-a和7006-a、地板7008-a等)和物理对象(例如,物理对象7010、其他物理对象等);并且第二物理环境包括物理表面(例如,墙壁7004-b和7006-b、地板7008-b等)和物理对象(例如,物理对象7014、其他物理对象等)。第一用户7002是第一显示生成部件7100的用户,并且经由第一显示生成部件7100被提供共享三维环境7304的第一视图7304-a(以及随后更新的第一视图7304-a'、7304-a"等)。第二用户7102是第二显示生成部件7200的用户,并且经由第二显示生成部件7200被提供共享三维环境7304的第二视图7304-b(以及随后更新的第一视图7304-b'、7304-b"等)。为了进行示意性的说明,第一用户7002在第一物理环境7304-a中沿着直线7300向前移动,并且第二用户7102在第二物理环境105-b中沿着直线7302向前移动,其中直线7300在三维环境7304的第二视图7304-b中的表示7300'穿过第二视图105-b的视点;并且直线7302在三维环境7304的第一视图7304-a中的表示7302'穿过第一视图7304-a的视点。在一些实施方案中,不要求第一用户7002和第二用户7102的移动路径应为直线,并且该路径可为任何形状和/或具有在其物理环境中适合的任何空间范围。在一些实施方案中,不要求第一用户和第二用户两者在它们各自的物理环境中移动。在一些实施方案中,经由相应显示生成部件提供的三维环境的当前显示视图的视点可不为静止的,并且/或者可根据相应显示生成部件的移动和/或相应显示生成部件的相应用户的移动而移动。在一些实施方案中,不要求三维环境是第一用户和第二用户之间的共享环境。例如,在一些实施方案中,从第一显示生成部件7100的角度来看,该示例中的第二用户7102仅是第二物理环境中的物理对象(例如,不使用三维环境或不向三维环境提供输入的动物、无人机、人等)的表示。类似地,在一些实施方案中,从第二显示生成部件的角度来看,该示例中的第一用户7002仅是第一物理环境中的物理对象(例如,不使用三维环境或不向三维环境提供输入的动物、无人机、人等)的表示。在一些实施方案中,仅使用显示生成部件中的一个(例如,第一显示生成部件、第二显示生成部件等),并且另一显示生成部件不存在或不参与本文所述的过程。
在图7D所示的示例中,根据一些实施方案,响应于用户7002和7102中的一个用户使用由所述一个用户控制的计算机系统发起的、并由用户7002和7102中的另一个用户使用由所述另一用户控制的计算机系统接受的请求,在用户7002与用户7102之间共享三维环境7304。在一些实施方案中,两个用户都已经从第三用户使用的计算机系统接收并接受了使用其相应的计算机系统共享三维环境的请求。在一些实施方案中,两个用户都已经发送了使用其相应的计算机系统将三维环境共享到服务器的请求,其中其请求被服务器接受。当共享计算机生成的三维环境时,用户和其相应头部、眼睛、手部、手臂和/或手腕的位置和取向被传感器(例如,相机、运动传感器等)实时捕获或周期性地捕获,并且位置和取向数据被提供给由用户控制的计算机系统中的一者或两者,并且/或者被提供给与计算机系统通信的服务器。定位数据由计算机系统和/或服务器使用,以确定用户及其相应的头部、眼睛、手部、手臂和/或手腕在计算机生成的三维环境中的相应位置和取向,并且对应地,确定包括其相应头部、手臂、手部和/或手腕的用户的表示在经由与用户相关联的不同显示生成部件提供的三维环境的视图中的相应位置、以及经由与用户相关联的不同显示生成部件提供的三维环境的视图的观看视角。在一些实施方案中,由用户共享的计算机生成的环境是虚拟会议呼叫、聊天会话、多玩家游戏、共享的计算机生成的体验(例如,群体冥想、锻炼、游戏、协作工作等)等的环境。在一些实施方案中,用户的表示是用户的相应化身。在一些实施方案中,用户的表示任选地不附接到三维环境中的表面或不由三维环境中的表面支撑。
在图7D的部分(A)中,计算机系统经由第一显示生成部件7100显示三维环境7304的第一视图7304-a。在三维环境的第一视图7304-a中,第二用户7102的表示7102'-a被显示在对应于第二物理环境105-b中的第二用户7102的当前定位的位置处。在三维环境的第一视图7304-a中存在其他对象,诸如虚拟路径7306-a、虚拟对象7308-a等。第一视图7304-a中的第二用户7102的表示7102'-a、虚拟对象7308-a和虚拟路径7306-a的相应外观和显示位置基于它们在三维环境中相对于经由第一显示生成部件7100示出的三维环境的当前显示的第一视图7304-a的视点的位置的相应位置。在一些实施方案中,第一用户7002的表示7002'-a任选地在三维环境的第一视图7304-a中的对应于第一用户7002的虚拟位置和/或三维环境中当前显示的第一视图7304-a的视点的位置处可见。在该示例中,如图7D的部分(A)所示,计算机系统显示表示7102'-a沿着直线7302的表示7302'朝向第一视图7304-a的视点的虚拟位置的移动。在图7D中所描绘的时刻,表示7102'-a被显示在根据三维环境7304中的位置与第二物理环境(例如,场景105-b或第二用户7102的另一物理环境等)中的定位之间的第一类型的对应关系所计算的位置处。第二用户7102的表示7102'-a被示为随着第二用户7102在第二物理环境中沿着线7302向前移动而朝向并接近第一视图7304-a的视点移动。
在一些实施方案中,如图7D的部分(B)所示,计算机系统或与计算机系统通信的另一计算机系统任选地经由显示生成部件7200显示三维环境7304的第二视图7304-b。在三维环境的第二视图7304-b中,第一用户7002的表示7002'-b被显示在对应于第一用户7002在第一物理环境(例如,场景105-a或第一用户的另一物理环境等)中的当前定位的位置处。在三维环境的第二视图7304-b中存在其他对象,诸如虚拟路径7306-b(例如,与虚拟路径7306-a相同的虚拟路径,但从第二视图7304-b的视点观看)、虚拟对象7308-b(例如,与虚拟对象7308-a相同的虚拟对象,但从第二视图7304-b的视点观看)等。第一用户7002的表示7002'-b、虚拟对象7308-b和虚拟路径7306-b在第二视图7304-b中的相应外观和显示位置基于它们在三维环境中相对于经由第二显示生成部件7200示出的三维环境的当前显示的第二视图7304-b的视点位置的相应位置。在一些实施方案中,第二用户7102的表示7102'-b在三维环境的第二视图7304-b中的对应于第二用户7102的虚拟位置和/或当前显示的第二视图7304-b的视点的位置处可见。在该示例中,如图7D的部分(B)所示,计算机系统显示表示7002'-b沿着直线7300的表示7300'朝向第二视图7304-b的视点的虚拟位置的移动。在图7D所描绘的时刻,表示7002'-b被显示在根据三维环境7304中的位置与第一物理环境(例如,场景105-a或第一用户的另一物理环境等)中的定位之间的第一类型的对应关系所计算的位置处。第一用户7002的表示7002'-b被示为随着第一用户7002在第一物理环境中沿着线7300向前移动而朝向并接近第二视图7304-b的视点的虚拟位置移动。
图7E示出了这样的时间点,这时第一用户7002和第二用户7102中的任一个或两个已经在它们各自的物理环境中移动使得根据第一类型的对应关系(例如,三维环境7304中的位置与第一物理环境中的定位之间的第一类型的对应关系、三维环境7304中的位置与第二物理环境中的定位之间的第一类型的对应关系等)所计算的第一用户和第二用户在三维环境7304中的各自位置在三维环境7304中彼此相距相应预设阈值距离。在一些实施方案中,此时,如图7E的部分(A)中所示,根据三维环境7304中的位置与第二物理环境中的定位之间的第一类型的对应关系所计算的第二用户7102的表示7102'-a的相应位置和更新的第一视图7304-a'的视点的位置在三维环境7304中彼此相距第一阈值距离。在一些实施方案中,任选地,如图7E的部分(B)所示,根据三维环境7304中的位置与第一物理环境中的定位之间的第一类型的对应关系所计算的第一用户7002的表示7002'-b的相应位置和更新的第二视图7304-b'的视点的位置的距离处于三维环境中彼此的第二预设阈值距离(例如,与第一预设阈值距离相同、相距不同的预设阈值距离等)。在一些实施方案中,第一阈值距离不同于第二阈值距离,具体取决于第一用户和第二用户的相应个人设置和其他特性(例如,大小、形状、姿势、活动等)。
在图7E的部分(A)中,响应于检测到第一用户7002和第二用户7102在他/她的物理环境中的移动,计算机系统显示三维环境的更新的第一视图7304-a',该视图具有根据第一用户7002在第一物理环境中的移动而移动的视点。在一些实施方案中,如果第一用户7002和/或第一显示生成部件7100没有在第一物理环境中移动,则更新的第一视图7304-a'的视点在三维环境中静止。在一些实施方案中,根据确定根据第一类型的对应关系基于第二用户在第二物理环境中的当前定位所计算的第二用户7102的表示7102'-a在三维环境中的相应位置距三维环境中与三维环境的更新的第一视图7304-a’所关联的视点相对应的相应位置的距离大于或不小于第一预设阈值距离,计算机系统在三维环境的更新的第一视图7304-a'中的第一显示位置处显示表示7102'-a,其中该第一显示位置是表示7102'-a在三维环境中的相应位置。
在一些实施方案中,第一预设阈值距离是手臂的长度、第一用户7002在三维环境7304中的个人空间的预设半径,由围绕第一用户7002在三维环境中的虚拟位置的预设边界表面(例如,第一用户7002的表示的虚拟表面,或围绕第一用户7002的虚拟位置的边界框)限定。
在一些实施方案中,任选地,如图7E的部分(B)中所示,响应于检测到第二用户7102在他/她的物理环境中的移动,第二用户7102的计算机系统显示三维环境7304的更新的第二视图7304-b',该视图具有根据第二用户7102在第二物理环境中的移动而移动的视点。在一些实施方案中,如果第二用户7102和/或第二显示生成部件7200没有在第二物理环境中移动,则更新的第二视图7304-b'的视点在三维环境中静止。在一些实施方案中,根据确定根据第一类型的对应关系基于第一用户7002在第一物理环境中的当前定位所计算的第一用户7002的表示7002'-b在三维环境中的相应位置距三维环境中与三维环境的更新的第二视图7304-b’所关联的视点相对应的相应位置的距离大于或不小于第二预设阈值距离,第二用户7102的计算机系统在三维环境的更新的第二视图7304-b'中的第二显示位置处显示表示7002'-b,其中该第二显示位置是表示7002'-b在三维环境中的相应位置。
在一些实施方案中,第二预设阈值距离是手臂的长度、第二用户7102在三维环境中的个人空间的预设半径,由围绕第二用户7102在三维环境中的虚拟位置的预设边界表面(例如,第二用户7102的表示的虚拟表面,或围绕第二用户7102的虚拟位置的边界框等)限定等。
在图7F中,即在图7E所示之后的下一个时刻,第一用户7002和第二用户7102中的任一个或两个的移动继续在它们各自的物理环境中继续,使得根据第一类型的对应关系(例如,三维环境7304中的位置与第一物理环境中的定位之间的第一类型的对应关系,三维环境7304中的位置与第二物理环境中的定位之间的第一类型的对应关系等)所计算的第一用户和第二用户在三维环境中的相应位置在三维环境中彼此位于相应预设阈值距离之内。在一些实施方案中,此时,根据三维环境7304中的位置与第二物理环境中的定位之间的第一类型的对应关系所计算的第二用户7102的表示的相应位置和进一步更新的第一视图7304-a"的视点的位置在三维环境中彼此相距小于第一预设阈值距离。
在图7F的部分(A)中,响应于检测到第一用户7002和/或第二用户7102在它们各自的物理环境中的进一步移动,计算机系统显示三维环境的进一步更新的第一视图7304-a",该视图具有根据第一用户7002在第一物理环境中的进一步移动而移动的视点。在一些实施方案中,如果第一用户7002和/或第一显示生成部件7100没有在第一物理环境中移动,则进一步更新的第一视图7304-a"的视点在三维环境中静止。在一些实施方案中,根据确定根据第一类型的对应关系基于第二用户7102在第二物理环境中的当前定位所计算的第二用户7102的表示7102'-a在三维环境中的相应位置距三维环境中与三维环境的进一步更新的第一视图7304-a"所关联的视点相对应的相应位置的距离小于第一预设阈值距离,计算机系统在三维环境的进一步更新的第一视图7304-a"中的调整显示位置处显示表示7102'-a,其中该调整显示位置与表示7102'-a此刻在三维环境中的相应位置偏移。例如,在图7F的部分(A)中,代替在进一步更新的第一视图7304-a"中在表示7002'-a正前方的位置或与表示7002'-a重叠的位置处显示表示7102'-a,表示7002'-a的调整显示位置被偏移到第一用户7002的表示7002'-a的一侧(例如,右侧、或另一侧或方向等)。一般来讲,代替在当前显示的第一视图7304-a"的视点的第一预设阈值距离内的位置处显示表示7102'-a,计算机系统在与根据第一类型的对应关系计算的未调整位置偏移的调整显示位置处显示表示7102'-a。在一些实施方案中,计算机系统在第一用户7002和/或第二用户7102的移动期间继续将调整应用于表示7102'-a的显示位置,直到表示7102'-a的位置与当前显示的第一视图7304-a"的视点的位置之间的距离不再在彼此的第一预设阈值距离内。
在一些实施方案中,任选地,如图7F的部分(B)所示,根据三维环境7304中的位置与第一物理环境中的定位之间的第一类型的对应关系所计算的第一用户7002的表示7002'-b的相应位置和进一步更新的第二视图7304-b"的视点的位置的距离小于三维环境中彼此的第二预设阈值距离(例如,与第一预设阈值距离相同、相距不同的预设阈值距离等)。
在图7F的部分(B)中,响应于检测到第一用户7002和/或第二用户7102在它们各自的物理环境中的进一步移动,第二用户7102的计算机系统显示三维环境的进一步更新的第二视图7304-b",该视图具有根据第二用户7102在第二物理环境中的进一步移动而移动的视点。在一些实施方案中,如果第二用户7102和/或第二显示生成部件7200没有在第二物理环境中移动,则进一步更新的第二视图7304-a"的视点在三维环境中静止。在一些实施方案中,根据确定根据第一类型的对应关系基于第一用户7002在第一物理环境中的当前定位所计算的第一用户7002的表示7002'-b在三维环境中的相应位置距三维环境中与三维环境的进一步更新的第二视图7304-b"所关联的视点相对应的相应位置的距离小于第二预设阈值距离,第二用户7102的计算机系统在三维环境的进一步更新的第二视图7304-b"中的调整显示位置处显示表示7002'-b,其中该调整显示位置与表示7002'-b此刻在三维环境中的相应位置偏移。例如,在图7F的部分(B)中,代替在进一步更新的第二视图7304-b"中在表示7102'-b正前方的位置或与表示7102'-b重叠的位置处显示表示7002'-b,表示7002'-b的调整显示位置被偏移到第二用户7102的表示7102'-b的一侧(例如,右侧、或另一侧或方向等)。一般来讲,代替在当前显示的第二视图7304-b"的视点的第二预设阈值距离内的位置处显示表示7002'-b,第二用户7102的计算机系统在与根据第一类型的对应关系计算的未调整位置偏移的调整显示位置处显示表示7002'-b。在一些实施方案中,第二用户7102的计算机系统在第一用户和/或第二用户的移动期间继续应用该调整,直到表示7002'-b的位置与当前显示的第二视图7304-b"的视点的位置之间的距离不再在彼此的预设第二阈值距离内。
在一些实施方案中,在上述示例中,第一用户7002正在移动,并且第二用户7102静止。因此,除非以上述方式调整,否则当前显示视图7304-a、7304-a'和7304-a"的视点在三维环境中具有不同的位置;并且第一用户7002的表示7002'-b在三维环境中具有不同的位置(例如,在图7D-7F中的当前显示的第一视图7304-a、7304-a'和7304-a"以及当前显示的第二视图7304-b、7304-b'、7304-b"中具有不同的位置)。除非以上述方式调整,否则当前显示视图7304-b、7304-b'和7304-b"的视点在三维环境中具有相同的位置;并且第二用户7102的表示7102'-a在三维环境中具有相同位置(例如,在图7D-7F中的当前显示的第一视图7304-a、7304-a'和7304-a"以及当前显示的第二视图7304-b、7304-b'、7304-b"中具有相同的位置)。
在一些实施方案中,在以上示例中,第一用户7002静止,并且第二用户7102在第二物理环境中移动。因此,除非以上述方式调整,否则当前显示视图7304-b、7304-b'和7304-b"的视点在三维环境中具有不同的位置;并且第二用户7102的表示7102'-a在三维环境中具有不同的位置(例如,在图7D-7F中的当前显示的第一视图7304-a、7304-a'和7304-a"以及当前显示的第二视图7304-b、7304-b'、7304-b"中具有不同的位置)。除非以上述方式调整,否则当前显示视图7304-a、7304-a'和7304-a"的视点在三维环境中具有相同的位置;并且第一用户7002的表示7002'-b在三维环境中具有相同的位置(例如,在图7D-7F中的当前显示的第一视图7304-a、7304-a'和7304-a"以及当前显示的第二视图7304-b、7304-b'、7304-b"中具有相同的位置)。
在一些实施方案中,在上述示例中,第一用户7002和第二用户7102两者在它们各自的物理环境中移动。结果,当前显示的第一视图7304-b、7304-b'和7304-b"的视点以及当前显示的第二视图7304-a、7304-a'、7304-a"的视点在三维环境中全部具有不同的位置;在图7D-7F中的当前显示的第一视图7304-a、7304-a'和7304-a"以及当前显示的第二视图7304-b、7304-b'和7304-b"中,第二用户7102的表示7102'-a在三维环境中具有不同位置;并且在图7D-7F中的当前显示的第一视图7304-a、7304-a'和7304-a"以及当前显示的第二视图7304-b、7304-b'、7304-b"中,第一用户7002的表示7002'-b在三维环境中具有不同的位置。
在一些实施方案中,第一用户7002的表示7002'-b和/或第二用户7102的表示7102'-a在第一视图和第二视图中在空间中浮动。例如,在一些实施方案中,第一用户7002的表示7002'-b是第一用户7002的浮动化身,该浮动化身在三维环境的第二视图7034-b、7034-b'和7034-b"等中浮动,并且由于第一用户的移动和/或第二用户的移动,当第二视图7034-b"的视点进入表示7002'-b的第二预设阈值距离内时自动地移开。类似地,在一些实施方案中,第二用户7102的表示7102'-a是第二用户7102的浮动化身,该浮动化身在三维环境的第一视图7034-a、7034-a'和7034-a"等中浮动,并且由于第一用户的移动和/或第二用户的移动,当第一视图7034-a"的视点进入表示7102'-a的第一预设阈值距离内时自动地移开。在一些实施方案中,用户在三维环境中的化身具有基于三维环境的真实度级别(例如,照片真实度级别、卡通真实度级别等)选择的真实度级别。在一些实施方案中,根据确定三维环境7304以第一真实度级别显示,用户的表示以对应于第一真实度级别的第一组显示属性(例如,第一分辨率、第一维数、第一清晰度级别、第一调色板、无照明效果等)显示,并且根据确定三维环境以不同于(例如,大于、小于等)第一真实度级别的第二真实度级别显示,用户的表示以对应于第二真实度级别的第二组显示属性(例如,第二分辨率、第二维数、第二清晰度级别、第二调色板、具有照明效果等)显示,第二组显示属性不同于(例如,大于、小于、加上、减去等)第一组显示属性。
在一些实施方案中,当相应用户的表示的显示位置调整时,相应用户的表示以不对应于相应用户以通常方式(例如,根据第一类型的对应关系,不进行调整等)在物理环境中的移动的移动分量移动。在一些实施方案中,应用于相应用户的相应表示的调整位置的偏移量可基于相应表示与三维环境中的视点的虚拟位置之间的空间关系而变化。在一些实施方案中,对表示7102'-a的显示位置的调整任选地应用于向第一用户7002显示的第一视图7304-a",并且不应用于向第二用户7102显示的第二视图7304-b"。在一些实施方案中,对表示7002'-b的显示位置的调整任选地应用于向第二用户7102显示的第二视图7304-b",并且不应用于向第一用户7002显示的第一视图7304-a"。
在一些实施方案中,三维环境7304包括虚拟三维环境或增强现实环境,并且第一用户和第二用户在该虚拟三维环境中具有共享的体验。在一些实施方案中,第一用户和第二用户在他们相应的物理环境(例如,相同的物理环境、不同的物理环境等)中的位置和移动被映射(例如,使用相同的映射关系、或使用不同的映射关系等)到相同的三维环境中的位置和移动,但是三维环境的外观可以被调整(例如,利用不同的壁纸、颜色方案、利用不同的虚拟家具等)以在向相应用户示出的三维环境的视图中与该相应用户相适应。
图7G-7J是示出根据一些实施方案的根据改变由计算机系统接收的用户的生物计量数据来改变显示计算机生成的体验的环境的沉浸级别的框图。
在一些实施方案中,计算机系统根据对应于用户(例如,用户7002)的生物计量数据(例如,由条7312表示的生物计量数据、其他生物计量数据等)来改变呈现给用户的计算机生成的体验(例如,视觉体验、视听体验、虚拟现实体验、增强现实体验等)的沉浸级别。例如,当用户在计算机生成的体验开始之后调整他/她的身体和情绪状态时,例如,主动地调整和/或在计算机生成的内容的影响下调整,计算机系统可检测对应于用户的生物计量数据(例如,心率、血压、呼吸速率等)的变化。根据生物计量数据相对于与不同沉浸级别相关联的相应组预设标准的变化(例如,由指示符7326表示的阈值,或其他类型的阈值或标准等),计算机系统提高或降低提供给用户的计算机生成的体验的沉浸级别(例如,通过相对于物理环境的表示的视觉显著性(例如,包括空间范围、视觉深度、颜色饱和度、视觉对比度等)来改变虚拟内容的视觉显著性(例如,通过增强虚拟内容的复杂性、空间范围和/或视觉特性,和/或降低物理环境的表示的视觉清晰度、模糊半径、不透明度、颜色饱和度等))。
在图7G-7J所示的示例中,计算机系统最初经由显示生成部件(例如,显示生成部件7100,或另一类型的显示生成部件诸如HMD等)来显示三维环境的视图7316。在一些实施方案中,三维环境的视图7316是用户7002的物理环境的透传视图,并且在由显示生成部件提供的视场的外围部分中不包括虚拟内容或包括最少量的虚拟内容(例如,系统控件、指示符等)。视图7316对应于提供给用户的计算机生成的体验的低沉浸级别,例如由于相对于用户的物理环境的表示所显示的最小量的虚拟内容。在该示例中,三维环境的视图7316包括物理表面的表示(例如,用户7002的物理环境105中的两个相邻墙壁7004和7006的表示7004'和7006'、地板7008的表示7008'等)和物理对象的表示(例如,用户7002的物理环境105中的物理对象7010的表示7010'和其他物理对象的表示等)。
图7G还示出了计算机系统在以低沉浸级别显示三维环境的视图7316(例如,显示物理环境的透传视图,或以最小量的虚拟内容显示物理环境的表示等)时,计算机系统接收对应于用户7002的生物计量数据。根据确定用户7002的生物计量数据不满足对应于下一更高沉浸级别的预设标准,计算机系统保持三维环境的第一视图7316的显示,而不降低物理环境的表示在三维环境的当前显示视图中的视觉显著性。例如,如图7G所示,该生物计量数据具有由条7312相对于生物计量数据的值的完全范围的长度所指示的值或值的集合,并且对应于转变到不同的更高沉浸级别的预设标准的阈值由指示符7326相对于生物计量数据的值的完全范围的位置来指示。
在一些实施方案中,对应于用户7002的生物计量数据包括用户7002的心率、呼吸速率、体温、某些化学物质、药物和/或激素等的血清浓度、血压、脑电波、注意力水平、瞳孔大小、代谢速率、血糖水平等中的一者或多者。在一些实施方案中,对应于用户7002的生物计量数据包括在用户参与计算机生成的体验期间可随时间变化的一种或多种类型的生物计量数据(例如,呼吸速率、血压、注意力水平、血糖水平等)。在一些实施方案中,对应于用户的生物计量数据包括可通过用户的物理动作(例如,冥想、呼吸模式变化、锻炼等,与在用户参与计算机生成的体验期间与由计算机系统提供的用户界面元件或控件的直接交互相反)而变化的一种或多种类型的生物计量数据。在一些实施方案中,对应于用户的生物计量数据包括对应于用户的情绪、幸福感和/或压力水平等的多种类型的生物计量数据的一种或多种类型的复合度量。在一些实施方案中,生物计量数据包括对应于用户在经由显示生成部件显示三维环境的当前视图之前的时间或预设时间量内的生理状态的实时数据。在一些实施方案中,通过连接到或指向用户的一个或多个生物计量传感器(例如,各种合适的医疗设备、振动传感器、相机、热传感器、化学传感器等)来连续地和/或周期性地收集生物计量数据,并且将该数据连续地和/或周期性地发送到计算机系统。在一些实施方案中,生物计量数据不包括人的非瞬态特性(例如,指纹、虹膜图案和颜色、面部特征、声纹等),这些非瞬态特性在普通用户参与计算机生成的体验的时间段内通常不改变。
在一些实施方案中,计算机系统根据以下确定来确定生物计量数据不满足用于转变到以预设较高沉浸级别显示计算机生成的体验的预设标准:心率大于第一阈值心率,血压高于第一阈值血压,用户的运动在阈值时间量期间大于第一阈值运动量,用户的体温高于第一阈值体温,压力水平的度量高于第一阈值压力水平,对应于用户的情绪的度量指示用户烦躁不安等。在一些实施方案中,当满足预设标准时,计算机系统直接切换成以预设较高沉浸级别显示三维环境(例如,如图7J中所示),而不在满足预设标准之前经历基于生物计量数据的变化的逐渐转变。在一些实施方案中,任选地,计算机生成的体验包括视觉和/或音频引导(例如,音乐、风景、启发性消息、指导用药记录、关于呼吸的视觉、音频或口头指令等),其帮助用户进入使得从用户接收到的对应生物计量数据将满足预设标准的状态。
图7H-7I示出,在一些实施方案中,计算机系统根据对应于用户的生物计量数据的变化的趋势和/或量值来逐渐调整提供给用户的计算机生成的体验的沉浸级别。例如,在一些实施方案中,在生物计量数据表现出接近满足用于切换到预设更高沉浸级别的预设标准(例如,增强现实视图、增强虚拟视图、虚拟现实视图等)的改变的情况下,计算机系统提高对应于计算机生成的体验的虚拟内容的视觉显著性和/或量,并且降低物理环境的表示在三维环境的当前显示视图中的视觉显著性和/或量。在一些实施方案中,计算机系统使对应于计算机生成的体验的虚拟内容与物理环境的表示之间的视觉平衡改变与对应于用户的生物计量数据的改变的量和/或性质相对应的量。类似地,在一些实施方案中,在生物计量数据表现出远离满足用于切换到预设更高沉浸级别的预设标准的改变的情况下,计算机系统降低对应于计算机生成的体验的虚拟内容的视觉显著性和/或量,并且提高物理环境的表示在三维环境的当前显示视图中的视觉显著性和/或量。
在一些实施方案中,计算机系统使虚拟内容与物理环境的表示之间的视觉平衡改变与对应于用户的生物计量数据的改变的量和/或性质相对应的量。如图7H所示,当生物计量数据的值朝向满足预设标准改变时(例如,如条7312的增加的长度接近指示符7326的位置所指示的),与较早状态(例如,图7G中的视图7316)相比,在三维环境的视图(例如,图7H中的视图7318)中显示的虚拟内容的量增加,并且物理环境的表示的视觉显著性降低。更具体地,在图7H中,墙壁7004和7006的表示7004'和7006'被虚拟内容7320和7322的显示替换或遮挡(例如,在视觉上将应用了视觉效果的物理环境的表示的部分遮挡的视觉效果、虚拟表面、虚拟对象、虚拟风景等),并且表示7010'的表面的至少一部分也被虚拟内容7324的显示替换或遮挡(例如,在视觉上将应用了视觉效果的物理环境的表示的部分遮挡的视觉效果、虚拟表面、虚拟对象、虚拟风景等)。如图7H之后的图7I所示,当生物计量数据的值远离满足预设标准改变时(例如,如条7312的减小的长度从指示符7326的位置后退所指示的),与较早状态(例如,图7H中的视图7318)相比,在三维环境的视图(例如,图7I中的视图7328)中显示的虚拟内容的量减小,并且物理环境的表示的视觉显著性再次提高(例如,任选地,仍然低于图7G中所示的状态)。更具体地,在图7I中,墙壁7006的表示7006'在虚拟内容7320被移除之后重新显示,墙壁7004的表示7004'在虚拟内容7332的视觉显著性降低时部分地重新显示(例如,在视觉上将应用了视觉效果的物理环境的表示的部分遮挡的视觉效果在量值上减少,虚拟表面和虚拟对象收缩、移除、在数量上减少、或变得更半透明等)。表示7010'的表面的被虚拟内容7324的显示替换或遮挡的部分的视觉显著性也因为对虚拟内容7324做出的改变而提高(例如,使得更半透明、不那么不透明,包括表示7010'的更少量的失真等)。在一些实施方案中,在满足用于转变到预设的更高沉浸级别的预设标准之前(例如,在由指示符7326指示的阈值被对应于用户的生物计量数据满足之前,或者在其他标准被生物计量数据满足之前等),随着生物计量数据基于用户的当前状态而更新,计算机系统根据生物计量数据来连续地或周期性地调整三维环境的当前显示视图中虚拟内容与物理环境的表示之间的视觉平衡(例如,相对于物理环境的表示提高虚拟内容的视觉显著性,相对于物理环境的表示降低虚拟内容的视觉显著性等)。
在图7J中,计算机系统检测到对应于用户的更新的生物计量数据满足用于转变到与生物计量数据满足预设标准之前显示的那些内容(例如,图7G-7I中的视图7316、7318、7328等)相比具有更高沉浸级别的预设更高沉浸级别(例如,增强现实环境、增强虚拟环境、虚拟现实环境等)的预设标准,并且计算机系统转变成以预设更高沉浸级别显示三维环境(例如,显示图7J中的视图7334,或三维环境的具有预设更高沉浸级别的另一视图等)。在该示例中,如图7J所示,计算机系统已经提高了虚拟内容的视觉显著性,并且进一步降低了物理环境的表示的视觉显著性,使得只有物理环境的提示才通过虚拟内容(例如,视觉上将图7J中的视图7334中的墙壁7006、7004、地板7008和物理对象7010的表示7006'、7004'、7008'和7010'遮挡的虚拟内容7322、7320、7330和7324)的视觉特性在三维环境(例如,墙壁与地板之间的结构关系、物理对象的存在等)中仍可见。在一些实施方案中,计算机系统还在三维环境中的不同位置处显示虚拟对象。例如,虚拟对象7332被显示在对应于物理对象7010在物理环境中的定位的位置处,虚拟对象7326被显示在对应于地板7008上的定位的位置处,并且其他虚拟对象可被显示在对应于物理环境中的空闲空间或独立于物理环境的状态等的位置处。在一些实施方案中,在满足用于转变到预设的更高沉浸级别的预设标准之后,计算机系统突然增加三维环境的当前显示视图中的虚拟内容的量或者显示对应于计算机生成的体验的全新环境(例如,新的虚拟世界、新的场景等)。在一些实施方案中,在满足预设标准并且计算机系统以预设的更高沉浸级别显示三维环境之后,根据确定更新的生物计量数据不再满足预设标准,计算机系统基于生物计量数据的变化来逐渐调整用来显示三维环境的沉浸级别,如图7H和7I中所示。在一些实施方案中,在满足预设标准并且计算机系统以预设的更高沉浸级别显示三维环境之后,根据确定更新的生物计量数据不再满足预设标准,计算机系统突然切换回到以更低沉浸级别显示三维环境(例如,如图7G中所示)。
在一些实施方案中,预设标准根据以下确定而满足:心率低于第一阈值心率,呼吸速率低于第一阈值呼吸速率,血压低于第一阈值血压,用户在阈值时间量期间的移动低于第一阈值移动量,用户的体温低于第一阈值体温,压力水平的度量低于第一阈值压力水平,对应于用户情绪的度量指示用户轻松愉快等。
在一些实施方案中,当计算机系统的显示生成部件首次被开启或被放在用户的头上或用户的眼睛前方时,显示以低沉浸级别示出的三维环境的视图(例如,如图7G中所示,或三维环境的另一视图等),并且在三维环境中不显示虚拟元素或显示最少量的虚拟元素。这允许用户从三维环境的视图开始,该三维环境非常类似于在没有显示生成部件阻挡用户眼睛的情况下的真实世界的直接视图。在一些实施方案中,对应于低沉浸级别的三维环境的视图是应用程序或计算机生成的体验的用户界面或环境(例如,二维环境、三维环境等)的视图,其被显示在二维窗口中或被限制在相对于物理环境的表示的位置处显示的视口中。在一些实施方案中,当用户首次启动或开始该应用程序或计算机生成的体验时,以低沉浸级别示出的三维环境的视图(例如,如图7G中所示,或三维环境的另一视图等)显示,并且在三维环境中尚未显示该应用程序或体验的全部空间范围。这允许用户从三维环境的不是非常身临其境并且在真实世界视图的上下文中查看的视图开始。
在一些实施方案中,由计算机系统显示的虚拟内容(例如,虚拟壁纸、虚拟对象、虚拟表面、虚拟风景、虚拟三维环境等)至少部分地阻挡或遮挡物理环境的视图。在一些实施方案中,当以预设的较高沉浸级别显示三维环境的视图时,计算机系统用新显示的虚拟元素或现有虚拟元素的新显示部分来替换或阻挡第一类物理对象或表面(例如,前壁、前壁和天花板等)的视图。在一些实施方案中,显示动画转变以示出虚拟元素逐渐扩大或变得更不透明而且更饱和以覆盖或阻挡第一类物理对象或表面的视图。在一些实施方案中,当以预设的较高沉浸级别显示三维环境的视图时,计算机系统向三维环境添加虚拟元素,而不替换任何整个类别的物理元素。在一些实施方案中,所添加的虚拟对象任选地包括用户界面对象,诸如菜单(例如,应用程序的菜单、文档等)、控件(例如,显示亮度控件、显示聚焦控件等),或者可以由用户输入操纵或者在三维环境中提供信息或反馈的其他对象(例如,虚拟助手、文档、媒体项等)。在一些实施方案中,所添加的虚拟元素任选地包括不能由用户输入操纵的非交互式对象或表面,并且用于提供代替物理环境的外观和感觉的三维环境的外观和感觉。在一些实施方案中,由计算机系统显示的虚拟内容包括至少部分地阻挡或遮挡物理环境的视图的视觉效果(例如,使物理环境的表示淡出、模糊、暗淡等)。
在一些实施方案中,根据确定生物计量数据更新并且更新的生物计量数据满足用于转换到以甚至更高沉浸级别显示三维环境的预设标准,计算机系统提高对应于计算机生成的体验的虚拟内容的视觉显著性并且将来自物理环境的视觉刺激减少到对应于甚至更高沉浸级别的另一级别。例如,在一些实施方案中,计算机系统使得另外类别的物理对象或表面被新显示的虚拟元素或现有虚拟元素的新显示部分替换、遮挡和/或阻挡。在一些实施方案中,显示动画转变以示出虚拟元素逐渐扩大或变得更不透明而且更饱和以覆盖或阻挡附加类物理对象和表面的视图。
在一些实施方案中,三维环境是计算机生成的调解体验的环境,并且当生物计量数据指示用户已经达到进入冥想体验的更深状态所需的专注、放松、注意力等的水平时,计算机系统将环境的当前显示视图变换成更沉浸的环境,例如,具有对应于冥想体验的虚拟内容的扩展的空间范围(例如,宽度、深度、角度等)和视觉显著性以及物理环境的表示的减小的空间范围和视觉显著性。
在一些实施方案中,利用显示计算机生成的体验的视觉内容的增加的沉浸级别,计算机系统还通过计算机系统的音频输出设备的动作来增加对用户可感知的物理环境的声音的抑制水平和/或增加计算机生成的体验的由音频输出设备输出的音频内容的沉浸级别(例如,增加音量,从立体声音频输出模式或环绕声输出模式改变为空间音频输出模式,或者从立体声音频输出模式改变为环绕声输出模式等)。
在一些实施方案中,计算系统被配置为经由显示生成部件来以两个或更多个沉浸级别显示CGR内容的视觉组成部分。在一些实施方案中,计算机系统以至少第一沉浸级别、第二沉浸级别和第三沉浸级别显示CGR内容的视觉组成部分。在一些实施方案中,计算机系统以至少两个沉浸级别显示CGR内容的视觉组成部分,这两个沉积级别相对于彼此分别提供更不沉浸的视觉体验和更沉浸的视觉体验。在一些实施方案中,计算系统使得经由显示生成部件显示的视觉内容响应于对应于满足不同标准集合的用户的生物计量数据而在不同沉浸级别之间转变。在一些实施方案中,第一沉浸级别、第二沉浸级别和第三沉浸级别对应于与CGR环境中存在的CGR体验相对应的虚拟内容的递增量和/或CGR环境中存在的周围物理环境的表示的递减量。在一些实施方案中,第一沉浸级别、第二沉浸级别和第三沉浸级别对应于不同模式的内容显示,这些模式对于计算机生成的内容的视觉组成部分具有递增的图像保真度(例如,递增的像素分辨率、递增的颜色分辨率、递增的颜色饱和度、递增的亮度、递增的不透明度、递增的图像细节等)和/或空间范围(例如,角范围、空间深度等),并且/或者对于周围物理环境的表示具有递减的图像保真度和/或空间范围。在一些实施方案中,第一沉浸级别是透传模式,其中物理环境通过显示生成部件对用户完全可见(例如,作为物理环境的相机视图或通过显示生成部件的透明或半透明部分)。在一些实施方案中,透传模式下呈现的虚拟CGR内容包括物理环境的透传视图,该透传视图具有可同时作为物理环境的视图看见的最少量的虚拟元素或仅具有在物理环境的用户视角的外围的虚拟元素(例如,在显示器的外围区域中显示的指示符和控件)。例如,物理环境的视图占据由显示生成部件提供所的视场的中心和大部分区域,并且仅在由显示生成部件所提供的视场的外围区域中显示一些控件(例如,电影的标题、进度条、回放控件(例如,播放按钮)等)。在一些实施方案中,第一沉浸级别是透传模式,其中物理环境通过显示生成部件对第一用户完全可见(例如,作为物理环境的相机视图或通过显示生成部件的透明部分),并且视觉CGR内容被显示在虚拟窗口或框中,该虚拟窗口或框覆盖物理环境的表示的一部分、替换该部分的显示或阻挡的该部分的视图等。在一些实施方案中,第二沉浸级别是混合现实模式,其中物理环境的透传视图用计算机系统所生成的虚拟元素来增强,其中虚拟元素占据用户视场的中心和/或大部分区域(例如,虚拟内容与物理环境整合在计算机生成的环境的视图中)。在一些实施方案中,第二沉浸级别是混合现实模式,其中物理环境的透传视图用虚拟窗口、视口或框来增强,该虚拟窗口、视口或框覆盖物理环境的表示的一部分、替换该部分的显示或阻挡的该部分的视图等,并且具有当显示生成部件相对于物理环境移动时显露的附加深度或空间范围。在一些实施方案中,第三沉浸级别是增强现实模式,其中虚拟内容被显示在具有物理环境的表示的三维环境中,并且虚拟对象遍布在该三维环境中的对应于物理环境的不同定位的位置处。在一些实施方案中,第三沉浸级别是虚拟现实模式,其中虚拟内容被显示在没有物理环境的表示的三维环境中。在一些实施方案中,上述不同的沉浸级别表示相对于彼此递增的沉浸级别。
在一些实施方案中,计算机系统根据显示生成部件正在用来显示计算机生成体验的视觉内容的沉浸级别来选择用于输出计算机生成体验(例如,应用程序、通信会话、电影、视频、游戏等)的音频内容的音频输出模式。在一些实施方案中,当用来显示可视内容的沉浸级别增大时(例如,从第一沉浸级别增大到第二沉浸级别,从第一沉浸级别增大到第三沉浸级别,或者从第二沉浸级别增大到第三沉浸级别等),计算机系统将音频输出模式从更不沉浸的输出模式切换到更沉浸的输出模式(例如,从第一音频输出模式切换到第二音频输出模式,或者从第一音频输出模式切换到第三音频输出模式,或者从第二音频输出模式切换到第三音频输出模式等,其中第一音频输出模式、第二音频输出模式和第三音频输出模式对应于具有递增的沉浸级别的音频输出)。如本文所述,空间音频输出模式对应于比立体声音频输出模式和单声道音频输出模式更高的沉浸级别。空间音频输出模式对应于比环绕声输出模式更高的沉浸级别。环绕声输出模式对应于比立体声音频输出模式和单声道音频输出模式更高的沉浸级别。立体声音频输出模式对应于比单声道音频输出模式更高的沉浸级别。在一些实施方案中,计算机系统基于用来经由显示生成部件提供计算机生成的体验的视觉内容的沉浸级别来从多个可用的音频输出模式(例如,单声道音频输出模式、立体声音频输出模式、环绕声输出模式、空间音频输出模式等)中选择音频输出模式。
图7K-7M是示出根据一些实施方案的当显示包括物理环境的表示的环境的视图时聚合由计算机系统提供的多种类型的感官调整的效果的框图。
在一些实施方案中,计算机系统提供增强用户感知物理环境的不同方面(没有特殊装备或计算机系统的帮助可能不容易感知)的能力的多种类型的感官调整功能。计算机系统将两种或多种类型的感官增强功能的效果聚合在物理环境的部分的表示上,使得先前隐藏在由计算机系统提供的物理环境的视图中的该物理环境的部分中呈现的特征和特性可以被展示,而不是允许用户在每次查看物理环境的部分时仅使用一种类型的感官调整功能。
在一些实施方案中,当计算机系统经由显示生成部件(例如,显示生成部件7100或另一类型的显示生成部件诸如HMD等)显示包括物理环境的表示的三维环境时,计算机系统任选地使用对应于物理环境的当前显示部分的传感器输入或信息来扩增和调整物理环境的表示,使得用户可利用在用户在没有显示生成部件的帮助的情况下查看物理环境的该部分时对用户不可用的感官信息来感知物理环境的该部分。
在图7K中,计算机系统显示三维环境的视图7340,该视图包括物理环境的第一部分的第一表示。在视图7340中,物理环境的第一部分的第一表示对应于没有由计算机系统做出感官调整的情况下物理环境的第一部分的外观。在一些实施方案中,物理环境的第一部分的第一表示对应于由彩色相机捕获的物理环境的第一部分的视图,该彩色相机具有对应于在正常人类感官知觉范围内的平均颜色和强度检测的第一成像灵敏度级别。在一些实施方案中,物理环境的第一部分的第一表示对应于物理环境的第一部分通过显示生成部件的透明部分的视图,并且不被计算机系统增强和调整。
在一些实施方案中,计算机系统提供用于激活由计算机系统提供的多个感官调整功能中的相应功能的多个示能表示(例如,硬件控件7354、7356和7358,在三维环境中显示的用户界面元件等)。在一些实施方案中,计算机系统根据用户的指向对应于多个感官调整功能中的相应感官调整功能的示能表示的激活输入(例如,按钮按压输入、轻击输入、手势输入、触摸输入、注视输入、选择输入、它们的组合等)按顺序或组合地激活多个感官调整功能中的相应感官调整功能。在一些实施方案中,多个感官调整功能中的相应感官调整功能任选地由预设输入(例如,手势输入、触摸输入、语音命令等)激活,而不需要存在与计算机系统相关联的对应硬件示能表示或三维环境中的对应用户界面控件。
在该示例中,如图7K所示,物理环境的第一部分的第一表示包括从房间内部朝向房间墙壁上的窗口的视图。该示例是非限制性的,并且根据各个实施方案,物理环境的第一部分可为任何室内或室外环境。在该示例中,物理环境的第一部分的第一表示包括墙壁的表示7344'、窗口的表示7346'、窗口外部离窗口第一距离处的山丘的表示7348',和靠近山丘顶部离窗口第二距离处的树的表示7350'。山丘的表示7348'和树的表示7350'占据由显示生成部件7100提供的视场的一小部分,因为山丘和树与显示生成部件相距较大距离,并且山丘的表示7348'和树的表示7350'远离对应于三维环境的当前显示视图的视点(例如,视点与表示7348'和7350'之间的相应距离对应于从用户的眼睛(或显示生成部件)到山丘和树的相应距离)。
在图7L中,计算机系统检测到激活由计算机系统提供的多个感官调整功能中的第一感官调整功能的用户输入。例如,计算机系统检测到硬件示能性7354被用户的输入激活,对应于第一感官调整功能的用户界面对象被用户的输入激活或选择,满足用于激活第一感官调整功能的标准的手势输入、语音命令和/或触摸输入等由用户提供等。作为响应,计算机系统显示三维环境的第二视图7361,该第二视图包括物理环境的第二部分的第二表示,其中物理环境的第二部分被包括在物理环境的第一部分内(例如,它是图7K中示出的物理环境的第一部分的全部或子部分,或者是在检测到激活了第一感官调整功能的输入之前示出的物理环境的一部分等)。在三维环境的第二视图7361中,如图7L中的示例所示,根据第一感官调整功能的操作,相对于三维环境的第一视图7340中示出的树的表示7350'调整树的表示7350"的显示属性。例如,如果第一感官调整功能是减小对象的焦距以使得它们看起来更靠近用户的模拟望远视力,如图7L所示,则树的表示7350"看起来比第二距离更靠近视点,如图7K所示(例如,调整距离是第二距离的五分之一,调整距离是第二距离的十分之一,调整距离是基于第二距离选择的距离和/或模拟望远视力的最大屈光度的预设分数等)。类似地,山丘的表示7348"也看起来比第一距离更靠近用户,如图7K所示(例如,调整距离是第一距离的五分之一,调整距离是第一距离的十分之一,调整距离是基于第一距离选择的距离和/或模拟望远功能的最大屈光度的预设分数等)。在该示例中,根据一些实施方案,视图7361中的用户的视点或虚拟位置被移动到视图7340中的窗口的位置。在该示例中,根据一些实施方案,视图7361中的用户的视点或虚拟位置仍然基于用户和/或显示生成部件在物理环境中的实际定位。
在一些实施方案中,当应用第一感官调整功能时,计算机基于指向三维环境的当前视图的用户注视的定位来选择物理环境的目标部分。例如,如图7K所示,计算机系统检测到用户的注视7352指向三维环境的第一视图7340中的树的表示7350',并且从物理环境的第一部分中选择物理环境的包括树的一部分作为物理环境的要应用第一感官调整功能的第二部分。
在一些实施方案中,模拟望远视力是由计算机系统提供的第一类型的感官调整功能的例示性示例,并且可被由计算机系统提供并且由用户的输入选择的另一类型的感官调整功能替换。
在图7M中,在计算机系统正在显示三维环境的第二视图7361(该第二视图包括物理环境的第二表示,该第二表示已经根据由用户的输入激活的第一感官调节功能的操作而被调整)的同时,计算机系统检测到第二用户输入,该第二用户输入激活多个感官调整功能中与第一感官调整功能不同的第二感官调整功能。例如,计算机系统检测到硬件示能性7356被用户的输入激活,对应于第二感官调整功能的用户界面对象被用户的输入激活或选择,满足用于激活第二感官调整功能的标准的手势输入、语音命令和/或触摸输入等由用户提供等。作为响应,计算机系统显示三维环境的第三视图7364,该第三视图包括物理环境的第三部分的第三表示,其中物理环境的第三部分被包括在物理环境的第二部分内(例如,它是图7L中示出的物理环境的第二部分的全部或子部分,或者是在检测到激活了第二感官调整功能的输入之前示出的物理环境的一部分等)。在三维环境的第三视图7364中,如图7M中的示例所示,根据第二感官调整功能的操作,相对于三维环境的第二视图7361中示出的树的表示7350"进一步调整树的表示7350"'的显示属性。例如,如果第二感官调整功能是根据温度和/或热辐射变化而呈现颜色和/或强度变化的模拟热视力,如图7M中所示,则树的表示7350"'看起来相对于第三视图7364中的背景环境具有不同的颜色和/或强度,并且表示7350"'的部分7366"'和7368"'的显示属性基于树的那些部分相对于树的其他部分在物理环境中的温度被进一步调整(例如,如由热成像传感器或与计算机系统通信的其他传感器所检测的,如由发送到另一计算机系统或由计算机系统从另一计算机系统检索的热数据所指示的,等等)。例如,由部分7366"'和7368"'表示的那些部分的更高温度可能揭示比树本身辐射更多热量或具有更高温度的小动物或对象。表示7350"'中的部分7366"'和7368"'具有基于对如图7K所示的树的原始第一表示7350'的第一感官调整功能和第二感官调整功能两者的操作而生成的显示属性。
在一些实施方案中,当应用第二感官调整功能时,计算机系统基于指向三维环境的当前显示视图的用户注视的定位来选择物理环境的目标部分。例如,如图7L所示,计算机系统检测到用户的注视7360指向三维环境的第二视图7361中的树的表示7350",并且从物理环境的第二部分中选择物理环境的包括树的一部分作为物理环境的要应用第一感官调整功能和第二感官调整功能两者的第三部分。
在一些实施方案中,模拟热视力是由计算机系统提供的第二类型的感官调整功能的例示性示例,并且可被由计算机系统提供并且由用户的输入选择的另一类型的感官调整功能替换。
在一些实施方案中,根据第一类型的计算机生成的感官调整(例如,双目视力、望远视力、显微视力、夜视力、热视力等)来相对于物理环境的相应部分的基线表示(例如,图7K中的树的表示7350'的对应于图7M中的部分7366"'和7368"'的部分,物理环境的另一部分等)调整第一显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等),以获得物理环境的相应部分的第一调整表示(例如,图7L中的树的表示7350"的对应于图7M中的部分7366"'和7368"'的部分,或物理环境的另一部分的调整表示等),并且根据第二类型的计算机生成的感官调整来相对于物理环境的第二表示调整第二显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等),以获得物理环境的相应部分的第三表示(例如,图7M中的树的表示7350"'的部分7366"'和7368"',或物理环境的另一部分的进一步调整表示等)。在一些实施方案中,在第一类型和第二类型的感官调整功能的一些组合中,第二显示属性在第一表示和第二表示中具有相同的值;并且在第一类型和第二类型的感官调整功能的一些组合中,第二显示属性在第一表示和第二表示中具有不同的值。
在一些实施方案中,计算机系统允许基于第三感官调整功能(例如,可通过与对应于第三感官调整功能的示能表示7358、用户界面对象、手势输入、语音命令等的交互而激活的感官调整功能等)来进一步调整物理环境的表示。在一些实施方案中,当显示包括物理环境的第三表示的三维环境的第三视图7364时,计算机系统检测到第三用户输入,该第三用户输入对应于激活不同于第一类型和第二类型的感官调整功能的第三类型的计算机生成的感官调整(例如,双目视力、显微视力、夜视力、热视力、滤色器等)的请求。作为响应,计算机系统显示三维环境的第四视图,该第四视图包括物理环境的第四部分的第四表示(例如,物理环境的第三部分的全部或一部分),其中物理环境的第四表示具有根据第一类型的感官调整功能相对于物理环境的第四部分的第一表示调整的第一显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等),根据第二类型的感官调整功能相对于物理环境的第四部分的第二表示调整的第二显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等),和根据第三类型的感官调整功能相对于物理环境的第四部分的第三表示调整的第三显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等)。
在一些实施方案中,第一感官调整功能包括用于观看远处物理对象的模拟望远视力(例如,双目视力、单目视力、望远视力等)(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二感官调整功能包括用于放大附近物理对象的模拟显微视力。
在一些实施方案中,第一感官调整功能包括用于观看远处物理对象的模拟望远视力(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二感官调整功能包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等)。
在一些实施方案中,第一感官调整功能包括用于观看远处物理对象的模拟望远视力(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二感官调整功能包括利用滤光器(例如,滤色器、光频率滤波器、强度滤波器、运动滤波器等)修改物理对象的视图。
在一些实施方案中,第一感官调整功能包括用于观看远处物理对象的模拟望远视力(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二感官调整功能包括针对与物理环境中的物理对象子集(例如,所有产生声音的物理对象的所选子集,处于当前视场中心的物理对象等)相对应的声音的选择性音频增强(例如,增强音量,选择性地增强/抑制某些声音频率等)。
在一些实施方案中,在显示物理环境的第三表示的同时,计算机系统输出对应于物理环境的在物理环境的第三表示中可见的部分的声音,其中该声音相对于来自物理环境的该部分之外的源的声音被选择性地增强(例如,增加音量,修改一些所选频率的幅度等)。
在一些实施方案中,在显示物理环境的第三表示的同时,计算机系统显示对应于来自物理环境的在物理环境的第二表示和第三表示两者中可见的一部分的语音的文本输出,其中该语音相对于来自物理环境的该部分之外的源的声音被选择性地增强。
在一些实施方案中,第一感官调整功能包括用于放大附近物理对象的模拟显微视力,并且第二感官调整功能包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,对温度变化具有高灵敏度,根据温度和/或热辐射变化呈现颜色和/或强度变化等)。
在一些实施方案中,第一感官调整功能包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等),并且第二感官调整功能包括用于观看远处物理对象的模拟望远视力(例如,减小对象的焦距,使得它们看起来更靠近用户)。
在一些实施方案中,第一感官调整功能包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等),并且第二感官调整功能包括用于放大附近物理对象的模拟显微视力。
在一些实施方案中,第一感官调整功能包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等),并且第二感官调整功能包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,对温度变化具有高灵敏度,根据温度和/或热辐射变化呈现颜色和/或强度变化等)。
在一些实施方案中,第一感官调整功能包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等),并且第二感官调整功能包括并且第二类型的计算机生成的感官调整包括针对与物理环境中的物理对象子集(例如,所有产生声音的物理对象的所选子集,在当前视场中心的物理对象等)相对应的声音的选择性音频增强(例如,增强音量,选择性地增强/抑制某些声音频率等)。
在一些实施方案中,第一感官调整功能包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,对温度变化具有高灵敏度,根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二感官调整功能包括用于观看远处物理对象的模拟望远视力(例如,减小对象的焦距,使得它们看起来更靠近用户)。
在一些实施方案中,第一感官调整功能包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,对温度变化具有高灵敏度,根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二感官调整功能包括用于放大附近物理对象的模拟显微视力。
在一些实施方案中,第一感官调整操作包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,对温度变化具有高灵敏度,根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二感官调整操作包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等)。
在一些实施方案中,第一感官调整功能包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,对温度变化具有高灵敏度,根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二感官调整操作包括针对与物理环境中的物理对象子集(例如,所有产生声音的物理对象的所选子集,在当前视场中心的物理对象等)相对应的声音的选择性音频增强(例如,增强音量,选择性地增强/抑制某些声音频率等)。
在一些实施方案中,由用户选择的多个所选感官调整功能应用于物理环境的一部分的基线表示的顺序由计算机系统基于一个或多个预设约束来调整,并且任选地与这些感官调整功能被用户激活的顺序不同。例如,在一些实施方案中,对应于模拟望远视力的调整在对应于其他类型的感官调整的调整之前执行,因为这将减少为了向用户呈现最终结果而需要执行其他类型的感官调整的物理环境的部分。在一些实施方案中,计算机系统观察用户激活不同类型的感官调整功能的顺序,并且呈现响应于用户激活的每个附加感官调整而获得的中间结果。
图7N-7P是示出根据一些实施方案的根据确定三维环境的视图中的物理环境的该部分对应于相应类型锻炼而在三维环境的视图中选择性地显示对应于该相应类型锻炼的虚拟内容的框图。
在一些实施方案中,计算机系统根据确定在三维环境的视图(例如,视图7408、视图7410等)中表示的物理定位(例如,物理对象7404的定位、物理对象7402的定位等)与相应类型的锻炼(例如,赛艇、徒步等)相关联来显示对应于相应类型的锻炼(例如,赛艇、徒步等)的虚拟内容(例如,虚拟开阔水域7406、虚拟徒步路线7412等)(例如,虚拟风景、锻炼装备的视觉和功能增强、用户界面、健康和得分板等)。例如,当用户和显示生成部件(例如,用户7002和显示生成部件7100,或具有另一类型的显示生成部件诸如HMD的另一用户等)在真实世界中(例如,在场景105中,或在另一物理环境中等)从一个定位移动到另一定位时,三维环境的视图中示出的虚拟内容被调整以对应于与用户和显示生成部件的当前定位相关联的锻炼类型。在一些实施方案中,当定位与多种类型的锻炼相关联时,计算机系统基于其他上下文信息(例如,用户的移动、用户与该定位处的对象的联系等)从与该定位相关联的多种类型的锻炼中选择一种类型的锻炼,并且显示对应于所选类型的锻炼的视觉内容。
图7N的部分(A)中示出用户7002位于物理环境(例如,场景105,或另一物理环境等)中。用户7002可位于作为室外环境或室内环境的不同物理环境中,或在室内环境与室外环境之间移动等。用户7002通过经由第一显示生成部件(例如,显示生成部件7100,另一类型的显示生成部件诸如HMD等)提供的视场来观看物理环境。物理环境包括物理表面(例如,墙壁7004和7006、地板7008、其他物理表面等)以及一个或多个物理对象(例如,锻炼装备7402、7404、其他物理对象等)。在一些实施方案中,物理环境是包括用户不能同时观看的彼此分开的多个房间或部分的建筑物。在一些实施方案中,物理环境包括彼此分开的多个区域,诸如分开的建筑物中的房间、不同的公园、不同的地理区域等。在一些实施方案中,物理环境是室外环境,包括室外物理对象和表面,诸如道路、树、天空、开阔水域、岩石、山、车辆、动物、人等。在一些实施方案中,计算机系统存储信息和/或实现规则和人工智能以确定与用户的物理环境中的相应定位(例如,在通过显示生成部件的用户的视场内,在用户的阈值附近(例如,在5米内、在几步内等)等)相关联的一个或多个类型的锻炼(例如,室内锻炼、室内运动、室外锻炼、室外运动、促进健康和身体能力的身体活动、机能恢复训练和治疗等)。在一些实施方案中,计算机系统基于在相应定位处存在的物理对象的类型来确定与相应定位相关联的锻炼类型。在一些实施方案中,计算机系统基于在相应定位处存在的环境或布景的类型来确定与相应定位相关联的锻炼类型。在一些实施方案中,计算机系统基于在相应定位处存在的其他类型的标记和标志或信息组合来确定与相应定位相关联的锻炼类型。
在图7N的部分(B)中,计算机系统显示三维环境的第一视图7405,该第一视图包括用户7002的物理环境的表示。在一些实施方案中,三维环境的第一视图7405是不具有虚拟元素或具有最少虚拟元素的现实视图,如图7N(B)所示。在该示例中,第一视图7405包括物理表面的表示(例如,墙壁7004和7006的表示7004'和7006'、地板7008的表示7008'等)和物理对象的表示(例如,物理对象7402的表示7402'、物理对象7404的表示7404'等),而没有虚拟内容。在一些实施方案中,三维环境的第一视图是具有用于控制计算机系统的基本功能的用户界面对象(例如,用于启动不同的计算机生成的体验的应用程序图标、显示设置、音频控件等)的现实视图(例如,图7N(B)中示出的视图7405)。在一些实施方案中,三维环境的第一视图是以低沉浸级别显示的增强现实视图(例如,显示用户界面对象(例如,应用程序启动板、欢迎用户界面、设置用户界面),这些用户界面对象不是特定应用程序体验(例如,健康应用程序、冥想应用程序、健身应用程序、游戏应用程序等)的一部分,并且总体上仅占据用户视场的一小部分(例如,小于10%,小于20%),或者显示在受限的浮动窗口中等)。在一些实施方案中,包括在三维环境的第一视图7405中的物理环境的表示是物理环境的一部分的相机视图。在一些实施方案中,在三维环境的第一视图7405中示出的物理环境的部分随着用户在物理环境中四处移动而改变(例如,当用户将显示生成部件佩戴在他/她的头上,或将显示生成部件握在他/她的手中等时)。在一些实施方案中,在三维环境的第一视图7405中示出的物理环境的部分随着显示生成部件在物理环境中四处移动而改变。在一些实施方案中,包括在三维环境的第一视图7405中的物理环境的表示是物理环境通过显示生成部件的透明部分的视图。在该示例中,物理对象7402位于在三维环境的第一视图7405中示出的物理环境的第一部分内的第一定位处,并且物理对象7404位于在三维环境的第一视图7405中示出的物理环境的第一部分内的第二定位处。在一些实施方案中,第一定位和第二定位不一定在三维环境的同一视图内,并且可位于同一物理环境内的两个分开的定位或者位于彼此完全分开的不同物理环境中。在该示例中,物理对象7402对应于与第一类型的锻炼(例如,跑步、行走等)相对应的装备或设置,并且物理对象7402对应于与第二类型的锻炼(例如,赛艇、划船、滑水等)相对应的装备或设置。
在图7O和7P中,计算机系统在显示三维环境的第一视图7450的同时检测到用户7002在物理环境中的移动。在一些实施方案中,在三维环境的第一视图内可见的物理环境的部分随着用户在物理环境中四处移动而改变。图7O图示了第一场景,其中用户7002已经移动到第一定位,该第一定位包括对应于第一类型锻炼的物理对象7404或设置。图7O图示了第二场景,其中用户7002已经移动到第二定位,该第二定位包括对应于第二类型锻炼的物理对象7402或设置。
在一些实施方案中,用户的移动包括用户作为整体到相应定位(例如,包括第一物理对象7404的第一定位,包括第二物理对象7402的第二定位等)的移动(例如,当用户握住或佩戴显示生成部件时,当显示生成部件与用户之间的空间关系保持为使得用户可通过显示生成部件继续观看物理环境时等)。在一些实施方案中,用户的移动包括用户的将显示生成部件或与显示生成部件相关联的相机定向以捕获相应定位(例如,包括第一物理对象7404的第一定位,包括第二物理对象7402的第二定位等)的视图的移动(例如,当用户握住或佩戴显示生成部件时,当显示生成部件与用户之间的空间关系保持为使得用户可通过显示生成部件继续观看物理环境时等)。在一些实施方案中,用户的移动还包括对应于对相应定位处的物理对象的操纵的移动(例如,打开相应定位处的一部锻炼装备,拿起相应定位处的一部锻炼装备,开始使用相应定位处的锻炼装备等)。
如图7O所示,用户已经移动到物理环境中的第一定位,该第一定位包括对应于第一类型锻炼的物理对象7404。在该示例中,用户还已经移动到相对于物理对象7404的位置,该位置使得用户能够开始使用物理对象7404进行第一类型的锻炼(例如,坐在装备上,站在装备上,握住装备的一个或多个部分等)。在一些实施方案中,计算机系统任选地检测到用户已经开始对应于第一类型的锻炼的移动的一次或多次重复(例如,划赛艇送矿石,拉动变速杆,采取开始姿势等)。响应于检测到第一用户移动到包括对应于第一类型锻炼的物理对象7404的第一定位,并且根据确定第一定位对应于第一类型的锻炼以及任选地用户的该移动满足第一组标准(例如,对应于第一定位的标准,对应于第一类型的锻炼的标准等),计算机系统显示三维环境的第二视图7408,其中第二视图7408包括对应于第一类型的锻炼的第一虚拟内容,并且第一虚拟内容的视图替换物理环境的视图的包括第一定位(例如,包括物理对象7404并且不包括物理对象7402的定位,不对应于第二类型的锻炼的定位等)的至少一部分。在一些实施方案中,第一虚拟内容完全替换三维环境的第二视图7408中的物理环境的视图。在一些实施方案中,虚拟内容被显示为覆盖、阻挡或替换物理环境的表示在三维环境的第二视图7408中的显示。
在一些实施方案中,计算机系统根据确定第一定位具有对应于第一类型的锻炼的第一类型的锻炼装备(例如,赛艇机、船等)来确定第一定位对应于第一类型的锻炼。在一些实施方案中,计算机系统根据确定第一定位是为第一类型的锻炼(例如,赛艇、冥想等)设计的定位(例如,具有用于第一类型的锻炼的适当地面、结构等)来确定第一定位对应于第一类型的锻炼。
如图7O的部分(B)所示,当用户7002已经移动到对应于第一类型的锻炼的第一定位时,计算机系统显示三维环境的第二视图7408。在一些实施方案中,第二视图7408是增强现实视图,其具有对应于与第一定位和第一类型的锻炼相对应的第一计算机生成的体验的更多虚拟元素。在一些实施方案中,第二视图7408是增强现实视图,其示出对应于第一定位和第一类型的锻炼的第一计算机生成的体验的预览或开始。在一些实施方案中,第二视图7408是以更高沉浸级别显示的增强现实视图(例如,显示用户界面对象,这些用户界面对象作为对应于第一类型的锻炼的第一特定应用程序体验的一部分(例如,虚拟徒步路线、虚拟风景、记分板、锻炼统计数据、改变锻炼参数的控件等),总体上占据用户的视场的相当大百分比(例如,大于60%、大于90%等)或在三维虚拟或增强现实环境中显示)。在该示例中,在三维环境的第二视图中显示的虚拟内容包括虚拟开阔水域7406,该虚拟开阔水域替换了物理环境的各个部分的表示7004'、7006'和/或7008'的视图,这些部分潜在地位于第一定位处由显示生成部件提供的视场内。在一些实施方案中,物理环境的在由显示生成部件提供的潜在视场中的所有部分被虚拟内容的显示替换或阻挡。在一些实施方案中,物理环境的一部分(诸如用户身体的一部分、锻炼装备的至少一部分等)在三维环境的第二视图7408中保持可见。
如图7P所示,用户已经移动到物理环境中的第二定位,该第二定位包括对应于第二类型锻炼的物理对象7402。在该示例中,用户还已经移动到相对于物理对象7402的位置,该位置使得用户能够开始使用物理对象7402进行第二类型的锻炼(例如,坐在装备上,站在装备上,握住装备的一个或多个部分等)。在一些实施方案中,计算机系统任选地检测用户已经开始对应于第二类型的锻炼的移动的一次或多次重复(例如,在楼梯上迈步,开始蹬踏,开始行走等)。响应于检测到用户移动到包括对应于第二类型锻炼的物理对象7402的第二定位,并且根据确定第二定位对应于第二类型的锻炼以及任选地用户的该移动满足第二组标准(例如,对应于第二定位的标准,对应于第二类型的锻炼的标准等),计算机系统显示三维环境的第三视图7412,其中第三视图7412包括对应于第二类型的锻炼的第二虚拟内容,并且第二虚拟内容的视图替换物理环境的视图的包括第二定位(例如,对应于第二类型的锻炼但不对应于第一类型的锻炼的定位,不包括物理对象7404的定位等)的至少一部分。在一些实施方案中,第一虚拟内容完全替换三维环境的第三视图7410中的物理环境的视图。在一些实施方案中,虚拟内容被显示为覆盖、阻挡或替换物理环境的表示的至少一部分的显示。
在一些实施方案中,计算机系统根据确定第二定位具有对应于第二类型的锻炼的第二类型的锻炼装备(例如,楼梯、跑步机、踏车等)来确定第二定位对应于第二类型的锻炼。在一些实施方案中,计算机系统根据确定第二定位是为第二类型的锻炼(例如,徒步、跑步等)设计的定位(例如,具有用于第二类型的锻炼的适当地面、结构等)来确定第二定位对应于第二类型的锻炼。
如图7P的部分(B)所示,当用户7002已经移动到对应于第二类型的锻炼的第二定位时,计算机系统显示三维环境的第三视图7410。在一些实施方案中,第三视图7410是增强现实视图,其具有对应于与第二定位和第二类型的锻炼相对应的第二计算机生成的体验的更多虚拟元素。在一些实施方案中,第三视图7410是增强现实视图,其示出对应于第二定位和第二类型的锻炼的第二计算机生成的体验的预览或开始。在一些实施方案中,第三视图7410是以更高沉浸级别显示的增强现实视图(例如,显示用户界面对象,这些用户界面对象作为对应于第二类型的锻炼的第二特定应用程序体验的一部分(例如,虚拟徒步路线、虚拟风景、记分板、锻炼统计数据、改变锻炼参数的控件等),总体上占据用户的视场的相当大百分比(例如,大于60%、大于90%等)或在三维虚拟或增强现实环境中显示)。在该示例中,在三维环境的第三视图7410中显示的虚拟内容包括虚拟徒步路线7412,该虚拟徒步路线替换了物理环境的各个部分的表示7004'、7006'和/或7008'的视图,这些部分潜在地位于第二定位处由显示生成部件提供的视场内。在一些实施方案中,物理环境的在由显示生成部件提供的潜在视场中的所有部分被虚拟内容的显示替换或阻挡。在一些实施方案中,物理环境的一部分(诸如用户身体的一部分、锻炼装备的至少一部分等)在三维环境的第三视图7410中保持可见。
在一些实施方案中,计算机系统根据检测到对应于当前定位处的相应锻炼类型的相应锻炼装备类型来确定当前定位对应于相应锻炼类型。在一些实施方案中,检测到相应锻炼装备类型基于检测到对应于相应锻炼装备类型的RFID信号,在捕获当前定位的相机馈送中检测到相应锻炼装备类型的图像,检测到当前定位与相应锻炼装备类型的注册定位匹配等。
在一些实施方案中,根据确定用户的当前定位对应于与相应锻炼类型相关联的定位,计算机系统显示对应于相应锻炼类型的三维环境的视图,包括逐渐降低物理环境的表示在三维环境的当前显示视图中的视觉显著性,同时提高对应于与当前定位相关联的相应锻炼类型的虚拟内容在三维环境的视图中的视觉显著性。在一些实施方案中,降低物理环境的表示的视觉显著性包括停止显示物理环境的表示的越来越多的部分,使物理环境的表示淡出等。在一些实施方案中,逐渐提高对应于相应锻炼类型的虚拟内容的视觉显著性包括在三维环境视图的其中物理环境的表示已经逐渐减少的区域中开始显示虚拟内容,增加虚拟内容的可见性,增加用户的视场被虚拟内容占据的比例,增加虚拟内容的不透明度或亮度等。
在一些实施方案中,相应定位可对应于多种类型的锻炼,并且计算机系统要求用户做出对应于该多种类型的锻炼中的相应锻炼的某种移动,以消除用户希望执行哪种类型的锻炼的歧义,并且选择对应的虚拟内容以用于在三维环境视图的相应定位处显示。例如,在一些实施方案中,计算机系统检测到对应于与相应定位相关联的多种类型的锻炼中的相应类型锻炼的移动(例如,开始特征运动(例如,开始在跑步机上行走,在楼梯踏步机上踏步,在椭圆机上前后移动腿,开始在赛艇机上赛艇等),踏上/坐在对应于相应类型锻炼的一台锻炼装备上(例如,在赛艇机上或负重训练机上坐下等),进入对应于相应类型锻炼的就绪姿势(例如,以用于击打虚拟网球的就绪姿势站立,在地板上坐下以开始冥想或瑜伽等)等),并且计算机系统显示包括对应于该相应类型锻炼的虚拟内容的三维环境视图。
在一些实施方案中,计算机系统根据由用户在相应定位执行的相应类型锻炼的进度来逐渐改变在三维环境的视图中显示的虚拟内容。例如,在一些实施方案中,真实世界的视图逐渐淡出和/或停止显示,并且逐渐被对应于相应类型锻炼的虚拟内容替换。在一些实施方案中,计算机系统逐渐增加在第一用户的视场中显示的虚拟内容的量,直到经由第一显示生成部件完全显示对应于相应类型锻炼的相应虚拟环境为止(例如,三维环境的第二视图包括对应于第一类型锻炼的虚拟环境,三维环境的第三视图包括对应于第二类型锻炼的虚拟环境,等等)。例如,在一些实施方案中,当开放式健身房是与瑜伽和舞蹈两者相关联的定位时,在第一用户到达该开放式健身房之后,如果第一用户以合十礼姿势坐下,则计算机系统显示具有海洋声音的虚拟海洋视图以便于用户在虚拟海滩上练习瑜伽;并且如果第一用户以舞者的姿势站立,则计算机系统显示具有舞蹈音乐的虚拟舞台以便于用户练习舞蹈。
在一些实施方案中,当计算机系统检测到用户已经移动远离相应定位时,计算机系统停止显示对应于与相应定位相关联的锻炼类型的虚拟内容。例如,在图7O中,如果计算机系统检测到用户7002已经离开包括物理对象7404的第一定位;在显示视图7408之后,计算机系统停止显示对应于第一类型的锻炼的视图7408。在一些实施方案中,计算机系统重新显示视图7405,该视图不包括对应于第一类型的锻炼或第二类型的锻炼的虚拟内容。在一些实施方案中,当计算机系统检测到用户已从第一定位移动到第二定位时,计算机系统显示对应于第二类型的锻炼的虚拟内容7410。
在一些实施方案中,当显示包括对应于相应类型锻炼的虚拟内容的三维环境视图时,计算机系统显示对应于相应类型锻炼的状态信息(例如,在当前会话期间的进度、持续时间、速度、力、高度、步速、步长、表现水平、分数、完成的重复次数等,历史统计,第一用户和/或跨多个用户的平均统计,也执行相同类型锻炼的其他人的状态等)。
在一些实施方案中,当显示包括对应于相应类型锻炼的虚拟内容的三维环境视图时,计算机系统显示对应于用户的健康信息(例如,实时生物计量数据(例如,心率、血压、呼吸速率、体温、血糖水平等)、体重、BMI等)。
在一些实施方案中,当显示包括对应于由用户执行的相应类型锻炼的虚拟内容的三维环境视图时,计算机系统视觉地呈现该相应类型锻炼的进度信息(例如,实时分数、完成的圈数、剩余的圈数、持续时间、步数、行进的距离、完成的姿势等)。
在一些实施方案中,包括对应于相应类型锻炼的虚拟内容的三维环境是沉浸式环境,并且包括比包括在三维环境的当前显示视图中的空间范围更大的空间范围。例如,当用户转动他/她的头部或以其他方式改变对应于三维环境的当前显示视图的视点时,虚拟内容的不同部分被显示在三维环境的当前显示视图中。
在一些实施方案中,三维环境的第二和/或第三视图包括被示为与用户竞争执行相应类型锻炼(例如,基于第一用户的先前最佳记录、基于第一用户针对第一类型的锻炼的预设配置等)的用户的虚拟表示。
在一些实施方案中,三维环境的第二和/或第三视图包括不同于被示为与用户竞争执行相应类型锻炼的用户的至少另一用户的虚拟表示。
如本文所公开的,在一些实施方案中,经由显示生成部件显示的三维环境是虚拟三维环境,包括在三维环境中不同虚拟位置处的虚拟对象和内容,不具有物理环境的表示。在一些实施方案中,三维环境是在三维环境中不同虚拟位置处显示虚拟对象的混合现实环境,该虚拟位置由物理环境的一个或多个物理方面(例如,墙壁、地板、表面的位置和取向、重力方向、当日时间等)所约束。在一些实施方案中,三维环境是包括物理环境的表示的增强现实环境。该物理环境的表示包括三维环境中在不同位置处的物理对象和表面的相应表示,使得物理环境中的不同物理对象和表面之间的空间关系由三维环境中的物理对象和表面的表示之间的空间关系来反映。当相对于三维环境中的物理对象和表面的表示的位置来放置虚拟对象时,它们看起来与物理环境中的物理对象和表面具有对应的空间关系。在一些实施方案中,显示生成部件包括其中显示物理环境的表示的透传部分。在一些实施方案中,透传部分是显示生成部件的展示用户周围或用户的视场内的物理环境的至少一部分的透明或半透明(例如,透视)部分。例如,透传部分是头戴式显示器或平视显示器的被制成半透明(例如,小于50%、40%、30%、20%、15%、10%或5%的不透明度)或透明使得用户可以在不移除头戴式显示器或移开平视显示器的情况下透过其查看用户周围的真实世界的部分。在一些实施方案中,当显示虚拟现实或混合现实环境时,透传部分逐渐从半透明或透明转变为完全不透明。在一些实施方案中,显示生成部件的透传部分显示由一个或多个相机(例如,移动设备的与头戴式显示器相关联的后向相机,或者将图像数据馈送到电子设备的其他相机)捕获的物理环境的至少一部分的图像或视频的实时馈送。在一些实施方案中,该一个或多个相机指向物理环境的在用户眼睛的正前方(例如,在显示生成部件后方)的一部分。在一些实施方案中,该一个或多个相机指向物理环境的不在用户眼睛的正前方(例如,在不同物理环境中,或者在用户的侧面或后方)的一部分。在一些实施方案中,当在对应于物理环境中一个或多个物理对象的定位的位置处显示虚拟对象或内容时,虚拟对象中的至少一些虚拟对象被显示以代替(例如,替换其显示)相机的实况视图的部分(例如,在实况视图中捕捉的物理环境的部分)。在一些实施方案中,虚拟对象和内容中的至少一些被投影到物理环境中的物理表面或空的空间上,并且通过显示生成部件的透传部分可见(例如,作为物理环境的相机视图的以部分可见,或者通过显示生成部件的透明或半透明部分可见等)。在一些实施方案中,虚拟对象和内容中的至少一些被显示为覆盖显示器的一部分并且遮挡通过显示生成部件的透明或半透明部分可见的物理环境的至少一部分但并非全部的视图。在一些实施方案中,虚拟对象中的至少一些虚拟对象被直接投影到用户的视网膜上相对于物理环境的表示的图像的位置处(例如,如通过物理环境的相机视图或通过显示生成部件的透明部分等所看到的)。
在一些实施方案中,根据一些实施方案,在本文(例如,关于图7A-7P,和图8-12)所述的各种示例和实施方案中使用的输入手势任选地包括离散的小运动手势(这些离散的小运动手势通过将用户的手指相对于用户的手部的其他手指或部分移动来执行),而任选地,不需要主要移动用户的整个手部或手臂使其远离其自然定位和姿势来在进行用于与虚拟或混合现实环境进行交互的手势之前或期间立即执行操作。
在一些实施方案中,输入手势通过分析由传感器系统(例如,传感器190,图1;图像传感器314,图3)捕获的数据或信号来检测。在一些实施方案中,传感器系统包括一个或多个成像传感器(例如,一个或多个相机,诸如运动RGB相机、红外相机、深度相机等)。例如,该一个或多个成像传感器是计算机系统(例如,图1中的计算机系统101(例如,便携式电子设备7100或HMD))的部件或者向该计算机系统提供数据,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120(例如,用作显示器和触敏表面的触摸屏显示器、立体显示器、具有透传部分的显示器等))。在一些实施方案中,该一个或多个成像传感器在设备的与设备的显示器相反的一侧上包括一个或多个后向相机。在一些实施方案中,由头戴式系统的传感器系统(例如,包括立体显示器的VR头戴式耳机,该立体显示器为用户的左眼提供左图像并为用户的右眼提供右图像)检测输入手势。例如,为头戴式系统的部件的一个或多个相机安装在该头戴式系统的前部和/或下侧上。在一些实施方案中,一个或多个成像传感器位于其中使用头戴式系统的空间中(例如,在房间中的各个位置中围绕头戴式系统排列),使得成像传感器捕获该头戴式系统和/或该头戴式系统的用户的图像。在一些实施方案中,由平视设备(诸如,平视显示器、具有显示图形的能力的汽车挡风玻璃、具有显示图形的能力的窗户、具有显示图形的能力的透镜)的传感器系统检测输入手势。例如,一个或多个成像传感器附接到汽车的内部表面。在一些实施方案中,传感器系统包括一个或多个深度传感器(例如,传感器阵列)。例如,该一个或多个深度传感器包括一个或多个基于光的(例如,红外)传感器和/或一个或多个基于声音的(例如,超声)传感器。在一些实施方案中,传感器系统包括一个或多个信号发射器,诸如光发射器(例如,红外发射器)和/或声音发射器(例如,超声发射器)。例如,在光(例如,来自具有预先确定图案的红外光发射器阵列的光)被投影到手部(例如,手部7200)上时,由该一个或多个相机捕获在光的照明下的手部的图像,并且所捕获的图像被分析以确定手部的位置和/或构造。使用来自指向手部的图像传感器的信号来确定输入手势,而不是使用触敏表面或其他直接接触机构或基于接近的机构的信号,允许用户自由选择在利用他/她的手部提供输入手势时是执行大幅运动还是保持相对静止,而不经受由特定输入设备或输入区域施加的限制。
在一些实施方案中,轻击输入任选地是用户的手部的拇指在食指上方(例如,在与拇指相邻的食指的一侧上)的轻击输入。在一些实施方案中,在不需要将拇指从食指的该侧面抬起的情况下检测轻击输入。在一些实施方案中,根据确定拇指的向下移动之后是拇指的向上移动来检测轻击输入,其中拇指与食指的该侧接触小于阈值量的时间。在一些实施方案中,根据确定拇指从抬起位置移动到触压位置并且保持在触压位置至少第一阈值量的时间(例如,轻击时间阈值或长于轻击时间阈值的另一个时间阈值)来检测轻击-保持输入。在一些实施方案中,计算机系统要求手部作为整体在位置中保持基本上静止达至少第一阈值量的时间,以便检测拇指在食指上进行的轻击-保持输入。在一些实施方案中,在不需要手部作为整体保持基本上静止(例如,手部作为整体可以在拇指搁置在食指的该侧上时移动)的情况下检测触摸保持输入。在一些实施方案中,当拇指触压食指的该侧并且手部作为整体在拇指搁置在食指的该侧上时移动时检测轻击-保持-拖动输入。
在一些实施方案中,轻弹手势任选地是通过拇指跨食指(例如,从食指的手掌侧到背侧)的移动进行的推动或轻弹输入。在一些实施方案中,拇指的伸展移动伴随着远离食指的该侧的向上移动,例如,如在由拇指进行的向上轻弹输入中。在一些实施方案中,在拇指的向前移动和向上移动期间,食指在与拇指的方向相反的方向上移动。在一些实施方案中,通过拇指从伸展位置移动到回缩位置来执行反向轻弹输入。在一些实施方案中,在拇指的向后移动和向下移动期间,食指在与拇指的方向相反的方向上移动。
在一些实施方案中,轻扫手势任选地是通过拇指沿着食指(例如,沿着与拇指相邻或手掌的该侧上的食指的一侧)的移动进行的轻扫输入。在一些实施方案中,食指任选地处于伸展状态(例如,基本上笔直)或卷曲状态。在一些实施方案中,在轻扫输入手势中拇指的移动期间,食指在伸展状态和卷曲状态之间移动。
在一些实施方案中,各种手指的不同的指骨对应于不同的输入。拇指在各种手指(例如,食指、中指、无名指,以及任选地,小拇指)的各种指骨上方的轻击输入任选地映射到不同操作。类似地,在一些实施方案中,不同的推动或点击输入可由拇指跨不同手指和/或手指的不同部分执行,以在相应用户界面上下文中触发不同操作。类似地,在一些实施方案中,由拇指沿着不同手指和/或在不同方向上(例如,朝向手指的远侧端部或近侧端部)执行的不同轻扫输入在相应用户界面上下文中触发不同操作。
在一些实施方案中,计算机系统基于拇指的移动类型而将轻击输入、轻弹输入和轻扫输入视为不同类型的输入。在一些实施方案中,计算机系统将具有被拇指轻击、触摸或轻扫的不同手指位置的输入视为给定输入类型(例如,轻击输入类型、轻弹输入类型、轻扫输入类型等)的不同子输入类型(例如,近侧、中间、远侧子类型,或者食指、中指、无名指或小拇指子类型)。在一些实施方案中,通过移动手指(例如,拇指)执行的移动量和/或与手指的移动相关联的其他移动度量(例如,速度、初始速度、结束速度、持续时间、方向、移动模式等)用于定量地影响通过手指输入触发的操作。
在一些实施方案中,计算机系统识别组合输入类型,这些组合输入类型组合由拇指进行的一系列移动,诸如轻击-轻扫输入(例如,拇指在手指上的触压,然后是沿着手指的该侧的轻扫)、轻击-轻弹输入(例如,拇指在手指上方的触压,紧接着是跨手指从手指的手掌侧到背侧的轻弹)、双击输入(例如,在大约相同位置处在手指的该侧上的两次连续轻击)等。
在一些实施方案中,手势输入由食指而不是拇指执行(例如,食指在拇指上执行轻击或轻扫,或者拇指和食指朝向彼此移动以执行捏合手势等)。在一些实施方案中,与不具有通过手腕移动进行的修改输入的手指移动输入相比,手腕移动(例如,手腕在水平方向或竖直方向上的轻弹)紧接在手指移动输入之前执行,紧接在手指移动输入之后(例如,在阈值量的时间内)执行或与手指移动输入同时执行,以在当前用户界面上下文中触发附加操作、不同操作或经修改操作。在一些实施方案中,用面向用户面部的用户手掌执行的手指输入手势被视为与用背对用户面部的用户手掌执行的手指输入手势不同类型的手势。例如,与响应于用背对用户面部的用户手掌执行的轻击手势而执行的操作(例如,相同操作)相比,用面向用户的用户手掌执行的轻击手势执行的操作具有增加(或减少)的隐私保护。
尽管在本公开中提供的示例中,可以使用一种类型的手指输入来触发某种类型的操作,但是在其他实施方案中,其他类型的手指输入任选地用于触发相同类型的操作。
下文参考相对于下面的图8-12描述的方法8000、9000、10000、11000和12000提供了关于图7A-7P的附加描述。
图8是根据一些实施方案的支持在两个或多个用户之间共享的计算机生成的三维环境中与用户界面对象交互的方法的流程图。
在一些实施方案中,方法8000在计算机系统(例如,图1中的第一计算机系统101)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏、投影仪等)和一个或多个相机(例如,向下指向用户手部的相机(例如,颜色传感器、红外传感器和其他深度感测相机)或从用户头部向前指向的相机)。在一些实施方案中,方法8000通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器(诸如计算机系统101的一个或多个处理器202)(例如,图1A中的控制单元110)执行的指令来管理。方法8000中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法8000在与显示生成部件(例如,图1、图3和图4中的显示生成部件120、显示生成部件7100等)(例如,平视显示器、HMD、显示器、触摸屏、投影仪等)和一个或多个输入设备(例如,相机、控制器、触敏表面、操纵杆、按钮等)通信的计算机系统(例如,图1中的第一计算机系统101)处执行。在一些实施方案中,计算机系统是集成设备,该集成设备具有封闭在与显示生成部件相同的外壳中的一个或多个处理器和存储器以及一个或多个输入设备中的至少一些输入设备。在一些实施方案中,计算机系统包括计算部件,该计算部件包括一个或多个处理器以及与显示生成部件分离的存储器以及/或者一个或多个输入设备。在一些实施方案中,显示生成部件以及一个或多个输入设备被集成并封装在同一外壳中。
在方法8000中,计算机系统在三维环境的第一视图(例如,图7B中的第一视图7015-1、另一第一视图等)中显示(8002)第一用户界面对象(例如,图7B中的用户界面对象7016、另一用户界面对象等)(例如,应用程序的表示,包括多个用户界面对象(例如,可选择的化身、可选择的菜单项、可选择的设备控件、可选择的内容项、滑块控件、按钮等)的用户界面,虚拟三维对象,控件,包括对应于不同功能或操作的多个控件的控件面板、信息项、媒体项等),其中该三维环境在第一用户(例如,图7A-7C中的用户7102)和第二用户(例如,图7A-7C中的用户7002)之间至少部分地共享(例如,共享该环境的至少空间部分,在至少一段时间期间共享该环境,完全或部分地共享该环境中的对象(例如,可同时查看和访问,可同时查看但不能同时访问,可查看但不能在其他人控制时访问(例如,所述其他人可查看或不查看该对象)等)(例如,当显示该三维环境的至少一部分(例如,在三维环境的第一视图中所示的部分、三维环境的另一部分等)以供第一用户和第二用户同时查看时,和/或当该三维环境中的一些或所有虚拟对象(例如,包括第一用户界面对象、另一用户界面对象等)在向第一用户和第二用户示出的三维环境中同时显示时,等等),其中第一用户界面对象在该三维环境的第一视图(例如,图7B中的第一视图7015-1)中的第一位置以第一组外观属性(例如,由第二显示生成部件向第二用户显示的第一用户界面对象的正常外观(例如,第一形状、第一大小、第一颜色、第一不透明度、第一饱和度级别、第一亮度级别等)显示(例如,如图7B所示)。当在三维环境的第一视图中的第一位置处以第一组外观属性显示第一用户界面对象时,计算机系统检测(8004)到由第一用户提供的第一用户输入,其中该第一用户输入指向第一用户界面对象(例如,检测到用户输入包括检测到第一用户的一部分移动到物理环境中的第一定位,其中物理环境中的第一定位对应于第一用户界面对象在三维环境的第一视图中的相应位置;检测用户输入包括检测指向第一用户界面对象的注视输入以及结合该注视输入检测的控制输入(例如,手指移动手势、空中手势、由控制器提供的输入等);等等)。响应于检测到(8006)指向第一用户界面对象的第一用户输入并且根据确定第二用户(例如,图7A-7C中的用户7002)当前不与第一用户界面对象(例如,图7A-7C中的用户界面对象7016)交互(例如,第一用户界面对象不与第二用户在三维环境的第一视图中的虚拟位置具有预设空间关系(例如,第一用户界面对象不在第二用户的手掌或手的表示内,第一用户界面对象在三维环境的第一视图内可见的第二用户的私人空间外,等等),第二用户没有通过在至少部分地共享的三维环境中显示三维环境的第二视图的第二计算机系统控制、选择、移动、修改第一用户界面对象和/或以其他方式与第一用户界面对象交互,等等),计算机系统根据第一用户输入相对于第一用户界面对象执行(8008)第一操作(例如,示出第一用户界面对象根据第一用户输入被第一用户抓取或移动(例如,朝向用户移动,根据第一用户输入的移动而移动等),示出第一用户界面对象的重影图像被抓取和/或移动到第一用户的手的表示中,等等)。在一些实施方案中,根据确定当检测到第一用户输入时第二用户没有与第一用户界面对象交互,第一用户界面对象继续以第一组外观属性显示(例如,在其原始定位处或在第一用户的手部的表示中等)。响应于检测到(8006)指向第一用户界面对象(例如,图7A-7C中的用户界面对象7016)的第一用户输入并且根据确定第二用户当前正在与第一用户界面对象交互(例如,第一用户界面对象与第二用户在三维环境的第一视图中的虚拟位置具有预设空间关系(例如,第一用户界面对象在第二用户的手掌或手的表示中,第一用户界面对象在三维环境的第一视图中可见的第二用户的私人空间内,等等),第二用户正在通过在共享三维环境中显示三维环境的第二视图的第二计算机系统控制、选择、移动、修改第一用户界面对象和/或以其他方式与第一用户界面对象交互,等等),计算机系统显示(8010)第一用户界面对象不可用于与第一用户交互的视觉指示,其中显示该视觉指示包括改变第一用户界面对象的外观或第一用户界面对象在三维环境的第一视图中的位置中的至少一者(例如,在图7C中,用户界面对象7016的外观在向第一用户7102示出的第一视图7015-1中改变)。在一些实施方案中,计算机系统以与第一组外观属性不同的第二组外观属性(例如,第二形状、第二大小、第二颜色、第二不透明度、第二饱和度级别、第二亮度级别等)显示第一用户界面对象(例如,第二组外观属性提供第一用户界面对象在此刻控制第二用户并且不可用于与第一用户交互的视觉指示),并且/或者当第一用户试图抓取第一用户界面对象时将它移开。在一些实施方案中,第一用户界面对象在向第二用户显示的至少部分地共享的三维环境的视图中保持其外观和/或位置,因为仅需要向第一用户显示该视觉指示。在一些实施方案中,当第二用户在至少部分地共享的三维环境中与第一用户界面对象交互时,显示该视觉指示。计算机系统放弃(8014)根据第一用户输入相对于第一用户界面对象执行第一操作。在一些实施方案中,计算机系统不示出第一用户界面对象被第一用户的表示抓取,或者不示出第一用户界面对象根据第一用户输入的移动而移动的(例如,对象不移动以避免被第一用户的手抓取,对象不收缩或改变形状以避免被第一用户的表示抓取,等等)。在一些实施方案中,计算机系统不示出第一用户界面对象的重影图像移动到第一用户的手的表示中。
这些特征例如在图7A-7C中示出,其中第一用户7102和第二用户7002共享分别经由显示生成部件7200和7100示出的三维环境。当第二用户7002具有对第一用户界面对象7016的控制时(例如,正在与第一用户界面对象7016交互,经由第二视图7015-2中的手部7028的表示7028"(还有在向第一用户7102示出的第一视图7015-1中的表示7028")握住第一用户界面对象7016或其表示等),如果第一用户7102尝试通过第一用户的手部7102的移动与第一用户界面对象7016交互,则第一用户7102的计算机系统改变经由第一显示生成部件7200示出的第一视图7015-1中的第一用户界面对象7016的外观,并且不执行对应于第一用户界面对象7016的操作。相反,如果第二用户7002没有与第一用户界面对象7016交互,则计算机系统根据第一用户的手部7202的移动来执行第一操作。这通过图7B中第二用户7002与第一用户界面对象7016之间的交互来间接示出,其中第一用户7102不具有对第一用户界面对象7016的控制或者不与其交互(例如,考虑在该场景中第一用户和第二用户的角色反转)。
在一些实施方案中,计算机系统将第一用户界面对象的外观改变为第一用户界面对象不可用于与第一用户交互的视觉指示,并且改变第一用户界面对象的外观包括改变第一用户界面对象的第一组外观属性中的至少一者(例如,任选地,在保持第一用户界面对象的周围环境的外观(例如,不改变周围环境的视觉显著性)的同时,增加第一用户界面对象的透明度级别、降低颜色饱和度、降低不透明度、模糊、变暗、降低分辨率、缩小大小等)以降低第一用户界面对象的视觉显著性(例如,在图7C中,在向第一用户7102示出的第一视图7015-1中改变用户界面对象7016的外观)。在一些实施方案中,计算系统在保持第一用户界面对象在三维环境的第一视图中的独立于第一用户输入确定的位置(例如,第一位置,响应于第一用户界面对象与第二用户之间的交互确定的另一位置,根据第一用户界面对象的预编程自主移动确定的另一位置(例如,第一用户界面对象具有预设移动模式或预设动画效果等),根据计算机系统中的其他事件确定的另一位置等)的同时改变第一用户界面对象的外观。在一些实施方案中,响应于检测到指向第一用户界面对象的第一用户输入,根据确定第二用户当前未与第一用户界面对象交互,计算机系统不改变第一用户界面对象的外观来降低第一用户界面对象的视觉显著性,并且计算机系统根据第一用户输入相对于第一用户界面对象执行第一操作(例如,保持第一用户界面对象的外观和视觉显著性,或者可因为执行第一操作而改变外观,但没有降低第一用户界面对象的视觉显著性的目标,等等)。
改变第一用户界面对象的外观(包括改变第一用户界面对象的第一组外观属性中的至少一者以减少对第一用户界面对象的视觉显著性)来作为第一用户界面对象不可用于与第一用户交互的视觉指示的做法向用户提供了改进的视觉反馈(例如,第一用户界面对象不可用于与第一用户交互的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,计算机系统检测到指向第一用户界面对象的第一用户输入终止(例如,检测到第一用户的一部分在物理环境中远离对应于第一用户界面对象在三维环境的第一视图中的相应位置的第一定位的移动,检测到指向第一用户界面对象的注视输入远离第一用户界面对象移动,检测到提供第一用户输入的第一用户的手部移出保持第一用户输入所需的姿势,等等)。响应于检测到指向第一用户界面对象的第一用户输入终止,计算机系统恢复(例如,恢复到紧接在检测到第一用户输入之前存在的水平,或者在响应于检测到第一用户输入而做出改变之前存在的水平等)响应于第一用户输入而改变的第一用户界面对象的第一组外观属性中的至少一个外观属性,以恢复第一用户界面对象的视觉显著性。在一些实施方案中,计算机系统任选地恢复第一用户界面对象的增加的透明度级别,恢复其降低的颜色饱和度,恢复其降低的不透明度,停止其模糊和/或变暗,恢复其降低的分辨率,恢复其减小的大小等,同时保持第一用户界面对象的周围环境的外观(例如,不改变周围环境的视觉显著性)。例如,在一些实施方案中,当第一用户朝向对应于第二用户当前正与之交互的虚拟对象的定位伸出他/她的手部时,当第一用户的手部处于物理环境中对应于虚拟对象在三维环境中的位置的定位处时,该虚拟对象看起来淡出或变得更暗。当第一用户随后将他/她的手部从该定位移开时,该虚拟对象的外观恢复(例如,不再看起来淡出或变暗)。这在图7B(图7C之后)中示出,其中如果第一用户7102停止尝试与第一用户界面对象7016交互,则第一用户界面对象7016的外观在向第一用户7102示出的第一视图7015-1中不再改变。
响应于检测到指向第一用户界面对象的第一用户输入终止而恢复响应于第一用户输入而改变的第一用户界面对象的第一组外观属性中的至少一个外观属性以恢复第一用户界面对象的视觉显著性向用户提供了改进的视觉反馈(例如,第一用户界面对象可用于交互的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在继续检测第一用户输入(例如,在初始检测到第一用户输入时检测第一用户的部分保持处于物理环境中对应于第一用户界面对象在三维环境的第一视图中的相应位置的第一定位处,检测指向第一用户界面对象的注视输入保持在三维环境中的相同位置处,检测提供第一用户输入的第一用户的手保持在用于保持第一用户输入的所需姿势等)的同时,计算机系统独立于第一用户输入的检测来检测第一用户界面对象远离三维环境的第一视图中的第一位置的移动(例如,根据由第二用户提供的用户输入,根据第一用户界面对象的固有移动模式,响应于计算机系统中独立于第一用户输入的其他事件等)。响应于独立于第一用户输入的检测而检测到第一用户界面对象移动远离三维环境的第一视图中的第一位置,计算机系统恢复(例如,恢复到紧接在检测到第一用户输入之前存在的水平,或者在响应于检测到第一用户输入而做出改变之前存在的水平等)响应于第一用户输入而改变的第一用户界面对象的第一组外观属性中的至少一个外观属性,以恢复第一用户界面对象的视觉显著性。在一些实施方案中,计算机系统任选地恢复第一用户界面对象的增加的透明度级别,恢复其降低的颜色饱和度,恢复其降低的不透明度,停止其模糊和/或变暗,恢复其降低的分辨率,恢复其减小的大小等,同时保持第一用户界面对象的周围环境的外观(例如,不改变周围环境的视觉显著性)。例如,在一些实施方案中,当第一用户朝向对应于第二用户当前正与之交互的虚拟对象的定位伸出他/她的手部时,当第一用户的手部处于物理环境中对应于虚拟对象在三维环境中的位置的定位处时,该虚拟对象看起来淡出或变得更暗。当第一用户界面对象随后从其当前位置移开(例如,由第二用户根据其自己的移动模式、根据与第一用户输入无关的其他系统生成的事件等移动)并且从对应于第一用户的手部的当前定位的位置移开时,虚拟对象的外观恢复(例如,不再看起来淡出或变暗)。
响应于独立于第一用户输入的检测而检测到第一用户界面对象在三维环境的第一视图中移动远离第一位置而恢复响应于第一用户输入而改变的第一用户界面对象的第一组外观属性中的至少一个外观属性以恢复第一用户界面对象的视觉显著性向用户提供了改进的视觉反馈(例如,第一用户界面对象已经移动远离第一位置的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,显示第一用户界面对象不可用于与第一用户交互的视觉指示包括保持响应于第一用户输入做出的对第一用户界面对象的外观的改变,直到第二用户停止与第一用户界面对象交互。例如,即使在第一用户7102停止其与第一用户界面对象7016交互的尝试之后,用户界面对象7016的改变的外观也将保持,直到第二用户7002不再控制第一用户界面对象7016(不考虑第一用户7102)为止。例如,在一些实施方案中,一旦响应于检测到第一用户输入并且根据确定在最初检测到第一用户输入时第二用户正与第一用户界面对象交互而显示视觉指示,计算机系统就根据确定第二用户仍在与第一用户界面对象交互(例如,第二用户继续将虚拟对象保持在对应于第二用户的手掌或手部的定位的位置处,以及/或者通过第二用户的计算机系统的操作继续选择、修改虚拟对象或以其他方式与虚拟对象交互等)继续显示视觉指示(例如,第一用户界面对象的改变的外观、改变的位置等)。
在一些实施方案中,即使当计算机系统检测到第一用户输入已终止并且第一用户当前未提供任何输入来尝试与第一用户界面对象交互,视觉指示仍会继续显示。在一些实施方案中,视觉指示保持一段时间,而不管第一用户输入是否保持或者第一用户是否继续尝试与第一用户界面对象交互,但不一定直到第二用户已经停止与第一用户界面对象交互为止。在一些实施方案中,第一用户的计算机系统确定第二用户不再与第一用户界面对象交互,并且响应于检测到第二用户不再与第一用户界面对象交互,计算机系统停止显示第一用户界面对象不再可用于与第一用户交互的视觉指示(例如,计算机系统停止以淡出或调暗状态显示第一用户界面对象,并且恢复已经响应于检测到第一用户输入而改变的第一用户界面对象的原始外观属性)。在一些实施方案中,第一用户界面对象仍在第二用户的控制内和/或不可用于与第一用户交互的持久视觉指示帮助第一用户知道设备何时准备好响应与第一用户界面对象交互的另一尝试并且避免尝试与第一用户界面对象交互的重复失败。
保持响应于第一用户输入作出的对第一用户界面对象的外观的改变直到第二用户停止与第一用户界面对象交互为止向用户提供了改进的视觉反馈(例如,第二用户正与第一用户界面对象交互的改进的视觉反馈,第一用户界面对象不可用于与第一用户交互的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于检测到指向第一用户界面对象(例如,图7B-7C中的用户界面对象7016)的第一用户输入并且根据确定第二用户(例如,图7B-7C中的用户7002)当前不与第一用户界面对象交互(例如,第一用户界面对象不与第二用户在三维环境的第一视图中的虚拟位置具有预设空间关系(例如,第一用户界面对象不在第二用户的手掌或手的表示内,第一用户界面对象在三维环境的第一视图中可见的第二用户的私人空间外,等等),第二用户没有通过在至少部分地共享的三维环境中显示三维环境的第二视图的第二计算机系统控制、选择、移动、修改第一用户界面对象和/或以其他方式与第一用户界面对象交互,等等),计算机系统在三维环境的第一视图中的第二位置处显示第一用户界面对象,其中该第二位置根据第一用户(例如,图7B-7C中的用户7102,或另一用户等等)的手部的当前定位来选择。在一些实施方案中,第二位置被选择为对应于提供第一用户输入(例如,覆盖第一用户的手部的表示、替换该表示的显示、修改该表示的外观等)的第一用户的手部(例如,图7B-7C中的手部7202,或另一只手等)的当前定位,或者第二位置被选择为对应于三维环境中的位置或物理环境中的定位等,该位置或定位由第一用户输入指向或指示。
在一些实施方案中,计算机系统在三维环境的第一视图中示出第一用户界面对象被第一用户的手部的表示抓取,示出第一用户界面对象在对应于由第一用户的手部提供的第一用户输入的移动方向的方向上移动(例如,用户的手部的向上移动导致虚拟对象从桌面的表示向上抬起,用户的手部的向上移动导致虚拟对象从桌面的表示向上跳起并落在用户的手部的表示中,等等),示出第一用户界面对象(例如,图7B-7C中的用户界面对象7016,或另一用户界面对象,等等)移动到由第一用户的手部指示的位置(例如,第一用户的手部的轻弹和指向手势导致虚拟对象从其原始位置向上移动,并且移动到由第一用户的手指所指示的位置,等等)。响应于检测到指向第一用户界面对象的第一用户输入并且当在根据第一用户的手部的当前定位选择的第二位置处显示第一用户界面对象时(例如,当第一用户界面对象被显示在对应于第一用户的手部的表示的位置处时(例如,看起来被第一用户的手部握住),当第一用户界面对象被显示为悬停在由第一用户输入选择的位置处时,等等),计算机系统检测第一用户(例如,用户7102,或另一用户等)的手部的对应于第一用户的手部的投掷手势的移动。在一些实施方案中,计算机系统检测到第一用户的手部从靠近第一用户的定位移动到远离第一用户的另一定位,并且任选地朝向对应于第二用户的表示的位置的定位。在一些实施方案中,计算机系统检测到第一用户将食指远离第一用户轻弹,任选地朝向对应于第二用户的表示的位置的定位,并且/或者检测到第一用户使用他/她的手部执行丢掷运动或投掷运动。在一些实施方案中,检测投掷手势包括检测手部的快速加速以及随后的快速减速。在一些实施方案中,检测投掷手势包括检测闭合的手部张开(并且任选地,结合检测快速减速)。响应于检测到指向第一用户界面对象的第一用户输入并且响应于检测到第一用户的手部的对应于第一用户的手部的投掷手势的移动,计算机系统在三维环境的第一视图中在与第一用户的手部的移动的方向相对应的第一方向上移动第一用户界面对象,并且在第一用户界面对象的移动期间旋转第一用户界面对象。在一些实施方案中,当第一用户界面对象在对应于该投掷手势的方向的方向上移动时,第一用户界面对象还围绕第一用户界面对象的虚拟重心(例如,几何中心,第一用户界面对象内或外的取决于由第一用户界面对象模拟的对象的另一点等)旋转(例如,以模拟在第一用户界面对象的线性运动期间角动量的守恒,模拟投掷手势在第一用户界面对象上的物理效应,在投掷手势的目的地端朝向第二用户示出第一用户界面对象的预定义面向用户的侧,降落在物理表面的表示上或具有预定义直立取向的虚拟表面上等)。
在一些实施方案中,当第二用户已经与第一用户界面对象交互并且随后执行投掷手势以在三维环境中扔掉第一用户界面对象时,计算机系统示出第一用户界面对象在三维环境的第一视图中在与第二用户的手部的移动的方向相对应的第二方向上移动并且在第一用户界面对象的移动期间旋转第一用户界面对象(例如,当第一用户界面对象在投掷手势的方向上移动时,第一用户界面对象也围绕第一用户界面对象的虚拟重心旋转(例如,以模拟在第一用户界面对象的线性运动期间角动量的守恒,模拟投掷手势在第一用户界面对象上的物理效应,在投掷手势的目的地端朝向第一用户示出第一用户界面对象的预定义面向用户的侧,降落在物理表面的表示上或具有预定义直立取向的虚拟表面上等))。
响应于检测到第一用户的手部的与第一用户的手部的投掷手势相对应的移动在三维环境的第一视图中在与第一用户的手部的移动的方向相对应的第一方向上移动第一用户界面对象并且在第一用户界面对象的移动期间旋转第一用户界面对象向用户提供了改进的视觉反馈(例如,计算机系统已经检测到第一用户的手部的投掷手势的改进的视觉反馈,第一用户界面对象正被移动的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一用户界面对象(例如,用户界面对象7016或另一用户界面对象等)的移动期间旋转第一用户界面对象包括:根据确定第一用户的手部的移动方向指向三维环境的第一视图中第二用户的表示,以第一方式旋转第一用户界面对象(例如,在第一旋转方向将第一用户界面对象旋转第一量,在第二旋转方向将其旋转第二量,以及/或者在第三旋转方向将其旋转第三量等),使得当到达三维环境中根据第一用户的手部在物理环境中的移动而选择的目的地位置(例如,第二用户的手部的表示的位置,与第二用户相关联的表面的表示等)时,第一用户界面对象在三维环境中具有第一预设取向。在一些实施方案中,第一预设取向不同于当第一用户界面对象响应于第一用户的投掷手势开始移动时第一用户界面对象所具有的取向。在一些实施方案中,第一预设取向是第一用户界面对象的预设正面侧面向第二用户的表示的取向。在一些实施方案中,第一预设取向是第一用户界面对象在被第二用户的手部的表示抓住和/或搁置在第二用户的手部的表示上时直立的取向。在一些实施方案中,当第二用户已经与第一用户界面对象交互并且随后在与第一用户的表示的方向相对应的方向上执行投掷手势时,计算机系统根据确定第二用户的手部的移动的方向指向三维环境的第一视图的视点,将第一用户界面对象以相应方式旋转(例如,在第一旋转方向上旋转第一量、在第二旋转方向上旋转第二量,以及/或者在第三旋转方向上旋转第三量等),使得第一用户界面对象在到达三维环境中根据第二用户的手部在物理环境中的移动而选择的目的地位置时相对于三维空间具有第一预设取向(例如,第一预设取向不同于当第一用户界面对象响应于第二用户的投掷姿势而开始移动时第一用户界面对象所具有的取向,第一预设方向是第一用户界面对象的预设正面侧朝向第一用户的表示的取向,或者第一预设取向是第一用户界面对象在被第一用户的手部的表示抓住和/或搁置在其上时直立的取向,等等)。
以第一方式旋转第一用户界面对象来使得当第一用户界面对象到达三维环境中根据第一用户的手部在物理环境中的移动而选择的目的地位置时在三维环境中具有第一预设取向减少了用于使第一用户界面对象在目的地位置以所需取向显示的输入的数量(例如,在第一用户界面对象的移动期间旋转第一用户界面对象之后,用户不需要执行额外手势来将第一用户界面对象旋转到所需取向(例如,以便查看))。减少执行操作所需的输入数量增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在第一用户界面对象的移动期间旋转第一用户界面对象包括:根据确定第一用户(例如,图7A-7C中的第一用户7102、另一用户等)的手部的移动方向指向三维环境的第一视图(例如,图7B-7C中的第一视图7015-1、另一视图等)中的第一表面(例如,物理表面(例如,墙壁、桌面、沙发的座位等)、虚拟表面(例如,虚拟架子、虚拟墙壁、虚拟沙发等)等)的表示,以第二方式(例如,在第一旋转方向上将第一用户界面对象旋转第一量、在第二旋转方向上将其旋转第二量,以及/或者在第三旋转方向上将其旋转第三量等)旋转第一用户界面对象(例如,图7B-7C中的第一用户界面对象7016、或另一用户界面对象等),使得当到达第一表面的表示上的根据第一用户的手部在物理环境中的移动而选择的目的地位置时,第一用户界面对象相对于三维环境中的第一表面的表示具有第二预设取向。在一些实施方案中,第二预设取向不同于当第一用户界面对象响应于第一用户的投掷手势开始移动时第一用户界面对象所具有的取向。在一些实施方案中,第二预设取向是第一用户界面对象的预设正面侧面向第一用户的表示的取向。在一些实施方案中,第二预设取向是当降落在第一表面的表示上时第一用户界面对象直立的取向,等等。
在一些实施方案中,当第二用户已经与第一用户界面对象交互并且随后在与第一表面的表示的方向相对应的方向上执行投掷手势时,计算机系统根据确定第二用户的手部的移动的方向指向三维环境中的第一表面的表示,以相应方式旋转第一用户界面对象(例如,在第一旋转方向上旋转第一量、在第二旋转方向上旋转第二量,以及/或者在第三旋转方向上旋转第三量等),使得当到达第一表面的表示上的根据第二用户的手部在物理环境中的移动而选择的目的地位置时,第一用户界面对象相对于三维环境中的第一表面的表示具有第二预设取向。在一些实施方案中,不管哪个用户在第一表面的表示的方向上做出了投掷手势,第一用户界面对象在其朝向第一表面的表示移动期间都以相应方式旋转,使得第一用户界面对象以相对于第一表面的表示的预设空间关系(例如,取向、定位等)降落在第一表面的表示上。例如,在一些实施方案中,当第一用户界面对象是虚拟画框时,虚拟画框在被投向桌子的表示的同时旋转,并且以面向执行该投掷姿势的用户的直立取向降落在桌子上。在一些实施方案中,当虚拟画框被投向墙壁的表示时,虚拟画框在朝向墙壁的表示移动期间旋转并且降落在墙壁的表示上,其背面平行于墙壁的表示。在一些实施方案中,当虚拟画框被第一用户投向第二用户时,当虚拟画框降落在第二用户的手掌的表示上时,虚拟画框旋转以使其正面朝向第二用户的表示。
以第二方式旋转第一用户界面对象来使得当第一用户界面对象到达第一表面的表示上根据第一用户的手部在物理环境中的移动而选择的目的地位置时在三维环境中具有第二预设取向减少了用于使第一用户界面对象在第一表面上以所需取向显示的输入的数量(例如,在第一用户界面对象的移动期间旋转第一用户界面对象之后,用户不需要执行额外手势来将第一用户界面对象旋转到所需取向(例如,以便查看))。减少执行操作所需的输入数量增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,计算机系统将第一用户界面对象(例如,图7B-7C中的用户界面对象7016,或另一用户界面对象等)在三维环境的第一视图(例如,图7C中的7015-1,或另一视图等)中的位置改变为第一用户界面对象不可用于与第一用户交互的视觉指示,并且改变第一用户界面对象在三维环境的第一视图中的位置包括将第一用户界面对象从第一位置移动以保持第一用户界面对象与提供第一用户输入的第一用户的手部的表示之间的至少预设距离(例如,第一用户界面对象看起来在一个或多个方向上移动以避开尝试抓取第一用户界面对象的第一用户的手部的表示)。在一些实施方案中,第一用户界面对象的移动伴随着对第一用户界面对象的外观做出的改变(例如,第一用户界面对象在移动以避免第一用户的手部的表示变得太靠近其自身时看起来变淡或变暗)。在一些实施方案中,响应于检测到指向第一用户界面对象的第一用户输入,根据确定第二用户当前不与第一用户界面对象交互,计算机系统不将第一用户界面对象从第一位置移动,直到第一用户的手的表示到达第一位置为止,并且计算机系统然后将第一用户界面对象从第一位置移开,或者根据手部从第一位置的后续移动来操纵第一用户界面对象(例如,第一用户界面对象的后续移动不是避开手部,而是和手部一起移动或者跟随手部)。在一些实施方案中,响应于检测到指向第一用户界面对象的第一用户输入,根据确定第二用户当前不与第一用户界面对象交互,计算机系统将第一用户界面对象从第一位置朝向第一用户的手部的表示移动,直到第一用户界面对象的位置与手部的表示重叠为止,然后计算机系统根据手部的后续移动来移动第一用户界面对象或操纵第一用户界面对象(例如,第一用户界面对象和手部的表示一起移动或跟随手部的表示)。
将第一用户界面对象从第一位置移动以保持第一用户界面对象与提供第一用户输入的第一用户的手部的表示之间的至少预设距离来作为第一用户界面对象不可用于与第一用户交互的视觉指示向用户提供了改进的视觉反馈(例如,第一用户界面对象不可用于与第一用户交互的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,根据第一用户输入来相对于第一用户界面对象(例如,图7B-7C中的用户界面对象7016,或另一用户界面对象等)执行第一操作包括将第一用户界面对象朝向第一用户的手部的表示(例如,图7B-7C中的手部7202,或另一只手等)(例如,提供第一用户输入的手部,第一用户的与提供第一用户输入的手部不同的手部,第一用户的任一只手等)移动。在一些实施方案中,计算机系统示出当手部朝向第一用户界面对象移动时第一用户界面对象朝向手部的表示移动,以指示第一用户界面对象可被第一用户的手部抓取。在一些实施方案中,当第一用户界面对象的位置与手部的表示的位置重叠时,第一用户界面对象的移动停止,然后计算机系统根据手部的后续移动(如果有的话)移动第一用户界面对象或操纵第一用户界面对象。在一些实施方案中,第一用户界面对象的移动仅在离开第一位置的有限距离内(例如,当第一用户的手部的表示接近第一用户界面对象到第一位置的阈值距离内时,第一用户界面对象朝向第一用户的手的表示移动一点点),并且该移动向第一用户提供第一用户界面对象可用于与第一用户交互的视觉反馈(例如,当第一用户提供正确的选择手势时,响应于第一用户的手部的表示移动靠近并且抓住第一用户界面对象等)。
根据确定第二用户当前未与第一用户界面对象交互来将第一用户界面对象朝向第一用户的手部的表示移动向用户提供了改进的视觉反馈(例如,用户界面对象可用于与第一用户交互的改进的视觉反馈,计算机系统正在相对于第一用户界面对象执行操作的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,根据第一用户输入来相对于第一用户界面对象(例如,用户界面对象7016,或另一用户界面对象等)执行第一操作包括:根据确定第一用户输入包括(例如,包括、以其开始、以其结束等)预定义选择手势,选择第一用户界面对象作为从第一用户(例如,图7A-7C中的用户7102,或另一用户等)接收的后续输入(例如,在保持捏合手势时的拖动手势,在保持捏合手势时的轻弹手势,在终止预定义选择手势之后的拖动手势等)的目标。在一些实施方案中,选择手势是包括食指在同一只手的拇指上的向下触摸的捏合手势(任选地,随后从拇指抬起食指,或轻弹连接到手的手腕,或平移整只手等),包括食指和同一只手的拇指从触摸姿势、捏合手势、捏合并拖动手势、捏合并轻弹手势等彼此拉开的手势。在一些实施方案中,如果第一用户的手部靠近与第一用户界面对象附近的位置相对应的定位并且执行预定义选择手势,则计算机系统根据确定第二用户当前正与第一用户界面对象交互来生成视觉反馈以指示第一用户界面对象不可用于与第一用户交互,并且计算机系统不会选择第一用户界面对象用于与第一用户的后续交互。如果计算机系统确定第二用户当前没有与第一用户界面对象交互,则计算机系统不显示该视觉反馈,并且选择第一用户界面对象以用于与第一用户的后续交互。
根据确定第一用户输入包括预定义选择姿势来选择第一用户界面对象作为从第一用户接收到的后续输入的目标提供了附加的控件选项但不会使具有附加显示的控件(例如,用于选择第一用户界面对象的附加显示控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,结合选择第一用户界面对象(例如,图7B-7C中的用户界面对象7016,或另一用户界面对象等)作为从第一用户接收的后续输入的目标(例如,响应于检测到第一用户输入的至少一部分,响应于在第二用户当前不与第一用户界面对象交互的同时检测到由第一用户提供的预定义选择手势,等等),计算机系统在与第一用户的手部(例如,执行预定义选择手势的手,或第一用户的与执行第一预定义选择手势的手不同的手,第一用户的任一只手等)的定位相对应的位置处显示第一用户界面对象的表示(例如,在第一用户的手部的表示的位置附近或位置处、在第一用户的手部的表示的手掌部分上等显示第一用户界面对象的表示或重影图像),同时将第一用户界面对象保持在三维环境的第一视图中的第一位置处(例如,第一用户界面对象保持在其原始定位,但可由第一用户根据第一用户与第一用户界面对象的表示之间的交互来“远程地”控制)。在一些实施方案中,第一用户界面对象的表示是第一用户界面对象的副本,第一用户界面对象的比第一用户界面对象更半透明的图像,第一用户界面对象的具有第一用户界面对象的特征(例如,简化的内部结构、轮廓等)和/或功能子集的简化版本(例如,具有减少的用户界面元件,移除了文本内容等),等等。在一些实施方案中,当响应于由第一用户执行的选择手势而选择第一用户界面对象时,第一用户界面对象的重影图像被显示在与第一用户的手部的定位相对应的位置处(例如,浮在第一用户的手部的表示上方,在用户的手掌的表示上等)。
结合在与第一用户的手部的定位相对应的位置处显示第一用户界面对象的表示来选择第一用户界面对象作为从第一用户接收的后续输入的目标,同时将第一用户界面对象保持在三维环境的第一视图中的第一位置处的做法向用户提供了改进的视觉反馈(例如,第一用户界面对象现在是从第一用户接收的后续输入的目标的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在根据第一用户输入相对于第一用户界面对象执行第一操作(例如,第一用户界面对象的表示连同第一用户界面对象一起被显示在第一位置附近,第一用户界面对象(例如,图7B-7C中的用户界面对象7016,或另一用户界面对象等)的表示移动到第一用户的手部的表示(例如,图7B-7C中的第一视图7015-1中的表示7202',或手部7202的另一表示等)的位置附近,第一用户界面对象朝向第一用户的位置移动等以指示第一用户界面对象准备好与第一用户交互等)之后,计算机系统检测指向第一用户界面对象的第二用户输入(例如,检测指向第一用户界面对象的表示的位置的预定义捏合手势,检测指向第一用户界面对象的位置的预定义捏合手势,结合检测预定义选择输入来检测指向第一用户界面对象的表示的位置的注视输入,结合检测预定义选择输入来检测指向第一用户界面对象的位置的注视输入等)。响应于检测到第二用户输入,根据确定第二用户输入包括(例如,是、包括、以其开始、以其结束等)预定义选择手势,计算机系统选择第一用户界面对象作为从第一用户接收的后续输入(例如,在保持捏合手势时的拖动手势,在保持捏合手势时的轻弹手势,在终止预定义选择手势之后的拖动手势等)的目标。
在一些实施方案中,选择手势是包括食指在同一只手的拇指上的向下触摸的捏合手势(任选地,随后从拇指抬起食指,或者轻弹连接到该手的手腕,或者平移整只手等),包括食指和同一只手的拇指从触摸姿势、捏合手势、捏合并拖动手势、捏合并轻弹手势等势彼此拉开的手势。在一些实施方案中,根据第一用户输入来相对于第一用户界面对象(例如,图7B-7C中的用户界面对象7106,或另一用户界面对象等)执行第一操作包括(例如,在与显示第一用户界面对象的第一位置不同的第二位置处,和/或在与提供第一用户输入的第一用户的手部的表示的位置不同的第二位置处,等)显示第一用户界面对象的表示,同时将第一用户界面对象保持在三维环境的第一视图中的第一位置处。在一些实施方案中,第一用户界面对象的表示是第一用户界面对象的副本,第一用户界面对象的比第一用户界面对象更半透明的图像,第一用户界面对象的具有第一用户界面对象的特征(例如,简化的内部结构、轮廓等)和/或功能子集(例如,具有减少的用户界面元件,移除了文本内容等)的简化版本等。在一些实施方案中,第一用户界面对象的表示被显示为稍微偏离第一用户界面对象(例如,在三维环境的第一视图中浮在第一用户界面对象的上方、前方等,而不是在与第一用户的手部的定位相对应的位置等)。在一些实施方案中,第一用户界面对象的表示朝向第一用户的手部的表示移动,但保持在第一用户的手部的表示外部。
在执行第一造作之后并且根据确定第二用户输入包括预定义手势来选择第一用户界面对象作为从第一用户接收到的后续输入的目标提供了附加的控件选项但不会使具有附加显示的控件(例如,用于选择第一用户界面对象的附加显示控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,根据第一用户输入来相对于第一用户界面对象(例如,图7B-7C中的用户界面对象7106,或另一用户界面对象)执行第一操作包括(例如,在与显示第一用户界面对象的第一位置不同的第二位置处,和/或在与提供第一用户输入的第一用户的手部的表示的位置不同的第二位置处)显示第一用户界面对象的表示(例如,第一用户界面对象的副本,第一用户界面对象的比第一用户界面对象更半透明的图像,第一用户界面对象的具有第一用户界面对象的特征(例如,简化的内部结构或轮廓)和/或功能子集的简化版本(例如,具有减少的用户界面元件或减少的文本内容)),同时将第一用户界面对象保持在三维环境的第一视图中的第一位置处。在一些实施方案中,第一用户界面对象的表示被显示为稍微偏离第一用户界面对象(例如,在三维环境的第一视图中浮在第一用户界面对象上方、前方等,而不是在与第一用户的手部的定位相对应的位置等)。在一些实施方案中,第一用户界面对象的表示朝向第一用户的手部的表示移动,但保持在第一用户的手部的表示外部。显示第一用户界面对象的表示同时将第一用户界面对象保持在三维环境的第一视图中的第一位置处向用户提供了改进的视觉反馈(例如,计算机系统正在根据第一用户输入来相对于第一用户界面对象执行第一操作的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一用户界面对象(例如,图7B-7C中的用户界面对象7106,或另一用户界面对象等)的表示最初显示在远离第一用户的手部(例如,图7B-7C中的手部7202,或另一只手等)(例如,提供第一用户输入的手,第一用户的另一只手等)的表示的位置处,并且计算机系统根据确定第一用户提供的后续用户输入选择了第一用户界面对象,将第一用户界面对象的表示从远离第一用户的手部(例如,提供第一用户输入的手,第一用户的另一只手等)的表示的位置移动到第一用户的手部的表示的位置(例如,示出第一用户界面对象的表示从其初始显示位置飞向第一用户的手部的表示的位置,飞到用户的手掌的表示上等)。在一些实施方案中,计算机系统响应于检测到满足选择标准或包括选择手势的指向第一用户界面对象的第二用户输入(例如,检测到指向第一用户界面对象的表示的预定义捏合手势,检测到指向第一用户界面对象的预定义捏合手势,结合检测到预定义选择输入而检测到指向第一用户界面对象的表示的注视输入,或者结合检测到预定义选择输入而检测到指向第一用户界面对象的注视输入)而移动第一用户界面对象的表示。根据确定由第一用户提供的后续用户输入选择第一用户界面对象来将第一用户界面对象的表示从远离第一用户的手部的表示的位置移动到第一用户的手部的表示的位置向第一用户提供了改进的视觉反馈(例如,由第一用户提供的后续用户输入选择第一用户界面对象的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示第一用户界面对象的表示(例如,响应于检测到第一用户输入(例如,检测到第一用户的手部移动到与第一用户界面对象在三维环境中的位置相对应的定位附近)而显示第一用户界面对象的表示)时,计算机系统检测第一用户的手部(例如,手部7202,或用户7102的另一只手等)(例如,提供第一用户输入的手,第一用户的与提供第一用户输入的手不同的手等)的移动。响应于检测到第一用户的手部(例如,提供第一用户输入的手,第一用户的与提供第一用户输入的手不同的手等)的移动并且根据确定第一用户的手部的移动满足用于识别预设选择姿势的初始部分的预设标准,计算机系统改变第一用户界面对象(例如,图7B-7C中的用户界面对象7016,或另一用户界面对象等)的表示的外观(例如,任选地改变形状、大小、颜色、不透明度、细节水平等,以使得第一用户界面对象的表示更接近地类似于第一用户界面对象的外观等)。在一些实施方案中,当第一用户的手部的移动继续符合选择姿势的所需进度时,第一用户界面对象的表示的外观继续改变。在一些实施方案中,响应于检测到第一用户的手部的移动不满足用于识别预设选择手势的初始部分的预设标准,计算机系统不改变第一用户界面对象的表示的外观,或以不同方式改变该外观以向第一用户指示未检测到预设选择手势。在一些实施方案中,响应于检测到第一用户的手部的移动不再符合预设选择手势的所需进度,计算机系统停止改变第一用户界面对象的表示的外观,并且恢复第一用户界面对象的外观或停止显示第一用户界面对象的表示。
根据确定第一用户的手部的移动满足用于识别预设选择手势的初始部分的预设标准而改变第一用户界面对象的表示的外观向第一用户提供了改进的视觉反馈(例如,计算机系统已经检测到满足预设标准的第一用户的手部的移动的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,当在第一用户的手部(例如,图7B-7C中的手部7202,或另一只手等)的表示的位置处显示第一用户界面对象(例如,图7B-7C中的用户界面对象7106,或另一用户界面对象等)的表示时(例如,在示出第一用户界面对象的表示从其初始显示位置飞向第一用户的手部的表示的位置,飞向用户的手掌的表示上等之后)并且根据确定第一用户界面对象由第一用户选择,计算机系统检测与第一用户界面对象的表示交互的第三用户输入(例如,第三输入是由提供第一用户输入的手、选择第一用户界面对象的表示的手、第一用户的与提供第一用户输入的手不同的手、或第一用户的与选择第一用户界面对象的表示的手不同的手等提供的输入)。响应于检测到第三用户输入,计算机系统通过移动第一用户界面对象的表示和改变第一用户界面对象的表示的外观中的至少一者来显示第三用户输入的视觉反馈,并且计算机系统根据第三用户输入来相对于第一用户界面对象执行第二操作。在一些实施方案中,该视觉反馈对应于将相对于第一用户界面对象执行的第二操作。在一些实施方案中,该视觉反馈对应于根据第一用户的手部在与第一用户界面对象的表示的位置相对应的定位处的移动而对第一用户界面对象的表示的直接操纵。在一些实施方案中,执行第二操作包括激活第一用户界面对象上的控件,在三维空间中移动第一用户界面对象,回放由第一用户界面对象表示的媒体项,启动由第一用户界面对象表示的应用程序,以及/或者开始与由第一用户界面对象表示的另一用户的通信会话等。
响应于检测到第三用户输入与对象的表示交互的第三用户输入,通过第一用户界面对象的表示的移动和改变第一用户界面对象的表示的外观中的至少一者来显示第三用户输入的视觉反馈,并且根据第三用户输入来相对于第一用户界面对象执行第二操作的做法向用户提供了改进的视觉反馈(例如,计算机系统已经检测到第三用户输入的改进的视觉反馈,和/或计算机系统正在相对于第一用户界面对象执行第二操作的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,计算机系统根据第一用户的手部的移动来更新第一用户界面对象(例如,图7B-7C中的用户界面对象7106,或另一用户界面对象等)的表示的位置,使得第一用户界面对象的表示保持与第一用户的手部(例如,图7B-7C中的手部7202,或另一只手等)的表示的更新位置的现有空间关系(例如,与更新位置保持固定,在更新位置之后等)(例如,同时第一用户界面保持在三维环境的第一视图中的第一位置处)。在一些实施方案中,第一用户界面对象的表示保持显示在第一用户的手部的表示处或附近的位置处,而不管第一用户是否实际上与第一用户界面对象的表示交互。在一些实施方案中,第一用户界面对象的表示被显示在与第一用户的手部的手掌的定位相对应的位置处,并且当手部的表示不在三维环境的当前显示视图中时或者当第一用户的手部闭合时停止显示。在一些实施方案中,当第一用户的手部的表示或当手部的手掌的表示在三维环境的当前显示视图中再次可见时,第一用户界面对象的表示重新显示。只要第一用户没有明确地放弃对第一用户界面对象的控制(例如,通过提供朝向第二用户或朝向三维环境的共享部分(例如,墙壁或桌面等的表示等)等的投掷手势),第一用户就可与第一用户界面对象的表示交互。在一些实施方案中,当第一用户闭合他/她的手部来使得第一用户界面对象的表示不再在三维环境的当前显示视图中显示时,第一用户放弃对第一用户界面对象的控制(例如,当第二用户不与第一用户界面对象交互时,第一用户必须通过再次开始另一选择输入来重新获得控制)。
根据第一用户的手部的移动来更新第一用户界面对象的表示的位置来使得第一用户界面对象的表示保持与第一用户的手部的表示的更新位置的现有空间关系向用户提供了改进的视觉反馈(例如,第一用户界面对象由第一用户提供的后续用户输入选择的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图8中的操作进行描述的具体次序仅仅是示例,并非旨在表明所述次序是可以执行这些操作的唯一次序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当注意,本文相对于本文所述的其他方法(例如,方法9000、10000、11000和12000)所述的其他过程的细节同样以类似的方式适用于上文相对于图8所述的方法8000。例如,上文参考方法8000所述的手势、注视输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象、和/或动画任选地具有本文参考本文所述的其他方法(例如,方法9000、10000、11000和12000)所述的手势、注释输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象和/或动画的特征中的一个或多个特征。为了简明起见,此处不再重复这些细节。
图9A-9B是根据一些实施方案的以不同方式显示相对于三维环境的当前显示视图的视点的物理对象的表示的方法的流程图,其中视点根据用户在第一物理环境中的移动而移动,物理对象的表示根据物理对象在不同于第一物理环境的第二物理环境中的移动而移动,并且其中显示表示的方式的改变响应于物理对象的表示与视点之间的空间关系满足预设标准而触发。
在一些实施方案中,方法9000在计算机系统(例如,图1中的计算机系统101)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏、投影仪等)和一个或多个相机(例如,向下指向用户的手部的相机(例如,颜色传感器、红外传感器和其他深度感测相机)或从用户头部向前指向的相机)。在一些实施方案中,方法9000通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法9000中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法9000在与显示生成部件(例如,图1、图3和图4中的显示生成部件120、显示生成部件7100等)(例如,平视显示器、HMD、显示器、触摸屏、投影仪等)和一个或多个输入设备(例如,相机、控制器、触敏表面、操纵杆、按钮等)通信的计算机系统(例如,图1中的计算机系统101)处执行。在一些实施方案中,计算机系统是集成设备,该集成设备具有封闭在与显示生成部件相同的外壳中的一个或多个处理器和存储器以及一个或多个输入设备中的至少一些输入设备。在一些实施方案中,计算机系统包括计算部件,该计算部件包括一个或多个处理器以及与显示生成部件分离的存储器以及/或者一个或多个输入设备。在一些实施方案中,显示生成部件以及一个或多个输入设备被集成并封装在同一外壳中。
在方法9000中,当第一用户(例如,图7D-7F中的用户7002,或另一用户)位于第一物理环境(例如,图7D-7F中的场景105-a,或另一物理环境等)中的第一定位处时,计算机系统显示(9002)三维环境的对应于与第一物理环境中的第一定位相关联的第一视点(例如,当第一用户位于物理环境中的第一定位处时,第一视点是对应于用户的眼睛或脸部的定位的虚拟位置,第一视点对应于朝向三维环境的第一观看视角等)的第一视图(例如,图7D中的视图7304-a)(例如,虚拟三维环境、增强现实环境、三维混合现实环境等),其中三维环境的第一视图包括第一用户界面对象(例如,图7D-7F中第二用户7102的表示7102'-a,或另一物理对象的另一表示等)(例如,不同于第一用户的第二用户的化身,移动的物理对象(例如,动物、车辆、飞行的无人机、多人游戏中的对手等)的虚拟表示),其表示与第一物理环境不同的第二物理环境(例如,图7D-7F中的场景105-b,或另一物理环境等)中的第一对象(例如,第二用户、移动的物理对象(例如动物、飞行的无人机、游戏中的对手等)等)(例如,第一物理环境和第二物理环境位于两个不同的房间中,在两个不同地理位置等,其中当第一用户和第二用户分别位于第一物理环境和第二物理环境中时,第一用户和第二用户不在彼此的物理范围内(例如,没有发生物理碰撞的风险)),其中第一用户界面对象在三维环境中的相应位置以第一方式对应于第一对象在第二物理环境中的相应定位(例如,第一对象(例如,第二用户,飞行的无人机等)在第二物理环境中的移动距离和移动方向根据第一预设对象映射关系(例如,线性映射关系,和/或在相同类型的坐标系中具有相同的基本方向等)被分别映射到第一用户界面对象在三维环境中的移动距离和移动方向,与三维环境的当前显示视图的视点(例如,第一用户的视点,第一用户在三维环境中的虚拟位置等)相对应的相应位置的移动距离和移动方向根据第一预设用户映射关系(例如,线性映射关系,和/或在相同类型的坐标系中具有相同的基本方向等)被分别映射到第一用户在第一物理环境中的移动距离或移动方向等)。在一些实施方案中,第一方式中的对应关系是真实世界中的运动和定位与三维环境中的运动和定位之间的默认对应关系(例如,模仿真实对应关系,也适用于第一用户的一个部分到第一用户的在第一用户前方的另一部分的移动的对应关系等)。在一些实施方案中,三维环境是在第一用户和第二用户之间至少部分地共享的虚拟环境或增强现实环境,其中第一用户和第二用户可从相对于三维环境的两个不同视点观看三维环境的相同部分。
在一些实施方案中,三维环境不是共享环境。在一些实施方案中,三维环境是虚拟三维环境。在一些实施方案中,三维环境是包括第一物理环境的表示(例如,第一物理环境的相机视图或透传视图等)和任选地第二物理环境中的物理对象(例如,第二用户、动物、飞行的无人机等)的表示(例如,不包括第二物理环境的表示)的增强现实环境。在一些实施方案中,三维环境是包括第二物理环境的表示(例如,第二物理环境的相机视图或透传视图,在第二物理环境捕获的视频记录等)的增强现实视图,其中第一对象的相机视图或记录图像被移除并被第一用户界面对象替换(例如,使得第一用户界面对象的位置可相对于该增强现实环境中经由第一显示生成部件示出的第二物理环境的表示来计算地或数字地修改)。在一些实施方案中,第一用户作为整体在第一物理环境中的移动(例如,在第一物理环境中步行、跑步、骑自行车、向上跳跃、乘坐电梯等,而不是仅移动第一用户的头部或手臂而没有整个人在第一物理环境中移动)导致三维环境的当前显示视图的视点的对应改变(例如,视点相对于三维环境在对应方向上和/或以对应距离的平移等);并且第一对象(例如,作为整体的第二用户、动物、飞行的无人机等)在第二物理环境中的移动(例如,步行、跑步、骑自行车、向上跳跃、乘坐电梯、飞行等)导致第一用户界面对象在三维环境中在对应方向上和/或以对应距离等移动。
在一些实施方案中,当基于第一对象以第一方式在第二物理环境中的移动和/或定位确定第一用户界面对象的移动和/或位置时(例如,不考虑第一用户在第一物理环境中的当前定位和/或移动历史),第一用户界面对象可在三维环境中最终处于将在经由第一显示生成部件示出的三维环境的当前显示视图的视点(例如,根据第一用户在第一物理环境中的当前定位和移动历史确定的视点)的阈值距离内的位置处。在一些实施方案中,使第一用户界面对象在三维环境的当前显示视图的视点的虚拟位置的阈值距离内显示将导致第一用户界面对象看起来非常大、不自然和/或侵扰三维环境的观看者(例如,第一用户)的个人空间。在一些实施方案中,经由第一显示生成部件示出的三维环境的当前显示视图在视觉上不包括第一用户的身体的虚拟表示(例如,第一用户相对于三维环境的虚拟位置由当前显示视图本身和对应的视点反映)。在一些实施方案中,经由第一显示生成部件示出的三维环境的当前显示视图可视地包括第一用户的身体的一部分的虚拟表示(例如,该视图在该视图的底部包括第一用户的轮廓的表示,第一用户的手或脚在第一用户的眼睛前方,该视图包括第一用户的化身,该第一用户的化身在三维环境中的位置是基于第一用户在第一物理环境中以第一方式的移动和/或当前定位所确定的并且相对于显示器保持静止(例如,与三维环境的当前显示视图的视点具有固定空间关系)等)。
在方法9000中,计算机系统检测(9004)第一用户(例如,图7D-7F中的第一用户7002)在第一物理环境中的移动(例如,在第一物理环境中在第一方向(例如,向前、向后、向左、向右、向上、向下、在2点钟方向、在10点钟方向等)上从第一定位到第二定位以第一距离和/或以第一速度等的移动)和第一对象(例如,图7D-7F中的第二用户7102,或另一物理对象)在第二物理环境中的移动(例如,在第二方向(例如,向前、向后、向左、向右、向上、向下、在3点钟方向、在8点钟方向等)上从第三定位到第四定位以第二距离和/或以第二速度等的移动)中的至少一者(例如,仅一种移动、仅第一用户的移动、仅第一对象(例如,第二用户、动物、飞行的无人机等)的移动、这两种移动)。在一些实施方案中,使用与第一用户和第一显示生成部件共定位的传感器来直接执行对第一用户的移动的检测,并且任选地,间接执行对第一对象在第二物理环境中的移动的检测(例如,通过与第二物理环境中的第一对象共定位的传感器,通过接收从在第二物理环境处使用的(例如,由第二用户或不同于第一和第二用户的另一用户等使用的)计算机系统发送的第一用户界面对象的更新位置,其中计算机系统已经根据第一方式(例如,根据预设的第一模仿真实映射关系)更新了第一用户界面对象的位置等)。
在方法9000中,响应于检测到(9006)第一用户在第一物理环境中的移动和第一对象在第二物理环境中的移动中的至少一者(例如,响应于仅检测到第一用户的移动,响应于仅检测到第一对象的移动,响应于检测到用户或对象的移动中的任一者,响应于检测到用户的移动和对象的移动两者等):计算机系统显示(9008)三维环境的与第二视点相对应的第二视图(例如,图7E中的视图7304-a',图7F中的视图7304-a"等)(例如,如果第一用户没有在第一物理环境中移动,则第二视点与第一视点相同,并且如果第一用户已经在第一物理环境中移动,则第二视点与第一视点不同(例如,第一用户在物理环境中的移动被映射到第一用户在三维环境内的移动,这导致向第一用户显示的三维环境第一用户的视图的视点的偏移),等等);并且计算机系统在三维环境的第二视图(例如,图7E中的视图7304-a',图7F中的视图7304-a"等)中显示(9010)第一用户界面对象(例如,图7E和7F中的表示7102'-a)。显示第一用户界面对象包括:根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置(例如,根据模仿真实的方式,利用预设的第一映射关系等确定)(例如,如果第一用户界面对象在三维环境中基本上静止,则是第一用户界面对象在三维环境中的相同先前位置;如果第一用户界面对象已经在三维环境中移动,则是三维环境中的不同位置,等等)距三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的距离大于阈值距离(例如,大于手臂长度,大于三维环境中第一用户的个人空间的预设半径,在三维环境中围绕第一用户的虚拟位置的预设边界表面(例如,第一用户的表示的虚拟表面,围绕第一用户的虚拟位置的边界框)之外,等等)(例如,相应位置是第一用户在三维环境中的虚拟位置(例如,在三维环境的当前显示视图中的可见位置或不可见位置),相应位置是第一用户的头部或他/她在三维环境中的虚拟表示的虚拟位置,相应位置是围绕第一用户或他/她在三维环境中的虚拟表示的虚拟位置的边界表面上的一个或多个位置之一等),在三维环境的第二视图中的第一显示位置处显示(9012)第一用户界面对象,其中该第一显示位置是第一用户界面对象在三维环境中的相应位置。例如,这是图7E中所示的场景,其中第二用户的表示7102'-a的显示位置与根据第一方式计算的表示7102'-a的相应位置相同。例如,在一些实施方案中,第一显示位置是以第一方式基于第一对象(例如,第二用户、动物、飞行无人驾驶飞机等)在第二物理环境中的当前定位和/或移动历史确定的(例如,独立于第一用户在第一物理环境中的当前定位和/或移动历史,根据第一预设映射关系等);第一显示位置是当第一用户界面对象没有过于接近三维环境的当前显示视图的视点(或者没有过于接近第一用户的虚拟位置和/或过于接近第一用户在三维环境中的虚拟表示的位置等)以致显得太大、不自然和/或侵扰第一用户的个人空间等时第一用户界面对象的位置。
显示第一用户界面对象还包括:根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的距离小于阈值距离,在三维环境的第二视图中的第二显示位置显示(9014)第一用户界面对象,其中该第二显示位置与第一用户界面对象在三维环境中的相应位置偏移(例如,侧向偏移,在相应方向上(例如,侧向、向上、向下等)偏移超过阈值距离,在侧向方向上(例如,向左、向右等)相对于三维环境的当前显示视图偏移超过阈值距离,在向上方向上相对于三维环境的当前显示视图偏移超过阈值距离等)(例如,不仅基于第一对象(例如,第二用户、动物、飞行的无人机等)在第二物理环境中的当前定位和/或移动历史,而且基于第一用户在第一物理环境中的当前定位和或移动历史来确定第二显示位置;根据不同于第一方式的第二方式来确定第二显示位置;当第一用户界面对象已经太接近三维环境的当前显示视图的视点时,第二显示位置从第一用户界面对象的默认位置偏移,使得第一用户界面对象不会看起来太大、不自然和/或侵扰第一用户的个人空间等)。例如,这是图7F中所示的场景,其中第二用户的表示7102'-a的显示位置从根据第一方式计算的表示7102'-a的相应位置偏移并且根据第二方式计算。
在一些实施方案中,为了根据不同于第一方式的第二方式确定第一用户界面对象的位置,根据第二预设对象映射关系(例如,非线性映射关系,具有附加线性或非线性偏移量的线性映射关系,该偏移量基于与三维环境的当前显示视图的视点(例如,第一用户的视点、第一用户在三维环境中的虚拟位置等)相对应的相应位置的当前位置、移动距离和/或移动方向,和/或第一用户界面对象在三维环境中的当前位置、移动距离和/或移动方向)将第一对象(例如,第二用户、动物、飞行的无人机等)在第二物理环境中的移动距离和移动方向分别映射到第一用户界面对象在三维环境中的移动距离和移动方向。在一些实施方案中,第二方式的对应关系包括对真实世界中的运动和定位与三维环境中的运动和定位之间的默认对应关系(例如,模仿真实对应关系)的修改,其目的是避免使第一用户界面对象在三维环境的第一用户的视图中看起来太近(例如,视觉冲突避免对应关系)。在一些实施方案中,根据第一对象的大小和/或形状和/或第一用户的大小和/或形状、与第一用户相关联的边界框的大小和/或形状、和第一对象的边界框相关联的大小和/或形状、和/或第一用户在三维环境中的虚拟表示的大小和/或形状等来确定第一用户界面对象的第二显示位置与默认显示位置(例如,根据模仿真实对应关系、根据第一预设映射关系等确定的位置)移位或偏移的方向和量。在第一示例中,在一些实施方案中,第一对象是第二用户,并且当第一用户和/或第二用户在它们各自的物理环境内行走以使得第二用户的虚拟表示在三维环境的当前显示视图中的相应位置(如根据第一模仿真实映射关系计算的)超出与当前显示视图的视点相对应的阈值距离时,第二用户的虚拟表示被显示在根据第一模仿真实映射关系计算的相应位置处(例如,基于第二用户在第二物理环境中的当前定位和移动历史,而不考虑第一用户在第一物理环境中的当前定位和移动历史)。然而,当第一用户和/或第二用户在其各自的物理环境内行走以使得根据第一模仿真实映射关系计算的第二用户的虚拟表示在三维环境的当前显示视图中的相应位置将落入与当前显示视图的视点相对应的阈值距离内时,第二用户的虚拟表示的显示位置与该相应位置(例如,在不考虑第一用户在第一物理环境中的当前定位和移动历史的情况下基于第二用户在第二物理环境中的当前定位和移动历史计算的位置)移位,使得第二用户的虚拟表示将不会看起来撞到第一用户中和/或从第一用户的观看角度淹没第一用户的视图,和/或将不会与第一用户在三维环境中的虚拟表示重叠(例如,可见的虚拟表示,或在三维环境的当前显示视图中不可见的虚拟表示等)。在一些实施方案中,即使第二用户的表示的显示位置在三维环境的视图中偏移,第二用户的表示在三维环境中的相应位置也不会偏移(只是不在向第一用户示出的三维环境的显示视图中视觉地反映)。根据一些实施方案,例如在图7D-7F中示出了上述特征。在图7E中,例如,在向第一用户7002示出的视图7304-a'中,第二用户7102的表示7102'-a的显示位置与根据三维环境中的位置与第二用户7102在第二物理环境中的定位之间的第一类型的对应关系计算的表示7102'-a的相应位置相同。这是一般场景,其中第二用户7102的表示7102'-a不在向第一用户7002示出的第一视图7304-a的视点的阈值距离内(图7E中的左视图)。在图7F中,例如,在向第一用户7002示出的视图7034-a"中,表示7102'-a的显示位置与根据第一类型对应关系计算的表示7102'-a的相应位置偏移,因为相应位置将把第二用户的表示7102'-a放置得太靠近向第一用户7002示出的第一视图7304-a"的视点。因此,在图7F所示的场景中,表示7102'-a被示为在第一用户7002的表示7002'-a的右侧,即使第二用户的表示7102'-a的相应位置实际上在第一视图7304-a"中在表示7002'-a的正前方。
在一些实施方案中,检测第一用户(例如,图7D-7F中的用户7002,或另一用户等)在第一物理环境(例如,图7D-7F中的场景105-a,或另一场景等)中的移动和第一对象(例如,图7D-7F中的用户7102,或另一人或对象等)在第二物理环境(例如,图7D-7F中的场景105-b,或另一场景等)中的移动中的至少一者包括:当第一对象(例如,图7D-7F中的用户7102,或另一人或对象等)在第二物理环境中保持静止时,检测第一用户(例如,图7D-7F中的用户7002,或另一用户等)在第一物理环境中的第一移动。在第一用户在第一物理环境中的第一移动期间(例如,在第一用户作为整体的移动期间,该移动导致视点朝向静止的第二用户或虚拟对象在三维环境中的表示的移动):根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置(例如,三维环境中的与第一对象在第一用户的第一移动期间的静止定位相对应的静止位置)距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离(例如,第二用户或虚拟对象的表示在三维环境中第一用户的视点或虚拟位置的阈值范围之外),第一用户界面对象在三维环境中第一用户界面对象的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置处显示(例如,第一用户界面对象的外观和定位可由于改变的视点而对于第一用户在视觉上改变(例如,看起来具有不同大小或位于第一用户的视场的不同部分中),而第一用户界面对象在三维环境中的相应三维位置不改变)。在第一用户在第一物理环境中的第一移动期间(例如,在第一用户作为整体的移动期间,该移动导致视点朝向静止的第二用户或虚拟对象在三维环境中的表示的移动):根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置(例如,三维环境中的与第一对象在第一用户的第一移动期间的静止定位相对应的静止位置)距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离不大于(例如,等于、小于等)阈值距离(例如,第二用户或虚拟对象的表示将在三维环境中第一用户的视点或虚拟位置的阈值范围之内,如果没有以其他方式移位离开的话),当第一对象在第二物理环境中保持静止时,第一用户界面对象被显示在三维环境中的调整位置(例如,与基于模仿真实映射关系确定的相应位置偏移的位置,距第一用户的虚拟表示或三维环境的当前显示视图的视点的距离在阈值距离之外的位置,等等)处,其中三维环境中的该调整位置以不同于第一方式的第二方式与第一对象在第二物理环境中的相应定位相对应。例如,在一些实施方案中,即使第一对象在第二物理环境中保持静止,第一用户界面对象也看起来响应于第一用户的移动而在三维环境的当前显示视图中做出自主移动(例如,在第一物理环境中与第一用户的视点或虚拟表示朝向第一用户界面对象在三维环境中的相应位置的移动相对应的移动)。在更具体的示例中,当第一用户在第一物理环境中做出与第一用户的虚拟表示朝向第二用户或虚拟对象的表示在三维环境中的移动相对应的移动时,如果第一用户的虚拟表示到达第二用户的表示或虚拟对象的阈值距离内,则即使第二用户或虚拟对象在第二物理环境中保持静止,第二用户或虚拟对象的表示也自动地从第一用户的虚拟表示移开以避免撞到第一用户的虚拟表示。在用于触发冲突避免偏移的条件不再满足之后,第二用户和虚拟对象的表示被恢复到它们的使用默认的模仿真实映射关系计算的默认位置。在一些实施方案中,第一用户界面对象是表示正在与第一用户进行虚拟会议呼叫的第二用户的化身;当第一用户在对应于三维环境中朝向第二用户的化身的移动的方向上行走时,第二用户的化身随着该化身变得太靠近第一用户的虚拟位置而移开。即使第二用户没有在他/她自己的环境中移动,也可以这样做。
当第一对象在第二物理环境中保持静止时检测第一用户在第一物理环境中的第一移动,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离,在第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置处显示第一界面对象,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境中的当前显示视图的视点相对应的相应位置的距离不大于阈值距离,当第一对象在第二物理环境中保持静止时,在三维环境中的以不同于第一方式的第二方式与第一对象在第二物理环境中的相应定位相对应的调整位置处显示第一用户界面对象,这种做法在已经满足一组条件时在适当位置处显示第一用户界面对象,而无需另外的用户输入(例如,用于调整第一用户界面对象的位置的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,检测第一用户(例如,图7D-7F中的用户7002,或另一用户等)在第一物理环境(例如,图7D-7F中的场景105-a,或另一场景等)中的移动和第一对象(例如,图7D-7F中的用户7102,或另一人或对象等)在第二物理环境(例如,场景105-b,或另一场景等)中的移动中的至少一者包括:当第一用户在第一物理环境中保持静止时,检测第一对象在第二物理环境中的第二移动。在第一对象在第二物理环境中的第二移动期间(例如,在第一对象(例如,第二用户、动物、飞行的无人机等)作为整体的移动期间,该移动导致第一用户界面对象在三维环境中的移动):根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置(例如,三维环境中的与第一对象在第一对象的第二移动期间的新定位相对应的新位置)距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离(例如,第二用户或虚拟对象的表示在三维环境中第一用户的视点或虚拟位置的阈值范围之外),第一用户界面对象被显示在三维环境中的更新位置(例如,作为基于模仿真实映射关系确定的相应位置的位置,距第一用户的虚拟表示或三维环境的当前显示视图的视点的距离在阈值距离之外的位置,等等)处(例如,当三维环境的当前显示视图的视点保持静止时),其中三维环境中的该更新位置以第一方式与第一对象在第二物理环境中的作为第二移动的结果的更新定位相对应(例如,当保持当前显示视图的视点时,第一用户界面对象的外观和显示位置由于第一用户界面对象在三维环境中的相应三维位置的改变而改变)。在第一对象在第二物理环境中的第二移动期间(例如,在第一对象(例如,第二用户、动物、飞行的无人机等)作为整体的移动期间,该移动导致第一用户界面对象在三维环境中移动):根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置(例如,三维环境中的与第一对象在第一对象的第二移动期间的新定位相对应的新位置)距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离不大于(例如,等于、小于等)阈值距离(例如,第二用户或虚拟对象的表示将在三维环境中第一用户的视点或虚拟位置的阈值范围之内,如果没有以其他方式移位离开的话),当第一对象在第二物理环境中保持静止时,第一用户界面对象被显示在(例如,第一用户界面对象被示为移动到)三维环境中的调整更新位置(例如,与基于模仿真实映射关系确定的相应位置偏移的位置,距第一用户的虚拟表示或三维环境的当前显示视图的视点的距离在阈值距离之外的位置,等等)处,其中三维环境中的该调整更新位置以不同于第一方式的第二方式与第一对象在第二物理环境中的更新定位相对应。例如,在一些实施方案中,当第二用户或虚拟对象在第二物理环境中在与朝向三维环境中当前显示视图的视点或第一用户的虚拟位置的移动相对应的方向上移动时,第一用户界面对象看起来在模拟物理力诸如磁排斥或静电排斥的影响下,当第二用户或虚拟对象的表示将在三维环境中越过视点或第一用户的虚拟位置的阈值距离时,该力将第一用户界面对象推离和/或防止其太接近该视点或第一用户的虚拟位置。在用于触发视觉冲突避免偏移的条件不再满足之后,第二用户的表示和虚拟对象被恢复到它们的使用默认的模仿真实映射关系计算的原始移动路径。在一些实施方案中,第一用户界面对象是表示正在与第一用户进行虚拟会议呼叫的第二用户的浮动讲话化身;当第二用户在与三维环境中朝向第一用户的虚拟位置的移动相对应的方向上行走时,第二用户的浮动讲话化身围绕第一用户的虚拟位置移动,并且永远不会太接近第一用户的虚位置。这是对基于第二用户在第二物理环境中的移动与第二用户的化身在三维环境中的移动之间的默认映射关系所计算的一般移动执行的修改。
当第一对象在第一物理环境中保持静止时检测第一对象在第二物理环境中的第二移动,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离,在第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置处显示第一界面对象,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境中的当前显示视图的视点相对应的相应位置的距离不大于阈值距离,当第一用户在第二物理环境中保持静止时,在三维环境中的以不同于第一方式的第二方式与第一对象在第二物理环境中的相应定位相对应的调整位置处显示第一用户界面对象,这种做法在已经满足一组条件时在适当位置处显示第一用户界面对象,而无需另外的用户输入(例如,用于调整第一用户界面对象的位置的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,检测第一用户(例如,图7D-7F中的用户7002,或另一用户等)在第一物理环境(例如,图7D-7F中的场景105,或另一场景等)中的移动和第一对象(例如,图7D-7F中的用户7102,或另一人或对象等)在第二物理环境(例如,场景105-b,或另一场景等)中的移动中的至少一者包括:同时检测第一用户在第一物理环境中的第三移动(例如,图7D-7F中第一用户7002沿着路径7300的移动,或沿着另一路径的移动等)和第一对象在第二物理环境中的第四移动(例如,图7D-7F中第二用户7102或由7102表示的对象沿着路径7302的移动,或沿着另一路径的移动等)。在一些实施方案中,使用与第一用户共定位的传感器来执行对第一用户在第一物理环境中的第三移动的检测,并且任选地使用与第一对象共定位的传感器和/或根据从另一计算机系统接收到的第一用户界面对象的未调整的更新位置来执行对第一对象的第四移动的检测。在第一对象在第一物理环境中的第三移动和第一对象在第二物理环境中的第四移动中的至少一者期间(例如,在第一对象(例如,第二用户、动物、飞行的无人机等)作为整体的导致第一用户界面对象在三维环境中移动的移动和第一用户作为整体的导致三维环境的当前显示视图的视点移动和/或第一用户在三维环境中的虚拟位置移动的移动期间):根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的定位相对应的相应位置(例如,三维环境中的与第一对象在第一对象的第四移动期间的新定位相对应的新位置)距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离(例如,根据模仿真实映射关系,根据第一用户在第一物理环境中的第三移动而更新)(例如,第二用户或虚拟对象的表示在三维环境中第一用户的视点或虚拟位置的阈值范围之外,该阈值范围已经由于第一用户的第三移动而更新),第一用户界面对象被显示在(例如,示为移动到)三维环境中的更新位置(例如,作为基于模仿真实映射关系确定的相应位置的位置,距第一用户的虚拟表示或三维环境的当前显示视图的视点的距离在阈值距离之外的位置,等等)处(例如,当三维环境的当前显示视图的视点根据第一用户的第三移动而更新时),其中三维环境中的该更新位置以第一方式与第一对象在第二物理环境中的作为第四移动的结果的更新定位相对应(例如,在当前显示视图的视点根据第一用户的第三移动而更新时,第一用户界面对象的外观和定位由于第一用户界面对象在三维环境中的相应三维位置的改变而视觉地改变)。在第一对象在第一物理环境中的第三移动和第一对象在第二物理环境中的第四移动中的至少一者期间(例如,在第一对象(例如,第二用户、动物、飞行的无人机等)作为整体的导致第一用户界面对象在三维环境中移动的移动和第一用户作为整体的导致三维环境的当前显示视图的视点移动和/或第一用户在三维环境中的虚拟位置移动的移动期间):根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的定位相对应的相应位置(例如,三维环境中的与第一对象在第一对象的第二移动期间的新定位相对应的新位置)距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离不超过(例如,等于、小于等)阈值距离(例如,根据模仿真实映射关系,根据第一用户在第一物理环境中的第三移动而更新)(例如,第二用户或虚拟对象的表示将在三维环境中第一用户的视点或虚拟位置的阈值范围内,如果没有以其他方式偏移离开的话),第一用户界面对象被显示在(例如,示为移动到)三维环境中的调整更新位置(例如,与基于模仿真实映射关系确定的相应位置偏移的位置,距第一用户的虚拟表示或三维环境的当前显示视图的视点的距离在阈值距离之外的位置,等等)处,其中三维环境中的该调整更新位置以不同于第一方式(并且任选地不同于第二方式)的第三方式与第一对象在第二物理环境中的定位相对应(例如,考虑第一对象的第四移动和第一用户的第三移动两者)。例如,在一些实施方案中,当第二用户或虚拟对象在第二物理环境中在与朝向三维环境中当前显示视图的视点或第一用户的虚拟位置的移动相对应的方向上移动并且/或者第一用户在第一物理环境中在与朝向三维环境中第二用户或虚拟对象的表示的移动相对应的方向上移动时,第一用户界面对象看起来在另一种力的影响下,当第二用户或虚拟对象的表示将在三维环境中越过变化的视点或第一用户的虚拟位置的阈值距离时,该力将第一用户界面对象推离和/或防止其太接近该视点或第一用户的虚拟位置。在用于触发冲突避免偏移的条件不再满足之后,第二用户的表示和虚拟对象被恢复到它们的使用默认的模仿真实映射关系计算的原始移动路径。在一些实施方案中,第一用户的虚拟位置或三维环境的当前显示视图的视点以第一方式(例如,模仿真实的方式,预设的第一映射关系等)与第一用户在第一物理环境中的定位相对应,而不管第二用户或虚拟对象在第二物理环境中的移动和当前定位。在一些实施方案中,第一用户界面对象是表示正在与第一用户进行虚拟会议呼叫的第二用户的浮动讲话化身;当第一用户和第二用户分别在他们的物理环境内行走时,根据分别应用于第一用户和第二用户的一些预设默认映射关系,基于第一用户和第二用户的移动来确定第一用户和第二用户在三维环境中的虚拟位置。例如,第一用户和第二用户的虚拟位置被约束在相同的公共虚拟空间,即使第一用户或第二用户可能已经在他们各自的物理环境中执行了显著的移动距离。在默认映射将导致第一用户和第二用户在三维环境中的虚拟位置发生视觉冲突的情况下,第二用户的浮动讲话化身(当由第一用户经由第一显示生成部件观看时)随着该浮动讲话化身变得太靠近第一用户的虚拟位置而移开。同时,第一用户的浮动讲话化身(当由第二用户经由第二显示生成部件观看时)随着该浮动讲话化身变得太靠近第二用户的虚拟位置而移开。
同时检测第一用户在第一物理环境中的第三移动和第一对象在第二物理环境中第四移动,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的定位相对应的相应位置距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离,在第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置处显示第一界面对象,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的定位相对应的相应位置距三维环境中与关联于三维环境中的当前显示视图的视点相对应的相应位置的距离不超过阈值距离,在三维环境中的以不同于第一方式的第三方式与第一对象在第二物理环境中的相应定位相对应的调整位置处显示第一用户界面对象,这种做法在已经满足一组条件时在适当位置处显示第一用户界面对象,而无需另外的用户输入(例如,用于调整第一用户界面对象的位置的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,第一对象是位于第二物理环境(例如,图7D-7F中的场景105-b)中的第二用户(例如,图7D-7F中的第二用户7102,或另一用户等),并且第一用户(例如,第一用户7002)和第二用户(例如,第二用户7102)至少部分地共享三维环境(例如,两个用户可同时地观看、访问三维环境的至少一部分和/或与之交互)(例如,图7D-7F中经由显示生成部件7100和7200观看的环境)。例如,经由与第二计算机系统通信的第二显示生成部件向第二用户提供三维环境的视图。第二用户在第二物理环境中的定位由与第二计算机系统通信的一个或多个传感器检测。在一些实施方案中,第二计算机系统发送表示第二物理环境的数据并且第一计算机系统接收该数据,而且第一计算机系统和第二计算机系统两者显示第二物理环境的表示(例如,第二物理环境的相机视图或透传视图)。在一些实施方案中,第一计算机系统发送表示第一物理环境的数据并且第二计算机系统接收该数据,而且第一计算机系统和第二计算机系统两者显示第一物理环境的表示(例如,第一物理环境的相机视图或透传视图)。在一些实施方案中,第一计算机系统和第二计算机系统两者显示虚拟环境(例如,虚拟会议室、游戏世界等)的表示,或不同于第一物理环境和第二物理环境的第三物理环境(例如,第三用户的物理环境等,该第三用户不同于第一用户和第二用户并且还与第一用户和第二用户共享三维环境)的表示。在一些实施方案中,当在经由第一显示生成部件向第一用户提供的三维环境的视图中利用视觉冲突避免移位/偏移(例如,以第二方式,利用第二冲突避免映射关系等)修改第二用户的显示位置时,经由第二显示生成部件向第二用户提供的三维环境的视图转为示出第一用户的显示位置利用视觉冲突避免移位/偏移修改,而基于第二用户的定位的三维环境的视点不具有这样的移位或偏移。
根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离,在三维环境中的第一用户界面对象的相应位置处显示第一用户界面对象,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境中的当前显示视图的视点相对应的相应位置的距离不大于阈值距离,在三维环境的第二视图中与第一用户界面对象在三维环境中的相应位置偏移的第二显示位置处显示第一用户界面对象,其中第一对象是位于第二物理环境中的第二用户,并且第一用户和第二用户至少部分地共享三维环境,这种做法在已经满足一组条件时在适当位置处显示第一用户界面对象,而无需另外的用户输入(例如,用于调整第一用户界面对象的位置的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,在经由第二显示生成部件(例如,显示生成部件7200,或另一显示生成部件等)向第二用户(例如,用户7102,或另一用户等)显示的三维环境的第三视图(例如,图7F(B)中示出的视图7304-b)中,根据确定第二用户界面对象(例如,图7F中的表示7002'-b,另一表示等)(例如,第一用户的化身、表示第一用户的讲话的头部等)在三维环境中的以第一方式与第一用户(例如,图7D-7F中的用户7002,另一用户等)在第一物理环境(例如,图7D-7F中的场景105-a)中的相应定位相对应(例如,根据模仿真实的方式确定的,具有预设第一映射关系等)的相应位置距三维环境中与关联于三维环境的第三视图的第三视点相对应的相应位置(例如,第二用户在三维环境中的虚拟位置)的距离不超过阈值距离,计算机系统在三维环境的第三视图中的修改位置处显示第二用户界面对象(例如,第一用户7002的表示7002'-b),其中该修改位置与第二用户在三维环境中的相应位置偏移,该相应位置以第一方式与第一用户在第一物理环境中的相应定位相对应(例如,根据模仿真实的方式确定的,具有预设第一映射关系等)(例如,如图7F(B)所示,第一用户7002的表示7002'-b被显示在向第二用户7102示出的视图7304-b"中的表示7102'-b的右侧,即使第一用户7002的表示7102'-b的位置应在视图7304-b"中在表示7102'-b的正前方)。
在三维环境的第三视图中的修改位置处显示第二用户界面对象,该修改位置与第二用户界面对象在三维环境中的以第一方式与第一用户在第一物理环境中的相应定位相对应的相应位置偏移,根据确定第二用户界面对象在三维环境中的以第一方式与第一用户在第一物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境的第三视图的第三视点相对应的相应位置的距离不超过阈值距离,这种做法在已经满足一组条件时在适当位置处显示第一用户界面对象,而无需另外的用户输入(例如,用于调整第一用户界面对象的位置的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,第一对象是位于第二物理环境中的物理对象(例如,在一些实施方案中,图7D-7F中的用户7102可表示不是使用显示生成部件7200的另一用户的物理对象)。在一些实施方案中,三维环境包括在与三维环境的观看者的物理环境不同的物理环境中的其他物理对象的表示。例如,在一些实施方案中,三维环境任选地是在第一用户的徒步路线上的模拟野外漫步的一部分,并且包括在与第一用户的物理环境不同的物理定位处的徒步路线上的物理环境的实时相机馈送或记录视频。当第一用户利用来自徒步路线的物理环境的视图在第一物理环境中行走和体验模拟野外漫步时,如果物理对象(诸如,野鸟、飞行的无人机或另一徒步者)也在该物理环境中围绕该徒步路径移动,使得物理对象的相应位置将与第一用户的虚拟位置重叠或在第一用户的虚拟位置的阈值距离内(例如,与当前向第一用户示出的徒步路线视图的视点相对应的位置,或第一用户的虚拟表示在该视图中的位置等)而没有发生视觉冲突避免调整,则第一用户的体验将被视觉冲突破坏(例如,第一用户将感觉物理对象穿过他/她的头部或身体,和/或将担心这样的感觉或体验将发生等)。通过在这样的场景中自动调整物理对象的表示的显示位置,使得将避免视觉冲突,第一用户将能够更舒适而且顺畅地体验模拟野外漫步。又如,第一对象是静止对象,诸如徒步路线上的大岩石或在徒步路线中间坐着的人。在一些实施方案中,当第一用户的虚拟位置接近该大岩石或坐着的人在徒步路线的视图中的位置时,第一用户界面对象被自动地移开(例如,通过数字图像编辑装置)。在一些实施方案中,根据确定第一对象是静止物理对象(例如,在整个体验中),当第一用户界面对象太靠近三维环境的当前显示视图中第一用户的虚拟位置时,第一计算机系统任选地暂时停止显示第一用户界面对象。
根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离,在三维环境中的第一用户界面对象的相应位置处显示第一用户界面对象,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境中的当前显示视图的视点相对应的相应位置的距离不大于阈值距离,在三维环境的第二视图中与第一用户界面对象在三维环境中的相应位置偏移的第二显示位置处显示第一用户界面对象,其中第一对象是位于第二物理环境中的物理对象,这种做法在已经满足一组条件时在适当位置处显示第一用户界面对象,而无需另外的用户输入(例如,用于调整第一用户界面对象的位置的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,第一用户界面对象(例如,图7D-7F中第二用户7102的表示7102'-a)是在三维环境中浮动(例如,不附接到和/或触摸另一对象或表面)的对象(例如,第二用户的浮动讲话头部化身,飞鸟的表示,飞行的无人机的表示等)。在一些实施方案中,三维环境的当前显示视图中无生命对象的表示也以类似方式具有对应的视觉冲突避免移动。当第一用户移动以使得与三维环境的当前显示视图的视点相对应的虚拟位置接近浮动虚拟提灯或数字助理的虚拟表示时,该浮动虚拟提灯或数字助理的虚拟表示自动地移开到三维环境的当前显示视图中的一侧。根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境的当前显示视图的视点相对应的相应位置的距离大于阈值距离,在三维环境中的第一用户界面对象的相应位置处显示第一用户界面对象,并且根据确定第一用户界面对象在三维环境中的以第一方式与第一对象在第二物理环境中的相应定位相对应的相应位置距三维环境中与关联于三维环境中的当前显示视图的视点相对应的相应位置的距离不大于阈值距离,在三维环境的第二视图中与第一用户界面对象在三维环境中的相应位置偏移的第二显示位置处显示第一用户界面对象,其中第一用户界面对象是在三维环境中浮动的对象,这种做法在已经满足一组条件时在适当位置处显示第一用户界面对象,而无需另外的用户输入(例如,用于调整第一用户界面对象的位置的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,根据确定三维环境以第一真实度级别显示,第一用户界面对象(例如,图7D-7F中的第二用户7102的表示7102'-a)以对应于第一真实度级别的第一组显示属性(例如,第一分辨率、第一维数、第一清晰度级别、第一调色板、无照明效果等)显示;并且根据确定三维环境以不同于(例如,大于、小于等)第一真实度级别的第二真实度级别显示,第一用户界面对象以对应于第二真实度级别的第二组显示属性(例如,第二分辨率、第二维数、第二清晰度级别、第二调色板、具有照明效果等)显示,第二组显示属性不同于(例如,大于、小于、加上、减去等)第一组显示属性。例如,在一些实施方案中,当三维环境是虚拟三维环境时,第一用户界面对象是具有固定说话动画的第二用户的三维虚拟模型;当三维环境是增强现实环境时,第一用户界面对象是具有根据第二用户的实时视频图像生成的面部表情和说话动画的第二用户的更真实的三维模型。在一些实施方案中,计算机系统响应于用户(例如,第一用户、第二用户等)从虚拟模式切换到共享体验的增强现实模式的请求而从以第一真实度级别显示三维环境切换到以第二真实度级别显示。在一些实施方案中,当三维环境具有简单、平坦和不透明的表面时,第一用户界面对象是在三维环境中浮动的第二用户的二维图像;当三维环境切换到更真实的物理环境虚拟渲染时,第一用户界面对象变成具有更精致的面部特征和照明效果的第二用户的三维模型。在一些实施方案中,将第一用户界面对象的真实度级别和/或第一用户界面对象在三维环境中的渲染方式与三维环境的真实度级别和/或三维环境的渲染方式自动匹配使得第一用户界面对象看起来是三维环境的自然、不显眼的部分,从而改善了第一用户的观看体验。
根据确定三维环境以第一真实度级别显示,以对应于第一真实度级别的第一组显示属性显示第一用户界面对象,以及根据确定三维环境以不同于第一真实度级别的第二真实度级别显示,以对应于第二真实度级别的不同于第一组显示属性的第二组显示属性显示第一用户界面对象,向用户提供了改进的视觉反馈(例如,关于三维环境以哪一真实度级别显示的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,三维环境的第二视图中的第二显示位置(例如,向第一用户7102示出的视图7304-a"中第二用户7102的表示7102'-a的显示位置)从三维环境中以第一方式与第一对象(例如,图7F中的第二用户7102,或另一对象等)在第二物理环境(例如,场景105-b或另一场景等)中的相应定位相对应的第一用户界面对象(例如,第二用户7002的表示7102'-a)的相应位置位移第一位移量,其中该第一位移量(例如,具有第一方向和/或第一量值等)不以第一方式对应于第一对象在第二物理环境中的移动(例如,沿着图7D-7F中的路径7302移动,或沿着另一路径移动)。在一些实施方案中,第一位移量根本不对应于第一对象在第二物理环境中的移动,或者第一位移量以与第一方式不同的相应方式对应于第一对象在第二物理环境中的移动,等。
根据确定三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置距三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的距离小于阈值距离,在三维环境的第二视图中的第二显示位置处显示第一用户界面对象,其中三维环境的第二视图中的第二显示位置从三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置位移第一位移量,该第一位移量不以第一方式对应于第一对象在第二物理环境中的移动,向用户提供了改进的视觉反馈(例如,改进的视觉反馈:三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置距三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的距离小于阈值距离)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一位移量具有根据三维环境的当前显示视图的视点(例如,图7F中视图7304-a"的视点)与三维环境中以第一方式与第一对象(例如,图7D-7F中的第二用户7102,或另一用户或对象等)在第二物理环境(例如,场景105-b,或另一场景等)中的相应定位相对应的第一用户界面对象(例如,图7F中的第二用户7102的表示7102'-a,或另一表示等)的相应位置之间的空间关系(例如,距离和相对位置等)确定的方向。
在三维环境的第二视图中的第二显示位置处显示第一用户界面对象,其中三维环境的第二视图中的第二显示位置从三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置位移第一位移量,该第一位移量具有根据三维环境的当前显示视图的视点与三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置之间的空间关系确定的方向,向用户提供了改进的视觉反馈(例如,关于当前显示视图的视点与第一用户界面对象的相应位置之间的空间关系的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,三维环境的第二视图(例如,图7F(A)中的视图7304-a"或另一视图等)中的第二显示位置从三维环境中以第一方式与第一对象(例如,第二用户7102、另一用户或对象等)在第二物理环境(例如,场景105-b、另一场景等)中的相应定位相对应的第一用户界面对象(例如,第二用户的表示7102'-a、另一表示等)的相应位置位移第二位移量(例如,与第一位移量相同、与第一位移量不同等),其中该第二位移量具有与朝向三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的向前方向不同(例如,垂直或正交、向左、向右、向上指向等)的方向(例如,如图7F(A)中所示,表示7102'-a被移位到视点的侧面,即使其位置应当在向第一用户7002示出的视图7304-a"中的视点的正前方)。例如,在一些实施方案中,不管第一用户界面对象从哪个方向接近并到达与关联于三维环境的当前显示视图(例如,第二视图或稍后显示的另一视图等)的视点相对应的相应位置,第一用户界面对象都被转向到与关联于三维环境的当前显示视图的视点相对应的相应位置的侧面或上方,使得即使根据默认未调整方式(例如,第一方式、模仿真实方式、根据第一预设映射关系等)基于第一用户和/或第一对象在他们的相应物理环境中的移动计算的第一用户界面对象的相应位置变得更接近或穿过关联于三维环境的当前显示视图的相应视点,第一用户界面对象的显示位置也不会进入围绕对应于该视点的相应位置的受限空间。在一些实施方案中,就好像在以第一方式与三维环境的当前显示视图的视点相对应的相应位置前方的阈值距离处存在不可见玻璃壁,这使得第一用户界面对象沿着不可见玻璃壁向侧面或向上滑动,直到基于第一用户和第一对象的当前定位和移动历史计算的第一用户界面对象的相应位置不再处于与三维环境的当前显示视图的视点相对应的相应位置的阈值距离内。该具体实施有助于避免第一用户界面对象越过第一用户的视点或第一用户正面的虚拟表示。
在三维环境的第二视图中的第二显示位置处显示第一用户界面对象,其中三维环境的第二视图中的第二显示位置从三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置位移第二位移量,其中该第二位移量具有与朝向三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的向前方向不同的方向,向用户提供了改进的视觉反馈(例如,改进的视觉反馈改进的视觉反馈:三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置距三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的距离小于阈值距离)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,三维环境的第二视图(例如,图7F中的视图7304-a")中的第二显示位置从三维环境中以第一方式与第一对象(例如,图7F中的用户7102、另一用户或对象等)在第二物理环境(例如,场景105-b或另一场景等)中的相应定位相对应的第一用户界面对象(例如,第二用户的表示7102'-a、另一表示等)的相应位置位移第三位移量(例如,与第一位移量相同、与第一位移量不同等),其中该第三位移量具有与第一用户界面对象和三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置之间的接近方向(例如,指向共同中心)不同(例如,垂直或正交、向左、向右、向上指向等)的方向(例如,如图7F(A)中所示,表示7102'-a被移位到视点的侧面,即使它应当直接移动穿过向第一用户7002示出的视图7304-a"中的视点)。例如,在一些实施方案中,取决于第一用户界面对象从哪个方向接近并到达与关联于三维环境的当前显示视图(例如,第二视图或稍后显示的另一视图等)的视点相对应的相应位置,第三位移量使得第一用户界面对象从其接近方向转向到与关联于三维环境的当前显示视图的视点相对应的相应位置的侧面或上方,使得即使基于第一用户和/或第一对象在他们的相应物理环境中的移动计算的第一用户界面对象的相应位置变得更接近或穿过关联于三维环境的当前显示视图的相应视点,第一用户界面对象的显示位置也不会进入围绕对应于该视点的相应位置的受限空间。在一些实施方案中,就好像存在围绕与三维环境的当前显示视图的视点相对应的相应位置的不可见玻璃圆顶,这使得第一用户界面对象沿着不可见玻璃圆顶向侧面或向上滑动,直到基于第一用户和第一对象的当前定位和移动历史计算的第一用户界面对象的相应位置不再处于与三维环境的当前显示视图的视点相对应的相应位置的阈值距离内。该具体实施有助于避免第一用户界面对象从任何方向(例如,正面、侧面等)越过第一用户的视点或第一用户的虚拟表示。
在三维环境的第二视图中的第二显示位置处显示第一用户界面对象,其中三维环境的第二视图中的第二显示位置从三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置位移第三位移量,该第三位移量具有与第一用户界面对象和三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置之间的接近方向不同的方向,向用户提供了改进的视觉反馈(例如,改进的视觉反馈改进的视觉反馈:三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置距三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置的距离小于阈值距离)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,三维环境的第二视图(例如,图7F中的视图7304-a",或另一视图等)中的第二显示位置与三维环境中以第一方式与第一对象(例如,图7F中的用户7102,或另一用户或对象等)在第二物理环境中的相应定位相对应的第一用户界面对象(例如,图7F中的表示7102'-a,或另一用户或对象等)的相应位置之间的位移的量值和方向中的至少一者基于(例如,根据量值和/或方向变化的量值和/或方向,或根据量值和/或方向等的绝对值,在方向和/或量值上动态调整位移)三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置和三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置之间的空间关系(例如,相对方向和/或距离等)。
在三维环境的第二视图中的第二显示位置处显示第一用户界面对象,其中三维环境的第二视图中的第二显示位置与三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置之间的位移的量值和方向中的至少一者基于三维环境中以第一方式与第一对象在第二物理环境中的相应定位相对应的第一用户界面对象的相应位置和三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置之间的空间关系,向用户提供了改进的视觉反馈(例如,关于第一用户界面对象的相应位置与三维环境中与关联于三维环境的第二视图的第二视点相对应的相应位置之间的空间关系的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图9A至图9B中的操作进行描述的特定次序仅仅是示例性的,并非旨在表明所述顺序是可以执行这些操作的唯一次序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当指出的是,本文相对于本文所述的其他方法(例如,方法8000、10000、11000和12000)所述的其他过程的细节同样以类似的方式适用于上文相对于图9A-9B所述的方法9000。例如,上文参考方法9000所述的手势、注视输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象、和/或动画任选地具有本文参考本文所述的其他方法(例如,方法8000、10000、11000和12000)所述的手势、注释输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象和/或动画的特征中的一个或多个特征。为了简明起见,此处不再重复这些细节。
图10是根据一些实施方案的根据改变由计算机系统接收的用户的生物计量数据来改变显示计算机生成的体验的环境的沉浸级别的方法的流程图。
在一些实施方案中,方法10000在计算机系统(例如,图1中的计算机系统101)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏、投影仪等)和一个或多个相机(例如,向下指向用户的手部的相机(例如,颜色传感器、红外传感器和其他深度感测相机)或从用户头部向前指向的相机)。在一些实施方案中,方法10000通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法10000中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法10000在与显示生成部件(例如,图1、图3和图4中的显示生成部件120、显示生成部件7100等)(例如,平视显示器、HMD、显示器、触摸屏、投影仪等)和一个或多个输入设备(例如,相机、控制器、触敏表面、操纵杆、按钮等)通信的计算机系统(例如,图1中的计算机系统101)处执行。在一些实施方案中,计算机系统是集成设备,该集成设备具有封闭在与显示生成部件相同的外壳中的一个或多个处理器和存储器以及一个或多个输入设备中的至少一些输入设备。在一些实施方案中,计算机系统包括计算部件,该计算部件包括一个或多个处理器以及与显示生成部件分离的存储器以及/或者一个或多个输入设备。在一些实施方案中,显示生成部件以及一个或多个输入设备被集成并封装在同一外壳中。
在方法10000中,计算机系统以第一沉浸级别显示(10002)(例如,显示二维应用程序用户界面、显示三维环境的二维视图、将窗口或视点显示到占据用户的视场的小的第一部分的三维环境中、显示具有非空间音频的计算机生成的体验等)第一计算机生成的体验(例如,应用程序用户界面、虚拟体验、增强现实体验、混合现实体验等)(例如,如图7G中所示,其中显示计算机生成的体验的最小量的虚拟内容,并且物理环境的表示主导视图7316)。在以第一沉浸级别显示第一计算机生成的体验时,计算机系统接收(10004)(例如,实时地、通过连接到或指向第一用户的一个或多个生物计量传感器(例如,各种合适的医疗设备、振动传感器、相机、热传感器、化学传感器等)等)对应于第一用户(例如,图7G-7J中的用户7002)的生物计量数据(例如,对应于第一用户在第一时间点或时间段的生理状态)。在一些实施方案中,生物计量数据不包括人的非瞬态特性(例如,指纹、虹膜图案和颜色、面部特征、声纹等),这些非瞬态特性在普通用户参与计算机生成的体验的时间段内通常不改变。在一些实施方案中,生物计量数据包括心率、呼吸速率、体温、某些化学物质、药物、激素等的血清浓度、血压、脑电波、注意力水平、瞳孔大小、代谢速度、血糖水平、在用户参与计算机生成的体验期间可随时间变化的一种或多种类型的生物计量数据、在用户参与计算机生成的体验期间可通过用户自己的动作(例如,冥想、呼吸模式变化、锻炼等,与由计算机系统提供的用户界面元件或控件的直接交互相反)变化的一种或多种类型的生物计量数据、对应于用户的情绪、幸福感和/或压力水平等的多种类型的生物计量数据的一种或多种类型的复合度量。响应于接收到(10006)对应于第一用户的生物计量数据(例如,对应于第一用户在第一时间点或时间段的生理状态)(例如,周期性地接收的数据、或连续地接收的数据等)并且根据确定对应于第一用户的生物计量数据(例如,对应于第一用户在第一时间点或时间段的生理状态)(例如,最近接收的生物计量数据、在预设持续时间的最近时间段期间接收的生物计量数据等)满足第一标准,计算机系统以第二沉浸级别显示(10008)第一计算机生成的体验(例如,第二沉浸级别提供比第一沉浸级别更沉浸的体验,第二沉浸级别提供比第一沉浸级别更少沉浸的体验等),其中与以第一沉浸级别显示的第一计算机生成的体验相比,以第二沉浸级别显示的第一计算机生成的体验占据第一用户的视场的更大部分(例如,更宽的横向方向角度范围、更宽的垂直方向角度范围、更大的视口大小等)(例如,与第一计算机生成的体验占据第一用户的视场的较小部分时相比,第一计算机生成的体验占据第一用户的视场的较大部分任选地向第一用户提供了更沉浸的体验)。在一些实施方案中,第一标准包括:用于指示第一用户在心理和情感上准备好进入更沉浸式体验的预设标准、用于指示第一用户准备好退出到较不沉浸式体验的预设标准等。这在图7J中示出,其中视图7334包括计算机生成的体验的虚拟内容,该虚拟内容占据例如比图7G中示出的视图7316更大的空间范围。在一些实施方案中,计算机系统根据以下确定来确定生物计量数据满足预设标准:心率低于第一阈值心率,呼吸速率低于第一阈值呼吸速率,血压低于第一阈值血压,用户在阈值时间量期间的移动低于第一阈值移动量,用户的体温低于第一阈值体温,压力水平的度量低于第一阈值压力水平,对应于用户情绪的度量指示用户轻松愉快等。在一些实施方案中,第一沉浸级别和第二沉浸级别任选地在以下方面不同:在计算机生成的体验的用户视图中存在的虚拟元素的量、在计算机生成的体验中保持可见的物理表面的数量、用于播放计算机生成的体验的声音效果的音频输出模式、由计算机生成的体验描绘的真实度级别、由计算机生成的体验描绘的维数和/或在计算机生成的体验中可用的功能和交互的数量等。在方法10000中,响应于接收到对应于第一用户的生物计量数据并且根据确定对应于第一用户的生物计量数据不满足第一标准(例如,心率大于第一阈值心率,血压高于第一阈值血压,用户在阈值时间量期间的移动大于第一阈值移动量,压力水平的度量高于第一阈值压力水平,对应于用户情绪的度量指示用户烦躁不安等),计算机系统继续(10010)以第一沉浸级别显示第一计算机生成的体验。这在图7G中示出,其中生物计量数据可能在阈值指示符7326以下波动,并且视图7316得以保持。在一些实施方案中,任选地,第一计算机生成的体验包括帮助第一用户进入其中从第一用户接收的对应生物计量数据将满足第一标准的状态的视觉和音频引导(例如,音乐、风景、启发性消息、指导用药记录、关于呼吸的视觉、音频或口头指令等)。这些特征在图7G-7J中示出,例如,其中虚拟内容与物理环境的表示之间的视觉平衡根据对应于用户7002的生物计量数据的变化而逐渐和/或突然变化。虚拟内容与物理环境的表示之间的视觉平衡和相对视觉显著性表示将计算机生成的体验提供给用户的沉浸级别。
在一些实施方案中,在以第二沉浸级别显示第一计算机生成的体验时,计算机系统接收(例如,实时地,通过连接到或指向第一用户的一个或多个生物计量传感器(例如,各种合适的医疗设备、振动传感器、相机、热传感器、化学传感器等)等)对应于第一用户的第一更新的生物计量数据(例如,对应于在计算机系统已经转变为以第二沉浸级别显示第一计算机生成的体验之后,第一用户在晚于第一时间点或时间段的第二时间点或时间段处的生理状态)。在一些实施方案中,第一更新的生物计量数据包括:第一更新值:在一段时间之后接收的心率、呼吸速率、体温、某些化学物质、药物、激素等的血清浓度、血压、脑电波、注意力水平、瞳孔大小、代谢速率、血糖水平、在用户参与计算机生成的体验期间可随时间变化的一种或多种类型的生物计量数据、在用户参与计算机生成的体验期间可通过用户自己的动作(例如,冥想、呼吸模式变化、锻炼等,与由计算机系统提供的用户界面元件或控件的直接交互相反)变化的一种或多种类型的生物计量数据、对应于用户的情绪、幸福感和/或压力水平等的多种类型的生物计量数据的一种或多种类型的复合度量。在方法10000中,响应于接收到对应于第一用户的第一更新的生物计量数据(例如,对应于第一用户在晚于第一时间点或时间段的第二时间点或时间段处的生理状态)并且根据确定对应于第一用户的第一更新的生物计量数据(例如,对应于第一用户在晚于第一时间点或时间段的第二时间点或时间段处的生理状态)满足不同于第一标准的第二标准(例如,比第一标准更严格、更难满足等),计算机系统以第三沉浸级别显示第一计算机生成的体验(例如,第三沉浸级别提供比第二沉浸级别更沉浸的体验,第三沉浸级别提供比第二沉浸级别更少沉浸的体验等),其中与以第二沉浸级别显示的第一计算机生成的体验相比,以第三沉浸级别显示的第一计算机生成的体验占据第一用户的视场的更大部分(例如,与第一计算机生成的体验占据第一用户的视场的较小部分时相比,第一计算机生成的体验占据第一用户的视场的较大部分任选地向第一用户提供了更沉浸的体验)。在一些实施方案中,第一沉浸级别、第二沉浸级别和第三沉浸级别任选地在以下方面不同:存在于计算机生成的体验的用户视图中的虚拟元素的量、在计算机生成的体验中保持可见的物理表面的数量、用于播放计算机生成的体验的声音效果的音频输出模式、由计算机生成的体验描绘的真实度级别、由计算机生成的体验描绘的维数和/或在计算机生成的体验中可用的功能和交互的数量等。在方法10000中,响应于接收到对应于第一用户的第一更新的生物计量数据并且根据确定对应于第一用户的第一更新的生物计量数据满足第一标准并且不满足第二标准(例如,心率小于第一阈值心率但大于第二阈值心率,血压小于第一阈值血压但大于第二阈值血压,在阈值时间量期间用户的移动小于第一阈值移动量但大于第二阈值移动量,用户体温小于第一阈值体温但大于第二阈值体温,压力水平的度量低于阈值压力水平但高于第二阈值压力水平,对应于用户情绪的度量指示用户轻松愉快的但还没有集中和平静等),计算机系统继续以第二沉浸级别显示第一计算机生成的体验。在一些实施方案中,任选地,第一计算机生成的体验包括帮助第一用户进入其中从第一用户接收的对应生物计量数据将满足第二标准的状态的视觉和音频引导(例如,音乐、风景、启发性消息、指导用药记录、关于呼吸的视觉、音频或口头指令等)。在一些实施方案中,第一沉浸级别、第二沉浸级别和第三沉浸级别对应于计算机生成的环境中存在的虚拟内容的递增量和/或计算机生成的环境中存在的周围物理环境的表示的递减量。在一些实施方案中,第一沉浸级别、第二沉浸级别和第三沉浸级别对应于具有计算机生成的内容的递增图像保真度和/或空间范围(例如,角范围、空间深度等)和/或周围物理环境的表示的递减图像保真度和/或空间范围的不同模式的内容显示。在一些实施方案中,第一沉浸级别是透传模式,其中用户通过第一显示生成部件(例如,作为物理环境的相机视图或通过第一显示生成部件的透明部分)可完全看见物理环境,并且计算机生成的环境包括物理环境的透传视图,该透传视图具有可同时作为物理环境的视图看见的最少量的虚拟元素或包括在物理环境的用户视角的外围的虚拟元素(例如,在显示器的外围区域中显示的指示符和控件)。在一些实施方案中,第二沉浸级别是混合现实模式,其中物理环境的透传视图用计算系统所生成的虚拟元素来增强,并且具有与物理环境的用户视角的中心部分相对应的计算机生成的环境中的位置和/或具有与物理环境中的位置和对象相对应的计算机生成的环境中的位置(例如,虚拟内容与物理环境整合在计算机生成的环境的视图中)。在一些实施方案中,第三沉浸级别是虚拟现实模式,其中物理环境的用户视角完全被第一显示生成部件所提供的虚拟内容的视图替换或遮挡。在一些实施方案中,存在四种不同沉浸级别,其中第一沉浸级别对应于第一显示生成部件的透传模式,第二沉浸级别包括与第一显示生成部件的两种单独子模式相对应的两种子级别A和B(例如,第二级别–A,其中用户界面或用户界面对象在用户的视场的主要部分中显示,而物理环境的透传视图在用户界面或用户界面对象的背景中显示;和第二级别–B,其中虚拟元素与物理环境中的物理对象的表示整合在物理环境的增强现实视图中),并且第三沉浸级别对应于第一显示生成部件的虚拟现实模式。
根据确定对应于第一用户的第一更新的生物计量数据满足不同于第一标准的第二标准,以第三沉浸级别显示第一计算机生成的体验,该第三沉浸级别比以第二沉浸级别显示的第一计算机生成的体验占据第一用户的视场的更大部分,并且根据确定对应于第一用户的第一更新的生物计量数据满足第一标准并且不满足第二标准,以第二沉浸级别继续显示第一计算机生成的体验,这种做法在已经满足一组条件时以第三沉浸级别显示第一计算机生成的体验,而无需另外的用户输入(例如,改变沉浸级别的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,当以相应沉浸级别(例如,第二沉浸级别、第三沉浸级别等)显示第一计算机生成的体验时,计算机系统接收对应于第一用户的第二更新的生物计量数据(例如,对应于在计算机系统已经从另一较不沉浸的沉浸级别转变为以相应沉浸级别显示第一计算机生成的体验之后,第一用户在晚于第一时间点或时间段和/或第二时间点或时间段的第三时间点或时间段处的生理状态),其中以相应沉浸级别显示的第一计算机生成的体验比以第一沉浸级别显示的占据第一用户的视场的更大部分(例如,该相应沉浸级别是第二沉浸级别或第三沉浸级别)。在一些实施方案中,第二更新的生物计量数据包括:第二更新值:在一段时间之后接收的心率、呼吸速率、体温、某些化学物质、药物、激素等的血清浓度、血压、脑电波、注意力水平、瞳孔大小、代谢速率、血糖水平、在用户参与计算机生成的体验期间可随时间变化的一种或多种类型的生物计量数据、在用户参与计算机生成的体验期间可通过用户自己的动作(例如,冥想、呼吸模式变化、锻炼等,与由计算机系统提供的用户界面元件或控件的直接交互相反)变化的一种或多种类型的生物计量数据、对应于用户的情绪、幸福感和/或压力水平等的多种类型的生物计量数据的一种或多种类型的复合度量。响应于接收到对应于第一用户的第二更新的生物计量数据(例如,对应于第一用户在晚于第一时间点或时间段和/或第二时间点或时间段的第三时间点或时间段处的生理状态),并且根据确定对应于第一用户的第二更新的生物计量数据(例如,对应于第一用户在晚于第一时间点或时间段的第二时间点或时间段处的生理状态)不满足转变为以相应沉浸级别(例如,第二沉浸级别、第三沉浸级别等)显示第一计算机生成的体验所满足的相应标准(例如,第一标准、第二标准等),计算机系统以较低沉浸级别(例如,第一沉浸级别、第二沉浸级别等)显示第一计算机生成的体验,该较低沉浸级别在以相应沉浸级别(例如,第二沉浸级别、第三沉浸级别等)显示第一计算机生成的体验之前使用。在一些实施方案中,改变经由第一显示生成部件显示的计算机生成的环境的沉浸级别包括:根据确定当前接收的生物计量数据不再满足第二标准但仍满足第一标准,从以第三沉浸级别显示计算机生成的环境(例如,虚拟现实模式)切换到以第二沉浸级别显示计算机生成的环境(例如,混合现实模式,或者任选地与虚拟现实内容的并发显示一起的临时透传模式)。在一些实施方案中,当计算机生成的环境当前以第二沉浸级别显示,并且计算机系统检测到当前生物计量数据不再满足第一标准并且不满足第二标准时,计算系统从以第二沉浸级别显示计算机生成的环境切换到以第一沉浸级别显示计算机生成的环境(例如,从混合现实模式(例如,混合现实模式的子模式A)切换到完全透传模式,或使图形用户界面(例如,主屏幕、应用程序启动用户界面)或用户界面对象(例如,应用程序启动图标、内容项和体验的表示等)的显示显示在用户的视场的主要部分中)。例如,在图7J中,根据一些实施方案,在响应于生物计量数据7312满足由指示器7326指示的预设阈值而以高沉浸级别显示计算机生成的体验之后,当生物计量数据不再满足该预设阈值时,计算机系统任选地返回到图7G-7I中示出的状态中的任何状态。
根据确定对应于第一用户的第二更新的生物计量数据不满足转变为以相应沉浸级别显示第一计算机生成的体验所满足的相应标准,以在以相应沉浸级别显示第一计算机生成的体验之前使用的较低的沉浸级别显示第一计算机生成的体验,这种做法在已经满足一组条件时以适当的沉浸级别显示第一计算机生成的体验,而无需另外的用户输入(例如,选择沉浸级别的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,生物计量数据(例如,图7G-7J中的生物计量数据7312)包括第一用户的呼吸速率,并且第一标准包括当第一用户的呼吸率低于第一阈值呼吸速率时满足以便满足该第一标准的标准。在一些实施方案中,生物计量数据诸如呼吸速率被用作第一用户是否准备好进入由计算机系统提供的更深的沉浸式体验并且从第一用户周围的物理环境接收更少的刺激的指示。在一些实施方案中,任选地与其他类型的生物计量数据组合的较低的呼吸速率被用于指示用户正准备进入由计算机生成的体验提供的指导冥想的下一阶段。在一些实施方案中,生物计量数据包括其他类型的生理数据,并且第一标准包括针对其他类型的生理数据中的相应生理数据的相应阈值。在一些实施方案中,必须满足针对至少阈值数量的生物计量数据类型的相应阈值,以便满足第一标准。在一些实施方案中,第二标准包括当第一用户的呼吸速率低于第二阈值呼吸速率时满足以便满足第二标准的标准,该第二阈值呼吸速率低于第一呼吸速率。在一些实施方案中,不同类型的生物计量数据的不同(不一定更低)值被用于第二标准中的阈值。
根据确定对应于第一用户的生物计量数据(包括第一用户的呼吸速率)满足要求第一用户的呼吸速率低于第一阈值呼吸速率的第一标准,以第二沉浸级别显示第一计算机生成的体验,并且根据确定对应于第一用户的生物计量数据(包括第一用户的呼吸速率)不满足要求第一用户的呼吸速率低于第一阈值呼吸速率的第一标准,继续以第一沉浸级别显示第一计算机生成的体验,这种做法在已经满足一组条件时以适当的沉浸级别显示第一计算机生成的体验,而无需另外的用户输入(例如,用于选择沉浸级别的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,第一标准包括生物计量数据(例如,图7G-7J中的生物计量数据7312、其他生物计量数据等)满足一个或多个预设阈值(例如,由指示符7326指示的阈值、其他阈值等)达至少阈值时间量以便满足第一标准的要求。例如,在一些实施方案中,生物计量数据包括第一用户的呼吸速率和/或第一用户的心率,并且当第一用户的平均呼吸速率已经保持低于每分钟15次呼吸达至少三分钟和/或第一用户的平均心率已经保持低于每分钟65次心跳达至少五分钟时满足第一标准。在另一个示例中,生物计量数据包括第一用户的血压和/或第一用户的血氧水平,并且当第一用户的平均血压已经保持在120/80的第一范围(例如,+/-10)达至少十分钟和/或第一用户的血氧水平已经保持高于99.9%达至少三分钟时满足第一标准。
根据确定对应于第一用户的生物计量数据满足要求生物计量数据满足一个或多个预设阈值达至少阈值时间量的第一标准,以第二沉浸级别显示第一计算机生成的体验,并且根据确定对应于第一用户的生物计量数据(包括第一用户的呼吸速率)不满足要求生物计量数据满足一个或多个预设阈值达至少阈值时间量的第一标准,继续以第一沉浸级别显示第一计算机生成的体验,这种做法在已经满足一组条件时以适当的沉浸级别显示第一计算机生成的体验,而无需另外的用户输入(例如,选择沉浸级别的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,以第一沉浸级别显示第一计算机生成的体验包括在与物理环境的一个或多个第一部分的位置相对应的相应第一位置处显示虚拟内容(例如,任选地随时间改变的第一计算机生成的体验的虚拟内容)(例如,虚拟内容覆盖如果不显示虚拟内容则将在用户的视场中的物理环境的第一部分(例如,单个连续部分或多个分离的、不相交的部分等)的表示、替换该表示的显示或遮挡该表示的视图)(例如,显示物理环境的增强现实视图,或显示具有一些用户界面对象的物理环境的完全透传视图等),同时保持物理环境的一个或多个第二部分(不同于第一部分)的表示(例如,在相应第二位置处)的显示(例如,物理环境的部分通过显示生成部件对用户保持可见(例如,与虚拟内容相邻,作为虚拟内容的周围背景等))。在一些实施方案中,以第一沉浸级别显示第一计算机生成的体验包括在虚拟窗口或屏幕中显示虚拟内容,该虚拟窗口或屏幕覆盖在物理环境的表示(例如,相机视图、通过透明显示器的透传视图等)上、替换该表示的显示或遮挡该表示的视图等。在一些实施方案中,以第一沉浸级别显示第一计算机生成的体验包括在对应于物理环境中的第一物理表面(例如,真实窗口、墙壁、桌面等)的定位或第一数量(例如,少于全部)的物理表面(例如,所有墙壁,但不包括天花板和地板;所有墙壁、天花板和地板,但不包括家具;桌面,但不包括墙壁等)的位置处显示虚拟内容。以第二沉浸级别显示第一计算机生成的体验包括在与物理环境的该一个或多个第一部分的定位相对应的相应第一位置(例如,靠近用户视场中心的部分)处以及在与物理环境的该一个或多个第二部分中的至少一些部分相对应的相应第二位置(例如,远离用户视场中心的部分)处显示虚拟内容(例如,任选地随时间改变的第一计算机生成的体验的虚拟内容)(例如,物理环境的较少部分以第二沉浸级别通过显示生成部件保持对用户可见)。在一些实施方案中,以第二沉浸级别显示第一计算机生成的体验包括在具有虚拟对象的三维环境中显示虚拟内容,这些虚拟对象覆盖在物理环境的表示的更多或更宽的部分(例如,相机视图、通过透明显示器的透传视图等)上、替换该表示的更多或更宽的部分的显示或遮挡该表示的更多或更宽的部分的视图等。在一些实施方案中,以第二沉浸级别显示第一计算机生成的体验包括在对应于物理环境中的更多物理表面和/或更多类型的物理表面(例如,真实窗口、墙壁、桌面、家具等)的定位的位置处显示虚拟内容。在一些实施方案中,以第三沉浸级别显示第一计算机生成的体验包括显示虚拟环境而不显示物理环境的任何部分的表示(例如,显示虚拟现实环境)。在一些实施方案中,虚拟环境仍然对应于物理环境,例如虚拟环境中的虚拟对象和表面的定位和空间关系仍然对应于物理环境中的至少一些物理对象和表面的定位和空间关系。在一些实施方案中,虚拟环境不对应于物理环境,除非在最小范围内(例如,重力方向和地板取向等)。在一些实施方案中,以第一沉浸级别显示的第一计算机生成的体验是增强现实体验,并且以第二沉浸级别显示的第一计算机生成的体验是虚拟体验。
以第一沉浸级别显示第一计算机生成的体验(包括在与物理环境的一个或多个第一部分的定位相对应的相应第一位置处显示虚拟内容),同时保持物理环境的一个或多个第二部分的表示的显示,以及以第二沉浸级别显示第一计算机生成的体验(包括在与物理环境的一个或多个第一部分的定位相对应的相应第一位置处以及在与物理环境的一个或多个第二部分中的至少一些部分相对应的相应第二位置处显示虚拟内容)向用户提供了改进的视觉反馈(例如,关于当前沉浸级别的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到对应于第一用户(例如,对应于第一用户在第一时间点或时间段处的生理状态)的生物计量数据(例如,周期性接收的数据或连续接收的数据等)(例如,图7G-7J中的生物计量数据7312或其他生物计量数据),并且根据确定对应于第一用户(例如,对应于第一用户在第一时间点或时间段处的生理状态)的生物计量数据(例如,最近接收的生物计量数据、在预设持续时间的最近时间段内接收的生物计量数据等)的变化正朝向满足第一标准的方向进展(例如,心率减慢至接近第一阈值心率、呼吸速率减慢至接近第一阈值呼吸速率、体温降低至接近第一阈值体温、某些化学物质、药物、激素等的血清浓度、血压、脑电波、注意力水平、瞳孔大小、代谢速率、血糖水平、在用户参与计算机生成的体验期间可随时间变化的一种或多种类型的生物记录数据、在用户参与计算机生成的体验期间可通过用户自己的动作(例如,冥想、呼吸模式变化、锻炼等,与由计算机系统提供的用户界面元件或控件的直接交互相反)变化的一种或多种类型的生物计量数据、对应于用户的情绪、幸福感和/或压力水平等的多种类型的生物计量数据的一种或多种类型的复合度量等正在变化的趋势,如果持续下去,将满足第一标准),计算机系统逐渐减少(例如,模糊、变暗、遮挡、替换、覆盖等)经由第一显示生成部件可见的物理环境表示的至少一部分的视觉强调,同时以第一沉浸级别显示第一计算机生成的体验,其中以第二沉浸级别显示第一计算机生成的体验包括在与物理环境表示的该部分相对应的位置处显示第一计算机生成的体验的虚拟内容,使得物理环境表示的该部分不再经由第一显示生成部件可见。例如,在一些实施方案中,当第一计算机生成的体验以第一沉浸级别显示时,面向第一用户的物理墙壁的表示(例如,墙壁的透传视图或相机视图)被虚拟墙壁(例如,具有虚拟壁纸)、虚拟窗口(例如,具有虚拟视图)、虚拟风景(例如,开阔的海景、开阔的乡村风景等)、虚拟桌面、虚拟电影屏幕等遮挡、替换或覆盖,而房间中的其他物理墙壁、天花板、地板、家具仍通过显示生成部件对用户可见。当从第一用户接收的生物计量数据满足第一标准时,计算机系统逐渐模糊和/或变暗物理环境的表示的仍然可见的部分,并且用虚拟内容替换它们(例如,扩展现有虚拟内容、添加新虚拟内容等)。在一些实施方案中,计算机系统显示虚拟内容,诸如虚拟壁纸、虚拟房间装饰、虚拟风景、虚拟电影屏幕、虚拟桌面等,这些虚拟内容逐渐替换物理环境的表示的模糊和/或变暗的部分(例如,从物理环境表示的部分后面淡入,或者从物理环境表示的部分的周围区域逐渐进入等)。当转变完成时,用户对第一计算机生成的体验的视场得到了扩展,并且更少的物理环境经由显示生成部件可见。
当以第一沉浸级别显示第一计算机生成的体验时逐渐地降低已经由第一显示生成部件可见的物理环境的表示的至少一部分的视觉强调,并且根据确定对应于第一用户的生物计量数据的变化正朝向满足第一标准的方向进展,以第二沉浸级别显示第一计算机生成的体验,包括在与物理环境表示的该部分相对应的位置处显示第一计算机生成的体验的虚拟内容,使得物理环境表示的该部分不再经由第一显示生成部件可见,向用户提供了改进的视觉反馈(例如,对应于第一用户的生物计量数据正朝向满足第一标准的方向进展的改进的视觉反馈、关于对应于第一用户的生物计量数据朝向满足第一标准的相对进展的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到对应于第一用户(例如,对应于第一用户在第一时间点或时间段处的生理状态)的生物计量数据(例如,周期性接收的数据或连续接收的数据等)(例如,图7G-7J中的生物计量数据7312或其他生物计量数据等),并且根据确定对应于第一用户(例如,对应于第一用户在第一时间点或时间段处的生理状态)的生物计量数据(例如,最近接收的生物计量数据、在预设持续时间的最近时间段内接收的生物计量数据等)的变化正朝向满足第一标准的方向进展(例如,心率减慢至接近第一阈值心率、呼吸速率减慢至接近第一阈值呼吸速率、体温降低至接近第一阈值体温、某些化学物质、药物、激素等的血清浓度、血压、脑电波、注意力水平、瞳孔大小、代谢速率、血糖水平、在用户参与计算机生成的体验期间可随时间变化的一种或多种类型的生物记录数据、在用户参与计算机生成的体验期间可通过用户自己的动作(例如,冥想、呼吸模式变化、锻炼等,与由计算机系统提供的用户界面元件或控件的直接交互相反)变化的一种或多种类型的生物计量数据、对应于用户的情绪、幸福感和/或压力水平等的多种类型的生物计量数据的一种或多种类型的复合度量等正在变化的趋势,如果持续下去,将满足第一标准),计算机系统将在以第一沉浸级别显示第一计算机生成的体验时经由第一显示生成部件可见的物理环境表示的至少一部分的视觉属性改变(例如,模糊、变暗、遮挡、替换、覆盖等)与对应于第一用户的生物计量数据的变化相对应的量。例如,在一些实施方案中,当第一计算机生成的体验以第一沉浸级别显示时,面向第一用户的物理墙壁的表示(例如,墙壁的透传视图或相机视图)被虚拟墙壁(例如,具有虚拟壁纸)、虚拟窗口(例如,具有虚拟视图)、虚拟风景(例如,开阔的海景、开阔的乡村风景等)、虚拟桌面、虚拟电影屏幕等遮挡、替换或覆盖,而房间中的其他物理墙壁、天花板、地板、家具仍通过显示生成部件对用户可见。当从第一用户接收的生物计量数据随着朝向满足第一标准的趋势而变化时,计算机系统逐渐增强应用于用户视场的尚未被虚拟内容覆盖的区域的模糊和/或变暗的量。任选地,如果生物计量数据以相反的趋势变化,则逐渐减少模糊和/或变暗的量,并且再次改善那些区域中的物理环境视图的清晰度。
根据确定对应于第一用户的生物计量数据的变化朝向满足第一标准的方向进展,将在以第一沉浸级别显示第一计算机生成的体验时经由第一显示生成部件可见的物理环境的表示的至少一部分的视觉属性改变与对应于第一用户的生物计量数据的变化相对应的量,向用户提供了改进的视觉反馈(例如,对应于第一用户的生物计量数据朝向满足第一标准的方向进展的改进的视觉反馈、关于对应于第一用户的生物计量数据朝向满足第一标准的相对进展的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到对应于第一用户(例如,对应于第一用户在第一时间点或时间段处的生理状态)的生物计量数据(例如,周期性接收的数据或连续接收的数据等)(例如,图7G-7J中的生物计量数据7312或其他生物计量数据等),并且根据确定对应于第一用户(例如,对应于第一用户在第一时间点或时间段处的生理状态)的生物计量数据(例如,最近接收的生物计量数据、在预设持续时间的最近时间段内接收的生物计量数据等)的变化正朝向满足第一标准的方向进展(例如,心率减慢至接近第一阈值心率、呼吸速率减慢至接近第一阈值呼吸速率、体温降低至接近第一阈值体温、某些化学物质、药物、激素等的血清浓度、血压、脑电波、注意力水平、瞳孔大小、代谢速率、血糖水平、在用户参与计算机生成的体验期间可随时间变化的一种或多种类型的生物记录数据、在用户参与计算机生成的体验期间可通过用户自己的动作(例如,冥想、呼吸模式变化、锻炼等,与由计算机系统提供的用户界面元件或控件的直接交互相反)变化的一种或多种类型的生物计量数据、对应于用户的情绪、幸福感和/或压力水平等的多种类型的生物计量数据的一种或多种类型的复合度量等正在变化的趋势,如果持续下去,将满足第一标准),计算机系统将虚拟内容的显示扩展到在以第一沉浸级别显示第一计算机生成的体验时经由第一显示生成部件可见的物理环境表示的至少一部分上(例如,遮挡、替换、覆盖等)与对应于第一用户的生物计量数据的变化相对应的量。例如,在一些实施方案中,当第一计算机生成的体验以第一沉浸级别显示时,面向第一用户的物理墙壁的表示(例如,墙壁的透传视图或相机视图)被虚拟墙壁(例如,具有虚拟壁纸)、虚拟窗口(例如,具有虚拟视图)、虚拟风景(例如,开阔的海景、开阔的乡村风景等)、虚拟桌面、虚拟电影屏幕等遮挡、替换或覆盖,而房间中的其他物理墙壁、天花板、地板、家具的表示仍经由显示生成部件显示给用户。当从第一用户接收的生物计量数据随着朝向满足第一标准的趋势而变化时,计算机系统逐渐扩展由虚拟内容覆盖的用户视场的区域,以遮挡周围物理环境的更多视图。任选地,如果生物计量数据以相反的趋势变化,则先前被遮挡/覆盖的区域被逐渐恢复并且再次显露那些区域中的物理环境的视图。
根据确定对应于第一用户的生物计量数据的变化朝向满足第一标准的方向进展,将虚拟内容的显示扩展到在以第一沉浸级别显示第一计算机生成的体验时经由第一显示生成部件可见的物理环境的表示的至少一部分上与对应于第一用户的生物计量数据的变化相对应的量,向用户提供了改进的视觉反馈(例如,对应于第一用户的生物计量数据朝向满足第一标准的方向进展的改进的视觉反馈、关于对应于第一用户的生物计量数据朝向满足第一标准的相对进展的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一标准包括当生物计量数据(例如,图7G-7J中的生物计量数据7312或其他生物计量数据等)正被接收时第一用户(例如,图7G-7J中的用户7002,或另一用户等)进行小于阈值量的第一类型的移动(例如,在阈值时间量期间小于预设阈值量的第一类型的移动、小于阈值累积量的第一类型的移动、小于绝对量的第一类型的移动等)(例如,第一类型的移动包括头部的移动、身体中心的移动、肢体的移动和/或眼睛的移动等)以便满足第一标准的标准。例如,在一些实施方案中,为了确保所接收的生物计量数据是有效的和/或确保第一用户意图集中精力进入计算机生成的体验的更沉浸的级别,要求第一用户在生物计量数据被接收和评估时基本上保持静止。在一些实施方案中,如果在阈值时间量期间检测到第一用户的移动量超过阈值,即使生物计量数据满足第一标准中针对生物计量数据指定的要求(例如,呼吸速率、心率等的阈值),计算机系统也不会(例如,放弃、停止、反转等)以第二沉浸级别(或另一下一沉浸级别)显示第一计算机生成的体验。
根据确定对应于第一用户的生物计量数据满足要求在生物计量数据正被接收时第一用户进行小于阈值量的第一类型的移动的第一标准,以第二沉浸级别显示第一计算机生成的体验,并且根据确定对应于第一用户的生物计量数据(包括第一用户的呼吸速率)不满足要求在生物计量数据正被接收时第一用户进行小于阈值量的第一类型的移动的第一标准,继续以第一沉浸级别显示第一计算机生成的体验,这种做法在已经满足一组条件时以适当的沉浸级别显示第一计算机生成的体验,而无需另外的用户输入(例如,选择沉浸级别的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,当以第二沉浸级别显示第一计算机生成的体验时,计算机系统检测到由第一用户(例如,图7G-7J中的用户7002、另一用户等)执行的第一类型的移动(例如,头部的移动、身体中心的移动、肢体的移动、眼睛的移动等)。响应于检测到由第一用户执行的第一类型的移动,并且根据确定该第一类型的移动超过预设阈值量的移动(例如,在阈值时间量期间大于预设阈值量的移动、大于累积量的移动、大于绝对量的移动等),计算机系统以第一沉浸级别重新显示第一计算机生成的体验。例如,在一些实施方案中,在从第一用户接收的生物计量数据满足第一标准之后并且在以第二沉浸级别显示第一计算机生成的体验时,如果第一用户以一种或多种预设方式移动超过阈值量(例如,第一用户站起来、移动他/她的头部、伸展他的手臂、移动他的视线等),则计算机系统将第一用户的移动解释为退出更沉浸的体验的意图,并且返回到计算机生成的体验的先前显示的、较不沉浸的级别。当第一用户使用计算机生成的体验进行冥想或睡眠时,该特征是有用的,并且第一用户的移动允许用户返回到正常状态。在一些实施方案中,为了确保所接收的生物计量数据是有效的和/或确保第一用户意图集中精力进入计算机生成的体验的更沉浸的级别,要求第一用户在生物计量数据被接收和评估时基本上保持静止。在一些实施方案中,如果在阈值时间量期间检测到第一用户的移动量超过阈值,则计算机系统停止或反转以第二沉浸级别(或无论下一沉浸级别是什么)显示第一计算机生成的体验,而不管生物计量数据是否仍然满足第一标准中针对生物计量数据指定的要求(例如,呼吸速率、心率等的阈值)。
响应于检测到第一用户正在执行的第一类型的移动,并且根据确定该第一类型的移动超过预设阈值量的移动,以第一沉浸级别重新显示第一计算机生成的体验,这种做法在已经满足一组条件时以第一沉浸级别重新显示第一计算机生成的体验,而无需另外的用户输入(例如,选择第一沉浸级别的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,当以第二沉浸级别显示第一计算机生成的体验时(例如,如图7J中所示),计算机系统检测到由第一用户(例如,图7J中的用户7002)执行的第一类型的移动(例如,头部的移动、身体中心的移动、肢体的移动、眼睛的移动等)。响应于检测到由第一用户执行的第一类型的移动并且根据确定该第一类型的移动超过预设阈值量的移动(例如,在阈值时间量期间大于预设阈值量的移动、大于累积量的移动、大于绝对量的移动等),计算机系统从以第一视点以第二沉浸级别显示第一计算机生成的体验切换到以不同于第一视点的第二视点以第二沉浸级别显示第一计算机生成的体验(例如,具有第二沉浸级别的第一计算机生成的体验的视点的改变对应于由第一用户执行的第一类型的移动)。例如,一旦生物计量数据的变化触发了更沉浸式体验,第一用户就可以在物理环境中四处移动、转动他/她的头部、或注视不同方向,以改变显示虚拟环境的视图的视点。
响应于检测到由第一用户执行的第一类型的移动并且根据确定该第一类型的移动超过预设阈值量的移动,从以第一视点以第二沉浸级别显示第一计算机生成的体验切换到以不同于第一视点的第二视点以第二沉浸级别显示第一计算机生成的体验,这种做法在已经满足一组条件时切换所显示的视点,而无需另外的用户输入(例如,从第一视点改变到第二视点的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,从以第一沉浸级别显示第一计算机生成的体验(例如,经由图7G-7J中的第一显示生成部件7100示出的计算机生成的体验、另一计算机生成的体验等)到以第二沉浸级别显示第一计算机生成的体验的转变是在对应于第一标准被满足的时间的时间点进行的离散转变(例如,同时用虚拟内容替换物理环境的表示的大部分、遮挡该大部分和/或覆盖该大部分的突然改变,而没有逐渐模糊或淡入,没有沿着跨对应于物理表面的位置的一个或多个方向的增量变化等)。例如,在一些实施方案中,在满足第一标准之前,以第一沉浸级别显示第一计算机生成的体验达延长的时间段,并且在生物计量数据满足第一标准后,当以第二沉浸级别显示的第一计算机生成的体验替换以第一沉浸级别显示的第一计算机生成的体验时,显示出清楚且突然的视觉变化。
从以第一沉浸级别显示第一计算机生成的体验到以第二沉浸级别显示第一计算机生成的体验的转变(在对应于第一标准被满足的时间的时间点进行的离散转变)向用户提供了改进的视觉反馈(例如,计算机系统已经从第一沉浸级别转变到第二沉浸级别的改进的视觉反馈、已经满足第一标准的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,以第一沉浸级别显示的第一计算机生成的体验描绘了第一虚拟环境,并且以第二沉浸级别显示的第一计算机生成的体验描绘了具有比第一虚拟环境更大的虚拟深度的第二虚拟环境(例如,第一虚拟环境具有平面二维表面上的虚拟内容;并且第二虚拟环境具有从第一用户的视点来看处于不同深度的虚拟内容)。以描绘第一虚拟环境的第一沉浸级别显示第一计算机生成的体验以及以描绘具有比第一虚拟环境更多虚拟深度的第二虚拟环境的第二沉浸级别显示第一计算机生成的体验向用户提供了改进的视觉反馈(例如,关于计算机系统是正在显示一沉浸级别第还是第二沉浸级别的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,以第一沉浸级别显示第一计算机生成的体验包括显示具有至少第一视觉特性(例如,第一虚拟对象的移动、照明的变化等)的第一计算机生成的体验,该至少第一视觉特性根据在以第一沉浸级别显示第一计算机生成的体验时接收的生物计量数据的变化而变化,并且以第二沉浸级别显示第一计算机生成的体验包括显示具有至少第二视觉特性(例如,第一虚拟对象的移动、照明的变化等)的第一计算机生成的体验,该至少第二视觉特性根据在以第二沉浸级别显示第一计算机生成的体验时接收的生物计量数据的变化而变化。例如,在一些实施方案中,以第一沉浸级别显示的第一计算机生成的体验示出了进入虚拟森林夜景的视口,虚拟树木被黑暗的虚拟天空上的月亮和星星照亮。根据从第一用户接收的生物计量数据的变化,诸如呼吸速率的降低和/或血氧水平的增加,虚拟森林中示出的光照水平相应地增加,并且虚拟黑暗天空逐渐变亮和变红,模拟黎明的到来。当生物计量数据满足第一标准时,以第二沉浸级别显示的第一计算机生成的体验示出用户视场中被虚拟森林占据的扩展区域(例如,虚拟森林围绕用户扩展,并且围绕对应于三维环境的当前显示视图的视点),并且虚拟场景中的黎明破晓,虚拟地平线上可以看到太阳的边缘。根据从第一用户接收的生物计量数据的进一步变化,诸如呼吸速率的持续降低(例如,下降到阈值水平)和/或血氧水平的持续增加(例如,达到阈值水平),虚拟森林中示出的光照水平相应地持续增加,并且虚拟天空逐渐变亮,模拟白天的到来。在另一示例中,以第一沉浸级别显示的第一计算机生成的体验示出了在增强现实环境中与第一用户前方的第一物理墙表面的定位相对应的位置处具有汹涌海浪的虚拟海洋视图。根据从第一用户接收的生物计量数据的变化,诸如呼吸速率的降低和/或心率的降低,听到海浪声的频率和/或幅度相应地降低。当生物计量数据满足第一标准时,以第二沉浸级别显示的第一计算机生成的体验示出了用户视场中被海洋场景占据的扩展区域(例如,虚拟海洋视图也延伸到与两个侧壁的定位相对应的位置)。根据从第一用户接收的生物计量数据的进一步变化,例如呼吸速率的持续降低(例如,下降到阈值级别)和/或心跳速率的持续降低(例如,下降到阈值级别),听到虚拟海浪声的频率和/或幅度相应地持续降低。
以第一沉浸级别显示第一计算机生成的体验,包括显示具有至少第一视觉特性的第一计算机生成的体验,该至少第一视觉特性根据在以第一沉浸级别显示第一计算机生成的体验时接收的生物计量数据的变化而变化,并且以第二沉浸级别显示第一计算机生成的体验包括显示具有至少第二视觉特性的第一计算机生成的体验,该至少第二视觉特性根据在以第二沉浸级别显示第一计算机生成的体验时接收的生物计量数据的变化而变化,向用户提供了改进的视觉反馈(例如,关于计算机系统是正在显示第一沉浸级别还是第二沉浸级别的改进的视觉反馈、关于对应于第一用户的生物计量数据的变化的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于接收到对应于第一用户(例如,对应于第一用户(例如,图7G-7J中的用户7002、另一用户等)在第一时间点或时间段处的生理状态)的生物计量数据(例如,周期性接收的数据、或连续接收的数据等)(例如,图7G-7J中的生物计量数据7312、其他生物计量数据等),并且根据确定对应于第一用户(例如,对应于第一用户在第一时间点或时间段处的生理状态)的生物计量数据(例如,最近接收的生物计量数据、在预设持续时间的最近时间段内接收的生物计量数据等)满足第一标准(例如,如图7J所示,生物计量数据满足指示符7326所指示的阈值),计算机系统将音频输出模式从第一音频输出模式改变为第二音频输出模式(例如,从立体声改变为环绕声、从头部锁定音频改变为空间音频等),其中第一音频输出模式具有比第二音频输出模式少的计算控制变量(例如,每个声源的音量、每个声源的相位、声源的数量、可用声源的激活顺序等)。
根据确定对应于第一用户的生物计量数据满足第一标准,将音频输出模式从第一音频输出模式改变为具有比第一音频输出模式更多的计算控制变量的第二音频输出模式,向用户提供了改进的音频反馈(例如,计算机系统已从第一沉浸级别转变到第二沉浸级别的改进的音频反馈、对应于第一用户的生物计量数据已满足第一标准的改进的音频反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图10中的操作进行描述的具体次序仅仅是示例,并非旨在表明所述次序是可以执行这些操作的唯一次序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当指出的是,本文相对于本文所述的其他方法(例如,方法8000、9000、11000和12000)所述的其他过程的细节同样以类似的方式适用于上文相对于图10所述的方法10000。例如,上文参考方法10000所述的手势、注视输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象、和/或动画任选地具有本文参考本文所述的其他方法(例如,方法8000、9000、11000和12000)所述的手势、注释输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象和/或动画的特征中的一个或多个特征。为了简明起见,此处不再重复这些细节。
图11是根据一些实施方案的当显示包括物理环境的表示的环境的视图时聚合由计算机系统提供的多种类型的感官调整的效果的方法的流程图。
在一些实施方案中,方法11000在计算机系统(例如,图1中的计算机系统101)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏、投影仪等)和一个或多个相机(例如,向下指向用户的手部的相机(例如,颜色传感器、红外传感器和其他深度感测相机)或从用户头部向前指向的相机)。在一些实施方案中,方法11000通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法11000中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法11000在与显示生成部件(例如,图1、图3和图4中的显示生成部件120、显示生成部件7100等)(例如,平视显示器、HMD、显示器、触摸屏、投影仪等)和一个或多个输入设备(例如,相机、控制器、触敏表面、操纵杆、按钮等)通信的计算机系统(例如,图1中的计算机系统101)处执行。在一些实施方案中,计算机系统是集成设备,该集成设备具有封闭在与显示生成部件相同的外壳中的一个或多个处理器和存储器以及一个或多个输入设备中的至少一些输入设备。在一些实施方案中,计算机系统包括计算部件,该计算部件包括一个或多个处理器以及与显示生成部件分离的存储器以及/或者一个或多个输入设备。在一些实施方案中,显示生成部件以及一个或多个输入设备被集成并封装在同一外壳中。
计算机系统显示(11002)物理环境的第一视图(例如,图7K中的视图7340,或另一视图等),其中物理环境的第一视图包括物理环境的第一部分的第一表示(例如,图7K中的表示7350'、7348'等)(例如,第一表示是物理环境的第一部分的常规颜色或B/W相机视图、通过显示生成部件的透传部分的物理环境的视图等)(例如,第一表示是在没有一种或多种类型的计算机生成的感官增强的情况下显示的基线表示)。当显示物理环境的第一视图时,计算机系统检测到(11004)第一用户输入(例如,对第一用户界面控件的选择、第一硬件按钮以第一方式的激活、第一预定义手势输入的执行、第一预设语音命令的发声等),该第一用户输入对应于激活两种或更多种类型的计算机生成的感官调整(例如,双目视力、热视力、显微视力等)中的第一类型的计算机生成的感官调整(例如,双目视力、热视力、显微视力等)的请求。响应于检测到第一用户输入,计算机系统显示(11006)物理环境的第二视图(例如,图7L中示出的第二视图7361,或另一视图等),其中物理环境的第二视图包括物理环境的第一部分的第二表示(例如,图7L中的表示7350"、7348"等),其中物理环境的第一部分的第二表示具有第一显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等),该第一显示属性根据第一类型的计算机生成的感官调整(例如,双目视力、显微视力、热视力、夜视力等)相对于物理环境的第一部分的第一表示来调整。在一些实施方案中,物理环境的第一部分的表示相对于基线表示在大小、分辨率、焦距、在表示中捕获的主题的放大率以及颜色分布和光强度的方面发生了变化,这是由于通过所应用的感官调整增强和/或抑制了光谱和/或色谱的不同部分。在图7K-7L中所示的示例中,与视图7340中的表示7350'和7348'相比,表示7350"和7348"被放大和/或移动得更靠近视图7361的视点。当显示物理环境的第二视图(例如,图7L中的视图7361或另一视图等)时,计算机系统检测到(11008)第二用户输入(例如,对第二用户界面控件的选择、第一硬件按钮以第二方式的激活、第二硬件按钮以第一方式的激活、第二预定义手势输入的执行、第一预设语音命令的发声等),该第二用户输入对应于激活两种或更多种类型的计算机生成的感官调整中的第二类型的计算机生成的感官调整的请求,其中该第二类型的计算机生成的感官调整不同于该第一类型的计算机生成的感官调整。响应于检测到第二用户输入,计算机系统显示(11010)物理环境的第三视图(例如,视图7364,或另一视图等),其中物理环境的第三视图包括物理环境的第一部分的第三表示(例如,表示7350'"和7348'"等),其中物理环境的第一部分的第三表示具有第一显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等)和第二显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等),该第一显示属性根据第一类型的计算机生成的感官调整(例如,双目视力、显微视力、夜视力、热视力等)相对于物理环境的第一部分的第一表示来调整,并且该第二显示属性根据第二类型的计算机生成的感官调整(例如,双目视力、显微视力、夜视力、热视力、滤色器等)来调整(例如,在第一类型的感官增强和第二类型的感官增强的一些组合中,第二显示属性在第一表示和第二表示中具有相同的值;在第一类型的感官增强和第二类型的感官增强的一些组合中,第二显示属性在第一表示和第二表示中具有不同的值)。在图7K-7M所示的示例中,与视图7340中的表示7350'和7348'相比,表示7350"和7348"被放大和/或移动得更靠近视图7361的视点;并且与表示7350"和7348"相比,表示7350"和7348"在颜色和强度上发生了变化。
在一些实施方案中,当显示物理环境的第三视图(例如,图7M中的视图7364,或另一视图等)时,计算机系统检测到第三用户输入,该第三用户输入对应于激活两种或更多种类型的计算机生成的感官调整中的第三类型的计算机生成的感官调整(例如,对应于图7M中的示能表示7358的调整功能、尚未被激活的另一调整功能等)(例如,双目视力、显微视力、夜视力、热视力、滤色器等)的请求,其中第三类型的计算机生成的感官调整不同于第一类型的计算机生成的感官调整和第二类型的计算机生成的感官调整,并且响应于检测到第三用户输入,计算机系统显示物理环境的第四视图,其中物理环境的第四视图包括物理环境的第一部分的第四表示,其中物理环境的第一部分的第四表示具有第一显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等)、第二显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等)和第三显示属性(例如,分辨率、缩放级别、放大率、颜色分布、强度分布、焦距等),该第一显示属性根据第一类型的计算机生成的感官调整(例如,双目视力、显微视力、夜视力、热视力等)相对于物理环境的第一部分的第一表示来调整,该第二显示属性根据第二类型的计算机生成的感官调整(例如,双目视力、显微视力、夜视力、热视力、滤色器等)来调整,并且该第三显示属性根据第三类型的计算机生成的感官调整(例如,双目视力、显微视力、夜视力、热视力、滤色器等)来调整。
响应于检测到对应于激活两种或更多种类型的计算机生成的感官调整中的第三类型的计算机生成的感官调整的请求的第三用户输入,显示物理环境的第四视图,包括具有第一显示属性的物理环境第一部分的第四表示,该第一显示属性根据第一类型的计算机生成的感官调整相对于物理环境第一部分的第一表示来调整,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于选择和/或激活第一、第二或第三类型的计算机生成的感官调整的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力(例如,在图7K-7L中示出)(例如,双目视力、单目视力、望远视力等)(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力。在一些实施方案中,显示物理环境的第一表示包括在第一虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的该虚拟位置的对应大小和显示分辨率)远处物理对象的表示,该第一虚拟位置对应于该远处物理对象在该物理环境中的定位。例如,当远处物理对象出现在物理环境中时,该远处物理对象的第一表示也出现在物理环境的第一表示中的远处。显示物理环境的第二表示包括在比第一虚拟位置更靠近用户的视点或虚拟位置的第二虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的第二虚拟位置的对应大小和显示分辨率)远处物理对象的表示。例如,远处物理对象的第二表示在物理环境的第二表示中显得不那么远,并且占据了物理环境的第二表示的用户视场的较大部分。显示物理环境的第三表示包括在第三虚拟位置处显示远处物理对象的表示,该第三虚拟位置任选地比第二虚拟位置更靠近用户的视点或虚拟位置,并且相对于远处物理对象的第二表示的大小具有正放大率(例如,100倍、20倍等)(例如,远处物理对象看起来在第二虚拟位置或第三虚拟位置处被放大)。在示例性使用场景中,显示生成部件首先显示第一距离(例如,30米、50米等)外的树的相机视图;然后在望远镜视图被激活的情况下,显示生成部件在与对应于物理环境的当前显示表示的视点相距第二距离(例如,5米、10米等)的虚拟位置处显示树的望远镜视图;在望远镜视图和显微镜视图都被激活的情况下,显示生成部件在当前虚拟位置(例如,5米、10米远等)处显示树的至少一部分的放大视图(例如,放大30倍、放大100倍等)。在一些实施方案中,物理对象的相同部分的相机视图、望远镜视图和显微镜视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看远处物理对象的模拟望远视力而相对于物理环境的第一部分的第一表示来调整的第一显示属性,以及响应于检测到第二用户输入,显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于放大附近物理对象的模拟显微视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看远处对象的模拟望远视力和放大附近物理对象的模拟显微视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力(例如,在7K-7L中示出)(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等)。在一些实施方案中,显示物理环境的第一表示包括在第一虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的该虚拟位置的对应大小和显示分辨率)远处物理对象的表示,该第一虚拟位置对应于该远处物理对象在低光条件下在该物理环境中的定位。例如,当远处物理对象出现在物理环境中时,远处物理对象的第一表示也出现在物理环境的第一表示中的远处,并且物理环境的第一表示看起来很暗,并且由于物理环境的低光条件,对象不能清楚地辨别。显示物理环境的第二表示包括在比第一虚拟位置更靠近用户的视点或虚拟位置的第二虚拟位置处(但仍处于低光条件下)显示(例如,以针对经由第一显示生成部件显示的三维环境中的第二虚拟位置的对应大小和显示分辨率)远处物理对象的表示。例如,远处物理对象的第二表示在物理环境的第二表示中看起来不那么远,并且占据了物理环境的第二表示的用户视场的较大部分,但是物理环境的第二表示仍然看起来很暗,并且由于物理环境的低光条件,对象不能被清楚地辨别。显示物理环境的第三表示包括以增强的亮度和/或对比度在第二虚拟位置处显示远处物理对象的表示(例如,利用来自低光相机的图像来增强,或者通过组合多个照片和/或使用机器学习来数字地增强等)。在示例性使用场景中,显示生成部件首先显示在夜间第一位移(例如30米、50米等)外的树的相机视图;然后在望远镜视图被激活的情况下,显示生成部件在与对应于物理环境的当前显示表示的视点相距第二距离(例如,5米、10米等)的虚拟位置处显示树的望远镜视图,但是整个场景由于夜晚的低光条件仍然是暗的;在望远镜视图和夜视力都被激活的情况下,显示生成部件在当前虚拟位置(例如,5米、10米远等)处显示树的亮化且高对比度的图像。在一些实施方案中,物理对象的相同部分的相机视图、望远镜视图和夜视力视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看远处对象的模拟望远视力和在低光条件下观看物理对象的模拟夜视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力(例如,在图7K-7L中示出)(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,在图7L-7M中示出)(例如,具有对温度变化的高灵敏度、根据温度和/或热辐射变化呈现颜色和/或强度变化等)。在一些实施方案中,显示物理环境的第一表示包括在第一虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的该虚拟位置的对应大小和显示分辨率)远处物理对象的表示,该第一虚拟位置对应于该远处物理对象在该物理环境中的定位。例如,当远处物理对象出现在物理环境中时,该远处物理对象的第一表示也出现在物理环境的第一表示中的远处。显示物理环境的第二表示包括在比第一虚拟位置更靠近用户的视点或虚拟位置的第二虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的第二虚拟位置的对应大小和显示分辨率)远处物理对象的表示。例如,远处物理对象的第二表示在物理环境的第二表示中显得不那么远,并且占据了物理环境的第二表示的用户视场的较大部分。显示物理环境的第三表示包括在第二虚拟位置处显示远处物理对象的表示及其热辐射分布图或温度图。在示例性使用场景中,显示生成部件首先显示第一距离(例如,30米、50米等)外的树的相机视图;然后在望远镜视图被激活的情况下,显示生成部件在与对应于物理环境的当前显示表示的视点相距第二距离(例如,5米、10米等)的虚拟位置处显示树的望远镜视图;在望远镜视图和热视力都被激活的情况下,显示生成部件在当前虚拟位置(例如,5米、10米远等)处显示树的热图,示出隐藏在树叶中的松鼠的明亮轮廓。在一些实施方案中,物理对象的相同部分的相机视图、望远镜视图和热视力视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看远处对象的模拟望远视力和观看具有不同热辐射分布的物理对象的模拟热视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力(例如,在图7K-7L中示出)(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二类型的计算机生成的感官调整包括用滤波器(例如,滤色器、光频率滤波器、强度滤波器、运动滤波器等)修改物理对象的视图。在一些实施方案中,显示物理环境的第一表示包括在第一虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的该虚拟位置的对应大小和显示分辨率)远处物理对象的表示,该第一虚拟位置对应于该远处物理对象在该物理环境中的定位。例如,当远处物理对象出现在物理环境中时,该远处物理对象的第一表示也出现在物理环境的第一表示中的远处。显示物理环境的第二表示包括在比第一虚拟位置更靠近用户的视点或虚拟位置的第二虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的第二虚拟位置的对应大小和显示分辨率)远处物理对象的表示。例如,远处物理对象的第二表示在物理环境的第二表示中显得不那么远,并且占据了物理环境的第二表示的用户视场的较大部分。显示物理环境的第三表示包括在第二虚拟位置处显示远处物理对象的表示,其中一些颜色和/或强度等被过滤掉。在一些实施方案中,当应用运动过滤器时,物理环境的第二表示的不具有运动的部分被过滤掉,从而突出显示具有运动的部分(例如,叶子、动物、人等的移动)。在示例性使用场景中,显示生成部件首先显示第一距离(例如,30米、50米等)处的树的相机视图;然后在望远镜视图被激活的情况下,显示生成部件在与对应于物理环境的当前显示表示的视点相距第二距离(例如,5米、10米等)的虚拟位置处显示树的望远镜视图;在望远镜视图和颜色/强度/运动滤波器都被激活的情况下,显示生成部件在当前虚拟位置(例如,5米、10米远等)处显示经滤波的树的图像,在树的暗淡去饱和图像(应用了滤色器)上示出亮橙色帽子和安全背心,或者在当前虚拟位置(例如,5米、10米远等)处显示经滤波的树的图像,示出在树的暗淡去饱和图像上移动的伪装昆虫的视觉突出显示。在一些实施方案中,物理对象的相同部分的相机视图和望远镜视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据修改物理对象视图的滤波器相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看远处对象的模拟望远视力和修改物理对象视图的滤波器之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力(例如,在图7K-7L中示出)(例如,减小对象的焦距,使得它们看起来更靠近用户),并且第二类型的计算机生成的感官调整包括针对与物理环境中的物理对象的子集(例如,所有产生声音的物理对象的所选子集,在当前视场中心的物理对象等)相对应的声音的选择性音频增强(例如,增强音量、选择性地增强/抑制某些声音频率等)。在一些实施方案中,显示物理环境的第一表示包括在第一虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的该虚拟位置的对应大小和显示分辨率)远处物理对象的表示,该第一虚拟位置对应于该远处物理对象在该物理环境中的定位。例如,当远处物理对象出现在物理环境中时,该远处物理对象的第一表示也出现在物理环境的第一表示中的远处。显示物理环境的第二表示包括在比第一虚拟位置更靠近用户的视点或虚拟位置的第二虚拟位置处显示(例如,以针对经由第一显示生成部件显示的三维环境中的第二虚拟位置的对应大小和显示分辨率)远处物理对象的表示。例如,远处物理对象的第二表示在物理环境的第二表示中显得不那么远,并且占据了物理环境的第二表示的用户视场的较大部分。显示物理环境的第三表示包括在第二虚拟位置处显示远处物理对象的表示,其中物理环境中的局部声源的视觉标识位于远处物理对象的表示上或附近,其中与来自局部声源的声音相对应的增强音频输出与物理环境的第三表示的显示一起输出。在示例性使用场景中,显示生成部件首先显示在夜间第一距离(例如30米、50米等)外的树的相机视图;然后在望远镜视图被激活的情况下,显示生成部件在与对应于物理环境的当前显示表示的视点相距第二距离(例如,5米、10米等)的虚拟位置处显示树的望远镜视图;并且在望远镜视图和增强听力都被激活的情况下,显示生成部件在当前虚拟位置(例如,5米远、3米远等)处显示覆盖在树的图像上的圆圈,指示鸟鸣在树中的位置。任选地,利用空间音频输出模式,在与视点相距第二距离(例如,5米、10米等)处,来自鸟的局部啁啾声连同三维环境的视图一起被回放。在一些实施方案中,相机视图、望远镜视图以及物理对象的相同部分的局部声音任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看远处物理对象的模拟望远视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看远处对象的模拟望远视力和针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示物理环境的第三表示(例如,图7M中所示的表示,或另一表示等)的同时,计算机系统输出对应于物理环境的在第三表示中可见的物理环境的第一部分(例如,图7M中的部分7366"和7368"或另一部分等)的声音,其中这些声音相对于来自物理环境的第一部分之外的源的声音被选择性地增强(例如,增加音量,修改一些所选频率的幅度等)。在示例性场景中,两棵树连同从整个物理环境捕获的声音的音频输出在物理环境的第一表示中可见;当利用望远镜视图观看第一树并且增强听力被激活时,第一树中的鸟啁啾声相对于第二树中松鼠沙沙的声音被增强(例如,变得更响亮),并且利用空间音频播放以具有与第一树的虚拟位置相对应的虚拟位置。在显示物理环境的第三表示的同时,输出对应于物理环境的在物理环境的第二表示中可见的第一部分的声音向用户提供了改进的音频反馈(例如,关于物理环境的第一部分的改进的音频反馈),其中这些声音相对于来自物理环境的第一部分之外的源的声音被选择性地增强。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,在显示物理环境的第三表示的同时,计算机系统显示对应于来自物理环境的在物理环境的第二表示和第三表示两者中可见的一部分(例如,图7M中的部分7366"和7368",或另一部分等)的语音的文本输出,其中该语音相对于来自物理环境的第一部分之外的源的声音被选择性地增强。在示例性场景中,树和房子连同从整个物理环境捕获的声音的音频输出在物理环境的第一表示中可见;当利用望远镜视图观看房子并且增强听力被激活时,来自房子的语音声音相对于树上的鸟啁啾声被增强(例如,变得更响亮、更清晰等),并且显示了文本输出,诸如字幕、转录、翻译。在一些实施方案中,用对应的音频翻译来替换语音声音。在显示物理环境的第三表示的同时,显示对应于来自物理环境的在物理环境的第二表示和第三表示两者中可见的第一部分的语音的文本输出向用户提供了改进的视觉反馈(例如,关于来自物理环境的第一部分的语音的改进的视觉反馈),其中该语音相对于来自物理环境的第一部分之外的源的声音被选择性地增强。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力,并且第二类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,在图7L-7M中示出)(例如,对温度变化具有高灵敏度,根据温度和/或热辐射变化呈现颜色和/或强度变化等)。在示例性使用场景中,显示生成部件首先显示移动电话中的微芯片的相机视图;然后在显微镜视图被激活的情况下,显示生成部件显示微芯片的放大视图;当显微镜视图和热视力都被激活时,显示生成部件以当前放大水平显示微芯片的热图,示出微芯片上相对于低温区域的高温区域。在一些实施方案中,物理对象的相同部分的相机视图、显微镜视图和热视力视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于放大附近物理对象的模拟显微视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于放大附近物理对象的模拟显微视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在放大附近物理对象的模拟显微视力和观看具有不同热辐射分布的物理对象的模拟热视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度、在视觉上增强对象的亮度、放大亮度的小变化等),并且第二类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力(例如,在图7K-7L中示出)(例如,减小对象的焦距,使得它们看起来更靠近用户)。在示例性使用场景中,显示生成部件首先显示在晚上第一距离(例如,30米、60米等)外的树的相机视图,并且树的细节由于低光条件而几乎不可见;然后在夜视力被激活的情况下,显示生成部件显示相机视图的亮化且高对比度的图像,示出在第一距离(例如,30米、60米等)外的树;在夜视力和望远镜视图都被激活的情况下,显示生成部件在距离5米远的虚拟位置处显示该树的亮化且高对比度的图像。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于观看远处物理对象的模拟望远视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,在用于在低光条件下观看物理对象的模拟夜视力和用于观看远处对象的模拟望远视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度、在视觉上增强对象的亮度、放大亮度的小变化等),并且第二类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力。在示例性使用场景中,显示生成部件首先显示在暗室中的桌面的相机视图。房间的细节由于低光条件而几乎不可见;然后在夜视力被激活的情况下,显示生成部件显示房间的变亮且高对比度的图像,示出桌面上的一些硬币;在夜视力和显微镜视图都被激活的情况下,显示生成部件显示被放大的硬币的亮化且高对比度的图像,示出硬币的细节。在一些实施方案中,硬币的显微镜图像任选地在与夜视力图像的时间不同的时间和/或从桌面的相机视图捕获。来自不同类型传感器和相机的信息被组合以生成物理环境的第三表示。在一些实施方案中,从物理环境的第一表示和/或第二表示提取的信息(例如,硬币的大小、关于硬币的图像的特性等)被用作获得(例如,从在线源、图像数据库等)关于物理环境的细节的附加信息(例如,硬币的类型、硬币的年份、硬币的材料等)以生成物理环境的第三表示(例如,示出未被第一表示和第二表示捕获的硬币的更多细节)的基础。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于在低光条件下观看物理对象的模拟夜视力而相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于放大附近物理对象的模拟显微视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,在用于在低光条件下观看物理对象的模拟夜视力和用于放大附近物理对象的模拟显微视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度、在视觉上增强对象的亮度、放大亮度的小变化等),并且第二类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,在图7L-7M中示出)(例如,对温度变化具有高灵敏度、根据温度和/或热辐射变化呈现颜色和/或强度变化等)。在示例性使用场景中,显示生成部件首先显示在晚上的树的相机视图。树的细节由于低光条件而几乎不可见;然后在夜视力被激活的情况下,显示生成部件显示树的亮化且高对比度的图像,示出两个巢;在夜视力和热视力都被激活的情况下,显示生成部件显示这些巢的亮化且高对比度的图像,其中一个巢具有与另一个巢不同的颜色和/或光强度,从而指示一个巢最近被动物居住过而另一个没有。在一些实施方案中,物理对象的相同部分的相机视图、夜视力视图和热视力视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,在用于在低光条件下观看物理对象的模拟夜视力和用于观看具有不同热辐射分布的物理对象的模拟热视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度、在视觉上增强对象的亮度、放大亮度的小变化等),并且第二类型的计算机生成的感官调整包括并且第二类型的计算机生成的感官调整包括针对与物理环境中的物理对象的子集(例如,所有产生声音的物理对象的所选子集,在当前视场中心的物理对象等)相对应的声音的选择性音频增强(例如,增强音量、选择性地增强/抑制某些声音频率等)。在一些实施方案中,显示物理环境的第一表示包括显示在低光条件下物理对象的表示。显示物理环境的第二表示包括显示具有从整个房间捕获的声音的正常音频输出的暗室的亮化且高对比度的图像。显示物理环境的第三表示包括显示暗室的相同亮化且高对比度的图像,该图像具有在图像中识别和视觉上突出显示的局部声源,并且具有与来自局部声源的声音相对应的增强音频输出。在示例性使用场景中,显示生成部件首先显示没有可辨别的声音的暗室的相机视图;然后在夜视力被激活的情况下,显示生成部件显示暗室的增强的亮度和高对比度视图,示出房间中的家具和器具;在夜视力和增强听力都被激活的情况下,显示生成部件显示覆盖在暗室的亮化且高对比度的图像上的圆圈,指示能够听到低频振动声音的冰箱的位置。任选地,利用空间音频输出模式并且利用冰箱的振动频率的增强,来自冰箱的局部声音被增强并且连同房间的夜视力视图一起被回放。在一些实施方案中,相机视图、望远镜视图以及物理对象的相同部分的局部声音任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。在一些实施方案中,检测到选择声源的用户输入(例如,在夜视力视图中对冰箱的轻击,选择另一声源的另一输入等),针对该声源请求增强的音频。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,在用于在低光条件下观看物理对象的模拟夜视力和针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,在图7L-7M中示出)(例如,对温度变化具有高灵敏度、根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力(例如,在图7K-7L中示出)(例如,减小对象的焦距,使得它们看起来更靠近用户)。在示例性使用场景中,显示生成部件首先显示森林的相机视图;然后在热视力被激活的情况下,热视力视图中的森林的一个区域看起来具有比热视力视图中的森林的其他区域更高的温度,并且具有更高温度的森林的区域在热视力视图中处于第一距离(例如50米、100米等)之外。当热视力视图和双目视图都被激活时,显示生成部件在与对应于物理环境的当前显示表示的视点相距第二距离(例如,5米、10米等)的虚拟位置处显示具有更高温度的区域的望远镜视图。在第二距离(例如,5米、10米等)处的虚拟位置处显示的具有更高温度的区域的热图示出了闷烧的枯树树干的表示。在一些实施方案中,物理对象的相同部分的相机视图、望远镜视图和热视力视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于观看远处物理对象的模拟望远视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看具有不同热辐射分布的物理对象的模拟热视力和用于观看远处对象的模拟望远视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,在图7L-7M中示出)(例如,对温度变化具有高灵敏度、根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力。在示例性使用场景中,显示生成部件首先显示移动设备的内部结构的相机视图;然后,在热视力被激活的情况下,移动设备的内部结构的一个区域看起来具有比热视力视图中的结构的其他区域更高的温度,并且具有更高温度的结构的区域以修改的颜色示出。当热视图和显微镜视图都被激活时,显示生成部件显示温度较高区域的放大视图。在一些实施方案中,物理对象的相同部分的相机视图、望远镜视图和热视力视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于放大附近物理对象的模拟显微视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看具有不同热辐射分布的物理对象的模拟热视力和放大附近物理对象的之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,在图7L-7M中示出)(例如,对温度变化具有高灵敏度、根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力(例如,在低光条件下具有高灵敏度,在视觉上增强对象的亮度,放大亮度的小变化等)。在示例性使用场景中,显示生成部件首先显示在晚上的房子的相机视图。房子的细节由于低光条件而几乎不可见;然后,在热视力被激活的情况下,显示生成部件显示热视力视图的一个区域看起来具有比热视力视图的其他部分更高的温度,但不清楚房子的哪个结构部分承载高温区域;在夜视力和热视力都被激活的情况下,显示生成部件显示房子的亮化且高对比度的图像,示出沿房子的前侧向下延伸的排水管内部的高温区域。在一些实施方案中,物理对象的相同部分的相机视图、夜视力视图和热视力视图任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据用于在低光条件下观看物理对象的模拟夜视力相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看具有不同热辐射分布的物理对象的模拟热视力和在低光条件下观看物理对象的模拟夜视力之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力(例如,在图7L-7M中示出)(例如,对温度变化具有高灵敏度、根据温度和/或热辐射变化呈现颜色和/或强度变化等),并且第二类型的计算机生成的感官调整包括字段与物理环境中的物理对象的子集(例如,所有产生声音的物理对象的所选子集,在当前视场中心的物理对象等)相对应的声音的选择性音频增强(例如,增强音量、选择性地增强/抑制某些声音频率等)。在示例性使用场景中,显示生成部件首先显示在晚上的房子的相机视图。房子的细节由于低光条件而几乎不可见;然后,在热视力被激活的情况下,显示生成部件显示热视力视图的一个区域看起来具有比热视力视图的其他部分更高的温度,但不清楚房子的哪个结构部分承载高温区域;在夜视力和热视力都被激活的情况下,显示生成部件显示房子的亮化且高对比度的图像,示出沿房子的前侧向下延伸的排水管内部的高温区域;并且在夜视力和增强听力都被激活的情况下,显示生成部件显示覆盖在高温区域上的圆圈,指示声源(例如,打鼾啮齿动物的巢)的位置。任选地,利用空间音频输出模式并且利用来自声源的声音的增强,来自高亮声源的局部声音被增强并且连同房间的热视力视图一起被回放。在一些实施方案中,相机视图、热视力视图以及物理对象的相同部分的局部声音任选地由不同相机和/或传感器捕获,或者任选地利用计算技术增强。在一些实施方案中,检测到选择声源的用户输入(例如,在夜视力视图中对热点的轻击),针对该声源请求增强的音频。
响应于检测到第一用户输入,显示包括物理环境的第一部分的第二表示的物理环境的第二视图,其中物理环境的第一部分的第二表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,以及显示包括物理环境的第一部分的第三表示的物理环境的第三视图,其中物理环境的第一部分的第三表示具有根据用于观看具有不同热辐射分布的物理对象的模拟热视力相对于物理环境的第一部分的第一表示调整的第一显示属性,和根据针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整相对于物理环境的第二表示调整的第二显示属性,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于在观看具有不同热辐射分布的物理对象的模拟热视力和针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整之间选择或切换的附加显示的控件)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图11中的操作进行描述的具体次序仅仅是示例,并非旨在表明所述次序是可以执行这些操作的唯一次序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当注意,本文相对于本文所述的其他方法(例如,方法8000、9000、10000和12000)所述的其他过程的细节同样以类似的方式适用于上文相对于图11所述的方法11000。例如,上文参考方法11000所述的手势、注视输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象、和/或动画任选地具有本文参考本文所述的其他方法(例如,方法8000、9000、10000和12000)所述的手势、注释输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象和/或动画的特征中的一个或多个特征。为了简明起见,此处不再重复这些细节。
图12是根据一些实施方案的根据确定三维环境的视图中的物理环境的该部分对应于相应类型锻炼而在三维环境的视图中选择性地显示对应于该相应类型锻炼的虚拟内容的方法的流程图。
在一些实施方案中,方法12000在计算机系统(例如,图1中的计算机系统101)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏、投影仪等)和一个或多个相机(例如,向下指向用户的手部的相机(例如,颜色传感器、红外传感器和其他深度感测相机)或从用户头部向前指向的相机)。在一些实施方案中,方法12000通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法12000中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法12000在与显示生成部件(例如,图1、图3和图4中的显示生成部件120、显示生成部件7100等)(例如,平视显示器、HMD、显示器、触摸屏、投影仪等)和一个或多个输入设备(例如,相机、控制器、触敏表面、操纵杆、按钮等)通信的计算机系统(例如,图1中的计算机系统101)处执行。在一些实施方案中,计算机系统是集成设备,该集成设备具有封闭在与显示生成部件相同的外壳中的一个或多个处理器和存储器以及一个或多个输入设备中的至少一些输入设备。在一些实施方案中,计算机系统包括计算部件,该计算部件包括一个或多个处理器以及与显示生成部件分离的存储器以及/或者一个或多个输入设备。在一些实施方案中,显示生成部件以及一个或多个输入设备被集成并封装在同一外壳中。
计算机系统显示(12002)三维环境(例如,图7N(A)中的场景105、另一物理环境等)的第一视图(例如,图7N(B)中的视图7405、另一视图等)(例如,不具有虚拟元素或具有最小虚拟元素的现实视图、具有用于控制计算机系统的基本功能的用户界面对象(例如,用于启动不同的计算机生成的体验的应用程序图标、显示设置、音频控件等)的现实视图、以低沉浸级别显示的增强现实视图(例如,显示用户界面对象(例如,应用程序启动板、欢迎用户界面、设置用户界面),这些用户界面对象不是特定应用程序体验(例如,健康应用、冥想应用、健身应用、游戏应用等)的一部分,并且总体上仅占据用户视场的一小部分(例如,小于10%、小于20%等),或者显示在受限的浮动窗口中等)等),其中三维环境的第一视图包括物理环境的第一部分的第一表示(例如,第一表示是围绕用户的物理环境的第一部分的常规相机视图,该常规相机视图与第一显示生成部件处于物理空间关系以经由第一显示生成部件观看三维环境、物理环境通过第一显示生成部件的透传部分的视图等)。当显示包括物理环境的第一部分的第一表示的三维环境的第一视图时,计算机系统检测到(12004)第一用户(例如,图7N-7P中的用户7002、另一用户等)从物理环境的第一定位(例如,图7N(A)中的用户7002的定位、另一定位等)到第二定位(例如,图7O(A)中的用户7002的定位、图7P(A)中的用户7002的定位、另一定位等)的移动(例如,第一用户在佩戴用作第一显示生成部件的HMD时作为整体的移动(例如,行走、攀爬等),携带具有用作第一显示生成部件的显示器或投影仪的移动设备的第一用户从物理环境中的第一定位到第二定位的移动(例如,使得移动设备和显示器移动的用户手臂的移动、携带具有显示器的移动设备的用户作为整体的移动等))。响应于检测(12006)到第一用户从第一定位到第二定位的移动,并且根据确定到第二定位的移动满足第一标准,其中该第一标准包括第二定位对应于与第一类型的锻炼相关联的定位(例如,该定位具有第一类型的锻炼装备(例如,赛艇机、楼梯、跑步机、攀岩墙、固定式自行车、重量训练机、拳击袋等),该定位是被设计用于(例如,具有适当的地面、垫子、泳池、墙壁、结构等)第一类型的锻炼(例如,游泳、划船、冥想、瑜伽、举重、踢腿、步行、跑步、跳舞、攀岩、打网球、打篮球、做体操等)的定位等)以便满足第一标准的第一要求,计算机系统显示(12008)三维环境的第二视图(例如,图7O(B)中的视图7408、或另一视图等)(例如,具有与对应于当前定位的第一特定计算机生成的体验相对应的更多虚拟元素的增强现实视图、示出对应于当前定位的第一计算机生成的体验的预览或开始的增强现实视图、以更高沉浸级别显示的增强现实视图等(例如,显示用户界面对象,这些用户界面对象作为第一特定应用程序体验的一部分(例如,虚拟徒步路线、虚拟风景、记分板、锻炼统计数据、改变锻炼参数的控件等),总体上占据用户的视场的相当大百分比(例如,大于60%、大于90%等)或在三维虚拟或增强现实环境中显示等)),其中三维环境的第二视图包括对应于第一类型的锻炼的第一组虚拟内容(例如,图7O(B)中的虚拟开放水域7406,其他虚拟内容等)(例如,用于跑步机锻炼程序的徒步路线风景、用于赛艇机锻炼的湖景、用于跆拳道的竞技场、用于攀岩锻炼的虚拟悬崖边、用于虚拟网球游戏的虚拟网球场、和/或用于第一类型的锻炼的用户界面控件、分数、统计等),其中第一组虚拟内容替换包括第二定位(例如,图7O(A)中的用户7002的定位,另一定位等)的物理环境的第二部分的第二表示的至少一部分(例如,对应于第一类型的锻炼的虚拟内容被显示为覆盖物理环境的该部分的表示、遮挡该表示的视图、替换该表示的显示等(例如,第一类型的锻炼的实际装备视图或被设计用于第一类型的锻炼的房间视图等))。在一些实施方案中,上述要求是满足第一标准的唯一要求。在一些实施方案中,上述要求是替代第一标准中的一个或多个其他要求的要求,这些其他要求不必全部满足以便满足第一标准。在一些实施方案中,上述要求是除第一标准中的一个或多个其他要求之外的要求,所有这些要求都必须满足才满足第一标准。在一些实施方案中,作为替代条件(或附加条件),用户必须执行与锻炼相关联的动作,例如开始特征运动(例如,开始在跑步机上行走、在楼梯踏步机上踏步、在椭圆机上前后移动腿、或开始在赛艇机上赛艇),或踏上/坐在一件锻炼装备上,以便满足第一标准。在方法12000中,响应于检测到第一用户从第一定位到第二定位的移动,根据确定到第二定位的移动满足不同于第一标准的第二标准,其中该第二标准包括第二定位对应于与第二类型的锻炼相关联的定位(例如,该定位具有第一类型的锻炼装备(例如,赛艇机、楼梯、跑步机、攀岩墙、重量训练机、拳击袋等),该定位是被设计用于(例如,具有适当的地面、垫子、泳池、墙壁、结构等)第一类型的锻炼(例如,游泳、赛艇、冥想、瑜伽、举重、踢腿、步行、跑步、跳舞、攀岩、打网球、打篮球、做体操等)的定位等)以便满足第二标准的第二要求,其中第二类型的锻炼不同于第一类型的锻炼,计算机系统显示(12010)三维环境的第三视图(例如,图7P(B)中的视图7410,或另一视图等)(例如,具有与对应于当前定位的第二特定计算机生成的体验相对应的更多虚拟元素的增强现实视图、示出对应于当前定位的第二计算机生成的体验的预览或开始的增强现实视图、以更高沉浸级别显示的增强现实视图等(例如,显示用户界面对象,这些用户界面对象作为第二特定应用程序体验的一部分(例如,虚拟徒步路线、虚拟风景、记分板、锻炼统计数据、改变锻炼参数的控件等),总体上占据用户的视场的相当大百分比(例如,大于60%、大于90%等)或在三维虚拟或增强现实环境中显示等)),其中三维环境的第三视图包括对应于第二类型的锻炼的第二组虚拟内容(例如,用于跑步机锻炼程序的徒步路线风景、用于赛艇机锻炼的湖景、用于跆拳道的竞技场、用于攀岩锻炼的虚拟悬崖边、用于虚拟网球游戏的虚拟网球场、和/或用于第二类型的锻炼的用户界面控件、分数、统计等),其中第二组虚拟内容不同于第一组虚拟内容(例如,虚拟徒步路线与虚拟湖景;虚拟网球场与虚拟拳击场;虚拟药草地与虚拟舞蹈舞台等),并且其中第二组虚拟内容(例如,图7P(B)中的虚拟徒步路线7412,其他虚拟内容等)替换包括第二定位(例如,图7P(A)中的用户7002的定位,另一定位等)的物理环境的第三部分的第三表示的至少一部分(例如,对应于第二类型的锻炼的虚拟内容被显示为覆盖物理环境的该部分的表示、遮挡该表示的视图、替换该表示的显示等(例如,第一类型的锻炼的实际装备视图或被设计用于第一类型的锻炼的房间视图等))。在一些实施方案中,上述要求是满足第一标准的唯一要求。在一些实施方案中,上述要求是替代第一标准中的一个或多个其他要求的要求,这些其他要求不必全部满足以便满足第一标准。在一些实施方案中,上述要求是除第一标准中的一个或多个其他要求之外的要求,所有这些要求都必须满足才满足第一标准。在一些实施方案中,作为替代条件(或附加条件),用户必须执行与锻炼相关联的动作,例如开始特征运动(例如,开始在跑步机上行走、在楼梯踏步机上踏步、在椭圆机上前后移动腿、或开始在赛艇机上赛艇),或踏上/坐在一件锻炼装备上,以便满足第一标准。这些特征在图7N-7P中示出,其中当用户7002从一个定位移动到另一定位时,根据用户7002的当前定位,计算机系统确定哪种类型的锻炼与用户7002的当前定位相关联。如果当前定位(例如,包括对象7404的定位)与第一类型的锻炼相关联,则计算机系统显示对应于第一类型的锻炼(例如,赛艇、划船等)的虚拟内容7408(图7O)。如果当前定位与第二类型的锻炼(例如,包括对象7402的定位)相关联,则计算机系统显示对应于第二类型的锻炼(例如,徒步、步行等)的虚拟内容7410(图7P)。
在一些实施方案中,计算机系统根据在第二定位处检测到第一类型的锻炼装备(例如,图7O中的对象7404、其他装备等)来确定该第二定位对应于与第一类型的锻炼相关联的定位(例如,在第二定位处检测到对应于第一类型的锻炼装备的RFID信号,在捕获第二定位的相机馈送中检测到第二定位处的第一类型的锻炼装备的图像,检测到第二定位与第一类型的锻炼装备的注册定位匹配等)(例如,第一类型的锻炼装备不同于第二类型的锻炼装备并且不对应于第二类型的锻炼)。计算机系统根据在第二定位处检测到第二类型的锻炼装备(例如,图7P中的对象7402、其他装备等)来确定该第二定位对应于与第二类型的锻炼相关联的定位(例如,在第二定位处检测到对应于第二类型的锻炼装备的RFID信号,在捕获第二定位的相机馈送中检测到第二定位处的第二类型的锻炼装备的图像,检测到第二定位是第二类型的锻炼装备的注册定位等),其中第二类型的锻炼装备不同于第一类型的锻炼装备并且不对应于第一类型的锻炼。例如,当第一用户走到跑步机前方的定位时,HMD显示虚拟徒步路线,该虚拟徒步路线遮挡了经由第一显示生成部件提供的用户视场内的跑步机的表示,替换该表示的显示,或覆盖该表示;并且当第一用户走到赛艇机前方的定位时,HMD显示虚拟湖景,该虚拟湖景遮挡了经由第一显示生成部件提供的用户视场内的赛艇机的表示,替换该表示的显示,或覆盖该表示。在一些实施方案中,当第一用户从一个定位移动到另一个定位时(例如,从体育馆的入口移动到跑步机的前方、从跑步机的前方移动到赛艇机的前方等)时,由第一显示生成部件提供的虚拟内容在现实视图、具有不同虚拟场景的不同增强现实视图和/或不同虚拟环境等之间自动改变(例如,无需使用用户界面元件或语音命令具体选择虚拟内容或节目的用户输入)。
根据确定到第二定位的移动满足要求第二定位对应于与第一类型的锻炼相关联的定位的第一标准,显示包括对应于第一类型的锻炼的第一组虚拟内容的三维环境的第二视图,其中计算机系统根据在第二定位处检测到第一类型的锻炼装备来确定该第二定位对应于与第一类型的锻炼相关联的定位,并且根据确定到第二定位的移动满足不同于第一标准的要求第二定位对应于与第二类型的锻炼相关联的定位的第二标准,显示包括不同于第一组虚拟内容的对应于第二类型的锻炼的第二组虚拟内容的三维环境的第三视图,其中计算机系统根据在第二定位处检测到第二类型的锻炼装备来确定该第二定位对应于与第二类型的锻炼相关联的定位,这种做法在已经满足一组条件时显示适当组虚拟内容,而无需另外的用户输入(例如,选择对应于第一或第二类型的锻炼的该组虚拟内容的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,响应于检测到第一用户在物理环境中从第一定位到第二定位的移动而显示三维环境的第二视图(例如,图7O中的视图7408或图7P中的视图7410、另一视图等)包括逐渐减少物理环境的第二部分的第二表示(例如,图7O中包括对象7404的场景105的一部分,和图7P中包括对象7402的场景105的一部分等)(例如,停止显示物理环境的第二部分的表示的越来越多的部分,淡出物理环境的第二部分的表示等),以及在三维环境的第二视图的其中物理环境的第二部分的第二表示已经逐渐减少的区域中逐渐增加对应于第一类型的锻炼的虚拟内容的显著性(例如,开始显示虚拟内容、增加虚拟内容的可见性、增加用户视场被虚拟内容占据的比例、增加虚拟内容的不透明度或亮度等)。在一些实施方案中,响应于检测到第一用户在物理环境中从第一定位到第二定位的移动而显示三维环境的第三视图包括:逐渐减少物理环境的第三部分的表示(例如,停止物理环境的第三部分的表示的越来越多的部分的显示、淡出物理环境的第三部分的表示等),并且在三维环境的第三视图的其中物理环境的第三部分的表示已经逐渐减少的区域中逐渐增加对应于第二类型的锻炼的虚拟内容(例如,显示、增加虚拟内容的可见性等)。例如,在一些实施方案中,当第一用户站在跑步机前方和/或踏在跑步机上时,随着物理环境的表示的越来越多部分逐渐消失和/或被对应于跑步机锻炼的虚拟内容替换(例如,徒步路线风景、虚拟湖泊周围的虚拟铺砌路径等),用户对物理环境的视图(例如,跑步机的硬件控制面板、用户前方的墙壁、同一房间中的其他锻炼机器等)逐渐改变。最终,当用户开始在跑步机上行走时,用户的整个视场都被山间小道或湖边小路的虚拟风景填满。在一些实施方案中,虚拟内容是虚拟三维环境,并且用户可以通过在跑步机上行走时转动他/她的头部来查看虚拟三维环境的不同部分。
逐渐减少物理环境的第二部分的第二表示,以及在三维环境的第二视图的其中物理环境的第二部分的第二表示已经逐渐减少的区域中逐渐增加对应于第一类型的锻炼的虚拟内容的显著性,向用户提供了改进的视觉反馈(例如,计算机系统已经检测到第一用户在物理环境中从第一定位到第二定位的移动的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,第一标准包括第一用户从第一定位到第二定位的移动之后是对应于第一类型的锻炼的第一预定义移动(例如,在图7O中坐在对象7404上、在图7P中踏在对象7402上)(例如,开始特征运动(例如,开始在跑步机上行走、在楼梯踏步机上踏步、在椭圆机上前后移动腿、或在赛艇机上开始赛艇等)、踏上/坐在对应于相应类型锻炼的一台锻炼装备上(例如,在赛艇机上或负重训练机上坐下等),进入对应于相应类型锻炼的就绪姿势(例如,以用于击打虚拟网球的就绪姿势站立,在地板上坐下以开始冥想或瑜伽等)等)以便满足第一标准的第三要求。在一些实施方案中,第二标准包括第一用户从第一定位到第二定位的移动之后是对应于第二类型锻炼的第二预定义移动的第四要求,其中该第二预定义移动不同于第一类型的移动。在一些实施方案中,第二预定义移动与第一预定义移动相同。例如,用于启动跆拳道的虚拟环境的预定义移动任选地与用于启动拳击的虚拟环境的预定义移动要求相同。例如,用于启动芭蕾的虚拟环境的预定义移动任选地不同于用于启动现代舞的虚拟环境的预定义移动要求。在一些实施方案中,计算机系统直到检测到对应于第一类型的锻炼的第一预定义移动才开始显示对应于第一类型的锻炼的虚拟内容,即使第一用户处于第二定位并且该第二定位是对应于第一类型的锻炼的定位。在一些实施方案中,当在第二定位处检测到第一用户并且该第二定位是与第一类型的锻炼相关联的定位时,计算机系统向第一用户显示提供第一预定义移动来触发与第一类型的锻炼相关联的虚拟内容的显示的视觉提示。
根据确定到第二定位的移动满足第一标准而显示包括对应于第一类型的锻炼的第一组虚拟内容的三维环境的第二视图,其中第一标准包括第一用户从第一定位到第二定位的移动之后是对应于第一类型的锻炼的第一预定义移动的第三要求,提供了附加的控件选项但不会使具有附加显示的控件(例如,用于显示对应于第一类型的锻炼的第一组虚拟内容的附加显示控件、用于放弃显示对应于第一类型的锻炼的第一组虚拟内容的附加显示控件等)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于检测到第一用户从第一定位到第二定位的移动并且根据确定到第二定位的移动满足不同于第一标准和第二标准的第三标准,其中第三标准包括第二定位对应于与不同于第一类型锻炼和第二类型锻炼的第三类型锻炼相关联的定位(例如,第二定位任选地与第一类型的锻炼和第三类型的锻炼两者相关联),并且第一用户从第一定位到第二定位的移动之后是对应于第三类型的锻炼的第三预定义移动(例如,开始特性运动(例如,开始在跑步机上行走、在楼梯踏步机上踏步、在椭圆机上前后移动腿、或在赛艇机上开始赛艇等),踏上/坐在对应于相应类型锻炼的一台锻炼装备上(例如,在赛艇机上或负重训练机上坐下等),进入对应于相应类型锻炼的就绪姿势(例如,以用于击打虚拟网球的就绪姿势站立,在地板上坐下以开始冥想或瑜伽等)等)以便满足第三标准的要求,其中第三预定义移动不同于第一预定义移动,计算机系统显示三维环境的第四视图(例如,具有与对应于当前定位的第三特定计算机生成的体验相对应的更多虚拟元素的增强现实视图、示出对应于当前定位的第三计算机生成的体验的预览或开始的增强现实视图、以更高沉浸级别显示的增强现实视图等(例如,显示用户界面对象,这些用户界面对象作为第三特定应用程序体验的一部分(例如,虚拟徒步路线、虚拟风景、记分板、锻炼统计数据、改变锻炼参数的控件等),总体上占据用户的视场的相当大百分比(例如,大于60%、大于90%等)或在三维虚拟或增强现实环境中显示等))。三维环境的第四视图包括对应于第三类型的锻炼的第三组虚拟内容(例如,用于跑步机锻炼程序的徒步路线风景、用于赛艇机锻炼的湖景、用于跆拳道的竞技场、用于攀岩锻炼的虚拟悬崖边、用于虚拟网球游戏的虚拟网球场、和/或用于第一类型的锻炼的用户界面控件、分数、统计等)。第三组虚拟内容不同于第一组虚拟内容和第二组虚拟内容,并且其中第三组虚拟内容替换物理环境的第二部分的第二表示的至少一部分(例如,第二定位对应于第一类型的锻炼和第三类型的锻炼两者,并且显示第一组虚拟内容还是第三组虚拟内容取决于当第一用户处于第二定位时检测到第一预定义移动还是第三预定义移动)。
根据确定到第二定位的移动满足不同于第一标准和第二标准的第三标准,该第三标准要求第二定位对应于与不同于第一类型的锻炼和第二类型的锻炼的第三类型的锻炼相关联的定位,并且要求第一用户从第一定位到第二定位的移动之后是不同于第一预定义移动的第三预定义移动,显示包括不同于第一组虚拟内容和第二组虚拟内容的对应于第三类型的锻炼的第三组虚拟内容的三维环境的第四视图提供了附加的控件选项但不会使具有附加显示的控件(例如,用于显示对应于第一类型的锻炼的第一组虚拟内容的附加显示的控件、用于显示对应于第三类型的锻炼的第三组虚拟内容的附加显示的控件等)的UI混乱。提供附加控件选项但不会使具有附加显示的控件的UI混乱增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,计算机系统根据对应于与第二定位相关联的相应类型锻炼(例如,第一类型的锻炼、第二类型的锻炼、第三类型的锻炼等)的预定义移动的进度或持续时间中的至少一者来逐渐增加在第一用户的视场中(例如,在图7O(B)和图7P(B)中所示的视图中)显示的虚拟内容的量。例如,在一些实施方案中,真实世界的视图逐渐淡出和/或停止显示,并且逐渐被对应于相应类型锻炼的虚拟内容替换。在一些实施方案中,计算机系统逐渐增加在第一用户的视场中显示的虚拟内容的量,直到经由第一显示生成部件完全显示对应于相应类型锻炼的相应虚拟环境为止(例如,三维环境的第二视图包括对应于第一类型锻炼的虚拟环境,三维环境的第三视图包括对应于第二类型锻炼的虚拟环境,等等)。例如,在一些实施方案中,当开放式健身房是与瑜伽和舞蹈两者相关联的定位时,在第一用户到达该开放式健身房之后,如果第一用户以合十礼姿势坐下,则计算机系统显示具有海洋声音的虚拟海洋视图以便于用户在虚拟海滩上练习瑜伽;并且如果第一用户以舞者的姿势站立,则计算机系统显示具有舞蹈音乐的虚拟舞台以便于第一用户练习舞蹈。
根据对应于与第二定位相关联的相应锻炼类型的预定义移动的进度或持续时间中的至少一者来逐渐增加在第一用户的视场中显示的虚拟内容的量,向用户提供了改进的视觉反馈(例如,关于对应于与第二定位相关联的相应锻炼类型的预定义移动的进度或持续时间的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,当显示对应于与第二定位相关联的相应类型锻炼(例如,第一类型的锻炼、第二类型的锻炼、第三类型的锻炼等)的三维环境的相应视图(例如,增强现实视图、虚拟现实视图等)时,计算机系统检测到对应于结束与第二定位相关联的相应类型锻炼的请求的第一用户的移动(例如,检测到第一用户停止相应类型锻炼、站起来、离开装备、取下HMD、和/或走出第二定位等)。响应于检测到对应于结束与第二定位相关联的相应类型锻炼的请求的第一用户的移动,计算机系统检测包括物理环境的至少第四部分的表示的三维环境的第五视图,其中物理环境的至少第四部分的表示占据第一用户的视场的一部分,在该部分中当第一用户处于第二定位时已经显示对应于相应类型锻炼的相应组虚拟内容。例如,当检测到对应于结束当前锻炼的请求的第一用户的移动时,停止显示对应于当前锻炼的虚拟场景(例如,淡出,或立即停止显示等),再次显露物理环境的表示。在一些实施方案中,当用户7002移动远离对象7404并且尚未到达场景105中的对象7402时,既不显示图7O和图7P中的视图7408也不显示视图7410,而是显示物理环境的表示诸如图7N中所示。
响应于检测到对应于结束与第二位置相关联的相应类型锻炼的请求的第一用户的移动,显示包括物理环境的至少第四部分的表示的三维环境的第五视图,其中物理环境的至少第四部分的表示占据第一用户的视场的一部分,在该部分中当第一用户处于第二定位时已经显示对应于相应类型锻炼的相应组虚拟内容,这种做法在已经满足一组条件时显示三维环境的第五视图,而无需另外的用户输入(例如,显示三维环境的第五视图的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,当显示三维环境的第二视图(例如,图7O中的视图7408、图7P中的视图7410、另一视图等)时,计算机系统显示对应于第一类型的锻炼的状态信息(例如,在当前会话期间的进度、持续时间、速度、力、高度、步速、步长、表现水平、分数、完成的重复次数等,历史统计,第一用户和/或跨多个用户的平均统计,也执行相同类型锻炼的其他人的状态等)。在一些实施方案中,对应于第一类型的锻炼的状态信息覆盖在对应于第一类型的锻炼的虚拟场景的一部分上。在一些实施方案中,响应于第一用户的请求而显示状态信息,该请求是在没有状态信息的情况下显示对应于第一类型的锻炼的虚拟场景时被检测到的。在一些实施方案中,三维环境的第二视图在第一用户执行第一类型的锻炼的整个过程中演变。在一些实施方案中,状态信息在第一用户执行第一类型的锻炼的整个过程中连续更新(例如,覆盖三维环境的变化的第二视图)。在一些实施方案中,响应于检测到一个或多个性能参数的值已经满足预设阈值(例如,达到目标速度或距离、达到阈值分数等)而显示状态信息。
当显示三维环境的第二视图时,显示对应于第一类型的锻炼的状态信息向用户提供了改进的视觉反馈(例如,关于第一类型的锻炼的改进的视觉反馈、用户到第二位置的移动满足第一标准的改进的视觉反馈、计算机系统正在显示三维环境的第二视图的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。在一些实施方案中,当显示三维环境的第二视图(例如,图7O中的视图7408、图7P中的视图7410、另一视图等)时,计算机系统显示对应于第一用户的健康信息(例如,实时生物计量数据(例如,心率、血压、呼吸速率、体温、血糖水平等)、体重、BMI等)。在一些实施方案中,对应于第一用户的健康信息覆盖在对应于第一类型的锻炼的虚拟场景的一部分上。在一些实施方案中,响应于第一用户的请求而显示健康信息,该请求是在没有健康信息的情况下显示对应于第一类型的锻炼的虚拟场景时被检测到的。在一些实施方案中,三维环境的第二视图在第一用户执行第一类型的锻炼的整个过程中演变。在一些实施方案中,健康信息在第一用户执行第一类型的锻炼的整个过程中连续更新(例如,覆盖三维环境的变化的第二视图)。在一些实施方案中,响应于检测到一个或多个健康参数的值已经满足预设阈值(例如,达到目标心率、达到阈值血压等)而显示健康信息。
当显示三维环境的第二视图时,显示对应于第一用户的健康信息向用户提供了改进的视觉反馈(例如,与第一类型的锻炼相关的改进的视觉反馈、用户到第二位置的移动满足第一标准的改进的视觉反馈、计算机系统正在显示三维环境的第二视图的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,当显示三维环境的第二视图(例如,图7O中的视图7408、图7P中的视图7410、另一视图等)时,计算机系统在视觉上呈现由第一用户执行的第一类型的锻炼的进度信息(例如,实时分数、完成的圈数、剩余的圈数、持续时间、步数、行进的距离、完成的姿势等)。在一些实施方案中,进度信息在视觉上由呈现给第一用户的虚拟场景中发生的视觉变化来表示(例如,虚拟徒步路线上的虚拟里程碑、在下部位置中示出的虚拟射击目标的数量、作为虚拟游戏竞技场的一部分的记分板、表示所实现的深度调解的级别的虚拟湖泊上水的静止等)。在一些实施方案中,对应于第一用户对第一类型的锻炼的表现的进度信息覆盖在对应于第一类型的锻炼的虚拟场景的一部分上。在一些实施方案中,响应于第一用户的请求而显示进度信息,该请求是在没有进度信息的情况下显示对应于第一类型的锻炼的虚拟场景时被检测到的。在一些实施方案中,三维环境的第二视图在第一用户执行第一类型的锻炼的整个过程中演变。在一些实施方案中,进度信息在第一用户执行第一类型的锻炼的整个过程中连续更新(例如,覆盖三维环境的变化的第二视图)。在一些实施方案中,响应于检测到一个或多个进度参数的值已经满足预设阈值(例如,实现目标距离、达到阈值分数、完成锻炼例程等)而显示进度信息。
当显示三维环境的第二视图时,在视觉上呈现由第一用户执行的第一类型的锻炼的进度信息向用户提供了改进的视觉反馈(例如,与第一类型的锻炼的进度信息相关的改进的视觉反馈)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,根据确定第一用户在物理环境中面向第一方向,计算机系统显示对应于第一类型的锻炼的第一组虚拟内容的第一子集而不显示第一组虚拟内容的第二子集,并且根据确定第一用户在物理环境中面向不同于第一方向的第二方向(例如,与第一方向相反、与第一方向成非零角度等),计算机系统显示对应于第一类型的锻炼的第一组虚拟内容的第二子集(例如,图7O中的视图7408中未示出的虚拟开阔水域7406、图7P中的视图7410中未示出的虚拟山脉7412等)而不显示第一组虚拟内容的第二子集。例如,在一些实施方案中,三维环境的第二视图是在围绕第一用户的方向上都具有虚拟对象的沉浸式视图(例如,跨越比用户视场更宽的角度,因此当用户转动他/她的头部时,他/她会看到虚拟环境的不同部分)。在一些实施方案中,计算机系统使用沉浸式音频输出模式(诸如环绕声模式或空间音频模式)输出声音效果,该沉浸式音频输出模式在对应于虚拟环境中的声音产生虚拟对象(例如,欢呼的人群、海浪、虚拟教练等)的位置处提供局部声音。
根据确定第一用户面向物理环境中的第一方向而显示对应于第一类型的锻炼的第一组虚拟内容的第一子集而不显示第一组虚拟内容的第二子集,并且根据确定第一用户面向物理环境中不同于第一方向的第二方向而显示对应于第一类型的锻炼的第一组虚拟内容的第二子集而不显示第一组虚拟内容的第二子集,这种做法在已经满足一组条件时显示对应于第一类型的锻炼的第一组虚拟内容的适当子集,而无需另外的用户输入(例如,在对应于第一类型的锻炼的第一组虚拟内容中导航的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,第一类型的锻炼是赛艇锻炼,第二定位是存在一件赛艇锻炼装备(例如,对象7404、其他赛艇装备等)的定位,并且三维环境的第二视图(例如,图7O中的视图7408)包括具有开阔水域的虚拟场景(例如,图7O中的虚拟开阔水域7406)。在一些实施方案中,第一标准还包括第一用户坐在赛艇锻炼装备中并且将他/她的手放在赛艇锻炼装备的矿石上(例如,如图7O(A)中所示)以便满足第一标准的要求。在一些实施方案中,第二类型的锻炼是步行锻炼,并且第二定位是具有跑步机(例如,对象7402或其他步行装备等)的定位,并且三维环境的第三视图(例如,图7P中的视图7410)包括示出室外步行路径(例如,图7P中的虚拟路线7412)(例如,徒步路线、湖边小路、城市街道等)的虚拟场景。在一些实施方案中,第二标准还包括第一用户踏上跑步机并且至少走一步的要求。显示包括具有开阔水域的虚拟场景的三维环境的第二视图,其中第一类型的锻炼是赛艇锻炼并且第二定位是具有赛艇锻炼装备的定位,向用户提供了改进的视觉反馈(例如,第一类型的锻炼是赛艇锻炼的改进的视觉反馈、赛艇锻炼装备存在于第二定位处的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,响应于检测到第一用户(例如,图7O-7P中的7002)从第一定位到第二定位的移动:根据确定第二定位对应于与第五类型的锻炼和第六类型的锻炼相关联的定位,根据确定第一用户从第一定位到第二定位的移动之后是第一用户在第二定位使用与第五类型的锻炼相关联的相应类型装备,计算机系统显示三维环境的第六视图,其中三维环境的第六视图包括对应于第五类型的锻炼(例如,排球、网球、椭圆机等)的第五组虚拟内容,其中第五组虚拟内容不同于第一组虚拟内容和第二组虚拟内容,并且其中第五组虚拟内容替换物理环境的第五部分的第五表示的至少一部分。在一些实施方案中,响应于检测到第一用户从第一定位到第二定位的移动:根据确定第一用户从第一定位到第二定位的移动之后是第一用户在第二定位使用与第六类型的锻炼相关联的相应类型装备,计算机系统显示三维环境的第七视图,其中三维环境的第七视图包括对应于第六类型的锻炼(例如,篮球、击剑、健身车等)的第六组虚拟内容,其中第六组虚拟内容不同于第一组虚拟内容、第二组虚拟内容和第五组虚拟内容,并且其中第六组虚拟内容替换物理环境的第五部分的第五表示的至少一部分(例如,物理环境的第五部分与第五类型的锻炼和第六类型的锻炼两者相关联)。这在图7O和图7P中示出,其中根据一些实施方案,当用户7002从包括对应于第一类型的锻炼(例如,赛艇、划船等)的对象7404的一个定位移动到包括对应于第二类型的锻炼(例如,徒步、步行等)的对象7402的另一定位时,视图7408中的虚拟内容(例如,虚拟开阔水域7406,或其他虚拟内容等)被视图7410中的虚拟内容(例如,徒步路线7412,或其他虚拟内容等)替换。
根据确定第一用户从第一定位到第二定位的移动之后是第一用户在第二定位使用与第五类型的锻炼相关联的相应类型装备,显示三维环境的第六视图,其中三维环境的第六视图包括对应于第五类型的锻炼的第五组虚拟内容,并且根据确定第一用户从第一定位到第二定位的移动之后是第一用户在第二定位使用与第六类型的锻炼相关联的相应类型装备,显示三维环境的第七视图,其中三维环境的第七视图包括对应于第六类型的锻炼的第六组虚拟内容,这种做法在已经满足一组条件时显示三维环境的适当视图,而无需另外的用户输入(例如,用于在三维环境的视图和/或对应于相应类型锻炼的虚拟内容组之间选择或导航的另外的用户输入)。在无需进一步的用户输入的情况下已满足一组条件时执行操作增强了设备的可操作性,这又通过使用户能够更快速并有效地使用设备而减少了电力使用并且改善了设备的电池寿命。
在一些实施方案中,三维环境的第二视图(例如,图7O-7P中的视图7408、视图7410等)包括被示为与第一用户(例如,图7N-7P中的用户7002或另一用户等)竞争执行第一类型的锻炼(例如,基于第一用户的先前最佳记录、基于第一用户针对第一类型锻炼的预设配置等)的第一用户的虚拟表示。在一些实施方案中,三维环境的第三视图包括被示为与第一用户竞争执行第二类型的锻炼(例如,基于第一用户的先前最佳记录、基于第一用户针对第二类型的锻炼的预设配置等)的第一用户的虚拟表示。显示三维环境的第二视图(包括被示为与第一用户竞争执行第一类型的锻炼的第一用户的虚拟表示)向用户提供了改进的视觉反馈(例如,关于第一类型的锻炼的改进的视觉反馈、关于第一用户在第一类型的锻炼中的表现特性的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
在一些实施方案中,三维环境的第二视图(例如,图7O-7P中的视图7408、视图7410等)包括不同于被示为与第一用户竞争执行第一类型的锻炼的第一用户的至少第二用户(例如,图7N-7P中的用户7002,或另一用户等)的虚拟表示。在一些实施方案中,三维环境的第三视图包括不同于被示为与第一用户竞争执行第二类型的锻炼的第一用户的至少第二用户的虚拟表示。显示三维环境的第二视图(包括被示为与第一用户竞争执行第一类型的锻炼的不同于第一用户的至少第二用户的虚拟表示)向用户提供了改进的视觉反馈(例如,至少第二用户也正在执行第一类型的锻炼的改进的视觉反馈、关于用户的第一类型锻炼的表现相对于第二用户的第一类型锻炼的表现的改进的视觉反馈等)。提供改进的反馈增强了设备的可操作性,这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。
应当理解,对图12中的操作进行描述的具体次序仅仅是示例,并非旨在表明所述次序是可以执行这些操作的唯一次序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。另外,应当注意,本文相对于本文所述的其他方法(例如,方法8000、9000、10000和11000)所述的其他过程的细节同样以类似的方式适用于上文相对于图12所述的方法12000。例如,上文参考方法12000所述的手势、注视输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象、和/或动画任选地具有本文参考本文所述的其他方法(例如,方法8000、9000、10000和11000)所述的手势、注释输入、物理对象、用户界面对象、控件、移动、标准、三维环境、显示生成部件、表面、物理对象的表示、虚拟对象和/或动画的特征中的一个或多个特征。为了简明起见,此处不再重复这些细节。
上文参考图8、图9A-9B、图10、图11和图12所述的操作任选地由图1-6所描绘的部件来实现。在一些实施方案中,方法8000、9000、10000、11000和12000的方面/操作可在这些方法之间互换、替换和/或添加。为了简明起见,此处不再重复这些细节。
出于解释的目的,前面的描述是通过参考具体实施方案来描述的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择和描述实施方案是为了最佳地阐明本发明的原理及其实际应用,以便由此使得本领域的其他技术人员能够最佳地使用具有适合于所构想的特定用途的各种修改的本发明以及各种所描述的实施方案。

Claims (116)

1.一种方法,包括:
在包括第一显示生成部件和一个或多个第一输入设备的计算机系统处:
在三维环境的第一视图中显示第一用户界面对象,其中所述三维环境至少部分地在第一用户和第二用户之间共享,其中所述第一用户界面对象在所述三维环境的所述第一视图中的第一位置处以第一组外观属性显示;
当在所述三维环境的所述第一视图中的所述第一位置处以所述第一组外观属性显示所述第一用户界面对象时,检测由所述第一用户提供的第一用户输入,其中所述第一用户输入指向所述第一用户界面对象;
响应于检测到指向所述第一用户界面的所述第一用户输入:
根据确定所述第二用户当前没有与所述第一用户界面对象交互,根据所述第一用户输入相对于所述第一用户界面对象执行第一操作;以及
根据确定所述第二用户当前正在与所述第一用户界面对象交互:
显示所述第一用户界面对象不可用于与所述第一用户交互的视觉指示,其中显示所述视觉指示包括改变所述第一用户界面对象的外观或所述第一用户界面对象在所述三维环境的所述第一视图中的位置中的至少一者;以及
放弃根据所述第一用户输入相对于所述第一用户界面对象执行所述第一操作。
2.根据权利要求1所述的方法,其中所述计算机系统将所述第一用户界面对象的所述外观改变为所述第一用户界面对象不可用于与所述第一用户交互的所述视觉指示,并且其中改变所述第一用户界面对象的所述外观包括改变所述第一用户界面对象的所述第一组外观属性中的至少一个外观属性以减少所述第一用户界面对象的视觉显著性。
3.根据权利要求2所述的方法,包括:
检测指向所述第一用户界面对象的所述第一用户输入的终止;以及
响应于检测到指向所述第一用户界面对象的所述第一用户输入的所述终止,恢复响应于所述第一用户输入而改变的所述第一用户界面对象的所述第一组外观属性中的至少一个外观属性,以恢复所述第一用户界面对象的所述视觉显著性。
4.根据权利要求2至3中任一项所述的方法,包括:
在继续检测所述第一用户输入时,独立于所述第一用户输入的所述检测来检测所述第一用户界面对象在所述三维环境的所述第一视图中远离所述第一位置的移动,并且
响应于独立于所述第一用户输入的所述检测而检测到所述第一用户界面对象在所述三维环境的所述第一视图中远离所述第一位置的所述移动,恢复响应于所述第一用户输入而改变的所述第一用户界面对象的所述第一组外观属性中的至少一个外观属性,以恢复所述第一用户界面对象的所述视觉显著性。
5.根据权利要求1至4中任一项所述的方法,其中显示所述第一用户界面对象不可用于与所述第一用户交互的所述视觉指示包括保持响应于所述第一用户输入作出的对所述第一用户界面对象的所述外观的改变,直到所述第二用户停止与所述第一用户界面对象交互。
6.根据权利要求1至5中任一项所述的方法,包括:
响应于检测到指向所述第一用户界面的所述第一用户输入:
根据确定所述第二用户当前没有与所述第一用户界面对象交互,在所述三维环境的所述第一视图中的第二位置处显示所述第一用户界面对象,其中根据所述第一用户的手部的当前定位来选择所述第二位置;以及
当在根据所述第一用户的所述手部的所述当前定位选择的所述第二位置处显示所述第一用户界面对象时,检测与所述第一用户的所述手部的投掷手势相对应的所述第一用户的所述手部的移动;以及
响应于检测到与所述第一用户的所述手部的所述投掷手势相对应的所述第一用户的所述手部的所述移动,在所述三维环境的所述第一视图中在与所述第一用户的所述手部的所述移动的方向相对应的第一方向上移动所述第一用户界面对象,并且在所述第一用户界面对象的移动期间旋转所述第一用户界面对象。
7.根据权利要求6所述的方法,其中在所述第一用户界面对象的移动期间旋转所述第一用户界面对象包括:
根据确定所述第一用户的所述手部的所述移动的所述方向指向所述三维环境的所述第一视图中的所述第二用户的表示,以第一方式旋转所述第一用户界面对象,使得当所述第一用户界面对象到达根据所述第一用户的所述手部在第一物理环境中的所述移动而选择的所述三维环境中的目的地位置时,所述第一用户界面对象在所述三维环境中具有第一预设取向。
8.根据权利要求6至7中任一项所述的方法,其中在所述第一用户界面对象的移动期间旋转所述第一用户界面对象包括:
根据确定所述第一用户的所述手部的所述移动的所述方向指向所述三维环境的所述第一视图中的第一表面的表示,以第二方式旋转所述第一用户界面对象,使得当所述第一用户界面对象到达根据所述第一用户的所述手部在第一物理环境中的所述移动而选择的所述第一表面的所述表示上的目的地位置时,所述第一用户界面对象具有相对于所述三维环境中的所述第一表面的所述表示的第二预设取向。
9.根据权利要求1至8中任一项所述的方法,其中所述计算机系统将所述第一用户界面对象在所述三维环境的所述第一视图中的所述位置改变为所述第一用户界面对象不可用于与所述第一用户交互的所述视觉指示,并且其中改变所述第一用户界面对象在所述三维环境的所述第一视图中的所述位置包括从所述第一位置移动所述第一用户界面对象以保持所述第一用户界面对象与提供所述第一用户输入的所述第一用户的手部的表示之间的至少预设距离。
10.根据权利要求1至9中任一项所述的方法,其中根据所述第一用户输入相对于所述第一用户界面对象执行所述第一操作包括朝向所述第一用户的手部的表示移动所述第一用户界面对象。
11.根据权利要求1至10中任一项所述的方法,其中根据所述第一用户输入相对于所述第一用户界面对象执行所述第一操作包括:
根据确定所述第一用户输入包括预定义选择手势,选择所述第一用户界面对象作为从所述第一用户接收的后续输入的目标。
12.根据权利要求11所述的方法,包括:
结合选择所述第一用户界面对象作为从所述第一用户接收的后续输入的目标,在与所述第一用户的所述手部的定位相对应的位置处显示所述第一用户界面对象的表示,同时将所述第一用户界面对象保持在所述三维环境的所述第一视图中的所述第一位置处。
13.根据权利要求1至10中任一项所述的方法,包括:
在根据所述第一用户输入相对于所述第一用户界面对象执行所述第一操作之后,检测指向所述第一用户界面对象的第二用户输入;以及
响应于检测到所述第二用户输入,根据确定所述第二用户输入包括预定义选择手势,选择所述第一用户界面对象作为从所述第一用户接收的后续输入的目标。
14.根据权利要求1至13中任一项所述的方法,其中根据所述第一用户输入相对于所述第一用户界面对象执行所述第一操作包括:
显示所述第一用户界面对象的表示,同时将所述第一用户界面对象保持在所述三维环境的所述第一视图中的所述第一位置处。
15.根据权利要求14所述的方法,其中所述第一用户界面对象的所述表示最初显示在远离所述第一用户的所述手部的所述表示的位置处,并且所述方法包括:
根据确定由所述第一用户提供的后续用户输入选择了所述第一用户界面对象,将所述第一用户界面对象的所述表示从远离所述第一用户的所述手部的所述表示的所述位置移动到所述第一用户的所述手部的所述表示的位置。
16.根据权利要求14至15中任一项所述的方法,包括:
当显示所述第一用户界面对象的所述表示时,检测所述第一用户的所述手部的移动;并且
响应于检测到所述第一用户的所述手部的所述移动:
根据确定所述第一用户的所述手部的所述移动满足用于识别预设选择手势的初始部分的预设标准,改变所述第一用户界面对象的所述表示的外观。
17.根据权利要求15至16中任一项所述的方法,包括:
当根据确定所述第一用户选择了所述第一用户界面对象而在所述第一用户的所述手部的所述表示的所述位置处显示所述第一用户界面对象的所述表示时,检测与所述第一用户界面对象的所述表示交互的第三用户输入;并且
响应于检测到所述第三用户输入:
通过移动所述第一用户界面对象的所述表示和改变所述第一用户界面对象的所述表示的外观中的至少一者来显示所述第三用户输入的视觉反馈;并且
根据所述第三用户输入执行相对于所述第一用户界面对象的第二操作。
18.根据权利要求15至17中任一项所述的方法,包括:
根据所述第一用户的所述手部的移动来更新所述第一用户界面对象的所述表示的所述位置,使得所述第一用户界面对象的所述表示保持与所述第一用户的所述手部的所述表示的所更新位置的现有空间关系。
19.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
在三维环境的第一视图中显示第一用户界面对象,其中所述三维环境至少部分地在第一用户和第二用户之间共享,其中所述第一用户界面对象在所述三维环境的所述第一视图中的第一位置处以第一组外观属性显示;
当在所述三维环境的所述第一视图中的所述第一位置处以所述第一组外观属性显示所述第一用户界面对象时,检测由所述第一用户提供的第一用户输入,其中所述第一用户输入指向所述第一用户界面对象;
响应于检测到指向所述第一用户界面的所述第一用户输入:
根据确定所述第二用户当前没有与所述第一用户界面对象交互,根据所述第一用户输入相对于所述第一用户界面对象执行第一操作;以及
根据确定所述第二用户当前正在与所述第一用户界面对象交互:
显示所述第一用户界面对象不可用于与所述第一用户交互的视觉指示,其中显示所述视觉指示包括改变所述第一用户界面对象的外观或所述第一用户界面对象在所述三维环境的所述第一视图中的位置中的至少一者;以及
放弃根据所述第一用户输入相对于所述第一用户界面对象执行所述第一操作。
20.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行操作,包括:
在三维环境的第一视图中显示第一用户界面对象,其中所述三维环境至少部分地在第一用户和第二用户之间共享,其中所述第一用户界面对象在所述三维环境的所述第一视图中的第一位置处以第一组外观属性显示;
当在所述三维环境的所述第一视图中的所述第一位置处以所述第一组外观属性显示所述第一用户界面对象时,检测由所述第一用户提供的第一用户输入,其中所述第一用户输入指向所述第一用户界面对象;
响应于检测到指向所述第一用户界面的所述第一用户输入:
根据确定所述第二用户当前没有与所述第一用户界面对象交互,根据所述第一用户输入相对于所述第一用户界面对象执行第一操作;以及
根据确定所述第二用户当前正在与所述第一用户界面对象交互:
显示所述第一用户界面对象不可用于与所述第一用户交互的视觉指示,其中显示所述视觉指示包括改变所述第一用户界面对象的外观或所述第一用户界面对象在所述三维环境的所述第一视图中的位置中的至少一者;以及
放弃根据所述第一用户输入相对于所述第一用户界面对象执行所述第一操作。
21.一种方法,包括:
在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处:
当第一用户在第一物理环境中的第一定位处时,显示与关联于所述第一物理环境中的所述第一定位的第一视点相对应的三维环境的第一视图,其中所述三维环境的所述第一视图包括表示不同于所述第一物理环境的第二物理环境中的第一对象的第一用户界面对象,其中所述第一用户界面对象在所述三维环境中的相应位置以第一方式与所述第一对象在所述第二物理环境中的相应定位相对应;
检测所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者;以及
响应于检测到所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者:
显示对应于第二视点的所述三维环境的第二视图;以及
在所述三维环境的所述第二视图中显示所述第一用户界面对象,包括:
根据确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的相应位置的距离大于阈值距离,在所述三维环境中的所述第二视图中的第一显示位置处显示所述第一用户界面对象,其中所述第一显示位置是所述第一用户界面对象在所述三维环境中的所述相应位置;以及
根据确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的所述相应位置的距离小于所述阈值距离,在所述三维环境的所述第二视图中的第二显示位置处显示所述第一用户界面对象,其中所述第二显示位置与所述第一用户界面对象在所述三维环境中的所述相应位置偏移。
22.根据权利要求21所述的方法,其中:
检测所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者包括:当所述第一对象在所述第二物理环境中保持静止时,检测所述第一用户在所述第一物理环境中的第一移动;并且
在所述第一用户在所述第一物理环境中的所述第一移动期间:
根据所述确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的当前显示视图的视点相对应的所述相应位置的距离大于所述阈值距离,所述第一用户界面对象显示在以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一界面对象在所述三维环境中的所述相应位置处;并且
根据所述确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述当前显示视图的所述视点相对应的所述相应位置的距离不大于所述阈值距离,当所述第一对象在所述第二物理环境中保持静止时,所述第一用户界面对象显示在所述三维环境中的调整位置处,其中所述三维环境中的所述调整位置以不同于所述第一方式的第二方式与所述第一对象在所述第二物理环境中的所述相应定位相对应。
23.根据权利要求21至22中任一项所述的方法,其中:
检测所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者包括:当所述第一用户在所述第一物理环境中保持静止时,检测所述第一用户在所述第二物理环境中的第二移动;并且
在所述第一对象在所述第二物理环境中的所述第二移动期间:
根据所述确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的当前显示视图的视点相对应的所述相应位置的距离大于所述阈值距离,所述第一用户界面对象显示在所述三维环境中的更新位置处,其中作为所述第二移动的结果,所述三维环境中的所述更新位置以所述第一方式与所述第一对象在所述第二物理环境中的更新定位相对应;并且
根据所述确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述当前显示视图的所述视点相对应的所述相应位置的距离不大于所述阈值距离,当所述第一对象在所述第二物理环境中保持静止时,所述第一用户界面对象显示在所述三维环境中的调整更新位置处,其中所述三维环境中的所述调整更新位置以不同于所述第一方式的第二方式与所述第一对象在所述第二物理环境中的所述更新定位相对应。
24.根据权利要求21至23中任一项所述的方法,其中:
检测所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者包括同时检测所述第一用户在所述第一物理环境中的第三移动和所述第一对象在所述第二物理环境中的第四移动;并且
在所述第一用户在所述第一物理环境中的所述第三移动和所述第一对象在所述第二物理环境中的所述第四移动期间:
根据所述确定以所述第一方式与所述第一对象在所述第二物理环境中的所述定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的当前显示视图的视点相对应的所述相应位置的距离大于所述阈值距离,所述第一用户界面对象显示在所述三维环境中的更新位置处,其中作为所述第四移动的结果,所述三维环境中的所述更新位置以所述第一方式与所述第一对象在所述第二物理环境中的更新定位相对应;并且
根据所述确定以所述第一方式与所述第一对象在所述第二物理环境中的所述定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述当前显示视图的所述视点相对应的所述相应位置的距离不超过所述阈值距离,所述第一用户界面对象显示在所述三维环境中的调整更新位置处,其中所述三维环境中的所述调整更新位置以不同于所述第一方式的第三方式与所述第一对象在所述第二物理环境中的所述定位相对应。
25.根据权利要求21至24中任一项所述的方法,其中所述第一对象是位于所述第二物理环境中的第二用户,并且所述第一用户和所述第二用户至少部分地共享所述三维环境。
26.根据权利要求25所述的方法,其中在经由第二显示生成部件向所述第二用户显示的所述三维环境的第三视图中,根据确定以所述第一方式与所述第一对象在所述第一物理环境中的相应定位相对应的第二用户界面对象在所述三维环境中的相应位置距所述三维环境中与关联于所述三维环境的所述第三视图的第三视点相对应的相应位置的距离不超过所述阈值距离,在所述三维环境的所述第三视图中的修改位置处显示所述第二用户界面对象,其中所述修改位置与所述三维环境中以所述第一方式与所述第一用户在所述第一物理环境中的所述相应定位相对应的所述第二用户界面对象的所述相应位置偏移。
27.根据权利要求21至26中任一项所述的方法,其中所述第一对象是位于所述第二物理环境中的物理对象。
28.根据权利要求21至27中任一项所述的方法,其中所述第一用户界面对象是在所述三维环境中浮动的对象。
29.根据权利要求21至28中任一项所述的方法,其中:
根据确定所述三维环境以第一真实度级别显示,所述第一用户界面对象以对应于所述第一真实度级别的第一组显示属性显示;并且
根据确定所述三维环境以不同于所述第一真实度级别的第二真实度级别显示,所述第一用户界面对象以对应于所述第二真实度级别的第二组显示属性显示,所述第二组显示属性不同于所述第一组显示属性。
30.根据权利要求21至29中任一项所述的方法,其中所述三维环境的所述第二视图中的所述第二显示位置从所述三维环境中以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象的所述相应位置位移第一位移量,其中所述第一位移量不以所述第一方式对应于所述第一对象在所述第二物理环境中的移动。
31.根据权利要求30所述的方法,其中所述第一位移量具有根据所述三维环境的当前显示视图的视点与所述三维环境中以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象的所述相应位置之间的空间关系确定的方向。
32.根据权利要求21至31中任一项所述的方法,其中所述三维环境的所述第二视图中的所述第二显示位置从所述三维环境中以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象的所述相应位置位移第二位移量,其中所述第二位移量具有与向前方向不同的方向,所述向前方向朝向所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的所述相应位置。
33.根据权利要求21至31中任一项所述的方法,其中所述三维环境的所述第二视图中的所述第二显示位置从所述三维环境中以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象的所述相应位置位移第三位移量,其中所述第三位移量具有与所述第一用户界面对象和所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的所述相应位置之间的接近方向不同的方向。
34.根据权利要求21至33中任一项所述的方法,其中所述三维环境的所述第二视图中的所述第二显示位置与所述三维环境中以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象的所述相应位置之间的位移的量值和方向中的至少一者基于所述三维环境中以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象的所述相应位置和所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的所述相应位置之间的空间关系。
35.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
当第一用户在第一物理环境中的第一定位处时,显示与关联于所述第一物理环境中的所述第一定位的第一视点相对应的三维环境的第一视图,其中所述三维环境的所述第一视图包括表示不同于所述第一物理环境的第二物理环境中的第一对象的第一用户界面对象,其中所述第一用户界面对象在所述三维环境中的相应位置以第一方式与所述第一对象在所述第二物理环境中的相应定位相对应;
检测所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者;以及
响应于检测到所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者:
显示对应于第二视点的所述三维环境的第二视图;以及
在所述三维环境的所述第二视图中显示所述第一用户界面对象,包括:
根据确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的相应位置的距离大于阈值距离,在所述三维环境中的所述第二视图中的第一显示位置处显示所述第一用户界面对象,其中所述第一显示位置是所述第一用户界面对象在所述三维环境中的所述相应位置;并且
根据确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的所述相应位置的距离小于所述阈值距离,在所述三维环境的所述第二视图中的第二显示位置处显示所述第一用户界面对象,其中所述第二显示位置与所述第一用户界面对象在所述三维环境中的所述相应位置偏移。
36.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行操作,包括:
当第一用户在第一物理环境中的第一定位处时,显示与关联于所述第一物理环境中的所述第一定位的第一视点相对应的三维环境的第一视图,其中所述三维环境的所述第一视图包括表示不同于所述第一物理环境的第二物理环境中的第一对象的第一用户界面对象,其中所述第一用户界面对象在所述三维环境中的相应位置以第一方式与所述第一对象在所述第二物理环境中的相应定位相对应;
检测所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者;以及
响应于检测到所述第一用户在所述第一物理环境中的移动和所述第一对象在所述第二物理环境中的移动中的至少一者:
显示对应于第二视点的所述三维环境的第二视图;以及
在所述三维环境的所述第二视图中显示所述第一用户界面对象,包括:
根据确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的相应位置的距离大于阈值距离,在所述三维环境中的所述第二视图中的第一显示位置处显示所述第一用户界面对象,其中所述第一显示位置是所述第一用户界面对象在所述三维环境中的所述相应位置;并且
根据确定以所述第一方式与所述第一对象在所述第二物理环境中的所述相应定位相对应的所述第一用户界面对象在所述三维环境中的所述相应位置距所述三维环境中与关联于所述三维环境的所述第二视图的所述第二视点相对应的所述相应位置的距离小于所述阈值距离,在所述三维环境的所述第二视图中的第二显示位置处显示所述第一用户界面对象,其中所述第二显示位置与所述第一用户界面对象在所述三维环境中的所述相应位置偏移。
37.一种方法,包括:
在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处:
以第一沉浸级别显示第一计算机生成的体验;
当以所述第一沉浸级别显示所述第一计算机生成的体验时,接收对应于第一用户的生物计量数据;并且
响应于接收到对应于所述第一用户的所述生物计量数据:
根据确定对应于所述第一用户的所述生物计量数据满足第一标准,以第二沉浸级别显示所述第一计算机生成的体验,其中以所述第二沉浸级别显示的所述第一计算机生成的体验比以所述第一沉浸级别显示的所述第一计算机生成的体验占据所述第一用户的视场的更大部分;并且
根据确定对应于所述第一用户的所述生物计量数据不满足所述第一标准,继续以所述第一沉浸级别显示所述第一计算机生成的体验。
38.根据权利要求37所述的方法,包括:
当以所述第二沉浸级别显示所述第一计算机生成的体验时,接收对应于所述第一用户的第一更新的生物计量数据;以及
响应于接收到对应于所述第一用户的所述第一更新的生物计量数据:
根据确定对应于所述第一用户的所述第一更新的生物计量数据满足不同于所述第一标准的第二标准,以第三沉浸级别显示所述第一计算机生成的体验,其中以所述第三沉浸级别显示的所述第一计算机生成的体验比以所述第二沉浸级别显示的所述第一计算机生成的体验占据所述第一用户的所述视场的更大部分;以及
根据确定对应于所述第一用户的所述第一更新的生物计量数据满足所述第一标准并且不满足所述第二标准的,继续以所述第二沉浸级别显示所述第一计算机生成的体验。
39.根据权利要求37至38中任一项所述的方法,包括:
当以相应沉浸级别显示所述第一计算机生成的体验时,接收对应于所述第一用户的第二更新的生物计量数据,其中以所述相应沉浸级别显示的所述第一计算机生成的体验比以所述第一沉浸级别显示的占据所述第一用户的所述视场的更大部分;以及
响应于接收到对应于所述第一用户的所述第二更新的生物计量数据:
根据确定对应于所述第一用户的所述第二更新的生物计量数据不满足转变为以所述相应沉浸级别显示所述第一计算机生成的体验所满足的相应标准,以在以所述相应沉浸级别显示所述第一计算机生成的体验之前使用的较低的沉浸级别显示所述第一计算机生成的体验。
40.根据权利要求37至39中任一项所述的方法,其中所述生物计量数据包括所述第一用户的呼吸速率,并且所述第一标准包括当所述第一用户的所述呼吸速率低于第一阈值呼吸速率时满足以便满足所述第一标准的标准。
41.根据权利要求37至40中任一项所述的方法,其中所述第一标准包括所述生物计量数据满足一个或多个预设阈值达至少阈值时间量以便满足所述第一标准的要求。
42.根据权利要求37至41中任一项所述的方法,其中:
以所述第一沉浸级别显示所述第一计算机生成的体验包括在与物理环境的一个或多个第一部分的定位相对应的相应第一位置处显示虚拟内容,同时保持所述物理环境的一个或多个第二部分的表示的显示;
以所述第二沉浸级别显示所述第一计算机生成的体验包括在与所述物理环境的所述一个或多个第一部分的所述定位相对应的所述相应第一位置处以及在与所述物理环境的所述一个或多个第二部分中的至少一些部分相对应的相应第二位置处显示虚拟内容。
43.根据权利要求37至42中任一项所述的方法,包括:
响应于接收到对应于所述第一用户的所述生物计量数据,并且根据确定对应于所述第一用户的所述生物计量数据的变化正朝向满足所述第一标准的方向进展:
当以所述第一沉浸级别显示所述第一计算机生成的体验时,逐渐地降低已经由所述第一显示生成部件可见的物理环境的表示的至少一部分的视觉强调,其中以所述第二沉浸级别显示所述第一计算机生成的体验包括在与所述物理环境的所述表示的所述部分相对应的位置处显示所述第一计算机生成的体验的虚拟内容,使得所述物理环境的所述表示的所述部分不再经由所述第一显示生成部件可见。
44.根据权利要求37至43中任一项所述的方法,包括:
响应于接收到对应于所述第一用户的所述生物计量数据,并且根据确定对应于所述第一用户的所述生物计量数据的变化正朝向满足所述第一标准的方向进展:
将在以所述第一沉浸级别显示所述第一计算机生成的体验时经由所述第一显示生成部件可见的物理环境的表示的至少一部分的视觉属性改变与对应于所述第一用户的所述生物计量数据的所述变化相对应的量。
45.根据权利要求37至44中任一项所述的方法,包括:
响应于接收到对应于所述第一用户的所述生物计量数据,并且根据确定对应于所述第一用户的所述生物计量数据的变化正朝向满足所述第一标准的方向进展:
将虚拟内容的显示扩展与对应于所述第一用户的所述生物计量数据的所述变化相对应的量到在以所述第一沉浸级别显示所述第一计算机生成的体验时经由所述第一显示生成部件可见的物理环境的表示的至少一部分上。
46.根据权利要求37至45中任一项所述的方法,其中所述第一标准包括当所述生物计量数据正被接收时所述第一用户进行小于阈值量的第一类型的移动以便满足所述第一标准的标准。
47.根据权利要求37至46中任一项所述的方法,包括:
当以所述第二沉浸级别显示所述第一计算机生成的体验时,检测由所述第一用户执行的第一类型的移动;以及
响应于检测到由所述第一用户执行的所述第一类型的所述移动:
根据确定所述第一类型的所述移动超过预设阈值量的移动,以所述第一沉浸级别重新显示所述第一计算机生成的体验。
48.根据权利要求37至46中任一项所述的方法,包括:
当以所述第二沉浸级别显示所述第一计算机生成的体验时,检测由所述第一用户执行的第一类型的移动;以及
响应于检测到由所述第一用户执行的所述第一类型的所述移动:
根据确定所述第一类型的所述移动超过预设阈值量的移动,从以第一视点以所述第二沉浸级别显示所述第一计算机生成的体验切换到以不同于所述第一视点的第二视点以所述第二沉浸级别显示所述第一计算机生成的体验。
49.根据权利要求37至48中任一项所述的方法,其中从以所述第一沉浸级别显示所述第一计算机生成的体验到以所述第二沉浸级别显示所述第一计算机生成的体验的转变是在对应于所述第一标准被满足的时间的时间点进行的离散转变。
50.根据权利要求37至48中任一项所述的方法,其中以所述第一沉浸级别显示的所述第一计算机生成的体验描绘了第一虚拟环境,并且以所述第二沉浸级别显示的所述第一计算机生成的体验描绘了具有比所述第一虚拟环境更大的虚拟深度的第二虚拟环境。
51.根据权利要求37至50中任一项所述的方法,其中:
以所述第一沉浸级别显示所述第一计算机生成的体验包括显示具有至少第一视觉特性的第一计算机生成的体验,所述至少第一视觉特性根据在以所述第一沉浸级别显示所述第一计算机生成的体验时接收的所述生物计量数据的变化而变化;并且
以所述第二沉浸级别显示所述第一计算机生成的体验包括显示具有至少第二视觉特性的第一计算机生成的体验,所述至少第二视觉特性根据在以所述第二沉浸级别显示所述第一计算机生成的体验时接收的所述生物计量数据的变化而变化。
52.根据权利要求37至51中任一项所述的方法,包括:
响应于接收到对应于所述第一用户的所述生物计量数据:
根据确定对应于所述第一用户的所述生物计量数据满足所述第一标准,将音频输出模式从第一音频输出模式改变为第二音频输出模式,其中所述第一音频输出模式具有比所述第二音频输出模式更少的计算控制变量。
53.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
以第一沉浸级别显示第一计算机生成的体验;
当以所述第一沉浸级别显示所述第一计算机生成的体验时,接收对应于第一用户的生物计量数据;以及
响应于接收到对应于所述第一用户的所述生物计量数据:
根据确定对应于所述第一用户的所述生物计量数据满足第一标准,以第二沉浸级别显示所述第一计算机生成的体验,其中以所述第二沉浸级别显示的所述第一计算机生成的体验比以所述第一沉浸级别显示的所述第一计算机生成的体验占据所述第一用户的视场的更大部分;以及
根据确定对应于所述第一用户的所述生物计量数据不满足所述第一标准,继续以所述第一沉浸级别显示所述第一计算机生成的体验。
54.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行操作,包括:
以第一沉浸级别显示第一计算机生成的体验;
当以所述第一沉浸级别显示所述第一计算机生成的体验时,接收对应于第一用户的生物计量数据;以及
响应于接收到对应于所述第一用户的所述生物计量数据:
根据确定对应于所述第一用户的所述生物计量数据满足第一标准,以第二沉浸级别显示所述第一计算机生成的体验,其中以所述第二沉浸级别显示的所述第一计算机生成的体验比以所述第一沉浸级别显示的所述第一计算机生成的体验占据所述第一用户的视场的更大部分;以及
根据确定对应于所述第一用户的所述生物计量数据不满足所述第一标准,继续以所述第一沉浸级别显示所述第一计算机生成的体验。
55.一种方法,包括:
在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处:
显示物理环境的第一视图,其中所述物理环境的所述第一视图包括所述物理环境的第一部分的第一表示;
当显示所述物理环境的所述第一视图时,检测对应于激活两种或多种类型的计算机生成的感官调整中的第一类型的计算机生成的感官调整的请求的第一用户输入;以及
响应于检测到所述第一用户输入,显示所述物理环境的第二视图,其中所述物理环境的所述第二视图包括所述物理环境的所述第一部分的第二表示,其中所述物理环境的所述第一部分的所述第二表示具有第一显示属性,所述第一显示属性根据所述第一类型的计算机生成的感官调整相对于所述物理环境的所述第一部分的所述第一表示来调整;
当显示所述物理环境的所述第二视图时,检测对应于激活所述两种或多种类型的计算机生成的感官调整中的第二类型的计算机生成的感官调整的请求的第二用户输入,其中所述第二类型的计算机生成的感官调整不同于所述第一类型的计算机生成的感官调整;以及
响应于检测到所述第二用户输入,显示所述物理环境的第三视图,其中所述物理环境的所述第三视图包括所述物理环境的所述第一部分的第三表示,其中所述物理环境的所述第一部分的所述第三表示具有所述第一显示属性和第二显示属性,所述第一显示属性根据所述第一类型的计算机生成的感官调整相对于所述物理环境的所述第一部分的所述第一表示被调整,并且所述第二显示属性根据所述第二类型的计算机生成的感官调整相对于所述物理环境的所述第二表示被调整。
56.根据权利要求55所述的方法,包括:
当显示所述物理环境的所述第三视图时,检测对应于激活所述两种或多种类型的计算机生成的感官调整中的第三类型的计算机生成的感官调整的请求的第三用户输入,其中所述第三类型的计算机生成的感官调整不同于所述第一类型的计算机生成的感官调整和所述第二类型的计算机生成的感官调整;以及
响应于检测到所述第三用户输入,显示所述物理环境的第四视图,其中所述物理环境的所述第四视图包括所述物理环境的所述第一部分的第四表示,其中所述物理环境的所述第一部分的所述第四表示具有根据所述第一类型的计算机生成的感官调整相对于所述物理环境的所述第一部分的所述第一表示调整的第一显示属性、根据所述第二类型的计算机生成的感官调整相对于所述物理环境的所述第二表示调整的第二显示属性、以及根据所述第三类型的计算机生成的感官调整相对于所述物理环境的所述第三表示调整的第三显示属性。
57.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力,并且所述第二类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力。
58.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力,并且所述第二类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力。
59.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力,并且所述第二类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力。
60.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力,并且所述第二类型的计算机生成的感官调整包括利用滤波器修改物理对象的视图。
61.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力,并且所述第二类型的计算机生成的感官调整包括针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整。
62.根据权利要求61所述的方法,包括:
在显示所述物理环境的所述第三表示的同时,输出对应于在所述物理环境的所述第二表示中可见的所述物理环境的第一部分的声音,其中所述声音相对于来自所述物理环境的所述第一部分之外的源的声音被选择性地增强。
63.根据权利要求55至62中任一项所述的方法,包括:
在显示所述物理环境的所述第三表示的同时,显示对应于来自所述物理环境的在所述物理环境的所述第二表示和所述第三表示两者中可见的第一部分的语音的文本输出,其中所述语音相对于来自所述物理环境的所述第一部分之外的源的声音被选择性地增强。
64.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力,并且所述第二类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力。
65.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力,并且所述第二类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力。
66.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力,并且所述第二类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力。
67.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力,并且所述第二类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力。
68.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于在低光照条件下观看物理对象的模拟夜视力,并且所述第二类型的计算机生成的感官调整包括并且所述第二类型的计算机生成的感官调整包括针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整。
69.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力,并且所述第二类型的计算机生成的感官调整包括用于观看远处物理对象的模拟望远视力。
70.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力,并且所述第二类型的计算机生成的感官调整包括用于放大附近物理对象的模拟显微视力。
71.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力,并且所述第二类型的计算机生成的感官调整包括用于在低光条件下观看物理对象的模拟夜视力。
72.根据权利要求55至56中任一项所述的方法,其中所述第一类型的计算机生成的感官调整包括用于观看具有不同热辐射分布的物理对象的模拟热视力,并且所述第二类型的计算机生成的感官调整包括并且所述第二类型的计算机生成的感官调整包括针对与物理环境中的物理对象的子集相对应的声音的选择性音频调整。
73.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
显示物理环境的第一视图,其中所述物理环境的所述第一视图包括所述物理环境的第一部分的第一表示;
当显示所述物理环境的所述第一视图时,检测对应于激活两种或多种类型的计算机生成的感官调整中的第一类型的计算机生成的感官调整的请求的第一用户输入;以及
响应于检测到所述第一用户输入,显示所述物理环境的第二视图,其中所述物理环境的所述第二视图包括所述物理环境的所述第一部分的第二表示,其中所述物理环境的所述第一部分的所述第二表示具有第一显示属性,所述第一显示属性根据所述第一类型的计算机生成的感官调整相对于所述物理环境的所述第一部分的所述第一表示来调整;
当显示所述物理环境的所述第二视图时,检测对应于激活所述两种或多种类型的计算机生成的感官调整中的第二类型的计算机生成的感官调整的请求的第二用户输入,其中所述第二类型的计算机生成的感官调整不同于所述第一类型的计算机生成的感官调整;以及
响应于检测到所述第二用户输入,显示所述物理环境的第三视图,其中所述物理环境的所述第三视图包括所述物理环境的所述第一部分的第三表示,其中所述物理环境的所述第一部分的所述第三表示具有所述第一显示属性和第二显示属性,所述第一显示属性根据所述第一类型的计算机生成的感官调整相对于所述物理环境的所述第一部分的所述第一表示被调整,并且所述第二显示属性根据所述第二类型的计算机生成的感官调整相对于所述物理环境的所述第二表示被调整。
74.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行操作,包括:
显示物理环境的第一视图,其中所述物理环境的所述第一视图包括所述物理环境的第一部分的第一表示;
当显示所述物理环境的所述第一视图时,检测对应于激活两种或多种类型的计算机生成的感官调整中的第一类型的计算机生成的感官调整的请求的第一用户输入;以及
响应于检测到所述第一用户输入,显示所述物理环境的第二视图,其中所述物理环境的所述第二视图包括所述物理环境的所述第一部分的第二表示,其中所述物理环境的所述第一部分的所述第二表示具有第一显示属性,所述第一显示属性根据所述第一类型的计算机生成的感官调整相对于所述物理环境的所述第一部分的所述第一表示来调整;
当显示所述物理环境的所述第二视图时,检测对应于激活所述两种或多种类型的计算机生成的感官调整中的第二类型的计算机生成的感官调整的请求的第二用户输入,其中所述第二类型的计算机生成的感官调整不同于所述第一类型的计算机生成的感官调整;以及
响应于检测到所述第二用户输入,显示所述物理环境的第三视图,其中所述物理环境的所述第三视图包括所述物理环境的所述第一部分的第三表示,其中所述物理环境的所述第一部分的所述第三表示具有所述第一显示属性和第二显示属性,所述第一显示属性根据所述第一类型的计算机生成的感官调整相对于所述物理环境的所述第一部分的所述第一表示被调整,并且所述第二显示属性根据所述第二类型的计算机生成的感官调整相对于所述物理环境的所述第二表示被调整。
75.一种方法,包括:
在与第一显示生成部件和一个或多个第一输入设备通信的计算机系统处:
显示三维环境的第一视图,其中所述三维环境的所述第一视图包括物理环境的第一部分的第一表示;
当显示包括所述物理环境的所述第一部分的所述第一表示的所述三维环境的所述第一视图时,检测第一用户从所述物理环境的第一定位到第二定位的移动;以及
响应于检测到所述第一用户从所述第一定位到所述第二定位的所述移动:
根据确定到所述第二定位的所述移动满足第一标准,其中所述第一标准包括所述第二定位对应于与第一类型的锻炼相关联的定位以满足所述第一标准的第一要求,显示所述三维环境的第二视图,其中所述三维环境的所述第二视图包括对应于所述第一类型的锻炼的第一组虚拟内容,其中所述第一组虚拟内容替换包括所述第二定位的所述物理环境的第二部分的第二表示的至少一部分;以及
根据确定到所述第二定位的所述移动满足不同于所述第一标准的第二标准,其中所述第二标准包括所述第二定位对应于与第二类型的锻炼相关联的定位以满足所述第二标准的第二要求,其中所述第二类型的锻炼不同于所述第一类型的锻炼,显示所述三维环境的第三视图,其中所述三维环境的所述第三视图包括对应于所述第二类型的锻炼的第二组虚拟内容,其中所述第二组虚拟内容不同于所述第一组虚拟内容,并且其中所述第二组虚拟内容替换包括所述第二定位的所述物理环境的第三部分的第三表示的至少一部分。
76.根据权利要求75所述的方法,其中:
所述计算机系统根据在所述第二定位处检测到第一类型的锻炼设备来确定所述第二定位对应于与所述第一类型的锻炼相关联的定位;并且
所述计算机系统根据在所述第二定位处检测到第二类型的锻炼设备来确定所述第二定位对应于与所述第二类型的锻炼相关联的定位,其中所述第二类型的锻炼设备不同于所述第一类型的锻炼设备并且不对应于所述第一类型的锻炼。
77.根据权利要求75至76中任一项所述的方法,其中响应于检测到所述第一用户在所述物理环境中从所述第一定位到所述第二定位的所述移动而显示所述三维环境的所述第二视图包括:
逐渐减少所述物理环境的所述第二部分的所述第二表示,以及在所述三维环境的所述第二视图的其中所述物理环境的所述第二部分的所述第二表示已经逐渐减少的区域中逐渐增加对应于所述第一类型的锻炼的虚拟内容的显著性。
78.根据权利要求75至77中任一项所述的方法,其中所述第一标准包括所述第一用户从所述第一定位到所述第二定位的所述移动之后是对应于所述第一类型的锻炼的第一预定义移动以便满足所述第一标准的第三要求。
79.根据权利要求78所述的方法,包括:
响应于检测到所述第一用户从所述第一定位到所述第二定位的所述移动:
根据确定到所述第二定位的移动满足不同于所述第一标准和所述第二标准的第三标准,其中所述第三标准包括所述第二定位对应于与不同于所述第一类型的锻炼和所述第二类型的锻炼的第三类型的锻炼相关联的定位,并且所述第一用户从所述第一定位到所述第二定位的所述移动之后是对应于所述第三类型锻炼的第三预定义移动以便满足所述第三标准的要求,其中所述第三预定义移动不同于所述第一预定义移动,显示所述三维环境的第四视图,其中所述三维环境的所述第四视图包括对应于所述第三类型的锻炼的第三组虚拟内容,其中所述第三组虚拟内容不同于所述第一组虚拟内容和所述第二组虚拟内容,
并且其中所述第三组虚拟内容替换所述物理环境的所述第二部分的所述第二表示的至少一部分。
80.根据权利要求78至79中任一项所述的方法,包括:
根据对应于与所述第二定位相关联的相应锻炼类型的预定义移动的进度或持续时间中的至少一者,逐渐增加在所述第一用户的视场中显示的虚拟内容的量。
81.根据权利要求75至72中任一项所述的方法,包括:
当显示对应于与所述第二定位相关联的相应类型锻炼的所述三维环境的相应视图时,检测对应于结束与所述第二定位相关联的所述相应类型锻炼的请求的所述第一用户的移动;以及
响应于检测到对应于结束与所述第二定位相关联的所述相应类型锻炼的所述请求的所述第一用户的所述移动:
显示包括所述物理环境的至少第四部分的表示的所述三维环境的第五视图,其中所述物理环境的至少所述第四部分的所述表示占据所述第一用户的视场的一部分,在所述部分中当所述第一用户处于所述第二定位时已经显示对应于所述相应类型锻炼的相应组虚拟内容。
82.根据权利要求75至81中任一项所述的方法,包括:
当显示所述三维环境的所述第二视图时,显示对应于所述第一类型的锻炼的状态信息。
83.根据权利要求75至82中任一项所述的方法,包括:
当显示所述三维环境的所述第二视图时,显示对应于所述第一用户的健康信息。
84.根据权利要求75至83中任一项所述的方法,包括:
当显示所述三维环境的所述第二视图时,在视觉上呈现由所述第一用户执行的所述第一类型的锻炼的进度信息。
85.根据权利要求75至84中任一项所述的方法,其中显示所述三维环境的所述第二视图包括:
根据确定所述第一用户在所述物理环境中面向第一方向,显示对应于所述第一类型的锻炼的所述第一组虚拟内容的第一子集,而不显示所述第一组虚拟内容的第二子集;以及
根据确定所述第一用户在所述物理环境中面向不同于所述第一方向的第二方向,显示对应于所述第一类型的锻炼的所述第一组虚拟内容的所述第一子集,而不显示所述第一组虚拟内容的第二子集。
86.根据权利要求75至85中任一项所述的方法,其中所述第一类型的锻炼是赛艇锻炼,所述第二定位是存在赛艇锻炼设备的定位,并且所述三维环境的所述第二视图包括具有开阔水域的虚拟场景。
87.根据权利要求75至86中任一项所述的方法,包括:
响应于检测到所述第一用户从所述第一定位到所述第二定位的所述移动:
根据确定所述第二定位对应于与第五类型的锻炼和第六类型的锻炼相关联的定位:
根据确定所述第一用户从所述第一定位到所述第二定位的所述移动之后是所述第一用户在所述第二定位使用与所述第五类型的锻炼相关联的相应类型装备,显示所述三维环境的第六视图,其中所述三维环境的所述第六视图包括对应于所述第五类型的锻炼的第五组虚拟内容,其中所述第五组虚拟内容不同于所述第一组虚拟内容和所述第二组虚拟内容,并且其中所述第五组虚拟内容替换所述物理环境的第五部分的第五表示的至少一部分;以及
根据确定所述第一用户从所述第一定位到所述第二定位的所述移动之后是所述第一用户在所述第二定位处使用与所述第六类型的锻炼相关联的相应类型装备,显示所述三维环境的第七视图,其中所述三维环境的所述第七视图包括对应于所述第六类型的锻炼的第六组虚拟内容,其中所述第六组虚拟内容不同于所述第一组虚拟内容、所述第二组虚拟内容和所述第五组虚拟内容,并且其中所述第六组虚拟内容替换所述物理环境的所述第五部分的所述第五表示的至少一部分。
88.根据权利要求75至87中任一项所述的方法,其中所述三维环境的所述第二视图包括所述第一用户的虚拟表示,所述虚拟表示被示为与所述第一用户竞争执行所述第一类型的锻炼。
89.根据权利要求75至88中任一项所述的方法,其中所述三维环境的所述第二视图包括被示为与所述第一用户竞争执行所述第一类型的锻炼的不同于所述第一用户的至少第二用户的虚拟表示。
90.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
显示三维环境的第一视图,其中所述三维环境的所述第一视图包括物理环境的第一部分的第一表示;
当显示包括所述物理环境的所述第一部分的所述第一表示的所述三维环境的所述第一视图时,检测第一用户从所述物理环境的第一定位到第二定位的移动;以及
响应于检测到所述第一用户从所述第一定位到所述第二定位的所述移动:
根据确定到所述第二定位的所述移动满足第一标准,其中所述第一标准包括所述第二定位对应于与第一类型的锻炼相关联的定位以满足所述第一标准的第一要求,显示所述三维环境的第二视图,其中所述三维环境的所述第二视图包括对应于所述第一类型的锻炼的第一组虚拟内容,其中所述第一组虚拟内容替换包括所述第二定位的所述物理环境的第二部分的第二表示的至少一部分;以及
根据确定到所述第二定位的所述移动满足不同于所述第一标准的第二标准,其中所述第二标准包括所述第二定位对应于与第二类型的锻炼相关联的定位以满足所述第二标准的第二要求,其中所述第二类型的锻炼不同于所述第一类型的锻炼,显示所述三维环境的第三视图,其中所述三维环境的所述第三视图包括对应于所述第二类型的锻炼的第二组虚拟内容,其中所述第二组虚拟内容不同于所述第一组虚拟内容,并且其中所述第二组虚拟内容替换包括所述第二定位的所述物理环境的第三部分的第三表示的至少一部分。
91.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行操作,包括:
显示三维环境的第一视图,其中所述三维环境的所述第一视图包括物理环境的第一部分的第一表示;
当显示包括所述物理环境的所述第一部分的所述第一表示的所述三维环境的所述第一视图时,检测第一用户从所述物理环境的第一定位到第二定位的移动;以及
响应于检测到所述第一用户从所述第一定位到所述第二定位的所述移动:
根据确定到所述第二定位的所述移动满足第一标准,其中所述第一标准包括所述第二定位对应于与第一类型的锻炼相关联的定位以满足所述第一标准的第一要求,显示所述三维环境的第二视图,其中所述三维环境的所述第二视图包括对应于所述第一类型的锻炼的第一组虚拟内容,其中所述第一组虚拟内容替换包括所述第二定位的所述物理环境的第二部分的第二表示的至少一部分;以及
根据确定到所述第二定位的所述移动满足不同于所述第一标准的第二标准,其中所述第二标准包括所述第二定位对应于与第二类型的锻炼相关联的定位以满足所述第二标准的第二要求,其中所述第二类型的锻炼不同于所述第一类型的锻炼,显示所述三维环境的第三视图,其中所述三维环境的所述第三视图包括对应于所述第二类型的锻炼的第二组虚拟内容,其中所述第二组虚拟内容不同于所述第一组虚拟内容,并且其中所述第二组虚拟内容替换包括所述第二定位的所述物理环境的第三部分的第三表示的至少一部分。
92.一种计算机系统,包括:
显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求1至18中任一项所述的方法的指令。
93.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行根据权利要求1至18中任一项所述的方法。
94.一种计算机系统上的图形用户界面,所述计算机系统包括显示生成部件、一个或多个输入设备、存储器以及用于执行存储在所述存储器中的一个或多个程序的一个或多个处理器,所述图形用户界面包括根据权利要求1至18中任一项所述的方法显示的用户界面。
95.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;和
用于执行根据权利要求1至18中任一项所述的方法的装置。
96.一种在包括第一显示生成部件和一个或多个输入设备的计算机系统中使用的信息处理装置,所述信息处理装置包括:
用于执行根据权利要求1至18中任一项所述的方法的装置。
97.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求21至34中任一项所述的方法的指令。
98.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行根据权利要求21至34中任一项所述的方法。
99.一种计算机系统上的图形用户界面,所述计算机系统包括第一显示生成部件、一个或多个输入设备、存储器以及用于执行存储在所述存储器中的一个或多个程序的一个或多个处理器,所述图形用户界面包括根据权利要求21至34中任一项所述的方法显示的用户界面。
100.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;和
用于执行根据权利要求21至34中任一项所述的方法的装置。
101.一种在包括第一显示生成部件和一个或多个输入设备的计算机系统中使用的信息处理装置,所述信息处理装置包括:
用于执行根据权利要求21至34中任一项所述的方法的装置。
102.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求37至52中任一项所述的方法的指令。
103.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行根据权利要求37至52中任一项所述的方法。
104.一种计算机系统上的图形用户界面,所述计算机系统包括第一显示生成部件、一个或多个输入设备、存储器以及用于执行存储在所述存储器中的一个或多个程序的一个或多个处理器,所述图形用户界面包括根据权利要求37至52中任一项所述的方法显示的用户界面。
105.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;和
用于执行根据权利要求37至52中任一项所述的方法的装置。
106.一种在包括第一显示生成部件和一个或多个输入设备的计算机系统中使用的信息处理装置,所述信息处理装置包括:
用于执行根据权利要求37至52中任一项所述的方法的装置。
107.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求55至72中任一项所述的方法的指令。
108.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行根据权利要求55至72中任一项所述的方法。
109.一种计算机系统上的图形用户界面,所述计算机系统包括第一显示生成部件、一个或多个输入设备、存储器以及用于执行存储在所述存储器中的一个或多个程序的一个或多个处理器,所述图形用户界面包括根据权利要求55至72中任一项所述的方法显示的用户界面。
110.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;和
用于执行根据权利要求55至72中任一项所述的方法的装置。
111.一种在包括第一显示生成部件和一个或多个输入设备的计算机系统中使用的信息处理装置,所述信息处理装置包括:
用于执行根据权利要求55至72中任一项所述的方法的装置。
112.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;
一个或多个处理器;和
存储器,所述存储器存储一个或多个程序,其中所述一个或多个程序被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求75至89中任一项所述的方法的指令。
113.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由包括第一显示生成部件和一个或多个输入设备的计算机系统执行时,使得所述计算机系统执行根据权利要求75至89中任一项所述的方法。
114.一种计算机系统上的图形用户界面,所述计算机系统包括第一显示生成部件、一个或多个输入设备、存储器以及用于执行存储在所述存储器中的一个或多个程序的一个或多个处理器,所述图形用户界面包括根据权利要求75至89中任一项所述的方法显示的用户界面。
115.一种计算机系统,包括:
第一显示生成部件;
一个或多个输入设备;和
用于执行根据权利要求75至89中任一项所述的方法的装置。
116.一种在包括第一显示生成部件和一个或多个输入设备的计算机系统中使用的信息处理装置,所述信息处理装置包括:
用于执行根据权利要求75至89中任一项所述的方法的装置。
CN202180065826.4A 2020-09-25 2021-09-24 用于与三维环境进行交互的设备、方法和图形用户界面 Pending CN116209505A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310886588.4A CN116880694A (zh) 2020-09-25 2021-09-24 用于与三维环境进行交互的设备、方法和图形用户界面

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063083816P 2020-09-25 2020-09-25
US63/083,816 2020-09-25
US17/483,730 US11562528B2 (en) 2020-09-25 2021-09-23 Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US17/483,730 2021-09-23
PCT/US2021/052027 WO2022067083A2 (en) 2020-09-25 2021-09-24 Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202310886588.4A Division CN116880694A (zh) 2020-09-25 2021-09-24 用于与三维环境进行交互的设备、方法和图形用户界面

Publications (1)

Publication Number Publication Date
CN116209505A true CN116209505A (zh) 2023-06-02

Family

ID=80821438

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202310886588.4A Pending CN116880694A (zh) 2020-09-25 2021-09-24 用于与三维环境进行交互的设备、方法和图形用户界面
CN202180065826.4A Pending CN116209505A (zh) 2020-09-25 2021-09-24 用于与三维环境进行交互的设备、方法和图形用户界面

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202310886588.4A Pending CN116880694A (zh) 2020-09-25 2021-09-24 用于与三维环境进行交互的设备、方法和图形用户界面

Country Status (6)

Country Link
US (4) US11562528B2 (zh)
EP (1) EP4196866A2 (zh)
JP (1) JP2023542846A (zh)
KR (1) KR20230047184A (zh)
CN (2) CN116880694A (zh)
WO (1) WO2022067083A2 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11801434B2 (en) * 2020-05-20 2023-10-31 Mark Greenberg Racquet sport scoring system
CN116171573A (zh) * 2020-07-21 2023-05-26 索尼集团公司 信息处理设备、信息处理方法和程序
EP4200792A1 (en) 2020-08-21 2023-06-28 Mobeus Industries, Inc. Integrating overlaid digital content into displayed data via graphics processing circuitry
US11562528B2 (en) 2020-09-25 2023-01-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP7168238B2 (ja) * 2020-11-20 2022-11-09 株式会社インタラクティブソリューションズ ミーティング支援システム
JP2022087700A (ja) * 2020-12-01 2022-06-13 京セラドキュメントソリューションズ株式会社 電子機器および画像形成装置
US11954242B2 (en) 2021-01-04 2024-04-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11757997B2 (en) * 2021-01-19 2023-09-12 Seek Xr, Inc. Systems and methods for facilitating shared extended reality experiences
US20220241665A1 (en) * 2021-02-01 2022-08-04 Ifit Inc. Exercise storage system
US11481933B1 (en) 2021-04-08 2022-10-25 Mobeus Industries, Inc. Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry
US11477020B1 (en) 2021-04-30 2022-10-18 Mobeus Industries, Inc. Generating a secure random number by determining a change in parameters of digital content in subsequent frames via graphics processing circuitry
US11475610B1 (en) * 2021-04-30 2022-10-18 Mobeus Industries, Inc. Controlling interactivity of digital content overlaid onto displayed data via graphics processing circuitry using a frame buffer
US20230154126A1 (en) * 2021-11-15 2023-05-18 International Business Machines Corporation Creating a virtual object response to a user input
US20230195208A1 (en) * 2021-12-16 2023-06-22 Joshua Steven Noyes Centralized Virtual Reality and Augmented Reality Activity System
US11630517B1 (en) * 2022-01-25 2023-04-18 Synchron Australia Pty Limited Systems and methods for increasing control using a neural signal
US11948244B2 (en) * 2022-02-11 2024-04-02 Shopify Inc. Augmented reality enabled dynamic product presentation
US20230410979A1 (en) * 2022-06-21 2023-12-21 TRIPP, Inc. Location-based multi-user augmented reality for wellness
US20230414132A1 (en) * 2022-06-24 2023-12-28 Shanghai United Imaging Intelligence Co., Ltd. System and method for providing rehabilitation in a virtual environment
US20240103707A1 (en) * 2022-09-24 2024-03-28 Apple Inc. Methods for time of day adjustments for environments and environment presentation during communication sessions

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073246A (ja) 2000-08-25 2002-03-12 Minolta Co Ltd 映像表示システム
JP5431473B2 (ja) 2009-06-18 2014-03-05 パイオニア株式会社 情報表示装置
JP2012155655A (ja) 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
US20120257035A1 (en) 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
JP5817973B2 (ja) 2011-07-15 2015-11-18 コニカミノルタ株式会社 表示制御装置、及び情報処理装置、画像処理装置
US9854014B2 (en) * 2013-03-14 2017-12-26 Google Inc. Motion data sharing
US9244527B2 (en) 2013-03-26 2016-01-26 Volkswagen Ag System, components and methodologies for gaze dependent gesture input control
KR20140126492A (ko) 2013-04-23 2014-10-31 엘지전자 주식회사 인덱스 디스플레이 영역을 포함하는 포터블 디바이스 및 그 제어 방법
WO2016098519A1 (ja) 2014-12-17 2016-06-23 コニカミノルタ株式会社 電子機器、電子機器の制御方法及びその制御プログラム
AU2016341196B2 (en) 2015-10-20 2021-09-16 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
US10250720B2 (en) 2016-05-05 2019-04-02 Google Llc Sharing in an augmented and/or virtual reality environment
US9864431B2 (en) 2016-05-11 2018-01-09 Microsoft Technology Licensing, Llc Changing an application state using neurological data
DK201670574A1 (en) 2016-06-12 2018-01-02 Apple Inc Accelerated scrolling
KR102581359B1 (ko) * 2016-09-02 2023-09-20 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
EP3361352B1 (en) 2017-02-08 2019-06-05 Alpine Electronics, Inc. Graphical user interface system and method, particularly for use in a vehicle
US10481755B1 (en) 2017-04-28 2019-11-19 Meta View, Inc. Systems and methods to present virtual content in an interactive space
EP3688562A1 (en) 2017-09-29 2020-08-05 Apple Inc. Physical boundary guardian
US10706630B2 (en) 2018-08-13 2020-07-07 Inspirium Laboratories LLC Augmented reality user interface including dual representation of physical location
US11592896B2 (en) 2018-11-07 2023-02-28 Wild Technology, Inc. Technological infrastructure for enabling multi-user collaboration in a virtual reality environment
US10890983B2 (en) 2019-06-07 2021-01-12 Facebook Technologies, Llc Artificial reality system having a sliding menu
US11096006B1 (en) 2019-11-04 2021-08-17 Facebook Technologies, Llc Dynamic speech directivity reproduction
US11443650B2 (en) * 2019-11-25 2022-09-13 Kwangwoon University Industry-Academic Collaboration Foundation Method and apparatus for VR training
US20220091722A1 (en) 2020-09-23 2022-03-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11562528B2 (en) 2020-09-25 2023-01-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11954242B2 (en) 2021-01-04 2024-04-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Also Published As

Publication number Publication date
JP2023542846A (ja) 2023-10-12
US11810244B2 (en) 2023-11-07
CN116880694A (zh) 2023-10-13
US11562528B2 (en) 2023-01-24
WO2022067083A3 (en) 2022-05-05
US20220101593A1 (en) 2022-03-31
EP4196866A2 (en) 2023-06-21
US20240177403A1 (en) 2024-05-30
KR20230047184A (ko) 2023-04-06
US20230143827A1 (en) 2023-05-11
US20230147148A1 (en) 2023-05-11
WO2022067083A2 (en) 2022-03-31
US11900527B2 (en) 2024-02-13

Similar Documents

Publication Publication Date Title
US11810244B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11962954B2 (en) System and method for presenting virtual reality content to a user
JP7465952B2 (ja) 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
US11615596B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN116719415A (zh) 用于提供计算机生成的体验的设备、方法和图形用户界面
JP7416048B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20220018562A (ko) 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅
CN103785169A (zh) 混合现实的竞技场
CN117957581A (zh) 用于与三维环境交互的设备、方法和图形用户界面
CN117999534A (zh) 用于与三维环境进行交互的设备、方法和图形用户界面
CN118159935A (zh) 用于内容应用程序的设备、方法和图形用户界面
WO2023183340A1 (en) Devices, methods, and graphical user interfaces for three-dimensional user experience sessions in an extended reality environment
CN117480472A (zh) 用于在环境中提供沉浸式体验的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: P. Locker

Inventor after: J. Yade

Inventor after: Honegger Jonas

Inventor after: M.E. Hankie

Inventor after: Wen Yunshi

Inventor after: S.O. Lemme

Inventor after: W. A. sorenteno III

Inventor after: G. Yerkes

Inventor after: N. W. Henderson

Inventor after: G.I. Butcher

Inventor after: R.R. Delinger

Inventor after: J. Eve

Inventor after: A.C. Day

Inventor before: P. Locker

Inventor before: J. Yade

Inventor before: Honegger Jonas

Inventor before: M.E. Hankie

Inventor before: S.W.Wan

Inventor before: S.O. Lemme

Inventor before: W. A. sorenteno III

Inventor before: G. Yerkes

Inventor before: N. W. Henderson

Inventor before: G.I. Butcher

Inventor before: R.R. Delinger

Inventor before: J. Eve

Inventor before: A.C. Day

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination