CN117111730A - 用于呈现引导式拉伸会话的方法和设备 - Google Patents

用于呈现引导式拉伸会话的方法和设备 Download PDF

Info

Publication number
CN117111730A
CN117111730A CN202310562621.8A CN202310562621A CN117111730A CN 117111730 A CN117111730 A CN 117111730A CN 202310562621 A CN202310562621 A CN 202310562621A CN 117111730 A CN117111730 A CN 117111730A
Authority
CN
China
Prior art keywords
user
implementations
environment
visual
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310562621.8A
Other languages
English (en)
Inventor
J·J·邓恩
A·V·乌拉尔
A·G·布鲁诺
D·M·特里奇
I·内戈伊塔
I·曼斯
M·S·德默斯
T·G·萨尔特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN117111730A publication Critical patent/CN117111730A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0068Comparison to target or threshold, previous performance or not real time comparison to other individuals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0625Emitting sound, noise or music
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/06363D visualisation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0647Visualisation of executed movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0655Tactile feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2230/00Measuring physiological parameters of the user
    • A63B2230/62Measuring physiological parameters of the user posture
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及“用于呈现引导式拉伸会话的方法和设备”。在一些具体实施中,一种方法包括:在呈现3D环境时,获取用户的用户简档和头部姿态信息;基于该用户简档和头部姿态信息来确定针对引导式拉伸会话的第一部分的该3D环境内的视觉提示的位置;呈现在该3D环境内的该确定位置处的该视觉提示和方向指示符;以及响应于检测到对该头部姿态信息的改变:基于对该头部姿态信息的该改变来更新该方向指示符的位置;以及根据确定该头部姿态信息的该改变满足与该视觉提示中的第一视觉提示相关联的标准,提供指示该第一视觉提示已经针对该引导式拉伸会话的该第一部分完成的音频、触觉或视觉反馈中的至少一者。

Description

用于呈现引导式拉伸会话的方法和设备
技术领域
本公开整体涉及姿势感知,并且具体地讲,涉及用于呈现引导式拉伸会话的系统、设备和方法。
背景技术
在工作时间和非工作时间期间,许多人可能在其计算机或其他设备上花费大量时间。使用计算机或其他设备所花费的该时间可能对所述人的姿势产生负面影响。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1是根据一些具体实施的示例性操作架构的框图。
图2是根据一些具体实施的示例性控制器的框图。
图3是根据一些具体实施的示例性电子设备的框图。
图4A是根据一些具体实施的数据处理架构的第一部分的框图。
图4B示出了根据一些具体实施的示例性数据结构。
图4C是根据一些具体实施的数据处理架构的第二部分的框图。
图4D示出了根据一些具体实施的示例性数据结构。
图4E是根据一些具体实施的数据处理架构的第三部分的框图。
图5是根据一些具体实施的示例性内容递送架构的框图。
图6A至图6F示出了根据一些具体实施的与引导式拉伸会话相关联的多个三维(3D)环境。
图7A至图7D示出了根据一些具体实施的呈现引导式拉伸会话的方法的流程图表示。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
发明内容
本文所公开的各种具体实施包括用于呈现引导式拉伸会话的设备、系统和方法。根据一些具体实施,所述方法在包括非暂态存储器和一个或多个处理器的计算系统处执行,其中所述计算系统通信地耦接到显示设备和一个或多个输入设备。该方法包括:在经由该显示设备呈现三维(3D)环境时,获取与该计算系统相关联的用户的用户简档信息和头部姿态信息;基于该用户简档信息和该头部姿态信息来确定针对引导式拉伸会话的第一部分的该3D环境内的第一多个视觉提示的位置,其中该引导式拉伸会话的该第一部分对应于第一拉伸方向;经由该显示设备呈现在该3D环境内的该确定位置处的针对引导式拉伸会话的该第一部分的该第一多个视觉提示和方向指示符;经由该一个或多个输入设备检测与该用户相关联的该头部姿态信息的改变;以及响应于检测到与该用户相关联的该头部姿态信息的该改变:基于与该用户相关联的该头部姿态信息的该改变来更新该方向指示符的位置;以及根据与该用户相关联的该头部姿态信息的该改变满足与该第一多个视觉提示中的第一视觉提示相关联的标准的确定,提供指示该第一多个视觉提示中的该第一视觉提示已经对于该引导式拉伸会话的该第一部分完成的音频、触觉或视觉反馈中的至少一者。
根据一些具体实施,一种电子设备包括一个或多个显示器、一个或多个处理器、非暂态存储器和一个或多个程序;该一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且该一个或多个程序包括用于执行或使得执行本文所述方法中的任一种的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,这些指令在由设备的一个或多个处理器执行时使该设备执行或使执行本文所述方法中的任一种。根据一些具体实施,一种设备包括:一个或多个显示器、一个或多个处理器、非暂态存储器以及用于执行或使执行本文所述方法中的任一种的装置。
根据一些具体实施,一种计算系统包括一个或多个处理器、非暂态存储器、用于与显示设备和一个或多个输入设备进行通信的接口、以及一个或多个程序;一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且一个或多个程序包括用于执行或导致执行本文所述的方法中的任一种方法的操作的指令。根据一些实施方案,一种非暂态计算机可读存储介质具有存储在其中的指令,这些指令当由具有与显示设备和一个或多个输入设备通信的接口的计算系统的一个或多个处理器执行时,使得所述计算系统执行或使得执行本文所述的方法中的任一种方法的操作。根据一些具体实施,一种计算系统包括一个或多个处理器、非暂态存储器、用于与显示设备和一个或多个输入设备通信的接口、以及用于执行或导致执行本文所述的方法中的任一种方法的操作的装置。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将理解,其他有效方面和/或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
图1是根据一些具体实施的示例性操作架构100的框图。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,操作架构100包括可选的控制器110和电子设备120(例如,平板电脑、移动电话、膝上型电脑、近眼系统、可穿戴计算设备等)。
在一些具体实施中,控制器110被配置为管理和协调用户150和任选地其他用户的扩展现实(XR)体验(在本文中有时也称为“XR环境”或“虚拟环境”或“图形环境”或“3D环境”)。在一些具体实施中,控制器110包括软件、固件和/或硬件的合适组合。下文参考图2更详细地描述控制器110。在一些具体实施中,控制器110是相对于物理环境105位于本地或远程位置的计算设备。例如,控制器110是位于物理环境105内的本地服务器。在另一个示例中,控制器110是位于物理环境105之外的远程服务器(例如,云服务器、中央服务器等)。在一些具体实施中,控制器110经由一个或多个有线或无线通信信道144(例如,蓝牙、IEEE802.11x、IEEE 802.16x、IEEE 802.3x等)与电子设备120通信地耦接。在一些具体实施中,控制器110的功能由电子设备120提供。这样,在一些具体实施中,控制器110的部件集成到电子设备120中。
在一些具体实施中,电子设备120被配置为向用户150呈现音频和/或视频(A/V)内容。在一些具体实施中,电子设备120被配置为向用户150呈现用户界面(UI)和/或XR环境128。在一些具体实施中,电子设备120包括软件、固件和/或硬件的合适组合。下文参考图3更详细地描述电子设备120。
根据一些具体实施,当用户150物理地存在于物理环境105内时,电子设备120向用户150呈现XR体验,其中物理环境105包括处于电子设备120的视场(FOV)111内的桌子107。这样,在一些具体实施中,用户150将电子设备120拿在他/她的一只或两只手中。在一些具体实施中,在呈现XR体验时,电子设备120被配置为呈现XR内容(在本文中有时也被称为“图形内容”或“虚拟内容”),包括XR圆柱体109,并使得能够实现显示器122上物理环境105(例如,包括桌子107(或其表示))的视频透传。例如,包括XR圆柱体109的XR环境128是立体的或三维的(3D)。
在一个示例中,XR圆柱体109对应于头部/显示器锁定的内容,使得当FOV 111由于电子设备120的平移和/或旋转运动而改变时,XR圆柱体109保持显示在显示器122上的相同位置处。作为另一示例,XR圆柱体109对应于世界/对象锁定的内容,使得当FOV 111由于电子设备120的平移和/或旋转运动而改变时,XR圆柱体109保持显示在其原始位置处。因此,在该示例中,如果FOV 111不包括原始位置,则所显示的XR环境128将不包括XR圆柱体109。作为另一示例,XR圆柱体109对应于身体锁定的内容,使得其保持在与用户150的身体的一定定位和旋转偏移量处。在一些示例中,电子设备120对应于近眼系统、移动电话、平板电脑、膝上型电脑、可穿戴计算设备等。
在一些具体实施中,显示器122对应于使得能够实现物理环境105(包括桌子107)的光学透传的加成显示器。例如,显示器122对应于透明透镜,并且电子设备120对应于用户150佩戴的一副眼镜。因此,在一些具体实施中,电子设备120通过将XR内容(例如,XR圆柱体109)投影到加成显示器上而呈现用户界面,其继而从用户150的角度叠置在物理环境105上。在一些具体实施中,电子设备120通过将XR内容(例如,XR圆柱体109)显示在加成显示器上而呈现用户界面,其继而从用户150的角度叠置在物理环境105上。
在一些具体实施中,用户150穿戴电子设备120,诸如近眼系统。因此,电子设备120包括被提供以显示XR内容的一个或多个显示器(例如,单个显示器或每只眼睛一个显示器)。例如,电子设备120包围用户150的FOV。在此类具体实施中,电子设备120通过在一个或多个显示器上显示对应于XR环境128的数据或者通过将对应于XR环境128的数据投影到用户150的视网膜上来呈现XR环境128。
在一些具体实施中,电子设备120包括显示XR环境128的集成显示器(例如,内置显示器)。在一些具体实施中,电子设备120包括可头戴式壳体。在各种具体实施中,头戴式壳体包括附接区,具有显示器的另一设备可附接到该附接区。例如,在一些具体实施中,电子设备120可附接到可头戴式壳体。在各种具体实施中,可头戴式壳体被成形为形成用于接收包括显示器的另一设备(例如,电子设备120)的接收器。例如,在一些具体实施中,电子设备120滑动/卡扣到可头戴式壳体中或以其他方式附接到该可头戴式壳体。在一些具体实施中,附接到可头戴式壳体的设备的显示器呈现(例如,显示)XR环境128。在一些具体实施中,将电子设备120替换成被配置为呈现XR内容的XR室、壳体或房间,在其中用户150不穿戴电子设备120。
在一些具体实施中,控制器110和/或电子设备120使得用户150的XR表示基于来自电子设备120和/或物理环境105内的可选的远程输入设备的移动信息(例如,身体姿态数据、眼睛跟踪数据、手/肢体/手指/末端跟踪数据等)在XR环境128内移动。在一些具体实施中,可选的远程输入设备对应于物理环境105内的固定或可移动的感官设备(例如,图像传感器、深度传感器、红外(IR)传感器、事件相机、麦克风等)。在一些具体实施中,每个远程输入设备被配置为在用户150物理地在物理环境105内时收集/捕获输入数据并且将输入数据提供给控制器110和/或电子设备120。在一些具体实施中,远程输入设备包括麦克风,并且输入数据包括与用户150相关联的音频数据(例如,语音样本)。在一些具体实施中,远程输入设备包括图像传感器(例如,相机),并且输入数据包括用户150的图像。在一些具体实施中,输入数据表征用户150在不同时间的身体姿态。在一些具体实施中,输入数据表征用户150在不同时间的头部姿态。在一些具体实施中,输入数据表征在不同时间与用户150的手相关联的手跟踪信息。在一些具体实施中,输入数据表征用户150的身体部分(诸如他/她的手)的速度和/或加速度。在一些具体实施中,输入数据指示用户150的关节位置和/或关节取向。在一些具体实施中,远程输入设备包括反馈设备,诸如扬声器、灯等。
图2是根据一些具体实施的控制器110的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,控制器110包括一个或多个处理单元202(例如,微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、中央处理单元(CPU)、处理内核等)、一个或多个输入/输出(I/O)设备206、一个或多个通信接口208(例如,通用串行总线(USB)、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、全球移动通信系统(GSM)、码分多址(CDMA)、时分多址(TDMA)、全球定位系统(GPS)、红外(IR)、蓝牙、ZIGBEE和/或类似类型的接口)、一个或多个编程(例如,I/O)接口210、存储器220以及用于互连这些部件和各种其他部件的一条或多条通信总线204。
在一些具体实施中,该一条或多条通信总线204包括互连系统部件和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备206包括键盘、鼠标、触控板、触摸屏、操纵杆、一个或多个麦克风、一个或多个扬声器、一个或多个图像传感器、一个或多个显示器等中的至少一者。
存储器220包括高速随机存取存储器,诸如动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、双倍数据速率随机存取存储器(DDR RAM)或者其他随机存取固态存储器设备。在一些具体实施中,存储器220包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器220任选地包括远离所述一个或多个处理单元202定位的一个或多个存储设备。存储器220包括非暂态计算机可读存储介质。在一些具体实施中,存储器220或存储器220的非暂态计算机可读存储介质存储下文参照图2所述的下述程序、模块和数据结构或者它们的子集。
操作系统230包括用于处理各种系统服务和用于执行硬件相关任务的过程。
在一些具体实施中,数据获取器242被配置为从控制器110的I/O设备206、电子设备120的I/O设备及传感器306、和任选的远程输入设备中的至少一者获取数据(例如,捕获的物理环境105的图像帧、呈现数据、输入数据、用户交互数据、相机姿态跟踪信息、眼睛跟踪信息、头部/身体姿态跟踪信息、手部/肢体/手指/四肢跟踪信息、传感器数据、位置数据等)。为此,在各种具体实施中,数据获取器242包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,映射器和定位器引擎244被配置为映射物理环境105并至少跟踪电子设备120或用户150相对于物理环境105的定位/位置。为此,在各种具体实施中,映射器和定位器引擎244包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,数据传输器246被配置为至少向电子设备120和任选地一个或多个其他设备传输数据(例如,呈现数据,诸如与XR环境相关联的渲染的图像帧、位置数据等)。为此,在各种具体实施中,数据传输器246包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,隐私架构408被配置为摄取数据并且基于一个或多个隐私过滤器来过滤该数据内的用户信息和/或识别信息。下文参考图4A更详细地描述隐私架构408。为此,在各种具体实施中,隐私架构408包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,运动状态估计器410被配置为基于输入数据来获取(例如,接收、检索或确定/生成)与电子设备120(和用户150)相关联的运动状态向量411(例如,包括与电子设备120相关联的当前运动状态)并且随时间推移而更新运动状态向量411。例如,如图4B所示,运动状态向量411包括电子设备120的运动状态描述符422(例如,静止、运动中、步行、跑步、骑行、操作或乘坐汽车、操作或乘坐轮船、操作或乘坐公共汽车、操作或乘坐火车、操作或乘坐飞机等)、与电子设备120相关联的平移移动值424(例如,航向、速度值、加速度值等)、与电子设备120相关联的角移动值426(例如,俯仰、翻滚和偏航维度中的每个维度的角速度值、角加速度值等)等。下文参考图4A更详细地描述运动状态估计器410。为此,在各种具体实施中,运动状态估计器410包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,眼睛跟踪引擎412被配置为基于输入数据来获取(例如,接收、检索或确定/生成)如图4B所示的眼睛跟踪向量413(例如,具有注视方向)并且随时间推移而更新眼睛跟踪向量413。例如,注视方向指示用户150当前正在查看的物理环境105中的点(例如,与相对于物理环境105或整个世界的x坐标、y坐标和z坐标相关联)、物理对象或感兴趣区域(ROI)。作为另一示例,注视方向指示用户150当前正在查看的XR环境128中的点(例如,与相对于XR环境128的x坐标、y坐标和z坐标相关联)、XR对象或ROI。下文参考图4A更详细地描述眼睛跟踪引擎412。为此,在各种具体实施中,眼睛跟踪引擎412包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,头部/身体姿态跟踪引擎414被配置为基于输入数据来获取(例如,接收、检索或确定/生成)姿态表征向量415并且随时间推移而更新姿态表征向量415。例如,如图4B所示,姿态表征向量415包括头部姿态描述符442A(例如,向上、向下、中性等)、头部姿态的平移值442B、头部姿态的旋转值442C、身体姿态描述符444A(例如,站立、坐着、俯卧等)、身体部位/四肢/肢体/关节的平移值444B、身体部位/四肢/肢体/关节的旋转值444C等。下文参考图4A更详细地描述头部/身体姿态跟踪引擎414。为此,在各种具体实施中,头部/身体姿态跟踪引擎414包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。在一些具体实施中,作为控制器110的补充或替代,运动状态估计器410、眼睛跟踪引擎412和头部/身体姿态跟踪引擎414可位于电子设备120上。
在一些具体实施中,内容选择器522被配置为基于一个或多个用户请求和/或用户输入(例如,语音命令、从XR内容项或虚拟代理(VA)的用户界面(UI)菜单中的选择等),从内容库525中选择XR内容(在本文中有时也被称为“图形内容”或“虚拟内容”)。下文参考图4A更详细地描述内容选择器522。为此,在各种具体实施中,内容选择器522包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,内容库525包括多个内容项,诸如听觉/视觉(A/V)内容、虚拟代理(VA)和/或XR内容、对象、项、场景等。作为一个示例,XR内容包括用户捕获的视频、电影、TV剧集和/或其他XR内容的3D重建。在一些具体实施中,内容库525由用户150预先填充或手动创作。在一些具体实施中,内容库525相对于控制器110位于本地。在一些具体实施中,内容库525位于远离控制器110的位置(例如,位于远程服务器、云服务器等处)。
在一些具体实施中,表征引擎416被配置为如图4A所示的那样基于运动状态向量411、眼睛跟踪向量413和姿态表征向量415中的至少一者来确定/生成表征向量419。在一些具体实施中,表征引擎416还被配置为随时间推移而更新姿态表征向量419。如图4B所示,表征向量419包括运动状态信息452、注视方向信息454、头部姿态信息456A、身体姿态信息456AB、四肢跟踪信息456AC、位置信息458等。下文参考图4A更详细地描述表征引擎416。为此,在各种具体实施中,表征引擎416包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,上下文分析器460被配置为基于图4C所示的输入数据来获取(例如,接收、检索、或确定/生成)上下文信息向量470并且随时间推移而更新上下文信息向量470。如图4C所示,上下文信息向量470包括环境状态信息472、设备状态信息474和用户状态信息476。下文参考图4C更详细地描述上下文分析器460。为此,在各种具体实施中,上下文分析器460包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,肌肉拉伤引擎463被配置为基于图4C所示的输入信息来获取(例如,接收、检索、或确定/生成)当前拉伤信息480并且随时间推移而更新当前拉伤信息480。如图4D所示,当前拉伤信息480包括:与第一肌肉或肌肉组/区域相关联的肌肉信息482A;与第二肌肉或肌肉组/区域相关联的肌肉信息482B;与第三肌肉或肌肉组/区域相关联的肌肉信息482C;与第四肌肉或肌肉组/区域相关联的肌肉信息482D;与第五肌肉或肌肉组/区域相关联的肌肉信息482E;和当前累积拉伤信息486。为此,在各种具体实施中,肌肉拉伤引擎463包括头部/身体/颈部力学引擎462以及具有拉伤增加逻辑部件465A和拉伤减少逻辑部件465B的拉伤分析器464。下文参考图4C更详细地描述肌肉拉伤引擎463。为此,在各种具体实施中,肌肉拉伤引擎463包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,交互式拉伸引擎468A生成拉伸会话可视化469。下文参考图4E更详细地描述交互式拉伸引擎468A。为此,在各种具体实施中,交互式拉伸引擎468A包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,应用程序编程接口(API)468B被配置为向以下中的至少一者提供对当前拉伤信息480的访问:控制器110的操作系统、电子设备120、或它们的组合;第三方程序或应用程序;等等。因此,当前拉伤信息480可用于各种下游过程。下文参考图4E更详细地描述API 468B。为此,在各种具体实施中,API 468B包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,内容管理器530被配置为管理和更新XR环境128的布局、设置、结构等,包括VA、XR内容、与XR内容相关联的一个或多个用户界面(UI)元素等中的一者或多者。下文参考图5更详细地描述内容管理器530。为此,在各种具体实施中,内容管理器530包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。在一些具体实施中,内容管理器530包括帧缓冲器532、内容更新器534和反馈引擎536。在一些具体实施中,帧缓冲器532包括用于一个或多个过去实例和/或帧的XR内容、渲染的图像帧等。
在一些具体实施中,内容更新器534被配置为基于电子设备120或物理环境128内的物理对象的平移或旋转移动、用户输入(例如,上下文的变化、手部/四肢跟踪输入、眼睛跟踪输入、触摸输入、语音命令、对物理对象的修改/操纵输入等)等来随时间推移修改XR环境105。为此,在各种具体实施中,内容更新器534包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,反馈引擎536被配置为生成与XR环境128相关联的感官反馈(例如,视觉反馈(诸如文本或照明变化)、音频反馈、触觉反馈等)。为此,在各种具体实施中,反馈引擎536包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,渲染引擎550被配置为渲染XR环境128(有时也称为“图形环境”或“虚拟环境”)或与该XR环境相关联的图像帧以及VA、XR内容、与XR内容相关联的一个或多个UI元素等。为此,在各种具体实施中,渲染引擎550包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。在一些具体实施中,渲染引擎550包括姿态确定器552、渲染器554、任选的图像处理架构556和任选的合成器558。本领域的普通技术人员将理解,对于视频透传配置,可以存在任选的图像处理架构556和任选的合成器558,但对于完全VR或光学透传配置,可以移除该任选的图像处理架构和该任选的合成器。
在一些具体实施中,姿态确定器552被配置为确定电子设备120和/或用户150相对于A/V内容和/或XR内容的当前相机姿态。下文参考图5更详细地描述姿态确定器552。为此,在各种具体实施中,姿态确定器552包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,渲染器554被配置为根据与其相关的当前相机姿态来渲染A/V内容和/或XR内容。下文参考图5更详细地描述渲染器554。为此,在各种具体实施中,渲染器554包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,图像处理架构556被配置为从电子设备120和/或用户150的当前相机姿态获取(例如,接收、检索或捕获)包括物理环境105的一个或多个图像的图像流。在一些具体实施中,图像处理架构556还被配置为对图像流执行一个或多个图像处理操作,诸如扭曲、颜色校正、γ校正、锐化、降噪、白平衡等。下文参考图5更详细地描述图像处理架构556。为此,在各种具体实施中,图像处理架构556包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,合成器558被配置为将渲染的A/V内容和/或XR内容与来自图像处理架构556的物理环境105的经处理的图像流合成,以产生XR环境128的渲染的图像帧以供显示。下文参考图5更详细地描述合成器558。为此,在各种具体实施中,合成器558包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
尽管数据获取器242、映射器和定位器引擎244、数据传输器246、隐私架构408、运动状态估计器410、眼睛跟踪引擎412、头部/身体姿态跟踪引擎414、表征引擎416、上下文分析器460、肌肉拉伤引擎463、交互式拉伸引擎468A、API 468B、内容选择器522、内容管理器530和渲染引擎550被示为驻留在单个设备(例如,控制器110)上,但应当理解,在其他具体实施中,数据获取器242、映射器和定位器引擎244、数据传输器246、隐私架构408、运动状态估计器410、眼睛跟踪引擎412、头部/身体姿态跟踪引擎414、表征引擎416、上下文分析器460、肌肉拉伤引擎463、交互式拉伸引擎468A、API 468B、内容选择器522、内容管理器530和渲染引擎550的任何组合可位于单独计算设备中。
在一些具体实施中,控制器110的功能和/或部件与下文在图3中所示的电子设备120组合或由其提供。此外,图2更多地用作可存在于特定具体实施中的各种特征部的功能描述,而不是本文所述的具体实施的结构示意。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图2中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
图3是根据一些具体实施的电子设备120(例如,移动电话、平板电脑、膝上型电脑、近眼系统、可穿戴计算设备等)的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。出于该目的,作为非限制性示例,在一些具体实施中,电子设备120包括一个或多个处理单元302(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器306、一个或多个通信接口308(例如,USB、IEEE802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE和/或类似类型的接口)、一个或多个编程(例如,I/O)接口310、一个或多个显示器312、图像捕获设备370(一个或多个任选的面向内部和/或面向外部的图像传感器)、存储器320以及用于互连这些部件和各种其他部件的一条或多条通信总线304。
在一些具体实施中,一条或多条通信总线304包括互连和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备及传感器306包括惯性测量单元(IMU)、加速度计、陀螺仪、磁力仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血氧饱和度监测仪、血糖监测仪等)、一个或多个麦克风、一个或多个扬声器、触觉引擎、加热和/或冷却单元、皮肤剪切引擎、一个或多个深度传感器(例如,结构化光、飞行时间、LiDAR等)、定位和映射引擎、眼睛跟踪引擎、头部/身体姿态跟踪引擎、手部/肢体/手指/四肢跟踪引擎、相机姿态跟踪引擎等中的至少一者。
在一些具体实施中,一个或多个显示器312被配置为向用户呈现XR环境。在一些具体实施中,一个或多个显示器312也被配置为向用户呈现平面视频内容(例如,与电视剧或电影相关联的二维或“平面”AVI、FLV、WMV、MOV、MP4等文件,或物理环境105的实时视频透传)。在一些具体实施中,一个或多个显示器312对应于触摸屏显示器(例如,类似于图1中的显示器122)。在一些具体实施中,一个或多个显示器312对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射器显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)和/或相似显示器类型。在一些具体实施中,一个或多个显示器312对应于衍射、反射、偏振、全息等波导显示器。例如,电子设备120包括单个显示器(诸如显示器122)。又如,电子设备120包括针对用户的每只眼睛的显示器。在一些具体实施中,一个或多个显示器312能够呈现AR和VR内容。在一些具体实施中,一个或多个显示器312能够呈现AR或VR内容。
在一些具体实施中,图像捕获设备370对应于一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、IR图像传感器、基于事件的相机等。在一些具体实施中,图像捕获设备370包括透镜组件、光电二极管和前端架构。在一些具体实施中,图像捕获设备370包括面向外部和/或面向内部的图像传感器。
存储器320包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器320包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器320任选地包括远离所述一个或多个处理单元302定位的一个或多个存储设备。存储器320包括非暂态计算机可读存储介质。在一些具体实施中,存储器320或者存储器320的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括可选的操作系统330和呈现引擎340。
操作系统330包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。在一些具体实施中,呈现引擎340被配置为经由一个或多个显示器312向用户呈现媒体项和/或XR内容。为此,在各种具体实施中,呈现引擎340包括数据获取器342、交互处理程序520、呈现器560和数据传输器350。
在一些具体实施中,数据获取器342被配置为从电子设备120的I/O设备及传感器306、控制器110、和远程输入设备中的至少一者获取数据(例如,呈现数据,诸如与用户界面或XR环境相关联的渲染的图像帧、输入数据、用户交互数据、头部跟踪信息、相机姿态跟踪信息、眼睛跟踪信息、手部/肢体/手指/四肢跟踪信息、传感器数据、位置数据等)。为此,在各种具体实施中,数据获取器342包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,交互处理程序520被配置为检测与呈现的A/V内容和/或XR内容的用户交互(例如,经由手部/四肢跟踪检测到的手势输入、经由眼睛跟踪检测到的眼睛注视输入、语音命令等)。为此,在各种具体实施中,交互处理程序520包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,呈现器560被配置为经由一个或多个显示器312呈现和更新A/V内容和/或XR内容(例如,与用户界面或XR环境128相关联的渲染的图像帧,包括VA、XR内容、与XR内容相关联的一个或多个UI元素等)。为此,在各种具体实施中,呈现器560包括指令和/或用于这些指令的逻辑部件以及启发法和用于该启发法的元数据。
在一些具体实施中,数据传输器350被配置为至少向控制器110传输数据(例如,呈现数据、位置数据、用户交互数据、头部跟踪信息、相机姿态跟踪信息、眼睛跟踪信息、手部/肢体/手指/四肢跟踪信息等)。为此,在各种具体实施中,数据传输器350包括指令和/或用于这些指令的逻辑以及启发法和用于该启发法的元数据。
尽管数据获取器342、交互处理程序520、呈现器560和数据传输器350被示出为驻留在单个设备(例如,电子设备120)上,但应当理解,在其他具体实施中,数据获取器342、交互处理程序520、呈现器560和数据传输器350的任何组合可以位于单独的计算设备中。
此外,图3更多地用作可存在于特定具体实施中的各种特征部的功能描述,而不是本文所述的具体实施的结构示意。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图3中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
图4A是根据一些具体实施的示例性数据处理架构的第一部分400A的框图。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,数据处理架构的第一部分400A包括在计算系统中,诸如图1和图2所示的控制器110;图1和图3所示的电子设备120;和/或它们的合适组合。
如图4A所示,控制器110、电子设备120和/或其组合的一个或多个本地传感器402获取与物理环境105相关联的本地传感器数据403。例如,本地传感器数据403包括物理环境105的图像或其流、物理环境105的同时定位与地图构建(SLAM)信息以及电子设备120或用户150相对于物理环境105的位置、物理环境105的环境照明信息、物理环境105的环境音频信息、物理环境105的声学信息、物理环境105的维度信息、物理环境105内的对象的语义标签等。在一些具体实施中,本地传感器数据403包括未处理的或后处理的信息。
类似地,如图4A所示,与物理环境105内的任选远程输入设备相关联的一个或多个远程传感器404获取与物理环境105相关联的远程传感器数据405。例如,远程传感器数据405包括物理环境105的图像或其流、物理环境105的SLAM信息以及电子设备120或用户150相对于物理环境105的位置、物理环境105的环境照明信息、物理环境105的环境音频信息、物理环境105的声学信息、物理环境105的维度信息、物理环境105内的对象的语义标签等。在一些具体实施中,远程传感器数据405包括未处理的或后处理的信息。
根据一些具体实施,隐私架构408摄取本地传感器数据403和远程传感器数据405。在一些具体实施中,隐私架构408包括与用户信息和/或识别信息相关联的一个或多个隐私过滤器。在一些具体实施中,隐私架构408包括选择加入特征部,其中电子设备120通知用户150正在监视哪些用户信息和/或识别信息以及将如何使用这些用户信息和/或识别信息。在一些具体实施中,隐私架构408选择性地防止和/或限制数据处理架构400A/400B/400C或其部分获取和/或传输用户信息。为此,隐私架构408响应于提示用户150进行用户偏好和/或选择来接收来自用户150的用户偏好和/或选择。在一些具体实施中,隐私架构408防止数据处理架构400A/400B/400C获取和/或传输用户信息,除非并且直到隐私架构408从用户150获取到知情同意。在一些具体实施中,隐私架构408匿名化(例如,加扰、模糊化、加密等)某些类型的用户信息。例如,隐私架构408接收指定隐私架构408将哪些类型的用户信息匿名化的用户输入。作为另一示例,隐私架构408独立于用户指定(例如,自动地)匿名化可能包括敏感和/或识别信息的某些类型的用户信息。
根据一些具体实施,运动状态估计器410在经受隐私架构408之后获取本地传感器数据403和远程传感器数据405。在一些具体实施中,运动状态估计器410基于输入数据来获取(例如,接收、检索或确定/生成)运动状态向量411并且随时间推移而更新运动状态向量411。
图4B示出了根据一些具体实施的用于运动状态向量411的示例性数据结构。如图4B所示,运动状态向量411可以对应于N-元组表征向量或表征张量,其包括时间戳421(例如,运动状态向量411最近更新的时间)、用于电子设备120的运动状态描述符422(例如,静止、运动中、跑步、散步、骑自行车、开车或坐车、开船或坐船、开公交或坐公交、坐火车、坐飞机等)、与电子设备120相关联的平移移动值424(例如,航向、位移值、速度值、加速度值、急动度值等)、与电子设备120相关联的角移动值426(例如,俯仰、翻滚和偏航维度中的每个维度的角位移值、角速度值、角加速度值、角急动度值等)和/或杂项信息428。本领域的普通技术人员将理解,图4B中的运动状态向量411的数据结构仅仅是一个示例,其可以在各种其他具体实施中包括不同的信息部分,并且可以在各种其他具体实施中以多种方式构造。
根据一些具体实施,眼睛跟踪引擎412在经受隐私架构408之后获取本地传感器数据403和远程传感器数据405。在一些具体实施中,眼睛跟踪引擎412基于输入数据来获取(例如,接收、检索或确定/生成)眼睛跟踪向量413并且随时间推移而更新眼睛跟踪向量413。
图4B示出了根据一些具体实施的用于眼睛跟踪向量413的示例性数据结构。如图4B所示,眼睛跟踪向量413可以对应于N-元组表征向量或表征张量,其包括时间戳431(例如,眼睛跟踪向量413最近更新的时间)、当前注视方向的一个或多个角度值432(例如,翻滚、俯仰和偏航值)、当前注视方向的一个或多个平移值434(例如,相对于物理环境105、整个世界等的x、y和z值)和/或杂项信息436。本领域的普通技术人员将理解,图4B中的眼睛跟踪向量413的数据结构仅仅是一个示例,其可以在各种其他具体实施中包括不同的信息部分,并且可以在各种其他具体实施中以多种方式构造。
例如,注视方向指示用户150当前正在查看的物理环境105中的点(例如,与相对于物理环境105或整个世界的x坐标、y坐标和z坐标相关联)、物理对象或感兴趣区域(ROI)。作为另一示例,注视方向指示用户150当前正在查看的XR环境128中的点(例如,与相对于XR环境128的x坐标、y坐标和z坐标相关联)、XR对象或感兴趣区域(ROI)。
根据一些具体实施,头部/身体姿态跟踪引擎414在经受隐私架构408之后获取本地传感器数据403和远程传感器数据405。在一些具体实施中,头部/身体姿态跟踪引擎414基于输入数据来获取(例如,接收、检索或确定/生成)姿态表征向量415并且随时间推移而更新姿态表征向量415。
图4B示出了根据一些具体实施的用于姿态表征向量415的示例性数据结构。如图4B所示,姿态表征向量415可以对应于N-元组表征向量或表征张量,其包括时间戳441(例如,姿态表征向量415最近更新的时间)、头部姿态描述符442A(例如,向上、向下、中性等)、头部姿态的平移值442B、头部姿态的旋转值442C、身体姿态描述符444A(例如,站立、坐着、俯卧等)、身体部位/四肢/肢体/关节的平移值444B、身体部位/四肢/肢体/关节的旋转值444C和/或杂项信息446。在一些具体实施中,姿态表征向量415还包括与手指/手部/四肢跟踪相关联的信息。本领域的普通技术人员将理解,图4B中的姿态表征向量415的数据结构仅仅是一个示例,其可以在各种其他具体实施中包括不同的信息部分,并且可以在各种其他具体实施中以多种方式构造。根据一些具体实施,运动状态向量411、眼睛跟踪向量413和姿态表征向量415被统称为输入向量417。
根据一些具体实施,表征引擎416获取运动状态向量411、眼睛跟踪向量413和姿态表征向量415。在一些具体实施中,表征引擎416基于运动状态向量411、眼睛跟踪向量413和姿态表征向量415来获取(例如,接收、检索或确定/生成)表征向量419。
图4B示出了根据一些具体实施的用于表征向量419的示例性数据结构。如图4B所示,表征向量419可以对应于N-元组表征向量或表征张量,其包括时间戳451(例如,表征向量419最近更新的时间)、运动状态信息452(例如,运动状态描述符422)、注视方向信息454(例如,眼睛跟踪向量413内的一个或多个角度值432和一个或多个平移值434的函数)、头部姿态信息456A(例如,姿态表征向量415内的头部姿态描述符442A的函数)、身体姿态信息456B(例如,姿态表征向量415内的身体姿态描述符444A的函数)、四肢跟踪信息456C(例如,与正由控制器110、电子设备120和/或它们的组合跟踪的用户150的四肢相关联的姿态表征向量415内的身体姿态描述符444A的函数)、位置信息458(例如,家庭位置(诸如厨房或客厅)、车辆位置(诸如汽车、飞机等)等)和/或杂项信息459。
图4C是根据一些具体实施的示例性数据处理架构的第二部分400B的框图。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,数据处理架构的第二部分400B包括在计算系统中,诸如图1和图2所示的控制器110;图1和图3所示的电子设备120;和/或它们的合适组合。图4C类似于并改编自图4A。因此,图4A和图4C中使用了类似的参考标号。因此,为了简明起见,下文仅描述图4A和图4C之间的差异。
根据一些具体实施,上下文分析器460从运动状态估计器410获取运动状态向量411。如图4C所示,上下文分析器460也在经受隐私架构408之后获取本地传感器数据403和远程传感器数据405。
在一些具体实施中,上下文分析器460基于输入数据来获取(例如,接收、检索或确定/生成)上下文信息向量470并且随时间推移而更新上下文信息向量470。图4C示出了根据一些具体实施的用于上下文信息向量470的示例性数据结构。如图4C所示,上下文信息向量470可对应于N-元组表征向量或表征张量,其包括:时间戳471(例如,更新上下文信息向量470的最近时间);与物理环境105的当前状态相关联的环境状态信息472(例如,环境温度信息、环境湿度信息、环境照明信息、环境音频信息、物理环境105内的物理对象的语义标签、物理环境105内的物理对象的位置等);与控制器110、电子设备120、或它们的组合等的当前状态相关联的设备状态信息474(例如,当前前台应用程序、当前后台应用程序、剩余电力/电量、设备温度度量、资源消耗度量(例如,CPU、RAM、存储装置、网络I/O等)等);与用户150的当前状态相关联的用户状态信息476(例如,表征向量419、与用户150相关联的生理信息、运动状态描述符42等);和杂项信息478。本领域的普通技术人员将理解,图4C中的上下文信息向量470的数据结构仅仅是一个示例,其可以在各种其他具体实施中包括不同的信息部分,并且可以在各种其他具体实施中以多种方式构造。
根据一些具体实施,头部/身体/颈部力学引擎462基于对姿态表征向量415的改变来获取(例如,接收、检索或确定/生成)用户150的头部/身体/颈部的位移、速度、加速度、急动度、扭矩等值。在一些具体实施中,拉伤分析器464基于以下来确定一个或多个肌肉或肌肉群的当前拉伤信息480:来自头部/身体/颈部力学引擎462的用户150的头部/身体/颈部的位移、速度、加速度、急动度、扭矩等值;历史信息466;和上下文信息向量470。在一些具体实施中,拉伤分析器464基于拉伤增加逻辑部件465A和/或拉伤减少逻辑部件465B来确定当前拉伤信息480。在一些具体实施中,历史信息466对应于本地或远程存储库,包括:在整体基础上、在单独肌肉或肌肉组/区域基础上等的针对一个或多个先前时间段的拉伤信息;针对一个或多个先前时间段的上下文信息;和/或针对一个或多个先前时间段的用户150的头部/身体/颈部的位移、速度、加速度、急动度、扭矩等值。
图4D示出了根据一些具体实施的用于当前拉伤信息480的示例性数据结构。如图4C所示,当前拉伤信息480可对应于N-元组表征向量或表征张量,其包括:时间戳481;与第一肌肉或肌肉组/区域相关联的肌肉信息482A;与第二肌肉或肌肉组/区域相关联的肌肉信息482B;与第三肌肉或肌肉组/区域相关联的肌肉信息482C;与第四肌肉或肌肉组/区域相关联的肌肉信息482D;与第五肌肉或肌肉组/区域相关联的肌肉信息482E;与肌肉信息482A-482E中的一者或多者的函数相关联的累积拉伤信息486;和杂项信息488。本领域的普通技术人员将理解,图4D中的当前拉伤信息480的数据结构仅仅是一个示例,其可以在各种其他具体实施中包括不同的信息部分,并且可以在各种其他具体实施中以多种方式构造。
如图4D所示,第一肌肉或肌肉组/区域的肌肉信息482A包括:第一肌肉或肌肉组/区域的肌肉标识符484A(例如,第一肌肉或肌肉组/区域的唯一标识符、标签、名称等);第一肌肉或肌肉组/区域的当前肌肉拉伤值485A;指向历史信息486内的第一肌肉或肌肉组/区域的历史肌肉拉伤信息466A的指针;和与第一肌肉或肌肉组/区域相关联的杂项信息487A。
如图4D所示,例如,肌肉拉伤引擎463分别确定用户150的肌肉或肌肉群/区域484A、484B、484C、484D和484E的当前肌肉拉伤值485A、485B、485C、485D和485E。此外,肌肉拉伤引擎463基于触发拉伤增加逻辑部件465A和/或拉伤减少逻辑部件465B的用户150的旋转和/或平移移动来随时间推移而更新(增加或减少)肌肉拉伤值485A、485B、485C、485D和485E。
如图4D所示,累积拉伤信息486:与用户150的相应的肌肉或肌肉群/区域484A、484B、484C、484D和484E的当前肌肉拉伤值485A、485B、485C、485D和485E中的一者或多者的函数相关联的当前累积拉伤值489A;指向历史信息466内的历史累积拉伤信息489B的指针;和与累积拉伤信息相关联的杂项信息489C。如图4D所示,例如,肌肉拉伤引擎463还确定当前累积拉伤值489A,并且基于触发拉伤增加逻辑部件465A和/或拉伤减少逻辑部件465B的用户150的旋转和/或平移移动来随时间推移而更新(增加或减少)当前累积拉伤值489A。因此,根据一些具体实施,肌肉拉伤引擎463在单独肌肉或肌肉组/区域的基础上跟踪拉伤值(例如,肌肉信息482A-482E)以及跟踪总体拉伤值(例如,当前累积拉伤信息486)。
图4E是根据一些具体实施的示例性数据处理架构的第三部分400C的框图。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,示例性数据处理架构的第三部分400C包括在计算系统中,诸如图1和图2所示的控制器110;图1和图3所示的电子设备120;和/或它们的合适组合。图4E类似于并改编自图4A和图4C。因此,图4A和图4C中使用了类似的参考标号。因此,为了简明起见,下文仅描述图4A、图4C和图4E之间的差异。
如以上相对于图4C所述,肌肉拉伤引擎463确定当前拉伤信息480。如图4E所示,当前拉伤信息480被提供给多路复用器(Mux)467。进而,当前拉伤信息480被提供给交互式拉伸引擎468A和应用程序编程接口(API)468B中的至少一者。根据一些具体实施,交互式拉伸引擎468A基于表征向量419(例如,包括头部和/或身体姿态信息)、用户简档信息473和/或上下文信息向量470来确定/生成拉伸会话可视化469(例如,图6A中的第一多个视觉提示614A、614B、614C和方向指示符612A)。下文参考图6A至图6F更详细地描述拉伸会话可视化469。
在一些具体实施中,交互式拉伸引擎468A响应于检测到用于发起引导式拉伸会话的用户输入(例如,触摸输入、手部/四肢跟踪输入、眼睛跟踪输入、语音命令等)而生成拉伸会话可视化469。在一些具体实施中,交互式拉伸引擎468A响应于检测到大于阈值的累积拉伤值而生成拉伸会话可视化469。在一些具体实施中,阈值对应于确定性值或非确定性值。根据一些具体实施,阈值对应于在2022年5月23日提交的临时专利申请号63,344,729(代理人案卷号27753-50497PR1)中提到的第四姿势感知阈值,该临时专利申请通过引用整体并入。
根据一些具体实施,API 468B向以下中的至少一者提供对当前拉伤信息480的访问:控制器110的操作系统、电子设备120、或它们的组合;第三方程序或应用程序;等等。因此,当前拉伤信息480可用于各种下游过程。
图5是根据一些具体实施的示例性内容递送架构500的框图。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,内容递送架构包括在计算系统中,诸如图1和图2所示的控制器110;图1和图3所示的电子设备120;和/或它们的合适组合。
根据一些具体实施,交互处理程序520获取(例如,接收、检索或检测)由用户150提供的一个或多个用户输入521,该一个或多个用户输入与选择A/V内容、一个或多个VA和/或XR内容以供呈现相关联。例如,一个或多个用户输入521对应于从经由手部/四肢跟踪检测到的UI菜单中选择XR内容的手势输入、从经由眼睛跟踪检测到的UI菜单中选择XR内容的眼睛注视输入、从经由麦克风检测到的UI菜单中选择XR内容的语音命令等。在一些具体实施中,内容选择器522基于一个或多个用户输入521(例如,语音命令、从XR内容项的菜单中的选择等),从内容库525中选择XR内容527。
在各种具体实施中,内容管理器530基于表征向量419、(任选地)用户输入521等来管理和更新XR环境128的布局、设置、结构等,该XR环境包括VA、XR内容、与XR内容相关联的一个或多个UI元素等中的一者或多者。为此,内容管理器530包括帧缓冲器532、内容更新器534和反馈引擎536。
在一些具体实施中,帧缓冲器532包括用于一个或多个过去实例和/或帧的XR内容、渲染的图像帧等。在一些具体实施中,内容更新器534基于表征向量419、拉伸会话可视化469(例如,图6A中的第一多个视觉提示614A、614B、614C和方向指示符612A)、与修改和/或操纵XR内容或VA相关联的用户输入521、物理环境105内的对象的平移或旋转移动、电子设备120(或用户150)的平移或旋转移动等来随时间推移而修改XR环境128。在一些具体实施中,反馈引擎536生成与XR环境128相关联的感官反馈(例如,视觉反馈(诸如文本或照明变化)、音频反馈、触觉反馈等)。
根据一些具体实施,姿态确定器552至少部分地基于姿态表征向量415来确定电子设备120和/或用户150相对于XR环境128和/或物理环境105的当前相机姿态。在一些具体实施中,渲染器554根据相对于其的当前相机姿态,渲染VA、XR内容527、与XR内容相关联的一个或多个UI元素等。
根据一些具体实施,任选的图像处理架构556从图像捕获设备370获取图像流,该图像流包括来自电子设备120和/或用户150的当前相机姿态的物理环境105的一个或多个图像。在一些具体实施中,图像处理架构556还对图像流执行一个或多个图像处理操作,诸如扭曲、颜色校正、γ校正、锐化、降噪、白平衡等。在一些具体实施中,任选的合成器558将渲染的XR内容与来自图像处理架构556的物理环境105的经处理的图像流合成,以产生XR环境128的渲染的图像帧。在各种具体实施中,呈现器560经由一个或多个显示器312向用户150呈现XR环境128的渲染的图像帧。本领域的普通技术人员将理解,任选的图像处理架构556和任选的合成器558可能不适用于完全虚拟环境(或光学透传场景)。
图6A至图6F示出了根据一些具体实施的与引导式拉伸会话相关联的多个三维(3D)环境。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,由计算系统渲染和呈现多个界面,该计算系统诸如为图1和图2中示出的控制器110;图1和图3中示出的电子设备120;和/或它们的合适组合。
在一些具体实施中,图6A至图6F中的多个3D环境对应于图1所示的XR环境128(例如,3D或立体用户界面)。因此,根据一些具体实施,当用户150物理地存在于物理环境内时,电子设备120向用户150呈现多个3D环境,该物理环境当前位于电子设备120的面向外部的图像传感器的FOV 111(例如,如图1所示)内。换句话讲,在一些具体实施中,电子设备120被配置为在显示器122上呈现XR内容(例如,虚拟内容)并且实现物理环境的至少一部分的光学透传或视频透传。例如,电子设备120对应于移动电话、平板电脑、膝上型电脑、近眼系统、可穿戴计算设备等。因此,在一些具体实施中,用户150将电子设备120握持在其手中,类似于图1中的操作环境100。
如图6A所示,电子设备120在时间T1在显示器122上呈现与引导式拉伸会话相关联的3D环境602A。继续该示例,当呈现3D环境602A时,电子设备120呈现欢迎用户到引导式拉伸会话的通知610。在一些具体实施中,通知610(以及分别在图6B至图6F中的通知620、630、640、650和660)对应于覆盖在3D环境上的二维(2D)内容。例如,电子设备120在图6A中在默认位置或以默认方式呈现通知610(例如,在显示器122内居中的弹出通知、邻近显示器122的顶部边缘的横幅通知等)。在一些具体实施中,通知610(以及分别在图6B至图6F中的通知620、630、640、650和660)对应于覆盖在3D环境上或与其合成的3D或立体内容。
如图6A所示,3D环境602A包括针对引导式拉伸会话的第一部分(例如,用户头部的90°旋转偏航移动)的第一多个视觉提示(例如,卡位)614A、614B、614C。例如,第一多个视觉提示614A、614B、614C沿着相对于用户的当前位置的90°弧均匀地间隔开。例如,如果第一多个视觉提示包括三个视觉提示,则电子设备120在90°弧上呈现三个视觉提示,在起始、中性头部姿态和三个视觉提示中的每一者之间具有30°。在一些具体实施中,第一多个视觉提示614A、614B、614C具有类似大小,但基于其相对于用户的当前位置的深度和/或距离而显得不同。
本领域的普通技术人员将理解,在图6A至图6F中的针对引导式拉伸会话的旋转偏航移动的使用仅是可用旋转偏航、俯仰或翻滚移动中的一者或多者替换的示例。根据一些具体实施,相对于偏航旋转移动,第一多个视觉提示保持在用户的视场内。根据一些具体实施,相对于俯仰旋转移动,第一多个视觉提示保持在用户的视场内。在具体实施中,相对于俯仰旋转移动,第一多个视觉提示保持水平对准(例如,垂直于对准向量诸如重力)。
根据一些具体实施,电子设备120基于与用户相关联的用户简档信息和头部姿态信息来确定第一多个视觉提示614A、614B、614C在3D环境602A内的位置。例如,用户简档信息对应于用户的视敏度度量、用户高度、用户偏好等。例如,头部姿态信息至少包括由例如上文参考图2、图4A和图4C描述的头部/身体姿态跟踪引擎414确定的三自由度(3DOF)旋转值。
在一些具体实施中,电子设备120确定第一多个视觉提示614A、614B、614C的位置以适合用户的高度和/或视线(例如,在用户的视线前方并且与其齐平)。在一些具体实施中,电子设备120确定第一多个视觉提示614A、614B、614C的位置以便不遮挡3D环境内的对象或与其冲突。在一些具体实施中,电子设备120基于用户灵活性/运动范围(考虑到用户历史)或用户偏好来确定第一多个视觉提示614A、614B、614C的位置。例如,与第一多个视觉提示614A、614B、614C相关联的角度范围可由用户的最大观察运动范围、用户所提供的当前最大运动范围或与用户相关联的历史运动范围限制。
如图6A所示,3D环境602A还包括与针对引导式拉伸会话的第一部分(例如,从左到右或顺时针旋转移动)的第一拉伸方向相关联的方向指示符612A。在一个示例中,当开始引导式拉伸会话时,电子设备120在确定性(默认或预定义)原始位置处呈现方向指示符612A。在另一个示例中,电子设备120基于用户的当前高度和/或视线在非确定性原始位置处呈现方向指示符612A。如图6A所示,方向指示符612A包括与在时间T1对于引导式拉伸会话的第一部分尚未完成的第一多个视觉提示的计数相关联的视觉表示(例如,数字“3”)。
如图6B所示,电子设备120在时间T2在显示器122上呈现与引导式拉伸会话的第一部分相关联的3D环境602B。继续该示例,在呈现3D环境602B时,电子设备120呈现通知620,该通知指示用户通过将其头部从左到右旋转90°来遵循针对引导式拉伸会话的第一部分的视觉提示。如图6B所示,在呈现3D环境602B时,电子设备120检测与用户150相关联的头部姿态信息的改变622,诸如30°顺时针旋转偏航移动。在一些具体实施中,电子设备120呈现用户150在3D环境内的表示,其跟踪与用户150相关联的头部姿态和/或身体姿态改变。因此,在此示例中,电子设备120基于与用户150相关联的头部姿态信息的改变622来更新用户150的表示。例如,用户150的表示对应于具有在用户150上建模的面部和/或身体的头像。
响应于检测到图6B中的与用户150相关联的头部姿态信息的改变622,在图6C中,电子设备120在时间T3在显示器122上呈现与引导式拉伸会话的第一部分相关联的3D环境602C。响应于检测到图6B中的与用户150相关联的头部姿态信息的改变622并且根据与用户150相关联的头部姿态信息的改变622满足与视觉提示614A相关联的标准的确定,电子设备120在3D环境602C内呈现通知630(例如,视觉反馈),该通知指示视觉提示614A已经对于引导式拉伸会话的第一部分完成并且继续相同运动。在一些具体实施中,当方向指示符的位置与视觉提示的位置重合时,满足与视觉提示相关联的标准。
在一些具体实施中,视觉反馈被触觉反馈、音频反馈等替代或补充。根据一些具体实施,除最终视觉提示之外,视觉提示中的每一者与类似的触觉和/或音频反馈相关联,并且最终视觉提示与具有较大强度、长度、音高、频率、音量等的不同触觉和/或音频反馈相关联。根据一些具体实施,音频反馈可被空间化以便与视觉提示的位置重合或者在满足视觉提示的拉伸方向上的距离处。在一个示例中,参考偏航旋转移动,音频反馈可以一定距离并以一定角度进行空间化,使得用户围绕y轴(例如,基于用户的头部和视线)从一侧到另一侧地移动其头部以满足引导式拉伸会话的当前部分。在另一个示例中,参考引导式拉伸会话的翻滚旋转移动,音频反馈可相对于用户头部上方的一定位置并以一定角度进行空间化,使得用户围绕z轴(例如,基于用户的头部和视线)倾斜其头部以满足引导式拉伸会话的当前部分。在又一个示例中,参考俯仰旋转移动,音频反馈可在用户前方的一定位置处并以一定角度进行空间化,使得用户围绕x轴(例如,基于用户的头部和视线)移动其头部以满足引导式拉伸会话的当前部分。
如图6C所示,3D环境602C包括视觉提示614B和614C以及在视觉提示614A的先前位置处的方向指示符612B。如图6C所示,方向指示符612B包括与在时间T3对于引导式拉伸会话的第一部分尚未完成的第一多个视觉提示的计数相关联的视觉表示(例如,数字“2”)。如图6C所示,在呈现3D环境602C时,电子设备120检测与用户150相关联的头部姿态信息的改变632,诸如另一个30°顺时针旋转偏航移动。
响应于检测到图6C中的与用户150相关联的头部姿态信息的改变632,在图6D中,电子设备120在时间T4在显示器122上呈现与引导式拉伸会话的第一部分相关联的3D环境602D。响应于检测到图6C中的与用户150相关联的头部姿态信息的改变632并且根据与用户150相关联的头部姿态信息的改变632满足与视觉提示614B相关联的标准的确定,电子设备120在3D环境602D内呈现通知640(例如,视觉反馈),该通知指示视觉提示614D已经对于引导式拉伸会话的第一部分完成并且继续相同运动。在一些具体实施中,视觉反馈由触觉反馈、音频反馈、空间音频反馈等替代或补充,如上文参考图6B所描述。
如图6D所示,3D环境602D包括视觉提示614C和在视觉提示614B的先前位置处的方向指示符612C。如图6D所示,方向指示符612C包括与在时间T4对于引导式拉伸会话的第一部分尚未完成的第一多个视觉提示的计数相关联的视觉表示(例如,数字“1”)。如图6D所示,在呈现3D环境602D时,电子设备120检测与用户150相关联的头部姿态信息的改变642,诸如又一个30°顺时针旋转偏航移动。在一个示例中,改变622、632和642包括在一个连续90°顺时针旋转偏航移动中。在另一个示例中,改变622、632和642对应于独立的、顺序的30°顺时针旋转偏航移动。
响应于检测到图6D中的与用户150相关联的头部姿态信息的改变642,在图6E中,电子设备120在时间T5在显示器122上呈现与引导式拉伸会话的第一部分相关联的3D环境602E。响应于检测到图6D中的与用户150相关联的头部姿态信息的改变642并且根据与用户150相关联的头部姿态信息的改变642满足与第一多个视觉提示中的最终视觉提示614C相关联的标准的确定,电子设备120在3D环境602E内呈现通知650(例如,视觉反馈),该通知指示视觉提示614D已经对于引导式拉伸会话的第一部分完成并且引导式拉伸会话的第一部分已经完成。在一些具体实施中,视觉反馈由触觉反馈、音频反馈、空间音频反馈等替代或补充,如上文参考图6B所描述。
如图6E所示,3D环境602E不包括任何视觉提示并且包括在视觉提示614C的先前位置处的方向指示符612D。如图6E所示,方向指示符612D包括与在时间T5对于引导式拉伸会话的第一部分尚未完成的第一多个视觉提示的计数相关联的视觉表示(例如,数字“0”)。
响应于检测到图6D中的与用户150相关联的头部姿态信息的改变642并且根据与用户150相关联的头部姿态信息的改变642满足与第一多个视觉提示中的最终视觉提示614C相关联的标准的确定,在图6F中,电子设备120在时间T6在显示器122上呈现与引导式拉伸会话的第二部分相关联的3D环境672。继续该示例,在呈现3D环境672时,电子设备120呈现通知660,该通知指示用户通过将其头部从右到左旋转180°来遵循针对引导式拉伸会话的第二部分的视觉提示。
如图6F所示,3D环境672包括针对引导式拉伸会话的第二部分(例如,用户头部的180°旋转偏航移动)的第二多个视觉提示(例如,卡位)664A、664B、664C、664D、664E、664F。例如,第二多个视觉提示664A、664B、664C、664D、664E、664F沿着相对于用户的当前位置的180°弧均匀地间隔开。例如,如果第二多个视觉提示包括六个视觉提示,则电子设备120在180°弧上呈现六个视觉提示,其中六个视觉提示中的每一者之间具有30°。在一些具体实施中,第二多个视觉提示664A、664B、664C、664D、664E、664F具有类似大小,但基于其相对于用户的当前位置的深度和/或距离而显得不同。
根据一些具体实施,电子设备120基于与用户相关联的用户简档信息和头部姿态信息来确定第二多个视觉提示664A、664B、664C、664D、664E、664F在3D环境672内的位置。在一些具体实施中,电子设备120确定第二多个视觉提示664A、664B、664C、664D、664E、664F的位置以适合用户的高度和/或视线。在一些具体实施中,电子设备120确定第二多个视觉提示664A、664B、664C、664D、664E、664F的位置以便不遮挡3D环境内的对象或与其冲突。在一些具体实施中,电子设备120基于用户灵活性/运动范围(考虑到用户历史)或用户偏好来确定第二多个视觉提示664A、664B、664C、664D、664E、664F的位置。
如图6F所示,3D环境672还包括与针对引导式拉伸会话的第二部分(例如,从右到左或逆时针旋转移动)的第二拉伸方向相关联的方向指示符662。在一个示例中,当开始引导式拉伸会话的第二部分时,电子设备120在与视觉提示614C的先前位置相关联的确定性原始位置处呈现方向指示符662。在一个示例中,当开始引导式拉伸会话的第二部分时,电子设备120在确定性原始(默认)位置(例如,与图6B中的方向指示符612A相关联的位置)处呈现方向指示符662。在又一个示例中,电子设备120基于用户的当前高度和/或视线在非确定性原始位置处呈现方向指示符662A。如图6F所示,方向指示符662包括与在时间T6对于引导式拉伸会话的第二部分尚未完成的第二多个视觉提示的计数相关联的视觉表示(例如,数字“6”)。
图7A至图7D示出了根据一些具体实施的呈现引导式拉伸会话的方法700的流程图表示。在各种具体实施中,方法700在包括非暂态存储器和一个或多个处理器的计算系统处执行,其中该计算系统通信地耦接到显示设备和一个或多个输入设备(例如,图1和图3所示的电子设备120;图1和图2中的控制器110;或它们的合适组合)。在一些具体实施中,方法700由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法700由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。在一些具体实施中,电子系统对应于平板电脑、膝上型电脑、移动电话、近眼系统、可穿戴计算设备等中的一者。在一些具体实施中,一个或多个输入设备对应于使用来自一个或多个面向外部的图像传感器的图像流的计算机视觉(CV)引擎、手指/手部/四肢跟踪引擎、眼睛跟踪引擎、触敏表面、一个或多个麦克风等。
如上所讨论,在工作时间和非工作时间期间,许多人(例如,图1中的用户150)可能在其计算机或其他设备上花费大量时间。使用计算机或其他设备所花费的该时间可能对所述人的姿势产生负面影响。因此,本文描述了一种用于通过呈现引导式拉伸会话来促进姿势感知并且减小用户的累积拉伤值的方法和设备。
如框702所示,在经由显示设备呈现三维(3D)环境时,方法700包括获取(例如,接收、检索、确定/生成等)与计算系统相关联的用户的用户简档信息和头部姿态信息。例如,用户简档信息包括用户的视敏度度量、用户高度、用户偏好等。在一些具体实施中,头部姿态信息包括3DOF旋转值。在一些具体实施中,计算系统还获取FOV信息,该FOV信息基于注视方向来指示用户的当前视见平截头体。
在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)获取与用户相关联的用户简档信息473。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)获取包括与用户相关联的头部姿态信息和/或身体姿态信息的表征向量419。
作为一个示例,参考图6A,电子设备120在时间T1在显示器122上呈现与引导式拉伸会话相关联的3D环境602A。继续该示例,当呈现3D环境602A时,电子设备120呈现欢迎用户到引导式拉伸会话的通知610。在一些具体实施中,计算系统或其部件(例如,图5中的渲染引擎550)通过将渲染的XR内容与物理环境105的经处理图像流合成以产生3D环境的渲染的图像帧来渲染3D环境(例如,XR环境)。在各种具体实施中,计算系统或其部件(例如,图5中的呈现器560)经由一个或多个显示器312向用户150呈现3D环境的渲染的图像帧。本领域的普通技术人员将理解,上述合成过程可能不适用于完全虚拟环境或光学透传场景。
在一些具体实施中,显示设备对应于透明透镜组件,并且其中呈现3D环境包括将3D环境的至少一部分投影到透明透镜组件上。在一些具体实施中,显示设备对应于近眼系统,并且其中呈现3D环境包括将3D环境的至少一部分与由面向外部的图像传感器捕获的物理环境的一个或多个图像合成。
如框704所表示的,方法700包括基于用户简档信息和头部姿态信息来确定针对引导式拉伸会话的第一部分的3D环境内的第一多个视觉提示(例如,卡位)的位置,其中引导式拉伸会话的第一部分对应于第一拉伸方向。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)至少部分地基于与用户相关联的用户简档信息473以及包括与用户相关联的头部姿态信息和/或身体姿态信息的表征向量419来确定第一多个视觉提示(例如,图4E中的拉伸会话可视化469)的位置。
在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)响应于检测到用于发起引导式拉伸会话的用户输入(例如,触摸输入、手部/四肢跟踪输入、眼睛跟踪输入、语音命令等)而生成第一多个视觉提示(例如,图4E中的拉伸会话可视化469)并且确定第一多个视觉提示的位置。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)响应于检测到大于阈值的累积拉伤值而生成第一多个视觉提示(例如,图4E中的拉伸会话可视化469)并且确定第一多个视觉提示的位置。在一些具体实施中,阈值对应于确定性值或非确定性值。根据一些具体实施,阈值对应于在2022年5月23日提交的临时专利申请号63,344,729(代理人案卷号27753-50497PR1)中提到的第四姿势感知阈值,该临时专利申请通过引用整体并入。
在一些具体实施中,如框706所表示,用户简档信息包括与用户相关联的运动范围信息或灵活性信息中的至少一者,并且其中第一多个视觉提示的确定位置之间的间距基于与用户相关联的运动范围信息或灵活性信息。
在一些具体实施中,计算系统确定第一多个视觉提示的位置以适合用户的高度和/或视线。在一些具体实施中,计算系统确定第一多个视觉提示的位置以便不遮挡3D环境内的对象或与其冲突。在一些具体实施中,计算系统基于用户灵活性/运动范围(考虑到用户历史)或用户偏好来确定第一多个视觉提示的位置。在一些具体实施中,计算系统基于用户的当前和/或历史灵活性/范围来定制引导式拉伸会话。作为一个示例,如果用户不能完成引导式拉伸会话的第一部分,则计算系统可减少引导式拉伸会话的第二部分或后续引导式拉伸会话的运动范围。
在一些具体实施中,如框708所表示,方法700包括获取(例如,接收、检索或确定/生成)与物理环境相关联的环境信息,该环境信息包括物理环境的尺寸信息、物理环境内的物理对象的定位信息和物理环境内的物理对象的尺寸信息,其中基于用户简档信息、头部姿态信息和环境信息来确定第一多个视觉提示的位置。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)获取上下文信息向量470,其包括诸如物理环境105内的物理对象的语义标签、物理环境105内的物理对象的位置等的环境状态信息472。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)至少部分地基于环境状态信息472来确定第一多个视觉提示的位置以便不遮挡3D环境内的对象或与其冲突。
例如,环境信息对应于用于相对于物理环境定位用户并且确定其尺寸的SLAM信息。例如,环境信息对应于语义分割信息(例如,标签)等以便识别物理环境内的物理对象以及其在物理环境内的尺寸和位置。
如框710所表示的,方法700包括经由显示设备呈现在3D环境内的确定位置处的针对引导式拉伸会话的第一部分的第一多个视觉提示和方向指示符(例如,箭头、指示方向的文本等)。例如,参考图6A,电子设备120呈现3D环境602A,包括针对引导式拉伸会话的第一部分(例如,用户头部的90°旋转偏航移动)的第一多个视觉提示(例如,卡位)614A、614B、614C。如图6A所示,3D环境602A还包括与针对引导式拉伸会话的第一部分(例如,从左到右或顺时针旋转移动)的第一拉伸方向相关联的方向指示符612A。
在一些具体实施中,第一多个视觉提示对应于立体扩展现实(XR)对象。在一些具体实施中,当在3D环境内呈现时,第一多个视觉提示被覆盖在物理环境的表示上。在一些具体实施中,当在3D环境内呈现时,第一多个视觉提示与物理环境的表示合成。
在一些具体实施中,如框712所表示,方向指示符包括与对于引导式拉伸会话的第一部分尚未完成的第一多个视觉提示的计数相关联的视觉表示(例如,数字或字母数字文本串)。作为一个示例,参考图6A,方向指示符612A包括与在时间T1对于引导式拉伸会话的第一部分尚未完成的第一多个视觉提示的计数相关联的视觉表示(例如,数字“3”)。
在一些具体实施中,如框714所表示,方向指示符最初呈现在相对于与用户相关联的头部姿态信息的原始位置处,并且其中第一多个视觉提示相对于原始位置沿第一拉伸方向以90度弧间隔开。在一些具体实施中,第一多个视觉提示沿着90°弧均匀地间隔开。例如,如果第一多个视觉提示包括N个视觉提示,则计算系统在90°弧上呈现N个视觉提示,其中N个视觉提示中的每一者之间具有度。
在一些具体实施中,计算系统最初在确定性或非确定性原始位置处呈现方向指示符。在一个示例中,参考图6A,当开始引导式拉伸会话时,电子设备120在确定性(默认或预定义)原始位置处呈现方向指示符612A。在另一个示例中,参考图6A,电子设备120基于用户的当前高度和/或视线在非确定性原始位置处呈现方向指示符612A。例如,原始位置在用户的初始FOV内居中。
如框716所表示,方法700包括经由一个或多个输入设备检测对与用户相关联的头部姿态信息的改变。作为一个示例,参考图6B,在呈现3D环境602B时,电子设备120检测与用户150相关联的头部姿态信息的改变622,诸如30°顺时针旋转偏航移动。
如框718所表示,响应于检测到对与用户相关联的头部姿态信息的改变,方法700包括:基于对与用户相关联的头部姿态信息的改变来更新方向指示符的位置;以及根据对与用户相关联的头部姿态信息的改变满足与第一多个视觉提示中的第一视觉提示相关联的标准的确定,提供指示第一多个视觉提示中的第一视觉提示已经对于引导式拉伸会话的第一部分完成的音频、空间音频、触觉或视觉反馈中的至少一者。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)更新方向指示符的位置以跟踪对头部姿态信息和/或身体姿态信息的改变。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)还根据与用户相关联的头部姿态信息和/或身体姿态信息的改变满足与第一多个视觉提示当中的第一视觉提示相关联的标准的确定来生成和提供音频、触觉或视觉反馈中的至少一者。在一些具体实施中,计算系统或其部件(例如,图4C中的拉伤减少逻辑部件465B)根据与用户相关联的头部姿态信息和/或身体姿态信息的改变满足与第一多个视觉提示中的第一视觉提示相关联的标准的确定来减少累积拉伤值和/或一个或多个肌肉拉伤值。
例如,响应于检测到图6B中的与用户150相关联的头部姿态信息的改变622,在图6C中,电子设备120在视觉提示614A的先前位置处呈现方向指示符612B。如图6C所示,方向指示符612B包括与在时间T3对于引导式拉伸会话的第一部分尚未完成的第一多个视觉提示的计数相关联的视觉表示(例如,数字“2”)。继续该示例,响应于检测到图6B中的与用户150相关联的头部姿态信息的改变622并且根据与用户150相关联的头部姿态信息的改变622满足与视觉提示614A相关联的标准的确定,在图6C中,电子设备120在3D环境602C内呈现通知630(例如,视觉反馈),该通知指示视觉提示614A已经对于引导式拉伸会话的第一部分完成并且继续相同运动。
在一些具体实施中,当方向指示符的位置与视觉提示的位置重合时,满足与视觉提示相关联的标准。在一些具体实施中,视觉反馈被触觉反馈、音频反馈等替代或补充。根据一些具体实施,除最终视觉提示之外,视觉提示中的每一者与类似的触觉和/或音频反馈相关联,并且最终视觉提示与具有较大强度、长度、音高、频率、音量等的不同触觉和/或音频反馈相关联。
在一些具体实施中,如框720所表示,方法700包括获取(例如,接收、检索、确定/生成等)与计算系统相关联的用户的身体姿态信息,其中更新方向指示符的位置基于对与用户相关联的头部姿态信息或身体姿态信息中的至少一者的改变。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)获取包括与用户相关联的头部姿态信息和/或身体姿态信息的表征向量419。根据一些具体实施,方向指示符跟踪与用户相关联的头部姿态和/或身体姿态。
在一些具体实施中,如框722所表示,方法700包括:当呈现在3D环境内的确定位置处的针对引导式拉伸会话的第一部分的第一多个视觉提示和方向指示符时,经由显示设备同时呈现用户在3D环境内的表示;以及响应于检测到对与用户相关联的头部姿态信息的改变,基于对与用户相关联的头部姿态信息的改变来更新用户的表示。在一些具体实施中,计算系统或其部件(例如,图4E中的交互式拉伸引擎468A)呈现用户150在3D环境内的表示(例如,与图4E中的拉伸会话可视化469相关联),该表示跟踪与用户150相关联的头部姿态信息和/或身体姿态信息的改变。例如,用户150的表示对应于具有在用户150上建模的面部和/或身体的头像。
在一些具体实施中,如框724所表示,指示第一多个视觉提示中的第一视觉提示已经对于引导式拉伸会话的第一部分完成的反馈对应于基于用户的表示和第一视觉提示之间的相对间距而空间化的空间音频反馈。作为一个示例,当直接在头像的头部上方的第一视觉提示完成时,计算系统直接在用户头部上方提供(例如,输出或播放)空间音频,而不是从用户前方的第一视觉提示的位置发出。
根据一些具体实施,音频反馈可被空间化以便与视觉提示的位置重合或者在满足视觉提示的拉伸方向上的距离处。在一个示例中,参考偏航旋转移动,音频反馈可以一定距离并以一定角度进行空间化,使得用户围绕y轴(例如,基于用户的头部和视线)从一侧到另一侧地移动其头部以满足引导式拉伸会话的当前部分。在另一个示例中,参考引导式拉伸会话的翻滚旋转移动,音频反馈可相对于用户头部上方的一定位置并以一定角度进行空间化,使得用户围绕z轴(例如,基于用户的头部和视线)倾斜其头部以满足引导式拉伸会话的当前部分。在又一个示例中,参考俯仰旋转移动,音频反馈可在用户前方的一定位置处并以一定角度进行空间化,使得用户围绕x轴(例如,基于用户的头部和视线)移动其头部以满足引导式拉伸会话的当前部分。
在一些具体实施中,如框726所表示,根据对与用户相关联的头部姿态信息的改变满足与第一多个视觉提示中的第一视觉提示相关联的标准的确定,方法700包括停止第一视觉提示在3D环境内的显示。响应于检测到图6B中的与用户150相关联的头部姿态信息的改变622,在图6C中,电子设备120呈现3D环境602C,其包括视觉提示614B和614C以及在视觉提示614A的先前位置处的方向指示符612B,而不呈现视觉提示614A。
在一些具体实施中,如框728所表示,根据对与用户相关联的头部姿态信息的改变满足与第一多个视觉提示中的第一视觉提示相关联的标准的确定,方法700包括维持第一视觉提示在3D环境内的显示。
在一些具体实施中,如框730所表示,根据对与用户相关联的头部姿态信息的改变满足与第一多个视觉提示中的第一视觉提示相关联的标准的确定,方法700包括改变第一视觉提示在3D环境内的外观。在一些具体实施中,一旦到达第一视觉目标,计算系统就改变第一视觉目标的颜色、纹理、形状等。在一些具体实施中,一旦达到第一视觉目标,计算系统就改变第一视觉目标的不透明度或半透明度。在一些具体实施中,一旦到达第一视觉目标,计算系统就将第一视觉目标改变为虚线或幻影轮廓表示。
在一些具体实施中,如框732所表示,根据对与用户相关联的头部姿态信息的改变满足与第一多个视觉提示中的最终视觉提示相关联的标准的确定,方法700包括:提供指示第一多个视觉提示中的最终视觉提示已经对于引导式拉伸会话的第一部分完成的音频、触觉或视觉反馈中的至少一者;以及停止第一多个视觉提示的显示。如框732所表示,方法700还包括:在停止第一多个视觉提示的显示之后,基于用户简档信息和头部姿态信息来确定针对引导式拉伸会话的第二部分的3D环境内的第二多个视觉提示(例如,卡位)的位置,其中引导式拉伸会话的第二部分对应于第二拉伸方向;以及经由显示设备同时呈现在3D环境内的确定位置处的针对引导式拉伸会话的第二部分的第二多个视觉提示和方向指示符。在一些具体实施中,计算系统或其部件(例如,图4C中的拉伤减少逻辑部件465B)根据引导式拉伸会话的第一部分已经完成的确定来减少累积拉伤值和/或一个或多个肌肉拉伤值。在一些具体实施中,计算系统提示用户执行引导式拉伸会话的第一和/或第二部分的多次重复。
作为一个示例,响应于检测到图6D中的与用户150相关联的头部姿态信息的改变642并且根据与用户150相关联的头部姿态信息的改变642满足与第一多个视觉提示中的最终视觉提示614C相关联的标准的确定,在图6F中,电子设备120在时间T6在显示器122上呈现与引导式拉伸会话的第二部分相关联的3D环境672。继续该示例,在图6F中,3D环境672包括针对引导式拉伸会话的第二部分(例如,用户头部的180°旋转偏航移动)的第二多个视觉提示(例如,卡位)664A、664B、664C、664D、664E、664F。进一步继续该示例,在图6F中,3D环境672还包括与针对引导式拉伸会话的第二部分(例如,从右到左或逆时针旋转移动)的第二拉伸方向相关联的方向指示符662。
例如,第二拉伸方向对应于与第一拉伸方向相反的旋转移动。在一些具体实施中,当呈现针对引导式拉伸会话的第二部分的第二多个视觉提示时,方向指示符呈现在与第一多个视觉提示中的最终视觉提示相关联的位置处,并且第二多个视觉提示诱导相对于引导式拉伸会话的第一部分的停止点沿第二拉伸方向的180°的旋转移动(例如,第二多个视觉提示在第二拉伸方向上沿着180°弧均匀地间隔开)。
在一些具体实施中,当呈现针对引导式拉伸会话的第二部分的第二多个视觉提示时,方向指示符被呈现回原始位置处,并且第二多个视觉提示诱导相对于原始位置沿第二方向的90°的旋转移动(例如,第二多个视觉提示在第二拉伸方向上沿着90°弧均匀地间隔开)。
在一些具体实施中,在完成引导式拉伸会话的第二部分之后,计算系统可诱导用户执行引导式拉伸会话的第一和第二部分的多次重复。在一些具体实施中,在完成引导式拉伸会话的第二部分之后,计算系统可诱导用户在与第一拉伸方向和第二拉伸方向正交的第三拉伸方向上执行引导式拉伸会话的第三部分。作为一个示例,第一拉伸方向对应于从左到右的旋转偏航移动(围绕用户头部的y轴),第二拉伸方向对应于从右到左的旋转偏航移动(围绕用户头部的y轴),并且第三拉伸方向对应于从左到右的翻滚旋转移动(围绕用户头部的z轴)等。本领域普通技术人员将理解,在各种具体实施中,引导式拉伸会话可诱导用户以任意顺序通过其头部和/或身体执行翻滚、俯仰和/或旋转偏航移动中的任一者。在一些具体实施中,除了头部旋转之外,计算系统提示用户在引导式拉伸会话期间执行不同拉伸类型(诸如肩背肌拉力等)。
在一些具体实施中,如框734所表示,根据对与用户相关联的头部姿态信息的改变不满足与第一多个视觉提示中的第一视觉提示相关联的标准(在确定性或非确定性时间长度内)的确定,方法700包括向用户提供与引导式拉伸会话的第一部分相关联的一个或多个示意。例如,一个或多个示意对应于空间音频反馈、触觉反馈、文本反馈、图示、箭头和/或其他符号、音频命令等以帮助用户达到第一多个视觉提示中的第一视觉提示。
虽然上文描述了在所附权利要求书范围内的具体实施的各个方面,但是应当显而易见的是,上述具体实施的各种特征可通过各种各样的形式体现,并且上述任何特定结构和/或功能仅是例示性的。基于本公开,本领域的技术人员应当理解,本文所述的方面可以独立于任何其他方面来实现,并且这些方面中的两个或更多个可以采用各种方式组合。例如,可以使用本文阐述的任何数量的方面来实现装置和/或可以实践方法。另外,除了本文阐述的一个或多个方面之外或者不同于本文阐述的一个或多个方面,可以使用其他结构和/或功能来实现这样的装置和/或可以实践这样的方法。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。例如,第一媒体项可以被称为第二媒体项,并且类似地,第二媒体项可以被称为第一媒体项,这改变描述的含义,只要出现的“第一媒体项”被一致地重命名并且出现的“第二媒体项”被一致地重命名。该第一媒体项和该第二媒体项都是媒体项,但它们不是相同的媒体项。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求书中所使用的那样,单数形式的“一个”、“一”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件,和/或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。

Claims (18)

1.一种方法,所述方法包括:
在包括非暂态存储器和一个或多个处理器的计算系统处,其中所述计算系统经由通信接口通信地耦接到显示设备和一个或多个输入设备:
在经由所述显示设备呈现三维(3D)环境时,获取与所述计算系统相关联的用户的用户简档信息和头部姿态信息;
基于所述用户简档信息和所述头部姿态信息来确定针对引导式拉伸会话的第一部分的所述3D环境内的第一多个视觉提示的位置,其中所述引导式拉伸会话的所述第一部分对应于第一拉伸方向;
经由所述显示设备呈现在所述3D环境内的所确定的位置处的针对所述引导式拉伸会话的所述第一部分的所述第一多个视觉提示和方向指示符;
经由所述一个或多个输入设备检测与所述用户相关联的所述头部姿态信息的改变;并且
响应于检测到与所述用户相关联的所述头部姿态信息的所述改变:
基于与所述用户相关联的所述头部姿态信息的所述改变来更新所述方向指示符的位置;并且
根据确定与所述用户相关联的所述头部姿态信息的所述改变满足与所述第一多个视觉提示中的第一视觉提示相关联的标准,提供音频、触觉或视觉反馈中的至少一者,所述音频、触觉或视觉反馈中的至少一者指示已经针对所述引导式拉伸会话的所述第一部分完成所述第一多个视觉提示中的所述第一视觉提示。
2.根据权利要求1所述的方法,还包括:
获取与物理环境相关联的环境信息,所述环境信息包括所述物理环境的尺寸信息、所述物理环境内的物理对象的定位信息和所述F-EF239247
物理环境内的所述物理对象的尺寸信息,其中基于所述用户简档信息、所述头部姿态信息和所述环境信息来确定所述第一多个视觉提示的所述位置。
3.根据权利要求1至2中任一项所述的方法,还包括:
获取与所述计算系统相关联的所述用户的身体姿态信息,其中更新所述方向指示符的所述位置基于与所述用户相关联的所述头部姿态信息或所述身体姿态信息中的至少一者的所述改变。
4.根据权利要求1至3中任一项所述的方法,其中所述方向指示符包括与针对所述引导式拉伸会话的所述第一部分尚未完成的所述第一多个视觉提示的计数相关联的视觉表示。
5.根据权利要求1至4中任一项所述的方法,还包括:
当呈现在所述3D环境内的所确定的位置处的针对引导式拉伸会话的所述第一部分的所述第一多个视觉提示和所述方向指示符时,经由所述显示设备同时呈现所述用户在所述3D环境内的表示;并且
响应于检测到与所述用户相关联的所述头部姿态信息的所述改变,基于与所述用户相关联的所述头部姿态信息的所述改变来更新所述用户的所述表示。
6.根据权利要求5所述的方法,其中指示已经针对所述引导式拉伸会话的所述第一部分完成所述第一多个视觉提示中的所述第一视觉提示的所述反馈对应于基于所述用户的所述表示和所述第一视觉提示之间的相对间距而空间化的空间音频反馈。
7.根据权利要求1至6中任一项所述的方法,其中所述用户简档信息包括与所述用户相关联的运动范围信息或灵活性信息中的至少一者,并且其中所述第一多个视觉提示的所确定的位置之间的间距基于与所述用户相关联的所述运动范围信息或所述灵活性信息。
8.根据权利要求1至7中任一项所述的方法,其中所述方向指示符最初呈现在相对于与所述用户相关联的所述头部姿态信息的原始位置处,并且其中所述第一多个视觉提示相对于所述原始位置沿所述第一拉伸方向以90度弧间隔开。
9.根据权利要求1至8中任一项所述的方法,所述方法还包括:F-EF239247
根据确定与所述用户相关联的所述头部姿态信息的所述改变不满足与所述第一多个视觉提示中的所述第一视觉提示相关联的所述标准,向所述用户提供与所述引导式拉伸会话的所述第一部分相关联的一个或多个示意。
10.根据权利要求1至9中任一项所述的方法,所述方法还包括:
根据确定与所述用户相关联的所述头部姿态信息的所述改变满足与所述第一多个视觉提示中的所述第一视觉提示相关联的所述标准,停止在所述3D环境内显示所述第一视觉提示。
11.根据权利要求1至9中任一项所述的方法,所述方法还包括:
根据确定与所述用户相关联的所述头部姿态信息的所述改变满足与所述第一多个视觉提示中的所述第一视觉提示相关联的所述标准,维持在所述3D环境内显示所述第一视觉提示。
12.根据权利要求1至9中任一项所述的方法,所述方法还包括:
根据确定与所述用户相关联的所述头部姿态信息的所述改变满足与所述第一多个视觉提示中的所述第一视觉提示相关联的所述标准,改变在所述3D环境内所述第一视觉提示的外观。
13.根据权利要求1至10中任一项所述的方法,其中所述第一多个视觉提示对应于立体扩展现实(XR)对象。
14.根据权利要求1至11中任一项所述的方法,其中当在所述3D环境内呈现时,所述第一多个视觉提示覆盖在物理环境的表示上。
15.根据权利要求1至11中任一项所述的方法,其中当在所述3D环境内呈现时,所述第一多个视觉提示与物理环境的表示合成。
16.根据权利要求1至12中任一项所述的方法,还包括:
根据确定与所述用户相关联的所述头部姿态信息的所述改变满足与所述第一多个视觉提示中的最终视觉提示相关联的标准:
提供音频、触觉或视觉反馈中的至少一者,所述音频、触觉或视觉反馈中的至少一者指示已经针对所述引导式拉伸会话的所述第一部分完成所述第一多个视觉提示中的所述最终视觉提示;并且
停止显示所述第一多个视觉提示;
F-EF239247
在停止显示所述第一多个视觉提示之后,基于所述用户简档信息和所述头部姿态信息来确定针对引导式拉伸会话的第二部分的所述3D环境内的第二多个视觉提示的位置,其中所述引导式拉伸会话的所述第二部分对应于第二拉伸方向;并且
经由所述显示设备同时呈现在所述3D环境内的所确定的位置处的针对引导式拉伸会话的所述第二部分的所述第二多个视觉提示和所述方向指示符。
17.一种设备,所述设备包括:
一个或多个处理器;
非暂态存储器;
接口,所述接口用于与显示设备和一个或多个输入设备进行通信;以及
存储在所述非暂态存储器中的一个或多个程序,当由所述一个或多个处理器执行时,所述一个或多个程序使得所述设备执行根据权利要求1至16中任一项所述的方法。
18.一种存储一个或多个程序的非暂态存储器,所述一个或多个程序在由具有用于与显示设备和一个或多个输入设备通信的接口的设备的一个或多个处理器执行时使得所述设备执行根据权利要求1至16中任一项所述的方法。
CN202310562621.8A 2022-05-23 2023-05-18 用于呈现引导式拉伸会话的方法和设备 Pending CN117111730A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263344741P 2022-05-23 2022-05-23
US63/344,741 2022-05-23

Publications (1)

Publication Number Publication Date
CN117111730A true CN117111730A (zh) 2023-11-24

Family

ID=88791865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310562621.8A Pending CN117111730A (zh) 2022-05-23 2023-05-18 用于呈现引导式拉伸会话的方法和设备

Country Status (2)

Country Link
US (1) US20230377480A1 (zh)
CN (1) CN117111730A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021245690A2 (en) * 2020-06-02 2021-12-09 Chaudhari Uday Purushottam An eye exerciser and a method for relieving eye strain

Also Published As

Publication number Publication date
US20230377480A1 (en) 2023-11-23

Similar Documents

Publication Publication Date Title
US9829989B2 (en) Three-dimensional user input
JP6558839B2 (ja) 媒介現実
US11995230B2 (en) Methods for presenting and sharing content in an environment
CN111602104B (zh) 用于与所识别的对象相关联地呈现合成现实内容的方法和设备
CN111273766B (zh) 用于生成链接到物品模拟现实表示的示能表示的方法、设备和系统
US20240094815A1 (en) Method and device for debugging program execution and content playback
CN117111730A (zh) 用于呈现引导式拉伸会话的方法和设备
US11321926B2 (en) Method and device for content placement
US20230343028A1 (en) Method and Device for Improving Comfortability of Virtual Content
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
CN116583870A (zh) 用于多相机孔填充的方法和设备
US20240023830A1 (en) Method and Device for Tiered Posture Awareness
US12002140B1 (en) Method and device for surfacing accumulated strain information
US11983316B2 (en) Method and device for managing attention accumulators
US20240219998A1 (en) Method And Device For Dynamic Sensory And Input Modes Based On Contextual State
US11886625B1 (en) Method and device for spatially designating private content
US20240241616A1 (en) Method And Device For Navigating Windows In 3D
CN116578365A (zh) 用于表面化与电子消息相对应的虚拟对象的方法和设备
CN117916691A (zh) 用于基于情境状态启用输入模式的方法和设备
CN117581180A (zh) 用于在3d中导航窗口的方法和设备
US20240112303A1 (en) Context-Based Selection of Perspective Correction Operations
US11593982B1 (en) Method and device for generating a blended animation
US20240103611A1 (en) Method and Device for Waking a Computing System
CN117882033A (zh) 用于调用写入表面的方法和设备
CN116909386A (zh) 用于改善虚拟内容的舒适性的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination