CN117806457A - 多用户通信会话中的演示 - Google Patents

多用户通信会话中的演示 Download PDF

Info

Publication number
CN117806457A
CN117806457A CN202311000927.0A CN202311000927A CN117806457A CN 117806457 A CN117806457 A CN 117806457A CN 202311000927 A CN202311000927 A CN 202311000927A CN 117806457 A CN117806457 A CN 117806457A
Authority
CN
China
Prior art keywords
audience
communication session
user
virtual
user communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311000927.0A
Other languages
English (en)
Inventor
A·M·伯恩斯
A·G·普洛斯
A·H·帕兰吉
B·R·布拉赫尼特斯基
C·帕帕多普洛斯
D·M·沙滕
E·德米拉亚克
王嘉
R·阿巴斯安
R·S·卡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN117806457A publication Critical patent/CN117806457A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及多用户通信会话中的演示。诸如头戴式设备的电子设备可呈现诸如三维环境的表示的扩展现实内容。该三维环境的该表示可响应于用户输入而在具有不同沉浸水平的不同查看模式之间改变。该三维环境可表示多用户通信会话。多用户通信会话可被保存并且随后被作为重放查看。在该多用户通信会话的该重放内可存在交互式虚拟对象。该交互式虚拟对象的姿势可在该重放被暂停时由用户操纵。一些多用户通信会话可以是具有演示者和观众成员的分级多用户通信会话。该演示者和该观众成员可在该演示期间接收基于该观众成员的广义反馈。参与者可在该演示期间使其角色在观众成员和演示者之间改变。

Description

多用户通信会话中的演示
本申请要求2023年6月30日提交的美国专利申请号18/345,884、2022年8月11日提交的美国临时专利申请号63/397,270、2022年8月11日提交的美国临时专利申请号63/397,276和2022年8月12日提交的美国临时专利申请号63/397,508的优先权,这些专利申请据此全文以引用方式并入本文。
背景技术
本公开整体涉及电子设备,并且更具体地涉及具有显示器的电子设备。
诸如头戴式设备的一些电子设备包括在操作期间靠近用户眼睛定位的显示器(有时称为近眼显示器)。该显示器可用于显示虚拟内容。
发明内容
电子设备可以包括一个或多个传感器、一个或多个显示器、一个或多个处理器以及存储被配置为由该一个或多个处理器执行的指令的存储器。该指令可包括用于进行以下操作的指令:获得包括三维环境的表示的内容;在第一查看模式中使用至少该一个或多个显示器在扩展现实环境中呈现该内容,其中在该第一查看模式中,基于定位于该三维环境的该表示内的视点来呈现该内容;经由该一个或多个传感器获得用户输入;以及响应于该用户输入,在第二查看模式中使用至少该一个或多个显示器在该扩展现实环境中呈现该内容,其中在该第二查看模式中,基于在该三维环境的该表示外部的视点来呈现该内容。
电子设备可以包括一个或多个传感器、一个或多个显示器、一个或多个处理器以及存储被配置为由该一个或多个处理器执行的指令的存储器。该指令可包括用于进行以下操作的指令:使用至少该一个或多个显示器来呈现包括交互式虚拟对象的扩展现实会话的重放;经由该一个或多个传感器获得第一用户输入;响应于该第一用户输入而暂停该扩展现实会话的该重放;经由该一个或多个传感器获得第二用户输入;以及响应于该第二用户输入并且在该扩展现实会话的该重放被暂停时修改在该扩展现实会话的该重放内的该交互式虚拟对象的姿势。
电子设备可以包括一个或多个传感器、一个或多个显示器、一个或多个处理器以及存储被配置为由该一个或多个处理器执行的指令的存储器。这些指令可包括用于在处于多用户通信会话的演示者角色时使用至少该一个或多个显示器来呈现扩展现实环境的指令。该扩展现实环境可包括从虚拟舞台上的角度的虚拟观众的表示,并且该表示可包括基于具有观众成员角色的该多用户通信会话的参与者的广义反馈。
电子设备可以包括一个或多个传感器、一个或多个显示器、一个或多个处理器以及存储被配置为由该一个或多个处理器执行的指令的存储器。这些指令可包括用于在处于多用户通信会话的观众成员角色时使用至少该一个或多个显示器来呈现扩展现实环境的指令。该扩展现实环境可包括从虚拟观众的角度的虚拟舞台的表示,该虚拟观众包括具有该观众成员角色的该多用户通信会话的一个或多个参与者的一个或多个化身(avatar),其中该电子设备的用户被允许直接与该一个或多个参与者通信,以及基于具有该观众成员角色的该多用户通信会话的其他参与者的广义反馈。
电子设备可以包括一个或多个传感器、一个或多个显示器、一个或多个处理器以及存储被配置为由该一个或多个处理器执行的指令的存储器。该指令可包括用于在处于多用户通信会话的观众成员角色时使用至少该一个或多个显示器来呈现第一扩展现实环境,并且响应于从该多用户通信会话的该观众成员角色到演示者角色的改变而使用至少该一个或多个显示器来呈现第二扩展现实环境的指令。该第一扩展现实环境可包括从虚拟观众的角度的虚拟舞台的表示,该虚拟观众表示具有该观众成员角色的该多用户通信会话的参与者。在处于该观众成员角色时,可防止该电子设备的用户直接与具有演示者角色的该多用户通信会话的参与者进行通信。第二扩展现实环境可包括从虚拟舞台上的角度的虚拟观众的表示。当处于该演示者角色时,可允许该电子设备的该用户直接与具有该演示者角色的该多用户通信会话的该参与者进行通信。
附图说明
图1是根据一些实施方案的例示性电子设备的示意图。
图2是根据一些实施方案的例示性电子设备的顶视图。
图3是根据一些实施方案的例示性多用户通信会话的示意图。
图4是根据一些实施方案的用于多用户通信会话的例示性扩展现实(XR)环境的顶视图。
图5A、图6A、图7A、图8A、图9A、图10A和图11A是根据一些实施方案的示出不同视点的图4的例示性XR环境的顶视图。
图5B、图6B、图7B、图8B、图9B、图10B和图11B分别示出了根据一些实施方案的在图5A、图6A、图7A、图8A、图9A、图10A和图11A中的视点处的用户的例示性视图。
图12是示出根据一些实施方案的用于参与多用户通信会话的例示性方法的流程图。
图13是根据一些实施方案的例示性分级多用户通信会话的示意图。
图14是根据一些实施方案的分级多用户通信中的例示性角色的状态图。
图15是根据一些实施方案的用于分级多用户通信会话的例示性XR环境的顶视图。
图16是根据一些实施方案的用于分级多用户通信会话中的演示者的XR环境的例示性表示的示例。
图17是根据一些实施方案的用于分级多用户通信会话中的观众成员的XR环境的例示性表示的示例。
图18是示出根据一些实施方案的发起和进行分级多用户通信会话的例示性方法的流程图。
图19是示出根据一些实施方案的作为分级多用户通信会话中的观众成员查看演示的例示性方法的流程图。
图20是示出根据一些实施方案的改变分级多用户通信会话中的参与者的角色的例示性方法的流程图。
图21是根据一些实施方案的以查看模式操作的例示性显示器的视图,其中三维环境被表示为显示器的子集上的二维视频。
图22是根据一些实施方案的以查看模式操作的例示性显示器的视图,其中在显示器的子集上呈现三维环境的小型化版本。
图23和图24是根据一些实施方案的以查看模式操作的例示性显示器的视图,其中在显示器的子集上呈现门户。
图25是示出根据一些实施方案的针对包括三维环境的表示的内容的例示性查看模式的状态图。
图26是示出根据一些实施方案的用于以不同查看模式呈现三维环境的表示的例示性方法的流程图。
图27是示出根据一些实施方案的用于切换三维环境的表示的查看模式的例示性方法的流程图。
图28和图29是示出根据一些实施方案的扩展现实会话的重放的例示性显示的视图。
图30是示出根据一些实施方案的用于呈现XR内容的重放的例示性方法的流程图。
图31是示出根据一些实施方案的用于控制XR内容的重放的例示性方法的流程图。
具体实施方式
头戴式设备可以为用户显示不同类型的扩展现实内容。头戴式设备可显示在用户的物理环境内的表观深度处感知到的虚拟对象。虚拟对象有时可显示在相对于用户的物理环境的固定位置处。例如,考虑其中用户的物理环境包括桌子的示例。可为用户显示虚拟对象,使得虚拟对象看起来正停留在桌子上。当用户移动他们的头部并且以其他方式与XR环境交互时,虚拟对象保持在桌子上的相同的固定定位处(例如,如同虚拟对象是XR环境中的另一物理对象一样)。这种类型的内容可被称为世界锁定内容(因为虚拟对象的定位相对于用户的物理环境是固定的)。
其他虚拟对象可被显示在相对于头戴式设备或头戴式设备的用户限定的位置处。首先,考虑在相对于头戴式设备限定的位置处显示的虚拟对象的示例。当头戴式设备移动时(例如,随着用户头部的旋转),虚拟对象保持在相对于头戴式设备的固定定位。例如,虚拟对象可显示在头戴式设备的前方和中央(例如,在设备或用户的视野的中央)的特定距离处。当用户向左和向右移动他们的头部时,他们对他们的物理环境的视野相应地改变。然而,当用户移动他们的头部时,虚拟对象可以保持固定在设备或用户的视野的中央的特定距离处(假设注视方向保持恒定)。这种类型的内容可以被称为头部锁定内容。头部锁定内容被固定在相对于头戴式设备(并且因此支撑头戴式设备的用户的头部)的给定定位中。可以不基于用户的注视方向来调整头部锁定内容。换句话说,如果用户的头部定位保持恒定并且他们的注视被引导远离头部锁定内容,则头部锁定内容将保持在相同的表观定位。
第二,考虑在相对于头戴式设备的用户的一部分(例如,相对于用户的躯干)限定的位置处显示的虚拟对象的示例。这种类型的内容可以被称为身体锁定内容。例如,虚拟对象可显示在用户身体的前方和左侧(例如,在由距用户躯干的前向方向的距离和角度偏移限定的位置处),而不管用户的头部面向哪个方向。如果用户的身体面向第一方向,则虚拟对象将被显示在用户的身体的前方和左侧。在面向第一方向时,尽管用户向左和向右旋转他们的头部(以朝向和远离虚拟对象看),虚拟对象可相对于XR环境中的用户的身体保持在相同的固定定位处。然而,虚拟对象可响应于用户旋转其头部而在设备或用户的视野内移动。如果用户转身并且他们的身体面向与第一方向相反的第二方向,则虚拟对象将在XR环境内被重新定位,使得虚拟对象仍然被显示在用户的身体的前方和左侧。在面向第二方向时,尽管用户向左和向右旋转他们的头部(以朝向和远离虚拟对象看),虚拟对象可相对于XR环境中的用户的身体保持在相同的固定定位处。
在前述示例中,即使在用户的身体旋转时,身体锁定内容也被显示在相对于用户的身体的固定定位/取向处。例如,虚拟对象可显示在用户的身体前方的固定距离处。如果用户面向北,则虚拟对象在用户的身体的前方(向北)固定距离处。如果用户旋转并面向南,则虚拟对象在用户的身体的前方(向南)固定距离处。
另选地,身体锁定内容与用户之间的距离偏移可相对于用户固定,而身体锁定内容的取向可相对于物理环境保持固定。例如,当用户面向北时,虚拟对象可被显示在用户的身体前方距离用户固定距离处。如果用户旋转并面向南,则虚拟对象保持在用户的身体的北部与用户的身体相距固定距离处。
身体锁定内容还被配置为始终保持重力或水平对准,使得在滚动取向的头部和/或身体变化将不使身体锁定内容在XR环境内移动。平移移动可以使得身体锁定内容在XR环境内被重新定位以保持与用户的固定距离。对身体锁定内容的后续描述可以包括上述两种类型的身体锁定内容。
在图1中示出了例示性电子设备的示意图。如图1所示,电子设备10(有时称为头戴式设备10、头戴式显示器10、系统10等)可具有控制电路14。控制电路14可被配置为使用硬件(例如,专用硬件或电路)、固件和/或软件在电子设备10中执行操作。用于在电子设备10中执行操作的软件代码和其他数据存储在控制电路14中的非暂态计算机可读存储介质(例如,有形计算机可读存储介质)上。软件代码有时可被称为软件、数据、程序指令、指令或代码。非暂态计算机可读存储介质(有时通常被称为存储器)可包括非易失性存储器诸如非易失性随机存取存储器(NVRAM)、一个或多个硬盘驱动器(例如,磁盘驱动器或固态驱动器)、一个或多个可移动闪存驱动器、或其他可移动介质等。存储在非暂态计算机可读存储介质上的软件可在控制电路14的处理电路上执行。处理电路可包括具有处理电路的专用集成电路、一个或多个微处理器、数字信号处理器、图形处理单元、中央处理单元(CPU)、或其他处理电路。
电子设备10可包括输入-输出电路20。输入-输出电路20可用于允许由电子设备10从外部装备(例如,拴系计算机、便携式设备诸如手持设备或膝上型计算机,或其他电气装备)接收数据,并且允许用户向电子设备10提供用户输入。输入-输出电路20还可用于采集有关电子设备10的操作环境的信息。电路20中的输出部件可允许电子设备10向用户提供输出,并且可用于与外部电气装备通信。
如图1所示,输入-输出电路20可包括显示器诸如显示器26。显示器26可用于为电子设备10的用户显示图像。显示器26可以是透明或半透明显示器,使得用户可通过显示器观察物理对象,同时通过在显示器上呈现计算机生成的图像,将计算机生成的内容覆盖在物理对象的顶部上。透明或半透明显示器可由透明或半透明像素阵列(例如,透明有机发光二极管显示面板)形成,或者可由显示设备形成,该显示设备通过分束器、全息耦合器或其他光学耦合器(例如,显示设备诸如硅显示器上的液晶)向用户提供图像。另选地,显示器26可以是不透明显示器,该不透明显示器在用户操作电子设备10时阻挡来自真实世界对象的光。在这种类型的布置方式中,可使用透视相机来向用户显示物理对象。透视相机可捕获物理环境的图像,并且物理环境图像可被显示在显示器上以供用户查看。附加的电脑生成的内容(例如,文本、游戏内容、其他视觉内容等)可任选地覆盖在物理环境图像上,从而为用户提供扩展的现实环境。当显示器26不透明时,显示器还可任选地显示整个计算机生成的内容(例如,不显示真实世界图像)。
显示器26可包括允许观看者查看显示器26上的图像的一个或多个光学系统(例如,透镜)。单个显示器26可为双眼产生图像,或者一对显示器26可用于显示图像。在具有多个显示器(例如,左眼显示器和右眼显示器)的配置中,可选择镜头的焦距和位置,使得显示器之间存在的任何间隙对于用户将是不可见的(例如,使得左显示器和右显示器的图像无缝地重叠或合并)。为用户的左眼和右眼生成不同图像的显示模块可被称为立体显示器。立体显示器可以能够呈现二维内容(例如,具有文本的用户通知)和三维内容(例如,诸如立方体的物理对象的模拟)。
输入-输出电路20可包括部件,诸如用于采集数据和用户输入以及用于向用户提供输出的输入-输出设备22。设备22可包括注视追踪器诸如注视追踪器28(有时被称为注视追踪系统或注视追踪相机)和相机诸如相机30。
注视追踪器28可包括相机和/或其他注视追踪系统部件(例如,发射光束的光源,使得可检测来自用户眼睛的光束的反射)以监测用户的眼睛。注视追踪器28可面向用户的眼睛并且可追踪用户的注视。注视追踪系统中的相机可确定用户眼睛的位置(例如,用户的瞳孔的中心),可确定其中用户的眼睛的取向方向(用户的注视方向),可确定用户的瞳孔尺寸(例如,使得光调制和/或其他光学参数、和/或用来在空间上调节这些参数中的一个或多个的循序量、和/或在其中调节这些光学参数中的一个或多个的区域,这些区域基于瞳孔尺寸来调节),可用于监测镜头在用户眼睛中的当前焦距(例如,用户是聚焦于近场还是远场,这可用于评估用户是在做白日梦还是在战略性或策略性地思考)、和/或其他注视信息。注视追踪系统中的相机有时可被称为内向相机、注视检测相机、眼睛追踪相机、注视追踪相机或眼睛监测相机。如果需要,还可使用其他类型的图像传感器(例如,红外和/或可见光发光二极管和光检测器等)来监测用户的注视。注视追踪器28中的注视检测相机的使用仅仅是例示性的。
相机诸如面向外相机30(有时称为面向外相机模块30或相机模块30)可用于捕获用户周围的物理环境的图像。例如,一个或多个面向外相机30可用于捕获用户前面和用户视野的左侧和右侧上的物理对象的图像。以这种方式收集的物理世界对象的图像可在显示器26上呈现给用户,以及/或者可由控制电路14处理以确定电子设备(例如,显示器等)、人、建筑物和其他物理对象相对于用户的位置。还可使用图像处理算法来分析物理环境。来自相机30的信息可用于控制显示器26。
面向外相机30可用作获取用户物理环境的图像的透视相机。然后在显示器26上显示对应于用户视野的物理环境图像(由注视追踪器和头戴式设备的位置确定)。由此,用户感知到他们正在查看物理环境(使用透视相机和显示器查看,由此来复制物理环境)。
除了基于来自注视追踪器28、和/或面向外相机30的信息来调整诸如显示器26的部件之外,控制电路14可收集来自其他输入输出电路20的传感器数据和用户输入以用于控制电子设备10。如图1所示,输入-输出设备22可包括位置和运动传感器32(例如,罗盘、陀螺仪、加速度计、和/或用于监测电子设备10的位置、取向和移动的其他设备,卫星导航系统电路诸如用于监测用户位置的全球定位系统电路等)。例如,控制电路14可使用传感器32来监测用户头部相对于周围环境取向的当前方向。还可使用传感器32来监测用户头部的移动(例如,用户头部姿势)。在一个示例中,位置和运动传感器32可包括一个或多个面向外相机30。面向外相机可用于面部追踪(例如,通过在设备被穿戴在用户的头部上时捕获用户的下巴、嘴部等的图像)、身体追踪(例如,通过在设备被穿戴在用户的头部上时捕获用户的躯干、手臂、手部、腿部等的图像)和/或用于定位(例如,使用视觉测距法、视觉惯性测距法、或其他同时定位和标测(SLAM)技术)。
输入-输出设备22还可包括其他传感器和输入-输出部件34(例如,环境光传感器、力传感器、温度传感器、触摸传感器、按钮、电容式接近传感器、基于光的接近传感器、其他接近传感器、应变仪、气体传感器、压力传感器、湿度传感器、磁传感器、麦克风、扬声器、音频部件、触觉输出设备、发光二极管、其他光源等)。
电路20可包括允许电子设备10(例如,控制电路14)通过网络46与外部装备36通信的有线和无线通信电路18。通信网络46的示例包括局域网(LAN)和广域网(WAN)(例如,互联网)。通信网络46可使用任何已知的网络协议来实现,包括各种有线或无线协议,诸如例如以太网、通用串行总线(USB)、火线、全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、Wi-Fi、互联网协议语音(VoIP)、Wi-MAX、或任何其他合适的通信协议。
外部装备36可包括与电子设备10处于相同物理环境中的设备。例如,外部装备36可包括用于向电子设备10提供用户输入的遥控器、操纵杆和其他输入控制器。作为附加示例,外部装备可包括与电子设备10配对并且任选地向电子设备10提供显示内容的其他电子设备(例如,蜂窝电话、膝上型计算机等)。与电子设备10处于相同物理环境中的外部装备可任选地具有到电子设备10的有线连接(例如,可被栓系)而不是无线连接。
外部装备36还可包括不与电子设备10处于相同物理环境中的设备。例如,外部装备36可包括一个或多个附加的头戴式设备(例如,电子设备10与其进行多用户通信会话)。作为另一个示例,外部装备36可包括响应于来自电子设备10的请求而提供信息的外部服务器。
电子设备10可包括任何其他期望的部件。例如,头戴式设备可包括电池。
电子设备10的部件可由头戴式支撑结构诸如图2的例示性支撑结构16支撑。支撑结构16可具有一对眼镜的框架的形状(例如,左和右镜腿和其他框架构件),可具有头盔形状,可具有护目镜形状,或可具有另一个头部可安装的构型。当穿戴在用户的头部上时,用户可在显示器26为透明显示器的构型中通过显示器26查看物理对象诸如物理对象44。在其中显示器26不透明的构型中,用户的眼睛12可被阻挡而无法查看物理对象44。显示器26由支撑结构16支撑,并且当佩戴在用户的头部上时,被放置在用户眼睛12的前面。
支撑结构16可在另外的位置诸如位置38、40和42处支撑另外的部件。例如,部件可安装在位置38中的支撑结构16的前面。输入-输出电路20中的面向外相机30和/或传感器和其他部件可安装在位置38中。位置38中的部件可用于检测物理对象(例如,物理对象44)的位置和/或用于捕获物理环境的图像。对象44可包括天然和人造对象、人、建筑物、眩光源诸如反射对象、太阳、灯等。
输入-输出设备22诸如位置和运动传感器32、光检测器或其他所需的输入-输出设备可安装在位置40中。位置40中的部件可面向用户的环境(例如,远离用户的面向外部的部件)。相比之下,位置42中的部件可面向用户(例如,面向用户的面向内部的部件)。输入-输出设备22诸如注视追踪器28(图像传感器)、扬声器(例如听筒)、或播放音频的其他音频部件(例如,与计算机生成的图像和/或其他内容相关联的音频、和/或使用显示器26来显示的其他内容等)、或其他期望的输入-输出设备,可安装在位置42中。
电子设备10为头戴式设备的图1和图2的示例仅为例示性的。在一些情况下,电子设备10可以是另一种类型的电子设备(例如,平板计算机、膝上型计算机、台式计算机、电视、蜂窝电话、媒体播放器、手表设备或其他可穿戴电子装备等)。
多个电子设备10可在多用户通信会话中进行通信。在本文中,多用户通信会话是指在XR环境中两个或更多个设备参与其中的通信会话。如图1所示,电子设备10中的控制电路14可包括多用户通信会话引擎50。设备10的多用户通信会话引擎50被配置为在多用户通信会话期间控制使用设备10(例如,使用显示器26和输入-输出电路20中的其他输出设备)来呈现的XR内容。
在图3中示出了例示性多用户通信会话的示意图。如图3所示,在多用户通信会话期间,多个电子设备10经由网络46连接。一些电子设备(和对应用户)可位于不同的物理环境中。如图3所示,具有电子设备10A的用户68A存在于物理环境48A中,分别具有电子设备10B-1和10B-2的用户68B-1和68B-2存在于与物理环境48A不同的物理环境48B中,并且具有电子设备10C的用户68C存在于与物理环境48A和48B不同的物理环境48C中。多用户通信会话中的一些电子设备可位于相同的物理环境中。电子设备10B-1和10B-2都位于物理环境48B中。
用于定义哪些设备处于相同物理环境中的度量的类型(以及度量的量值)可以是可调整的。例如,距离可用于限定哪些设备处于相同物理环境中(例如,彼此在10英尺内、彼此在20英尺内、彼此在50英尺内等的设备可被认为共同位于相同物理环境中)。作为另一个示例,被确定为处于相同房间内的设备可被认为共同位于相同物理环境中。对应地,不同物理环境中的设备可位于共同建筑物中的不同房间中或分开较大距离(例如,可位于不同城市、州、国家等)。
在本文中,本地多用户通信设备可指在多用户通信会话中被描述的或由被描述的用户控制的当前设备。共址多用户通信设备是指共享物理环境和XR环境的两个设备(例如,图3中的设备10B-1和10B-2),使得共址设备的用户可体验相同的物理对象和XR对象。远程多用户通信设备可指位于与当前本地多用户通信设备隔开的物理环境中的辅助设备。在一个或多个实施方案中,该远程多用户通信设备可以为多用户通信会话的参与者。共享虚拟元素可指对共同的XR会话中的参与者可见或以其他方式能够由其体验的XR对象(诸如虚拟对象)。
任何期望数量的电子设备可参与图3的多用户通信会话。多用户通信会话可包括多于两个电子设备、多于五个电子设备、多于十个电子设备、多于二十个电子设备、多于五十个电子设备、多于一百个电子设备、多于一千个电子设备、多于一万个电子设备、多于十万个电子设备、多于一百万个电子设备等。电子设备的任何期望子集可共同位于共同物理环境中(例如,图3中的设备10B-1和10B-2)。多用户通信会话中的每个电子设备可具有相应用户。
多用户通信会话中的电子设备可经由网络46进行通信。每个电子设备可在其相应控制电路中具有相应多用户通信会话引擎(见图1)。每个本地多用户通信设备的多用户通信会话引擎可基于对设备的输入和从其他设备(例如,经由网络46)接收的信息来控制在该设备上呈现的内容。在一些多用户通信会话中,一个参与的电子设备可充当向多用户通信会话中的其他电子设备提供内容的主设备。并非必须如此,并且每个电子设备可替代地基于各种输入来生成其自身内容。
如果需要,多用户通信会话可包括不与参与的电子设备相关联的多用户通信会话引擎50'。多用户通信会话引擎50'可经由网络46与电子设备通信。多用户通信会话引擎50'可从多用户通信会话中的一个或多个电子设备接收输入,并且向电子设备中的一者或多者提供对应XR内容。多用户通信会话引擎50'可管理提供给会话中的每个设备的XR内容。换句话说,在一个示例中,多用户通信会话引擎50'充当向多用户通信会话中的其他电子设备提供内容的主设备。多用户通信会话引擎50'可在一个或多个独立数据处理装置(例如,外部服务器)或分布式计算机网络上实现。
考虑其中电子设备10A用作多用户通信会话的主设备的第一示例。设备10A中的多用户通信会话引擎可发起多用户通信会话并且控制用于多用户通信会话的XR环境中包括的内容。设备10A将关于XR环境的信息发送到会话中的其他设备(例如,设备10B-1、10B-2和10C)。其他设备(10B-1、10B-2和10C)可使用其相应的多用户通信会话引擎以向其相应的用户呈现XR环境。如果需要,每个设备(10B-1、10B-2和10C)可以能够定制XR环境的演示。然而,可从主设备10A连续地接收对XR环境的更新。
考虑其中多用户通信会话引擎50'用作多用户通信会话的主设备的第二示例。多用户通信会话引擎50'可向会话中的其他设备(例如,设备10A、10B-1、10B-2和10C)发送关于XR环境的信息。设备(10A、10B-1、10B-2和10C)可使用其相应的多用户通信会话引擎以向其相应的用户呈现XR环境。如果需要,每个设备(10A、10B-1、10B-2和10C)可以能够定制XR环境的演示。然而,可从主设备50'连续地接收对XR环境的更新。
用作多用户通信会话的主设备的单个设备的示例仅仅是例示性的。另选地,设备可以非分级方式交换信息,或者多用户通信会话中的两个或更多个设备在控制多用户通信会话中的内容方面可具有比多用户通信会话中的剩余设备更高的优先级。
图4是用于多用户通信会话的例示性XR环境的顶视图。在该XR环境中,用户位于虚拟房间中的圆形桌子64周围。每个用户在XR环境内具有相关联的虚拟表示(有时被称为化身)。虚拟对象60存在于虚拟桌子上。应用程序窗口62(例如,演示文档、视频、模拟白板或其他应用程序)也存在于XR环境中。
在图4中,电子设备10A的用户68A由化身58表示,电子设备10B-1的用户68B-1由化身52表示,电子设备10B-2的用户68B-2由化身54表示,并且电子设备10C的用户68C由化身56表示。
对于每个用户的化身的外观存在许多选项。化身可描绘对应用户的实时动作,包括移动、已更新位置和/或与多用户通信会话XR环境内的各种物理部件和/或虚拟部件的交互。例如,如果用户68A(由化身58表示)抬起其手部,则化身58可抬起其手部。如果用户68A看向其右侧,则化身58可看向其右侧。如果用户68A站立,则化身58可站立。
化身可模仿或可不模仿用户的面部表情。例如,如果用户68A(由化身58表示)微笑,则化身58可微笑。如果用户68A皱眉,则化身58可皱眉。
化身可模仿或可不模仿用户的物理特性。例如,化身可具有带有可定制特性(例如,发色、发型、眼睛颜色等)的动画外观。例如,用户68A可定制化身58的外观(例如,从长到短改变发型)。另选地,化身可使用用户的实际图像来表示用户的面部。例如,用户68A的面部的至少一部分的图像(任选地由电子设备10A中的一个或多个传感器捕获)可用于表示化身58的面部。
在先前示例中,化身可具有人的外观(例如,化身具有躯干、头部、手臂等)。该示例仅为例示性的。另选地,化身可以是表示用户而没有人的外观的另一个符号(例如,圆或球)。
多用户通信会话中的每个用户可具有图4所示的相同XR环境的视图。多用户通信会话中的每个用户可具有位于三维XR环境内的视点。考虑图5A的示例,其中用户68A(由化身58表示)在方向66上看向化身54。在图5B中示出了用户的视图(如在电子设备10A中的显示器26A上呈现的)。如图5B所示,用户查看在其前面的化身54、在其左侧的化身52、在其右侧的化身56(具有虚拟对象60)、以及在化身54和56后面的应用程序窗口62。为多用户通信会话中的其他用户维持XR环境中的虚拟对象之间的空间关系。
考虑图6A的示例,其中用户68B-1(由化身52表示)在方向66上看向化身56。在图6B中示出了用户的视图(如在电子设备10B-1中的显示器26B-1上呈现的)。如图6B所示,用户查看在其前面的化身56(具有虚拟对象60)、在其左侧的化身54、在其右侧的化身58、以及在化身54和56后面的应用程序窗口62。
考虑图7A的示例,其中用户68B-2(由化身54表示)在方向66上看向化身58。在图7B中示出了用户的视图(如在电子设备10B-2中的显示器26B-2上呈现的)。如图7B所示,用户查看在其前面的化身58、在其左侧的化身56(具有虚拟对象60)和在其右侧的化身52。应用程序窗口62不在用户68B-2的视野内,并且因此应用程序窗口62未被描绘在图7B中的显示器26B-2上。
考虑图8A的示例,其中用户68C(由化身56表示)在方向66上看向化身52。在图8B中示出了用户的视图(如在电子设备10C中的显示器26C上呈现的)。如图8B所示,用户查看在其前面的化身52、在其左侧的化身58和在其右侧的化身54。虚拟对象60不在用户68C的视野内,并且因此虚拟对象60未被描绘在图8B中的显示器26C上。应用程序窗口62不在用户68C的视野内,并且因此应用程序窗口62未被描绘在图8B中的显示器26C上。
图5至图8示出了如何跨多用户通信会话中的不同用户维持XR环境中的虚拟对象之间的空间关系。此外,XR环境中的虚拟对象之间的空间关系可在给定用户改变其头部姿势(以及对应地,正被查看的XR环境的部分)时被维持。头部姿势可由位置(例如,三维坐标系内的位置)和取向(例如,俯仰、滚转和偏航)两者表征。用户头部的位置的改变可对应地改变三维XR环境的表示内的用户视点。用户头部的取向的改变可对应地改变三维XR环境的表示内的用户视野。
例如,考虑图9A,其中用户68B-1(由化身56表示)改变其头部姿势(例如,头部取向)以在方向66上看向虚拟对象60。在图9B中示出了用户68B-1的对应视图(如在电子设备10B-1中的显示器26B-1上呈现的)。如图所示,用户查看桌子64上的虚拟对象60。
考虑图10A,其中用户68B-1(由化身56表示)改变其头部姿势(例如,头部取向)以在方向66上看向应用程序窗口62。在图10B中示出了用户68B-1的对应视图(如在电子设备10B-1中的显示器26B-1上呈现的)。如图所示,用户查看应用程序窗口62和在应用程序窗口左侧的化身54和桌子64。
考虑图11A,其中用户68B-1(由化身56表示)改变其头部姿势(例如,头部取向)以在方向66上看向化身58。在图11B中示出了用户68B-1的对应视图(如在电子设备10B-1中的显示器26B-1上呈现的)。如图所示,用户查看化身58和在化身58右侧的化身52。
应当注意,图5B、图6B、图7B、图8B、图9B、图10B和图11B中显示的内容可以是立体(三维)内容(例如,在具有能够显示三维内容的立体显示器的设备中)。
如图8至图11所展示,用户可在用于多用户通信会话的XR环境中环顾,就好像XR环境是物理房间一样。XR环境中的某些对象可取决于用户头部姿势进入和离开用户的视野,但XR环境中的对象之间的空间关系被连续地维持(例如,当用户转动离开桌子64上的虚拟对象60并且然后转动回到虚拟对象时,虚拟对象60处于桌子64上的相同位置处)。多用户通信会话中的每个用户还具有代表性化身。以此方式,虚拟房间中的多用户通信会话模拟用户存在于物理房间中。虚拟房间使得用户能够具有与在共同物理房间中类似的交互(例如,看特定人、给出非语言提示、看诸如虚拟对象60或应用程序窗口62的共同内容),即使用户可位于不同的物理环境中。
在图3至图11的示例中,在多用户通信会话中的设备之间没有分级结构。换句话说,向多用户通信会话中的每个设备呈现相同的XR环境(模拟所有用户存在于相同物理房间中)。每个用户可在XR环境内具有全运动范围,可控制XR环境中的虚拟内容,诸如虚拟对象(例如,虚拟对象60)和应用程序(例如,在应用程序窗口62中)等。在多用户通信会话中的任何用户的用户体验中没有描绘。这种类型的多用户通信会话(在设备之间没有分级结构)可被称为协作多用户通信会话、非分级多用户通信会话等。
图12是示出由头戴式设备(例如,设备10中的控制电路16)执行的例示性方法的流程图。图12的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
在框1202处,控制电路16可发起和/或加入协作多用户通信器会话。发起和/或加入协作多用户通信机会话可致使显示器26向用户呈现表示多用户通信会话的扩展现实环境。用户可提供用户输入以加入现有的协作多用户通信会话(例如,通过点击链接)。用户可提供用户输入以发起新的协作多用户通信会话。一个或多个其他用户可能在框1202处已经存在于多用户通信会话中,和/或在本地用户发起/加入多用户通信会话之后,一个或多个其他用户可在框1202处加入多用户通信会话。协作多用户通信会话中的每个用户可由化身表示。
在框1204处,控制电路16可(基于用户输入)定制协作多用户通信会话中的所呈现的XR环境。存在控制电路可对XR环境进行的各种各样的定制。控制电路可为电子设备10的本地用户或协作多用户通信会话中的远程用户定制化身的外观(例如,通过改变化身的物理特性、调整化身与本地或远程用户的外观类似性、将化身调整为一般形状诸如圆等)。控制电路可定制XR环境的虚拟房间的外观。例如,在图4的示例中,XR环境包括具有圆形桌子的虚拟房间。在框1204处,控制电路16可更新虚拟房间以包括不同尺寸/形状的桌子,可改变虚拟房间的美观性等。控制电路16可定制应用程序和XR环境的虚拟房间中存在的其他虚拟对象。
在框1204处,控制电路可选择要在虚拟房间中使用的应用程序。例如,控制电路可选择具有相关联的应用程序窗口62的应用程序并且将应用程序窗口62定位在虚拟房间内。控制电路可选择具有相关联的虚拟对象(例如,棋盘)的附加应用程序且相应地放置虚拟对象(例如,在桌子上)。
在框1204处做出的对XR环境的改变可传播到向协作多用户通信会话中的每个其他用户呈现的XR环境。例如,如果控制电路16在框1204处改变虚拟房间的美观性,则向所有其他用户呈现的虚拟房间的美观性将被相应地更新。
同样在框1204处,可接收(例如,使用网络46)由协作多用户通信会话中的其他参与者做出的对XR环境的改变并且在所呈现的XR环境中实现该改变。
在框1206处,控制电路16可基于用户输入与协作多用户通信会话中的其他用户的设备交互。例如,控制电路16可从头戴式设备中的麦克风获得音频数据(例如,本地用户的语音)并且将音频数据传输到会话中的其他设备,使得本地用户的语音由其他用户听到。同时,控制电路16可使用电子设备10中的扬声器来播放音频(例如,对应于其他用户的语音)。换句话说,在框1206处,用户可直接与多用户通信会话中的其他参与者通信(例如,使用音频通信)。
作为另一个示例,控制电路16可识别用户的面部表情(例如,使用头戴式设备中的一个或多个传感器)并且基于所识别的面部表情来更新用户化身的外观。同时,控制电路16可使用电子设备10中的显示器来显示其他用户的化身(具有对应面部表情)。
在框1208处,控制电路16可(基于用户输入)离开协作多用户通信会话。在一些情况下,多用户通信会话可以是在所有用户离开会话之后不被保存的一次性会话。另选地,在一些情况下,多用户通信会话可以是可在稍后时间重新加入的持久会话(例如,如反馈回路1210所指示的)。例如,考虑其中多个用户加入协作多用户通信会话并且致力于使用虚拟白板来解决问题的示例。虚拟白板上的内容和XR环境的布置可在多用户通信会话的结束时被保存。随后(例如,第二天),一个或多个用户可重新加入多用户通信会话,并且所保存的白板内容和XR环境的布置将仍然存在(例如,处于与会话在前一天结束时相同的状态)。
在一些多用户通信会话中,在参与设备之间可存在分级结构。例如,多用户通信会话可用于演示,其中至少一个参与者具有演示者角色而其他参与者具有观众成员角色。在这种类型的应用程序中,演示者的设备可具有与观众成员不同的XR环境的视图,可具有对于观众成员而言不可用的XR环境的控件等。这些类型的多用户通信会话(具有设备之间的分级结构)可被称为影院多用户通信会话、演示多用户通信会话、分级多用户通信会话等。
在图13中示出了例示性分级多用户通信会话的示意图。如图13所示,在多用户通信会话期间,多个电子设备10经由网络46连接。一些电子设备(和对应用户)可位于不同的物理环境中。如图13所示,具有电子设备10A的用户68A存在于物理环境48A中,分别具有电子设备10B-1和10B-2的用户68B-1和68B-2存在于物理环境48B中,分别具有电子设备10C-1和10C-2的用户68C-1和68C-2存在于物理环境48C中,具有电子设备10D的用户68D存在于物理环境48D中,并且具有电子设备10E的用户68E存在于物理环境48E中。类似于结合图3所讨论的,图13的多用户通信会话中的电子设备(以及任选地,多用户通信会话引擎50')可经由网络46进行通信。
在图13的示例中,具有设备10A的用户68A具有活动演示者的角色。具有设备10B-1的用户68B-1具有非活动演示者的角色。用户68B-2、68C-1、68C-2、68D和68E具有观众成员的角色。这些角色(活动演示者、非活动演示者和观众成员)中的每一者的用户体验可以是不同的。任何数量的不同用户(任选地具有不同角色)可位于相同物理环境中。例如,两个活动演示者可位于相同物理环境中,活动演示者和非活动演示者可位于相同物理环境中等。术语演示者(或演示者角色)有时可用于共同指代活动和非活动演示者(或活动和非活动演示者角色)两者。
在分级多用户通信会话中的活动用户与在XR环境中描绘的该多个化身之间不一定存在一对一关联。因为分级多用户通信会话的观众的规模不受物理房间的限制,所以对于分级多用户通信会话可能有成千上万个观众成员。在图4中描绘的协作多用户通信会话中,每个用户在XR环境中具有对应化身。在图13的分级多用户通信会话中,XR环境中的参与者和化身之间的这种一对一关联可能是不实际的或不期望的(特别是当观众成员的数量增加时)。相反,每个用户可接收表示观众成员的广义反馈(例如,视觉和/或音频反馈)。
分级多用户通信会话中的参与者可使其角色在分级多用户通信会话期间改变。这可被称为角色提升或角色降级。例如,可将给定用户从观众成员的角色提升到演示者的角色,可将给定用户从演示者的角色降级到观众成员的角色等。
对于这种类型的分级多用户通信会话存在各种各样的不同使用情况。
在教育环境中,教授可对多个学生进行授课。教授可具有活动演示者的角色,而每个学生具有观众成员的角色。如果教授希望吸引特定学生(例如,为了展示),则该学生可被临时从观众成员提升到活动演示者并且然后被降级回到观众成员。
在城镇大厅环境中,演讲者可具有活动演示者的角色。城镇大厅环境的仲裁者可具有非活动演示者的角色。其他观看者可具有观众成员的角色。仲裁者可选择性地将某些参与者(观众成员)提升到活动演示者的角色以允许那些参与者对整个组说话。
在喜剧表演中,当前表演的喜剧演员可具有活动演示者的角色。事件的仲裁者可具有非活动演示者的角色。要表演的下一个喜剧演员可具有非活动演示者的角色。剩余观众具有观众成员的角色。
在音乐表演中,音乐艺术家可具有活动演示者的角色。剩余观众具有观众成员的角色。
在魔术表演中,魔术师可具有活动演示者的角色。魔术师可具有角色为非活动演示者的助手。剩余观众具有观众成员的角色。魔术师可能希望通过将观众成员提升到活动演示者的角色来将观众成员带到虚拟舞台上。
在专业环境中,CEO可给出关于新发布的产品的演示。CEO可具有活动演示者的角色。CEO可号召技术专家来解释产品的技术方面。在号召技术专家说话之前,技术专家可具有非活动演示者的角色。当号召技术专家说话时,技术专家可被提升到活动演示者的角色。剩余观众具有观众成员的角色。
图14是示出分级多用户通信会话中的用户角色可如何在任何可用角色之间切换的状态图。在图14的示例中,可用角色是观众成员72、非活动演示者74和活动演示者76。角色中的每一者可在任何时间切换到其他角色中的任一者。不同角色的一个或多个参与者可能任选地需要在角色改变进行之前同意角色改变。在其他示例中,可针对分级多用户通信会话定义更多、更少或不同的角色。
在一个示例中,演示者(活动演示者76或非活动演示者74)可请求将观众成员72提升到演示者角色。在这种情况下,观众成员72可接收同意所请求的角色改变的提示。如果观众成员接受所请求的角色改变,则他们可被提升到演示者角色。在接受演示者角色后,可将参与者带到分级多用户通信会话的虚拟舞台上。如果观众成员拒绝所请求的角色改变,则他们可保持处于观众成员角色。当被带到虚拟舞台上时,参与者可从虚拟舞台上的角度查看会话。参与者的化身在虚拟舞台上对于虚拟观众中的其他观众成员可以是可见的。当参与者具有观众成员角色时,参与者不能够直接与活动演示者通信。当参与者具有演示者角色时,参与者可以能够直接与活动演示者通信。
在另一个示例中,观众成员72可请求到演示者角色(例如,活动演示者76或非活动演示者74)的提升。具有演示者角色的一个或多个参与者可接收同意所请求的从观众成员角色到演示者角色的观众成员的角色改变的提示。如果演示者接受所请求的角色改变,则将发出请求的观众成员提升到演示者角色。在提升到演示者角色后,可将参与者带到分级多用户通信会话的虚拟舞台上。如果演示者拒绝所请求的角色改变,则发出请求的观众成员可保持处于观众成员角色。
在另一个示例中,具有活动演示者角色的参与者可将其自身切换到非活动演示者角色(或反之亦然)而无需任何附加同意。
可存在与分级多用户通信会话相关联的XR环境。图15是可呈现给分级多用户通信会话中的参与者的例示性XR环境的顶视图。如图15所示,XR环境包括虚拟舞台82和虚拟观众84。一般而言,可从定位在XR环境的三维表示内的视点向每个用户呈现三维XR环境的表示。具有演示者角色的参与者的视点可定位在虚拟舞台上,而具有观众成员角色的参与者的视点可定位在虚拟观众中。
在图15中,应用程序窗口86被包括在虚拟舞台上。演示者可例如在站在虚拟舞台上时使用应用程序窗口来呈现幻灯片演示。
多用户通信会话中的每一参与者可具有呈现XR环境的头戴式设备。XR环境的呈现可针对演示者和观众成员而不同。XR环境的某些部分(例如,应用程序窗口86)可在多用户通信会话中的所有参与者中是一致的。换句话说,应用程序窗口86对所有参与者来说看起来相同。XR环境的其他部分可能在多用户通信会话中的所有参与者中不是一致的。例如,第一观众成员可为呈现给第一观众成员的XR环境中的虚拟舞台选择第一颜色,而第二观众成员可为呈现给第二观众成员的XR环境中的虚拟舞台选择第二颜色。
对于具有演示者角色的参与者,XR环境中的虚拟观众的外观可以是可定制的。图16是用于多用户通信会话中的演示者的显示器26上的视图的示例。如图16所示,呈现给演示者的XR环境可包括虚拟舞台82。呈现给演示者的视图的角度是从虚拟舞台上。所呈现的XR环境还包括虚拟观众84的表示。
虚拟观众的表示可包括可定制场地88。可定制场地的可能可定制属性包括场地(例如,小房间、礼堂、体育场等)的尺寸、场地内的虚拟对象的设置和外观(例如,场地中存在的椅子的数量和类型)、场地的美学属性(例如,墙壁的颜色、地板的类型)等。作为几个例示性示例,音乐会的音乐家可选择室外体育场作为可定制场地,给出演讲的大学教授可选择室内礼堂作为可定制场地,并且管理训练的雇员可选择小室内房间作为可定制场地。
演示者可从预定场地的列表中进行选择以确定可定制场地88,或者可单独地选择可定制场地的每个属性。如果选择了预定场地,则演示者可任选地在选择预定场地之后进一步定制该场地。
在对物理环境中的观众的演示中,演示者能够直接观察观众成员。这允许演示者整体地或针对虚拟观众中的特定成员来评价观众的情绪、注意力和出席。以这种方式实时评估观众反应可使得演示者能够基于实时观众反应来定制其对观众的演示。
为了在用于多用户通信会话的XR环境中模拟这种类型的体验,向演示者呈现虚拟观众可包括基于多用户通信会话的参与者具有观众成员角色的广义反馈。广义反馈是指基于来自观众成员的信息的反馈,而不具体地识别任何单独观众成员或提供可归因于特定观众成员的信息。
例如,虚拟观众84的表示可包括广义观众注意力指示符90(有时被称为广义视觉观众注意力指示符90)。广义观众注意力指示符90可表示观众成员的平均注意力水平。广义观众注意力指示符的外观的一些示例是文本、滑动条、百分比、观众成员的化身外观等。作为示例,文本可陈述“观众的注意力水平为:高”,“观众的注意力水平为:中”,或“观众的注意力水平为:低”。滑动条可在滑动尺度上表示观众注意力(从低到高)。数字可表示被指示为具有观众成员的高注意力水平、平均相对注意力水平等的观众的百分比。作为另一个示例,可向观众中的给定百分比的单独化身(与具有高注意力水平的百分比的观众成员相匹配)提供专心外观。
观众成员的平均注意力水平的评估可基于从每个观众成员所使用的电子设备10接收到的数据。平均注意力水平可基于注视检测数据(例如,用户看演示者和/或虚拟舞台的频率)、应用程序数据(例如,用户是否通过与查看演示并行地使用其他应用程序来进行多任务处理)或其他期望的传感器数据来确定。来自电子设备10的传感器数据可例如指示用户是否正对演示作出反应(例如,通过检测大笑或面部表情的其他改变)。
在一些情况下,由观众成员使用的每个电子设备可输出注意力水平评估(例如,低、中、高、百分比或注意力水平的其他定量度量等)而不包括原始数据。在这种情况下,多用户通信会话引擎50'或演示者的设备上的多用户通信会话引擎可使用来自每个观众成员的注意力水平评估来确定广义注意力水平评估,该广义注意力水平评估然后被呈现在广义观众注意力指示符90中。
在其他情况下,由观众成员使用的每个电子设备可输出指示注意力水平的原始数据(例如,注视检测数据、其他传感器数据、应用程序数据等)。在这种情况下,多用户通信会话引擎50'或演示者的设备上的多用户通信会话引擎可使用原始数据来确定广义注意力水平评估,该广义注意力水平评估然后被呈现在广义观众注意力指示符90中。
虚拟观众84中的指示符90的存在和外观可以是可定制的。例如,演示者可改变指示符90的尺寸和外观并且可任选地完全移除指示符。
虚拟观众84的表示可包括广义观众情绪指示符92(有时被称为广义视觉观众情绪指示符92)。广义观众情绪指示符92可表示观众成员的平均情绪。广义观众情绪指示符的外观的一些示例是文本、滑动条、表情符号或面部的其他表示、百分比、观众成员化身外观等。作为示例,文本可陈述“观众的情绪为:快乐”,“观众的情绪为:严肃”,或“观众的情绪为:悲伤”。滑动条可在滑动尺度上表示观众情绪(例如,从悲伤到快乐)。数字可表示被指示为具有观众成员的快乐情绪、平均相对快乐等的观众的百分比。在一个示例中,可针对多个情绪列出百分比(例如,快乐:50%的观众、严肃:40%的观众等)。例如,脸部的表示可以是露齿笑的脸部表情符号、悲伤的脸部表情符号、哭泣的脸部表情符号等。作为另一个示例,可向观众中的给定百分比的单独化身(与具有快乐情绪的百分比的观众成员相匹配)提供快乐外观。
在一些情况下,观众成员可在演示期间提供反馈。例如,观众成员可选择心形图标或拇指向下图标来反映其对演示的反应。这种类型的观众反馈也可被反映在广义观众情绪指示符92中。例如,广义观众情绪指示符可显示任何观众成员何时已经选择了心形图标或拇指向下图标。
观众成员的平均情绪的评估可基于从每个观众成员所使用的电子设备10接收到的数据。平均情绪可基于面部表情数据(例如,使用电子设备10中的一个或多个相机获得的)、生物计量数据(例如,心率)或其他期望的传感器数据来确定。
在一些情况下,由观众成员使用的每个电子设备可输出情绪评估(例如,快乐、严肃、悲伤、情绪的百分比或其他定量度量等)而不包括原始数据。在这种情况下,多用户通信会话引擎50'或演示者的设备上的多用户通信会话引擎可使用来自每个观众成员的情绪评估来确定广义情绪评估,该广义情绪评估然后被呈现在广义观众情绪指示符92中。
在其他情况下,由观众成员使用的每个电子设备可输出指示情绪的原始数据(例如,面部表情数据、生物计量数据、其他传感器数据等)。在这种情况下,多用户通信会话引擎50'或演示者的设备上的多用户通信会话引擎可使用原始数据来确定广义情绪评估,该广义情绪评估然后被呈现在广义观众情绪指示符92中。
虚拟观众84中的指示符92的存在和外观可以是可定制的。例如,演示者可改变指示符92的尺寸和外观并且可任选地完全移除指示符。
虚拟观众的表示还可包括广义观众出席指示符94(有时被称为广义观众出席指示符94)。广义观众出席指示符94可基于具有观众成员角色的多用户通信会话的参与者的数量。例如,广义观众出席指示符可以是显示当前正在查看演示的观众成员的数量的文本、表示观众成员的数量相对于观众成员的预期数量的百分比、在虚拟观众中示出的化身的数量等。观众成员的预期数量可基于可定制场地88的尺寸、基于已经购买了演示的票或将演示添加到其日历的观众成员的数量等。针对广义观众出席指示符的外观,其他选项是可能的。例如,指示符可具有圆形滑动条,该圆形滑动条与被占用的可定制场地的百分比成比例地进行填充。
一个或多个观众成员化身96可被包括在虚拟观众84中。一般而言,虚拟观众中描绘的每个化身可与参与多用户通信会话的单独观众成员相关联,或者可不与其相关联。当化身与参与多用户通信会话的单独观众成员相关联时,化身的外观和移动可基于相关联的单独观众成员的外观和移动来实时更新。当化身不与参与多用户通信会话的单独观众成员相关联时,化身可具有默认外观、可定制外观或随机外观。类似地,化身可执行默认移动、可定制移动或随机移动。包括与单独观众成员不相关联的化身可减小系统上的处理负担并且增强演示者的可定制体验。
在一个可能布置中,虚拟观众中的每个化身可与参与多用户通信会话的单独观众成员相关联。在另一个可能布置中,虚拟观众中的化身的第一子集与参与多用户通信会话的单独观众成员相关联,并且虚拟观众中的化身的第二子集与参与多用户通信会话的单独观众成员不相关联。在另一个可能布置中,虚拟观众中的化身都不与参与多用户通信会话的单独观众成员相关联。
虚拟观众的表示可包括投票结果98。演示者可发起观众成员的投票并且可显示对应的投票结果。投票结果可仅对演示者可见或者可对演示者和观众成员都可见。
观众成员列表100可被包括在虚拟观众的表示中。观众成员列表可包括具有观众成员角色的多用户通信会话的特定参与者的名称或其他信息(例如,用户名、通用标识符等)。在一个示例中,观众成员列表100包括观众成员的所有名称的列表。作为另一个示例,观众成员列表100包括所有观众成员的用户选择的用户名。作为又一个示例,观众成员列表包括一些观众成员的名称和一些观众成员的用户选择的用户名。作为另一个示例,观众成员列表包括与单独观众成员(例如,观众成员1、观众成员2、观众成员3等)相关联的匿名标识符(例如,数字)的列表。
如果需要,观众成员列表可包括个性化的注意力、情绪和/或化身信息。例如,给定观众成员的注意力水平可被包括在观众成员列表中的该观众成员的名称旁边。给定观众成员的情绪可被包括在观众成员列表中的该观众成员的用户名旁边。给定观众成员的情绪和注意力水平可在该观众成员的匿名编号旁边列出。
虚拟观众84可包括广义音频反馈102。广义音频反馈可包括基于观众成员的数量、观众成员的注意力水平、观众成员的情绪等选择的许多预先记录的观众反馈选项中的一者。广义音频反馈的类型和/或音量可实时更新或者可由演示者定制。广义音频反馈102可排除具有观众成员角色的多用户通信会话的任何单独参与者的单独音频。换句话说,来自观众成员的音频馈送不用于生成广义音频反馈。
虚拟观众84还可包括观众成员音频104。观众成员音频可包括来自具有观众成员角色的多用户通信会话的至少一个参与者的音频。当呈现音频时,可(例如,在观众成员列表100上)识别提供音频的参与者。可将来自仅一个观众成员的音频提供给演示者,或者可将来自两个或更多个观众成员的音频提供给演示者。
应当注意,每个观众成员可控制来自其设备的什么信息(如果有的话)用于向多用户通信会话中的其他参与者(例如,演示者或其他观众成员)表示虚拟观众84。换句话说,每个观众成员可选择加入和退出将各种信息贡献给虚拟观众84的表示。观众成员可选择是否提供指示其注意力水平的原始数据、所确定的注意力水平(没有任何原始数据)或者没有关于注意力水平的信息。观众成员可选择是否提供指示其情绪的原始数据、所确定的情绪(没有任何原始数据)或者没有关于情绪的信息。观众成员可选择是否使他们有资格在广义观众出席指示符中进行计数。观众成员可选择是否使其化身在虚拟观众中可见,可定制其化身在虚拟观众中的外观等。观众成员可选择是否参与来自演示者的投票请求。观众成员可选择是否为观众成员列表提供其姓名、其用户名、其他识别信息或者没有识别信息。观众成员可选择是否从其电子设备输出麦克风数据以用于广义音频反馈和/或单独观众成员音频。
考虑其中演示者是向10个学生的班级给出演讲的教授的示例。演示者可选择用于出现在虚拟舞台上的应用程序86(例如,用于呈现幻灯片的应用程序窗口)。演示者可选择具有10个椅子的小房间的可定制场地88以用于演示。演示者可选择从虚拟观众的表示中省略广义观众注意力指示符、广义观众情绪指示符和广义观众出席指示符。10个学生中的每一者是具有对应化身的观众成员。每个化身可定位在可定制场地中的对应椅子中。可基于观众成员的面部表情来实时更新化身的面部表情。在演示期间,演示者可提出投票问题,并且投票结果98可显示在虚拟观众84中。演示者还可显示包括10个学生的名称的列表的观众成员列表100。除了10个学生的名称中的每一者之外,还有与该学生相关联的注意力水平指示符和情绪指示符。以这种方式,演示者具有关于每个观众成员的情绪和注意力水平的实时反馈。为了支持观众成员音频104,可省略广义音频反馈102。例如,教授可向学生提出问题。当学生中的一者进行响应时,为演示者播放来自该学生的音频,并且可在观众成员列表中的该学生的名称旁边显示扬声器图标以识别哪个学生正在说话。
考虑其中演示者是为200个观众成员的人群表演的喜剧演员的示例。演示者可选择具有200个椅子的礼堂的可定制场地88以用于演示。演示者可选择显示广义观众注意力指示符90和广义观众情绪指示符92以获得关于观众成员的参与和情绪的实时反馈。演示者可显示广义观众出席指示符94,其示出被占用的场地的百分比(例如,当存在100个观众成员时为50%,当存在150个观众成员时为75%,当存在200个观众成员时为100%等)。虚拟观众包括多个观众成员化身。演示者可选择用化身填充场地中的所有椅子,即使场地不到100%充满观众成员。例如,100个观众成员正在参与多用户通信会话,其中50个已经选择将其化身包括在虚拟观众中。因此,在虚拟观众中可存在由观众成员单独控制的50个化身。不由观众成员单独控制的附加50个化身可被包括在虚拟观众中以准确地表示实际出席。另选地,不由观众成员单独控制的附加150个化身可被包括在虚拟观众中以为场地给予充满的外观(例如,以避免随着出席增加而分心,以允许演示者实践向较大观众呈现等)。演示者可选择显示观众成员列表100。观众成员列表可以是匿名的(例如,观众成员1、观众成员2、观众成员3等)。对于已经选择加入的观众成员,可为观众成员显示注意力和情绪信息。例如,可显示观众成员1为快乐并且具有高注意力水平,观众成员2没有相关联的情绪或注意力信息(例如,因为对应参与者选择退出),观众成员3具有低注意力水平等。喜剧演员可接收以在给定百分比的观众成员因笑话大笑或对该笑话具有积极反应时播放的笑声轨道的形式的广义音频反馈。可基于具有积极反应的观众成员的数量和/或积极反应的强度来增加广义音频反馈中的笑声轨道的音量。
考虑其中演示者是为100,000个观众成员表演音乐会的歌手的示例。演示者可为可定制场地88选择具有100,000个座位的体育场。虚拟观众可包括广义观众注意力指示符90(例如,具有高注意力水平的观众成员的百分比)和广义观众情绪指示符92(例如,表示观众成员的平均情绪的表情符号)。虚拟观众可包括广义观众出席指示符(例如,可以文本形式显示观众成员的数量)。化身96可被包括在虚拟观众中。作为示例,化身的数量可等于参加者的数量(例如,以使化身准确地反映演示的出席),但没有化身由观众成员单独控制。观众成员列表100和观众成员音频104可被省略。广义音频反馈102可在整个音乐会中或在音乐会期间的选定时间(例如,在完成歌曲之后)呈现给演示者。
图17是用于多用户通信会话中的观众成员的显示器26上的视图的示例。如图17所示,呈现给演示者的XR环境可包括虚拟舞台82。虚拟舞台可包括演示者的化身96-P、演示者正在呈现的应用程序窗口86等。
虚拟舞台可从可定制视点106呈现给观众成员。当观众成员移动其头部的位置和取向时,实时更新虚拟舞台的视点以模拟物理环境。此外,观众成员可改变可定制视点106的基线位置(例如,观众成员可将其视点从虚拟观众的右前部分移动到虚拟观众的左后部分)。改变可定制视点106可允许观众成员模拟改变XR环境的场地中的座位。
在一些示例中,观众成员可选择改变虚拟舞台的其可定制视点106。替代地或此外,演示者(例如,活动演示者或非活动演示者)可改变一个或多个观众成员的可定制视点。作为一个示例,活动演示者可移动到舞台的第一侧以通过第一虚拟对象执行展示。此时,活动演示者可将观众成员的可定制视点106改变为虚拟观众内的邻近舞台的第一侧的视点。活动演示者然后可移动到舞台的第二侧以通过第二虚拟对象执行展示。此时,活动演示者可将观众成员的可定制视点106改变为虚拟观众内的邻近舞台的第二侧的视点。
呈现给观众成员的XR环境可包括除了虚拟舞台82的表示之外的虚拟观众84的表示。虚拟观众可包括可定制场地88(类似于结合图16示出和描述的)。观众成员可改变可定制场地的外观和/或演示者可改变可定制场地的外观。在一些多用户通信会话中,可定制场地可跨所有参与者固定。换句话说,演示者选择随后被包括在所有参与者的XR环境的表示中的给定场地。在一些多用户通信会话中,可针对不同参与者不同地表示可定制场地。考虑其中音乐家正在为100,000个观众成员表演的音乐会的示例。演示者(音乐家)可为其场地的表示选择体育场以表示大尺寸的观众。然而,观众成员可能希望模拟更亲密的体验并且因此可选择小房间作为其XR环境中的场地的表示。
图17中的虚拟观众可包括一个或多个观众成员化身96。如结合图16所描述的,虚拟观众中描绘的每个化身可与参与多用户通信会话的单独观众成员相关联,或者可不与其相关联。可使用用户输入、在电子设备上存储的联系人信息、物理接近度信息、来自用于多用户通信会话的XR环境内的接近度信息和/或使用其他期望的信息来选择向用户表示的化身96(以及有关与那些化身相关联的设备的所允许的通信水平)。
图17中的虚拟观众还可包括广义音频反馈102和观众成员音频104(类似于结合图16所描述的)。
虚拟观众84还包括广义视觉反馈108(例如,如结合图16描述的广义观众注意力指示符、广义观众情绪指示符和/或广义观众出席指示符)。
虚拟观众84可包括交互式虚拟内容110。例如,虚拟对象(例如,产品的三维模型)可被呈现在每个观众成员的前面。观众成员可任选地能够操纵虚拟对象(例如,使用手势或其他用户输入来改变虚拟对象的取向或位置)。
呈现给观众成员的虚拟观众的表示可以是可定制的(例如,可基于用户输入来添加、移除或改变特征)。
在物理环境中,给定观众成员可直接与在其附近的其他观众成员交互(例如,给定观众成员可在演示期间与相邻观众成员说话)以及不直接与其他观众成员(例如,在物理上不与给定观众成员紧密接近的观众成员、对于给定观众成员未知的观众成员等)交互。然而,即使不直接与其他观众成员交互,给定观众成员仍然可从物理环境中的其他观众成员接收反馈(例如,给定观众成员可听到人群噪声的抱怨,可看到一个或多个其他观众成员何时站立等)。在用于多用户通信会话的XR环境中呈现给观众成员的虚拟观众的表示可模拟这种类型的体验。
给定观众成员可具有在物理上与具有观众成员角色的多用户通信会话的一个或多个参与者相关联的一个或多个其他化身96紧密接近地定位的视点。给定观众成员可以能够直接与由一个或多个附近化身表示的一个或多个参与者通信。在多用户通信会话期间,给定观众成员可转动其头部以看到相邻化身,并且可与由一个或多个附近化身表示的一个或多个参与者交换音频通信(因此模拟与其他观众成员处于物理环境中)。
与由一个或多个附近化身表示的一个或多个参与者的直接通信还可包括在一个或多个附近化身上呈现连续更新的面部表情(其反映控制那些化身的观众成员的实时面部表情)。
换句话说,给定观众成员可被允许直接与其他观众成员的子集通信。可使用用户输入(例如,给定观众成员可接收针对直接通信的提示并且可授权该提示,给定观众成员可从其他观众成员的列表中选择用于直接通信的其他观众成员等)、使用在电子设备上存储的联系人信息(例如,给定观众成员可具有联系人列表并且可针对在联系人列表上的其他观众成员自动地授权直接通信)、使用物理接近度信息(例如,共享诸如相同房间、相同房子、相同城市等的相同物理环境的观众成员可以能够直接通信)、使用来自用于多用户通信会话的XR环境内的接近度信息(例如,在XR环境中紧密接近的化身可以能够直接通信)和/或使用其他期望的信息来选择允许与其直接通信的观众成员的子集。
未被授权进行直接通信的剩余观众成员可能无法直接与给定观众成员通信。可使用化身在虚拟观众中表示剩余观众成员。然而,给定观众成员可不从任何剩余的观众成员接收观众成员音频104,和/或可从任何剩余的观众成员化身中省略面部表情。作为另一个选项,在虚拟观众中可能存在不被具有观众成员角色的多用户通信会话的参与者之一单独控制的其他化身(类似于结合图16所讨论的)。
虚拟观众84的演示可包括针对未被授权进行直接通信的剩余观众成员的广义音频反馈102。另外,可呈现广义视觉反馈108,其提供关于未被授权进行直接通信的剩余观众成员的信息(例如,注意力水平信息、情绪信息和/或出席信息)。
图18是示出由头戴式设备(例如,设备10中的控制电路16)执行以发起和进行演示的例示性方法的流程图。图18的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
框1802的操作包括演示准备操作。演示者可进入和/或建立用于演示的XR环境(例如,使用演示应用程序)。作为示例,演示者可选择用于演示的可定制场地88并且可定制虚拟观众84的表示。演示者可用化身填充XR环境以实践演示。演示者可将期望的应用程序带入XR环境中。例如,演示者可将应用程序窗口86定位在用于呈现幻灯片的虚拟舞台上。演示者还可为观众成员选择一个或多个优选的查看位置。演示者可进入观众预览模式,其中演示者从观众成员的角度(例如,从优选查看位置之一)查看虚拟舞台。
在准备操作期间的任何时间,演示者可退出并将XR环境保存在其当前状态。例如,演示者可创建XR环境并且为虚拟观众84选择可定制场地和表示。然后,演示者保存XR环境的布置并且退出应用程序。稍后,演示者可进入应用程序并且在最近保存的状态中查看XR环境。演示者可在最终确定用于演示的XR环境之前对XR环境进行附加更新(例如,通过一个或多个应用程序填充虚拟舞台)。
在框1804的操作期间,用户可发起演示。作为一个示例,发起演示可包括在所准备的XR环境中开始实况广播。在发起演示之后,一个或多个观众成员可加入演示。当观众成员加入演示时,他们可被自动定位以具有在优选查看位置之一处的视点,或者可从列表中选择优选查看位置之一。演示者可稍后在演示期间改变一个或多个观众成员的查看位置。
在框1806的操作期间,用户可在XR环境中给出演示。在框1806处的演示期间,用户可使用在框1802处在虚拟舞台上填充的预选择应用程序。另外,在演示期间,演示者可向观众成员提供三维内容。作为一个示例,演示者可致使虚拟对象(例如,产品的三维模型)被定位在每个观众成员的前面以进行展示。演示者可操纵在每个观众成员前面的虚拟对象的外观(例如,以同步方式)或者每个观众成员可单独地操纵虚拟对象。作为另一个示例,演示者可致使三维内容扩展到虚拟观众中(例如,产品的大的、分解的、三维模型可扩展到整个虚拟观众,使得虚拟观众沉浸在产品的分解版本中)。
在框1808的操作期间,演示者可与观众交互。在框1808期间的交互可包括接收广义观众反馈(例如,广义视觉观众注意力指示符90、广义视觉观众情绪指示符92、广义视觉观众出席指示符94、广义音频反馈102等)和/或特定观众反馈,诸如观众成员音频104、具有每个观众成员注意力水平和/或情绪的观众成员列表100等。
在框1808的操作期间,演示者可选择性地将参与者从具有观众成员的角色提升到具有演示者的角色。当参与者具有观众成员的角色时,演示者可能不能够直接与参与者通信。当该参与者被提升到演示者的角色时,演示者可以能够直接与该参与者通信。
在框1810的操作期间,可保存演示的重放以用于后续查看。例如,观众成员可在演示完成之后从优选查看位置之一查看演示的重放。
图19是示出由头戴式设备(例如,设备10中的控制电路16)执行以作为观众成员查看演示的例示性方法的流程图。图19的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
在框1902的操作中,参与者可通过观众成员的角色进入多用户通信会话(演示)。作为一些示例,参与者可通过点击应用程序中的链接或网页来加入演示。
在加入演示之后,观众成员可在框1904的操作中选择其虚拟舞台82的可定制视点106以用于演示。观众成员可选择预定数量的优选视点之一,可选择可定制场地88内的任何可能视点等。
在框1906的操作期间,观众成员可查看虚拟舞台上的用于演示的二维内容和/或三维内容。演示可包括例如具有幻灯片的二维窗口86的演示。演示可包括由演示者在演示期间操纵的三维虚拟对象。演示者的化身可以是在框1906中被呈现给观众成员的三维化身。通常,任何二维和/或三维内容可在虚拟舞台上呈现给观众成员。
在框1908的操作期间,观众成员可与虚拟内容交互。作为一个示例,演示者可致使虚拟对象(例如,产品的三维模型)被定位在每个观众成员的前面以进行展示。每个观众成员可在框1908的操作期间单独地操纵虚拟对象。作为另一个示例,演示者可致使三维内容延伸到虚拟观众中(例如,观众成员可沉浸在虚拟对象的分解三维视图中)。
在框1910的操作期间,参与者可与其他观众成员交互。参与者可直接与一些观众成员(例如,在参与者的物理环境中紧密接近参与者的观众成员、在用于多用户通信会话的XR环境中紧密接近参与者的观众成员、已知与参与者联系的观众成员、使用用户输入来选择的观众成员等)通信。参与者可从剩余观众成员接收广义观众反馈。参与者可能不能够直接与剩余观众成员通信。
在框1912的操作期间,参与者可向演示者提供对演示的反馈。在框1912处提供的反馈可包括反应信息(例如,注意力水平、情绪等)、未经请求的反馈(例如,观众成员可选择随后向演示者显示的心形图标或拇指向下)、和/或经请求的反馈(例如,观众成员可回答由演示者提出的投票问题)。
图20是示出由用户穿戴的头戴式设备(例如,设备10中的控制电路16)在分级多用户通信会话中执行的例示性方法的流程图。图20的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
如图20所示,在框2002的操作期间,当用户处于多用户通信会话的观众成员角色时,头戴式设备可呈现(例如,使用至少显示器26)第一扩展现实环境。第一扩展现实环境可包括从虚拟观众的角度的虚拟舞台的表示。虚拟观众可表示具有观众成员角色的多用户通信会话的参与者。当处于观众成员角色(例如,图14中的观众成员72)时,可防止用户(例如,头戴式设备的用户)直接与具有演示者角色(例如,图14中的活动演示者角色76或图14中的非活动演示者角色74)的多用户通信会话的参与者进行通信。在框2002的操作期间,当用户不能直接与具有演示者角色的参与者通信时,用户可直接与具有观众成员角色的其他参与者通信(例如,使用音频通信)。
在框2004的操作期间,用户可从分级多用户通信会话的观众成员角色改变为演示者角色。从观众成员角色到演示者角色的改变可由多用户通信会话的当前演示者请求并且由用户授权,可由用户请求并由多用户通信会话的当前演示者授权等。
响应于从多用户通信会话的观众成员角色到演示者角色的改变,头戴式设备可在框2006的操作期间呈现(例如,至少使用显示器26)第二扩展现实环境。第二扩展现实环境可包括从虚拟舞台上的角度的虚拟观众的表示。在框2006的操作期间,还可允许电子设备的用户直接与具有演示者角色的多用户通信会话的参与者通信。在框2006的操作期间,用户可能不能够直接与来自框2002的具有观众成员角色的其他参与者通信。
本文的示例已经描述了多用户通信会话,其中向参与者(例如,观众成员和/或演示者)呈现完全虚拟现实中的XR环境。在完全虚拟现实(有时被称为具有全范围运动的虚拟现实、虚拟现实查看模式等)中,XR内容完全占据显示器(例如,XR内容被“最大化”以占据所有可用显示不动产)。另外,用户可在XR环境中环顾多用户通信会话并且感知整个虚拟房间的三维内容。换句话说,XR环境是三维环境,并且基于定位在三维环境的表示内的视点(例如,沉浸式视点)来呈现表示三维环境的内容。视点响应于由一个或多个传感器(例如,图1中的位置和运动传感器32)检测到的移动而被重新定位。
这种类型的虚拟现实查看模式可以是可用于电子设备10的用户的最沉浸式查看模式。然而,在一些情况下,用户可能希望以比虚拟现实查看模式更不沉浸式的查看模式来查看多用户通信会话。
虚拟现实查看模式可以是全屏查看模式(因为XR内容被“最大化”以占据所有可用的显示不动产)。电子设备的用户可任选地将XR内容的查看模式改变为比虚拟现实查看模式更不沉浸式的其他全屏查看模式。
XR内容可在有限运动范围上以具有视差的三维(3D)视频模式来呈现。换句话说,XR内容被呈现为占据显示器26的全屏的三维视频。在这种类型的查看模式中,可基于在三维环境的表示外部的视点(例如,非沉浸式视点)来呈现XR内容。XR内容响应于由一个或多个传感器(例如,图1中的位置和运动传感器32)在有限运动范围内检测到的移动。作为示例,用户可稍微向左和稍微向右移动其头部,并且相应地调整XR内容(在有限运动范围内)。然而,在有限范围之外,视点不响应于由一个或多个传感器(例如,图1中的位置和运动传感器32)检测到的移动而被重新定位。
XR内容可以没有视差的三维(3D)视频模式呈现。换句话说,XR内容被呈现为占据显示器26的全屏的三维视频。在这种类型的查看模式中,可基于在三维环境的表示外部的视点(例如,非沉浸式视点)来呈现XR内容。然而,XR内容不响应于由一个或多个传感器(例如,图1中的位置和运动传感器32)检测到的移动。作为示例,用户可向左和向右移动其头部,并且位于XR内容的表示内的视点不改变。
XR内容可以二维(2D)全屏视频模式呈现。换句话说,XR内容被呈现为占据显示器26的全屏的二维视频。在这种类型的查看模式中,可基于在三维环境的表示外部的视点(例如,非沉浸式视点)来呈现XR内容。XR内容不响应于由一个或多个传感器(例如,图1中的位置和运动传感器32)检测到的移动。作为示例,用户可向左和向右移动其头部,并且位于XR内容的表示内的视点不改变。
XR内容也可以非全屏查看模式显示。换句话说,XR内容没有完全占据显示器。在一个非全屏查看模式中,如图21所示,多用户通信会话在窗口116中显示为二维视频。窗口116可以是同时显示在显示器26上的多个窗口中的一者。图21示出了在显示器26上显示的其他窗口诸如用户通知112和应用程序114。以此方式,用户可使用其他应用程序和/或查看其他信息(在用户通知窗口112和/或应用程序窗口114处),同时仍使XR内容可经由窗口116中的二维视频来查看。窗口116有时可被称为画中画窗口。画中画窗口116可覆盖在显示器26上的其他内容上(例如,在显示器的角落中)。
在另一个非全屏查看模式中,如图22所示,可在显示器26上显示XR内容的小型化版本。XR内容的小型化版本134可以是XR内容中的三维环境的小型化三维版本。如图22所示,可从离虚拟舞台足够远的视点描绘小型化版本134以示出具有化身96-P和窗口86的整个虚拟舞台。小型化版本134还可任选地包括整个虚拟观众84。虚拟舞台和/或虚拟观众的其他属性(例如,来自图16和/或图17)可被包括在小型化版本134中。小型化版本134没有完全占据显示器并且因此可与用户通知112和其他应用程序114一起显示。
在另一个非全屏查看模式中,如图23和图24所示,可在显示器26上显示进入XR内容的门户。这种类型的查看模式可被称为门户查看模式或虚拟现实门户查看模式。如图23和图24所示,门户136可示出进入XR内容的三维环境的视图(在门户的边界内)。如图23和图24所示,通过门户可见的XR内容可取决于用户头部的位置和取向而改变。换句话说,门户136中的XR内容响应于由一个或多个传感器(例如,图1中的位置和运动传感器32)检测到的移动。图23示出了其中用户直接从门户的前面通过门户查看的示例。在此示例中,用户可看到化身56和虚拟桌子64上的虚拟对象60(类似于图6A和图6B所示)。在图24中,用户可移动其头部和/或身体以从门户的左侧通过门户进行查看,使得化身56和68都可通过门户进行查看。门户136可在距用户的明显深度处显示。任选地,门户可以是头部锁定的、身体锁定的或世界锁的。
图25是示出包括三维环境的表示(例如,在显示器上)的内容的不同查看模式的状态图。
在虚拟现实查看模式120中,基于定位在三维环境的表示内的视点在扩展现实环境中呈现内容(例如,用户沉浸在三维环境中,使得它们被三维环境跨360度围绕)。在虚拟现实查看模式120中,视点响应于由一个或多个传感器(例如,位置和运动传感器32)检测的移动而被重新定位。移动可包括用户头部的旋转移动。
在3D视频模式122中,基于在三维环境的表示外部的视点来呈现内容(例如,用户没有完全沉浸在三维内容中,使得它们没有被三维环境跨360度围绕)。在3D视频模式122中,内容被呈现为在有限范围上具有视差的三维环境的表示的三维视频。在3D视频模式122中,视点响应于由一个或多个传感器(例如,位置和运动传感器32)在有限范围内检测的移动而被重新定位。移动可包括用户头部在有限范围内的旋转移动。
在3D视频模式124中,基于在三维环境的表示外部的视点来呈现内容(例如,用户没有完全沉浸在三维内容中,使得它们没有被三维环境跨360度围绕)。在3D视频模式124中,内容被呈现为没有视差的三维环境的表示的三维视频。在3D视频模式124中,视点不响应于由一个或多个传感器(例如,位置和运动传感器32)检测的移动而被重新定位。换句话说,在模式124中,用户头部的旋转不改变三维环境的表示。
在2D视频模式126中,基于在三维环境的表示外部的视点来呈现内容(例如,用户没有完全沉浸在三维内容中,使得它们没有被三维环境跨360度围绕)。在2D视频模式126中,内容被呈现为三维环境的表示的二维视频。在2D视频模式126中,视点可不响应于由一个或多个传感器(例如,位置和运动传感器32)检测的移动而被重新定位。换句话说,在模式126中,用户头部的旋转不改变三维环境的表示。
模式120、122、124和126是全屏查看模式。换句话说,在模式120、122、124和126中的每一者中,跨一个或多个显示器26的全屏呈现内容。虚拟现实模式120可被认为是比模式122、124和126更沉浸式的。3D视频模式122(具有有限视差)可被认为是比模式124和126更沉浸式的。3D视频模式124(没有视差)可被认为是比模式126更沉浸式的。
还可以一个或多个非全屏查看模式来呈现内容。在非全屏查看模式中,在一个或多个显示器26的全屏的子集上呈现内容。非全屏查看模式可包括3D小型化查看模式128、虚拟现实门户查看模式130和画中画2D视频模式132。
在3D小型化查看模式128中,基于在三维环境的表示外部的视点来呈现内容(例如,用户没有完全沉浸在三维内容中,使得它们没有被三维环境跨360度围绕)。在3D小型化查看模式128中,内容被呈现为三维环境的小型化版本(如图22所示)。在3D小型化查看模式128中,视点不响应于由一个或多个传感器(例如,位置和运动传感器32)检测的移动而被重新定位。换句话说,在模式128中,用户头部的旋转不改变三维环境的表示。
在虚拟现实门户查看模式130中,基于在三维环境的表示外部的视点来呈现内容(例如,用户没有完全沉浸在三维内容中,使得它们没有被三维环境跨360度围绕)。在虚拟现实门户查看模式130中,内容被呈现为进入三维环境的门户(如图23和图24所示)。在虚拟现实门户查看模式130中,视点响应于由一个或多个传感器(例如,位置和运动传感器32)检测的移动而被重新定位。移动可包括用户头部的旋转移动。
在画中画2D视频模式132中,基于在三维环境的表示外部的视点来呈现内容(例如,用户没有完全沉浸在三维内容中,使得它们没有被三维环境跨360度围绕)。在画中画2D视频模式132中,内容仅在显示器的子集上呈现为三维环境的表示的二维视频(如图21所示)。在画中画2D视频模式132中,视点不响应于由一个或多个传感器(例如,位置和运动传感器32)检测的移动而被重新定位。换句话说,在模式132中,用户头部的旋转不改变三维环境的表示。
3D小型化模式128可被认为是比画中画2D视频模式132更沉浸式的。虚拟现实门户查看模式130可被认为是比画中画2D视频模式132更沉浸式的。
应注意,如果需要,在有限运动范围内具有视差的3D视频(如在模式122中)和/或没有视差的3D视频(如在模式124中)可以非全屏查看模式呈现。例如,3D视频可被呈现到2D窗口上。
结合上述模式对视频的引用仅仅是例示性的。应当理解,如果需要,可在每种模式下显示非视频二维和三维图像而不是视频。
在一些情况下,可以由呈现内容的电子设备的硬件启用的最沉浸式全屏查看模式来呈现三维环境的表示。例如,第一电子设备(例如,头戴式设备)可具有能够显示三维图像的立体显示器,而第二电子设备(例如,蜂窝电话)可具有不显示三维图像的非立体显示器。因此,第一电子设备可以全屏模式120、122、124和126操作,而第二电子设备可以全屏模式126操作。第一电子设备可以虚拟现实查看模式120(例如,在第一电子设备上可用的最沉浸式全屏查看模式)显示内容。第二电子设备可以2D视频查看模式126(例如,在第二电子设备上可用的最沉浸式全屏查看模式)显示内容。
电子设备可默认为在电子设备上可用的最沉浸式全屏查看模式。然而,用户可提供用户输入以将查看模式改变为不同的、较不沉浸式的查看模式。例如,头戴式设备可默认以虚拟现实模式120呈现内容。头戴式设备的用户可能希望减小所呈现内容的沉浸水平(例如,以进行多任务处理、检查用户通知等)。因此,用户可提供用户输入以将查看模式从虚拟现实模式120改变为较不沉浸式的查看模式(例如,模式122、124、126、128、130和132中的一者)。因此,用户可将所呈现的内容的沉浸水平定制为他们在给定时间点更优选的水平。当以非全屏模式(例如,模式128、130和132)呈现内容时,用户可定制内容的位置和大小。
如图25所示,电子设备可在任何时间在查看模式中的任何两者之间切换。
图26是示出由头戴式设备(例如,设备10中的控制电路16)执行以便以不同查看模式呈现三维环境的表示的例示性方法的流程图。图26的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
在框2602的操作期间,头戴式设备可收集信息。信息可包括经由传感器收集的用户输入。例如,来自位置和运动传感器32的位置和运动信息、来自注视追踪器28的注视追踪信息和/或来自其他传感器34的传感器信息(例如,触摸输入、按钮输入、麦克风输入等)可用于在框2602处获得用户输入。在框2602处收集的附加信息可包括上下文信息。上下文信息可包括关于用户正在使用的应用程序的信息、关于用户通知的信息等。
在框2604的操作期间,头戴式设备可基于在框2602期间收集的信息来选择用于扩展现实内容(例如,三维环境的表示)的查看模式。作为示例,头戴式设备可选择图25中的查看模式120、122、124、126、128、130和132中的一者。
作为示例,扩展现实内容可在头戴式设备上以虚拟现实模式120显示。在框2602的操作期间,用户可提供用户输入以从虚拟现实模式120切换到3D视频模式124。因此,在框2604的操作期间,查看模式被改变为3D视频模式124。稍后,用户可提供附加用户输入以切换回虚拟现实模式120。
作为示例,扩展现实内容可在头戴式设备上以虚拟现实模式120显示。在框2602的操作期间,用户可接收具有对应用户通知的电子邮件。在框2604的操作期间,头戴式设备可将查看模式从虚拟现实模式120切换到3D小型化模式128。头戴式设备可显示用户通知以及小型化版本134(类似于如图22所示)。随后,用户可提供附加用户输入以切换回虚拟现实模式120。
图27是示出由头戴式设备(例如,设备10中的控制电路16)执行以便基于用户输入以不同查看模式呈现三维环境的表示的例示性方法的流程图。图27的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
在框2702的操作期间,头戴式设备可获得包括三维环境的表示的内容。内容可由头戴式设备上的多用户通信会话引擎50生成和/或可从外部多用户通信会话引擎接收。
在框2704的操作期间,头戴式设备可在扩展现实环境中以第一查看模式呈现(使用至少一个或多个显示器26)来自框2702的内容。在第一查看模式中,基于定位在三维环境的表示内的视点来呈现内容。例如,第一查看模式可以是图25中的虚拟现实查看模式120。
在第一查看模式中(例如,在框2704的操作期间),可响应于由一个或多个传感器(例如,图1中的注视追踪器28、面向外相机30、位置和运动传感器32和/或其他传感器34)检测的移动而重新定位视点。移动可包括旋转移动(例如,旋转头戴式设备的用户头部的旋转)。
在框2706的操作期间,头戴式设备可使用一个或多个传感器(例如,图1中的注视追踪器28、面向外相机30、位置和运动传感器32和/或其他传感器34)来获得用户输入。
在框2708的操作期间,头戴式设备可在扩展现实环境中以第二查看模式呈现(使用至少一个或多个显示器26)来自框2702的内容。在第二查看模式中,可基于在三维环境的表示外部的视点来呈现内容。例如,第二查看模式可以是图25中的模式122、124、126、128、130和132中的一者。任选地,在第二查看模式中不呈现三维环境的三维版本。
框2708的操作还可包括从在三维环境的表示外部的视点呈现电子设备(例如,头戴式设备)所位于的物理环境的视图。
在框2702处获得并在框2704和2708处呈现的内容可以是实况多用户通信会话(例如,非分级多用户通信会话或分级通信会话)或多用户通信会话(例如,非分级多用户通信会话或分级通信会话)的重放。
如前所述,诸如多用户通信会话的扩展现实内容可在重放中呈现。考虑教师向一组学生授课的示例。在分级多用户通信会话期间,教师可具有演示者角色。在实况多用户通信会话期间,教师可从观众成员接收广义和/或单独反馈(如结合图16所讨论的)。在实况多用户通信会话结束之后,可保存多用户通信会话的重放。随后,另一个学生可从虚拟观众中的位置查看多用户通信会话的重放。
图28是多用户通信会话的重放的视图。如图28所示,呈现(例如,在虚拟舞台上)化身140(例如,用于演示者)和虚拟对象142。重放控制图标152也呈现在重放中。重放控制图标包括用于控制重放的回放的一个或多个图标。图标的示例包括播放/暂停图标152-1、快进图标152-2、倒回图标152-3、向前跳过图标152-4、向后跳过图标152-5、拖动图标152-6和同步图标152-7。
电子设备的用户(正在查看重放)可选择播放/暂停图标152-1以在播放状态和暂停状态之间切换重放。电子设备的用户可选择快进图标152-2以快进重放。当快进时,重放可以大于默认速率的速率(例如,2x速度、4x速度、8x速度等)在时间上向前移动(播放)。电子设备的用户可选择倒回图标152-3以倒回重放。当倒回时,重放可以等于默认速率的速率(例如,1x速度)、低于默认速率的速率(例如,1/2速度)或大于默认速率的速率(例如,2x速度、4x速度、8x速度等)在时间上向后移动。电子设备的用户可选择向前跳过图标152-4以使重放向前跳过预定持续时间(5秒、10秒、15秒、30秒、60秒、3秒与60秒之间等)。电子设备的用户可选择向后跳过图标152-5以使重放向后跳过预定持续时间(5秒、10秒、15秒、30秒、60秒、在3秒与60秒之间等)。拖动图标152-6可以是具有指示重放内的当前时间点的标记的滑动条(例如,表示重放的时间线)。用户可沿着滑动条拖动标记以查看重放内的不同时间点。电子设备的用户可选择同步图标152-7以将重放的交互部分与重放的交互部分的存储状态同步。
在图28中,演示者正在描述虚拟对象142(在这种情况下是立方体)。演示者可提供在方向144上旋转立方体的指令。重放的观看者具有与演示者的虚拟对象142相匹配的其自身的虚拟对象146。如图28所示,虚拟对象146可存在于虚拟桌子150上。观看者可以能够操纵虚拟对象146(例如,以模仿讲师)而虚拟对象146不受重放影响。换句话说,虚拟对象146显示在所呈现的用于重放的三维环境内,但不具有由重放固定的姿势。
例如,化身140可提供在方向144上旋转立方体142的指令。在听到指令之后,重放的观看者可暂停重放(例如,通过选择图标152-1)。暂停重放可致使化身140的移动和来自化身140的音频被暂停。当重放被暂停时,观看者可提供用户输入以在方向154上旋转虚拟对象146(例如,以执行由演示者给出的指令)。用户输入可以致使虚拟手部148触摸虚拟立方体146的手势的形式来提供,或者可使用各种类型的用户输入来提供。该旋转的结果在图29中示出。如图29所示,在重放被暂停时,虚拟对象146已被旋转。
在一些情况下,可仅使用用户输入来操纵交互式虚拟对象146。换句话说,交互式虚拟对象将保持静态,除非由用户有意地操纵(即使当重放被播放、暂停、快进、倒回等时)。
在其他情况下,除了使用用户输入之外,交互式虚拟对象146可任选地基于重放来操纵。例如,虚拟对象146可默认匹配演示者的对应虚拟对象142在重放正被播放时的姿势。用户可暂停重放并且在重放被暂停时使用用户输入来操纵虚拟对象。然而,一旦用户恢复(播放)重放,虚拟对象将(立即地或逐渐地)改变为与演示者的对应虚拟对象的姿势(或重放中存储的另一个姿势)相匹配的姿势。
在另一个示例中,虚拟对象146可匹配演示者的对应虚拟对象142的姿势,直到提供用户输入以操纵虚拟对象。一旦提供用户输入以操纵虚拟对象,交互式虚拟对象将保持静态,除非由用户有意操纵。然而,用户可在任何时间选择同步图标152-7以使交互式虚拟对象146的姿势与演示者的对应虚拟对象142的姿势(或重放中存储的另一个姿势)同步。
重放内的某些对象(例如,化身140)可能不在重放期间的任何时间响应于用户输入。重放内的某些对象(例如,虚拟对象142)可在重放期间仅在重放被暂停时响应于用户输入。重放内的某些对象(例如,虚拟对象146)可在重放期间在重放正在播放时或在重放被暂停时响应于用户输入。
图30是示出由头戴式设备(例如,设备10中的控制电路16)执行以呈现XR内容的重放的例示性方法的流程图。图30的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
在框3002的操作期间,开始XR内容(例如,非分级多用户通信会话、分级通信会话等)的重放。XR内容的重放可以给定查看模式(例如,图25中的模式之一)开始。XR内容的重放可包括三维环境的表示。
在框3004的操作期间,用户可向电子设备10提供用户输入以控制重放。可提供用户输入以致使重放播放、暂停、快进、倒回、向前跳过、向后跳过、拖动等。可通过选择(例如,使用注视输入、触摸输入、音频输入等)重放控制图标152来提供用户输入。重放控制图标152可连续地显示在重放中呈现的三维环境上,或者可仅有时显示在重放中呈现的三维环境上。
在框3006的操作期间,用户可与重放中的虚拟对象交互。重放中的一些虚拟对象可不响应于用户输入并且仅使用重放控制图标152来操纵(例如,通过播放或暂停重放)。重放中的其他虚拟对象是响应于用户输入的交互式虚拟对象。换句话说,用户可提供操纵虚拟对象的姿势的用户输入(例如,手势)。交互式虚拟对象可在重放被暂停时、在重放正在播放时等被操纵。
在框3008的操作期间,用户可任选地将交互式虚拟对象与重放同步。交互式虚拟对象可被同步到与重放相关联的在整个重放中不改变的默认位置,可被同步以匹配重放中的对应虚拟对象的姿势(例如,由分级多用户通信会话中的演示者控制的虚拟对象),或可被同步以匹配来自重放中存储的姿势时间线的姿势。
在框3010的操作期间,用户可在重放中流式传输应用程序。例如,重放可包括具有相关联的应用程序或链接的虚拟对象(例如,虚拟按钮、窗口等)。用户可在重放期间的任何时间(例如,当重放被暂停时、当重放正在播放时等)与虚拟对象交互。用户交互可致使应用程序在重放内被流式传输。
作为示例,虚拟按钮可与陈述:“选择教程视频”的文本一起显示。用户可在重放期间的任何点选择虚拟按钮。选择虚拟按钮可致使视频覆盖在重放上和/或致使应用程序窗口(例如,用于文字处理器、照片编辑器、幻灯片编辑器等)覆盖在重放上。
在框3012的操作期间,用户可调整重放的查看模式。例如,用户可将当前查看模式(例如,图25的查看模式之一)切换到任何其他查看模式(例如,来自图25的剩余查看模式中的任一者)。作为示例,用户可将查看模式从虚拟现实查看模式改变为较不沉浸式的查看模式以便在仍然查看重放的同时进行多任务处理。
图31是示出由头戴式设备(例如,设备10中的控制电路16)执行以控制XR内容的重放的例示性方法的流程图。图31的框可作为指令存储在电子设备10的存储器中,其中该指令被配置为由电子设备中的一个或多个处理器执行。
在框3102的操作期间,头戴式设备可呈现包括交互式虚拟对象的扩展现实会话的重放。例如,重放可以是分级多用户通信会话的重放,并且交互式虚拟对象可以是图28和图29中的虚拟对象146。
在框3104的操作期间,头戴式设备可获得第一用户输入。可使用一个或多个传感器(例如,图1中的注视追踪器28、面向外相机30、位置和运动传感器32和/或其他传感器34)来获得第一用户输入。
在框3106的操作期间,头戴式设备可响应于第一用户输入而暂停扩展现实会话的重放。例如,第一用户输入可以是以播放/暂停图标152-1为目标的注视输入或暂停重放的音频命令。
在框3108的操作期间,头戴式设备可获得第二用户输入。可使用一个或多个传感器(例如,图1中的注视追踪器28、面向外相机30、位置和运动传感器32和/或其他传感器34)来获得第二用户输入。
在框3110的操作期间,头戴式设备可响应于第二用户输入并且在扩展现实会话的重放被暂停时修改在扩展现实会话的重放内的交互式虚拟对象的姿势。第二用户输入可以是例如手势。手势可致使虚拟手部触摸在扩展现实会话的重放内的交互式虚拟对象(如图28所示)。
根据一个实施方案,提供了一种电子设备,其包括:一个或多个显示器;一个或多个处理器;和存储器,该存储器存储被配置为由该一个或多个处理器执行的指令,该指令用于:当处于多用户通信会话的演示者角色时,使用至少该一个或多个显示器来呈现扩展现实环境,该扩展现实环境包括从虚拟舞台上的角度的虚拟观众的表示,该表示包括基于具有观众成员角色的该多用户通信会话的参与者的广义反馈。
根据另一个实施方案,该广义反馈包括基于具有该观众成员角色的该多用户通信会话的该参与者的注意力的广义视觉观众注意力指示符、基于具有该观众成员角色的该多用户通信会话的该参与者的情绪的广义视觉观众情绪指示符、或基于具有该观众成员角色的该多用户通信会话的该参与者的数量的广义视觉观众出席指示符。
根据另一个实施方案,该虚拟观众的该表示包括具有该观众成员角色的该多用户通信会话的单独参与者的注意力的视觉表示、或具有该观众成员角色的该多用户通信会话的单独参与者的情绪的视觉表示。
根据另一个实施方案,该虚拟观众的该表示包括多个化身,并且仅该多个化身的子集由具有该观众成员角色的该多用户通信会话的该参与者单独地控制。
根据另一个实施方案,该广义反馈包括基于具有该观众成员角色的该多用户通信会话的该参与者的音频的广义音频反馈。
根据另一个实施方案,该虚拟观众的该表示包括来自具有该观众成员角色的该多用户通信会话的该参与者的投票结果、具有该观众成员角色的该多用户通信会话的至少一些参与者的列表,以及具有该观众成员角色的该多用户通信会话的至少一些参与者的化身。
根据另一个实施方案,该电子设备包括一个或多个传感器,该指令还包括用于进行以下操作的指令:使用该一个或多个传感器来获得用户输入;以及基于该用户输入来改变该虚拟观众的该表示。
根据另一个实施方案,改变该虚拟观众的该表示包括:将广义视觉观众注意力指示符添加到该虚拟观众的该表示;将广义视觉观众情绪指示符添加到该虚拟观众的该表示;将广义视觉观众出席指示符添加到该虚拟观众的该表示;将投票结果添加到该虚拟观众的该表示;将具有该观众成员角色的该多用户通信会话的至少一些参与者的列表添加到该虚拟观众的该表示;将具有该观众成员角色的该多用户通信会话的至少一些参与者的化身添加到该虚拟观众的该表示;或改变其中出现该虚拟观众的虚拟场地的外观。
根据另一个实施方案,该电子设备包括一个或多个传感器,该指令还包括用于进行以下操作的指令:使用该一个或多个传感器来获得用户输入;以及基于该用户输入,引起具有该观众成员角色的该多用户通信会话的至少一个参与者的视点的改变。
根据实施方案,提供了一种操作包括一个或多个显示器的电子设备的方法,该方法包括:当处于多用户通信会话的演示者角色时,使用至少该一个或多个显示器来呈现扩展现实环境,该扩展现实环境包括从虚拟舞台上的角度的虚拟观众的表示,该表示包括基于具有观众成员角色的该多用户通信会话的参与者的广义反馈。
根据另一个实施方案,该广义反馈包括基于具有该观众成员角色的该多用户通信会话的该参与者的注意力的广义视觉观众注意力指示符、基于具有该观众成员角色的该多用户通信会话的该参与者的情绪的广义视觉观众情绪指示符、或基于具有该观众成员角色的该多用户通信会话的该参与者的数量的广义视觉观众出席指示符。
根据另一个实施方案,该虚拟观众的该表示包括具有该观众成员角色的该多用户通信会话的单独参与者的注意力的视觉表示、或具有该观众成员角色的该多用户通信会话的单独参与者的情绪的视觉表示。
根据另一个实施方案,该虚拟观众的该表示包括多个化身,并且仅该多个化身的子集由具有该观众成员角色的该多用户通信会话的该参与者单独地控制。
根据另一个实施方案,该广义反馈包括基于具有该观众成员角色的该多用户通信会话的该参与者的音频的广义音频反馈。
根据另一个实施方案,该虚拟观众的该表示包括来自具有该观众成员角色的该多用户通信会话的该参与者的投票结果、具有该观众成员角色的该多用户通信会话的至少一些参与者的列表,以及具有该观众成员角色的该多用户通信会话的至少一些参与者的化身。
根据另一个实施方案,该电子设备还包括一个或多个传感器,并且该方法还包括使用该一个或多个传感器来获得用户输入,以及基于该用户输入来改变该虚拟观众的该表示。
根据另一个实施方案,改变该虚拟观众的该表示包括:将广义视觉观众注意力指示符添加到该虚拟观众的该表示;将广义视觉观众情绪指示符添加到该虚拟观众的该表示;将广义视觉观众出席指示符添加到该虚拟观众的该表示;将投票结果添加到该虚拟观众的该表示;将具有该观众成员角色的该多用户通信会话的至少一些参与者的列表添加到该虚拟观众的该表示;将具有该观众成员角色的该多用户通信会话的至少一些参与者的化身添加到该虚拟观众的该表示;或改变其中出现该虚拟观众的虚拟场地的外观。
根据另一个实施方案,该电子设备还包括一个或多个传感器,并且该方法还包括:使用该一个或多个传感器来获得用户输入;以及基于该用户输入,引起具有该观众成员角色的该多用户通信会话的至少一个参与者的视点的改变。
根据一个实施方案,提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储被配置为由包括一个或多个显示器的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于进行以下操作的指令:当处于多用户通信会话的演示者角色时,使用至少该一个或多个显示器来呈现扩展现实环境,该扩展现实环境包括从虚拟舞台上的角度的虚拟观众的表示,该表示包括基于具有观众成员角色的该多用户通信会话的参与者的广义反馈。
根据另一个实施方案,该广义反馈包括基于具有该观众成员角色的该多用户通信会话的该参与者的注意力的广义视觉观众注意力指示符、基于具有该观众成员角色的该多用户通信会话的该参与者的情绪的广义视觉观众情绪指示符、或基于具有该观众成员角色的该多用户通信会话的该参与者的数量的广义视觉观众出席指示符。
根据另一个实施方案,该虚拟观众的该表示包括具有该观众成员角色的该多用户通信会话的单独参与者的注意力的视觉表示、或具有该观众成员角色的该多用户通信会话的单独参与者的情绪的视觉表示。
根据另一个实施方案,该虚拟观众的该表示包括多个化身,并且仅该多个化身的子集由具有该观众成员角色的该多用户通信会话的该参与者单独地控制。
根据另一个实施方案,该广义反馈包括基于具有该观众成员角色的该多用户通信会话的该参与者的音频的广义音频反馈。
根据另一个实施方案,该虚拟观众的该表示包括来自具有该观众成员角色的该多用户通信会话的该参与者的投票结果、具有该观众成员角色的该多用户通信会话的至少一些参与者的列表,以及具有该观众成员角色的该多用户通信会话的至少一些参与者的化身。
根据另一个实施方案,该电子设备还包括一个或多个传感器,并且该指令还包括用于进行以下操作的指令:使用该一个或多个传感器来获得用户输入;以及基于该用户输入来改变该虚拟观众的该表示。
根据另一个实施方案,改变该虚拟观众的该表示包括:将广义视觉观众注意力指示符添加到该虚拟观众的该表示;将广义视觉观众情绪指示符添加到该虚拟观众的该表示;将广义视觉观众出席指示符添加到该虚拟观众的该表示;将投票结果添加到该虚拟观众的该表示;将具有该观众成员角色的该多用户通信会话的至少一些参与者的列表添加到该虚拟观众的该表示;将具有该观众成员角色的该多用户通信会话的至少一些参与者的化身添加到该虚拟观众的该表示;或改变其中出现该虚拟观众的虚拟场地的外观。
根据另一个实施方案,该电子设备还包括一个或多个传感器,并且该指令还包括用于进行以下操作的指令:使用该一个或多个传感器来获得用户输入;以及基于该用户输入,引起具有该观众成员角色的该多用户通信会话的至少一个参与者的视点的改变。
前述内容仅为示例性的并且可对所述实施方案作出各种修改。前述实施方案可独立实施或可以任意组合实施。

Claims (20)

1.一种电子设备,所述电子设备包括:
一个或多个显示器;
一个或多个处理器;和
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的指令,所述指令用于:
当处于多用户通信会话的演示者角色时,使用至少所述一个或多个显示器来呈现扩展现实环境,其中所述扩展现实环境包括:
从虚拟舞台上的角度的虚拟观众的表示,其中所述表示包括基于具有观众成员角色的所述多用户通信会话的参与者的广义反馈。
2.根据权利要求1所述的电子设备,其中所述广义反馈包括:
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的注意力的广义视觉观众注意力指示符;
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的情绪的广义视觉观众情绪指示符;或者
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的数量的广义视觉观众出席指示符。
3.根据权利要求1所述的电子设备,其中所述虚拟观众的所述表示包括:
具有所述观众成员角色的所述多用户通信会话的单独参与者的注意力的视觉表示;或者
具有所述观众成员角色的所述多用户通信会话的单独参与者的情绪的视觉表示。
4.根据权利要求1所述的电子设备,其中所述虚拟观众的所述表示包括多个化身,并且其中仅所述多个化身的子集由具有所述观众成员角色的所述多用户通信会话的所述参与者单独地控制。
5.根据权利要求1所述的电子设备,其中所述广义反馈包括基于具有所述观众成员角色的所述多用户通信会话的所述参与者的音频的广义音频反馈。
6.根据权利要求1所述的电子设备,其中所述虚拟观众的所述表示包括:
来自具有所述观众成员角色的所述多用户通信会话的所述参与者的投票结果;
具有所述观众成员角色的所述多用户通信会话的至少一些参与者的列表;和
具有所述观众成员角色的所述多用户通信会话的至少一些参与者的化身。
7.根据权利要求1所述的电子设备,还包括:
一个或多个传感器,其中所述指令还包括用于进行以下操作的指令:
使用所述一个或多个传感器来获得用户输入;以及
基于所述用户输入来改变所述虚拟观众的所述表示。
8.根据权利要求7所述的电子设备,其中改变所述虚拟观众的所述表示包括:
将广义视觉观众注意力指示符添加到所述虚拟观众的所述表示;
将广义视觉观众情绪指示符添加到所述虚拟观众的所述表示;
将广义视觉观众出席指示符添加到所述虚拟观众的所述表示;
将投票结果添加到所述虚拟观众的所述表示;
将具有所述观众成员角色的所述多用户通信会话的至少一些参与者的列表添加到所述虚拟观众的所述表示;
将具有所述观众成员角色的所述多用户通信会话的至少一些参与者的化身添加到所述虚拟观众的所述表示;或者
改变其中出现所述虚拟观众的虚拟场地的外观。
9.根据权利要求1所述的电子设备,还包括:
一个或多个传感器,其中所述指令还包括用于进行以下操作的指令:
使用所述一个或多个传感器来获得用户输入;以及
基于所述用户输入,引起具有所述观众成员角色的所述多用户通信会话的至少一个参与者的视点的改变。
10.一种操作包括一个或多个显示器的电子设备的方法,所述方法包括:
当处于多用户通信会话的演示者角色时,使用至少所述一个或多个显示器来呈现扩展现实环境,其中所述扩展现实环境包括:
从虚拟舞台上的角度的虚拟观众的表示,其中所述表示包括基于具有观众成员角色的所述多用户通信会话的参与者的广义反馈。
11.根据权利要求10所述的方法,其中所述广义反馈包括:
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的注意力的广义视觉观众注意力指示符;
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的情绪的广义视觉观众情绪指示符;或者
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的数量的广义视觉观众出席指示符。
12.根据权利要求10所述的方法,其中所述虚拟观众的所述表示包括:
具有所述观众成员角色的所述多用户通信会话的单独参与者的注意力的视觉表示;或者
具有所述观众成员角色的所述多用户通信会话的单独参与者的情绪的视觉表示。
13.根据权利要求10所述的方法,其中所述虚拟观众的所述表示包括多个化身,并且其中仅所述多个化身的子集由具有所述观众成员角色的所述多用户通信会话的所述参与者单独地控制。
14.根据权利要求10所述的方法,其中所述广义反馈包括基于具有所述观众成员角色的所述多用户通信会话的所述参与者的音频的广义音频反馈。
15.根据权利要求10所述的方法,其中所述虚拟观众的所述表示包括:
来自具有所述观众成员角色的所述多用户通信会话的所述参与者的投票结果;
具有所述观众成员角色的所述多用户通信会话的至少一些参与者的列表;和
具有所述观众成员角色的所述多用户通信会话的至少一些参与者的化身。
16.根据权利要求10所述的方法,其中所述电子设备还包括一个或多个传感器并且其中所述方法还包括:
使用所述一个或多个传感器来获得用户输入;以及
基于所述用户输入来改变所述虚拟观众的所述表示。
17.根据权利要求16所述的方法,其中改变所述虚拟观众的所述表示包括:
将广义视觉观众注意力指示符添加到所述虚拟观众的所述表示;
将广义视觉观众情绪指示符添加到所述虚拟观众的所述表示;
将广义视觉观众出席指示符添加到所述虚拟观众的所述表示;
将投票结果添加到所述虚拟观众的所述表示;
将具有所述观众成员角色的所述多用户通信会话的至少一些参与者的列表添加到所述虚拟观众的所述表示;
将具有所述观众成员角色的所述多用户通信会话的至少一些参与者的化身添加到所述虚拟观众的所述表示;或者
改变其中出现所述虚拟观众的虚拟场地的外观。
18.根据权利要求10所述的方法,其中所述电子设备还包括一个或多个传感器并且其中所述方法还包括:
使用所述一个或多个传感器来获得用户输入;以及
基于所述用户输入,引起具有所述观众成员角色的所述多用户通信会话的至少一个参与者的视点的改变。
19.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储被配置为由包括一个或多个显示器的电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于进行以下操作的指令:
当处于多用户通信会话的演示者角色时,使用至少所述一个或多个显示器来呈现扩展现实环境,其中所述扩展现实环境包括:
从虚拟舞台上的角度的虚拟观众的表示,其中所述表示包括基于具有观众成员角色的所述多用户通信会话的参与者的广义反馈。
20.根据权利要求19所述的非暂态计算机可读存储介质,其中所述广义反馈包括:
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的注意力的广义视觉观众注意力指示符;
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的情绪的广义视觉观众情绪指示符;或者
基于具有所述观众成员角色的所述多用户通信会话的所述参与者的数量的广义视觉观众出席指示符,其中所述虚拟观众的所述表示包括:
具有所述观众成员角色的所述多用户通信会话的单独参与者的注意力的视觉表示;或者
具有所述观众成员角色的所述多用户通信会话的单独参与者的情绪的视觉表示。
CN202311000927.0A 2022-08-11 2023-08-09 多用户通信会话中的演示 Pending CN117806457A (zh)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US202263397270P 2022-08-11 2022-08-11
US202263397276P 2022-08-11 2022-08-11
US63/397,276 2022-08-11
US63/397,270 2022-08-11
US202263397508P 2022-08-12 2022-08-12
US63/397,508 2022-08-12
US18/345,884 2023-06-30
US18/345,884 US20240056492A1 (en) 2022-08-11 2023-06-30 Presentations in Multi-user Communication Sessions

Publications (1)

Publication Number Publication Date
CN117806457A true CN117806457A (zh) 2024-04-02

Family

ID=89845737

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311000927.0A Pending CN117806457A (zh) 2022-08-11 2023-08-09 多用户通信会话中的演示

Country Status (2)

Country Link
US (3) US20240054736A1 (zh)
CN (1) CN117806457A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11016728B2 (en) * 2014-07-09 2021-05-25 International Business Machines Corporation Enhancing presentation content delivery associated with a presentation event
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US20170199639A1 (en) * 2016-01-07 2017-07-13 Microsoft Technology Licensing, Llc Content navigation control
US20210076002A1 (en) * 2017-09-11 2021-03-11 Michael H Peters Enhanced video conference management
GB201811437D0 (en) * 2018-07-12 2018-08-29 Andersen Jesper Safety latch
US10848597B1 (en) * 2019-04-30 2020-11-24 Fake Production Oy System and method for managing virtual reality session technical field
US10924709B1 (en) * 2019-12-27 2021-02-16 Microsoft Technology Licensing, Llc Dynamically controlled view states for improved engagement during communication sessions
US12010155B2 (en) * 2020-09-24 2024-06-11 Apple Inc. Operating system level management of group communication sessions
US11627140B2 (en) * 2020-09-30 2023-04-11 Microsoft Technology Licensing, Llc Automatic configuration and management of user permissions based on roles and user activity
US11621861B2 (en) * 2020-11-06 2023-04-04 Microsoft Technology Licensing, Llc Dynamic grouping of live video streams and content views
US20220374136A1 (en) * 2021-05-18 2022-11-24 Apple Inc. Adaptive video conference user interfaces
US11507342B1 (en) * 2021-06-14 2022-11-22 Motorola Mobility Llc Electronic device with automatic prioritization and scheduling of speakers in a multiple participant communication session
US11394925B1 (en) * 2021-06-30 2022-07-19 Microsoft Technology Licensing, Llc Automated UI and permission transitions between presenters of a communication session
US20230208663A1 (en) * 2021-12-29 2023-06-29 Microsoft Technology Licensing, Llc Vocal action automation for controlling confidential content
US20230379649A1 (en) * 2022-05-23 2023-11-23 Hewlett-Packard Development Company, L.P. Extended reality sound simulations

Also Published As

Publication number Publication date
US20240054736A1 (en) 2024-02-15
US20240056492A1 (en) 2024-02-15
US20240054746A1 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
US11563998B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, video distribution method, and video distribution program
US10657727B2 (en) Production and packaging of entertainment data for virtual reality
CN109479010A (zh) 通过注视化身的私有通信
US12032735B2 (en) Method and apparatus for real-time data communication in full-presence immersive platforms
US11831814B2 (en) Parallel video call and artificial reality spaces
US20220360827A1 (en) Content distribution system, content distribution method, and content distribution program
CN114402276A (zh) 授课系统、视听终端、信息处理方法以及程序
Regenbrecht et al. Mutual gaze support in videoconferencing reviewed
US20240220031A1 (en) Muting mode for a virtual object representing one or more physical elements
US20240054736A1 (en) Adjustable Immersion Level for Content
US20240303947A1 (en) Information processing device, information processing terminal, information processing method, and program
Narayanan et al. Cinemacraft: exploring fidelity cues in collaborative virtual world interactions
US20230368464A1 (en) Information processing system, information processing method, and information processing program
Ross Technological affordances versus narrative delivery?: the practice of recent virtual reality storytelling
WO2022107294A1 (ja) Vr映像空間生成システム
US20240104870A1 (en) AR Interactions and Experiences
US20240212290A1 (en) Dynamic Artificial Reality Coworking Spaces
NL2030186B1 (en) Autostereoscopic display device presenting 3d-view and 3d-sound
Tong Exploring effective storytelling guidelines for cinematic virtual reality
Lottridge et al. Centering Bodies in Space and Place through Virtual Reality Dance Performance: A Practice-Based Research Perspective
Saghir Utilization of viewer location based projection effects on ODV video display in CAVE like environments
WO2024138035A1 (en) Dynamic artificial reality coworking spaces
Chen Augmenting immersive cinematic experience/scene with user body visualization.
CN116848507A (zh) 应用程序投屏
Alfaro Bernate Surround vision: a handheld screen for accessing peripheral content around the TV

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination