CN109479010A - 通过注视化身的私有通信 - Google Patents

通过注视化身的私有通信 Download PDF

Info

Publication number
CN109479010A
CN109479010A CN201780045577.6A CN201780045577A CN109479010A CN 109479010 A CN109479010 A CN 109479010A CN 201780045577 A CN201780045577 A CN 201780045577A CN 109479010 A CN109479010 A CN 109479010A
Authority
CN
China
Prior art keywords
incarnation
equipment
recipient
user
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780045577.6A
Other languages
English (en)
Other versions
CN109479010B (zh
Inventor
J·E·扎恩
P·W·卡尔森
S·C·赖特
E·S·雷默耶尔
J·考皮可
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN109479010A publication Critical patent/CN109479010A/zh
Application granted granted Critical
Publication of CN109479010B publication Critical patent/CN109479010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

来自用户计算设备的内容可以被向至少一个接收方计算设备发送。多个化身被显示,每个化身表示与接收方计算设备相关联的不同接收方。在用户计算设备和接收方计算设备之间建立组通信会话。在组通信会话期间:初始内容从用户计算设备向每个接收方计算设备发送;基于确定用户正在注视所选择的化身,在用户计算设备和与所选择的化身相关联的接收方计算设备之间建立私有通信会话。在私有通信会话期间,后续内容从用户计算设备向这样的接收方计算设备发送,并且不向其它接收方计算设备发送。

Description

通过注视化身的私有通信
背景技术
计算设备的多个用户可以参加组计算活动,诸如多玩家游戏。在这种组计算活动期间,多个用户可以进行组对话,在组对话中,组的中一个或多个成员与组中的其它成员实时通信。
发明内容
本文公开了涉及注视化身以建立私有通信会话的各个示例。在一个示例中,向用户计算设备的用户显示多个化身,其中化身中的每一个表示不同的接收方,并且不同的接收方中的每一个与不同的接收方计算设备相关联。在用户计算设备和不同的接收方计算设备中的每一个之间建立组通信会话。
在组通信会话期间,将初始内容从用户计算设备向不同的接收方计算设备中的每一个发送。确定用户计算设备的用户正在注视多个化身中的所选择的化身。基于确定用户正在注视所选择的化身,在用户计算设备和与所选择的化身相关联的接收方计算设备之间建立私有通信会话。在私有通信会话期间,将后续内容从用户计算设备向与所选择的化身相关联的接收方计算设备发送,并且不将后续内容向与多个化身中的一个或多个化身相关联的一个或多个其它接收方计算设备发送。
提供本发明内容以便以简化的形式介绍一些概念的选择,这些概念将在下面的具体实施方式中进一步描述。本发明内容不旨在标识要求保护的主题的关键特征或必要特征,也不旨在用于限制所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任意部分中提到的任意或所有缺点的实施方式。
附图说明
图1示出了根据本公开的示例的向接收方计算设备发送内容的用户计算设备。
图2示出了根据本公开的示例的头戴式显示设备的示意图。
图3示出了根据本公开的示例的包括有多个人和用以共享内容的不同的计算设备的房间的示意性透视图。
图4示出了根据本公开的另一示例的包括有多个人和用以共享内容的不同的计算设备的图3的房间的示意性透视图。
图5示出了根据本公开的另一示例的包括有多个人和用以共享内容的不同的计算设备的图3的房间的示意性透视图。
图6A和6B是根据本公开的示例的用于从用户计算设备向至少一个接收方计算设备发送内容的方法的流程图。
图7示出了计算系统的简化示意性说明。
具体实施方式
图1示出了用于从用户计算设备14向一个或多个接收方计算设备发送内容的系统10的一个示例的示意图,其中每个接收方计算设备与不同的接收方相关联。如下面更详细描述的,在一些示例中,用户计算设备14的用户16可以参加包括与其它用户/玩家实时交互的在线活动,诸如多玩家视频游戏、大型多玩家在线游戏、虚拟世界等。在其它示例中,用户可以参与涉及与其它在线参与者的实时交互的其它在线活动,诸如用于远程教育的在线课程、视频会议等。
在图1的示例中,用户计算设备14的用户16可以参与与其它用户的在线活动,其它用户的在线活动与其它计算设备相关联,诸如第一接收方计算设备20、第二接收方计算设备24以及第三接收方计算设备28。例如,这种用户可能正在玩由服务器32提供的多玩家在线游戏。在一些示例中,附加计算设备(未示出)的附加用户也可以参与多玩家在线游戏。
用户计算设备14可以经由与网络36的有线或无线连接而通信地耦接到第一接收方计算设备20、第二接收方计算设备24和第三接收方计算设备28。在一些示例中,网络36可以采用局域网(LAN)、广域网(WAN)、有线网、无线网、个域网或其组合的形式,并且可以包括因特网。
如下文更详细描述的,用户计算设备14还可以经由显示器42向用户16显示多个化身40,其中化身中的每一个表示与接收方计算设备中的一个相关联的不同接收方。这种化身可以包括二维图像或三维图像(诸如全息图)。计算设备14包括可以存储在用户计算设备14的大容量储存装置48中的组通信指令46。组通信指令46可以被加载到存储器50中并且由用户计算设备14的处理器52执行,以执行下文更详细描述的方法和进程中的一个或多个。
在一些示例中并且如下文更详细描述的,当参与与其它用户的在线活动时,可以建立组通信会话,在组通信会话中,用户计算设备14与其它接收方计算设备通信地耦接。在图1的示例中,在由虚线34指示的组通信会话中,用户计算设备14可以通信地耦接到第一接收方计算设备20、第二接收方计算设备24和第三接收方计算设备28。
在这种组通信会话中,参与会话的各个计算设备的用户可以彼此发送和接收内容。例如,组通信会话参与者可以进行音频对话或流式视频交互,其中音频和/或视频数据由每个参与者的计算设备捕捉并且在全部参与者之间共享。在图1的示例中并且如下文更详细描述的,在组通信会话期间,用户计算设备14可以将初始内容56(诸如音频数据)向第一接收方计算设备20、第二接收方计算设备24和第三接收方计算设备28中的每一个发送。在一些示例中,组通信会话参与者可以是同样参加在线活动的较大用户社区的子集。在其它示例中,在组通信会话中,用户计算设备14可以通信地耦接到任意合适数量的接收方计算设备。
在一些示例中并且如下文更详细描述的,在参与组通信会话时,用户16可能期望与会话中的一个或多个参与者进行私有对话。例如,用户16可能期望与第一接收方计算设备20的接收方/用户进行私有音频对话。用户计算设备14的注视跟踪系统60可以确定用户16正在注视表示第一接收方计算设备20的接收方/用户的化身。
基于确定用户16正在注视所选择的化身,可以执行组通信指令以在用户计算设备14和与所选择的化身相关联的第一接收方计算设备20之间建立私有通信会话,由点划线64指示。在私有通信会话期间,用户计算设备将后续内容66向第一接收方计算设备20发送,并且不将后续内容向第二接收方计算设备24或第三接收方计算设备28发送。
以这种方式,在一个示例中,用户16和第一接收方计算设备20的接收方/用户可以具有不被第二接收方计算设备24和第三接收方计算设备28的接收方/用户听到的私有音频对话。因此,在本公开的一个可能优点中,用户16可以通过将用户的注视引导到表示参与者的所选择的化身来方便且快速地与组通信会话的另一参与者建立私有通信会话。
在图1的示例中,私有通信会话64可以经由促进组通信会话34的相同网络来建立。在其它示例中,私有通信会话可以经由与促进组通信会话的网络不同的另一网络来建立。例如,用户计算设备14可以建立与另一接收方计算设备的分开的个人区域网络连接,以用于经由私有通信会话交换数据。
在不同的示例中,用户计算设备和接收方计算设备可以是各种类型和形状因子中的任意一种。例如,用户计算设备14和/或接收方计算设备可以包括可穿戴计算设备,诸如头戴式显示器(HMD)设备、平板计算机、膝上型计算机、智能电话或其它移动计算设备、机顶盒、家庭娱乐计算机、交互式电视、游戏系统、台式计算设备、独立监视器、壁挂式显示器或其它类似设备。下文参照图7更详细地描述关于用户计算设备14和接收方计算设备的组件和计算方面的附加细节。
在一些示例中,如上所述,用户计算设备14和/或一个或多个接收方计算设备可以包括HMD设备。在一些示例中,HMD设备可以包括增强现实显示设备。增强现实显示设备可以包括至少部分透视的显示器,其被配置为通过显示器在视觉上增强三维物理环境的视图。图2示出了根据本公开的一个示例的可由用户穿戴的HMD设备100。在其它示例中,HMD设备可以采用至少部分透视的显示器被支持在观看者的一只或两只眼睛前方的任意其它合适的形式。
在图2的示例中,HMD设备100包括框架102,其环绕用户的头部以将至少部分地透视的右显示面板104R和至少部分地透视的左显示面板104L定位成靠近用户的眼睛。如下文更详细描述的,框架支持附加的立体的透视显示器组件。HMD设备100可以用在增强现实应用中,其中虚拟显示图像与真实世界图像混合。
在该示例中,HMD设备100包括分开的右显示面板104R和左显示面板104L,其从用户的视角上可以是全部或部分透明的,以向用户提供他或她的周围环境的清晰视图。处理器108可操作地耦接到显示面板104R和104L以及其它显示系统组件。处理器108包括逻辑和相关联的计算机存储器,其被配置为向显示面板104R和104L提供图像信号,接收传感信号,以及进行本文描述的各个控制过程。
显示面板104R和104L便于将全息图像传递到HMD设备100的穿戴者的眼睛。以这种方式,显示面板104R和104L可以被配置为对通过面板查看物理环境的穿戴者在视觉上增强现实世界的、三维物理环境的外观。
可以使用任意合适的显示技术和配置来经由至少部分透视的显示面板104R和104L来显示图像。例如,面板可以被配置为使HMD设备100的穿戴者能够通过显示虚拟对象表示的一个或多个部分透明像素来查看物理环境中的物理真实世界对象。例如,面板可以包括图像产生元件,诸如例如透视有机发光二极管(OLED)显示器。
作为另一示例,HMD设备100可以包括在面板的边缘上的光调制器。在该示例中,面板可以用作光导,以用于将光从光调制器传递到穿戴者的眼睛。在其它示例中,显示面板可以利用硅上液晶(LCOS)显示器。另外,虽然图2的示例示出了分开的右显示面板104R和左显示面板104L,但是在其它示例中可以使用在两只眼睛上延伸的单个显示面板。
HMD设备100还可以包括各种传感器和相关系统以向处理器108提供信息。这种传感器可以包括但不限于一个或多个面向内的图像传感器112、114、一个或多个面向外的图像传感器116、118、惯性测量单元(IMU)122以及一个或多个麦克风130。HMD设备100还可以包括立体声扬声器140R和140L,以向穿戴者广播音频。一个或多个面向内的图像传感器112、114可以被配置为以来自穿戴者眼睛的注视跟踪数据的形式来获取图像数据(例如,传感器112可以从穿戴者的一只眼睛获取图像数据,并且传感器114可以从穿戴者另一只眼睛获取图像数据)。
处理器108可以执行指令以基于从图像传感器112、114接收的信息以任意合适的方式确定穿戴者的每只眼睛的注视方向。例如,诸如红外光源的一个或多个光源可以被配置成使得光的闪烁从穿戴者的每只眼睛的角膜反射。一个或多个图像传感器112、114可以被配置为捕捉穿戴者眼睛的图像。根据从图像传感器收集的图像数据确定的闪烁和瞳孔的图像可以被用于确定每只眼睛的光轴。使用该信息,处理器108可以执行指令以确定穿戴者注视的方向。在一些示例中,这种注视跟踪数据可以用于确定穿戴者正在注视物理环境中的真实世界对象或者正在注视由HMD设备100显示的诸如化身的特定图像或全息图。
在其它实施方式中,可以在HMD设备100中采用不同类型的注视传感器以测量用户眼睛的一个或多个注视参数。由一个或多个注视传感器测量的注视参数的示例可以包括眼睛注视方向或注视矢量、头部方向、眼睛注视速度、眼睛注视加速度、眼睛注视方向角度的变化和/或任意其它合适的跟踪信息。
一个或多个面向外的图像传感器116、118可以被配置为捕捉和/或测量HMD设备100所位于的物理环境的物理环境属性。在一个示例中,图像传感器116可以包括可见光摄像机,其被配置为收集物理空间的可见光图像。此外,图像传感器118可以包括深度摄像机,其被配置为收集物理空间的深度图像。更特别地,在一个示例中,深度摄像机是红外飞行时间深度摄像机。在另一示例中,深度摄像机是红外结构光深度摄像机。
来自面向外的图像传感器116、118的数据可以由处理器108使用以生成和/或更新物理环境的三维(3D)模型。来自面向外的图像传感器116、118的数据可以由处理器108使用以识别物理空间的表面和/或测量物理空间的一个或多个表面参数。处理器108可以执行指令以通过任意合适的方式生成/更新3D模型并识别物理空间的表面。在一个示例中,从由图像传感器118的深度摄像机提供的深度数据导出的深度图可以用于生成/更新3D模型并识别物理空间的表面。
来自面向外的图像传感器116、118的数据还可以由处理器108使用以检测HMD设备100的视野内的移动,诸如基于由视野内的穿戴者或人或物理对象执行的手势的输入或其它移动。在一个示例中,来自面向外的图像传感器116、118的数据可以用于检测由HMD设备100的穿戴者执行的用户输入,诸如指示待采取的动作的手势、对经由显示设备显示的全息图或其它虚拟对象的选择,或其它命令。
来自面向外的图像传感器116、118的数据还可以由处理器108使用以确定(例如来自成像环境特征的)方向/位置和定向数据,其能够实现HMD设备100在真实物理环境中的位置/运动跟踪。来自面向外的图像传感器116、118的数据可以由处理器108使用,以从HMD设备100的视角构建周围环境的静态图像和/或视频图像。
附加地或可选地,来自面向外的图像传感器116、118和/或其它传感器的信息可以与负责生成和更新物理空间的模型的远程计算设备124进行通信。HMD设备100可以经由与网络(诸如网络36)的有线连接或无线连接来通信地耦接到远程计算设备124和/或其它设备。
计算设备124可以采用服务器、网络计算机、游戏控制台、移动通信设备、可穿戴计算设备、台式计算机、膝上型计算机、平板计算机、机顶盒(例如有线电视盒、卫星电视盒)或任意其它类型的合适的计算设备。在一些示例中,计算设备124可以包括在较大的电子或机械设备或系统内的嵌入式系统。下文参照图7更详细地描述关于计算设备124的组件和计算方面的附加细节。
在一些示例中,用户计算设备14和/或一个或多个接收方计算设备可以包括呈虚拟现实显示设备形式的HMD设备。虚拟现实显示设备可以包括非透视显示器,其被配置为提供沉浸式虚拟现实体验。虚拟现实显示设备可以包括头部运动跟踪传感器、注视跟踪系统、以及上文针对HMD设备100描述的其它组件和功能。
在一些示例中,用户计算设备14和/或一个或多个接收方计算设备可以包括机顶盒、游戏控制台或其它专用硬件,其利用单独显示器并且包括头部运动跟踪传感器、深度跟踪传感器系统、注视跟踪系统和/或上文针对HMD设备100描述的其它组件和功能。
现在参照图3,现在将提供对本公开的示例使用情况的描述。在图3的示例中,用户16可以坐在起居室300中并且可以穿戴呈诸如HMD设备100的HMD设备形式的用户计算设备。用户16可以玩以第一人称射击者形式的多玩家在线游戏,其包括交互式数字环境,交互式数字环境包括用户控制的元素304(例如,第一人称人形角色)。游戏可以由HMD设备100和/或在壁挂式显示器316上显示诸如用户控制元素304、坦克310和枪312的图像的游戏控制台308执行。
在一些示例中,HMD设备100可以将来自游戏的图像显示为位于房间300中的二维图像或三维全息图。另外,虽然用户控制的元素304被示出为经由显示器316以“第一人称”视图呈现,但是应该理解的是,用户控制的元素可以包括任意合适的视觉表示。
在一些示例中,可以经由HMD设备100向用户16显示在线游戏的其它元素。在图3的示例中,可以经由HMD设备100显示剑持全息香蕉318形式的游戏元素。另外,如下文更详细描述的,表示多玩家在线游戏的其它玩家的一个或多个化身可以经由HMD设备100显示给用户16,或者可以显示在壁挂式显示器316上。
可以经由到HMD设备100、手持游戏控制器(未示出)的输入,或通过附加和/或不同的输入设备来控制用户控制的元素304,附加和/或不同的输入设备包括但不限于键盘、鼠标、用于语音识别的麦克风等。音频内容可以经由HMD设备100的立体声扬声器140R和140L和/或经由起居室300中的扬声器320、322和324而广播给用户16。
在其它示例中,用户16可以通过壁挂式显示器316来参与多玩家在线游戏而无需穿戴HMD设备。例如,可以基于由跟踪系统330成像的用户16的移动来控制用户控制的元素304。为了跟踪这种移动,跟踪系统330可以包括光学传感器系统和深度跟踪功能,其可以类似于上文针对HMD设备100描述的传感器和功能。在这些示例中,音频内容可以经由用户穿戴的耳机(未示出)和/或经由起居室300中的扬声器320、322和324广播给用户16。
如上所述,可以经由HMD设备100向用户16显示一个或多个化身,或者可以在壁挂式显示器316上显示一个或多个化身。化身可以表示多玩家在线游戏中的另一玩家、用户16作为成员的在线社区中的另一成员、或与用户16具有在线连接的其它人。如上文参照图1所述,每个人/接收方可以与不同的接收方计算设备相关联。
在一些示例中,在玩多玩家在线游戏时,用户16可以建立组通信会话,其使得用户和一个或多个其它玩家能够交换诸如音频数据、流式视频数据和/或其它数据文件(图像文件、音频文件等)等的内容。在一个示例中,组通信会话可以包括参加实时音频对话来讨论他们的玩游戏体验的用户16和其它接收方(玩家)。如图3所示,在该示例中,HMD设备100可以显示分别对应于第一接收方Amy、第二接收方Ben和第三接收方Carlos的第一化身350、第二化身354和第三化身358。
在该示例中,第一化身350、第二化身354和第三化身358中的每一个由HMD设备100显示为位于起居室300的三维物理环境中的全息图。如上所述,用户16和第一接收方Amy、第二接收方Ben以及第三接收方Carlos可以参加包括实时音频对话的组通信会话,以通过他们各自的计算设备来讨论他们的玩游戏体验。例如,包括用户16的口头发言的音频内容可以由HMD设备100的麦克风捕捉,并且可以从HMD设备100向分别对应于第一接收方Amy、第二接收方Ben和第三接收方Carlos的第一接收方计算设备20、第二接收方计算设备24和第三接收方计算设备28中的每一个进行发送。类似地,来自第一接收方计算设备20、第二接收方计算设备24和/或第三接收方计算设备28的音频内容可以在组通信会话的四个参与计算设备之间共享。
在一些示例中,还可以向用户16显示一个或多个对应于未参与组通信会话的人的其它化身。在图3的示例中,可以向用户16显示表示另一玩家Daniel的第四化身362,Daniel可能正在参与在线多玩家游戏,但没有参与组通信会话。
在组通信会话期间的一些示例中,还可以显示分组指示以可视地指示哪些化身以及相对应的接收方正在参与组通信会话。在图3的示例中,可以以组光环360形式将分组指示显示给分别对应于第一接收方Amy、第二接收方Ben和第三接收方Carlos的第一化身350、第二化身354和第三化身358中的每一个,以指示他们正在参与组通信会话。相应地,不将组光环360显示给表示未参与组通信会话的玩家Daniel的第四化身362。以这种方式,用户16可以快速且容易地看到哪些玩家正在参与组通信会话,以及哪个(哪些)玩家没有参与。
另外,虽然3的示例示出了呈组光环360的形式的组指示,但是应该理解的是,可以利用许多其它形式、形状和视觉指示来指定参与组通信会话。例如,具有其它形状、大小等的其它视觉指示可以以各种方式显示给与正在参与组通信会话的玩家相关联的化身。例如,正方形、圆形或其它形状可以包围每个这样的化身。附加地或可选地,在其它示例中,与正在参与的玩家相关联的化身可以以独特的方式在视觉上增强,诸如通过发光或脉冲,以特定颜色或高亮来显示等。
在一些示例中,可以显示一个或多个附加或可选的视觉指示标以表示特定组通信会话的功能特性。现在参照图4,在一个示例中,可以与每个组光环360一起显示附加音频聊天指示标364,以向用户16指示呈实时音频交换形式的组通信会话当前正针对第一接收方Amy、第二接收方Ben和第三接收方Carlos中的每一个是活跃的。在组通信会话包括交换诸如流式视频的其它类型的数据的其它示例中,可以显示不同的功能特性指示标。
另外,如图3所示,用户16可以将第一化身350、第二化身354、第三化身358和第四化身362中的每一个定位在起居室300中的任意期望位置。有利地,如图3的示例所示,用户16可以将每一个化身定位在不妨碍(否则,会损害)显示多玩家游戏的游戏过程的显示器316的用户视图的位置。以这种方式,用户可以对显示器316和相关联的游戏过程进行无障碍的视觉访问,而同时还容易且快速地看到哪些玩家正在参与组通信会话。
在一些示例中,用户16可能期望与组通信会话中的一个或多个玩家进行私有通信会话。在一个示例中,用户16最初可以参加与第一接收方Amy、第二接收方Ben和第三接收方Carlos的组通信会话。在这种组通信会话中,用户16的HMD设备100可以将诸如音频数据的初始内容从HMD设备向与第一接收方Amy、第二接收方Ben和第三接收方Carlos相对应的不同的接收方计算设备的每一个发送。类似地,来自接收方计算设备的每一个的音频数据可以被向其它接收方计算设备和HMD设备100发送。
随后,用户16可能期望与第三接收方Carlos进行私有通信会话。为了建立这种私有通信会话,用户16可以如虚线370所示注视第三化身358。HMD设备100的注视跟踪系统可以确定用户16正在以触发创建私有通信会话的方式注视对应于接收方Carlos的第三化身358。例如,注视跟踪系统可以确定用户16注视第三化身358的时间段大于预定的触发时间段。在其它示例中,可以利用任意合适的注视相关标准来触发私有通信会话。基于确定用户正在注视第三化身358,HMD设备100和/或游戏控制台308可以在HMD设备100和与所选择的化身和Carlos相关联的第三接收方计算设备28之间建立的私有通信会话。
在这种私有通信会话期间,后续内容(诸如由HMD设备100捕捉的音频数据)可以从HMD设备100向第三接收方计算设备28发送,而不向与参与组通信会话的其它化身及其相应接收者相关联的其它接收方计算设备发送。类似地,接收方内容(诸如由第三接收方计算设备28捕捉的音频数据)可以通过HMD设备100从第三接收方计算设备28接收,而这种接收方内容既不向与参与组通信会话的其它化身及其相应接收方的其它接收方计算设备发送,也不被其它接收方计算设备接收。以这种方式,用户16可以通过简单地注视Carlos的化身来容易且方便地建立与Carlos的私有通信会话。
在一些示例中,可以与所选择的、对应于参与私有通信会话的接收方计算设备的化身一起显示私有通信会话的视觉指示。在图3的示例中,在与对应于第三化身358的第三接收方计算设备28建立私有通信会话时,可以通过HMD设备100、与第三化身358一起显示呈字母P形式的私有通信会话的视觉指示。以这种方式,可以快速通知用户16与第三接收方Carlos的私有通信会话正在进行中。应该理解的是,可以利用许多其它形式、形状和视觉指示来可视地传达与特定化身/接收方的私有通信会话的存在。
以类似的方式,私有通信会话的视觉指示可以通过第三接收方计算设备28向第三接收方Carlos显示,诸如通过将字母P与表示用户16的化身一起显示。在一些示例中,组通信会话的其他参与者还可以看到用户16和Carlos正在参加私有通信会话的显示指示。在其它示例中,不向组通信会话的其他参与者提供用户16和Carlos正在参加私有通信会话的指示,从而使得用户和Carlos能够私下通信而不警告其他参与者。
在一些示例中,在私有通信会话期间共享的内容可以被修改以向接收方指示内容被作为私有通信会话的一部分进行交换。在内容包括表示由HMD设备100捕捉的用户16的语音的音频数据的一个示例中,与音频数据作为组通信会话的一部分被广播相比,这种音频数据可以被修改以使其在听觉上与作为私有通信会话的一部分被广播时不同。
例如,在用户16和第三接收方Carlos正在进行口头对话作为私有通信会话的一部分情况下,用户的语音的音频可以在向第三接收方计算设备28发送之前被改变,诸如通过自动-调节或以其它方式调制音频信号。以这种方式,当这种经修改的音频经由第三接收方计算设备28向Carlos广播时,Carlos可以快速辨别音频的改变的性质,从而可以被警告他们的对话是私有通信会话的一部分。在其它示例中,与音频作为组通信会话的一部分被广播相比,音频的一个或多个其它品质和/或特性可以被修改以使广播的音频不同。例如,来自私有通信会话的音频可以被修改以具有较低的声音品质(例如,使声音更具颗粒感/沙哑)。
继续用户16和第三接收方Carlos正在进行作为私有通信会话的一部分的口头对话的示例,HMD设备100可以接收以由第三接收方计算设备28捕捉的表示Carlos的语音的音频数据形式的接收方内容。在一些示例中,来自第三接收方计算设备28的这种音频数据可以由HMD设备100以如下方式向用户16广播,以使得用户将音频数据感知为源自起居室300中的相应的第三化身358的位置。例如,HMD设备100的立体声扬声器可以产生三维音频输出,该三维音频输出包括提供声音源自起居室300中的特定位置的错觉的音频输出。在图3的示例中,来自第三接收方计算设备28的音频数据可以由HMD设备100广播作为使得用户16将音频数据感知为源自起居室300中的第三化身358的三维音频输出。
为了创建这种空间定位的音频输出,在一些示例中,一个或多个串扰消除机制被配置为将第一音频信号(例如,左声道)传递到第一耳朵(例如,左耳朵)和将第二音频信号(例如,右声道)传递到第二耳朵(例如,右耳),而同时实质上衰减第一音频信号到第二耳朵的传送以及第二音频信号到第一耳朵的传送。三维音频的提供可以基于头部相关的传递函数“HRTF”和/或头部相关的脉冲响应“HRTR”,以产生声音源自3D声学空间中的特定位置的错觉。HRTF描述了给定的声波输入在声音到达鼓膜和内耳之前是如何通过头部和耳廓的衍射和反射特性来被过滤的。换言之,可以基于自由空气中的声音与到达鼓膜时的声音之间的差来定义HRTF。
在一些示例中,基于确定用户正在注视所选择的化身,所选择的化身可以被改变为来自与所选择的化身相关联的接收方计算设备的实时视频馈送。现在从参照图3和图5,在一个示例中,HMD设备100可以确定用户16正在注视第三化身358。作为响应并且参照图5,HMD设备100可以将第三化身358改变为如由第三接收方计算设备28或其它摄像机捕捉的Carlos的实时视频馈送374,以作为建立私有通信会话的一部分。
在一些示例中,HMD设备100可以以世界锁定显示模式向用户16显示全息化身和全息剑持香蕉318。世界锁定全息表示看起来相对于通过HMS设备100可观看的一个或多个真实世界对象是固定的。以这种方式,HMD设备100的穿戴者可以围绕真实世界的物理环境移动,同时将世界锁定全息图感知为相对于物理环境中的真实世界对象保持静止在固定位置和定向中。例如,在组通信会话期间,HMD设备100可以以世界锁定显示模式显示第一化身350、第二化身354、第三化身358和第四化身362中的每一个。
在一些示例中,HMD设备100可以以主体锁定显示模式向用户16显示全息化身和全息剑持香蕉318中的一个或多个。在主体锁定显示模式中,主体锁定全息表示看起来相对于HMD设备100的穿戴者是固定的,并且全息表示的主体锁定位置看起来相对于真实世界对象和其它世界锁定全息图是可移动的。
再次参照图3,在一些示例中,在私有通信会话期间,HMD设备100可以以主体锁定显示模式显示所选择的化身,以看起来相对于用户16是固定的。同时,HMD设备100可以显示以世界锁定显示模式的其它化身,以看起来相对于通过HMD设备可观看的起居室300的真实世界对象是固定的。以这种方式,在本公开的另一可能优点中,可以在用户移动或走动并且所选择的化身由HMD设备以主体锁定模式被显示为看起来相对于用户是固定时,将内容从HMD设备100向接收方计算设备(例如,用户和接收方可以继续对话)发送,。因此,用户可以带动所选择的化身并在用户移动时将其保持在视野内。
例如,参照图3,HMD设备100可以以默认的世界锁定显示模式显示每一个化身。用户16可以注视第二化身354以建立与第二接收方Ben的私有通信会话。用户16还可以使HMD设备100以主体锁定显示模式显示第二化身354,同时其它化身保持以世界锁定显示模式显示。例如,用户可以在注视第二化身354的同时说出口头命令(即,“以主体锁定显示”),以触发主体锁定显示模式。在其它示例中,通过注视第二化身354来建立私有通信会话可以以编程方式使HMD设备100以主体锁定显示模式显示化身,同时以世界锁定显示模式保持其它化身。
通过以主体锁定显示模式显示第二化身354,在一些示例中,用户16可以在保持与第二化身的视觉接触的同时在起居室300移动和/或步行到其它房间或物理空间。例如,在主体锁定显示模式中,第二化身354可以看起来相对于用户16固定,好像化身被安装到从HMD设备100延伸的不可见杆的端部。在一些示例中,用户16可以将以主体锁定显示模式的第二化身354的位置调整到相对于HMD设备100的任意期望位置。
图6A和6B示出了根据本公开的示例的用于将内容从用户计算设备向至少一个接收方计算设备发送的方法600。参照上文描述并在图1-2中示出的用户计算设备和接收方计算设备的软件和硬件组件来提供方法600的以下描述。应该理解的是,方法600还可以在各种其它上下文中并使用其它合适的硬件和软件组件来执行。
在604处,方法600可以包括向用户计算设备的用户显示多个化身,其中每一个化身中表示不同的接收方,并且不同的接收方中的每一个与不同的接收方计算设备相关联。在608处,方法600可以包括在用户计算设备和不同的接收方计算设备中的每一个之间建立组通信会话。在组通信会话期间,方法600可以包括:在612处,将初始内容从用户计算设备向不同的接收方计算设备中的每一个接收方计算设备发送;在616处,确定用户计算设备的用户正在注视多个化身中的所选择的化身;在620处,基于确定用户正在注视所选择的化身,在用户计算设备和与所选择的化身相关联的接收方计算设备之间建立私有通信会话;并且在624处,在私有通信会话期间,将后续内容从用户计算设备向与所选择的化身相关联的接收方计算设备发送,而不将后续内容向与多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备发送。
在628处,方法600可以包括:在私有通信会话期间,从与所选择的化身相关联的接收方计算设备接收接收方内容,其中接收方内容不被与多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备接收。在632处,方法600可以包括,在接收方内容包括音频数据的情况下,以使得用户将音频数据感知为源自三维物理环境中的所选择的化身的位置的方式向用户广播音频数据。
现在参照图6B,在636处,方法600可以包括其中初始内容包括由用户计算设备捕捉的表示用户的语音的初始音频数据。在640处,方法600可以包括在后续内容包括由用户计算设备随后捕捉的表示用户的语音的后续音频数据的情况下,修改后续音频数据以使其在广播时与在广播时的初始音频数据相比在听觉上不同。在644处,方法600可以包括其中用户计算设备是头戴式显示设备,其包括用户通过其观看三维物理环境的至少部分透视的显示器,并且多个化身是经由头戴式显示设备显示以出现在三维物理环境中的全息图。
在648处,方法600可以包括经由头戴式显示设备显示所选择的化身以看起来相对于用户是固定的。在652处,方法600可以包括经由头戴式显示设备显示一个或多个其它化身,以看起来相对于通过头戴式显示设备可查看的真实世界对象是固定的。在656处,方法600可以包括,在私有通信会话期间,当用户在三维物理环境中移动时,将后续内容从用户计算设备向接收方计算设备发送,并且所选择的化身被显示为看起来相对于用户是固定的。
在660处,方法600可以包括与所选择的化身一起显示私有通信会话的视觉指示。在664处,方法600可以包括在组通信会话期间,与多个化身中的每一个一起显示分组指示。在668处,方法600可以包括,基于确定用户正在注视所选择的化身,将所选择的化身改变为来自与所选择的化身相关联的接收方计算设备的实时视频馈送。
应该理解的是,本文描述的配置和/或方法本质上是示例性的,并且这些特定实施例或示例不应该被视为具有限制意义,因为许多变型是可能的。这里描述的特定例程或方法可以表示任意数量的进程策略中的一个或多个。这样,所示出和/或描述的各个动作可以以所示和/或描述的顺序、以其它顺序、并行或省略来执行。同样,可以改变上述进程的顺序。
图7示意性地示出了可以实施上述方法和进程中的一个或多个的计算系统700的非限制性实施例。计算系统700以简化形式示出。计算系统700可以采用如图1所示的用户计算设备14、服务器32或接收方计算设备、图2所示的计算设备124、或集成在HMD设备100中或与HMD设备100通信地耦接的一个或多个其它设备(例如,个人计算机、服务器计算机、平板计算机、家庭娱乐计算机、网络计算设备、游戏设备、移动计算设备、移动通信设备(例如,智能手机)和/或其它计算设备)的形式。
计算系统700包括逻辑处理器704、易失性存储器708和非易失性存储设备712。计算系统700可选地可以包括显示子系统716、输入子系统720、通信子系统724和/或图7中未示出的其它组件。
逻辑处理器704包括被配置为执行指令的一个或多个物理设备。例如,逻辑处理器可以被配置为执行作为一个或多个应用、程序、例程、库、目标、组件、数据结构或其它逻辑构造的一部分的指令。可以实施这种指令以执行任务、实施数据类型、转换一个或多个组件的状态、实现技术效果、或以其它方式达到期望的结果。
逻辑处理器可以包括被配置为执行软件指令的一个或多个物理处理器(硬件)。附加地或可选地,逻辑处理器可以包括被配置为执行硬件实施的逻辑或固件指令的一个或多个硬件逻辑电路或固件设备。逻辑处理器704的处理器可以是单核或多核,并且在其上执行的指令可以被配置以用于顺序、并行和/或分布式处理。逻辑处理器的各个组件可选地可以分布在两个或更多分开的设备中,这些设备可以远程定位和/或配置以用于协同处理。逻辑处理器的方面可以由在云计算配置中配置的远程可访问的联网计算设备虚拟化并执行。在这种情况下,这些虚拟化方面可以在各个不同机器的不同物理逻辑处理器上运行。
易失性存储器708可以包括包含随机存取存储器的物理设备。易失性存储器708通常由逻辑处理器704利用以在软件指令的处理期间临时存储信息。应该理解的是,当切断易失性存储器708的电源时,易失性存储器708通常不继续存储指令。
非易失性存储设备712包括一个或多个物理设备,其被配置为保持由逻辑处理器可执行的指令以实施本文描述的方法和进程。当实施这种方法和进程时,可以转换非易失性存储设备712的状态——例如,以保持不同的数据。
非易失性存储设备712可以包括可移除和/或内置的物理设备。非易失性存储设备712可以包括光学存储器(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器(例如,ROM、EPROM、EEPROM、FLASH存储器等)、和/或磁存储器(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)、或其它大容量存储设备技术。非易失性存储设备712可以包括非易失性、动态、静态、读取/写入、只读、顺序访问、位置可寻址、文件可寻址和/或内容可寻址设备。应该理解的是,非易失性存储设备712被配置为即使在切断非易失性存储设备712的电源时也保持指令。
逻辑处理器704、易失性存储器708和非易失性存储设备712的方面可以一起集成到一个或多个硬件逻辑组件中。这种硬件逻辑组件可以包括例如现场可编程门阵列(FPGA)、可编程和专用集成电路(PASIC/ASIC)、程序和专用标准产品(PSSP/ASSP)、片上系统(SOC)和复杂可编程逻辑设备(CPLD)。
术语“程序”可以用于描述计算系统700实施以执行特定功能的方面。在一些情况下,可以使用易失性存储器708的部分,经由执行由非易失性存储设备712保持的指令的逻辑处理器704来实例化程序。应该理解的是,可以从相同的应用、服务、代码块、目标、库、例程、API、函数等实例化不同的程序。同样,可以由不同的应用、服务、代码块、目标、例程、API、函数等实例化相同的程序。术语“程序”包括可执行文件、数据文件、库、驱动器、脚本、数据库记录等中的各个或组。
当包括显示子系统716时,显示子系统716可用于呈现由非易失性存储设备712保持的数据的视觉表示。如本文所描述的方法和进程改变由非易失性存储设备保持的数据,并因此转换非易失性存储设备的状态,显示子系统716的状态可以同样被转换以在视觉上表示底层数据的变化。显示子系统716可以包括利用几乎任意类型的技术的一个或多个显示设备。这种显示设备可以与共享封装中的逻辑处理器704、易失性存储器708和/或非易失性存储设备712组合。关于图2的示例HMD设备100,被配置为通过显示诸如全息图的虚拟对象在视觉上增强现实世界三维物理环境的外观的显示面板104R和104L是显示子系统716的示例。
当包括输入子系统720时,输入子系统720可以包括一个或多个用户输入设备或与一个或多个用户输入设备接口连接。在一些实施例中,输入子系统可以包括所选择的自然用户输入(NUI)组件或与所选择的自然用户输入(NUI)组件接口连接。这种组件可以是集成的或外围的,并且输入动作的转换和/或处理可以在板上或板外处理。示例NUI组件可以包括用于语音和/或讲话识别的麦克风;用于机器视觉和/或手势识别的红外、彩色、立体和/或深度摄像机;用于运动检测的头部跟踪器、眼睛跟踪器、加速度计和/或陀螺仪、注视检测和/或意图识别;用于评估大脑活动的电场感知组件;以上关于HMD设备100描述的任意传感器;和/或任意其它合适的传感器。
当包括通信子系统724时,通信子系统724可以被配置为将计算系统700与一个或多个其它计算设备通信地耦接。通信子系统724可以包括与一个或多个不同通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统可以被配置以用于经由无线电话网络或有线或无线局域网或广域网进行通信。在一些实施例中,通信子系统可以允许计算系统700经由诸如因特网的网络向其它设备发送消息和/或从其它设备接收消息。
以下段落为本申请的权利要求提供附加的支持。一个方面提供了一种用于将内容从用户计算设备向至少一个接收方计算设备发送的方法,该方法包括:向用户计算设备的用户显示多个化身,其中多个化身中的每一个化身表示不同的接收方,并且不同的接收方中的每一个接收方与不同的接收方计算设备相关联;在用户计算设备和不同的接收方计算设备中的每一个接收方计算设备之间建立组通信会话;以及在组通信会话期间:将初始内容从用户计算设备向不同的接收方计算设备中的每一个接收方计算设备发送;确定用户计算设备的用户正在注视多个化身中的所选择的化身;基于确定用户正在注视所选择的化身,在用户计算设备和与所选择的化身相关联的接收方计算设备之间建立私有通信会话;以及在私有通信会话期间,将后续内容从用户计算设备向与所选择的化身相关联的接收方计算设备发送,而不将后续内容向与多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备发送。该方法可以附加地或可选地包括:在私有通信会话期间,从与所选择的化身相关联的接收方计算设备接收接收方内容,其中接收方内容不被与多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备接收。方法可以附加地或可选地包括:其中接收方内容包括音频数据,以使得用户将音频数据感知为源自三维物理环境中的所选择的化身的位置的方式向用户广播音频数据。方法可以附加地或可选地包括:其中初始内容包括由用户计算设备捕捉的表示用户的语音的初始音频数据。方法可以附加地或可选地包括:其中后续内容包括由用户计算设备随后捕捉的表示用户的语音的后续音频数据,修改后续音频数据以使其在广播时与在广播时的初始音频数据相比在听觉上不同。方法可以附加地或可选地包括:其中用户计算设备是头戴式显示设备,其包括至少部分透视的显示器,用户通过该至少部分透视的显示器观看三维物理环境,并且多个化身是经由头戴式显示设备显示以出现在三维物理环境中的全息图。方法可以附加地或可选地包括:其中用户计算设备是头戴式显示设备,其包括至少部分透视的显示器,用户通过该至少部分透视的显示器观看三维物理环境:经由头戴式显示器将所选择的化身显示为看起来相对于用户是固定的;经由头戴式显示设备显示一个或多个其它化身,以看起来相对于通过头戴式显示设备可观看的真实世界对象是固定的;并且在私有通信会话期间,当用户在三维物理环境中移动并且所选择的化身被显示为看起来相对于用户是固定时,将后续内容从用户计算设备向接收方计算设备发送。方法可以附加地或可选地包括:与所选择的化身一起显示私有通信会话的视觉指示。方法可以附加地或可选地包括:在组通信会话期间,与多个化身中的每一个一起显示分组指示。方法可以附加地或可选地包括:基于确定用户正在注视所选择的化身,将所选择的化身改变为来自与所选择的化身相关联的接收方计算设备的实时视频馈送。
另一方面提供了一种头戴式显示设备,包括:至少部分透视的显示器;处理器;以及存储器,存储器保持由处理器可执行的指令以:经由至少部分透视的显示器向头戴式显示设备的用户显示多个化身,其中多个化身中的每一个化身表示不同的接收方,并且不同的接收方中的每一个接收方与不同的接收方计算设备相关联;在头戴式显示设备和不同的接收计算设备中的每一个接收计算设备之间建立组通信会话;以及在组通信会话期间:将初始内容从头戴式显示设备向不同的接收方计算设备中的每一个接收方计算设备发送;确定头戴式显示设备的用户正在注视多个化身中的所选择的化身;基于确定用户正在注视所选择的化身,在头戴式显示设备和与所选择的化身相关联的接收方计算设备之间建立私有通信会话;在私有通信会话期间,将来自头戴式显示设备的后续内容向与所选择的化身相关联的接收方计算设备发送,而不将后续内容向与多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备发送。头戴式显示设备可以附加地或可选地包括:其中指令由处理器可执行以在私有通信会话期间从与所选择的化身相关联的接收方计算设备接收接收方内容,其中接收方内容不被与多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备接收。头戴式显示设备可以附加地或可选地包括:其中接收方内容包括音频数据,并且指令由处理器可执行以将音频数据以使得用户将音频数据感知为源自三维物理环境中的所选择的化身的位置的方式向用户广播。头戴式显示设备可以附加地或可选地包括:其中初始内容包括由头戴式显示设备捕捉的表示用户的语音的初始音频数据。头戴式显示设备可以附加地或可选地包括:其中后续内容包括由头戴式显示设备随后捕捉的表示用户的语音的后续音频数据,并且指令由处理器可执行以将后续音频数据修改为在广播时与在广播时的初始音频数据相比在听觉上不同。头戴式显示设备可以附加地或可选地包括:其中多个化身是显示以出现在由用户通过至少部分透明的显示器观看的三维物理环境中的全息图。头戴式显示设备可以附加地或可选地包括:其中指令由处理器可执行以:显示所选择的化身以看起来相对于用户是固定的;显示一个或多个其它化身以看起来相对于通过至少部分透视的显示器可观看的真实世界对象是固定的;以及在私有通信会话期间,当用户在三维物理环境中移动时,将后续内容从头戴式显示设备向接收方计算设备发送,并且所选择的化身被显示为看起来相对于用户是固定的。头戴式显示设备可以附加地或可选地包括:其中指令由处理器可执行以与所选择的化身一起显示私有通信会话的视觉指示。头戴式显示设备可以附加地或可选地包括:其中指令由处理器可执行以基于确定用户正在注视所选择的化身,将所选择的化身改变为来自与所选择的化身相关联的接收方计算设备的实时视频馈送。
另一方面提供了一种头戴式显示设备,包括:至少部分透视的显示器;处理器;以及存储器,存储器保持由处理器可执行的指令以:经由至少部分透视的显示器向头戴式显示设备的用户显示多个化身,其中多个化身中的每一个表示不同的接收方,并且不同的接收方中的每一个接收方与不同的接收方计算设备相关联;在头戴式显示设备和不同的接收计算设备中的每一个接收计算设备之间建立组通信会话;以及在组通信会话期间:将初始内容从头戴式显示设备向不同的接收方计算设备中的每一个接收方计算设备发送;确定头戴式显示设备的用户正在注视多个化身中的所选择的化身;基于确定用户正在注视所选择的化身,在头戴式显示设备和与所选择的化身相关联的接收方计算设备之间建立私有通信会话;在私有通信会话期间,与所选择的化身一起显示私有通信会话的视觉指示;在私有通信会话期间,将来自头戴式显示设备的后续内容向与所选择的化身相关联的接收方计算设备发送,而不将后续内容向与多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备发送。
应该理解的是,本文描述的配置和/或方法本质上是示例性的,并且这些特定实施例或示例不应该被视为具有限制意义,因为许多变型是可能的。这里描述的特定例程或方法可以表示任意数量的处理策略中的一个或多个。这样,所示出的各个动作可以以所示顺序、以其它顺序、并行或在一些情况下被省略来执行。同样,可以改变上述进程的顺序。
本公开的主题包括本文公开的各个进程、系统和配置以及其它特征、功能、动作和/或性质的所有新颖和非显而易见的组合和子组合以及其任意和所有等同物。

Claims (10)

1.一种用于将内容从用户计算设备向至少一个接收方计算设备发送的方法,所述方法包括:
向所述用户计算设备的用户显示多个化身,其中所述多个化身中的每个化身表示不同的接收方,并且所述不同的接收方中的每个接收方与不同的接收方计算设备相关联;
在所述用户计算设备和所述不同的接收方计算设备中的每个接收方计算设备之间建立组通信会话;以及
在所述组通信会话期间:
将初始内容从所述用户计算设备向所述不同的接收方计算设备中的每一个接收方计算设备发送;
确定所述用户计算设备的所述用户正在注视所述多个化身中的所选择的化身;
基于确定所述用户正在注视所选择的化身,在所述用户计算设备和与所选择的化身相关联的所述接收方计算设备之间建立私有通信会话;以及
在所述私有通信会话期间,将后续内容从所述用户计算设备向与所选择的化身相关联的所述接收方计算设备发送,而不将所述后续内容向与所述多个化身中的一个或多个其它化身相关联的一个或多个其他接收方计算设备发送。
2.根据权利要求1所述的方法,进一步包括在所述私有通信会话期间,从与所选择的化身相关联的所述接收方计算设备接收接收方内容,其中所述接收方内容不被与所述多个化身中的一个或多个其它化身相关联的所述一个或多个其它接收方计算设备接收。
3.根据权利要求2所述的方法,其中所述接收方内容包括音频数据,所述方法进一步包括以使得用户将所述音频数据感知为源自所选择的化身在三维物理环境中的位置的方式向所述用户广播所述音频数据。
4.根据权利要求1所述的方法,其中所述初始内容包括由所述用户计算设备捕捉的表示所述用户的语音的初始音频数据。
5.根据权利要求4所述的方法,其中所述后续内容包括由所述用户计算设备随后捕捉的表示所述用户的语音的后续音频数据,并且所述方法进一步包括修改所述后续音频数据以使其在广播时与在广播时的所述初始音频数据相比在听觉上不同。
6.一种头戴式显示设备,包括:
至少部分透视的显示器;
处理器;以及
存储器,保持能够由所述处理器执行的指令以:
经由所述至少部分透视的显示器向所述头戴式显示设备的用户显示多个化身,其中所述多个化身中的每个化身表示不同的接收方,并且所述不同的接收方中的每个接收方与不同的接收方计算设备相关联;
在所述头戴式显示设备和所述不同的接收计算设备中的每个接收计算设备之间建立组通信会话;以及
在所述组通信会话期间:
将初始内容从所述头戴式显示设备向所述不同的接收方计算设备中的每个接收方计算设备发送;
确定所述头戴式显示设备的所述用户正在注视所述多个化身中的所选择的化身;
基于确定所述用户正在注视所选择的化身,在所述头戴式显示设备和与所选择的化身相关联的所述接收方计算设备之间建立私有通信会话;以及
在所述私有通信会话期间,将来自所述头戴式显示设备的后续内容向与所选择的化身相关联的所述接收方计算设备发送,而不将所述后续内容向与所述多个化身中的一个或多个其它化身相关联的一个或多个其它接收方计算设备发送。
7.根据权利要求6所述的头戴式显示设备,其中所述多个化身是显示为出现在由所述用户通过所述至少部分透明的显示器观看的三维物理环境中的全息图。
8.根据权利要求6所述的头戴式显示设备,其中所述指令能够由所述处理器执行以:
将所选择的化身显示为看起来相对于所述用户是固定的;
将所述一个或多个其它化身显示为看起来相对于能够通过至少部分透视的显示器观看的真实世界对象是固定的;以及
在所述私有通信会话期间,当所述用户在所述三维物理环境中移动并且所选择的化身被显示为看起来相对于所述用户是固定时,将所述后续内容从所述头戴式显示设备向所述接收方计算设备发送。
9.根据权利要求6所述的头戴式显示设备,其中所述指令能够由所述处理器执行以与所选择的化身一起显示所述私有通信会话的视觉指示。
10.根据权利要求6所述的头戴式显示设备,其中所述指令能够由所述处理器执行以基于确定用户正在注视所选择的化身,将所选择的化身改变为来自与所选择的化身相关联的所述接收方计算设备的实时视频馈送。
CN201780045577.6A 2016-07-29 2017-07-20 通过注视化身的私有通信 Active CN109479010B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/224,291 US10572005B2 (en) 2016-07-29 2016-07-29 Private communication with gazing
US15/224,291 2016-07-29
PCT/US2017/042958 WO2018022392A1 (en) 2016-07-29 2017-07-20 Private communication by gazing at avatar

Publications (2)

Publication Number Publication Date
CN109479010A true CN109479010A (zh) 2019-03-15
CN109479010B CN109479010B (zh) 2021-04-30

Family

ID=59501582

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780045577.6A Active CN109479010B (zh) 2016-07-29 2017-07-20 通过注视化身的私有通信

Country Status (4)

Country Link
US (1) US10572005B2 (zh)
EP (1) EP3491781B1 (zh)
CN (1) CN109479010B (zh)
WO (1) WO2018022392A1 (zh)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US10848899B2 (en) * 2016-10-13 2020-11-24 Philip Scott Lyren Binaural sound in visual entertainment media
US10466777B2 (en) * 2016-12-07 2019-11-05 LogMeln, Inc. Private real-time communication between meeting attendees during a meeting using one or more augmented reality headsets
GB2557594B (en) * 2016-12-09 2020-01-01 Sony Interactive Entertainment Inc Image processing system and method
JP6212667B1 (ja) * 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
US10747386B2 (en) * 2017-06-01 2020-08-18 Samsung Electronics Co., Ltd. Systems and methods for window control in virtual reality environment
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
JP7234499B2 (ja) * 2018-03-20 2023-03-08 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10917735B2 (en) * 2018-05-11 2021-02-09 Facebook Technologies, Llc Head-related transfer function personalization using simulation
US10843077B2 (en) * 2018-06-08 2020-11-24 Brian Deller System and method for creation, presentation and interaction within multiple reality and virtual reality environments
US10567744B1 (en) * 2018-09-24 2020-02-18 Cae Inc. Camera-based display method and system for simulators
US10567743B1 (en) * 2018-09-24 2020-02-18 Cae Inc. See-through based display method and system for simulators
CN110942518B (zh) 2018-09-24 2024-03-29 苹果公司 上下文计算机生成现实(cgr)数字助理
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11308716B1 (en) * 2018-09-27 2022-04-19 Apple Inc. Tailoring a computer-generated reality experience based on a recognized object
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11245658B2 (en) * 2018-09-28 2022-02-08 Snap Inc. System and method of generating private notifications between users in a communication session
US10739726B2 (en) * 2018-10-03 2020-08-11 International Business Machines Corporation Audio management for holographic objects
EP3702008A1 (en) * 2019-02-27 2020-09-02 Nokia Technologies Oy Displaying a viewport of a virtual space
US11055918B2 (en) * 2019-03-15 2021-07-06 Sony Interactive Entertainment Inc. Virtual character inter-reality crossover
CN113646731A (zh) * 2019-04-10 2021-11-12 苹果公司 用于参与共享布景的技术
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11812194B1 (en) * 2019-06-21 2023-11-07 Apple Inc. Private conversations in a virtual setting
US11269407B2 (en) * 2020-01-30 2022-03-08 Dell Products L.P. System and method of determining attributes of a workspace configuration based on eye gaze or head pose
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US20230230416A1 (en) * 2020-06-24 2023-07-20 Hewlett-Packard Development Company, L.P. Establishing private communication channels
EP3936978B1 (en) * 2020-07-08 2023-03-29 Nokia Technologies Oy Object display
US11106328B1 (en) * 2020-07-28 2021-08-31 Qualcomm Incorporated Private control interfaces for extended reality
JP2022042227A (ja) * 2020-09-02 2022-03-14 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
US11112945B1 (en) 2020-09-30 2021-09-07 Snap Inc. Content detection and transmission in response to receiving user interactions
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US20230045759A1 (en) * 2021-08-04 2023-02-09 Meta Platforms Technologies, Llc 3D Calling Affordances
US20230146178A1 (en) * 2021-11-11 2023-05-11 Kickback Space Inc. Attention based audio adjustment in virtual environments
US20230224667A1 (en) * 2022-01-10 2023-07-13 Sound United Llc Virtual and mixed reality audio system environment correction
CN114785752B (zh) * 2022-05-17 2023-12-15 北京蜂巢世纪科技有限公司 基于头戴式显示设备的加群方法、设备及介质
GB2620175A (en) * 2022-06-30 2024-01-03 Sony Interactive Entertainment Europe Ltd Representing virtual objects outside of a display screen
US20240070950A1 (en) * 2022-08-23 2024-02-29 Snap Inc. Avatar call on an eyewear device
US20240139635A1 (en) * 2022-10-28 2024-05-02 Sony Interactive Entertainment Inc. Methods and systems for assistive chat interactivity
WO2024110779A1 (en) 2022-11-24 2024-05-30 Viewpointsystem Gmbh Method for triggering actions in the metaverse or virtual worlds

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1725742A (zh) * 2004-07-23 2006-01-25 国际商业机器公司 用于在即时消息传送中发出消息通知的方法和系统
CN101022481A (zh) * 2007-03-21 2007-08-22 华为技术有限公司 实现多点会议中私有会话的方法及装置
WO2013033842A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
US20140129161A1 (en) * 2012-11-07 2014-05-08 Cenergistic Inc. Interval analysis tool for energy consumption
EP2930882A1 (en) * 2014-04-04 2015-10-14 BlackBerry Limited System and method for conducting private messaging

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003201032A1 (en) 2002-01-07 2003-07-24 Stephen James Crampton Method and apparatus for an avatar user interface system
US7386799B1 (en) 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US20090063995A1 (en) 2007-08-27 2009-03-05 Samuel Pierce Baron Real Time Online Interaction Platform
WO2009146130A2 (en) * 2008-04-05 2009-12-03 Social Communications Company Shared virtual area communication environment based apparatus and methods
US9443228B2 (en) * 2011-06-24 2016-09-13 Google Inc. Graphical user interface display which differentiates among participants in a group conversation
US8963805B2 (en) * 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US20140125698A1 (en) * 2012-11-05 2014-05-08 Stephen Latta Mixed-reality arena
US20140128161A1 (en) * 2012-11-06 2014-05-08 Stephen Latta Cross-platform augmented reality experience
US9443354B2 (en) * 2013-04-29 2016-09-13 Microsoft Technology Licensing, Llc Mixed reality interactions
US10430018B2 (en) * 2013-06-07 2019-10-01 Sony Interactive Entertainment Inc. Systems and methods for providing user tagging of content within a virtual scene
US9466266B2 (en) * 2013-08-28 2016-10-11 Qualcomm Incorporated Dynamic display markers
US20150119130A1 (en) * 2013-10-31 2015-04-30 Microsoft Corporation Variable audio parameter setting
US9804753B2 (en) 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
US9430038B2 (en) 2014-05-01 2016-08-30 Microsoft Technology Licensing, Llc World-locked display quality feedback
EP3998596A1 (en) * 2014-09-08 2022-05-18 Simx LLC Augmented reality simulator for professional and educational training
US10802577B2 (en) * 2015-06-04 2020-10-13 Microsoft Technology Licensing, Llc Establishing voice communication channel
US9420013B1 (en) * 2015-06-23 2016-08-16 Ringcentral, Inc. Method, device and system for providing historical communication content
US10186086B2 (en) * 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
US9451210B1 (en) * 2015-12-10 2016-09-20 Google Inc. Directing communications using gaze interaction
US11163358B2 (en) * 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
US11181990B2 (en) * 2016-03-18 2021-11-23 Sony Interactive Entertainment Inc. Spectator view tracking of virtual reality (VR) user in VR environments
US10403082B2 (en) * 2016-04-12 2019-09-03 Igt Canada Solutions Ulc Systems and methods for providing private sound from a wagering gaming machine via modulated ultrasound
US10250720B2 (en) * 2016-05-05 2019-04-02 Google Llc Sharing in an augmented and/or virtual reality environment
US10275023B2 (en) * 2016-05-05 2019-04-30 Google Llc Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1725742A (zh) * 2004-07-23 2006-01-25 国际商业机器公司 用于在即时消息传送中发出消息通知的方法和系统
CN101022481A (zh) * 2007-03-21 2007-08-22 华为技术有限公司 实现多点会议中私有会话的方法及装置
WO2013033842A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
US20140129161A1 (en) * 2012-11-07 2014-05-08 Cenergistic Inc. Interval analysis tool for energy consumption
EP2930882A1 (en) * 2014-04-04 2015-10-14 BlackBerry Limited System and method for conducting private messaging

Also Published As

Publication number Publication date
WO2018022392A1 (en) 2018-02-01
EP3491781A1 (en) 2019-06-05
CN109479010B (zh) 2021-04-30
US10572005B2 (en) 2020-02-25
EP3491781B1 (en) 2020-08-19
US20180034867A1 (en) 2018-02-01

Similar Documents

Publication Publication Date Title
CN109479010A (zh) 通过注视化身的私有通信
JP7419460B2 (ja) Vr観戦のための拡大された視野再レンダリング
JP7258864B2 (ja) エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング
JP7164630B2 (ja) 予測サッカード着地点に基づく動的グラフィックスレンダリング
US11079999B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
US11861059B2 (en) System and method for generating a virtual reality scene based on individual asynchronous motion capture recordings
US12015818B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, video distribution method, and storage medium storing thereon video distribution program
US10545339B2 (en) Information processing method and information processing system
CN109643161A (zh) 动态进入和离开由不同hmd用户浏览的虚拟现实环境
JP2020518321A (ja) Vr環境への第2の画面の仮想ウィンドウ
EP3201731A1 (en) Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
CN103149689A (zh) 扩充的现实虚拟监视器
CN110270088A (zh) 异步虚拟现实交互
JP7379427B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant