CN112955850A - 用于衰减模拟现实(sr)空间中的联合用户交互的方法和设备 - Google Patents

用于衰减模拟现实(sr)空间中的联合用户交互的方法和设备 Download PDF

Info

Publication number
CN112955850A
CN112955850A CN201980061560.9A CN201980061560A CN112955850A CN 112955850 A CN112955850 A CN 112955850A CN 201980061560 A CN201980061560 A CN 201980061560A CN 112955850 A CN112955850 A CN 112955850A
Authority
CN
China
Prior art keywords
user
avatar
gaze angle
displays
implementations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980061560.9A
Other languages
English (en)
Other versions
CN112955850B (zh
Inventor
A·巴-兹夫
A·H·帕朗吉耶
L·R·德利兹·森特诺
R·耐尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN112955850A publication Critical patent/CN112955850A/zh
Application granted granted Critical
Publication of CN112955850B publication Critical patent/CN112955850B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/75Enforcing rules, e.g. detecting foul play or generating lists of cheating players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

在各种具体实施中,描述了用于衰减SR空间中的联合用户交互的方法和设备。在一个具体实施中,基于对化身社会交互标准的破坏来衰减化身的方法在被提供以递送模拟现实(SR)内容的设备处执行。在一个具体实施中,SR布景中的紧密协作的方法在被提供以递送SR内容的设备处执行。

Description

用于衰减模拟现实(SR)空间中的联合用户交互的方法和设备
技术领域
本公开整体涉及衰减模拟现实布景中的联合用户交互。
背景技术
物理布景是指无需电子系统帮助个体就能够感知和/或个体能够交互的世界。物理布景(例如,物理森林)包括物理元素(例如,物理树、物理结构和物理动物)。个体可直接与物理布景相互作用和/或感知物理布景,诸如通过触摸、视觉、嗅觉、听觉和味觉。
相比之下,模拟现实(SR)布景是指经由电子系统个体能够感知和/或个体能够交互的完全或部分由计算机创建的布景。在SR中,监测个体移动的子集,并且响应于此,以符合一个或多个物理定律的方式使SR布景中的一个或多个虚拟对象的一个或多个属性变化。例如,SR系统可检测到个体向前走几步,并且响应于此,以类似于此类情景和声音在物理布景中会如何变化的方式来调节呈现给个体的图形和音频。也可响应于移动的表示(例如,音频指令)而进行对SR布景中一个或多个虚拟对象的一个或多个属性的修改。
个体可使用他的任何感觉(包括触觉、嗅觉、视觉、味觉和声音)与SR对象进行交互和/或感知SR对象。例如,个体可与创建多维(例如,三维)或空间听觉布景和/或实现听觉透明性的听觉对象进行交互和/或感知听觉对象。多维或空间听觉布景为个体提供了在多维空间中对离散听觉源的感知。在具有或不具有计算机创建的音频的情况下,听觉透明性选择性地结合来自物理布景的声音。在一些SR布景中,个体可仅与听觉对象进行交互和/或仅感知听觉对象。
SR的一个示例是虚拟现实(VR)。VR布景是指被设计为仅包括针对至少一种感觉的计算机创建的感官输入的模拟布景。VR布景包括个体可与之交互和/或对其进行感知的多个虚拟对象。个体可通过在计算机创建的布景内模拟个体动作的子集和/或通过对个体或其在计算机创建的布景内的存在的模拟,来与VR布景中的虚拟对象进行交互和/或感知VR布景中的虚拟对象。
SR的另一个示例是混合现实(MR)。MR布景是指被设计为将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成的模拟布景。在现实谱系上,混合现实布景介于一端的VR布景和另一端的完全物理布景之间并且不包括这些布景。
在一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子系统可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,系统可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
混合现实的一个示例是增强现实(AR)。AR布景是指至少一个虚拟对象叠加在物理布景或其表示之上的模拟布景。例如,电子系统可具有不透明显示器和至少一个成像传感器,成像传感器用于捕获物理布景的图像或视频,这些图像或视频是物理布景的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上显示该组合。个体使用系统经由物理布景的图像或视频间接地查看物理布景,并且观察叠加在物理布景之上的虚拟对象。当系统使用一个或多个图像传感器捕获物理布景的图像,并且使用那些图像在不透明显示器上呈现AR布景时,所显示的图像被称为视频透传。另选地,用于显示AR布景的电子系统可具有透明或半透明显示器,个体可通过该显示器直接查看物理布景。该系统可在透明或半透明显示器上显示虚拟对象,使得个体使用该系统观察叠加在物理布景之上的虚拟对象。又如,系统可包括将虚拟对象投影到物理布景中的投影系统。虚拟对象可例如在物理表面上或作为全息图被投影,使得个体使用该系统观察叠加在物理布景之上的虚拟对象。
增强现实布景也可指其中物理布景的表示被计算机创建的感官信息改变的模拟布景。例如,物理布景的表示的一部分可被以图形方式改变(例如,放大),使得所改变的部分仍可代表一个或多个初始捕获的图像但不是忠实再现的版本。又如,在提供视频透传时,系统可改变传感器图像中的至少一者以施加不同于一个或多个图像传感器捕获的视点的特定视点。再如,物理布景的表示可通过以图形方式将其部分进行模糊处理或消除其部分而被改变。
混合现实的另一个示例是增强虚拟(AV)。AV布景是指计算机创建布景或虚拟布景并入来自物理布景的至少一个感官输入的模拟布景。来自物理布景的一个或多个感官输入可为物理布景的至少一个特征的表示。例如,虚拟对象可呈现由一个或多个成像传感器捕获的物理元素的颜色。又如,虚拟对象可呈现出与物理布景中的实际天气条件相一致的特征,如经由天气相关的成像传感器和/或在线天气数据所识别的。在另一个示例中,增强现实森林可具有虚拟树木和结构,但动物可具有从对物理动物拍摄的图像精确再现的特征。
许多电子系统使得个体能够与各种SR布景进行交互和/或感知各种SR布景。一个示例包括头戴式系统。头戴式系统可具有不透明显示器和一个或多个扬声器。另选地,头戴式系统可以被设计为接收外部显示器(例如,智能电话)。头戴式系统可具有分别用于拍摄物理布景的图像/视频和/或捕获物理布景的音频的一个或多个成像传感器和/或麦克风。头戴式系统也可具有透明或半透明显示器。透明或半透明显示器可结合基板,表示图像的光通过该基板被引导到个体的眼睛。显示器可结合LED、OLED、数字光投影仪、激光扫描光源、硅上液晶,或这些技术的任意组合。透射光的基板可以是光波导、光组合器、光反射器、全息基板或这些基板的任意组合。在一个实施方案中,透明或半透明显示器可在不透明状态与透明或半透明状态之间选择性地转换。又如,电子系统可以是基于投影的系统。基于投影的系统可使用视网膜投影将图像投影到个体的视网膜上。另选地,投影系统还可将虚拟对象投影到物理布景中(例如,投影到物理表面上或作为全息图)。SR系统的其他示例包括平视显示器、能够显示图形的汽车挡风玻璃、能够显示图形的窗口、能够显示图形的镜片、耳机或耳塞、扬声器布置、输入机构(例如,具有或不具有触觉反馈的控制器)、平板电脑、智能电话,以及台式计算机或膝上型计算机。
SR技术允许用户之间的社会交互,即使当用户不物理彼此靠近时也是如此。然而,不存在防止两个虚拟化身试图占据相同虚拟空间的限制。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1示出了根据一些具体实施的由多个用户共享的示例性SR布景。
图2A示出了根据一些具体实施的衰减谱。
图2B示出了根据一些具体实施的用于确定衰减谱的示例性信任度量。
图3示出了根据一些具体实施的音频内容衰减。
图4示出了根据一些具体实施的从各种角度的联合用户交互的衰减。
图5A至图5J示出了根据一些具体实施的SR布景中的用户交互的衰减的示例性用户界面。
图6A至图6D示出了根据一些具体实施的SR布景中的紧密协作的示例性用户界面。
图7是根据一些具体实施的基于对化身社会交互标准的破坏的化身衰减的方法的流程图表示。
图8是根据一些具体实施的SR布景中的联合用户紧密交互的方法的流程图表示。
图9是根据一些具体实施的计算设备的框图。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
发明内容
本文所公开的各种具体实施包括用于基于对一个或多个化身社会交互标准的破坏来在模拟现实(SR)布景中衰减化身的设备、系统和方法。在各种具体实施中,该方法是在被提供为递交SR内容的设备处执行的,该设备包括一个或多个处理器、非暂态存储器、一个或多个显示器以及一个或多个音频扬声器。该方法包括使用一个或多个显示器向第一用户显示SR内容,该SR内容包括与第二用户相关联的化身。该方法还包括确定与该第二用户相关联的该化身的行为是否破坏一个或多个化身社会交互标准。该方法另外包括根据确定该一个或多个化身社会交互标准被破坏,衰减与该第二用户相关联的该化身的至少一部分。
本文公开的各种具体实施包括用于SR布景中的紧密协作的设备、系统和方法。在各种具体实施中,该方法是在被提供为递交SR内容的设备处执行的,该设备包括一个或多个处理器、非暂态存储器、一个或多个显示器以及一个或多个音频扬声器。该方法包括确定该设备的第一用户相对于对象的视线角度。该方法还包括获得第二用户的视线角度和该第二用户相对于该对象的身体姿势。该方法另外包括进行渲染以用于将该第二用户的该身体姿势显示到该第一用户的该视线角度中。
在一些具体实施中,设备包括一个或多个处理器、非暂态存储器以及一个或多个程序;该一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且该一个或多个程序包括用于执行或使执行本文所述方法中的任一种的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,这些指令在由设备的一个或多个处理器执行时使该设备执行或使执行本文所述方法中的任一种。根据一些具体实施,一种设备包括:一个或多个处理器、非暂态存储器以及用于执行或使执行本文所述方法中的任一种的装置。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将理解,其他有效方面和/或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
图1示出了示例性操作布景100,该操作布景是通过多个SR设备104例如SR设备104-A、104-N和104-X等提供给(例如,可用于)多个用户例如用户10-A、10-N和10-X等的共享布景。在一些具体实施中,该SR设备104中的每个SR设备与控制器102相关联。在图1的示例中,该SR设备104中的每个SR设备由用户10佩戴,例如,SR设备104-A由用户10-A佩戴,SR设备104-N由用户10-N佩戴,并且SR设备104-X由用户10-X佩戴等。
在一些具体实施中,每个SR设备104对应于头戴式设备(HMD)、平板电脑、移动电话、可穿戴计算设备等。在一些具体实施中,每个SR设备104被配置为向用户10呈现SR体验。在一些具体实施中,每个SR设备104包括软件、固件和/或硬件的合适组合。
根据一些具体实施,当用户10虚拟地和/或物理地存在于场景106内时,每个SR设备104向用户10呈现SR体验。在一些具体实施中,相应的化身108表示场景106中的用户10,例如,在场景106中,化身108-A表示用户10-A,化身108-N表示用户10-N,并且化身108-X表示用户10-X。如下所述,为了改善用户的体验,化身108之间的一些交互被衰减。另外,如将在下文所述,存在各种程度的衰减。例如,最初,化身108是完全可见的。当一个或多个化身社会交互标准被破坏时,化身108和/或与化身108的行为相关的内容可变得部分不可见、完全不可见、或沿衰减谱介于其间的任何位置。
在一些具体实施中,在呈现SR体验时,SR设备104被配置为呈现SR内容并实现对场景106的视频透传(例如,SR设备104对应于支持SR的移动电话或平板电脑)。在一些具体实施中,在呈现SR体验时,SR设备104被配置为呈现AR内容并实现对场景106的光学透视(例如,SR设备104对应于支持SR的眼镜)。在一些具体实施中,在呈现SR体验时,SR设备104被配置为呈现SR内容并任选地实现对场景106的视频透传(例如,SR设备104对应于支持SR的HMD)。
在一些具体实施中,用户10将SR设备104佩戴到他/她的头部(例如,如图1所示)。因此,该SR设备104包括被提供用于显示SR内容的一个或多个显示器。例如,SR设备104围出了用户10的视场。在一些具体实施中,采用被配置为呈现SR内容的SR腔、壳体或室代替SR设备104,其中用户10不再佩戴SR设备104。在一些具体实施中,用户10将SR设备104保持在他/她的手中。
在一些具体实施中,控制器102被配置为管理和协调用户10的SR体验。在一些具体实施中,控制器102包括软件、固件和/或硬件的合适组合。在一些具体实施中,控制器102是相对于场景106处于本地或远程位置的计算设备。例如,控制器102是位于场景106内的本地服务器。在另一个示例中,控制器102是位于场景106之外的远程服务器(例如,云服务器、中央服务器等)。在一些具体实施中,控制器102经由一个或多个有线或无线通信信道(例如,蓝牙、IEEE 802.11x、IEEE 802.16x、IEEE 802.3x等)与SR设备104可通信地耦接。在一些具体实施中,通过一个或多个有线或无线通信信道,SR设备104彼此通信。在一些具体实施中,控制器102的功能由SR设备104提供和/或与该SR设备组合,以便更新场景并共享虚拟空间。
如图1所示,SR设备104呈现场景106,该场景在一些具体实施中由控制器102和/或SR设备104生成。在一些具体实施中,场景106包括虚拟场景,该虚拟场景是真实世界场景的模拟替换。换句话讲,在一些具体实施中,场景106由控制器102和/或SR设备104模拟。在此类具体实施中,场景106不同于SR设备104所在的真实世界场景。在一些具体实施中,场景106包括作为真实世界场景的修改版本的增强场景。例如,在一些具体实施中,控制器102和/或SR设备104修改(例如,增强)SR设备104所在的真实世界场景以便生成场景106。在一些具体实施中,控制器102和/或SR设备104通过从SR设备104所在的真实世界场景的模拟副本中移除和/或向其中添加物项来生成场景106。
图2A至图2B示出了根据一些具体实施的衰减谱200和用于确定衰减谱200的示例性信任度量250。在一些具体实施中,SR布景中的化身可以是不可见的、部分衰减的、完全可见的,或者沿衰减谱200介于其间的任何位置。例如,最初化身是完全可见的,这意味着场景中的位于化身后面的对象不可见。但是,当需要时,化身可变为部分可见或不可见以便阻止共享SR布景中的不协作行为。例如,考虑表示共享SR布景的两个用户的第一化身和第二化身。如果第二用户以第二化身重复跑到第一化身中的方式控制第二化身,则生成SR布景的设备可致使第一化身淡出以便阻止第二用户进一步侵占在第一化身的空间上。沿谱200的其他衰减水平是可能的。
在另一个示例中,当第一化身的行为破坏一个或多个化身社会交互标准时,衰减非协作的第一化身,例如,淡出与非协作的第一化身相关联的SR内容,有效地移除第一化身从而免于进一步参与SR布景,由此鼓励用户(由第一化身表示)以不太分散SR体验中的其他人注意力的方式参与。
如本文所用,化身社会交互标准包括与表示用户的化身相关联的阈值距离、阈值音量和行为模式。当其他化身的行为匹配或破坏阈值距离、阈值音量和/或行为模式时,此类行为触发虚拟空间中旨在促进用户之间的协作的动作。作为行为模式的示例,如果第一化身重复尝试行走通过其中的第二化身,则SR布景可衰减第二化身对第一化身的可见性(使得第一化身不再可以发现要行走通过的第二化身),并且SR布景可以衰减第一化身对SR布景中的所有其他人的可见性(使得不激励第一化身利用公开内容)。
在一些具体实施中,沿衰减谱200的各种衰减程度不仅包括视觉调整,还包括音频内容调整。例如,如图3所示,框图300示出了音频内容衰减,当表示用户A的化身A对表示用户B的化身B吼叫时,大声音频音量超过第一阈值音量(如化身社会交互标准X所表示)。破坏导致音频音量的衰减,使得通过由用户B佩戴的SR设备扬声器播放的音频音量减小(例如,减小回放音频)。当音量进一步超过第二阈值音量(如由图3中的化身社会交互标准Y表示)时,破坏导致音量减小,例如,好像从用户B的角度来看大声语音没有发生一样。
需注意,实现本文所述的技术的实体应注意不要过度抑制SR布景中的表达自由。例如,实现本文所述技术的SR系统可允许用户选择加入和/或选择退出所述技术。实际上,在一些SR布景中,可调整社会交互的标准。重新参考图2B,在一些具体实施中,至少部分地基于信任度量250来确定化身社会交互标准。如图2B所示,在一些具体实施中,信任度量250指定化身驻留在的SR布景和/或上下文、此类上下文中的化身之间的相应信任级别、对应的化身社会交互标准和/或在破坏化身社会交互标准的情况下的衰减性质等。
例如,在拳击事件或紧密协作中(其中预期相同SR空间中的两个化身之间的接触和/或重叠),信任级别为高。因此,化身社会交互标准可不被设置,并且当化身在近距离内彼此交互时,化身完全可见。又如,在紧密协作的上下文中,可设置化身社会交互标准,使得化身彼此对准或跟踪以用于在相同SR空间中提供联合用户交互。相比之下,当不熟悉的化身首次相遇时,相互信任级别为低。因此,设置化身社会交互标准(例如,两个化身之间的一个或多个阈值距离)并将其用于确定衰减水平。如果化身在聚会地点比第一阈值距离更接近,则化身社会交互标准被破坏。因此,根据一些具体实施,至少一个化身变为至少部分地衰减。当陌生人化身进一步破坏第二阈值距离时,在一些具体实施中,至少一个化身可变为不可见。
图2A和图2B所示的衰减谱200和示例性信任度量250是从各种角度来看的。例如,在化身A表示用户A并且化身B表示用户B的SR场景中,化身A对于化身B的信任级别为高。因此,当化身B在距化身A的阈值距离内移动时,从用户A的角度在虚拟场景中不显示衰减。另一方面,化身B对于化身A的信任级别可能不高。因此,从用户B的角度,在SR场景中显示特定程度的衰减。此外,即使当两个化身共享相同的信任度量和相同的一组化身社会交互标准时,也可针对不同用户不同地显示衰减,如下文参考图4所述。
图4是示出根据一些具体实施的从各种角度的联合用户交互衰减的框图400。在一个示例性场景中,在SR布景中,表示用户N的化身N太靠近表示用户X的化身X。基于N和X两者的信任度量以及对应的化身社会交互标准,生成特定程度的衰减。从用户N的角度(例如,在用户10-N的SR设备104-N上显示场景106,如图1所示),化身X被衰减,例如淡出、闪烁、收缩、或指示化身社会交互标准的破坏的其他动画。然而,从用户X的角度,在一些具体实施中,化身N和化身X是完全可见的并且处于社交可接受的距离处,就好像化身N没有移动到化身X的空间中一样。因此,用户X不会被太靠近的化身N分散注意力,但化身N被引导至相信她已经成功地干扰了化身X。
图4还示出了旁观者可能看到或可能没有看到SR场景中的联合用户交互。例如,在一些具体实施中,处于监督角色的第一旁观者可被示出为在化身N和化身X之间的近距离相遇以及化身X的衰减。相比之下,处于出租人角色的第二旁观者可能不会看到化身N和X之间的近距离相遇并且可被提供类似于用户X的视图。在一些具体实施中,是否向旁观者显示衰减的确定和衰减程度至少部分地基于如上文参考图2A和图2B所述的信任度量。
图5A至图5J示出了根据一些具体实施的SR空间中的用户交互的衰减的示例性用户界面。这些附图中的用户界面被用于示出包括图7中的过程的下文描述的过程。在一些具体实施中,向SR设备(例如,图1中的设备104)的第一用户显示示例性用户界面。因此,示例性用户界面是从第一用户的角度。另外,设备可经由与显示器分开的输入设备(例如,具有语音激活命令的头戴式设备(HMD)、具有单独触摸板和显示器的膝上型电脑、或具有单独鼠标和显示器的台式电脑)检测输入。
如图5A所示,设备104显示媒体交互界面502。根据一些具体实施,媒体交互界面502在图像传感器的视场中显示具有被摄体的场景,该图像传感器是由第一用户佩戴的设备104的一部分或可连接到该设备。表示场景的图像数据(或透传图像数据)由图像传感器捕获。在一些具体实施中,透传图像数据包括预览图像、表面图像(例如,平坦表面)、深度映射、锚坐标(例如,用于深度映射)等。在一些具体实施中,透传图像数据不仅包括视觉内容,还包括音频内容、3D渲染、(所显示的实际帧的)时间戳、标头文件(例如,相机设置诸如对比度、饱和度、白平衡等)和/或元数据。
如上文参考图1所述,在一些具体实施中,用于捕获场景的图像传感器是设备104的一部分或附接到设备104;而在一些其他具体实施中,图像传感器与设备104分离,例如在远离设备的相机上。在各种具体实施中,场景随着图像传感器的视场改变而改变,如下文参考图5B至图5J所示。在图5A中,媒体捕获预览包括开放门道以及表示第二用户的化身505进入开放门道。通过开放门道,媒体捕获预览示出了房间中的相框520的部分和桌子530。
图5B至图5F示出了根据一些具体实施的基于表示第二用户的化身505在SR布景内的交互来衰减媒体交互界面502中的SR内容。图像传感器的角度或有利位置在图5A和图5B至图5D之间变化。例如,在图5B中,门道不再显示在媒体交互界面502中,这指示化身505已进入房间。当化身505进入房间时,如图5B所示,媒体交互界面502显示房间的三个墙壁以及房间中的相框520和桌子530。另外,如图5B所示,媒体交互界面502显示桌子530上的喷雾漆罐540和后门550。
在图5C中,化身505从台530拾取喷雾罐540,并且将油漆560喷涂在绘画520和绘画520悬挂在的墙壁上。在一些具体实施中,喷涂绘画520和墙壁的行为模式破坏第一用户或另一个用户(未示出)的化身社会交互标准。
图5D至图5F示出了响应于破坏化身社会交互标准的各种程度的衰减。例如,如图5D所示,在媒体交互界面502中,使涂鸦560-A衰减。在另一个示例中,如图5E所示,移除涂鸦并且淡出化身505用于破坏化身社会交互标准的喷雾罐540-A。在又一个示例中,如图5F所示,用喷雾罐540-A喷涂涂鸦560-A的用户505-A与喷雾罐540-A和涂鸦560-A一起淡出。
图5G至图5J示出了根据一些具体实施的基于SR空间中的协同用户交互来衰减媒体交互界面502中的SR内容。在图5G中,媒体交互界面502显示相框520、桌子530,以及表示第二用户的化身505和表示第一用户的化身507。另外,如图5G所示,媒体交互界面502显示桌子530上的喷雾漆罐540和后门550。
在图5H中,表示第二用户的化身505从桌子530拾取喷雾罐540。在一些具体实施中,化身505的行为模式(例如,靠近化身505挥舞喷雾罐540)破坏一个或多个化身社会交互标准。例如,由化身505在距化身507的阈值距离内挥舞喷雾罐540可能使与化身507相关联的第一用户不舒服,并且因此破坏一个或多个化身社会交互标准。
如图5I所示,在一些具体实施中,在向由化身507表示的第一用户显示的媒体交互界面502中,指示器552出现在打开的后门550-A上方以允许化身507离开到达不同的空间(例如,远离喷雾罐540的范围)。这样,通过使化身507远离场景移动由此隔离化身505来实现衰减。因此,在一些具体实施中,当第一用户正破坏社会交互标准时,示能表示允许第二用户远离第一用户移动。值得注意的是,示能表示(例如,552)不需要对第一化身可用,由此防止具有喷雾罐540的化身505在化身507之后追逐,从而有效地将化身505留在其自身空间中,如图5J所示。
图6A至图6D示出了根据一些具体实施的SR空间中的紧密协作的示例性用户界面。这些附图中的用户界面被用于示出包括图8中的过程的下文描述的过程。在一些具体实施中,向SR设备的用户(例如,图1中的设备104-N的用户10-N和设备104-X的用户10-X)显示示例性用户界面。另外,设备可经由与显示器分开的输入设备(例如,具有语音激活命令的头戴式设备(HMD)、具有单独触摸板和显示器的膝上型电脑、或具有单独鼠标和显示器的台式电脑)检测输入。
如图6A所示,设备104-N显示媒体交互界面602。根据一些具体实施,媒体交互界面602在图像传感器的视场中显示具有对象(例如,计数器620、切割板622、刀624和胡萝卜626)的场景。媒体交互界面602来自第一用户的角度,例如,图1中的用户10-N。表示场景的图像数据(或透传图像数据)由图像传感器提供。在一些具体实施中,透传图像数据包括预览图像、表面图像(例如,平坦表面)、深度映射、锚坐标(例如,用于深度映射)等。在一些具体实施中,透传图像数据不仅包括视觉内容,还包括音频内容、3D渲染、(所显示的实际帧的)时间戳、标头文件(例如,相机设置诸如对比度、饱和度、白平衡等)和/或元数据。
在一些具体实施中,设备104-N的传感器和/或可连接到设备104-N的传感器(例如,IMU)获得设备104-N的用户的身体姿势。然后,设备104-N使用身体姿势信息来确定设备104-N的用户相对于对象620-626的视线角度。应当指出的是,设备的用户的视线角度可与和设备相关联的图像传感器的视场相同或不同。例如,在支持SR的眼镜的情况下,具有图像传感器的相机和用户的光学系统可为不同的(例如,单独的)。因此,可基于图像传感器或用户的视场来确定一个或多个SR内容项的位置。另选地,可以协调图像传感器和用户的视场,例如,一个可以覆盖另一个。在此类具体实施中,可基于图像传感器和用户的视场来确定一个或多个SR内容项的位置。
在图6A中,在一些具体实施中,基于由传感器(例如,IMU)获得的身体姿势信息和由图像传感器获得的图像数据,第一用户的手部610L和610R邻近计数器620显示以准备切割胡萝卜626。进一步如图6A所示,设备104-X获得身体姿势信息,例如,第二用户的手部630L和630R的位置。在一些具体实施中,不是使用身体姿势信息来合成媒体交互界面602中显示的场景,而是预先录制SR内容。换句话讲,SR内容可以是预先记录的内容或实时协作内容或两者的组合。
在图6B中,设备104-N从设备104-X获得身体姿势信息,确定第二用户相对于对象620-626的视线角度,并且将第二用户的手部630渲染到媒体交互界面602中,例如,将第二用户(例如,教师)的左手630-L1和右手630-R1叠加在第一用户(例如,学生)的左手610-L和右手610-R上。
在图6C中,设备104-X获得更新的身体姿势信息,例如,右手630-R向上移动。设备104-N随后从设备104-X获得更新的身体姿势信息,并且渲染右手630-R1到达刀624的柄部的移动。
在图6D中,设备104-N通过将右手610-R移动靠近右手630-R或将右手610-R与右手630-R对准来更新第一用户的视线角度。因此,第一用户和第二用户可在相同虚拟空间中协作。
图7是根据一些具体实施的基于对化身社会交互标准的破坏的化身衰减的方法700的流程图表示。在各种具体实施中,方法700由具有一个或多个处理器、非暂态存储器、一个或多个显示器以及一个或多个音频扬声器的设备执行。在一些具体实施中,方法700由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法700由处理器和/或控制器(例如,图1中的控制器102)执行,该处理器和/或控制器执行存储在非暂态计算机可读介质(例如,存储器)中的指令(例如,代码)。简而言之,在一些情况下,方法700包括:使用一个或多个显示器向第一用户显示SR内容,SR内容包括与第二用户相关联的化身;确定与第二用户相关联的化身的行为是否破坏一个或多个化身社会交互标准;以及根据确定一个或多个化身社会交互标准被破坏,衰减与第二用户相关联的化身的至少一部分。
在框702中,方法700开始于通过设备使用一个或多个显示器向第一用户显示SR内容,SR内容包括与第二用户相关联的化身。例如,在图5A至图5J中,向第一用户显示(未示出)媒体交互界面502,并且在媒体交互界面502中显示的SR场景包括表示第二用户的化身505。
方法700在框704中继续通过设备,确定与第二用户相关联的化身的行为是否破坏一个或多个化身社会交互标准。在一些具体实施中,确定与第二用户相关联的化身的行为是否破坏一个或多个化身社会交互标准包括确定与第二用户相关联的化身是否已经接触表示用户的第二化身。在一些具体实施中,确定与第二用户相关联的化身的行为是否破坏一个或多个化身社会交互标准包括确定与第二用户相关联的化身是否在表示用户的第二化身的阈值距离内。在一些具体实施中,确定与第二用户相关联的化身的行为是否破坏一个或多个化身社会交互标准包括确定与和第二用户相关联的化身相关联的音频内容是否超过阈值强度(例如,音量、音频内容的量、音频内容诸如尖叫的频率超过阈值)。
方法700在框706中进一步继续通过设备根据确定一个或多个化身社会交互标准被破坏,衰减与第二用户相关联的化身的至少一部分。
在一些具体实施中,如框708所表示,衰减与第二用户相关联的化身的至少一部分包括经由一个或多个音频扬声器淡出音频内容(例如,强度)或者经由一个或多个显示器淡出视觉内容(例如,视觉模糊或不可见)中的至少一者。在一些具体实施中,淡出视觉内容包括视觉内容的模糊或其他动画。在一些具体实施中,淡出音频内容包括使声音消音以使得用户不能发出音频内容。
此外,在一些具体实施中,如框710所表示,衰减包括完全阻挡音频和/或视觉内容。在一些具体实施中,衰减与第二用户相关联的化身的至少一部分包括不向设备的第一用户提供与第二用户相关联的化身的一部分。在一些具体实施中,衰减与第二用户相关联的化身的至少一部分包括不向设备的第一用户提供与和第二用户相关联的化身相关联的音频部分。例如,如图3所示,当从化身A到化身B的大声语音破坏化身社会交互标准X时,来自化身A的音量被调低;并且当从化身A到化身B的大声语音破坏化身社会交互标准Y时,来自化身A的音频(或音频的回放)被静音。
在一些具体实施中,如框712所表示,衰减与第二用户相关联的化身的至少一部分包括衰减与和第二用户相关联的化身的行为相关联的SR内容。例如,在图5C中,化身505通过在绘画520和墙壁上喷涂涂鸦560来触发化身社会交互标准的破坏。随后,在图5D至图5F中,涂鸦560-A、喷雾罐540-A和化身505-A被部分衰减或变得完全不可见。
在一些具体实施中,如框714所表示,方法700还包括从第一用户接收输入,确定所接收的输入是否是预定手势,并且根据确定所接收的输入是预定手势,将化身移动至SR内容中的由第二设备显示的视场之外的位置。换句话讲,与第一用户相关联的化身的至少一部分移动至SR场景中的不存在与第二用户相关联的化身的位置,例如,通过将化身彼此远离地移动至社交可接受的距离来分离处于近距离的化身,如图4所示。另外,在一些具体实施中,所接收的输入是预定义手势,诸如重定位手势输入。
例如,在图5H中,化身505触发化身社会交互标准的破坏,例如,与化身507相距太近距离和/或当与化身507相距近距离时挥舞喷雾罐540。在图5I中,指示器552显示在开放的后门550-A周围。响应于重定位手势,诸如轻击指示器552,化身507可离开房间以与化身505分开。如图5J所示,在化身507离开房间之后,化身505单独留在房间中。
在一些具体实施中,不太协作的行为包括变得太近、大声说话、冒犯地交谈、或损坏共享SR布景等。因此,根据一些具体实施,化身社会交互标准可包括化身的阈值距离、阈值音量、行为模式、规则和指南。在一些具体实施中,如框718所表示,至少部分地基于信任度量(包括化身社会交互的上下文和上下文的信任级别)来确定化身社会交互标准。此外,在一些具体实施中,如框720所表示,方法700包括基于与第三用户相关联的信任度量向第三用户提供与第一用户相关联的化身的至少一部分以及与第二用户相关联的化身的至少一部分。
例如,如图2A和图2B所示,约束对于拳击事件和紧密协作是较低的,约束对于家庭聚集是中等的,并且约束对于会面陌生人是较高的。因此,化身社会交互标准被不同地设置,并且衰减谱对于不同的情况是不同的。在另一个示例中,如图4所示,由于与旁观者相关联的信任度量的差异,第一旁观者看到化身X的衰减,而第二旁观者不看到衰减。
在一些具体实施中,方法700还包括根据确定一个或多个化身社会交互标准被破坏,指示第二设备衰减表示第一用户的第二化身的至少一部分,其中第二设备在设备外部,并且表示第一用户的第二化身由第二设备显示。例如,在图5H至图5J中,化身505与化身507相距太近距离和/或当与化身507相距近距离时挥舞喷雾罐540,因此化身505的行为破坏一个或多个社会交互标准。向由化身507表示的第一用户显示SR布景的第二设备可接收用于衰减化身507的指令,使得化身507被衰减,例如离开房间以与化身505分离。
图8是根据一些具体实施的SR空间中的联合用户紧密交互的方法800的流程图表示。在各种具体实施中,方法800由具有一个或多个处理器、非暂态存储器、一个或多个显示器以及一个或多个音频扬声器的设备执行。在一些具体实施中,方法800由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法800由执行存储在非暂态计算机可读介质(例如,存储器)中的指令(例如,代码)的处理器和/或控制器(例如,图1中的控制器102)执行。简而言之,在一些情况下,方法800包括:确定设备的第一用户相对于对象的视线角度;获得第二用户的视线角度和第二用户相对于对象的身体姿势;以及进行渲染以用于将第二用户的身体姿势显示到第一用户的视线角度中。在一些具体实施中,方法800包括启用紧密协作模式,使得化身的重叠在该紧密协作模式下是可接受的。
在框802中,方法800开始于通过设备确定设备的第一用户相对于对象的视线角度。例如,在图6A所示的示例性用户界面中,第一用户是想要学习切割胡萝卜626的学生。设备确定计数器620前方的学生的视线角度。
在框804中,方法800继续通过设备获得第二用户的视线角度和第二用户相对于对象的身体姿势。例如,在图6A中,第二用户是想要教育学生如何切割胡萝卜626的教师。设备获得教师的视线角度以及教师的身体姿势,如设备104-X上的手部630所表示。
在框806中,方法800继续通过设备进行渲染以用于将第二用户的身体姿势显示到第一用户的视线角度中。在一些具体实施中,如框808所表示,进行渲染以用于将第二用户的身体姿势显示到第一用户的视线角度中包括向第一用户的显示和向第二用户的显示之间的转换。在一些具体实施中,转换包括对准第一用户和第二用户的视点。例如,当烹饪教程展示如何如图6A所示的那样切割胡萝卜时,学生和教师均将他们的视点朝向计数器620对准。
在一些具体实施中,如框810所表示,进行渲染以用于将第二用户的身体姿势显示到第一用户的视线角度中包括用与第一用户相关联的内容替换与第二用户相关联的内容。例如,在图6B中,一旦手部610和630对准,手部610和/或630就可被组合手部替换,使得它们一起移动。
在一些具体实施中,如框812所表示,进行渲染以用于将第二用户的身体姿势显示到第一用户的视线角度中包括基于第一用户的视线角度呈现叠加到对象上的第二用户的化身的至少一部分。例如,如图6B至6D所示,左手630-L1叠加到左手610-L上。
在一些具体实施中,如框814所表示,方法800还包括将第一用户的视线角度与第二用户的视线角度映射;检测第二用户的视线角度的一部分的更新;根据映射识别第一用户的视线角度的对应部分;以及更新第一用户的视线角度的对应部分。例如,如图6C和图6D所示,设备将学生的角度与教师的角度映射。此外,在检测到教师的右手630-R朝向刀的移动时,对应的学生的右手610-R被识别并移动以匹配教师的右手630-R1的移动。
在一些具体实施中,如框816所表示,方法800还包括当对象至少部分地被第一用户的视线角度中的内容阻挡时,将第一用户的视线角度切换到第三视线角度。例如,虽然承包商正在展示如何替换水龙头,但不能看到垫圈,例如被承包商的手部阻挡,第一用户的视线角度被切换到第三视线角度(例如,放大视图)以更好地查看垫圈。
图9是根据一些具体实施的计算设备900的框图。在一些具体实施中,计算设备900对应于图1中的设备104的至少一部分,并执行上述功能中的一者或多者。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为了达到这一目的,作为非限制性示例,在一些具体实施中,计算设备900包括一个或多个处理单元(CPU)902(例如,处理器)、一个或多个输入/输出(I/O)接口903(例如,网络接口、输入设备、输出设备和/或传感器接口)、存储器910、编程接口905,以及用于互连这些部件和各种其他部件的一条或多条通信总线904。
在一些具体实施中,该一条或多条通信总线904包括互连系统部件和控制系统部件之间的通信的电路。存储器910包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备;并且在一些具体实施中,包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存设备或其他非易失性固态存储设备。存储器910任选地包括与一个或多个CPU 902远程定位的一个或多个存储设备。存储器910包括非暂态计算机可读存储介质。此外,在一些具体实施中,存储器910或存储器910的非暂态计算机可读存储介质存储以下程序、模块和数据结构或其子集,包括任选的操作系统920、图像捕获控制模块950、图像处理模块952、身体姿势处理模块954、化身社会交互处理模块956和SR内容渲染模块958。在一些具体实施中,一个或多个指令包括在逻辑部件和非暂态存储器的组合中。操作系统920包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。
在一些具体实施中,图像捕获控制模块950被配置为控制图像传感器或相机组件的功能以捕获图像或获得图像数据。为此,图像捕获控制模块950包括一组指令951a以及启发法和元数据951b。
在一些具体实施中,图像处理模块952被配置为预处理来自图像传感器或相机组件的原始图像数据(例如,将RAW图像数据转换为RGB或YCbCr图像数据并得出姿势信息等)。为此,图像处理模块952包括一组指令953a以及启发法和元数据953b。
在一些具体实施中,身体姿势处理模块954被配置为处理用户的身体姿势(例如,处理IMU数据)。为此,身体姿势处理模块954包括一组指令955a以及启发法和元数据955b。
在一些具体实施中,化身社会交互处理模块956被配置为处理化身社会交互。为此,化身社会交互处理模块956包括一组指令957a以及启发法和元数据957b。
在一些具体实施中,SR内容渲染模块958被配置为在靠近所识别被摄体的视场中合成并渲染SR内容项。为此,SR内容渲染模块958包括一组指令959a以及启发法和元数据959b。
虽然图像捕获控制模块950、图像处理模块952、身体姿势处理模块954、化身社会交互处理模块956和SR内容渲染模块958被示出为驻留在单个计算设备上,但应当理解,在其他具体实施中,图像捕获控制模块950、图像处理模块952、身体姿势处理模块954、化身社会交互处理模块956和SR内容渲染模块958的任何组合可在各种具体实施中驻留在独立的计算设备中。例如,在一些具体实施中,图像捕获控制模块950、图像处理模块952、身体姿势处理模块954、化身社会交互处理模块956和SR内容渲染模块958中的每一者可驻留在独立的计算设备上或云中。
此外,图9更多地用作存在于特定具体实施中的各种特征部的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图9中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征部将根据实施方案而变化,并且可以部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
虽然上文描述了在所附权利要求书范围内的具体实施的各个方面,但是应当显而易见的是,上述具体实施的各种特征可通过各种各样的形式体现,并且上述任何特定结构和/或功能仅是例示性的。基于本公开,本领域的技术人员应当理解,本文所述的方面可以独立于任何其他方面来实现,并且这些方面中的两个或更多个可以采用各种方式组合。例如,可以使用本文阐述的任何数量的方面来实现装置和/或可以实践方法。另外,除了本文阐述的一个或多个方面之外或者不同于本文阐述的一个或多个方面,可以使用其他结构和/或功能来实现这样的装置和/或可以实践这样的方法。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件,和/或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。

Claims (27)

1.一种方法,包括:
在具有一个或多个处理器、非暂态存储器以及一个或多个显示器的设备处:
使用所述一个或多个显示器向第一用户显示模拟现实(SR)内容,所述SR内容包括与第二用户相关联的化身;
确定与所述第二用户相关联的所述化身的行为是否破坏一个或多个化身社会交互标准;以及
根据确定与所述第二用户相关联的所述化身的所述行为破坏所述一个或多个化身社会交互标准,衰减与所述第二用户相关联的所述化身的至少一部分。
2.根据权利要求1所述的方法,其中衰减与所述第二用户相关联的所述化身的至少所述部分包括通过一个或多个音频扬声器减小来自所述第二用户的音频的回放。
3.根据权利要求2所述的方法,其中衰减与所述第二用户相关联的所述化身的至少所述部分包括通过一个或多个音频扬声器使来自所述第二用户的音频的回放静音。
4.根据权利要求1至3中任一项所述的方法,其中衰减与所述第二用户相关联的所述化身的至少所述部分包括在所述一个或多个显示器上至少部分地淡出所述化身。
5.根据权利要求1至4中任一项所述的方法,其中衰减与所述第二用户相关联的所述化身的至少所述部分包括从所述一个或多个显示器移除所述化身的至少所述部分。
6.根据权利要求1至5中任一项所述的方法,其中衰减与所述第二用户相关联的所述化身的至少所述部分包括从所述一个或多个显示器移除所述化身。
7.根据权利要求1至6中任一项所述的方法,还包括:
根据确定所述一个或多个化身社会交互标准被破坏,指示第二设备衰减表示所述第一用户的第二化身的至少一部分,其中所述第二设备在所述设备外部,其中表示所述第一用户的所述第二化身由所述第二设备显示。
8.根据权利要求1至7中任一项所述的方法,还包括:
从所述第一用户接收输入;
确定所接收的输入是否是预定手势;以及
根据确定所接收的输入是所述预定手势,将所述化身移动到所述SR内容中的由所述第二设备显示的视场之外的位置。
9.根据权利要求1至8中任一项所述的方法,其中确定与所述第二用户相关联的所述化身的所述行为是否破坏所述一个或多个化身社会交互标准包括确定与所述第二用户相关联的所述化身是否已经接触表示所述用户的第二化身。
10.根据权利要求1至9中任一项所述的方法,其中确定与所述第二用户相关联的所述化身的所述行为是否破坏所述一个或多个化身社会交互标准包括确定与所述第二用户相关联的所述化身是否在表示所述用户的第二化身的阈值距离内。
11.根据权利要求1至10中任一项所述的方法,其中确定与所述第二用户相关联的所述化身的行为是否破坏一个或多个化身社会交互标准包括确定与和所述第二用户相关联的所述化身相关联的音频内容是否超过阈值强度。
12.一种设备,包括:
一个或多个处理器;
非暂态存储器;
一个或多个显示器;和
存储在所述非暂态存储器中的一个或多个程序,所述一个或多个程序在由所述一个或多个处理器执行时使所述设备执行权利要求1至11所述的方法中的任一种方法。
13.一种存储一个或多个程序的非暂态存储器,当由具有一个或多个显示器的设备的一个或多个处理器执行时,所述一个或多个程序使所述设备执行权利要求1至11所述的方法中的任一种方法。
14.一种设备,包括:
一个或多个处理器;
非暂态存储器;
一个或多个显示器;和
用于使所述设备执行权利要求1至11所述的方法中的任一种方法的装置。
15.一种设备,包括:
一个或多个显示器;和
一个或多个处理器,所述一个或多个处理器用于:
使用所述一个或多个显示器向第一用户显示SR内容,所述SR内容包括与第二用户相关联的化身;
确定与所述第二用户相关联的所述化身的行为是否破坏一个或多个化身社会交互标准;以及
根据确定与所述第二用户相关联的所述化身的所述行为破坏所述一个或多个化身社会交互标准,衰减与所述第二用户相关联的所述化身的至少一部分。
16.一种方法,包括:
在具有一个或多个处理器、非暂态存储器以及一个或多个显示器的设备处:
确定所述设备的第一用户相对于对象的视线角度;
获得第二用户的视线角度和所述第二用户相对于所述对象的身体姿势;以及
进行渲染以用于将所述第二用户的所述身体姿势显示到所述第一用户的所述视线角度中。
17.根据权利要求16所述的方法,其中进行渲染以用于将所述第二用户的所述身体姿势显示到所述第一用户的所述视线角度中包括向所述第一用户的显示和向所述第二用户的显示之间的转换。
18.根据权利要求16至17中任一项所述的方法,其中进行渲染以用于将所述第二用户的所述身体姿势显示到所述第一用户的所述视线角度中包括用与所述第一用户相关联的内容替换与所述第二用户相关联的内容。
19.根据权利要求16至18中任一项所述的方法,其中进行渲染以用于将所述第二用户的所述身体姿势显示到所述第一用户的所述视线角度中包括基于所述第一用户的所述视线角度呈现叠加到所述对象上的所述第二用户的化身的至少一部分。
20.根据权利要求16至19中任一项所述的方法,还包括:
将所述第一用户的所述视线角度与所述第二用户的所述视线角度映射;
检测所述第二用户的所述视线角度的一部分的更新;
根据所述映射识别所述第一用户的所述视线角度的对应部分;以及
更新所述第一用户的所述视线角度的所述对应部分。
21.根据权利要求16至20中任一项所述的方法,还包括当所述对象至少部分地被所述第一用户的所述视线角度中的内容阻挡时,将所述第一用户的所述视线角度切换到第三视线角度。
22.根据权利要求16至21中任一项所述的方法,其中所述SR内容包括预先录制的内容或实时协作内容。
23.根据权利要求16至22中任一项所述的方法,其中所述设备包括头戴式设备、移动电话、平板电脑、网络摄像机或自助终端中的至少一者。
24.一种设备,包括:
一个或多个处理器;
非暂态存储器;
一个或多个显示器;和
一个或多个程序,所述一个或多个程序存储在所述非暂态存储器中,所述一个或多个程序当由所述一个或多个处理器执行时使所述设备执行根据权利要求16至23所述的方法中的任一种方法。
25.一种存储一个或多个程序的非暂态存储器,当由具有一个或多个显示器和一个或多个音频扬声器的设备的一个或多个处理器执行时,所述一个或多个程序使所述设备执行根据权利要求16至23所述的方法中的任一种方法。
26.一种设备,包括:
一个或多个处理器;
非暂态存储器;
一个或多个显示器;
一个或多个音频扬声器;和
用于使所述设备执行根据权利要求16至23所述的方法中的任一种方法的装置。
27.一种设备,包括:
一个或多个显示器;和
一个或多个处理器,所述一个或多个处理器用于:
确定所述设备的第一用户相对于对象的视线角度;
获得第二用户的视线角度和所述第二用户相对于所述对象的身体姿势;以及
进行渲染以用于将所述第二用户的所述身体姿势显示到所述第一用户的所述视线角度中。
CN201980061560.9A 2018-09-20 2019-09-17 用于衰减模拟现实(sr)空间中的联合用户交互的方法和设备 Active CN112955850B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862733805P 2018-09-20 2018-09-20
US62/733,805 2018-09-20
PCT/US2019/051568 WO2020061087A1 (en) 2018-09-20 2019-09-17 Method and device for attenuation of co-user interactions in simulated reality (sr) space

Publications (2)

Publication Number Publication Date
CN112955850A true CN112955850A (zh) 2021-06-11
CN112955850B CN112955850B (zh) 2024-07-19

Family

ID=68104765

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980061560.9A Active CN112955850B (zh) 2018-09-20 2019-09-17 用于衰减模拟现实(sr)空间中的联合用户交互的方法和设备

Country Status (3)

Country Link
US (1) US11712628B2 (zh)
CN (1) CN112955850B (zh)
WO (1) WO2020061087A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11996066B2 (en) * 2020-01-14 2024-05-28 Sony Interactive Entertainment Inc. Alpha value use to render images on transparent display with colors perceptible to a person
US20220134222A1 (en) * 2020-11-03 2022-05-05 Nvidia Corporation Delta propagation in cloud-centric platforms for collaboration and connectivity
US11756272B2 (en) * 2021-08-27 2023-09-12 LabLightAR, Inc. Somatic and somatosensory guidance in virtual and augmented reality environments
CN114047817B (zh) * 2021-10-15 2023-04-07 中邮通建设咨询有限公司 一种元宇宙虚拟现实vr交互系统
US11816231B2 (en) 2021-11-22 2023-11-14 Bank Of America Corporation Using machine-learning models to determine graduated levels of access to secured data for remote devices
US20230163987A1 (en) * 2021-11-23 2023-05-25 Sony Interactive Entertainment Inc. Personal space bubble in vr environments
US20240062430A1 (en) * 2022-08-17 2024-02-22 At&T Intellectual Property I, L.P. Contextual avatar presentation based on relationship data
JP2024119486A (ja) * 2023-02-22 2024-09-03 キヤノン株式会社 アバター管理システム、アバター管理方法、及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100081508A1 (en) * 2008-09-26 2010-04-01 International Business Machines Corporation Avatar protection within a virtual universe
US20110298827A1 (en) * 2010-06-02 2011-12-08 Microsoft Corporation Limiting avatar gesture display
US20160350973A1 (en) * 2015-05-28 2016-12-01 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US20170039045A1 (en) * 2015-08-06 2017-02-09 Avishai Abrahami Cognitive state alteration system integrating multiple feedback technologies
US20170206797A1 (en) * 2016-01-19 2017-07-20 TheBeamer, LLC Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
CN107111894A (zh) * 2014-09-08 2017-08-29 西姆克斯有限责任公司 用于专业和教育训练的增强现实模拟器
US20170326457A1 (en) * 2016-05-16 2017-11-16 Google Inc. Co-presence handling in virtual reality
CN107430790A (zh) * 2015-04-09 2017-12-01 奇内莫伊北美有限责任公司 用于提供交互式虚拟环境的系统和方法
CN108111832A (zh) * 2017-12-25 2018-06-01 北京麒麟合盛网络技术有限公司 增强现实ar视频的异步交互方法及系统
CN108320331A (zh) * 2017-01-17 2018-07-24 上海掌门科技有限公司 一种生成用户场景的增强现实视频信息的方法与设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080221892A1 (en) * 2007-03-06 2008-09-11 Paco Xander Nathan Systems and methods for an autonomous avatar driver
JP5181180B2 (ja) * 2007-11-22 2013-04-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 三次元仮想空間上での取引方法、プログラム及びそのサーバシステム
US8713450B2 (en) * 2008-01-08 2014-04-29 International Business Machines Corporation Detecting patterns of abuse in a virtual environment
US9056248B2 (en) * 2008-12-02 2015-06-16 International Business Machines Corporation System and method for detecting inappropriate content in virtual worlds
CN106131178A (zh) * 2008-12-05 2016-11-16 社会传播公司 实时内核
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
US9093259B1 (en) * 2011-11-16 2015-07-28 Disney Enterprises, Inc. Collaborative musical interaction among avatars
US20130305169A1 (en) * 2012-05-11 2013-11-14 Robert Evan Gold Methods and Systems for Providing Feedback in Interactive, Interest Centric Communications Environment
US10833912B2 (en) * 2012-12-05 2020-11-10 Origin Wireless, Inc. Methods, devices, servers, apparatus, and systems for wireless internet of things applications
US9378065B2 (en) * 2013-03-15 2016-06-28 Advanced Elemental Technologies, Inc. Purposeful computing
US9904579B2 (en) * 2013-03-15 2018-02-27 Advanced Elemental Technologies, Inc. Methods and systems for purposeful computing
WO2016014233A1 (en) * 2014-07-25 2016-01-28 mindHIVE Inc. Real-time immersive mediated reality experiences
US10043319B2 (en) * 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
US10007482B2 (en) * 2015-09-16 2018-06-26 Hashplay Inc. Method and system for voice chat in virtual environment
WO2018146558A2 (en) * 2017-02-07 2018-08-16 Mindmaze Holding Sa Systems, methods and apparatuses for stereo vision and tracking
KR102622714B1 (ko) * 2018-04-08 2024-01-08 디티에스, 인코포레이티드 앰비소닉 깊이 추출
US11698680B2 (en) * 2020-06-23 2023-07-11 Immersion Corporation Methods and systems for decoding and rendering a haptic effect associated with a 3D environment

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100081508A1 (en) * 2008-09-26 2010-04-01 International Business Machines Corporation Avatar protection within a virtual universe
US20110298827A1 (en) * 2010-06-02 2011-12-08 Microsoft Corporation Limiting avatar gesture display
CN107111894A (zh) * 2014-09-08 2017-08-29 西姆克斯有限责任公司 用于专业和教育训练的增强现实模拟器
CN107430790A (zh) * 2015-04-09 2017-12-01 奇内莫伊北美有限责任公司 用于提供交互式虚拟环境的系统和方法
US20160350973A1 (en) * 2015-05-28 2016-12-01 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US20170039045A1 (en) * 2015-08-06 2017-02-09 Avishai Abrahami Cognitive state alteration system integrating multiple feedback technologies
US20170206797A1 (en) * 2016-01-19 2017-07-20 TheBeamer, LLC Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
US20170326457A1 (en) * 2016-05-16 2017-11-16 Google Inc. Co-presence handling in virtual reality
CN108320331A (zh) * 2017-01-17 2018-07-24 上海掌门科技有限公司 一种生成用户场景的增强现实视频信息的方法与设备
CN108111832A (zh) * 2017-12-25 2018-06-01 北京麒麟合盛网络技术有限公司 增强现实ar视频的异步交互方法及系统

Also Published As

Publication number Publication date
US20210339143A1 (en) 2021-11-04
US11712628B2 (en) 2023-08-01
WO2020061087A1 (en) 2020-03-26
CN112955850B (zh) 2024-07-19

Similar Documents

Publication Publication Date Title
CN112955850B (zh) 用于衰减模拟现实(sr)空间中的联合用户交互的方法和设备
JP6646620B2 (ja) 広範囲同時遠隔ディジタル提示世界
US20230419622A1 (en) Tangibility visualization of virtual objects within a computer-generated reality environment
US11880911B2 (en) Transitioning between imagery and sounds of a virtual environment and a real environment
KR102543993B1 (ko) 시뮬레이션된 현실(sr)에서의 디스플레이 디바이스 공유 및 상호작용성
US11709541B2 (en) Techniques for switching between immersion levels
US11836282B2 (en) Method and device for surfacing physical environment interactions during simulated reality sessions
KR102546535B1 (ko) 설정을 중심으로 한 이동
US11222454B1 (en) Specifying effects for entering or exiting a computer-generated reality environment
US20240220031A1 (en) Muting mode for a virtual object representing one or more physical elements
CN111602391B (zh) 用于根据物理环境定制合成现实体验的方法和设备
CN112262373B (zh) 基于视图的断点
US20230045759A1 (en) 3D Calling Affordances
WO2020243212A1 (en) Presenting communication data based on environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant