CN109754470A - 来自公共虚拟环境的不同视角 - Google Patents
来自公共虚拟环境的不同视角 Download PDFInfo
- Publication number
- CN109754470A CN109754470A CN201811208472.0A CN201811208472A CN109754470A CN 109754470 A CN109754470 A CN 109754470A CN 201811208472 A CN201811208472 A CN 201811208472A CN 109754470 A CN109754470 A CN 109754470A
- Authority
- CN
- China
- Prior art keywords
- virtual environment
- virtual
- view
- mode
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 50
- 230000006870 function Effects 0.000 claims description 153
- 238000009877 rendering Methods 0.000 claims description 54
- 230000007613 environmental effect Effects 0.000 claims description 41
- 230000015654 memory Effects 0.000 claims description 31
- 238000000034 method Methods 0.000 abstract description 29
- 238000003860 storage Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 239000011800 void material Substances 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 244000025254 Cannabis sativa Species 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 239000004744 fabric Substances 0.000 description 7
- 230000035611 feeding Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 239000004575 stone Substances 0.000 description 7
- 230000003993 interaction Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000011449 brick Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 125000000524 functional group Chemical group 0.000 description 2
- 230000005358 geomagnetic field Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 206010019133 Hangover Diseases 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/847—Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
根据一个或多个方面,本文描述了用于基于公共虚拟环境提供不同虚拟环境视角的系统和方法。可在数据库上存储一种与虚拟环境相关联的虚拟环境模型,所述虚拟环境包括与虚拟环境坐标相关联的第一虚拟对象,第一组功能对应于第一虚拟环境模式,并且第二组功能对应于第二虚拟环境模式。一种虚拟环境引擎可基于所述第一虚拟环境模式生成所述第一虚拟对象的第一虚拟环境视图,并且基于所述第二虚拟环境模式生成所述第一虚拟对象的第二虚拟环境视图。所述第一虚拟环境视图和所述第二虚拟环境视图以并发的方式分别渲染在不同装置上。
Description
技术领域
本发明涉及来自公共虚拟环境的不同视角,更具体地涉及一种用于基于公共虚拟环境提供不同虚拟环境视角的系统。
背景技术
真正的沉浸式虚拟现实和增强现实系统可创建将用户的感知系统沉浸在计算机生成的刺激(例如,虚拟世界或虚拟环境视图)中的环境。通常,这些沉浸式系统可以在阻挡来自物理世界的刺激的同时吸引用户的感官。由于来自用户的输入和/或用户与虚拟世界的交互,可以改变虚拟世界。
尽管这些系统的目标是创建沉浸式环境,但物理世界仍可用于为沉浸式环境提供背景。具体地,可能重要的是,考虑用户的环境和背景。例如,在用户处于车辆中的背景下,沉浸式虚拟现实和增强现实系统可考虑关于用户的信息、关于车辆的信息以及与用户相对于车辆有关的信息。信息可用于生成针对用户和用户的环境定制的沉浸式环境,并且可以允许用户舒适地感知沉浸式环境。
发明内容
根据一个或多个方面,一种用于基于公共虚拟环境提供不同虚拟环境视角的系统可包括数据库、存储器和包括虚拟环境引擎的处理器。所述数据库可存储与虚拟环境相关联的虚拟环境模型,所述虚拟环境包括与虚拟环境坐标相关联的第一虚拟对象,第一组功能对应于第一虚拟环境模式,并且第二组功能对应于第二虚拟环境模式。所述存储器可存储一个或多个指令。所述处理器的所述虚拟环境引擎可执行存储在所述存储器上的所述指令中一个或多个,以基于所述第一虚拟环境模式生成所述第一虚拟对象的第一虚拟环境视图,并且基于所述第二虚拟环境模式生成所述第一虚拟对象的第二虚拟环境视图。所述第一虚拟环境视图和所述第二虚拟环境视图以并发的方式分别渲染在不同装置上。所述第一虚拟对象在所述第一虚拟环境视图中具有第一渲染,并且在所述第二虚拟环境视图中具有与所述第一渲染不同的第二渲染。
可以在第一装置上渲染所述第一虚拟对象的所述第一虚拟环境视图,并且可以在第二装置上渲染所述第一虚拟对象的所述第二虚拟环境视图。所述第一装置和所述第一虚拟环境模式可以与第一类型的用户相关联,并且所述第二装置和所述第二虚拟环境模式可以与第二类型的用户相关联。用户的所述类型是基于与用户相关联的人口统计资料或所述用户做出的选择来限定的,所述选择与游戏体裁、选定的游戏、选定的角色、游戏评级、先前的游戏玩法相关联。
所述第一虚拟对象可以是第一用户。可以使用第一皮肤渲染所述第一用户的所述第一渲染,并且可以使用第一皮肤渲染所述第一用户的所述第二渲染。所述第一组功能可包括第一对话功能,并且所述第二组功能可包括第二对话功能。所述第一虚拟环境模式和所述第二虚拟环境模式可以是虚拟环境模式数据类型。所述数据库可存储视图类节点,所述视图类节点包括用于分别基于作为所述虚拟环境模式数据类型的所述第一虚拟环境模式和所述第二虚拟环境模式生成所述第一虚拟环境视图或所述第二虚拟环境视图的功能。
所述虚拟环境可包括与虚拟环境坐标相关联的第二虚拟对象,第一组功能对应于所述第一虚拟环境模式,并且第二组功能对应于所述第二虚拟环境模式。所述虚拟环境引擎或所述处理器可基于所述第一虚拟环境模式生成所述第二虚拟对象的所述第一虚拟环境视图,并且基于所述第二虚拟环境模式生成所述第二虚拟对象的所述第二虚拟环境视图。所述第二虚拟对象的所述第一虚拟环境视图和所述第二虚拟环境视图可以并发的方式分别渲染在所述不同装置上。所述第二虚拟对象可以是不可玩的角色。
所述第一组功能可以与所述第二组功能具有一对一的触发程序对应关系。所述第一组功能可以与所述第二组功能具有一对一的动画对应关系。所述第一组功能可以与所述第二组功能具有一对一的参数对应关系。
根据一个或多个方面,一种用于基于公共虚拟环境提供不同虚拟环境视角的系统可包括数据库、存储器和包括虚拟环境引擎的处理器。所述数据库可存储与虚拟环境相关联的虚拟环境模型,所述虚拟环境包括与虚拟环境坐标相关联的虚拟对象,第一功能对应于第一虚拟环境模式,并且第二功能对应于第二虚拟环境模式。所述存储器可存储一个或多个指令。所述处理器的所述虚拟环境引擎可执行存储在所述存储器上的所述指令中的一个或多个,以基于所述第一虚拟环境模式的第一虚拟环境皮肤生成所述虚拟对象的第一虚拟环境视图,并基于所述第二虚拟环境模式的与所述第一虚拟环境皮肤不同的第二虚拟环境皮肤生成所述虚拟对象的第二虚拟环境视图。所述第一虚拟环境视图和所述第二虚拟环境视图可以并发的方式渲染在不同装置上。
所述虚拟对象的所述第一虚拟环境视图的所述第一虚拟环境皮肤可以与第一大小相关联,并且所述虚拟对象的所述第二虚拟环境视图的所述第二虚拟环境皮肤可以与不同于所述第一大小的第二大小相关联。
根据一个或多个方面,一种用于基于公共虚拟环境提供不同虚拟环境视角的系统可包括数据库、存储器、第一装置和第二装置。所述数据库可存储与虚拟环境相关联的虚拟环境模型,所述虚拟环境包括与虚拟环境坐标相关联的虚拟对象,第一功能对应于第一虚拟环境模式,并且第二功能对应于第二虚拟环境模式。所述存储器可存储一个或多个指令。所述第一装置可包括虚拟环境引擎,所述虚拟环境引擎执行存储在所述存储器上的所述指令中的一个或多个,以基于所述第一虚拟环境模式履行渲染所述虚拟对象的第一虚拟环境视图。所述第二装置可包括虚拟环境引擎,所述虚拟环境引擎执行存储在所述存储器上的所述指令中的一个或多个,以基于所述第二虚拟环境模式履行渲染所述虚拟对象的第二虚拟环境视图。所述第一虚拟环境视图和所述第二虚拟环境视图可以并发的方式由相应的装置进行渲染。所述虚拟对象可以在所述第一虚拟环境视图中被渲染为第一对象,并且可以在所述第二虚拟环境视图中被渲染为与所述第一对象不同的第二对象。
所述第一装置可以与第一输入和第二输入相关联。所述第二装置可以与第一输入和第二输入相关联。在所述第一装置处接收所述第一输入可触发所述第一功能并且在所述第二装置处接收所述第一输入可触发所述第二功能。所述第一功能和所述第二功能可具有对应的动画。
附图说明
图1是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的系统的示例性操作环境的示意图。
图2是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的系统的示意图。
图3是根据一个或多个方面的图1的示例性虚拟环境引擎的框图。
图4是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的示例性方法的流程图。
图5是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的示例性方法的流程图。
图6是根据一个或多个方面的包括数据流的示例性虚拟环境模型图。
图7是根据一个或多个方面的包括图6的虚拟环境模型的虚拟环境的示例性示意类图。
图8是根据一个或多个方面的示例性第一虚拟环境视图。
图9是根据一个或多个方面的对应于图8的第一虚拟环境视图的示例性第二虚拟环境视图。
图10是根据一个或多个方面的另一个示例性第一虚拟环境视图。
图11是根据一个或多个方面的对应于图10的第一虚拟环境视图的另一个示例性第二虚拟环境视图。
图12是根据一个或多个方面的虚拟环境视图可基于其的真实世界环境的示例性视图。
图13是根据一个或多个方面的实现本文所述的虚拟环境系统的示例性系统架构的示意图。
图14A至图14B是根据一个或多个方面的公共虚拟环境的示例性第一虚拟环境视图和示例性第二虚拟环境视图。
图15A至图15B是根据一个或多个方面的公共虚拟环境的示例性第一虚拟环境视图和示例性第二虚拟环境视图。
图16A至图16B是根据一个或多个方面的公共虚拟环境的示例性第一虚拟环境视图和示例性第二虚拟环境视图。
图17是根据一个或多个方面的包括处理器可执行指令的示例性计算机可读介质或计算机可读装置的图解,所述处理器可执行指令被配置来体现本文所阐述的一个或多个提供项(provision)。
图18是根据一个或多个方面的示例性计算环境的图解,其中实现了本文所阐述的一个或多个提供项。
具体实施方式
图1是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的系统100的示例性操作环境的示意图。用于基于公共虚拟环境提供不同虚拟环境视角的系统100可包括计算装置102。计算装置102可包括处理器104、存储器106、盘108、全球定位系统(GPS)110、输入/输出接口112和将相应部件互连的总线114。处理器104可包括虚拟环境引擎116。盘108和虚拟环境引擎116可被配置为基于存储在盘108上的单个虚拟环境向不同用户呈现多个虚拟环境视图。存储器106可存储一个或多个指令,并且处理器104或其虚拟环境引擎116可执行存储在存储器106上的指令中的一个或多个以履行生成一个或多个虚拟环境视图,如本文将描述的。根据操作环境,系统100可以与其他系统或部件进行交接或通信。例如,系统100可以与一个或多个车辆系统118、一个或多个车辆传感器120进行交接或通信,或者在网络122上与诸如服务器的其他计算装置进行通信。
最终,诸如虚拟现实头戴式装置的一个或多个装置124可从系统100的虚拟环境引擎116接收渲染馈送。在其他实施方案中,虚拟环境引擎116可以位于网络122上的一个服务器(未示出)上,并且可远程履行相关联的计算或处理。装置124可以是便携式装置(例如,智能电话等)。
根据一个或多个方面,可以基于真实世界环境生成虚拟环境。例如,车辆传感器120可捕获、检测或感测来自真实世界环境的一个或多个特征并相应地构建虚拟环境,如将在本文的图12中更详细地描述的。
图2是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的系统100的示意图。在图2中,系统100包括处理器104(其包括虚拟环境引擎116)、存储器106、数据库108(例如,在图1中体现为盘108)和通信接口112(例如,在图1中体现为输入/输出接口112)。通过通信接口112,系统100可向不同装置提供一个或多个渲染馈送。例如,诸如移动装置或智能电话224a的第一装置可通过通信接口112从系统100的虚拟环境引擎116接收第一渲染馈送,平板电脑224b可通过通信接口112从系统100的虚拟环境引擎116接收第二渲染馈送,并且虚拟现实头戴式装置224c可通过通信接口112从系统100的虚拟环境引擎116接收第三渲染馈送。图1的装置124可包括图2的智能电话224a、平板电脑224b或虚拟现实头戴式装置224c中的任何一个等等。渲染馈送可包括由处理器104的虚拟环境引擎116生成的一个或多个虚拟环境视图(例如,一个或多个连续生成的虚拟环境视图可形成用于渲染馈送的动画)。
图3是根据一个或多个方面的图1的示例性虚拟环境引擎116的框图。虚拟环境引擎116可管理或生成与虚拟环境相关联的数据。这种与虚拟环境相关联的数据可称为虚拟环境模型310,并且可存储在图2的数据库108上。因此,数据库108可存储虚拟环境或与其相关联的数据(诸如虚拟环境模型310)。虚拟环境模型310可包括与对应的虚拟环境坐标相关联的一个或多个虚拟对象(例如,第一虚拟对象、第二虚拟对象、第三虚拟对象等)。每个虚拟对象可以与不同组的功能相关联,诸如第一组功能对应于第一虚拟环境模式,并且第二组功能对应于第二虚拟环境模式。第一组功能可包括第一功能,并且第二组功能可包括第二功能。因此,第一功能可对应于第一虚拟环境模式,并且第二功能可对应于第二虚拟环境模式。
例如,第一虚拟对象可以与虚拟环境坐标相关联,第一组功能对应于第一虚拟环境模式,并且第二组功能对应于第二虚拟环境模式。类似地,第二虚拟对象可以与虚拟环境坐标相关联,并且(例如,其自身的)第一组功能对应于第一虚拟环境模式,并且第二组功能对应于第二虚拟环境模式。
虚拟对象可表示或指示对象、人或角色(例如,其他用户或不可玩的角色),并且与通过与虚拟对象相关联的不同组的功能或节点体现的不同组的属性、特性、反应、对话等相关联。
虚拟环境引擎116可基于对应的虚拟环境模式生成同一虚拟对象的不同虚拟环境视图,如将在本文中更详细地描述的。例如,处理器104的虚拟环境引擎116可基于第一虚拟环境模式生成第一虚拟对象的第一虚拟环境视图(例如,第一视角),并且基于第二虚拟环境模式生成第一虚拟对象的第二虚拟环境视图(例如,第二视角)。虚拟环境引擎116可因此为虚拟环境内的每个虚拟对象生成视图。又如,处理器104的虚拟环境引擎116可基于第一虚拟环境模式生成第二虚拟对象的第一虚拟环境视图,并且基于第二虚拟环境模式生成第二虚拟对象的第二虚拟环境视图。
换句话说,处理器104的虚拟环境引擎116可基于与第一虚拟环境模式相关联的第一虚拟环境皮肤生成虚拟对象的第一虚拟环境视图,并且基于第二虚拟环境模式的第二虚拟环境皮肤生成生成虚拟对象的第二虚拟环境视图。与第二虚拟环境模式相关联的第二虚拟环境皮肤可以与第一虚拟环境皮肤不同。此外,虚拟环境皮肤可以与不同的虚拟对象属性相关联。
例如,虚拟对象的第一虚拟环境皮肤可以与第一大小、第一形状、第一颜色等相关联。虚拟对象的第二虚拟环境视图的第二虚拟环境皮肤可以与第二大小(其与第一大小不同)、第二形状(其与第一形状不同)、第二颜色(其与第一颜色不同)等相关联。在任何情况下,当不同用户的相应的虚拟环境模式不同或具有不同的值(例如,图8的用户802正在体验第一模式并且图9的用户902正在体验第二模式,如将在下面更详细地论述的)时,不同用户之间的感知、视角或视图是不同的。
以这种方式,面对第一虚拟环境视图的第一用户以与面对第二虚拟环境视图的第二用户不同的方式体验第一虚拟对象,即使两个用户在提供相应类似的输入(例如,两个用户都按下'A'按钮)之后正同时使用类似的设备从虚拟环境内相同的角度查看同一虚拟对象(例如,第一虚拟对象),诸如此类。因此,虚拟环境引擎116(及其模块)可实现生成虚拟环境的多个虚拟环境视图,其被不同的用户或虚拟现实参与者(例如,已经做出第一组游戏选择、体验第一模式的第一用户,以及已经做出不同于第一组游戏选择的第二组游戏选择、体验第二模式的第二用户,或者体验不同于年长的少年的模式的年幼的儿童)以不同的方式感知或看到。这些用户或参与者中的每一个从他们自己独特的视角或虚拟环境视图体验虚拟环境模型310的虚拟环境,所述视角或虚拟环境视图是基于他们相关联的虚拟环境模式(例如,在每个用户的基础上由用户确定)。
换句话讲,当第二虚拟环境视图渲染在平板电脑224b上时,第一虚拟环境视图可以同时或并发地渲染在智能电话224a上。以这种方式,第一虚拟环境视图和第二虚拟环境视图以并发的方式分别渲染在不同的装置224a和224b上。换一种方式解释,第一虚拟对象在第一虚拟环境视图中具有第一渲染(例如,对于第一用户),并且在第二虚拟环境视图中具有与第一渲染不同的第二渲染(例如,对于第二用户),从而为两个用户提供来自公共虚拟环境(例如,与相同、公共或单个虚拟环境模型310相关联)的不同体验。
例如,可以在智能电话224a上渲染第一虚拟对象的第一虚拟环境视图,并且可以在平板电脑224b上渲染第一虚拟对象的第二虚拟环境视图。
存储在数据库108上的虚拟环境模型310可包括用于基于一个或多个不同的虚拟环境模式(例如,第一虚拟环境模式、第二虚拟环境模式……)生成一个或多个不同的虚拟环境视图(例如,第一虚拟环境视图、第二虚拟环境视图......)的数据或指令。尽管以下描述和附图包括与两个不同的虚拟环境模式相关联(例如,与不同的视图、渲染、特性、属性、功能、用户等相关联)的两个不同的虚拟环境视图,但可预期另外的(例如,第三、第四、第五……)虚拟环境模式和虚拟环境视图。
在任何情况下,智能电话224a和第一虚拟环境模式可以与第一类型的用户相关联,并且平板电脑224b和第二虚拟环境模式可以与第二类型的用户相关联。一种类型的用户(例如,第一类型的用户、第二类型的用户等)可以由以下项限定或基于以下项:与用户312相关联的人口统计资料、与用户312相关联的账户、与用户312相关联的硬件(例如,智能电话224a的硬件对平板电脑224b的硬件)。人口统计资料的实例包括年龄、性别、教育水平、收入水平、婚姻状况、职业、宗教信仰等。另外,用户的类型可以由虚拟环境引擎116基于例如一个或多个用户选择来进行限定。用户选择可以与游戏玩法相关,但不一定是对游戏皮肤的直接选择。例如,用户对游戏体裁、游戏类型、选定的游戏、选定的角色的选择、在游戏评级或先前游戏玩法中的选择可用于影响是使用第一虚拟环境模式还是使用第二虚拟环境模式。
就这一点而言,通过虚拟环境引擎116,可在用户选择第一游戏时应用第一虚拟环境模式,并且可在用户选择第二游戏时应用第二虚拟环境模式。以下将在图14至图16中描述不同游戏(例如,第一游戏和第二游戏)的实例。此外,虚拟环境引擎116可以利用先前玩过的游戏的用户评论来确定对应的虚拟环境模式。换句话讲,如果用户留下与第一游戏(其与第一虚拟环境模式相关联地执行)相关联的负反馈,则未来对相同游戏的选择可导致虚拟环境引擎116执行与虚拟环境模式相关联的第二游戏。类似地,对第一角色的选择可导致针对该用户使用第一虚拟环境模式,而对第二角色的选择可导致针对该用户使用第二虚拟环境模式。然而,选择第一角色的另一个用户可能由于其他用户选择(例如像,不同的游戏选择)而体验第二虚拟环境模式。
在任何情况下,用户312可以基于来自车辆系统118和车辆传感器120(其可提供车辆数据318、用户数据320或其他数据322)的输入通过一个或多个装置124体验虚拟环境视图。来自车辆系统118和车辆传感器120的信息可以由虚拟环境引擎116处理并且在虚拟环境引擎116的虚拟环境数据模块302处接收。动态虚拟环境模块306可生成虚拟环境视图,而渲染模块308可渲染虚拟环境视图。在图3中,虚拟环境引擎116是与装置124分开的部件,并且例如可以位于车辆上。
在其他实施方案中,装置124可具有其自身的虚拟环境引擎(例如,图13的1320),并且可以在系统100或车辆的虚拟环境引擎116和/或处理器104与装置124的虚拟环境引擎1320和/或处理器1324之间划分或分割处理、计算、生成虚拟环境视图或渲染虚拟环境视图。例如,虚拟环境视图的生成可发生在系统100(例如,车辆侧)的虚拟环境引擎116的动态虚拟环境模块306上,并且虚拟环境视图的渲染可发生在装置124(例如,虚拟环境装置侧,诸如图13的虚拟环境引擎框架1320)的虚拟环境引擎的渲染模块上。
图4是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的示例性方法400的流程图。例如,所述方法可包括在402处接收车辆数据和用户数据。用户数据可包括虚拟环境模式,其指示虚拟环境引擎116如何渲染或生成虚拟环境。在404处,可以基于车辆数据和用户数据生成虚拟环境视图。在406处,可以基于虚拟环境模式渲染虚拟环境视图。在408处,可以更新和重新渲染虚拟环境视图。
图5是根据一个或多个方面的用于基于公共虚拟环境提供不同虚拟环境视角的示例性方法500的流程图。在502处,所述方法可包括存储或访问虚拟环境。每个虚拟对象可以与对应于第一虚拟环境模式或皮肤和第二虚拟环境模式或皮肤的功能组相关联。在504处,所述方法可包括(诸如针对智能电话224a)基于第一虚拟环境模式或第一虚拟环境皮肤生成或渲染虚拟对象的第一虚拟环境视图。在506处,所述方法可包括(诸如针对平板电脑224b)以与第一虚拟环境视图并发的方式基于第二虚拟环境模式(作为不同对象)或第二虚拟环境皮肤生成或渲染虚拟对象的第二虚拟环境视图。
图6是根据一个或多个方面的包括数据流的示例性虚拟环境模型图。图7是根据一个或多个方面的包括图6的虚拟环境模型310的虚拟环境的示例性示意类图700。现将参考图6至图7描述示例性虚拟环境模型310。参考图6至图7论述的类节点、功能、对象、属性、引用、方法、触发程序和事件(例如,限定虚拟环境视图706的部件)在本质上是示例性的并且不意图进行限制。
在图6中,虚拟环境模型310可包括限定虚拟环境视图706的一个或多个部件。例如,在图6中,模型包括视图类节点602、环境结构类节点604、事件输入(eventsIn)类节点606和事件输出(eventsOut)类节点608,其可致使虚拟环境引擎116输出、生成或者渲染虚拟事件610或以其他方式执行与前述类节点602、604、606、608等中的一个或多个相关联的功能。图6中的类节点可包括与参考图7描述的类节点类似的方法、属性、字段和引用。图6还示出例如用于增强类节点的到类节点的示例性数据流。具体地,动态虚拟环境模块306可使用这些类型的数据来增强特定的类节点。
如图3中所论述的,数据可包括车辆数据318、用户数据320和/或其他数据322。图6所示的数据的类型是图3中的车辆数据318、用户数据320和/或其他数据322的类型。具体地,在图6中,数据包括但不限于:车辆运动数据612(包括车辆动力学数据)、用户运动数据613、车辆运动预测数据614、导航数据616、大数据618和驾驶员动作数据620。
通常,虚拟环境模型310是许多单个操作(例如,功能或功能组)和虚拟对象710的集合,所述虚拟对象710限定虚拟环境702和至少两个虚拟环境视图706,每个虚拟环境视图与对应的虚拟环境模式相关联。根据本公开,每个虚拟对象710与两个或更多个虚拟环境视图706相关联,所述虚拟环境视图706由虚拟环境引擎116根据或基于(例如,作为参数)传递到虚拟环境引擎116的虚拟环境模式、节点或功能来渲染或生成。根据一个或多个方面,虚拟环境模式可以是数字的数据类型(例如,模式1、模式2、模式3等)。例如,虚拟环境模式可包括第一模式、第二模式、第三模式等。在其他实施方案中,虚拟环境模式可以是其自身的数据类型(例如,虚拟环境模式数据类型)。例如,虚拟环境模式可包括第一模式和第二模式。在另一实例中,虚拟环境模式可包括学步儿童模式、学龄前儿童模式、学龄儿童模式、少年模式、青年模式、成人模式等。
在任何情况下,无论特定模式、模式的名称或所使用的数据类型如何,虚拟环境引擎116都可相应地生成(例如,使用类节点、类节点内的节点、类节点内的功能和作为输入或作为参数的虚拟环境模式)虚拟环境视图706。尽管本公开将第一模式和第二模式描述为实例(例如,图8和图10针对第一模式,以及图9和图11针对第二模式),但是本文提供的模式列表并非旨在进行限制,并且可预期其他模式。
可使用各种建模或编程语言来限定虚拟环境模型310,例如,虚拟环境建模语言(VRML)、DirectX、OpenGL、Unity等。如图7所示,虚拟环境702可包括一个或多个虚拟环境视图706。虚拟环境702和虚拟环境视图706可包括一个或多个虚拟对象710。虚拟环境视图706和虚拟对象710由一个或多个类节点(诸如示例性类节点704)限定。根据一个或多个方面,可以将节点分组并应用于分层结构中的一个或多个虚拟环境视图706和/或虚拟对象710。例如,类节点704的组可应用于与具体节点组(例如,类节点704的组)相关联的虚拟环境视图706和/或虚拟对象710的父节点和子节点。
每个类节点704可包括限定和/或修改类节点(例如像其他节点、属性、字段、方法、功能和/或引用)的部件。根据一个或多个方面,可基于虚拟环境702(例如,针对具体的主题、游戏等)预定义节点、属性、字段、方法和/或引用。另外,在其他实施方案中,可基于用户312或用户偏好来预定义节点、属性、字段、方法和/或引用。图6至图7中未包括的其他类节点、属性、字段、方法和/或引用可被实现并且可以基于本文所述的不同的建模和编程语言。
在图7中,类节点704的组包括视图类节点712、环境结构类节点714、事件输入类节点716和事件输出类节点718。根据一个或多个方面,处理器104的虚拟环境引擎116可以基于虚拟环境模型310、虚拟环境模型310内表示的虚拟对象710以及对应的虚拟环境模式生成虚拟环境视图706。例如,这些变量可以作为参数传递到视图类节点712。
视图类节点712可包括基于虚拟环境模式生成视图的功能,所述虚拟环境模式是作为参数传递到视图类节点712的节点的输入变量或参数。视图类节点712可限定虚拟环境视图706、虚拟对象710的位置和/或取向、与虚拟环境视图706和/或虚拟对象710相关联的功能和/或操作。
例如,在图7中,变换节点可用于执行几何变换,并且可包括与位置、旋转和缩放相关联的属性,其可以基于作为与变换节点相关联的功能的参数的虚拟环境模式进行计算。图像效果节点可以类似的方式基于虚拟环境模式操纵图像后处理效果。示例性图像后处理效果包括景深、运动和模糊等。行为节点可用于基于虚拟环境模式启用和禁用不同的行为,例如像,动画和运动。视觉效果节点可用于基于虚拟环境模式限定视觉效果,例如像,线渲染器、晕轮效果、拖尾渲染器等。渲染节点可用于基于虚拟环境模式限定用于渲染游戏内和用户界面元素的设置和部件。
例如,环境结构类节点714可包括一个功能,所述功能基于作为功能的参数的虚拟环境模式限定视图的一个或多个方面或特性。例如,可基于虚拟环境模式(例如,第一虚拟环境模式、第二虚拟环境模式等)来不同地限定给定虚拟对象710的纹理。由环境结构类节点714限定的其他属性可包括大小、形状、外观、纹理、材料、碰撞效果、透明度、存在性、几何形状等。例如,虚拟对象710可以第一虚拟环境模式存在,而不以第二虚拟环境模式存在。虚拟对象710可以在第一虚拟环境模式中与第一大小相关联,并且在第二虚拟环境模式中与第二大小相关联。
环境结构类节点714可限定虚拟环境视图706、虚拟对象710的结构和外观、与其相关联的功能和/或操作。类似于视图类节点712,环境结构类节点714的节点可基于作为参数的虚拟环境模式来限定或计算结构。就这一点而言,几何节点可用于基于虚拟环境模式限定与虚拟对象710相关联的形状。外观节点可用于基于虚拟环境模式限定可见属性,诸如纹理和材料。地形节点可用于基于虚拟环境模式限定地形和景观的各方面,如图8至图11所示。基于虚拟环境模式,碰撞节点可限定虚拟环境视图706中的哪些对象与碰撞状态相关联(例如,另一虚拟对象是否可以经过该虚拟对象而不与虚拟对象发生碰撞)。同样,虚拟环境模式可以与不同的装置124相关联,并且基于用户的人口统计资料、与用户相关联的账户、装置124的硬件或虚拟现实头戴式装置的硬件来确定。
事件输入类节点716可包括限定事件输出类节点718的一个或多个触发程序的功能。例如,接收'A'按钮的敲击可触发输出事件。事件输入类节点716限定每个节点可接收(例如,触发)或生成的事件的类型和名称。例如,事件管理器节点可限定自定义事件并且包括确定事件触发程序(例如,根据用户数据、用户输入数据或车辆数据确定)以初始化或触发特定事件的事件处理程序和监听器。类型字段限定事件的类型,节点字段限定事件应用于哪一个或多个节点,并且设置_字段名称(set_fieldname)方法可用于在事件期间修改字段的值。事件输出类节点718可管理事件的执行和路由。字段名称_改变(fieldname_changed)字段指示在事件期间更改哪一个或多个字段,类型字段限定事件的类型,节点字段可限定事件应用于哪个节点,并且路由方法限定事件如何发送到节点以及节点如何接收和生成事件。尽管在图7的实施方案中未示出,但是类似于视图类节点712和环境结构类节点714,其他类节点716和718可接收作为参数的虚拟环境模式。
类节点和/或相关联的功能或节点可存储在图2的数据库108上。因此,这些节点或功能可分别基于作为第一虚拟环境模式或第二虚拟环境模式的虚拟环境模式来生成第一虚拟环境视图或第二虚拟环境视图。根据一个或多个方面,虚拟环境模式可以是数字的数据类型(例如,模式1、模式2、模式3等)或者具有其自身的数据类型(例如,虚拟环境模式数据类型)。
类节点和部件可根据车辆数据和用户数据中的至少一个来增强,以为用户312生成动态虚拟环境702和/或虚拟环境视图706。根据一个或多个方面,车辆数据612、614、616和用户数据613、620可用于初始化节点、设置属性和字段以及初始化或限定事件。
图8是根据一个或多个方面的示例性第一虚拟环境视图800。图9是根据一个或多个方面的对应于图8的第一虚拟环境视图800的示例性第二虚拟环境视图900。
在图8中,第一虚拟环境视图包括根据第一虚拟环境模式的第一用户802的第一人物视角或视图。第一用户的第一虚拟环境视图包括另一用户或第二用户804。这里,在这个实例中,第一用户802可以通过第一虚拟环境视图看到第二用户804正在与渲染为龙806(例如,不可玩的角色)的虚拟对象进行交互。例如,这里,第二用户804似乎正在对抗龙806。虚拟环境的第一虚拟环境视图可包括其他虚拟对象,诸如城堡810。虚拟对象城堡810与虚拟对象属性相关联,所述属性包括大小、形状、长度、高度812、宽度814等,其可由类节点704的一个或多个节点或功能来限定。
此外,第一虚拟环境视图可包括其他虚拟对象,诸如剑820、壁830、树840等。另外,第一虚拟环境视图可包括虚拟环境特征,例如像草862、砖路864和路径866。虚拟对象或虚拟环境特征中的一个或多个可以与同第二虚拟环境视图(诸如图9的第二虚拟环境视图900)相关联的虚拟对象或虚拟环境特征具有一对一的对应关系。
在图9中,第二虚拟环境视图900包括根据第二虚拟环境模式的第一用户902的第一人物视角或视图。第二虚拟环境视图包括第一用户902和第二用户904。在图9中,第一用户902可以通过第二虚拟环境视图看到第二用户904正在与渲染为矮种马906(例如,不可玩的角色)的虚拟对象进行交互。这里,在这个实例中,第二用户904似乎正在爱抚矮种马906。虚拟环境的第二虚拟环境视图可包括其他虚拟对象,诸如房屋910。虚拟对象房屋910与虚拟对象属性相关联,所述属性包括大小、形状、长度、高度912、宽度914等,其可由类节点的一个或多个节点或功能来限定。
尽管图9的房屋910的坐标与图8的城堡810的坐标对应,但是房屋910的宽度914可以不同于城堡810的宽度814,并且房屋910的高度912可以不同于城堡810的高度812。然而,与中心(例如,质心、中点或横向中心)相关联的虚拟环境坐标对于城堡810和房屋910来说可以是相同的。以这种方式,可以在不同的虚拟环境模式之间不同地感知虚拟对象(例如,图8至图9的相同虚拟对象在第一虚拟环境模式中与第一大小相关联并且在第二虚拟环境模式中与第二大小相关联)。
第二虚拟环境视图900可包括其他虚拟对象,诸如棒920、壁830和与图8的树840不同地渲染的树940。第二虚拟环境视图900可包括谷仓950和草960,由于与以不同方式解释第一虚拟环境模式和第二虚拟环境模式的类节点相关联的碰撞功能,所述谷仓950和草960在图8的第一虚拟环境视图800中不存在或不具有对应的渲染。另外,第二虚拟环境视图可包括虚拟环境的虚拟环境特征,诸如草962、土路964和路径966,并且可对应于图8的草862、砖路864和路径866。虚拟对象或虚拟环境特征中的一个或多个可以与同第一虚拟环境视图(诸如图8的第一虚拟环境视图)相关联的虚拟对象或虚拟环境特征具有一对一的对应关系。
虽然一些虚拟对象与匹配的属性、功能、节点等相关联或以其他方式在第一虚拟环境模式与第二虚拟环境模式之间具有一些一对一的对应关系,但是其他虚拟对象可能不一定在不同的虚拟环境模式之间具有相同的关系。例如,图8的剑820和图9的棒920可以具有相同的移动模式或动画功能、大小属性等。相反,基于作为类节点的一个或多个功能的参数的虚拟环境模式,图9的谷仓950可以在图8中是不可见的并且是不可碰撞的。如已经论述的,图8的城堡810和图9的房屋910可具有不同的大小属性或特性。此外,其他虚拟对象可以在第一虚拟环境模式与第二虚拟环境模式之间看起来相同。例如,壁830在图8至图9的两个不同虚拟环境模式中看起来是相同的并且以相同的方式且在相同的位置中渲染。
虚拟环境模型310可包括一个或多个虚拟对象,其可以根据第一虚拟环境视图(例如,与第一虚拟环境模式相关联)被渲染为第一用户802、第二用户804、龙806、城堡810、剑820、壁830和树840,所述虚拟对象在虚拟环境中各自具有其自身的虚拟环境坐标。相同的虚拟对象可以根据第二虚拟环境视图(例如,与第二虚拟环境模式相关联)被分别渲染为第一用户902、第二用户904、矮种马906、房屋910、棒920、壁830和树940,并且具有相同或对应的虚拟环境坐标。
根据一个或多个方面,第一组功能与第二组功能具有一对一的触发程序对应关系。换句话讲,接收来自用户的输入或第一用户输入可致使或触发执行对应的功能。例如,数据库108可存储与图8至图9的所描绘的虚拟环境相关联的虚拟环境模型310。将图8的龙806和图9的矮种马906作为这个实例中的第一虚拟对象,图8的龙806可以与第一功能相关联,而表示为图9的矮种马906的相同的第一虚拟对象可以与第二功能相关联。例如,第一功能和第二功能可以是空闲行为功能,其指示作为龙806或矮种马906的第一虚拟对象的移动、动画、外观、纹理等。
在第一用户802与第一虚拟环境模式相关联的图8中,处理器104的虚拟环境引擎116的动态虚拟环境模块306可生成第一虚拟环境视图以包括一个场景,其中龙806在虚拟环境中围绕一定范围徘徊或在预定义的周边(未示出)内徘徊并呼出火焰,从而燃烧草862。对应地,在第一用户902与第二虚拟环境模式相关联的图9中,处理器104的虚拟环境引擎116的动态虚拟环境模块306可生成第二虚拟环境视图以包括一个场景,其中矮种马906在虚拟环境中围绕所述范围徘徊或在预定义的周边(未示出)内徘徊并食用草962。
以这种方式,与第一虚拟环境模式相关联的第一功能和与第二虚拟环境模式相关联的第二功能可以彼此对应(例如,因为这两个功能共享预定义的周边作为变量并且涉及控制作为龙806或矮种马906的第一虚拟对象的空闲行为的方面)。就这一点而言,第一组功能或第一功能可以与第二组功能或第二功能具有一对一的参数对应关系。例如,第一功能和第二功能都可以接收相同数量的参数,具有相同数量的输入和输出,其中参数具有相同的数据类型等。
根据一个或多个方面,第一组功能或第一功能与第二组功能或第二功能具有一对一的动画对应关系。例如,在接收来自第一用户的与第一虚拟环境模式相关联的第一输入或相同类型的用户数据时,处理器104的虚拟环境引擎116的动态虚拟环境模块306可生成第一虚拟环境视图(与第一虚拟环境模式和智能电话224a相关联)以包括第一用户挥砍剑820的场景。相反地或对应地,在接收来自第一用户的相同类型的第一输入时,处理器104的虚拟环境引擎116的动态虚拟环境模块306可生成第二虚拟环境视图(与第二虚拟环境模式和平板电脑224b相关联)以包括第一用户挥动棒920的场景。根据一个或多个方面,类节点和类节点的节点可以使用相同的变量作为输入,执行对应的计算或生成对应的视图,所述视图可包括部分相同的特征和/或部分不同的特征。
例如,根据一个或多个方面,在以上描述的剑820挥砍和棒挥动场景中,剑820和棒920可具有相同的几何形状、行为或动画(例如,移动或运动),但具有不同的纹理或外观。这样,与第一虚拟环境模式相关联的用户802和与第二虚拟环境模式相关联的用户902可以将剑820和棒920看作具有相同尺寸或相同大小且使用相同的移动模式来移动的虚拟对象。
根据一个或多个方面,视图类节点712的行为节点的动画功能或节点可以基于虚拟环境模式执行多次剑挥砍或棒挥动。例如,基于不同的虚拟环境模式,棒挥动可能仅发生两次,而剑挥砍可能发生三次。在其他实施方案中,可以基于与角色相关联的级别来不同地执行功能、节点等。例如,十级战士802可以将他或她的剑820挥砍十次,而三级战士802仅可以将他或她的剑820挥砍三次。
因为外观节点(例如,参考图7)可以为剑820和棒920生成不同的纹理或材料属性,一个可能看起来是有光泽的,而另一个可能看起来是黑色和无光泽的。此外,音频效果节点(图7中未示出)可生成不同的音频效果(例如,用于剑820的挥砍声音和用于棒920的魔术棒声音效果)。
根据一个或多个方面,可以奖励用户和/或可以跟踪或记录分数以用于与虚拟环境的虚拟对象的交互或与其进行交互。例如,如果图8的用户802攻击(例如,执行与第一虚拟环境模式相关联的第一功能)龙806,则虚拟环境引擎116可以向用户802提供奖励(例如,到相关联的用户帐户的信用积分等)。基于第一功能与第二功能之间的一对一的对应关系,如果图9的用户902使用棒920在矮种马906处挥动(例如,履行与第二虚拟环境模式相关联的第二功能),则虚拟环境引擎116可以向图9的用户902提供类似或对应的奖励(例如,到相关联的用户账户的信用积分等)。
图10是根据一个或多个方面的另一个示例性第一虚拟环境视图1000。图11是根据一个或多个方面的对应于图10的第一虚拟环境视图1000的另一个示例性第二虚拟环境视图1100。图10至图11将参考彼此进行描述,因为图11的第二虚拟环境视图对应于图10的第一虚拟环境视图。
如图10所示,在示例性第一虚拟环境视图中示出了两个用户802和804(例如,一种类型的虚拟对象)——第一用户802和第二用户804。在基于第一虚拟环境模式的这个第一虚拟环境视图中,第一虚拟环境视图的第一渲染被呈现给第三用户(未示出),并且使用第一皮肤渲染第一用户802。
在图11中,存在相同的两个用户902和904。在这个第二虚拟环境视图中,第二虚拟环境视图的第二渲染被呈现给第四用户(未示出),并且使用第二皮肤渲染第一用户902。换句话讲,因为基于第二虚拟环境模式选择第二虚拟环境视图,所以图11的第一用户902和第二用户904被不同地渲染并且与不同组的功能相关联。例如,第一用户802可以与图10中的第一对话功能相关联,并且第一用户902可以与图11中的第二对话功能相关联。
换句话讲,当第三用户提供指向图10的第一用户802的输入时,可以执行第一对话功能,从而向第三用户呈现第一组对话。相反地,当第四用户提供指向图11的第一用户902的相同或对应的输入时,可以执行第二对话功能,从而向第四用户呈现第二组对话。以这种方式,虚拟环境引擎116可以使用类节点(例如,行为、几何和外观)的节点来使用户能够彼此交互,但是通过不同的皮肤或不同的视角来不同地感知他们的交互。并非所有类节点的功能或节点都需要具有上述一对一的对应关系。例如,根据一个方面,第一对话可仅包括文本渲染和/或音频,而第二对话可包括对应的文本渲染、音频和诸如用户递交虚拟对象花的动画。
尽管图10的第三用户与第一虚拟环境模式相关联并且图11的第四用户与第二虚拟环境模式相关联,但是图10的第三用户可以与图11的第四用户交互。换句话讲,用户可以在公共虚拟环境中彼此交互,但是以不同方式感知虚拟环境内的虚拟对象并且基于其相关联的虚拟环境模式而具有不同的交互。
就这一点而言,图10是第三用户正在根据第一模式体验虚拟环境的场景的示例性图解,并且图11是第四用户正在根据第二模式体验虚拟环境的场景的示例性图解,其中所有事物都相同(例如,位置、坐标、用户的方位、从相应用户提供的输入),除了对于图10,虚拟环境模式处于第一模式(例如,第一模式),以及对于图11,虚拟环境模式处于第二模式(例如,第二模式)。
因此,使用视图类节点712,处理器104的虚拟环境引擎116可为第三用户生成第一用户作为携带剑820的战士804的第一虚拟环境视图(例如,与第一虚拟环境模式相关联),同时为第四用户生成第一用户作为携带棒920的公主904的第二虚拟环境视图(例如,与第二虚拟环境模式相关联)。因为与视图类节点712和环境结构类节点714相关联的节点或功能被提供有作为参数的对应用户的虚拟环境模式(如参考图7所论述),所以功能或节点(例如像,变换、图像效果、行为、视觉效果、几何和外观)可以使虚拟环境引擎116能够为第三用户和第四用户以不同的方式渲染或生成图10至图11的虚拟对象(并且具有不同的动画、反应、触发程序、事件输入或事件输出)。
以另一种方式解释,图10至图11的相同的第一用户可以由另一个用户基于与该用户相关联的虚拟环境模式以不同的方式感知、渲染或查看(例如,第三用户可将第一用户感知为男性并且第四用户将第一用户感知为女性),所述虚拟环境模式可以基于该用户做出的选择来确定或选定,所述选择不一定与游戏皮肤的选择直接相关。因此,可以由虚拟环境引擎116基于虚拟环境模式来创建或生成相同或公共虚拟环境的两个不同的虚拟环境视角(以及由此而来的游戏)。
图12是根据一个或多个方面的虚拟环境视图可基于其的真实世界环境1200的示例性视图。真实世界环境可包括建筑物1210、围栏1230、树1240、消防栓1250、停止标志1260、第一道路1262、第二道路1264和人行道1266。如前所述,系统100的车辆传感器120可收集、感测或检测来自真实世界环境的数据,并将此数据馈送到存储在数据库108上的虚拟环境模型310。以这种方式,车辆传感器120可感测或检测来自真实世界环境的特征,其可用于生成或再现与虚拟环境模型310相关联的虚拟环境内的方面。
在图12的实例中,建筑物1210可根据虚拟环境模式对应于虚拟对象城堡810或房屋910。类似地,围栏1230可以对应于虚拟对象壁830,其在本文描述的实例中不基于虚拟环境模式而改变。树1240可基于虚拟环境模式对应于渲染为图8至图9的树840和940的虚拟对象。类似地,道路和人行道1262、1264和1266可根据虚拟环境模式对应于作为图8至图9的862、864和866或962、964和966的虚拟环境的特征。其他元件(诸如消防栓1250和停止标志1260)可以仅在一个(例如,第二)虚拟环境模式中显现(例如,作为谷仓950和草960)而不在另一个(例如,第一)虚拟环境模式中显现。在这个实例中,该对应关系涉及虚拟环境坐标或真实世界环境与虚拟环境的元素之间的空间关系。
因此,提供了多个玩家(例如,用户)可以玩虚拟环境游戏的车内虚拟环境体验,并且虚拟环境引擎116使用相同的虚拟环境模型310和/或虚拟环境坐标生成不同的视角或不同的虚拟世界。
图13是根据一个或多个方面的实现本文所述的虚拟环境系统的示例性系统架构的示意图。例如,图13的装置124可以是图2的虚拟现实头戴式装置224c。根据一个或多个方面,虚拟现实头戴式装置224c可包括虚拟环境引擎1320,所述虚拟环境引擎1320基于虚拟环境模式渲染虚拟对象的虚拟环境视图。根据一个或多个方面,图13的虚拟环境引擎1320可以履行以上所述的图1至图3的虚拟环境引擎的至少一些功能或计算。
在图13中,装置124包括应用程序层1302、中间件层1304、操作系统(OS)层1306和硬件层1308。示例性OS层1306可以是安卓(Android)OS。应理解,可以实现其他操作系统。此外,应理解,图13的一个或多个部件可以组合、省略或组织成不同的架构。例如,应用程序层1302可包括OS应用程序层的部件。
应用程序层1302可包括在装置124上运行的本机应用程序1310、非本机应用程序1312(例如,第三方)和原始设备制造商(OEM)应用程序1314。本机应用程序1310由装置124的制造商在本地安装和设计,以在装置操作系统(例如,安卓)上运行。例如,本机应用程序1310可包括应用程序,诸如联系人应用程序、电话应用程序和浏览器应用程序。非本机应用程序1312包括由第三方提供的应用程序。OEM应用程序1314包括由车辆OEM提供的用于与车辆(未示出)和装置124进行交互的应用程序。OEM应用程序1314可以与图形用户界面(GUI)相关联,以用于在装置124上启动由OEM服务器(例如,连接到例如图1的网络122)提供的OEM应用程序1314。
中间件层1304可包括用于操作装置124和装置124上的应用程序的库、框架和应用程序编程接口(API)。例如,通信框架(com FW)1316包括用于与外部服务器和装置进行连接和通信以及用于应用程序认证的提供项。车辆框架(车辆FW)1318是用于与车辆(例如,图2的车辆200)进行通信,操纵车辆数据交换(例如,与例如图1的车辆系统118和/或车辆传感器120)以及在图1的装置124与计算装置102之间提供触摸面板事件的特定框架。虚拟环境引擎框架(虚拟环境引擎FW)1320是用于促进动态车内虚拟环境体验的框架。例如,在一个或多个实施方案中,虚拟环境引擎FW 1320与图1的虚拟环境引擎116进行通信。在其他实施方案中,虚拟环境引擎FW 1320可包括或履行虚拟环境引擎116(例如,图3的虚拟环境数据模块302、动态虚拟环境模块306或渲染模块308)的功能。
OS层1306通常提供用于管理装置124的硬件和软件资源的服务,并且包括OS核心1322。OS核心1322可以是例如Android、iOS、Mobile Linux、Symbian OS、Windows Mobile、BlackBerry OS、Web OS或其他操作系统。
此外,硬件层1308可包括用于直接管理和访问硬件资源的提供项。装置124可包括硬件,诸如处理器1324、存储器1326、盘1328、位置和运动传感器1330、输入/输出装置1332(例如,装置124的触摸屏、装置124的键盘和装置124的麦克风)。硬件层1308的部件可以通过例如总线1334彼此通信。装置124可包括与图1的计算装置102相同或类似的部件。因此,根据一个或多个方面,装置124(具体地,硬件层1308的部件)可执行参考图1的虚拟环境引擎116描述的一个或多个功能。例如,存储器1326可存储一个或多个指令,并且处理器1324或其虚拟环境引擎1320可执行存储在存储器1324上的指令中的一个或多个以履行生成本文所述的虚拟环境视图。在其他实施方案中,虚拟环境引擎1320可执行存储在系统100的存储器106上的一个或多个指令以履行生成虚拟环境视图。
位置和运动传感器1330可包括基于硬件和或软件的传感器。例如,运动传感器可包括基于硬件的加速度计、陀螺仪、磁力仪等。运动传感器还可包括基于软件的重力传感器、线加速度传感器和旋转矢量传感器。根据一个或多个方面,基于软件的传感器可以从加速度计和磁力仪导出数据。在其他实施方案中,基于软件的传感器可使用陀螺仪来导出这个数据。运动传感器可用于监测装置移动,诸如倾斜、摇晃、旋转或摆动。移动可以是直接用户输入的反映,但它也可以是装置124所处的物理环境的反映。例如,装置124可检测其所在和/或附接的车辆的移动。硬件抽象层的部件可以从此类传感器导出运动数据,所述传感器例如像陀螺仪模块、加速度模块、磁力模块、旋转矢量模块、线加速度模块和重力模块。
类似地,位置传感器可包括基于硬件的地磁场传感器和接近传感器。取向传感器可以是基于软件的,并且可以从加速度计和/或地磁场传感器、陀螺仪、磁力仪等导出其数据。位置传感器可用于确定世界参照系或另一参照系(例如,车辆参照系(例如,车辆的运动参照系))中的装置124物理位置。在另一实施方案中,取向传感器(或类似的基于传感器的取向方法)可用于确定应用程序参照系中的装置124位置。
应理解,装置124还可包括其他传感器,例如环境传感器(例如,湿度、亮度、环境压力和环境温度)。此外,在另外的实施方案中,装置124的摄像机(未示出)可以用作传感器,以从摄像机获取的图像数据检测运动、位置、手势识别等。位置和运动传感器1330可通过使用位置和运动传感器1330独立于车辆系统118和传感器120收集和获得车辆数据(包括车辆动态数据)。
相对于图2,智能电话224a可以基于第一虚拟环境模式渲染虚拟对象的第一虚拟环境视图,并且平板电脑224b可以基于第二虚拟环境模式渲染虚拟对象的第二虚拟环境视图。以并发或同时的方式,智能电话224a渲染第一虚拟环境视图,并且平板电脑224b渲染第二虚拟环境视图,使得相同或公共的虚拟对象被包含或包括在第一虚拟环境视图和第二虚拟环境视图内。
虚拟对象在第一虚拟环境视图中被渲染为第一对象,并且虚拟对象在第二虚拟环境视图中被渲染为与第一对象不同的第二对象。这样的实例可以在图8和图10以及图9和图11中看到,如前所述。为了便于讨论,图8中的虚拟对象龙806和图9中的虚拟对象矮种马906被表示为存储在图2的数据库108上的虚拟环境模型310中的相同或单个虚拟对象。然而,因为图8的用户802与第一模式相关联并且图9的用户902与第二模式相关联,所以这个虚拟对象在第一虚拟环境视图中被渲染为第一对象(例如,龙806),并且在第二虚拟环境视图中被渲染为第二对象(例如,矮种马906)。
装置124的I/O接口1332可包括I/O装置,诸如控制器。控制器可以是具有一个或多个按钮、操纵杆、运动传感器等的游戏控制器。在任何情况下,装置124的I/O接口1332可以从I/O装置或控制器接收一个或多个输入,诸如用户输入。例如,控制器可包括'A'按钮、'B'按钮、'X'按钮和'Y'按钮。又如,装置124的I/O接口1332可接收第一输入、第二输入、第三输入、第四输入等。这样,参考图2,智能电话224a可以与第一输入和第二输入相关联。类似地,平板电脑224b可以与第一输入和第二输入相关联。当相应装置接收第一输入(例如,按下'A'按钮)时,可以触发对应的功能。
在第一功能对应于第一虚拟环境模式且第二功能对应于第二虚拟环境模式的场景中,I/O接口1332在智能电话224a处接收第一输入触发执行第一功能,并且I/O接口1332在平板电脑224b处接收第一输入触发执行第二功能。例如,参考图8,当接收到第一输入时,第一功能的执行可致使处理器的虚拟环境引擎生成剑820的挥砍动画,其可以伴随着挥砍声音效果等。相反地或对应地,在图9中,当接收到第一输入时,第二功能的执行可致使处理器104的虚拟环境引擎116生成棒920的棒挥动(例如,火花或闪光可飞离棒920)动画。根据一个或多个方面,第一功能和第二功能可具有对应的动画。例如,挥动和挥砍动画可具有相同的持续时间、移动模式等,并且可以基于与对应的用户相关联的虚拟环境模式。
图14A至图14B是根据一个或多个方面的公共虚拟环境的示例性第一虚拟环境视图和示例性第二虚拟环境视图。另外,本文所述的第一虚拟环境模式或视图和第二虚拟环境模式或视图可以在比仅提供不同皮肤更抽象的级别上实现。例如,相对于图14A至图14B,可以基于虚拟环境模式或视图将虚拟环境从2D映射或重新映射成3D。
在与图14A相关联的第一虚拟环境模式中,为第一用户渲染多种虚拟对象。虚拟对象包括第一虚拟用户1410、宝箱1420、鸟1430、树1440、太阳1450和第二虚拟用户1490。根据这个方面,基于存储在虚拟环境模型310中的虚拟对象信息,在2D视图中渲染虚拟对象1410、1420、1430、1440、1450和1490。在与图14B相关联的第二虚拟环境模式中,虚拟环境引擎116在3D视图中渲染第一虚拟用户1410、宝箱1420、鸟1430、树1440、太阳1450和第二虚拟用户1490。以这种方式,虚拟对象1410、1420、1430、1440、1450和1490可在第一虚拟环境视图中基于第一渲染来进行渲染,并且在第二虚拟环境视图中基于不同于第一渲染的第二渲染来进行渲染。因此,用于基于公共虚拟环境提供不同虚拟环境视角的系统100可在不同的视角或视图上以除了仅提供不同皮肤之外的方式不同地渲染虚拟对象。
如前所述,通过虚拟环境引擎116,第一虚拟环境模式可应用于第一用户体验,而第二虚拟环境模式可应用于第二用户体验。可以基于用户做出的选择来选定虚拟环境,诸如与以下相关的选择:游戏体裁、游戏选择、角色选择、为游戏留下的评级、先前的游戏玩法等。根据一个或多个其他方面,虚拟环境引擎116可以基于用户的人口统计资料或者基于用户装置的硬件能力将对应的虚拟环境与用户相关联。例如,可向使用具有较低图形处理能力的第一装置(例如,智能电话)的第一用户呈现游戏,其中呈现了与图14A相关联的第一虚拟环境模式的元素,而可向使用具有比第一装置大的图形处理能力的第二装置(例如,平板电脑)的第二用户呈现游戏,其中呈现了与图14B相关联的第二虚拟环境模式的元素。
类似于图14A至图14B的渲染的不同维度,相应的虚拟对象可以基于与体验相关联的模式与不同组的功能相关联。换句话讲,图14A中与第一用户和第一虚拟环境模式相关联的虚拟对象1410、1420、1430、1440、1450和1490可以与第一组功能相关联,而与第二用户和第二虚拟环境模式相关联的图14B的相同、对应虚拟对象可以与第二组功能相关联。
第二组功能可能不一定以1:1的方式对应于第一组功能。例如,由于与图14A至图14B相关联的装置的处理能力的差异,对应于第二组功能的某些功能可能在第一组功能内不可用。这样的实例可包括用于与虚拟对象1410、1420、1430、1440、1450和1490中的一个或多个进行交互的音频的呈现,其可以在图14A中呈现为文本或字幕,但是在图14B中呈现为音频而不是字幕或文本。以这种方式,第一组功能的虚拟对象1410、1420、1430、1440、1450和1490与第二组功能具有一对一的触发程序对应关系。然而,与第一组功能和第二组功能相关联的输出在基于相同触发程序时可导致不同的用户交互体验。
类似地,第一组功能可以与第二组功能具有一对一的动画对应关系,即使渲染针对图14A至图14B分别以2D和3D进行。然而,第一组功能与第二组功能之间的一对一的对应关系并不一定意味着第一组功能与第二组功能之间的代码是相同的(例如,输出文本对播放音频)。以这种方式,如果用户1410接近宝箱1420并提供第一输入,则图14A至图14B的宝箱1420将渲染成打开,并且内容物递送到用户1410或添加到用户的清单。
图15A至图15B是根据一个或多个方面的公共虚拟环境的示例性第一虚拟环境视图和示例性第二虚拟环境视图。虚拟环境引擎116可保持与图15A的第一游戏(例如,石头(rock)、布(paper)和剪刀(scissors))和图15B的第二游戏相关联的分数。因为第一游戏和第二游戏是基于公共虚拟环境,所以用户选择在两个游戏之间再现彼此。例如,假设在第一游戏中,布1520击败石头1510,剪刀1530击败布1520,并且石头1510击败剪刀1530,并且假设第二游戏的狗1512与石头1510相关联,老鼠1522与布1520相关联,并且猫1532与剪刀1530相关联,在第一游戏与第二游戏之间做出对应选择的玩家或用户可以由虚拟环境引擎116提供相同的结果或分数。以这种方式,第一游戏和第二游戏可以彼此具有1:1的对应关系,并且以不同方式对第一游戏和第二游戏进行换肤,而不是仅仅以不同方式对虚拟对象1510、1520、1530、1512、1522、1532进行换肤。换句话说,当以不同方式对图15A至图15B的虚拟对象进行换肤时,呈现给玩家的决策或选择也以不同方式进行架构或渲染(例如,选取石头、布和剪刀对选择动物)。就这一点而言,附加的游戏元素可被渲染或存在于一个游戏对另一个游戏中。例如,如上所述,在石头、布和剪刀中,胜利由状态机限定,而在图15B中渲染了附加元素动物控制代理人1552。在图15A中,为第一用户和第二用户(可以是计算机玩家或另一用户)渲染石头、布和剪刀的选择。在图15B中,隐藏第二玩家的选择,并且以不同的方式渲染游戏的结果。例如,在图15A中,胜利或失败的消息可以由虚拟环境引擎116呈现或渲染,而动物控制代理人1552可以在图15B中基于失败的选择‘捕获’用户的选择,同时不渲染第二用户的选择(狗、猫、老鼠)。
图16A至图16B是根据一个或多个方面的公共虚拟环境的示例性第一虚拟环境视图和示例性第二虚拟环境视图。在图16A中,可以通过文本提示1602、1604和1606实现地牢探索者游戏。在图16B中,可通过图形用户界面(GUI)来实现相同的地牢探索者游戏,所述图形用户界面(GUI)包括分别作为用户和宝箱的虚拟对象1610和1612。在图16A中,不履行任何虚拟对象的渲染,而在图16B中,虚拟环境引擎116提供虚拟对象的渲染。此外,可以在GUI1600上渲染第二组功能中的一个或多个,诸如控制板1650和输入按钮1652、1654。
另一个实施方案涉及包括处理器可执行指令的计算机可读介质,所述处理器可执行指令被配置来实现本文所呈现的技术的一个或多个实施方案。在图17中示出以这些方式设计的计算机可读介质或计算机可读装置的实施方案,其中实现方式1700包括计算机可读介质1708,诸如CD-R、DVD-R、闪存驱动器、硬盘驱动器的盘片等等,在所述计算机可读介质1708上是编码的计算机可读数据1706。这个计算机可读数据1706(诸如包括如1706所示的多个零和一的二进制数据)进而包括一组处理器可执行计算机指令1704,所述处理器可执行计算机指令1704被配置来根据本文阐述的一个或多个原理进行操作。在一个此类实施方案1700中,处理器可执行计算机指令1704可被配置来执行方法1702,诸如图4的方法400或图5的方法500。在另一个实施方案中,处理器可执行计算机指令1704可被配置来实现系统,诸如图1至图2的系统100。许多此类计算机可读介质可由本领域普通技术人员设计,所述计算机可读介质被配置来根据本文所呈现的技术进行操作。
如本申请中所使用的,术语“部件”、“模块”、“系统”、“接口”等通常旨在指代计算机相关实体,即硬件、硬件和软件的组合、软件或者执行中的软件。例如,部件可以是但不限于:在处理器上运行的过程、处理单元、对象、可执行文件、执行线程、程序或计算机。通过说明的方式,在控制器上运行的应用程序和控制器都可以是部件。一个或多个部件驻留在过程和/或执行线程之内,并且部件可以位于一个计算机上或分布在两个或更多个计算机之间。
此外,使用标准编程或工程技术产生软件、固件、硬件或其任意组合以控制计算机来实现所公开的主题,要求保护的主题被实现为方法、设备或制品。如本文所使用的术语“制品”旨在涵盖能够从任何计算机可读装置、载体或介质访问的计算机程序。当然,在不背离要求保护的主题的范围或精神的情况下,可对此配置做出许多修改。
图18和以下论述提供了对用于实现本文阐述的一个或多个提供项的实施方案的合适的计算环境的描述。图18的操作环境仅仅是合适操作环境的一个实例,并且不旨在暗示对操作环境的使用或功能性的范围的任何限制。示例性计算装置包括但不限于:个人计算机、服务器计算机、手持式或膝上型装置、移动装置(诸如移动电话、个人数字助理(PDA)、媒体播放器等)、多处理器系统、消费性电子器件、小型计算机、大型计算机、包括任何以上系统或装置的分布式计算环境等。
通常,实施方案在由一个或多个计算装置执行的“计算机可读指令”的总体背景下描述。可通过计算机可读介质分布计算机可读指令,如将在下文所论述的。计算机可读指令可实现为履行一个或多个任务或实现一个或多个抽象数据类型的程序模块,诸如功能、对象、应用程序编程接口(API)、数据结构等。通常,计算机可读指令的功能可根据需要在各种环境中进行组合或分布。
图18示出包括计算装置1812的系统1800,所述计算装置1812被配置来实现本文提供的一个或多个实施方案。在一个配置中,计算装置1812包括至少一个处理单元1816和存储器1818。根据计算装置的准确配置和类型,存储器1818可以是易失的(诸如RAM)、非易失的(诸如ROM、闪速存储器等)或二者的组合。这种配置在图18中以虚线1814示出。
在其他实施方案中,计算装置1812包括另外的特征或功能。例如,计算装置1812可包括另外的存储装置,诸如可移动存储装置或不可移动存储装置,包括但不限于磁性存储装置、光学存储装置等。这种另外的存储装置在图18中由存储装置1820示出。根据一个或多个方面,用于实现本文提供的一个或多个实施方案的计算机可读指令位于存储装置1820中。存储装置1820可存储其他计算机可读指令以实现操作系统、应用程序等。例如,计算机可读指令可加载到存储器1818中以供处理单元1816执行。根据一个或多个方面,虚拟环境引擎116可通过处理单元1816实现,并且被配置来执行存储在存储器1818上的一个或多个指令。
如本文所使用的术语“计算机可读介质”包括计算机存储介质。计算机存储介质包括以任何方法或技术实现的用于存储信息(诸如计算机可读指令或其他数据)的易失的和非易失的、可移除和不可移除的介质。存储器1818和存储装置1820是计算机存储介质的实例。计算机存储介质包括但不限于:RAM、ROM、EEPROM、闪存存储器或其他存储器技术、CD-ROM、数字通用光盘(DVD)或其他光学存储装置、磁盒、磁带、磁盘存储装置或其他磁性存储装置、或可用于存储期望信息并可由计算装置1812访问的任何其他介质。任何此类计算机存储介质均是计算装置1812的一部分。
术语“计算机可读介质”包括通信介质。通信介质通常体现计算机可读指令或诸如载波或其他传送机制的“调制数据信号”中的其他数据,并且包括任何信息递送介质。术语“调制数据信号”包括一种信号,所述信号以这种方式使其一种或多种特性被设置或改变以对信号中的信息进行编码。
计算装置1812包括一个或多个输入装置1824,诸如键盘、鼠标、笔、语音输入装置、触摸输入装置、红外摄像机、视频输入装置或任何其他输入装置。诸如一个或多个显示器、扬声器、打印机或任何其他输出装置的一个或多个输出装置1822可以包括在计算装置1812中。一个或多个输入装置1824和一个或多个输出装置1822可通过有线连接、无线连接或其任何组合连接到计算装置1812。根据一个或多个方面,来自另一计算装置的输入装置或输出装置可用作计算装置1812的一个或多个输入装置1824或一个或多个输出装置1822。计算装置1812可包括一个或多个通信连接1826以促进例如像通过网络1828与一个或多个其他装置1830进行通信。
应了解,可以有利地将各种上文公开的和其他的特征和功能或者其替代物或变体组合到许多其他不同的系统或应用中。此外,本领域技术人员随后可以做出本文中目前未预见或未预期到的各种替代、修改、变化或改进,而这些也旨在由以下权利要求涵盖。
Claims (20)
1.一种用于基于公共虚拟环境提供不同虚拟环境视角的系统,其包括:
数据库,其存储与虚拟环境相关联的虚拟环境模型,所述虚拟环境包括与虚拟环境坐标相关联的第一虚拟对象,第一组功能对应于第一虚拟环境模式,并且第二组功能对应于第二虚拟环境模式;
存储器,其存储一个或多个指令;以及
处理器,其包括虚拟环境引擎,所述虚拟环境引擎执行存储在所述存储器上的所述指令中的一个或多个以履行:
基于所述第一虚拟环境模式生成所述第一虚拟对象的第一虚拟环境视图;以及
基于所述第二虚拟环境模式生成所述第一虚拟对象的第二虚拟环境视图,
其中所述第一虚拟环境视图和所述第二虚拟环境视图以并发的方式分别渲染在不同装置上,并且
其中所述第一虚拟对象在所述第一虚拟环境视图中具有第一渲染,并且在所述第二虚拟环境视图中具有与所述第一渲染不同的第二渲染。
2.如权利要求1所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中:
所述第一虚拟对象的所述第一虚拟环境视图渲染在第一装置上;并且
所述第一虚拟对象的所述第二虚拟环境视图渲染在第二装置上。
3.如权利要求2所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中:
所述第一装置和所述第一虚拟环境模式与第一类型的用户相关联;并且
所述第二装置和所述第二虚拟环境模式与第二类型的用户相关联。
4.如权利要求3所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中用户的所述类型是基于与用户相关联的人口统计资料或所述用户做出的选择来限定的,所述选择与游戏体裁、选定的游戏、选定的角色、游戏评级、先前的游戏玩法相关联。
5.如权利要求1所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中:
所述第一虚拟对象是第一用户,
使用第一皮肤渲染所述第一用户的所述第一渲染,并且
使用第二皮肤渲染所述第一用户的所述第二渲染。
6.如权利要求5所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中:
第一组功能包括第一对话功能;并且
第二组功能包括第二对话功能。
7.如权利要求1所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述第一虚拟环境模式和所述第二虚拟环境模式是虚拟环境模式数据类型。
8.如权利要求7所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述数据库存储视图类节点,所述视图类节点包括用于分别基于作为所述虚拟环境模式数据类型的所述第一虚拟环境模式和所述第二虚拟环境模式生成所述第一虚拟环境视图或所述第二虚拟环境视图的功能。
9.如权利要求1所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述虚拟环境包括与虚拟环境坐标相关联的第二虚拟对象,第一组功能对应于所述第一虚拟环境模式,并且第二组功能对应于所述第二虚拟环境模式。
10.如权利要求9所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述处理器:
基于所述第一虚拟环境模式生成所述第二虚拟对象的所述第一虚拟环境视图;并且
基于所述第二虚拟环境模式生成所述第二虚拟对象的所述第二虚拟环境视图,
其中所述第二虚拟对象的所述第一虚拟环境视图和所述第二虚拟环境视图以并发的方式分别渲染在所述不同装置上。
11.如权利要求9所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述第二虚拟对象是不可玩的角色。
12.如权利要求1所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述第一组功能与所述第二组功能具有一对一的触发程序对应关系。
13.如权利要求1所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述第一组功能与所述第二组功能具有一对一的动画对应关系。
14.如权利要求1所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述第一组功能与所述第二组功能具有一对一的参数对应关系。
15.一种用于基于公共虚拟环境提供不同虚拟环境视角的系统,其包括:
数据库,其存储与虚拟环境相关联的虚拟环境模型,所述虚拟环境包括与虚拟环境坐标相关联的虚拟对象,第一功能对应于第一虚拟环境模式,并且第二功能对应于第二虚拟环境模式;
存储器,其存储一个或多个指令;以及
处理器,其包括虚拟环境引擎,所述虚拟环境引擎执行存储在所述存储器上的所述指令中的一个或多个以履行:
基于所述第一虚拟环境模式的第一虚拟环境皮肤生成所述虚拟对象的第一虚拟环境视图;以及
基于所述第二虚拟环境模式的不同于所述第一虚拟环境皮肤的第二虚拟环境皮肤生成所述虚拟对象的第二虚拟环境视图,
其中所述第一虚拟环境视图和所述第二虚拟环境视图以并发的方式渲染在不同装置上。
16.如权利要求15所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,
其中所述虚拟对象的所述第一虚拟环境视图的所述第一虚拟环境皮肤与第一大小相关联;并且
其中所述虚拟对象的所述第二虚拟环境视图的所述第二虚拟环境皮肤与不同于所述第一大小的第二大小相关联。
17.一种用于基于公共虚拟环境提供不同虚拟环境视角的系统,其包括:
数据库,其存储与虚拟环境相关联的虚拟环境模型,所述虚拟环境包括与虚拟环境坐标相关联的虚拟对象,第一功能对应于第一虚拟环境模式,并且第二功能对应于第二虚拟环境模式;
存储器,其存储一个或多个指令;
第一装置,其包括虚拟环境引擎,所述虚拟环境引擎执行存储在所述存储器上的所述指令中的一个或多个,以基于所述第一虚拟环境模式履行渲染所述虚拟对象的第一虚拟环境视图;以及
第二装置,其包括虚拟环境引擎,所述虚拟环境引擎执行存储在所述存储器上的所述指令中的一个或多个,以基于所述第二虚拟环境模式履行渲染所述虚拟对象的第二虚拟环境视图,
其中所述第一虚拟环境视图和所述第二虚拟环境视图以并发的方式由相应的装置进行渲染,并且
其中所述虚拟对象在所述第一虚拟环境视图中被渲染为第一对象,并且所述虚拟对象在所述第二虚拟环境视图中被渲染为与所述第一对象不同的第二对象。
18.如权利要求17所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,
其中所述第一装置与第一输入和第二输入相关联,并且
其中所述第二装置与第一输入和第二输入相关联。
19.如权利要求18所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,
其中在所述第一装置处接收所述第一输入触发所述第一功能;并且
其中在所述第二装置处接收所述第一输入触发所述第二功能。
20.如权利要求17所述的用于基于所述公共虚拟环境提供不同虚拟环境视角的系统,其中所述第一功能和所述第二功能具有对应的动画。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/804,530 US10616033B2 (en) | 2017-11-06 | 2017-11-06 | Different perspectives from a common virtual environment |
US15/804,530 | 2017-11-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109754470A true CN109754470A (zh) | 2019-05-14 |
Family
ID=66179124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811208472.0A Pending CN109754470A (zh) | 2017-11-06 | 2018-10-17 | 来自公共虚拟环境的不同视角 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10616033B2 (zh) |
JP (1) | JP7292846B2 (zh) |
CN (1) | CN109754470A (zh) |
DE (1) | DE102018217898A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10957119B2 (en) * | 2017-03-15 | 2021-03-23 | Facebook, Inc. | Visual editor for designing augmented-reality effects |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
US10748342B2 (en) * | 2018-06-19 | 2020-08-18 | Google Llc | Interaction system for augmented reality objects |
US11587292B2 (en) * | 2018-07-30 | 2023-02-21 | Disney Enterprises, Inc. | Triggered virtual reality and augmented reality events in video streams |
US11004269B2 (en) * | 2019-04-22 | 2021-05-11 | Microsoft Technology Licensing, Llc | Blending virtual environments with situated physical reality |
CN111176621B (zh) * | 2019-12-27 | 2024-02-09 | 北京富迪广通科技发展有限公司 | 虚拟维修训练平台开发系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140368534A1 (en) * | 2013-06-18 | 2014-12-18 | Tom G. Salter | Concurrent optimal viewing of virtual objects |
US20160225188A1 (en) * | 2015-01-16 | 2016-08-04 | VRstudios, Inc. | Virtual-reality presentation volume within which human participants freely move while experiencing a virtual environment |
US20160350973A1 (en) * | 2015-05-28 | 2016-12-01 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
CN107077755A (zh) * | 2016-09-30 | 2017-08-18 | 深圳达闼科技控股有限公司 | 虚拟与现实融合方法、系统和虚拟现实设备 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3269797B2 (ja) | 1997-12-12 | 2002-04-02 | 株式会社ナムコ | 画像生成装置及び情報記憶媒体 |
US6348927B1 (en) * | 1998-02-27 | 2002-02-19 | Oracle Cor | Composing a description of a virtual 3D world from values stored in a database and generated by decomposing another description of a virtual 3D world |
US20030174178A1 (en) | 2002-01-31 | 2003-09-18 | Hodges Matthew Erwin | System for presenting differentiated content in virtual reality environments |
US8683386B2 (en) * | 2006-10-03 | 2014-03-25 | Brian Mark Shuster | Virtual environment for computer game |
US8732591B1 (en) * | 2007-11-08 | 2014-05-20 | Google Inc. | Annotations of objects in multi-dimensional virtual environments |
US8108468B2 (en) * | 2009-01-20 | 2012-01-31 | Disney Enterprises, Inc. | System and method for customized experiences in a shared online environment |
US8913009B2 (en) | 2010-02-03 | 2014-12-16 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
EP2371432A3 (en) * | 2010-03-09 | 2011-11-23 | Crytek GmbH | A multi-user computer-controlled video gaming system and a method of controlling at least one game mechanic |
JP5728292B2 (ja) * | 2011-02-04 | 2015-06-03 | 株式会社東芝 | メモリデバイス及びホストシステム |
US9285871B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
US9230367B2 (en) | 2011-12-13 | 2016-01-05 | Here Global B.V. | Augmented reality personalization |
US10419556B2 (en) | 2012-08-11 | 2019-09-17 | Federico Fraccaroli | Method, system and apparatus for interacting with a digital work that is performed in a predetermined location |
US8489119B1 (en) | 2012-08-11 | 2013-07-16 | Federico Fraccaroli | Method and apparatus for mediating among a plurality of profiles associated with users positioned in a shared location |
US9530232B2 (en) | 2012-09-04 | 2016-12-27 | Qualcomm Incorporated | Augmented reality surface segmentation |
US9319443B2 (en) * | 2013-06-26 | 2016-04-19 | Comcast Cable Communications, Llc | Content segment detection and replacement |
US10318100B2 (en) * | 2013-10-16 | 2019-06-11 | Atheer, Inc. | Method and apparatus for addressing obstruction in an interface |
US9555326B2 (en) * | 2014-03-11 | 2017-01-31 | Microsoft Technology Licensing, Llc | Gaming system for modular toys |
US9916002B2 (en) * | 2014-11-16 | 2018-03-13 | Eonite Perception Inc. | Social applications for augmented reality technologies |
KR101608172B1 (ko) * | 2014-12-22 | 2016-03-31 | 주식회사 넥슨코리아 | 객체를 제어하는 방법 및 장치 |
US20160210780A1 (en) * | 2015-01-20 | 2016-07-21 | Jonathan Paulovich | Applying real world scale to virtual content |
TWI567670B (zh) * | 2015-02-26 | 2017-01-21 | 宅妝股份有限公司 | 切換虛擬實境模式與擴增實境模式的管理方法以及系統 |
US9779554B2 (en) | 2015-04-10 | 2017-10-03 | Sony Interactive Entertainment Inc. | Filtering and parental control methods for restricting visual activity on a head mounted display |
US9996981B1 (en) * | 2016-03-07 | 2018-06-12 | Bao Tran | Augmented reality system |
US10245507B2 (en) * | 2016-06-13 | 2019-04-02 | Sony Interactive Entertainment Inc. | Spectator management at view locations in virtual reality environments |
DK201870349A1 (en) * | 2018-01-24 | 2019-10-23 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
-
2017
- 2017-11-06 US US15/804,530 patent/US10616033B2/en active Active
-
2018
- 2018-10-03 JP JP2018188235A patent/JP7292846B2/ja active Active
- 2018-10-17 CN CN201811208472.0A patent/CN109754470A/zh active Pending
- 2018-10-18 DE DE102018217898.4A patent/DE102018217898A1/de not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140368534A1 (en) * | 2013-06-18 | 2014-12-18 | Tom G. Salter | Concurrent optimal viewing of virtual objects |
US20160225188A1 (en) * | 2015-01-16 | 2016-08-04 | VRstudios, Inc. | Virtual-reality presentation volume within which human participants freely move while experiencing a virtual environment |
US20160350973A1 (en) * | 2015-05-28 | 2016-12-01 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
CN107077755A (zh) * | 2016-09-30 | 2017-08-18 | 深圳达闼科技控股有限公司 | 虚拟与现实融合方法、系统和虚拟现实设备 |
Also Published As
Publication number | Publication date |
---|---|
DE102018217898A1 (de) | 2019-05-09 |
US20190140885A1 (en) | 2019-05-09 |
US10616033B2 (en) | 2020-04-07 |
JP2019087235A (ja) | 2019-06-06 |
JP7292846B2 (ja) | 2023-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109754470A (zh) | 来自公共虚拟环境的不同视角 | |
US11830151B2 (en) | Methods and system for managing and displaying virtual content in a mixed reality system | |
US11488362B2 (en) | Information processing device, client device, information processing method, and program | |
US20220266132A1 (en) | Virtual environment for computer game | |
US10529134B2 (en) | Information processing device, client device, information processing method, and program | |
JP2022140779A (ja) | 広範囲同時遠隔ディジタル提示世界 | |
US20100050088A1 (en) | Configuring a virtual world user-interface | |
US20140218361A1 (en) | Information processing device, client device, information processing method, and program | |
CN109562298A (zh) | 自动人工智能(ai)个人助理法 | |
CN103902804B (zh) | 能够基于先前用户游戏玩法而影子式玩视频游戏的系统和方法 | |
CN110114789A (zh) | 生成具有动画对象的消息流 | |
US20220245716A1 (en) | Non-transitory computer readable medium storing virtual store management program and virtual store management system | |
CN118176484A (zh) | 虚拟对象结构和相互关系 | |
US20100070885A1 (en) | Linking Avatar Profiles Within a Virtual Environment | |
WO2021178546A1 (en) | Use of secondary sources for location and behavior tracking | |
JP2024056964A (ja) | 情報処理システム、情報処理方法、及びプログラム | |
US20210216191A1 (en) | Distally shared, augmented reality space | |
WO2021119342A1 (en) | Systems and methods of creating virtual pop-up spaces | |
US20230086248A1 (en) | Visual navigation elements for artificial reality environments | |
Miner | Surveying the Frontier. Subjective Rendering and Occlusion in Open-World Westerns | |
US20230381649A1 (en) | Method and system for automatically controlling user interruption during game play of a video game | |
US20230244799A1 (en) | Obscuring Objects in Data Streams Using Machine Learning | |
WO2024112415A1 (en) | Generating 3d video using 2d images and audio with background keyed to 2d image-derived metadata | |
Hoch et al. | Individual and Group Interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |