CN101727531A - 用于在虚拟环境中进行交互的方法和系统 - Google Patents
用于在虚拟环境中进行交互的方法和系统 Download PDFInfo
- Publication number
- CN101727531A CN101727531A CN200810169993A CN200810169993A CN101727531A CN 101727531 A CN101727531 A CN 101727531A CN 200810169993 A CN200810169993 A CN 200810169993A CN 200810169993 A CN200810169993 A CN 200810169993A CN 101727531 A CN101727531 A CN 101727531A
- Authority
- CN
- China
- Prior art keywords
- scapegoat
- visual
- visual object
- seen
- vision parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种用于在虚拟环境中进行交互的方法和系统。该方法包括:预先定义替身的视觉参数、视觉对象的视觉属性以及视觉相关的事件;基于所述替身的视觉参数以及替身所在场景中的视觉对象的视觉属性,确定所述视觉对象是否被替身看到;响应于所述视觉对象被替身看到,触发相应的事件。通过本发明的方法和系统,可以允许虚拟环境中的替身基于视觉进行交互,从而增强了虚拟环境中替身的交互能力,为网络用户带来了更好的体验并使虚拟环境变得更加具有吸引力。
Description
技术领域
本发明涉及虚拟环境技术,尤其涉及用于在虚拟环境中进行交互的方法和系统。
背景技术
虚拟环境是一种可以创建和体验虚拟世界的计算机系统,其将虚拟化的现实与网络通信技术结合,为用户提供了的三维(3D)虚拟空间。目前,虚拟环境已经成为信息技术领域的热点之一。
在目前流行的虚拟环境中,替身(avatar)是网络用户在虚拟环境中的虚拟形象的代名词。在这样的虚拟环境中,网络用户可以选择具有各种身份和形象的替身作为自己的虚拟形象。网络用户可以通过鼠标、键盘等输入设备来控制替身,从而使替身如真实世界中的人们那样,在虚拟世界中进行各种活动,诸如进行买卖、交朋友、探险等。另外,在诸如“第二人生”的虚拟世界中,用户还可以自行编写脚本,并通过脚本来控制替身。在这样的虚拟环境中,用户可以通过操作替身而体验各种丰富、有趣的活动,虚拟环境也因此正吸引着越来越多的用户。
在虚拟环境中,替身之间的交互几乎是不可或缺的事项。通常,用户通过对鼠标、键盘等的操作来选择对象以便使替身与对象进行交互。另外,当替身变得处于对象的预定响应范围时,替身也可与对象交互。在现实生活中,视觉是进行交流的一种最通常的方式,例如,一个人在看到另一人时,就会主动向这个人问好,但是在虚拟环境中,诸如像是“第二人生”的3D游戏虚拟环境中,却不能像现实世界中那样通过视觉来进行交互。在现有的虚拟环境中,当替身位于另一替身的响应范围内时,比如到达距该替身预定距离的位置时,便触发与其交互的事件,例如向其问好,但此时很可能该替身背对着另一替身,或者该替身根本没有想要和该另一替身交互。
因此,在虚拟环境中,存在一种基于视觉来进行交互的需求。
发明内容
有鉴于此,本发明提供了一种用于在虚拟环境中进行交互的方法和系统,通过所述方法和系统,可以在虚拟环境中实现基于视觉的交互。
根据本发明的一个方面,提供了一种用于在虚拟环境中进行交互的方法,所述方法包括:预先定义替身的视觉参数、视觉对象的视觉属性以及视觉相关的事件;基于所述替身的视觉参数以及替身所在场景中的视觉对象的视觉属性,确定所述视觉对象是否被替身看到;响应于所述视觉对象被替身看到,触发相应的事件。
在本发明的一个实施方式中,所述确定视觉对象是否被替身看到的步骤包括:基于所述替身的视觉参数,计算该替身的视觉区域;以及基于所述视觉对象的视觉属性,确定所述视觉对象是否在该替身的视觉区域内。
在本发明的另一实施方式中,所述确定视觉对象是否被替身看到的步骤进一步包括:响应于所述视觉对象在替身的视觉区域内,确定视觉对象是否被遮挡。
在本发明的又一实施方式中,所述视觉参数包括眼睛位置、视线、视距和视角。
在本发明的再一实施方式中,所述视觉参数进一步包括视觉敏感度。
在本发明的另一实施方式中,所述视觉对象的视觉属性包括视觉对象在场景中的位置、大小、颜色、形状以及透明度。
在本发明的又一实施方式中,所述视觉相关的事件包括替身对于所看到的视觉对象的反应、象在被看到时的反应以及与视觉相关的系统事件其中的一种或多种。
在本发明的再一实施方式中,所述视觉参数、视觉对象的视觉属性、视觉相关的事件其中一个或多个由网络用户和/或编程人员来设置。
在本发明的另一实施方式中,所述视觉对象是另外的替身、虚拟生物或者虚拟物体。
在本发明的又一实施方式中,所述虚拟环境是虚拟游戏环境。
根据本发明的另一方面,提供了一种用于在虚拟环境中进行交互的系统,所述系统包括:定义装置,用于预先定义替身的视觉参数、视觉对象的视觉属性以及视觉相关的事件;确定装置,用于基于所述替身的视觉参数以及替身所在场景中的视觉对象的视觉属性,确定所述视觉对象是否被替身看到;触发装置,用于响应于所述视觉对象被替身看到,触发相应的事件。
在本发明的一个实施方式中,所述确定装置包括:视觉区域计算装置,用于基于所述替身的视觉参数,计算该替身的视觉区域;以及可见性确定装置,用于基于所述视觉对象的视觉属性,确定所述视觉对象是否在该替身的视觉区域内。
在本发明的另一实施方式中,所述可见性确定装置进一步用于:响应于所述视觉对象在替身的视觉区域内,确定视觉对象是否被遮挡。
在本发明的又一实施方式中,所述视觉参数包括眼睛位置、视线、视距和视角。
在本发明的再一实施方式中,所述视觉参数进一步包括视觉敏感度。
在本发明的另一实施方式中,所述视觉对象的视觉属性包括视觉对象在场景中的位置、大小、颜色、形状以及透明度。
在本发明的又一实施方式中,所述视觉相关的事件包括替身对于所看到的视觉对象的反应、视觉对象在被看到时的反应以及与视觉相关的系统事件其中的一种或多种。
在本发明的再一实施方式中,所述视觉参数、视觉对象的视觉属性、视觉相关的事件其中一个或多个由网络用户和/或编程人员来设置。
在本发明的另一实施方式中,所述视觉对象是另外的替身、虚拟生物或者虚拟物体。
在本发明的又一实施方式中,所述虚拟环境是虚拟游戏环境。
通过本发明提供的用于在虚拟环境中进行交互的方法和系统,可以在虚拟环境中实现基于视觉的交互,从而增强了虚拟环境中替身的交互能力,为网络用户带来了更好的体验,并使虚拟环境变得更加具有吸引力。
附图说明
通过对结合附图所示出的实施方式进行详细说明,本发明的上述以及其他特征将更加明显,本发明附图中相同的标号表示相同或相似的部件。在附图中,
图1示出了根据本发明一个实施方式的用于在虚拟环境中进行交互的方法的流程图;
图2示出了根据本发明的一个实施方式的用于定义对象的视觉属性和对象被看到时的反应的流程图;
图3示出了根据本发明的一个实施方式的用于确定对象是否被替身看到的方法的流程图;
图4示出了用于说明计算替身的视觉区域的方法的示例性图示;
图5示意性地示出了根据本发明的一个实施方式的用于在虚拟环境中进行交互的系统的方框图;
图6示意性地示出了根据本发明的另一实施方式的用于在虚拟环境中进行交互的系统的方框图;以及
图7示意性示出了可以实现根据本发明的实施方式的计算设备的结构方框图。
具体实施方式
在下文中,将参考附图通过实施方式对本发明提供的在虚拟环境中进行交互的方法和系统进行详细的描述。
首先,将参考图1来描述本发明的方法,图1示例性地示出了根据本发明一个实施方式的用于在虚拟环境中进行交互的方法的流程图。
首先,在步骤101,预先定义替身的视觉参数、视觉对象的视觉属性以及视觉相关的事件。
为了支持基于视觉的交互方式,需要预先为替身定义视觉。可以通过为替身添加视觉参数并设定这些视觉参数的值来实现对视觉的定义。用以表示替身视觉的视觉参数可以包括眼睛位置、视线、视距、视角以及视觉敏感度。
在这些视觉参数中,替身的眼睛位置是指替身的眼睛在场景中的位置,例如在3D环境中,可以用眼睛在场景中的坐标(xa,ya,za)来表示。由于对象在场景中可能是出于动态的移动之中,因此可以定义眼睛相对于替身的坐标的位置,从而根据替身的当前位置来得到替身当前的眼睛位置。另外,也可以采用其他方式来确定,诸如可以定义替身进入该场景时的初始的眼睛坐标位置,然后基于对象的移动来得到当前的眼睛位置。
替身的视线,即替身的面部朝向,可以由例如3D环境中的方向向量来限定,例如用向量来表示。表示替身视线的向量与替身的移动相关,其同样可以根据替身的移动来得到。
视距VD,也可以称之为视力,用来描述替身的视觉可以到达的距离,即替身可以看多远。
视角VA,是对替身视觉可以捕获到的场景范围的一种描述,并且可以用角度来度量。
视觉敏感度定义了替身对于对象或者环境的敏感度,诸如对各种颜色的视觉反应性、对于光亮度的视觉反应性以及对于形状的视觉反应性。例如,替身可以只对特定颜色的对象敏感,替身可以只对特定形状的对象敏感,或者替身在环境光的亮度大于预定阈值时才能看到对象等。视觉敏感度可以通过用于描述上述反应性的一组参数来定义。
需要说明的是,并非上面所有的视觉参数都是必需的。例如,视觉敏感度可以是可选的参数。根据应用的需求,可以不包括视觉敏感度参数。但是,事实上视觉敏感度可以给用户带来更多的游戏体验,因此是优选的。
同样,根据实际的应用需求,也可以增加其他的视觉参数。例如,可以增加超视觉参数,用以指示替身是否具有超凡的视力,诸如具有360度的视角,具有可以达到整个场景范围的视距,或者具有可以看到被隐藏对象(诸如被遮盖对象、透明对象等)的能力等。
另外,可以预先定义与替身视觉相关的事件,其中之一是替身对于不同对象的反应。替身对于不同对象的反应可以包括替身看到对象时应当执行的动作,诸如向被看到对象打招呼,自动跑到对象的面前等。
需要说明的是,视觉对象可以包括代表其他人的虚拟形象的另外的替身,诸如虚拟动物或者虚拟植物等虚拟生物,以及诸如石头、门、水、树等虚拟物体。另外,虚拟生物和虚拟物体与替身不同,它们是系统自动生成的对象,而不是其他网络用户的虚拟形象的表示。
此外,还可以预先定义对象的视觉属性。对象的视觉属性可以包括对象的位置、大小、颜色、形状以及透明度等。
对象被看到时的反应也可以是与视觉相关的事件其中之一。因此,也可以根据需要预先定义对象被看到时的反应,对象被看到时的反应可以包括对象属性的改变和/或对象执行动作。
另外,还可以定义与视觉相关的系统事件。例如,可以记录替身看到该对象的次数,并根据替身看到对象的次数来对替身的属性进行改变,例如,增强替身的生命力或经验值、增加替身所拥有的金钱等。此外,还可以记录替身注视对象的时间,例如当该时间超过某个阈值时,则认为该替身已经处于不活动的状态,则将该替身“踢出”虚拟环境,以节约系统的资源。
根据的替身和对象类型的不同,与视觉相关的事件可以包括对象被看到时的反应、替身对于对象的反应以及与视觉相关的系统事件其中的一种或者多种。
需要说明的是,上述所有预先定义的视觉参数、视觉属性和视觉相关的事件,可以由编程人员在编程时进行定义。备选地,也可以根据应用为网络用户提供界面,以便由用户来定义视觉参数值、对象的某些属性值或者事件,诸如在替身看到对象时是跑到对象面前,还是向对象打招呼,以及打招呼时所讲的话等。
下面,将参考图2来描述定义对象的视觉属性和对象被看到时的反应的一个示例性的方法。图2示出了根据本发明的一个实施方式的用于定义对象的视觉属性和对象被看到时的反应的流程图。
在步骤201,从对象数据库中选择对象。然后在步骤202,确定是否要对所选对象进行重新定义。在现有的虚拟环境中,对象的属性通常并非是针对视觉而定义的,因此可能不能符合本发明的视觉应用的需求,需要基于现有系统中的定义来重新定义对象。例如,可以为对象增加与视觉相关的参数,诸如颜色、形状、透明度等,或者将现有系统中已有的参数转换成适合于视觉应用的格式。另外,还可能需要对对象进行分割,以便将其分割成若干个子对象。
如果在步骤202确定需要重新定义,则在步骤203重新定义对象。例如,为对象增加其颜色、形状、透明度等视觉属性。或者,将一个桌子分割成桌面以及四条桌腿,使其每个分别成为一个子对象,并根据已有的桌子的属性来定义子对象的属性,诸如定义桌面以及四条桌腿的位置、大小、颜色、形状和/或透明度。并存储重新定义的对象。
之后,过程返回到步骤201,重新执行选择对象的步骤。
如果在步骤202确定不需要,则步骤进行至步骤204,得到已经定义的对象属性,诸如对象的位置、大小、颜色以及形状等并将其转换成适当的格式,以便将其作为与视觉相关的对象属性存储在属性数据库中。
然后,在步骤205,定义对象的反应,以便将其存储在例如事件数据库中。对象被替身看到时的反应可以包括:在被替身看到时,对象属性的改变和/或对象要执行的动作。例如,在门被替身看到时,门自动打开;石头被替身看到时,石头闪光或者石头滚动使石头下面隐藏的宝物显现。
需要说明的是,也可以在对对象进行重新定义之后,直接以适当的格式将经过重新定义的对象及其所有与视觉相关的属性(包括原有的属性和新定义的属性)存储在与视觉相关的属性数据库中,接着执行步骤205,而不需重新返回步骤201。
通过上面参考图2所描述的方法,就可以实现对视觉对象的视觉属性和视觉对象被看到时的反应的预先定义。
需要说明的是,上面预先定义的视觉参数、对象的视觉属性以及视觉相关的事件都可以存储在新建的数据库中,也可以存储在已有的数据库中。
接下来,将继续参考图1。在步骤102,基于所述替身的视觉参数以及替身所在场景中的视觉对象的视觉属性,确定所述视觉对象是否被替身看到。
该步骤可以通过多种实施方式来实现。下面将参考图3来描述用于确定视觉对象是否被替身看到的一个示例性的方法。
参考图3,在步骤301,基于所述替身的视觉参数,计算该替身的视觉区域。
在3D虚拟环境中,替身的视觉区域是由这样的旋转曲面所包围的立体区域,该旋转曲面是通过以替身的视线向量(m,n,p)为中心轴,旋转圆心为替身的眼睛位置A(xa,ya,za)、圆心角为替身的视角VA下标以及边长为替身的视距VD的扇形而得到的,如图4所示。
该立体区域的方程可以用如下的式子来表示:
式子(2)
然后,在步骤302,根据视觉对象的位置坐标,来确定视觉对象是否在替身的视觉区域内。
选择该场景中的一个对象,得到该对象的视觉属性,然后可以将对象属性中的坐标位置B(xb,yb,zb)代入上面的式子。
即计算:
其中,根据现有技术中公知的两条向量夹角的计算方法,可以进一步得到:
式子(5)
在本发明的一个实施方式中,只要对象的坐标位置位于替身的视觉区域内,则认为对象位于视觉区域内。在这种情况下,如果满足DBA≤VD且Ag<VA/2,则认为对象B在替身的视觉区域内,否则对象B不在替身的视觉区域内。
在本发明的另一实施方式中,只有对象完全位于替身的视觉区域内时,才认为对象位于对象的视觉区域内。这时,可以根据对象的大小以及坐标得到该对象的多个点,例如距替身最远的点、相对于替身而言的最左侧的点和最右侧的点,只有所有的点都满足上面的式(1)和式子(2),才确定对象位于替身的视觉区域内。
另外,确定对象是否被替身看到还可以首先根据对象的视觉属性来确定替身是否不能看到对象。例如,可以根据预先定义的替身的视觉敏感度来确定替身对于该场景下的光亮度、该物体的颜色、该物体的形状是否敏感。如果不敏感,则认为替身看不到该对象。如果并未确定替身看不到对象,则计算替身的视觉区域并确定对象是否在替身的视觉区域内。
附加地,可以在步骤303,响应于视觉对象位于替身的视觉区域内来确定视觉对象是否被遮挡。对象是否被遮挡可以通过计算来确定。例如,可以首先确定相对于替身的眼睛位置而言,是否存在位于对象前面的对象。如果存在,则根据位于前面的对象的大小以及透明度等属性来确定位于前面的对象是否能够遮挡其后面的对象。如果确定对象未被遮挡,则确定对象被替身看到,否则认为替身看不到该对象。
需要说明的是,上面给出的确定对象是否被替身看到的示例性方法只是一般性实例。并非所有的步骤都是必需的,也并非步骤的顺序都是不可改变的。
在本发明的一个实施方式中,并未考虑对象的遮挡属性,只要对象位于替身的视觉区域内时,则认为该对象可以被替身看到,因此可以省略步骤303。
另外,对于具有超视觉的替身,可能上述的许多步骤都可以省略。在本发明的一个实施方式中,对于能够看到被隐藏对象的替身,若对象位于视觉区域内,则认为该对象可以被该替身看到,而不管该对象是被遮挡还是透明的。在这种情况下无需步骤303。
在本发明的另一实施方式中,对于能够看到千里之外的未被隐藏物体的替身,位于该场景内所有对象,只要未被遮盖且不透明,则都认为可以被该替身看到。在这种情况下只需执行步骤303,并确定对象是否透明。
在本发明的又一实施方式中,对于能够看到千里之外的被隐藏物体的替身,只要对象位于场景内,则认为该对象可以被该替身看到。此时,凡是位于该场景内的对象都可以被看到,而不需要执行上面的步骤或者仅仅需要根据视觉敏感度来确定。
仍参考图1,在步骤103,响应于所述视觉对象被替身看到,触发相应的事件。
确定对象能够被看到后,可以从数据库中获取预先定义的事件并触发该事件。该事件包括替身对于所看到的对象的反应,诸如执行动作以向对象打招呼,和/或对象在被看到时的反应,诸如对于石头,其属性发生改变,诸如开始发光,改变颜色等,或者执行动作,诸如开始滚动等。在执行事件之后,更新数据库,以便更新与替身和/或对象的动作和属性相关的数据。
通过上面参考图1-图4所描述的用于在虚拟环境中进行交互的方法,可以允许虚拟环境中的替身基于视觉进行交互,从而增强了虚拟环境中替身的交互能力,为网络用户带来了更好的体验并使虚拟环境变得更加具有吸引力。
需要说明的是,本发明适用于各种虚拟环境,包括大型网络虚拟环境,诸如像第二人生的3D游戏环境,单机版虚拟游戏环境,虚拟展示环境,或者能够应用本发明的任何其他虚拟环境。
接下来,将参考图5和图6来描述根据本发明的用于在虚拟环境中进行交互的系统。
参考图5,图5示意性地示出了根据本发明的一个实施方式的用于在虚拟环境中进行交互的系统的方框图。
图5示出的系统500包括定义装置501、确定装置502、触发装置503。其中,定义装置501用于预先定义替身的视觉参数、视觉对象的视觉属性以及与视觉相关的事件;确定装置502,用于基于所述替身的视觉参数以及替身所在场景中的视觉对象的视觉属性,确定所述视觉对象是否被替身看到;触发装置503,用于响应于所述视觉对象被替身看到,触发相应的事件。
此外,参考图6还示出了根据本发明的另一实施方式的用于在虚拟环境中进行交互的系统的方框图。
图6示出的系统600包括定义装置601、确定装置602、触发装置603。其中,定义装置601对应于图5中示出的定义装置501;确定装置602对应于图5中示出的确定装置502;触发装置603对应于图5中示出的触发装置503。与图6所示不同的是,所述确定装置602包括:视觉区域计算装置604,用于基于所述替身的视觉参数,计算该替身的视觉区域;以及可见性确定装置605,用于基于所述视觉对象的视觉属性,确定所述视觉对象是否在该替身的视觉区域内。
在本发明的另一实施方式中,可见性确定装置605进一步用于:响应于所述对象在替身的视觉区域内,确定对象是否被遮挡。
在本发明的又一实施方式中,所述视觉参数包括眼睛位置、视线、视距和视角。
在本发明的再一实施方式中,所述视觉参数进一步包括视觉敏感度。
在本发明的另一实施方式中,所述对象的视觉属性包括对象在场景中的位置、大小、颜色、形状以及透明度。
在本发明的又一实施方式中,所述视觉相关的事件包括替身对于所看到的对象的反应、对象在被看到时的反应以及与视觉相关的系统事件其中一种或多种。
在本发明的再一实施方式中,所述视觉参数、对象的视觉属性、视觉相关的事件其中一个或多个由网络用户和/或编程人员来设置。
在本发明的另一实施方式中,所述对象是另外的替身、虚拟生物或者虚拟物体。
在本发明的又一实施方式中,所述虚拟环境是虚拟游戏环境。
在上述所有的实施方式中,定义装置501和601、确定装置502和602、触发装置503和603、视觉区域计算装置604以及可见性确定装置605的具体操作可以参考上面结合图1至图4对于本发明的方法的描述。
通过上面的实施方式中所描述的各个系统,可以使得虚拟环境中的替身能够基于视觉进行交互,从而增强了虚拟环境中替身的交互能力,为网络用户带来了更好的体验,并使虚拟环境变得更加具有吸引力。
下面,将参考图7来描述可以实现本发明的计算机设备。图7示意性示出了可以实现根据本发明的实施方式的计算设备的结构方框图。
图7中所示的计算机系统包括CPU(中央处理单元)1001、RAM(随机存取存储器)702、ROM(只读存储器)703、系统总线704、硬盘控制器705、键盘控制器706、串行接口控制器707、并行接口控制器708、显示器控制器709、硬盘710、键盘711、串行外部设备712、并行外部设备713和显示器714。在这些部件中,与系统总线704相连的有CPU 701、RAM 702、ROM 703、硬盘控制器705、键盘控制器706、串行接口控制器707、并行接口控制器708和显示器控制器709。硬盘710与硬盘控制器705相连,键盘711与键盘控制器706相连,串行外部设备712与串行接口控制器707相连,并行外部设备713与并行接口控制器708相连,以及显示器714与显示器控制器709相连。
图7所述的结构方框图仅仅为了示例的目的而示出的,并非是对本发明的限制。在一些情况下,可以根据需要添加或者减少其中的一些设备。
此外,本发明的实施方式可以以软件、硬件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。
虽然已经参考目前考虑到的实施方式描述了本发明,但是应该理解本发明不限于所公开的实施方式。相反,本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。以下权利要求的范围符合最广泛解释,以便包含所有这样的修改及等同结构和功能。
Claims (20)
1.一种用于在虚拟环境中进行交互的方法,所述方法包括:
预先定义替身的视觉参数、视觉对象的视觉属性以及视觉相关的事件;
基于所述替身的视觉参数以及替身所在场景中的视觉对象的视觉属性,确定所述视觉对象是否被替身看到;
响应于所述视觉对象被替身看到,触发相应的事件。
2.根据权利要求1所述的方法,其中所述确定视觉对象是否被替身看到的步骤包括:
基于所述替身的视觉参数,计算该替身的视觉区域;以及
基于所述视觉对象的视觉属性,确定所述视觉对象是否在该替身的视觉区域内。
3.根据权利要求2所述的方法,其中所述确定视觉对象是否被替身看到的步骤进一步包括:
响应于所述视觉对象在替身的视觉区域内,确定视觉对象是否被遮挡。
4.根据权利要求1所述的方法,其中所述视觉参数包括眼睛位置、视线、视距和视角。
5.根据权利要求4所述的方法,其中所述视觉参数进一步包括视觉敏感度。
6.根据权利要求1所述的方法,其中所述视觉对象的视觉属性包括视觉对象在场景中的位置、大小、颜色、形状以及透明度。
7.根据权利要求1所述的方法,其中所述视觉相关的事件包括替身对于所看到的视觉对象的反应、视觉对象在被看到时的反应以及与视觉相关的系统事件其中的一种或多种。
8.根据权利要求1所述的方法,其中所述视觉参数、视觉对象的视觉属性、视觉相关的事件其中一个或多个由网络用户和/或编程人员来设置。
9.根据权利要求1所述的方法,其中所述视觉对象是另外的替身、虚拟生物或者虚拟物体。
10.根据权利要求1所述的方法,其中所述虚拟环境是虚拟游戏环境。
11.一种用于在虚拟环境中进行交互的系统,所述系统包括:
定义装置,用于预先定义替身的视觉参数、视觉对象的视觉属性以及与视觉相关的事件;
确定装置,用于基于所述替身的视觉参数以及替身所在场景中的视觉对象的视觉属性,确定所述视觉对象是否被替身看到;
触发装置,用于响应于所述视觉对象被替身看到,触发相应的事件。
12.根据权利要求11所述的系统,其中所述确定装置包括:
视觉区域计算装置,用于基于所述替身的视觉参数,计算该替身的视觉区域;以及
可见性确定装置,用于基于所述视觉对象的视觉属性,确定所述视觉对象是否在该替身的视觉区域内。
13.根据权利要求12所述的系统,其中所述可见性确定装置进一步用于:响应于所述视觉对象在替身的视觉区域内,确定视觉对象是否被遮挡。
14.根据权利要求11所述的系统,其中所述视觉参数包括眼睛位置、视线、视距和视角。
15.根据权利要求14所述的系统,其中所述视觉参数进一步包括视觉敏感度。
16.根据权利要求11所述的系统,其中所述视觉对象的视觉属性包括视觉对象在场景中的位置、大小、颜色、形状以及透明度。
17.根据权利要求11所述的系统,其中所述视觉相关的事件包括替身对于所看到的视觉对象的反应、视觉对象在被看到时的反应以及与视觉相关的系统事件其中的一种或多种。
18.根据权利要求11所述的系统,其中所述视觉参数、视觉对象的视觉属性、视觉相关的事件其中一个或多个由网络用户和/或编程人员来设置。
19.根据权利要求11所述的系统,其中所述视觉对象是另外的替身、虚拟生物或者虚拟物体。
20.根据权利要求11所述的系统,其中所述虚拟环境是虚拟游戏环境。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810169993A CN101727531A (zh) | 2008-10-16 | 2008-10-16 | 用于在虚拟环境中进行交互的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810169993A CN101727531A (zh) | 2008-10-16 | 2008-10-16 | 用于在虚拟环境中进行交互的方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101727531A true CN101727531A (zh) | 2010-06-09 |
Family
ID=42448412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200810169993A Pending CN101727531A (zh) | 2008-10-16 | 2008-10-16 | 用于在虚拟环境中进行交互的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101727531A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018095355A1 (zh) * | 2016-11-24 | 2018-05-31 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法及相关装置 |
CN110167421A (zh) * | 2016-11-10 | 2019-08-23 | 电子医疗技术解决方案有限公司 | 整体地测量视觉功能的临床参数的系统 |
CN111401921A (zh) * | 2020-03-05 | 2020-07-10 | 成都威爱新经济技术研究院有限公司 | 一种基于虚拟人的远程客服方法 |
WO2024002321A1 (zh) * | 2022-06-30 | 2024-01-04 | 武汉联影智融医疗科技有限公司 | 一种面部朝向确定方法及装置、面部重建方法及装置 |
-
2008
- 2008-10-16 CN CN200810169993A patent/CN101727531A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110167421A (zh) * | 2016-11-10 | 2019-08-23 | 电子医疗技术解决方案有限公司 | 整体地测量视觉功能的临床参数的系统 |
CN110167421B (zh) * | 2016-11-10 | 2022-03-04 | 电子医疗技术解决方案有限公司 | 整体地测量视觉功能的临床参数的系统 |
WO2018095355A1 (zh) * | 2016-11-24 | 2018-05-31 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法及相关装置 |
US10796668B2 (en) | 2016-11-24 | 2020-10-06 | Tencent Technology (Shenzhen) Company Limited | Virtual object control method and related device |
CN111401921A (zh) * | 2020-03-05 | 2020-07-10 | 成都威爱新经济技术研究院有限公司 | 一种基于虚拟人的远程客服方法 |
WO2024002321A1 (zh) * | 2022-06-30 | 2024-01-04 | 武汉联影智融医疗科技有限公司 | 一种面部朝向确定方法及装置、面部重建方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10571263B2 (en) | User and object interaction with an augmented reality scenario | |
Kesim et al. | Augmented reality in education: current technologies and the potential for education | |
Kim et al. | Using Unity 3D to facilitate mobile augmented reality game development | |
US8516396B2 (en) | Object organization based on user interactions within a virtual environment | |
US11263824B2 (en) | Method and system to generate authoring conditions for digital content in a mixed reality environment | |
US9671566B2 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
CN111192354A (zh) | 一种基于虚拟现实的三维仿真方法及系统 | |
CN106504339A (zh) | 基于虚拟现实的文物3d展示方法 | |
US10228836B2 (en) | System and method for generation of 3D virtual objects | |
CN109844820A (zh) | 基于上下文信息来修改全息图的手部遮挡 | |
Lin et al. | Labeling out-of-view objects in immersive analytics to support situated visual searching | |
Liu et al. | QoE enhancement of the industrial metaverse based on Mixed Reality application optimization | |
CN106683152B (zh) | 三维视觉效果模拟方法及装置 | |
CN101727531A (zh) | 用于在虚拟环境中进行交互的方法和系统 | |
US9043707B2 (en) | Configurable viewcube controller | |
Gimeno et al. | Multiuser augmented reality system for indoor exhibitions | |
JP7189288B2 (ja) | リモートデバイス上に大型3dモデルを表示するための方法およびシステム | |
Neale et al. | Natural interactions between augmented virtual objects | |
Antoniac | Augmented reality based user interface for mobile applications and services | |
Pirker et al. | Virtual worlds for 3d visualizations | |
Franz et al. | A virtual reality scene taxonomy: Identifying and designing accessible scene-viewing techniques | |
US11875088B2 (en) | Systems and methods for smart volumetric layouts | |
US20240075388A1 (en) | Method, apparatus, electronic device and storage media for skill control of virtual object | |
GROH et al. | Towards visual exploration in glyph-based visualizations by using landscape metaphors | |
Kumavat et al. | A Novel Surevey on Snapchat Lens & Microsoft Holo Lens. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20100609 |