CN111651031B - 虚拟内容的显示方法、装置、终端设备及存储介质 - Google Patents
虚拟内容的显示方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN111651031B CN111651031B CN201910161354.7A CN201910161354A CN111651031B CN 111651031 B CN111651031 B CN 111651031B CN 201910161354 A CN201910161354 A CN 201910161354A CN 111651031 B CN111651031 B CN 111651031B
- Authority
- CN
- China
- Prior art keywords
- virtual
- content
- interaction device
- shielding
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了一种虚拟内容的显示方法、装置、终端设备及存储介质,涉及显示技术领域。该虚拟内容的显示方法包括:识别交互装置上的目标标记物,并根据目标标记物获取交互装置相对终端设备的位置及姿态信息;根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种;当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域;根据遮挡区域获取内容数据;根据内容数据、位置及姿态信息,生成虚拟内容;对虚拟内容进行显示。本方法可以提升虚拟内容的显示效果。
Description
技术领域
本申请涉及显示技术领域,更具体地,涉及一种虚拟内容的显示方法、装置、终端设备及存储介质。
背景技术
随着科技的发展,机器智能化及信息智能化日益普及,通过机器视觉或者虚拟视觉等图像采集装置来识别用户影像以实现人机交互的技术越来越重要。增强现实技术(Augmented Reality,AR)借助计算机图形技术和可视化技术构建现实环境中不存在的虚拟内容,并通过图像识别定位技术将虚拟内容准确地融合到真实环境中,借助显示设备将虚拟内容与真实环境融为一体,并显示给使用者真实的感观体验。增强现实技术要解决的首要技术难题是如何将虚拟内容准确地融合到真实世界中,也就是要使虚拟内容以正确的角度姿态出现在真实场景的正确位置上,从而产生强烈的视觉真实感。因此,如何提升虚拟内容的显示效果是增强现实或混合现实的重要研究方向。
发明内容
本申请实施例提出了一种虚拟内容的显示方法、装置、终端设备及存储介质,能够提升AR显示中虚拟内容的显示效果,并提高用户与虚拟内容的交互性。
第一方面,本申请实施例提供了一种虚拟内容的显示方法,应用于终端设备,所述方法包括:识别交互装置上的目标标记物,并根据所述目标标记物获取所述交互装置相对所述终端设备的位置及姿态信息;根据所述位置及姿态信息,获取所述交互装置与目标对象的相对位置关系,其中,所述目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种;当根据所述相对位置关系检测到所述交互装置与所述目标对象之间存在遮挡时,获取所述目标对象被所述交互装置遮挡的遮挡区域;根据所述遮挡区域获取内容数据;根据所述内容数据、所述位置及姿态信息,生成虚拟内容;对所述虚拟内容进行显示。
第二方面,本申请实施例提供了一种虚拟内容的显示装置,应用于终端设备,所述装置包括:图像识别模块、位置获取模块、遮挡判断模块、数据获取模块、内容生成模块以及显示模块,其中,所述图像识别模块用于识别交互装置上的目标标记物,并根据所述目标标记物获取所述交互装置相对所述终端设备的位置及姿态信息;所述位置获取模块用于根据所述位置及姿态信息,获取所述交互装置与目标对象的相对位置关系,其中,所述目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种;所述遮挡判断模块用于当根据所述相对位置关系检测到所述交互装置与所述目标对象之间存在遮挡时,获取所述目标对象被所述交互装置遮挡的遮挡区域;所述数据获取模块用于根据所述遮挡区域获取内容数据;所述内容生成模块用于根据所述内容数据、所述位置及姿态信息,生成虚拟内容;所述显示模块用于对所述虚拟内容进行显示。
第三方面,本申请实施例提供了一种终端设备,包括:一个或多个处理器;存储器;一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序配置用于执行上述第一方面提供的虚拟内容的显示方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,计算机可读取存储介质中存储有程序代码,程序代码可被处理器调用执行上述第一方面提供的虚拟内容的显示方法。
本申请实施例提供的方案,应用于终端设备,通过识别交互装置上的目标标记物,并根据该目标标记物获取交互装置相对终端设备的位置及姿态信息,然后根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,该目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种,当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域,然后根据遮挡区域获取内容数据,并根据内容数据、位置及姿态信息,生成虚拟内容,最后对虚拟内容进行显示。从而实现根据交互装置上的目标标记物的空间位置,确定交互装置与目标对象的遮挡关系,并根据遮挡区域,在虚拟空间中显示相应的虚拟内容,使用户可以观察到交互装置遮挡目标对象的遮挡区域对应的虚拟内容叠加于真实世界的效果,提升虚拟内容的显示效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了一种适用于本申请实施例的应用环境示意图。
图2示出了根据本申请一个实施例的虚拟内容的显示方法流程图。
图3示出了根据本申请实施例提供的一种显示效果示意图。
图4示出了根据本申请另一个实施例的虚拟内容的显示方法流程图。
图5示出了根据本申请实施例的虚拟内容的显示方法中步骤S220的流程图。
图6示出了根据本申请实施例的虚拟内容的显示方法中步骤S240的流程图。
图7A-7B示出了根据本申请实施例的一种显示效果示意图。
图8示出了根据本申请实施例的另一种显示效果示意图。
图9A-9D示出了根据本申请实施例的又一种显示效果示意图。
图10A-10B示出了根据本申请实施例的再一种显示效果示意图。
图11A-11B示出了根据本申请实施例的还一种显示效果示意图。
图12示出了根据本申请实施例的又另一种显示效果示意图。
图13示出了根据本申请又一个实施例的虚拟内容的显示方法流程图。
图14示出了根据本申请实施例的一种显示效果示意图。
图15示出了根据本申请实施例的另一种显示效果示意图。
图16示出了根据本申请一个实施例的虚拟内容的显示装置的框图。
图17是本申请实施例的用于执行根据本申请实施例的虚拟内容的显示方法的终端设备的框图。
图18是本申请实施例的用于保存或者携带实现根据本申请实施例的虚拟内容的显示方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
近年来,随着增强现实(AR,Augmented Reality)技术的发展,AR相关的电子设备逐渐走入了人们的日常生活中。其中,AR是通过计算机系统提供的信息增加用户对现实世界感知的技术,其将计算机生成的虚拟对象、场景或系统提示信息等内容对象叠加到真实场景中,来增强或修改对现实世界环境或表示现实世界环境的数据的感知。在传统的AR场景中,用户通常需要佩戴AR眼镜或者AR头盔等AR设备,对现实环境中的标记物(又称Marker或Tag)进行采集与识别,以看到AR设备显示的虚拟内容与现实环境叠加的场景。但传统的AR,通常仅是单纯地显示虚拟内容,显示方式单一,且用户与显示的虚拟内容互动性差。
针对上述问题,发明人经过研究,提出了本申请实施例中的虚拟内容的显示方法、装置、终端设备及存储介质,可以提高用户与显示的虚拟内容之间的交互性,提高沉浸感。
下面对本申请实施例提供的虚拟内容的显示方法的应用场景进行介绍。
请参见图1,示出了本申请实施例提供的虚拟内容的显示方法的应用场景的示意图,该应用场景包括显示系统10。该显示系统10包括:终端设备100、交互装置200以及目标对象300。
在本申请实施例中,终端设备100可以是头戴显示装置,也可以是手机、平板等移动设备。终端设备100为头戴显示装置时,头戴显示装置可以为一体式头戴显示装置。终端设备100也可以是与外接式/接入式头戴显示装置连接的手机等智能终端,即终端设备100可作为头戴显示装置的处理和存储设备,插入或者接入外接式头戴显示装置,在头戴显示装置中对虚拟内容进行显示。
在本申请实施例中,交互装置200可以是一张包含标记物201的平面物(例如纸板、塑料板等),也可以是一个设有标记物201的标记板或电子设备。交互装置200的具体形态结构不受限制,可以是各种形状的,例如正方形、圆形,也可以是各种形态的,例如平面、多面体等。其中,交互装置200上的标记物201可以是一个或多个。在使用交互装置200时,可使标记物201位于终端设备100的视野范围内,进而使得终端设备100可以采集到包含标记物201的图像,以对标记物201进行识别追踪,进而实现对交互装置200的定位追踪。在一些实施例中,交互装置200可以被用户手持并进行操控,标记物201可以集成于交互装置200中,也可以粘贴附着于交互装置200上,还可以是显示于交互装置200的显示屏上。
在本申请实施例中,上述标记物201的图像存储于终端设备100中。上述标记物201可以包括至少一个具有一个或者多个特征点的子标记物。当上述标记物201处于终端设备100的视野范围内时,终端设备100可将上述处于视野范围内的标记物201作为目标标记物,并采集包含该目标标记物的图像。在采集到包含该目标标记物的图像时,可以通过识别采集到的目标标记物的图像,来得到目标标记物相对终端设备100的位置、姿态等空间位置信息,以及目标标记物的身份信息等识别结果,进而得到交互装置200相对终端设备100的位置、姿态等空间位置信息,从而实现对交互装置200的定位及跟踪。终端设备100可基于与交互装置200之间的空间位置信息显示相应的虚拟内容。可以理解地,具体的标记物201在本申请实施例中并不作为限定,仅需可以被终端设备100识别追踪即可。
在本申请实施例中,目标对象300为第三方对象,即可以是现实世界中的任一物理实体,也可以是通过终端设备100显示的、处于虚拟空间中的任一虚拟对象。当上述交互装置200对目标对象300进行遮挡时,终端设备100可以根据目标对象300被交互装置200遮挡的遮挡区域,渲染相应的虚拟内容,并将虚拟内容与交互装置200对准,以AR的方式叠加显示在交互装置200上。
在一些实施例中,交互装置200上设有至少一个操控区,以供用户对操控区进行控制操作,从而控制虚拟内容的显示。其中,操控区包括按键和触摸屏中的至少一种。交互装置200可以通过操控区检测到的控制操作,生成与该控制操作对应的操控指令,并将该操控指令发送给终端设备100。当终端设备100接收到交互装置200发送的操控指令时,可根据操控指令控制虚拟内容的显示(例如控制虚拟内容旋转、位移、缩放等)。
例如,在医疗场景中,请再次参阅图1,终端设备100为头戴显示装置,目标对象300为现实世界中的病人的身体,目标对象300被交互装置200遮挡的遮挡区域为左胸区域,因此,用户可以通过佩戴的头戴显示装置,实时扫描交互装置200上的标记物201,可以看到虚拟心脏400叠加显示于现实空间的交互装置200上,体现了虚拟内容与被遮挡的目标对象之间的关联性,提升了虚拟内容的显示效果。
基于上述显示系统,本申请实施例提供了一种虚拟内容的显示方法,应用于上述显示系统的终端设备以及交互装置。下面对具体的虚拟内容的显示方法进行介绍。
请参阅图2,本申请实施例提供了一种虚拟内容的显示方法,可应用于上述终端设备,该虚拟内容的显示方法可以包括:
步骤S110:识别交互装置上的目标标记物,并根据目标标记物获取交互装置相对终端设备的位置及姿态信息。
在本申请实施例中,目标标记物通常设于交互装置上,因此,交互装置可以是包含有目标标记物的平面物(例如纸板、塑料板等),也可以是一个设有目标标记物的标记板或电子设备等。目标标记物设于交互装置的某个平面上时,目标标记物在该平面上的所占面积与该平面的全部面积的比例,可以是全部(即目标标记物占据整个平面),也可以是3/4、1/2等等,在此并不作限定。
传统的增强现实的显示技术中,通常仅是单纯地显示虚拟内容,显示方式单一,且用户与显示的虚拟内容互动性差。因此,可以通过交互装置来控制虚拟内容的显示,以提高用户与显示的虚拟内容之间的交互性,提高沉浸感。
在本申请实施例中,终端设备可以识别交互装置上的目标标记物,以根据目标标记物的识别结果,获取交互装置相对终端设备的位置及姿态信息,从而对交互装置的空间位置进行定位追踪,以判断交互装置是否对目标对象进行遮挡。可以理解的是,上述识别结果至少包括目标标记物相对终端设备的位置信息、旋转方向及旋转角度等,从而终端设备可以根据目标标记物在交互装置上的设定位置,获取交互装置相对终端设备的位置及姿态信息。其中,该姿态信息可包括交互装置相对终端设备的旋转方向及旋转角度等。
在一些实施方式中,上述目标标记物可以包括至少一个子标记物,子标记物可以是具有一定形状的图案。在一个实施例中,每个子标记物可具有一个或多个特征点,其中,特征点的形状不做限定,可以是圆点、圆环,也可以是三角形、其他形状。另外,不同目标标记物内的子标记物的分布规则不同,因此,每个目标标记物可具备不同的身份信息。终端设备通过识别目标标记物中包含的子标记物,可以获取与目标标记物对应的身份信息,该身份信息可以是编码等可用于唯一标识目标标记物的信息,但不限于此。
作为一种实施方式,目标标记物的轮廓可以为矩形,当然,目标标记物的形状也可以是其他形状,在此不做限定,矩形的区域以及该区域内的多个子标记物构成一个目标标记物。当然,上述目标标记物也可以为由光点构成的自身可以发光的物体等,光点标记物可以发射不同波段或不同颜色的光,终端设备通过识别光点标记物发出的光的波段或颜色等信息获取与目标标记物对应的身份信息。需要说明的是,具体的目标标记物的形状、样式、尺寸、颜色、特征点数量以及分布在本实施例中并不作为限定,仅需要标记物能被终端设备识别追踪即可。
在本申请实施例中,交互装置上的目标标记物的个数可以是多个。因此,作为一种方式,可以是通过识别多个目标标记物中每个目标标记物相对终端设备的位置信息、旋转方向及旋转角度,并根据每个目标标记物相对终端设备的位置信息、旋转方向及旋转角度,得到交互装置相对终端设备的位置及姿态信息。例如,终端设备识别的交互装置上的目标标记物包括第一标记物以及第二标记物,第二标记物区别于第一标记物,终端设备可以分别计算第一标记物以及第二标记物与终端设备之间的相对位置及旋转关系,以确定交互装置相对终端设备的位置及姿态信息。
在一些实施方式中,上述识别交互装置上的目标标记物,可以是终端设备先通过图像采集装置采集包含目标标记物的图像,然后再对该图像中的目标标记物进行识别。其中,终端设备采集包含目标标记物的图像,可以是通过调整终端设备在现实空间中的空间位置,也可以通过调整交互装置在现实空间中的空间位置,以使该交互装置上的目标标记物处于终端设备的图像采集装置的视野范围内,从而使终端设备可以对该目标标记物进行图像采集和图像识别。其中,图像采集装置的视野范围可以由视场角的大小决定。
在一些实施例中,上述交互装置上可设有多个标记物,终端设备可将交互装置上处于视野范围内的标记物作为目标标记物,此时,终端设备采集到包含目标标记物的图像,可以是交互装置上的所有标记物都处于图像采集装置的视野范围内,从而终端设备采集到的图像中的目标标记物可以是交互装置所有的标记物。也可以是交互装置的部分标记物处于图像采集装置的视野范围内,从而终端设备采集到的图像中的目标标记物可以是交互装置的部分标记物。
在另一些实施方式中,上述识别交互装置上的目标标记物,还可以是终端设备先通过其他传感器装置采集包含目标标记物的图像,然后再对该图像中的目标标记物进行识别。其中,该传感器装置具有采集标记物的图像功能,可以为图像传感器、光传感器等。当然,以上传感器装置仅为举例,并不代表对本申请实施例中的传感器装置的限定。同理,也可以通过调整终端设备在现实空间中的空间位置,或者调整交互装置在现实空间中的空间位置,以使该交互装置上的目标标记物处于传感器装置的感应范围内,从而使终端设备可以对该目标标记物进行图像采集和图像识别。其中,传感器装置的感应范围可以由灵敏度大小决定。同理,交互装置上设有多个标记物时,终端设备可将交互装置上处于传感器装置的感应范围内的标记物作为目标标记物,其中,该目标标记物可以是交互装置所有的标记物,也可以是交互装置的部分标记物。
步骤S120:根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种。
在本申请实施例中,终端设备可以根据获取到的交互装置相对终端设备的位置及姿态信息,获取交互装置与目标对象的相对位置关系。具体地,可以获取目标对象与终端设备之间的位置关系,然后根据交互装置相对终端设备的位置及姿态信息,以终端设备作为参照,则可以获取到交互装置与目标对象的相对位置关系,以判断交互装置是否对目标对象进行遮挡。其中,该相对位置关系可包括但不限于交互装置相对目标对象的位置信息、旋转方向及旋转角度等。
在本申请实施例中,上述目标对象可以包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种。其中,显示的虚拟空间中的虚拟对象可以是终端设备利用增强现实的显示技术(如识别非交互装置上的另一个标记物),显示在虚拟空间的虚拟对象,如虚拟人体、虚拟动物、虚拟房屋等。现实空间中的实体对象可以是书、海报、移动终端、人、动物等任一真实的物理实体。
步骤S130:当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域。
在本申请实施例中,当终端设备根据交互装置与目标对象的相对位置关系,检测到交互装置与目标对象之间存在遮挡时,终端设备可以获取目标对象被交互装置遮挡的遮挡区域,以实现根据目标对象的遮挡区域显示虚拟内容。
在一些实施例中,终端设备可根据交互装置与目标对象的相对位置关系,判断交互装置与目标对象之间是否存在重合,从而判断出交互装置与目标对象之间是否存在遮挡。其中,交互装置与目标对象之间存在重合,可指的是在同一空间坐标系下(如虚拟空间中以头戴显示装置为原点的空间坐标系)的同一平面坐标系中,交互装置与目标对象中存在部分坐标相同。在一个实施例中,终端设备可将交互装置及目标对象的坐标转换到虚拟空间中,以虚拟空间中的头戴显示装置为原点,得到交互装置及目标对象在虚拟空间中的空间坐标值。假设虚拟空间中以头戴显示装置为原点的空间坐标系为XYZ空间坐标系,其中,Y轴表示深度值,则可将交互装置及目标对象在该XYZ空间坐标系中的X-Z平面上的坐标值进行比对,判断是否存在X-Z平面上坐标相同的点,当存在X-Z平面上坐标相同的点,则可确定交互装置与目标对象之间存在重合。
在一些实施例中,终端设备在判断出交互装置与目标对象之间存在重合,也即存在遮挡时,可以进一步根据交互装置与目标对象之间的深度关系,来确定交互装置与目标对象之间的遮挡关系。具体地,终端设备可根据上述交互装置相对终端设备的位置及姿态信息,获取到交互装置的深度值,其中,深度值为物体与终端设备在深度上的距离值,也可以理解为物体距离终端设备的远近状态。终端设备也可根据目标对象与终端设备之间的位置关系,获取到目标对象的深度值,然后对交互装置与目标对象进行深度值比较,获取交互装置与目标对象之间的深度关系。从而终端设备可以根据深度关系确定交互装置与目标对象之间的遮挡关系,通常比较远的对象容易被比较近的对象遮挡。在一个实施例中,当目标对象的深度值大于交互装置的深度值,则可认为是交互装置遮挡了目标对象。同理,若交互装置的深度值大于目标对象的深度值,则可认为是目标对象遮挡了交互装置。当然,物体之间相互遮挡关系计算的方法还可以是其他方式,例如:交叉检验、深度测算等,在次不作限定。
可以理解的是,终端设备执行上述交互装置与目标对象之间重合的判断步骤和执行上述深度关系的获取步骤的先后顺序在本申请实施例中并不作限定,可以是先对交互装置与目标对象进行深度值比较,获取到交互装置与目标对象之间的深度关系,然后再根据交互装置与目标对象的相对位置关系,判断交互装置与目标对象之间是否存在重合,从而根据深度关系和重合关系确定交互装置与目标对象之间的遮挡关系。
在本申请实施例中,上述获取目标对象被交互装置遮挡的遮挡区域,可以理解为交互装置遮挡了目标对象,也就是说,当根据相对位置关系检测到交互装置对目标对象进行遮挡时,终端设备可以获取目标对象被交互装置遮挡的遮挡区域。若根据深度关系和重合关系确定交互装置与目标对象之间的遮挡关系,则上述获取目标对象被交互装置遮挡的遮挡区域,可以是在终端设备确定交互装置与目标对象之间存在重合,以及得到的目标对象的深度值大于交互装置的深度值时,进行遮挡区域的获取。
其中,上述遮挡区域指的是交互装置与目标对象之间存在重合时,目标对象中目标对象与交互装置重合的区域,即在同一空间坐标系的同一个平面坐标系下,交互装置与目标对象中的坐标相同的区域,例如上述实施例中的XYZ空间坐标系,交互装置及目标对象在X-Z平面上坐标相同的区域,可确定为遮挡区域。在一些实施例中,终端设备可以根据交互装置与目标对象的相对位置关系确定交互装置与目标对象之间的位置重合区域,并根据位置重合区域获取目标对象被交互装置遮挡的遮挡区域。
步骤S140:根据遮挡区域获取内容数据。
在本申请实施例中,在检测到交互装置对目标对象进行遮挡时,终端设备可以根据目标对象被交互装置遮挡的遮挡区域,获取到内容数据。其中,该内容数据可以包括待显示的虚拟内容的模型数据,该模型数据可以包括用于构建虚拟内容对应的模型的颜色、模型顶点坐标、模型轮廓数据等,虚拟内容的模型数据可以存储于终端设备中,也可以存储于其他电子设备。从而可将待显示的虚拟内容与被遮挡的目标对象关联起来,提升了虚拟内容的显示效果。其中,该内容数据通常与目标对象相关,例如,目标对象为虚拟人体时,内容数据可以是包括虚拟心脏、虚拟人体骨骼等模型数据,目标对象为书时,内容数据可以是包括与书相关的视频文件、图片等图像数据。
在一些实施例中,上述内容数据与遮挡区域具有对应关系,当目标对象被交互装置遮挡的遮挡区域不同,则获取到的内容数据也不同,因此,终端设备可根据具体的遮挡区域,获取与遮挡区域对应的内容数据。在一些实施方式中,上述获取内容数据,可以是终端设备根据上述对应关系从服务器中下载,也可以是终端设备根据上述对应关系从其他设备中去获取,还可以是终端设备根据上述对应关系从本地存储器中获取。例如,在医疗场景中,病人做了电子计算机断层扫描(Computed Tomography,CT)后,可得到2维的CT图片后,可将该CT图片转成3维的模型并传输到医生的头戴显示设备中,医生通过移动交互装置在病人身上的位置,改变病人被交互装置遮挡的遮挡区域,头戴显示设备可以根据交互装置在病人身上的遮档区域,获取对应的待显示的3维CT图像数据。
在另一些实施例中,上述内容数据与目标对象上的划分区域具有对应关系,即若目标对象被交互装置遮挡的多个遮挡区域属于不同的划分区域,则对应的获取到内容数据也不同;若目标对象被交互装置遮挡的多个遮挡区域属于同一划分区域,则获取到的内容数据相同。其中,该划分区域可以预先存储于终端设备,可根据具体的应用情况进行合理设定。
步骤S150:根据内容数据、位置及姿态信息,生成虚拟内容,
在本申请实施例中,终端设备获取到上述内容数据后,可以根据上述内容数据、上述位置及姿态信息,生成待显示的虚拟内容。其中,终端设备根据内容数据和目标标记物相对终端设备的位置及姿态信息,生成虚拟内容,可以是根据上述内容数据构建出虚拟内容,根据目标标记物相对终端设备的位置及姿态信息,获取到虚拟内容的渲染位置,从而根据渲染位置渲染出虚拟内容。
在一些实施方式中,由于终端设备已经得到交互装置相对终端设备的位置及姿态信息,因此,终端设备可以获取到现实空间中的交互装置的空间位置坐标,将该空间位置坐标转换为虚拟空间中的空间坐标。其中,虚拟空间中可包括虚拟摄像头,该虚拟摄像头用于模拟用户的人眼,虚拟摄像头在虚拟空间中的位置可看作终端设备在虚拟空间中的位置。可根据虚拟空间中待显示的虚拟内容与交互装置的位置关系,以虚拟摄像头作为参照,则可以获取到虚拟内容相对虚拟摄像头的空间位置,从而得到虚拟内容在虚拟空间中的渲染坐标,即得到了虚拟内容的渲染位置,其中,该渲染位置可用作虚拟内容的渲染坐标,以实现虚拟内容渲染于渲染位置处。其中,上述渲染坐标指的是虚拟内容在虚拟空间中以虚拟摄像头为原点(也可看作是以人眼为原点)的三维空间坐标。
可以理解的是,终端设备在得到用于虚拟空间中渲染虚拟内容的渲染坐标之后,终端设备可以获取到待显示的虚拟内容对应的内容数据,然后根据该内容数据构建虚拟内容,以及根据上述渲染坐标渲染该虚拟内容,其中,渲染虚拟内容可以得到虚拟内容中各个像素点的RGB值及对应的像素点坐标等。
步骤S160:对虚拟内容进行显示。
在本申请实施例中,终端设备生成虚拟内容后,可以对虚拟内容进行显示。具体地,终端设备构建并渲染出虚拟内容后,可以获取渲染后的虚拟内容的显示数据,该显示数据可以包括显示画面中各个像素点的RGB值及对应的像素点坐标等,终端设备可根据该显示数据生成显示画面,并将显示画面通过显示屏或投射模组投射到显示镜片上,从而显示出虚拟内容。用户通过头戴显示装置的显示镜片,可以看到虚拟内容叠加显示在真实世界中的交互装置上,实现增强现实的效果。从而在交互装置对目标对象进行遮挡时,实现根据交互装置上的目标标记物的空间位置,在虚拟空间中显示相应的虚拟内容,使用户可以观察到交互装置遮挡目标对象的遮挡区域对应的虚拟内容叠加于真实世界的效果,提升虚拟内容的显示效果。例如,在医疗场景中,请参见图1,目标对象300为病人的身体,交互装置200遮挡在病人的左胸区域,用户可以通过佩戴的头戴显示装置,实时扫描交互装置200上的标记物201,可以看到虚拟心脏400叠加显示于现实空间的交互装置200上,体现了虚拟内容与被遮挡的目标对象之间的关联性,提升了虚拟内容的显示效果。
又例如,在虚拟地图场景中,请参见图3,目标对象300为虚拟公园地图,交互装置200遮挡在虚拟公园地图的中心区域,用户可以通过佩戴的头戴显示装置,实时扫描交互装置200上的标记物201,可以看到中心区域至公园出口的虚拟路线401叠加显示于现实空间的交互装置200上,体现了虚拟内容与被遮挡的目标对象之间的关联性,提升了虚拟内容的显示效果。
在一些实施方式中,虚拟内容与交互装置的位置关系可以是固定的,如虚拟内容固定显示在交互装置上,也可以和具体的目标对象有关,如目标对象为书时,虚拟内容显示在交互装置的四周,目标对象为海报时,虚拟内容显示在交互装置的上方,在此不做限定。
本申请实施例提供的虚拟内容的显示方法,通过识别交互装置上的目标标记物,并根据该目标标记物获取交互装置相对终端设备的位置及姿态信息,然后根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,该目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种,当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域,然后根据遮挡区域获取内容数据,并根据内容数据、位置及姿态信息,生成虚拟内容,最后对虚拟内容进行显示。从而实现根据交互装置上的目标标记物的空间位置,确定交互装置与目标对象的遮挡关系,并根据遮挡区域,在虚拟空间中显示相应的虚拟内容,使用户可以观察到交互装置遮挡目标对象的遮挡区域对应的虚拟内容叠加于真实世界的效果,提升虚拟内容的显示效果。
请参阅图4,本申请另一实施例提供了一种虚拟内容的显示方法,可应用于终端设备,该虚拟内容的显示方法可以包括:
步骤S210:识别交互装置上的目标标记物,并根据目标标记物获取交互装置相对终端设备的位置及姿态信息。
步骤S220:根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种。
在一些实施例中,步骤S210以及步骤S220的内容可以参阅上述实施例的内容,在此不再赘述。
在一些实施例中,目标对象为终端设备已经显示在虚拟空间中的虚拟对象时,终端设备可以直接获取到虚拟空间中虚拟对象与终端设备的之间的相对位置信息,因此,终端设备可根据该虚拟对象与终端设备的之间的相对位置信息,以及交互装置相对终端设备的位置及姿态信息,以终端设备为参照,获取到交互装置与虚拟对象的相对位置关系,其中,该相对位置关系可包括交互装置相对虚拟对象的位置信息、旋转方向及旋转角度等。具体地,终端设备可以根据交互装置相对终端设备的位置及姿态信息,获取到现实空间中的交互装置的空间位置坐标,并将该空间位置坐标转换为虚拟空间中的空间坐标。终端设备可根据虚拟空间中虚拟对象与终端设备的之间的相对位置信息,以终端设备作为参照,则可以获取到虚拟空间中交互装置与虚拟对象的相对位置关系。
在另一些实施例中,目标对象为现实空间中的实体对象时,终端设备需要获取实体对象的空间位置信息,以得到交互装置与实体对象的相对位置关系。因此,请参阅图5,上述根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,可以包括:
步骤S221:识别实体对象,并获取实体对象相对终端设备的位置关系。
在本申请实施例中,终端设备可以通过识别实体对象,以得到实体对象的识别结果,该识别结果至少包括实体对象的形状、大小、实体对象相对终端设备的位置关系,从而终端设备可以获取到实体对象相对终端设备的位置关系。其中,该位置关系可以包括实体对象相对终端设备的位置、旋转方向、旋转角度等。
在一些实施方式中,终端设备识别实体对象,可以是通过图像采集装置采集包含实体对象的图像,然后再对该图像中的进行识别。其中,终端设备采集包含实体对象的图像,可以是通过调整终端设备在现实空间中的空间位置,也可以通过调整实体对象在现实空间中的空间位置,以使该实体对象处于终端设备的图像采集装置的视野范围内,从而使终端设备可以对该实体对象进行图像采集和图像识别。其中,图像采集装置的视野范围可以由视场角的大小决定。在一个实施例中,终端设备采集包含实体对象的图像,可将该图像上传至服务器,服务器对图像中的实体对象进行识别后,可将识别结果返回给终端设备。
在一些实施方式中,终端设备获取实体对象相对终端设备的位置关系,可以是在实体对象上设置标记物(如在实体对象上粘贴、打印标记物等),从而可以直接通过识别实体对象上的标记物,得到实体对象相对终端设备的位置关系。
在一些实施例中,终端设备识别实体对象后,还可以得到实体对象的详细信息(如名称、类别、颜色、图案等),也就是说,终端设备在识别实体对象或者识别包含有实体对象的图像之后,可以得到实体对象相对终端设备的位置关系,以及实体对象的详细信息。
步骤S222:根据位置关系、位置及姿态信息,获取交互装置与实体对象的相对位置关系。
由于终端设备识别实体对象得到的识别结果包括实体对象相对终端设备的位置关系,因此,终端设备可以根据交互装置相对终端设备的位置及姿态信息和实体对象相对终端设备的位置关系,以终端设备为参照,得到交互装置与实体对象的相对位置关系。其中,交互装置与实体对象的相对位置关系可以包括交互装置相对实体对象的位置、旋转方向、旋转角度等。
其中,上述相对位置关系可以是交互装置与实体对象在虚拟空间中的相对位置关系,也可以是用户通过头戴显示设备看到的交互装置与实体对象在现实世界中的相对位置关系。
步骤S230:当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域。
由于终端设备通过识别交互装置上的目标标记物,可以得到交互装置相对终端设备的位置及姿态信息,因此,终端设备可以获取到现实空间中的交互装置的空间位置坐标,将该空间位置坐标转换为虚拟空间中的空间坐标,其中,该空间坐标指的是交互装置在虚拟空间中以虚拟摄像头为原点(也可看作是以人眼为原点)的三维空间坐标。同理,终端设备也根据目标对象与终端设备之间的位置关系,得到目标对象在虚拟空间中的空间坐标。此时,目标对象与交互装置在虚拟空间中的空间坐标处于同一个空间坐标系下,终端设备可以判断目标对象与交互装置在虚拟空间中所有顶点的空间坐标中是否存在部分顶点的坐标在同一个平面坐标系下相同。若存在上述部分顶点,则可确定交互装置与目标对象之间存在遮挡,并根据交互装置与目标对象之间的深度关系,确定交互装置与目标对象之间具体的遮挡关系,如确定交互装置遮挡了目标对象、目标对象遮挡了交互装置等。
在本申请实施例中,当终端设备确定交互装置与目标对象之间存在遮挡,且得到的目标对象的深度值大于交互装置的深度值时,则可以判断出是交互装置遮挡了目标对象,从而,可以获取到目标对象被交互装置遮挡的遮挡区域,也即获取到目标对象中的上述部分顶点的坐标区域。
在一些实施方式中,目标对象为实体对象,实体对象的深度信息可以通过深度摄像头采集到。
步骤S240:根据遮挡区域获取内容数据。
在一些实施例中,步骤S240的内容可以参阅上述实施例的内容,在此不再赘述。
在一些实施例中,内容数据可以是根据目标对象进行预先设置的。当终端设备采集到交互装置上目标标记物的图像后,可根据交互装置相对终端设备的位置及姿态信息获取预先设置的内容数据,以进行显示。作为一种实施方式,内容数据可以预先存储在终端设备中。
在一些实施例中,内容数据还可以具体与目标对象的遮挡区域的遮挡内容有关。因此,请参见图6,上述根据遮挡区域获取内容数据,可以包括:
步骤S241:根据遮挡区域,获取遮挡区域的遮挡内容。
在本申请实施例中,终端设备获取到目标对象被交互装置遮挡的遮挡区域后,可根据遮挡区域,获取与目标对象的遮挡区域对应的遮挡内容,以得到与遮挡内容相关的待显示虚拟内容。
在一些实施例中,上述遮挡内容可以是与遮挡区域相匹配的部分内容,也可以是一个整体内容。例如,日常生活场景中,请参见图7A和图7B,目标对象300为现实空间中的图片,交互装置200遮挡了图片中的人的头部区域,终端设备可以获取图片中人的头部区域中的头部内容402作为遮挡内容,也可以获取图片中的整个人像403作为遮挡内容。
步骤S242:基于遮挡内容,获取内容数据,其中,内容数据包括遮挡内容的数据、对遮挡内容进行图像处理后的内容数据、与遮挡内容对应的第一预设内容数据及与遮挡区域对应的第二预设内容数据中的至少一种。
在本申请实施例中,终端设备可以基于目标对象的遮挡区域的遮挡内容,获取内容数据,以根据该内容数据将虚拟内容显示于虚拟空间。其中,该内容数据可以包括待显示的虚拟内容的模型数据,该模型数据可以包括用于构建虚拟内容对应的模型的颜色、模型顶点坐标、模型轮廓数据等。
作为一种实施方式,上述内容数据可以是遮挡内容的数据,即,当终端设备确定交互装置对目标对象进行遮挡时,则可以直接将遮挡区域中的遮挡内容的数据作为待显示的虚拟内容对应的内容数据,以实现将遮挡内容叠加显示于真实世界中的交互装置上。
作为另一种实施方式,上述内容数据可以是对遮挡内容进行图像处理后的内容数据。也就是说,当终端设备确定交互装置对目标对象进行遮挡时,终端设备可以直接将遮挡区域中的遮挡内容进行图像处理,得到处理后的内容数据,并将该处理后的内容数据作为待显示的虚拟内容对应的内容数据,以实现将图像处理后的内容叠加显示于真实世界中的交互装置上。其中,图像处理可以是对遮挡内容进行放大、缩小、旋转、翻转等,在此不作限定。
作为又一种实施方式,上述内容数据可以是与遮挡内容对应的第一预设内容数据。其中,该第一预设内容数据可以是遮挡内容对应的整体内容数据,也可以是遮挡内容中的部分内容数据,还可以是遮挡内容的扩展内容数据,在此不作限定。也就是说,当终端设备确定交互装置对目标对象进行遮挡时,终端设备可以获取与遮挡区域中的遮挡内容对应的第一预设内容数据,并将该第一预设内容数据作为待显示的虚拟内容对应的内容数据,以实现将第一预设内容叠加显示于真实世界中的交互装置上。例如,目标对象为现实空间中的广告板,当交互装置对广告板进行遮挡时,可根据广告板被遮挡的区域对应的遮挡内容获取相应的虚拟内容对应的内容数据,并根据该内容数据显示该虚拟内容,比如遮挡广告板中的2维卡通人物时,对应的虚拟内容的内容数据可以是该卡通人物的3维模型跳动的内容数据,遮挡广告板中的广告词时,对应的虚拟内容的内容数据可以是虚拟广告词从交互装置中飘出的显示效果数据等,但不限于此。
作为再一种实施方式,上述内容数据可以是与遮挡区域对应的第二预设内容数据。其中,第二预设内容数据可以是目标对象的遮挡区域的内部组成结构数据,例如,目标对象为虚拟人体时,第二预设内容数据可以是虚拟人体内的器官、血管等模型数据。也就是说,当终端设备确定交互装置对目标对象进行遮挡时,终端设备可以获取目标对象在遮挡区域下的内部组成结构数据,并将该内部组成结构数据作为待显示的虚拟内容对应的内容数据,以实现将内部组成结构叠加显示于真实世界中的交互装置上。
进一步的,可以对目标对象进行区域划分,当交互装置在划分的区域内移动时,目标对象被遮挡的遮挡区域属于同一预先划分的区域,获取的内容数据不变,即虚拟内容与划分区域对应。
可以理解的是,上述内容数据可以是上述实施方式中的一种或多种的组合,在此不作限定。
步骤S250:根据内容数据、位置及姿态信息,生成虚拟内容。
步骤S260:对虚拟内容进行显示。
在一些实施方式中,步骤S250以及步骤S260的内容可以参阅上述实施例的内容,在此不再赘述。
在本申请实施例中,终端设备可以根据交互装置相对终端设备的位置及姿态信息,显示上述待显示的虚拟内容。从而实现根据交互装置上的目标标记物的空间位置,在虚拟空间中显示相应的虚拟内容,使用户可以观察到交互装置遮挡目标对象的遮挡区域对应的虚拟内容叠加于真实世界的效果,提升虚拟内容的显示效果。
可以理解的是,当上述内容数据为遮挡内容的数据时,终端设备可以实现将遮挡内容叠加显示于真实世界中的交互装置上。例如,请参见图7A,目标对象300为图片,交互装置200对图片中的人头部分进行遮挡时,用户通过头戴显示装置,可以看到虚拟的人头部分402叠加显示于现实空间中的交互装置200上。
当上述内容数据为对遮挡内容进行图像处理后的内容数据时,终端设备可以实现将图像处理后的内容叠加显示于真实世界中的交互装置上。例如,请参见图8,目标对象300为图片,交互装置200对图片中的人的头部区域进行遮挡,用户通过头戴显示装置,可以看到放大后的虚拟人头部分404叠加显示于现实空间中的交互装置200上。
当上述内容数据为与遮挡内容对应的第一预设内容数据时,终端设备可以实现将第一预设内容叠加显示于真实世界中的交互装置上。其中,该第一预设内容数据可以是遮挡内容对应的整体内容数据,也可以是遮挡内容中的部分内容数据,还可以是遮挡内容的扩展内容数据。例如,请参见图9A,目标对象300为虚拟公园地图,交互装置200对虚拟公园地图中的人工湖的左边区域进行遮挡时,用户通过头戴显示装置,可看到完整的虚拟的人工湖区域405叠加显示于现实空间中的交互装置200上;请参见图9B,用户通过头戴显示装置也可看到虚拟的人工湖中的虚拟湖中亭406叠加显示于现实空间中的交互装置200上;请参见图9C,用户通过头戴显示装置还可看到虚拟的人工湖的简介、图片等相关信息407叠加显示于现实空间中的交互装置200上。又例如,交互装置对饮料瓶包装上的卡通人物的头部进行遮挡时,用户通过头戴显示装置,可看到整个虚拟的卡通人物叠加显示于现实空间中的交互装置上;也可看到虚拟的卡通人物动画叠加显示于交互装置上。
当上述内容数据为与遮挡区域对应的第二预设内容数据时,终端设备可以实现将第二预设内容叠加显示于真实世界中的交互装置上。在一个实施例中,第二预设内容数据可以是目标对象的遮挡区域的内部组成结构数据。在另一个实施例中,第二预设内容数据可以是目标对象的遮挡区域的标志性内容数据。例如,医疗场景中,请参见图1,目标对象300为病人的身体,交互装置200遮挡在病人的左胸区域,用户可以通过佩戴的头戴显示装置,实时扫描交互装置200上的标记物201,可以看到虚拟心脏400叠加显示于现实空间的交互装置200上。又例如,请参见图9B,目标对象300为虚拟公园地图,交互装置200对虚拟公园地图中的人工湖区域进行遮挡时,用户通过头戴显示装置也可看到虚拟的人工湖的标记性建筑(虚拟湖中亭406)叠加显示于现实空间中的交互装置200上,体现了虚拟内容与被遮挡的目标对象之间的关联性,提升了虚拟内容的显示效果。
进一步的,上述内容数据可以与划分区域对应,即当交互装置在划分的区域内移动时,目标对象被遮挡的遮挡区域属于同一预先划分的区域,内容数据不变。例如,请参见图9B和图9D,目标对象300为虚拟公园地图,交互装置200对虚拟公园地图中的人工湖的左区域或右区域进行遮挡时,用户通过头戴显示装置,都可以看到虚拟的人工湖的标志性建筑(虚拟湖中亭406)叠加显示于现实空间中的交互装置200上。
另外,在一些实施例中,终端设备显示的虚拟内容也可以与具体的外部环境对应,其中,外部环境可以是终端设备所处环境地点、终端设备所处环境天气、终端设备所处环境亮度等,在此不作限定。终端设备可通过图像采集装置采集外部环境的场景图像,并对该场景图像进行识别,以根据不同的外部环境显示不同的虚拟内容。例如,当终端设备所处环境亮度较为明亮时,终端设备可显示亮度调高后的虚拟内容。又例如,旅游场景中,交互装置与旅游城市的地图进行遮挡,当终端设备所处环境地点为地铁站时,显示的虚拟内容为可乘地铁路线,而当终端设备所处环境地点为公交车站时,显示的虚拟内容为可乘公交路线。
在一些实施例中,目标对象为显示的虚拟空间中的虚拟对象时,若根据虚拟对象被交互装置遮挡的遮挡区域显示虚拟内容,显示的虚拟对象与虚拟内容重叠,造成用户视觉上的混乱,影响了虚拟内容的显示效果。因此,需要对虚拟对象进行一定的处理,以提升虚拟内容的显示效果。
在一些实施方式中,在显示虚拟内容时,可以不显示虚拟对象的遮挡区域的内容,以提升虚拟内容的显示效果。因此,上述对虚拟内容进行显示,可以包括:获取虚拟对象在遮挡区域的遮挡内容,并对遮挡内容进行显示处理后,将虚拟内容进行显示,显示处理用于在虚拟内容显示时遮挡内容具有被虚拟内容遮挡的效果。
在本申请实施例中,终端设备可以获取虚拟对象在遮挡区域的遮挡内容,并对该遮挡内容进行显示处理后,将虚拟内容进行显示,其中,该显示处理用于在虚拟内容显示时遮挡内容具有被虚拟内容遮挡的效果。从而降低了用户视觉上的不适感,提升了虚拟内容的显示效果。具体地,终端设备可以根据获取到的虚拟对象被交互装置遮挡的遮挡区域,来获取虚拟对象在遮挡区域中的遮挡内容。
在一些实施方式中,上述对遮挡内容进行显示处理,可以是将遮挡内容的颜色调整为指定颜色,也可以是将遮挡内容的透明度调整为指定透明度。其中,该指定颜色的各颜色分量的亮度值低于第一阈值,该指定透明度低于第二阈值。
其中,上述第一阈值为用户通过头戴显示装置无法观察到遮挡内容时,遮挡内容的各颜色分量的最大亮度值。作为一种方式,第一阈值可以设定为13亮度,即95%黑,也可以设定为0亮度,即黑色。上述第二阈值为用户通过头戴显示装置无法观察到遮挡内容时,遮挡内容的透明度最大值。作为一种方式,第二阈值可以设定为1,即90%透明,也可以设定为0,即100%透明。因此,在本申请实施例中,可以设定指定颜色为黑色,以使指定显示处理后的遮挡内容经过头戴显示装置的光学显示后,用户无法观察到该遮挡内容。当然,也可以设定指定透明度为0,达到上述效果。
终端设备对遮挡内容进行显示处理时,可以将上述生成的虚拟内容进行显示。具体地,终端设备可以获取虚拟内容的显示数据,该显示数据可以包括显示画面中各个像素点的RGB值及各个像素点的显示位置等,终端设备可根据该显示数据生成显示画面,并将显示画面通过显示屏或投射模组投射到显示镜片上,从而显示出虚拟内容。用户通过头戴显示装置的显示镜片,可以看到虚拟内容叠加显示在真实世界中,也可以看到遮挡内容被虚拟内容遮挡的效果,提升了虚拟内容的显示效果。
例如,请参见图9B,目标对象300为虚拟公园地图,交互装置200对虚拟公园地图中的人工湖的左区域进行遮挡时,用户通过头戴显示装置,可以看到虚拟的人工湖的标志性建筑(虚拟湖中亭406)叠加显示于现实空间中的交互装置200上,也可以看到虚拟公园地图中除左区域外的内容,但无法看到虚拟公园地图中被交互装置遮挡的左区域的内容。
在另一些实施例中,在显示虚拟内容时,可以是整个虚拟对象都不显示,因此,上述对虚拟内容进行显示,可以包括:
对虚拟内容进行显示的同时,取消显示虚拟对象。
在一些实施方式中,由于虚拟对象为终端设备提前显示好的,因此,终端设备在得到虚拟内容的显示数据之后,可以根据该显示数据对虚拟内容进行显示,同时取消显示虚拟对象,从而在交互装置对虚拟对象进行遮挡时,用户通过头戴显示装置,可以只看到虚拟内容叠加于真实世界中的交互装置上,避免了虚拟对象与虚拟内容的重叠显示,提升了虚拟内容的显示效果。例如,对比图9B,请参见图10A,交互装置200对虚拟公园地图中的人工湖的左区域进行遮挡时,用户通过头戴显示装置,只可以看到虚拟的人工湖中被遮挡的左区域411叠加显示于现实空间中的交互装置上,不能看到之前显示的虚拟公园地图,又例如,对比图9B,请参见图10B,交互装置200对虚拟公园地图中的人工湖的左区域进行遮挡时,用户通过头戴显示装置,只可以看到虚拟的人工湖的标志性建筑(湖中亭406)叠加显示于现实空间中的交互装置上,不能看到之前显示的虚拟公园地图。
其中,上述取消显示虚拟对象,可以是终端设备取消虚拟对象的渲染和生成,也可以是终端设备取消将虚拟对象投射到终端设备的显示镜片上,还可以是将虚拟对象的颜色调整为指定颜色或者将虚拟对象的透明度调整为指定透明度,其中,该指定颜色的各颜色分量的亮度值低于第一阈值,该指定透明度低于第二阈值。其中,上述实现方式仅为举例,并不作限定,仅需达到取消显示虚拟对象的效果即可。
进一步的,终端设备在取消显示虚拟对象后,可以根据交互设备的移动实现渐渐显示虚拟对象的效果。因此,在一些实施例中,在上述对虚拟内容进行显示的同时,取消显示虚拟对象之后,该虚拟内容的显示方法还可以包括:
在检测到交互装置与虚拟对象的相对位置关系发生变化时,确定交互装置相对虚拟对象的位置变化轨迹;将位置变化轨迹上虚拟对象被交互装置遮挡过的内容进行显示。
由于终端设备第一次确定交互装置对虚拟对象进行遮挡时,并显示虚拟内容时,虚拟对象是取消显示状态,因此,在本申请实施例中,在检测到交互装置与虚拟对象的相对位置关系发生变化时,确定交互装置相对虚拟对象的位置变化轨迹,从而可以根据交互装置的移动显示出虚拟对象。
可以理解的是,在根据交互装置相对终端设备的位置及姿态信息,对虚拟内容进行显示之后,可以实时检测终端设备与交互装置之间的相对位置以及旋转角度,以在交互装置相对终端设备的位置及姿态信息发生变化时,获取交互装置相对虚拟对象的位置变化轨迹。其中,该位置变化轨迹可以理解为交互装置相对虚拟对象移动时,交互装置移动的路径。
在本申请实施例中,终端设备可以实时监测交互装置与虚拟对象的相对位置关系,以实时获取到交互装置相对虚拟对象的位置变化轨迹,从而终端设备可以根据该位置变化轨迹,将位置变化轨迹上的虚拟对象被交互装置遮挡过的内容进行显示,从而实现根据交互装置的移动,渐渐显示出虚拟对象的效果。具体地,终端设备可以获取该位置变化轨迹上虚拟对象被交互装置遮挡过的内容,并恢复其显示状态。在一些实施方式中,交互装置在移动过程中时,终端设备当前在交互装置上显示的虚拟内容,与当前虚拟对象被交互装置遮挡的遮挡区域有关,显示的虚拟内容可以根据遮挡区域的变化而变化,也可以是固定显示(如遮挡区域属于同一划分领域时)。
例如,请参阅图10B和图11A,目标对象300为虚拟公园地图,图10中虚拟公园地图被取消显示,请参阅图11A,当交互装置200相对虚拟公园地图的位置变化轨迹为510时,且虚拟公园地图当前被交互装置200遮挡的区域为虚拟人工湖区域,用户通过头戴显示装置,不仅可以看到虚拟的人工湖的标志性建筑(虚拟湖中亭406)叠加显示于现实空间中的交互装置200上,还可以看到变化轨迹上的虚拟公园地图被交互装置遮挡过的内容407与现实空间中的交互装置200的叠加显示,又例如,请参阅图11B,当交互装置200相对虚拟公园地图的位置变化轨迹为510时,且虚拟公园地图当前被交互装置200遮挡的区域更新为虚拟猴园区域,用户通过头戴显示装置,可以看到虚拟猴园区域的标志性动物(虚拟长臂猴409)叠加显示于现实空间中的交互装置200上,同时仍然也可以看到变化轨迹上的虚拟公园地图被交互装置遮挡过的内容407与现实空间中的交互装置200的叠加显示,体现了虚拟对象的渐渐显示效果。
可以理解的是,位置变化轨迹上的虚拟对象被交互装置遮挡过的内容的显示操作,与上述取消显示虚拟对象的方式相对应,可以是终端设备进行该内容的渲染和生成,也可以是终端设备将该内容投射到终端设备的显示镜片上,还可以是将该内容的颜色调整为初始颜色或者将该内容的透明度调整为初始透明度。
在一些实施方式中,显示位置变化轨迹上虚拟对象被交互装置遮挡过的内容时,可以不显示位置变化轨迹终端的虚拟对象被交互装置遮挡过的内容。可以理解的是,由于当前虚拟内容会叠加显示于交互装置上,为避免虚拟内容与虚拟对象的内容重叠显示,因此在检测到交互装置与虚拟对象的相对位置关系发生变化时,可以不对当前虚拟对象被交互装置遮挡的遮挡区域的内容进行显示,仅显示位置变化轨迹中的虚拟对象被交互装置遮挡过的内容。
进一步的,在一些实施例中,终端设备还可以根据用户的控制操作控制虚拟内容的显示。具体地,请再次参阅图4,在上述对虚拟内容进行显示之后,该虚拟内容的显示方法还可以包括:
步骤S270:接收交互装置根据操控区检测的控制操作发送的操控指令。
在本申请实施例中,交互装置与终端设备进行通信连接,交互装置上可以设置有至少一个操控区,该操控区可以包括按键以及触摸屏中的至少一种。交互装置的操控区可以检测到控制操作,控制操作可以为用户对按键的按键操作,也可以为在触摸屏的触控操作(如点击、滑动、长按等操作)。在交互装置的操控区检测到控制操作时,交互装置可以根据检测到的控制操作生成操控指令,并将该操控指令发送至终端设备。其中,该操控指令用于终端设备对虚拟内容进行相应的控制。
在本申请实施例中,终端设备可以接收交互装置发送的上述操控指令,以便后续根据该操控指令,对虚拟内容进行相应控制。
步骤S280:根据操控指令,调整虚拟内容的显示位置和/或显示状态。
终端设备在接收到交互装置发送的操控指令时,可以根据该操控指令,调整虚拟内容的显示位置和/或显示状态,以实现用户与虚拟内容之间的交互。其中,调整虚拟内容的显示位置可以是对虚拟内容进行移动,调整虚拟内容的显示状态可以是对虚拟内容进行放大、缩小、翻转、旋转等显示。例如,在虚拟太空场景中,请参见图12,目标对象300为虚拟太空图,若交互装置200对虚拟地球进行遮挡,则用户在交互装置200上进行手指向左滑动操作时,用户通过头戴显示装置,可以看到放大后的虚拟地球410叠加显示于现实空间中的交互装置200上。
在一些实施例中,终端设备还可以根据交互装置的位置及姿态信息,对虚拟内容的显示进行控制。作为一种实施方式,终端设备可以根据交互装置的摇晃参数对虚拟内容的显示进行操控,例如,用户摇晃两次交互装置,终端设备控制虚拟内容放大显示。作为另一种实施方式,终端设备可以根据交互装置距离终端设备的远近对虚拟内容的显示进行操控,例如,用户移动交互装置靠近自己时,终端设备控制虚拟内容放大显示,用户移动交互装置远离自己时,终端设备控制虚拟内容缩小显示。
另外,终端设备也可以通过其他的交互设备对虚拟内容的显示进行控制。例如,终端设备可以接收其他交互设备发送的操控指令,根据操控指令控制虚拟内容的显示位置(左移、右移等)和/或控制虚拟内容的显示状态(放大、缩小等)。终端设备还可以实时采集用户的手势动作,根据具体的手势控制虚拟内容的显示。例如,用户做左挥手动作,终端设备控制虚拟内容旋转显示,用户做点击动作,终端设备控制虚拟内容放大显示。
本申请实施例提供的虚拟内容的显示方法,通过识别交互装置上的目标标记物,并根据该目标标记物获取交互装置相对终端设备的位置及姿态信息,然后根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,根据遮挡区域获取内容数据,并根据内容数据、位置及姿态信息,生成虚拟内容,最后对虚拟内容进行显示。进一步的,终端设备还可以接收交互装置根据操控区检测的控制操作发送的操控指令,并根据操控指令,调整虚拟内容的显示位置和/或显示状态。从而使用户观察到交互装置遮挡目标对象的遮挡区域对应的虚拟内容叠加于真实世界的效果的同时,也可以通过交互装置对虚拟内容的显示进行控制,实现了用户与虚拟内容之间的交互,提升虚拟内容的显示效果。
请参阅图13,本申请实施例提供了又一种虚拟内容的显示方法,可应用于上述终端设备,该虚拟内容的显示方法可以包括:
步骤S310:识别交互装置上的目标标记物,并根据目标标记物获取交互装置相对终端设备的位置及姿态信息。
步骤S320:根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种。
步骤S330:当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域。
步骤S340:根据遮挡区域获取内容数据。
步骤S350:根据内容数据、位置及姿态信息,生成虚拟内容。
步骤S360:对虚拟内容进行显示。
在本申请实施例中,步骤S310至步骤S360可以参阅上述实施例的内容,在此不再赘述。
步骤S370:在检测到交互装置相对终端设备的位置及姿态信息发生变化时,根据变化后的位置及姿态信息,更新目标对象被交互装置遮挡的遮挡区域。
由于交互装置相对终端设备发送移动时,显示的虚拟内容会发生改变。因此,在本申请实施例中,在根据交互装置相对终端设备的位置及姿态信息,对虚拟内容进行显示之后,可以实时检测终端设备与交互装置之间的相对位置以及旋转角度,以在交互装置相对终端设备的位置及姿态信息发生变化时,根据变化后的位置及姿态信息,重新获取目标对象被交互装置遮挡的遮挡区域,从而实现对目标对象被交互装置遮挡的遮挡区域的更新。
在一些实施方式中,上述检测到交互装置相对终端设备的位置及姿态信息发生变化,可以是交互装置的位置固定,终端设备的位置发生改变,如用户佩戴头戴显示装置向前移动,使得终端设备检测到交互装置相对终端设备的位置及姿态发生变化;也可以是终端设备的位置固定,交互装置的位置发生改变,如用户向左移动目标标记物,使得终端设备检测到交互装置相对终端设备的位置及姿态发生变化,还可以是交互装置的位置与终端设备的位置都发生改变,如用户佩戴头戴显示装置向交互装置靠近的同时,也将交互装置至用户前方,使得终端设备检测到交互装置相对终端设备的位置及姿态发生变化。
可以理解的是,交互装置相对终端设备发生移动时,交互装置与目标对象的相对位置关系也会发生改变,从而目标对象被交互装置遮挡的遮挡区域也会发生改变,当待显示的虚拟内容对应的内容数据与遮挡区域具有对应关系时,遮挡区域的不同,也会导致显示的虚拟内容不同。
步骤S380:获取与更新的遮挡区域对应的新的内容数据。
由于虚拟内容与遮挡区域具有对应关系,因此,终端设备可以根据更新后的遮挡区域以及该对应关系,获取与更新的遮挡区域对应的新的内容数据。具体的内容数据的获取方式可以参照上述实施例中虚拟内容的获取方式,在此不再一一赘述。
步骤S390:根据新的内容数据、变化后的位置及姿态信息,生成新的虚拟内容。
在本申请实施例中,终端设备获取到上述新的内容数据后,可以根据上述新的内容数据、上述变化后的位置及姿态信息,生成新的虚拟内容。其中,终端设备根据新的内容数据、变化后的位置及姿态信息,生成新的虚拟内容,可以是根据上述新的内容数据重新构建出新的虚拟内容,根据上述变化后的位置及姿态信息,重新获取新的虚拟内容的渲染位置,从而根据渲染位置渲染出新的虚拟内容。具体的新的虚拟内容的生成方式可以参阅上述实施例的内容,在此不再赘述。
步骤S400:将新的虚拟内容进行显示。
终端设备生成新的虚拟内容后,可以将新的虚拟内容进行显示。具体地,终端设备构建并渲染出新的虚拟内容后,可以获取渲染后的新的虚拟内容的显示数据,该显示数据可以包括显示画面中各个像素点的RGB值及对应的像素点坐标等,终端设备可根据该显示数据生成显示画面,并将显示画面通过显示屏或投射模组投射到显示镜片上,从而显示出新的虚拟内容。用户通过头戴显示装置的显示镜片,可以看到新的虚拟内容叠加显示在真实世界中的交互装置上,实现增强现实的效果。例如,请参见图9A和图14,目标对象300为虚拟公园地图,交互装置200对虚拟公园地图中的人工湖的左边区域进行遮挡时,用户通过头戴显示装置,可看到完整的虚拟的人工湖区域405叠加显示于现实空间中的交互装置200上,交互装置200对虚拟公园地图的长颈鹿的中间区域进行遮挡时,用户通过头戴显示装置,可看到完整的虚拟的长颈鹿408叠加显示于现实空间中的交互装置200上。
另外,可以理解的是,若目标对象与交互装置的位置固定,则目标对象与交互装置的遮挡关系固定,当终端设备的位置发生改变时,交互装置相对终端设备的位置及姿态信息也会发生变化,因此,在一些实施例中,终端设备可以根据变化后的位置及姿态信息,改变虚拟内容的显示角度、显示大小、显示位置等显示状态,实现对显示的虚拟内容的更新。可以理解的是,交互装置相对终端设备的位置及姿态发生改变时,终端设备的摄像头视角与交互装置之间的相对位置及相对旋转角度也会发生改变,从而终端设备可以根据终端设备的摄像头视角与交互装置之间的相对位置及相对旋转角度,重新确定虚拟内容的显示角度、显示大小以及显示位置等显示状态,进而根据重新确定后的虚拟内容的显示状态,重新显示虚拟内容,从而,用户佩戴头戴显示装置以不同的视角扫描交互装置时,可以看到虚拟内容的不同显示效果。例如,终端设备在虚拟内容的上方时,显示虚拟内容的上方的内容,终端设备在虚拟内容的侧方时,显示虚拟内容侧方的内容。
在另一些实施方式中,当交互装置相对终端设备发送移动时,显示的虚拟内容可以不随着交互装置的移动发生改变。具体地,在上述根据位置及姿态信息,显示虚拟内容之后,该虚拟内容的显示方法还可以包括:
在检测到交互装置相对终端设备的位置及姿态信息发生变化时,根据变化后的位置及姿态信息,对虚拟内容的显示位置进行更新。
在一些应用场景中,需要选取目标对象中的某个部分或着将新的部分加入目标中时,会进行显示位置或者显示状态的调整,例如,虚拟家装中,选取虚拟房屋中的虚拟沙发或虚拟桌子或着将添加虚拟冰箱至虚拟房屋时,会进行移动、旋转等操作,以调整虚拟沙发或虚拟桌子在虚拟房屋中的显示位置。因此,在本申请实施例中,终端设备在检测到交互装置相对终端设备的位置及姿态信息发生变化时,可以根据变化后的位置及姿态信息,重新获取虚拟内容的显示位置,以实现对虚拟内容的显示位置的更新,其中,显示的虚拟内容不变。从而使得终端设备将虚拟内容显示于交互装置后,移动交互装置时,虚拟内容的显示位置可以随着交互装置的位置改变,但是,显示的虚拟内容不会发生变化。
例如,请参见图1和图15,医生为仔细观察虚拟心脏400,会移动交互装置200至身前,可以选取虚拟心脏400作为固定显示在交互装置上的虚拟内容,使显示于交互装置200上的虚拟心脏400不随交互装置的移动发生改变,这样,用户通过头戴显示装置,可看到虚拟的心脏400在交互装置200的移动过程中,一直叠加显示于现实空间中的交互装置200上。
本申请实施例提供的虚拟内容的显示方法,通过识别交互装置上的目标标记物,并根据该目标标记物获取交互装置相对终端设备的位置及姿态信息,然后根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域,然后根据遮挡区域获取内容数据,并根据内容数据、位置及姿态信息,生成虚拟内容,对虚拟内容进行显示。进一步的,在对虚拟内容进行显示后,当检测到交互装置相对终端设备的位置及姿态信息发生变化时,可以根据具体的应用场景,确定是否对虚拟内容更新以及对虚拟内容的显示状态更新,从而可以根据检测到的交互装置的空间位置,实时对虚拟内容进行更新,使用户可以观察到不同的虚拟内容叠加于真实世界的效果,提升虚拟内容的显示效果。
请参阅图16,其示出了本申请实施例提供的一种虚拟内容的显示装置500的结构框图,应用于终端设备,该装置可以包括:图像识别模块510、位置获取模块520、遮挡判断模块530、数据获取模块540、内容生成模块550以及显示模块560。其中,图像识别模块510用于识别交互装置上的目标标记物,并根据目标标记物获取交互装置相对终端设备的位置及姿态信息;位置获取模块520用于根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种;遮挡判断模块530用于当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域;数据获取模块540用于根据遮挡区域获取内容数据;内容生成模块550用于根据内容数据、位置及姿态信息,生成虚拟内容;显示模块560用于对虚拟内容进行显示。
在一些实施例中,数据获取模块540可以具体用于:根据遮挡区域,获取遮挡区域的遮挡内容;基于遮挡内容,获取内容数据,其中,内容数据包括遮挡内容的数据、对遮挡内容进行图像处理后的内容数据、与遮挡内容对应的第一预设内容数据及与遮挡区域对应的第二预设内容数据中的至少一种。
在一些实施例中,显示模块560可以具体用于:获取虚拟对象在遮挡区域的遮挡内容,并对遮挡内容进行显示处理后,将虚拟内容进行显示,显示处理用于在虚拟内容显示时,遮挡内容具有被虚拟内容遮挡的效果。
在另一些实施例中,显示模块560可以具体用于:对虚拟内容进行显示的同时,取消显示虚拟对象。
在一些实施例中,该虚拟内容的显示装置500还可以包括:变化轨迹确认模块以及遮挡内容显示模块。其中,变化轨迹确认模块用于在检测到交互装置与虚拟对象的相对位置关系发生变化时,确定交互装置相对虚拟对象的位置变化轨迹;遮挡内容显示模块用于将显示位置变化轨迹上虚拟对象被交互装置遮挡过的内容进行显示。
在一些实施例中,上述目标对象为实体对象,位置获取模块520可以具体用于:识别实体对象,并获取实体对象相对终端设备的位置关系;根据位置关系、位置及姿态信息,获取交互装置与实体对象的相对位置关系。
在一些实施例中,交互装置与终端设备通信连接,交互装置包括操控区,该虚拟内容的显示装置500还可以包括:指令接收模块以及显示调整模块。其中,指令接收模块用于接收交互装置根据操控区检测的控制操作发送的操控指令;显示调整模块用于根据操控指令,调整虚拟内容的显示位置和/或显示状态。
在一些实施例中,该虚拟内容的显示装置500还可以包括:区域更新模块、数据更新模块、内容更新模块以及显示更新模块。区域更新模块用于在检测到交互装置相对终端设备的位置及姿态信息发生变化时,根据变化后的位置及姿态信息,更新目标对象被交互装置遮挡的遮挡区域;数据更新模块用于获取与更新的遮挡区域对应的新的内容数据;内容更新模块用于根据新的内容数据、变化后的位置及姿态信息,生成新的虚拟内容;显示更新模块用于将新的虚拟内容进行显示。
在另一些实施例中,该虚拟内容显示装置500还可以包括:显示位置更新模块。该显示位置模块用于在检测到交互装置相对终端设备的位置及姿态信息发生变化时,根据变化后的位置及姿态信息,对虚拟内容的显示位置进行更新。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,所显示或讨论的模块相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
综上所述,本申请实施例提供的一种虚拟内容显示方法及装置,应用于终端设备,通过识别交互装置上的目标标记物,并根据该目标标记物获取交互装置相对终端设备的位置及姿态信息,然后根据位置及姿态信息,获取交互装置与目标对象的相对位置关系,其中,该目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种,当根据相对位置关系检测到交互装置与目标对象之间存在遮挡时,获取目标对象被交互装置遮挡的遮挡区域,然后根据遮挡区域获取内容数据,并根据内容数据、位置及姿态信息,生成虚拟内容,最后对虚拟内容进行显示。从而根据交互装置上的目标标记物的空间位置,确定交互装置与目标对象的遮挡关系,并根据遮挡区域,在虚拟空间中显示相应的虚拟内容,使用户可以观察到交互装置遮挡目标对象的遮挡区域对应的虚拟内容叠加于真实世界的效果,提升虚拟内容的显示效果。
请参考图17,其示出了本申请实施例提供的一种终端设备的结构框图。该终端设备100可以是智能手机、平板电脑、头戴显示装置等能够运行应用程序的终端设备。本申请中的终端设备100可以包括一个或多个如下部件:处理器110、存储器120、图像采集装置130以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器120中并被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个终端设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行终端设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器110可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端设备100在使用中所创建的数据等。
在本申请实施例中,图像采集装置130用于采集实体对象的图像以及采集目标场景的场景图像。图像采集装置130可以为红外摄像头,也可以是彩色摄像头,具体的摄像头类型在本申请实施例中并不作为限定。请参考图15,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读存储介质800中存储有程序代码,程序代码可被处理器调用执行上述方法实施例中所描述的方法。
请参考图18,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读存储介质800中存储有程序代码,程序代码可被处理器调用执行上述方法实施例中所描述的方法。
该计算机可读存储介质800可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质800包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质800具有执行上述方法中的任何方法步骤的程序代码810的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码810可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (11)
1.一种虚拟内容的显示方法,其特征在于,应用于终端设备,所述方法包括:
识别交互装置上的目标标记物,并根据所述目标标记物获取所述交互装置相对所述终端设备的位置及姿态信息;
根据所述位置及姿态信息,获取所述交互装置与目标对象的相对位置关系,其中,所述目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种;
当根据所述相对位置关系检测到所述交互装置与所述目标对象之间存在遮挡时,获取所述目标对象被所述交互装置遮挡的遮挡区域;
根据所述遮挡区域,获取所述遮挡区域的遮挡内容,并基于所述遮挡内容,获取内容数据,其中,所述内容数据包括与所述遮挡内容对应的第一预设内容数据,以及与所述遮挡区域对应的第二预设内容数据,所述第一预设内容数据包括所述遮挡内容对应的整体内容数据,所述第二预设内容数据包括所述遮挡区域的内部组成结构数据;
根据所述内容数据、所述位置及姿态信息,生成虚拟内容;
对所述虚拟内容进行显示。
2.根据权利要求1所述的方法,其特征在于,所述目标对象为虚拟对象,所述对所述虚拟内容进行显示,包括:
获取所述虚拟对象在所述遮挡区域的遮挡内容,并对所述遮挡内容进行显示处理后,将所述虚拟内容进行显示,所述显示处理用于在所述虚拟内容显示时,所述遮挡内容具有被所述虚拟内容遮挡的效果。
3.根据权利要求1所述的方法,其特征在于,所述目标对象为虚拟对象,所述对所述虚拟内容进行显示,包括:
对所述虚拟内容进行显示的同时,取消显示所述虚拟对象。
4.根据权利要求3所述的方法,其特征在于,在所述对所述虚拟内容进行显示的同时,取消显示所述虚拟对象之后,所述方法还包括:
在检测到所述交互装置与所述虚拟对象的相对位置关系发生变化时,确定所述交互装置相对所述虚拟对象的位置变化轨迹;
将所述位置变化轨迹上所述虚拟对象被所述交互装置遮挡过的内容进行显示。
5.根据权利要求1所述的方法,其特征在于,所述目标对象为实体对象,所述根据所述位置及姿态信息,获取所述交互装置与目标对象的相对位置关系,包括:
识别所述实体对象,并获取所述实体对象相对所述终端设备的位置关系;
根据所述位置关系、所述位置及姿态信息,获取所述交互装置与所述实体对象的相对位置关系。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述交互装置与所述终端设备通信连接,所述交互装置包括操控区,在所述对所述虚拟内容进行显示之后,所述方法还包括:
接收所述交互装置根据所述操控区检测的控制操作发送的操控指令;
根据所述操控指令,调整所述虚拟内容的显示位置和/或显示状态。
7.根据权利要求1-5任一项所述的方法,其特征在于,在所述对所述虚拟内容进行显示之后,所述方法还包括:
在检测到所述交互装置相对所述终端设备的位置及姿态信息发生变化时,根据变化后的位置及姿态信息,更新所述目标对象被所述交互装置遮挡的遮挡区域;
获取与更新的遮挡区域对应的新的内容数据;
根据所述新的内容数据、所述变化后的位置及姿态信息,生成新的虚拟内容;
将所述新的虚拟内容进行显示。
8.根据权利要求1-5任一项所述的方法,其特征在于,在所述对所述虚拟内容进行显示之后,所述方法还包括:
在检测到所述交互装置相对所述终端设备的位置及姿态信息发生变化时,根据变化后的位置及姿态信息,对所述虚拟内容的显示位置进行更新。
9.一种虚拟内容的显示装置,其特征在于,应用于终端设备,所述装置包括:
图像识别模块,用于识别交互装置上的目标标记物,并根据所述目标标记物获取所述交互装置相对所述终端设备的位置及姿态信息;
位置获取模块,用于根据所述位置及姿态信息,获取所述交互装置与目标对象的相对位置关系,其中,所述目标对象包括显示的虚拟空间中的虚拟对象以及现实空间中的实体对象中的至少一种;
遮挡判断模块,用于当根据所述相对位置关系检测到所述交互装置与所述目标对象之间存在遮挡时,获取所述目标对象被所述交互装置遮挡的遮挡区域;
数据获取模块,用于根据所述遮挡区域,获取所述遮挡区域的遮挡内容,并基于所述遮挡内容,获取内容数据,其中,所述内容数据包括与所述遮挡内容对应的第一预设内容数据,以及与所述遮挡区域对应的第二预设内容数据,所述第一预设内容数据包括所述遮挡内容对应的整体内容数据,所述第二预设内容数据包括所述遮挡区域的内部组成结构数据;
内容生成模块,用于根据所述内容数据、所述位置及姿态信息,生成虚拟内容;
显示模块,用于对所述虚拟内容进行显示。
10.一种终端设备,其特征在于,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行如权利要求1-8任一项所述的方法。
11.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910161354.7A CN111651031B (zh) | 2019-03-04 | 2019-03-04 | 虚拟内容的显示方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910161354.7A CN111651031B (zh) | 2019-03-04 | 2019-03-04 | 虚拟内容的显示方法、装置、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111651031A CN111651031A (zh) | 2020-09-11 |
CN111651031B true CN111651031B (zh) | 2023-08-29 |
Family
ID=72350695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910161354.7A Active CN111651031B (zh) | 2019-03-04 | 2019-03-04 | 虚拟内容的显示方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111651031B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066189B (zh) * | 2021-04-06 | 2022-06-14 | 海信视像科技股份有限公司 | 一种增强现实设备及虚实物体遮挡显示方法 |
CN114816051A (zh) * | 2022-03-31 | 2022-07-29 | 北京达佳互联信息技术有限公司 | 虚拟空间互动方法、装置、终端以及计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103309034A (zh) * | 2012-03-07 | 2013-09-18 | 精工爱普生株式会社 | 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法 |
CN105164727A (zh) * | 2013-06-11 | 2015-12-16 | 索尼电脑娱乐欧洲有限公司 | 头戴式装置和系统 |
CN108182730A (zh) * | 2018-01-12 | 2018-06-19 | 北京小米移动软件有限公司 | 虚实对象合成方法及装置 |
US10033978B1 (en) * | 2017-05-08 | 2018-07-24 | International Business Machines Corporation | Projecting obstructed content over touch screen obstructions |
CN108520552A (zh) * | 2018-03-26 | 2018-09-11 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN108830940A (zh) * | 2018-06-19 | 2018-11-16 | 广东虚拟现实科技有限公司 | 遮挡关系处理方法、装置、终端设备及存储介质 |
-
2019
- 2019-03-04 CN CN201910161354.7A patent/CN111651031B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103309034A (zh) * | 2012-03-07 | 2013-09-18 | 精工爱普生株式会社 | 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法 |
CN105164727A (zh) * | 2013-06-11 | 2015-12-16 | 索尼电脑娱乐欧洲有限公司 | 头戴式装置和系统 |
US10033978B1 (en) * | 2017-05-08 | 2018-07-24 | International Business Machines Corporation | Projecting obstructed content over touch screen obstructions |
CN108182730A (zh) * | 2018-01-12 | 2018-06-19 | 北京小米移动软件有限公司 | 虚实对象合成方法及装置 |
CN108520552A (zh) * | 2018-03-26 | 2018-09-11 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN108830940A (zh) * | 2018-06-19 | 2018-11-16 | 广东虚拟现实科技有限公司 | 遮挡关系处理方法、装置、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111651031A (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111766937B (zh) | 虚拟内容的交互方法、装置、终端设备及存储介质 | |
CN108780578B (zh) | 增强现实系统和操作增强现实系统的方法 | |
CN110456907A (zh) | 虚拟画面的控制方法、装置、终端设备及存储介质 | |
JP6195893B2 (ja) | 形状認識装置、形状認識プログラム、および形状認識方法 | |
CN111862333B (zh) | 基于增强现实的内容处理方法、装置、终端设备及存储介质 | |
US11244511B2 (en) | Augmented reality method, system and terminal device of displaying and controlling virtual content via interaction device | |
US9933853B2 (en) | Display control device, display control program, and display control method | |
US11087545B2 (en) | Augmented reality method for displaying virtual object and terminal device therefor | |
JP6250024B2 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
WO2014128747A1 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
WO2017169273A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN111563966B (zh) | 虚拟内容显示方法、装置、终端设备及存储介质 | |
CN111766936A (zh) | 虚拟内容的控制方法、装置、终端设备及存储介质 | |
CN111651031B (zh) | 虚拟内容的显示方法、装置、终端设备及存储介质 | |
JP7499819B2 (ja) | ヘッドマウントディスプレイ | |
CN111813214B (zh) | 虚拟内容的处理方法、装置、终端设备及存储介质 | |
JP6250025B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
CN111399630B (zh) | 虚拟内容交互方法、装置、终端设备及存储介质 | |
CN111818326B (zh) | 图像处理方法、装置、系统、终端设备及存储介质 | |
CN111913564B (zh) | 虚拟内容的操控方法、装置、系统、终端设备及存储介质 | |
CN110908508B (zh) | 虚拟画面的控制方法、终端设备及存储介质 | |
WO2017169272A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2020140905A1 (zh) | 虚拟内容交互系统及方法 | |
CN111913565A (zh) | 虚拟内容控制方法、装置、系统、终端设备及存储介质 | |
CN111399631B (zh) | 虚拟内容显示方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |