CN117666852A - 虚拟现实空间中的目标对象确定方法、装置、设备及介质 - Google Patents

虚拟现实空间中的目标对象确定方法、装置、设备及介质 Download PDF

Info

Publication number
CN117666852A
CN117666852A CN202211014852.7A CN202211014852A CN117666852A CN 117666852 A CN117666852 A CN 117666852A CN 202211014852 A CN202211014852 A CN 202211014852A CN 117666852 A CN117666852 A CN 117666852A
Authority
CN
China
Prior art keywords
cursor
position information
determining
target object
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211014852.7A
Other languages
English (en)
Inventor
饶小林
程文浩
方迟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202211014852.7A priority Critical patent/CN117666852A/zh
Publication of CN117666852A publication Critical patent/CN117666852A/zh
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种虚拟现实空间中的目标对象确定方法、装置、设备及介质,其中方法包括:确定光标的位置信息;根据虚拟现实空间中多个对象的吸附区域和光标的位置信息,确定目标对象。本申请能够降低目标对象的选取难度,提高目标对象的选取准确性,为提升人机交互效率和用户粘性提供了条件。

Description

虚拟现实空间中的目标对象确定方法、装置、设备及介质
技术领域
本申请实施例涉及人机交互技术领域,尤其涉及一种虚拟现实空间中的目标对象确定方法、装置、设备及介质。
背景技术
使用XR设备比如VR(Virtual Reality,虚拟现实)设备、AR(Augmented Reality,增强现实)设备或者MR(Mix reality,混合现实)设备等电子设备过程中,用户通常需要与虚拟场景中的一个或多个虚拟对象进行交互,比如控制虚拟对象向上跳起等。
目前,用户与虚拟场景中的虚拟对象进行交互时,可通过操控手柄等光标控制装置将光标移动至目标虚拟对象所在位置,然后按压指定按键与该目标虚拟对象进行交互。然而,如果虚拟对象的面积或体积较小,并且距离光标控制装置较远,则会导致目标虚拟对象选取的准确度较低,甚至还会因形成光标的射线过长出现的抖动,使得目标虚拟对象选取变得更为困难。
发明内容
本申请提供一种虚拟现实空间中的目标对象确定方法、装置、设备及介质,能够降低目标对象的选取难度,提高目标对象的选取准确性,为提升人机交互效率和用户粘性提供了条件。
第一方面,本申请实施例提供了一种虚拟现实空间中的目标对象确定方法,包括:
确定光标的位置信息;
根据虚拟现实空间中多个对象的吸附区域和所述光标的位置信息,确定目标对象。
第二方面,本申请实施例提供了一种虚拟现实空间中的目标对象确定装置,包括:
位置确定模块,用于确定光标的位置信息;
对象确定模块,用于根据虚拟现实空间中多个对象的吸附区域和所述光标的位置信息,确定目标对象。
第三方面,本申请实施例提供了一种电子设备,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行第一方面实施例所述的虚拟现实空间中的目标对象确定方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,用于存储计算机程序,所述计算机程序使得计算机执行第一方面实施例所述的虚拟现实空间中的目标对象确定方法。
第五方面,本申请实施例提供了一种包含程序指令的计算机程序产品,当所述程序指令在电子设备上运行时,使得所述电子设备执行如第一方面实施例所述的虚拟现实空间中的目标对象确定方法。
本申请实施例公开的技术方案,至少具有如下有益效果:
通过确定光标的位置信息,并根据虚拟现实空间中多个对象的吸附区域和光标的位置信息确定目标对象。由此,通过根据光标位置和虚拟现实空间中多个对象的吸附区域,从多个对象中确定出要交互的目标对象,从而能够降低目标对象的选取难度,提高目标对象的选取准确性,为提升人机交互效率和用户粘性提供了条件。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种应用场景的示意图;
图2是本申请实施例提供的一种虚拟现实空间中的目标对象确定方法的流程示意图;
图3是本申请实施例提供的一个从多个虚拟对象中选取目标虚拟对象的示意图;
图4是本申请实施例提供的另一种虚拟现实空间中的目标对象确定方法的流程示意图;
图5是本申请实施例提供的一种确定第一射线方向的示意图;
图6是本申请实施例提供的一种校准并显示校准后的光标位置信息的示意图;
图7是本申请实施例提供的再一种虚拟现实空间中的目标对象确定方法的流程示意图;
图8是本申请实施例提供的一种虚拟现实空间中的目标对象确定装置的示意性框图;
图9是本申请实施例提供的一种电子设备的示意性框图;
图10是本申请实施例提供的一种电子设备为HMD设备的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请适用于从虚拟场景中选取目标虚拟对象的场景。考虑到目前用户通过操控手柄等光标控制装置将光标移动至目标虚拟对象所在位置,并按压指定按键与该目标虚拟对象进行交互时,如果该虚拟对象的面积或体积较小,并且距离光标控制装置较远,则会导致目标虚拟对象的选取准确度降低,甚至因形成光标的射线过程出现的抖动,使得目标虚拟对象选取变得更为困难的问题。因此,针对该问题本申请设计了一种虚拟现实空间中的目标对象确定方法,以通过该方法能够降低目标对象的选取难度,提高目标对象的选取准确性。
为了便于理解本申请实施例,在描述本申请各个实施例之前,首先对本申请所有实施例中所涉及到的一些概念进行适当的解释说明,具体如下:
1)虚拟现实(Virtual Reality,简称为:VR),创建和体验虚拟世界的技术,计算生成一种虚拟环境,是一种多源信息(本文中提到的虚拟现实至少包括视觉感知,此外还可以包括听觉感知、触觉感知、运动感知,甚至还包括味觉感知、嗅觉感知等),实现虚拟环境的融合的、交互式的三维动态视景和实体行为的仿真,使用户沉浸到模拟的虚拟现实环境中,实现在诸如地图、游戏、视频、教育、医疗、模拟、协同训练、销售、协助制造、维护和修复等多种虚拟环境的应用。
2)虚拟现实设备(VR设备),实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,简称为HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据实际需要可以进一步小型化或大型化。
可选的,本申请实施例中记载的虚拟现实设备可以包括但不限于如下几个类型:
2.1)电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
2.2)移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
2.3)一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
3)增强现实(Augmented Reality,简称为:AR):一种在相机采集图像的过程中,实时地计算相机在现实世界(或称三维世界、真实世界)中的相机姿态参数,根据该相机姿态参数在相机采集的图像上添加虚拟元素的技术。虚拟元素包括但不限于:图像、视频和三维模型。AR技术的目标是在屏幕上把虚拟世界套接在现实世界上进行互动。
4)混合现实(Mixed Reality,简称为:MR):将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成的模拟布景,一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子系统可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,系统可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
5)扩展现实(Extended Reality,简称为:XR)是指由计算机技术和可穿戴设备生成的所有真实和虚拟组合环境以及人机交互,其包含了虚拟现实(VR)、增强现实(AR)以及混合现实(MR)等多种形式。
6)虚拟场景,是应用程序在电子设备上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
7)虚拟对象,是虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如游戏中的各种角色等。
为了清楚说明本申请技术方案,下面对本申请技术方案的应用场景进行说明。应理解的是,本申请技术方案可应用于如下场景,但不限于此:
示例性的,图1是本申请实施例提供的一种应用场景示意图。如图1所示,该应用场景1000中可包括:电子设备100和光标控制装置200。其中,电子设备100和光标控制装置200之间可以进行通信。
在本申请实施例中,电子设备100可选为XR设备,其中XR设备可以为VR设备、AR设备或MR设备等,本申请对其不做具体限制。
也就是说,通过XR设备可向用户提供各种虚拟画面,使得用户可以在虚拟空间中感受不同的虚拟场景。其中,虚拟场景可根据电子设备100中运行的应用程序类型来确定,当然还可以是根据真实环境而虚构的虚拟场景,本申请对此不做具体限制。
并且,XR设备向用户显示的虚拟场景中可包括至少一个虚拟对象。
在一些可选实现方式中,如图1所示,光标控制装置200可选为手柄,当然也可以是其他与电子设备100交互的装置,比如手环等其他可穿戴式设备,本申请对此不做限制。
应理解的是,图1所示的电子设备100和光标控制装置200仅为示意性的,具体可根据实际情况进行设置,本申请实施例对其不做限制。
在介绍了本申请实施例的应用场景之后,下面结合附图对本申请实施例提供的一种虚拟现实空间中的目标对象确定方法进行详细说明。
图2是本申请实施例提供的一种虚拟现实空间中的目标对象确定方法的流程示意图。本申请实施例适用于选取目标虚拟对象的场景,该虚拟现实空间中的目标对象确定方法可由虚拟现实空间中的目标对象确定装置来执行,以实现对目标虚拟对象的选取过程进行控制。该虚拟现实空间中的目标对象确定装置可由硬件和/或软件组成,并可集成于电子设备中。本申请实施例中,电子设备可选为XR设备。
如图2所示,该方法可包括如下步骤:
S101,确定光标的位置信息。
在本申请实施例中,光标通常是显示于与虚拟场景对应交互界面的上层,用于标记光标控制装置的位置。本申请中光标控制装置可选为手柄或手环等具有按键的设备等。
其中,光标的形状可以是但不限于:圆点、箭头、十字架或者手指等,此处对其不做具体限制。
在本申请实施例中,光标的位置信息,具体是指光标的显示位置。
可选的,XR设备使用过程中会向用户呈现不同的虚拟场景,且该虚拟场景中会存在至少一个虚拟对象。而用户在观看虚拟场景过程中,可能需要利用光标控制装置与虚拟对象进行交互。其中,利用光标控制装置与虚拟对象进行交互时,用户可通过移动光标控制装置,改变与光标控制装置对应的光标显示位置,以使光标的显示位置移动至任一虚拟对象所在位置,即光标位置与虚拟对象位置重叠。
作为一种可选的实现方式,本申请确定光标的显示位置,具体为:确定光学控制装置的位置信息、光学控制装置发出射线的射线方向、虚拟现实空间中每个对象的位置信息,以及每个对象的体积信息;根据光学控制装置的位置信息、光学控制装置发出射线的射线方向、虚拟现实空间中每个对象的位置信息,以及每个对象的体积信息,确定光标的位置信息。
其中,确定光学控制装置的位置信息可包括如下几种方式:
方式一
考虑到光学控制装置上会设置发光元件比如LED灯等。因此,本申请确定光学控制装置的位置信息时,可通过XR设备上的相机采集光学控制装置上发光元件对外发射的光学信号;之后,XR设备根据相机采集到的光学信号确定光学控制装置与电子设备自身之间的相对位置关系;最后,根据XR设备自身坐标系与世界坐标系之间的位置转换关系,以及光学控制装置与XR设备自身之间的相对位置关系,确定出光学控制装置在世界坐标系中的位置信息。
其中,XR设备自身与世界坐标系之间的位置关系,可以是预先设定的好的,此处对其不做具体限制。也就是说,本申请通过确定光学控制装置与XR设备之间的相对位置关系后,即可根据XR设备坐标系与世界坐标系之间的位置转换关系,确定出光学控制装置在世界坐标系中的位置信息。
方式二
考虑到光标控制装置上会设置一些采集运动数据的传感器等器件,并且光标控制装置还会把这些传感器采集的运动数据发送给XR设备。因此,本申请可根据光标控制装置发送的运动数据,确定光标控制装置的位置。
其中,运动数据可以是惯性测量单元数据,相应的传感器为惯性测量单元等,本申请对此不做具体限制。
方式三
考虑到本申请XR设备上还会设置追踪摄像头,并且追踪摄像头会采集到包括有光标控制装置的追踪图像。因此,本申请还可根据追踪摄像头采集的包括有光标控制装置的追踪图像,确定光标控制装置的位置信息。
其中,基于追踪图像确定光标控制装置的位置信息为本领域常规技术,此处对其不做过多赘述。
需要说明的是,上述几种确定光标控制装置位置的实现方式,仅作为对本申请的示例性说明,不作为对本申请的具体限制。
考虑到光学控制装置包括惯性测量单元(Inertial measurement unit,简称为IMU)。并且,该IMU包括三个单轴的加速度计和三个单轴的陀螺仪,其中陀螺仪可以检测光学控制装置的旋转角度。因此,本申请确定光学控制装置发出射线的射线方向时,可通过电子设备获取光学控制器中IMU采集的IMU数据,然后根据IMU数据中的陀螺仪数据,确定光学控制装置发出射线的射线方向。
另外,实际应用过程中,虚拟现实空间中的所有虚拟对象位于一个三维坐标系中,并且该三维坐标系与现实空间对应的世界坐标系之间存在一个相对关系。这个相对关系可以预先确定。因此,本申请获取虚拟现实空间中每个虚拟对象的位置信息,实际上是确定虚拟现实空间中每个虚拟对象在世界坐标系中的位置信息。具体获取过程为本领域的常规技术,此处对其不做具体限制。
考虑到位于虚拟现实空间中的每个虚拟对象均具有体积信息,并且这些对象的体积信息会被预先配置到配置信息中。因此,本申请确定每个虚拟对象的体积信息时,可通过从配置信息中获取每个虚拟对象的体积信息即可。
进而,在确定出光标控制装置的位置信息、光标控制装置发出射线的射线方式、虚拟现实空间中每个对象的位置信息以及每个对象的体积信息之后,本申请即可按照预设确定方式,基于上述四个参数共同确定出光标的位置信息。其中,预设确定方式可以是任意能够确定光标位置的算法或规则等,此处对其不做具体限制。
在本申请实施例中,虚拟对象或对象,均是指位于虚拟场景中的可操作对象。可操作对象可以是但不限于:虚拟人物、虚拟物品、各类操作控件或者其他类型对象,比如图标等,本申请对此不做具体限制。
S102,根据虚拟现实空间中多个对象的吸附区域和光标的位置信息,确定目标对象。
其中,吸附区域是以虚拟对象为中心的一个空间范围或平面区域。示例性的,若虚拟对象为具有一定体积的三维虚拟对象,比如虚拟对象为一个球体,则该吸附区域为三维空间范围,且该三维空间范围位于该球体外部,并将该球体包含在内的一个正方体空间范围。若虚拟对象为虚拟现实空间中的一个虚拟平面,则该吸附区域为二维平面区域,且该二维平面区域是将该虚拟平面包含在内的一个长方形平面区域等。
也就是说,本实施例中吸附区域是位于虚拟对象外围,以将虚拟对象包含在内的一个三维空间范围或二维平面区域。
在本申请实施例中,吸附区域的大小及形状,可根据实际需要进行适应性设置。比如,吸附区域可以是任意规则形状,或者也可以是任意不规则形状等,本申请对此不做具体限制。
值得注意的是,本申请中各虚拟对象的吸附区域之间是互不重叠。本申请通过将虚拟对象的吸附区域设置为不重叠,能够更为准确的确定出用户需要与虚拟场景中的哪一虚拟对象进行交互操作,从而避免因吸附区域重叠导致无法准确确定出用户需要与哪一虚拟对象进行交互的问题。
本申请实施例中,目标对象(目标虚拟对象)是指虚拟场景中的任一可操作对象。
目前通过移动手柄等光标控制装置来改变对应光标的显示位置,使得光标的显示位置能够位于目标虚拟对象所在位置,进而通过按压指定按键与该目标虚拟对象进行交互。但是当虚拟对象的面积或体积较小,并且距离光标控制装置较远时,就可能使得目标虚拟对象选取的准确度较低,甚至造成选取困难等问题。
基于此,本申请通过为虚拟场景中的每个虚拟对象设置一吸附区域,以通过该吸附区域来降低目标虚拟对象的选取难度,从而提高目标虚拟对象的选取准确度。
具体实现时,可将实时获取到的光标位置(光标的位置信息)与虚拟现实空间中每个虚拟对象的吸附区域进行比对,确定该光标位置是否位于任一虚拟对象的吸附区域内。如果确定出该光标位置位于虚拟现实空间中的任一虚拟对象的吸附区域内,则说明用户想要与该虚拟对象进行交互。此时,可选取该虚拟对象为目标对象。如果确定出该光标位置不位于任何一个虚拟对象的吸附区域,则说明用户此时可能不需要与虚拟对象进行交互。那么,本申请可继续执行确定光标的位置信息,并根据光标的位置信息和每个虚拟对象的吸附区域,从虚拟现实空间中的多个虚拟对象中确定目标对象的操作流程。
也即是说,只要确定出某一时刻光标的显示位置位于虚拟对象的吸附区域内,不管光标向哪个方向移动,都认为用户是瞄准该吸附区域对应的虚拟目标。
举例说明,如图3所示,若虚拟场景中包括:虚拟对象1、虚拟对象2和虚拟对象3,且某一时刻获取到的光标位置为(X,Y),那么当光标位置(X,Y)位于虚拟对象2的吸附区域内时,确定用户此时想要与该虚拟对象2交互。那么,选取虚拟对象2作为目标虚拟对象。
可以理解的是,本申请通过为虚拟现实空间中的每个虚拟对象设置一吸附区域,使得用户通过利用手柄等光标控制装置将光标移动到任一虚拟对象的吸附区域,即可锚定该虚拟对象,进而与该虚拟对象进行交互,从而可提高目标虚拟对象的选取准确度和速度。
本申请提供的虚拟现实空间中的目标对象确定方法,通过确定光标的位置信息,并根据虚拟现实空间中多个对象的吸附区域和光标的位置信息确定目标对象。由此,通过根据光标位置和虚拟现实空间中多个对象的吸附区域,从多个对象中确定出要交互的目标对象,从而降低目标对象的选取难度,提高目标对象的选取准确性,为提升人机交互效率和用户粘性提供了条件。
通过上述描述可知,本申请通过基于虚拟现实空间中虚拟对象的吸附区域和光标的位置信息,快速且准确的选取想要进行交互的目标对象。
作为本申请的一种可选实现方式,本申请选取出目标对象之后可选的可对光标的显示位置进行校准,以使校准后的光标位置信息位于目标对象所在的位置上,使得用户基于校准后的光标位置信息知晓已经锚定了目标对象,从而为与该目标对象进行交互提供条件。下面结合图4,对本申请实施例提供的上述对光标的位置信息进行校准过程进行具体说明。
如图4所示,该方法包括以下步骤:
S201,确定光标的位置信息。
S202,根据虚拟现实空间中多个对象的吸附区域和光标的位置信息,确定目标对象。
S203,对光标的位置信息进行校准,得到校准后的光标位置信息。
其中,校准后的光标位置信息为目标虚拟对象的中心位置。
可选的,一旦确定光标的显示位置位于虚拟现实空间中任一虚拟对象的吸附区域内,即确定用户当前瞄准的是该吸附区域对应的虚拟对象。
相应的,本申请会自动触发主动吸附逻辑,以将光标自动吸附到该目标虚拟对象的中心位置并固定到该中心位置上,从而达到校准光标的位置信息的目的。
S204,根据校准后的光标位置信息、光学控制装置的位置信息,以及光标的位置信息,确定第一射线方向。
其中,第一射线方向,是指用于向用户显示的射线方向,使得用户基于该射线方向可知晓光标控制装置当前瞄准的对象。
本申请实施例中,第一射线方向可选为贝塞尔曲线。
可选的,本申请确定第一射线方向时,可包括如下步骤:
S11,根据光标控制装置的位置信息和光标的位置信息,确定第二射线方向。
其中,第二射线方向,是指光标控制装置对外发射射线的真实射线方向。该真实射线方向对于用户而言是不可见的。
作为一种可选的实现方式,确定第二射线方式时,可以光标控制装置的位置信息为第一端点,光标的位置信息为第二端点,并从第一端点向第二端点所在方向无线延长,以确定第二射线方向。
S12,根据校准后的光标位置信息和光标控制装置的位置信息,确定第三射线方向。
其中,第三射线方向,是指光标控制装置对外发射射线的预测射线方向。该预测射线方式表征着用户真实的瞄准想法,即利用光标控制装置瞄准目标虚拟对象时的射线方向。并且,该预测射线方向对于用户而言也是不可见的。
作为一种可选的实现方式,确定第三射线方式时,可以光标控制装置的位置信息为第一端点,校准后的光标位置信息为第二端点,并从第一端点向第二端点所在方向无线延长,以确定第三射线方向。
S13,根据第二射线方向和第三射线方向,确定第一射线方向。
在本申请实施例中,确定第一射线方向可包括如下情况:
第一种情况
首先基于确定第二射线方向的光标控制装置的位置信息和光标的位置信息,确定第一线段;并且,基于确定第三射线方向的光标控制装置的位置信息和校准后的光标位置信息,确定第二线段;其次,从第一线段上确定多个第一参考点,并相应从第二线段上确定与每个第一参考点对应的第二参考点;再次,基于每个第一参考点和对应的第二参考点,确定多个第三线段;最终,从每个第三线段上确定一个第三参考点,并将所有第三参考点连接起来,即可得到第一射线方向。
举例说明,如图5所示,假设第一线段为AB,第二线段为BC,其中A为光标的位置信息,B为光标控制装置的位置信息以及C为校准后的光标位置信息。那么,从AB线段上可随机获取多个参考点D,以及从BC上相应的可获取与每个参考点D对应的多个参考点E,使得成立。之后,连接每组参考点D和参考点E,以得到多个第三线段DE,并在每个DE线段上随机获取一个参考点F,使得/>成立。最后,连接所有参考点F,即可得到第一射线方向。
第二种情况
当第一射线方向为贝塞尔曲线时,可利用贝塞尔曲线计算公式,根据光标控制装置的位置信息、光标的位置信息和校准后的光标位置信息,计算贝塞尔曲线。
可选的,贝塞尔曲线计算公式,可如下公式所示:
B(t)=(1-t)2P0+2t(1-t)P1+t2P2
其中,t∈[0,1],B(t)为贝塞尔曲线,P0为光标的位置信息,P1为光标控制装置的位置信息,P2为校准后的光标位置信息。
S205,显示校准后的光标位置信息和第一射线方向。
可选的,确定出校准后的光标位置信息和第一射线方向之后,本申请还可在虚拟现实空间中的虚拟场景上显示校准后的光标位置信息和第一射线方向,以使用户基于显示的光标位置和第一射线方向,确定是否需要继续执行与目标虚拟对象进行交互的交互操作,例如图6所示。
需要说明的是,因为向用户显示出的校准后的光标位置信息对于光标控制装置而言,并非是光标的真实位置。此时,用户可以直接基于校准后的光标位置信息控制光标控制装置与目标虚拟对象进行交互。但是,用户不能通过光标控制装置来移动光标的显示位置(校准后的光标位置)。如果用户想通过移动光标控制装置来移动校准后的光标位置,则首先需要用户移动光标控制装置,以使光标控制装置对外发射射线的真实射线方向与第一射线方向完全重合,即使得与光标控制装置对应光标的真实位置与校准后的光标位置信息一致(光标的真实位置与校准后的光标位置完全重合),这样才能通过移动光标控制装置来移动光标,进而改变光标的显示位置。
本申请提供的虚拟现实空间中的目标对象确定方法,通过确定光标的位置信息,并根据虚拟现实空间中多个对象的吸附区域和光标的位置信息确定目标对象。由此,通过根据光标位置和虚拟现实空间中多个对象的吸附区域,从多个对象中确定出要交互的目标对象,从而降低目标对象的选取难度,提高目标对象的选取准确性,为提升人机交互效率和用户粘性提供了条件。此外,通过对光标的位置信息进行校准,并显示校准后的光标位置信息和用户可见的射线方向,使得用户基于显示的校准后的光标位置信息和射线方向,可以知晓当前已经成功选取了目标对象,进而可与该目标对象进行交互操作,从而可简化用户选择目标对象的操作步骤,进一步提升用户的人机交互体验。
作为本申请的另一种可选实现方式,在选取出目标对象后,用户即可与该目标对象进行交互。下面结合图7,对本申请实施例提供的与目标对象进行交互的交互过程进行具体说明。
如图7所示,该方法包括以下步骤:
S301,确定光标的位置信息。
S302,根据虚拟现实空间中多个对象的吸附区域和光标的位置信息,确定目标对象。
S303,根据光标控制装置发送的选中指令,调整目标对象的显示状态。
确定出目标对象之后,如果用户需要与该目标对象进行交互,可选的用户可通过按压光标控制装置上的预设按键,以向XR设备发送选中指令。其中,预设按键可以是光标控制装置上的OK键或者确认键等。当接收到光标控制装置发送的选中指令时,本申请可调整该目标对象的显示状态,以区分虚拟对象被选中和未被选中的状态。
作为一种可选的实现方式,调整目标对象的显示状态时,可对目标对象进行突出显示,其中突出显示可包括但不限于:高亮显示,添加标识信息以及背景半透明等等,本申请对此不做具体限制。
S304,根据光标控制装置发送的结束选中指令,控制目标对象执行关联的操作。
其中,关联的操作可以是任意实现交互的操作。比如,控制目标对象跳跃,以躲避障碍物;又比如,放大目标对象;再比如,删除目标对象等等,本申请对此不做具体限制。
在本申请实施例中,结束选中指令是用户释放光标控制装置上的预设按键时触发的。也就是说,用户按压光标控制装置上的预设按键时触发选中指令,而释放该预设按键即发送结束选中指令。
可选的,当光标控制装置发送的结束选中指令,本申请即可控制目标虚拟对象执行关联的操作,以达到人机交互需求。
示例性的,假设目标对象为虚拟人物,那么当XR设备检测到用户通过按压光标控制装置上的OK键发送的选中指令时,将虚拟人物进行高亮显示。当XR设备检测到用户释放光标控制装置上的OK键发送的结束选中指令时,控制该虚拟人物执行关联的向上跳跃操作。
本申请提供的虚拟现实空间中的目标对象确定方法,通过确定光标的位置信息,并根据虚拟现实空间中多个对象的吸附区域和光标的位置信息确定目标对象。由此,通过根据光标位置和虚拟现实空间中多个对象的吸附区域,从多个对象中确定出要交互的目标对象,从而降低目标对象的选取难度,提高目标对象的选取准确性,为提升人机交互效率和用户粘性提供了条件。此外,通过利用光标控制装置向电子设备发送目标对象选中指令,以调整目标对象的显示状态,使得用户能够更为直观且清晰的感知自己选中的目标对象,进一步提升用户使用体验。
下面参照附图8,对本申请实施例提出的一种虚拟现实空间中的目标对象确定装置进行描述。图8是本申请实施例提供的一种虚拟现实空间中的目标对象确定装置的示意性框图。
其中,该虚拟现实空间中的目标对象确定装置400包括:位置确定模块410和对象确定模块420。
其中,位置确定模块410,用于确定光标的位置信息;
对象确定模块420,用于根据虚拟现实空间中多个对象的吸附区域和所述光标的位置信息,确定目标对象。
本申请实施例的一种可选实现方式,位置确定模块410,具体用于:
确定光标控制装置的位置信息、所述光标控制装置发出射线的射线方向、所述虚拟现实空间中每个对象的位置信息,以及每个所述对象的体积信息;
根据所述光标控制装置的位置信息、所述光标控制装置发出射线的射线方向、所述虚拟现实空间中每个对象的位置信息,以及每个所述对象的体积信息,确定所述光标的位置信息。
本申请实施例的一种可选实现方式,对象确定模块420,具体用于:
确定所述光标的位置信息是否位于所述对象的吸附区域内;
若所述光标的位置信息位于所述对象的吸附区域内,则确定所述对象为目标对象。
本申请实施例的一种可选实现方式,虚拟现实空间中的目标对象确定装置400,还包括:位置校准模块;
其中,位置校准模块,用于对所述光标的位置信息进行校准,得到校准后的光标位置信息;其中,所述校准后的光标位置信息为所述目标对象的中心位置。
本申请实施例的一种可选实现方式,虚拟现实空间中的目标对象确定装置400,还包括:方向确定模块和显示模块;
其中,方向确定模块,用于根据所述校准后的光标位置信息、光学控制装置的位置信息,以及所述光标的位置信息,确定第一射线方向;
显示模块,用于显示所述校准后的光标位置信息和所述第一射线方向。
本申请实施例的一种可选实现方式,方向确定模块,包括:第一确定单元、第二确定单元以及第三确定单元;
其中,第一确定单元,用于根据所述光标控制装置的位置信息和所述光标的位置信息,确定第二射线方向;
第二确定单元,用于根据所述校准后的光标位置信息和所述光标控制装置的位置信息,确定第三射线方向;
第三确定单元,用于根据所述第二射线方向和所述第三射线方向,确定所述第一射线方向。
本申请实施例的一种可选实现方式,虚拟现实空间中的目标对象确定装置400,还包括:调整模块和控制模块;
其中,调整模块,用于根据光标控制装置发送的选中指令,调整所述目标对象的显示状态。
控制模块,用于根据光标控制装置发送的结束选中指令,控制所述目标对象执行关联的操作。
本申请提供的虚拟现实空间中的目标对象确定装置,通过确定光标的位置信息,并根据虚拟现实空间中多个对象的吸附区域和光标的位置信息确定目标对象。由此,通过根据光标位置和虚拟现实空间中多个对象的吸附区域,从多个对象中确定出要交互的目标对象,从而降低目标对象的选取难度,提高目标对象的选取准确性,为提升人机交互效率和用户粘性提供了条件。
应理解的是,装置实施例与方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。具体地,图8所示的装置400可以执行图2对应的方法实施例,并且装置400中的各个模块的前述和其它操作和/或功能分别为了实现图2中的各个方法中的相应流程,为了简洁,在此不再赘述。
上文中结合附图从功能模块的角度描述了本申请实施例的装置400。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本申请实施例中的方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本申请实施例公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法实施例中的步骤。
图9是本申请实施例提供的一种电子设备的示意性框图。
如图9所示,该电子设备500可包括:
存储器510和处理器520,该存储器510用于存储计算机程序,并将该程序代码传输给该处理器520。换言之,该处理器520可以从存储器510中调用并运行计算机程序,以实现本申请实施例中的虚拟现实空间中的目标对象确定方法。
例如,该处理器520可用于根据该计算机程序中的指令执行上述方法实施例。
在本申请的一些实施例中,该处理器520可以包括但不限于:
通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等等。
在本申请的一些实施例中,该存储器510包括但不限于:
易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
在本申请的一些实施例中,该计算机程序可以被分割成一个或多个模块,该一个或者多个模块被存储在该存储器510中,并由该处理器520执行,以完成本申请提供的方法。该一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述该计算机程序在该电子设备中的执行过程。
如图9所示,该电子设备还可包括:
收发器530,该收发器530可连接至该处理器520或存储器510。
其中,处理器520可以控制该收发器530与其他设备进行通信,具体地,可以向其他设备发送信息或数据,或接收其他设备发送的信息或数据。收发器530可以包括发射机和接收机。收发器530还可以进一步包括天线,天线的数量可以为一个或多个。
应当理解,该电子设备中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
在本申请实施例中,可选的当电子设备为HMD时,本申请实施例可提供了一种HMD的示意性框图,如图10所示。
如图10所示,该HMD600的主要功能模块可以包括但不限于以下:检测模块610、反馈模块620、传感器630、控制模块640、建模模块650。
其中,检测模块610被配置为使用各种传感器检测用户的操作命令或者手柄发送的指令,并作用于虚拟环境,如跟随用户的视线而不断更新在显示屏上显示的影像,实现用户与虚拟场景的交互。
反馈模块620被配置为接收来自传感器的数据,为用户提供实时反馈。例如,反馈模块620可以根据用户操作数据生成反馈指令,并输出该反馈指令。
传感器630一方面被配置为接受来自用户的操作命令,并将其作用于虚拟环境;另一方面被配置为将操作后产生的结果以各种反馈的形式提供给用户。
控制模块640被配置为对传感器和各种输入/输出装置进行控制,包括获得用户的数据如动作、语音等和输出感知数据,如图像、振动、温度和声音等,对用户、虚拟环境和现实世界产生作用。例如,控制模块640可以获取用户手势、语音等。
建模模块650被配置为构造虚拟环境的三维模型,还可以包括三维模型中的声音、触感等各种反馈机制。
应当理解,该HMD600中的各个功能模块通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线等。
本申请还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得该计算机能够执行上述方法实施例的方法。
本申请实施例还提供一种包含程序指令的计算机程序产品,当所述程序指令在电子设备上运行时,使得所述电子设备执行上述方法实施例的方法。
当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例该的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如数字视频光盘(digital video disc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。例如,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以该权利要求的保护范围为准。

Claims (11)

1.一种虚拟现实空间中的目标对象确定方法,其特征在于,包括:
确定光标的位置信息;
根据虚拟现实空间中多个对象的吸附区域和所述光标的位置信息,确定目标对象。
2.根据权利要求1所述的方法,其特征在于,确定光标的位置信息,包括:
确定光标控制装置的位置信息、所述光标控制装置发出射线的射线方向、所述虚拟现实空间中每个对象的位置信息,以及每个所述对象的体积信息;
根据所述光标控制装置的位置信息、所述光标控制装置发出射线的射线方向、所述虚拟现实空间中每个对象的位置信息,以及每个所述对象的体积信息,确定所述光标的位置信息。
3.根据权利要求1所述的方法,其特征在于,根据虚拟现实空间中多个对象的吸附区域和所述光标的位置信息,确定目标对象,包括:
确定所述光标的位置信息是否位于所述对象的吸附区域内;
若所述光标的位置信息位于所述对象的吸附区域内,则确定所述对象为目标对象。
4.根据权利要求1-3任一项所述的方法,其特征在于,还包括:
对所述光标的位置信息进行校准,得到校准后的光标位置信息;
其中,所述校准后的光标位置信息为所述目标对象的中心位置。
5.根据权利要求4所述的方法,其特征在于,得到校准后的光标位置信息之后,还包括:
根据所述校准后的光标位置信息、光学控制装置的位置信息,以及所述光标的位置信息,确定第一射线方向;
显示所述校准后的光标位置信息和所述第一射线方向。
6.根据权利要求5所述的方法,其特征在于,根据所述校准后的光标位置信息、光学控制装置的位置信息,以及所述光标的位置信息,确定第一射线方向,包括:
根据所述光标控制装置的位置信息和所述光标的位置信息,确定第二射线方向;
根据所述校准后的光标位置信息和所述光标控制装置的位置信息,确定第三射线方向;
根据所述第二射线方向和所述第三射线方向,确定所述第一射线方向。
7.根据权利要求1-3任一项所述的方法,其特征在于,还包括:
根据光标控制装置发送的选中指令,调整所述目标对象的显示状态。
根据光标控制装置发送的结束选中指令,控制所述目标对象执行关联的操作。
8.一种虚拟现实空间中的目标对象确定装置,其特征在于,包括:
位置确定模块,用于确定光标的位置信息;
对象确定模块,用于根据虚拟现实空间中多个对象的吸附区域和所述光标的位置信息,确定目标对象。
9.一种电子设备,其特征在于,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行权利要求1至7中任一项所述的虚拟现实空间中的目标对象确定方法。
10.一种计算机可读存储介质,其特征在于,用于存储计算机程序,所述计算机程序使得计算机执行如权利要求1至7中任一项所述的虚拟现实空间中的目标对象确定方法。
11.一种包含程序指令的计算机程序产品,其特征在于,当所述程序指令在电子设备上运行时,使得所述电子设备执行如权利要求1至7中任一项所述的虚拟现实空间中的目标对象确定方法。
CN202211014852.7A 2022-08-23 2022-08-23 虚拟现实空间中的目标对象确定方法、装置、设备及介质 Pending CN117666852A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211014852.7A CN117666852A (zh) 2022-08-23 2022-08-23 虚拟现实空间中的目标对象确定方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211014852.7A CN117666852A (zh) 2022-08-23 2022-08-23 虚拟现实空间中的目标对象确定方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN117666852A true CN117666852A (zh) 2024-03-08

Family

ID=90073660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211014852.7A Pending CN117666852A (zh) 2022-08-23 2022-08-23 虚拟现实空间中的目标对象确定方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN117666852A (zh)

Similar Documents

Publication Publication Date Title
US10200819B2 (en) Virtual reality and augmented reality functionality for mobile devices
US11887258B2 (en) Dynamic integration of a virtual environment with a physical environment
CN109471522B (zh) 用于在虚拟现实中控制指示器的方法和电子设备
EP3128413A1 (en) Sharing mediated reality content
US11244659B2 (en) Rendering mediated reality content
EP3264228A1 (en) Mediated reality
CN106802716B (zh) 一种虚拟现实终端的数据处理方法和虚拟现实终端
US9286939B2 (en) Information-processing system, information-processing device, storage medium, and method
CN117666852A (zh) 虚拟现实空间中的目标对象确定方法、装置、设备及介质
CN117742555A (zh) 控件交互方法、装置、设备和介质
US20240078734A1 (en) Information interaction method and apparatus, electronic device and storage medium
CN117572994A (zh) 虚拟对象的显示处理方法、装置、设备及介质
CN117742554A (zh) 人机交互方法、装置、设备和介质
WO2020244576A1 (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备
CN117369677A (zh) 光标位置的确定方法、装置、设备及介质
CN117351090A (zh) 发光单元与摄像头的标定方法、装置、设备和系统
CN117742478A (zh) 信息显示方法、装置、设备和介质
CN117631810A (zh) 基于虚拟现实空间的操作处理方法、装置、设备及介质
CN118038772A (zh) 基于扩展现实的显示控制方法、装置、终端和存储介质
CN117197223A (zh) 空间标定方法、装置、设备、介质和程序
CN117899456A (zh) 二维组件的显示处理方法、装置、设备及介质
CN118012265A (zh) 人机交互方法、装置、设备和介质
CN117740025A (zh) 定位装置的定位精度确定方法、装置、设备及介质
CN117971040A (zh) 眼动追踪方法、装置、设备、介质和程序
KR20230124363A (ko) 전자 장치 및 전자 장치의 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination