CN114442888A - 对象确定方法、装置及电子设备 - Google Patents
对象确定方法、装置及电子设备 Download PDFInfo
- Publication number
- CN114442888A CN114442888A CN202210118194.XA CN202210118194A CN114442888A CN 114442888 A CN114442888 A CN 114442888A CN 202210118194 A CN202210118194 A CN 202210118194A CN 114442888 A CN114442888 A CN 114442888A
- Authority
- CN
- China
- Prior art keywords
- virtual
- virtual object
- determining
- virtual scene
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000000694 effects Effects 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种对象确定方法、装置及电子设备,该方法包括:输出虚拟场景的虚拟场景图像,虚拟场景图像包括:虚拟场景中至少一个虚拟对象的立体虚拟图像;基于对虚拟场景图像中虚拟对象的选择操作,确定选择操作在显示区域中的操作点坐标,显示区域用于显示虚拟场景图像;确定虚拟场景中参照坐标位置;确定选择操作的操作点坐标映射到虚拟场景中的空间坐标;结合参照坐标位置和空间坐标,从虚拟场景中,确定可供用户选择的至少一个候选虚拟对象。本申请的方案使得用户可以更为合理选择所需的虚拟对象,提高了虚拟对象选择的准确性和可靠性。
Description
技术领域
本申请涉及图像处理技术领域,更具体地说,涉及一种对象确定方法、装置及电子设备。
背景技术
随着科技的发展,虚拟现实等虚拟场景技术的应用日益广泛。如,在游戏或者产品展现平台中都可能会涉及到三维虚拟场景的展现。
在不同的三维虚拟场景中,经常会涉及到用户对某个虚拟对象的选择。然而,在电子设备输出的三维虚拟场景中经常会存在一些对象的重叠,在该种情况下,电子设备会默认用户选择的是多个重叠对象中最靠前的对象,很容易出现电子设备确定出的对象不是用户希望选择的对象,从而存在无法准确选择虚拟对象的问题。
发明内容
本申请提供了一种对象确定方法、装置及电子设备。
其中,一种对象确定方法,包括:
输出虚拟场景的虚拟场景图像,所述虚拟场景图像包括:所述虚拟场景中至少一个虚拟对象的立体虚拟图像;
基于对虚拟场景图像中虚拟对象的选择操作,确定所述选择操作在显示区域中的操作点坐标,所述显示区域用于显示所述虚拟场景图像;
确定所述虚拟场景中参照坐标位置;
确定所述选择操作的操作点坐标映射到所述虚拟场景中的空间坐标;
结合所述参照坐标位置和所述空间坐标,从所述虚拟场景中,确定可供用户选择的至少一个候选虚拟对象。
在一种可能的实现方式中,所述结合所述参照坐标位置和所述空间坐标,从所述虚拟场景中,确定可供用户选择的至少一个候选虚拟对象,包括:
以所述参照坐标位置为视点位置,从所述虚拟场景中,确定处于目标视线方向区上的至少一个待定虚拟对象,所述目标视线方向区为:包括由所述视点位置到所述空间坐标的视线方向的方向区;
基于所述至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
在又一种可能的实现方式中,在所述确定可供用户选择的至少一个候选虚拟对象之前,还包括:
确定所述待定虚拟对象与所述参照坐标位置的距离;
所述基于所述至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象,包括:
确定所述至少一个待定虚拟对象中所述距离小于设定距离阈值的至少一个候选虚拟对象。
在又一种可能的实现方式中,所述以所述参照坐标位置为视点位置,从所述虚拟场景中,确定处于目标视线方向区上的至少一个待定虚拟对象,包括:
以所述参照坐标位置为起点,从所述虚拟场景中,确定从所述起点经所述空间坐标的射线所经过的至少一个待定虚拟对象;
所述确定所述待定虚拟对象与所述参照坐标位置的距离,包括:
确定所述射线与所述待定虚拟对象的至少一个交点以及每个交点与所述起点之间的距离。
在又一种可能的实现方式中,所述基于所述至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象,包括:
基于所述待定虚拟对象的属性特征,从所述虚拟场景中确定与所述待定虚拟对象关联的关联虚拟对象;
结合至少一个待定虚拟对象及所述待定虚拟对象关联的关联虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
在又一种可能的实现方式中,所述确定所述虚拟场景中参照坐标位置,包括:
确定所述虚拟场景中虚拟相机当前的相机坐标位置。
在又一种可能的实现方式中,还包括:
显示所述至少一个候选虚拟对象的信息;
基于用户对所述至少一个候选虚拟对象的信息的选择操作,确定用户选择的虚拟对象。
在又一种可能的实现方式中,还包括:
将所述候选虚拟对象的显示效果由第一显示效果调整为第二显示效果,所述第二显示效果不同于所述第一显示效果;
结合用户对具有第二显示效果的候选虚拟对象的选择操作,确定用户选择的虚拟对象。
其中,一种对象确定装置,包括:
图像输出单元,用于输出虚拟场景的虚拟场景图像,所述虚拟场景图像包括:所述虚拟场景中至少一个虚拟对象的立体虚拟图像;
操作点确定单元,用于基于对虚拟场景图像中虚拟对象的选择操作,确定所述选择操作在显示区域中的操作点坐标,所述显示区域用于显示所述虚拟场景图像;
参照确定单元,用于确定所述虚拟场景中参照坐标位置;
坐标转换单元,用于确定所述选择操作的操作点坐标映射到所述虚拟场景中的空间坐标;
候选确定单元,用于结合所述参照坐标位置和所述空间坐标,从所述虚拟场景中,确定可供用户选择的至少一个候选虚拟对象。
其中,一种电子设备,至少包括存储器和处理器;
其中,所述处理器,用于执行如上任意一项所述的对象确定方法;
所述存储器,用于存储处理器执行操作所需的程序。
通过以上方案可知,本申请在输出虚拟场景图像之后,会基于对虚拟场景图像中虚拟对象的选择操作,确定选择操作在显示区域中的操作点操作,并确定该操作点坐标映射到虚拟场景中的空间坐标,在此基础上,结合虚拟场景中参照坐标位置和该选择操作对应的空间坐标,可以从虚拟场景中,确定该选择操作所可能选择的至少一个候选虚拟对象,以供用户选择,从而不仅仅结合选择操作将虚拟场景图像中位于最靠前的对象确定为选择对象,进而使得用户可以更为合理选择所需的虚拟对象,提高了虚拟对象选择的准确性和可靠性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的对象确定方法的一种流程示意图;
图2为本申请实施例提供的对象确定方法的又一种流程示意图;
图3为本申请实施例中显示屏中显示出的虚拟场景图像的一种示意图;
图4为本申请实施例中确定处于视线方向上的待定虚拟对象的原理示意图;
图5为本申请实施例提供的对象确定方法的又一种流程示意图;
图6为本申请实施例提供的对象确定装置的一种组成结构示意图;
图7为本申请实施例提供的一种电子设备的一种组成架构示意图。
说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的部分,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示的以外的顺序实施。
具体实施方式
本申请的方案适用各种虚拟场景,如,虚拟现实(Virtual Reality,VR)和增强现实(Augmented Reality,AR)等虚拟场景。通过本申请的方案可以提高用户从虚拟场景中选择虚拟对象的准确性和可靠性。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示,其示出了本申请一种对象确定方法一个实施例的流程示意图,本实施例的方法可以包括应用于电子设备,该电子设备可以为手机、笔记本电脑或者台式电脑等,也可以为服务器。本实施例的方法包括:
S101,输出虚拟场景的虚拟场景图像。
该虚拟场景图像包括:虚拟场景中至少一个虚拟对象的立体虚拟图像。
其中,该虚拟场景可以有多种可能,为可以为三维虚拟场景,例如VR或者AR等虚拟场景;还可以其他维度或者类型的虚拟场景,对此不加限制。相应的,立体虚拟图像的维度也可以有多种可能,如立体虚拟图像可以为三维虚拟图像。
在本申请中,虚拟对象可以为物体对象在虚拟场景中的映射,因此,虚拟对象的立体虚拟图像为物理对象映射到虚拟场景的虚拟图像。如,虚拟对象的立体虚拟图像为物理对象的数字孪生信息,即,虚拟对象的立体虚拟对象为利用数字孪生技术为物理对象创建出的立体虚拟图像。
该虚拟对象也可以是人工构建的任意对象,如,虚拟的游戏场景中的虚拟人物或者虚拟物品等等,对此不加限制。
在一种实现方式中,电子设备可以向该电子设备的显示屏输出虚拟场景图像。如,利用笔记本电脑或者手机等向显示屏输出虚拟场景图像。
在又一种可能的实现方式中,电子设备也可以向电子设备之外的显示区域输出或者投射出虚拟场景图像。
S102,基于对虚拟场景图像中虚拟对象的选择操作,确定该选择操作在显示区域中的操作点坐标。
其中,显示区域用于显示虚拟场景图像。如,在电子设备向显示屏输出该虚拟场景图像的情况下,显示区域就是该显示屏的显示区域。又如,在电子设备向其显示屏之外的显示区域输出该虚拟场景图像的情况下,显示区域就是电子设备控制显示该虚拟场景图像的显示区域。
在本申请中,显示区域为二维显示区域,因此,该选择操作在该显示区域中的操作点坐标也就是选择操作的操作点在屏幕坐标系中的屏幕坐标。
S103,确定该虚拟场景中参照坐标位置。
其中,参照坐标位置为虚拟场景中设定的参照点当前的空间坐标,该参照点为用于作为选择虚拟对象的一个参照点。
其中,该参照点可以是虚拟场景中的视点位置,视点位置也就是观察该虚拟场景的视角位置。可以理解的是,在输出虚拟场景图像后,用户可能会调整虚拟场景图像的观看视角,在该种情况下,视点位置也会发生相应的改变,因此,该参照坐标位置也会改变。基于此,该步骤S103确定出的参照坐标位置为虚拟场景中当前时刻的视点位置,即当前时刻的参照坐标位置。
在一种可能的实现方式中,本申请可以在虚拟场景中设定一虚拟相机(该虚拟相机对用户不可见),仅仅是为了确定视点位置而模拟出一虚拟相机的位置。相应的,本申请可以确定虚拟场景中虚拟相机当前的相机坐标位置,该相机坐标位置就是参照坐标位置。
S104,确定该选择操作的操作点坐标映射到该虚拟场景中的空间坐标。
其中,选择操作的操作点的空间坐标为该操作点由屏幕坐标系映射到虚拟场景中的世界坐标系中的空间坐标。
其中,确定屏幕坐标系中操作点坐标到该虚拟场景中的空间坐标的方式可以有多种可能,本申请对此不加限制。
为了便于理解,以一种可能的实现方式为例来说明由操作点坐标映射到虚拟场景中的空间坐标的过程。
如,可以结合参照坐标位置构建相机坐标系,将选择操作的操作点坐标由屏幕坐标系映射为标准化设备坐标,再由标准化设备坐标映射到该相机坐标系中的坐标,最后,将选择操作的操作点在相机坐标系中的坐标转换为虚拟场景的世界坐标系中的空间坐标。
例如,具体坐标转换过程可以包括:
首先,按照屏幕坐标到标准化设备坐标的映射关系,将选择操作的操作点在屏幕坐标系中的操作点坐标转换为标准化设备坐标系中的标准化设备坐标。
例如,在选择操作的操作点坐标(x1,y1)已知的情况下,标准化设备坐标(x2,y2,z)可以通过如下公式转换得到:
x2=(x1/w)*2-1;
y2=-(y1/h)*2+1;
z的取值可以为0.5。
其中,w为屏幕宽度,也就是用于显示虚拟场景图像的显示区域的宽度,如,在显示屏中显示虚拟场景图像,则屏幕宽度可以为显示屏的显示宽度;如果是通过投影等方式将虚拟对象的立体虚拟图像等虚拟场景图像投射到其他类型的显示区域,则屏幕宽度为用于显示投射出的图像的显示区域的宽度;h为屏幕高度,类似的,该屏幕高度可以为显示屏的显示高度或者是显示区域的高度。
其次,确定由标准化设备坐标系转换到该相机坐标系的第一变换矩阵,依据该第一变换矩阵,将该选择操作对应的标准化设备坐标转换为该相机坐标系下的坐标。
最后,确定由该相机坐标系转换到该虚拟场景的世界坐标系的第二变换矩阵,基于该第二变换矩阵将该相机坐标系下的坐标转换为该世界坐标系中的空间坐标。
当然,以上仅仅是将操作点坐标转换为世界坐标系中的空间坐标的一种实现方式,对于其他方式也同样适用于本申请。
S105,结合该参照坐标位置和该空间坐标,从该虚拟场景中,确定可供用户选择的至少一个候选虚拟对象。
如,以该参照坐标位置为视点位置(也就是观看视角),确定该虚拟场景中可能属于由该空间坐标选择的各候选虚拟对象,将确定出的各候选虚拟对象确定为可供用户选择的候选虚拟对象。
与现有仅仅结合选择操作在显示区域的操作点坐标来直接确定用户选择的虚拟对象不同,本申请不仅会将操作点坐标转换为空间坐标,还会结合参照坐标位置,确定虚拟对象中属于该空间坐标对应的选择操作所选择的所有候选虚拟对象以供用户选择,提高了用户选择候选虚拟对象的选择范围,使得从显示区域看上去重叠的虚拟对象都可能作为可供用户选择的候选虚拟对象,自然可以提升用户选择虚拟对象的准确性和可靠性。
在一种可能的实现方式中,在确定出该至少一个候选虚拟对象之后,本申请还可以向显示区域输出该至少一个候选虚拟对象的信息。该候选虚拟对象的信息可以包括:候选虚拟对象的名称、位置以及介绍等信息中的一种或者几种。在此基础上,用户根据该至少一个候选虚拟对象的信息,可以确定自身真实希望选择的虚拟对象。相应的,基于用户对该至少一个候选虚拟对象的信息的选择操作,确定用户选择的虚拟对象。
在又一种可能的实现方式中,在确定出该至少一个候选虚拟对象之后,本申请还可以将候选虚拟对象的显示效果由第一显示效果调整为第二显示效果,该第二显示效果不同于该第一显示效果,以将候选虚拟对象与虚拟场景中未作为候选虚拟对象的其他虚拟对象进行差异化显示。
其中,第二显示效果可以是从虚拟对象的颜色、动态效果或者虚拟对象的缩放比例等效果上与第一显示效果不同。
例如,虚拟场景中各虚拟对象的尺寸缩放比例是固定的,为了使得用户可能更方便选择候选虚拟对象,可以将候选虚拟对象的缩放比例增大,使得第二显示效果的候选虚拟对象大于第一显示效果的候选虚拟对象,以便于候选点击选择该候选虚拟对象等。
相应的,结合用户对具有第二显示效果的候选虚拟对象的选择操作,确定用户选择的虚拟对象。
本申请在输出虚拟场景图像之后,会基于对虚拟场景图像中虚拟对象的选择操作,确定选择操作在显示区域中的操作点操作,并确定该操作点坐标映射到虚拟场景中的空间坐标,在此基础上,结合虚拟场景中参照坐标位置和该选择操作对应的空间坐标,可以从虚拟场景中,确定该选择操作所可能选择的至少一个候选虚拟对象,以供用户选择,从而不仅仅结合选择操作将虚拟场景图像中位于最靠前的对象确定为选择对象,进而使得用户可以更为合理选择所需的虚拟对象,提高了虚拟对象选择的准确性和可靠性。
下面以确定候选虚拟对象的一种可能情况为例,对本申请的对象确定方法进行介绍。
如图2所示,其示出了本申请实施例提供的对象确定方法又一个实施例的流程示意图,本实施例的方法应用于电子设备,本实施例的方法可以包括:
S201,输出虚拟场景的虚拟场景图像。
该虚拟场景图像包括:虚拟场景中至少一个虚拟对象的立体虚拟图像。
S202,基于对虚拟场景图像中虚拟对象的选择操作,确定该选择操作在显示区域中的操作点坐标。
其中,显示区域用于显示虚拟场景图像。
S203,确定该虚拟场景中参照坐标位置。
S204,确定该选择操作的操作点坐标映射到该虚拟场景中的空间坐标。
以上步骤S201到S204可以参见前面实施例的相关介绍,在此不再赘述。
S205,以参照坐标位置为视点位置,从虚拟场景中,确定处于目标视线方向区上的至少一个待定虚拟对象。
其中,视点位置就是观看虚拟图像的视角位置。
该目标视线方向区为:包括由视点位置到选择操作对应的该空间坐标的视线方向的方向区。
其中,由视点位置到该空间坐标的视线方向可以是由视点位置经空间坐标的射线所在的方向。
在一种可能的情况中,该目标视线方向区可以是由视点位置到该空间坐标的视线方向。
可以理解的是,由于视点位置也可以认为是用户视角位置,那么如果虚拟对象处于由该视点位置到该空间坐标的视线方向上,那么说明从用户角度来看,处于该视线方向上的虚拟对象都是处于用户视线方向上的虚拟对象,也就是用户通过选择操作所可能选择的虚拟对象,因此,可以将处于该视线方向上的虚拟对象作为用户有可能选择的待定虚拟对象。
举例说明,如图3所示,其示出了显示屏中显示出的虚拟场景图像的示意图。
由图3可以看出,在该虚拟场景图像中有三个虚拟对象,即三个虚拟的正方体,分别为正方体301、正方体302和正方体303。
但是将虚拟场景图像从多维的虚拟场景映射到二维的显示屏之后,这三个正方体会存在重叠的情况。这样,按照目前选择虚拟对象的方法,则可能无法选择到正方体302和正方体303,而只能是默认用户选择的是正方体301。
而在本申请的方案中,如果用户在正方体301前端输入了选择操作,那么本申请可以将这三个正方体均作为待定虚拟对象。原理可以参见图4。
在图4中以虚拟场景中参照坐标位置为虚拟相机的相机位置为例。
如图4中示出了三个正方体为图3中三个正方体在虚拟场景的世界坐标系中的立体虚拟图像,即,三维的正方体401显示到显示屏中对应的是图3中的正方体301,类似的,正方体402与图3中正方体302对应,正方体303与图3中正方体303对应。
在本申请中,如果用户在图3所示的显示屏中在正方体301前端输入了选择操作,那么该选择操作映射到虚拟场景的世界坐标系中空间坐标为图4中点404所示。
在该种情况下,正方体401、正方体402和正方体403均处于由虚拟相机的位置到该空间坐标404的视线方向上,该视线方向如图4中射线405所示。因此,本申请会将正方体401、正方体402和正方体403均作为用户可能希望选择的待定虚拟对象。
在又一种可能的情况中,该目标视线方向区可以在由视点位置到该空间坐标的视线方向上延伸出的一个方向区。
如,在确定出由视点位置到该空间坐标的视线方向后,可以构建从该视点位置开始且与该视线方向的夹角小于设定角度值的多个射线,这多条射线环绕该视线方向构成了一个锥形方向区,可以将该锥形方向区作为目标视线方向区。
当然,还可以通过其他方式结合该视点位置对该视线方向进行延伸,以构建出一个目标视线方向区,对此不加限制。
可以理解的是,用户输入选择操作的操作点坐标转换出的空间坐标可能会与用户实际希望在虚拟空间中点击的空间点存在偏差。或者是,在虚拟场景中,某些虚拟对象之间可能是存在关联的,而用户点击某个虚拟对象可能会是希望选择该虚拟对象临近且存在关联的虚拟对象,或者是同时选择多个虚拟对象。在这两种情况下,仅仅确定处于视点位置到选择操作对应的空间坐标的视线方向上的虚拟对象为待定虚拟对象,则可能会遗漏一些用户希望选择的虚拟对象。
例如,在虚拟场景的一个展台上同时放着有一个虚拟笔记本电脑和一个电脑包,这两个物品的位置较为临近,如果用户选择操作的操作点稍微存在一点偏差,那么很可能会使得确定出的视线方向仅仅穿过虚拟笔记本电脑和电脑包中的一个,但是基于该视线方向出的对象可能并不是用户真实想选择的,或者是,用户有可能是希望同时选择虚拟笔记本电脑和电脑包。在该种情况下,仅仅将视线方向上的虚拟对象作为待定虚拟对象,那么可能就可能使得待定虚拟对象无法包含用户真实希望选择的虚拟对象。
而通过将由视点位置到该空间坐标的视线方向进行延伸来得到一个目标视线方向区,可以更为全面覆盖可能被用户选择的虚拟对象,从而可以为用户提供可供用户选择且更为反映其选择需求的待定虚拟对象。
S206,基于至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
其中,基于待定虚拟对象确定候选虚拟对象的方式可以有多种可能。
如,在一种可能的实现方式中,本申请可以将至少一个待定虚拟对象均作为候选虚拟对象,该种方式可以减少遗漏用户希望选择的虚拟对象的情况。
在又一种可能的实现方式中,本申请可以先分别确定各待定虚拟对象与该参照坐标位置的距离。在此基础上,可以将与参照坐标位置的距离小于设定阈值的待定虚拟对象确定为候选虚拟对象,从而得到至少一个候选虚拟对象。
其中,各待定虚拟对象与参照坐标位置的距离可以通过多种方式得到。如,可以计算待定虚拟对象的中线点与该参照坐标位置的距离。
在一种可选方式中,在目标视线方向区为从参照坐标位置到选择操作的空间坐标的视线方向的情况下,那么可以以参照坐标位置为起点,确定出的从该起点经该空间坐标的射线所经过的至少一个待定虚拟对象。在该种情况下,可以确定射线与待定虚拟对象的至少一个交点以及每个交点与该起点之间的距离。
如,可以仅仅确定该待定虚拟对象中与射线相交的首个交点与该起点之间的距离,将该距离作为待定虚拟对象与参照坐标位置的距离。
在又一种可能的实现方式中,本申请还可以基于待定虚拟对象的属性特征,从该虚拟场景中确定与待定虚拟对象关联的关联虚拟对象;结合至少一个待定虚拟对象及该待定虚拟对象关联的关联虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
其中,待定虚拟对象的属性特征可以为待定虚拟对象的类别、名称、用途以及所有者等等信息,对此不加限制。
相应的,与待定虚拟对象存在关联的关联虚拟对象是指与待定虚拟对象的属性特征具有关联性的虚拟对象。如,与待定虚拟对象属于相同类别,或者用途上存在关联的虚拟对象等。
可以理解的是,综合待定虚拟对象以及与待定虚拟对象关联的关联虚拟对象,综合确定候选虚拟对象,有利于更为全面确定出用户可能希望选择的虚拟对象。
例如,可以将待定虚拟对象以及与待定虚拟对象关联的关联虚拟对象均作为候选虚拟对象。也可以是结合待定虚拟对象与参照坐标位置的距离,将该距离小于距离阈值的待定虚拟对象及其关联的关联虚拟对象确定为候选虚拟对象。
为了便于理解本申请的方案,下面以虚拟场景为三维虚拟场景为例,并结合一种可能的实现方式进行介绍。
如图5所示,其示出了本申请实施例提供的对象确定方法又一个实施例的流程示意图,本实施例的方法应用于电子设备,本实施例的方法可以包括:
S501,输出三维虚拟场景的虚拟场景图像。
该虚拟场景图像包括:三维虚拟场景中至少一个虚拟对象的三维虚拟图像。
S502,基于对虚拟场景图像中虚拟对象的选择操作,确定该选择操作在显示区域中的操作点坐标。
其中,显示区域用于显示虚拟场景图像。
S503,确定该三维虚拟场景中虚拟相机当前的相机位置。
S504,确定该选择操作的操作点坐标映射到该三维虚拟场景中的空间坐标。
以上步骤S201到S204可以参见前面实施例的相关介绍,在此不再赘述。
S505,从该三维虚拟场景中,确定从该相机位置经该空间坐标的射线所经过的至少一个待定虚拟对象。
S506,针对每个待定虚拟对象,确定该射线与待定虚拟对象的第一个交点及该第一个交点与该相机位置之间的距离。
可以理解的是,射线代表了从相机位置到选择操作的空间坐标的视线方向,而视线方向与该待定虚拟对象的第一交点与该相机位置的距离越近,而表征从该视线方向上来看,用户选择该待定虚拟对象的可能性越高,因此,结合该种方式确定距离,有利于后续更为准确确定出用户可能希望选择的虚拟对象。
S507,将与该相机位置的距离小于设定阈值的至少一个待定虚拟对象确定为候选虚拟对象,得到至少一个候选虚拟对象。
可以理解的是,在实际应用中,除了确定射线与待定虚拟对象的交点之外,还可以确定射线与待定虚拟对象的相交面,在此基础上,后续还可以结合交点与相机位置的距离以及待定虚拟对象与该射线的相交面来确定候选虚拟对象。
S508,显示该至少一个候选虚拟对象的信息。
S509,基于用户对该至少一个候选虚拟对象的信息的选择操作,确定用户选择的虚拟对象。
对应本申请的一种对象确定方法,本申请还提供了一种对象确定装置。
如图6所示,其示出了本申请实施例提供的一种对象确定装置的组成结构示意图,该装置可以应用于前面提到的电子设备。
该装置可以包括:
图像输出单元601,用于输出虚拟场景的虚拟场景图像,所述虚拟场景图像包括:所述虚拟场景中至少一个虚拟对象的立体虚拟图像;
操作点确定单元602,用于基于对虚拟场景图像中虚拟对象的选择操作,确定所述选择操作在显示区域中的操作点坐标,所述显示区域用于显示所述虚拟场景图像;
参照确定单元603,用于确定所述虚拟场景中参照坐标位置;
坐标转换单元604,用于确定所述选择操作的操作点坐标映射到所述虚拟场景中的空间坐标;
候选确定单元605,用于结合所述参照坐标位置和所述空间坐标,从所述虚拟场景中,确定可供用户选择的至少一个候选虚拟对象。
在一种可能的实现方式中,该候选确定单元,包括:
待定确定单元,用于以所述参照坐标位置为视点位置,从所述虚拟场景中,确定处于目标视线方向区上的至少一个待定虚拟对象,所述目标视线方向区为:包括由所述视点位置到所述空间坐标的视线方向的方向区;
对象确定单元,用于基于所述至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
在又一种可能的实现方式中,该装置还包括:
距离确定单元,用于在候选确定单元确定可供用户选择的至少一个候选虚拟对象之前,确定所述待定虚拟对象与所述参照坐标位置的距离;
对象确定单元,包括:
第一对象确定子单元,用于确定所述至少一个待定虚拟对象中所述距离小于设定距离阈值的至少一个候选虚拟对象。
在又一种可能的实现方式中,待定确定单元,包括:
待定确定子单元,用于以所述参照坐标位置为起点,从所述虚拟场景中,确定从所述起点经所述空间坐标的射线所经过的至少一个待定虚拟对象;
该距离确定单元,包括:
距离确定子单元,用于确定所述射线与所述待定虚拟对象的至少一个交点以及每个交点与所述起点之间的距离。
在又一种可能的实现方式中,对象确定单元,包括:
关联确定子单元,用于基于所述待定虚拟对象的属性特征,从所述虚拟场景中确定与所述待定虚拟对象关联的关联虚拟对象;
第二对象确定子单元,用于结合至少一个待定虚拟对象及所述待定虚拟对象关联的关联虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
在一种可能的实现方式中,该参照确定单元,包括:
参照确定子单元,用于确定所述虚拟场景中虚拟相机当前的相机坐标位置。
在又一种可能的实现方式中,该装置还包括:
候选显示单元,用于显示所述至少一个候选虚拟对象的信息;
第一选择确认单元,用于基于用户对所述至少一个候选虚拟对象的信息的选择操作,确定用户选择的虚拟对象。
在又一种可能的实现方式中,该装置还包括:
效果调整单元,用于将所述候选虚拟对象的显示效果由第一显示效果调整为第二显示效果,所述第二显示效果不同于所述第一显示效果;
第二选择确定单元,用于结合用户对具有第二显示效果的候选虚拟对象的选择操作,确定用户选择的虚拟对象。
又一方面,本申请还提供了一种电子设备,如图7所示,其示出了该电子设备的一种组成结构示意图,该电子设备可以为任意类型的电子设备,该电子设备至少包括存储器701和处理器702;
其中,处理器701用于执行如上任意一个实施例中的对象确定方法。
该存储器702用于存储处理器执行操作所需的程序。
可以理解的是,该电子设备还可以包括显示单元703以及输入单元704。
当然,该电子设备还可以具有比图7更多或者更少的部件,对此不加限制。
另一方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上任意一个实施例所述的对象确定方法。
本申请还提出了一种计算机程序,该计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机程序在电子设备上运行时,用于执行如上任意一个实施例中的对象确定方法。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。同时,本说明书中各实施例中记载的特征可以相互替换或者组合,使本领域专业技术人员能够实现或使用本申请。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种对象确定方法,包括:
输出虚拟场景的虚拟场景图像,所述虚拟场景图像包括:所述虚拟场景中至少一个虚拟对象的立体虚拟图像;
基于对虚拟场景图像中虚拟对象的选择操作,确定所述选择操作在显示区域中的操作点坐标,所述显示区域用于显示所述虚拟场景图像;
确定所述虚拟场景中参照坐标位置;
确定所述选择操作的操作点坐标映射到所述虚拟场景中的空间坐标;
结合所述参照坐标位置和所述空间坐标,从所述虚拟场景中,确定可供用户选择的至少一个候选虚拟对象。
2.根据权利要求1所述的方法,所述结合所述参照坐标位置和所述空间坐标,从所述虚拟场景中,确定可供用户选择的至少一个候选虚拟对象,包括:
以所述参照坐标位置为视点位置,从所述虚拟场景中,确定处于目标视线方向区上的至少一个待定虚拟对象,所述目标视线方向区为:包括由所述视点位置到所述空间坐标的视线方向的方向区;
基于所述至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
3.根据权利要求2所述的方法,在所述确定可供用户选择的至少一个候选虚拟对象之前,还包括:
确定所述待定虚拟对象与所述参照坐标位置的距离;
所述基于所述至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象,包括:
确定所述至少一个待定虚拟对象中所述距离小于设定距离阈值的至少一个候选虚拟对象。
4.根据权利要求3所述的方法,所述以所述参照坐标位置为视点位置,从所述虚拟场景中,确定处于目标视线方向区上的至少一个待定虚拟对象,包括:
以所述参照坐标位置为起点,从所述虚拟场景中,确定从所述起点经所述空间坐标的射线所经过的至少一个待定虚拟对象;
所述确定所述待定虚拟对象与所述参照坐标位置的距离,包括:
确定所述射线与所述待定虚拟对象的至少一个交点以及每个交点与所述起点之间的距离。
5.根据权利要求3所述的方法,所述基于所述至少一个待定虚拟对象,确定可供用户选择的至少一个候选虚拟对象,包括:
基于所述待定虚拟对象的属性特征,从所述虚拟场景中确定与所述待定虚拟对象关联的关联虚拟对象;
结合至少一个待定虚拟对象及所述待定虚拟对象关联的关联虚拟对象,确定可供用户选择的至少一个候选虚拟对象。
6.根据权利要求1至5所述的方法,所述确定所述虚拟场景中参照坐标位置,包括:
确定所述虚拟场景中虚拟相机当前的相机坐标位置。
7.根据权利要求1至5所述的方法,还包括:
显示所述至少一个候选虚拟对象的信息;
基于用户对所述至少一个候选虚拟对象的信息的选择操作,确定用户选择的虚拟对象。
8.根据权利要求1至5所述的方法,还包括:
将所述候选虚拟对象的显示效果由第一显示效果调整为第二显示效果,所述第二显示效果不同于所述第一显示效果;
结合用户对具有第二显示效果的候选虚拟对象的选择操作,确定用户选择的虚拟对象。
9.一种对象确定装置,包括:
图像输出单元,用于输出虚拟场景的虚拟场景图像,所述虚拟场景图像包括:所述虚拟场景中至少一个虚拟对象的立体虚拟图像;
操作点确定单元,用于基于对虚拟场景图像中虚拟对象的选择操作,确定所述选择操作在显示区域中的操作点坐标,所述显示区域用于显示所述虚拟场景图像;
参照确定单元,用于确定所述虚拟场景中参照坐标位置;
坐标转换单元,用于确定所述选择操作的操作点坐标映射到所述虚拟场景中的空间坐标;
候选确定单元,用于结合所述参照坐标位置和所述空间坐标,从所述虚拟场景中,确定可供用户选择的至少一个候选虚拟对象。
10.一种电子设备,至少包括存储器和处理器;
其中,所述处理器,用于执行如上权利要求1至8任意一项所述的对象确定方法;
所述存储器,用于存储处理器执行操作所需的程序。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210118194.XA CN114442888B (zh) | 2022-02-08 | 2022-02-08 | 对象确定方法、装置及电子设备 |
US18/166,153 US20230251770A1 (en) | 2022-02-08 | 2023-02-08 | Electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210118194.XA CN114442888B (zh) | 2022-02-08 | 2022-02-08 | 对象确定方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114442888A true CN114442888A (zh) | 2022-05-06 |
CN114442888B CN114442888B (zh) | 2024-07-23 |
Family
ID=81371558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210118194.XA Active CN114442888B (zh) | 2022-02-08 | 2022-02-08 | 对象确定方法、装置及电子设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230251770A1 (zh) |
CN (1) | CN114442888B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115193038A (zh) * | 2022-07-26 | 2022-10-18 | 北京字跳网络技术有限公司 | 一种交互控制方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103370678A (zh) * | 2011-02-18 | 2013-10-23 | 维塔驰有限公司 | 不使用指示器的虚拟触摸装置 |
CN104620201A (zh) * | 2012-04-23 | 2015-05-13 | 维塔驰有限公司 | 不需要指针的三维虚拟对象信息获得装置 |
CN109644294A (zh) * | 2017-12-29 | 2019-04-16 | 腾讯科技(深圳)有限公司 | 一种直播分享的方法、相关设备及系统 |
CN109961523A (zh) * | 2019-04-18 | 2019-07-02 | 广州市百果园信息技术有限公司 | 虚拟目标的更新方法、装置、系统、设备及存储介质 |
CN110325965A (zh) * | 2018-01-25 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 虚拟场景中的对象处理方法、设备及存储介质 |
CN113282168A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 |
-
2022
- 2022-02-08 CN CN202210118194.XA patent/CN114442888B/zh active Active
-
2023
- 2023-02-08 US US18/166,153 patent/US20230251770A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103370678A (zh) * | 2011-02-18 | 2013-10-23 | 维塔驰有限公司 | 不使用指示器的虚拟触摸装置 |
CN104620201A (zh) * | 2012-04-23 | 2015-05-13 | 维塔驰有限公司 | 不需要指针的三维虚拟对象信息获得装置 |
CN109644294A (zh) * | 2017-12-29 | 2019-04-16 | 腾讯科技(深圳)有限公司 | 一种直播分享的方法、相关设备及系统 |
CN110325965A (zh) * | 2018-01-25 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 虚拟场景中的对象处理方法、设备及存储介质 |
CN109961523A (zh) * | 2019-04-18 | 2019-07-02 | 广州市百果园信息技术有限公司 | 虚拟目标的更新方法、装置、系统、设备及存储介质 |
CN113282168A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115193038A (zh) * | 2022-07-26 | 2022-10-18 | 北京字跳网络技术有限公司 | 一种交互控制方法、装置、电子设备及存储介质 |
CN115193038B (zh) * | 2022-07-26 | 2024-07-23 | 北京字跳网络技术有限公司 | 一种交互控制方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20230251770A1 (en) | 2023-08-10 |
CN114442888B (zh) | 2024-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10964108B2 (en) | Augmentation of captured 3D scenes with contextual information | |
US9304651B2 (en) | Method of real-time incremental zooming | |
US8577762B2 (en) | Detail-in-context lenses for interacting with objects in digital image presentations | |
CN110163942B (zh) | 一种图像数据处理方法和装置 | |
US9026938B2 (en) | Dynamic detail-in-context user interface for application access and content access on electronic displays | |
US8350872B2 (en) | Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci | |
US20070165050A1 (en) | Method and system for geographically-based and time-based online advertising | |
KR101932537B1 (ko) | 3차원 전자지도상에 촬영영상을 표시하는 방법 및 장치 | |
US10991071B2 (en) | Information processing apparatus and recording medium | |
JP2012518849A (ja) | 街路レベルの画像間の移行を示すシステム及び方法 | |
US20210090330A1 (en) | Virtual exhibition space providing method for efficient data management | |
US11250643B2 (en) | Method of providing virtual exhibition space using 2.5-dimensionalization | |
US20190164323A1 (en) | Method and program for generating virtual reality contents | |
CN107451235B (zh) | 空间维度标记的展示方法和装置 | |
US20230251770A1 (en) | Electronic apparatus | |
CN115278084A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114445525A (zh) | 虚拟对象的显示方法、装置及电子设备 | |
KR20180029690A (ko) | 매물에 관한 가상현실영상 제공방법 및 제공서버, 매물에 관한 가상현실영상 제작방법 및 제작서버 | |
JP6564259B2 (ja) | 画像処理装置、画像処理方法 | |
CN114385062A (zh) | 展示方案的切换方法、装置、可读存储介质和电子设备 | |
KR20090130458A (ko) | 확장된 에이알지를 활용한 증강현실 기반의 싱글미디어멀티서비스 방법 및 시스템 | |
KR20190006815A (ko) | 영상물의 대표 이미지 선택 서버 및 방법 | |
CN116012511A (zh) | 纹理的显示方法、装置以及电子终端 | |
CN114445603A (zh) | 获取对象的关注信息的方法、装置及电子设备 | |
CN107742275A (zh) | 一种信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |