CN107688426B - 选中目标物体的方法和装置 - Google Patents

选中目标物体的方法和装置 Download PDF

Info

Publication number
CN107688426B
CN107688426B CN201710666159.0A CN201710666159A CN107688426B CN 107688426 B CN107688426 B CN 107688426B CN 201710666159 A CN201710666159 A CN 201710666159A CN 107688426 B CN107688426 B CN 107688426B
Authority
CN
China
Prior art keywords
point
scene
distance
interactive interface
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710666159.0A
Other languages
English (en)
Other versions
CN107688426A (zh
Inventor
李瑞恒
劳丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN201710666159.0A priority Critical patent/CN107688426B/zh
Publication of CN107688426A publication Critical patent/CN107688426A/zh
Application granted granted Critical
Publication of CN107688426B publication Critical patent/CN107688426B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供一种选中目标物体的方法和装置,此方法包括:检测到用户对交互界面上第一点的触点操作;根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面;根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体。由于选中的目标物体是根据第二点与该场景中各物体之间的位置关系确定的,解决了现有技术中第一点发出的射线未触碰到的物体时而无法选中目标物体的问题,使得即使第一点发生的射线未触碰到场景中的物体时,也能选中目标物体,因此,提高了目标物体选中的准确率。

Description

选中目标物体的方法和装置
技术领域
本发明实施例涉及游戏技术领域,尤其涉及一种选中目标物体的方法和装置。
背景技术
三维游戏(3D游戏又称立体游戏)是相对于二维游戏(2D游戏又称平面游戏)而言的,因3D游戏采用了立体空间坐标的概念,场景显示得更加真实,而且对空间操作的随意性也较强,所以也更容易吸引玩家,目前3D游戏已成为游戏设计的主要发展趋势。
在玩家玩3D游戏时,一个常见的操作就是进行游戏中的目标选择,现有的方案是,在手指或者鼠标点击屏幕之后,实时模拟一条射线,这条射线从屏幕往场景中发射,选中该射线当前第一个触碰到的物体为选择的目标物体。但是,由于场景中不同的物体可能大小不同,小的物体难以被上述射线触碰到,从而造成目标物体选择的准确率较低。
发明内容
本发明实施例提供一种选中目标物体的方法和装置,用于提高选中目标物体的准确率。
第一方面,本发明实施例提供一种选中目标物体的方法,包括:
检测到用户对交互界面上第一点的触点操作;
根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面;
根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
第二方面,本发明实施例提供一种选中目标物体的装置,包括:
检测模块,用于检测到用户对交互界面上第一点的触点操作;
确定模块,用于根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面;
显示模块,用于根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
第三方面,本发明实施例提供一种电子设备,包括:交互界面、存储器和处理器;
存储器,用于存储程序指令;
所述处理器,用于在所述程序指令被执行时实现如第一方面本发明实施例提供的方案。
第四方面,本发明实施例提供一种存储介质,包括:可读存储介质和计算机程序,所述计算机程序用于实现第一方面本发明实施例所述的方案。
第五方面,本发明实施例提供一种程序产品,所述程序产品包括计算机程序,所述计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备实施如第一方面本发明实施例提供的方案。
本发明实施例提供一种选中目标物体的方法和装置,通过用户在交互界面上进行触点操作的第一点,确定交互界面中显示的场景中承载面上的第二点,再根据第二点与该场景中各物体之间的位置关系,在交互界面中显示选中的目标物体。由于本实施例中选中的目标物体是根据第二点与该场景中各物体之间的位置关系确定的,解决了现有技术中第一点发出的射线未触碰到的物体时而无法选中目标物体的问题,使得即使第一点发生的射线未触碰到场景中的物体时,也能选中目标物体,因此,提高了目标物体选中的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的选中目标物体的方法的流程图;
图2为本发明另一实施例提供的选中目标物体的方法的流程图;
图3为本发明一实施例提供的选中目标物体的方法的操作示意图;
图4为本发明一实施例提供的选中目标物体的方法的操作示意图;
图5为本发明一实施例提供的选中目标物体的方法的操作示意图;
图6为本发明一实施例提供的选中目标物体的装置的结构示意图;
图7为本发明另一实施例提供的选中目标物体的装置的结构示意图;
图8为本发明一实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明一实施例提供的选中目标物体的方法的流程图,如图1所示,本实施例的方法可以包括:
S101、检测到用户对交互界面上第一点的触点操作。
本实施例的方法可以应用于电子设备中,电子设备例如是电脑、智能手机、平板电脑、游戏机等。其中,交互界面是电子设备的重要组成部分,是与用户进行交互的界面,用户可以对交互界面的操作,例如实现对电子设备中运行的游戏的控制,同时交互界面还可以显示运行的游戏中的场景;当用户想要控制游戏时,用户对电子设备的交互界面进行操作,电子设备通过该交互界面检测到用户的操作,本实施例中,当用户想要对交互界面中显示的场景中对目标物体进行选中时,用户便对交互界面上进行触点操作,该触点操作可以是触摸操作,或者,通过鼠标进行的点击操作,或者,通过触控笔进行的点击操作。相应的触点操作处称为第一点,该第一点可以用户根据其所需选中的目标物体来确定。相应地。本实施例可以检测到用户对交互界面上第一点的触点操作。
S102、根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面。
本实施例中,根据上述触点操作对应的第一点,在交互界面中显示的场景中承载面上确定第二点,例如:以第一点为起点,且垂直于交互界面的方向,朝着交互界面显示的场景的方向,建立参考线,将参考线与交互界面中显示的场景中承载面的交点确定为第二点。其中,确定的第二点与第一点的连线垂直于该交互界面。
需要说明的是,该显示的场景例如可以是3D场景,也可以2D场景,本实施例对此不做限定。
其中,该承载面例如为交界面中显示的场景中的其中一个面:地面、墙面、天花板面、桌面和台面。需要说明的是,本实施例并不限于此。
S103、根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
本实施例中,该场景中还包括多个物体,在交互界面显示的场景中确定第二点之后,根据场景中的第二点与该场景中各物体之间的位置关系,从该场景的各物体中选中目标物体,并在该交互界面上显示选中的目标物体。用户可以根据交互界面上显示的选中的目标物体确定该目标物体是不是该用户需要选中的物体。
其中,在交互界面中显示选中的目标物体可以是:将该目标物体放大显示,或者,将该目标物体的边界点亮显示,或者,在该目标物体的上方显示提示信息等等,本实施例并不限于此。
本实施例中,通过用户在交互界面上进行触点操作的第一点,确定交互界面中显示的场景中承载面上的第二点,再根据第二点与该场景中各物体之间的位置关系,在交互界面中显示选中的目标物体。由于本实施例中选中的目标物体是根据第二点与该场景中各物体之间的位置关系确定的,解决了现有技术中第一点发出的射线未触碰到的物体时而无法选中目标物体的问题,使得即使第一点发生的射线未触碰到场景中的物体时,也能选中目标物体,因此,提高了目标物体选中的准确率。
图2为本发明另一实施例提供的选中目标物体的方法的流程图,如图2所示,本实施例的方法可以包括:
S201、检测到用户对交互界面上第一点的触点操作。
S202、根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面。
本实施例中,S201和S202的具体实现过程可以参见图1所示实施例中的相关描述,此处不再赘述。
其中,在承载上确定的第二点如图3所示。
S203、获取所述第二点与所述场景中各物体之间的距离,并从中确定最短距离。
本实施例中,在确定第二点之后,第二点为交互界面显示的场景中的点,第二点在场景中的位置坐标是可以确定的,各物体在场景中的位置坐标也是可以确定的。根据第二点在场景中的位置坐标,以及各物体在场景中的位置坐标,可以获得该第二点与各物体之间的距离。如果各物体的数量为K,则可以K个距离值,然后再将该K个距离值进行比较,从中确定最短距离。
可选地,上述获取所述第二点与所述场景中各物体之间的距离包括如下几种可能的实现方式:
在第一种可能的实现方式中,获取所述第二点与所述场景中各物体的重心点之间的距离。针对该场景中每个物体而言,获取该物体的重心点的位置坐标,根据第二点在该场景中的位置坐标和该物体的重心点的位置坐标,确定该第二点与该物体的重心点之间的距离,将第二点与该物体的重心点之间的距离作为该第二点与该物体之间的距离。
在第二种可能的实现方式中,获取所述第二点与所述场景中各物体的者中心点之间的距离。针对该场景中每个物体而言,获取该物体的中心点的位置坐标,根据第二点在该场景中的位置坐标和该物体的中心点的位置坐标,确定该第二点与该物体的中心点之间的距离,将第二点与该物体的中心点之间的距离作为该第二点与该物体之间的距离。
在第三种可能的实现方式中,针对所述场景中每个物体,获取所述第二点与该物体的边界上的点之间的最小距离。针对该场景中每个物体而言,获取该物体的边界上各个点的位置坐标,根据第二点在该场景中的位置坐标和该物体的边界上各个点的位置坐标,确定该第二点与该物体的边界上各个点之间的距离,可以获得多个距离。然后从该多个距离中确定最小距离,该将该最小距离作为该第二点与该物体之间的距离,或者,根据该多个距离确定平均距离,将该平均距离作为该第二点与该物体之间的距离。
在第四种可能的实现方式中,针对所述场景中每个物体,确定第二点与该物体到所述第二点所在的承载面上投影物之间的距离。针对该场景中每个物体而言,将该物体投影到承载面上(例如是以垂直承载面的方向投影),获得投影物(投影物例如可以是该物体投影到承载面上而得到的圆形),该承载面即为上述确定第二点所提及的承载面。在获得投影物后可以获取该投影物在该场景中的位置坐标,根据第二点在该场景中的位置坐标和该投影物在该场景中的位置坐标,确定该第二点与该投影物之间的距离,将该第二点与该投影物之间的距离作为该第二点与该物体之间的距离。
其中,上述确定第二点与该物体到所述第二点所在的承载面上投影物之间的距离包括如下两种实现方案:
在第一种实现方案中,确定所述第二点与该物体的投影物边界上的点之间的最小距离。具体地,获取该投影物边界上各个点的位置坐标,根据第二点在该场景中的位置坐标和该投影物边界上各个点的位置坐标,确定该第二点与该投影物边界上各个点之间的距离,可以获得多个距离。然后从该多个距离中确定最小距离,该将该最小距离作为该第二点与该投影物之间的距离,或者,根据该多个距离确定平均距离,将该平均距离作为该第二点与该投影物之间的距离。
在第二种实现方案中,确定所述第二点与该物体的投影物的中心点之间的距离。具体地,在确定投影物之后,可以确定投影物的中心点在场景中的位置坐标,根据第二点在该场景中的位置坐标和该投影物在场景中的中心点的位置坐标,确定该第二点与该投影物的中心点之间的距离,将第二点与该投影物的中心点之间的距离作为该第二点与该投影物之间的距离。
S204、在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
本实施例中,在确定最短距离之后,将与第二点之间的距离为该最短距离的物体作为选中的目标物体,然后在交互界面中显示该目标物体。例如:各物体为物体1、物体2,其中,第二点与物体1之间的距离为D1,第二点与物体2之间的距离为D2,如图4所示,而且,D1小于D2,因此,D1为最小距离,则本实施例中将物体1显示为选中的目标物体,如图5所示,在显示界面上显示目标物体提示信息。
可选地,S204的一种可能的实现方式为:在该最短距离小于或等于预设距离时,在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。如果最短距离大于预设距离时,则可以确定用户未选中目标物体,然后例如在交互界面中显示未选中目标物体的提示信息。本实施例中通过设置预设距离,使得选中的目标物体与第二点之间的距离小于或等于该预设距离,保证了选中的目标物体与第二点足够接近,避免由于用户的误操作仍选中目标物体的现象,而且即使用户所需选中的物体位于另一物体的后面,通过上述方案,也能选中位于另一物体后面的目标物体,保证用户的游戏体验。
上述S204的可能实现方式可以包括如下两种方案:
在第一种方案中,在确定第二点与场景中各物体之间的距离后,从中确定最短距离,将最短距离与预设距离进行比较,如果最短距离小于或等于预设距离,则在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体,如果最短距离大于预设距离,则确定未选中目标物体。
在第二种方案中,在确定第二点与场景中各物体之间的距离后,该获得的各距离与预设距离进行比较,从中确定小于或等于预设距离的距离,若存在小于或等于预设距离的距离,再从确定出的距离中确定最短距离,此处确定的最短距离必然小于或等于预设距离,然后在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。若不存在小于或等于预设距离的距离,则确定未选中目标物体。
本实施例中,根据上述方案,由于本实施例中选中的目标物体是根据第二点与该场景中各物体之间的最短距离来确定的,使得选中的目标物体距离用户进行触点操作的第一点最近,因此选中的目标物体也是用户所需选中的物体,从而解决了现有技术中第一点发出的射线未触碰到的物体时而无法选中目标物体的问题,使得即使第一点发生的射线未触碰到场景中的物体时,也能选中目标物体,因此,提高了目标物体选中的准确率。
可选地,在上述各实施例的基础上,本实施例在根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体之前,还确定所述场景中满足预设条件的各物体。本实施例中先筛选出该场景中满足预设条件的各物体,然后再根据第二点与场景中满足预设条件的各物体之间的位置关系,在所述交互界面中显示选中的目标物体。也就是,在上述各实施例中,场景中的各物体是指场景中满足预设条件的各物体。由于本实施例先在场景中的所有物体中筛选中满足预设条件的物体,无需根据第二点与场景中所有物体的位置关系来显示选中的目标物体,这样减少了计算量,也减少了处理过程的复杂度,提高了显示选中的目标物体的效率。
可选地,上述的预设条件可以包括:物体位于所述第二点所在的所述承载面上。本实施例中,从场景中确定出与第二点位于同一承载面上的各物体,然后再根据第二点和与第二点位于同一承载面上的各物体的位置关系,在所述交互界面中显示选中的目标物体。由于用户在交互界面上的触点操作为第一点,其对应场景中的承载上的第二点,也说明用户想要选中承载面上的某物体,因此,本实施例优先将承载面上的物体选中为目标物体,进一步保证了目标物体选中的准确率。
可选地,上述的预设条件可以包括:物体的类型为预设类型。例如,场景中包括类型A、类型B、类型C的物体,如果预设类型为类型A,则本实施例从场景中确定出类型为类型A的物体,然后再根据第二点和与类型A的各物体的位置关系,在所述交互界面中显示选中的目标物体。本实施例优先将预设类型的物体选中为目标物体,进一步保证了目标物体选中的准确率。
图6为本发明一实施例提供的选中目标物体的装置的结构示意图,如图6所示,本实施例的选中目标物体的装置300可以包括:检测模块310、确定模块320和显示模块330。
检测模块310,用于检测到用户对交互界面上第一点的触点操作。
确定模块320,用于根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面。
显示模块330,用于根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
可选地,所述确定模块320,还用于在所述显示模块330根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体之前,确定所述场景中满足预设条件的各物体。
所述显示模块330,具体用于:根据所述第二点与所述满足预设条件的各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
可选地,所述预设条件包括:物体位于所述第二点所在的所述承载面上。
可选地,所述承载面为所述交互界面中显示的场景中的其中一个面:地面、墙面、天花板面、桌面和台面。
本实施例的装置,可以用于执行本发明上述各方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图7为本发明另一实施例提供的选中目标物体的装置的结构示意图,如图7所示,本实施例的选中目标物体的装置300在图6所示装置结构的基础上,所述显示模块330,可以包括:获取子模块331和显示子模块332。
获取子模块331,用于获取所述第二点与所述场景中各物体之间的距离,并从中确定最短距离。
显示子模块332,用于在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
可选地,所述显示子模块332,具体用于:当所述最短距离小于或等于预设距离时,在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
可选地,所述获取子模块331,具体用于:获取所述第二点与所述场景中各物体的重心点或者中心点之间的距离;或者,针对所述场景中每个物体,获取所述第二点与该物体的边界上的点之间的最小距离或者平均距离。
可选地,所述获取子模块331,具体用于:针对所述场景中每个物体,确定第二点与该物体到所述第二点所在的承载面上投影物之间的距离。
可选地,所述获取子模块331,具体用于:确定所述第二点与该物体的投影物边界上的点之间的最小距离或者平均距离;或者,确定所述第二点与该物体的投影物的中心点之间的距离。
本实施例的装置,可以用于执行本发明上述各方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图8为本发明一实施例提供的电子设备的结构示意图,如图8所示,本实施例的电子设备400可以包括:交互界面410、存储器420和处理器430。
存储器420,用于存储程序指令。
所述处理器430,用于在所述程序指令被执行时实现如下步骤:
检测到用户对交互界面410上第一点的触点操作;
根据所述第一点,在所述交互界面410中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面;
根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面410中显示选中的目标物体。
可选地,处理器430具体用于:获取所述第二点与所述场景中各物体之间的距离,并从中确定最短距离;在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
可选地,处理器430具体用于:当所述最短距离小于或等于预设距离时,在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
可选地,处理器430具体用于:获取所述第二点与所述场景中各物体的重心点或者中心点之间的距离;或者,针对所述场景中每个物体,获取所述第二点与该物体的边界上的点之间的最小距离或者平均距离。
可选地,处理器430具体用于:针对所述场景中每个物体,确定第二点与该物体到所述第二点所在的承载面上投影物之间的距离。
可选地,处理器430具体用于:确定所述第二点与该物体的投影物边界上的点之间的最小距离或者平均距离;或者,确定所述第二点与该物体的投影物的中心点之间的距离。
可选地,所述处理器430在根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体之前,还用于确定所述场景中满足预设条件的各物体;
所述处理器430用于根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体,包括:处理器430根据所述第二点与所述满足预设条件的各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
可选地,所述预设条件包括:物体位于所述第二点所在的所述承载面上。
可选地,所述承载面为所述交互界面中显示的场景中的其中一个面:地面、墙面、天花板面、桌面和台面。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:只读内存(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (18)

1.一种选中目标物体的方法,其特征在于,包括:
检测到用户对交互界面上第一点的触点操作;
根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面;
根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体;
所述根据所述第二点与所述场景中的物体之间的位置关系,在所述交互界面中显示选中的目标物体,包括:
获取所述第二点与所述场景中各物体之间的距离,并从中确定最短距离;
在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体;
所述承载面为所述交互界面中显示的场景中的其中一个面。
2.根据权利要求1所述的方法,其特征在于,所述在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体,包括:
当所述最短距离小于或等于预设距离时,在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
3.根据权利要求1所述的方法,其特征在于,所述获取所述第二点与所述场景中各物体之间的距离,包括:
获取所述第二点与所述场景中各物体的重心点或者中心点之间的距离;或者,
针对所述场景中每个物体,获取所述第二点与该物体的边界上的点之间的最小距离或者平均距离。
4.根据权利要求1所述的方法,其特征在于,所述获取所述第二点与所述场景中各物体之间的距离,包括:
针对所述场景中每个物体,确定第二点与该物体到所述第二点所在的承载面上投影物之间的距离。
5.根据权利要求4所述的方法,其特征在于,所述确定第二点与该物体到所述第二点所在的承载面上投影物之间的距离,包括:
确定所述第二点与该物体的投影物边界上的点之间的最小距离或者平均距离;或者,
确定所述第二点与该物体的投影物的中心点之间的距离。
6.根据权利要求1-5任意一项所述的方法,其特征在于,所述根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体之前,还包括:
确定所述场景中满足预设条件的各物体;
所述根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体,包括:
根据所述第二点与所述满足预设条件的各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
7.根据权利要求6所述的方法,其特征在于,所述预设条件包括:物体位于所述第二点所在的所述承载面上。
8.根据权利要求1-5任意一项所述的方法,其特征在于,所述承载面为所述交互界面中显示的场景中的其中一个面:地面、墙面、天花板面、桌面和台面。
9.一种选中目标物体的装置,其特征在于,包括:
检测模块,用于检测到用户对交互界面上第一点的触点操作;
确定模块,用于根据所述第一点,在所述交互界面中显示的场景中承载面上确定第二点;所述第二点到所述第一点的连线垂直于所述交互界面;所述承载面为所述交互界面中显示的场景中的其中一个面;
显示模块,用于根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体;
所述显示模块,包括:获取子模块和显示子模块;
获取子模块,用于获取所述第二点与所述场景中各物体之间的距离,并从中确定最短距离;
显示子模块,用于在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
10.根据权利要求9所述的装置,其特征在于,所述显示子模块,具体用于:当所述最短距离小于或等于预设距离时,在所述交互界面中将所述最短距离对应的物体显示为选中的所述目标物体。
11.根据权利要求9所述的装置,其特征在于,所述获取子模块,具体用于:获取所述第二点与所述场景中各物体的重心点或者中心点之间的距离;或者,针对所述场景中每个物体,获取所述第二点与该物体的边界上的点之间的最小距离或者平均距离。
12.根据权利要求9所述的装置,其特征在于,所述获取子模块,具体用于:针对所述场景中每个物体,确定第二点与该物体到所述第二点所在的承载面上投影物之间的距离。
13.根据权利要求12所述的装置,其特征在于,所述获取子模块,具体用于:确定所述第二点与该物体的投影物边界上的点之间的最小距离或者平均距离;或者,确定所述第二点与该物体的投影物的中心点之间的距离。
14.根据权利要求9-13任意一项所述的装置,其特征在于,
所述确定模块,还用于在所述显示模块根据所述第二点与所述场景中各物体之间的位置关系,在所述交互界面中显示选中的目标物体之前,确定所述场景中满足预设条件的各物体;
所述显示模块,具体用于:根据所述第二点与所述满足预设条件的各物体之间的位置关系,在所述交互界面中显示选中的目标物体。
15.根据权利要求14所述的装置,其特征在于,所述预设条件包括:物体位于所述第二点所在的所述承载面上。
16.根据权利要求9-13任意一项所述的装置,其特征在于,所述承载面为所述交互界面中显示的场景中的其中一个面:地面、墙面、天花板面、桌面和台面。
17.一种电子设备,其特征在于,包括:交互界面、存储器和处理器;
存储器,用于存储程序指令;
所述处理器,用于在所述程序指令被执行时实现如权利要求1-8任意一项所述方法的步骤。
18.一种存储介质,其特征在于,包括:可读存储介质和计算机程序,所述计算机程序用于实现权利要求1-8任意一项所述的选中目标物体的方法。
CN201710666159.0A 2017-08-07 2017-08-07 选中目标物体的方法和装置 Active CN107688426B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710666159.0A CN107688426B (zh) 2017-08-07 2017-08-07 选中目标物体的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710666159.0A CN107688426B (zh) 2017-08-07 2017-08-07 选中目标物体的方法和装置

Publications (2)

Publication Number Publication Date
CN107688426A CN107688426A (zh) 2018-02-13
CN107688426B true CN107688426B (zh) 2021-01-26

Family

ID=61153185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710666159.0A Active CN107688426B (zh) 2017-08-07 2017-08-07 选中目标物体的方法和装置

Country Status (1)

Country Link
CN (1) CN107688426B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825280A (zh) * 2018-08-09 2020-02-21 北京微播视界科技有限公司 控制虚拟物体位置移动的方法、装置和计算机可读存储介质
CN111729296B (zh) * 2020-06-15 2024-02-09 网易(杭州)网络有限公司 游戏的界面交互方法、装置以及电子终端
CN111782096B (zh) * 2020-06-29 2022-06-24 联想(北京)有限公司 一种目标物选择方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101540062A (zh) * 2009-02-10 2009-09-23 朱一宁 使用可视化几何柱体对计算机三维体数据进行交互实时浏览处理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104035562B (zh) * 2014-06-18 2017-03-22 广州市久邦数码科技有限公司 一种三维立体桌面触摸事件的映射方法及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101540062A (zh) * 2009-02-10 2009-09-23 朱一宁 使用可视化几何柱体对计算机三维体数据进行交互实时浏览处理方法

Also Published As

Publication number Publication date
CN107688426A (zh) 2018-02-13

Similar Documents

Publication Publication Date Title
KR102625233B1 (ko) 가상 객체를 제어하기 위한 방법, 및 관련 장치
US10542366B1 (en) Speaker array behind a display screen
CN110052021B (zh) 游戏对象处理方法、移动终端设备、电子设备及存储介质
CN107688426B (zh) 选中目标物体的方法和装置
US10565436B2 (en) Information processing device and information processing method
CN107678652B (zh) 对目标物体的操作控制方法和装置
CN106873886B (zh) 一种立体显示的控制方法、装置和电子设备
JP2023527529A (ja) インタラクティブ情報処理方法、装置、端末、およびプログラム
CN110448904B (zh) 游戏视角的控制方法及装置、存储介质、电子装置
US20100309197A1 (en) Interaction of stereoscopic objects with physical objects in viewing area
CN101553843A (zh) 与3d表面上的2d内容进行交互
US11192026B2 (en) Game apparatus and program
US11861796B2 (en) Virtual location selection for virtual content
US11759702B2 (en) Game system, processing method, and information storage medium
US20160012302A1 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
US10076704B2 (en) Game device
US11287526B2 (en) Locating spatialized sounds nodes for echolocation using unsupervised machine learning
CN111467799A (zh) 一种坐标转换方法、装置、电子设备和存储介质
CN110825280A (zh) 控制虚拟物体位置移动的方法、装置和计算机可读存储介质
CN110860082B (zh) 识别方法、装置、电子设备及存储介质
KR20190049349A (ko) 프로젝션 영상에서 사용자의 터치를 인식하는 방법 및 이러한 방법을 수행하는 장치
CN116129085B (zh) 虚拟物体处理方法、设备、存储介质及程序产品
JP2007209483A (ja) 画像生成システム、プログラム及び情報記憶媒体
CN114210058A (zh) 信息显示方法、装置、电子设备和可读存储介质
CN113426131A (zh) 虚拟场景的画面生成方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant