CN112121438B - 操作提示方法、装置、终端及存储介质 - Google Patents

操作提示方法、装置、终端及存储介质 Download PDF

Info

Publication number
CN112121438B
CN112121438B CN202011057681.7A CN202011057681A CN112121438B CN 112121438 B CN112121438 B CN 112121438B CN 202011057681 A CN202011057681 A CN 202011057681A CN 112121438 B CN112121438 B CN 112121438B
Authority
CN
China
Prior art keywords
distance
virtual object
point
attack
aiming point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011057681.7A
Other languages
English (en)
Other versions
CN112121438A (zh
Inventor
练建锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202011057681.7A priority Critical patent/CN112121438B/zh
Publication of CN112121438A publication Critical patent/CN112121438A/zh
Priority to KR1020227044215A priority patent/KR20230011402A/ko
Priority to JP2022567843A priority patent/JP7423137B2/ja
Priority to PCT/CN2021/118239 priority patent/WO2022068573A1/zh
Application granted granted Critical
Publication of CN112121438B publication Critical patent/CN112121438B/zh
Priority to US17/986,716 priority patent/US20230070612A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例公开了一种操作提示方法、装置、终端及存储介质,属于计算机技术领域。该方法包括:响应于瞄准点位于目标虚拟对象的身体区域,确定瞄准点移出身体区域所需的第一距离;确定目标虚拟对象的第二距离,第二距离为目标虚拟对象在攻击准备时长内相对于瞄准点的移动距离;响应于第一距离大于第二距离,进行攻击提示。若第一距离大于第二距离,说明在攻击准备时长内该瞄准点不会移出身体区域,用户能够及时执行攻击操作,使得攻击操作命中该虚拟对象,因此终端进行攻击提示,来提示用户执行攻击操作,让用户更好地把握攻击的时机,提高攻击操作的命中率。

Description

操作提示方法、装置、终端及存储介质
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种操作提示方法、装置、终端及存储介质。
背景技术
在电子游戏中,通常会通过显示瞄准点来表示瞄准位置。例如,当虚拟对象A要使用虚拟枪械射击虚拟对象B时,控制虚拟枪械指向虚拟对象B,使瞄准点位于虚拟对象B的身体区域,然后执行射击操作,从而击中该虚拟对象B。
但是,从瞄准虚拟对象B到执行射击操作之间,存在一定的延迟,而瞄准虚拟对象B后,虚拟对象B可能会移动,导致执行射击操作时瞄准点已经不在虚拟对象B的身体区域,进而导致没有击中虚拟对象B,因此射击操作的命中率较低。
发明内容
本申请实施例提供了一种操作提示方法、装置、终端及存储介质,能够提高攻击操作的命中率。所述技术方案如下:
一方面,提供了一种操作提示方法,所述方法包括:
响应于瞄准点位于目标虚拟对象的身体区域,确定所述瞄准点移出所述身体区域所需的第一距离;
确定所述目标虚拟对象的第二距离,所述第二距离为所述目标虚拟对象在攻击准备时长内相对于所述瞄准点的移动距离;
响应于所述第一距离大于所述第二距离,进行攻击提示。
另一方面,提供了一种操作提示装置,所述装置包括:
第一距离确定模块,用于响应于瞄准点位于目标虚拟对象的身体区域,确定所述瞄准点移出所述身体区域所需的第一距离;
第二距离确定模块,用于确定所述目标虚拟对象的第二距离,所述第二距离为所述目标虚拟对象在攻击准备时长内相对于所述瞄准点的移动距离;
攻击提示模块,用于响应于所述第一距离大于所述第二距离,进行攻击提示。
可选地,所述攻击提示模块,包括:
突出显示单元,用于响应于所述第一距离大于所述第二距离,将所述瞄准点突出显示。
可选地,所述突出显示单元,用于执行以下至少一项:
将所述瞄准点的尺寸放大;
将所述瞄准点的亮度调高;
将所述瞄准点从静态显示切换为动态显示;
显示所述瞄准点对应的特效。
可选地,所述攻击提示模块,包括:
提示信息显示单元,用于响应于所述第一距离大于所述第二距离,显示攻击操作提示信息。
可选地,所述第一距离确定模块,包括:
边缘点确定单元,用于响应于所述瞄准点位于所述目标虚拟对象的身体区域,确定所述身体区域的目标边缘点;
第一距离确定单元,用于确定所述瞄准点与所述目标边缘点之间的所述第一距离。
可选地,所述边缘点确定单元,用于:
确定所述瞄准点相对于所述目标虚拟对象的移动方向;
根据以所述瞄准点为起始点且沿所述移动方向的射线,将所述射线与所述身体区域的边界线的交点确定为所述目标边缘点。
可选地,所述边缘点确定单元,用于:
将所述身体区域中与所述瞄准点之间的距离最远的边缘点,确定为所述目标边缘点。
可选地,所述边缘点确定单元,用于:
确定经过所述瞄准点且沿水平方向的直线,与所述身体区域的边界线的两个交点;
将所述两个交点中与所述瞄准点之间的距离最远的交点,确定为所述目标边缘点。
可选地,所述第二距离确定模块,包括:
移动速度确定单元,用于确定所述目标虚拟对象相对于所述瞄准点的目标移动速度;
第二距离确定单元,用于根据所述目标移动速度和所述攻击准备时长,确定所述第二距离。
可选地,所述移动速度确定单元,用于:
获取所述目标虚拟对象在虚拟场景界面中的第一移动速度和第一移动方向;
获取所述瞄准点在所述虚拟场景界面中的第二移动速度和第二移动方向;
根据所述第一移动速度、所述第一移动方向、所述第二移动速度和所述第二移动方向,确定所述目标移动速度。
可选地,所述移动速度确定单元,用于:
在所述瞄准点处于静止状态的情况下,将所述目标虚拟对象在虚拟场景界面中的移动速度,确定为所述目标移动速度。
可选地,所述装置还包括:
第三距离确定模块,用于确定所述目标虚拟对象的第三距离,所述第三距离为所述瞄准点位于所述身体区域的时间段内,所述目标虚拟对象的移动距离;
所述攻击提示模块,还用于响应于所述第三距离大于所述第一距离与所述第二距离的差值,取消攻击提示。
可选地,所述第三距离确定模块,包括:
第一位置获取单元,用于获取所述瞄准点开始位于所述身体区域时,所述目标虚拟对象所处的第一位置;
第二位置获取单元,用于获取所述目标虚拟对象当前所处的第二位置;
第三距离确定单元,用于确定所述第一位置与所述第二位置之间的所述第三距离。
可选地,所述第一距离确定单元,用于:
响应于所述瞄准点位于所述目标虚拟对象的身体区域,且所述目标虚拟对象处于移动状态,确定所述第一距离。
可选地,所述攻击提示模块,还用于:
响应于所述瞄准点位于所述目标虚拟对象的身体区域,且所述目标虚拟对象处于静止状态,进行攻击提示。
可选地,所述装置还包括:
攻击模块,用于响应于攻击操作,控制被控虚拟对象根据所述瞄准点所在的位置进行攻击。
可选地,所述攻击模块,包括:
射击单元,用于响应于射击操作,控制所述被控虚拟对象使用虚拟枪械,根据所述瞄准点所在的位置进行射击;或者,
技能释放单元,用于响应于技能释放操作,控制所述被控虚拟对象根据所述瞄准点所在的位置释放技能。
另一方面,提供了一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行以实现如上述方面所述的操作提示方法中所执行的操作。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现如上述方面所述的操作提示方法中所执行的操作。
另一方面,提供了一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机程序代码,所述计算机程序代码存储在计算机可读存储介质中,终端的处理器从计算机可读存储介质读取所述计算机程序代码,处理器执行所述计算机程序代码,使得所述终端实现如上述方面所述的操作提示方法中所执行的操作。
本申请实施例提供的方法、装置、终端及存储介质,若瞄准点移出虚拟对象的身体区域所需的距离,大于虚拟对象在攻击准备时长内相对于瞄准点移动的距离,说明在攻击准备时长内该瞄准点不会移出身体区域,用户执行攻击操作能够命中该虚拟对象,因此进行攻击提示,以提示用户执行攻击操作,让用户更好地把握攻击的时机,提高攻击操作的命中率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种实施环境的示意图。
图2是本申请实施例提供的一种操作提示方法的流程图。
图3是本申请实施例提供的另一种操作提示方法的流程图。
图4是本申请实施例提供的一种移动方向的示意图。
图5是本申请实施例提供的一种第一距离的示意图。
图6是本申请实施例提供的一种瞄准点的示意图。
图7是本申请实施例提供的一种操作提示方法的流程图。
图8是本申请实施例提供的一种操作提示装置的结构示意图。
图9是本申请实施例提供的另一种操作提示装置的结构示意图。
图10是本申请实施例提供的一种终端的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种概念,但除非特别说明,这些概念不受这些术语限制。这些术语仅用于将一个概念与另一个概念区分。举例来说,在不脱离本申请的范围的情况下,可以将第一距离称为第二距离,且类似地,可将第二距离称为第一距离。
本申请涉及到的虚拟场景可以用于模拟一个三维虚拟空间,该三维虚拟空间可以是一个开放空间,该虚拟场景可以用于模拟现实中的真实环境,例如,该虚拟场景中可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素。当然,在该虚拟场景中还可以包括虚拟物品,例如,投掷物、建筑物、载具、虚拟场景中的虚拟对象用于武装自己或与其他虚拟对象进行战斗所需的兵器等道具,该虚拟场景还可以用于模拟不同天气下的真实环境,例如,晴天、雨天、雾天或黑夜等天气。各种各样的场景元素增强了虚拟场景的多样性和真实性。
其中,用户控制虚拟对象在该虚拟场景中进行移动,该虚拟对象是该虚拟场景中的一个虚拟的用于代表用户的虚拟形象,该虚拟形象是任一种形态,例如,人或者动物等,本申请对此不限定。以电子游戏为例,该电子游戏为第一人称射击游戏、第三人称射击游戏,或者其他使用热兵器类进行远程攻击的电子游戏。以射击类游戏为例,用户可以控制虚拟对象在该虚拟场景的天空中自由下落、滑翔或者打开降落伞进行下落等,在陆地上中跑动、跳动、爬行、弯腰前行等,也可以控制虚拟对象在海洋中游泳、漂浮或者下潜等,当然,用户也可以控制虚拟对象乘坐载具在该虚拟场景中进行移动。用户还可以控制虚拟对象在该虚拟场景中进出建筑物,发现并拾取该虚拟场景中的虚拟物品(例如,投掷物、兵器等道具),从而通过拾取的虚拟物品与其他虚拟对象进行战斗,例如,该虚拟物品可以是衣物、头盔、防弹衣、医疗品、冷兵器或热兵器等,也可以是其他虚拟对象被淘汰后遗留的虚拟物品。在此仅以上述场景进行举例说明,本申请实施例对此不作具体限定。
本申请实施例以电子游戏场景为例,用户提前在该终端上进行操作,该终端检测到用户的操作后,下载电子游戏的游戏配置文件,该游戏配置文件包括该电子游戏的应用程序、界面显示数据或虚拟场景数据等,以使得该用户在该终端上登录电子游戏时调用该游戏配置文件,对电子游戏界面进行渲染显示。用户在终端上进行触控操作,该终端检测到触控操作后,确定该触控操作所对应的游戏数据,并对该游戏数据进行渲染显示,该游戏数据包括虚拟场景数据和该虚拟场景中虚拟对象的行为数据等。
终端在对虚拟场景进行渲染显示时,全屏显示该虚拟场景,或者在当前显示界面显示虚拟场景的同时,在该当前显示界面的第一预设区域独立显示全局地图,或者终端在检测到对预设按钮的点击操作时,才对该全局地图进行显示。其中,该全局地图用于显示该虚拟场景的缩略图,该缩略图用于描述该虚拟场景对应的地形、地貌、地理位置等地理特征。当然,终端还可以在当前显示界面显示当前虚拟对象周边一定距离内的虚拟场景的缩略图,在检测到对该全局地图的点击操作时,在终端当前显示界面的第二预设区域显示整体虚拟场景的缩略图,以便于用户不仅能够查看其周围的虚拟场景,也能够查看整体虚拟场景。终端在检测到对该完整缩略图的缩放操作时,对完整缩略图进行缩放显示。可选地,该第一预设区域和第二预设区域的具体显示位置和形状根据用户操作习惯来设定。例如,为了不对虚拟场景造成过多的遮挡,该第一预设区域为该当前显示界面右上角、右下角、左上角或左下角的矩形区域等,该第二预设区域为当前显示界面的右边或者左边的正方形区域,或者,该第一预设区域和第二预设区域是圆形区域或其他形状的区域,本申请实施例对该预设区域的具体显示位置和形状不作限定。
图1是本申请实施例提供的一种实施环境的示意图,如图1所示,该实施环境包括终端101和服务器102。
可选地,该终端101是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能电视、智能手表等,但并不局限于此。可选地,该服务器102是独立的物理服务器,或者,该服务器102是多个物理服务器构成的服务器集群或者分布式系统,或者,该服务器102是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端101以及服务器102通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
其中,服务器102为终端101提供虚拟场景,终端101通过服务器102提供的虚拟场景,能够显示虚拟场景界面,并在虚拟场景界面中显示虚拟对象等,并且终端101能够基于虚拟场景界面,对虚拟场景进行控制。服务器102用于根据终端101对虚拟场景的控制,进行后台处理,为终端101提供后台支持。
可选地,终端101安装游戏应用,该游戏应用为服务器102提供的应用,或者为终端101操作系统中的应用,或者为第三方提供的应用。终端101与服务器102通过游戏应用进行交互。
本申请实施例提供的操作提示方法,可应用于电子游戏的场景下。
例如,虚拟对象使用虚拟枪械进行射击的场景下。
当用户想要控制虚拟对象A使用虚拟枪械射击虚拟对象B时,将虚拟枪械指向虚拟对象B,使瞄准点位于虚拟对象B的身体区域,但是从瞄准点位于虚拟对象B的身体区域,到用户按下射击按钮,需要一定的攻击准备时长,此时虚拟对象B可能已经发生移动,导致瞄准点已经不在虚拟对象B的身体区域。
因此采用本申请实施例提供的方法,当瞄准点位于虚拟对象B的身体区域,确定该瞄准点移出虚拟对象B的身体区域所需的第一距离,并确定在攻击准备时长内虚拟对象B能够移动的第二距离,如果第一距离大于第二距离,则在攻击准备时长内,瞄准点不会移出虚拟对象B的身体区域,此时执行射击操作能够击中虚拟对象B,因此将瞄准点进行突出显示,以提示用户执行攻击操作。
图2是本申请实施例提供的一种操作提示方法的流程图。本申请实施例的执行主体为终端,参见图2,该方法包括:
201、响应于瞄准点位于目标虚拟对象的身体区域,确定瞄准点移出身体区域所需的第一距离。
虚拟场景中包括多个进行对战的虚拟对象,终端显示虚拟场景界面,该虚拟场景界面包括被控虚拟对象的视角范围内的虚拟场景。被控虚拟对象是指终端登录的用户标识对应的虚拟对象,终端根据用户执行的操作,来对该被控虚拟对象进行控制。其中,虚拟场景界面中还显示有瞄准点,该瞄准点用于对虚拟场景中的位置进行瞄准。例如,当被控虚拟对象持有枪械时,该瞄准点为虚拟枪械的子弹所射击的位置;再例如,当被控虚拟对象释放技能时,该瞄准点为虚拟对象的技能释放的位置。
可选地,用户通过在终端上执行操作来调整瞄准点所瞄准的位置。例如,用户通过控制被控虚拟对象进行移动,来改变视角范围,从而调整瞄准点所瞄准的位置。再例如,当被控虚拟对象持有虚拟枪械,被控虚拟对象将虚拟枪械的瞄准镜打开,此时虚拟场景界面中显示的瞄准点为瞄准镜中的瞄准点,该瞄准点根据虚拟枪械的移动情况进行移动,则用户通过控制虚拟枪械移动来控制该瞄准点所瞄准的位置。
本申请实施例中,当用户想要控制被控虚拟对象攻击目标虚拟对象时,控制虚拟场景界面中的瞄准点瞄准目标虚拟对象,也即是控制瞄准点位于目标虚拟对象的身体区域。则终端响应于瞄准点位于目标虚拟对象的身体区域,确定该瞄准点移出该目标虚拟对象的身体区域所需的第一距离。
202、确定目标虚拟对象的第二距离。
第二距离为目标虚拟对象在攻击准备时长内相对于瞄准点的移动距离。并且,该第二距离并不是指目标虚拟对象已经移动的距离,而是目标虚拟对象在攻击准备时长内相对于瞄准点能够移动的距离。
其中,攻击准备时长是预先设置的时长,能够表示从瞄准点开始位于目标虚拟对象的身体区域的时间点,到被控虚拟对象执行攻击操作的时间点之间的时长。可选地,该攻击准备时长包括从瞄准点开始位于身体区域的时间点,到终端的用户确认瞄准点已经位于身体区域的时间点之间的时长,该攻击准备时长还包括从该用户确认瞄准点已经位于身体区域的时间点,到该用户真正执行攻击操作之间的时长。可选地,该攻击准备时长由终端默认设置。
其中,虚拟场景界面中的目标虚拟对象可以移动,该虚拟场景界面中的瞄准点可能也会移动,则目标虚拟对象的移动和瞄准点的移动,都可能使瞄准点移出目标虚拟对象的身体区域。因此该第二距离为目标虚拟对象相对于瞄准点的移动距离。
203、响应于第一距离大于第二距离,进行攻击提示。
本申请实施例中,当瞄准点位于目标虚拟对象的身体区域,此时所执行的攻击操作是对瞄准点瞄准的位置的攻击操作,也即是此时执行攻击操作,该攻击操作会命中目标虚拟对象,使得目标虚拟对象受到攻击。但是,由于存在攻击准备时长,在攻击准备时长内目标虚拟对象发生移动,导致执行攻击操作时,瞄准点瞄准的位置已经发生变化,可能已经移出了目标虚拟对象的身体区域。
若第一距离大于第二距离,说明在攻击准备时长内,即使目标虚拟对象相对于瞄准点移动了第二距离,该瞄准点也不会移出该目标虚拟对象的身体区域,也即是用户执行攻击操作,该攻击操作是能够命中目标虚拟对象的。因此,终端响应于第一距离大于第二距离,进行攻击提示,来提示用户执行攻击操作。
本申请实施例提供的方法,若瞄准点移出虚拟对象的身体区域所需的距离,大于虚拟对象在攻击准备时长内相对于瞄准点移动的距离,说明在攻击准备时长内该瞄准点不会移出身体区域,用户执行攻击操作能够命中该虚拟对象,因此进行攻击提示,以提示用户执行攻击操作,让用户更好地把握攻击的时机,提高攻击操作的命中率。
图3是本申请实施例提供的一种操作提示方法的流程图。本申请实施例的执行主体为终端,参见图3,该方法包括:
301、终端响应于瞄准点位于目标虚拟对象的身体区域,确定身体区域的目标边缘点,确定瞄准点与目标边缘点之间的第一距离。
虚拟场景中包括多个进行对战的虚拟对象,终端显示虚拟场景界面,该虚拟场景界面包括被控虚拟对象的视角范围内的虚拟场景,被控虚拟对象是指终端登录的用户标识对应的虚拟对象。其中,虚拟场景界面中还显示有瞄准点,该瞄准点用于对虚拟场景中的位置进行瞄准。例如,该瞄准点为虚拟场景界面中显示的准星;或者,该瞄准点为虚拟枪械中配置的瞄准镜中的瞄准点。
本申请实施例中,当用户想要控制被控虚拟对象攻击目标虚拟对象时,控制虚拟场景界面中的瞄准点瞄准目标虚拟对象,也即是控制瞄准点位于目标虚拟对象的身体区域。则终端响应于瞄准点位于目标虚拟对象的身体区域,确定目标虚拟对象的身体区域的目标边缘点,则该目标边缘点与瞄准点之间的距离,即为瞄准点移出该身体区域所需的第一距离。
在一种可能实现方式中,为了便于获取身体区域的目标边缘点,终端将目标虚拟对象的身体区域设置为矩形区域。或者,终端将目标虚拟对象的身体区域设置为矩形区域和圆形区域组合构成的区域,通过矩形区域表示目标虚拟对象的躯干和四肢,通过圆形区域表示目标虚拟对象的头部。或者,为了提高处理精度,终端将目标虚拟对象的身体区域设置为目标虚拟对象的轮廓对应的区域。
在一种可能实现方式中,终端确定瞄准点相对于目标虚拟对象的移动方向,根据以瞄准点为起始点且沿移动方向的射线,将该射线与身体区域的边界线的交点确定为目标边缘点。
瞄准点相对于目标虚拟对象的移动方向,即为瞄准点移出目标虚拟对象的身体区域的方向,则终端确定以该瞄准点为起始点且沿该移动方向的射线,该射线可以看作瞄准点移出目标虚拟对象的身体区域的移动轨迹,因此该射线与身体区域的边界线的交点,即为瞄准点移出身体区域的过程中,所经过的身体区域的最后一个点,该交点与瞄准点之间的距离即为瞄准点移出身体区域所需的第一距离,因此终端将该交点确定为目标边缘点。
可选地,瞄准点在虚拟场景界面中处于静止状态,则瞄准点相对于目标虚拟对象的移动方向,为与目标虚拟对象的移动方向相反的方向。
可选地,瞄准点和目标虚拟对象在虚拟场景界面中均处于移动状态,则终端根据瞄准点在虚拟场景界面中的第一移动速度和第一移动方向,以及目标虚拟对象在虚拟场景界面中的第二移动速度和第二移动方向,来确定瞄准点相对于目标虚拟对象的移动方向。
图4是本申请实施例提供的一种移动方向的示意图,参见图4,虚拟场景界面中显示目标虚拟对象401和瞄准镜中的瞄准点402。若瞄准点402处于静止状态,当目标虚拟对象401向左移动,则瞄准点402相对于目标虚拟对象401向右移动;当目标虚拟对象401向右后方移动,则瞄准点402相对于目标虚拟对象401向左前方移动;当目标虚拟对象401后退,在虚拟场景界面中显示为目标虚拟对象401向上移动,则瞄准点402相对于目标虚拟对象401向下移动。
图5是本申请实施例提供的一种第一距离的示意图,参见图5,瞄准点O位于虚拟对象的身体区域501中,虚拟对象水平向右移动,则瞄准点O相对于虚拟对象水平向左移动,确定以瞄准点O为起始点沿水平向左的方向的射线,该射线与身体区域501的边界线的交点为边缘点A,则瞄准点O与边缘点A之间的距离为瞄准点O移出身体区域501所需的距离。
在另一种可能实现方式中,终端将身体区域中与瞄准点之间的距离最远的边缘点,确定为目标边缘点。瞄准点移出目标虚拟对象的身体区域所需的距离,也即是瞄准点与身体区域的多个边缘点之间的距离中的最远距离,因此将与瞄准点之间的距离最远的边缘点,确定为目标边缘点,从而将该目标边缘点与瞄准点之间的距离确定为瞄准点移出身体区域所需的第一距离。
在另一种可能实现方式中,终端确定经过瞄准点且沿水平方向的直线,与身体区域的边界线的两个交点,将两个交点中与瞄准点之间的距离最远的交点,确定为目标边缘点。
考虑到在虚拟场景界面中,瞄准点相对于目标虚拟对象的移动方向为水平方向的可能性大于其他方向,则终端确定经过瞄准点且沿水平方向的直线,该沿水平方向的直线可以看作瞄准点移出身体区域的移动轨迹,因此该沿水平方向的直线与身体区域的边界线的两个交点,可能为瞄准点移出身体区域的过程中,所经过的身体区域的最后一个点,则瞄准点移出目标虚拟对象的身体区域所需的距离,也即是瞄准点与这两个交点之间的距离中的最远距离,因此将两个交点中与瞄准点之间的距离最远的交点,确定为目标边缘点,从而将该目标边缘点与瞄准点之间的距离确定为瞄准点移出身体区域所需的第一距离。
需要说明的是,本申请实施例仅以将瞄准点和目标边缘点之间的距离确定瞄准点移出身体区域所需的第一距离为例进行说明,在另一实施例中,终端还可以采用其他方法,来确定瞄准点移出身体区域所需的第一距离。
需要说明的是,本申请实施例仅以响应于瞄准点位于目标虚拟对象的身体区域,则确定第一距离为例进行说明,在另一实施例中,终端响应于瞄准点位于目标虚拟对象的身体区域,且目标虚拟对象处于移动状态,确定该第一距离。若瞄准点位于目标虚拟对象的身体区域,但目标虚拟对象并未处于移动状态,而是处于静止状态,则无需确定瞄准点移出该身体区域所需的第一距离,也无需执行下述步骤302-303,而是直接进行攻击提示。
302、终端确定目标虚拟对象相对于瞄准点的目标移动速度,根据目标移动速度和攻击准备时长,确定第二距离。
第二距离为目标虚拟对象在攻击准备时长内相对于瞄准点的移动距离。由于虚拟场景界面中的目标虚拟对象能够移动,该虚拟场景界面中的瞄准点可能也能够移动,则目标虚拟对象的移动和瞄准点的移动,都可能使瞄准点移出目标虚拟对象的身体区域,因此为了确定目标虚拟对象在攻击准备时长内相对于瞄准点的移动距离,要先确定目标虚拟对象相对于瞄准点的目标移动速度。可选地,该目标移动速度与该攻击准备时长的乘积,即为目标虚拟对象相对于瞄准点移动的第二距离。其中,攻击准备时长是预先设置的时长,能够表示从瞄准点开始位于目标虚拟对象的身体区域的时间点,到被控虚拟对象执行攻击操作的时间点之间的时长。
在一种可能实现方式中,终端获取目标虚拟对象在虚拟场景界面中的第一移动速度和第一移动方向,获取瞄准点在虚拟场景界面中的第二移动速度和第二移动方向,根据第一移动速度、第一移动方向、第二移动速度和第二移动方向,确定目标移动速度。
当虚拟场景界面中的目标虚拟对象和瞄准点均处于移动状态,则目标虚拟对象和瞄准点的移动速度与移动方向均会对目标虚拟对象和瞄准点之间的相对移动速度产生影响。因此,终端获取目标虚拟对象的第一移动速度和第一移动方向,以及瞄准点的第二移动速度和第二移动方向,根据第一移动速度、第一移动方向、第二移动速度和第二移动方向,确定目标虚拟对象相对于瞄准点的目标移动速度。
可选地,终端根据第一移动方向和第二移动方向,确定第一移动速度和第二移动速度的矢量和,该矢量和即为目标虚拟对象相对于瞄准点的目标移动速度。例如,响应于第一移动方向与第二移动方向相同,则终端将第一移动速度与第二移动速度的和,作为该目标移动速度;再例如,响应于第一移动方向与第二移动方向相反,则终端将第一移动速度与第二移动速度的差值,作为该目标移动速度。
在另一种可能实现方式中,在瞄准点处于静止状态的情况下,将目标虚拟对象在虚拟场景界面中的移动速度,确定为目标移动速度。
若瞄准点处于静止状态,则目标虚拟对象在虚拟场景界面中的移动速度,即为该目标虚拟对象相对于该瞄准点的移动速度,因此终端将目标虚拟对象在虚拟场景界面中的移动速度,确定为目标虚拟对象相对于该瞄准点的目标移动速度。
在另一种可能实现方式中,攻击准备时长能够表示从瞄准点开始位于目标虚拟对象的身体区域的时间点,到被控虚拟对象执行攻击操作的时间点之间的时长,该攻击准备时长包括瞄准点确认时长和触发攻击操作时长,第二距离包括瞄准点确认距离和触发攻击操作距离。
其中,瞄准点确认时长是预先设置的时长能够表示从瞄准点开始位于目标虚拟对象的身体区域的时间点,到用户确认瞄准点已经位于身体区域的时间点之间的时长,瞄准点确认距离是指目标虚拟对象在瞄准点确认时长内相对于瞄准点的移动距离。
其中,触发攻击操作时长是预先设置的时长,能够表示从用户确认瞄准点已经位于身体区域的时间点,到用户真正执行攻击操作的时间点之间的时长。触发攻击操作距离是指目标虚拟对象在触发攻击操作时长内相对于瞄准点的移动距离。
可选地,由于终端可以采用突出显示瞄准点等方式,来提示用户瞄准点已经位于身体区域,从而减小瞄准点确认时长。而触发攻击操作时长是用户确认瞄准点已经位于身体区域的时间点,到真正执行攻击操作所需的时长,也即是人体的神经反应时长,该时长难以通过终端来减小。因此在本申请实施例中,终端将攻击准备时长近似为人体的神经反应时长,来设置该攻击准备时长。可选地,人体最快的神经反应时长为0.1秒,则终端将攻击准备时长设置为0.1秒。
或者,终端按照其他方式设置该攻击准备时长,本申请实施例对此不做限定。
通过执行上述步骤302,实现了根据目标移动速度和攻击准备时长来确定目标虚拟对象的第二距离。在另一实施例中,终端还可以采用其他方法,来确定该第二距离。
303、终端响应于第一距离大于第二距离,进行攻击提示。
本申请实施例中,响应于瞄准点位于目标虚拟对象的身体区域,此时所执行的攻击操作是对瞄准点瞄准的位置的攻击操作,也即是此时执行攻击操作,该攻击操作会命中目标虚拟对象,使得目标虚拟对象受到攻击。但是,由于存在攻击准备时长,在攻击准备时长内目标虚拟对象相对于瞄准点会移动第二距离,导致执行攻击操作时,瞄准点瞄准的位置已经发生变化,可能已经移出了目标虚拟对象的身体区域,因此需要确定攻击准备时长内,瞄准点是否会移出身体区域。
由于第一距离为瞄准点移出身体区域所需的距离,第二距离为目标虚拟对象在攻击准备时长内相对于瞄准点的移动距离,也即是第二距离为瞄准点在攻击准备时长内相对于目标虚拟对象的移动距离。因此,若第一距离大于第二距离,说明在攻击准备时长内,该瞄准点不会移出该目标虚拟对象的身体区域,也即是执行攻击操作,该攻击操作是能够命中目标虚拟对象,使目标虚拟对象受到攻击的。则终端响应于第一距离大于第二距离,进行攻击提示,来提示用户执行攻击操作。
若第一距离不大于第二距离,说明在攻击准备时长内,该瞄准点已经移出该目标虚拟对象的身体区域,即使用户执行了攻击操作,该攻击操作也不会命中目标虚拟对象的,导致用户执行的攻击操作无效,因此终端无需进行攻击提示,用户没有看到攻击提示,则不执行攻击操作,从而降低误判率,能够减少用户执行无效操作的次数,从而提高人机交互的效率。并且,在攻击操作需要使用虚拟资源的情况下,还能够避免虚拟资源被浪费,起到节约虚拟资源的效果。
在一种可能实现方式中,终端响应于第一距离大于第二距离,将瞄准点突出显示。由于在对战过程中,为了使攻击操作命中目标虚拟对象,用户会时刻注意虚拟场景界面中显示的瞄准点,因此通过将瞄准点突出显示,能够非常直观地提示用户执行攻击操作,提高操作提示的便捷性。
可选地,终端将瞄准点突出显示,包括以下至少一项:
(1)终端将瞄准点的尺寸放大。
(2)终端将瞄准点的亮度调高。
(3)终端将瞄准点从静态显示切换为动态显示。例如,终端将瞄准点进行闪烁显示。
(4)终端显示瞄准点对应的特效。例如,终端在瞄准点的边界线处显示光圈,来提示用户执行攻击操作。
可选地,终端将采用第一显示方式显示的瞄准点,切换为采用第二显示方式显示的瞄准点。其中,第一显示方式为普通显示,第二显示方式为突出显示,从而通过采用第二显示方式显示该瞄准点,来提示用户执行攻击操作。例如,第一显示方式为采用较小的尺寸来显示瞄准点,第二显示方式为采用较大的尺寸来显示瞄准点。
图6是本申请实施例提供的一种瞄准点的示意图,虚拟场景界面中的瞄准点601位于虚拟对象的身体区域,响应于终端确定第一距离大于第二距离,则将该瞄准点601的尺寸放大。
在另一种可能实现方式中,终端响应于第一距离大于第二距离,显示攻击操作提示信息。终端可以采用显示攻击操作提示信息的方式,来提示用户执行攻击操作。例如,在使用虚拟枪械射击目标虚拟对象的场景下,终端显示“请射击”的文字提示信息。或者,终端通过在虚拟场景界面中显示射击图标,来提示用户执行射击操作。
需要说明的是,本申请实施例仅以终端确定第一距离大于第二距离的情况下,进行攻击提示。在另一实施例中,终端响应于瞄准点位于目标虚拟对象的身体区域,且目标虚拟对象处于静止状态,进行攻击提示。由于目标虚拟对象处于静止状态,此时用户为了瞄准目标虚拟对象,也不会移动瞄准点,因此瞄准点不会相对于目标虚拟对象发生移动,也即是在攻击准备时长内,瞄准点不会移出目标虚拟对象的身体区域,则终端无需确定第一距离和第二距离,直接进行攻击提示,来提示用户执行攻击操作。
304、终端响应于攻击操作,控制被控虚拟对象根据瞄准点所在的位置进行攻击。
若用户确定瞄准点已经瞄准目标虚拟对象,则执行攻击操作,终端响应于该攻击操作,则控制被控虚拟对象根据瞄准点当前所在的位置进行攻击,也即是向瞄准点瞄准的位置进行攻击。
其中,若用户在终端进行攻击提示的过程中,执行攻击操作,此时瞄准点仍然位于目标虚拟对象的身体区域,终端控制被控虚拟对象根据瞄准点所在的位置进行攻击,该攻击操作能够命中该目标虚拟对象,使虚拟对象受到攻击。
在一种可能实现方式中,攻击操作需要使用虚拟资源。则终端控制被控虚拟对象进行攻击后,从该被控虚拟对象的虚拟资源库中扣除对应数量的虚拟资源。例如,该虚拟资源为虚拟枪械对应的子弹。
在一种可能实现方式中,该攻击操作为射击操作,则终端响应于射击操作,控制被控虚拟对象使用虚拟枪械,根据瞄准点所在的位置进行射击,也即是向瞄准点瞄准的位置进行射击。
可选地,当被控虚拟对象手持虚拟枪械时,若被控虚拟对象打开虚拟枪械中配置的瞄准镜,则终端在虚拟场景界面中显示瞄准镜中的瞄准点,该瞄准点瞄准的位置,为虚拟枪械射击的位置。虚拟场景中还显示有射击按钮,用户确定该瞄准点已经瞄准目标虚拟对象,则执行对该射击按钮的触发操作。终端响应于对射击按钮的触发操作,控制被控虚拟对象向瞄准点所在的位置进行射击。例如,若虚拟枪械射击子弹,该瞄准点所在的位置即为虚拟枪械射击子弹后,子弹落下的位置。因此,所瞄准点位于目标虚拟对象的身体区域,则目标虚拟对象的身体区域会被子弹击中。
并且,在使用虚拟枪械射击目标虚拟对象的场景下,通过进行攻击提示能够降低误判率,减少用户执行无效射击操作的次数,能够避免虚拟枪械的子弹被浪费,起到节约子弹的效果。
在另一种可能实现方式中,该攻击操作为技能释放操作。则终端响应于技能释放操作,控制被控虚拟对象根据瞄准点所在的位置释放技能。
其中,该技能为远程攻击的技能,例如该技能效果为减少生命值、降低移动速度或者限制移动等,本申请实施例对此不做限定。当用户想要向目标虚拟对象释放技能,来对目标虚拟对象进行攻击,则用户确定瞄准点瞄准目标虚拟对象时,执行技能释放操作。终端响应于技能释放操作,控制被控虚拟对象向瞄准点所在的位置释放技能。若此时瞄准点位于目标虚拟对象的身体区域,则该释放的技能命中该目标虚拟对象。
需要说明的是,本申请实施例仅以在执行步骤303之后,执行步骤304为例进行说明。而在另一实施例中,在终端执行步骤303-303以及下述步骤305-306的任一时刻,均可以同步执行该步骤304。或者,若用户并没有执行攻击操作,则终端无需执行该步骤304。
305、终端确定目标虚拟对象的第三距离。
从瞄准点位于目标虚拟对象的身体区域开始,终端实时确定目标虚拟对象的第三距离。该第三距离是指瞄准点位于身体区域的时间段内,该目标虚拟对象的移动距离。也即是从瞄准点位于目标虚拟对象的身体区域的时间点,到当前时间点的这段时长内,目标虚拟对象已经移动的距离。
在一种可能实现方式中,终端获取瞄准点开始位于身体区域时,目标虚拟对象所处的第一位置,并获取目标虚拟对象当前所处的第二位置,确定第一位置与第二位置之间的第三距离,该第一位置与第二位置之间的第三距离即为瞄准点位于身体区域的时间段内,该目标虚拟对象的移动距离。
306、终端响应于第三距离大于第一距离与第二距离的差值,取消攻击提示。
目标虚拟对象的第三距离是指瞄准点位于身体区域的时间段内,该目标虚拟对象的移动距离。因此该第三距离也是瞄准点位于身体区域的时间段内,该瞄准点的实际移动距离。终端确定第一距离与第二距离之间的差值,若该第三距离大于第一距离与第二距离的差值,说明瞄准点当前移出目标虚拟对象所需的距离,不大于目标虚拟对象的第二距离,此时执行攻击操作无法命中目标虚拟对象,则终端取消攻击提示,不再提示用户执行攻击操作。
在一种可能实现方式中,终端响应于第三距离大于第一距离与第二距离的差值,取消瞄准点的突出显示。
可选地,终端取消瞄准点的突出显示,包括以下至少一项:
(1)终端将瞄准点的尺寸缩小。
(2)终端将瞄准点的亮度调低。
(3)终端将瞄准点从动态显示切换为静态显示。
(4)终端取消显示瞄准点对应的特效。
可选地,终端将采用第二显示方式显示的瞄准点,切换为采用第一显示方式显示的瞄准点。其中,第一显示方式为普通显示,第二显示方式为突出显示。例如,第一显示方式为采用较小的尺寸来显示瞄准点,第二显示方式为采用较大的尺寸来显示瞄准点。
在另一种可能实现方式中,终端响应于第三距离大于第一距离与第二距离的差值,取消显示攻击操作提示信息,从而取消攻击提示。
需要说明的是,本申请实施例仅以第三距离大于第一距离与第二距离的差值为例进行说明。相应地,在另一实施例中,若第三距离不大于第一距离与第二距离的差值,说明瞄准点当前移出目标虚拟对象的身体区域所需的距离,仍然大于目标虚拟对象的第二距离,则终端继续进行攻击提示。
需要说明的是,本申请实施例仅以确定第三距离大于第一距离与第二距离的差值时,继续进行攻击显示为例进行说明。而在另一实施例中,终端无需实时确定目标虚拟对象的第三距离,而是实时确定当前瞄准点移出目标虚拟对象的身体区域所需的第一距离,响应于该重新确定的第一距离不大于第二距离,则取消攻击提示。或者若该重新确定的第一距离仍然大于第二距离,则继续进行攻击提示。
本申请实施例提供的方法中,若瞄准点移出虚拟对象的身体区域所需的距离,大于虚拟对象在攻击准备时长内相对于瞄准点移动的距离,说明在攻击准备时长内该瞄准点不会移出身体区域,用户执行攻击操作能够命中该虚拟对象,因此进行攻击提示,以提示用户执行攻击操作,让用户更好地把握攻击的时机,提高攻击操作的命中率。
并且,由于进行攻击提示能够降低误判率,减少用户执行无效操作的次数,因此能够提高人机交互的效率。并且,在攻击操作需要使用虚拟资源的情况下,还能够避免虚拟资源被浪费,起到节约虚拟资源的效果。
并且,由于在对战过程中,为了使攻击操作命中目标虚拟对象,用户会时刻注意虚拟场景界面中显示的瞄准点,因此通过将瞄准点突出显示,能够非常直观且清晰地提示用户执行攻击操作,提高操作提示的有效性。
图7是本申请实施例提供的一种操作提示方法的流程图,参见图7,该方法包括:
1、终端检测瞄准点的位置;
2、终端判断瞄准点是否位于目标虚拟对象的身体区域,如果是,则执行下述步骤2,如果否,则继续执行上述步骤1;
3、终端确定瞄准点移出身体区域的第一距离,以及该目标虚拟对象在攻击准备时长内相对于瞄准点能够移动的第二距离;
4、终端判断第一距离是否大于第二距离,如果是,则终端执行下述步骤5,如果否,则执行下述步骤7;
5、终端将瞄准点突出显示;
6、终端判断目标虚拟对象移动的第三距离是否大于第一距离和第二距离的差值,如果是,则终端继续执行上述步骤5,如果否,则终端执行下述步骤7;
7、终端将瞄准点正常显示,正常显示是指终端不对瞄准点进行突出显示。
图8是本申请实施例提供的一种操作提示装置的结构示意图。参见图8,该装置包括:
第一距离确定模块801,用于响应于瞄准点位于目标虚拟对象的身体区域,确定瞄准点移出身体区域所需的第一距离;
第二距离确定模块802,用于确定目标虚拟对象的第二距离,第二距离为目标虚拟对象在攻击准备时长内相对于瞄准点的移动距离;
攻击提示模块803,用于响应于第一距离大于第二距离,进行攻击提示。
可选地,参见图9,攻击提示模块803,包括:
突出显示单元8031,用于响应于第一距离大于第二距离,将瞄准点突出显示。
可选地,参见图9,突出显示单元8031,用于执行以下至少一项:
将瞄准点的尺寸放大;
将瞄准点的亮度调高;
将瞄准点从静态显示切换为动态显示;
显示瞄准点对应的特效。
可选地,参见图9,攻击提示模块803,包括:
提示信息显示单元8032,用于响应于第一距离大于第二距离,显示攻击操作提示信息。
可选地,参见图9,第一距离确定模块801,包括:
边缘点确定单元8011,用于响应于瞄准点位于目标虚拟对象的身体区域,确定身体区域的目标边缘点;
第一距离确定单元8012,用于确定瞄准点与目标边缘点之间的第一距离。
可选地,参见图9,边缘点确定单元8011,用于:
确定瞄准点相对于目标虚拟对象的移动方向;
根据以瞄准点为起始点且沿移动方向的射线,将射线与身体区域的边界线的交点确定为目标边缘点。
可选地,参见图9,边缘点确定单元8011,用于:
将身体区域中与瞄准点之间的距离最远的边缘点,确定为目标边缘点。
可选地,参见图9,边缘点确定单元8011,用于:
确定经过瞄准点且沿水平方向的直线,与身体区域的边界线的两个交点;
将两个交点中与瞄准点之间的距离最远的交点,确定为目标边缘点。
可选地,参见图9,第二距离确定模块802,包括:
移动速度确定单元8021,用于确定目标虚拟对象相对于瞄准点的目标移动速度;
第二距离确定单元8022,用于根据目标移动速度和攻击准备时长,确定第二距离。
可选地,参见图9,移动速度确定单元8021,用于:
获取目标虚拟对象在虚拟场景界面中的第一移动速度和第一移动方向;
获取瞄准点在虚拟场景界面中的第二移动速度和第二移动方向;
根据第一移动速度、第一移动方向、第二移动速度和第二移动方向,确定目标移动速度。
可选地,参见图9,移动速度确定单元8021,用于:
在瞄准点处于静止状态的情况下,将目标虚拟对象在虚拟场景界面中的移动速度,确定为目标移动速度。
可选地,参见图9,装置还包括:
第三距离确定模块804,用于确定目标虚拟对象的第三距离,第三距离为瞄准点位于身体区域的时间段内,目标虚拟对象的移动距离;
攻击提示模块803,还用于响应于第三距离大于第一距离与第二距离的差值,取消攻击提示。
可选地,参见图9,第三距离确定模块804,包括:
第一位置获取单元8041,用于获取瞄准点开始位于身体区域时,目标虚拟对象所处的第一位置;
第二位置获取单元8042,用于获取目标虚拟对象当前所处的第二位置;
第三距离确定单元8043,用于确定第一位置与第二位置之间的第三距离。
可选地,参见图9,第一距离确定单元8012,用于:
响应于瞄准点位于目标虚拟对象的身体区域,且目标虚拟对象处于移动状态,确定第一距离。
可选地,参见图9,攻击提示模块803,还用于:
响应于瞄准点位于目标虚拟对象的身体区域,且目标虚拟对象处于静止状态,进行攻击提示。
可选地,参见图9,装置还包括:
攻击模块805,用于响应于攻击操作,控制被控虚拟对象根据瞄准点所在的位置进行攻击。
可选地,参见图9,攻击模块805,包括:
射击单元8051,用于响应于射击操作,控制被控虚拟对象使用虚拟枪械,根据瞄准点所在的位置进行射击;或者,
技能释放单元8052,用于响应于技能释放操作,控制被控虚拟对象根据瞄准点所在的位置释放技能。
需要说明的是:上述实施例提供的操作提示装置在提示执行操作时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将终端的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的操作提示装置与操作提示方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请实施例提供的操作提示装置,若瞄准点移出虚拟对象的身体区域所需的距离,大于虚拟对象在攻击准备时长内相对于瞄准点移动的距离,说明在攻击准备时长内该瞄准点不会移出身体区域,用户执行攻击操作能够命中该虚拟对象,因此进行攻击提示,以提示用户执行攻击操作,让用户更好地把握攻击的时机,提高攻击操作的命中率。
图10示出了本申请一个示例性实施例提供的终端1000的结构示意图。终端1000可以用于执行上述操作提示方法中终端所执行的步骤。
终端1000包括有:处理器1001和存储器1002。
处理器1001可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1001可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1001也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(CentralProcessing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1001可以集成有GPU(Graphics Processing Unit,图像处理的交互器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1001还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1002可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1002还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1002中的非暂态的计算机可读存储介质用于存储至少一条程序代码,该至少一条程序代码用于被处理器1001所具有以实现本申请中方法实施例提供的操作提示方法。
在一些实施例中,终端1000还可选包括有:外围设备接口1003和至少一个外围设备。处理器1001、存储器1002和外围设备接口1003之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1003相连。可选地,外围设备包括:射频电路1004、显示屏1005、摄像头组件1006、音频电路1007和电源1009中的至少一种。
外围设备接口1003可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1001和存储器1002。在一些实施例中,处理器1001、存储器1002和外围设备接口1003被集成在同一芯片或电路板上;在一些其他实施例中,处理器1001、存储器1002和外围设备接口1003中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1004用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1004通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1004将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1004包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1004可以通过至少一种无线通信协议来与其它设备进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1004还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1005用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1005是触摸显示屏时,显示屏1005还具有采集在显示屏1005的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1001进行处理。此时,显示屏1005还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1005可以为一个,设置在终端1000的前面板;在另一些实施例中,显示屏1005可以为至少两个,分别设置在终端1000的不同表面或呈折叠设计;在另一些实施例中,显示屏1005可以是柔性显示屏,设置在终端1000的弯曲表面上或折叠面上。甚至,显示屏1005还可以设置成非矩形的不规则图形,也即异形屏。显示屏1005可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-EmittingDiode,有机发光二极管)等材质制备。
摄像头组件1006用于采集图像或视频。可选地,摄像头组件1006包括前置摄像头和后置摄像头。前置摄像头设置在终端1000的前面板,后置摄像头设置在终端1000的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1006还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1007可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1001进行处理,或者输入至射频电路1004以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1000的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1001或射频电路1004的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1007还可以包括耳机插孔。
电源1009用于为终端1000中的各个组件进行供电。电源1009可以是交流电、直流电、一次性电池或可充电电池。当电源1009包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1000还包括有一个或多个传感器1010。该一个或多个传感器1010包括但不限于:加速度传感器1011、陀螺仪传感器1012、压力传感器1013、光学传感器1015以及接近传感器1016。
加速度传感器1011可以检测以终端1000建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1011可以用于检测重力加速度在三个坐标轴上的分量。处理器1001可以根据加速度传感器1011采集的重力加速度信号,控制显示屏1005以横向视图或纵向视图进行用户界面的显示。加速度传感器1011还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1012可以检测终端1000的机体方向及转动角度,陀螺仪传感器1012可以与加速度传感器1011协同采集用户对终端1000的3D动作。处理器1001根据陀螺仪传感器1012采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1013可以设置在终端1000的侧边框和/或显示屏1005的下层。当压力传感器1013设置在终端1000的侧边框时,可以检测用户对终端1000的握持信号,由处理器1001根据压力传感器1013采集的握持信号进行左右手识别或快捷操作。当压力传感器1013设置在显示屏1005的下层时,由处理器1001根据用户对显示屏1005的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
光学传感器1015用于采集环境光强度。在一个实施例中,处理器1001可以根据光学传感器1015采集的环境光强度,控制显示屏1005的显示亮度。可选地,当环境光强度较高时,调高显示屏1005的显示亮度;当环境光强度较低时,调低显示屏1005的显示亮度。在另一个实施例中,处理器1001还可以根据光学传感器1015采集的环境光强度,动态调整摄像头组件1006的拍摄参数。
接近传感器1016,也称距离传感器,设置在终端1000的前面板。接近传感器1016用于采集用户与终端1000的正面之间的距离。在一个实施例中,当接近传感器1016检测到用户与终端1000的正面之间的距离逐渐变小时,由处理器1001控制显示屏1005从亮屏状态切换为息屏状态;当接近传感器1016检测到用户与终端1000的正面之间的距离逐渐变大时,由处理器1001控制显示屏1005从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图10中示出的结构并不构成对终端1000的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例还提供了一种终端,该终端包括处理器和存储器,存储器中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述实施例的操作提示方法中所执行的操作。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述实施例的操作提示方法中所执行的操作。
本申请实施例还提供了一种计算机程序产品或计算机程序,计算机程序产品或计算机程序包括计算机程序代码,计算机程序代码存储在计算机可读存储介质中,终端的处理器从计算机可读存储介质读取计算机程序代码,处理器执行计算机程序代码,使得终端实现如上述实施例的操作提示方法中所执行的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请实施例的可选实施例,并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (18)

1.一种操作提示方法,其特征在于,所述方法包括:
响应于瞄准点位于目标虚拟对象的身体区域,确定所述瞄准点移出所述身体区域所需的第一距离;
确定所述目标虚拟对象的第二距离,所述第二距离为所述目标虚拟对象在攻击准备时长内相对于所述瞄准点的移动距离,所述攻击准备时长用于表示从所述瞄准点开始位于所述身体区域的时间点,到被控虚拟对象执行攻击操作的时间点之间的时长;
响应于所述第一距离大于所述第二距离,进行攻击提示,所述攻击提示用于提示此时若执行所述攻击操作,所述攻击操作能够命中所述目标虚拟对象;
所述响应于瞄准点位于目标虚拟对象的身体区域,确定所述瞄准点移出所述身体区域所需的第一距离,包括:
响应于所述瞄准点位于所述目标虚拟对象的身体区域,确定所述身体区域的目标边缘点;
确定所述瞄准点与所述目标边缘点之间的所述第一距离;
所述确定所述身体区域的目标边缘点,包括:
确定所述瞄准点相对于所述目标虚拟对象的移动方向;
根据以所述瞄准点为起始点且沿所述移动方向的射线,将所述射线与所述身体区域的边界线的交点确定为所述目标边缘点。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述第一距离大于所述第二距离,进行攻击提示,包括:
响应于所述第一距离大于所述第二距离,将所述瞄准点突出显示。
3.根据权利要求2所述的方法,其特征在于,所述将所述瞄准点突出显示,包括以下至少一项:
将所述瞄准点的尺寸放大;
将所述瞄准点的亮度调高;
将所述瞄准点从静态显示切换为动态显示;
显示所述瞄准点对应的特效。
4.根据权利要求1所述的方法,其特征在于,所述响应于所述第一距离大于所述第二距离,进行攻击提示,包括:
响应于所述第一距离大于所述第二距离,显示攻击操作提示信息。
5.根据权利要求1所述的方法,其特征在于,所述根据以所述瞄准点为起始点且沿所述移动方向的射线,将所述射线与所述身体区域的边界线的交点确定为所述目标边缘点,包括:
当所述瞄准点相对于所述目标虚拟对象的移动方向为水平方向时,确定经过所述瞄准点且沿所述水平方向的射线,与所述身体区域的边界线的交点;
将所述交点确定为所述目标边缘点。
6.根据权利要求1所述的方法,其特征在于,所述确定所述目标虚拟对象的第二距离,包括:
确定所述目标虚拟对象相对于所述瞄准点的目标移动速度;
根据所述目标移动速度和所述攻击准备时长,确定所述第二距离。
7.根据权利要求6所述的方法,其特征在于,所述确定所述目标虚拟对象相对于所述瞄准点的目标移动速度,包括:
获取所述目标虚拟对象在虚拟场景界面中的第一移动速度和第一移动方向;
获取所述瞄准点在所述虚拟场景界面中的第二移动速度和第二移动方向;
根据所述第一移动速度、所述第一移动方向、所述第二移动速度和所述第二移动方向,确定所述目标移动速度。
8.根据权利要求6所述的方法,其特征在于,所述确定所述目标虚拟对象相对于所述瞄准点的目标移动速度,包括:
在所述瞄准点处于静止状态的情况下,将所述目标虚拟对象在虚拟场景界面中的移动速度,确定为所述目标移动速度。
9.根据权利要求1所述的方法,其特征在于,所述响应于所述第一距离大于所述第二距离,进行攻击提示之后,所述方法还包括:
确定所述目标虚拟对象的第三距离,所述第三距离为所述瞄准点位于所述身体区域的时间段内,所述目标虚拟对象的移动距离;
响应于所述第三距离大于所述第一距离与所述第二距离的差值,取消攻击提示。
10.根据权利要求9所述的方法,其特征在于,所述确定所述目标虚拟对象的第三距离,包括:
获取所述瞄准点开始位于所述身体区域时,所述目标虚拟对象所处的第一位置;
获取所述目标虚拟对象当前所处的第二位置;
确定所述第一位置与所述第二位置之间的所述第三距离。
11.根据权利要求1所述的方法,其特征在于,所述响应于瞄准点位于目标虚拟对象的身体区域,确定所述瞄准点移出所述身体区域所需的第一距离,包括:
响应于所述瞄准点位于所述目标虚拟对象的身体区域,且所述目标虚拟对象处于移动状态,确定所述第一距离。
12.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述瞄准点位于所述目标虚拟对象的身体区域,且所述目标虚拟对象处于静止状态,进行攻击提示。
13.根据权利要求1-12任一项所述的方法,其特征在于,所述方法还包括:
响应于所述攻击操作,控制所述被控虚拟对象根据所述瞄准点所在的位置进行攻击。
14.根据权利要求13所述的方法,其特征在于,所述响应于所述攻击操作,控制所述被控虚拟对象根据所述瞄准点所在的位置进行攻击,包括:
响应于射击操作,控制所述被控虚拟对象使用虚拟枪械,根据所述瞄准点所在的位置进行射击;或者,
响应于技能释放操作,控制所述被控虚拟对象根据所述瞄准点所在的位置释放技能。
15.一种操作提示装置,其特征在于,所述装置包括:
第一距离确定模块,用于响应于瞄准点位于目标虚拟对象的身体区域,确定所述瞄准点移出所述身体区域所需的第一距离;
第二距离确定模块,用于确定所述目标虚拟对象的第二距离,所述第二距离为所述目标虚拟对象在攻击准备时长内相对于所述瞄准点的移动距离,所述攻击准备时长用于表示从所述瞄准点开始位于所述身体区域的时间点,到被控虚拟对象执行攻击操作的时间点之间的时长;
攻击提示模块,用于响应于所述第一距离大于所述第二距离,进行攻击提示,所述攻击提示用于提示此时若执行所述攻击操作,所述攻击操作能够命中所述目标虚拟对象;
所述第一距离确定模块,包括:
边缘点确定单元,用于响应于所述瞄准点位于所述目标虚拟对象的身体区域,确定所述身体区域的目标边缘点;
第一距离确定单元,用于确定所述瞄准点与所述目标边缘点之间的所述第一距离;
所述边缘点确定单元,还用于确定所述瞄准点相对于所述目标虚拟对象的移动方向;根据以所述瞄准点为起始点且沿所述移动方向的射线,将所述射线与所述身体区域的边界线的交点确定为所述目标边缘点。
16.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至14任一项所述的操作提示方法中所执行的操作。
17.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至14任一项所述的操作提示方法中所执行的操作。
18.一种计算机程序产品或计算机程序,其特征在于,所述计算机程序产品或所述计算机程序包括计算机程序代码,所述计算机程序代码存储在计算机可读存储介质中,终端的处理器从所述计算机可读存储介质读取所述计算机程序代码,所述处理器执行所述计算机程序代码,使得所述终端实现如权利要求1至14任一项所述的操作提示方法中所执行的操作。
CN202011057681.7A 2020-09-29 2020-09-29 操作提示方法、装置、终端及存储介质 Active CN112121438B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202011057681.7A CN112121438B (zh) 2020-09-29 2020-09-29 操作提示方法、装置、终端及存储介质
KR1020227044215A KR20230011402A (ko) 2020-09-29 2021-09-14 조작 프롬프트 방법 및 장치, 단말기, 그리고 저장 매체
JP2022567843A JP7423137B2 (ja) 2020-09-29 2021-09-14 操作提示方法、装置、端末及びコンピュータプログラム
PCT/CN2021/118239 WO2022068573A1 (zh) 2020-09-29 2021-09-14 操作提示方法、装置、终端及存储介质
US17/986,716 US20230070612A1 (en) 2020-09-29 2022-11-14 Operation prompting method and apparatus, terminal, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011057681.7A CN112121438B (zh) 2020-09-29 2020-09-29 操作提示方法、装置、终端及存储介质

Publications (2)

Publication Number Publication Date
CN112121438A CN112121438A (zh) 2020-12-25
CN112121438B true CN112121438B (zh) 2022-06-07

Family

ID=73843330

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011057681.7A Active CN112121438B (zh) 2020-09-29 2020-09-29 操作提示方法、装置、终端及存储介质

Country Status (5)

Country Link
US (1) US20230070612A1 (zh)
JP (1) JP7423137B2 (zh)
KR (1) KR20230011402A (zh)
CN (1) CN112121438B (zh)
WO (1) WO2022068573A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112121438B (zh) * 2020-09-29 2022-06-07 腾讯科技(深圳)有限公司 操作提示方法、装置、终端及存储介质
CN114570023A (zh) * 2022-02-11 2022-06-03 深圳市锐昌智能科技有限公司 Ue4引擎中虚拟智能边界墙实现方法和装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5291305B2 (ja) * 2007-07-06 2013-09-18 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP2011255119A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
CN107029425B (zh) 2016-02-04 2020-06-19 网易(杭州)网络有限公司 一种射击游戏的操控系统、方法及终端
US20170235462A1 (en) * 2016-02-16 2017-08-17 Le Holdings (Beijing) Co., Ltd. Interaction control method and electronic device for virtual reality
CN108404407B (zh) 2018-01-05 2021-05-04 网易(杭州)网络有限公司 射击游戏中的辅助瞄准方法、装置、电子设备及存储介质
CN108415639B (zh) 2018-02-09 2022-02-25 腾讯科技(深圳)有限公司 视角调整方法、装置、电子装置及计算机可读存储介质
CN108635858B (zh) * 2018-05-18 2019-10-01 腾讯科技(深圳)有限公司 界面显示方法、装置、电子装置及计算机可读存储介质
CN109701280A (zh) * 2019-01-24 2019-05-03 网易(杭州)网络有限公司 一种射击游戏中准星显示的控制方法和装置
CN109821238B (zh) * 2019-03-29 2022-10-28 网易(杭州)网络有限公司 游戏中的瞄准方法及装置、存储介质、电子装置
CN110170168B (zh) * 2019-05-30 2022-05-27 腾讯科技(深圳)有限公司 虚拟对象射击控制方法、装置、电子设备及存储介质
CN110448891B (zh) * 2019-08-08 2021-06-25 腾讯科技(深圳)有限公司 控制虚拟对象操作远程虚拟道具的方法、装置及存储介质
CN111672118B (zh) * 2020-06-05 2022-02-18 腾讯科技(深圳)有限公司 虚拟对象的瞄准方法、装置、设备及介质
CN112121438B (zh) * 2020-09-29 2022-06-07 腾讯科技(深圳)有限公司 操作提示方法、装置、终端及存储介质

Also Published As

Publication number Publication date
CN112121438A (zh) 2020-12-25
US20230070612A1 (en) 2023-03-09
KR20230011402A (ko) 2023-01-20
JP2023524307A (ja) 2023-06-09
WO2022068573A1 (zh) 2022-04-07
JP7423137B2 (ja) 2024-01-29

Similar Documents

Publication Publication Date Title
JP7264993B2 (ja) 仮想対象と投擲物とのインタラクションを制御する方法及びその装置、並びにコンピュータプログラム
CN108434736B (zh) 虚拟环境对战中的装备显示方法、装置、设备及存储介质
JP7419382B2 (ja) 仮想アイテムをマークするように仮想対象を制御する方法及びその装置並びにコンピュータプログラム
CN108619721B (zh) 虚拟场景中的距离信息显示方法、装置及计算机设备
CN109529319B (zh) 界面控件的显示方法、设备及存储介质
CN108671545B (zh) 控制虚拟对象与虚拟场景交互的方法、装置及存储介质
CN112044071B (zh) 虚拟物品的控制方法、装置、终端及存储介质
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN111265869A (zh) 虚拟对象的检测方法、装置、终端及存储介质
CN113398571B (zh) 虚拟道具的切换方法、装置、终端及存储介质
CN111589127B (zh) 虚拟角色的控制方法、装置、设备及存储介质
CN111589146A (zh) 基于虚拟环境的道具操作方法、装置、设备及存储介质
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN110448908B (zh) 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质
CN111013137B (zh) 虚拟场景中的移动控制方法、装置、设备及存储介质
CN108744510A (zh) 虚拟物品显示方法、装置及存储介质
WO2022227915A1 (zh) 显示位置标记的方法、装置、设备及存储介质
CN111589141A (zh) 虚拟环境画面的显示方法、装置、设备及介质
CN112221142A (zh) 虚拟道具的控制方法、装置、计算机设备及存储介质
CN112121438B (zh) 操作提示方法、装置、终端及存储介质
CN111013136B (zh) 虚拟场景中的移动控制方法、装置、设备及存储介质
CN113289336A (zh) 在虚拟环境中标记物品的方法、装置、设备及介质
CN112691375B (zh) 虚拟对象控制方法、装置、终端及存储介质
CN112755526B (zh) 虚拟道具控制方法、装置、终端及存储介质
CN111672115B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40035727

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant