CN111589142A - 虚拟对象的控制方法、装置、设备及介质 - Google Patents

虚拟对象的控制方法、装置、设备及介质 Download PDF

Info

Publication number
CN111589142A
CN111589142A CN202010412006.5A CN202010412006A CN111589142A CN 111589142 A CN111589142 A CN 111589142A CN 202010412006 A CN202010412006 A CN 202010412006A CN 111589142 A CN111589142 A CN 111589142A
Authority
CN
China
Prior art keywords
target
skill
release
virtual scene
operation position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010412006.5A
Other languages
English (en)
Other versions
CN111589142B (zh
Inventor
魏嘉城
胡勋
粟山东
晏江
张康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010412006.5A priority Critical patent/CN111589142B/zh
Publication of CN111589142A publication Critical patent/CN111589142A/zh
Priority to SG11202110880XA priority patent/SG11202110880XA/en
Priority to KR1020217033731A priority patent/KR20210140747A/ko
Priority to JP2021562153A priority patent/JP7177288B2/ja
Priority to EP21785742.4A priority patent/EP3943173A4/en
Priority to PCT/CN2021/083656 priority patent/WO2021227682A1/zh
Priority to US17/501,537 priority patent/US20220032191A1/en
Priority to JP2022180557A priority patent/JP2023021114A/ja
Application granted granted Critical
Publication of CN111589142B publication Critical patent/CN111589142B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1056Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/307Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying an additional window with a view from the top of the game field, e.g. radar screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种虚拟对象的控制方法、装置、设备及介质,属于计算机技术领域。本申请实施例通过根据对地图控件的第一触发操作的第一操作位置,在用户图形界面中显示该第一操作位置对应的目标虚拟场景,在这种情况下,能够根据对目标技能的释放操作的第二操作位置,来确定该目标技能在当前显示的目标虚拟场景中对应的技能释放目标进行技能释放,能够在对地图控件进行第一触发操作时,显示相应的目标虚拟场景,这样技能释放目标的选择范围可以不局限于以虚拟对象为中心的虚拟场景中,释放操作的自由度更高,且在技能释放时能够精准地根据想要释放位置的情况来进行选择,而非在当前显示的虚拟场景中粗略估计,提高了控制虚拟对象的精度和准确性。

Description

虚拟对象的控制方法、装置、设备及介质
技术领域
本申请涉及计算机技术领域,特别涉及一种虚拟对象的控制方法、装置、设备及介质。
背景技术
随着计算机技术的发展以及终端功能的多样化,在终端上能够进行的游戏种类越来越多。其中,MOBA(Multiplayer Online Battle Arena,多人在线战术竞技)游戏是一种比较盛行的游戏,终端可以在界面中显示虚拟场景,并在虚拟场景中显示虚拟对象,该虚拟对象可以通过释放技能,与其他虚拟对象进行对战。
一般地,用户图形界面中显示有以当前控制的第一虚拟对象为中心的虚拟场景。目前,虚拟对象的控制方法通常是检测到对技能的释放操作时,在当前显示的以当前控制的第一虚拟对象为中心的虚拟场景中,根据释放操作的操作位置,来确定该技能的释放目标,从而控制第一虚拟对象进行技能释放,该释放目标为当前显示的虚拟场景中的一个位置、虚拟对象或方向。
上述控制方法中,对技能进行释放操作时,仅能够根据当前显示的以第一虚拟对象为中心的虚拟场景进行释放目标的选择,可能某些技能的释放范围较大,可释放的距离较大,这样该技能的可能不仅可以在当前显示的虚拟场景中选择释放目标,其实还可以对当前显示不到的虚拟场景中的虚拟对象或者位置进行释放,这样当前的控制方法则对技能释放目标选择造成了局限,如果是想要对当前显示不到的虚拟场景中的某个虚拟对象造成影响,用户可能需要在当前显示的虚拟场景进行粗略估计,来控制技能释放方向,这样上述控制方法的精度和准确性较低。
发明内容
本申请实施例提供了一种虚拟对象的控制方法、装置、设备及介质,能够提高控制方法的精度和准确性。该技术方案如下:
一方面,提供了一种虚拟对象的控制方法,该方法包括:
响应于对地图控件的第一触发操作,根据所述第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至所述第一操作位置对应的目标虚拟场景;
响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标;
控制第一虚拟对象按照所述技能释放目标释放所述目标技能。
一方面,提供了一种虚拟对象的控制装置,该装置包括:
显示模块,用于响应于对地图控件的第一触发操作,根据所述第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至所述第一操作位置对应的目标虚拟场景;
确定模块,用于响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标;
控制模块,用于控制第一虚拟对象按照所述技能释放目标释放所述目标技能。
在一种可能实现方式中,所述显示模块包括第一获取单元和显示单元,其中:
所述第一获取单元用于根据所述第一触发操作的第一操作位置以及所述地图控件中显示信息与虚拟场景的对应关系,获取所述第一操作位置对应的目标虚拟场景;
所述显示单元用于将用户图形界面中显示的虚拟场景切换至所述目标虚拟场景。
在一种可能实现方式中,所述第一获取单元用于执行下述任一项:
根据所述第一触发操作的第一操作位置,获取所述地图控件中,以所述第一操作位置为中心、尺寸为第一目标尺寸的目标区域,根据所述地图控件中的区域与虚拟场景的对应关系,获取所述目标区域对应的目标虚拟场景;
根据所述第一操作位置以及所述地图控件中的位置与虚拟场景的对应关系,获取所述第一操作位置对应的虚拟场景中的目标位置,获取以所述目标位置为中心、尺寸为第二目标尺寸的目标虚拟场景。
在一种可能实现方式中,所述确定模块用于响应于对目标技能的技能控件的第二触发操作,根据所述第二触发操作的第二操作位置相对于所述技能控件的位置关系,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,所述技能释放目标为技能释放位置、目标虚拟对象或技能释放方向中的任一项;
所述确定模块包括第二获取单元、转换单元和确定单元,其中:
所述第二获取单元用于获取所述第二操作位置相对于所述技能控件的位置关系;
所述转换单元用于根据所述技能控件的操作区域与虚拟场景之间的转换关系,对所述第二操作位置相对于所述技能控件的位置关系进行转换,得到技能释放位置相对于所述目标虚拟场景的中心位置的目标位置关系;
所述确定单元用于根据所述目标虚拟场景的中心位置以及所述目标位置关系,确定所述释放操作的操作位置在所述目标虚拟场景中对应的技能释放位置,将所述技能释放位置确定为所述技能释放目标,或者将所述技能释放位置上的虚拟对象确定为目标虚拟对象,或者将所述技能释放位置相对于当前控制的第一虚拟对象的方向确定为技能释放方向。
在一种可能实现方式中,所述转换单元用于:
根据所述目标虚拟场景的中心位置,确定所述目标虚拟场景的边缘位置;
根据所述目标虚拟场景的中心位置、所述目标虚拟场景的边缘位置以及所述操作区域的尺寸,对所述第二操作位置相对于所述技能控件的位置关系进行转换。
在一种可能实现方式中,所述确定模块用于响应于对目标技能的释放操作结束,且所述释放操作结束时的第二操作位置位于第一操作区域内,执行所述根据所述第二触发操作的第二操作位置相对于所述技能控件的位置关系,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,所述确定模块用于响应于对目标技能的释放操作结束,且所述释放操作结束时的第二操作位置位于第二操作区域内,根据所述目标虚拟场景中至少一个第二虚拟对象的信息,从所述至少一个第二虚拟对象中确定目标虚拟对象,将所述目标虚拟对象确定为所述技能释放目标,或者将所述目标虚拟对象所在位置确定为所述技能释放目标,或者将所述目标虚拟对象相对于第一虚拟对象的方向确定为所述技能释放目标,所述第一操作区域包围于所述第二操作区域外。
在一种可能实现方式中,所述确定模块用于响应于对目标技能的释放操作结束,根据所述释放操作结束时的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,所述确定模块还用于响应于对目标技能的释放操作持续过程中,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的候选技能释放目标;
所述显示模块还用于在所述目标虚拟场景中对所述候选技能释放目标进行突出显示。
在一种可能实现方式中,所述确定模块用于:
根据当前控制的第一虚拟对象在虚拟场景中的位置以及所述目标技能的释放范围,确定所述目标技能的可释放区域;
响应于所述释放操作的第二操作位置在所述目标虚拟场景中对应的位置位于所述可释放区域内,执行所述根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标的步骤。
在一种可能实现方式中,所述确定模块还用于响应于所述释放操作的第二操作位置在所述目标虚拟场景中对应的位置位于所述可释放区域外,根据所述释放操作的第二操作位置以及所述第一虚拟对象在虚拟场景中的位置,确定所述第二操作位置在所述虚拟场景中对应的技能释放目标。
一方面,提供了一种电子设备,该电子设备包括一个或多个处理器和一个或多个存储器,该一个或多个存储器中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器加载并执行以实现如上述任一种可能实现方式的虚拟对象的控制方法所执行的操作。
一方面,提供了一种存储介质,该存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行以实现如上述任一种可能实现方式的虚拟对象的控制方法所执行的操作。
本申请实施例提供的技术方案带来的有益效果至少包括:
本申请实施例通过根据对地图控件的第一触发操作的第一操作位置,在用户图形界面中显示该第一操作位置对应的目标虚拟场景,在这种情况下,响应于对目标技能的释放操作,能够根据释放操作的第二操作位置,来确定该目标技能在当前显示的目标虚拟场景中对应的技能释放目标,从而进行技能释放,在上述通过地图控件来控制技能释放的方式中,能够在对地图控件进行第一触发操作时,显示相应的目标虚拟场景,这样技能释放目标的选择范围可以不局限于以虚拟对象为中心的虚拟场景中,释放操作的自由度更高,且在技能释放时能够精准地根据想要释放位置的情况来进行选择,而非在当前显示的虚拟场景中粗略估计,提高了对虚拟对象的控制方法的精度和准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种终端界面示意图;
图2是本申请实施例提供的一种终端界面示意图;
图3是本申请实施例提供的一种终端界面示意图;
图4是本申请实施例提供的一种终端界面示意图;
图5是本申请实施例提供的一种虚拟对象的控制方法的实施环境示意图;
图6是本申请实施例提供的一种虚拟对象的控制方法的流程图;
图7是本申请实施例提供的一种虚拟对象的控制方法的流程图;
图8是本申请实施例提供的一种小地图与虚拟场景的对应关系的示意图;
图9是本申请实施例提供的一种终端界面示意图;
图10是本申请实施例提供的一种镜头位置与角色位置的关系示意图;
图11是本申请实施例提供的一种终端界面示意图;
图12是本申请实施例提供的一种终端界面示意图;
图13是本申请实施例提供的一种终端界面示意图;
图14是本申请实施例提供的一种虚拟场景与虚拟摄像头的位置关系示意图;
图15是本申请实施例提供的一种操作区域与虚拟场景的映射关系图;
图16是本申请实施例提供的一种终端界面示意图;
图17是本申请实施例提供的一种操作区域与虚拟场景的映射关系图;
图18是本申请实施例提供的一种虚拟对象的控制方法的流程图;
图19是本申请实施例提供的一种终端界面示意图;
图20是本申请实施例提供的一种虚拟对象的控制装置的结构示意图;
图21是本申请实施例提供的一种终端2100的结构示意图;
图22是本申请实施例提供的一种服务器2200的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
本申请中术语“至少一个”是指一个或一个以上,“至少两个”是指两个或两个以上,例如,至少两个节点设备是指两个或两个以上的节点设备。
以下,对本申请涉及到的术语进行解释。
虚拟场景:是应用程序在终端上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟环境,还可以是纯虚构的虚拟环境。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。可选地,该虚拟场景还可以用于至少两个虚拟对象之间的虚拟场景对战,在该虚拟场景中具有可供至少两个虚拟对象使用的虚拟资源。可选地,该虚拟场景中可以包括对称的两个区域,属于两个敌对阵营的虚拟对象分别占据其中一个区域,并以摧毁对方区域深处的目标建筑/据点/基地/水晶来作为胜利目标,其中,对称的区域比如左下角区域和右上角区域,又比如左侧中部区域和右侧中部区域等。
虚拟对象:是指在虚拟场景中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物等,比如:在虚拟场景中显示的人物、动物、植物、油桶、墙壁、石块等。该虚拟对象可以是该虚拟场景中的一个虚拟的用于代表用户的虚拟形象。在虚拟场景中可以包括多个虚拟对象,每个虚拟对象在虚拟场景中具有自身的形状和体积,占据虚拟场景中的一部分空间。可选地,当虚拟场景为三维虚拟场景时,可选地,虚拟对象可以是一个三维立体模型,该三维立体模型可以是基于三维人体骨骼技术构建的三维角色,同一个虚拟对象可以通过穿戴不同的皮肤来展示出不同的外在形象。在一些实施例中,虚拟对象也可以采用2.5维或2维模型来实现,本申请实施例对此不加以限定。
可选地,该虚拟对象可以是通过客户端上的操作进行控制的玩家角色,也可以是通过训练设置在虚拟场景对战中的人工智能(Artificial Intelligence,AI),还可以是设置在虚拟场景互动中的非玩家角色(Non-Player Character,NPC)。可选地,该虚拟对象可以是在虚拟场景中进行竞技的虚拟人物。可选地,该虚拟场景中参与互动的虚拟对象的数量可以是预先设置的,也可以是根据加入互动的客户端的数量动态确定的。
MOBA(Multiplayer Online Battle Arena,多人在线战术竞技)游戏:是一种在虚拟场景中提供若干个据点,处于不同阵营的用户控制虚拟对象在虚拟场景中对战,占领据点或摧毁敌对阵营据点的游戏。例如,MOBA游戏可将用户分成至少两个敌对阵营,分属至少两个敌对阵营的不同虚拟队伍分别占据各自的地图区域,以某一种胜利条件作为目标进行竞技。该胜利条件包括但不限于:占领据点或摧毁敌对阵营据点、击杀敌对阵营的虚拟对象、在指定场景和时间内保证自身的存活、抢夺到某种资源、在指定时间内互动比分超过对方中的至少一种。例如,MOBA游戏可将用户分成两个敌对阵营,将用户控制的虚拟对象分散在虚拟场景中互相竞争,以摧毁或占领敌方的全部据点作为胜利条件。
可选地,每个虚拟队伍包括一个或多个虚拟对象,比如1个、2个、3个或5个,根据参与战术竞技中各队伍内虚拟对象的数量,可以将战术竞技划分为1V1竞技比拼、2V2竞技比拼、3V3竞技比拼、5V5竞技比拼等,其中,1V1是指“1对1”的意思,这里不做赘述。
可选地,MOBA游戏可以以局(或称为回合)为单位来进行,每局战术竞技的地图可以相同,也可以不同。一局MOBA游戏的持续时间是从游戏开始的时刻至达成胜利条件的时刻。
在MOBA游戏中,用户可以控制虚拟对象在该虚拟场景的天空中自由下落、滑翔或者打开降落伞进行下落等,在陆地上中跑动、跳动、爬行、弯腰前行等,也可以控制虚拟对象在海洋中游泳、漂浮或者下潜等,在此仅以上述场景进行举例说明,本申请实施例对此不作具体限定。
在MOBA游戏中,用户还可以控制虚拟对象释放技能从而与其他虚拟对象进行战斗,例如,该技能的技能类型可以包括攻击技能、防御技能、治疗技能、辅助技能、斩杀技能等,每个虚拟对象都可以具有各自固定的一个或多个技能,而不同的虚拟对象通常具有不同的技能,不同的技能可以产生不同的作用效果。比如,若虚拟对象释放攻击技能击中了敌对虚拟对象,那么会对敌对虚拟对象造成一定的伤害,通常表现为扣除敌对虚拟对象的一部分虚拟生命值,又比如,若虚拟对象释放治疗技能命中了友方虚拟对象,那么会对友方虚拟对象产生一定的治疗,通常表现为回复友方虚拟对象的一部分虚拟生命值,其他各类技能均可以产生相应的作用效果,这里不再一一枚举。
在本申请实施例中,提供了两种技能释放方式,不同的技能释放方式可以对应不同的操作方式,用户可以根据自身使用习惯,任意选择或切换一种技能释放方式进行技能释放,来满足自身需求,大大提高了技能释放的准确性。
该两种技能释放方式可以分别为:主动释放和快速释放。其中,该主动释放是指通过用户操作来确定技能的释放目标,快速释放是指由终端自动确定技能的释放目标。
在一个具体的可能实施例中,可以为两种技能释放方式设置对应的操作区域,主动释放对应的操作区域为第一操作区域,快速释放对应的操作区域为第二操作区域。该第一操作区域包围于该第二操作区域外。
具体的,终端可以根据技能的释放操作结束时的操作位置与操作区域之间的关系,来确定为哪一种技能释放方式。例如,释放操作结束时操作位置位于第一操作区域内,则为主动释放;如果位于第二操作区域内,则为快速释放。通过快速释放,无需用户操作选择释放目标,大大简化了用户操作,减小了操作复杂度,提供了一种便利的操作方式。通过主动释放,用户可以自由选择释放目标,能够更精确地,提高了用户操作的技巧性,更符合高端玩家的操作需求,提高了用户体验。
下面针对技能的释放相关内容进行简单介绍。
技能释放可以通过对技能控件进行操作实现,包括该技能控件在内的一个区域可以为技能轮盘,上述技能的释放方式即可通过对技能轮盘进行操作实现。在一种可能实现方式中,该第二操作区域可以为该技能控件所在区域,或者与该技能控件的中心位置的距离小于距离阈值的区域,该第一操作区域可以为第二操作区域外的一个区域。技能轮盘即为上述第一操作区域和第二操作区域共同组成的区域。
例如,如图1所示,该虚拟对象可以具备多个技能:技能1、2、3、4,在对技能3进行释放操作时,可以显示技能轮盘101,该技能轮盘101中可以包括第一操作区域102和第二操作区域103,其中,该第二操作区域中可以显示有技能3的技能控件,在进行拖动操作时,可以通过技能摇杆104在技能轮盘中移动实现操作位置的改变。该技能摇杆104仅能够位于该技能轮盘101中。
以对技能的释放操作为拖动技能摇杆的操作方式为例,用户可以对技能控件进行触发操作,如果未将技能摇杆104拖动出第一操作区域即结束了操作,则可以确定为快速释放,如果将技能摇杆104拖动出第一操作区域,到了第二操作区域并结束了操作,则可以确定为主动释放。
在一种可能实现方式中,终端还可以在用户图形界面中显示取消释放控件,该取消释放控件用于取消对该技能的释放。具体的,终端可以响应于对技能的触发操作结束,且该触发操作结束时该触发操作的操作位置位于该取消释放控件所在位置,取消对该技能的释放。通过取消释放控件,提供了一种取消技能释放的方式,丰富了技能释放操作,为用户提供了更多技能释放功能,提高了用户体验。例如,如图1所示,界面中可以显示有该取消释放控件105。如果用户持续释放操作一直移动到该取消释放控件105处,则可以取消本次技能释放。
虚拟对象的技能可以包括不同类型的技能,例如,有些技能为目标型技能,有些技能为位置型技能,有些技能是方向型技能。例如,如图2所示,该技能为目标型技能,需要选定释放的目标虚拟对象。如图3所示,该技能为位置型技能,需要选定释放位置。如图4所示,该技能为方向型技能,需要选定释放方向。
以下,对本申请涉及的系统架构进行介绍。
图5是本申请实施例提供的一种虚拟对象的控制方法的实施环境示意图。参见图5,该实施环境包括:第一终端120、服务器140和第二终端160。
第一终端120安装和运行有支持虚拟场景的应用程序。该应用程序可以是多人在线战术竞技游戏(Multiplayer Online Battle Arena games,MOBA)、虚拟现实应用程序、二维或三维地图程序、仿真程序中的任意一种。当然,该应用程序还可以为其他程序,例如,多人枪战类生存游戏,本申请实施例对此不作限定。第一终端120可以是第一用户使用的终端,第一用户使用第一终端120操作位于虚拟场景中的第一虚拟对象进行活动,该活动包括但不限于:步行、奔跑、调整身体姿态、普通攻击、施放技能中的至少一种。当然,该活动还可以包括其他项,例如,射击、投掷等,本申请实施例对此不作具体限定。示意性的,第一虚拟对象是第一虚拟人物,比如仿真人物角色或动漫人物角色。示意性的,第一虚拟对象可以是第一虚拟动物,比如仿真猴子或者其他动物等。
第一终端120以及第二终端160通过无线网络或有线网络与服务器140相连。
服务器140可以包括一台服务器、多台服务器、云计算平台或者虚拟化中心中的至少一种。服务器140用于为支持虚拟场景的应用程序提供后台服务。可选地,服务器140可以承担主要计算工作,第一终端120和第二终端160可以承担次要计算工作;或者,服务器140承担次要计算工作,第一终端120和第二终端160承担主要计算工作;或者,服务器140、第一终端120和第二终端160三者之间采用分布式计算架构进行协同计算。
其中,服务器140可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。第一终端120和第二终端160可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。第一终端120、第二终端160可以与服务器通过有线或无线通信方式进行直接或间接地连接,本申请实施例在此不做限制。
示意性的,第一终端120和第二终端160可以将产生的数据发送至服务器140,服务器140可以对自身产生的数据与终端产生的数据进行校验,如果与任一终端的校验结果指示数据不一致,则可以将服务器产生的数据发送至任一终端,该任一终端以服务器产生的数据为准。
在一种可能实现方式中,第一终端120和第二终端160可以根据用户的触发操作,确定每一帧虚拟场景,并将虚拟场景发送至服务器140,也可以将用户的触发操作的信息发送至服务器140,服务器140可以接收该触发操作的信息和虚拟场景,根据该触发操作,确定虚拟场景,与终端上传的虚拟场景进行对比,如果一致,则可以继续后续计算;如果不一致,则可以将自身确定的虚拟场景发送至各个终端进行同步。在一个具体的可能实施例中,服务器140还可以根据该触发操作的信息,确定各个终端的下一帧虚拟场景,将下一帧虚拟场景发送至各个终端,使得各个终端执行相应的步骤,得到与服务器140确定的下一帧虚拟场景一致的虚拟场景。
第二终端160安装和运行有支持虚拟场景的应用程序。该应用程序可以是多人在线战术竞技游戏(Multiplayer Online Battle Arena games,MOBA)、虚拟现实应用程序、二维或三维地图程序、仿真程序中的任意一种。当然,该应用程序还可以为其他程序,例如,多人枪战类生存游戏,本申请实施例对此不作限定。第二终端160可以是第二用户使用的终端,第二用户使用第二终端160操作位于虚拟场景中的第二虚拟对象进行活动,该活动包括但不限于:步行、奔跑、调整身体姿态、普通攻击、施放技能中的至少一种。当然,该活动还可以包括其他项,例如,射击、投掷等,本申请实施例对此不作具体限定。示意性的,第二虚拟对象是第二虚拟人物,比如仿真人物角色或动漫人物角色。示意性的,第二虚拟对象可以是第二虚拟动物,比如仿真猴子或者其他动物等。
可选地,第一终端120控制的第一虚拟对象和第二终端160控制的第二虚拟对象处于同一虚拟场景中,此时第一虚拟对象可以在虚拟场景中与第二虚拟对象进行互动。在一些实施例中,第一虚拟对象以及第二虚拟对象可以为敌对关系,例如,第一虚拟对象与第二虚拟对象可以属于不同的队伍、组织或阵营,敌对关系的虚拟对象之间,可以在虚拟场景中的任一位置通过施放技能进行对战方式的互动。
在另一些实施例中,该第二虚拟对象也可以与该第一虚拟对象为队友关系,例如,第一虚拟人物和第二虚拟人物可以属于同一个队伍、同一个组织、同一个阵营、具有好友关系或具有临时性的通讯权限。
可选地,第一终端120和第二终端160上安装的应用程序是相同的,或两个终端上安装的应用程序是不同操作系统平台的同一类型应用程序。第一终端120可以泛指多个终端中的一个,第二终端160可以泛指多个终端中的一个,本实施例仅以第一终端120和第二终端160来举例说明。第一终端120和第二终端160的设备类型相同或不同,该设备类型包括:智能手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group AudioLayer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture ExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机中的至少一种。例如,第一终端120和第二终端160可以是智能手机,或者其他手持便携式游戏设备。以下实施例,以终端包括智能手机来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
图6是本申请实施例提供的一种虚拟对象的控制方法的流程图,该方法应用于电子设备,电子设备可以为终端,也可以为服务器,本申请实施例对此不作限定,本实施例中,以应用于终端为例进行说明。参见图6,该方法可以包括以下步骤。
601、终端响应于对地图控件的第一触发操作,根据该第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至该第一操作位置对应的目标虚拟场景。
其中,该地图控件用于显示虚拟场景的地图,可以通过对地图控件进行操作,来改变当前显示的虚拟场景。需要说明的是,如果未对地图控件进行操作,当前一般显示的虚拟场景为以当前控制的第一虚拟对象为中心的局部虚拟场景。如果对地图控件,则可以调整虚拟摄像机的位置,显示其他的局部虚拟场景。
其中,该第一触发操作可以为点击操作,也可以为滑动操作,本申请实施例对此不作限定。例如,以第一触发操作为点击操作为例,用户可以点击地图控件中某个位置,该位置即为第一操作位置,该第一操作位置对应的目标虚拟场景可以为以该第一操作位置为中心的虚拟场景,也可以为该第一操作位置为起始点的虚拟场景,本申请实施例对此不作限定。以该第二触发操作为拖动操作为例,用户可以在地图控件上滑动,这样可以根据滑动时的操作位置,来实时更新显示的虚拟场景,以便于对显示的虚拟场景的更细致、更精准的调整。
602、终端响应于对目标技能的释放操作,根据该释放操作的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
其中,该目标技能是指虚拟场景中虚拟对象的能力。从技能的释放效果角度来看,该目标技能可以为一种动作技能,也可以为一种属性改变技能,例如,某个虚拟对象可以拥有三项技能,其中,一项技能为向前方冲刺的动作技能,另一项技能为提升自身的移动速度的属性增益(buff)技能,再一项技能为减弱附近队友所受的属性减益(Debuff)技能。从技能的释放类型来看,该目标技能可以为位置型技能、方向型技能或目标型技能中任一种。
该释放操作可以为点击操作,也可以为拖动操作,本申请实施例对此不作限定。对应于该两种技能释放方式,如果释放操作为点击操作,则为快速释放,如果释放操作为拖动操作,则可以根据释放操作结束时的操作位置,来确定为哪一种释放方式。
在本申请实施例中,通过上述步骤601,已经将当前显示的虚拟场景切换到通过地图控件选定的目标虚拟场景中,如果用户想要在该目标虚拟场景中某个位置进行技能释放,或者对目标虚拟场景中的某个虚拟对象进行技能释放,又或者在该目标虚拟场景中虚拟对象的位置,来确定技能释放方向,则可以进行对技能的施放操作。终端检测到该释放操作,可以响应于该释放操作,根据第二操作位置来确定技能释放目标。其中,该技能释放目标为技能释放位置、目标虚拟对象或技能释放方向中的任一项,也即是,该技能释放目标为该目标虚拟场景中的目标虚拟对象、位置或者位置与第一虚拟对象所构成的方向。
通过用户图形界面切换至第一操作位置对应的目标虚拟场景,这样技能释放目标的选择范围可以不局限于以虚拟对象为中心的虚拟场景中,释放操作的自由度更高,且在技能释放时能够精准地根据想要释放位置的情况来进行选择,而非在当前显示的虚拟场景中粗略估计,提高了对虚拟对象的控制方法的精度和准确性。
603、终端控制第一虚拟对象按照该技能释放目标释放该目标技能。
终端确定了技能释放目标,即可控制向该按照该技能释放目标释放技能。具体地,该释放技能的过程还可以为:终端在用户图形界面中显示该技能的向该目标虚拟对象的释放效果,例如,该技能施放目标为目标虚拟对象,可以在第一虚拟对象和该目标虚拟对象之间显示技能的释放过程效果,并在该目标虚拟对象身上显示释放后的效果。又例如,该技能释放目标为释放位置,则可以在该释放位置处显示目标动画,体现释放效果,如果该释放位置处包括有第二虚拟对象,则可以显示该第二虚拟对象的属性值受到影响。又例如,该技能释放目标为释放方向,则可以沿着该释放方向显示技能的释放过程效果。
本申请实施例通过根据对地图控件的第一触发操作的第一操作位置,在用户图形界面中显示该第一操作位置对应的目标虚拟场景,在这种情况下,响应于对目标技能的释放操作,能够根据释放操作的第二操作位置,来确定该目标技能在当前显示的目标虚拟场景中对应的技能释放目标,从而进行技能释放,在上述通过地图控件来控制技能释放的方式中,能够在对地图控件进行第一触发操作时,显示相应的目标虚拟场景,这样技能释放目标的选择范围可以不局限于以虚拟对象为中心的虚拟场景中,释放操作的自由度更高,且在技能释放时能够精准地根据想要释放位置的情况来进行选择,而非在当前显示的虚拟场景中粗略估计,提高了对虚拟对象的控制方法的精度和准确性。
图7是本申请实施例提供的一种虚拟对象的控制方法的流程图,参见图7,该方法可以包括:
701、终端响应于对地图控件的第一触发操作,根据该第一触发操作的第一操作位置以及该地图控件中显示信息与虚拟场景的对应关系,获取该第一操作位置对应的目标虚拟场景。
用户如果想要通过地图控件,改变当前显示的虚拟场景,可以对地图控件进行第一触发操作,终端可以根据该第一触发操作的第一操作位置,来进行虚拟场景的切换,从而实现对虚拟场景的观察视角的调整,实现视野画面的调整。
其中,该地图控件中可以显示有全局虚拟场景的简要信息,例如,可以显示有全局虚拟场景的缩略图。该地图控件中还可以根据虚拟场景中部分或全部虚拟对象的位置,显示部分或全部虚拟对象的标识信息,例如,该标识信息可以为头像。
该地图控件中显示信息可以与虚拟场景具有对应关系。例如,在一个具体示例中,该地图控件中显示的虚拟场景的缩略图可以为2D的信息,虚拟场景可以为一个3D的虚拟空间,该缩略图可以为将虚拟场景的俯瞰图按照一定比例缩小后的图像,也可以为包括缩小后的图像的部分重要信息的图像。
例如,如图8所示,对于该地图控件中显示信息与虚拟场景的对应关系,在此提供一个地图控件(也可以称其为小地图)与虚拟场景的俯瞰图(2D虚拟场景)之间的对应关系,在三维坐标中,可以忽略y轴,地图控件中显示信息的x轴与z轴分别与2D虚拟场景的x轴和z轴映射。
在一个具体示例中,假设全局虚拟场景是一个正方形,使用MapLength和SceneLength分别表示小地图的边长和场景的边长。其中,MimiMapStartPos表示小地图左下角,即小地图的起始位置,一般在初始化小地图的UI(User Interface,用户界面)时会设置该参数。SceneStartPos表示虚拟场景中的左下角,也即是虚拟场景的起始位置,一般在地图编辑时会设置该参数。将第一操作位置命名为拖拽位置(DragPos),我们可知DragPos在小地图(MiniMap)中的位置相当于目标镜头位置(AimCameraPos)在虚拟场景(Scene)中位置,也即是,可以通过下述公式一表示:
(DragPos–MiniMapStartPos)/MapLength=(AimCameraPos–SceneStartPos)/SceneLength,公式一
通过上述公式一,可以得到下述公式二,通过公式二即可计算得到小地图中位置DragPos在虚拟场景中对应的位置AimCameraPos。
AimCameraPos=(DragPos-MiniMapStartPos)*SceneLength/MapLength+SceneStartPos,公式二
上述公式一和公式二中,MaxAimRadius为技能按钮的瞄准的最大范围,AimCameraPos为目标虚拟场景中屏幕中心点的场景位置,DragPos为小地图中的拖拽位置,MiniMapStartPos为小地图的起始位置,SceneLength为场景长度,也即是场景的边长,MapLength为小地图长度,也即是小地图的边长,SceneStartPos为场景的起始位置。
如果用户并未对地图控件进行操作,可以将AimCameraPos赋值为InValidAimCameraPos,InValidAimCameraPos的意思是表示当前小地图没有被按下。
具体地,上述显示信息可以为某个位置,也可以为某个区域。相应地,该步骤701中确定目标虚拟场景的过程可以包括两种实现方式.
实现方式一、终端根据该第一触发操作的第一操作位置,获取该地图控件中,以该第一操作位置为中心、尺寸为第一目标尺寸的目标区域,根据该地图控件中的区域与虚拟场景的对应关系,获取该目标区域对应的目标虚拟场景。
在该实现方式一中,用户在对地图控件进行第一触发操作时,可以先从地图控件中显示区域中确定目标虚拟场景对应的目标区域,再根据地图控件中区域与虚拟场景的对应关系,将目标区域转换为目标虚拟场景。
其中,该目标区域可以为矩形区域,也可以为矩形区域,还可以为其他形状的区域,本申请实施例对此不作限定。例如,如图9所示,该目标区域901可以为该地图控件中第一操作位置为中心的区域。
实现方式二、终端根据该第一操作位置以及该地图控件中的位置与虚拟场景的对应关系,获取该第一操作位置对应的虚拟场景中的目标位置,获取以该目标位置为中心、尺寸为第二目标尺寸的目标虚拟场景。
在该实现方式二中,用户在对地图控件进行第一触发操作时,该第一触发操作的第一操作位置即为目标虚拟场景的获取依据。用户通过改变该第一操作位置,可以改变目标虚拟场景。
在一种可能实现方式中,该目标虚拟场景为以第一操作位置在虚拟场景中对应的位置为中心的虚拟场景。因而,终端需要参考上述对应关系,来确定第一操作位置在虚拟场景中对应的位置,从而分析到底目标虚拟场景以哪个位置为中心,再结合目标虚拟场景的显示视野(也即是尺寸),即可获取到该目标虚拟场景。
在一个具体示例中,终端可以根据地图控件中位置与虚拟场景的对应关系,将2D的第一操作位置转换为虚拟场景中的3D位置。一般地,该显示虚拟场景的过程通常是通过虚拟摄像机观察实现,来模拟通过某个摄像机观察某个真实环境时的观察视野。为了达到更好的3D效果,该虚拟摄像机可以在虚拟场景的地面上方某个高度,通过某个倾斜的视角来观察虚拟场景,因而,终端可以根据该第一操作位置对应虚拟场景中的位置、虚拟摄像机的高度以及目标角度,来获取虚拟摄像机的位置,通过该虚拟摄像机的位置,从全局虚拟场景中获取该目标虚拟场景。
例如,如图10所示,可以通过上述方式,确定出第一操作位置DragPos对应虚拟场景中的位置AimCameraPos,进而将AimCameraPos赋值给ActorPos,用ActorPos计算出虚拟摄像机(也可以称之为镜头)的位置。具体地,终端可以判断是否有对地图控件的第一触发操作,也即是,判断AimCameraPos是否为InValidAimCameraPos,如果是,则镜头跟随第一虚拟对象,可以将第一虚拟对象的位置赋值给ActorPos。如果否,则镜头跟随小地图拖动的镜头位置,也即是,可以获取AimCameraPos,将AimCameraPos赋值给ActorPos。
其中,通过ActorPos获取虚拟摄像机的位置时,可以通过下述公式三至公式五实现。
cameraPos.x=ActorPos.x,公式三
cameraPos.y=ActorPos.y+height*cos(angle),公式四
camearPos.z=ActorPos.z–height*sin(angle),公式五
其中,cameraPos.x、cameraPos.y、camearPos.z分别为虚拟摄像机的x、y、z轴的坐标,ActorPos.x、ActorPos.y、ActorPos.z分别为ActorPos的x、y、z轴的坐标,height为虚拟摄像机的高度,angle为虚拟摄像机的倾斜角度。cos()为余弦函数,sin()为正弦函数。
702、终端将用户图形界面中显示的虚拟场景切换至该目标虚拟场景。
终端获取到目标虚拟场景中,可以在用户图形界面中显示该目标虚拟场景,这样将视野调整到合适的时候,用户可以更精准的进行技能的释放操作。
上述步骤701和步骤702为响应于对地图控件的第一触发操作,根据该第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至该第一操作位置对应的目标虚拟场景的过程,例如,如图9和图11,终端可以显示以第一虚拟对象为中心的虚拟场景900,如果用户对地图控件进行了第一触发操作,终端可以获取对应的目标虚拟场景,并进行虚拟场景的切换,切换后如图11所示,不再是以第一虚拟对象为中心的虚拟场景,可以是其他虚拟场景1100。
703、终端响应于对目标技能的释放操作,根据该释放操作的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
该释放操作的第二操作位置不同时,该技能的释放方式可能不同,相应地,根据第二操作位置确定技能释放目标的过程又可以不同。
在一种可能实现方式中,该释放操作可以为对技能控件的第二触发操作。具体地,如果该释放操作为主动释放,终端可以响应于对目标技能的技能控件的第二触发操作,根据该第二触发操作的第二操作位置相对于该技能控件的位置关系,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,上述释放操作持续过程中,用户可以改变第二操作位置,来改变技能释放目标,该目标技能的最终技能释放目标可以由释放操作结束时的第二操作位置确定。具体的,终端可以响应于对目标技能的释放操作结束,且该释放操作结束时的第二操作位置位于第一操作区域内,执行该根据该第二触发操作的第二操作位置相对于该技能控件的位置关系,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
在该主动释放方式中,该技能控件的操作区域可以与虚拟场景具有对应关系,该操作区域中的位置可以映射为虚拟场景中的位置,该操作区域中的位置关系可以映射为虚拟场景中的位置关系。
具体地,该技能释放目标为技能释放位置、目标虚拟对象或技能释放方向中的任一项,上述步骤703中,根据第二操作位置确定技能释放目标的过程可以通过下述步骤一至步骤三实现。
步骤一、终端获取该第二操作位置相对于该技能控件的位置关系。
具体的,该位置关系可以通过该第二操作位置与技能控件的中心位置获取得到。例如,该位置关系可以为一个方向向量,该方向向量可以为技能控件的中心位置指向第二操作位置。如图12所示,假设技能控件的中心位置为A,第二操作位置为B,该位置关系可以表现为A指向B的向量B-A。
步骤二、终端根据该技能控件的操作区域与虚拟场景之间的转换关系,对该第二操作位置相对于该技能控件的位置关系进行转换,得到技能释放位置相对于该目标虚拟场景的中心位置的目标位置关系。
该技能的操作区域与虚拟场景之间具有一定的转换关系,可以理解的,该操作区域为一个2D的区域,虚拟场景为3D的虚拟空间,且该操作区域的尺寸与虚拟场景的尺寸并不相同,因而二者之间还包括一定缩放比例的映射。
如图13所示,简单来理解该转换关系,假设“小地图视野中心”到点“A”的线段为X,“小地图视野中心”到点“A”的方向上,延长到屏幕边缘的线段为Y,第二操作位置到技能控件的中心位置的线段为Z,则“小地图视野中心”到点“A”的方向与轮盘中心到技能摇杆的方向相同,即“X平行于Z”。X线段长度和Y线段长度的比例等同于Z线段长度和轮盘半径的比例,也即是X=(Z/轮盘半径)*Y。基于方向和长度,能够得到点A的坐标。点A再把技能指示器按照规则显示在点A位置上。
如图14所示,通过虚拟摄像机观察虚拟场景,其实观察到的区域为一个梯形区域。具体的,假设该操作区域为圆形区域,该转换关系可以为圆形区域映射为椭圆形区域的映射关系,或者圆形区域映射为梯形区域的映射关系,本申请实施例对具体采用哪种方式不作限定。
在一种可能实现方式中,可以提供一个映射关系选项,由用户根据自身需求来从映射关系选项中选择使用的一种映射关系。终端可以根据该映射关系选项中设定的目标映射关系作为转换关系进行上述步骤二。
具体地,终端可以根据该目标虚拟场景的中心位置,确定该目标虚拟场景的边缘位置,根据该目标虚拟场景的中心位置、该目标虚拟场景的边缘位置以及该操作区域的尺寸,对该第二操作位置相对于该技能控件的位置关系进行转换。
步骤三、终端根据该目标虚拟场景的中心位置以及该目标位置关系,确定该释放操作的第二操作位置在该目标虚拟场景中对应的技能释放位置,将该技能释放位置确定为该技能释放目标,或者将该技能释放位置上的虚拟对象确定为目标虚拟对象,或者将该技能释放位置相对于当前控制的第一虚拟对象的方向确定为技能释放方向。
在确定了目标位置关系,该目标位置关系即为技能释放位置相对于目标虚拟场景的中心位置的位置关系,从而可以根据该中心位置以及该目标位置关系,得到该技能释放位置。
下面针对上述两种转换关系中,确定技能释放位置的过程进行说明,在圆形区域映射为椭圆形区域的方式中,如图15所示,该操作区域也可以称之为技能拖动范围,第一步,如图12所示,将(B-A)将UI向量转化为场景中的向量,以屏幕中心点Ta加上(B-A)向量得到Tb点,再通过2d转3d的方式将UI上的Ta,Tb点转换成场景中Da,Db点,如图16所示。进而可以得到在虚拟场景中对应的方向向量AimDir,AimDir=Normalize(Db-Da)。其中,Normalize为归一化函数。
在第二步中,可以计算屏幕中心点的场景位置(AimCameraPos)与屏幕边缘的距离。在此为了避免将技能释放位置拖动到屏幕边缘处的UI上,上述距离可以为去除了边界值的距离。具体的,可以设置四个值来分别表示去除了边界值的屏幕边缘的距离,例如,该四个值分别为paddingLeft(左边距),padingRight(右边距),paddingTop(上边距),paddingBot(底边距),分别表示场景中在屏幕范围左右上下四条边与AimCameraPos(屏幕中心点的场景位置)的距离。对于四个值的获取过程同理,在此以计算paddingTop为例进行说明。首先,将AimCameraPos转换成UICenterPos(UI中心位置),也即是将3D的坐标点转换为2D坐标点,然后用UICenterPos加上屏幕高度的一半,并减去需要去除的边界值获得UITopPos,然后再将UITopPos转换成3d虚拟场景中的位置SceneTopPos,最后用(SceneTopPos-AimCameraPos).z,即可获取到paddingTop,其他边界值同理获取。
在第三步中,可以通过公式六和公式七,根据上述步骤计算得到的AimCameraPos、方向向量AimDir以及各个方向的最大值,计算技能释放位置FocusPoint。
FocusPoint.x=AimCameraPos.x+AimDir.x*(|B-A|/AimMaxRadius)*(AimDir.x<0?paddingLeft:paddingRight),公式六
FocusPoint.z=AimCameraPos.z+AimDir.z*(|B-A|/AimMaxRadius)*(AimDir.y<0?papddingBot:paddingTop),公式七
上述公式六和七中,MaxAimRadius为技能按钮的瞄准的最大范围,|(B-A)|表示技能按钮拖动的距离,FocusPoint为技能释放位置,AimCameraPos为目标虚拟场景中屏幕中心点的场景位置,BorderLength为屏幕中心点与屏幕边缘之间的边界长度,AimDir为向量(B-A)在虚拟场景中对应的方向向量。(AimDir.x<0?paddingLeft:paddingRight)用于表示AimDir.x<0满足时,取paddingLeft,AimDir.x<0不满足时,取paddingRight。
在圆形区域映射为梯形区域的方式中,如图17,首先计算处于梯形范围的四个顶点在场景中的位置,分别为LT为左上点,LB为左下点,RT为右上点,RB为右下点。
然后,根据AimDir的值判断AimCameraPos顺着AimDir与梯形的相交点,这里比较简单,比如AimDir.x>0&&AimDir.y>0需要判断AimCameraPos已AimDir朝向的射线与(RT-LT)线段的交点,再用这条射线找到与(RT-RB)的交点,而这两个交点与AimCameraPos距离较近的一点为计算所需要的点,通过线段与线段的交点公式即可确定,之后通过下述公式八计算技能释放位置。
FocusPoint=AimCameraPos+(|(B-A)|/MaxAimRadius)*BorderLength*AimDir,公式八
上述公式八中,MaxAimRadius为技能按钮的瞄准的最大范围,|(B-A)|表示技能按钮拖动的距离,FocusPoint为技能释放位置,AimCameraPos为目标虚拟场景中屏幕中心点的场景位置,BorderLength为屏幕中心点与屏幕边缘之间的边界长度,AimDir为向量(B-A)在虚拟场景中对应的方向向量。
上述过程为主动释放方式中如何确定技能释放位置的过程,如果为快速释放,终端可以响应于对目标技能的释放操作结束,且该释放操作结束时的第二操作位置位于第二操作区域内,根据该目标虚拟场景中至少一个第二虚拟对象的信息,从该至少一个第二虚拟对象中确定目标虚拟对象,将该目标虚拟对象确定为该技能释放目标,或者将该目标虚拟对象所在位置确定为该技能释放目标,或者将该目标虚拟对象相对于第一虚拟对象的方向确定为该技能释放目标,该第一操作区域包围于该第二操作区域外。
其中,根据该目标虚拟场景中至少一个第二虚拟对象的信息,从该至少一个第二虚拟对象中确定目标虚拟对象的过程可以参考的信息可以不同,例如,虚拟生命值,或者与第一虚拟对象之间的距离等,本申请实施例对此不作具体限定。具体地,终端根据虚拟场景中至少一个虚拟对象的信息,确定该技能的候选施放目标信息的过程可以通过施放目标确定规则实现,该施放目标确定规则用于确定施放目标,因而也可以称该施放目标确定规则为搜索规则。该施放目标确定规则可以由相关技术人员根据需求进行设置,也可以由该用户根据自身使用习惯进行设置,本申请实施例对此不作限定。例如,终端可以根据虚拟场景中至少一个虚拟对象的信息,选择敌方或己方生命值最小的目标虚拟对象。又例如,将距离自己最近的一个虚拟对象作为目标虚拟对象。又例如,选择优先级最高的虚拟对象。
上述主动释放和快速释放两种方式中,均以释放操作结束时的第二操作位置为准,来进行技能释放目标的确定步骤,也即是,上述步骤703可以为终端响应于对目标技能的释放操作结束,根据该释放操作结束时的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,在释放操作持续过程中,终端还可以获取并突出显示候选技能释放目标,从而用户可以根据自身需求来判断是否符合预期。具体的,终端可以响应于对目标技能的释放操作持续过程中,根据该释放操作的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的候选技能释放目标,在该目标虚拟场景中对该候选技能释放目标进行突出显示。例如,如图13所示,可以突出显示候选技能释放目标,如果此时释放操作结束,即可将其作为第二操作位置对应的释放位置。
在一种可能实现方式中,该目标技能可以具有释放范围,该目标技能的释放不能超出该释放范围。在该实现方式中,终端可以根据当前控制的第一虚拟对象在虚拟场景中的位置以及该目标技能的释放范围,确定该目标技能的可释放区域,其中,该可释放区域是指该技能能够释放的区域,技能无法释放到该可释放区域外的位置。例如,一些技能具有释放距离(也即是可释放范围),根据该释放距离能够确定出一个可释放区域,技能无法释放到超出该释放距离的位置,也就无法释放到可释放区域外的位置。
终端获取到可释放区域后,可以判断当前选定的释放位置是否在该可释放区域内,终端可以响应于该释放操作的第二操作位置在该目标虚拟场景中对应的位置位于该可释放区域内,执行该步骤703。当然,还有另一种可能情况,终端可以响应于该释放操作的第二操作位置在该目标虚拟场景中对应的位置位于该可释放区域外,根据该释放操作的第二操作位置以及该第一虚拟对象在虚拟场景中的位置,确定该第二操作位置在该虚拟场景中对应的技能释放目标。当然,在该另一种可能情况中,终端也可以不执行该技能释放目标的选择步骤,取消对目标技能的释放。
704、终端控制第一虚拟对象按照该技能释放目标释放该目标技能。
终端确定技能释放目标之后,即可控制第一虚拟对象释放该技能。例如,确定了目标虚拟对象为第二虚拟对象A,该技能为对选中目标发射火球。终端显示的释放效果即可为:对第二虚拟对象A发射火球。
在一种可能实现方式中,该技能的释放效果可以通过该技能的释放动画实现,例如,该步骤704中,终端可以获取该技能的释放动画,在第一虚拟对象和目标虚拟对象之间播放该释放动画。
本申请实施例通过根据对地图控件的第一触发操作的第一操作位置,在用户图形界面中显示该第一操作位置对应的目标虚拟场景,在这种情况下,响应于对目标技能的释放操作,能够根据释放操作的第二操作位置,来确定该目标技能在当前显示的目标虚拟场景中对应的技能释放目标,从而进行技能释放,在上述通过地图控件来控制技能释放的方式中,能够在对地图控件进行第一触发操作时,显示相应的目标虚拟场景,这样技能释放目标的选择范围可以不局限于以虚拟对象为中心的虚拟场景中,释放操作的自由度更高,且在技能释放时能够精准地根据想要释放位置的情况来进行选择,而非在当前显示的虚拟场景中粗略估计,提高了对虚拟对象的控制方法的精度和准确性。
下面通过具体示例,对上述方法流程进行示例性说明。如图18所示,对于小地图(也即是地图控件)逻辑,用户可以对小地图进行操作,例如,按下/拖动/抬起操作。终端可以根据触摸点位置(第一操作位置)映射出场景位置(也即是第一操作位置在虚拟场景中对应的位置),终端可以将映射出的场景位置设置给AimCameraPos,该AimCameraPos可以在后续被获取(Get),进行后续的逻辑计算。如果没有对小地图进行操作,则后续计算时,可以获取CenterActorPos(第一虚拟对象所在位置)进行计算。
在此将对小地图操作后触发技能的方式称为小地图瞄准机制,将未对小地图进行操作触发技能的方式称为普通技能瞄准机制。在技能按钮操作时,可以判断是否进行了拖动,如果否,则为快速释放方式,如果是,则为主动释放方式。在快速释放方式中,可以判断AimCameraPos(屏幕中心点的场景位置)是否合法也就是判断是否有小地图操作,如果没有小地图的相关操作,那么直接将当前玩家控制英雄(第一虚拟对象)的位置CenterActorPos赋值给FocusPoint(技能释放位置),如果有小地图操作,那么AimCameraPos合法,将AimCameraPos的值赋值给FocusPoint。在主动释放方式中,也可以判断AimCameraPos是否合法,如果合法,则通过小地图瞄准机制计算FocusPoint,如果不合法,则通过简单技能瞄准机制计算FocusPoint。计算得到FocusPoint后,可以通过普通技能释放逻辑同理的步骤,具体如下:
1.以玩家当前位置ActorPos,FocusPoint(技能释放位置),技能范围等作为参数搜索合适的技能目标。
2.以玩家当前位置ActorPos和FocusPoint以及第一步搜索的目标为参数显示出技能指示器,该技能指示器用于对技能目标进行预览显示。
从镜头步骤我们知道当有小地图拖动时,AimCameraPos是我们的屏幕的中心点,而在快速点击的流程中我们也是将AimCameraPos赋值给FocusPoint,而我们的技能流程中根据FocusPoint位置的不同表现出不同的技能表现,镜头和技能同时以AimCameraPos为基础点的逻辑让我们的在操作上达到了所见即所得的目的。
对于普通技能瞄准机制,在没有小地图拖动的方案中,即可通过下述公式九得到技能释放位置FocusPoint。
FocusPoint=H+Normalize(Db-Da)*(|B-A|*M),公式九
对于公式九中的参数,可以如图19所示,假设第一虚拟对象在H点,技能范围为SkillRange,可以在UI层拿到一个(B-A)的瞄准向量,|B-A|是(B-A)的长度,H点即第一虚拟对象当前的位置,还有Normalize(Db-Da)为(Db-Da)的归一化后的向量,套入上述公式九得出FocusPoint,M为技能范围的半径。
对于镜头更新逻辑,镜头帧更新时,可以判断AimCameraPos是否合法,如果合法,则镜头跟随小地图中的屏幕中心点AimCameraPos,如果否,镜头跟随第一虚拟对象的位置(CenterActorPos)。
图20是本申请实施例提供的一种虚拟对象的控制装置的结构示意图,该装置包括:
显示模块2001,用于响应于对地图控件的第一触发操作,根据该第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至该第一操作位置对应的目标虚拟场景;
确定模块2002,用于响应于对目标技能的释放操作,根据该释放操作的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标;
控制模块2003,用于控制第一虚拟对象按照该技能释放目标释放该目标技能。
在一种可能实现方式中,该显示模块2001包括第一获取单元和显示单元,其中:
该第一获取单元用于根据该第一触发操作的第一操作位置以及该地图控件中显示信息与虚拟场景的对应关系,获取该第一操作位置对应的目标虚拟场景;
该显示单元用于将用户图形界面中显示的虚拟场景切换至该目标虚拟场景。
在一种可能实现方式中,该第一获取单元用于执行下述任一项:
根据该第一触发操作的第一操作位置,获取该地图控件中,以该第一操作位置为中心、尺寸为第一目标尺寸的目标区域,根据该地图控件中的区域与虚拟场景的对应关系,获取该目标区域对应的目标虚拟场景;
根据该第一操作位置以及该地图控件中的位置与虚拟场景的对应关系,获取该第一操作位置对应的虚拟场景中的目标位置,获取以该目标位置为中心、尺寸为第二目标尺寸的目标虚拟场景。
在一种可能实现方式中,该确定模块2002用于响应于对目标技能的技能控件的第二触发操作,根据该第二触发操作的第二操作位置相对于该技能控件的位置关系,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,该技能释放目标为技能释放位置、目标虚拟对象或技能释放方向中的任一项;
该确定模块2002包括第二获取单元、转换单元和确定单元,其中:
该第二获取单元用于获取该第二操作位置相对于该技能控件的位置关系;
该转换单元用于根据该技能控件的操作区域与虚拟场景之间的转换关系,对该第二操作位置相对于该技能控件的位置关系进行转换,得到技能释放位置相对于该目标虚拟场景的中心位置的目标位置关系;
该确定单元用于根据该目标虚拟场景的中心位置以及该目标位置关系,确定该释放操作的操作位置在该目标虚拟场景中对应的技能释放位置,将该技能释放位置确定为该技能释放目标,或者将该技能释放位置上的虚拟对象确定为目标虚拟对象,或者将该技能释放位置相对于当前控制的第一虚拟对象的方向确定为技能释放方向。
在一种可能实现方式中,该转换单元用于:
根据该目标虚拟场景的中心位置,确定该目标虚拟场景的边缘位置;
根据该目标虚拟场景的中心位置、该目标虚拟场景的边缘位置以及该操作区域的尺寸,对该第二操作位置相对于该技能控件的位置关系进行转换。
在一种可能实现方式中,该确定模块2002用于响应于对目标技能的释放操作结束,且该释放操作结束时的第二操作位置位于第一操作区域内,执行该根据该第二触发操作的第二操作位置相对于该技能控件的位置关系,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,该确定模块2002用于响应于对目标技能的释放操作结束,且该释放操作结束时的第二操作位置位于第二操作区域内,根据该目标虚拟场景中至少一个第二虚拟对象的信息,从该至少一个第二虚拟对象中确定目标虚拟对象,将该目标虚拟对象确定为该技能释放目标,或者将该目标虚拟对象所在位置确定为该技能释放目标,或者将该目标虚拟对象相对于第一虚拟对象的方向确定为该技能释放目标,该第一操作区域包围于该第二操作区域外。
在一种可能实现方式中,该确定模块2002用于响应于对目标技能的释放操作结束,根据该释放操作结束时的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标。
在一种可能实现方式中,该确定模块2002还用于响应于对目标技能的释放操作持续过程中,根据该释放操作的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的候选技能释放目标;
该显示模块2001还用于在该目标虚拟场景中对该候选技能释放目标进行突出显示。
在一种可能实现方式中,该确定模块2002用于:
根据当前控制的第一虚拟对象在虚拟场景中的位置以及该目标技能的释放范围,确定该目标技能的可释放区域;
响应于该释放操作的第二操作位置在该目标虚拟场景中对应的位置位于该可释放区域内,执行该根据该释放操作的第二操作位置,确定该第二操作位置在该目标虚拟场景中对应的技能释放目标的步骤。
在一种可能实现方式中,该确定模块2002还用于响应于该释放操作的第二操作位置在该目标虚拟场景中对应的位置位于该可释放区域外,根据该释放操作的第二操作位置以及该第一虚拟对象在虚拟场景中的位置,确定该第二操作位置在该虚拟场景中对应的技能释放目标。
本申请实施例提供的装置,通过根据对地图控件的第一触发操作的第一操作位置,在用户图形界面中显示该第一操作位置对应的目标虚拟场景,在这种情况下,响应于对目标技能的释放操作,能够根据释放操作的第二操作位置,来确定该目标技能在当前显示的目标虚拟场景中对应的技能释放目标,从而进行技能释放,在上述通过地图控件来控制技能释放的方式中,能够在对地图控件进行第一触发操作时,显示相应的目标虚拟场景,这样技能释放目标的选择范围可以不局限于以虚拟对象为中心的虚拟场景中,释放操作的自由度更高,且在技能释放时能够精准地根据想要释放位置的情况来进行选择,而非在当前显示的虚拟场景中粗略估计,提高了对虚拟对象的控制方法的精度和准确性。
需要说明的是:上述实施例提供的虚拟对象的控制装置在控制虚拟对象时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将电子设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟对象的控制装置与虚拟对象的控制方法实施例属于同一构思,其具体实现过程详见虚拟对象的控制方法实施例,这里不再赘述。
上述电子设备可以被提供为下述图21所示的终端,也可以被提供为下述图22所示的服务器,本申请实施例对此不作限定。
图21是本申请实施例提供的一种终端2100的结构示意图,该终端2100可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端2100还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端2100包括有:处理器2101和存储器2102。
处理器2101可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器2101可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器2101也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器2101可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器2101还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器2102可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器2102还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器2102中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器2101所执行以实现本申请中各个实施例提供的虚拟对象的控制方法中终端侧的方法步骤。
在一些实施例中,终端2100还可选包括有:外围设备接口2103和至少一个外围设备。处理器2101、存储器2102和外围设备接口2103之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口2103相连。具体地,外围设备包括:射频电路2104、触摸显示屏2105、摄像头组件2106、音频电路2107、定位组件2108和电源2109中的至少一种。
外围设备接口2103可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器2101和存储器2102。在一些实施例中,处理器2101、存储器2102和外围设备接口2103被集成在同一芯片或电路板上;在一些其他实施例中,处理器2101、存储器2102和外围设备接口2103中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路2104用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路2104通过电磁信号与通信网络以及其他通信设备进行通信。射频电路2104将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路2104包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路2104可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路2104还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏2105用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏2105是触摸显示屏时,显示屏2105还具有采集在显示屏2105的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器2101进行处理。此时,显示屏2105还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏2105可以为一个,设置终端2100的前面板;在另一些实施例中,显示屏2105可以为至少两个,分别设置在终端2100的不同表面或呈折叠设计;在再一些实施例中,显示屏2105可以是柔性显示屏,设置在终端2100的弯曲表面上或折叠面上。甚至,显示屏2105还可以设置成非矩形的不规则图形,也即异形屏。显示屏2105可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件2106用于采集图像或视频。可选地,摄像头组件2106包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件2106还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路2107可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器2101进行处理,或者输入至射频电路2104以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端2100的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器2101或射频电路2104的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路2107还可以包括耳机插孔。
定位组件2108用于定位终端2100的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件2108可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源2109用于为终端2100中的各个组件进行供电。电源2109可以是交流电、直流电、一次性电池或可充电电池。当电源2109包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端2100还包括有一个或多个传感器2110。该一个或多个传感器2110包括但不限于:加速度传感器2111、陀螺仪传感器2112、压力传感器2113、指纹传感器2114、光学传感器2115以及接近传感器2116。
加速度传感器2111可以检测以终端2100建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器2111可以用于检测重力加速度在三个坐标轴上的分量。处理器2101可以根据加速度传感器2111采集的重力加速度信号,控制触摸显示屏2105以横向视图或纵向视图进行用户界面的显示。加速度传感器2111还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器2112可以检测终端2100的机体方向及转动角度,陀螺仪传感器2112可以与加速度传感器2111协同采集用户对终端2100的3D动作。处理器2101根据陀螺仪传感器2112采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器2113可以设置在终端2100的侧边框和/或触摸显示屏2105的下层。当压力传感器2113设置在终端2100的侧边框时,可以检测用户对终端2100的握持信号,由处理器2101根据压力传感器2113采集的握持信号进行左右手识别或快捷操作。当压力传感器2113设置在触摸显示屏2105的下层时,由处理器2101根据用户对触摸显示屏2105的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器2114用于采集用户的指纹,由处理器2101根据指纹传感器2114采集到的指纹识别用户的身份,或者,由指纹传感器2114根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器2101授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器2114可以被设置终端2100的正面、背面或侧面。当终端2100上设置有物理按键或厂商Logo时,指纹传感器2114可以与物理按键或厂商Logo集成在一起。
光学传感器2115用于采集环境光强度。在一个实施例中,处理器2101可以根据光学传感器2115采集的环境光强度,控制触摸显示屏2105的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏2105的显示亮度;当环境光强度较低时,调低触摸显示屏2105的显示亮度。在另一个实施例中,处理器2101还可以根据光学传感器2115采集的环境光强度,动态调整摄像头组件2106的拍摄参数。
接近传感器2116,也称距离传感器,通常设置在终端2100的前面板。接近传感器2116用于采集用户与终端2100的正面之间的距离。在一个实施例中,当接近传感器2116检测到用户与终端2100的正面之间的距离逐渐变小时,由处理器2101控制触摸显示屏2105从亮屏状态切换为息屏状态;当接近传感器2116检测到用户与终端2100的正面之间的距离逐渐变大时,由处理器2101控制触摸显示屏2105从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图21中示出的结构并不构成对终端2100的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图22是本申请实施例提供的一种服务器2200的结构示意图,该服务器2200可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(CentralProcessing Units,CPU)2201和一个或一个以上的存储器2202,其中,该存储器2202中存储有至少一条程序代码,该至少一条程序代码由该处理器2201加载并执行以实现上述各个实施例提供的虚拟对象的控制方法中服务器侧的方法步骤。当然,该服务器2200还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器2200还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括至少一条程序代码的存储器,上述至少一条程序代码可由电子设备中的处理器执行以完成上述实施例中虚拟对象的控制方法。例如,该计算机可读存储介质可以是ROM(Read-Only Memory,只读存储器)、RAM(Random-Access Memory,随机存取存储器)、CD-ROM(Compact Disc Read-OnlyMemory,只读光盘)、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种虚拟对象的控制方法,其特征在于,所述方法包括:
响应于对地图控件的第一触发操作,根据所述第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至所述第一操作位置对应的目标虚拟场景;
响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标;
控制第一虚拟对象按照所述技能释放目标释放所述目标技能。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至所述第一操作位置对应的目标虚拟场景,包括:
根据所述第一触发操作的第一操作位置以及所述地图控件中显示信息与虚拟场景的对应关系,获取所述第一操作位置对应的目标虚拟场景;
将用户图形界面中显示的虚拟场景切换至所述目标虚拟场景。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一触发操作的第一操作位置以及所述地图控件中显示信息与虚拟场景的对应关系,获取所述第一操作位置对应的目标虚拟场景,包括下述任一项:
根据所述第一触发操作的第一操作位置,获取所述地图控件中,以所述第一操作位置为中心、尺寸为第一目标尺寸的目标区域,根据所述地图控件中的区域与虚拟场景的对应关系,获取所述目标区域对应的目标虚拟场景;
根据所述第一操作位置以及所述地图控件中的位置与虚拟场景的对应关系,获取所述第一操作位置对应的虚拟场景中的目标位置,获取以所述目标位置为中心、尺寸为第二目标尺寸的目标虚拟场景。
4.根据权利要求1所述的方法,其特征在于,所述响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标,包括:
响应于对目标技能的技能控件的第二触发操作,根据所述第二触发操作的第二操作位置相对于所述技能控件的位置关系,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标。
5.根据权利要求4所述的方法,其特征在于,所述技能释放目标为技能释放位置、目标虚拟对象或技能释放方向中的任一项;
所述根据所述第二触发操作的第二操作位置相对于所述技能控件的位置关系,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标,包括:
获取所述第二操作位置相对于所述技能控件的位置关系;
根据所述技能控件的操作区域与虚拟场景之间的转换关系,对所述第二操作位置相对于所述技能控件的位置关系进行转换,得到技能释放位置相对于所述目标虚拟场景的中心位置的目标位置关系;
根据所述目标虚拟场景的中心位置以及所述目标位置关系,确定所述释放操作的操作位置在所述目标虚拟场景中对应的技能释放位置,将所述技能释放位置确定为所述技能释放目标,或者将所述技能释放位置上的虚拟对象确定为目标虚拟对象,或者将所述技能释放位置相对于当前控制的第一虚拟对象的方向确定为技能释放方向。
6.根据权利要求5所述的方法,其特征在于,所述根据所述技能控件的操作区域与虚拟场景之间的转换关系,对所述第二操作位置相对于所述技能控件的位置关系进行转换,包括:
根据所述目标虚拟场景的中心位置,确定所述目标虚拟场景的边缘位置;
根据所述目标虚拟场景的中心位置、所述目标虚拟场景的边缘位置以及所述操作区域的尺寸,对所述第二操作位置相对于所述技能控件的位置关系进行转换。
7.根据权利要求4所述的方法,其特征在于,所述响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标,包括:
响应于对目标技能的释放操作结束,且所述释放操作结束时的第二操作位置位于第一操作区域内,执行所述根据所述第二触发操作的第二操作位置相对于所述技能控件的位置关系,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标。
8.根据权利要求1所述的方法,其特征在于,所述响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标,包括:
响应于对目标技能的释放操作结束,且所述释放操作结束时的第二操作位置位于第二操作区域内,根据所述目标虚拟场景中至少一个第二虚拟对象的信息,从所述至少一个第二虚拟对象中确定目标虚拟对象,将所述目标虚拟对象确定为所述技能释放目标,或者将所述目标虚拟对象所在位置确定为所述技能释放目标,或者将所述目标虚拟对象相对于第一虚拟对象的方向确定为所述技能释放目标,所述第一操作区域包围于所述第二操作区域外。
9.根据权利要求1所述的方法,其特征在于,所述响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标,包括:
响应于对目标技能的释放操作结束,根据所述释放操作结束时的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于对目标技能的释放操作持续过程中,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的候选技能释放目标;
在所述目标虚拟场景中对所述候选技能释放目标进行突出显示。
11.根据权利要求1所述的方法,其特征在于,所述响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标,包括:
根据当前控制的第一虚拟对象在虚拟场景中的位置以及所述目标技能的释放范围,确定所述目标技能的可释放区域;
响应于所述释放操作的第二操作位置在所述目标虚拟场景中对应的位置位于所述可释放区域内,执行所述根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标的步骤。
12.根据权利要求11所述的方法,其特征在于,所述方法还包括:
响应于所述释放操作的第二操作位置在所述目标虚拟场景中对应的位置位于所述可释放区域外,根据所述释放操作的第二操作位置以及所述第一虚拟对象在虚拟场景中的位置,确定所述第二操作位置在所述虚拟场景中对应的技能释放目标。
13.一种虚拟对象的控制装置,其特征在于,所述装置包括:
显示模块,用于响应于对地图控件的第一触发操作,根据所述第一触发操作的第一操作位置,将用户图形界面中显示的虚拟场景切换至所述第一操作位置对应的目标虚拟场景;
确定模块,用于响应于对目标技能的释放操作,根据所述释放操作的第二操作位置,确定所述第二操作位置在所述目标虚拟场景中对应的技能释放目标;
控制模块,用于控制第一虚拟对象按照所述技能释放目标释放所述目标技能。
14.一种电子设备,其特征在于,所述电子设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条程序代码,所述至少一条程序代码由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求12任一项所述的虚拟对象的控制方法所执行的操作。
15.一种存储介质,其特征在于,所述存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现如权利要求1至权利要求12任一项所述的虚拟对象的控制方法所执行的操作。
CN202010412006.5A 2020-05-15 2020-05-15 虚拟对象的控制方法、装置、设备及介质 Active CN111589142B (zh)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN202010412006.5A CN111589142B (zh) 2020-05-15 2020-05-15 虚拟对象的控制方法、装置、设备及介质
EP21785742.4A EP3943173A4 (en) 2020-05-15 2021-03-29 METHOD, DEVICE AND DEVICE FOR CONTROLLING A VIRTUAL OBJECT
KR1020217033731A KR20210140747A (ko) 2020-05-15 2021-03-29 가상 객체 제어 방법 및 장치, 디바이스 및 매체
JP2021562153A JP7177288B2 (ja) 2020-05-15 2021-03-29 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム
SG11202110880XA SG11202110880XA (en) 2020-05-15 2021-03-29 Virtual object control method and apparatus, device, and medium
PCT/CN2021/083656 WO2021227682A1 (zh) 2020-05-15 2021-03-29 虚拟对象的控制方法、装置、设备及介质
US17/501,537 US20220032191A1 (en) 2020-05-15 2021-10-14 Virtual object control method and apparatus, device, and medium
JP2022180557A JP2023021114A (ja) 2020-05-15 2022-11-10 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010412006.5A CN111589142B (zh) 2020-05-15 2020-05-15 虚拟对象的控制方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN111589142A true CN111589142A (zh) 2020-08-28
CN111589142B CN111589142B (zh) 2023-03-21

Family

ID=72183759

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010412006.5A Active CN111589142B (zh) 2020-05-15 2020-05-15 虚拟对象的控制方法、装置、设备及介质

Country Status (7)

Country Link
US (1) US20220032191A1 (zh)
EP (1) EP3943173A4 (zh)
JP (2) JP7177288B2 (zh)
KR (1) KR20210140747A (zh)
CN (1) CN111589142B (zh)
SG (1) SG11202110880XA (zh)
WO (1) WO2021227682A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112402949A (zh) * 2020-12-04 2021-02-26 腾讯科技(深圳)有限公司 虚拟对象的技能释放方法、装置、终端及存储介质
CN113476845A (zh) * 2021-07-08 2021-10-08 网易(杭州)网络有限公司 游戏中的交互控制方法、装置、电子设备及计算机介质
CN113633995A (zh) * 2021-08-10 2021-11-12 网易(杭州)网络有限公司 游戏的交互控制方法、装置、设备及存储介质
WO2021227682A1 (zh) * 2020-05-15 2021-11-18 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质
CN113750518A (zh) * 2021-09-10 2021-12-07 网易(杭州)网络有限公司 技能按钮的控制方法、装置、电子设备及计算机可读介质
WO2022237076A1 (zh) * 2021-05-14 2022-11-17 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及计算机可读存储介质
WO2023005522A1 (zh) * 2021-07-27 2023-02-02 腾讯科技(深圳)有限公司 虚拟技能的控制方法、装置、设备、存储介质及程序产品
TWI821779B (zh) * 2021-05-13 2023-11-11 大陸商騰訊科技(深圳)有限公司 虛擬對象的控制方法、裝置、計算機設備及儲存媒體
US11865449B2 (en) 2021-05-14 2024-01-09 Tencent Technology (Shenzhen) Company Limited Virtual object control method, apparatus, device, and computer-readable storage medium
WO2024051069A1 (zh) * 2022-09-06 2024-03-14 网易(杭州)网络有限公司 游戏技能控制方法、装置、电子设备及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110721472A (zh) * 2019-10-08 2020-01-24 上海莉莉丝科技股份有限公司 一种寻路方法、装置、设备以及记录介质
US11484793B1 (en) * 2021-09-02 2022-11-01 Supercell Oy Game control
US20230186434A1 (en) * 2021-12-09 2023-06-15 Unity Technologies Sf Defocus operations for a virtual display with focus and defocus determined based on camera settings
CN117482505A (zh) * 2022-07-25 2024-02-02 腾讯科技(深圳)有限公司 虚拟场景中的交互方法、装置、设备、存储介质及产品
CN115193038A (zh) * 2022-07-26 2022-10-18 北京字跳网络技术有限公司 一种交互控制方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109568957A (zh) * 2019-01-10 2019-04-05 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
US9460543B2 (en) * 2013-05-31 2016-10-04 Intel Corporation Techniques for stereo three dimensional image mapping
CN105148517B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
WO2018103634A1 (zh) * 2016-12-06 2018-06-14 腾讯科技(深圳)有限公司 一种数据处理的方法及移动终端
CN106730819B (zh) * 2016-12-06 2018-09-07 腾讯科技(深圳)有限公司 一种基于移动终端的数据处理方法及移动终端
CN110115838B (zh) * 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN110507993B (zh) * 2019-08-23 2020-12-11 腾讯科技(深圳)有限公司 控制虚拟对象的方法、装置、设备及介质
CN110613938B (zh) * 2019-10-18 2023-04-11 腾讯科技(深圳)有限公司 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN111589142B (zh) * 2020-05-15 2023-03-21 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109568957A (zh) * 2019-01-10 2019-04-05 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021227682A1 (zh) * 2020-05-15 2021-11-18 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质
CN112402949A (zh) * 2020-12-04 2021-02-26 腾讯科技(深圳)有限公司 虚拟对象的技能释放方法、装置、终端及存储介质
CN112402949B (zh) * 2020-12-04 2023-09-15 腾讯科技(深圳)有限公司 虚拟对象的技能释放方法、装置、终端及存储介质
TWI821779B (zh) * 2021-05-13 2023-11-11 大陸商騰訊科技(深圳)有限公司 虛擬對象的控制方法、裝置、計算機設備及儲存媒體
WO2022237076A1 (zh) * 2021-05-14 2022-11-17 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及计算机可读存储介质
US11865449B2 (en) 2021-05-14 2024-01-09 Tencent Technology (Shenzhen) Company Limited Virtual object control method, apparatus, device, and computer-readable storage medium
CN113476845A (zh) * 2021-07-08 2021-10-08 网易(杭州)网络有限公司 游戏中的交互控制方法、装置、电子设备及计算机介质
WO2023005522A1 (zh) * 2021-07-27 2023-02-02 腾讯科技(深圳)有限公司 虚拟技能的控制方法、装置、设备、存储介质及程序产品
CN113633995A (zh) * 2021-08-10 2021-11-12 网易(杭州)网络有限公司 游戏的交互控制方法、装置、设备及存储介质
CN113750518A (zh) * 2021-09-10 2021-12-07 网易(杭州)网络有限公司 技能按钮的控制方法、装置、电子设备及计算机可读介质
WO2024051069A1 (zh) * 2022-09-06 2024-03-14 网易(杭州)网络有限公司 游戏技能控制方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP2023021114A (ja) 2023-02-09
SG11202110880XA (en) 2021-12-30
EP3943173A1 (en) 2022-01-26
EP3943173A4 (en) 2022-08-10
KR20210140747A (ko) 2021-11-23
US20220032191A1 (en) 2022-02-03
WO2021227682A1 (zh) 2021-11-18
JP2022527662A (ja) 2022-06-02
CN111589142B (zh) 2023-03-21
JP7177288B2 (ja) 2022-11-22

Similar Documents

Publication Publication Date Title
CN111589142B (zh) 虚拟对象的控制方法、装置、设备及介质
CN111589128B (zh) 基于虚拟场景的操作控件显示方法及装置
CN111013142B (zh) 互动效果显示方法、装置、计算机设备及存储介质
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN111414080B (zh) 虚拟对象的位置显示方法、装置、设备及存储介质
CN110141859B (zh) 虚拟对象控制方法、装置、终端及存储介质
CN111589140B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN111921197B (zh) 对局回放画面的显示方法、装置、终端及存储介质
CN111589136B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN111672126B (zh) 信息显示方法、装置、设备及存储介质
CN111282266B (zh) 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
CN111596838B (zh) 业务处理方法、装置、计算机设备及计算机可读存储介质
CN113509714B (zh) 虚拟道具合成预览方法、装置、终端及存储介质
CN110448908B (zh) 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质
CN111672104A (zh) 虚拟场景的显示方法、装置、终端及存储介质
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN112691370A (zh) 虚拟对局中投票结果的显示方法、装置、设备及存储介质
CN111672102A (zh) 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN113559495A (zh) 虚拟对象释放技能的方法、装置、设备及存储介质
CN110833695A (zh) 基于虚拟场景的业务处理方法、装置、设备及存储介质
CN111672115B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN111651616B (zh) 多媒体资源的生成方法、装置、设备及介质
CN111035929B (zh) 基于虚拟环境的淘汰信息反馈方法、装置、设备及介质
CN112755517A (zh) 虚拟对象控制方法、装置、终端及存储介质
CN112494958A (zh) 语音转换文字的方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40027371

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant