CN111672115A - 虚拟对象控制方法、装置、计算机设备及存储介质 - Google Patents

虚拟对象控制方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN111672115A
CN111672115A CN202010507467.0A CN202010507467A CN111672115A CN 111672115 A CN111672115 A CN 111672115A CN 202010507467 A CN202010507467 A CN 202010507467A CN 111672115 A CN111672115 A CN 111672115A
Authority
CN
China
Prior art keywords
touch
virtual object
determining
positions
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010507467.0A
Other languages
English (en)
Other versions
CN111672115B (zh
Inventor
胡勋
万钰林
翁建苗
粟山东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010507467.0A priority Critical patent/CN111672115B/zh
Publication of CN111672115A publication Critical patent/CN111672115A/zh
Priority to KR1020217034213A priority patent/KR102648249B1/ko
Priority to EP21782630.4A priority patent/EP3939679A4/en
Priority to PCT/CN2021/093061 priority patent/WO2021244237A1/zh
Priority to JP2021563357A priority patent/JP7384521B2/ja
Priority to US17/507,965 priority patent/US12005360B2/en
Application granted granted Critical
Publication of CN111672115B publication Critical patent/CN111672115B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例公开了一种虚拟对象控制方法、装置、计算机设备及存储介质,属于计算机技术领域。该方法包括:响应于对触控区域的触摸操作,确定触摸操作的至少两个触摸位置,根据至少两个触摸位置,确定触摸操作的目标触摸位置;确定目标触摸位置指示的第一瞄准方向;控制第一虚拟对象按照第一瞄准方向执行释放技能操作。该方法综合考虑该至少两个触摸位置确定目标触摸位置,得到的目标触摸位置能够体现用户期望的触摸位置,则目标触摸位置指示的瞄准方向更能满足用户的需求,提高了瞄准方向的准确率。

Description

虚拟对象控制方法、装置、计算机设备及存储介质
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种虚拟对象控制方法、装置、计算机设备及存储介质。
背景技术
随着计算机技术的发展及电子游戏的广泛普及,在电子游戏中可以控制虚拟对象执行多种多样的操作,极大地提升了游戏效果。其中,释放技能操作是一种常用的操作,用户可以控制虚拟对象按照瞄准方向释放技能,而在释放技能之前需要确定瞄准方向。
用户通常使用手指在触控区域中执行触摸操作,从而根据触摸操作的触摸位置确定瞄准方向。但是由于手指与触控区域的接触面积较大,触摸位置难以控制,很容易导致实际触摸位置与用户期望的触摸位置不一致,从而导致瞄准方向不准确。
发明内容
本申请实施例提供了一种虚拟对象控制方法、装置、计算机设备及存储介质,提高了瞄准方向的准确率,所述技术方案如下:
一方面,提供了一种虚拟对象控制方法,所述方法包括:
响应于对触控区域的触摸操作,确定所述触摸操作的至少两个触摸位置,所述至少两个触摸位置包括所述触摸操作的终止触摸位置;
根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置;
确定所述目标触摸位置指示的第一瞄准方向;
控制第一虚拟对象按照所述第一瞄准方向执行释放技能操作。
另一方面,提供了一种瞄准信息获取装置,所述装置包括:
触摸位置确定模块,用于响应于对触控区域的触摸操作,确定所述触摸操作的至少两个触摸位置,所述至少两个触摸位置包括所述触摸操作的终止触摸位置;
目标位置确定模块,用于根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置;
第一方向确定模块,用于确定所述目标触摸位置指示的第一瞄准方向;
第一控制模块,用于控制第一虚拟对象按照所述第一瞄准方向执行释放技能操作。
在一种可能实现方式中,所述目标位置确定模块,包括:
权重确定单元,用于按照所述至少两个触摸位置的排列顺序,确定所述至少两个触摸位置的权重;
坐标确定单元,用于按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的坐标进行加权处理,得到所述目标触摸位置的坐标。
在另一种可能实现方式中,所述触摸位置的坐标包括横坐标和纵坐标,所述坐标确定单元,用于:
按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的横坐标进行加权求和,得到所述目标触摸位置的横坐标;
按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的纵坐标进行加权求和,得到所述目标触摸位置的纵坐标。
在另一种可能实现方式中,所述触摸位置确定模块,包括:
第一位置确定单元,用于响应于所述触控区域中的触摸点对应的按下操作,确定所述按下操作对应的初始触摸位置;
第二位置确定单元,用于确定所述触摸点在所述触控区域中滑动的过程中的至少一个触摸位置;
第三位置确定单元,用于响应于所述触控区域中的所述触摸点对应的抬起操作,确定所述抬起操作对应的终止触摸位置。
在另一种可能实现方式中,所述装置还包括:
标识分配模块,用于响应于所述触控区域中的触摸点对应的按下操作,为所述触摸点分配触摸标识;
所述第二位置确定单元,用于确定所述触控区域中检测到的与所述触摸标识匹配的至少两个触摸位置。
在另一种可能实现方式中,所述第一控制模块,包括:
对象确定单元,用于确定所述第一瞄准方向上,与所述第一虚拟对象之间的距离最近的第二虚拟对象;
第一控制单元,用于控制所述第一虚拟对象向所述第二虚拟对象执行所述释放技能操作。
在另一种可能实现方式中,所述第一控制模块,包括:
瞄准位置确定单元,用于根据所述第一瞄准方向及第一预设距离,确定所述第一瞄准方向上的瞄准位置,所述瞄准位置与所述第一虚拟对象之间的距离为所述第一预设距离;
第二控制单元,用于控制所述第一虚拟对象向所述瞄准位置执行所述释放技能操作。
在另一种可能实现方式中,所述触控区域包括第一触控子区域及第二触控子区域,所述第二触控子区域位于所述第一触控子区域的外侧;
目标位置确定模块,用于所述终止触摸位置位于所述第二触控子区域,则根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置。
在另一种可能实现方式中,所述装置还包括:
第二方向确定模块,用于所述至少两个触摸位置均位于所述第一触控子区域,则按照预设规则确定第二瞄准方向;
第二控制模块,用于控制所述第一虚拟对象按照所述第二瞄准方向执行所述释放技能操作。
在另一种可能实现方式中,所述第二方向确定模块,包括:
对象位置确定单元,用于确定与所述第一虚拟对象之间的距离小于第二预设距离的第三虚拟对象的位置;
第二方向确定单元,用于根据所述第一虚拟对象的位置和所述第三虚拟对象的位置,确定所述第二瞄准方向。
在另一种可能实现方式中,所述装置还包括:
按钮显示模块,用于通过所述第一虚拟对象对应的虚拟场景界面,显示所述第一虚拟对象的释放技能按钮;
触控区域显示模块,用于响应于对所述释放技能按钮的触发操作,通过所述虚拟场景界面显示所述触控区域。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现如所述虚拟对象控制方法中所执行的操作。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行,以实现如所述虚拟对象控制方法中所执行的操作。
本申请实施例提供的技术方案带来的有益效果至少包括:
本申请实施例提供的方法、装置、计算机设备及存储介质,不再仅根据触控区域中触摸操作的最后一个触摸位置确定瞄准方向,而是确定触摸操作的至少两个触摸位置,综合考虑该至少两个触摸位置确定目标触摸位置,避免了由于用户误操作产生的最后一个触摸位置与用户期望的触摸位置不一致的情况,得到的目标触摸位置能够体现用户期望的触摸位置,则目标触摸位置指示的瞄准方向更能满足用户的需求,提高了瞄准方向的准确率,之后按照确定的瞄准方向,控制第一虚拟对象执行释放技能操作,对第一虚拟对象释放技能操作的控制也更加准确。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种虚拟对象控制方法的流程图;
图2是本申请实施例提供的另一种虚拟对象控制方法的流程图;
图3是本申请实施例提供的一种虚拟场景界面的示意图;
图4是本申请实施例提供的一种触控区域的示意图;
图5是本申请实施例提供的另一种虚拟场景界面的示意图;
图6是本申请实施例提供的另一种虚拟场景界面的示意图;
图7是本申请实施例提供的另一种虚拟场景界面的示意图;
图8是本申请实施例提供的另一种虚拟场景界面的示意图;
图9是本申请实施例提供的另一种虚拟场景界面的示意图;
图10是本申请实施例提供的另一种虚拟场景界面的示意图;
图11是本申请实施例提供的另一种虚拟场景界面的示意图;
图12是本申请实施例提供的另一种虚拟场景界面的示意图;
图13是本申请实施例提供的一种控制虚拟对象释放技能的流程图;
图14是本申请实施例提供的另一种触摸区域的示意图;
图15是本申请实施例提供的另一种触摸区域的示意图;
图16是本申请实施例提供的一种确定目标触摸位置的流程图;
图17是本申请实施例提供的一种虚拟对象控制装置的结构示意图;
图18是本申请实施例提供的另一种虚拟对象控制装置的结构示意图;
图19是本申请实施例提供的一种终端的结构示意图;
图20是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种概念,但除非特别说明,这些概念不受这些术语限制。这些术语仅用于将一个概念与另一个概念区分。举例来说,在不脱离本申请的范围的情况下,可以将第一虚拟对象称为第二虚拟对象,将第二虚拟对象称为第一虚拟对象。
为了便于理解本申请实施例,对本申请实施例涉及到的名词进行解释:
多人在线战术竞技:在虚拟场景中,至少两个敌对阵营分别占据各自的地图区域,以某一种胜利条件作为目标进行竞技。该胜利条件包括但不限于:占领据点或摧毁敌对阵营据点、击杀敌对阵营的虚拟对象、在指定场景和时间内保证自身的存活、抢夺到某种资源、在指定时间内比分超过对方中的至少一种。战术竞技可以以局为单位来进行,每局战术竞技的地图可以相同,也可以不同。每个虚拟队伍包括一个或多个虚拟对象,比如1个、2个、3个或5个。
MOBA(Multiplayer Online Battle Arena,多人在线战术竞技)游戏:是一种在虚拟场景中提供多个据点,处于不同阵营的用户控制虚拟对象在虚拟场景中对战,占领据点或摧毁敌对阵营据点的游戏。例如,MOBA游戏可将多个用户的虚拟对象分成两个敌对阵营,将虚拟对象分散在虚拟场景中互相竞争,以摧毁或占领敌方的全部据点作为胜利条件。MOBA游戏以局为单位,一局MOBA游戏的持续时间是从游戏开始的时刻至某一阵营达成胜利条件的时刻。
虚拟对象:是指在虚拟场景中的可活动对象,该可活动对象可以是任一种形态,例如虚拟人物、虚拟动物、动漫人物等。当虚拟场景为三维虚拟场景时,虚拟对象可以是三维立体模型,每个虚拟对象在三维虚拟场景中具有自身的形状和体积,占据三维虚拟场景中的一部分空间。虚拟对象是基于三维人体骨骼技术构建的三维角色,该虚拟对象通过穿戴不同的皮肤来实现不同的外在形象。在一些实现方式中,虚拟对象也可以采用2.5维或2维模型来实现,本申请实施例对此不加以限定。
虚拟场景:虚拟场景是应用程序在终端上运行时显示(或提供)的虚拟场景。虚拟场景可以用于模拟一个三维虚拟空间,该三维虚拟空间可以是一个开放空间,该虚拟场景可以是对现实中真实环境进行仿真的虚拟场景,也可以是半仿真半虚构的虚拟场景,还可以是完全虚构的虚拟场景,虚拟场景可以是二维虚拟场景、2.5维虚拟场景和三维虚拟场景中的任意一种。例如,该虚拟场景中可以包括河流、草丛、陆地、建筑物等。该虚拟场景用于至少两个虚拟对象之间进行对战,虚拟场景中还包括供至少两个虚拟对象使用的虚拟资源,如虚拟对象用于武装自己或与其他虚拟对象进行战斗所需的兵器等道具。
例如,虚拟场景可以为任一电子游戏中的虚拟场景,以电子游戏为MOBA为例,该虚拟场景提供有正方形地图,该正方形地图包括对称的左下角区域和右上角区域,属于两个敌对阵营的虚拟对象分别占据其中一个区域,并以摧毁对方区域的目标建筑物作为游戏胜利的目标。
本申请实施例提供的虚拟对象控制方法,可应用于多种场景下。
例如,应用于游戏中的对战场景下。在对战场景中,终端显示第一虚拟对象,用户控制第一虚拟对象执行释放技能操作,可以采用本申请实施例提供的虚拟对象控制方法,确定第一虚拟对象执行释放技能操作时的瞄准方向。
图1是本申请实施例提供的一种虚拟对象控制方法的流程图。本申请实施例的执行主体为终端,该终端可以为便携式、袖珍式、手持式等多种类型的终端,如手机、计算机、平板电脑等。参见图1,该方法包括:
101、终端响应于对触控区域的触摸操作,确定触摸操作的至少两个触摸位置。
本申请实施例中,终端显示虚拟场景界面,虚拟场景界面包括虚拟场景,虚拟场景中可以包括第一虚拟对象,还可以包括河流、草丛、陆地、建筑物、虚拟对象所使用的虚拟资源等,另外虚拟场景界面中还可以包括触控按钮、触控区域等,以便用户通过触控按钮或触控区域来控制第一虚拟对象执行操作。例如,可以控制虚拟对象执行调整姿势、爬行、步行、奔跑、骑行、飞行、跳跃、驾驶、拾取等操作,还可以控制虚拟对象执行释放技能操作或者其他操作。
其中,第一虚拟对象是由用户控制的虚拟对象,虚拟场景中还可以包括除第一虚拟对象之外的其他虚拟对象,其他虚拟对象可以是由其他用户控制的虚拟对象,也可以是由终端自动控制的虚拟对象,例如,虚拟场景中的野怪、士兵、中立生物等。
第一虚拟对象在执行释放技能操作时,需要向另一个虚拟对象释放技能,或者向某一个方向释放技能,或者向某一个位置释放技能,但是无论是哪一种情况,首先需要确定释放技能时的瞄准方向。
本申请实施例中的触控区域用于触发释放技能操作,具有调整瞄准方向的作用,用户手指触摸触控区域,在触控区域中进行触摸操作,从而产生触摸位置。触摸位置指示释放技能时的瞄准方向,用户通过手指在触控区域中进行移动,可以选择自己想要的瞄准方向,一旦用户手指执行抬起动作,终端即可按照抬起手指时的触摸位置确定瞄准方向,控制第一虚拟对象按照该瞄准方向来执行释放技能操作。
相关技术中,用户手指触摸触控区域,手指在触控区域中进行移动,之后用户抬起手指,此过程中终端确定至少两个触摸位置,会按照最后一个触摸位置指示的瞄准方向,控制第一虚拟对象执行释放技能操作,但是实际应用中,在用户抬起手指时,手指可能会发生轻微移动,导致触摸位置产生了位移,在用户期望的触摸位置之后会产生新的触摸位置,导致实际的最后一个触摸位置指示的瞄准方向不是用户期望的瞄准方向。本申请实施例为了提高瞄准方向的准确率,满足用户的需求,可以确定触摸操作的至少两个触摸位置,后续综合考虑这些触摸位置来确定更为准确的瞄准方向。
102、终端根据至少两个触摸位置,确定触摸操作的目标触摸位置。
103、终端确定目标触摸位置指示的第一瞄准方向。
本申请实施例中,终端根据至少两个触摸位置确定一个目标触摸位置,将目标触摸位置指示的瞄准方向作为第一瞄准方向。由于至少两个触摸位置中包括用户期望的触摸位置的可能性较大,因此与最后一个触摸位置相比较,目标触摸位置更能够体现用户的需求,提高了瞄准方向的准确率。
其中,目标触摸位置用于指示第一虚拟对象的第一瞄准方向,该第一瞄准方向可以为虚拟场景中的任一方向,例如,以第一虚拟对象作为原点,第一瞄准方向可以为第一虚拟对象的左侧、右上方、右下方等,或者采用更加精确的方式进行表示,第一瞄准方向可以为第一虚拟对象的30度方向、90度方向等。
104、终端控制第一虚拟对象按照第一瞄准方向执行释放技能操作。
终端确定第一瞄准方向之后,控制第一虚拟对象向第一瞄准方向执行释放技能操作。
第一虚拟对象可以具有不同类型的技能,例如,可以包括方向类技能、对象类技能及位置类技能。对于不同类型的技能,控制第一虚拟对象执行释放技能操作时,针对的对象不同,例如,对象类技能,控制第一虚拟对象向虚拟场景中位于瞄准方向上的虚拟对象执行释放技能操作;位置类技能,控制第一虚拟对象向虚拟场景中位于瞄准方向上的某一位置执行释放技能操作;方向类技能,控制第一虚拟对象向虚拟场景中的瞄准方向执行释放技能操作。
本申请实施例提供的方法,不再仅根据触控区域中触摸操作的最后一个触摸位置确定瞄准方向,而是确定触摸操作的至少两个触摸位置,综合考虑该至少两个触摸位置确定目标触摸位置,避免了由于用户误操作产生的最后一个触摸位置与用户期望的触摸位置不一致的情况,得到的目标触摸位置能够体现用户期望的触摸位置,则目标触摸位置指示的瞄准方向更能满足用户的需求,提高了瞄准方向的准确率,之后按照确定的瞄准方向,控制第一虚拟对象执行释放技能操作,对第一虚拟对象释放技能操作的控制也更加准确。
图2是本申请实施例提供的另一种虚拟对象控制方法的流程图。参见图2,该实施例的执行主体为终端,参见图2,该方法包括:
201、终端通过第一虚拟对象对应的虚拟场景界面,显示第一虚拟对象的释放技能按钮。
本申请实施例中,虚拟场景界面用于显示第一虚拟对象的视野范围内的虚拟场景,该虚拟场景界面中可以包括第一虚拟对象的释放技能按钮,还可以包括第一虚拟对象及其他虚拟对象,还可以包括河流、草丛、陆地、建筑物、虚拟对象所使用的虚拟资源等。
其中,虚拟对象可以分为多个类型的虚拟对象。例如,可以根据虚拟对象的外形、虚拟对象的技能或者根据其他划分标准将虚拟对象分为多个类型。例如,根据虚拟对象的技能将虚拟对象分为多个类型,则虚拟对象可以包括战士型虚拟对象、法师型虚拟对象、辅助型虚拟对象、射手型虚拟对象和刺客型虚拟对象。本申请实施例中的第一虚拟对象可以为任一类型的虚拟对象。
第一虚拟对象的释放技能按钮可以为一个或多个,不同的释放技能按钮对应不同的技能。可选地,释放技能按钮中包括文本或图像,该文本或图像用于描述该释放技能按钮对应的技能。本申请实施例仅是以第一虚拟对象的任一个技能释放按钮为例进行说明。
例如,参见图3所示的虚拟场景界面300,该虚拟场景界面300中包括第一虚拟对象301、第二虚拟对象302,第一虚拟对象301与第二虚拟对象302属于不同的阵营。该虚拟场景界面300还包括多个释放技能按钮303,该多个释放技能按钮位于虚拟场景界面的右下角。且该虚拟场景界面的左上角显示有完整的虚拟场景的地图。
202、终端响应于对释放技能按钮的触发操作,通过虚拟场景界面显示触控区域。
终端通过虚拟场景界面显示第一虚拟对象的释放技能按钮,用户对释放技能按钮执行触发操作,终端检测到用户对释放技能按钮的触发操作,通过虚拟场景界面显示该释放技能按钮对应的触控区域。其中,触发操作可以为点击操作、滑动操作或其他操作。
如果第一虚拟对象有多个释放技能按钮,用户对任一释放技能按钮进行触发操作,终端通过虚拟场景界面显示该释放技能按钮对应的触控区域。
其中,该触控区域可以为圆形、方形或其他形状,该触控区域可以位于虚拟场景的任意位置,例如,位于虚拟场景的右下角、左下角等。
在一种可能实现方式中,触控区域包括第一触控子区域和第二触控子区域,第二触控子区域位于第一触控子区域的外侧。用户手指触摸触控区域,如果用户抬起手指时,终止触摸位置在第一触控子区域,终端控制第一虚拟对象快速释放技能;如果用户抬起手指时,终止触摸位置在第二触控子区域,终端控制第一虚拟对象进行主动瞄准得到瞄准方向。
例如,参见图4所示的触控区域400,该触控区域400为圆形区域,阴影部分为第一触控子区域,空白部分为第二触控子区域,圆点表示手指按下时的触摸位置。
203、终端响应于对触控区域的触摸操作,确定触摸操作的至少两个触摸位置。
终端显示触控区域,用户手指触摸该触控区域,终端检测到用户手指对应的触摸点,用户手指在触摸区域中移动,触摸点的位置也发生相应的变化,直至用户手指抬起,完成了对触控区域的触摸操作,而终端通过检测该触摸操作,可以确定触摸操作的至少两个触摸位置。
在一种可能实现方式中,用户手指抬起时,触摸点的终止触摸位置位于第二触控子区域,则终端根据至少两个触摸位置,确定触摸操作的目标触摸位置。也就是说,如果终止触摸位置位于第二触控子区域,则认为用户期望控制第一虚拟对象根据用户的操作确定瞄准方向。
可选地,终止触摸位置位于第二触控子区域时,终端确定的目标触摸位置可能位于第二触控子区域,也可能位于第一触控子区域,如果目标触摸位置位于第二触控子区域,则执行下述步骤204,如果目标触摸位置位于第一触控子区域,则终端控制第一虚拟对象快速释放技能。
在一种可能实现方式中,触摸操作包括触摸点的按下操作、触摸点的滑动操作以及触摸点的抬起操作。其中,用户手指与触摸区域接触时,将用户手指识别为触摸点,终端响应于触控区域中的触摸点对应的按下操作,确定按下操作对应的初始触摸位置;确定触摸点在触控区域中滑动的过程中的至少一个触摸位置;响应于触控区域中的触摸点对应的抬起操作,确定抬起操作对应的终止触摸位置。终端检测到触控区域中的触摸点的按下操作时,表示准备执行释放技能操作,对触摸点的滑动过程即是对瞄准方向的调整,检测到触摸点的抬起操作时,表示已经对瞄准方向调整完成。
可选地,终端响应于触控区域中的触控点的按下操作之后,判断触摸点是否属于该触控区域,如果是,确定按下操作对应的初始触摸位置,如果否,则不执行释放技能操作。
在一种可能实现方式中,为了避免用户多个手指的触摸操作发生冲突,终端响应于触控区域中的触摸点对应的按下操作,为触摸点分配触摸标识。之后触摸点在触控区域中的位置可以发生变化,终端可以检测到触摸位置及其对应的触摸标识,则终端确定触控区域中检测到的与该触摸标识匹配的至少两个触摸位置,以保证确定的至少两个触摸位置属于同一个用户手指,即属于同一触摸操作。其中,触摸点用于指代用户手指与显示屏幕接触而产生的位置点,该触摸标识可以为fingerID或其他类型的标识。
在执行触摸操作的过程中,用户手指按下时的触摸点所在的位置为初始触摸位置,触摸点在触控区域中滑动的过程中,触摸点的触摸标识不会发生变化,而触摸位置可以发生变化,进而产生更多的触摸位置,且该用户手指所产生的触摸位置与触摸点的触摸标识相匹配,用户手指抬起时的触摸点所在的位置为终止触摸位置,终止触摸位置为触摸操作过程中的最后一个触摸位置。
在一种可能实现方式中,对于触摸操作的全部触摸位置来说,由于在确定瞄准方向时,初始的几个触摸位置对瞄准方向的影响较小,最终的几个触摸位置对瞄准方向的影响较大。因此,确定触摸操作的至少两个触摸位置可以包括触摸操作的终止触摸位置及终止触摸位置之前的至少一个触摸位置。
在一种可能实现方式中,用户对触控区域执行触摸操作的过程为动态过程,在用户执行触摸操作的过程中,终端对虚拟场景界面进行采集,得到按照排列顺序排列的至少两个虚拟场景界面,每个虚拟场景界面中包括触摸点的一个触摸位置,则至少两个触摸位置也按照排列顺序排列。例如,至少两个触摸位置按照排列顺序从初始触摸位置到终止触摸位置进行排列,则终端可以从至少两个触摸位置中,选取排列在最后的预设数量的触摸位置。例如,选取两个触摸位置,则选取终止触摸位置及终止触摸位置的上一个触摸位置。例如,至少两个触摸位置按照排列顺序从终止触摸位置到初始触摸位置进行排列,则终端可以从至少两个触摸位置中,选取排列在最前的预设数量的触摸位置。
可选地,虚拟场景界面可以是按固定的时间间隔来采集的,相应的,确定的至少两个触摸位置中任两个相邻触摸位置之间的时间间隔相同。
在一种可能实现方式中,触摸位置可以采用坐标表示,每个触摸位置有对应的坐标,对至少两个触摸位置的坐标进行处理,可以确定目标触摸位置的坐标,从而确定了目标触摸位置。可选地,以触控区域的中心为坐标原点,建立坐标系,该触控区域中的每个位置具有一个对应的坐标。
在一种可能实现方式中,虚拟场景界面中还可以包括第一虚拟对象的另一个触控区域,另一个触控区域用于控制第一虚拟对象的前进、后退、移动等动作,可以同时在释放技能按钮对应的触控区域与该另一触控区域上进行操作,使第一虚拟对象在行动的同时释放技能。当然,该虚拟场景界面中还可以包括其他的触控区域,本申请实施例对此不做限定。
步骤203的其他实施方式与上述步骤101类似,在此不再赘述。
204、终端根据至少两个触摸位置,确定触摸操作的目标触摸位置。
在一种可能实现方式中,采用坐标表示触摸位置,终端按照至少两个触摸位置的排列顺序,确定至少两个触摸位置的权重;按照至少两个触摸位置的权重,对至少两个触摸位置的坐标进行加权处理,得到目标触摸位置的坐标。其中,至少两个触摸位置的权重可以是预先设置的,且至少两个触摸位置的权重之和为1,至少两个触摸位置的数量也可以是预先设置的。
可选地,触摸位置的坐标包括横坐标和纵坐标,终端按照至少两个触摸位置的权重,对至少两个触摸位置的横坐标进行加权求和,得到目标触摸位置的横坐标;按照至少两个触摸位置的权重,对至少两个触摸位置的纵坐标进行加权求和,得到目标触摸位置的纵坐标。
例如,终端需要根据排列在最后的3个触摸位置,来确定目标触摸位置,则终端预先设置三个触摸位置的权重q1、q2和q3,q1是终止触摸位置的权重,q2是倒数第二个触摸位置的权重,q3是倒数第三个触摸位置的权重,终止触摸位置的坐标为(x1,y1),倒数第二个触摸位置的坐标为(x2,y2),倒数第三个触摸位置的坐标为(x3,y3),则目标触摸位置的横坐标为:x=x1*q1+x2*q2+x3*q3;目标触摸位置的纵坐标为:y=y1*q1+y2*q2+y3*q3,以得到目标触摸位置的坐标(x,y)。
可选地,至少两个触摸位置包括终止触摸位置和终止触摸位置的上一个触摸位置,则可以设置终止触摸位置的权重为0,终止触摸位置的上一个触摸位置的权重为1。用户手指按压触摸区域,由于用户手指与触控区域的接触面积较大,在用户抬起手指时,触摸点的触摸位置会产生位移,在用户期望的触摸位置之后会产生新的触摸位置,即终止触摸位置很可能是用户误操作产生的触摸位置,而终止触摸位置的上一个触摸位置则很可能是用户用来确定瞄准方向的触摸位置,因此将终止触摸位置的上一个触摸位置确定为目标触摸位置。
步骤204的其他实施方式与上述步骤102类似,在此不再赘述。
205、终端确定目标触摸位置指示的第一瞄准方向。
在一种可能实现方式中,以触控区域的中心点为原点,根据目标触摸位置的坐标,确定目标触摸位置位于中心点的哪一个方向,将该方向作为第一瞄准方向,相应的,对于虚拟场景界面中的第一虚拟对象来说,第一瞄准方向即是该第一虚拟对象的瞄准方向,后续第一虚拟对象在执行释放技能操作时,以第一虚拟对象为原点,向该第一虚拟对象的第一瞄准方向释放技能。
步骤205的其他实施方式与上述步骤103类似,在此不再赘述。
206、终端控制第一虚拟对象按照第一瞄准方向执行释放技能操作。
终端确定第一瞄准方向之后,终端控制第一虚拟对象向第一瞄准方向执行释放技能操作。
在一种可能实现方式中,终端根据第一瞄准方向及第一预设距离,确定第一瞄准方向上的瞄准位置;控制第一虚拟对象向该瞄准位置执行释放技能操作。其中,瞄准位置与第一虚拟对象之间的距离为第一预设距离,该第一预设距离是以第一虚拟对象为原点而设置的技能释放距离。
在另一种可能实现方式中,终端确定第一瞄准方向上,与第一虚拟对象的距离最近的第二虚拟对象;控制第一虚拟对象向第二虚拟对象执行释放技能操作。其中,终端确定第一瞄准方向之后,可以自动获取该第一瞄准方向上的虚拟对象,根据获取到的虚拟对象的位置,选取其中距离第一虚拟对象最近的虚拟对象作为第二虚拟对象。
可选地,当第二虚拟对象为其他用户控制的虚拟对象时,根据技能类型的不同,该第二虚拟对象可以与第一虚拟对象属于同一阵营,也可以与第一虚拟对象属于敌对阵营。例如,第一虚拟对象的技能为攻击类型的技能,则第二虚拟对象可以与第一虚拟对象属于敌对阵营,第一虚拟对象向第二虚拟对象执行攻击操作;第一虚拟对象的技能为治疗类型的技能,则第二虚拟对象可以与第一虚拟对象属于同一阵营,第一虚拟对象向第二虚拟对象执行治疗操作。
本申请实施例可以应用于对战场景下,虚拟场景界面的虚拟场景中包括第一虚拟对象和第二虚拟对象,如果其他虚拟对象与第一虚拟对象属于同一阵营,用户可以控制第一虚拟对象执行治疗操作,对其他虚拟对象进行治疗;如果其他虚拟对象与第一虚拟对象属于敌对阵营,用户可以控制第一虚拟对象执行攻击操作,对其他虚拟对象进行攻击。
例如,终端控制第一虚拟对象执行释放技能操作,攻击第二虚拟对象时,虚拟场景界面的变化如图5-12所示:
参见图5所示的虚拟场景界面500,用户对释放技能按钮进行触发操作之后,在虚拟场景界面500中显示一个圆形的触控区域,该触控区域中显示的圆点表示当前的触摸位置1,此时在虚拟场景中显示第一虚拟对象501的瞄准方向1,用户可以通过虚拟场景界面500预览当前的瞄准方向1。
图6所示的虚拟场景界面600是在虚拟场景界面500的基础上,用户手指在触控区域中沿箭头所示的方向移动后显示的虚拟场景界面,手指移动后触控区域中的触摸位置发生了变化,从触摸位置1变为触摸位置2,第一虚拟对象501的瞄准方向也发生了对应的变化,由瞄准方向1变为瞄准方向2。图7所示的虚拟场景界面700是在虚拟场景界面600的基础上,用户手指在触控区域中再次移动之后显示的虚拟场景界面,图7的虚拟场景界面700的触控区域中的触摸位置再次发生了变化,从触摸位置2变为触摸位置3,第一虚拟对象501的瞄准方向也再次发生变化,由瞄准方向2变为瞄准方向3。图8所示的虚拟场景界面800是在虚拟场景界面700的基础上,用户手指在触控区域中再次移动之后显示的虚拟场景界面,图8的虚拟场景界面800的触控区域中的触摸位置再次发生了变化,从触摸位置3变为触摸位置4,第一虚拟对象501的瞄准方向也再次发生变化,由瞄准方向3变为瞄准方向4。
图9所示的虚拟场景界面900是在虚拟场景界面800的基础上,用户手指抬起离开触控区域,此时虚拟场景界面900中不再显示触控区域,终端根据确定的目标触摸位置,确定第一虚拟对象501最终的瞄准方向5。
图10所示的虚拟场景界面1000是在虚拟场景界面900的基础上,第一虚拟对象501按照瞄准方向5开始释放技能,此时释放技能按钮的中显示预设时长,该预设时长表示技能冷却时长,在该预设时长内,用户无法再次触发该释放技能按钮,直至时长减小至0。图11所示的虚拟场景界面1100是在虚拟场景界面1000的基础上,第一虚拟对象501已经释放出对应的技能,此时释放技能按钮的中显示的时长减小。图12所示的虚拟场景界面1200是在虚拟场景界面1100的基础上,第一虚拟对象501释放出的技能已经攻击到第二虚拟对象,此时释放技能按钮的上层显示的时长再次减小。
另外,上述实施例中,均是以目标触摸位置位于第二触摸区域为例进行说明,在一种可能实现方式中,如果用户从按下手指到抬起手指,触摸点一直位于第一触控子区域,即至少两个触摸位置均位于第一触控子区域,则终端按照预设规则确定第二瞄准方向;控制第一虚拟对象按照第二瞄准方向执行释放技能操作。其中,预设规则可以是预先设置的规则,用户可以根据技能的相关描述了解该预设规则,以确定是根据该预设规则控制第一虚拟对象释放技能,还是手动调整瞄准方向控制第一虚拟对象释放技能。
可选地,该预设规则为对距离小于第二预设距离的虚拟对象释放技能,则终端确定与第一虚拟对象之间的距离小于第二预设距离的第三虚拟对象的位置;根据第一虚拟对象的位置和第三虚拟对象的位置,确定第二瞄准方向,按照第二瞄准方向执行释放技能操作,从而对第三虚拟对象释放技能。其中,第一预设距离可以为释放技能按钮对应的技能可以释放的最远距离。
可选地,如果在与第一虚拟对象之间的距离小于第一预设距离的范围内,存在除第一虚拟对象之外的多个虚拟对象,可以从多个虚拟对象中选取任一个虚拟对象作为第三虚拟对象,或者可以从多个虚拟对象中选取生命值最小的虚拟对象作为第三虚拟对象。
图13是本申请实施例提供的一种释放技能的流程图,参见图13,释放技能的流程包括:
1301、用户触发释放技能按钮,终端显示触控区域,检测到对触摸点的按下操作。
1302、终端准备释放技能。
1303、终端检测用户是否对触摸点进行抬起操作,如果是,执行步骤1304,如果否,执行步骤1305。
1304、根据确定的至少两个触摸位置确定目标触摸位置,确定目标触摸位置指示的第一瞄准方向,执行释放技能操作。
1305、终端判断用户是否对触摸点进行滑动操作,如果是,执行步骤1303,如果否,执行步骤1302。
需要说明的一点是,本申请实施例仅是以第一虚拟对象的一个技能释放按钮对应的触控区域为例进行说明,在另一实施例中,对于第一虚拟对象的其他技能释放按钮的触控区域,可以采用与上述实施例类似的方式,实现控制第一虚拟对象执行释放技能操作。
需要说明的另一点是,本申请实施例仅是以执行主体为终端为例进行说明,在另一实施例中,步骤204和步骤205可以由与终端连接的服务器来执行。即终端响应于对触控区域的触摸操作,确定触摸操作的至少两个触摸位置,将至少两个触摸位置发送给服务器,服务器根据至少两个触摸位置,确定触摸操作的目标触摸位置,根据目标触摸位置,确定目标触摸位置指示的第一瞄准方向,将第一瞄准方向发送给终端,终端控制第一虚拟对象按照第一瞄准方向执行释放技能操作。
相关技术中,参见图14所示的触控区域的示意图,触控区域1400中的实心圆点表示用户期望的终止触摸位置1401,空心圆点表示实际的终止触摸位置1402,从图14中可以看出,用户期望的终止触摸位置1401与实际的终止触摸位置1402相差较大,如果直接根据实际的终止触摸位置1402确定瞄准方向,则确定的瞄准方向与用户期望的瞄准方向相差较大,导致无法达到用户期望的效果。
参见图15所示的触控区域的示意图,触控区域1501中所示的轨迹为触控操作产生的轨迹,触控区域1502中实心圆点表示用户期望的终止触摸位置1511,空心圆点表示实际的终止触摸位置1521,采用本申请实施例提供的方法确定目标触摸位置1512,从图15中可以看出,虽然用户期望的终止触摸位置1511与实际的终止触摸位置1521相差较大,但是确定的目标触摸位置1512与用户期望的终止触摸位置1511相差较小,根据目标触摸位置确定的瞄准方向与用户期望的瞄准方向相差较小,可以达到用户期望的效果。
本申请实施例提供的方法,不再仅根据触控区域中触摸操作的最后一个触摸位置确定瞄准方向,而是确定触摸操作的至少两个触摸位置,综合考虑该至少两个触摸位置确定目标触摸位置,避免了由于用户误操作产生的最后一个触摸位置与用户期望的触摸位置不一致的情况,得到的目标触摸位置能够体现用户期望的触摸位置,则目标触摸位置指示的瞄准方向更能满足用户的需求,提高了瞄准方向的准确率,之后按照确定的瞄准方向,控制第一虚拟对象执行释放技能操作,对第一虚拟对象释放技能操作的控制也更加准确。
并且,本申请实施例中,将触控区域划分为第一触控子区域和第二触控子区域,使用户既可以快速执行释放技能操作,又可以手动确定瞄准方向再执行释放技能操作,用户可以根据虚拟场景中第一虚拟对象释放的技能,灵活选择,提高了灵活性。
并且,本申请实施例中,为触摸点分配触摸标识,确定与触摸标识匹配的至少两个触摸位置,保证确定的至少两个触摸位置为同一触摸操作的触摸位置,避免虚拟场景界面中其他手指的触摸操作的干扰,提高了操作准确性。
在一种可能实现方式中,图16是本申请实施例提供的一种确定目标触摸位置的流程图,该流程包括:
1601、终端检测对触摸点的按下操作,得到初始触摸位置,为该触摸点分配触摸标识。
1602、终端判断触摸点是否位于触控区域中。
1603、如果触摸点位于触控区域中,终端将初始触摸位置的坐标赋值给(xn,yn)、(xn-1,yn-1)…直至(x1,y1)。其中,n表示需要确定的触摸位置的数量,n为正整数。如果触摸点不位于触控区域中,则结束流程。
1604、终端检测对触摸点的移动操作,得到移动后的触摸位置。
1605、终端判断移动后的触摸位置的触摸标识与上述触摸点的触摸标识是否匹配。
1606、如果匹配,终端将移动后的触摸位置的坐标赋值给(xn,yn)。如果不匹配,则结束流程。
当用户再次移动触摸点时,重复执行步骤1604,将(x2,y2)赋值给(x1,y1),将(x3,y3)赋值给(x2,y2),依次类推,将(xn-1,yn-1)赋值给(xn-2,yn-2),将(xn,yn)赋值给(xn-1,yn-1),将再次移动后的触摸位置的坐标赋值给(xn,yn)。
1607、终端检测对触摸点的抬起操作,得到终止触摸位置。
1608、终端判断终止触摸位置的触摸标识与上述触摸点的触摸标识是否匹配。
1609、如果匹配,则终端将(x2,y2)赋值给(x1,y1),将(x3,y3)赋值给(x2,y2),依次类推,将(xn-1,yn-1)赋值给(xn-2,yn-2),将(xn,yn)赋值给(xn-1,yn-1),将终止触摸位置的坐标赋值给(xn,yn)。
1610、终端根据n个触摸位置的坐标和对应的权重,计算目标触摸位置的坐标,得到目标触摸位置。其中,n为大于1的正整数。
例如,n为3,即需要确定3个触摸位置,得到该3个触摸位置的坐标(x1,y1)、(x2,y2)和(x3,y3)。在确定触摸位置的坐标的过程中,假设共得到了10个触摸位置,得到初始触摸位置后,将初始触摸位置的坐标赋值(x1,y1)、(x2,y2)和(x3,y3);得到第二个触摸位置后,将第二个触摸位置的坐标赋值给(x3,y3),得到第三个触摸位置后,将(x3,y3)(第二个触摸位置的坐标)赋值给(x2,y2),第三个触摸位置的坐标赋值给(x3,y3);得到第四个触摸位置的坐标后,将(x2,y2)(第二个触摸位置的坐标)赋值给(x1,y1),将(x3,y3)(第三个触摸位置的坐标)赋值给(x2,y2),第四个触摸位置的坐标赋值给(x3,y3),直至得到终止触摸位置,将(x2,y2)(第八个触摸位置的坐标)赋值给(x1,y1),将(x3,y3)(第九个触摸位置的坐标)赋值给(x2,y2),终止触摸位置的坐标赋值给(x3,y3),得到最后三个触摸位置的坐标。
图17是本申请实施例提供的一种虚拟对象控制装置的结构示意图。参见图17,该装置包括:
触摸位置确定模块1701,用于响应于对触控区域的触摸操作,确定触摸操作的至少两个触摸位置,至少两个触摸位置包括触摸操作的终止触摸位置;
目标位置确定模块1702,用于根据至少两个触摸位置,确定触摸操作的目标触摸位置;
第一方向确定模块1703,用于确定目标触摸位置指示的第一瞄准方向;
第一控制模块1704,用于控制第一虚拟对象按照第一瞄准方向执行释放技能操作。
本申请实施例提供的装置,不再仅根据触控区域中触摸操作的最后一个触摸位置确定瞄准方向,而是确定触摸操作的至少两个触摸位置,综合考虑该至少两个触摸位置确定目标触摸位置,避免了由于用户误操作产生的最后一个触摸位置与用户期望的触摸位置不一致的情况,得到的目标触摸位置能够体现用户期望的触摸位置,则目标触摸位置指示的瞄准方向更能满足用户的需求,提高了瞄准方向的准确率,之后按照确定的瞄准方向,控制第一虚拟对象执行释放技能操作,对第一虚拟对象释放技能操作的控制也更加准确。
在一种可能实现方式中,参见图18,目标位置确定模块1702,包括:
权重确定单元1712,用于按照至少两个触摸位置的排列顺序,确定至少两个触摸位置的权重;
坐标确定单元1722,用于按照至少两个触摸位置的权重,对至少两个触摸位置的坐标进行加权处理,得到目标触摸位置的坐标。
在另一种可能实现方式中,参见图18,触摸位置的坐标包括横坐标和纵坐标,坐标确定单元1722,用于:
按照至少两个触摸位置的权重,对至少两个触摸位置的横坐标进行加权求和,得到目标触摸位置的横坐标;
按照至少两个触摸位置的权重,对至少两个触摸位置的纵坐标进行加权求和,得到目标触摸位置的纵坐标。
在另一种可能实现方式中,参见图18,触摸位置确定模块1701,包括:
第一位置确定单元1711,用于响应于触控区域中的触摸点对应的按下操作,确定按下操作对应的初始触摸位置;
第二位置确定单元1721,用于确定触摸点在触控区域中滑动的过程中的至少一个触摸位置;
第三位置确定单元1731,用于响应于触控区域中的触摸点对应的抬起操作,确定抬起操作对应的终止触摸位置。
在另一种可能实现方式中,参见图18,装置还包括:
标识分配模块1705,用于响应于触控区域中的触摸点对应的按下操作,为触摸点分配触摸标识;
第二位置确定单元1721,用于确定触控区域中检测到的与触摸标识匹配的至少两个触摸位置。
在另一种可能实现方式中,参见图18,第一控制模块1704,包括:
对象确定单元1714,用于确定第一瞄准方向上,与第一虚拟对象之间的距离最近的第二虚拟对象;
第一控制单元1724,用于控制第一虚拟对象向第二虚拟对象执行释放技能操作。
在另一种可能实现方式中,参见图18,第一控制模块1704,包括:
瞄准位置确定单元1734,用于根据第一瞄准方向及第一预设距离,确定第一瞄准方向上的瞄准位置,瞄准位置与第一虚拟对象之间的距离为第一预设距离;
第二控制单元1744,用于控制第一虚拟对象向瞄准位置执行释放技能操作。
在另一种可能实现方式中,参见图18,触控区域包括第一触控子区域及第二触控子区域,第二触控子区域位于第一触控子区域的外侧;
目标位置确定模块1702,用于终止触摸位置位于第二触控子区域,则根据至少两个触摸位置,确定触摸操作的目标触摸位置。
在另一种可能实现方式中,参见图18,装置还包括:
第二方向确定模块1706,用于至少两个触摸位置均位于第一触控子区域,则按照预设规则确定第二瞄准方向;
第二控制模块1707,用于控制第一虚拟对象按照第二瞄准方向执行释放技能操作。
在另一种可能实现方式中,参见图18,第二方向确定模块1706,包括:
对象位置确定单元1716,用于确定与第一虚拟对象之间的距离小于第二预设距离的第三虚拟对象的位置;
第二方向确定单元1726,用于根据第一虚拟对象的位置和第三虚拟对象的位置,确定第二瞄准方向。
在另一种可能实现方式中,参见图18,装置还包括:
按钮显示模块1708,用于通过第一虚拟对象对应的虚拟场景界面,显示第一虚拟对象的释放技能按钮;
触控区域显示模块1709,用于响应于对释放技能按钮的触发操作,通过虚拟场景界面显示触控区域。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的虚拟对象控制装置在控制虚拟对象时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将终端的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟对象控制装置与虚拟对象调整方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图19示出了本申请一个示例性实施例提供的终端1900的结构示意图。该终端1900可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1900包括有:处理器1901和存储器1902。
处理器1901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1901可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1901所执行以实现本申请中方法实施例提供的基于人机对话的来电代接方法。
在一些实施例中,终端1900还可选包括有:外围设备接口1903和至少一个外围设备。处理器1901、存储器1902和外围设备接口1903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1903相连。具体地,外围设备包括:射频电路1904、显示屏1905、摄像头组件1906、音频电路1907、定位组件1908和电源1909中的至少一种。
外围设备接口1903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1901和存储器1902。在一些实施例中,处理器1901、存储器1902和外围设备接口1903被集成在同一芯片或电路板上;在一些其他实施例中,处理器1901、存储器1902和外围设备接口1903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1904还可以包括NFC(Near FieldCommunication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1905是触摸显示屏时,显示屏1905还具有采集在显示屏1905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1901进行处理。此时,显示屏1905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1905可以为一个,设置在终端1900的前面板;在另一些实施例中,显示屏1905可以为至少两个,分别设置在终端1900的不同表面或呈折叠设计;在另一些实施例中,显示屏1905可以是柔性显示屏,设置在终端1900的弯曲表面上或折叠面上。甚至,显示屏1905还可以设置成非矩形的不规则图形,也即异形屏。显示屏1905可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-EmittingDiode,有机发光二极管)等材质制备。
摄像头组件1906用于采集图像或视频。可选地,摄像头组件1906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1901进行处理,或者输入至射频电路1904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1901或射频电路1904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1907还可以包括耳机插孔。
定位组件1908用于定位终端1900的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1908可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1909用于为终端1900中的各个组件进行供电。电源1909可以是交流电、直流电、一次性电池或可充电电池。当电源1909包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1900还包括有一个或多个传感器1910。该一个或多个传感器1910包括但不限于:加速度传感器1911、陀螺仪传感器1912、压力传感器1919、指纹传感器1914、光学传感器1915以及接近传感器1916。
加速度传感器1911可以检测以终端1900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1911可以用于检测重力加速度在三个坐标轴上的分量。处理器1901可以根据加速度传感器1911采集的重力加速度信号,控制显示屏1905以横向视图或纵向视图进行用户界面的显示。加速度传感器1911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1912可以检测终端1900的机体方向及转动角度,陀螺仪传感器1912可以与加速度传感器1911协同采集用户对终端1900的3D动作。处理器1901根据陀螺仪传感器1912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1913可以设置在终端1900的侧边框和/或显示屏1905的下层。当压力传感器1913设置在终端1900的侧边框时,可以检测用户对终端1900的握持信号,由处理器1901根据压力传感器1913采集的握持信号进行左右手识别或快捷操作。当压力传感器1913设置在显示屏1905的下层时,由处理器1901根据用户对显示屏1905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1914用于采集用户的指纹,由处理器1901根据指纹传感器1914采集到的指纹识别用户的身份,或者,由指纹传感器1914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1914可以被设置在终端1900的正面、背面或侧面。当终端1900上设置有物理按键或厂商Logo时,指纹传感器1914可以与物理按键或厂商Logo集成在一起。
光学传感器1915用于采集环境光强度。在一个实施例中,处理器1901可以根据光学传感器1915采集的环境光强度,控制显示屏1905的显示亮度。具体地,当环境光强度较高时,调高显示屏1905的显示亮度;当环境光强度较低时,调低显示屏1905的显示亮度。在另一个实施例中,处理器1901还可以根据光学传感器1915采集的环境光强度,动态调整摄像头组件1906的拍摄参数。
接近传感器1916,也称距离传感器,通常设置在终端1900的前面板。接近传感器1916用于采集用户与终端1900的正面之间的距离。在一个实施例中,当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变小时,由处理器1901控制显示屏1905从亮屏状态切换为息屏状态;当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变大时,由处理器1901控制显示屏1905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图19中示出的结构并不构成对终端1900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图20是本申请实施例提供的一种服务器的结构示意图,该服务器2000可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(Central ProcessingUnits,CPU)2001和一个或一个以上的存储器2002,其中,存储器2002中存储有至少一条指令,该至少一条指令由处理器2001加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
服务器2000可以用于执行上述虚拟对象控制方法中服务器所执行的步骤。
本申请实施例还提供了一种计算机设备,该计算机设备包括处理器和存储器,存储器中存储有至少一条指令,该至少一条指令由处理器加载并执行,以实现上述实施例的虚拟对象控制方法中所执行的操作。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条指令,该至少一条指令由处理器加载并执行,以实现上述实施例的虚拟对象控制方法中所执行的操作。
本申请实施例还提供了一种计算机程序,该计算机程序中存储有至少一条指令,该至少一条指令由处理器加载并执行,以实现上述实施例的虚拟对象控制方法中所执行的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请实施例的可选实施例,并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种虚拟对象控制方法,其特征在于,所述方法包括:
响应于对触控区域的触摸操作,确定所述触摸操作的至少两个触摸位置,所述至少两个触摸位置包括所述触摸操作的终止触摸位置;
根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置;
确定所述目标触摸位置指示的第一瞄准方向;
控制第一虚拟对象按照所述第一瞄准方向执行释放技能操作。
2.根据权利要求1所述的方法,其特征在于,所述根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置,包括:
按照所述至少两个触摸位置的排列顺序,确定所述至少两个触摸位置的权重;
按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的坐标进行加权处理,得到所述目标触摸位置的坐标。
3.根据权利要求2所述的方法,其特征在于,所述触摸位置的坐标包括横坐标和纵坐标,所述按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的坐标进行加权处理,得到所述目标触摸位置的坐标,包括:
按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的横坐标进行加权求和,得到所述目标触摸位置的横坐标;
按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的纵坐标进行加权求和,得到所述目标触摸位置的纵坐标。
4.根据权利要求1所述的方法,其特征在于,所述响应于对触控区域的触摸操作,确定所述触摸操作的至少两个触摸位置,包括:
响应于所述触控区域中的触摸点对应的按下操作,确定所述按下操作对应的初始触摸位置;
确定所述触摸点在所述触控区域中滑动的过程中的至少一个触摸位置;
响应于所述触控区域中的所述触摸点对应的抬起操作,确定所述抬起操作对应的终止触摸位置。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
响应于所述触控区域中的触摸点对应的按下操作,为所述触摸点分配触摸标识;
所述确定所述触摸点在所述触控区域中滑动的过程中的至少一个触摸位置,包括:
确定所述触控区域中检测到的与所述触摸标识匹配的至少两个触摸位置。
6.根据权利要求1所述的方法,其特征在于,所述控制第一虚拟对象按照所述第一瞄准方向执行释放技能操作,包括:
确定所述第一瞄准方向上,与所述第一虚拟对象之间的距离最近的第二虚拟对象;
控制所述第一虚拟对象向所述第二虚拟对象执行所述释放技能操作。
7.根据权利要求1所述的方法,其特征在于,所述控制第一虚拟对象按照所述第一瞄准方向执行释放技能操作,包括:
根据所述第一瞄准方向及第一预设距离,确定所述第一瞄准方向上的瞄准位置,所述瞄准位置与所述第一虚拟对象之间的距离为所述第一预设距离;
控制所述第一虚拟对象向所述瞄准位置执行所述释放技能操作。
8.根据权利要求1所述的方法,其特征在于,所述触控区域包括第一触控子区域及第二触控子区域,所述第二触控子区域位于所述第一触控子区域的外侧;所述根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置,包括:
所述终止触摸位置位于所述第二触控子区域,则根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置。
9.根据权利要求8所述的方法,其特征在于,所述响应于对触控区域的触摸操作,确定所述触摸操作的至少两个触摸位置之后,所述方法还包括:
所述至少两个触摸位置均位于所述第一触控子区域,则按照预设规则确定第二瞄准方向;
控制所述第一虚拟对象按照所述第二瞄准方向执行所述释放技能操作。
10.根据权利要求9所述的方法,其特征在于,所述按照预设规则确定第二瞄准方向,包括:
确定与所述第一虚拟对象之间的距离小于第二预设距离的第三虚拟对象的位置;
根据所述第一虚拟对象的位置和所述第三虚拟对象的位置,确定所述第二瞄准方向。
11.根据权利要求1所述的方法,其特征在于,所述响应于对触控区域的触摸操作,确定所述触摸操作的至少两个触摸位置之前,所述方法还包括:
通过所述第一虚拟对象对应的虚拟场景界面,显示所述第一虚拟对象的释放技能按钮;
响应于对所述释放技能按钮的触发操作,通过所述虚拟场景界面显示所述触控区域。
12.一种虚拟对象控制装置,其特征在于,所述装置包括:
触摸位置确定模块,用于响应于对触控区域的触摸操作,确定所述触摸操作的至少两个触摸位置,所述至少两个触摸位置包括所述触摸操作的终止触摸位置;
目标位置确定模块,用于根据所述至少两个触摸位置,确定所述触摸操作的目标触摸位置;
第一方向确定模块,用于确定所述目标触摸位置指示的第一瞄准方向;
第一控制模块,用于控制第一虚拟对象按照所述第一瞄准方向执行释放技能操作。
13.根据权利要求12所述的装置,其特征在于,所述目标触摸位置确定模块,包括:
权重确定单元,用于按照所述至少两个触摸位置的排列顺序,确定所述至少两个触摸位置的权重;
坐标确定单元,用于按照所述至少两个触摸位置的权重,对所述至少两个触摸位置的坐标进行加权处理,得到所述目标触摸位置的坐标。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现如权利要求1至11任一权利要求所述的虚拟对象控制方法中所执行的操作。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行,以实现如权利要求1至11任一权利要求所述的虚拟对象控制方法中所执行的操作。
CN202010507467.0A 2020-06-05 2020-06-05 虚拟对象控制方法、装置、计算机设备及存储介质 Active CN111672115B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN202010507467.0A CN111672115B (zh) 2020-06-05 2020-06-05 虚拟对象控制方法、装置、计算机设备及存储介质
KR1020217034213A KR102648249B1 (ko) 2020-06-05 2021-05-11 가상 객체 제어 방법 및 장치, 컴퓨터 디바이스, 및 저장 매체
EP21782630.4A EP3939679A4 (en) 2020-06-05 2021-05-11 METHOD AND APPARATUS FOR CONTROLLING VIRTUAL OBJECT, COMPUTER DEVICE AND STORAGE MEDIA
PCT/CN2021/093061 WO2021244237A1 (zh) 2020-06-05 2021-05-11 虚拟对象控制方法、装置、计算机设备及存储介质
JP2021563357A JP7384521B2 (ja) 2020-06-05 2021-05-11 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム
US17/507,965 US12005360B2 (en) 2020-06-05 2021-10-22 Virtual object control method and apparatus, computer device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010507467.0A CN111672115B (zh) 2020-06-05 2020-06-05 虚拟对象控制方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN111672115A true CN111672115A (zh) 2020-09-18
CN111672115B CN111672115B (zh) 2022-09-23

Family

ID=72435176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010507467.0A Active CN111672115B (zh) 2020-06-05 2020-06-05 虚拟对象控制方法、装置、计算机设备及存储介质

Country Status (6)

Country Link
US (1) US12005360B2 (zh)
EP (1) EP3939679A4 (zh)
JP (1) JP7384521B2 (zh)
KR (1) KR102648249B1 (zh)
CN (1) CN111672115B (zh)
WO (1) WO2021244237A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021244237A1 (zh) * 2020-06-05 2021-12-09 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
WO2022156629A1 (zh) * 2021-01-22 2022-07-28 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、电子设备、存储介质及计算机程序产品

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104216617A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 光标位置确定方法和装置
US20150057056A1 (en) * 2013-08-26 2015-02-26 Konami Digital Entertainment Co., Ltd. Moving control device, moving control method, and information recording medium
CN105194873A (zh) * 2015-10-10 2015-12-30 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN109529327A (zh) * 2017-09-21 2019-03-29 腾讯科技(深圳)有限公司 虚拟交互场景中目标定位方法、装置及电子设备
CN110275639A (zh) * 2019-06-26 2019-09-24 Oppo广东移动通信有限公司 触摸数据处理方法、装置、终端及存储介质
CN110624240A (zh) * 2018-06-25 2019-12-31 腾讯科技(上海)有限公司 一种网络游戏的操作控制方法、装置、终端设备和介质
CN111151002A (zh) * 2019-12-30 2020-05-15 北京金山安全软件有限公司 触控瞄准方法和装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5044956A (en) * 1989-01-12 1991-09-03 Atari Games Corporation Control device such as a steering wheel for video vehicle simulator with realistic feedback forces
US5999168A (en) * 1995-09-27 1999-12-07 Immersion Corporation Haptic accelerator for force feedback computer peripherals
JP2004057634A (ja) * 2002-07-31 2004-02-26 Shuji Sonoda ゲーム装置及びそれを実現するプログラム
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US8210943B1 (en) * 2006-05-06 2012-07-03 Sony Computer Entertainment America Llc Target interface
US8834245B2 (en) * 2007-08-17 2014-09-16 Nintendo Co., Ltd. System and method for lock on target tracking with free targeting capability
JP4932010B2 (ja) 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
US8920240B2 (en) * 2010-04-19 2014-12-30 Guillemot Corporation S.A. Directional game controller
CN104935725B (zh) * 2015-04-23 2016-07-27 努比亚技术有限公司 移动终端及其利用虚拟边框区域实现功能调节的方法
CN105214309B (zh) 2015-10-10 2017-07-11 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
JP6661513B2 (ja) * 2016-10-31 2020-03-11 株式会社バンク・オブ・イノベーション ビデオゲーム処理装置、及びビデオゲーム処理プログラム
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
AU2017370555B2 (en) 2016-12-05 2022-12-15 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质
CN108499104B (zh) * 2018-04-17 2022-04-15 腾讯科技(深圳)有限公司 虚拟场景中的方位显示方法、装置、电子装置及介质
CN108837506A (zh) * 2018-05-25 2018-11-20 网易(杭州)网络有限公司 一种竞速游戏中虚拟道具的控制方法、装置及存储介质
CN108771863B (zh) 2018-06-11 2022-04-15 网易(杭州)网络有限公司 射击游戏的控制方法和装置
JP7207911B2 (ja) * 2018-09-06 2023-01-18 株式会社バンダイナムコエンターテインメント プログラム、ゲームシステム、サーバシステム及びゲーム提供方法
CN109224439B (zh) * 2018-10-22 2022-07-29 网易(杭州)网络有限公司 游戏瞄准的方法及装置、存储介质、电子装置
US11189127B2 (en) * 2019-06-21 2021-11-30 Green Jade Games Ltd Target shooting game with banking of player error
CN110613933A (zh) * 2019-09-24 2019-12-27 网易(杭州)网络有限公司 游戏中技能释放控制方法、装置、存储介质和处理器
CN110652725A (zh) 2019-09-29 2020-01-07 网易(杭州)网络有限公司 游戏中瞄准方向的控制方法、装置、电子设备及存储介质
CN110665222B (zh) 2019-09-29 2024-04-19 网易(杭州)网络有限公司 游戏中的瞄准方向控制方法、装置、电子设备及存储介质
US11071906B2 (en) * 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
US11541317B2 (en) * 2020-02-06 2023-01-03 Sony Interactive Entertainment Inc. Automated weapon selection for new players using AI
CN111672115B (zh) * 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
CN116688502A (zh) * 2022-02-25 2023-09-05 腾讯科技(深圳)有限公司 虚拟场景中的位置标记方法、装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150057056A1 (en) * 2013-08-26 2015-02-26 Konami Digital Entertainment Co., Ltd. Moving control device, moving control method, and information recording medium
CN104216617A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 光标位置确定方法和装置
CN105194873A (zh) * 2015-10-10 2015-12-30 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN109529327A (zh) * 2017-09-21 2019-03-29 腾讯科技(深圳)有限公司 虚拟交互场景中目标定位方法、装置及电子设备
CN110624240A (zh) * 2018-06-25 2019-12-31 腾讯科技(上海)有限公司 一种网络游戏的操作控制方法、装置、终端设备和介质
CN110275639A (zh) * 2019-06-26 2019-09-24 Oppo广东移动通信有限公司 触摸数据处理方法、装置、终端及存储介质
CN111151002A (zh) * 2019-12-30 2020-05-15 北京金山安全软件有限公司 触控瞄准方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小墨资讯: "《TapTap》", 11 October 2018 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021244237A1 (zh) * 2020-06-05 2021-12-09 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
US12005360B2 (en) 2020-06-05 2024-06-11 Tencent Technology (Shenzhen) Company Ltd Virtual object control method and apparatus, computer device, and storage medium
WO2022156629A1 (zh) * 2021-01-22 2022-07-28 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、电子设备、存储介质及计算机程序产品

Also Published As

Publication number Publication date
KR102648249B1 (ko) 2024-03-14
EP3939679A4 (en) 2022-08-31
WO2021244237A1 (zh) 2021-12-09
CN111672115B (zh) 2022-09-23
JP2022540278A (ja) 2022-09-15
US12005360B2 (en) 2024-06-11
KR20210151843A (ko) 2021-12-14
JP7384521B2 (ja) 2023-11-21
US20220040579A1 (en) 2022-02-10
EP3939679A1 (en) 2022-01-19

Similar Documents

Publication Publication Date Title
CN108619721B (zh) 虚拟场景中的距离信息显示方法、装置及计算机设备
CN111589142B (zh) 虚拟对象的控制方法、装置、设备及介质
CN109126129B (zh) 在虚拟环境中对虚拟物品进行拾取的方法、装置及终端
CN111589128B (zh) 基于虚拟场景的操作控件显示方法及装置
CN111589133B (zh) 虚拟对象控制方法、装置、设备及存储介质
CN111013142B (zh) 互动效果显示方法、装置、计算机设备及存储介质
CN110141859B (zh) 虚拟对象控制方法、装置、终端及存储介质
CN112494955B (zh) 虚拟对象的技能释放方法、装置、终端及存储介质
CN111921197B (zh) 对局回放画面的显示方法、装置、终端及存储介质
CN110694273A (zh) 控制虚拟对象使用道具的方法、装置、终端及存储介质
CN111589127B (zh) 虚拟角色的控制方法、装置、设备及存储介质
CN111589136B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN111589146A (zh) 基于虚拟环境的道具操作方法、装置、设备及存储介质
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN111596838B (zh) 业务处理方法、装置、计算机设备及计算机可读存储介质
CN111589140A (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN110448908B (zh) 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质
CN111603770A (zh) 虚拟环境画面的显示方法、装置、设备及介质
CN113041620B (zh) 显示位置标记的方法、装置、设备及存储介质
CN112691370A (zh) 虚拟对局中投票结果的显示方法、装置、设备及存储介质
CN112704876A (zh) 虚拟对象互动模式的选择方法、装置、设备及存储介质
CN113559495A (zh) 虚拟对象释放技能的方法、装置、设备及存储介质
CN113398572A (zh) 虚拟道具切换方法、技能切换方法、虚拟对象切换方法
CN111672115B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN113134232B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40028510

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant