WO2021159795A1 - 三维虚拟环境中的技能瞄准方法、装置、设备及存储介质 - Google Patents

三维虚拟环境中的技能瞄准方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2021159795A1
WO2021159795A1 PCT/CN2020/128772 CN2020128772W WO2021159795A1 WO 2021159795 A1 WO2021159795 A1 WO 2021159795A1 CN 2020128772 W CN2020128772 W CN 2020128772W WO 2021159795 A1 WO2021159795 A1 WO 2021159795A1
Authority
WO
WIPO (PCT)
Prior art keywords
aiming
skill
point
virtual environment
dimensional
Prior art date
Application number
PCT/CN2020/128772
Other languages
English (en)
French (fr)
Inventor
胡勋
万钰林
粟山东
陈宇
王乐
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Priority to CA3136380A priority Critical patent/CA3136380A1/en
Priority to AU2020428058A priority patent/AU2020428058B2/en
Priority to SG11202111792SA priority patent/SG11202111792SA/en
Priority to KR1020217036125A priority patent/KR20210150478A/ko
Priority to JP2021566187A priority patent/JP2022534187A/ja
Priority to EP20918314.4A priority patent/EP3939680A4/en
Publication of WO2021159795A1 publication Critical patent/WO2021159795A1/zh
Priority to US17/511,396 priority patent/US20220047946A1/en
Priority to JP2024015950A priority patent/JP2024054207A/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种三维虚拟环境中的技能瞄准方法、装置、设备及存储介质,包括:显示应用程序的用户界面,用户界面包括虚拟环境画面和技能瞄准控件,虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,技能瞄准控件是位于虚拟环境画面上层的用于释放技能的二维控件;接收技能瞄准控件上的拖动操作,拖动操作包括位于技能瞄准控件上的第一操作点和第二操作点,第一操作点是拖动操作的起始操作点,第二操作点是拖动操作的当前操作点;响应于拖动操作,在虚拟环境画面中显示三维技能瞄准指示器,三维技能瞄准指示器的技能瞄准方向与拖动操作的拖动方向在用户界面中平行。本发明通过技能瞄准控件的设置使得虚拟环境画面中所显示的技能瞄准方向与用户的拖动方向保持一致。

Description

三维虚拟环境中的技能瞄准方法、装置、设备及存储介质
本申请要求于2020年02月14日提交的申请号为202010093196.9、发明名称为“三维虚拟环境中的技能瞄准方法、装置、终端及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人机交互领域,特别涉及一种三维虚拟环境中的技能瞄准方法、装置、设备及存储介质。
背景技术
多人在线战术竞技游戏(Multiplayer Online Battle Arena,MOBA)是一种非常受欢迎的游戏形式。该游戏形式中,每个用户都通过一个用户界面控制所选的虚拟角色。
在相关技术中,如图1所示,终端上显示用户界面10。用户界面10包括虚拟环境画面12以及轮盘控件14。用户对轮盘控件14执行拖动操作,以控制三维虚拟环境中的技能释放方向。
上述技能瞄准方法在技能瞄准时的准确度较差,人机交互效率较低。
发明内容
本申请实施例提供了一种三维虚拟环境中的技能瞄准方法、装置、设备及存储介质,可以提高技能瞄准时的准确度,提高人机交互效率。所述技术方案如下:
根据本申请的一个方面,提供了一种三维虚拟环境中的技能瞄准方法,应用于计算机设备中,所述方法包括:
显示应用程序的用户界面,所述用户界面包括虚拟环境画面和技能瞄准控件,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,所述技能瞄准控件是用于释放技能的二维控件,且所述技能瞄准控件位于所述虚拟环境画面上层;
接收所述技能瞄准控件上的拖动操作,所述拖动操作包括位于所述技能瞄准控件上的第一操作点和第二操作点,所述第一操作点是所述拖动操作的起始操作点,所述第二操作点是所述拖动操作的当前操作点;
响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述拖动操作的拖动方向在所述用户界面中平行,所述拖动方向是所述第一操作点指向所述第二操作点的方向。
根据本申请的另一个方面,提供了一种三维虚拟环境中的技能瞄准方法,应用于计算机设备中,所述计算机设备设置或连接有物理瞄准部件,所述方法包括:
显示应用程序的用户界面,所述用户界面包括虚拟环境画面,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
接收所述物理瞄准部件上的瞄准操作,所述瞄准操作包括在所述物理瞄准部件上触发的第一操作位置和第二操作位置,所述第一操作位置是所述瞄准操作的起始操作位置,所述第二操作位置是所述瞄准操作的当前操作位置;
响应于所述瞄准操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述瞄准操作的瞄准方向在所述用户界面中平行,所述瞄准方向是所述第一操作位置指向所述第二操作位置的方向。
根据本申请的另一方面,提供了一种三维虚拟环境中的技能瞄准装置,应用于计算机设备中,所述装置包括:
显示模块,用于显示应用程序的用户界面,所述用户界面包括虚拟环境画面和技能瞄准 控件,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,所述技能瞄准控件是用于释放技能的二维控件,且所述技能瞄准控件位于所述虚拟环境画面上层;
接收模块,用于接收所述技能瞄准控件上的拖动操作,所述拖动操作包括位于所述技能瞄准控件上的第一操作点和第二操作点,所述第一操作点是所述拖动操作的起始操作点,所述第二操作点是所述拖动操作的当前操作点;
所述显示模块,还用于响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述拖动操作的拖动方向在所述用户界面中平行,所述拖动方向是所述第一操作点指向所述第二操作点的方向。
根据本申请的另一方面,提供了一种三维虚拟环境中的技能瞄准装置,应用于计算机设备中,所述计算机设备设置或连接有物理瞄准部件,所述装置包括:
显示模块,用于显示应用程序的用户界面,所述用户界面包括虚拟环境画面,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
接收模块,用于接收所述物理瞄准部件上的瞄准操作,所述瞄准操作包括在所述物理瞄准部件上触发的第一操作位置和第二操作位置,所述第一操作位置是所述拖动操作的起始操作位置,所述第二操作位置是所述拖动操作的当前操作位置;
所述显示模块,还用于响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述瞄准操作的瞄准方向在所述用户界面中平行,所述瞄准方向是所述第一操作位置指向所述第二操作位置的方向。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行如上面所述的三维虚拟环境中的技能瞄准方法。
根据本申请的另一方面,提供了另一种计算机设备,所述计算机设备包括:处理器、存储器和物理瞄准部件,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行如上面所述的三维虚拟环境中的技能瞄准方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上面所述的三维虚拟环境中的技能瞄准方法。
根据本申请的另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如上述本申请实施例中任一所述的三维虚拟环境中的技能瞄准方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行,用户所观察到的技能瞄准方向与自身手部动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了相关技术中的一种三维虚拟环境中技能瞄准方法的界面示意图;
图2示出了本申请一个示例性实施例提供的计算机系统的结构框图;
图3示出了本申请一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图;
图4示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图5示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图6示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图7示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图8示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图9示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图;
图10示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图11示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图12示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图13示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的界面示意图;
图14示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图;
图15示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图;
图16示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的框图;
图17示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图;
图18是本申请一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图;
图19是本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图;
图20是本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图;
图21是本申请一个示例性实施例提供的计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请涉及的几个名词进行介绍:
三维虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟世界。该虚拟世界可以是对真实世界的仿真环境,也可以是半仿真半虚构的三维环境,还可以是纯虚构的三维环境。可选地,该虚拟世界还用于至少两个虚拟角色之间的虚拟世界对战,在该虚拟世界中具有可供至少两个虚拟角色使用的虚拟资源。可选地,该虚拟世界包括正方形地图,该正方形地图包括对称的左下角区域和右上角区域,属于两个敌对阵营的虚拟角色分别占据其中一个区域,并以摧毁对方区域深处的目标建筑来作为胜利目标。
虚拟角色:是指在虚拟世界中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物中的至少一种。可选地,当虚拟世界为三维虚拟世界时,虚拟角色可以是三维立体模型,每个虚拟角色在三维虚拟世界中具有自身的形状和体积,占据三维虚拟世界中的一部 分空间。可选地,虚拟角色是基于三维人体骨骼技术构建的三维角色,该虚拟角色通过穿戴不同的皮肤来实现不同的外在形象。在一些实现方式中,虚拟角色也可以采用2.5维或2维模型来实现,本申请实施例对此不加以限定。
多人在线战术竞技是指:在虚拟环境提供的地图上,分属至少两个敌对阵营的不同虚拟队伍分别占据各自的地图区域,以某一种胜利条件作为目标进行竞技。该胜利条件包括但不限于:占领据点或摧毁敌对阵营据点、击杀敌对阵营的虚拟角色、在指定场景和时间内保证自身的存活、抢夺到某种资源、在指定时间内比分超过对方中的至少一种。战术竞技可以以局单位来进行,每局战术竞技的地图可以相同,也可以不同。每个虚拟队伍包括一个或多个虚拟角色,比如1个、3个或5个。
MOBA游戏:是一种在虚拟世界中提供若干个据点,处于不同阵营的用户控制虚拟角色在虚拟世界中对战,占领据点或摧毁敌对阵营据点的游戏。例如,MOBA游戏可将用户分成两个敌对阵营,将用户控制的虚拟角色分散在虚拟世界中互相竞争,以摧毁或占领敌方的全部据点作为胜利条件。MOBA游戏以局为单位,一局MOBA游戏的持续时间从游戏开始的时刻至达成胜利条件的时刻。
虚拟环境画面:采用第三人称的俯视角对三维虚拟环境进行观察的画面。可选的,俯视角是45度角。需要说明的是,游戏场景中一般设置有虚拟摄像机,虚拟摄像机拍摄到的游戏场景内容即为用户界面呈现的虚拟环境画面。在第三人称视角的3D游戏中,虚拟摄像机可以拍摄到包含虚拟角色在内的游戏场景内容,将虚拟角色显示在虚拟环境画面上。又如,在某些没有虚拟角色的游戏中,也可以直接控制虚拟摄像头的移动以及转动,从而更新用户界面所呈现的游戏画面。
技能:虚拟角色在三维虚拟环境中拥有的角色能力,可以对其它阵营的虚拟角色产生作用效果。该技能可以是攻击型技能,可以是防御性技能,可以是有具体目标的技能,可以是群体攻击技能,可以是对其它阵营的虚拟角色产生击飞效果的技能,可以是对其它阵营的虚拟角色产生减速的效果的技能,本申请对此不加以限定。
瞄准性技能:虚拟角色在三维虚拟环境中拥有的具有瞄准性的角色能力。该技能可以是对单个其它阵营的虚拟角色产生效果的技能,也可以是对多个其它阵营的虚拟角色产生效果的技能。根据瞄准方式不同,还可分为扇形瞄准性技能、线性瞄准性技能、圆圈形瞄准性技能、点状瞄准性技能中的任意一种。
在表现形式上,瞄准性技能可以是虚拟角色手持道具对其它阵营的虚拟角色产生直接攻击的技能,比如放火灼烧,根据指向的位置不同,虚拟角色攻击的位置不同。瞄准性技能还可以是虚拟角色扔出手中的道具、对道具所碰到的其它阵营的虚拟对象产生减速或者攻击效果的技能。根据虚拟人物扔出道具的方向不同,该瞄准性技能可以对对方阵营的不同虚拟对象产生作用效果。瞄准性技能还可以是虚拟角色手持道具对指定位置进行施法,施法可以是冷冻、灼烧、减速、攻击等。根据瞄准的位置不同,虚拟角色施法的位置也不同。
技能瞄准控件:位于虚拟环境画面上层用于释放技能的二维控件。示例性的,技能瞄准控件是轮盘瞄准控件。该轮盘瞄准控件包含一个内圈以及一个外圈。内圈可以被用户拖动,外圈是固定的。当用户执行拖动操作时,内圈会产生位移。当内圈的位移在死区范围内时,不会触发技能瞄准。当内圈的位移超过死区范围时,开始触发技能瞄准。当内圈的位移超过外圈时,取消对技能的释放。比如,用户可以触控安装有应用程序的终端屏幕的轮盘瞄准控件来释放技能,终端可以是手机、平板电脑等可以触控的终端。
物理瞄准部件:与终端相连接并且可以捕捉用户手部或者其他肢体动作的轨迹的设备。示意性的,物理瞄准部件包括物理的按钮或者摇杆。示意性的,物理瞄准部件包括具有加速传感器的游戏手柄。示意性的,物理瞄准部件包括具有空间感应能力的一个或者多个摄像头。
三维技能瞄准指示器:在三维虚拟环境中,用于在瞄准性技能释放前,指示技能瞄准方向以及距离的指示器。三维技能瞄准指示器的技能方向是可变的,由用户操作技能瞄准控件时的瞄准方向决定。三维技能瞄准指示器的技能距离可以是根据用户对于技能瞄准控件执行 的拖动操作的距离动态确定的,也可以是固定的,由应用程序自行设定。在表现形式上,三维技能瞄准指示器可以显示在三维虚拟环境的地面上,也可以显示在三维虚拟环境中虚拟角色的胸口所在高度或其它与地面平行的高度位置,也可以是显示在三维虚拟环境中从虚拟角色指向地面的位置,也可以是显示在三维虚拟环境中从虚拟角色指向其它某一高度的位置等其它所有指示技能方向及距离的指示器。
拖动方向:用户对于技能瞄准控件执行拖动操作的方向。用户对于技能瞄准控件所执行的拖动操作可以是拖动,也可以是其它能够使得技能瞄准控件产生移动的触控操作。拖动操作的起始操作点称为第一操作点,拖动操作的当前操作点称为第二操作点。用户所执行的拖动操作的方向是由第一操作点指向第二操作点的方向。
瞄准方向:用户对于物理瞄准部件执行瞄准操作的方向。用户对于物理瞄准部件所执行的瞄准操作可以是长按,也可以是其它能够使得物理瞄准部件产生移动的按压操作。瞄准操作的起始操作位置称为第一操作位置,瞄准操作的当前操作位置称为第二操作位置。用户所执行的瞄准操作的瞄准方向是由第一操作位置指向第二操作位置的方向。
技能方向:虚拟角色在三维虚拟环境中的技能所瞄准的方向。技能方向与技能瞄准方向不同,技能方向是应用程序计算出来的虚拟角色在三维虚拟环境中技能所瞄准的方向,技能瞄准方向是虚拟环境画面上在三维技能瞄准指示器上显示的技能瞄准方向,而虚拟环境画面是采用第三人称的俯视角(45度角)对三维虚拟环境进行观察的画面。示意性的,采用第三人称俯视角(90度角)对虚拟环境进行观察的画面中的技能方向与采用第三人称的俯视角(45度角)对三维虚拟环境进行观察的画面中的技能瞄准方向是不同的,存在一定的偏差。
技能瞄准方向:虚拟环境画面上在三维技能瞄准指示器上显示的技能瞄准方向。示意性的,技能瞄准方向是用户界面显示的虚拟角色的技能瞄准方向,与三维虚拟环境中虚拟角色的技能方向不同。示例性的,技能瞄准方向与拖动操作的拖动方向平行。示例性的,技能瞄准方向与瞄准操作的瞄准方向平行。
死区:第一操作点与第二操作点之间的距离必须大于固定数值时,才开始触发技能瞄准。示意性的,第一操作点与第二操作点之间的距离小于固定数值时,不会触发技能瞄准。以第一操作点为圆心、固定数值为半径的圆所在区域称之为死区。
在典型的MOBA游戏中,用户的拖动方向与三维虚拟环境中虚拟角色释放技能的方向一致。但在用户界面上,经过第三人称的俯视角转换后的虚拟环境画面中所显示的三维技能瞄准指示器的技能瞄准方向,就会与技能瞄准控件上的拖动方向产生一定的偏差。一定程度上,此种偏差会增加用户在游戏过程中的游戏难度。用户即使发现了这种偏差,想要通过调整手指位置来改变拖动方向的方式,使得最终用户界面显示的三维技能瞄准指示器的技能瞄准方向是用户所想要达到的方向。这对于使用小屏幕手机的用户来说,操作难度较大,用户并不能精准地把握自己需要调整的拖动方向的角度。所以,技能瞄准方向与拖动方向产生偏差,降低了技能瞄准的准确度,也降低了人机交互的效率。
本申请实施例提供了一种三维虚拟环境中的技能瞄准方法,使得虚拟环境画面中所显示的技能瞄准方向与用户的拖动方向一致,提高了技能瞄准的准确度,同时提高了人机交互的效率。
同时,本申请实施例提供的三维虚拟环境中的技能瞄准方法,虚拟角色的施法距离即三维技能瞄准指示器的距离可以是固定的,也可以是根据用户对技能瞄准控件的拖动距离来动态确定的,同样提高了人机交互的效率。
图2示出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统200包括:终端220、服务器240、以及其它终端260。
终端220安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。在本实施例中,以该应用程序是MOBA游戏来举例说明。终端220是用户使用的终端,用户 使用终端220控制位于虚拟环境中的虚拟角色进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、射击、投掷、使用虚拟武器攻击其它虚拟角色、使用虚拟武器蓄力攻击其它虚拟角色中的至少一种。示意性的,虚拟角色是虚拟人物,比如仿真人物对象或动漫人物对象。示例性的,虚拟角色是虚拟动物,比如仿真动物角色或者动漫动物角色。示例性的,虚拟角色是虚拟植物,比如仿真植物角色或者动漫植物角色。
终端220通过无线网络或有线网络与服务器240相连。
服务器240包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。示意性的,服务器240包括处理器244和存储器242,存储器242又包括接入模块2421和对战模块2423。服务器240用于为支持三维虚拟环境的应用程序提供后台服务。可选地,服务器240承担主要计算工作,终端220承担次要计算工作;或者,服务器240承担次要计算工作,终端220承担主要计算工作;或者,服务器240、终端220三者之间采用分布式计算架构进行协同计算。
可选的,还存在一个或多个其它终端260即开发者对应的终端,在其它终端260上安装有虚拟环境的应用程序的开发和编辑平台,开发者可在其它终端260上对应用程序进行编辑和更新,并将更新后的应用程序安装包通过有线或无线网络传输至服务器240,终端220可从服务器240下载应用程序安装包实现对应用程序的更新。
其它终端260通过无线网络或有线网络与服务器240相连。
可选地,终端220上安装的应用程序是安卓/IOS控制系统平台的应用程序。终端220可以泛指多个终端中的一个。本实施例仅以终端220和其它终端260来举例说明。终端220和其它终端260的设备类型相同或不同,该设备类型包括:AR(Augmented Reality,增强现实)设备、VR(Virtual Reality,虚拟现实)设备、智能穿戴设备、智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。以下实施例以终端包括智能手机来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
图3示出了本申请一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图。该方法可以由计算机设备执行,该计算机设备可以是终端,也可以是服务器,也可以包括终端和服务器;其中该终端可以是上述图2中的终端220,该服务器可以是上述图2中的服务器240。以该方法由终端执行为例,该方法包括:
步骤302,显示应用程序的用户界面,用户界面包括虚拟环境画面和技能瞄准控件,虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,技能瞄准控件是释放技能的二维控件,且技能瞄准控件位于虚拟环境画面上层;
用户在启动一局对战以后,终端显示用户界面。示例性的,当应用程序是MOBA类型的游戏程序时,对战是1V1、5V5、排位赛、匹配赛、人机对战等。
示例性的,用户界面包括两部分内容:虚拟环境画面和头显(Head Up Display,HUD)区域。虚拟环境画面是虚拟摄像头采集三维虚拟环境中的元素得到的画面,HUD区域包括一个或多个叠加在虚拟环境画面上的UI元素。
可选的,虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面。需要说明的是,游戏场景中一般设置有虚拟摄像机,虚拟摄像机拍摄到的游戏场景内容即为用户界面呈现的游戏画面。在第三人称3D游戏中,通过该虚拟摄像机可以从不同的角度对位于三维虚拟环境中的虚拟对象进行观察。可选的,虚拟摄像机在应用程序所显示的虚拟环境画面中不会进行实际显示。虚拟摄像机可以拍摄到包含虚拟角色在内的游戏场景内容,虚拟角色显示在用户界面上。又如,在某些没有虚拟角色的游戏中,也可以直接控制虚拟摄像头的移动以及转动,从而更新用户界面所呈现的游戏画面。
可选地,虚拟环境画面显示的虚拟环境包括:山川、平地、河流、湖泊、海洋、沙漠、沼泽、流沙地、天空、植物、建筑、车辆、人物中的至少一种元素。
示例性的,当虚拟角色发生移动或旋转时,虚拟环境画面会随时发生变化。虚拟角色可以出现在虚拟环境画面中,也可以不出现在虚拟环境画面中。
可选的,HUD区域包含:用于显示信息的信息显示元素和用于人机交互的控制功能元素。示例性的,信息显示元素包括友军信息区、计分板、设备信息区及虚拟角色分数区等用于显示信息的元素。示例性的,控制功能元素包括信号控件、聊天控件、金币区、推荐购买装备、虚拟角色的技能控件、虚拟角色的攻击功能控件、召唤师技能控件、恢复技能控件、回城技能控件、技能瞄准控件等用于人机交互的元素。
在本申请实施例中,HUD区域中包括技能瞄准控件,技能瞄准控件是用于释放瞄准性技能的二维控件。也即,在释放瞄准性技能的过程中,用户需要使用技能瞄准控件进行技能瞄准。用户可以通过触控操作,来拖动终端屏幕上显示的技能瞄准控件。
示例性的,技能瞄准控件是轮盘瞄准控件。如图4所示,轮盘瞄准控件包括:内圈42和外圈44。内圈42可被拖动,外圈为固定或相对固定。当内圈42在外圈44内拖动时,视为有效操作;当内圈42被拖动在外圈44的外部时,视为无效操作或取消施法操作。
终端是设置有触控屏的设备,比如智能手机、游戏机、平板电脑等。
步骤304,接收技能瞄准控件上的拖动操作,拖动操作包括位于技能瞄准控件上的第一操作点和第二操作点,第一操作点是拖动操作的起始操作点,第二操作点是拖动操作的当前操作点;
终端接收技能瞄准控件上的拖动操作。
示例性的,用户对技能瞄准控件执行的拖动操作可以是短按内圈42然后朝一定方向进行拖动的操作,也可以点击、轻触、滑动等其它能够使得技能瞄准控件产生一定位移的操作。
在本申请实施例中,上述操作点,是指拖动操作的触控点映射在技能瞄准控件上的点。
在一种可能的实现方式中,响应于拖动操作的触控点位于技能瞄准控件的覆盖范围内,上述当前操作点与触控操作的当前触控点重合。
在一种可能的实现方式中,响应于拖动操作的触控点位于技能瞄准控件的覆盖范围之外,上述当前操作点,是技能瞄准控件的中心点和触控操作的当前触控点之间的连线,与技能瞄准控件外圈的交点。或者,响应于拖动操作的触控点位于技能瞄准控件的覆盖范围之外,上述当前操作点,是拖动操作的起始触控点和触控操作的当前触控点之间的连线,与技能瞄准控件外圈的交点。
步骤306,响应于拖动操作,在虚拟环境画面中显示三维技能瞄准指示器,三维技能瞄准指示器的技能瞄准方向与拖动操作的拖动方向在用户界面中平行,拖动方向是第一操作点指向第二操作点的方向。
三维技能瞄准指示器用来指示虚拟环境画面中虚拟人物技能的方向以及距离。根据瞄准性技能的不同,三维技能瞄准指示器可以是单向单箭头瞄准指示器,也可以是单向多箭头瞄准指示器,也可以是扇形瞄准指示器,也可以是圆圈形瞄准指示器,还可以是其它形状的用于指示虚拟人物技能的方向(及距离)的指示器。
如图5所述,终端显示有用户界面40,在用户对技能瞄准控件的内圈42进行拖动操作后,用户界面40的虚拟角色的脚下会显示单向单箭头瞄准指示器。该单向单箭头瞄准指示器包括:箭头瞄准线51和最大释法距离52。在虚拟环境画面上,该箭头瞄准线51具有技能瞄准方向53;在HUD区域中,内圈42在拖动前的第一操作点和拖动后的第二操作点形成拖动方向43。在整个用户界面中,技能瞄准方向53和拖动方向43平行。
如图6所示,终端显示有用户界面40,在用户对技能瞄准控件的内圈42进行拖动操作后,用户界面40的虚拟角色的脚下会显示单向多箭头瞄准指示器。该单向多箭头瞄准指示器包括:三条箭头瞄准线54和最大释法距离52。在虚拟环境画面上,该三条箭头瞄准线54具有技能瞄准方向53;在HUD区域中,内圈42在拖动前的第一操作点和拖动后的第二操作点 形成拖动方向43。在整个用户界面中,技能瞄准方向53和拖动方向43平行。
如图7所示,终端显示有用户界面40,在用户对技能瞄准控件的内圈42进行拖动操作后,用户界面40的虚拟角色的脚下会显示扇形瞄准指示器。该扇形瞄准指示器包括:扇形瞄准区域55和最大释法距离52。在虚拟环境画面上,该扇形瞄准区域55具有技能瞄准方向53;在HUD区域中,内圈42在拖动前的第一操作点和拖动后的第二操作点形成拖动方向43。在整个用户界面中,技能瞄准方向53和拖动方向43平行。
如图8所示,终端显示有用户界面40,在用户对技能瞄准控件的内圈42进行拖动操作后,用户界面40的虚拟角色的脚下会显示扇形瞄准指示器。该扇形瞄准指示器包括:圆形瞄准区域56和最大释法距离52。在虚拟环境画面上,该扇形瞄准区域56具有技能瞄准方向53;在HUD区域中,内圈42在拖动前的第一操作点和拖动后的第二操作点形成拖动方向43。在整个用户界面中,技能瞄准方向53和拖动方向43平行。
需要说明的一点是,上述技能瞄准方向53可以不显式地显示。在不显示技能瞄准方向53时,可以根据虚拟角色的落脚点和技能释放后的实际作用区域的中点确定技能瞄准方向53。
需要说明的另一点是,上述拖动方向43也可以不显式地显示。在不显示技能瞄准方向53时,可以根据内圈42在拖动前的第一操作点和拖动后的第二操作点确定拖动方向43。
需要说明的再一点是,上述仅以技能瞄准控件是轮盘瞄准控件来示例性说明,但本实施例对技能瞄准控件的形式不加以限定,只要能够实现技能瞄准功能即可。
综上所述,本实施例提供的方法,通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行,用户所观察到的技能瞄准方向与自身手部动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
图9示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图。该方法可以由计算机设备执行,该计算机设备可以是终端,也可以是服务器,也可以包括终端和服务器;其中该终端可以是上述图2中的终端220,该服务器可以是上述图2中的服务器240。以该方法由终端执行为例,该方法包括:
步骤902,显示应用程序的用户界面,用户界面包括虚拟环境画面和技能瞄准控件,虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,技能瞄准控件是用于释放技能的二维控件,且技能瞄准控件位于虚拟环境画面上层;
终端显示应用程序的用户界面,用户界面包括虚拟环境画面和HUD区域,技能瞄准控件是HUD区域的元素。HUD区域位于虚拟环境画面上层,不随三维虚拟环境的改变而改变。
技能瞄准控件是位于虚拟环境画面上层的用于释放技能的二维控件,有内圈和外圈共同组成。用户可以拖动内圈,但内圈中心不能超出外圈的区域。并且用户的拖动操作的距离只有在大于死区半径时,才能触发技能瞄准。用户的拖动操作的距离小于死区半径时,不能触发瞄准操作。
如图10所示,技能瞄准控件40有内圈42以及外圈44共同组成。内圈42和内圈之间存在死区区域00,死区区域00略大于内圈42。在一种实现可能中,用户可以拖动内圈42,但内圈42的中心位置不能超出外圈44所在区域。在另一种实现可能中,内圈42的中心位置可以超出外圈44所在区域,但认为是无效操作或取消操作。
步骤904,接收技能瞄准控件上的拖动操作,拖动操作包括位于技能瞄准控件上的第一操作点和第二操作点,第一操作点是拖动操作的起始操作点,第二操作点是拖动操作的当前操作点;
示例性的如图10所示,拖动操作的起始操作点为第一操作点01,拖动操作的当前操作点为第二操作点02。其中,第一操作点01为外圈44的中心点。第二操作点02为内圈42的中心点。
步骤906,响应于拖动操作,确定第一操作点指向第二操作点的瞄准向量;
终端响应于拖动操作,确定第一操作点指向第二操作点的瞄准向量。示例性的,如图10所示,第一操作点01指向第二操作点02的向量为瞄准向量03。
示例性的,用户对技能瞄准控件执行的拖动操作可以是按住内圈42,然后朝一定方向进行拖动,也可以点击、轻触、滑动等其它能够使得用户界面技能瞄准控件产生一定位移的操作。第一操作点01是拖动操作最开始触碰到用户界面的位置,第二操作点02是拖动操作在当前时间所在的位置,终端确定第一操作点01指向第二操作点02的瞄准向量。
步骤908,以用户界面上的中心为第一参考点,计算第一参考点和瞄准向量相加后指向的第二参考点;
终端以用户界面的中心为第一参考点,计算第一参考点和瞄准向量相加后指向的第二参考点。如图11所示,终端以用户界面的中心点04为第一参考点,计算第一参考点04和瞄准向量03相加后指向的第二参考点05。
示例性的,用户对技能瞄准控件执行的拖动操作可以是长按内圈然后朝一定方向进行拖动,也可以点击、轻触、滑动等其它能够使得用户界面技能瞄准控件产生一定位移的操作。第一操作点是拖动操作最开始触碰到用户界面的位置。终端计算第一参考点和瞄准向量相加后指向的第二参考点。
步骤910,将第一参考点采用逆转矩阵转换为三维虚拟环境中的第三参考点,将第二参考点采用逆转矩阵转换为三维虚拟环境中的第四参考点;
终端将第一参考点采用逆转矩阵转换为三维虚拟环境中的第三参考点,将第二参考点采用逆转矩阵转换为三维虚拟环境中的第四参考点。
逆转矩阵是用于实现坐标系转换的转换矩阵。在本实施例中,逆转矩阵用于将虚拟环境画面所在的二维坐标系(比如虚拟摄像机的成像平面)上的点,转换为三维虚拟世界中所处的三维坐标系中虚拟角色的施法平面(比如三维虚拟环境中的地面)上的点。公式如下:
Figure PCTCN2020128772-appb-000001
Figure PCTCN2020128772-appb-000002
是虚拟摄像机的相机内参,
Figure PCTCN2020128772-appb-000003
是虚拟摄像机的相机外参,(u,v)是二维坐标系中的点,(X w,Y w,Z w)是三维坐标系中的点。
示例性的,如图12所示,终端将第一参考点04采用逆转矩阵转换为三维虚拟环境中的第三参考点07,将第二参考点05采用逆转矩阵转换为三维虚拟环境中第四参考点08。
可选地,第一参考点和第二参考点是虚拟环境画面上的点,第三参考点和第四参考点是三维虚拟环境中位于施法平面(比如地面)上的点。
步骤912,确定第三参考点指向第四参考点的向量,作为三维技能瞄准指示器在三维虚拟环境中的技能瞄准向量;
终端确定第三参考点指向第四参考点的向量,作为三维技能瞄准指示器在三维虚拟环境中的技能瞄准向量。技能瞄准向量用于指示技能的瞄准方向。可选地,技能瞄准向量不用于指示技能的释放距离,仅用于指示瞄准方向。
示例性的如图12所示,第三参考点07指向第四参考点08的向量是三维技能瞄准指示器在三维虚拟环境中的技能瞄准向量09。该向量仅用于指示瞄准方向。
步骤914,根据技能瞄准向量显示三维技能瞄准指示器,三维技能瞄准指示器的技能瞄准方向与拖动操作的拖动方向在用户界面中平行,拖动方向是第一操作点指向第二操作点的方向;
终端根据技能瞄准向量显示三维技能瞄准指示器。技能瞄准指示器可以是轮盘瞄准指示器,也可以是单向单箭头瞄准指示器,也可以是扇形瞄准指示器,也可以是单向多箭头瞄准指示器。
如图13所示,三维技能瞄准指示器56是根据瞄准向量03来显示的,三维技能瞄准指示器的方向53是不显式的显示。技能瞄准指示器的方向53与拖动操作的拖动方向03在用户界面40中平行。
步骤916,响应于接收到的释放操作,对目标位置释放技能。
示例性的,释放操作是用户手指松开内圈42的操作。响应于接收到的释放操作,终端对瞄准向量所指向的目标位置释放技能。
示例性,虚拟角色是攻击型法师,三维技能瞄准指示器是轮盘瞄准指示器。终端响应于该轮盘瞄准指示器,对目标位置扔出火焰炸弹。示例性,虚拟角色是攻击型法师,三维技能瞄准指示器是单向单箭头瞄准指示器。终端响应于该轮盘瞄准指示器,对目标位置扔出一把折扇,当折扇碰到其它阵营的虚拟角色的时候,可以对其它阵营的虚拟角色造成一定的伤害。伤害可以是魔法值减少,可以是血量的减少,可以是攻击力的减小,可以是防御力的降低。
示例性的,虚拟角色是防御型辅助,三维技能瞄准指示器是轮盘瞄准指示器。终端响应于该单向单箭头瞄准指示器,向目标位置扔出一个圈。这个圈可以运送同一阵营的虚拟角色回到泉水,也可以是召唤同一阵营的虚拟角色来到这个圈所在位置。示例性的,虚拟角色是防御型辅助,三维技能瞄准指示器是单向单箭头瞄准指示器。终端响应于该单向单箭头瞄准指示器,向目标位置扔出一个球,这个球可以弹开其它阵营的虚拟角色。
示例性的,虚拟角色是灵敏型刺客,三维技能瞄准指示器可以是单向单箭头瞄准指示器。终端响应于该单向单箭头瞄准指示器,控制虚拟角色向目标位置产生移动。示例性的,在移动过程中,虚拟角色只要碰到其它虚拟角色就可以提升血量值。示例性的,在移动过程中,虚拟角色只要碰到其它虚拟角色就可以对其它虚拟角色造成减速的效果。
在一种可能的实现方式中,用户在结束拖动操作时的第二操作点在用户界面某一固定区域时,终端将取消释放技能,该固定区域可以称为技能取消区域。同样的,用户拖动操作的第二操作点不在技能取消区域时,终端将释放该技能。
综上所述,本实施例提供的方法,通过确定第一参考点、第二参考点,以及通过逆转矩阵之后得到的虚拟环境中的第三参考点以及第四参考点,确定第三参考点指向第四参考点的向量为三维技能瞄准指示器在虚拟环境中的技能方向。最终通过映射使得显示在虚拟环境画面中三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行。因此,本申请提高了技能瞄准的准确度,一定程度上也提高了人机交互的效率。
在上述的实施例中介绍了在虚拟环境画面中的三维技能瞄准控件的瞄准方向与拖动操作的拖动方向平行,但是三维技能瞄准指示器不仅指示虚拟角色释放技能的方向,也同样指示虚拟角色的施法距离。施法距离可以是固定的,由应用程序根据虚拟角色的不同或者技能的不同确定固定的施法距离。施法距离也可以是随机的,由用户拖动操作的第一操作点到第二操作点的距离来确定。
也即,技能瞄准控件具有最大瞄准距离,第一操作点和第二操作点之间的第一距离与最大瞄准距离具有第一比例;技能在三维虚拟环境中具有最大技能距离,三维技能瞄准指示器包括位于三维虚拟环境中的第一瞄准点和第二瞄准点,第一瞄准点是技能瞄准时的起始点,第二瞄准点是技能瞄准时的目标点,第一瞄准点和第二瞄准点之间的第二距离与最大瞄准距离具有第二比例。其中,第一比例和第二比例相同。
图14示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程 图。该方法可以由计算机设备执行,该计算机设备可以是终端,也可以是服务器,也可以包括终端和服务器;其中该终端可以是上述图2中的终端220,该服务器可以是上述图2中的服务器240。该方法中虚拟角色的施法距离由用户拖动操作第一操作点到第二操作点的距离来决定。以该方法由终端执行为例,该方法包括:
步骤1402,显示应用程序的用户界面,用户界面包括虚拟环境画面和技能瞄准控件,虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,技能瞄准控件用于释放技能的二维控件,且技能瞄准控件位于虚拟环境画面上层;
步骤1404,接收技能瞄准控件上的拖动操作,拖动操作包括位于技能瞄准控件上的第一操作点和第二操作点,第一操作点是拖动操作的起始操作点,第二操作点是拖动操作的当前操作点;
步骤1406,将虚拟角色在三维虚拟环境中的位置点,确定为第一瞄准点;
终端将虚拟角色在三维虚拟环境中的位置点,确定为第一瞄准点。
示例性的,虚拟角色是攻击型法师时,第一瞄准点是该攻击型法师所在的位置。示例性的,虚拟角色是防御型辅助时,第一瞄准点是该防御型辅助所在的位置。
步骤1408,获取技能瞄准控件的最大瞄准距离;计算第一操作点和第二操作点之间的第一距离与最大瞄准距离之间的第一比例;
终端获取技能瞄准控件的最大瞄准距离;计算第一操作点和第二操作点之间的第一距离与最大瞄准距离之间的第一比例。
示例性的,如图13所示,有如下公式:|B-A|/AimRadius=|F-H|/SillRange,|B-A|/AimRadius是第一操作点和第二操作点之间的第一距离79与最大瞄准距离78之间的第一比例。第三参考点07与第四参考点08之间的第二距离77与最大技能距离80之间的第二比例与上述第二比例相同。SillRange是最大技能距离80。H点是虚拟角色所在位置。根据上述公式可以求出技能落点,公式如下:
AimPoint=H+Normalize(D b-D a)*(|B-A|/AimRadius)*SillRange;
其中,Aimpoint就是F点所在位置98,D a是第一参考点经逆转矩阵后在三维虚拟环境中的第三参考点的位置07,D b是第二参考点经逆转矩阵后在三维虚拟环境中的第四参考点的位置08,Normalize(D b-D a)是第三参考点07指向第四参考点08的单位向量。其中,最大瞄准距离是技能瞄准控件的外圈半径。
步骤1410,获取技能在三维虚拟环境中的最大技能距离;计算第一比例与最大技能距离的乘积为施法距离;
终端获取技能在三维虚拟环境中的最大技能距离;计算第一比例与最大技能距离的乘积为施法距离。
最大技能距离是虚拟角色在三维虚拟环境中所能释放技能的最大半径。施法距离是虚拟角色的位置到虚拟角色释放技能的位置的距离。
示例性的如图13所示,虚拟角色的位置07到虚拟角色释放技能的位置98的距离为施法距离99。施法距离99为第一比例与最大技能距离80的乘积。
示例性的,施法距离可以是固定的。比如,一种攻击型法师,它的召唤师技能之一即发出固定长度的火焰,此时,用户可以控制火焰的方向,但是不能控制火焰作用的距离即施法距离。在比如,一种防御型辅助,它的召唤师技能之一即朝固定距离的位置放置一面盾牌,该盾牌可以用来抵御其它阵营的虚拟角色的攻击。此时,用户可以控制盾牌的方向,但是不可以控制盾牌的位置到虚拟人物的位置的距离。
示例性的,施法距离是第一比例与最大技能距离的乘积。比如,一种攻击型法师,它的召唤师技能之一就是冰冻某一位置。用户可以通过拖动操作拖动技能瞄准控件,使该攻击型法师朝三维技能瞄准控件的技能瞄准方向,并以第一比例与最大瞄准距离的乘积为施法距离,确定冰冻的位置。
步骤1412,在瞄准向量所指向的方向上,将第一瞄准点与施法距离相加,得到三维技能瞄准指示器在技能瞄准时的第二瞄准点;
终端在瞄准向量所指向的方向上,将第一瞄准点与施法距离相加,得到三维技能瞄准指示器在技能瞄准时的第二瞄准点。
示例性的,施法距离为固定的值时,虚拟角色朝瞄准向量所在方向固定距离的位置施法。
示例性的,施法距离是第一比例与最大瞄准控件的乘积时,虚拟角色朝瞄准向量所在方向一定施法距离的位置施法。
步骤1414,根据技能瞄准向量显示三维技能瞄准指示器,三维技能瞄准指示器的技能瞄准方向与拖动操作的拖动方向在用户界面中平行,拖动方向是第一操作点指向第二操作点的方向;
步骤1416,响应于接收到的释放操作,对目标位置释放技能。
综上所述,本实施例提供的方法,通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行,用户所观察到的技能瞄准方向与自身手部动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
本实施例提供的方法,通过计算第一操作点和第二操作点之间的第一距离与最大瞄准距离之间的第一比例,计算第一比例与最大瞄准距离的乘积为施法距离。使得虚拟角色的施法距离由用户拖动操作的第一操作点到第二操作点的距离决定,因此提高了人机交互的效率。
图15示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图。该方法可以由计算机设备执行,该计算机设备可以是终端,也可以是服务器,也可以包括终端和服务器;其中该终端可以是上述图2中的终端220,该服务器可以是上述图2中的服务器240。以该方法由终端执行为例,该方法包括:
步骤1502,显示应用程序的用户界面,用户界面包括虚拟环境画面和技能瞄准控件,虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,技能瞄准控件用于释放技能的二维控件,且技能瞄准控件位于虚拟环境画面上层;
终端显示应用程序的用户界面。
步骤1504,接收技能瞄准控件上的拖动操作,拖动操作包括位于技能瞄准控件上的第一操作点和第二操作点,第一操作点是拖动操作的起始操作点,第二操作点是拖动操作的当前操作点;
终端接收技能瞄准控件上的拖动操作。
步骤1506,响应于第一操作点和第二操作点之间的距离大于死区阈值,在虚拟环境画面中显示三维技能瞄准指示器,三维技能瞄准指示器的技能瞄准方向与拖动操作的拖动方向在用户界面中平行,拖动方向是第一操作点指向第二操作点的方向;
终端响应于第一操作点和第二操作点之间的距离大于死区阈值,在虚拟环境画面中显示三维技能瞄准指示器。
示意性的,如图10所示,用户在执行拖动操作时,基于拖动操作产生第一操作点01与第二操作点02之间的距离大于死区阈值00时,在虚拟环境画面中才显示三维技能瞄准指示器。
示例性的。死区阈值可以是应用程序设定的一个固定的值,也可以是根据不同的虚拟角色的不同的技能所产生的不同的值。
示例性的,用户在执行拖动操作时,第一操作点与第二操作点之间的距离小于死区阈值,在三维虚拟环境中不显示三维技能瞄准指示器。
步骤1508,响应于接收到的释放操作,对目标位置释放技能。
综上所述,本实施例提供的方法,通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行,用户所观察到的技能瞄准方向与自身手部动作相匹配, 能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
本实施例提供的方法,通过设置死区区域,使得用户的拖动操作的第一操作点到第二操作点的距离须大于死区阈值,才能触发三维技能瞄准指示器。这就使得用户在不小心触碰到技能瞄准控件或者临时不想释放技能等情形,可以通过调整第二操作点的位置,来避免出现三维技能瞄准指示器,从而达到避免虚拟角色释放技能的目的。因为减少了不必要的技能的释放,因此一定程度上提高了人机交互的效率。
图16示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的框图。所述方法还包括:
步骤802,用户对技能瞄准控件执行拖动操作;
步骤804,判断拖动操作是否超死区阈值;
若拖动操作没有超过死区阈值,则执行步骤806。
若拖动操作超过死区阈值,则执行步骤808。
步骤806,取消触发三维技能瞄准指示器;
步骤808,将拖动操作的拖动方向通过逆转矩阵映射到三维虚拟环境中;
步骤810,在用户界面显示三维技能瞄准指示器的技能瞄准方向。
在上述的实施例中,以终端是带有触摸屏的设备为例进行说明。,在接下来的实施例中,本文将介绍连接有物理瞄准部件的终端的技能瞄准方法。示例性的,物理瞄准部件包括物理的按钮或摇杆。示例性的,物理瞄准部件是体感的,具体可以是有加速传感器的手柄,手柄可以捕捉用户握住手柄之后运动的轨迹。物理瞄准部件也可以是一个或多个深度摄像头,深度摄像头具有空间感应能力,可以识别用户通过摆动肢体所带来的瞄准操作。
图17示出了本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准方法的流程图;
步骤1702,显示应用程序的用户界面,用户界面包括虚拟环境画面,虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
步骤1704,接收物理瞄准部件上的瞄准操作,瞄准操作包括在物理瞄准部件上触发的第一操作位置和第二操作位置,第一操作位置是瞄准操作的起始操作位置,第二操作位置是瞄准操作的当前操作位置;
示例性的,终端连接有物理瞄准部件,物理瞄准部件包括物理的按钮或摇杆。第一操作位置是用户按下按钮或操纵摇杆的起始操作位置。第二操作位置是用户按下按钮后停留的位置,或,操纵摇杆后的摇杆停留位置。
示例性的,终端连接有物理瞄准部件,物理瞄准部件是装有加速传感器的手柄,加速传感器可以捕捉用户握住手柄之后手的轨迹。第一操作位置是用户在初始静止不动时握住手柄的位置,第二操作位置是用户移动手柄之后,在当前时间停留的位置。
示例性的,终端连接有物理瞄准部件,物理瞄准部件是一个或多个具有空间感应能力的摄像头。第一操作位置是摄像头捕捉到的用户手部在初始静止不动时的操作位置,第二操作位置是用户手部在移动后,摄像头捕捉到的用户手部在当前时间停留的位置。
示例性的,物理瞄准部件通过通用串行总线(Universal Serial Bus,USB)接口与终端相连,或者通过蓝牙与终端相连,终端可以是台式电脑等。
步骤1706,响应于瞄准操作,在虚拟环境画面中显示三维技能瞄准指示器,三维技能瞄准指示器的技能瞄准方向与瞄准操作的瞄准方向在用户界面中平行,瞄准方向是第一操作位置指向第二操作位置的方向。
示例性的,终端连接有物理瞄准部件,物理瞄准部件包括物理的按钮或摇杆。第一操作位置是用户按下按钮或操纵摇杆的起始操作位置。第二操作位置是用户按下按钮后停留的位 置,或,操纵摇杆后的摇杆停留位置。。示例性的,瞄准方向是用户按下按钮的起始操作位置指向用户按下按钮之后停留的位置,三维技能瞄准指示器的技能瞄准方向与瞄准操作的瞄准方向在用户界面中平行。示例性的,瞄准方向是用户操纵摇杆的起始操作位置指向操纵后摇杆的停留位置,三维技能瞄准指示器的技能瞄准方向与瞄准操作的瞄准方向在用户界面中平行。
示例性的,终端连接有物理瞄准部件,物理瞄准部件是装有加速传感器的手柄,加速传感器可以捕捉用户握住手柄之后手的轨迹。第一操作位置是用户在初始静止不动时握住手柄的位置,第二操作位置是用户移动手柄之后,在当前时间停留的位置。瞄准方向是用户在初始静止不动时握住手柄的位置指向用户移动手柄之后,在当前时间停留的位置,三维技能瞄准指示器的技能瞄准方向与瞄准操作的瞄准方向在用户界面中平行。
示例性的,终端连接有物理瞄准部件,物理瞄准部件是一个或多个具有空间感应能力的摄像头。第一操作位置是摄像头捕捉到的用户手部在初始静止不动时的操作位置,第二操作位置是用户手部在移动后,摄像头捕捉到的用户手部在当前时间停留的位置。瞄准方向是摄像头捕捉到的用户手部在初始静止不动时的操作位置指向用户手部在移动后,摄像头捕捉到的用户手部在当前时间停留的位置,三维技能瞄准指示器的技能瞄准方向与瞄准操作的瞄准方向在用户界面中平行。
本实施例通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和瞄准操作的瞄准方向平行,用户所观察到的技能瞄准方向与自身手部或者肢体动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
需要说明的是,本实施例所说的第一操作位置相当于之前的实施例所述的第一操作点,第二操作位置相当于之前的实施例所述的第二操作点,瞄准操作相当于之前的实施例所述的拖动操作,本实施例中相关技能瞄准原理与之前的实施例相似,本领域普通技术人员可以参考之前的实施例理解本实施例,因此本文不再赘述。
图18是本申请一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图,该装置可以应用于计算机设备。该装置包括:
显示模块1310,用于显示应用程序的用户界面,所述用户界面包括虚拟环境画面和技能瞄准控件,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,所述技能瞄准控件是用于释放技能的二维控件,且所述技能瞄准控件位于所述虚拟环境画面上层;
接收模块1320,用于接收所述技能瞄准控件上的拖动操作,所述拖动操作包括位于所述技能瞄准控件上的第一操作点和第二操作点,所述第一操作点是所述拖动操作的起始操作点,所述第二操作点是所述拖动操作的当前操作点;
所述显示模块1310,还用于响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述拖动操作的拖动方向在所述用户界面中平行,所述拖动方向是所述第一操作点指向所述第二操作点的方向。
综上所述,本实施例提供的装置,通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行,用户所观察到的技能瞄准方向与自身手部动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
图19是本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图,该装置可以应用于计算机设备。该装置包括:
显示模块1310,用于显示应用程序的用户界面,所述用户界面包括虚拟环境画面和技能瞄准控件,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,所述技能瞄准控件是用于释放技能的二维控件,且所述技能瞄准控件位于所述虚拟环境画面上 层;
接收模块1320,用于接收所述技能瞄准控件上的拖动操作,所述拖动操作包括位于所述技能瞄准控件上的第一操作点和第二操作点,所述第一操作点是所述拖动操作的起始操作点,所述第二操作点是所述拖动操作的当前操作点;
所述显示模块1310,还用于响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述拖动操作的拖动方向在所述用户界面中平行,所述拖动方向是所述第一操作点指向所述第二操作点的方向。
在一个可选的实施例中,所述显示模块包括确定子模块1312和显示子模块1314;
所述确定子模块1312,用于响应于所述拖动操作,根据所述第一操作点指向所述第二操作点的瞄准向量,确定所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量;
所述显示子模块1314,还用于根据所述技能瞄准向量显示所述三维技能瞄准指示器。
综上所述,本实施例提供的装置,通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行,拖动操作的拖动方向是第一操作点指向第二操作点的方向,用户所观察到的技能瞄准方向与自身手部动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
图20是本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图,该装置可以应用于计算机设备。该装置包括:
显示模块1310,用于显示应用程序的用户界面,所述用户界面包括虚拟环境画面和技能瞄准控件,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,所述技能瞄准控件是用于释放技能的二维控件,且所述技能瞄准控件位于所述虚拟环境画面上层;
接收模块1320,用于接收所述技能瞄准控件上的拖动操作,所述拖动操作包括位于所述技能瞄准控件上的第一操作点和第二操作点,所述第一操作点是所述拖动操作的起始操作点,所述第二操作点是所述拖动操作的当前操作点;
所述显示模块1310,还用于响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述拖动操作的拖动方向在所述用户界面中平行,所述拖动方向是所述第一操作点指向所述第二操作点的方向。
在一个可选的实施例中,所述显示模块1310包括确定子模块1312和显示子模块1314;
所述确定子模块1312,用于响应于所述拖动操作,根据所述第一操作点指向所述第二操作点的瞄准向量,确定所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量;
所述显示子模块1314,还用于根据所述技能瞄准向量显示所述三维技能瞄准指示器。
在一个可选的实施例中,所述确定子模块1312包括:
确定子单元1312-a,用于确定所述第一操作点指向所述第二操作点的瞄准向量;
计算子单元1312-b,用于以所述用户界面上的中心点为第一参考点,计算所述第一参考点和所述瞄准向量相加后指向的第二参考点;
转换子单元1312-c,用于将所述第一参考点采用逆转矩阵转换为所述三维虚拟环境中的第三参考点,将所述第二参考点采用所述逆转矩阵转换为所述三维虚拟环境中的第四参考点;
所述确定子单元1312-a,还用于确定所述第三参考点指向所述第四参考点的向量,作为所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量。
在一个可选的实施例中,所述技能瞄准控件具有最大瞄准距离,所述第一操作点和所述第二操作点之间的第一距离与所述最大瞄准距离具有第一比例;
所述技能在所述三维虚拟环境中具有最大技能距离,所述三维技能瞄准指示器包括位于所述三维虚拟环境中的第一瞄准点和第二瞄准点,所述第一瞄准点是技能瞄准时的起始点,所述第二瞄准点是技能瞄准时的目标点,所述第一瞄准点和第二瞄准点之间的第二距离与所述最大瞄准距离具有第二比例;
其中,所述第一比例与所述第二比例相同。
在一个可选的实施例中,所述显示子模块1314,还用于将所述虚拟角色在所述三维虚拟环境中的位置点,确定为所述第一瞄准点;根据所述第一瞄准点和所述技能瞄准向量确定所述三维技能瞄准指示器在技能瞄准时的所述第二瞄准点;根据所述第一瞄准点和所述第二瞄准点显示所述三维技能瞄准指示器。
在一个可选的实施例中,所述显示子模块1314,还用于获取所述技能瞄准控件的最大瞄准距离;计算所述第一操作点和所述第二操作点之间的第一距离与所述最大瞄准距离之间的所述第一比例;
所述显示子模块1314,还用于获取所述技能在所述三维虚拟环境中的最大技能距离;计算所述第一比例与所述最大瞄准距离的乘积为施法距离;
所述显示子模块1314,还用于在所述瞄准向量所指向的方向上,将所述第一瞄准点与所述施法距离相加,得到所述三维技能瞄准指示器在技能瞄准时的第二瞄准点。
在一个可选的实施例中,所述显示模块1310,还用于响应于所述第一操作点和所述第二操作点之间的距离大于死区阈值,在所述虚拟环境画面中显示所述三维技能瞄准指示器。
综上所述,本实施例提供的装置,通过确定第一参考点、第二参考点,以及通过逆转矩阵之后得到的虚拟环境中的第三参考点以及第四参考点,确定第三参考点指向第四参考点的向量为三维技能瞄准指示器在虚拟环境中的技能方向。最终通过映射使得显示在虚拟环境画面中三维技能瞄准指示器的技能瞄准方向和拖动操作的拖动方向平行。通过计算第一操作点和第二操作点之间的第一距离与最大瞄准距离之间的第一比例,计算第一比例与最大瞄准距离的乘积为施法距离。使得虚拟角色的施法距离由用户拖动操作的第一操作点到第二操作点的距离决定,因此提高了人机交互的效率。
结合参考图18给出本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图,该装置连接有物理瞄准部件,该装置可以应用于计算机设备。该装置包括:
显示模块1310,用于显示应用程序的用户界面,所述用户界面包,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
接收模块1320,用于接收物理瞄准部件上的瞄准操作,所述瞄准操作包括位于所述物理瞄准部件上的第一操作位置和第二操作位置,所述第一操作位置是所述瞄准操作的起始操作位置,所述第二操作位置是所述瞄准操作的当前操作位置;
所述显示模块1310,还用于响应于所述瞄准操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述瞄准操作的瞄准方向在所述用户界面中平行,所述瞄准方向是所述第一操作位置指向所述第二操作位置的方向。
综上所述,本实施例提供的装置,通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和瞄准操作的瞄准方向平行,用户所观察到的技能瞄准方向与自身手部或者肢体动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
结合参考图19给出本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图,该装置连接有物理瞄准部件,该装置可以应用于计算机设备。该装置包括:
显示模块1310,用于显示应用程序的用户界面,所述用户界面包,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
接收模块1320,用于接收物理瞄准部件上的瞄准操作,所述瞄准操作包括位于所述物理瞄准部件上的第一操作位置和第二操作位置,所述第一操作位置是所述瞄准操作的起始操作位置,所述第二操作位置是所述瞄准操作的当前操作位置;
所述显示模块1310,还用于响应于所述瞄准操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述瞄准操作的瞄准方向在所述用 户界面中平行,所述瞄准方向是所述第一操作位置指向所述第二操作位置的方向。
在一个可选的实施例中,所述显示模块包括确定子模块1312和显示子模块1314;
所述确定子模块1312,用于响应于所述瞄准操作,根据所述第一操作位置指向所述第二操作位置的瞄准向量,确定所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量;
所述显示子模块1314,还用于根据所述技能瞄准向量显示所述三维技能瞄准指示器。
综上所述,本实施例提供的装置,通过使得用户界面中的三维技能瞄准指示器的技能瞄准方向和瞄准操作的瞄准方向平行,瞄准操作的瞄准方向是第一操作位置指向第二操作位置的方向,用户所观察到的技能瞄准方向与自身手部或者肢体动作相匹配,能够提高技能瞄准的准确度。由于减少了不必要的修正操作,因此一定程度上也提高了人机交互的效率。
结合参考图20给出本申请另一个示例性实施例提供的三维虚拟环境中的技能瞄准装置的示意图,该装置连接有物理瞄准部件,该装置可以应用于计算机设备。该装置包括:
显示模块1310,用于显示应用程序的用户界面,所述用户界面包,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
接收模块1320,用于接收物理瞄准部件上的瞄准操作,所述瞄准操作包括位于所述物理瞄准部件上的第一操作位置和第二操作位置,所述第一操作位置是所述瞄准操作的起始操作位置,所述第二操作位置是所述瞄准操作的当前操作位置;
所述显示模块1310,还用于响应于所述瞄准操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述瞄准操作的瞄准方向在所述用户界面中平行,所述瞄准方向是所述第一操作位置指向所述第二操作位置的方向。
在一个可选的实施例中,所述显示模块1310包括确定子模块1312和显示子模块1314;
所述确定子模块1312,用于响应于所述瞄准操作,根据所述第一操作位置指向所述第二操作位置的瞄准向量,确定所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量;
所述显示子模块1314,还用于根据所述技能瞄准向量显示所述三维技能瞄准指示器。
在一个可选的实施例中,所述确定子模块1312包括:
确定子单元1312-a,用于确定所述第一操作位置指向所述第二操作位置的瞄准向量;
计算子单元1312-b,用于以所述用户界面上的中心点为第一参考位置,计算所述第一参考位置和所述瞄准向量相加后指向的第二参考位置;
转换子单元1312-c,用于将所述第一参考位置采用逆转矩阵转换为所述三维虚拟环境中的第三参考位置,将所述第二参考位置采用所述逆转矩阵转换为所述三维虚拟环境中的第四参考位置;
所述确定子单元1312-a,还用于确定所述第三参考位置指向所述第四参考位置的向量,作为所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量。
在一个可选的实施例中,所述技能瞄准控件具有最大瞄准距离,所述第一操作位置和所述第二操作位置之间的第一距离与所述最大瞄准距离具有第一比例;
所述技能在所述三维虚拟环境中具有最大技能距离,所述三维技能瞄准指示器包括位于所述三维虚拟环境中的第一瞄准位置和第二瞄准位置,所述第一瞄准位置是技能瞄准时的起始位置,所述第二瞄准位置是技能瞄准时的目标位置,所述第一瞄准位置和第二瞄准位置之间的第二距离与所述最大瞄准距离具有第二比例;
其中,所述第一比例和所述第二比例相同。
在一个可选的实施例中,所述显示子模块1314,还用于将所述虚拟角色在所述三维虚拟环境中的位置点,确定为所述第一瞄准位置;根据所述第一瞄准位置和所述技能瞄准向量确定所述三维技能瞄准指示器在技能瞄准时的所述第二瞄准位置;根据所述第一瞄准位置和所述第二瞄准位置显示所述三维技能瞄准指示器。
在一个可选的实施例中,所述显示子模块1314,还用于获取物理瞄准部件的最大瞄准距离;计算所述第一操作位置和所述第二操作位置之间的第一距离与所述最大瞄准距离之间的 所述第一比例;
所述显示子模块1314,还用于获取所述技能在所述三维虚拟环境中的最大技能距离;计算所述第一比例与所述最大瞄准距离的乘积为施法距离;
所述显示子模块1314,还用于在所述瞄准向量所指向的方向上,将所述第一瞄准位置与所述施法距离相加,得到所述三维技能瞄准指示器在技能瞄准时的第二瞄准位置。
在一个可选的实施例中,所述显示模块1310,还用于响应于所述第一操作位置和所述第二操作位置之间的距离大于死区阈值,在所述虚拟环境画面中显示所述三维技能瞄准指示器。
综上所述,本实施例提供的装置,通过确定第一参考位置、第二参考位置,以及通过逆转矩阵之后得到的虚拟环境中的第三参考位置以及第四参考位置,确定第三参考位置指向第四参考位置的向量为三维技能瞄准指示器在虚拟环境中的技能方向。最终通过映射使得显示在虚拟环境画面中三维技能瞄准指示器的技能瞄准方向和瞄准操作的瞄准方向平行。通过计算第一操作位置和第二操作位置之间的第一距离与最大瞄准距离之间的第一比例,计算第一比例与最大瞄准距离的乘积为施法距离。使得虚拟角色的施法距离由用户瞄准操作的第一操作位置到第二操作位置的距离决定,因此提高了人机交互的效率。
图21是本申请一个示例性实施例提供的计算机设备的结构示意图。该计算机设备1600可以是终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器。计算机设备1600还可能被称为用户设备、便携式终端等其它名称。
通常,计算机设备1600包括有:处理器1601和存储器1602。
处理器1601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器1602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1601所执行以实现本申请中提供的方法。
在一些实施例中,电子设备1600还可选包括有:外围设备接口1603和至少一个外围设备。具体地,外围设备包括:射频电路1604、触摸显示屏1605、摄像头1606、音频电路1607、定位组件1608和电源1609中的至少一种。
外围设备接口1603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1601和存储器1602。在一些实施例中,处理器1601、存储器1602和外围设备接口1603被集成在同一芯片或电路板上;在一些其它实施例中,处理器1601、存储器1602和外围设备接口1603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1604通过电磁信号与通信网络以及其它通信设备进行通信。射频电路1604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1604 包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
触摸显示屏1605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏1605还具有采集在触摸显示屏1605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1601进行处理。触摸显示屏1605用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏1605可以为一个,设置电子设备1600的前面板;在另一些实施例中,触摸显示屏1605可以为至少两个,分别设置在电子设备1600的不同表面或呈折叠设计;在再一些实施例中,触摸显示屏1605可以是柔性显示屏,设置在电子设备1600的弯曲表面上或折叠面上。甚至,触摸显示屏1605还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏1605可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1606用于采集图像或视频。可选地,摄像头组件1606包括前置摄像头和后置摄像头。通常,前置摄像头用于实现视频通话或自拍,后置摄像头用于实现照片或视频的拍摄。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能,主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能。在一些实施例中,摄像头组件1606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1607用于提供用户和电子设备1600之间的音频接口。音频电路1607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1601进行处理,或者输入至射频电路1604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备1600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1601或射频电路1604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1607还可以包括耳机插孔。
定位组件1608用于定位电子设备1600的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1608可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1609用于为电子设备1600中的各个组件进行供电。电源1609可以是交流电、直流电、一次性电池或可充电电池。当电源1609包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备1600还包括有一个或多个传感器1610。该一个或多个传感器1610包括但不限于:加速度传感器1611、陀螺仪传感器1612、压力传感器1613、指纹传感器1614、光学传感器1615以及接近传感器1616。
加速度传感器1611可以检测以电子设备1600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1611可以用于检测重力加速度在三个坐标轴上的分量。处理器1601可以根据加速度传感器1611采集的重力加速度信号,控制触摸显示屏1605以横向视图或纵向视图进行用户界面的显示。加速度传感器1611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1612可以检测电子设备1600的机体方向及转动角度,陀螺仪传感器1612可以与加速度传感器1611协同采集用户对电子设备1600的3D动作。处理器1601根据陀螺仪传感器1612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1613可以设置在电子设备1600的侧边框和/或触摸显示屏1605的下层。当压力传感器1613设置在电子设备1600的侧边框时,可以检测用户对电子设备1600的握持信号,根据该握持信号进行左右手识别或快捷操作。当压力传感器1613设置在触摸显示屏1605的下层时,可以根据用户对触摸显示屏1605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1614用于采集用户的指纹,以根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1614可以被设置电子设备1600的正面、背面或侧面。当电子设备1600上设置有物理按键或厂商Logo时,指纹传感器1614可以与物理按键或厂商Logo集成在一起。
光学传感器1615用于采集环境光强度。在一个实施例中,处理器1601可以根据光学传感器1615采集的环境光强度,控制触摸显示屏1605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1605的显示亮度;当环境光强度较低时,调低触摸显示屏1605的显示亮度。在另一个实施例中,处理器1601还可以根据光学传感器1615采集的环境光强度,动态调整摄像头组件1606的拍摄参数。
接近传感器1616,也称距离传感器,通常设置在电子设备1600的正面。接近传感器1616用于采集用户与电子设备1600的正面之间的距离。在一个实施例中,当接近传感器1616检测到用户与电子设备1600的正面之间的距离逐渐变小时,由处理器1601控制触摸显示屏1605从亮屏状态使用为息屏状态;当接近传感器1616检测到用户与电子设备1600的正面之间的距离逐渐变大时,由处理器1601控制触摸显示屏1605从息屏状态使用为亮屏状态。
本领域技术人员可以理解,图21中示出的结构并不构成对电子设备1600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的三维虚拟环境中的技能瞄准方法。
本申请还提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如上述各方法提供的三维虚拟环境中的技能瞄准方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (20)

  1. 一种三维虚拟环境中的技能瞄准方法,其特征在于,应用于计算机设备中,所述方法包括:
    显示应用程序的用户界面,所述用户界面包括虚拟环境画面和技能瞄准控件,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,所述技能瞄准控件是用于释放技能的二维控件,且所述技能瞄准控件位于所述虚拟环境画面上层;
    接收所述技能瞄准控件上的拖动操作,所述拖动操作包括位于所述技能瞄准控件上的第一操作点和第二操作点,所述第一操作点是所述拖动操作的起始操作点,所述第二操作点是所述拖动操作的当前操作点;
    响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述拖动操作的拖动方向在所述用户界面中平行,所述拖动方向是所述第一操作点指向所述第二操作点的方向。
  2. 根据权利要求1所述的方法,其特征在于,所述响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,包括:
    响应于所述拖动操作,根据所述第一操作点指向所述第二操作点的瞄准向量,确定所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量;
    根据所述技能瞄准向量显示所述三维技能瞄准指示器。
  3. 根据权利要求2所述的方法,其特征在于,所述根据所述第一操作点指向所述第二操作点的瞄准向量,确定所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量,包括:
    确定所述第一操作点指向所述第二操作点的瞄准向量;
    以所述用户界面上的中心点为第一参考点,计算所述第一参考点和所述瞄准向量相加后指向的第二参考点;
    将所述第一参考点采用逆转矩阵转换为所述三维虚拟环境中的第三参考点,将所述第二参考点采用所述逆转矩阵转换为所述三维虚拟环境中的第四参考点;
    确定所述第三参考点指向所述第四参考点的向量,作为所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量。
  4. 根据权利要求2或3所述的方法,其特征在于,
    所述技能瞄准控件具有最大瞄准距离,所述第一操作点和所述第二操作点之间的第一距离与所述最大瞄准距离具有第一比例;
    所述技能在所述三维虚拟环境中具有最大技能距离,所述三维技能瞄准指示器包括位于所述三维虚拟环境中的第一瞄准点和第二瞄准点,所述第一瞄准点是技能瞄准时的起始点,所述第二瞄准点是技能瞄准时的目标点,所述第一瞄准点和第二瞄准点之间的第二距离与所述最大瞄准距离具有第二比例;
    其中,所述第一比例和所述第二比例相同。
  5. 根据权利要求4所述的方法,其特征在于,所述三维虚拟环境中包括被控制的虚拟角色,所述根据所述技能瞄准向量显示所述三维技能瞄准指示器,包括:
    将所述虚拟角色在所述三维虚拟环境中的位置点,确定为所述第一瞄准点;
    根据所述第一瞄准点和所述技能瞄准向量确定所述三维技能瞄准指示器在技能瞄准时的所述第二瞄准点;
    根据所述第一瞄准点和所述第二瞄准点显示所述三维技能瞄准指示器。
  6. 根据权利要求5所述的方法,其特征在于,所述根据所述第一瞄准点和所述技能瞄准向量确定所述三维技能瞄准指示器在技能瞄准时的所述第二瞄准点,包括:
    获取所述技能瞄准控件的最大瞄准距离;计算所述第一操作点和所述第二操作点之间的第一距离与所述最大瞄准距离之间的所述第一比例;
    获取所述技能在所述三维虚拟环境中的最大技能距离;计算所述第一比例与所述最大技能距离的乘积为施法距离;
    在所述瞄准向量所指向的方向上,将所述第一瞄准点与所述施法距离相加,得到所述三维技能瞄准指示器在技能瞄准时的第二瞄准点。
  7. 根据权利要求1所述的方法,其特征在于,所述响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,包括:
    响应于所述第一操作点和所述第二操作点之间的距离大于死区阈值,在所述虚拟环境画面中显示所述三维技能瞄准指示器。
  8. 一种三维虚拟环境中的技能瞄准方法,其特征在于,应用于计算机设备中,所述计算机设备设置或连接有物理瞄准部件,所述方法包括:
    显示应用程序的用户界面,所述用户界面包括虚拟环境画面,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
    接收所述物理瞄准部件上的瞄准操作,所述瞄准操作包括在所述物理瞄准部件上触发的第一操作位置和第二操作位置,所述第一操作位置是所述瞄准操作的起始操作位置,所述第二操作位置是所述瞄准操作的当前操作位置;
    响应于所述瞄准操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述瞄准操作的瞄准方向在所述用户界面中平行,所述瞄准方向是所述第一操作位置指向所述第二操作位置的方向。
  9. 一种三维虚拟环境中的技能瞄准装置,其特征在于,应用于计算机设备中,所述装置包括:
    显示模块,用于显示应用程序的用户界面,所述用户界面包括虚拟环境画面和技能瞄准控件,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面,所述技能瞄准控件是用于释放技能的二维控件,且所述技能瞄准控件位于所述虚拟环境画面上层;
    接收模块,用于接收所述技能瞄准控件上的拖动操作,所述拖动操作包括位于所述技能瞄准控件上的第一操作点和第二操作点,所述第一操作点是所述拖动操作的起始操作点,所述第二操作点是所述拖动操作的当前操作点;
    所述显示模块,还用于响应于所述拖动操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述拖动操作的拖动方向在所述用户界面中平行,所述拖动方向是所述第一操作点指向所述第二操作点的方向。
  10. 根据权利要求9所述的装置,其特征在于,所述显示模块包括确定子模块和显示子模块;
    所述确定子模块,用于响应于所述拖动操作,根据所述第一操作点指向所述第二操作点的瞄准向量,确定所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量;
    所述显示子模块,还用于根据所述技能瞄准向量显示所述三维技能瞄准指示器。
  11. 根据权利要求10所述的装置,其特征在于,所述确定子模块包括:
    确定子单元,用于确定所述第一操作点指向所述第二操作点的瞄准向量;
    计算子单元,用于以所述用户界面上的中心点为第一参考点,计算所述第一参考点和所述瞄准向量相加后指向的第二参考点;
    转换子单元,用于将所述第一参考点采用逆转矩阵转换为所述三维虚拟环境中的第三参考点,将所述第二参考点采用所述逆转矩阵转换为所述三维虚拟环境中的第四参考点;
    所述确定子单元,还用于确定所述第三参考点指向所述第四参考点的向量,作为所述三维技能瞄准指示器在所述三维虚拟环境中的技能瞄准向量。
  12. 根据权利要求10或11所述的装置,其特征在于,
    所述技能瞄准控件具有最大瞄准距离,所述第一操作点和所述第二操作点之间的第一距离与所述最大瞄准距离具有第一比例;
    所述技能在所述三维虚拟环境中具有最大技能距离,所述三维技能瞄准指示器包括位于所述三维虚拟环境中的第一瞄准点和第二瞄准点,所述第一瞄准点是技能瞄准时的起始点,所述第二瞄准点是技能瞄准时的目标点,所述第一瞄准点和第二瞄准点之间的第二距离与所述最大瞄准距离具有第二比例;
    其中,所述第一比例和所述第二比例相同。
  13. 根据权利要求12所述的装置,其特征在于,所述三维虚拟环境中包括被控制的虚拟角色;所述显示子模块,还用于,
    将所述虚拟角色在所述三维虚拟环境中的位置点,确定为所述第一瞄准点;
    根据所述第一瞄准点和所述技能瞄准向量确定所述三维技能瞄准指示器在技能瞄准时的所述第二瞄准点;
    根据所述第一瞄准点和所述第二瞄准点显示所述三维技能瞄准指示器。
  14. 根据权利要求13所述的装置,其特征在于,所述显示子模块,还用于,
    获取所述技能瞄准控件的最大瞄准距离;计算所述第一操作点和所述第二操作点之间的第一距离与所述最大瞄准距离之间的所述第一比例;
    获取所述技能在所述三维虚拟环境中的最大技能距离;计算所述第一比例与所述最大瞄准距离的乘积为施法距离;
    在所述瞄准向量所指向的方向上,将所述第一瞄准点与所述施法距离相加,得到所述三维技能瞄准指示器在技能瞄准时的第二瞄准点。
  15. 根据权利要求9所述的装置,其特征在于,
    所述显示模块,用于响应于所述第一操作点和所述第二操作点之间的距离大于死区阈值,在所述虚拟环境画面中显示所述三维技能瞄准指示器。
  16. 一种三维虚拟环境中的技能瞄准装置,其特征在于,所述装置设置或连接有物理瞄准部件,所述装置包括:
    显示模块,用于显示应用程序的用户界面,所述用户界面包括虚拟环境画面,所述虚拟环境画面是采用第三人称的俯视角对三维虚拟环境进行观察的画面;
    接收模块,用于接收所述物理瞄准部件上的瞄准操作,所述瞄准操作包括在所述物理瞄准部件上触发的第一操作位置和第二操作位置,所述第一操作位置是所述瞄准操作的起始操作位置,所述第二操作位置是所述瞄准操作的当前操作位置;
    所述显示模块,还用于响应于所述瞄准操作,在所述虚拟环境画面中显示三维技能瞄准指示器,所述三维技能瞄准指示器的技能瞄准方向与所述瞄准操作的瞄准方向在所述用户界面中平行,所述瞄准方向是所述第一操作位置指向所述第二操作位置的方向。
  17. 一种计算机设备,其特征在于,所述计算机设备包括:处理器和存储器,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至7任一所述的三维虚拟环境中的技能瞄准方法。
  18. 一种计算机设备,其特征在于,所述计算机设备包括:处理器、存储器和物理瞄准部件,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求8所述的三维虚拟环境中的技能瞄准方法。
  19. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至7任一项所述的三维虚拟环境中的技能瞄准方法。
  20. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求8所述的三维虚拟环境中的技能瞄准方法。
PCT/CN2020/128772 2020-02-14 2020-11-13 三维虚拟环境中的技能瞄准方法、装置、设备及存储介质 WO2021159795A1 (zh)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CA3136380A CA3136380A1 (en) 2020-02-14 2020-11-13 Method and apparatus for skill aiming in three-dimensional virtual environment, device and storage medium
AU2020428058A AU2020428058B2 (en) 2020-02-14 2020-11-13 Method and apparatus for skill aiming in three-dimensional virtual environment, device and storage medium
SG11202111792SA SG11202111792SA (en) 2020-02-14 2020-11-13 Method and apparatus for skill aiming in three-dimensional virtual environment, device and storage medium
KR1020217036125A KR20210150478A (ko) 2020-02-14 2020-11-13 3차원 가상 환경에서의 스킬 조준을 위한 방법 및 장치, 디바이스 및 저장 매체
JP2021566187A JP2022534187A (ja) 2020-02-14 2020-11-13 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム
EP20918314.4A EP3939680A4 (en) 2020-02-14 2020-11-13 Method and apparatus for skill aiming in three-dimensional virtual environment, device and storage medium
US17/511,396 US20220047946A1 (en) 2020-02-14 2021-10-26 Ability aiming method and apparatus in three-dimensional virtual environment, device, and storage medium
JP2024015950A JP2024054207A (ja) 2020-02-14 2024-02-05 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010093196.9 2020-02-14
CN202010093196.9A CN111282266B (zh) 2020-02-14 2020-02-14 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/511,396 Continuation US20220047946A1 (en) 2020-02-14 2021-10-26 Ability aiming method and apparatus in three-dimensional virtual environment, device, and storage medium

Publications (1)

Publication Number Publication Date
WO2021159795A1 true WO2021159795A1 (zh) 2021-08-19

Family

ID=71022041

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/128772 WO2021159795A1 (zh) 2020-02-14 2020-11-13 三维虚拟环境中的技能瞄准方法、装置、设备及存储介质

Country Status (9)

Country Link
US (1) US20220047946A1 (zh)
EP (1) EP3939680A4 (zh)
JP (2) JP2022534187A (zh)
KR (1) KR20210150478A (zh)
CN (1) CN111282266B (zh)
AU (1) AU2020428058B2 (zh)
CA (1) CA3136380A1 (zh)
SG (1) SG11202111792SA (zh)
WO (1) WO2021159795A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111282266B (zh) * 2020-02-14 2021-08-03 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
CN111821691A (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 界面显示方法、装置、终端及存储介质
CN112169330B (zh) 2020-09-25 2021-12-31 腾讯科技(深圳)有限公司 虚拟环境的画面显示方法、装置、设备及介质
CN112957737A (zh) * 2021-02-25 2021-06-15 网易(杭州)网络有限公司 一种游戏中信息处理方法、装置、电子设备及存储介质
CN117693386A (zh) * 2022-06-24 2024-03-12 上海莉莉丝科技股份有限公司 游戏控制方法、电子设备和计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898953A (zh) * 2015-06-16 2015-09-09 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN105194873A (zh) * 2015-10-10 2015-12-30 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
US9937415B1 (en) * 2013-12-17 2018-04-10 Amazon Technologies, Inc. Virtual controller for touchscreen
CN108376424A (zh) * 2018-02-09 2018-08-07 腾讯科技(深圳)有限公司 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质
US20190388786A1 (en) * 2018-06-22 2019-12-26 Yacht Club Games, LLC Video Game Gameplay having Nuanced Character Movements and Dynamic Movement Indicators
CN111282266A (zh) * 2020-02-14 2020-06-16 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583893B2 (ja) * 2004-11-19 2010-11-17 任天堂株式会社 ゲームプログラムおよびゲーム装置
KR101398086B1 (ko) * 2012-07-06 2014-05-30 (주)위메이드엔터테인먼트 온라인 게임에서의 유저 제스처 입력 처리 방법
US20150121301A1 (en) * 2013-10-28 2015-04-30 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device
KR101593209B1 (ko) * 2015-01-06 2016-02-11 라인플러스 주식회사 리듬 게임 서비스를 제공하는 게임 시스템 및 게임 방법
CN105148517B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
JP6190017B1 (ja) * 2016-08-12 2017-08-30 株式会社コロプラ ゲームの実行方法、プログラム、および記録媒体
WO2018048000A1 (ko) * 2016-09-12 2018-03-15 주식회사 딥픽셀 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체
US20180318705A1 (en) * 2017-05-04 2018-11-08 Roblox Corporation Touch-Screen Based Game Controller
CN107193479B (zh) * 2017-05-26 2018-07-10 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
US10198843B1 (en) * 2017-07-21 2019-02-05 Accenture Global Solutions Limited Conversion of 2D diagrams to 3D rich immersive content
CN107967096A (zh) * 2017-11-24 2018-04-27 网易(杭州)网络有限公司 目标对象确定方法、装置、电子设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9937415B1 (en) * 2013-12-17 2018-04-10 Amazon Technologies, Inc. Virtual controller for touchscreen
CN104898953A (zh) * 2015-06-16 2015-09-09 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN105194873A (zh) * 2015-10-10 2015-12-30 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN108376424A (zh) * 2018-02-09 2018-08-07 腾讯科技(深圳)有限公司 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质
US20190388786A1 (en) * 2018-06-22 2019-12-26 Yacht Club Games, LLC Video Game Gameplay having Nuanced Character Movements and Dynamic Movement Indicators
CN111282266A (zh) * 2020-02-14 2020-06-16 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3939680A4 *

Also Published As

Publication number Publication date
CN111282266A (zh) 2020-06-16
CN111282266B (zh) 2021-08-03
JP2022534187A (ja) 2022-07-28
KR20210150478A (ko) 2021-12-10
EP3939680A1 (en) 2022-01-19
AU2020428058A1 (en) 2021-11-04
JP2024054207A (ja) 2024-04-16
CA3136380A1 (en) 2021-08-19
EP3939680A4 (en) 2022-06-29
US20220047946A1 (en) 2022-02-17
SG11202111792SA (en) 2021-11-29
AU2020428058B2 (en) 2023-07-27

Similar Documents

Publication Publication Date Title
CN111589131B (zh) 虚拟角色的控制方法、装置、设备及介质
CN110755841B (zh) 虚拟环境中道具的切换方法、装置、设备及可读存储介质
WO2021143259A1 (zh) 虚拟对象的控制方法、装置、设备及可读存储介质
WO2021159795A1 (zh) 三维虚拟环境中的技能瞄准方法、装置、设备及存储介质
CN111589124B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN110613938B (zh) 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN112494955B (zh) 虚拟对象的技能释放方法、装置、终端及存储介质
JP2024045184A (ja) 仮想アイテムをマークするように仮想対象を制御する方法及びその装置並びに媒体
CN111589127B (zh) 虚拟角色的控制方法、装置、设备及存储介质
CN111467802B (zh) 虚拟环境的画面显示方法、装置、设备及介质
CN111589133A (zh) 虚拟对象控制方法、装置、设备及存储介质
CN111714893A (zh) 控制虚拟对象恢复属性值的方法、装置、终端及存储介质
CN111481934B (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN111659119B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN111389005B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111744186A (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN112138384A (zh) 虚拟投掷道具的使用方法、装置、终端及存储介质
CN111672102A (zh) 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN113559495A (zh) 虚拟对象释放技能的方法、装置、设备及存储介质
CN111589102B (zh) 辅助工具检测方法、装置、设备及存储介质
JPWO2021143259A5 (zh)
CN111589134A (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN111589144A (zh) 虚拟角色的控制方法、装置、设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20918314

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3136380

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2020918314

Country of ref document: EP

Effective date: 20211013

ENP Entry into the national phase

Ref document number: 20217036125

Country of ref document: KR

Kind code of ref document: A

Ref document number: 2020428058

Country of ref document: AU

Date of ref document: 20201113

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2021566187

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE