CN110559658B - 信息交互方法、装置、终端以及存储介质 - Google Patents

信息交互方法、装置、终端以及存储介质 Download PDF

Info

Publication number
CN110559658B
CN110559658B CN201910833875.2A CN201910833875A CN110559658B CN 110559658 B CN110559658 B CN 110559658B CN 201910833875 A CN201910833875 A CN 201910833875A CN 110559658 B CN110559658 B CN 110559658B
Authority
CN
China
Prior art keywords
skill
effect model
target
rocker
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910833875.2A
Other languages
English (en)
Other versions
CN110559658A (zh
Inventor
俞耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910833875.2A priority Critical patent/CN110559658B/zh
Publication of CN110559658A publication Critical patent/CN110559658A/zh
Application granted granted Critical
Publication of CN110559658B publication Critical patent/CN110559658B/zh
Priority to JP2021550032A priority patent/JP7242121B2/ja
Priority to EP20861591.4A priority patent/EP3919145A4/en
Priority to SG11202108571VA priority patent/SG11202108571VA/en
Priority to PCT/CN2020/110199 priority patent/WO2021043000A1/zh
Priority to KR1020217026753A priority patent/KR102602113B1/ko
Priority to US17/156,087 priority patent/US11684858B2/en
Priority to US18/314,299 priority patent/US20230271091A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/798Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for assessing skills or for ranking players, e.g. for generating a hall of fame
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例公开了一种信息交互方法、装置、终端以及存储介质;本发明实施例可以显示游戏画面,其中,该游戏画面包括候选技能区域;基于用户针对候选技能区域的技能选取操作,确定目标技能;在游戏画面上显示虚拟摇杆对象;当检测到用户针对虚拟摇杆对象的移动操作时,基于移动操作计算目标技能的至少一个技能生成位置;当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果模型。在本发明实施例中用户可以通过虚拟摇杆对象来控制游戏技能的多个技能效果模型生成位置,由此,该方案可以提升信息交互的精确度。

Description

信息交互方法、装置、终端以及存储介质
技术领域
本发明涉及计算机领域,具体涉及一种信息交互方法、装置、终端以及存储介质。
背景技术
游戏技能可以在满足一定的游戏条件下,在特定时间针对游戏中特定的人、物、区域等实现特定的效果,用户可以通过客户端控制游戏中的虚拟角色在虚拟场景内施放各种游戏技能。
随着触摸屏幕的出现,玩家可以通过手指或其它物体触摸显示屏幕来进行人机交互,从而控制游戏中的虚拟角色施放游戏技能。然而,随着电子游戏的发展,游戏技能日趋复杂、多样,玩家很难精确地控制游戏技能的施放,因此,目前的信息交互方法精确度低下。
发明内容
本发明实施例提供一种信息交互方法、装置、终端以及存储介质,可以提升信息交互的精确度。
本发明实施例提供一种信息交互方法,包括:
显示游戏画面,所述游戏画面包括候选技能区域;
基于用户针对所述候选技能区域的技能选取操作,确定目标技能;
在所述游戏画面上显示虚拟摇杆对象;
当检测到用户针对所述虚拟摇杆对象的移动操作时,基于所述移动操作计算所述目标技能的至少一个技能生成位置;
当检测到用户针对所述虚拟摇杆对象的施放操作时,在所述至少一个技能生成位置生成所述目标技能的技能效果模型。
本发明实施例还提供一种信息交互装置,包括:
画面单元,用于显示游戏画面,所述游戏画面包括候选技能区域;
技能单元,用于基于用户针对所述候选技能区域的技能选取操作,确定目标技能;
摇杆单元,用于在所述游戏画面上显示虚拟摇杆对象;
位置单元,用于当检测到用户针对所述虚拟摇杆对象的移动操作时,基于所述移动操作计算所述目标技能的至少一个技能生成位置;
生成单元,用于当检测到用户针对所述虚拟摇杆对象的施放操作时,在所述至少一个技能生成位置生成所述目标技能的技能效果模型。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行本发明实施例所提供的任一种信息交互方法中的步骤。
本发明实施例还提供一种终端,包括存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行本发明实施例所提供的任一种信息交互方法中的步骤。
本发明实施例可以显示游戏画面,游戏画面包括候选技能区域;基于用户针对候选技能区域的技能选取操作,确定目标技能;在游戏画面上显示虚拟摇杆对象;当检测到用户针对虚拟摇杆对象的移动操作时,基于移动操作计算目标技能的至少一个技能生成位置;当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果模型。
在本发明中,用户可以通过游戏画面中的虚拟摇杆对象,来对游戏技能的多个技能效果模型生成位置进行控制与调整,由此,该方案可以提升信息交互的精确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本发明实施例提供的信息交互方法的场景示意图;
图1b是本发明实施例提供的信息交互方法的流程示意图;
图1c是本发明实施例提供的虚拟摇杆对象的结构示意图;
图1d是本发明实施例提供的覆盖显示的效果示意图;
图1e是本发明实施例提供的技能生成位置与技能生成区域之间的关系示意图;
图1f是本发明实施例提供的摇杆位置和技能生成位置之间的映射关系示意图;
图1g是本发明实施例提供的技能效果分布轨迹的变化示意图;
图2a是本发明实施例提供的第一种技能效果模型的朝向示意图;
图2b是本发明实施例提供的第一种技能效果模型的朝向示意图;
图3是本发明实施例提供的信息交互装置的结构示意图;
图4是本发明实施例提供的网络设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种信息交互方法、装置、终端以及计算机可读存储介质。
其中,该信息交互装置具体可以集成在终端中,该终端可以为手机、平板电脑、智能蓝牙设备、笔记本电脑、或者个人电脑(Personal Computer,PC)等设备。
参考图1a,该信息交互装置具体可以集成在智能手机中,智能手机中可以安装游戏软件,该智能手机可以运行该游戏软件,运行游戏软件时,该智能手机可以显示游戏画面,其中,该游戏画面可以包括候选技能区域;基于用户针对该候选技能区域的技能选取操作,可以确定目标技能;在游戏画面上显示虚拟摇杆对象;当检测到用户针对虚拟摇杆对象的移动操作时,基于移动操作计算目标技能的至少一个技能生成位置;当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果模型。
以下分别进行详细说明。需说明的是,以下实施例的序号不作为对实施例优选顺序的限定。
在本实施例中,提供了一种信息交互方法,如图1b所示,该信息交互方法的具体流程可以如下:
101、显示游戏画面,该游戏画面包括候选技能区域。
其中,游戏画面可以包括游戏软件的游戏场景画面和用户界面(User Interface,UI),其中,游戏场景画面可以展现游戏内的场景、虚拟角色等内容,用户界面可以包括游戏按钮、文字、窗口等与游戏用户直接或间接接触的游戏设计元素。
用户可以通过游戏画面来与游戏内容进行互动。
参考图1a,游戏画面可以包括候选技能区域,该候选技能区域中可以包含至少一个候选技能的技能信息,其中,技能信息可以是技能名称、技能控件等信息。
其中,游戏技能可以是电子游戏中的一系列虚拟事件,在满足一定条件的前提下,这些虚拟事件可以在特定时间针对游戏中特定的人、物、区域等触发特定的效果。
游戏技能的基本要素包括该游戏技能的触发机制(何时以某种方式开启技能的生命周期、技能事件(描述技能发生的原子信息)以及技能效果(对当前游戏环境造成改变)。游戏技能具体的技能效果可以由本领域技术人员根据需求制定。
一般来说,游戏技能可以包括其效果模型、其数值模型,游戏技能的实现方式是在游戏场景中生成该游戏技能的效果模型,以及将其数值模型套用到对应的目标对象上,从而达到技能效果。
其中,游戏技能的效果模型可以具有多种类型,比如,场景模型、建筑模型、人物模型、动画模型、粒子效果模型,等等。
例如,在一些实施例中,游戏技能A的游戏效果是:在该游戏技能A的技能施放对象周围同时召唤5个虚拟随从,则其实现方式为:在该游戏技能A的技能施放对象模型周围生成5个虚拟随从模型。
102、基于用户针对候选技能区域的技能选取操作,确定目标技能。
用户针对候选技能区域的技能选取操作的操作方式具有多种,比如,用户可以通过拖拽、点击、划动、按压、触摸等方式来在候选技能区域进行技能选取。
候选技能区域中可以包括至少一个候选技能的技能信息,该技能信息可以是技能控件,该控件可以以图标、符号、按钮等形式表现。通过用户针对候选技能区域的技能选取操作,可以在这些候选技能中确定目标技能。
在一些实施例中,为了使得技能施放更加直观、优化在多技能情况下的技能施放,从而进一步提升信息交互的精确度,候选技能区域可以包括至少一个候选技能的技能控件,故步骤102具体可以包括以下步骤:
基于用户针对技能控件的选取操作,在至少一个候选技能中确定目标技能。
例如,候选技能区域中可以包括多个候选技能的技能图标,用户可以在多个候选技能的技能图标中选取一个候选技能进行点击,即将该候选技能确定为目标技能。
再例如,候选技能区域中可以包括一个候选技能的技能图标,用户可以在候选技能区域中向下划动该候选技能的技能图标,使得候选技能区域切换显示到下一候选技能的技能图标,并将该下一候选技能确定为目标技能;以及,用户可以在候选技能区域中向上划动该候选技能的技能图标,使得候选技能区域切换显示到上一候选技能的技能图标,并将该上一候选技能确定为目标技能。
103、在游戏画面上显示虚拟摇杆对象。
虚拟摇杆对象是一种可以用于人机交互的虚拟构件,用户通过控制虚拟摇杆对象的运动变化来向终端输入信息。
在一些实施例中,参考图1c,虚拟摇杆对象可以包括预设摇杆控件、预设摇杆移动范围,以及该预设摇杆移动范围的范围中心轴。
用户可以控制预设摇杆控件在预设摇杆移动范围内任意移动,当用户控制该预设摇杆控件进行移动时,该预设摇杆控件和预设摇杆移动范围的范围中心轴之间的相对距离、方向即可作为用户输入的信息与游戏进行交互。
在一些实施例中,具体地,步骤103可以包括以下步骤:
在目标技能的技能控件上覆盖显示虚拟摇杆对象。
覆盖显示是指将虚拟摇杆对象与技能控件层叠,且使得虚拟摇杆对象处于技能控件上方之后,再对虚拟摇杆对象和技能控件进行显示。
其中,覆盖可以是全部覆盖、部分覆盖等覆盖方式。
比如,参考图1d,当目标技能为技能A,技能A的技能控件的表现形式为图标时,则在目标技能的技能A图标上覆盖显示虚拟摇杆对象,即将虚拟摇杆对象与目标技能的技能A图标层叠,且使得虚拟摇杆对象处于技能A图标上方之后,再对虚拟摇杆对象和技能A图标进行显示
在一些实施例中,为了便于用户随时停止施放游戏技能,游戏画面还可以包括取消施放控件,故步骤103之后具体还可以包括以下步骤:
当检测到用户针对取消施放控件的取消施放操作时,在游戏画面中停止显示虚拟摇杆对象。
例如,参考图1a,当检测到用户针对取消施放控件的取消施放操作时,在游戏画面中停止显示虚拟摇杆对象。
以及,在一些实施例中,当检测到用户针对取消施放控件的取消施放操作时,还可以在游戏画面中停止显示目标技能的技能预览效果模型和技能生成区域,其中,技能预览效果模型和技能生成区域的具体介绍可以参考步骤104中的叙述,在此不做赘述。
104、当检测到用户针对虚拟摇杆对象的移动操作时,基于移动操作计算目标技能的至少一个技能生成位置。
其中,用户可以通过拖拽、划动、点击等来对虚拟摇杆对象的虚拟摇杆控件进行移动。
技能生成位置是指游戏技能触发时,技能效果模型在游戏场景中实际生成的位置,该技能生成位置可以为一个,也可以为多个。
比如,触发技能X时,可以在游戏场景的场景最东端和场景最西端生成两团雷云,则技能X的技能效果模型为生成两团雷云,技能X的技能生成位置为最东端(100,0)和最西端(-100,0)。
在一些实施例中,虚拟摇杆对象可以包括虚拟摇杆控件、预设摇杆移动范围,步骤104可以包括以下步骤:
(1)确定目标技能的技能施放对象和预设技能施放范围,获取技能施放对象在游戏画面中的当前位置。
其中,技能施放对象是指该游戏技能的技能效果模型生效的虚拟对象,其中,该虚拟对象可以是角色虚拟对象、物品虚拟对象、场景虚拟对象等等。比如,游戏技能X的技能施放对象是游戏场景中施放该技能的虚拟角色;再比如,游戏技能Y的技能施放对象是游戏场景中用户选择的其他虚拟角色;再比如,游戏技能Z的技能施放对象是游戏场景中用户选择的某一虚拟物品、某一虚拟地点,等等。
技能施放对象在游戏画面中的当前位置指技能施放对象在游戏内的位置,比如,技能施放对象为游戏场景内的一颗树,该树在游戏某场景中的当前位置为(299,5,41)。
预设技能施放范围是指游戏技能最大的施放范围,可以为范围距离、范围半径、范围面积、范围体积等等,该预设技能施放范围可以由游戏开发人员设置,用于提高游戏性、保持游戏平衡性等等。
例如,游戏技能“召唤雷云”的技能施放对象为用户指定的游戏场景中的某一地点,其预设技能施放范围为半径为8米的圆形。
在一些实施例中,为了使得用户直观地观察到可以施放技能的区域、优化用户体验,在步骤“确定目标技能的预设技能施放范围和技能施放对象,获取技能施放对象在游戏画面中的当前位置”之后,还可以包括以下步骤:
以技能施放对象的当前位置为中心,基于预设技能施放范围确定目标技能在游戏画面中的技能生成区域;
在游戏画面上显示技能生成区域。
其中,技能生成区域是指游戏技能的技能效果模型在游戏场景中可生成的区域,即,技能生成位置所在的区域。
以技能施放对象的当前位置为中心,基于预设技能施放范围确定目标技能在游戏画面中的技能生成区域的方式具有多种,比如,技能生成区域可以是以当前位置为圆心、预设技能施放范围为半径的圆形、扇形、球型,等等;再比如,技能生成区域可以是以当前位置为中心、预设技能施放范围为边长的正方形、菱形、金字塔型,等等。
例如,参考图1e,当用户已经选出了目标技能后,可以在游戏场景中显示技能生成区域,该技能生成区域为以技能施放对象的当前位置为圆心、预设技能施放范围d为半径的一个圆形区域,用户可以通过虚拟摇杆对象来控制目标技能的技能生成位置(x,y)在该技能生成区域中的具体位置。
在一些实施例中,技能生成区域可以以高亮的形式在游戏场景中显示,比如,可以以蓝色显示该技能生成区域的边缘、以灰色填充该技能生成区域,并显示该填充后的技能生成区域,等等。
(2)当检测到用户针对虚拟摇杆对象的移动操作时,获取虚拟摇杆控件在预设摇杆移动范围中的摇杆位置。
当用户针对虚拟摇杆对象进行移动操作时,预设摇杆控件可以在摇杆移动范围中移动。
参考图1c,以范围中心轴为坐标轴零点建立摇杆坐标系,预设摇杆控件在该摇杆坐标系中的位置(x,y)即摇杆位置。
(3)基于预设摇杆移动范围、摇杆位置、预设技能施放范围、当前位置,计算目标技能的至少一个技能生成位置。
摇杆移动范围为摇杆可移动的最大的施放范围,该预设技能施放范围可以由游戏开发人员设置,用于提高游戏性、保持游戏平衡性等等。
在一些实施例中,摇杆移动范围为摇杆可移动的最大的范围,该范围的类型具有多种,比如,可以为范围距离、范围半径、范围面积、范围体积等等,该摇杆移动范围可以由游戏开发人员设置,也可以由用户自行调整。
技能生成位置的数量可以在游戏技能中定义,在以预设技能施放范围为半径的圆形区域(即,技能生成区域)中的技能生成位置,可以与在以预设摇杆移动范围为半径的圆形区域(即,预设摇杆移动区域)中的摇杆位置映射。
在一些实施例中,步骤“基于预设摇杆移动范围、摇杆位置、预设技能施放范围、当前位置,计算目标技能的至少一个技能生成位置”具体可以包括以下步骤:
A.对预设摇杆移动范围和预设技能施放范围进行相除计算,得到交互范围比例;
B.对交互范围比例和摇杆位置进行相乘计算,得到相对位置,相对位置为技能生成位置和技能施放对象之间相对的位置;
C.根据技能施放对象在游戏画面中的当前位置,确定相对位置在游戏画面中的技能生成位置。
比如,参考图1f,预设摇杆移动范围为半径r,用户将虚拟摇杆对象的预设摇杆控件移动到了摇杆位置(x,y)、目标技能的预设技能施放范围为半径R,技能施放对象的当前位置为(a,b),则技能生成位置(X,Y)的计算方法如下:
d=1.252+3.752=15.625
其中,交互范围比例为R/r,即预设摇杆移动范围和预设技能施放范围之间的映射比例;相对位置包括x轴相对位置和y轴相对位置,x轴相对位置围为x*R/r,y轴相对位置为y*R/r。
在一些实施例中,可以在生成目标技能的技能效果模型时,根据技能生成位置与技能施放对象之间的相对位置来控制技能效果模型的效果朝向,比如技能“召唤随从”的技能效果是召唤3个虚拟随从,则根据用户控制的召唤地点(即,技能生成位置)与技能施放对象之间的相对位置,来确定这些虚拟随从的相对方向,使得这些随从的正面朝向这些相对方向。
故步骤“对交互范围比例和摇杆位置进行相乘计算,得到相对位置”之后,还可以包括以下步骤:
根据相对位置计算技能效果模型的相对方向。
比如,相对位置为(A,B),则相对方向为arctanB/A;再比如相对位置为极坐标(ρ,θ),则相对方向为θ。
在一些实施例中,目标技能可以在多个技能生成位置生成技能效果模型,比如,技能“召唤随从”可以在用户指定的技能生成位置生成3个虚拟随从的游戏模型,为了进一步提升信息交互的精确度、降低操作复杂度,本实施例提供技能效果模型分布轨迹的概念,目标技能的技能生成位置均在该技能效果模型分布轨迹上,步骤C可以包括步骤a、b、c、d、e,如下:
a.确定目标技能的技能生成位置数量。
b.根据相对位置计算目标技能的技能效果模型分布半径。
技能生成位置数量可以在游戏技能中预先制定,比如,技能“召唤随从”的技能生成位置数量为3,触发该技能后可以在用户指定的技能生成位置生成3个虚拟随从的游戏模型。
根据技能效果模型分布半径可以计算出该目标技能的技能效果模型分布轨迹。
根据相对位置计算目标技能的技能效果模型分布半径的方式具有多种,比如,相对位置越远,技能效果模型分布半径越小;再比如,相对位置越近,技能效果模型分布半径越小,等等。
在一些实施例中,步骤b具体可以包括以下步骤:
获取预设系数;
根据相对位置计算相对距离;
根据预设系数对相对距离进行加权求和,得到目标技能的技能效果模型分布半径。
技能效果模型分布半径R的计算公式如下:
Figure BDA0002191598730000101
其中,预设系数K可以由游戏开发人员预先设定,相对距离d的计算公式如下:
x2+y2
其中,相对位置为(x,y)。
c.以相对位置为圆心,基于技能效果模型分布半径确定目标技能的技能效果模型分布轨迹。
比如,参考图1g,其中,大圈为预设技能施放范围,小圈为以技能效果模型分布半径为半径的技能效果模型分布轨迹,三角形为技能施放对象的相对位置;相对位置越远(即,相对距离越大),则小圈越来越大。
在一些实施例中,由于游戏技能的技能效果模型具有体积,则当一个游戏技能具有多个技能生成位置时,要保证在这些技能生成位置上生成的技能效果模型不会相互碰撞、交叉,故参考图1g的多个小圈中,最左边的4个小圈都保持同样的大小,使得在相对位置小于一定数值时,技能效果模型分布轨迹的技能效果模型分布半径不再减小,步骤c具体可以包括以下步骤:
获取目标技能的技能效果模型预设分布体积;
对技能效果模型预设分布体积和技能生成位置数量进行相乘计算,得到最小技能效果模型分布半径;
当目标技能的技能效果模型分布半径不小于最小技能效果模型分布半径时,以相对位置为圆心,基于技能效果模型分布半径确定目标技能的技能效果模型分布轨迹;
当目标技能的技能效果模型分布半径小于最小技能效果模型分布半径时,以相对位置为圆心、基于最小技能效果模型分布半径确定目标技能的技能效果模型分布轨迹。
其中,技能效果模型预设分布体积是技能效果模型的游戏模型体积,比如,触发技能“种树”时,可以在4个技能生成位置每个位置生成1棵虚拟树的游戏模型,该虚拟树的模型体积为3米*3米,则最小技能效果模型分布半径为3*4=12米。
当技能“种树”的技能效果模型分布半径不小于12米时,以相对位置为圆心,基于技能效果模型分布半径确定目标技能的技能效果模型分布轨迹;
当技能“种树”的技能效果模型分布半径小于12米时,以相对位置为圆心、基于12米确定目标技能的技能效果模型分布轨迹。
d.基于技能生成位置数量,在技能效果模型分布轨迹上确定多个技能效果模型分布点。
基于技能生成位置数量,在技能效果模型分布轨迹上确定多个技能效果模型分布点的方法具有多种,比如,以技能生成位置数量将技能效果模型分布轨迹均分,将每个均分点作为技能效果模型分布点。
在一些实施例中,可以在生成目标技能的技能效果模型时,根据技能效果模型分布点的垂线方向来控制技能效果模型的效果朝向,比如技能“召唤随从”的技能效果是召唤3个虚拟随从,则将分布点的垂线方向规定为这些虚拟随从的相对方向,使得这些随从的正面朝向这些相对方向。
故步骤d之后,还可以包括以下步骤:
基于技能效果模型分布半径,确定技能效果模型分布点的垂线方向。
e.根据技能施放对象在游戏画面中的当前位置,确定技能效果模型分布点在游戏画面中的位置,得到技能生成位置。
比如,技能施放对象在游戏画面中的当前位置为(a,b),则技能效果模型分布点(m,n)在游戏画面中的位置,即技能生成位置为(m+a,n+b)。
105、当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果模型。
比如,技能“召唤随从”的技能效果是召唤3个虚拟随从,则当检测到用户针对虚拟摇杆对象的施放操作时,在游戏场景内的3个技能生成位置生成虚拟随从模型。
在一些实施例中,为了使得技能效果模型正面朝向相对方向,基于步骤104的步骤B中得到的相对方向,步骤105可以包括以下步骤:
当检测到用户针对虚拟摇杆对象的施放操作时,基于相对方向修改目标技能的技能效果模型方向,得到方向修改后目标技能;
在技能生成位置生成方向修改后目标技能的技能效果模型。
比如,触发技能“召唤随从”时要生成1个虚拟随从模型,虚拟随从模型的模型方向均为ω,在步骤104的步骤B中得到的相对方向为θ,则将虚拟随从模型的模型方向修改为ω+θ。
类似地,在一些实施例中,技能效果模型正面朝向垂线方向,根据步骤104的步骤d中得到的垂线方向,步骤105可以包括以下步骤:
当检测到用户针对虚拟摇杆对象的施放操作时,基于垂线方向修改目标技能的技能效果模型方向,得到方向修改后目标技能;
在技能生成位置生成方向修改后目标技能的技能效果模型。
在一些实施例中,为了防止用户施放的游戏技能超出技能生成区域,从而进一步提升信息交互精度,根据步骤104的步骤(1)中得到的技能生成区域,步骤105具体可以包括以下步骤:
当技能生成位置属于技能生成区域时,在技能生成位置生成目标技能的技能效果模型。
在一些实施例中,为了在施放技能前,使得用户在控制虚拟摇杆对象的同时可以直观的观察到目标技能的施放位置,使得用户可以一边观察一边调整技能生成位置,故步骤105之后还可以包括以下步骤:
在至少一个技能生成位置生成目标技能的技能预览效果模型。
其中,技能预览效果模型是供用户进行预览的效果模型,在游戏场景中生成技能预览效果模型时游戏技能往往还未生效,当在游戏场景中生成技能效果模型时,该游戏技能才正式生效。
通过生成目标技能的技能预览效果模型,可以使得用户把握游戏施放的精度。
在一些实施例中,当检测到用户针对虚拟摇杆对象的施放操作时,可以在至少一个技能生成位置停止生成目标技能的技能预览效果模型,并生成目标技能的技能效果模型。
例如,游戏技能“召唤随从”的技能效果是:在技能施放对象周围召唤3个虚拟随从,虚拟随从可以对附近的敌人进行远程攻击。则在用户通过虚拟摇杆对象调整技能生成位置时,在该技能生成位置会生成该游戏技能的技能预览效果模型,比如虚拟随从的虚影模型。直到用户进行施放操作,在技能生成位置移除虚拟随从的虚影模型,并生成该游戏技能的技能效果模型,比如虚拟随从的游戏模型,且该虚拟随从可以对附近的敌人进行远程攻击。
由上可知,通过本发明实施例提供的方法可以显示游戏画面,游戏画面包括候选技能区域;基于用户针对候选技能区域的技能选取操作,确定目标技能;在游戏画面上显示虚拟摇杆对象;当检测到用户针对虚拟摇杆对象的移动操作时,基于移动操作计算目标技能的至少一个技能生成位置;当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果模型。由此,本方案可以通过虚拟摇杆对象来控制游戏技能的多个技能效果模型生成位置,使得游戏技能施放地更加精确,从而提升信息交互的精确度。
根据上述实施例所描述的方法,以下将作进一步详细说明。
在本实施例中,将以信息交互方法应用在以智能手机为终端的手机游戏中为例,对本发明实施例的方法进行详细说明。
在该手机游戏中,玩家可以通过操作自身虚拟角色施放游戏技能来与其他玩家操作的敌对虚拟角色进行游戏对战,在该手机游戏中,游戏技能具有多种类型,比如,召唤类型和法术类型。
其中,召唤类型的游戏技能是在游戏场景中生成一个或多个召唤单位的模型;法术类型的游戏技能是在游戏场景中生成一个法术特效的模型。
在本实施例中,信息交互方法的流程如下:
(一)显示游戏画面,游戏画面包括候选技能区域。
其中,游戏画面可以包括候选技能区域。
游戏画面还可以包括玩家自身虚拟角色的角色信息,比如昵称、自身虚拟角色血量、自身虚拟角色的增益效果,等等。
游戏画面还可以包括对战时间控件,该对战时间控件可以用于显示玩家对战的持续时间。
除此之外,游戏画面还可以包括用于控制自身虚拟角色移动的第二虚拟摇杆对象,比如,在游戏画面的左下角可以包括第二虚拟摇杆对象。
(二)基于用户针对候选技能区域的技能选取操作,确定目标技能。
候选技能区域可以包括多个候选技能控件,该候选技能控件可以是候选技能图标。
比如,候选技能区域可以包括3个候选技能图标,分别是技能“光球术”的技能图标、技能“召唤术:战士”的技能图标、技能“召唤术:弓箭手”的技能图标。
当玩家点击技能“召唤术:战士”的技能图标时,将技能“召唤术:战士”确定为目标技能;当玩家点击技能“召唤术:弓箭手”的技能图标时,将技能“召唤术:弓箭手”确定为目标技能;当玩家点击技能“光球术”的技能图标时,将技能“光球术”确定为目标技能。
(三)在游戏画面上显示虚拟摇杆对象。
在一些实施例中,游戏画面中包括第二虚拟摇杆对象,该第二虚拟摇杆对象可以用于控制自身虚拟角色的移动,同时,游戏画面中包括第一虚拟摇杆对象,该第一虚拟摇杆对象可以用于控制游戏技能的施放。
(四)当该目标技能的技能类型为召唤类型时,且当检测到用户针对虚拟摇杆对象的拖动操作时,基于拖动操作计算目标技能的至少一个技能生成位置。
在一些实施例中,当该目标技能的技能类型为法术类型时,可以采用常规的技能施放方式进行信息交互;当该目标技能的技能类型为召唤类型时,采用本信息交互方法进行信息交互。由此,保证了玩家在施放法术技能和召唤技能时操作的一致性,降低了操作复杂度,从而进一步提高了操作精度。
在一些实施例中,假设目标技能是技能“召唤术:战士”,技能“召唤术:战士”的技能效果是:在自身虚拟角色周围7.2米内召唤一个战士随从单位,战士随从单位对附近的敌对虚拟角色进行近战攻击。
则该技能“召唤术:战士”的预设技能施放范围为7.2米,当玩家自身虚拟角色所在的当前位置为(10,10),预设摇杆移动范围为3.6米,玩家将虚拟摇杆控件移动到摇杆位置(0.3,-0.4)时,基于拖动操作计算目标技能的技能生成位置(X,Y)的方式如下:
X=7.2/3.6*0.3+10=0.6+10=10.6
Y=7.2/3.6*(-0.4)+10=9.2
则技能“召唤术:战士”的技能生成位置为(10.6,9.2)。
在另一些实施例中,假设目标技能是技能“召唤术:弓箭手”,技能“召唤术:弓箭手”的技能效果是:在自身虚拟角色周围10米内召唤3个弓箭手随从单位,弓箭手随从单位对附近的敌对虚拟角色进行远程攻击。
则该技能“召唤术:弓箭手”的预设技能施放范围为10米,技能“召唤术:弓箭手”的技能生成位置数量为3,当玩家自身虚拟角色所在的当前位置为(1,2),预设摇杆移动范围为4米,玩家将虚拟摇杆控件移动到摇杆位置(0.5,1.5)时,基于拖动操作计算目标技能的技能生成位置(X,Y)的方式如下:
(1)根据相对位置计算目标技能的技能效果模型分布半径。
技能“召唤术:弓箭手”的弓箭手随从单位的模型体积为1米*1米,为了防止玩家指定的技能生成位置过于接近玩家自身虚拟角色从而导致的3个弓箭手随从单位出现模型重叠、挤压等现象,在此可以设定最小技能效果模型分布半径min_r=3*1米=3米。
首先,计算相对位置(x,y):
Figure BDA0002191598730000161
Figure BDA0002191598730000162
再相对距离d:
d=1.252+3.752=15.625
当预设系数K=6时,根据对距离计算目标技能的技能效果模型分布半径r的计算方法如下:
r=6*15.625=93.75
(2)以相对位置为圆心,基于技能效果模型分布半径确定目标技能的技能效果模型分布轨迹。
此时,目标技能的技能效果模型分布半径r不小于最小技能效果模型分布半径min_r,则此时以相对位置(1.25,3.75)为圆心,基于技能效果模型分布半径r=93.75米,确定目标技能的技能效果模型分布轨迹。
(3)基于技能生成位置数量,在技能效果模型分布轨迹上确定多个技能效果模型分布点(4)
参考图2a和图2b,五角星为自身虚拟角色,大圈为预设技能施放范围,小圈为技能效果模型分布轨迹,箭头指向的是相对位置(1.25,3.75),该技能效果模型分布轨迹为圆心为(1.25,3.75)、半径r为93.75米的圆。
在本实施例中,可以将3个弓箭手随从单位平均分布在离自身虚拟角色较远一端的半圆上。即,将距离当前位置(1,2)较远一端的技能效果模型分布轨迹的半圆进行技能生成位置数量+1次等分(即,4等分),技能效果模型分布点为技能效果模型分布轨迹上的小黑点。
(5)根据技能施放对象在游戏画面中的当前位置,确定技能效果模型分布点在游戏画面中的位置,得到技能生成位置,并在技能生成位置生成目标技能的技能预览模型。
比如,技能效果模型分布点分别为(1,1)、(1.5,0)、(1,-1),技能施放对象在游戏画面中的当前位置为(10,10),则技能生成位置为(10,10)、(10.5,10)、(10,9)。
在本实施例中,技能“召唤术:弓箭手”的技能预览模型为弓箭手随从单位预览模型。
参考图2a,在一些实施例中,弓箭手随从单位预览模型为三角形,其朝向为虚线箭头指向方向,即,其朝向可以由相对位置和技能生成位置计算得到。
参考图2b,在另一些实施例中,弓箭手随从单位预览模型为三角形,其朝向为虚线箭头指向方向,即,其朝向可以由当前位置和技能生成位置计算得到。
当在技能生成位置生成目标技能的技能预览模型之前,需要将技能预览模型的朝向修改为上述计算得到的朝向。
(五)当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果。
类似于上述生成目标技能的技能预览模型,当检测到用户针对虚拟摇杆对象的施放操作时,可以在上述3个技能生成位置,按照修改后的朝向生成3个弓箭手随从单位模型。
通过上述方法,玩家可以通过虚拟摇杆对象来准确地施放召唤技能,同时,玩家还可以通过传统轮盘的方式施放法术技能,此时,可以提高施放召唤技能和施放法术技能的操作一致性。
此外,本方案还可以在游戏技能可以生成多个技能效果模型的情况下,同时调整技能效果模型的朝向、分布密度等。
故对于传统轮盘的操作方式、拖拽技能的操作方式以及本方案的操作方式进行对比,其效果如表1所示:
Figure BDA0002191598730000171
Figure BDA0002191598730000181
表1
由上可知,本方案可以显示游戏画面,游戏画面包括候选技能区域;基于用户针对候选技能区域的技能选取操作,确定目标技能;在游戏画面上显示虚拟摇杆对象;当该目标技能的技能类型为召唤类型时,且当检测到用户针对虚拟摇杆对象的拖动操作时,基于拖动操作计算目标技能的至少一个技能生成位置;当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果。由此,本方案可以通过虚拟摇杆对象来同时控制游戏技能效果模型的施放位置、施放方向,以及自动地控制游戏技能效果模型的施放密度,从而在降低操作复杂度的同时,提升了信息交互的精确度。
为了更好地实施以上方法,本发明实施例还提供一种信息交互装置,该信息交互装置具体可以集成在终端中,该终端可以为智能手机、平板电脑、智能蓝牙设备、笔记本电脑、或者个人电脑等设备。
比如,在本实施例中,将以信息交互装置集成在智能手机中为例,对本发明实施例的方法进行详细说明。
例如,如图3所示,该信息交互装置可以包括画面单元301、技能单元302、摇杆单元303、位置单元304以及生成单元305如下:
(一)画面单元301:
画面单元301可以用于显示游戏画面,其中,该游戏画面可以包括候选技能区域。
(二)技能单元302:
技能单元302可以用于基于用户针对候选技能区域的技能选取操作,确定目标技能。
在一些实施例中,候选技能区域包括至少一个候选技能的技能控件,技能单元302具体可以用于:
基于用户针对技能控件的选取操作,在至少一个候选技能中确定目标技能。
(三)摇杆单元303:
摇杆单元303可以用于在游戏画面上显示虚拟摇杆对象。
在一些实施例中,游戏画面还包括取消施放控件,摇杆单元303还可以用于:
当检测到用户针对取消施放控件的取消施放操作时,在游戏画面中停止显示虚拟摇杆对象。
(四)位置单元304:
当检测到用户针对虚拟摇杆对象的移动操作时,位置单元304可以用于基于移动操作计算目标技能的至少一个技能生成位置。
在一些实施例中,虚拟摇杆对象可以包括虚拟摇杆控件、预设摇杆移动范围,位置单元304可以包括当前位置子单元、摇杆子单元和位置子单元,如下:
(1)当前位置子单元
当前位置子单元可以用于确定目标技能的技能施放对象和预设技能施放范围,获取技能施放对象在游戏画面中的当前位置;
在一些实施例中,当前位置子单元还可以用于:
以技能施放对象的当前位置为中心,基于预设技能施放范围确定目标技能在游戏画面中的技能生成区域;
在游戏画面上显示技能生成区域。
(2)摇杆子单元:
摇杆子单元可以用于当检测到用户针对虚拟摇杆对象的移动操作时,获取虚拟摇杆控件在预设摇杆移动范围中的摇杆位置;
(3)位置子单元:
位置子单元可以用于基于预设摇杆移动范围、摇杆位置、预设技能施放范围、当前位置,计算目标技能的至少一个技能生成位置。
在一些实施例中,位置子单元可以包括比例子模块、相对位置子模块和生成位置子模块,如下:
A.比例子模块:
比例子模块可以用于对预设摇杆移动范围和预设技能施放范围进行相除计算,得到交互范围比例;
B.相对位置子模块:
相对位置子模块可以用于对交互范围比例和摇杆位置进行相乘计算,得到相对位置,相对位置为技能生成位置和技能施放对象之间相对的位置;
在一些实施例中,相对位置子模块还可以用于:
根据相对位置计算技能效果模型的相对方向;
在至少一个技能生成位置生成目标技能的技能效果模型,包括:
基于相对方向修改目标技能的技能效果模型方向,得到方向修改后目标技能;
在技能生成位置生成方向修改后目标技能的技能效果模型。
C.生成位置子模块:
生成位置子模块可以用于根据技能施放对象在游戏画面中的当前位置,确定相对位置在游戏画面中的技能生成位置。
在一些实施例中,生成位置子模块可以用于:
确定目标技能的技能生成位置数量;
根据相对位置计算目标技能的技能效果模型分布半径;
以相对位置为圆心,基于技能效果模型分布半径确定目标技能的技能效果模型分布轨迹;
基于技能生成位置数量,在技能效果模型分布轨迹上确定多个技能效果模型分布点;
根据技能施放对象在游戏画面中的当前位置,确定技能效果模型分布点在游戏画面中的位置,得到技能生成位置。
(五)生成单元305:
当检测到用户针对虚拟摇杆对象的施放操作时,生成单元305可以用于在至少一个技能生成位置生成目标技能的技能效果模型。
在一些实施例中,生成单元305具体可以用于:
在目标技能的技能控件上覆盖显示虚拟摇杆对象。
在一些实施例中,生成单元305具体可以用于:
当技能生成位置属于技能生成区域时,在技能生成位置生成目标技能的技能效果模型。
在一些实施例中,生成单元305可以用于:
当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置停止生成目标技能的技能预览效果模型,并生成目标技能的技能效果模型。
在一些实施例中,生成单元305还可以用于:
在至少一个技能生成位置生成目标技能的技能预览效果模型。
具体实施时,以上各个单元可以作为独立的实体来生成,也可以进行任意组合,作为同一或若干个实体来生成,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
由上可知,本实施例的信息交互装置由画面单元显示游戏画面,游戏画面包括候选技能区域;由技能单元基于用户针对候选技能区域的技能选取操作,确定目标技能;由摇杆单元在游戏画面上显示虚拟摇杆对象;当检测到用户针对虚拟摇杆对象的移动操作时,由位置单元基于移动操作计算目标技能的至少一个技能生成位置;当检测到用户针对虚拟摇杆对象的施放操作时,由生成单元在至少一个技能生成位置生成目标技能的技能效果模型。由此,本方案可以提升信息交互的精确度。
本发明实施例还提供一种终端,该终端可以为手机、平板电脑、智能蓝牙设备、笔记本电脑、或者个人电脑等设备。
在一些实施例中,该终端可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
在本实施例中,将以本实施例的终端是智能手机为例进行详细描述,比如,如图4所示,其示出了本发明实施例所涉及的终端的结构示意图,具体来讲:
该终端可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403、输入模块404以及通信模块405等部件。本领域技术人员可以理解,图4中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该终端的控制中心,利用各种接口和线路连接整个终端的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行终端的各种功能和处理数据,从而对终端进行整体监控。在一些实施例中,处理器401可包括一个或多个处理核心;在一些实施例中,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
终端还包括给各个部件供电的电源403,在一些实施例中,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统生成管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该终端还可包括输入模块404,该输入模块404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
该终端还可包括通信模块405,在一些实施例中通信模块405可以包括无线模块,终端可以通过该通信模块405的无线模块进行短距离无线传输,从而为用户提供了无线的宽带互联网访问。比如,该通信模块405可以用于帮助用户收发电子邮件、浏览网页和访问流式媒体等。
尽管未示出,终端还可以包括显示单元等,在此不再赘述。具体在本实施例中,终端中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而生成各种功能,如下:
显示游戏画面,游戏画面包括候选技能区域;
基于用户针对候选技能区域的技能选取操作,确定目标技能;
在游戏画面上显示虚拟摇杆对象;
当检测到用户针对虚拟摇杆对象的移动操作时,基于移动操作计算目标技能的至少一个技能生成位置;
当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果模型。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本发明实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本发明实施例所提供的任一种信息交互方法中的步骤。例如,该指令可以执行如下步骤:
显示游戏画面,游戏画面包括候选技能区域;
基于用户针对候选技能区域的技能选取操作,确定目标技能;
在游戏画面上显示虚拟摇杆对象;
当检测到用户针对虚拟摇杆对象的移动操作时,基于移动操作计算目标技能的至少一个技能生成位置;
当检测到用户针对虚拟摇杆对象的施放操作时,在至少一个技能生成位置生成目标技能的技能效果模型。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本发明实施例所提供的任一种信息交互方法中的步骤,因此,可以实现本发明实施例所提供的任一种信息交互方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本发明实施例所提供的一种信息交互方法、装置、终端以及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (13)

1.一种信息交互方法,其特征在于,包括:
显示游戏画面,所述游戏画面包括候选技能区域;
基于用户针对所述候选技能区域的技能选取操作,确定目标技能;
在所述游戏画面上显示虚拟摇杆对象,所述虚拟摇杆对象包括虚拟摇杆控件、预设摇杆移动范围;
确定所述目标技能的技能施放对象和预设技能施放范围,获取所述技能施放对象在游戏画面中的当前位置;
当检测到用户针对所述虚拟摇杆对象的移动操作时,获取所述虚拟摇杆控件在所述预设摇杆移动范围中的摇杆位置;
基于所述预设摇杆移动范围、摇杆位置、预设技能施放范围,计算相对位置,所述相对位置为技能生成位置和技能施放对象之间相对的位置;
确定所述目标技能的技能生成位置数量;
根据所述相对位置计算所述目标技能的技能效果模型分布半径;
以所述相对位置为圆心,基于所述技能效果模型分布半径确定所述目标技能的技能效果模型分布轨迹;
基于所述技能生成位置数量,在所述技能效果模型分布轨迹上确定多个技能效果模型分布点;
根据所述技能施放对象在游戏画面中的当前位置,确定所述技能效果模型分布点在游戏画面中的位置,得到技能生成位置;
当检测到用户针对所述虚拟摇杆对象的施放操作时,在所述至少一个技能生成位置生成所述目标技能的技能效果模型。
2.如权利要求1所述的信息交互方法,其特征在于,所述确定所述目标技能的预设技能施放范围和技能施放对象,获取所述技能施放对象在游戏画面中的当前位置之后,还包括:
以所述技能施放对象的当前位置为中心,基于所述预设技能施放范围确定所述目标技能在所述游戏画面中的技能生成区域;
在所述游戏画面上显示所述技能生成区域;
在所述至少一个技能生成位置生成所述目标技能的技能效果模型,包括:
当所述技能生成位置属于所述技能生成区域时,在所述技能生成位置生成所述目标技能的技能效果模型。
3.如权利要求1所述的信息交互方法,其特征在于,所述基于所述预设摇杆移动范围、摇杆位置、预设技能施放范围,计算相对位置,包括:
对所述预设摇杆移动范围和预设技能施放范围进行相除计算,得到交互范围比例;
对所述交互范围比例和摇杆位置进行相乘计算,得到相对位置。
4.如权利要求3所述的信息交互方法,其特征在于,所述对所述交互范围比例和摇杆位置进行相乘计算,得到相对位置之后,还包括:
根据所述相对位置计算技能效果模型的相对方向;
所述在所述至少一个技能生成位置生成所述目标技能的技能效果模型,包括:
基于所述相对方向修改所述目标技能的技能效果模型方向,得到方向修改后目标技能;
在所述技能生成位置生成所述方向修改后目标技能的技能效果模型。
5.如权利要求1所述的信息交互方法,其特征在于,基于所述技能生成位置数量,在所述技能效果模型分布轨迹上确定多个技能效果模型分布点之后,还包括:
基于所述技能效果模型分布半径,确定所述技能效果模型分布点的垂线方向;
所述在所述至少一个技能生成位置生成所述目标技能的技能效果模型,包括:
基于所述垂线方向修改所述目标技能的技能效果模型方向,得到方向修改后目标技能;
在所述技能生成位置生成所述方向修改后目标技能的技能效果模型。
6.如权利要求1所述的信息交互方法,其特征在于,所述根据所述相对位置计算所述目标技能的技能效果模型分布半径,包括:
获取预设系数;
根据所述相对位置计算相对距离;
根据所述预设系数对所述相对距离进行加权求和,得到所述目标技能的技能效果模型分布半径。
7.如权利要求1所述的信息交互方法,其特征在于,所述以所述相对位置为圆心,基于所述技能效果模型分布半径确定所述目标技能的技能效果模型分布轨迹,包括:
获取所述目标技能的技能效果模型预设分布体积;
对所述技能效果模型预设分布体积和技能生成位置数量进行相乘计算,得到最小技能效果模型分布半径;
当所述目标技能的技能效果模型分布半径不小于所述最小技能效果模型分布半径时,以所述相对位置为圆心,基于所述技能效果模型分布半径确定所述目标技能的技能效果模型分布轨迹;
当所述目标技能的技能效果模型分布半径小于所述最小技能效果模型分布半径时,以所述相对位置为圆心、基于所述最小技能效果模型分布半径确定所述目标技能的技能效果模型分布轨迹。
8.如权利要求1所述的信息交互方法,其特征在于,所述当检测到用户针对所述虚拟摇杆对象的移动操作时,基于所述移动操作计算所述目标技能的至少一个技能生成位置之后,还包括:
在所述至少一个技能生成位置生成所述目标技能的技能预览效果模型;
所述当检测到用户针对所述虚拟摇杆对象的施放操作时,在所述至少一个技能生成位置生成所述目标技能的技能效果模型,包括:
当检测到用户针对所述虚拟摇杆对象的施放操作时,在所述至少一个技能生成位置停止生成所述目标技能的技能预览效果模型,并生成所述目标技能的技能效果模型。
9.如权利要求1所述的信息交互方法,其特征在于,所述候选技能区域包括至少一个候选技能的技能控件;所述基于用户针对所述候选技能区域的技能选取操作,确定目标技能,包括:
基于用户针对所述技能控件的选取操作,在至少一个候选技能中确定目标技能;
在所述游戏画面上显示虚拟摇杆对象,包括:
在所述目标技能的技能控件上覆盖显示虚拟摇杆对象。
10.如权利要求1所述的信息交互方法,其特征在于,所述游戏画面还包括取消施放控件;所述在所述游戏画面上显示虚拟摇杆对象之后,还包括:
当检测到用户针对所述取消施放控件的取消施放操作时,在所述游戏画面中停止显示所述虚拟摇杆对象。
11.一种信息交互装置,其特征在于,包括:
画面单元,用于显示游戏画面,所述游戏画面包括候选技能区域;
技能单元,用于基于用户针对所述候选技能区域的技能选取操作,确定目标技能;
摇杆单元,用于在所述游戏画面上显示虚拟摇杆对象,所述虚拟摇杆对象包括虚拟摇杆控件、预设摇杆移动范围;
位置单元,用于确定所述目标技能的技能施放对象和预设技能施放范围,获取所述技能施放对象在游戏画面中的当前位置,当检测到用户针对所述虚拟摇杆对象的移动操作时,获取所述虚拟摇杆控件在所述预设摇杆移动范围中的摇杆位置,基于所述预设摇杆移动范围、摇杆位置、预设技能施放范围,计算相对位置,所述相对位置为技能生成位置和技能施放对象之间相对的位置,确定所述目标技能的技能生成位置数量,根据所述相对位置计算所述目标技能的技能效果模型分布半径,以所述相对位置为圆心,基于所述技能效果模型分布半径确定所述目标技能的技能效果模型分布轨迹,基于所述技能生成位置数量,在所述技能效果模型分布轨迹上确定多个技能效果模型分布点,根据所述技能施放对象在游戏画面中的当前位置,确定所述技能效果模型分布点在游戏画面中的位置,得到技能生成位置;
生成单元,用于当检测到用户针对所述虚拟摇杆对象的施放操作时,在所述至少一个技能生成位置生成所述目标技能的技能效果模型。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1~10任一项所述的信息交互方法中的步骤。
13.一种终端,其特征在于,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行如权利要求1~10任一项所述的信息交互方法中的步骤。
CN201910833875.2A 2019-09-04 2019-09-04 信息交互方法、装置、终端以及存储介质 Active CN110559658B (zh)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN201910833875.2A CN110559658B (zh) 2019-09-04 2019-09-04 信息交互方法、装置、终端以及存储介质
KR1020217026753A KR102602113B1 (ko) 2019-09-04 2020-08-20 정보 상호작용 방법 및 관련 장치
PCT/CN2020/110199 WO2021043000A1 (zh) 2019-09-04 2020-08-20 信息交互方法和相关装置
EP20861591.4A EP3919145A4 (en) 2019-09-04 2020-08-20 INFORMATION INTERACTION METHOD AND RELATED DEVICE
JP2021550032A JP7242121B2 (ja) 2019-09-04 2020-08-20 情報インタラクション方法及び関連装置
SG11202108571VA SG11202108571VA (en) 2019-09-04 2020-08-20 Information interaction method and related device
US17/156,087 US11684858B2 (en) 2019-09-04 2021-01-22 Supplemental casting control with direction and magnitude
US18/314,299 US20230271091A1 (en) 2019-09-04 2023-05-09 Information exchange method and related apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910833875.2A CN110559658B (zh) 2019-09-04 2019-09-04 信息交互方法、装置、终端以及存储介质

Publications (2)

Publication Number Publication Date
CN110559658A CN110559658A (zh) 2019-12-13
CN110559658B true CN110559658B (zh) 2020-07-28

Family

ID=68777795

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910833875.2A Active CN110559658B (zh) 2019-09-04 2019-09-04 信息交互方法、装置、终端以及存储介质

Country Status (7)

Country Link
US (2) US11684858B2 (zh)
EP (1) EP3919145A4 (zh)
JP (1) JP7242121B2 (zh)
KR (1) KR102602113B1 (zh)
CN (1) CN110559658B (zh)
SG (1) SG11202108571VA (zh)
WO (1) WO2021043000A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110559658B (zh) 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质
CN111228805B (zh) * 2020-01-08 2023-07-14 腾讯科技(深圳)有限公司 虚拟操作对象的控制方法和装置、存储介质及电子装置
CN111530075B (zh) 2020-04-20 2022-04-05 腾讯科技(深圳)有限公司 虚拟环境的画面显示方法、装置、设备及介质
CN111589131B (zh) * 2020-04-24 2022-02-22 腾讯科技(深圳)有限公司 虚拟角色的控制方法、装置、设备及介质
CN111589134A (zh) * 2020-04-28 2020-08-28 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN111760287B (zh) * 2020-06-30 2024-02-02 网易(杭州)网络有限公司 游戏技能的控制方法、装置、电子设备及计算机可读介质
CN111760283B (zh) * 2020-08-06 2023-08-08 腾讯科技(深圳)有限公司 虚拟对象的技能施放方法、装置、终端及可读存储介质
AU2021376721A1 (en) 2021-05-14 2022-12-01 Tencent Technology (Shenzhen) Company Limited Virtual object control method, apparatus, device, and computer-readable storage medium
CN113750518A (zh) * 2021-09-10 2021-12-07 网易(杭州)网络有限公司 技能按钮的控制方法、装置、电子设备及计算机可读介质
CN113769391B (zh) * 2021-09-27 2023-06-27 腾讯科技(深圳)有限公司 在虚拟环境中获取技能的方法、装置、设备及介质
CN114296597A (zh) * 2021-12-01 2022-04-08 腾讯科技(深圳)有限公司 虚拟场景中的对象交互方法、装置、设备及存储介质
CN114860148B (zh) * 2022-04-19 2024-01-16 北京字跳网络技术有限公司 一种交互方法、装置、计算机设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
KR101204244B1 (ko) * 2011-12-29 2012-12-24 (주)네오위즈게임즈 축구 게임의 캐릭터 조작 방법 및 장치
CN106033340B (zh) * 2015-03-16 2019-03-22 广州四三九九信息科技有限公司 手游战斗技能的可视化编辑方法及系统
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
JP6143934B1 (ja) 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
KR20180111397A (ko) * 2017-04-02 2018-10-11 둘툰 주식회사 외부 입력장치를 이용한 게임 가상 컨트롤러 생성 및 매핑 방법
CN107168611B (zh) * 2017-06-16 2018-12-28 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107661630A (zh) 2017-08-28 2018-02-06 网易(杭州)网络有限公司 一种射击游戏的控制方法及装置、存储介质、处理器、终端
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质
CN108771869B (zh) * 2018-06-04 2022-02-08 腾讯科技(深圳)有限公司 性能测试方法和装置、存储介质及电子装置
CN109011572B (zh) 2018-08-27 2022-09-16 广州要玩娱乐网络技术股份有限公司 游戏魔法技能处理方法及存储介质、计算机设备
CN109550241B (zh) * 2018-09-20 2023-04-07 厦门吉比特网络技术股份有限公司 一种单摇杆控制方法和系统
CN109550240A (zh) * 2018-09-20 2019-04-02 厦门吉比特网络技术股份有限公司 一种游戏的技能释放方法和装置
CN109568938B (zh) * 2018-11-30 2020-08-28 广州要玩娱乐网络技术股份有限公司 多资源游戏触控操作方法、装置、存储介质和终端
CN109745698A (zh) 2018-12-28 2019-05-14 北京金山安全软件有限公司 一种取消技能释放的方法、装置及电子设备
CN110559658B (zh) * 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质

Also Published As

Publication number Publication date
JP2022522443A (ja) 2022-04-19
US11684858B2 (en) 2023-06-27
CN110559658A (zh) 2019-12-13
KR20210117329A (ko) 2021-09-28
JP7242121B2 (ja) 2023-03-20
EP3919145A4 (en) 2022-05-25
KR102602113B1 (ko) 2023-11-13
US20230271091A1 (en) 2023-08-31
SG11202108571VA (en) 2021-09-29
WO2021043000A1 (zh) 2021-03-11
US20210138351A1 (en) 2021-05-13
EP3919145A1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
CN110559658B (zh) 信息交互方法、装置、终端以及存储介质
WO2021036581A1 (zh) 虚拟对象的控制方法和相关装置
EP3939681A1 (en) Virtual object control method and apparatus, device, and storage medium
CN113082712A (zh) 虚拟角色的控制方法、装置、计算机设备和存储介质
CN110478895A (zh) 虚拟物品的控制方法、装置、终端及存储介质
EP3950080A1 (en) Method and apparatus for selecting virtual object, and device and storage medium
WO2023020125A1 (zh) 虚拟环境画面的显示方法、装置、终端、介质及程序产品
CN112221123B (zh) 一种虚拟对象切换方法、装置、计算机设备和存储介质
US20220032188A1 (en) Method for selecting virtual objects, apparatus, terminal and storage medium
CN115999153A (zh) 虚拟角色的控制方法、装置、存储介质及终端设备
CN114159788A (zh) 游戏中的信息处理方法、系统、移动终端和存储介质
CN114225412A (zh) 信息处理方法、装置、计算机设备及存储介质
JP7419400B2 (ja) 仮想オブジェクトの制御方法、装置、端末及びコンピュータプログラム
CN113546403A (zh) 角色控制方法、装置、终端和计算机可读存储介质
CN117482516A (zh) 游戏交互方法、装置、计算机设备及计算机可读存储介质
CN115212568A (zh) 游戏引导的控制方法、装置、电子设备和可读存储介质
CN117065349A (zh) 虚拟角色的控制方法、装置、设备及存储介质
CN115193062A (zh) 游戏的控制方法、装置、存储介质及计算机设备
CN115212567A (zh) 信息处理方法、装置、计算机设备及计算机可读存储介质
CN117815670A (zh) 场景元素协同构建方法、装置、计算机设备及存储介质
CN116059639A (zh) 虚拟对象控制方法、装置、电子设备和存储介质
CN115970282A (zh) 虚拟镜头的控制方法、装置、存储介质及计算机设备
CN116832438A (zh) 虚拟对象的控制方法、装置、终端和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant