CN111298441A - 虚拟道具的使用方法、装置、设备及存储介质 - Google Patents

虚拟道具的使用方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111298441A
CN111298441A CN202010071034.5A CN202010071034A CN111298441A CN 111298441 A CN111298441 A CN 111298441A CN 202010071034 A CN202010071034 A CN 202010071034A CN 111298441 A CN111298441 A CN 111298441A
Authority
CN
China
Prior art keywords
virtual
prop
virtual prop
character
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010071034.5A
Other languages
English (en)
Inventor
梁超
刘智洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010071034.5A priority Critical patent/CN111298441A/zh
Publication of CN111298441A publication Critical patent/CN111298441A/zh
Priority to PCT/CN2020/129801 priority patent/WO2021147496A1/zh
Priority to US17/668,789 priority patent/US20220161138A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player

Abstract

本申请公开了一种虚拟道具的使用方法、装置、设备及存储介质,涉及支持虚拟环境的应用程序领域。该方法包括:显示第一用户界面,第一用户界面包括第一虚拟环境画面,第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面;响应于第一虚拟道具的使用指令,控制第一虚拟角色使用第一虚拟道具,第一虚拟道具是用于产生防御范围的虚拟道具,防御范围是第一虚拟道具对第二虚拟道具的攻击能产生防御效果的范围,第二虚拟道具有追击目标虚拟角色的功能;响应于第二虚拟道具落入防御范围内,拦截第二虚拟道具。

Description

虚拟道具的使用方法、装置、设备及存储介质
技术领域
本申请涉及支持虚拟环境的应用程序领域,特别涉及一种虚拟道具的使用方法、装置、设备及存储介质。
背景技术
在基于三维虚拟环境的应用程序中,比如第一人称射击类游戏,虚拟角色可以使用追击类的虚拟武器攻击敌对虚拟角色,例如,虚拟角色可以使用导弹,将导弹能够锁定并追踪一个或多个敌对虚拟角色,然后对敌对虚拟角色进行攻击。
相关技术中,用户可以通过控制虚拟角色移动从而进行躲避,如远离虚拟武器的追击范围,或躲进房子中来减少受到的伤害。
相关技术中,在受到追击类的虚拟武器的攻击后,用户需要及时地触发移动控件,控制虚拟角色进行躲避才能减少虚拟武器造成的伤害,操作过于繁复,人机交互效率过低。
发明内容
本申请实施例提供了一种虚拟道具的使用方法、装置、设备及存储介质,提供了一种专门拦截其他虚拟道具的第一虚拟道具,避免用户耗费过长时间躲避追击武器,提高了人机交互的效率。所述技术方案如下:
根据本申请的一个方面,提供了一种虚拟道具的使用方法,所述方法包括:
显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面;
响应于第一虚拟道具的使用指令,控制所述第一虚拟角色使用所述第一虚拟道具,所述第一虚拟道具是用于产生防御范围的虚拟道具,所述防御范围是所述第一虚拟道具对第二虚拟道具的攻击能产生防御效果的范围,所述第二虚拟道具有追击目标虚拟角色的功能;
响应于所述第二虚拟道具落入所述防御范围内,拦截所述第二虚拟道具。
根据本申请的另一个方面,提供了一种虚拟道具的使用装置,所述装置包括:显示模块、使用模块和拦截模块;
所述显示模块,被配置为显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面;
所述使用模块,被配置为响应于第一虚拟道具的使用指令,控制所述第一虚拟角色使用所述第一虚拟道具,所述第一虚拟道具是用于产生防御范围的虚拟道具,所述防御范围是所述第一虚拟道具对第二虚拟道具的攻击能产生防御效果的范围,所述第二虚拟道具有追击目标虚拟角色的功能;
所述拦截模块,被配置为响应于所述第二虚拟道具落入所述防御范围内,拦截所述第二虚拟道具。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的虚拟道具的使用方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的虚拟道具的使用方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过提供一种专门拦截其他虚拟道具的第一虚拟道具,当虚拟角色向追击类的虚拟武器使用该第一虚拟道具时,在防御范围内该虚拟武器被拦截,使用户不需要通过长时间的移动来躲避虚拟武器,避免用户耗费过长时间躲避追击武器,提高了人机交互的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的实施环境的框图;
图2是本申请一个示例性实施例提供的虚拟道具的使用方法的流程图;
图3是本申请一个示例性实施例提供的虚拟角色的视角对应的摄像机模型示意图;
图4是本申请一个示例性实施例提供的虚拟道具的使用方法的用户界面示意图;
图5是本申请另一个示例性实施例提供的虚拟道具的使用方法的用户界面示意图;
图6是本申请另一个示例性实施例提供的虚拟道具的使用方法的用户界面示意图;
图7是本申请另一个示例性实施例提供的虚拟道具的使用方法的用户界面示意图;
图8是本申请另一个示例性实施例提供的虚拟道具的使用方法的流程图;
图9是本申请一个示例性实施例提供的第一虚拟道具的防御范围的示意图;
图10是本申请另一个示例性实施例提供的虚拟道具的使用方法的流程图;
图11是本申请另一个示例性实施例提供的虚拟道具的使用方法的用户界面示意图;
图12是本申请一个示例性实施例示出的安置点不是有效区域的示意图;
图13是本申请一个示例性实施例示出的安置点不是有效区域的示意图;
图14是本申请另一个示例性实施例提供的虚拟道具的使用方法的用户界面示意图;
图15是本申请另一个示例性实施例提供的第一虚拟道具的防御范围的示意图;
图16是本申请另一个示例性实施例提供的虚拟道具的使用方法的用户界面示意图;
图17是本申请另一个示例性实施例提供的虚拟道具的使用方法的流程图;
图18是本申请一个示例性实施例提供的虚拟道具的使用装置的结构示意图;
图19是本申请一个示例性实施例提供的计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行介绍:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的环境,还可以是纯虚构的环境。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,本申请实施例对此不加以限定。下述实施例以虚拟环境是三维虚拟环境来举例说明。
虚拟角色:是指虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物等,比如:在三维虚拟环境中显示的人物、动物、植物、油桶、墙壁、石块等。可选地,虚拟角色是基于动画骨骼技术创建的三维立体模型。每个虚拟角色在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
虚拟道具:虚拟道具包括虚拟武器、功能道具、虚拟装备中的至少一个。示意性的,在本申请中虚拟道具是指虚拟武器,虚拟武器是虚拟角色在虚拟环境中能够使用的武器。示例性的,虚拟武器是虚拟角色使用后会对其他虚拟角色的活动状态或生命值产生影响的道具。虚拟武器包括冷兵器、枪械、火炮、装甲战斗载具、防暴武器、生化武器、核武器、新概念武器等。例如,虚拟道具可以是刀、枪、剑、手枪、步枪、冲锋枪、机枪、特种枪、散弹枪、手榴弹、火箭炮、迫击炮、坦克炮、加农炮、导弹、激光武器、微波武器、粒子束武器、动能拦截弹、电磁炮、脉冲武器、信号干扰武器等。示例性的,本申请中第一虚拟道具是干扰类的虚拟武器,例如,防追踪导弹。示例性的,本申请中的第二虚拟道具是指追击类的虚拟武器,例如,导弹。
第一人称射击游戏(First-person Shooting,FPS):是指用户能够以第一人称视角进行的射击游戏,游戏中的虚拟环境的画面是以第一虚拟角色的视角对虚拟环境进行观察的画面。在游戏中,至少两个虚拟角色在虚拟环境中进行单局对战模式,虚拟角色通过躲避其他虚拟角色发起的攻击或/和虚拟环境中存在的危险(比如,毒气圈、沼泽地、炸弹等)来达到在虚拟环境中存活的目的,当虚拟角色在虚拟环境中的生命值为零时,虚拟角色在虚拟环境中的生命结束,最后存活在虚拟环境中的虚拟角色是获胜方。可选地,该对战以第一个客户端加入对战的时刻作为开始时刻,以最后一个客户端退出对战的时刻作为结束时刻,每个客户端可以控制虚拟环境中的一个或多个虚拟角色。可选地,该对战的竞技模式可以包括单人对战模式、双人小组对战模式或者多人大组对战模式,本申请实施例对对战模式不加以限定。
人机交互控件:是在应用程序的用户界面上能够看见的任何可视控件或元素,比如,图片、输入框、文本框、按钮、标签等控件,其中一些人机交互控件响应用户的操作,比如,用户触发使用控件,控制第一虚拟角色使用第一虚拟道具。
本申请实施例中的“装备、携带或装配”虚拟武器指的是虚拟角色拥有的虚拟武器,虚拟角色拥有背包,背包中存在背包格,虚拟武器存放于虚拟角色的背包中,或者,虚拟角色正在使用虚拟武器。
本申请中提供的方法可以应用于虚拟现实应用程序、三维地图程序、军事仿真程序、第一人称射击游戏(First-person shooting game,FPS)、多人在线战术竞技游戏(Multiplayer Online Battle Arena Games,MOBA)等,下述实施例是以在游戏中的应用来举例说明。
基于虚拟环境的游戏往往由一个或多个游戏世界的地图构成,游戏中的虚拟环境模拟现实世界的场景,用户可以操控游戏中的虚拟角色在虚拟环境中进行行走、跑步、跳跃、射击、格斗、驾驶、切换使用道具、使用道具攻击其他虚拟角色等动作,交互性较强,并且多个用户可以在线组队进行竞技游戏。当用户控制的虚拟角色攻击虚拟环境中的其他虚拟角色(即目标对象)时,虚拟角色距离目标对象的距离较远时,用户可通过控制虚拟角色使用追击类的虚拟道具(即第二虚拟道具)对目标对象进行攻击,追击类的虚拟道具可以锁定目标对象,追踪目标对象,在一定范围内随着目标对象的移动而移动,直至追击上目标对象,对目标对象进行攻击。
被攻击的目标对象的生命值减少或者变为零,生命值是指虚拟角色在虚拟环境的生命长度,当虚拟角色的生命值为零时,虚拟角色在虚拟环境中的生命结束;或,被攻击的目标对象的魔法值减少或者变为零;或,被攻击的目标对象处于眩晕状态;或,被攻击的目标对象的攻击力减少;或,被攻击的目标对象的防御力减少。
上述追击类的虚拟道具攻击的目标对象的数量可以是一个或多个。
图1示出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统100包括:第一终端120、服务器140和第二终端160。
第一终端120安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第一终端120是第一用户使用的终端,第一用户使用第一终端120控制位于虚拟环境中的第一虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、射击、投掷、使用虚拟武器攻击其他虚拟对象、使用虚拟武器蓄力攻击其他虚拟对象中的至少一种。示意性的,第一虚拟对象是第一虚拟人物,比如仿真人物对象或动漫人物对象。
第一终端120通过无线网络或有线网络与服务器140相连。
服务器140包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。示意性的,服务器140包括处理器144和存储器142,存储器142又包括显示模块1421、控制模块1422和接收模块1423。服务器140用于为支持三维虚拟环境的应用程序提供后台服务。可选地,服务器140承担主要计算工作,第一终端120和第二终端160承担次要计算工作;或者,服务器140承担次要计算工作,第一终端120和第二终端160承担主要计算工作;或者,服务器140、第一终端120和第二终端160三者之间采用分布式计算架构进行协同计算。
第二终端160安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第二终端160是第二用户使用的终端,第二用户使用第二终端160控制位于虚拟环境中的第二虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、射击、投掷、使用虚拟武器攻击其他虚拟对象、使用虚拟武器蓄力攻击其他虚拟对象中的至少一种。示意性的,第二虚拟对象是第二虚拟人物,比如仿真人物对象或动漫人物对象。
可选地,第一虚拟人物和第二虚拟人物处于同一虚拟环境中。
可选地,第一终端120和第二终端160上安装的应用程序是相同的,或两个终端上安装的应用程序是不同控制系统平台的同一类型应用程序。第一终端120可以泛指多个终端中的一个,第二终端160可以泛指多个终端中的一个,本实施例仅以第一终端120和第二终端160来举例说明。第一终端120和第二终端160的设备类型相同或不同,该设备类型包括:AR(Augmented Reality,增强现实)设备、VR(Virtual Reality,虚拟现实)设备、智能穿戴设备、智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。以下实施例以终端包括智能手机来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
图2示出了本申请一个示例性实施例提供的虚拟道具的使用方法的流程图,该方法可应用于如图1所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤201,显示第一用户界面,第一用户界面包括第一虚拟环境画面,第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面;
可选地,第一用户界面是在第一客户端上显示的界面。
可选地,第一虚拟角色是指虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物等,比如:在三维虚拟环境中显示的人物、动物、植物、油桶、墙壁、石块等。可选地,第一虚拟角色是基于动画骨骼技术创建的三维立体模型。每个虚拟角色在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
可选地,第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面。
可选地,视角是指以第一虚拟角色的第一人称视角或者第三人称视角在虚拟环境中进行观察时的观察角度。可选地,本申请的实施例中,视角是在虚拟环境中通过摄像机模型对虚拟角色进行观察时的角度。
可选地,摄像机模型在虚拟环境中对第一虚拟角色进行自动跟随,即,当第一虚拟角色在虚拟环境中的位置发生改变时,摄像机模型跟随第一虚拟角色在虚拟环境中的位置同时发生改变,且该摄像机模型在虚拟环境中始终处于第一虚拟角色的预设距离范围内。可选地,在自动跟随过程中,摄像头模型和第一虚拟角色的相对位置不发生变化。
摄像机模型是指在虚拟环境中位于第一虚拟角色周围的三维模型,当采用第一人称视角时,该摄像机模型位于第一虚拟角色的头部附近或者位于第一虚拟角色的头部;当采用第三人称视角时,该摄像机模型可以位于第一虚拟角色的后方并与第一虚拟角色进行绑定,也可以位于与第一虚拟角色相距预设距离的任意位置,通过该摄像机模型可以从不同角度对位于虚拟环境中的第一虚拟角色进行观察,可选地,该第三人称视角为第一人称的过肩视角时,摄像机模型位于第一虚拟角色(比如,虚拟人物的头肩部)的后方。可选地,除第一人称视角和第三人称视角外,视角还包括其他视角,比如俯视视角;当采用俯视视角时,该摄像机模型可以位于第一虚拟角色头部的上空,俯视视角是以从空中俯视的角度进行观察虚拟环境的视角。可选地,该摄像机模型在虚拟环境中不会进行实际显示,即,在用户界面显示的虚拟环境中不显示该摄像机模型。
对该摄像机模型位于与第一虚拟角色相距预设距离的任意位置为例进行说明,可选地,一个虚拟角色对应一个摄像机模型,该摄像机模型可以以第一虚拟角色为旋转中心进行旋转,如:以第一虚拟角色的任意一点为旋转中心对摄像机模型进行旋转,摄像机模型在旋转过程中的不仅在角度上有转动,还在位移上有偏移,旋转时摄像机模型与该旋转中心之间的距离保持不变,即,将摄像机模型在以该旋转中心作为球心的球体表面进行旋转,其中,第一虚拟角色的任意一点可以是第一虚拟角色的头部、躯干、或者第一虚拟角色周围的任意一点,本申请实施例对此不加以限定。可选地,摄像机模型在对第一虚拟角色进行观察时,该摄像机模型的视角的中心指向为该摄像机模型所在球面的点指向球心的方向。
可选地,该摄像机模型还可以在第一虚拟角色的不同方向以预设的角度对第一虚拟角色进行观察。
示意性的,请参考图3,在第一虚拟角色11中确定一点作为旋转中心12,摄像机模型围绕该旋转中心12进行旋转,可选地,该摄像机模型配置有一个初始位置,该初始位置为第一虚拟角色后上方的位置(比如脑部的后方位置)。
可选地,第一虚拟环境画面显示的虚拟环境包括:山川、平地、河流、湖泊、海洋、沙漠、天空、植物、建筑、车辆中的至少一种元素。
可选地,第一虚拟角色是拥有第一虚拟道具的虚拟角色。第一虚拟道具可以是枪械,比如,狙击枪、步枪、手枪,或者是弓箭、弩箭;第一虚拟道具还可以是装备道具,比如,铠甲、气球、背包、手表;第一虚拟道具还可以是投掷道具,比如,手雷、闪光弹、信号弹、脉冲弹、平底锅、导弹。可选地,第一虚拟角色是第一终端上安装的第一客户端控制的虚拟角色。可选地,第一虚拟角色由使用第一终端的第一用户控制。
例如,第一虚拟道具是手持的投掷道具(防追踪导弹)。第一用户可以通过如下方式中的一种控制第一虚拟角色将第一虚拟道具装备到投掷道具装备栏中:触发第一用户界面上的装备切换控件,在多个候选的投掷道具中进行选择,选中第一虚拟道具;或者,通过触发投掷道具装备栏上的装备控件,直接将其他投掷道具切换为第一虚拟道具。
示例性的,如图4所示,是一种第一用户界面,该第一用户界面包括以第一虚拟角色的第一人称视角对虚拟环境进行观察得到的一种第一画面。第一画面中只显示了第一虚拟角色的部分模型:手部401。第一虚拟角色拥有第一虚拟道具防追踪导弹,但当前状态的第一虚拟角色手持的是机枪402,在投掷道具装备栏403装备有投掷道具烟雾弹,此时,第一用户可以通过装备道具切换操作将第一虚拟道具(防追踪导弹)显示到投掷道具装备栏403。例如,切换操作可以是触发第一用户界面上的装备切换控件404,控制第一用户界面中弹出如图5所示的投掷道具装备备选栏405,在投掷道具装备备选栏405中选中第一虚拟道具(防追踪导弹)406,来控制第一虚拟角色将第一虚拟道具(防追踪导弹)406显示到投掷道具装备栏403。如图6所示,在投掷道具装备栏403中显示有第一虚拟道具(防追踪导弹)406。
示例性的,第一用户还可以通过触发投掷道具装备栏403上的装备控件来控制第一虚拟角色装备当前的投掷道具。例如,如图6所示,投掷道具装备栏403中当前的投掷道具为第一虚拟道具(防追踪导弹)406,第一用户触发装备控件407控制第一虚拟角色装备第一虚拟道具,第一虚拟角色装备第一虚拟道具后,手部401持有第一虚拟道具(防追踪导弹)406。示例性的,本实施例示出了一种通过用户界面上的UI控件来进行切换操作的方法。
示例性的,上述切换操作还可以通过其他操作方式,例如,通过游戏设备的操作手柄、通过AR或VR设备的手势或动作识别、通过键盘、鼠标或其他输入设备上的操作来实现切换操作。
示例性的,图4、图5、图6所示出的用户界面都可以是第一用户界面。
示例性的,第一虚拟道具可以是在进入对局后,第一虚拟角色从虚拟环境中拾取的;也可以是在进入对局前,提前装备的。
例如,在一种射击游戏中,虚拟角色可以在进入对局前携带一部分装备进入对局。示例性的,携带的装备是战术装置。战术装备是指应用在虚拟场景下的战术性道具,战术装备一般被设置为不具备攻击性,通常被设置为防御装置或者干扰装置,比如烟雾弹,在使用时可以产生大量的烟雾以对敌方视线造成干扰,从而达到保护自身的目的。
如图7所示,在战术装备界面第一用户可以选择第一虚拟道具(防追踪导弹)406,然后点击装备408,来装备第一虚拟道具(防追踪导弹)406。在进入对局后,第一虚拟角色的背包或装备栏中直接放置有第一虚拟道具(防追踪导弹)406,不需要从虚拟环境中拾取或在对局过程中获取。
步骤202,响应于第一虚拟道具的使用指令,控制第一虚拟角色使用第一虚拟道具;
其中,第一虚拟道具是用于产生防御范围的虚拟道具,防御范围是第一虚拟道具对第二虚拟道具的攻击能发生防御效果的范围,第二虚拟道具具有追击目标虚拟角色的功能。
目标虚拟角色是第二虚拟道具锁定并追击的虚拟角色。本申请对目标向虚拟角色的数量不加以限制。第二虚拟道具追击的可以是一个虚拟角色,也可以是多个敌对的虚拟角色。
示例性的,本申请中第一虚拟道具是干扰类的虚拟武器,例如,防追踪导弹。示例性的,本申请中的第二虚拟道具是指追击类的虚拟武器,例如,导弹。
示例性的,本申请中的第二虚拟道具对第一虚拟角色的攻击形成的作用效果可以是:限制第一虚拟角色活动、减少第一虚拟角色的血量值、减少第一虚拟角色的魔法值、减少第一虚拟角色的攻击力、降低第一虚拟角色的防御力或者使得第一虚拟角色晕眩中的一种或多种。
第一虚拟道具将第二虚拟道具拦截后,形成的防御效果可以是:第一虚拟道具使得第二虚拟道具的攻击形成的作用效果完全失效,也可以是:第一虚拟道具使得第二虚拟道具的攻击形成的作用效果部分失效。
第一客户端响应于第一虚拟道具的使用指令,控制第一虚拟角色使用第一虚拟道具。第一虚拟道具的使用指令是在第一客户端获取到第一用户的触发操作后生成的;或,第一虚拟道具的使用指令是第一客户端生成的;或,第一虚拟道具的使用指令是服务器发送给第一客户端的。
可选地,第一虚拟道具的使用指令中包括第一虚拟道具的使用方式,例如,第一虚拟道具的使用时间、使用地点、使用数量、使用目标、使用方向、使用力度、使用距离等。第一客户端根据第一虚拟道具的使用指令来控制第一虚拟角色使用第一虚拟道具。
示例性的,第一虚拟道具的使用指令是在第一客户端获取到第一用户的触发操作后生成的。触发操作可以是第一用户触发第一用户界面上的UI控件,可以是第一用户的手势或动作操作,可以是第一用户的语音指令,可以是第一用户的使用键盘、游戏手柄、鼠标等输入设备进行的控制操作。
本申请对第一用户触发第一用户界面上的UI控件的具体操作不加以限制。例如,点击、双击、长按、滑动、按压、敲击。
示例性的,第一客户端可以通过识别手势或动作操作来生成第一虚拟道具的使用指令。手势或动作操作可以是在VR环境中,也可以是在AR环境中。
例如,第一客户端识别第一用户做出的投掷动作,生成第一虚拟道具的使用指令。示例性的,第一客户端还可以识别第一用户发出的语音指令来生成第一虚拟道具的使用指令,例如,第一客户端识别第一用户说出的“向1点钟方向投掷”后,生成第一虚拟道具的使用指令。
步骤203,响应于第二虚拟道具落入防御范围,拦截第二虚拟道具。
可选地,第一虚拟道具的功能为拦截第二虚拟道具。第一虚拟道具的功能在防御范围内有效。
示例性的,在第一虚拟道具被放置在虚拟场景中后,第一虚拟道具可以对落入防御范围的第二虚拟道具生效该功能。比如,该第一虚拟道具的功能可以是对处于该第一虚拟道具防御范围内的第二虚拟道具进行拦截,那么,第一客户端通过获取第一虚拟道具的防御范围,以根据该第一虚拟道具的防御范围和第二虚拟道具与第一虚拟道具的防御范围的关系确定是否对第二虚拟道具进行拦截。
综上所述,本实施例提供的方法,通过提供一种专门拦截其他虚拟道具的第一虚拟道具,当虚拟角色向追击类的虚拟武器使用该第一虚拟道具时,在防御范围内该虚拟武器被拦截,使用户不需要通过长时间的移动来躲避虚拟武器,避免用户耗费过长时间躲避追击武器,提高了人机交互的效率。
在基于图2的可选实施例中,图8示出了本申请另一个示例性实施例提供的虚拟角色使用虚拟武器的方法的流程图。该方法可应用于如图1所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该终端安装有支持虚拟环境的应用程序的第一客户端。在本实施例中,步骤203被替换实现为步骤2031:
步骤2031,响应于第二虚拟道具落入防御范围内,且目标虚拟角色位于防御范围之内,拦截第二虚拟道具。
其中,目标虚拟角色是第一虚拟角色和与第二虚拟角色中的至少一个虚拟角色,第二虚拟角色和第一虚拟角色属于同一团队。
可选地,目标虚拟角色是第二虚拟道具锁定并进行追击的虚拟角色。第二虚拟角色是在虚拟环境中的与第一虚拟角色属于同一团队的虚拟角色。本申请对第二虚拟角色的数量不加以限制。与第一虚拟角色属于同一团队的可以是一个第二虚拟角色,也可以是多个第二虚拟角色。
示例性的,第二虚拟道具攻击的是第一虚拟角色。在第一虚拟道具的防御范围内,存在第一用户控制的第一虚拟角色,在第一客户端检测到第二虚拟道具落入防御范围时,第一客户端对第二虚拟道具进行拦截。
示例性的,第二虚拟道具攻击的是第二虚拟角色。在第一虚拟道具的防御范围内,存在其他用户控制的第二虚拟角色,在第一客户端检测到第二虚拟道具落入防御范围时,第一客户端对第二虚拟道具进行拦截。
示例性的,第二虚拟道具攻击的是第一虚拟角色和第二虚拟角色。在第一虚拟道具的防御范围内,存在第一用户控制的第一虚拟角色(或其他用户控制的第二虚拟角色),在第一客户端检测到第二虚拟道具落入防御范围时,第一客户端对第二虚拟道具进行拦截。
可选地,该第一虚拟道具可以是对空防御道具,第一虚拟道具除了能够拦截第二虚拟道具之外,还能够保护在其防御范围内的目标虚拟对象不受到该第一虚拟道具的防御范围之外的空中虚拟弹药的攻击。
可选地,拦截第二虚拟道具的方式可以是:摧毁第二虚拟道具;或,控制第一虚拟道具发射第三虚拟道具击落第二虚拟道具。
第一客户端可以通过将第二虚拟道具直接摧毁,也可以发射第三虚拟道具来将第二虚拟道具击落。可选地,第三虚拟道具是由第一虚拟道具发射的,具有一定的攻击力的虚拟道具。第三虚拟道具可以是弓箭、虚拟弹药、手雷、平底锅、导弹中的一种。
在一个可选的示例中,防御范围包括与第一虚拟道具的安置点的距离小于有效半径的空间范围。在响应于第二虚拟道具落入防御范围内,拦截第二虚拟道具之前,还可以包括如下步骤:
第一客户端获取第二虚拟道具在释放过程中的位置;响应于第一虚拟道具的安置点与第二虚拟道具的位置之间的距离小于或等于有效半径,确定第二虚拟道具落入防御范围内。
其中,安置点是虚拟环境中的一个点,安置点对应虚拟环境中的一个唯一坐标。有效半径是第一虚拟道具能够产生防御效果的最远距离。
示例性的,安置点是第一用户选中的点,或,安置点是第一客户端通过第一用户使用第一虚拟道具的操作来计算得到的一个点,或,安置点是第一客户端根据第一虚拟角色当前位置的视角计算得到的一个点。
在本申请实施例中,第一虚拟道具的防御范围可以表现为一个以第一虚拟道具的安置点为中心,以有效半径为半径的球体。
比如,请参考图9,其示出了本申请一个示例性实施例示出的第一虚拟道具的防御范围的示意图,区域910为第一虚拟道具920的防御范围,边缘930为第一虚拟道具的防御范围的边缘,当第二虚拟道具940将要穿过第一虚拟道具的防御范围时,第二虚拟道具940与区域910会在边缘930处存在交点950,响应于第二虚拟道具940与第一虚拟道具的防御范围920在交点950处接触,第一客户端控制第二虚拟道具通过爆炸而摧毁,以达到保护第一虚拟道具的防御范围内的目标虚拟对象的目的。
示例性的,为确定第一虚拟道具的防御范围,第一客户端可以在虚拟场景中的安置点处放置第一虚拟道具后,获取安置点的坐标,将安置点的坐标确定为第一位置,将以第一位置为中心,以有效半径为半径的球体确定为防御范围。第一客户端可以获取第二虚拟道具在释放过程中在虚拟场景的世界坐标系中的坐标,将该位置确定为第二位置。在第一客户端确定虚拟环境中存在释放过程中的第二虚拟道具后,第一客户端将对第一位置和第二位置之间的距离进行计算,当距离小于或等于有效半径,确定第二虚拟道具落入防御范围内。
综上所述,本实施例提供的方法,第一虚拟道具的防御效果同样可以适用于第一虚拟角色的队友(即第二虚拟角色),扩展了第一虚拟道具的使用方式。
本实施例提供的方法,通过扩展拦截的方式,进一步丰富了第一虚拟道具的使用方式。
本实施例提供的方法,通过获取第一虚拟道具和第二虚拟道具之间的距离,判断第二虚拟道具是否落入第一虚拟道具的防御范围,提高了拦截的准确度。
在本申请实施例中,第一虚拟道具需要依据第一用户的操作进行放置,其安置点受到第一用户的操作的控制。因此,第一虚拟道具可以配置有发射道具,以便于第一用户对第一虚拟道具的安置点进行调节。
在基于图2的可选实施例中,图10示出了本申请一个示例性实施例提供的一种虚拟道具的使用方法的流程图,该虚拟道具的使用方法可以由计算机设备执行,该计算机设备可以是终端或者服务器。在本实施例中,步骤202被替换实现为步骤2021至步骤2023:
步骤2021,响应于发射道具的使用指令,在虚拟环境中安置发射道具;
其中,发射道具是用于发射第一虚拟道具的虚拟道具。
可选地,第一虚拟道具以及对应的发射道具需要在第一虚拟角色未进入虚拟环境之前根据第一用户的操作进行装备,以使得第一用户在进入虚拟环境后能够对发射道具进行调用,进而使用第一虚拟道具。
示例性的,发射道具的使用指令是在第一客户端获取到第一用户的触发操作后生成的。触发操作可以是第一用户触发第一用户界面上的UI控件,可以是第一用户的手势或动作操作,可以是第一用户的语音指令,可以是第一用户的使用键盘、游戏手柄、鼠标等输入设备进行的控制操作。
本申请对第一用户触发第一用户触发第一用户界面上的UI控件的具体操作不加以限制。例如,点击、双击、长按、滑动、按压、敲击。
示例性的,在第一用户在第一虚拟角色未进入虚拟环境之前,第一虚拟角色就装备好第一虚拟道具以及对应的发射道具的前提下,当第一客户端接收到用户切换至发射道具的操作时,虚拟场景的显示界面响应于该操作,在虚拟场景的显示界面中显示用于发射第一虚拟道具的发射道具。请参考图11,其示出了本申请一个示例性实施例示出的虚拟道具的使用方法的用户界面示意图。如图11所示,第一用户界面中显示发射道具409,发射道具409是第一用户当前控制的第一虚拟对象手持的虚拟道具。发射道具409可以显示为发射炮的形式,用户可以通过对发射道具409的抛掷方向的控制实现对第一虚拟道具的安置点的调节。
步骤2022,响应于第一虚拟道具的使用指令,确定第一虚拟道具的安置点;
在一个可选的示例中,确定第一虚拟道具的安置点,包括:确定第一虚拟道具的飞出路径,飞出路径是根据第一虚拟角色的视角、位置、第一虚拟道具的抛掷方向、抛掷起点、抛掷力度、抛掷速度中的至少一个参数计算得到的;将飞出路径的终点确定为安置点。
示例性的,第一虚拟角色当前位于(0,0,0)点,抛掷起点是第一虚拟角色的手部(0,0,10)点,抛掷方向是(1,1,1)方向,抛掷速度是5m/s,则第一客户端根据这些参数计算得到了第一虚拟道具的飞出路径(抛物线),并将飞出路径的终点确定为安置点。
示例性的,抛掷方向是根据第一虚拟角色当前的视角(俯仰角和水平偏角)得到的,抛掷速度、抛掷力度可以根据第一用户的抛掷操作得到,例如,根据第一用户按压开火键的时间长度来确定抛掷力度,按压时间越长,力度越大,抛得越远。示例性的,还可以根据第一虚拟道具的质量、重力加速度等参数来计算第一虚拟道具的飞出路径。示例性的,飞出路径也可以是从抛掷起点到落地点的直线。
示例性的,第一虚拟道具沿飞出路径抛出后会到达安置点。
可选的,第一用户界面上显示特效线对飞出路径进行显示。特效线是为了提高第一用户控制第一虚拟角色投掷第一虚拟道具的准确度,在第一用户界面上显示出的一个参考线。
示例性的,特效线在第一用户装备第一虚拟道具后就会显示,随着第一用户的操作特效线也会实时变化。例如,特效线随着第一用户位置的移动、视角的转动,实时变化。
示例性的,特效线是随着飞出路径的变化而变化的。即,飞出路径会随着第一用户的操作而实时计算得到一条飞出路径,对应的特效线也会根据飞出路径的计算结果进行改变。示例性的,当第一用户按下开火键时,第一客户端就会根据第一虚拟角色当前状态(参数)来计算得到飞出路径,根据飞出路径来渲染显示出特效线,当第一用户松开开火键时,第一客户端按照当前计算得到的飞出路径将第一虚拟道具投掷出。
示例性的,第一客户端也可以直接根据飞出路径的计算方法计算得到飞出路径上的几个点,根据这些点直接得到特效线,然后按照特效线将第一虚拟道具投掷出。
可选地,在第一客户端确定第一虚拟道具的安置点的位置后,将对安置点接触的区域进行检测。只有在安置点被确定为有效区域时,第一客户端才会进行步骤2023。
在一个可选的示例中,响应于安置点是有效区域,显示第一作用效果,第一作用效果用于提示能够在安置点处安置第一虚拟道具。
有效区域是安置点能够成功放置的区域。示例性的,有效区域是陆地。
示例性的,第一作用效果包括第一光圈特效和第一提示信息中的至少一种。
在一个可选的示例中,响应于安置点不是有效区域,显示第二作用效果,第二作用效果用于提示不能够在安置点处安置第一虚拟道具。
示例性的,第二作用效果包括第二光圈特效和第二提示信息中的至少一种。
其中,第一作用效果与第二作用效果不同。
在虚拟场景中,开发人员通过搭建碰撞盒(Hitbox)来实现虚拟场景中虚拟环境、虚拟对象、虚拟载具等的搭建,其中,Hitbox是3D游戏中用于判断物体命中、物体碰撞等情况的物理模型,区别于边缘平滑做工细致的外观模型(Model),即用户视觉看到的虚拟环境、虚拟对象、虚拟载具等,Hitbox一般使用与外观模型大体匹配的简单多边形构建,且Hitbox在虚拟环境中不可见。
在确定第一虚拟道具的安置点后,第一客户端可以从搭建虚拟场景的碰撞盒库中获取该安置点接触的区域对应的碰撞盒的材质属性,并判断该安置点接触的区域对应的碰撞盒的材质属性是否为预设材质属性。以预设材质属性指示该安置点接触的区域为地面(即有效区域为陆地)为例,若安置点接触的区域对应的碰撞盒属性为预设材质属性,则表示安置点为地面,安置点在有效区域;若安置点接触的区域对应的碰撞盒属性不是预设材质属性,比如安置点接触的区域的碰撞盒属性指示该安置点为水面,那么,该安置点不在有效区域。
可选地,在确定安置点接触的区域的材质属性为预设材质属性,即安置点是有效区域的前提下,还需确定该安置点周围预定范围内是否存在障碍物。可选的,第一客户端确定安置点周围预定范围内是否存在障碍物可以通过获取安置点周围预定范围内是否存在某些材质属性的碰撞盒的方式来判断。
为给予第一用户以判断结果提醒,本申请实施例可以对安置点是有效区域和安置点不是有效区域分别设置有不同的作用效果,可选的,该作用效果可以包括光圈特效、提示信息、语音信息中的一种或几种。安置点是有效区域和安置点不是有效区域的作用效果可以是同一类型的不同属性,比如不同颜色的光圈特效,不同的提示信息或者不同的语音信息。
示例性的,请参考图12,其示出了本申请一个示例性实施例示出的安置点是有效区域的示意图。如图12所示,安置点410为地面,则在安置点410处显示第一作用效果,以该第一作用效果为第一光圈特效为例,安置点410处的第一光圈特效可以显示为蓝色光圈特效(图中未示出)。
请参考图13,其示出了本申请一个示例性实施例示出的安置点不是有效区域的示意图。如图13所示,安置点410在建筑物内的楼梯上,不是有效区域,则在安置点410处显示第二作用效果,以该第一作用效果为第二光圈特效为例,安置点410处的第二光圈特效可以显示为蓝色光圈特效(图中未示出)。
上述对于光圈特效的颜色举例仅为示意性的,本申请对此不加以限制。
步骤2023,控制第一虚拟角色利用发射道具,将第一虚拟道具发射至安置点。
可选地,第一用户触发第一客户端控制第一虚拟角色利用发射道具,使第一虚拟道具到达安置点的操作可以表现为:第一用户松开开火键。也就是说,第一用户在将当前控制的第一虚拟角色的手持道具切换为发射道具时,基于开火键的触控操作对安置点进行检测,在确定安置点是有效区域后,第一用户松开开火键,则激发发射道具,将第一虚拟道具发射到虚拟场景中的安置点上。请参考图14,第一虚拟道具放置在虚拟场景中的安置点410上,安置点410为有效区域陆地。
第一虚拟道具放置在安置点后,存在防御范围。该防御范围可以近似视为以该第一虚拟道具为中心,以有效半径为半径的球体。
可选地,该球体的部分区域具有防御效果,比如,请参考图15,其示出了本申请一个示例性实施例示出的第一虚拟道具的防御范围的示意图,如图15所示,以球心为原点建立坐标系,球心O所在水平面为地面,开发人员可以设置球体覆盖区域的地面以上范围为防御范围,也可以设置球体在坐标系中水平面上间隔一段距离的部分球体区域1510为第一虚拟道具的防御范围。若以地面以上范围为防御范围,第一客户端控制第一虚拟道具对四周的第二虚拟道具(如导弹)进行拦截;若以部分球体区域为防御范围,则第一虚拟道具可以对一定角度范围内的第二虚拟道具(如导弹)进行拦截。
示例性的,结合参考图16,如图所示,第二虚拟道具411是导弹。当第一虚拟角色使用第一虚拟道具406,且第二虚拟道具411进入第一虚拟道具406的防御范围后,第二虚拟道具411被拦截并被摧毁,不再对第一虚拟角色或与第一虚拟角色属于同一团队的第二虚拟角色进行攻击。在第一虚拟角色对应的第一用户界面上会显示第二虚拟道具被拦截的提示信息“成功拦截导弹并摧毁!”。
在一个可选的示例中,在步骤2023之后,第一客户端还将执行步骤2041或步骤2042:
步骤2041:响应于拦截到的第二虚拟道具的个数达到第一阈值,销毁第一虚拟道具;
步骤2042,响应于第一虚拟道具的使用时长达到第二阈值,销毁第一虚拟道具。
可选地,第一虚拟道具的防御效果是有时限的,过一段时间后,第一虚拟道具将失去防御效果,不再对第二虚拟道具进行拦截。为了确定出第一虚拟道具的防御效果的时限,第一客户端可以对拦截到的第二虚拟道具的个数进行统计,也可以对第一虚拟道具的使用时长进行统计,第一虚拟道具的使用时长可以从第一虚拟道具到达安置点的时刻开始计算。当时效到达时,第一客户端控制第一虚拟道具自行销毁,不继续在第一用户界面上显示该第一虚拟道具。
示例性的,第一阈值为3个。第一客户端可以对拦截到的第二虚拟道具的个数进行统计,当个数达到3个时,第一虚拟道具将失去防御效果,不再对第二虚拟道具进行拦截。第一客户端控制第一虚拟道具自行销毁。
示例性的,第二阈值为2分钟。第一客户端可以对第一虚拟道具的使用时长进行统计,当使用时长达到2分钟时,第一虚拟道具将失去防御效果,不再对第二虚拟道具进行拦截。第一客户端控制第一虚拟道具自行销毁。
综上所述,本实施例提供的方法,通过提供一种发射道具,通过发射道具对第一虚拟道具的放置进行控制,提高了投放第一虚拟道具的准确性。
本实施例提供的方法,通过提供第一虚拟角色的视角、位置、第一虚拟道具的抛掷方向、抛掷起点、抛掷力度、抛掷速度等参数来计算得到第一虚拟道具的抛出路线,从而确定第一虚拟道具最终的落地点,用户可以通过调整该多个参数来调整第一虚拟道具的飞出路径,得到不同的落地点,提高第一虚拟道具的可控性。
本实施例提供的方法,在发射第一虚拟道具之前对安置点进行检测,在安置点是有效区域的情况下,如地面,才能够成功安置第一虚拟道具。通过限制第一虚拟道具能够使用的有效区域,提高了射击场景的真实性。同时,通过提供光圈特效和提示信息,提示用户能否在当前的安置点处安置第一虚拟道具,使得用户能够及时的调整安置点,提高了使用第一虚拟道具的可控性。
本实施例提供的方法,通过提供两种不同的自动销毁第一虚拟道具的方式,确保游戏的公平性。
图17示出了本申请另一个示例性实施例提供的虚拟道具的使用方法的流程图,该方法可应用于如图1所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤1701,第一客户端控制第一虚拟角色在进入对局前装备防追踪导弹系统。
示例性的,防追踪导弹系统包括发射装置武器和防导弹装置。其中,防导弹装置是一种第一虚拟道具。
步骤1702,第一客户端判断第一用户是否切换出防追踪导弹系统,若已切换则进行步骤1703,否则进行步骤1701。
示例性的,第一客户端判断第一用户是否要控制第一虚拟角色装备防追踪导弹系统,若要装备则将第一虚拟角色当前持有的装备换为防追踪导弹系统。
步骤1703,第一客户端切换出发射装置武器。
示例性的,发射装置武器是一种发射道具。
步骤1704,第一客户端判断第一用户是否按下开火键,若按下则进行步骤05,否则进行步骤1703。
第一用户按下开火键后,第一客户端将对安置点进行检测,确定当前的安置点是否处于有效区域。
步骤1705,第一客户端判断当前位置是否可放置,若不可放置则进行步骤06,否则进行步骤08。
步骤1706,第一客户端显示红色光圈特效表示不可放置。
示例性的,红色光圈特效是一种第二光圈特效,用于提示第一用户当前位置不可放置。
步骤1707,第一客户端判断是否移动方向,若移动方向则进行步骤1705,若不移动方向则进行步骤1706。
第一用户可以通过操作移动控件调整第一虚拟角色的移动方向,从而对第一虚拟道具的安置点进行调整。
步骤1708,第一客户端显示蓝色光圈特效表示可放置。
示例性的,蓝色光圈特效是一种第一光圈特效,用于提示第一用户当前位置可放置。
步骤1709,第一客户端判断第一用户是否松手,若松手则进行步骤1710,否则进行步骤1708。
当第一用户松开开火键,则第一客户端按照检测安置点时确定的飞出路径将防导弹装置投出。
步骤1710,第一客户端安置防导弹装置成功。
防导弹装置到达落地点,安置成功后,将保护防御范围内的虚拟角色。
步骤1711,第一客户端判断是否检测到导弹,若检测到则进行步骤1712,否则进行步骤1713。
示例性的,导弹是一种第二虚拟道具。第一客户端判断是否检测到导弹,若检测到导弹则摧毁导弹。
步骤1712,第一客户端控制摧毁导弹。
第一客户端控制导弹在进入防御范围时被摧毁。
步骤1713,第一客户端继续检测。
综上所述,本实施例提供的方法,通过提供一种专门拦截其他虚拟道具的第一虚拟道具,当虚拟角色向追击类的虚拟武器使用该第一虚拟道具时,在防御范围内该虚拟武器被拦截,使用户不需要通过长时间的移动来躲避虚拟武器,避免用户耗费过长时间躲避追击武器,提高了人机交互的效率。
以下为本申请的装置实施例,对于装置实施例中未详细描述的细节,可以结合参考上述方法实施例中相应的记载,本文不再赘述。
图18示出了本申请的一个示例性实施例提供的虚拟道具的使用装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分,该装置包括:显示模块1801、控制模块1802;
显示模块1801,被配置为显示第一用户界面,第一用户界面包括第一虚拟环境画面,第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面;
控制模块1802,被配置为响应于第一虚拟道具的使用指令,控制第一虚拟角色使用第一虚拟道具,第一虚拟道具是用于产生防御范围的虚拟道具,防御范围是第一虚拟道具对第二虚拟道具的攻击能产生防御效果的范围,第二虚拟道具有追击目标虚拟角色的功能;
控制模块1802,被配置为响应于第二虚拟道具落入防御范围内,拦截第二虚拟道具。
在一个可选的示例中,目标虚拟角色是第一虚拟角色和与第二虚拟角色中的至少一个虚拟角色,第二虚拟角色和第一虚拟角色属于同一团队;控制模块,被配置为响应于第二虚拟道具落入防御范围内,且目标虚拟角色位于防御范围之内,拦截第二虚拟道具。
在一个可选的示例中,控制模块1802,被配置为摧毁第二虚拟道具;或,控制模块1802,被配置为控制第一虚拟道具发射第三虚拟道具击落第二虚拟道具。
在一个可选的示例中,该装置还包括:获取模块1803和确定模块1804。
防御范围包括与第一虚拟道具的安置点的距离小于有效半径的空间范围;获取模块1803,被配置为获取第二虚拟道具在释放过程中的位置;确定模块1804,被配置为响应于第一虚拟道具的安置点与第二虚拟道具的位置之间的距离小于或等于有效半径,确定第二虚拟道具落入防御范围内。
在一个可选的示例中,控制模块1802,被配置为响应于发射道具的使用指令,在虚拟环境中安置发射道具,发射道具是用于发射第一虚拟道具的虚拟道具;确定模块1804,被配置为响应于第一虚拟道具的使用指令,确定第一虚拟道具的安置点;控制模块1802,被配置为控制第一虚拟角色利用发射道具,将第一虚拟道具发射至安置点。
在一个可选的示例中,确定模块1804,被配置为确定第一虚拟道具的飞出路径,飞出路径是根据第一虚拟角色的视角、位置、第一虚拟道具的抛掷方向、抛掷起点、抛掷力度、抛掷速度中的至少一个参数计算得到的;确定模块1804,被配置为将飞出路径的终点确定为安置点。
在一个可选的示例中,显示模块1801,被配置为响应于安置点是有效区域,显示第一作用效果,第一作用效果用于提示能够在安置点处安置第一虚拟道具;显示模块1801,被配置为响应于安置点不是有效区域,显示第二作用效果,第二作用效果用于提示不能够在落地点处安置第一虚拟道具。
在一个可选的示例中,第一作用效果包括第一光圈特效和第一提示信息中的至少一种;第二作用效果包括第二光圈特效和第二提示信息中的至少一种;其中,第一作用效果与第二作用效果不同。
在一个可选的示例中,控制模块1802,被配置为响应于拦截到的第二虚拟道具的个数达到第一阈值,销毁第一虚拟道具;或,控制模块1802,被配置为响应于第一虚拟道具的使用时长达到第二阈值,销毁第一虚拟道具。
请参考图19,其示出了本申请一个示例性实施例提供的计算机设备1300的结构框图。该计算机设备1300可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器。计算机设备1300还可能被称为用户设备、便携式终端等其他名称。
通常,计算机设备1300包括有:处理器1301和存储器1302。
处理器1301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1301可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1301还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器1302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1302中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1301所执行以实现本申请中提供的基于虚拟环境的射击显示方法。
在一些实施例中,电子设备1300还可选包括有:外围设备接口1303和至少一个外围设备。具体地,外围设备包括:射频电路1304、触摸显示屏1305、摄像头1306、音频电路1307、定位组件1308和电源1309中的至少一种。
外围设备接口1303可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1301和存储器1302。在一些实施例中,处理器1301、存储器1302和外围设备接口1303被集成在同一芯片或电路板上;在一些其他实施例中,处理器1301、存储器1302和外围设备接口1303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1304包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1304还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
触摸显示屏1305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏1305还具有采集在触摸显示屏1305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1301进行处理。触摸显示屏1305用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏1305可以为一个,设置电子设备1300的前面板;在另一些实施例中,触摸显示屏1305可以为至少两个,分别设置在电子设备1300的不同表面或呈折叠设计;在一些实施例中,触摸显示屏1305可以是柔性显示屏,设置在电子设备1300的弯曲表面上或折叠面上。甚至,触摸显示屏1305还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏1305可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1306用于采集图像或视频。可选地,摄像头组件1306包括前置摄像头和后置摄像头。通常,前置摄像头用于实现视频通话或自拍,后置摄像头用于实现照片或视频的拍摄。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能,主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能。在一些实施例中,摄像头组件1306还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1307用于提供用户和电子设备1300之间的音频接口。音频电路1307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1301进行处理,或者输入至射频电路1304以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备1300的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1301或射频电路1304的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1307还可以包括耳机插孔。
定位组件1308用于定位电子设备1300的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1308可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1309用于为电子设备1300中的各个组件进行供电。电源1309可以是交流电、直流电、一次性电池或可充电电池。当电源1309包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备1300还包括有一个或多个传感器1310。该一个或多个传感器1310包括但不限于:加速度传感器1311、陀螺仪传感器1312、压力传感器1313、指纹传感器1314、光学传感器1315以及接近传感器1316。
加速度传感器1311可以检测以电子设备1300建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1311可以用于检测重力加速度在三个坐标轴上的分量。处理器1301可以根据加速度传感器1311采集的重力加速度信号,控制触摸显示屏1305以横向视图或纵向视图进行用户界面的显示。加速度传感器1311还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1312可以检测电子设备1300的机体方向及转动角度,陀螺仪传感器1312可以与加速度传感器1311协同采集用户对电子设备1300的3D动作。处理器1301根据陀螺仪传感器1312采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1313可以设置在电子设备1300的侧边框和/或触摸显示屏1305的下层。当压力传感器1313设置在电子设备1300的侧边框时,可以检测用户对电子设备1300的握持信号,根据该握持信号进行左右手识别或快捷操作。当压力传感器1313设置在触摸显示屏1305的下层时,可以根据用户对触摸显示屏1305的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1314用于采集用户的指纹,以根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1301授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1314可以被设置电子设备1300的正面、背面或侧面。当电子设备1300上设置有物理按键或厂商Logo时,指纹传感器1314可以与物理按键或厂商Logo集成在一起。
光学传感器1315用于采集环境光强度。在一个实施例中,处理器1301可以根据光学传感器1315采集的环境光强度,控制触摸显示屏1305的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1305的显示亮度;当环境光强度较低时,调低触摸显示屏1305的显示亮度。在另一个实施例中,处理器1301还可以根据光学传感器1315采集的环境光强度,动态调整摄像头组件1306的拍摄参数。
接近传感器1316,也称距离传感器,通常设置在电子设备1300的正面。接近传感器1316用于采集用户与电子设备1300的正面之间的距离。在一个实施例中,当接近传感器1316检测到用户与电子设备1300的正面之间的距离逐渐变小时,由处理器1301控制触摸显示屏1305从亮屏状态使用为息屏状态;当接近传感器1316检测到用户与电子设备1300的正面之间的距离逐渐变大时,由处理器1301控制触摸显示屏1305从息屏状态使用为亮屏状态。
本领域技术人员可以理解,图19中示出的结构并不构成对电子设备1300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请还提供了一种终端,该终端包括:处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的虚拟道具的使用方法。
本申请还提供一种计算机设备,该计算机设备包括:处理器和存储器,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的虚拟道具的使用方法。
本申请还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的虚拟道具的使用方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种虚拟道具的使用方法,其特征在于,所述方法包括:
显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面;
响应于第一虚拟道具的使用指令,控制所述第一虚拟角色使用所述第一虚拟道具,所述第一虚拟道具是用于产生防御范围的虚拟道具,所述防御范围是所述第一虚拟道具对第二虚拟道具的攻击能产生防御效果的范围,所述第二虚拟道具有追击目标虚拟角色的功能;
响应于所述第二虚拟道具落入所述防御范围内,拦截所述第二虚拟道具。
2.根据权利要求1所述的方法,所述目标虚拟角色是所述第一虚拟角色和与第二虚拟角色中的至少一个虚拟角色,所述第二虚拟角色和所述第一虚拟角色属于同一团队;
所述响应于所述第二虚拟道具落入所述防御范围内,拦截所述第二虚拟道具,包括:
响应于所述第二虚拟道具落入所述防御范围内,且所述目标虚拟角色位于所述防御范围之内,拦截所述第二虚拟道具。
3.根据权利要求2所述的方法,其特征在于,所述拦截所述第二虚拟道具,包括:
摧毁所述第二虚拟道具;
或,
控制所述第一虚拟道具发射第三虚拟道具击落所述第二虚拟道具。
4.根据权利要求2所述的方法,其特征在于,所述防御范围包括与所述第一虚拟道具的安置点的距离小于有效半径的空间范围;
所述方法还包括:
获取所述第二虚拟道具在释放过程中的位置;
响应于所述第一虚拟道具的安置点与所述第二虚拟道具的位置之间的距离小于或等于所述有效半径,确定所述第二虚拟道具落入所述防御范围内。
5.根据权利要求1至4任一所述的方法,其特征在于,所述响应于所述第一虚拟道具的使用指令,控制所述第一虚拟角色使用所述第一虚拟道具,包括:
响应于发射道具的使用指令,在所述虚拟环境中安置所述发射道具,所述发射道具是用于发射所述第一虚拟道具的虚拟道具;
响应于所述第一虚拟道具的使用指令,确定所述第一虚拟道具的安置点;
控制所述第一虚拟角色利用所述发射道具,将所述第一虚拟道具发射至所述安置点。
6.根据权利要求5所述的方法,其特征在于,所述确定所述第一虚拟道具的安置点,包括:
确定所述第一虚拟道具的飞出路径,所述飞出路径是根据所述第一虚拟角色的视角、位置、所述第一虚拟道具的抛掷方向、抛掷起点、抛掷力度、抛掷速度中的至少一个参数计算得到的;
将所述飞出路径的终点确定为所述安置点。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:
响应于所述安置点是有效区域,显示第一作用效果,所述第一作用效果用于提示能够在所述安置点处安置所述第一虚拟道具;
响应于所述安置点不是所述有效区域,显示第二作用效果,所述第二作用效果用于提示不能够在所述安置点处安置所述第一虚拟道具。
8.根据权利要求7所述的方法,其特征在于,
所述第一作用效果包括第一光圈特效和第一提示信息中的至少一种;
所述第二作用效果包括第二光圈特效和第二提示信息中的至少一种;
其中,所述第一作用效果与所述第二作用效果不同。
9.根据权利要求1至4任一所述的方法,其特征在于,所述方法还包括:
响应于拦截到的所述第二虚拟道具的个数达到第一阈值,销毁所述第一虚拟道具;
或,
响应于所述第一虚拟道具的使用时长达到第二阈值,销毁所述第一虚拟道具。
10.一种虚拟道具的使用装置,其特征在于,所述装置包括:显示模块、控制模块;
所述显示模块,被配置为显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以第一虚拟角色的视角对虚拟环境进行观察的画面;
所述控制模块,被配置为响应于第一虚拟道具的使用指令,控制所述第一虚拟角色使用所述第一虚拟道具,所述第一虚拟道具是用于产生防御范围的虚拟道具,所述防御范围是所述第一虚拟道具对第二虚拟道具的攻击能产生防御效果的范围,所述第二虚拟道具有追击目标虚拟角色的功能;
所述控制模块,被配置为响应于所述第二虚拟道具落入所述防御范围内,拦截所述第二虚拟道具。
11.根据权利要求10所述的装置,所述目标虚拟角色是所述第一虚拟角色和与第二虚拟角色中的至少一个虚拟角色,所述第二虚拟角色和所述第一虚拟角色属于同一团队;
所述控制模块,被配置为响应于所述第二虚拟道具落入所述防御范围内,且所述目标虚拟角色位于所述防御范围之内,拦截所述第二虚拟道具。
12.根据权利要求11所述的装置,其特征在于,
所述控制模块,被配置为摧毁所述第二虚拟道具;
或,
所述控制模块,被配置为控制所述第一虚拟道具发射第三虚拟道具击落所述第二虚拟道具。
13.根据权利要求11所述的装置,其特征在于,所述防御范围包括与所述第一虚拟道具的安置点的距离小于有效半径的空间范围;所述装置还包括:获取模块和确定模块;
所述获取模块,被配置为获取所述第二虚拟道具在释放过程中的位置;
所述确定模块,被配置为响应于所述第一虚拟道具的安置点与所述第二虚拟道具的位置之间的距离小于或等于所述有效半径,确定所述第二虚拟道具落入所述防御范围内。
14.一种计算机设备,所述计算机包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如权利要求1至9任一项所述的虚拟道具的使用方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如权利要求1至9任一项所述的虚拟道具的使用方法。
CN202010071034.5A 2020-01-21 2020-01-21 虚拟道具的使用方法、装置、设备及存储介质 Pending CN111298441A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010071034.5A CN111298441A (zh) 2020-01-21 2020-01-21 虚拟道具的使用方法、装置、设备及存储介质
PCT/CN2020/129801 WO2021147496A1 (zh) 2020-01-21 2020-11-18 虚拟道具的使用方法、装置、设备及存储介质
US17/668,789 US20220161138A1 (en) 2020-01-21 2022-02-10 Method and apparatus for using virtual prop, device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010071034.5A CN111298441A (zh) 2020-01-21 2020-01-21 虚拟道具的使用方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN111298441A true CN111298441A (zh) 2020-06-19

Family

ID=71151013

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010071034.5A Pending CN111298441A (zh) 2020-01-21 2020-01-21 虚拟道具的使用方法、装置、设备及存储介质

Country Status (3)

Country Link
US (1) US20220161138A1 (zh)
CN (1) CN111298441A (zh)
WO (1) WO2021147496A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111659116A (zh) * 2020-07-02 2020-09-15 腾讯科技(深圳)有限公司 虚拟载具的控制方法、装置、设备及介质
CN112044071A (zh) * 2020-09-04 2020-12-08 腾讯科技(深圳)有限公司 虚拟物品的控制方法、装置、终端及存储介质
WO2021147496A1 (zh) * 2020-01-21 2021-07-29 腾讯科技(深圳)有限公司 虚拟道具的使用方法、装置、设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210245055A1 (en) * 2020-02-08 2021-08-12 Carlos R. Villamar Augmented reality gaming system and method employing real world geolocation parameters
JP7270008B2 (ja) * 2020-09-08 2023-05-09 カムツス コーポレーション ゲーム提供方法、コンピュータプログラム、コンピュータ読取可能な記録媒体、およびコンピュータ装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3181808B2 (ja) * 1995-04-17 2001-07-03 株式会社スクウェア ビデオ・ゲーム装置,その制御方法および制御ディバイス
CN107308644A (zh) * 2017-07-12 2017-11-03 腾讯科技(深圳)有限公司 配置信息的获取方法和装置
CN110585710A (zh) * 2019-09-30 2019-12-20 腾讯科技(深圳)有限公司 互动道具控制方法、装置、终端及存储介质
CN110613938A (zh) * 2019-10-18 2019-12-27 腾讯科技(深圳)有限公司 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN110694273A (zh) * 2019-10-18 2020-01-17 腾讯科技(深圳)有限公司 控制虚拟对象使用道具的方法、装置、终端及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215886A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、画像生成装置
CN111298441A (zh) * 2020-01-21 2020-06-19 腾讯科技(深圳)有限公司 虚拟道具的使用方法、装置、设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3181808B2 (ja) * 1995-04-17 2001-07-03 株式会社スクウェア ビデオ・ゲーム装置,その制御方法および制御ディバイス
CN107308644A (zh) * 2017-07-12 2017-11-03 腾讯科技(深圳)有限公司 配置信息的获取方法和装置
CN110585710A (zh) * 2019-09-30 2019-12-20 腾讯科技(深圳)有限公司 互动道具控制方法、装置、终端及存储介质
CN110613938A (zh) * 2019-10-18 2019-12-27 腾讯科技(深圳)有限公司 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN110694273A (zh) * 2019-10-18 2020-01-17 腾讯科技(深圳)有限公司 控制虚拟对象使用道具的方法、装置、终端及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021147496A1 (zh) * 2020-01-21 2021-07-29 腾讯科技(深圳)有限公司 虚拟道具的使用方法、装置、设备及存储介质
CN111659116A (zh) * 2020-07-02 2020-09-15 腾讯科技(深圳)有限公司 虚拟载具的控制方法、装置、设备及介质
CN112044071A (zh) * 2020-09-04 2020-12-08 腾讯科技(深圳)有限公司 虚拟物品的控制方法、装置、终端及存储介质
CN112044071B (zh) * 2020-09-04 2021-10-15 腾讯科技(深圳)有限公司 虚拟物品的控制方法、装置、终端及存储介质
US11904241B2 (en) 2020-09-04 2024-02-20 Tencent Technology (Shenzhen) Company Limited Virtual item control method and apparatus, terminal, and storage medium

Also Published As

Publication number Publication date
WO2021147496A1 (zh) 2021-07-29
US20220161138A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
CN110694261B (zh) 控制虚拟对象进行攻击的方法、终端及存储介质
CN110448891B (zh) 控制虚拟对象操作远程虚拟道具的方法、装置及存储介质
CN110721468B (zh) 互动道具控制方法、装置、终端及存储介质
CN110917619B (zh) 互动道具控制方法、装置、终端及存储介质
WO2021143260A1 (zh) 虚拟道具的使用方法、装置、计算机设备及存储介质
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN111589149B (zh) 虚拟道具的使用方法、装置、设备及存储介质
CN110465098B (zh) 控制虚拟对象使用虚拟道具的方法、装置、设备及介质
US20220161138A1 (en) Method and apparatus for using virtual prop, device, and storage medium
CN110538459A (zh) 在虚拟环境中投掷虚拟爆炸物的方法、装置、设备及介质
CN110507990B (zh) 基于虚拟飞行器的互动方法、装置、终端及存储介质
CN112057857B (zh) 互动道具处理方法、装置、终端及存储介质
CN111330274B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111589150A (zh) 虚拟道具的控制方法、装置、电子设备及存储介质
CN112933601B (zh) 虚拟投掷物的操作方法、装置、设备及介质
CN112138384A (zh) 虚拟投掷道具的使用方法、装置、终端及存储介质
CN113041622A (zh) 虚拟环境中虚拟投掷物的投放方法、终端及存储介质
CN110917623A (zh) 互动信息显示方法、装置、终端及存储介质
CN111760284A (zh) 虚拟道具控制方法、装置、设备及存储介质
CN111659116A (zh) 虚拟载具的控制方法、装置、设备及介质
CN113713382A (zh) 虚拟道具控制方法、装置、计算机设备及存储介质
CN112402964B (zh) 虚拟道具的使用方法、装置、设备及存储介质
CN112717410B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN111659122B (zh) 虚拟资源显示方法、装置、电子设备及存储介质
CN112402966B (zh) 虚拟对象控制方法、装置、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40023582

Country of ref document: HK

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200619