CN111589137B - 虚拟角色的控制方法、装置、设备及介质 - Google Patents
虚拟角色的控制方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111589137B CN111589137B CN202010359209.2A CN202010359209A CN111589137B CN 111589137 B CN111589137 B CN 111589137B CN 202010359209 A CN202010359209 A CN 202010359209A CN 111589137 B CN111589137 B CN 111589137B
- Authority
- CN
- China
- Prior art keywords
- virtual
- virtual character
- state
- crawling
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/65—Methods for processing data by generating or executing the game program for computing the condition of a game character
Abstract
本申请公开了一种虚拟角色的控制方法、装置、设备及介质,涉及虚拟环境领域。该方法包括:显示第一用户界面,第一用户界面包括第一虚拟环境画面,第一虚拟环境画面包括:处于战斗状态的虚拟角色和爬行区域,战斗状态是虚拟角色持续使用虚拟战斗道具的至少一种功能的状态,爬行区域是虚拟角色采用爬行方式移动的区域;响应于虚拟角色与爬行区域的距离小于距离阈值,控制虚拟角色从战斗状态切换为爬行状态;显示第二用户界面,第二用户界面包括第二虚拟环境画面,第二虚拟环境画面包括:位于爬行区域的虚拟角色。该方法可以提高爬梯操作的人机交互效率。
Description
技术领域
本申请实施例涉及虚拟环境领域,特别涉及一种虚拟角色的控制方法、装置、设备及介质。
背景技术
在基于三维虚拟环境的应用程序中,如第一人称射击类游戏,用户可以操控虚拟环境中的虚拟角色进行行走、奔跑、攀爬、射击、格斗等动作。
相关技术中,虚拟角色可以通过攀爬直梯快速移动到高处,获得优势射击位置。因此,直梯通常是虚拟角色们争夺的地点,在直梯附近经常会有争斗发生。当虚拟角色处于战斗状态时,虚拟角色无法进行爬梯动作。例如,当虚拟角色处于开镜瞄准状态时,用户需要先控制虚拟角色退出开镜瞄准状态,然后再控制虚拟角色进行爬梯。
相关技术中的爬梯方法,当虚拟角色处于战斗状态时,用户控制虚拟角色爬梯的操作过于复杂,人机交互效率过低。
发明内容
本申请实施例提供了一种虚拟角色的控制方法、装置、设备及介质,可以提高爬梯操作的人机交互效率。所述技术方案如下:
一方面,提供了一种虚拟角色的控制方法,所述方法包括:
显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面,所述第一虚拟环境画面包括:处于战斗状态的所述虚拟角色和爬行区域,所述战斗状态是所述虚拟角色持续使用虚拟战斗道具的至少一种功能的状态,所述爬行区域是所述虚拟角色采用爬行方式移动的区域;
响应于所述虚拟角色与所述爬行区域的距离小于距离阈值,控制所述虚拟角色从所述战斗状态切换为爬行状态,所述爬行状态是所述虚拟角色进入所述爬行区域采用爬行方式移动的状态;
显示第二用户界面,所述第二用户界面包括第二虚拟环境画面,所述第二虚拟环境画面是以所述虚拟角色的视角对所述虚拟环境进行观察的画面,所述第二虚拟环境画面包括:位于所述爬行区域的所述虚拟角色。
另一方面,提供了一种虚拟角色的控制装置,所述装置包括:
显示模块,用于显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面,所述第一虚拟环境画面包括:处于战斗状态的所述虚拟角色和爬行区域,所述战斗状态是所述虚拟角色持续使用虚拟战斗道具的至少一种功能的状态,所述爬行区域是所述虚拟角色采用爬行方式移动的区域;
检测模块,用于检测所述虚拟角色与所述爬行区域的距离;
控制模块,用于响应于所述虚拟角色与所述爬行区域的距离小于距离阈值,控制所述虚拟角色从所述战斗状态切换为爬行状态,所述爬行状态是所述虚拟角色进入所述爬行区域采用爬行方式移动的状态;
所述显示模块,用于显示第二用户界面,所述第二用户界面包括第二虚拟环境画面,所述第二虚拟环境画面是以所述虚拟角色的视角对所述虚拟环境进行观察的画面,所述第二虚拟环境画面包括:位于所述爬行区域的所述虚拟角色。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的虚拟角色的控制方法。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的虚拟角色的控制方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过当虚拟角色处于战斗状态时,客户端接收到爬行指令,则客户端自动控制虚拟角色结束战斗状态,并控制虚拟角色进入爬行区域进行爬行。使用户不需要先进行退出战斗状态的操作,再控制虚拟角色进入爬行状态,减少用户控制虚拟角色进入爬行状态的操作,提高爬行操作的人机交互效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请一个示例性实施例提供的终端的结构示意图;
图2是本申请一个示例性实施例提供的计算机系统的结构框图;
图3是本申请一个示例性实施例提供的虚拟角色的控制方法的用户界面示意图;
图4是本申请一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图5是本申请一个示例性实施例提供的虚拟对象的视角对应的摄像机模型示意图;
图6是本申请另一个示例性实施例提供的虚拟角色的控制方法的用户界面示意图;
图7是本申请另一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图8是本申请另一个示例性实施例提供的虚拟角色的控制方法的碰撞盒示意图;
图9是本申请另一个示例性实施例提供的虚拟角色的控制方法的用户界面示意图;
图10是本申请另一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图11是本申请另一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图12是本申请另一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图13是本申请另一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图14是本申请另一个示例性实施例提供的虚拟角色的控制方法的用户界面示意图;
图15是本申请另一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图16是本申请另一个示例性实施例提供的虚拟角色的控制方法的方法流程图;
图17是本申请另一个示例性实施例提供的虚拟角色的控制方法的用户界面示意图;
图18是本申请另一个示例性实施例提供的虚拟角色的控制方法的用户界面示意图;
图19是本申请另一个示例性实施例提供的虚拟角色的控制方法的用户界面示意图;
图20是本申请另一个示例性实施例提供的虚拟角色的控制装置的框图;
图21是本申请一个示例性实施例提供的终端的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行简单介绍:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真世界,也可以是半仿真半虚构的世界,还可以是纯虚构的世界。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,本申请对此不加以限定。下述实施例以虚拟环境是三维虚拟环境来举例说明。
虚拟角色:是指虚拟环境中的可活动对象。该可活动对象可以是虚拟角色、虚拟动物、动漫人物等,比如:在三维虚拟环境中显示的人物、动物、植物、油桶、墙壁、石块等。可选地,虚拟角色是基于动画骨骼技术创建的三维立体模型。每个虚拟角色在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
虚拟战斗道具:虚拟战斗道具包括虚拟武器、功能道具、虚拟装备中的至少一个。示意性的,在本申请中虚拟战斗道具是指虚拟武器,虚拟武器是虚拟角色在虚拟环境中能够使用的武器。示例性的,虚拟武器是虚拟角色使用后会对其他虚拟角色的活动状态或生命值产生影响的道具。虚拟武器包括冷兵器、枪械、火炮、装甲战斗载具、防暴武器、生化武器、核武器、新概念武器等。例如,虚拟道具可以是刀、枪、剑、手枪、步枪、冲锋枪、机枪、特种枪、散弹枪、手榴弹、火箭炮、迫击炮、坦克炮、加农炮、导弹、激光武器、微波武器、粒子束武器、动能拦截弹、电磁炮、脉冲武器、信号干扰武器中的至少一种。
第一人称射击游戏(First-person Shooting,FPS):是指用户能够以第一人称视角进行的射击游戏,游戏中的虚拟环境的画面是以第一虚拟角色的视角对虚拟环境进行观察的画面。在游戏中,至少两个虚拟角色在虚拟环境中进行单局对战模式,虚拟角色通过躲避其他虚拟角色发起的攻击或/和虚拟环境中存在的危险(比如,毒气圈、沼泽地、炸弹等)来达到在虚拟环境中存活的目的,当虚拟角色在虚拟环境中的生命值为零时,虚拟角色在虚拟环境中的生命结束,最后存活在虚拟环境中的虚拟角色是获胜方。可选地,该对战以第一个客户端加入对战的时刻作为开始时刻,以最后一个客户端退出对战的时刻作为结束时刻,每个客户端可以控制虚拟环境中的一个或多个虚拟角色。可选地,该对战的竞技模式可以包括单人对战模式、双人小组对战模式或者多人大组对战模式,本申请实施例对对战模式不加以限定。
用户界面UI(User Interface)控件,在应用程序的用户界面上能够看见的任何可视控件或元素,比如,图片、输入框、文本框、按钮、标签等控件,其中一些UI控件响应用户的操作,比如,射击控件,控制虚拟角色在虚拟环境中射击。本申请实施例中涉及的UI控件,包括但不限于:射击控件、开镜控件。
本申请中提供的方法可以应用于具有虚拟环境和虚拟角色的应用程序中。示例性的,支持虚拟环境的应用程序是用户可以控制虚拟角色在虚拟环境内移动的应用程序。示例性的,本申请中提供的方法可以应用于:虚拟现实(Virtual Reality,VR)应用程序、增强现实(Augmented Reality,AR)程序、三维地图程序、军事仿真程序、虚拟现实游戏、增强现实游戏、第一人称射击游戏(First-PersonShooting Game,FPS)、第三人称射击游戏(Third-Personal Shooting Game,TPS)、多人在线战术竞技游戏(Multiplayer OnlineBattle Arena Games,MOBA)、策略游戏(Simulation Game,SLG)中的任意一种程序。
示例性的,虚拟环境中的游戏由一个或多个游戏世界的地图构成,游戏中的虚拟环境模拟现实世界的场景,用户可以操控游戏中的虚拟角色在虚拟环境中进行行走、跑步、跳跃、射击、格斗、驾驶、使用虚拟武器攻击其他虚拟角色、使用虚拟武器蓄力攻击其他虚拟角色等动作,交互性较强,并且多个用户可以在线组队进行竞技游戏。
在一些实施例中,上述应用程序可以是射击类游戏、竞速类游戏、角色扮演类游戏、冒险类游戏、沙盒游戏、战术竞技游戏、军事仿真程序等程序。该客户端可以支持Windows操作系统、苹果操作系统、安卓操作系统、IOS操作系统和LINUX操作系统中的至少一种操作系统,并且不同操作系统的客户端可以互联互通。在一些实施例中,上述客户端是适用于具有触摸屏的移动终端上的程序。
在一些实施例中,上述客户端是基于三维引擎开发的应用程序,比如三维引擎是Unity引擎。
本申请中的终端可以是台式计算机、膝上型便携计算机、手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器等等。该终端中安装和运行有支持虚拟环境的客户端,比如支持三维虚拟环境的应用程序的客户端。该应用程序可以是战术竞技生存(Battle Royale,BR)游戏、虚拟现实应用程序、增强现实程序、三维地图程序、军事仿真程序、第三人称射击游戏、第一人称射击游戏、多人在线战术竞技游戏中的任意一种。可选地,该应用程序可以是单机版的应用程序,比如单机版的3D游戏程序,也可以是网络联机版的应用程序。
图1是本申请一个示例性实施例提供的终端的结构示意图。如图1所示,该终端包括处理器101、触摸屏102以及存储器103。
处理器101可以是单核处理器、多核处理器、嵌入式芯片以及具有指令运行能力的处理器中的至少一种。
触摸屏102包括普通触摸屏或压力感应触摸屏。普通触摸屏可以对施加在触摸屏102上的按压操作或滑动操作进行测量;压力感应触摸屏可以对施加在触摸屏102上的按压力度进行测量。
存储器103存储有处理器101的可执行程序。示意性的,存储器103中存储有虚拟环境程序A、应用程序B、应用程序C、触摸压力感应模块18、操作系统的内核层19。其中,虚拟环境程序A为基于三维虚拟环境模块17开发的应用程序。可选地,虚拟环境程序A包括但不限于由三维虚拟环境模块(也称虚拟环境模块)17开发的游戏程序、虚拟现实程序、三维地图程序、三维演示程序中的至少一种。比如,终端的操作系统采用安卓操作系统时,虚拟环境程序A采用Java编程语言以及C#语言进行开发;又比如,终端的操作系统采用IOS操作系统时,虚拟环境程序A采用Object-C编程语言以及C#语言进行开发。
三维虚拟环境模块17是一款支持多种操作系统平台的模块,示意性的,三维虚拟环境模块可用于游戏开发领域、虚拟现实(Virtual Reality,VR)领域以及三维地图领域等多领域的程序开发,本申请实施例对三维虚拟环境模块17的具体类型不限,在下文实施例中以三维虚拟环境模块17是使用Unity引擎开发的模块为例来举例说明。
触摸(以及压力)感应模块18是用于接收触摸屏驱动程序191所上报的触摸事件(以及压力触控事件)的模块,可选地,触摸感应模块可以不具有压力感应功能,不接收压力触控事件。触摸事件包括:触摸事件的类型和坐标值,触摸事件的类型包括但不限于:触摸开始事件、触摸移动事件和触摸落下事件。压力触控事件中包括:压力触控事件的压力值以及坐标值。该坐标值用于指示压力触控操作在显示屏上的触控位置。可选地,以显示屏的水平方向建立横坐标轴,显示屏的竖直方向建立竖坐标轴得到一个二维坐标系。
示意性的,内核层19包括了触摸屏驱动程序191以及其它驱动程序192。触摸屏驱动程序191是用于检测压力触控事件的模块,当触摸屏驱动程序191检测到压力触控事件后,将压力触控事件传递给压力感应模块18。
其它驱动程序192可以是与处理器101有关的驱动程序、与存储器103有关的驱动程序、与网络组件有关的驱动程序、与声音组件有关的驱动程序等。
本领域技术人员可以知晓,上述仅为对终端的结构的概括性示意。在不同的实施例中,终端可以具有更多或更少的组件。比如,终端还可以包括重力加速度传感器、陀螺仪传感器、电源等等。
图2示出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统200包括:终端210、服务器集群220。
终端210安装和运行有支持虚拟环境的客户端211,该客户端211可以是支持虚拟环境的应用程序。当终端运行客户端211时,终端210的屏幕上显示客户端211的用户界面。该客户端可以是FPS游戏、TPS游戏、军事仿真程序、MOBA游戏、战术竞技游戏、SLG游戏的任意一种。在本实施例中,以该客户端是FPS游戏来举例说明。终端210是第一用户212使用的终端,第一用户212使用终端210控制位于虚拟环境中的第一虚拟角色进行活动,第一虚拟角色可以称为第一用户212的第一虚拟角色。第一虚拟角色的活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、飞行、跳跃、驾驶、拾取、射击、攻击、投掷中的至少一种。示意性的,第一虚拟角色是第一虚拟角色,比如仿真人物角色或动漫人物角色。
终端210的设备类型包括:智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。
图2中仅示出了一个终端,但在不同实施例中存在多个其它终端240。在一些实施例中,还存在至少一个其它终端240是开发者对应的终端,在其它终端240上安装有虚拟环境的客户端的开发和编辑平台,开发者可在其它终端240上对客户端进行编辑和更新,并将更新后的客户端安装包通过有线或无线网络传输至服务器集群220,终端210可从服务器集群220下载客户端安装包实现对客户端的更新。
终端210和其它终端240通过无线网络或有线网络与服务器集群220相连。
服务器集群220包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。服务器集群220用于为支持三维虚拟环境的客户端提供后台服务。可选地,服务器集群220承担主要计算工作,终端承担次要计算工作;或者,服务器集群220承担次要计算工作,终端承担主要计算工作;或者,服务器集群220和终端之间采用分布式计算架构进行协同计算。
可选地,上述终端和服务器均为计算机设备。
在一个示意性的例子中,服务器集群220包括服务器221和服务器226,服务器221包括处理器222、用户帐号数据库223、对战服务模块224、面向用户的输入/输出接口(Input/Output Interface,I/O接口)225。其中,处理器222用于加载服务器221中存储的指令,处理用户帐号数据库221和对战服务模块224中的数据;用户帐号数据库221用于存储终端210以及其它终端240所使用的用户帐号的数据,比如用户帐号的头像、用户帐号的昵称、用户帐号的战斗力指数,用户帐号所在的服务区;对战服务模块224用于提供多个对战房间供用户进行对战;面向用户的I/O接口225用于通过无线网络或有线网络和终端210建立通信交换数据。
结合上述对虚拟环境的介绍以及实施环境说明,对本申请实施例提供的虚拟角色的控制方法进行说明,以该方法的执行主体为图1所示出的终端上运行的客户端来举例说明。该终端运行有应用程序,该应用程序是支持虚拟环境的程序。
本申请提供了一个将虚拟角色的控制方法应用在FPS游戏中的示例性实施例。
直梯是垂直安放在虚拟环境中的梯子,虚拟角色可以通过攀爬直梯从地势低处到达地势高处,或,从地势高处到达地势低处。由于直梯的倾斜角度很大,虚拟角色攀爬直梯需要用到双手和双脚。因此,在攀爬直梯的过程中虚拟角色不可以做其他动作。例如,如图3中的(1)所示,在虚拟环境中存在垂直放置的梯子401。
当虚拟角色处于战斗状态时,客户端接收到攀爬直梯的指令,客户端会自动结束虚拟角色的战斗状态,并控制虚拟角色进入攀爬状态进行爬梯动作。例如,如图3中的(1)所示,用户按住射击控件501,控制虚拟角色连续进行射击(射击状态),同时,用户控制虚拟角色向梯子401移动,靠近梯子。如图3中的(2)所示,虚拟角色在射击状态下靠近了梯子401,当虚拟角色与梯子的距离小于距离阈值时,客户端生成攀爬直梯的指令控制虚拟角色进入攀爬状态。如图3中的(3)所示,客户端控制虚拟角色退出射击状态(收起枪支),进入攀爬状态进行爬梯,示例性的,即使用户依旧按着射击控件501,客户端也不会控制虚拟角色进行射击。
战斗状态是虚拟角色使用虚拟道具的状态。例如,虚拟角色使用虚拟武器进行射击、使用虚拟武器进行开镜瞄准、驾驶虚拟载具。示例性的,战斗状态是虚拟角色的双手正在操作虚拟道具的状态。结束虚拟角色的战斗状态即为,控制虚拟角色停止使用虚拟道具。例如,结束虚拟角色的开镜瞄准状态并收起虚拟武器,控制虚拟角色停止开火并收起虚拟武器,控制虚拟角色退出虚拟载具。
示例性的,当虚拟角色进入攀爬状态后,用户可以控制虚拟角色攀爬直梯,达到直梯的最高点或最低点,当虚拟角色到达最高点或最低点时,控制虚拟角色退出攀爬状态。示例性的,虚拟角色也可以在直梯上通过跳跃操作,直接退出攀爬状态。
示例性的,当虚拟角色退出攀爬状态时,客户端控制虚拟角色重新进入战斗状态。例如,当虚拟角色从射击状态自动切换为爬梯状态后,又退出了爬梯状态,则客户端在虚拟角色退出爬梯状态时,检测用户是否还在触发射击控件,若是,则控制虚拟角色继续进行射击。例如,当虚拟角色从开镜瞄准状态自动切换为爬梯状态后,又退出了爬梯状态,则客户端在虚拟角色退出爬梯状态后,将虚拟机角色切换回开镜瞄准状态。示例性的,当虚拟角色从驾驶状态自动切换为爬梯状态后,又退出了爬梯状态,由于虚拟载具还在虚拟角色爬梯前原位置,客户端不会控制虚拟角色重新驾驶虚拟角色。示例性的,若虚拟角色爬梯之后又回到了上直梯时的位置,客户端也可以自动检测虚拟载具是否还在原位置,若在,则控制虚拟角色进入虚拟载具使虚拟角色恢复驾驶状态。例如,如图3中的(4)所示,当虚拟角色移动到梯子的顶部时,客户端控制虚拟角色退出爬行状态,并切换回射击状态,控制虚拟角色进行连续射击。
示例性的,客户端在直梯的上下两端设置有碰撞盒,当虚拟角色撞到碰撞盒时,客户端检测虚拟角色对当前的状态,若为战斗状态,则客户端停止虚拟角色的战斗状态,控制虚拟角色进入直梯进行爬梯。若不是战斗状态,则客户端直接控制虚拟角色进入直梯进行爬梯。
图4是本申请一个示例性实施例提供的虚拟角色的控制方法的方法流程图。以该方法的执行主体为图1所示出的终端上运行的客户端来举例说明,该客户端是支持虚拟环境的客户端,该方法至少包括如下步骤。
步骤301,显示第一用户界面,第一用户界面包括第一虚拟环境画面,第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面,第一虚拟环境画面包括:处于战斗状态的虚拟角色和爬行区域,战斗状态是虚拟角色持续使用虚拟战斗道具的至少一种功能的状态,爬行区域是虚拟角色采用爬行方式移动的区域。
示例性的,第一用户界面是对局开始后,客户端上显示的对局中的界面。示例性的,在第一用户界面之前还可能包括:用于进行好友组队的组队界面、用于为虚拟角色匹配其他虚拟角色的匹配界面、用于加载本次对局信息的对局加载界面等。
示例性的,本实施例中的虚拟角色是由客户端控制的虚拟角色,即,虚拟角色是客户端控制的主控虚拟角色。
第一用户界面包括第一虚拟环境画面,第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察所采集到的画面。
可选地,第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面。视角是指以虚拟角色的第一人称视角或者第三人称视角在虚拟环境中进行观察时的观察角度。可选地,本申请的实施例中,视角是在虚拟环境中通过摄像机模型对虚拟角色进行观察时的角度。
可选地,摄像机模型在虚拟环境中对虚拟角色进行自动跟随,即,当虚拟角色在虚拟环境中的位置发生改变时,摄像机模型跟随虚拟角色在虚拟环境中的位置同时发生改变,且该摄像机模型在虚拟环境中始终处于虚拟角色的预设距离范围内。可选地,在自动跟随过程中,摄像头模型和虚拟角色的相对位置不发生变化。
摄像机模型是指在虚拟环境中位于虚拟角色周围的三维模型,当采用第一人称视角时,该摄像机模型位于虚拟角色的头部附近或者位于虚拟角色的头部;当采用第三人称视角时,该摄像机模型可以位于虚拟角色的后方并与虚拟角色进行绑定,也可以位于与虚拟角色相距预设距离的任意位置,通过该摄像机模型可以从不同角度对位于虚拟环境中的虚拟角色进行观察,可选地,该第三人称视角为第一人称的过肩视角时,摄像机模型位于虚拟角色(比如虚拟角色的头肩部)的后方。可选地,除第一人称视角和第三人称视角外,视角还包括其他视角,比如俯视视角;当采用俯视视角时,该摄像机模型可以位于虚拟角色头部的上空,俯视视角是以从空中俯视的角度进行观察虚拟环境的视角。可选地,该摄像机模型在虚拟环境中不会进行实际显示,即,在用户界面显示的虚拟环境画面中不显示该摄像机模型。
对该摄像机模型位于与虚拟角色相距预设距离的任意位置为例进行说明,可选地,一个虚拟角色对应一个摄像机模型,该摄像机模型可以以虚拟角色为旋转中心进行旋转,如:以虚拟角色的任意一点为旋转中心对摄像机模型进行旋转,摄像机模型在旋转过程中的不仅在角度上有转动,还在位移上有偏移,旋转时摄像机模型与该旋转中心之间的距离保持不变,即,将摄像机模型在以该旋转中心作为球心的球体表面进行旋转,其中,虚拟角色的任意一点可以是虚拟角色的头部、躯干、或者虚拟角色周围的任意一点,本申请实施例对此不加以限定。可选地,摄像机模型在对虚拟角色进行观察时,该摄像机模型的视角的中心指向为该摄像机模型所在球面的点指向球心的方向。
可选地,该摄像机模型还可以在虚拟角色的不同方向以预设的角度对虚拟角色进行观察。
示意性的,请参考图5,在虚拟角色11中确定一点作为旋转中心12,摄像机模型围绕该旋转中心12进行旋转,可选地,该摄像机模型配置有一个初始位置,该初始位置为虚拟角色后上方的位置(比如脑部的后方位置)。示意性的,如图5所示,该初始位置为位置13,当摄像机模型旋转至位置14或者位置15时,摄像机模型的视角方向随摄像机模型的转动而进行改变。
可选地,虚拟环境画面显示的虚拟环境包括:梯子、直梯、攀岩区、山川、平地、河流、湖泊、海洋、沙漠、沼泽、流沙、天空、植物、建筑、车辆中的至少一种元素。
爬行区域是虚拟角色需要使用四肢(双手)进行爬行的区域。示例性的,爬行区域是虚拟环境中设置有直梯的区域,直梯与水平面的倾斜角大于阈值。示例性的,爬行区域是虚拟环境中与水平面的倾斜角度大于阈值的区域,或,爬行区域是虚拟环境中空间狭窄虚拟角色需要使用双手爬行的区域。例如,爬行区域是虚拟环境中的梯子(直梯、绳梯)、攀爬网、攀岩区域、通风管道中的至少一种。示例性的,虚拟角色在爬行区域中无法使用双手进行其他操作,例如,虚拟角色无法进行射击、开镜瞄准、攻击、投掷虚拟道具、放置虚拟道具中的至少一种操作。示例性的,进入爬行区域的虚拟角色处于爬行状态,爬行状态的虚拟角色无法进行除移动之外的操作。
战斗状态是虚拟角色持续使用虚拟战斗道具的至少一种功能的状态。示例性的,虚拟战斗道具是虚拟武器。示例性的,战斗状态是虚拟角色正在操作虚拟战斗道具的状态。示例性的,虚拟战斗道具具有至少一种功能,例如,枪械具有开镜瞄准功能、射击功能、装弹功能,带有刺刀的枪械还具有捅刺功能、挥砍功能,投掷型武器具有投掷功能,放置型武器具有放置功能。开镜瞄准是指打开虚拟战斗道具上的瞄准镜,从而在界面上放大显示当前瞄准的区域。例如,战斗状态是虚拟角色使用虚拟枪械持续射击的状态、使用虚拟枪械开镜瞄准的状态、使用冷兵器挥砍的状态、正在放置放置型武器的状态、正在投掷投掷型武器的状态中的至少一种。
例如,如图6所示,是本实施例给出的一种第一用户界面的示意图,第一用户界面包括第一虚拟环境画面和射击控件501,在第一虚拟环境画面中有处于战斗状态的虚拟角色502和爬行区域503。示例性的,第一虚拟环境画面是以虚拟角色的第一人称视角对虚拟环境进行观察的画面,第一虚拟环境画面中显示出虚拟角色502的手部,用户通过长按射击控件501控制虚拟角色502进行连续射击。示例性的,爬行区域503是架设在墙面上的直梯所在的区域。
步骤302,响应于虚拟角色与爬行区域的距离小于距离阈值,控制虚拟角色从战斗状态切换为爬行状态,爬行状态是虚拟角色进入爬行区域采用爬行方式移动的状态。
当虚拟角色靠近爬行区域时,客户端控制虚拟角色退出战斗状态,进入爬行区域并切换为爬行状态。示例性的,爬行状态是虚拟角色进入爬行区域,使用双手爬行的状态。示例性的,处于爬行状态的虚拟角色徒手在爬行区域中爬行。示例性的,当虚拟角色处于爬行状态,虚拟角色手中不会持有虚拟战斗道具。示例性的,当虚拟角色处于爬行状态,用户只能通过触发移动控件,控制虚拟角色在爬行区域中爬行,不能通过触发射击控件控制虚拟角色进行射击,也不能通过触发开镜控件控制虚拟角色进行开镜瞄准。
示例性的,当虚拟角色靠近爬行区域时,客户端判断虚拟角色想要到爬行区域爬行,则控制虚拟角色停止战斗状态收起虚拟战斗道具,并控制虚拟角色移动至爬行区域进入爬行状态。
距离阈值用于判断虚拟角色与爬行区域之间的距离。当虚拟角色与爬行区域之间的距离小于距离阈值时,确定虚拟角色靠近爬行区域。示例性的,客户端获取虚拟角色在虚拟环境中的位置坐标,和爬行区域在虚拟环境中的位置坐标,计算两个坐标的直线距离,并判断直线距离是否小于距离阈值。示例性的,爬行区域的位置坐标可以是爬行区域的中心点。爬行区域的位置坐标也可以是在虚拟环境的表面上的二维区域范围坐标,例如,矩形区域,客户端计算虚拟角色到该二维区域范围最近的直线距离。爬行区域的位置坐标也可以是在虚拟环境中的三维空间范围坐标,例如,长方体区域,客户端计算虚拟角色到该三维空间范围的直线距离。
示例性的,本实施例还给出了一种利用碰撞盒检测虚拟角色靠近爬行区域的示例性实施例,如图7所示,步骤302还包括步骤3021。
步骤3021,响应于虚拟角色与第一碰撞盒产生第一碰撞,控制虚拟角色从战斗状态切换为爬行状态,第一碰撞是虚拟角色进入第一碰撞盒产生的碰撞。
示例性的,爬行区域上设置有第一碰撞盒,第一碰撞盒用于检测虚拟角色靠近爬行区域。
碰撞盒是设置在爬行区域上的三维盒子。示例性的,碰撞盒是不可见的盒子,即,在虚拟环境画面中用户看不到碰撞盒。示例性的,碰撞盒的大小和形状根据爬行区域的大小和形状设置。例如,碰撞盒的大小和形状与爬行区域的大小和形状相同。或,碰撞盒的大小略小于爬行区域的大小。或,碰撞盒的大小略大于爬行区域的大小,使碰撞盒包裹爬行区域。
示例性的,为了简化运算过程,碰撞盒通常被设置为规则形状,例如,正方体、长方体、球体、椎体、圆柱体等。示例性的,碰撞盒被设置为略大于爬行区域,使碰撞盒包裹爬行区域。
示例性的,碰撞盒可以检测虚拟环境中的碰撞,当有其他虚拟模型与碰撞盒的表面发生碰撞时,碰撞盒会生成碰撞信息,碰撞信息包括:该虚拟模型与碰撞盒发生碰撞的方式、该虚拟模型的信息、碰撞点、碰撞时间中的至少一种。其中,虚拟模型与碰撞盒发生碰撞的方式包括:虚拟模型从碰撞盒的外部与碰撞盒发生碰撞,即,虚拟模型进入碰撞盒;虚拟模型从碰撞盒的内部与碰撞盒发生碰撞,即,虚拟模型退出碰撞盒。虚拟模型的信息包括:虚拟模型的类型、虚拟模型的大小、虚拟模型的材质、虚拟角色的帐号、虚拟角色的状态中的至少一种。示例性的,虚拟角色在虚拟环境中具有三维的虚拟模型,当虚拟角色的虚拟模型与碰撞盒发生碰撞时,碰撞盒获取到碰撞信息,根据碰撞信息确定虚拟角色进入碰撞盒或退出碰撞盒。
第一碰撞盒是设置在爬行区域上的碰撞盒。第一碰撞是虚拟角色从第一碰撞盒的外部与第一碰撞盒发生的碰撞。示例性的,客户端根据第一碰撞确定虚拟角色进入第一碰撞盒。
例如,如图8所示,在爬行区域:直梯701的外部设置有第一碰撞盒702,第一碰撞盒702呈长方体,第一碰撞盒702包裹住直梯701,当虚拟角色的三维虚拟模型与第一碰撞盒702发生碰撞,客户端确定虚拟角色与爬行区域的距离小于距离阈值。
步骤303,显示第二用户界面,第二用户界面包括第二虚拟环境画面,第二虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面,第二虚拟环境画面包括:位于爬行区域的虚拟角色。
当虚拟角色靠近爬行区域时,客户端控制虚拟角色停止战斗状态、进入爬行区域并切换为爬行状态,此时,客户端上显示第二用户界面,第二用户界面上显示第二虚拟环境画面,第二虚拟环境画面中的虚拟角色位于爬行区域上。
示例性的,处于爬行状态的虚拟角色,与处于战斗状态的虚拟角色在用户界面上会有所不同,例如,爬行状态时,用户界面上不会显示射击控件、开镜控件,或,用户界面上显示的射击控件、开镜控件不能接收用户的触发操作。或,处于战斗状态的虚拟角色持有虚拟战斗道具,处于爬行状态的虚拟角色为徒手。
示例性的,当虚拟角色处于爬行状态,虚拟环境画面上不会显示出虚拟角色,即,当虚拟角色处于爬行状态,客户端将虚拟角色的三维虚拟模型的材质设置为透明,此时,在用户界面上就不会显示出虚拟角色。示例性的,当虚拟角色处于爬行状态时,虚拟环境画面上也可以只显示虚拟角色的部分三维虚拟模型,例如,只显示虚拟角色的手部。
例如,如图9所示,是本实施例给出的一种第二用户界面801,在第二用户界面801包括第二虚拟环境画面,第二虚拟环境画面包括位于爬行区域802的虚拟角色。示例性的,当虚拟角色处于爬行状态时,虚拟环境画面上不会显示出虚拟角色,但由于摄像机是跟随虚拟角色进行移动的,则用户可以根据摄像机拍摄到的虚拟环境画面来确定虚拟角色是位于爬行区域802上的。
步骤305,响应于虚拟角色退出爬行区域,控制虚拟角色从爬行状态切换为战斗状态。
当虚拟角色进入爬行区域后,虚拟角色在爬行区域中爬行移动,当虚拟角色移动到爬行区域边缘时,虚拟角色退出爬行区域,当虚拟角色退出爬行区域时,客户端控制虚拟角色从爬行状态切换回战斗状态。从而使虚拟角色在离开爬行区域后,可以恢复到进入爬行区域之前的状态,省略了用户重新控制虚拟角色进入战斗状态的操作。
示例性的,虚拟角色退出爬行区域是指,虚拟角色的三维虚拟模型上的至少一个点,超出了爬行区域所在的范围。
示例性的,如图7所示,还给出了一种判断虚拟角色退出爬行区域的示例性实施例,步骤305之前还包括步骤304。
步骤304,响应于虚拟角色与第二碰撞盒产生第二碰撞,确定虚拟角色退出爬行区域,第二碰撞是虚拟角色退出第二碰撞盒产生的碰撞。
示例性的,爬行区域上设置有第二碰撞盒,第二碰撞盒用于检测虚拟角色退出爬行区域。
示例性的,第一碰撞盒和第二碰撞盒可以是同一个碰撞盒,也可以是不同碰撞盒。即,爬行区域上可以设置有两个碰撞盒,一个碰撞盒检测虚拟角色进入爬行区域,另一个碰撞盒用于检测虚拟角色退出爬行区域。示例性的,第一碰撞盒和第二碰撞盒是同一碰撞盒。
第二碰撞是虚拟角色从第二碰撞盒的内部与第二碰撞盒发生的碰撞。当虚拟角色与第二碰撞盒发生第二碰撞时,客户端确认虚拟角色退出爬行区域。示例性的,当虚拟角色的三维虚拟模型与第二碰撞盒发生第二碰撞,第二碰撞盒生成碰撞信息,客户端根据碰撞信息确定虚拟角色退出第二碰撞盒,即,确认虚拟角色退出爬行区域。
例如,如图8所示,第二碰撞盒和第一碰撞盒702是同一个碰撞盒。当虚拟角色从直梯701的底部爬梯到达直梯701的顶部时,虚拟角色的三维虚拟模型会与碰撞盒的侧面发生第一碰撞,客户端确认虚拟角色进入爬行区域,进入爬行状态,当虚拟角色在爬行区域中移动到顶部,虚拟角色的三维虚拟模型与碰撞盒的顶部发生第二碰撞,客户端确认虚拟角色退出爬行区域,将虚拟角色重新切换回战斗状态。示例性的,虚拟角色从底部进入爬行区域后,也可以从底部离开爬行区域,从底部离开爬行区域时,虚拟角色的三维虚拟模型会与碰撞盒的底部发生碰撞。
综上所述,本实施例提供的方法,通过当虚拟角色处于战斗状态时,客户端接收到爬行指令,则客户端自动控制虚拟角色结束战斗状态,并控制虚拟角色进入爬行区域进行爬行。使用户不需要先进行退出战斗状态的操作,再控制虚拟角色进入爬行状态,减少用户控制虚拟角色进入爬行状态的操作,提高爬行操作的人机交互效率。
本实施例提供的方法,通过在爬行区域的入口处设置碰撞盒,用碰撞盒检测虚拟角色的位置,当虚拟角色与碰撞盒发生碰撞时,虚拟角色即位于爬行区域的入口附近,使客户端在检测到虚拟角色位于爬行区域入口附近时,自动控制虚拟角色进入爬行区域爬行,减少进入爬行状态的操作,提高人机交互效率。
本实施例提供的方法,通过在虚拟机角色退出爬行状态时,自动控制虚拟角色恢复战斗状态,使虚拟角色在退出爬行区域时,不需要进行其他操作就可以恢复战斗状态,减少用户操作,提高人机交互效率。
本实施例提供的方法,通过在爬行区域的出口处设置碰撞盒,用碰撞盒检测虚拟角色的位置,当虚拟角色与碰撞盒发生碰撞时,虚拟角色即位于爬行区域的出口附近,使客户端在检测到虚拟角色位于爬行区域出口附近时,自动控制虚拟角色退出爬行区域,减少退出爬行状态的操作,提高人机交互效率。
示例性的,给出一种战斗状态是虚拟角色使用虚拟战斗道具进行连续射击的状态的示例性实施例。示例性的,当虚拟角色退出爬行区域时,客户端会恢复虚拟角色的战斗状态。
图10是本申请一个示例性实施例提供的虚拟角色的控制方法的方法流程图。以该方法的执行主体为图1所示出的终端上运行的客户端来举例说明,该客户端是支持虚拟环境的客户端,基于图4所示的示例性实施例,步骤302包括步骤3023。
步骤3023,响应于虚拟角色与爬行区域的距离小于距离阈值,且虚拟角色处于射击状态,控制虚拟角色停止射击,收起虚拟战斗道具,以及进入爬行状态;射击状态是虚拟角色使用虚拟战斗道具的射击功能的状态。
当虚拟角色靠近爬行区域后,客户端判断虚拟角色是否处于射击状态,若处于射击状态,则控制虚拟角色停止射击,收起虚拟战斗道具,进入爬行状态。
示例性的,射击状态是虚拟角色使用虚拟战斗道具进行连续射击的状态。例如,用户使用射击控件控制虚拟角色射击,用户点击一次射击控件,虚拟角色就射出一发子弹,若用户长按射击控件,虚拟角色就会连续进行射击。射击状态是指用户触发射击控件控制虚拟角色射出子弹的状态。由于,一次射击的时间过短,射击状态维持的时间过短,因此,本实施例中的射击状态是指用户控制虚拟角色进行连续射击的状态。
当客户端确定虚拟角色处于射击状态,如果采用相关技术中的方法,虚拟角色将无法进入爬行区域进行爬行,而是必须停止射击状态,之后才能进入爬行区域。而本实施例提供的方法,当虚拟角色处于射击状态时靠近爬行区域,客户端会自动控制虚拟角色停止射击状态,即使虚拟角色靠近爬行区域时用户依旧长按着射击控件,客户端也不会控制虚拟角色进行射击,而是控制虚拟角色进入爬行区域进行爬行。
示例性的,虚拟角色收起虚拟战斗道具,即,虚拟角色双手不会再持有虚拟战斗道具。虚拟角色可以将虚拟战斗道具放到背包中,或,将虚拟战斗道具背在背后。
示例性的,虚拟角色使用射击功能,会控制虚拟战斗道具射出子弹,客户端会播放射击音效,当子弹击中虚拟环境中的表面时,会在表面留下弹孔,当子弹击中虚拟环境中的其他虚拟角色时,会降低其他虚拟角色的生命值。
示例性的,如图11所示,还给出了一种判断虚拟角色是否处于射击状态的示例性实施例,步骤3023之前还包括步骤3022。
步骤3022,响应于接收到射击控件上触发的连续射击指令,确定虚拟角色处于射击状态,连续射击指令用于控制虚拟角色使用虚拟战斗道具进行连续射击。
示例性的,第一用户界面还包括射击控件,射击控件用于控制虚拟角色使用虚拟战斗道具进行射击。
射击控件是一种UI控件,用于控制虚拟角色使用虚拟战斗道具进行射击。示例性的,第一用户界面上包括至少一个射击控件,用户可以通过触发任意一个射击控件控制虚拟角色进行射击。
示例性的,连续射击指令是用户通过连续射击操作触发射击控件生成的指令。示例性的,连续射击操作可以是任意一种触发射击控件的操作,例如,连续射击操作是:点击、双击、长按、滑动、按压中的至少一种。示例性的,连续射击操作可以控制虚拟战斗道具在一段时间内不停射出子弹。例如,连续射击操作可以控制虚拟战斗道具在一段时间内以第一频率射出子弹。
示例性的,如图11所示,还给出了一种在虚拟角色退出爬行区域后,控制虚拟角色恢复射击状态的示例性实施例,步骤305还包括步骤3051。
步骤3051,响应于虚拟角色退出爬行区域,控制虚拟角色退出爬行状态,控制虚拟角色装备虚拟战斗道具,进入射击状态,射击状态是虚拟角色使用虚拟战斗道具的射击功能的状态。
当虚拟角色退出爬行区域,客户端自动控制虚拟角色重新装备上虚拟战斗道具,并控制虚拟角色重新使用虚拟战斗道具进行射击。
示例性的,如图12所示,还给出了一种控制虚拟角色进入射击状态的示例性实施例,步骤3051还包括步骤3051-1和步骤3051-2。
步骤3051-1,响应于虚拟角色退出爬行区域,控制虚拟角色退出爬行状态,控制虚拟角色装备虚拟战斗道具。
示例性的,当虚拟角色退出爬行区域时,客户端控制虚拟角色退出爬行状态,并恢复到持枪状态。然后检测用户是否还在进行连续射击操作。
步骤3051-2,响应于连续射击指令,控制虚拟角色使用虚拟战斗道具进行连续射击,射击状态是虚拟角色使用虚拟战斗道具的射击功能的状态。示例性的,连续射击指令是用户通过触发射击控件生成的指令。连续射击指令是用户的连续射击操作触发的指令。
示例性的,当虚拟角色退出爬行区域后,客户端先控制虚拟角色装备上虚拟战斗道具,此时,若用户还在进行连续射击操作,客户端根据连续射击操作生成的连续射击指令,则客户端控制虚拟角色使用虚拟战斗道具进行连续射击。
当用户按着射击控件使虚拟角色处于连续射击的状态,然后进入爬行区域时,客户端会自动停止射击状态,进入爬行状态,在爬行状态中,用户可以一直按着射击控件不松手,当用户退出爬行区域后,用户若依旧按着射击控件,就可以无缝衔接爬行状态和射击状态,使虚拟角色一退出爬行区域就是用虚拟战斗道具进行射击,简化用户的射击操作。
综上所述,本实施例提供的方法,战斗状态包括射击状态,当虚拟角色处于射击状态时,自动控制虚拟角色停止射击状态并收起虚拟道具;减少用户控制虚拟角色进入爬行状态的操作,提高爬行操作的人机交互效率。
本实施例提供的方法,通过在虚拟角色靠近爬行区域时,自动控制虚拟角色进入爬行区域爬行,使用户不需要进行任何操作就可以进入爬行状态,减少进入爬行状态的操作,提高人机交互效率。
示例性的,给出一种战斗状态是虚拟角色使用虚拟战斗道具进行开镜瞄准的状态的示例性实施例。示例性的,当虚拟角色退出爬行区域时,客户端会恢复虚拟角色的战斗状态。
图13是本申请一个示例性实施例提供的虚拟角色的控制方法的方法流程图。以该方法的执行主体为图1所示出的终端上运行的客户端来举例说明,该客户端是支持虚拟环境的客户端,基于图4所示的示例性实施例,步骤302包括步骤3024。
步骤3024,响应于虚拟角色与爬行区域的距离小于距离阈值,且虚拟角色处于开镜瞄准状态,控制虚拟角色退出开镜瞄准状态,收起虚拟战斗道具,以及进入爬行状态;开镜瞄准状态是虚拟角色使用虚拟战斗道具的开镜瞄准功能的状态。
开镜瞄准状态是虚拟角色使用虚拟战斗道具上的瞄准镜进行瞄准的状态。示例性的,开镜瞄准状态可以使虚拟环境画面上放大显示瞄准的虚拟环境区域,使用户能够更清楚地看到虚拟环境。示例性的,开镜瞄准状态根据瞄准镜的不同会以不同的放大倍数对虚拟环境进行放大显示。
示例性的,用户可以通过触发开镜控件,控制虚拟角色进入开镜瞄准状态。示例性的,当虚拟角色进入开镜瞄准状态,虚拟环境界面上会显示瞄准的准星,以辅助虚拟角色进行瞄准射击。
例如,如图14所示,在用户界面上显示有开镜控件1301,用户触发开镜控件1301后,可以进入开镜瞄准状态,此时,用户界面上显示准星1302。示例性的,相关技术中,虚拟角色若处于开镜瞄准状态,虚拟角色是无法进入爬行状态的,用户只能通过再次触发开镜控件1301来退出开镜瞄准状态,然后才能够进入爬行区域爬行。而本实施例提供的方法,若虚拟角色以开镜瞄准状态进入爬行区域,客户端会控制虚拟角色自动退出开镜瞄准状态,并收起虚拟战斗道具,进入爬行区域爬行。
示例性的,如图15所示,给出一种控制虚拟角色重新进入开镜瞄准状态的示例性实施例,步骤305还包括步骤3052。
步骤3052,响应于虚拟角色退出爬行区域,控制虚拟角色退出爬行状态,控制虚拟角色装备虚拟战斗道具,进入开镜瞄准状态,开镜瞄准状态是虚拟角色使用虚拟战斗道具的开镜瞄准功能的状态。
当虚拟角色退出爬行区域,客户端会自动为虚拟角色装备虚拟战斗道具,并控制虚拟角色自动进入开镜瞄准状态,使虚拟角色在进入爬行状态和退出爬行状态前后的状态一致,减少虚拟角色在退出爬行状态后,用户控制虚拟角色再次进入开镜瞄准状态的操作,使虚拟角色在退出爬行状态后,就可以再次以开镜瞄准状态进行准确射击。
综上所述,本实施例将本申请提供的方法,战斗状态包括开镜瞄准状态,当虚拟角色处于开镜瞄准状态时,自动控制虚拟角色退出开镜瞄准状态并收起虚拟道具,减少用户控制虚拟角色进入爬行状态的操作,提高爬行操作的人机交互效率。
本实施例将本申请提供的方法,通过在虚拟机角色退出爬行状态时,自动控制虚拟角色恢复开镜瞄准状态,使虚拟角色在退出爬行区域时,不需要进行其他操作就可以恢复开镜瞄准状态,减少用户操作,提高人机交互效率。
示例性的,给出一种在第一人称射击游戏中使用本申请提供的虚拟角色的控制方法的示例性实施例。
图16是本申请一个示例性实施例提供的虚拟角色的控制方法的方法流程图。以该方法的执行主体为图1所示出的终端上运行的客户端来举例说明,该客户端是支持虚拟环境的客户端。该方法包括以下步骤。
步骤1501,客户端进入有垂直梯子的地图中。
示例性的,FPS游戏中为用户提供了多种地图,不同地图对应有不同的虚拟环境,用户可以在不同的虚拟环境中进行游戏。示例性的,部分地图中设置有爬行区域,例如,如图17所示,用户在进入对局前,可以选择本次对局的地图,用户可以在地图选择界面1600中选择设置有爬行区域(梯子)的地图,例如,雪山之巅地图1601、坠机之地地图1602、废旧场地图1603或实战小屋地图1604。示例性的,用户选择实战小屋地图1604为本次对局的地图。
步骤1502,客户端判断虚拟角色是否靠近梯子。若靠近梯子,则进行步骤1503;否则进行步骤1501。
例如,如图6所示,虚拟环境中有爬行区域503(梯子),用户可以控制虚拟角色靠近梯子。
步骤1503,客户端判断虚拟角色当前的状态。
当虚拟角色靠近梯子时,客户端获取虚拟角色当前的状态。例如,如图18所示,虚拟角色502靠近梯子。
步骤1504,客户端判断虚拟角色是否处于开镜状态,若处于开镜状态,则进行步骤1505,否则进行步骤1508。
步骤1505,客户端控制虚拟角色自动落镜进入梯子。
例如,如图14所示,虚拟角色靠近梯子时处于开镜状态,则客户端控制虚拟角色自动落镜进入梯子进行爬行,例如,如图9所示,客户端控制虚拟角色落镜并进入梯子。
步骤1506,客户端判断虚拟角色是否达到梯子顶端,若是,则进行步骤1507,否则进行步骤1505。
步骤1507,客户端控制虚拟角色离开梯子。
当虚拟角色到达梯子顶端时,客户端自动控制虚拟角色从梯子上下来。例如,如图19所示,虚拟角色502通过爬梯子,快速到达了高处,占领了射击的优势地点。
步骤1508,客户端判断虚拟角色是否在开火中,若是,则进行步骤1509,否则进行步骤1510。
步骤1509,客户端控制虚拟角色停止开火。
步骤1510,客户端控制虚拟角色进入梯子。
步骤1511,客户端判断虚拟角色是否到达梯子的顶端,若是,则进行步骤1512;否则进行步骤1510。
步骤1512,客户端控制虚拟角色离开梯子。
步骤1513,客户端判断用户是否还按着开火键,若用户还按着开火键,则进行步骤1514;否则结束流程,不会控制虚拟角色恢复开火状态。
步骤1514,客户端控制虚拟角色恢复开火状态。
综上所述,本实施例将本申请提供的方法,当虚拟角色靠近梯子时,客户端先判断虚拟角色是否处于开镜状态,再判断虚拟角色是否处于射击状态,若处于开镜状态,则控制虚拟角色落镜并自动进入梯子;若处于射击状态,则控制虚拟角色停止射击并进入梯子。在虚拟角色到达梯子顶端时,控制虚拟角色退出梯子,当虚拟角色退出梯子后,客户端判断用户是否还按着开火键,若用户还按着开火键则控制虚拟角色恢复开火状态。从而减少虚拟角色进入梯子爬行的操作,提高爬行操作的人机交互效率。
上述实施例是基于游戏的应用场景对上述方法进行描述,下面以军事仿真的应用场景对上述方法进行示例性说明。
仿真技术是应用软件和硬件通过模拟真实世界的实验,反映系统行为或过程的模型技术。
军事仿真程序是利用仿真技术针对军事应用专门构建的程序,对海、陆、空等作战元素、武器装备性能以及作战行动等进行量化分析,进而精确模拟战场环境,呈现战场态势,实现作战体系的评估和决策的辅助。
在一个示例中,士兵在军事仿真程序所在的终端建立一个虚拟的战场,并以组队的形式进行对战。士兵控制战场虚拟环境中的虚拟对象在战场虚拟环境下进行站立、蹲下、坐下、仰卧、俯卧、侧卧、行走、奔跑、攀爬、驾驶、射击、投掷、攻击、受伤、侦查、近身格斗等动作中的至少一种操作。战场虚拟环境包括:平地、山川、高原、盆地、沙漠、河流、湖泊、海洋、植被中的至少一种自然形态,以及建筑物、交通工具、废墟、训练场等地点形态。虚拟对象包括:虚拟人物、虚拟动物、动漫人物等,每个虚拟对象在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
基于上述情况,在一个示例中,士兵A控制虚拟对象a在虚拟环境中移动,当士兵A控制虚拟对象a在战斗状态下靠近了梯子时,客户端控制虚拟角色a自动结束战斗状态,进入梯子进行爬梯。当虚拟角色a到达梯子顶端时,控制虚拟角色a退出梯子,并自动回复战斗状态。
综上所述,在本实施例中,将上述虚拟角色的控制方法应用在军事仿真程序中,士兵控制虚拟对象在战斗状态下靠近梯子,客户端会自动结束虚拟对象的战斗状态控制虚拟对象上梯子进行爬梯,简化了士兵控制虚拟对象进行爬梯的操作,减少士兵控制虚拟对象上梯的时间,提高人机交互效率,使得士兵得到更好的训练。
以下为本申请的装置实施例,对于装置实施例中未详细描述的细节,可参考上述方法实施例。
图20是本申请一个示例性实施例提供的虚拟角色的控制装置的框图。所述装置包括:
显示模块1901,用于显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面,所述第一虚拟环境画面包括:处于战斗状态的所述虚拟角色和爬行区域,所述战斗状态是所述虚拟角色持续使用虚拟战斗道具的至少一种功能的状态,所述爬行区域是所述虚拟角色采用爬行方式移动的区域;
检测模块1902,用于检测所述虚拟角色与所述爬行区域的距离;
控制模块1903,用于响应于所述虚拟角色与所述爬行区域的距离小于距离阈值,控制所述虚拟角色从所述战斗状态切换为爬行状态,所述爬行状态是所述虚拟角色进入所述爬行区域采用爬行方式移动的状态;
所述显示模块1901,用于显示第二用户界面,所述第二用户界面包括第二虚拟环境画面,所述第二虚拟环境画面是以所述虚拟角色的视角对所述虚拟环境进行观察的画面,所述第二虚拟环境画面包括:位于所述爬行区域的所述虚拟角色。
在一个可选的实施例中,所述战斗状态包括:射击状态和开镜瞄准状态中的至少一种;
所述控制模块1903,还用于响应于所述虚拟角色处于所述射击状态,控制所述虚拟角色停止射击,收起所述虚拟战斗道具,以及进入所述爬行状态;所述射击状态是所述虚拟角色使用所述虚拟战斗道具的射击功能的状态;
或,
所述控制模块1903,还用于响应于所述虚拟角色处于所述开镜瞄准状态,控制所述虚拟角色退出所述开镜瞄准状态,收起所述虚拟战斗道具,以及进入所述爬行状态;所述开镜瞄准状态是所述虚拟角色使用所述虚拟战斗道具的开镜瞄准功能的状态。
在一个可选的实施例中,所述第一用户界面还包括射击控件,所述射击控件用于控制所述虚拟角色使用所述虚拟战斗道具进行射击;所述装置还包括:
交互模块1904,用于触发所述射击控件生成连续射击指令;
确定模块1905,用于响应于所述射击控件上触发的所述连续射击指令,确定所述虚拟角色处于所述射击状态。
在一个可选的实施例中,所述爬行区域上设置有第一碰撞盒,所述第一碰撞盒用于检测所述虚拟角色靠近所述爬行区域;
所述检测模块1902,还用于检测所述虚拟角色与所述第一碰撞盒产生的第一碰撞;
所述控制模块1903,还用于响应于所述虚拟角色与所述第一碰撞盒产生第一碰撞,控制所述虚拟角色从所述战斗状态切换为爬行状态,所述第一碰撞是所述虚拟角色进入所述第一碰撞盒产生的碰撞。
在一个可选的实施例中,所述检测模块1902,还用于检测所述虚拟角色退出所述爬行区域;
所述控制模块1903,还用于响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色从所述爬行状态切换为所述战斗状态。
在一个可选的实施例中,所述战斗状态包括:所述射击状态和所述开镜瞄准状态中的至少一种;
所述控制模块1903,还用于响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具,进入所述射击状态,所述射击状态是所述虚拟角色使用所述虚拟战斗道具的射击功能的状态;
或,
所述控制模块1903,还用于响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具,进入所述开镜瞄准状态,所述开镜瞄准状态是所述虚拟角色使用所述虚拟战斗道具的开镜瞄准功能的状态。
在一个可选的实施例中,所述装置还包括:
所述控制模块1903,还用于响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具;响应于连续射击指令,控制所述虚拟角色使用所述虚拟战斗道具进行连续射击。
在一个可选的实施例中,所述爬行区域上设置有第二碰撞盒,所述第二碰撞盒用于检测所述虚拟角色退出所述爬行区域;所述装置还包括:
所述检测模块1902,还用于检测所述虚拟角色与所述第二碰撞盒产生的第二碰撞;
确定模块1905,用于响应于所述虚拟角色与所述第二碰撞盒产生第二碰撞,确定所述虚拟角色退出所述爬行区域,所述第二碰撞是所述虚拟角色退出所述第二碰撞盒产生的碰撞。
在一个可选的实施例中,所述爬行区域是所述虚拟环境中设置有直梯的区域,所述直梯与水平面的倾斜角大于阈值。
需要说明的是:上述实施例提供的虚拟角色的控制装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟角色的控制装置与虚拟角色的控制方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图21示出了本申请一个示例性实施例提供的终端2000的结构框图。该终端2000可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端2000还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其它名称。
通常,终端2000包括有:处理器2001和存储器2002。
处理器2001可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器2001可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器2001也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器2001可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器2001还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器2002可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器2002还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器2002中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器2001所执行以实现本申请中方法实施例提供的虚拟角色的控制方法。
在一些实施例中,终端2000还可选包括有:外围设备接口2003和至少一个外围设备。处理器2001、存储器2002和外围设备接口2003之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口2003相连。具体地,外围设备包括:射频电路2004、触摸显示屏2005、摄像头2006、音频电路2007、定位组件2008和电源2009中的至少一种。
外围设备接口2003可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器2001和存储器2002。在一些实施例中,处理器2001、存储器2002和外围设备接口2003被集成在同一芯片或电路板上;在一些其它实施例中,处理器2001、存储器2002和外围设备接口2003中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路2004用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路2004通过电磁信号与通信网络以及其它通信设备进行通信。射频电路2004将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路2004包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路2004可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路2004还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏2005用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏2005是触摸显示屏时,显示屏2005还具有采集在显示屏2005的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器2001进行处理。此时,显示屏2005还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏2005可以为一个,设置终端2000的前面板;在另一些实施例中,显示屏2005可以为至少两个,分别设置在终端2000的不同表面或呈折叠设计;在再一些实施例中,显示屏2005可以是柔性显示屏,设置在终端2000的弯曲表面上或折叠面上。甚至,显示屏2005还可以设置成非矩形的不规则图形,也即异形屏。显示屏2005可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件2006用于采集图像或视频。可选地,摄像头组件2006包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件2006还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路2007可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器2001进行处理,或者输入至射频电路2004以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端2000的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器2001或射频电路2004的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路2007还可以包括耳机插孔。
定位组件2008用于定位终端2000的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件2008可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源2009用于为终端2000中的各个组件进行供电。电源2009可以是交流电、直流电、一次性电池或可充电电池。当电源2009包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端2000还包括有一个或多个传感器2010。该一个或多个传感器2010包括但不限于:加速度传感器2011、陀螺仪传感器2012、压力传感器2013、指纹传感器2014、光学传感器2015以及接近传感器2016。
加速度传感器2011可以检测以终端2000建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器2011可以用于检测重力加速度在三个坐标轴上的分量。处理器2001可以根据加速度传感器2011采集的重力加速度信号,控制触摸显示屏2005以横向视图或纵向视图进行用户界面的显示。加速度传感器2011还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器2012可以检测终端2000的机体方向及转动角度,陀螺仪传感器2012可以与加速度传感器2011协同采集用户对终端2000的3D动作。处理器2001根据陀螺仪传感器2012采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器2013可以设置在终端2000的侧边框和/或触摸显示屏2005的下层。当压力传感器2013设置在终端2000的侧边框时,可以检测用户对终端2000的握持信号,由处理器2001根据压力传感器2013采集的握持信号进行左右手识别或快捷操作。当压力传感器2013设置在触摸显示屏2005的下层时,由处理器2001根据用户对触摸显示屏2005的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器2014用于采集用户的指纹,由处理器2001根据指纹传感器2014采集到的指纹识别用户的身份,或者,由指纹传感器2014根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器2001授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器2014可以被设置终端2000的正面、背面或侧面。当终端2000上设置有物理按键或厂商Logo时,指纹传感器2014可以与物理按键或厂商Logo集成在一起。
光学传感器2015用于采集环境光强度。在一个实施例中,处理器2001可以根据光学传感器2015采集的环境光强度,控制触摸显示屏2005的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏2005的显示亮度;当环境光强度较低时,调低触摸显示屏2005的显示亮度。在另一个实施例中,处理器2001还可以根据光学传感器2015采集的环境光强度,动态调整摄像头组件2006的拍摄参数。
接近传感器2016,也称距离传感器,通常设置在终端2000的前面板。接近传感器2016用于采集用户与终端2000的正面之间的距离。在一个实施例中,当接近传感器2016检测到用户与终端2000的正面之间的距离逐渐变小时,由处理器2001控制触摸显示屏2005从亮屏状态切换为息屏状态;当接近传感器2016检测到用户与终端2000的正面之间的距离逐渐变大时,由处理器2001控制触摸显示屏2005从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图21中示出的结构并不构成对终端2000的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述任意示例性实施例所提供的虚拟角色的控制方法。
本申请还提供了一种计算机可读存储介质,所述可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述任意示例性实施例所提供的虚拟角色的控制方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (13)
1.一种虚拟角色的控制方法,其特征在于,所述方法包括:
显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面,所述第一虚拟环境画面包括:处于战斗状态的所述虚拟角色和爬行区域,所述战斗状态是所述虚拟角色持续使用虚拟战斗道具的至少一种功能的状态,所述爬行区域是所述虚拟角色采用爬行方式移动的区域;
响应于所述虚拟角色与所述爬行区域的距离小于距离阈值,响应于所述虚拟角色处于开镜瞄准状态,控制所述虚拟角色退出所述开镜瞄准状态,收起所述虚拟战斗道具,以及进入所述爬行状态;所述开镜瞄准状态是所述虚拟角色使用所述虚拟战斗道具的开镜瞄准功能的状态,所述爬行状态是所述虚拟角色进入所述爬行区域采用爬行方式移动的状态;
显示第二用户界面,所述第二用户界面包括第二虚拟环境画面,所述第二虚拟环境画面是以所述虚拟角色的视角对所述虚拟环境进行观察的画面,所述第二虚拟环境画面包括:位于所述爬行区域的所述虚拟角色;
响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具,进入所述开镜瞄准状态,所述开镜瞄准状态是所述虚拟角色使用所述虚拟战斗道具的开镜瞄准功能的状态。
2.根据权利要求1所述的方法,其特征在于,所述战斗状态还包括射击状态;
所述方法还包括:
响应于所述虚拟角色处于所述射击状态,控制所述虚拟角色停止射击,收起所述虚拟战斗道具,以及进入所述爬行状态;所述射击状态是所述虚拟角色使用所述虚拟战斗道具的射击功能的状态。
3.根据权利要求2所述的方法,其特征在于,所述第一用户界面还包括射击控件,所述射击控件用于控制所述虚拟角色使用所述虚拟战斗道具进行射击;所述方法还包括:
响应于所述射击控件上触发的连续射击指令,确定所述虚拟角色处于所述射击状态,所述连续射击指令用于控制所述虚拟角色使用所述虚拟战斗道具进行连续射击。
4.根据权利要求1至3任一所述的方法,其特征在于,所述方法还包括:
响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色从所述爬行状态切换为所述战斗状态。
5.根据权利要求4所述的方法,其特征在于,所述战斗状态还包括:射击状态;
所述方法还包括:
响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具,进入所述射击状态,所述射击状态是所述虚拟角色使用所述虚拟战斗道具的射击功能的状态。
6.根据权利要求5所述的方法,其特征在于,所述响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具,进入所述射击状态,包括:
响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具;
响应于连续射击指令,控制所述虚拟角色使用所述虚拟战斗道具进行连续射击。
7.根据权利要求4所述的方法,其特征在于,所述爬行区域上设置有第二碰撞盒,所述第二碰撞盒用于检测所述虚拟角色退出所述爬行区域;所述方法还包括:
响应于所述虚拟角色与所述第二碰撞盒产生第二碰撞,确定所述虚拟角色退出所述爬行区域,所述第二碰撞是所述虚拟角色退出所述第二碰撞盒产生的碰撞。
8.根据权利要求1至3任一所述的方法,其特征在于,所述爬行区域是所述虚拟环境中设置有直梯的区域,所述直梯与水平面的倾斜角大于阈值。
9.一种虚拟角色的控制装置,其特征在于,所述装置包括:
显示模块,用于显示第一用户界面,所述第一用户界面包括第一虚拟环境画面,所述第一虚拟环境画面是以虚拟角色的视角对虚拟环境进行观察的画面,所述第一虚拟环境画面包括:处于战斗状态的所述虚拟角色和爬行区域,所述战斗状态是所述虚拟角色持续使用虚拟战斗道具的至少一种功能的状态,所述爬行区域是所述虚拟角色采用爬行方式移动的区域;
检测模块,用于检测所述虚拟角色与所述爬行区域的距离;
控制模块,用于响应于所述虚拟角色与所述爬行区域的距离小于距离阈值,响应于所述虚拟角色处于开镜瞄准状态,控制所述虚拟角色退出所述开镜瞄准状态,收起所述虚拟战斗道具,以及进入所述爬行状态;所述开镜瞄准状态是所述虚拟角色使用所述虚拟战斗道具的开镜瞄准功能的状态,所述爬行状态是所述虚拟角色进入所述爬行区域采用爬行方式移动的状态;
所述显示模块,用于显示第二用户界面,所述第二用户界面包括第二虚拟环境画面,所述第二虚拟环境画面是以所述虚拟角色的视角对所述虚拟环境进行观察的画面,所述第二虚拟环境画面包括:位于所述爬行区域的所述虚拟角色;
所述控制模块,用于响应于所述虚拟角色退出所述爬行区域,控制所述虚拟角色退出所述爬行状态,控制所述虚拟角色装备所述虚拟战斗道具,进入所述开镜瞄准状态,所述开镜瞄准状态是所述虚拟角色使用所述虚拟战斗道具的开镜瞄准功能的状态。
10.根据权利要求9所述的装置,其特征在于,所述战斗状态海包括:射击状态;
所述控制模块,还用于响应于所述虚拟角色处于所述射击状态,控制所述虚拟角色停止射击,收起所述虚拟战斗道具,以及进入所述爬行状态;所述射击状态是所述虚拟角色使用所述虚拟战斗道具的射击功能的状态。
11.根据权利要求10所述的装置,其特征在于,所述第一用户界面还包括射击控件,所述射击控件用于控制所述虚拟角色使用所述虚拟战斗道具进行射击;所述装置还包括:
交互模块,用于接收触发所述射击控件的连续射击操作;
确定模块,用于响应于接收到触发所述射击控件的连续射击操作,确定所述虚拟角色处于所述射击状态。
12.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至8任一所述的虚拟角色的控制方法。
13.一种计算机可读存储介质,其特征在于,所述可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至8任一所述的虚拟角色的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010359209.2A CN111589137B (zh) | 2020-04-29 | 2020-04-29 | 虚拟角色的控制方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010359209.2A CN111589137B (zh) | 2020-04-29 | 2020-04-29 | 虚拟角色的控制方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111589137A CN111589137A (zh) | 2020-08-28 |
CN111589137B true CN111589137B (zh) | 2021-12-10 |
Family
ID=72185484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010359209.2A Active CN111589137B (zh) | 2020-04-29 | 2020-04-29 | 虚拟角色的控制方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111589137B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112354172A (zh) * | 2020-10-30 | 2021-02-12 | 努比亚技术有限公司 | 一种游戏瞄准方法、移动终端及计算机可读存储介质 |
CN112416196B (zh) * | 2020-11-19 | 2022-08-30 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、设备及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1254893A (zh) * | 1998-11-19 | 2000-05-31 | 任天堂株式会社 | 视频游戏装置和用于视频游戏的信息存储媒体 |
CN106548503A (zh) * | 2016-10-19 | 2017-03-29 | 华东师范大学 | 一种基于命令流三维角色的动画合成方法 |
CN108635853A (zh) * | 2018-03-23 | 2018-10-12 | 腾讯科技(深圳)有限公司 | 对象的控制方法和装置、存储介质、电子装置 |
CN109350964A (zh) * | 2018-09-28 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 控制虚拟角色的方法、装置、设备及存储介质 |
CN110665230A (zh) * | 2019-09-26 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 虚拟世界中的虚拟角色控制方法、装置、设备及介质 |
-
2020
- 2020-04-29 CN CN202010359209.2A patent/CN111589137B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1254893A (zh) * | 1998-11-19 | 2000-05-31 | 任天堂株式会社 | 视频游戏装置和用于视频游戏的信息存储媒体 |
CN106548503A (zh) * | 2016-10-19 | 2017-03-29 | 华东师范大学 | 一种基于命令流三维角色的动画合成方法 |
CN108635853A (zh) * | 2018-03-23 | 2018-10-12 | 腾讯科技(深圳)有限公司 | 对象的控制方法和装置、存储介质、电子装置 |
CN109350964A (zh) * | 2018-09-28 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 控制虚拟角色的方法、装置、设备及存储介质 |
CN110665230A (zh) * | 2019-09-26 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 虚拟世界中的虚拟角色控制方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111589137A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110694261B (zh) | 控制虚拟对象进行攻击的方法、终端及存储介质 | |
CN110448891B (zh) | 控制虚拟对象操作远程虚拟道具的方法、装置及存储介质 | |
CN110413171B (zh) | 控制虚拟对象进行快捷操作的方法、装置、设备及介质 | |
CN110917619B (zh) | 互动道具控制方法、装置、终端及存储介质 | |
KR102619439B1 (ko) | 가상 객체를 제어하는 방법 및 관련 장치 | |
CN110721468B (zh) | 互动道具控制方法、装置、终端及存储介质 | |
CN110585710B (zh) | 互动道具控制方法、装置、终端及存储介质 | |
CN110465098B (zh) | 控制虚拟对象使用虚拟道具的方法、装置、设备及介质 | |
CN110538459A (zh) | 在虚拟环境中投掷虚拟爆炸物的方法、装置、设备及介质 | |
CN111589150B (zh) | 虚拟道具的控制方法、装置、电子设备及存储介质 | |
CN110917618B (zh) | 在虚拟环境中控制虚拟对象的方法、装置、设备及介质 | |
CN111589149B (zh) | 虚拟道具的使用方法、装置、设备及存储介质 | |
CN110507990B (zh) | 基于虚拟飞行器的互动方法、装置、终端及存储介质 | |
CN111265873A (zh) | 虚拟道具的使用方法、装置、设备及存储介质 | |
CN110917623B (zh) | 互动信息显示方法、装置、终端及存储介质 | |
CN111330274B (zh) | 虚拟对象的控制方法、装置、设备及存储介质 | |
CN111714893A (zh) | 控制虚拟对象恢复属性值的方法、装置、终端及存储介质 | |
CN111228809A (zh) | 虚拟环境中虚拟道具的操作方法、装置、设备及可读介质 | |
CN111659119B (zh) | 虚拟对象的控制方法、装置、设备及存储介质 | |
WO2021147496A1 (zh) | 虚拟道具的使用方法、装置、设备及存储介质 | |
CN112057857A (zh) | 互动道具处理方法、装置、终端及存储介质 | |
CN111659116A (zh) | 虚拟载具的控制方法、装置、设备及介质 | |
CN112933601A (zh) | 虚拟投掷物的操作方法、装置、设备及介质 | |
CN111249726B (zh) | 虚拟环境中虚拟道具的操作方法、装置、设备及可读介质 | |
CN113713382A (zh) | 虚拟道具控制方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40027333 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |