CN110507993A - 控制虚拟对象的方法、装置、设备及介质 - Google Patents

控制虚拟对象的方法、装置、设备及介质 Download PDF

Info

Publication number
CN110507993A
CN110507993A CN201910784863.5A CN201910784863A CN110507993A CN 110507993 A CN110507993 A CN 110507993A CN 201910784863 A CN201910784863 A CN 201910784863A CN 110507993 A CN110507993 A CN 110507993A
Authority
CN
China
Prior art keywords
virtual
virtual objects
target area
control
virtual environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910784863.5A
Other languages
English (en)
Other versions
CN110507993B (zh
Inventor
刘智洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910784863.5A priority Critical patent/CN110507993B/zh
Publication of CN110507993A publication Critical patent/CN110507993A/zh
Priority to PCT/CN2020/103006 priority patent/WO2021036577A1/zh
Priority to KR1020217029447A priority patent/KR102619439B1/ko
Priority to JP2021555308A priority patent/JP2022525172A/ja
Priority to SG11202109543UA priority patent/SG11202109543UA/en
Application granted granted Critical
Publication of CN110507993B publication Critical patent/CN110507993B/zh
Priority to US17/459,037 priority patent/US20210387087A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种控制虚拟对象的方法、装置、设备及存储介质,该方法包括:显示用户界面,所述用户界面包括虚拟环境画面和交互面板区,所述虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面;接收在所述用户界面上的目标区域上的快捷操作,所述目标区域包括属于所述虚拟环境画面且不属于所述交互面板区的区域;根据所述快捷操作控制所述虚拟对象在所述虚拟环境中进行对应的活动。通过在用户界面中设置目标区域,用户可通过在目标区域中进行快捷操作来控制虚拟对象进行对应的活动,无需用户触发活动对应的UI控件,也无需用户记忆UI控件的功能和位置,即可实现根据快捷操作控制虚拟对象在虚拟环境中进行对应的活动。

Description

控制虚拟对象的方法、装置、设备及介质
技术领域
本申请涉及计算机领域,特别涉及一种控制虚拟对象的方法、装置、设备及介质。
背景技术
在基于三维虚拟环境的应用程序中,如第一人称射击类游戏,用户可以操控虚拟环境中的虚拟对象进行行走、奔跑、攀爬、射击、格斗等活动。当用户想控制虚拟对象进行不同的活动时,需要触发用户界面上对应的用户界面UI控件。
在用户界面上存在虚拟对象进行各类活动对应的UI控件,且各类活动对应的UI控件位于用户界面的不同位置处,比如,方向按键位于用户界面的左侧、奔跑按键位于用户界面的右侧等,当虚拟对象进行较多的活动时,用户界面上对应活动的UI控件的数量也将增加,用户需要记住各UI控件对应的活动或功能,同时也需要记住各UI控件对应的位置。
上述控制虚拟对象进行各类活动的操作,需要用户依靠记忆及熟练程度来实现,且用户在操作时需要花费一定的时间来确定活动对应的UI控件所在的位置,无法快速实现控制虚拟对象进行各类活动。
发明内容
本申请实施例提供了一种控制虚拟对象的方法、装置、设备及存储介质,可以解决相关技术中控制虚拟对象进行各类活动时,需要触发活动对应的UI控件,用户无法快速控制虚拟对象进行各类活动的问题。所述技术方案如下:
根据本申请的一个方面,提供了一种控制虚拟对象的方法,所述方法包括:
显示用户界面,所述用户界面包括虚拟环境画面和交互面板区,所述虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面;
接收在所述用户界面上的目标区域上的快捷操作,所述目标区域包括属于所述虚拟环境画面且不属于所述交互面板区的区域;
根据所述快捷操作控制所述虚拟对象在所述虚拟环境中进行对应的活动。
根据本申请的另一方面,提供了一种控制虚拟对象的装置,所述装置包括:
显示模块,用于显示用户界面,所述用户界面包括虚拟环境画面和交互面板区,所述虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面;
接收模块,用于接收在所述用户界面上的目标区域上的快捷操作,所述目标区域包括属于所述虚拟环境画面且不属于所述交互面板区的区域;
控制模块,用于根据所述快捷操作控制所述虚拟对象在所述虚拟环境中进行对应的活动。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的控制虚拟对象的方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的控制虚拟对象的方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过在用户界面中设置目标区域,用户可通过在目标区域中进行快捷操作来控制虚拟对象进行对应的活动,无需用户触发活动对应的UI控件,也无需用户记忆UI控件的功能和位置,即可实现根据快捷操作控制虚拟对象在虚拟环境中进行对应的活动。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的相关技术中的控制虚拟对象打开瞄准镜的界面示意图;
图2是本申请一个示例性实施例提供的控制虚拟对象打开瞄准镜的界面示意图;
图3是本申请一个示例性实施例提供的实施环境的框图;
图4是本申请一个示例性实施例提供的控制虚拟对象的方法的流程图;
图5是本申请一个示例性实施例提供的虚拟对象的视角对应的摄像机模型示意图;
图6是本申请一个示例性实施例提供的在用户界面上建立直角坐标系的界面示意图;
图7是本申请一个示例性实施例提供的控制虚拟对象起身的界面示意图;
图8是本申请一个示例性实施例提供的相关技术中控制虚拟对象启动虚拟道具的界面示意图;
图9是本申请一个示例性实施例提供的控制虚拟对象启动虚拟道具的界面示意图;
图10是本申请一个示例性实施例提供的控制虚拟对象投掷虚拟道具的界面示意图;
图11是本申请一个示例性实施例提供的控制虚拟对象打开瞄准镜的方法的流程图;
图12是本申请一个示例性实施例提供的控制虚拟对象关闭瞄准镜的方法的流程图;
图13是本申请一个示例性实施例提供的控制虚拟对象进行开火的方法的流程图;
图14是本申请一个示例性实施例提供的控制虚拟对象起身和投掷虚拟道具的方法的流程图;
图15是本申请一个示例性实施例提供的控制虚拟对象的装置的框图;
图16是本申请一个示例性实施例提供的计算机设备的装置结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行介绍:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的环境,还可以是纯虚构的环境。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,本申请对此不加以限定。下述实施例以虚拟环境是三维虚拟环境来举例说明。
虚拟对象:是指虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物等,比如:在三维虚拟环境中显示的人物、动物、植物、油桶、墙壁、石块等。可选地,虚拟对象是基于动画骨骼技术创建的三维立体模型。每个虚拟对象在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
虚拟道具:是指虚拟对象在虚拟环境中能够使用的道具,虚拟道具包括:虚拟对象使用的虚拟武器及虚拟武器对应的配件、虚拟食物、虚拟药品、衣服、配饰等,本申请实施例以虚拟道具是虚拟武器为例进行说明。虚拟武器包括:手枪、步枪、狙击枪等通用枪械以及弓箭、弩、长矛、匕首、剑、刀、斧子、炸弹、导弹等。
第一人称射击游戏(First-person Shooting,FPS):是指用户能够以第一人称视角进行的射击游戏,游戏中的虚拟环境的画面是以第一虚拟对象的视角对虚拟环境进行观察的画面。在游戏中,至少两个虚拟对象在虚拟环境中进行单局对战模式,虚拟对象通过躲避其他虚拟对象发起的攻击和虚拟环境中存在的危险(比如,毒气圈、沼泽地等)来达到在虚拟环境中存活的目的,当虚拟对象在虚拟环境中的生命值为零时,虚拟对象在虚拟环境中的生命结束,最后存活在虚拟环境中的虚拟对象是获胜方。可选地,该对战以第一个客户端加入对战的时刻作为开始时刻,以最后一个客户端退出对战的时刻作为结束时刻,每个客户端可以控制虚拟环境中的一个或多个虚拟对象。可选地,该对战的竞技模式可以包括单人对战模式、双人小组对战模式或者多人大组对战模式,本申请实施例对对战模式不加以限定。
触发控件:是指一种用户界面UI(User Interface)控件,在应用程序的用户界面上能够看见的任何可视控件或元素,比如,图片、输入框、文本框、按钮、标签等控件,其中一些UI控件响应用户的操作,比如,用户触发手枪对应的攻击控件,则控制虚拟对象使用手枪进行攻击。
本申请中的“装备、携带或装配”虚拟道具指的是虚拟对象拥有的虚拟道具,虚拟对象拥有背包,背包中存在背包格,虚拟道具存放于虚拟对象的背包中,或者,虚拟对象正在使用虚拟道具。
本申请中提供的方法可以应用于虚拟现实应用程序、三维地图程序、军事仿真程序、第一人称射击游戏(First-person shooting game,FPS)、多人在线战术竞技游戏(Multiplayer Online Battle Arena Games,MOBA)等,下述实施例是以在游戏中的应用来举例说明。
基于虚拟环境的游戏往往由一个或多个游戏世界的地图构成,游戏中的虚拟环境模拟现实世界的场景,用户可以操控游戏中的虚拟对象在虚拟环境中进行行走、跑步、跳跃、射击、格斗、驾驶、投掷、起身、俯卧等动作,交互性较强,并且多个用户可以在线组队进行竞技游戏。在游戏对应的应用程序中,用户界面上设置有UI控件,用户通过触发不同的UI控件控制虚拟对象在虚拟环境中进行不同的活动,比如,用户触发移动功能对应的UI控件(方向按键),控制虚拟对象在虚拟环境中进行移动;虚拟对象正在使用手枪,用户触摸开火功能(使用虚拟武器进行攻击)对应的UI控件(开火按键),则控制虚拟对象在虚拟环境中使用手枪进行攻击。UI控件分布在用户界面上的各个区域,用户需要记忆各UI控件的功能及所在的区域,从而能快速控制虚拟对象进行相应的活动。
在相关技术中提供了一种控制虚拟对象打开瞄准镜的方法,图1示出了本申请一个示例性实施例提供的相关技术中控制虚拟对象打开瞄准镜的界面示意图。如图1的(a)所示,在准备打开瞄准镜界面10上显示有:瞄准控件101、攻击控件103和移动控件104,示意性的,瞄准控件101位于准备打开瞄准镜界面10的右侧区域,位于虚拟环境的对应的小地图的下侧。可选地,瞄准控件101在该界面10上的数量是一个,在一些实施例中,瞄准控件101的数量是两个或更多,本申请对瞄准控件101的数量和位置不加以限定。可选地,用户可对瞄准控件101的位置和数量进行自定义设置。比如,用户设置瞄准控件101的数量是三个,位于准备打开瞄准镜界面10的右侧区域。可选地,在使用枪械类需要瞄准目标的虚拟道具时,用户通过触发瞄准控件101来控制虚拟对象打开瞄准镜105。
攻击控件103分别位于准备打开瞄准镜界面10的左侧区域和右侧区域,位于该界面10的左侧区域的攻击控件103位于移动控件104的左上方。可选地,攻击控件103在该界面10上的数量是两个,在一些实施例中,攻击控件103的数量还可以是一个或三个或更多,本申请对攻击控件103的数量和位置不加以限定。可选地,用户可对攻击控件103的位置和数量进行自定义设置。比如,用户设置攻击控件103的数量是三个,分别位于准备打开瞄准镜界面10的左侧区域、右侧区域和中间区域。
移动控件104位于准备打开瞄准镜界面10的左侧区域,且位于攻击控件103的右下方。可选地,用户可通过触发移动控件104来控制虚拟对象在虚拟环境中进行移动。
在虚拟对象打开瞄准镜105后,用户界面如图1的(b)所示,在打开瞄准镜界面11上还显示有关闭控件102。该关闭控件102位于原瞄准控件101所在的位置,也即瞄准控件101的显示样式被切换为关闭控件102的显示样式。此时,用户控制虚拟对象打开了所使用的枪械对应的瞄准镜105,该枪械由显示在用户界面左侧区域变成显示在用户界面的中央,瞄准镜105显示在打开瞄准镜界面11的正中央,呈瞄准状态。若用户触发该关闭控件102,则关闭该瞄准镜105,打开瞄准镜界面10转变为如图1的(a)所示的准备打开瞄准镜界面10。
基于上述实施例中提供的方法,用户控制的虚拟对象进行对应的动作时,需要触发对应的UI控件,比如,控制虚拟对象打开瞄准镜105,则需要用户触发瞄准控件101,而在控制虚拟对象停止该动作时,还需要用户触发相应的关闭控件102,步骤较为繁琐,且需要用户记忆各UI控件对应的功能和所在的位置,用户可能因忘记动作对应的UI控件和UI控件对应的位置,而延误虚拟对象做出对应的动作。
本申请提供了一种控制虚拟对象的方法,图2示出了本申请一个示例性实施例提供的控制虚拟对象的界面示意图。
以用户控制虚拟对象在虚拟环境中打开虚拟道具对应的配件为例进行说明。在一个示例中,虚拟对象使用的虚拟道具是狙击枪,该虚拟道具对应的配件是瞄准镜113。相比于图1所示,用户界面上显示有瞄准控件101和关闭控件102,图2中的打开瞄准镜界面110中未显示任何关于打开瞄准镜113的控件。用户可通过快捷操作控制虚拟对象快速打开瞄准镜113,可选地,该快捷操作是双击操作。可选地,在用户界面上设置有目标区域131,该目标区域131包括虚拟环境画面且不属于交互面板区112的区域。示意性的,该目标区域131是用户界面中的右侧区域,且该右侧区域是不属于交互面板区112的区域。可选地,用户在目标区域131中进行双击操作后,用户界面显示打开瞄准镜界面110,虚拟对象使用的虚拟道具(狙击枪)111的瞄准镜113位于用户界面的正中央,呈瞄准状态,瞄准镜113已打开,与图1的(b)中所示的用户通过点击瞄准控件101来打开瞄准镜105的效果相同。
可选地,当用户需要关闭瞄准镜113时,用户可采用快捷操作关闭瞄准镜113。示意性的,关闭瞄准镜113的快捷操作是双击操作。可选地,关闭瞄准镜113与打开瞄准镜113的目标区域131是同一区域,或不同区域。当用户在目标区域131中进行双击操作时,控制虚拟对象将瞄准镜113关闭,可选地,虚拟对象使用的虚拟道具(狙击枪)转变为在打开瞄准镜113之前的状态。
可选地,用户可设置目标区域的范围,比如,用户设置以用户界面的中心为圆心,半径为10个单位长度的圆形区域是目标区域,只要在该目标区域131范围内进行快捷操作,则用户可控制虚拟对象进行与快捷操作对应的活动。可选地,快捷操作可以是单击操作、双击操作、滑动操作、拖动操作、长按操作、双击长按操作、双指滑动操作中的至少一种。可选地,用户可设置虚拟对象进行活动时对应的活动控件,比如,当用户使用快捷操作控制虚拟对象时,在用户界面中取消显示活动对应的控件,或者,用户设置活动对应的控件的位置和数量等。可以理解的是,用户通过在目标区域131进行不同的快捷操作控制虚拟对象进行对应的活动。
图3示出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统100包括:第一终端120、服务器140和第二终端160。
第一终端120安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第一终端120是第一用户使用的终端,第一用户使用第一终端120控制位于虚拟环境中的虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、射击、投掷、使用虚拟道具中的至少一种。示意性的,虚拟对象是虚拟人物,比如仿真人物对象或动漫人物对象。
第一终端120通过无线网络或有线网络与服务器140相连。
服务器140包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。示意性的,服务器140包括处理器144和存储器142,存储器142又包括显示模块1421、控制模块1422和接收模块1423。服务器140用于为支持三维虚拟环境的应用程序提供后台服务。可选地,服务器140承担主要计算工作,第一终端120和第二终端160承担次要计算工作;或者,服务器140承担次要计算工作,第一终端120和第二终端160承担主要计算工作;或者,服务器140、第一终端120和第二终端160三者之间采用分布式计算架构进行协同计算。
第二终端160安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第二终端160是第二用户使用的终端,第二用户使用第二终端160控制位于虚拟环境中的虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、射击、投掷、使用虚拟道具中的至少一种。示意性的,虚拟对象是虚拟人物,比如仿真人物对象或动漫人物对象。
可选地,第一用户控制的虚拟对象和第二用户控制的虚拟对象处于同一虚拟环境中。可选地,第一用户控制的虚拟对象和第二用户控制的虚拟对象可以属于同一个队伍、同一个组织、具有好友关系或具有临时性的通讯权限。
可选地,第一终端120和第二终端160上安装的应用程序是相同的,或两个终端上安装的应用程序是不同控制系统平台的同一类型应用程序。第一终端120可以泛指多个终端中的一个,第二终端160可以泛指多个终端中的一个,本实施例仅以第一终端120和第二终端160来举例说明。第一终端120和第二终端160的设备类型相同或不同,该设备类型包括:智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。以下实施例以终端包括智能手机来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
图4示出了本申请一个示例性实施例提供的控制虚拟对象的方法的流程图,该方法可应用于如图3所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤401,显示用户界面,用户界面包括虚拟环境画面和交互面板区,虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面。
可选地,虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面。视角是指以虚拟对象的第一人称视角或者第三人称视角在虚拟环境中进行观察时的观察角度。可选地,本申请的实施例中,视角是在虚拟环境中通过摄像机模型对虚拟对象进行观察时的角度。
可选地,摄像机模型在虚拟环境中对虚拟对象进行自动跟随,即,当虚拟对象在虚拟环境中的位置发生改变时,摄像机模型跟随虚拟对象在虚拟环境中的位置同时发生改变,且该摄像机模型在虚拟环境中始终处于虚拟对象的预设距离范围内。可选地,在自动跟随过程中,摄像头模型和虚拟对象的相对位置不发生变化。
摄像机模型是指在虚拟环境中位于虚拟对象周围的三维模型,当采用第一人称视角时,该摄像机模型位于虚拟对象的头部附近或者位于虚拟对象的头部;当采用第三人称视角时,该摄像机模型可以位于虚拟对象的后方并与虚拟对象进行绑定,也可以位于与虚拟对象相距预设距离的任意位置,通过该摄像机模型可以从不同角度对位于虚拟环境中的虚拟对象进行观察,可选地,该第三人称视角为第一人称的过肩视角时,摄像机模型位于虚拟对象(比如虚拟人物的头肩部)的后方。可选地,除第一人称视角和第三人称视角外,视角还包括其他视角,比如俯视视角;当采用俯视视角时,该摄像机模型可以位于虚拟对象头部的上空,俯视视角是以从空中俯视的角度进行观察虚拟环境的视角。可选地,该摄像机模型在虚拟环境中不会进行实际显示,即,在用户界面显示的虚拟环境中不显示该摄像机模型。
对该摄像机模型位于与虚拟对象相距预设距离的任意位置为例进行说明,可选地,一个虚拟对象对应一个摄像机模型,该摄像机模型可以以虚拟对象为旋转中心进行旋转,如:以虚拟对象的任意一点为旋转中心对摄像机模型进行旋转,摄像机模型在旋转过程中的不仅在角度上有转动,还在位移上有偏移,旋转时摄像机模型与该旋转中心之间的距离保持不变,即,将摄像机模型在以该旋转中心作为球心的球体表面进行旋转,其中,虚拟对象的任意一点可以是虚拟对象的头部、躯干、或者虚拟对象周围的任意一点,本申请实施例对此不加以限定。可选地,摄像机模型在对虚拟对象进行观察时,该摄像机模型的视角的中心指向为该摄像机模型所在球面的点指向球心的方向。
可选地,该摄像机模型还可以在虚拟对象的不同方向以预设的角度对虚拟对象进行观察。
示意性的,请参考图5,在虚拟对象11中确定一点作为旋转中心12,摄像机模型围绕该旋转中心12进行旋转,可选地,该摄像机模型配置有一个初始位置,该初始位置为虚拟对象后上方的位置(比如脑部的后方位置)。示意性的,如图5所示,该初始位置为位置13,当摄像机模型旋转至位置14或者位置15时,摄像机模型的视角方向随摄像机模型的转动而进行改变。
可选地,虚拟环境画面显示的虚拟环境包括:山川、平地、河流、湖泊、海洋、沙漠、天空、植物、建筑、车辆中的至少一种元素。
可选地,用户界面包括交互面板区112,如图2所示。交互面板区112中设置有控制虚拟对象进行活动的UI控件、发送消息控件、语音控件、表情控件、设置控件等等,上述控件用于用户控制虚拟对象在虚拟环境中进行对应的活动,或者,向同队的队友发送消息(包括:文字形式的消息、语音形式的消息和表情形式的消息),或者,设置虚拟对象在虚拟环境中的动作属性(比如,奔跑时的速度)或设置虚拟武器的属性(比如,枪械的灵敏度、攻击范围、杀伤力等),或者,显示用户控制的虚拟对象在虚拟环境中的位置(示意性的,在用户界面上显示有虚拟环境的缩略地图)。用户通过交互面板区112即时了解虚拟对象当前的状态,并且可随时通过交互面板区112控制虚拟对象进行对应的活动。在一些实施例中,交互面板区的形状是矩形或圆形,或者交互面板区的形状与用户界面上的UI控件的形状对应,本申请对交互面板区的形状不加以限定。
步骤402,接收在用户界面上的目标区域上的快捷操作,目标区域包括属于虚拟环境画面且不属于交互面板区的区域。
可选地,快捷操作包括:双击操作、双击长按操作、双指横向滑动操作、双指竖向滑动操作中的至少一项。
可选地,以虚拟环境画面属于的区域为A区域,交互面板区为B区域为例进行说明,则目标区域包括以下形式:
第一,目标区域是A区域对应的区域。
目标区域包括属于虚拟环境画面且不属于交互面板区的区域。示意性的,如图2所示,用户可在不包括UI控件及小地图所在的区域进行快捷操作,比如,在移动控件和攻击控件之间的区域,该区域属于虚拟环境画面且不包括交互面板区的区域。
第二,目标区域是A区域和B区域对应的区域。
目标区域包括虚拟环境画面和交互面板区对应的区域。示意性的,如图2所示,用户可同时在虚拟环境画面和交互面板区对应的区域进行快捷操作,比如,用户可在UI控件或小地图所在的区域上进行快捷操作,即用户可在用户界面110上的任意位置处进行快捷操作。
第三,目标区域是A区域的部分区域和B区域对应的区域。
目标区域包括部分虚拟环境画面对应的区域和交互面板区域对应的区域。示意性的,如图2所示,用户可在虚拟环境画面的右侧区域和交互面板区进行快捷操作,也即用户可在用户界面110的右侧区域和用户界面110的左侧区域中的UI控件对应的交互面板区进行快捷操作。可选地,部分虚拟环境画面对应的区域可以是虚拟环境画面的左侧区域、右侧区域、上侧区域和下侧区域中的任意一侧区域。
第四,目标区域是A区域和B区域的部分区域对应的区域。
目标区域是虚拟环境画面对应的区域和部分交互面板区对应的区域,示意性的,如图2所示,用户可在虚拟环境画面对应的区域和右侧交互面板区进行快捷操作,也即用户可在不包括用户界面110的左侧交互面板区对应的区域进行快捷操作。可选地,部分交互面板区可以是左侧交互面板区、右侧交互面板区、上侧交互面板区、下侧交互面板区中的任意一侧区域。
第五,目标区域是A区域的部分区域和B区域的部分区域对应的区域。
目标区域是部分虚拟环境画面对应的区域和部分交互面板区对应的区域,示意性的,如图2所示,用户可在左侧虚拟环境画面和左侧交互面板区对应的区域进行快捷操作,也即用户可在用户界面110的左侧区域进行快捷操作。示意性的,用户可在右侧虚拟环境画面和左侧交互面板区对应的区域进行快捷操作,也即用户可在不包括右侧交互面板区对应的区域和左侧虚拟环境画面对应的区域进行快捷操作,用户可在移动控件和攻击控件上进行快捷操作,也可在右侧虚拟环境画面对应的区域进行快捷操作。
可选地,基于上述目标区域的表现形式,用户界面上可对交互面板区不进行显示,也即隐藏交互面板区。
图6示出了本申请一个示例性实施例提供的用户界面上的目标区域的界面示意图。示意性的,以用户界面130的中心为原点建立直角坐标系,目标区域131设置在用户界面130的右侧区域,在直角坐标系中的第一象限和第四象限之间,该目标区域131的形状是椭圆形。在一个示例中,用户在目标区域131中进行双击操作,则控制虚拟对象打开虚拟道具对应的配件。
可选地,目标区域131还可以是用户界面130上非面板交互区以外的任何区域。比如,用户界面130的上侧区域,该区域是指用户界面130的左侧边缘至右侧UI控件之间对应的区域;或者,目标区域131是虚拟对象使用的虚拟道具所在的位置对应的区域,比如,目标区域131是虚拟对象使用的虚拟武器(狙击枪)对应的区域。
示意性的,用户在目标区域131中进行不同的快捷操作,控制虚拟对象进行不同的活动,比如,用户在目标区域131中进行双击操作,控制虚拟对象打开虚拟道具对应的配件(比如,虚拟对象使用的狙击枪对应的瞄准镜)。
步骤403,根据快捷操作控制虚拟对象在虚拟环境中进行对应的活动。
可选地,当虚拟对象的身体姿态满足第一条件时,根据快捷操作控制虚拟对象在虚拟环境中调整身体姿态。可选地,第一条件包括虚拟对象的身体姿态是下蹲状态,快捷操作包括双指竖向滑动操作。虚拟对象可在虚拟环境中进行奔跑、跳跃、攀爬、起身、匍匐等动作,虚拟对象在虚拟环境中的身体姿态可以是趴下、下蹲、站立、坐、卧、跪等状态,示意性的,以虚拟对象从虚拟环境中起身为例进行说明,图7示出了本申请一个示例性实施例提供的控制虚拟对象起身的界面示意图。
当虚拟对象的身体姿态是下蹲状态时,由于虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面,用户界面150显示的是虚拟对象的仰视视角,也即天空对应的画面。可选地,用户的手指同时在用户界面150上向上滑动(如图7中的箭头所示),随着用户的滑动操作用户界面150中的虚拟环境画面将发生变化,用户界面150中天空对应的画面所占的面积比例将减小,虚拟对象的视角是平视状态,用户界面150包括虚拟环境的地面和景物,用户通过双指竖向滑动操作控制虚拟对象在虚拟环境中起身。
在一些实施例中,用户通过双指竖向滑动操作控制虚拟对象在虚拟环境中进行跳跃或攀爬,或者,用户通过双击操作或其他快捷操作控制虚拟对象在虚拟环境中起身(当虚拟对象在虚拟环境中的身体姿态是下蹲状态时),本申请对此不加以限定。
可选地,当虚拟道具的使用状态满足第二条件时,根据快捷操作控制虚拟对象在虚拟环境中开启虚拟道具对应的配件。可选地,第二条件包括虚拟道具是自动启动状态,快捷操作还包括双击操作。自动启动状态是指虚拟道具在无需触发操作的情况下,可自动启动,比如,冲锋枪在无需用户触发攻击控件或开火控件时,在瞄准镜113打开时,将自动攻击或开火。以虚拟道具是虚拟武器,以虚拟道具对应的配件是瞄准镜为例进行说明,如图2所示。示意性的,用户控制虚拟对象使用的虚拟武器111是冲锋枪。当虚拟道具是自动启动状态时,用户在目标区域进行双击操作,控制虚拟对象在虚拟环境中开启冲锋枪对应的瞄准镜113。冲锋枪显示在用户界面110的正中央,瞄准镜113也显示在用户界面110的正中央。
可选地,当虚拟道具是虚拟武器时,虚拟道具对应的配件还可以是弹匣。示意性的,以虚拟武器是枪械类的武器为例进行说明,当虚拟武器是自动启动状态时,用户在目标区域进行双击操作,控制虚拟对象在虚拟环境中为枪械类的虚拟武器安装弹匣。
在一些实施例中,用户可通过双击操作控制虚拟对象安装虚拟道具的配件,或者,用户通过双击长按操作或其他快捷操作控制虚拟对象在虚拟环境中打开虚拟道具对应的配件,本申请对此不加以限定。
可选地,当虚拟道具的使用状态满足第三条件时,根据快捷操作控制虚拟对象在虚拟环境中启动虚拟道具。可选地,第三条件包括虚拟道具是手动启动状态,快捷操作还包括双击长按操作。手动启动状态是指虚拟道具需通过用户的触发操作后才能启动,比如,用户需要触发攻击控件后才能控制虚拟对象使用虚拟武器进行攻击。图8示出了本申请一个示例性实施例提供的相关技术中控制虚拟对象进行攻击的界面示意图。在攻击界面12中显示有两个攻击控件103,分别位于用户界面的左侧区域和右侧区域。示意性的,用户控制虚拟对象使用的虚拟道具是冲锋枪,用户需要触发两个攻击控件103中的至少一个攻击控件来控制虚拟对象进行攻击(也即冲锋枪开火)。
图9示出了本申请一个示例性实施例提供的控制虚拟对象启动虚拟道具的界面示意图,在攻击界面170中显示有目标区域131和攻击控件114。用户可通过在目标区域131中进行双击长按操作控制虚拟对象启动虚拟道具,示意性的,以虚拟道具是狙击枪,目标区域131是攻击界面170右侧的椭圆形区域为例进行说明。当用户在目标区域131中进行双击长按操作时,控制虚拟对象使用狙击枪进行攻击(也即开火)。可选地,用户还可以通过触发攻击控件114控制虚拟对象使用狙击枪进行攻击。可选地,用户可设置攻击控件114的数量,比如,在用户界面上的攻击控件114的数量是两个,或者,游戏对应的应用程序默认设置攻击控件114的数量,或者,后台服务器根据用户的使用习惯、历史记录智能设置攻击控件114的数量,本申请对此不加以限定。可选地,用户还可调整攻击控件114在用户界面的位置,根据实际的游戏情况,实时调整攻击控件114在用户界面的位置,避免攻击控件114的位置对用户造成视线干扰。
在一些实施例中,用户可通过双击长按操作控制虚拟对象持续奔跑,或者,用户通过双击操作或其他快捷操作控制虚拟对象在虚拟环境中启动虚拟道具,本申请对此不加以限定。
可选地,当虚拟道具的使用状态满足第四条件时,根据快捷操作控制虚拟对象在虚拟环境中投掷虚拟道具。可选地,第四条件包括虚拟对象拥有虚拟道具,快捷操作还包括双指横向滑动操作。虚拟对象拥有虚拟道具是指虚拟对象装配了该虚拟道具,该虚拟道具位于虚拟对象的背包格中,或者,正在被虚拟对象使用。示意性的,以虚拟道具是炸弹为例进行说明。
图10示出了本申请一个示例性实施例提供的控制虚拟对象投掷虚拟道具的界面示意图,在投掷界面170中显示有虚拟对象拥有的炸弹115。可选地,用户的手指在目标区域上同时向右滑动,当用户停止滑动时,控制虚拟对象将拥有的炸弹投掷出去。可选地,用户还可通过触发武器控件115控制虚拟对象将炸弹投掷出去。可选地,当虚拟对象在下蹲的状态下,用户通过双指横向滑动操作控制虚拟对象起身,并且将炸弹投掷出去。
在一些实施例中,用户通过双指竖向滑动操作控制虚拟对象拾取虚拟环境中的虚拟道具,或将虚拟对象装配的虚拟道具卸下,或者,用户通过双指横向滑动操作控制或其他快捷操作控制虚拟对象在虚拟环境中投掷虚拟道具,本申请对此不加以限定。
综上所述,通过在用户界面中设置目标区域,用户可通过在目标区域中进行快捷操作来控制虚拟对象进行对应的活动,无需用户触发活动对应的UI控件,也无需用户记忆UI控件的功能和位置,即可实现根据快捷操作控制虚拟对象在虚拟环境中进行对应的活动。
图11示出了本申请一个示例性实施例提供的控制虚拟对象打开瞄准镜的方法的流程图。该方法可应用于如图3所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤1101,选择自动开火状态,接收双击操作。
示意性的,以虚拟道具是狙击枪为例,用户选择狙击枪的状态是自动开火状态,或者,用户将狙击枪设置为自动开火状态,也即虚拟对象装备狙击枪时,该狙击枪已是自动开火状态,无需设置。
步骤1102,判断是否是双击操作。
示意性的,以打开瞄准镜的快捷操作是双击操作为例进行说明。在用户进行双击操作后,游戏对应的应用程序判断该操作是否为双击操作。可选地,应用程序获取用户第一次点击操作的时间和第二次点击操作的时间,当第一次点击操作和第二次点击操作之间的时间间隔小于时间间隔阈值时,判断该操作为双击操作。示意性的,时间间隔阈值是500毫秒,当第一次点击操作和第二次点击操作之间的时间间隔小于500毫秒时,判断接收到的操作是双击操作。
步骤1103,判断双击操作是否在旋转区域。
在一些实施例中,目标区域也被命名为旋转区域,本申请对目标区域的名称不加以限定。可选地,接收双击操作的区域在旋转区域的范围内,则判断该双击操作在旋转区域中。示意性的,用户界面是长度为100个单位长度,宽度为50个单位长度的矩形区域。在一个示例中,该旋转区域的范围是以长度为大于50个单位长度且小于100个单位长度,宽度为50个单位长度所形成的矩形区域,也即以用户界面的中心为界线的右侧区域。如图6所示,以用户界面的中心为原点建立直角坐标系,该直角坐标系的第一象限和第四象限对应的区域即为旋转区域,目标区域131在该第一象限和第四象限对应的区域的范围之内,则用户在目标区域131可进行快捷操作控制虚拟对象。
步骤1104,执行开镜操作。
示意性的,以虚拟道具是狙击枪为例,当狙击枪是自动开火状态时,在目标区域接收到用户的双击操作后,游戏对应的应用程序控制虚拟对象开启狙击枪的瞄准镜。
图12示出了本申请一个示例性实施例提供的控制虚拟对象关闭瞄准镜的方法的流程图。该方法可应用于如图3所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤1201,接收关镜操作。
示意性的,以虚拟道具是狙击枪为例,用户需要关闭狙击枪的瞄准镜时,在用户界面上的旋转区域中进行快捷操作,应用程序根据用户的快捷操作关闭狙击枪的瞄准镜。
步骤1202,判断是否是双击操作。
在一个示例中,时间间隔阈值是900毫秒,用户第一次点击操作和第二次点击操作之间的时间间隔是500毫秒,小于时间间隔阈值,则两次点击操作被判定为双击操作。可选地,若第一次点击操作和第二次点击操作之间的时间间隔是1秒,则应用程序将本次点击操作记为第一次点击事件,用户需重新进行两次点击操作,根据第二次点击事件的两次点击操作,重新计算两次点击操作之间的时间间隔。
步骤1203,判断双击操作是否在旋转区域。
示意性的,用户界面的长度是100个单位长度,宽度是50个单位长度。在一个示例中,旋转区域的范围是以长度是20个单位长度和30个单位长度之间,宽度为45个单位长度所形成的矩形区域。用户在该区域范围之内进行双击操作,则应用程序判断该双击操作在旋转区域。
步骤1204,执行关镜操作。
在一个示例中,在狙击枪的瞄准镜已打开的状态下,用户在旋转区域进行双击操作,则控制虚拟对象将狙击枪的瞄准镜进行关闭。
图13示出了本申请一个示例性实施例提供的控制虚拟对象开火的方法的流程图。该方法可应用于如图3所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤1301,选择手动开火。
可选地,用户可设置虚拟道具的使用模式是手动启动模式,或者,用户在选择虚拟道具时,该虚拟道具已经是手动启动模式(虚拟道具的默认设置),手动启动模式是指用户需要触发相应的UI控件或进行相应的操作后,才能控制虚拟对象启动虚拟道具。示意性的,以虚拟道具是冲锋枪为例,用户将冲锋枪的开火模式选择为手动开火,在用户触发开火或攻击控件时,控制虚拟对象使用冲锋枪进行攻击(也即冲锋枪发射子弹)。
步骤1302,判断是否是双击操作。
在一个示例中,用户的第一次点击操作和第二次点击操作的时间间隔是300毫秒,小于时间间隔阈值500毫秒,则判断该用户的第一次点击操作和第二次点击操作是双击操作。
步骤1303,判断双击操作是否在旋转区域。
示意性的,用户界面的长度是100个单位长度,宽度是50个单位长度。在一个示例中,旋转区域是以长度为大于50个单位长度且小于100个单位长度,宽度为50个单位长度所形成的矩形区域,也即以用户界面的中心为界线的右侧区域。用户在该旋转区域内进行双击操作。
步骤1304,判断是否接收了长按操作。
在接收目标区域上的双击操作后,用户还需在目标区域(也即旋转区域)内进行按压操作,当按压操作的时长大于持续时长阈值时,接收目标区域上的长按操作。示意性的,持续时长阈值是200毫秒,用户的按压操作的时长是300毫秒,大于持续时长阈值,则判断用户进行的按压操作是长按操作。
步骤1305,执行开火操作。
当用户在目标区域内进行双击操作和长按操作后,根据该双击长按操作控制虚拟对象执行开火操作。在一个示例中,用户在目标区域进行双击长按操作,控制虚拟对象使用冲锋枪进行开火操作。
步骤1306,判断是否停止长按操作。
示意性的,以虚拟道具是冲锋枪为例,当用户控制虚拟对象使用冲锋枪开火后,冲锋枪根据用户的长按操作时长来调整开火的时间,比如,在开火状态下,用户的长按操作持续时长是3秒,则冲锋枪的开火时间是3秒。
步骤1307,执行停火操作。
可选地,在目标区域上的双击长按操作停止时,控制虚拟对象关闭虚拟道具。
在一些实施例中,双击长按操作也被命名为双击和长按操作,本申请对快捷操作的名称不加以限定。可以理解的是,用户在目标区域内进行的双击长按操作是先进行双击操作,然后进行长按操作,在虚拟道具的启动状态下,长按操作的时长是虚拟道具呈开启状态的时长,当停止长按操作时,虚拟道具将被关闭。
图14示出了本申请一个示例性实施例提供的双指滑动操作控制虚拟对象的方法的流程图。该方法可应用于如图3所示的计算机系统中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤1401,接收双指滑动操作。
用户在用户界面上进行双指滑动操作,可选地,该双指滑动操作包括双指横向滑动操作和双指竖向滑动操作。
步骤1402,判断双指是否同时在用户界面上。
应用程序判断用户的双指对应得双接触点是否同时在用户界面上,可选地,若该双接触点未同时在用户界面上,可判断为双击操作。
步骤1403,判断双指是否分别位于用户界面的左侧区域和右侧区域。
可选地,目标区域包括第一目标区域和第二目标区域,应用程序判断双指对应的双接触点是否分别位于第一目标区域和第二目标区域。可选地,用户左手手指对应的接触点在第一目标区域(也即用户界面的左侧区域),右手手指对应的接触点在第二目标区域(也即用户界面的右侧区域)。
步骤1404,判断双指的滑动位移。
应用程序判断双指对应的双接触点在用户界面上的滑动位移。可选地,双接触点的滑动位移是横向滑动位移或竖向滑动位移。横向滑动位移是指沿与用户界面的长度方向平行的方向进行滑动,竖向滑动位移是指沿与用户界面的宽度方向平行的方向进行滑动。
步骤1404a,判断双指滑动的横坐标位移是否达到横坐标位移阈值。
示意性的,以双指横向滑动操作为例进行说明。可选地,在用户的双指接触用户界面上的目标区域时,获取第一接触点在第一目标区域的第一起始位置坐标和第二接触点在第二目标区域的第二起始位置坐标;当第一接触点和第二接触点停止滑动时,获取第一接触点在第一目标区域的第一终止位置坐标和第二接触点在第二目标区域的第二终止位置坐标;当第一接触点的横坐标位移大于横坐标位移阈值,且,第二接触点的横坐标位移大于横坐标位移阈值时,接收目标区域上的双指横向滑动操作。在一个示例中,横坐标位移阈值是两个单位长度,第一接触点的第一起始位置坐标是(-1,1),第二起始位置坐标是(1,1),第一接触点的第一终止位置坐标是(-4,1),第二接触点的第二终止位置坐标是(4,1),第一接触点的横坐标位移和第二接触点的横坐标位移均是三个单位长度,大于横坐标位移阈值(两个单位长度),而第一接触点的纵坐标和第二接触点的纵坐标在接触点滑动的过程中未产生位移,则应用程序判断该双指滑动操作是双指横向滑动操作。
步骤1404b,判断双指滑动纵坐标是否达到纵坐标位移阈值。
示意性的,以双指竖向滑动操作为例进行说明。可选地,在用户的双指接触用户界面上的目标区域时,获取第一接触点在第一目标区域的第一起始位置坐标和第二接触点在第二目标区域的第二起始位置坐标;当第一接触点和第二接触点停止滑动时,获取第一接触点在第一目标区域的第一终止位置坐标和第二接触点在第二目标区域的第二终止位置坐标;当第一接触点的纵坐标位移大于纵坐标位移阈值,且,第二接触点的纵坐标位移大于纵坐标位移阈值时,接收目标区域上的双指横向滑动操作。在一个示例中,纵坐标位移阈值是两个单位长度,第一接触点的第一起始位置坐标是(-1,1),第二起始位置坐标是(1,1),第一接触点的第一终止位置坐标是(-1,-3),第二接触点的第二终止位置坐标是(1,-3),第一接触点的纵坐标位移和第二接触点的纵坐标位移均是三个单位长度,大于纵坐标位移阈值(两个单位长度),而第一接触点的横坐标和第二接触点的横坐标在接触点滑动的过程中未产生位移,则应用程序判断该双指滑动操作是双指竖向滑动操作。
步骤1405a,控制虚拟对象投掷炸弹。
可选地,应用程序根据用户进行双指横向滑动操作,控制虚拟对象投掷炸弹。
步骤1405b,控制虚拟对象取消投掷炸弹。
可选地,当第一接触点和第二接触点中任意一个接触点的横坐标位移小于横坐标位移阈值时,应用程序控制虚拟对象取消投掷炸弹。可选地,当应用程序判断用户进行的快捷操作是双指滑动操作时,若用户未拥有该虚拟道具(如,炸弹),则控制虚拟对象取消投掷炸弹。
步骤1406,判断虚拟对象是否是下蹲状态。
示意性的,虚拟对象在虚拟环境中的身体姿态是下蹲状态。
步骤1407a,控制虚拟对象起身。
示意性的,当虚拟对象在虚拟环境中的身体姿态是下蹲状态时,则双指竖向滑动操作控制虚拟对象在虚拟环境中起身。
步骤1407b,虚拟对象保持原状态。
示意性的,当虚拟对象在虚拟环境中的身体姿态不是下蹲状态时,比如,虚拟对象的身体姿态是站立状态,则在用户进行双指竖向滑动操作后,虚拟对象仍保持站立状态。
可选地,双击操作还可控制虚拟对象安装虚拟道具对应的配件、双击长按操作还可控制虚拟对象进行持续奔跑、跳跃等动作、双指横向滑动操作还可控制虚拟对象进行拾取虚拟道具、推开窗户、打开门等动作、双指竖向滑动操作可控制虚拟对象进行下蹲、趴下、翻滚等动作。
上述实施例是基于游戏的应用场景对上述方法进行描述,下面以军事仿真的应用场景对上述方法进行示例性说明。
仿真技术是应用软件和硬件通过模拟真实环境的实验,反映系统行为或过程的模型技术。
军事仿真程序是利用仿真技术针对军事应用专门构建的程序,对海、陆、空等作战元素、武器装备性能以及作战行动等进行量化分析,进而精确模拟战场环境,呈现战场态势,实现作战体系的评估和决策的辅助。
在一个示例中,士兵在军事仿真程序所在的终端建立一个虚拟的战场,并以组队的形式进行对战。士兵控制战场虚拟环境中的虚拟对象在战场虚拟环境下进行行走、奔跑、攀爬、驾驶、射击、投掷、侦查、近身格斗等动作中的至少一种操作。战场虚拟环境包括:平地、山川、高原、盆地、沙漠、河流、湖泊、海洋、植被中的至少一种自然形态,以及建筑物、车辆、废墟、训练场等地点形态。虚拟对象包括:虚拟人物、虚拟动物、动漫人物等,每个虚拟对象在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
基于上述情况,在一个示例中,士兵A控制的虚拟对象a在虚拟环境中进行对应的活动。
当虚拟对象a在虚拟环境中的身体姿态是下蹲状态时,如图7所示,虚拟对象a的视角是仰视,虚拟环境画面是天空。士兵A在军事仿真程序的用户界面上的目标区域进行双指竖向滑动操作,可选地,目标区域包括第一目标区域和第二目标区域,士兵A的双手手指分别在第一目标区域和第二目标区域,示意性的,士兵A的左手手指在第一目标区域,右手手指在第二目标区域。士兵A的左手手指和右手手指同时在各自的目标区域中向上滑动(如图7中的箭头所示),控制虚拟对象a在虚拟环境起身。可选地,当虚拟对象a在虚拟环境中的身体姿态是站立状态时,士兵A在目标区域进行双指竖向滑动操作(滑动方向与图7所示的方向相反),则控制虚拟对象a在虚拟环境中进行下蹲。
示意性的,虚拟对象a使用的虚拟道具是狙击枪,该狙击枪是自动启动状态。士兵A在军事仿真程序的用户界面上的目标区域131进行两次点击操作(如图2所示),当第一次点击操作和第二次点击操作之间的时间间隔小于时间间隔阈值时,军事仿真程序判断两次点击操作是双击操作,该双击操作在目标区域131中,则士兵A可通过双击操作开启狙击枪对应的瞄准镜。可选地,在开启瞄准镜后,士兵A可通过在目标区域双击操作关闭狙击枪对应的瞄准镜。
示意性的,虚拟对象a使用的虚拟道具是冲锋枪,该狙击枪是手动启动状态。士兵A在军事仿真程序的用户界面上的目标区域131进行双击长按操作(如图6所示),军事仿真程序判断士兵A的两次点击操作是否是双击操作,若两次点击操作是双击操作,军事仿真程序继续判断士兵A的按压操作是否是长按操作,当士兵A的按压操作的时长大于持续时长阈值时,判断在目标区域131上的快捷操作是双击长按操作。军事仿真程序根据该双击长按操作,控制虚拟对象a启动冲锋枪(即使用冲锋枪开火,如图9所示)。可选地,当士兵A停止长按操作时,军事仿真程序控制虚拟对象a关闭冲锋枪的开火功能,长按操作的时长是冲锋枪的开火时长。
示意性的,虚拟对象a使用的虚拟道具是炸弹,该炸弹是虚拟对象a拥有的。士兵A在军事仿真程序的用户界面上的目标区域进行双指横向滑动操作,可选地,目标区域包括第一目标区域和第二目标区域,士兵A的双手手指分别在第一目标区域和第二目标区域,示意性的,士兵A的左手手指在第一目标区域,右手手指在第二目标区域。士兵A的左手手指和右手手指同时在各自的目标区域中向右滑动(如图10中的箭头所示),控制虚拟对象a投掷炸弹。可选地,当虚拟对象a在虚拟环境中的建筑物内,士兵A还可通过双指横向滑动操作控制虚拟对象a打开门窗;或者,当虚拟环境中存在有虚拟物品时,士兵A还可通过双指横向滑动操作控制虚拟对象a拾取虚拟环境中的虚拟物品。
综上所述,本申请实施例中,将上述控制虚拟对象的方法应用在军事仿真程序中,能够提高作战效率,有益于增强士兵之间的配合程度。
以下为本申请的装置实施例,对于装置实施例中未详细描述的细节,可以结合参考上述方法实施例中相应的记载,本文不再赘述。
图15示出了本申请的一个示例性实施例提供的控制虚拟对象的装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分,该装置包括:显示模块1510、接收模块1520、控制模块1530和获取模块1540,其中,显示模块1510和接收模块1530是可选的模块。
显示模块1510,用于显示用户界面,用户界面包括虚拟环境画面和交互面板区,虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面;
接收模块1520,用于接收在用户界面上的目标区域上的快捷操作,目标区域包括属于虚拟环境画面且不属于交互面板区的区域;
控制模块1530,用于根据快捷操作控制虚拟对象在虚拟环境中进行对应的活动。
在一个可选的实施例中,所述控制模块1530,还用于当虚拟对象的身体姿态满足第一条件时,根据快捷操作控制虚拟对象在虚拟环境中调整身体姿态。
在一个可选的实施例中,第一条件包括虚拟对象的身体姿态是下蹲状态;快捷操作包括双指竖向滑动操作;所述接收模块1520,还用于接收目标区域上的双指竖向滑动操作;所述控制模块1530,还用于当虚拟对象的身体姿态是下蹲状态时,根据双指竖向滑动操作控制虚拟对象在虚拟环境中由下蹲状态切换为起身状态。
在一个可选的实施例中,目标区域包括第一目标区域和第二目标区域;获取模块1540,用于获取第一接触点在第一目标区域的第一起始位置坐标和第二接触点在第二目标区域的第二起始位置坐标;所述获取模块1540,还用于当第一接触点和第二接触点停止滑动时,获取第一接触点在第一目标区域的第一终止位置坐标和第二接触点在第二目标区域的第二终止位置坐标;所述接收模块1520,还用于当第一接触点的纵坐标位移大于纵坐标位移阈值,且,第二接触点的纵坐标位移大于纵坐标位移阈值时,接收目标区域上的双指竖向滑动操作。
在一个可选的实施例中,所述控制模块1530,还用于当虚拟道具的使用状态满足第二条件时,根据快捷操作控制虚拟对象在虚拟环境中开启虚拟道具对应的配件;或,所述控制模块1530,还用于当虚拟道具的使用状态满足第三条件时,根据快捷操作控制虚拟对象在虚拟环境中启动虚拟道具;或,所述控制模块1530,还用于当虚拟道具的使用状态满足第四条件时,根据快捷操作控制虚拟对象在虚拟环境中投掷虚拟道具。
在一个可选的实施例中,第二条件包括虚拟道具是自动启动状态;快捷操作还包括双击操作;所述接收模块1520,还用于接收目标区域上的双击操作;所述控制模块1530,还用于当第一虚拟道具是自动启动状态时,根据双击操作控制虚拟对象在虚拟环境中开启第一虚拟道具对应的瞄准镜。
在一个可选的实施例中,所述获取模块1540,还用于获取在目标区域上的第一次点击操作的时间和第二次点击操作的时间;所述接收模块1510,还用于当第一次点击操作和第二次点击操作之间的时间间隔小于时间间隔阈值时,接收目标区域上的双击操作。
在一个可选的实施例中,第三条件包括虚拟道具是手动启动状态;快捷操作还包括双击长按操作;所述接收模块1510,还用于接收目标区域上的双击长按操作;所述控制模块1530,还用于当第二虚拟道具是手动开启状态时,根据双击长按操作控制虚拟对象在虚拟环境中启动第二虚拟道具。
在一个可选的实施例中,所述接收模块1510,还用于在接收目标区域上的双击操作后,接收在目标区域上的按压操作;当按压操作的时长大于持续时长阈值时,接收目标区域上的双击长按操作。
在一个可选的实施例中,所述控制模块1530,还用于在目标区域上的双击长按操作停止时,控制虚拟对象关闭虚拟道具。
在一个可选的实施例中,第四条件包括虚拟对象拥有虚拟道具;快捷操作还包括双指横向滑动操作;所述接收模块1510,还用于接收目标区域上的双指横向滑动操作;所述控制模块1530,还用于当虚拟对象拥有第三虚拟道具时,根据双指横向滑动操作控制虚拟对象在虚拟环境中投掷第三虚拟道具。
在一个可选的实施例中,目标区域包括第一目标区域和第二目标区域;获取模块1540,还用于获取第一接触点在第一目标区域的第一起始位置坐标和第二接触点在第二目标区域的第二起始位置坐标;所述获取模块1540,还用于当第一接触点和第二接触点停止滑动时,获取第一接触点在第一目标区域的第一终止位置坐标和第二接触点在第二目标区域的第二终止位置坐标;所述接收模块1510,还用于当第一接触点的横坐标位移大于横坐标位移阈值,且,第二接触点的横坐标位移大于横坐标位移阈值时,接收目标区域上的双指横向滑动操作。
请参考图16,其示出了本申请一个示例性实施例提供的计算机设备1600的结构框图。该计算机设备1600可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器。计算机设备1600还可能被称为用户设备、便携式终端等其他名称。
通常,计算机设备1600包括有:处理器1601和存储器1602。
处理器1601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器1602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1601所执行以实现本申请中提供的控制虚拟对象的方法。
在一些实施例中,计算机设备1600还可选包括有:外围设备接口1603和至少一个外围设备。具体地,外围设备包括:射频电路1604、触摸显示屏1605、摄像头1606、音频电路1607、定位组件1608和电源1609中的至少一种。
外围设备接口1603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1601和存储器1602。在一些实施例中,处理器1601、存储器1602和外围设备接口1603被集成在同一芯片或电路板上;在一些其他实施例中,处理器1601、存储器1602和外围设备接口1603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
触摸显示屏1605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏1605还具有采集在触摸显示屏1605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1601进行处理。触摸显示屏1605用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏1605可以为一个,设置计算机设备1600的前面板;在另一些实施例中,触摸显示屏1605可以为至少两个,分别设置在计算机设备1600的不同表面或呈折叠设计;在再一些实施例中,触摸显示屏1605可以是柔性显示屏,设置在计算机设备1600的弯曲表面上或折叠面上。甚至,触摸显示屏1605还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏1605可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1606用于采集图像或视频。可选地,摄像头组件1606包括前置摄像头和后置摄像头。通常,前置摄像头用于实现视频通话或自拍,后置摄像头用于实现照片或视频的拍摄。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能,主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能。在一些实施例中,摄像头组件1606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1607用于提供用户和计算机设备1600之间的音频接口。音频电路1607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1601进行处理,或者输入至射频电路1604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备1600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1601或射频电路1604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1607还可以包括耳机插孔。
定位组件1608用于定位计算机设备1600的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1608可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1609用于为计算机设备1600中的各个组件进行供电。电源1609可以是交流电、直流电、一次性电池或可充电电池。当电源1609包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,计算机设备1600还包括有一个或多个传感器1610。该一个或多个传感器1610包括但不限于:加速度传感器1611、陀螺仪传感器1612、压力传感器1613、指纹传感器1614、光学传感器1615以及接近传感器1616。
加速度传感器1611可以检测以计算机设备1600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1611可以用于检测重力加速度在三个坐标轴上的分量。处理器1601可以根据加速度传感器1611采集的重力加速度信号,控制触摸显示屏1605以横向视图或纵向视图进行用户界面的显示。加速度传感器1611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1612可以检测计算机设备1600的机体方向及转动角度,陀螺仪传感器1612可以与加速度传感器1611协同采集用户对计算机设备1600的3D动作。处理器1601根据陀螺仪传感器1612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1613可以设置在计算机设备1600的侧边框和/或触摸显示屏1605的下层。当压力传感器1613设置在计算机设备1600的侧边框时,可以检测用户对计算机设备1600的握持信号,根据该握持信号进行左右手识别或快捷操作。当压力传感器1613设置在触摸显示屏1605的下层时,可以根据用户对触摸显示屏1605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1614用于采集用户的指纹,以根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1614可以被设置计算机设备1600的正面、背面或侧面。当计算机设备1600上设置有物理按键或厂商Logo时,指纹传感器1614可以与物理按键或厂商Logo集成在一起。
光学传感器1615用于采集环境光强度。在一个实施例中,处理器1601可以根据光学传感器1615采集的环境光强度,控制触摸显示屏1605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1605的显示亮度;当环境光强度较低时,调低触摸显示屏1605的显示亮度。在另一个实施例中,处理器1601还可以根据光学传感器1615采集的环境光强度,动态调整摄像头组件1606的拍摄参数。
接近传感器1616,也称距离传感器,通常设置在计算机设备1600的正面。接近传感器1616用于采集用户与计算机设备1600的正面之间的距离。在一个实施例中,当接近传感器1616检测到用户与计算机设备1600的正面之间的距离逐渐变小时,由处理器1601控制触摸显示屏1605从亮屏状态切换为息屏状态;当接近传感器1616检测到用户与计算机设备1600的正面之间的距离逐渐变大时,由处理器1601控制触摸显示屏1605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图16中示出的结构并不构成对计算机设备1600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请还提供一种计算机设备,该计算机设备包括:处理器和存储器,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的控制虚拟对象的方法。
本申请还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的控制虚拟对象的方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种控制虚拟对象的方法,其特征在于,所述方法包括:
显示用户界面,所述用户界面包括虚拟环境画面和交互面板区,所述虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面;
接收在所述用户界面上的目标区域上的快捷操作,所述目标区域包括属于所述虚拟环境画面且不属于所述交互面板区的区域;
根据所述快捷操作控制所述虚拟对象在所述虚拟环境中进行对应的活动。
2.根据权利要求1所述的方法,其特征在于,所述根据所述快捷操作控制所述虚拟对象在所述虚拟环境中进行对应的活动,包括:
当所述虚拟对象的身体姿态满足第一条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中调整所述身体姿态。
3.根据权利要求2所述的方法,其特征在于,所述第一条件包括所述虚拟对象的身体姿态是下蹲状态;所述快捷操作包括双指竖向滑动操作;
所述当所述虚拟对象的身体姿态满足第一条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中调整所述身体姿态,包括:
接收所述目标区域上的所述双指竖向滑动操作;
当所述虚拟对象的身体姿态是下蹲状态时,根据所述双指竖向滑动操作控制所述虚拟对象在所述虚拟环境中由下蹲状态切换为起身状态。
4.根据权利要求3所述的方法,其特征在于,所述目标区域包括第一目标区域和第二目标区域;
所述接收所述目标区域上的所述双指竖向滑动操作,包括:
获取第一接触点在所述第一目标区域的第一起始位置坐标和第二接触点在所述第二目标区域的第二起始位置坐标;
当所述第一接触点和所述第二接触点停止滑动时,获取所述第一接触点在所述第一目标区域的第一终止位置坐标和所述第二接触点在所述第二目标区域的第二终止位置坐标;
当所述第一接触点的纵坐标位移大于纵坐标位移阈值,且,所述第二接触点的纵坐标位移大于所述纵坐标位移阈值时,接收所述目标区域上的所述双指竖向滑动操作。
5.根据权利要求1所述的方法,其特征在于,所述根据所述快捷操作控制所述虚拟对象在所述虚拟环境中进行对应的活动,包括:
当所述虚拟道具的使用状态满足第二条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中开启所述虚拟道具对应的配件;
或,
当所述虚拟道具的使用状态满足第三条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中启动所述虚拟道具;
或,
当所述虚拟道具的使用状态满足第四条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中投掷所述虚拟道具。
6.根据权利要求5所述的方法,其特征在于,所述第二条件包括虚拟道具是自动启动状态;所述快捷操作还包括双击操作;
所述当所述虚拟道具的使用状态满足第二条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中开启所述虚拟道具对应的配件,包括:
接收所述目标区域上的所述双击操作;
当第一虚拟道具是所述自动启动状态时,根据所述双击操作控制所述虚拟对象在所述虚拟环境中开启所述第一虚拟道具对应的瞄准镜。
7.根据权利要求6所述的方法,其特征在于,所述接收所述目标区域上的所述双击操作,包括:
获取在所述目标区域上的第一次点击操作的时间和第二次点击操作的时间;
当所述第一次点击操作和所述第二次点击操作之间的时间间隔小于时间间隔阈值时,接收所述目标区域上的所述双击操作。
8.根据权利要求5所述的方法,其特征在于,所述第三条件包括虚拟道具是手动启动状态;所述快捷操作还包括双击长按操作;
所述当所述虚拟道具的使用状态满足第三条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中启动所述虚拟道具,包括:
接收所述目标区域上的所述双击长按操作;
当第二虚拟道具是手动开启状态时,根据所述双击长按操作控制所述虚拟对象在所述虚拟环境中启动所述第二虚拟道具。
9.根据权利要求8所述的方法,其特征在于,所述接收所述目标区域上的所述双击长按操作,包括:
在接收所述目标区域上的所述双击操作后,接收在所述目标区域上的按压操作;
当所述按压操作的时长大于持续时长阈值时,接收所述目标区域上的双击长按操作。
10.根据权利要求8或9所述的方法,其特征在于,所述当所述虚拟道具是手动开启状态时,根据所述双击长按操作控制所述虚拟对象在所述虚拟环境中启动所述虚拟道具之后,还包括:
在所述目标区域上的双击长按操作停止时,控制所述虚拟对象关闭所述虚拟道具。
11.根据权利要求5所述的方法,其特征在于,所述第四条件包括虚拟对象拥有所述虚拟道具;所述快捷操作还包括双指横向滑动操作;
所述当所述虚拟道具的使用状态满足第四条件时,根据所述快捷操作控制所述虚拟对象在所述虚拟环境中投掷所述虚拟道具,包括:
接收所述目标区域上的所述双指横向滑动操作;
当所述虚拟对象拥有第三虚拟道具时,根据所述双指横向滑动操作控制所述虚拟对象在所述虚拟环境中投掷所述第三虚拟道具。
12.根据权利要求11所述的方法,其特征在于,所述目标区域包括第一目标区域和第二目标区域;
所述接收所述目标区域上的所述双指横向滑动操作,包括:
获取第一接触点在所述第一目标区域的第一起始位置坐标和第二接触点在所述第二目标区域的第二起始位置坐标;
当所述第一接触点和所述第二接触点停止滑动时,获取所述第一接触点在所述第一目标区域的第一终止位置坐标和所述第二接触点在所述第二目标区域的第二终止位置坐标;
当所述第一接触点的横坐标位移大于横坐标位移阈值,且,所述第二接触点的横坐标位移大于所述横坐标位移阈值时,接收所述目标区域上的双指横向滑动操作。
13.一种控制虚拟对象的装置,其特征在于,所述装置包括:
显示模块,用于显示用户界面,所述用户界面包括虚拟环境画面和交互面板区,所述虚拟环境画面是以虚拟对象的视角对虚拟环境进行观察的画面;
接收模块,用于接收在所述用户界面上的目标区域上的快捷操作,所述目标区域包括属于所述虚拟环境画面且不属于所述交互面板区的区域;
控制模块,用于根据所述快捷操作控制所述虚拟对象在所述虚拟环境中进行对应的活动。
14.一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如权利要求1至12任一项所述的控制虚拟对象的方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如权利要求1至12任一项所述的控制虚拟对象的方法。
CN201910784863.5A 2019-08-23 2019-08-23 控制虚拟对象的方法、装置、设备及介质 Active CN110507993B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201910784863.5A CN110507993B (zh) 2019-08-23 2019-08-23 控制虚拟对象的方法、装置、设备及介质
PCT/CN2020/103006 WO2021036577A1 (zh) 2019-08-23 2020-07-20 控制虚拟对象的方法和相关装置
KR1020217029447A KR102619439B1 (ko) 2019-08-23 2020-07-20 가상 객체를 제어하는 방법 및 관련 장치
JP2021555308A JP2022525172A (ja) 2019-08-23 2020-07-20 仮想オブジェクトの制御方法、装置、コンピュータ機器及びプログラム
SG11202109543UA SG11202109543UA (en) 2019-08-23 2020-07-20 Method for controlling virtual object, and related apparatus
US17/459,037 US20210387087A1 (en) 2019-08-23 2021-08-27 Method for controlling virtual object and related apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910784863.5A CN110507993B (zh) 2019-08-23 2019-08-23 控制虚拟对象的方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN110507993A true CN110507993A (zh) 2019-11-29
CN110507993B CN110507993B (zh) 2020-12-11

Family

ID=68626588

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910784863.5A Active CN110507993B (zh) 2019-08-23 2019-08-23 控制虚拟对象的方法、装置、设备及介质

Country Status (6)

Country Link
US (1) US20210387087A1 (zh)
JP (1) JP2022525172A (zh)
KR (1) KR102619439B1 (zh)
CN (1) CN110507993B (zh)
SG (1) SG11202109543UA (zh)
WO (1) WO2021036577A1 (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111135568A (zh) * 2019-12-17 2020-05-12 腾讯科技(深圳)有限公司 虚拟道具的控制方法和装置、存储介质及电子装置
CN111298435A (zh) * 2020-02-12 2020-06-19 网易(杭州)网络有限公司 Vr游戏的视野控制方法、vr显示终端、设备及介质
CN111389000A (zh) * 2020-03-17 2020-07-10 腾讯科技(深圳)有限公司 虚拟道具的使用方法、装置、设备及介质
WO2021036577A1 (zh) * 2019-08-23 2021-03-04 腾讯科技(深圳)有限公司 控制虚拟对象的方法和相关装置
CN112587924A (zh) * 2021-01-08 2021-04-02 网易(杭州)网络有限公司 游戏ai的躲避方法、装置、存储介质及计算机设备
CN112807679A (zh) * 2021-02-01 2021-05-18 网易(杭州)网络有限公司 游戏道具的使用方法、装置、设备及存储介质
WO2021147468A1 (zh) * 2020-01-20 2021-07-29 腾讯科技(深圳)有限公司 虚拟环境中的虚拟角色控制方法、装置、设备及介质
CN113521759A (zh) * 2021-04-28 2021-10-22 网易(杭州)网络有限公司 信息处理方法、装置、终端和存储介质
CN113655927A (zh) * 2021-08-24 2021-11-16 亮风台(上海)信息科技有限公司 一种界面交互方法与设备
WO2021227682A1 (zh) * 2020-05-15 2021-11-18 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质
TWI800218B (zh) * 2021-02-09 2023-04-21 大陸商騰訊科技(深圳)有限公司 虛擬對象的控制方法、裝置、設備、儲存媒體及程式產品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220317782A1 (en) * 2021-04-01 2022-10-06 Universal City Studios Llc Interactive environment with portable devices

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103252087A (zh) * 2012-02-20 2013-08-21 富立业资讯有限公司 具有触控面板媒体的游戏控制方法及该游戏媒体
CN104436657A (zh) * 2014-12-22 2015-03-25 青岛烈焰畅游网络技术有限公司 游戏控制方法、装置以及电子设备
CN105582670A (zh) * 2015-12-17 2016-05-18 网易(杭州)网络有限公司 瞄准射击控制方法及装置
JP2016093361A (ja) * 2014-11-14 2016-05-26 株式会社コロプラ ゲームプログラム
CN107754308A (zh) * 2017-09-28 2018-03-06 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN108579086A (zh) * 2018-03-27 2018-09-28 腾讯科技(深圳)有限公司 对象的处理方法、装置、存储介质和电子装置
CN108744509A (zh) * 2018-05-30 2018-11-06 努比亚技术有限公司 一种游戏操作控制方法、移动终端及计算机可读存储介质
CN108888952A (zh) * 2018-06-19 2018-11-27 腾讯科技(深圳)有限公司 虚拟道具显示方法、装置、电子设备及存储介质
CN108970112A (zh) * 2018-07-05 2018-12-11 腾讯科技(深圳)有限公司 姿势的调整方法和装置、存储介质、电子装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US8118653B2 (en) * 2008-06-16 2012-02-21 Microsoft Corporation Taking cover in a simulated environment
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
CN106502563B (zh) * 2016-10-19 2020-03-06 北京蜜柚时尚科技有限公司 一种游戏控制方法及装置
JP6308643B1 (ja) * 2017-03-24 2018-04-11 望月 玲於奈 姿勢算出プログラム、姿勢情報を用いたプログラム
JP6800464B2 (ja) * 2017-05-11 2020-12-16 株式会社アルヴィオン プログラム及び情報処理装置
CN107661630A (zh) * 2017-08-28 2018-02-06 网易(杭州)网络有限公司 一种射击游戏的控制方法及装置、存储介质、处理器、终端
CN108363531A (zh) * 2018-01-17 2018-08-03 网易(杭州)网络有限公司 一种游戏中的交互方法及装置
CN108926840A (zh) * 2018-06-27 2018-12-04 努比亚技术有限公司 游戏控制方法、移动终端及计算机可读存储介质
CN109126129B (zh) * 2018-08-31 2022-03-08 腾讯科技(深圳)有限公司 在虚拟环境中对虚拟物品进行拾取的方法、装置及终端
CN110075522B (zh) * 2019-06-04 2024-02-23 网易(杭州)网络有限公司 射击游戏中虚拟武器的控制方法、装置及终端
CN110507993B (zh) * 2019-08-23 2020-12-11 腾讯科技(深圳)有限公司 控制虚拟对象的方法、装置、设备及介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103252087A (zh) * 2012-02-20 2013-08-21 富立业资讯有限公司 具有触控面板媒体的游戏控制方法及该游戏媒体
JP2016093361A (ja) * 2014-11-14 2016-05-26 株式会社コロプラ ゲームプログラム
CN104436657A (zh) * 2014-12-22 2015-03-25 青岛烈焰畅游网络技术有限公司 游戏控制方法、装置以及电子设备
CN105582670A (zh) * 2015-12-17 2016-05-18 网易(杭州)网络有限公司 瞄准射击控制方法及装置
CN107754308A (zh) * 2017-09-28 2018-03-06 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN108579086A (zh) * 2018-03-27 2018-09-28 腾讯科技(深圳)有限公司 对象的处理方法、装置、存储介质和电子装置
CN108744509A (zh) * 2018-05-30 2018-11-06 努比亚技术有限公司 一种游戏操作控制方法、移动终端及计算机可读存储介质
CN108888952A (zh) * 2018-06-19 2018-11-27 腾讯科技(深圳)有限公司 虚拟道具显示方法、装置、电子设备及存储介质
CN108970112A (zh) * 2018-07-05 2018-12-11 腾讯科技(深圳)有限公司 姿势的调整方法和装置、存储介质、电子装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021036577A1 (zh) * 2019-08-23 2021-03-04 腾讯科技(深圳)有限公司 控制虚拟对象的方法和相关装置
CN111135568B (zh) * 2019-12-17 2022-01-04 腾讯科技(深圳)有限公司 虚拟道具的控制方法和装置、存储介质及电子装置
CN111135568A (zh) * 2019-12-17 2020-05-12 腾讯科技(深圳)有限公司 虚拟道具的控制方法和装置、存储介质及电子装置
WO2021147468A1 (zh) * 2020-01-20 2021-07-29 腾讯科技(深圳)有限公司 虚拟环境中的虚拟角色控制方法、装置、设备及介质
CN111298435A (zh) * 2020-02-12 2020-06-19 网易(杭州)网络有限公司 Vr游戏的视野控制方法、vr显示终端、设备及介质
CN111298435B (zh) * 2020-02-12 2024-04-12 网易(杭州)网络有限公司 Vr游戏的视野控制方法、vr显示终端、设备及介质
CN111389000A (zh) * 2020-03-17 2020-07-10 腾讯科技(深圳)有限公司 虚拟道具的使用方法、装置、设备及介质
WO2021227682A1 (zh) * 2020-05-15 2021-11-18 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质
CN112587924A (zh) * 2021-01-08 2021-04-02 网易(杭州)网络有限公司 游戏ai的躲避方法、装置、存储介质及计算机设备
CN112807679A (zh) * 2021-02-01 2021-05-18 网易(杭州)网络有限公司 游戏道具的使用方法、装置、设备及存储介质
TWI800218B (zh) * 2021-02-09 2023-04-21 大陸商騰訊科技(深圳)有限公司 虛擬對象的控制方法、裝置、設備、儲存媒體及程式產品
CN113521759A (zh) * 2021-04-28 2021-10-22 网易(杭州)网络有限公司 信息处理方法、装置、终端和存储介质
CN113521759B (zh) * 2021-04-28 2024-02-13 网易(杭州)网络有限公司 信息处理方法、装置、终端和存储介质
CN113655927A (zh) * 2021-08-24 2021-11-16 亮风台(上海)信息科技有限公司 一种界面交互方法与设备
CN113655927B (zh) * 2021-08-24 2024-04-26 亮风台(上海)信息科技有限公司 一种界面交互方法与设备

Also Published As

Publication number Publication date
JP2022525172A (ja) 2022-05-11
KR20210125568A (ko) 2021-10-18
US20210387087A1 (en) 2021-12-16
KR102619439B1 (ko) 2023-12-28
CN110507993B (zh) 2020-12-11
SG11202109543UA (en) 2021-09-29
WO2021036577A1 (zh) 2021-03-04

Similar Documents

Publication Publication Date Title
CN110507993A (zh) 控制虚拟对象的方法、装置、设备及介质
CN110694261B (zh) 控制虚拟对象进行攻击的方法、终端及存储介质
CN110413171B (zh) 控制虚拟对象进行快捷操作的方法、装置、设备及介质
CN108815851B (zh) 在虚拟环境中射击时的界面显示方法、设备及存储介质
CN110755841B (zh) 虚拟环境中道具的切换方法、装置、设备及可读存储介质
US11656755B2 (en) Method and apparatus for controlling virtual object to drop virtual item and medium
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN110613938B (zh) 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN110448891A (zh) 控制虚拟对象操作远程虚拟道具的方法、装置及存储介质
CN110465098B (zh) 控制虚拟对象使用虚拟道具的方法、装置、设备及介质
CN111659119B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111330274B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN110917623B (zh) 互动信息显示方法、装置、终端及存储介质
CN110523080A (zh) 基于虚拟环境的射击显示方法、装置、设备及存储介质
CN111744186A (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN112316421A (zh) 虚拟道具的装备方法、装置、终端及存储介质
CN111249726B (zh) 虚拟环境中虚拟道具的操作方法、装置、设备及可读介质
CN110448908A (zh) 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质
CN112295215A (zh) 虚拟道具展示方法、装置、设备及存储介质
CN113713383A (zh) 投掷道具控制方法、装置、计算机设备及存储介质
CN111921190A (zh) 虚拟对象的道具装备方法、装置、终端及存储介质
CN111330277A (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111589137B (zh) 虚拟角色的控制方法、装置、设备及介质
CN111450532B (zh) 追踪道具控制方法、装置、终端及存储介质
CN113730916A (zh) 基于虚拟环境中的资源加载方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant