CN111481934A - 虚拟环境画面的显示方法、装置、设备及存储介质 - Google Patents

虚拟环境画面的显示方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111481934A
CN111481934A CN202010275730.8A CN202010275730A CN111481934A CN 111481934 A CN111481934 A CN 111481934A CN 202010275730 A CN202010275730 A CN 202010275730A CN 111481934 A CN111481934 A CN 111481934A
Authority
CN
China
Prior art keywords
offset
virtual environment
camera model
area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010275730.8A
Other languages
English (en)
Other versions
CN111481934B (zh
Inventor
魏嘉城
胡勋
张康
张翔宇
粟山东
张勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010275730.8A priority Critical patent/CN111481934B/zh
Publication of CN111481934A publication Critical patent/CN111481934A/zh
Priority to KR1020217034089A priority patent/KR102645534B1/ko
Priority to SG11202111549TA priority patent/SG11202111549TA/en
Priority to PCT/CN2021/080258 priority patent/WO2021203904A1/zh
Priority to JP2021564807A priority patent/JP2022531770A/ja
Priority to US17/511,394 priority patent/US11847734B2/en
Application granted granted Critical
Publication of CN111481934B publication Critical patent/CN111481934B/zh
Priority to US18/504,955 priority patent/US20240070974A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种虚拟环境画面的显示方法、装置、设备及存储介质,属于人机交互领域。该方法包括:显示第一虚拟环境画面,第一虚拟环境画面包括以第一观察位置为观察中心对虚拟环境进行观察得到的第一区域,第一虚拟环境画面包括位于虚拟环境中的主控虚拟角色;响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,区域型技能指示器用于在虚拟环境中标识出目标区域,目标区域是主控虚拟角色释放技能时的释放区域;显示第二虚拟环境画面,第二虚拟环境画面包括以第二观察位置为观察中心对虚拟环境进行观察得到的第二区域,第二观察位置是相对于第一观察位置进行偏移后的位置,第二区域包括所述目标区域。提高了瞄准目标时的准确度。

Description

虚拟环境画面的显示方法、装置、设备及存储介质
技术领域
本申请涉及人机交互领域,特别涉及一种虚拟环境画面的显示方法、装置、设备及存储介质。
背景技术
在基于三维虚拟环境的应用程序中,如战术竞技游戏,主控虚拟角色与摄像机模型绑定,当用户控制主控虚拟角色在虚拟环境中移动时,通过摄像机模型跟随主控虚拟角色进行移动,从而显示主控虚拟角色在虚拟环境中的画面。
用户能够控制主控虚拟角色在虚拟环境中释放多种区域型技能攻击虚拟环境中的其他虚拟角色,主控虚拟角色在释放区域型技能时要选择技能释放的区域,区域型技能在该区域中产生作用。在释放区域型技能的过程中,镜头跟随主控虚拟角色不变,使得主控虚拟角色始终位于终端显示屏的中心。
主控虚拟角色在释放区域型技能时,可能存在一些区域型技能超出显示屏的显示范围,使得瞄准区域的视野不足,用户无法看到瞄准区域中的目标对象,只能凭感觉进行瞄准,影响用户的判断。
发明内容
本申请实施例提供了一种虚拟环境画面的显示方法、装置、设备及存储介质,通过瞄准操作触发区域型技能指示器选择目标区域,提高了释放技能的准确度,同时提高了人机交互效率。所述技术方案如下:
根据本申请的一个方面,提供了一种虚拟环境画面的显示方法,所述方法包括:
显示第一虚拟环境画面,所述第一虚拟环境画面包括以第一观察位置为观察中心对所述虚拟环境进行观察得到的第一区域,所述第一虚拟环境画面包括位于所述虚拟环境中的主控虚拟角色;
响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,所述区域型技能指示器用于在所述虚拟环境中标识出所述目标区域,所述目标区域是所述主控虚拟角色释放技能时的释放区域;
显示第二虚拟环境画面,所述第二虚拟环境画面包括以第二观察位置为观察中心对所述虚拟环境进行观察得到的第二区域,所述第二观察位置是相对于所述第一观察位置进行偏移后的位置,所述第二区域包括所述目标区域。
根据本申请的另一方面,提供了一种虚拟环境画面的显示装置,所述装置包括:
显示模块,用于显示第一虚拟环境画面,所述第一虚拟环境画面包括以第一观察位置为观察中心对所述虚拟环境进行观察得到的第一区域,所述第一虚拟环境画面包括位于所述虚拟环境中的主控虚拟角色;
所述显示模块,用于响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,所述区域型技能指示器用于在所述虚拟环境中标识出所述目标区域,所述目标区域是所述主控虚拟角色释放技能时的释放区域;
所述显示模块,用于显示第二虚拟环境画面,所述第二虚拟环境画面包括以第二观察位置为观察中心对所述虚拟环境进行观察得到的第二区域,所述第二观察位置是相对于所述第一观察位置进行偏移后的位置,所述第二区域包括所述目标区域。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的虚拟环境画面的显示方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上方面所述的虚拟环境画面的显示方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过瞄准操作触发区域型技能指示器选择目标区域,使得虚拟环境画面不再以主控虚拟角色为中心,从而使得用户能够观察到区域型技能的释放区域,并判断区域型技能释放后的作用范围,减少用户凭借感觉控制主控虚拟角色在虚拟环境中释放区域型技能,提高了释放技能的准确度,同时提高了人机交互效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的虚拟环境画面的示意图;
图2是本申请一个示例性实施例提供的计算机系统的框图;
图3是本申请一个示例性实施例提供的虚拟环境画面的显示方法的流程图;
图4是本申请一个示例性实施例提供的主控虚拟角色的视角对应的摄像机模型示意图;
图5是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的流程图;
图6是本申请一个示例性实施例提供的第一虚拟环境画面的示意图;
图7是本申请一个示例性实施例提供的轮盘式虚拟摇杆的示意图;
图8是本申请一个示例性实施例提供的显示区域型技能指示器的界面示意图;
图9是本申请一个示例性实施例提供的视野判定框的示意图;
图10是本申请一个示例性实施例提供的第二偏移方式的界面示意图;
图11是本申请一个示例性实施例提供的计算第一偏移量的示意图;
图12是本申请一个示例性实施例提供的摄像机模型与虚拟环境的位置关系的示意图;
图13是本申请一个示例性实施例提供的计算第二偏移量的示意图;
图14是本申请一个示例性实施例提供的虚拟环境画面的显示方法的框架图;
图15是本申请一个示例性实施例提供的控制摄像机模型移动的系统框架图;
图16是本申请一个示例性实施例提供的计算全局偏移量的框架图;
图17是本申请一个示例性实施例提供的计算技能偏移量的框架图;
图18是本申请一个示例性实施例提供的第二虚拟环境画面的示意图;
图19是本申请一个示例性实施例提供的控制摄像机模型移动的流程框架图;
图20是本申请一个示例性实施例提供的虚拟环境画面的显示装置的框图;
图21是本申请一个示例性实施例提供的计算机设备的装置结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行介绍:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的环境,还可以是纯虚构的环境。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,本申请对此不加以限定。下述实施例以虚拟环境是三维虚拟环境来举例说明。在一些实施例中,虚拟环境用于为至少两个主控虚拟角色提供作战环境。该虚拟环境包括对称的左下角区域和右上角区域,属于两个敌对阵营的主控虚拟角色分别占据其中一个区域,并以摧毁对方区域深处的目标建筑,或据点,或基地,或水晶来作为胜利目标。
虚拟角色:是指虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物等,比如:在三维虚拟环境中显示的人物或动物等。可选地,虚拟角色是基于动画骨骼技术创建的三维立体模型。每个虚拟角色在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。本申请实施例以虚拟角色为用户控制的主控虚拟角色为例,主控虚拟角色泛指虚拟环境中的一个或多个主控虚拟角色。
摄像机模型:是指在虚拟环境中位于主控虚拟角色周围的三维模型,用于在虚拟环境中对主控虚拟角色进行自动跟随,得到虚拟环境画面。用户通过摄像机模型看到该虚拟环境画面,且用户看不到摄像机模型,该虚拟环境画面可以是以主控虚拟角色的第一人称视角或第三人称视角在虚拟环境中进行观察得到的画面。
多人在线战术竞技游戏(Multiplayer Online Battle Arena Games,MOBA):是指在虚拟环境中,分属至少两个敌对阵营的不同虚拟队伍分别占据各自的地图区域,以某一种胜利条件作为目标进行竞技。该胜利条件包括但不限于:占领据点或摧毁敌对阵营据点、击杀敌对阵营的虚拟角色、在指定场景和时间内保证自身的存活、抢夺到某种资源、在指定时间内比分超过对方中的至少一种。战术竞技可以以局为单位来进行,每局战术竞技的地图可以相同,也可以不同。每个虚拟队伍包括一个或多个虚拟角色,比如1个、2个、3个或5个。一局MOBA游戏的持续时间是从游戏开始的时刻至达成胜利条件的时刻。
本申请中提供的方法可以应用于虚拟现实应用程序、三维地图程序、军事仿真程序、第一人称射击游戏(FirstPerson Shooting Game,FPS)、MOBA游戏等,下述实施例是以在游戏中的应用来举例说明。
基于虚拟环境的游戏由一个或多个游戏世界的地图构成,游戏中的虚拟环境模拟真实世界的场景,用户可以操控游戏中的主控虚拟角色在虚拟环境中进行行走、跑步、跳跃、射击、格斗、驾驶、释放技能、受到其他虚拟角色的攻击、受到虚拟环境中的伤害、攻击其他虚拟角色等动作,交互性较强,并且多个用户可以在线组队进行竞技游戏。
在一些实施例中,主控虚拟角色在虚拟环境中选择地点释放技能,将这类技能命名为区域型技能,区域型技能指示器需要选择虚拟环境中地点的坐标,还包括选择虚拟环境中虚拟单位,如据点、水晶、防御塔等,主控虚拟角色通过区域型技能指示器在虚拟环境中释放区域型技能,区域型技能指示器用于在虚拟环境中标识出主控虚拟角色释放技能时的释放区域。
本申请实施例以游戏中的主控虚拟角色释放区域型技能为例进行说明。
图1示出了本申请一个示例性实施例提供的摄像机模型移动的界面示意图。用户看到的虚拟环境画面是根据虚拟环境中设置的摄像机模型拍摄得到的画面,该摄像机模型对应有镜头锚点,镜头锚点是指摄像机模型在虚拟环境中的三维位置坐标,通过改变镜头锚点改变摄像机模型的位置。本申请实施例以摄像机模型的高度不变(即高度对应的坐标不变),只改变摄像机模型在水平面上的横、纵坐标为例进行说明。示意性的,用户使用的终端为智能手机。
主控虚拟角色100可以位于虚拟环境中的任意位置,示意性的,如图1的(a)所示,主控虚拟角色100显示在虚拟环境画面的中央位置,此时,主控虚拟角色100准备释放区域型技能。
当用户触发技能控件时,在技能控件上显示轮盘式虚拟摇杆102,该轮盘式虚拟摇杆102包括轮盘部和摇杆部。在虚拟环境的地面上显示区域型技能指示器101,如图1的(b)所示,区域型技能指示器101随着用户拖拽轮盘式虚拟摇杆102的方向在虚拟环境中移动。摄像机模型向区域型技能指示器101的移动方向进行偏移,主控虚拟角色100在虚拟环境中的位置未变,虚拟环境画面向远离主控虚拟角色100的方向进行偏移,用户看到主控虚拟角色100位于虚拟环境画面的一侧区域。此时,用户能够看到区域型技能指示器101选择的目标区域,即区域型技能的释放区域。
如图1的(c)所示,主控虚拟角色100释放区域型技能(未示出),区域型技能指示器消失,摄像机模型拍摄到的虚拟环境画面如图1的(c)所示的虚拟环境画面,即相比于图1的(b)所示,摄像机模型所在的位置未发生变化。
当主控虚拟角色100释放完区域型技能后,摄像机模型向主控虚拟角色100的方向移动,形成如图1的(a)所示的虚拟环境画面,示意性的,主控虚拟角色100又位于虚拟环境画面的中央位置。
根据主控虚拟角色使用的区域型技能的作用范围不同,摄像机模型的移动方式包括如下三种情况:1、摄像机模型根据区域型技能指示器与视野判定框的相对位置关系进行移动(视野判定框是虚拟环境中设置的用户不可见的边框);2、摄像机模型根据区域型技能指示器选择的区域,在虚拟环境中按照一定比例偏移;3、摄像机模型根据使用的区域型技能的类型进行偏移。
本实施例中通过将摄像机模型跟随区域型技能指示器进行移动,使得用户能够看到瞄准位置处的虚拟环境画面,避免用户因视野受阻而导致瞄准产生偏差,提高了人机交互的效率。
图2示出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统100包括:第一终端120、服务器140和第二终端160。
第一终端120安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏、大逃杀类型的射击游戏中的任意一种。第一终端120是第一用户使用的终端,第一用户使用第一终端120控制位于虚拟环境中的第一主控虚拟角色进行活动,该活动包括但不限于:调整身体姿态、行走、奔跑、跳跃、释放技能、拾取、攻击、躲避其他虚拟角色的攻击中的至少一种。示意性的,第一主控虚拟角色是第一虚拟人物,比如仿真人物角色或动漫人物角色。示意性的,第一主控虚拟角色在虚拟环境中释放区域型技能,虚拟环境画面由主控虚拟角色所在的位置向区域型技能指示器选中的目标区域移动。区域型技能指示器用于主控虚拟角色在释放技能时选择释放区域。
第一终端120通过无线网络或有线网络与服务器140相连。
服务器140包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。示意性的,服务器140包括处理器144和存储器142,存储器142又包括接收模块1421、控制模块1422和发送模块1423,接收模块1421用于接收客户端发送的请求,如组队请求;控制模块1422用于控制虚拟环境画面的渲染;发送模块1423用于向客户端发送消息通知,如组队成功通知。服务器140用于为支持三维虚拟环境的应用程序提供后台服务。可选地,服务器140承担主要计算工作,第一终端120和第二终端160承担次要计算工作;或者,服务器140承担次要计算工作,第一终端120和第二终端160承担主要计算工作;或者,服务器140、第一终端120和第二终端160三者之间采用分布式计算架构进行协同计算。
第二终端160通过无线网络或有线网络与服务器140相连。
第二终端160安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏、大逃杀类类型的射击游戏中的任意一种。第二终端160是第二用户使用的终端,第二用户使用第二终端160控制位于虚拟环境中的第二主控虚拟角色进行活动,该活动包括但不限于:调整身体姿态、行走、奔跑、跳跃、释放技能、拾取、攻击、躲避其他主控虚拟角色的攻击中的至少一种。示意性的,第二主控虚拟角色是第二虚拟人物,比如仿真人物角色或动漫人物角色。
可选地,第一虚拟人物角色和第二虚拟人物角色处于同一虚拟环境中。可选地,第一虚拟人物角色和第二虚拟人物角色可以属于同一个队伍、同一个组织、具有好友关系或具有临时性的通讯权限。
可选地,第一终端120和第二终端160上安装的应用程序是相同的,或两个终端上安装的应用程序是不同控制系统平台的同一类型应用程序。第一终端120可以泛指多个终端中的一个,第二终端160可以泛指多个终端中的一个,本实施例仅以第一终端120和第二终端160来举例说明。第一终端120和第二终端160的设备类型相同或不同,该设备类型包括:智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。以下实施例以终端包括智能手机来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
图3示出了本申请一个示例性实施例提供的虚拟环境画面的显示方法的流程图,该方法可应用于如图2所示的计算机系统100中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤301,显示第一虚拟环境画面,第一虚拟环境画面包括以第一观察位置为观察中心对虚拟环境进行观察得到的第一区域,第一虚拟环境画面包括位于虚拟环境中的主控虚拟角色。
用户使用的终端上运行有支持虚拟环境的应用程序,当用户运行该应用程序时,终端的显示屏上对应显示在使用该应用程序时的用户界面,在用户界面中包括虚拟环境画面。虚拟环境画面显示的虚拟环境包括:山川、平地、河流、湖泊、海洋、沙漠、天空、植物、建筑、交通工具中的至少一种元素。
在一些实施例中,虚拟环境是具有任意边界形状的虚拟环境,如虚拟环境呈菱形。用户可通过查看虚拟环境对应的地图来浏览虚拟环境的全貌。在虚拟环境中设置有摄像机模型,摄像机模型用于以不同的视角对虚拟环境进行观察,从而得到虚拟环境画面。
视角是指以主控虚拟角色的第一人称视角或者第三人称视角在虚拟环境中进行观察时的观察角度。
可选地,摄像机模型在虚拟环境中对主控虚拟角色进行自动跟随,即,当主控虚拟角色在虚拟环境中的位置发生改变时,摄像机模型跟随主控虚拟角色在虚拟环境中的位置同时发生改变,且该摄像机模型在虚拟环境中始终处于主控虚拟角色的预设距离范围内。可选地,在自动跟随过程中,摄像机模型和主控虚拟角色的相对位置发生变化或不发生变化。
摄像机模型是指在虚拟环境中位于主控虚拟角色周围的三维模型,当采用第一人称视角时,该摄像机模型位于主控虚拟角色的头部附近或者位于主控虚拟角色的头部;当采用第三人称视角时,该摄像机模型可以位于主控虚拟角色的后方并与主控虚拟角色进行绑定,也可以位于与主控虚拟角色相距预设距离的任意位置,通过该摄像机模型可以从不同角度对位于虚拟环境中的主控虚拟角色进行观察,可选地,该第三人称视角为第一人称的过肩视角时,摄像机模型位于主控虚拟角色(比如,虚拟人物角色的头肩部)的后方。可选地,除第一人称视角和第三人称视角外,视角还包括其他视角,比如俯视视角;当采用俯视视角时,该摄像机模型可以位于主控虚拟角色头部的上空,俯视视角是以从空中俯视的角度进行观察虚拟环境的视角。可选地,该摄像机模型在虚拟环境中不会进行实际显示,即,在用户界面显示的虚拟环境画面中不显示该摄像机模型。
对该摄像机模型位于与主控虚拟角色相距预设距离的任意位置为例进行说明,可选地,一个主控虚拟角色对应一个摄像机模型,该摄像机模型可以以主控虚拟角色为旋转中心进行旋转,如:以主控虚拟角色的任意一点为旋转中心对摄像机模型进行旋转,摄像机模型在旋转的过程中不仅在角度上有转动,还在位移上有偏移,旋转时摄像机模型与该旋转中心之间的距离保持不变,即,将摄像机模型在以该旋转中心作为球心的球体表面进行旋转,其中,主控虚拟角色的任意一点可以是主控虚拟角色的头部、躯干、或者主控虚拟角色周围的任意一点,本申请实施例对此不加以限定。可选地,摄像机模型在对主控虚拟角色进行观察时,该摄像机模型的视角的中心指向为该摄像机模型所在球面的点指向球心的方向。
可选地,该摄像机模型还可以在主控虚拟角色的不同方向以预设的角度对主控虚拟角色进行观察。
示意性的,请参考图4,在主控虚拟角色11中确定一点作为旋转中心12,摄像机模型围绕该旋转中心12进行旋转,可选地,该摄像机模型配置有一个初始位置,该初始位置为主控虚拟角色后上方的位置(比如脑部的后方位置)。示意性的,如图4,该初始位置为位置13,当摄像机模型旋转至位置14或者位置15时,摄像机模型的视角方向随摄像机模型的转动而进行改变。
在一些实施例中,通过用户手动操作切换摄像机模型的视角,如用户在虚拟环境对应的地图上选择想要查看的目标,摄像机模型根据用户的操作将视角切换为用户选择的目标所对应的视角,在该视角下的虚拟环境画面显示有用户选择的目标,未显示有用户控制的主控虚拟角色。
第一观察位置是摄像机模型在第一摄像机位置(如图4中的位置14),对虚拟环境进行观察时,虚拟环境中对应的观察位置。以摄像机模型的镜头为起点,沿观察方向(或摄像方向)射出的直线与虚拟环境中存在交点,该交点是观察位置。第一观察位置对应虚拟环境中的任意位置,该第一观察位置包括主控虚拟角色所在的位置。
第一区域是以第一观察位置为观察中心对虚拟环境进行观察得到的区域,第一区域可以是任意形状,如圆形、矩形、不规则形状等。在一些实施例中,第一区域是用户通过终端的显示屏所看到的区域;在另一些实施例中,第一区域超过显示屏所显示的区域(该区域是虚拟环境中的部分区域),或第一区域是整个虚拟环境对应的区域。
第一虚拟环境画面可以是主控虚拟角色未释放区域型技能时对应的虚拟环境画面,也可以是主控虚拟角色释放一次区域型技能后对应的虚拟环境画面。
主控虚拟角色是虚拟环境中可活动的对象,主控虚拟角色可以是虚拟人物、虚拟动物、动漫人物等,本申请实施例中的主控虚拟角色对应有不同的职业,不同职业的主控虚拟角色在虚拟环境中释放的技能不同,同一职业的主控虚拟角色能够释放多种类型的技能。本申请实施例以主控虚拟角色释放区域型技能为例进行说明。
步骤302,响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,区域型技能指示器用于在虚拟环境中标识出目标区域,目标区域是主控虚拟角色释放技能时的释放区域。
区域型技能是指主控虚拟角色在释放技能时需要选择释放区域进行释放的技能。主控虚拟角色通过区域型技能指示器在虚拟环境中释放区域型技能,区域型技能在释放时,主控虚拟角色选择的地点不仅指选择地点的坐标,还包括选择地点上的虚拟单位,如水晶、据点、防御塔等。在一些实施例中,主控虚拟角色释放区域型技能的方式是:用户进行区域型技能的释放操作(或瞄准操作),如触发区域型技能的释放控件,显示控制区域型技能指示器的轮盘式虚拟摇杆,在虚拟环境画面中显示区域型技能指示器,用户可以通过控制轮盘式虚拟摇杆控制区域型技能指示器放置在虚拟环境中的位置,区域型技能指示器可以被放置在虚拟环境中的任意位置,区域型技能指示器放置的位置对应的区域表示区域型技能的释放区域,该释放区域也是区域型技能指示器在虚拟环境中标识出的目标区域。当区域型技能指示器放置在虚拟环境中时,区域型技能被主控虚拟角色释放。区域型技能的作用区域可以是任意形状,如圆形、矩形、三角形、多边形、不规则形状等,本申请实施例以作用区域是圆形为例进行说明。
在一些实施例中,目标区域与第一区域存在重叠的区域,或目标区域与第一区域不重叠。
当用户使用的终端是具有触摸显示屏的终端时,如智能手机或平板电脑等,瞄准操作是通过用户触发用户界面(User Interface,UI)控件产生的或在触摸显示屏上实施释放区域型技能的手势操作产生的。在一些实施例中,UI控件又被命名为技能释放控件或区域型技能释放控件,本申请实施例对控件的名称不加以限定。
当用户使用的终端是接有外部输入设备的终端时,如台式计算机、笔记本电脑等,瞄准操作是通过用户触发外部输入设备产生的,如用户点击连接有台式计算机的鼠标或手柄,控制主控虚拟角色释放区域型技能。
步骤303,显示第二虚拟环境画面,第二虚拟环境画面包括以第二观察位置为观察中心对所述虚拟环境进行观察得到的第二区域,第二观察位置是相对于第一观察位置进行偏移后的位置,第二区域包括目标区域。
摄像机模型从第一摄像机位置移动至第二摄像机位置(如图4中所示,从位置14移动至位置13),形成第二虚拟环境画面。第二观察位置是摄像机模型位于第二摄像机位置,对虚拟环境进行观察时,虚拟环境中对应的观察位置。第二观察位置是在第一观察位置的基础上,偏移后得到的,以第二观察位置为观察中心形成第二虚拟环境画面。
第二区域是以第二观察位置为观察中心对虚拟环境进行观察得到的区域,第二区域可以是任意形状,如圆形、矩形、不规则形状等。目标区域位于第二区域内。在一些实施例中,第二区域是用户通过终端的显示屏所看到的区域;在另一些实施例中,第二区域超过显示屏所显示的区域(该区域是虚拟环境中的部分区域),或第二区域是整个虚拟环境对应的区域。
第二虚拟环境画面可以是主控虚拟角色释放完区域型技能后对应的虚拟环境画面。
综上所述,本实施例提供的方法,通过瞄准操作触发区域型技能指示器选择目标区域,使得虚拟环境画面不再以主控虚拟角色为中心,从而使得用户能够观察到区域型技能的释放区域,并判断区域型技能释放后的作用范围,减少用户凭借感觉控制主控虚拟角色在虚拟环境中释放区域型技能,提高了释放技能的准确度,同时提高了人机交互效率。
结合用户界面对虚拟环境画面的显示方法进行说明。
图5示出了本申请另一个示例性实施例提供的虚拟环境画面的显示方法的流程图。该方法可应用于如图2所示的计算机系统100中的第一终端120或第二终端160中或该计算机系统中的其它终端中。该方法包括如下步骤:
步骤501,显示第一虚拟环境画面,第一虚拟环境画面包括以第一观察位置为观察中心对虚拟环境进行观察得到的第一区域,第一虚拟环境画面包括位于虚拟环境中的主控虚拟角色。
示意性的,以用户使用的终端包括智能手机为例。如图6所示,在终端的显示屏上显示有游戏程序的用户界面,该用户界面第一虚拟环境画面60,第一虚拟环境画面60包括主控虚拟角色61。第一虚拟环境画面60包括第一区域,该第一区域是与第一虚拟环境画面60所显示的区域一样大的区域,或是第一虚拟环境画面60所显示的区域中的部分区域,或是大于第一虚拟环境画面60所显示的区域。
在一个示例中,第一区域是第一虚拟环境画面60所显示的区域,主控虚拟角色61位于第一区域中。
该用户界面还包括UI控件62,UI控件62用于在用户触发时控制主控虚拟角色在虚拟环境中释放技能。在一些实施例中,用户触发不同的UI控件62释放不同类型的技能,本申请实施例以控制主控虚拟角色释放区域型技能为例进行说明。
步骤502,响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,区域型技能指示器用于在虚拟环境中标识出目标区域,目标区域是主控虚拟角色释放技能时的释放区域。
示意性的,用户触发用户界面的UI控件,终端接收到瞄准操作。在一个示例中,UI控件62用于控制主控虚拟角色释放区域型技能。当用户点击UI控件62时,显示如图7所示的轮盘式虚拟摇杆,轮盘式虚拟摇杆包括轮盘部63和摇杆部64,通过拖拽摇杆部64的方式,控制区域型技能指示器65显示在虚拟环境中的位置,如图8所示。在一些实施例中,遥杆部64也可以是三角形、矩形等其他形状,或者,摇杆部64是由区域型技能指示器的中心指向轮盘部63边缘的一条射线,通过射线的指向,指示区域型技能指示器在虚拟环境中选择的目标区域。
示意性的,区域型技能指示器65为圆形,区域技能指示器65所标识的区域的是主控虚拟角色释放区域型技能的目标区域,该目标区域是圆形,区域型技能的作用范围是该目标区域。在一些实施例中,目标区域的面积与区域型技能的作用范围有关,或与区域型技能的类型有关,如区域型技能的作用范围越大,目标区域的面积越大。
在一些实施例中,区域型技能指示器65在选择区域66中被释放,选择区域66用于为区域型技能指示器65选择目标区域提供范围。选择区域66可以是虚拟环境的部分区域,也可以是整个虚拟环境对应的区域。
在一些实施例中,区域型技能释放的方式为主控虚拟角色选择虚拟环境中的地点,其中,选择地点不仅指的是选择地点的坐标,还包括地点上的虚拟单位,如水晶、据点、防御塔等。
步骤503,根据偏移方式将摄像机模型从第一摄像机位置移动至第二摄像机位置,第一摄像机位置与第一观察位置对应,第二摄像机位置与第二观察位置对应。
虚拟环境设置有摄像机模型,摄像机模型用于观察得到虚拟环境画面,通过移动摄像机模型的位置,由第一虚拟环境画面显示为第二虚拟环境画面。
如图4所示,示意性的,第一摄像机位置是位置13,摄像机模型在位置13所观察到的或拍摄的虚拟环境的画面是第一虚拟环境画面,根据偏移方式将摄像机模型移动至第二摄像机位置,第二摄像机位置是位置15,摄像机模型在位置15所观察到的或拍摄的虚拟环境的画面是第二虚拟环境画面。
在一些实施例中,偏移方式包括摄像机模型的移动速度,如摄像机模型以匀速的方式从第一摄像机位置移动至第二摄像机位置。在另一些实施例中,偏移方式包括摄像机模型产生移动的触发方式,即满足触发条件后才触发摄像机模型移动。在另一些实施例中,摄像机模型的移动方式包括摄像机模型移动的距离,如主控虚拟角色释放的区域型技能作用范围较小时,摄像机模型移动的距离较小,或,主控虚拟角色释放的区域型技能作用范围较大时,摄像机模型移动的距离较大。本申请实施例以偏移方式包括摄像机模型产生移动的触发方式为例进行说明。
摄像机模型的偏移方式包括第一偏移方式和第二偏移方式中的至少一种,当摄像机模型以第一偏移方式进行偏移时,步骤503可替换为如下步骤:
步骤503a,响应于区域参考点位于视野判定框之外,根据区域参考点与视野判定框的边框之间的距离确定摄像机模型在第一偏移方式下的第一偏移量,区域参考点是基于目标区域的中心点确定的。
第一偏移方式是摄像机模型基于视野判定框进行偏移的方式,视野判定框用于表征摄像机模型的视野范围。视野判定框是设置在虚拟环境画面中的不可见的边框,视野判定框是以摄像机模型的观察中心为中心点、平行于水平面的边框,视野判定框存在至少一条边框与摄像机模型的观察方向垂直。
如图9所示,在虚拟环境画面中显示有视野判定框67,视野判定框67还可以是圆形、三角形、多边形等形状,本申请实施例对视野判定框67的形状不加以限定。视野判定框67的大小可以预先设置,或根据摄像机模型的偏移距离进行设置,或根据区域型技能的作用范围进行设置,本申请实施例对视野判定框67的大小不加以限定。需要说明的是,本申请实施例中,视野判定框67仅作为示例,在实际情况下,视野判定框67并不显示在虚拟环境画面中,即用户从用户界面上看不到视野判定框67。
如图9所示,区域参考点68是基于区域型技能指示器65的中心点确定的,当区域参考点68位于视野判定框67之外时,触发摄像机模型进行偏移。摄像机模型在第一偏移方式下的第一偏移量是以区域参考点68与视野判定框67之间的距离进行计算的。
步骤504a,根据第一偏移量将摄像机模型从第一摄像机位置移动至第二摄像机位置。
摄像机模型按照步骤503a计算的第一偏移量进行偏移,第一偏移量包括摄像机模型的第一移动方向和第一移动距离。
本实施例提供的方法,通过设置视野判定框,根据视野判定框确定摄像机模型的第一偏移量,使得摄像机模型能够准确移动至对应位置,从而根据摄像机模型所在的位置准确显示第二虚拟环境画面。
当摄像机模型以第二偏移方式进行偏移时,步骤503可替换为如下步骤:
步骤503b,根据指示方向确定摄像机模型在第二偏移方式下的第二偏移量。
第二偏移方式是基于指示方向进行偏移的方式,指示方向是从主控虚拟角色所在的位置向目标区域的中心点的方向。
如图10所示,在虚拟环境画面中显示有区域型技能指示器65,该区域型技能指示器65对应有中心点68,该区域型技能指示器65标识有区域型技能释放的目标区域,用户从选择区域66中选择区域型技能指示器65的释放位置。
虚拟环境画面还显示有指示方向69,该指示方向由主控虚拟角色所在的位置指向区域型技能指示器的中心点,即目标区域的中心点。
根据指示方向与水平方向的夹角、指示方向对应的距离和偏移比例确定摄像机模型在第二偏移方式下的第二偏移量。
步骤504b,根据第二偏移量将摄像机模型从第一摄像机位置移动至第二摄像机位置。
摄像机模型按照步骤504a确定的第二偏移量进行偏移,第二偏移量包括摄像机模型的第二移动方向和第二移动距离。
本实施例提供的方法,通过区域型技能指示器指示的方向获取对应的夹角、固定偏移距离和偏移比例确定摄像机模型的第二偏移量,使得主控虚拟角色释放的技能作用范围变化较大时,摄像机模型能够根据第二偏移量准确偏移至对应的位置,从而准确显示第二虚拟环境画面。
步骤505,根据摄像机模型所在的第二摄像机位置,显示第二虚拟环境画面。
摄像机模型在移动至第二摄像机位置后,将在第二摄像机位置拍摄到的画面或观察到的画面显示为第二虚拟环境画面。第二虚拟环境画面包括以第二摄像机位置对虚拟环境观察的到的第二区域,该第二区域包括区域型技能指示器标识的目标区域。
可以理解的是,上述第一偏移方式和第二偏移方式可以分别单独实施,也可以组合实施,还可以与其他偏移方式组合实施。
综上所述,本实施例提供的方法,通过不同的偏移方式控制摄像机模型从第一摄像机位置移动至第二摄像机位置,使得用户能够观察到区域型技能的释放区域,据此判定区域型技能释放后的作用范围,减少用户凭借感觉控制主控虚拟角色在虚拟环境中释放区域型技能,提高了释放技能的准确度,同时提高了人机交互效率。
摄像机模型在不同的偏移方式下对应有不同的偏移量,控制摄像机模型根据不同的偏移量进行偏移,使得摄像机模型能够准确拍摄到对应位置的虚拟环境画面,从而能够在用户界面上准确显示对应的虚拟环境画面。
下面分别对确定第一偏移量和第二偏移量的方法进行说明。
基于图5的可选实施例中,当摄像机模型以第一偏移方式进行偏移时,上述步骤503a可以替换为如下步骤:
步骤5031a,响应于区域参考点位于视野判定框之外,计算区域参考点与视野判定框的边框之间的垂直距离,垂直距离包括横向垂直距离和纵向垂直距离中的至少一种,横向垂直距离是区域参考点与视野判定框的纵向边框之间的垂直距离,纵向垂直距离是区域参考点与视野判定框的横向边框之间的垂直距离。
如图11所示,区域型技能指示器65与视野判定框67之间的垂直距离包括横向垂直距离70和纵向垂直距离71,横向垂直距离70是区域参考点68到视野判定框67的垂直距离。
示意性的,以主控虚拟角色为原点,垂直于摄像机模型的观察方向为x轴,平行于摄像机的观察方向为y轴,在虚拟环境中建立平面直角坐标系。示意性的,计算横向垂直距离70,区域参考点68的坐标为(x1,y1),视野判定框67上与区域参考点68表示垂直距离的点的坐标为(x2,y1),则横向垂直距离70为(x1-x2),纵向垂直距离为0(两点的纵坐标相同)。
同理,计算纵向垂直距离71,区域参考点68的坐标为(x3,y3),视野判定框67上与区域参考点68表示垂直距离的点的坐标为(x3,y4),则纵向垂直距离71为(x3-x4),横向垂直距离为0(两点的横坐标相同)。
步骤5032a,将垂直距离确定为摄像机模型在第一偏移方式下的第一偏移量。
在第一偏移方式下,第一偏移量包括第一横向垂直距离和第一纵向垂直距离中的至少一种。
综上所述,本实施例提供的方法,通过设置视野判定框,根据视野判定框与区域参考点之间的垂直距离计算摄像机模型的第一偏移量,从而能够准确确定摄像机模型移动至目标位置时的坐标,进一步控制摄像机模型准确移动至目标位置。
基于图5的可选实施例中,示意性的,当用户通过拖拽轮盘式虚拟摇杆控制区域型技能指示器的放置位置时,在拖拽的过程中,存在区域参考点重新位于视野判定框之内的情况,此时摄像机模型的移动方式如下:
步骤1,响应于区域参考点重新位于视野判定框之内,将摄像机模型从第二摄像机位置移动至第三摄像机位置,第三摄像机位置位于第二摄像机位置与第一摄像机位置之间,第三摄像机位置与第三观察位置对应。
示意性的,以上述实施例中的第二虚拟环境画面为例,第二虚拟环境画面对应一组画面中第i帧,此时区域参考点位于视野判定框之外,摄像机模型根据视野判定框和区域参考点之间的距离确定在第一偏移模式下的第一偏移量。在摄像机模型根据第一偏移量进行偏移后,此时画面进入第i+1帧,当区域型技能指示器还未被释放在虚拟环境中时,视野判定框会自动靠近区域参考点,使得区域参考点位于视野判定框之内。此时摄像机模型会发生移动,从第二摄像机位置移动至第三摄像机位置。摄像机模型从第二摄像机位置向第一摄像机位置处移动,还未至第一摄像机位置,类似于产生了“弹簧”的效果,即用户通过拖拽轮盘式虚拟摇杆沿第一方向控制区域型技能指示器移动时,摄像机模型跟随区域型技能指示器移动;当用户通拖拽轮盘式虚拟摇杆沿与第一方向相反的方向控制区域型技能指示器移动时,摄像机模型跟随区域型技能指示器沿与第一方向相反的方向移动。
步骤2,根据位于第三摄像机位置的摄像机模型显示第三虚拟环境画面,第三虚拟环境画面包括以第三观察位置为观察中心对虚拟环境进行观察的第三区域,第三区域包括目标区域。
在摄像机模型产生类似“弹簧”的回缩移动时,根据摄像机模型的位置显示第三虚拟环境画面,第三虚拟环境画面对应的区域中始终显示区域型技能指示器选择的目标区域。与第一区域和第二区域类似,第三区域可以是虚拟环境中的部分区域,也可以是整个虚拟环境对应的区域。
综上所述,本实施例提供的方法,通过用户再次控制区域型技能指示器选择目标区域,使得区域型技能指示器的区域参考点重新位于视野判定框之内,控制摄像机模型向第三摄像机位置移动,即“拉回”摄像机模型,从而实现当区域参考点超出原始的虚拟环境画面时,控制摄像机模型偏移;当区域参考点未超出原始虚拟环境画面时,控制摄像机模型同步回缩,提高了摄像机模型在偏移时的连贯性,方便用户操作和观察。
基于图5的可选实施例中,当摄像机模型以第二偏移方式进行偏移时,上述步骤503b可以替换为如下步骤:
步骤5031b,获取指示方向与水平方向之间的夹角,水平方向是平行于虚拟环境中的水平面且垂直摄像机模型的观察方向。
指示方向是从主控虚拟角色指向目标区域的中心点的方向,如图10所示的指示方向69。
如图12所示,虚拟环境所在的平面200上有主控虚拟角色204,水平方向203和其他虚拟角色207,主控虚拟角色204对应有摄像机模型201,可以理解的是,摄像机模型201的观察方向202与水平方向203垂直,水平方向203平行于虚拟环境的水平面(即虚拟环境所在的平面200)。摄像机模型201的观察方向202与水平面呈45°,在一些实施例中,观察方向202与水平面呈60°或90°,本申请实施例对此不加以限定。
步骤5032b,获取摄像机模型与指示方向对应的固定偏移距离。
当指示方向与水平方向存在一定夹角时,获取该指示方向对应的固定偏移距离,在一些实施例中,该固定偏移距离是预先设置的,或者,根据实际的指示方向设置的。在一些实施例中,指示方向包括上、下、左、右、左上、左下、右上、右下中的任意一种。固定偏移距离包括横向偏移距离和纵向偏移距离中的至少一种。
步骤5033b,获取摄像机模型在第二偏移方式下的偏移比例,偏移比例用于指示摄像机模型按照比例进行移动。
区域型技能指示器可以在选择区域中任意选择目标区域,因此根据区域型技能指示器选择的目标区域对应的指示方向不同,摄像机模型的偏移量也不同。
步骤5034b,根据夹角、固定偏移距离和偏移比例确定第二偏移量。
第二偏移量包括横向偏移量和纵向偏移量中的至少一种。
分别对确定横向偏移量和纵向偏移量的方法进行说明。
1、根据夹角的余弦值、横向偏移距离和偏移比例的乘积确定横向偏移量。
横向偏移距离包括左偏移距离和右偏移距离中的至少一种。左、右分别是以虚拟环境画面正向为准,左偏移距离是虚拟环境画面的左侧指向的方向对应的偏移距离,右偏移距离是虚拟环境画面的右侧指向的方向对应的偏移距离。
偏移比例是第一距离和第二距离的比值,其中,第一距离是主控虚拟角色所在的位置与目标区域的中心之间的距离,第二距离是选择区域的半径,选择区域用于为区域型技能指示器选择目标区域提供范围。
如图13所示,区域型技能指示器65位于选择区域66的边缘,以区域型技能指示器的中心点为C,主控虚拟角色所在位置为A,选择区域66上的点B。第一距离是指AC的距离,第二距离是指AB的距离,偏移比例是AC/AB。在一些实施例中,当主控虚拟角色所在的位置是选择区域的圆心时,第二距离是选择区域的半径;在另一些实施例中,当主控虚拟角色所在的位置不是选择区域的圆心,第二距离是主控虚拟角色所在的位置与选择区域边缘之间的距离。
摄像机模型的横向偏移量X可以用如下公式计算:
X=cosα*x*(AC/AB)
其中,α是指示方向与水平方向的夹角,x是横向偏移距离,该横向偏移距离是固定值,AC/AB是偏移比例。
2、根据夹角的正弦值、纵向偏移距离和偏移比例的乘积确定纵向偏移量。
纵向偏移距离包括上偏移距离和下偏移距离中的至少一种。上、下分别是以虚拟环境画面的正向为准,上偏移距离是虚拟环境画面的上侧指向的方向对应的偏移距离,下偏移距离是虚拟环境画面的下侧指向的方向对应的偏移距离。
与计算横向偏移量的方法类似,摄像机模型的纵向偏移量Y可以用如下公式计算:
Y=sinα*y*(AC/AB)
其中,α是指示方向与水平方向的夹角,y是纵向偏移距离,该纵向偏移距离是固定值,AC/AB是偏移比例。
综上所述,本实施例提供的方法,通过获取区域指示器指示的方向对应的参数(包括指示方向与水平方向的夹角、指示方向对应的固定偏移距离和偏移比例)计算摄像机模型的第二偏移量,使得摄像机模型能够根据主控虚拟角色释放的技能的作用范围按照比例进行移动,从而区域型技能指示器能够完整显示在虚拟环境画面中,提高人机交互效率。
除了上述实施例提供的通过移动摄像机模型的方式显示第二虚拟环境画面,在一些实施例中,还可以通过改变改变摄像机模型对应的镜头的焦距来改变摄像机模型拍摄到的虚拟环境画面,或者,改变摄像机模型的观察方向与虚拟环境的角度,如改变摄像机模型的相对于虚拟环境的俯仰角和偏转角,使得摄像机模型从不同角度的观察方向拍摄到不同的虚拟环境画面。
本申请实施例提供了一种虚拟环境画面的显示方法的流程框架,如图14所示,该方法流程的框架如下:
当用户控制主控虚拟角色在虚拟环境中使用区域型技能1401时,摄像机模型主动对区域型技能指示器进行瞄准。
摄像机模型进行移动1402。
在主控虚拟角色成功释放区域型技能或取消释放区域型技能时,摄像机模型移动回原位1403。
主控虚拟角色未使用区域型技能时对应的虚拟环境画面,或已经使用一次区域型技能后的结束时刻对应的虚拟环境画面,拍摄该虚拟环境画面的摄像机模型对应的摄像机位置是原位置。
在一些实施例中,摄像机模型设置有镜头,可以根据实际情况更换镜头,从而在终端的显示屏上显示不同的虚拟环境画面,如更换放大虚拟环境中的虚拟单位对应的镜头,虚拟环境画面显示的虚拟单位变大。
在一些实施例中,以镜头锚点表示摄像机模型在虚拟环境中的三维位置坐标,本申请实施例中,摄像机模型的镜头锚点只改变了横坐标和纵坐标(即平面坐标),表示摄像机模型的高度位置的坐标未发生变化,即摄像机模型与虚拟环境的相对距离未发生变化,或摄像机模型与主控虚拟角色的相对距离未发生变化。
为了防止摄像机模型在偏移量较大时,显示的虚拟环境画面造成用户的眩晕感,通常在摄像机模型偏移的时候限定一个最大距离,当摄像机模型的偏移量达到最大距离时,停止移动。
在一些实施例中,当摄像机模型以第二偏移方式移动时,可能会改变摄像机模型的高度位置对应的坐标,如抬高摄像机模型,增加摄像机模型与虚拟环境的相对距离,使得摄像机模型能拍摄到面积更大的虚拟环境,从而使得显示在虚拟环境画面中的内容更多,用户能够看到距离主控虚拟角色更远的虚拟单位(虚拟环境中其他虚拟人物角色或虚拟物体)。
综上所述,当用户控制主控虚拟角色在虚拟环境中使用区域型技能指示器时,摄像机模型主动跟随区域型技能指示器,使得用户能够看到完整的区域型技能指示器,即区域型技能指示器瞄准的目标区域,从而提高人机交互效率。
本申请实施例提供了一种摄像机模型计算偏移量时的系统框架,该系统框架如下:
S1、获取摄像机模型的技能偏移量和全局偏移量。
摄像机模型工具集1501(CameraActionUtils):又被命名为镜头模块工具集,对外提供各种操作对应的接口,包括移动、旋转、抬起摄像机模型、或抬起镜头等操作。
摄像机模型控制器1502(CameraController):又被命名为镜头控制器,主要用于管理摄像机模型或镜头的各种数据,提供镜头模块工具集内部的各自接口。
摄像机模型方案1503(CameraAction):又被命名为镜头方案,用于设置摄像机模型移动时的各种数据,如匀速运动、差值运动、平滑阻尼运动等。
处理技能偏移量1504a(LocalMoveComponent):主控虚拟角色释放技能时,从镜头方案中获取方案参数,每帧移动摄像机模型直至到达目的位置。技能偏移量是根据偏移方式确定的,偏移方式可以是上述实施例中的第一偏移方式和第二偏移方式中的至少一种。可以理解的是,该流程框架还包括:轨迹回位(SetLocalPosOff)1505a,用于控制基于技能偏移量的偏移回到默认摄像机位置。
处理全局偏移量1504b(GlobalMoveComponent):用于针对全局常见的拖拽操作控制摄像机模型进行偏移,如图16所示。全局偏移量是根据摄像机模型的控制指令确定的,控制指令包括:拖拽地图指令、小地图查看指令、指定虚拟单位视角指令中、跟随子弹指令中的至少一种。拖拽地图指令用于切换显示地图上被选择的地点对应的虚拟环境画面;小地图查看指令用于打开表示虚拟环境的地图,查看地图上对应的虚拟单位;指定虚拟单位视角指令用于以被选中的虚拟单位的视角对虚拟环境进行观察,比如主控虚拟角色死亡后以队友的视角继续观察虚拟环境;跟随子弹指令用于当主控虚拟角色释放的技能作用的范围较大时,或释放的技能携带有子弹时,摄像机模型可以跟随技能作用的方向或飞行的子弹进行移动,直到技能被释放。可以理解的是,该流程框架还包括:全局回位(SetGlobalPosOff)1505b,用于控制基于全局偏移量的偏移回到默认摄像机位置。
S2、将技能偏移量和全局偏移量之和确定为摄像机模型的偏移量。
为了减少摄像机模型在移动时产生冲突,将摄像机模型的偏移量分为技能偏移量和全局偏移量。
技能偏移量的框架如图17所示,技能偏移量是指主控虚拟角色释放技能时摄像机模型产生的偏移量,技能偏移量包括上述实施例中涉及的第一偏移量和第二偏移量中的至少一种,还包括其他偏移量。其他偏移量是指根据主控虚拟角色释放的技能类型确定摄像机模型的偏移量。如图18所示,主控虚拟角色80在释放技能时,技能的作用范围是扇形,因此根据该作用范围摄像机模型向虚拟环境画面的右下角偏移,使得技能指示器显示在完整地显示在虚拟环境画面。
在一些实施例中,摄像机模型的最终偏移量包括全局偏移量、技能偏移量和镜头高度中的至少一种。
在得到偏移量后,需要通过偏移量来移动摄像机模型。在一些实施例中,根据偏移方式获取摄像机模型的移动方式,移动方式包括匀速运动、平滑阻尼运动、差值运动中的至少一种。根据移动方式控制摄像机模型从第一摄像机位置移动至第二摄像机位置。
匀速运动:在配置的时间内控制摄像机模型以匀速从第一摄像机位置移动至第二摄像机位置,此运动方式缺少节奏变化。
平滑阻尼运动:调用具有阻尼功能的函数得到的运动,如使用函数Vector3.SmoothDamp()控制摄像机模型移动。使得摄像机模型在移动的过程中不会产生过冲现象。
差值运动:是根据所述摄像机模型所在的位置、目标位置和差值比例进行的运动,使用函数Vector3.Lerp(s,e,t)控制摄像机模型移动,s为当前偏移值,t从0到1变化,到1时运动结束。
在一个示例中,当前位置为与目标位置的距离为10,差值比例为0.1,每一帧移动当前位置距离目标位置的差值比例,如第一帧:移动到当前位置0到10的0.1,也就是1;第二帧:移动到当前位置1到10的0.1,也就是1.9;第三帧:移动到当前位置1.9到10的0.1,也就是是2.71,以此类推。
在另一个示例中,设置移动的最小速度,若当前移动的速度小于该最小速度,则使用最小速度进行偏移。
在另一个示例中,设置差值比例增量a,通过差值比例增量a改变每一帧的差值比例,如当前位置与目标位置的距离为10,差值为例为0.2,比例增量为0.03,第一帧:移动到当前位置0到10的0.2,也就是2;第二帧:移动至当前位置2到10的0.23,也就是3.84,以此类推。
如图19所示,将摄像机模型的偏移过程划分为三个状态:
等待偏移量输入(IDLE):有摄像机模型的偏移量或者偏移已经完成。
等待延时(FAR):用户在拖拽区域型技能指示器时产生的偏移量。
等待返回时的延时(BACK):主控虚拟角色释放完区域型技能后摄像机模型回归原点。
Far和Back均可以指定移动方案,分别代表释放技能和摄像机模型回归。即一次技能释放,可能会用到两种方案。
除此之外,还可以配置延时(DelayTime),将摄像机模型的状态从IDLE变成FAR或者从BACK切回IDLE时,摄像机模型不会马上产生偏移,视觉上具有缓冲效果。
综上所述,通过全局偏移量和技能偏移量之和计算摄像机模型的总偏移量,在用户既通过滑动地图来改变摄像机模型拍摄的虚拟环境画面,又在使用区域型技能指示器超出虚拟环境画面的情况下,摄像机模型综合上述两种偏移量来确定摄像机模型的总偏移量,使得不同的操作产生的摄像机模型的偏移效果不发生冲突,简化了计算难度。
上述实施例是基于游戏的应用场景对上述方法进行描述,下面以军事仿真的应用场景对上述方法进行示例性说明。
仿真技术是应用软件和硬件通过模拟真实世界的实验,反映系统行为或过程的模型技术。
军事仿真程序是利用仿真技术针对军事应用专门构建的程序,对海、陆、空等作战元素、武器装备性能以及作战行动等进行量化分析,进而精确模拟战场环境,呈现战场态势,实现作战体系的评估和决策的辅助。
在一个示例中,士兵在军事仿真程序所在的终端建立一个虚拟的战场,并以组队的形式进行对战。士兵控制战场虚拟环境中的主控虚拟角色在战场虚拟环境下进行站立、蹲下、坐下、仰卧、俯卧、侧卧、行走、奔跑、攀爬、驾驶、射击、投掷、攻击、受伤、侦查、近身格斗等动作中的至少一种操作。战场虚拟环境包括:平地、山川、高原、盆地、沙漠、河流、湖泊、海洋、植被中的至少一种自然形态,以及建筑物、交通工具、废墟、训练场等地点形态。主控虚拟角色包括:虚拟人物角色、虚拟动物角色、动漫人物角色等,每个主控虚拟角色在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
基于上述情况,在一个示例中,虚拟环境中有两队士兵控制的主控虚拟角色进行对战。示意性的,第一队中存在士兵A控制的主控虚拟角色a,第二队中存在士兵B控制的主控虚拟角色b。在虚拟环境中设置有摄像机模型,该摄像机模型拍摄士兵能够看到的虚拟环境画面。
主控虚拟角色a所在的虚拟环境对应第一虚拟环境画面,该第一虚拟环境画面是以第一观察位置为观察中心的虚拟环境画面,该第一观察位置对应的摄像机模型位于第一摄像机位置。士兵A控制主控虚拟角色a攻击士兵B控制的主控虚拟角色b,而主控虚拟角色b不在第一虚拟环境画面中。士兵A进行释放区域型技能的瞄准操作,控制主控虚拟角色a在虚拟环境中选择虚拟角色b所在的区域放置区域型技能指示器。
示意性的,摄像机模型随着士兵A的操作以第一偏移方式进行偏移。在虚拟环境中设置有士兵A不可见的视野判定框,该视野判定框是以摄像机模型的观察中心为中心点、平行于水平面的矩形,且存在至少一条边框与摄像机模型的观察方向垂直。区域型技能指示器的中心设置有区域参考点,示意性的,该区域型技能指示器为圆形,区域参考点为区域型技能指示器的圆心。当区域型技能指示器的圆心超过视野判定框时,计算区域参考点到视野判定框的边框之间的距离,该距离即是摄像机模型的偏移量,包括第一横向偏移距离和第一纵向偏移距离中的至少一种。
摄像机模型根据偏移距离从第一摄像机位置切换至第二摄像机位置,第二摄像机位置对应第二观察位置,以第二观察位置为观察中心显示第二虚拟环境画面。士兵A能够通过第二虚拟环境画面看到区域型技能指示器选中的目标区域,从而释放区域型技能指示器攻击主控虚拟角色b。
示意性的,摄像机模型随着士兵A的操作以第二偏移方式进行偏移。在虚拟环境中显示有选择区域,该选择区域是区域型技能指示器选择目标区域的范围。主控虚拟角色a通过区域型技能指示器对主控虚拟角色b释放作用范围较远的区域型技能。示意性的,该区域型技能指示器为圆形,区域参考点为区域型技能指示器的圆心,选择区域也为圆形。
摄像机模型根据士兵A的操作,确定区域型技能指示器的指示方向以及指示方向和水平方向的夹角,根据指示方向确定摄像机模型在偏移方向上对应的固定偏移距离,该固定偏移距离包括第二横向偏移距离和第二纵向偏移距离中的至少一种。根据偏移方向、固定偏移距离和偏移比例计算摄像机模型的偏移量。摄像机模型的偏移量包括横向偏移量和纵向偏移量中的至少一种。
横向偏移量是指示方向与水平方向对应的夹角的余弦值、第二横向偏移距离和偏移比例三者的乘积,公式如下:
横向偏移量=cosα*第二横向偏移距离*(E/F)
其中,α为偏移方向和水平方向的夹角,E为主控虚拟角色与区域参考点之间的距离,F为选择区域的半径,E/F为偏移比例。
纵向偏移量是偏移方向与水平方向对应的夹角的正弦值、第二纵向偏移距离和偏移比例三者的乘积,公式如下:
纵向偏移量=sinα*第二纵向偏移距离*(E/F)
其中,α为偏移方向和水平方向的夹角,E为主控虚拟角色与区域参考点之间的距离,F为选择区域的半径,E/F为偏移比例。
摄像机模型根据偏移量从第一摄像机位置切换至第二摄像机位置,第二摄像机位置对应第二观察位置,以第二观察位置为中心显示第二虚拟环境画面。士兵A能够通过第二虚拟环境画面看到区域型技能指示器选中的目标区域,从而准确瞄准要攻击的主控虚拟角色b。
综上所述,在本实施例中,将上述虚拟环境画面的显示方法应用在军事仿真程序中,摄像机模型根据区域型技能指示器选择的目标区域进行偏移,从而使得士兵能够看到瞄准区域,提高了士兵瞄准时的准确率,对实战现场进行了更为真实的仿真,使得士兵得到更好的训练。
以下为本申请的装置实施例,对于装置实施例中未详细描述的细节,可以结合参考上述方法实施例中相应的记载,本文不再赘述。
图20示出了本申请的一个示例性实施例提供的虚拟环境画面的显示装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分,该装置包括:
显示模块2010,用于显示第一虚拟环境画面,第一虚拟环境画面包括以第一观察位置为观察中心对虚拟环境进行观察得到的第一区域,第一虚拟环境画面包括位于虚拟环境中的主控虚拟角色;
所述显示模块2010,用于响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,区域型技能指示器用于在虚拟环境中标识出目标区域,目标区域是主控虚拟角色释放技能时的释放区域;
所述显示模块2010,用于显示第二虚拟环境画面,第二虚拟环境画面包括以第二观察位置为观察中心对虚拟环境进行观察得到的第二区域,第二观察位置是相对于第一观察位置进行偏移后的位置,第二区域包括目标区域。
在一个可选的实施例中,虚拟环境设置有摄像机模型,摄像机模型用于观察得到虚拟环境画面,所述显示模块2010包括控制单元2020;
所述控制单元2020,用于根据偏移方式将摄像机模型从第一摄像机位置移动至第二摄像机位置,第一摄像机位置与第一观察位置对应,第二摄像机位置与第二观察位置对应;根据摄像机模型所在的第二摄像机位置,显示第二虚拟环境画面。
在一个可选的实施例中,偏移方式包括第一偏移方式,第一偏移方式是摄像机模型基于视野判定框进行偏移的方式,视野判定框用于表征摄像机模型的视野范围,该装置包括计算模块2030;
所述计算模块2030,用于响应于区域参考点重新位于视野判定框之外,根据区域参考点与视野判定框的边框之间的距离确定摄像机模型在第一偏移方式下的第一偏移量,区域参考点是基于目标区域的中心点确定的;所述控制单元2020,用于根据第一偏移量将摄像机模型从第一摄像机位置移动至第二摄像机位置。
在一个可选的实施例中,所述计算模块2030,用于响应于区域参考点位于视野判定框之外,计算区域参考点与视野判定框的边框之间的垂直距离,垂直距离包括横向垂直距离和纵向垂直距离中的至少一种,横向垂直距离是区域参考点与视野判定框的纵向边框之间的垂直距离,纵向垂直距离是区域参考点与视野判定框的横向边框之间的垂直距离;所述控制单元2020,用于将垂直距离确定为摄像机模型在第一偏移方式下的第一偏移量。
在一个可选的实施例中,所述控制单元2020,用于响应于区域参考点重新位于视野判定框之内,将摄像机模型从第二摄像机位置移动至第三摄像机位置,第三摄像机位置位于第二摄像机位置与第一摄像机位置之间,第三摄像机位置与第三观察位置对应;所述显示模块2010,用于根据位于第三摄像机位置的摄像机模型显示第三虚拟环境画面,第三虚拟环境画面包括以第三观察位置为观察中心对虚拟环境进行观察得到的第三区域,第三区域包括目标区域。
在一个可选的实施例中,偏移方式包括第二偏移方式,第二偏移方式是基于指示方向进行偏移的方式,指示方向是从主控虚拟角色所在的位置指向目标区域的中心点的方向,该装置包括计算模块2030;
所述计算模块2030,用于根据指示方向确定摄像机模型在第二偏移方式下的第二偏移量;
所述控制单元2020,用于根据第二偏移量将摄像机模型从第一摄像机位置移动至第二摄像机位置。
在一个可选的实施例中,所述计算模块2030包括获取单元2040;
所述获取单元2040,用于获取指示方向与水平方向之间的夹角,水平方向是平行于虚拟环境中的水平面且垂直于摄像机模型的观察方向;获取摄像机模型与指示方向对应的固定偏移距离;获取摄像机模型在第二偏移方式下的偏移比例,偏移比例用于指示摄像机模型按照比例进行移动;所述计算模块2030,用于根据夹角、固定偏移距离和偏移比例确定第二偏移量。
在一个可选的实施例中,第二偏移量包括横向偏移量,固定偏移距离包括横向偏移距离;
所述计算模块2030,用于根据夹角的余弦值、横向偏移距离和偏移比例的乘积确定横向偏移量,偏移比例是第一距离与第二距离的比值,第一距离是主控虚拟角色所在的位置与目标区域的中心之间的距离,第二距离是选择区域的半径,选择区域用于为区域型技能指示器选择目标区域提供范围。
在一个可选的实施例中,第二偏移量包括纵向偏移量,固定偏移距离包括纵向偏移距离;
所述计算模块2030,用于根据夹角的正弦值、纵向偏移距离和偏移比例的乘积确定纵向偏移量,偏移比例是第一距离与第二距离的比值第一距离是主控虚拟角色所在的位置与目标区域的中心之间的距离,第二距离是选择区域的半径,选择区域用于为区域型技能指示器选择目标区域提供范围。
在一个可选的实施例中,所述控制单元2020,用于根据偏移方式获摄像机模型的移动方式,移动方式包括匀速运动、差值运动、平滑阻尼运动中的任意一种;根据移动方式控制摄像机模型从第一摄像机位置移动至第二摄像机位置。
在一个可选的实施例中,偏移方式对应摄像机模型的偏移量;
所述获取单元2040,用于获取摄像机模型的技能偏移量和全局偏移量,技能偏移量是根据偏移方式确定的,全局偏移量是根据摄像机模型的控制指令确定的,控制指令包括:拖拽地图指令、小地图查看指令、指定虚拟单位视角指令中的至少一种;将技能偏移量和全局偏移量之和确定为摄像机模型的偏移量。
请参考图21,其示出了本申请一个示例性实施例提供的计算机设备2100的结构框图。该计算机设备2100可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器。计算机设备2100还可能被称为用户设备、便携式终端等其他名称。
通常,计算机设备2100包括有:处理器2101和存储器2102。
处理器2101可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器2101可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器2101也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器2101可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器2101还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器2102可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器2102还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器2102中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器2101所执行以实现本申请实施例中提供的虚拟环境画面的显示方法。
在一些实施例中,计算机设备2100还可选包括有:外围设备接口2103和至少一个外围设备。具体地,外围设备包括:射频电路2104、触摸显示屏2105、摄像头2106、音频电路2107、定位组件2108和电源2109中的至少一种。
外围设备接口2103可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器2101和存储器2102。在一些实施例中,处理器2101、存储器2102和外围设备接口2103被集成在同一芯片或电路板上;在一些其他实施例中,处理器2101、存储器2102和外围设备接口2103中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路2104用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路2104通过电磁信号与通信网络以及其他通信设备进行通信。射频电路2104将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路2104包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等。射频电路2104可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路2104还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
触摸显示屏2105用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏2105还具有采集在触摸显示屏2105的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器2101进行处理。触摸显示屏2105用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏2105可以为一个,设置计算机设备2100的前面板;在另一些实施例中,触摸显示屏2105可以为至少两个,分别设置在计算机设备2100的不同表面或呈折叠设计;在再一些实施例中,触摸显示屏2105可以是柔性显示屏,设置在计算机设备2100的弯曲表面上或折叠面上。甚至,触摸显示屏2105还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏2105可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件2106用于采集图像或视频。可选地,摄像头组件2106包括前置摄像头和后置摄像头。通常,前置摄像头用于实现视频通话或自拍,后置摄像头用于实现照片或视频的拍摄。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能,主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能。在一些实施例中,摄像头组件2106还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路2107用于提供用户和计算机设备2100之间的音频接口。音频电路2107可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器2101进行处理,或者输入至射频电路2104以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备2100的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器2101或射频电路2104的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路2107还可以包括耳机插孔。
定位组件2108用于定位计算机设备2100的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件2108可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源21012用于为计算机设备2100中的各个组件进行供电。电源2109可以是交流电、直流电、一次性电池或可充电电池。当电源2109包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,计算机设备2100还包括有一个或多个传感器2110。该一个或多个传感器2110包括但不限于:加速度传感器2111、陀螺仪传感器2112、压力传感器2113、指纹传感器2114、光学传感器2115以及接近传感器2116。
加速度传感器2111可以检测以计算机设备2100建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器2111可以用于检测重力加速度在三个坐标轴上的分量。处理器2101可以根据加速度传感器2111采集的重力加速度信号,控制触摸显示屏2105以横向视图或纵向视图进行用户界面的显示。加速度传感器2111还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器2112可以检测计算机设备2100的机体方向及转动角度,陀螺仪传感器2112可以与加速度传感器2111协同采集用户对计算机设备2100的3D动作。处理器2101根据陀螺仪传感器2112采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器2113可以设置在计算机设备2100的侧边框和/或触摸显示屏2105的下层。当压力传感器2113设置在计算机设备2100的侧边框时,可以检测用户对计算机设备2100的握持信号,根据该握持信号进行左右手识别或快捷操作。当压力传感器2113设置在触摸显示屏2105的下层时,可以根据用户对触摸显示屏2105的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器2114用于采集用户的指纹,以根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器2101授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器2114可以被设置计算机设备2100的正面、背面或侧面。当计算机设备2100上设置有物理按键或厂商Logo时,指纹传感器2114可以与物理按键或厂商Logo集成在一起。
光学传感器2115用于采集环境光强度。在一个实施例中,处理器2101可以根据光学传感器2115采集的环境光强度,控制触摸显示屏2105的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏2105的显示亮度;当环境光强度较低时,调低触摸显示屏2105的显示亮度。在另一个实施例中,处理器2101还可以根据光学传感器2115采集的环境光强度,动态调整摄像头组件2106的拍摄参数。
接近传感器2116,也称距离传感器,通常设置在计算机设备2100的正面。接近传感器2116用于采集用户与计算机设备2100的正面之间的距离。在一个实施例中,当接近传感器2116检测到用户与计算机设备2100的正面之间的距离逐渐变小时,由处理器2101控制触摸显示屏2105从亮屏状态切换为息屏状态;当接近传感器2116检测到用户与计算机设备2100的正面之间的距离逐渐变大时,由处理器2101控制触摸显示屏2105从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图21中示出的结构并不构成对计算机设备2100的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例还提供一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的虚拟环境画面的显示方法。
本申请实施例还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的虚拟环境画面的显示方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (14)

1.一种虚拟环境画面的显示方法,其特征在于,所述方法包括:
显示第一虚拟环境画面,所述第一虚拟环境画面包括以第一观察位置为观察中心对所述虚拟环境进行观察得到的第一区域,所述第一虚拟环境画面包括位于所述虚拟环境中的主控虚拟角色;
响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,所述区域型技能指示器用于在所述虚拟环境中标识出所述目标区域,所述目标区域是所述主控虚拟角色释放技能时的释放区域;
显示第二虚拟环境画面,所述第二虚拟环境画面包括以第二观察位置为观察中心对所述虚拟环境进行观察得到的第二区域,所述第二观察位置是相对于所述第一观察位置进行偏移后的位置,所述第二区域包括所述目标区域。
2.根据权利要求1所述的方法,其特征在于,所述虚拟环境设置有摄像机模型,所述摄像机模型用于观察得到所述虚拟环境画面;
所述显示第二虚拟环境画面,包括:
根据偏移方式将所述摄像机模型从第一摄像机位置移动至第二摄像机位置,所述第一摄像机位置与所述第一观察位置对应,所述第二摄像机位置与所述第二观察位置对应;
根据所述摄像机模型所在的所述第二摄像机位置,显示所述第二虚拟环境画面。
3.根据权利要求2所述的方法,其特征在于,所述偏移方式包括第一偏移方式,所述第一偏移方式是所述摄像机模型基于视野判定框进行偏移的方式,所述视野判定框用于表征所述摄像机模型的视野范围;
所述根据偏移方式将所述摄像机模型从第一摄像机位置移动至第二摄像机位置,包括:
响应于区域参考点位于所述视野判定框之外,根据所述区域参考点与所述视野判定框的边框之间的距离确定所述摄像机模型在所述第一偏移方式下的第一偏移量,所述区域参考点是基于目标区域的中心点确定的;
根据所述第一偏移量将所述摄像机模型从所述第一摄像机位置移动至所述第二摄像机位置。
4.根据权利要求3所述的方法,其特征在于,所述响应于区域参考点位于所述视野判定框之外,根据所述区域参考点与所述视野判定框的边框之间的距离确定所述摄像机模型在所述第一偏移方式下的第一偏移量,包括:
响应于所述区域参考点位于所述视野判定框之外,计算所述区域参考点与所述视野判定框的边框之间的垂直距离,所述垂直距离包括横向垂直距离和纵向垂直距离中的至少一种,所述横向垂直距离是所述区域参考点与所述视野判定框的纵向边框之间的垂直距离,所述纵向垂直距离是所述区域参考点与所述视野判定框的横向边框之间的垂直距离;
将所述垂直距离确定为所述摄像机模型在所述第一偏移方式下的第一偏移量。
5.根据权利要求3所述的方法,其特征在于,所述方法还包括:
响应于所述区域参考点重新位于所述视野判定框之内,将所述摄像机模型从所述第二摄像机位置移动至第三摄像机位置,所述第三摄像机位置位于所述第二摄像机位置与所述第一摄像机位置之间,所述第三摄像机位置与第三观察位置对应;
根据位于所述第三摄像机位置的所述摄像机模型显示第三虚拟环境画面,所述第三虚拟环境画面包括以所述第三观察位置为观察中心对所述虚拟环境进行观察得到的第三区域,所述第三区域包括目标区域。
6.根据权利要求2所述的方法,其特征在于,所述偏移方式包括第二偏移方式,所述第二偏移方式是基于指示方向进行偏移的方式,所述指示方向是从主控虚拟角色所在的位置指向目标区域的中心点的方向;
所述根据所述偏移方式将所述摄像机模型从第一摄像机位置移动至第二摄像机位置,包括:
根据所述指示方向确定所述摄像机模型在所述第二偏移方式下的第二偏移量;
根据所述第二偏移量将所述摄像机模型从所述第一摄像机位置移动至所述第二摄像机位置。
7.根据权利要求6所述的方法,其特征在于,所述根据所述指示方向确定所述摄像机模型在所述第二偏移方式下的第二偏移量,包括:
获取所述指示方向与水平方向之间的夹角,所述水平方向是平行于虚拟环境中的水平面且垂直于所述摄像机模型的观察方向;
获取所述摄像机模型与所述指示方向对应的固定偏移距离;
获取所述摄像机模型在所述第二偏移方式下的偏移比例,所述偏移比例用于指示所述摄像机模型按照比例进行移动;
根据所述夹角、所述固定偏移距离和所述偏移比例确定所述第二偏移量。
8.根据权利要求7所述的方法,其特征在于,所述第二偏移量包括横向偏移量,所述固定偏移距离包括横向偏移距离;
所述根据所述夹角、所述固定偏移距离和所述偏移比例确定所述第二偏移量,包括:
根据所述夹角的余弦值、所述横向偏移距离和所述偏移比例的乘积确定所述横向偏移量,所述偏移比例是第一距离与第二距离的比值,所述第一距离是主控虚拟角色所在的位置与目标区域的中心之间的距离,所述第二距离是选择区域的半径,所述选择区域用于为区域型技能指示器选择所述目标区域提供范围。
9.根据权利要求7所述的方法,其特征在于,所述第二偏移量包括纵向偏移量,所述固定偏移距离包括纵向偏移距离;
所述根据所述夹角、所述固定偏移距离和所述偏移比例确定所述第二偏移量,包括:
根据所述夹角的正弦值、所述纵向偏移距离和所述偏移比例的乘积确定所述纵向偏移量,所述偏移比例是第一距离与第二距离的比值,所述第一距离是主控虚拟角色所在的位置与目标区域的中心之间的距离,所述第二距离是选择区域的半径,所述选择区域用于为区域型技能指示器选择所述目标区域提供范围。
10.根据权利要求2所述的方法,其特征在于,所述根据所述偏移方式将所述摄像机模型从第一摄像机位置移动至第二摄像机位置,包括:
根据所述偏移方式获取所述摄像机模型的移动方式,所述移动方式包括匀速运动、差值运动、平滑阻尼运动中的任意一种;
根据所述移动方式控制所述摄像机模型从所述第一摄像机位置移动至所述第二摄像机位置。
11.根据权利要求2所述的方法,其特征在于,所述偏移方式对应有所述摄像机模型的偏移量,所述偏移量是通过如下方式获得的:
获取所述摄像机模型的技能偏移量和全局偏移量,所述技能偏移量是根据所述偏移方式确定的,所述全局偏移量是根据所述摄像机模型的控制指令确定的,所述控制指令包括:拖拽地图指令、小地图查看指令、指定虚拟单位视角指令中的至少一种;
将所述技能偏移量和所述全局偏移量之和确定为所述摄像机模型的偏移量。
12.一种虚拟环境画面的显示装置,其特征在于,所述装置包括:
显示模块,用于显示第一虚拟环境画面,所述第一虚拟环境画面包括以第一观察位置为观察中心对所述虚拟环境进行观察得到的第一区域,所述第一虚拟环境画面包括位于所述虚拟环境中的主控虚拟角色;
所述显示模块,用于响应于接收到瞄准操作,显示用于选中目标区域的区域型技能指示器,所述区域型技能指示器用于在所述虚拟环境中标识出所述目标区域,所述目标区域是所述主控虚拟角色释放技能时的释放区域;
所述显示模块,用于显示第二虚拟环境画面,所述第二虚拟环境画面包括以第二观察位置为观察中心对所述虚拟环境进行观察得到的第二区域,所述第二观察位置是相对于所述第一观察位置进行偏移后的位置,所述第二区域包括所述目标区域。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由所述处理器加载并执行以实现如权利要求1至11任一项所述的虚拟环境画面的显示方法。
14.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行,以实现如权利要求1至11任一项所述的虚拟环境画面的显示方法。
CN202010275730.8A 2020-04-09 2020-04-09 虚拟环境画面的显示方法、装置、设备及存储介质 Active CN111481934B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN202010275730.8A CN111481934B (zh) 2020-04-09 2020-04-09 虚拟环境画面的显示方法、装置、设备及存储介质
KR1020217034089A KR102645534B1 (ko) 2020-04-09 2021-03-11 가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체
SG11202111549TA SG11202111549TA (en) 2020-04-09 2021-03-11 Method and apparatus for displaying virtual environment picture, device, and storage medium
PCT/CN2021/080258 WO2021203904A1 (zh) 2020-04-09 2021-03-11 虚拟环境画面的显示方法、装置、设备及存储介质
JP2021564807A JP2022531770A (ja) 2020-04-09 2021-03-11 仮想環境画面の表示方法、装置、機器およびコンピュータプログラム
US17/511,394 US11847734B2 (en) 2020-04-09 2021-10-26 Method and apparatus for displaying virtual environment picture, device, and storage medium
US18/504,955 US20240070974A1 (en) 2020-04-09 2023-11-08 Method and apparatus for displaying virtual environment picture, device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010275730.8A CN111481934B (zh) 2020-04-09 2020-04-09 虚拟环境画面的显示方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111481934A true CN111481934A (zh) 2020-08-04
CN111481934B CN111481934B (zh) 2023-02-10

Family

ID=71798367

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010275730.8A Active CN111481934B (zh) 2020-04-09 2020-04-09 虚拟环境画面的显示方法、装置、设备及存储介质

Country Status (6)

Country Link
US (2) US11847734B2 (zh)
JP (1) JP2022531770A (zh)
KR (1) KR102645534B1 (zh)
CN (1) CN111481934B (zh)
SG (1) SG11202111549TA (zh)
WO (1) WO2021203904A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111921191A (zh) * 2020-08-27 2020-11-13 腾讯科技(深圳)有限公司 状态图标的显示方法、装置、终端及存储介质
CN112245920A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 虚拟场景的显示方法、装置、终端及存储介质
CN113368490A (zh) * 2021-06-10 2021-09-10 北京字跳网络技术有限公司 一种控制方法、装置以及计算机存储介质
CN113379870A (zh) * 2021-03-12 2021-09-10 广东虚拟现实科技有限公司 基于虚拟训练场景训练的显示方法、装置及存储介质
WO2021203904A1 (zh) * 2020-04-09 2021-10-14 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6928709B1 (ja) * 2020-12-28 2021-09-01 プラチナゲームズ株式会社 情報処理プログラム、情報処理装置、および情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142406A1 (ko) * 2013-03-12 2014-09-18 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
CN107168611A (zh) * 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN110292778A (zh) * 2019-08-02 2019-10-01 网易(杭州)网络有限公司 一种游戏技能释放的方法和装置
CN110613933A (zh) * 2019-09-24 2019-12-27 网易(杭州)网络有限公司 游戏中技能释放控制方法、装置、存储介质和处理器

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
US7614954B2 (en) * 2002-11-20 2009-11-10 Sega Corporation Game image display control program, game device, and recoding medium
JP2006018476A (ja) 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP4842344B2 (ja) * 2009-04-01 2011-12-21 任天堂株式会社 表示領域を移動させる画像処理プログラムおよび画像処理装置
JP2011255119A (ja) 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5117565B2 (ja) 2010-12-13 2013-01-16 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
CN107754309B (zh) * 2017-09-30 2019-03-08 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107913520B (zh) * 2017-12-14 2021-04-23 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN109200582A (zh) * 2018-08-02 2019-01-15 腾讯科技(深圳)有限公司 控制虚拟对象与投掷物交互的方法、装置及存储介质
CN109260702A (zh) * 2018-08-30 2019-01-25 腾讯科技(深圳)有限公司 虚拟场景中的虚拟载具控制方法、计算机设备及存储介质
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN109840043B (zh) * 2019-01-30 2021-08-10 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
CN110115838B (zh) * 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142406A1 (ko) * 2013-03-12 2014-09-18 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
CN107168611A (zh) * 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN110292778A (zh) * 2019-08-02 2019-10-01 网易(杭州)网络有限公司 一种游戏技能释放的方法和装置
CN110613933A (zh) * 2019-09-24 2019-12-27 网易(杭州)网络有限公司 游戏中技能释放控制方法、装置、存储介质和处理器

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021203904A1 (zh) * 2020-04-09 2021-10-14 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
US11847734B2 (en) 2020-04-09 2023-12-19 Tencent Technology (Shenzhen) Company Limited Method and apparatus for displaying virtual environment picture, device, and storage medium
CN111921191A (zh) * 2020-08-27 2020-11-13 腾讯科技(深圳)有限公司 状态图标的显示方法、装置、终端及存储介质
CN111921191B (zh) * 2020-08-27 2023-10-13 腾讯科技(深圳)有限公司 状态图标的显示方法、装置、终端及存储介质
CN112245920A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 虚拟场景的显示方法、装置、终端及存储介质
WO2022100324A1 (zh) * 2020-11-13 2022-05-19 腾讯科技(深圳)有限公司 虚拟场景的显示方法、装置、终端及存储介质
CN113379870A (zh) * 2021-03-12 2021-09-10 广东虚拟现实科技有限公司 基于虚拟训练场景训练的显示方法、装置及存储介质
CN113368490A (zh) * 2021-06-10 2021-09-10 北京字跳网络技术有限公司 一种控制方法、装置以及计算机存储介质
CN113368490B (zh) * 2021-06-10 2023-05-30 北京字跳网络技术有限公司 一种控制方法、装置以及计算机存储介质

Also Published As

Publication number Publication date
JP2022531770A (ja) 2022-07-11
US20240070974A1 (en) 2024-02-29
KR102645534B1 (ko) 2024-03-07
US11847734B2 (en) 2023-12-19
KR20210141658A (ko) 2021-11-23
SG11202111549TA (en) 2021-11-29
WO2021203904A1 (zh) 2021-10-14
US20220051470A1 (en) 2022-02-17
CN111481934B (zh) 2023-02-10

Similar Documents

Publication Publication Date Title
CN110694261B (zh) 控制虚拟对象进行攻击的方法、终端及存储介质
CN110413171B (zh) 控制虚拟对象进行快捷操作的方法、装置、设备及介质
CN110448891B (zh) 控制虚拟对象操作远程虚拟道具的方法、装置及存储介质
CN111589131B (zh) 虚拟角色的控制方法、装置、设备及介质
CN111265869B (zh) 虚拟对象的检测方法、装置、终端及存储介质
CN111481934B (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN110507993B (zh) 控制虚拟对象的方法、装置、设备及介质
CN111035918B (zh) 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN110613938B (zh) 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN111467802B (zh) 虚拟环境的画面显示方法、装置、设备及介质
JP2024045184A (ja) 仮想アイテムをマークするように仮想対象を制御する方法及びその装置並びに媒体
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN110694273A (zh) 控制虚拟对象使用道具的方法、装置、终端及存储介质
CN111389005B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111589127B (zh) 虚拟角色的控制方法、装置、设备及存储介质
CN110755841A (zh) 虚拟环境中道具的切换方法、装置、设备及可读存储介质
CN110917623B (zh) 互动信息显示方法、装置、终端及存储介质
CN110665230A (zh) 虚拟世界中的虚拟角色控制方法、装置、设备及介质
CN110585695B (zh) 在虚拟环境中使用近战道具的方法、装置、设备及介质
CN111589146A (zh) 基于虚拟环境的道具操作方法、装置、设备及存储介质
CN111282266B (zh) 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
CN111714893A (zh) 控制虚拟对象恢复属性值的方法、装置、终端及存储介质
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN111672102A (zh) 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN111330278B (zh) 基于虚拟环境的动画播放方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40027382

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant