CN112206519A - 实现游戏场景环境变化的方法、装置、存储介质及计算机设备 - Google Patents

实现游戏场景环境变化的方法、装置、存储介质及计算机设备 Download PDF

Info

Publication number
CN112206519A
CN112206519A CN202011172557.5A CN202011172557A CN112206519A CN 112206519 A CN112206519 A CN 112206519A CN 202011172557 A CN202011172557 A CN 202011172557A CN 112206519 A CN112206519 A CN 112206519A
Authority
CN
China
Prior art keywords
local space
local
environment
game scene
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011172557.5A
Other languages
English (en)
Other versions
CN112206519B (zh
Inventor
郑健
欧韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN202011172557.5A priority Critical patent/CN112206519B/zh
Publication of CN112206519A publication Critical patent/CN112206519A/zh
Application granted granted Critical
Publication of CN112206519B publication Critical patent/CN112206519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例公开了一种实现游戏场景环境变化的方法、装置、存储介质及计算机设备。该方法包括:在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;为每个需要变化的主体创建局部容器,其中,局部容器对应于局部空间;当游戏中的角色进入局部空间时,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化,其中,局部空间的环境参数存储于局部容器对应的配置文件。由于是在开始进行渲染时就进行了游戏场景中需要变化的主体的记录、局部容器的创建以及游戏场景环境变化的触发,本申请的技术方案将游戏场景环境的变化提前实施,因此,可以在渲染开始时即改变游戏场景的环境,达到预期的渲染效果。

Description

实现游戏场景环境变化的方法、装置、存储介质及计算机设备
技术领域
本申请涉及图像处理领域,尤其涉及电子游戏领域,具体涉及一种实现游戏场景环境变化的方法、装置、存储介质及计算机设备。
背景技术
通用渲染管线(Universal Render Pipeline,URP)是由Unity制作的预构建可编程渲染管线,为艺术家提供了较为友好的工作流程,可快速、轻松地在各种平台上创建优化的图形。
在游戏场景中,其环境的变化是随着游戏角色移动至不同位置而变化的,现有技术实现这种变化的方法是通过Unity的URP来实现,具体是通过所谓的“后处理”即在渲染完之后,再对渲染结果进行调整,最终得到某种画面效果。
然而,上述的环境变化毕竟是后阶段基于相机渲染的结果,其实际上不能根本性地改变环境,因而达不到预期的渲染效果。
发明内容
本申请实施例提供一种实现游戏场景环境变化的方法、装置、存储介质及计算机设备,可以在渲染开始时即改变游戏场景的环境,达到预期的渲染效果。
本申请实施例提供了一种实现游戏场景环境变化的方法,包括:
在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;
为每个所述需要变化的主体创建局部容器,所述局部容器对应于局部空间;
当游戏中的角色进入所述局部空间时,触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,所述局部空间的环境参数存储于所述局部容器对应的配置文件。
可选的,所述在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体,包括:在所述游戏场景中创建全局容器;当所述通用渲染管线开始进行渲染时,通过脚本将所述游戏场景中需要变化的主体保存于所述全局容器。
可选的,所述为每个所述需要变化的主体创建局部容器,包括:创建属性为触发器的局部容器,所述属性为触发器的局部容器对应于至少一个所述需要变化的主体;为每个所述需要变化的主体配置对应的参数,所述需要变化的主体配置的参数构成所述局部空间的环境参数。
可选的,所述局部空间包括第一局部空间和第二局部空间,所述触发所述局部空间的戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:获取第一局部空间和第二局部空间的环境参数;当所述角色从所述第一局部空间向所述第二局部空间移动时,按照所述第一局部空间的环境参数、所述第二局部空间的环境参数以及预设的插值算法计算所述角色移动过程中所述游戏场景环境的变化值。
可选的,所述触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:获取第一局部空间对应视图的深度信息和第二局部空间对应视图的深度信息;根据所述第一局部空间对应视图的深度信息生成第一3D过渡空间,并根据所述第二局部空间对应视图的深度信息生成第二3D过渡空间;在所述第一3D过渡空间中确定第一原视点和第一目标视点,并在所述第二3D过渡空间中确定第二原视点和第二目标视点;计算所述角色从所述第一局部空间向所述第二局部空间移动时对应的观察点;在所述第一3D过渡空间中的观察点生成第一过渡环境参数,并在所述第二3D过渡空间中的观察点生成第二过渡环境参数;以及根据所述第一原视点、所述第一目标视点、所述第二原视点、所述第二目标视点、所述第一过渡环境参数和所述第二过渡环境参数,生成所述角色从所述第一局部空间向所述第二局部空间移动时每一观察点对应的环境参数。
可选的,所述为每个所述需要变化的主体创建局部容器还包括:为所述局部容器设置相应的融合参数,所述融合参数用于所述局部容器对应的局部空间与其他空间进行游戏场景环境的融合。
可选的,所述触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:当所述角色与所述第一局部空间的距离在第一预设阈值范围之内时,使用所述融合参数对所述第一局部空间的环境参数进行修改;当所述角色从第一局部空间向所述第二局部空间移动,且所述角色与所述第二局部空间的距离在第二预设阈值范围之内时,使用所述融合参数对所述第二局部空间的环境参数进行修改;当所述角色移动至所述第二局部空间时,以所述第二局部空间的环境参数呈现所述游戏场景环境。
可选的,所述触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:当所述角色从第一局部空间向第二局部空间移动时,结合所述融合参数以及所述角色与所述第二局部空间的距离,生成多个多分辨率模型层次细节;为所述角色所到达位置处的游戏场景中的三维模型加载相应的所述多分辨率模型细节。
本申请实施例还提供一种实现游戏场景环境变化的装置,包括:
记录模块,用于在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;
创建模块,用于为每个所述需要变化的主体创建局部容器,所述局部容器对应于局部空间;
触发模块,用于当游戏中的角色进入所述局部空间时,触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,所述局部空间的环境参数存储于所述局部容器对应的配置文件。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如上任一实施例所述的实现游戏场景环境变化的方法中的步骤。
本申请实施例还提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,执行如上任一实施例所述的实现游戏场景环境变化的方法中的步骤。
从上述本申请实施例提供的技术方案可知,由于是在开始进行渲染时就进行了游戏场景中需要变化的主体的记录、局部容器的创建以及游戏场景环境变化的触发,相比于现有技术渲染的“后处理”,本申请的技术方案将游戏场景环境的变化提前实施,因此,可以在渲染开始时即改变游戏场景的环境,达到预期的渲染效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的实现游戏场景环境变化的装置的应用场景示意图。
图2为本申请实施例提供的实现游戏场景环境变化的方法的流程示意图。
图3为本申请实施例提供的触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化的流程示意图。
图4为本申请另一实施例提供的触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化的流程示意图。
图5为本申请另一实施例提供的触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化的流程示意图。
图6为本申请实施例提供的角色所处全局天空盒子对应的全局环境与角色所处局部天空盒子对应的局部环境的对比示意图。
图7为本申请实施例提供的实现游戏场景环境变化的装置的结构示意图。
图8为本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种实现游戏场景环境变化的方法、装置、存储介质及计算机设备。具体地,本申请实施例的实现游戏场景环境变化的方法可以由计算机设备执行,其中,该计算机设备可以为终端或者服务器等设备。该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(PC,Personal Computer)、个人数字助理(PersonalDigital Assistant,PDA)等终端设备,终端还可以包括客户端,该客户端可以是游戏应用客户端、携带有游戏程序的浏览器客户端或即时通信客户端等。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
例如,当该实现游戏场景环境变化的方法运行于终端时,终端设备存储有游戏应用程序并用于呈现游戏画面中的虚拟场景。终端设备用于通过图形用户界面与用户进行交互,例如通过终端设备下载安装游戏应用程序并运行。该终端设备将图形用户界面提供给用户的方式可以包括多种,例如,可以渲染显示在终端设备的显示屏上,或者,通过全息投影呈现图形用户界面。例如,终端设备可以包括触控显示屏和处理器,该触控显示屏用于呈现图形用户界面以及接收用户作用于图形用户界面产生的操作指令,该图形用户界面包括游戏画面,该处理器用于运行该游戏、生成图形用户界面、响应操作指令以及控制图形用户界面在触控显示屏上的显示。
例如,当该实现游戏场景环境变化的方法运行于服务器时,可以为云游戏。云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏应用程序的运行主体和游戏画面呈现主体是分离的,实现游戏场景环境变化的方法的储存与运行是在云游戏服务器上完成的。而游戏画面呈现是在云游戏的客户端完成的,云游戏客户端主要用于游戏数据的接收、发送以及游戏画面的呈现,例如,云游戏客户端可以是靠近用户侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑、个人数字助理等,但是进行游戏数据处理的终端设备为云端的云游戏服务器。在进行游戏时,用户操作云游戏客户端向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回云游戏客户端,最后,通过云游戏客户端进行解码并输出游戏画面。
请参阅图1,图1为本申请实施例提供的实现游戏场景环境变化的装置的应用场景示意图。该系统可以包括至少一个终端1000,至少一个服务器2000,至少一个数据库3000,以及网络4000。用户持有的终端1000可以通过网络4000连接到不同游戏的服务器。终端1000是具有计算硬件的任何设备,该计算硬件能够支持和执行与游戏对应的软件产品。另外,终端1000具有用于感测和获得用户通过在一个或者多个触控显示屏的多个点执行的触摸或者滑动操作的输入的一个或者多个多触敏屏幕。另外,当系统包括多个终端1000、多个服务器2000、多个网络4000时,不同的终端1000可以通过不同的网络4000、通过不同的服务器2000相互连接。网络4000可以是无线网络或者有线网络,比如无线网络为无线局域网(WLAN)、局域网(LAN)、蜂窝网络、2G网络、3G网络、4G网络、5G网络等。另外,不同的终端1000之间也可以使用自身的蓝牙网络或者热点网络连接到其他终端或者连接到服务器等。例如,多个用户可以通过不同的终端1000在线从而通过适当网络连接并且相互同步,以支持多玩家游戏。另外,该系统可以包括多个数据库3000,多个数据库3000耦合到不同的服务器2000,并且可以将与游戏环境有关的信息在不同用户在线进行多玩家游戏时连续地存储于数据库3000中。
本申请实施例提供了一种实现游戏场景环境变化的方法,该方法可以由终端或服务器执行。本申请实施例以实现游戏场景环境变化的方法由终端执行为例来进行说明。其中,该终端包括触控显示屏和处理器,该触控显示屏用于呈现图形用户界面以及接收用户作用于图形用户界面产生的操作指令。用户通过触控显示屏对图形用户界面进行操作时,该图形用户界面可以通过响应于接收到的操作指令控制终端本地的内容,也可以通过响应于接收到的操作指令控制对端服务器的内容。例如,用户作用于图形用户界面产生的操作指令包括用于启动游戏应用程序的指令,处理器被配置为在接收到用户提供的启动游戏应用程序的指令之后启动游戏应用程序。此外,处理器被配置为在触控显示屏上渲染和绘制与游戏相关联的图形用户界面。触控显示屏是能够感测屏幕上的多个点同时执行的触摸或者滑动操作的多触敏屏幕。用户在使用手指在图形用户界面上执行触控操作,图形用户界面在检测到触控操作时,控制游戏的图形用户界面中的不同虚拟对象执行与触控操作对应的动作。例如,该游戏可以为休闲游戏、动作游戏、角色扮演游戏、策略游戏、体育游戏、益智游戏等游戏中的任一种。其中,游戏可以包括在图形用户界面上绘制的游戏的虚拟场景。此外,游戏的虚拟场景中可以包括由用户(或玩家)控制的一个或多个虚拟对象,诸如虚拟角色。另外,游戏的虚拟场景中还可以包括一个或多个障碍物,诸如栏杆、沟壑、墙壁等,以限制虚拟对象的移动,例如将一个或多个对象的移动限制到虚拟场景内的特定区域。可选地,游戏的虚拟场景还包括一个或多个元素,诸如技能、分值、角色健康状态、能量等,以向玩家提供帮助、提供虚拟服务、增加与玩家表现相关的分值等。此外,图形用户界面还可以呈现一个或多个指示器,以向玩家提供指示信息。例如,游戏可以包括玩家控制的虚拟对象和一个或多个其他虚拟对象(诸如敌人角色)。在一个实施例中,一个或多个其他虚拟对象由游戏的其他玩家控制。例如,一个或多个其他虚拟对象可以由计算机控制,诸如使用人工智能(AI)算法的机器人,实现人机对战模式。例如,虚拟对象拥有游戏玩家用来实现目标的各种技能或能力。例如虚拟对象拥有可用于从游戏中消除其他对象的一种或多种武器、道具、工具等。这样的技能或能力可由游戏的玩家使用与终端的触控显示屏的多个预设触控操作之一来激活。处理器可以被配置为响应于用户的触控操作产生的操作指令来呈现对应的游戏画面。
请参阅图2,为本申请实施例提供的实现游戏场景环境变化的方法的流程示意图,主要包括步骤S201至步骤S203,详细说明如下:
步骤S201,在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体。
游戏场景中需要变化的主体包括灯光、天空盒子、体积雾以及反射球等,这些主体的变化即可反映其所在空间的环境变化,可以在通用渲染管线开始进行渲染时即记录游戏场景中这些需要变化的主体,具体而言,是在游戏场景中创建全局容器,当通用渲染管线开始进行渲染时,通过脚本将游戏场景中需要变化的主体保存于全局容器。在本申请实施例中,全局容器可以是游戏开发引擎Unity中提供的卷(volume),一个卷可以是全局的,也可以是局部的,即卷包括全局卷和局部卷,例如,本申请上述实施例中是创建一个全局卷,并为其添加一个称为区域管理者(zone manager)的脚本,当通用渲染管线开始进行渲染时,通过该区域管理者脚本将游戏场景中灯光、天空盒子、体积雾以及反射球等需要变化的主体保存于该全局卷。需要说明的是,作为容器的卷本身并不包含任何数据,其需要通过引用卷配置文件(volume profile)来发挥作用。
步骤S202,为每个需要变化的主体创建局部容器,其中,局部容器对应于局部空间。
如前所述,Unity中的卷包括全局卷和局部卷,因此,局部容器可以是局部卷,而且,一个局部容器对应于一个局部空间或局部范围。作为本申请一个实施例,为每个需要变化的主体创建局部容器可以是创建属性为触发器的局部容器,为每个需要变化的主体配置对应的参数,其中,属性为触发器的局部容器对应于至少一个需要变化的主体,需要变化的主体配置的参数构成局部空间的环境参数,即,至少一个需要变化的主体配置的参数构成局部空间的环境参数。
需要说明的是,局部容器或局部卷默认为是一个碰撞体(collider),一旦该局部容器或局部卷的属性被配置为触发器(trigger),则意味着进入该局部容器或局部卷对应的局部空间的游戏角色将触发某个事件,例如,触发该局部空间的环境发生变化。此外,前述实施例中提及卷是通过引用卷配置文件来发挥作用的,因此,在为每个需要变化的主体配置对应的参数时,可以通过生成主体所属的局部容器或局部卷的配置文件来为这些需要变化的主体配置对应的参数。
步骤S203,当游戏中的角色进入局部空间时,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化。
如前所述,一个局部容器对应于一个局部空间,并且,局部容器的属性可以被配置为触发器。因此,当游戏中的角色进入局部空间时,可以触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化。作为本申请一个实施例,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化可以通过如附图3示例的步骤S301至步骤S302实现,说明如下:
步骤S301:获取第一局部空间和第二局部空间的环境参数。
在前述实施例提及,至少一个需要变化的主体配置的参数构成局部空间的环境参数,且局部空间的环境参数是通过生成主体所属的局部容器或局部卷的配置文件实现。因此,可通过引用局部容器或局部卷的配置文件获取第一局部空间和第二局部空间的环境参数。需要说明的是,第一局部空间可以是游戏中的角色当前所处空间,而第二局部空间可以是该角色将到达的空间即目标空间;角色总是从一个局部空间移动至另一局部空间。
步骤S302:当角色从第一局部空间向第二局部空间移动时,按照第一局部空间的环境参数、第二局部空间的环境参数以及预设的插值算法计算角色移动过程中戏场景环境的变化值。
需要说明的是,在本申请实施例中,游戏场景中的角色通常与虚拟摄像机一起移动,即角色与虚拟摄像机之间的位置关系相对固定,因此,角色的移动通常也意味着虚拟摄像机的移动,而虚拟摄像机是指游戏场景中位于虚拟对象(例如,游戏场景中的角色)周围的三维模型。当采用第一人称视角时,虚拟摄像机位于虚拟对象的头部附近或位于虚拟对象的头部。当采用第三人称视角时,虚拟摄像机位于虚拟对象的后方。终端可以采用第一人称视角进行显示,或者,还可以采用第三人称视角进行显示,第三人称视角与第一人称视角的方向一致,只是第三人称视角会在游戏场景中显示背对终端屏幕的虚拟对象,以使得用户可以在游戏场景中看到其控制的虚拟对象的动作、所处环境等。虚拟摄像机的拍摄方向是以虚拟对象的第一人称视角或第三人称视角在游戏场景中进行观察时的观察方向。至于插值算法,其又称“内插法”,基本原理是利用函数f(x)在某区间中已知的若干点的函数值确定出适当的特定函数,在区间的其他点上用该特定函数的值作为函数f(x)的近似值。在本申请实施例中,插值算法包括距离倒数乘方法、克里金法、最小曲率法、多元回归法、径向基本函数法、线形插值法、自然邻点插值法和最近邻点插值法等诸多插值算法中的任意一种或其结合,本申请的技术方案对此不做特别限制。
由于步骤S302中完成了角色移动时第一局部空间至第二局部空间之间的戏场景环境变化值的计算,而第二局部空间的环境参数在先前已经获取,因此,当角色从第一局部空间向第二局部空间移动,整个移动过程的环境参数都能获得,直至角色到达第二局部空间时按照第二局部空间的环境参数呈现游戏场景的环境。
考虑到当角色从一个局部空间移动至另一局部空间时,若直接进入,则场景的突变会给游戏玩家带来不好的体验。为了解决上述问题,作为本申请另一实施例,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化可以通过如附图4示例的步骤S401至步骤S406实现,说明如下:
步骤S401:获取第一局部空间对应视图的深度信息和第二局部空间对应视图的深度信息。
在本申请实施例中,第一局部空间对应视图和第二局部空间对应视图可以为球面投影得到的视图,例如,可以将第一局部空间对应视图和第二局部空间对应视图划分成预定阵列阶数的矩形网格,每个矩形网格可以进一步拆分成两个直角三角形。根据直角三角形顶点在视图的位置以及直角三角形顶点与球心的距离即视图的深度信息确定直角三角形顶点的三维坐标,从而得到第一局部空间对应视图的深度信息和第二局部空间对应视图的深度信息。
步骤S402:根据第一局部空间对应视图的深度信息生成第一3D过渡空间,并根据第二局部空间对应视图的深度信息生成第二3D过渡空间。
具体地,根据第一局部空间对应视图的深度信息生成第一3D过渡空间可以是:将第一局部空间对应视图均分成预定阵列的网格,然后,根据第一局部空间对应视图的深度信息确定前述预定阵列的网格的三维顶点坐标,最后,根据前述预定阵列的网格及其三维顶点坐标生成第一3D过渡空间。需要说明的是,为了获得更加逼真的视觉效果,前述在将第一局部空间对应视图均分成预定阵列的网格时,可以进行两次均分,例如,可以在第一次将第一局部空间对应视图展开成一个矩形平面图,并均分成第一预定阵列的网格,在此基础上,进一步均分成第二预定阵列的网格,其中,第二预定阵列的阶数可以大于第一预定阵列的阶数,例如,第一预定阵列为128×64,而第二预定阵列可以为256×128。此外,由于本申请可以通过图像匹配算法或者3D激光扫描仪获得第一局部空间对应视图的深度信息,因此,在根据第一局部空间对应视图的深度信息确定前述预定阵列的网格的三维顶点坐标时,具体可以根据第一预定阵列或第二预定阵列的网格在平面图上的位置,可以获知矩形网格顶点的二维坐标,或者将矩形网格拆分成两个直角三角形网格,可以获知直角三角形网格顶点的二维坐标,再根据第一局部空间对应视图的深度信息可以获知矩形网格或者三角形网格顶点的三维坐标。
至于根据第二局部空间对应视图的深度信息生成第二3D过渡空间,其方案与根据第一局部空间对应视图的深度信息生成第一3D过渡空间类似,具体看也可以是:将第二局部空间对应视图均分成预定阵列的网格,然后,根据第二局部空间对应视图的深度信息确定前述预定阵列的网格的三维顶点坐标,最后,根据前述预定阵列的网格及其三维顶点坐标生成第二3D过渡空间,更多细节可以参考前述根据第一局部空间对应视图的深度信息生成第一3D过渡空间的技术方案,此处不做赘述。
步骤S403:在第一3D过渡空间中确定第一原视点和第一目标视点,并在第二3D过渡空间中确定第二原视点和第二目标视点。
所谓视点,实际就是前述实施例提及的虚拟摄像机的拍摄位置。在本申请实施例中,在第一局部空间对应视图是球形视图时,第一原视点可以是第一球面投影视图的球心,第二目标视点可以是第二球面投影视图的球心。通常情况下,第一原视点和第一目标视点之间的直线距离,等于第二原视点和第二目标视点之间的直线距离。
步骤S404:计算角色从第一局部空间向第二局部空间移动时对应的观察点。
具体地,可以确定角色从第一局部空间向第二局部空间移动时每一过渡帧的帧序号,然后,根据过渡总帧数N和帧序号计算该过渡帧对应的观察位置即观察点,其中,在确定角色从第一局部空间向第二局部空间移动时每一过渡帧的帧序号时,利用N帧过渡帧来模拟角色从第一局部空间向第二局部空间移动时从第一局部空间对应场景转换到第二局部空间对应场景,即利用N个特征点将第一原视点和第一目标视点之间的连线分成N-1等分,并利用N个特征点将第二原视点和第二目标视点之间的连线分成N-1等分,特征点即为观察点,特征点的序号即为帧序号;在第一3D过渡空间中,第一个特征点对应的过渡帧为第一局部空间对应视图,在第二3D过渡空间中,第N个特征点对应的过渡帧为第二局部空间对应视图。
步骤S405:在第一3D过渡空间中的观察点生成第一过渡环境参数,并在第二3D过渡空间中的观察点生成第二过渡环境参数。
在本申请实施例中,在第一3D过渡空间中的观察点生成第一过渡环境参数以及在第二3D过渡空间中的观察点生成第二过渡环境参数,都可以采用插值算法实现,具体的插值算法可以是前述实施例提及的任何一种插值算法或者其结合,此处不做赘述。
步骤S406:根据第一原视点、第一目标视点、第二原视点、第二目标视点、所述第一过渡环境参数和所述第二过渡环境参数,生成角色从第一局部空间向第二局部空间移动时每一观察点对应的环境参数。
步骤S406的具体实现可以是:计算观察点与第一原视点之间的距离L1、第一原视点和第一目标视点之间的距离Lab以及L1与Lab之比即第一比例R1;计算观察点与第一目标视点之间的距离Ltb以及Ltb与距离Lab之比即第二比例R2;以及根据第一比例R1、第二比例R2、第一过渡环境参数和第二过渡环境参数,生成角色从第一局部空间向第二局部空间移动时每一观察点的环境参数。需要说明的是,上述第一比例R1以及第二比例R2其实可以根据观察点对应的帧序号M和过渡总帧数N来计算,即R1=(M-1)/(N-1),R2=(N-M)/(N-1)。此外,每一观察点的环境参数与第一过渡环境参数或第二过渡环境参数呈线性关系,具体地,当第一过渡环境参数(例如,某个色彩值)使用C1表示,第二过渡环境参数(例如,某个色彩值)使用C2表示时,每一观察点的环境参数Co为Co=R1*C1+R2*C2
当所有观察点处的环境参数生成后,就实现了局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化。
从附图4示例的技术方案可知,利用多帧过渡帧来模拟角色从第一局部空间对应场景逐渐移动至第二局部空间对应场景,将不同空间之间的直接切换变成一种渐进转换,实现角色从第一局部空间向第二局部空间移动时场景视图的平滑过渡,其过程如同游戏玩家在现实场景中移动,场景变换时不存在突变,不会给游戏玩家带来视觉不适。
为了解决角色从一个局部空间移动至另一局部空间时,场景的突变给游戏玩家带来不好的体验,本申请还提供了另一种技术方案,即,在前述实施例中,在为每个需要变化的主体创建局部数据存储容器时,还为局部数据存储容器设置相应的融合参数,其中,融合参数用于局部数据存储容器对应的局部空间与其他空间进行游戏场景环境的融合,此时,作为本申请另一实施例,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化可以通过如附图5示例的步骤S501至步骤S503实现,说明如下:
步骤S501:当角色与第一局部空间的距离在第一预设阈值范围之内时,使用融合参数对第一局部空间的环境参数进行修改。
游戏角色的移动,是一个从一个局部空间移动至另一局部空间的过程,该过程必然伴随着游戏场景的变换,而不同场景可能存在着各种环境的不同。为了防止这种变换的突兀给游戏玩家带来的不适,可以先使用融合参数对第一局部空间的环境参数进行修改,具体可以是在角色距离第一局部空间在第一预设阈值范围之内时,可以使用融合参数将第一局部空间的环境参数修改为一个过渡空间的环境参数,此时,过渡空间的环境参数与第一局部空间的环境参数虽然存在一个差值,但该差值仍然是在预设阈值范围之内。
步骤S502:当角色从第一局部空间向第二局部空间移动,且角色与第二局部空间的距离在第二预设阈值范围之内时,使用融合参数对第二局部空间的环境参数进行修改。
如前所述,由于使用的融合参数将第一局部空间的环境参数修改为过渡空间的环境参数,两种空间之间的环境参数虽然存在的差值仍然是在预设阈值范围之内,因此,即使角色从第一局部空间向第二局部空间移动,只要角色与第一局部空间之间的距离还在预设阈值范围之内,不会给玩家一种突兀的感觉,此时,可以加载第二局部空间的环境参数,以便后续使用融合参数对第二局部空间的环境参数进行修改。
当角色从第一局部空间向第二局部空间移动时,角色距离第一局部空间越来越远,而距离第二局部空间越来越近。当角色与第一局部空间的距离超出了第一预设阈值时,或者,当角色与第二局部空间的距离达到第二预设阈值时,则可以使用融合参数将第二局部空间的环境参数修改为一个过渡空间的环境参数,此时,该过渡空间的环境参数与第二局部空间的环境参数虽然存在一个差值,但该差值仍然是在预设阈值范围之内。
步骤S503:当角色移动至第二局部空间时,以第二局部空间的环境参数呈现游戏场景环境。
由于在游戏场景中,户外渲染占游戏场景的比重较大,天空占据户外渲染的屏幕的比重较大,本申请以天空盒子为例来说明附图5的技术方案。当角色与第一天空盒子的距离尚未超出第一预设阈值时,过渡的天空盒子(即第一过渡天空盒子)的环境参数可以与第一天空盒子的环境参数相同或者存在一个差值,该差值在预设阈值之内。随着角色与第一天空盒子的距离越来越远,直至超出第一预设阈值而与第二天空盒子的距离在一个预设阈值范围之内,此时,可以创建另一过渡的天空盒子(即第二过渡天空盒子),该过渡的天空盒子的环境参数可以与第二天空盒子的环境参数相同或者存在一个差值,该差值在预设阈值之内。如附图6所示,是角色所处全局天空盒子对应的全局环境与角色所处局部天空盒子对应的局部环境的对比示意图。需要说明的是,在本申请实施例中,虽然都是以局部空间来说明本申请的技术方案,但该技术方案仍然适用于局部空间与全局空间,因为,某种程度上,全局空间可以视为是局部空间的一个特例。
在生成天空盒子的环境参数时,以当前视点即虚拟摄像机当前的拍摄位置为原点,生成参与散射计算的天空四分之一极坐标球形模型,保存太阳的极坐标偏移水平角和高度角;利用基于大气散射原理的散射计算模型计算大气渲染图像所需的贴图;计算出当前太阳方向在水平面上的偏移量;将所得到贴图缓冲映射到实际显示的天空图像,其中,需要进行顶点的矩阵变换和像素的对应;根据当前太阳方向在水平面上的偏移量,单独做一次渲染就可以得到当前的二分之一天空散射图;将已得到二分之一天空散射图利用对称的极坐标,得到另外二分之一天空散射图,如此就得到具有物理准确性的散射计算的游戏场景中整个天空。
在前述实施例中,在为每个需要变化的主体创建局部容器时,还为局部容器设置相应的融合参数,其中,融合参数用于局部容器对应的局部空间与其他空间进行游戏场景环境的融合,此时,作为本申请另一实施例,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化可以是:当角色从第一局部空间向第二局部空间移动时,结合融合参数以及角色与第二局部空间的距离,在游戏场景中生成多分辨率模型的层次细节(例如,生成由精细到粗糙直至最粗糙层的多分辨率模型的层次细节),为角色所到达位置处的游戏场景中的三维模型加载相应的多分辨率模型层次细节。上述实施例是基于这样一个事实,即游戏场景中总是包含各种各样的三维模型,模型层次细节的变化也能反映为环境参数的变化。例如,选择模型特征最显著表面为基准面构建模型的三维长方体包围盒,根据基准面的上下左右边缘为包围盒的长l和宽w,包围盒的高或者深度为d,随着视点的拉远,d以线性或者非线性函数关系变化逐步趋近于0,包围盒内的模型在深度方向随之一起被压扁。当角色与第二局部空间之间的距离为预设距离时,将游戏场景中三维模型的层次细节切换为与预设距离相应的层次细节,具体而言,标记第一局部空间中图像和第二局部空间中图像相应的特征,两个网格中相同位置的顶点对应图像上的特征一致;确定从第一局部空间中图像要经过多少帧过渡到第二局部空间中图像,从而根据帧数目进行第一局部空间中图像与第二局部空间中图像之间的插值,实现了两个局部空间中模型的角度、颜色和大小的平滑过渡。一旦角色完全进入第二局部空间,则其中的三维模型的层次细节完全变换为第二局部空间的层次细节。
从上述附图2示例的实现游戏场景环境变化的方法可知,由于是在开始进行渲染时就进行了游戏场景中需要变化的主体的记录、局部数据存储容器的创建以及游戏场景环境变化的触发,相比于现有技术渲染的“后处理”,本申请的技术方案将游戏场景环境的变化提前实施,因此,可以在渲染开始时即改变游戏场景的环境,达到预期的渲染效果。
为便于更好的实施本申请实施例的实现游戏场景环境变化的方法,本申请实施例还提供一种实现游戏场景环境变化的装置。请参阅图7,为本申请实施例提供的实现游戏场景环境变化的装置的结构示意图。该实现游戏场景环境变化的装置可以包括记录模块701、创建模块702和触发模块703,其中:
记录模块701,用于在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;
创建模块702,用于为每个需要变化的主体创建局部容器,其中,局部容器对应于局部空间;
触发模块703,用于当游戏中的角色进入局部空间时,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化,其中,局部空间的环境参数存储于局部容器对应的配置文件。
可选的,在上述附图7示例的实现游戏场景环境变化的装置中,记录模块701具体用于在游戏场景中创建全局容器,当通用渲染管线开始进行渲染时,通过脚本将游戏场景中需要变化的主体保存于全局容器。
可选的,在上述附图7示例的实现游戏场景环境变化的装置中,创建模块702具体用于创建属性为触发器的局部容器,为每个需要变化的主体配置对应的参数,其中,属性为触发器的局部容器对应于至少一个需要变化的主体,需要变化的主体配置的参数构成局部空间的环境参数。
可选的,在上述附图7示例的实现游戏场景环境变化的装置中,触发模块703具体用于获取第一局部空间和第二局部空间的环境参数,当角色从第一局部空间向第二局部空间移动时,按照第一局部空间的环境参数、第二局部空间的环境参数以及预设的插值算法计算角色移动过程中戏场景环境的变化值。
可选的,在上述附图7示例的实现游戏场景环境变化的装置中,触发模块703具体用于获取第一局部空间对应视图的深度信息和第二局部空间对应视图的深度信息;根据第一局部空间对应视图的深度信息生成第一3D过渡空间,并根据第二局部空间对应视图的深度信息生成第二3D过渡空间;在第一3D过渡空间中确定第一原视点和第一目标视点,并在第二3D过渡空间中确定第二原视点和第二目标视点;计算角色从第一局部空间向第二局部空间移动时对应的观察点;在第一3D过渡空间中的观察点生成第一过渡环境参数,并在第二3D过渡空间中的观察点生成第二过渡环境参数;以及根据第一原视点、第一目标视点、第二原视点、第二目标视点、第一过渡环境参数和第二过渡环境参数,生成角色从第一局部空间向第二局部空间移动时每一观察点对应的环境参数。
可选的,在上述附图7示例的实现游戏场景环境变化的装置中,创建模块702还用于为局部容器设置相应的融合参数,其中,融合参数用于局部容器对应的局部空间与其他空间进行游戏场景环境的融合。
可选的,在上述附图7示例的实现游戏场景环境变化的装置中,当创建模块702用于为局部数据存储容器设置相应的融合参数时,触发模块703具体用于当角色与第一局部空间的距离在第一预设阈值范围之内时,使用融合参数对第一局部空间的环境参数进行修改;当角色从第一局部空间向第二局部空间移动,且角色与第二局部空间的距离在第二预设阈值范围之内时,使用融合参数对第二局部空间的环境参数进行修改;当角色移动至第二局部空间时,以第二局部空间的环境参数呈现游戏场景环境。
可选的,在上述附图7示例的实现游戏场景环境变化的装置中,当创建模块702用于为局部数据存储容器设置相应的融合参数时,触发模块703具体用于当角色从第一局部空间向第二局部空间移动时,结合融合参数以及角色与第二局部空间的距离,生成多个多分辨率模型层次细节;为角色所到达位置处的游戏场景中的三维模型加载相应的多分辨率模型层次细节。
上述所有的技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
本申请实施例提供的实现游戏场景环境变化的装置,由于是在开始进行渲染时就进行了游戏场景中需要变化的主体的记录、局部容器的创建以及游戏场景环境变化的触发,相比于现有技术渲染的“后处理”,本申请的技术方案将游戏场景环境的变化提前实施,因此,可以在渲染开始时即改变游戏场景的环境,达到预期的渲染效果。
相应的,本申请实施例还提供一种计算机设备,该计算机设备可以为终端或者服务器,该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(PC,Personal Computer)、个人数字助理(Personal Digital Assistant,PDA)等终端设备。如图8所示,图8为本申请实施例提供的计算机设备的结构示意图。该计算机设备400包括有一个或者一个以上处理核心的处理器401、有一个或一个以上计算机可读存储介质的存储器402及存储在存储器402上并可在处理器上运行的计算机程序。其中,处理器401与存储器402电性连接。本领域技术人员可以理解,图中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器401是计算机设备400的控制中心,利用各种接口和线路连接整个计算机设备400的各个部分,通过运行或加载存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备400的各种功能和处理数据,从而对计算机设备400进行整体监控。
在本申请实施例中,计算机设备400中的处理器401会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现各种功能:
在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;为每个需要变化的主体创建局部容器,其中,局部容器对应于局部空间;当游戏中的角色进入局部空间时,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化,其中,局部空间的环境参数存储于局部容器对应的配置文件。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
可选的,如图8所示,计算机设备400还包括:触控显示屏403、射频电路404、音频电路405、输入单元406以及电源407。其中,处理器401分别与触控显示屏403、射频电路404、音频电路405、输入单元406以及电源407电性连接。本领域技术人员可以理解,图8中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
触控显示屏403可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏403可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及计算机设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-EmittingDiode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器401,并能接收处理器401发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器401以确定触摸事件的类型,随后处理器401根据触摸事件的类型在显示面板上提供相应的视觉输出。在本申请实施例中,可以将触控面板与显示面板集成到触控显示屏403而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏403也可以作为输入单元406的一部分实现输入功能。
在本申请实施例中,通过处理器401执行游戏应用程序在触控显示屏403上生成图形用户界面,图形用户界面上的虚拟场景中包含至少一个技能控制区域,技能控制区域中包含至少一个技能控件。该触控显示屏403用于呈现图形用户界面以及接收用户作用于图形用户界面产生的操作指令。
射频电路404可用于收发射频信号,以通过无线通信与网络设备或其他计算机设备建立无线通讯,与网络设备或其他计算机设备之间收发信号。
音频电路405可以用于通过扬声器、传声器提供用户与计算机设备之间的音频接口。音频电路405可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路405接收后转换为音频数据,再将音频数据输出处理器401处理后,经射频电路404以发送给比如另一计算机设备,或者将音频数据输出至存储器402以便进一步处理。音频电路405还可能包括耳塞插孔,以提供外设耳机与计算机设备的通信。
输入单元406可用于接收输入的数字、字符信息或用户特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
电源407用于给计算机设备400的各个部件供电。可选的,电源407可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源407还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管图8中未示出,计算机设备400还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
由上可知,本实施例提供的计算机设备,由于是在开始进行渲染时就进行了游戏场景中需要变化的主体的记录、局部容器的创建以及游戏场景环境变化的触发,相比于现有技术渲染的“后处理”,本申请的技术方案将游戏场景环境的变化提前实施,因此,可以在渲染开始时即改变游戏场景的环境,达到预期的渲染效果。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种实现游戏场景环境变化的方法中的步骤。例如,该计算机程序可以执行如下步骤:
在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;为每个需要变化的主体创建局部容器,其中,局部容器对应于局部空间;当游戏中的角色进入局部空间时,触发局部空间的游戏场景环境按照角色的移动和局部空间的环境参数进行变化,其中,局部空间的环境参数存储于局部容器对应的配置文件。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种实现游戏场景环境变化的方法中的步骤,因此,可以实现本申请实施例所提供的任一种实现游戏场景环境变化的方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种实现游戏场景环境变化的方法、装置、存储介质及计算机设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (11)

1.一种实现游戏场景环境变化的方法,其特征在于,包括:
在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;
为每个所述需要变化的主体创建局部容器,所述局部容器对应于局部空间;
当游戏中的角色进入所述局部空间时,触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,所述局部空间的环境参数存储于所述局部容器对应的配置文件。
2.如权利要求1所述实现游戏场景环境变化的方法,其特征在于,所述在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体,包括:
在所述游戏场景中创建全局容器;
当所述通用渲染管线开始进行渲染时,通过脚本将所述游戏场景中需要变化的主体保存于所述全局容器。
3.如权利要求1所述实现游戏场景环境变化的方法,其特征在于,所述为每个所述需要变化的主体创建局部容器,包括:
创建属性为触发器的局部容器,所述属性为触发器的局部容器对应于至少一个所述需要变化的主体;
为每个所述需要变化的主体配置对应的参数,所述需要变化的主体配置的参数构成所述局部空间的环境参数。
4.如权利要求1所述实现游戏场景环境变化的方法,其特征在于,所述局部空间包括第一局部空间和第二局部空间,所述触发所述局部空间的戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:
获取所述第一局部空间和所述第二局部空间的环境参数;
当所述角色从所述第一局部空间向所述第二局部空间移动时,按照所述第一局部空间的环境参数、所述第二局部空间的环境参数以及预设的插值算法计算所述角色移动过程中所述游戏场景环境的变化值。
5.如权利要求1所述实现游戏场景环境变化的方法,其特征在于,所述触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:
获取第一局部空间对应视图的深度信息和第二局部空间对应视图的深度信息;
根据所述第一局部空间对应视图的深度信息生成第一3D过渡空间,并根据所述第二局部空间对应视图的深度信息生成第二3D过渡空间;
在所述第一3D过渡空间中确定第一原视点和第一目标视点,并在所述第二3D过渡空间中确定第二原视点和第二目标视点;
计算所述角色从所述第一局部空间向所述第二局部空间移动时对应的观察点;
在所述第一3D过渡空间中的观察点生成第一过渡环境参数,并在所述第二3D过渡空间中的观察点生成第二过渡环境参数;以及
根据所述第一原视点、所述第一目标视点、所述第二原视点、所述第二目标视点、所述第一过渡环境参数和所述第二过渡环境参数,生成所述角色从所述第一局部空间向所述第二局部空间移动时每一观察点对应的环境参数。
6.如权利要求3所述实现游戏场景环境变化的方法,其特征在于,所述为每个所述需要变化的主体创建局部容器还包括:
为所述局部容器设置相应的融合参数,所述融合参数用于所述局部容器对应的局部空间与其他空间进行游戏场景环境的融合。
7.如权利要求6所述实现游戏场景环境变化的方法,其特征在于,所述触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:
当所述角色与所述第一局部空间的距离在第一预设阈值范围之内时,使用所述融合参数对所述第一局部空间的环境参数进行修改;
当所述角色从第一局部空间向所述第二局部空间移动,且所述角色与所述第二局部空间的距离在第二预设阈值范围之内时,使用所述融合参数对所述第二局部空间的环境参数进行修改;
当所述角色移动至所述第二局部空间时,以所述第二局部空间的环境参数呈现所述游戏场景环境。
8.如权利要求6所述实现游戏场景环境变化的方法,其特征在于,所述触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,包括:
当所述角色从第一局部空间向第二局部空间移动时,结合所述融合参数以及所述角色与所述第二局部空间的距离,生成多个多分辨率模型层次细节;
为所述角色所到达位置处的游戏场景中的三维模型加载相应的所述多分辨率模型层次细节。
9.一种实现游戏场景环境变化的装置,其特征在于,包括:
记录模块,用于在通用渲染管线开始进行渲染时记录游戏场景中需要变化的主体;
创建模块,用于为每个所述需要变化的主体创建局部容器,所述局部容器对应于局部空间;
触发模块,用于当游戏中的角色进入所述局部空间时,触发所述局部空间的游戏场景环境按照所述角色的移动和所述局部空间的环境参数进行变化,所述局部空间的环境参数存储于所述局部容器对应的配置文件。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如权利要求1至8任意一项所述的实现游戏场景环境变化的方法中的步骤。
11.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,执行如权利要求1至8任意一项所述的实现游戏场景环境变化的方法中的步骤。
CN202011172557.5A 2020-10-28 2020-10-28 实现游戏场景环境变化的方法、装置、存储介质及计算机设备 Active CN112206519B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011172557.5A CN112206519B (zh) 2020-10-28 2020-10-28 实现游戏场景环境变化的方法、装置、存储介质及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011172557.5A CN112206519B (zh) 2020-10-28 2020-10-28 实现游戏场景环境变化的方法、装置、存储介质及计算机设备

Publications (2)

Publication Number Publication Date
CN112206519A true CN112206519A (zh) 2021-01-12
CN112206519B CN112206519B (zh) 2024-03-01

Family

ID=74057351

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011172557.5A Active CN112206519B (zh) 2020-10-28 2020-10-28 实现游戏场景环境变化的方法、装置、存储介质及计算机设备

Country Status (1)

Country Link
CN (1) CN112206519B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113398580A (zh) * 2021-06-30 2021-09-17 上海完美时空软件有限公司 游戏场景的生成方法及装置、存储介质、电子装置
CN116597063A (zh) * 2023-07-19 2023-08-15 腾讯科技(深圳)有限公司 图片渲染方法、装置、设备和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003334386A (ja) * 2002-05-21 2003-11-25 Sega Corp ゲームの制御方法及びプログラム及び記録媒体及びビデオゲーム装置
JP2011050577A (ja) * 2009-09-02 2011-03-17 Copcom Co Ltd ゲームプログラム、記録媒体、およびコンピュータ
CN105678835A (zh) * 2015-11-23 2016-06-15 温州大学 数字三维写意水墨山水画的建模绘制与渲染方法
CN108766536A (zh) * 2018-05-28 2018-11-06 沈阳东软医疗系统有限公司 定位线渲染、显示方法及装置、设备和存储介质
CN109754471A (zh) * 2019-01-10 2019-05-14 网易(杭州)网络有限公司 增强现实中的图像处理方法及装置、存储介质、电子设备
CN111068312A (zh) * 2019-12-02 2020-04-28 网易(杭州)网络有限公司 游戏画面渲染的方法与装置、存储介质、电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003334386A (ja) * 2002-05-21 2003-11-25 Sega Corp ゲームの制御方法及びプログラム及び記録媒体及びビデオゲーム装置
JP2011050577A (ja) * 2009-09-02 2011-03-17 Copcom Co Ltd ゲームプログラム、記録媒体、およびコンピュータ
CN105678835A (zh) * 2015-11-23 2016-06-15 温州大学 数字三维写意水墨山水画的建模绘制与渲染方法
CN108766536A (zh) * 2018-05-28 2018-11-06 沈阳东软医疗系统有限公司 定位线渲染、显示方法及装置、设备和存储介质
CN109754471A (zh) * 2019-01-10 2019-05-14 网易(杭州)网络有限公司 增强现实中的图像处理方法及装置、存储介质、电子设备
CN111068312A (zh) * 2019-12-02 2020-04-28 网易(杭州)网络有限公司 游戏画面渲染的方法与装置、存储介质、电子设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113398580A (zh) * 2021-06-30 2021-09-17 上海完美时空软件有限公司 游戏场景的生成方法及装置、存储介质、电子装置
CN113398580B (zh) * 2021-06-30 2024-01-09 上海完美时空软件有限公司 游戏场景的生成方法及装置、存储介质、电子装置
CN116597063A (zh) * 2023-07-19 2023-08-15 腾讯科技(深圳)有限公司 图片渲染方法、装置、设备和介质
CN116597063B (zh) * 2023-07-19 2023-12-05 腾讯科技(深圳)有限公司 图片渲染方法、装置、设备和介质

Also Published As

Publication number Publication date
CN112206519B (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
US11494995B2 (en) Systems and methods for virtual and augmented reality
CN110276840B (zh) 多虚拟角色的控制方法、装置、设备及存储介质
WO2021258994A1 (zh) 虚拟场景的显示方法、装置、设备及存储介质
CN112138386A (zh) 一种体积渲染方法、装置、存储介质及计算机设备
CN112156464B (zh) 虚拟对象的二维形象展示方法、装置、设备及存储介质
CN109725956B (zh) 一种场景渲染的方法以及相关装置
CN112802172B (zh) 三维模型的纹理映射方法、装置、存储介质及计算机设备
CN112206517B (zh) 一种渲染方法、装置、存储介质及计算机设备
JP7186901B2 (ja) ホットスポットマップの表示方法、装置、コンピュータ機器および読み取り可能な記憶媒体
US10818078B2 (en) Reconstruction and detection of occluded portions of 3D human body model using depth data from single viewpoint
CN113426117B (zh) 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质
CN111445563B (zh) 一种图像生成的方法以及相关装置
CN113952720A (zh) 游戏场景渲染方法、装置、电子设备及存储介质
CN112206519B (zh) 实现游戏场景环境变化的方法、装置、存储介质及计算机设备
US20230347240A1 (en) Display method and apparatus of scene picture, terminal, and storage medium
CN115082607B (zh) 虚拟角色头发渲染方法、装置、电子设备和存储介质
CN112950753B (zh) 虚拟植物显示方法、装置、设备及存储介质
CN113101666A (zh) 游戏角色模型方法、装置、计算机设备及存储介质
CN115588066A (zh) 一种虚拟对象的渲染方法、装置、计算机设备及存储介质
CN115526967A (zh) 虚拟模型的动画生成方法、装置、计算机设备及存储介质
CN112755533B (zh) 虚拟载具涂装方法、装置、设备及存储介质
CN114177614A (zh) 界面显示方法、装置、终端及存储介质
WO2021143262A1 (zh) 地图元素添加方法、装置、终端及存储介质
CN115035231A (zh) 阴影烘焙方法、装置、电子设备和存储介质
CN112843697A (zh) 一种图像处理方法、装置、存储介质及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant