CN116271814A - 场景画面处理方法、装置、存储介质及电子装置 - Google Patents
场景画面处理方法、装置、存储介质及电子装置 Download PDFInfo
- Publication number
- CN116271814A CN116271814A CN202310234799.XA CN202310234799A CN116271814A CN 116271814 A CN116271814 A CN 116271814A CN 202310234799 A CN202310234799 A CN 202310234799A CN 116271814 A CN116271814 A CN 116271814A
- Authority
- CN
- China
- Prior art keywords
- scene
- rendering
- dimensional virtual
- depth
- depth range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 41
- 238000003860 storage Methods 0.000 title claims abstract description 40
- 238000009877 rendering Methods 0.000 claims abstract description 334
- 238000012545 processing Methods 0.000 claims abstract description 199
- 230000000007 visual effect Effects 0.000 claims abstract description 61
- 238000004590 computer program Methods 0.000 claims description 31
- 239000012634 fragment Substances 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 16
- 238000000034 method Methods 0.000 abstract description 48
- 238000005516 engineering process Methods 0.000 abstract description 10
- 238000004519 manufacturing process Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 14
- 238000004088 simulation Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种场景画面处理方法、装置、存储介质及电子装置。该方法包括:获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面。本申请解决了相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
Description
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种场景画面处理方法、装置、存储介质及电子装置。
背景技术
目前,通常根据场景需求,选择不同的制作方式来制作虚拟场景画面。常用的制作方式有2D制作方式、2.5D制作方式和3D制作方式。2D制作方式仅需要制作一张背景图片,资源包小,设备性能消耗低,但是画面精度低。2.5D制作方式中,为一个场景制作一张背景图片,再基于该背景图片进行3D模型的渲染,得到最终的场景画面,但是2.5D制作方式仅适用于固定视角的虚拟场景。3D制作方式能够考虑虚拟场景中虚拟模型的细节和物理光照效果,所制作的场景画面精细度高、拟真度高。但是由于虚拟场景中模型丰富且尺寸较大,3D制作方式对设备性能消耗极高,容易导致运行卡顿。针对3D制作方式,相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术方案。
针对上述的问题,目前尚未提出有效的解决方案。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本申请至少部分实施例提供了一种场景画面处理方法、装置、存储介质及电子装置,以至少解决相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
根据本申请其中一实施例,提供了一种场景画面处理方法,包括:获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面。
根据本申请其中一实施例,还提供了一种场景画面处理装置,包括:获取模块,用于获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;划分模块,用于根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中每个三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;处理模块,用于对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;生成模块,用于基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面。
根据本申请其中一实施例,还提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,其中,计算机程序被设置为运行时执行上述任一项中的场景画面处理方法。
根据本申请其中一实施例,还提供了一种电子装置,包括:包括存储器和处理器,存储器中存储有计算机程序,处理器被设置为运行计算机程序以执行上述任一项中的场景画面处理方法。
在本申请至少部分实施例中,通过获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;并根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;以及对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;进一步基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面,达到了对三维虚拟场景的场景画面进行基于深度信息的渲染区域划分和模型片元简化处理,得到处理后的场景画面的目的。由于模型片元简化处理是针对不同渲染区域有区别地进行的,因此,本申请提供的上述技术方案能够在保证场景画面视觉效果的情况下,简化场景模型以降低渲染消耗,从而实现了兼顾三维场景制作中场景画面视觉效果和设备运行流畅度的技术效果,进而解决了相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请其中一实施例的一种场景画面处理方法的移动终端的硬件结构框图;
图2是根据本申请其中一实施例的一种场景画面处理方法的流程图;
图3是根据本申请其中一实施例的一种三维虚拟场景的第一场景画面的示意图;
图4是根据本申请其中一实施例的一种第一场景画面对应的三维虚拟模型的模型网格的示意图;
图5是根据本申请其中一实施例的一种渲染区域划分结果的示意图;
图6是根据本申请其中一实施例的一种模型片元简化处理的处理结果的示意图;
图7是根据本申请其中一实施例的一种三维虚拟场景的第二场景画面的示意图;
图8是根据本申请其中一实施例的一种场景画面处理装置的结构框图;
图9是根据本申请其中一实施例的另一种场景画面处理装置的结构框图;
图10是根据本申请其中一实施例的另一种场景画面处理装置的结构框图;
图11是根据本申请其中一实施例的一种电子装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本申请的说明书中,“例如”一词用来表示“用作例子、例证或说明”。本申请中被描述为“例如”的任何实施例不一定被解释为比其它实施例更优选或更具优势。为了使本领域任何技术人员能够实现和使用本申请,给出了以下描述。在以下描述中,为了解释的目的而列出了细节。应当明白的是,本领域普通技术人员可以认识到,在不使用这些特定细节的情况下也可以实现本申请。在其它实例中,不会对公知的结构和过程进行详细阐述,以避免不必要的细节使本申请的描述变得晦涩。因此,本申请并非旨在限于所示的实施例,而是与符合本申请所公开的原理和特征的最广范围相一致。
相关技术中,为了兼顾3D虚拟场景画面制作中场景画面视觉效果和设备运行流畅度,通常采用的方法为:将高面数模型的信息拓扑至低面数模型上,进而利用低面数模型完成丰富的细节绘制,将绘制后的低面数模型应用至虚拟场景后通过不同细节层级(Levelof Detail,LOD)的模型减面处理,以降低相应设备的运行资源消耗,也即提高运行流畅度。然而,上述方法虽然对计算机端设备的资源节省具有一定效果,但仍无法满足移动端设备在渲染虚拟场景画面时的资源节省需求。也就是说,采用上述方法仅能大幅降低资源消耗使得画面视觉效果变差,或者保持画面视觉效果但仅支持部分移动端设备流畅运行。因此,如何兼顾三维场景制作中场景画面视觉效果和设备运行流畅度仍然是相关技术领域的重要问题之一。
在本申请的一种可能的实施方式中,针对计算机技术领域下涉及虚拟场景画面渲染的场景中通常所采用的三维场景画面制作方式,发明人经过实践并仔细研究后,仍然存在无法兼顾三维场景制作中场景画面视觉效果和设备运行流畅度的技术问题,基于此,本申请实施例应用的场景可以是计算机技术领域下涉及虚拟场景画面渲染的场景,所针对的游戏类型可以是动作类、冒险类、模拟类、角色扮演类和休闲类等。
本申请实施例提出了一种场景画面处理的方法,采用对三维虚拟场景的场景画面进行基于深度信息的渲染区域划分,以及针对不同渲染区域有区别地进行模型片元简化处理,得到处理后的场景画面的技术构思,实现了兼顾三维场景制作中场景画面视觉效果和设备运行流畅度的技术效果,进而解决了相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
本申请涉及到的上述方法实施例,可以在终端设备(例如,移动终端、计算机终端或者类似的运算装置)中执行。以运行在移动终端上为例,该移动终端可以是智能手机、平板电脑、掌上电脑以及移动互联网设备、PAD、游戏机等终端设备。
图1是根据本申请其中一实施例的一种场景画面处理方法的移动终端的硬件结构框图。如图1所示,移动终端可以包括一个或多个(图1中仅示出一个)处理器102、存储器104、传输设备106、输入输出设备108以及显示设备110。以场景画面处理方法通过该移动终端应用于电子游戏场景为例,处理器102调用并运行存储器104中存储的计算机程序以执行该场景画面处理方法,所生成的经模型片元简化后的三维虚拟场景的场景画面通过传输设备106传输至输入输出设备108和/或显示设备110,进而将该三维虚拟场景的场景画面提供给玩家。
仍然如图1所示,处理器102可以包括但不限于:中央处理器(Central ProcessingUnit,CPU)、图形处理器(Graphics Processing Unit,GPU)、数字信号处理(DigitalSignal Processing,DSP)芯片、微处理器(Microcontroller Unit,MCU)、可编程逻辑器件(Field Programmable Gate Array,FPGA)、神经网络处理器(Neural-Network ProcessingUnit,NPU)、张量处理器(Tensor Processing Unit,TPU)、人工智能(ArtificialIntelligence,AI)类型处理器等的处理装置。
本领域技术人员可以理解,图1所示的结构仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
在一些以游戏场景为主的可选实施例中,上述终端设备还可以提供具有触摸触敏表面的人机交互界面,该人机交互界面可以感应手指接触和/或手势来与图形用户界面(Graphical User Interface,GUI)进行人机交互,该人机交互功能可以包括如下交互:创建网页、绘图、文字处理、制作电子文档、游戏、视频会议、即时通信、收发电子邮件、通话界面、播放数字视频、播放数字音乐和/或网络浏览等、用于执行上述人机交互功能的可执行指令被配置/存储在一个或多个处理器可执行的计算机程序产品或可读存储介质中。
本申请涉及到的上述方法实施例,还可以在服务器中执行。其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network、CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。以场景画面处理方法通过电子游戏服务器应用于电子游戏场景为例,电子游戏服务器可基于该场景画面处理方法生成经模型片元简化后的三维虚拟场景的场景画面,并将该三维虚拟场景的场景画面提供给玩家(例如,可以渲染显示在玩家终端的显示屏上,或者,通过全息投影提供给玩家等)。
根据本申请其中一实施例,提供了一种场景画面处理方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种运行于上述移动终端的一种场景画面处理方法,图2是根据本申请其中一实施例的一种场景画面处理方法的流程图,如图2所示,该方法包括如下步骤:
步骤S21,获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;
在一种可选的实施方式中,上述三维虚拟场景的第一场景画面可以由设置在该三维虚拟场景中的虚拟摄像机拍摄得到。上述虚拟摄像机为上述三维虚拟场景中设置的观察摄像机。上述三维虚拟场景可以是医疗(如医院的三维导诊/导航场景)、工程(如施工进度展示场景)、制造(如加工效果展示场景)、会议(如虚拟会议室)、汽车(如智能三维导航)、游戏(如电子游戏的三维地图场景)、虚拟现实、电影、教育(如虚拟课堂、虚拟家长会等)、旅游、军事和公共服务等领域下的虚拟展示场景。
特别地,上述三维虚拟场景可以是三维虚拟游戏场景。该三维虚拟游戏场景对应的游戏类型可以是:动作类(例如:第一人称或第三人称射击游戏、二维或三维格斗游戏、战争动作游戏和体育动作游戏等)、冒险类(例如:探险游戏、收藏游戏、解谜游戏等)、模拟类(例如:模拟沙盘游戏、模拟养成游戏、策略模拟游戏、城市建造模拟游戏、商业模拟游戏等)、角色扮演类和休闲类(例如:棋牌桌游游戏、休闲竞技游戏、音乐节奏游戏、换装养成游戏等)等。
上述虚拟摄像机用于拍摄虚拟三维场景中的三维虚拟模型。控制上述虚拟摄像机对上述虚拟三维场景进行拍摄,可以得到上述第一场景画面。上述第一场景画面的显示内容至少包括上述多个三维虚拟模型。上述多个三维虚拟模型为高面数模型。例如,三维虚拟模型可以为虚拟物品模型、虚拟道具模型、虚拟天空模型、虚拟地表模型、虚拟植被模型等。上述第一场景画面的显示内容还可以包括三维虚拟场景的背景。
步骤S22,根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;
上述多个三维虚拟模型的深度信息可以是,上述多个三维虚拟模型的每个三维虚拟模型在第一场景画面中的景深信息,也可以理解为,上述多个三维虚拟模型的每个三维虚拟模型与上述虚拟摄像机的拍摄位置之间的距离。
三维虚拟模型的与上述虚拟摄像机的拍摄位置之间的距离越小,认为该三维虚拟模型在当前场景画面中显示得越清晰,也即,用户能够更加清晰地观察到该三维虚拟模型的模型细节;反之,三维虚拟模型的与上述虚拟摄像机的拍摄位置之间的距离越大,认为该三维虚拟模型在当前场景画面中显示得越模糊,也即,用户观察到该三维虚拟模型的模型细节更少(或者用户更容易忽略该三维虚拟模型的模型细节)。
在本申请实施例提供的上述方法步骤中,根据上述多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域。在一种可选的实施方式中,以两个渲染区域为例,利用上述多个三维虚拟模型中每个虚拟三维模型的深度信息所属的两个不同的深度范围,将上述第一场景画面划分为上述第一渲染区域和上述第二渲染区域。可选地,上述第一渲染区域对应于上述两个不同的深度范围中较浅的一个深度范围,上述第二渲染区域对应于上述两个不同的深度范围中较深的一个深度范围,相应地,第一渲染区域为第一场景画面的近景区域,第二渲染区域为第一场景画面的远景区域。
具体地,上述利用上述多个三维虚拟模型的深度信息将第一场景画面划分为多个渲染区域,还可以包括其他方法步骤,可以参照下文中对于本申请实施例的进一步介绍,此处不予赘述。
步骤S23,对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;
在三维虚拟场景的场景画面渲染过程中,设备性能的消耗与该场景画面中显示的三维虚拟模型的面数相关度较高,因此,为了降低场景画面渲染过程中的设备性能消耗,上述对第二渲染区域对应的三维虚拟模型所进行的模型片元简化处理为降低模型面数的处理。
具体地,上述对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果,还可以包括其他方法步骤,可以参照下文中对于本申请实施例的进一步介绍,此处不予赘述。
步骤S24,基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面。
上述第一场景画面对应的渲染信息可以是,三维虚拟场景中的三维虚拟模型经模型片元简化处理前渲染该第一场景画面所需的渲染信息。基于该渲染信息和上述第一处理结果,生成第二场景画面。上述第二场景画面为三维虚拟场景中的三维虚拟模型经模型片元简化处理后对应的场景画面。
具体地,上述基于第一场景画面对应的渲染信息、第一处理结果和第二处理结果,生成第二场景画面,还可以包括其他方法步骤,可以参照下文中对于本申请实施例的进一步介绍,此处不予赘述。
在本申请至少部分实施例中,通过获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;并根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;以及对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;进一步基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面,达到了对三维虚拟场景的场景画面进行基于深度信息的渲染区域划分和模型片元简化处理,得到处理后的场景画面的目的。由于模型片元简化处理是针对不同渲染区域有区别地进行的,因此,本申请提供的上述技术方案能够在保证场景画面视觉效果的情况下,简化场景模型以降低渲染消耗,从而实现了兼顾三维场景制作中场景画面视觉效果和设备运行流畅度的技术效果,进而解决了相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
本申请实施例提供的场景画面处理方法尤其适用于对电子游戏领域中的三维虚拟游戏场景的场景画面进行处理的应用场景下。以下以对三维虚拟游戏场景进行场景画面处理为例对本申请实施例提供的技术方案进行进一步介绍。
图3是根据本申请其中一实施例的一种三维虚拟场景的第一场景画面的示意图,如图3所示的场景画面为控制三维虚拟游戏场景中的虚拟摄像机所拍摄的第一场景画面。在该第一场景画面中显示有多个三维虚拟立柱模型。多个三维虚拟立柱模型与虚拟摄像机之间的距离不同。
仍然如图3所示,在第一场景画面中显示有八个三维虚拟立柱模型,本申请实施例中认为该八个三维虚拟立柱模型为左右对称的四对三维虚拟立柱模型,且每一对三维虚拟立柱模型的深度信息相同,如图3所示,最近的一对三维虚拟立柱模型(图3中未显示完全)称为第一对三维虚拟立柱模型,次近的一对三维虚拟立柱模型称为第二对三维虚拟立柱模型,次远的一对三维虚拟立柱模型称为第三对三维虚拟立柱模型,最远的一对三维虚拟立柱模型称为第四对三维虚拟立柱模型。
图4是根据本申请其中一实施例的一种第一场景画面对应的三维虚拟模型的模型网格的示意图,如图4所示,在三维虚拟游戏场景中,对多个三维虚拟立柱模型进行模型片元简化之前,每个三维虚拟立柱模型的模型面数基本相同。为了使玩家拥有更好的游戏体验,在进行三维虚拟游戏场景的场景画面渲染时,多个三维虚拟立柱模型的模型面数由与玩家(也即虚拟摄像机)距离最近的三维虚拟立柱模型确定,也就是说,无论三维虚拟立柱模型与玩家距离多远,都采用高面数模型网格进行渲染。然而,距离玩家较远的模型(如远处的山峰、树木、天空等)的模型显示精度要求通常较低,上述多个三维虚拟立柱模型采用基本相同的模型面数进行场景画面渲染的方法将会导致渲染过程中设备性能的非必要消耗。本申请实施例提供的技术方案能够解决上述问题。
可选地,在步骤S22中,根据多个三维虚拟模型的深度信息将第一场景画面划分为多个渲染区域,可以包括以下执行步骤:
步骤S221,获取多个三维虚拟模型的深度信息;
步骤S222,根据多个三维虚拟模型的深度信息,分别确定第一深度范围和第二深度范围,其中,第一深度范围小于第二深度;
步骤S223,基于第一深度范围和第二深度范围,将第一场景画面划分为多个渲染区域。
获取多个三维虚拟模型的深度信息,也即,三维虚拟场景中,获取多个三维虚拟模型中每个三维虚拟模型与上述虚拟摄像机的拍摄位置之间的距离,其中,拍摄位置为上述虚拟摄像机拍摄上述第一场景画面时所处的当前位置。
仍然以对三维虚拟游戏场景进行场景画面处理为例,获取如图3所示的第一场景画面中所显示的多个三维虚拟立柱模型的深度信息,也即获取每个三维虚拟立柱模型到虚拟摄像机的距离。利用上述多个三维虚拟立柱模型的深度信息,确定上述第一深度范围和上述第二深度范围。
进一步地,基于第一深度范围和第二深度范围,将第一场景画面划分为多个渲染区域。多个渲染区域包括:第一深度范围对应的第一渲染区域,第二深度范围对应的第二渲染区域。第一深度范围小于第二深度范围也就是说,第一深度范围对应的第一渲染区域为近景区域,第二深度范围对应的第二渲染区域为远景区域。
可选地,第一场景画面的显示内容还包括:三维虚拟场景内的虚拟角色,在步骤S222中,根据深度信息,分别确定第一深度范围和第二深度范围,可以包括以下执行步骤:
步骤S2221,获取虚拟角色的移动范围和视野范围;
步骤S2222,根据深度信息、移动范围和视野范围,分别确定第一深度范围和第二深度范围。
上述第一场景画面内可以同时显示有三维虚拟场景内的虚拟角色(如玩家当前操控的虚拟游戏角色)、多个三维虚拟模型。此时,获取该虚拟角色的移动范围和视野范围。由多个三维虚拟模型的深度信息、虚拟角色的移动范围和视野范围,确定上述第一深度范围和第二深度范围,进而将第一场景画面划分为多个渲染区域进行模型优化处理,能够考虑到为虚拟角色在三维虚拟场景内的移动和旋转(即视角方向变化,如左右张望、抬头、低头等)场景画面渲染的影响。
仍然以对三维虚拟游戏场景进行场景画面处理为例,通常在三维虚拟游戏场景中,场景的近景区域内可以支持玩家控制虚拟游戏角色自由移动,且随着虚拟游戏角色的移动,近景区域内的三维虚拟模型(如虚拟物品、虚拟地形等)会在虚拟游戏角色的视野范围内进行明显的缩放变化(也即透视效果,近处的模型较大)。而场景的远景区域通常在虚拟游戏角色的视野范围内的较远距离处,游戏场景中对该远景区域内的虚拟模型的模型要求较低。
在三维虚拟游戏场景中,虚拟游戏角色的移动范围和视野范围可以由游戏引擎实时获取,移动范围可以由虚拟游戏角色的历史位置和/或当前位置确定。视野范围可以由虚拟游戏角色的移动范围、面部朝向和观察条件(如是否存在大雾天气、是否使用了望远镜或瞄准镜等)等确定。
在三维虚拟游戏场景中,利用多个三维虚拟立柱模型的深度信息、虚拟游戏角色的移动范围和视野范围,确定上述第一深度范围和第二深度范围。具体实现方式可以是,根据深度信息、移动范围和视野范围,实时确定第一深度阈值;将深度值小于第一深度阈值的深度范围作为上述第一深度范围,将深度值不小于第一深度阈值的深度范围作为上述第二深度范围。
可选地,在步骤S223中,基于第一深度范围和第二深度范围,将第一场景画面划分为多个渲染区域,可以包括以下执行步骤:
步骤S2231,在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,以及第二深度范围内的三维虚拟模型对应的第二像素区域;
步骤S2232,基于第一像素区域和第二像素区域将第一场景画面划分为多个渲染区域。
仍然以对三维虚拟游戏场景进行场景画面处理为例,根据本实施例的前述步骤所确定的第一深度范围和第二深度范围,从如图3所示的第一场景画面中,确定处于第一深度范围内的三维虚拟立柱模型对应的第一像素区域,确定处于第二深度范围内的三维虚拟立柱模型对应的第二像素区域。进一步地,将图3中所示的第一对三维虚拟立柱模型和第二对三维虚拟立柱模型对应的像素区域(也即第一像素区域)确定为第一渲染区域(也即近景区域);将图3中所示的第三对三维虚拟立柱模型和第四对三维虚拟立柱模型对应的像素区域(也即第二像素区域)确定为第二渲染区域(也即远景区域)。
可选地,多个渲染区域还包括:第三渲染区域,上述场景画面处理方法还包括:
步骤S251,对第三渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第二处理结果;
步骤S252,基于第一场景画面对应的渲染信息、第一处理结果和第二处理结果,生成第三场景画面。
作为一种可选的实施方式,多个渲染区域包括第一渲染区域、第二渲染区域和第三渲染区域。对应地,在应用场景中将第一场景画面分为近景区域、中景区域和远景区域。由此,与基于第一渲染区域和第二渲染区域的场景画面处理方法相比,基于上述第一渲染区域、第二渲染区域和第三渲染区域的模型简化和渲染,能够使得所生成的第三场景画面更加精细化。
容易理解的是,由于在三维虚拟场景中,不同的深度信息对应的渲染区域内显示的三维虚拟模型对场景画面的整体视觉效果影响不同(如,距离虚拟摄像机较近的渲染区域内显示的三维虚拟模型对场景画面的整体视觉效果影响较大,这些三维虚拟模型的模型面数的减少导致的场景画面视觉效果的损失更容易被用户察觉,进而更容易影响用户体验),因此,上述对第二渲染区域对应的三维虚拟模型所进行的模型片元简化处理和上述对第三渲染区域对应的三维虚拟模型所进行的模型片元简化处理的模型片元简化程度可能不同。具体地,对第二渲染区域对应的三维虚拟模型所进行的模型片元简化处理的模型片元简化程度,由第二渲染区域对应的深度范围确定;对第三渲染区域对应的三维虚拟模型所进行的模型片元简化处理的模型片元简化程度,由第三渲染区域对应的深度范围确定。
在上述三维虚拟场景中,上述第二渲染区域内显示的三维虚拟模型的模型显示精度要求高于上述第三渲染区域内显示的三维虚拟模型的模型显示精度要求,由此,上述第一处理结果对应的模型面数大于上述第二处理结果对应的模型面数。
可选地,在步骤S22中,利用多个三维虚拟模型的深度信息将第一场景画面划分为多个渲染区域,可以包括以下执行步骤:
步骤S224,获取多个三维虚拟模型的深度信息;
步骤S225,根据多个三维虚拟模型的深度信息,分别确定第一深度范围,第二深度范围和第三深度范围,其中,第一深度范围小于第二深度范围,第二深度范围小于第三深度范围;
步骤S226,基于第一深度范围、第二深度范围和第三深度范围,将第一场景画面划分为多个渲染区域。
获取多个三维虚拟模型的深度信息,也即,三维虚拟场景中,获取多个三维虚拟模型中每个三维虚拟模型与上述虚拟摄像机的拍摄位置之间的距离,其中,拍摄位置为上述虚拟摄像机拍摄上述第一场景画面时所处的当前位置。
仍然以对三维虚拟游戏场景进行场景画面处理为例,获取如图3所示的第一场景画面中所显示的多个三维虚拟立柱模型的深度信息,也即获取每个三维虚拟立柱模型到虚拟摄像机的距离。利用上述多个三维虚拟立柱模型的深度信息,确定上述第一深度范围、上述第二深度范围和上述第三深度范围。
进一步地,基于第一深度范围、第二深度范围和第三深度范围,将第一场景画面划分为多个渲染区域。多个渲染区域包括:第一深度范围对应的第一渲染区域,第二深度范围对应的第二渲染区域,以及第三深度范围对应的第三渲染区域。第一深度范围小于第二深度范围,第二深度范围小于第三深度范围,也就是说,第一深度范围对应的第一渲染区域为近景区域,第二深度范围对应的第二渲染区域为中景区域,第三深度范围对应的第三渲染区域为远景区域。
可选地,在步骤S225中,第一场景画面的显示内容还包括:三维虚拟场景内的虚拟角色,利用多个三维虚拟模型的深度信息,分别确定第一深度范围,第二深度范围和第三深度范围,可以包括以下执行步骤:
步骤S2251,获取虚拟角色的移动范围和视野范围;
步骤S2252,根据深度信息、移动范围和视野范围,分别确定第一深度范围,第二深度范围和第三深度范围。
上述第一场景画面内可以同时显示有三维虚拟场景内的虚拟角色(如玩家当前操控的虚拟游戏角色)、多个三维虚拟模型。此时,获取该虚拟角色的移动范围和视野范围。由多个三维虚拟模型的深度信息、虚拟角色的移动范围和视野范围,确定上述第一深度范围,第二深度范围和第三深度范围,进而将第一场景画面划分为多个渲染区域进行模型优化处理,能够考虑到为虚拟角色在三维虚拟场景内的移动和旋转(即视角方向变化,如左右张望、抬头、低头等)场景画面渲染的影响。
仍然以对三维虚拟游戏场景进行场景画面处理为例,通常在三维虚拟游戏场景中,场景的近景区域内可以支持玩家控制虚拟游戏角色自由移动,且随着虚拟游戏角色的移动,近景区域内的三维虚拟模型(如虚拟物品、虚拟地形等)会在虚拟游戏角色的视野范围内进行明显的缩放变化(也即透视效果,近处的模型较大)。场景的中景区域通常为虚拟游戏角色较少或者无需进入的区域,中景区域内的三维虚拟模型在虚拟游戏角色的视野范围内的中等距离处(容易被看到但难以观察模型细节)。场景的远景区域通常为不支持虚拟游戏角色进入的区域,远景区域内的虚拟模型在虚拟游戏角色的视野范围内的较远距离处,虚拟模型的模型显示精度变化对场景画面的视觉效果影响很小(即使出现穿帮也无实质影响)。
在三维虚拟游戏场景中,虚拟游戏角色的移动范围和视野范围可以由游戏引擎实时获取,移动范围可以由虚拟游戏角色的历史位置和/或当前位置确定。视野范围可以由虚拟游戏角色的移动范围、面部朝向和观察条件(如是否存在大雾天气、是否使用了望远镜或瞄准镜等)等确定。
在三维虚拟游戏场景中,利用多个三维虚拟立柱模型的深度信息、虚拟游戏角色的移动范围和视野范围,确定上述第一深度范围,第二深度范围和第三深度范围。具体实现方式可以是,根据深度信息、移动范围和视野范围,实时确定第一深度阈值和第二深度阈值;将深度值小于第一深度阈值的深度范围作为上述第一深度范围,将深度值不小于第一深度阈值且不大于第二深度阈值的深度范围作为上述第二深度范围,将深度值大于第二深度阈值的深度范围作为上述第三深度范围。
可选地,在步骤S226中,基于第一深度范围、第二深度范围和第三深度范围,将第一场景画面划分为多个渲染区域,可以包括以下执行步骤:
步骤S2261,在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,第二深度范围内的三维虚拟模型对应的第二像素区域,以及第三深度范围内的三维虚拟模型对应的第三像素区域;
步骤S2262,基于第一像素区域、第二像素区域和第三像素区域将第一场景画面划分为多个渲染区域。
仍然以对三维虚拟游戏场景进行场景画面处理为例,根据本实施例的前述步骤所确定的第一深度范围,第二深度范围和第三深度范围,从如图3所示的第一场景画面中,确定处于第一深度范围内的三维虚拟立柱模型对应的第一像素区域,确定处于第二深度范围内的三维虚拟立柱模型对应的第二像素区域,确定处于第三深度范围内的三维虚拟立柱模型对应的第三像素区域。
图5是根据本申请其中一实施例的一种渲染区域划分结果的示意图,如图5所示,基于第一像素区域、第二像素区域和第三像素区域将第一场景画面划分为多个渲染区域。第一深度范围小于第二深度范围,第二深度范围小于第三深度范围,因此,将图3中所示的第一对三维虚拟立柱模型和第二对三维虚拟立柱模型对应的像素区域(也即第一像素区域)确定为第一渲染区域(也即近景区域);将图3中所示的第三对三维虚拟立柱模型对应的像素区域(也即第二像素区域)确定为第二渲染区域(也即中景区域);将图3中所示的第四对三维虚拟立柱模型对应的像素区域(也即第三像素区域)确定为第三渲染区域(也即远景区域)。
仍然如图5所示,容易理解的是,除了上述第四对三维虚拟立柱模型对应的像素区域之外,上述第三渲染区域(也即远景区域)还可以包括其他更远的虚拟模型(如虚拟天空模型)。
可选地,在步骤S23中,对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果,可以包括以下执行步骤:
步骤S231,将第二渲染区域对应的三维虚拟模型的透明通道从第一透明度调节至第二透明度,以舍弃第一部分片元,得到第一处理结果。
上述透明通道用于通过调节透明度的方式对三维虚拟模型进行模型片元简化处理。在应用场景中,上述透明通道通畅为alpha通道。
仍然以对三维虚拟游戏场景进行场景画面处理为例,将第二渲染区域(即中景区域)内的第三对三维虚拟立柱模型的alpha通道,从初始透明度调节至第二透明度,从而减少第三对三维虚拟立柱模型的模型面数(即舍弃第一部分片元),得到上述第一处理结果。上述第二透明度可以为技术人员根据三维虚拟游戏场景的场景需求预先确定的。上述第二透明度用于确定对第三对三维虚拟立柱模型进行模型片元简化处理的模型片元简化程度,也即用于确定待舍弃的第一部分片元。
可选地,在步骤S251中,对第三渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第二处理结果,可以包括如下方法步骤:
步骤S2511,将第三渲染区域对应的三维虚拟模型的透明通道从第一透明度和/或第二透明度调节至第三透明度,以舍弃第二部分片元,得到第二处理结果,其中,第三透明度低于第二透明度,第二部分片元的数量大于第一部分片元的数量。
上述第三渲染区域内,可能存在一部分区域对应的三维虚拟模型的透明通道的透明度值并未经过调整,这部分区域对应的透明通道的透明度值为第一透明度;还可能存在另一部分区域对应的三维虚拟模型的透明通道的透明度值跟随上述第二渲染区域对应的模型片元简化处理过程进行了调整,这部分区域对应的透明通道的透明度值为第二透明度。因此,上述第三渲染区域对应的三维虚拟模型的透明通道对应的透明度值为第一透明度和/或第二透明度。
仍然以对三维虚拟游戏场景进行场景画面处理为例,将第三渲染区域(即远景区域)内的第四对三维虚拟立柱模型的alpha通道,从第一透明度和/或第二透明度调节至第三透明度,从而减少第四对三维虚拟立柱模型的模型面数(即舍弃第二部分片元),得到上述第二处理结果。上述第三透明度可以为技术人员根据三维虚拟游戏场景的场景需求预先确定的。上述第三透明度用于确定对第四对三维虚拟立柱模型进行模型片元简化处理的模型片元简化程度,也即用于确定待舍弃的第二部分片元。
由于第三渲染区域(即远景区域)内的第四对三维虚拟立柱模型的模型显示精度要求低于第二渲染区域(即中景区域)内的第三对三维虚拟立柱模型的模型显示精度要求,因此,可以在进行模型片元简化处理的过程中,控制第二透明度和第三透明度的值,使得第二部分片元的数量大于第一部分片元的数量。
特别地,当第三渲染区域(即远景区域)内的三维虚拟模型的模型显示精度要求非常低时,可以将第三渲染区域内的三维虚拟模型片元简化为二维的面片模型,以进一步降低场景画面渲染过程中的性能消耗。
图6是根据本申请其中一实施例的一种模型片元简化处理的处理结果的示意图,如图6所示,处于第一渲染区域(即近景区域)内的第一对三维虚拟立柱模型和第二对三维虚拟立柱模型的模型面数未经减少,以保留近景区域内三维虚拟立柱模型的模型细节,处于第二渲染区域(即中景区域)内的第三对三维虚拟立柱模型的模型面数有部分减少,处于第三渲染区域(即远景区域)内的第四对三维虚拟立柱模型被简化为二维的面片模型。
可选地,在步骤S252中,基于第一场景画面对应的渲染信息、第一处理结果和第二处理结果,生成第三场景画面,可以包括以下执行步骤:
步骤S2521,基于渲染信息中的第一渲染数据,对第一处理结果进行映射处理,得到第三处理结果,以及基于渲染信息中的第二渲染数据,对第二处理结果进行映射处理,得到第四处理结果,其中,第一渲染数据为第二渲染区域对应的渲染数据,第二渲染数据为第三渲染区域对应的渲染数据;
步骤S2522,采用第三处理结果替换第二渲染区域对应的显示内容,以及采用第四处理结果替换第三渲染区域对应的显示内容,得到第三场景画面。
仍然以对三维虚拟游戏场景进行场景画面处理为例,上述渲染信息为如图3所示的第一场景画面中的多个三维虚拟立柱模型均采用高面数模型时的渲染数据。渲染数据包括:第一渲染区域(即近景区域)对应的渲染数据,第二渲染区域(即中景区域)对应的渲染数据(上述第一渲染数据),第三渲染区域(即远景区域)对应的渲染数据(上述第二渲染数据)。
进一步地,基于第一渲染数据,对第一处理结果进行映射处理,得到第三处理结果,以及第二渲染数据,对第二处理结果进行映射处理,得到第四处理结果。上述映射处理可以是投屏映射。也就是说,将第一渲染数据投屏映射至经过模型片元简化处理(即减少模型面数)后的第三对三维虚拟立柱模型的模型上,得到第三处理结果;将第二渲染数据投屏映射至经过模型片元简化处理(即减少模型面数)后的第四对三维虚拟立柱模型的模型上,得到第四处理结果。
图7是根据本申请其中一实施例的一种三维虚拟场景的第三场景画面的示意图,如图7所示,采用第三处理结果替换如图3所示的第一场景画面内第二渲染区域对应的显示内容,以及采用第四处理结果替换第一场景画面内第三渲染区域对应的显示内容,得到如图7所示的第三场景画面。容易注意到的是,经过本申请实施例的上述方法步骤,能够得到与第一场景画面视觉效果差距较小(甚至难以察觉)的第三场景画面。
容易理解的是,以上述步骤S2521至步骤S2522提供的过程类似,在步骤S24中,基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面,可以包括以下执行步骤:基于渲染信息中的第一渲染数据,对第一处理结果进行映射处理,得到第三处理结果,其中,第一渲染数据为第二渲染区域对应的渲染数据;采用第三处理结果替换第二渲染区域对应的显示内容,得到第二场景画面。
可选地,上述场景画面处理方法还可以包括以下执行步骤:
步骤S251,在三维虚拟场景内创建多个三维虚拟模型;
步骤S252,在三维虚拟场景内配置与多个三维虚拟模型相适配的虚拟环境与虚拟光照,得到配置结果;
步骤S253,基于配置结果执行渲染操作,得到渲染信息。
仍然以对三维虚拟游戏场景进行场景画面处理为例,第一场景画面中的多个三维虚拟立柱模型均采用高面数模型时的渲染数据(也即渲染信息)可以通过如下过程得到:在三维虚拟游戏场景内创建多个三维虚拟模型(也即待显示的八个三维虚拟立柱模型);通过美术设计软件或游戏引擎,在三维虚拟游戏场景中配置与多个三维虚拟模型相适配的虚拟环境(如大雾天气、积雪效果等影响三维虚拟模型视觉效果的环境)与虚拟光照,得到配置结果;进而基于配置结果执行渲染操作,得到上述渲染数据。
容易理解的是,通过本申请实施例提供的上述方法,对三维虚拟场景的场景画面进行基于深度信息的渲染区域划分,以及针对不同渲染区域有区别地进行模型片元简化处理,得到处理后的场景画面,实现了兼顾三维场景制作中场景画面视觉效果和设备运行流畅度的技术效果,进而解决了相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
在本实施例中还提供了一种场景画面处理装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图8是根据本申请其中一实施例的一种场景画面处理装置的结构框图,如图8所示,该装置包括:获取模块81,用于获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;划分模块82,用于根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中每个三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;第一处理模块83,用于对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;生成模块84,用于基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面。
可选地,上述划分模块82,还用于:获取多个三维虚拟模型的深度信息;根据多个三维虚拟模型的深度信息,分别确定第一深度范围和第二深度范围,其中,第一深度范围小于第二深度;基于第一深度范围和第二深度范围,将第一场景画面划分为多个渲染区域。
可选地,上述划分模块82,还用于:获取虚拟角色的移动范围和视野范围;根据深度信息、移动范围和视野范围,分别确定第一深度范围和第二深度范围。
可选地,上述划分模块82,还用于:在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,以及第二深度范围内的三维虚拟模型对应的第二像素区域;基于第一像素区域和第二像素区域将第一场景画面划分为多个渲染区域。
可选地,图9是根据本申请其中一实施例的另一种场景画面处理装置的结构框图,如图9所示,该装置除包括图8所示的所有模块外,还包括:第二处理模块85,对第三渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第二处理结果;基于第一场景画面对应的渲染信息、第一处理结果和第二处理结果,生成第三场景画面。
可选地,上述划分模块82,还用于:获取多个三维虚拟模型的深度信息;根据多个三维虚拟模型的深度信息,分别确定第一深度范围,第二深度范围和第三深度范围,其中,第一深度范围小于第二深度范围,第二深度范围小于第三深度范围;基于第一深度范围、第二深度范围和第三深度范围,将第一场景画面划分为多个渲染区域。
可选地,上述划分模块82,还用于:获取虚拟角色的移动范围和视野范围;根据深度信息、移动范围和视野范围,分别确定第一深度范围,第二深度范围和第三深度范围。
可选地,上述划分模块82,还用于:在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,第二深度范围内的三维虚拟模型对应的第二像素区域,以及第三深度范围内的三维虚拟模型对应的第三像素区域;基于第一像素区域、第二像素区域和第三像素区域将第一场景画面划分为多个渲染区域。
可选地,上述第一处理模块83,还用于:将第二渲染区域对应的三维虚拟模型的透明通道从第一透明度调节至第二透明度,以舍弃第一部分片元,得到第一处理结果。
可选地,上述第二处理模块85,还用于:将第三渲染区域对应的三维虚拟模型的透明通道从第一透明度和/或第二透明度调节至第三透明度,以舍弃第二部分片元,得到第二处理结果,其中,第三透明度低于第二透明度,第二部分片元的数量大于第一部分片元的数量。
可选地,上述生成模块84,还用于:基于渲染信息中的第一渲染数据,对第一处理结果进行映射处理,得到第三处理结果,以及基于渲染信息中的第二渲染数据,对第二处理结果进行映射处理,得到第四处理结果,其中,第一渲染数据为第二渲染区域对应的渲染数据,第二渲染数据为第三渲染区域对应的渲染数据;采用第三处理结果替换第二渲染区域对应的显示内容,以及采用第四处理结果替换第三渲染区域对应的显示内容,得到第二场景画面。
可选地,图10是根据本申请其中一实施例的另一种场景画面处理装置的结构框图,如图10所示,该装置除包括图9所示的所有模块外,还包括:渲染模块86,用于在三维虚拟场景内创建多个三维虚拟模型;在三维虚拟场景内配置与多个三维虚拟模型相适配的虚拟环境与虚拟光照,得到配置结果;基于配置结果执行渲染操作,得到渲染信息。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
本申请的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;
S2,根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;
S3,对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;
S4,基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取多个三维虚拟模型的深度信息;根据多个三维虚拟模型的深度信息,分别确定第一深度范围和第二深度范围,其中,第一深度范围小于第二深度;基于第一深度范围和第二深度范围,将第一场景画面划分为多个渲染区域。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取虚拟角色的移动范围和视野范围;根据深度信息、移动范围和视野范围,分别确定第一深度范围和第二深度范围。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,以及第二深度范围内的三维虚拟模型对应的第二像素区域;基于第一像素区域和第二像素区域将第一场景画面划分为多个渲染区域。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:对第三渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第二处理结果;基于第一场景画面对应的渲染信息、第一处理结果和第二处理结果,生成第三场景画面。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取多个三维虚拟模型的深度信息;根据多个三维虚拟模型的深度信息,分别确定第一深度范围,第二深度范围和第三深度范围,其中,第一深度范围小于第二深度范围,第二深度范围小于第三深度范围;基于第一深度范围、第二深度范围和第三深度范围,将第一场景画面划分为多个渲染区域。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取虚拟角色的移动范围和视野范围;根据深度信息、移动范围和视野范围,分别确定第一深度范围,第二深度范围和第三深度范围。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,第二深度范围内的三维虚拟模型对应的第二像素区域,以及第三深度范围内的三维虚拟模型对应的第三像素区域;基于第一像素区域、第二像素区域和第三像素区域将第一场景画面划分为多个渲染区域。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:将第二渲染区域对应的三维虚拟模型的透明通道从第一透明度调节至第二透明度,以舍弃第一部分片元,得到第一处理结果,其中,第一透明度为透明通道的初始透明度。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:将第三渲染区域对应的三维虚拟模型的透明通道从第一透明度和/或第二透明度调节至第三透明度,以舍弃第二部分片元,得到第二处理结果,其中,第三透明度低于第二透明度,第二部分片元的数量大于第一部分片元的数量。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:基于渲染信息中的第一渲染数据,对第一处理结果进行映射处理,得到第三处理结果,以及基于渲染信息中的第二渲染数据,对第二处理结果进行映射处理,得到第四处理结果,其中,第一渲染数据为第二渲染区域对应的渲染数据,第二渲染数据为第三渲染区域对应的渲染数据;采用第三处理结果替换第二渲染区域对应的显示内容,以及采用第四处理结果替换第三渲染区域对应的显示内容,得到第二场景画面。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:在三维虚拟场景内创建多个三维虚拟模型;在三维虚拟场景内配置与多个三维虚拟模型相适配的虚拟环境与虚拟光照,得到配置结果;基于配置结果执行渲染操作,得到渲染信息。
在上述实施例的计算机可读存储介质中,提供了一种实现场景画面处理方法的技术方案。通过获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;并根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;以及对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;进一步基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面,达到了对三维虚拟场景的场景画面进行基于深度信息的渲染区域划分和模型片元简化处理,得到处理后的场景画面的目的。由于模型片元简化处理是针对不同渲染区域有区别地进行的,因此,本申请提供的上述技术方案能够在保证场景画面视觉效果的情况下,简化场景模型以降低渲染消耗,从而实现了兼顾三维场景制作中场景画面视觉效果和设备运行流畅度的技术效果,进而解决了相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
在本申请的示例性实施例中,计算机可读存储介质上存储有能够实现本实施例上述方法的程序产品。在一些可能的实施方式中,本申请实施例的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本实施例上述“示例性方法”部分中描述的根据本申请各种示例性实施方式的步骤。
根据本申请的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本申请实施例的程序产品不限于此,在本申请实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
上述程序产品可以采用一个或多个计算机可读介质的任意组合。该计算机可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列举)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
需要说明的是,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
本申请的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;
S2,根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;
S3,对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;
S4,基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:获取多个三维虚拟模型的深度信息;根据多个三维虚拟模型的深度信息,分别确定第一深度范围和第二深度范围,其中,第一深度范围小于第二深度;基于第一深度范围和第二深度范围,将第一场景画面划分为多个渲染区域。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:获取虚拟角色的移动范围和视野范围;根据深度信息、移动范围和视野范围,分别确定第一深度范围和第二深度范围。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,以及第二深度范围内的三维虚拟模型对应的第二像素区域;基于第一像素区域和第二像素区域将第一场景画面划分为多个渲染区域。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:对第三渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第二处理结果;基于第一场景画面对应的渲染信息、第一处理结果和第二处理结果,生成第三场景画面。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:获取多个三维虚拟模型的深度信息;根据多个三维虚拟模型的深度信息,分别确定第一深度范围,第二深度范围和第三深度范围,其中,第一深度范围小于第二深度范围,第二深度范围小于第三深度范围;基于第一深度范围、第二深度范围和第三深度范围,将第一场景画面划分为多个渲染区域。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:获取虚拟角色的移动范围和视野范围;根据深度信息、移动范围和视野范围,分别确定第一深度范围,第二深度范围和第三深度范围。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:在第一场景画面中分别确定第一深度范围内的三维虚拟模型对应的第一像素区域,第二深度范围内的三维虚拟模型对应的第二像素区域,以及第三深度范围内的三维虚拟模型对应的第三像素区域;基于第一像素区域、第二像素区域和第三像素区域将第一场景画面划分为多个渲染区域。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:将第二渲染区域对应的三维虚拟模型的透明通道从第一透明度调节至第二透明度,以舍弃第一部分片元,得到第一处理结果,其中,第一透明度为透明通道的初始透明度。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:将第三渲染区域对应的三维虚拟模型的透明通道从第一透明度和/或第二透明度调节至第三透明度,以舍弃第二部分片元,得到第二处理结果,其中,第三透明度低于第二透明度,第二部分片元的数量大于第一部分片元的数量。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:基于渲染信息中的第一渲染数据,对第一处理结果进行映射处理,得到第三处理结果,以及基于渲染信息中的第二渲染数据,对第二处理结果进行映射处理,得到第四处理结果,其中,第一渲染数据为第二渲染区域对应的渲染数据,第二渲染数据为第三渲染区域对应的渲染数据;采用第三处理结果替换第二渲染区域对应的显示内容,以及采用第四处理结果替换第三渲染区域对应的显示内容,得到第二场景画面。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:在三维虚拟场景内创建多个三维虚拟模型;在三维虚拟场景内配置与多个三维虚拟模型相适配的虚拟环境与虚拟光照,得到配置结果;基于配置结果执行渲染操作,得到渲染信息。
在上述实施例的电子装置中,提供了一种实现场景画面处理方法的技术方案。通过获取三维虚拟场景的第一场景画面,其中,第一场景画面的显示内容包括:多个三维虚拟模型;并根据多个三维虚拟模型的深度信息将第一场景画面划分为不同深度范围的多个渲染区域,其中,深度信息用于确定多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,多个渲染区域包括:第一渲染区域和第二渲染区域;以及对第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;进一步基于第一场景画面对应的渲染信息和第一处理结果,生成第二场景画面,达到了对三维虚拟场景的场景画面进行基于深度信息的渲染区域划分和模型片元简化处理,得到处理后的场景画面的目的。由于模型片元简化处理是针对不同渲染区域有区别地进行的,因此,本申请提供的上述技术方案能够在保证场景画面视觉效果的情况下,简化场景模型以降低渲染消耗,从而实现了兼顾三维场景制作中场景画面视觉效果和设备运行流畅度的技术效果,进而解决了相关技术中缺乏能够兼顾场景画面视觉效果和设备运行流畅度的技术手段的技术问题。
图11是根据本申请其中一实施例的一种电子装置的示意图。如图11所示,电子装置1100仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图11所示,电子装置1100以通用计算设备的形式表现。电子装置1100的组件可以包括但不限于:上述至少一个处理器1110、上述至少一个存储器1120、连接不同系统组件(包括存储器1120和处理器1110)的总线1130和显示器1140。
其中,上述存储器1120存储有程序代码,所述程序代码可以被处理器1110执行,使得处理器1110执行本申请实施例的上述方法部分中描述的根据本申请各种示例性实施方式的步骤。
存储器1120可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)11201和/或高速缓存存储单元11202,还可以进一步包括只读存储单元(ROM)11203,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。
在一些实例中,存储器1120还可以包括具有一组(至少一个)程序模块11205的程序/实用工具11204,这样的程序模块11205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。存储器1120可进一步包括相对于处理器1110远程设置的存储器,这些远程存储器可以通过网络连接至电子装置1100。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
总线1130可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理器1110或者使用多种总线结构中的任意总线结构的局域总线。
显示器1140可以例如触摸屏式的液晶显示器(Liquid Crystal Display,LCD),该液晶显示器可使得用户能够与电子装置1100的用户界面进行交互。
可选地,电子装置1100也可以与一个或多个外部设备1200(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子装置1100交互的设备通信,和/或与使得该电子装置1100能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1150进行。并且,电子装置1100还可以通过网络适配器1160与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图11所示,网络适配器1160通过总线1130与电子装置1100的其它模块通信。应当明白,尽管图11中未示出,可以结合电子装置1100使用其它硬件和/或软件模块,可以包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays ofIndependent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
上述电子装置1100还可以包括:键盘、光标控制设备(如鼠标)、输入/输出接口(I/O接口)、网络接口、电源和/或相机。
本领域普通技术人员可以理解,图11所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子装置1100还可包括比图11中所示更多或者更少的组件,或者具有与图11所示不同的配置。存储器1120可用于存储计算机程序及对应的数据,如本申请实施例中的场景画面处理方法对应的计算机程序及对应的数据。处理器1110通过运行存储在存储器1120内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的场景画面处理方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM)、随机存取存储器(RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (15)
1.一种场景画面处理方法,其特征在于,包括:
获取三维虚拟场景的第一场景画面,其中,所述第一场景画面的显示内容包括:多个三维虚拟模型;
根据所述多个三维虚拟模型的深度信息将所述第一场景画面划分为不同深度范围的多个渲染区域,其中,所述深度信息用于确定所述多个三维虚拟模型中三维虚拟模型相对于虚拟摄像机的距离,所述多个渲染区域包括:第一渲染区域和第二渲染区域;
对所述第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;
基于所述第一场景画面对应的渲染信息和所述第一处理结果,生成第二场景画面。
2.根据权利要求1所述的场景画面处理方法,其特征在于,根据所述多个三维虚拟模型的深度信息将所述第一场景画面划分为所述多个渲染区域包括:
获取所述多个三维虚拟模型的深度信息;
根据所述多个三维虚拟模型的深度信息,分别确定第一深度范围和第二深度范围,其中,所述第一深度范围小于所述第二深度;
基于所述第一深度范围和所述第二深度范围,将所述第一场景画面划分为所述多个渲染区域。
3.根据权利要求2所述的场景画面处理方法,其特征在于,所述第一场景画面的显示内容还包括:所述三维虚拟场景内的虚拟角色,根据所述深度信息,分别确定所述第一深度范围和所述第二深度范围包括:
获取所述虚拟角色的移动范围和视野范围;
根据所述深度信息、所述移动范围和所述视野范围,分别确定所述第一深度范围和所述第二深度范围。
4.根据权利要求2所述的场景画面处理方法,其特征在于,基于所述第一深度范围和所述第二深度范围,将所述第一场景画面划分为所述多个渲染区域包括:
在所述第一场景画面中分别确定所述第一深度范围内的三维虚拟模型对应的第一像素区域,以及所述第二深度范围内的三维虚拟模型对应的第二像素区域;
基于所述第一像素区域和所述第二像素区域将所述第一场景画面划分为所述多个渲染区域。
5.根据权利要求1所述的场景画面处理方法,其特征在于,所述多个渲染区域还包括:第三渲染区域,所述场景画面处理方法还包括:
对所述第三渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第二处理结果;
基于所述第一场景画面对应的渲染信息、所述第一处理结果和所述第二处理结果,生成第三场景画面。
6.根据权利要求5所述的场景画面处理方法,其特征在于,根据所述多个三维虚拟模型的深度信息将所述第一场景画面划分为所述多个渲染区域包括:
获取所述多个三维虚拟模型的深度信息;
根据所述多个三维虚拟模型的深度信息,分别确定第一深度范围,第二深度范围和第三深度范围,其中,所述第一深度范围小于所述第二深度范围,所述第二深度范围小于所述第三深度范围;
基于所述第一深度范围、所述第二深度范围和所述第三深度范围,将所述第一场景画面划分为所述多个渲染区域。
7.根据权利要求6所述的场景画面处理方法,其特征在于,所述第一场景画面的显示内容还包括:所述三维虚拟场景内的虚拟角色,根据所述多个三维虚拟模型的深度信息,分别确定所述第一深度范围,所述第二深度范围和所述第三深度范围包括:
获取所述虚拟角色的移动范围和视野范围;
根据所述深度信息、所述移动范围和所述视野范围,分别确定所述第一深度范围,所述第二深度范围和所述第三深度范围。
8.根据权利要求6所述的场景画面处理方法,其特征在于,基于所述第一深度范围、所述第二深度范围和所述第三深度范围,将所述第一场景画面划分为所述多个渲染区域包括:
在所述第一场景画面中分别确定所述第一深度范围内的三维虚拟模型对应的第一像素区域,所述第二深度范围内的三维虚拟模型对应的第二像素区域,以及所述第三深度范围内的三维虚拟模型对应的第三像素区域;
基于所述第一像素区域、所述第二像素区域和所述第三像素区域将所述第一场景画面划分为所述多个渲染区域。
9.根据权利要求1所述的场景画面处理方法,其特征在于,对所述第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到所述第一处理结果包括:
将所述第二渲染区域对应的三维虚拟模型的透明通道从第一透明度调节至第二透明度,以舍弃第一部分片元,得到所述第一处理结果。
10.根据权利要求5所述的场景画面处理方法,其特征在于,对所述第三渲染区域对应的三维虚拟模型进行模型片元简化处理,得到所述第二处理结果包括:
将所述第三渲染区域对应的三维虚拟模型的透明通道从第一透明度和/或第二透明度调节至第三透明度,以舍弃第二部分片元,得到所述第二处理结果,其中,所述第三透明度低于所述第二透明度,所述第二部分片元的数量大于第一部分片元的数量。
11.根据权利要求5所述的场景画面处理方法,其特征在于,基于所述第一场景画面对应的渲染信息、所述第一处理结果和所述第二处理结果,生成所述第三场景画面包括:
基于所述渲染信息中的第一渲染数据,对所述第一处理结果进行映射处理,得到第三处理结果,以及基于所述渲染信息中的第二渲染数据,对所述第二处理结果进行映射处理,得到第四处理结果,其中,所述第一渲染数据为所述第二渲染区域对应的渲染数据,所述第二渲染数据为所述第三渲染区域对应的渲染数据;
采用所述第三处理结果替换所述第二渲染区域对应的显示内容,以及采用所述第四处理结果替换所述第三渲染区域对应的显示内容,得到所述第三场景画面。
12.根据权利要求1所述的场景画面处理方法,其特征在于,所述场景画面处理方法还包括:
在所述三维虚拟场景内创建所述多个三维虚拟模型;
在所述三维虚拟场景内配置与所述多个三维虚拟模型相适配的虚拟环境与虚拟光照,得到配置结果;
基于所述配置结果执行渲染操作,得到所述渲染信息。
13.一种场景画面处理装置,其特征在于,包括:
获取模块,用于获取三维虚拟场景的第一场景画面,其中,所述第一场景画面的显示内容包括:多个三维虚拟模型;
划分模块,用于根据所述多个三维虚拟模型的深度信息将所述第一场景画面划分为不同深度范围的多个渲染区域,其中,所述深度信息用于确定所述多个三维虚拟模型中每个三维虚拟模型相对于虚拟摄像机的距离,所述多个渲染区域包括:第一渲染区域和第二渲染区域;
处理模块,用于对所述第二渲染区域对应的三维虚拟模型进行模型片元简化处理,得到第一处理结果;
生成模块,用于基于所述第一场景画面对应的渲染信息和所述第一处理结果,生成第二场景画面。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为被处理器运行时执行权利要求1至12任一项中所述的场景画面处理方法。
15.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至12任一项中所述的场景画面处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310234799.XA CN116271814A (zh) | 2023-03-08 | 2023-03-08 | 场景画面处理方法、装置、存储介质及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310234799.XA CN116271814A (zh) | 2023-03-08 | 2023-03-08 | 场景画面处理方法、装置、存储介质及电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116271814A true CN116271814A (zh) | 2023-06-23 |
Family
ID=86782974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310234799.XA Pending CN116271814A (zh) | 2023-03-08 | 2023-03-08 | 场景画面处理方法、装置、存储介质及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116271814A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118096985A (zh) * | 2023-07-11 | 2024-05-28 | 北京艾尔飞康航空技术有限公司 | 虚拟森林场景实时渲染方法及装置 |
-
2023
- 2023-03-08 CN CN202310234799.XA patent/CN116271814A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118096985A (zh) * | 2023-07-11 | 2024-05-28 | 北京艾尔飞康航空技术有限公司 | 虚拟森林场景实时渲染方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10740951B2 (en) | Foveal adaptation of particles and simulation models in a foveated rendering system | |
CN107852573B (zh) | 混合现实社交交互 | |
JP7050883B2 (ja) | 中心窩レンダリングシステムにおける、遅延ライティングの最適化、パーティクルの中心窩適応、及びシミュレーションモデル | |
CN110832442A (zh) | 注视点渲染系统中的优化的阴影和自适应网状蒙皮 | |
CN101477700B (zh) | 面向Google Earth与Sketch Up的真三维立体显示方法 | |
CN112370784B (zh) | 虚拟场景显示方法、装置、设备以及存储介质 | |
CN103959340A (zh) | 用于自动立体三维显示器的图形呈现技术 | |
CN101477701A (zh) | 面向AutoCAD和3DS MAX软件的植入式真三维立体渲染方法 | |
CN101477702B (zh) | 计算机显卡的植入式真三维立体驱动方法 | |
WO2022247204A1 (zh) | 游戏的显示控制方法、非易失性存储介质及电子装置 | |
CN116271814A (zh) | 场景画面处理方法、装置、存储介质及电子装置 | |
TWI780995B (zh) | 圖像處理方法、設備及電腦儲存媒體 | |
Piumsomboon et al. | Poster: Physically-based natural hand and tangible AR interaction for face-to-face collaboration on a tabletop | |
CN108986228B (zh) | 用于虚拟现实中界面显示的方法及装置 | |
CN115713589A (zh) | 虚拟建筑群的图像生成方法、装置、存储介质及电子装置 | |
Kim et al. | Efficient path tracer for the presence of mobile virtual reality | |
CN116889723A (zh) | 虚拟场景的画面生成方法、装置、存储介质及电子装置 | |
CN118247404A (zh) | 模型渲染方法、装置、存储介质及电子装置 | |
CN116645461A (zh) | 虚拟三维模型的光线追踪调节方法、装置及存储介质 | |
Lan | Simulation of Animation Character High Precision Design Model Based on 3D Image | |
Li | REAL–TIME PERFORMANCE COMPARISON OF ENVIRONMENTS CREATED USING TRADITIONAL GEOMETRY RENDERING VERSUS UNREAL NANITE TECHNOLOGY IN VIRTUAL REALITY | |
CN117671114A (zh) | 模型渲染方法、装置、存储介质及电子装置 | |
CN117808950A (zh) | 图像处理方法、装置、存储介质及电子装置 | |
Shao | Research on the Digital Promotion and Development of the Achang Forging Skills in Yunnan | |
CN116228954A (zh) | 剪影处理方法、装置、存储介质及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |