CN116452724A - 光照信息处理方法、装置、设备和存储介质 - Google Patents
光照信息处理方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN116452724A CN116452724A CN202310341600.3A CN202310341600A CN116452724A CN 116452724 A CN116452724 A CN 116452724A CN 202310341600 A CN202310341600 A CN 202310341600A CN 116452724 A CN116452724 A CN 116452724A
- Authority
- CN
- China
- Prior art keywords
- sub
- regions
- information
- illumination
- illumination information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 144
- 230000010365 information processing Effects 0.000 title claims abstract description 12
- 238000003672 processing method Methods 0.000 title claims abstract description 4
- 238000012549 training Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 42
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000009877 rendering Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
根据本公开的实施例,提供了光照信息处理方法、装置、设备和存储介质。该方法包括:从虚拟场景的多个子区域中,确定与待处理的目标区域相关联的一组子区域;确定与一组子区域对应的一组光照处理模型,其中光照处理模型是基于对应的子区域在一组预设时刻的训练光照信息而被训练的;基于目标时刻和一组光照处理模型,生成针对一组子区域的一组局部光照信息;以及基于一组局部光照信息,确定针对目标区域的全局光照信息。由此,可以提高电子设备确定的全局光照信息的实时性和质量。
Description
技术领域
本公开的示例实施例总体涉及计算机领域,特别地涉及光照信息处理方法、装置、设备和计算机可读存储介质。
背景技术
随着计算机水平的发展,各种形式的电子设备能够极大地丰富人们的日常生活。例如,电子设备可以通过显示虚拟场景中的图像来显示虚拟场景。
全局光照信息是虚拟场景中非常重要的一个组成部分,全局光照信息的质量会对虚拟场景的显示效果造成很大影响。人们期望能够提高电子设备确定的全局光照信息的质量。
发明内容
在本公开的第一方面,提供了一种用于光照信息处理的方法。该方法包括:从虚拟场景的多个子区域中,确定与待处理的目标区域相关联的一组子区域;确定与一组子区域对应的一组光照处理模型,其中光照处理模型是基于对应的子区域在一组预设时刻的训练光照信息而被训练的;基于目标时刻和一组光照处理模型,生成针对一组子区域的一组局部光照信息;以及基于一组局部光照信息,确定针对目标区域的全局光照信息。
在本公开的第二方面,提供了一种用于光照信息处理的装置。该装置包括:子区域确定模块,被配置为从虚拟场景的多个子区域中,确定与待处理的目标区域相关联的一组子区域;模型确定模块,被配置为确定与一组子区域对应的一组光照处理模型,其中光照处理模型是基于对应的子区域在一组预设时刻的训练光照信息而被训练的;局部光照生成模块,被配置为基于目标时刻和一组光照处理模型,生成针对一组子区域的一组局部光照信息;以及全局光照生成模块,被配置为基于一组局部光照信息,确定针对目标区域的全局光照信息。
在本公开的第三方面,提供了一种电子设备。该设备包括至少一个处理单元;以及至少一个存储器,至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。指令在由至少一个处理单元执行时使设备执行第一方面的方法。
在本公开的第四方面,提供了一种计算机可读存储介质。该计算机可读存储介质上存储有计算机程序,计算机程序可由处理器执行以实现第一方面的方法。
应当理解,本内容部分中所描述的内容并非旨在限定本公开的实施例的关键特征或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的描述而变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开的实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的一些实施例的用于光照信息处理的过程的流程图;
图3示出了根据本公开的一些实施例的不同缩放比例的待生成图像的示意图;
图4示出了根据本公开的一些实施例的基于视角信息确定目标区域的示意图;
图5示出了根据本公开的一些实施例的子区域的示意图;
图6示出了根据本公开的某些实施例的用于光照信息处理的装置的示意性结构框图;以及
图7示出了能够实施本公开的多个实施例的设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中示出了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“一些实施例”应当理解为“至少一些实施例”。下文还可能包括其他明确的和隐含的定义。术语“第一”、“第二”等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
在本文中,除非明确说明,“响应于A”执行一个步骤并不意味着在“A”之后立即执行该步骤,而是可以包括一个或多个中间步骤。
可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当根据相关法律法规通过适当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限制性的实施例,响应于接收到用户的主动请求,向用户发送提示信息的方式,例如可以是弹出窗口的方式,弹出窗口中可以以文字的方式呈现提示信息。此外,弹出窗口中还可以承载供用户选择“同意”或“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实施例构成限定,其他满足相关法律法规的方式也可应用于本公开的实施例中。
如本文中所使用的,术语“模型”可以从训练数据中学习到相应的输入与输出之间的关联关系,从而在训练完成后可以针对给定的输入,生成对应的输出。模型的生成可以基于机器学习技术。深度学习是一种机器学习算法,通过使用多层处理单元来处理输入和提供相应输出。神经网络模型是基于深度学习的模型的一个示例。在本文中,“模型”也可以被称为“机器学习模型”、“学习模型”、“机器学习网络”或“学习网络”,这些术语在本文中可互换地使用。
“神经网络”是一种基于深度学习的机器学习网络。神经网络能够处理输入并且提供相应输出,其通常包括输入层和输出层以及在输入层与输出层之间的一个或多个隐藏层。在深度学习应用中使用的神经网络通常包括许多隐藏层,从而增加网络的深度。神经网络的各个层按顺序相连,从而前一层的输出被提供作为后一层的输入,其中输入层接收神经网络的输入,而输出层的输出作为神经网络的最终输出。神经网络的每个层包括一个或多个节点(也称为处理节点或神经元),每个节点处理来自上一层的输入。
通常,机器学习大致可以包括三个阶段,即训练阶段、测试阶段和应用阶段(也称为推理阶段)。在训练阶段,给定的模型可以使用大量的训练数据进行训练,不断迭代更新参数值,直到模型能够从训练数据中获得一致的满足预期目标的推理。通过训练,模型可以被认为能够从训练数据中学习从输入到输出之间的关联(也称为输入到输出的映射)。训练后的模型的参数值被确定。在测试阶段,将测试输入应用到训练后的模型,测试模型是否能够提供正确的输出,从而确定模型的性能。在应用阶段,模型可以被用于基于训练得到的参数值,对实际的输入进行处理,确定对应的输出。
如前文所简要提及的,电子设备可以通过显示虚拟场景中的图像来显示虚拟场景。全局光照(Global Illumination,GI)是计算机图形学中一种重要的渲染技术,可以模拟光在场景中的传播与反射,实现更加真实的光照效果。全局光照信息的质量会对虚拟场景的显示效果造成很大影响。传统的全局光照算法主要包括两种,一类是光线追踪、辐射度传输和辐射度缓存等,这些算法通常需要大量的计算资源以及时间。另一类是基于光线追踪的实时全局光照技术、基于辐射度传输的实时全局光照技术等实现全局光照渲染,然而,这些技术通常采用一些近似算法来减少工作量,其得到的全局光照渲染的效果与真实感通常会受到一定影响,即确定的全局光照信息的准确性较差。
传统上,电子设备还可以采用光照贴图(Lightmap)或全局光照技术(IrradianceVolume)确定全局光照信息。Lightmap是在静态场景中预计算的纹理贴图,将场景中的光照信息渲染到纹理中,然后在实时渲染时应用到场景中的物体上。由于是预计算的,因此Lightmap虽然可以提供高质量的光照效果,但却仅适用于静态场景,无法在动态场景中实时的确定场景中的光照信息。Irradiance Volume是一种动态的方法,可以在实时渲染时计算场景中的光照信息。具体地,Irradiance Volume可以将场景划分为多个区域或者一系列的体素,每个区域/体素记录了当前场景中的光照信息。在实时渲染时,Irradiance Volume可以根据摄像机位置和方向等信息,确定应用于区域内的对象的一种全局光照方案。然而,Irradiance Volume虽然可以直接在三维数据上进行处理,但其所需的计算复杂度较高,对电子设备的计算性能的要求也较高。
本公开的实施例提出了一种用于光照信息处理的方案。根据本公开的各种实施例,电子设备可以基于待处理的目标区域,从虚拟场景中确定与其相关联的一组子区域以及与这一组子区域对应的一组光照处理模型。电子设备基于这一组光照处理模型,根据确定的目标时刻,生成一组局部光照信息进而确定针对目标区域的全局光照信息。以此方式,本公开的实施例保证了确定的全局光照信息的准确性以及质量的同时,对电子设备的计算能力要求较低,从而能够保证全局光照信息在具有不同计算能力的电子设备上的呈现一致性。
以下进一步结合附图来详细描述该方案的各种示例实现。本公开的实施例可以应用于各类仿真、模拟、虚拟现实、增强现实等领域。
图1示出了本公开的实施例能够在其中实现的示例环境100的示意图。如图1所示,示例环境100可以包括目标设备110以及训练设备130。
在该示例环境100中,目标设备110可以运行有支持虚拟场景的应用120。应用120可以是用于呈现虚拟场景的任何适当类型应用,其示例可以包括但不限于:仿真应用、模拟应用、游戏应用、虚拟现实应用、增强现实应用等等,本公开的实施例在此方面不受限制。用户140可以经由目标设备110和/或其附接设备来与应用120进行交互。
在图1的环境100中,如果应用120处于活动状态,目标设备110可以通过应用120呈现与虚拟环境相关联的图像150。图像150可以包括虚拟环境中的风景图像(例如天空、地面、森林、河流、海洋、山川等等)、虚拟场景中智能对象(例如非玩家角色、副本怪物等)的图像、用户对应的虚拟角色的图像等等。
在一些实施例中,这样的图像150例如也可以是由服务器所绘制并传输至目标设备110以用于呈现。这样的服务器例如可以包括计算系统/服务器,诸如大型机、边缘计算节点、云环境中的计算设备,等等。服务器可以为目标设备110中支持虚拟场景的应用120提供后台服务。
在一些示例中,这样的图像150例如也可以是由目标设备110本地绘制。示例性地,目标设备110可以利用经训练的光照处理模型确定光照信息,进而基于确定的光照信息,绘制与虚拟环境相关联的图像150。当然,目标设备110也可以利用其他方式(例如算法、规则等)确定光照信息,本公开的实施例对此并不作出限定。
在一些实施例中,光照处理模型可以是在目标设备110中被训练,进而直接使用的。在另一些实施例中,由于光照处理模型需要基于大批量的训练数据进行训练,即训练过程所需要的计算量较大,为降低对目标设备110的计算量的要求,光照处理模型可以在训练设备130中被训练。训练设备130将训练好的光照处理模型提供给目标设备110,以便目标设备110基于经训练的光照处理模型确定光照信息。
目标设备110和/或训练设备130可以是任意类型的移动终端、固定终端或便携式终端,包括移动手机、台式计算机、膝上型计算机、笔记本计算机、上网本计算机、平板计算机、媒体计算机、多媒体平板、掌上电脑、便携式游戏终端、VR/AR设备、个人通信系统(Personal Communication System,PCS)设备、个人导航设备、个人数字助理(PersonalDigital Assistant,PDA)、音频/视频播放器、数码相机/摄像机、定位设备、电视接收器、无线电广播接收器、电子书设备、游戏设备或者前述各项的任意组合,包括这些设备的配件和外设或者其任意组合。在一些实施例中,目标设备110也能够支持任意类型的针对用户的接口(诸如“可佩戴”电路等)。在一些实施例中,训练设备130还可以是服务器和/或其他电子设备。
应当理解,仅出于示例性的目的描述环境100中各个元素的结构和功能,而不暗示对于本公开的范围的任何限制。
以下将继续参考附图描述本公开的一些示例实施例。
图2示出了根据本公开的一些实施例的用于光照信息处理的过程200的流程图。过程200可以被实现在目标设备110处。为便于讨论,将参考图1的环境100来描述过程200。
在框210,目标设备110从虚拟场景的多个子区域中,确定与待处理的目标区域相关联的一组子区域。
目标区域例如可以是虚拟场景中的不同地理区域,地理区域例如可以包括XX镇、XX市、XX山、XX河流等。目标区域例如还可以是虚拟场景中的不同场景,例如可以包括虚拟环境中用户对应的虚拟角色的登陆场景、包含虚拟任务的任务位置场景、虚拟角色进行互动的互动位置场景等。目标设备110可以从这多个区域中确定待处理的目标区域。具体地,目标设备110可以基于虚拟场景的待生成图像的描述信息,确定待处理的目标区域。
在一些实施例中,描述信息可以指示虚拟场景中与待生成图像相关联的目标虚拟对象的位置。目标虚拟对象例如可以包括用户对应的虚拟对象、其他用户对应的虚拟对象以及虚拟场景中的智能对象(例如非玩家角色、副本怪物等)等等。作为示例,目标设备110可以直接将用户对应的虚拟对象确定为目标虚拟对象,或者,基于用户选择确定目标虚拟对象(例如用户希望查看某一副本怪物的情况,目标设备110可以将该副本怪物确定为目标虚拟对象)。目标设备110进而可以将该位置所在的区域确定为目标区域。例如,目标虚拟对象位于XX镇,目标设备110可以直接将XX镇确定为目标区域。
在一些实施例中,描述信息还可以指示待生成图像的缩放比例。目标设备110可以响应于接收到用户对缩放比例的预设操作确定待生成图像的缩放比例,预设操作包括但不限于用户对显示屏幕的触控操作(例如拖拉操作、点击操作等)、用户的选择操作(例如用户在缩放比例设置入口处选择不同的缩放比例)、用户的语音指令(例如“放大显示XX地点”)等。目标设备110基于不同的缩放比例对应于同一区域的待生成图像是不同的,目标设备110进而可以基于不同的缩放比例确定不同的待显示图像对应的目标区域。
参考图3,图3示出了根据本公开的一些实施例的不同缩放比例的待生成图像的示意图。目标设备110以100%的比例显示目标区域时的对应图像为图像310,目标设备110以300%的比例显示目标区域时的对应图像为图像320,图像320对应的区域为图像310中虚线所框出来的区域,即目标设备110在不同缩放比例下,待处理的目标区域不同。缩放比例越大,待生成图像对应的虚拟场景中待处理的目标区域越小。
返回参考图2。在一些实施例中,描述信息还可以指示待生成图像的视角信息。作为示例,目标设备110可以获取虚拟场景中与待生成图像相关联的目标虚拟对象的视角信息,进而基于视角信息确定待处理的目标区域。
参考图4,图4示出了根据本公开的一些实施例的基于视角信息确定目标区域的示意图。以目标虚拟对象处于虚拟场景中的区域410,且若目标虚拟对象面向右侧为例,目标设备110可以确定目标虚拟对象的视角信息指示目标虚拟对象所能见到的区域是区域420,目标设备110进而将区域420确定为待处理的目标区域。
继续参考图2。目标设备110确定待处理的目标区域之后,确定虚拟场景中与待处理的目标区域相关联的一组子区域。在一些实施例中,目标设备110可以预先将虚拟场景划分为不同子区域,这些子区域可以是大小相同的,也可以是大小不同的。在一些实施例中,子区域的尺寸可以是预先设置的,也可以是目标设备110基于虚拟场景的尺寸执行确定的。需要注意的是,由于虚拟场景可以是二维的也可以是三维的,因此,确定的子区域可以包括二维区域,也可以包括三维区域。
在一些实施例中,目标设备110可以基于目标区域与不同子区域之间是否存在重合,确定与目标区域相关联的一组子区域。参考图5,图5示出了根据本公开的一些实施例的子区域的示意图。目标设备110可以预先将虚拟场景均分分成多个子区域(如图5中所示的16个子区域),进而监测目标区域与不同子区域的重合情况,将存在重合的子区域确定为与目标区域相关联的子区域。例如,目标设备110响应于检测到目标区域A仅与子区域09存在重合,则目标设备110可以确定与目标区域A相关联的子区域有且仅有子区域09。再例如,目标设备110响应于检测到目标区域B与子区域07、子区域08、子区域11、子区域12均存在重合,则目标设备110可以确定与目标区域B相关联的一组子区域包括子区域07、子区域08、子区域11、子区域12。
返回参考图2。在框220,目标设备110确定与一组子区域对应的一组光照处理模型,其中光照处理模型是基于对应的子区域在一组预设时刻的训练光照信息而被训练的。光照处理模型例如可以包括卷积神经网络、循环神经网络、前馈神经网络等等。在一些实施例中,由于体积卷积神经网络VCNN是一种基于三维数据的卷积神经网络,可以处理体数据和点云数据等非结构化数据,为保证模型生成的光照信息的准确性,光照处理模型可以包括体积卷积神经网络VCNN。
在一些实施例中,在一组预设时刻的训练光照信息包括与一组预设时刻对应的光照烘焙信息。示例性的,一组预设时刻例如可以包括一天24个小时中的任意多个时刻。为保证光照处理模型的训练效果,一组预设时刻可以至少包括每个小时中的任意某个时刻,即至少包含24个时刻。示例性的,一组预设时刻还可以是基于不同太阳光照角所确定的,例如,将太阳光照角度进行划分,将处于不同范围的多个太阳光照角对应的多个时刻作为一组预设时刻。
与这一组预设时刻对应的光照烘焙信息可以是通过烘焙的方式采集多个体素的光照信息而得到的。体素即数字数据于三维空间分割上的最小单位,类似于像素这个二维空间的最小单位。每个体素的光照信息至少包括体素对应的颜色信息(例如RGB信息)以及位置信息。
在一些实施例中,由于采集到的光照烘焙信息可能是无法被直接输入光照处理模型的,因此,可以对采集到的光照烘焙信息进行预处理。预处理例如可以包括格式转换,即将采集到的光照烘焙信息转换为适合输入光照处理模型的格式。具体地,可以通过将采集到的光照烘焙信息转换为Irradiance Volume对应的格式。
在一些实施例中,可以通过光锥的方式采集虚拟环境中每个体素对应的光照信息。具体地,可以通过向虚拟场景中的各个方向发射大量射线(例如1000条)以计算得到每个体素在射线下的光照信息。得到的多个光照信息将被进行加权计算,加权计算的结果被投影到球谐(Spherical Harmonics,SH)函数,得到参数化的SH形式的光照烘焙信息。该SH形式的光照烘焙信息将作为训练光照信息以用于训练光照处理模型。相较于采集直接得到的光照信息,SH形式的光照烘焙信息除了可以被输入至光照处理模型之外,还具有所需数据量级较小的优点。因此,将采集到的光照信息转换成SH形式的光照烘焙信息可以实现数据压缩,有助于降低训练光照处理模型时对于设备的存储能力的需求。
需要注意的是,为保证信息采集的效率,虚拟场景的多个子区域在同一预设时刻的光照烘焙信息可以被一同采集,即同一预设时刻可以对应不同子区域,具有相对应的多个光照烘焙信息。
在一些实施例中,光照处理模型被配置为根据训练光照信息及其对应的预设时刻而被训练。具体地,光照处理模型可以根据目标时刻生成多个体素的预测光照信息,并确定预测光照信息与目标时刻对应的训练光照信息之间的差异。光照处理模型进而可以基于这个差异进行损失训练,并在差异降到最低的情况下,确定光照处理模型训练完成。可以理解,不同子区域对应的训练光照信息可以训练得到与不同子区域对应的多个光照处理模型,训练成功后的多个光照处理模型可以被应用于处理对应子区域的光照信息。
在一些实施例中,目标设备110将与虚拟场景的多个子区域对应的多个光照处理模型作为预先配置的模型集合存储起来,以便目标设备110确定与待处理的目标区域相关联的一组子区域后,从预先配置的模型集合中确定与一组子区域对应的一组光照处理模型。
返回参考图5。目标设备110预先获取到与这16个子区域对应的16个经训练的光照处理模型,并将这16个经训练的光照处理模型作为预先配置的模型集合存储起来。目标设备110可以确定与目标区域A相关联的子区域为子区域09后,从预先配置的模型集合中确定与子区域09对应的光照处理模型。目标设备110确定与目标区域B相关联的一组子区域包括子区域07、子区域08、子区域11、子区域12之后,从预先配置的模型集合中确定与这4个子区域对应的4个光照处理模型。
继续参考图2。在框230,目标设备110基于目标时刻和一组光照处理模型,生成针对一组子区域的一组局部光照信息。目标时刻可以是实际的当前时刻,例如下午四点。目标时刻还可以是虚拟场景中的当前时刻,该时刻可以与实际的当前时刻相同,也可以与实际的当前时刻不同。例如,虚拟场景中的当前时刻可以为上午十点,与实际的当前时刻下午四点不同。目标设备110将目标时刻输入确定的与一组子区域对应的一组光照处理模型,从而得到针对一组子区域的一组局部光照信息。示例性的,4个子区域可以得到4个局部光照信息。
在框240,目标设备110基于一组局部光照信息,确定针对目标区域的全局光照信息。
在一些实施例中,目标设备110可以基于一组子区域与目标区域的重合情况,从局部光照信息中确定与目标区域重合的部分的光照信息,进而基于这部分光照信息得到针对目标区域的全局光照信息。
返回参考图5。目标设备110根据与子区域09对应的光照处理模型以及目标时刻生成与子区域09对应的局部光照信息,由于子区域09与目标区域A重合,因此,与子区域09对应的局部光照信息即为针对目标区域的全局光照信息。
目标设备110根据与子区域07、子区域08、子区域11、子区域12这4个子区域对应的4个光照处理模型以及目标时刻生成这4个子区域对应的4个局部光照信息。进而基于这4个子区域与目标区域B的重合情况,从这4个局部光照信息中确定对应体素位于目标区域B中的光照信息,进而得到针对目标区域B的全局光照信息。
在一些实施例中,目标设备110还可以基于全局光照信息,绘制与虚拟场景的目标区域对应的图像。由于全局光照信息中包含各个体素对应的位置信息以及颜色信息,目标设备110可以直接基于全局光照信息对目标区域内的体素进行上色,从而得到与目标区域对应的图像。
基于上文所讨论的过程,本公开的实施例能够在保证确定的全局光照信息的实时性和质量的同时,提高处理效率以及后续渲染图像的渲染质量。
此外,相较于传统方式中需要获取整个虚拟环境对应的全局光照信息,本公开的实施例中,目标设备110仅需要获取与虚拟场景的多个子区域对应的光照处理模型,并根据光照处理模型以及目标时刻确定目标区域的全局光照信息,能够降低对目标设备110的计算能力的要求。由此,本公开的实施例还能够保证确定的全局光照信息在具有不同计算能力的电子设备上的呈现一致性。
应当理解,以上示例中所提及的具体角度、具体图像和具体数值仅是示例性地,不旨在构成对本公开的限定。
本公开的实施例还提供了用于实现上述方法或过程的相应装置。图6示出了根据本公开的某些实施例的用于光照信息处理的装置600的示意性结构框图。装置600可以被实现为或者被包括在目标设备110和/或训练设备130中。装置600中的各个模块/组件可以由硬件、软件、固件或者它们的任意组合来实现。
如图6所示,装置600包括子区域确定模块610,被配置为从虚拟场景的多个子区域中,确定与待处理的目标区域相关联的一组子区域。装置600还包括模型确定模块620,被配置为确定与一组子区域对应的一组光照处理模型,其中光照处理模型是基于对应的子区域在一组预设时刻的训练光照信息而被训练的。装置600还包括局部光照生成模块630,被配置为基于目标时刻和一组光照处理模型,生成针对一组子区域的一组局部光照信息。装置600还包括全局光照生成模块640,被配置为基于一组局部光照信息,确定针对目标区域的全局光照信息。
在一些实施例中,在一组预设时刻的训练光照信息包括与一组预设时刻对应的光照烘焙信息。
在一些实施例中,装置600还包括目标区域确定模块,被配置为基于虚拟场景的待生成图像的描述信息,确定待处理的目标区域。
在一些实施例中,描述信息指示以下至少一项:虚拟场景中与待生成图像相关联的目标虚拟对象的位置,待生成图像的缩放比例,待生成图像的视角信息。
在一些实施例中,光照处理模型被配置为:根据训练光照信息和对应的预设时刻而被训练,训练光照信息指示对应的子区域中的多个体素的训练光照信息;以及根据目标时刻生成对应的子区域中的多个体素的预测光照信息。
在一些实施例中,光照处理模型包括体积卷积神经网络VCNN。
在一些实施例中,模型确定模块620被进一步配置为:从预先配置的模型集合中确定与一组子区域对应的一组光照处理模型,预先配置的模型集合包括与虚拟场景的多个子区域对应的多个光照处理模型。
在一些实施例中,装置600还包括图像绘制模块,被配置为基于全局光照信息,绘制与虚拟场景的目标区域对应的图像。
在一些实施例中,多个子区域包括具有预设尺寸的二维区域或三维区域。
装置600中所包括的单元可以利用各种方式来实现,包括软件、硬件、固件或其任意组合。在一些实施例中,一个或多个单元可以使用软件和/或固件来实现,例如存储在存储介质上的机器可执行指令。除了机器可执行指令之外或者作为替代,装置600中的部分或者全部单元可以至少部分地由一个或多个硬件逻辑组件来实现。作为示例而非限制,可以使用的示范类型的硬件逻辑组件包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准品(ASSP)、片上系统(SOC)、复杂可编程逻辑器件(CPLD),等等。
图7示出了其中可以实施本公开的一个或多个实施例的电子设备700的框图。应当理解,图7所示出的电子设备700仅仅是示例性的,而不应当构成对本文所描述的实施例的功能和范围的任何限制。图7所示出的电子设备700可以用于实现图1的目标设备110和/或训练设备130。
如图7所示,电子设备700是通用电子设备的形式。电子设备700的组件可以包括但不限于一个或多个处理器或处理单元710、存储器720、存储设备730、一个或多个通信单元740、一个或多个输入设备750以及一个或多个输出设备760。处理单元710可以是实际或虚拟处理器并且能够根据存储器720中存储的程序来执行各种处理。在多处理器系统中,多个处理单元并行执行计算机可执行指令,以提高电子设备700的并行处理能力。
电子设备700通常包括多个计算机存储介质。这样的介质可以是电子设备700可访问的任何可以获取的介质,包括但不限于易失性和非易失性介质、可拆卸和不可拆卸介质。存储器720可以是易失性存储器(例如寄存器、高速缓存、随机访问存储器(RAM))、非易失性存储器(例如,只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、闪存)或它们的某种组合。存储设备730可以是可拆卸或不可拆卸的介质,并且可以包括机器可读介质,诸如闪存驱动、磁盘或者任何其他介质,其可以能够用于存储信息和/或数据(例如用于训练的训练数据)并且可以在电子设备700内被访问。
电子设备700可以进一步包括另外的可拆卸/不可拆卸、易失性/非易失性存储介质。尽管未在图7中示出,可以提供用于从可拆卸、非易失性磁盘(例如“软盘”)进行读取或写入的磁盘驱动和用于从可拆卸、非易失性光盘进行读取或写入的光盘驱动。在这些情况中,每个驱动可以由一个或多个数据介质接口被连接至总线(未示出)。存储器720可以包括计算机程序产品725,其具有一个或多个程序模块,这些程序模块被配置为执行本公开的各种实施例的各种方法或动作。
通信单元740实现通过通信介质与其他电子设备进行通信。附加地,电子设备700的组件的功能可以以单个计算集群或多个计算机器来实现,这些计算机器能够通过通信连接进行通信。因此,电子设备700可以使用与一个或多个其他服务器、网络个人计算机(PC)或者另一个网络节点的逻辑连接来在联网环境中进行操作。
输入设备750可以是一个或多个输入设备,例如鼠标、键盘、追踪球等。输出设备760可以是一个或多个输出设备,例如显示器、扬声器、打印机等。电子设备700还可以根据需要通过通信单元740与一个或多个外部设备(未示出)进行通信,外部设备诸如存储设备、显示设备等,与一个或多个使得用户与电子设备700交互的设备进行通信,或者与使得电子设备700与一个或多个其他电子设备通信的任何设备(例如,网卡、调制解调器等)进行通信。这样的通信可以经由输入/输出(I/O)接口(未示出)来执行。
根据本公开的示例性实现方式,提供了一种计算机可读存储介质,其上存储有计算机可执行指令,其中计算机可执行指令被处理器执行以实现上文描述的方法。根据本公开的示例性实现方式,还提供了一种计算机程序产品,计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括计算机可执行指令,而计算机可执行指令被处理器执行以实现上文描述的方法。
这里参照根据本公开实现的方法、装置、设备和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其他可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
可以把计算机可读程序指令加载到计算机、其他可编程数据处理装置、或其他设备上,使得在计算机、其他可编程数据处理装置或其他设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其他可编程数据处理装置、或其他设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实现的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实现,上述说明是示例性的,并非穷尽性的,并且也不限于所公开的各实现。在不偏离所说明的各实现的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实现的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文公开的各个实现方式。
Claims (12)
1.一种光照信息处理方法,包括:
从虚拟场景的多个子区域中,确定与待处理的目标区域相关联的一组子区域;
确定与所述一组子区域对应的一组光照处理模型,其中,所述光照处理模型是基于对应的子区域在一组预设时刻的训练光照信息而被训练的;
基于目标时刻和所述一组光照处理模型,生成针对所述一组子区域的一组局部光照信息;以及
基于所述一组局部光照信息,确定针对所述目标区域的全局光照信息。
2.根据权利要求1所述的方法,其中在所述一组预设时刻的所述训练光照信息包括与所述一组预设时刻对应的光照烘焙信息。
3.根据权利要求1所述的方法,还包括:
基于所述虚拟场景的待生成图像的描述信息,确定待处理的所述目标区域。
4.根据权利要求3所述的方法,其中所述描述信息指示以下至少一项:
所述虚拟场景中与所述待生成图像相关联的目标虚拟对象的位置,
所述待生成图像的缩放比例,
所述待生成图像的视角信息。
5.根据权利要求1所述的方法,其中所述光照处理模型被配置为:
根据所述训练光照信息和对应的预设时刻而被训练,所述训练光照信息指示所述对应的子区域中的多个体素的训练光照信息;以及
根据所述目标时刻生成所述对应的子区域中的所述多个体素的预测光照信息。
6.根据权利要求5所述的方法,其中所述光照处理模型包括体积卷积神经网络VCNN。
7.根据权利要求1所述的方法,其中确定与所述一组子区域对应的一组光照处理模型包括:
从预先配置的模型集合中确定与所述一组子区域对应的一组光照处理模型,所述预先配置的模型集合包括与虚拟场景的所述多个子区域对应的多个光照处理模型。
8.根据权利要求1所述的方法,还包括:
基于所述全局光照信息,绘制与所述虚拟场景的所述目标区域对应的图像。
9.根据权利要求1所述的方法,其中所述多个子区域包括具有预设尺寸的二维区域或三维区域。
10.一种光照信息处理装置,包括:
子区域确定模块,被配置为从虚拟场景的多个子区域中,确定与待处理的目标区域相关联的一组子区域;
模型确定模块,被配置为确定与所述一组子区域对应的一组光照处理模型,其中所述光照处理模型是基于对应的子区域在一组预设时刻的训练光照信息而被训练的;
局部光照生成模块,被配置为基于目标时刻和所述一组光照处理模型,生成针对所述一组子区域的一组局部光照信息;以及
全局光照生成模块,被配置为基于所述一组局部光照信息,确定针对所述目标区域的全局光照信息。
11.一种电子设备,包括:
至少一个处理单元;以及
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令在由所述至少一个处理单元执行时使所述电子设备执行根据权利要求1至9中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现根据权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310341600.3A CN116452724A (zh) | 2023-03-31 | 2023-03-31 | 光照信息处理方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310341600.3A CN116452724A (zh) | 2023-03-31 | 2023-03-31 | 光照信息处理方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116452724A true CN116452724A (zh) | 2023-07-18 |
Family
ID=87123144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310341600.3A Pending CN116452724A (zh) | 2023-03-31 | 2023-03-31 | 光照信息处理方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116452724A (zh) |
-
2023
- 2023-03-31 CN CN202310341600.3A patent/CN116452724A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220101604A1 (en) | Learning-based 3d model creation apparatus and method | |
US10957026B1 (en) | Learning from estimated high-dynamic range all weather lighting parameters | |
CN111524216B (zh) | 生成三维人脸数据的方法和装置 | |
US20240046557A1 (en) | Method, device, and non-transitory computer-readable storage medium for reconstructing a three-dimensional model | |
CN114119853B (zh) | 图像渲染方法、装置、设备和介质 | |
CN115578515B (zh) | 三维重建模型的训练方法、三维场景渲染方法及装置 | |
CN112766215A (zh) | 人脸融合方法、装置、电子设备及存储介质 | |
CN110211017B (zh) | 图像处理方法、装置及电子设备 | |
CN112329752B (zh) | 人眼图像处理模型的训练方法、图像处理方法及装置 | |
CN117197292A (zh) | 用于生成图像的方法、装置、设备和存储介质 | |
US10754498B2 (en) | Hybrid image rendering system | |
AU2019200269B2 (en) | An interactive user interface and its corresponding engine for improving image completion quality | |
CN112070854A (zh) | 一种图像生成方法、装置、设备及存储介质 | |
US20240013477A1 (en) | Point-based neural radiance field for three dimensional scene representation | |
CN116452724A (zh) | 光照信息处理方法、装置、设备和存储介质 | |
Lee et al. | Holistic 3D face and head reconstruction with geometric details from a single image | |
CN113744379A (zh) | 图像生成方法、装置和电子设备 | |
US10586311B2 (en) | Patch validity test | |
CN117197319B (zh) | 图像生成方法、装置、电子设备及存储介质 | |
US11593988B2 (en) | Fractional visibility estimation using particle density for light transport simulation | |
US20220292753A1 (en) | Animation generation method for tracking facial expression and neural network training method thereof | |
US20240161391A1 (en) | Relightable neural radiance field model | |
CN118279518A (zh) | 三维模型渲染失败后的重建方法、装置、设备及存储介质 | |
Mirbauer et al. | SkyGAN: Realistic Cloud Imagery for Image‐based Lighting | |
CN117372607A (zh) | 一种三维模型的生成方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |