CN109410310A - 一种基于深度学习网络的实时光照渲染算法 - Google Patents
一种基于深度学习网络的实时光照渲染算法 Download PDFInfo
- Publication number
- CN109410310A CN109410310A CN201811277127.2A CN201811277127A CN109410310A CN 109410310 A CN109410310 A CN 109410310A CN 201811277127 A CN201811277127 A CN 201811277127A CN 109410310 A CN109410310 A CN 109410310A
- Authority
- CN
- China
- Prior art keywords
- network
- result
- rendering
- real
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
本发明公开了一种基于深度学习网络的全局光照条件下的实时渲染算法,包括训练阶段和运行阶段;训练阶段包括以下步骤:S1、生成器网络结构的确定;S2、鉴别器网络结构的确定;S3、样本数据收集;S4、神经网络训练;运行阶段的过程是:将渲染缓存作为输入样本输入生成器网络获得输出结果,然后对输出结果进行像素着色,生成全局光照条件下的渲染结果,从而代替传统的复杂渲染计算,实现实时渲染。本发明通过对多个渲染缓存和同一视角下的光子映射结果进行对抗神经网络训练,并使用网络输出结果作为包括直接光照和间接光照的全局光照条件下像素着色中的光照提示,使用对抗网络训练的最终结果更准确有效。
Description
技术领域
本发明涉及实时光照渲染算法技术领域,尤其涉及一种基于深度学习网络的实时光照渲染算法。
背景技术
现有的一些能够实现实时全局光照渲染的方法,主要有基于光线追踪的渲染方法、基于物理的渲染方法以及基于数据驱动的渲染算法。实现全局光照的基本思路是基于物理和几何结构计算光线在场景表面的反弹情况。光线追踪通过在视线方向对每个像素投射光线实现,每个像素采样根据光线与表面碰撞和光线碰撞后的反弹结果,可以实现间接照明。后来的光子映射方法是光线追踪逆过程,通过追踪光源反射的光线收集光线照射表面构建光照贴图。这两种技术都可以实现真实的全局照明,但是需要进行大量的计算,单帧渲染通常需要耗时几小时。传统的全局光照(Global Illumination, GI)渲染方法,包括基于几何结构的近似方法和屏幕空间的后处理方法。基于几何结构的近似方法需要预先计算好光在几何结构表面的传输情况或者对几何结构体进行体素化后,才能进行实时的光线传输计算。屏幕空间的后处理方法可以从延迟渲染处理器获得准确动态的全局光照结果。但是由于需要巨大的计算资源,现有方法只能实现有限次的间接光照反弹结果。然而这两种方法由于计算资源的限制,目前都只能做到光线一次反射的实时效果模拟。近几年越来越多的图像处理算法倾向基于数据驱动。不同于传统光线追踪或基于物理渲染的数学算法,数据驱动的图像处理方法处理复杂图像用时较短,但是存在包括渲染结果模糊和一些其他的固有限制。对数据驱动的实时全局光照的研究同样也存在问题。数据驱动方法的优势在于可以在短期内生成全局信息,但是无法准确获得细节信息。传统的光栅化渲染方法可用于生成准确结果,但不能近似全局信息。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于深度学习网络的实时光照渲染算法。
为了实现上述目的,本发明采用了如下技术方案:
一种基于深度学习网络的实时光照渲染算法,其特征在于,包括训练阶段和运行阶段;
训练阶段包括以下步骤:
S1、生成器网络结构确定:生成器网络采用基于U-Net结构的CNN模型结构,输入样本通过6层降采样单元和6层升采样单元生成输出结果,每个降采样单元包含一个卷积层,一个激活层和一个降采样层,每个升采样单元包含一个卷积层,一个激活层和一个升采样层;
S2、鉴别器网络结构确定:鉴别器网络采用基于图像分类的CNN模型结构。输入数据的格式与生成器的输出相同,依次通过两个卷积层和降采样层连接到三个全连接层上,输出标量作为鉴别的结果,其中0代表生成结果,1代表实际样本。;
S3、样本数据收集:选择3D场景中的某个点,逐步旋转摄像机获得非全局光照条件下的渲染结果,并以高动态范围格式存储渲染缓存,获得输入样本。在相同视点对场景进行全局光照下的光子映射,将获得的光子映射结果作为输出样本。;
S4、神经网络训练:首先将输入样本输入到生成器网络中,将输出结果输入到鉴别器网络中进行GAN训练,计算生成器的结构相似性损失函数,对鉴别器网络的鉴别成果与真实图片进行交叉熵损失函数训练,计算鉴别器的交叉熵损失函数,并输出一个标量作为鉴别结果,然后对生成器的结构相似性损失函数与鉴别器的交叉熵损失函数执行迭代计算训练自定义损失函数,在训练过程中需要删除所有流失层;
运行阶段的过程是:将渲染缓存输入样本输入生成器网络获得屏幕空间光照图的输出结果,然后对输出结果在像素着色器中利用朗博模型执行像素着色生成新的照明图,从而代替直接照明图,进行实时渲染。
优选的,所述高光贴图,固有色贴图,法线贴图和光照贴图是三通道图像,景深贴图和粗糙度贴图为单通道图像,且光照贴图是所有光源和表面发射光的总和,光照贴图以像素为单位存储光照颜色和强度值,粗糙度贴图和高光贴图描述了场景物体表面的物理属性。
优选的,所述输出结果的输出图像为三通道图像,输出结果的输出图像与场景渲染视图尺寸相同。
优选的,所述生成器网络是一个基于U-Net结构的CNN网络结构,鉴别器网络基于图像分类的CNN模型结构。
优选的,所述神经网络训练阶段使用生成器网络和鉴别器网络进行训练,像素着色阶段使用生成器网络推理生成结果。
优选的,所述朗博模型为,其中s表示表面的性质,Ns表示方向法线,Cs表示直接照明色彩,l表示光子映射的结果,Nl表示光照方向,Cl表示光照颜色。
优选的,所述生成器网络通过6层降采样单元和6层升采样单元来生成输出图像,每个降采样单元包含一个卷积层,一个激活层和一个降采样层,每个升采样单元包含一个卷积层,一个激活层和一个升采样层,卷积层滤波器大小是3×3,当输入图像的颜色通道数为C时,深度为D的卷积层滤波器的数量为D×C。
本发明的有益效果是:本发明将屏幕空间数据驱动的光子映射技术与传统像素着色方法相结合从而生成实时的全局照明结果,通过对多个渲染缓存和同一视角下的光子映射结果进行对抗神经网络训练,并使用网络输出作为包括直接光照和间接光照条件像素着色中的光照提示,使用对抗网络训练的最终结果比卷积神经网络的直接输出更准确有效,通过消除流失层,照明效果与视频的动态效果更加明显;提高训练样本的数量和多样性时,推理结果误差减少,随着样本数量的增加误差极限非常接近于0.03,可以确保获得精确结果,该模型可以广泛用于各种场景,并且大量的训练样本可以帮助改进通用结果。
附图说明
图1为本发明提出的一种基于深度学习网络的实时光照渲染算法的训练阶段结构示意图;
图2为本发明提出的一种基于深度学习网络的实时光照渲染算法的运行阶段结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
实施例:参照图1-2,一种基于深度学习网络的实时光照渲染算法,包括训练阶段和运行阶段;训练阶段包括以下步骤:
S1、生成器网络结构的确定:生成器网络采用基于U-Net结构的CNN模型结构,输入样本通过6层降采样单元和6层升采样单元生成输出结果,每个降采样单元包含一个卷积层,一个激活层和一个降采样层,每个升采样单元包含一个卷积层,一个激活层和一个升采样层;
S2、鉴别器网络结构的确定:鉴别器网络采用基于图像分类的CNN模型结构。输入数据的格式与生成器输出相同,依次通过两个卷积层和降采样层连接到三个全连接层上。输出标量作为鉴别的结果,其中0代表生成结果,1代表实际样本。;
S3、样本数据收集:选择3D场景中的某个点,逐步旋转摄像机获得非全局光照条件下的渲染结果,并以高动态范围格式存储渲染缓存,获得输入样本,在相同视点对场景进行全局光照下的光子映射,将获得的光子映射结果作为输出样本。;
S4、神经网络训练:首先将输入样本输入到生成器网络中,将输出结果输入到鉴别器网络中进行GAN训练,计算生成器的结构相似性损失函数,对鉴别器网络的鉴别成果与真实图片进行交叉熵损失函数训练,计算鉴别器的交叉熵损失函数,并输出一个标量作为鉴别结果,然后对生成器的结构相似性损失函数与鉴别器的交叉熵损失函数执行20次迭代计算训练自定义损失函数,在训练过程中需要删除所有流失层,最后使用Unity的延迟光照通道来收集渲染缓存,将自定义损失函数传递给神经网络以进行快速的CNN正向计算,将CNN正向计算结果传递回Unity显示;
运行阶段的过程是:将渲染缓存输入样本输入生成器网络获得屏幕空间光照图的输出结果,然后对输出结果在像素着色器中利用朗博模型执行像素着色生成新的照明图,从而代替直接照明图,进行实时渲染。
其中,高光贴图,固有色贴图,法线贴图和光照贴图是三通道图像,景深贴图和粗糙度贴图为单通道图像,且光照贴图是所有光源和表面发射光的总和,光照贴图以像素为单位存储光照颜色和强度值,粗糙度贴图和高光贴图描述了场景物体表面的物理属性,输出结果的输出图像为三通道图像,输出结果的输出图像尺寸为512x512像素,生成器网络是一个基于U-Net结构的CNN网络结构,鉴别器网络基于图像分类的CNN模型结构,神经网络训练阶段使用生成器网络和鉴别器网络进行训练,像素着色阶段使用生成器网络推理生成结果,朗博模型为,其中s表示表面的性质,Ns表示方向法线,Cs表示直接照明色彩,l表示光子映射的结果,Nl表示光照方向,Cl表示光照颜色,生成器网络通过6层降采样单元和6层升采样单元来生成输出图像,每个降采样单元包含一个卷积层,一个激活层和一个降采样层,每个升采样单元包含一个卷积层,一个激活层和一个升采样层,卷积层滤波器大小是3×3,当输入图像的颜色通道数为C时,深度为D的卷积层滤波器的数量为D×C。本发明将屏幕空间数据驱动的光子映射技术与传统像素着色方法相结合从而生成实时的全局照明结果,通过对多个渲染缓存和同一视角下的光子映射结果进行对抗神经网络训练,并使用网络输出作为包括直接光照和间接光照条件像素着色中的光照提示,使用对抗网络训练的最终结果比卷积神经网络的直接输出更准确有效,通过消除流失层,照明效果与视频的动态效果更加明显;提高训练样本的数量和多样性时,推理结果误差减少,随着样本数量的增加误差极限非常接近于0.03,可以确保获得精确结果,该模型可以广泛用于各种场景,并且大量的训练样本可以帮助改进通用结果。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (7)
1.一种基于深度学习网络的实时光照渲染算法,其特征在于,包括训练阶段和运行阶段;
训练阶段包括以下步骤:
S1、生成器网络结构确定:生成器网络采用基于U-Net结构的CNN模型结构,输入样本通过6层降采样单元和6层升采样单元生成输出结果,每个降采样单元包含一个卷积层,一个激活层和一个降采样层,每个升采样单元包含一个卷积层,一个激活层和一个升采样层;
S2、鉴别器网络结构确定:鉴别器网络采用基于图像分类的CNN模型结构。输入数据的格式与生成器的输出相同,依次通过两个卷积层和降采样层连接到三个全连接层上,输出标量作为鉴别的结果,其中0代表生成结果,1代表实际样本。;
S3、样本数据收集:选择3D场景中的某个点,逐步旋转摄像机获得非全局光照条件下的渲染结果,并以高动态范围格式存储渲染缓存,获得输入样本。在相同视点对场景进行全局光照下的光子映射,将获得的光子映射结果作为输出样本。;
S4、神经网络训练:首先将输入样本输入到生成器网络中,将输出结果输入到鉴别器网络中进行GAN训练,计算生成器的结构相似性损失函数,对鉴别器网络的鉴别成果与真实图片进行交叉熵损失函数训练,计算鉴别器的交叉熵损失函数,并输出一个标量作为鉴别结果,然后对生成器的结构相似性损失函数与鉴别器的交叉熵损失函数执行迭代计算训练自定义损失函数,在训练过程中需要删除所有流失层;
运行阶段的过程是:将渲染缓存输入样本输入生成器网络获得屏幕空间光照图的输出结果,然后对输出结果在像素着色器中利用朗博模型执行像素着色生成新的照明图,从而代替直接照明图,进行实时渲染。
2.根据权利要求1所述的一种基于深度学习网络的实时光照渲染算法,其特征在于,所述高光贴图,固有色贴图,法线贴图和光照贴图是三通道图像,景深贴图和粗糙度贴图为单通道图像,且光照贴图是所有光源和表面发射光的总和,光照贴图以像素为单位存储光照颜色和强度值,粗糙度贴图和高光贴图描述了场景物体表面的物理属性。
3.根据权利要求1所述的一种基于深度学习网络的实时光照渲染算法,其特征在于,所述输出结果的输出图像为三通道图像,输出结果的输出图像与场景渲染视图尺寸相同。
4.根据权利要求1所述的一种基于深度学习网络的实时光照渲染算法,其特征在于,所述生成器网络是一个基于U-Net结构的CNN网络结构,鉴别器网络基于图像分类的CNN模型结构。
5.根据权利要求1所述的一种基于深度学习网络的实时光照渲染算法,其特征在于,所述神经网络训练阶段使用生成器网络和鉴别器网络进行训练,像素着色阶段使用生成器网络推理生成结果。
6.根据权利要求1所述的一种基于深度学习网络的实时光照渲染算法,其特征在于,所述朗博模型为f(s,l)=(Ns·Nl)×Cs×Cl,其中s表示表面的性质,Ns表示方向法线,Cs表示直接照明色彩,l表示光子映射的结果,Nl表示光照方向,Cl表示光照颜色。
7.根据权利要求1所述的一种基于深度学习网络的实时光照渲染算法,其特征在于,所述生成器网络通过6层降采样单元和6层升采样单元来生成输出图像,每个降采样单元包含一个卷积层,一个激活层和一个降采样层,每个升采样单元包含一个卷积层,一个激活层和一个升采样层,卷积层滤波器大小是3×3,当输入图像的颜色通道数为C时,深度为D的卷积层滤波器的数量为D×C。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811277127.2A CN109410310A (zh) | 2018-10-30 | 2018-10-30 | 一种基于深度学习网络的实时光照渲染算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811277127.2A CN109410310A (zh) | 2018-10-30 | 2018-10-30 | 一种基于深度学习网络的实时光照渲染算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109410310A true CN109410310A (zh) | 2019-03-01 |
Family
ID=65469999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811277127.2A Withdrawn CN109410310A (zh) | 2018-10-30 | 2018-10-30 | 一种基于深度学习网络的实时光照渲染算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109410310A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829967A (zh) * | 2019-03-06 | 2019-05-31 | 叠境数字科技(上海)有限公司 | 一种基于深度学习的移动端表面光场渲染方法 |
CN110517332A (zh) * | 2019-07-09 | 2019-11-29 | 广东工业大学 | 一种基于深度学习的漫画手绘图交互式着色方法 |
CN110956259A (zh) * | 2019-11-22 | 2020-04-03 | 联合微电子中心有限责任公司 | 一种基于正向传播的光子神经网络训练方法 |
CN111445422A (zh) * | 2020-04-17 | 2020-07-24 | 山东大学 | 基于神经网络的随机渐近式光子映射图像降噪方法及系统 |
CN111833430A (zh) * | 2019-04-10 | 2020-10-27 | 上海科技大学 | 基于神经网络的光照数据预测方法、系统、终端及介质 |
CN112968950A (zh) * | 2021-02-01 | 2021-06-15 | 吉林动画学院 | 一种轻量级GPU云烘培Web3D实时全局光照渲染管线 |
CN113096228A (zh) * | 2021-06-09 | 2021-07-09 | 上海影创信息科技有限公司 | 基于神经网络的实时光照估计与渲染方法及系统 |
CN113129420A (zh) * | 2021-04-14 | 2021-07-16 | 江苏理工学院 | 一种基于深度缓冲加速的光线追踪渲染方法 |
US20220292810A1 (en) * | 2021-03-12 | 2022-09-15 | Frontier.cool Inc. | Fabric information digitization system and method thereof |
TWI781835B (zh) * | 2021-03-12 | 2022-10-21 | 臺灣通用紡織科技股份有限公司 | 布片資訊數位化系統及其方法 |
CN116245998A (zh) * | 2023-05-09 | 2023-06-09 | 北京百度网讯科技有限公司 | 渲染贴图生成方法及装置、模型训练方法及装置 |
CN116977535A (zh) * | 2023-09-25 | 2023-10-31 | 北京渲光科技有限公司 | 一种实时光线追踪的方法、装置、存储介质及电子设备 |
GB2623387A (en) * | 2023-04-12 | 2024-04-17 | Imagination Tech Ltd | Learnable image transformation training methods and systems in graphics rendering |
-
2018
- 2018-10-30 CN CN201811277127.2A patent/CN109410310A/zh not_active Withdrawn
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829967A (zh) * | 2019-03-06 | 2019-05-31 | 叠境数字科技(上海)有限公司 | 一种基于深度学习的移动端表面光场渲染方法 |
CN111833430A (zh) * | 2019-04-10 | 2020-10-27 | 上海科技大学 | 基于神经网络的光照数据预测方法、系统、终端及介质 |
CN110517332A (zh) * | 2019-07-09 | 2019-11-29 | 广东工业大学 | 一种基于深度学习的漫画手绘图交互式着色方法 |
CN110517332B (zh) * | 2019-07-09 | 2023-10-03 | 广东工业大学 | 一种基于深度学习的漫画手绘图交互式着色方法 |
CN110956259B (zh) * | 2019-11-22 | 2023-05-12 | 联合微电子中心有限责任公司 | 一种基于正向传播的光子神经网络训练方法 |
CN110956259A (zh) * | 2019-11-22 | 2020-04-03 | 联合微电子中心有限责任公司 | 一种基于正向传播的光子神经网络训练方法 |
CN111445422A (zh) * | 2020-04-17 | 2020-07-24 | 山东大学 | 基于神经网络的随机渐近式光子映射图像降噪方法及系统 |
CN112968950A (zh) * | 2021-02-01 | 2021-06-15 | 吉林动画学院 | 一种轻量级GPU云烘培Web3D实时全局光照渲染管线 |
CN112968950B (zh) * | 2021-02-01 | 2024-04-16 | 吉林动画学院 | 一种轻量级GPU云烘培Web3D实时全局光照渲染管线 |
US20220292810A1 (en) * | 2021-03-12 | 2022-09-15 | Frontier.cool Inc. | Fabric information digitization system and method thereof |
TWI781835B (zh) * | 2021-03-12 | 2022-10-21 | 臺灣通用紡織科技股份有限公司 | 布片資訊數位化系統及其方法 |
CN113129420A (zh) * | 2021-04-14 | 2021-07-16 | 江苏理工学院 | 一种基于深度缓冲加速的光线追踪渲染方法 |
CN113129420B (zh) * | 2021-04-14 | 2023-06-23 | 江苏理工学院 | 一种基于深度缓冲加速的光线追踪渲染方法 |
CN113096228B (zh) * | 2021-06-09 | 2021-08-31 | 上海影创信息科技有限公司 | 基于神经网络的实时光照估计与渲染方法及系统 |
CN113096228A (zh) * | 2021-06-09 | 2021-07-09 | 上海影创信息科技有限公司 | 基于神经网络的实时光照估计与渲染方法及系统 |
GB2623387A (en) * | 2023-04-12 | 2024-04-17 | Imagination Tech Ltd | Learnable image transformation training methods and systems in graphics rendering |
CN116245998A (zh) * | 2023-05-09 | 2023-06-09 | 北京百度网讯科技有限公司 | 渲染贴图生成方法及装置、模型训练方法及装置 |
CN116245998B (zh) * | 2023-05-09 | 2023-08-29 | 北京百度网讯科技有限公司 | 渲染贴图生成方法及装置、模型训练方法及装置 |
CN116977535A (zh) * | 2023-09-25 | 2023-10-31 | 北京渲光科技有限公司 | 一种实时光线追踪的方法、装置、存储介质及电子设备 |
CN116977535B (zh) * | 2023-09-25 | 2024-01-12 | 北京渲光科技有限公司 | 一种实时光线追踪的方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109410310A (zh) | 一种基于深度学习网络的实时光照渲染算法 | |
Boss et al. | Two-shot spatially-varying brdf and shape estimation | |
Zhan et al. | Emlight: Lighting estimation via spherical distribution approximation | |
Boss et al. | Neural-pil: Neural pre-integrated lighting for reflectance decomposition | |
Srinivasan et al. | Nerv: Neural reflectance and visibility fields for relighting and view synthesis | |
Gardner et al. | Deep parametric indoor lighting estimation | |
Heber et al. | Convolutional networks for shape from light field | |
CN109785423B (zh) | 图像补光方法、装置及计算机设备 | |
Li et al. | Physically-based editing of indoor scene lighting from a single image | |
Zhang et al. | Lighting design for globally illuminated volume rendering | |
Oechsle et al. | Learning implicit surface light fields | |
US12002150B2 (en) | Systems and methods for physically-based neural face shader via volumetric lightmaps | |
JP2022032937A (ja) | コンピュータビジョン方法及びシステム | |
CN106204701B (zh) | 一种基于光探针插值动态计算间接反射高光的渲染方法 | |
CN104766270A (zh) | 一种基于鱼眼镜头的虚实光照融合方法 | |
CN105261059A (zh) | 一种基于在屏幕空间计算间接反射高光的渲染方法 | |
Vu et al. | Efficient hybrid tree-based stereo matching with applications to postcapture image refocusing | |
Weiss et al. | Deep direct volume rendering: Learning visual feature mappings from exemplary images | |
Zhang et al. | Illumination estimation for augmented reality based on a global illumination model | |
Mirbauer et al. | SkyGAN: Towards Realistic Cloud Imagery for Image Based Lighting. | |
Corsini et al. | Stereo light probe | |
Hu et al. | NeurSF: Neural shading field for image harmonization | |
CN109509246B (zh) | 一种基于自适应视线划分的光子图聚类方法 | |
Beigpour et al. | Light-field appearance editing based on intrinsic decomposition | |
Korn et al. | Interactive augmentation of live images using a hdr stereo camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190301 |