CN106204701B - 一种基于光探针插值动态计算间接反射高光的渲染方法 - Google Patents

一种基于光探针插值动态计算间接反射高光的渲染方法 Download PDF

Info

Publication number
CN106204701B
CN106204701B CN201610464636.0A CN201610464636A CN106204701B CN 106204701 B CN106204701 B CN 106204701B CN 201610464636 A CN201610464636 A CN 201610464636A CN 106204701 B CN106204701 B CN 106204701B
Authority
CN
China
Prior art keywords
light probe
rendering
point
vmf
probe sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610464636.0A
Other languages
English (en)
Other versions
CN106204701A (zh
Inventor
王锐
鲍虎军
徐超
高涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201610464636.0A priority Critical patent/CN106204701B/zh
Publication of CN106204701A publication Critical patent/CN106204701A/zh
Application granted granted Critical
Publication of CN106204701B publication Critical patent/CN106204701B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于光探针插值动态计算间接反射高光的渲染方法,包括:步骤1,对目标场景进行初步规划分布,得到若干光探针探测点;步骤2,针对每个光探针探测点进行周围环境高光的渲染计算,得到相应的入射光场;步骤3,对于每个入射光场,通过一组vMF分布函数拟合入射光场信息;步骤4,依据渲染点的位置以及步骤1中光探针探测点的位置,得到渲染点周围邻域内的光探针探测点,对这些光探针探测点的vMF分布函数进行插值计算,得到利用vMF分布函数表达的渲染点的高光信息;步骤5,利用步骤4得到的高光信息进行光照计算并输出。本发明支持运动光源的实时动态计算,提高了间接高光光照计算的效率。

Description

一种基于光探针插值动态计算间接反射高光的渲染方法
技术领域
本发明涉及实时绘制技术领域,具体涉及一种基于光探针插值动态计算间接反射高光的渲染方法。
背景技术
在实时绘制领域,光照的计算对于最终生成图像的真实感起到了至关重要的作用,尤其是间接光照的绘制,能带来远超越只计算直接光照的绘制真实感,在电影工业、游戏制作、虚拟现实等领域中具有广泛的需求和应用。
传统的实时绘制领域较少的考虑间接光照的计算,通常只计算直接光照就输出最终的绘制结果。近几年来随着硬件性能的提升,使得在实时绘制领域,利用屏幕空间信息来进行间接光照计算成为可能,其中,使用光探针通过插值进行计算是近年较为流行的技术,然而,该方法虽然能够获得不错的效果,但是却只能捕获周围环境中漫反射的光照信息,对于高光的信息还是没有办法解决。
发明内容
本发明提供了一种基于光探针插值动态计算间接反射高光的渲染方法,能够实时性地计算间接高光,解决了目前使用光探针仅能计算漫反射间接光照的问题,使得可以在几乎相同的框架下,进行间接高光反射的计算,提高了间接高光光照计算的效率。
一种基于光探针插值动态计算间接反射高光的渲染方法,包括:
步骤1,对目标场景进行初步规划分布,得到若干光探针探测点;
步骤2,针对每个光探针探测点进行周围环境高光的渲染计算,得到相应的入射光场;
步骤3,对于每个入射光场,通过一组vMF分布函数拟合入射光场信息;
步骤4,依据渲染点的位置以及步骤1中光探针探测点的位置,得到渲染点周围邻域内的光探针探测点,对这些光探针探测点的vMF分布函数进行插值计算,得到利用vMF分布函数表达的渲染点的高光信息;
步骤5,利用步骤4得到的高光信息进行光照计算并输出。
作为优选,步骤1中,对目标场景中包含较多信息的区域进行多面体划分,每个多面体的顶点为一个光探针探测点。
较多信息的区域根据需要进行选择,通常选择将包含较多信息的区域划分为多个立方体或八面体,每个立方体或八面体的顶点作为一个光探针探测点,若干个光探针探测点能够较为完整地捕捉到目标场景的信息。
步骤2中,针对每个光探针探测点进行周围环境高光的渲染计算,得到以光探针探测点为中心的周围场景的所有光照信息,即所述的入射光场。
步骤3中,将入射光场拟合为一组vMF分布函数,并将分布函数的参数进行预存。由于每个入射光场近似地通过一组vMF分布函数进行表达,可以将每个光探针探测点所需要存储的信息大幅度地简化压缩。
作为优选,每个vMF分布函数的参数分为三组,第一组为二维极坐标表达的轴线方向μ,第二组为vMF分布宽度λ,第三组为三维颜色值c(R,G,B分量),步骤3中,使用L-BFGS-B最优化算法进行拟合,采用固定两组参数拟合一组参数的循环迭代过程取得最优解。
作为优选,步骤4中,将vMF分布函数转换为使用平均方向r表达,在渲染点所处的多面体内,对多面体顶点位置的平均方向r进行插值,得到渲染点的平均方向r,然后得到渲染点的vMF分布函数。
本发明解决了目前使用光探针仅能计算漫反射间接光照的问题,同时支持运动光源的实时动态计算,使得可以在几乎相同的框架下进行间接高光反射的计算,提高了间接高光光照计算的效率。
附图说明
图1为本发明基于光探针插值动态计算间接反射高光的渲染方法的流程图。
具体实施方式
下面结合附图,对本发明基于光探针插值动态计算间接反射高光的渲染方法做详细描述。
如图1所示,一种基于光探针插值动态计算间接反射高光的渲染方法,包括:
步骤1,对目标场景进行初步规划分布,得到若干光探针探测点。
具体操作为:对目标场景中包含较多信息的区域进行立方体划分,每个立方体的顶点为一个光探针探测点,所有光探针探测点能够较为完整地捕捉到目标场景的信息。
步骤2,针对每个光探针探测点进行周围环境高光的渲染计算,得到相应的入射光场。入射光场,即以光探针探测点为中心,周围场景的光照信息,每个光探针探测点对应一个入射光场。
步骤3,对于每个入射光场,通过一组vMF分布函数拟合入射光场信息。
一个入射光场可以近似地通过一组vMF分布函数参数进行表达,从而使光探针探测点所需要存储的信息大幅度地被简化并压缩。
每个vMF分布函数的参数共计六个,且分为三组,第一组为二维极坐标表达的轴线方向μ,第二组为vMF分布宽度λ,第三组为三维颜色值c(R,G,B分量),为了加速求解过程,步骤3中,使用L-BFGS-B最优化算法进行拟合,采用固定两组参数拟合一组参数的循环迭代过程取得最优解,得到能够拟合入射光场的一组vMF分布函数。
步骤4,依据渲染点的位置以及步骤1中光探针探测点的位置,得到渲染点周围邻域内的光探针探测点,对这些光探针探测点的vMF分布函数进行插值计算,得到利用vMF分布函数表达的渲染点的高光信息。
依据渲染点的位置可以得到渲染点所在的立方体,利用该立方体所在顶点的光探针探测点的vMF分布函数进行三线性插值计算,得到利用vMF分布函数表达的高光信息。
该步骤中,将vMF分布函数转换为使用平均方向r表达,在渲染点所处的多面体内,对多面体顶点位置的平均方向r进行插值,得到渲染点的平均方向r,然后得到渲染点的vMF分布函数。
vMF(vonMises-Fishder distribution)是一个概率密度分布函数,描述的是在给定轴线方向μ以后,求方向s的概率分布γ(s):
γ(s)=c(κ)eκ(μs)
其中,κ是所需要描述的BRDF函数宽度的倒数,越高的κ表示方向越集中。
是归一化因子,sinh是双曲正弦函数,除了c(κ)以外,vMF分布和球面高斯(Spherical Gaussian)分布是完全一样的。
当κ远大于1时,vMF近似为以下形式:
将由γ(κ,s)表示的vMF分布函数,重新表示为||r||的分布函数γ(||r||),假设有一组方向si,i∈[1,M]是由一个vMF分布函数γ(s)中产生的一组方向,M为投影区域内包含的像素数量,通过计算非归一化的平均方向来逆向估算该vMF分布函数的参数,r指向了对应BRDF函数的平均方向,也即该vMF分布的轴向,而||r||则表明了该平均方向的长度,也即相应BRDF函数的宽度。
步骤5,利用步骤4得到的高光信息进行光照计算并输出。

Claims (3)

1.一种基于光探针插值动态计算间接反射高光的渲染方法,其特征在于,包括:
步骤1,对目标场景进行初步规划分布,得到若干光探针探测点;
步骤2,针对每个光探针探测点进行周围环境高光的渲染计算,得到相应的入射光场;
步骤3,对于每个入射光场,通过一组vMF分布函数拟合入射光场信息;
步骤4,依据渲染点的位置以及步骤1中光探针探测点的位置,得到渲染点周围邻域内的光探针探测点,对这些光探针探测点的vMF分布函数进行插值计算,得到利用vMF分布函数表达的渲染点的高光信息;
步骤5,利用步骤4得到的高光信息进行光照计算并输出。
2.如权利要求1所述的基于光探针插值动态计算间接反射高光的渲染方法,其特征在于,每个vMF分布函数的参数分为三组,第一组为二维极坐标表达的轴线方向μ,第二组为vMF分布宽度λ,第三组为三维颜色值c,步骤3中,使用L-BFGS-B最优化算法进行拟合,采用固定两组参数拟合一组参数的循环迭代过程取得最优解。
3.如权利要求1所述的基于光探针插值动态计算间接反射高光的渲染方法,其特征在于,步骤4中,将vMF分布函数转换为使用平均方向r表达,在渲染点所处的多面体内,对多面体顶点位置的平均方向r进行插值,得到渲染点的平均方向r,然后得到渲染点的vMF分布函数。
CN201610464636.0A 2016-06-22 2016-06-22 一种基于光探针插值动态计算间接反射高光的渲染方法 Active CN106204701B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610464636.0A CN106204701B (zh) 2016-06-22 2016-06-22 一种基于光探针插值动态计算间接反射高光的渲染方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610464636.0A CN106204701B (zh) 2016-06-22 2016-06-22 一种基于光探针插值动态计算间接反射高光的渲染方法

Publications (2)

Publication Number Publication Date
CN106204701A CN106204701A (zh) 2016-12-07
CN106204701B true CN106204701B (zh) 2019-04-30

Family

ID=57461447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610464636.0A Active CN106204701B (zh) 2016-06-22 2016-06-22 一种基于光探针插值动态计算间接反射高光的渲染方法

Country Status (1)

Country Link
CN (1) CN106204701B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633549B (zh) * 2017-10-13 2021-02-09 苏州蜗牛数字科技股份有限公司 一种基于环境光照探针的实时渲染方法及装置
CN110193193B (zh) * 2019-06-10 2022-10-04 网易(杭州)网络有限公司 游戏场景的渲染方法和装置
CN110992466B (zh) * 2019-12-05 2021-05-18 腾讯科技(深圳)有限公司 光照探针生成方法、装置、存储介质和计算机设备
CN112712582B (zh) * 2021-01-19 2024-03-05 广州虎牙信息科技有限公司 动态全局光照方法、电子设备及计算机可读存储介质
CN114549723A (zh) * 2021-03-30 2022-05-27 完美世界(北京)软件科技发展有限公司 游戏场景中光照信息的渲染方法、装置及设备
CN115131482A (zh) * 2021-03-30 2022-09-30 完美世界(北京)软件科技发展有限公司 游戏场景中光照信息的渲染方法、装置及设备
CN116797675A (zh) * 2022-03-15 2023-09-22 华为技术有限公司 探针数据的处理和编码方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105261059A (zh) * 2015-09-18 2016-01-20 浙江大学 一种基于在屏幕空间计算间接反射高光的渲染方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11258047A (ja) * 1998-03-13 1999-09-24 Matsushita Electric Ind Co Ltd 照明ランプの演色性評価方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105261059A (zh) * 2015-09-18 2016-01-20 浙江大学 一种基于在屏幕空间计算间接反射高光的渲染方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Research of global illumination algorithms rendering in glossy scene;BAI Shuangxue等;《Computer Aided Drafting,Design and Manufacturing》;20120915;第22卷(第3期);第23-34页
基于图像的三维高光物体双向反射分布函数测量;王秋实等;《系统仿真学报》;20080608;第20卷(第11期);第2931-2934页

Also Published As

Publication number Publication date
CN106204701A (zh) 2016-12-07

Similar Documents

Publication Publication Date Title
CN106204701B (zh) 一种基于光探针插值动态计算间接反射高光的渲染方法
CN107945267B (zh) 一种用于人脸三维模型纹理融合的方法和设备
Filip et al. Bidirectional texture function modeling: A state of the art survey
US6677956B2 (en) Method for cross-fading intensities of multiple images of a scene for seamless reconstruction
JP4335588B2 (ja) 3dオブジェクトをモデル化する方法
US20030034976A1 (en) System and method for registering multiple images with three-dimensional objects
US20030034974A1 (en) System and method for animating real objects with projected images
CN109410310A (zh) 一种基于深度学习网络的实时光照渲染算法
Wu et al. Scalable neural indoor scene rendering
Yao et al. Multi‐image based photon tracing for interactive global illumination of dynamic scenes
Xu et al. Survey of 3D modeling using depth cameras
De Paolis et al. Photogrammetric 3D reconstruction of small objects for a real-time fruition
Franke Delta light propagation volumes for mixed reality
Boom et al. Interactive light source position estimation for augmented reality with an RGB‐D camera
Davis et al. Interactive refractions with total internal reflection
JP4335589B2 (ja) 3dオブジェクトをモデル化する方法
Kunert et al. Efficient point cloud rasterization for real time volumetric integration in mixed reality applications
Guo et al. Mesh-guided optimized retexturing for image and video
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?
Lee et al. A SAR-based interactive digital exhibition of Korean cultural artifacts
Waschbüsch et al. Interactive 3d video editing
CN117058301B (zh) 一种基于延迟着色的针织物实时渲染方法
Guo et al. Real-time multi-scale refraction under all-frequency environmental lighting
Yang et al. Light sampling field and BRDF representation for physically-based neural rendering
Krumpen et al. OctreeBTFs–A compact, seamless and distortion-free reflectance representation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant