CN113129420A - 一种基于深度缓冲加速的光线追踪渲染方法 - Google Patents

一种基于深度缓冲加速的光线追踪渲染方法 Download PDF

Info

Publication number
CN113129420A
CN113129420A CN202110397519.8A CN202110397519A CN113129420A CN 113129420 A CN113129420 A CN 113129420A CN 202110397519 A CN202110397519 A CN 202110397519A CN 113129420 A CN113129420 A CN 113129420A
Authority
CN
China
Prior art keywords
texture
depth
ray tracing
information
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110397519.8A
Other languages
English (en)
Other versions
CN113129420B (zh
Inventor
邹刘磊
谈欣
孙哲元
朱洪锦
范洪辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University of Technology
Original Assignee
Jiangsu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University of Technology filed Critical Jiangsu University of Technology
Priority to CN202110397519.8A priority Critical patent/CN113129420B/zh
Publication of CN113129420A publication Critical patent/CN113129420A/zh
Application granted granted Critical
Publication of CN113129420B publication Critical patent/CN113129420B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于深度缓冲加速的光线追踪渲染方法,其技术方案要点是:包括光栅化和光线追踪;所述光栅化具体包括以下步骤:S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;本方法利用光栅化管线中深度缓冲加速光线追踪技术,为局部光照与全局光照两者结合提供了新的可能。

Description

一种基于深度缓冲加速的光线追踪渲染方法
技术领域
本发明涉及计算机图形学中全局光照领域,特别涉及一种基于深度缓冲加速的光线追踪渲染方法。
背景技术
游戏与影视等应用中,光线追踪是一项常见的渲染技术,其通过模拟光线与场景中物体的交互以实现图像的绘制。但是,由于需要沿着光线的传播途径,对每一次的阴影、折射、反射、次表面散射等光学现象进行模拟,对硬件要求极高,使得每一帧的渲染都将消耗大量时间。所以在很长一段时间内,该类技术并未应用于实时渲染之中,实时渲染应用都以光栅化体系为主导。相比光线追踪,光栅化的实质是将场景中物体的几何信息映射为由若干的栅格组合成的平面图像的过程,在现有显卡的渲染管线加速下,其运算速度极快。采用光栅化渲染三维场景时,对于每一个像素由于无法避免场景中会出现物体在画面中重叠的现象,其对应几何物体的深度会存储在深度缓冲区中,并通过比较两个物体重叠部分的深度值决定画面上呈现的颜色。对于阴影、折射、反射等不同光学现象的模拟,使用光栅化渲染时必须单独处理每一个效果,并且常见的屏幕空间反射、全局光照等大量技术,正在挑战着光栅化框架的极限。
2018年3月在旧金山举办的GDC大会上,NVIDIA公布了RTX技术,试图将光线追踪应用于实时渲染之中,并引起实时渲染领域的巨大变革。同年8月,NVIDIA公开了民用级的光线追踪显卡架构——Turing,并公开了相应的显卡RTX 2080Ti。AMD也于3月的GDC发布了相应的基于软件的实时光线追踪技术,并于2019年3月的GDC公开了基于GPU的光线追踪。2020年5月GTC大会上,NVIDIA公开了Ampere架构,对实时光线追踪提供了进一步的支持。此外,AMD的RDNA2架构也已支持实时光线追踪。光线追踪在硬件层面得到了支持,其有效地填补了光栅化体系中的大量的技术空白。
但是,即使得到了硬件加速,光线追踪技术仍然面临严峻的性能问题,短期之内仍需光栅化与光线追踪两者结合使用。
发明内容
针对背景技术中提到的问题,本发明的目的是提供一种基于深度缓冲加速的光线追踪渲染方法,以解决背景技术中提到的问题。
本发明的上述技术目的是通过以下技术方案得以实现的:
一种基于深度缓冲加速的光线追踪渲染方法,包括光栅化和光线追踪;
所述光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
所述光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
较佳的,所述S1中所建立的纹理的大小在纹理行和列上像素数量与最终图像Result相同或两者为整数倍关系。
较佳的,所述S1至S8中使用GPU并行计算,所述S1至S4运行于光栅化管线中,所述S5至S8运行于光线追踪管线中。
较佳的,所述S8运行结束后的图像Result即为最终渲染的图像,最终渲染的图像的精度由S5中的迭代次数与S1中Texture的大小决定,最终渲染的图像的具体值的设定依据不同的使用场景决定。
较佳的,所述深度值计算时根据所述深度纹理信息和像素点视口坐标得到世界坐标,根据所述深度纹理信息计算所述待融合场景的像素点的深度值。
较佳的,所述光栅化管线中采用纹理映射得到每个像素的纹理值,先记录纹理图中的查询坐标,然后通过数值插值得到每个像素的纹理图坐标,最后查询纹理图得到该像素的纹理信息,之后将纹理信息带入到光照模型中得到最终的光照信息。
较佳的,所述光线追踪管线包括固定管线与可编程管线。
较佳的,所述光线追踪管线包括:定义几何数据、贴图、材质、灯光信息描述场景的数据,以Buffer和Texture的形式上传这些数据到VRAM;之后定义如何绘制模型的着色器;之后通过Root Signature定义Shader的形参,并使用PSO完成整个管线的配置;再通过各类数据的访问视图规范化数据的访问形式,把其中的一些View绑定给shader作为它们的实参;之后调用DrawXXX的命令完成一次Draw Call。
综上所述,本发明主要具有以下有益效果:
本发明利用光栅化管线,将图元快速投影到平面,并获得对应深度值,像素对应的深度值即可转化为像素到三维场景中最近碰撞点的距离,根据对应深度值即可对后续路径进行光线追踪计算。该方法利用光栅化管线中深度缓冲加速光线追踪技术,为局部光照与全局光照两者结合提供了新的可能。
附图说明
图1是基于深度缓冲加速的光线追踪渲染方法的示意图;
图2是基于深度缓冲加速的光线追踪渲染方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
参考图1和图2,一种基于深度缓冲加速的光线追踪渲染方法,包括光栅化和光线追踪;
光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
本发明采用了光栅化和光线追踪两个流程,在光栅化的过程中利用光栅化管线,将图元快速投影到平面,并获得对应深度值,像素对应的深度值即可转化为像素到三维场景中最近碰撞点的距离,根据对应深度值即可对后续路径进行光线追踪计算;通过采用S1.建立图像Result、纹理Texture、S2.计算深度值、S3.处理图像中背景位置颜色、S4.将深度值转换为碰撞点位置Point,并存储至Texture等步骤能够完成光栅化,能够方便后续光线追踪计算。
本发明利用光栅化管线中深度缓冲加速光线追踪技术,为局部光照与全局光照两者结合提供了新的可能,通过S6.计算光线散射方向、S7.计算Point对图像贡献,并存储至Result、S8.计算下一个碰撞点,并替换Texture中信息,并循环执行能够保证光线追踪过程处于稳定状态。
实施例2
一种基于深度缓冲加速的光线追踪渲染方法,包括光栅化和光线追踪;
光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
其中,S1中所建立的纹理的大小在纹理行和列上像素数量与最终图像Result相同或两者为整数倍关系。
其中,S1至S8中使用GPU并行计算,S1至S4运行于光栅化管线中,S5至S8运行于光线追踪管线中。
其中,S8运行结束后的图像Result即为最终渲染的图像,最终渲染的图像的精度由S5中的迭代次数与S1中Texture的大小决定,最终渲染的图像的具体值的设定依据不同的使用场景决定。
其中,深度值计算时根据深度纹理信息和像素点视口坐标得到世界坐标,根据深度纹理信息计算待融合场景的像素点的深度值。
其中,光栅化管线中采用纹理映射得到每个像素的纹理值,先记录纹理图中的查询坐标,然后通过数值插值得到每个像素的纹理图坐标,最后查询纹理图得到该像素的纹理信息,之后将纹理信息带入到光照模型中得到最终的光照信息。
其中,光线追踪管线包括固定管线与可编程管线。
其中,光线追踪管线包括:定义几何数据、贴图、材质、灯光信息描述场景的数据,以Buffer和Texture的形式上传这些数据到VRAM;之后定义如何绘制模型的着色器;之后通过Root Signature定义Shader的形参,并使用PSO完成整个管线的配置;再通过各类数据的访问视图规范化数据的访问形式,把其中的一些View绑定给shader作为它们的实参;之后调用DrawXXX的命令完成一次Draw Call。
其中纹理Texture是由一些基元以某种方式组合起来,使用高斯偏导核,对图像进行卷积,x方向的偏导得到的是竖直纹理,y方向的偏导得到的是水平纹理,通过统计各个方向的纹理数量在图中表示出来,不同的区域映射的是不同的纹理特性;如常见的K均值聚类中距离显示了窗口a的纹理和窗口b的纹理有多么不同,在图像中往往不知道选取多大的高斯偏导核来对图像进行描述,通过寻找纹理描述不变的窗口比例来进行比例选择,由小到大不断改变窗口的大小,直至增大的窗口纹理特性不再改变;并可以通过滤波器组描述不同方向,不同类型(边状,条状,点)的纹理特性,通过设置斜方差矩阵Σ\SigmaΣ,改变高斯核的形状,利用不同的核卷积图像,将响应结果与纹理匹配,将对应卷积核的响应结果求均值,所得的结果组成一个7维向量,每个向量对应一个纹理。
线性变换意味着可以将空间中的向量围绕零点进行旋转伸缩,但不能将其弯曲,否则则是非线性变化。线性变换意味着可以将空间中的向量围绕零点进行旋转伸缩,但不能将其弯曲,否则则是非线性变化。线性变换意味着可以将空间中的向量围绕零点进行旋转伸缩,但不能将其弯曲,否则则是非线性变化。同质性和可加性又称为线性条件,满足该条件则为线性变换,反之则为非线性变换,本发明在计算深度值时采用了线性变换。
其中在S3处理图像中背景位置颜色时,可采取以下代码:
Figure BDA0003019103100000081
Figure BDA0003019103100000091
Figure BDA0003019103100000101
Figure BDA0003019103100000111
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (8)

1.一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:包括光栅化和光线追踪;
所述光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
所述光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
2.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述S1中所建立的纹理的大小在纹理行和列上像素数量与最终图像Result相同或两者为整数倍关系。
3.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述S1至S8中使用GPU并行计算,所述S1至S4运行于光栅化管线中,所述S5至S8运行于光线追踪管线中。
4.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述S8运行结束后的图像Result即为最终渲染的图像,最终渲染的图像的精度由S5中的迭代次数与S1中Texture的大小决定,最终渲染的图像的具体值的设定依据不同的使用场景决定。
5.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述深度值计算时根据所述深度纹理信息和像素点视口坐标得到世界坐标,根据所述深度纹理信息计算所述待融合场景的像素点的深度值。
6.根据权利要求3所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述光栅化管线中采用纹理映射得到每个像素的纹理值,先记录纹理图中的查询坐标,然后通过数值插值得到每个像素的纹理图坐标,最后查询纹理图得到该像素的纹理信息,之后将纹理信息带入到光照模型中得到最终的光照信息。
7.根据权利要求3所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述光线追踪管线包括固定管线与可编程管线。
8.根据权利要求3所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述光线追踪管线包括:定义几何数据、贴图、材质、灯光信息描述场景的数据,以Buffer和Texture的形式上传这些数据到VRAM;之后定义如何绘制模型的着色器;之后通过RootSignature定义Shader的形参,并使用PSO完成整个管线的配置;再通过各类数据的访问视图规范化数据的访问形式,把其中的一些View绑定给shader作为它们的实参;之后调用DrawXXX的命令完成一次Draw Call。
CN202110397519.8A 2021-04-14 2021-04-14 一种基于深度缓冲加速的光线追踪渲染方法 Active CN113129420B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110397519.8A CN113129420B (zh) 2021-04-14 2021-04-14 一种基于深度缓冲加速的光线追踪渲染方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110397519.8A CN113129420B (zh) 2021-04-14 2021-04-14 一种基于深度缓冲加速的光线追踪渲染方法

Publications (2)

Publication Number Publication Date
CN113129420A true CN113129420A (zh) 2021-07-16
CN113129420B CN113129420B (zh) 2023-06-23

Family

ID=76776203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110397519.8A Active CN113129420B (zh) 2021-04-14 2021-04-14 一种基于深度缓冲加速的光线追踪渲染方法

Country Status (1)

Country Link
CN (1) CN113129420B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116109756A (zh) * 2023-04-13 2023-05-12 腾讯科技(深圳)有限公司 光线追踪方法、装置、设备及存储介质
CN117058598A (zh) * 2023-10-12 2023-11-14 深圳云天畅想信息科技有限公司 云视频帧高质量优化方法、装置及计算机设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007017391A1 (en) * 2005-08-11 2007-02-15 International Business Machines Corporation System and method for ray tracing with depth buffered display
CN104200509A (zh) * 2014-08-19 2014-12-10 山东大学 一种基于点缓存的光子映射加速方法
CN104331918A (zh) * 2014-10-21 2015-02-04 无锡梵天信息技术股份有限公司 基于深度图实时绘制室外地表遮挡剔除以及加速方法
CN107341853A (zh) * 2017-07-13 2017-11-10 河北中科恒运软件科技股份有限公司 超大虚拟场景和动态摄屏的虚实融合方法及系统
CN108090947A (zh) * 2018-01-03 2018-05-29 沈阳品尚科技有限公司 一种面向3d场景的光线追踪优化方法
CN109410310A (zh) * 2018-10-30 2019-03-01 安徽虚空位面信息科技有限公司 一种基于深度学习网络的实时光照渲染算法
CN112116693A (zh) * 2020-08-20 2020-12-22 中山大学 一种基于cpu的生物分子可视化光线追踪渲染方法
CN112184922A (zh) * 2020-10-15 2021-01-05 洛阳众智软件科技股份有限公司 二维视频与三维场景的融合方法、装置、设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007017391A1 (en) * 2005-08-11 2007-02-15 International Business Machines Corporation System and method for ray tracing with depth buffered display
US20070035544A1 (en) * 2005-08-11 2007-02-15 Fossum Gordon C System and method for ray tracing with depth buffered display
CN104200509A (zh) * 2014-08-19 2014-12-10 山东大学 一种基于点缓存的光子映射加速方法
CN104331918A (zh) * 2014-10-21 2015-02-04 无锡梵天信息技术股份有限公司 基于深度图实时绘制室外地表遮挡剔除以及加速方法
CN107341853A (zh) * 2017-07-13 2017-11-10 河北中科恒运软件科技股份有限公司 超大虚拟场景和动态摄屏的虚实融合方法及系统
CN108090947A (zh) * 2018-01-03 2018-05-29 沈阳品尚科技有限公司 一种面向3d场景的光线追踪优化方法
CN109410310A (zh) * 2018-10-30 2019-03-01 安徽虚空位面信息科技有限公司 一种基于深度学习网络的实时光照渲染算法
CN112116693A (zh) * 2020-08-20 2020-12-22 中山大学 一种基于cpu的生物分子可视化光线追踪渲染方法
CN112184922A (zh) * 2020-10-15 2021-01-05 洛阳众智软件科技股份有限公司 二维视频与三维场景的融合方法、装置、设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
TINYZHAO: "图形学笔记:光栅化图形管线", 《HTTPS://BLOG.CSDN.NET/TINYZHAO/ARTICLE/DETAILS/54561646》 *
洛城: "一篇光线追踪的入门", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/41269520?UTM_SOURCE=QZONE》 *
秦志强等: "集成成像光场计算方法研究进展", 《科技传播》 *
邹刘磊等: "一种空间数据结构加速的顶点与地形实时交互算法", 《江苏理工学院学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116109756A (zh) * 2023-04-13 2023-05-12 腾讯科技(深圳)有限公司 光线追踪方法、装置、设备及存储介质
CN117058598A (zh) * 2023-10-12 2023-11-14 深圳云天畅想信息科技有限公司 云视频帧高质量优化方法、装置及计算机设备
CN117058598B (zh) * 2023-10-12 2023-12-22 深圳云天畅想信息科技有限公司 云视频帧高质量优化方法、装置及计算机设备

Also Published As

Publication number Publication date
CN113129420B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
US20230053462A1 (en) Image rendering method and apparatus, device, medium, and computer program product
Woo et al. A survey of shadow algorithms
US7554540B2 (en) System and method of visible surface determination in computer graphics using interval analysis
CN111508052B (zh) 三维网格体的渲染方法和装置
JP2009525526A (ja) ビーム放出によって仮想画像を合成するための方法
US9589386B2 (en) System and method for display of a repeating texture stored in a texture atlas
Greß et al. GPU‐based collision detection for deformable parameterized surfaces
CN110383337A (zh) 可变速率着色
CN113674389B (zh) 场景渲染方法、装置、电子设备及存储介质
TW201015490A (en) Method and system for rendering 3D model of 3D object
CN108805971B (zh) 一种环境光遮蔽方法
Liang et al. Visualizing 3D atmospheric data with spherical volume texture on virtual globes
CN101599181A (zh) 一种代数b样条曲面的实时绘制方法
CN113129420B (zh) 一种基于深度缓冲加速的光线追踪渲染方法
CN102096907A (zh) 图像处理技术
CN103544731B (zh) 一种基于多相机的快速反射绘制方法
WO2006115716A2 (en) System and method of visible surface determination in computer graphics using interval analysis
Eisemann et al. Visibility sampling on gpu and applications
Neophytou et al. GPU-Accelerated Volume Splatting With Elliptical RBFs.
Ohkawara et al. Experiencing GPU path tracing in online courses
Fernández-Palacios et al. Augmented reality for archaeological finds
Zhang et al. When a tree model meets texture baking: an approach for quality-preserving lightweight visualization in virtual 3D scene construction
WILLCOCKS Sparse volumetric deformation
CN116993894B (zh) 虚拟画面的生成方法、装置、设备、存储介质及程序产品
Shihan et al. Adaptive volumetric light and atmospheric scattering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant