CN113129420B - 一种基于深度缓冲加速的光线追踪渲染方法 - Google Patents
一种基于深度缓冲加速的光线追踪渲染方法 Download PDFInfo
- Publication number
- CN113129420B CN113129420B CN202110397519.8A CN202110397519A CN113129420B CN 113129420 B CN113129420 B CN 113129420B CN 202110397519 A CN202110397519 A CN 202110397519A CN 113129420 B CN113129420 B CN 113129420B
- Authority
- CN
- China
- Prior art keywords
- texture
- depth
- ray tracing
- calculating
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
Abstract
本发明公开了一种基于深度缓冲加速的光线追踪渲染方法,其技术方案要点是:包括光栅化和光线追踪;所述光栅化具体包括以下步骤:S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;本方法利用光栅化管线中深度缓冲加速光线追踪技术,为局部光照与全局光照两者结合提供了新的可能。
Description
技术领域
本发明涉及计算机图形学中全局光照领域,特别涉及一种基于深度缓冲加速的光线追踪渲染方法。
背景技术
游戏与影视等应用中,光线追踪是一项常见的渲染技术,其通过模拟光线与场景中物体的交互以实现图像的绘制。但是,由于需要沿着光线的传播途径,对每一次的阴影、折射、反射、次表面散射等光学现象进行模拟,对硬件要求极高,使得每一帧的渲染都将消耗大量时间。所以在很长一段时间内,该类技术并未应用于实时渲染之中,实时渲染应用都以光栅化体系为主导。相比光线追踪,光栅化的实质是将场景中物体的几何信息映射为由若干的栅格组合成的平面图像的过程,在现有显卡的渲染管线加速下,其运算速度极快。采用光栅化渲染三维场景时,对于每一个像素由于无法避免场景中会出现物体在画面中重叠的现象,其对应几何物体的深度会存储在深度缓冲区中,并通过比较两个物体重叠部分的深度值决定画面上呈现的颜色。对于阴影、折射、反射等不同光学现象的模拟,使用光栅化渲染时必须单独处理每一个效果,并且常见的屏幕空间反射、全局光照等大量技术,正在挑战着光栅化框架的极限。
2018年3月在旧金山举办的GDC大会上,NVIDIA公布了RTX技术,试图将光线追踪应用于实时渲染之中,并引起实时渲染领域的巨大变革。同年8月,NVIDIA公开了民用级的光线追踪显卡架构——Turing,并公开了相应的显卡RTX 2080Ti。AMD也于3月的GDC发布了相应的基于软件的实时光线追踪技术,并于2019年3月的GDC公开了基于GPU的光线追踪。2020年5月GTC大会上,NVIDIA公开了Ampere架构,对实时光线追踪提供了进一步的支持。此外,AMD的RDNA2架构也已支持实时光线追踪。光线追踪在硬件层面得到了支持,其有效地填补了光栅化体系中的大量的技术空白。
但是,即使得到了硬件加速,光线追踪技术仍然面临严峻的性能问题,短期之内仍需光栅化与光线追踪两者结合使用。
发明内容
针对背景技术中提到的问题,本发明的目的是提供一种基于深度缓冲加速的光线追踪渲染方法,以解决背景技术中提到的问题。
本发明的上述技术目的是通过以下技术方案得以实现的:
一种基于深度缓冲加速的光线追踪渲染方法,包括光栅化和光线追踪;
所述光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
所述光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
较佳的,所述S1中所建立的纹理的大小在纹理行和列上像素数量与最终图像Result相同或两者为整数倍关系。
较佳的,所述S1至S8中使用GPU并行计算,所述S1至S4运行于光栅化管线中,所述S5至S8运行于光线追踪管线中。
较佳的,所述S8运行结束后的图像Result即为最终渲染的图像,最终渲染的图像的精度由S5中的迭代次数与S1中Texture的大小决定,最终渲染的图像的具体值的设定依据不同的使用场景决定。
较佳的,所述深度值计算时根据所述深度纹理信息和像素点视口坐标得到世界坐标,根据所述深度纹理信息计算所述待融合场景的像素点的深度值。
较佳的,所述光栅化管线中采用纹理映射得到每个像素的纹理值,先记录纹理图中的查询坐标,然后通过数值插值得到每个像素的纹理图坐标,最后查询纹理图得到该像素的纹理信息,之后将纹理信息带入到光照模型中得到最终的光照信息。
较佳的,所述光线追踪管线包括固定管线与可编程管线。
较佳的,所述光线追踪管线包括:定义几何数据、贴图、材质、灯光信息描述场景的数据,以Buffer和Texture的形式上传这些数据到VRAM;之后定义如何绘制模型的着色器;之后通过Root Signature定义Shader的形参,并使用PSO完成整个管线的配置;再通过各类数据的访问视图规范化数据的访问形式,把其中的一些View绑定给shader作为它们的实参;之后调用DrawXXX的命令完成一次Draw Call。
综上所述,本发明主要具有以下有益效果:
本发明利用光栅化管线,将图元快速投影到平面,并获得对应深度值,像素对应的深度值即可转化为像素到三维场景中最近碰撞点的距离,根据对应深度值即可对后续路径进行光线追踪计算。该方法利用光栅化管线中深度缓冲加速光线追踪技术,为局部光照与全局光照两者结合提供了新的可能。
附图说明
图1是基于深度缓冲加速的光线追踪渲染方法的示意图;
图2是基于深度缓冲加速的光线追踪渲染方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
参考图1和图2,一种基于深度缓冲加速的光线追踪渲染方法,包括光栅化和光线追踪;
光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
本发明采用了光栅化和光线追踪两个流程,在光栅化的过程中利用光栅化管线,将图元快速投影到平面,并获得对应深度值,像素对应的深度值即可转化为像素到三维场景中最近碰撞点的距离,根据对应深度值即可对后续路径进行光线追踪计算;通过采用S1.建立图像Result、纹理Texture、S2.计算深度值、S3.处理图像中背景位置颜色、S4.将深度值转换为碰撞点位置Point,并存储至Texture等步骤能够完成光栅化,能够方便后续光线追踪计算。
本发明利用光栅化管线中深度缓冲加速光线追踪技术,为局部光照与全局光照两者结合提供了新的可能,通过S6.计算光线散射方向、S7.计算Point对图像贡献,并存储至Result、S8.计算下一个碰撞点,并替换Texture中信息,并循环执行能够保证光线追踪过程处于稳定状态。
实施例2
一种基于深度缓冲加速的光线追踪渲染方法,包括光栅化和光线追踪;
光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
其中,S1中所建立的纹理的大小在纹理行和列上像素数量与最终图像Result相同或两者为整数倍关系。
其中,S1至S8中使用GPU并行计算,S1至S4运行于光栅化管线中,S5至S8运行于光线追踪管线中。
其中,S8运行结束后的图像Result即为最终渲染的图像,最终渲染的图像的精度由S5中的迭代次数与S1中Texture的大小决定,最终渲染的图像的具体值的设定依据不同的使用场景决定。
其中,深度值计算时根据深度纹理信息和像素点视口坐标得到世界坐标,根据深度纹理信息计算待融合场景的像素点的深度值。
其中,光栅化管线中采用纹理映射得到每个像素的纹理值,先记录纹理图中的查询坐标,然后通过数值插值得到每个像素的纹理图坐标,最后查询纹理图得到该像素的纹理信息,之后将纹理信息带入到光照模型中得到最终的光照信息。
其中,光线追踪管线包括固定管线与可编程管线。
其中,光线追踪管线包括:定义几何数据、贴图、材质、灯光信息描述场景的数据,以Buffer和Texture的形式上传这些数据到VRAM;之后定义如何绘制模型的着色器;之后通过Root Signature定义Shader的形参,并使用PSO完成整个管线的配置;再通过各类数据的访问视图规范化数据的访问形式,把其中的一些View绑定给shader作为它们的实参;之后调用DrawXXX的命令完成一次Draw Call。
其中纹理Texture是由一些基元以某种方式组合起来,使用高斯偏导核,对图像进行卷积,x方向的偏导得到的是竖直纹理,y方向的偏导得到的是水平纹理,通过统计各个方向的纹理数量在图中表示出来,不同的区域映射的是不同的纹理特性;如常见的K均值聚类中距离显示了窗口a的纹理和窗口b的纹理有多么不同,在图像中往往不知道选取多大的高斯偏导核来对图像进行描述,通过寻找纹理描述不变的窗口比例来进行比例选择,由小到大不断改变窗口的大小,直至增大的窗口纹理特性不再改变;并可以通过滤波器组描述不同方向,不同类型(边状,条状,点)的纹理特性,通过设置斜方差矩阵Σ\SigmaΣ,改变高斯核的形状,利用不同的核卷积图像,将响应结果与纹理匹配,将对应卷积核的响应结果求均值,所得的结果组成一个7维向量,每个向量对应一个纹理。
线性变换意味着可以将空间中的向量围绕零点进行旋转伸缩,但不能将其弯曲,否则则是非线性变化。线性变换意味着可以将空间中的向量围绕零点进行旋转伸缩,但不能将其弯曲,否则则是非线性变化。线性变换意味着可以将空间中的向量围绕零点进行旋转伸缩,但不能将其弯曲,否则则是非线性变化。同质性和可加性又称为线性条件,满足该条件则为线性变换,反之则为非线性变换,本发明在计算深度值时采用了线性变换。
其中在S3处理图像中背景位置颜色时,可采取以下代码:
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (6)
1.一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:包括光栅化和光线追踪;
所述光栅化具体包括以下步骤:
S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;
S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;
S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;
S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1)的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;
所述光线追踪具体包括:
对于任意一个Texture中深度值不为1的像素,执行以下步骤:
S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;
S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;
S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;
S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息;
所述深度值计算时根据深度纹理信息和像素点视口坐标得到世界坐标,根据所述深度纹理信息计算待融合场景的像素点的深度值;
所述S1至S8中使用GPU并行计算,所述S1至S4运行于光栅化管线中,所述S5至S8运行于光线追踪管线中。
2.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述S1中所建立的纹理的大小在纹理行和列上像素数量与最终图像Result相同或两者为整数倍关系。
3.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述S8运行结束后的图像Result即为最终渲染的图像,最终渲染的图像的精度由S5中的迭代次数与S1中Texture的大小决定,最终渲染的图像的具体值的设定依据不同的使用场景决定。
4.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述光栅化管线中采用纹理映射得到每个像素的纹理值,先记录纹理图中的查询坐标,然后通过数值插值得到每个像素的纹理图坐标,最后查询纹理图得到该像素的纹理信息,之后将纹理信息带入到光照模型中得到最终的光照信息。
5.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述光线追踪管线包括固定管线与可编程管线。
6.根据权利要求1所述的一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:所述光线追踪管线包括:定义几何数据、贴图、材质、灯光信息描述场景的数据,以Buffer和Texture的形式上传这些数据到VRAM;之后定义如何绘制模型的着色器;之后通过RootSignature定义Shader的形参,并使用PSO完成整个管线的配置;再通过各类数据的访问视图规范化数据的访问形式,把其中的一些View绑定给shader作为它们的实参;之后调用DrawXXX的命令完成一次Draw Call。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110397519.8A CN113129420B (zh) | 2021-04-14 | 2021-04-14 | 一种基于深度缓冲加速的光线追踪渲染方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110397519.8A CN113129420B (zh) | 2021-04-14 | 2021-04-14 | 一种基于深度缓冲加速的光线追踪渲染方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129420A CN113129420A (zh) | 2021-07-16 |
CN113129420B true CN113129420B (zh) | 2023-06-23 |
Family
ID=76776203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110397519.8A Active CN113129420B (zh) | 2021-04-14 | 2021-04-14 | 一种基于深度缓冲加速的光线追踪渲染方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129420B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109756B (zh) * | 2023-04-13 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 光线追踪方法、装置、设备及存储介质 |
CN117058598B (zh) * | 2023-10-12 | 2023-12-22 | 深圳云天畅想信息科技有限公司 | 云视频帧高质量优化方法、装置及计算机设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007017391A1 (en) * | 2005-08-11 | 2007-02-15 | International Business Machines Corporation | System and method for ray tracing with depth buffered display |
CN104200509A (zh) * | 2014-08-19 | 2014-12-10 | 山东大学 | 一种基于点缓存的光子映射加速方法 |
CN104331918A (zh) * | 2014-10-21 | 2015-02-04 | 无锡梵天信息技术股份有限公司 | 基于深度图实时绘制室外地表遮挡剔除以及加速方法 |
CN107341853A (zh) * | 2017-07-13 | 2017-11-10 | 河北中科恒运软件科技股份有限公司 | 超大虚拟场景和动态摄屏的虚实融合方法及系统 |
CN108090947A (zh) * | 2018-01-03 | 2018-05-29 | 沈阳品尚科技有限公司 | 一种面向3d场景的光线追踪优化方法 |
CN109410310A (zh) * | 2018-10-30 | 2019-03-01 | 安徽虚空位面信息科技有限公司 | 一种基于深度学习网络的实时光照渲染算法 |
CN112116693A (zh) * | 2020-08-20 | 2020-12-22 | 中山大学 | 一种基于cpu的生物分子可视化光线追踪渲染方法 |
CN112184922A (zh) * | 2020-10-15 | 2021-01-05 | 洛阳众智软件科技股份有限公司 | 二维视频与三维场景的融合方法、装置、设备及存储介质 |
-
2021
- 2021-04-14 CN CN202110397519.8A patent/CN113129420B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007017391A1 (en) * | 2005-08-11 | 2007-02-15 | International Business Machines Corporation | System and method for ray tracing with depth buffered display |
CN104200509A (zh) * | 2014-08-19 | 2014-12-10 | 山东大学 | 一种基于点缓存的光子映射加速方法 |
CN104331918A (zh) * | 2014-10-21 | 2015-02-04 | 无锡梵天信息技术股份有限公司 | 基于深度图实时绘制室外地表遮挡剔除以及加速方法 |
CN107341853A (zh) * | 2017-07-13 | 2017-11-10 | 河北中科恒运软件科技股份有限公司 | 超大虚拟场景和动态摄屏的虚实融合方法及系统 |
CN108090947A (zh) * | 2018-01-03 | 2018-05-29 | 沈阳品尚科技有限公司 | 一种面向3d场景的光线追踪优化方法 |
CN109410310A (zh) * | 2018-10-30 | 2019-03-01 | 安徽虚空位面信息科技有限公司 | 一种基于深度学习网络的实时光照渲染算法 |
CN112116693A (zh) * | 2020-08-20 | 2020-12-22 | 中山大学 | 一种基于cpu的生物分子可视化光线追踪渲染方法 |
CN112184922A (zh) * | 2020-10-15 | 2021-01-05 | 洛阳众智软件科技股份有限公司 | 二维视频与三维场景的融合方法、装置、设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
一种空间数据结构加速的顶点与地形实时交互算法;邹刘磊等;《江苏理工学院学报》;第25卷(第2期);49-53 * |
一篇光线追踪的入门;洛城;《https://zhuanlan.zhihu.com/p/41269520?utm_source=qzone》;1-20 * |
图形学笔记:光栅化图形管线;tinyzhao;《https://blog.csdn.net/tinyzhao/article/details/54561646》;1-8 * |
Also Published As
Publication number | Publication date |
---|---|
CN113129420A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111508052B (zh) | 三维网格体的渲染方法和装置 | |
US7362332B2 (en) | System and method of simulating motion blur efficiently | |
US8411087B2 (en) | Non-linear beam tracing for computer graphics | |
US9589386B2 (en) | System and method for display of a repeating texture stored in a texture atlas | |
JP2009525526A (ja) | ビーム放出によって仮想画像を合成するための方法 | |
US7843463B1 (en) | System and method for bump mapping setup | |
US9582929B2 (en) | Dynamic skydome system | |
CN113129420B (zh) | 一种基于深度缓冲加速的光线追踪渲染方法 | |
CN102096907A (zh) | 图像处理技术 | |
CN115205492A (zh) | 一种激光束对三维模型实时映射的方法和装置 | |
US5793372A (en) | Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points | |
Ohkawara et al. | Experiencing GPU path tracing in online courses | |
Neophytou et al. | GPU-Accelerated Volume Splatting With Elliptical RBFs. | |
Doggett et al. | Displacement mapping using scan conversion hardware architectures | |
Fernández-Palacios et al. | Augmented reality for archaeological finds | |
CN112802165B (zh) | 游戏场景积雪渲染方法、装置及介质 | |
Stemkoski et al. | Developing Graphics Frameworks with Java and OpenGL | |
Fernandes et al. | Gpu tessellation: We still have a LOD of terrain to cover | |
Congote et al. | Volume ray casting in WebGL | |
CN116993894B (zh) | 虚拟画面的生成方法、装置、设备、存储介质及程序产品 | |
US20110074777A1 (en) | Method For Displaying Intersections And Expansions of Three Dimensional Volumes | |
Wang et al. | Ray Tracing Acceleration Algorithm Based on FaceMap | |
Guo et al. | Research of graphics acceleration based on embedded system | |
Romanyuk et al. | Ways to improve performance of anisotropic texture filtering | |
Shihan et al. | Adaptive volumetric light and atmospheric scattering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |