CN110751714B - 三维场景渲染中基于对象判别的间接光照复用方法 - Google Patents
三维场景渲染中基于对象判别的间接光照复用方法 Download PDFInfo
- Publication number
- CN110751714B CN110751714B CN201910983610.0A CN201910983610A CN110751714B CN 110751714 B CN110751714 B CN 110751714B CN 201910983610 A CN201910983610 A CN 201910983610A CN 110751714 B CN110751714 B CN 110751714B
- Authority
- CN
- China
- Prior art keywords
- pixel
- indirect illumination
- virtual
- value
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
Abstract
本发明公开一种三维场景渲染中基于对象判别的间接光照复用方法。本方法在复用虚拟像素平面上的像素的间接光照结果时,只复用那些属于同一个几何对象的可视场景点对应像素的间接光照,这可以避免因复用具有较大差异的不同几何对象的可视场景点对应像素的间接光照而引入的误差。另外,本方法在通过复用估计出像素的最终间接光照值后,可以通过估计间接光照的视觉重要性来对间接光照计算结果进行精化。
Description
技术领域
本发明属于三维场景画面渲染技术领域,涉及一种三维场景渲染中基于对象判别的间接光照复用方法。
背景技术
三维场景渲染是当前计算机图形学中的一个研究热点。三维场景的全局光照计算是利用计算机渲染出真实感三维场景画面的关键。全局光照可以看成是由直接光照和间接光照相加而成。相比于直接光照,三维场景的间接光照通常具有更强的空间相关性,三维场景中同一个几何对象上的相邻点的间接光照往往非常相似,这就为复用间接光照提供了可能性。三维场景中不同几何对象的材质特性有时候存在很大差异。另外,三维场景的不同几何对象上的场景点的空间位置和朝向有时候差距较大。这些因素都会使不同几何对象上的场景点的间接光照的相关性降低。在复用间接光照时,只复用那些属于同一个几何对象的相邻场景点的间接光照有利于降低复用操作导致的间接光照误差。当场景点的间接光照远小于直接光照时,人眼可能难以察觉出间接光照产生的视觉影响。因此可以根据场景点的间接光照与直接光照的比值来确定间接光照在视觉上是否重要,如果间接光照在视觉上比较重要,则更宜精确地计算间接光照,否则只需用复用技术初略地估计出间接光照即可。
在三维场景渲染中,用红、绿、蓝三元组来表示各种颜色,因此光照值实际上也包含红色、绿色、蓝色三个分量。光线投射(Ray Casting)是一种常见的用于渲染三维场景画面的技术。J.F.Hughes等撰写的由Addison-Wesley公司于2014年出版的《ComputerGraphics:Principles and Practice,3rd Edition》的第15章对光线投射技术作过介绍,其可以用于计算三维场景的直接光照画面。J.F.Hughes等撰写的由Addison-Wesley公司于2014年出版的《Computer Graphics:Principles and Practice,3rd Edition》的第32章介绍了路径跟踪的具体实现方法。在路径跟踪中,对于从视点出发的穿过虚拟相机的虚拟像素平面上的像素的一条光线传输路径,如果不计算在该光线传输路径与三维场景几何面片的第一个交点处散射的直接来自光源的光照贡献,则最终得到的沿该光线传输路径逆向到达视点的光照为一个间接光照采样值。在路径跟踪中,通过对像素对应的多个间接光照采样值求平均可以得到像素对应的最终间接光照结果。
发明内容
本发明的目的在于,提供一种三维场景渲染中基于对象判别的间接光照复用方法,实现在三维场景渲染中对属于同一个几何对象的多个可视场景点的间接光照的空间复用,同时根据像素对应的可视场景点的间接光照与直接光照之比来确定是否对像素对应的间接光照进行精化。
本发明的技术方案是这样实现的:如图1所示,为三维场景中的每个几何对象指定一个唯一的索引编号;在计算机中,利用光线投射技术计算三维场景的直接光照画面,在此过程中记录从视点发射的穿过虚拟相机的虚拟像素平面上的各个像素的光线与三维场景的几何对象的几何面片之间的离视点最近的交点A001及其所属几何对象的索引编号;交点A001是可视场景点,可视场景点和虚拟相机的虚拟像素平面上的像素一一对应;针对虚拟相机的虚拟像素平面上的各个像素,利用路径跟踪技术为每个像素计算Ms个间接光照采样值;针对虚拟相机的虚拟像素平面上的每个像素P001,找出虚拟像素平面上的满足如下条件的各个像素P002:像素P002到像素P001的距离小于阈值dp且像素P002对应的可视场景点所属几何对象的索引编号与像素P001对应的可视场景点所属几何对象的索引编号相同;根据找到的所有像素P002以及像素P001的间接光照采样值估计像素P001的最终间接光照值A002,如果估计出的最终间接光照值A002与像素P001对应的直接光照值之比大于阈值Ith,则用路径跟踪技术为像素P001再额外计算Ns个间接光照采样值,并根据像素P001的Ms+Ns个间接光照采样值估计像素P001的最终间接光照值A002;本方法的具体步骤如下:
步骤Step101:为三维场景中的每个几何对象指定一个唯一的索引编号;
步骤Step102:在计算机中,利用光线投射技术计算三维场景的直接光照画面,在此过程中记录从视点发射的穿过虚拟相机的虚拟像素平面上的各个像素的光线与三维场景的几何对象的几何面片之间的离视点最近的交点A001及其所属几何对象的索引编号;直接光照画面是一个二维数组,该数组的每个元素保存虚拟相机的虚拟像素平面上的像素对应的直接光照值;直接光照画面对应的二维数组的元素与虚拟相机的虚拟像素平面上的像素一一对应;
步骤Step103:在计算机中,针对虚拟相机的虚拟像素平面上的每个像素,根据三维场景模型利用路径跟踪技术为每个像素计算Ms个间接光照采样值;
步骤Step104:在计算机中,针对虚拟相机的虚拟像素平面上的第i行、第j列像素P001,i=1,2,3,…,M,j=1,2,3,…,N,M表示虚拟像素平面上的像素行数,N表示虚拟像素平面上的像素列数,做如下操作:
步骤Step104-1:找出虚拟像素平面上的满足条件COND1的各个像素P002并把它们组成一个集合SP001,其中条件COND1为:像素P002到像素P001的距离小于dp且像素P002对应的可视场景点所属几何对象的索引编号与像素P001对应的可视场景点所属几何对象的索引编号相同;
步骤Step104-2:在计算机内存中创建一个集合SP002,把集合SP002初始化成空集合;把像素P001的Ms个间接光照采样值添加到集合SP002中;
步骤Step104-3:针对集合SP001中的每个像素P002,做如下操作:
把像素P002的Ms个间接光照采样值添加到集合SP002中;
步骤Step104-4:求集合SP002中的所有元素保存的间接光照采样值的平均值AVG;把平均值AVG作为像素P001的最终间接光照值A002的初始估计结果;
步骤Step104-5:如果最终间接光照值A002的初始估计结果与像素P001对应的直接光照值之比大于阈值Ith,则转步骤Step104-6,否则转步骤Step104-7;
步骤Step104-6:用路径跟踪技术为像素P001再额外计算Ns个间接光照采样值,使得像素P001拥有Ms+Ns个间接光照采样值;计算像素P001的Ms+Ns个间接光照采样值的平均值AVG2,把平均值AVG2作为像素P001的最终间接光照值A002;转步骤Step104-8;
步骤Step104-7:把步骤Step104-4得到的最终间接光照值A002的初始估计结果作为像素P001的最终间接光照值A002;
步骤Step104-8:针对像素P001的操作结束;
步骤Step105:在计算机内存中创建一个包含M行、N列元素的二维数组GILL,二维数组GILL的元素用于保存虚拟相机的虚拟像素平面上的像素对应的全局光照值;二维数组GILL的元素和虚拟相机的虚拟像素平面上的像素一一对应;
步骤Step106:针对二维数组GILL的第i行、第j列元素B001,i=1,2,3,…,M,j=1,2,3,…,N,执行如下操作:
令vDILL为三维场景的直接光照画面的第i行、第j列元素保存的直接光照值;令vIndILL为虚拟相机的虚拟像素平面上的第i行、第j列像素对应的最终间接光照值A002;把vDILL与vIndILL相加在一起赋值给元素B001;
步骤Step107:把二维数组GILL保存的全局光照值转换成三维场景的全局光照效果画面图像保存到计算机硬盘文件中。
在三维场景渲染中,光照值包含红色、绿色、蓝色三个分量。在步骤Step104-5中,最终间接光照值A002的初始估计结果与像素P001对应的直接光照值之比等于(γ1 2+γ2 2+γ3 2)1/2,其中γ1等于最终间接光照值A002的初始估计结果的红色分量与像素P001对应的直接光照值的红色分量之比,γ2等于最终间接光照值A002的初始估计结果的绿色分量与像素P001对应的直接光照值的绿色分量之比,γ3等于最终间接光照值A002的初始估计结果的蓝色分量与像素P001对应的直接光照值的蓝色分量之比。像素P002到像素P001的距离为[(ni-nr)2+(nj-nc)2]1/2,ni表示像素P002在虚拟像素平面上的行号,nj表示像素P002在虚拟像素平面上的列号,nr表示像素P001在虚拟像素平面上的行号,nc表示像素P001在虚拟像素平面上的列号。
本发明的积极效果是:本方法在复用像素的间接光照结果时,只复用那些属于同一个几何对象的可视场景点对应像素的间接光照,这可以避免因复用具有较大差异的不同几何对象的可视场景点对应像素的间接光照而引入的误差。另外,本方法在通过复用估计出像素的最终间接光照值后,进一步判断像素的间接光照估计值与直接光照估计值之比,当该比值大于阈值Ith时,说明像素的间接光照在视觉上比较重要,此时通过利用路径跟踪技术为像素再额外计算Ns个间接光照采样值的方式来对像素对应的间接光照进行精化;因此本方法可以通过估计间接光照的视觉重要性来对间接光照计算结果进行精化。
附图说明
图1为三维场景的几何对象编号示意图。
具体实施方式
为了使本方法的特征和优点更加清楚明白,下面结合具体实施例对本方法作进一步的描述。在本实施例中,考虑如下房间三维场景:在房间中放着一张床和一个柜子,房间的天花板上有一个圆形的面光源,面光源向下照射,三维场景中的所有几何对象表面都是漫反射面。计算机系统的CPU选择Intel(R)Xeon(R)CPU E3-1225 v3@3.20GHz,内存选择金士顿8GB DDR3 1333,硬盘选择Buffalo HD-CE 1.5TU2;计算机操作系统选用Windows7,软件编程工具选用VC++2010。
本发明的技术方案是这样实现的:为三维场景中的每个几何对象指定一个唯一的索引编号;在计算机中,利用光线投射技术计算三维场景的直接光照画面,在此过程中记录从视点发射的穿过虚拟相机的虚拟像素平面上的各个像素的光线与三维场景的几何对象的几何面片之间的离视点最近的交点A001及其所属几何对象的索引编号;交点A001是可视场景点,可视场景点和虚拟相机的虚拟像素平面上的像素一一对应;针对虚拟相机的虚拟像素平面上的各个像素,利用路径跟踪技术为每个像素计算Ms个间接光照采样值;针对虚拟相机的虚拟像素平面上的每个像素P001,找出虚拟像素平面上的满足如下条件的各个像素P002:像素P002到像素P001的距离小于阈值dp且像素P002对应的可视场景点所属几何对象的索引编号与像素P001对应的可视场景点所属几何对象的索引编号相同;根据找到的所有像素P002以及像素P001的间接光照采样值估计像素P001的最终间接光照值A002,如果估计出的最终间接光照值A002与像素P001对应的直接光照值之比大于阈值Ith,则用路径跟踪技术为像素P001再额外计算Ns个间接光照采样值,并根据像素P001的Ms+Ns个间接光照采样值估计像素P001的最终间接光照值A002;本方法的具体步骤如下:
步骤Step101:为三维场景中的每个几何对象指定一个唯一的索引编号;
步骤Step102:在计算机中,利用光线投射技术计算三维场景的直接光照画面,在此过程中记录从视点发射的穿过虚拟相机的虚拟像素平面上的各个像素的光线与三维场景的几何对象的几何面片之间的离视点最近的交点A001及其所属几何对象的索引编号;直接光照画面是一个二维数组,该数组的每个元素保存虚拟相机的虚拟像素平面上的像素对应的直接光照值;直接光照画面对应的二维数组的元素与虚拟相机的虚拟像素平面上的像素一一对应;
步骤Step103:在计算机中,针对虚拟相机的虚拟像素平面上的每个像素,根据三维场景模型利用路径跟踪技术为每个像素计算Ms个间接光照采样值;
步骤Step104:在计算机中,针对虚拟相机的虚拟像素平面上的第i行、第j列像素P001,i=1,2,3,…,M,j=1,2,3,…,N,M表示虚拟像素平面上的像素行数,N表示虚拟像素平面上的像素列数,做如下操作:
步骤Step104-1:找出虚拟像素平面上的满足条件COND1的各个像素P002并把它们组成一个集合SP001,其中条件COND1为:像素P002到像素P001的距离小于dp且像素P002对应的可视场景点所属几何对象的索引编号与像素P001对应的可视场景点所属几何对象的索引编号相同;
步骤Step104-2:在计算机内存中创建一个集合SP002,把集合SP002初始化成空集合;把像素P001的Ms个间接光照采样值添加到集合SP002中;
步骤Step104-3:针对集合SP001中的每个像素P002,做如下操作:
把像素P002的Ms个间接光照采样值添加到集合SP002中;
步骤Step104-4:求集合SP002中的所有元素保存的间接光照采样值的平均值AVG;把平均值AVG作为像素P001的最终间接光照值A002的初始估计结果;
步骤Step104-5:如果最终间接光照值A002的初始估计结果与像素P001对应的直接光照值之比大于阈值Ith,则转步骤Step104-6,否则转步骤Step104-7;
步骤Step104-6:用路径跟踪技术为像素P001再额外计算Ns个间接光照采样值,使得像素P001拥有Ms+Ns个间接光照采样值;计算像素P001的Ms+Ns个间接光照采样值的平均值AVG2,把平均值AVG2作为像素P001的最终间接光照值A002;转步骤Step104-8;
步骤Step104-7:把步骤Step104-4得到的最终间接光照值A002的初始估计结果作为像素P001的最终间接光照值A002;
步骤Step104-8:针对像素P001的操作结束;
步骤Step105:在计算机内存中创建一个包含M行、N列元素的二维数组GILL,二维数组GILL的元素用于保存虚拟相机的虚拟像素平面上的像素对应的全局光照值;二维数组GILL的元素和虚拟相机的虚拟像素平面上的像素一一对应;
步骤Step106:针对二维数组GILL的第i行、第j列元素B001,i=1,2,3,…,M,j=1,2,3,…,N,执行如下操作:
令vDILL为三维场景的直接光照画面的第i行、第j列元素保存的直接光照值;令vIndILL为虚拟相机的虚拟像素平面上的第i行、第j列像素对应的最终间接光照值A002;把vDILL与vIndILL相加在一起赋值给元素B001;
步骤Step107:把二维数组GILL保存的全局光照值转换成三维场景的全局光照效果画面图像保存到计算机硬盘文件中。
在三维场景渲染中,光照值包含红色、绿色、蓝色三个分量。在步骤Step104-5中,最终间接光照值A002的初始估计结果与像素P001对应的直接光照值之比等于(γ1 2+γ2 2+γ3 2)1/2,其中γ1等于最终间接光照值A002的初始估计结果的红色分量与像素P001对应的直接光照值的红色分量之比,γ2等于最终间接光照值A002的初始估计结果的绿色分量与像素P001对应的直接光照值的绿色分量之比,γ3等于最终间接光照值A002的初始估计结果的蓝色分量与像素P001对应的直接光照值的蓝色分量之比。像素P002到像素P001的距离为[(ni-nr)2+(nj-nc)2]1/2,ni表示像素P002在虚拟像素平面上的行号,nj表示像素P002在虚拟像素平面上的列号,nr表示像素P001在虚拟像素平面上的行号,nc表示像素P001在虚拟像素平面上的列号。
在本实施例中,Ms=3,Ns=20,Ith=0.1,M=768,N=1024,dp=6;对房间的立着的四面墙,把每面墙作为一个独立的几何对象,把房间的天花板作为一个独立的几何对象,把房间的地板作为一个独立的几何对象,把房间的门作为一个独立的几何对象,把床作为一个独立的几何对象,把柜子作为一个独立的几何对象。每个独立几何对象都包含一系列几何面片。可视场景点和虚拟相机的虚拟像素平面上的像素一一对应,像素对应的直接光照就是指从可视场景点处散射到视点的直接来自光源的光照,像素对应的间接光照就是指从可视场景点处散射到视点的不是直接来自光源的光照。众所周知,在路径跟踪中,本质上是从视点出发逆向跟踪光线传输,因此光源发出的光照实际上沿光线传输路径逆向到达视点。
本实施例在执行光线投射时,为虚拟相机的虚拟像素平面上的每个像素投射一条光线。在步骤Step102中,交点A001是一个几何对象上的点,意味着交点A001属于该几何对象。在步骤Step104-5中,像素P001对应的直接光照值保存在直接光照画面对应的二维数组的与像素P001相对应的元素中。直接光照画面对应的二维数组的第i行、第j列元素保存虚拟相机的虚拟像素平面上的第i行、第j列像素对应的直接光照值,i=1,2,3,…,M,j=1,2,3,…,N。在步骤Step106中,vDILL与vIndILL相加指:vDILL的红色分量与vIndILL的红色分量相加,vDILL的绿色分量与vIndILL的绿色分量相加,vDILL的蓝色分量与vIndILL的蓝色分量相加。
Claims (1)
1.一种三维场景渲染中基于对象判别的间接光照复用方法,其特征在于:为三维场景中的每个几何对象指定一个唯一的索引编号;在计算机中,利用光线投射技术计算三维场景的直接光照画面,在此过程中记录从视点发射的穿过虚拟相机的虚拟像素平面上的各个像素的光线与三维场景的几何对象的几何面片之间的离视点最近的交点A001及其所属几何对象的索引编号;交点A001是可视场景点,可视场景点和虚拟相机的虚拟像素平面上的像素一一对应;针对虚拟相机的虚拟像素平面上的各个像素,利用路径跟踪技术为每个像素计算Ms个间接光照采样值;针对虚拟相机的虚拟像素平面上的每个像素P001,找出虚拟像素平面上的满足如下条件的各个像素P002:像素P002到像素P001的距离小于阈值dp且像素P002对应的可视场景点所属几何对象的索引编号与像素P001对应的可视场景点所属几何对象的索引编号相同;根据找到的所有像素P002以及像素P001的间接光照采样值估计像素P001的最终间接光照值A002,如果估计出的最终间接光照值A002与像素P001对应的直接光照值之比大于阈值Ith,则用路径跟踪技术为像素P001再额外计算Ns个间接光照采样值,并根据像素P001的Ms+Ns个间接光照采样值估计像素P001的最终间接光照值A002;本方法的具体步骤如下:
步骤Step101:为三维场景中的每个几何对象指定一个唯一的索引编号;
步骤Step102:在计算机中,利用光线投射技术计算三维场景的直接光照画面,在此过程中记录从视点发射的穿过虚拟相机的虚拟像素平面上的各个像素的光线与三维场景的几何对象的几何面片之间的离视点最近的交点A001及其所属几何对象的索引编号;直接光照画面是一个二维数组,该数组的每个元素保存虚拟相机的虚拟像素平面上的像素对应的直接光照值;直接光照画面对应的二维数组的元素与虚拟相机的虚拟像素平面上的像素一一对应;
步骤Step103:在计算机中,针对虚拟相机的虚拟像素平面上的每个像素,根据三维场景模型利用路径跟踪技术为每个像素计算Ms个间接光照采样值;
步骤Step104:在计算机中,针对虚拟相机的虚拟像素平面上的第i行、第j列像素P001,i=1,2,3,…,M,j=1,2,3,…,N,M表示虚拟像素平面上的像素行数,N表示虚拟像素平面上的像素列数,做如下操作:
步骤Step104-1:找出虚拟像素平面上的满足条件COND1的各个像素P002并把它们组成一个集合SP001,其中条件COND1为:像素P002到像素P001的距离小于dp且像素P002对应的可视场景点所属几何对象的索引编号与像素P001对应的可视场景点所属几何对象的索引编号相同;
步骤Step104-2:在计算机内存中创建一个集合SP002,把集合SP002初始化成空集合;把像素P001的Ms个间接光照采样值添加到集合SP002中;
步骤Step104-3:针对集合SP001中的每个像素P002,做如下操作:
把像素P002的Ms个间接光照采样值添加到集合SP002中;
步骤Step104-4:求集合SP002中的所有元素保存的间接光照采样值的平均值AVG;把平均值AVG作为像素P001的最终间接光照值A002的初始估计结果;
步骤Step104-5:如果最终间接光照值A002的初始估计结果与像素P001对应的直接光照值之比大于阈值Ith,则转步骤Step104-6,否则转步骤Step104-7;
步骤Step104-6:用路径跟踪技术为像素P001再额外计算Ns个间接光照采样值,使得像素P001拥有Ms+Ns个间接光照采样值;计算像素P001的Ms+Ns个间接光照采样值的平均值AVG2,把平均值AVG2作为像素P001的最终间接光照值A002;转步骤Step104-8;
步骤Step104-7:把步骤Step104-4得到的最终间接光照值A002的初始估计结果作为像素P001的最终间接光照值A002;
步骤Step104-8:针对像素P001的操作结束;
步骤Step105:在计算机内存中创建一个包含M行、N列元素的二维数组GILL,二维数组GILL的元素用于保存虚拟相机的虚拟像素平面上的像素对应的全局光照值;二维数组GILL的元素和虚拟相机的虚拟像素平面上的像素一一对应;
步骤Step106:针对二维数组GILL的第i行、第j列元素B001,i=1,2,3,…,M,j=1,2,3,…,N,执行如下操作:
令vDILL为三维场景的直接光照画面的第i行、第j列元素保存的直接光照值;令vIndILL为虚拟相机的虚拟像素平面上的第i行、第j列像素对应的最终间接光照值A002;把vDILL与vIndILL相加在一起赋值给元素B001;
步骤Step107:把二维数组GILL保存的全局光照值转换成三维场景的全局光照效果画面图像保存到计算机硬盘文件中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910983610.0A CN110751714B (zh) | 2019-10-18 | 2019-10-18 | 三维场景渲染中基于对象判别的间接光照复用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910983610.0A CN110751714B (zh) | 2019-10-18 | 2019-10-18 | 三维场景渲染中基于对象判别的间接光照复用方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110751714A CN110751714A (zh) | 2020-02-04 |
CN110751714B true CN110751714B (zh) | 2022-09-06 |
Family
ID=69278563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910983610.0A Active CN110751714B (zh) | 2019-10-18 | 2019-10-18 | 三维场景渲染中基于对象判别的间接光照复用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110751714B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102346918A (zh) * | 2011-09-30 | 2012-02-08 | 长春理工大学 | 一种只包含物体变化的三维动画场景的绘制方法 |
CN105389843A (zh) * | 2015-12-09 | 2016-03-09 | 河海大学 | 基于径向基函数神经网络拟合的全局光照实时绘制方法 |
CN107909647A (zh) * | 2017-11-22 | 2018-04-13 | 长春理工大学 | 基于空间复用的真实感虚拟3d场景光场投影图像绘制方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866813B2 (en) * | 2011-06-30 | 2014-10-21 | Dreamworks Animation Llc | Point-based guided importance sampling |
KR102110819B1 (ko) * | 2013-05-08 | 2020-05-15 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
-
2019
- 2019-10-18 CN CN201910983610.0A patent/CN110751714B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102346918A (zh) * | 2011-09-30 | 2012-02-08 | 长春理工大学 | 一种只包含物体变化的三维动画场景的绘制方法 |
CN105389843A (zh) * | 2015-12-09 | 2016-03-09 | 河海大学 | 基于径向基函数神经网络拟合的全局光照实时绘制方法 |
CN107909647A (zh) * | 2017-11-22 | 2018-04-13 | 长春理工大学 | 基于空间复用的真实感虚拟3d场景光场投影图像绘制方法 |
Non-Patent Citations (1)
Title |
---|
基于面光源可见性空间复用的3D场景柔和阴影绘制算法;周文言等;《长春理工大学学报(自然科学版)》;20181215(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110751714A (zh) | 2020-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102685533B (zh) | 对2d电影进行转换用于立体3d显示的方法和系统 | |
US9064346B2 (en) | Hierarchical based 3D image processor, method, and medium | |
US11875583B2 (en) | Dataset generation method for self-supervised learning scene point cloud completion based on panoramas | |
CN101375315A (zh) | 数字重制2d和3d运动画面以呈现提高的视觉质量的方法和系统 | |
CN101604458A (zh) | 用于显示预先绘制的计算机辅助诊断结果的方法 | |
CN101529924A (zh) | 用于产生立体图像的方法、装置和计算机程序产品 | |
CN111369660B (zh) | 一种三维模型的无接缝纹理映射方法 | |
CN107274474B (zh) | 三维场景立体画面绘制中的间接光照复用方法 | |
EP1465116A1 (en) | Computer graphics | |
CN107886563B (zh) | 基于虚拟点光源的三维场景全局光照效果分布式集群绘制方法 | |
US10210654B2 (en) | Stereo 3D navigation apparatus and saliency-guided camera parameter control method thereof | |
KR101086274B1 (ko) | 깊이정보 추출 장치 및 추출 방법 | |
CN110751714B (zh) | 三维场景渲染中基于对象判别的间接光照复用方法 | |
CN110111341B (zh) | 图像前景获取方法、装置及设备 | |
CN105447905B (zh) | 基于可见性平滑滤波的三维场景近似柔和阴影绘制方法 | |
CN111586942B (zh) | 舞台灯具的控制方法及装置 | |
CN115115747A (zh) | 光照渲染方法、装置、电子设备及存储介质 | |
CN107909639B (zh) | 光源可见性复用范围的自适应3d场景绘制方法 | |
CN110751713B (zh) | 三维场景光线跟踪渲染画面的自适应反走样方法 | |
EP4227887A1 (en) | Dynamic layout optimization of annotation labels in volume rendering | |
CN107103620B (zh) | 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法 | |
CN116012449A (zh) | 一种基于深度信息的图像渲染方法及装置 | |
CN110728742B (zh) | 基于视觉重要性的三维场景动画渲染间接光照帧间复用方法 | |
EP4291994A1 (en) | Depth orders for multi-view frame storing and rendering | |
US9361689B2 (en) | Image processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |