CN102915559B - 一种基于三维点云的实时透明物体gpu并行生成方法 - Google Patents
一种基于三维点云的实时透明物体gpu并行生成方法 Download PDFInfo
- Publication number
- CN102915559B CN102915559B CN201210301906.8A CN201210301906A CN102915559B CN 102915559 B CN102915559 B CN 102915559B CN 201210301906 A CN201210301906 A CN 201210301906A CN 102915559 B CN102915559 B CN 102915559B
- Authority
- CN
- China
- Prior art keywords
- depth
- transparent substance
- transparent object
- transparent
- thickness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种基于三维点云的实时透明物体GPU并行生成方法,步骤为:(1)生成背景贴图,非透明物体;(2)生成透明物体几何缓冲,生成球体的方式生成所有三维点,利用硬件深度检测获得近视平面的深度值,同时保存透明物体材质信息;(3)平滑深度,用几何缓冲中的深度信息,对深度值进行平滑滤波从而获得光滑表面;(4)计算透明物体厚度,生成所有三维点,利用硬件Alpha混合计算透明物体厚度;(5)透明物体着色,用深度值及材质信息对透明物体进行光照计算,利用厚度值计算透明物体的折射反射属性,再利用背景贴图以完成着色。本发明避免了传统方法中表面重建的步骤,可以满足百万级别基于点云的透明物体实时生成的需求。
Description
技术领域
本发明是一种利用对深度图平滑滤波的方法从数值仿真或者采集得到的三维点云中直接生成出透明物体的GPU并行技术,用于真实感虚拟现实环境中透明物体的生成。
背景技术
在透明物体建模过程中常常通过采集或者是仿真的方法获得物体的的点云表示,如通过三维扫描仪可以直接获得真实物体表面的大量离散点的空间位置。另外,可交互的流体的仿真作为透明物体主要的生成方法常常使用光滑流体动力学(Smoothed Particle Hydrodynamics,简称SPH)。文献1-Gingold RA,Monaghan JJ(1977)Smoothed particle hydrodynamics—theory and application tonon-spherical stars.Mon Not R Astron Soc181:375389首先提出了SPH方法,SPH方法是用大量离散的粒子近似表示流体,通过核函数逼近和粒子逼近实现流体的仿真,整个过程是在连续域中实现的,不但可以处理大变形的物体,而且对于细节问题也有很好的效果。
对于原始点云表示的透明物体的真实感生成,传统的方法需要重建表面,常用的表面重建方法首先定义一种标量场,如密度场,使用特定的核函数对点云在定义的采样空间内进行卷积运算得到透明物体几何的离散标量场;接着使用构建隐式表面的方法或者直接生成的方法对追踪得到的流体表面进行生成。文献2-LORENSEN,W.E.,AND CLINE,H.E.1987.Marching cubes:A highresolution3d surface construction algorithm.SIGGRAPH Comput.Graph.21,4,163169.在构建隐式表面然后再使用Marching Cubes算法对流体进行生成。文献3-Fraedrich,R.;Auer,S.;Westermann,R."Efficient High-Quality VolumeRendering of SPH Data,"Visualization and Computer Graphics,IEEE Transactionson,vol.16,no.6,pp.1533-1540,Nov.-Dec.2010提出一种与视点相关的透视网格算法,对于不同视点实时构造透视网格对点云数据采样接着使用改进过的Raycasting算法直接生成透明物体表面。使用上述方法需要对于每一帧都需要构建整个标量场再追踪表面最后生成物体,计算规模大访存开销大,难以满足实时应用程序要求,文献4-Müller,M.,SCHIRM,S.,AND DUTHALER,S.2007.Screen space meshes.In SCA’07:Proceedings of the2007ACM SIG-GRAPH/Eurographics symposium on Computer animation,EurographicsAssociation,Aire-la-Ville,Switzerland,Switzerland,915.提出了在眼坐标系中生成三维点云的边界作为网格的方法,这种方法只构造透明物体的可见表面,首先计算屏幕空间内每个像素的深度,接着光滑获得的深度图然后从深度图中构造多边形网格,但是这种方法构造的深度图不能直接映射到GPU上,同时构造网格的过程也是复杂的计算过程。对于需要进行重新采样获得标量场进而追踪表面的方法来说,重采样的过程本身难以保证原始信号的细节,在之后的表面追踪过程中又会导致原始物体细节的进一步丢失,而且重建表面的过程往往会存在计算量大、放存次数多的问题,难以适应实时或者可交互级别程序的应用;在眼坐标系中构建网格的方法虽然不需要构建中间标量场,但是直接从点云中构造网格的速度随着点的数量增加而变慢,同样难以对大规模的点云进行透明物体的实时生成。
发明内容
本发明的技术解决问题:克服现有技术的不足,提供一种与视点相关的三维点云表示的透明物体直接生成方法,该方法不需要构建中间标量场,直接使用原始的点云数据,保持了透明物体的细节,同时该方法是一种与视点相关的方法,可以利用硬件剔除大量不可见的点,使计算量小,此外该方法对于硬件要求不高,可以适应不同平台对实时性和交互性的要求便于不同平台的移植。
本发明的技术解决方案:一种基于三维点云的实时透明物体GPU并行生成方法,其特点在于步骤如下:
(1)生成背景贴图;
(2)生成透明物体的几何缓冲,将点云作为球体进行生成,利用硬件深度检测获得近视平面的深度值,同时在着色器中计算并保存透明物体材质信息;
(3)利用几何缓冲中的深度信息,平滑深度;
(4)再次使用球体生成所有三维点,计算透明物体厚度;
(5)透明物体着色,利用几何缓冲对透明物体使用光照算法进行光照计算,利用厚度值计算透明物体的折射反射光线,并利用折射光线对背景贴图采样获得当前像素点的背景颜色,最后通过融合操作以完成着色。
所述步骤(1)生成背景贴图时根据场景规模和光照情况选择不同的生成方法,场景中不透明物体数量Ns与光源数量Nl的比值为v,设定一个阈值n,当v<n的时候使用延时绘制管线,否则使用传统的绘制管线。
所述步骤(2)中生成透明物体几何缓冲时,使用精灵点算法生成所有三维点,同时修正当前所在像素的深度值;利用步骤(1)中保留的深度值,使用深度检测方法可以对不可见的三维点进行剔除从而大幅度减少实际生成的三维点数目。
对生成三维点后所在像素深度值的过程为:
根据相机的位置计算精灵点大小:
修正当前像素位置的深度值:当前像素表示的点在眼坐标系中的位置为Psye,法向量为Np,投影矩阵为Mp,则在此位置的投影坐标为:Pprj=Mp(Psye+spNp),修正后的深度值为:
所述步骤(3)中平滑深度将双边滤波器(bilateral filter)分为横向和纵向两个方向依此对输入图像进行平滑。
所述步骤(4)中计算透明物体厚度时,在当前相机位置使用原图相1/4的分辨率生成场景中透明物体,此时开启硬件的Alpha混合的相加模式,当前点的厚度值为:
所述步骤(5)中透明物体与背景融合的步骤为:
对于当前像素,在透明物体对应的几何缓冲中采样s,若sa>0,利用sx、sy、sz重建眼坐标系中的位置Psye;
重建法向量,以当前点为中心,分别在上下左右各个方向对相邻像素采样并重建眼坐标系坐标,在获得的4个点中计算局部包围盒:Lbb={mjn(x,y,z),max(x,y,z)},则当前点法向量:NO=normalize(Lbb(min)×Lbb(max));
采用Phong模型计算当前点的颜色值Co;
在厚度贴图中采样,获得当前点厚度值To,同时利用Psye和NO根据折射定律计算折射光线方向Lr;
从背景贴图中根据Lr采样获得新的颜色值Cb,按照得到最终当前像素的颜色。
本发明的原理:本发明的核心是直接从原始三维点云中构造透明物体的可视面的法向量,再利用alpha混合估计透明物体相对于视平面的厚度从而逼真的生成透明物体。本发明步骤(2)和(3)就是为重建法向量提供可视面的深度值,步骤(4)是估计透明物体相对于视平面的厚度为之后的着色提供信息,有了以上信息就可以在步骤(5)中重建透明物体光滑的法向量,实现透明物体的真实感生成。
本发明与现有技术相比的优点在于:
(1)直接使用原始三维点云数据,避免了传统构建标量场再追踪表面对采集或者仿真数据部分信息的丢失,最大程度的保持了原有数据的细节。
(2)生成速度快,本发明的所有步骤均可以直接在GPU上执行,最大利用了GPU单指令多线程(SIMT)的特点,并行程度高,整个生成过程均充满生成流水线,大幅度提高生成速度。
(3)支持大规模场景生成,本发明是一种视点相关的生成方法,利用硬件剔除大量不可见点,生成时仅仅生成可视点,从而支持从几千到几百万点的实时高质量生成。
(4)便于集成,本发明从引擎设计角度考虑,可以看作是对生成结果的后期处理,同时支持向前绘制管线和延时绘制管线,能够方便的集成到通用的绘制引擎和游戏引擎中,可以提高虚拟场景的真实感,如视频游戏的室外水面场景,液体流动的场景,视景仿真中的湖面、海面,三维重建中的透明物体可视化等等。
(5)算法可移植性强,本发明所述步骤均可以在Shader Model3.0的硬件设备上实现,对硬件要求低,便于不同平台的移植。
附图说明
图1为本发明算法流程图;
图2A为透明物体几何缓冲布局示意图;
图2B为透明物体颜色分量布局示意图;
图2C为吸收系数分量布局示意图;
图2D为透明属性分量布局示意图;
图3为透明物体几何缓冲构造步骤示意图;
图4为重构法向量示意图。
具体实施方式
如图1所示,本发明具体实现步骤如下:
步骤S101,步骤S101中,生成背景贴图时根据场景规模光照情况选择不同的生成方法,选择的过程是,假设场景中不透明物体的数量为Ns,场景中光源数量为N1,二者的比值用户设定阈值为n,当v<n的时候使用基于屏幕空间的绘制管线,否则使用传统的绘制管线。在选择了特定的生成方法后开启帧缓冲(Frame Buffer),生成场景到纹理中形成背景贴图,如果使用传统管线生成时在设置帧缓冲的时候需要附加深度贴图,这是因为在步骤S105中需要利用背景贴图的深度信息进行计算和融合,如果选择的是屏幕空间的生成方法则可以重复利用其几何缓冲中的深度信息。
本发明在v<n时采用的屏幕空间生成方法为延时着色(Deferred Shading)的方法,与传统向前的光栅化方法不同的是,它将几何生成和光源着色解耦合。延时着色有两部分组成,分别是几何处理阶段和光照计算阶段。几何处理阶段是唯一使用场景中几何物体数据的阶段,这个阶段负责将场景中的定点变换到眼坐标系中,同时将几何和材质信息如定点的位置、法向量的方向、漫反射的颜色等填充到几何缓冲(G-Buffer)中。在光照计算过程中利用G-Buffer中的信息和光源的属性,通过纹理运算对每一个像素进行光照计算。
步骤S102生成透明物体几何缓冲,在开启帧缓冲的情况下使用精灵点方法生成所有三维点,此时利用步骤S101中获得的背景物体的深度图,开启硬件深度检测,同时保证深度缓冲为可写状态,此步骤的目的是在S105中融合使用。
生成时首先在顶点处理时确定精灵点的大小,精灵点的大小由公式:计算获得,其中vs为点的默认大小,d为当前点距离相机的距离,a为用户指定的缩放系数,通过调整a的值,用户可以影响最终生成的效果。
在片段处理阶段如图3所示,透明物体S301中经过顶点变换后首先需要对精灵点的深度值进行修正,深度值的修正过程为,假设当前像素在眼坐标系中的位置为Psye,法向量为Np,投影矩阵为Mp,则在此位置的投影坐标为:Pprj=Mp(Psye+spNp),修正后的深度值为:其中z、w表示投影坐标第三、第四分量。
S301修正深度后,新的深度值通过片段着色器(Fragment Shader)写入硬件的深度缓冲,同时按照图2所示的布局生成透明物体的几何缓冲输出为S303。
透明物体几何缓冲S302由4通道构成,本发明中在S102生成的几何缓冲使用32位4通道的浮点纹理作为输出纹理,其中RGBA4个通道分别存放相应的几何属性201,本发明中使用打包(Pack)的方式利用几何缓冲中剩余的二进制位保存了透明物体的材质属性202-204。
具体而言,其中:
201为32位保存浮点数:经过深度修正后,当前点在眼坐标系中z值的大小;
202为32位打包值,保存透明物体的颜色,如图中所示透明物体颜色的RGB值分别占存储的8位信息用来描述透明物体的颜色;
203为32位打包值,吸收属性的系数,由于透明物体有一定的厚度,光在透明物体内传播会有一定色衰减,其中不同的频率衰减程度不同,因此使用三个8位二级制数来表示在光在RGB三个通道上的衰减系数如题2C中206所示;
204为32位打包值,保存了透明物体的透明属性值,如图2D中207所示,其中使用16比特位保存透明物体的折射率(Index of Refraction),剩余的8比特位保存了透明物体的透明度Alpha,透明度与透明物体的颜色值共同决定了在S105中着色情况以及透明物体的外观表现。
本发明在步骤S102中使用深度检测算法可以对不可见的三维点进行剔除从而大幅度减少实际生成的三维点数目。
步骤S103平滑透明物体几何缓冲中的深度值,这里指的深度值特指步骤S102中几何缓冲在眼坐标系中的Z值,即201所示的Psye(z)。本发明中深度平滑使用双边滤波器(bilateral filter)对输入图像分为横向和纵向两个方向依此进行平滑。传统的高斯平滑只考虑了图像中主要的不同颜色区域,会导致平滑后的深度在边缘处出现模糊的现象,而双边滤波是在高斯滤波中加入了另外的权重,在本发明中考虑的权重为像素间的相似度s(ξ,x)以及深度值之间的空间距离c(ξ,x)的相似度,进行滤波:
上式中单位化kr(x)是综合了当前像素值和空间位置的两种权重,使用s(f(ξ),f(x))对当前点按照分布函数f(ξ)和f(x)进行采样,c(ξ,x)为:
而s(ξ,x)的定义为:
式中σd为当前像素在深度方向的导数,σ(f(ξ),f(x))为当前像素在图像上的导数、通过调整滤波的参数使得深度缓冲区中的值变的光滑,这是为了在S105中重建法向量。
步骤S104计算透明物体厚度,在当前相机位置对原图进行下采样,本发明使用原图的分辨率再次使用精灵点算法生成场景中透明物体,生成此时开启硬件的Alpha并且设置混合模式为相加模式,同时关闭硬件的深度检测,但是保持深度缓冲为可读的状态,利用S101得到的深度缓冲作为本次生成的深度缓冲,精灵点的大小与S102中的计算方法相同,计算当前点的厚度值的公式:
计算得到的厚度值打包写入8位三通道的帧缓冲中。其中,Nz为当前像素位置上几何物体法向量在z方向的分量,r为用户指定的厚度值,由于厚度图的生成采用的分辨率,在S105计算融合时再次使用原始分辨率,利用硬件对于纹理的自动三线性插值的特性可以平滑厚度图。
步骤S105,前后景着色融合。此步骤中在屏幕空间中进行,对于当前视口大小设置正交投影矩阵,生成矩形,在片段着色器中进行透明物体的着色与前后景的融合。
首先对于当前像素,在透明物体对应的几何缓冲中采样s,
根据采样的结果s,若采样结果的alpha分量sa>0,则此像素包含透明物体对透明物体着色并融合,否则,从背景图中直接拷贝背景像素信息。利用采样结果的x分量sx重建眼坐标系中的位置Psye:
Psye=(-uv(x,y)(fx,fy)zsye,zsye)
其中zsye-sx,uv(x,y)为当前像素在屏幕空间中的坐标,fx和fy由当前生成的帧缓冲大小以及视场角fov(Field of View)计算得出:
fx=tan(fov)*aspect,fy=tan(fov)
根据重建出的眼坐标可以计算当前像素在眼坐标系下的法向量。
眼坐标系下的法向量,以当前点401为中心,分别在上下左右各个方向402对相邻像素采样并按上述方法重建眼坐标系坐标,在获得的4个点中计算局部包围盒403所示:
Lbb-{min(x,y,z),max(x,y,z)}
则当前点法向量:
NO=normalize(Lbb(min)×Lbb(max))
NO为401在屏幕空间的法向量。
利用Psye和NO采用传统的Phong模型计算401的颜色值Co,接着在厚度贴图中采样,获得401处的厚度值To。
在S102获得的透明物体几何缓冲中获得透明物体在401处的属性值,根据折射定律计算折射光线方向Lr,最后从背景贴图中根据Lr采样获得新的颜色值Cb,按照得到最终当前像素的颜色。
Claims (3)
1.一种基于三维点云的实时透明物体GPU并行生成方法,其特征在于步骤如下:
步骤(1)、生成背景贴图;
所述步骤(1)中,生成背景贴图时根据场景规模和光照情况选择不同的生成方法,场景中不透明物体数量Ns与光源数量Nl的比值为v,设定一个阈值n,当v<n的时候使用基于延时着色的绘制管线,否则使用传统的绘制管线,在设置帧缓冲的时候需要附加深度贴图;
步骤(2)、生成透明物体的几何缓冲,在开启帧缓冲的情况下使用精灵点方法生成所有三维点,利用硬件深度检测获得近视平面的深度值,同时在着色器中计算并保存透明物体材质信息;
步骤(3)、利用几何缓冲中的深度信息,平滑深度,平滑深度将双边滤波器分为横向和纵向两个方向依次对输入图像进行平滑;
步骤(4)、在当前相机位置对原图进行下采样,再次使用精灵点算法生成场景中透明物体,利用硬件Alpha混合的相加模式计算透明物体厚度;
步骤(5)、透明物体着色和前后景的融合,利用几何缓冲对透明物体使用Phong模型进行光照计算,在厚度贴图中采样获得当前点厚度值,在步骤(2)获得的透明物体几何缓冲中获得透明物体在当前点处的属性值,根据折射定律计算折射光线方向Lr,并利用折射光线对背景贴图采样获得当前像素点的背景颜色,最后通过融合操作完成着色。
2.根据权利要求1所述的基于三维点云的实时透明物体GPU并行生成方法,其特征在于:所述步骤(2)中,生成透明物体几何缓冲时,使用精灵点方法生成所有三维点,同时修正当前所在像素的深度值;使用深度检测方法可以对不可见的三维点进行剔除,从而大幅度减少实际生成的三维点数目。
3.根据权利要求1所述的基于三维点云的实时透明物体GPU并行生成方法,其特征在于:所述步骤(4)中,计算透明物体厚度时,在当前相机位置使用原图像1/4的分辨率生成场景中透明物体,此时开启硬件的Alpha混合的相加模式,当前点的厚度值为:其中Nz为当前像素位置上物体法向量在z方向的分量,r为用户指定的厚度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210301906.8A CN102915559B (zh) | 2012-08-22 | 2012-08-22 | 一种基于三维点云的实时透明物体gpu并行生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210301906.8A CN102915559B (zh) | 2012-08-22 | 2012-08-22 | 一种基于三维点云的实时透明物体gpu并行生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102915559A CN102915559A (zh) | 2013-02-06 |
CN102915559B true CN102915559B (zh) | 2015-04-29 |
Family
ID=47613908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210301906.8A Expired - Fee Related CN102915559B (zh) | 2012-08-22 | 2012-08-22 | 一种基于三维点云的实时透明物体gpu并行生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102915559B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6153366B2 (ja) * | 2013-03-29 | 2017-06-28 | 株式会社バンダイナムコエンターテインメント | 画像生成システム及びプログラム |
CN104123724B (zh) * | 2014-07-09 | 2017-01-18 | 华北电力大学 | 一种3d点云物体的快速检测方法 |
CN104318100A (zh) * | 2014-10-22 | 2015-01-28 | 北京航空航天大学 | 一种基于特征敏感投影算子的厚度点云薄化方法 |
CN105761300B (zh) * | 2015-12-30 | 2018-09-18 | 吉林纪元时空动漫游戏科技集团股份有限公司 | 基于预采样的过程Shader反走样的处理方法 |
CN105701858B (zh) * | 2016-01-07 | 2018-09-14 | 网易(杭州)网络有限公司 | 一种基于alpha融合的贴图处理方法及装置 |
CN105574920B (zh) * | 2016-01-28 | 2018-03-13 | 网易(杭州)网络有限公司 | 材质贴图生成方法及装置、材质合成方法及装置 |
CN107240148B (zh) * | 2017-04-11 | 2020-09-11 | 中国人民解放军国防科学技术大学 | 基于背景纹影技术的透明物体三维表面重建方法和装置 |
CN110084873B (zh) * | 2018-01-24 | 2023-09-01 | 北京京东尚科信息技术有限公司 | 用于渲染三维模型的方法和装置 |
CN108961373B (zh) * | 2018-05-23 | 2022-06-07 | 福建天晴在线互动科技有限公司 | 一种毛发渲染的方法及终端 |
US11734892B2 (en) | 2018-07-26 | 2023-08-22 | Shenzhen University | Methods for three-dimensional reconstruction of transparent object, computer devices and storage mediums |
WO2020019233A1 (zh) | 2018-07-26 | 2020-01-30 | 深圳大学 | 透明物体光线对应关系采集系统 |
CN109118531A (zh) * | 2018-07-26 | 2019-01-01 | 深圳大学 | 透明物体的三维重建方法、装置、计算机设备及存储介质 |
EP3671645A1 (de) * | 2018-12-20 | 2020-06-24 | Carl Zeiss Vision International GmbH | Verfahren und vorrichtung zum erzeugen einer 3d-rekonstruktion eines objekts |
US10353073B1 (en) * | 2019-01-11 | 2019-07-16 | Nurulize, Inc. | Point cloud colorization system with real-time 3D visualization |
CN109977466B (zh) * | 2019-02-20 | 2021-02-02 | 深圳大学 | 一种三维扫描视点规划方法、装置及计算机可读存储介质 |
CN111272784B (zh) * | 2020-03-31 | 2021-05-28 | 西安交通大学 | 一种煤和煤矸石的检测方法 |
CN112614190B (zh) * | 2020-12-14 | 2023-06-06 | 北京淳中科技股份有限公司 | 投影贴图的方法及装置 |
CN115830201B (zh) * | 2022-11-22 | 2024-05-24 | 光线云(杭州)科技有限公司 | 一种基于聚簇的粒子系统优化渲染方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7280107B2 (en) * | 2005-06-29 | 2007-10-09 | Microsoft Corporation | Procedural graphics architectures and techniques |
-
2012
- 2012-08-22 CN CN201210301906.8A patent/CN102915559B/zh not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
流体场景的屏幕空间实时绘制研究;张昆;《万方学位论文数据库》;20120630;正文第18-36,42-45页 * |
Also Published As
Publication number | Publication date |
---|---|
CN102915559A (zh) | 2013-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102915559B (zh) | 一种基于三维点云的实时透明物体gpu并行生成方法 | |
van der Laan et al. | Screen space fluid rendering with curvature flow | |
Müller et al. | Screen space meshes | |
CN107452048A (zh) | 全局光照的计算方法及装置 | |
CN101593345A (zh) | 基于gpu加速的三维医学图像显示方法 | |
Su et al. | Multi-dimensional visualization of large-scale marine hydrological environmental data | |
Yan et al. | Real‐time fluid simulation with adaptive SPH | |
CN103679802A (zh) | 基于屏幕空间的sph流体表面实时绘制方法 | |
CN110163945B (zh) | 一种实时渲染中的水面仿真方法 | |
CN103530907A (zh) | 基于图像的复杂三维模型绘制方法 | |
CN108335349A (zh) | 利用神经网络滤波图像数据 | |
KR20120104071A (ko) | 입체영상 시각효과 처리 방법 | |
CN103645463B (zh) | 合成孔径雷达成像数据三维显示的方法 | |
CN104463937B (zh) | 基于不规则物体的动画生成方法及装置 | |
CN101441774A (zh) | 基于图像映射空间的动态场景实时双面折射绘制方法 | |
Yan et al. | A non-photorealistic rendering method based on Chinese ink and wash painting style for 3D mountain models | |
US11830125B2 (en) | Ray-guided water caustics | |
Loviscach | Complex water effects at interactive frame rates | |
Adams et al. | Particle splatting: Interactive rendering of particle-based simulation data | |
Garcia | Efficient rendering of synthetic images | |
Xu et al. | Real-time motion effect enhancement based on fluid dynamics in figure animation | |
Klein et al. | Simulation, Modelling and Rendering of Incompressible Fluids in Real Time. | |
Beebe | A Bibliography of Computer Graphics Forum: 1982–2009 | |
Hou et al. | Developing and testing a web-based platform for visualizing flow in a watershed | |
Yutong et al. | Study of water surface scattering model based on Unity3D Shader |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150429 Termination date: 20180822 |
|
CF01 | Termination of patent right due to non-payment of annual fee |