CN103180881B - 互联网上复杂场景真实感快速绘制方法 - Google Patents
互联网上复杂场景真实感快速绘制方法 Download PDFInfo
- Publication number
- CN103180881B CN103180881B CN201080069062.8A CN201080069062A CN103180881B CN 103180881 B CN103180881 B CN 103180881B CN 201080069062 A CN201080069062 A CN 201080069062A CN 103180881 B CN103180881 B CN 103180881B
- Authority
- CN
- China
- Prior art keywords
- model
- file
- scene
- resolution
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000000694 effects Effects 0.000 claims abstract description 50
- 239000000463 material Substances 0.000 claims abstract description 24
- 230000012447 hatching Effects 0.000 claims abstract description 16
- 238000013498 data listing Methods 0.000 claims abstract 5
- 230000008569 process Effects 0.000 claims description 17
- 238000005286 illumination Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 239000000203 mixture Substances 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 101100043658 Schizosaccharomyces pombe (strain 972 / ATCC 24843) ste11 gene Proteins 0.000 claims description 3
- 239000012634 fragment Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims 1
- 241000196324 Embryophyta Species 0.000 description 20
- 238000009877 rendering Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 12
- 230000002452 interceptive effect Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 241001640034 Heteropterys Species 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000006837 decompression Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 102100037060 Forkhead box protein D3 Human genes 0.000 description 1
- 101001029308 Homo sapiens Forkhead box protein D3 Proteins 0.000 description 1
- 241000219470 Mirabilis Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/12—Indexing scheme for image data processing or generation, in general involving antialiasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/16—Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/36—Level of detail
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种互联网环境中复杂场景真实感快速绘制方法,生成场景对象多分辨率模型序列、场景配置文件、纹理材质文件和场景数据列表文件;将场景对象多分辨率模型序列、场景配置文件、纹理材质文件和场景数据列表文件压缩并上传到服务器;客户端按顺序下载场景数据列表文件、场景配置文件、纹理材质文件、场景对象多分辨率模型序列,所述多分辨率模型序列的下载顺序为先低分辨模型后高分辨模型,场景快速绘制与数据下载同时进行;所述场景快速绘制包括将视锥平行地分割成几个部分,对每个视锥都生成一个阴影图,对阴影图进行滤波,从而得到反走样的阴影效果;离视点最近的深度纹理每帧都更新且尺寸最大,离视点越远更新频率越低且尺寸也越小。
Description
技术领域
本发明涉及计算机图形学,特别涉及互联网上复杂场景真实感速绘制方法。
背景技术
大规模三维场景的绘制是计算机图形学领域和虚拟现实领域的一个具有挑战性的问题。其中一个最主要的困难是场景中的几何复杂度太高,即真实生活中的自然场景中包含了各种各样的几何细节丰富、形状复杂的物体。其中植物模型是复杂场景中的一个典型代表,它们本身结构是十分复杂,这给场景的实时和高真实感的绘制带来了很大的困难。以森林场景为例,假如一片森林场景包含15000棵树,每棵树平均包含大约5000个多边形,那么这个场景中的多边形总数将会达到75亿个。要在保持一定真实感的前提下,实时地绘制一个几何复杂度如此之高的场景是十分困难的。
广告牌(Billboards)方法是一种绘制复杂模型的常用方法,它是一种基于图像绘制(Image-basedRendering)的方法。它利用一张始终朝向视点的半透明的纹理图像,或者几张交叉的纹理图像来表示模型,从而达到简化模型的目的。对于植物模型来说,这种表示方法对离视点远处的模型十分有效,因为远处植物的叶子投影到屏幕上时通常小于一个像素大。由于广告牌表示的植物几何结构简单,因此这种方法的绘制速度十分快。但是这种描述方法的双目视差效果很差,而且俯视场景会产生错误的结果。Decoret等人于2003年提出了广告牌云团(BillboardClouds)的方法(Decoret,X.,Durand,F.,Sillion,F.X.,andDorsey,J.2003.Billboardcloudsforextrememodelsimplification.ACMTrans.Graph.22,3,689-696[doi>10.1145/882262.882326]),这种方法使用billboardclouds来对任意网格模型进行简化。该方法是将模型的几何信息投影到另一个空间,在新空间中采用贪心算法找到最优的一组广告牌,使得这组广告牌近似表示输入物体的误差最小。这组广告牌的朝向和位置是任意的,打破了传统广告牌的限制。但直接采用这种方法绘制植物,通常不能取得理想的效果。人们对这种方法进行了改进,使之适合几何结构更加复杂的植物模型的简化。Fuhrmann等人在2005年改进了Decoret等人的方法(FuhrmannA.,Umlauf,E.,Mantler,S.:Extrememodelsimplificationforforestrendering.InEurographicsWorkshoponNaturalPhenomena2005,57-66.)。他们的方法通常在预处理中确定一系列采样视点,在每一个视点方向,对植物体进行绘制,并把绘制结果作为纹理图像保存下来。而在实时绘制时,根据当前视点信息,找到与其最邻近的采样视点,然后对这些采样视点相对应的纹理图像进行插值,插值得到的图像即作为当前视点的绘制结果图像。Behrendt等人在2005年参考植物拓扑结构(Behrendt,S.,C.Colditz,O.Franzke,J.Kopf,andO.Deussen.2005.Realisticreal-timerenderingoflandscapesusingbillboardclouds.ComputerGraphicsForum.24,3,507-516.[doi>10.1111/j.1467-8659]),采用启发式聚类,把Billboardclouds改善为一种更好的近似表示方法。采用Billboardclouds的方法可以很大程度地减小植物模型的几何复杂度,但是难以保持植物的外观形状,由于采用了基于图像表示几何的方式,模型的绘制效果往往不佳。
后来,人们采用几何网格与Billboards相结合的方式来简化表示植物模型(即二维与三维混合的方式),例如Bao等人(GuanboBao,XiaopengZhang,WujunChe,Jaeger,M.2009.Billboardsfortreesimplificationandreal-timeforestrendering.PMA′09Proceedingsofthe2009PlantGrowthModeling,Simulation,Visualization,andApplications,433-440.)对植物的树叶部分进行Billboardclouds简化,并保持了植物枝干的几何形状,得到了比单纯使用Billboards好的视差效果。但是二维与三维混合的方式并没有带来绘制效果的大幅提升,树叶简化后的广告牌(billboards)处的光照计算仍然十分困难。Decaudin等人充分利用GPU的纹理处理优势于2004年(Decaudin,P.andNeyret,F.Renderingforestscenesinreal-tnne.2004.InProc.ofthe2004EurographicsWorkshoponRendering,93-102.)、2009年(Decaudin,P.andNeyret,F.2009.Volumetricbillboards.ComputerGraphicsForum,28,8,2079-2089.)提出并改进了使用体纹理来绘制复杂场景的方法。在绘制场景时,预先将场景模型绘制成三维体纹理(texcell),然后将这些三维体纹理以一种非周期方式铺在地形上来表示场景。这种方法速度很快,适合于飞行仿真等俯视式的观察,但是观察者不能在场景里漫游,而且这种体纹理的绘制方法对计算机内存的消耗也比较大。随着计算机硬件的不断提高,人们对大规模复杂场景的真实感要求也越来越高。然而无论是Billboard的方法还是体纹理的方法在场景绘制时的真实感都不理想。基于Billboard的方法使物体绘制后在近看时有“薄片”的感觉,缺乏三维感觉,阴影效果也不好。基于体纹理的方法里模型的光照计算是预先计算好了的,所以在绘制时没有动态光照和阴影效果。生成的场景也由于重复性太大而显得不够真实。
Deng等人(QingqiongDeng,XiaopengZhang,GangYang,MarcJaeger.2010,Multiresolutionfoliageforforestrendering,JournalComputerAnimationandVirtualWorld,21,1,1-23.)采用纯三维网格模型的方式在GPU中对树叶进行简化。使用该方法简化后的植物模型适合于进行复杂的光照阴影计算,得到的绘制效果也是以上几种方法中最好的,所以我们在本专利中采用这种简化算法生成的模型序列。
阴影是自然界中最基本的元素,可以极大地增强场景的真实感。但是大规模场景阴影往往会伴随有明显的锯齿效应。Zhang等人在2006年提出了平行分割的阴影图PSSM(Parallel-SplitShadowMaps)生成算法(FanZhang,HanqiuSun,LeileiXu,LeeKitLun,Parallel-splitshadowmapsforlarge-scalevirtualenvironments,Proceedingsofthe2006ACMternationalconferenceonVirtualrealitycontinuumanditsapplications,June14-April17,2006,HongKong,China)。该算法首先按照某种规则将视点视锥平行的分割成多个部分,再对每个部分使用相同尺寸的深度纹理生成阴影图,使得屏幕采样率与阴影图的采样率一致,从而达到了很好的反锯齿效果。该算法在大规模场景的阴影生成中应用十分广泛。由于没有和模型简化结合,此方法难以实现大规模复杂场景的快速真实感绘制。
发明内容
本发明的主要目的是提供一种互联网上复杂场景真实感快速绘制方法。
为实现上述目的,一种互联网环境中复杂场景真实感快速绘制方法,包括步骤:
a)生成场景对象多分辨率模型序列、场景配置文件和纹理材质文件;
b)将场景对象多分辨率模型序列、场景配置文件和纹理材质文件压缩并上传到服务器;
c)客户端按顺序下载场景配置文件、纹理材质文件、场景对象多分辨率模型序列,所述多分辨率模型的下载顺序为先低分辨模型后高分辨模型。场景快速绘制与数据下载同时进行;
d)所述场景快速绘制包括将视锥平行地分割成几个部分,对每个视锥都生成一个阴影图,对阴影图进行滤波,从而得到反走样的阴影效果;
e)离视点最近的深度纹理每帧都更新且尺寸最大,离视点越远更新频率越低且尺寸也越小。
本发明综合集成了多分辨率三维几何模型序列、多分辨率阴影纹理、视锥裁剪、实时阴影技术、基于Web的三维模型的渐进传输、多线程控制和模型与阴影的多分辨率组织等技术。本系统的目标是在不损失真实感的前提下,以交互的速度漫游大规模的三维场景。
附图说明
图1示出本发明方法总体流程图,包括两个部分:离线多分辨率建模方法和在线真实感绘制方法;
图2示出本发明方法(图1)的离线多分辨率建模方法,包括“离线多分辨率场景构建”和“服务器端存储”两个部分;其中“离线多分辨率场景构建”部分包括:精细场景模型构建、模型递进简化、输出MR模型序列(也就是输出多分辨率模型序列)、地面模型构建和场景配置文件构建;其中“服务器端存储”部分包括:文件存为Zip格式并设置密码或许可、下载列表和数据上传到服务器;
图3示出本发明方法(图1)的在线真实感绘制方法,包括“远程客户端场景数据下载”、“远程客户端场景数据导入”和“远程客户端场景实时阴影绘制和交互操作”三个部分;其中“远程客户端场景数据下载”部分主要指下载场景数据,也就是从服务器上得到上传到服务器的数据和文件;“远程客户端场景数据导入”部分包括:场景数据导入和场景数据解析两个步骤;“远程客户端场景实时阴影绘制和交互操作”部分包括:GPU加速、阴影计算、分辨率控制,以及场景的实时阴影离线绘制和交互操作;
图4示出本发明场景绘制(图3)中“场景的实时阴影离线绘制方法和交互操作技术”总体流程图,包括视点视锥成像模块、场景模型选择模块和光源视锥成像模块。这是在在线获得数据以后而离线进行的。在绘制的每一帧中,视锥成像模块首先根据视点的位置采用平行分割深度纹理图像PSSM(Parallel-SplitShadowMapping)的方法将视点视锥分割成若干个子视锥,场景模型选择模块进行各个子视锥的模型裁剪处理,确定各个视锥内所要绘制的模型。然后将各个子视锥内的模型投影到光源坐标系下,由光源视锥成像模块生成各个子视锥的阴影图。最后视点视锥成像模块绘制场景,将并将光栅化后每一个片元的坐标投影到光源坐标系下,与其所属子视锥的阴影图的对应坐标位置进行并行的深度值比较,同时在阴影图进行反走样滤波,来产生软阴影效果,从而实现大场景实时绘制。
图5示出树木多分辨率模型列表按照生成顺序由上朝下排列,本图例为5个模型的列表;图5(a)表示最高分辨率;图5(b)表示次高分辨率;图5(c)表示次次低分辨率;图5(d)表示次低分辨率;图5(e)表示最低分辨率;
图6示出下载界面,包括互联网地址和传递过程,本图例中17个文件已经下载(每个树木都有5个不同分辨率模型表示),占需要下载的文件总量的37.5%;在此需要用户指定数据将要存储的磁盘位置而下载场景文件和所有多分辨率模型文件;
图7示出数据打开的界面,需要用户指定数据已经存储的磁盘位置而打开场景文件;
图8示出森林场景绘制中树木低分辨率模型向高分辨率模型的过渡效果,其中绘制共计605个树木;图8(a)表示的是只是传入了最低分辨率模型时的绘制效果,所有树木(605个)用最低分辨率模型绘制的效果,这些树木中三角形的个数为424662;图8(b)表示的是只是传入最低分辨率模型和次低分辨率模型时的绘制效果,大部分树木(464个)用最低分辨率模型,而少部分(141个)用次低分辨率模型,这些树木中三角形的个数为754042;图8(c)表示的是只是传入四个分辨率(最低、次低、次次低和次高分辨率)模型时的绘制效果,其中最低分辨率模型(462个),次低分辨率模型(76个),次次低分辨率模型(42个),次高分辨率模型(25个),这些树木中三角形的个数为1249235;
图9示出本发明视锥分割示意;
图10示出本发明反走样处理前的阴影效果与反走样后的阴影效果的比较;图10(a)表示反走样处理前的阴影效果,而图10(b)表示采用3*3高斯滤波器反走样后的阴影效果,图10(c)表示采用5*5高斯滤波器反走样后的阴影效果;
图11示出本发明动态阴影实时变化效果;图11(a)表示太阳还没有升高的效果;图11(b)表示太阳升高后的效果;
图12示出本发明在场景中穿行和飞行俯视方式的效果;图12(A)表示场景中穿行的效果,而图12(b)表示飞行俯视方式的效果;
具体实施方式
下面将结合附图对本发明加以详细说明,应指出的是,所描述的实例仅旨在便于对本发明的理解,而对其不起任何限定作用。
1方法概述
本发明解决的技术问题是解决互联网上复杂场景中真实感快速绘制问题,包括实现复杂场景的动态阴影实时计算和漫游。本发明的方法是三维几何模型简化技术和多分辨率模型系列抽取、三维几何模型简化的多分辨率模型序列转换、视锥裁剪和实时阴影,以及基于Web的数据下载等技术。复杂场景的真实感快速绘制主要用于电影和游戏制作、虚拟仿真、数字农林业和城市园林规划设计等很多方面。
本发明方法包括五个主要步骤:
第一步是复杂场景数据的构建。通过各种建模方法获取复杂度较高真实感较强的三维几何模型,根据预先确定的规则对每一个三维几何模型生成多分辨率模型序列模型。然后把生成的多分辨率序列模型输出为标准三维数据格式的文件。构建场景配置文件和纹理材质文件。每个场景再配置一个下载列表文件。
第二步是数据上传到服务器。将每一个多分辨率模型、场景配置文件和纹理材质文件都转换为二进制格式存储,并将这些二进制文件都转换成带有密码的菲利普·卡兹(PhilipKatz)数据压缩格式(zip格式)zip文件压缩包(简称zip压缩文件),在保护数据安全性的同时减小了文件大小,便于后续的网络传输。将所有这些文件,包括下载列表都上传到服务器。
第三步是客户端开启场景绘制程序后,首先下载指定的列表文件,然后根据列表下载表示场景配置文件、相应的多分辨率模型以及高程、地形纹理的zip压缩文件。这个下载的过程是递进的,下载多分辨率模型序列的时候,先下载低分辨率的再下载高分辨率的。绘制的过程与下载的过程分为两个线程,因此两者可以同时进行。若场景中需要的高分辨率模型还没有成功下载,则用低分辨率模型暂时代替。下载下来zip压缩文件读入内存后,将根据预先知道的密码对zip压缩文件解压成二进制模型文件,再把二进制文件读入至内存中,同时删除解压后的二进制文件,保护数据的安全性。
第四步是在绘制时将多分辨率模型序列组织成顶点对象数组(VertexBufferObject,VBO)输入到显存,加快绘制速度。实时阴影的成像技术,利用图形处理器(GPU)的并行性,采用开放图形程序接口(OpenGL)着色语言(OpenGLShadingLanguage/GLSL)的GPU编程语言,基于阴影贴图(Shadowmapping)的方法来生成动态实时的阴影效果。我们将视锥平行的分割成几个部分,对每一个视锥都生成一个阴影贴图,以便得到反走样的阴影效果。
第五步是产生阴影的深度纹理图像(也叫深度缓存图像)采用多分辨率的方式,离视点最近的深度纹理每帧都更新并且尺寸最大,离视点越远更新频率越低尺寸也随之减小,采用多绘制目标技术(或者多渲染目标技术)(MultipleRenderTargets)同时生成各个视锥中的深度纹理图。绘制时,在片元着色器(Fragmentshader)中的每一个元素与深度纹理图相比较而得到阴影效果。由于植物模型有很多细枝,阴影中走样和细枝不连续的效果比较明显,对此我们在片元着色器中采用高斯滤波来进行反走样处理。
图1示出整个方法的主体流程,而图2和图3示出了图1两个部分的步骤。图4示出了场景的实时阴影绘制方法和交互操作技术。
2复杂场景数据的构建
场景建模的成熟方法有许多种,主要包括基于图像的方法重建、或者是基于激光扫描点云的重建、或者是基于手绘图的构建、或者是基于植物生长机理的建模、或者是基于曲线曲面方法的构建、或者是利用软件手工交互构建以及这些方法的组合。通过这其中的某种建模方法构建复杂度较高真实感较强的三维几何模型,然后对每一个三维几何模型生成多分辨率模型序列。生成多分辨率模型序列的规则主要考虑场景绘制的需要和网络传输的限制。
流形模型的简化使用传统递进减化方法。整个简化过程被纪录下来用于构造多分辨率模型。对于拓扑结构复杂而且几何形状为非流形的模型,传统的递进简化方法失效,本专利包括的新方法是非流形对象的递进简化方法,特别是树木的叶片对象。按照局部空间占有度定义新的简单局部几何对象而替代原来复杂的几何对象,重复此过程直到生成最简单的表示模型。一个点集Ψ的空间占有度定义为以下四个点组成的四面体的体积,第一二个点为集合Ψ直径的两个端点,第三个点为集合Ψ中到二者距离之和的最大者,而第四个点为集合Ψ中到三者距离之和的最大者。最大占有度的四边形为这四个点按照第1、3、2、4的顺序来连接。本专利主要考虑两个多边形所有顶点的几何体,例如两个四边形的8个顶点,或者两个三角形的6个顶点,或者一个三角形与一个四边形的7个顶点;用其最大占有度的四边形来替代这个几何体。本递进简化方法也保持纹理坐标的简化与几何信息的简化一致,纹理坐标保持的基本原则是纹理图像长的方向与集合直径方向一致。对于树木模型中的树叶纹理,在递进简化的时候,把原来树叶的复杂的网格模型用定向四边形包围盒代替。其纹理坐标以(0,0),(1,0),(1,1),(0,1)代替。四边形顶点的序号以这个四边形的法向量为轴的方向构成右手系为正方向进行纹理映射。若树叶进一步简化,则相邻的两个四边形合并为一个大的四边形,重新计算这个面的法向量,再以右手规则确定顶点序号顺序和纹理坐标。
生成多分辨率模型生成以后,要选择具体模型来构建多分辨率模型列表(MR模型序列)。本专利使用的模型选择规则是依据该模型的复杂度离开视点的距离来确定的。模型的复杂度以模型所含有的多边形个数来定义。多边形的个数与它离视点的距离成函数关系。这个函数关系是线性函数或非线性函数(包括分段函数)。对于分段函数,就将距离分为k段,距离的分段点分别为{di}i=1,2,...,k且0≤d1≤d2≤…≤dk,则k个分段点把非负距离空间划分(k+1)个区间,各个区间的模型的多边形个数分别为{ni}i=1,2,...,k+1且n1≥n2≥…≥nk≥nk+1>0,其中n1为复杂度最高的几何模型,ni+1=s·ni,1≤i≤k,0<s<1。参数s是一个压缩系数,表示模型的简化率,可以由客户自主定义。
图5示出一棵树木多分辨率模型序列,这些模型体现了本专利方法保持了多分辨率模型对纹理信息的考虑,使得所有多分辨率模型都可以进行纹理映射(纹理贴图)。图5(a)显示出这棵树的最精细的模型,适合于这棵树离视点比较近的时候显示。这棵树的树枝部分含有15937个叶子,每一个叶子由一个多边形表示,再用四通道的纹理图像进行贴图,其树枝的表面多边形有214785个,也用树皮纹理进行贴图。图5(b)示出在模型(a)的基础上进行了简化,它的树叶包含15937个多边形,树枝表面有92682个多边形,模型复杂度相当于原有模型的50.6%;图5(c)示出在模型(b)的基础上进一步简化,它的树叶包含5688个多边形,树枝表面有14968个多边形,模型复杂度相当于原有模型的9.7%;图5(d)示出在模型(c)的基础上进一步简化,它的树叶包含1401个多边形,树枝表面有644个多边形,模型复杂度相当于原有模型的0.74%;图5(e)示出在模型(d)的基础上进一步简化,它的树叶包含86个多边形,树枝表面有644个多边形,模型复杂度相当于原有模型的0.26%。
多分辨率模型序列中各个模型的分辨率(对应于模型复杂度的简化率)为当前模型的多边形数量与最精细模型的多边形数量的比值,这个实验是按照一个分段函数来确定的,这个分段函数的典型表达式就是以下公式(2)。
其中dme表示模型与视点之间的距离,距离的单位为米。
这个实验的简化是优先简化树枝上的多边形,然后才是简化树叶的多边形。这是因为场景中的森林是有树叶的,由于树叶的遮挡,树枝的简化对保持场景的宏观上的真实感没有树叶的简化那么明显。
然后把生成的多分辨率序列模型导出为标准三维数据格式的文件。这里所说的标准三维模型数据的文件的内容包含模型各个顶点的三维坐标、顶点之间的连接关系即面信息、纹理坐标、材质文件名称和材质信息。文件的组织结构为顶点坐标、法向量、纹理坐标和面的信息构成一个组,每组指定一个材质信息。每一个面需指定顶点序号,也同时指定法向量序号或纹理坐标序号或者两者都指定。每个文件由一个组或者多个组构成。每个文件指定一个材质文件。
三维数据文件的编码为这些列表的纪录,而顶点信息和面片信息的编码纪录顺序与模型简化过程有关。这个关系体现在:顶点坐标的排序为递进减化过程中点被简化的逆顺序,对应的法向量坐标和纹理坐标使用遵守顺序。面的排序依靠顶点排列顺序,一个面的更多顶点在排序中如果靠前,自己的排序也在所有面的排序中靠前。在具体编码的时候,面顺序与顶点顺序的混合,其中顶点信息包括坐标、法向量坐标和纹理坐标。面顺序是主体,而顶点顺序依赖面顺序,要求每一个面的顶点都排在其前边,而且尽量靠近自己。
除了模型文件,还需要构建场景配置文件和纹理材质文件。场景配置文件需要描述每个场景的布局,包括每个模型的缩放、位置、旋转角度。纹理材质文件包括每个组的纹理的环境光、漫射光、反射光、透明度、纹理图像等材质属性。
此外,每个场景再配置一个地形模型,含高程图和纹理文件或者输入一张地形图像作为地形模型。以地形图像作为地形模型时,其高度信息以图像的亮度值进行缩放后得到。
最后,把上述所有文件列到一个文本文件中作为下载的列表,一般先列场景配置文件,然后是地形文件、纹理材质文件,最后才是几何模型的多分辨率模型序列。这些多分辨率模型序列也先列出文件小复杂度低的模型的再列复杂度较高的模型文件,这样便于客户快速下载到一部分的场景数据。称这个指导下载内容和顺序的文件为下载列表文件。
3数据的上传
将每一个多分辨率模型、场景配置文件和纹理材质文件都转换文为二进制格式存储,并自动将二进制模型文件打成带有密码的zip压缩包,在保护数据安全性的同时减小了文件大小,便于后续的网络传输。将所有这些文件,包括下载列表文件都上传到服务器。
4下载及导入
客户端的用户数据下载模块主要用来从网络下载远程数据。远程数据的地址需预先知道,因此只有特定客户端的用户才能下载场景数据。数据下载的顺序是:先获取下载列表文件,再依据列表文件逐步下载场景配置文件、地形文件和多分辨率模型序列模型。下载多分辨率模型序列时,先下载数据量小的复杂度低的模型,再下载数据量较大的复杂度高的模型。图6示出了一个下载的操作界面,下载的进度用界面右上角的百分率表示,也可以在控制台窗口(图6的下半部分)上看到。
数据的导入分两个阶段。第一阶段为客户端的用户指定当前需要绘制的场景文件,该文件记录了场景的所有信息,比如,场景中压缩后的模型(zip压缩文件)的名称、位置以及场景的高程和地表纹理等。第二阶段,根据场景文件,将zip文件解压成二进制模型文件后,读入至内存中,同时删除解压后的二进制文件,保护数据的安全性,将场景数据读入。
上述的数据下载和数据导入可以并行的,数据下载是通过辅助线程执行,因此,这里的基于互联网的场景绘制考虑了网络下载中可能丢失数据或者数据下载不成功时的处理,即通过双线程方式边下载数据边进行场景绘制,对于没有下载的模型则以最简单的模型代替,使得一个简化的场景得以绘制出来,使客户端的用户能初步看到场景的效果,随着下载的模型越来越多越来越全,绘制的场景越来越清晰,也越来越具有真实感。图7的界面在图6的基础上多了一个打开文件的对话框,它用来显示在数据下载的过程中,数据可以同时被读入到程序中来。
5场景绘制
5.1多分辨率模型序列的流畅转换
为了实现多分辨率模型序列的流畅转换,首先要做的是在绘制模型前将不在视点视锥内的模型裁减掉,这样可以大大减小绘制负担,从而提高绘制速度。
具体的方法是对于每个模型预先计算出它的包围盒,计算其包围盒的八个顶点在视口坐标系下的坐标值,若这八个顶点在视口坐标系下的投影均不在视口范围内,则该模型被裁减掉,不进行绘制。然而这样做会使一些离视点很近的模型错误地裁剪掉,并且随着视点的移动错误裁减掉的模型又会突然出现在视锥内,产生一种突然出现突然消失的颠簸感。为此我们增加了一条限制,即总是绘制离视点位置很近的模型,这样虽然会多绘制几棵位于视锥之外的树木,但是实验证明这对绘制速度的影响并不大。同样在生成阴影贴图时,在光源视锥内做相同的裁剪操作。然后通过计算视点视锥中每棵树与视点间的距离,根据客户端的用户指定的阈值来选取相应的多分辨率模型。
由于客户端的用户的计算机硬件配置千差万别,相同参数下的同一场景的绘制速度和绘制效果也不同。对于同一台计算机,客户端的用户在不同情形下想要的效果也不同,例如有时客户端的用户想要得到精细的绘制效果而不考虑绘制速度,有时想要到达实时的场景漫游体验而对模型的精细程度不做要求。因此我们提供了一个可供客户端的用户选择的模型分辨率控制接口,客户端的用户可以通过该接口交互式地控制各级多分辨率模型的距离范围,来调节场景的复杂度,根据自己的体验,得到自己满意的效果。接口后端的控制来自说明书第13页的公式(2)。
图8示出通过交互式地控制各级多分辨率模型的距离来调节场景复杂度的效果。其中图8(a)示出方法默认情况下的场景绘制,离视点11米之内的树都用真实感最强的模型,树枝形态、树叶形状大小以及阴影效果都比较好;而11米至39米之间的用简化后的树;而40米至95米之间的用简化得更多的树木模型;超出95米后的树则用更加简化的模型。通过以上策略,实现既有远近绘制效果良好又有较快显示速度的场景绘制。图8(b)示出调整了参数的绘制效果,适合于计算机配置比较差的情况或者网络速度跟不上没有下载到精细模型的现实效果,这个场景中近距离的模型也基本上做了一些简化的模型。图8(c)示出调整了参数的绘制效果,适合于计算机配置更加差的情况或者网络速度很慢只下载到最简单模型的场景绘制,这个场景中近距离的模型几乎都是比较简单的模型。但是,我们的方法在只使用简化模型的基础上也能取得宏观上具有真实感较好的场景效果。当客户端把精细模型下载到本机后,近视点的真实感绘制也能进一步得到增强。
5.2实时阴影计算
阴影的生成是基于阴影贴图(Shadowmapping)的方法,每一帧需要进行两遍绘制,第一遍绘制在光源视锥中(光源空间)绘制当前场景,获得当前的深度纹理图像(shadowmap)。深度缓存图像中的每一个像素存储了当前位置距离光源最近的深度值。第二遍绘制是在视点视锥(视点空间)中进行的,在片元着色器(fragmentshader)中将每一个三维的片元(fragment)坐标投影到光源空间中若投影后的深度值比深度纹理图像(shadowmap)当前点的深度要大,则该点在阴影中。
采用一个阴影贴图的方式阴影的走样往往比较严重,为此要进行反走样处理,将视点视锥根据比例分割成多个部分(如图9所示),对每一部分分别计算光源方向的视锥里的阴影深度纹理。
第一遍绘制时,在每个光源视锥里也做与视点视锥内一样的模型裁剪操作,将不在当前光源视锥内的模型裁减掉,即只绘制当前光源视锥内的模型。这样即使进行了视点视锥的分割,第一遍绘制时的几何复杂度几乎不变。即在视锥分割后生成多个深度纹理图像所要绘制的模型总数量与不分割视锥只生成一张深度纹理缓存图像所要绘制的模型数量差别不大。在第二遍绘制时,在片元着色器中的先判断每一个像素在哪一个视锥当中,再将该像素的坐标变化到所属光源视锥下的坐标,同时与对应深度纹理图比较得到阴影效果。植物模型的阴影有其特殊性,由于植物模型中有很多错综复杂的枝叶,因此阴影中走样和细枝不连续的效果比较明显,对此我们在片元着色器中采用高斯滤波来进行反走样处理,处理前与处理后的结果分别如图10(a)和图10(b)(3*3平滑滤波器),图10(c)(5*5平滑滤波器)所示。这里的高斯滤波是指每一个点的阴影贡献值sf是在深度纹理中的阴影深度值的高斯卷积。我们设计了2个不同的高斯平滑滤波来得到不同的阴影反走样效果。其中一个k*k的滤波器如公式(1)所示:
其中,
k为正的奇数,||Δ||1为向量Δ的1范数(i=1,2)。p为图元(primitive)光栅化后片元(fragment)在屏幕坐标系下的坐标,stex[x]判断位置点x是否在阴影中,若位置点x在阴影中则返回0,若位置点x不在阴影中则返回1。sf取值范围为0.0到1.0之间,将被用来进行阴影中的片元和不在阴影中的片元的光照计算。
场景中采用简单光照模型(Phong光照模型)进行光照计算,由漫反射,镜面反射和环境光组成。
在简单着色法(Phongshading)的基础上加入了阴影的效果,对每一个片元的计算步骤为:
1)计算环境光ambient:Ia;
2)计算漫反射光diffuse:Id;
3)计算镜面反射光specular:Is;
4)阴影贡献系数值:f;
5)片元的颜色:I=Ia+(Kd*Id+Ks*Is)*f;
其中Kd和Ks分别是模型材质对漫反射光和镜面反射光的反射率。
对于不同部分的视锥,阴影的深度纹理采用了不同的更新频率,离视点最近的视锥每帧都更新,离视点越远更新频率越低。在生成深度纹理(即shadowmap)时,离视点越近的视锥所设置的深度纹理的尺寸也越大,反之则越小。例如:对离视点近的视锥采用大尺寸的纹理截取深度纹理图像(4096*4096像素)以便得到较精确的深度信息,对离视点最远处的视锥采用小尺寸的纹理截取深度纹理图像(512*512像素)。对于所有分割的视锥部分采用多绘制目标技术(MultipleRenderTargets)同时生成各个视锥中的深度纹理图。
图4示出场景的实时阴影绘制方法和交互操作技术,这是在在线获得数据以后而离线进行的。
6实验结果与结论
用C++语言实现了本发明所描述的方法。所有的实验都是在一台Corei72.67GHzCPU、2GB内存、NVidiaGTX460显示芯片、操作系统为WindowsXP的PC机上完成的,使用了OpenGL2.0图形函数库。
这些实验中,每棵树的模型都做了一个多分辨率模型序列,每一个序列包括四个不同分辨率的模型。图12(a)示出一个包含有43350棵植物模型的复杂场景,以俯视的方式漫游,绘制窗口的分辨率为1920*1150像素。图12(b)示出一个包含有43350棵植物模型的复杂场景,以俯视的方式漫游,绘制窗口的分辨率为1920*1150像素。从截图效果可以看出本发明专利的方法能够在保持真实感的前提下实时绘制大规模的场景。
表1列出了实验数据的情况,包括每秒绘制的帧数(FPS),视点视锥内模型的数量,LOD控制的距离,每级多分辨率模型的数量以及视锥内多边形的总数量等。每级多分辨率模型的数量表示当前视点位置中,视锥内显示的各个多分辨率模型的数量。比如表1中每级多分辨率模型的个数数量分别为24;32;175;202。表示在距视点899厘米的范围内有24棵模型复杂度最高的树;在距视点900~2861厘米的范围内有32棵复杂度次高的模型;在距视点2862~14201厘米的范围内有175棵复杂度较低的模型;而在距视点14202厘米的范围之外视线范围以内还有202棵复杂度更低的模型。
表1:实验数据
图12(a) | 图12(b) | |
FPS | 23.91 | 11.85 |
视锥内模型数量 | 433 | 8667 |
分辨率控制距离设定 | 899;2861;14201 | 205;529;1991 |
每级多分辨率模型数量 | 24;32;175;202 | 98;121;156;8292 |
视锥内多边形数量 | 1075622 | 21737965 |
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (17)
1.一种互联网环境中复杂场景真实感快速绘制方法,包括步骤:
a)生成场景对象多分辨率模型序列、场景配置文件、纹理材质文件;
b)针对每个场景,配置下载列表文件,将场景对象多分辨率模型序列、场景配置文件、纹理材质文件压缩并上传到服务器,并将所述下载列表文件上传到服务器;
c)客户端下载所述下载列表文件,根据所述下载列表文件,按顺序下载场景配置文件、纹理材质文件、场景对象多分辨率模型序列,所述多分辨率模型序列的下载顺序为先低分辨模型后高分辨模型,场景快速绘制与所述下载同时进行;
其中,所述场景快速绘制包括将视锥平行地分割成几个部分,对每个视锥都生成一个阴影图,对阴影图进行滤波,从而得到反走样的阴影效果;以及
离视点最近的深度纹理每帧都更新且尺寸最大,离视点越远更新频率越低且尺寸也越小。
2.根据权利要求1所述的方法,其特征在于按下述规则生成场景对象多分辨率模型:
对于两个多边形,它们所有顶点组成集合Ψ,计算一新四边形来替代它们,新四边形四个顶点计算如下:取第一、第二个顶点为Ψ的直径的两个端点;取第三个顶点为Ψ中到二者距离之和的最大者;而取第四个顶点为Ψ中到三者距离之和的最大者,重复此替代过程,从而产生所述场景对象多分辨率模型。
3.根据权利要求1所述的方法,其特征在于,所述场景对象多分辨率模型包括高分辨率模型和低分辨率模型,其中,模型的分辨率以该模型含有的多边形的个数来定义。
4.根据权利要求3所述的方法,其特征在于所述多边形的个数与该模型离视点的距离成函数关系。
5.根据权利要求1所述的方法,其特征在于所述场景配置文件包括物理对象的属性信息。
6.根据权利要求5所述的方法,其特征在于所述物理对象包括树木、建筑物和地形。
7.根据权利要求5所述的方法,其特征在于所述属性信息包括名称、位置、旋转角度、倾斜角度、大小性质、缩放尺寸和几何模型数据的文件名称。
8.根据权利要求1所述的方法,其特征在于所述纹理材质文件包括模型的环境光信息、漫射光信息、镜面反射光信息和纹理图像。
9.根据权利要求1所述的方法,其特征在于所述下载列表文件将场景对象多分辨率模型序列、场景配置文件和纹理材质文件的文件名称和对应目录信息列成场景数据列表文件。
10.根据权利要求9所述的方法,其特征在于所述场景数据列表文件先列出场景配置文件,然后是纹理材质文件,最后是场景对象多分辨率模型序列。
11.根据权利要求10所述的方法,其特征在于所述场景对象多分辨率模型序列先列出分辨率低的模型文件,然后是分辨率高的模型文件。
12.根据权利要求1所述的方法,其特征在于所述分割是将视锥平行于远截面沿垂直于视线的方向分成多个部分,用于提高视点附近对象的深度纹理分辨率。
13.根据权利要求1所述的方法,其特征在于只绘制当前光源视锥内的模型,对不在当前光源视锥内的模型进行快速剪裁。
14.根据权利要求13所述的方法,其特征在于所述快速剪裁包括:
对于每个模型预先计算出其包围盒,计算其包围盒的八个顶点在当前的屏幕视口坐标系下的坐标值和到视点的距离,若距离太小就不进行裁剪;若距离不是太小,而且这八个顶点在屏幕视口坐标系下的投影均不在屏幕视口范围内,则该模型被裁剪掉,不进行绘制。
15.根据权利要求1所述的方法,其特征在于在客户端的显存中采用高斯滤波器来光滑阴影深度纹理。
16.根据权利要求15所述的方法,其特征在于按下式进行所述高斯滤波:
其中,
k为正的奇数,||Δ||1为向量Δ的1范数,p为图元primitive光栅化后片元fragment在屏幕坐标系下的坐标,stex[p+Δ]判断位置点p+Δ是否在阴影中,若位置点p+Δ在阴影中则返回0,若位置点p+Δ不在阴影中则返回1,sf取值范围为0到1.0之间,将被用来进行阴影中的片元和不在阴影中的片元的光照计算。
17.根据权利要求1所述的方法,其特征在于在客户端绘制时,光栅化后每一个片元与滤波后的深度纹理的对应像素位置并行地进行深度值比较,生成最终的阴影效果。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2010/002162 WO2012083508A1 (zh) | 2010-12-24 | 2010-12-24 | 互联网上复杂场景真实感快速绘制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103180881A CN103180881A (zh) | 2013-06-26 |
CN103180881B true CN103180881B (zh) | 2016-08-03 |
Family
ID=46313009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080069062.8A Active CN103180881B (zh) | 2010-12-24 | 2010-12-24 | 互联网上复杂场景真实感快速绘制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9773343B2 (zh) |
CN (1) | CN103180881B (zh) |
WO (1) | WO2012083508A1 (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102903146B (zh) * | 2012-09-13 | 2015-09-16 | 中国科学院自动化研究所 | 用于场景绘制的图形处理方法 |
CN104751464B (zh) * | 2015-03-30 | 2017-12-01 | 山东大学 | 基于相机光源阵列模式的真实感材质测量装置及方法 |
US20210067758A1 (en) * | 2016-10-12 | 2021-03-04 | Samsung Electronics Co., Ltd. | Method and apparatus for processing virtual reality image |
CN106530234B (zh) * | 2016-10-14 | 2019-09-20 | 广州酷狗计算机科技有限公司 | 图片显示方法及装置 |
EP3349184A1 (en) * | 2017-01-16 | 2018-07-18 | Keygene N.V. | Monitoring plants |
CN106952329A (zh) * | 2017-02-21 | 2017-07-14 | 长沙趣动文化科技有限公司 | 基于Unity3D与NGUI的粒子特效编辑方法及系统 |
WO2018157375A1 (zh) * | 2017-03-03 | 2018-09-07 | 小天才科技有限公司 | 游戏地图的物体绘制方法及装置 |
CN107274476B (zh) * | 2017-08-16 | 2020-12-18 | 城市生活(北京)资讯有限公司 | 一种阴影图的生成方法及装置 |
US11290758B2 (en) | 2017-08-30 | 2022-03-29 | Samsung Electronics Co., Ltd. | Method and apparatus of point-cloud streaming |
CN108109192A (zh) * | 2017-12-15 | 2018-06-01 | 苏州蜗牛数字科技股份有限公司 | 游戏场景中模型自适应地貌材质的方法 |
CN108520557B (zh) * | 2018-04-10 | 2022-02-22 | 中国人民解放军战略支援部队信息工程大学 | 一种图形图像融合的海量建筑绘制方法 |
CN111047676B (zh) * | 2018-10-12 | 2023-04-25 | 中国移动通信集团广西有限公司 | 一种图像渲染方法、装置及存储介质 |
CN109377554B (zh) * | 2018-10-31 | 2023-06-09 | 上海新迪数字技术有限公司 | 大型三维模型绘制方法、设备、系统及存储介质 |
CN109614717A (zh) * | 2018-12-14 | 2019-04-12 | 北京惠佳家品科技有限公司 | 一种3d虚拟家装场景加载方法及系统 |
US11375178B2 (en) * | 2019-03-04 | 2022-06-28 | Dolby Laboratories Licensing Corporation | Multi-resolution multi-view video rendering |
CN110060325B (zh) * | 2019-04-19 | 2020-07-24 | 成都四方伟业软件股份有限公司 | 屏幕空间渲染方法及装置 |
CN110738721B (zh) * | 2019-10-12 | 2023-09-01 | 四川航天神坤科技有限公司 | 基于视频几何分析的三维场景渲染加速方法及系统 |
CN111090759B (zh) * | 2019-10-23 | 2023-05-12 | 中电科新型智慧城市研究院有限公司 | 一种海量真景大数据跨级加载的算法 |
CN111028361B (zh) | 2019-11-18 | 2023-05-02 | 杭州群核信息技术有限公司 | 三维模型及材质合并方法、装置、终端、存储介质以及渲染方法 |
CN111462288A (zh) * | 2020-03-31 | 2020-07-28 | 国家基础地理信息中心 | 林草资源三维实时动态立体表达方法、装置和电子设备 |
CN117132702A (zh) * | 2020-04-08 | 2023-11-28 | 网易(杭州)网络有限公司 | 游戏的光影数据处理方法、装置以及游戏设备 |
CN111462318B (zh) * | 2020-05-26 | 2022-05-17 | 南京大学 | 一种基于视点互信息的三维树木模型实时简化方法 |
CN111768112A (zh) * | 2020-07-02 | 2020-10-13 | 中铁电气化局集团有限公司 | 一种铁路营业线施工方法及系统 |
CN111968212B (zh) * | 2020-09-24 | 2024-05-03 | 中国测绘科学研究院 | 一种基于视点的三维城市场景数据动态调度方法 |
CN112634456B (zh) * | 2020-12-29 | 2023-10-13 | 浙江传媒学院 | 基于深度学习的复杂三维模型的实时高真实感绘制方法 |
CN113034689B (zh) * | 2021-04-30 | 2023-09-19 | 睿宇时空科技(重庆)股份有限公司 | 基于激光点云的地形三维模型及地形图构建方法和系统、存储介质 |
US20230332922A1 (en) * | 2022-04-15 | 2023-10-19 | Onxmaps, Inc. | Methods and systems for providing a real-time viewshed visualization |
CN116366827B (zh) * | 2023-01-13 | 2024-02-06 | 北京航空航天大学云南创新研究院 | 面向web端的高精度大场景图像处理传输方法及其装置 |
CN117372599B (zh) * | 2023-12-04 | 2024-03-01 | 山东理工大学 | 一种海量真三维模型加载优化方法 |
CN117689791B (zh) * | 2024-02-02 | 2024-05-17 | 山东再起数据科技有限公司 | 三维可视化多场景渲染应用集成方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1564203A (zh) * | 2004-04-12 | 2005-01-12 | 浙江大学 | 一种分级层次化组装式深度拼图集的快速绘制森林方法 |
CN1851753A (zh) * | 2005-11-28 | 2006-10-25 | 北京航空航天大学 | 一种基于状态集的Shader三维图形绘制框架和绘制方法 |
CN1904944A (zh) * | 2006-08-01 | 2007-01-31 | 中国科学院计算技术研究所 | 一种虚拟人实时绘制方法 |
CN101136108A (zh) * | 2007-09-26 | 2008-03-05 | 腾讯科技(深圳)有限公司 | 阴影绘制方法及渲染装置 |
CN101216954A (zh) * | 2008-01-21 | 2008-07-09 | 浙江大学 | 一种基于分级层次化深度网格的森林绘制方法 |
CN101488235A (zh) * | 2008-01-16 | 2009-07-22 | 中国科学院自动化研究所 | 针叶类植物冠层的层次细节模型构造方法 |
CN101527050A (zh) * | 2008-03-07 | 2009-09-09 | 上海显度数码科技有限公司 | 基于模型简化和多分辨率表示的虚拟商务场景优化方法 |
CN101661628A (zh) * | 2008-08-28 | 2010-03-03 | 中国科学院自动化研究所 | 植物场景的快速渲染及漫游方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5870097A (en) * | 1995-08-04 | 1999-02-09 | Microsoft Corporation | Method and system for improving shadowing in a graphics rendering system |
US6628298B1 (en) * | 1998-07-17 | 2003-09-30 | The Regents Of The University Of California | Apparatus and method for rendering synthetic objects into real scenes using measurements of scene illumination |
US6943803B1 (en) * | 1998-09-21 | 2005-09-13 | Evans & Sutherland Computer Corporation | Anti-aliased, textured, geocentric and layered fog graphics display method and apparatus |
US7042454B1 (en) * | 1999-10-27 | 2006-05-09 | Hewlett-Packard Development Company, L.P. | Method and apparatus for displaying distributed multiresolution scenes |
US7593010B2 (en) * | 2003-09-18 | 2009-09-22 | Microsoft Corporation | Software-implemented transform and lighting module and pipeline for graphics rendering on embedded platforms using a fixed-point normalized homogenous coordinate system |
FR2862792A1 (fr) * | 2003-11-26 | 2005-05-27 | Wecoh Engineering Sa | Procede de conversion de donnees vectorielles en modeles mailles multi-facette |
US7385608B1 (en) * | 2003-12-31 | 2008-06-10 | 3Dlabs Inc. Ltd. | State tracking methodology |
KR20090041402A (ko) * | 2006-07-18 | 2009-04-28 | 더 트러스티스 오브 더 유니버시티 오브 펜실바니아 | 편광을 사용해서 중첩되어 드리워진 그림자 성분들의 분리와 콘트라스트 강화 및 그림자 내의 표적 탐지를 위한 방법 |
US9213905B2 (en) * | 2010-10-25 | 2015-12-15 | Trimble Navigation Limited | Automatic obstacle location mapping |
US8988461B1 (en) * | 2011-01-18 | 2015-03-24 | Disney Enterprises, Inc. | 3D drawing and painting system with a 3D scalar field |
US9142056B1 (en) * | 2011-05-18 | 2015-09-22 | Disney Enterprises, Inc. | Mixed-order compositing for images having three-dimensional painting effects |
-
2010
- 2010-12-24 US US13/884,923 patent/US9773343B2/en active Active
- 2010-12-24 CN CN201080069062.8A patent/CN103180881B/zh active Active
- 2010-12-24 WO PCT/CN2010/002162 patent/WO2012083508A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1564203A (zh) * | 2004-04-12 | 2005-01-12 | 浙江大学 | 一种分级层次化组装式深度拼图集的快速绘制森林方法 |
CN1851753A (zh) * | 2005-11-28 | 2006-10-25 | 北京航空航天大学 | 一种基于状态集的Shader三维图形绘制框架和绘制方法 |
CN1904944A (zh) * | 2006-08-01 | 2007-01-31 | 中国科学院计算技术研究所 | 一种虚拟人实时绘制方法 |
CN101136108A (zh) * | 2007-09-26 | 2008-03-05 | 腾讯科技(深圳)有限公司 | 阴影绘制方法及渲染装置 |
CN101488235A (zh) * | 2008-01-16 | 2009-07-22 | 中国科学院自动化研究所 | 针叶类植物冠层的层次细节模型构造方法 |
CN101216954A (zh) * | 2008-01-21 | 2008-07-09 | 浙江大学 | 一种基于分级层次化深度网格的森林绘制方法 |
CN101527050A (zh) * | 2008-03-07 | 2009-09-09 | 上海显度数码科技有限公司 | 基于模型简化和多分辨率表示的虚拟商务场景优化方法 |
CN101661628A (zh) * | 2008-08-28 | 2010-03-03 | 中国科学院自动化研究所 | 植物场景的快速渲染及漫游方法 |
Non-Patent Citations (2)
Title |
---|
《Billboards for Tree Simplification and Real-time Forest Rendering》;Guanbo Bao et al.;《Plant Growth Modeling, Simulation, Visualization and Applications (PMA), 2009 Third International Symposium on》;20091113;第433-440页 * |
《Real-Time Rendering of Large-Scale Tree Scene》;Huai Yongjian et al.;《Proceedings of 2009 4th International Conference on Computer Science & Education》;20091231;第748-752页 * |
Also Published As
Publication number | Publication date |
---|---|
US9773343B2 (en) | 2017-09-26 |
CN103180881A (zh) | 2013-06-26 |
WO2012083508A1 (zh) | 2012-06-28 |
US20150035830A1 (en) | 2015-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103180881B (zh) | 互联网上复杂场景真实感快速绘制方法 | |
Deussen et al. | Interactive visualization of complex plant ecosystems | |
CN102903146B (zh) | 用于场景绘制的图形处理方法 | |
DE60107130T2 (de) | Sichtbarkeitsprojektion und Bildrekonstruktion für Oberflächenelemente | |
KR20090114860A (ko) | 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치 | |
CN111784833A (zh) | 基于WebGL的洪水演进态势三维动态可视化展示方法 | |
CN105205861A (zh) | 基于Sphere-Board的树木三维可视化模型实现方法 | |
Decaudin et al. | Volumetric billboards | |
CN105184843B (zh) | 一种基于OpenSceneGraph的三维动画制作方法 | |
Zhang et al. | Tree branch level of detail models for forest navigation | |
Bao et al. | Realistic real-time rendering for large-scale forest scenes | |
Boudon et al. | Survey on computer representations of trees for realistic and efficient rendering | |
Deng et al. | Multiresolution foliage for forest rendering | |
Lacewell et al. | Stochastic billboard clouds for interactive foliage rendering | |
CN114119821A (zh) | 虚拟对象的毛发渲染方法、装置及设备 | |
Amara et al. | A GPU Tile-Load-Map architecture for terrain rendering: theory and applications | |
Bao et al. | Billboards for tree simplification and real-time forest rendering | |
Wesslén et al. | Real-time visualization of animated trees | |
Boulanger | Real-time realistic rendering of nature scenes with dynamic lighting | |
Seemann et al. | Soft Transparency for Point Cloud Rendering. | |
Candussi et al. | Rendering Realistic Trees and Forests in Real Time. | |
Deng et al. | Continuous LOD Model of Coniferous Foliage. | |
Mikuličić et al. | Procedural generation of mediterranean environments | |
Rebollo et al. | A clustering framework for real-time rendering of tree foliage. | |
Yu et al. | Interactive 3-D Visualization of Real Forests. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |