CN111373446B - 用于流式渲染的实时潜在可见集合 - Google Patents
用于流式渲染的实时潜在可见集合 Download PDFInfo
- Publication number
- CN111373446B CN111373446B CN201780097048.0A CN201780097048A CN111373446B CN 111373446 B CN111373446 B CN 111373446B CN 201780097048 A CN201780097048 A CN 201780097048A CN 111373446 B CN111373446 B CN 111373446B
- Authority
- CN
- China
- Prior art keywords
- client
- camera
- triangle
- model data
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 claims abstract description 99
- 238000005070 sampling Methods 0.000 claims description 30
- 230000004886 head movement Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 21
- 238000012360 testing method Methods 0.000 description 21
- 239000012634 fragment Substances 0.000 description 10
- 230000004927 fusion Effects 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000750 progressive effect Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241000710179 Potato virus S Species 0.000 description 1
- 241001351225 Sergey Species 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000004544 sputter deposition Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/16—Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/08—Bandwidth reduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Image Generation (AREA)
Abstract
本发明涉及一种用于将3D模型数据从服务器传输给客户端以用于渲染的方法,所述3D模型数据包括多边形,所述方法包括以下步骤:由所述服务器获得所述3D模型数据;并且将所述3D模型数据从所述服务器传输给所述客户端。根据本发明,服务器基于给定的大量的可能视图来获得所述3D模型数据。
Description
技术领域
本发明涉及用于流式渲染(streaming rendering)的方法和装置。
背景技术
实时图形需要日益增长的处理能力。虚拟现实(VR)的最近繁荣已经扩大了这个需求。为了在VR中提供沉浸式体验,在使用头戴式显示器(HMD)时,应用必须为双眼提供高分辨率的、非常高帧率的高视觉保真。即使是最近的高端图形处理单元(GPU)也不能满足这个需求。
尽管系留式HMD系统在连接到高端计算机时支持高质量图形和响应性,但是流畅的用户体验需要用于避免视觉颤抖的方法。异步空间扭曲[http://developer.oculus.com/blog/asynchronous-spacewarp]是这样的技术:该技术在呈现时间更新当前帧,从而根据最近的头部移动变换最后的深度和颜色缓冲器,以便掩蔽小的移动并使用户体验更流畅。然而,该技术只对旋转是正确的,如果图像没有被明显过采样,则遭受质量损失,并且由于平移移动导致的去遮挡引入撕裂伪像。
并发趋势围绕使用容易买到的移动装置(诸如移动电话)直接作为非系留式HDM发展。虽然在HMD上直接计算渲染具有优势,诸如传感器数据的可用性,但是移动芯片提供的渲染能力对于高质量内容是不足的。由于散热约束和有限的蓄电池电源,移动GPU将与台式GPU达到同等水平是不大可能的。作为补救,非系留式HMD可以(例如,在云或Wi-Fi连接的台式计算机中)与远程服务器组合为渲染装置。然而,Wi-Fi连接使渲染延时增加长达100ms,并且广域连接使渲染延时增加长达200ms。为了通过移除有线连接来提高移动性并且使游戏系统的成本保持较低,用于降低远程渲染期间的这种高延时的负面影响的各种方法已经被提出。
独立于设立强大的服务器并且使用另一装置(即,客户端)显示的确切的场景,前面提出的系统采用类似的构思。在核心方面,它们使用如最近的调查[Shu Shi和Cheng-Hsin Hsu.2015年.A Survey of Interactive Remote Rendering Systems.ACMComput.Surv.47,4,Article 57(2015年5月),29页.h.ps://doi.org/10.1145/2719921]所概述的基于图像的渲染技术。服务器将为前一视图、推测的新视图或近距离视图创建的任何数量的图像递送给客户端;客户端拾取一个或多个视图,并且根据中间的相机移动来扭曲它们。取决于扭曲技术,所产生的新视图可以考虑深度信息和去遮挡,并且甚至可以用想象的内容来推测地填满未被覆盖的场景区域。
基于图像的方法总是伴随有如下缺点:与大深度不连续共存的精细场景结构和高频信息造成难以克服的问题。虽然在正常渲染期间欠采样的高频内容将“仅”导致混叠伪像,但是扭曲技术将明显使这些问题更糟,因为它们将已经未充分表示的信息重新投影到新的采样网格上。此外,当传输或恢复深度信息时,对象的少量采样在重新投影之后将导致断开的部分。类似地,当大深度不连续存在于场景中时,去遮挡后的区域通常将导致清楚可见的伪像。
发明内容
因此本发明的目的是提出实时地提供高质量流式渲染的方法和装置。
通过根据独立权利要求的方法和装置来实现该目的。从属权利要求中限定了有利的实施例。
根据本发明的一个方面,提出了在客户端上从3D数据的基于图像的方法切换到前向渲染技术。代替扭曲来自前一帧的像素,客户端简单地渲染多边形,例如,三角形,很像传统的渲染系统。
为了减轻客户端上的渲染负担,三角形数据在服务器上被预先处理并被描影(shade),并且只有渲染潜在需要的那些多边形必须在需要它们之前被递送给客户端。
为此,本发明引入了相机偏移空间,所述相机偏移空间对于像面上的给定的点或采样位置,提供该点在哪个相机偏移下被给定多边形覆盖的信息。通过对每一个像素位置构造相机偏移空间,示出了针对平移相机移动、可以如何计算光栅化的图像的整个PVS。通过将相机偏移空间升高另两个维度,示出了它可以如何被用于针对任意的采样位置和旋转相机移动来计算PVS。通过使用渲染流水线级和计算模式执行的组合来提供对于当前的GPU的整个PVS计算的实现。
与现有技术相比,本发明方法对于去遮挡没有任何问题,因为整个PVS被传输给客户端。客户端上的渲染不涉及从深度缓冲器的复杂几何构造、单步遍历深度图像、或代理几何体的要求。利用深度缓冲,就多边形而言,PVS被简单地渲染。
附图说明
当结合附图研究以下详细描述时,本发明的这些及其他方面将变得更加清楚,在附图中
图1a示出根据本发明的第一实施例的用于在服务器上实现的流式渲染的方法。
图1b示出用于渲染从服务器接收的流化的图形数据的方法。
图2示出一些三角形星座和相机偏移空间星座的例子。
图3示出可以如何在旋转角度减小的情况下,对于所有的边、通过2D区域来计算用于3D区域的潜在可见集合(来自上方的视图)。
图4示出所提出的渐进可见性解析算法的示例步骤。
图5用伪代码示出根据本发明的实施例的用于渐进可见性解析的方法,其中示例步骤是针对图4中的一些三角形。
图6示出没有轮廓交点的六种可能的情况。
图7示出在服务器上实现的根据本发明的另一实施例的用于流式渲染的方法。
图8示出在不同的使用情况场景期间记录的大的户外场景(4.6M三角形)的示例视图。
具体实施方式
图1a示出根据本发明的第一实施例的用于在服务器上实现的流式渲染的方法。在步骤110中,使用包括多边形(三角形)的图形数据和当前相机视图作为输入来实时地确定多边形(三角形)的潜在可见集合(PVS)。
根据本发明,在给定潜在相机视图或移动集合的情况下,所述方法确定对象是否可以在屏幕上的给定位置处被采样。通过将该方法扩展到屏幕上的所有采样位置、并且进一步扩展到之间的所有位置,在所有的相机移动下,所有对象的可见性都可以相对于所有的其他对象被确定。
在步骤120中,用描影数据来扩增多边形的潜在可见集合。在步骤130中,所得的图形数据被编码,并且被发送或传输给客户端。
图1b示出用于渲染从服务器接收的流化的图形数据的方法。在步骤140中,对图形数据进行解码。在步骤150中,使用例如从其更新用户的当前视图透视图的表示用户的头部移动的信息来渲染解码的图形数据。
为了示出如何在没有连接或者与对象的对应关系作为输入的情况下获取三角形的渲染流并且仅从该数据流构造PVS,裁剪空间中的单个三角形T=(p0;p1;p2),其中pi=[xiyi zi wi]T,并且三维立方体区域内的相机移动被认为是第一个例子。令支持的相机移动是围绕当前相机位置定义的,并且描述在相机空间中定义为0±C的立方体,其中C对应于应对其计算PVS的相机偏移。
三角形的投影被描述为该三角形的边的投影,该投影对应于裁剪空间的(x,y,w)子空间中的平面。T的边ei的平面由顶点的x、y和w坐标的成对交叉乘积给出:
其中对于规范化的装置坐标中的采样位置[xs ys]T,可以测试该采样位置是否被三角形覆盖,从而确定其相对于所有三个侧平面的位置。如果
则三角形覆盖采样。点·指示矢量的点积。
考虑到潜在相机移动相机(视图)矩阵被改变。对于前一个视图矩阵V,改变的视图矩阵V’由以下方程给出:
对象空间p0中的点通过使用模型(M)、视图(V)和投影矩阵(P)被转移到其裁剪空间:
p=P·V·M·p0
对于潜在相机移动和透视投影,其中近平面距离为n、远平面距离为f和近平面尺寸为(2r,2t),裁剪空间中的点的位置由以下给出:
考虑到前面的讨论,只有点的x、y和w坐标是相关的,因此被用于调整投影的点的深度范围的zz和zw可以被忽视:
对于C内的任何相机偏移,令
不失一般性地,考虑相机移动对e12的影响。通过两个点p1′和p2′的边e1′2的平面方程如下演变:
给定的采样s=[sx sy 1]T(相对于移动的相机)到边e′12的距离因此由以下方程给出:
对于作为屏幕上的采样位置的s,边e′12与碎片s重合的偏移Δ由限定。换句话说,碎片在三角形边的外部移动的那些相机偏移。可以清楚地观察到,对于给定的三角形T和给定的点s,对应于Δ上的三维空间中的平面。该空间是相机偏移空间。
其中
如果只有二维相机偏移被允许,△w=0,即,从平面的可见性,则偏移空间变为2D,并且对应于线。
不仅考虑一个边e12,而且还考虑所有的三个三角形边,变得显而易见的是,的组合在3D偏移空间中形成四面体,并且在2D偏移空间中形成三角形。令四面体的体积/三角形的覆盖面积被表示为TΔ。TΔ描述对于哪些相机偏移,碎片s将被三角形T覆盖。
类似于将三角形转移到相机偏移空间中,还可以考虑COS中的点,即,计算顶点的投影在哪些偏移下准确地与采样位置重合。为了计算裁剪空间中的点的规范化的装置坐标(NDC)表示,只需要执行透视划分:
与方程2和Δ的组合得到:
对于考虑从立方体区域的可见性的3D偏移空间,这两个方程描述线。对于从平面区域的可见性,即,△w=0,方程描述单个点。
虽然相机偏移空间提供关于碎片在哪些偏移下被三角形覆盖或者正好符合顶点的投影的信息,但是它不考虑最大支持的相机移动。相机移动简单地是3D偏移空间中的立方体和2D偏移空间中的矩形,它们均由最大偏移±C限定。因此,给定的相机偏移下的可见性考虑应限于±C。
通过分析推导的方程,可以得出关于COS的以下结论:首先,离相机越远的三角形覆盖COS中的越大的体积/面积。这并不令人惊讶,因为当相机移动时,远离相机的对象移动的少。这与当三角形被投影在屏幕上时三角形覆盖的面积正好相反。第二,相同距离处的较大的三角形覆盖比较小的三角形更大的面积/体积。这也是直观的,因为较大的三角形在比较小的三角形更大的相机移动下覆盖采样位置。第三,沿着Δw步进,具有x/y平面的截面在COS中的尺寸增大。该效果描述了随着相机更靠近三角形,该三角形的投影变得更大,并且在x/y中更大的偏移下覆盖采样位置。
图2示出一些三角形星座和相机偏移空间星座的例子。关于COS的最重要的事实是,三角形的体积/面积对应于它覆盖给定碎片的最大相机偏移,不管三角形的投影尺寸如何。同时,最大支持的相机偏移对应于简单的矩形/立方体。这些事实的组合允许在COS中进行高效的可见性计算。
更具体地说,图2a示出在视图空间大小相等的情况下投影两个三角形t1和t2的例子。在(b)中,示出了越靠近的三角形在投影之后将越大。在(c)中,示出了当针对标记的采样点计算2D COS时,关系是反过来的,因为远处的三角形覆盖对于更大偏移的采样。矩形示出最大支持的相机偏移,对于该相机偏移,三角形t1完全覆盖三角形t2。
相机偏移空间还有助于对于单个采样位置计算三角形之间的可见性。为了评估在可能的相机偏移Δ下两个三角形T和Q在碎片s处的潜在可见性,确定TΔ和QΔ,即,将TΔ和QΔ嵌入到相机偏移空间中。通过在±C(其在偏移空间中的体积/面积应被表示为CΔ)内使TΔ与QΔ相交,可以区分三种情况:
(1)T△∩Q△∩C△=T△∩C△
(2)T△∩Q△∩C△=Q△∩C△
(3)非以上两种情况。
在(1)的情况下,TΔ在±C内部的部分与QΔ重叠,即,对于采样T的每一个相机偏移,Q也将被采样。因此,如果Q对于所有的那些采样都更靠近相机,则T在采样s处将永远不可见。在(2)的情况下,三角形的关系是反过来的,并且如果T更靠近,则Q将永远不可见。在情况(3)下,两个三角形都可以在不同的相机偏移下在s处产生可见的采样。
显然,这已经指向以下事实:当在COS中考虑可见性时,不需要明确地区分遮挡物和前面的被遮挡物,因为COS中的被覆盖空间的关系允许被认为要么是遮挡物、要么是被遮挡物。
确定三角形在COS中是否在另一个三角形的前面对应于确定三角形在所有的相机偏移下、对于像面上的固定采样将生成的准确的深度值。为了计算该深度值,考虑均匀光栅化中描述的公式[Marc Olano和Trey Greer.1997年.Triangle scan conversion using2D homogeneous coordinates,收录于关于图形硬件的ACM SIGGRAPH/EUROGRAPHICS研讨会的文集,ACM、89-95]。对于采样位置s处的三角形,内插的1/w分量(其可解释为深度的倒数)为:
考虑到相机偏移,所述公式扩展为:
通过使用转置伴随矩阵和行列式计算倒数来对该方程求解ws,许多项抵消以得到:
dx、dy、dw和dadj全都是(p0,p1,p2,s)的函数,因此对于给定的三角形和某个采样位置是恒定的。所述结构示出通过添加深度信息将3D COS扩展到4D并且将2D COS扩展到3D,三角形/四面体被嵌入在相应的空间中的平坦的超平面上。该结果允许得出两个结论。首先,对于COS中的每一个点,在2D和3D COS(Δw=0)这两者中,可以使用方程9来高效地计算对应的深度值。第二,2D COS可以看作是来自第三维度对应于深度的3D空间的三角形的正交投影。确定在±C内的该正交投影中的可见性导致给定的采样位置下所涉及的三角形的可见性。尽管更难想象,但是同样的考虑适用于其中深度形成第四维度的3D COS,其中降至3D的正交投影导致可见性。
通过将对于单个采样推导的考虑应用于渲染的图像的所有像素,可以计算针对围绕当前相机位置的移动、考虑到三角形对之间的遮挡的PVS。在任何采样位置下潜在可见的所有的三角形的简单并集将得到整个PVS。
为了还考虑到旋转移动,第一步是增大视野(fov)。因此,在当前视图左/右和上/下的采样位置也被考虑。然而,当用旋转的相机渲染时,采样位置将不与用更广的fov选择的采样重合。虽然三角形在参考视图中的两个相邻的采样位置处可能永远不会变为可见,但是旋转将拾取它们之间的采样,并且可能揭示考虑中的三角形。当计算PVS时,可以考虑更高的采样密度,从而得到PVS的良好逼近。
许多四面体的交点可能太耗时,尤其是当考虑到由于旋转而导致的附加采样时。类似于先前的工作[Durand等人.2000年.Conservative visibility preprocessingusing extended projections.收录于关于计算机图形和交互技术的第27届年度会议的文集,ACM Press/Addison-Wesley Publishing Co.,239-248],用于3D区域的PVS也可以从多个2D区域计算得到,尤其是当考虑到相机旋转时:对于立方体基元,通过将相机放置在每个侧平面的中心并且将其维度与Δ匹配,可以对所有的六个边界平面构造可见性。
图3示出可以如何在旋转角度减小的情况下对于所有的边、通过2D区域来计算用于3D区域的潜在可见集合(来自上方的视图)。具体地说,评估的相机位置对应于所有的侧平面位置。
通过附加地考虑接近180°fov,不仅考虑立方体基元上的所有的相机位置,而且考虑从该基元的所有的查看方向。整个侧平面PVS的并集PVS因此将用于立方体基元的PVS与360°fov匹配(这也将需要多遍)。使用基于侧平面的方法允许针对在HMD场景中更有可能的移动(比如,例如,前向、侧向平移和90°滚动)调整fov。设想的算法因此将多遍渲染整个场景(拟合期望的视图基元),并且递送PVS。
对于在光栅化期间使用COS的、PVS的实际实现,用于每个像素的COS必须被构造和解析。为了在每个像素位置处构造COS,满足的所有的三角形Ti都需要被考虑,即,任何支持的相机偏移下的所有三角形都可以覆盖像素。为了对每个像素采集所有那些三角形,在渲染期间可以构造列表,类似于用于次序独立的透明性的方法[Yang等人.2010年]。为了能够将可以覆盖像素的所有三角形都添加到列表,它们需要在光栅化之前被扩大尺寸。该扩大显然取决于最大相机偏移C,并且可能大于一个像素的尺寸。然而,可以使用与在GPU提供硬件支持的保守性光栅化之前采用的工作区类似的方法[Hasselgren等人,Conservative rasterization.GPU Gems 2(2005年),677-690]。
将关于可能覆盖每个像素的碎片的每个三角形的信息存储在列表中允许按以下步骤对每个像素构造COS。作为围绕深度关系展开的可见性考虑,可能有益的是对这些列表进行排序(同样类似于次序独立的透明性)。碎片列表条目表示整个三角形,因此需要存储所有的顶点位置,以使得该三角形可以被变换到COS,并且其深度方程可以被计算。这还意味着,没有单个深度值可以与碎片列表中的条目相关联,并且条目的COS深度范围可能重叠。因此,排序可以仅被近似地完成,以使得所述列表被按准前后(quasi-front-to-back)方式处理。所描述的实现根据在每个列表中早早放置潜在遮挡物的最小顶点深度进行排序。
前面描述的步骤确保了所有的三角形和只有影响给定像素位置处的可见性的那些三角形最终在相应的列表中。如前所述,解析三角形对之间的可见性远远不够,因为只有前面的许多三角形的组合可以形成更远的三角形的遮挡物。
因此,在COS中的可见性解析期间采用遮挡物融合。遮挡物融合的想法常用于PVS构造期间的整个对象。本发明提出了适用于COS的对于三角形的高效版本,即,将三角形合并到COS中更大的相连接的多边形。遮挡物融合的益处是双重的。首先,考虑多边形和三角形的重叠可能比考虑许多三角形与一个三角形的重叠更高效。第二,融合的遮挡物可以作为整体遮挡三角形,而其个体部分可能是不够的。为了不用遮挡物融合得到相同的遮挡信息,COS中的被遮挡物的表示将必须针对所有的遮挡物三角形被单独裁剪以,而非实现相同的结果。
利用遮挡物融合,所述处理在数学上对应于
T△fused=T△0∪T△1∪T△2
O=Q△∩T△fused∩C△.
其中TΔi形成融合的遮挡物,并且O得到关于潜在可见性的信息。在没有遮挡物融合的情况下,所述处理对应于
Q'△=Q△\T△0\T△1\T△2
0=Q′△∩C△.
第一个版本更快(如果TΔfused可以被重复使用),计算效率高,并且允许对照QΔ进行高效的测试。第二种方法的主要问题是,所有的中间的QΔ\TΔi的形状都可以变得任意地复杂,而融合的遮挡可以以其形状允许高效测试的方式构造。
通过将所述方法限于2D COS(如前面概述的),可以选择第一种策略,并且可以将三角形融合为更大的遮挡物,如果它们共享COS中的边的话。两个三角形共享COS中的边,如果它们还共享世界空间中的边的话。遵从该策略,闭合的表面是形成更大的遮挡物的唯一对象。
图4示出所提出的渐进可见性解析算法的示例步骤。活动的边被画地更粗,并且参考点被指示。活动的遮挡物轮廓总是对应于活动的边,外部的活动的边的交点被忽视。
更具体地说,第一个三角形QΔ被转移到COS(a),并且被保存为潜在遮挡物OΔ,0(b)。外部的三角形QΔ被立即丢弃(c)。另一个三角形QΔ被处理(d),并且形成第二个遮挡物OΔ,1(e)。下一个三角形QΔ是不可见的(情况b)(f)。共享两个边的三角形QΔ(g)将遮挡物OΔ,0和OΔ,1融合为大的遮挡物OΔ,0(h)。与轮廓相交的三角形OΔ被保存(i)。
图5用伪代码示出根据本发明的实施例的用于渐进可见性解析的方法,其中示例步骤是针对图4中的一些三角形。所述方法遍历大致排序的三角形的列表(行2-47),并且确定一个三角形在其他三角形之后的可见性。先前检查的三角形被保存为潜在遮挡物,并且被合并为更大的遮挡物,如果它们共享边的话。
对于每一个三角形,确定其COS表示(行3)。所述方法然后计算其与CΔ的重叠,丢弃可能已经在列表中但实际上在支持的相机偏移下不可见的三角形。这给予了列表构造方法保守地工作的能力,由于浮点不准确,该能力是必要的。为了确定在QΔ和CΔ之间是否存在重叠,所述方法将三角形的边与CΔ相交(行5)。虽然存在执行该检查的更高效的方式,但是获得关于三角形边的附加信息,该信息被用于所述算法的后续阶段中的更高效的测试。边被分类为要么是在内部、不准确的,要么是交叉的。内部的边完全被包含在CΔ中,交叉的边从CΔ外部到达。完全在CΔ的外部的边被标记为不活动,并且在所述算法期间被忽视。如果所有的边都是不活动的(行10),则三角形要么完全在CΔ的外部,并且在该采样位置处将是不可见的,要么完全覆盖CΔ。为了检查后者,可以简单地将O插入到三角形的边方程中以确定它是否覆盖COS的原点,类似于GPU上的光栅化利用三角形边方程的方式。
如果三角形在第一步期间没有被丢弃,则设置关于该三角形的元信息(行11-12)。这包括三角形的既在QΔ内部、又在CΔ内部的一个或三个点,这些点被称为三角形的参考点。如果三角形整个覆盖CΔ,则选择原点。否则,对于被标记为在内部或交叉的每个边,我们选择一个代表点。这是边的端点(q0,q1或q2)中的任一个,取决于哪些点位于CΔ的内部。如果两个端点都在CΔ的外部(即,我们正在选择交叉的边的参考点),则计算与CΔ的准确交点。此外,评估COS中的深度函数所需的系数被计算,并被存储以供稍后使用。
在手边有该信息的情况下,可以运行实际的可见性测试(行14-35)。对于每一个三角形,假定它最初是可见的。它只有在确定它被任何遮挡物隐藏时才被丢弃,所述方法遍历此迭代(行15)。对于每个遮挡物,它是否覆盖CΔ的信息被存储,并且在它覆盖CΔ的情况下,跳过所述方法的大部分(行15-30),因为在遮挡物和CΔ内的三角形之间肯定完全重叠,并且以上情况(2)适用。
如果遮挡物不覆盖CΔ,则需要确定Occluder△∩Q△∩C△=Q△∩C△,,即,QΔ是否完全在CΔ内的融合的遮挡物的内部。为此,首先确定在三角形和CΔ内的遮挡物的轮廓之间是否存在重叠。该步骤在依赖于边状态时明显变得高效很多。代替明确地保存周围的轮廓,所述方法在所有的遮挡物三角形TΔ上进行迭代(行18),并且对照QΔ的所有边测试所有的遮挡物三角形边。如果任一边是不活动的,则测试被简单地跳过。这不仅包括CΔ外部的边,而且还包括遮挡物内部的边,遮挡物内部的边在融合三角形时被设置为不活动(行28)。由于不是明确地存储遮挡物的轮廓,所述方法在该步骤中可能做附加工作。然而,考虑到GPU实现,该选择是明智的,因为它显著地减少了动态数据管理、存储开销和间接性。
为了计算两个边之间的关系,首先测试它们是否相同(行23),如果它们相同,则所述方法存储用于稍后融合三角形与正被测试的遮挡物的信息。否则,检查在边之间是否存在交点(行25-26),并且检查它是否在CΔ的内部。如果所述边中的任一边被标记为在内部,则所述方法实际上不需要计算准确的交点i,因为然后知道交点必须在内部。只有在两个边交叉时,所述方法才继续验证交点是在内部、还是在外部。在交点在外部的情况下,它被忽视,因为它不影响Occluder△∩Q△∩C△。如果它在内部,则知道QΔ到达TΔ的外部和CΔ内的Occluder△的外部。因此,三角形在所有的相机偏移下都不被Occluder△遮挡,并且所述方法继续至下一个遮挡物(行27)。
在所述算法的此时,如果在遮挡物的轮廓和正被测试的三角形之间没有发现重叠,则要考虑六种可能的情况。
更具体地说,图6示出CΔ内的没有轮廓交点的六种可能的情况。(a,b)、(c,d)和(e,f)可以基于它们各自的参考点位置区分开:
(a)QΔ完全在Occluder△的内部
(b)QΔ仅在CΔ内在Occluder△的内部
(c)Occluder△完全在QΔ的内部
(d)Occluder△仅在CΔ内在QΔ的内部
(e)Occluder△和QΔ完全不相交
(f)Occluder△和QΔ仅在CΔ内不相交
为了区分这些情况,所述方法使用QΔ的参考点以及为每个遮挡物保存的参考点(所述算法中的Occluder.ref),这些参考点必须是CΔ内部的遮挡物轮廓上的点。如果Occluder.ref在QΔ内部(这可以同样通过使用边方程进行普通测试),则要么是情况(c),要么是情况(d)。然后,遮挡物不覆盖QΔ,并且所述方法可以继续至下一个遮挡物(行17)。遮挡物的参考点在三角形与遮挡物融合或者作为新的遮挡物被插入之后更新(行47)。此外,遮挡物的参考点必须是遮挡物的轮廓上的点,否则所述方法可能无法区分情况(a,b)和(c,d)。该测试背后的基本原理是,如果在遮挡物的轮廓和QΔ(在CΔ的内部)之间没有交点,并且轮廓(在CΔ的内部)上的点在QΔ的内部,则整个遮挡物轮廓(在CΔ的内部)必须包含在QΔ中。
为了区分(a)、(b)(这二者都导致Q不可见)和(e)、(f)(这二者都导致Q不被遮挡),所述方法测试三角形参考点是否在Occluder△∩C△的内部。基本原理同样与前一种情况下的基本原理相同,只是反过来。然而,因为已经排除遮挡物包含在QΔ中,所以所述方法可以选择∈Q△的任何点作为参考点。因为参考点被选择位于CΔ的内部,所以所述方法只需要确定它是否在Occluder△的内部。然而,遮挡物可能具有凹形形状,因此测试比在第一种情况下涉及得更多,并且它被计算作为最终检查(行32)。为此,所述方法再次在所有的遮挡物三角形上迭代,并且普通地检查点是否在它们中的任何一个的内部。在是的情况下,已经验证了Q△∩C△在Occluder△的内部。然而,为使Q被遮挡,Q必须在遮挡物的后面,这在参考点处使用遮挡物三角形的深度方程被验证(行34)。这只有在三角形不穿透时才是足够的。为了支持该情形,将必须计算QΔ和所有的遮挡物三角形之间的COS中的准确的3D星座。
如果所有的测试都得到Q是可见的,则将QΔ添加到遮挡物,并且更新它们的状态(行47-37)。如果三角形与其他遮挡物共享一个或多个边,则它被附连到那些遮挡物,从而创建更大的融合的遮挡物。该步骤还可以合并多达三个遮挡物。此外,所述方法将共享的边设置为不活动的,以使得它们不被针对边重叠进行测试。另外,检查遮挡物边中的任何一个是否仍是活动的或交叉的。如果都不是,则遮挡物覆盖CΔ,并且所述方法设置全覆盖(coverall)标志以加速对遮挡物的测试。
在所有的三角形都已经被处理之后,所有的潜在可见三角形都已经作为遮挡物被插入,并且它们可以直接被输出作为用于采样s的PVS。当所述方法正在根据最小深度对列表进行排序时,应首先对潜在遮挡物进行处理。然而,因为在三角形之间可能存在深度重叠,所以稍后到达的三角形可以覆盖已经被标记为CΔ内部的遮挡物的三角形。为了测试该情形,所述方法可以再次对照整个遮挡物列表测试每个三角形。然而,在发明人进行的实验中,额外被丢弃的三角形的数量变得可以忽略。
到目前为止的所有考虑都只考虑了单独的采样位置。然而,对于旋转,有必要针对之间的位置来考虑COS。此外,如果采样之间的位置被处理,则以降低的分辨率运行可见性一遍处理。就该目标而言,分别用另两个维度(即,x和y中的采样偏移δx和δy)来扩展COS。它们对于采样位置s形成线性偏移,而±pixelsize/2的最大偏移确保图5所示的方法考虑视口上的所有可能的采样。对于点,用于2D COS的方程(8)扩展为:
这对应于4D空间中的线。这还意味着,三角形边在沿着δx和δy维度移动时滑动并旋转。
虽然该扩展使COS明显更复杂,但是图5所示的方法的改变是可管理的。主要改变涉及边相交。代替确定三角形边是否与CΔ相交(行5),修改的方法需要确定它在任何δ下是否与CΔ相交。同样适用于边-边相交(行27)。
所有的其他的计算在以下假定下都可以保持相同:首先,三角形和遮挡物的深度关系在任何δ下保持相同。已经被排除该假定适用的穿透的三角形。第二,对于δ=0,遮挡物和三角形之间的内部-外部测试延续到所有的采样偏移。如果轮廓-三角形交点算法报告在任何采样偏移下是否存在交点,则该假定适用。如果不存在任何交点,则可以利用δ=0来运行遮挡物参考点检查(行17)和三角形参考点检查(行32)以对所有的δ得出结论。
采样偏移下的边-CΔ交点和边-边交点的问题基本上是相同的问题,其中第一个不将任何偏移应用于CΔ的边界边。因为只对是否存在交点、而非相交的准确位置感兴趣(除非两个边都被标记为交叉),所以可以使用对于线段交点检测的简单测试。计算所有组的点三元组的方位形成这样的高效测试(忽视采样偏移):
0=(y1-y0)·(x2-x1)-(x1-x0)·(y2-y1),
其中[xi yi]T是点i的坐标。
通过对于所有点插入方程10,这些计算容易扩展到采样偏移维度。对所得方程求解δ得到线,该线描述在步进遍历采样偏移维度的同时所述三个点的方位何时改变。对于所有四组方位计算该线得到具有不同方位的区域。更经常的是,区域改变发生±pixelsize/2,因此不需要考虑。如果它们在内部发生,则所述方法可以简单地计算所述线的交点,即,两个方位改变的点。通过在忽视翻转的那些方位的同时评估这些点下的线段交点的检测,允许高效地测试在任何采样偏移下是否存在线段交点。
唯一剩下的问题是确定检测到的被标记为交叉的两个边的交点在所有的采样偏移下是否在CΔ的外部。不幸的是,描述准确的交点的函数在δ中是非线性的,并且不允许高效的计算。然而,通过将一个边的无参数直线方程插入到另一个边的参数化方程来表达交点导致δ中的双曲线。计算该函数的一阶导数并且将它设置为零导致用于参数化的边(在其下可能出现交点)的最大参数范围。通过额外考虑±pixelsize/2处的相交参数和由边本身引入的边界(0,1),结果得到在其下可能出现交点的参数范围。另外,由于边是线性构造,所以每个边点的最大位移由其端点的最大位移给出,其端点本身由方程10给出。评估用于参数范围的极值的直线方程并且用δ下的最大端点位移扩展所得的Δ范围给出COS中的边的交点可能在哪里出现的保守估计。如果该保守估计不与CΔ相交,则边交点肯定在CΔ的外部。使用保守估计在这里导致PVS可能增大,但是永远不会移除必要的三角形。
图7示出在服务器上实现的根据本发明的另一实施例的用于流式渲染的方法。
在步骤610中,通过使用大量潜在相机/视图偏移,基于包括多边形(三角形)和当前相机视图的图形数据来构造多边形的潜在可见集合。COS PVS算法在GPU上、通过使用OpenGL和CUDA的组合来实现。相同的功能性和类似的性能也可以通过使用任何其他的图形API和计算模式描影器执行来实现。
从简单的几何结构输入开始,计算PVS,这得到三角形列表。
PVS的创建涉及对于多达六个光栅化视图的多个2D COS评估的组合。对于支持360°旋转的立方体视图基元,六个视图需要被光栅化。通过使旋转限于围绕y轴的180°,三个视图就足够了。
在步骤611中,对于这些视图中的每个,扩大每一个输入的三角形以覆盖在任何支持的相机偏移下可能被它碰到的所有碎片。为此,在几何结构描影器中采用与保守光栅化类似的方法[Durand等人.2000年]。围绕每个顶点的三角形扩大必须既考虑采样之间的距离、又考虑入方程10中所示的以1/wp缩放的最大相机偏移。该事实略微使所述方法复杂化,因为计算三角形的边方程并且将它们移开的常见方法是不可能的,因为如果顶点具有不同的w分量,则边将受旋转的约束。因此,计算所有的四个最大顶点偏移位置,并且选择离初始边最远的顶点偏移位置来构造三角形覆盖范围的保守估计。如果顶点在相机的后面,即,如果它们的w坐标是负的,则所讨论的方法可能失败。在这些情况下,边在相应地移动它们之前被裁剪到附近平面。当使用裁剪矩形法来构造输出几何结构时,仅创建单个三角形仍是足够的。
在步骤612中,在碎片描影器中进行碎片列表构造,其中原始的三角形坐标被插入到碎片列表中。它们被简单地从几何结构描影器传递。对于碎片列表构造,使用具有头指针和用于每个列表的计数器的单链接列表。用于构造这些列表的成本略高于仅考虑透明性时,因为几何结构已经被扩大。为了减少存储在列表中的元素的数量,可以将早期z丢弃值与每个列表一起存储:在检测到覆盖整个COS的三角形的情况下,可以使用利用三角形最大深度的原子最小指令来更新早期z。将其他三角形最小深度值与存储的早期z值进行比较(在它们被添加到列表之前)允许我们丢弃它们,因为它们在给定采样下可能永远不能被看见。
接下来的步骤涉及划区间(binning)和排序。当用于所有的渲染的视图的所有碎片的PVS将被合并时,所有的列表都可以被存储在单个缓冲器中,并且在单个步骤中被解析。在不同的列表尺寸上工作涉及迥然相异的步骤数。对于短的列表,将想要使用单个线程,中间尺寸的列表可以在小的线程组中(例如,在扭曲内)处理,长的列表应被许多线程进行工作。
为此,首先在步骤613中根据列表的长度来对这些列表划区间,列表的长度连同列表的头指针一起存储。这利用使用原子操作的简单的CUDA内核来进行。目前,区间被用于2一直到256的长度的所有的功率,区间尺寸然后被增大128,一直到达到15616并且大于该长度的所有长度都被同样地处理为止。
在步骤614中,根据所有三角形的最小顶点深度来对所有的列表进行排序。非常短的列表(<8个元素)被以每个列表一个线程进行排序。对于列表尺寸<64,使用根据列表长度的、按子扭曲(sub-warp)尺寸的组的双调排序。对于具有<4096个元素的列表,使用块内的基数排序[Merrill.2015年.CUB v1.5.3:CUDA Unbound,a library of warp-wide,block-wide,and device-wide GPU parallel primitives.(2015年)],对于更大的列表,使用全装置基数排序。排序内核不仅对列表进行排序,而且还从链接的列表表示将它们提取到平坦化阵列表示中以用于在解析步骤期间更快速地访问。不同的排序内核可以在不同的流中执行,并且可以在GPU上并行运行。
在步骤615中,在给定的大量不同的可能的相机视图下,对单个的三角形的可见性进行解析。解析步骤还区分不同的列表尺寸。非常小的列表再次用直接实现图5所示的方法的单个线程运行。小的列表利用子扭曲组来执行。为了使所述算法并行化,首先对于所有的QΔ并行执行遮挡物融合,然后对照融合的三角形对每个三角形进行测试。三角形融合法可以依赖于高效的全扭曲通信原语,诸如寄存器重组指令和扭曲投票。三角形数据被存储在共享存储器中。对于更大的列表,相同的步骤被执行,但是依赖于共享存储器进行通信。随着列表增长地更大,由于共享存储器约束,并不是所有的三角形都在解析之前是可融合的。在这些情况下,所述方法在批次的基础上工作,其中每个线程装载一个三角形,执行与所有其他同时传入的三角形和来自先前的迭代的存储的三角形的遮挡物融合,计算其可见性,并且只有在三角形可见时才将该三角形添加到存储的遮挡物。该处理继续进行,直到整个列表被处理为止。在所述方法用完共享存储器存储中间结果的情况下,遮挡物集合不变,三角形被标记为可见,但是不被添加到共享存储器中的遮挡物。由于列表的排序,最重要的遮挡物无论如何都应被第一个构造。
如果三角形是可见的,则在全局存储器中设置指示它需要被描影并且被传输给客户端的标志。
为了确保当构造该三角形列表时基元次序不变,在步骤616中使用前缀和(prefixsum)来压缩加标志的三角形的数组。
为了在步骤620中的对象空间描影,计算对于每个三角形的所需采样和描影的大致数量,将该数量存储在在步骤630中压缩的纹理中,并且将该数量传输给客户端。
在客户端端,根据当前视图执行传输的三角形的简单的纹理化渲染。
如果客户端的视图到达支持边界的外部,则情况可能是客户端将不能从它从服务器接收的几何结构构造完全正确的视图。错误的去遮挡可能出现,或者几何结构可能完全缺失。
所需视图的预测可以缓解该情况。可以训练深度神经网络以在场景特性给定的情况下预测用户移动。这将根据使用情况、对场景的不同部分得到就平移和旋转而言所需的相机边界。
缓解边界外视图渲染的感知到的不正确(当这种情况被客户端检测到时)的另一方法可以是修补错误的场景区域(Patel等人,Review of Different InpaintingAlgorithms;International Journal of Computer Applications,2012年,vol.59,no.18,p.30-34)或者利用基于图像的渲染(IBR)方法中的一种。然而,这些方法引入了它们自己的伪像集合,所以所述方法不能保证在支持的边界外部构造完全正确的视图。诸如以下的方法可以被用于该目的:异步空间扭曲、前向扭曲技术[George Wolberg.1998年.Image morphing:a survey..e Visual Computer 14,8-9(1998年),360-372.H.ps://doi.org/10.1007/s003710050148],诸如通过网格[Piotr Didyk,Tobias Ritschel,ElmarEisemann,Karol Myszkowski,and Hans-Peter Seidel.2010b.Adaptive Image-spaceStereo View Synthesis.In Vision,Modeling and Visualization Workshop.Siegen,Germany,299–306.;Kyungmin Lee,David Chu,Eduardo Cuervo,Johannes Kopf,AlecWolman,Yury Degtyarev,Sergey Grizan,and Jason Flinn.2015.Outatime:UsingSpeculation to Enable Low-Latency Continuous Interaction for Mobile CloudGaming.GetMobile:Mobile Comp.and Comm.19,3(Dec.2015),14–17.h.ps://doi.org/10.1145/2867070.2867076;Marc Olano and Trey Greer.1997.Triangle scanconversion using 2D homogeneous coordinates.收录于关于图形硬件的ACM SIGGRAPH/EUROGRAPHICS研讨会的文集.ACM,89–95.]或射线追踪[Sven Widmer,D Pajak,Andr′eSchulz,Kari Pulli,Jan Kautz,Michael Goesele,and David Luebke.2015.An AdaptiveAcceleration Structure for Screen-space Ray Tracing.收录于关于高性能图形的第7届会议的文集(HPG’15).ACM,New York,NY,USA,67–76.h.ps://doi.org/10.1145/2790060.2790069]或后向扭曲法[Huw Bowles,Kenny Mitchell,Robert W.Sumner,JeremyMoore,and Markus Gross.2012.Iterative Image Warping.Computer graphics forum31,2(May 2012),237–246.;Diego Nehab,Pedro V.Sander,Jason Lawrence,NatalyaTatarchuk,and John R.Isidoro.2007.Accelerating Real-time Shading with ReverseReprojection Caching.In Proceedings of the 22Nd ACM SIGGRAPH/EUROGRAPHICSSymposium on Graphics Hardware(GH’07).Eurographics Association,Aire-la-Ville,Switzerland,Switzerland,25–35.h.p://dl.acm.org/citation.cfm?id=1280094.1280098;Lei Yang,Yu-Chiu Tse,Pedro V.Sander,Jason Lawrence,DiegoNehab,Hugues Hoppe,and Clara L.Wilkins.2011.Image-based Bidirectional SceneReprojection.ACM Trans.Graph.30,6,Article 150(Dec.2011),10pages.h.ps://doi.org/10.1145/2070781.2024184]改进的点溅射[Shenchang Eric Chen and LanceWilliams.1993.View Interpolation for Image Synthesis.收录于关于计算机图形和交互技术的第20届年度会议的文集(SIGGRAPH’93).ACM,New York,NY,USA,279–288.h.ps://doi.org/10.1145/166117.166153]。
存在在客户端上计算用于PVS几何结构的正确的描影数据的多种方式。最简单的方式是,客户端存储计算真实描影所需的所有数据,并且针对从服务器接收的减小的几何结构集合计算它。因为这可能占据客户端上的大量资源,或者甚至跨出客户端的可能性,所以服务器可以预先计算描影数据,并且将它连同PVS几何结构数据一起发送给客户端。描影可以被划分为视图相关的部分和视图无关的部分。两个部分都可以在服务器上计算,或者视图相关的部分可以在给定准确视图的情况下额外在客户端上计算,然后被正确地与从服务器接收的视图无关的部分合并。
描影数据可以是每个三角形、每个视图、每个像素或每个任意采样地采集的。该描影数据可以被存储在颜色缓冲器或纹理中以允许快速解释。它然后将在服务器上被编码,连同PVS几何结构数据一起被发送给客户端,然后被客户端解码并且被用于渲染。
预测的移动也可以被直接包括到COS中,并且被传输给客户端。
为了评估本发明方法,针对具有各种特性的3D场景,对它进行测试。所提出的PVS算法在具有16GB的RAM和NVIDIA Titan X(pascal)的Intel Xeon CPU3.5GHz上运行。对于所有的测试,考虑5至10cm和±30度的旋转的头部移动。相机fov为60度。
图8示出在不同的使用情况场景期间记录的大户外场景(4.6M三角形)的示例视图。所述场景对于本发明方法提出了各种挑战,包括长碎片列表、小斜角和多层略微偏移的结构。
从参考视图(a)开始,对于围绕相机的区域确定潜在可见集合(PVS)(b)。为了构造PVS,收集可以覆盖不同尺寸的每个碎片列表中的碎片并且解析所提出的相机偏移空间中的可见性的所有三角形(c)。利用用于围绕参考位置的视点的PVS渲染的新颖视图是完整的且没有孔的(d)-(f)。
所述方法清楚地得到当前可见的三角形和对象,这些三角形和对象在头部移动下可能变得可见。特别地,屋顶遮挡场景的大部分,屋顶后面没有几何结构被分类为可见的。当视点在屋顶的右边时,向右的轻微移动或旋转使视图开放到后面的山脉。相应的三角形被清楚地分类为潜在可见。这指示遮挡物融合和潜在可见性这二者都正确地工作。
下表示出PVS的尺寸、各个步骤的计算时间、以及用于测试场景的区间分布:
对于被测试的排练的平均的测试场景,PVS算法使三角形的数量从4.6M减少到480至590k。在移动HMD场景中,这样的减少将导致客户端上巨大的带宽减小和渲染时间节省。
可以看出,对于小分辨率的计算PVS已经涉及需要被解析的多个数百万个条目。尽管我们的实现只是具有大规模优化潜能的原型,但是它每一秒可以确定多达2千5百万个列表条目的可见性。对于Viking Village,列表永远不会长于大约15000个,并且平均来说在40到100个之间。另外,热图示出最常见的是几个集中区域有非常长的列表长度,而大多数列表只示出低等至中等计数。显然,可见性解析步骤主导性能,接着是快5倍到10倍之间的排序步骤。三角形扩大与碎片列表创建、区间和压缩对性能具有可以忽略不计的影响。
测量还示出利用400x200的低分辨率工作是合理的。本发明算法保证对于可见性,采样之间的位置也被考虑。分辨率的提高导致性能的准线性降低。然而,当进一步降低分辨率时,性能变糟,这指示400x200对于被测试的场景似乎是甜蜜点。显而易见地,随着相机偏移增大,三角形被进一步扩大。因此,碎片列表变得更长,并且所述算法需要更多时间。然而,支持的相机移动中的翻倍不导致两倍的放慢,这指示所提出的算法可以针对较大的相机偏移很好地缩放。
从关于三角形在哪些相机偏移下覆盖某个像素的考虑开始,本发明引入了相机偏移空间(COS)。在COS中,该覆盖范围是简单的几何形状。通过包括描述对于不同的相机移动、在采样位置处的三角形的深度的函数,可以对于各种相机偏移确定一个三角形是否将被另一个三角形覆盖。通过将该方法扩展到渲染场景的所有采样和采样之间的位置,示出整个潜在可见集合(PVS)可以被构造。与所有的PVS算法一样,被整合用于闭合表面的遮挡物融合是非常重要的,对于所述闭合表面,来自三角形数据的连接信息被飞速地提取。
通过识别遮挡物和传入的三角形的潜在星座,提供了用于确定三角形相对于融合的遮挡物的可见性的高效算法。通过用OpenGL和CUDA的组合实现所述算法,本发明为在线PVS算法提供了近乎实时的速率。在各种场景上测试指示本发明方法工作非常可靠并且适用于用于头戴式显示器的流式渲染场景。
总的来说,本发明方法提供了飞速地工作并且没有预处理的第一PVS算法。它甚至不需要三角形连接信息或关于哪些三角形构成对象的信息。因为所述方法逐帧地工作,所以动态对象自然被支持。所有的信息都是直接从输入的三角形计算的。
Claims (20)
1.一种用于将3D模型数据从服务器传输给客户端以用于渲染的方法,所述3D模型数据包括多边形,所述方法包括以下步骤:
-由所述服务器基于当前相机视图获得多边形的潜在可见集合;以及
-将包括所述多边形的潜在可见集合的3D模型数据从所述服务器传输给所述客户端,
其特征在于,
获得多边形的潜在可见集合的步骤包括针对围绕当前相机位置的一组支持的相机移动,将每个多边形嵌入在相机偏移空间中,所述相机偏移空间针对图像平面上的给定点或采样位置提供该点在哪个相机偏移下被多边形覆盖的信息。
2.根据权利要求1所述的方法,其特征在于,进一步基于所述服务器或所述客户端的当前状态来获得所述3D模型数据。
3.根据权利要求2所述的方法,其特征在于,进一步基于用户的当前视图来获得所述3D模型数据。
4.根据权利要求3所述的方法,其中,进一步基于所述当前视图的平移来获得所述3D模型数据。
5.根据权利要求4所述的方法,其中,进一步基于所述当前视图的旋转来获得所述3D模型数据。
6.根据权利要求1至5中的一项所述的方法,其中,所述3D模型数据包括所述多边形的描影信息。
7.根据权利要求6所述的方法,其中,所述多边形的描影信息允许所述客户端在下一个描影信息被发送之前渲染大量视图。
8.根据权利要求7所述的方法,其中,所述多边形的潜在可见集合被实时地获得。
9.根据权利要求8所述的方法,其中,获得所述3D模型数据的步骤包括获得相机视图的第二集合的步骤,对于所述第二集合,给定的多边形覆盖显示器的给定的采样位置。
10.根据权利要求9所述的方法,其中,按照相机视图偏移来指定所述相机视图。
11.根据权利要求1至5中的一项所述的方法,其中,在专用的图形处理单元上实现获得所述3D模型数据的步骤。
12.一种用于在客户端上渲染3D模型数据的方法,包括以下步骤:
-从服务器接收3D模型数据,其中所述3D模型数据已使用根据权利要求1至11之一的方法被传输;
-确定当前视图;
-渲染接收的3D模型数据以便基于所述当前视图来获得图像;以及
-显示渲染的图像。
13.根据权利要求12所述的方法,其中,基于表示用户的动作的传感器数据来确定所述当前视图。
14.根据权利要求13所述的方法,其中,所述用户的动作是头部移动。
15.一种流式服务器,适于执行根据权利要求1至11中的一项所述的方法。
16.一种流式客户端,适于执行根据权利要求12至14中的一项所述的方法。
17.根据权利要求16所述的流式客户端,其中,所述客户端是头戴式显示器。
18.根据权利要求16所述的流式客户端,其中,所述客户端是平板或智能电话。
19.根据权利要求16所述的流式客户端,其中,所述客户端是个人计算机或膝上型电脑。
20.根据权利要求16所述的流式客户端,其中,所述客户端包括显示器。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2017/078087 WO2019086115A1 (en) | 2017-11-02 | 2017-11-02 | Real-time potentially visible set for streaming rendering |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111373446A CN111373446A (zh) | 2020-07-03 |
CN111373446B true CN111373446B (zh) | 2024-08-27 |
Family
ID=60262920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780097048.0A Active CN111373446B (zh) | 2017-11-02 | 2017-11-02 | 用于流式渲染的实时潜在可见集合 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11263797B2 (zh) |
EP (1) | EP3704670A1 (zh) |
CN (1) | CN111373446B (zh) |
WO (1) | WO2019086115A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111913965B (zh) * | 2020-08-03 | 2024-02-27 | 北京吉威空间信息股份有限公司 | 一种面向空间大数据缓冲区分析的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6525731B1 (en) * | 1999-11-09 | 2003-02-25 | Ibm Corporation | Dynamic view-dependent texture mapping |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222551B1 (en) * | 1999-01-13 | 2001-04-24 | International Business Machines Corporation | Methods and apparatus for providing 3D viewpoint selection in a server/client arrangement |
JP2005284694A (ja) * | 2004-03-30 | 2005-10-13 | Fujitsu Ltd | 3次元モデルデータ提供プログラム、3次元モデルデータ提供サーバ、及び3次元モデルデータ転送方法 |
US8035636B1 (en) * | 2005-09-08 | 2011-10-11 | Oracle America, Inc. | Software system for efficient data transport across a distributed system for interactive viewing |
EP3543958B1 (en) * | 2010-09-13 | 2020-11-11 | Barry Lynn Jenkins | System and method of delivering and controlling streaming interactive media comprising predetermined packets of geometric, texture, lighting and other data which are rendered on a receiving device |
US20130300740A1 (en) * | 2010-09-13 | 2013-11-14 | Alt Software (Us) Llc | System and Method for Displaying Data Having Spatial Coordinates |
IN2013CH03069A (zh) * | 2013-07-09 | 2015-08-28 | Samsung India Software Operations Pvt Ltd | |
US9396586B2 (en) * | 2014-03-14 | 2016-07-19 | Matterport, Inc. | Processing and/or transmitting 3D data |
US9852543B2 (en) * | 2015-03-27 | 2017-12-26 | Snap Inc. | Automated three dimensional model generation |
US10089790B2 (en) * | 2015-06-30 | 2018-10-02 | Ariadne's Thread (Usa), Inc. | Predictive virtual reality display system with post rendering correction |
EP3185214A1 (en) * | 2015-12-22 | 2017-06-28 | Dassault Systèmes | Streaming of hybrid geometry and image based 3d objects |
CN107174825A (zh) * | 2017-04-28 | 2017-09-19 | 苏州蜗牛数字科技股份有限公司 | 一种基于模型的远程图像重建方法及系统 |
-
2017
- 2017-11-02 CN CN201780097048.0A patent/CN111373446B/zh active Active
- 2017-11-02 EP EP17794311.5A patent/EP3704670A1/en active Pending
- 2017-11-02 WO PCT/EP2017/078087 patent/WO2019086115A1/en unknown
-
2020
- 2020-04-27 US US16/859,315 patent/US11263797B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6525731B1 (en) * | 1999-11-09 | 2003-02-25 | Ibm Corporation | Dynamic view-dependent texture mapping |
Non-Patent Citations (2)
Title |
---|
Interactive three-dimensional rendering on mobile computer devices;Javier Lluch et al.;《Proceedings of the 2005 ACM SIGCHI International Conference on Advances in computer entertainment technology》;254–257 * |
Javier Lluch et al..Interactive three-dimensional rendering on mobile computer devices.《Proceedings of the 2005 ACM SIGCHI International Conference on Advances in computer entertainment technology》.2005,254–257. * |
Also Published As
Publication number | Publication date |
---|---|
US11263797B2 (en) | 2022-03-01 |
WO2019086115A1 (en) | 2019-05-09 |
US20200327713A1 (en) | 2020-10-15 |
CN111373446A (zh) | 2020-07-03 |
EP3704670A1 (en) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210166338A1 (en) | Method for efficient re-rendering objects to vary viewports and under varying rendering and rasterization parameters | |
US20120229460A1 (en) | Method and System for Optimizing Resource Usage in a Graphics Pipeline | |
US7239319B2 (en) | Rendering outline fonts | |
JP4639232B2 (ja) | フラグメントシェーディングパイプラインにおけるスケーラビリティの向上 | |
JP4977712B2 (ja) | ディスプレースクリーン上に立体画像をレンダリングするコンピュータグラフィックスプロセッサならびにその方法 | |
US7742060B2 (en) | Sampling methods suited for graphics hardware acceleration | |
US11348308B2 (en) | Hybrid frustum traced shadows systems and methods | |
US20110285735A1 (en) | System and method for compositing path color in path rendering | |
US11250620B2 (en) | Graphics processing | |
KR20120034293A (ko) | 정점 처리 방법 및 장치 | |
Hladky et al. | The camera offset space: Real-time potentially visible set computations for streaming rendering | |
US6741248B2 (en) | Rendering geometric features of scenes and models by individual polygons | |
CN111373446B (zh) | 用于流式渲染的实时潜在可见集合 | |
WO2019088865A1 (ru) | Способ и система удаления невидимых поверхностей трёхмерной сцены | |
Hasselgren et al. | An Efficient Multi-View Rasterization Architecture. | |
US10388060B2 (en) | System and method for multi-view rendering | |
Hou et al. | Real-time Multi-perspective Rendering on Graphics Hardware. | |
Lambru et al. | Hybrid global illumination: A novel approach combining screen and light space information | |
Trapp et al. | 2.5 d clip-surfaces for technical visualization | |
Smit et al. | A shared-scene-graph image-warping architecture for VR: Low latency versus image quality | |
Yuan et al. | Tile pair-based adaptive multi-rate stereo shading | |
Kolic et al. | Stencil shadow volumes for complex and deformable objects | |
Karlsson Abay et al. | Optimizing Environment Mapping in Redway3D | |
CN118397226A (zh) | 一种三维模型确定方法及电子设备 | |
Mantiuk et al. | Interactive visualization of relativistic effects with the hardware acceleration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |