CN110136082A - 遮挡剔除方法、装置及计算机设备 - Google Patents
遮挡剔除方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN110136082A CN110136082A CN201910395675.3A CN201910395675A CN110136082A CN 110136082 A CN110136082 A CN 110136082A CN 201910395675 A CN201910395675 A CN 201910395675A CN 110136082 A CN110136082 A CN 110136082A
- Authority
- CN
- China
- Prior art keywords
- frame image
- depth
- predetermined depth
- current frame
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 115
- 238000009877 rendering Methods 0.000 claims description 52
- 230000008859 change Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 10
- 230000000903 blocking effect Effects 0.000 claims description 8
- 230000005055 memory storage Effects 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 9
- 238000005520 cutting process Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001568 sexual effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 230000020509 sex determination Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提供了一种遮挡剔除方法、装置及计算机设备,当需要确定当前帧图像中的被遮挡物体的情况下,本申请在绘制当前帧图像后,可以直接从预先存储的预测深度图中,选择与当前视点参数相匹配的预测深度图,作为当前帧图像的目标深度图,以利用该目标深度图,快速且准确地确定当前帧图像中物体的遮挡剔除结果,无需在当前帧等待绘制当前视锥下的深度图,大大缩短了获取当前帧图像对应的深度图的等待时间,提高了图像中物体遮挡判定的效率,且由于这种方式降低了遮挡剔除运算开销,使其能够适用于计算能力较差移动平台。
Description
技术领域
本申请涉及图像绘制技术领域,具体涉及一种遮挡剔除方法、装置及计算机设备。
背景技术
目前,市面上的很多应用运行会使用图像渲染技术,如游戏以及采用虚拟现实技术的其他应用等,通常情况下,为了减小图形引擎的渲染工作量,提高渲染效率,以保证应用流畅运行,在渲染图像之前,往往会将待渲染的图像中因遮挡而不可见的物体剔除,仅对当前可见的物体进行渲染。
在实际应用中,通常是采用软件光栅化的方式,绘制虚拟场景的整个深度图,从而利用在绘制当前帧图像的视锥下生成的深度图,来检测当前帧图像中物体的遮挡关系,以剔除被遮挡的物体,避免对遮挡的物体进行渲染,降低图像渲染效率。
但是,现有的这种遮挡剔除方法中,在检测当前帧图像中物体的遮挡关系时,往往需要在当前帧等待当前视锥下的深度图绘制完成,才能基于该深度图,确定当前帧图像中物体的遮挡剔除结果,延时较大,影响了遮挡剔除效率,且无法适用于计算能力较差的移动平台。
发明内容
有鉴于此,本申请实施例提供一种遮挡剔除方法、装置及计算机设备,提高了图像中物体遮挡关系判定的效率,且扩大了移动平台适用范围。
为实现上述目的,本申请实施例提供如下技术方案:
一种遮挡剔除方法,所述方法包括:
确定绘制当前帧图像的当前视点参数;
选择与所述当前视点参数相匹配的预测深度图,作为所述当前帧图像的目标深度图;
利用所述目标深度图,确定所述当前帧图像中物体的遮挡剔除结果。
一种遮挡剔除装置,所述装置包括:
视点参数确定模块,用于确定绘制当前帧图像的当前视点参数;
预测深度图选择模块,用于选择与所述当前视点参数相匹配的预测深度图,作为所述当前帧图像的目标深度图;
遮挡剔除结果确定模块,用于利用所述目标深度图,确定所述当前帧图像中物体的遮挡剔除结果。
一种计算机设备,其特征在于,所述计算机设备包括:
通信接口;
存储器,用于存储实现如上所述的遮挡剔除方法的程序;
处理器,用于加载并执行所述存储器存储的所述程序,实现如上所述的遮挡剔除方法的各个步骤。
基于上述技术方案,本申请提供了一种遮挡剔除方法、装置及计算机设备,当需要确定当前帧图像中各物体之间的遮挡关系,以剔除被遮挡物体的情况下,本申请可以直接从预先存储的预测深度图中,选择与当前视锥最相似的预测视锥对应的预测深度图作为目标深度图,进而利用该目标深度图,快速确定当前帧图像中物体的遮挡剔除结果,无需在当前帧等待绘制当前视锥下的深度图,大大缩短了当前视锥对应的深度图的获取时间,提高了虚拟场景中物体的遮挡判定效率,降低了遮挡剔除运算开销,使其能够适用于计算能力较差移动平台。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为现有遮挡剔除方法的对比图;
图2为本申请实施例提供的一种遮挡剔除方法的流程示意图;
图3为现有的遮挡判定示意图;
图4为本申请实施例提供的遮挡剔除方法对应的一种遮挡判定示意图;
图5为本申请实施例提供的遮挡剔除方法对应的另一种遮挡判定示意图;
图6为本申请实施例提供的一种遮挡剔除方法中,预测深度图获取方法的流程示意图;
图7为本申请实施例提供的另一种遮挡剔除方法的流程示意图;
图8为本申请实施例提供的一种遮挡剔除装置的结构示意图;
图9为本申请实施例提供的另一种遮挡剔除装置的结构示意图;
图10为本申请实施例提供的又一种遮挡剔除装置的结构示意图;
图11为本申请实施例提供的一种计算机设备的硬件结构示意图。
具体实施方式
对于待渲染的虚拟场景中物体之间的遮挡关系,本领域还提出了一种硬件遮挡查询方法,这种方法不需要绘制深度图,而是通过查询每个物体的绘制结果,得知该物体是否被其他物体遮挡,但由于GPU(Graphics Processing Unit,图形处理器)和CPU(CentralProcessing Unit,中央处理器)工作的并行性,通常需要等待渲染若干帧图像后,CPU才能够得到当前帧的绘制结果,否则会导致GPU和CPU之间频繁的互相等待和同步,严重影响系统整体的性能。所以,这种硬件遮挡查询方法往往只能给出一个历史的近似结果,还需要进行历史回归校验,得到最终的遮挡剔除结果。
此外,本领域还提出了一种离线的可见性判定方法,即预计算可见结果(Potential Visibility Set,PVS)方式,其将待渲染的整个虚拟场景分成很多个小的区域,并预先计算好这些区域之间的可见性关系,由可见性关系表示相应区域中物件的可见关系。这样,针对当前相机(或其他图像采集设备)所在的区域,就可以通过查询之前预计算好的可见性关系,得到待渲染图像中的可见物件,其他物体即为剔除的遮挡物体。可见,这种方式仅需要少量的几何运算和查表运算,速度很快,但需要较大内存来存储预先计算出的信息,且这种可见性判定是基于一个区域而非一个视点,导致遮挡剔除的有效性较差,也只能适用于静态场景。
针对室内场景,还提出一种基于入口裁剪(Portal Culling)技术的遮挡剔除方法,即将该场景中物体分隔在一个个独立的区域,并将这些区域通过一些入口连接起来,之后,根据当前相机所在位置判断哪些入口是可见的,再利用入口对应的可见性视锥,来判定该入口所连接的区域内那些入口和物体是可见,整个过程运算量较小,但其只能局限于室内这种特定场景。
基于上述四种遮挡剔除方法的分析,发明人主要从计算速度、延时、裁剪准确性及场景适应性四方面考虑,将这四种方式进行了比较,如图1所示,从准确性的角度考虑,可以从上述硬件遮挡查询方法以及背景技术提出的基于深度图的遮挡查询方法中选择,在CPU运算性能强大的移动平台(如个人计算机PC和操纵、控制平台)中,可以优选基于深度图的遮挡查询方法,但目前某些移动平台上CPU运算速度还不够强大,可能无法实现这种基于深度图的遮挡查询方法。对此,发明人针对现有的这种基于深度图的遮挡查询方法进行优化,得到一种新的基于深度图的遮挡剔除方法。
经过研究,发明人发现现有的遮挡剔除方法中,无论是采用软件方式还是硬件方式绘制深度图,往往要求绘制深度图的视锥与遮挡判定的视锥完全一致,这就要求图形引擎在渲染当前帧图像之前,必须先完成针对当前帧图像的当前视锥的深度图的绘制,即在线等待绘制当前帧图像的深度图,才能依据该深度图判断当前帧图像中的遮挡物体,导致在线等待时间较长。
对此,发明人希望能够放松现有遮挡剔除方法中,深度图绘制的视锥与遮挡判断的视锥严格一致的这个条件,即通过修改遮挡判定的规则,使得检测是否遮挡剔除的视锥与绘制深度图的视锥可以有一定范围的偏差,以使得图形引擎能够利用提前预测生成的当前帧图像的深度图,确定当前帧图像中的遮挡物体,不用在当前帧等待绘制完深度图,即减少了在线等待时间,同时还减少了深度图的绘制次数,使得在CPU和GPU两端都大大减少了运算量,即降低了遮挡剔除的整体开销,提高了系统性能,进而使得计算能力相对不足的移动平台,可以达到和桌面平台同级别的裁剪精度和效果。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
参照图2,为本申请实施例提供了一种遮挡剔除方法的流程示意图,该方法可以应用于计算机设备,具体可以由计算机设备中的图形引擎执行该方法,其中,计算机设备可以是服务器或具有一定计算能力的终端,本申请对计算机设备的产品类型不作限定,如图2所示,该方法可以包括但并不局限于以下步骤:
步骤S101,确定绘制当前帧图像的当前视点参数;
在三维计算机图形学中,视锥可以是三维世界中在屏幕上可见的区域,即虚拟相机(或虚拟摄像机等虚拟图像采集设备)的视野。该区域的实际形状依所模拟的相机镜头而定,其常见的形状是方平截头体,但并局限于此。在实际应用中,可以将四棱锥截为平截头体的两个平面称作近平面和远平面。如果某个物体到虚拟相机的距离比近平面近或比远平面远,那么这个物体不会被显示。通常情况下,可以通过视野角度、纵横比以及近平面和远平面到虚拟相机的距离等参数来描述一个视体。
本实施例的视点参数可以包括查看当前帧图像的虚拟相机(或虚拟摄像机等虚拟图像采集设备)的视点位置、视线方向、视角等参数,该视点参数可以基于绘制当前帧图像的视锥确定,本申请对该视点参数包含的具体内容及其获取过程不做限定。通常情况下,对于视点范围外(即视锥范围外)的图像往往是不可见的,可以据此直接从待渲染的虚拟场景的渲染物体列表中,剔除视点范围外物体,本申请主要对视点范围内的物体进行遮挡判定。
在实际应用中,随着对待渲染的虚拟场景的不同帧图像的绘制,虚拟相机的视点参数将会随之相应变化,通常情况下,相邻帧图像的内容变化往往比较小,对应的视点参数的变化也不会很大,所以,获取当前帧图像的深度图时,可以从预先生成的最相似的预测深度图中选择,不用在线绘制当前帧图像的深度图,具体实现过程可以参照下文相应步骤的描述,且本申请对绘制该虚拟场景的不同帧图像及其视点参数的变化过程不做详述,视点参数的变化可以依据该场景的具体内容确定。
步骤S102,选择与该当前视点参数相匹配的预测深度图,作为当前帧图像的目标深度图;
结合上文对本申请发明构思的分析,为了避免在当前帧等待深度图的绘制完成,在绘制当前场景下各帧图像的过程中,本实施例将会提前预测绘制后续若干帧图像的视点参数,并针对预测得到的视点参数,生成相应的深度图并存储,这样,在后续真正绘制到该若干帧图像(记为当前帧图像)时,无需在线等待绘制当前帧图像对应的深度图,可以直接从预先存储的预测深度图中,选择与当前视点参数相匹配的预测深度图,作为当前帧图像对应的目标深度图,以解决现有遮挡剔除方法中的延时问题。
需要说明,本申请对预测深度图的生成过程及其存储方式,以及如何确定哪个预测深度图与当前视点参数相匹配的实现方法不做限定。
可选的,对于预先存储的预测深度图,可以是通过预测虚拟相机的运动轨迹,即预测绘制目标场景的各帧图像的视点运动轨迹,预测绘制后续帧图像时可能的视点参数,进而利用该可能的视点参数,绘制对应的深度图像,作为该可能的视点参数对应的预测深度图,即与在该预测视点参数下绘制的一帧图像对应的一帧深度图像,并对其进行存储。可见,该预测深度图是基于目标场景当前帧图像的未来帧图像的预测视点参数生成,并不是在真正绘制该未来帧图像时所生成的,本申请对待渲染的虚拟场景的不同视点下的深度图的生成方法不做限定,可以采用硬件、软件或其他方式生成某一视点下的深度图,具体实现过程本实施例不作详述。
对于上述深度图,可以是在渲染管线渲染物体的时候,将每一个生成像素的深度保存在一个缓存中得到,通常情况下,深度图可以组织成一个保存每个屏幕像素深度的x-y二维数组。如果场景中的另外一个物体也在同一个像素生成渲染结果,那么图形引擎可以比较二者的深度,保留距离观察者较近的物体(即保留距离视点位置最近的物体),并将保留的这个物体点深度数据保存到深度图中,这样,图形引擎卡就可以根据深度图,正确地生成该场景的深度感知效果,即较近的物体遮挡较远的物体。
由此可见,深度图可以作为三维场景信息的一种表达方式,图像中的每个像素点的灰度值可以用于表征场景中某一点距离虚拟镜头(即视点位置)的远近。所以说,本申请通过各物体在深度图中的深度信息(即该物体的各像素点的灰度值)的比较结果,得知各物体距离当前视点位置的远近,进而确定哪些物体是可见的,哪些物体会被其他物体遮挡而不可见。
步骤S103,利用该目标深度图,确定当前帧图像中物体的遮挡剔除结果。
继上文描述,由于深度图中的深度数据能够表征虚拟场景中物体到视点位置的距离,所以,通过对各物体在深度图中的深度信息进行比较分析,能够准确得知当前帧图像中各物体的遮挡剔除结果,即确定当前视锥范围内哪些物体是可见的,哪些物体是被遮挡的,之后,将确定出被遮挡的物体,从待渲染虚拟场景的虚拟物体列表(即该虚拟场景中待渲染的物体列表)中剔除,对剩余的虚拟物体进行图像渲染,得到虚拟场景的三维图像,可见,本申请通过这种方式,更加准确且快速地识别出待渲染虚拟场景的虚拟物体列表中,被虚拟场景中其他物体遮挡的物体,并及时将其剔除,避免了对被遮挡物体进行渲染,极大减少了渲染工作量,提高了图像渲染效率。
需要说明,本申请对如何利用深度图判定场景中物体是否被遮挡的实现方法不作限定。
综上,本申请在当前帧图像的渲染处理过程中,会预先估计绘制同一场景下的未来帧图像的视点参数,并针对得到的预测视点参数生成对应的预测深度图进行存储,这样,在未来帧图像成为当前帧图像后,无需在线等待绘制当前帧图像的深度图,本申请将直接从预先存储的预测深度图中,选择与当前视点参数相匹配的预测深度图,作为当前帧图像的目标深度图,进而利用该目标深度图,快速且准确得到当前帧图像中物体的遮挡剔除结果,提高了虚拟场景中物体遮挡判定的效率及准确性,进一步地,本申请能够据此从待渲染虚拟场景的虚拟物体列表中,剔除确定出的绘制各帧图像的视点范围内的被遮挡物体,减少了需要渲染的虚拟物体数量,提高了虚拟场景的渲染效率,且本申请降低了整体运算量,使得本申请提出的遮挡剔除方法能够适用于计算能力较差的移动平台,即适用于配置低端的计算机设备。
基于上述分析,在本申请实际应用中,获取目标深度图的视锥(如上述视点参数)与当前帧图像的视锥往往具有一定偏差,目前判断一个物体是否被遮挡的方法,因要求获取深度图的视锥与遮挡判定的视锥严格一致,不再适用于本申请上述实施例描述的遮挡剔除方法。
其中,在本领域,判断一个物体是否被遮挡的基础代码可以如下:
在上述基础代码中,MV可以表示视口变换矩阵,MP可以表示透视变换矩阵(可以记为透视矩阵),P可以表示该物体包围盒的顶点,Q表示P经过MV和MP变换后在屏幕空间的顶点,SMin和SMax分别表示包围盒在屏幕空间投影后形成的屏幕空间包围盒的两个极值点。
其中,透视变换矩阵是为了将图片投影到一个新的视平面,也可以称为投影映射,实现了将三维模型显示在二维视口上,也就是一个三维到二维的过程,本申请对如何获取某视点位置下的透视矩阵以及视口变换矩阵的过程不做详述。
包围盒是一种求解离散点集最优包围空间的算法,基本思想是用体积稍大且特性简单的几何体(称为包围盒)来近似地替代复杂的几何对象。常用的包围盒算法有AABB(Axis-aligned bounding box)包围盒、包围球、方向包围盒OBB(Oriented bounding box)以及固定方向凸包FDH(Fixed directions hulls或k-DOP)等,本申请对获取场景中各物体的包围盒的过程不做详述。
由上述基础代码可知,如果物体包围盒各顶点的最小深度,如果包围盒的最小深度比该包围盒在深度图覆盖区域的深度数据都小,可以认为该物体被遮挡,本申请对获取包围盒最小深度的过程不做详述。需要说明,基于深度图判定物体是否被遮挡的方法并不局限于本实施例描述的这种方式。
基于这种方式,在如图3所示的视锥图中,可以确定出物体B和C被物体A遮挡,而物体D是可见的,但这种实现方式局限于深度图绘制的视锥与遮挡判定的视锥完全一致的情况,受这一条件约束,导致现有的遮挡剔除方法具有较大延时,获取当前视锥下的遮挡剔除结果的效率较低。
对此,本申请提出对上述基础代码中的透视矩阵MP进行校正,以使得校正后的透视矩阵能够将物体的位置相对遮挡判定的视点位置做相应的偏移,从而将原物体在新视锥下是否可见的问题,等价于偏移后的物体在旧视锥下是否可见的问题。其中,校正后的透视矩阵可以基于当前帧图像的视锥及其对应的目标深度图的视锥确定,具体确定过程本实施例不做详述。
举例说明,参照图4所示的物体在视锥下的可见性示意图,当前帧图像的视锥可以为图4中的视锥V1,在该视锥下物体之间的遮挡关系可以参照图4中,物体B与物体A在视锥V1下的遮挡关系,经过对该视锥V1下的透视矩阵的校正,得到新的视锥V2(即上述获取的当前帧图像对应的目标深度图的视锥),如图4所示,其与原视锥V1具有一定偏差,物体B1表示在新视锥V2下经过透视矩阵校正后的位置,应该理解,图4示出的物体B和物体B1是同一物体在不同视锥下的位置。由图4可知,对于遮挡物体A,物体B对于视锥V2的可见性等价于物体B1对于视锥V1的可见性。
同理,参照图5,物体C1是物体C经过透视矩阵校正后的位置,视锥V1下的物体C与视锥V2下的物体C1表示的是,同一物体在不同视锥下的位置,由5可知,对于遮挡物体A1,物体C1对于视锥V1的可见性等价于物体C对于视锥V2的可见性,所以,物体C1在视锥V1下是可见的,那么,物体C在视锥V2下也是可见的,反之亦然成本。
基于上述分析,本申请通过放松传统遮挡剔除方法中,深度图绘制的视锥必须与遮挡判定的视锥严格一致的条件,允许两者存在一定偏差,得到判定物体是否可见的等价转换关系,进而利用该等价转换关系,确定当前场景下各物体的遮挡剔除结果,降低运算开销,提高裁剪的准确度,使其也能够适用于低端的移动平台。
所以,本申请为了提高图形引擎整体性能,解决延时问题,如上述实施例描述的方案,在绘制当前帧图像后,不用在线等待生成当前视点参数的深度图,而是直接读取提前存储的当前视点参数相匹配的预测深度图,之后,依据当前帧图像的视锥与生成该预测深度图的视锥,确定校正后透视矩阵,即确定这两个视锥下物体可见性等价关系,进而依据该校正后透视矩阵,确定当前帧图像中物体的遮挡剔除结果。
其中,当前帧图像的视锥相当于是图4和图5中的视锥V1,预测深度图的视锥相当于是图4和图5中视锥2,结合上文对校正透视矩阵的分析,本申请得到当前视点位置对应的预测深度图(即上述目标深度图)后,可以直接获取当前帧图像中的各物体在该预测深度图中的深度数据,进而依据获取的深度数据,判定相应物体是否被遮挡,具体实现过程可以参照上文相应部分的描述,但并不局限于本申请描述的实现方式。
基于上述实施例对遮挡剔除方法的分析,为了解决在当前帧等待当前帧图像的深度图的绘制完成,导致的延时问题,同时减少深度图的绘制次数,本申请提出在获得当前帧图像时,不再等待绘制完当前帧图像的深度图,而是直接获取预先缓存的与当前帧图像的视点参数相匹配的预测深度图,之后,直接利用该预测深度图作为当前帧图像的目标深度图,获得当前帧图像中物体的遮挡剔除结果。
下面将主要对预测深度图的获取过程进行详细描述,但并不局限于本实施例下文描述的获取过程,且关于如何利用预测深度图,得到当前帧图像的遮挡剔除结果的过程,可以参照上述实施例相应部分的描述。如图6所示,该方法可以包括但并不局限于以下步骤:
步骤S201,在渲染虚拟场景的第N帧图像期间,获取绘制该虚拟场景中未来帧图像的视点变化信息;
其中,第N帧图像可以是获取目标场景(即需要渲染的场景)的任意一帧图像,本申请对N的具体数值不做限定,未来帧图像是针对当前渲染的第N帧图像来说,该虚拟场景中需要绘制但还未绘制的各帧图像,即在未来需要绘制的一帧或多帧图像。
步骤S202,利用该视点变化信息,确定绘制该第N帧图像之后的第K帧图像的预测视点参数;
本实施例实际应用中,可以利用绘制虚拟场景的各帧图像的视点变化信息,来预估视点的变化规律,即虚拟相机的运动趋势,具体实现方法不做限定,其中,该视点变化信息可以包括视线变化方向、视点位置变化轨迹等。
作为本申请一可选实施例,本申请针对待渲染的虚拟场景,可以预先配置绘制该虚拟场景的各帧图像的视点变化规律,这样,在实际绘制该虚拟场景的任意一帧图像时,可以直接获取该虚拟场景对应的视点变化规则,进而获取未来帧图像的预测视点参数,但并不局限于这种预测视点参数的获取方法。
由此可见,步骤S202中第N帧图像之后的第K帧图像可以指上述未来帧图像中的某一帧图像,本申请对K的具体数值不作限定,可以是1~5中的数值。
步骤S203,生成与该预测视点参数对应的预测深度图;
本申请对生成某视点下图像的深度图的具体实现方法不做限定,可以采用硬件、软件或其他方式来实现深度图的绘制,具体实现过程在此不做详述。
步骤S204,对预测深度图及其与预测视点参数的对应关系进行存储。
本实施例为了解决深度图获取速度和延时问题,将根据绘制虚拟场景的各帧图像的视点变化规则,预测从获取第N帧图像之后的若干帧图像的视点参数,并在渲染该第N帧图像的过程中,提前生成在此之后获取若干帧图像的视点参数下的深度图。这样,如上述实施例的描述,在需要渲染该若干帧图像时,不需要等待绘制深度图,而是直接读取预先生成的预测深度图,减少了无效等待时间。
基于上述分析,由于在渲染第N帧图像期间,对绘制同一场景的第N+K帧图像的视点参数是预测得到的,并不是实际绘制取该第N+K帧图像时的视点参数,通常情况下,预测出的视点参数,与实际绘制第N+K帧图像时的视点参数往往有一定差别的,这就使得在第N+K帧的视锥,与绘制对应的预测深度图的视锥存在一定范围内的偏差,从而使得同一物体在这两个视锥下的位置不同。
基于上述实施例相应部分的描述,待渲染虚拟场景中的物体(即第N+K帧的视锥下的物体),在预测深度图的视锥范围内是否可见的问题,等价于偏移后的物体(即在对应预测深度图的视锥下的物体)在第N+K帧的视锥范围内是否可见的问题,这样,本申请可以不用获取第N+K帧的真实深度图,能够直接利用所获取的对应的预测深度图中各物体的深度数据,确定第N+K帧图像的遮挡剔除结果,即确定哪些物体是被遮挡物体,哪些物体是可见物体,之后,将这些可见物体输送至渲染管线进行渲染,避免对被遮挡物体进行不必要渲染操作,降低图像渲染效率。
作为本申请另一可选实施例,在获取当前视点参数相匹配的预测深度图后,除了按照上述实施例描述的物体在两个视锥下可见性的等价转换方法,判断物体的可见性,即判定物体是否被遮挡,还可以将原物体的位置与校正后的位置连接起来,形成一个大物体的位置,如上述图4中,可以将物体B和物体B1连接起来,形成物体B2,之后,利用该物体B2在预测深度图中的深度数据,判断该物体B2是否被遮挡,如果是,可以认为物体B也被遮挡;反之,可以认为物体B是可见的,通过这种方式可以进一步减小错误裁剪的概率,即进一步提高裁剪精度。
进一步,某些具有复杂遮挡关系的场景中,按照本申请提出的遮挡剔除方法得到的遮挡剔除结果精度往往不够,这种情况下,本申请可以在利用预测深度图,获取遮挡剔除结果的过程中,增加判定物体是否被遮挡的约束条件,不再局限于如上文给出的:物体包围盒的最小深度数据小于该包围盒所覆盖区域的所有深度数据这一约束条件,本申请对新增加的约束条件的内容不做限定,可以根据实际需要试验确定。
结合上述各实施例的描述,本申请提出了一种遮挡剔除方法的细化实施例,参照图7所示的流程示意图,该方法可以包括但并不局限于以下步骤:
步骤S301,针对待渲染的虚拟场景,获取该虚拟场景的渲染物体列表;
其中,渲染物体列表包含虚拟场景存在的各物体,本申请对虚拟场景中各虚拟物体的记录方式不作限定,即本申请对渲染物体列表中各虚拟物体的记录方式不做限定,可以是表格记录方式,也可以是其他记录方式。
步骤S302,绘制该虚拟场景的第N帧图像;
步骤S303,检测是否存储有第N+K帧图像对应的预测深度图,如果否,进入步骤S304;如果是,执行步骤S306;
步骤S304,获取绘制第N+K帧图像时的预测视点参数;
步骤S305,生成该预测视点参数对应的预测深度图并存储;
步骤S306,在绘制第N+K帧图像的情况下,获取存储的与视点参数相匹配的预测视点参数对应的预测深度图,作为第N+K帧图像对应的目标深度图;
结合上述实施例的分析,为了解决深度图获取速度和延时问题,本申请会提前预测绘制若干帧后的图像的视点参数,并生成对应的深度图,即在绘制第N帧图像时,就预测绘制第N+K帧图像时的视点参数,并生成对应的预测深度图后存储,以便在真正绘制第N+K帧图像时,直接从存储的不同预测视点参数对应的预测深度图中,读取与当前视点参数最相似的预测视点参数对应的预测深度图,作为第N+K帧图像的深度图,不需要等待深度图生成过程。
在实际应用中,为了减少等待深度图生成时间,在发起深度图的渲染指令后,渲染线程往往不会立即其获取相应的深度图,而是在真正获取第N+K帧图像时,再获取相应的深度图,从而减少无效的等待时间。
步骤S307,对第N+K帧图像进行视锥裁剪,确定当前视点范围外的物体,并将确定的物体从渲染物体列表中剔除;
为了提高渲染效率,本申请可以在遮挡剔除之前,先从整体上对场景的图像进行裁剪操作,如采用视锥裁剪、距离裁剪、占屏比裁剪、甚至是静态下的预计算可见性裁剪PVS等裁剪方式,实现对第N+K帧图像的视锥裁剪,本申请对步骤307中具体裁剪过程不做限定,并不局限于本实施例列举的几种裁剪方式。
其中,由于视锥体是场景中图像采集设备的可见的一个椎体范围,有上、下、左、右、近、远六个面组成,通常情况下,在视锥体内的景物是可见的,反之是不可见的。基于此,视锥裁剪可以是裁剪视锥体外的图像,即剔除视锥范围外(即视锥体外)的被遮挡物体,本申请对如何判断物体是否位于视锥体内的方法不做详述。
步骤S308,利用目标深度图,确定当前帧图像中当前视点范围内的被遮挡物体;
可见,本申请可以直接将视锥体外的物体确定为被遮挡物体剔除,对于视锥体内的物体,可以按照上述实施例相应部分的描述内容,实现遮挡判定,具体实现过程本实施例在此不做赘述。
步骤S309,将确定的被遮挡物体从渲染物体列表中剔除,,对渲染物体列表中剩余物体进行图像渲染,得到虚拟场景。
本实施例可以采用上述两种方式,快速且准确地识别出待渲染虚拟场景中的各被遮挡物体,包括各帧图像中视锥体外的被遮挡物体和视锥体内的被遮挡物体,避免了图像渲染过程中对被遮挡物体的渲染,提高了渲染效率。本申请对虚拟场景中各可见物体的渲染方法不作详述。
其中,在识别视锥体内的被遮挡物体过程中,本申请采用视锥校正的方式实现遮挡剔除方法,即使用与当前帧的视锥不同(但偏差不大)的深度图来进行遮挡剔除,降低了对深度图获取的延时要求,提高了虚拟场景中物体的遮挡判定效率,减少了深度图的绘制次数,从而使得遮挡剔除的开销大大降低,提高了系统性能,并,能够适用于更多低端的移动平台(即移动计算机设备本身的计算和渲染能力有限的平台),即降低了对所适用的移动平台计算能力的要求,在计算能力较差的移动平台进行图像绘制,也能够达到和桌面平台同级别的裁剪精度和效果。
基于上述各实施例描述的遮挡剔除方法,本申请以绘制游戏场景为例进行说明,在绘制游戏应用中的任一帧游戏场景的情况下,渲染该帧游戏场景的过程中,可以检测后续需要绘制的其他帧游戏场景是否预存有对应的预测深度图,如果没有,可以在渲染这一帧游戏场景期间,预测将来绘制其他帧游戏场景的视点参数,并针对该视点参数生成相应的预测深度图进行存储,这样,经过若干帧,绘制该其他帧游戏场景的一帧游戏场景时,可以直接从存储的预测深度图中,选择与该帧游戏场景的视点参数最相似的预测视点参数对应的预设深度图,作为该帧游戏场景的目标深度图,由于该帧游戏场景中各游戏对象对于该目标深度图的视锥下的可见性,等价于变换后游戏对象在当前视锥下的可见性,所以,本申请直接利用该帧游戏场景中各游戏对象在目标深度图中的深度值,判定相应游戏对象在当前视锥下是否可见,即得到当前帧游戏场景中各游戏对象的遮挡剔除结果,剔除当前帧游戏场景中当前视锥范围内的被遮挡物体,减小渲染对象数量,提高了游戏场景渲染效率。
且,本申请提出的这种遮挡剔除方法的整个运算量较低,使其能够适应于计算能力较差的移动平台,如一些低端的移动设备等,扩大了使用范围,提高了市场竞争力。
需要说明,对于本申请提供的遮挡剔除方法,可以应用于各种图像绘制场景,并不局限于上文列举的游戏场景的绘制场景,本申请仅以此为例进行示意性说明,在其他图像绘制场景中的应用方法类似,本申请不再一一列举。
另外,对于深度图的绘制,本申请可以采用硬件绘制(具体由GPU实现深度图绘制,具体过程不做详述),也可以采用软件绘制(具体由CPU实现深度图绘制,具体过程不做详述),但在使用软件绘制深度图的过程中,通常为每个遮挡体额外制作一个面数很少的简单模型,并需要关卡制作人员手工摆放,会增加关卡制作复杂度,因此,为了尽快实现虚拟场景中物体的遮挡判定,本申请可以在上述方法中,可以采用硬件方式生成各预测视点参数对应的预测深度图,但并不局限于此。
参照图8,为本申请实施例提供的一种遮挡剔除装置的结构示意图,该装置可以包括但并不局限于以下虚拟模块:
视点参数确定模块11,用于确定绘制当前帧图像的当前视点参数;
预测深度图选择模块12,用于选择与所述当前视点参数相匹配的预测深度图,作为所述当前帧图像的目标深度图;
遮挡剔除结果确定模块13,用于利用所述目标深度图,确定所述当前帧图像中物体的遮挡剔除结果。
作为本申请另一实施例,该装置还可以包括:
渲染物体列表获取模块,用于针对待渲染的虚拟场景,获取所述虚拟场景的渲染物体列表,所述渲染物体列表包含所述虚拟场景存在的各物体;
裁剪模块,用于对该虚拟场景的当前帧图像进行视锥裁剪,确定当前视点范围外的物体,并将确定的物体从渲染物体列表中剔除;
相应地,遮挡剔除结果确定模块13具体可以用于利用所述目标深度图,确定当前帧图像中当前视点范围内物体的遮挡剔除结果。
可选的,如图9所示,该装置还可以包括:
视点变化信息获取模块14,用于获取绘制各帧图像的视点变化信息;
预测视点参数确定模块15,用于利用所述视点变化信息,确定绘制未来帧图像的预测视点参数,所述未来帧图像是在所述当前帧图像之后绘制的一帧图像;
预测深度图生成模块16,用于生成与确定的预测视点参数对应的预测深度图;
预设深度图存储模块17,用于对生成的所述预测深度图进行存储。
相应地,上述预测深度图选择模块12可以包括:
相似度获取单元,用于获取当前视点参数与存储的预测深度图对应的预测视点参数之间的相似度;
选择单元,用于选择相似度最大的预测视点参数对应的预测深度图。
可选的,在上述实施例的基础上,如图10所示,该遮挡剔除结果确定模块13可以包括:
遮挡判定等价关系确定单元131,用于利用所述目标深度图对应的预测视点参数与当前视点参数,确定当前帧图像中物体在不同视点下的遮挡判定等价关系;
遮挡判定单元132,用于依据所述遮挡判定等价关系,利用所述当前帧中物体在所述目标深度图中的深度信息,确定相应物体是否为被遮挡物体;
遮挡剔除单元133,用于将确定的被遮挡物体从渲染物体列表中剔除。
作为本申请又一可选实施例,在上述实施例的基础上,该装置还可以包括:
检测模块,用于在渲染当前帧图像期间,检测是否存在与所述未来帧图像对应的预测深度图,在检测结果为否的情况下,触发预测深度图生成模块生成与确定的预测视点参数对应的预测深度图;
渲染指令生成模块,用于在检测结果为是的情况下,生成针对所述预测深度图的渲染指令;
指令响应模块,用于在绘制所述未来帧图像时,响应所述渲染指令,获取所述预测深度图。
需要说明,关于上述各装置实施例中的虚拟模块或单元所实现的相应功能,以及所达到的技术效果,可以参照上述方法实施例相应部分的描述,本实施例不再赘述。
本申请实施例还提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行,实现上述遮挡剔除方法的各步骤,该遮挡剔除方法的实现过程可以参照上述方法实施例的描述。
本申请实施例还提供了一种图形处理器,用于执行上述遮挡剔除方法的各步骤,在绘制待渲染虚拟场景的各帧图像后,利用从预存的预测深度图中选定的对应的目标深度图,快速且准确识别各帧图像中的被遮挡物体并剔除,以避免对被遮挡物体进行渲染,提高了渲染效率。
如图11所示,本申请实施例还提供了一种计算机设备的硬件结构示意图,该计算机设备可以包括通信接口21、存储器22和处理器23;
在本申请实施例中,通信接口21、存储器22、处理器23可以通过通信总线实现相互间的通信,且该通信接口21、存储器22、处理器23及通信总线的数量可以为至少一个。
可选的,通信接口21可以为通信模块的接口,如GSM模块的接口,也可以是串/并口等,本申请对通信接口21的类型不做限定。
处理器23可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。
存储器22可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。
其中,存储器22存储有程序,处理器23调用存储器22所存储的程序,以实现上述应用于计算机设备的遮挡剔除方法的各步骤,具体实现过程可以参照上述方法实施例相应部分的描述,本实施例不再赘述。
在实际应用中,计算机设备可以是能够实现图像绘制功能的产品,如服务器或终端设备,本申请对该计算机设备的产品类型不做限定。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置、计算机设备而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的核心思想或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种遮挡剔除方法,其特征在于,所述方法包括:
确定绘制当前帧图像的当前视点参数;
选择与所述当前视点参数相匹配的预测深度图,作为所述当前帧图像的目标深度图;
利用所述目标深度图,确定所述当前帧图像中物体的遮挡剔除结果。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取绘制各帧图像的视点变化信息;
利用所述视点变化信息,确定绘制未来帧图像的预测视点参数,所述未来帧图像是在所述当前帧图像之后绘制的一帧图像;
生成与确定的预测视点参数对应的预测深度图;
对生成的所述预测深度图进行存储。
3.根据权利要求2所述的方法,其特征在于,所述选择与所述当前视点参数相匹配的预测深度图,包括:
获取当前视点参数与存储的预测深度图对应的预测视点参数之间的相似度;
选择相似度最大的预测视点参数对应的预测深度图。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
针对待渲染的虚拟场景,获取所述虚拟场景的渲染物体列表,所述渲染物体列表包含所述虚拟场景存在的各物体;
对所述虚拟场景的当前帧图像进行视锥裁剪,确定当前视点范围外的物体,并将确定的所述物体从所述渲染物体列表中剔除;
所述利用所述目标深度图,确定所述当前帧图像中物体的遮挡剔除结果包括:
利用所述目标深度图,确定所述当前帧图像中当前视点范围内物体的遮挡剔除结果。
5.根据权利要求1~4任一项所述的方法,其特征在于,所述利用所述目标深度图,确定所述当前帧图像中物体的遮挡剔除结果,包括:
利用所述目标深度图对应的预测视点参数与当前视点参数,确定当前帧图像中物体在不同视点下的遮挡等价关系;
依据所述遮挡判定等价关系,利用所述当前帧中物体在所述目标深度图中的深度信息,确定相应物体是否为被遮挡物体;
将确定的被遮挡物体从所述渲染物体列表中剔除。
6.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
在渲染当前帧图像期间,检测是否存在与所述未来帧图像对应的预测深度图;
若不存在与所述未来帧图像对应的预测深度图,执行所述生成与确定的预测视点参数对应的预测深度图步骤;
确定存在与所述未来帧图像对应的预测深度图,生成针对所述预测深度图的渲染指令;
在绘制所述未来帧图像时,响应所述渲染指令,获取所述预测深度图。
7.一种遮挡剔除装置,其特征在于,所述装置包括:
视点参数确定模块,用于确定绘制当前帧图像的当前视点参数;
预测深度图选择模块,用于选择与所述当前视点参数相匹配的预测深度图,作为所述当前帧图像的目标深度图;
遮挡剔除结果确定模块,用于利用所述目标深度图,确定所述当前帧图像中物体的遮挡剔除结果。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
视点变化信息获取模块,用于获取绘制各帧图像的视点变化信息;
预测视点参数确定模块,用于利用所述视点变化信息,确定绘制未来帧图像的预测视点参数,所述未来帧图像是在所述当前帧图像之后绘制的一帧图像;
预测深度图生成模块,用于生成与确定的预测视点参数对应的预测深度图;
预设深度图存储模块,用于对生成的所述预测深度图进行存储。
9.根据权利要求7或8所述的装置,其特征在于,所述遮挡剔除结果确定模块,包括:
遮挡判定等价关系确定单元,用于利用所述目标深度图对应的预测视点参数与当前视点参数,确定当前帧图像中物体在不同视点下的遮挡判定等价关系;
遮挡判定单元,用于依据所述遮挡判定等价关系,利用所述当前帧中物体在所述目标深度图中的深度信息,确定相应物体是否为被遮挡物体;
遮挡剔除单元,用于将确定的被遮挡物体从渲染物体列表中剔除,所述渲染物体列表针对待渲染的虚拟场景生成。
10.一种计算机设备,其特征在于,所述计算机设备包括:
通信接口;
存储器,用于存储实现如权利要求1~6任意一项所述的遮挡剔除方法的程序;
处理器,用于加载并执行所述存储器存储的所述程序,实现如权利要求1~6任意一项所述的遮挡剔除方法的各个步骤。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910395675.3A CN110136082B (zh) | 2019-05-10 | 2019-05-10 | 遮挡剔除方法、装置及计算机设备 |
PCT/CN2020/086623 WO2020228511A1 (zh) | 2019-05-10 | 2020-04-24 | 图像中的遮挡处理方法、装置、设备及计算机存储介质 |
EP20805478.3A EP3968270A4 (en) | 2019-05-10 | 2020-04-24 | METHOD, DEVICE, DEVICE AND STORAGE MEDIUM FOR PROCESSING IMAGE OCCLUSIONS |
US17/365,703 US11514640B2 (en) | 2019-05-10 | 2021-07-01 | Image occlusion processing method, device, apparatus and computer storage medium |
US17/949,594 US11783536B2 (en) | 2019-05-10 | 2022-09-21 | Image occlusion processing method, device, apparatus and computer storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910395675.3A CN110136082B (zh) | 2019-05-10 | 2019-05-10 | 遮挡剔除方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110136082A true CN110136082A (zh) | 2019-08-16 |
CN110136082B CN110136082B (zh) | 2021-06-01 |
Family
ID=67573641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910395675.3A Active CN110136082B (zh) | 2019-05-10 | 2019-05-10 | 遮挡剔除方法、装置及计算机设备 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11514640B2 (zh) |
EP (1) | EP3968270A4 (zh) |
CN (1) | CN110136082B (zh) |
WO (1) | WO2020228511A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111383348A (zh) * | 2020-03-17 | 2020-07-07 | 北京理工大学 | 一种虚拟现实远程同步控制机器人的方法 |
CN111627116A (zh) * | 2020-05-29 | 2020-09-04 | 联想(北京)有限公司 | 图像渲染控制方法、装置及服务器 |
CN111726479A (zh) * | 2020-06-01 | 2020-09-29 | 北京像素软件科技股份有限公司 | 图像渲染的方法及装置、终端、可读存储介质 |
CN111784612A (zh) * | 2020-07-08 | 2020-10-16 | 网易(杭州)网络有限公司 | 游戏中剔除场景物体模型的方法及装置 |
WO2020228511A1 (zh) * | 2019-05-10 | 2020-11-19 | 腾讯科技(深圳)有限公司 | 图像中的遮挡处理方法、装置、设备及计算机存储介质 |
CN112541960A (zh) * | 2019-09-19 | 2021-03-23 | 阿里巴巴集团控股有限公司 | 三维场景的渲染方法、装置及电子设备 |
CN112686992A (zh) * | 2021-01-12 | 2021-04-20 | 北京知优科技有限公司 | 用于智慧城市occ树的几何图形视锥体实现方法、装置及存储介质 |
CN112733428A (zh) * | 2020-12-17 | 2021-04-30 | 上海理工大学 | 一种光学测量的扫描姿态与覆盖路径规划方法 |
CN113140028A (zh) * | 2021-04-08 | 2021-07-20 | 广州三七互娱科技有限公司 | 虚拟物体渲染方法、装置及电子设备 |
CN113240692A (zh) * | 2021-06-30 | 2021-08-10 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113722644A (zh) * | 2021-09-03 | 2021-11-30 | 北京房江湖科技有限公司 | 基于外接设备在虚拟空间选取浏览点位的方法及其装置 |
CN113797531A (zh) * | 2021-08-30 | 2021-12-17 | 网易(杭州)网络有限公司 | 遮挡剔除实现方法、装置、计算机设备及存储介质 |
CN115294251A (zh) * | 2022-06-13 | 2022-11-04 | 无人智境(北京)技术有限公司 | 一种海量集装箱批量渲染方法和设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256816A (zh) * | 2021-03-29 | 2021-08-13 | 北京航空航天大学 | 基于深度图像不连续性检测的自动去除遮挡的虚拟现实漫游辅助可视化方法 |
CN116310060B (zh) * | 2023-04-11 | 2024-02-09 | 深圳优立全息科技有限公司 | 一种渲染数据的方法、装置、设备及存储介质 |
CN117197319B (zh) * | 2023-11-07 | 2024-03-22 | 腾讯科技(深圳)有限公司 | 图像生成方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020128797A1 (en) * | 2001-01-19 | 2002-09-12 | Jiangang Sun | Method for determining defect depth using thermal imaging |
US20050134588A1 (en) * | 2003-12-22 | 2005-06-23 | Hybrid Graphics, Ltd. | Method and apparatus for image processing |
CN101278271A (zh) * | 2005-09-29 | 2008-10-01 | 北京韩纳儒信息传媒有限公司 | 高效率管理视频点播服务的方法及系统 |
CN101364265A (zh) * | 2008-09-18 | 2009-02-11 | 北京中星微电子有限公司 | 自动配置电子设备的设备参数的方法及摄像头 |
CN102014293A (zh) * | 2010-12-20 | 2011-04-13 | 清华大学 | 平面视频的立体渲染方法 |
CN103500467A (zh) * | 2013-10-21 | 2014-01-08 | 深圳市易尚展示股份有限公司 | 基于图像的三维模型构成方法 |
CN104331918A (zh) * | 2014-10-21 | 2015-02-04 | 无锡梵天信息技术股份有限公司 | 基于深度图实时绘制室外地表遮挡剔除以及加速方法 |
CN104766363A (zh) * | 2015-02-04 | 2015-07-08 | 浙江工商大学 | 基于深度图绘制的多方向参考视点的warping方法 |
CN107274472A (zh) * | 2017-06-16 | 2017-10-20 | 福州瑞芯微电子股份有限公司 | 一种提高vr播放帧率的方法和装置 |
CN107376360A (zh) * | 2017-06-19 | 2017-11-24 | 深圳市铂岩科技有限公司 | 游戏直播方法及游戏直播系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5926183A (en) * | 1996-11-19 | 1999-07-20 | International Business Machines Corporation | Efficient rendering utilizing user defined rooms and windows |
US6111582A (en) * | 1996-12-20 | 2000-08-29 | Jenkins; Barry L. | System and method of image generation and encoding using primitive reprojection |
US9182814B2 (en) * | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
KR101632992B1 (ko) * | 2014-07-03 | 2016-06-30 | 성균관대학교산학협력단 | 깊이 와핑에 기반한 폐색 컬링을 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
CN106023299B (zh) * | 2016-05-04 | 2019-01-04 | 上海玮舟微电子科技有限公司 | 一种基于深度图的虚拟视图绘制方法及系统 |
CN107292965B (zh) * | 2017-08-03 | 2020-10-13 | 北京航空航天大学青岛研究院 | 一种基于深度图像数据流的虚实遮挡处理方法 |
CN107958480B (zh) * | 2017-11-23 | 2021-04-30 | 腾讯科技(上海)有限公司 | 图像渲染方法、装置及存储介质 |
US10984545B2 (en) * | 2018-11-16 | 2021-04-20 | Nvidia Corporation | Estimating depth for a video stream captured with a monocular rgb camera |
CN110136082B (zh) * | 2019-05-10 | 2021-06-01 | 腾讯科技(深圳)有限公司 | 遮挡剔除方法、装置及计算机设备 |
-
2019
- 2019-05-10 CN CN201910395675.3A patent/CN110136082B/zh active Active
-
2020
- 2020-04-24 EP EP20805478.3A patent/EP3968270A4/en active Pending
- 2020-04-24 WO PCT/CN2020/086623 patent/WO2020228511A1/zh unknown
-
2021
- 2021-07-01 US US17/365,703 patent/US11514640B2/en active Active
-
2022
- 2022-09-21 US US17/949,594 patent/US11783536B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020128797A1 (en) * | 2001-01-19 | 2002-09-12 | Jiangang Sun | Method for determining defect depth using thermal imaging |
US20050134588A1 (en) * | 2003-12-22 | 2005-06-23 | Hybrid Graphics, Ltd. | Method and apparatus for image processing |
CN101278271A (zh) * | 2005-09-29 | 2008-10-01 | 北京韩纳儒信息传媒有限公司 | 高效率管理视频点播服务的方法及系统 |
CN101364265A (zh) * | 2008-09-18 | 2009-02-11 | 北京中星微电子有限公司 | 自动配置电子设备的设备参数的方法及摄像头 |
CN102014293A (zh) * | 2010-12-20 | 2011-04-13 | 清华大学 | 平面视频的立体渲染方法 |
CN103500467A (zh) * | 2013-10-21 | 2014-01-08 | 深圳市易尚展示股份有限公司 | 基于图像的三维模型构成方法 |
CN104331918A (zh) * | 2014-10-21 | 2015-02-04 | 无锡梵天信息技术股份有限公司 | 基于深度图实时绘制室外地表遮挡剔除以及加速方法 |
CN104766363A (zh) * | 2015-02-04 | 2015-07-08 | 浙江工商大学 | 基于深度图绘制的多方向参考视点的warping方法 |
CN107274472A (zh) * | 2017-06-16 | 2017-10-20 | 福州瑞芯微电子股份有限公司 | 一种提高vr播放帧率的方法和装置 |
CN107376360A (zh) * | 2017-06-19 | 2017-11-24 | 深圳市铂岩科技有限公司 | 游戏直播方法及游戏直播系统 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11514640B2 (en) | 2019-05-10 | 2022-11-29 | Tencent Technology (Shenzhen) Company Limited | Image occlusion processing method, device, apparatus and computer storage medium |
US11783536B2 (en) | 2019-05-10 | 2023-10-10 | Tencent Technology (Shenzhen) Company Limited | Image occlusion processing method, device, apparatus and computer storage medium |
WO2020228511A1 (zh) * | 2019-05-10 | 2020-11-19 | 腾讯科技(深圳)有限公司 | 图像中的遮挡处理方法、装置、设备及计算机存储介质 |
CN112541960A (zh) * | 2019-09-19 | 2021-03-23 | 阿里巴巴集团控股有限公司 | 三维场景的渲染方法、装置及电子设备 |
WO2021052392A1 (zh) * | 2019-09-19 | 2021-03-25 | 阿里巴巴集团控股有限公司 | 三维场景的渲染方法、装置及电子设备 |
CN111383348A (zh) * | 2020-03-17 | 2020-07-07 | 北京理工大学 | 一种虚拟现实远程同步控制机器人的方法 |
CN111627116A (zh) * | 2020-05-29 | 2020-09-04 | 联想(北京)有限公司 | 图像渲染控制方法、装置及服务器 |
CN111627116B (zh) * | 2020-05-29 | 2024-02-27 | 联想(北京)有限公司 | 图像渲染控制方法、装置及服务器 |
CN111726479B (zh) * | 2020-06-01 | 2023-05-23 | 北京像素软件科技股份有限公司 | 图像渲染的方法及装置、终端、可读存储介质 |
CN111726479A (zh) * | 2020-06-01 | 2020-09-29 | 北京像素软件科技股份有限公司 | 图像渲染的方法及装置、终端、可读存储介质 |
CN111784612A (zh) * | 2020-07-08 | 2020-10-16 | 网易(杭州)网络有限公司 | 游戏中剔除场景物体模型的方法及装置 |
CN112733428A (zh) * | 2020-12-17 | 2021-04-30 | 上海理工大学 | 一种光学测量的扫描姿态与覆盖路径规划方法 |
CN112686992A (zh) * | 2021-01-12 | 2021-04-20 | 北京知优科技有限公司 | 用于智慧城市occ树的几何图形视锥体实现方法、装置及存储介质 |
CN113140028A (zh) * | 2021-04-08 | 2021-07-20 | 广州三七互娱科技有限公司 | 虚拟物体渲染方法、装置及电子设备 |
CN113140028B (zh) * | 2021-04-08 | 2024-08-16 | 广州三七互娱科技有限公司 | 虚拟物体渲染方法、装置及电子设备 |
CN113240692A (zh) * | 2021-06-30 | 2021-08-10 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113240692B (zh) * | 2021-06-30 | 2024-01-02 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113797531A (zh) * | 2021-08-30 | 2021-12-17 | 网易(杭州)网络有限公司 | 遮挡剔除实现方法、装置、计算机设备及存储介质 |
CN113722644A (zh) * | 2021-09-03 | 2021-11-30 | 北京房江湖科技有限公司 | 基于外接设备在虚拟空间选取浏览点位的方法及其装置 |
CN113722644B (zh) * | 2021-09-03 | 2023-07-21 | 如你所视(北京)科技有限公司 | 基于外接设备在虚拟空间选取浏览点位的方法及其装置 |
CN115294251A (zh) * | 2022-06-13 | 2022-11-04 | 无人智境(北京)技术有限公司 | 一种海量集装箱批量渲染方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110136082B (zh) | 2021-06-01 |
US20210327123A1 (en) | 2021-10-21 |
WO2020228511A1 (zh) | 2020-11-19 |
EP3968270A1 (en) | 2022-03-16 |
US11514640B2 (en) | 2022-11-29 |
US11783536B2 (en) | 2023-10-10 |
US20230026813A1 (en) | 2023-01-26 |
EP3968270A4 (en) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136082A (zh) | 遮挡剔除方法、装置及计算机设备 | |
US11069124B2 (en) | Systems and methods for reducing rendering latency | |
KR100510131B1 (ko) | 픽셀 캐쉬 및 이를 이용한 3차원 그래픽 가속 장치 및 방법 | |
CN111369655B (zh) | 渲染方法、装置和终端设备 | |
US11138782B2 (en) | Systems and methods for rendering optical distortion effects | |
CN111127623B (zh) | 模型的渲染方法、装置、存储介质及终端 | |
US10699467B2 (en) | Computer-graphics based on hierarchical ray casting | |
JP2008077627A (ja) | 3次元画像のレンダリングにおける早期zテスト方法およびシステム | |
CN111583381B (zh) | 游戏资源图的渲染方法、装置及电子设备 | |
CN104331918A (zh) | 基于深度图实时绘制室外地表遮挡剔除以及加速方法 | |
US9633467B2 (en) | Stencil mapped shadowing system | |
US20120269422A1 (en) | Collision detection system, robotic system, collision detection method and program | |
US10825231B2 (en) | Methods of and apparatus for rendering frames for display using ray tracing | |
KR20150117662A (ko) | 깊이 맵의 컨텐츠를 강화하기 위한 방법 및 디바이스 | |
CN112184873A (zh) | 分形图形创建方法、装置、电子设备和存储介质 | |
CN116051713B (zh) | 渲染方法、电子设备和计算机可读存储介质 | |
CN114241151A (zh) | 三维模型简化方法、装置、计算机设备和计算机存储介质 | |
JP5916764B2 (ja) | 仮想環境における隠蔽の推定方法 | |
US20180040155A1 (en) | Cache friendly jittered hemispherical sampling | |
WO2011073361A1 (en) | A micro-architecture system and method for ray tracing and collision detection | |
US20140347355A1 (en) | Ray tracing core and method for processing ray tracing | |
US20140306953A1 (en) | 3D Rendering for Training Computer Vision Recognition | |
CN103782324A (zh) | 使用纹理坐标导数的加速的纹理查找 | |
CN110738719A (zh) | 一种基于视距分层优化的Web3D模型渲染方法 | |
US9117306B2 (en) | Method of stencil mapped shadowing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |