CN113034385A - 一种基于分块的网格生成及渲染方法 - Google Patents
一种基于分块的网格生成及渲染方法 Download PDFInfo
- Publication number
- CN113034385A CN113034385A CN202110227063.0A CN202110227063A CN113034385A CN 113034385 A CN113034385 A CN 113034385A CN 202110227063 A CN202110227063 A CN 202110227063A CN 113034385 A CN113034385 A CN 113034385A
- Authority
- CN
- China
- Prior art keywords
- view
- blocks
- grid
- rendering
- depth map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000000638 solvent extraction Methods 0.000 claims abstract description 4
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 230000006872 improvement Effects 0.000 claims description 6
- 238000007670 refining Methods 0.000 claims description 2
- 239000012634 fragment Substances 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Generation (AREA)
Abstract
一种基于分块的网格生成及渲染方法,包括以下步骤:改进每个视图的深度图,使深度图中深度突变的边界与所述视图对应图像中的物体边界相吻合;根据采集相机参数和对应的经改进后的深度图生成视图的分块网格;对所述视图对应的图像进行分块;根据分块的网格和图像进行按每视图几何的渲染。本发明的基于分块的网格生成及渲染方法,能够降低对几何模型准确程度的要求,不需要对模型进行人工修改或对图像进行修改,同时又能够满足高质量的渲染。
Description
技术领域
本发明涉及三维计算机图形学技术领域,特别是涉及一种基于分块的网格生成及渲染方法。
背景技术
通过使用场景的几何代理,可以改进光场渲染的效果。目前多数光场渲染方法使用的是单个全局几何模型,在这种情况下,要求该全局几何模型与真实物体的几何之间误差很小,否则,很容易在渲染中产生伪影,导致渲染质量的降低。但是,通过当前的三维重建方法重建出的几何模型的准确程度很难满足高质量的光场渲染。从而,为了提高渲染质量,需要通过对模型进行人工修改以更加接近真实的几何,或者对图像进行修改以适应错误的几何。
发明内容
为了解决现有技术存在的不足,本发明的目的在于提供一种基于分块的网格生成及渲染方法,能够降低对几何模型准确程度的要求,不需要对模型进行人工修改或对图像进行修改,同时又能够满足高质量的渲染。
为实现上述目的,本发明提供的一种基于分块的网格生成及渲染方法,包括以下步骤:
改进每个视图的深度图,使深度图中深度突变的边界与所述视图对应图像中的物体边界相吻合;
根据采集相机参数和对应的经改进后的深度图生成视图的分块网格;
对所述视图对应的图像进行分块;
根据分块的网格和图像进行按每视图几何的渲染。
进一步地,所述改进每个视图的深度图,使深度图中深度突变的边界与所述视图对应图像中的物体边界相吻合的步骤,还包括,
根据所述深度图,对每个像素进行法线估计;
采用小片匹配,对所述深度图中的深度值进行逐像素改进;
对改进后的所述深度图进行带权重的中位数滤波。
进一步地,所述根据采集相机参数和对应的改进后的所述深度图生成视图的分块网格的步骤,还包括,
以像素为单位确定每个分块的大小,为每一个分块赋予一个唯一标识符,相邻的两个分块共用分块边界上的像素;
根据采集相机参数和所述深度图生成三维空间中的网格;
对生成的所述网格进行保持分块边界的边折叠简化;
将简化后的所述网格沿各个分块的边界切开并重新计算每个分块内每个顶点的纹理坐标,对每个视图得到一组网格分块。
进一步地,所述对所述视图对应的图像进行分块的步骤,还包括,
确定图像的分块,为相同位置的分块标记相同的唯一标识符,建立图像分块与网格分块之间的对应关系;
将图像沿各个分块的边界切开,复制相邻的分块共用的分块边界上的像素,所述像素被复制之后分属于相邻的分块。
进一步地,所述根据分块的网格和图像进行按每视图几何的渲染的步骤,还包括,
根据当前帧的渲染相机的参数,对网格分块进行基于圆盘的可见性裁减;
将可见的网格分块的顶点数据载入显存;
采用虚拟纹理的方式将对应的的图像分块载入显存;
绘制时进行不完全深度测试,进行基于圆盘的颜色混合。
为实现上述目的,本发明还提供一种电子设备,包括存储器和处理器,所述存储器上储存有在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行如上文所述的基于分块的网格生成及渲染方法的步骤。
为实现上述目的,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序运行时执行如上文所述的基于分块的网格生成及渲染方法的步骤。
本发明的基于分块的网格生成及渲染方法、电子设备及计算机可读存储介质,具有以下有益效果:
1)能够降低对几何模型准确程度的要求,不需要对模型进行人工修改或对图像进行修改,同时又能够满足高质量的渲染。
2)能够极大简化几何重建的过程,在几何的准确程度较低的条件下更加真实地反映物体与场景的复杂外观,特别是能够更加清晰逼真地反映在不同的视角下物体外观的变化,并且能够减少渲染中产生的伪影。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,并与本发明的实施例一起,用于解释本发明,并不构成对本发明的限制。在附图中:
图1为根据本发明的基于分块的网格生成及渲染方法流程图;
图2为根据本发明的实施例一改进深度图示意图;
图3为根据本发明的实施例一生成网格分块示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1为根据本发明的基于分块的网格生成及渲染方法流程图,下面将参考图1,对本发明的基于分块的网格生成及渲染方法进行详细描述。
首先,在步骤101,针对每个视图,对其深度图进行改进,以使该深度图中深度突变的边界与该视图对应的图像中的物体边界相吻合。
优选地,对每个视图的深度图进行改进的步骤,可具体执行为:根据该深度图,对每个像素进行法线估计;使用小片匹配,对该深度图中的深度值进行逐像素改进;对改进后的深度图进行带权重的中位数滤波。
本实施例中,根据该深度图,对每个像素进行法线估计的步骤,可具体执行为:根据深度图和该深度图所对应的视图的采集相机参数,对每个像素计算对应的三维空间中的坐标;选取以目标像素为中心的3×3小片,对这九个三维空间坐标进行主成分分析,以方差最小且具有朝向相机的分量的方向为该目标像素的法线方向。
本实施例中,使用小片匹配,对该深度图中的深度值进行逐像素改进的步骤,可具体执行为:对于该深度图所属的视图,确定该视图的多个相邻视图;对该深度图中待改进的一个像素,确定该像素对应的小片的位置,假设该小片中的像素所对应的三维空间中的位置全部位于同一个平面内;获取该待改进像素的候选平面,这些候选平面包括:该待改进像素当前的深度值和法线方向所确定的平面,以及其邻域内已经改进过的像素的深度值与法线方向确定的平面;对每个候选平面,计算该小片的代价值,该小片的代价值为该小片内的每个像素的代价值之和,其中每个像素的代价值的计算方法为:假设该像素位于候选平面上,然后将其重投影到每个相邻视图中,对每个相邻视图,计算重投影之前和之后的颜色差和颜色梯度差,并根据该像素与该待改进像素的颜色差计算一个权重,从而计算该像素在该视图下的代价值,将该待改进像素记为p,将上述小片内的该像素记为q,将像素q重投影之后的像素位置记为q’,则该代价值的计算公式为w(p,q)×d(q,q’),其中d(q,q′)=(1-α)×min(|Iq-Iq′|,其中,I为对应像素位置的颜色值,为对应像素位置的颜色梯度值,α、β0、β1和γ为固定参数,然后将该像素在所有这些相邻视图下的代价值相加,得到该像素的代价值;从所有这些候选平面中,选取代价值最小的一个作为该待改进像素在改进后的候选平面,该候选平面所对应的深度值和法线方向为改进后的深度值和法线方向。特别地,在上述计算代价值的公式中,α为0.9,β0为10,β2为2,γ为10。特别地,上述小片为以该待改进像素为中心的3×3小片。特别地,上述小片为以该待改进像素为中心的5×5小片。特别地,上述小片为以该待改进像素为中心的7×7小片。特别地,上述获取该待改进像素的候选平面时所使用的邻域为3×3邻域。
本实施例中,对改进后的深度图进行带权重的中位数滤波的步骤,可具体执行为:给定滤波半径R,给定方差值σ2;当两像素在X方向或Y方向上的坐标差大于该滤波半径R时,权重为0,否则,根据对应的颜色计算两个像素间的权重,计算公式为其中,I1和I2分别为这两个像素对应的颜色值,按该权重进行中位数滤波。特别地,该滤波半径R为8。特别地,在颜色值为0~255的条件下,该σ值为10。
在步骤102,针对该视图,根据采集相机参数和其对应的经改进后的深度图生成分块的网格。
优选地,根据视图的采集相机参数和其对应的深度图生成分块的网格的方法包括:确定每个分块的大小,以像素为单位,并为每一个分块赋予一个唯一标识符;相邻的两个分块共用分块边界上的像素;根据采集相机参数和深度图生成三维空间中的网格;对生成的该网格进行保持分块边界的边折叠简化;将简化后的该网格沿各个分块的边界切开并重新计算每个分块内每个顶点的纹理坐标,从而对每个视图得到一组网格分块。
本实施例中,根据采集相机参数和深度图生成三维空间中的网格的步骤,可具体执行为:根据相机参数,对深度图中的每个像素计算其对应的在三维空间中的坐标,得到三维位置图。对三维位置图中每个2×2的小块,将四条边和其中一条对角线相连,得到三维空间中的两个三角形,在该过程中需满足两个像素之间最多只连接一次。
本实施例中,在每个2×2的小块的两条对角线中,选取能够生成质量较好的一对三角形的那一条对角线。以以下标准作为生成的一对三角形的质量较好的标准:对生成的一对三角形分别计算每个三角形的最大边高比,以较大的一个最大边高比作为该对三角形的倾斜值,倾斜值越小表明该对三角形质量越好。
本实施例中,在得到的网格中,将最大边高比超过某一阈值的的三角形去除,该阈值可设为20~50。在得到的网格中,根据某一深度阈值来区分前景与背景,将属于背景的三角形去除。
本实施例中,对生成的该网格进行保持分块边界的边折叠简化的步骤,可具体执行为:将上述生成的网格中的顶点进行分类:角顶点,如果该顶点对应上述三维位置图中的一个分块的顶点像素;边顶点,如果该顶点对应上述三维位置图中的一个分块的边上的像素,且该顶点不为角顶点;内顶点,如果该顶点不为角顶点或边顶点。在常规边折叠方法中添加以下约束:如果一条边的两个顶点都是角顶点,则不允许进行折叠;如果一条边的两个顶点中一个是角顶点,另一个是边顶点,如果该边顶点所对应的分块的边与该角顶点相邻,则允许进行折叠,折叠之后必须保留该角顶点;如果该边顶点所对应的分块的边不与该角顶点相邻,则不允许进行折叠;如果一条边的两个顶点中一个是角顶点,另一个是内顶点,允许进行折叠,折叠之后必须保留该角顶点;如果一条边的两个顶点都是边顶点,如果他们所对应的分块的边相同,则允许进行折叠,折叠后所保留的顶点可任选;如果他们所对应的分块的边不相同,则不允许进行折叠;如果一条边的两个顶点中一个是边顶点,另一个是内顶点,则允许进行折叠,折叠后保留该边顶点;如果一条边的两个顶点都是内顶点,则允许进行折叠,折叠后所保留的顶点可任选。特别地,在以上约束之外添加如下约束:如果折叠之后导致任何三角形的法线变化超过90度,则不允许该折叠。特别地,在折叠中使用LindstromTurk代价函数。
本实施例中,将网格按分块切开的步骤,可具体执行为:对于边折叠简化之后的网格,遍历其中的每个三角形面,计算每个三角形面所属的分块,然后将该面添加到该分块。其中,计算一个三角形面所属分块的方法为:以顶点所对应的三维位置图中的像素在该图中的坐标为顶点的二维坐标;计算该三角形面的三个顶点的二维坐标的平均值,即三角形面的中心点的二维坐标;计算该中心点的二维坐标所属的分块。
在步骤103,根据步骤102中的分块方式,对该视图对应的图像进行分块。
优选地,对视图对应的图像分块的方法包括:确定图像的分块,并为相同位置的分块赋予一致的唯一标识符,建立图像分块与网格分块之间的一一对应关系;将图像沿各个分块的边界切开;相邻的分块所共用的分块边界上的像素被复制,被复制之后分属于相邻的分块。
在步骤104,使用上述分块的网格和图像进行按每视图几何的渲染。
优选地,使用分块的网格和图像进行按每视图几何的渲染的方法包括:根据当前帧的渲染相机的参数,对网格分块进行基于圆盘的可见性裁减;将可见的网格分块的顶点数据载入显存;使用虚拟纹理技术将对应的图像分块载入显存;绘制时,进行不完全深度测试;进行基于圆盘的颜色混合。
本实施例中,对网格分块进行基于圆盘的可见性裁减的步骤,可具体执行为:计算上述一个网格分块在三维空间中的轴对齐包围盒,然后对该轴对齐包围盒的八个顶点分别计算可见性,如果其中至少有一个顶点被判断为可见,则该网格分块被判断为可见。其中,对该轴对齐包围盒的一个顶点计算可见性的方法为:连接该顶点的位置与渲染相机的位置形成一条直线,该直线与该网格分块所属的视图对应的采集相机坐标系中的XY平面交于一点,如果该交点与该采集相机坐标系中的原点的距离小于给定的阈值(该阈值即圆盘半径),则认为该顶点可见,否则认为该顶点不可见。
本实施例中,使用虚拟纹理技术将图像分块载入显存并在片元着色器中获取纹理颜色的步骤,可具体执行为:在一帧的渲染之前,获取了该帧渲染所需的所有图像分块之后,将这些图像分块放入一个物理纹理中,其中该物理纹理的宽度和高度是图像分块尺寸的整数倍;同时使用第二个纹理,即间接取值表纹理,其中存储分块的唯一标识符与该分块图像在该物理纹理中的位置的对应关系;将这两个纹理载入显存;在片元着色器中,进行颜色采样时,先根据上述间接取值表纹理和所属分块的唯一标识符查找该分块在上述物理纹理中的位置,然后再根据纹理坐标进行颜色采样。特别地,该物理纹理可以为二维纹理或三维纹理。
本实施例中,为了提高效率,每一帧可以只对该物理纹理和该间接取值表纹理进行部分更新,其方法为:对于该帧需要用到的图像分块,如果该图像分块已经存在于该物理纹理和该间接取值表纹理中,则不需要做改变;否则,如果该物理纹理尚未被放满,则将该图像分块置于物理纹理中的空白处,并相应地更新该间接取值表纹理;如果该物理纹理已被放满,则按最近最少使用的缓存原则,将该图像分块覆盖物理纹理中最近使用时间最早的图像分块的位置,并相应地更新该间接取值表纹理。
本实施例中,在每个视图的网格内进行深度测试而在不同视图的网格间不进行深度测试的步骤,可具体执行为:开启图形处理单元的深度测试功能,其中总深度范围为0~1,并设置深度比较函数为当待判断的深度值小于(或者,小于或等于)已保存的深度值时为通过测试,渲染目标为二维纹理,使用二维深度缓存;将一帧中所用到的网格分块按所属视图排列,并按视图的顺序依次绘制,即,先绘制属于视图1的所有网格分块,然后绘制属于视图2的所有网格分块,依次类推;将该帧所用到的视图的总数记为N,在绘制属于第i个视图的网格分块时,修改渲染相机的投影矩阵,使得计算得到的深度值范围由0~1的范围被缩放到即,将总深度范围等分为N份,每个视图占用其中一份,其中,与其网格分块被后绘制的视图相比,其网格分块被先绘制的视图所占用的深度范围在数值上更大。可另选地,其中上述总深度范围为n~f,其中n<f,同时对上述每个视图所对应的被缩放后的深度范围做相应调整。可选地,为了减少渲染结果中的伪影,在不调整深度范围的条件下,将该帧用到的所有网格分块预先绘制一次,得到每个像素对应的最小深度;然后,在前述不完全深度测试过程中,如果一个片元在不调整深度范围的条件下的深度与该最小深度的差值大于给定的阈值,则将该片元舍弃。
本实施例中,进行基于圆盘的颜色混合的步骤,可具体执行为:对每个视图设置一个圆盘半径;计算片元所对应的世界坐标系中的点的坐标;连接该点的位置与渲染相机的位置形成一条直线,该直线与该片元所对应的网格分块所属的视图对应的采集相机坐标系中的XY平面交于一点,该点与该XY平面的原点的距离记为d,该视图的圆盘半径记为R,如果d>R,则该片元的权重为0;如果d≤R,则该片元的权重为按上述所计算的权重,对片元的颜色做加权平均。
光场渲染技术是一种对真实物体与场景进行三维数字重现的重要技术。光场渲染技术相比传统的三维渲染方法有着极大的优势:真实感强,能逼真地表现真实物体与场景的复杂外观;适用性强,不易受场景中物体的几何和材质的复杂程度的影响。因此光场渲染技术在多个领域有着广泛的应用。
本发明提出一种基于分块的网格生成及渲染方法,该方法能够降低对几何模型准确程度的要求,不需要对模型进行人工修改或对图像进行修改,同时又能够满足高质量的渲染,能够极大简化几何重建的过程,在几何的准确程度较低的条件下更加真实地反映物体与场景的复杂外观,特别是能够更加清晰逼真地反映在不同的视角下物体外观的变化,并且能够减少渲染中产生的伪影。
本发明的一个实施例中,还提供一种电子设备,包括存储器和处理器,所述存储器上储存有在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行如上文所述的基于分块的网格生成及渲染方法的步骤。
本发明的一个实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序运行时执行如上文所述的基于分块的网格生成及渲染方法的步骤。
本领域普通技术人员可以理解:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于分块的网格生成及渲染方法,其特征在于,包括以下步骤:
改进每个视图的深度图,使深度图中深度突变的边界与所述视图对应图像中的物体边界相吻合;
根据采集相机参数和对应的经改进后的深度图生成视图的分块网格;
对所述视图对应的图像进行分块;
根据分块的网格和图像进行按每视图几何的渲染。
2.根据权利要求1所述的基于分块的网格生成及渲染方法,其特征在于,所述改进每个视图的深度图,使深度图中深度突变的边界与所述视图对应图像中的物体边界相吻合的步骤,还包括,
根据所述深度图,对每个像素进行法线估计;
采用小片匹配,对所述深度图中的深度值进行逐像素改进;
对改进后的所述深度图进行带权重的中位数滤波。
3.根据权利要求1所述的基于分块的网格生成及渲染方法,其特征在于,所述根据采集相机参数和对应的改进后的所述深度图生成视图的分块网格的步骤,还包括,
以像素为单位确定每个分块的大小,为每一个分块赋予一个唯一标识符,相邻的两个分块共用分块边界上的像素;
根据采集相机参数和所述深度图生成三维空间中的网格;
对生成的所述网格进行保持分块边界的边折叠简化;
将简化后的所述网格沿各个分块的边界切开并重新计算每个分块内每个顶点的纹理坐标,对每个视图得到一组网格分块。
4.根据权利要求1所述的基于分块的网格生成及渲染方法,其特征在于,所述对所述视图对应的图像进行分块的步骤,还包括,
确定图像的分块,为相同位置的分块标记相同的唯一标识符,建立图像分块与网格分块之间的对应关系;
将图像沿各个分块的边界切开,复制相邻的分块共用的分块边界上的像素,所述像素被复制之后分属于相邻的分块。
5.根据权利要求1所述的基于分块的网格生成及渲染方法,其特征在于,所述根据分块的网格和图像进行按每视图几何的渲染的步骤,还包括,
根据当前帧的渲染相机的参数,对网格分块进行基于圆盘的可见性裁减;
将可见的网格分块的顶点数据载入显存;
采用虚拟纹理的方式将对应的的图像分块载入显存;
绘制时进行不完全深度测试,进行基于圆盘的颜色混合。
6.一种电子设备,其特征在于,包括存储器和处理器,所述存储器上储存有在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行权利要求1至5任一项所述的基于分块的网格生成及渲染方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序运行时执行权利要求1至5任一项所述的基于分块的网格生成及渲染方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110227063.0A CN113034385B (zh) | 2021-03-01 | 2021-03-01 | 一种基于分块的网格生成及渲染方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110227063.0A CN113034385B (zh) | 2021-03-01 | 2021-03-01 | 一种基于分块的网格生成及渲染方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113034385A true CN113034385A (zh) | 2021-06-25 |
CN113034385B CN113034385B (zh) | 2023-03-28 |
Family
ID=76465163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110227063.0A Active CN113034385B (zh) | 2021-03-01 | 2021-03-01 | 一种基于分块的网格生成及渲染方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113034385B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6362820B1 (en) * | 1999-06-24 | 2002-03-26 | Microsoft Corporation | Quadric metric for simplifying meshes with appearance attributes |
US20110115886A1 (en) * | 2009-11-18 | 2011-05-19 | The Board Of Trustees Of The University Of Illinois | System for executing 3d propagation for depth image-based rendering |
US20120200669A1 (en) * | 2009-10-14 | 2012-08-09 | Wang Lin Lai | Filtering and edge encoding |
CN103024420A (zh) * | 2013-01-17 | 2013-04-03 | 宁波工程学院 | 一种rgbd数据深度迁移的单幅图像2d转3d方法 |
US20160171759A1 (en) * | 2014-12-15 | 2016-06-16 | Industrial Technology Research Institute | Depth information-based modeling method, graphic processing apparatus and storage medium |
CN106663320A (zh) * | 2014-07-08 | 2017-05-10 | 高通股份有限公司 | 使用全局最小化和深度内插的立体深度估计的系统和方法 |
CN107622480A (zh) * | 2017-09-25 | 2018-01-23 | 长春理工大学 | 一种Kinect深度图像增强方法 |
US20180293745A1 (en) * | 2017-04-05 | 2018-10-11 | Samsung Electronics Co., Ltd. | Method and apparatus for refining depth image |
US20190057545A1 (en) * | 2015-09-23 | 2019-02-21 | Koninklijke Philips N.V. | Generation of triangle mesh for a three dimensional image |
CN110363858A (zh) * | 2019-06-18 | 2019-10-22 | 新拓三维技术(深圳)有限公司 | 一种三维人脸重建方法及系统 |
US20190379825A1 (en) * | 2018-06-12 | 2019-12-12 | Lite-On Electronics (Guangzhou) Limited | Image processing system and image processing method |
AU2020101832A4 (en) * | 2019-09-26 | 2020-09-24 | Wuhan University Of Science And Technology | Image collection and depth image enhancement method and apparatus for kinect |
-
2021
- 2021-03-01 CN CN202110227063.0A patent/CN113034385B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6362820B1 (en) * | 1999-06-24 | 2002-03-26 | Microsoft Corporation | Quadric metric for simplifying meshes with appearance attributes |
US20120200669A1 (en) * | 2009-10-14 | 2012-08-09 | Wang Lin Lai | Filtering and edge encoding |
US20110115886A1 (en) * | 2009-11-18 | 2011-05-19 | The Board Of Trustees Of The University Of Illinois | System for executing 3d propagation for depth image-based rendering |
CN103024420A (zh) * | 2013-01-17 | 2013-04-03 | 宁波工程学院 | 一种rgbd数据深度迁移的单幅图像2d转3d方法 |
CN106663320A (zh) * | 2014-07-08 | 2017-05-10 | 高通股份有限公司 | 使用全局最小化和深度内插的立体深度估计的系统和方法 |
US20160171759A1 (en) * | 2014-12-15 | 2016-06-16 | Industrial Technology Research Institute | Depth information-based modeling method, graphic processing apparatus and storage medium |
US20190057545A1 (en) * | 2015-09-23 | 2019-02-21 | Koninklijke Philips N.V. | Generation of triangle mesh for a three dimensional image |
US20180293745A1 (en) * | 2017-04-05 | 2018-10-11 | Samsung Electronics Co., Ltd. | Method and apparatus for refining depth image |
CN107622480A (zh) * | 2017-09-25 | 2018-01-23 | 长春理工大学 | 一种Kinect深度图像增强方法 |
US20190379825A1 (en) * | 2018-06-12 | 2019-12-12 | Lite-On Electronics (Guangzhou) Limited | Image processing system and image processing method |
CN110363858A (zh) * | 2019-06-18 | 2019-10-22 | 新拓三维技术(深圳)有限公司 | 一种三维人脸重建方法及系统 |
AU2020101832A4 (en) * | 2019-09-26 | 2020-09-24 | Wuhan University Of Science And Technology | Image collection and depth image enhancement method and apparatus for kinect |
Non-Patent Citations (3)
Title |
---|
张丹等: "汽车类外观专利图像三维重建", 《计算机工程与设计》 * |
朱莉等: "基于深度学习的单幅图像三维重建算法", 《吉林化工学院学报》 * |
李宇翔: "联合彩色/深度边缘的深度图像重建方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113034385B (zh) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112270756B (zh) | 一种应用于bim模型文件的数据渲染方法 | |
Décoret et al. | Billboard clouds for extreme model simplification | |
CN111508052B (zh) | 三维网格体的渲染方法和装置 | |
US7348989B2 (en) | Preparing digital images for display utilizing view-dependent texturing | |
US9536333B2 (en) | Method and apparatus for improved processing of graphics primitives | |
US10665010B2 (en) | Graphics processing systems | |
JP4977712B2 (ja) | ディスプレースクリーン上に立体画像をレンダリングするコンピュータグラフィックスプロセッサならびにその方法 | |
TW201737207A (zh) | 藉由追蹤物件及/或基元識別符的圖形處理增強之方法及系統,圖形處理單元及非暫時性電腦可讀媒體 | |
CN110728740A (zh) | 虚拟摄影测量 | |
CN108805971B (zh) | 一种环境光遮蔽方法 | |
CN109523622B (zh) | 一种非结构化的光场渲染方法 | |
US10217259B2 (en) | Method of and apparatus for graphics processing | |
US20230230311A1 (en) | Rendering Method and Apparatus, and Device | |
US20040257365A1 (en) | Computer graphics | |
CN112001993A (zh) | 一种面向大场景的多gpu城市仿真系统 | |
CN111968214A (zh) | 一种体积云渲染方法、装置、电子设备及存储介质 | |
Frasson et al. | Efficient screen-space rendering of vector features on virtual terrains | |
US6906729B1 (en) | System and method for antialiasing objects | |
CN113034385B (zh) | 一种基于分块的网格生成及渲染方法 | |
KR101118597B1 (ko) | 모바일용 컴퓨터 그래픽 랜더링 방법 및 시스템 | |
Yu | Efficient visibility processing for projective texture mapping | |
Kuder et al. | Point-based rendering optimization with textured meshes for fast LiDAR visualization | |
JP2973413B2 (ja) | コンピュータグラフィックスの照度計算方法及び表示装置 | |
CN116670719A (zh) | 一种图形处理方法、装置及电子设备 | |
Grundhöfer et al. | Level of detail based occlusion culling for dynamic scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230710 Address after: 1203, 1205, 12th floor, No. B6 Chaowai Street, Chaoyang District, Beijing, 100020 Patentee after: AOBEN WEILAI (BEIJING) TECHNOLOGY Co.,Ltd. Address before: 314500 room 205, building 3, 1156 Gaoqiao Avenue, Gaoqiao street, Tongxiang City, Jiaxing City, Zhejiang Province Patentee before: Jiaxing Fengniao Technology Co.,Ltd. Patentee before: AOBEN WEILAI (BEIJING) TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |