CN116843841A - 基于网格压缩的大规模虚拟现实系统 - Google Patents
基于网格压缩的大规模虚拟现实系统 Download PDFInfo
- Publication number
- CN116843841A CN116843841A CN202311128003.9A CN202311128003A CN116843841A CN 116843841 A CN116843841 A CN 116843841A CN 202311128003 A CN202311128003 A CN 202311128003A CN 116843841 A CN116843841 A CN 116843841A
- Authority
- CN
- China
- Prior art keywords
- grid
- vertex
- dimensional
- compression
- vertices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007906 compression Methods 0.000 title claims abstract description 48
- 230000006835 compression Effects 0.000 title claims abstract description 40
- 238000013144 data compression Methods 0.000 claims abstract description 27
- 238000009877 rendering Methods 0.000 claims abstract description 25
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 64
- 239000013598 vector Substances 0.000 claims description 64
- 239000011159 matrix material Substances 0.000 claims description 28
- 238000013507 mapping Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 5
- 239000000463 material Substances 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 5
- 239000013077 target material Substances 0.000 claims description 4
- 238000013139 quantization Methods 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 abstract description 9
- 230000000694 effects Effects 0.000 description 14
- 230000009466 transformation Effects 0.000 description 9
- 238000005286 illumination Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000012634 fragment Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44521—Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
本发明公开了基于网格压缩的大规模虚拟现实系统,涉及虚拟现实技术领域,所述系统包括:三维原始网格创建单元,配置用于为虚拟场景创建由顶点、边和面组成的三维原始网格模型,每个面作为一个网格;图形数据生成单元,配置用于为三维原始网格模型中的每个网格生成对应的图形数据;网格简化单元,配置用于对三维原始网格模型进行网格简化;数据压缩单元,配置用于对三维网格模型中的每个网格的图形数据进行数据压缩;动态加载和渲染单元,配置用于根据用户的视点和视野范围,确定要加载的三维网格模型中的网格。本发明实现了大规模虚拟现实系统中三维网格数据的高效压缩和快速加载,显著提升了用户体验并降低了数据传输成本。
Description
技术领域
本发明涉及虚拟现实技术领域,特别涉及基于网格压缩的大规模虚拟现实系统。
背景技术
随着虚拟现实(VR)和增强现实(AR)技术的迅速发展,大规模虚拟现实系统正在成为越来越多应用领域的关键技术。这些系统允许用户沉浸式地体验虚拟环境,与数字化的世界进行交互。然而,实现高质量的虚拟现实体验需要处理大量的三维图形数据,这包括了构成虚拟环境的各种物体、场景和模型。在这个背景下,三维网格数据的压缩变得至关重要,以便有效地存储、传输和渲染这些数据。
在过去的几十年中,许多数据压缩技术已经应用于三维图形数据。其中一种常见的方法是使用图像和视频压缩技术,将三维数据投影到二维图像,然后应用已有的图像压缩算法。然而,这种方法可能导致失去三维数据的重要信息,影响虚拟现实体验的质量。
另一种方法是使用三维网格压缩技术,这些技术专门针对三维数据的特点进行优化。现有的三维网格压缩技术主要集中在以下几个方面:
1. 网格简化: 网格简化是一种常见的压缩技术,通过减少网格的顶点、边和面的数量来减小数据的体积。然而,现有的方法可能会导致细节丢失和形状失真,从而影响虚拟环境的真实感。
2. 点云压缩: 点云表示是另一种表示三维数据的方式,它使用一系列离散的点来近似物体的表面。点云压缩技术旨在减少点的数量,以降低数据的存储和传输成本。然而,点云压缩可能会导致表面细节丢失,特别是在高度压缩的情况下。
3. 局部特征压缩: 近年来,研究者开始关注如何提取和利用物体的局部特征来实现更有效的压缩。这些方法通常涉及提取物体表面的局部特征,如法线、纹理和颜色。然后,利用这些特征的稀疏表示和编码,实现数据的压缩。然而,这些方法在选择局部特征、设计编码算法和保持数据质量方面仍然面临挑战。
虽然现有的三维网格压缩技术在一定程度上可以减小数据的体积,但在实际应用中仍然存在一些问题。首先,许多方法可能会导致数据的细节丢失,从而影响虚拟现实体验的真实感。其次,一些方法可能需要较长的解码时间,这不利于实时渲染。此外,一些方法可能对特定类型的三维数据效果不佳,需要针对不同情况进行调整。
综上所述,尽管已经取得了一些进展,但在大规模虚拟现实系统中,三维网格数据的压缩仍然是一个挑战。有必要研究并开发更先进的压缩技术,以实现在保持数据质量的同时,降低存储、传输和渲染成本。这将有助于推动虚拟现实技术的发展,使其在更广泛的应用领域得到更好的应用。
发明内容
本发明的目的是提供基于网格压缩的大规模虚拟现实系统,实现了大规模虚拟现实系统中三维网格数据的高效压缩和快速加载,显著提升了用户体验并降低了数据传输成本。
为解决上述技术问题,本发明提供基于网格压缩的大规模虚拟现实系统,包括:
基于网格压缩的大规模虚拟现实系统,所述系统包括:三维原始网格创建单元,配置用于为虚拟场景创建由顶点、边和面组成的三维原始网格模型,每个面作为一个网格;图形数据生成单元,配置用于为三维原始网格模型中的每个网格生成对应的图形数据,所述图像数据包括:几何信息、纹理信息和材质信息;网格简化单元,配置用于对三维原始网格模型进行网格简化,以减少三维原始网格模型中的顶点、边和面的数量,得到三维网格模型;数据压缩单元,配置用于对三维网格模型中的每个网格的图形数据进行数据压缩;动态加载和渲染单元,配置用于根据用户的视点和视野范围,确定要加载的三维网格模型中的网格,解压对应网格中的图形数据,将解压后的图形数据提供给实时渲染引擎进行渲染,生成用户可见的图像。
进一步的,所述三维原始网格创建单元,为虚拟场景创建由顶点、边和面组成的三维原始网格模型中,顶点用坐标表示为,其中,/>是第/>个顶点的坐标;/>、/>、/>是该顶点在X、Y和Z轴上的坐标;边为连接两个顶点的线段,每个边表示为,其中,/>是连接顶点/>和/>的边,/>和/>是边的两个顶点;面为三个顶点组成的平面区域,表示为/>,其中,/>是由顶点/>、/>和/>组成的三角形面,/>、/>和/>是组成该面的三个顶点;同时,所述定点之间的距离满足以下约束关系:
;
其中,表示像素;/>为定点之间的距离。
进一步的,所述图形数据生成单元为三维原始网格模型中的每个网格生成对应的图形数据的方法包括;计算三维原始网格模型中的每个网格的面积和法线位置,设三维原始网格模型中的每个网格的三个顶点的坐标分别为:,则其面积;其中,/>表示向量的模长,/>表示向量叉乘;每个网格的法线位置为/>;使用参数化的方法来为每个网格生成对应的纹理坐标/>为:
;
设材质的投影光源的方向为,计算每个网格的漫反射因子/>;
其中,·表示向量点乘;
基于计算得到的漫反射因子,使用投影映射的方法,将目标材质投影到网格;基于计算得到的纹理坐标,使用纹理采样的方法,将目标纹理图像映射到网格;图像数据的几何信息与网格的几何信息保持一致。
进一步的,所述网格简化单元,对三维原始网格模型进行网格简化,以减少三维原始网格模型中的顶点、边和面的数量,得到三维网格模型的方法包括:
步骤1:设定每个顶点的关联度量矩阵;
步骤2:基于每个顶点的关联度量矩阵,计算每个顶点与相邻的其他顶点的误差度量;
步骤3:将误差度量低于设定阈值的两个顶点进行合并,得到合并后的新的顶点,并基于新的顶点的位置,进行顶点的位置更新;
步骤4:当对所有的顶点均完成了一次合并后,更新合并后的新的顶点的关联度量矩阵;
步骤5:迭代执行步骤2至步骤4,直到满足设定的迭代次数,完成网格简化,得到三维网格模型。
进一步的,所述步骤1中每个顶点的关联度量矩阵,使用如下公式进行表示:
;
其中,为顶点,/>是顶点/>相邻的面的数量,/>是与顶点/>相邻的面/>的法向量,/>是权重系数,/>为关联度量矩阵,/>为顶点/>到原点的向量,/>为计算向量/>的模;/>为向量转置运算。
进一步的,步骤2中使用如下公式,计算计算每个顶点与相邻的其他顶点的误差度量:
;
其中,表示定点/>与顶点/>的误差度量;/>为顶点/>到原点的向量,为计算向量/>的模;/>为顶点;
进一步的,步骤3中使用如下公式将误差度量低于设定阈值的两个顶点进行合并,得到合并后的新的顶点,并基于新的顶点的位置,进行顶点的位置更新:
若顶点和/>的误差度量低于设定阈值,则在合并顶点/>和/>时,使用如下公式计算合并后的新的顶点的位置/>:
;
其中,为顶点/>的坐标,/>为顶点/>的坐标,/>为合并后的新的顶点/>的坐标。
进一步的,步骤4中当对所有的顶点均完成了一次合并后,使用如下公式更新合并后的新的顶点的关联度量矩阵:
;
其中,合并后的新的顶点的关联度量矩阵。
进一步的,数据压缩单元,对三维网格模型中的每个网格的图形数据进行数据压缩的方法包括:将每个网格的图形数据分割成像素块;对于每个像素块,计算其内部像素值的频率分布;使用统计得到的像素值频率,构建一个K-D树;遍历K-D树,为每个像素值生成一个唯一的编码,从根节点到目标像素值的路径上的分支决定了编码;将原始图像数据转换为对应的K-D树编码。替换每个像素值为其对应的K-D树编码,将原始像素值替换为更短的编码,实现每个网格的图形数据的压缩。
进一步的,数据压缩单元,对三维网格模型中的每个网格的图形数据进行数据压缩的方法包括:对每个网格的图形数据进行局部特征提取,得到每个网格的图形数据的局部特征;将每个局部特征表示为一个稀疏向量,这些向量构成图像的稀疏表示;对每个局部特征的稀疏向量应用稀疏编码算法,获得每个局部特征的稀疏表述;对稀疏表示的系数进行熵编码量化,实现每个网格的图形数据的压缩。
本发明的基于网格压缩的大规模虚拟现实系统,具有以下有益效果:本发明采用网格简化技术,通过减少三维网格模型中的顶点、边和面的数量,有效地降低了数据的复杂性。这一步骤旨在保持主要形状和细节,同时去除冗余信息,使得虚拟场景的构建更加高效。通过网格简化,虚拟环境的加载速度和渲染效率都得到了明显提升。图像数据生成技术为每个网格生成对应的图形数据,包括几何信息、纹理信息和材质信息。这一步骤确保了三维网格模型的外观和质感在虚拟现实场景中得以保留。通过将几何信息、纹理信息和材质信息融合到图形数据中,用户能够在虚拟现实环境中感受到更真实的视觉效果。在生成图形数据后,本发明应用数据压缩技术,将图形数据进行高效压缩。通过局部特征提取、稀疏编码和熵编码等步骤,数据被转换为紧凑的表示形式,从而大幅度降低了存储和传输成本。数据压缩技术的应用使得在保持数据质量的同时,数据的加载和传输变得更加高效。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的基于网格压缩的大规模虚拟现实系统的系统结构示意图。
具体实施方式
本发明的核心是提供基于网格压缩的大规模虚拟现实系统,采用了多层次的数据压缩方法,结合了局部特征提取、稀疏编码和熵编码等步骤。通过提取每个网格的局部特征并进行稀疏表示,将图形数据转化为更紧凑的表示形式。此后,采用稀疏编码和熵编码技术,进一步减小数据的表示长度。这种多步骤的压缩过程使得数据的压缩效果显著,可以将数据的存储和传输成本大大降低。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:参考图1,基于网格压缩的大规模虚拟现实系统,所述系统包括:三维原始网格创建单元,配置用于为虚拟场景创建由顶点、边和面组成的三维原始网格模型,每个面作为一个网格;图形数据生成单元,配置用于为三维原始网格模型中的每个网格生成对应的图形数据,所述图像数据包括:几何信息、纹理信息和材质信息;网格简化单元,配置用于对三维原始网格模型进行网格简化,以减少三维原始网格模型中的顶点、边和面的数量,得到三维网格模型;数据压缩单元,配置用于对三维网格模型中的每个网格的图形数据进行数据压缩;动态加载和渲染单元,配置用于根据用户的视点和视野范围,确定要加载的三维网格模型中的网格,解压对应网格中的图形数据,将解压后的图形数据提供给实时渲染引擎进行渲染,生成用户可见的图像。
具体的,三维原始网格创建单元:这个单元负责配置用于创建虚拟场景的三维原始网格模型。虚拟场景是由顶点、边和面构成的三维网格,每个面代表一个网格。这些面可以被视为场景中的基本构建块,用于描述虚拟环境的几何形状。
图形数据生成单元:一旦三维原始网格模型创建完毕,该单元将生成与每个网格相关的图形数据。这些图形数据包括几何信息(如顶点坐标)、纹理信息(用于表现网格的外观特征)和材质信息(控制光照、反射等属性)。这些数据共同构成了虚拟场景中网格的视觉和表现信息。
网格简化单元:原始三维网格模型可能非常复杂,其中的顶点、边和面的数量可能很大。网格简化单元的任务是减少这些数量,以减轻系统负担和提高渲染效率。这可以通过一些算法来实现,例如顶点合并、面减少等,以保持场景的大致外观,但使用更少的几何元素。
数据压缩单元:在生成了三维网格模型的图形数据之后,这个单元负责对图形数据进行压缩。数据压缩有助于减小存储空间和传输带宽要求,使得在运行时加载和渲染场景更加高效。
动态加载和渲染单元:负责根据用户的视点和视野范围来决定加载哪些网格模型的哪些部分。这有助于节省资源,并使得系统能够在运行时动态地适应用户的交互。加载后,解压缩的图形数据将提供给实时渲染引擎,用于生成用户可以看到的逼真图像。
确定用户视点和视野范围在虚拟现实系统中是关键的,可以采用以下方案:虚拟现实设备通常配备有各种传感器,如陀螺仪、加速度计和磁力计,可以感知用户的头部运动和朝向。通过实时读取这些传感器的数据,可以计算出用户的视点和视角朝向。虚拟现实设备通常也配备了手柄、手部追踪器等交互设备,用户可以通过手柄的移动和朝向来控制视点。通过监测手柄的位置和朝向,可以推断出用户的视点和视野范围。利用摄像头或深度传感器捕捉用户的眼睛位置,实时追踪用户的注视点。这可以帮助确定用户当前在虚拟环境中关注的物体,从而确定其视点和视野范围。在虚拟现实场景中,用户通常可以通过手势、语音命令或按钮点击等方式提供输入。根据用户的输入,可以判断用户关注的位置,从而确定视点和视野范围。通过在虚拟场景中进行碰撞检测,可以确定用户当前所在位置和可见的物体。基于这些信息,可以推断出用户的视点和视野范围。
根据每个网格的顶点坐标、法线、纹理坐标等几何信息,实时渲染引擎使用渲染技术(如三角形剖分、顶点着色器等)将网格的形状和细节映射到屏幕空间,生成基本的几何渲染结果。实时渲染引擎根据每个网格的材质属性(如漫反射、高光、法线贴图等)和纹理坐标,将合适的材质效果和纹理图像映射到每个网格的表面上,增强网格的真实感和质感。实时渲染引擎模拟光线与物体之间的交互,计算光照效果,生成网格表面的高光、阴影、反射等效果。这可以通过不同的光照模型和阴影技术(如平行光、点光源、阴影贴图等)来实现。为了减少边缘锯齿等不真实效果,实时渲染引擎可以应用抗锯齿技术,使图像更平滑。此外,针对性能优化,引擎可以使用遮挡剔除、级别细分等技术,提高渲染效率。将多个网格的渲染结果合成为最终的用户可见图像。实时渲染引擎对每个网格的渲染结果进行融合、混合,并根据深度信息和透明度等调整像素的显示顺序。最终生成的图像传输到虚拟现实设备的显示屏上,供用户观看。
实施例2:在上一实施例的基础上,所述三维原始网格创建单元,为虚拟场景创建由顶点、边和面组成的三维原始网格模型中,顶点用坐标表示为,其中,/>是第/>个顶点的坐标;/>、/>、/>是该顶点在X、Y和Z轴上的坐标;边为连接两个顶点的线段,每个边表示为/>,其中,/>是连接顶点/>和/>的边,/>和/>是边的两个顶点;面为三个顶点组成的平面区域,表示为/>,其中,/>是由顶点/>、/>和/>组成的三角形面,/>、/>和/>是组成该面的三个顶点;同时,所述定点之间的距离满足以下约束关系:
;
其中,表示像素。
具体的,顶点之间的距离在虚拟场景中非常重要,它影响着物体的几何形状和视觉效果。约束条件限制了每对顶点之间的距离范围,确保了虚拟场景中物体的细节和整体结构之间的平衡。这样做有助于在不损失重要几何信息的情况下,使虚拟物体具有逼真的外观。
实施例3:在上一实施例的基础上,所述图形数据生成单元为三维原始网格模型中的每个网格生成对应的图形数据的方法包括;计算三维原始网格模型中的每个网格的面积和法线位置,设三维原始网格模型中的每个网格的三个顶点的坐标分别为:,则其面积/>;其中,/>表示向量的模长,/>表示向量叉乘;每个网格的法线位置为/>;使用参数化的方法来为每个网格生成对应的纹理坐标/>为:
;
设材质的投影光源的方向为,计算每个网格的漫反射因子;
其中,·表示向量点乘;
基于计算得到的漫反射因子,使用投影映射的方法,将目标材质投影到网格;基于计算得到的纹理坐标,使用纹理采样的方法,将目标纹理图像映射到网格;图像数据的几何信息与网格的几何信息保持一致。
具体的,计算网格的面积和法线位置:
面积公式:;这个公式用于计算网格的面积。在三维空间中,两个向量的叉乘结果是一个新的向量,其模长等于两个向量所围成的平行四边形的面积。对于一个三角形网格,我们使用其中两个边所组成的向量进行叉乘,并除以2来获得面积。这个面积值在后续的计算中用于光照和纹理等方面。
法线位置公式:;法线向量是垂直于面的单位向量,它在计算光照等效果时非常重要。这个公式通过计算两个边向量的叉乘来得到法线向量。然后,通过将这个向量除以其模长,得到单位法线向量,用于计算漫反射等光照效果。
生成纹理坐标:这一部分使用参数化方法为每个网格生成纹理坐标。参数化的目的是将三角形面映射到二维纹理空间上。公式中的表示了每个顶点在纹理坐标系中的位置。
:将顶点/>映射到纹理坐标系的原点。
:将顶点/>映射到横轴上,横坐标为面积/>。这种映射方式保证了纹理在面上的平铺。
:将顶点/>映射到纹理坐标系的一点,该点的横坐标为面积的一半,纵坐标为根据勾股定理计算得到的。
计算漫反射因子:漫反射因子用于计算光照的强度,取决于光源方向和物体表面的法线方向之间的夹角。
漫反射因子公式:;这个公式计算了法线向量/>和光源方向向量/>的点乘。点乘结果越大,说明法线和光源方向越接近,漫反射效果越明显。使用/>是为了确保漫反射因子不会为负值。
投影映射的实现过程:
顶点着色器:在顶点着色器中,计算光源方向,这通常是在世界坐标系中定义的一个向量。计算每个顶点的法线向量/>,这可以使用顶点数据和法线矩阵进行变换。计算漫反射因子/>。
片元着色器:使用漫反射因子来插值顶点之间的漫反射强度,这会在三角形内部产生一个漫反射强度的渐变。使用漫反射强度来调整目标材质的颜色,从而产生光照效果。
纹理采样的实现过程:
顶点着色器:在顶点着色器中计算纹理坐标,将其传递给片元着色器。
片元着色器:插值纹理坐标,以在三角形内部产生纹理坐标的平滑变化。使用插值后的纹理坐标/>,从纹理图像中进行采样。纹理采样器:使用纹理坐标在纹理图像中找到相应的像素位置。根据纹理采样过程,获取该像素位置的颜色值。将获取的颜色值用于片元的着色,从而实现纹理映射效果。
实施例4:在上一实施例的基础上,所述网格简化单元,对三维原始网格模型进行网格简化,以减少三维原始网格模型中的顶点、边和面的数量,得到三维网格模型的方法包括:
步骤1:设定每个顶点的关联度量矩阵;
步骤2:基于每个顶点的关联度量矩阵,计算每个顶点与相邻的其他顶点的误差度量;
步骤3:将误差度量低于设定阈值的两个顶点进行合并,得到合并后的新的顶点,并基于新的顶点的位置,进行顶点的位置更新;
步骤4:当对所有的顶点均完成了一次合并后,更新合并后的新的顶点的关联度量矩阵;
步骤5:迭代执行步骤2至步骤4,直到满足设定的迭代次数,完成网格简化,得到三维网格模型。
具体的,关联度量矩阵是用于量化顶点之间的关联程度,这些关联可以是空间位置、法线方向或其他属性。这个矩阵提供了基础信息,帮助确定哪些顶点可以被合并,从而减少网格的复杂度。通过计算顶点与其相邻顶点之间的误差度量,可以量化顶点之间的差异程度。这可以基于顶点位置、法线方向等属性进行计算。较低的误差度量通常意味着两个顶点在某种程度上相似,可能是可以合并的候选。通过比较误差度量,确定哪些顶点之间的差异很小。当误差度量低于阈值时,将这些顶点合并成一个新的顶点。这样做的原因是,网格简化的目标是在尽量保持物体的外观和形状的同时,减少顶点数目,从而提高渲染效率。在顶点合并后,需要更新合并生成的新顶点的关联度量矩阵。这是为了确保新顶点能够正确地与其它顶点进行关联,从而在后续的迭代中继续参与合并决策。网格简化是一个迭代的过程,因为一次合并可能会影响到其它顶点的关联关系。通过多次迭代,可以逐步减少顶点数目,同时控制简化过程的精度。当达到设定的迭代次数后,可以停止简化过程,得到最终的简化网格模型。
实施例5:在上一实施例的基础上,所述步骤1中每个顶点的关联度量矩阵,使用如下公式进行表示:
;
其中,为顶点,/>是顶点/>相邻的面的数量,/>是与顶点/>相邻的面/>的法向量,/>是权重系数,/>为关联度量矩阵,/>为顶点/>到原点的向量,/>为计算向量/>的模。
具体的,:这是顶点/>到原点的向量的模。这个模表示了顶点到原点的距离,它可以用来量化顶点与原点之间的关联度,距离较近的顶点可能在几何结构上更相关。
:这部分是关键的关联度量,它涉及到顶点的相邻面和权重系数。通过迭代顶点的相邻面,将每个面的法向量/>与权重系数/>相乘,然后将所有这些相乘的项相加。这实际上是在计算顶点与相邻面之间的关联度,权重系数可能用于考虑面的大小、法线方向等因素。
:这个部分引入了指数函数,将顶点到原点的距离进行指数化。这可能是为了加强距离较近的顶点之间的关联度,同时考虑到距离对关联的影响。
实施例6:在上一实施例的基础上,步骤2中使用如下公式,计算计算每个顶点与相邻的其他顶点的误差度量:
;
其中,表示定点/>与顶点/>的误差度量;/>为顶点/>到原点的向量,为计算向量/>的模;/>为顶点。
具体的,部分:这部分计算了顶点/>到原点的距离的平方。距离的平方作为权重因子,被用于加权误差项。在误差度量中引入距离信息是因为相邻的顶点在几何上可能更相关。较小的距离会增加这部分的值,以强调距离较近的顶点在合并决策中的重要性。
部分:这部分表示顶点/>的关联度量矩阵/>与顶点/>的关联度量矩阵/>之间的差异。这个差异量度了顶点之间的关联程度。如果两个相邻的顶点在关联性上差异较小,可能意味着它们在几何形状上比较相似,有较大的合并潜力。
部分:这部分是顶点/>和顶点/>的位置向量之和。在计算误差度量时,将两个顶点的位置信息相加有助于在判断是否合并时考虑空间位置。这使得顶点之间的相对位置在合并决策中得到考虑。
部分:这部分计算了两个向量长度的乘积,然后进行对数变换。对数变换的目的是确保误差项中的权重平衡。如果不进行对数变换,较大的向量模的乘积可能会导致误差项在计算中占据过大的权重。对数变换使得较大的模乘积的影响得到平衡,从而在误差度量中综合考虑了顶点间的模信息。
这个误差度量公式的构成综合考虑了距离、关联度、位置信息和权重平衡等因素。通过计算顶点之间的误差度量,可以辅助判断是否将这两个顶点合并,以实现在保持外观的同时减少网格的顶点数目。
实施例7:在上一实施例的基础上,步骤3中使用如下公式将误差度量低于设定阈值的两个顶点进行合并,得到合并后的新的顶点,并基于新的顶点的位置,进行顶点的位置更新:
若顶点和/>的误差度量低于设定阈值,则在合并顶点/>和/>时,使用如下公式计算合并后的新的顶点的位置/>:
;
其中,为顶点/>的坐标,/>为顶点/>的坐标,/>为合并后的新的顶点/>的坐标。
具体的, 这个公式的构成是基于综合多种信息的原理。在网格简化过程中,要确保合并后的顶点能够尽可能准确地代表原始模型的特征。这就需要考虑关联性、位置信息和向量模等因素,以确保合并后的顶点能够在视觉上保持原始模型的形状和特征。部分计算了顶点/>和/>的关联度量矩阵的平均值。这个平均值用于确保合并后的新顶点能够综合地代表原始顶点的关联性。如果两个顶点在原始模型中有相似的关联性,平均值能够更好地反映这种关联性。/>部分将两个顶点的坐标相加,得到了合并后新顶点的位置。这保留了原始模型中的位置信息,确保合并后的顶点能够在几何上尽量接近原始顶点的位置,以保持模型的形状特征。/>部分使用了对数变换来平衡向量模的影响。这确保了合并后的新顶点的位置不会受到单个顶点的影响过大,从而避免破坏了原始模型的特征。
部分:这部分计算了顶点/>和/>的关联度量矩阵的平均值。在合并顶点时,考虑了它们的关联性。如果两个相邻顶点的关联度越相近,合并后的新顶点将更准确地代表原始模型的特征。
部分:这部分是顶点/>和/>的坐标之和。将两个顶点的位置相加,得到了合并后的新顶点的位置。这个步骤确保了新顶点在空间位置上能够兼顾合并前的两个顶点。
部分:这部分计算了顶点/>和/>之间向量模的平方并进行对数变换。这个对数变换平衡了向量模的影响,确保较大的模的影响不会过于突出。这是为了防止某个顶点在合并计算中占据过大的权重。
实施例8:在上一实施例的基础上,步骤4中当对所有的顶点均完成了一次合并后,使用如下公式更新合并后的新的顶点的关联度量矩阵:
;
其中,合并后的新的顶点的关联度量矩阵。
具体的,合并后的新顶点需要继承合并前顶点的关联性,以确保网格简化后模型的重要特征得以保留。公式中的加权平均考虑了原始顶点的关联性,确保了这种继承。合并前的两个顶点可能具有不同的关联性。通过计算加权平均值,公式保持了更新后关联度量的平滑性,避免了不连续性或剧烈的变化。通过对数变换,公式将关联度的变化范围调节到适度的程度,避免了过于剧烈的更新,从而确保了合并后的关联度量的稳定性。通过这个公式,合并后新顶点的关联度量矩阵得以更新。这样,在下一轮的顶点合并过程中,合并后的新顶点的关联性能够更准确地反映合并前顶点的特征,从而在保持模型几何特征的同时,更好地适应网格简化的要求。
部分表示合并前两个顶点的关联度量矩阵的平均值。这个平均值有助于确保合并后的新顶点继承了合并前顶点的关联性,但同时也能够平滑地将两者的信息结合起来。
部分使用了对数变换来平衡合并前两个顶点关联度量矩阵之间的差异。这确保了关联度量的变化不会在更新中产生不合理的剧烈变化,从而保持关联度量的稳定性。
实施例9:在上一实施例的基础上,数据压缩单元,对三维网格模型中的每个网格的图形数据进行数据压缩的方法包括:将每个网格的图形数据分割成像素块;对于每个像素块,计算其内部像素值的频率分布;使用统计得到的像素值频率,构建一个K-D树;遍历K-D树,为每个像素值生成一个唯一的编码,从根节点到目标像素值的路径上的分支决定了编码;将原始图像数据转换为对应的K-D树编码。替换每个像素值为其对应的K-D树编码,将原始像素值替换为更短的编码,实现每个网格的图形数据的压缩。
具体的,通过计算像素块内像素值的频率分布,我们可以了解图像的颜色分布情况。这有助于确定哪些颜色更常见,从而使得在编码过程中能够更有效地表示高频率的颜色。K-D树能够高效地组织多维数据,这里的多维数据是指不同颜色通道的像素值。通过构建K-D树,我们可以在遍历过程中将多维数据转换为唯一的编码。编码是根据像素值在K-D树的路径上的分支来生成的。这确保了每个像素值都有一个唯一的编码,而且更常见的颜色通常会在树的较浅分支上,从而使得编码较短。这个方法实际上将原始像素值替换为更短的编码,从而减小了图形数据的大小。这对于存储和传输来说都非常有用,尤其是在大规模虚拟现实系统中,可以提高性能和加载速度。
实施例10:在上一实施例的基础上,数据压缩单元,对三维网格模型中的每个网格的图形数据进行数据压缩的方法包括:对每个网格的图形数据进行局部特征提取,得到每个网格的图形数据的局部特征;将每个局部特征表示为一个稀疏向量,这些向量构成图像的稀疏表示;对每个局部特征的稀疏向量应用稀疏编码算法,获得每个局部特征的稀疏表述;对稀疏表示的系数进行熵编码量化,实现每个网格的图形数据的压缩。
具体的,稀疏编码可以使用以下公式表示:
;
其中,是局部特征,/>是稀疏表示,/>是字典,/>是正则化参数。
该数据压缩方法的原理是通过提取每个网格的局部特征并进行稀疏表示,将图形数据转换为较小的稀疏表示形式。然后,通过稀疏编码和熵编码,进一步减小表示的系数的位数,从而实现数据的压缩。局部特征提取捕获了网格的重要信息,而稀疏编码允许用少量系数来近似表示这些信息。熵编码则通过适应性地为频繁出现的系数分配较短的编码,进一步减小了数据的表示长度。
对于每个网格,首先需要从其图形数据中提取局部特征。这些局部特征可以是对网格表面在一定范围内的形状、纹理或颜色等方面的描述。常见的方法包括提取关键点、计算法线、计算颜色直方图等。将每个局部特征表示为稀疏向量。稀疏向量是指大部分元素为零,只有少数非零元素的向量。这里的每个局部特征可以被视为一个向量,其中的元素可以代表其形状、纹理或颜色等信息。将稀疏向量应用于稀疏编码算法,以获得每个局部特征的稀疏表示。稀疏编码的目标是找到一组系数,这些系数能够线性组合成原始的稀疏向量,以最佳地近似原始数据。这种编码可以有效地捕捉局部特征的重要信息,同时保持数据的稀疏性。对于得到的稀疏表示的系数,可以将其进行熵编码量化。熵编码是一种无损压缩方法,它利用数据中的统计特性来分配较短的编码给高频率出现的值,以及较长的编码给低频率出现的值。这将减小稀疏表示的系数的表示长度,从而实现数据的压缩。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (10)
1.基于网格压缩的大规模虚拟现实系统,其特征在于,所述系统包括:三维原始网格创建单元,配置用于为虚拟场景创建由顶点、边和面组成的三维原始网格模型,每个面作为一个网格;图形数据生成单元,配置用于为三维原始网格模型中的每个网格生成对应的图形数据,所述图像数据包括:几何信息、纹理信息和材质信息;网格简化单元,配置用于对三维原始网格模型进行网格简化,以减少三维原始网格模型中的顶点、边和面的数量,得到三维网格模型;数据压缩单元,配置用于对三维网格模型中的每个网格的图形数据进行数据压缩;动态加载和渲染单元,配置用于根据用户的视点和视野范围,确定要加载的三维网格模型中的网格,解压对应网格中的图形数据,将解压后的图形数据提供给实时渲染引擎进行渲染,生成用户可见的图像。
2.如权利要求1所述的基于网格压缩的大规模虚拟现实系统,其特征在于,所述三维原始网格创建单元,为虚拟场景创建由顶点、边和面组成的三维原始网格模型中,顶点用坐标表示为,其中,/>是第/>个顶点的坐标;/>、/>、/>是该顶点在X、Y和Z轴上的坐标;边为连接两个顶点的线段,每个边表示为/>,其中,/>是连接顶点/>和/>的边,/>和/>是边的两个顶点;面为三个顶点组成的平面区域,表示为,其中,/>是由顶点/>、/>和/>组成的三角形面,/>、/>和/>是组成该面的三个顶点;同时,所述定点之间的距离满足以下约束关系:
;
其中,表示像素;/>为定点之间的距离。
3.如权利要求2所述的基于网格压缩的大规模虚拟现实系统,其特征在于,所述图形数据生成单元为三维原始网格模型中的每个网格生成对应的图形数据的方法包括;计算三维原始网格模型中的每个网格的面积和法线位置,设三维原始网格模型中的每个网格的三个顶点的坐标分别为:,则其面积/>;其中,/>表示向量的模长,/>表示向量叉乘;每个网格的法线位置为/>;使用参数化的方法来为每个网格生成对应的纹理坐标/>为:
;
设材质的投影光源的方向为,计算每个网格的漫反射因子/>;
其中,·表示向量点乘;
基于计算得到的漫反射因子,使用投影映射的方法,将目标材质投影到网格;基于计算得到的纹理坐标,使用纹理采样的方法,将目标纹理图像映射到网格;图像数据的几何信息与网格的几何信息保持一致。
4.如权利要求3所述的基于网格压缩的大规模虚拟现实系统,其特征在于,所述网格简化单元,对三维原始网格模型进行网格简化,以减少三维原始网格模型中的顶点、边和面的数量,得到三维网格模型的方法包括:
步骤1:设定每个顶点的关联度量矩阵;
步骤2:基于每个顶点的关联度量矩阵,计算每个顶点与相邻的其他顶点的误差度量;
步骤3:将误差度量低于设定阈值的两个顶点进行合并,得到合并后的新的顶点,并基于新的顶点的位置,进行顶点的位置更新;
步骤4:当对所有的顶点均完成了一次合并后,更新合并后的新的顶点的关联度量矩阵;
步骤5:迭代执行步骤2至步骤4,直到满足设定的迭代次数,完成网格简化,得到三维网格模型。
5.如权利要求4所述的基于网格压缩的大规模虚拟现实系统,其特征在于,所述步骤1中每个顶点的关联度量矩阵,使用如下公式进行表示:
;
其中,为顶点,/>是顶点/>相邻的面的数量,/>是与顶点/>相邻的面/>的法向量,是权重系数,/>为关联度量矩阵,/>为顶点/>到原点的向量,/>为计算向量/>的模;/>为向量转置运算。
6.如权利要求5所述的基于网格压缩的大规模虚拟现实系统,其特征在于,步骤2中使用如下公式,计算计算每个顶点与相邻的其他顶点的误差度量:
;
其中,表示定点/>与顶点/>的误差度量;/>为顶点/>到原点的向量,/>为计算向量/>的模;/>为顶点。
7.如权利要求6所述的基于网格压缩的大规模虚拟现实系统,其特征在于,步骤3中使用如下公式将误差度量低于设定阈值的两个顶点进行合并,得到合并后的新的顶点,并基于新的顶点的位置,进行顶点的位置更新:
若顶点和/>的误差度量低于设定阈值,则在合并顶点/>和/>时,使用如下公式计算合并后的新的顶点的位置/>:
;
其中,为顶点/>的坐标,/>为顶点/>的坐标,/>为合并后的新的顶点/>的坐标。
8.如权利要求7所述的基于网格压缩的大规模虚拟现实系统,其特征在于,步骤4中当对所有的顶点均完成了一次合并后,使用如下公式更新合并后的新的顶点的关联度量矩阵:
;
其中,合并后的新的顶点的关联度量矩阵。
9.如权利要求8所述的基于网格压缩的大规模虚拟现实系统,其特征在于,数据压缩单元,对三维网格模型中的每个网格的图形数据进行数据压缩的方法包括:将每个网格的图形数据分割成像素块;对于每个像素块,计算其内部像素值的频率分布;使用统计得到的像素值频率,构建一个K-D树;遍历K-D树,为每个像素值生成一个唯一的编码,从根节点到目标像素值的路径上的分支决定了编码;将原始图像数据转换为对应的K-D树编码,替换每个像素值为其对应的K-D树编码,将原始像素值替换为更短的编码,实现每个网格的图形数据的压缩。
10.如权利要求8所述的基于网格压缩的大规模虚拟现实系统,其特征在于,数据压缩单元,对三维网格模型中的每个网格的图形数据进行数据压缩的方法包括:对每个网格的图形数据进行局部特征提取,得到每个网格的图形数据的局部特征;将每个局部特征表示为一个稀疏向量,这些向量构成图像的稀疏表示;对每个局部特征的稀疏向量应用稀疏编码算法,获得每个局部特征的稀疏表述;对稀疏表示的系数进行熵编码量化,实现每个网格的图形数据的压缩。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311128003.9A CN116843841B (zh) | 2023-09-04 | 2023-09-04 | 基于网格压缩的大规模虚拟现实系统 |
ZA2023/10510A ZA202310510B (en) | 2023-09-04 | 2023-11-13 | A large-scale virtual reality system based on mesh compression |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311128003.9A CN116843841B (zh) | 2023-09-04 | 2023-09-04 | 基于网格压缩的大规模虚拟现实系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116843841A true CN116843841A (zh) | 2023-10-03 |
CN116843841B CN116843841B (zh) | 2023-11-21 |
Family
ID=88162100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311128003.9A Active CN116843841B (zh) | 2023-09-04 | 2023-09-04 | 基于网格压缩的大规模虚拟现实系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116843841B (zh) |
ZA (1) | ZA202310510B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115392A (zh) * | 2023-10-24 | 2023-11-24 | 中科云谷科技有限公司 | 模型图像压缩方法、装置、计算机设备及可读存储介质 |
CN117436679A (zh) * | 2023-12-21 | 2024-01-23 | 四川物通科技有限公司 | 一种元宇宙资源匹配方法及其系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101123000A (zh) * | 2007-07-05 | 2008-02-13 | 广东中大讯通软件科技有限公司 | 一种三维图形数据的压缩处理方法 |
CN101877147A (zh) * | 2010-06-29 | 2010-11-03 | 浙江大学 | 三维三角形网格模型的简化算法 |
CN103345771A (zh) * | 2013-06-28 | 2013-10-09 | 中国科学技术大学 | 一种基于建模的图像高效渲染方法 |
CN103701466A (zh) * | 2012-09-28 | 2014-04-02 | 上海市政工程设计研究总院(集团)有限公司 | 基于特征保留的散乱点云压缩算法 |
CN106408620A (zh) * | 2016-09-08 | 2017-02-15 | 成都希盟泰克科技发展有限公司 | 基于压缩感知的三维网格模型数据处理方法 |
US20210090301A1 (en) * | 2019-09-24 | 2021-03-25 | Apple Inc. | Three-Dimensional Mesh Compression Using a Video Encoder |
CN116704163A (zh) * | 2023-08-03 | 2023-09-05 | 金锐同创(北京)科技股份有限公司 | 在终端显示虚拟现实场景的方法、装置、设备及介质 |
-
2023
- 2023-09-04 CN CN202311128003.9A patent/CN116843841B/zh active Active
- 2023-11-13 ZA ZA2023/10510A patent/ZA202310510B/en unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101123000A (zh) * | 2007-07-05 | 2008-02-13 | 广东中大讯通软件科技有限公司 | 一种三维图形数据的压缩处理方法 |
CN101877147A (zh) * | 2010-06-29 | 2010-11-03 | 浙江大学 | 三维三角形网格模型的简化算法 |
CN103701466A (zh) * | 2012-09-28 | 2014-04-02 | 上海市政工程设计研究总院(集团)有限公司 | 基于特征保留的散乱点云压缩算法 |
CN103345771A (zh) * | 2013-06-28 | 2013-10-09 | 中国科学技术大学 | 一种基于建模的图像高效渲染方法 |
CN106408620A (zh) * | 2016-09-08 | 2017-02-15 | 成都希盟泰克科技发展有限公司 | 基于压缩感知的三维网格模型数据处理方法 |
US20210090301A1 (en) * | 2019-09-24 | 2021-03-25 | Apple Inc. | Three-Dimensional Mesh Compression Using a Video Encoder |
CN116704163A (zh) * | 2023-08-03 | 2023-09-05 | 金锐同创(北京)科技股份有限公司 | 在终端显示虚拟现实场景的方法、装置、设备及介质 |
Non-Patent Citations (3)
Title |
---|
JINGLIANG PENG 等: "Technologies for 3D mesh compression: A survey", 《JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION》, vol. 16, no. 6, pages 688 - 733, XP002760946 * |
王金龙: "三维网格模型压缩算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 1, pages 138 - 789 * |
胡毅, 姜忠鼎, 马利庄, 董金祥: "面向MPEG-4的三维几何压缩", 计算机应用, vol. 20, no. 1, pages 247 - 249 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115392A (zh) * | 2023-10-24 | 2023-11-24 | 中科云谷科技有限公司 | 模型图像压缩方法、装置、计算机设备及可读存储介质 |
CN117115392B (zh) * | 2023-10-24 | 2024-01-16 | 中科云谷科技有限公司 | 模型图像压缩方法、装置、计算机设备及可读存储介质 |
CN117436679A (zh) * | 2023-12-21 | 2024-01-23 | 四川物通科技有限公司 | 一种元宇宙资源匹配方法及其系统 |
CN117436679B (zh) * | 2023-12-21 | 2024-03-26 | 四川物通科技有限公司 | 一种元宇宙资源匹配方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116843841B (zh) | 2023-11-21 |
ZA202310510B (en) | 2024-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116843841B (zh) | 基于网格压缩的大规模虚拟现实系统 | |
CN115100339B (zh) | 图像生成方法、装置、电子设备和存储介质 | |
US20230108967A1 (en) | Micro-meshes, a structured geometry for computer graphics | |
US20180012400A1 (en) | Continuous and dynamic level of detail for efficient point cloud object rendering | |
US10984587B2 (en) | Virtual photogrammetry | |
CN114863038B (zh) | 基于显式几何形变的实时动态自由视角合成方法及装置 | |
CN115082639A (zh) | 图像生成方法、装置、电子设备和存储介质 | |
JP2011238213A (ja) | 配置されたパラメトリック曲線の階層的バウンディング | |
US11074752B2 (en) | Methods, devices and computer program products for gradient based depth reconstructions with robust statistics | |
US20030234784A1 (en) | Accelerated visualization of surface light fields | |
Seyb et al. | Non-linear sphere tracing for rendering deformed signed distance fields | |
KR20240001021A (ko) | 이미지 렌더링 방법, 장치, 전자 설비 및 저장 매체 | |
Vaidyanathan et al. | Watertight ray traversal with reduced precision. | |
CN116977522A (zh) | 三维模型的渲染方法、装置、计算机设备和存储介质 | |
CN111127658A (zh) | 一种基于点云重建三角网格曲面的保特征曲面重建方法 | |
WO2024148732A1 (zh) | 一种可重光照的人体隐式模型的重建方法和装置 | |
WO2021231965A1 (en) | Using directional radiance for interactions in path tracing | |
CN115797561A (zh) | 三维重建方法、设备及可读存储介质 | |
Liu et al. | Neural impostor: Editing neural radiance fields with explicit shape manipulation | |
Lee et al. | Geometry splitting: an acceleration technique of quadtree-based terrain rendering using GPU | |
CN117723266A (zh) | 提高光线-盒测试的效率 | |
Beneš et al. | GI-COLLIDE: collision detection with geometry images | |
Tariq et al. | Instanced model simplification using combined geometric and appearance-related metric | |
US6919889B2 (en) | Compression of surface light fields | |
US20240320903A1 (en) | Methods and systems for generating enhanced light texture data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |