CN115428459A - 基于视频的网格压缩 - Google Patents

基于视频的网格压缩 Download PDF

Info

Publication number
CN115428459A
CN115428459A CN202180029977.4A CN202180029977A CN115428459A CN 115428459 A CN115428459 A CN 115428459A CN 202180029977 A CN202180029977 A CN 202180029977A CN 115428459 A CN115428459 A CN 115428459A
Authority
CN
China
Prior art keywords
mesh
video
vertex
patch
connectivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180029977.4A
Other languages
English (en)
Inventor
D·格拉齐奥西
A·扎格托
A·塔巴塔拜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115428459A publication Critical patent/CN115428459A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本文描述了一种使用网格表面数据的投影和连通性数据的视频表示来压缩3D网格数据的方法。该方法利用3D表面面片来表示网格表面上连接的三角形的集合。投影的表面数据存储在图集数据中编码的面片(网格面片)中。网格的连通性,即,表面面片的顶点和三角形,使用基于视频的压缩技术进行编码。数据被封装在名为顶点视频数据的新视频组件中,并且所公开的结构允许通过在各层中分离顶点的集合并为网格连通性创建各细节级别来进行渐进式网格编解码。这种方法扩展了目前用于点云和多视图以及深度内容的编解码的V3C(基于体积视频)标准的功能性。

Description

基于视频的网格压缩
(一个或多个)相关申请的交叉引用
本申请援引35 U.S.C.§119(e)要求于2020年10月7日提交的标题为“VIDEO BASEDMESH COMPRESSION”的美国临时专利申请序列No.63/088,705和于2020年10月6日提交的标题为“VIDEO BASED MESH COMPRESSION”的美国临时专利申请序列No.63/087,958的优先权,其通过引用整体并入本文以用于所有目的。
技术领域
本发明涉及三维图形。更具体而言,本发明涉及三维图形的编解码(coding)。
背景技术
最近,一种基于从3D到2D的投影来压缩体积内容(诸如点云)的新颖方法正在被标准化。也称为V3C(基于可视体积视频的压缩)的该方法将3D体积数据映射到若干2D面片中,然后将这些面片进一步布置到图集(atlas)图像中,随后用视频编码器对图集图像进行编码。图集图像与点的几何结构、相应的纹理和指示要考虑哪些位置用于点云重构的占用图对应。
在2017年,MPEG已经发布了关于点云压缩的提案征集(CfP)。在评估了若干提案之后,目前MPEG正在考虑两种不同的点云压缩技术:3D原生编解码技术(基于八叉树和相似的编解码方法),或3D到2D投影,然后是传统的视频编解码。在动态3D场景的情况下,MPEG使用基于面片表面建模的测试模型软件(TMC2)、将面片从3D投影到2D图像,并用诸如HEVC之类的视频编码器对2D图像进行编解码。事实证明,这种方法比原生3D编解码更高效,并且能够以可接受的质量实现具有竞争力的位速率。
由于基于投影的方法(也称为基于视频的方法或V-PCC)编解码3D点云的成功,该标准有望在未来的版本中包括更多的3D数据,诸如3D网格。但是,当前版本的标准只适合传输点的不连通集合,因此没有发送点的连通性的机构,因为它是3D网格压缩所要求的。
已经提出了将V-PCC的功能性扩展到网格的方法。一种可能的方式是使用V-PCC对顶点进行编码,然后使用网格压缩方法(如TFAN或Edgebreaker)对连通性进行编码。这种方法的局限性在于原始网格必须是密集的,因此从顶点生成的点云不是稀疏的,并且可以在投影之后被高效编码。而且,顶点的次序影响连通性的编解码,并且已经提出了不同的方法来重组网格连通性。对稀疏网格进行编码的另一种方式是使用RAW面片数据对3D中的顶点位置进行编码。由于RAW面片直接对(x,y,z)进行编码,因此在这种方法中,所有顶点都被编码为RAW数据,而连通性则通过类似的网格压缩方法被编码,如前面所提到的。注意的是,在RAW面片中,顶点可以按任何优选次序发送,因此可以使用从连通性编码生成的次序。该方法可以对稀疏点云进行编码,但是,RAW面片对于对3D数据进行编码效率不高,并且这种方法会丢失更多数据,诸如三角形面的属性。
发明内容
本文描述了一种使用网格表面数据的投影和连通性数据的视频表示来压缩3D网格数据的方法。该方法利用3D表面面片来表示网格表面上连接的三角形的集合。投影表面数据存储在图集数据中编码的面片(网格面片)中。网格的连通性(即,表面面片的顶点和三角形)使用基于视频的压缩技术进行编码。数据被封装在名为顶点视频数据的新视频组件中,并且所公开的结构允许通过在层中分离顶点的集合并为网格连通性创建细节级别来进行渐进式网格编码。这种方法扩展了目前用于点云和多视图以及深度内容的编码的V3C(基于体积视频)标准的功能性。
在一个方面,一种方法包括对输入网格执行网格体素化,实现将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片的面片生成,从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像,用顶点位置和连通性信息实现基于视频的网格压缩,并基于V3C图像和基于视频的网格压缩生成V3C位流。顶点位置和连通性信息包括表面面片的三角形信息。来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。顶点视频组件结构通过分离层中的顶点的集合并生成用于网格连通性的细节级别来实现渐进式网格编码。当仅实现一层时,视频数据被嵌入在占用图中。连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。该方法还包括在二维投影的面片域中实现边折叠过滤器。该方法还包括实现连通性信息的基于面片的表面细分。
在另一方面,一种装置包括用于存储应用的非暂态存储器和耦合到存储器的处理器,该应用用于:对输入网格执行网格体素化,实现将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片的面片生成,从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像,用顶点位置和连通性信息实现基于视频的网格压缩,并基于V3C图像和基于视频的网格压缩生成V3C位流;该处理器被配置用于处理应用。顶点位置和连通性信息包括表面面片的三角形信息。来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。顶点视频组件结构通过分离层中的顶点的集合并生成用于网格连通性的细节级别来实现渐进式网格编码。当仅实现一层时,视频数据被嵌入在占用图中。连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。该应用还被配置用于在二维投影的面片域中实现边折叠过滤器。该应用还被配置用于实现连通性信息的基于面片的表面细分。
在另一方面,一种系统包括用于获取三维内容的一个或多个相机、用于对三维内容进行编码的编码器:对输入网格执行网格体素化,实现将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片的面片生成,从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像,用顶点位置和连通性信息实现基于视频的网格压缩,并基于V3C图像和基于视频的网格压缩生成V3C位流。顶点位置和连通性信息包括表面面片的三角形信息。来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。顶点视频组件结构通过分离层中的顶点的集合并生成用于网格连通性的细节级别来实现渐进式网格编解码。当仅实现一层时,视频数据被嵌入在占用图中。连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。编码器被配置用于在二维投影的面片域中实现边折叠过滤器。编码器被配置用于实现连通性信息的基于面片的表面细分。
附图说明
图1图示了根据一些实施例的实现V3C网格编解码的方法的流程图。
图2图示了根据一些实施例的网格体素化的图。
图3图示了根据一些实施例的面片生成的图。
图4图示了根据一些实施例的面片光栅化的图。
图5图示了根据一些实施例的V3C图像生成的图。
图6图示了根据一些实施例的顶点视频数据的图像。
图7图示了根据一些实施例的示例性细节级别生成的图像。
图8图示了根据一些实施例的网格的图。
图9图示了根据一些实施例的网格重构的图。
图10图示了根据一些实施例的允许发送点云和网格面片的混合的高级语法和图像的图。
图11A-B图示了根据一些实施例的组合的未跟踪的和跟踪的网格信息的图。
图12图示了根据一些实施例的基于面片的边折叠的示例性图像。
图13图示了根据一些实施例的基于面片的聚类抽取的示例性图像。
图14图示了根据一些实施例的基于面片的表面细分的示例性图像。
图15图示了根据一些实施例的基于面片的表面重构的示例性图像。
图16图示了根据一些实施例的三角形边检测的图。
图17图示了根据一些实施例的基于颜色分离的三角形的分割的边的图。
图18图示了根据一些实施例的组合的三角形的分割的边的图。
图19-23图示了根据一些实施例的重新调整尺寸和重新缩放的边的图。
图24图示了根据一些实施例的被配置为实现基于视频的网格压缩方法的示例性计算设备的框图。
图25图示了根据一些实施例的被配置为实现基于视频的网格压缩的系统的图。
具体实施方式
本文描述了一种使用网格表面数据的投影和连通性数据的视频表示来压缩3D网格数据的方法。该方法利用3D表面面片来表示网格表面上的连接的三角形的集合。投影的表面数据存储在图集数据中编码的面片(网格面片)中。网格的连通性(即,表面面片的顶点和三角形)使用基于视频的压缩技术进行编码。数据被封装在名为顶点视频数据的新视频组件中,并且所公开的结构允许通过在层中分离顶点的集合并为网格连通性创建细节级别来进行渐进式网格编码。这种方法扩展了目前用于点云和多视图以及深度内容的编解码的V3C(基于体积视频)标准的功能性。
在使用视频编码器的3D点云编解码中,从3D到2D的投影对于生成将表示点云的视频是重要的。生成视频的最高效方法是使用3D面片,它分割物体的表面并使用正交投影生成分割的深度图像,这些图像被捆绑在一起并用作视频编码器的输入。此外,投影步骤未捕获的点也可以直接编码在视频信号中。在当前的点云标准中,无法对3D网格进行编码,因为没有定义的方法对网格的连通性进行编码。此外,如果顶点数据稀疏,那么该标准的性能差,因为它不能利用顶点之间的相关性。
本文描述了一种使用V3C标准对体积数据进行编解码来执行网格的编解码的方法。描述了一种分割网格表面并提出联合表面采样和2D面片生成的方法。对于每个面片,本地连通性和投影到2D面片的顶点的位置被编码。描述了用信号发送连通性和顶点位置的方法,使得能够重构原始输入网格。此外,描述了一种将顶点和连通性映射到视频帧中并使用视频编解码工具将网格连通性数据编码到称为顶点视频数据的视频序列中的方法。
图1图示了根据一些实施例的实现V3C网格编解码的方法的流程图。在步骤100中,接收或获取输入网格。例如,输入网格被下载(例如,从网络设备)或由设备(例如,相机或自主车辆)获取/捕获。
在步骤102中,执行网格体素化。网格能够具有浮点的顶点位置,因此这些位置被转换到整数空间。V-PCC和V3C假设体素化的点云。
在步骤104中,实现面片生成(或创建)。面片生成包括:法线计算、邻接计算、初始分割;细化、面片投影和面片光栅化。法线计算是计算每个三角形的法线(例如,三角形的边的叉积)。邻接计算涉及计算每个三角形的邻接关系(例如,网格中的哪些三角形邻接或接触当前三角形或其它三角形)。初始分割包括根据朝向对法线进行分类。例如,三角形的法线能够指向上、下、左、右、前或后,并且能够基于方向/朝向进行分类。在一些实施例中,三角形基于它们的法线的朝向进行颜色编解码(例如,法线指向上的所有三角形都被涂成绿色)。细化涉及定位离群值(例如,被蓝色三角形包围的单个红色三角形)和平滑离群值(例如,改变单个红色三角形以匹配其蓝色的邻居)。通过分析邻居和平滑朝向(例如,调整法线的朝向)来执行细化。一旦存在光滑的表面,就执行面片投影,这涉及为特定的三角形分类(例如,基于朝向)投影面片。通过投影,顶点和连通性在面片上示出。例如,这个示例中的身体和面部是分离的投影,因为存在将两者分开的具有不同分类的三角形。V3C和V-PCC不理解该方面;更确切地说,V3C和V-PCC理解点,因此投影被光栅化(例如,表面上的采样点包括点的距离以生成几何图像和表面的属性)。光栅化的网格表面与V3C图像非常相似。
面片生成导致光栅化的网格表面和顶点位置和连通性。在步骤106中,光栅化的网格表面被用于V3C图像生成/创建。在步骤108中,顶点位置和连接性被用于网格编解码(例如,基于视频的网格压缩)。在步骤110中,V3C位流是从生成的V3C图像和基本网格编解码生成的。在一些实施例中,网格编解码不涉及任何附加编解码,并且顶点位置和连通性直接进入V3C位流。
V3C位流使得能够在步骤112中进行点云重构,和/或在步骤114中进行网格构造。能够从V3C位流中提取点云和/或网格,这提供了显著的灵活性。在一些实施例中,实现更少或附加的步骤。在一些实施例中,修改步骤的次序。
本文描述的方法与2021年1月28日提交的标题为“PROJECTION-BASED MESHCOMPRESSION”的美国专利申请序列No.17/161,300相关,该专利申请通过引用整体并入本文以用于所有目的。
为了解决体素化,网格缩放和偏移量信息在图集适配参数集(Atlas AdaptationParameter Set,AAPS)中被发送。能够使用可用的相机参数。可替代地,为体素化引入新的语法元素(在仅使用缩放和偏移量的情况下)。以下是示例性语法:
Figure BDA0003901034830000081
aaps_voxelization_parameters_present_flag等于1指定体素化参数应存在于当前图集适配参数集中。
aaps_voxelization_parameters_present_flag等于0指定用于当前适配参数集的体素化参数将不存在。
vp_scale_enabled_flag等于1指示用于当前体素化的缩放参数存在。
vp_scale_enabled_flag等于0指示用于当前体素化的缩放参数不存在。
当vp_scale_enabled_flag不存在时,应推断为等于0。
vp_offset_enabled_flag等于1指示用于当前体素化的偏移量参数存在。
vp_offset_enabled_flag等于0指示用于当前体素化的偏移量参数不存在。当vp_offset_enabled_flag不存在时,应推断为等于0。
vp_scale指定用于当前体素化的缩放的值Scale为2-16的增量。
vp_scale的值应在1到232-1的范围内,包括端点。当vp_scale不存在时,应推断为等于216。Scale的值计算如下:
Scale=vp_scale÷216
vp_offset_on_axis[d]以2-16的增量指示用于当前体素化的沿着d轴的偏移量的值Offset[d]。vp_offset_on_axis[d]的值应在-231到231-1的范围内,包括端点,其中d在0到2的范围内,包括端点。d的值等于0、1和2,分别与X、Y和Z轴对应。当vp_offset_on_axis[d]不存在时,应推断为等于0。
Offset[d]=vp_offset_on_axis[d]÷216
这个过程指定了反向体素化过程,以从体素化的解码的顶点值到浮点重构值。以下适用:
for(n=0;n<VertexCnt;n++)
for(k=0;k<3;k++)
vertexReconstructed[n][k]=Scale*(decodedVertex[n][k])+Offset[k]
图2图示了根据一些实施例的网格体素化的图。每个帧具有不同的界定框。获得每帧的界定框(例如,t=1、t=16和t=32时的帧200)。然后,从许多界定框计算序列界定框202,sequenceBB=(minPoint,maxPoint)。序列界定框202包含所有顶点,与帧无关。计算适合由bitdepth定义的范围内的最大范围的缩放,maxRange=max(maxPoint16[0..2]-minPoint16[0..2]),scale=(2bitdepth-1)/maxRange->scale16。结果按最小值缩放和移位,voxelizedpoint=floor((originalPoint-minPoint16)/scale16)。缩放和移位量能够是用户定义的或基于学习算法由计算机生成的(例如,通过分析界定框并自动计算缩放和移位量)。这些值存储在AAPS中,移位量=minPoint16并且缩放=scale16。
输入参数(modelScale):
(-1):自动计算每帧缩放
(0):自动计算序列缩放
(>1):用户定义的缩放。
在一些实施例中,网格体素化涉及将输入网格的点的位置的浮点值转换成整数。整数的精度能够由用户设置或自动设置。在一些实施例中,网格体素化包括移位值,使得没有负数。
例如,原始网格位于轴线下方,从而产生负数。经由网格体素化,网格被移位和/或缩放以避免负值和非整数值。在一种实施方式中,找到低于零的最低顶点值,然后能够移位这些值以使得最低顶点值高于零。在一些实施例中,值的范围适合指定的位范围(例如,通过缩放),诸如11位。
体素化的网格210是缩放和移位之后的原始网格。例如,体素化的网格210是在它已经生长并且已经被移位以使得它只是正值(这在一些情况下对于编码来说是更好的)之后的原始网格。
体素化会使三角形退化(占据相同位置的顶点),但编解码过程移除退化的顶点并由于网格分割而增加顶点的数量(例如,移除重复顶点过滤器能够被用于减少顶点的数量)。在示例中,原始网格有20,692个顶点;39,455个面;和体素化的顶点中的20,692个点,而重构的网格有27,942个顶点;39,240个面并且重构的点云有1,938,384个点。
图3图示了根据一些实施例的面片生成的图。如上所述,面片生成涉及法线计算、邻接计算、初始分割(或法线分类)和分割细化(或类别细化)。计算每个三角形的法线涉及三角形边之间的叉积。邻接计算确定三角形是否共享顶点,如果是,那么三角形是邻居。通过分析法线的朝向、对法线的朝向(例如,上、下、左、右、向前、向后)进行分类,并确定法线的朝向是否与全都被分类为相同的邻近法线不同地分类(例如,第一面片被分类为向上,而大多数或所有邻近面片被分类为向前),然后改变面片的法线的分类以匹配邻居的朝向(例如,将第一面片分类改变为向前),初始分割和分割细化与V-PCC相同地执行。
如上所述,实现了将网格分割成面片的面片生成。面片生成还生成1)光栅化的网格表面和2)顶点位置和连通性信息。光栅化的网格表面是经过V3C图像或V-PCC图像生成的点的集合并被编码为V3C图像或V-PCC图像。接收顶点位置和连通性信息以用于基本网格编解码。
本文描述的面片生成与V-PCC中的面片生成相似。但是,不是计算每个点的法线,而是计算每个三角形的法线。每个三角形的法线是使用边之间的叉积来计算的,以确定法线向量。然后,根据法线对三角形进行分类。例如,将法线划分为n个(例如,6个)类别,诸如前、后、上、下、左和右。法线以不同的颜色指示,以示出初始分割。图3示出了灰度中的不同颜色,诸如黑色和浅灰色,不同的颜色指示不同的法线。虽然可能难以看到,但顶表面(例如,人的头顶、球的顶部和运动鞋的顶部)是一种颜色(例如,绿色),人/球的第一侧很暗,表示另一种颜色(例如,红色),球的底部是另一种颜色(例如,紫色),而主要是浅灰色的人和球的正面表示另一种颜色(例如,青色)。
通过将法线的乘积乘以方向,能够找到主方向。通过查看邻近的三角形,能够实现平滑/细化过程。例如,如果高于阈值的数量的邻近三角形都是蓝色的,那么这个三角形也被归类为蓝色,即使存在最初指示三角形是红色的异常。
生成三角形的连接的分量以识别哪些三角形具有相同的颜色(例如,具有相同类别的三角形共享至少一个顶点)。
连通性信息描述点如何在3D中连接。这些连接一起生成三角形(更具体而言,共享3个点的3个不同的连接),从而生成表面(由三角形的集合描述)。虽然本文描述了三角形,但也允许其它几何形状(例如,矩形)。
通过识别具有不同颜色的三角形,能够使用颜色来对连通性进行编码。由三个连接识别的每个三角形都用唯一的颜色编解码。
图4图示了根据一些实施例的面片光栅化的图,面片生成过程的组成部分之一。面片生成还包括生成三角形的连接的分量(具有相同类别的三角形共享至少一个顶点)。如果连接的分量的界定框小于预定义的区域,那么将三角形移动到单独的列表中以进行独立的三角形编解码。这些未投影的三角形不会被光栅化,而是被编解码为具有相关联颜色顶点的顶点。否则,每个三角形被投影到面片。如果顶点的投影的位置已经被占用,那么该三角形被编解码到另一个面片中,并进入丢失的三角形列表以稍后再次处理。可替代地,图能够被用于识别重叠的顶点,并且仍然能够表示具有重叠顶点的三角形。对三角形进行光栅化以生成用于点云表示的点。
示出了原始体素化的顶点400。光栅化的表面点402(添加到点云表示)遵循网格的结构,因此点云几何形状能够与底层网格一样粗糙。但是,能够通过为每个光栅化的像素发送附加的位置来改进几何形状。
图5图示了根据一些实施例的V3C图像生成的图。当投影网格时,生成占用图、几何图和纹理图。对于V3C图像生成,占用图和几何图以与以前相同的方式生成。属性图(纹理)是从未压缩的几何形状生成的。
当生成面片时,添加信息以指示面片在2D图像上的位置。还指示哪些是顶点的位置以及它们是如何连接的。以下语法执行这些任务:
Figure BDA0003901034830000121
Figure BDA0003901034830000131
Figure BDA0003901034830000141
Figure BDA0003901034830000151
mpdu_binary_object_present_flag[tileID][p]等于1指定语法元素mpdu_mesh_binary_object_size_bytes[tileID][p]和mpdu_mesh_binary_object[tileID][p][i]对于当前图集图块的当前面片p存在,图块ID等于tileID。如果mpdu_binary_object_present_flag[tileID][p]等于0,那么语法元素mpdu_mesh_binary_object_size_bytes[tileID][p]和mpdu_mesh_binary_object[tileID][p][i]对于当前面片不存在。如果mpdu_binary_object_present_flag[tileID][p]不存在,那么应推断其值等于0。
mpdu_mesh_binary_object_size_bytes[tileID][p]指定用于以二进制形式表示网格信息的字节数。
mpdu_mesh_binary_object[tileID][p][i]指定用于第p个面片的网格的二进制表示的i字节。
mpdu_vertex_count_minus3[tileID][p]加3指定面片中存在的顶点数。
mpdu_face_count[tileID][p]指定面片中存在的三角形的数量。当不存在时,mpdu_face_count[tileID][p]的值应为零。
mpdu_face_vertex[tileID][p][i][k]指定用于当前图集图块的当前面片p的第i个三角形或四边形的顶点索引的第k个值,图块ID等于tileID。mpdu_face_vertex[tileID][p][i][k]的值应在0到mpdu_vert_count_minus3[tileID][p]+2的范围内。
mpdu_vertex_pos_x[tileID][p][i]指定用于当前图集图块的当前面片p的第i个顶点的x坐标值,图块ID等于tileID。
mpdu_vertex_pos_x[p][i]的值应在0到mpdu_2d_size_x_minus1[p]的范围内,包括端点。
mpdu_vertex_pos_y[tileID][p][i]指定用于当前图集图块的当前面片p的第i个顶点的y坐标值,图块ID等于tileID。
mpdu_vertex_pos_y[tileID][p][i]的值应在0到mpdu_2d_size_y_minus1[tileID][p]的范围内,包括端点。
网格面片数据的一些元素由图集序列参数集(ASPS)中定义的参数控制。能够使用用于网格的ASPS的新扩展。
Figure BDA0003901034830000161
Figure BDA0003901034830000171
asps_mesh_extension_present_flag等于1指定asps_mesh_extension()语法结构存在于atlas_sequence_parameter_set_rbsp语法结构中。
asps_mesh_extension_present_flag等于0指定这个语法结构不存在。当不存在时,asps_mesh_extension_present_flag的值被推断为等于0。
asps_extension_6bits等于0指定没有asps_extension_data_flag语法元素存在于ASPS RBSP语法结构中。当存在时,asps_extension_6bits在符合本文档的这个版本的位流中应等于0。不等于0的asps_extension_6bits的值被保留供ISO/IEC将来使用。解码器应允许asps_extension_6bits的值不等于0并且应忽略ASPS NAL单元中的所有asps_extension_data_flag语法元素。当不存在时,asps_extension_6bits的值被推断为等于0。
Figure BDA0003901034830000181
asps_mesh_binary_coding_enabled_flag等于1指示与面片相关联的顶点和连通性信息以二进制格式存在。
asps_mesh_binary_coding_enabled_flag等于0指示网格顶点和连通性数据不以二进制格式存在。当不存在时,asps_mesh_binary_coding_enabled_flag被推断为0。
asps_mesh_binary_codec_id指示用于压缩用于面片的顶点和连通性信息的编解码器的标识符。asps_mesh_binary_codec_id应在0到255的范围内,包括端点。这个编解码器可以通过附录A中定义的简档或通过本文档之外的方式来识别。
asps_mesh_quad_face_flag等于1指示四边形被用于多边形表示。asps_mesh_quad_face_flage等于0指示三角形被用于网格的多边形表示。当不存在时,asps_mesh_quad_flag的值被推断为等于0。
asps_mesh_vertices_in_vertex_map_flag等于1指示顶点信息存在于顶点视频数据中。asps_mesh_vertices_in_vertex_flag等于0指示顶点信息存在于面片数据中。当不存在时,asps_mesh_vertices_in_vertex_map_flag的值被推断为等于0。
该语法允许四种不同类型的顶点/连通性编解码:
1.直接在面片中发送顶点和连通性信息。
2.在顶点图中发送顶点信息并且在面片中发送面连通性。
3.在顶点图中发送顶点信息并且在解码器侧推导面连通性(例如,使用球枢转或泊松重构)。
4.使用外部网格编码器(例如,SC3DM、Draco等)对顶点和连通性信息进行编解码。
与常规3D网格不同,2D网格是经过编码的。
新的V3C视频数据单元携带顶点的位置的信息。数据单元能够包含指示投影的顶点的位置的二进制值,或者也能够包含用于连通性重构的多级信息。数据单元允许通过对多层中的顶点进行编解码来构造细节级别。数据单元使用VPS扩展来定义附加参数。
Figure BDA0003901034830000191
Figure BDA0003901034830000201
Figure BDA0003901034830000211
vuh_lod_index在存在时指示当前顶点流的lod索引。
当不存在时,当前顶点子位流的lod索引是基于子位流的类型和子条款X.X中针对顶点视频子位流分别描述的操作导出的。
vuh_lod_index的值在存在时应在0到vms_lod_count_minus1[vuh_atlas_id]的范围内,包括端点。
vuh_reserved_zero_13bits当存在时在符合本文档的这个版本的位流中应等于0。用于vuh_reserved_zero_13bits的其它值被保留以供ISO/IEC将来使用。解码器应忽略vuh_reserved_zero_13bits的值。
Figure BDA0003901034830000221
Figure BDA0003901034830000231
vme_lod_count_minus1[k]加1指示用于对图集ID为k的图集的顶点数据进行编码的lod的数量。vme_lod_count_minus1[j]应在0到15的范围内,包括端点。
vme_embed_vertex_in_occupancy_flag[k]等于1指定顶点信息是从条款XX中针对图集ID为k的图集指定的占用图导出的。
vme_embed_vertex_in_occupancy_flag[k]等于0指定顶点信息不是从占用视频导出的。当vme_embed_vertex_in_occupancy_flag[k]不存在时,推断为等于0。
vme_multiple_lod_streams_present_flag[k]等于0指示用于图集ID为k的图集的所有lod分别被放置在单个顶点视频流中。
vme_multiple_lod_streams_present_flag[k]等于1指示用于图集ID为k的图集的所有lod被放置在分离的视频流中。当vme_multiple_lod_streams_present_flag[k]不存在时,其值应被推断为等于0。
vme_lod_absolute_coding_enabled_flag[j][i]等于1指示用于图集ID为k的图集的索引为i的lod被编解码,没有任何形式的图预测。vme_lod_absolute_coding_enabled_flag[k][i]等于0指示用于图集ID为k的图集的索引为i的lod在编解码之前首先从另一个更早被编解码的图被预测。如果vme_lod_absolute_coding_enabled_flag[j][i]不存在,其值应被推断为等于1。
当vps_map_absolute_coding_enabled_flag[j][i]等于0时,vme_lod_predictor_index_diff[k][i]被用于计算用于图集ID为k的图集的索引为i的lod的预测器。更具体而言,用于lod i的图预测器索引,LodPredictorIndex[i],应计算为:
LodPredictorIndex[i]=(i–1)–vme_lod_predictor_index_diff[j][i]vme_lod_predictor_index_diff[j][i]的值应在0到i–1的范围内,包括端点。当vme_lod_predictor_index_diff[j][i]不存在时,其值应被推断为等于0。
vme_vegrtex_video_present_flag[k]等于0指示ID为k的图集没有顶点数据。vms_vertex_video_present_flag[k]等于1指示ID为k的图集有顶点数据。当vms_vertex_video_present_flag[j]不存在时,推断为等于0。
Figure BDA0003901034830000241
vi_vertex_codec_id[j]指示用于压缩用于图集ID为j的图集的顶点信息的编解码器的标识符。
vi_vertex_codec_id[j]应在0到255的范围内,包括端点。这个编解码器可以通过简档、分量编解码器映射SEI消息或通过本文档之外的手段来识别。
vi_lossy_vertex_compression_threshold[j]指示要用于从具有图集ID j的图集的解码的顶点视频中导出二进制顶点的阈值。vi_lossy_vertex_compression_threshold[j]应在0到255的范围内,包括端点。
vi_vertex_2d_bit_depth_minus1[j]加1指示用于图集ID为j的图集的顶点视频应转换到的标称2D位深度。vi_vertex_2d_bit_depth_minus1[j]应在0到31的范围内,包括端点。vi_vertex_MSB_align_flag[j]指示如何将与图集ID为j的图集相关联的解码的顶点视频样本转换成标称顶点位深度的样本。
图6图示了根据一些实施例的顶点视频数据的图像。顶点视频数据使用多层来指示细节级别,这对于渐进式网格编解码是有用的。如果只使用一层,那么可以将视频数据嵌入到占用图中,以避免生成若干解码实例。能够使用表面重构算法(例如,泊松表面重构和球枢转)生成连通性信息。
顶点视频数据在图像中显示为圆点/点。这些点指示顶点在投影的图像中的位置。顶点视频数据能够在分离的视频中被直接发送,如图像600中所示,或者顶点视频数据能够嵌入在占用图像602中。图604示出了球枢转的示例。
图7图示了根据一些实施例的示例性细节级别生成的图像。顶点能够在层中组合以生成网格的多级别表示。指定细节级别的生成。原始点云在图像700中示出,它有762个顶点和1,245个面。不是发送所有数据,而是仅发送10%的顶点/连通性,这是10%的聚类抽取,如图像702中所示,其发送58个顶点和82个面。图像704示出5%的聚类抽取,它发送213个顶点和512个面。图像706示出2.5%的聚类抽取,它发送605个顶点和978个面。通过将层分离,有可能逐步发送多个层以提高质量(例如,第一层为10%抽取,第二层为5%,并且第三层为2.5%)。这些层能够被组合以获得网格的顶点和面的原始数量(或接近其)。
图8图示了根据一些实施例的网格的图。在一些实施例中,SC3DM(MPEG)能够被用于对每个面片的网格信息进行编码。SC3DM能够被用于对连通性和(u,v)信息进行编码。在一些实施例中,Draco被用于对每个面片的网格信息进行编码。Draco能够被用于对连通性和(u,v)信息进行编码。
图9图示了根据一些实施例的网格重构的图。连通性使用新的顶点编号,但能够将面片加在一起。由于压缩,接缝处的顶点可能不匹配。网格平滑或拉链算法能够被用来解决这个问题。
图10图示了根据一些实施例的允许发送点云和网格面片的混合的高级语法和图像的图。由于网格是在面片级别描述的,因此有可能混合和匹配用于物体的面片。例如,仅点云的面片能够被用于头部或头发,而网格面片被用于诸如身体之类的平坦区域。
被跟踪的网格面片数据单元能够使用面片来指示连通性从一个面片到另一个面片没有改变。这对于跟踪的网格情况特别有用,因为只发送增量位置。在跟踪的网格的情况下,发生全局运动,该运动能够通过界定框位置和旋转(新引入的使用四元数的语法元素)和由顶点运动捕获的表面运动捕获。如果参考面片正在使用V3C_VVD数据,那么顶点运动能够在面片信息中显式发送,或者从视频数据中导出。发送增量顶点信息的位的数量能够在图集帧参数集(Atlas Frame Parameter Set,AFPS)中被发送。可替代地,运动信息也能够作为单应变换被发送。
Figure BDA0003901034830000261
Figure BDA0003901034830000271
Figure BDA0003901034830000281
tmpdu_vertices_changed_position_flag指定顶点是否改变它们的位置。tmpdu_vertex_delta_pos_x[p][i]指定面片p的第i个顶点的x坐标值与由tmpdu_ref_index[p]指示的匹配的面片的差异。tmpdu_vertex_pos_x[p][i]的值应在0到pow2(afps_num_bits_delta_x)-1的范围内,包括端点。
tmpdu_vertex_delta_pos_y[p][i]指定面片p的第i个顶点的y坐标值与由tmpdu_ref_index[p]指示的匹配的面片的差异。tmpdu_vertex_pos_x[p][i]的值应在0到pow2(afps_num_bits_delta_y)-1的范围内,包括端点。
tmpdu_rotation_present_flag指定旋转值是否存在。
tmpdu_3d_rotation_qx使用四元数表示为当前面片的几何旋转指定x分量qX。tmpdu_3d_rotation_qx的值应在-215到215-1的范围内,包括端点。当tmpdu_3d_rotation_qx不存在时,其值应被推断为等于0。qX的值计算如下:
qX=tmpdu_3d_rotation_qx÷215
tmpdu_3d_rotation_qy使用四元数表示为当前面片的几何旋转指定y分量qY。tmpdu_3d_rotation_qy的值应在-215到215-1的范围内,包括端点。当tmpdu_3d_rotation_qy不存在时,其值应被推断为等于0。qY的值被计算如下:
qY=tmpdu_3d_rotation_qy÷215
tmpdu_3d_rotation_qz使用四元数表示为当前面片的几何旋转指定z分量qZ。tmpdu_3d_rotation_qz的值应在在-215到215-1的范围内,包括端点。当tmpdu_3d_rotation_qz不存在时,其值应被推断为等于0。qZ的值被计算如下:
qZ=tmpdu_3d_rotation_qz÷215
使用四元数表示的当前点云图像的几何旋转的第四分量qW被计算如下:
qW=Sqrt(1–(qX2+qY2+qZ2))
单位四元数可以表示为旋转矩阵R,如下所示:
Figure BDA0003901034830000291
图11A-B图示了根据一些实施例的组合的未跟踪的和跟踪的网格信息的图。为了避免跟踪问题,一些算法将网格分割为跟踪的部分和未跟踪的部分。跟踪的部分在时间上是一致的并且能够由提出的tracked_mesh_patch_data_unit()表示,而未跟踪的部分在每一帧都是新的,并且能够由mesh_patch_data_unit()表示。由于符号允许将点云混合到几何形状中,因此也能够改进表面表示(例如,保留原始网格并在网格的顶部插入点云以隐藏缺陷)。
图12图示了根据一些实施例的基于面片的边折叠的示例性图像。边折叠过滤器能够被应用于面片数据以减少编解码的三角形的数量。几何和纹理信息能够保持不变以改进渲染。网格简化能够通过使用精细的几何数据来逆转。Meshlab可以选择应用边折叠,即使具有边界保持。但是,该算法在3D空间中工作,并且它不使用网格的投影特点。新的想法是做“2D投影的面片域中的边折叠过滤器”,即,考虑边的2D特点,对面片数据应用边折叠。
图像1200示出了具有5,685个顶点和8,437个面的原始密集网格。图像1202示出了具有2,987个顶点和3,041个面的面片边折叠(保留边界)。图像1204示出了具有1,373个顶点和1,285个面的面片边折叠。图像1206示出了具有224个顶点和333个面的完整网格边折叠。
图13图示了根据一些实施例的基于面片的聚类抽取的示例性图像。Meshlab可以选择基于3D网格进行抽取(聚类抽取)。由于面片是2D中的投影的数据,因此能够替代地在2D空间中执行抽取。此外,保留被抽取的顶点的数量以重构回面(使用精细几何数据和表面细分)。这个信息可以在占用图中被发送。
图像1300示出了具有5,685个顶点和8,437个面的原始密集网格。图像1302示出了具有3,321个顶点和4,538个面的聚类抽取(1%)。图像1304示出了具有730个顶点和870个面的聚类抽取(2.5%)。图像1306示出了具有216个顶点和228个面的聚类抽取(5%)。图像1308示出了具有90个顶点和104个面的聚类抽取(10%)。
图14图示了根据一些实施例的基于面片的表面细分的示例性图像。Meshlab有若干过滤器以生成更精细的网格,但它们假设一些启发法(例如,在中间点划分三角形)。如果使用几何信息来引导应当在哪里划分三角形,那么能够获得更好的结果。例如,能够从低分辨率网格生成高分辨率网格。网格信息的上采样由几何形状引导。
图像1400示出了具有224个顶点和333个面的网格。图像1402示出了细分表面:具有784个顶点和1,332个面的中点(1次迭代)。图像1404示出了细分表面:具有2,892个顶点和5,308个面的中点(2次迭代)。图像1406示出了细分表面:具有8,564个顶点和16,300个面的中点(3次迭代)。
图15图示了根据一些实施例的基于面片的表面重构的示例性图像。Meshlab具有过滤器以从点云(屏幕泊松和球枢转)重构网格表面。算法能够被用于在面片级别重构解码器侧的网格连通性(顶点列表被发信号通知,例如经由占用图可用)。在一些实施例中,不发送连通性信息,并且能够使用泊松或球枢转来重新生成连通性信息。
图像1500示出了具有5,685个顶点的密集顶点云。图像1502示出了具有13,104个顶点和26,033个面的泊松表面重构。图像1504示出了具有5,685个顶点和10,459个面的球枢转。
在一些实施例中,顶点的位置是从占用图获得的。能够使用嵌入在占用图中的颜色信息。在编码器侧,与每个三重顶点集相关联的面区域被涂上固定的颜色。每个面的颜料颜色都是不同的,并以易于颜色分割的方式选择。使用m元(m-ary)级别的占用图。在解码器侧,占用图被解码。面信息是基于分割的颜色导出的。
在一些实施例中,顶点的位置是从占用获得的。指派新的属性来携带面信息。在编码器侧,生成尺寸(宽x高)等于面数的属性矩形。该属性具有三个维度,而每个维度都携带三重顶点之一的索引。在解码器侧,对属性视频进行解码。从解码的属性视频中导出面信息。
在一些实施例中,顶点的位置是使用Delaunay三角测量从占用图获得的。在解码器侧,占用图视频被解码。从解码的占用图获得的顶点被三角测量。三角测量的点被用于获得面信息。
图16图示了根据一些实施例的三角形边检测的图。原始图像1600具有蓝色、红色和黄色三角形。分割的蓝色三角形图像1602示出蓝色三角形,分割的红色三角形图像1604示出红色三角形,并且分割的黄色三角形图像1606示出黄色三角形。
三角形能够基于颜色进行分组。三角形能够基于相交的边被分割,这指示三角形在哪里,三角形的边在哪里,甚至顶点在哪里。
图17图示了根据一些实施例的基于颜色分离的三角形的分割的边的图。原始图像1600具有蓝色、红色和黄色三角形。分割的蓝色边图像1700示出蓝色三角形边,分割的红色边图像1702示出红色三角形边,并且分割的黄色边图像1704示出黄色三角形边。
图18图示了根据一些实施例的组合的三角形的分割的边的图。原始图像1600具有蓝色、红色和黄色三角形。组合的边在三角形边图像1800中示出。
图19-23图示了根据一些实施例的重新调整尺寸和重新缩放边的图。图像、三角形和/或边能够被重新调整尺寸(例如,收缩),然后能够检测重新调整尺寸的三角形,能够确定重新缩放的边,并且能够确定/生成重新调整尺寸的边。
如本文所述,通过进行分割、找到边、三角形和顶点以及确定哪些位置是连接的,颜色能够被用于对三角形位置和三角形连通性进行编码。
图24图示了根据一些实施例的被配置为实现基于视频的网格压缩方法的示例性计算设备的框图。计算设备2400能够被用于获取、存储、计算、处理、传送和/或显示信息,诸如包括3D内容的图像和视频。计算设备2400能够实现任何编码/解码方面。一般而言,适于实现计算设备2400的硬件结构包括网络接口2402、存储器2404、处理器2406、(一个或多个)I/O设备2408、总线2410和存储设备2412。处理器的选择并不重要,只要选择具有足够速度的合适处理器即可。存储器2404能够是本领域已知的任何常规计算机存储器。存储设备2412能够包括硬盘驱动器、CDROM、CDRW、DVD、DVDRW、高清盘/驱动器、超高清驱动器、闪存卡或任何其它存储设备。计算设备2400能够包括一个或多个网络接口2402。网络接口的示例包括连接到以太网或其它类型的LAN的网卡。(一个或多个)I/O设备2408能够包括以下当中的一个或多个:键盘、鼠标、监视器、屏幕、打印机、调制解调器、触摸屏、按钮接口和其它设备。用于实现基于视频的网格压缩实现的基于视频的(一个或多个)网格压缩应用2430很可能存储在存储设备2412和存储器2404中并且如应用通常被处理那样被处理。图24中所示的更多或更少组件能够被包括在计算设备2400中。在一些实施例中,包括基于视频的网格压缩硬件2420。虽然图24中的计算设备2400包括用于基于视频的网格压缩实现的应用2430和硬件2420,但是基于视频的网格压缩方法能够以硬件、固件、软件或其任何组合在计算设备上实现。例如,在一些实施例中,基于视频的网格压缩应用2430被编程在存储器中并且使用处理器来执行。在另一个示例中,在一些实施例中,基于视频的网格压缩硬件2420是编程的硬件逻辑,包括专门被设计用于实现基于视频的网格压缩方法的门。
在一些实施例中,(一个或多个)基于视频的网格压缩应用2430包括若干应用和/或模块。在一些实施例中,模块也包括一个或多个子模块。在一些实施例中,能够包括更少或附加的模块。
合适的计算设备的示例包括个人计算机、膝上型计算机、计算机工作站、服务器、大型计算机、手持计算机、个人数字助理、蜂窝/移动电话、智能电器、游戏控制台、数码相机、数码摄像机、照相电话、智能电话、便携式音乐播放器、平板计算机、移动设备、视频播放器、视频盘刻录机/播放器(例如,DVD刻录机/播放器、高清盘刻录机/播放器,超高清盘刻录机/播放器)、电视机、家庭娱乐系统、增强现实设备、虚拟现实设备、智能珠宝(例如,智能手表)、车辆(例如,自动驾驶车辆)或任何其它合适的计算设备。
图25图示了根据一些实施例的被配置为实现基于视频的网格压缩的系统的图。编码器2500被配置为实现编码过程。如本文所述,能够实现任何编码,诸如基于视频的网格压缩。网格和其它信息能够直接传送到解码器2504或通过网络2502传送。网络能够是任何类型的网络,诸如局域网(LAN)、互联网、无线网络、有线网络、蜂窝网络和/或任何其它网络或网络的组合。解码器2504对编码的内容进行解码。
为了利用基于视频的网格压缩方法,设备获取或接收3D内容(例如,点云内容)。基于视频的网格压缩方法能够在用户协助下实现或在没有用户参与的情况下自动实现。
在操作中,与以前的实施方式相比,基于视频的网格压缩方法使得能够实现更高效和更准确的3D内容编码。
基于视频的网格压缩的一些实施例
1、一种方法,包括:
对输入网格执行网格体素化;
实现面片生成,所述面片生成将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片;
从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像;
用顶点位置和连通性信息实现基于视频的网格压缩;以及
基于V3C图像和基于视频的网格压缩生成V3C位流。
2、如条款1所述的方法,其中顶点位置和连通性信息包括表面面片的三角形信息。
3、如条款1所述的方法,其中来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。
4、如条款3所述的方法,其中顶点视频组件结构通过分离各层中的顶点的集合并生成用于网格连通性的各细节级别来实现渐进式网格编码。
5、如条款1所述的方法,其中当仅实现一层时,视频数据被嵌入在占用图中。
6、如条款1所述的方法,其中连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。
7、如条款1所述的方法,其中从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。
8、如条款1所述的方法,还包括在二维投影的面片域中实现边折叠过滤器。
9、如条款1所述的方法,还包括实现连通性信息的基于面片的表面细分。
10、一种装置,包括:
用于存储应用的非暂态存储器,所述应用用于:
对输入网格执行网格体素化;
实现面片生成,所述面片生成将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片;
从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像;
用顶点位置和连通性信息实现基于视频的网格压缩;以及
基于V3C图像和基于视频的网格压缩生成V3C位流;以及耦合到存储器的处理器,所述处理器被配置用于处理所述应用。
11、如条款10所述的装置,其中顶点位置和连通性信息包括表面面片的三角形信息。
12、如条款10所述的装置,其中来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。
13、如条款12所述的装置,其中顶点视频组件结构通过分离各层中的顶点的集合并生成用于网格连通性的各细节级别来实现渐进式网格编码。
14、如条款10所述的装置,其中当仅实现一层时,视频数据被嵌入在占用图中。
15、如条款10所述的装置,其中连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。
16、如条款10所述的装置,其中从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。
17、如条款10所述的装置,其中所述应用还被配置用于在二维投影的面片域中实现边折叠过滤器。
18、如条款10所述的装置,其中所述应用还被配置用于实现连通性信息的基于面片的表面细分。
19、一种系统,包括:
一个或多个相机,用于获取三维内容;
编码器,用于对三维内容进行编码:
对输入网格执行网格体素化;
实现面片生成,所述面片生成将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片;
从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像;
用顶点位置和连通性信息实现基于视频的网格压缩;以及
基于V3C图像和基于视频的网格压缩生成V3C位流。
20、如条款19所述的系统,其中顶点位置和连通性信息包括表面面片的三角形信息。
21、如条款19所述的系统,其中来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。
22、如条款21所述的系统,其中顶点视频组件结构通过分离各层中的顶点的集合并生成用于网格连通性的各细节级别来实现渐进式网格编码。
23、如条款19所述的系统,其中当仅实现一层时,视频数据被嵌入在占用图中。
24、如条款19所述的系统,其中连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。
25、如条款19所述的系统,其中从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。
26、如条款19所述的系统,其中编码器被配置用于在二维投影的面片域中实现边折叠过滤器。
27、如条款19所述的系统,其中所述编码器被配置用于实现连通性信息的基于面片的表面细分。
本发明已根据具体实施例进行了描述,具体实施例结合了促进理解本发明的构造和操作原理的细节。本文对具体实施例及其细节的这种引用并不旨在限制所附权利要求的范围。对本领域技术人员来说显而易见的是,在不脱离如权利要求限定的本发明的精神和范围的情况下,可以在选择用于说明的实施例中进行其它各种修改。

Claims (27)

1.一种方法,包括:
对输入网格执行网格体素化;
实现面片生成,所述面片生成将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片;
从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像;
用顶点位置和连通性信息实现基于视频的网格压缩;以及
基于V3C图像和基于视频的网格压缩生成V3C位流。
2.如权利要求1所述的方法,其中顶点位置和连通性信息包括表面面片的三角形信息。
3.如权利要求1所述的方法,其中来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。
4.如权利要求3所述的方法,其中顶点视频组件结构通过分离各层中的顶点的集合并生成用于网格连通性的各细节级别来实现渐进式网格编码。
5.如权利要求1所述的方法,其中当仅实现一层时,视频数据被嵌入在占用图中。
6.如权利要求1所述的方法,其中连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。
7.如权利要求1所述的方法,其中从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。
8.如权利要求1所述的方法,还包括在二维投影的面片域中实现边折叠过滤器。
9.如权利要求1所述的方法,还包括实现连通性信息的基于面片的表面细分。
10.一种装置,包括:
用于存储应用的非暂态存储器,所述应用用于:
对输入网格执行网格体素化;
实现面片生成,所述面片生成将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片;
从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像;
用顶点位置和连通性信息实现基于视频的网格压缩;以及
基于V3C图像和基于视频的网格压缩生成V3C位流;以及耦合到存储器的处理器,所述处理器被配置用于处理所述应用。
11.如权利要求10所述的装置,其中顶点位置和连通性信息包括表面面片的三角形信息。
12.如权利要求10所述的装置,其中来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。
13.如权利要求12所述的装置,其中顶点视频组件结构通过分离各层中的顶点的集合并生成用于网格连通性的各细节级别来实现渐进式网格编码。
14.如权利要求10所述的装置,其中当仅实现一层时,视频数据被嵌入在占用图中。
15.如权利要求10所述的装置,其中连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。
16.如权利要求10所述的装置,其中从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。
17.如权利要求10所述的装置,其中所述应用还被配置用于在二维投影的面片域中实现边折叠过滤器。
18.如权利要求10所述的装置,其中所述应用还被配置用于实现连通性信息的基于面片的表面细分。
19.一种系统,包括:
一个或多个相机,用于获取三维内容;
编码器,用于对三维内容进行编码:
对输入网格执行网格体素化;
实现面片生成,所述面片生成将网格分割成包括光栅化的网格表面和顶点位置和连通性信息的面片;
从光栅化的网格表面生成基于可视体积视频的压缩(V3C)图像;
用顶点位置和连通性信息实现基于视频的网格压缩;以及
基于V3C图像和基于视频的网格压缩生成V3C位流。
20.如权利要求19所述的系统,其中顶点位置和连通性信息包括表面面片的三角形信息。
21.如权利要求19所述的系统,其中来自用顶点位置和连通性信息实现基于视频的网格压缩的数据被封装在顶点视频组件结构中。
22.如权利要求21所述的系统,其中顶点视频组件结构通过分离各层中的顶点的集合并生成用于网格连通性的各细节级别来实现渐进式网格编码。
23.如权利要求19所述的系统,其中当仅实现一层时,视频数据被嵌入在占用图中。
24.如权利要求19所述的系统,其中连通性信息是使用包括泊松表面重构或球枢转的表面重构算法生成的。
25.如权利要求19所述的系统,其中从光栅化的网格表面生成V3C图像包括组合未跟踪的和跟踪的网格信息。
26.如权利要求19所述的系统,其中编码器被配置用于在二维投影的面片域中实现边折叠过滤器。
27.如权利要求19所述的系统,其中所述编码器被配置用于实现连通性信息的基于面片的表面细分。
CN202180029977.4A 2020-10-06 2021-09-29 基于视频的网格压缩 Pending CN115428459A (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202063087958P 2020-10-06 2020-10-06
US63/087,958 2020-10-06
US202063088705P 2020-10-07 2020-10-07
US63/088,705 2020-10-07
US17/322,662 US11836953B2 (en) 2020-10-06 2021-05-17 Video based mesh compression
US17/322,662 2021-05-17
PCT/IB2021/058955 WO2022074515A1 (en) 2020-10-06 2021-09-29 Video based mesh compression

Publications (1)

Publication Number Publication Date
CN115428459A true CN115428459A (zh) 2022-12-02

Family

ID=80932378

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180029977.4A Pending CN115428459A (zh) 2020-10-06 2021-09-29 基于视频的网格压缩

Country Status (5)

Country Link
US (1) US11836953B2 (zh)
EP (1) EP4197191A1 (zh)
JP (1) JP2023544618A (zh)
CN (1) CN115428459A (zh)
WO (1) WO2022074515A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102447796B1 (ko) * 2020-11-27 2022-09-27 한국전자기술연구원 V-pcc 부호화기를 위한 패치 세그먼트 고속 정제 장치 및 그 방법
WO2023144445A1 (en) * 2022-01-27 2023-08-03 Nokia Technologies Oy A method, an apparatus and a computer program product for video encoding and video decoding
US20230342983A1 (en) * 2022-04-22 2023-10-26 Tencent America LLC Vertex prediction based on mesh triangulation derivation
WO2023224299A1 (ko) * 2022-05-16 2023-11-23 현대자동차주식회사 패치 단위 메시 코딩을 위한 방법 및 장치
US20240048763A1 (en) * 2022-08-02 2024-02-08 Tencent America LLC Duplicate vertices based position compression
WO2024039703A1 (en) * 2022-08-16 2024-02-22 Iinnopeak Technology, Inc. Dynamic mesh geometry refinement
US20240104783A1 (en) * 2022-09-22 2024-03-28 Tencent America LLC Multiple attribute maps merging

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001063561A1 (en) * 2000-02-25 2001-08-30 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
JP2001312526A (ja) * 2000-04-28 2001-11-09 Nec Corp メッシュ生成方法及びメッシュ生成プログラムを記録した記録媒体
US8502815B2 (en) * 2007-04-18 2013-08-06 Gottfried Wilhelm Leibniz Universitat Hannover Scalable compression of time-consistent 3D mesh sequences
US8860719B2 (en) 2011-01-21 2014-10-14 Samsung Electronics Co., Ltd. Apparatus and method for encoding three-dimensional (3D) mesh, and apparatus and method for decoding 3D mesh
US9819946B2 (en) * 2012-04-05 2017-11-14 Newsouth Innovations Pty Limited Method and apparatus for coding of spatial data
US9792728B2 (en) * 2012-08-17 2017-10-17 Thomson Licensing Method and apparatus for 3D mesh de-noising
US9734595B2 (en) * 2014-09-24 2017-08-15 University of Maribor Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds
US10249087B2 (en) * 2016-01-29 2019-04-02 Magic Leap, Inc. Orthogonal-projection-based texture atlas packing of three-dimensional meshes
US11398059B2 (en) * 2017-05-06 2022-07-26 Beijing Dajia Internet Information Technology Co., Ltd. Processing 3D video content
US10431000B2 (en) * 2017-07-18 2019-10-01 Sony Corporation Robust mesh tracking and fusion by using part-based key frames and priori model
EP3669333B1 (en) * 2017-08-15 2024-05-01 Nokia Technologies Oy Sequential encoding and decoding of volymetric video
US10909725B2 (en) * 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11200700B2 (en) * 2019-01-10 2021-12-14 Mediatek Singapore Pte. Ltd. Methods and apparatus for signaling viewports and regions of interest for point cloud multimedia data
CN111406408B (zh) * 2019-01-11 2023-02-21 深圳市大疆创新科技有限公司 三维数据点的编解码方法和装置
US11393132B2 (en) 2019-03-07 2022-07-19 Samsung Electronics Co., Ltd. Mesh compression
US11823421B2 (en) * 2019-03-14 2023-11-21 Nokia Technologies Oy Signalling of metadata for volumetric video
WO2020251019A1 (ja) * 2019-06-14 2020-12-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
US11122102B2 (en) * 2019-07-03 2021-09-14 Lg Electronics Inc. Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus and point cloud data reception method
US20200329088A1 (en) * 2019-07-26 2020-10-15 Intel Corporation Viewport indication during streaming of volumetric point cloud content
US11348285B2 (en) * 2019-12-10 2022-05-31 Sony Group Corporation Mesh compression via point cloud representation
US11373339B2 (en) * 2020-03-18 2022-06-28 Sony Group Corporation Projection-based mesh compression

Also Published As

Publication number Publication date
EP4197191A1 (en) 2023-06-21
JP2023544618A (ja) 2023-10-24
WO2022074515A1 (en) 2022-04-14
US20220108483A1 (en) 2022-04-07
US11836953B2 (en) 2023-12-05

Similar Documents

Publication Publication Date Title
JP7303992B2 (ja) 点群表現を介したメッシュ圧縮
US11836953B2 (en) Video based mesh compression
EP3709273A1 (en) Signalling of metadata for volumetric video
US11373339B2 (en) Projection-based mesh compression
JP7371691B2 (ja) ホモグラフィ変換を使用した点群符号化
WO2021053270A1 (en) Video-based point cloud compression model to world signalling information
US11989919B2 (en) Method and apparatus for encoding and decoding volumetric video data
US11908169B2 (en) Dense mesh compression
US20230306684A1 (en) Patch generation for dynamic mesh coding
US20230306643A1 (en) Mesh patch simplification
WO2023180843A1 (en) Patch generation for dynamic mesh coding
US20230306641A1 (en) Mesh geometry coding
WO2023180842A1 (en) Mesh patch simplification
WO2023174701A1 (en) V-pcc based dynamic textured mesh coding without occupancy maps
CN117730344A (zh) 网格补丁细分

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination