CN117178299A - 将3d网格快速且紧凑地打包到2d地图中的卷积方法 - Google Patents
将3d网格快速且紧凑地打包到2d地图中的卷积方法 Download PDFInfo
- Publication number
- CN117178299A CN117178299A CN202280028972.4A CN202280028972A CN117178299A CN 117178299 A CN117178299 A CN 117178299A CN 202280028972 A CN202280028972 A CN 202280028972A CN 117178299 A CN117178299 A CN 117178299A
- Authority
- CN
- China
- Prior art keywords
- zero
- occupancy
- correlation matrix
- matrix
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 238000012856 packing Methods 0.000 title claims abstract description 56
- 239000011159 matrix material Substances 0.000 claims description 106
- 230000006870 function Effects 0.000 claims description 27
- 238000005457 optimization Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 14
- 238000001914 filtration Methods 0.000 abstract description 11
- 238000007906 compression Methods 0.000 description 43
- 230000006835 compression Effects 0.000 description 43
- 230000033001 locomotion Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 239000013598 vector Substances 0.000 description 15
- 238000004806 packaging method and process Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 238000013507 mapping Methods 0.000 description 12
- 230000006837 decompression Effects 0.000 description 9
- 238000009499 grossing Methods 0.000 description 9
- 239000000872 buffer Substances 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 101150114515 CTBS gene Proteins 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本公开总体上涉及三维(3D)网格的编码和解码,具体地涉及将3D网格的各个部分快速高效地打包到二维(2D)空间中的地图中。在一个示例中,3D网格帧被分解为图表。通过使用图像滤波技术,将图表迭代地投影并打包到2D地图中以实现改进的紧凑性。图像滤波技术可以涉及使用快速傅立叶变换执行有效的卷积和相关处理。
Description
本申请基于并要求于2022年10月27日提交的申请号为18/050,372、发明名称为“将3D网格快速且紧凑地打包到2D地图中的卷积方法(Convolutional Approach to Fastand Compact Packing of 3D Mesh into 2D Maps)”的美国非临时专利申请,以及于2022年3月25日提交的申请号为63/323,853、发明名称为“利用图像滤波快速且紧凑地打包图表(Using Image Filtering for Fast and Compact Packing of Charts)”的美国临时专利申请的优先权,两个申请的全部内容通过引用并入本申请中。
技术领域
本申请总体上涉及三维(3D)网格的编码和解码,具体地涉及将3D网格的各个部分快速高效地打包到二维(2D)空间的地图中。
背景技术
本文中提供的背景技术描述是为了大体上呈现本申请的上下文。在此背景技术部分描述的程度上,当前署名的发明人的工作,以及在本申请提交时可能不具有作为现有技术的资格的描述的各方面,既不明确认为也不隐含认为是本申请的现有技术。
现已开发了各种技术来采集、表示和模拟3D空间中的现实世界对象、环境等。对世界的3D表示可以实现更沉浸形式的交互式通信。对象和环境的示例3D表示包括但不限于点云和网格。一系列对象和环境的3D表示可以形成视频序列。对象和环境的3D表示序列内的冗余和相关性可用于将这种视频序列压缩和编码为更紧凑的数字形式。
发明内容
本公开总体上涉及三维(3D)网格的编码和解码,具体地涉及将3D网格的各个部分快速高效地打包到二维(2D)空间中的地图中。
在一个示例实施方式中,公开了一种用于将三维(3D)网格帧的第一部分投影到二维(2D)占用地图的方法。该方法可以包括:获取初始2D占用地图,所述初始2D占用地图可以包括:具有第一预定义值的零个或多个像素,所述第一预定义值指示所述零个或多个像素已被映射到所述3D网格帧的至少一个其它部分,所述至少一个其它部分与所述3D网格帧的所述第一部分不重叠;以及具有第二预定义值的剩余像素,所述第二预定义值指示所述剩余像素未被映射到所述3D网格帧。所述方法可以进一步包括生成所述3D网格帧的所述第一部分的2D占用矩阵,其中所述第一预定义值对应于已占用像素,所述第二预定义值对应于未占用像素;计算所述初始2D占用地图与所述2D占用矩阵之间的相关矩阵;识别所述相关矩阵中的零值目标元素;以及通过用所述2D占用矩阵中的对应元素替换所述初始2D占用地图的面片中具有第二预定义值的像素,生成更新的2D占用地图,其中,所述面片与所述2D占用矩阵的大小相同,所述面片位于所述初始2D占用地图中的打包位置,根据所述相关矩阵中所述零值目标元素的位置确定。
在上述实施方式中,所述相关矩阵通过卷积计算得出,所述卷积是作为卷积内核的所述2D占用矩阵与所述初始2D占用地图之间的卷积。
在上述任一实施方式中,所述卷积使用快速傅里叶变换进行计算。
在上述任一实施方式中,识别所述相关矩阵中的零值目标元素,可以包括:识别所述相关矩阵中的多个零值元素;以及选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素。
在上述一些实施方式中,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,可以包括:选择所述相关矩阵中的所述多个零值元素中在宽度维度上具有最小指数的零值元素。
在上述一些实施方式中,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,可以包括:选择所述相关矩阵中的所述多个零值元素中在高度维度上具有最小指数的零值元素。
在上述一些实施方式中,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,可以包括:选择所述相关矩阵中的所述多个零值元素中宽度指数和高度指数总和最小的零值元素。
在上述一些实施方式中,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,可以包括:基于高度指数和宽度指数的优化函数,选择所述多个零值元素中的零值元素。
在上述实施方式中,所述优化函数包括lp范数函数。
在上述一些实施方式中,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,可以包括:确定所述2D占用矩阵到所述初始2D占用地图中的首选打包位置;根据所述首选打包位置,从所述相关矩阵中的所述多个零值元素中选择所述零值目标元素。
在上述一些实施方式中,根据所述首选打包位置,从所述相关矩阵中的所述多个零值元素中选择所述零值目标元素,可以包括:当可能时,从所述多个零值元素中选择与所述首选打包位置匹配的零值元素,作为所述零值目标元素;否则基于所述首选打包位置以及所述首选打包位置的邻域中的零值元素的位置的优化函数,从所述首选打包位置的所述邻域中的所述多个零值元素中选择。
在上述实施方式中,所述优化函数可以包括所述首选打包位置与所述多个零值元素中所述零值元素的位置之间的位置差的lp范数函数。
在上述任一实施方式中,识别所述相关矩阵中的零值目标元素,可以包括:将所述相关矩阵的第一识别的零值元素确定为所述零值目标元素,所述方法进一步包括:一旦找到所述相关矩阵的所述第一识别的零值元素,便终止计算所述相关矩阵。
在一些示例中,可以迭代上述任一实施方式中的步骤,直到所述3D网格帧的所有部分被映射到所述更新的2D占用地图。
在上述实施方式中,所述方法可以进一步包括:使用视频编码器将所述更新的2D占用地图压缩到码流中,以及压缩所述3D网格帧的所有部分的2D占用矩阵的大小和打包位置的信息。
在上述任一实施方式中,所述初始2D占用地图和所述2D占用矩阵包括二进制值,所述二进制值包括所述第一预定义值和所述第二预定义值。
本公开的各方面还提供了一种包括电路的电子设备或电子装置,所述电路被配置为执行上述任一方法实施方式。
本公开的各方面还提供了一种用于存储计算机指令的非易失性计算机可读介质,所述计算机指令在由用于3D网格压缩的计算机执行时,使所述计算机执行上述任一方法实施方式。
附图说明
从以下详细描述和附图中,所公开的主题的进一步特征、性质及各种优点将更加明显,其中:
图1是根据本公开实施例的示例通信系统的简化框图示意图。
图2是根据本公开实施例的示例流式传输系统的简化框图示意图。
图3示出了根据本公开一些实施例的3D网格或点云帧的编码和解码中的数据流。
图4示出了根据本公开一些实施例的用于对3D网格或点云帧进行编码的编码器的框图。
图5示出了根据本公开一些实施例的用于对3D网格和点云帧对应的压缩码流进行解码的解码器的框图。
图6是根据本公开实施例的视频解码器的简化框图示意图。
图7是根据本公开实施例的视频编码器的简化框图示意图。
图8图示了根据本公开一些实施例的用于将3D网格的多个图表打包到2D地图中的示例实施方式。
图9图示了根据本公开一些实施例的用于将3D网格的多个图表打包到2D地图中的另一示例实施方式。
图10图示了根据本公开一些实施例的将3D网格的图表有效且紧凑地打包到2D地图中的示例。
图11图示了根据本公开一些实施例的用于3D网格的图表的示例2D占用地图。
图12示出了根据本公开一些实施例的概述过程示例的示例流程图。
图13是根据实施例的示例计算机系统的示意图。
具体实施方式
在整个说明书和权利要求书中,术语可以具有在明确说明的含义之外的上下文暗示的或暗含的含义。本申请中使用的短语“在一个实施例中”或“在一些实施例中”不是必须指相同的实施例,本申请中使用的短语“在另一个实施例中”或“在其它实施例中”不是必须指不同的实施例。类似地,本申请中使用的短语“在一个实施方式中”或“在一些实施方式中”不是必须指同一个实施方式,本申请中使用的短语“在另一个实施方式中”或“在其它实施方式中”不是必须指不同的实施方式。例如,旨在所要求保护的主题包括示例实施例/实施方式全部或部分的组合。
总体而言,术语至少可以部分根据其在上下文的用法中理解。例如,本申请中使用的诸如“和”、“或”或者“和/或”等术语可以包括各种含义,这些含义可能至少部分取决于使用这些术语的上下文。通常,“或”如果用于关联列表,诸如A、B或C,旨在表示A、B和C(此处用于包容性意义)以及A、B或C(此处用于独占性意义)。另外,本申请中使用的术语“一个或多个”或者“至少一个”,至少取决于上下文,可用于描述单数意义上的任何特征、结构或特性,或者可以用于描述复数意义上的特征、结构或特性的组合。类似地,诸如“一”(“a”或“an”)或“该”之类的术语,可以理解为传达单数用法或者用于传达复数用法,至少部分取决于上下文。另外,术语“基于”或“由……确定”可以理解为不是必须旨在表示一组排它性因素,相反,可以允许存在不一定明确描述的其它因素,同样,至少部分取决于上下文。
3D媒体处理技术的发展(如3D采集、3D建模和3D渲染等方面的进步)促进了3D内容在若干平台和设备上无处不在的创建。这些3D内容所包含的信息可经过处理生成各种形式的媒体,以提供例如沉浸式观看/渲染和交互体验等。3D内容的应用非常广泛,包括但不限于虚拟现实、增强现实、元宇宙交互、游戏、沉浸式视频会议、机器人技术、计算机辅助设计(CAD)等。根据本公开的一个方面,为了改善沉浸式体验,3D模型变得越来越复杂,而3D模型的创建和消费需要大量的数据资源,诸如数据存储、数据传输资源和数据处理资源。
传统的2维(2D)内容通常由2D像素阵列(诸如图像)形式的数据集表示,与之相比,具有三维全分辨率像素化的3D内容可能是令人望而却步的资源密集型,并且在许多(如果不是大多数)实际应用中是不必要的。在大多数3D沉浸式应用中,根据本公开的一些方面,可以采用数据密集度较低的3D内容表示法。例如,在大多数应用中,可能只需要3D场景(由诸如LIDAR设备等传感器采集的真实世界场景或由软件工具生成的动画3D场景)中对象的地形信息,而不是体积信息。这样,可以使用效率更高的数据集来表示3D对象和3D场景。例如,可以使用3D网格作为一种3D模型来表示沉浸式3D内容(诸如3D场景中的3D对象)。
一个或多个对象的网格(也可称为网格模型)可以包括顶点集合。顶点可以彼此连接形成边。边可以进一步连接形成面。面可以进一步形成多边形。各种对象的3D表面可以被分解为,例如,面和多边形。每个顶点、边、面、多边形或表面都可以与诸如颜色、表面法线、纹理等各种属性相关联。表面的法线可以称为表面法线;和/或顶点的法线可以称为顶点法线。顶点如何连接成边、面或多边形的信息可以被称为连接性信息。连接性信息对于唯一地定义网格的组成部分是重要的,因为同一组顶点可以形成不同的面、表面和多边形。通常,顶点在3D空间中的位置可以由其3D坐标表示。一个面可以由一组顺序连接的顶点表示,每个顶点都与一组3D坐标相关联。同样,一条边可以由两个顶点表示,每个顶点都与其3D坐标相关联。可以在3D网格数据集中索引顶点、边和面。
网格可以由一种或多种这些基本元素类型的集合来定义和描述。然而,并非上述所有类型的元素都是充分描述网格所必需的。例如,仅使用顶点及其连接性便可充分描述网格。对于另一示例,仅使用面的列表和面的公共顶点便可充分描述网格。因此,网格可以是各种不同的类型,由不同的数据集成分和格式描述。示例网格类型包括但不限于面-顶点网格、翼-边网格、半边网格、四边网格、角-表网格、顶点-顶点网格等。相应地,网格数据集可以按照可替换文件格式存储信息,文件扩展名包括但不限于.raw、.blend、.fbx、.3ds、.dae、.dng、3dm、.dsf、.dwg、.obj、.ply、.pmd、.stl、amf、.wrl、.wrz、.x3d、.x3db、.x3dv、.x3dz、.x3dbz、.x3dvz、.c4d、.lwo、.smb、.msh、.mesh、.veg、.z3d、.vtk、.l4d等。这些元素的属性,诸如颜色、表面法线、纹理可以以各种方式包括在网格数据集中。
在一些实施方式中,网格的顶点可以映射到像素化的2D空间(称为UV空间)中。这样,网格的每个顶点都可以映射到UV空间中的一个像素。在一些实施方式中,一个顶点可以映射到UV空间中的一个以上像素,例如,边界上的一个顶点可以映射到UV空间中的两个或三个像素。同样,网格中的面或表面可以被采样成多个3D点,这些3D点可以是网格中记录的顶点,也可以不是,这些多个3D点也可以被映射到2维UV空间中的像素。将网格中的面或表面的顶点和采样3D点映射到UV空间中,以及随后在UV空间进行数据分析和处理,可以促进网格或网格序列的3D数据集的数据存储、压缩和编码,下文将进一步详细描述。映射的UV空间数据集可以称为UV图像,或2D地图,或网格的2D图像。
在将3D网格中的顶点和采样表面点映射到2D UV空间中之后,一些像素可能会映射到3D网格的顶点和采样表面点,而其它像素可能尚未映射(或未映射)。网格的2D图像中每个映射像素都可以与3D网格中对应映射顶点或表面点的信息相关联。根据UV空间中包含的像素信息类型,可以构建网格的各种2D图像或2D地图。多个2D地图的集合可以用作网格的替代和/或联合表示。
例如,网格的最简单的2D地图可以构建为占用地图。占用地图可以指示UV空间中映射到网格的3D顶点或采样表面点的像素。占用的指示可以由每个2D像素的二进制指示符表示,例如,二进制值“1”表示映射或占用,二进制值“0”表示非映射或非占用(未映射)。这样,可以将占用地图构建为2D图像。普通的2D图像包含具有例如8比特色深的三个通道(RGB、YUV、YCrCb等)的阵列,而这种网格的2D占用地图仅需要一个比特的二进制通道。2D图像中具有值“1”的像素被映射和占用,否则,该像素未被映射和未被占用。
再例如,可以为网格构建2D几何地图。2D几何地图不包含单个二进制通道,而是完整的三通道图像,其中每个已占用像素的三色通道对应于网格中对应映射顶点或采样3D点的三个3D坐标。
在一些实施方式中,可以为网格构建其它2D地图。例如,可以从网格数据集中提取网格的每个顶点和采样3D点的一组属性,并且可以将它们编码到2D地图图像的3颜色通道中。这种2D地图可以称为网格的属性地图。具体的属性地图可以包含UV空间中每个被占用像素的三通道颜色。对于另一示例,与网格的每个映射顶点或采样3D点相关联的纹理属性可以被参数化为三通道值并被编码到2D属性地图中。另一个示例是,与网格的每个映射顶点或采样3D点相关联的法线属性可以被参数化为三通道值,并被编码到2D属性地图中。在一些示例实施方式中,可以构建多个2D属性地图,以保存网格的顶点和采样表面点的所有必要属性信息。
以上2D地图仅仅是示例。还可以为网格构建其它类型的2D地图。另外,可以从3D网格提取其它数据集,与上述2D地图一起共同表示原始3D网格。例如,顶点之间的连接或连接性信息可以单独分组,并以列表、表格等形式与2D地图分开组织。例如,连接性信息可以使用顶点索引来指代顶点。顶点索引可以映射到2D地图中对应的像素位置。另一个例子是,表面纹理、颜色、法线、位移和其它信息可以单独提取,并与2D地图分开组织,而不是作为2D地图。还可以进一步从3D网格提取其它元数据,以结合2D地图和以上其它数据集来表示3D网格。
虽然上述示例实施方式侧重于静态网格,但是根据本公开的一方面,3D网格可以是动态的。例如,动态网格可以指网格中的至少一个组成部分(几何信息、连接性信息、映射信息、顶点属性和属性地图)随时间变化的网格。因此,动态网格可以用网格序列或网格(也被称为网格帧)来描述,类似于构成视频的2D图像帧的定时序列。
在一些示例实施方式中,动态网格可以具有恒定的连接性信息、时变几何和时变顶点属性。在其它一些示例中,动态网格可以具有时变连接性信息。在一些示例中,数字3D内容创建工具可用于生成具有时变属性地图和时变连接性信息的动态网格。在其它一些示例中,体积采集/检测/传感技术可以用于生成动态网格。体积采集技术可以生成具有时变连接性信息的动态网格,尤其是在实时约束下。
动态网格可能需要大量数据,因为动态网格可能包括随时间变化的大量信息。然而,可以进行压缩以利用网格帧内(帧内压缩)和网格帧之间(帧间压缩)的冗余。可以实现各种网格压缩过程,以便高效地存储和传输网格表示中的媒体内容,特别是网格序列。
本公开的各方面提供了用于网格压缩的示例架构和技术。这些技术可以用于各种网格压缩,包括但不限于静态网格压缩、动态网格压缩、具有恒定连接性信息的动态网格压缩、具有时变连接性信息的动态网格压缩、具有时变属性地图的动态网格压缩等。这些技术可以用于各种应用的有损和无损压缩,诸如实时沉浸式通信、存储、自由视点视频、增强现实(AR)和虚拟现实(VR)。这些应用可以包括随机访问和可缩放/渐进编码等功能。
虽然本公开明确地描述了适用于3D网格的技术和实现,但是本文中描述的各种实现所基于的原理可适用于其它类型的3D数据结构,包括但不限于点云(PC)数据结构。为简单起见,下文对3D网格的引用意在泛指并且包括其它类型的3D表示,诸如点云和其它3D体积数据集。
首先转向示例架构级实现,图1图示了根据本公开示例实施例的通信系统(100)的简化框图。通信系统(100)包括可以经由例如通信网络(150)(也可称为网络)彼此通信的多个终端装置。例如,通信系统(100)可以包括经由网络(150)互连的一对终端装置(110)和(120)。在图1的示例中,第一对终端装置(110)和(120)可以执行3D网格的单向传输。例如,终端装置(110)可以压缩3D网格或3D网格序列,3D网格或3D网格序列可以由终端装置(110)生成,或者从存储中获得,或者由与终端装置(110)连接的3D传感器(105)采集。压缩的3D网格或3D网格序列可以经由网络(150),例如以码流(也称为已编码码流)的形式,传输到另一终端装置(120)。终端装置(120)可以从网络(150)接收压缩的3D网格或3D网格序列,对码流进行解压缩以重建原始3D网格或3D网格序列,并且适当地处理已重建3D网格或3D网格序列以用于显示或用于其它目的/用途。单向数据传输在媒体服务应用等中可为常见的。
在图1的示例中,终端装置(110)和终端装置(120)中的一个或两个可以实现为服务器、固定或移动个人计算机、膝上型计算机、平板计算机、智能电话、游戏终端、媒体播放器和/或专用三维(3D)装备等,但是本公开的原理可以不限于此。网络(150)可以表示在终端装置(110)与终端装置(120)之间传输压缩的3D网格的任何类型的网络或网络的组合。网络(150)可以包括例如有线(有线)和/或无线通信网络。网络(150)可以在电路交换信道和/或分组交换信道中交换数据。代表性网络包括长途电信网络、局域网、广域网、蜂窝网络和/或因特网。就本公开而言,网络(150)的架构和拓扑可能对本公开的操作无关紧要,除非在下文另有解释。
图2图示了根据本公开实施例的流式传输系统(200)的示例简化框图。图2图示了与3D网格和压缩的3D网格相关的所公开实施方式的示例应用。所公开主题可以同样适用于其它支持3D网格和点云的应用,诸如3D远程呈现应用、虚拟现实应用等。
流式传输系统(200)可以包括采集或存储子系统(213)。采集或存储子系统(213)可以包括生成或提供未压缩的3D网格(202)或点云(202)的3D网格生成器或存储介质(201),例如,3D网格或点云生成工具/软件、图形生成组件或诸如光检测和测距(LIDAR)系统、3D相机、3D扫描仪、3D网格存储的点云传感器。在一些示例实施方式中,3D网格(202)包括3D网格的顶点或点云的3D点(两者均称为3D网格)。3D网格(202)描绘为粗线,以强调与压缩的3D网格(204)(压缩的3D网格的码流)相比,对应的数据量较高。压缩的3D网格(204)可以由电子装置(220)生成,该电子装置(220)包括耦合到3D网格(202)的编码器(203)。编码器(203)可以包括硬件、软件或其组合,以启用或实现下文更详细描述的所公开主题的各个方面。压缩的3D网格(204)(或压缩的3D网格(204)的码流)描绘为细线,以强调与未压缩的3D网格(202)的码流相比,其具有较低的数据量,其可以存储在流式传输服务器(205)上以供将来使用。一个或多个流式传输客户端子系统,诸如图2中的客户端子系统(206)和(208),可以访问流式传输服务器(205),以检索压缩的3D网格(204)的副本(207)和副本(209)。客户端子系统(206)可以包括例如电子装置(230)中的解码器(210)。解码器(210)可以被配置为对压缩的3D网格的传入副本(207)进行解码,并且创建可以在呈现装置(212)上呈现或用于其它用途的已重建3D网格的输出流(211)。
请注意,电子装置(220)和(230)可以包括其它组件(未示出)。例如,电子装置(220)可以包括解码器(未示出),并且电子装置(230)也可以包括编码器(未示出)。
在一些流式传输系统中,压缩的3D网格(204)、(207)和(209)(例如,压缩的3D网格的码流)可以根据特定的标准来压缩。在一些示例中,如下文进一步详细描述,视频编码标准用于在首先将3D网格投影以映射到适合于视频压缩的2D表示之后,利用3D网格压缩中的冗余和相关性。这些标准的非限制性示例包括高效视频编码(HEVC)、通用视频编码(VVC)等,详见下文。
压缩的3D网格或3D网格序列可以由编码器生成,而解码器可以被配置为对压缩的或编码的3D网格进行解压缩。图3图示了这样的编码器(301)和解码器(303)中3D网格的高级示例数据流。如图3所示,原始输入3D网格或3D网格序列(302)可以通过轨迹重新网格化、参数化和/或体素化进行预处理,以生成输入到映射单元的数据,该映射单元用于将3D网格映射到2D UV空间(304),在一些实施方式中,2D UV空间可以包括具有UV图集的网格。可以对3D网格进行采样,以包括可能不在顶点中的3D表面点,并在映射到UV空间时添加这些采样3D表面点。编码器301可生成各种2D地图,包括但不限于占用地图(310)、几何地图(312)、属性地图(314)。编码器301可以使用例如视频编码/压缩技术等对这些图像类型的地图进行压缩。例如,视频编码器可以使用帧内预测技术和其它3D网格参考帧的帧间预测来帮助压缩3D网格帧。其它非图像或非地图数据或元数据(316)也可以通过各种方式进行编码,以消除冗余,从而经由熵编码生成压缩的非地图数据,作为非限制性示例。然后,编码器301可以组合或复用压缩的2D地图和非地图数据,并且对组合的数据进行进一步编码,以生成已编码码流(可选地被称为已编码码流)。然后,已编码码流可以被存储或传输,以供解码器303使用。解码器可以被配置为对码流进行解码,解复用已解码码流以获得压缩的2D地图和非地图数据,并且执行预解压缩以生成已解码占用地图(320)、已解码几何地图(322)、已解码属性地图(324)和已解码非地图数据和元数据(326)。然后,解码器303可以进一步被配置为从已解码2D地图(320、322和324)和已解码非地图数据(326)重建3D网格或3D网格序列(330)。
更详细地,图4示出了根据本公开一些实施例的用于对3D网格帧进行编码的示例3D网格编码器(400)的框图。在一些示例实施方式中,网格编码器(400)可以用于通信系统(100)和流式传输系统(200)中。例如,编码器(203)可以以与网格编码器(400)类似的方式进行配置和操作。
网格编码器(400)可以接收作为未压缩输入的3D网格帧,并且生成对应于压缩的3D网格帧的码流。在一些示例实施方式中,网格编码器(400)可以从诸如图2的网格或点云源(201)等任何源接收3D网格帧。
在图4的示例中,网格编码器(400)可以包括面片生成模块(406)(也可称为图表生成模块)、面片打包模块(408)、几何图像生成模块(410)、纹理图像生成模块(412)、面片信息模块(404)、占用地图模块(414)、平滑模块(436)、图像填充模块(416)和(418)、组扩张模块(420)、视频压缩模块(422)、(423)和(432)、辅助面片信息压缩模块(438)、熵压缩模块(434)以及复用器(424)。
在本公开的各种实施例中,模块可以指软件模块、硬件模块或其组合。软件模块可以包括计算机程序或计算机程序的一部分,具有预定义功能,并与其它相关部分一起工作以实现预定义目标(诸如在本公开中描述的那些功能)。硬件模块可以使用处理电路和/或存储器来实现,这些电路和/或存储器被配置为执行本公开中描述的功能。每个模块可以使用一个或多个处理器(或处理器和存储器)来实现。同样,一个处理器(或多个处理器和存储器)可以用于实现一个或多个模块。此外,每个模块都可以是包括模块功能的整个模块的一部分。这里的描述也可以应用于术语模块和其它等效术语(例如,单元)。
根据本公开的一方面,如上所述,网格编码器(400)将3D网格帧转换为基于图像的表示(例如,2D地图)以及一些非地图元数据(例如,面片或图表信息),这些元数据用于协助将压缩的3D网格转换回解压缩的3D网格。在一些示例中,网格编码器(400)可以将3D网格帧转换为2D几何地图或图像、纹理地图或图像以及占用地图或图像,然后使用视频编码技术将几何图像、纹理图像和占用图像连同元数据和其它压缩的非地图数据编码到码流中。通常,并且如上所述,2D几何图像是一种其2D像素填充的几何值与投影到2D像素的3D点相关联(术语“投影”用于指“映射”)的2D图像,填充有几何值的2D像素可以称为几何样本。纹理图像是一种其像素填充的纹理值与投影到2D像素的3D点相关联的2D图像,填充有纹理值的2D像素可以称为纹理样本。占用地图是一种其2D像素填充的值指示被3D点占用或未被占用的2D图像。
面片生成模块(406)将3D网格分割为可以重叠或不重叠的一组图表或面片(例如,面片被定义为由3D网格或点云描述的表面的连续子集),使得每个面片可以由相对于2D空间中的平面的深度场来描述(例如,使表面变平,使得表面上更深的3D点离对应的2D地图的中心更远)。在一些实施例中,面片生成模块(406)旨在将3D网格分解为具有平滑边界的最小数量的面片,同时还使重建误差最小化。
面片信息模块(404)可以收集指示面片的大小和形状的面片信息。在一些示例中,面片信息可以被打包到数据帧中,并且然后由辅助面片信息压缩模块(438)编码,以生成压缩的辅助面片信息。辅助面片压缩可以以各种形式实现,包括但不限于各种类型的算术编码。
面片或图表打包模块(408)可以被配置为将提取的面片映射到UV空间的2D格子上,同时最小化未使用的空间。在一些示例实施方式中,2D UV空间的像素可以被颗粒化为像素块,用于映射面片或图表。块大小可以预定义。例如,块大小可以是M×M(例如,16×16)。有了这样的粒度,就可以保证2D UV格子的每个M×M块都与唯一的面片相关联。换言之,将每个面片都以M×M的2D粒度映射到2D UV空间。有效的面片打包可以通过最小化未使用的空间或确保时间一致性来直接影响压缩效率。下面将进一步详细介绍将面片或图表打包到2D UV空间中的示例实施方式。
几何图像生成模块(410)可以在2D格子中的给定面片位置生成与3D网格的几何结构相关联的2D几何图像。纹理图像生成模块(412)可以在2D格子中的给定面片位置生成与3D网格的纹理相关联的2D纹理图像。如上所述,几何图像生成模块(410)和纹理图像生成模块(412)主要利用在上述打包过程中计算的3D到2D映射,将3D网格的几何结构和纹理存储为2D图像。在一些实现中,为了更好地处理多个点投影到同一样本的情况(例如,面片在网格的3D空间中重叠),可以对2D图像进行分层。换言之,每个面片可以投影到例如称为层的两个图像上,使得多个点可以被投影到不同层中的相同点上。
在一些示例实施方式中,几何图像可以由宽度×高度(W×H)的单色帧来表示。这样,可以使用3个亮度通道或3个色度通道的三个几何图像来表示3D坐标。在一些示例实施方式中,几何图像可以由具有三个通道(RGB、YUV、YCrCb等)的2D图像来表示,该三个通道具有一定色深(例如,8比特、12比特、16比特)。这样,具有3个颜色通道的几何图像可以用于表示3D坐标。
为了生成纹理图像,纹理生成过程利用已重建/平滑过的几何结构,以便计算与原始3D网格中的采样点相关联的颜色(参见图3的“采样”,例如,这将生成不在原始3D网格顶点中的3D表面点)。
占用地图模块(414)可以被配置为生成描述每个单元的填充信息的占用地图。例如,如上所述,占用图像可以包括二进制图,该二进制图指示2D格子的每个单元指示该单元是属于空白空间还是属于3D网格。在一些示例实施方式中,占用地图可以使用二进制信息来描述每个像素是否被填充。在其它一些示例实施方式中,占用地图可以使用二进制信息来为每个像素块(例如,每个M×M块)描述该像素块是否被填充。
占用地图模块(414)生成的占用地图可以使用无损编码或有损编码来压缩。当使用无损编码时,使用熵压缩模块(434)压缩占用地图。当使用有损编码时,使用视频压缩模块(432)压缩占用地图。
应注意,面片打包模块(408)可以在打包在图像帧中的2D面片之间留下一些空白空间。图像填充模块(416)和(418)可以填满这些空白空间(称为填充),以生成可以适用于2D视频和图像编解码器的图像帧。图像填充也被称为背景填满,其可以用冗余信息填满未使用的空间。在一些示例中,实施良好的背景填满可以最低限度地增加比特速率,同时避免在面片边界周围引入明显的编码失真。
视频压缩模块(422)、(423)和(432)可以基于合适的视频编码标准(诸如HEVC、VVC等)对2D图像(诸如填充的几何图像、填充的纹理图像和占用地图)进行编码。在一些示例实施方式中,视频压缩模块(422)、(423)和(432)是分开操作的单独部件。应注意,在其它一些示例实施方式中,视频压缩模块(422)、(423)和(432)可以实现为单个部件。
在一些示例实施方式中,平滑模块(436)可以被配置为生成已重建几何图像的平滑图像。可以将平滑图像提供给纹理图像生成模块(412)。然后,纹理图像生成模块(412)可以基于已重建几何图像调整纹理图像的生成。例如,当面片形状(例如,几何结构)在编码和解码期间有轻微失真时,可以在生成纹理图像时考虑该失真以校正面片形状中的失真。
在一些实施例中,组扩张模块(420)被配置为利用冗余低频内容填充对象边界周围的像素,以便提高编码增益以及已重建3D网格的视觉质量。
复用器(424)可以被配置为将压缩的几何图像、压缩的纹理图像、压缩的占用地图和压缩的辅助面片信息,多路复用到压缩的码流中。
图5示出了根据本公开一些实施例的用于解码与3D网格帧对应的压缩的码流的示例网格解码器(500)框图。在一些示例实施方式中,网格解码器(500)可以用于通信系统(100)和流式传输系统(200)。例如,解码器(210)可以被配置为以与网格解码器(500)类似的方式操作。网格解码器(500)接收压缩的码流,并且基于压缩的码流生成已重建3D网格,压缩的码流包括例如压缩的几何图形图像、压缩的纹理图像、压缩的占用地图和压缩的辅助面片信息。
在图5的示例中,网格解码器(500)可以包括解复用器(532)、视频解压缩模块(534)和(536)、占用地图解压缩模块(538)、辅助面片信息解压缩模块(542)、几何重建模块(544)、平滑模块(546)、纹理重建模块(548)和颜色平滑模块(552)。
解复用器(532)可以接收压缩的码流,并将其分离成压缩的纹理图像、压缩的几何图像、压缩的占用地图和压缩的辅助面片信息。
视频解压缩模块(534)和(536)可以根据适当的标准(例如,HEVC、VVC),对压缩的图像进行解码,并输出解压缩的图像。例如,视频解压缩模块(534)可以对压缩的纹理图像进行解码,并输出解压缩的纹理图像。视频解压缩模块(536)可以进一步对压缩的几何图像进行解码,并输出解压缩的几何图像。
占用地图解压缩模块(538)可以被配置为根据适当的标准(例如,HEVC、VVC)对压缩的占用地图进行解码,并输出解压缩的占用地图。
辅助面片信息解压缩模块(542)可以被配置为根据适当的解码算法对压缩的辅助面片信息进行解码,并输出解压缩的辅助面片信息。
几何重建模块(544)可以被配置为接收解压缩的几何图像,并且基于解压缩的占用地图和解压缩的辅助面片信息,生成已重建3D网格几何结构。
平滑模块(546)可以被配置为对面片边缘处的不一致进行平滑。平滑过程旨在减轻可能由于压缩伪影而可能在面片边界处出现的不连续性。在一些示例实施方式中,可以将平滑滤波器应用于位于面片边界上的像素,以减轻可能由压缩/解压缩引起的失真。
纹理重建模块(548)可以被配置为基于解压缩的纹理图像和平滑后的几何结构确定3D网格中的点的纹理信息。
颜色平滑模块(552)可以被配置为对着色的不一致进行平滑。3D空间中的非相邻面片通常在2D视频中被打包成彼此相邻。在一些示例中,来自非相邻面片的像素值可以由基于块的视频编解码器混合。颜色平滑的目的可以是减少出现在面片边界处的可见伪影。
图6示出了根据本公开实施例的示例视频解码器(610)的框图。视频解码器(610)可以用在网格解码器(500)中。例如,视频解压缩模块(534)和(536)以及占用地图解压缩模块(538)可以被类似地配置为视频解码器(610)。
视频解码器(610)可包括解析器(620),以根据已编码视频序列等压缩图像重建符号(621)。这些符号的类别可以包括用于管理视频解码器(610)的操作的信息。解析器(620)可对正在接收的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffmancoding)、具有或不具有上下文灵敏度的算术编码等等。解析器(620)可基于对应于群组的至少一个参数,从已编码视频序列中提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块(tile)、条带(slice)、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(620)还可从已编码视频序列提取信息,例如,变换系数、量化器参数值、运动矢量等等。
解析器(620)可对从缓冲存储器接收的图像序列执行熵解码/解析操作,从而创建符号(621)。
取决于已编码视频图片或已编码视频图片部分的类型(例如:帧间图片和帧内图片、帧间块和帧内块)以及其它因素,符号(621)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(620)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(620)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(610)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且至少可以部分彼此集成。概念上细分成下文的功能单元仅出于描述所公开主题的目的。
视频解码器(610)可以包括缩放器/逆变换单元(651)。缩放器/逆变换单元(651)从解析器(620)接收作为符号(621)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(651)可输出包括样本值的块,所述样本值可输入到聚合器(655)中。
在一些情况下,缩放器/逆变换单元(651)的输出样本可属于帧内编码块;即:不使用来自先前已重建图片的预测性信息、但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(652)提供。在一些情况下,帧内图片预测单元(652)可采用从当前图片缓冲器(658)提取的周围已重建信息,生成大小和形状与正在重建的块相同的块。举例来说,当前图片缓冲器(658)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(655)基于每个样本,将帧内预测单元(652)生成的预测信息添加到由缩放器/逆变换单元(651)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(651)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(653)可访问参考图片存储器(657)以提取用于预测的样本。在根据属于所述块的符号(621)对提取的样本进行运动补偿之后,这些样本可由聚合器(655)添加到缩放器/逆变换单元(651)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(653)从参考图片存储器(657)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(621)的形式而供运动补偿预测单元(653)使用,所述符号(621)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(657)提取的样本值的插值、运动矢量预测机制等等。
聚合器(655)的输出样本可在环路滤波器单元(656)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(620)的符号(621)可用于环路滤波器单元(656),但是还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(656)的输出可以是样本流,所述样本流可输出到显示装置以及存储在参考图片存储器(657)中,以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(620))被识别为参考图片,则当前图片缓冲器(658)可变为参考图片存储器(657)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(610)可根据例如ITU-T H.265建议书等标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(HypotheticalReference Decoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
图7示出了根据本申请公开的实施例的视频编码器(703)的框图。视频编码器(703)可用于压缩3D网格或点云的网格编码器(400)。在一些示例实施方式中,视频压缩模块(422)和(423)以及视频压缩模块(432)的配置与编码器(703)类似。
视频编码器(703)可接收2D图像,如填充几何图像、填充纹理图像等等之类,并生成压缩图像。
根据本申请公开的示例实施例,视频编码器(703)可实时或在由应用所要求的任何其它时间约束下,将源视频序列(图像)的图片编码且压缩成已编码视频序列(压缩图像)。施行适当的编码速度是控制器(750)的一个功能。在一些实施例中,控制器(750)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(750)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(750)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(703)。
在一些示例实施方式中,视频编码器(703)可配置在编码环路中运作。作为简单的描述,在一个示例中,编码环路可包括源编码器(730)(例如,负责基于待编码的输入图片和参考图片创建符号,例如,符号流)和嵌入于视频编码器(703)中的(本地)解码器(733)。解码器(733)可以以类似于(远程)解码器创建样本数据的方式重建符号,以创建样本数据(因为在本申请所公开的主题所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。重建的样本流(样本数据)可以输入到参考图片存储器(734)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(734)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(733)的操作可与例如已在上文结合图6详细描述视频解码器(610)的“远程”解码器相同。然而,另外简要参考图6,当符号可用且熵编码器(745)和解析器(620)能够无损地将符号编码/解码到已编解码视频序列时,包括解析器(620)在内的视频解码器(610)的熵解码部分,可能不完全在本地解码器(733)中实施。
在本申请公开的各种实施例中,除存在于解码器中的解析/熵解码之外的任何解码器技术,也可能必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些示例中,源编码器(730)可执行运动补偿预测编码,参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,对输入图片进行预测性编码。以此方式,编码引擎(732)可以对输入图片的像素块与参考图片的像素块之间的差值进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(733)可基于源编码器(730)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(732)的操作可为有损过程。当已编码视频数据可在视频解码器(图7中未示)处解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(733)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(734)中。以此方式,视频编码器(703)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(735)可针对编码引擎(732)执行预测搜索。即,对于将要编码的新图片,预测器(735)可在参考图片存储器(734)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如,参考图片运动矢量、块形状等。预测器(735)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(735)获得的搜索结果,可确定输入图片可具有从参考图片存储器(734)中存储的多个参考图片取得的预测参考。
控制器(750)可管理源编码器(730)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(745)中对所有上述功能单元的输出进行熵编码。熵编码器(745)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
控制器(750)可管理视频编码器(703)的操作。在编码期间,控制器(750)可以为每个已编码图片分配某一已编码图片类型,这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,每个具有4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(703)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(703)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
采集到的视频可作为呈时间序列的多个源图片(图像)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如,按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如,64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如,帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如,8×8像素、16×16像素、8×16像素、16×8像素等等。
在各种实施例中,以上网格编码器(400)和网格解码器(500)可以用硬件、软件或其组合来实现。例如,网格编码器(400)和网格解码器(500)可以用诸如在有或没有软件的情况下操作的一个或多个集成电路(IC)的处理电路系统来实现,诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)。在另一示例中,网格编码器(400)和网格解码器(500)可以被实现为包括存储在非易失性(或非易失性)计算机可读存储介质中的指令的软件或固件。这些指令在由诸如一个或多个处理器的处理电路系统执行时使处理电路系统执行网格编码器(400)和/或网格解码器(500)的功能。
返回到图4的面片生成模块406,在将3D网格的顶点和采样3D点映射到2D UV空间的一些示例实施方式中,3D网格可以被划分为面片(也可称为分区或部分)。如上所述,面片可以在3D网格中重叠或不重叠。每个面片可以被分离地映射到2D UV空间。
在一些示例实施方式中,可以生成非重叠面片。这种面片可以被称为3D网格的图表。如上所述,在一些示例实施方式中,图4的面片生成模块(406)旨在将3D网格分解为具有平滑边界的最小数量的面片,同时还能使重建误差最小化。
例如,表示3D场景的网格可以包括多个3D对象。每个3D对象可以由一个或多个表面描述。每个3D对象可以被进一步分区成不同的表面面片。例如,网格中人物的3D模型可以被分解为头部、躯干、手臂和腿部等各个部分。这样,3D场景可以被分解为表面或表面的部分,每个表面或表面的部分形成3D网格的图表。整个网格到UV空间的映射可以被分解为网格的多个图表到UV空间的映射。
再回到图4的面片打包模块408,在一些示例实施方式中,3D网格的不同图表可以被映射到UV空间中的区域(或2D面片)。例如,每个2D区域或面片都可以由相对于2D空间中的平面的深度场来描述(例如,使表面变平,使得表面上更深的3D点离对应的2D地图的中心更远)。在一些示例实施方式中,与3D网格的各种图表或面片对应的2D区域或面片可以不重叠,如图8中的示例所图示。在图8中,3D网格802可以被分区为非重叠图表(部分或分区),包括,例如,可以分别被映射到2D UV空间中的2D地图820的非重叠2D区域或面片824、826、828和829的图表804、806、808和809。在2D地图中的区域824、826、828和829中的每一个中,像素的集合可以被映射到3D网格的对应的图表中的顶点或采样3D表面点。这些区域的每一个中的其余像素可以不被映射(或占用)。
在其它一些示例实施方式中,网格的不同图表可能不需要以非重叠方式映射到2DUV的区域。在通过图4中的面片打包函数408完成3D到2D的映射后,3D网格的不同图表可以在2D UV空间中重叠,只要2D地图中的占用点不重叠即可。图9是一个示例。图9示出了3D网格802,其图表与图8相同,只是图表804和809分别映射到2D UV空间中2D地图820的独立非重叠区域824和829,而3D网格的图表806和808则映射到2D地图820的重叠区域828和926。如上文所述,这种实施方式可以帮助实现更紧凑的2D地图。
图11进一步图示了这种将网格的3D图表重叠打包到2D地图中的情况。具体地,如图10所示,已包含3D网格的一个或多个图表的2D占用地图显示为1002。3D网格的附加图表可以映射到2×4子2D地图1004中,其将被打包到整个3D地图1002中。子2D地图1004到1002的打包,可能不需要在1002中留出干净的(或全零的)2×4区域。相反,只要该区域与2×4子2D地图1004没有重叠“1”,就可以将子2D地图1004打包到1002的2×4区域中。在图10的示例中,2D占用地图1002中的两个2×4区域(示为1006和1008)可以用于打包子2D地图1004,因为每个区域1006和1008中已被占用的位置(具有二进制值“1”)不会与子2D地图1004中已被占用的位置(具有二进制值“1”的位置)重叠。可以选择区域1006和1008中的一个区域用于打包子2D地图1004。例如,可以选择区域1006用于打包。在这种打包之后,组合的2D占用地图显示为1010。如图10的示例所示,这种打包允许区域重叠,从而使2D地图更紧凑。
下面将更详细地描述将点云或3D网格的面片或图表高效且快速打包到2D地图或2D图像的示例实施方式。可以将这些实施方式应用于图4的网格编码器400的面片打包模块408。为了简单起见,下文在将图4的网格编码器400的面片生成模块406生成的3D网格图表打包到2D占用地图或图像的背景下描述本公开。应注意,这种打包也适用于其它2D地图,包括几何地图/图像、深度2D图像、纹理地图/图像等。这些不同的示例实施方式适用于静态3D网格,其中每个网格仅有一帧,或者网格内容不随时间改变。此外,这些示例实施方式也适用于动态3D网格或3D网格序列的网格帧。
图11示出了与3D网格帧的图表相对应的占用地图1102。例如,图表可以对应于3D网格帧的一部分。该图表可以是由图4的网格编码器400的面片生成模块406生成的多个图表之一。占用地图1102可以是指示地图中的哪些像素被占用并且因此与3D网格中的顶点或采样表面点相对应的二进制地图。例如,占用地图1102中的二进制值可以是“0”或“1”,值“1”可以用于指示占用,而值“0”可以用于指示非占用。占用地图的可视指引显示为1104,以黑色表示地图中被占用的区域。
在一些示例实施方式中,可以生成如图4的网格编码器400的面片生成模块406提供的输入3D网格帧的多个图表中每个图表的占用地图,类似于图11的特定占用地图1102。
在一些示例实施方式中,可以沿边缘填充零,以将占用地图扩展到任何预定义或配置的区域。在图4的示例填充的占用地图1106中,分别在占用地图1102的顶部、底部、左侧和右侧填充了三行、一行、四列、三列零,从而扩大了占用地图。图11中的这两个占用地图1102和1106表示3D网格的示例投影图表的相同占用信息。在一些实际实现中,图4的网格编码器400的面片生成模块406可以被配置为生成每个图表的最小大小的占用地图。如果需要,可以直接扩展以放大的占用地图。
为了打包,创建了投影图像的占用地图,占用地图的像素值(与投影图像大小相同)初始化为0。投影图像将容纳所有投影图表。当投影图表被打包到投影图像中时,投影图像的占用地图将被更新,其中与投影图表中被占用像素相对应的像素值将被更新为1。
然后可以将上述3D网格中多个图表的占用地图打包成整体占用地图。如上所述,为了更紧凑地打包,只要一个图表的占用地图的已占用像素不投影到整体占用地图上与3D网格帧的其它图表的占用地图的已占用像素相对应的像素上,就可以允许各个图表的占用地图在整体占用地图中的某些区域重叠,如图10所图示,如上所述。
重申一下,如图10所示,已包含3D网格的一个或多个图表的2D占用地图显示为1002。3D网格的附加图表可以映射到2×4子2D地图1004中,其将被打包到整个3D地图1002中。子2D地图1004到1002的打包,可能不需要在1002中留出干净的(或全零的)2×4区域。相反,只要该区域与2×4子2D地图1004没有重叠“1”,就可以将子2D地图1004打包到1002的2×4区域中。在图10的示例中,2D占用地图1002中的两个2×4区域(示为1006和1008)可以用于打包子2D地图1004,因为每个区域1006和1008中已被占用的位置(具有二进制值“1”)不会与子2D地图1004中已被占用的位置(具有二进制值“1”的位置)重叠。可以选择区域1006和1008中的一个区域用于打包子2D地图1004。例如,可以选择区域1006用于打包。在这种打包之后,组合的2D占用地图显示为1010。如图10的示例所示,这种打包允许区域重叠,从而使2D地图更紧凑。
在2D占用地图1002中识别候选打包位置或候选打包区域1006和1008,以打包3D网格帧对应图表的子2D地图1004,可以以各种方式执行。这种识别的标准可以是,与子2D地图1004中二进制值为“1”的位置相对应的候选区域中的像素必须不为“1”。换言之,投影图表的子2D占用地图1004与整个2D占用地图1002中的候选区域之间的逐元素乘积的总和应当为零。因此,可以执行简单的无重叠检查算法,检查整体占用地图1002中所有面片与要打包的投影图表1004的子2D占用地图的逐元素乘积总和。如果总和为零,则可以打包到该位置而不会重叠;否则,如果总和大于零,这意味着对于某些像素,两个占用地图都被占用,如果被打包到该位置中,则会发生重叠。
在一些用于识别这种候选打包区域的一般示例实施方式中,可以迭代地计算投影图表的占用地图与经移动窗口滤波的整个地图的面片之间的逐元素乘积的总和,直到在某些位置,该总和为零。下文将进一步描述一种使用图像滤波来计算不同位置的总和的示例高效方法。
在一些示例实施方式中,这种图像滤波过程可以设计为计算2D矩阵与2D内核的相关性。给定2D矩阵Mat(x,y)和大小为M*N的2D内核ker(x’,y’),输出相关矩阵Out(x,y)可以被定义为
因此,通过将投影图像的占用地图(整个占用图像)设置为2D矩阵Mat(x,y),将投影图像的占用地图设置为2D内核ker(x’,y’),Out(0,0)将给出投影图表的占用地图与位置(0,0)处的投影图像之一之间的逐元素乘积的总和,Out(0,1)将给出投影图表的占用地图与位置(0,1)处的投影图像之一之间的逐元素乘积的总和,依此类推。同时,例如通过使用快速傅立叶变换(FFT),可以非常高效地计算图像滤波。在导出输出相关矩阵Out(x,y)之后,就可以得到所有可能位置(整个2D占用图像中的像素位置)的逐元素乘积的总和。以上基于图像滤波的计算本质上是一种卷积操作,可以利用诸如由GPU提供的并行性的硬件支持高效执行。
特别地,由于空间卷积对应于空间频域中的乘法运算,上述内核(图表的2D地图)和整个2D地图之间的卷积计算可以通过快速傅立叶变换到频域执行,并在频域中执行乘法运算,之后进行逆快速傅里叶变换。
因此,从网格编码器400的面片生成模块406产生的3D网格帧的多个图表开始,空白的整个2D占用地图可以根据以下示例过程由图表迭代地打包:
生成投影图像的初始整体占用地图,整体占用地图的像素值初始化为全部“0”二进制值;
获取投影图表C,生成投影图表的子占用地图;
执行图像滤波,以计算投影图像的整体占用地图与投影图表(内核)的占用地图的相关性或卷积,生成输出相关或卷积矩阵;
从输出相关矩阵中选择值为0的一个矩阵元素;
根据所选矩阵元素在输出相关矩阵中的位置,确定整个占用图像中用于打包投影图表C的位置;
通过将投影图表C打包到上述确定的整体占用地图中的位置,用投影图像更新整体占用地图;
重复以上步骤,逐个打包所有图表,以迭代地更新整体占用地图。
上述可能需要选择打包位置的步骤,是因为在输出相关矩阵中,经常可能有不止一个矩阵元素的值为0。从多个候选位置中选择打包位置可以通过各种方式执行。
在一些示例实施方式中,可以选择输出相关矩阵的所有零值元素中像素坐标在其中一个2D维度上最小的零值元素。例如,可以选择在宽度方向具有最小像素坐标的零值元素。同样,可以选择在高度方向具有最小像素坐标的零值元素。
在其它一些示例实施方式中,可以选择输出相关矩阵的所有零值元素中像素坐标在2D维度的两个维度上总和最小的零值元素。具体地,可以选择宽度加高度像素值最小的零值元素,用于确定整体占用地图中用于打包当前图表的位置。
在其它一些示例实施方式中,输出相关矩阵中的零值元素可以根据相关矩阵中零值元素的宽度和高度位置的优化函数,在所有非零值中进行选择。这种优化函数可以包括但不限于诸如lp范数函数的优化函数。
在其它一些替代实施方式中,输出相关矩阵的零值元素可以基于时间约束进行选择。例如,当投影图表C在(xp,yp)处具有首选打包位置时,可以对所有零值元素执行搜索。在一些示例实施方式中,如果(xp,yp)是零值元素,则可以选择(xp,yp)来确定打包位置。如果(xp,yp)不是相关矩阵中的零值元素,则可以例如基于xp、yp、x和y的优化函数来选择相关矩阵中(xp,yp)邻域内的零值元素(x,y)。这种优化函数例如可以包括但不限于(x-xp)和(y-yp)的lp范数函数。例如,可以识别具有最小lp范数(或到首选位置(xp,yp)的曼哈顿距离)的零值元素用于打包。
在其它一些实施方式中,在上述基于图像滤波的快速紧凑图表打包方法中,可能不需要遍历该过程,在整个投影图像中导出用于打包图表的所有候选可能位置。例如,当第一个零值位置(输出相关矩阵元素为0)被识别并可用时,可以终止该过程,并且可以将投影图表分配给该最早识别的位置。
图12示出了根据本公开实施例的示例过程(1200)的流程图。过程(1200)在步骤(S1201)开始。在步骤(S1210)中,获取对应于3D网格帧的初始2D占用地图。初始2D占用地图包括具有第一预定义值的零个或多个像素,第一预定义值指示零个或多个像素已被映射到3D网格帧的至少一个其它部分,至少一个其它部分与3D网格帧的第一部分不重叠;以及具有第二预定义值的剩余像素,第二预定义值指示剩余像素未被映射到3D网格帧。在步骤(S1220)中,生成3D网格帧的第一部分的2D占用矩阵,其中第一预定义值对应于已占用像素,第二预定义值对应于未占用像素。在步骤(S1230)中,计算初始2D占用地图与2D占用矩阵之间的相关矩阵。在步骤(S1240)中,识别相关矩阵中的零值目标元素。在步骤(S1250)中,通过用2D占用矩阵中的对应元素替换初始2D占用地图的面片中具有第二预定义值的像素,生成更新的2D占用地图,其中,面片与2D占用矩阵的大小相同,面片位于初始2D占用地图中的打包位置,根据相关矩阵中零值目标元素的位置确定。过程(1200)在步骤(S1299)处停止。过程(1200)可以迭代,以将3D网格的所有图表或部分图表打包到2D占用地图中。
可以适当地调整过程(1200)。可以修改和/或省略过程(1200)中的一个或多个步骤。可以增加附加的一个或多个步骤。可以使用任何合适的实施顺序。
本公开公开的技术可以单独使用或以任何顺序组合使用。进一步地,技术(例如,方法、实施例)、编码器和解码器中的每一者可以由处理电路系统(例如,一个或多个处理器或一个或多个集成电路)来实现。在一些示例中,一个或多个处理器执行存储在非易失性计算机可读介质中的程序。
上文所描述的技术可使用计算机可读指令实施为计算机软件且以物理方式存储在一个或多个计算机可读介质中。举例来说,图13示出适于实施所公开主题的某些实施例的计算机系统(1300)。
所述计算机软件可使用任何合适的机器代码或计算机语言来编码,所述机器代码或计算机语言可经受汇编、编译、链接或类似机制以创建包括指令的代码,所述指令可直接或通过解译、微码执行等而由一个或多个计算机中央处理单元(CPU)、图形处理单元(GPU)等执行。
所述指令可在各种类型的计算机或计算机组件上执行,所述计算机或计算机组件包括例如个人计算机、平板电脑、服务器、智能电话、游戏装置、物联网装置等。
图13中所示的用于计算机系统(1300)的组件在本质上是示范性的,并非旨在暗示关于实施本申请实施例的计算机软件的使用或功能的范围的任何限制。也不应将组件的配置解释为对计算机系统(1300)的示范性实施例中所示的组件中的任一个组件或组件组合有任何依赖或需求。
计算机系统(1300)可包括某些人机接口输入装置。此类人机接口输入装置可响应于一个或多个人类用户通过例如触觉输入(例如:按键、滑动、数据手套移动)、音频输入(例如:语音、拍击)、视觉输入(例如:手势)、嗅觉输入(未描绘)进行的输入。人机接口装置还可用于捕获未必与人的有意识输入直接相关的某些媒体,例如音频(例如:话语、音乐、环境声)、图像(例如:扫描图像、从静态图像相机获得的摄影图像)、视频(例如,二维视频、包括立体视频的三维视频)。
输入人机接口装置可包括以下一个或多个(每种仅描绘一个):键盘(1301)、鼠标(1302)、轨迹垫(1303)、触摸屏(1310)、数据手套(未示出)、操纵杆(1305)、麦克风(1306)、扫描仪(1307)、相机(1308)。
计算机系统(1300)还可包括某些人机接口输出装置。此类人机接口输出装置可通过例如触觉输出、声音、光和气味/味道刺激一个或多个人类用户的感觉。此类人机接口输出装置可包括触觉输出装置(例如,触摸屏(1310)、数据手套(未示出)或操纵杆(1305)的触觉反馈,但还可存在不充当输入装置的触觉反馈装置)、音频输出装置(例如:扬声器(1309)、头戴式耳机(未描绘))、视觉输出装置(例如,屏幕(1310),包括阴极射线管(CRT)屏幕、液晶显示(LCD)屏幕、等离子体屏幕、有机发光二极管(OLED)屏幕,各自具有或不具有触摸屏输入能力,各自具有或不具有触觉反馈能力--其中的一些能够通过例如立体平画输出的方式输出二维视觉输出或大于三维的输出;虚拟现实眼镜(未描绘)、全息显示器和烟雾箱(未描绘),以及打印机(未描绘)。
计算机系统(1300)还可包括人类可访问的存储装置和存储装置的相关联介质,例如,光学介质,包括具有CD/DVD等介质(1321)的CD/DVD ROM/RW(1320)、拇指驱动器(1322)、可移动硬盘驱动器或固态驱动器(1323)、磁带和软盘(未描绘)等旧版磁性媒体、基于ROM/专用集成电路(ASIC)/可编程逻辑设备(PLD)的专用装置,例如,安全保护装置(未描绘),等等。
所属领域的技术人员还应理解,结合当前公开的主题使用的术语“计算机可读介质”并未涵盖传输介质、载波或其它瞬时信号。
计算机系统(1300)还可包括到一个或多个通信网络(1355)的接口(1354)。网络可例如是无线的、有线的、光学的。网络还可以是本地的、广域的、城域的、车载和工业的、实时的、容忍延迟的等等。网络的实例包括例如以太网、无线LAN的局域网、包括全球移动通信系统(GSM)、第三代(3G)、第四代(4G)、第五代(5G)、长期演进(LTE)等的蜂窝网络、包括有线TV、卫星TV和地面广播TV的TV有线或无线广域数字网络、包括控制器局域网总线(CANBus)的车载网络和工业网络等。某些网络通常需要附接到某些通用数据端口或外围总线(1349)(例如,计算机系统(1300)的通用串行总线(USB)端口)的外部网络接口适配器;其它网络通常通过附接到如下文所描述的系统总线而集成到计算机系统(1300)的核心中(例如,通过以太网接口集成到PC计算机系统中,或通过蜂窝网络接口集成到智能电话计算机系统中)。通过使用这些网络中的任一网络,计算机系统(1300)可与其它实体通信。此类通信可以是仅单向接收(例如,广播TV)、仅单向发送(例如,连到某些CANBus装置的CANBus)或是双向的,例如,使用局域数字网络或广域数字网络连接到其它计算机系统。可在如上文所描述的那些网络和网络接口中的每一个上使用某些协议和协议栈。
上述人机接口装置、人类可访问存储装置和网络接口可附接到计算机系统(1300)的核心(1340)。
核心(1340)可包括一个或多个中央处理单元(CPU)(1341)、图形处理单元(GPU)(1342)、现场可编程门区域(Field Programmable Gate Areas,FPGA)形式的专用可编程处理单元(1343)、用于某些任务的硬件加速器(1344)、图形适配器(1350)等等。这些装置连同只读存储器(read-only memory,ROM)(1345)、随机存取存储器(1346)、例如内部非用户可访问的硬盘驱动器、固态驱动器(SSD)等内部大容量存储装置(1347)可通过系统总线(1348)连接。在一些计算机系统中,系统总线(1348)可通过一个或多个物理插头形式访问以实现通过额外CPU、GPU等来扩展。外围装置可直接或通过外围总线(1349)附接到核心的系统总线(1348)。在一个示例中,屏幕(1310)可以连接到图形适配器(1350)上。用于外围总线的架构包括外围设备互连(PCI)、USB等等。
CPU(1341)、GPU(1342)、FPGA(1343)和加速器(1344)可执行某些指令,所述指令组合起来可构成上述计算机代码。计算机代码可存储在ROM(1345)或RAM(1346)中。过渡数据也可存储在RAM(1346)中,而永久性数据可例如存储在内部大容量存储装置(1347)中。可通过使用高速缓冲存储器来实现对任一存储器装置的快速存储和检索,所述高速缓冲存储器可与一个或多个CPU(1341)、GPU(1342)、大容量存储装置(1347)、ROM(1345)、RAM(1346)等紧密关联。
计算机可读介质上可具有用于执行各种计算机实施的操作的计算机代码。所述介质和计算机代码可以是专为本申请的目的设计和构建的介质和计算机代码,或可属于计算机软件领域中的技术人员众所周知且可用的种类。
举例来说但不作为限制,具有架构(1300)且尤其是核心(1340)的计算机系统可提供因处理器(包括CPU、GPU、FPGA、加速器等)执行以一个或多个有形计算机可读介质体现的软件而产生的功能。此类计算机可读介质可以是与上文所介绍的用户可访问大容量存储装置以及核心(1340)的非暂时性质的某些存储装置(例如,核心内部大容量存储装置(1347)或ROM(1345))相关联的介质。实施本申请的各种实施例的软件可存储在此类装置中且由核心(1340)执行。根据特定需求,计算机可读介质可包括一个或多个存储器装置或芯片。软件可使核心(1340)且具体地说使其中的处理器(包括CPU、GPU、FPGA等等)执行本文中所描述的特定过程或特定过程的特定部分,包括限定存储在RAM(1346)中的数据结构以及根据由软件限定的过程修改此类数据结构。另外或作为替代方案,计算机系统可提供由硬连线的或以其它方式体现于电路(例如:加速器(1344))中的逻辑所产生的功能,所述逻辑可代替或连同软件一起操作以执行本文描述的特定过程或特定过程的特定部分。适当时,对软件的引用可涵盖逻辑,且反之亦然。适当时,对计算机可读介质的引用可涵盖存储用于执行的软件的电路(例如,集成电路(IC))、体现用于执行的逻辑的电路或这两种电路。本申请涵盖硬件与软件的任何合适的组合。
尽管本申请描述了若干示范性实施例,但在本申请的范围内,可以有各种改动、排列组合方式以及各种替代等同物。因此,应该理解,在申请的精神和范围内,本领域技术人员能够设计出各种虽未在本文明确示出或描述、但可以体现本申请的原理的系统和方法。
Claims (20)
1.一种用于将三维(3D)网格帧的第一部分投影到二维(2D)占用地图的方法,其特征在于,所述方法包括:
获取初始2D占用地图,所述初始2D占用地图包括:
具有第一预定义值的零个或多个像素,所述第一预定义值指示所述零个或多个像素已被映射到所述3D网格帧的至少一个其它部分,所述至少一个其它部分与所述3D网格帧的所述第一部分不重叠;以及
具有第二预定义值的剩余像素,所述第二预定义值指示所述剩余像素未被映射到所述3D网格帧;
生成所述3D网格帧的所述第一部分的2D占用矩阵,其中所述第一预定义值对应于已占用像素,所述第二预定义值对应于未占用像素;
计算所述初始2D占用地图与所述2D占用矩阵之间的相关矩阵;
识别所述相关矩阵中的零值目标元素;以及
通过用所述2D占用矩阵中的对应元素替换所述初始2D占用地图的面片中具有第二预定义值的像素,生成更新的2D占用地图,其中,所述面片与所述2D占用矩阵的大小相同,所述面片位于所述初始2D占用地图中的打包位置,根据所述相关矩阵中所述零值目标元素的位置确定。
2.根据权利要求1所述的方法,其特征在于,所述相关矩阵通过卷积计算得出,所述卷积是作为卷积内核的所述2D占用矩阵与所述初始2D占用地图之间的卷积。
3.根据权利要求2所述的方法,其特征在于,所述卷积使用快速傅里叶变换进行计算。
4.根据权利要求1所述的方法,其特征在于,识别所述相关矩阵中的零值目标元素,包括:
识别所述相关矩阵中的多个零值元素;以及
选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素。
5.根据权利要求4所述的方法,其特征在于,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,包括:选择所述相关矩阵中的所述多个零值元素中在宽度维度上具有最小指数的零值元素。
6.根据权利要求4所述的方法,其特征在于,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,包括:选择所述相关矩阵中的所述多个零值元素中在高度维度上具有最小指数的零值元素。
7.根据权利要求4所述的方法,其特征在于,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,包括:选择所述相关矩阵中的所述多个零值元素中宽度指数和高度指数总和最小的零值元素。
8.根据权利要求4所述的方法,其特征在于,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,包括:基于高度指数和宽度指数的优化函数,选择所述多个零值元素中的零值元素。
9.根据权利要求8所述的方法,其特征在于,所述优化函数包括lp范数函数。
10.根据权利要求4所述的方法,其特征在于,选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素,包括:
确定所述2D占用矩阵到所述初始2D占用地图中的首选打包位置;
根据所述首选打包位置,从所述相关矩阵中的所述多个零值元素中选择所述零值目标元素。
11.根据权利要求10所述的方法,其特征在于,根据所述首选打包位置,从所述相关矩阵中的所述多个零值元素中选择所述零值目标元素,包括:
当可能时,从所述多个零值元素中选择与所述首选打包位置匹配的零值元素,作为所述零值目标元素;否则
基于所述首选打包位置以及所述首选打包位置的邻域中的零值元素的位置的优化函数,从所述首选打包位置的所述邻域中的所述多个零值元素中选择。
12.根据权利要求11所述的方法,其特征在于,所述优化函数包括所述首选打包位置与所述多个零值元素中所述零值元素的位置之间的位置差的lp范数函数。
13.根据权利要求10至12中任一项所述的方法,其特征在于,识别所述相关矩阵中的零值目标元素,包括:将所述相关矩阵的第一识别的零值元素确定为所述零值目标元素,所述方法进一步包括:一旦找到所述相关矩阵的所述第一识别的零值元素,便终止计算所述相关矩阵。
14.根据权利要求10至12中任一项所述的方法,其特征在于,迭代权利要求1的步骤,直到所述3D网格帧的所有部分被映射到所述更新的2D占用地图。
15.根据权利要求14所述的方法,其特征在于,进一步包括:使用视频编码器将所述更新的2D占用地图压缩到码流中,以及压缩所述3D网格帧的所有部分的2D占用矩阵的大小和打包位置的信息。
16.根据权利要求10至12中任一项所述的方法,其特征在于,所述初始2D占用地图和所述2D占用矩阵包括二进制值,所述二进制值包括所述第一预定义值和所述第二预定义值。
17.一种包括用于存储计算机指令的存储器和处理器的设备,其特征在于,所述处理器在执行所述计算机指令以将三维(3D)网格帧的第一部分投影到二维(2D)占用地图时,被配置为:
获取初始2D占用地图,所述初始2D占用地图包括:
具有第一预定义值的零个或多个像素,所述第一预定义值指示所述零个或多个像素已被映射到所述3D网格帧的至少一个其它部分,所述至少一个其它部分与所述3D网格帧的所述第一部分不重叠;以及
具有第二预定义值的剩余像素,所述第二预定义值指示所述剩余像素未被映射到所述3D网格帧;
生成所述3D网格帧的所述第一部分的2D占用矩阵,其中所述第一预定义值对应于已占用像素,所述第二预定义值对应于未占用像素;
计算所述初始2D占用地图与所述2D占用矩阵之间的相关矩阵;
识别所述相关矩阵中的零值目标元素;以及
通过用所述2D占用矩阵中的对应元素替换所述初始2D占用地图的面片中具有第二预定义值的像素,生成更新的2D占用地图,其中,所述面片与所述2D占用矩阵的大小相同,所述面片位于所述初始2D占用地图中的打包位置,根据所述相关矩阵中所述零值目标元素的位置确定。
18.根据权利要求17所述的设备,其特征在于:
所述相关矩阵通过卷积计算得出,所述卷积是作为卷积内核的所述2D占用矩阵与所述初始2D占用地图之间的卷积;并且
所述卷积使用快速傅里叶变换进行计算。
19.根据权利要求17或权利要求18的设备,其特征在于,识别所述相关矩阵中的所述零值目标元素,包括:
识别所述相关矩阵中的多个零值元素;以及
选择所述相关矩阵中的所述多个零值元素之一,作为所述零值目标元素。
20.一种用于存储计算机指令的非易失性计算机可读介质,其特征在于,所述计算机指令在由电子装置的处理器执行以将三维(3D)网格帧的第一部分投影到二维(2D)占用地图时,被配置为使所述电子装置:
获取初始2D占用地图,所述初始2D占用地图包括:
具有第一预定义值的零个或多个像素,所述第一预定义值指示所述零个或多个像素已被映射到所述3D网格帧的至少一个其它部分,所述至少一个其它部分与所述3D网格帧的所述第一部分不重叠;以及
具有第二预定义值的剩余像素,所述第二预定义值指示所述剩余像素未被映射到所述3D网格帧;
生成所述3D网格帧的所述第一部分的2D占用矩阵,其中所述第一预定义值对应于已占用像素,所述第二预定义值对应于未占用像素;
计算所述初始2D占用地图与所述2D占用矩阵之间的相关矩阵;
识别所述相关矩阵中的零值目标元素;以及
通过用所述2D占用矩阵中的对应元素替换所述初始2D占用地图的面片中具有第二预定义值的像素,生成更新的2D占用地图,其中,所述面片与所述2D占用矩阵的大小相同,所述面片位于所述初始2D占用地图中的打包位置,根据所述相关矩阵中所述零值目标元素的位置确定。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202263323853P | 2022-03-25 | 2022-03-25 | |
US63/323,853 | 2022-03-25 | ||
US18/050,372 US12112510B2 (en) | 2022-03-25 | 2022-10-27 | Convolutional approach to fast and compact packing of 3D mesh into 2D maps |
US18/050,372 | 2022-10-27 | ||
PCT/US2022/048676 WO2023183032A1 (en) | 2022-03-25 | 2022-11-02 | Convolutional approach to fast and compact packing of 3d mesh into 2d maps |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117178299A true CN117178299A (zh) | 2023-12-05 |
Family
ID=88096202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280028972.4A Pending CN117178299A (zh) | 2022-03-25 | 2022-11-02 | 将3d网格快速且紧凑地打包到2d地图中的卷积方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US12112510B2 (zh) |
JP (1) | JP2024518767A (zh) |
KR (1) | KR20230173702A (zh) |
CN (1) | CN117178299A (zh) |
WO (1) | WO2023183032A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118071655A (zh) * | 2024-04-18 | 2024-05-24 | 松立控股集团股份有限公司 | 一种鱼眼图像矫正拼接方法及系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140010437A1 (en) * | 2011-03-22 | 2014-01-09 | Ram C. Naidu | Compound object separation |
WO2012174263A2 (en) * | 2011-06-15 | 2012-12-20 | Mistretta Medical, Llc | System and method for four dimensional angiography and fluoroscopy |
US10482196B2 (en) | 2016-02-26 | 2019-11-19 | Nvidia Corporation | Modeling point cloud data using hierarchies of Gaussian mixture models |
KR20190035678A (ko) | 2016-07-08 | 2019-04-03 | 브이아이디 스케일, 인크. | 지오메트리 투영을 이용한 360도 비디오 코딩 |
US10460511B2 (en) * | 2016-09-23 | 2019-10-29 | Blue Vision Labs UK Limited | Method and system for creating a virtual 3D model |
US10699444B2 (en) | 2017-11-22 | 2020-06-30 | Apple Inc | Point cloud occupancy map compression |
US11348283B2 (en) * | 2018-07-10 | 2022-05-31 | Samsung Electronics Co., Ltd. | Point cloud compression via color smoothing of point cloud prior to texture video generation |
CN110944187B (zh) * | 2018-09-19 | 2022-05-10 | 华为技术有限公司 | 点云编码方法和编码器 |
US11288843B2 (en) * | 2019-01-04 | 2022-03-29 | Samsung Electronics Co., Ltd. | Lossy compression of point cloud occupancy maps |
US11393132B2 (en) * | 2019-03-07 | 2022-07-19 | Samsung Electronics Co., Ltd. | Mesh compression |
WO2021072131A1 (en) * | 2019-10-09 | 2021-04-15 | Sony Corporation | Synchronization of decoded frames before point cloud reconstruction |
US11262759B2 (en) * | 2019-10-16 | 2022-03-01 | Huawei Technologies Co., Ltd. | Method and system for localization of an autonomous vehicle in real time |
EP4135319A4 (en) * | 2020-04-11 | 2023-05-03 | Lg Electronics Inc. | POINT CLOUD DATA TRANSMITTING DEVICE, POINT CLOUD DATA TRANSMITTING METHOD, POINT CLOUD DATA RECEIVING DEVICE AND POINT CLOUD DATA RECEIVING METHOD |
US11640764B1 (en) * | 2020-06-01 | 2023-05-02 | Amazon Technologies, Inc. | Optimal occupancy distribution for route or path planning |
US12100230B2 (en) * | 2021-10-28 | 2024-09-24 | Nvidia Corporation | Using neural networks for 3D surface structure estimation based on real-world data for autonomous systems and applications |
US20230196495A1 (en) * | 2021-12-22 | 2023-06-22 | Datalogic Ip Tech S.R.L. | System and method for verifying positional and spatial information using depth sensors |
-
2022
- 2022-10-27 US US18/050,372 patent/US12112510B2/en active Active
- 2022-11-02 KR KR1020237039708A patent/KR20230173702A/ko active Search and Examination
- 2022-11-02 WO PCT/US2022/048676 patent/WO2023183032A1/en active Application Filing
- 2022-11-02 JP JP2023565409A patent/JP2024518767A/ja active Pending
- 2022-11-02 CN CN202280028972.4A patent/CN117178299A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118071655A (zh) * | 2024-04-18 | 2024-05-24 | 松立控股集团股份有限公司 | 一种鱼眼图像矫正拼接方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2024518767A (ja) | 2024-05-02 |
US12112510B2 (en) | 2024-10-08 |
US20230306645A1 (en) | 2023-09-28 |
KR20230173702A (ko) | 2023-12-27 |
WO2023183032A1 (en) | 2023-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11783512B2 (en) | Attribute value of reconstructed position associated with plural original points | |
JP7478816B2 (ja) | ポイントクラウドコーディングのための方法及び装置 | |
US20230063575A1 (en) | Patch zippering for mesh compression | |
US20230298216A1 (en) | Predictive coding of boundary geometry information for mesh compression | |
US12112510B2 (en) | Convolutional approach to fast and compact packing of 3D mesh into 2D maps | |
KR20230058490A (ko) | 3d 메시 압축에서의 2d 아틀라스 적응형 샘플링 | |
JP2023548236A (ja) | メッシュ圧縮のための頂点並べ替え方法における接続のコーディング | |
CN116888631A (zh) | 基于点云压缩的动态网格压缩 | |
CN116711305A (zh) | 用于解码器执行网格压缩的自适应采样方法和装置 | |
WO2022261605A2 (en) | Method and apparatus for calculating distance based weighted average for point cloud coding | |
US12056904B2 (en) | Mesh compression with constrained geometry dynamic range | |
JP7504298B2 (ja) | 3次元(3d)メッシュのuv座標を処理するための方法、装置及びコンピュータプログラム | |
CN117083636A (zh) | 用于网格压缩的边界几何信息的预测编码 | |
JP2024512915A (ja) | 非マニホールドメッシュにおける境界ループの検出のための方法、装置、およびコンピュータプログラム | |
JP2023547173A (ja) | 動的メッシュ圧縮のための方法および装置 | |
CN117461054A (zh) | 具有推导的纹理坐标的网格压缩 | |
CN116324912A (zh) | 用于网格压缩的顶点重新排列 | |
CN116686011A (zh) | 基于图表的网格压缩方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |