CN111971967A - 一种用于编码/解码表示3d对象的点云的方法和装置 - Google Patents

一种用于编码/解码表示3d对象的点云的方法和装置 Download PDF

Info

Publication number
CN111971967A
CN111971967A CN201980025241.2A CN201980025241A CN111971967A CN 111971967 A CN111971967 A CN 111971967A CN 201980025241 A CN201980025241 A CN 201980025241A CN 111971967 A CN111971967 A CN 111971967A
Authority
CN
China
Prior art keywords
depth
depth information
information
point cloud
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980025241.2A
Other languages
English (en)
Other versions
CN111971967B (zh
Inventor
J-C.谢维特
Y.奥利维尔
蔡康颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital VC Holdings Inc
Original Assignee
InterDigital VC Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP18306132.4A external-priority patent/EP3614672A1/en
Application filed by InterDigital VC Holdings Inc filed Critical InterDigital VC Holdings Inc
Publication of CN111971967A publication Critical patent/CN111971967A/zh
Application granted granted Critical
Publication of CN111971967B publication Critical patent/CN111971967B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

至少一个实施例涉及一种方法,该方法包括获得占用信息,该占用信息指示在投影平面上定义的2D规则网格的块是否与点云的至少一个点在该投影平面上的正交投影的深度信息相关联;将占用信息嵌入到存储该深度信息的图像中;以及编码所述图像。

Description

一种用于编码/解码表示3D对象的点云的方法和装置
技术领域
本原理通常涉及对表示3D对象的点云的编码和解码。特别地,但不排他地,本原理的技术领域涉及点云的基于投影的编码/解码。
背景技术
本章节旨在向读者介绍本领域的各个方面,这些方面可能与下面描述和/或要求保护的本原理的各个方面相关。该讨论被认为有助于向读者提供背景信息,以便更好地理解本原理的各个方面。因此,应该理解,这些陈述应该从这个角度来理解,而不是作为对现有技术的承认。
点云是一组点,通常旨在表示3D对象的外表面,但也包括更复杂的几何形状,如头发或毛发,它们可能无法通过如网格的其它数据格式来有效地表示。点云的每个点通常由3D空间位置(3D空间中的X、Y和Z坐标)定义,也可能由其它相关联的属性定义,诸如例如在RGB或YUV颜色空间中表示的颜色、透明度、反射率、法线量等。
着色点云(colored point)可以是6个分量(X,Y,Z,R,G,B)或等同的(X,Y,Z,Y,U,V)的点的集合,其中(X,Y,Z)定义了3D空间中的点的空间位置,(R,G,B)或(Y,U,V)定义了该点的颜色。
在下文中,术语“点云”是指包括着色点云在内的任何点云。
着色点云可能是静态的,也可能是动态的,这取决于点云是否随时间演变。应该注意,在动态点云的情况下,点数不一定是常数,而是相反地,通常随着时间而演变。因此,动态点云是按时间顺序排列的点的集合列表。
实际上,着色点云可以用于各种目的,诸如文化遗产/建筑物,其中,像雕像或建筑物这样的对象被3D扫描,以便共享对象的空间配置,而无需发送或访问它。同时,这也是确保保存对象的知识以防其被破坏的方法;例如,地震中的寺庙。这种着色点云通常是静态的、巨大的。
另一用例是在地形学和制图学中,通过使用3D表示,地图不局限于平面,并且可能包括地形(relief)。
汽车工业和自动驾驶汽车也是其中可以使用点云的领域。自动驾驶汽车应该能够“探测”它们的环境,以根据它们紧邻的现实做出安全驾驶的决策。典型的传感器产生由决策引擎使用的动态点云。这些点云不旨在被人看到。它们通常较小,不一定是着色的,并且是动态的具有较高的捕获频率。它们可以具有其它属性,如反射率,反射率是与被感测对象的物理表面的材料相关的有价值的信息,并且可能有助于决策。
虚拟现实(Virtual Reality,VR)和沉浸式世界最近成为热门话题,并被许多人预见为2D平板视频的未来。基本思想是让观众沉浸在其周围的环境中,而不是只能看着面前的虚拟世界的标准TV。沉浸感有几个层次,取决于观众在环境中的自由度。着色点云是用于分布式VR世界的很好的格式候选。它们可以是静态的,也可以是动态的,通常是平均大小的,比如一次不超过几百万个点。
只有当比特流的大小足够低以允许向终端用户进行实际的存储/传输时,点云压缩才能成功地为沉浸式世界存储/传输3D对象。
能够以合理的带宽消耗向终端用户分发动态点云,同时保持可接受(或最好非常好)的体验质量,这一点也很重要。与视频压缩类似,时间相关性的良好使用被认为是将导致动态点云的有效压缩的关键因素。
众所周知的方法将表示3D对象的几何形状和颜色的着色点云投影到包围3D对象的立方体的面上,以获得包含表示点云的颜色信息的纹理和表示点云的几何形状信息的深度信息的视频,并使用诸如3D-HEVC的传统编码器对纹理和深度视频进行编码(HEVC的扩展,其规范可在ITU网站上找到,T建议,H系列,h265,https://www.itu.int/rec/T-REC-H.265-201802-I annex I)。
对于每个投影点,压缩的性能接近于视频压缩,但是当考虑动态点云时,由于遮挡、冗余和时间稳定性,一些内容可能更复杂。因此,就比特率而言,点云压缩比视频压缩要求更高。
关于遮挡,如果不使用许多投影,实际上不可能获得复杂拓扑的完整几何形状。因此,对所有这些投影进行编码/解码所需的资源(计算能力、储存存储器)通常过高。
最近在第120次MPEG会议上提出了一种使用纹理和深度投影方案的点云编解码器。该方案在文件SO/IEC JTC1/SC29 WG11 Doc.N17248,澳门,CN,2017年10月中有所描述,其中提出的方案称为“点云压缩测试模型类别2 0.0版(TMC2v0)”。
通过本质上将动态点云数据转换成一组不同的视频序列,该编解码器利用现有的视频编解码器来压缩动态点云的几何形状和纹理信息。
具体地,使用现有的视频编解码器,例如使用HEVC主轮廓编码器,生成并压缩两个视频序列,一个用于捕获点云数据的几何形状信息,另一个用于捕获纹理信息,即点的颜色。
还分别生成和压缩解析这两个视频序列所需的附加元数据,即占用图和辅助面片(patch)/块信息。然后,将生成的视频比特流和元数据复用在一起,以生成最终的点云比特流。元数据进一步由诸如算术编解码器的熵编解码器编码。
该点云编解码器的示例性编码器2的结构如图1所示。
编码器2包括3个主要的块:几何形状压缩块4、元数据压缩块6和纹理压缩块8。
几何形状压缩块4包括深度面片创建块10,其将输入点云分解成深度面片。
深度面片创建过程10旨在将点云分解成具有平滑边界的最小数量的深度面片,同时也最小化重构误差。深度面片通过与深度值相关联的一组像素来表示点云的一部分。
作为示例,实施了图2中详述的以下方法。
首先,在102处估计每个点的法线,如Hugues Hoppe,Tony DeRose,Tom Duchamp,John McDonald,Werner Stuetzle,“从无组织点进行表面重构(Surface reconstructionfrom unorganized point)”ACM SIGGRAPH 1992会议录,71-78中所述。
然后,在104处,通过将每个点与由它们的法线所定义的以下六个定向平面之一相关联来获得点云的初始聚类:
-(1.0,0.0,0.0),
-(0.0,1.0,0.0),
-(0.0,0.0,1.0),
-(-1.0,0.0,0.0),
-(0.0,-1.0,0.0),和
-(0.0,0.0,-1.0)。
更准确地说,每个点与具有最接近法线的平面相关联(即,最大化点法线与平面法线的点积)。
根据一个实施例,上述六个定向平面被索引如下:
-(1.0,0.0,0.0)由聚类索引0索引;
-(0.0,1.0,0.0)由聚类索引1索引;
-(0.0,0.0,1.0)由聚类索引2索引;
-(-1.0,0.0,0.0)由聚类索引0索引;
-(0.0,-1.0,0.0)由聚类索引1索引;
-(0.0,0.0,-1.0)由聚类索引2索引。
然后,每个点都与相应聚类的索引相关联。
然后,通过基于每个点的法线和其最近邻近点的聚类索引来迭代更新与每个点相关联的聚类索引,从而细化初始聚类。根据一个实施例,对于所考虑的点,如果它的所有邻近点(例如在3D空间中到当前点的距离小于2的所有点)被分配给一个聚类,记为聚类ClusterA,而所考虑的点被分配给另一个聚类,则所考虑的点的聚类索引被更新为聚类ClusterA。
然后,在106处,通过应用连通分量提取过程(即提取具有相同聚类索引的邻近点以形成连通分量)来提取深度面片。根据一个实施例,通过对同时满足以下两个条件的所有点进行分组来构建一个连通分量:
-所有点都具有相同的聚类索引。
-对于所关注的连通分量中的每个点,同一连通分量中至少存在一个点到当前点的距离小于预定义阈值(例如,等于1)。
每个连通分量根据其聚类索引(即属于它的点的聚类索引)与投影平面相关联。一个实施例如下:
-对于聚类索引为0的连通分量,YOZ平面;
-对于聚类索引为1的连通分量,XOZ平面;
-对于聚类索引为2的连通分量,XOY平面。
为了更好地处理沿着同一投影线的多个点的情况,(其中投影线包括具有三个坐标(X,Y,Z)中两个相同坐标的点);例如,投影线可以由具有相同(X,Y)坐标的所有点组成,为每个连通分量生成两个深度面片,记录深度值D0和D1,对应于相应像素的最小和最大深度值,并满足D1-D0<=SurfaceThickness,其中SurfaceThickness是最大表面厚度,例如等于4。
更准确地说,让{H(u,v)}是当前连通分量中被投影到同一个像素(u,v)的点的集合。第一深度面片,也称为近层,存储{H(u,v)}中具有最低深度D0的点的深度。第二深度面片,称为远层,捕获{H(u,v)}中具有在区间[D0,D0+SurfaceThickness]内的最高深度的点。
深度面片创建块10之后是打包块(packing block)12,打包块12将所有投影的连通分量映射到2D网格上,同时尝试最小化未使用的空间,并保证网格的每个TxT(例如,16×16)块与唯一的投影的连通分量相关联,其中T是被编码在比特流中并被发送到解码器的用户定义参数。2D网格上的每个点对应于图像上的像素。
打包使用简单的打包策略,该策略迭代地尝试将面片插入WxH网格,其中W和H是用户定义参数,例如1028x1028,其对应于将被编码的几何形状/纹理图像的分辨率。面片位置通过以光栅扫描顺序执行的穷举搜索来确定。选择能够保证面片的无重叠插入的第一个位置,并且被面片覆盖的网格单元被标记为已使用。如果当前图像分辨率中没有空白空间可以容纳面片,则网格的高度H暂时加倍,并再次应用搜索。在该过程结束时,修剪H,以便适合所使用的网格单元。2D网格中的打包位置(其是每个面片的投影区域的边界框的左上角的位置)和每个面片的投影区域的大小被信令通知到经压缩的比特流中。
占用图从打包块12输出到元数据压缩块6。占用图由二进制图组成,该二进制图为网格的每个单元指示它是属于空白空间,即是未被占用还是属于点云(即被占用),其中2D网格的一个单元将在图像生成过程中产生携带深度或颜色信息的像素。
几何形状压缩块4还包括图像生成块14,图像生成块14利用在打包过程12期间计算的3D到2D映射(更具体地,每个连通分量的投影区域的打包位置和大小)来将点云的几何形状存储为图像。
对应于为每个连通分量生成两个深度面片的事实,生成两个图像来存储点云的几何形状,这两个图像被称为DepthImg0和DepthImg1。
参考图3进一步详细描述编码器2的图像生成块14。
图像生成包括打包过程(深度D0打包),其中,根据每个面片的投影区域的打包位置,每个面片的D0值被复制到第二网格的相应部分。
图像生成还包括增量_深度(delta_depth)确定,其中,对于depthImage0的每个被占用的像素,增量_深度=D1–D0(D1和D0在同一投影线上),并且增量_深度被存储在存储相应D0值的相同位置。
图像生成还包括如下时间交织(time interleaving):(depthImage0_0,depthImage1_0,…depthImage0_i,depthImage1_i,…,depthImage0_n,depthImage1_n),其中depthImage0_i和depthImage1_i是从点云帧i生成的。
图像生成还包括填充过程20,其目的在于填充面片之间的空白空间,以便生成适于视频压缩的分段平滑图像。它使用简单的填充策略,如下所示:
●TxT(例如,16×16)像素的每个块被独立处理。
●如果该块为空白(即其所有像素都属于空白空间),则通过以光栅顺序复制前一个TxT块的最后一行或最后一列来填充该块的像素。
●如果该块已满(即没有空白像素),则不执行任何操作。
●如果该块既有空白像素又有填充像素,则空白像素用其非空白邻近像素的平均值迭代填充。
图像生成块14之后是深度视频编码块21,其中所生成的深度图像被存储为视频帧,并根据作为参数提供的HM配置,使用任何传统的视频编解码器(诸如HM16.16视频编解码器)进行压缩。
在编码器2的元数据压缩块6中,以下元数据(称为每面片/连通分量元数据)被收集,然后对每个连通分量编码如下:
●投影平面的索引
○对于平面(1.0,0.0,0.0)和(-1.0,0.0,0.0),索引为0;
○对于平面(0.0,1.0,0.0)和(0.0,-1.0,0.0),索引为1;
○对于平面(0.0,0.0,1.0)和(0.0,0.0,-1.0),索引为2。
●打包的几何形状/纹理图像上的2D边界框(u0,v0,u1,v1);
●以深度偏移δ0、切向偏移s0和双切向偏移r0表示的连通分量的3D位置(x0,y0,z0)。根据所选择的投影平面,(δ0,s0,r0)计算如下:
○对于δ0=x0,s0=z0 and r0=y0,索引为0
○对于δ0=y0,s0=z0 and r0=x0,索引为1
○对于δ0=z0,s0=x0 and r0=y0,索引为2。
此外,为每个TxT块提供其相关联的面片/连通分量索引的映射信息(称为块到面片映射)按如下方式来生成并编码:
●对于每个TxT块,令L是面片索引的有序列表,使得它们的2D边界框包含该块。列表中的顺序与用于编码2D边界框的顺序相同。L被称为候选面片的列表。
●几何形状/纹理图像上的面片之间的空白空间被视为面片,并被分配特殊索引0,该索引被添加到所有块的候选面片列表中。
●令I为占用当前TxT块的面片的索引,令J为I在L中的位置,代替对索引I进行显式编码,取而代之的是对其位置J进行算术编码,从而导致更好的压缩效率。
此外,元数据压缩块6实施对从打包块12生成的占用图的编码22。
占用图压缩利用上述块到面片映射信息,以便检测空白TxT块(即,面片索引为0的块)。在23处,剩余的块被编码如下。
占用图可以以B0xB0块的精度在22处编码,其中B0是用户定义参数。为了实现无损编码,B0应该设置为1。在实践中,B0=2或B0=4产生视觉上可接受的结果,同时显著减少编码占用图所需的比特数。
块到面片映射编码23如下进行:
●二进制值与属于同一TxT块的B0xB0子块相关联。如果其至少包含未填充的像素,则值1与子块相关联,否则值0与子块相关联。如果子块具有值为1,则称其已满,否则为空白子块。
●如果TxT块的所有子块都已满(即值为1),则该块被称为已满。否则,该块被称为未满。
●为每个TxT块编码二进制信息,以指示它是否已满。
●如果块未满,则指示满/空白子块的位置的额外信息被编码如下:
○为子块定义不同的遍历顺序。图4显示四种被考虑的遍历顺序。
○编码器选择遍历顺序之一并在比特流中显示地信令通知其索引。
○通过使用游程编码策略来编码与子块相关联的二进制值。
■初始子块的二进制值被编码。
■检测到0和1的连续运行,同时遵循编码器所选择的遍历顺序。
■对检测到运行的次数进行编码。
■除最后一次运行外,每次运行的长度也被编码。
从占用图编码22输出占用图流,从占用图23输出块到面片映射流。块到面片的索引和占用图被称为每个块的元数据。
纹理压缩块8包括由诸如3D-HEVC(HEVC的扩展,其规范可以在ITU网站上找到,T建议,H系列,h265,https://www.itu.int/rec/T-REC-H.265-201802-I annex I)的传统解码器进行的深度视频解码,随后是几何形状重构过程24,其利用占用图信息以便检测重构的几何形状图像中的占用像素。通过平衡元数据和几何形状图像来计算与那些占用像素相关联的点的3D位置。更准确地说,令P为从占用像素(u,v)重构的点,并且令(δ0,s0,r0)为它所属的连通分量的3D位置以及(u0,v0,u1,v1)为相应深度面片的2D边界框。P可以用深度δ(u,v)、切向偏移s(u,v)和双切向偏移r(u,v)表示如下:
δ(u,v)=δ0+g(u,v)
s(u,v)=s0–u0+u
r(u,v)=r0–v0+v,
其中g(u,v)是重构的几何形状图像的亮度分量。
点云几何形状重构过程24还为每个重构点输出像素的位置,该位置存储重构当前点的深度值,即(i,u,v),其中i表示深度图像,即DepthImg0或DepthImg1,并且(u,v)是第i深度图像中像素的坐标。
纹理压缩块8还包括3D颜色转移(transfer)块26,其中以最小化颜色和/或其它属性信息编码误差的方式来确定要为每个重构点编码的颜色和/或其它属性值。根据一个实施例,对于每个重构点,输入/原始点云中其最近点的颜色被指定为其要编码的颜色。
3D颜色转移块26之后是一个或多个纹理图像的生成块(a texture image(s)generation block)28,一个或多个纹理图像的生成块28通过将每个重构点的要编码的颜色信息存储在与几何形状图像相同的位置(即,(i,u,v))来生成要编码的纹理图像。
一个或多个纹理图像的生成块28之后是使用诸如3D-HEVC的传统编码器的纹理视频编码(HEVC的扩展,其规范可以在ITU网站上找到,T建议,H系列,h265,https://www.itu.int/rec/T-REC-H.265-201802-I annex I)。
从几何形状压缩块4生成的深度视频流、从元数据压缩流6生成的每块和每面片元数据流以及从纹理压缩块8生成的颜色视频流被复用在从编码器2输出的压缩流中。
图5表示对应于编码器2的解码器30,用于重构点云。
在解码器30处,从编码器2输出的压缩流被解复用成深度视频流、每块元数据流、每面片元数据流和颜色视频流。
解码器30包括几何形状重构块31,几何形状重构块31包括由诸如3D-HEVC(HEVC的扩展,其规范可以在ITU网站上找到,T建议,H系列,h265,https://www.itu.int/rec/T-REC-H.265-201802-I annex I)的传统解码器进行的深度视频解码。
图像重构块31还包括在图6中详细描述的图像重构块32。该块32包括:
从重构的深度视频流中时间去交织(time-deinterleaving)重构的depthImage0和重构的depthImage1;
检索存储在重构的depthImage0中的重构的D0值;和
使用重构的_D0+重构的_增量_深度来重构D1值,其中重构的_增量_深度值被存储在depthImage1中。
图像重构块31还包括以与编码器2的点云几何形状重构块24相同的方式操作的点云几何形状重构块33。
解码器30还包括元数据重构块34,元数据重构块34包括:
-占用图解码块35,用于解码占用图流。从该块35输出的占用图被传送到深度图像重构块32。
-块到面片映射解码块36,用于解码块到面片映射流。从该块36输出的块到面片映射被传送到点云几何形状重构块33。
-每面片元数据解码块37,用于解码每面片元数据流,从该块37输出的每面片元数据被传送到点云几何形状重构块33。
解码器30还包括纹理重构过程,该过程包括由诸如3D-HEVC(HEVC的扩展,其规范可以在ITU网站上找到,T建议,H系列,h265,https://www.itu.int/rec/T-REC-H.265-201802-I annex I)的传统解码器进行的纹理视频解码阶段。
纹理重构过程还包括纹理面片重构阶段,其中使用重构的每面片和每块元数据来重构纹理面片。
此外,纹理重构过程包括点云纹理重构阶段35,其中使用重构每个点的像素的位置从重构的纹理图像中获取每个重构点的颜色。
图1的编码器2的无损变型在文件“ISO/IEC JTC1/SC29/WG11MPEG2018/m42170,2018年1月,韩国,广光州”中提出。
如图7所示,这种无损编码器50的基本思想是构建特殊的连通分量,该分量由编码器2所构建的连通分量缺失的所有点组成。然后,在深度和纹理图像中打包对应于缺失点面片的相应的额外深度面片和额外纹理面片。
输入点云中未投影到2D视频帧上的点称为缺失点。这些缺失点包括位于沿一条投影线具有最小和最大深度值的两个点之间的点、被认为是噪声点的点、属于被认为对于投影来说太小的分量的点。所有缺失点组成特殊的连通分量,称为missedPointsPatch。所有缺失点的(x,y,z)坐标被存储在一个2D面片中,该2D面片将单独或与其它深度值一起存储在一个3D视频帧中。
对于图1和图7的有损和无损编码模式,除了打包的深度图像和纹理图像之外,压缩的比特流的重要部分包括辅助信息,该辅助信息有助于从打包的图像重构点云并且其包括:
●每面片元数据,其包括法线轴、法线方向的位移、打包图像上的位置等,
●块到面片映射,其指示打包图像中的每个块被哪个面片占用,以及
●占用图,其指示像素是否被占用。
在图7的无损点云编码中,占用图对于重构点云仍然是必要的,因为:
●需要将具有等于0的要编码的值的占用像素与也具有等于0的值的未占用像素区分开,
●填充打包图像中的未占用部分,以提高压缩性能。此操作称为图像填充。
然而,占用图本身通常压缩起来非常昂贵,尤其是在无损模式下。在图7的无损编码器50中,编码占用图的成本比图像填充带来的增益大得多。
2016年12月21日提交的欧洲专利申请第16306764.8号(公开为EP3340629)提出在要编码的深度值(即,码字的低2位)中保留脚部空间(foot-room)来存储占用图。这是通过左移一定数量的比特(例如左移2比特)来扩大要编码的原始深度数据来实现的。然而,随着扩大操作大幅度增加数据范围,深度图像的编码变得更加昂贵。
对于无损编码模式,这种扩大操作是去除占用图编码的过度解决方案。此外,扩大不能解决区分值为“0”的占用像素和未占用像素的问题。
发明内容
以下呈现本发明原理的简化概述,以提供对本发明原理的一些方面的基本理解。本概述不是对本原则的广泛概述。它并不旨在确定本原则的关键或重要要素。以下概述仅仅以简化的形式呈现了本原理的一些方面,作为下面提供的更详细描述的序言。
总的来说,本公开提出了用于改善这种情况的解决方案。
本公开提出通过在保持要编码的数据范围不变的情况下移除占用图编码来降低解码复杂度并节省无损点云编码的比特率。
有利的是,在编码器和解码器侧都去除了占用图编码。
有利的是,占用信息被嵌入到要编码的深度图像之一中,例如以下列方式:
-如果占用信息被嵌入到存储沿投影线的最小深度值的DepthImg0中,则修改深度面片生成步骤以确保要编码的所有深度值(更具体地是深度D0)大于0;
-如果占用信息被嵌入到DepthImg1中,当DepthImg1存储沿投影线的最小深度值和最大深度值之间的差增量_深度时,要编码的所有增量_深度值增加1;
-如果占用信息被嵌入到DepthImg1中,当DepthImg1存储沿投影线的最大深度值时,修改深度面片生成步骤以确保要编码的所有深度值(更具体地是深度D1)大于0。
因此,本公开提供了一种方法,其包括:
-获得占用信息,该占用信息指示在投影平面上定义的2D规则网格的块是否与点云的至少一个点在所述投影平面上的正交投影的深度信息相关联;
-将所述占用信息嵌入到存储所述深度信息的图像中;以及
-编码所述图像。
本公开还提供了一种设备,其包括:
-用于获得占用信息的部件,该占用信息指示在投影平面上定义的2D规则网格的块是否与深度信息相关联,该深度信息是点云的至少一个点在所述投影平面上的正交投影的结果;
-用于将所述占用信息嵌入到存储所述深度信息的图像中的部件;以及
-用于编码所述图像的部件。
有利地,在存储所述深度信息的图像中嵌入所述占用信息包括偏移要存储的深度信息。
根据实施例,该方法还包括发送信息以指示深度信息已经被偏移。
根据实施例,所述图像存储距投影平面具有最小距离的点云的点的深度信息。
根据实施例,所述图像存储距投影平面具有最大距离的点云的点的深度信息。
根据实施例,所述图像存储深度信息,该深度信息表示距投影平面具有最大距离的点云的点的深度信息和距离投影平面具有最小距离的点云的点的深度信息之间的差。
本公开还提供了一种方法,其包括:
-解码存储点云的至少一个点在投影平面上的正交投影的深度信息的图像;
-从解码的深度图像推导出占用信息,所述占用信息指示在所述投影平面上定义的2D规则网格的块是否与所述解码的深度信息相关联。
本公开还提供了一种设备,其包括:
-用于解码存储点云的至少一个点在投影平面上的正交投影的深度信息的图像的部件;以及
-从解码的深度图像推导出占用信息,所述占用信息指示在所述投影平面上定义的2D规则网格的块是否与所述解码的深度信息相关联。
编码器/解码器模块有利地由编码器/解码器内的一个或多个处理器实施。
根据本公开的方法可以在可编程装置上的软件中实施。它们可以单独用硬件、软件或它们的组合来实施。
由于本发明可以以软件实施,所以本发明可以体现为计算机可读代码,用于提供给任何合适的载体介质上的可编程装置。载体介质可以包括存储介质,诸如软盘、CD-ROM、硬盘驱动器、磁带设备或固态存储设备等。
因此,本公开提供了一种包括计算机可执行指令的计算机可读程序,以使计算机能够执行本发明的编码/解码方法。
附图说明
在附图中,示出了本原理的示例。它显示:
-已经描述的图1示出了编码器;
-已经描述的图2示出了图1的编码器的深度面片创建过程;
-已经描述的图3示出了图1的编码器的图像生成过程;
-已经描述的图4示出了在图1的编码器中使用的子块遍历的示例;
-已经描述的图5示出了解码器;
-已经描述的图6示出了图5的解码器的图像重构过程;
-图7示出了无损编码器,其中可以有利地实施本原理;
-图8示出了根据本公开实施例的图7的无损编码器的修改;
-图9示出了根据本公开实施例的图5的解码器的修改;
-图10示出了根据本公开第一实施例修改的几何形状压缩块;
-图11示出了根据本公开第二实施例修改的几何形状压缩块;
-图12示出了根据本公开第三实施例修改的几何形状压缩块;
-图13示出了根据本公开实施例的增强的增量深度(enhanced-delta-depth,EDD)码的示例;
-图14示出了根据本公开第四实施例修改的几何形状压缩块;
-图15示出了根据本公开第五实施例修改的几何形状压缩块;
-图16示出了根据本原理的示例的设备的架构的示例;
-图17示出了根据本原理的示例的通过通信网络通信的两个远程设备;和
-图18示出了根据本原理的示例的信号的语法。
相似或相同的元件用相同的附图标记表示。
具体实施方式
下文将参考附图更全面地描述本原理,在附图中示出了本原理的示例。然而,本原理可以以多种替代形式来体现,并且不应被解释为限于本文阐述的示例。因此,尽管本原理易于进行各种修改和替代形式,但是其具体示例在附图中以示例的方式示出,并将在此详细描述。然而,应该理解的是,并不旨在将本原理限制于所公开的特定形式,而是相反,本公开将覆盖落入由权利要求限定的本原理的精神和范围内的所有修改、等同物和替代物。
本文使用的术语仅仅是为了描述特定的示例,而不是为了限制本发明的原理。如本文使用的,单数形式“一”、“一个”和“该”也旨在包括复数形式,除非上下文清楚地指示出其它形式。将进一步理解,当在本说明书中使用时,术语“包括”和/或“包含”指定所陈述的特征、整数、步骤、操作、元件和/或组件的存在,但不排除一个或多个其它特征、整数、步骤、操作、元件、组件和/或其组的存在或添加。此外,当元件被称为“响应”或“连接”到另一元件时,它可以直接响应或连接到另一元件,或者可以存在中间元件。相反,当元件被称为“直接响应”或“直接连接”到其它元件时,则不存在中间元件。如本文使用的,术语“和/或”包括相关联的列出项目中的一个或多个的任意和所有组合,并且可以缩写为“/”。
应当理解,尽管术语第一、第二等可以在本文中用于描述各种元件,但是这些元件不应该被这些术语限制。这些术语仅用于区分一个元件与另一元件。例如,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件,而不脱离本原理的教导。
虽然图中的一些包括通信路径上的箭头以示出通信的主要方向,但是应当理解,通信可以在与所示箭头相反的方向上发生。
关于框图和操作流程图描述了一些示例,其中每个框表示电路元件、模块或代码部分,其包括用于实施一个或多个指定逻辑功能的一个或多个可执行指令。还应该注意的是,在其它实施方式中,在框中标注的一个或多个功能可以不按所标注的顺序发生。例如,根据所涉及的功能,连续示出的两个框实际上可以基本上同时执行,或者这些框有时可以以相反的顺序执行。
本文提到的“根据示例”或“在示例中”意味着结合该示例描述的特定特征、结构或特性可以被包括在本原理的至少一个实施方式中。说明书中不同地方出现的短语“根据示例”或“在示例中”不一定都指同一示例,也不一定是与其它示例互斥的单独的或替代的示例。
权利要求中出现的附图标记仅仅是为了说明,对权利要求的范围没有限制作用。
虽然没有明确描述,但是本示例和变型可以以任何组合或子组合来使用。
本原理被描述用于编码/解码着色点云,但是扩展到编码/解码着色点云序列,因为该序列的每个着色点云如下所述被顺序编码/解码。
根据实施例,已经描述的无损编码器50和解码器30用于实施本原理。
如在表示根据本公开实施例修改的无损编码器51的图8中清楚地显示的,已经去除了占用图编码。相反,占用信息被嵌入到要编码的深度图像中,并且有利地在图像生成块14和元数据压缩块6之间创建链接52。
对应地,如在表示解码器30的图9中显示的,在解码器30接收的压缩流中没有占用图流,并且占用图35的解码块被抑制。
如参考示出图像生成块14的图3所述,在压缩的比特流中记录了两个点,这两个点生成沿每条投影线的最小和最大深度值。相应地,编码器51为每个点云帧编码两个深度图像DepthImg0和DepthImg1。相对最小深度值D0在DepthImg0中被信令通知,同时DeltaD=(D1-D0)在DepthImg1中被信令通知,其中相对最小深度值D0是沿每条投影线的绝对最小深度值和该投影线所属的连通分量的最小深度值之间的差,其中D1是相对最大深度值,即沿每条投影线的绝对最大深度值和该投影线所属的连通分量的最小深度值之间的差。
值得注意的是,每个面片的最小深度值在每面片元数据中被信令通知。
根据图10所示的第一实施例,占用信息被嵌入到DepthImg0中。
如图3所示,通过使所有D0值都大于0并去除DepthImg0的填充步骤20,无损解码的D0值也可以揭示占用信息。
为了使所有D0值都大于0,添加了深度面片验证块54。这个新块包括两个阶段。
在第一阶段,如果需要,连通分量将被拆分。如果D0深度面片的数据范围大于最大可能范围[0,N-1],则相应连通分量被拆分成两个。N的值取决于编码比特。如果使用8比特HEVC,则N=255。如果使用10比特HEVC,则N=1023。
然后,在第二阶段,对于每个D0面片,根据以下过程来转换要编码的D0值或D0面片的最小深度值:
●如果D0面片或相应连通分量的最小深度大于0,则当前最小面片深度将减少1。因此,要编码的所有相关D0值增加1。在这种情况下,在使用重构的D0值来重构点云几何形状之前,不需要改变重构的D1值。
●如果D0面片或相应连通分量的最小深度已经为0,则当前最小面片深度保持不变。然后,当前D0面片的要编码的所有D0值增加1。在这种情况下,在重构点云几何形状之前,需要将重构的D0值减少1。
如有必要,每面片(即每连通分量)增加1个比特,以指示重构的D0值在被使用前是否需要被校正。
根据图11所示的第二实施例,当存储DeltaD值时,占用信息被嵌入到DepthImg1中。
根据该实施例,在56处,在打包DpethImg1之前,要编码的所有DeltaD值增加1。由于占用像素的大量DelatD值为0,在编码之前添加了DeltaD的转换阶段58。相应地,在解码器侧,在被用于重构点云之前,重构的DeltaD值减少1。
根据图12所示的第三实施例,当存储最大深度值D1时,占用信息被嵌入到DepthImg1中。
通过使所有D1值大于0并去除DepthImg1的填充步骤,无损解码的D1值也可以揭示占用信息。
为了使所有D1值都大于0,添加了深度面片验证块60。这个新块包括两个阶段。
在第一阶段期间,如果需要,连通分量将被拆分。如果D1深度面片的数据范围大于最大可能范围[0,N-1],则相应连通分量被拆分成两个。N的值取决于编码比特。如果使用8比特HEVC,则N=255。如果使用10比特HEVC,则N=1023。
然后,在第二阶段期间,对于每个D1面片,要编码的D1值根据以下过程进行转换:
●如果D1面片中要编码的最小D1大于0,则在使用重构的D1值重构点云几何形状之前,无需改变重构的D1值。
●如果D1面片中要编码的最小D1为0,则当前D1面片的要编码的所有D1值增加1。在这种情况下,在重构点云几何形状之前,需要将重构的D1值减少1。
每面片(即每连通分量)增加一个比特,以指示重构的D1值在被使用之前是否需要被校正。
另一种可能性是,不存储DeltaD或D1,而在DepthImg1中存储增强的增量深度(EDD)码,增强的增量深度(EDD)码是将比特级联的码字,其中该比特针对沿投影线的深度D0和深度D1之间的每个位置,指示该位置是否被占用,如图13所示。
根据图14所示的第四实施例,以与第一实施例中所描述的相同的方式将占用信息嵌入到DepthImg0中,并且DepthImg1存储这些EDD码。
根据图15所示的第五实施例,当DepthImg1存储EDD码时,占用信息被嵌入到DepthImg1中。根据该实施例,在62处,打包DepthImg1之前,要编码的所有EDD码增加1。由于占用像素的大部分EDD码是0,所以在编码之前增加了EDD码的转换阶段64。对应地,在解码器侧,在被用于重构点云之前重构的EDD码减少1。
有利地,与图7的编码器50相比,以下元数据被添加到由编码器51输出的比特流中:
●指示占用图是否在比特流中被信令通知的一个比特被添加。例如,1意味着是,0意味着不是。
●如果第一比特等于0,则指示哪个深度图像包含占用信息的一个比特被添加。例如,0意味着DepthImg0,1意味着DepthImg1。
●指示DepthImg1中存储了哪个数据的几个比特被添加。例如,两个比特,其中0意味着DepthImg1存储D1,1意味着DepthImg1存储DeltaD=D1-D0,以及2意味着DepthImg1存储EDD码。
●如果DepthImg0携带占用信息,则用于指示每面片一比特元数据是否与每面片元数据一起被信令通知的一个比特被添加,该每面片一比特元数据指示当前面片的重构的D0值在被用于重构点云几何形状之前是否需要被校正。
●如果DepthImg1携带占用信息并且DepthImg1存储D1值,则用于指示当前面片的重构的D1值在被用于重构点云几何形状之前是否需要被校正的每面片一比特元数据被添加。
对于整个比特流,上述新的元数据可以被信令通知一次,或者针对被压缩在一起的每个帧或每组帧被信令通知多次,这允许为每个帧或每组帧选择不同的编码方案。上述元数据的(多个)数据字段(多个)记录值可以直接输出到(多个)压缩的比特流,或者在输出到(多个)压缩的比特流之前被进一步熵编码。
根据参考图10至图15描述的编码器51的实施例,修改图9的解码器30。
对于第一实施例,其中占用信息被嵌入到DepthImg0中,该占用图根据下式生成:
Figure BDA0002719355720000181
此外,必要时通过将D0值减少1来重构深度面片。
对于第二实施例,其中占用信息被嵌入到DepthImg1中,该占用图根据下式生成:
Figure BDA0002719355720000182
此外,通过将所有DeltaD值减少1来重构深度面片。
对于第三实施例,其中占用率信息被嵌入到DepthImg1中,并且DepthImg1存储D1值,占用图根据下式生成:
Figure BDA0002719355720000183
如果需要,通过将相关的D1值减少1来重构D1深度面片。
对于第四实施例,其中占用信息被嵌入到DepthImg0中,占用图根据下式生成:
Figure BDA0002719355720000184
此外,在必要时,通过将D0值减少1并且从EDD码来重构深度值进而重构深度面片。
对于第五实施例,其中占用信息被嵌入到DepthImg1中,占用图根据下式生成:
Figure BDA0002719355720000185
此外,通过将所有EDD码减少1来重构深度面片。
在图1-图15中,模块是功能单元,它们可能与可区分的物理单元相关,也可能不相关。例如,这些模块或其中的一些模块可以在一个独特的组件或电路中集合在一起,或者构成软件的功能。相反,一些模块可能由独立的物理实体组成。与本原理兼容的装置可以使用纯硬件来实施,例如使用诸如ASIC、FPGA、VLSI(分别是专用集成电路、现场可编程门阵列、超大规模集成)的专用硬件来实施,或者由被嵌入到设备中的几个集成电子组件或者由硬件和软件组件的混合来实施。
图16表示设备1100的示例性架构,设备1100可以被配置为实施关于图1-图15来描述的方法。
设备1100包括由数据和地址总线1101链接在一起的以下元件:
-微处理器1102(或CPU),其例如是DSP(或数字信号处理器);
-ROM(只读存储器)1103;
-RAM(随机存取存储器)1104;
-I/O接口1105,用于从应用接收要传输的数据;以及
-电池1106。
根据示例,电池1106在设备外部。在每个提及的存储器中,说明书中使用的词“寄存器”可以对应于小容量区域(一些比特)或非常大的区域(例如,整个程序或大量接收或解码的数据)。ROM 1103至少包括程序和参数。ROM 1103可以存储用于执行根据本原理的技术的算法和指令。当被打开时,CPU 1102将程序上传到RAM中,并执行对应的指令。
RAM 1104包括在寄存器中由CPU 1102执行并在设备1100打开后上传的程序、寄存器中的输入数据、寄存器中的方法的不同状态的中间数据以及寄存器中用于执行该方法的其它变量。
本文描述的实施方式可以在例如方法或过程、装置、软件程序、数据流或信号中实施。即使仅在单一实现形式的上下文中讨论(例如,仅作为方法或设备讨论),所讨论的特征的实施方式也可以以其它形式(例如,程序)实施。装置可以在例如适当的硬件、软件和固件中实施。这些方法可以在例如诸如处理器的装置中实施,处理器通常指处理设备,包括例如计算机、微处理器、集成电路或可编程逻辑设备。处理器还包括通信设备,例如计算机、手机、便携式/个人数字助理(“PDA”)和便于终端用户之间信息通信的其它设备。
根据编码或编码器的示例,从源获得输入点云。例如,源属于包括以下各项的集合:
-本地存储器(1103或1104),例如视频存储器或RAM(或随机存取存储器)、闪存、ROM(或只读存储器)、硬盘;
-存储接口(1105),例如具有大容量存储装置、RAM、闪存、ROM、光盘或磁性支持的接口;
-通信接口(1105),例如有线接口(例如总线接口、广域网接口、局域网接口)或无线接口(例如IEEE 802.11接口或蓝牙接口);以及
-图像捕获电路(例如传感器,例如CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体))。
根据解码或解码器的示例,解码的点云被传送到目的地;具体地,目的地属于包括以下各项的集合:
-本地存储器(1103或1104),例如视频存储器或RAM、闪存、硬盘;
-存储装置接口(1105),例如具有大容量存储装置、RAM、闪存、ROM、光盘或磁性支持的接口;
-通信接口(1105),例如有线接口(例如总线接口(例如USB(或通用串行总线))、广域网接口、局域网接口、HDMI(高清晰度多媒体接口)接口)或无线接口(例如IEEE 802.11接口、WiFi或蓝牙接口);
-渲染设备;以及
-显示器。
根据编码或编码器的示例,比特流(压缩流)被传送到目的地。作为示例,比特流被存储在本地或远程存储器中,例如视频存储器(1104)或RAM(1104)、硬盘(1103)。在变型中,比特流被传送到存储接口(1105),例如具有大容量存储器、闪存、ROM、光盘或磁支持的接口,和/或通过通信接口(1105)传输,例如点到点链路、通信总线、点到多点链路或广播网络的接口。
根据解码或解码器的示例,从源获得比特流(压缩流)。示例性地,比特流从本地存储器读取,例如视频存储器(1104)、RAM(1104)、ROM(1103)、闪存(1103)或硬盘(1103)。在一个变型中,比特流从存储装置接口(1105)接收,例如具有大容量存储装置、RAM、ROM、闪存、光盘或磁支持的接口,和/或通过通信接口(1105)接收,例如点到点链路、总线、点到多点链路或广播网络的接口。
根据示例,被配置为实施关于图1和图9描述的编码方法的设备1100属于包括以下各项的集合:
-移动设备;
-具有3D捕获功能的智能手机或电视机;
-通信设备;
-游戏设备;
-平板(或平板电脑);
-膝上型计算机;
-静止图像照相机;
-摄像机;
-编码芯片;
-静止图像服务器;以及
-视频服务器(例如广播服务器、视频点播服务器或网络服务器)。
根据示例,被配置为实施关于图3和图10描述的解码方法的设备1100属于包括以下各项的集合:
-移动设备;
-头戴式显示器(Head Mounted Display,HMD);
-(混合现实)智能眼镜;
-全息设备;
-通信设备;
-游戏设备;
-机顶盒;
-电视机;
-平板(或平板电脑);
-膝上型计算机;
-显示器;
-立体显示器;以及
-解码芯片。
根据图17所示的本原理的示例,在通信网络NET上的两个远程设备A和B之间的传输环境中,设备A包括与存储器RAM和ROM相关的处理器,其被配置为实施关于图8描述的用于编码着色点云的方法,并且设备B包括与存储器RAM和ROM相关的处理器,其被配置为实施关于图9描述的用于解码的方法。
根据示例,该网络是广播网络,适于将编码的着色点云从设备A广播到包括设备B的解码设备。
旨在由设备A发送的信号携带比特流。
图18示出了当数据通过基于分组的传输协议传输时这种信号的语法的示例。每个被传输的分组P包括报头H和有效载荷PAYLOAD。
本文描述的各种过程和特征的实施方式可以体现在各种不同的装备或应用中。这种装备的示例包括编码器、解码器、从解码器输出的后处理器处理、向编码器提供输入的前处理器、视频编码器、视频解码器、视频编解码器、网络服务器、机顶盒、膝上型计算机、个人计算机、手机、PDA、HMD、智能眼镜以及用于处理图像或视频的任何其它设备或其它通信设备。应该清楚的是,该装备可以是移动的,甚至可以安装在移动车辆中。
此外,这些方法可以通过由处理器执行的指令来实施,并且这样的指令(和/或由实施方式产生的数据值)可以存储在计算机可读存储介质上。计算机可读存储介质可以采取体现在一个或多个计算机可读介质中的计算机可读程序产品的形式,并且其上包含可由计算机执行的计算机可读程序代码。本文使用的计算机可读存储介质被认为是非暂时性存储介质,其具有在其中存储信息的固有能力以及提供从中检索信息的固有能力。计算机可读存储介质可以是,例如,但不限于,电子、磁、光、电磁、红外或半导体系统、装置或设备,或前述的任何合适的组合。应当理解,虽然下面提供了可以应用本发明原理的计算机可读存储介质的更具体的示例,但是如本领域普通技术人员容易理解的那样,仅仅是说明性的而不是穷举性的列表:便携式计算机磁盘;硬盘;只读存储器(ROM);可擦除可编程只读存储器(EPROM或闪存);便携式紧凑光盘只读存储器(CD-ROM);光学存储设备;磁性存储设备;或前述的任何合适的组合。
指令可以形成有形地体现在处理器可读介质上的应用程序。
指令可以是例如硬件、固件、软件或其组合。指令可以在例如操作系统、单独的应用或这两者的组合中找到。因此,处理器可以被表征为例如被配置为执行过程的设备和包括具有用于执行过程的指令的处理器可读介质(例如存储设备)的设备。此外,除了指令之外或代替指令,处理器可读介质可以存储由实施方式产生的数据值。
对于本领域技术人员来说显而易见的是,实施方式可以产生各种信号,这些信号被格式化以携带例如可以被存储或传输的信息。该信息可以包括例如用于执行方法的指令,或者由所描述的实施方式之一产生的数据。例如,信号可以被格式化为将用于写入或读取本原理的所述示例的语法的规则作为数据携带,或者将由本原理的所述示例写入的实际语法值作为数据携带。这种信号可以被格式化为例如电磁波(例如,使用频谱的射频部分)或基带信号。格式化可以包括,例如,编码数据流和用编码的数据流调制载波。信号携带的信息可以是例如模拟或数字信息。众所周知,信号可以通过各种不同的有线或无线链路传输。信号可以存储在处理器可读介质上。
已经描述了许多方式。然而,应当理解,可以进行各种修改。例如,不同实施方式的元素可以被组合、补充、修改或去除以产生其它实施方式。此外,本领域普通技术人员将理解,可以用其它结构和过程来代替所公开的那些结构或过程,并且得到的实施方式将以至少基本相同的方式来执行至少基本相同的功能,以实现与所公开的实施方式至少基本相同的结果。因此,本申请预期了这些和其它实施方式。

Claims (14)

1.一种方法,包括:
-获得占用信息,所述占用信息指示在投影平面上定义的2D规则网格的块是否与点云的至少一个点在所述投影平面上的正交投影的深度信息相关联;
-将所述占用信息嵌入到存储所述深度信息的图像中;以及
-编码所述图像。
2.一种设备,包括:
-用于获得占用信息的部件,所述占用信息指示在投影平面上定义的2D规则网格的块是否与深度信息相关联,所述深度信息是点云的至少一个点在所述投影平面上的正交投影的结果;
-用于将所述占用信息嵌入到存储所述深度信息的图像中的部件;以及
-用于编码所述图像的部件。
3.根据权利要求1所述的方法或权利要求2所述的设备,其中将所述占用信息嵌入到存储所述深度信息的图像中包括偏移要存储的深度信息。
4.根据权利要求3所述的方法或设备,其中,所述方法还包括传输用于指示深度信息已经被偏移的信息。
5.根据权利要求3所述的方法或设备,其中,所述图像存储距所述投影平面具有最小距离的点云的点的深度信息。
6.根据权利要求3所述的方法或设备,其中,所述图像存储距所述投影平面具有最大距离的点云的点的深度信息。
7.根据权利要求3所述的方法或设备,其中,所述图像存储深度信息,所述深度信息表示距所述投影平面具有最大距离的点云的点的深度信息和距所述投影平面具有最小距离的点云的点的深度信息之间的差。
8.一种方法,包括:
-解码存储点云的至少一个点在投影平面上的正交投影的深度信息的图像;
-从解码的深度图像中推导出占有信息,所述占有信息指示在所述投影平面上定义的2D规则网格的块是否与所述解码的深度信息相关联。
9.一种设备,包括:
-用于解码存储点云的至少一个点在投影平面上的正交投影的深度信息的图像的部件;
-用于从解码的深度图像中推导出占有信息的部件,所述占有信息指示在所述投影平面上定义的2D规则网格的块是否与所述解码的深度信息相关联。
10.根据权利要求8所述的方法或根据权利要求9所述的设备,其中,所述方法还包括接收指示深度信息是否必须被偏移的信息的步骤,或者所述设备还包括用于接收指示深度信息是否必须被偏移的信息的部件,并且根据所接收的信息偏移解码的深度信息。
11.一种携带比特流的信号,所述比特流包括点云的至少一个点在投影平面上的正交投影的深度信息,所述深度信息嵌入占用信息,所述占用信息指示在所述投影平面上定义的2D规则网格的块是否与所述深度信息相关联。
12.一种非暂时性处理器可读介质,包括用于使一个或多个处理器执行以下操作的指令:
-获得占用信息,所述占用信息指示在投影平面上定义的2D规则网格的块是否与点云的至少一个点在所述投影平面上的正交投影的深度信息相关联;
-将所述占用信息嵌入到存储所述深度信息的图像中;以及
-编码所述图像。
13.一种非暂时性处理器可读介质,包括用于使一个或多个处理器执行以下操作的指令:
-解码存储点云的至少一个点在投影平面上的正交投影的深度信息的图像;
-从解码的深度图像中推导出占有信息,所述占有信息指示在所述投影平面上定义的2D规则网格的块是否与所述解码的深度信息相关联。
14.一种非暂时性计算机可读介质,包括点云的至少一个点在投影平面上的正交投影的深度信息,所述深度信息嵌入占用信息,所述占用信息指示在所述投影平面上定义的2D规则网格的块是否与所述深度信息相关联。
CN201980025241.2A 2018-04-11 2019-04-03 一种用于编码/解码表示3d对象的点云的方法和装置 Active CN111971967B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP18305431.1 2018-04-11
EP18305431 2018-04-11
EP18306132.4 2018-08-23
EP18306132.4A EP3614672A1 (en) 2018-08-23 2018-08-23 A method and apparatus for encoding/decoding a point cloud representing a 3d object
PCT/US2019/025485 WO2019199531A1 (en) 2018-04-11 2019-04-03 A method and apparatus for encoding/decoding a point cloud representing a 3d object

Publications (2)

Publication Number Publication Date
CN111971967A true CN111971967A (zh) 2020-11-20
CN111971967B CN111971967B (zh) 2024-09-17

Family

ID=66102830

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980025241.2A Active CN111971967B (zh) 2018-04-11 2019-04-03 一种用于编码/解码表示3d对象的点云的方法和装置

Country Status (8)

Country Link
US (1) US20210183109A1 (zh)
EP (1) EP3777182A1 (zh)
JP (1) JP7431742B2 (zh)
KR (1) KR20200140824A (zh)
CN (1) CN111971967B (zh)
CA (1) CA3096819A1 (zh)
SG (1) SG11202008973TA (zh)
WO (1) WO2019199531A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115904294A (zh) * 2023-01-09 2023-04-04 山东矩阵软件工程股份有限公司 一种环境可视化方法、系统、存储介质和电子设备
WO2023050432A1 (zh) * 2021-09-30 2023-04-06 浙江大学 编解码方法、编码器、解码器以及存储介质
WO2024149353A1 (en) * 2023-01-12 2024-07-18 Douyin Vision Co., Ltd. Jointly coding of texture and displacement data in dynamic mesh coding

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3824632A1 (en) * 2018-07-18 2021-05-26 Telefonaktiebolaget Lm Ericsson (Publ) Video-based coding of point cloud occcupancy map
KR102640235B1 (ko) * 2019-01-11 2024-02-23 삼성전자주식회사 3차원 데이터 부호화 방법 및 장치 및 3차원 데이터 복호화 방법 및 장치
US11823421B2 (en) * 2019-03-14 2023-11-21 Nokia Technologies Oy Signalling of metadata for volumetric video
JP7560451B2 (ja) * 2019-05-10 2024-10-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
US11979607B2 (en) * 2019-05-30 2024-05-07 Lg Electronics Inc. Apparatus and method for processing point cloud data
US11315289B2 (en) * 2019-09-30 2022-04-26 Nokia Technologies Oy Adaptive depth guard band
US20210211703A1 (en) * 2020-01-07 2021-07-08 Apple Inc. Geometry information signaling for occluded points in an occupancy map video
US11430179B2 (en) * 2020-02-24 2022-08-30 Microsoft Technology Licensing, Llc Depth buffer dilation for remote rendering
US11417063B2 (en) * 2020-09-01 2022-08-16 Nvidia Corporation Determining a three-dimensional representation of a scene
US11606556B2 (en) * 2021-07-20 2023-03-14 Tencent America LLC Fast patch generation for video based point cloud coding
US11710258B1 (en) 2023-01-25 2023-07-25 Illuscio, Inc. Systems and methods for compressing three-dimensional image data

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030214502A1 (en) * 2001-11-27 2003-11-20 Samsung Electronics Co., Ltd. Apparatus and method for depth image-based representation of 3-dimensional object
US20110007072A1 (en) * 2009-07-09 2011-01-13 University Of Central Florida Research Foundation, Inc. Systems and methods for three-dimensionally modeling moving objects
US20140132721A1 (en) * 2012-11-14 2014-05-15 Qualcomm Incorporated Structured Light Active Depth Sensing Systems Combining Multiple Images to Compensate for Differences in Reflectivity and/or Absorption
JP2014112748A (ja) * 2011-03-18 2014-06-19 Sharp Corp 画像符号化装置および画像復号装置
US20160086353A1 (en) * 2014-09-24 2016-03-24 University of Maribor Method and apparatus for near-lossless compression and decompression of 3d meshes and point clouds
CN105556965A (zh) * 2013-07-15 2016-05-04 诺基亚技术有限公司 用于视频编码和解码的方法、装置和计算机程序产品
US20160275690A1 (en) * 2015-03-20 2016-09-22 Qualcomm Incorporated Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology
CN106662749A (zh) * 2014-07-15 2017-05-10 奥斯坦多科技公司 用于全视差光场压缩的预处理器
US20170214916A1 (en) * 2016-01-26 2017-07-27 Dolby Laboratories Licensing Corporation Content-adaptive reshaping for high dynamic range images
CN107025673A (zh) * 2017-04-11 2017-08-08 太原科技大学 虚拟结构光3d数据压缩算法的局部误差抑制方法
US20170347120A1 (en) * 2016-05-28 2017-11-30 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
EP3301926A1 (en) * 2016-09-30 2018-04-04 Thomson Licensing A method and a device for reconstructing a point cloud representative of a scene using light-field data

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3340629A1 (en) 2016-12-21 2018-06-27 Thomson Licensing Method and apparatus for embedding key information in an image
TWI815842B (zh) 2018-01-16 2023-09-21 日商索尼股份有限公司 影像處理裝置及方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030214502A1 (en) * 2001-11-27 2003-11-20 Samsung Electronics Co., Ltd. Apparatus and method for depth image-based representation of 3-dimensional object
US20110007072A1 (en) * 2009-07-09 2011-01-13 University Of Central Florida Research Foundation, Inc. Systems and methods for three-dimensionally modeling moving objects
JP2014112748A (ja) * 2011-03-18 2014-06-19 Sharp Corp 画像符号化装置および画像復号装置
US20140132721A1 (en) * 2012-11-14 2014-05-15 Qualcomm Incorporated Structured Light Active Depth Sensing Systems Combining Multiple Images to Compensate for Differences in Reflectivity and/or Absorption
CN105556965A (zh) * 2013-07-15 2016-05-04 诺基亚技术有限公司 用于视频编码和解码的方法、装置和计算机程序产品
CN106662749A (zh) * 2014-07-15 2017-05-10 奥斯坦多科技公司 用于全视差光场压缩的预处理器
US20160086353A1 (en) * 2014-09-24 2016-03-24 University of Maribor Method and apparatus for near-lossless compression and decompression of 3d meshes and point clouds
US20160275690A1 (en) * 2015-03-20 2016-09-22 Qualcomm Incorporated Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology
US20170214916A1 (en) * 2016-01-26 2017-07-27 Dolby Laboratories Licensing Corporation Content-adaptive reshaping for high dynamic range images
US20170347120A1 (en) * 2016-05-28 2017-11-30 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
EP3301926A1 (en) * 2016-09-30 2018-04-04 Thomson Licensing A method and a device for reconstructing a point cloud representative of a scene using light-field data
CN107025673A (zh) * 2017-04-11 2017-08-08 太原科技大学 虚拟结构光3d数据压缩算法的局部误差抑制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
INDRANIL SINHAROY等: "Lossless Coding in TMC2", 《121. MPEG MEETING;22-1-2018 - 26-1-2018;GWANGJU;MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11, NO.M42170, 2018-1-17,XP030070512》, pages 1 - 10 *
KHALED MAMMOU: "PCC Test Model Category 2 v0", 《120.MPEG MEETING;2017.10.23-2017.10.27;MACAU;MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11,NO.N17248,2017.12.15,XP030023909》, pages 1 - 11 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023050432A1 (zh) * 2021-09-30 2023-04-06 浙江大学 编解码方法、编码器、解码器以及存储介质
CN115904294A (zh) * 2023-01-09 2023-04-04 山东矩阵软件工程股份有限公司 一种环境可视化方法、系统、存储介质和电子设备
WO2024149353A1 (en) * 2023-01-12 2024-07-18 Douyin Vision Co., Ltd. Jointly coding of texture and displacement data in dynamic mesh coding

Also Published As

Publication number Publication date
JP2021518694A (ja) 2021-08-02
US20210183109A1 (en) 2021-06-17
CN111971967B (zh) 2024-09-17
CA3096819A1 (en) 2019-10-17
SG11202008973TA (en) 2020-10-29
JP7431742B2 (ja) 2024-02-15
WO2019199531A1 (en) 2019-10-17
EP3777182A1 (en) 2021-02-17
KR20200140824A (ko) 2020-12-16

Similar Documents

Publication Publication Date Title
CN111971967B (zh) 一种用于编码/解码表示3d对象的点云的方法和装置
JP7389751B2 (ja) 三次元物体を表すポイントクラウドを符号化/復号する方法及び装置
US11838547B2 (en) Method and device for encoding the geometry of a point cloud
JP2015512072A (ja) 3次元(3d)モデルのテクスチャ情報を圧縮する方法及び装置
CN110915216A (zh) 用于编码/解码表示3d对象的几何形状和颜色的有色点云的方法和装置
JP2024079679A (ja) 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法
CN116235497A (zh) 一种用于用信号通知基于多平面图像的体积视频的深度的方法和装置
JP7541025B2 (ja) 点群の欠落した点の処理
EP3614672A1 (en) A method and apparatus for encoding/decoding a point cloud representing a 3d object
CN114503579A (zh) 使用中间样品的贴片对点云进行编码和解码
WO2023144445A1 (en) A method, an apparatus and a computer program product for video encoding and video decoding
US12015777B2 (en) Signaling profile level exemptions for immersive video
EP3614673A1 (en) A method and apparatus for encoding/decoding a point cloud representing a 3d object
JP2022537975A (ja) 点群の処理
CN118451466A (zh) 编码/解码一系列数据的方法和装置
WO2024084316A1 (en) V3c syntax extension for mesh compression
CN116033186A (zh) 一种点云数据处理方法、装置、设备以及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant