CN114424247A - 用于点云编码的方法及装置 - Google Patents

用于点云编码的方法及装置 Download PDF

Info

Publication number
CN114424247A
CN114424247A CN202180005441.9A CN202180005441A CN114424247A CN 114424247 A CN114424247 A CN 114424247A CN 202180005441 A CN202180005441 A CN 202180005441A CN 114424247 A CN114424247 A CN 114424247A
Authority
CN
China
Prior art keywords
component
prediction residual
information
residual information
chroma prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180005441.9A
Other languages
English (en)
Inventor
芮世薰
高文
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN114424247A publication Critical patent/CN114424247A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes

Abstract

在点云解码器中的点云几何解码的方法中,从包括点集的点云的编码比特流接收点集中的点的色度预测残差信息。色度预测残差信息包括Cb分量和Cr分量。此外,通过处理电路从点云的编码比特流确定色度预测残差信息的Cb分量和Cr分量之间的相关性类型。基于色度预测残差信息的Cb分量和Cr分量之间的相关性类型,对色度预测残差信息进行解码。

Description

用于点云编码的方法及装置
援引并入
本申请要求于2021年3月24日提交的美国专利申请No.17/211,536、题为“用于点云编码的方法及装置”的优先权,该美国专利申请要求于2020年4月17日提交的美国临时申请No.63/011,913、题为“用于点云属性的联合色度信道编码的方法及装置”的优先权。这些在先申请的公开内容通过引用整体并入本文中。
技术领域
本公开描述了总体上与点云编码有关的实施例。
背景技术
本文所提供的背景描述是出于总体上呈现本公开的内容的目的。在该背景部分中描述的范围内,目前命名的发明人的作品以及提交之时不可另行具备现有技术资格的本描述的各个方面既未明确亦未默示地承认为本公开的现有技术。
开发了各种技术来捕获和表示世界,例如,世界中的对象、世界中的环境及三维(3D,3-dimensional)空间中的类似物。世界的3D表示可以实现更沉浸式的交互和交流形式。点云可以用作世界的3D表示。点云是3D空间中的点集,每个点都具有相关联的属性,例如颜色、材料属性,纹理信息、强度属性、反射率属性、运动相关属性、模态属性和/或其他各种属性。这样的点云可包括大量数据,并且此类点云的存储和传输成本高且耗时。
发明内容
本公开的各方面提供了用于处理点云数据的方法和装置。根据本公开的一方面,提供了一种在点云解码器中的点云几何解码的方法。在该方法中,可以从包括点集的点云的编码比特流接收点集中的点的色度预测残差信息。色度预测残差信息可以包括Cb分量和Cr分量。此外,可以通过处理电路从点云的编码比特流确定色度预测残差信息的Cb分量和Cr分量的相关性类型。可以基于色度预测残差信息的Cb分量和Cr分量的相关性类型对色度预测残差信息进行解码。
在一个示例中,为了对色度预测残差信息进行解码,可以基于Cb分量和Cr分量的相关性类型为正,对色度预测残差信息的Cb分量和色度预测残差信息的Cb分量减去Cr分量进行解码。
在另一示例中,为了对色度预测残差信息进行解码,可以基于Cb分量和Cr分量的相关性类型为负,对色度预测残差信息的Cb分量和色度预测残差信息的Cb分量加上Cr分量进行解码。
在又一示例中,为了对色度预测残差信息进行解码,可以基于Cb分量和Cr分量之间不存在相关性,对色度预测残差信息的Cb分量和色度预测残差信息的Cr分量进行解码。
在一些实施例中,可以基于来自编码区域、在先细节级别(LOD)和与点正相关的N个最邻近点之一的第一数量残差点,确定色度预测残差信息的Cb分量和Cr分量之间的相关性类型为正。在一些实施例中,可以基于来自编码区域、在先LOD和与点负相关的N个最邻近点之一的的第二数量残差点,确定色度预测残差信息的Cb分量和Cr分量之间的相关性类型为负。
在一些实施例中,编码区域可包括以下至少之一:帧、视频序列、图片组(GOP,group of pictures)、图片、切片和瓦片。
在一些实施例中,N可以是等于3或4的正整数。
在该方法中,编码比特流还可以包括指示色度预测残差信息的Cb分量和Cr分量之间的相关性类型的信令信息。在一个示例中,信令信息可以基于来自编码区域、在先LOD、点所属的LOD和与点正相关的N个最邻近点之一的第一数量残差点,指示色度预测残差信息的Cb分量和Cr分量的相关性类型为正。在另一示例中,信令信息可以基于来自编码区域、在先LOD、点所属的LOD和与点负相关的N个最邻近点之一的第二数量残差点,指示色度预测残差信息的所述Cb分量和Cr分量的相关性类型为负。
根据本公开的一方面,提供了一种在点云解码器中的点云几何解码的方法。在该方法中,可以从包括点集的点云的编码比特流接收第一信令信息。第一信令信息可以指示基于点集中的点的第一色度预测残差信息和第二色度预测残差信息的相关性类型,对第一色度预测残差信息和第二色度预测残差信息进行解码。编码比特流可以包括第一色度预测残差信息和第二色度预测残差信息。可以基于第一信令信息确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型。此外,可以基于第一色度预测残差信息、第二色度预测残差信息以及第一色度预测残差信息与第二色度预测残差信息之间的相关性类型,对第一色度信息和第二色度信息进行重建。
在一些实施例中,可以基于第一信令信息为第一值来确定第二信令信息。第二信令信息可以指示第一色度预测残差信息与第二色度预测残差信息之间的相关性类型由第三信令信息确定。可以基于第二信令信息为第一值来确定第三信令信息。可以基于第三信令信息确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型。
在一个示例中,可以基于第三信令信息为第一值,确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型为负。在另一示例中,可以基于第三信令信息为第二值,确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型为正。
在该方法中,可以通过对第一色度预测残差信息执行第一逆量化处理来重建第一色度信息。此外,响应于第一信令信息为第一值,可以对第二色度信息进行重建,第二色度信息包括第一部分和第二部分。可以通过对第二色度预测残差信息执行第二逆量化处理来获得第一部分,以及可通过将所重建的第一色度信息以及第一色度预测残差信息和第二色度预测残差信息之间的相关性类型相乘来获得第二部分。
在一些实施例中,可以通过对第一色度预测残差信息执行第一逆量化处理来重建第一色度信息。响应于所述第一信令信息为第二值,可以通过对第二色度预测残差信息执行第二逆量化处理来重建第二色度信息。
在一些实施例中,第一色度预测残差信息和第二色度预测残差信息可以以具有零偏移的一阶关系相关。
在一些示例中,用于处理点云数据的装置包括接收电路和处理电路,该接收电路和处理电路被配置为执行上述方法中的一个或多个。
附图说明
通过以下详细描述和附图,所公开主题的其他特征、性质和各种优点将更加明显,在附图中:
图1是根据实施例的通信系统的简化框图的示意图。
图2是根据实施例的流式系统的简化框图的示意图。;
图3示出了根据一些实施例的用于对点云帧进行编码的编码器的框图。
图4示出了根据一些实施例的用于对与点云帧对应的压缩比特流进行解码的解码器的框图。
图5是根据实施例的视频解码器的简化框图的示意图。
图6是根据实施例的视频解码器的简化框图的示意图。
图7示出了根据一些实施例的用于对与点云帧对应的压缩比特流进行解码的解码器的框图。
图8示出了根据一些实施例的用于对点云帧进行编码的编码器的框图。
图9示出了根据本公开的一些实施例的基于图形的点云压缩(G-PCC,graphic-based point cloud compression)中的细节级别(LOD,level of detail)生成过程的示意图。
图10示出了根据本公开的一些实施例的用于G-PCC中的属性编码的提升转换的示意图。
图11示出了根据一些实施例的概述第一过程示例的第一流程图。
图12示出了根据一些实施例的概述第二过程示例的第二流程图。
图13是根据实施例的计算机系统的示意图。
具体实施方式
世界的先进3D表示正在促成更沉浸式的互动和交流形式,并且还使得机器能够理解、解释和引导人类世界。3D点云已经成为这种信息的一种有效表示。一些与点云数据相关联的应用情况已经被确定,对点云表示和压缩的相应要求也被开发出来。例如,3D点云可以用于自动驾驶中的对象检测和定位。3D点云还用于地理信息系统(GIS,geographicinformation systems)中的地图绘制,以及用于文化遗产以可视化和归档文化遗产对象和收藏品。
点云通常是指三维空间中的点集,每个点具有相关联的属性。属性可以包括颜色、材料属性,纹理信息、强度属性、反射率属性、运动相关属性、模态属性和/或各种其他属性。点云可以用于重建对象或场景作为这些点的组合。这些点能够在各种设置中使用多个相机、深度传感器和/或激光雷达来捕获,并且可以由数千至数十亿个点组成,以真实地表示重建的场景。
压缩技术可以减少表示点云所需的数据量,从而可以更快地传输或减少存储。因此,需要对点云进行有损压缩以用于实时通信和六自由度(6DoF)虚拟现实的技术。此外,在用于自动驾驶的动态绘图和文化遗产应用等方面,寻求无损点云压缩的技术。因此,ISO/IEC MPEG(JTC 1/SC 29/WG 11)已经开始制定标准,以解决几何形状和属性(例如,颜色和反射率)的压缩、可缩放/渐进式编码、随时间捕获的点云序列的编码以及对点云子集的随机访问。
图1示出了根据本公开的实施例的通信系统(100)的简化框图。通信系统(100)包括能够通过例如网络(150)彼此通信的多个终端装置。例如,通信系统(100)包括通过网络(150)互连的终端装置对(110)和(120)。在图1的示例中,第一终端装置对(110)和(120)可以执行点云数据的单向传输。例如,终端装置(110)可以压缩由与终端装置(110)连接的传感器(105)捕获的点云(例如,表示结构的点)。压缩的点云可以例如以比特流的形式经由网络(150)传输到另一终端装置(120)。终端装置(120)可以从网络(150)接收压缩的点云,对比特流进行解压缩以重建点云,并适当地显示重建的点云。单向数据传输在媒体服务应用等中是常见的。
在图1的示例中,终端装置(110)和终端装置(120)可以被示为服务器和个人计算机,但是本公开的原理不限于此。本公开的实施例找到了与膝上型计算机、平板计算机、智能电话、游戏终端、媒体播放器和/或专用3D设备的应用。网络(150)表示在终端装置(110)和终端装置(120)之间传输压缩的点云的任意数量的网络。网络(150)可以包括例如有线(有线的)和/或无线通信网络。网络(150)可以在电路交换和/或分组交换信道中交换数据。代表性网络包括电信网络、局域网、广域网和/或因特网。出于本讨论的目的,除非在下文中解释,否则网络(150)的体系结构和拓扑对于本公开的操作是不重要的。
图2示出了根据实施例的流式系统(200)的简化框图。图2示例是所公开的主题在点云上的应用。所公开的主题可以同样适用于其他启用点云的应用,例如,3D远程呈现应用、虚拟现实应用等。
流式系统(200)可以包括捕获子系统(213)。捕获子系统(213)可以包括点云源(201),例如,光检测和测距(LIDAR)系统、3D相机、3D扫描仪、在软件中生成未压缩的点云的图形生成组件,以及生成例如未压缩的点云(202)的类似组件。在示例中,点云(202)包括由3D相机捕获的点。与压缩的点云(204)(压缩点云的比特流)相比,点云(202)被描绘为粗线以强调高数据量。压缩的点云(204)可以通过包括耦合到点云源(201)的编码器(203)的电子设备(220)生成。编码器(203)可包括硬件、软件或硬件和软件的组合,以启用或实现如下文更详细描述的所公开主题的各个方面。压缩的点云(204)(或压缩的点云(204)的比特流)可以存储在流式服务器(205)上以供将来使用,压缩的点云(204)被描绘为细线以强调与点云流(202)相比时较低的数据量。一个或多个流式客户端子系统,例如,图2中的客户端子系统(206)和客户端子系统(208),可访问流服务器(205)以检索压缩的点云(204)的副本(207)和副本(209)。客户端子系统(206)可以包括例如在电子设备(230)中的解码器(210)。解码器(210)对压缩的点云的输入副本(207)进行解码,并创建可在渲染装置(212)上渲染的重建点云(211)的输出流。
值得注意的是,电子设备(220)和电子设备(230)可以包括其他组件(未示出)。例如,电子设备(220)可以包括解码器(未示出),以及电子设备(230)可以包括编码器(未示出)。
在一些流传输系统中,可以根据某些标准对压缩的点云(204)、压缩的点云(207)和压缩的点云(209)(例如,压缩的点云的比特流)进行压缩。在示例中,视频编码标准用于点云的压缩。这些标准的示例包括:高效视频编码(HEVC,High Efficiency VideoCoding)、多功能视频编码(VVC,Versatile Video Coding)等。
图3示出了根据一些实施例的用于对点云帧进行编码的V-PCC编码器(300)的框图。在一些实施例中,V-PCC编码器(300)可用于通信系统(100)和流式系统(200)。例如,编码器(203)可以以与V-PCC编码器(300)类似的方式进行配置和操作。
V-PCC编码器(300)接收点云帧作为未压缩的输入,并生成与压缩的点云帧对应的比特流。在一些实施例中,V-PCC编码器(300)可以从点云源(例如,点云源(201)等)接收点云帧。
在图3示例中,V-PCC编码器(300)包括贴片生成模块(306)、贴片打包模块(308)、几何图像生成模块(310)、纹理图像生成模块(312)、贴片信息模块(304)、占用图模块(314)、平滑模块(336)、图像填充模块(316)和图像填充模块(318)、组扩展模块(320)、视频压缩模块(322)、视频压缩模块(323)和视频压缩模块(332)、辅助贴片信息压缩模块(338)、熵压缩模块(334)和复用器(324)。
根据本公开的一个方面,V-PCC编码器(300)将3D点云帧与用于将压缩的点云转换回解压缩的点云的一些元数据(例如,占用图和贴片信息)一起转换成基于图像的表示。在一些示例中,V-PCC编码器(300)可以将3D点云帧转换成几何图像、纹理图像和占用图,然后使用视频编码技术将几何图像、纹理图像和占用图编码成比特流。通常,几何图像是具有像素的二维(2D)图像,该像素填充有与投影到像素的点相关联的几何值,且填充有几何值的像素可以称为几何样本。纹理图像是具有像素的2D图像,该像素填充有与投影到像素的点相关联的纹理值,且填充有纹理值的像素可以称为纹理样本。占用图是具有填充有指示被贴片占用或未被贴片占用的值的像素的2D图像。
贴片(patch)通常可以指由点云描述的表面的连续子集。在一示例中,贴片包括彼此表面法向量偏离小于阈值量的点。贴片生成模块(306)将点云分割成一组贴片,这些贴片可以是重叠的,也可以是不重叠的,使得可以通过相对于2D空间中的平面的深度场来描述每个贴片。在一些实施例中,贴片生成模块(306)旨在将点云分解为具有平滑边界的最小数量的贴片,同时也使重建误差最小化。
贴片信息模块(304)能够收集指示贴片的大小和形状的贴片信息。在一些示例中,可以将贴片信息打包到图像帧中,然后由辅助贴片信息压缩模块(338)进行编码,以生成压缩的辅助贴片信息。
贴片打包模块(308)被配置为将提取的贴片映射到2D网格上,同时最小化未使用的空间并保证网格的每个M×M(例如,16x16)块与唯一的贴片相关联。有效的贴片打包可以通过最小化未使用空间或保证时间一致性直接影响压缩效率。
几何图像生成模块(310)可以生成与给定贴片位置处的点云的几何相关联的2D几何图像。纹理图像生成模块(312)可以生成与给定贴片位置处的点云的纹理相关联的2D纹理图像。几何图像生成模块(310)和纹理图像生成模块(312)利用在打包过程中计算得到的3D到2D映射来将点云的几何和纹理存储为图像。为了更好地处理多个点被投影到同一样本的情况,每个贴片被投影到称为层的两个图像上。在一示例中,通过YUV420-8比特格式的WxH的单色帧来表示几何图像。为了生成纹理图像,纹理生成过程利用重建的/平滑的几何图形来计算与重新采样的点相关联的颜色。
占用图模块(314)可以生成描述每个单元处的填充信息的占用图。例如,占用图像包括二进制图,该二进制图指示网格的每个单元格是属于空白空间还是属于点云。在一示例中,占用图使用二进制信息来描述每个像素是否被填充。在另一示例中,占用图使用二进制信息来描述每个像素块是否被填充。
可使用无损编码或有损编码来对占用图模块(314)生成的占用图进行压缩。当使用无损编码时,熵压缩模块(334)用于压缩该占用图。当使用有损编码时,视频压缩模块(332)用于压缩该占用图。
值得注意的是,贴片打包模块(308)可以在图像帧中打包的2D贴片之间留下一些空白空间。图像填充模块(316)和图像填充模块(318)可填补这些空白空间(称为填充),以生成适合于2D视频和图像编解码器的图像帧。图像填充也称为背景填充,其可以用冗余信息填充未使用的空间。在一些示例中,良好的背景填充最低程度地增加了比特率,并且不会在贴片边界周围引入明显的编码失真。
视频压缩模块(322)、视频压缩模块(323)和视频压缩模块(332)可以基于合适的视频编码标准(例如HEVC、VVC等)对2D图像(例如,填充的几何图像、填充的纹理图像和占用图)进行编码。在示例中,视频压缩模块(322)、视频压缩模块(323)和视频压缩模块(332)是单独操作的独立组件。值得注意的是,在另一示例中,视频压缩模块(322)、视频压缩模块(323)和视频压缩模块(332)可以作为单个组件来实现。
在一些示例中,平滑模块(336)被配置为生成重建的几何图像的平滑图像。该平滑图像可提供给纹理图像生成模块(312)。然后,纹理图像生成模块(312)可以基于重建的几何图像调整纹理图像的生成。例如,当贴片形状(例如,几何形状)在编码和解码期间轻微失真时,在生成纹理图像时可将该失真考虑在内以校正贴片形状上的失真。
在一些实施例中,组扩展模块(320)被配置为用冗余低频内容在对象边界周围填充像素,以改进编码增益以及重建点云的视觉质量。
多路复用器(324)可以将压缩的几何图像、压缩的纹理图像、压缩的占用图和/或压缩的辅助贴片信息多路复用到压缩的比特流中。
图4示出了根据一些实施例的用于对与点云帧对应的压缩比特流进行解码的V-PCC解码器(400)的框图。在一些实施例中,V-PCC解码器(400)可用于通信系统(100)和流式系统(200)。例如,解码器(210)可以配置为以与V-PCC解码器(400)类似的方式进行操作。V-PCC解码器(400)接收压缩比特流,并基于压缩比特流生成重建的点云。
在图4的示例中,V-PCC解码器(400)包括解复用器(432)、视频解压缩模块(434)和视频解压缩模块(436)、占用图解压缩模块(438)、辅助贴片信息解压缩模块(442)、几何重建模块(444)、平滑模块(446)、纹理重建模块(448)和颜色平滑模块(452)。
解复用器(432)可以接收压缩比特流并将其分离成压缩的纹理图像、压缩的几何图像、压缩的占用图和压缩的辅助贴片信息。
视频解压缩模块(434)和视频解压缩模块(436)可以根据合适的标准(例如,HEVC、VVC等)对压缩的图像进行解码,并输出解压缩图像。例如,视频解压缩模块(434)对压缩的纹理图像进行解码并输出解压缩的纹理图像;以及视频解压缩模块(436)对压缩的几何图像进行解码,并输出解压缩的几何图像。
占用图解压缩模块(438)可以根据合适的标准(例如,HEVC、VVC等)对压缩的占用图进行解码,并输出解压缩的占用图。
辅助贴片信息解压缩模块(442)可以根据合适的标准(例如,HEVC、VVC等)对压缩的辅助贴片信息进行解码,并输出解压缩的辅助贴片信息。
几何重建模块(444)接收解压缩的几何图像,并基于解压缩的占用图和解压缩的辅助贴片信息生成重建的点云几何图形。
平滑模块(446)可以平滑贴片边缘处的不一致。平滑过程旨在减轻由于压缩伪影而在贴片边界处出现的潜在不连续性。在一些实施例中,平滑滤波器可应用于位于贴片边界上的像素,以减少可能由压缩/解压缩引起的失真。
纹理重建模块(448)可以基于解压缩的纹理图像和平滑几何图形来确定点云中的点的纹理信息。
颜色平滑模块(452)可以平滑颜色的不一致。三维空间中的非相邻贴片通常在2D视频中彼此相邻地被打包。在一些示例中,来自非相邻贴片的像素值可能被基于块的视频编解码器混合。颜色平滑的目标是减少出现在贴片边界处出现的可见伪影。
图5示出了根据本公开的实施例的视频解码器(510)的框图。视频解码器(510)可用于V-PCC解码器(400)中。例如,视频解压缩模块(434)和视频解压缩模块(436)、占用图解压缩模块(438)可以类似地配置为视频解码器(510)。
视频解码器(510)可以包括解析器(520),以从压缩的图像(例如,已编码视频序列)重建符号(521)。这些符号的类别包括用于管理视频解码器(510)的操作的信息。解析器(520)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,这些原理包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(520)可基于对应于群组的至少一个参数,从已编码视频序列中提取用于视频解码器中的像素的多个子组中的至少一个子组的子组参数集。子组可包括图片组(Group of Pictures,GOP)、图片、瓦片、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等。解析器(520)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(520)可以对从缓冲存储器接收的视频序列执行熵解码/解析操作,从而创建符号(521)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间和帧内图片、帧间和帧内块)的类型以及其它因素,符号(521)的重建可以涉及多个不同的单元。所涉及的单元以及涉及方式可由解析器(520)从已编码视频序列解析得到的子组控制信息来控制。为了简洁起见,不对解析器(520)与下文的多个单元之间的此类子组控制信息流进行描述。
除已经提及的功能块以外,视频解码器(510)可以在概念上细分成如下文所描述的多个功能单元。在商业约束下运行的实际实施方式中,这些单元中的许多单元彼此紧密交互并且可以至少部分地彼此集成。然而,出于描述所公开的主题的目的,概念上将视频解码器细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(551)。缩放器/逆变换单元(551)从解析器(520)接收作为符号(521)的量化变换系数以及控制信息,包括使用哪种变换、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(551)可输出包括样本值的块,该样本值可输入到聚合器(555)中。
在一些情况下,缩放器/逆变换(551)的输出样本可以属于帧内编码块;即:不使用来自先前重建图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测信息可以由帧内图片预测单元(552)提供。在一些情况下,帧内图片预测单元(552)使用从当前图片缓冲器(558)提取的周围已重建信息生成大小和形状与正在重建的块相同的块。例如,当前图片缓冲器(558)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(555)基于每个样本,将帧内预测单元(552)生成的预测信息添加到由缩放器/逆变换单元(551)提供的输出样本信息中。
在其他情况下,缩放器/逆变换单元(551)的输出样本可以属于帧间编码的、潜在运动补偿块。在这种情况下,运动补偿预测单元(553)可以访问参考图片存储器(557)以提取用于预测的样本。在根据属于块的符号(521)对所提取的样本进行运动补偿之后,这些样本可以由聚合器(555)添加到缩放器/逆变换单元(551)的输出中(在这种情况下被称为残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(553)从参考图片存储器(557)内获取预测样本的地址可受到运动矢量控制,且该运动矢量以符号(521)的形式而供运动补偿预测单元(553)使用,符号(521)可以具有例如X、Y和参考图片分量。运动补偿还可以包括当使用子样本精确运动向量时从参考图片存储器(557)提取的样本值的插值、运动向量预测机制等。
聚合器(555)的输出样本可经受环路滤波器单元(556)中的各种环路滤波技术。视频压缩技术可包括环路内滤波器技术,该环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码比特流)中并且作为来自解析器(520)的符号(521)可用于环路滤波器单元(556)的参数,然而,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(556)的输出可以是样本流,该样本流可输出到渲染装置以及存储在参考图片存储器(557)中,以用于后续的帧间图片预测。
一旦被完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(520))被识别为参考图片,则当前图片缓冲器(558)可成为参考图片存储器(557)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(510)可根据例如ITU-T Rec.H.265之类的标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件(profile)的情况下,已编码视频序列可符合正在使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在该配置文件下可供使用的仅有工具。对于合规性,还可要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片尺寸、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片尺寸等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical Reference Decoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
图6示出了根据本公开的实施例的视频编码器(603)的框图。视频编码器(603)可用于压缩点云的V-PCC编码器(300)中。在一示例中,视频压缩模块(322)和视频压缩模块(323),以及视频压缩模块(332)与编码器(603)类似地配置。
视频编码器(603)可以接收图像,例如填充几何图像、填充纹理图像等,并生成压缩图像。
根据一个实施例,视频编码器(603)可实时或在由应用所要求的任何其它时间约束下,对源视频序列(图像)的图片进行编码并将其压缩成已编码视频序列(压缩图像)。施行适当的编码速度是控制器(650)的一个功能。在一些实施例中,控制器(650)控制如以下所描述的其它功能单元且在功能上耦接到所述其它功能单元。为了简洁起见,图中未描绘耦接。由控制器(650)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值……)、图片大小、图片组(GOP)布局、最大运动矢量搜索范围等。控制器(650)可被配置为具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(603)。
在一些实施例中,视频编码器(603)被配置为在编码环路中进行操作。作为简单的描述,在示例中,编码环路可包括源编码器(630)(例如,负责基于待编码的输入图片和一个(或多个)参考图片创建符号,例如符号流)和嵌入于视频编码器(603)中的(本地)解码器(633)。解码器(633)重建符号以用类似于(远程)解码器可创建样本数据的方式创建样本数据(因为在所公开的主题所考虑的视频压缩技术中,符号与已编码视频比特流之间的任何压缩都是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(634)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(634)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(633)的操作可与“远程”解码器的操作相同,该远程解码器例如为已在上文结合图5详细描述的视频解码器(510)。然而,另外简要参考图5,当符号可用且熵编码器(645)和解析器(520)能够无损地将符号编码/解码为已编码视频序列时,包括解析器(520)的视频解码器(510)的熵解码部分可能无法完全在本地解码器(633)中实现。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,所公开的主题侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面描述的解码器技术互逆。仅在某些区域中需要更详细的描述,该详细描述在下文中提供。
在操作期间,在一些示例中,源编码器(630)可执行运动补偿预测编码,该运动补偿预测编码参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,对输入图片进行预测性编码。以此方式,编码引擎(632)对输入图片的像素块与一个(或多个)参考图片的像素块之间的差异进行编码,该参考图片可被选作该输入图片的预测参考。
本地视频解码器(633)可以基于源编码器(630)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(632)的操作可有利地为有损过程。当已编码视频数据可在视频解码器(图6中未示出)处被解码时,已重建视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(633)复制解码过程,该解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(634)中。以此方式,视频编码器(603)可在本地存储重建参考图片的副本,该副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(635)可针对编码引擎(632)执行预测搜索。也就是说,对于要编码的新图片,预测器(635)可在参考图片存储器(634)中搜索可作为该新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(635)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,如由预测器(635)获得的搜索结果所确定的那样,输入图片可具有从参考图片存储器(634)中存储的多个参考图片取得的预测参考。
控制器(650)可以管理源编码器(630)的编码操作,包括例如设置用于对视频数据进行编码的参数和子组参数。
可以在熵编码器(645)中对所有上述功能单元的输出进行熵编码。熵编码器(645)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩以生成压缩图像643,从而将该符号变换成已编码视频序列。
控制器(650)可以管理视频编码器(603)的操作。在编码期间,控制器(650)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,该帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,该帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个的参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测性编码,该其它块由应用于块的相应图片的编码分配来确定。例如,I图片的块可进行非预测性编码,或该块可参考同一图片的已编码块来进行预测性编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时间域预测进行预测性编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时间预测进行预测性编码。
视频编码器(603)可根据预定视频编码技术或标准,例如ITU-T Rec.H.265,执行编码操作。在操作中,视频编码器(603)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所使用的视频编码技术或标准指定的语法。
视频可以是以时间序列的多个源图片(图像)的形式。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在示例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。该运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,该运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)的第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。可通过第一参考块和第二参考块的组合来预测该块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本公开的一些实施例,诸如帧间图片预测和帧内图片预测之类的预测以块为单位执行。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),该三个编码树块是一个亮度CTB和两个色度CTB。可将每个CTU递归地以四叉树拆分为一个或多个编码单元(CU)。例如,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在示例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块的示例,预测块包括针对像素的值(例如,亮度值)的矩阵,所述像素为例如8×8像素、16×16像素、8×16像素、16×8像素等等。
G-PCC模型可以单独压缩几何信息和相关联的属性,例如,颜色或反射率。几何信息即点云的3D坐标可以通过其占用信息的八叉树分解法来进行编码。另一方面,属性信息可以通过类DPCM技术进行编码,类DPCM技术在不同级别之间执行LOD数据的闭环预测。可以基于解码的几何信息在编码器和解码器处以相同的方式构建LOD信息。基本上,可以以这样的方式构建LOD,即随着提供更多的LOD,可以以连续的方式获得给定的点云的更详细的信息。当执行基于样本的预测以进行属性编码时,可以利用基于最邻近的树搜索来寻找用于进行加权预测的相邻样本。权重可以计算为每个相邻样本的几何距离的倒数。
图7示出了根据实施例的在G-PCC分解处理期间应用的G-PCC解码器(800)的框图。解码器(800)可以被配置为接收压缩比特流并执行点云数据解压缩,从而对比特流进行解压缩来生成解码点云数据。在实施例中,解码器(800)可以包括算术解码模块(810)、逆量化模块(820)、八叉树解码模块(830)、LOD生成模块(840)、逆量化模块(850)和基于逆插值的预测模块(860)。
如图所示,可以在算术解码模块(810)处接收压缩比特流(801)。算术解码模块(810)被配置为对压缩比特流(801)进行解码,以获得点云的量化预测残差(如果生成的话)和占用码(或符号)。八叉树解码模块(830)被配置为根据占用码生成点云中的点的量化位置。逆量化模块(850)被配置为基于八叉树解码模块(830)提供的量化位置生成点云中的点的重建位置。
LOD生成模块(840)被配置为基于重建位置将点重新组织成不同的LOD,并确定基于LOD的顺序。逆量化模块(820)被配置为基于从算术解码模块(810)接收的量化预测残差生成重建预测残差。基于逆插值的预测模块(860)被配置为执行属性预测处理,以基于从逆量化模块(820)接收的重建预测残差和从LOD生成模块(840)接收的基于LOD的顺序来生成点云中的点的重建属性。
此外,在一个示例中,从基于逆插值的预测模块(860)生成的重建属性与从逆量化模块(850)生成的重建位置共同与从解码器(800)输出的已解码点云(或已重建点云)(802)相对应。
图8示出了根据实施例的G-PPC编码器(700)的框图。编码器(700)可被配置为接收点云数据并对点云数据进行压缩以生成携带压缩点云数据的比特流。在实施例中,编码器(700)可包括位置量化模块(710)、重复点移除模块(712)、八叉树编码模块(730)、属性传输模块(720)、LOD生成模块(740)、基于插值的预测模块(750)、残差量化模块(760)和算术编码模块(770)。
如图所示,可以在编码器(700)处接收输入点云(701)。将点云(701)的位置(例如,3D坐标)提供给量化模块(710)。量化模块(710)被配置为量化坐标以生成量化位置。重复点移除模块(712)被配置为接收量化位置并执行滤波处理以识别和移除重复点。八叉树编码模块(730)被配置为从重复点移除模块(712)接收滤波位置,并执行基于八叉树的编码处理以生成描述体素的3D网格的占用码(或符号)序列。将占用码提供给算术编码模块(770)。
属性传输模块(720)被配置为接收输入点云的属性,并在多个属性值与对应的体素相关联时执行属性传输处理以确定每个体素的属性值。可以对从八叉树编码模块(730)输出的重新排序的点执行属性传输处理。将传输操作之后的属性提供给基于插值的预测模块(750)。LOD生成模块(740)被配置为对从八叉树编码模块(730)输出的重新排序的点进行操作,并将这些点重新组织成不同的LOD。将LOD信息提供给基于插值的预测模块(750)。
基于插值的预测模块(750)根据由来自LOD生成模块(740)的LOD信息指示的基于LOD的顺序以及从属性传输模块(720)接收的传输属性来处理点,并生成预测残差。残差量化模块(760)被配置为从基于插值的预测模块(750)接收预测残差,并执行量化以生成量化的预测残差。将量化的预测残差提供给算术编码模块(770)。算术编码模块(770)被配置为从八叉树编码模块(730)接收占用码、接收候选索引(如果使用的话)、从基于插值的预测模块(750)接收量化预测残差以及接收其他信息,并执行熵编码以进一步压缩所接收的值或信息。因此,可以生成携带压缩信息的压缩比特流(702)。比特流(702)可以被发送或以其他方式提供给对压缩比特流进行解码的解码器,或者可以被存储在存储设备中。
值得注意的是,配置为实现本文公开的属性预测技术的基于插值的预测模块(750)和基于逆插值的预测模块(860)可以包括在其他解码器或编码器中,这些解码器或编码器可以具有与图7和图8所示的相似或不同的结构。此外,在各种示例中,编码器(700)和解码器(800)可以包括在相同的装置中,或者包括在单独的装置中。
在各实施例中,编码器(300)、解码器(400)、编码器(700)和/或解码器(800)可以用硬件、软件或其组合来实现。例如,编码器(300)、解码器(400)、编码器(700)和/或解码器(800)可以用诸如一个或多个集成电路(IC)之类的处理电路来实现,该一个或多个集成电路使用或不使用软件(例如,专用集成电路(ASIC)、现场可编程门阵列(FPGA)等)来进行操作。在另一示例中,编码器(300)、解码器(400)、编码器(700)和/或解码器(800)可以实现为软件或固件,其包括存储在非易失性(或非瞬态)计算机可读存储介质中的指令。当通过处理电路(例如,一个或多个处理器)来执行指令时,该指令使处理电路执行编码器(300)、解码器(400)、编码器(700)和/或解码器(800)的功能。
在当前基于预测变换的G-PCC属性编码中,可以基于每个点的距离生成每个3D点的LOD。可以通过以基于LOD的顺序应用预测来对每个LOD中的3D点的属性值进行编码。图9示出了G-PCC中的LOD生成过程900。如图9所示,点P0、P5、P4和P2可以在LOD0中。点P1、P6和P3可以在LOD1中。P9、P8和P7可以在LOD2中。通过计算在P2之前编码或解码的P0、P5和P4的基于距离的加权平均值来预测P2的属性值。
在实施例中,在当前G-PCC属性编码中,可以计算当前点(例如,P2)的邻域的可变性,以检查邻值不同的程度以及可变性是否低于阈值。如果阈值低于阈值,则可以如下进行基于距离的加权平均预测。
属性值(ai)i∈0…k-1可以通过使用基于当前点i的最邻近点的距离的线性插值过程来预测。
Figure BDA0003556854560000105
设为当前点i的K个最邻近点的集合,并且
Figure BDA0003556854560000101
设为K个最邻近点的解码/重建属性值,以及
Figure BDA0003556854560000102
为K个最邻近点距当前点i的距离。针对当前点i的预测属性值
Figure BDA0003556854560000103
可以由如下公式(1)给出:
Figure BDA0003556854560000104
值得注意的是,当对属性进行编码时,所有点云的几何位置都是可用的。此外,相邻点和相邻点的重建属性值在编码器和解码器处都是可用的,其中,可以使用KD树结构来促进以相同的方式对每个点进行最邻近点搜索(nearest-neighbor search)。
在另一实施例中,如果可变性高于阈值,则可执行速率失真优化预测器选择。在生成LOD中,可以基于相邻点搜索的结果创建多个预测器候选。例如,当通过使用预测对P2的属性值进行编码时,可以将P0、P5和P4的基于距离的加权平均值设置为等于0的预测器索引。然后,可以将最邻近点P4的值设置为等于1的预测索引。此外,次最邻近点P5和P0的值可分别设置为等于2和3的预测器索引,如表1所示。在创建预测器候选后,通过应用速率失真优化程序来选择最佳预测器,然后对选择的预测器索引进行算术编码。
表1:用于属性编码的预测器候选样本
预测器索引 预测值
0 average(均值)
1 P4(第一最近点)
2 P5(第二最近点)
3 P0(第三最近点)
可以限定预测器候选的最大数量(也称为MaxNumCand),并进一步将预测器候选的最大数量编码到属性头中。在当前G-PCC属性编码中,MaxNumCand可以被设置为等于预测中最邻近点的数目加1(例如,NumberOfnearestNeighsinPrediction+1),并且还可用在利用截断一元二值化对预测器索引进行编码和解码中。
在当前基于提升转换(1ifting transform)的G-PCC属性编码中,提升转换可以建立在上述预测转换之上。预测方案(或预测转换)和提升方案(或提升转换)之间的主要区别是引入了更新算子。
图9示出了G-PCC中P[U(Prediction/Update,预测/更新)提升的示例性架构。为了促进提升转换中的预测和更新步骤,在分解的每个阶段可以将输入属性信号分解为两组高相关性的信号。在G-PCC中的提升方案中,可以利用上述LOD结构进行拆分,其中,期望各层之间具有高相关性,且每层通过最邻近搜索来构建,以将非均匀点云组织成结构化数据。此外,每层(例如,N)的P/U分解步骤可以产生细节信号(例如,D(N-1))和近似信号(例如,A(N-1))。如图9所示,例如,包括LOD(N)、LOD(N-1)…LOD(1)的输入属性信号可以被拆分为LOD(N)和LOD(N-1)…LOD(1)。LOD(N-1)…LOD(1)可以是偶数样本集,可以用作LOD(N)的预测器。LOD(N)可以是奇数样本集。然后,可以基于LOD(N)和LOD(N)预测器之间的差值来生成差信号(或细节信号)D(N-1)。差信号D(N-1)可以是高通信号。此外,可以在更新步骤之后生成低通信号(或近似信号)A(N-1)作为LOD(N-1)…LOD(1)的近似信号。
细节信号D(N-1)和近似信号A(N-1)可进一步分解为D(N-2)和A(N-2)。可以重复应用拆分步骤,直到获得基层近似信号A(1)。
因此,该提升方案可以对D(N-1)、D(N-2)、…、D(1)、A(1)进行编码,而不是对可包括LOD(N)、…和LOD(1)的输入属性信号本身进行编码。应当注意的是,有效的P/U步骤的应用往往会导致D(N-1),…,D(1)中稀疏的子带“系数”。因此,有效的P/U步骤的应用可以提供转换编码增益优势。
应当注意的是,在当前G-PCC中的属性编码中,在提升转换期间的预测步骤中仅应用上述在预测转换中的基于距离的加权平均预测。
对于诸如颜色之类的点云属性,通道之间存在显著的冗余。为了提高编码效率,可以执行颜色空间转换作为前/后处理步骤。即使在这样的转换之后,在转换后的颜色空间中,通道之间仍然存在显著的相关性。然而,不同于RGB域预测或残差预测,YCbCr空间对应部分通常采用一阶线性关系。颜色空间转换需要缩放和偏移参数的估计和/或信令。在RGB到YUV的示例性转换中,根据相应的亮度残差对色度残差的预测可由如下公式(2)和(3)提供:
U=au×Y+bu (公式2)
V=av×Y+bv (公式3)
其中,Y是指亮度的预测残差,U和v是指色度的预测残差。
在本公开中,提供了用于点云属性的联合色度信道编码的方法。例如,与仅限制色度信号之间的信道间去相关的相关示例相比,本公开提供的方法可以有效地执行信道间去相关以提高压缩效率,而没有参数估计和编码的开销。本文提供的方法属于上述G-PCC中的预测转换和提升转换。该方法可应用于类似的用于点云的编解码器。
为了对多通道信号进行去相关,可以应用预测器。在本公开中,可以应用预测器来预测信道的残差信号,从而可以对二阶残差而不是原始残差进行量化和熵编码。本公开包括基于Cb和Cr色度信道的预测残差可以是相关的实施例。
本公开的实施例可应用于G-PCC中的预测转换和提升转换。由于细节子带系数(例如,D(N-1))是提升转换的预测步骤的输出,因此细节子带系数基本上可以是预测残差信号,并且在相同预测策略下,细节子带系数在不同颜色通道之间是相似的。
在本公开中,ResCb和ResCr分别表示Cb分量和Cr分量(也称为色度预测残差信息的Cb分量和Cr分量)的预测残差信号。可以基于预测残差符号之间的相关性对预测残差信号之一和预测残差信号的组合进行编码。在实施例中,当两个残差信号(例如,Cb预测残差信号和Cr预测残差信号)正相关时,可以对ResCb和Rescb-ResCr进行编码,而不是对ResCb和ResCr进行编码(例如,量化后进行熵编码)。在另一实施例中,当两个残差信号负相关时,可以对ResCb和ResCb+ResCr进行编码,而不是对ResCb和ResCr进行编码。在又一实施例中,当两个残差信号既不负相关也不正相关时,可以照常对ResCB和ResCR进行编码。
为了确定色度预测残差信息的Cb分量和Cr分量的相关性类型,可以执行两个色度信道预测残差(例如,Cb分量和Cr分量)的计算信号相关性的阈值测试。在实施例中,可以通过使用在编码器和解码器处都可用的帧(或如视频、瓦片或切片的其他编码单元)的重建的或未量化的残差样本(例如,相同点云中的点)来导出两个色度残差分量(例如,Cb分量和Cr分量)之间的相关性的符号(或类型)。在实施例中,两个色度残差分量之间的相关性的符号可以通过仅在编码器处的帧(或如视频、瓦片或切片的其他单元)的重建的或未量化的残差样本来导出,并且还可以将导出的相关性的符号在比特流中用信号通知给解码器。在另一实施例中,可以通过在编码器和解码器处使用来自先前LOD的重建的或未量化的残差样本导出两个色度残差分量之间的相关性的符号。在另一实施例中,可以仅在编码器处通过使用来自先前LOD的重建的或未量化的残差样本来导出两个色度残差分量之间的相关性的符号,并且所导出的相关性的符号还可以在比特流中用信号通知给解码器。
在另一实施例中,可以通过在编码器处使用当前点云像素(或点云中的当前点)所属的LOD的未量化残差样本来导出两个色度残差分量之间的相关性的符号,并且还可以将导出的相关性的符号在比特流中用信号通知给解码器。在另一实施例中,可以通过在编码器和解码器处均使用来自当前点的N个最邻近样本的重建的或未量化的残差样本来导出两个色度残差分量之间的相关性的符号,其中,N可以是作为在GPCC测试模型设计中的LOD生成和最邻近搜索的结果而获得的预测样本的数目。在本公开的示例性实施例中,N可以设置为3或4。
阈值测试中使用的阈值可以根据信号特性和编码条件自适应地调整。可以在比特流中用信号发送阈值。在实施例中,阈值可设置为上述LOD内具有正的每像素相关性的像素数的百分比。因此,可应用阈值来确定上述残差的编码过程中的符号相关性为正。类似地,可以将阈值设置为上述LOD内具有负的每像素相关的像素数的百分比。因此,可以应用阈值来确定上述残差的编码过程中的符号相关性为负。
在实施例中,可以在比特流中发送全局使能信号以指示启用残差编码还是待使用残差编码。全局使能信号可应用于编码单元中,例如,视频、帧、瓦片或切片。
当全局使能信号指示残差编码待使用时,可以发送第一二进制标志以指示第一色度信号和第二色度信号之间是否存在相关性。如果第一二进制标志设置为真(或者第一值,或者1),则可以发送第二二进制标志来指示相关性是正还是负。例如,可以将第一二进制标志和第二二进制标志发送至G-PCC中的每个LOD。上述阈值测试仍可应用于确定相关性的符号(例如,正相关或负相关)。
残差编码方法的示例性实施例可在第一类C伪代码中示出如下:
Figure BDA0003556854560000121
其中,inter_chroma_prediction_enabled_flag可以是全局使能标志,decode(SignNonzero)可以是第一二进制标志。第一二进制标志(例如,decode(SignNonzero))可以为手边的每个LOD提供第一比特信号,以指示是否存在相关性。如果第一二进制标志(例如,decode(SignNonzero))为1(或第一值),则第二二进制标志(例如,decode(Sign))可以提供第二比特信号以实际确定相关性的符号。例如,如上面的第一类C伪代码所示,当第二二进制标志为1(或第一值)时,相关性的符号为-1(或负)。当第二二进制标志为零(或第二值)时,相关性的符号为1(或正)。此外,如果第一二进制标志(例如,decode(SignNonzero))为零(或第二值),则相关性类型为零,这意味着在第一色度信号和第二色度信号之间不存在相关性。每个点i的相关性符号可以存储在阵列SaveSign[]中。
此外,可以在如下第二类C伪代码中提供残差重建处理:
Figure BDA0003556854560000122
Figure BDA0003556854560000131
其中,reconsructedcolor[1]和reconsructedcolor[2]可以分别是第一色度信号和第二色度信号(或属性值),以及dequantize()可以是输出重建样本的逆量化处理。如在第二类C伪代码中所示,可以基于对第一色度预测残差信息(例如,ColorQuantizationIndex[1])的第一逆量化处理对第一色度信号(例如,reconsructedcolor[1])进行重建。当全局使能标志(例如,inter_chroma_prediction_enabled_flag)为1时,第二色度信号(例如,restructedcolor[2])可以等于第一部分和第二部分。可以通过对第二色度预测残差信息执行第二逆量化处理(例如,dequantize(ColorQuantizationIndex[2]))来获得第一部分,以及可通过将重建的第一色度信息(例如,reconsRuctedColor[1])与第一色度预测残差信息和第二色度预测残差信息的相关性的类型(例如,SaveSign[lod_counter])相乘来获得第二部分。此外,当全局使能标志(例如,inter_chroma_prediction_enabled_flag)为零(或第二值)时,可以通过对第二色度预测残差信息进行逆量化处理(例如,dequantize(ColorQuantizationIndex[2]))来重建第二色度信息(例如,reconsructedColor[2])。
应当注意的是,可以应用SaveSign[lod_counter]来反映在样本重建期间针对第(lod_count-1)个LOD(例如,LOD(N-1))确定的符号相关性。
在一些实施例中,上述方法可以应用于其他多通道信号,该多通道信号中的两个通道在具有零偏移的一阶关系中相关。
上述技术可在适用于点云压缩/解压缩的视频编码器或解码器中实现。编码器/解码器可以用硬件、软件或其任何组合来实现,并且软件(如果有的话)可以存储在一个或多个非瞬态计算机可读介质中。例如,每个方法(或实施方式)、编码器和解码器可以通过处理电路(例如,一个或多个处理器或一个或多个集成电路)来实现。在一个示例中,一个或多个处理器执行存储在非瞬态计算机可读介质中的程序。
图11和12示出了根据本公开实施例的概述过程(1100)和过程(1200)的流程图。过程(1100)和过程(1200)可以在点云的解码过程中使用。在各实施例中,过程(1100)和过程(1200)可以由处理电路执行,例如终端装置(110)中的处理电路、执行编码器(203)和/或解码器(201)的功能的处理电路、执行编码器(300)、解码器(400)、编码器(700)和/或解码器(800)的功能的处理电路等。在一些实施例中,过程(1100)和过程(1200)可以在软件指令中实现,因此当处理电路执行软件指令时,处理电路分别执行过程(1100)和过程(1200)。
如图11所示,过程(1100)从(S1101)开始并进行到(S1110)。
在(S1110)中,可以从包括点集的点云的编码比特流接收点集中的点的色度预测残差信息。色度预测残差信息可以包括Cb分量和Cr分量。
在(S1120)中,可通过处理电路从点云的编码比特流确定色度预测残差信息的Cb分量和Cr分量的相关性类型。
在(S1130)中,可以基于色度预测残差信息的Cb分量和Cr分量的相关性类型对色度预测残差信息进行解码。
在示例中,为了对色度预测残差信息进行解码,可以基于Cb分量和Cr分量间的相关性类型为正,对色度预测残差信息的Cb分量和色度预测残差信息的Cb分量减去Cr分量进行解码。
在另一示例中,为了对色度预测残差信息进行解码,可以基于Cb分量和Cr分量间的相关性类型为负,对色度预测残差信息的Cb分量和色度预测残差信息的Cb分量加上Cr分量进行解码。
在又一示例中,为了对色度预测残差信息进行解码,可以基于Cb分量和Cr分量之间不存在相关性,对色度预测残差信息的Cb分量和色度预测残差信息的Cr分量进行解码。
在一些实施例中,可以基于来自编码区域、在先LOD和与点正相关的N个最邻近点之一的第一数量的残差点,确定色度预测残差信息的Cb分量和Cr分量间的相关性类型为正。在一些实施例中,可以基于来自编码区域、在先LOD和与点负相关的N个最邻近点之一的第二数量残差点,确定色度预测残差信息的Cb分量和Cr分量之间的相关性类型为负。
在一些实施例中,编码区域可以包括以下至少之一:帧、视频序列、图片组(GOP)、图片、切片和瓦片。
在一些实施例中,N可以是等于3或4的正整数。
在过程(1100)中,编码比特流还可以包括指示色度预测残差信息的Cb分量和Cr分量之间的相关性类型的信令信息。在示例中,基于来自编码区域、在先LOD、点所属的LOD和与点正相关的N个最邻近点之一的第一数量残差点,信令信息可以指示色度预测残差信息的Cb分量和Cr分量间的相关性类型为正。在另一示例中,基于来自编码区域、在先LOD、点所属的LOD和与点负相关的N个最邻近点之一的第二数量残差点,信令信息可以指示色度预测残差信息的Cb分量和Cr分量间的相关性类型为正。
如图12所示,过程(1200)从(S1201)开始并进行到(S1210)。
在(S1210)中,可以从包括点集的点云的编码比特流接收第一信令信息。第一信令信息可指示基于点集中的点的第一色度预测残差信息和第二色度预测残差信息间的相关性类型,对第一色度预测残差信息和第二色度预测残差信息进行解码。编码比特流可以包括第一色度预测残差信息和第二色度预测残差信息。
在(S1220)中,可以基于第一信令信息确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型。
在(S1230)中,可以基于第一色度预测残差信息、第二色度预测残差信息以及第一色度预测残差信息与第二色度预测残差信息之间的相关性类型,重建第一色度信息和第二色度信息。
在一些实施例中,可以基于第一信令信息为第一值确定第二信令信息。第二信令信息可以指示第一色度预测残差信息与第二色度预测残差信息之间的相关性类型由第三信令信息确定。可以基于第二信令信息为第一值确定第三信令信息。可以基于第三信令信息确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型。
在示例中,可以基于第三信令信息为第一值,确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型为负。在另一示例中,可以基于第三信令信息为第二值,确定第一色度预测残差信息与第二色度预测残差信息之间的相关性类型为正。
在过程(1200)中,可以通过对第一色度预测残差信息执行第一逆量化处理来重建第一色度信息。此外,响应于第一信令信息为第一值,可以对第二色度信息进行重建,第二色度信息包括第一部分和第二部分。可以通过对第二色度预测残差信息执行第二逆量化处理来获得第一部分,以及可通过将所重建的第一色度信息与第一色度预测残差信息和第二色度预测残差信息间的相关性类型相乘获得第二部分。
在一些实施例中,可以通过对第一色度预测残差信息执行第一逆量化处理来重建第一色度信息。响应于所述第一信令信息为第二值,可以通过对第二色度预测残差信息执行第二逆量化处理来重建第二色度信息。
在一些实施例中,第一色度预测残差信息和第二色度预测残差信息可以以具有零偏移的一阶关系相关。
如上所述,可以将上述技术实现为计算机软件,该计算机软件使用计算机可读指令,且物理地存储在一个或多个计算机可读介质中。例如,图13示出了适于实施所公开主题的某些实施例的计算机系统(1800)。
可以使用任何合适的机器代码或计算机语言对计算机软件进行编码,任何合适的机器代码或计算机语言可以经受汇编、编译、链接或类似的机制以创建包括指令的代码,该指令可以由一个或多个计算机中央处理单元(CPU)、图形处理单元(GPU)等直接执行或通过解释、微代码执行等执行。
指令可以在各种类型的计算机或其组件上执行,计算机或其组件包括例如包括个人计算机、平板计算机、服务器、智能电话、游戏装置、物联网装置等。
图13中所示的计算机系统(1800)的组件本质上是示例性的,并不旨在对实施本公开的实施例的计算机软件的使用范围或功能提出任何限制。组件的配置也不应被解释为具有与计算机系统(1800)的示例性实施例中所示的组件中的任何一个组件或组件的组合有关的任何依赖或要求。
计算机系统(1800)可以包括某些人机接口输入装置。此类人机接口输入装置可以响应于一个或多个人类用户通过例如下述的输入:触觉输入(例如:击键、划动,数据手套移动)、音频输入(例如:语音、拍手)、视觉输入(例如:手势)、嗅觉输入(未描绘)。人机接口装置还可以用于捕获不一定与人的意识输入直接相关的某些媒介,例如音频(例如:语音、音乐、环境声音)、图像(例如:扫描的图像、从静止图像相机获取摄影图像)、视频(例如二维视频、包括立体视频的三维视频)等。
人机接口输入装置可以包括下述中的一项或多项(每种中仅示出一个):键盘(1801)、鼠标(1802)、触控板(1803)、触摸屏(1810)、数据手套(未示出)、操纵杆(1805)、麦克风(1806)、扫描仪(1807)、相机(1808)。
计算机系统(1800)还可以包括某些人机接口输出装置。这样的人机接口输出装置可以通过例如触觉输出、声音、光和气味/味道来刺激一个或多个人类用户的感官。此类人机接口输出装置可以包括触觉输出装置(例如触摸屏(1810)的触觉反馈、数据手套(未示出)或操纵杆(1805),但也可以是不作为输入装置的触觉反馈装置)、音频输出装置(例如扬声器(1809)、耳机(未描绘))、视觉输出装置(例如包括CRT屏幕、LCD屏幕、等离子屏幕、OLED屏幕的屏幕(1810),每种屏幕都有或没有触摸屏输入功能,每种屏幕都有或没有触觉反馈功能-其中的一些屏幕能够通过诸如立体图像输出之类的装置、虚拟现实眼镜(未描绘)、全息显示器和烟箱(未描绘)来输出二维视觉输出或超过三维的输出)以及打印机(未描绘)。
计算机系统(1800)还可以包括人类可访问存储装置及其关联介质,例如,包括具有CD/DVD等介质(1821)的CD/DVD ROM/RW(1820)的光学介质、指状驱动器(1822),可拆卸硬盘驱动器或固态驱动器(1823)、诸如磁带和软盘之类的传统磁性介质(未描绘)、诸如安全软件狗之类的基于专用ROM/ASIC/PLD的装置(未描绘)等。
本领域技术人员还应该理解,结合当前公开的主题使用的术语“计算机可读介质”不涵盖传输介质、载波或其它暂时性信号。
计算机系统(1800)还可以包括到一个或多个通信网络的接口。网络可以例如是无线网络、有线网络、光网络。网络还可以是本地网络、广域网络、城域网络、车辆和工业网络、实时网络、延迟容忍网络等。网络的示例包括诸如以太网之类的局域网、无线LAN、包括GSM、3G、4G、5G、LTE等的蜂窝网络、包括有线电视、卫星电视和地面广播电视的电视有线或无线广域数字网络、包括CANBus的车辆和工业用网络等等。某些网络通常需要连接到某些通用数据端口或外围总线(1849)的外部网络接口适配器(例如,计算机系统(1800)的USB端口);如下所述,其它网络接口通常通过附接到系统总线而集成到计算机系统(1800)的内核中(例如,连接到PC计算机系统中的以太网接口或连接到智能手机计算机系统中的蜂窝网络接口)。计算机系统(1800)可以使用这些网络中的任何一个网络与其它实体通信。此类通信可以是仅单向接收的(例如,广播电视)、仅单向发送的(例如,连接到某些CANbus装置的CANbus)或双向的,例如,使用局域网或广域网数字网络连接到其它计算机系统。如上所述,可以在这些网络和网络接口中的每一个上使用某些协议和协议栈。
上述人机接口装置、人机可访问的存储装置和网络接口可以附接到计算机系统(1800)的内核(1840)。
内核(1840)可以包括一个或多个中央处理单元(CPU)(1841),图形处理单元(GPU)(1842),现场可编程门区域(FPGA)(1843)形式的专用可编程处理单元、用于某些任务的硬件加速器(1844)等。这些装置以及只读存储器(ROM)(1845)、随机存取存储器(1846)、诸如内部非用户可访问的硬盘驱动器、SSD等之类的内部大容量存储器(1847)可以通过系统总线(1848)连接。在一些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(1848),以能够通过附加的CPU、GPU等进行扩展。外围装置可以直接附接到内核的系统总线(1848)或通过外围总线(1849)附接到内核的系统总线(1848)。外围总线的体系结构包括PCI、USB等。
CPU(1841)、GPU(1842)、FPGA(1843)和加速器(1844)可以执行某些指令,这些指令可以组合来构成上述计算机代码。该计算机代码可以存储在ROM(1845)或RAM(1846)中。过渡数据也可以存储在RAM(1846),而永久数据可以例如存储在内部大容量存储器(1847)中。可以通过使用高速缓存来进行到任何存储装置的快速存储及检索,该高速缓存可以与下述紧密关联:一个或多个CPU(1841)、GPU(1842)、大容量存储器(1847)、ROM(1845)、RAM(1846)等。
计算机可读介质可以在其上具有用于执行各种由计算机实现的操作的计算机代码。介质和计算机代码可以是出于本公开的目的而专门设计和构造的介质和计算机代码,或者介质和计算机代码可以是计算机软件领域的技术人员公知且可用的类型。
作为非限制性示例,可以由于一个或多个处理器(包括CPU、GPU、FPGA、加速器等)执行包含在一种或多种有形的计算机可读介质中的软件而使得具有架构(1800),特别是内核(1840)的计算机系统提供功能。此类计算机可读介质可以是与如上所述的用户可访问的大容量存储相关联的介质,以及某些非暂时性的内核(1840)的存储器,例如内核内部大容量存储器(1847)或ROM(1845)。可以将实施本公开的各实施例的软件存储在此类装置中并由内核(1840)执行。根据特定需要,计算机可读介质可以包括一个或多个存储装置或芯片。软件可使得内核(1840),特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所描述的特定过程或特定过程的特定部分,包括定义存储在RAM(1846)中的数据结构以及根据由软件定义的过程来修改此类数据结构。附加地或替换地,可以由于硬连线或以其它方式体现在电路(例如,加速器(1844))中的逻辑而使得计算机系统提供功能,该电路可以替换软件或与软件一起运行以执行本文描述的特定过程或特定过程的特定部分。在适当的情况下,提及软件的部分可以包含逻辑,反之亦然。在适当的情况下,提及计算机可读介质的部分可以包括存储用于执行的软件的电路(例如集成电路(IC))、体现用于执行的逻辑的电路或包括两者。本公开包括硬件和软件的任何合适的组合。
尽管本公开已经描述了多个示例性实施例,但是存在落入本公开的范围内的更改、置换和各种替换等效物。因此,应当理解,本领域技术人员将能够设计出许多虽然未在本文中明确示出或描述,但是体现了本公开的原理,因此落入本公开的精神和范围内的系统和方法。

Claims (20)

1.一种用于点云解码器中的点云几何解码的方法,包括:
从包括点集的点云的编码比特流接收所述点集中的点的色度预测残差信息,所述色度预测残差信息包括Cb分量和Cr分量;
通过处理电路从所述点云的编码比特流,确定所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型;以及
基于所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型,对所述色度预测残差信息进行解码。
2.根据权利要求1所述的方法,其中,所述解码包括:
基于所述Cb分量和所述Cr分量之间的相关性类型为正,对所述色度预测残差信息的所述Cb分量和所述色度预测残差信息的所述Cb分量减去所述Cr分量进行解码。
3.根据权利要求1所述的方法,其中,所述解码包括:
基于所述Cb分量和所述Cr分量之间的相关性类型为负,对所述色度预测残差信息的所述Cb分量和所述色度预测残差信息的所述Cb分量加上所述Cr分量进行解码。
4.根据权利要求1所述的方法,其中,所述解码包括:
基于所述Cb分量和所述Cr分量之间不存在相关性,对所述色度预测残差信息的所述Cb分量和所述色度预测残差信息的所述Cr分量进行解码。
5.根据权利要求1所述的方法,其中,所述确定包括:
基于来自编码区域、在先细节级别LOD和与所述点正相关的N个最邻近点之一的第一数量残差点,确定所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为正;以及
基于来自所述编码区域、所述在先LOD和与所述点负相关的N个最邻近点之一的第二数量残差点,确定所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为负。
6.根据权利要求5所述的方法,其中,所述编码区域包括以下至少之一:帧、视频序列、图片组GOP、图片、切片和瓦片。
7.根据权利要求5所述的方法,其中,所述N为等于3或4的正整数。
8.根据权利要求1所述的方法,其中,
所述编码比特流包括指示所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型的信令信息,
基于来自编码区域、在先LOD、所述点所属的LOD和与所述点正相关的N个最邻近点之一的第一数量残差点,所述信令信息指示所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为正;以及
基于来自所述编码区域、所述在先LOD、所述点所属的LOD和与所述点负相关的N个最邻近点之一的第二数量残差点,所述信令信息指示所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为负。
9.一种用于点云解码器中的点云几何解码的方法,包括:
从包括点集的点云的编码比特流接收第一信令信息,所述第一信令信息指示基于所述点集中的点的第一色度预测残差信息和第二色度预测残差信息之间的相关性类型,对所述第一色度预测残差信息和所述第二色度预测残差信息进行解码,所述编码比特流包括所述第一色度预测残差信息和所述第二色度预测残差信息;
基于所述第一信令信息确定所述第一色度预测残差信息与所述第二色度预测残差信息之间的相关性类型;以及
基于所述第一色度预测残差信息、所述第二色度预测残差信息以及所述第一色度预测残差信息与第二色度预测残差信息之间的相关性类型,重建第一色度信息和第二色度信息。
10.根据权利要求9所述的方法,其中,所述确定还包括:
基于所述第一信令信息为第一值确定第二信令信息,所述第二信令信息指示所述第一色度预测残差信息与所述第二色度预测残差信息之间的相关性类型由第三信令信息指示;
基于所述第二信令信息为所述第一值确定所述第三信令信息,所述第三信令信息指示所述第一色度预测残差信息和所述第二色度预测残差信息之间的相关性类型;以及
基于所述第三信令信息确定所述第一色度预测残差信息与所述第二色度预测残差信息之间的相关性类型。
11.根据权利要求10所述的方法,其中,所述确定所述相关性类型还包括:
基于所述第三信令信息为所述第一值,确定所述第一色度预测残差信息与所述第二色度预测残差信息之间的相关性类型为负;以及
基于所述第三信令信息为第二值,确定所述第一色度预测残差信息与所述第二色度预测残差信息之间的相关性类型为正。
12.根据权利要求9所述的方法,其中,所述重建还包括:
通过对所述第一色度预测残差信息执行第一逆量化处理来重建所述第一色度信息;以及
响应于所述第一信令信息为第一值,对所述第二色度信息进行重建,所述第二色度信息包括第一部分和第二部分,其中:
通过对所述第二色度预测残差信息执行第二逆量化处理来获得所述第一部分,以及
通过将所重建的第一色度信息与所述第一色度预测残差信息和所述第二色度预测残差信息之间的相关性类型相乘获得所述第二部分。
13.根据权利要求9所述的方法,其中,所述重建还包括:
通过对所述第一色度预测残差信息执行第一逆量化处理来重建所述第一色度信息;以及
响应于所述第一信令信息为第二值,通过对所述第二色度预测残差信息执行第二逆量化处理来重建所述第二色度信息。
14.根据权利要求8所述的方法,其中,所述第一色度预测残差信息和所述第二色度预测残差信息以具有零偏移的一阶关系相关。
15.一种处理点云数据的装置,包括:
处理电路,所述处理电路配置为:
从包括点集的点云的编码比特流接收所述点集中的点的色度预测残差信息,所述色度预测残差信息包括Cb分量和Cr分量;
从所述点云的编码比特流确定所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型;以及
基于所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型,对所述色度预测残差信息进行解码。
16.根据权利要求15所述的装置,其中,所述处理电路还被配置为:
基于所述Cb分量和所述Cr分量之间的相关性类型为正,对所述色度预测残差信息的所述Cb分量和所述色度预测残差信息的所述Cb分量减去所述Cr分量进行解码。
17.根据权利要求15所述的装置,其中,所述处理电路还被配置为:
基于所述Cb分量和所述Cr分量之间的相关性类型为负,对所述色度预测残差信息的所述Cb分量和所述色度预测残差信息的所述Cb分量加上所述Cr分量进行解码。
18.根据权利要求15所述的装置,其中,所述处理电路还被配置为:
基于所述Cb分量和所述Cr分量之间不存在相关性,对所述色度预测残差信息的所述Cb分量和所述色度预测残差信息的所述Cr分量进行解码。
19.根据权利要求15所述的装置,其中,所述处理电路还被配置为:
基于来自编码区域、在先细节级别LOD和与所述点正相关的N个最邻近点之一的第一数量残差点,确定所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为正;以及
基于来自所述编码区域、所述在先LOD和与所述点负相关的N个最邻近点之一的第二数量残差点,确定所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为负。
20.根据权利要求15所述的装置,其中,
所述编码比特流包括指示所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型的信令信息,
基于来自编码区域、在先LOD、所述点所属的LOD和与所述点正相关的N个最邻近点之一的第一数量残差点,所述信令信息指示所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为正;以及
基于来自所述编码区域、所述在先LOD、所述点所属的LOD和与所述点负相关的N个最邻近点之一的第二数量残差点,所述信令信息指示所述色度预测残差信息的所述Cb分量和所述Cr分量之间的相关性类型为负。
CN202180005441.9A 2020-04-17 2021-04-12 用于点云编码的方法及装置 Pending CN114424247A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063011913P 2020-04-17 2020-04-17
US63/011,913 2020-04-17
US17/211,536 2021-03-24
US17/211,536 US11451802B2 (en) 2020-04-17 2021-03-24 Method and apparatus for point cloud coding
PCT/US2021/026888 WO2021211458A1 (en) 2020-04-17 2021-04-12 Method and apparatus for point cloud coding

Publications (1)

Publication Number Publication Date
CN114424247A true CN114424247A (zh) 2022-04-29

Family

ID=78082398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180005441.9A Pending CN114424247A (zh) 2020-04-17 2021-04-12 用于点云编码的方法及装置

Country Status (6)

Country Link
US (1) US11451802B2 (zh)
EP (1) EP4010879A4 (zh)
JP (1) JP7478816B2 (zh)
KR (1) KR20220035224A (zh)
CN (1) CN114424247A (zh)
WO (1) WO2021211458A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11551334B2 (en) * 2020-01-09 2023-01-10 Tencent America LLC Techniques and apparatus for coarse granularity scalable lifting for point-cloud attribute coding
US11967120B2 (en) * 2020-08-26 2024-04-23 Tencent America LLC Attribute coding of duplicate points for point cloud coding
US11833423B2 (en) 2020-09-29 2023-12-05 Activision Publishing, Inc. Methods and systems for generating level of detail visual assets in a video game
US11717753B2 (en) * 2020-09-29 2023-08-08 Activision Publishing, Inc. Methods and systems for generating modified level of detail visual assets in a video game
US11724188B2 (en) * 2020-09-29 2023-08-15 Activision Publishing, Inc. Methods and systems for selecting a level of detail visual asset during the execution of a video game
WO2022203358A1 (ko) 2021-03-23 2022-09-29 바이로큐어 주식회사 약독화된 레오바이러스 기반의 백신 조성물 및 이의 용도
WO2023191321A1 (ko) * 2022-03-29 2023-10-05 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2023191480A1 (ko) * 2022-03-31 2023-10-05 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법.
WO2024014205A1 (ja) * 2022-07-13 2024-01-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 復号方法、符号化方法、復号装置及び符号化装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG115543A1 (en) 2003-05-17 2005-10-28 St Microelectronics Asia Method and apparatus for compensating for chrominance saturation
US9948939B2 (en) 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
CN107211121B (zh) * 2015-01-22 2020-10-23 联发科技(新加坡)私人有限公司 视频编码方法与视频解码方法
JP6341304B2 (ja) 2017-02-14 2018-06-13 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US10789733B2 (en) * 2017-11-22 2020-09-29 Apple Inc. Point cloud compression with multi-layer projection
KR20210020924A (ko) 2018-06-27 2021-02-24 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 삼차원 데이터 부호화 방법, 삼차원 데이터 복호 방법, 삼차원 데이터 부호화 장치, 및 삼차원 데이터 복호 장치

Also Published As

Publication number Publication date
JP2022550579A (ja) 2022-12-02
WO2021211458A1 (en) 2021-10-21
US20210329270A1 (en) 2021-10-21
JP7478816B2 (ja) 2024-05-07
US11451802B2 (en) 2022-09-20
EP4010879A1 (en) 2022-06-15
EP4010879A4 (en) 2023-01-04
KR20220035224A (ko) 2022-03-21

Similar Documents

Publication Publication Date Title
US11783512B2 (en) Attribute value of reconstructed position associated with plural original points
JP7478816B2 (ja) ポイントクラウドコーディングのための方法及び装置
CN113892128A (zh) 点云编解码方法和装置
CN113519163B (zh) 点云压缩的方法、装置和存储介质
US11120581B2 (en) Method and apparatus for point cloud compression
US11210813B2 (en) Method and apparatus for point cloud compression
CN111641834B (zh) 点云编码的方法和装置、计算机设备和存储介质
JP7325534B2 (ja) 点群符号化のための方法および装置
CN112399165B (zh) 解码方法及装置以及计算机设备和存储介质
CN112019845B (zh) 对点云进行编码的方法、装置以及存储介质
CN113615201B (zh) 点云压缩和解压缩的方法和装置
RU2778377C1 (ru) Способ и устройство для кодирования облака точек
RU2792020C1 (ru) Способ и устройство для кодирования облака точек
US20230306645A1 (en) Convolutional Approach to Fast and Compact Packing of 3D Mesh Into 2D Maps
US20230281876A1 (en) Mesh compression with constrained geometry dynamic range
JP2023548236A (ja) メッシュ圧縮のための頂点並べ替え方法における接続のコーディング
JP2023548237A (ja) 3次元(3d)メッシュのuv座標を処理するための方法、装置及びコンピュータプログラム
CN116635904A (zh) 用于动态网格压缩的方法和装置
CN115152225A (zh) 用于点云译码的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40071796

Country of ref document: HK