CN113615201B - 点云压缩和解压缩的方法和装置 - Google Patents

点云压缩和解压缩的方法和装置 Download PDF

Info

Publication number
CN113615201B
CN113615201B CN202080017591.7A CN202080017591A CN113615201B CN 113615201 B CN113615201 B CN 113615201B CN 202080017591 A CN202080017591 A CN 202080017591A CN 113615201 B CN113615201 B CN 113615201B
Authority
CN
China
Prior art keywords
image
missing
row
point
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080017591.7A
Other languages
English (en)
Other versions
CN113615201A (zh
Inventor
阿拉什·沃索基
芮世薰
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN113615201A publication Critical patent/CN113615201A/zh
Application granted granted Critical
Publication of CN113615201B publication Critical patent/CN113615201B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)

Abstract

本公开的各方面提供了点云压缩和解压缩的方法和装置。在一些示例中,一种用于点云压缩/解压缩的装置包括处理电路。例如,该装置用于点云解压缩。从对应于点云的已编码比特流中解码图像的预测信息。所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点,并且,在所述图像中,根据非跳跃扫描方式排列所述多个遗漏点。然后,根据所述非跳跃扫描方式,重建所述图像的所述多个遗漏点。

Description

点云压缩和解压缩的方法和装置
引用并入
本公开要求在2019年3月1日提交的美国临时申请第62/812,952号“利用点云压缩的灵活扫描来增强漏点编码的技术和装置”的优先权,在2020年2月27日提交的美国申请第16/803,651号“点云压缩的方法与装置”的优先权,其全部内容通过引用并入本文。
技术领域
本公开描述了与点云压缩有关的实施例。
背景技术
本文所提供的背景描述旨在整体呈现本公开的背景。在背景技术部分以及本说明书的各个方面中所描述的目前已署名的发明人的工作所进行的程度,并不表明其在本公开提交时作为现有技术,且从未明示或暗示其被承认为本公开的现有技术。
人们开发了各种技术来抓拍和描述世界,例如世界中的对象、世界中的环境以及三维(3D)空间中的类似事物。世界的3D表示能够实现更身临其境的交互和通信形式。点云可以用作世界的3D表示。点云是3D空间中点的集合,每个点具有相关联的属性,例如颜色、材料特性、纹理信息、强度属性、反射率属性、运动相关属性、模态属性以及各种其它属性。所述点云可以包括大量的数据,并且存储和传输可能昂贵且耗时。
发明内容
本公开的各方面提供了用于点云压缩和解压缩的方法、装置。在一些示例中,一种点云解压缩方法,包括:从对应于点云的已编码比特流中解码图像的预测信息,其中,所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点,并且,在所述图像中,根据非跳跃扫描方式排列所述多个遗漏点;以及,根据所述非跳跃扫描方式,重建所述图像的所述多个遗漏点。
本公开的各方面一种点云压缩方法,包括:确定点云中至少一个面片的多个遗漏点;使用与所述多个遗漏点相关的像素形成一个图像,基于所述点云中两个遗漏点之间的三维距离,确定所述图像中所述两个遗漏点位置之间的二维距离;编码所述图像;以及,形成包含已编码图像的已编码比特流。
一种用于点云压缩/解压缩的装置包括处理电路。例如,该装置用于点云解压缩。所述处理电路从对应于点云的已编码比特流中解码图像的预测信息。所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点,并且,在所述图像中,根据非跳跃扫描方式排列所述多个遗漏点。然后,根据所述非跳跃扫描方式,所述处理电路重建所述图像的所述多个遗漏点。
在一些实施例中,所述处理电路重建第一遗漏点和第二遗漏点,其中,所述第一遗漏点作为第一行的最后一个像素,所述第二遗漏点作为第二行的第一个像素、与所述第一遗漏点相邻。所述第一行的最后一个像素和所述第二行的第一个像素位于同一列中。
在一些示例中,所述处理电路解码与所述图像相关的标志,其中,所述标志指示所述非跳跃扫描方式。
在一些示例中,所述处理电路对指示基于块的非跳跃扫描的标志进行解码;以及,对所述基于块的非跳跃扫描的块大小进行解码。然后,根据所述块大小,所述处理电路将所述图像划分成块;以及,根据所述非跳跃扫描方式,重建块内的多个遗漏点。在一个示例中,所述处理电路重建第一遗漏点和第二遗漏点,其中,所述第一遗漏点作为所述块的第一行的最后一个像素,所述第二遗漏点作为所述块中第二行第一个像素,所述第二遗漏点与所述第一遗漏点相邻。所述第一行最后一个像素与所述第二行第一个像素位于同一列中。进一步,所述处理电路根据所述块的非跳跃扫描的次序处理所述块。
根据本公开的各方面,提供了一种点云压缩装置。处理电路确定点云中至少一个面片的多个遗漏点;所述处理电路形成一个图像,其中,所述图像具有与所述多个遗漏点相关的像素。基于所述点云中两个遗漏点之间的三维距离,确定所述图像中所述两个遗漏点位置之间的二维距离。进一步,所述处理电路编码所述图像,并形成包含已编码图像的已编码比特流。
在一些实施例中,基于最近邻准则,所述处理电路将所述多个遗漏点排序成遗漏点列表;以及,按照非跳跃扫描方式,所述处理电路将所述遗漏点列表与所述图像的像素相关联。
在一个实施例中,所述处理电路将第一遗漏点与所述图像中第一行的最后一个像素相关联;以及,将第二遗漏点与所述图像中第二行的第一个像素相关联,在所述遗漏点列表中,所述第二遗漏点与所述第一遗漏点相邻。所述第一行的最后一个像素和所述第二行的第一个像素在同一列中。
在另一个示例中,所述处理电路将第一遗漏点与所述图像中块的第一行最后一个像素相关联;以及,将第二遗漏点与所述图像中所述块的第二行第一个像素相关联,其中,在所述遗漏点列表中,所述第二遗漏点与所述第一遗漏点相邻。所述第一行最后一个像素和所述第二行第一个像素在同一列中。
在一个示例中,所述处理电路包括一个标志,所述标志指示在所述已编码比特流中的非跳跃扫描方式。在另一个示例中,所述处理电路包括在所述已编码比特流中的块大小。
本公开的各方面还公开了一种点云解压缩装置,包括:解码模块,用于从对应于点云的已编码比特流中解码图像的预测信息,其中,所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点,并且,在所述图像中,根据非跳跃扫描方式排列所述多个遗漏点;以及,重建模块,用于根据所述非跳跃扫描方式,重建所述图像的所述多个遗漏点。
本公开的各方面还公开了一种点云压缩装置,包括:第一确定模块,用于确定点云中至少一个面片的多个遗漏点;第二确定模块,用于使用与所述多个遗漏点相关的像素形成一个图像,基于所述点云中两个遗漏点之间的三维距离,确定所述图像中所述两个遗漏点位置之间的二维距离;编码模块,用于编码所述图像,形成包含已编码图像的已编码比特流。
本公开的各方面还提供了一种计算机设备,其中,所述设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现上述用于点云压缩/解压缩的方法。
本公开的各方面还提供了一种非易失性计算机可读介质,所述非易失性计算机可读介质中存储有指令,所述指令在由计算机执行时用于点云压缩/解压缩,使得所述计算机执行用于点云压缩/解压缩的方法。
附图简要说明
根据以下详细说明和附图,所公开的主题的进一步的特征、性质和各种优点将更加显而易见,其中:
图1是根据一个实施例的通信系统的简化框图的示意图。
图2是根据一个实施例的流式传输系统的简化框图的示意图。
图3示出了根据一些实施例的用于编码点云帧的编码器的框图。
图4示出了根据一些实施例的用于解码与点云帧相对应的已压缩的比特流的解码器的框图。
图5是根据一个实施例的视频解码器的简化框图的示意图。
图6是根据一个实施例的视频编码器的简化框图的示意图。
图7示出了从一维信号到二维(2D)图像的排列。
图8示出了从一维信号到二维(2D)图像的排列。
图9示出了从一维信号到二维(2D)图像的排列。
图10是根据本公开一些实施例的语法示例。
图11是根据本公开实施例的概述过程示例的流程图。
图12是根据本公开实施例的概述过程示例的流程图。
图13是根据实施例的计算机系统的示意图。
具体实施方式
本公开的各方面提供了点云编码(Point Cloud Coding,PCC)技术,具体地使用用于点云压缩的视频编码(Video-coding for Point Cloud Compression,V-PCC)。V-PCC可以利用通用视频编解码器进行点云压缩。本公开中的点云编码技术可以改善由V-PCC产生的遗漏点的无损和有损压缩。
在下文中,点云通常可以指在3D空间中的一组点,每个点具有相关联的属性,例如颜色、材料特性、纹理信息、强度属性、反射率属性、运动相关属性、模态属性以及各种其它属性。点云可以用于重构对象或场景作为此类点的组合。可以在各种设置中使用多个相机和深度传感器捕获所述点,并且所述点可以由数千到数十亿个点组成,以便真实地表示重构的场景。面片通常可以指由点云描述的表面的连续子集。遗漏点通常可以指未被V-PCC投影捕获的点。
需要压缩技术来减少表示点云所需的数据量。因此,在实时通信和六自由度(6DoF)虚拟现实中,需要使用点云的有损压缩技术。另外,在自动驾驶和文化遗产应用等的动态映射的环境中,寻求无损点云压缩技术。运动图像专家组(MPEG)开始研究解决几何形状和属性的压缩的标准,例如颜色和反射率、可缩放/渐进编码、随时间捕获的点云序列的编码以及对点云子集的随机访问。
根据本公开的一个实施例,V-PCC背后的主要理念是利用现有的视频编解码器将动态点云的几何形状、占用率和纹理压缩为三个单独的视频序列。分别压缩解释这三个视频序列所需的额外元数据。整个比特流的一小部分是元数据,可以使用软件对所述元数据进行有效的编码/解码。大部分信息由视频编解码器处理。
图1示出了根据本公开的一个实施例的通信系统(100)的简化框图。通信系统(100)包括能够经由例如网络(150)彼此通信的多个终端设备。例如,通信系统(100)包括经由网络(150)互连的一对终端设备(110)和(120)。在图1的示例中,第一对终端设备(110)和(120)执行点云数据的单向传输。例如,终端设备(110)可以压缩与终端设备(110)连接的传感器105捕获的点云(例如,表示结构的点)。已压缩的点云可以例如以比特流的形式经由网络(150)传输到另一个终端设备(120)。终端设备(120)可以从网络(150)接收已压缩的点云,解压缩比特流以重建点云,并根据重建的点云适当地显示。在媒体服务应用等应用中,单向数据传输可能很常见。
在图1的示例中,终端设备(110)和(120)可以被示为服务器和个人计算机,但是本公开的原理可以不限于此。本公开的实施例可以应用于膝上型计算机、平板计算机、智能电话、游戏终端、媒体播放器和/或专用三维(3D)设备。网络(150)表示在终端设备(110)和(120)之间传输已压缩的点云的任何数量的网络。网络(150)可以包括例如有线(wireline/wired)和/或无线通信网络。网络(150)可以在电路交换和/或分组交换信道中交换数据。代表性的网络包括电信网络、局域网、广域网和/或因特网。为了本讨论的目的,网络(150)的结构和拓扑对于本公开的操作可能无关紧要,除了下文中所解释的。
图2示出了所公开主题针对点云应用的示例。所公开的主题可以等同地应用于包括3D远程应用、虚拟现实应用的其它点云启用的应用。
流式传输系统200可以包括捕获子系统(213)。捕获子系统(213)可以包括点云源(201),例如光探测和测距(LIDAR)系统、3D相机、3D扫描仪、在软件中生成未压缩的点云的图形生成组件以及生成例如未压缩的点云(202)的类似组件。在一个示例中,未压缩的点云(202)包括由3D相机捕获的点。与已压缩的点云(204)(已压缩的点云的比特流)相比时,将点云(202)描绘为粗线以强调高数据量。已压缩的点云(204)可以由电子设备(220)生成,所述电子设备(220)包括耦合到点云源(201)的编码器(203)。编码器(203)可以包括硬件、软件或其组合,以启用或实现如下文更详细描述的所公开的主题的各方面。与未压缩的点云流(202)相比时,将已压缩的点云(204)(或已压缩的点云(204)的比特流)描绘为细线以强调更低的数据量,并且可以将已压缩的点云(204)(或已压缩的点云(204)的比特流)存储于流服务器(205)中以供将来使用。一个或多个流客户端子系统,例如图2中的客户端子系统(206)和(208),能够访问流服务器(205)以取回已压缩的点云(204)的副本(207)和(209)。客户端子系统(206)可以包括例如在电子设备(230)中的解码器(210)。解码器(210)对已压缩的点云的传入副本(207)进行解码,并创建可以在呈现装置(212)上呈现的重建的点云(211)的传出流。在一些流式传输系统中,已压缩的点云(204)、(207)和(209)(例如,已压缩的点云的比特流)可以根据某些标准被压缩。在一些示例中,在已压缩点云中使用视频编码标准。这些标准的示例包括高效视频编码(HEVC)、通用视频编码(VVC)等。
需要注意的是,电子设备(220)和(230)可以包括其它组件(未示出)。例如,电子设备(220)可以包括解码器(未示出),并且电子设备(230)也可以包括编码器(未示出)。
图3示出了根据一些实施例的用于编码点云帧的V-PCC编码器(300)的框图。在一些实施例中,V-PCC编码器(300)可以用于通信系统(100)和流式传输系统(200)中。例如,编码器(203)可以以与V-PCC编码器(300)类似的方式配置和操作。
V-PCC编码器(300)接收作为输入的未压缩的点云帧,并生成与已压缩的点云帧相对应的比特流。在一些实施例中,V-PCC编码器(300)可以从例如点云源(201)等的点云源接收点云帧。
在图3的示例中,V-PCC编码器(300)包括如图3所示的耦合在一起的面片生成模块306、面片打包模块308、几何图像生成模块310、纹理图像生成模块312、面片信息模块304、占用图模块314、平滑模块336、图像填充模块316和318、组扩张模块320、视频压缩模块322、323和332、辅助面片信息压缩模块338、熵压缩模块334和多路复用器324。
根据本公开的一个实施例,V-PCC编码器(300)将3D点云帧转换为基于图像的表示,以及将已压缩的点云转换回经解压缩的点云所需的一些元数据(例如,占用图和面片信息)。在一些示例中,V-PCC编码器(300)可以将3D点云帧转换为几何图像、纹理图像和占用图,然后使用视频编码技术将几何图像、纹理图像和占用图编码为比特流。
面片生成模块(306)将点云分割成面片的集合(例如,将面片定义为由点云描述的表面的邻接子集)。所述面片的集合可以重叠或不重叠,使得可以由相对于2D空间中的平面的深度场描述每个面片。在一些实施例中,面片生成模块(306)旨在将点云分解为具有平滑边界的最小数量的面片,同时还最小化重建误差。
面片信息模块(304)可以收集指示面片的大小和形状的面片信息。在一些示例中,可以将面片信息打包到图像帧中,然后由辅助面片信息压缩模块338编码以生成压缩的辅助面片信息。
面片打包模块308用于将所提取的面片映射到二维(2D)网格上,同时最小化未使用的空间,并确保网格中的每个M×M(例如,16×16)块都与唯一面片相关联。有效的面片打包可以通过最小化未使用的空间或确保时间一致性直接影响压缩效率。
几何图像生成模块310可以在给定的面片位置处生成与点云的几何形状相关联的2D几何图像。纹理图像生成模块312可以在给定的面片位置处生成与点云的纹理相关联的2D纹理图像。几何图像生成模块310和纹理图像生成模块312使用在打包过程中计算的3D到2D映射,将点云的几何形状和纹理存储为图像。为了更好地处理多个点被投影到相同样本的情况,将每个面片投影到称为层的两个图像上。在一个示例中,由YUV420-8bit格式中的WxH的单色帧表示几何图像。为了生成纹理图像,纹理生成过程使用重建的/平滑的几何形状,以计算与重新采样的点相关联的颜色。
占用图模块314可以生成描述每个单元的填充信息的占用图。例如,占用图包括二进制图,所述二进制图指示网格中的每个单元是属于空白空间还是属于点云。在一个示例中,占用图使用二进制信息描述每个像素是否被填充。在另一个示例中,占用图使用二进制信息描述每个像素块是否被填充。
可以使用无损编码或有损编码压缩由占用图模块314生成的占用图。当使用无损编码时,熵压缩模块334用于压缩占用图;当使用有损编码时,视频压缩模块332用于压缩占用图。
需要注意的是,面片打包模块308可以在图像帧中打包的2D面片之间留下一些空白空间。图像填充模块316和318可以填充空白空间(称为填充),以生成适合于2D视频和图像编解码器的图像帧。图像填充也称为背景填充,可以通过冗余信息填充未使用的空间。在一些示例中,好的背景填充最小限度地增加比特率,而不会在面片边界周围引入显著的编码失真。
视频压缩模块322、323和332可以基于例如HEVC、VVC等合适的视频编码标准对例如填充的几何图像、填充的纹理图像和占据图的2D图像进行编码。在一个示例中,视频压缩模块322、323和332是单独操作的独立组件。需要注意的是,在另一个示例中,视频压缩模块322、323和332可以实现为单个组件。
在一些示例中,平滑模块336用于生成重建的几何图像的平滑图像。可以将平滑图像信息提供给纹理图像生成模块312。然后,纹理图像生成模块312可以基于重建的几何图像调整纹理图像的生成。例如,当面片形状(例如,几何形状)在编码和解码期间稍微失真时,在生成纹理图像时,可以考虑所述失真以校正面片形状中的失真。
在一些实施例中,组扩张模块320用于将像素添加到对象的边界,以减少压缩伪像并增加编码增益。
多路复用器324可以将已压缩的几何图像、已压缩的纹理图像、已压缩的占用图、已压缩的辅助面片信息复用到压缩的比特流中。
图4示出了根据一些实施例的V-PCC解码器(400)的框图,其中所述V-PCC解码器(400)用于解码与点云帧对应的压缩的比特流。在一些实施例中,V-PCC解码器(400)可以用于通信系统(100)和流式传输系统(200)中。例如,解码器(210)可以用与V-PCC解码器(400)类似的方式配置和操作。V-PCC解码器(400)接收压缩的比特流,并基于压缩的比特流生成重建的点云。
在图4的示例中,V-PCC解码器(400)包括如图4所示的耦合在一起的解多路复用器(432)、视频解压缩模块(434)和(436)、占用图解压缩模块(438)、辅助面片信息解压缩模块(442)、几何重建模块(444)、平滑模块(446)、纹理重建模块(448)和颜色平滑模块(452)。
解多路复用器(432)可以接收已压缩的比特流,并分离成已压缩的纹理图像、已压缩的几何图像、已压缩的占用图和已压缩的辅助面片信息。
视频解压缩模块(434)和(436)可以根据适当的标准(例如,HEVC、VVC等)解码已压缩的图像,并输出解压缩的图像。例如,视频解压缩模块(434)解码已压缩的纹理图像,并输出解压缩的纹理图像;视频解压缩模块(436)解码已压缩的几何图像,并输出解压缩的几何图像。
占用图解压缩模块(438)可以根据适当的标准(例如,HEVC、VVC等)解码已压缩的占用图,并输出解压缩的占用图。
辅助面片信息解压缩模块(442)可以根据适当的标准(例如,HEVC、VVC等)解码已压缩的辅助面片信息,并输出解压缩的辅助面片信息。
几何重建模块(444)可以接收解压缩的几何图像,并基于解压缩的占有图和解压缩的辅助面片信息生成重建的点云几何形状。
平滑模块(446)可以平滑面片边缘处的不一致。平滑过程旨在减轻可能由于压缩伪像而在面片边界处出现的潜在不连续性。在一些实施例中,可以对位于面片边界的像素应用平滑滤波器,以减轻可能由压缩/解压缩引起的失真。
纹理重建模块(448)可以基于解压缩的纹理图像和平滑几何形状,确定点云中的点的纹理信息。
颜色平滑模块(452)可以平滑着色的不一致。3D空间中的非邻近面片通常在2D视频中彼此相邻打包。在一些示例中,基于块的视频编解码器可能混合非邻近面片的像素值。颜色平滑的目标是减少在面片边界处出现的可见伪像。
图5示出了根据本公开一个实施例的视频解码器(510)的框图。视频解码器(510)可以用于V-PCC解码器(400)中。例如,视频解压缩模块(434)和(436)、占用图解压缩模块(438)可以与视频解码器(510)类似地配置。
视频解码器(510)可包括解析器(520),以根据已压缩图像,比如,已编码视频序列,重建符号(521)。这些符号的类别包括用于管理视频解码器(510)的操作的信息。解析器(520)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffmancoding)、具有或不具有上下文灵敏度的算术编码等等。解析器(520)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(PredictionUnit,PU)等等。解析器(520)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(520)可对从缓冲存储器接收的视频序列执行熵解码/解析操作,从而创建符号(521)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(521)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(520)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(520)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(510)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(551)。缩放器/逆变换单元(551)从解析器(520)接收作为符号(521)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(551)可输出包括样本值的块,所述样本值可输入到聚合器(555)中。
在一些情况下,缩放器/逆变换单元(551)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(552)提供。在一些情况下,帧内图片预测单元(552)采用从当前图片缓冲器(558)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(558)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(555)基于每个样本,将帧内预测单元(552)生成的预测信息添加到由缩放器/逆变换单元(551)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(551)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(553)可访问参考图片存储器(557)以提取用于预测的样本。在根据符号(521)对提取的样本进行运动补偿之后,这些样本可由聚合器(555)添加到缩放器/逆变换单元(551)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(553)从参考图片存储器(557)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(521)的形式而供运动补偿预测单元(553)使用,所述符号(521)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(557)提取的样本值的内插、运动矢量预测机制等等。
聚合器(555)的输出样本可在环路滤波器单元(556)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(520)的符号(521)可用于环路滤波器单元(556)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(556)的输出可以是样本流,所述样本流可输出到显示装置以及存储在参考图片存储器(557),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(520))被识别为参考图片,则当前图片缓冲器(558)可变为参考图片存储器(557)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(510)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
图6示出了根据本公开一个实施例的视频编码器(603)的框图。视频编码器(603)可以用于在V-PCC编码器(300)中压缩点云。在一个示例中,视频压缩模块(322)和(323)以及视频压缩模块(332)的配置类似于编码器(603)。
视频编码器(603)可以接收例如填充的几何图像、填充的纹理图像等图像,并生成已压缩的图像。
根据实施例,视频编码器(603)可实时或在由应用所要求的任何其它时间约束下,将源视频序列(多个图像)的图片编码且压缩成已编码视频序列(已编码图像)。施行适当的编码速度是控制器(650)的一个功能。在一些实施例中,控制器(650)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(650)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(650)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(603)。
在一些实施例中,视频编码器(603)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(630)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(603)中的(本地)解码器(633)。解码器(633)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本公开所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(634)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(634)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(633)的操作可与例如已在上文结合图5详细描述视频解码器(510)的“远程”解码器相同。然而,另外简要参考图5,当符号可用且熵编码器(645)和解析器(520)能够无损地将符号编码/解码为已编码视频序列时,包括解析器(520)在内的视频解码器(510)的熵解码部分,可能无法完全在本地解码器(633)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本公开侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(630)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(632)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(633)可基于源编码器(630)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(632)的操作可为有损过程。当已编码视频数据可在视频解码器(图6中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(633)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(634)中。以此方式,视频编码器(603)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(635)可针对编码引擎(632)执行预测搜索。即,对于将要编码的新图片,预测器(635)可在参考图片存储器(634)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(635)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(635)获得的搜索结果,可确定输入图片可具有从参考图片存储器(634)中存储的多个参考图片取得的预测参考。
控制器(650)可管理源编码器(630)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(645)中对所有上述功能单元的输出进行熵编码。熵编码器(645)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
控制器(650)可管理视频编码器(603)的操作。在编码期间,控制器(650)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(603)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(603)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
视频可以是时间序列中的多个源图片(图像)的形式。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(coding treeunit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(predictionblock,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
根据本公开的一些实施例,由于遮挡,V-PCC投影方法可能不会捕获每个点,并且将V-PCC投影方法遗漏的点称为遗漏点。在一些示例中,遗漏点通常位于3D空间中的随机位置,并且缺乏较高的几何和颜色相关性。在一些示例中,V-PCC收集遗漏点并且创建两个一维(1D)信号,例如分别是1D信号的几何信号和颜色信号。此外,在一些示例中,可以在单独的二维(2D)图像排列每个1D信号,并且随后被HEVC压缩。本公开提供了用于将1D信号排列成适合于2D压缩工具(如HEVC)的2D图像的技术。
所提出的方法可以单独使用,或以任何顺序组合使用。此外,每个方法(或实施例)、每个编码器和解码器可以由处理电路(例如,一个或多个处理器,或一个或多个集成电路)实现。在一个示例中,一个或多个处理器执行存储在非易失性计算机可读介质中的程序。
在一些示例中,在面片生成之后,V-PCC扫描3D的面片中的遗漏点,将遗漏点的几何和颜色值放入两个单独的图像中。在示例中,在遗漏点上创建Kd树,并且基于最近邻标准扫描遗漏点以形成1D信号。扫描结果包括1D几何信号和1D颜色信号。例如,基于最近邻准则,根据对Kd树的扫描对遗漏点进行排序。几何信号包括已排序的遗漏点的几何样本的序列,并且颜色信号包括已排序的遗漏点的颜色值序列。在本公开的一些实施例中,为了便于描述技术,将几何信号用作示例,并且所公开的关于几何信号的技术可以类似地在颜色信号使用。
图7示出了从一维信号到二维(2D)图像的排列(700)。在图7的示例中,正方形表示遗漏点的图像(几何或纹理图像)的像素。将样本(对应于遗漏点)从行的开始到结束放入每行中。在连续的行之间存在跳跃(相邻样本之间的距离相对较大)。
具体地,在图7的示例中,按照箭头线(710)、(720)、(730)、(740)、(750)、(760)、(770)以及(780)的顺序,将几何信号排列成二维。具体地,箭头线(710)从左到右指示几何信号中的第一组12个几何样本到2D图像的第一行像素的排列;箭头线(720)从左到右指示几何信号中的第二组12个几何样本到2D图像的第二行像素的排列;箭头线(730)从左到右指示几何信号中的第三组12个几何样本到2D图像的第三行像素的排列;箭头线(740)从左到右指示几何信号中的第四组12个几何样本到2D图像的第四行像素的排列;箭头线(750)从左到右指示几何信号中的第五组12个几何样本到2D图像的第五行像素的排列;箭头线(760)从左到右指示几何信号中的第六组12个几何样本到2D图像的第六行像素的排列;箭头线(770)从左到右指示几何信号中的第七组12个几何样本到2D图像的第七行像素的排列;并且箭头线(780)从左到右指示几何信号中的第八组12个几何样本到2D图像的第八行像素的排列。
在图7的示例中,箭头线(710)、(720)、(730)、(740)、(750)、(760)、(770)以及(780)对应于在几何信号中排列几何样本的水平扫描次序。所有的箭头线(710)、(720)、(730)、(740)、(750)、(760)、(770)以及(780)从左到右排列。当1D几何信号中的相邻几何样本位于同一行的像素处时,像素的水平差为1。然而,当1D几何信号中的相邻几何样本位于不同行中的像素处时,像素具有显著的水平差(例如,大于1)。例如,将1D几何信号中的第12个几何样本放置在第一行最后一个像素处,将1D几何信号中的第13个几何样本放置在第二行第一个像素处,两个像素的水平差为11(也被称为水平跳跃11)。将图7中的次序称为跳跃水平光栅扫描次序。具体地,图7中的次序具有11中的7次跳跃,如虚线所示。
应注意,虽然图7中的2D图像具有八行并且每行具有12个像素,该技术可以用于一个2D图像中任何合适数目的行以及每行中任何合适数目的像素。
根据本公开的一些方面,几何(颜色)信号中的邻近值可以对应于附近遗漏点的几何样本,并且因此可能接近。因此,在2D图像的邻近区域中,对于遗漏点排列邻近的1D信号值,可以导致邻近区域中产生相似的像素值,并且可以提高2D图像无损和有损情况的编码效率。
图8示出了从一维信号到二维(2D)图像的排列(800)。在图8的示例中,正方形表示遗漏点的图像(几何或纹理图像)的像素。连续行之间的跳跃是最小的,并且相关的样本保持在一起。通常,在一个排列中,若将1D信号中的任意两个连续样本分配给两个邻近单元(例如,像素、块等),将2D图像中的该排列称为非跳跃扫描。这两个邻近单元可以是同一行单元中的邻近单元或同一列单元中的邻近单元。
具体地,在图8的示例中,按照箭头线(810)、(820)、(830)、(840)、(850)、(860)、(870)和(880)的顺序,将几何信号排列成2D图像。具体地,箭头线(810)从左到右指示几何信号中的第一组12个几何样本到2D图像的第一行像素的排列;箭头线(820)从右到左指示几何信号中的第二组12几何样本到2D图像的第二行像素的排列;箭头线(830)从左到右指示几何信号中的第三组12个几何样本到2D图像的第三行像素的排列;箭头线(840)从右到左指示几何信号中的第四组12个几何样本到2D图像的第四行像素的排列;箭头线(850)从左到右指示几何信号中的第五组12个几何样本到2D图像的第五行像素的排列;箭头线(860)从右到左指示几何信号中的第六组12个几何样本到2D图像的第六行像素的排列;箭头线(870)从左到右指示几何信号中的第七组12个几何样本到2D图像的第七行像素的排列;并且箭头线(880)从右到左指示几何信号中的第八组12个几何样本到2D图像的第八行像素的排列。
在图8的示例中,箭头线(810)、(820)、(830)、(840)、(850)、(860)、(870)以及(880)对应于在几何信号中排列几何样本的水平扫描次序。箭头线(810)、(820)、(830)、(840)、(850)、(860)、(870)和(880)交替扫描方向。在图8的示例中,1D几何信号中的相邻几何样本在2D图像的像素中作为水平邻近像素或竖直邻近像素排列。当1D几何信号中的相邻几何样本位于同一行中的像素时,相邻的几何样本是水平邻近的,并且像素的水平差为1。当将1D几何信号中的相邻几何样本放置在不同行中的像素处时,所述像素具有相同的水平值,竖直差为1,并且为竖直邻近像素。例如,将1D几何信号的第12个几何样本放置在第一行中的最后一个像素处,将1D几何信号的第13个几何样本放置在第二行中的最后一个像素处,两个像素的水平差为0,并且两个像素的竖直差为1。将图8中的次序称为非跳跃水平光栅扫描次序。
应注意,虽然图8中的2D图像具有八行并且每行具有12个像素,但是该技术可以用于2D图像中任何合适数目的行以及每行中任何合适数目的像素。
根据本公开的一个实施例,使用非跳跃水平光栅扫描次序,将3D空间(在3D中更靠近)中更相关的样本放置在2D图像中更靠近的像素中。此放置可以改进在视频压缩编解码器中采用的预测工具的性能。
图9示出了从一维信号到二维(2D)图像的排列(900)。在图9的示例中,正方形表示遗漏点的图像(几何或纹理图像)的像素。在此示例中,将图像分成大小为4×4的块。根据非跳跃扫描次序扫描这些块。另外,在每个块内,根据非跳跃扫描次序扫描样本。
在图9的示例中,将2D图像分成正方形形状的块。根据块的非跳跃水平光栅次序,将1D几何信号的样本放置到块中。此外,在每个块内,根据非跳跃水平光栅扫描次序,将样本放置在像素中。
具体地,将2D图像分成块(910)、(920)、(930)、(940)、(950)和(960),并且每个块具有4×4个像素。根据块(910)、块(920)、块(930)、块(940)、块(950)和块(960)的次序,将几何信号的样本放置到块中。在块(910)内,根据非跳跃水平光栅扫描次序,排列几何信号的样本,如箭头线(911)、(912)、(913)和(914)所示。在块(920)内,根据非跳跃水平光栅扫描次序,排列几何信号的样本,如箭头线(921)、(922)、(923)和(924)所示。在块(930)内,根据非跳跃水平光栅扫描次序,排列几何信号的样本,如箭头线(931)、(932)、(933)和(934)所示。在块(940)内,根据非跳跃水平光栅扫描次序,排列几何信号的样本,如箭头线(941)、(942)、(943)和(944)所示。在块(950)内,根据非跳跃水平光栅扫描次序,排列几何信号的样本,如箭头线(951)、(952)、(953)和(954)所示。在块(960)内,根据非跳跃水平光栅扫描次序,排列几何信号的样本,如箭头线(961)、(962)、(963)和(964)所示。
应注意,尽管在图9的示例中将2D图像分成4×4块,也可以将部分(901)分成其它合适的N×N块(例如,64×64、32×32等)。将图9中示出的非跳跃扫描次序称为基于块的非跳跃水平光栅扫描次序。
应注意,图7-图9中所示的扫描次序可以用于编码器侧以形成遗漏点的图像,并且可以用于解码器侧以解码来自已编码的比特流的遗漏点。
在一些实施例中,用于遗漏点的样本的排列可以是灵活的并且不依赖于编解码器。例如,用于2D的压缩工具按区域(例如,编码单元(Coding Unit,CU)进行操作。在示例中,在编码单元中设置一组连续样本(对应于遗漏点)。此外,排列区域(例如,编码单元)内的样本(对应于遗漏点),以将3D中更接近的样本放置在2D中的邻近位置。可以从编码器侧到解码器侧用信号(例如,通过已编码比特流中的标志)发送所述排列。
在一些实施例中,可以使用一个或多个标志。在示例中,使用non_jumpy_raster_scan_present_flag指示是否使用了非跳跃光栅扫描。例如,当non_jumpy_raster_scan_present_flag为真时,可以使用非跳跃光栅扫描;而当non_jumpy_raster_scan_present_flag为假时,不能使用非跳跃光栅扫描。此外,使用block_based_scan_present_flag指示是否将图像分为用于扫描的块。例如,当block_based_scan_present_flag为真时,将图像分为用于扫描的块;而当block_based_scan_present_flag为假时,不将图像分为用于扫描的块。此外,使用non_jumpy_raster_scan指示是否启用非跳跃的光栅扫描。例如,当non_jumpy_raster_scan为真时,启用非跳跃光栅扫描,而当non_jumpy_raster_scan为假时,禁用非跳跃光栅扫描。此外,在实施例中,可以在已编码比特流中包括与非跳跃扫描有关的其它适当信息。例如,使用block_size指示基于块的非跳跃光栅扫描的块大小。在示例中,block_size的值在[0,216-1]的范围内。
图10示出了根据本公开一些实施例的语法示例。在图10的示例中,当启用灵活的遗漏点扫描时(例如,flexible_missed_points_scan_enabled_flag为真),编码两个标志non_jumpy_raster_scan_present_flag和block_based_scan_present_flag(在编码器侧编码或在解码器侧解码)。当non_jumpy_raster_scan_present_flag为真时,编码non_jumpy_raster_scan(在编码器侧编码或在解码器侧解码)。当block_based_scan_present_flag为真时,编码block_size(在编码器侧编码或在解码器侧解码)。
在示例中,在解码器侧,当non_jumpy_raster_scan为真时,解码器可以根据图8中的扫描次序对遗漏点的图像进行解码。当block_based_scan_present_flag为真时,解码器对block_size进行解码,并且根据图9中的次序扫描样本。
图11示出了根据本公开一个实施例的概述过程(1100)的流程图。可以在编码点云的编码过程中使用过程(1100)。在各种实施例中,由处理电路执行过程(1100),所述处理电路例如终端设备(110)中的处理电路、执行编码器(203)功能的处理电路、执行视频压缩模块(322)和(323)功能的处理电路等。在一些实施例中,在软件指令中实现过程(1100),因此当处理电路执行所述软件指令时,所述处理电路执行所述过程(1100)。所述过程开始于(S1101)并进行到(S1110)。
在(S1110)处,确定遗漏点。比如,确定点云中至少一个面片的多个遗漏点。在一些示例中,在生成所述面片之后,由多个3D点云的多个面片确定所述遗漏点。
在(S1120)处,使用与遗漏点相关的像素形成一个图像。在2D图像中适当地排列遗漏点,使得基于点云中两个遗漏点之间的3D距离确定2D图像中两个遗漏点位置之间的2D距离。比如,使用与多个遗漏点相关的像素形成一个图像,基于点云中两个遗漏点之间的三维距离,确定图像中两个遗漏点位置之间的二维距离。在一些示例中,将遗漏点的几何和颜色值放入单独的两个图像中。在示例中,在遗漏点上创建Kd树,并且基于最近邻标准扫描遗漏点以形成1D信号。扫描结果包括1D几何信号和1D颜色信号。例如,基于最近邻准则,根据对Kd树的扫描对遗漏点进行排序。几何信号包括已排序的遗漏点的几何样本的序列,并且颜色信号包括已排序的遗漏点的颜色值的序列。根据图8和图9中所示的扫描次序,排列1D信号中的样本形成2D图像,例如几何图像,颜色图像等。
在(S1130)处,使用合适的压缩工具编码图像。例如,编码图像,具体来说,分别编码几何图像和颜色图像。
在(S1140)处,形成包括遗漏点的已编码图像的已编码比特流,比如,形成包含已编码图像的已编码比特流。其中,所述已编码图像包括所述遗漏点。在一些实施例中,可以在已编码比特流中包含标志,所述标志指示将1D信号排列成2D图像的顺序。然后,过程进行到(S1199)并终止。
在一个示例中,图11所示的方法还可以进一步包括以下步骤:
基于最近邻准则,将多个遗漏点排序成遗漏点列表;以及,按照非跳跃扫描方式,将遗漏点列表与图像的像素相关联。
将第一遗漏点与图像中第一行的最后一个像素相关联;以及,将第二遗漏点与图像中第二行的第一个像素相关联,其中,在遗漏点列表中,第二遗漏点与第一遗漏点相邻,第一行的最后一个像素和第二行的第一个像素在同一列中。
将第三遗漏点与图像中块的第一行最后一个像素相关联;以及,将第四遗漏点与图像中块的第二行第一个像素相关联,其中,在遗漏点列表中,第四遗漏点与第三遗漏点相邻,第一行最后一个像素和第二行第一个像素在同一列中。
已编码比特流中包括指示非跳跃扫描方式的标志,和/或,包括块大小。
图12是根据本公开实施例的一个概述过程(1200)的流程图。可以在重建点云的解码过程中使用过程(1200)。在各种实施例中,由处理电路执行过程(1200),例如终端设备(120)中的处理电路、执行解码器(210)功能的处理电路、执行解码器(400)功能的处理电路等。在一些实施例中,以软件指令实现过程(1200),因此当处理电路执行软件指令时,处理电路执行过程(1200)。该过程开始于(S1201)并且进行到(S1210)。
在(S1210)处,从对应于点云的已编码比特流中解码图像的预测信息。预测信息指示图像包括点云中面片的遗漏点,比如,预测信息指示图像包括点云的至少一个面片的多个遗漏点,并且根据非跳跃扫描方式在图像中排列遗漏点。在具体实现中,可以在图像中,根据非跳跃扫描方式排列多个遗漏点。在实施例中,从已编码比特流中解码标志和参数,例如图10中所示的语法。该标志可以指示非跳跃扫描。
在(S1220)处,根据非跳跃扫描方式,从图像中重构遗漏点。在示例中,根据非跳跃扫描方式,重建图像的多个遗漏点。该标志指示如图8所示的非跳跃水平光栅扫描次序。然后,当解码图像时,可以如图8所示以非跳跃水平光栅扫描次序重建遗漏点。在另一示例中,该标记指示如图9所示的基于块的非跳跃水平光栅扫描次序。然后,当解码图像时,可以按照基于块的非跳跃水平光栅扫描次序重建遗漏点,如图9所示。然后,过程进行到(S1299)并终止。
在一个示例中,图12所示的方法可以进一步包括:重建第一遗漏点和第二遗漏点,其中,第一遗漏点作为图像的第一行像素的最后一个像素,第二遗漏点作为第二行像素的第一个像素、与第一遗漏点相邻,第一行像素的最后一个像素和第二行像素的第一个像素位于同一列中。
在一个示例中,图12所示的方法可以进一步包括:
解码与图像相关的标志,其中,该标志指示非跳跃扫描方式。
对指示基于块的非跳跃扫描的标志进行解码;以及,对基于块的非跳跃扫描的块大小进行解码。
根据块大小,将图像划分成块;以及,根据非跳跃扫描方式,重建块内的遗漏点。
在一个示例中,图12所示的方法可以进一步包括:
重建第三遗漏点和第四遗漏点,其中,第三遗漏点作为块的第一行的最后一个像素,第四遗漏点作为块中第二行第一个像素,第四遗漏点与第三遗漏点相邻,并且,第一行最后一个像素与第二行第一个像素位于同一列中。可以根据块的非跳跃扫描的次序处理块。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图13示出了计算机系统(1300),其适于实现所公开主题的某些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图13所示的用于计算机系统(1300)的组件本质上是示例性的,并不用于对实现本公开实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统(1300)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统(1300)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如2D视频、包括立体视频的3D视频)。
人机界面输入设备可包括以下中的一个或多个(仅绘出其中一个):键盘(1301)、鼠标(1302)、触控板(1303)、触摸屏(1310)、数据手套(未示出)、操纵杆(1305)、麦克风(1306)、扫描仪(1307)、照相机(1208)。
计算机系统(1300)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(1310)、数据手套(未示出)或操纵杆(1305)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(1309)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(1310),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出2D视觉输出或3D以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统(1300)还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)(1320)或类似介质(1321)的光学介质、拇指驱动器(1322)、可移动硬盘驱动器或固体状态驱动器(1323),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(1300)还可以包括通往一个或多个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(1349)(例如,计算机系统(1300)的USB端口);其它系统通常通过连接到如下所述的系统总线集成到计算机系统(1300)的核心(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(1300)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统(1300)的核心(1340)。
核心(1340)可包括一个或多个中央处理单元(CPU)(1341)、图形处理单元(GPU)(1342)、以现场可编程门阵列(FPGA)(1343)形式的专用可编程处理单元、用于特定任务的硬件加速器(1344)等。这些设备以及只读存储器(ROM)(1345)、随机存取存储器(1346)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)(1347)等可通过系统总线(1348)进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(1348),以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线(1348),或通过外围总线(1349)进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(1341)、GPU(1342)、FPGA(1343)和加速器(1344)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(1345)或RAM(1346)中。过渡数据也可以存储在RAM(1346)中,而永久数据可以存储在例如内部大容量存储器(1347)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或多个CPU(1341)、GPU(1342)、大容量存储器(1347)、ROM(1345)、RAM(1346)等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本公开的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构(1300)的计算机系统,特别是核心(1340),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在一个或多个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心(1340)的特定存储器,例如核心内部大容量存储器(1347)或ROM(1345)。实现本公开的各种实施例的软件可以存储在这种设备中并且由核心(1340)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心(1340)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(1346)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(1344))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本公开包括任何合适的硬件和软件组合。
附录A:首字母缩略词
JEM:联合开发模式
VVC:通用视频编码
BMS:基准集合
MV:运动向量
HEVC:高效视频编码
SEI:补充增强信息
VUI:视频可用性信息
GOP:图片组
TU:变换单元
PU:预测单元
CTU:编码树单元
CTB:编码树块
PB:预测块
HRD:假设参考解码器
SNR:信噪比
CPUs:中央处理单元
GPUs:图形处理单元
CRT:阴极射线管
LCD:液晶显示
OLED:有机发光二极管
CD:光盘
DVD:数字化视频光盘
ROM:只读存储器
RAM:随机存取存储器
ASIC:专用集成电路
PLD:可编程逻辑设备
LAN:局域网
GSM:全球移动通信系统
LTE:长期演进
CANBus:控制器局域网络总线
USB:通用串行总线
PCI:外围设备互连
FPGA:现场可编程门阵列
SSD:固态驱动器
IC:集成电路
CU:编码单元
虽然本公开已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本公开的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本公开的原则,因此属于本公开的精神和范围之内。

Claims (13)

1.一种点云解压缩方法,其特征在于,包括:
从对应于点云的已编码比特流中解码图像的预测信息,其中,所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点;
在所述图像中,根据非跳跃扫描方式排列所述多个遗漏点,其中,所述非跳跃扫描方式用于将一维信号中的任意两个连续样本分配给所述图像中的两个邻近单元;以及,
根据所述非跳跃扫描方式,重建所述图像的所述多个遗漏点;
所述方法进一步包括:
重建第一遗漏点和第二遗漏点,其中,所述第一遗漏点作为所述图像的第一行像素的最后一个像素,所述第二遗漏点作为第二行像素的第一个像素、与所述第一遗漏点相邻,所述第一行像素的最后一个像素和所述第二行像素的第一个像素位于同一列中。
2.根据权利要求1所述的方法,其特征在于,进一步包括:
解码与所述图像相关的标志,其中,所述标志指示所述非跳跃扫描方式。
3.根据权利要求1所述的方法,其特征在于,进一步包括:
对指示基于块的非跳跃扫描的标志进行解码;以及,
对所述基于块的非跳跃扫描的块大小进行解码。
4.根据权利要求3所述的方法,其特征在于,进一步包括:
根据所述块大小,将所述图像划分成块;以及,
根据所述非跳跃扫描方式,重建块内的遗漏点。
5.根据权利要求4所述的方法,其特征在于,进一步包括:
重建第三遗漏点和第四遗漏点,其中,所述第三遗漏点作为所述块的第一行的最后一个像素,所述第四遗漏点作为所述块中第二行第一个像素,所述第四遗漏点与所述第三遗漏点相邻,并且,所述第一行最后一个像素与所述第二行第一个像素位于同一列中。
6.根据权利要求4所述的方法,其特征在于,进一步包括:
根据所述块的非跳跃扫描的次序处理所述块。
7.一种点云压缩方法,其特征在于,包括:
确定点云中至少一个面片的多个遗漏点;
使用与所述多个遗漏点相关的像素形成一个图像,基于所述点云中两个遗漏点之间的三维距离,确定所述图像中所述两个遗漏点位置之间的二维距离,其中,所述使用与所述多个遗漏点相关的像素形成一个图像包括:
基于最近邻准则,将所述多个遗漏点排序成多个一维信号;以及,
按照非跳跃扫描方式,将所述多个一维信号与所述图像的像素相关联,其中,所述非跳跃扫描方式用于将一维信号中的任意两个连续样本分配给所述图像中的两个邻近单元;
编码所述图像;以及,
形成包含已编码图像的已编码比特流,其中,所述已编码比特流包括所述图像的预测信息,所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点,并且根据所述非跳跃扫描方式在所述图像中排列所述多个遗漏点;
所述方法进一步包括:
将第一遗漏点与所述图像中第一行的最后一个像素相关联;以及,
将第二遗漏点与所述图像中第二行的第一个像素相关联,其中,在所述遗漏点列表中,所述第二遗漏点与所述第一遗漏点相邻,所述第一行的最后一个像素和所述第二行的第一个像素在同一列中。
8.根据权利要求7所述的方法,其特征在于,进一步包括:
将第三遗漏点与所述图像中块的第一行最后一个像素相关联;以及
将第四遗漏点与所述图像中所述块的第二行第一个像素相关联,其中,在所述遗漏点列表中,所述第四遗漏点与所述第三遗漏点相邻,所述第一行最后一个像素和所述第二行第一个像素在同一列中。
9.根据权利要求7所述的方法,其特征在于,所述已编码比特流中包括指示非跳跃扫描方式的标志,和/或,包括块大小。
10.一种点云解压缩装置,其特征在于,包括:
解码模块,用于从对应于点云的已编码比特流中解码图像的预测信息,其中,所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点,并且,在所述图像中,根据非跳跃扫描方式排列所述多个遗漏点,其中,所述非跳跃扫描方式用于将一维信号中的任意两个连续样本分配给所述图像中的两个邻近单元;以及,
重建模块,用于根据所述非跳跃扫描方式,重建所述图像的所述多个遗漏点;
所述装置进一步用于:
重建第一遗漏点和第二遗漏点,其中,所述第一遗漏点作为所述图像的第一行像素的最后一个像素,所述第二遗漏点作为第二行像素的第一个像素、与所述第一遗漏点相邻,所述第一行像素的最后一个像素和所述第二行像素的第一个像素位于同一列中。
11.一种点云压缩装置,其特征在于,包括:
第一确定模块,用于确定点云中至少一个面片的多个遗漏点;
第二确定模块,用于使用与所述多个遗漏点相关的像素形成一个图像,基于所述点云中两个遗漏点之间的三维距离,确定所述图像中所述两个遗漏点位置之间的二维距离,基于最近邻准则,将所述多个遗漏点排序成多个一维信号;以及,按照非跳跃扫描方式,将所述多个一维信号与所述图像的像素相关联,其中,所述非跳跃扫描方式用于将一维信号中的任意两个连续样本分配给所述图像中的两个邻近单元;
编码模块,用于编码所述图像,形成包含已编码图像的已编码比特流,其中,所述已编码比特流包括所述图像的预测信息,所述预测信息指示所述图像包括所述点云的至少一个面片的多个遗漏点,并且根据所述非跳跃扫描方式在所述图像中排列所述多个遗漏点;
所述装置进一步用于:
将第一遗漏点与所述图像中第一行的最后一个像素相关联;以及,
将第二遗漏点与所述图像中第二行的第一个像素相关联,其中,在所述遗漏点列表中,所述第二遗漏点与所述第一遗漏点相邻,所述第一行的最后一个像素和所述第二行的第一个像素在同一列中。
12.一种计算机设备,其特征在于,所述设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求9任一项所述的方法。
13.一种非易失性计算机可读介质,其特征在于,所述非易失性计算机可读介质中存储有指令,所述指令在由处理器执行时,使所述处理器执行如权利要求1至权利要求9任一项所述的方法。
CN202080017591.7A 2019-03-01 2020-02-28 点云压缩和解压缩的方法和装置 Active CN113615201B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962812952P 2019-03-01 2019-03-01
US62/812,952 2019-03-01
US16/803,651 2020-02-27
US16/803,651 US11423642B2 (en) 2019-03-01 2020-02-27 Method and apparatus for point cloud compression
PCT/US2020/020455 WO2020180711A1 (en) 2019-03-01 2020-02-28 Method and apparatus for point cloud compression

Publications (2)

Publication Number Publication Date
CN113615201A CN113615201A (zh) 2021-11-05
CN113615201B true CN113615201B (zh) 2024-04-16

Family

ID=72236666

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080017591.7A Active CN113615201B (zh) 2019-03-01 2020-02-28 点云压缩和解压缩的方法和装置

Country Status (5)

Country Link
US (1) US11423642B2 (zh)
EP (1) EP3932078A4 (zh)
JP (1) JP7141535B2 (zh)
CN (1) CN113615201B (zh)
WO (1) WO2020180711A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105872539B (zh) * 2015-02-08 2020-01-14 同济大学 图像编码方法和装置及图像解码方法和装置
US11871003B2 (en) 2021-09-13 2024-01-09 Apple Inc. Systems and methods of rate control for multiple pass video encoding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106485676A (zh) * 2016-09-29 2017-03-08 天津大学 一种基于稀疏编码的LiDAR点云数据修复方法
WO2019013430A1 (en) * 2017-07-10 2019-01-17 Samsung Electronics Co., Ltd. COMPRESSION OF MAILLAGES AND POINT CLOUDS USING IMAGE / VIDEO CODECS

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8712147B2 (en) * 2012-02-03 2014-04-29 Harris Corporation Fractal method for detecting and filling data gaps within LiDAR data
US8885925B2 (en) * 2013-03-12 2014-11-11 Harris Corporation Method for 3D object identification and pose detection using phase congruency and fractal analysis
CN105788000A (zh) * 2014-12-16 2016-07-20 富泰华工业(深圳)有限公司 网格补孔方法及系统
US11146788B2 (en) * 2015-06-12 2021-10-12 Qualcomm Incorporated Grouping palette bypass bins for video coding
US10097842B2 (en) * 2015-09-18 2018-10-09 Qualcomm Incorporated Restriction of escape pixel signaled values in palette mode video coding
US20170214943A1 (en) * 2016-01-22 2017-07-27 Mitsubishi Electric Research Laboratories, Inc. Point Cloud Compression using Prediction and Shape-Adaptive Transforms
US20180053324A1 (en) * 2016-08-19 2018-02-22 Mitsubishi Electric Research Laboratories, Inc. Method for Predictive Coding of Point Cloud Geometries
US11514613B2 (en) * 2017-03-16 2022-11-29 Samsung Electronics Co., Ltd. Point cloud and mesh compression using image/video codecs
US11405643B2 (en) * 2017-08-15 2022-08-02 Nokia Technologies Oy Sequential encoding and decoding of volumetric video
US11138762B2 (en) * 2018-07-11 2021-10-05 Samsung Electronics Co., Ltd. Visual quality of video based point cloud compression using one or more additional patches
WO2020146547A1 (en) 2019-01-08 2020-07-16 Apple Inc. Auxiliary information signaling and reference management for projection-based point cloud compression
US11210813B2 (en) * 2019-05-30 2021-12-28 Tencent America LLC Method and apparatus for point cloud compression

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106485676A (zh) * 2016-09-29 2017-03-08 天津大学 一种基于稀疏编码的LiDAR点云数据修复方法
WO2019013430A1 (en) * 2017-07-10 2019-01-17 Samsung Electronics Co., Ltd. COMPRESSION OF MAILLAGES AND POINT CLOUDS USING IMAGE / VIDEO CODECS

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Rate-Distortion Optimized Scan for Point Cloud Color Compression;Yiqun Xu等;《2017 IEEE VISUAL COMMUNICATIONS AND IMAGE PROCESSING(VCIP)》;正文第1-3章节 *
Vladyslave Zakharchenko.V-PCC Codec description.《MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11》.2019,正文第2章节. *
V-PCC Codec description;Vladyslave Zakharchenko;《MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11》;正文第2章节 *

Also Published As

Publication number Publication date
JP2022512110A (ja) 2022-02-02
EP3932078A4 (en) 2022-04-27
US11423642B2 (en) 2022-08-23
WO2020180711A1 (en) 2020-09-10
JP7141535B2 (ja) 2022-09-22
EP3932078A1 (en) 2022-01-05
CN113615201A (zh) 2021-11-05
US20200279130A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
US11417029B2 (en) Method and apparatus for point cloud coding
CN113519163B (zh) 点云压缩的方法、装置和存储介质
JP7478816B2 (ja) ポイントクラウドコーディングのための方法及び装置
US11120581B2 (en) Method and apparatus for point cloud compression
US11210813B2 (en) Method and apparatus for point cloud compression
CN111641834B (zh) 点云编码的方法和装置、计算机设备和存储介质
JP7325534B2 (ja) 点群符号化のための方法および装置
CN112019845B (zh) 对点云进行编码的方法、装置以及存储介质
CN113615201B (zh) 点云压缩和解压缩的方法和装置
RU2792020C1 (ru) Способ и устройство для кодирования облака точек
CN116368523A (zh) Uv坐标编码
CN116635904A (zh) 用于动态网格压缩的方法和装置
CN117083636A (zh) 用于网格压缩的边界几何信息的预测编码
CN117242777A (zh) 具有受限几何动态范围的网格压缩
CN117461054A (zh) 具有推导的纹理坐标的网格压缩
CN115152225A (zh) 用于点云译码的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40064132

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant