CN112911302B - 一种面向动态点云几何信息压缩的新型合并预测编码方法 - Google Patents

一种面向动态点云几何信息压缩的新型合并预测编码方法 Download PDF

Info

Publication number
CN112911302B
CN112911302B CN202110073333.7A CN202110073333A CN112911302B CN 112911302 B CN112911302 B CN 112911302B CN 202110073333 A CN202110073333 A CN 202110073333A CN 112911302 B CN112911302 B CN 112911302B
Authority
CN
China
Prior art keywords
far
layer image
coding unit
prediction
image coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110073333.7A
Other languages
English (en)
Other versions
CN112911302A (zh
Inventor
熊健
罗旺
高�浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110073333.7A priority Critical patent/CN112911302B/zh
Publication of CN112911302A publication Critical patent/CN112911302A/zh
Application granted granted Critical
Publication of CN112911302B publication Critical patent/CN112911302B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种面向动态点云几何信息压缩的新型合并预测编码方法,包括:根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得远层图像编码单元中各像素的偏移值
Figure 901928DEST_PATH_IMAGE001
;根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码;其中,占位图引导合并预测编码与非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值。本发明能够提升点云几何信息的编码性能。

Description

一种面向动态点云几何信息压缩的新型合并预测编码方法
技术领域
本发明涉及一种面向动态点云几何信息压缩的新型合并预测编码方法,属于点云处理技术领域。
背景技术
点云被定义为三维空间中点的集合,其中每个点被表示为三维坐标和具体的属性信息(如颜色、法向量或反射率等)。随着三维重建和三维成像技术的发展,点云被广泛应用于虚拟现实、沉浸式远程呈现、三维打印等领域。点云的一种典型应用是在虚拟现实和远程呈现中表示动态人体的三维影像,这种影像被称为动态点云(Dynamic Point Cloud,DPC)。也就是说,动态点云为一个静态点云(Static Point Cloud,SPC)序列,其中每个静态点云称为一帧。与动态点云相关的应用会产生大量的数据,因此对动态点云的压缩是这些3D应用系统的关键技术。
由于动态点云表示连续运动的前景对象,因此动态点云的连续帧之间具有大量的时域冗余。现有动态点云压缩方法主要利用运动估计(Motion Estimation,ME)和运动补偿的方式来降低时域冗余。这些运动估计方法可以分为两大类,即三维运动估计(3D-ME)和二维运动估计(2D-ME)。3D-ME主要是按八叉树的结构把点云分成很多立方块,然后对立方块进行运动估计和补偿,然而由于点云的形状通常是不规则的,使得连续帧中的点不一定能找到对应的匹配点;2D-ME则将3D点云按柱面或立方体表面的形式投影到2D空间,然后把投影生成的样本组成为视频,进而采用视频压缩中2D运动估计的形式降低时域冗余,然而,遮挡会导致大量的点在投影过程中被丢失。
为了更大程度利用时域相关性并同时减少丢失点的个数,现有技术中采用基于块投影(patch projection)的动态点云编码方法,将动态点云按照法向量的相似性分解为很多块,然后把这些块拼成2D图像并组成视频,其中每个块的几何信息组成几何视频,颜色信息组成属性视频,并生成指示点云投影的占位图,然后采用现有视频压缩方法(Video-based Point Cloud Compression,V-PCC)分别对编码中生成的占位图、几何视频以及属性视频进行编码。现有视频压缩方法中,动态点云的每个块被投影为两层:远层图像和相应的近层图像;近层图像表示最小深度值的点,远层图像表示最大深度值的点。在现有视频压缩方法中,预测编码包括跳跃预测编码方法和合并预测编码方法,由于远近层具有较高的相似性,在跳跃模式和合并模式中零运动矢量大概率会被采用。现有的视频编码方法的主要用于压缩自然视觉数据,设计上缺乏对点云特点的考虑。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种面向动态点云几何信息压缩的新型合并预测编码方法,能够提升点云几何信息的编码性能。为达到上述目的,本发明是采用下述技术方案实现的:
第一方面,本发明提供了一种面向动态点云几何信息压缩的新型合并预测编码方法,包括:
根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得远层图像编码单元中各像素的偏移值δ;其中,偏移值δ=1;
根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码;其中,占位图引导合并预测编码与非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值。
结合第一方面,进一步地,所述占位图引导合并预测编码,包括:
将远层图像编码单元中的各像素作为采样点;
判断各采样点对应的占位图的取值是否为真:
若该采样点对应的占位图的取值为真,则该采样点为待预测像素,预测像素值为原预测像素值加偏移值δ;
若该采样点对应的占位图的取值为假,则该采样点不是待预测像素,原预测像素值不做调整。
结合第一方面,进一步地,所述非占位图引导合并预测编码,包括:
将远层图像编码单元中的所有像素作为待预测像素,预测像素值为原预测像素值加偏移值δ。
结合第一方面,进一步地,所述原预测像素值为采用现有合并预测编码方法得到的远层图像编码单元中各像素的预测像素值。
结合第一方面,进一步地,根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得远层图像编码单元中各像素的偏移值δ,偏移值δ=1是通过下述步骤得到的:
计算对远层图像编码单元进行预测的预测误差pe,通过以下公式计算:
Figure GDA0003662948820000031
公式(1)中,Xh表示远层图像编码单元,Xl表示远层图像编码单元Xh在近层中相同位置的近层图像编码单元;xh,i和xl,i分别表示远层图像编码单元和近层图像编码单元中像素点i的深度值,且xh,i∈Xh、xl,i∈Xl;Nl为近层图像编码单元Xl的编码失真,nl,i表示xl,i的编码失真,且nl,i∈Nl
将公式(1)改写为:
Figure GDA0003662948820000032
令nl,i和xh,i-xl,i是相互独立的,公式(2)改写为:
Figure GDA0003662948820000041
公式(3)中,E[·]表示期望,M表示远层图像编码单元中像素的个数;
令xl,i的编码失真为0,则公式(3)为:
Figure GDA0003662948820000042
计算远层图像编码单元的改进预测模式的预测误差pe′,通过以下公式计算:
Figure GDA0003662948820000043
公式(5)中,δ表示各像素的偏移值,且δ为整数;
计算对远层图像编码单元进行预测的预测误差pe与远层图像编码单元的改进预测模式的预测误差pe的差值:
pe-pe′=2Mδ·E[(xh,i-xl,i)]-Mδ2 (6)
初始化远层图像编码单元Xh与近层图像编码单元Xl中深度值相等的像素的比例α,且0≤α≤1,由于深度值为正整数,则xh,i-xl,i≥1,对于整个编码单元有E(xh,i-xl,i)≥1-α,则公式(6)改写为:
pe-pe′≥Mδ(2-2α-δ) (7)
在pe-pe′>0的情况下,解得:δ=1且α<0.5,即获得各像素的偏移值δ=1。
结合第一方面,进一步地,当α≥0.5时,远层图像与近层图像对应编码单元之间有不少于一半的像素取值相同,利用零运动矢量的跳跃预测编码方法对远层图像编码单元进行预测编码,不使用合并预测编码方法。
第二方面,本发明提供了一种面向动态点云几何信息压缩的新型合并预测编码系统,包括:
计算模块:用于根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得各像素的偏移值δ=1;
合并预测编码模块:用于根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值。
第三方面,本发明提供了一种面向动态点云几何信息压缩的新型合并预测编码装置,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行第一方面任一项所述方法的的步骤。
第四方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面任一项所述方法的步骤。
与现有技术相比,本发明实施例所提供的一种面向动态点云几何信息压缩的新型合并预测编码方法所达到的有益效果包括:
本发明根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得远层图像编码单元中各像素的偏移值δ=1;根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码,占位图引导合并预测编码与非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值;能够降低预测误差;占位图引导合并预测编码和非占位图引导合并预测编码区别在于待预测像素的范围不同,能够根据解码需求选择合并预测编码,显著提升了点云几何信息的编码性能。
附图说明
图1是本发明一种面向动态点云几何信息压缩的新型合并预测编码方法的流程图;
图2是本发明一种面向动态点云几何信息压缩的新型合并预测编码方法中点云中远层图像编码单元与近层图像编码单元的像素点的位置关系;
图3是本发明一种面向动态点云几何信息压缩的新型合并预测编码方法的合并预测编码结果。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例一:
本实施例是基于实施例一提供的一种面向动态点云几何信息压缩的新型合并预测编码方法的具体应用场景,以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
在视频压缩方法中,动态点云的每个块被投影为两层:远层和相应的近层;近层表示最小深度值的点,远层表示最大深度值的点。如图2所示,小圆圈表示具有最大深度值的点,实心点表示具有最小深度的点,星型点表示中间点;而小三角形表示该位置只有一个投影点,称为唯一点,此时近层和远层的深度值取值相同。就几何视频而言,远层的深度值一定不小于近层的深度值。在编码过程中,近层的深度值通常作为远层的深度值的预测值,现有方法在预测编码过程中没有利用到远层的深度值不小于近层的深度值这一特点,因此预测编码性能仍有提升空间。
在视频压缩方法中,预测编码包括跳跃预测编码方法和合并预测编码方法,两者模式均将零运动矢量作为预测编码中的候选运动矢量。
如图1所示,一种面向动态点云几何信息压缩的新型合并预测编码新型方法,包括:根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得远层图像编码单元中各像素的偏移值δ;其中,偏移值δ=1;
根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码;其中,占位图引导合并预测编码与非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值。
具体地,分解步骤如下:
步骤1:计算对远层图像编码单元进行预测的预测误差pe,通过以下公式计算:
Figure GDA0003662948820000071
公式(1)中,Xh表示远层图像编码单元,Xl表示远层图像编码单元Xh在近层中相同位置的近层图像编码单元;xh,i和xl,i分别表示远层图像编码单元和近层图像编码单元中像素点i的深度值,且xh,i∈Xh、xl,i∈Xl;Nl为近层图像编码单元Xl的编码失真,nl,i表示xl,i的编码失真,且nl,i∈Nl
公式(1)能够改写为:
Figure GDA0003662948820000072
令nl,i和xh,i-xl,i是相互独立的,能够得到:
Figure GDA0003662948820000073
公式(3)中,E[·]表示期望,M表示远层图像编码单元中像素的个数;
令xl,i的编码失真为0,即E[nl,i]=0,则公式(3)为:
Figure GDA0003662948820000074
步骤2:计算远层图像编码单元的改进预测模式的预测误差pe’:
由于远层图像存储的最大深度值不小于对应的近层图像存储的最小深度值,因此在现有的合并预测编码方法中远层图像编码单元中每个像素加上整数偏移值δ,则公式(4)改写为:
Figure GDA0003662948820000081
公式(5)中,δ表示各像素的偏移值,且δ为整数。
步骤3:计算对远层图像编码单元进行预测的预测误差pe与远层图像编码单元的改进预测模式的预测误差pe的差值:
pe-pe′=2Mδ·E[(xh,i-xl,i)]-Mδ2 (6)。
步骤4:计算远层图像编码单元中各像素的偏移值δ:
初始化远层图像编码单元Xh与近层图像编码单元Xl中深度值相等的像素的比例α,且0≤α≤1。即:远层图像编码单元与近层图像编码单元中各相同位置i有αM个像素取值相等:xh,i=xl,i,有(1-α)M个像素值不等,且xh,i>xl,i。由于深度值为正整数,则xh,i-xl,i≥1,对于整个编码单元有E(xh,i-xl,i)≥1-α,则公式(6)改写为:
pe-pe′≥Mδ(2-2α-δ) (7)
在pe-pe′>0的情况下,解得:δ=1且α<0.5,即获得各像素的偏移值δ=1。
需要说明的是,当远层图像编码单元中少于一半像素与对应的近层图像编码单元取相等深度值时,对远层图像编码单元中所有的像素值加偏移值1,能够使得改进后的预测误差更小;相反,如果超过一半像素取相同深度值,改进前后的预测误差之间的大小关系是难以确定的。
步骤5:当α<0.5时,根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码。
占位图引导合并预测编码,包括:
将远层图像编码单元中的各像素作为采样点;
判断各采样点对应的占位图的取值是否为真:
若该采样点对应的占位图的取值为真,则该采样点为待预测像素,预测像素值为原预测像素值加偏移值δ;
若该采样点对应的占位图的取值为假,则该采样点不是待预测像素,原预测像素值不做调整。
需要注意的是,采用占位图引导合并预测编码,解码过程中需要占位图。
非占位图引导合并预测编码,包括:
将远层图像编码单元中的所有像素作为待预测像素,预测像素值为原预测像素值加偏移值δ。
需要注意的是,采用非占位图引导合并预测编码,解码过程不需要占位图。
当α≥0.5时,远层与近层对应编码单元之间有不少于一半的像素取值相同,利用零运动矢量的跳跃模式对远层图像编码单元进行预测编码,不需要使用合并预测编码预测。
实施例二:
本发明实施例提供一种面向动态点云几何信息压缩的新型合并预测编码系统,包括如下模块:
计算模块:用于根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得各像素的偏移值δ=1;
合并预测编码模块:用于根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值。
实施例三:
本发明实施例还提供一种面向动态点云几何信息压缩的新型合并预测编码装置,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行实施例一所述方法的步骤。
实施例四:
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实施例一所述方法的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (6)

1.一种面向动态点云几何信息压缩的新型合并预测编码方法,其特征在于,包括:
根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得远层图像编码单元中各像素的偏移值δ=1,通过下述步骤得到的:
计算对远层图像编码单元进行预测的预测误差pe,通过以下公式计算:
Figure FDA0003662948810000011
公式(1)中,Xh表示远层图像编码单元,Xl表示远层图像编码单元Xh在近层中相同位置的近层图像编码单元;xh,i和xl,i分别表示远层图像编码单元和近层图像编码单元中像素点i的深度值,且xh,i∈Xh、xl,i∈Xl;Nl为近层图像编码单元Xl的编码失真,nl,i表示xl,i的编码失真,且nl,i∈Nl
将公式(1)改写为:
Figure FDA0003662948810000012
令nl,i和xh,i-xl,i是相互独立的,公式(2)改写为:
Figure FDA0003662948810000013
公式(3)中,E[·]表示期望,M表示远层图像编码单元中像素的个数;
令xl,i的编码失真为0,则公式(3)为:
Figure FDA0003662948810000014
计算远层图像编码单元的改进预测模式的预测误差pe’,通过以下公式计算:
Figure FDA0003662948810000015
公式(5)中,δ表示各像素的偏移值,且δ为整数;
计算对远层图像编码单元进行预测的预测误差pe与远层图像编码单元的改进预测模式的预测误差pe的差值:
pe-pe′=2Mδ·E[(xh,i-xl,i)]-Mδ2. (6)
初始化远层图像编码单元Xh与近层图像编码单元Xl中深度值相等的像素的比例α,且0≤α≤1,由于深度值为正整数,则xh,i-xl,i≥1,对于整个编码单元有E(xh,i-xl,i)≥1-α,则公式(6)改写为:
pe-pe′≥Mδ(2-2α-δ). (7)
在pe-pe′>0的情况下,解得:δ=1且α<0.5,即获得各像素的偏移值δ=1;
当α<0.5时,根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码;其中,占位图引导合并预测编码与非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值;
其中,所述占位图引导合并预测编码,包括:
将远层图像编码单元中的各像素作为采样点;
判断各采样点对应的占位图的取值是否为真:
若该采样点对应的占位图的取值为真,则该采样点为待预测像素,预测像素值为原预测像素值加偏移值δ;
若该采样点对应的占位图的取值为假,则该采样点不是待预测像素,原预测像素值不做调整;
其中,所述非占位图引导合并预测编码,包括:
将远层图像编码单元中的所有像素作为待预测像素,预测像素值为原预测像素值加偏移值δ。
2.根据权利要求1所述的面向动态点云几何信息压缩的新型合并预测编码方法,其特征在于,所述原预测像素值为采用现有合并预测编码方法得到的远层图像编码单元中各像素的预测像素值。
3.根据权利要求1所述的面向动态点云几何信息压缩的新型合并预测编码方法,其特征在于,当α≥0.5时,远层与近层对应编码单元之间有不少于一半的像素取值相同,利用零运动矢量的跳跃预测编码方法对远层图像编码单元进行预测编码,不使用合并预测编码方法。
4.一种面向动态点云几何信息压缩的新型合并预测编码系统,其特征在于,包括:
计算模块:用于根据对远层图像编码单元进行预测的预测误差和远层图像编码单元的改进预测模式的预测误差,获得各像素的偏移值δ=1,通过下述步骤得到的:
计算对远层图像编码单元进行预测的预测误差pe,通过以下公式计算:
Figure FDA0003662948810000031
公式(1)中,Xh表示远层图像编码单元,Xl表示远层图像编码单元Xh在近层中相同位置的近层图像编码单元;xh,i和xl,i分别表示远层图像编码单元和近层图像编码单元中像素点i的深度值,且xh,i∈Xh、xl,i∈Xl;Nl为近层图像编码单元Xl的编码失真,nl,i表示xl,i的编码失真,且nl,i∈Nl
将公式(1)改写为:
Figure FDA0003662948810000032
令nl,i和xh,i-xl,i是相互独立的,公式(2)改写为:
Figure FDA0003662948810000033
公式(3)中,E[·]表示期望,M表示远层图像编码单元中像素的个数;
令xl,i的编码失真为0,则公式(3)为:
Figure FDA0003662948810000034
计算远层图像编码单元的改进预测模式的预测误差pe’,通过以下公式计算:
Figure FDA0003662948810000041
公式(5)中,δ表示各像素的偏移值,且δ为整数;
计算对远层图像编码单元进行预测的预测误差pe与远层图像编码单元的改进预测模式的预测误差pe的差值:
pe-pe′=2Mδ·E[(xh,i-xl,i)]-Mδ2. (6)
初始化远层图像编码单元Xh与近层图像编码单元Xl中深度值相等的像素的比例α,且0≤α≤1,由于深度值为正整数,则xh,i-xl,i≥1,对于整个编码单元有E(xh,i-xl,i)≥1-α,则公式(6)改写为:
pe-pe′≥Mδ(2-2α-δ). (7)
在pe-pe′>0的情况下,解得:δ=1且α<0.5,即获得各像素的偏移值δ=1;
合并预测编码模块:用于当α<0.5时,根据解码需求选择占位图引导合并预测编码和非占位图引导合并预测编码,包括:筛选远层图像编码单元的待预测像素,计算待预测像素的预测像素值;
其中,所述占位图引导合并预测编码,包括:
将远层图像编码单元中的各像素作为采样点;
判断各采样点对应的占位图的取值是否为真:
若该采样点对应的占位图的取值为真,则该采样点为待预测像素,预测像素值为原预测像素值加偏移值δ;
若该采样点对应的占位图的取值为假,则该采样点不是待预测像素,原预测像素值不做调整;
其中,所述非占位图引导合并预测编码,包括:
将远层图像编码单元中的所有像素作为待预测像素,预测像素值为原预测像素值加偏移值δ。
5.一种面向动态点云几何信息压缩的新型合并预测编码装置,其特征在于,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行权利要求1~3任一项所述方法的步骤。
6.计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1~3任一项所述方法的步骤。
CN202110073333.7A 2021-01-20 2021-01-20 一种面向动态点云几何信息压缩的新型合并预测编码方法 Active CN112911302B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110073333.7A CN112911302B (zh) 2021-01-20 2021-01-20 一种面向动态点云几何信息压缩的新型合并预测编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110073333.7A CN112911302B (zh) 2021-01-20 2021-01-20 一种面向动态点云几何信息压缩的新型合并预测编码方法

Publications (2)

Publication Number Publication Date
CN112911302A CN112911302A (zh) 2021-06-04
CN112911302B true CN112911302B (zh) 2022-07-26

Family

ID=76116403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110073333.7A Active CN112911302B (zh) 2021-01-20 2021-01-20 一种面向动态点云几何信息压缩的新型合并预测编码方法

Country Status (1)

Country Link
CN (1) CN112911302B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487691B (zh) * 2021-09-08 2022-01-28 北京医百科技有限公司 一种点云编码方法、系统及存储介质
CN114926556B (zh) * 2022-06-07 2024-03-26 北京大学深圳研究生院 一种三维视频点云图片的处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107995494A (zh) * 2017-12-12 2018-05-04 珠海全志科技股份有限公司 视频图像数据的压缩方法与解压方法、计算机装置、计算机可读存储介质
WO2019158821A1 (en) * 2018-02-19 2019-08-22 Nokia Technologies Oy An apparatus, a method and a computer program for volumetric video
CN111405281A (zh) * 2020-03-30 2020-07-10 北京大学深圳研究生院 一种点云属性信息的编码方法、解码方法、存储介质及终端设备
CN111432210A (zh) * 2020-04-30 2020-07-17 中山大学 一种基于填充的点云属性压缩方法
CN111641834A (zh) * 2019-03-01 2020-09-08 腾讯美国有限责任公司 点云编码的方法和装置、计算机设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107995494A (zh) * 2017-12-12 2018-05-04 珠海全志科技股份有限公司 视频图像数据的压缩方法与解压方法、计算机装置、计算机可读存储介质
WO2019158821A1 (en) * 2018-02-19 2019-08-22 Nokia Technologies Oy An apparatus, a method and a computer program for volumetric video
CN111641834A (zh) * 2019-03-01 2020-09-08 腾讯美国有限责任公司 点云编码的方法和装置、计算机设备和存储介质
CN111405281A (zh) * 2020-03-30 2020-07-10 北京大学深圳研究生院 一种点云属性信息的编码方法、解码方法、存储介质及终端设备
CN111432210A (zh) * 2020-04-30 2020-07-17 中山大学 一种基于填充的点云属性压缩方法

Also Published As

Publication number Publication date
CN112911302A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
US20200021844A1 (en) Method and apparatus for video coding
CN113678466A (zh) 用于预测点云属性编码的方法和设备
CN112911302B (zh) 一种面向动态点云几何信息压缩的新型合并预测编码方法
JP2023544618A (ja) ビデオベースのメッシュ圧縮
US20170064279A1 (en) Multi-view 3d video method and system
US20150271522A1 (en) Method, program and apparatus for reducing data size of a plurality of images containing mutually similar information, and data structure representing a plurality of images containing mutually similar information
TW200803521A (en) Randomly sub-sampled partition voting (RSPV) algorithm for scene change detection
US12020461B2 (en) Method and apparatus for Haar-based point cloud coding
US11711535B2 (en) Video-based point cloud compression model to world signaling information
CN115486068A (zh) 用于视频编码中基于深度神经网络的帧间预测的方法和设备
CN112637608B (zh) 一种动态点云几何信息压缩率失真优化方法及装置
EP2355515B1 (en) Scalable video coding
CN116721210A (zh) 基于神经有符号距离场的实时高效三维重建方法及装置
JP2006518157A (ja) オブジェクトベースの動き補償の方法及び装置
US20220180567A1 (en) Method and apparatus for point cloud coding
CN114651270A (zh) 通过时间可变形卷积进行深度环路滤波
US20230328282A1 (en) Decoding method, inter-view prediction method, decoder, and encoder
Roodaki et al. G-arrays: Geometric arrays for efficient point cloud processing
US20230162404A1 (en) Decoding of patch temporal alignment for mesh compression
Mamou et al. Multi-chart geometry video: A compact representation for 3D animations
US11606556B2 (en) Fast patch generation for video based point cloud coding
US11683523B2 (en) Group of pictures based patch packing for video based point cloud coding
US20230156222A1 (en) Grid-based patch generation for video-based point cloud coding
US20220394295A1 (en) Fast recolor for video based point cloud coding
KR20240001204A (ko) 깊이를 갖는 낮은 복잡도의 다층 이미지

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant