CN106791876B - 一种基于3d-hevc的深度图快速帧内预测方法 - Google Patents
一种基于3d-hevc的深度图快速帧内预测方法 Download PDFInfo
- Publication number
- CN106791876B CN106791876B CN201611169398.7A CN201611169398A CN106791876B CN 106791876 B CN106791876 B CN 106791876B CN 201611169398 A CN201611169398 A CN 201611169398A CN 106791876 B CN106791876 B CN 106791876B
- Authority
- CN
- China
- Prior art keywords
- gray level
- depth
- mode
- occurrence matrixes
- hevc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于3D‑HEVC的深度图快速帧内预测方法,该方法是对每个深度编码单元生成灰度共生矩阵,根据灰度共生矩阵的协相关特征值,判断得到每个深度编码单元的主参考方向,只将主参考方向范围内的角度预测模式添加到率失真候选列表;通过计算灰度共生矩阵的角二阶矩特征值,判定当前处理的深度编码单元是否为平滑块,若是平滑块,省去将深度建模模型加入率失真候选列表中;最后率失真候选列表计算率失真,选择帧内预测模式。该方法能够降低编码复杂度,减少搜索耗时,有助于推进3D‑HEVC的实时应用。
Description
技术领域
本发明涉及三维视频编码领域,具体涉及一种基于3D-HEVC的深度图快速帧内预测方法。
背景技术
3D视频可以带来身临其境的视觉体验。为了有效地传输和存储3D视频数据,ISO/IEC MPEG和ITU-T VCEG标准化组织建立了3D视频编码扩展联合协作组(JCT-3V),在2D视频编码标准HEVC的基础上扩展出了一种新的3D视频编码标准3D-HEVC,较以前的标准可以实现更高的压缩比。
3D-HEVC是基于多视点视频加深度图(Multi-view video plus depth,MVD)数据格式的。MVD格式中,捕获的多个视点视频以及对应的深度图通过编码和多路复用到一个3D视频比特流中。纹理视频和深度数据解码后,利用基于深度的图像绘制技术(Depth imagebased rendering,DIBR)可以合成额外的中间视点来显示。3D-HEVC通过引进视差补偿预测、视点间运动预测、高级残差预测、亮度补偿、视点合成预测和视点合成失真优化等一些新技术,极大提高了压缩效率,但同时增加了计算复杂度。
深度图代表拍摄景物到摄像机之间的距离,用于辅助合成虚拟视点而非直接显示,具有不同于自然纹理图的特征属性。深度图包含大量匀质区域,在不同物体边缘又有明显阶跃,而传统的帧内编码模式是针对纹理视频设计的,容易对边缘区域造成模糊失真。鉴于此,为了保护深度图的边缘区域,提高深度图的编码效率,3D-HEVC在35种传统帧内模式的基础上,增加了深度建模模型(depth modeling modes,DMM)。深度建模模型包含楔形分割和轮廓分割两种方式,适用于不同的边缘形态。DMM的引入进一步增加了3D-HEVC编码器的运算负担,因此亟需一种针对深度图帧内预测的快速算法,保证编码性能的同时降低复杂度。
发明内容
本发明提供了一种基于3D-HEVC的深度图快速帧内预测方法,该方法既能保证3D视频压缩效率,又能有效降低计算量。
一种基于3D-HEVC的深度图快速帧内预测编码方法,包括:
(1)生成灰度共生矩阵:对当前深度序列中的每一帧的每一个编码单元进行灰度级转化和灰度相关性统计,分别生成四个方向的灰度共生矩阵;
(2)判定每个深度编码单元的主参考方向:分别计算四个方向灰度共生矩阵的协相关特征值,认为矩阵协相关特征值最大的那个方向是主参考方向;
(3)进行候选角度预测模式的删减:分别计算四个方向灰度共生矩阵的角二阶矩特征值,然后判断四个方向灰度共生矩阵的矩阵角二阶矩是否都不相等,若是,将33个角度预测模式中只有沿着主参考方向的角度模式子集被添加到率失真计算候选列表中,若否,则按照3D-HEVC固有流程,将33个角度预测模式都添加到候选列表中。
(4)进行深度建模模型的跳过:判断四个方向灰度共生矩阵的矩阵角二阶矩是否都相等,且该编码单元的上侧和左侧相邻块都不是用深度建模模型编码的,若是,执行下一步,若否,将深度建模模型添加到率失真计算候选列表中。
(5)对候选列表中的各候选模式分别进行率失真计算,得到最终的预测模式。
在步骤(1)中,所述的四个方向θ分别是0度、45度、90度和135度,即研究的是沿着水平、左上、垂直和右上方向的像素间灰度共生关系。
在步骤(1)中,所述的灰度共生矩阵是一个n×n的二维矩阵,n表示图像的灰度级,原始深度图的灰度范围是0-255,为256个灰度级,为了简化运算,将原始深度图转化为较低的灰度级n:
在式(Ⅰ)中,QPdepth表示当前深度编码单元的量化参数。量化参数越大,图像的编码量化失真越大,边缘越容易被模糊,使用小范围的灰度级足以区分各像素。因此,当前深度编码单元中的每一个像素需要除以16或32来满足式(Ⅰ)。
在步骤(1)中,灰度共生矩阵中的(i,j)处元素的值为编码单元经灰度级转换后,沿指定方向像素对(i,j)出现的概率,用p(i,j|d,n,θ)表示,其中,d为组成像素对的两个像素之间的距离,θ分别为0度、45度、90度和135度。如果组成像素对的两个像素是相邻的,则d=1;如果组成像素对的两个像素之间隔着1个像素,则d=2;如果组成像素对的两个像素之间隔着2个像素,则d=3;依次类推,如果组成像素对的两个像素之间隔着m个像素,则d=m+1。
由于各像素对出现总数是一定的,为了便于计算机处理,概率值的除数被忽略,用像素对出现的次数表示灰度共生矩阵中的每个元素。
在步骤(2)中,所述的主参考方向是指帧内预测过程中,像素最相似的方向,在众多的帧内候选模式中沿着这一方向的角度模式更可能地被选择添加到率失真计算候选列表。灰度共生矩阵的协相关特征值的计算如式(Ⅱ)所示:
在式(Ⅱ)中,i和j分别表示矩阵元素的垂直和水平位置,μv和σv表示矩阵中元素在垂直方向灰度级的均值和标准差,μh和σh分别表示矩阵中元素在水平方向灰度级的均值和标准差:
在步骤(3)中,角二阶矩特征值也称为能量,用来检测图像像素间的相关性,计算公式如式(Ⅶ)所示:
如果主参考方向为0度,则6-14角度模式被加入候选列表;如果主参考方向为45度,则14-22角度模式被加入候选列表;如果主参考方向为90度,则22-30角度模式被加入候选列表;如果主参考方向为135度,则30-34和2-6角度模式被加入候选列表。为了尽量保证准确性,无论哪个主参考方向,平面模式和直流模式总是被加入候选列表中。
在步骤(4)中,深度建模模型是3D-HEVC中为保护深度图的锐利边缘而设计的帧内预测模式,如果四个方向的矩阵角二阶矩都相等,则表示该编码单元在各个方向上都是匀质的,无明显纹理排布,所以认为该深度编码单元是平滑块,由于平滑块包含较少边缘信息,省去将深度建模模型添加到率失真计算候选列表中,直接进行率失真计算,从而减少了编码耗时。
本发明基于3D-HEVC的深度图快速帧内预测方法,一方面,根据灰度共生矩阵的协相关特征值,判断得到每个深度编码单元的主参考方向,只将主参考方向范围内的角度预测模式添加到率失真候选列表,从而降低编码复杂度;另一方面,通过计算灰度共生矩阵的角二阶矩特征值,判定当前处理的深度编码单元是否为平滑块,若是平滑块,省去将深度建模模型加入率失真候选列表中,进一步减少搜索耗时。此外,本发明还有助于推进3D-HEVC的实时应用。
附图说明
图1为本发明中深度图帧内预测模式的示意图;
图2为本发明基于3D-HEVC的深度图快速帧内预测编码方法的流程图;
图3为本发明中计算灰度共生矩阵的示意图,其中,图3(a)为深度编码单元中的像素,图3(b)为相应的灰度共生矩阵。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明的方法是在3D-HEVC关于深度图帧内预测的标准框架下进行的,该标准框架是把一帧图像划分为若干具有四叉树结构的编码单元树,对于每个不同划分层次的编码单元,都有若干候选帧内预测模式,如图1所示,包括33种角度模式、平面模式(Planar)、直流模式(DC)以及深度建模模型(DMM)。所有候选帧内预测模式需要先进行粗略的模式选择运算,经筛选的少部分模式被加入率失真计算候选列表中,最后通过率失真计算选择出最终的帧内预测模式。整个过程包含多次条件选择,非常耗时,所以本发明方法利用灰度共生矩阵对每个深度编码单元进行分析,减少候选模式的数量,从而减少了编码时间。
如图2所示,现针对一个深度编码单元,实行本发明基于3D-HEVC的深度图快速帧内预测方法,具体步骤为:
步骤1,生成灰度共生矩阵:对当前深度序列中的每一帧的每一个编码单元进行灰度级转化和灰度相关性统计,分别生成四个方向的灰度共生矩阵;
本实施例中,灰度共生矩阵的计算如图3示例,图3(a)为深度编码单元中的像素,图3(b)为相应的灰度共生矩阵,图3(b)中的(i,j)处元素的值为图3(a)中沿指定方向像素对(i,j)出现的概率p(i,j|d,n,θ)。由于各像素对出现总数是一定的,为了便于计算机处理,概率值的除数被忽略,用像素对出现的次数表示灰度共生矩阵中的每个元素(i,j)。本实施例中,采用水平方向相邻像素对,则d=1;灰度级n为4,θ为0度。如图3所示,像素对(1,2)出现了3次,所以得到的灰度共生矩阵中的元素(1,2)为3,即p(1,2|1,4,0)=3;而像素对(1,1)只出现了1次,所以得到的灰度共生矩阵中元素(1,1)为1即p(1,1|1,4,0)=1。
本实施例中,四个方向分别是0度、45度、90度和135度,即研究的是沿着水平、左上、垂直和右上方向的相邻像素间灰度共生关系。
原始深度图的灰度范围是0-255,即256个灰度级,为了简化运算,将当前深度编码单元中的每一个像素除以16或32,使得原始深度图转化为较低的灰度级n:
在式(Ⅰ)中,QPdepth表示当前深度编码单元的量化参数,量化参数越大,图像的编码量化失真越大,边缘越容易被模糊,使用小范围的灰度级足以区分各像素。
步骤2,计算四个方向灰度共生矩阵的协相关特征值,判断得到该深度编码单元的主参考方向;
首先,按照式(Ⅱ)计算四个方向的灰度共生矩阵的协相关特征值:
其中,μv、μh、σv以及σh的计算公式为:
然后,将灰度共生矩阵的协相关特征值最大的那个方向作为主参考方向,主参考方向是指帧内预测过程中,像素最相似的方向,在众多的帧内候选模式中沿着这一方向的角度模式更可能地被选择添加到率失真计算候选列表。
步骤3,计算灰度共生矩阵角二阶矩特征值;
角二阶矩特征值也称为能量,可以用来检测图像像素间的相关性,计算如式(Ⅶ)所示:
步骤4,判断四个方向灰度共生矩阵的角二阶矩是否都不相等,若是,执行步骤5,若否,执行步骤6;
步骤5,将33个角度预测模式中只有沿着主参考方向的角度模式子集,添加到率失真计算候选列表中;
如果主参考方向为0度,则6-14角度模式被加入率失真计算候选列表;如果主参考方向为45度,则14-22角度模式被加入率失真计算候选列表;如果主参考方向为90度,则22-30角度模式被加入率失真计算候选列表;如果主参考方向为135度,则30-34和2-6角度模式被加入率失真计算候选列表。为了尽量保证准确性,无论哪个主参考方向,平面模式和直流模式总是被加入率失真计算候选列表中。
步骤6,按照3D-HEVC原始的深度图帧内预测流程编码,将33个角度预测模式都添加到候选列表中;
步骤7,判断四个方向灰度共生矩阵的角二阶矩是否都相等,且该编码单元的上侧和左侧相邻块都不是用深度建模模型编码的,若是,执行步骤9,若否,执行步骤8;
步骤8,将深度建模模型添加到率失真计算候选列表中;
深度建模模型是3D-HEVC中为保护深度图的锐利边缘而设计的帧内预测模式,如果四个方向的矩阵角二阶矩都相等,则表示该编码单元在各个方向上都是匀质的,无明显纹理排布,所以认为该深度编码单元是平滑块,由于平滑块包含较少边缘信息,省去将深度建模模型添加到率失真计算候选列表中,直接进行率失真计算,从而减少了编码耗时。
步骤9,对候选列表中的各候选模式分别进行率失真计算,得到最终的预测模式。
为了评估本发明的性能,在3D-HEVC的参考软件HTM-15.0上进行了实验。HTM-15.0较以往版本,对深度图的帧内编码已经采取了一些优化措施。实验使用了8个由JCT-3V指定的测试序列:Poznan_Hall2(1920×1088)、Poznan_Street(1920×1088)、Undo_Dancer(1920×1088)、GT_Fly(1920×1088)、Kendo(1024×768)、Balloons(1024×768)、Newspaper(1024×768)和Shark(1024×768)。每个序列中选择左、中、右三个相邻视点(纹理图连同深度图)进行编码,解码后每两个相邻视点间再合成三个虚拟视点,一共合成6个虚拟视点。纹理图与深度图用四组量化参数(QP)组合来测试:(25,34)、(30,39)、(35,42)和(40,45)。由于本发明是针对深度图编码的改进,并不影响纹理图的编码效率,所以只用由合成的虚拟视点的质量与消耗的总码率计算出的BD-rate来评估编码性能。
表1实验结果
从表1可以看出,采用本发明提供的快速编码方法,在保证合成视点质量的前提下,码率略有上升,平均仅0.12%。而对于Kendo和Shark序列,码率是下降的,说明编码效率得到了提升。同时编码速度有了很大提高,平均编码耗时减少了19.16%。
以上公开的仅为本发明的具体实施例,但是本发明的保护范围并不局限于此,任何熟悉本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,都应涵盖在本实用发明的保护范围之内。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于3D-HEVC的深度图快速帧内预测编码方法,包括:
(1)生成灰度共生矩阵:对当前深度序列中的每一帧的每一个编码单元进行灰度级转化和灰度相关性统计,分别生成四个方向的灰度共生矩阵,具体地,灰度共生矩阵中的(i,j)处元素的值为编码单元经灰度级转换后,沿指定方向像素对(i,j)出现的概率,用p(i,j|d,n,θ)表示,d为组成像素对的两个像素之间的距离,θ为方向,n为图像的灰度级;
(2)判定每个深度编码单元的主参考方向:分别计算四个方向灰度共生矩阵的协相关特征值,认为矩阵协相关特征值最大的那个方向是主参考方向;
(3)进行候选角度预测模式的删减;
(4)进行深度建模模型的跳过;
(5)对候选列表中的各候选模式分别进行率失真计算,得到最终的预测模式。
2.根据权利要求1所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:所述的步骤(1)中的四个方向θ分别为是0度、45度、90度和135度。
3.根据权利要求1所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:所述的灰度共生矩阵是一个n×n的二维矩阵,n表示图像的灰度级,原始深度图的灰度范围是0-255,为256个灰度级,在获得灰度共生矩阵时,当前深度编码单元中的每一个像素除以16或32,将原始深度图转化为较低的灰度级n:
在式(Ⅰ)中,QPdepth表示当前深度编码单元的量化参数。
4.根据权利要求1所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:用像素对出现的次数表示灰度共生矩阵中的每个元素。
5.根据权利要求1所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:按照式(Ⅱ)计算灰度共生矩阵的协相关特征值:
在式(Ⅱ)中,i和j分别表示矩阵元素的垂直和水平位置,μv和σv表示矩阵中元素在垂直方向的均值和标准差,μh和σh分别表示矩阵中元素在水平方向的均值和标准差:
6.根据权利要求1所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:所述的步骤(3)的具体步骤为:
(3-1)分别计算四个方向灰度共生矩阵的角二阶矩特征值;
(3-2)判断四个方向灰度共生矩阵的矩阵角二阶矩是否都不相等,若是,执行步骤(3-3),若否,执行步骤(3-4);
(3-3)将33个角度预测模式中沿着主参考方向的角度模式子集添加到率失真计算候选列表中;
(3-4)按照3D-HEVC原始的深度图帧内预测流程编码,将33个角度预测模式都添加到候选列表中。
7.根据权利要求6所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:所述的灰度共生矩阵的角二阶矩特征值的计算公式为:
8.根据权利要求6所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:如果主参考方向为0度,则6-14角度模式被加入候选列表;如果主参考方向为45度,则14-22角度模式被加入候选列表;如果主参考方向为90度,则22-30角度模式被加入候选列表;如果主参考方向为135度,则30-34和2-6角度模式被加入候选列表;无论哪个方向为主参考方向,平面模式和直流模式都被加入候选列表中。
9.根据权利要求1所述基于3D-HEVC的深度图快速帧内预测编码方法,其特征在于:所述的步骤(4)的具体步骤为:
判断四个方向灰度共生矩阵的矩阵角二阶矩是否都相等,且该编码单元的上侧和左侧相邻块都不是用深度建模模型编码的,若是,执行下一步,若否,将深度建模模型添加到率失真计算候选列表中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611169398.7A CN106791876B (zh) | 2016-12-16 | 2016-12-16 | 一种基于3d-hevc的深度图快速帧内预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611169398.7A CN106791876B (zh) | 2016-12-16 | 2016-12-16 | 一种基于3d-hevc的深度图快速帧内预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106791876A CN106791876A (zh) | 2017-05-31 |
CN106791876B true CN106791876B (zh) | 2019-06-25 |
Family
ID=58892271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611169398.7A Active CN106791876B (zh) | 2016-12-16 | 2016-12-16 | 一种基于3d-hevc的深度图快速帧内预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106791876B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107454425B (zh) * | 2017-08-26 | 2019-10-18 | 同济大学 | 一种scc帧内编码单元候选预测模式缩减方法 |
CN108737840A (zh) * | 2018-05-28 | 2018-11-02 | 华侨大学 | 一种基于深度图纹理特性的3d-hevc帧内快速编码方法 |
CN109587503B (zh) * | 2018-12-30 | 2022-10-18 | 北京工业大学 | 一种基于边缘检测的3d-hevc深度图帧内编码模式快速决策方法 |
CN115082443B (zh) * | 2022-07-25 | 2022-11-08 | 山东天意机械股份有限公司 | 基于智能监控平台的混凝土制品质量检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103281541A (zh) * | 2013-05-10 | 2013-09-04 | 北方工业大学 | 基于深度图像的帧内预测楔形分块方法 |
CN104125473A (zh) * | 2014-07-31 | 2014-10-29 | 南京理工大学 | 一种3d视频深度图像帧内预测模式选择方法及系统 |
CN104378643A (zh) * | 2014-12-04 | 2015-02-25 | 南京理工大学 | 一种3d视频深度图像帧内预测模式选择方法及系统 |
CN105103559A (zh) * | 2013-03-27 | 2015-11-25 | 高通股份有限公司 | 用于3d-hevc的深度数据的深度译码模式信令 |
CN105898332A (zh) * | 2016-06-27 | 2016-08-24 | 河南工业大学 | 针对3d-hevc编码标准的快速深度图帧内模式判决方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4908180B2 (ja) * | 2006-12-20 | 2012-04-04 | 株式会社東芝 | 動画像符号化装置 |
US20140071235A1 (en) * | 2012-09-13 | 2014-03-13 | Qualcomm Incorporated | Inter-view motion prediction for 3d video |
-
2016
- 2016-12-16 CN CN201611169398.7A patent/CN106791876B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105103559A (zh) * | 2013-03-27 | 2015-11-25 | 高通股份有限公司 | 用于3d-hevc的深度数据的深度译码模式信令 |
CN103281541A (zh) * | 2013-05-10 | 2013-09-04 | 北方工业大学 | 基于深度图像的帧内预测楔形分块方法 |
CN104125473A (zh) * | 2014-07-31 | 2014-10-29 | 南京理工大学 | 一种3d视频深度图像帧内预测模式选择方法及系统 |
CN104378643A (zh) * | 2014-12-04 | 2015-02-25 | 南京理工大学 | 一种3d视频深度图像帧内预测模式选择方法及系统 |
CN105898332A (zh) * | 2016-06-27 | 2016-08-24 | 河南工业大学 | 针对3d-hevc编码标准的快速深度图帧内模式判决方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106791876A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hou et al. | Light field image compression based on bi-level view compensation with rate-distortion optimization | |
CN107277491B (zh) | 生成图像的深度图的方法及相关存储介质 | |
CN106791876B (zh) | 一种基于3d-hevc的深度图快速帧内预测方法 | |
CN109804633A (zh) | 利用自适应帧内预测的全向视频编码和解码的方法和装置 | |
CN104378643B (zh) | 一种3d视频深度图像帧内预测模式选择方法及系统 | |
CN109792520A (zh) | 用于利用自适应帧内最可能模式的全向视频译码的方法和装置 | |
CN101937578B (zh) | 一种虚拟视点彩色图像绘制方法 | |
CN109792516A (zh) | 图像和视频编解码中用于帧内色度编解码的方法及装置 | |
CN105393541A (zh) | 使用基于深度的块分割编解码纹理块的方法和装置 | |
CN107027025B (zh) | 一种基于宏像素块自适应预测的光场图像压缩方法 | |
CN108513131B (zh) | 一种自由视点视频深度图感兴趣区域编码方法 | |
CN108886598A (zh) | 全景立体视频系统的压缩方法和装置 | |
CN104038760B (zh) | 一种3d视频深度图像帧内楔形分割模式选择方法及系统 | |
Stefanoski et al. | Automatic view synthesis by image-domain-warping | |
CN104754359B (zh) | 一种二维自由视点视频的深度图编码失真预测方法 | |
CN104202612B (zh) | 基于四叉树约束的编码单元的划分方法及视频编码方法 | |
Hamout et al. | Fast depth map intra coding for 3D video compression-based tensor feature extraction and data analysis | |
CN103402097A (zh) | 一种自由视点视频深度图编码方法及其失真预测方法 | |
CN103873867B (zh) | 自由视点视频深度图失真预测方法和编码方法 | |
Huang et al. | View synthesis for light field coding using depth estimation | |
CN103905812A (zh) | 一种纹理/深度联合上采样方法 | |
CN101945288B (zh) | 一种基于h.264压缩域图像深度图生成方法 | |
da Silva et al. | Fast intra prediction algorithm based on texture analysis for 3D-HEVC encoders | |
Liu et al. | Coding of 3D holoscopic image by using spatial correlation of rendered view images | |
CN105915886B (zh) | 一种基于视频压缩域的深度图推理算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |