CN105635742A - 面向3d视频编码的基于深度增强的重采样方法 - Google Patents

面向3d视频编码的基于深度增强的重采样方法 Download PDF

Info

Publication number
CN105635742A
CN105635742A CN201511020433.4A CN201511020433A CN105635742A CN 105635742 A CN105635742 A CN 105635742A CN 201511020433 A CN201511020433 A CN 201511020433A CN 105635742 A CN105635742 A CN 105635742A
Authority
CN
China
Prior art keywords
depth
pixel
video
sigma
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201511020433.4A
Other languages
English (en)
Other versions
CN105635742B (zh
Inventor
陆宇
杨萌
李光球
刘华平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Tongjing Intelligent Technology Co ltd
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201511020433.4A priority Critical patent/CN105635742B/zh
Publication of CN105635742A publication Critical patent/CN105635742A/zh
Application granted granted Critical
Publication of CN105635742B publication Critical patent/CN105635742B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及一种面向3D视频编码的基于深度增强的重采样方法。本发明方法对彩色视频按原始分辨率进行编码,对深度视频进行降分辨率编码;对深度视频编码前采用基于频率选择的方法对深度视频进行下采样,对解码后的深度视频,先采用预插值方法生成原始分辨率的深度视频,再采用基于深度图可信边缘引导的深度增强方法对深度视频进行上采样;最后对解码得到的彩色视频和上采样深度视频进行视点合成,得到所需的多视点视频。本发明方法减少了重采样的深度视频在3D视频编解码过程中的失真,保护了深度视频的边缘,提高了合成视点的质量。

Description

面向3D视频编码的基于深度增强的重采样方法
技术领域
本发明属于3D视频处理技术领域,尤其涉及一种面向3D视频编码的基于深度增强的重采样方法。
背景技术
随着3D视频技术的广泛应用,给人们带来了立体的视觉感受。然而,高质量的3D视频显示常常需要大量的多视点视频,其庞大的数据量在实际应用中难以实现。因此,多视点加深度视频是目前主要的3D视频格式,它由一些彩色视频及其对应的深度视频组成,可以运用视点合成技术获得其它虚拟的多视点视频,增加了视点数量的同时有效减少了3D视频的数据量。随着基于HEVC的多视点加深度视频编码标准3D-HEVC的正式发布,带来了3D视频的高效压缩编码。然而,随着高清和超高清视频的应用,用户数量的不断增加,庞大的3D视频数据量对于有限的存储容量和传输带宽来说构成了强大的挑战。深度图是由较大的平坦区域和锐利的边缘组成的灰度图,特别适合于作多分辨率的转换,从而提高3D视频编码的效率。因此,面向3D视频编码的深度重采样方法的研究对于提高3D视频的获取,压缩和显示技术具有重要的意义。
现有的面向3D视频编码的深度重采样方法,其深度下采样方法常用最近邻域下采样方法,双线性下采样方法或者双三次下采样方法。这些下采样方法的共同缺点是未能充分考虑深度图中的深度值的分布特点,容易导致重要深度信息的丢失。当重新对深度图上采样后,原有的深度信息难以恢复。而常用的深度上采样方法,采用匹配彩色图和深度图的边缘来对深度边缘插值,从而达到边缘保护的目的。这些方法的共同缺点是未充分考虑到彩色视频和深度视频在经过3D视频编解码后,彩色图的边缘和深度图的边缘往往不再相互对应,导致对深度图插值重建后物体的边缘被平滑,物体的形状发生失真,从而降低了上采样深度图的质量。因此,本发明提出了基于深度增强的重采样方法来提高深度图的质量。根据深度图的特点是物体内部的大部分区域的深度值是相似的,而仅在边缘有不同的深度值。本发明提出了基于频率选择的深度下采样方法,根据采样窗口内深度值出现的频率来对深度下采样,并根据这些深度值与采样窗口中心像素深度值的相似度来最终确定下采样的深度值。同时作深度上采样的时候,为了保护深度边缘,本发明提出了采用基于深度图可信边缘引导的深度增强方法。首先将深度图预插值,得到原始分辨率的深度图。然后将彩色图的边缘映射到其对应的上采样深度图中,得到深度图的可信边缘。接着结合彩色图和深度图空域和时域约束关系来构造实现深度增强的能量函数。该能量函数包含空域能量函数和时域能量函数。其中空域能量函数包含的平滑函数项是由深度图的可信边缘引导下定义的由彩色和空间相似性度量组成的能量约束函数。而时域能量函数则是由相邻两帧的彩色图相似性和深度图相似性度量组成的能量约束函数。最后对总的空时能量函数作最小化求解,得到最终的上采样深度图。本发明提出的上采样方法同时考虑了彩色图和深度图的空域和时域特征,因此能够很好地恢复原始分辨率的深度图,并保护深度的边缘。因此,本发明提出的基于频率选择的深度下采样方法和基于深度图可信边缘引导的深度增强的上采样方法,在深度重采样的过程中能够很好地保留和恢复深度图的边缘信息,因此在3D视频解码端能够合成高质量的多视点视频。
发明内容
本发明的目的是针对现有的面向3D视频编码的深度重采样方法的不足,提出了一种基于深度增强的重采样方法。
本发明方法对彩色视频按原始分辨率进行编码,对深度视频进行降分辨率编码。为了保留原始深度图的深度特征,采用基于频率选择的滤波方法对深度视频下采样。深度下采样方法是先把采样窗口内的像素以平均值为阈值,分为两个像素集合,选取大于窗口内一半总像素数目的集合为采样集合,并选择该集合内出现次数最多的与中心像素最相似的深度值为下采样深度值。
为了在深度上采样过程中保护原始分辨率的深度图的边缘,得到连续的边缘,对于深度视频上采样,首先通过邻域预插值生成初始的原始分辨率的深度图。然后检测彩色图的边缘图,在它的引导下得到其对应深度图的可信边缘。接着构造实现深度增强的空时能量约束函数。对于该函数中的空域能量函数,根据深度图像素与可信边缘像素的相对位置,定义不同的由彩色相似性和空间相似性度量的平滑函数。对于时域能量函数,它由相邻两帧的彩色图相似性以及由深度可信边缘引导的深度图相似性来度量。最后,采用常规的置信传播算法对整个空时能量函数作最小化求解得到增强后的上采样深度图。该深度图与解码后的彩色图用典型的基于深度图渲染算法进行视点合成,得到所需的多视点视频。
本发明包括编码方法和解码方法。
编码方法的具体步骤是:
步骤(1)、将彩色视频以原始分辨率进行编码,按编码配置文件的参考顺序输入编码器;
步骤(2)、将深度视频采用基于频率选择的滤波方法进行下采样,然后送入3D视频编码器;
步骤(3)、将彩色视频编码的比特流和深度视频编码的比特流按参考编码顺序合并后输出;
解码方法的具体步骤是:
步骤(Ⅰ)、将视频编码的比特流进行解码,按参考编码顺序输出为彩色视频和深度视频;
步骤(Ⅱ)、将解码的深度视频,采用基于深度图可信边缘引导的深度增强方法进行上采样,得到与原始视频相同尺寸的解码视频;
步骤(Ⅲ)、采用典型的基于深度图渲染算法将解码后的彩色视频和上采样深度视频进行视点合成,得到所需的多视点视频。
本发明有益效果如下:
(1)本发明可使用多级采样的方式实现不同缩放系数的深度重采样,即每一级采样可以实现缩放系数为2的深度重采样,因此多级采样就可以适用于不同缩放系数的深度重采样;(2)本发明提出的面向3D视频编码的深度下采样方法是选择采样窗口内与中心像素深度值最相似的出现频率最高的深度值作为下采样深度值,因此能够很好的保留原始深度图中的深度值;(3)本发明提出的面向3D视频编码的深度上采样方法,采用基于深度图可信边缘引导的深度增强方法。首先将深度图预插值,得到原始分辨率的深度图。然后将彩色图的边缘映射到其对应的预插值深度图中,得到深度图的可信边缘。接着结合彩色图和深度图空域和时域约束关系来构造实现深度增强的能量函数,根据预插值深度图的像素与深度图可信边缘的相对位置,定义了该能量函数的空域能量函数和时域能量函数。最后,采用置信传播算法对该空时能量函数作最小化求解,得到上采样的深度图。由于充分考虑了空域和时域中彩色图和深度图的相互对应和约束关系,本发明提出的上采样方法能够很好地恢复和保护深度图的边缘特征,从而提高合成视点的质量。
附图说明
图1为本发明中面向3D视频编码的深度重采样方法流程图;
图2为本发明中深度图预插值上采样方法的流程图;
图3为本发明中深度图可信边缘生成方法的示意图;
图4为本发明中基于深度图可信边缘引导的像素分类示意图;
图5为本发明中时域能量函数系数生成的示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的说明。
面向3D视频编码的基于深度增强的重采样方法,采用3D视频编码HTM模型,测试条件参考JCT-3V的通用测试条件(JCT3V-E1100),使用HTM模型自带的2个视点的多视点编码(MV-HEVC)的配置文件baseCfg_2view.cfg,下采样和上采样的缩放系数s=2。
具体实施步骤参照附图(1)~(4)。
3D视频的具体编码方法如图1所示:
步骤(1)、将彩色视频以原始分辨率进行编码,按编码配置文件的参考顺序输入3D-HEVC编码器。
步骤(2)、将深度视频采用基于频率选择的滤波方法进行下采样,然后送入3D-HEVC编码器。其步骤为:
a.求采样窗口w×w内像素深度的平均值:
D m = 1 w × w Σ D n ( i , j ) ∈ w × w D n ( i , j ) - - - ( 1 )
其中,w=3,Dn(i,j)是采样窗口内的像素。
b.利用平均值Dm将Dn(i,j)划分为两个像素集合Gh,Gl:
D n ( i , j ) ∈ { G h i f D n ( i , j ) > D n G l o t h e r w i s e - - - ( 2 )
c.下采样点像素的深度值Dd(i,j)取值为:
D d ( i , j ) = R G h i f L ( G h ) > L 2 R G l o t h e r w i s e - - - ( 3 )
其中,分别表示像素集合Gh,Gl内的下采样深度值,L=w×w表示窗口内所有像素的数目,L(Gh)表示集合Gh中的像素数目。由于从Gh中求解与从Gl中求解的步骤是一样的,这里我们统一称为从G中求解RG,其步骤如下:
1)遍历集合G内的每个像素Gp,统计G内每个深度值k出现的次数Nk
2)把所有的Nk从大到小的顺序排列:
N1>N2>…Nk(4)
3)记N1和N2对应的深度值为D1和D2,求D1和D2与采样窗口内的中心像素深度值Dp的绝对差值:
U1=|D1-Dp|(5)
U2=|D2-Dp|(6)
4)最后,下采样深度值RG的值为:
R G = { D 1 i f U 1 < U 2 D 2 o t h e r w i s e - - - ( 7 )
步骤(3)、将彩色视频编码的比特流和深度视频编码的比特流按参考编码顺序合并后输出。
3D视频的具体解码方法如图1所示:
步骤(Ⅰ)、对视频编码的比特流进行解码,按参考编码顺序输出为彩色视频和深度视频;
步骤(Ⅱ)、将解码的深度视频采用基于深度图可信边缘引导的深度增强方法进行上采样,得到与原始视频相同尺寸的解码视频。其具体步骤为:
①将解码的深度视频预插值,得到原始分辨率的上采样深度图,如图2所示。根据缩放系数为2,图2中的黑色圆圈代表水平方向和垂直方向的待插值像素,它们的深度值由其相邻的两个低分辨率像素的深度值的平均值来确定。图2中三角形代表对角线方向的待插值像素,它们的深度值由其相邻的八邻域像素深度值的中值来确定。最后得到了原始分辨率的预插值上采样深度图Du
②确定深度图的可信边缘如图3所示,其生成的方法为:首先使用Canny算子检测深度图所对应的彩色图,设定其分割阈值区间为[40,130],得到彩色图的边缘Bc,将Bc中的边缘像素p∈Bc投影到深度图得到对应的边缘像素p∈Bd,考查p与其八邻域像素q的深度值关系,由下式确定深度图的可信边缘:
D p r = 1 i f | D p - m a x q &Element; N 8 ( p ) D q | + | D p - min q &Element; N 8 ( p ) D q | 2 > t r , p &Element; B d 0 o t h e r w i s e - - - ( 8 )
其中,tr为指定阈值,优选tr=4。
③构造基于深度图可信边缘引导的深度增强的能量函数:
D = arg min D { &alpha;E s p a t i a l ( D ) + ( 1 - &alpha; ) E t e m p o r a l ( D ) } - - - ( 9 )
其中,α为比例系数,优选α=0.2,Espatial(D)是空域能量函数,定义为:
E s p a t i a l ( D ) = &Sigma; p &Element; &Omega; ( D p - D p u ) 2 + E s m o o t h ( D p , D q ) - - - ( 10 )
其中,是像素点p通过步骤①得到的预插值深度图的像素深度值,Ω表示原始分辨率图像网格的像素集合,邻域平滑函数Esmooth(Dp,Dq)分为3种情况,如图4所示:
1)当p属于深度图的可信边缘时,采用其八邻域像素N8(p)的平滑函数:
E s m o o t h ( D p , D q ) = &Sigma; p &Element; D p r &Sigma; q &Element; N 8 ( p ) &lsqb; exp ( - &Sigma; k = 1 3 ( C p k - C q k ) 2 3 &times; 2 &sigma; s c 2 ) exp ( - ( p - q ) 2 2 &sigma; s p 2 ) &rsqb; ( D p - D q ) 2 - - - ( 11 )
其中,分别是像素p和q的彩色分量,Dp和Dq分别是像素p和q的深度值。
2)当p的任意八邻域像素N8(p)位于深度图的可信边缘时,采用其八邻域像素q中的最小平滑函数:
E s m o o t h ( D p , D q ) = &Sigma; N 8 ( p ) &Element; D p r &lsqb; exp ( - &Sigma; k = 1 3 ( C p k - C q k ) 2 3 &times; 2 &sigma; s c 2 ) exp ( - ( p - q ) 2 2 &sigma; s p 2 ) &rsqb; ( D p , D q ) 2 w h e r e q = arg min j { exp ( - &Sigma; k = 1 3 ( C p k - C j k ) 2 3 &times; 2 &sigma; s c 2 ) exp ( - ( p - j ) 2 2 &sigma; s p 2 ) } , j &Element; N 8 ( p ) - - - ( 12 )
3)当p属于其余像素集合Θ时,采用其四邻域像素N4(p)的平滑函数:
E s m o o t h ( D p , D q ) = &Sigma; p &Element; &Theta; &Sigma; q &Element; N 4 ( p ) &lsqb; exp ( - &Sigma; k = 1 3 ( C p k - C q k ) 2 3 &times; 2 &sigma; s c 2 ) exp ( - ( p - q ) 2 2 &sigma; s p 2 ) &rsqb; ( D p - D q ) 2 - - - ( 13 )
设置式(12)~(14)中的σsc和σsp为平滑参数,优选值为:σsc=0.04和σsp=1。此外,时域能量函数Etemporal(D)定义为:
E t e m p o r a l ( D ) = &Sigma; p &Element; &Omega; &omega; t ( p t , p t - 1 ) ( D p t - D p t - 1 ) 2 - - - ( 14 )
其中,是帧ft中的像素pt的深度值,是帧ft-1中对应位置像素pt-1的深度值,时域权重系数定义如图5所示,其计算式为:
ωt(pt,pt-1)=ωtc(pt,pt-1td(pt,pt-1),(15)
其中,时域彩色相似系数计算为:
&omega; t c ( p t , p t - 1 ) = exp ( - &Sigma; k = 1 3 ( C p k ( t ) - C p k ( t - 1 ) ) 2 3 &times; 2 &sigma; t c 2 ) - - - ( 16 )
式中,是帧ft中的像素pt的彩色分量,是帧ft-1中对应位置像素pt-1的彩色分量,σtc为平滑参数,优选为σtc=0.04。
时域深度相似系数计算为:
&omega; t d ( p t , p t - 1 ) = D p r ( t ) &CirclePlus; D p r ( t - 1 ) &OverBar; - - - ( 17 )
式中,帧ft的深度可信边缘和帧ft-1的深度可信边缘进行异或运算后,再作取反运算。
④采用典型的置信传播算法对步骤③得到的式(9)进行最小化求解,得到最终的上采样深度图D。
步骤(Ⅲ)、采用典型的基于深度图渲染算法将解码后的彩色视频和上采样的深度视频进行视点合成,得到所需的多视点视频。

Claims (4)

1.面向3D视频编码的基于深度增强的重采样方法,其特征在于:该方法对彩色视频按原始分辨率进行编码,对深度视频进行降分辨率编码;编码端采用基于频率选择的滤波方法对深度视频下采样;解码端采用基于深度图可信边缘引导的深度增强方法对深度视频上采样;最后对解码得到的彩色视频和上采样深度视频进行视点合成,得到所需的多视点视频;
编码方法的具体步骤是:
步骤(1)、将彩色视频以原始分辨率进行编码,按编码配置文件的参考顺序输入编码器;
步骤(2)、将深度视频采用基于频率选择的滤波方法进行下采样,然后送入3D视频编码器;
步骤(3)、将彩色视频编码的比特流和深度视频编码的比特流按参考编码顺序合并后输出;
解码方法的具体步骤是:
步骤(4)、将视频编码的比特流进行解码,按参考编码顺序输出为彩色视频和深度视频;
步骤(5)、将解码的深度视频采用基于深度图可信边缘引导的深度增强方法进行上采样,得到与原始视频相同尺寸的解码视频;
步骤(6)、将解码后的彩色视频和上采样的深度视频进行视点合成,得到所需的多视点视频。
2.如权利要求1所述的面向3D视频编码的基于深度增强的重采样方法,其特征在于步骤(6)所述的视点合成采用典型的基于深度图渲染方法。
3.如权利要求1所述的面向3D视频编码的基于深度增强的重采样方法,其特征在于步骤(2)所述的将深度视频采用基于频率选择的滤波方法进行下采样,具体步骤如下:
a.求采样窗口w×w内像素深度的平均值:
D m = 1 w &times; w &Sigma; D n ( i , j ) &Element; w &times; w D n ( i , j ) - - - ( 1 )
其中,w为窗口边长,Dn(i,j)是采样窗口内的像素;
b.利用平均值Dm将Dn(i,j)划分为两个像素集合Gh,Gl:
D n ( i , j ) &Element; G h i f D n ( i , j ) > D m G l o t h e r w i s e - - - ( 2 )
c.下采样点像素的深度值Dd(i,j)取值为:
D d ( i , j ) = R G h i f L ( G h ) > L 2 R G l o t h e r w i s e - - - ( 3 )
其中,分别表示像素集合Gh,Gl内的下采样深度值,L=w×w表示窗口内所有像素的数目,L(Gh)表示集合Gh中的像素数目;由于从Gh中求解与从Gl中求解的步骤是一样的,故统一称为从G中求解RG,其步骤如下:
1)遍历集合G内的每个像素Gp,统计G内每个深度值k出现的次数Nk
2)把所有的Nk从大到小的顺序排列:
N1>N2>…Nk(4)
3)记N1和N2对应的深度值为D1和D2,求D1和D2与采样窗口内的中心像素深度值Dp的绝对差值:
U1=|D1-Dp|(5)
U2=|D2-Dp|(6)
4)最后,下采样深度值RG的值为:
R G = D 1 i f U 1 < U 2 D 2 o t h e r w i s e - - - ( 7 ) .
4.如权利要求1所述的面向3D视频编码的基于深度增强的重采样方法,其特征在于步骤(5)中所述的采用基于深度图可信边缘引导的深度增强方法进行上采样,具体步骤如下:
①将解码的深度视频预插值,得到原始分辨率的上采样深度图;首先,水平方向和垂直方向的待插值像素的深度值由其相邻的两个低分辨率像素的深度值的平均值来确定;其次对角线方向的待插值像素的深度值由其相邻的八邻域像素深度值的中值来确定;最后得到原始分辨率的预插值上采样深度图Du
②确定深度图的可信边缘其生成的方法为:首先使用Canny算子检测深度图所对应的彩色图,得到彩色图的边缘Bc,将Bc中的边缘像素p∈Bc投影到深度图得到对应的边缘像素p∈Bd,考查p与其八邻域像素q的深度值关系,由下式确定深度图的可信边缘:
D p r = 1 i f | D p - m a x q &Element; N 8 ( p ) D q | + | D p - min q &Element; N 8 ( p ) D q | 2 > t r , p &Element; B d 0 o t h e r w i s e - - - ( 8 )
其中,tr是指定阈值;
③构造基于深度图可信边缘引导的深度增强的能量函数:
D = argmin D { &alpha;E s p a t i a l ( D ) + ( 1 - &alpha; ) E t e m p o r a l ( D ) } - - - ( 9 )
其中,α是比例系数,Espatial(D)是空域能量函数,定义为:
E s p a t i a l ( D ) = &Sigma; p &Element; &Omega; ( D p - D p u ) 2 + E s m o o t h ( D p , D q ) - - - ( 10 )
其中,是像素点p通过步骤①得到的预插值深度图的像素深度值,Ω表示原始分辨率图像网格的像素集合,邻域平滑函数Esmooth(Dp,Dq)分为3种情况定义:
1)当p属于深度图的可信边缘时,采用其八邻域像素N8(p)的平滑函数:
E s m o o t h ( D p , D q ) = &Sigma; p &Element; &Omega; p r &Sigma; p &Element; N 8 ( p ) &lsqb; exp ( - &Sigma; k = 1 3 ( C p k - C q k ) 2 3 &times; &sigma; s c 2 ) exp ( - ( p - q ) 2 2 &sigma; s p 2 ) &rsqb; ( D p - D q ) 2 - - - ( 11 )
其中,分别是像素p和q的彩色分量,Dp和Dq分别是像素p和q的深度值;
2)当p的任意八邻域像素N8(p)位于深度图的可信边缘时,采用其八邻域像素q中的最小平滑函数:
E s m o o t h ( D p , D q ) = &Sigma; N 8 ( p ) &Element; D p r &lsqb; exp ( - &Sigma; k = 1 3 ( C p k - C q k ) 2 3 &times; 2 &sigma; s c 2 ) exp ( - ( p - q ) 2 2 &sigma; s p 2 ) &rsqb; ( D p - D q ) 2
(12)
w h e r e q = arg min j { exp ( - &Sigma; k = 1 3 ( C p k - C j k ) 2 3 &times; 2 &sigma; s c 2 ) exp ( - ( p - j ) 2 2 &sigma; s p 2 ) } , j &Element; N 8 ( p )
3)当p属于其余像素集合Θ时,采用其四邻域像素N4(p)的平滑函数:
E s m o o t h ( D p , D q ) = &Sigma; p &Element; &Theta; &Sigma; q &Element; N 4 ( p ) &lsqb; exp ( - &Sigma; k = 1 3 ( C p k - C q k ) 2 3 &times; 2 &sigma; s c 2 ) exp ( - ( p - q ) 2 2 &sigma; s p 2 ) &rsqb; ( D p - D q ) 2 - - - ( 13 )
其中,σsc和σsp是平滑参数;时域能量函数Etemporal(D)定义为:
E t e m p o r a l ( D ) = &Sigma; p &Element; &Omega; &omega; t ( p t , p t - 1 ) ( D p t - D p t - 1 ) 2 - - - ( 14 )
其中,是帧ft中的像素pt的深度值,是帧ft-1中对应位置像素pt-1的深度值,时域权重系数定义为:
ωt(pt,pt-1)=ωtc(pt,pt-1td(pt,pt-1),(15)
其中,时域彩色相似系数计算为:
&omega; t c ( p t , p t - 1 ) = exp ( - &Sigma; k = 1 3 ( C p k ( t ) - C p k ( t - 1 ) ) 2 3 &times; 2 &sigma; t c 2 ) - - - ( 16 )
式中,是帧ft中的像素pt的彩色分量,是帧ft-1中对应位置像素pt-1的彩色分量,σtc是平滑参数;
时域深度相似系数计算为:
&omega; t d ( p t , p t - 1 ) = D p r ( t ) &CirclePlus; D p r ( t - 1 ) &OverBar; - - - ( 17 )
式中,帧ft的深度可信边缘和帧ft-1的深度可信边缘进行异或运算后,再作取反运算;
④采用典型的置信传播算法对步骤③得到的式(9)进行最小化求解,得到最终的上采样深度图D。
CN201511020433.4A 2015-12-30 2015-12-30 面向3d视频编码的基于深度增强的重采样方法 Active CN105635742B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201511020433.4A CN105635742B (zh) 2015-12-30 2015-12-30 面向3d视频编码的基于深度增强的重采样方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511020433.4A CN105635742B (zh) 2015-12-30 2015-12-30 面向3d视频编码的基于深度增强的重采样方法

Publications (2)

Publication Number Publication Date
CN105635742A true CN105635742A (zh) 2016-06-01
CN105635742B CN105635742B (zh) 2018-09-07

Family

ID=56050172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511020433.4A Active CN105635742B (zh) 2015-12-30 2015-12-30 面向3d视频编码的基于深度增强的重采样方法

Country Status (1)

Country Link
CN (1) CN105635742B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116468992A (zh) * 2023-06-20 2023-07-21 北京天图万境科技有限公司 一种重复校正性监督空间识别与还原方法与装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581687A (zh) * 2013-09-11 2014-02-12 北京交通大学长三角研究院 一种基于压缩感知的自适应深度图像编码方法
WO2014178989A1 (en) * 2013-04-29 2014-11-06 Dolby Laboratories Licensing Corporation Dithering for chromatically subsampled image formats
CN104780383A (zh) * 2015-02-02 2015-07-15 杭州电子科技大学 一种3d-hevc多分辨率视频编码方法
CN105163129A (zh) * 2015-09-22 2015-12-16 杭州电子科技大学 梯度图引导的基于深度重采样3d-hevc编解码方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014178989A1 (en) * 2013-04-29 2014-11-06 Dolby Laboratories Licensing Corporation Dithering for chromatically subsampled image formats
CN103581687A (zh) * 2013-09-11 2014-02-12 北京交通大学长三角研究院 一种基于压缩感知的自适应深度图像编码方法
CN104780383A (zh) * 2015-02-02 2015-07-15 杭州电子科技大学 一种3d-hevc多分辨率视频编码方法
CN105163129A (zh) * 2015-09-22 2015-12-16 杭州电子科技大学 梯度图引导的基于深度重采样3d-hevc编解码方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YU LU ET AL: "Low bit-rate coding with asymmetric resolution for stereoscopic video", 《PROCEEDINGS OF ICCT 2015》 *
余思文等: "面向自由视点视频系统的深度视频传输方法", 《计算机辅助设计与图形学学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116468992A (zh) * 2023-06-20 2023-07-21 北京天图万境科技有限公司 一种重复校正性监督空间识别与还原方法与装置
CN116468992B (zh) * 2023-06-20 2023-08-22 北京天图万境科技有限公司 一种重复校正性监督空间识别与还原方法与装置

Also Published As

Publication number Publication date
CN105635742B (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
CN100576934C (zh) 基于深度和遮挡信息的虚拟视点合成方法
CN101937578B (zh) 一种虚拟视点彩色图像绘制方法
CN101729892B (zh) 一种非对称立体视频编码方法
CN102769746B (zh) 一种多视点深度视频处理方法
CN103581687B (zh) 一种基于压缩感知的自适应深度图像编码方法
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN106303521B (zh) 一种基于感知敏感度的hevc率失真优化方法
CN103763564B (zh) 基于边缘无损压缩的深度图编码方法
CN110557646B (zh) 一种智能视点间的编码方法
CN108028945A (zh) 通过使用单例系数更新执行变换的设备和方法
CN105046725B (zh) 低比特率视频通话中基于模型和对象的头肩图像重建方法
CN102769749B (zh) 一种深度图像的后处理方法
CN104780383B (zh) 一种3d‑hevc多分辨率视频编码方法
CN110415169B (zh) 一种深度图超分辨率重建方法、系统及电子设备
CN104506872A (zh) 一种平面视频转立体视频的方法及装置
CN110495178A (zh) 3d视频编码的装置和方法
CN104299193A (zh) 一种基于高频和中频信息的图像超分辨率重建方法
CN105635742A (zh) 面向3d视频编码的基于深度增强的重采样方法
CN105430406A (zh) 一种分布式视频编码框架
CN102685531B (zh) 一种三维视频编码的深度和彩色码率分配方法
CN104394399B (zh) 深度视频编码的三边滤波方法
CN111669601A (zh) 一种3d视频智能多域联合预测编码方法及装置
CN105163129B (zh) 梯度图引导的基于深度重采样3d‑hevc编解码方法
CN105472393A (zh) 一种基于联合字典的彩色与深度图像后处理方法
CN107948644A (zh) 一种水下图像压缩方法及传输方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20201231

Address after: Unit pt-06, 3rd floor, No.3, Chengyi North Street, phase III, software park, Xiamen City, Fujian Province, 361000

Patentee after: XIAMEN TONGJING INTELLIGENT TECHNOLOGY Co.,Ltd.

Address before: Room 1103, building A01, 358 Chengyi street, phase III, software park, Xiamen City, Fujian Province, 361000

Patentee before: Xiamen quinfinity Information Technology Co.,Ltd.

Effective date of registration: 20201231

Address after: Room 1103, building A01, 358 Chengyi street, phase III, software park, Xiamen City, Fujian Province, 361000

Patentee after: Xiamen quinfinity Information Technology Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University

TR01 Transfer of patent right