CN105359520B - 在三维视频编码中的深度编码方法和装置 - Google Patents
在三维视频编码中的深度编码方法和装置 Download PDFInfo
- Publication number
- CN105359520B CN105359520B CN201480037699.7A CN201480037699A CN105359520B CN 105359520 B CN105359520 B CN 105359520B CN 201480037699 A CN201480037699 A CN 201480037699A CN 105359520 B CN105359520 B CN 105359520B
- Authority
- CN
- China
- Prior art keywords
- depth
- sampling
- disparity vector
- integer
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明提供一种利用视差推导的深度预测的三维视频编码或解码的方法和装置。本发明的实施方式确定在依赖视点中与同位纹理区块相关的视差向量,并自视差向量产生已转换的深度采样。已产生的已转换的深度采样用作预测子或合并候选,以用于当前深度区块。合并候选对应于已转换的深度采样,以及合并候选被放置于该合并候选列表中时间运动向量预测合并候选之前的位置。根据视差向量的函数,已转换的深度采样自该视差向量而产生。与函数相关的信息被明确地发送至解码器,或从解码器而隐式地得到。本发明的一方面描述了简化的视差至深度的转换,特别是描述了不受除法约束的视差至深度的转换。
Description
交叉引用
本发明主张在2013年7月15日提出的申请号为PCT/CN2013/079372、标题为“ADisparity Derived Depth Coding Method”的PCT专利申请的优先权,以及主张在2013年12月6日提出的申请号为PCT/CN2013/089482、标题为“An Approximation Method forDivision Operation”的PCT专利申请的优先权。因此在全文中合并参考该PCT专利申请案。
技术领域
本发明是有关于三维视频编码,特别是有关于在三维编码系统中的利用视差推导的深度预测的深度编码。
背景技术
三维(Three-dimensional,3D)电视为近年来的技术发展趋势,并且三维电视给观众带来震撼的视觉体验。已开发各种技术来应用三维显示方式。对于三维编码来说,深度图也可以与纹理数据一起编码。
在正在开发的基于高效率视频编码标准的三维视频编码(3D-HEVC)中,深度采样用于得到视差向量,以用于纹理组分编码,如3D-HEVC测试模型4(Joint CollaborativeTeam on 3D Video Coding Extension Development of ITU-T SG 16WP 3and ISO/IECJTC 1/SC 29/WG 114th Meeting:Incheon,KR,20–26Apr.2013,Document:JCT3V-D1005)中所说明。视差向量(DVx,0)可通过如下所示的线性关系而自其对应的深度值dep而得到:
DVx=w·dep+b, (1)
其中,在本申请中,w和b为两个摄像机参数,w被称为深度转换缩放因子(depth-conversion scale factor),以及b被称为深度转换偏移(depth-conversion offset)。在3D_HEVC中,公式(1)以整数的形式来实现,以及参数w和b可从编码器传送至解码器。对于被水平配置的多个摄像机来说,假设视差向量的垂直视差值为0。相似的公式可被开发以用于其他摄像机配置。
在当前3D-HEVC中,附加的合并候选,例如后向视点合成预测(backward viewsynthesis prediction,BVSP)候选、视点间(inter-view)合并候选、视差向量候选、以及纹理候选,被包括于合并候选列表(merging candidate list)中,以用于依赖视点(dependent-view)纹理编码或深度编码。后向视点合成预测利用深度组分的深度采样来得到视差向量以用于纹理组分编码。此外,两个视点间合并候选被采用于合并候选列表中,并位于合并候选列表中的第一位置和在纹理编码中的时间运动向量预测(temporal motionvector prediction,TMVP)候选之前的位置。分别如图1所示,该两个候选继承自参考视点间图像中的同位预测单元(collocated PU)(130)的中间位置(110)和右下位置(120)的运动参数。相似地,纹理合并候选被采用于合并候选列表中,并位于深度编码的位置0(即,最高优先权位置),其继承自参考纹理图片中的同位预测单元的中间位置的运动参数。
在现有的方式中,深度信息用于得到视差,以用于纹理编码。然而,视差信息并没有用于深度编码。
发明内容
本发明提供一种利用视差推导的深度预测的三维视频编码或解码的方法和装置。本发明的实施方式确定在依赖视点中与同位纹理区块相关的视差向量,并自视差向量产生已转换的深度采样。已产生的已转换的深度采样用作预测子或合并候选,以用于当前深度区块。合并候选对应于已转换的深度采样,以及合并候选被放置于合并候选列表中紧接着纹理合并候选的位置中。合并候选列表包括附加的纹理合并候选,其中附加的纹理合并候选继承同位纹理区块的右下位置处的纹理数据的运动参数。附加的纹理合并候选被放置于合并候选列表中在时间运动向量预测合并候选之前的位置中。
根据视差向量的函数,已转换的深度采样自该视差向量而产生。与函数相关的信息被明确地发送至解码器,或从解码器而隐式地得到。本发明的一方面描述了简化的视差至深度的转换,特别是描述了不受除法约束的视差至深度的转换。在一个实施方式中,自视差向量而产生已转换的深度采样的步骤包括:将视差向量的视差值与第一整数相乘,并加上第二整数,以得到第一结果,以及将第一结果右移位第三整数,以产生已转换的深度采样。第一整数、第二整数、以及第三整数被明确地发送至解码器,或通过解码器而隐式地得到。
在另一实施方式中,已转换的深度采样对应于乘以第一符号部分的、已修改的已转换的深度采样,已修改的、已转换的深度采样自视差向量产生;其中,通过将视差向量的视差值乘以第四整数、并加上第五整数以获得第二结果、以及将第二结果右移位第六整数,来产生已修改的已转换的深度采样。第四整数、第五整数、以及第六整数对应于将第一整数、第二整数、以及第三整数乘以第一符号部分。第一符号部分对应于用于深度至视差转换的深度转换缩放因子的符号部分。第四整数基于用于深度至视差转换的深度转换缩放因子而确定,以及第四整数被选择为2的第七整数次幂。第七整数对应于第八整数和第九整数之和,其中第八整数对应于深度转换缩放因子的数据精度和用于深度至视差转换的深度转换的数据精度,以及第九整数对应于当前深度区块的深度采样的比特深度。第六整数对应于第七整数、第十整数、以及1的和,其中,第十整数对应于不大于以2为底的深度转换缩放因子的对数的最大整数值。第五整数基于用于深度至视差转换的深度转换缩放因子和深度转换偏移来确定
与视差向量相关的信息被明确地发送至解码器,或通过解码器而隐式地得到。视差向量与同位纹理区块相关,以及视差向量自同位纹理区块的已选择的位置的视差向量来确定,选择的位置对应于同位纹理区块的中心、左上、右下、右上、或左下位置。基于同位纹理区块的相邻区块视差向量或深度导向相邻区块视差向量,同位纹理区块的视差向量为已得到的视差向量。当前深度区块进一步被划分为深度子区块;对应每一个深度子区块,已转换的深度采样自同位纹理区块的对应的子区块的视差向量而产生,以及已转换的深度采样被用作深度子区块的预测子。
附图说明
图1为确定关于对应的深度区块的纹理区块或同位(collocated)纹理区块的视差向量的位置的示意图。
图2为根据本发明实施方式的用于深度编码的、视差推导的深度的示范性过程。
图3为根据本发明实施方式的包括视差推导的深度预测的深度编码的示范性流程图。
具体实施方式
以下描述为执行本发明的较佳实施方式。这些描述用于解释本发明的基本原理,并不应限制本发明。本发明的范围应以权利要求的范围来确定。
尽管现有技术仅自深度信息来推导视差以用于3D编码,本发明基于视差推导深度信息,并利用用于深度编码已转换的深度。相应地,视差推导的深度编码方法被揭示用于改善深度组分的编码效率。可从公式(1)注意到,在深度值dep,和视差值DVx之间的转换是可逆的。因此,深度值也可自深度值对应的深度向量(DVx,DVy)来得到(即,根据视差向量的函数,已转换的深度采样自视差向量而产生),如下所示:
其中,在公式(2)中,用于垂直组分的视差值假设为0(即,DVy=0)。当视差向量的垂直深度值不为0时,自视差至深度的转换可以相似地推导。为求方便,本发明的示例总假设垂直视差值为0。然而,本发明并非以此为限。
当当前深度区块的同位纹理区块(collocated texture block)通过视差补偿预测(disparity-compensated prediction,DCP)来预测时,视差推导的深度候选可被插入至用于深度编码的合并候选列表中。举例来说,视差推导的深度候选可放置在纹理候选之后紧接着的位置。对于视差推导的深度候选,当前区块中的所有预测采样可被设置为根据公式(2)计算得到的dep。为有效执行公式(2),所有的操作以整数的形式来实现。图2描述了自深度值所对应的视差向量得到深度值的过程的示例。在图2中,在依赖视点(V1)中的当前纹理区块(210)和参考视点(V0)中的对应区块(220)之间的视差向量(DVx)可被确定。根据本发明的一实施方式,视差向量与同位纹理区块相关,以及视差向量自同位纹理区块的已选择的位置的视差向量来确定,选择的位置对应于同位纹理区块的中心、左上、右下、右上、或左下位置。基于同位纹理区块的相邻区块视差向量或深度导向相邻区块视差向量,同位纹理区块的视差向量为已得到的视差向量。与依赖视点中的当前纹理区块(210)同位的深度区块(230)可被编码。同位的深度区块(230)的预测子可根据公式(2)利用DVx来推导。根据本发明的另一实施方式,当前深度区块进一步被划分为深度子区块;对应每一个深度子区块,已转换的深度采样自同位纹理区块的对应的子区块的视差向量而产生,以及已转换的深度采样被用作深度子区块的预测子。需要注意的是,由于视差补偿预测仅应用于依赖视点,视差推导的深度候选是关于基本视点(base view)无效的。
视差推导的深度过程涉及如公式(2)所示的除法操作。由于除法操作在基于硬件和基于元件的实现中均具有较高的复杂性,需要开发如公式(3)所示的不需要除法操作的等效操作。
dep=(a*DVx+b)>>s (3)
其中,a为用于缩放视差值(即,DVx)的第一整数,b为用做偏移的第二整数,以及s对应于第三整数,该第三整数用于算术右移位对应于(a*DVx+b)的第一结果。其中,第一整数、第二整数、以及第三整数被明确地发送至解码器,或通过解码器而隐式地得到。
因此,在本发明的另一实施方式中,公式(2)的实现不需要执行除法操作。换句话说,不受除法约束的操作被开发以用于实现公式(2)。首先,公式(2)可被重写为:
如上所示,w为用于深度至视差转换的深度转换缩放因子(depth-conversionscale factor),以及b为深度转换偏移(depth-conversion offset)。如公式(4)所示,已转换的深度值由符号部分(即,sign(w))和剩余部分(即,在公式(4)右边的括号中的部分)来表示。公式(4)中的剩余部分可以表示为:
引入一个新的参数,Ω,其中Ω=[log2|w|]以及[x]代表x的天花板函数(floorfunction),天花板函数对应于不大于x的最大整数。如下面的C格式的伪代码所示,描述参数Ω的推导示例。
Ω=0;
while((((1<<Ω)<<1)<=|w|))
Ω++;
在以上伪代码中,(1<<Ω)意味着将“1”的值算术左移“Ω”位。换句话来说,该操作将得到值2Ω。因此,在参数w和Ω之间的关系如下所示:
2Ω≤|w|<2Ω+1. (6)
换句话来说,Ω为整数,这将满足公式(6)中的关系。因此,对于k满足
2M<k≤2M+1, (7)
可以得到,
2M+Ω<k|w|<2M+Ω+2. (8)
对于包括2M到2M+1的k来说,存在k*使得k|w|尽可能地接近但并不超过2M+Ω+1。k*标记为α,可根据如下所示的C格式的伪代码来得到:
Emin=|(2M|w|-2M+Ω+1)|
α=2M
for(k=2M;k<=2M+1;k++)
if(|k|w|-2M+Ω+1|<Emin){
Emin=|k|w|-2M+Ω+1|
α=k;
}
因此,可推导出公式(5)可以写为:
由于可通过如下所示的将整数算术右移来实现2的整数次幂的除法,公式(9)中的2的整数次幂(即,M+Ω+1)的除法可不需要任何除法操作来计算。
其中,β为偏移值。
在一个实施方式中,β被设置为等于1<<(M+Ω)。在另一实施方式中,β被设置为等于1<<(M+Ω))+γQ,其中
以及Q为正整数。在又一实施方式中,Q等于1<<(M+Ω-4)。
从公式(4)到公式(10),公式(2)可不需要除法运算,近似通过如下所示公式来计算
dep≈sign(w)[(α·DVx-αb+β)>>(M+Ω+1)], (12)
根据公式(12),深度值可自视差值而转换得到,具体为将公式(12)的符号部分(即,sign(w))乘以右侧括号内的剩余部分。剩余部分可通过将视差值(即,DVx)乘以整数(即,α)并加上第五整数(即,-αb+β),来得到第二结果。其中,第五整数基于用于深度至视差转换的深度转换缩放因子(w)和深度转换偏移(b)来确定。然后,将第二结果算术右移第六整数(即,(M+Ω+1))。在另一实施方式中,考虑w和b的精度。举例来说,公式(1)可重写为:
DVx=(w·dep+(b<<q)+offset)>>(p+q), (13)
其中,p为w和b的精度,q为dep采用的比特深度,通常为8。偏移Offset被设置为1<<(p+q-1)。
可自公式(12)和公式(13)来得到
其中,DVx’=2p+q DVx以及b’=2q b。
如以上相似的推导,公式(14)可不需要除法运算,而近似地如下所示来计算
dep≈sign(w)[(α·DVx'-αb'+β)>>(M+Ω+1)]
=sign(w)[((α<<(p+q))·DVx-(α<<q)b+β)>>(M+Ω+1)] (14)
尽管不受除法约束的视差至深度的转换的各种示例如下所示,这些示例并非对于本发明的详尽解释。本领域技术人员可以在不脱离本发明精神的前提下,利用其它相似的公式来实现本发明。举例来说,尽管算术右移位应用于已缩放的视差(即,α·DVx)和偏移(即,-αb+β)之和,算术右移位也可分别应用于已缩放的视差和偏移,然后将已右移位的结果相加。
在本发明的另一实施方式中,附加的纹理合并候选被插入至合并候选列表中以用于深度编码。附加的纹理合并候选相似于用于深度编码的视点间合并候选。如图1所示,附加的纹理合并候选继承自参考纹理图像中的同位预测单元的右下位置的运动参数。附加的纹理合并候选可被插入至合并候选列表中的指定位置。举例来说,附加的纹理合并候选在与首位合并候选(the first merging candidate)进行裁剪操作之后,可以插入至合并候选列表中时间运动向量预测(TMVP)候选之前首位合并候选的位置。
如表1所示,将根据本发明实施方式的包括视差推导的深度合并候选的3D视频编码系统的性能,与现有系统的性能进行比较。其中,现有系统对应于基于3D-HEVC测试模型8.0版本的系统,以及根据本发明实施方式的系统将视差推导的深度合并候选插入至合并候选列表的仅次于纹理候选的位置中。性能比较是基于第一列中列举的测试数据的不同集合而进行的。用于视点1(视频1)和视点2(视频2)中的纹理图像的BD率的差异如下所示。在BD率中的负值意味着本发明具有更佳的性能。具有视频比特率的、已编码视频的峰值信噪比(以下简称为PSNR)的BD率的测量,具有总比特率(纹理比特率和深度比特率)、已编码视频的PSNR的BD率的测量、以及具有总比特率的、合成的视频的PSNR的BD率的测量如下所示。如表1所示,对应合成视点具有0.2%的性能改善。对于其他来说,性能大致相同。也比较了处理时间(编码时间、解码时间、以及渲染时间)。如表1所示,处理时间大致相同(变化小于1%)。
表1
如表2所示,将根据本发明另一实施方式的、包含用于深度编码的附加的纹理候选的3D视频编码系统的性能与现有的系统的性能进行比较。其中,现有系统对应于基于3D-HEVC测试模型8.0版本的系统,以及根据本发明实施方式的系统将附加的纹理合并候选插入至合并候选列表中的时间运动向量预测之前裁剪(pruning)首位合并候选之后的位置。如表2所示,合成视点具有0.1%的性能改善。对于其他来说,性能大致相同。对于编码时间和解码时间来说,处理时间较短(编码时间99.5%和解码时间99.4%),以及渲染时间稍微长一点(101.2%)。
表2
如表3所示,将根据本发明另一实施方式的包含用于深度编码的视差推导的深度合并候选和附加的纹理候选的3D视频编码系统的性能与现有的系统的性能进行比较。其中,现有系统对应于基于3D-HEVC测试模型8.0版本的系统。如表3所示,合成视点具有0.2%的性能改善。然而,对于视频1来说,大约增加0.1%的BD率。对于其他来说,性能大致相同。处理时间轻微增加0.2%~1.6%。
表3
如表4所示,将根据本发明另一实施方式的、包含用于深度编码的视差推导的深度合并候选和附加的纹理候选的3D视频编码系统的性能与现有的系统的性能进行比较。除了候选裁剪(candidate pruning)用于表4中的系统之外,用于本发明实施方式的系统相似于表3中的实施方式的系统。如表4所示,合成视点具有0.3%的性能改善。用于编码的处理时间减少(0.3%),以及用于解码和渲染的时间分别轻微增加(分别增加1.4%和2.5%)。
表4
图3描述了根据发明实施方式的包括视差推导的深度预测的三维编码或解码系统的示范性流程图。在步骤310中,系统接收依赖视点中与当前深度区块相关的输入数据。对于编码来说,输出数据对应于要被编码的深度数据。对于解码来说,输入数据对应于要被解码的已编码的深度数据。输入数据可自存储器(例如,计算机存储器、缓冲器(RAM或DRAM)、或其他媒体)或自处理器来取得。在步骤320中,与依赖视点中同位纹理区块相关的视差向量被确定。在步骤330中,已转换的深度采样自视差向量而产生。根据本发明的一实施方式,已转换的深度采样被用作预测子或在合并候选列表中的合并候选,以用于当前深度区块。根据视差向量的函数,已转换的深度采样自视差向量而产生。与视差向量的函数相关的信息被明确地发送至解码器,或从解码器而隐式地得到。根据本发明的另一实施方式,与视差向量相关的信息被明确地发送至解码器,或通过解码器而隐式地得到。在步骤340中,当前深度区块利用已转换的深度采样,而被编码或解码。
根据本发明的另一实施方式,提出一种用于三维编码系统中深度编码的装置。该装置包括:用于接收在依赖视点中与当前深度区块相关的输入数据的装置;用于确定视差向量,视差向量与依赖视点中同位纹理区块相关的装置;用于自视差向量产生已转换的深度采样的装置;以及用于利用已转换的深度采样,编码或解码当前深度区块的装置。
以上所示的流程图仅用于解释根据本发明实施方式的利用视差推导的深度预测的3D或多视点编码的示例。在不脱离本发明精神的范围内,本领域技术人员可以修改、重排列、拆分、合并每一个步骤来实现本发明。
如上所述的流程图仅用于解释利用降低计算复杂性及或存储存取的视点合成预测的示例。本领域技术人员可以修改每一个步骤、对每一个步骤重新排序、分解一个步骤、或将步骤进行组合,以在不脱离本发明精神的前提下实现本发明。
在提供特定应用和其需求的情况下,以上描述使得本领域技术人员能够实现本发明。对本领域技术人员来说,各种修饰是清楚的,以及在此定义的基本原理可以应用与其他实施方式。因此,本发明并不限于描述的特定实施方式,而应与在此公开的原则和新颖性特征相一致的最广范围相符合。在上述详细描述中,为全面理解本发明,描述了各种特定细节。然而,本领域技术人员能够理解本发明可以实现。
以上描述的本发明的实施方式可在各种硬件、软件编码或两者组合中进行实施。例如,本发明的实施方式可为集成入视频压缩芯片的电路或集成入视频压缩软件以执行上述过程的程序代码。本发明的实施方式也可为在数据信号处理器(Digital SignalProcessor,DSP)中执行上述程序的程序代码。本发明也可涉及计算机处理器、数字信号处理器、微处理器或现场可编程门阵列(Field Programmable Gate Array,FPGA)执行的多种功能。可根据本发明配置上述处理器执行特定任务,其通过执行定义了本发明揭示的特定方法的机器可读软件代码或固件代码来完成。可将软件代码或固件代码发展为不同的程序语言与不同的格式或形式。也可为了不同的目标平台编译软件代码。然而,根据本发明执行任务的软件代码与其他类型配置代码的不同代码样式、类型与语言不脱离本发明的精神与范围。
在不脱离本发明精神或本质特征的情况下,可以其他特定形式实施本发明。描述示例被认为仅在所有方面进行说明并且不是限制性的。因此,本发明的范围由权利要求书指示,而非前面描述。所有在权利要求等同的方法与范围中的变化都属于本发明的涵盖范围。
Claims (20)
1.一种用于三维编码系统的深度编码方法,其特征在于,该方法包括:
接收在依赖视点中与当前深度区块相关的输入数据;
确定视差向量,该视差向量与该依赖视点中同位纹理区块相关;
自该视差向量产生已转换的深度采样;以及
利用该已转换的深度采样,编码或解码该当前深度区块;
其中该自该视差向量而产生该已转换的深度采样的步骤包括:
将该视差向量的视差值与第一整数相乘,并加上第二整数,以得到第一结果,以及将该第一结果右移位第三整数,以产生该已转换的深度采样。
2.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,该已转换的深度采样被用作预测子或在合并候选列表中的合并候选,以用于该当前深度区块。
3.根据权利要求2所述的用于三维编码系统的深度编码方法,其特征在于,该合并候选对应于该已转换的深度采样,以及该合并候选被放置于该合并候选列表中紧接着纹理合并候选的位置中。
4.根据权利要求2所述的用于三维编码系统的深度编码方法,其特征在于,该合并候选列表包括附加的纹理合并候选,其中该附加的纹理合并候选继承该同位纹理区块的右下位置处的纹理数据的运动参数。
5.根据权利要求4所述的用于三维编码系统的深度编码方法,其特征在于,该附加的纹理合并候选被放置于该合并候选列表中在时间运动向量预测合并候选之前的位置中。
6.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,根据该视差向量的函数,该已转换的深度采样自该视差向量而产生。
7.根据权利要求6所述的用于三维编码系统的深度编码方法,其特征在于,与该函数相关的信息被明确地发送至解码器,或从该解码器而隐式地得到。
8.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,该已转换的深度采样对应于乘以第一符号部分的、已修改的已转换的深度采样,已修改的已转换的深度采样自该视差向量产生;
其中,通过将该视差向量的该视差值乘以第四整数、并加上第五整数以获得第二结果、以及将该第二结果右移位第六整数,来产生该已修改的已转换的深度采样。
9.根据权利要求8所述的用于三维编码系统的深度编码方法,其特征在于,该第一符号部分对应于用于深度至视差转换的深度转换缩放因子的符号部分。
10.根据权利要求8所述的用于三维编码系统的深度编码方法,其特征在于,该第四整数基于用于深度至视差转换的深度转换缩放因子而确定,以及该第四整数被选择为2的第七整数次幂。
11.根据权利要求10所述的用于三维编码系统的深度编码方法,其特征在于,该第七整数对应于第八整数和第九整数之和,其中该第八整数对应于该深度转换缩放因子的数据精度和用于深度至视差转换的深度转换偏移的数据精度,以及该第九整数对应于该当前深度区块的深度采样的比特深度。
12.根据权利要求10所述的用于三维编码系统的深度编码方法,其特征在于,该第六整数对应于该第七整数、第十整数、以及1的和,其中,该第十整数对应于不大于以2为底的该深度转换缩放因子的对数的最大整数值。
13.根据权利要求8所述的用于三维编码系统的深度编码方法,其特征在于,该第五整数基于用于深度至视差转换的深度转换缩放因子和深度转换偏移来确定。
14.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,该第一整数、该第二整数、以及该第三整数被明确地发送至解码器,或通过该解码器而隐式地得到。
15.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,该已转换的深度采样自该视差向量而产生,而不需要除法操作。
16.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,与该视差向量相关的信息被明确地发送至解码器,或通过该解码器而隐式地得到。
17.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,该视差向量与该同位纹理区块相关,以及该视差向量自该同位纹理区块的已选择的位置的该视差向量来确定,该选择的位置对应于该同位纹理区块的中心、左上、右下、右上、或左下位置。
18.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,该同位纹理区块的该视差向量为已导出的视差向量,导出方法基于相邻块视差向量,或者面向深度的相邻块视差向量。
19.根据权利要求1所述的用于三维编码系统的深度编码方法,其特征在于,该当前深度区块进一步被划分为深度子区块;对应每一个深度子区块,该已转换的深度采样自该同位纹理区块的对应的子区块的该视差向量而产生,以及该已转换的深度采样被用作该深度子区块的预测子。
20.一种用于三维编码系统中深度编码的装置,其特征在于,该装置包括:
用于接收在依赖视点中与当前深度区块相关的输入数据的装置;
用于确定视差向量,该视差向量与该依赖视点中同位纹理区块相关的装置;
用于自该视差向量产生已转换的深度采样的装置;以及
用于利用该已转换的深度采样,编码或解码该当前深度区块的装置;
其中用于自该视差向量产生已转换的深度采样的装置将该视差向量的视差值与第一整数相乘,并加上第二整数,以得到第一结果,以及将该第一结果右移位第三整数,以产生该已转换的深度采样。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201480037699.7A CN105359520B (zh) | 2013-07-15 | 2014-07-02 | 在三维视频编码中的深度编码方法和装置 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2013/079372 WO2015006900A1 (en) | 2013-07-15 | 2013-07-15 | A disparity derived depth coding method |
CNPCT/CN2013/079372 | 2013-07-15 | ||
CNPCT/CN2013/089482 | 2013-12-16 | ||
PCT/CN2013/089482 WO2015089693A1 (en) | 2013-12-16 | 2013-12-16 | Approximation method for division operation |
CN201480037699.7A CN105359520B (zh) | 2013-07-15 | 2014-07-02 | 在三维视频编码中的深度编码方法和装置 |
PCT/CN2014/081460 WO2015007159A1 (en) | 2013-07-15 | 2014-07-02 | Method of disparity derived depth coding in 3d video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105359520A CN105359520A (zh) | 2016-02-24 |
CN105359520B true CN105359520B (zh) | 2017-12-12 |
Family
ID=55333781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480037699.7A Expired - Fee Related CN105359520B (zh) | 2013-07-15 | 2014-07-02 | 在三维视频编码中的深度编码方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105359520B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101512601A (zh) * | 2006-09-04 | 2009-08-19 | 皇家飞利浦电子股份有限公司 | 从图像中确定深度图的方法以及确定深度图的设备 |
CN102055982A (zh) * | 2011-01-13 | 2011-05-11 | 浙江大学 | 三维视频编解码方法及装置 |
CN102215414A (zh) * | 2010-04-07 | 2011-10-12 | 索尼公司 | 图像处理装置和图像处理方法 |
JP2013106337A (ja) * | 2011-11-17 | 2013-05-30 | Sharp Corp | 画像符号化方法、画像復号方法、並びにそれらの装置及びプログラム |
-
2014
- 2014-07-02 CN CN201480037699.7A patent/CN105359520B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101512601A (zh) * | 2006-09-04 | 2009-08-19 | 皇家飞利浦电子股份有限公司 | 从图像中确定深度图的方法以及确定深度图的设备 |
CN102215414A (zh) * | 2010-04-07 | 2011-10-12 | 索尼公司 | 图像处理装置和图像处理方法 |
CN102055982A (zh) * | 2011-01-13 | 2011-05-11 | 浙江大学 | 三维视频编解码方法及装置 |
JP2013106337A (ja) * | 2011-11-17 | 2013-05-30 | Sharp Corp | 画像符号化方法、画像復号方法、並びにそれらの装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN105359520A (zh) | 2016-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2909550C (en) | Method of disparity derived depth coding in 3d video coding | |
US20190191180A1 (en) | Method for sub-pu motion information inheritance in 3d video coding | |
RU2611240C2 (ru) | Устройство, способ и компьютерная программа для трехмерного видеокодирования | |
KR101545008B1 (ko) | 3d 비디오 신호를 인코딩하기 위한 방법 및 시스템, 동봉된 3d 비디오 신호, 3d 비디오 신호용 디코더에 대한 방법 및 시스템 | |
US8284237B2 (en) | Rendering multiview content in a 3D video system | |
US20170332100A9 (en) | Method of View Synthesis Prediction in 3D Video Coding | |
KR20080108884A (ko) | 블록 기반의 양안식 영상 포맷 생성 방법과 장치 및 양안식영상 복원 방법과 장치 | |
KR20090007384A (ko) | 다중 뷰들의 효율적인 인코딩 방법 | |
KR102227279B1 (ko) | 비디오 부호화/복호화 방법 및 장치 | |
Morvan et al. | System architecture for free-viewpoint video and 3D-TV | |
US11889115B2 (en) | Method and device for multi-view video decoding and method and device for image processing | |
US20180139470A1 (en) | Method and Apparatus of Disparity Vector Derivation for Three- Dimensional Video Coding | |
Mieloch et al. | Overview and efficiency of decoder-side depth estimation in MPEG immersive video | |
US20140348242A1 (en) | Image coding apparatus, image decoding apparatus, and method and program therefor | |
KR101784579B1 (ko) | 호환 가능 깊이 독립 코딩 방법 및 장치 | |
US20150358643A1 (en) | Method of Depth Coding Compatible with Arbitrary Bit-Depth | |
Jin et al. | Pixel-level view synthesis distortion estimation for 3D video coding | |
CN105359520B (zh) | 在三维视频编码中的深度编码方法和装置 | |
Yuan et al. | Interview rate distortion analysis-based coarse to fine bit allocation algorithm for 3-D video coding | |
US9883205B2 (en) | Method of inter-view residual prediction with reduced complexity in three-dimensional video coding | |
Yang et al. | Remote dynamic three-dimensional scene reconstruction | |
JP2013106337A (ja) | 画像符号化方法、画像復号方法、並びにそれらの装置及びプログラム | |
CN105103543B (zh) | 兼容的深度依赖编码方法 | |
CN105230014B (zh) | 用于三维视频编码系统的深度图编码的方法及其装置 | |
CN105144714A (zh) | 三维视频编码的视差向量推导的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171212 Termination date: 20190702 |
|
CF01 | Termination of patent right due to non-payment of annual fee |