CN104581182A - 一种视点合成预测中的深度视差矢量的确定方法和装置 - Google Patents
一种视点合成预测中的深度视差矢量的确定方法和装置 Download PDFInfo
- Publication number
- CN104581182A CN104581182A CN201310493849.2A CN201310493849A CN104581182A CN 104581182 A CN104581182 A CN 104581182A CN 201310493849 A CN201310493849 A CN 201310493849A CN 104581182 A CN104581182 A CN 104581182A
- Authority
- CN
- China
- Prior art keywords
- difference
- image block
- vector
- difference vector
- texture image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种视点合成预测中的深度视差矢量的确定方法和装置,其中,该方法包括:将当前纹理图像块的相邻纹理图像块对应的指向参考视点深度图像的预测视差矢量加上视差矢量差值或视差矢量差值索引值所对应的视差矢量差值得到指向参考视点深度图像的深度视差矢量。本发明解决了现有技术中在生成视点合成预测图像的过程中所使用的深度图像块仅能用有限个来自于当前纹理图像块的相邻纹理图像块的预测视差矢量来定位的问题,利用视差矢量差值对预测视差矢量进行修正,从而获取一个能够获得更佳的视点合成质量的深度图像块,从而提高视点合成技术的预测准确度,提高编码效率。
Description
技术领域
本发明涉及通信领域,具体而言,涉及一种视点合成预测中的深度视差矢量确定方法方法和装置。
背景技术
1、预测视差矢量获得方法
所述的当前纹理图像块的相邻纹理图像块至少包括以下图像块之一:
位于当前纹理图像块左侧的图像块;
位于当前纹理图像块左下侧的图像块;
位于当前纹理图像块左上侧的图像块;
位于当前纹理图像块上侧的图像块;
位于当前纹理图像块右上侧的图像块;
其他图像中,位于当前纹理图像块的对应位置右下侧的图像块;
其他图像中,覆盖了当前纹理图像块的对应位置中心点的图像块。
预测视差矢量的获得方式有很多种,例如:
(1)按照规定的顺序逐一检查上述的图像块中是否有对应的视差矢量,从搜索得到的至少一个视差矢量中挑选出一个作为当前纹理图像块对应的相邻纹理图像块的预测视差矢量;
(2)依据当前纹理图像块的相邻图像块索引值所对应的相邻纹理图像块,如该相邻纹理图像块对应的矢量中包含视差矢量,则将该视差矢量作为当前纹理图像块对应的相邻纹理图像块的预测视差矢量。
预测视差矢量的获得方式并不仅限于上述的方法,上述描述不对本专利构成不当限定。
2、现有的视点合成预测中深度图像块位置确定方法
视点合成预测图像常应用在三维视频编解码过程中,用于图像的预测编码。
目前,生成视点合成预测图像时常用的方式为后向投影,即对于当前视点的一个当前纹理图像块,找到一个它对应的深度图像块,将图像块内每个像素点对应的深度值转化为视差矢量,然后根据转化得到的视差矢量以及像素点所处的位置,在参考视点中定位到该像素点的对应像素点。将当前纹理图像块内的每个像素点在参考视点中的对应像素点组合成一个预测图像块,用来对当前纹理图像块进行预测。
如图1中所示,左侧为获取深度图像块的过程,当前纹理图像块位于目标视点,它的一个来自相邻纹理图像块的预测视差矢量为pDV,pDV由当前纹理图像块指向了参考视点中深度图像内的一个深度图像块,将该图像块作为当前纹理图像块对应的深度图像块。
如图1中所示,右侧为生成视点合成预测图像的过程,根据从参考视点的深度图像中获得的深度图像块,将深度图像块内的像素点(或像素块)转化为其对应的当前纹理图像块中的像素点(或像素块)的指向参考视点纹理图像的视差矢量,并根据转化得到的视差矢量在参考视点的纹理图像中找到对应的像素点(或像素块),即如图1中右侧的指向参考视点纹理图像的蓝色箭头所示。将通过深度转化而来的视差矢量找到的对应像素点(或像素块)组合成一个视点合成预测图像块,用于当前纹理图像块的预测编解码。
3、矢量差值
如图2中所示,视点1的纹理图像1中的虚线框所示的当前纹理图像块T0的预测视差矢量为pDV:
(1)在进行传统的视点间预测时,pDV指向视点2中的纹理图像2中的(x1,y1)位置,因此pDV指向的纹理图像块T1就可以作为T0的预测图像块进行预测;而当视差矢量差值dDV1为非零矢量时,dDV1可以作为修正量与pDV相加,指向纹理图像块T2,将T2作为T0的预测图像块;同样的视点间矢量预测、修正方式同样适用于深度图像的视点间预测;
(2)在进行视点合成预测时,pDV指向视点2中的深度图像2中的(x1,y1)位置,因此pDV指向的深度图像块D1就可以作为T0对应的深度图像块用于生成视点合成图像。
如图3中所示,时刻1的纹理图像1中的虚线框所示的当前纹理图像块T0的预测运动矢量为pMV:
(1)在进行传统的时域预测时,pMV指向时刻2的纹理图像2中的(x1,y1)位置,因此pMV指向的纹理图像块T1就可以作为T0的预测图像块进行预测;而当运动矢量差值dMV1为非零矢量时,dMV1可以作为修正量与pMV相加,指向纹理图像块T2,将T2作为T0的预测图像块;同样的时域矢量预测、修正方式同样适用于深度图像的时域预测。
在现有的方法中,矢量差值(图2中的dDV1,与图3中的dMV1)的作用范围仅限于修正指向到同一种类型的图像间的矢量(即纹理图像内的矢量指向到纹理图像,深度图像内的矢量指向到深度图像),而未出现过针对不同类型图像间的矢量的矢量差值(如图2中的dDV2)。
同时,现有方法中,用于定位深度图像块的矢量仅局限于当前纹理图像块的相邻纹理图像块所对应的视差矢量,没有其他的选择空间。而这些有限个视差矢量所指向的深度图像块用于生成视点合成预测图像时,未必有很好的预测准确度。
针对上述的问题,目前尚未提出有效的解决方案。
在视点合成预测技术中,若当前编码图像类型为纹理图像,而预测视差矢量指向的是一幅深度图像,用于从该深度图像中定位到深度图像块用于视点合成预测图像块的生成,而现有的报道中未见有对该预测视差矢量施加视差矢量差值用于修正矢量值的。
因此可以在相邻纹理图像块对应的视差矢量基础上增加一个视差矢量差值(如图3中的dDV2),在一定范围内进行修正,从而找到一个能够获得更高预测效率的深度图像块。
4、图像的时域序号
视频图像中每一幅图像都对应一个时域序号,这个序号一般是按照图像的播放顺序从小到大排列的,如第一个时刻的图像的时域序号等于0,下一个时刻的图像的时域序号等于1。
5、图像的预测类型
根据图像在视频中所处的时域顺序不同,每一帧图像有各自允许的预测方式,当一幅图像仅允许利用该图像自身已经编解码完成的局部图像进行像素、模式预测时,我们称这幅图像的预测类型为帧内预测。反之,当一幅图像允许借用其他已经编解码完成的图像内的信息进行预测编解码时,我们称这幅图像的预测类型为帧间预测。同样的属性特征同样适用于对图像块的描述。
6、当前纹理图像块的相邻图像块索引值
一个图像块的周围有多个相邻图像块,而其中几个相邻的图像块各自对应一个相邻图像块索引值,如图16所示,图中当前纹理图像块周围的相邻图像块中,上侧的相邻图像块的索引值为0,右上侧的相邻图像块的索引值为1,左下角相邻图像块的索引值为2。
发明内容
为解决现有技术中在生成视点合成预测图像的过程中所使用的深度图像块仅能用有限个来自于当前纹理图像块的相邻纹理图像块的预测视差矢量来定位的问题,本发明提供了一种视点合成预测中的深度视差矢量的确定方法,其包括以下步骤:
将当前纹理图像块的相邻纹理图像块对应的指向参考视点深度图像的预测视差矢量加上视差矢量差值或视差矢量差值索引值所对应的视差矢量差值得到指向参考视点深度图像的深度视差矢量。
进一步的,将所述深度视差矢量用于在参考视点的深度图像中确定深度图像块的位置。
进一步的,还包括对所述的视差矢量差值进行编码,编码方法为以下方法之一:
当模式一标志位的值等于X时,编码模式二标志位,当且仅当模式二标志位的值等于Y时,编码视差矢量差值信息,其中X与Y均为二值数;
当前纹理图像块的相邻图像块索引值所对应的相邻纹理图像块的预测方式为视点合成预测,则编码视差矢量差值信息;
所述的视差矢量差值信息为视差矢量差值或者视差矢量差值对应的视差矢量差值索引值。
进一步的,还包括对所述的视差矢量差值进行解码,解码方法为以下方法之一:
当模式一标志位的值等于X时,解码模式二标志位,当且仅当模式二标志位的值等于Y时,解码视差矢量差值信息,其中X与Y均为二值数;
若当前纹理图像块的相邻图像块索引值所对应的相邻纹理图像块的预测方式为视点合成预测,则解码视差矢量差值信息;
所述的视差矢量差值信息为视差矢量差值或者视差矢量差值对应的视差矢量差值索引值。
进一步的,在编码或解码视差矢量差值信息时,还至少满足以下条件之一:
(1)当前纹理图像块所在图像允许使用视点合成预测技术;
(2)当前纹理图像块的宽度大于等于W个像素、高度大于等于H个像素,其中W与H均为正整数。
本发明还提供了一种视点合成预测中的深度视差矢量的确定装置,包括:
深度视差矢量中间值生成单元,用于将当前纹理图像块的相邻纹理图像块对应的预测视差矢量与视差矢量差值相加后得到深度视差矢量中间值;
深度视差矢量选择单元,用于根据选择标志位决定将所述的预测视差矢量还是所述的深度视差矢量中间值作为深度视差矢量输出。
进一步的,还包括视差矢量差值编码单元,该单元包括以下子单元:
传输标志位编码子单元,用于对视差矢量传输标志位进行编码,写入码流;
视差矢量差值编码子单元,用于当视差矢量传输标志位已被编码,且被编码的值所代表的含义为需要继续编码视差矢量差值时,对视差矢量差值进行编码,并写入码流。
进一步的,还包括:
视差矢量差值编码单元,用于当当前纹理图像块的相邻图像块索引值对应的相邻纹理图像块的预测方式为视点合成预测时,对视差矢量差值进行编码,并写入码流。
进一步的,还包括视差矢量差值解码单元,该单元包括以下子单元:
传输标志位解码子单元,用于对码流中对应于视差矢量传输标志位的码流进行解码;
视差矢量差值解码子单元,用于当视差矢量传输标志位已被解码,且且被编码的值所代表的含义为需要继续解码视差矢量差值时,对码流中对应于视差矢量差值的码流进行解码,得到视差矢量差值。
进一步的,还包括:
视差矢量差值解码单元,用于当当前纹理图像块的相邻图像块索引值对应的相邻纹理图像块的预测方式为视点合成预测时,对码流中对应于视差矢量差值的码流进行解码,得到视差矢量差值。
本发明的有益效果为:本发明在现有的视点合成预测技术的基础上,增加了视差矢量差值,为从纹理图像指向深度图像的视差矢量增加了修正量,能够使视点合成预测模块定位到一个使视点合成质量更佳的深度图像块,提高了视点合成预测的准确度,提高了编码效率
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是现有技术中所述的现有的视点合成技术的实施方式示意图;
图2是现有技术中所述的现有的视点间矢量预测技术的示意图;
图3是现有技术中所述的现有的时域矢量预测技术的示意图;
图4是本发明一种视点合成预测中的深度视差矢量的确定装置实施例的结构框图;
图5是本发明一种视点合成预测中的深度视差矢量的确定装置实施例的结构框图;
图6是本发明一种视差矢量差值编码单元实施例的结构框图;
图7是本发明一种视差矢量差值编码单元实施例的结构框图;
图8是本发明一种视差矢量差值编码单元实施例的结构框图;
图9是本发明一种视差矢量差值解码单元实施例的结构框图;
图10是本发明一种视差矢量差值解码单元实施例的结构框图;
图11是本发明一种视差矢量差值解码单元实施例的结构框图;
图12是本发明一种视点合成预测中的深度视差矢量的确定装置实施例的结构框图;
图13是本发明一种视点合成预测中的深度视差矢量的确定装置实施例的结构框图;
图14是本发明一种视点合成预测中的深度视差矢量的确定装置实施例的结构框图;
图15是本发明一种视点合成预测中的深度视差矢量的确定装置实施例的结构框图;
图16是现有技术中所述的关于图像块的相邻图像块索引值的示意图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明中所述的标志位均为一种二值变量,仅可能有两种取值,如标志位B的取值为0或1;标志位C的取值为5或9;标志位的两种取值代表两种含义,视具体应用环境而定。
本发明实施例提供了一种视点合成预测中的深度视差矢量的确定方法,即将当前纹理图像块的相邻纹理图像块对应的指向参考视点深度图像的预测视差矢量加上视差矢量差值(或视差矢量差值索引值所对应的视差矢量差值)得到指向参考视点深度图像的深度视差矢量。将当前纹理图像块在参考视点深度图像中的对应位置偏移所述的深度视差矢量后的位置作为所述深度图像块的位置,将深度图像块用于生成视点合成预测图像。
此处,记深度图像块所在视点为参考视点,当前纹理图像块所在视点为目标视点(或当前视点)。
相对于现有技术,提出的方法利用视差矢量差值对预测视差矢量进行修正,为视点合成预测技术提供一个更佳的深度图像块用于生成视点合成预测图像,能够提高视点合成预测技术的编码效率,降低预测误差。
本发明所述的视点合成预测中的深度视差矢量的确定方法包括以下方法中的至少一种:
方法一
该实施例对应一种视点合成预测中的深度视差矢量的确定方法,包括以下步骤:
从位于目标视点的当前纹理图像块的一个相邻纹理图像块获取其对应的视差矢量作为预测视差矢量pDV(Xp,Yp),并将pDV加上一个视差矢量差值dDV(Xd,Yd)得到指向参考视点深度图像的深度视差矢量DV(X,Y),即:
DV=pDV+dDV
其中,X=Xp+Xd,Y=Yp+Yd。
方法二
该实施例对应一种视点合成预测中的深度视差矢量的确定方法以及深度视差矢量的应用,包括以下步骤:
从位于目标视点的当前纹理图像块的一个相邻纹理图像块获取其对应的视差矢量作为预测视差矢量pDV(Xp,Yp),并将pDV加上一个视差矢量差值dDV(Xd,Yd)得到指向参考视点深度图像的深度视差矢量DV(X,Y),即:
DV=pDV+dDV
记当前纹理图像块的左上角的像素点的坐标为C1(x1,y1),则令坐标C2(x2,y2)等于坐标C1偏移深度视差矢量DV(dx,dy)后的坐标,即:
C2=C1+DV
其中x2=x1+dx,y2=y1+dy
将参考视点的深度图像中,左上角像素点位于坐标C2,且与当前纹理图像块等大的深度图像块作为当前纹理图像块对应的深度图像块。
方法三
该实施例对应一种视点合成预测中的深度视差矢量的确定方法,包括以下步骤:
从位于目标视点当前纹理图像块的一个相邻纹理图像块获取其对应的视差矢量作为预测视差矢量pDV,在深度图像中由pDV所指向的位置周围的rM像素x rN像素的深度图像范围内进行搜索,将该范围内生成的视点合成图像准确度最高的深度图像块对应的视差矢量记为DV,而DV与pDV之间的差值记为dDV,即:
dDV=DV–pDV
视差矢量差值信息(视差矢量差值或视差矢量差值对应的视差矢量差值索引值)的编码方法包括以下方法之一:
方法一:
该实施例对应一种视差矢量差值信息编码方法,包括以下步骤:
当融合模式标志位bMerge的值等于X时,编码视差矢量差值信息传输标志位bDeltaDV:
当bDeltaDV被编码,且bDeltaDV的值等于Y时,编码视差矢量差值信息deltaDV。
其中,bMerge与bDeltaDV均只可能有两种取值,该特征在下文中不再重复。
方法二:
该实施例对应一种视差矢量差值信息编码方法,包括以下步骤:
当融合模式标志位bMerge的值等于X时,且当满足以下一个或多个条件时,编码视差矢量差值信息传输标志位bDeltaDV:
(1)当前纹理图像块所在图像允许使用视点合成预测技术;
(2)当前纹理图像块的宽度大于等于W个像素、高度大于等于H个像素;
(3)当前纹理图像块所在图像的时域序号为偶数;
(4)当前纹理图像块所在图像的时域序号为奇数;
(5)参考视点中的深度图像的预测类型为帧内预测;
当bDeltaDV被编码,且bDeltaDV的值等于Y时,编码视差矢量差值信息deltaDV。
方法三:
该实施例对应一种视差矢量差值信息编码方法,包括以下步骤:
当融合模式标志位bMerge的值等于X时,编码视差矢量差值信息传输标志位bDeltaDV:
当bDeltaDV被编码,且bDeltaDV的值等于Y时,编码视差矢量差值信息deltaDV的水平分量和竖直分量中的至少一个分量。
方法四
该实施例对应一种视差矢量差值信息编码方法,包括以下步骤:
当当前纹理图像块的相邻图像块索引值所对应的相邻纹理图像块的预测方式为视点合成预测时,编码视差矢量差值信息deltaDV的水平分量与竖直分量中的至少一个分量。
视差矢量差值信息(视差矢量差值或视差矢量差值对应的视差矢量差值索引值)的解码包括以下方法之一:
方法一:
该实施例对应一种视差矢量差值信息解码方法,包括以下步骤:
当融合模式标志位bMerge的值等于X时,解码视差矢量差值信息传输标志位bDeltaDV;
当bDeltaDV被解码,且bDeltaDV的值等于Y时,解码视差矢量差值信息deltaDV。
其中,bMerge与bDeltaDV均只可能有两种取值,该特征在下文中不再重复。
若deltaDV为视差矢量差值对应的视差矢量差值索引值,则将视差矢量差值赋值为所述索引值所对应的数值。
方法二:
该实施例对应一种视差矢量差值信息解码方法,包括以下步骤:
当融合模式标志位bMerge的值等于X时,且当满足以下一个或多个条件时,解码视差矢量差值信息传输标志位bDeltaDV:
(1)当前纹理图像块所在图像允许使用视点合成预测技术;
(2)当前纹理图像块的宽度大于等于W个像素、高度大于等于H个像素;
(3)当前纹理图像块所在图像的时域序号为偶数;
(4)当前纹理图像块所在图像的时域序号为奇数;
(5)参考视点中的深度图像的预测类型为帧内预测;
当bDeltaDV被解码,且bDeltaDV的值等于Y时,解码视差矢量差值信息deltaDV。
若deltaDV为视差矢量差值对应的视差矢量差值索引值,则将视差矢量差值赋值为所述索引值所对应的数值。
方法三:
该实施例对应一种视差矢量差值信息解码方法,包括以下步骤:
当融合模式标志位bMerge的值等于X时,解码视差矢量差值信息传输标志位bDeltaDV:
当bDeltaDV被解码,且bDeltaDV的值等于Y时,解码视差矢量差值信息deltaDV的水平分量和竖直分量中的至少一个分量。
若deltaDV为视差矢量差值对应的视差矢量差值索引值,则将视差矢量差值赋值为所述索引值所对应的数值。
方法四
该实施例对应一种视差矢量差值信息解码方法,包括以下步骤:
当当前纹理图像块的相邻图像块索引值所对应的相邻纹理图像块的预测方式为视点合成预测时,解码视差矢量差值信息deltaDV的水平分量与竖直分量中的至少一个分量。
若deltaDV为视差矢量差值对应的视差矢量差值索引值,则将视差矢量差值赋值为所述索引值所对应的数值。
当解码器从码流中解码得到视差矢量差值后,将当前纹理图像块的相邻纹理图像块对应的预测视差矢量pDV与视差矢量差值相加,得到深度视差矢量DV。
实施例1
本实施例中提供了一种视点合成预测中的深度视差矢量的确定装置,如图4所示,该装置用于实现上述实施例及实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
该装置包括:
深度视差矢量中间值生成单元,用于将输入的当前纹理图像块的相邻纹理图像块对应的预测视差矢量pDV与输入的视差矢量差值dDV相加后得到深度视差矢量中间值tDV,输出至深度视差矢量选择执行单元;
深度视差矢量选择执行单元,输入包括矢量选择标志位bS、深度视差矢量中间值tDV、预测视差矢量pDV,当bS的值对应于选择深度视差矢量tDV时,令深度视差矢量DV等于tDV;当bS的值对应于选择预测视差矢量pDV时,令深度视差矢量DV等于pDV;输出DV;
实施例2
本实施例中提供了一种视点合成预测中的深度视差矢量的确定装置,如图5所示。
该装置包括:
深度视差矢量选择判断单元,用于根据输入的相邻图像块预测方式、矢量传输标志位bT判断矢量选择标志位bS的输出值。当相邻图像块的预测方式为视点合成预测或者视点间预测时,或矢量传输标志位bT等于vT时,令bS的输出值等于vS,否则,令bS的输出值等于vS’;
深度视差矢量中间值生成单元,用于将输入的当前纹理图像块的相邻纹理图像块对应的预测视差矢量pDV与输入的视差矢量差值dDV相加后得到深度视差矢量中间值tDV,输出至深度视差矢量选择执行单元;
深度视差矢量选择执行单元,输入包括矢量选择标志位bS、深度视差矢量中间值tDV、预测视差矢量pDV,当bS的值等于vS时,令深度视差矢量DV等于tDV;当bS的值等于vS’时,令深度视差矢量DV等于pDV;输出DV。
实施例3
本实施例提供了一种视点合成预测中的视差矢量差值的编码单元,如图6所示。
该单元包括:
传输标志位编码子单元,输入为模式标志位Flag、视差矢量差值传输标志位bDeltaDV,当Flag的值等于X时,输出bDeltaDV对应的码流,否则,不输出码流;
视差矢量差值编码子单元,输入为视差矢量传输标志位bDeltaDV、视差矢量差值deltaDV,当bDeltaDV的值等于Y时,输出deltaDV对应的码流,否则,不输出码流;
其中Flag与bDeltaDV的取值均只有两种,Flag的值等于X表示这个标志位对应的模式被选中,而bDeltaDV的值等于Y表示deltaDV需要被编码并写入码流。
实施例4
本实施例提供了一种视点合成预测中的视差矢量差值的编码单元,如图7所示。
该单元包括:
传输标志位编码子单元,输入为模式标志位Flag、当前纹理图像块的宽度、高度、图像宽度下限值W、图像宽度下限值H、视差矢量差值传输标志位bDeltaDV,当Flag的值等于X,且当前纹理图像块的宽度大于等于W、当前纹理图像块的高度大于等于H时,输出bDeltaDV对应的码流,并令标志位bT的值等于1,否则,不输出码流,并令标志位bT的值等于0,输出bT至视差矢量差值编码单元;
视差矢量差值编码子单元,输入为标志位bT、视差矢量差值deltaDV,当bT的值等于1时,输出deltaDV对应的码流,否则,不输出码流。
实施例5
本实施例提供了一种视点合成预测中的视差矢量差值的编码单元,如图8所示。
该单元包括:
索引值判断子单元,输入为当前纹理图像块的相邻图像块索引值index,当index对应的相邻纹理图像块的预测方式为视点合成预测时,令标志位predFlag的值等于1,否则,令标志位predFlag的值等于0,将predFlag输出至;
矢量编码子单元,输入为来自索引值判断单元的标志位predFlag、视差矢量差值deltaDV,当predFlag的值等于1时,编码deltaDV并输出对应的码流。
实施例6
本实施例提供了一种视点合成预测中的视差矢量差值的解码单元,图图9所示。
该单元包括:
传输标志位解码子单元,输入为模式标志位Flag、码流,当Flag的值等于X时,解码视差矢量差值传输标志位bDeltaDV对应的码流,输出bDeltaDV;
视差矢量差值解码子单元,输入为视差矢量传输标志位bDeltaDV、码流,当收到bDeltaDV且bDeltaDV的值等于Y时,解码视差矢量差值deltaDV对应的码流,输出deltaDV;
其中Flag与bDeltaDV的取值均只有两种,Flag的值等于X表示这个标志位对应的模式被选中,而bDeltaDV的值等于Y表示码流中包含deltaDV对应的码流。
实施例7
本实施例提供了一种视点合成预测中的视差矢量差值的解码单元,如图10所示。
该单元包括:
传输标志位解码子单元,输入为模式标志位Flag、当前纹理图像块的宽度、高度、图像宽度下限值W、图像宽度下限值H、码流,当Flag的值等于X,且当前纹理图像块的宽度大于等于W、当前纹理图像块的高度大于等于H时,解码视差矢量差值传输标志位bDeltaDV对应的码流,输出bDeltaDV至视差矢量差值解码单元;
视差矢量差值解码子单元,输入为bDeltaDV、码流,当bDeltaDV的值等于1时,解码视差矢量差值deltaDV对应的码流,输出deltaDV。
实施例8
本实施例提供了一种视点合成预测中的视差矢量差值的解码单元,如图11所示。
该单元包括:
索引值判断子单元,输入为当前纹理图像块的相邻图像块索引值index,当index对应的相邻纹理图像块的预测方式为视点合成预测时,令标志位predFlag的值等于1,否则,令标志位predFlag的值等于0,将predFlag输出至;
矢量解码子单元,输入为来自索引值判断单元的标志位predFlag、码流,当predFlag的值等于1时,编码视差矢量差值deltaDV对应的码流,输出deltaDV。
实施例9
本实施例提供了一种视点合成预测中的深度视差矢量的确定装置,如图12所示。
该装置包括:
如实施例1中所述的深度视差矢量中间值生成单元、深度视差矢量选择执行单元;
如实施例3或实施例4或实施例5中所述的视差矢量差值编码单元。
实施例10
本实施例提供了一种视点合成预测中的深度视差矢量的确定装置,如图13所示。
该装置包括:
如实施例2中所述的深度视差矢量中间值生成单元、深度视差矢量选择执行单元、深度视差矢量选择判断单元;
如实施例3或实施例4或实施例5中所述的视差矢量差值编码单元。
实施例11
本实施例提供了一种视点合成预测中的深度视差矢量的确定装置,如图14所示。
该装置包括:
如实施例1中所述的深度视差矢量中间值生成单元、深度视差矢量选择执行单元;
如实施例6或实施例7或实施例8中所述的视差矢量差值解码单元。
实施例12
本实施例提供了一种视点合成预测中的深度视差矢量的确定装置,如图15所示。
该装置包括:
如实施例2中所述的深度视差矢量中间值生成单元、深度视差矢量选择执行单元、深度视差矢量选择判断单元;
如实施例6或实施例7或实施例8中所述的视差矢量差值解码单元。
实施例13
本实施例提供了一种媒体内容,其中,该媒体内容生成图像的过程中可以通过本发明中所述方法实现。
在另外一个实施例中,还提供了一种软件,该软件用于执行上述实施例及优选实施方式中描述的技术方案。
在另外一个实施例中,还提供了一种存储介质,该存储介质中存储有上述软件,该存储介质包括但不限于:光盘、软盘、硬盘、可擦写存储器等。
从以上的描述中,可以看出,本发明实现了如下技术效果:提出了一种新的视点合成预测中的深度视差矢量的生成方法,在从当前纹理图像块的相邻纹理图像块获取到的预测视差矢量的基础上,添加一个视差矢量差值对预测视差矢量进行修正,从而使得视点合成预测技术相比于现有的方法,获得一个令视点合成质量更佳的的深度图像块,从而提高视点合成技术的预测准确度,提高编码效率。通过上述方式解决了现有技术中在生成视点合成预测图像的过程中所使用的深度图像块仅能用有限个来自于当前纹理图像块的相邻纹理图像块的预测视差矢量来定位的问题.
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种视点合成预测中的深度视差矢量的确定方法,其特征在于,包括以下步骤:
将当前纹理图像块的相邻纹理图像块对应的指向参考视点深度图像的预测视差矢量加上视差矢量差值或视差矢量差值索引值所对应的视差矢量差值得到指向参考视点深度图像的深度视差矢量。
2.根据权利要求1所述的方法,其特征还在于,将所述深度视差矢量用于在参考视点的深度图像中确定深度图像块的位置。
3.根据权利要求1所述的方法,其特征还在于,还包括对所述的视差矢量差值进行编码,编码方法为以下方法之一:
当模式一标志位的值等于X时,编码模式二标志位,当且仅当模式二标志位的值等于Y时,编码视差矢量差值信息,其中X与Y均为二值数;
当前纹理图像块的相邻图像块索引值所对应的相邻纹理图像块的预测方式为视点合成预测,则编码视差矢量差值信息;
所述的视差矢量差值信息为视差矢量差值或者视差矢量差值对应的视差矢量差值索引值。
4.根据权利要求1所述的方法,其特征还在于,还包括对所述的视差矢量差值进行解码,解码方法为以下方法之一:
当模式一标志位的值等于X时,解码模式二标志位,当且仅当模式二标志位的值等于Y时,解码视差矢量差值信息,其中X与Y均为二值数;
若当前纹理图像块的相邻图像块索引值所对应的相邻纹理图像块的预测方式为视点合成预测,则解码视差矢量差值信息;
所述的视差矢量差值信息为视差矢量差值或者视差矢量差值对应的视差矢量差值索引值。
5.根据权利要求3或4所述的方法,其特征还在于,
在编码或解码视差矢量差值信息时,还至少满足以下条件之一:
(1)当前纹理图像块所在图像允许使用视点合成预测技术;
(2)当前纹理图像块的宽度大于等于W个像素、高度大于等于H个像素,其中W与H均为正整数。
6.一种视点合成预测中的深度视差矢量的确定装置,其特征在于,包括:
深度视差矢量中间值生成单元,用于将当前纹理图像块的相邻纹理图像块对应的预测视差矢量与视差矢量差值相加后得到深度视差矢量中间值;
深度视差矢量选择单元,用于根据选择标志位决定将所述的预测视差矢量还是所述的深度视差矢量中间值作为深度视差矢量输出。
7.根据权利要求6所述的装置,其特征还在于,包括视差矢量差值编码单元,该单元包括以下子单元:
传输标志位编码子单元,用于对视差矢量传输标志位进行编码,写入码流;
视差矢量差值编码子单元,用于当视差矢量传输标志位已被编码,且被编码的值所代表的含义为需要继续编码视差矢量差值时,对视差矢量差值进行编码,并写入码流。
8.根据权利要求6所述的装置,其特征还在于,包括:
视差矢量差值编码单元,用于当当前纹理图像块的相邻图像块索引值对应的相邻纹理图像块的预测方式为视点合成预测时,对视差矢量差值进行编码,并写入码流。
9.根据权利要求6所述的装置,其特征还在于,包括视差矢量差值解码单元,该单元包括以下子单元:
传输标志位解码子单元,用于对码流中对应于视差矢量传输标志位的码流进行解码;
视差矢量差值解码子单元,用于当视差矢量传输标志位已被解码,且且被编码的值所代表的含义为需要继续解码视差矢量差值时,对码流中对应于视差矢量差值的码流进行解码,得到视差矢量差值。
10.根据权利要求6所述的装置,其特征还在于,包括:
视差矢量差值解码单元,用于当当前纹理图像块的相邻图像块索引值对应的相邻纹理图像块的预测方式为视点合成预测时,对码流中对应于视差矢量差值的码流进行解码,得到视差矢量差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310493849.2A CN104581182B (zh) | 2013-10-18 | 2013-10-18 | 一种视点合成预测中的深度视差矢量的确定方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310493849.2A CN104581182B (zh) | 2013-10-18 | 2013-10-18 | 一种视点合成预测中的深度视差矢量的确定方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104581182A true CN104581182A (zh) | 2015-04-29 |
CN104581182B CN104581182B (zh) | 2019-08-16 |
Family
ID=53096239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310493849.2A Active CN104581182B (zh) | 2013-10-18 | 2013-10-18 | 一种视点合成预测中的深度视差矢量的确定方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104581182B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101222639A (zh) * | 2007-01-09 | 2008-07-16 | 华为技术有限公司 | 多视点视频技术中的视间预测方法、编码器和解码器 |
CN101996399A (zh) * | 2009-08-18 | 2011-03-30 | 三星电子株式会社 | 在左图像与右图像之间估计视差的设备和方法 |
WO2012128068A1 (ja) * | 2011-03-18 | 2012-09-27 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
-
2013
- 2013-10-18 CN CN201310493849.2A patent/CN104581182B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101222639A (zh) * | 2007-01-09 | 2008-07-16 | 华为技术有限公司 | 多视点视频技术中的视间预测方法、编码器和解码器 |
CN101996399A (zh) * | 2009-08-18 | 2011-03-30 | 三星电子株式会社 | 在左图像与右图像之间估计视差的设备和方法 |
WO2012128068A1 (ja) * | 2011-03-18 | 2012-09-27 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN104581182B (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106471807B (zh) | 包括视角合成预测的三维或多视角视频的编码方法 | |
JP2022008311A (ja) | 多視点ビデオの符号化/復号化方法 | |
AU2019275631B2 (en) | Motion vector field coding and decoding method, coding apparatus, and decoding apparatus | |
KR101753171B1 (ko) | 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법 | |
US8953684B2 (en) | Multiview coding with geometry-based disparity prediction | |
CN104704819B (zh) | 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置 | |
JP5970609B2 (ja) | 3dビデオ符号化における統一された視差ベクトル導出の方法と装置 | |
CN109792517A (zh) | 用于编码和解码大视场视频的方法和装置 | |
CN102710934B (zh) | 一种运动预测或补偿方法 | |
CN104662910A (zh) | 3d视频编码中的虚拟深度值的方法和装置 | |
CN104718760A (zh) | 运动矢量推导三维视频编码的方法和装置 | |
CN103621093A (zh) | 在三维视频编码系统中的纹理图像压缩方法及装置 | |
CA2576707A1 (en) | Method and device for making virtual image region for motion estimation and compensation of panorama image | |
CN104488271A (zh) | 一种基于p帧的多假设运动补偿方法 | |
CN104769947A (zh) | 一种基于p帧的多假设运动补偿编码方法 | |
CN108235031B (zh) | 一种运动矢量解码方法及解码器 | |
CN106254885A (zh) | 利用共位块进行运动估计 | |
US20150264356A1 (en) | Method of Simplified Depth Based Block Partitioning | |
KR20170069917A (ko) | 인트라 스킵 모드의 예측 방법을 나타내는 정보의 부호화 방법 및 장치, 복호화 방법 및 장치 | |
CN102611887B (zh) | 非整像素位置运动矢量的坐标值取整方法和装置 | |
CN104768019A (zh) | 一种面向多纹理多深度视频的相邻视差矢量获取方法 | |
CN104904206A (zh) | 用于三维视频编解码中直接和跳跃模式的空间运动矢量预测推导方法和装置 | |
CN102611886A (zh) | 一种运动预测或补偿方法 | |
CN103974063A (zh) | 一种深度模型的编解码方法及视频编解码器 | |
EP2965520A1 (en) | Method of reference view selection for 3d video coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |