CN104704832A - 用于预测运动矢量和视差矢量的图像处理方法和设备 - Google Patents
用于预测运动矢量和视差矢量的图像处理方法和设备 Download PDFInfo
- Publication number
- CN104704832A CN104704832A CN201380051109.1A CN201380051109A CN104704832A CN 104704832 A CN104704832 A CN 104704832A CN 201380051109 A CN201380051109 A CN 201380051109A CN 104704832 A CN104704832 A CN 104704832A
- Authority
- CN
- China
- Prior art keywords
- difference vector
- current block
- block
- vector
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
公开了一种用于预测运动矢量和视差矢量的图像处理方法和设备。根据一个实施例的图像处理方法可通过使用与彩色图像相应的深度图像来确定包括在彩色图像中的当前块的视差矢量。可通过使用深度图像预测运动矢量或视差矢量,以对3D视频进行有效地压缩。
Description
技术领域
下面的描述涉及对三维(3D)视频的有效压缩和解压缩,更具体地,涉及一种用于估计运动矢量和视差矢量的图像处理方法和设备。
背景技术
立体感图像指与图像信息一起同时提供关于深度和空间的形状信息的三维(3D)图像。不同于仅向用户的左眼和右眼分别提供不同视点的图像的立体图像,所述立体感图像在用户改变用户的观看点时看起来就像是从不同方向被看到一样。因此,从多个不同视点拍摄的图像被用于创建立体感图像。
由于从不同视点拍摄的用于创建立体感图像的图像具有大量的数据,因此考虑到网络基础设施、地面宽带等,使用针对单视点视频编码(诸如,MPEG-2、H.264.AVC和HEVC)进行优化的编码设备来对图像进行压缩几乎是难以实现的。
因此,需要一种为了创建立体感图像而进行优化的多视点图像编码设备。具体而言,需要一种用于有效地减少时间与视点之间的冗余的技术。
发明内容
技术方案
根据实施例的图像处理方法可包括:识别与彩色图像的当前块相应的深度图像;基于包括在所述深度图像中的像素的深度值来确定当前块的视差矢量。
根据实施例的图像处理方法可包括:识别与彩色图像的当前块邻近的至少一个邻近块的视差矢量;当邻近块不具有视差矢量时,使用与彩色图像相应的深度图像来确定邻近块的视差矢量;基于所述至少一个邻近块的视差矢量来确定当前块的视差矢量。
根据实施例的图像处理方法可包括:使用与彩色图像的当前块邻近的至少一个邻近块的视差矢量来确定彩色图像的当前块的视差矢量;使用确定的当前块的视差矢量来确定当前块的运动矢量。
根据实施例的图像处理方法可包括:识别与彩色图像的当前块邻近的至少一个邻近块的运动矢量;当邻近块不具有运动矢量时,使用与彩色图像相应的深度图像来确定邻近块的运动矢量;基于所述至少一个邻近块的运动矢量来确定当前块的运动矢量。
根据实施例的图像处理设备可包括:深度图像识别器,被配置为识别与彩色图像的当前块相应的深度图像;视差矢量确定器,被配置为基于包括在所述深度图像中的像素的深度值来确定当前块的视差矢量。
根据实施例的图像处理设备可包括:视差矢量提取器,被配置为提取与彩色图像的当前块邻近的至少一个邻近块的视差矢量;视差矢量确定器,被配置为基于所述至少一个邻近块的视差矢量来确定当前块的视差矢量。
根据实施例的图像处理设备可包括:视差矢量确定器,被配置为使用与彩色图像的当前块邻近的至少一个邻近块的视差矢量来确定彩色图像的当前块的视差矢量;运动矢量确定器,被配置为使用确定的当前块的视差矢量来确定当前块的运动矢量。
根据实施例的图像处理设备可包括:运动矢量提取器,被配置为提取与彩色图像的当前块邻近的至少一个邻近块的运动矢量;运动矢量确定器,被配置为基于所述至少一个邻近块的运动矢量来确定当前块的运动矢量。
附图说明
图1是用于描述根据实施例的编码设备和解码设备的操作的框图。
图2是示出根据实施例的用于预测当前块的视差矢量的图像处理设备的框图。
图3是示出根据实施例的用于预测当前块的运动矢量的图像处理设备的框图。
图4是示出根据另一实施例的用于预测当前块的运动矢量的图像处理设备的框图。
图5是示出根据另一实施例的用于预测当前块的运动矢量的图像处理设备的框图。
图6示出根据实施例的多视点视频的结构。
图7示出根据实施例的在对当前块进行编码时使用的参考图像。
图8是用于描述根据实施例的编码设备的操作的示图。
图9是用于描述根据实施例的解码设备的操作的示图。
图10是示出根据实施例的预测当前块的视差矢量的处理的示图。
图11是示出根据实施例的预测当前块的针对跳过模式和直接模式的运动矢量的处理的示图。
图12是示出根据实施例的使用视差矢量来预测当前块的运动矢量的处理的示图。
图13是示出根据实施例的预测当前块的针对帧间模式的运动矢量的处理的示图。
图14是示出根据实施例的用于预测当前块的视差矢量的图像处理方法的流程图。
图15是示出根据实施例的用于预测当前块的运动矢量的图像处理方法的流程图。
图16是示出根据另一实施例的用于预测当前块的运动矢量的图像处理方法的流程图。
图17是示出根据另一实施例的用于预测当前块的运动矢量的图像处理方法的流程图。
最优实施方式
在下文中,将参照附图对实施例进行描述。提供下面的具体的结构和功能描述仅是为了描述实施例,因此,本发明的范围不应被解释为限于实施例。根据实施例的图像处理方法可由图像处理设备执行。相同的标号表示相同的组成元件。
在描述实施例之前,在实施例或权利要求中公开的术语可被如下定义:
(1)当前块(当前彩色块):表示彩色图像的将被编码或解码的块。
(2)当前彩色图像:表示包括当前块的彩色图像。详细地讲,当前彩色图像表示包括将被编码或解码的块的彩色图像。
(3)与当前块相应的深度图像(相应深度图像):表示与包括当前块的彩色图像或当前彩色图像相应的深度图像。
(4)邻近块(当前块周围的邻近块):表示与当前块邻近的已编码或已解码的至少一个块。例如,邻近块可位于当前块的上端、当前块的右上端、当前块的左边或当前块的左上端。
(5)相应块(相应深度图中的共同定位(Colocated)的深度块):表示包括在与当前块相应的深度图像中的深度图像块。例如,相应块可包括与彩色块相应的深度图像中与当前块位于相同位置的块。
(6)宏块(共同定位的深度宏块):表示深度图像的包括相应块的上位概念的深度图像块。
(7)相邻彩色图像(包括当前彩色块的彩色图像周围的相邻彩色图像):表示视点不同于包括当前块的彩色图像的视点的彩色图像。相邻彩色图像可以是在执行针对当前块的图像处理之前被编码或解码的彩色图像。
图1是用于描述根据实施例的编码设备和解码设备的操作的框图。
根据实施例的编码设备110可对三维(3D)视频进行编码,可以以比特流的形式创建编码后的数据,并可将创建出的数据发送到解码设备120。3D视频可包括从多个不同视点拍摄的彩色图像和深度图像。3D视频具有时间上连续的图像之间存在的时间冗余以及不同视点的图像之间存在的视点间冗余。编码设备110可通过有效地消除时间冗余和视点间冗余来对3D视频进行有效编码。编码设备110可通过在对3D视频进行编码的处理期间最大程度地消除图像之间的冗余来提高编码效率。
编码设备110和解码设备120可执行基于块的预测来消除彩色图像之间的冗余。编码设备110和解码设备120可使用深度图像来有效地消除彩色图像之间的冗余。编码设备110和解码设备120可使用邻近块的运动矢量或时间运动矢量来消除时间冗余,并可使用邻近块的视差矢量或视点间运动矢量以及与彩色图像相应的深度图像来消除视点间冗余。编码设备110可通过在对3D视频的彩色图像进行编码的处理期间对运动矢量进行有效编码来最小化彩色图像之间的冗余。
与彩色图像相应的深度图像的尺寸可与彩色图像的尺寸不同。当深度图像的尺寸与彩色图像的尺寸不同时,编码设备110和解码设备120可将深度图像的尺寸调整到与彩色图像的尺寸相同。例如,当深度图像的尺寸小于彩色图像的尺寸时,编码设备110和解码设备120可通过对深度图像进行上采样来调整深度图像的尺寸,使得深度图像的尺寸变得等于彩色图像的尺寸。
根据另一实施例,不管深度图像的尺寸与彩色图像的尺寸之间的差别如何,深度图像的原始尺寸可按照原样被使用。当使用深度图像的原始尺寸时,不需要对深度图像的尺寸进行采样的处理,因此,可降低复杂度,并还可减小需要的内存量。
将参照图2至图17进行描述的图像处理设备可被实现在图1的编码设备110或解码设备120的内部或外部。
图2是示出根据实施例的用于预测当前块的视差矢量的图像处理设备的框图。
参照图2,图像处理设备200可包括深度图像识别器210和视差矢量确定器220。
深度图像识别器210可识别与彩色图像的当前块相应的深度图像。当不存在与彩色图像相应的深度图像时,深度图像识别器210可使用与当前块邻近的邻近块、包括当前块的彩色图像的相邻彩色图像或另一深度图像来估计与当前块相应的深度图像。
视差矢量确定器220可基于与当前块相应的深度图像的深度信息来识别当前块的视差矢量。视差矢量确定器220可识别包括在深度图像中的像素之中的至少一个像素,并可将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量。
例如,视差矢量确定器220可基于与当前块相应的深度图像的相应块中包括的像素的深度值来确定当前块的视差矢量。视差矢量确定器220可识别与当前块相应的深度图像的相应块中包括的像素之中的至少一个像素。视差矢量确定器220可将识别出的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为当前块的视差矢量。视差矢量确定器220可将包括在深度图像的相应块中的全部像素的深度值之中的最大深度值转换为视差矢量。可选地,视差矢量确定器220可仅使用包括在深度图像的相应块中的部分像素,并可将所述部分像素的深度值之中的最大深度值转换为视差矢量。根据实施例,视差矢量确定器220可识别位于深度图像内的预定区域中的像素,并可将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量。例如,视差矢量确定器220可识别位于相应块的拐角处的像素,并可将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量,其中,相应块的拐角是深度图像内的预定区域。可选地,视差矢量确定器220可将位于相应块的拐角处的像素的深度值和相应块的中心处的深度值之中的最大深度值转换为当前块的视差矢量。
另外,视差矢量确定器220可基于深度图像的包括相应块的宏块来确定当前块的视差矢量。例如,视差矢量确定器220可将包括在宏块中的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为当前块的视差矢量。可选地,视差矢量确定器220可将包括相应块的宏块中包括的预定像素的深度值之中的最大深度值转换为当前块的视差矢量。例如,视差矢量确定器220可通过对位于宏块的拐角处的像素的深度值之中的最大深度值进行转换来确定当前块的视差矢量。
视差矢量确定器220还可仅使用与当前彩色图像相应的深度图像内的预定像素来确定当前块的视差矢量。例如,视差矢量确定器220可将包括在深度图像中的预定单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为当前块的视差矢量。可选地,视差矢量确定器220可将相应块或宏块内的预定单个像素的深度值转换为当前块的视差矢量。
在视点间预测中,准确地预测运动对象是很重要的。通常,运动对象比背景更靠近相机,因此具有最大深度值。视差矢量确定器220使用运动对象和深度值之间的关系来预测当前块的视差矢量。
在将深度值转换为视差矢量的处理期间,视差矢量确定器220可使用相机参数信息。视差矢量确定器220可通过深度值转换处理来创建视差矢量,并可将创建的视差矢量确定为当前块的视差矢量。
根据另一实施例,为了确定彩色图像的当前块的视差矢量,视差矢量确定器220可使用与当前块邻近的邻近块的视差矢量。当与当前块邻近的邻近块不具有视差矢量时,视差矢量确定器220可使用包括在与彩色图像相应的深度图像中的像素的深度值来确定邻近块的视差矢量。例如,视差矢量确定器220可将与当前块相应的深度图像的相应块或宏块中包括的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。可选地,视差矢量确定器220可将包括在包括相应块的宏块中的预定像素的深度值之中的最大深度值转换为邻近块的视差矢量。例如,视差矢量确定器220可通过对位于宏块的拐角处的像素的深度值之中的最大深度值进行转换来确定邻近块的视差矢量。为了确定邻近块的视差矢量,视差矢量确定器220还可仅使用与当前彩色图像相应的深度图像内的预定像素。例如,视差矢量确定器220可将包括在深度图像中的预定单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。
当确定了邻近块的视差矢量时,视差矢量确定器220可使用邻近块的视差矢量和中值滤波来确定当前块的视差矢量。例如,视差矢量确定器220可将中值滤波应用于与当前块邻近的至少一个邻近块的视差矢量,并可将中值滤波的结果确定为当前视差矢量。
图3是示出根据实施例的用于预测当前块的运动矢量的图像处理设备的框图。
参照图3,图像处理设备300可包括视差矢量提取器310和视差矢量确定器320。图像处理设备300可使用视差矢量提取器310和视差矢量确定器320来预测当前块的视差矢量。根据另一实施例,图像处理设备300还可包括运动矢量确定器330,并可使用运动矢量确定器330来预测当前块的运动矢量。
视差矢量提取器310可提取与彩色图像的当前块邻近的邻近块的视差矢量。视差矢量提取器310可确定在邻近块中是否存在视差矢量,并可在邻近块中不存在视差时,使用与彩色图像相应的深度图像来确定邻近块的视差矢量。根据另一实施例,视差矢量提取器310可基于深度图像的深度信息来直接确定邻近块的视差矢量,而无需确定在邻近块中是否存在视差矢量。
视差矢量提取器310可识别包括在与当前块相应的深度图像中的像素之中的至少一个像素。视差矢量提取器310可将识别出的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。可选地,视差矢量提取器310可仅使用包括在深度图像中的部分像素,并可将所述部分像素的深度值之中的最大深度值转换为邻近块的视差矢量。
例如,当存在不具有视差矢量的邻近块时,视差矢量提取器310可将与当前块相应的深度图像的相应块中包括一个或更多个像素的深度值之中的最大深度值转换为邻近块的视差矢量。可选地,视差矢量提取器310可识别位于深度图像内的预定区域内的像素的深度值,并可将位于所述预定区域内的像素的深度值之中的最大深度值转换为邻近块的视差矢量。例如,视差矢量提取器310可将位于相应块的拐角处的像素的深度值和位于相应块的中心处的深度值之中的最大深度值转换为邻近块的视差矢量。
视差矢量提取器310可基于深度图像的包括相应块的宏块来确定邻近块的视差矢量。例如,视差矢量提取器310可将包括在宏块中的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。可选地,视差矢量提取器310可将包括相应块的宏块中包括的预定像素的深度值之中的最大深度值转换为邻近块的视差矢量。例如,视差矢量提取器310可通过对位于宏块的拐角处的像素的深度值之中的最大深度值进行转换来确定邻近块的视差矢量。
视差矢量提取器310可仅使用与当前彩色图像相应的深度图像内的预定像素来确定邻近块的视差矢量。例如,视差矢量提取器310可将包括在深度图像中的预定单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。
视差矢量确定器320可基于邻近块的视差矢量来确定当前块的视差矢量。例如,视差矢量确定器320可对邻近块的视差矢量应用中值滤波,并可将中值滤波的结果确定为当前块的视差矢量。
运动矢量确定器330可基于确定的当前块的视差矢量来确定当前块的运动矢量。详细地讲,运动矢量确定器330可使用当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置,并可将识别出的位置处的运动矢量确定为当前块的运动矢量。
当在识别出的位置处不存在运动矢量时,运动矢量确定器330可使用与当前块邻近的邻近块来确定当前块的运动矢量。运动矢量确定器330可基于邻近块的运动矢量和视差矢量中的至少一个来确定当前块的运动矢量。例如,当参考图像的索引指示同一视点的彩色图像时,运动矢量确定器330可对邻近块的运动矢量应用中值滤波,并可将中值滤波的结果确定为当前块的运动矢量。相反,当参考图像的索引指示不同视点的彩色图像时,运动矢量确定器330可将对邻近块的视差矢量应用中值滤波的结果确定为当前块的运动矢量。在除了以上两种情况之外的其他情况下,运动矢量确定器330可将零运动矢量确定为当前块的运动矢量。
图4是示出根据另一实施例的用于预测当前块的运动矢量的图像处理设备的框图。
图像处理设备400可包括视差矢量确定器410和运动矢量确定器420。
视差矢量确定器410可使用与彩色图像的当前块邻近的邻近块的视差矢量来确定当前块的视差矢量。视差矢量确定器410可确定在邻近块中是否存在视差矢量,并可在邻近块不具有视差矢量时使用与彩色图像相应的深度图像来确定邻近块的视差矢量。根据另一实施例,视差矢量确定器410还可基于深度图像的深度信息来直接确定邻近块的视差矢量,而无需确定在邻近块中是否存在视差矢量。
视差矢量确定器410可识别包括在与当前块相应的深度图像中的像素之中的至少一个像素。视差矢量确定器410可将识别出的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。视差矢量确定器410还可仅使用包括在深度图像中的部分像素,并可将所述部分像素的深度值之中的最大深度值转换为邻近块的视差矢量。
例如,当邻近块不具有视差矢量时,视差矢量确定器410可基于包括在与彩色图像的当前块相应的深度图像的相应块中的至少一个像素的深度值,确定邻近块的视差矢量,并可基于邻近块的视差矢量来确定当前块的视差矢量。视差矢量确定器410可将包括在深度图像的相应块中的一个或更多个像素的深度值之中的最大深度值转换为邻近块的视差矢量。可选地,视差矢量确定器410可将位于深度图像的预定区域中的像素的深度值之中的最大深度值转换为邻近块的视差矢量。
视差矢量确定器410可基于深度图像的包括相应块的宏块来确定邻近块的视差矢量。例如,视差矢量确定器410可将包括在宏块中的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。可选地,视差矢量确定器410可将包括相应块的宏块中包括的像素的深度值之中的最大深度值转换为邻近块的视差矢量。例如,视差矢量确定器410可通过对位于宏块的拐角处的像素的深度值之中的最大深度值进行转换来确定邻近块的视差矢量。
视差矢量确定器410还可仅使用与当前彩色图像相应的深度图像内的预定像素来确定邻近块的视差矢量。例如,视差矢量确定器410可将包括在深度图像中的预定单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。
视差矢量确定器410可基于邻近块的视差矢量来确定当前块的视差矢量。例如,视差矢量确定器410可对邻近块的视差矢量应用中值滤波,并可将中值滤波的结果确定为当前块的视差矢量。
运动矢量确定器420可使用确定的当前块的视差矢量来确定当前块的运动矢量。运动矢量确定器420可使用当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置,并可将识别出的位置处的运动矢量确定为当前块的运动矢量。
当在识别出的位置处不存在运动矢量时,运动矢量确定器420可使用当前块的邻近块来确定当前块的运动矢量。运动矢量确定器420可基于邻近块的运动矢量和视差矢量中的至少一个来确定当前块的运动矢量。当运动矢量确定器420不能够使用邻近块的运动矢量或视差矢量来确定当前块的运动矢量时,运动矢量确定器420可将零运动矢量确定为当前块的运动矢量。
图5是示出根据另一实施例的用于预测当前块的运动矢量的图像处理设备的框图。
参照图5,图像处理设备500可包括运动矢量提取器510和运动矢量确定器520。
运动矢量提取器510可提取与彩色图像的当前块邻近的邻近块的运动矢量。运动矢量提取器510可确定在邻近块中是否存在运动矢量,并可在邻近块不具有运动矢量时,使用彩色图像的深度图像来确定邻近块的运动矢量。运动矢量提取器510可从不同视点的彩色图像获取不存在运动矢量的邻近块的运动矢量,并可使用深度图像来从所述不同视点的彩色图像获取邻近块的运动矢量。根据另一实施例,运动矢量提取器510可基于深度图像的深度信息来直接确定邻近块的运动矢量,而无需确定在邻近块中是否存在运动矢量。
为了确定邻近块的运动矢量,运动矢量提取器510可使用深度图像来获取视差矢量。运动矢量提取器510可识别包括在与当前块相应的深度图像中的至少一个像素,并可基于识别出的至少一个像素的深度值来获取视差矢量。例如,运动矢量提取器510可将与当前块相应的深度图像的相应块中包括的一个或更多个像素的深度值之中的最大深度值转换为视差矢量。运动矢量提取器510可在获取视差矢量的处理期间使用相机参数信息。运动矢量提取器510可使用视差矢量,从包括当前块的彩色图像的相邻彩色图像估计邻近块的运动矢量。可选地,运动矢量提取器510可将位于与当前块相应的深度图像的预定区域中的像素的深度值之中的最大深度值转换为视差矢量,并可使用转换出的视差矢量,从包括当前块的彩色图像的相邻彩色图像估计邻近块的运动矢量。
运动矢量提取器510可基于深度图像的包括相应块的宏块来确定邻近块的运动矢量。例如,运动矢量提取器510可将包括在宏块中的像素的深度值之中的最大深度值转换为视差矢量,并可将由转换出的视差矢量指示的位置处的运动矢量确定为邻近块的运动矢量。可选地,运动矢量提取器510可将包括相应块的宏块中包括的像素的深度值之中的最大深度值转换为邻近块的视差矢量,并可使用转换出的视差矢量来估计邻近块的运动矢量。
运动矢量提取器510还可仅使用与当前彩色图像相应的深度图像内的预定像素来确定邻近块的运动矢量。例如,运动矢量提取器510可将包括在深度图像中的预定单个像素的深度值转换为视差矢量,并可将由转换出的视差矢量指示的位置处的运动矢量确定为邻近块的运动矢量。
当在由视差矢量指示的位置处不存在运动矢量时,运动矢量提取器510可将零运动矢量确定为邻近块的运动矢量。另外,在当前块的参考图像索引与从不同视点的彩色图像获取的参考图像索引不同时,运动矢量提取器510也可将零运动矢量确定为邻近块的运动矢量。
运动矢量确定器510可基于邻近块的运动矢量来确定当前块的运动矢量。例如,运动矢量确定器520可对邻近块的运动矢量应用中值滤波,并可将中值滤波的结果确定为当前块的运动矢量。
图6示出根据实施例的多视点图像的结构。
图6示出根据实施例的当接收到三个视点(例如,左视点、中心视点和右视点)的图像时,用于使用一组画面(GOP)“8”来执行编码的多视点视频编码(MVC)方法。GOP指示从I帧开始的一组连续图像。
由于在多视点图像编码处理期间分层的B画面或分层的B帧的概念被用于时间轴和视点轴,因此可减小图像之间的冗余。
图1的编码设备110可基于图6的多视点图像的结构,顺序地对左图像(也称为左画面(I-视点))、右图像(也称为右画面(P-视点))和中心图像(也称为中心画面(B-视点))进行编码,因此可对与三个视点相应的图像进行编码。
在对左图像进行编码的处理期间,可使用运动估计来从先前的图像估计与左图像相似的区域,并可使用关于估计的区域的信息来减少时间冗余。由于右图像将在左图像被编码之后通过参照编码后的左图像而被编码,因此,除了使用运动估计减少时间冗余之外,还可使用视差估计来减少视点间冗余。另外,由于通过参照已经被编码的左图像和右图像中的全部,使用视差估计来对中心图像进行编码,因此,可减少视点间冗余。
参照图6,在多视点图像编码处理期间,无需使用不同视点的图像而被编码的图像(例如,左图像)可被定义为I-视点图像。通过单向预测不同视点的图像而被编码的图像(例如,右图像)可被定义为P-视点图像。通过双向预测不同视点的图像而被编码的图像(例如,中心图像)可被定义为B-视点图像。
图7示出根据实施例的用于对当前块进行编码的参考图像。
当对包括在当前彩色图像中的当前块进行编码时,图像处理设备可使用相邻彩色图像720、730、740和750作为参考图像。例如,图像处理设备可从相邻彩色图像720、730、740和750之中识别与当前块最相似的相似块,并可对当前块与相似块之间的残差信号进行编码。在H.264/AVC的情况下,用于使用参考图像来估计相似块的编码模式可包括SKIP(仅P条带)/直接(仅B条带)模式、16x16模式、16x8模式、8x16模式、P8x8模式等。在高效视频编码(HEVC)的情况下,用于使用参考图像来估计相似块的编码模式可包括SKIP模式、Merge模式、2NX2N模式、2NxN模式、NX2N模式等。
在对当前块进行编码的处理期间,图像处理设备可使用基于时间而与当前彩色图像邻近的相邻彩色图像720和730作为参考图像来减少时间冗余。另外,为了减少视点间冗余,图像处理设备可使用就视点而言与当前彩色图像邻近的相邻彩色图像740和750作为参考图像。图像处理设备可使用相邻彩色图像720和730(即,Ref1图像和Ref2图像)来获取运动信息,并可使用相邻彩色图像740和750(即,Ref3图像和Ref4图像)来获取视差信息。
图8是用于描述根据实施例的编码设备的操作的示图。
详细地讲,图8示出对彩色图像进行编码的编码设备的处理。根据实施例,编码设备的彩色图像编码处理可如下。编码设备可在操作810接收彩色图像,并可在操作845选择编码模式。编码设备可确定彩色图像与从块预测得到的预测图像之间的残差信号。编码设备可在操作815对残差信号进行变换,并可在操作820和825执行量化和熵编码。
块预测处理可包括用于减小时间冗余的时间预测处理以及用于减小视点间冗余的视点间预测处理。
为了在后续彩色图像中进行准确预测,可在操作875执行去块滤波处理。在操作830和835,可对在操作820量化的图像执行反量化处理和逆变换处理,以在操作875执行去块滤波处理。通过操作875的去块滤波处理创建的参考图像可被存储并被用于后续彩色图像的编码处理。
编码设备可通过帧内预测850、运动估计/补偿855或视差估计/补偿860来执行预测处理,以消除时间冗余和视点间冗余。图像处理设备可执行运动估计/补偿855和视差估计/补偿860处理。对于运动估计/补偿855,图像处理设备可在操作865基于相机参数840将深度信息870(例如,深度值)转换为视差信息(例如,视差矢量),并可执行运动估计/补偿855处理。可选地,对于视差估计/补偿860,图像处理设备可在操作865将深度信息870(例如,深度值)转换为视差信息(例如,视差矢量),并可执行视差估计/补偿860处理。
根据通过块预测得到的预测图像与原始图像之间的相似度的增加,残差信号的量减小,这会导致减小被编码并由此被创建的比特量。因此,为了对3D视频进行有效编码,运动估计/补偿855和视差估计/补偿860处理是很重要的。
在运动估计/补偿855处理期间,图像处理设备可通过使用邻近块的运动矢量信息、关于不同视点的彩色图像的编码信息或与当前块相应的深度图像,执行对当前块的运动估计/补偿855处理。另外,在视差估计/补偿860处理期间,图像处理设备可通过使用邻近块的视差矢量信息、关于不同视点的彩色图像的编码信息或与当前块相应的深度图像,执行对当前块的视差估计/补偿860处理。
图9是用于描述根据实施例的解码设备的操作的示图。
解码设备可以可逆地执行由图8的编码设备执行的操作,以通过对编码的比特流进行解码来输出彩色图像。根据实施例,解码设备的3D图像数据解码处理可如下。解码设备可在操作905接收包括编码的3D图像数据的比特流,并可在操作910执行熵解码。
解码设备可执行反量化915和逆变换920处理,并可在操作940选择解码模式。解码设备可通过帧内预测945、运动估计/补偿950或视差估计/补偿955处理来对比特流进行有效解码。
图像处理设备可执行运动估计/补偿950和视差估计/补偿955处理。对于运动估计/补偿950,图像处理设备可在操作960基于相机参数935将深度信息950转换为视差信息,并可使用转换信息来执行运动估计/补偿950处理。可选地,对于视差估计/补偿955,图像处理设备可在操作960基于相机参数935将深度信息965转换为视差信息,并可执行视差估计/补偿955处理。
在运动估计/补偿950处理期间,图像处理设备可通过使用邻近块的运动矢量信息、关于不同视点的彩色图像的解码信息或与当前块相应的深度图像,执行对当前块的运动估计/补偿950处理。另外,在视差估计/补偿955处理期间,图像处理设备可通过使用邻近块的视差矢量信息、关于不同视点的彩色图像的解码信息或与当前块相应的深度图像,执行对当前块的视差估计/补偿955处理。
为了对后续彩色图像进行解码,可执行去块滤波925处理。通过去块滤波925处理创建的参考图像可被存储并用于对后续彩色图像的解码处理。
图10是示出根据实施例的预测当前块的视差矢量的处理的示图。
参照图10,块Cb表示彩色图像中将被编码的当前块。块A、B和C表示在与当前块邻近的位置处存在的邻近块。为了预测当前块的视差矢量,图像处理设备可识别邻近块A、B和C的视差矢量,并可对识别出的视差矢量应用中值滤波。
当在邻近块A、B和C之中存在不存在视差矢量的块时,图像处理设备可用预定视差矢量来代替不存在视差矢量的邻近块的视差矢量。例如,假设在邻近块A中不存在视差矢量。为了确定邻近块A的视差矢量,图像处理设备可将包括在与当前块相应的深度图像中的像素的深度值之中的最大深度值转换为视差矢量。可选地,图像处理设备可将包括在深度图像中的部分像素的深度值之中的最大深度值转换为邻近块A的视差矢量。例如,图像处理设备可将在预定区域(诸如,与当前块相应的深度图像的相应块内的拐角)中存在的像素的深度值之中的最大深度值转换为视差矢量。可选地,图像处理设备可将位于预定区域(诸如,与当前块相应的深度图像的包括相应块的宏块内的拐角)中的像素的深度值之中的最大深度值转换为视差矢量。图像处理设备可将转换出的视差矢量确定为邻近块A的视差矢量,并可通过对邻近块A、B和C的视差矢量应用中值滤波来确定当前块Cb的视差矢量。
图像处理设备可基于深度图像的包括相应块的宏块来确定当前块Cb的视差矢量。例如,图像处理设备可将包括在宏块中的像素的深度值之中的最大深度值转换为当前块Cb的视差矢量,或者可将包括在宏块中的预定像素的深度值之中的最大深度值转换为当前块Cb的视差矢量。另外,图像处理设备还可仅使用与当前块Cb相应的深度图像内的预定像素。例如,图像处理设备可将包括在与当前块Cb相应的深度图像中的单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为当前块Cb的视差矢量。
为了将深度值转换为视差矢量,图像处理设备还可使用相机参数信息。通过图10得出的当前块的视差矢量和运动矢量中的每一个可被用作基于16x16、16x8、8x16和P8x8模式的预测视差矢量。图像处理设备可通过经由预测视差矢量执行视差估计来估计当前块的最终视差矢量。
在下文中,将描述由图像处理设备预测当前块的视差矢量的处理。
在操作1010,图像处理设备可识别当前块Cb的邻近块A、B和C的视差矢量。在操作1020,图像处理设备可确定邻近块的视差矢量是否存在。
当存在不存在视差矢量的邻近块时,在操作1030,图像处理设备可确定不存在视差矢量的邻近块的视差矢量。例如,图像处理设备可识别包括在与当前块相应的深度图像中的像素之中的至少一个像素,可将识别出的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为不存在视差矢量的邻近块的视差矢量。为了确定邻近块的视差矢量,图像处理设备还可仅使用与当前彩色图像相应的深度图像内的预定像素。例如,图像处理设备可将包括在该深度图像中的预定单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。
图像处理设备可基于与当前块相应的深度图像的相应块内的像素或包括相应块的宏块内的像素,将深度值转换为视差矢量。例如,图像处理设备可将包括在深度图像的相应块或宏块中的像素的深度值之中的最大深度值转换为邻近块的视差矢量,或者可将位于相应块或宏块的预定区域中的像素的深度值之中的最大深度值转换为邻近块的视差矢量。
在操作1040,图像处理设备可对邻近块的视差矢量应用中值滤波。在操作1050,图像处理设备可将经过中值滤波的视差矢量确定为当前块Cb的视差矢量。图像处理设备可对当前块Cb的视差矢量进行编码。
除了代替视差矢量的上述处理之外,还可实施下面的实施例。详细地讲,图像处理设备可直接对与当前块Cb相应的深度图像的相应块中包括的像素的深度值之中的最大深度值进行转换,而无需使用当前块Cb的邻近块A、B和C的视差矢量。可选地,为了对视差矢量进行转换,图像处理设备还可仅使用与当前块Cb相应的深度图像的相应块中包括的部分像素的深度值。例如,图像处理设备可将位于相应块的拐角处的像素和位于相应块的中心处的像素的深度值之中的最大深度值转换为视差矢量。图像处理设备可在将深度值转换为视差矢量的处理期间使用相机参数信息。图像处理设备可将转换出的视差矢量确定为当前块的视差矢量。在一实施例中,确定的当前块的视差矢量可在针对帧间模式的视差估计处理期间提供初始点。
图11是示出根据实施例的预测当前块的针对跳过模式和直接模式的运动矢量的处理的示图。
图11示出确定彩色图像中的当前块Cb的针对跳过模式和直接模式的最终运动矢量的处理。在跳过模式和直接模式下,不执行运动估计和视差估计。块A、B和C表示在与当前块Cb邻近的位置处存在的邻近块。
图像处理设备可使用邻近块A、B和C的视差矢量来预测当前块Cb的运动矢量。当对P-视点图像或B-视点图像进行编码/解码时,图像处理设备可使用已被编码/解码的I-视点图像的信息来预测针对跳过模式和直接模式的运动矢量。另外,当不同视点的P-视点图像或B-视点图像已被编码/解码时,图像处理设备还可使用P-视点图像和B-视点图像以及I-视点图像来预测针对跳过模式和直接模式的运动矢量。
在操作1110,图像处理设备可识别与彩色图像中的当前块Cb邻近的邻近块的视差矢量。在操作1120,图像处理设备可确定邻近块的视差矢量是否存在。
当存在不存在视差矢量的邻近块时,在操作1130,图像处理设备可使用深度图像来确定不存在视差矢量的邻近块的视差矢量。图像处理设备可识别包括在与当前块Cb相应的深度图像中的像素之中的至少一个像素,并可将识别出的像素的深度值之中的最大深度值转换为视差矢量。图像处理设备可将转换出的视差矢量确定为不存在视差矢量的邻近块的视差矢量。另外,图像处理设备可仅使用包括在深度图像中的部分像素的深度值来将深度值转换为视差矢量。例如,图像处理设备可对包括在与当前块Cb相应的深度图像中的预定单个像素的深度值进行转换,并可将转换出的视差矢量确定为邻近块的视差矢量。图像处理设备可在将深度值转换为视差矢量的处理期间使用相机参数信息。
图像处理设备可基于与当前块相应的深度图像的相应块或包括相应块的宏块,确定邻近块的视差矢量。例如,图像处理设备可将包括在相应块或宏块中的像素的深度值之中的最大深度值转换为邻近块的视差矢量,或者可将包括在相应块或宏块中的预定像素的深度值之中的最大深度值转换为邻近块的视差矢量。
在操作1140,图像处理设备可对邻近块的视差矢量应用中值滤波。在操作1150,图像处理设备可使用经过中值滤波的视差矢量来确定当前块Cb的运动矢量。图像处理设备可将由经过中值滤波的视差矢量指示的位置处的运动矢量确定为当前块Cb的运动矢量。例如,当经过中值滤波的视差矢量指示I-视点图像时,图像处理设备可识别在与当前彩色图像相同的时区中存在的I-视点图像中由经过中值滤波的视差矢量指示的位置,并可使用识别出的位置处的运动信息来确定当前块Cb的运动矢量。
当在由经过中值滤波的视差矢量指示的位置处不存在运动矢量时,图像处理设备可使用当前块Cb的邻近块A、B和C来确定当前块Cb的运动矢量。图像处理设备可使用邻近块A、B和C的参考图像索引之中的最小索引作为当前块Cb的参考图像索引。例如,在P-画面的情况下,参考图像索引为“0”。
当参考图像索引指示同一视点的彩色图像时,图像处理设备可将对邻近块A、B和C的运动矢量应用中值滤波的结果确定为当前块Cb的运动矢量。当参考图像索引指示不同视点的彩色图像时,图像处理设备可将对邻近块A、B和C的视差矢量应用中值滤波的结果确定为当前块Cb的运动矢量。在除了以上两种情况之外的其他情况下,图像处理设备可将零运动矢量确定为当前块Cb的运动矢量。
在操作1160,图像处理设备可使用确定的当前块Cb的运动矢量作为针对跳过模式和直接模式的运动矢量。另外,图像处理设备可使用由经过中值滤波的视差矢量指示的位置处的参考图像索引作为跳过模式和直接模式下的参考图像索引。
图12是示出根据实施例的使用视差矢量来预测当前块的运动矢量的处理的示图。
参照图12,图像处理设备可使用当前彩色图像1210中的当前块1230的视差矢量1240来确定当前块1230的运动矢量1260。例如,图像处理设备可对邻近块的视差矢量应用中值滤波,以确定当前块1230的视差矢量1240。图像处理设备可识别参考图像1220内由经过中值滤波的视差矢量1240指示的位置,并可将识别出的位置处的运动矢量确定为当前块1230的运动矢量1260。
图13是示出根据实施例的预测当前块的针对帧间模式的运动矢量的处理的示图。
参照图13,块Cb表示彩色图像中将被编码的当前块。块A、B和C表示在与当前块Cb邻近的位置处存在的邻近块。为了预测当前块Cb的运动矢量,图像处理设备可使用邻近块A、B和C的运动矢量。
在操作1310,图像处理设备可识别当前块Cb的邻近块的运动矢量。在操作1320,图像处理设备可确定邻近块的运动矢量是否存在。
当存在不存在运动矢量的邻近块时,在操作1330,图像处理设备可使用深度图像来确定不存在运动矢量的邻近块的运动矢量。图像处理设备可从不同视点的彩色图像获取不存在运动矢量的邻近块的运动矢量。为此,图像处理设备可使用深度图像。
图像处理设备可识别包括在与当前块Cb相应的深度图像中的像素之中的至少一个像素,并可将识别出的像素的深度值之中的最大深度值转换为视差矢量。为了将深度值转换为视差矢量,图像处理设备还可仅使用包括在深度图像中的部分像素的深度值。例如,图像处理设备可将与当前块Cb相应的深度图像的相应块中包括的像素的深度值之中的最大深度值转换为视差矢量。可选地,图像处理设备可将位于相应块内的拐角处的四个像素的深度值和位于相应块的中心处的像素的深度值之中的最大深度值转换为视差矢量。图像处理设备可在将深度值转换为视差矢量的处理期间使用相机参数信息。图像处理设备可使用视差矢量来确定邻近块的运动矢量。图像处理设备可将由视差矢量指示的位置处的运动矢量确定为邻近块的运动矢量。
图像处理设备可基于深度图像的包括相应块的宏块来确定邻近块的运动矢量。例如,图像处理设备可将包括在宏块中的像素的深度值之中的最大深度值转换为视差矢量,并可将由转换出的视差矢量指示的位置处的运动矢量确定为邻近块的运动矢量。可选地,图像处理设备可将包括相应块的宏块中包括的预定像素的深度值之中的最大深度值转换为邻近块的视差矢量,并可使用转换出的视差矢量来估计邻近块的运动矢量。
为了确定邻近块的运动矢量,图像处理设备可仅使用与当前彩色图像相应的深度图像内的预定像素。例如,图像处理设备可将包括在与当前彩色图像相应的深度图像中的预定单个像素的深度值转换为视差矢量,并可将由转换出的视差矢量指示的位置处的运动矢量确定为邻近块的运动矢量。
在当前块Cb的参考图像索引与从不同视点的彩色图像获得的参考图像索引不同时,图像处理设备可将零运动矢量确定为邻近块的运动矢量。例如,当通过对深度值进行转换而创建的视差矢量指示I-视点图像时,图像处理设备可识别与当前彩色图像处于同一时区的I-视点图像中由该视差矢量指示的位置,并可使用识别出的位置处的运动信息来确定当前块Cb的运动矢量。当在由该视差矢量指示的位置处不存在运动矢量时,图像处理设备可使用零运动矢量作为邻近块的运动矢量。
在操作1340,图像处理设备可通过对邻近块的运动矢量应用中值滤波来确定当前块Cb的运动矢量。在操作1350,图像处理设备可使用经过中值滤波的运动矢量来执行帧间模式下的运动估计。图像处理设备可使用经过中值滤波的运动矢量作为帧间模式下的预测运动矢量。预测运动矢量可在执行帧间模式下的运动估计时提供初始点。
根据实施例,以上参照图10至图13进行的描述可被如下配置:
<J.8.3.1关于运动矢量分量和参考索引的推导处理>
1)在该处理期间的输入:
-宏块分区mbPartIdx
-子宏块分区subMbPartIdx
2)在该处理期间的输出:
-如果ChromaArrayType不为“0”,则亮度运动矢量mvL0和mvL1,色度运动矢量mvCL0和mvCL1,
-参考索引refIdxL0和refIdxL1,
-预测列表使用标记predFlagL0和predFlagL1,
-运动矢量计数变量subMvCnt。
3)下面的内容可应用于推导变量refIdxL0、refIdxL1、mvL0和mvL1。
A.如果mb_type等于P_Skip,
a)如果MbVSSkipFlag等于“0”,
-如果nal_unit_type等于“21”,DepthFlag等于“0”,并且dmvp_flag等于"1",则子条款J.8.3.1.1中关于包括在P条带和SP条带中的跳过宏块的亮度运动矢量的基于深度的推导处理被调用,并且在这种情况下,具有亮度运动矢量mvL0、参考索引refIdxL0和predFlagL0被设置为“1”的输出。
-否则(如果nal_unit_type不等于“21”,或者如果DepthFlag不等于“1”,或者如果dmvp_flag不等于“0”),则子条款J.8.4.1.1中关于包括在P条带和SP条带中的跳过宏块的亮度运动矢量的基于深度的推导处理被调用,并且在这种情况下,具有亮度运动矢量mvL0、参考索引refIdxL0和predFlagL0被设置为“1”的输出。
b)如果MbVSSkipFlag等于“1”,
-子条款J.8.3.1.2中关于包括在P条带和SP条带中的VSP跳过宏块的亮度运动矢量的推导处理被调用,并且在这种情况下,具有亮度运动矢量mvL0、参考索引refIdxL0和predFlagL0被设置为“1”的输出。
c)如果mvL1和refIdxL1被标记为不可用,并且predFlagL1等于“0”,则运动矢量计数变量subMvCnt被设置为“1”。
B.如果mb_type等于B_Skip或B_Direct_16x16,或者如果sub_mb_type[mbPartIdx]等于B_Direct_8x8,则可应用下面的内容。
a)变量vspFlag如下面的表1所表示的来实现。
[表1]
b)如果vspFlag等于“0”,nal_unit_type等于“21”,DepthFlag等于“0”,并且dmvp_flag等于“1”,则子条款J.8.3.1.3中关于包括在B条带中的B_Skip、B_Direct_16x16和B_Direct_8x8的亮度运动矢量的基于深度的推导处理被调用,并且在这种情况下,具有输入mbPartIdx和subMbPartIdx,并且具有如下输出:亮度运动矢量mvL0和mvL1、参考索引refIdxL0和refIdxL1、运动矢量计数变量subMvCnt以及预测列表使用标记predFlagL0和predFlagL1。
c)如果vspFlag等于“0”并且nal_unit_type不等于“21”,或者DepthFlag等于“1”,或者dmvp_flag等于“0”,则子条款J.8.4.1.2中关于包括在B条带中的B_Skip、B_Direct_16x16和B_Direct_8x8的亮度运动矢量的推导处理被调用,并且在这种情况下,具有输入mbPartIdx和subMbPartIdx,并且具有如下输出:亮度运动矢量mvL0和mvL1、参考索引refIdxL0和refIdxL1、运动矢量计数变量subMvCnt以及预测列表使用标记predFlagL0和predFlagL1。
d)如果vspFlag等于“1”,则子条款J.8.3.1.6中关于包括在B条带中的B_Skip、B_Direct_16x16和B_Direct_8x8的亮度运动矢量的推导处理被调用。
在子条款J.8.4.1中,
如果predFlagLX等于“1”,DepthFlag等于“0”并且dmvp_flag等于“1”,则子条款8.3.1.7中关于亮度运动矢量预测的推导处理被调用,并且在这种情况下,具有输入mbPartIdx、subMbPartIdx、refIdxLX和currSubMbType,并且具有输出mvpLX。如果predFlagLX等于“1”并且DepthFlag等于“1”,或者dmvp_flag等于“0”,则子条款8.4.1.3中关于亮度运动矢量预测的推导处理被调用,并且在这种情况下,具有输入mbPartIdx、subMbPartIdx、refIdxLX和currSubMbType,并且具有输出mvpLX。
<J.8.3.1.1关于P条带和SP条带中的跳过宏块的亮度运动矢量的推导处理>
如果mb_type等于P_Skip,nal_unit_type等于“21”,DepthFlag等于“0”,dmvp_flag等于“1”,并且MbVSSkipFlag等于“0”,则调用该处理。
1)该处理的输出:
-运动矢量mvL0,
-参考索引refIdxL0。
2)为了推导P_Skip宏块类型的refIdxL0和运动矢量mvL0,实施下面的操作。
a.调用在子条款J.8.3.1.5中指定的处理。在这种情况下,作为输入,mbPartIdx被设置为“0”,subMbPartIdx被设置为“0”,currSubMbType被设置为“na”,并且listSuffixFlag被设置为“0”。作为输出,运动矢量mvL0和参考索引refIdxL0被分配。
b.如果refIdxL0等于“-1”:
-针对跳过宏块的参考索引refIdxL0被推导为refIdxL0=0。
-子条款J.8.3.1.7中关于亮度运动矢量预测的推导处理被调用。在这种情况下,mbPartIdx=0、subMbPartIdx=0、refIdxL0和currSubMbType=“na”被设置为输入,并且mvL0被设置为输出。
<J.8.3.1.2关于包括在P条带和SP条带中的VSP跳过宏块的亮度运动矢量的推导处理>
如果mb_type等于P_Skip,nal_unit_type等于“21”,DepthFlag为“0”并且MbVSSkipFlag为“1”,则调用该处理。
该处理的输出为运动矢量mvL0和参考索引refIdxL0。
针对VSP跳过宏块的参考索引refIdxL0VSP被获取作为RefPicList0中首先出现的合成图片。
<J.8.3.1.3关于B_Skip、B_Direct_16x16和B_Direct_8x8的亮度运动矢量的推导处理>
该处理的输入为当前宏块的分区索引mbPartIdx和subMbPartIdx。
该处理的输出为参考索引refIdxL0和refIdxL1、运动矢量mvL0和mvL1、运动矢量计数变量变量subMvCnt以及预测列表使用标记predFlagL0和predFlagL1。
指定下面的操作来驱动输出。
1.变量currSubMbType被设置为等于sub_mb_type[mbPartIdx]。
2.调用在子条款J.8.3.1.5中指定的处理。在这种情况下,mbPartIdx=0、subMbPartIdx=0以及currSubMbType和listSuffixFlag=0被设置为输入。运动矢量mvL0和参考索引refIdxL0被分配作为输出。
3.调用在子条款J.8.3.1.5中指定的处理。在这种情况下,mbPartIdx被设置为“0”,subMbPartIdx被设置为“0”,并且currSubMbType和listSuffixFlag被设置为“1”。运动矢量mvL1和参考索引refIdxL1被分配作为输出。
4.如果参考索引refIdxL0和refIdxL1等于“-1”,则应用下面的处理。
-根据下面的表2来推导参考索引refIdxL0和refIdxL1。
[表2]
-调用子条款J.8.3.1.7中关于亮度运动矢量预测的推导处理。在这种情况下,mbPartIdx=0、subMbPartIdx=0、refIdxLX(X=0或1)和currSubMbType被设置为输入,并且mvLX被分配作为输出。
<J.8.3.1.4关于视差矢量和视点间参考的推导处理>
在该处理期间,输入包括深度参考视点分量(depth reference viewcomponent)depthPic、分区的左上样本的位置(dbx1,dby1)以及listSuffixFlag。
在该处理期间,输出包括画面InterViewPic、偏移矢量dv和变量InterViewAvailable。
InterViewAvailable被设为“0”。
应用下面的表3来获取InterViewPic,其中,InterViewPic是视点间唯一参考画面,或者是在listFuffixFlag为“1”或“0”以外的值并且X被设置为“1”的状态下的视点间参考画面。
[表3]
如果InterViewAvailable=“1”,则顺序地应用下面的操作。
-调用子条款8.4.1.3.2中指定的处理。在这种情况下,作为输入,mbPartIdx被设置为“0”,subMbPartIdx被设置为“0”,currSubMbType被设置为“na”并且listSuffixFlag被设置为“0”。另外,参考索引refIdxCandL0[i]和运动矢量mvCandL0[i]被设置为输出。这里,i具有与相邻分区A、B和C中的每一个相应的值“0”、“1”或“2”。
-调用子条款8.4.1.3.2中指定的处理。在这种情况下,作为输入,mbPartIdx被设置为“0”,subMbPartIdx被设置为“0”,currSubMbType被设置为“na”,并且listSuffixFlag被设置为“1”。另外,参考索引refIdxCandL1[i]和运动矢量mvCandL1[i]被设置为输出。这里,i具有与相邻分区A、B和C中的每一个相应的值“0”、“1”或“2”。
根据下面的操作来确定变量dv。
-根据下面的表4来设置DvAvailable[i]。这里,i具有与相邻分区A、B和C中的每一个相应的值“0”、“1”或“2”。
[表4]
-如果DvAvailable[0]、DvAvailable[1]和DvAvailable[2]中的任何一个等于“1”,
则dv[0]=mvCandLX[i][0]
dv[1]=mvCandLX[i][1]。
-否则,顺序应用下面的操作。
1、变量maxDepth如下面的表5所表示的来设置。
[表5]
2、变量disp如下面的表6所表示的来设置。
[表6]
3、如果DvAvailable[i]等于“0”,则
mvCandLX[i]=disp
4、变量dv的分量被给定分别作为运动矢量的相应矢量分量mvCandLX[0]、mvCandLX[1]和mvCandLX[2]的中值。
dv[0]=Median(mvCandLX[0][0],mvCandLX[1][0],andmvCandLX[2][0])
dv[1]=Median(mvCandLX[0][1],mvCandLX[1][1],andmvCandLX[2][1])
<J.8.3.1.5关于视点间参考中的的视点间运动矢量的推导处理>
在该处理期间,输入包括mbPartIdx、subMbPartIdx和listSuffixFlag。
在该处理期间,输出包括运动矢量mvCorrespond和参考索引refIdxCorrespond。
根据下面的操作来推导出视点间参考画面InterViewPic和偏移矢量dv。
-调用逆宏块扫描处理。在这种情况下,CurrMbAddr被设置为输入,并且(x1,y1)被分配作为输出。
-调用逆宏块分区扫描处理。在这种情况下,mbPartIdx被设置为输入,并且(dx1,dy1)被分配作为输出。
-调用逆子宏块分区扫描处理。在这种情况下,mbPartIdx和subMbPartIdx被设置为输入,并且(dx2,dy2)被分配作为输出。
-调用子条款J.8.3.1.4中指定的处理。在这种情况下,DepthCurrPic、被设置为x1+dx1+dx2的dbx1、被设置为y1+dy1+dy2的dby1以及listSuffixFlag被设置为输入,并且InterViewPic、偏移矢量dv和变量InterViewAvailable被分配作为输出。
refIdxCorrespond和mvCorrespond可被如下设置。
-如果InterViewAvailable等于“0”,则refIdxCorrespond被设置为“-1”并且mvCorrespond[0]和mvCorrespond[1]都被设置为“0”。
-否则,顺序应用下面的操作。
-变量luma4x4BlkIdx被推导为由(4*mbPartIdx+subMbPartIdx)表示。
-调用逆4x4亮度块扫描处理。在这种情况下,luma4x4BlkIdx被设置为输入,并且(x,y)被分配作为输出。另外,(xCorrespond,yCorrespond)被设置为(x+(dv[0]>>4),y+(dv[1]>>4)),并且mbAddrCorrespond被设置为((CurrMbAddr/PicWidthInMbs)+(dv[1]>>6))*PicWidthInMbs+(CurrMbAddr%PicWidthInMbs)+(dv[0]>>6)。
-mbTypeCorrespond被设置为画面InterViewPic内地址为mbAddrCorrespond的宏块的语法元素mb_type。如果mbTypeCorrespond等于P_8x8、P_8x8ref0或B_8x8,则subMbTypeCorrespond被设置为画面InterViewPic内地址为mbAddrCorrespond的宏块的语法元素sub_mb_type。
-mbPartIdxCorrespond被设置为相应分区的宏块分区索引,并且subMbPartIdxCorrespond被设置为子宏块分区的子宏块分区索引。关于宏块分区索引和子宏块分区索引的推导处理被调用。在这种情况下,在mbTypeCorrespond等于P_8x8、P_8x8ref0或B_8x8时等于(xCorrespond,yCorrespond)的亮度位置、等于mbTypeCorrespond的宏块类型以及子宏块类型的列表subMbTypeCorrespond被设置为输入。另外,宏块分区索引mbPartIdxCorrespond和子宏块分区索引subMbPartIdxCorrespond被分配作为输出。
-运动矢量mvCorrespond和参考索引refIdxCorrespond被如下确定。
-当使用帧内预测模式来对宏块mbAddrCorrespond进行编码时,mvCorrespond的分量被设置为“0”,并且refIdxCorrespond的分量被设置为“-1”。
-否则(当未使用帧内预测模式来对宏块mbAddrCorrespond进行编码时),预测使用标记predFlagLXCorrespond被设置为等于PredFlagLX[mbPartIdxCorrespond](画面InterViewPic的宏块分区mbAddrCorrespond\mbPartIdxCorrespond的预测使用标记)。另外,应用下面的处理。
-如果predFlagLXCorrespond等于“1”,则mvCorrespond和参考索引refIdxCorrespond被分别设置为MvLX[mbPartIdxCorrespond][subMbPartIdxCorrespond]和RefIdxLX[mbPartIdxCorrespond]。另外,MvLX[mbPartIdxCorrespond][subMbPartIdxCorrespond]和RefIdxLX[mbPartIdxCorrespond]分别是被分配给画面InterViewPic内的(子)宏块分区mbAddrCorrespond\mbPartIdxCorrespond\subMbPartIdxCorrespond的运动矢量mvLX和参考索引refIdxLX。
<J.8.3.1.6关于包括在B条带中的VSP跳过/直接宏块的亮度运动矢量的推导处理>
该处理的输出包括运动矢量mvL0和mvL1以及参考索引refIdxL0和refIdxL1。
VSP跳过/直接宏块的参考索引refIdxLX被推导为在参考画面列表X中首先出现的合成参考分量。这里,X用“0”或“1”代替。如果在参考画面列表X中不存在合成画面,则refIdxLX被设为0。
运动矢量mvLX被设置为零运动矢量。这里,X用“0”或“1”代替。
<J.8.3.1.7关于亮度运动矢量预测的推导处理>
该处理的输入如下。
-宏块分区索引mbPartIdx,
-子宏块分区索引subMbPartIdx,
-当前分区的参考索引refIdxLX(这里,X=0或1),
-变量currSubMbType。
该处理的输出包括运动矢量mvLX的预测mvpLX(这里,X=0或1)。
下面的内容被应用于子条款J.8.4.1.3。
在N=A、B或C并且X=0或1的条件下,如果refIdxLX不等于refIdxLXN,则应用下面的内容。
mbAddrN\mbPartIdxN\subMbPartIdxN被标记为不可用。
refIdxLXN=-1
mvLXN[0]=0
mvLXN[1]=0
调用关于运动数据的邻近块的推导处理。在这种情况下,mbPartIdx、subMbPartIdx、currSubMbType和listSuffixFlag=X(这里,针对refIdxLX或refIdxL1,X=0或1)被设置为输入。另外,mbAddrN\mbPartIdxN\subMbPartIdxN、参考索引refIdxLXN和运动矢量mvLXN(这里,N用A、B或C代替)被分配作为输出。
-应用下面的其他内容。
-否则,当refIdxLX是视点间参考分量或视点间唯一参考分量的参考索引时,调用关于中值亮度视点间运动矢量预测的基于深度的推导处理。在这种情况下,mbAddrN\mbPartIdxN\subMbPartIdxN、mvLXN、refIdxLXN(这里,N用A、B或C代替)以及refIdxLX被设置为输入,并且运动矢量预测因子mvpLX被分配作为输出。
-否则,当refIdxLX是视点间参考分量或视点间唯一参考分量的参考索引时,调用关于中值亮度时间运动矢量预测的基于深度的推导处理。在这种情况下,mbAddrN\mbPartIdxN\subMbPartIdxN、mvLXN、refIdxLXN(这里,N用A、B或C代替)和refIdxLX被设置为输入,并且运动矢量预测因子mvpLX被分配作为输出。
-否则,如果MbPartWidth(mb_type)等于“8”,MbPartHeight(mb_type)等于“16”,mbPartIdx等于“mvpLX=mvLXCto 1”,并且refIdxLXC等于refIdxLX,则运动矢量预测因子mvpLX被如下推导。
mvpLX=mvLXC
<J.8.3.1.8关于中值亮度视点间运动矢量预测的基于深度的推导处理>
该处理的输入如下。
-相邻分区mbAddrN\mbPartIdxN\subMbPartIdxN(这里,N用A、B或C代替),
-相邻分区的运动矢量mvLXN(这里,N用A、B或C代替),
-相邻分区的参考索引refIdxLXN(这里,N用A、B或C代替),
-当前分区的参考索引refIdxLXN。
该处理的输出为运动矢量预测因子mvpLX。
如果分区mbAddrN\mbPartIdxN\subMbPartIdxN不可用或者如果refIdxLXN不等于refIdxLX,则按照下面的顺序来推导mvLXN。
1.调用逆宏块扫描处理。在这种情况下,CurrMbAddr被设置为输入,并且(x1,y1)被分配作为输出。
2.调用逆宏块分区扫描处理。在这种情况下,mbPartIdx被设置为输入,并且(dx1,dy1)被分配作为输出。
3.调用逆子宏块分区扫描处理。在这种情况下,mbPartIdx和subMbPartIdx被设置为输入,并且(dx2,dy2)被分配作为输出。
4.调用中值亮度运动矢量预测中对视点间运动矢量的修正处理。在这种情况下,depthPic=DepthRefPicList0[refIdxL0]、dbx1=x1+dx1+dx2、dby1=y1+dy1+dy2并且mv=mvL0被设置为输入。另外,运动矢量mvLXN被分配作为输出。
如下,基于运动矢量mvLXA、mvLXB和mvLXC的相应矢量分量的中值来确定运动矢量预测因子mvpLX的每个分量。
mvpLX[0]=Median(mvLXA[0],mvLXB[0],mvLXC[0])
mvpLX[1]=Median(mvLXA[1],mvLXB[1],mvLXC[1])
<8.3.1.8.1中值亮度运动矢量预测中关于视点间运动矢量的修正处理>
该处理的输入如下。
-深度参考视点分量depthPic,
-分区的左上样本的位置(dbx1,dby1),
-运动矢量mv。
该处理的输出为运动矢量mv。
这里,refViewId被假设为depthPic的view_id值。
顺序应用下面的处理。
1.numSamples被假设为partWidth*partHeight。
2.可基于下面的表7来确定变量maxDepth。
[表7]
3.可基于下面的表8来确定变量mv。
[表8]
<J.8.3.1.9关于中值亮度时间运动矢量预测的基于深度的推导处理>
该处理的输入如下。
-相邻分区mbAddrN\mbPartIdxN\subMbPartIdxN(这里,N用A、B或C代替),
-相邻分区的运动矢量mvLXN(这里,N用A、B或C代替),
-相邻分区的参考索引refIdxLXN(这里,N用A、B或C代替),
-当前分区的参考索引refIdxLX。
该处理的输出为运动矢量预测因子mvpLX。
如果分区mbAddrN\mbPartIdxN\subMbPartIdxN不可用,或者如果refIdxLXN不等于refIdxLX,则按照下面的顺序来推导mvLXN。
1.调用逆宏块扫描处理。在这种情况下,CurrMbAddr被设置为输入,并且(x1,y1)被分配作为输出。
2.调用逆宏块分区扫描处理。在这种情况下,mbPartIdx被设置为输入,并且(dx1,dy1)被分配作为输出。
3.调用逆子宏块分区扫描处理。在这种情况下,mbPartIdx和subMbPartIdx被设置为输入,并且(dx2,dy2)被分配作为输出。
4.调用子条款J.8.3.1.10中指定的处理。在这种情况下,设置为DepthCurrPic的depthPic、设置为x1+dx1+dx2的dbx1、设置为y1+dy1+dy2的dby1以及listSuffixFlag被设置为输入。另外,InterViewPic、偏移矢量dv和变量InterViewAvailable被分配作为输出。
5.refIdxCorrespond和mvCorrespond被如下设置。
-如果InterViewAvailable等于0d,则refIdxCorrespond被设置为“-1”,并且mvCorrespond[0]和mvCorrespond[1]都被设置为“0”。
-否则,顺序应用下面的处理。
-变量luma4x4BlkIdx被推导为(4*mbPartIdx+subMbPartIdx)。
-调用逆4x4亮度块扫描处理。在这种情况下,luma4x4BlkIdx被设置为输入,并且(x,y)被分配作为输出。另外,(xCorrespond,yCorrespond)被设置为(x+(dv[0]>>4),y+(dv[1]>>4)),并且mbAddrCorrespond被设置为((CurrMbAddr/PicWidthInMbs)+(dv[1]>>6))*PicWidthInMbs+(CurrMbAddr%PicWidthInMbs)+(dv[0]>>6)。
-mbTypeCorrespond被设置为画面InterViewPic内地址为mbAddrCorrespond的宏块的语法元素mb_type。如果mbTypeCorrespond等于P_8x8、P_8x8ref0或B_8x8,则subMbTypeCorrespond被设置为画面InterViewPic内地址为mbAddrCorrespond的宏块的语法元素sub_mb_type。
-mbPartIdxCorrespond被设置为相应分区的宏块分区索引,并且subMbPartIdxCorrespond被设置为相应子宏块分区的子宏块分区索引。调用关于宏块和子宏块分区索引的推导处理。在这种情况下,当mbTypeCorrespond等于P_8x8、P_8x8ref0或B_8x8时等于(xCorrespond,yCorrespond)的亮度位置,等于mbTypeCorrespond的宏块类型以及子宏块类型的列表subMbTypeCorrespond被设置为输入。另外,宏块分区索引mbPartIdxCorrespond和子宏块分区索引subMbPartIdxCorrespond被分配作为输出。
-运动矢量mvCorrespond和参考索引refIdxCorrespond被如下确定。
-当使用帧内预测模式对宏块mbAddrCorrespond进行编码时,mvCorrespond的分量被设置为“0”并且refIdxCorrespond的分量被设置为“-1”。
-否则(如果未使用帧内预测模式对宏块mbAddrCorrespond进行编码),预测使用标记predFlagLXCorrespond被设置为等于PredFlagLX[mbPartIdxCorrespond](画面InterViewPic的宏块分区mbAddrCorrespond\mbPartIdxCorrespond的预测使用标记)。另外,应用下面的处理。
-如果predFlagLXCorrespond等于“1”,则mvCorrespond和参考索引refIdxCorrespond被分别设置为MvLX[mbPartIdxCorrespond][subMbPartIdxCorrespond]和RefIdxLX[mbPartIdxCorrespond]。这里,MvLX[mbPartIdxCorrespond][subMbPartIdxCorrespond]和RefIdxLX[mbPartIdxCorrespond]分别是分配给画面InterViewPic内的(子)宏块分区mbAddrCorrespond\mbPartIdxCorrespond\subMbPartIdxCorrespond的运动矢量mvLX和参考索引refIdxLX。
6.根据下面的表9来推导运动矢量mvLXN。
[表9]
基于运动矢量mvLXA、mvLXB和mvLXC的相应矢量分量的中值来确定运动矢量预测因子mvpLX的每个分量。
mvpLX[0]=Median(mvLXA[0],mvLXB[0],mvLXC[0])
mvpLX[1]=Median(mvLXA[1],mvLXB[1],mvLXC[1])
<J.8.3.1.10关于视点间参考和视差矢量的推导处理>
该处理的输入包括深度参考视点分量depthPic、分区的左上样本的位置(dbx1,dby1)以及listSuffixFlag。
该处理的输出包括画面InterViewPic、偏移矢量dv以及变量InterViewAvailable。
InterViewAvailable被设置为“0”。
应用下面的表10来推导视点间参考画面或视点间唯一参考画面以及InterViewPic。在这种情况下,当listFuffixFlag为“1”或“0”以外的值时,X被设置为“1”。
[表10]
如果InterViewAvailable=1,则顺序应用下面的操作。
1)变量maxDepth如下面的表11所表示的来指定。
[表11]
2)变量dv如下面的表12所表示的来指定。
[表12]
图14是示出根据实施例的用于预测当前块的视差矢量的图像处理方法的流程图。
在操作1410,图像处理设备可识别与彩色图像的当前块相应的深度图像。当与彩色图像相应的深度图像不存在时,图像处理设备可使用包括当前块的彩色图像的相邻彩色图像或另一深度图像来估计与当前块相应的深度图像。
在操作1420,图像处理设备可基于包括在深度图像中的像素的深度值来确定当前块的视差矢量。图像处理设备可基于与当前块相应的深度图像的深度信息来确定当前块的视差矢量。图像处理设备可识别包括在深度图像中的像素之中的至少一个像素,并可将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量。
例如,图像处理设备可基于与当前块相应的深度图像的相应块中包括的像素的深度值来确定当前块的视差矢量。图像处理设备可将包括在深度图像的相应块中的一个或更多个像素的深度值之中的最大深度值转换为视差矢量。可选地,图像处理设备可从包括在深度图像的相应块中的多个像素之中,识别位于深度图像内的预定区域中的像素的深度值。例如,图像处理设备可识别位于相应块的拐角处的像素的深度值,或者可识别位于相应块的拐角处的像素的深度值和位于相应块的中心处的像素的深度值。图像处理设备可将位于预定区域中的像素的深度值之中的最大深度值转换为视差矢量。图像处理设备可将转换出的视差矢量确定为当前块的视差矢量。
图像处理设备可基于深度图像的包括相应块的宏块来确定当前块的视差矢量。例如,图像处理设备可将包括在宏块中的像素的深度值之中的最大深度值转换为当前块的视差矢量,或者可将包括在宏块中的预定像素的深度值之中的最大深度值转换为当前块的视差矢量。另外,图像处理设备可仅使用与当前块相应的深度图像内的预定像素。例如,图像处理设备可将包括在与当前块相应的深度图像中的预定单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为当前块的视差矢量。可选地,图像处理设备可将相应块或宏块内的预定单个像素的深度值转换为当前块的视差矢量。
图像处理设备可在将深度值转换为视差矢量的处理期间使用相机参数信息。
图15是示出根据实施例的用于预测当前块的运动矢量的图像处理方法的流程图。
在操作1510,图像处理设备可识别与彩色图像的当前块邻近的邻近块的视差矢量,并可确定在邻近块中是否存在视差矢量。
在操作1520,当邻近块不具有视差矢量时,图像处理设备可使用与彩色图像相应的深度图像来确定邻近块的视差矢量。
图像处理设备可识别包括在与当前块相应的深度图像中的像素之中的至少一个像素。图像处理设备可将识别出的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。图像处理设备可仅使用包括在深度图像中的部分像素,并可将所述部分像素的深度值之中的最大深度值转换为邻近块的视差矢量。例如,图像处理设备可将包括在与当前块相应的深度图像中的预定单个像素的深度值转换为视差矢量。
图像处理设备可将与当前块相应的深度图像的相应块中包括的一个或更多个像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。可选地,图像处理设备可从与当前块相应的深度图像的相应块中包括的多个像素之中识别位于预定区域中的像素的深度值。例如,图像处理设备可识别位于相应块的拐角处的像素的深度值,或者可识别位于相应块的拐角处的像素的深度值和位于相应块的中心处的像素的深度值。图像处理设备可将位于预定区域中的像素的深度值之中的最大深度值转换为视差矢量。图像处理设备可将转换出的视差矢量确定为邻近块的视差矢量。
图像处理设备可基于深度图像的包括相应块的宏块来确定邻近块的视差矢量。例如,图像处理设备可将包括在宏块中的像素的深度值之中的最大深度值转换为邻近块的视差矢量,或者可将包括在宏块中的预定像素的深度值之中的最大深度值转换为邻近块的视差矢量。
在操作1530,图像处理设备可基于邻近块的视差矢量来确定当前块的视差矢量。例如,图像处理设备可对邻近块的视差矢量应用中值滤波,并可将中值滤波的结果确定为当前块的视差矢量。
在操作1540,图像处理设备可使用当前块的视差矢量来确定当前块的运动矢量。图像处理设备可使用当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置,并可将识别出的位置处的运动矢量确定为当前块的运动矢量。
图像处理设备可使用确定的当前块的视差矢量来识别在包括当前块的彩色图像的相邻彩色图像中的一位置。图像处理设备可将识别出的位置处的运动矢量确定为当前块的运动矢量。当在识别出的位置处不存在运动矢量时,图像处理设备可使用与当前块邻近的邻近块来确定当前块的运动矢量。图像处理设备可基于邻近块的运动矢量和视差矢量中的至少一个来确定当前块的运动矢量。
图16是示出根据另一实施例的用于预测当前块的运动矢量的图像处理方法的流程图。
在操作1610,图像处理设备可使用与彩色图像的当前块邻近的邻近块的视差矢量来确定当前块的视差矢量。图像处理设备可确定在邻近块中是否存在视差矢量,并可在邻近块不具有视差矢量时,使用与彩色图像相应的深度图像来确定邻近块的视差矢量。
当邻近块不具有视差矢量时,图像处理设备可识别与彩色图像的当前块相应的深度图像。图像处理设备可基于包括在深度图像中的至少一个像素的深度值来确定邻近块的视差矢量。
例如,图像处理设备可将宏块或与当前块相应的深度图像的相应块中包括的一个或更多个像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。
可选地,图像处理设备可仅使用包括在深度图像的相应块或宏块中的部分像素,并可将所述部分像素的深度值之中的最大深度值转换为邻近块的视差矢量。例如,图像处理设备可将位于宏块或与当前块相应的深度图像的相应块的预定区域中的像素的深度值之中的最大深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。
另外,图像处理设备可仅使用与当前块相应的深度图像内的预定像素。例如,图像处理设备可将包括在与当前块相应的深度图像中的单个像素的深度值转换为视差矢量,并可将转换出的视差矢量确定为邻近块的视差矢量。
图像处理设备可基于邻近块的视差矢量来确定当前块的视差矢量。例如,图像处理设备可通过对邻近块的视差矢量应用中值滤波来确定当前块的视差矢量。
在操作1620,图像处理设备可使用当前块的视差矢量来确定当前块的运动矢量。图像处理设备可使用当前块的视差矢量来识别在包括当前块的彩色图像的相邻彩色图像中的一位置。图像处理设备可将识别出的位置处的运动矢量确定为当前块的运动矢量。当在识别出的位置处不存在运动矢量时,图像处理设备可基于与当前块邻近的邻近块的运动矢量和视差矢量中的至少一个来确定当前块的运动矢量。当即使使用邻近块的运动矢量或视差矢量也不能确定当前块的运动矢量时,图像处理设备可将零运动矢量确定为当前块的运动矢量。
图17是示出根据另一实施例的用于预测当前块的运动矢量的图像处理方法的流程图。
在操作1710,图像处理设备可识别与彩色图像的当前块邻近的邻近块的运动矢量。图像处理设备可确定在邻近块中是否存在运动矢量。
在操作1720,当邻近块不具有运动矢量时,图像处理设备可使用与彩色图像相应的深度图像来确定邻近块的运动矢量。
为了确定邻近块的运动矢量,图像处理设备可使用深度图像来获取视差矢量。例如,图像处理设备可识别包括在与当前块相应的深度图像中的至少一个像素,并可将识别出的像素的深度值之中的最大深度值转换为视差矢量。可选地,为了确定邻近块的运动矢量,图像处理设备可仅使用与当前彩色图像相应的深度图像内的预定像素。
图像处理设备可基于深度图像的包括相应块的宏块来确定邻近块的运动矢量。例如,图像处理设备可将包括相应块的宏块中包括的预定像素的深度值之中的最大深度值转换为邻近块的视差矢量,并可使用转换出的视差矢量来估计邻近块的运动矢量。
图像处理设备可基于视差矢量来识别由视差矢量指示的位置。图像处理设备可将识别出的位置处的运动矢量确定为邻近块的运动矢量。当在识别出的位置处不存在运动矢量时,图像处理设备可将零运动矢量确定为邻近块的运动矢量。
在操作1730,图像处理设备可基于邻近块的运动矢量来确定当前块的运动矢量。例如,图像处理设备可通过对邻近块的运动矢量应用中值滤波来确定当前块的运动矢量。
上述实施例可被记录在包括用于实现由计算机实施的各种操作的程序指令的非暂时性计算机可读介质中。所述介质还可单独或组合地包括程序指令、数据文件、数据结构等。记录在所述介质上的程序指令可以是为示例实施例的目的专门设计和构建的程序指令,或者它们可以是对于计算机软件领域中的技术人员是公知且可用的程序指令。非暂时性计算机可读介质的示例包括磁介质(诸如,硬盘、软盘和磁带)、光学介质(诸如,CD ROM盘和DVD)、磁光介质(诸如,光盘)以及专门配置用于存储和执行程序指令的硬件装置(诸如,只读存储器(ROM)、随机存取存储器(RAM)、闪存等)。非暂时性计算机可读介质还可以是分布式网络,使得程序指令以分布式方式被存储和运行。可由一个或更多个处理器来运行程序指令。非暂时性计算机可读介质还可实现在运行(像处理器一样处理)程序指令的至少一个专用集成电路(ASIC)或现场可编程门阵列(FPGA)中。程序指令的示例包括机器代码(诸如由编译器产生的机器代码)和包含可由计算机使用解释器运行的更高级代码的文件两者。上述装置可被配置为充当一个或更多个软件模块,以便执行上述示例实施例的操作,或者反之亦然。
尽管已经示出并描述了示例实施例,但本领域中的技术人员将理解,在不脱离本公开的原理和精神的情况下,可对这些示例实施例进行改变,其中,本公开的范围由权利要求和它们的等同物限定。
Claims (51)
1.一种图像处理方法,包括:
识别与彩色图像的当前块相应的深度图像;
基于包括在所述深度图像中的像素的深度值来确定当前块的视差矢量。
2.如权利要求1所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:
识别与当前块相应的深度图像中包括的像素之中的至少一个像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为当前块的视差矢量。
3.如权利要求1所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:
识别与当前块相应的深度图像的相应块中包括的像素之中的至少一个像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为当前块的视差矢量。
4.如权利要求1所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:
识别位于与当前块相应的深度图像内的预定区域中的像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为当前块的视差矢量。
5.如权利要求1所述的图像处理方法,其中,识别位于所述预定区域中的像素的步骤包括:识别位于与当前块相应的宏块内的拐角处的像素。
6.如权利要求1所述的图像处理方法,其中,识别位于所述预定区域中的像素的步骤包括:识别位于与当前块相应的宏块内的拐角处和位于相应块的中心处的像素。
7.如权利要求1所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:
识别与当前块相应的深度图像的宏块中包括的像素之中的至少一个像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为当前块的视差矢量,
其中,所述宏块是与当前块相应的深度图像的包括相应块的深度图像块。
8.如权利要求1所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:使用用于捕获所述深度图像的相机的参数来确定当前块的视差矢量。
9.一种图像处理方法,包括:
识别与彩色图像的当前块邻近的至少一个邻近块的视差矢量;
当邻近块不具有视差矢量时,使用与彩色图像相应的深度图像来确定邻近块的视差矢量;
基于所述至少一个邻近块的视差矢量来确定当前块的视差矢量。
10.如权利要求9所述的图像处理方法,其中,确定邻近块的视差矢量的步骤包括:
识别与当前块相应的深度图像中包括的至少一个像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为邻近块的视差矢量。
11.如权利要求9所述的图像处理方法,其中,确定邻近块的视差矢量的步骤包括:
识别与当前块相应的深度图像的相应块中包括的像素之中的至少一个像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为邻近块的视差矢量。
12.如权利要求9所述的图像处理方法,其中,确定邻近块的视差矢量的步骤包括:
识别位于与当前块相应的深度图像内的预定区域中的像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为邻近块的视差矢量。
13.如权利要求9所述的图像处理方法,其中,确定邻近块的视差矢量的步骤包括:
识别与当前块相应的深度图像的宏块中包括的像素之中的至少一个像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为邻近块的视差矢量,
所述宏块是与当前块相应的深度图像的包括相应块的深度图像块。
14.如权利要求9所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:通过对所述至少一个邻近块的视差矢量应用中值滤波来确定当前块的视差矢量。
15.如权利要求9所述的图像处理方法,还包括:
使用确定的当前块的视差矢量来确定当前块的运动矢量。
16.如权利要求15所述的图像处理方法,其中,确定当前块的运动矢量的步骤包括:
使用确定的当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置;
将识别出的位置处的运动矢量确定为当前块的运动矢量。
17.如权利要求15所述的图像处理方法,其中,确定当前块的运动矢量的步骤包括:
使用确定的当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置;
当在识别出的位置处不存在运动矢量时,基于与当前块邻近的邻近块的视差矢量和运动矢量中的至少一个来确定当前块的运动矢量。
18.一种图像处理方法,包括:
使用与彩色图像的当前块邻近的至少一个邻近块的视差矢量来确定彩色图像的当前块的视差矢量;
使用确定的当前块的视差矢量来确定当前块的运动矢量。
19.如权利要求18所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:通过对所述至少一个邻近块的视差矢量应用中值滤波来确定当前块的视差矢量。
20.如权利要求18所述的图像处理方法,其中,确定当前块的视差矢量的步骤包括:
当邻近块不具有视差矢量时,识别与彩色图像的当前块相应的深度图像中包括的像素之中的至少一个像素;
基于识别出的像素的深度值来确定邻近块的视差矢量;
基于确定的邻近块的视差矢量来确定当前块的视差矢量。
21.如权利要求20所述的图像处理方法,其中,确定邻近块的视差矢量的步骤包括:将与当前块相应的深度图像的宏块中包括的一个或更多个像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为邻近块的视差矢量,
所述宏块是与当前块相应的深度图像的包括相应块的深度图像块。
22.如权利要求20所述的图像处理方法,其中,确定邻近块的视差矢量的步骤包括:
识别位于与当前块相应的深度图像的宏块内的预定区域中的像素;
将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为邻近块的视差矢量。
23.如权利要求18所述的图像处理方法,其中,确定当前块的运动矢量的步骤包括:
使用确定的当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置;
将识别出的位置处的运动矢量确定为当前块的运动矢量。
24.如权利要求18所述的图像处理方法,其中,确定当前块的运动矢量的步骤包括:
使用确定的当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置;
当在识别出的位置处不存在运动矢量时,基于与当前块邻近的邻近块的视差矢量和运动矢量中的至少一个来确定当前块的运动矢量。
25.一种图像处理方法,包括:
识别与彩色图像的当前块邻近的至少一个邻近块的运动矢量;
当邻近块不具有运动矢量时,使用与彩色图像相应的深度图像来确定邻近块的运动矢量;
基于所述至少一个邻近块的运动矢量来确定当前块的运动矢量。
26.如权利要求25所述的图像处理方法,其中,确定邻近块的运动矢量的步骤包括:
识别所述深度图像中包括的像素之中的至少一个像素,并将识别出的像素的深度值之中的最大深度值转换为视差矢量;
基于转换出的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置;
将识别出的位置处的运动矢量确定为邻近块的运动矢量。
27.如权利要求26所述的图像处理方法,其中,确定邻近块的运动矢量的步骤包括:当在识别出的位置处不存在运动矢量时,将零运动矢量确定为邻近块的运动矢量。
28.如权利要求25所述的图像处理方法,其中,确定邻近块的运动矢量的步骤包括:
识别所述深度图像的宏块中包括的像素之中的至少一个像素,并将识别出的像素的深度值之中的最大深度值转换为视差矢量;
使用转换出的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置;
将识别出的位置处的运动矢量确定为邻近块的运动矢量。
29.如权利要求25所述的图像处理方法,其中,确定当前块的运动矢量的步骤包括:通过对所述至少一个邻近块的运动矢量应用中值滤波来确定当前块的运动矢量。
30.一种非暂时性计算机可读介质,其中,所述介质存储用于实现根据权利要求1所述的方法的程序。
31.一种图像处理设备,包括:
深度图像识别器,被配置为识别与彩色图像的当前块相应的深度图像;
视差矢量确定器,被配置为基于包括在所述深度图像中的像素的深度值来确定当前块的视差矢量。
32.如权利要求31所述的图像处理设备,其中,视差矢量确定器被配置为:识别所述深度图像中包括的像素之中的至少一个像素,并将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量。
33.如权利要求31所述的图像处理设备,其中,当与当前块邻近的邻近块不具有视差矢量时,视差矢量确定器被配置为:将与当前块相应的深度图像的宏块中包括的像素的深度值之中的最大深度值转换为邻近块的视差矢量,并使用转换出的邻近块的视差矢量和中值滤波来确定当前块的视差矢量。
34.如权利要求31所述的图像处理设备,其中,视差矢量确定器被配置为:识别与当前块相应的深度图像的相应块中包括的像素之中的至少一个像素,并将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量。
35.如权利要求31所述的图像处理设备,其中,视差矢量确定器被配置为:识别位于与当前块相应的深度图像内的预定区域中的像素,并将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量。
36.如权利要求31所述的图像处理设备,其中,视差矢量确定器被配置为:识别与当前块相应的深度图像的宏块中包括的像素之中的至少一个像素,并将识别出的像素的深度值之中的最大深度值转换为当前块的视差矢量,
所述宏块是与当前块相应的深度图像的包括相应块的深度图像块。
37.一种图像处理设备,包括:
视差矢量提取器,被配置为提取与彩色图像的当前块邻近的至少一个邻近块的视差矢量;
视差矢量确定器,被配置为基于所述至少一个邻近块的视差矢量来确定当前块的视差矢量。
38.如权利要求37所述的图像处理设备,其中,当邻近块不具有视差矢量时,视差矢量提取器被配置为使用与彩色图像相应的深度图像来确定邻近块的视差矢量。
39.如权利要求37所述的图像处理设备,其中,当邻近块不具有视差矢量时,视差矢量提取器被配置为:识别与彩色图像相应的深度图像中包括的像素之中的至少一个像素,并将识别出的像素的深度值之中的最大深度值转换为邻近块的视差矢量。
40.如权利要求37所述的图像处理设备,还包括:
运动矢量确定器,被配置为使用确定的当前块的视差矢量来确定当前块的运动矢量。
41.如权利要求40所述的图像处理设备,其中,运动矢量确定器被配置为:使用确定的当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置,并将识别出的位置处的运动矢量确定为当前块的运动矢量。
42.如权利要求40所述的图像处理设备,其中,运动矢量确定器被配置为:使用确定的当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置,并在识别出的位置处不存在运动矢量时,基于与当前块邻近的邻近块的视差矢量和运动矢量中的至少一个来确定当前块的运动矢量。
43.一种图像处理设备,包括:
视差矢量确定器,被配置为使用与彩色图像的当前块邻近的至少一个邻近块的视差矢量来确定彩色图像的当前块的视差矢量;
运动矢量确定器,被配置为使用确定的当前块的视差矢量来确定当前块的运动矢量。
44.如权利要求43所述的图像处理设备,其中,当邻近块不具有视差矢量时,视差矢量确定器被配置为:识别与彩色图像相应的深度图像中包括的至少一个像素,并基于识别出的像素的深度值来确定当前块的视差矢量。
45.如权利要求44所述的图像处理设备,其中,视差矢量确定器被配置为:将识别出的像素的深度值之中的最大深度值转换为邻近块的视差矢量,并使用转换出的邻近块的视差矢量来确定当前块的视差矢量。
46.如权利要求43所述的图像处理设备,其中,运动矢量确定器被配置为:使用确定的当前块的视差矢量来识别包括当前块的彩色图像的相邻彩色图像中的一位置,并将识别出的位置处的运动矢量确定为当前块的运动矢量。
47.一种图像处理设备,包括:
运动矢量提取器,被配置为提取与彩色图像的当前块邻近的至少一个邻近块的运动矢量;
运动矢量确定器,被配置为基于所述至少一个邻近块的运动矢量来确定当前块的运动矢量。
48.如权利要求47所述的图像处理设备,其中,当邻近块不具有运动矢量时,运动矢量提取器被配置为使用与彩色图像相应的深度图像来确定邻近块的运动矢量。
49.如权利要求48所述的图像处理设备,其中,运动矢量提取器被配置为:识别所述深度图像中包括的至少一个像素,将识别出的像素的深度值之中的最大深度值转换为视差矢量,并使用转换出的视差矢量来从彩色图像的相邻彩色图像估计邻近块的运动矢量。
50.一种用于确定包括在彩色图像中的当前块的视差矢量的图像处理设备,其中,所述图像处理设备被配置为使用与彩色图像相应的深度图像的深度信息来确定当前块的视差矢量,
确定的视差矢量是基于包括在与当前块相应的深度图像中的至少一个像素的深度值而被确定的。
51.如权利要求50所述的图像处理设备,其中,所述图像处理设备被配置为:识别所述深度图像中包括的像素之中的至少一个像素,将识别出的像素的深度值之中的最大深度值转换为视差矢量,并将转换出的视差矢量确定为当前块的视差矢量。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261707524P | 2012-09-28 | 2012-09-28 | |
US61/707,524 | 2012-09-28 | ||
US201261746272P | 2012-12-27 | 2012-12-27 | |
US61/746,272 | 2012-12-27 | ||
KR1020130112962A KR102137266B1 (ko) | 2012-09-28 | 2013-09-24 | 움직임 벡터와 변이 벡터를 예측하는 영상 처리 방법 및 장치 |
KR10-2013-0112962 | 2013-09-24 | ||
PCT/KR2013/008563 WO2014051320A1 (ko) | 2012-09-28 | 2013-09-25 | 움직임 벡터와 변이 벡터를 예측하는 영상 처리 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104704832A true CN104704832A (zh) | 2015-06-10 |
CN104704832B CN104704832B (zh) | 2018-07-20 |
Family
ID=50651866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380051109.1A Expired - Fee Related CN104704832B (zh) | 2012-09-28 | 2013-09-25 | 用于预测运动矢量和视差矢量的图像处理方法和设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150245049A1 (zh) |
KR (1) | KR102137266B1 (zh) |
CN (1) | CN104704832B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114172162A (zh) * | 2020-09-11 | 2022-03-11 | 无锡军工智能电气股份有限公司 | 一种级联U-Cell STATCOM邻近矢量寻优预测控制方法 |
CN114172162B (zh) * | 2020-09-11 | 2024-10-01 | 无锡军工智能电气股份有限公司 | 一种级联U-Cell STATCOM邻近矢量寻优预测控制方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014106496A1 (en) * | 2013-01-07 | 2014-07-10 | Mediatek Inc. | Method and apparatus of depth to disparity vector conversion for three-dimensional video coding |
US10158876B2 (en) * | 2013-04-10 | 2018-12-18 | Qualcomm Incorporated | Backward view synthesis prediction |
US10009621B2 (en) * | 2013-05-31 | 2018-06-26 | Qualcomm Incorporated | Advanced depth inter coding based on disparity of depth blocks |
US9288507B2 (en) * | 2013-06-21 | 2016-03-15 | Qualcomm Incorporated | More accurate advanced residual prediction (ARP) for texture coding |
KR102156410B1 (ko) * | 2014-04-14 | 2020-09-15 | 삼성전자주식회사 | 오브젝트 움직임을 고려한 영상 처리 장치 및 방법 |
US10630992B2 (en) | 2016-01-08 | 2020-04-21 | Samsung Electronics Co., Ltd. | Method, application processor, and mobile terminal for processing reference image |
RU2735241C1 (ru) * | 2017-04-21 | 2020-10-29 | Зенимакс Медиа Инк. | Системы и способы для векторов движения, генерируемых во время игры |
KR102178952B1 (ko) * | 2018-11-28 | 2020-11-13 | 이노뎁 주식회사 | 압축영상에 대한 신택스 기반의 mrpn-cnn을 이용한 객체 분류 방법 |
US11418766B2 (en) | 2019-12-17 | 2022-08-16 | Samsung Electronics Co., Ltd. | Apparatus and method for chroma processing for multi-frame fusion |
KR102297479B1 (ko) * | 2020-04-10 | 2021-09-03 | 삼성전자주식회사 | 움직임 벡터의 부호화 장치 및 방법, 및 움직임 벡터의 복호화 장치 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1767655A (zh) * | 2005-10-18 | 2006-05-03 | 宁波大学 | 一种多视点视频图像视差估计的方法 |
WO2009131688A2 (en) * | 2008-04-25 | 2009-10-29 | Thomson Licensing | Inter-view skip modes with depth |
CN101690220A (zh) * | 2007-04-25 | 2010-03-31 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
US20100142815A1 (en) * | 2008-12-04 | 2010-06-10 | Samsung Electronics Co., Ltd. | Method and apparatus for correcting depth image |
CN102170567A (zh) * | 2010-06-22 | 2011-08-31 | 上海盈方微电子有限公司 | 一种基于预测运动矢量搜索的自适应运动估计算法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007110000A1 (en) * | 2006-03-29 | 2007-10-04 | Huawei Technologies Co., Ltd. | A method and device of obtaining disparity vector and its multi-view encoding-decoding |
EP2393301A1 (en) * | 2007-06-11 | 2011-12-07 | Samsung Electronics Co., Ltd. | Method and apparatus for generating header information of stereoscopic image |
JP5238767B2 (ja) * | 2010-07-26 | 2013-07-17 | 株式会社東芝 | 視差画像生成方法及び装置 |
KR101747434B1 (ko) * | 2011-01-20 | 2017-06-16 | 연세대학교 산학협력단 | 움직임 정보 및 변이 정보를 부호화/복호화하는 영상 처리 장치 및 방법 |
WO2013053309A1 (en) * | 2011-10-11 | 2013-04-18 | Mediatek Inc. | Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc |
US20130271567A1 (en) * | 2012-04-16 | 2013-10-17 | Samsung Electronics Co., Ltd. | Image processing method and apparatus for predicting motion vector and disparity vector |
CN104380744B (zh) * | 2012-06-19 | 2018-05-04 | Lg电子株式会社 | 处理视频信号的方法和设备 |
CN104429074B (zh) * | 2012-06-28 | 2018-11-30 | 寰发股份有限公司 | 3d视频编码中视差矢量导出的方法和装置 |
WO2014103966A1 (ja) * | 2012-12-27 | 2014-07-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム |
US9762905B2 (en) * | 2013-03-22 | 2017-09-12 | Qualcomm Incorporated | Disparity vector refinement in video coding |
EP2932720A4 (en) * | 2013-04-10 | 2016-07-27 | Mediatek Inc | METHOD AND APPARATUS FOR DIVIDING VECTOR DIVIDER FOR THREE-DIMENSIONAL AND MULTI-VIEW VIDEO CODING |
US9288507B2 (en) * | 2013-06-21 | 2016-03-15 | Qualcomm Incorporated | More accurate advanced residual prediction (ARP) for texture coding |
WO2015005750A1 (ko) * | 2013-07-12 | 2015-01-15 | 삼성전자 주식회사 | 변이 벡터 유도를 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
-
2013
- 2013-09-24 KR KR1020130112962A patent/KR102137266B1/ko active IP Right Grant
- 2013-09-25 CN CN201380051109.1A patent/CN104704832B/zh not_active Expired - Fee Related
- 2013-09-25 US US14/432,410 patent/US20150245049A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1767655A (zh) * | 2005-10-18 | 2006-05-03 | 宁波大学 | 一种多视点视频图像视差估计的方法 |
CN101690220A (zh) * | 2007-04-25 | 2010-03-31 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
WO2009131688A2 (en) * | 2008-04-25 | 2009-10-29 | Thomson Licensing | Inter-view skip modes with depth |
US20100142815A1 (en) * | 2008-12-04 | 2010-06-10 | Samsung Electronics Co., Ltd. | Method and apparatus for correcting depth image |
CN102170567A (zh) * | 2010-06-22 | 2011-08-31 | 上海盈方微电子有限公司 | 一种基于预测运动矢量搜索的自适应运动估计算法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114172162A (zh) * | 2020-09-11 | 2022-03-11 | 无锡军工智能电气股份有限公司 | 一种级联U-Cell STATCOM邻近矢量寻优预测控制方法 |
CN114172162B (zh) * | 2020-09-11 | 2024-10-01 | 无锡军工智能电气股份有限公司 | 一种级联U-Cell STATCOM邻近矢量寻优预测控制方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20140043032A (ko) | 2014-04-08 |
KR102137266B1 (ko) | 2020-07-23 |
CN104704832B (zh) | 2018-07-20 |
US20150245049A1 (en) | 2015-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104704832A (zh) | 用于预测运动矢量和视差矢量的图像处理方法和设备 | |
US9066096B2 (en) | Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs | |
KR101753171B1 (ko) | 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법 | |
US10397613B2 (en) | Method for deriving a motion vector | |
CN112005551B (zh) | 一种视频图像预测方法及装置 | |
KR20150109282A (ko) | 다시점 비디오 신호 처리 방법 및 장치 | |
US20150172714A1 (en) | METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING | |
TW201340724A (zh) | 視訊寫碼中之像差向量預測 | |
CN104995916B (zh) | 视频数据解码方法和视频数据解码设备 | |
CA2891723C (en) | Method and apparatus of constrained disparity vector derivation in 3d video coding | |
JP2014533056A5 (zh) | ||
CN104412597A (zh) | 用于3d视频编码的统一视差矢量推导的方法及装置 | |
CN114175636A (zh) | 自适应参数集中的自适应环路滤波的指示 | |
CN111698515B (zh) | 帧间预测的方法及相关装置 | |
CN113966616A (zh) | 使用临近块信息的运动候选列表构建 | |
KR102572012B1 (ko) | 시점 간 움직임 병합 후보 유도 방법 및 장치 | |
CN102801995A (zh) | 一种基于模板匹配的多视点视频运动和视差矢量预测方法 | |
CN113366831B (zh) | 重叠块运动补偿和其他工具之间的协调 | |
US9900620B2 (en) | Apparatus and method for coding/decoding multi-view image | |
CN116248891A (zh) | 帧间预测的方法及相关装置 | |
CN105812819B (zh) | 执行混成多重假设移动补偿预测的方法以及装置 | |
Lee et al. | Adaptive fractional motion and disparity estimation skipping in MV-HEVC | |
KR20130116777A (ko) | 움직임 벡터와 변이 벡터를 예측하는 영상 처리 방법 및 장치 | |
KR20200062639A (ko) | 병합 모드를 사용하는 비디오 코딩 방법 및 장치 | |
KR20140072939A (ko) | 다시점 잔차 신호 예측 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180720 Termination date: 20210925 |
|
CF01 | Termination of patent right due to non-payment of annual fee |