CN105532004A - 用于对视频进行层间编码和解码的设备和方法的基于块来预测视差矢量的方法 - Google Patents

用于对视频进行层间编码和解码的设备和方法的基于块来预测视差矢量的方法 Download PDF

Info

Publication number
CN105532004A
CN105532004A CN201480050586.0A CN201480050586A CN105532004A CN 105532004 A CN105532004 A CN 105532004A CN 201480050586 A CN201480050586 A CN 201480050586A CN 105532004 A CN105532004 A CN 105532004A
Authority
CN
China
Prior art keywords
difference vector
layer
block candidate
coding unit
contiguous block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480050586.0A
Other languages
English (en)
Other versions
CN105532004B (zh
Inventor
朴慜佑
李振荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105532004A publication Critical patent/CN105532004A/zh
Application granted granted Critical
Publication of CN105532004B publication Critical patent/CN105532004B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一种根据各种实施例的用于对视频进行层间解码的方法可包括以下步骤:在位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选;将搜索的邻近块候选之中的沿层间方向的运动矢量预测为当前块的视差矢量;当具有沿层间方向的运动矢量的邻近块未被搜索到时,在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选;通过使用搜索到的邻近块候选的视差矢量信息来预测当前块的视差矢量。

Description

用于对视频进行层间编码和解码的设备和方法的基于块来预测视差矢量的方法
技术领域
本发明构思涉及层间视频编码和解码方法,更具体地讲,涉及一种针对层间视频编码和解码方法的基于块来确定视差矢量的方法。
背景技术
随着用于再现和存储高分辨率或高质量视频内容的硬件的开发和提供,对于用于有效地对高分辨率或高质量视频内容进行编码或解码的视频编解码器的需求正在增加。根据传统的视频编解码器,基于具有预定尺寸的宏块,根据受限的编码方法来对视频进行编码。
空间域的图像数据经由频率变换被变换为频域的系数。根据视频编解码器,将图像划分为预定尺寸的块,对每个块执行离散余弦变换(DCT),并以块为单位对频率系数进行编码,以进行频率变换的快速计算。与空间域的图像数据相比,频域的系数容易被压缩。具体地,由于根据经由视频编解码器的帧间预测或帧内预测的预测误差来表示空间域的图像像素值,因此当对预测误差执行频率变换时,大量数据可被变换为0。根据视频编解码器,可通过使用小量数据来代替连续并重复产生的数据,来减少数据量。
多层视频编解码器对第一层视频和至少一个第二层视频进行编码和解码。通过去除第一层视频和第二层视频的时间/空间冗余以及层冗余,可减少第一层视频和第二层视频的数据量。
发明内容
技术问题
同时,一种用于对图像进行编码和解码的预测视差矢量的方法可包括一种通过使用邻近块候选来预测当前块的视差矢量的方法。然而,当搜索邻近块以确定邻近块候选时,当前块与邻近块之间的距离未被考虑。因此,远的邻近块可能具有搜索优先级。在这种情况下,不准确的邻近块可能被确定为邻近块候选。因此,需要一种通过由根据一个或更多个示例性实施例的层间视频编码或解码设备使用当前块附近的邻近块候选执行视差矢量预测来准确地预测视差矢量的方法。
本发明构思的多个技术方面不限于以上方面,并且未被提及的其它技术方面通过以下描述对于本领域普通技术人员将变得显而易见。
解决方案
根据本发明构思的一方面,提供一种层间视频解码方法,包括:在位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选;将搜索到的邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量;当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选;通过使用搜索到的邻近块候选的视差矢量信息来预测当前块的视差矢量。
有益效果
根据示例性实施例,提供一种准确地预测视差矢量的方法来提高编码效率,另外,简化处理操作,从而降低了编码设备和解码设备的复杂度。
附图说明
图1a是根据一些示例性实施例的层间视频编码设备的框图。
图1b是根据一些示例性实施例的层间视频编码方法的流程图。
图2a是根据一些示例性实施例的层间视频解码设备的框图。
图2b是根据一些示例性实施例的层间视频解码方法的流程图。
图3是根据一些示例性实施例的层间预测结构的示图。
图4a是根据一些示例性实施例的用于描述用于层间预测的视差矢量的示图。
图4b示出根据一些示例性实施例的用于对视差矢量进行预测的空间邻近块候选。
图4c示出根据一些示例性实施例的用于对视差矢量进行预测的空间邻近块候选。
图5是根据一些示例性实施例的基于块对视差矢量进行预测的方法的流程图。
图6a示出根据一些示例性实施例的用于对视差矢量进行预测的空间和时间邻近块候选。
图6b是根据一些示例性实施例的基于块对视差矢量进行预测的方法的流程图。
图7a是根据一些示例性实施例的当视差矢量不可预测时确定视差矢量的方法的流程图。
图7b是用于描述根据一些示例性实施例的当视差矢量不可预测时确定视差矢量的方法的示图。
图7c是根据一些示例性实施例的当视差矢量被预测为(0,0)时确定视差矢量的方法的流程图。
图7d是根据一些示例性实施例的当视差矢量被预测为(0,0)时设置使用视差矢量的模式的方法的流程图。
图8是根据示例性实施例的基于根据树结构的编码单元的视频编码设备的框图。
图9是根据示例性实施例的基于根据树结构的编码单元的视频解码设备的框图。
图10是用于描述根据本发明构思的一些示例性实施例的编码单元的构思的示图。
图11是根据本发明构思的一些示例性实施例的基于编码单元的图像编码器的框图。
图12是根据本发明构思的一些示例性实施例的基于编码单元的图像解码器的框图。
图13是示出根据本发明构思的一些示例性实施例的编码单元和分区的示图。
图14是用于描述根据本发明构思的一些实施例的编码单元和变换单元之间的关系的示图。
图15是用于描述根据本发明构思的实施例的编码信息的示图。
图16是根据本发明构思的一些示例性实施例的编码单元的示图。
图17至图19是用于描述根据本发明构思的一些示例性实施例的编码单元、预测单元和变换单元之间的关系的示图。
图20是用于描述根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
图21是根据一些示例性实施例的存储程序的盘的物理结构的示图。
图22是用于通过使用盘来记录和读取程序的盘驱动器的示图。
图23是用于提供内容分配服务的内容供应系统的整体结构的示图。
图24和图25分别是根据一些示例性实施例的应用了视频编码方法和视频解码方法的移动电话的外部结构和内部结构的示图。
图26是根据本发明构思的应用通信系统的数字广播系统的示图。
图27是示出根据本发明构思的一些示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
最佳实施方式
根据本发明构思的一方面,提供一种层间视频解码方法,包括:在位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选;将搜索到的邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量;当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选;通过使用搜索到的邻近块候选的视差矢量信息来预测当前块的视差矢量。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:在与当前块的左侧边界邻近的块中位于最下方的空间邻近块候选、在与当前块的上方边界邻近的块中位于最右侧的空间邻近块、以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选。
搜索具有视差矢量信息的邻近块候选的步骤可包括:确定在与当前块的左侧边界邻近的块中位于最下方的空间邻近块以及在与当前块的上方边界邻近的块中位于最右侧的空间邻近块候选是否执行了层间运动补偿。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:省略对位于当前块的对角线方向的时间邻近块候选和空间邻近块候选的搜索。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:通过对位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:当搜索到至少两个沿时间方向的参考画面时,通过对共同定位画面中所包括的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
所述层间视频解码方法还可包括:当当前块的视差矢量未被预测到时,通过使用默认的视差矢量和层间深度图来确定当前块的视差矢量。
所述层间视频解码方法还可包括:当当前块的视差矢量被预测为(0,0)时,通过使用层间深度图来将当前块的视差矢量确定为不为(0,0)的值。
所述层间视频解码方法还可包括:当当前块的视差矢量被预测为(0,0)时,设置不使用利用预测的视差矢量的模式。
根据本发明构思的一方面,提供一种层间视频编码方法,包括:在位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选;将搜索到的邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量;当具有沿层间方向的视差矢量的邻近块候选未被搜索到时,在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选;通过使用搜索到的邻近块候选的视差矢量信息来预测当前块的视差矢量。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:在与当前块的左侧边界邻近的块中位于最下方的空间邻近块候选、在与当前块的上方边界邻近块的块中位于最右侧的空间邻近块、以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选。
搜索具有视差矢量信息的邻近块候选的步骤可包括:确定在与当前块的左侧边界邻近的块中位于最左侧的空间邻近块以及在与当前块的上方边界邻近的块中位于最右侧的空间邻近块候选是否执行了层间运动补偿。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:省略对位于当前块的对角线方向的时间邻近块候选和空间邻近块候选的搜索。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:通过对位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
搜索具有沿层间方向的运动矢量的邻近块候选的步骤可包括:当搜索到至少两个沿时间方向的参考画面时,通过对共同定位画面中所包括的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
所述层间视频编码方法还可包括:当当前块的视差矢量未被预测到时,通过使用默认的视差矢量和层间深度图来确定当前块的视差矢量。
所述层间视频编码方法还可包括:当当前块的视差矢量被预测为(0,0)时,通过使用层间深度图来将当前块的视差矢量确定为不为(0,0)的值。
所述层间视频编码方法还可包括:当当前块的视差矢量被预测为(0,0)时,设置不使用利用预测的视差矢量的模式。
根据本发明构思的另一方面,提供一种层间视频解码设备,包括:第一层解码器,被配置为基于从比特流获得的编码信息来重构第一层图像;视差矢量确定器,被配置为在位于第二层当前块左侧的空间邻近块候选、位于第二层当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选,并将搜索到的邻近块候选的沿层间方向的运动矢量预测为第二层当前块的视差矢量,其中,当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,视差矢量确定器在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选,并通过使用搜索到的空间邻近块候选的视差矢量信息来预测第二层当前块的视差矢量。
根据本发明构思的另一方面,提供一种层间视频编码设备,包括:第一层编码器,被配置为产生包括编码信息的第一层比特流,其中,所述编码信息是通过对第一层图像进行编码获得的;视差矢量确定器,被配置为在位于第二层当前块左侧的空间邻近块候选、位于第二层当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选,并将搜索到的邻近块候选的沿层间方向的运动矢量预测为第二层当前块的视差矢量,其中,当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,视差矢量确定器在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选,并通过使用搜索到的空间邻近块候选的视差矢量信息来预测第二层当前块的视差矢量。
根据本发明构思的另一方面,提供一种记录有用于执行以上方法的程序的计算机可读记录介质。
具体实施方式
在下文中,将参照图1a至图7b来描述根据实施例的通过使用参考层深度图来确定视差矢量的层间视频编码技术和层间视频解码技术。此外,将参照图8至图20来描述根据实施例的基于具有树结构的编码单元的视频编码技术和视频解码技术,其中,所述视频编码技术和视频解码技术可被应用于层间视频编码技术和层间视频解码技术。此外,将参照图21至图27来描述可应用视频编码方法和视频解码方法的各种实施例。
在下文中,“图像”可指示静止图像或视频的运动图像,或者视频本身。
在下文中,“样点”表示被分配给图像的采样位置并且将被处理的数据。例如,空间域的图像中的像素可以是样点。
在下文中,“当前块”可表示将被编码或解码的图像的块。
在下文中,当前块周围的“邻近块”表示与当前块邻近的至少一个编码或解码的块。例如,邻近块可位于当前块的上方、右上方、左侧或左上方。此外,邻近块可以是空间邻近块或时间邻近块。
首先,将参照图1a至图7b描述根据一些示例性实施例的基于块对视差矢量进行预测的方法,其中,该方法用于层间视频解码设备和方法以及层间编码设备和方法。
图1a是根据一些示例性实施例的层间视频编码设备10的框图。图1b是根据一些示例性实施例的层间视频编码方法的流程图。
根据一些示例性实施例的层间视频编码设备10包括第一层编码器12和第二层编码器16。第二层编码器16可包括视差矢量确定器14。视差矢量确定器14可位于第二层编码器16外部。
根据一些示例性实施例的层间视频编码设备10可根据层对多个图像序列进行分类,并根据可伸缩视频编码方法对图像序列中的每一个图像序列进行编码,并输出包括根据层被编码的数据的单独的流。层间视频编码设备10可将第一层图像序列和第二层图像序列编码至不同的层。
第一层编码器12可对第一层图像进行编码,并可输出包括第一层图像的编码数据的第一层流。
第二层编码器16可对第二层图像进行编码,并可输出包括第二层图像的编码数据的第二层流。
例如,根据基于空间伸缩性的可伸缩视频编码方法,低分辨率图像可被编码为第一层图像,高分辨率图像可被编码为第二层图像。第一层图像的编码结果被输出为第一层流,第二层图像的编码结果被输出为第二层流。
作为另一示例,可根据可伸缩视频编码方法对多视点视频进行编码。在这种情况下,中心视点图像可被编码为第一层图像,左视点图像和右视点图像可通过参考第一层图像被编码为第二层图像。可选地,当层间视频编码设备10允许至少三个层(例如,第一层至第三层)时,中心视点图像可被编码为第一层图像、左视点图像可被编码为第二层图像,右视点图像可被编码为第三层图像。当然,示例性实施例不限于此,通过对中心视点图像、左视点图像和右视点图像进行编码而获得的层和参考层可变化。
作为另一示例,可根据基于时间伸缩性的时间分层预测来执行可伸缩视频编码方法。包括编码信息的第一层流可被输出,其中,所述编码信息是通过对基本帧率图像进行编码而产生的。时间级别可根据帧率被分类,并且每个时间级别可根据层被编码。通过参考基本帧率图像进一步对高帧率图像进行编码,可输出包括高帧率的编码信息的第二层流。
此外,可对第一层和多个第二层执行可伸缩视频编码。当存在至少三个第二层时,第一层图像以及第一第二层图像至第K第二层图像可被编码。因此,第一层图像的编码结果可被输出为第一层流,第一第二层图像至第K第二层图像的编码结果可分别被输出为第一第二层流至第K第二层流。
根据一些示例性实施例的层间视频编码设备10可执行帧间预测,其中,单个层的图像在帧间预测中被参考用于对当前图像进行预测。通过执行帧间预测,可产生指示当前图像与参考图像之间的运动信息的运动矢量以及当前图像与参考图像之间的残差。
此外,层间视频编码设备10可执行层间预测,其中,第一层图像在层间预测中被参考用于对第二层图像进行预测。
此外,当根据一些示例性实施例的层间视频编码设备10允许至少三个层(即,第一层至第三层)时,可根据多层预测结构来执行第一层图像与第三层图像之间的层间预测以及第二层图像与第三层图像之间的层间预测。
经由层间预测,可产生当前图像和与当前图像的层不同的层的参考图像之间的位置差分量、以及当前图像与所述不同的层的所述参考图像之间的残差。
随后将参照图3描述层间预测结构。
根据一些示例性实施例的层间视频编码设备10可根据层来执行根据视频的每个图像的块的编码。块可具有方形、矩形或任意几何形状,并且块不限于具有预定尺寸的数据单元。块可以是根据树结构的编码单元之中的最大编码单元、编码单元、预测单元或变换单元。包括树结构的编码单元的最大编码单元可被不同地称为诸如编码树单元、编码块树、块树、根块树、编码树、编码根或树干。随后将参照图8至图20来描述基于根据树结构的编码单元的视频编码方法和视频解码方法。
可基于诸如编码单元、预测单元或变换单元的数据单元来执行帧间预测和层间预测。
根据一些示例性实施例的第一层编码器12可通过对第一层图像执行包括帧间预测或帧内预测的源编码操作来产生符号数据。符号数据指示每个编码参数的样点值和残差的样点值。
例如,第一层编码器12可通过对第一层图像的数据单元的样点执行帧间预测或帧内预测、变换和量化来产生符号数据,并可通过对符号数据执行熵编码来产生第一层流。
第二层编码器16可基于树结构的编码单元对第二层图像进行编码。第二层编码器16可通过对第二层图像的编码单元的样点执行帧间预测/帧内预测、变换和量化来产生符号数据,并可通过对符号数据执行熵编码来产生第二层流。
根据一些示例性实施例的第二层编码器16可通过使用第一层图像的预测信息来执行对第二层图像进行预测的层间预测。为了经由层间预测结构对来自第二层图像序列的第二层原始图像进行编码,第二层编码器16可通过使用重构的第一层重构图像的预测信息来确定第二层当前图像的预测信息,并通过基于确定的预测信息产生第二层预测图像来对第二层原始图像与第二层预测图像之间的预测误差进行编码。
同时,第二层编码器16可通过根据块(诸如编码单元或预测单元)对第二层图像执行层间预测来确定第一层图像的将被第二层图像的块参考的块。例如,可确定第一层图像的与第二层图像中的当前块的位置相应地被定位的重构块。第二层编码器16可通过使用与第二层块相应的第一层重构块来确定第二层预测块。
第二层编码器16可将第二层预测块用作对第二层原始块进行层间预测的参考图像,其中,第二层预测块是根据层间预测块通过使用第一层重构块来确定的。通过使用第一层重构图像,第二层编码器16可通过对第二层预测块的样点值与第二层原始块的样点值之间的误差(即,根据层间预测的残差)进行变换和量化来执行熵编码。
同时,当上述层间视频编码设备10对多视点视频进行编码时,被编码的第一层图像可以是第一视点图像,第二层图像可以是第二视点图像。由于这样的多视点图像在同一时间被获得,因此根据视点的图像之间的相似度高。
然而,由于拍摄角度、灯光和拍摄装置(相机和镜头)的特性根据视点而不同,因此多视点图像可具有视差。因此,通过执行视差补偿预测可提高编码效率,其中,在视察补偿预测中将这样的视差表示为视差矢量,通过使用视差矢量从不同视点图像找到与当前将被编码的块最相似的区域并对该区域进行编码。
层间视频编码设备10可确定用于层间预测的视差矢量,并通过比特流将视差矢量作为单独的信息发送到解码设备。
可选地,层间视频编码设备10可从不同类型的编码信息预测(或推导)视差矢量,以便减少根据预测单元而发送的数据量。例如,可从当前将被重构的块的邻近块预测视差矢量。如果未从邻近块预测到视差矢量,则可将默认的视差矢量设置为视差矢量。
这里,当在搜索邻近块候选以确定将用于视差矢量预测的邻近块的同时层间视频编码设备10不考虑当前块与邻近块之间的距离时,远离当前块的邻近块可能具有搜索优先级。在这种情况下,可能会将由于距离长而具有低预测准确度的邻近块候选确定为将用于视差矢量预测的邻近块候选,而不是将具有高预测准确度的附近的邻近块候选确定为将用于视差矢量预测的邻近块候选。
因此,根据一些示例性实施例的层间视频编码设备10可通过使用当前块附近的邻近块候选来执行视差矢量预测,从而提供准确地预测视差矢量的方法。此外,通过使用层间视频编码设备10,可提高编码效率,此外,可简化处理操作,从而降低编码设备的复杂度。
随后将参照图4至图7d详细地描述根据一些示例性实施例的由层间视频编码设备10确定视差矢量的方法。
通过使用第一层重构图像,层间视频编码设备10可通过对第二层预测块的样点值与第二层原始块的样点值之间的误差(即,根据层间预测的残差)进行变换和量化来执行熵编码。此外,也可对预测信息之间的误差执行熵编码。
如上所述,层间视频编码设备10可通过经由层间预测结构参考第一层重构图像来对当前层图像序列进行编码。然而,根据一些示例性实施例的层间视频编码设备10可在不必参考其它层样点的情况下根据单层预测结构对第二层图像序列进行编码。因此,不应狭隘地理解为,层间视频编码设备10仅执行层间预测结构的帧间预测来对第二层图像序列进行编码。
现在将参照图1b来描述对用于层间预测的视差矢量进行预测的层间视频编码设备10的详细操作。在下文中,第一层图像可表示参考视点图像,第二层图像可表示将被编码的当前视点图像。
图1b是根据一些示例性实施例的层间视频编码方法的流程图。
在操作11,根据一些示例性实施例的视差矢量确定器14可从位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选。这里,邻近块候选的沿层间方向的运动矢量可表示邻近块候选的视差矢量。
例如,视差矢量确定器14可确定多个时间邻近块候选之中的位于共同定位位置的邻近块候选是否具有沿层间方向的运动矢量。
此外,视差矢量确定器14可确定多个空间邻近块候选之中的与当前块的左侧边界邻近的块中位于最下方的空间邻近块候选以及与当前块的上方边界邻近的块中位于最右侧的空间邻近块候选是否具有沿层间方向的运动矢量。
此外,视差矢量确定器14可省略在多个时间邻近块候选和空间邻近块候选之中搜索位于当前块的对角线方向的时间邻近候选和空间邻近候选的过程。
然而,如果视差矢量确定器14在上述邻近块候选之中未搜索到具有沿层间方向的运动矢量的邻近块候选,则视差矢量确定器14可在与当前块的时间共同定位块的右侧边界邻近的块中位于底部的块的下方的时间邻近块候选以及以下空间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选:在与当前块的左侧边界邻近的块中位于最下方的块的下方的空间邻近块候选、在与当前块的左侧边界邻近的块中位于上方的块的上方的空间邻近块候选、以及在与当前块的上方边界邻近的块中位于最右侧的块的右侧的空间邻近块候选。
换句话说,视差矢量确定器14可通过对位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。这里,视差矢量确定器14可在时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选,然后在空间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选,但是搜索顺序不限于此。
同时,当被参考用于搜索时间邻近块候选的沿时间方向的参考画面的数量至少为两个时,视差矢量确定器14可通过对包括在共同定位画面中的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
例如,在搜索了共同定位画面之后,可搜索随机访问点(RAP)画面,或者可搜索基于时间而最接近当前画面的画面。可选地,可从两个画面搜索在共同定位位置的邻近块候选,然后可搜索其它邻近块候选。
在操作13,根据一些示例性实施例的视差矢量确定器14可将搜索到的邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量。
同时,在操作15,当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,根据一些示例性实施例的视差矢量确定器14可在邻近块候选之中搜索具有视差矢量信息的邻近块候选。例如,当邻近块候选执行了层间运动预测补偿时,邻近块候选具有视差矢量信息,视差矢量确定器14可在邻近块候选之中搜索执行了层间运动补偿的邻近块候选。
这里,由于视差矢量确定器14搜索具有视差矢量信息的空间邻近块候选的操作与以上在操作11描述的搜索具有沿层间方向的运动矢量的空间邻近块的操作类似,因此不再提供其细节。
在操作17,根据一些示例性实施例的视差矢量确定器14可通过使用搜索到的邻近块候选的视差矢量信息来预测当前块的视差矢量。
同时,当在邻近块候选之中未搜索到执行了层间运动补偿的邻近块候选时,视差矢量确定器14可确定无法从邻近块候选预测到视差矢量,并将视差矢量确定为默认的视差矢量。
然而,当未从邻近块预测到视差矢量并且默认的视差矢量被设置为(0,0)时,由于在大多数多视点图像中产生视差,因此预测的视差矢量会是不准确的。因此,视差矢量确定器14可将默认的视差矢量设置为非零值,以便预测到与实际视差矢量近似的视差矢量。
此外,当无法从邻近块预测到视差矢量时,视差矢量确定器14可将默认的视差矢量设置为非零值以使用利用视差矢量的模式,诸如残差预测模式。
这里,残差预测模式是对第二层当前块的运动矢量值与相应于第二层当前块的第一层参考块的运动矢量值之间的差值进行信号传输的模式。然而,当未从邻近块预测到视差矢量时,预测准确度低,并因此残差预测模式不被使用。然而,根据一些示例性实施例的层间视频解码设备20可使用通过将视差矢量设置为非零值来利用视差矢量的模式。
此外,甚至当从邻近块预测到的视差矢量为(0,0)时,视差矢量确定器14也可将视差矢量重新设置为非零值。
可选地,由于当从邻近块预测到的视差矢量为(0,0)时视差矢量的准确度被确定为低,因此视差矢量确定器14可将使用视差矢量的模式设置为不被使用。
如上所述,层间视频编码设备10提高了预测的视差矢量的准确度,从而提高了编码效率。
根据一些示例性实施例的层间视频编码设备10可包括总体控制第一层编码器12、视差矢量确定器14和第二层编码器16的中央处理器(未示出)。可选地,第一层编码器12、视差矢量确定器14和第二层编码器16可通过单独的处理器(未示出)来操作,并且在所述单独的处理器系统地操作时,层间视频编码设备10可被操作。可选地,可根据层间视频编码设备10的外部处理器(未示出)的控制来控制第一层编码器12、视差矢量确定器14和第二层编码器16。
层间视频编码设备10可包括至少一个数据存储单元(未示出),其中,第一层编码器12、视差矢量确定器14和第二层编码器16的输入和输出数据被存储在所述至少一个数据存储单元中。层间视频编码设备10可包括存储器控制器(未示出),其中,存储器控制器对数据存储单元(未示出)的数据的输入和输出进行管理。
为了输出视频编码结果,层间视频编码设备10可与内置的内部视频编码处理器或外部视频编码处理器合作地进行操作以便执行包括变换的视频编码操作。层间视频编码设备10的内部视频编码处理器可作为单独的处理器执行视频编码操作。此外,基本视频编码操作可被实现为包括视频编码处理模块的层间视频编码设备10、中央处理设备或图形处理设备。
图2a是根据一些示例性实施例的层间视频解码设备的框图。
根据一些示例性实施例的层间视频解码设备20包括第一层解码器22、视差矢量确定器24和第二层解码器26。视差矢量确定器24可被包括在第二层解码器26中。根据另一示例性实施例的视差矢量确定器24可位于第二层解码器26外部。
根据一些示例性实施例的层间视频解码设备20可经由可伸缩编码方法接收根据层的比特流。由层间视频解码设备20接收的比特流的层的数量不被限制。然而,为了便于描述,将描述层间视频解码设备20的第一层解码器22接收第一层流并对第一层流进行解码以及第二层解码器26接收第二层流并对第二层流进行解码的示例性实施例。
例如,基于空间伸缩性的层间视频解码设备20可接收流,其中,在所述流中,具有不同分辨率的图像序列被编码在不同层中。可对第一层流进行解码来重构具有低分辨率的图像序列,并且可对第二层流进行解码来重构具有高分辨率的图像序列。
作为另一示例,可根据可伸缩视频编码方法对多视点视频进行解码。当在多个层中接收到立体视频流时,可对第一层流进行解码来重构左视点图像。可对第二层流进行进一步解码来重构右视点图像。
可选地,当在多个层中接收到多视点视频流时,可对第一层流进行解码来重构中心视点图像。可对第二层流进行进一步解码来重构左视点图像。可对第三层流进行进一步解码来重构右视点图像。
作为另一示例,可执行基于时间伸缩性的可伸缩视频编码方法。可对第一层流进行解码来重构基本帧率的图像。可对第二层流进行进一步解码来重构高帧率的图像。
此外,当存在至少三个第二层时,可从第一层流重构第一层图像,并且,当通过参考第一层重构图像对第二层进行进一步解码时,可进一步重构第二层图像。当通过参考第二层重构图像对第K层流进行进一步解码时,可进一步重构第K层图像。
层间视频解码设备20可从第一层流和第二层流获得第一层图像和第二层图像的编码数据,另外,层间视频解码设备20还可获得经由帧间预测而产生的运动矢量以及经由层间预测而产生的预测信息。
例如,层间视频解码设备20可对每个层的帧间预测的数据进行解码,并且可对在多个层之间被层间预测的数据进行解码。可基于编码单元或预测单元,通过运动补偿和层间解码来执行重构。
针对每个层流,可通过参考经由同一层的帧间预测而被预测的重构图像对当前图像执行运动补偿来重构图像。运动补偿是通过将参考图像与当前图像的残差进行合成来重构当前图像的重构图像的操作,其中,参考图像是通过使用当前图像的运动矢量来确定的。
此外,层间视频解码设备20可通过参考第一层图像的预测信息来执行层间解码,以便对经由层间预测被预测的第二层图像进行解码。层间解码是通过使用不同的层的参考块的预测信息来重构当前图像的预测信息以便确定当前图像的预测信息的操作。
根据一些示例性实施例的层间视频解码设备20可执行层间解码以便重构通过参考第二层图像被预测的第三层图像。随后将参照图3描述层间预测结构。
然而,根据一些示例性实施例的第二层解码器26可在不必参考第一层图像序列的情况下对第二层流进行解码。因此,不应狭隘地解释为:第二层解码器26执行层间预测来对第二层图像序列进行解码。
层间视频解码设备20根据视频的每个图像的块来执行解码。块可以是根据树结构的编码单元之中的最大编码单元、编码单元、预测单元或变换单元。
第一层解码器22可通过使用解析的第一层图像的编码符号来对第一层图像进行解码。当层间视频解码设备20接收到基于树结构的编码单元被编码的流时,第一层解码器22可根据第一层流的最大编码单元基于树结构的编码单元来执行解码。
第一层解码器22可通过对每个最大编码单元执行熵解码来获得编码信息和编码数据。第一层解码器22可通过对从流获得的编码数据执行反量化和逆变换来重构残差。根据另一示例性实施例的第一层解码器22可直接接收量化后的变换系数的比特流。可通过对量化后的变换系数执行反量化和逆变换来重构图像的残差。
第一层解码器22可经由相同层图像之间的运动补偿来确定预测图像,并通过对预测图像和残差进行组合来重构第一层图像。
根据层间预测结构,第二层解码器26可通过使用第一层重构图像的样点来产生第二层预测图像。第二层解码器26可通过对第二层流进行解码来获得根据层间预测的预测误差。第二层解码器26可通过将第二层预测图像与预测误差进行组合来产生第二层重构图像。
第二层解码器26可通过使用由第一层解码器22解码的第一层重构图像来确定第二层预测图像。根据层间预测结构,第二层解码器26可确定第一层图像的将被第二层图像的块(诸如编码单元或预测单元)参考的块。例如,可确定第一层图像的在与第二层图像中的当前块的位置相应地被定位的重构块。第二层解码器26可通过使用与第二层块相应的第一层重构块来确定第二层预测块。
第二层解码器26可将第二层预测块用作对第二层原始块进行层间预测的参考图像,其中,第二层预测块是根据层间预测结构通过使用第一层重构块来确定的。在此情况下,第二层解码器26可通过将根据层间预测的残差与经由使用第一层重构图像而确定的第二层预测块的样点值进行合成来重构第二层块。
同时,当上述层间视频解码设备20对多视点视频进行解码时,将被编码的第一层图像可以是第一视点视频,第二层图像可以是第二视点视频。
同时,由于多视点图像在同一时间被获得,因此多个视点的图像之间的相似度非常高。因此,可通过执行视差补偿预测来提高编码效率,其中,在视差补偿预测中,通过使用视差矢量从不同视点图像寻找与当前将被编码的块最相似的区域并对该区域进行编码。
层间视频解码设备20可通过比特流获得用于层间预测的视差矢量,或者从其它多条编码信息预测视差矢量。
例如,可从当前将被重构的块的邻近块预测视差矢量。此外,当视差矢量无法从邻近块被预测到时,视差矢量可被设置为默认的视差矢量。
然而,当在搜索邻近块候选以确定将用于视差矢量预测的邻近块的同时层间视频解码设备20不考虑当前块与邻近块之间的距离时,远离当前块的邻近块可能具有搜索优先级。在这种情况下,可能会将由于距离长而具有低预测准确度的邻近块候选确定为将用于视差矢量预测的邻近块候选,而不是将具有高预测准确度的附近的邻近块候选确定为将用于视差矢量预测的邻近块候选。
因此,根据一些示例性实施例的层间视频解码设备20可通过使用当前块附近的邻近块候选来执行视差矢量预测,从而提供准确地预测视差矢量的方法。此外,通过使用层间视频解码设备20,可提高编码效率,此外,可简化处理操作,从而降低解码设备的复杂度。
随后将参照图4a至图7d详细地描述根据一些示例性实施例的由层间视频解码设备20确定视差矢量的方法。
同时,根据空间可伸缩性视频编码方法,当第一层解码器22重构与第二层图像具有不同分辨率的第一层图像时,第二层解码器22可对第一层重构图像进行插值,以便调整第一层重构图像的尺寸来具有与第二层原始图像相同的分辨率。插值后的第一层重构图像可被确定为用于层间预测的第二层预测图像。
因此,层间视频解码设备20的第一层解码器22可通过对第一层流进行解码来重构第一层图像序列,第二层解码器26可通过对第二层流进行解码来重构第二层图像序列。
现在将参照图2b来描述确定用于层间预测的视差矢量的层间视频解码设备20的详细操作。在下文中,第一层图像可表示参考视点图像,第二层图像可表示将被解码的当前视点图像。
图2b是根据一些示例性实施例的层间视频解码方法的流程图。
在操作21,根据一些示例性实施例的视差矢量确定器24在位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选中搜索具有沿层间方向的运动矢量的邻近块候选。这里,邻近块候选的沿层间方向的运动矢量可表示邻近块候选的视差矢量。
例如,视差矢量确定器24可确定多个时间邻近块候选之中的位于共同定位位置的邻近块候选是否具有沿层间方向的运动矢量。
此外,视差矢量确定器24可确定多个空间邻近块候选之中的与当前块的左侧边界邻近的块中位于最下方的空间邻近块候选以及与当前块的上方边界邻近的块中位于最右侧的空间邻近块候选是否具有沿层间方向的运动矢量。
此外,视差矢量确定器24可省略在多个时间邻近块候选和空间邻近块候选之中搜索位于当前块的对角线方向的时间邻近候选和空间邻近候选的过程。
然而,如果视差矢量确定器24在上述邻近块候选之中未搜索到具有沿层间方向的运动矢量的邻近块候选,则视差矢量确定器24可在与当前块的时间共同定位块的右侧边界邻近的块中位于底部的块的下方的时间邻近块候选以及以下空间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选:在与当前块的左侧边界邻近的块中位于最下方的块的下方的空间邻近块候选、在与当前块的左侧边界邻近的块中位于上方的块的上方的空间邻近块候选、以及在与当前块的上方边界邻近的块中位于最右侧的块的右侧的空间邻近块候选。
换句话说,视差矢量确定器24可通过对位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。这里,视差矢量确定器24可在时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选,然后在空间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选,但是搜索顺序不限于此。
同时,当被参考用于搜索时间邻近块候选的沿时间方向的参考画面的数量至少为两个时,视差矢量确定器24可通过对包括在共同定位画面中的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
例如,在搜索了共同定位画面之后,可搜索RAP画面,或者可搜索基于时间而最接近当前画面的画面。可选地,可从两个画面搜索在共同定位位置的邻近块候选,然后可搜索其它邻近块候选。
在操作23,根据一些示例性实施例的视差矢量确定器24可将搜索到的邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量。
同时,在操作25,当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,根据一些示例性实施例的视差矢量确定器24可在邻近块候选之中搜索具有视差矢量信息的邻近块候选。例如,当邻近块候选执行了层间运动预测补偿时,邻近块候选具有视差矢量信息,视差矢量确定器12可在邻近块候选之中搜索执行了层间运动补偿的邻近块候选。
这里,由于视差矢量确定器24搜索具有视差矢量信息的空间邻近块候选的操作与以上在操作21描述的搜索具有沿层间方向的运动矢量的空间邻近块的操作类似,因此不再提供其细节。
在操作27,根据一些示例性实施例的视差矢量确定器24可通过使用搜索到的邻近块候选的视差矢量信息来预测当前块的视差矢量。
同时,当在邻近块候选之中未搜索到执行了层间运动补偿的邻近块候选时,视差矢量确定器24可确定无法从邻近块候选预测到视差矢量,并将视差矢量确定为默认的视差矢量。
然而,当未从邻近块预测到视差矢量并且默认的视差矢量被设置为(0,0)时,由于在大多数多视点图像中产生视差,因此预测的视差矢量会是不准确的。因此,视差矢量确定器24可将默认的视差矢量设置为非零值以预测到与实际视差矢量近似的视差矢量。
此外,当无法从邻近块预测到视差矢量时,视差矢量确定器24可将默认的视差矢量设置为非零值以使用利用视差矢量的模式,诸如残差预测模式。
此外,甚至当从邻近块预测到的视差矢量为(0,0)时,视差矢量确定器14也可将视差矢量重新设置为非零值。
可选地,由于当从邻近块预测到的视差矢量为(0,0)时视差矢量的准确度被确定为低,因此视差矢量确定器24可将使用视差矢量的模式设置为不被使用。
如上所述,层间视频解码设备20提高了预测的视差矢量的准确度,从而提高了编码效率。
根据一些示例性实施例的层间视频解码设备20可包括总体控制第一层解码器22、视差矢量确定器24和第二层解码器26的中央处理器(未示出)。可选地,第一层解码器22、视差矢量确定器24和第二层解码器26可通过单独的处理器(未示出)来操作,并且在所述单独的处理器系统地操作时,层间视频解码设备20可被操作。可选地,可根据层间视频解码设备20的外部处理器(未示出)的控制来控制第一层解码器22、视差矢量确定器24和第二层解码器26。
根据一些示例性实施例的层间视频解码设备20可包括至少一个数据存储单元(未示出),其中,第一层解码器22、视差矢量确定器24和第二层解码器26的输入和输出数据被存储在所述至少一个数据存储单元中。层间视频解码设备20可包括存储器控制器(未示出),其中,存储器控制器对数据存储单元(未示出)的数据的输入和输出进行管理。
为了经由视频解码来重构视频,根据一些示例性实施例的层间视频解码设备20可与内置的内部视频编码处理器或外部视频编码处理器协同地进行操作以便执行包括变换的视频解码操作。根据一些示例性实施例的多层视频解码设备20的内部视频编码处理器可以是单独的处理器,可选地,层间视频解码设备20、中央处理设备或图形处理设备可包括用于执行基本视频解码操作的视频解码处理模块。
下文中,将参照图3来描述可在根据一些示例性实施例的层间视频解码设备10中执行的层间预测结构。
图3是根据一些示例性实施例的层间预测结构的示图。
根据示例性实施例的层间视频编码设备10可根据图3的多视点视频预测结构的再现顺序30对基本视点图像、左视点图像和右视点图像进行预测编码。
根据基于相关技术的多视点视频预测结构的再现顺序30,相同视点的图像沿水平方向排列。因此,用“左”标示的左视点图像沿水平方向被排列在一行,用“中心”标示的基本视点图像沿水平方向被排列在一行,用“右”标示的右视点图像沿水平方向被排列在一行。与左视点图像/右视点图像相比,基本视点图像可以是中心视点图像。
此外,具有相同POC顺序的图像沿垂直方向排列。图像的POC顺序指示形成视频的图像的再现顺序。在多视点视频预测结构的再现顺序30中被标示的“POCX”指示位于相应列中的图像的相对再现顺序,其中,当X值低时,再现顺序在前面,当X值高时,再现顺序在后面。
因此,根据基于相关技术的多视点视频预测结构的再现顺序30,用“左”标示的左视点图像根据POC顺序(再现顺序)沿水平方向被排列,用“中心”标示的基本视点图像根据POC顺序(再现顺序)沿水平方向被排列,并且用“右”标示的右视点图像根据POC顺序(再现顺序)沿水平方向被排列。此外,与基本视点图像位于相同列的左视点图像和右视点图像具有不同视点但具有相同POC顺序(再现顺序)。
根据视点,四个连续图像形成一个画面组(GOP)。每个GOP包括连续的锚(anchor)画面之间的图像以及一个锚画面(关键画面)。
锚画面是随机访问点,并且当在再现视频的同时再现位置是从根据再现顺序(即,POC顺序)被排列的图像中任意选择的时,再现根据POC顺序最接近再现位置的锚画面。基本层图像包括基本层锚画面31至35,左视点图像包括左视点锚画面131至135,右视点图像包括右视点锚画面231至235。
多视点图像根据GOP顺序被再现和预测(重构)。首先,根据多视点视频预测结构的再现顺序30,根据视点,GOP0中包括的图像可被再现,然后GOP1中包括的图像可被再现。也就是说,每个GOP中包括的图像可按照GOP0、GOP1、GOP2和GOP3的顺序被再现。此外,根据多视点视频预测结构的编码顺序,根据视点,GOP1中包括的图像可被预测(重构),然后GOP1中包括的图像可被预测(重构)。也就是说,按照GOP0、GOP1、GOP2和GOP3的顺序,每个GOP中包括的图像可被预测(重构)。
根据多视点视频预测结构的再现顺序30,对图像执行视点间预测(层间预测)和帧间预测。在多视点视频预测结构中,箭头开始的图像是参考图像,箭头结束的图像是通过使用参考图像而被预测的图像。
基本视点图像的预测结果可被编码并可以以基本视点图像流的形式被输出,附加视点图像的预测结果可被编码并然后以层比特流的形式被输出。此外,左视点图像的预测编码结果可被输出为第一层比特流,右视点图像的预测编码结果可被输出为第二层比特流。
对基本视点图像仅执行帧间预测。换句话说,I画面类型的基本锚画面31至35不参考其它图像,但是B画面类型和b画面类型的其余图像通过参考其它基本视点图像而被预测。通过参考根据POC顺序位于B画面类型的图像前面的I画面类型的锚画面以及随后的I画面类型的锚画面来预测B画面类型的图像。通过参考根据POC顺序位于b画面类型的图像前面的I类型的锚画面以及随后的B画面类型的图像来预测b画面类型的图像,或者通过参考根据POC顺序位于b画面类型的图像前面的B画面类型的图像以及随后的I画面类型的锚画面来预测b画面类型的图像。
对左视点图像和右视点图像执行参考不同视点的图像的视点间预测(层间预测)以及参考相同视点的图像的帧间预测。
可通过分别参考与左视点锚画面131至135具有相同POC顺序的基本视点锚画面31至35来对左视点锚画面131至135执行视点间预测(层间预测)。可通过分别参考与右视点锚画面231至235具有相同POC顺序的基本视点锚画面31至35或者左视点锚画面131至135,对右视点锚画面231至235执行视点间预测。此外,可通过参考具有相同POC的其它视点的图像,对除了左视点图像131至135以及右视点图像231至235之外的其余图像执行视点间预测(层间预测)。
通过参考相同视点的图像对左视点图像和右视点图像中的除了锚画面131至135以及231至235的其余图像进行预测。
然而,可能无法通过参考在相同视点的附加视点图像之中的再现顺序在前的锚画面来对左视点图像和右视点图像中的每一个图像进行预测。换句话说,为了对当前左视点图像执行帧间预测,可参考除了左视点锚画面之外的再现顺序在当前左视点图像之前的左视点图像。类似地,为了对当前右视点图像执行帧间预测,可参考除了右视点锚画面之外的再现顺序在当前右视点图像之前的右视点图像。
此外,为了对当前左视点图像执行帧间预测,可通过参考属于当前GOP并且将在当前左视点图像之前被重构的左视点图像来执行预测,而不是参考属于在当前左视点图像的当前GOP之前的GOP的左视点图像来执行预测。可将相同的操作应用于右视点图像。
根据一些示例性实施例的层间视频解码设备20可根据图3的多视点视频预测结构的再现顺序30来重构基本视点图像、左视点图像和右视点图像。
可经由参考基本视点图像的视点间视差补偿以及参考左视点图像的帧间运动补偿来重构左视点图像。可经由参考基本视点图像和左视点图像的视点间视差补偿以及参考右视点图像的帧间运动补偿来重构右视点图像。对于左视点图像和右视点图像的视差补偿和运动补偿,可首先重构参考图像。
对于左视点图像的帧间运动补偿,可经由参考重构的左视点参考图像的帧间运动补偿来重构左视点图像。对于右视点图像的帧间运动补偿,可经由参考重构的右视点参考图像的帧间运动补偿来重构右视点图像。
此外,对于当前左视点图像的帧间运动补偿,可仅参考属于当前左视点图像的当前GOP并且将在当前左视点图像之前被重构的左视点图像,并且不参考属于当前GOP之前的GOP的左视点图像。相同的操作被应用于右视点图像。
此外,根据一些示例性实施例的层间视频解码设备20不仅可执行视差补偿或层间预测(补偿)来对多视点图像进行编码或解码,还可经由视点间运动矢量预测来执行图像之间的运动补偿(或层间运动预测补偿)。
现在将参照图4a来描述层间视差补偿和层间运动矢量预测补偿。
参照图4a,根据一些示例性实施例的层间视频解码设备20可通过使用视差矢量DV执行层间预测来寻找包括在第一层参考画面1402中的与第二层当前画面1400中包括的当前块1401相应的第一层参考块1403,并通过使用第一层参考块1403来执行视差补偿。
此外,根据一些示例性实施例的层间视频解码设备20可针对层间运动预测补偿获得从第二层当前块1401由视差矢量DV所指示的第一层参考块1403的参考运动矢量mv_ref,并通过使用获得的参考运动矢量mv_ref来预测当前块1401的运动矢量mv_cur。在此情况下,层间视频解码设备20可通过使用预测的运动矢量mv_cur来执行第二层图像之间的运动补偿。这里,参考位置可以是从当前块1401的中心像素由视差矢量DV所指示的位置,或者是从当前块1401的左上方像素由视差矢量DV所指示的位置。
如上所述,为了通过参考不同视点的图像来执行补偿预测,需要视差矢量。视差矢量可作为单独的信息通过比特流从编码设备发送到解码设备,或者可基于深度图像或块被预测。
例如,图4b示出根据示例性实施例的通过使用空间邻近块候选来预测视差矢量的示例。
参照图4b,层间解码设备20可按特定搜索顺序(例如,Z字形扫描或光栅扫描)来搜索空间邻近块候选,以预测当前图像40中的当前块1500的视差矢量。这里,找到的邻近块候选可以是在时间上或空间上与当前块1500邻近的预测单元。
例如,位于当前块1500的左下方的邻近块A01510、位于当前块1500左侧的邻近块A11520、位于当前块1500右上方的邻近块B01530、位于当前块1500上方的邻近块B11540以及位于当前块1500左上方的邻近块B21550可以是用于获得视差矢量的空间邻近块候选。为了获得视差矢量,可按照邻近块候选A11520、B11540、B01530、A01510和B21550的顺序来搜索在特定位置的邻近块。
作为另一示例,图4b的邻近块候选A11520、B11540、B01530、A01510和B21550的位置可被定义为以下表1。
[表1]
A1 B1 B0 A0 B2
xN xPb-1 xPb+nPbW-1 xPb+nPbW xPb-1 xPb-1
yN yPb+nPbH-1 yPb-1 yPb-1 yPb+nPbH yPb-1
在表1中,(xPb,xPb)可表示当前块的位置,nPbW和nPbH可分别表示当前块的宽度和高度,(xN,yN)可表示邻近块A1、B1、B0、A0和B2的位置。
同时,当视差矢量从邻近块候选被获得时,层间解码设备20可通过使用视差矢量(沿层间方向的运动矢量)来预测当前块的视差矢量。
图4c示出根据一些示例性实施例的用于预测视差矢量的空间邻近块候选。
参照图4c,为了使层间视频解码设备20对当前图像40中包括的当前块1500执行帧间预测,包括在参考画面41中并与当前块1500共同定位的块Col1560以及共同定位块1560的邻近块中的至少一个可被包括在时间邻近块候选中。例如,共同定位块Col1560的右下方块BR1570可被包括在时间预测候选中。同时,用于时间预测候选确定的块可以是编码单元或预测单元。
此外,这里,参考画面41可以是共同定位画面、与参考列表最接近的画面或在参考列表中具有最小索引的画面。可选地,参考画面41可以是基于分层预测结构在当前画面参考列表中具有最高级别的画面。可选地,参考画面41可以是随机访问点(RAP)画面。
根据传统方法,为了预测视差矢量,层间视频解码设备20可按预定顺序(例如,共同定位画面的右下方块BR→共同定位画面的共同定位块Col→RAP画面的右下方块BR→RAP画面的共同定位块Col→位于当前块左侧的邻近块A1→位于当前块上方的邻近块B1→在当前块的对角线方向上位于右上方的邻近块B0→在当前块的对角线方向上位于左下方的邻近块A0→在当前块的对角线方向上位于左上方的邻近块B2)搜索空间邻近块候选和时间邻近块候选来确定空间邻近块候选和时间邻近块候选中的一个邻近块候选是否具有沿层间方向的运动矢量。此外,根据搜索顺序被首先获得的沿层间方向的运动矢量可被预测为当前块的视差矢量。
如果不存在被执行了视差补偿的块,则层间视频解码设备20确定在空间邻近块A1、B1、B0、A0和B2之中是否存在执行了层间运动预测补偿的块。层间解码设备20可根据预定顺序(例如,位于当前块左侧的邻近块A1→位于当前块上方的邻近块B1→在当前块的对角线方向上位于右上方的邻近块B0→在当前块的对角线方向上位于左下方的邻近块A0→在当前块的对角线方向上位于左上方的邻近块B2)搜索执行了层间运动预测补偿的邻近块,并通过从搜索到的邻近块候选获得视差矢量信息来预测当前块1500的视差矢量。
然而,当在搜索邻近块候选以确定将用于视差矢量预测的邻近块的同时层间视频解码设备20不考虑当前块与邻近块之间的距离时,可能会将由于距离长而具有低预测准确度的邻近块候选确定为将用于视差矢量预测的邻近块,而不是将具有高预测准确度的附近的邻近块候选确定为将用于视差矢量预测的邻近块候选。
因此,现在将参照图5至图7d和语法元素来描述当根据一些示例性实施例的层间视频编码设备10或层间视频解码设备20通过使用在当前块附近的邻近块候选来执行视差矢量预测时准确地预测视差矢量的方法。
图5是根据一些示例性实施例的基于块来预测视差矢量的方法的流程图。
在操作51,根据一些示例性实施例的层间视频解码设备20基于与当前块的距离来确定时间邻近块候选或空间邻近块候选的搜索优先级。
层间视频解码设备20可将在当前块附近的邻近块候选确定为具有高优先级的邻近块候选,并将相对远离当前块的其余块候选确定为具有低搜索优先级的邻近块候选。
因此,层间视频解码设备20可首先对具有视差矢量的附近的邻近块候选进行搜索,然后对具有视差矢量的其余邻近块候选进行搜索。
例如,可根据以下组合来确定搜索顺序。
(1)搜索附近的时间邻近块候选→搜索附近的空间邻近块候选→搜索其余的时间邻近块候选→搜索其余的空间邻近块候选
(2)搜索附近的空间邻近块候选→搜索附近的时间邻近块候选→搜索其余的空间邻近块候选→搜索其余的时间邻近块候选
(3)搜索附近的空间邻近块候选→搜索其余的空间邻近块候选→搜索附近的时间邻近块候选→搜索其余的时间邻近块候选
(4)搜索附近的时间邻近块候选→搜索其余的时间邻近块候选→搜索附近的空间邻近块候选→搜索其余的空间邻近块候选
这里,附近的邻近块候选可包括位于当前块左侧的空间邻近块候选A1、位于当前块上方的空间邻近块候选B1以及位于共同定位位置的时间邻近块候选Col。
当然,搜索顺序不限于以上实施例,并且可在当前块附近的邻近块候选具有优先级的范围内改变。
同时,当在时间方向上存在至少两个将被参考用于搜索时间邻近块候选的参考画面时,层间视频解码设备20可通过对共同定位画面中包括的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
例如,层间视频解码设备20可根据以下组合来搜索时间邻近块候选。
(1)共同定位画面的共同定位块Col→RAP画面的共同定位块Col→共同定位画面的右下方块BR→RAP画面的右下方块BR
(2)共同定位画面的共同定位块Col→共同定位画面的右下方块BR→RAP画面的共同定位块→RAP画面的右下方块
换句话说,可在搜索了共同定位画面之后搜索RAP画面,或者可首先搜索基于时间最接近当前画面的画面。此外,可首先从两个画面中搜索在共同定位位置的邻近块候选,然后可搜索其它邻近块候选。同时,基于时间最接近当前画面的画面可以是POC值最接近当前画面的画面。
在操作52,层间视频解码设备20可根据确定的优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
在操作53,层间视频解码设备20可确定是否存在具有沿层间方向的运动矢量的邻近块候选。
当存在具有沿层间方向的运动矢量的邻近块候选时,在操作54,层间视频解码设备20可将邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量。
另一方面,当不存在具有沿层间方向的运动矢量的邻近块候选时,在操作55,层间视频解码设备20可搜索具有视差矢量信息的邻近块候选。
例如,层间视频解码设备20可根据在操作51确定的搜索优先级来确定在空间邻近块候选之中是否存在具有视差矢量信息的邻近块候选。
在操作56,层间视频解码设备20确定具有视差矢量信息的邻近块候选是否被搜索到,如果被搜索到,则在操作57,层间视频解码设备20可通过使用邻近块候选的视差矢量信息来预测当前块的视差矢量。
另一方面,当具有沿层间方向的运动矢量的邻近块候选不存在时,在操作58,层间视频解码设备20可将视差矢量设置为默认的视差矢量。
图6a示出根据一些示例性实施例的用于预测视差矢量的空间邻近块候选和时间邻近块候选。
参照图6a,根据一些示例性实施例的层间视频解码设备20可仅将位于当前块1600的左侧的空间邻近块候选A11620、位于当前块1600的上方的空间邻近块候选B1以及位于共同定位位置的时间邻近块候选Co1660用作用于预测视差矢量的空间邻近块候选和时间邻近块候选。
换句话说,层间视频解码设备20可省略对多个时间邻近块候选和空间邻近块候选之中的在当前块的对角线方向上的时间邻近块候选和空间邻近块候选A0、B0、B2和BR。
例如,图6b是根据一些示例性实施例的基于块来预测视差矢量的方法的流程图。
在操作61,层间视频解码设备20可在位于当前块的左侧的空间邻近块候选、位于当前块的上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选。这里,邻近块候选的沿层间方向的运动矢量可表示邻近块候选的视差矢量。
例如,层间视频解码设备20可按以下顺序来搜索邻近块候选。
共同定位画面的共同定位块候选Col→RAP画面的共同定位块候选→位于当前块左侧的空间邻近块候选A1→位于当前块上方的空间邻近块候选A2
在操作62,层间视频解码设备20可确定是否存在具有沿层间方向的运动矢量的邻近块候选。
当存在具有沿层间方向的运动矢量的邻近块候选时,在操作64,层间视频解码设备20可将邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量。
另一方面,当不存在具有沿层间方向的运动矢量的邻近块候选时,在操作63,层间视频解码设备20可搜索具有视差矢量信息的邻近块候选。
例如,层间视频解码设备20可确定位于当前块左侧的空间邻近块候选A1和位于当前块上方的空间邻近块候选B1之中是否存在具有视差矢量信息的邻近块候选。
在操作65,层间视频解码设备20确定具有视差矢量信息的邻近块候选是否被搜索到,如果被搜索到,则在操作67,层间视频解码设备20可通过使用邻近块候选的视差矢量信息来预测当前块的视差矢量。
另一方面,当不存在具有沿层间方向的运动矢量的邻近块候选时,在操作66,层间视频解码设备20可将视差矢量设置为默认的视差矢量。
如上所述,层间视频解码设备20通过使用在当前块附近的邻近块来执行视差矢量预测,从而提供了准确地预测视差矢量的方法。因此,层间视频解码设备20可具有高的编码效率,另外,层间视频解码设备20简化了处理操作,从而降低了解码设备的复杂度。
同时,根据一些示例性实施例,可根据以下实施例来实现以上参照图6a至图6b描述的细节。
在根据一些示例性实施例的由层间视频解码设备20基于邻近块来预测视差矢量的方法中,输入是当前画面中的当前块的位置(xCb,yCb)以及作为当前块的宽度大小或高度大小的nCbS。这里,可用当前块的左上方样点的位置来指示当前块的位置。
首先,将用于确定视差矢量是否是可预测的标志(dvAvailFlag)以及视差矢量(mvDsip)设置为0。
此外,按如下所示推导与并行处理相关的变量checkParallelMergeFlag。详细地讲,当以下条件中的至少一个条件被满足时,checkParallelMergeFlag被设置为1,在其它情况下,被设置为0。
-当当前块的预测模式(CuPredMode[xCb][yCb])是跳过模式(MODE_SKIP)时
-当当前块的预测模式是帧间模式(MODE_INTER)并且MergeFlag[xCb][yCb]为1时
然后,通过使用时间邻近块候选来确定视差矢量是否是可预测的。这里,输入是当前块的位置(xCb,yCb)以及当前块的尺寸(nCbS),输出是确定视差矢量是否是可预测的标志、视差矢量mvDisp以及参考视点顺序索引(refViewIdx)。同时,随后将描述通过使用时间邻近块候选来确定视差矢量是否是可预测的详细处理。
然后,当dvAvailFlag为0时,作为邻近块候选N的A1和B1的位置(xN,yN)分别是(xCb-1,yCb+nCbS-1)和(xCb+nCbS-1),并且以下操作按阶段被应用。
1、当yCb-1小于((yCb>>Log2CtbSizeY)<<Log2CtbSizeY)时,可应用以下表2中所示的算法。
[表2]
xB1=((xB1>>3)<<3)+((xB1>>3)&1)*7
2、执行根据Z字形扫描顺序确定邻近块候选N是否可用(availableN)的处理。例如,当邻近块候选N在当前画面的边界外部时,availableN可以是0。
3、当availableN是1并且当前块的预测模式(CuPredMode[xN][yN])是帧内模式(MODE_INTRA)时,availableN被设置为0。
4、当以下表3中示出的以下条件全部被满足(true)时,availableN被设置为0。
[表3]
5、标志availableIvpMvSearchFlagN被设置为与availableN相同的值。
6、当在邻近块候选N是B1时和在((yN>>Log2CtbSizeY)<<Log2CtbSizeY)小于((yCb>>Log2CtbSizeY)<<Log2CtbSizeY)时之中的条件之一被满足时,availableIvpMvSearchFlagN被设置为0。
7、标志availableFlagIvpMvN被设置为0。
8、当X是0或1,标志dvAvailFlag为0,availableN为1,RefIdxLX[xN[yN]等于或高于0,并且PredFlagLX[xN][yN]为1时,应用以下处理。
(1)如果RefPicListX[RefIdxLX[xN][yN]]是当前画面的视点间参考画面,则变量被设置为如以下的表4所示。
[表4]
换句话说,参考视点索引(refViewIdx)被设置为邻近块N的视点索引(ViewIdx(RefPicListX[RefIdxLX[xN][yN]])),视差矢量(mvDisp)被设置为邻近块候选的运动矢量MvLXN[xN][yN],并且视差矢量被设置为可用。
(2)在另一情况下,当邻近块N的参考画面(RefPicListX[RefIdxLX[xN][yN]])不是视点间参考画面时,应用以下处理。当availableIvpMvSearchFlagN为1,availableFlagIvpMvN为0,CuPredMode[xN][yN]是跳过模式(MODE_SKIP),并且指示视差是否可用的标志IvpMvFlag[xN][yN]为1时,变量被设置为如以下的表5所示。
[表5]
换句话说,ivpMvDispN被设置为邻近块候选N的视差矢量(MvRefinedDisp[xN][yN]),refViewIdxN被设置为邻近块候选N的参考视点索引,邻近块候选N的沿层间方向的运动矢量被设置为可用。
然后,当在邻近块候选N是A1或B1的情况下dvAvailFlag为0并且标志availableFlagIvpMvN为1时,变量被设置为如以下的表6所示。
[表6]
此外,当dvAvailFlag为0时,refViewIdx被设置为DefaultRefViewIdx,视差矢量mvDisp被设置为(0,0)。
同时,按如下所示来实现以上描述的通过使用时间邻近块候选来预测视差矢量的方法。
首先,输入是当前块的位置(xCb,yCb)和当前块的尺寸(nCbS),输出是确定视差矢量是否可预测的标志(dvAvailFlag)、视差矢量(mvDisp)和参考视点顺序索引(refViewIdx)。
亮度位置(xCCtr,yCCtr)通过根据以下表7中所示的等式推导出的当前块的中心位置来指定。
[表7]
然后,标志availableFlag被设置为0,视差矢量mvDisp被设置为(0,0)。
以下处理的操作在i从0增加到NumDdvCandPics-1的同时被递归地重复,并且以下处理在availableFlag被设置为1时结束。
1、假设DdvCandPicsList[i]的预测单元colPu覆盖位置((xCCtr>>4)<<4,(yCCtr>>4)<<4)。
2、位置(xPCol,yPCol)被设置为与DdvCandPicsList[i]的亮度样点的左上方相关的colPu的左上方样点的位置。
3、如果条带类型是B,则变量dir被设置为与collocated_from_l0_flag相同的值,在其它情况下,变量dir被设置为与1-collocated_from_l0_flag相同的值。
4、以下处理针对X值从dir到1-dir而被递归地执行。
(3)变量candPicRefPicList、candPredFlag、candRefIdx和candMV被设置为RefPicListX、RefIdxLX和DdvCandPicsList[i]的MvLX。
(4)当colPu未在帧内预测模式下被编码并且candPredFlag[xPCol][yPCol]为1时,candRefViewIdx被设置为ViewIdx(candPicRefPicList[candRefIdx[xPCol][yPCol]]。
此外,当candRefViewIdx和ViewIdx(DdvCandPicsList[i])不相同,并且视点间参考画面的ViewIdx与RefPicList0或RefPicList1的candViewIdx相同时,可执行表8的操作。
[表8]
然而,当视差矢量不能通过使用邻近块被预测并且默认的视差矢量被设置为(0,0)时,由于在大多数多视点图像中产生视差,因此预测的视差矢量很可能是不准确的。因此,视差矢量确定器14可将默认的视差矢量设置为非零,以便预测与实际视差矢量近似的视差矢量。
例如,图7a是根据一些示例性实施例的当视差矢量不可预测时确定视差矢量的方法的流程图。
在操作71,层间视频解码设备20可通过使用当前块的邻近块候选来预测视差矢量。由于以上已参照图5至图6b描述了基于当前块的邻近块预测视差矢量的方法,因此不再提供其细节。
在操作72,层间视频解码设备20确定当前块的视差矢量是否是可预测的。例如,确定在邻近块候选中是否存在具有沿层间方向的运动矢量的邻近块候选,或者确定在邻近块候选中是否搜索到具有视差矢量信息的邻近块候选。
当视差矢量是可预测的时,在操作74,层间视频解码设备20可将预测的视差矢量确定为当前块的视差矢量。
另一方面,当视差矢量不是可预测的时,视频解码设备20可将不为零的默认的视差矢量设置到当前块。
详细地,视频解码设备20可通过使用预先设置的默认的视差矢量(0,0)、相机参数和层间深度图的深度值来确定当前块的视差值。
例如,深度图的深度值的范围的中间值(例如,当深度值具有8比特的范围时,128可以是中间值)可被转换成视差,并且视差值可被确定为默认的视差矢量。
作为另一示例,图7b是用于描述根据一些示例性实施例的当视差矢量不是可预测的时确定视差矢量的方法的示图。
当视差矢量无法通过使用邻近块候选被预测时(dvAvailFlag=0),根据示例性实施例的层间视频解码设备20可通过使用默认的视差矢量mvDisp和第一层深度图1720来确定从第二层彩色图像1700解码的当前块1710的视差矢量mvRefinedDisp。这里,默认的视差矢量mvDisp具有(0,0)值。
详细地讲,层间视频解码设备20可基于第二层当前块1710的位置来确定由默认的视差矢量mvDisp指示的第一层深度图1720的共同定位参考块1730。
然后,层间视频解码设备20可从确定的第一层深度图的参考块1730的角深度值1731至1734中获得最高深度值,并将所述最高深度值转换成视差矢量。
例如,可通过使用当前块1710的位置(xCb,yCb)、默认的视差矢量mvDisp以及参考视点索引refviewiewIdx来确定被转换为尺寸(nCbS)×(nCbS)的作为语法元素的视差矢量值(disparitySamples[][])。这里,nCbS可表示当前块1710在水平方向或垂直方向上的编码单元的尺寸。
最后,层间视频解码设备20通过使用转换的视差矢量的水平分量值以及默认的视差矢量的垂直分量值来确定当前块1710的视差矢量mvRefinedDisp。
例如,视差矢量mvRefinedDisp可用(disparitySamples[0][0],mvDisp[1])来表示。这里,视差矢量的垂直分量值“mvDisp[1]”可以是0。
同时,当视差矢量在层间编码方法中无法从邻近块被预测到时,不执行特定模式(例如,残差预测模式),但是可通过将视差矢量设置为非零值来使用利用视差矢量的模式。
详细地讲,残差预测模式指示用信号传输第二层当前块的运动矢量值与相应的第一层参考块的运动矢量值之间的差值的模式。然而,当视差矢量未从邻近块被预测到时,残差预测模式由于预测准确度低而不被使用。然而,根据一些示例性实施例的层间视频解码设备20可通过将视差矢量设置为非零值来使用利用视差矢量的模式。
同时,当从邻近块预测的视差矢量是(0,0)时,层间视频解码设备20可执行类似的操作。
图7c是根据一些示例性实施例的当视差矢量被预测为(0,0)时确定视差矢量的方法的流程图。
层间视频解码设备20在操作81通过使用当前块的邻近块候选来预测视差矢量,并在操作82确定预测的视差矢量是否为(0,0)。
如果预测的视差矢量不是(0,0),则在操作84,层间视频解码设备20将预测的视差矢量确定为当前块的视差矢量。
另一方面,如果预测的视差矢量为(0,0),则确定视差矢量预测的准确度低,并且层间矢量解码设备20可执行操作85。在此情况下,与在视差矢量未被预测到时类似,层间视频解码设备20可将当前块的视差矢量设置为非零视差矢量。
同时,当从邻近块预测的视差矢量为(0,0)时,确定视差矢量的准确度低,并因此层间视频解码设备20可被设置为不使用利用视差矢量的模式。
例如,图7d是根据一些示例性实施例的当视差矢量被预测为(0,0)时设置使用视差矢量的模式的方法的流程图。
层间视频解码设备20在操作91通过使用当前块的邻近块候选来预测视差矢量,并在操作92确定预测的视差矢量是否为(0,0)。
当预测的视差矢量不为(0,0)时,在操作94,层间视频解码设备20使用利用预测的视差矢量的模式。
另一方面,当预测的视差矢量是(0,0)时,层间视频解码设备20确定视差矢量预测的准确度低,并且在操作93可被设置为不使用利用预测的视差矢量的模式。因此,当视差矢量的准确度低时,层间视频解码设备20可通过不使用利用视差矢量的模式来提高编码效率。
同时,以上参照图5至图7d描述的操作由层间视频解码设备20来执行,但是对于本领域普通技术人员来说将明显的是,所述操作也可由层间视频编码设备10来执行。
如上所述,根据一些示例性实施例的层间视频编码设备10和根据一些示例性实施例的层间视频解码设备20可将视频数据的块划分为具有树结构的编码单元、并且编码单元、预测单元和变换单元可用于对编码单元进行层间预测或帧间预测。在下文中,将参照图8至图20来描述根据一些示例性实施例的基于具有树结构的编码单元和变换单元的视频编码方法、视频编码设备、视频解码方法和视频解码设备。
总而言之,在对多层视频的编码/解码处理期间,单独地执行用于第一层图像的编码/解码处理以及用于第二层图像的编码/解码处理。也就是说,当对多层视频执行层间预测时,可相互地参考单层视频的编码/解码结果,但根据单层视频执行单独的编码/解码处理。
因此,由于为了便于描述,以下参照图8至图20描述的基于具有树结构的编码单元的视频编码处理和视频解码处理是用于处理单层视频的视频编码处理和视频解码处理,因此仅执行帧间预测和运动补偿。然而,如以上参照图1a至图7所描述的,为了对视频流进行编码和解码,对基本层图像与第二层图像执行层间预测和补偿。
因此,为了使根据一些示例性实施例的层间视频编码设备10的编码器12基于具有树结构的编码单元对多层视频进行编码,层间视频编码器10可包括与多层视频的层数一样多的图8的视频编码设备100以便根据每个单层视频执行视频编码,从而控制每个视频编码设备100对分配的单层视频进行编码。此外,层间视频编码设备10可通过使用每个视频编码设备100的单独的单视点的编码结果来执行视点间预测。因此,层间视频编码设备10的编码器12可产生包括根据层的编码结果的基本视点视频流和第二层视频流。
类似地,为了使根据一些示例性实施例的层间视频解码设备20的解码器26基于具有树结构的编码单元对多层视频进行解码,层间视频解码设备20可包括与多层视频的层数一样多的图9的视频解码设备200以便针对接收到的第一层视频流和接收到的第二层视频流根据层来执行视频解码,从而控制每个视频解码设备200对分配的单层视频进行解码。此外,层间视频解码设备20可通过使用每个视频解码设备200的单独的单个层的解码结果来执行层间补偿。因此,层间视频解码设备20的解码器26可产生根据层重构的第一层图像和第二层图像。
图8是根据本发明的实施例的基于根据树结构的编码单元的视频编码设备100的框图。
涉及基于根据树结构的编码单元的视频预测的根据实施例的视频编码设备100包括编码单元确定器120和输出单元130。以下,为便于描述,涉及基于根据树结构的编码单元的视频预测的根据实施例的视频编码设备100将被简称为“视频编码设备100”。
编码单元确定器120可基于图像的当前画面的最大编码单元来划分当前画面,其中,最大编码单元是具有最大尺寸的编码单元。如果当前画面大于最大编码单元,则可将当前画面的图像数据划分为至少一个最大编码单元。根据一些示例性实施例的最大编码单元可以是尺寸为32×32、64×64、128×128、256×256等的数据单元,其中,数据单元的形状是宽度和长度为2的若干次方的正方形。
根据一些示例性实施例的编码单元可由最大尺寸和深度表征。深度表示编码单元从最大编码单元被空间划分的次数,并且随着深度加深,根据深度的较深层编码单元可从最大编码单元被划分到最小编码单元。最大编码单元的深度为最高深度,最小编码单元的深度为最低深度。由于随着最大编码单元的深度加深,与每个深度相应的编码单元的尺寸减小,因此与更高深度相应的编码单元可包括多个与更低深度相应的编码单元。
如上所述,当前画面的图像数据根据编码单元的最大尺寸被划分为最大编码单元,并且每个最大编码单元可包括根据深度被划分的较深层编码单元。由于根据深度对根据一些示例性实施例的最大编码单元进行划分,因此可根据深度分层地对包括在最大编码单元中的空间域的图像数据进行分类。
可预先确定编码单元的最大深度和最大尺寸,其中,所述最大深度和最大尺寸限制最大编码单元的高度和宽度被分层划分的总次数。
编码单元确定器120对通过根据深度对最大编码单元的区域进行划分而获得的至少一个划分区域进行编码,并且根据所述至少一个划分区域来确定用于输出最终编码的图像数据的深度。换言之,编码单元确定器120通过根据当前画面的最大编码单元以根据深度的较深层编码单元对图像数据进行编码,并选择具有最小编码误差的深度,来确定最终深度。将确定的最终深度和根据确定的编码深度的编码的图像数据输出到输出单元130。
基于与等于或低于最大深度的至少一个深度相应的较深层编码单元,对最大编码单元中的图像数据进行编码,并且基于每个较深层编码单元比较对图像数据进行编码的结果。在对较深层编码单元的编码误差进行比较之后,可选择具有最小编码误差的深度。可针对每个最大编码单元选择至少一个最终深度。
随着编码单元根据深度而被分层地划分以及随着编码单元的数量增加,最大编码单元的尺寸被划分。另外,即使在一个最大编码单元中编码单元与同一深度相应,仍通过分别测量每个编码单元的图像数据的编码误差来确定是否将与同一深度相应的每个编码单元划分到更低深度。因此,即使当图像数据被包括在一个最大编码单元中时,编码误差可根据所述一个最大编码单元中的区域而不同,因此最终深度可根据图像数据中的区域而不同。因此,可在一个最大编码单元中确定一个或更多个最终深度,并且可根据至少一个最终深度的编码单元来对最大编码单元的图像数据进行划分。
因此,根据一些示例性实施例的编码单元确定器120可确定包括在最大编码单元中的具有树结构的编码单元。根据一些示例性实施例的“具有树结构的编码单元”包括最大编码单元中包括的所有较深层编码单元中的与确定为最终深度的深度相应的编码单元。可根据最大编码单元的同一区域中的深度来分层地确定最终深度的编码单元,并可在不同区域中独立地确定最终深度的编码单元。类似地,可从另一区域的最终深度独立地确定当前区域中的最终深度。
根据一些示例性实施例的最大深度是与从最大编码单元到最小编码单元的划分次数相关的索引。根据一些示例性实施例的第一最大深度可表示从最大编码单元到最小编码单元的总划分次数。根据一些示例性实施例的第二最大深度可表示从最大编码单元到最小编码单元的深度等级的总数。例如,当最大编码单元的深度是0时,对最大编码单元划分一次的编码单元的深度可被设置为1,对最大编码单元划分两次的编码单元的深度可被设置为2。这里,如果最小编码单元是最大编码单元被划分四次后的编码单元,则存在深度0、1、2、3和4的深度等级,并因此第一最大深度可被设置为4,第二最大深度可被设置为5。
可根据最大编码单元执行预测编码和变换。还根据最大编码单元,基于根据等于或小于最大深度的深度的较深层编码单元来执行预测编码和变换。
由于每当根据深度对最大编码单元进行划分时,较深层编码单元的数量增加,因此将对随着深度加深而产生的所有较深层编码单元执行包括预测编码和变换的编码。为了便于描述,在最大编码单元中,现在将基于当前深度的编码单元来描述预测编码和变换。
根据一些示例性实施例的视频编码设备100可不同地选择用于对图像数据进行编码的数据单元的尺寸或形状。为了对图像数据进行编码,执行诸如预测编码、变换和熵编码的操作,此时,可针对所有操作使用相同的数据单元,或者可针对每个操作使用不同的数据单元。
例如,视频编码设备100不仅可选择用于对图像数据进行编码的编码单元,还可选择不同于编码单元的数据单元,以便对编码单元中的图像数据执行预测编码。
为了在最大编码单元中执行预测编码,可基于根据一些示例性实施例的与最终深度相应的编码单元(即,基于不再被划分为与更低深度相应的编码单元的编码单元)来执行预测编码。以下,不再被划分且成为用于预测编码的基本单元的编码单元现在将被称为“预测单元”。通过划分预测单元获得的分区可包括预测单元或通过对预测单元的高度和宽度中的至少一个进行划分而获得的数据单元。分区是编码单元的预测单元被划分的数据单元,并且预测单元可以是具有与编码单元相同的尺寸的分区。
例如,当2N×2N(其中,N是正整数)的编码单元不再被划分并成为2N×2N的预测单元时,分区的尺寸可以是2N×2N、2N×N、N×2N或N×N。根据一些示例性实施例的分区模式的示例包括通过对预测单元的高度或宽度进行对称地划分而获得的对称分区、通过对预测单元的高度或宽度进行非对称地划分(诸如,1:n或n:1)而获得的分区、通过对预测单元进行几何地划分而获得的分区、以及具有任意形状的分区。
预测单元的预测模式可以是帧内模式、帧间模式和跳过模式中的至少一个。例如,可对2N×2N、2N×N、N×2N或N×N的分区执行帧内模式或帧间模式。另外,可仅对2N×2N的分区执行跳过模式。可对编码单元中的一个预测单元独立地执行编码,从而选择具有最小编码误差的预测模式。
根据一些示例性实施例的视频编码设备100不仅可基于用于对图像数据进行编码的编码单元还可基于与编码单元不同的数据单元,来对编码单元中的图像数据执行变换。为了在编码单元中执行变换,可基于具有小于或等于编码单元的尺寸的变换单元来执行变换。例如,变换单元可包括帧内模式的数据单元和帧间模式的数据单元。
根据一些示例性实施例,可以以与编码单元根据树结构被划分类似的方式将编码单元中的变换单元递归地划分为更小尺寸的区域。因此,可基于根据变换深度的具有树结构的变换单元,对编码单元中的残差数据进行划分。
根据一些示例性实施例,还可在变换单元中设置变换深度,其中,变换深度指示通过对编码单元的高度和宽度进行划分而达到变换单元的划分次数。例如,在2N×2N的当前编码单元中,当变换单元的尺寸是2N×2N时,变换深度可以是0,当变换单元的尺寸是N×N时,变换深度可以是1,当变换单元的尺寸是N/2×N/2时,变换深度可以是2。换句话说,还可根据变换深度设置具有树结构的变换单元。
根据深度的划分信息不仅要求关于深度的信息,还要求关于与预测编码和变换相关的信息的信息。因此,编码单元确定器120不仅确定具有最小编码误差的深度,还确定将预测单元划分成分区的分区模式、根据预测单元的预测模式以及用于变换的变换单元的尺寸。
随后将参照图9至图19详细描述根据一些示例性实施例的最大编码单元中的根据树结构的编码单元以及确定预测单元/分区和变换单元的方法。
编码单元确定器120可通过使用基于拉格朗日乘数的率失真优化来测量根据深度的较深层编码单元的编码误差。
输出单元130在比特流中输出最大编码单元的图像数据和根据深度的划分信息,其中,所述最大编码单元的图像数据基于由编码单元确定器120确定的至少一个深度被编码。
可通过对图像的残差数据进行编码来获得编码图像数据。
根据深度的划分信息可包括关于深度的信息、关于预测单元中的分区模式的信息、关于预测模式的信息和关于变换单元的划分的信息。
可通过使用根据深度的划分信息来定义关于最终深度的信息,其中,根据深度的划分信息指示是否对更低深度而不是当前深度的编码单元执行编码。如果当前编码单元的当前深度是深度,则对当前编码单元进行编码,因此可将划分信息定义为不将当前编码单元划分到更低深度。可选地,如果当前编码单元的当前深度不是深度,则对更低深度的编码单元执行编码,并因此可将划分信息定义为对当前编码单元进行划分来获得更低深度的编码单元。
如果当前深度不是深度,则对被划分到更低深度的编码单元的编码单元执行编码。由于更低深度的至少一个编码单元存在于当前深度的一个编码单元中,因此对更低深度的每个编码单元重复执行编码,并因此可对具有相同深度的编码单元递归地执行编码。
由于针对一个最大编码单元确定具有树结构的编码单元,并且针对深度的编码单元确定划分信息,所以可针对一个最大编码单元确定至少一条划分信息。另外,由于根据深度对图像数据进行分层划分,因此最大编码单元的图像数据的深度可根据位置而不同,因此可针对图像数据设置深度和划分信息。
因此,根据一些示例性实施例的输出单元130可将相应深度和关于编码模式的编码信息分配给包括在最大编码单元中的编码单元、预测单元和最小单元中的至少一个。
根据一些示例性实施例的最小单元是通过将构成最低深度的最小编码单元划分为4份而获得的正方形数据单元。可选择地,根据一些示例性实施例的最小单元可以是可包括在最大编码单元中所包括的所有编码单元、预测单元、分区单元和变换单元中的最大正方形数据单元。
例如,通过输出单元130输出的编码信息可被分类为根据较深层编码单元的编码信息和根据预测单元的编码信息。根据较深层编码单元的编码信息可包括关于预测模式的信息和关于分区的尺寸的信息。根据预测单元的编码信息可包括关于帧间模式的估计方向的信息、关于帧间模式的参考图像索引的信息、关于运动矢量的信息、关于帧内模式的色度分量的信息、以及关于帧内模式的插值方法的信息。
根据画面、条带或GOP定义的关于编码单元的最大尺寸的信息和关于最大深度的信息可被插入到比特流的头、序列参数集或画面参数集中。
通过比特流的头、序列参数集或画面参数集还可输出关于针对当前视频允许的变换单元的最大尺寸的信息、以及关于变换单元的最小尺寸的信息。输出单元130可对与预测相关的参考信息、预测信息和条带类型信息进行编码并输出。
在根据最简单实施例的视频编码设备100中,较深层编码单元可以是通过将更高深度(更高一层)的编码单元的高度或宽度划分成两份而获得的编码单元。换言之,当当前深度的编码单元的尺寸是2N×2N时,更低深度的编码单元的尺寸是N×N。另外,尺寸为2N×2N的具有当前深度的编码单元可包括最多4个具有所述更低深度的编码单元。
因此,视频编码设备100可基于考虑当前画面的特征而确定的最大编码单元的尺寸和最大深度,通过针对每个最大编码单元确定具有最优形状和最优尺寸的编码单元来形成具有树结构的编码单元。另外,由于可通过使用各种预测模式和变换中的任意一个对每个最大编码单元执行编码,因此可考虑各种图像尺寸的编码单元的特征来确定最优编码模式。
因此,如果以传统宏块对具有高的分辨率或大数据量的图像进行编码,则每个画面的宏块的数量极度增加。因此,针对每个宏块产生的压缩信息的条数增加,因此难以发送压缩的信息,并且数据压缩效率降低。然而,通过使用根据一些示例性实施例的视频编码设备100,由于在考虑图像的尺寸的同时增加编码单元的最大尺寸,并同时在考虑图像的特征的同时调整编码单元,因此可提高图像压缩效率。
以上参照图1a描述的层间视频编码设备10可包括与层数一样多的视频编码设备100,以根据多层视频的层对单层图像进行编码。例如,第一层编码器12可包括一个视频编码设备100,第二层编码器16可包括与第二层的数量一样多的视频编码设备100。
当视频编码设备100对第一层图像进行编码时,编码单元确定器120可针对每个最大编码单元确定用于根据具有树结构的编码单元的帧间预测的预测单元,并可根据预测单元执行帧间预测。
即使当视频编码设备100对第二层图像进行编码时,编码单元确定器120可针对每个最大编码单元确定具有树结构的预测单元和编码单元,并可根据预测单元执行帧间预测。
视频编码设备100可对照度差进行编码来对第一层图像与第二层图像之间的照度差进行补偿。然而,可根据编码单元的编码模式来确定是否执行照度补偿。例如,可仅对尺寸为2N×2N的预测单元执行照度补偿。
图9是根据本发明的一些示例性实施例的基于根据树结构的编码单元的视频解码设备200的框图。
涉及基于具有树结构的编码单元的视频预测的根据实施例的视频解码设备200包括接收器210、图像数据和编码信息提取器220和图像数据解码器230。为了便于描述,涉及基于具有树结构的编码单元的视频预测的根据实施例的视频解码设备200被简称为“视频解码设备200”。
用于根据一些示例性实施例的视频解码设备200的解码操作的各种术语(诸如编码单元、深度、预测单元、变换单元和各种划分信息)的定义与参照图8和视频编码设备100描述的定义相同。
接收器210接收和解析编码视频的比特流。图像数据和编码信息提取器220从解析的比特流,针对每个编码单元提取编码图像数据,并将提取的图像数据输出到图像数据解码器230,其中,编码单元具有根据每个最大编码单元的树结构。图像数据和编码信息提取器220可从关于当前画面的头、序列参数集或画面参数集提取关于当前画面的编码单元的最大尺寸的信息。
另外,图像数据和编码信息提取器220从解析的比特流,根据每个最大编码单元,提取具有树结构的编码单元的最终深度和划分信息。提取的最终深度和划分信息被输出到图像数据解码器230。换言之,比特流中的图像数据被划分为最大编码单元,使得图像数据解码器230针对每个最大编码单元对图像数据进行解码。
可针对至少一个深度信息设置根据最大编码单元的深度和划分信息,划分信息可包括关于相应编码单元的分区模式的信息、关于预测模式的信息和关于变换单元的划分的信息。另外,根据深度的划分信息可被提取为关于深度的信息。
由图像数据和编码信息提取器220提取的根据每个最大编码单元的深度和划分信息是关于这样的深度和划分信息:该深度和划分信息被确定为在编码器(诸如,根据一些示例性实施例的视频编码设备100)根据每个最大编码单元对根据深度的每个较深层编码单元重复地执行编码时产生最小编码误差。因此,视频解码设备200可通过根据产生最小编码误差的编码深度和编码模式对图像数据进行解码来重构图像。
由于关于深度和编码模式的根据一些示例性实施例的编码信息可被分配给相应的编码单元、预测单元和最小单元中的预定数据单元,因此图像数据和编码信息提取器220可根据预定数据单元提取深度和划分信息。如果相应最大编码单元的深度和划分信息根据预定数据单元被记录,则可将被分配相同深度和相同划分信息的预定数据单元推断为是包括在同一最大编码单元中的数据单元。
图像数据解码器230可基于根据最大编码单元的深度和划分信息,通过对每个最大编码单元中的图像数据进行解码来重构当前画面。换言之,图像数据解码器230可基于提取出的关于包括在每个最大编码单元中的具有树结构的编码单元之中的每个编码单元的分区模式、预测模式和变换单元的信息,对编码的图像数据进行解码。解码处理可包括预测(包含帧内预测和运动补偿)和逆变换。
图像数据解码器230可基于关于根据深度的编码单元的预测单元的分区模式和预测模式的信息,根据每个编码单元的分区和预测模式,执行帧内预测或运动补偿。
此外,针对每个最大编码单元的逆变换,图像数据解码器230可针对每个编码单元读取关于根据树结构的变换单元的信息,以基于每个编码单元的变换单元来执行逆变换。经由逆变换,可重构编码单元的空间域的像素值。
图像数据解码器230可通过使用根据深度的划分信息来确定当前最大编码单元的深度。如果划分信息指示图像数据在当前深度中不再被划分,则当前深度是深度。因此,图像数据解码器230可通过使用关于预测单元的分区模式、预测模式和变换单元的尺寸的信息,对当前最大编码单元中的编码数据进行解码。
换言之,可通过观察被分配给编码单元、预测单元和最小单元中的预定数据单元的编码信息集来收集包含包括相同划分信息的编码信息的数据单元,并且收集的数据单元可被认为是将由图像数据解码器230以相同编码模式进行解码的一个数据单元。因此,可通过获得关于每个编码单元的编码模式的信息来对当前编码单元进行解码。
以上参照图2a描述的层间视频解码设备20可包括与视点数一样多的多个视频解码设备200,以便通过对接收到的第一层图像流和接收到的第二层图像流进行解码来重构第一层图像和第二层图像。
当第一层图像流被接收时,视频解码设备200的图像数据解码器230可将由图像数据和编码信息提取器220从第一层图像流提取的第一层图像的样点划分为具有树结构的编码单元。图像数据解码器230可通过对经由划分第一层图像的样点而获得的具有树结构的编码单元执行根据用于帧间预测的预测单元的运动补偿来重构第一层图像。
当第二层图像流被接收时,视频解码设备200的图像数据解码器230可将由图像数据和编码信息提取器220从第二层图像流提取的第二层图像的样点划分为具有树结构的编码单元。图像数据解码器230可通过对经由划分第二层图像的样点而获得的编码单元执行根据用于帧间预测的预测单元的运动补偿来重构第二层图像。
提取器220可从比特流获得与照度误差相关的信息,以便对第一层图像与第二层图像之间的照度差进行补偿。然而,可根据编码单元的编码模式来确定是否执行照度补偿。例如,可仅对尺寸为2N×2N的预测单元执行照度补偿。
因此,视频解码设备200可获得关于当对每个最大编码单元递归地执行编码时产生最小编码误差的至少一个编码单元的信息,并可使用所述信息来对当前画面进行解码。换句话说,可对每个最大编码单元中被确定为最优编码单元的具有树结构的编码单元进行解码。
因此,即使图像具有高分辨率或具有大数据量,也可通过使用编码单元的尺寸和编码模式,有效地对图像数据进行解码和重构,其中,所述编码单元的尺寸和编码模式是通过使用从编码器接收到的最优划分信息,根据图像的特征而被自适应地确定的。
图10是用于描述根据一些示例性实施例的编码单元的构思的示图。
编码单元的尺寸可被表示为宽度×高度,并且可以是64×64、32×32、16×16和8×8。64×64的编码单元可被划分为64×64、64×32、32×64或32×32的分区,32×32的编码单元可被划分为32×32、32×16、16×32或16×16的分区,16×16的编码单元可被划分为16×16、16×8、8×16或8×8的分区,8×8的编码单元可被划分为8×8、8×4、4×8或4×4的分区。
在视频数据310中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为2。在视频数据320中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为3。在视频数据330中,分辨率为352×288,编码单元的最大尺寸为16,最大深度为1。图10中示出的最大深度表示从最大编码单元到最小解码单元的划分总次数。
如果分辨率高或数据量大,则编码单元的最大尺寸可能较大,从而不仅提高编码效率,而且准确地反映图像的特征。因此,具有比视频数据330更高分辨率的视频数据310和320的编码单元的最大尺寸可以是64。
由于视频数据310的最大深度是2,因此由于通过对最大编码单元划分两次,深度加深至两层,因此视频数据310的编码单元315可包括长轴尺寸为64的最大编码单元和长轴尺寸为32和16的编码单元。由于视频数据330的最大深度是1,因此由于通过对最大编码单元划分一次,深度加深至一层,因此视频数据330的编码单元335可包括长轴尺寸为16的最大编码单元和长轴尺寸为8的编码单元。
由于视频数据320的最大深度是3,因此由于通过对最大编码单元划分三次,深度加深至3层,因此视频数据320的编码单元325可包括长轴尺寸为64的最大编码单元和长轴尺寸为32、16和8的编码单元。随着深度加深,详细信息可被精确地表示。
图11是根据一些示例性实施例的基于编码单元的图像编码器400的框图。
根据一些实施例的图像编码器400执行视频编码设备100的编码单元确定器120的操作来对图像数据进行编码。换言之,帧内预测器420按照预测单元对当前帧405中的帧内模式下的编码单元执行帧内预测,帧间预测器415按照预测单元通过使用当前帧405和经由恢复画面缓冲器410获得的参考帧,对帧间模式下的编码单元帧间预测。当前画面405可被划分为最大编码单元,然后最大编码单元可被顺序地编码。这里,可对从最大编码单元划分为树结构的编码单元执行编码。
通过从将被编码的当前图像405的数据减去从帧内预测器420或帧间预测器415输出的每个模式的编码单元的预测数据来产生残差数据,并且残差数据按照变换单元通过变换器425和量化器430被输出为量化后的变换系数。量化后的变换系数通过反量化器445和逆变换器450被恢复为空间域中的残差数据。空间域中的残差数据被添加到从帧内预测器420或帧间预测器415输出的每个模式的编码单元的预测数据以被恢复为当前图像405的编码单元的空间域中的数据。空间域中的数据通过去块单元455和样点自适应偏移(SAO)执行器460并因此产生恢复的图像。恢复的图像被存储在恢复画面缓冲器410中。存储在恢复画面缓冲器410中的恢复图像可作为用于对另一图像进行帧间预测的参考图像。通过变换器425和量化器430而获得的量化后的变换系数可通过熵编码器435被输出为比特流440。
为了将根据一些实施例的图像编码器400应用于视频编码设备100,图像编码器400的组件(即,帧间预测器415、帧内预测器420、变换器425、量化器430、熵编码器435、反量化器445、逆变换器450、去块单元455和SAO执行器460)基于每个最大编码单元的具有树结构的编码单元中的每个编码单元执行操作。
具体地,帧内预测器420和帧间预测器415在考虑当前最大编码单元的最大尺寸和最大深度的同时确定具有树结构的编码单元中的每个编码单元的分区和预测模式,变换器425可确定是否在具有树结构的编码单元中的每个编码单元中根据四叉树来划分变换单元。
图12是根据一些实施例的基于编码单元的图像解码器500的框图。
熵解码器515从比特流505解析将被解码的编码图像数据和解码所需的编码信息。编码图像数据是量化的变换系数,并且反量化器520和逆变换器525从量化的变换系数来恢复残差数据。
帧内预测器540根据预测单元对帧内模式下的编码单元执行帧内预测。帧间预测器通过使用经由恢复画面缓冲器530获得的参考图像,根据预测单元对当前图像中的帧间模式下的编码单元执行帧间预测。
通过帧内预测器和帧间预测器535将残差数据与每个模式的编码单元的预测数据相加来恢复当前图像的编码单元的空间域中的数据,并且空间域中的数据可通过去块单元545和SAO执行器550被输出为恢复的图像。此外,存储在恢复画面缓冲器530中的恢复的图像可被输出为参考图像。
为了在视频解码设备200的图像数据解码器230中对图像数据进行解码,可执行在根据一些实施例的图像解码器500的熵解码器515之后的操作。
为了将图像解码器500应用在根据一些实施例的视频解码设备200中,图像解码器500的组件(即,熵解码器515、反量化器520、逆变换器525、帧内预测器540、帧间预测器535、去块单元545和SAO执行器550)可针对每个最大编码单元基于具有树结构的编码单元执行操作。
具体地,帧内预测器540和帧间预测器535根据具有树结构的每个编码单元确定分区模式和预测模式,逆变换器525可确定是否按照编码单元根据四叉树结构来划分变换单元。
图10的编码操作和图11的解码操作分别是单层中的视频流编码操作和视频流解码操作。因此,当图1a的编码器16对至少两个层的视频流进行编码时,图1a的视频编码设备100可包括与层数一样多的多个图像编码器400。类似地,当图2a的解码器22对至少两个层的视频流进行解码时,图2a的视频解码设备200可包括与层数一样多的多个图像解码器500。
图13是示出根据本发明构思的示例性实施例的编码单元以及分区的示图。
根据一些示例性实施例的视频编码设备100和根据一些示例性实施例的视频解码设备200使用分层编码单元以考虑图像的特征。可根据图像的特征自适应地确定编码单元的最大高度、最大宽度和最大深度,或可由用户不同地设置编码单元的最大高度、最大宽度和最大深度。可根据编码单元的预定最大尺寸来确定根据深度的较深层编码单元的尺寸。
在根据一些示例性实施例的编码单元的分层结构600中,编码单元的最大高度和最大宽度均是64,最大深度是3。在此情况下,最大深度是指编码单元从最大编码单元到最小编码单元被划分的总次数。由于深度沿着根据一些示例性实施例的编码单元的分层结构600的垂直轴加深,因此较深层编码单元的高度和宽度均被划分。另外,预测单元和分区沿着分层结构600的水平轴被示出,其中,所述预测单元和分区是对每个较深层编码单元进行预测编码的基础。
换言之,在分层结构600中,编码单元610是最大编码单元,其中,深度为0,尺寸(即,高度乘宽度)为64×64。深度沿着垂直轴加深,存在尺寸为32×32和深度为1的编码单元620、尺寸为16×16和深度为2的编码单元630、尺寸为8×8和深度为3的编码单元640。尺寸为8×8和深度为3的编码单元640是最小编码单元。
编码单元的预测单元和分区根据每个深度沿着水平轴被排列。换言之,如果尺寸为64×64和深度为0的编码单元610是预测单元,则可将预测单元划分成包括在编码单元610中的分区,即,尺寸为64×64的分区610、尺寸为64×32的分区612、尺寸为32×64的分区614或尺寸为32×32的分区616。
类似地,可将尺寸为32×32和深度为1的编码单元620的预测单元划分成包括在编码单元620中的分区,即,尺寸为32×32的分区620、尺寸为32×16的分区622、尺寸为16×32的分区624和尺寸为16×16的分区626。
类似地,可将尺寸为16×16和深度为2的编码单元630的预测单元划分成包括在编码单元630中的分区,即,包括在编码度单元630中的尺寸为16×16的分区、尺寸为16×8的分区632、尺寸为8×16的分区634和尺寸为8×8的分区636。
类似地,可将尺寸为8×8和深度为3的编码单元640的预测单元划分成包括在编码单元640中的分区,即,包括在编码单元640中的尺寸为8×8的分区、尺寸为8×4的分区642、尺寸为4×8的分区644和尺寸为4×4的分区646。
为了确定最大编码单元610的深度,根据一些示例性实施例的视频编码设备100的编码单元确定器120对包括在最大编码单元610中的与每个深度相应的编码单元执行编码。
随着深度加深,包括具有相同范围和相同尺寸的数据的根据深度的较深层编码单元的数量增加。例如,需要四个与深度2相应的编码单元来覆盖包括在与深度1相应的一个编码单元中的数据。因此,为了根据深度比较对相同数据进行编码的结果,与深度1相应的编码单元和四个与深度2相应的编码单元均被编码。
为了针对多个深度之中的当前深度执行编码,可沿着分层结构600的水平轴,通过对与当前深度相应的编码单元中的每个预测单元执行编码,来针对当前深度选择最小编码误差。可选地,随着深度沿着分层结构600的垂直轴加深,可通过针对每个深度执行编码来比较根据深度的最小编码误差,以搜索最小编码误差。在最大编码单元610中的具有最小编码误差的深度和分区可被选为最大编码单元610的深度和分区模式。
图14是用于描述根据本发明构思的一些实施例的编码单元和变换单元之间的关系的示图。
根据一些示例性实施例的视频编码设备100或根据一些示例性实施例的视频解码设备200针对每个最大编码单元,根据具有小于或等于最大编码单元的尺寸的编码单元,对图像进行编码或解码。可基于不大于相应编码单元的数据单元,来选择用于在编码期间进行变换的变换单元的尺寸。
例如,在根据一些示例性实施例的视频编码设备100或根据一些示例性实施例的视频解码设备200中,如果编码单元710的尺寸是64×64,则可通过使用尺寸为32×32的变换单元720来执行变换。
此外,可通过对小于64×64的尺寸为32×32、16×16、8×8和4×4的每个变换单元执行变换,来对尺寸为64×64的编码单元710的数据进行编码,然后可选择具有最小编码误差的变换单元。
图15是用于描述根据一些示例性实施例的编码信息的示图。
根据一些示例性实施例的视频编码设备100的输出单元130可对与深度相应的每个编码单元的关于分区模式的信息800、关于预测模式的信息810以及关于变换单元的尺寸的信息820进行编码,并将信息800、信息810和信息820作为划分信息来发送。
信息800指示关于通过划分当前编码单元的预测单元而获得的分区的形状的信息,其中,所述分区是用于对当前编码单元进行预测编码的数据单元。例如,可将尺寸为2N×2N的当前编码单元CU_0划分成以下分区中的任意一个:尺寸为2N×2N的分区802、尺寸为2N×N的分区804、尺寸为N×2N的分区806以及尺寸为N×N的分区808。这里,关于分区类型的信息800被设置来指示尺寸为2N×N的分区804、尺寸为N×2N的分区806以及尺寸为N×N的分区808中的一个。
信息810指示每个分区的预测模式。例如,信息810可指示对由信息800指示的分区执行的预测编码的模式,即,帧内模式812、帧间模式814或跳过模式816。
信息820指示当对当前编码单元执行变换时所基于的变换单元。例如,变换单元可以是第一帧内变换单元822、第二帧内变换单元824、第一帧间变换单元826或第二帧间变换单元828。
根据一些示例性实施例的视频解码设备200的图像数据和编码信息提取器220可根据每个较深层编码单元,提取并使用用于解码的信息800、810和820。
图16是根据一些示例性实施例的根据深度的较深层编码单元的示图。
划分信息可用来指示深度的改变。划分信息指示当前深度的编码单元是否被划分成更低深度的编码单元。
用于对深度为0和尺寸为2N_0×2N_0的编码单元900进行预测编码的预测单元910可包括以下分区类型的分区:尺寸为2N_0×2N_0的分区类型912、尺寸为2N_0×N_0的分区类型914、尺寸为N_0×2N_0的分区类型916和尺寸为N_0×N_0的分区类型918。图9仅示出了通过对称地划分预测单元而获得的分区912至918,但是分区模式不限于此,并且预测单元的分区可包括非对称分区、具有预定形状的分区和具有几何形状的分区。
根据每种分区模式,对尺寸为2N_0×2N_0的一个分区、尺寸为2N_0×N_0的两个分区、尺寸为N_0×2N_0的两个分区和尺寸为N_0×N_0的四个分区重复地执行预测编码。可对尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区执行帧内模式和帧间模式下的预测编码。仅对尺寸为2N_0×2N_0的分区执行跳过模式下的预测编码。
如果在分区模式912至916中的一个分区模式中编码误差最小,则可不将预测单元910划分到更低深度。
如果在分区模式918中编码误差最小,则深度从0改变到1以在操作920中划分分区模式918,并对深度为2和尺寸为N_0×N_0的编码单元930重复地执行编码来搜索最小编码误差。
用于对深度为1和尺寸为2N_1×2N_1(=N_0×N_0)的编码单元930进行预测编码的预测单元940可包括以下分区模式的分区:尺寸为2N_1×2N_1的分区模式942、尺寸为2N_1×N_1的分区模式944、尺寸为N_1×2N_1的分区模式946以及尺寸为N_1×N_1的分区模式948。
如果在分区模式948中编码误差最小,则深度从1改变到2以在操作950中划分分区模式948,并对深度为2和尺寸为N_2×N_2的编码单元960重复执行编码来搜索最小编码误差。
当最大深度是d时,根据每个深度的划分操作可被执行直到深度变成d-1,并且划分信息可被编码直到深度是0到d-2之一。换句话说,当编码被执行直到在与d-2的深度相应的编码单元在操作970中被划分之后深度是d-1时,用于对深度为d-1和尺寸为2N_(d-1)×2N_(d-1)的编码单元980进行预测编码的预测单元990可包括以下分区模式的分区:尺寸为2N_(d-1)×2N_(d-1)的分区模式992、尺寸为2N_(d-1)×N_(d-1)的分区模式994、尺寸为N_(d-1)×2N_(d-1)的分区模式996和尺寸为N_(d-1)×N_(d-1)的分区模式998。
可对分区模式中的尺寸为2N_(d-1)×2N_(d-1)的一个分区、尺寸为2N_(d-1)×N_(d-1)的两个分区、尺寸为N_(d-1)×2N_(d-1)的两个分区、尺寸为N_(d-1)×N_(d-1)的四个分区重复地执行预测编码,以搜索具有最小编码误差的分区模式。
即使当分区模式998具有最小编码误差时,由于最大深度是d,因此深度为d-1的编码单元CU_(d-1)也不再被划分到更低深度,用于构成当前最大编码单元900的编码单元的深度被确定为d-1,并且当前最大编码单元900的分区模式可被确定为N_(d-1)×N_(d-1)。此外,由于最大深度是d,因此不设置深度为d-1的编码单元952的划分信息。
数据单元999可以是用于当前最大编码单元的“最小单元”。根据一些示例性实施例的最小单元可以是通过将具有最低编码深度的最小编码单元划分成4份而获得的正方形数据单元。通过重复地执行编码,根据一些示例性实施例的视频编码设备100可通过比较根据编码单元900的深度的编码误差来选择具有最小编码误差的深度以确定深度,并将相应分区模式和预测模式设置为深度的编码模式。
这样,在所有深度1至d中对根据深度的最小编码误差进行比较,并且具有最小编码误差的深度可被确定为深度d。深度、预测单元的分区模式和预测模式可作为划分信息被编码并发送。另外,由于编码单元从0的深度被划分到深度,因此仅将该深度的划分信息设置为0,并且将除了该深度以外的深度的划分信息设置为1。
根据一些示例性实施例的视频解码设备200的图像数据和编码信息提取器220可提取并使用关于编码单元900的深度和预测单元的信息,来对分区912进行解码。根据一些示例性实施例的视频解码设备200可通过使用根据深度的划分信息,将划分信息为0的深度确定为深度,并且使用相应深度的划分信息来进行解码。
图17至图19是用于描述根据一些示例性实施例的在编码单元、预测单元和变换单元之间的关系的示图。
编码单元1010是最大编码单元中的根据由根据一些示例性实施例的视频编码设备100确定的深度的具有树结构的编码单元。预测单元1060是根据深度的每个编码单元的预测单元的分区,变换单元1070是根据深度的每个编码单元的变换单元。
当在编码单元1010中最大编码单元的深度是0时,编码单元1012和1054的深度是1,编码单元1014、1016、1018、1028、1050和1052的深度是2,编码单元1020、1022、1024、1026、1030、1032和1048的深度是3,编码单元1040、1042、1044和1046的深度是4。
在预测单元1060中,通过划分编码单元1010中的编码单元来获得一些编码单元1014、1016、1022、1032、1048、1050、1052和1054。换句话说,编码单元1014、1022、1050和1054中的分区模式的尺寸是2N×N,编码单元1016、1048和1052中的分区模式的尺寸是N×2N,编码单元1032的分区模式的尺寸为N×N。编码单元1010的预测单元和分区小于或等于每个编码单元。
在小于编码单元1052的数据单元中的变换单元1070中,对编码单元1052的图像数据执行变换或逆变换。另外,在尺寸和形状方面,变换单元1070中的编码单元1014、1016、1022、1032、1048、1050和1052不同于预测单元1060中的编码单元1014、1016、1022、1032、1048、1050和1052。换句话说,根据一些示例性实施例的视频编码设备100和视频解码设备200可对同一编码单元中的数据单元独立地执行帧内预测、运动估计、运动补偿、变换和逆变换。
因此,对最大编码单元的每个区域中的具有分层结构的每个编码单元递归地执行编码来确定最优编码单元,从而可获得具有递归树结构的编码单元。编码信息可包括关于编码单元的划分信息、关于分区模式的信息、关于预测模式的信息和关于变换单元的尺寸的信息。表9示出可由根据各种示例性实施例的视频编码设备100和视频解码设备200设置的编码信息。
[表9]
根据一些示例性实施例的视频编码设备100的输出单元130可输出关于具有树结构的编码单元的编码信息,根据一些示例性实施例的视频解码设备200的图像数据和编码信息提取器220可从接收到的比特流提取关于具有树结构的编码单元的编码信息。
划分信息指示是否将当前编码单元划分成更低深度的编码单元。如果当前深度d的划分信息是0,则当前编码单元不再被划分成更低深度的深度是深度,从而可针对该深度来定义关于分区模式、预测模式和变换单元的尺寸的信息。如果当前编码单元根据划分信息被进一步划分,则对更低深度的四个划分编码单元独立地执行编码。
预测模式可以是帧内模式、帧间模式和跳过模式中的一种。可在所有分区模式中定义帧内模式和帧间模式,仅在尺寸为2N×2N的分区模式中定义跳过模式。
关于分区模式的信息可指示通过对称地划分预测单元的高度或宽度而获得的尺寸为2N×2N、2N×N、N×2N和N×N的对称分区模式,以及通过非对称地划分预测单元的高度或宽度而获得的尺寸为2N×nU、2N×nD、nL×2N和nR×2N的非对称分区模式。可通过按1:3和3:1来划分预测单元的高度来分别获得尺寸为2N×nU和2N×nD的非对称分区模式,可通过按1:3和3:1来划分预测单元的宽度来分别获得尺寸为nL×2N和nR×2N的非对称分区模式。
可将变换单元的尺寸设置成帧内模式下的两种类型和帧间模式下的两种类型。换句话说,如果变换单元的划分信息是0,则变换单元的尺寸可以是2N×2N,即当前编码单元的尺寸。如果变换单元的划分信息是1,则可通过对当前编码单元进行划分来获得变换单元。另外,如果尺寸为2N×2N的当前编码单元的分区模式是对称分区模式,则变换单元的尺寸可以是N×N,如果当前编码单元的分区类型是非对称分区模式,则变换单元的尺寸可以是N/2×N/2。
根据一些示例性实施例的关于具有树结构的编码单元的编码信息可包括与深度相应的编码单元、预测单元和最小单元中的至少一个。与深度相应的编码单元可包括包含相同编码信息的预测单元和最小单元中的至少一个。
因此,通过比较邻近数据单元的编码信息来确定邻近数据单元是否被包括在与深度相应的同一编码单元中。另外,通过使用数据单元的编码信息来确定与深度相应的相应编码单元,并因此可确定最大编码单元中的深度的分布。
因此,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则可直接参考并使用与当前编码单元邻近的较深层编码单元中的数据单元的编码信息。
可选地,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则使用数据单元的编码信息来搜索与当前编码单元邻近的数据单元,并可参考搜索到的邻近编码单元以对当前编码单元进行预测。
图20是用于描述根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
最大编码单元1300包括多个深度的编码单元1302、1304、1306、1312、1314、1316和1318。这里,由于编码单元1318是一个深度的编码单元,因此划分信息可被设置成0。可将关于尺寸为2N×2N的编码单元1318的分区模式的信息设置成以下分区模式中的一种:尺寸为2N×2N的分区模式1322、尺寸为2N×N分区模式1324、尺寸为N×2N分区模式1326、尺寸为N×N分区模式1328、尺寸为2N×nU分区模式1332、尺寸为2N×nD分区模式1334、尺寸为nL×2N分区模式1336和尺寸为nR×2N分区模式1338。
变换单元的划分信息(TU尺寸标记)是一种类型的变换索引。与变换索引相应的变换单元的尺寸可根据编码单元的预测单元类型或分区模式而改变。
例如,当分区模式被设置成对称(即,分区模式1322、1324、1326或1328)时,如果变换单元的TU尺寸标记是0,则设置尺寸为2N×2N的变换单元1342,如果TU尺寸标记是1,则设置尺寸为N×N的变换单元1344。
当分区模式被设置成非对称(即,分区模式1332、1334、1336或1338)时,如果TU尺寸标记是0,则设置尺寸为2N×2N的变换单元1352,如果TU尺寸标记是1,则设置尺寸为N/2×N/2的变换单元1354。
参照图19,TU尺寸标记是具有值0或1的标记,但是根据一些示例性实施例的TU尺寸标记不限于1比特,并且变换单元可在TU尺寸标记从0开始增加时被分层划分。变换单元的TU尺寸标记可以是变换索引的示例。
在这种情况下,根据一些示例性实施例,可通过使用变换单元的TU尺寸标记以及变换单元的最大尺寸和最小尺寸来表示实际上已使用的变换单元的尺寸。根据一些示例性实施例的视频编码设备100能够对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记进行编码。对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记进行编码的结果可被插入SPS。根据一些示例性实施例的视频解码设备200可通过使用最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记来对视频进行解码。
例如,(a)如果当前编码单元的尺寸是64×64并且最大变换单元尺寸是32×32,则(a-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32,(a-2)当TU尺寸标记为1时,变换单元的尺寸可以是16×16,(a-3)当TU尺寸标记为2时,变换单元的尺寸可以是8×8。
作为另一示例,(b)如果当前编码单元的尺寸是32×32并且最小变换单元尺寸是32×32,则(b-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32。这里,由于变换单元的尺寸不能够小于32×32,因此TU尺寸标记不能够被设置为除了0以外的值。
作为另一示例,(c)如果当前编码单元的尺寸是64×64并且最大TU尺寸标记为1,则TU尺寸标记可以是0或1。这里,TU尺寸标记不能够被设置为除了0或1以外的值。
因此,当TU尺寸标记为0时,如果定义最大TU尺寸标记为“MaxTransformSizeIndex”,最小变换单元尺寸为“MinTransformSize”,变换单元尺寸为“RootTuSize”,则可通过等式(1)来定义可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”:
等式(1):
CurrMinTuSize=max(MinTransformSize,RootTuSize/(2^MaxTransformSizeIndex))…(1)
与可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”相比,当TU尺寸标记为0的变换单元尺寸“RootTuSize”可指示可在系统中选择的最大变换单元尺寸。在等式(1)中,“RootTuSize/(2^MaxTransformSizeIndex)”指示当TU尺寸标记为0时,变换单元尺寸“RootTuSize”被划分了与最大TU尺寸标记相应的次数时的变换单元尺寸,“MinTransformSize”指示最小变换尺寸。因此,“RootTuSize/(2^MaxTransformSizeIndex)”和“MinTransformSize”中较小的值可以是可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”。
根据一些示例性实施例,最大变换单元尺寸RootTuSize可根据预测模式的类型而改变。
例如,如果当前预测模式是帧间模式,则可通过使用以下的等式(2)来确定“RootTuSize”。在等式(2)中,“MaxTransformSize”指示最大变换单元尺寸,“PUSize”指示当前预测单元尺寸:
RootTuSize=min(MaxTransformSize,PUSize)……(2)
也就是说,如果当前预测模式是帧间模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前预测单元尺寸中较小的值。
如果当前分区单元的预测模式是帧内模式,则可通过使用以下的等式(3)来确定“RootTuSize”。在等式(3)中,“PartitionSize”指示当前分区单元的尺寸:
RootTuSize=min(MaxTransformSize,PartitionSize)……(3)
也就是说,如果当前预测模式是帧内模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前分区单元的尺寸之中较小的值。
然而,根据分区单元中的预测模式的类型而改变的当前最大变换单元尺寸“RootTuSize”仅是示例,并且本发明构思不限于此。
根据参照图8至图20描述的基于具有树结构的编码单元的视频编码方法,可针对树结构的每个编码单元对空间域的图像数据进行编码。根据基于具有树结构的编码单元的视频解码方法,针对每个最大编码单元执行解码来重构空间域的图像数据。因此,画面和作为画面序列的视频可被重构。重构的视频可由再现设备来再现,可存储在存储介质中,或可通过网络来发送。
根据本发明的实施例可被编写为计算机程序,并且可以以使用计算机可读记录介质执行程序的通用数字计算机来实现。计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD)等。
为了便于描述,以上参照图1a至图20描述的层间视频编码方法和/或视频编码方法将被称为“本发明的视频编码方法”。此外,以上参照图1a至图20描述的层间视频解码方法和/或视频解码方法将被称为“本发明的视频解码方法”。
另外,以上参照图1a至图20描述的包括层间视频编码设备10、视频编码设备100或图像编码器400的视频编码设备将被称为“本发明的视频编码设备”。另外,参照图1a至图20描述的包括层间视频解码设备20、视频解码设备200或图像解码器500的视频解码设备将被称为“本发明的视频解码设备”。
现在将详细描述根据一些示例性实施例的存储程序的计算机可读记录介质(例如,盘26000)。
图21是根据一些示例性实施例的存储程序的盘26000的物理结构的示图。作为存储介质的盘26000可以是硬盘驱动器、致密盘只读存储器(CD-ROM)盘、蓝光盘或数字多功能盘(DVD)。盘26000包括多个同心磁道Tr,每个同心磁道Tr沿盘26000的圆周方向被划分成特定数量的扇区Se。在根据一些示例性实施例的盘26000的特定区域中,可分配并存储执行以上所描述的量化参数确定方法、视频编码方法和视频解码方法的程序。
现在将参照图22来描述使用存储用于执行如上所述的视频编码方法和视频解码方法的程序的存储介质来实现的计算机系统。
图22是通过使用盘26000来记录并读取程序的盘驱动器26800的示图。计算机系统27000可经由盘驱动器26800将执行本发明的视频编码方法和视频解码方法中的至少一个的程序存储在盘26000中。为了在计算机系统26700中运行存储在盘26000中的程序,可通过使用盘驱动器27000从盘26000读取程序并将程序发送到计算机系统26700。
执行本发明的视频编码方法和视频解码方法中的至少一个的程序不仅可被存储在图21或图22中示出的盘26000中,还可被存储在存储卡、ROM卡带或固态驱动器(SSD)中。
以下将描述应用以上所描述的视频编码方法和视频解码方法的系统。
图23是用于提供内容分布服务的内容供应系统11000的整体结构的示图。将通信系统的服务区域划分成预定尺寸的小区,并将无线基站11700、11800、11900和12000分别安装在这些小区中。
内容供应系统11000包括多个独立装置。例如,诸如计算机12100、个人数字助理(PDA)12200、视频相机12300和移动电话12500的多个独立装置经由互联网服务提供商11200、通信网络11400和无线基站11700、11800、11900和12000连接到互联网11100。
然而,内容供应系统11000不限于图24中所示,并且装置可选择性地被连接到内容供应系统11000。多个独立装置可不经由无线基站11700、11800、11900和12000而直接连接到通信网络11400。
视频相机12300是能够捕捉视频图像的成像装置,例如,数字视频相机。移动电话12500可利用各种协议(例如,个人数字通信(PDC)、码分多址(CDMA)、宽带码分多址(W-CDMA)、全球移动通信系统(GSM)和个人手持电话系统(PHS))中的至少一种通信方法。
视频相机12300可经由无线基站11900和通信网络11400连接到流服务器11300。流服务器11300允许经由视频相机12300从用户接收到的内容经由实时广播被流传输。可使用视频相机12300或流服务器11300来对从视频相机12300接收到的内容进行编码。通过视频相机12300捕捉到的视频数据可经由计算机12100被发送到流服务器11300。
通过相机12600捕捉到的视频数据也可经由计算机12100被发送到流服务器11300。与数码相机类似,相机12600是能够捕捉静止图像和视频图像两者的成像装置。可使用相机12600或计算机12100对通过相机12600捕捉到的视频数据进行编码。可将对视频执行编码和解码的软件存储在可由计算机12100访问的计算机可读记录介质(例如,CD-ROM盘、软盘、硬盘驱动器、SSD或存储卡)中。
如果视频数据通过内置在移动电话12500中的相机被捕捉到,则可从移动电话12500接收视频数据。
还可通过安装在视频相机12300、移动电话12500或相机12600中的大规模集成电路(LSI)系统来对视频数据进行编码。
内容供应系统1100可对由用户使用视频相机12300、相机12600、移动电话12500或另一成像装置所记录的内容数据(例如,在音乐会期间记录的内容)进行编码,并将编码后的内容数据发送到流服务器11300。流服务器11300可将编码后的内容数据以流传输内容的类型发送到请求内容数据的其它客户端。
客户端是能够对编码后的内容数据进行解码的装置,例如,计算机12100、PDA12200、视频相机12300或移动电话12500。因此,内容供应系统11000允许客户端接收并再现编码后的内容数据。此外,内容供应系统11000允许客户端实时接收编码后的内容数据并对编码后的内容数据进行解码和再现,从而能够进行个人广播。
包括在内容供应系统11000中的多个独立装置的编码和解码操作可类似于本发明的视频编码设备和视频解码设备的编码和解码操作。
现在将参照图24和图25更加详细地描述包括在根据实施例的内容供应系统11000中的移动电话12500。
图24示出根据示例性实施例的应用本发明的视频编码方法和视频解码方法的移动电话12500的外部结构。移动电话12500可以是智能电话,所述智能电话的功能不受限,并且所述智能电话的大多数功能可被改变或扩展。
移动电话12500包括可与图21的无线基站12000交换射频(RF)信号的内部天线12510,并包括用于显示由相机12530捕捉到的图像或经由天线12510接收到的并被解码的图像的显示屏12520(例如,液晶显示器(LCD)或有机发光二极管(OLED)屏幕)。移动电话12500包括包含有控制按钮和触摸面板的操作面板12540。如果显示屏12520是触摸屏,则操作面板12540还包括显示屏12520的触摸感测面板。移动电话12500包括用于输出语音和声音的扬声器12580或另一类型声音输出单元、以及用于输入语音和声音的麦克风12550或另一类型声音输入单元。移动电话12500还包括用于捕捉视频和静止图像的相机12530,诸如电荷耦合器件(CCD)相机。移动电话12500还可包括:存储介质12570,用于存储通过相机12530捕捉到的、经由电子邮件接收到的、或根据各种方式获得的编码/解码数据(例如,视频或静止图像);插槽12560,存储介质12570经由插槽12560被装入移动电话12500中。存储介质12570可以是闪存,例如,包括在塑料壳中的安全数字(SD)卡或电可擦和可编程只读存储器(EEPROM)。
图25示出移动电话12500的内部结构。为了系统地控制包括显示屏12520和操作面板12540的移动电话12500的部件,供电电路12700、操作输入控制器12640、图像编码单元12720、相机接口12630、LCD控制器12620、图像解码单元12690、复用器/解复用器12680、记录/读取单元12670、调制/解调单元12660以及声音处理器12650经由同步总线12730被连接到中央控制器12710。
如果用户操作电源按钮,并从“电源关闭”状态设置为“电源开启”状态,则供电电路12700从电池组向移动电话12500的所有部件供电,从而在操作模式期间设置移动电话12500。
中央控制器12710包括中央处理器(CPU)、ROM和RAM。
在移动电话12500将通信数据发送到外部的同时,在中央控制器12710的控制下,由移动电话12500产生数字信号。例如,声音处理器12650可产生数字声音信号,图像编码单元12720可产生数字图像信号,并且消息的文本数据可经由操作面板12540和操作输入控制器12640被产生。当在中央控制器12710的控制下数字信号被发送到调制/解调单元12660时,调制/解调单元12660对数字信号的频带进行调制,并且通信电路12610对频带调制后的数字声音信号执行数模转换(DAC)和频率转换。从通信电路12610输出的发送信号可经由天线12510被发送到语音通信基站或无线基站12000。
例如,当移动电话12500处于通话模式时,在中央控制器12710的控制下,经由麦克风12550获得的声音信号通过声音处理器12650被变换成数字声音信号。数字声音信号可经由调制/解调单元12660和通信电路12610被变换成变换信号,并可经由天线12510被发送。
当文本消息(例如,电子邮件)在数据通信模式期间被发送时,文本消息的文本数据经由操作面板12540被输入,并经由操作输入控制器12640被发送到中央控制器12610。在中央控制器12610的控制下,文本数据经由调制/解调单元12660和通信电路12610被变换成发送信号,并经由天线12510被发送到无线基站12000。
为了在数据通信模式下发送图像数据,由相机12530捕捉到的图像数据经由相机接口12630被提供给图像编码单元12720。捕捉到的图像数据可经由相机接口12630和LCD控制器12620被直接显示在显示屏12520上。
图像编码单元12720的结构可与以上描述的视频编码设备100的结构相应。图像编码单元12720可根据上述视频编码方法,将从相机12530接收到的图像数据变换为压缩和编码后的图像数据,并然后将编码后的图像数据输出到复用器/解复用器12680。在相机12530的记录操作期间,由移动电话12500的麦克风12550获得的声音信号可经由声音处理器12650被变换成数字声音数据,并且数字声音数据可被发送到复用器/解复用器12680。
复用器/解复用器12680对从图像编码单元12720接收到的编码后的图像数据与从声音处理器12650接收到的声音数据一起进行复用。对数据进行复用的结果可经由调制/解调单元12660和通信电路12610被变换成发送信号,然后可经由天线12510被发送。
当移动电话12500从外部接收通信数据时,可对经由天线12510接收到的信号执行频率恢复和ADC以将信号变换成数字信号。调制/解调单元12660对数字信号的频带进行调制。根据频带调制后的数字信号的类型将所述数字信号发送到视频解码单元12690、声音处理器12650或LCD控制器12620。
在通话模式下,移动电话12500对经由天线12510接收到的信号进行放大,并通过对放大后的信号执行频率转换和ADC来获得数字声音信号。在中央控制器12710的控制下,接收到的数字声音信号经由调制/解调单元12660和声音处理器12650被变换成模拟声音信号,并且模拟声音信号经由扬声器12580被输出。
当在数据通信模式下时,接收在互联网网站上访问的视频文件的数据,经由调制/解调单元12660将经由天线12510从无线基站12000接收到的信号输出为复用数据,并将复用数据发送到复用器/解复用器12680。
为了对经由天线12510接收到的复用数据进行解码,复用器/解复用器12680将复用数据解复用成编码后的视频数据流和编码后的音频数据流。经由同步总线12730,编码后的视频数据流和编码后的音频数据流分别被提供给视频解码单元12690和声音处理器12650。
图像解码单元12690的结构可与以上描述的视频解码设备200的结构相应。图像解码单元12690可通过使用上述的由视频解码设备200或图像解码器500采用的视频解码方法,对编码后的视频数据进行解码来获得重构的视频数据,并经由LCD控制器12620将重构的视频数据提供给显示屏12520。
因此,可将在互联网网站上访问的视频文件的数据显示在显示屏12520上。同时,声音处理器12650可将音频数据变换成模拟声音信号,并将模拟声音信号提供给扬声器12580。因此,也可经由扬声器12580再现在互联网网站上访问的视频文件中包含的音频数据。
移动电话12500或另一类型的通信终端可以是包括本发明的视频编码设备和视频解码设备两者的收发终端,可以是仅包括视频编码设备的收发终端,或者可以是仅包括视频解码设备的收发终端。
根据本发明的通信系统不限于以上参照图24描述的通信系统。例如,图26示出根据一些示例性实施例的采用通信系统的数字广播系统。图26的数字广播系统可通过使用本发明的视频编码设备和视频解码设备来接收经由卫星或地面网络发送的数字广播。
更详细地,广播站12890通过使用无线电波将视频数据流发送到通信卫星或广播卫星12900。广播卫星12900发送广播信号,广播信号经由家用天线12860被发送到卫星广播接收器。在每个房屋中,可通过TV接收器12810、机顶盒12870或另一装置对编码后的视频流进行解码并再现。
当本发明的视频解码设备被实现在再现设备12830中时,再现设备12830可对记录在存储介质12820(诸如盘或存储卡)上的编码后的视频流进行解析和解码,以重构数字信号。因此,可在例如监视器12840上再现重构的视频信号。
在被连接到用于卫星/地面广播的天线12860或用于接收有线电视(TV)广播的线缆天线12850的机顶盒12870中,可安装本发明的视频解码设备。从机顶盒12870输出的数据也可被再现在TV监视器12880上。
作为另一示例,可将本发明的视频解码设备安装在TV接收器12810中,而不是机顶盒12870中。
具有适当天线12910的汽车12920可接收从图23的卫星12900或无线基站11700发送的信号。可在安装在汽车12920中的汽车导航系统12930的显示屏上再现解码后的视频。
视频信号可由本发明的视频编码设备来编码,然后可被存储在存储介质中。具体地,可由DVD记录器将图像信号存储在DVD盘12960中,或可由硬盘记录器12950将图像信号存储在硬盘中。作为另一示例,可将视频信号存储在SD卡12970中。如果硬盘记录器12950包括根据一些示例性实施例的本发明的视频解码设备,则记录在DVD盘12960、SD卡12970或另一存储介质上的视频信号可在TV监视器12880上被再现。
汽车导航系统12930可不包括图26的相机12530、相机接口12630和图像编码单元12720。例如,计算机12100和TV接收器12810可不包括在图26的相机12530、相机接口12630和图像编码单元12720中。
图27是示出根据一些示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
云计算系统可包括云计算服务器14000、用户数据库(DB)14100、多个计算资源14200和用户终端。
响应于来自用户终端的请求,云计算系统经由数据通信网络(例如,互联网)提供多个计算资源14200的点播外包服务。在云计算环境下,服务提供商通过使用虚拟技术组合位于不同的物理位置的数据中心处的计算资源,来为用户提供想要的服务。服务用户不必将计算资源(例如,应用、存储器、操作系统(OS)和安全软件)安装在他/她拥有的终端中以使用它们,但可在想要的时间点在通过虚拟技术产生的虚拟空间中从服务中选择和使用想要的服务。
被指定的服务用户的用户终端经由包括互联网和移动通信网络的数据通信网络被连接到云计算服务器14000。可从云计算服务器14100向用户终端提供云计算服务,特别是视频再现服务。用户终端可以是能够被连接到互联网的各种类型的电子装置,例如,桌上型PC14300、智能TV14400、智能电话14500、笔记本计算机14600、便携式多媒体播放器(PMP)14700、平板PC14800等。
云计算服务器14000可组合分布在云网络中的多个计算资源14200,并向用户终端提供组合的结果。所述多个计算资源14200可包括各种数据服务,并可包括从用户终端上载的数据。如上所描述的,云计算服务器14000可通过根据虚拟技术组合分布在不同区域中的视频数据库来向用户终端提供想要的服务。
将关于已经订购云计算服务的用户的用户信息存储在用户DB14100中。用户信息可包括用户的注册信息、地址、姓名和个人信用信息。用户信息还可包括视频的索引。这里,所述索引可包括已经被再现的视频的列表、正在被再现的视频的列表、之前正在被再现的视频的暂停点等。
可在用户装置之间共享存储在用户DB14100中的关于视频的信息。例如,当响应于来自笔记本计算机14600的请求将视频服务提供给笔记本计算机14600时,视频服务的再现历史被存储在用户DB14100中。当从智能电话14500接收到用于再现此视频服务的请求时,云计算服务器14000基于用户DB14100搜索并再现此视频服务。当智能电话14500从云计算服务器14000接收到视频数据流时,通过对视频数据流进行解码来再现视频的处理与以上参照图24描述的移动电话12500的操作类似。
云计算服务器14000可参考存储在用户DB14100中的想要的视频服务的再现历史。例如,云计算服务器14000从用户终端接收用于再现存储在用户DB14100中的视频的请求。如果此视频被再现过,则由云计算服务器14000执行的对此视频进行流传输的方法可根据来自用户终端的请求(即,根据是将从视频的起点还是视频的暂停点开始再现视频)而不同。例如,如果用户终端请求从视频的起点开始再现视频,则云计算服务器14000将从视频的第一帧开始的视频的流数据发送到用户终端。如果用户终端请求从视频的暂停点开始再现视频,则云计算服务器14000将从与暂停点相应的帧开始的视频的流数据发送到用户终端。
在此情况下,用户终端可包括如以上参照图1a至图20描述的本发明的视频解码设备。作为另一示例,用户终端可包括如以上参照图1a至图20描述的本发明的视频编码设备。可选地,用户终端可包括如以上参照图1a至图20描述的本发明的视频解码设备和视频编码设备两者。
以上参照图21至图27描述了以上参照图1a至图20描述的根据一些示例性实施例的视频编码方法、视频解码方法、视频编码设备和视频解码设备的各种应用。然而,根据一些示例性实施例的将视频编码方法和视频解码方法存储在存储介质中的方法或者将视频编码设备和视频解码设备实现在装置中的方法不限于以上参照图21至图27描述的实施例。
本领域的普通技术人员将理解,在不脱离由权利要求限定的本发明的精神和范围的情况下,可在示例性实施例中做出形式和细节上的各种改变。实施例应仅被考虑为描述意义,且不用于限制的目的。因此,本发明的范围不由本发明的详细描述来限定,而由权利要求来限定,并且在该范围内的所有差异都将被认为包括在本发明中。

Claims (15)

1.一种层间视频解码方法,包括:
在位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选;
将搜索到的邻近块候选的沿层间方向的运动矢量预测为当前块的视差矢量;
当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选;
通过使用搜索到的邻近块候选的视差矢量信息来预测当前块的视差矢量。
2.如权利要求1所述的层间视频解码方法,其中,搜索具有沿层间方向的运动矢量的邻近块候选的步骤包括:在与当前块的左侧边界邻近的块中位于最下方的空间邻近块候选、在与当前块的上方边界邻近的块中位于最右侧的空间邻近块、以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选。
3.如权利要求1所述的层间视频解码方法,其中,搜索具有视差矢量信息的邻近块候选的步骤包括:确定在与当前块的左侧边界邻近的块中位于最下方的空间邻近块以及在与当前块的上方边界邻近的块中位于最右侧的空间邻近块候选是否执行了层间运动补偿。
4.如权利要求1所述的层间视频解码方法,其中,搜索具有沿层间方向的运动矢量的邻近块候选的步骤包括:省略对位于当前块的对角线方向的时间邻近块候选和空间邻近块候选的搜索。
5.如权利要求1所述的层间视频解码方法,其中,搜索具有沿层间方向的运动矢量的邻近块候选的步骤包括:通过对位于当前块左侧的空间邻近块候选、位于当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
6.如权利要求1所述的层间视频解码方法,其中,搜索具有沿层间方向的运动矢量的邻近块候选的步骤包括:当搜索到至少两个沿时间方向的参考画面时,通过对共同定位画面中所包括的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
7.如权利要求1所述的层间视频解码方法,还包括:当当前块的视差矢量未被预测到时,通过使用默认的视差矢量和层间深度图来确定当前块的视差矢量。
8.如权利要求1所述的层间视频解码方法,还包括:当当前块的视差矢量被预测为(0,0)时,通过使用层间深度图来将当前块的视差矢量确定为不为(0,0)的值。
9.如权利要求1所述的层间视频解码方法,还包括:当当前块的视差矢量被预测为(0,0)时,设置不使用利用预测的视差矢量的模式。
10.一种层间视频解码设备,包括:
第一层解码器,被配置为基于从比特流获得的编码信息来重构第一层图像;
视差矢量确定器,被配置为在位于第二层当前块左侧的空间邻近块候选、位于第二层当前块上方的空间邻近块候选以及位于共同定位位置的时间邻近块候选之中搜索具有沿层间方向的运动矢量的邻近块候选,并将搜索到的邻近块候选的沿层间方向的运动矢量预测为第二层当前块的视差矢量,
其中,当具有沿层间方向的运动矢量的邻近块候选未被搜索到时,视差矢量确定器在空间邻近块候选之中搜索具有视差矢量信息的邻近块候选,并通过使用搜索到的空间邻近块候选的视差矢量信息来预测第二层当前块的视差矢量。
11.如权利要求10所述的层间视频解码设备,其中,视差矢量确定器在与当前块的左侧边界邻近的块中位于最下方的空间邻近块候选、在与当前块的上方边界邻近的块中位于最右侧的空间邻近块、以及位于共同定位位置的时间邻近块候选之中执行用于预测视差矢量的搜索。
12.如权利要求10所述的层间视频解码设备,其中,视差矢量确定器省略对位于当前块的对角线方向的时间邻近块候选和空间邻近块候选的搜索。
13.如权利要求10所述的层间视频解码设备,其中,当搜索到至少两个沿时间方向的参考画面时,视差矢量确定器通过对共同定位画面中所包括的时间邻近块候选指定优先级来搜索具有沿层间方向的运动矢量的邻近块候选。
14.如权利要求10所述的层间视频解码设备10,其中,当当前块的视差矢量未被预测到时,视差矢量确定器通过使用默认的视差矢量和层间深度图来确定当前块的视差矢量。
15.一种记录有用于执行权利要求1的层间视频解码方法的计算机可读记录介质。
CN201480050586.0A 2013-07-12 2014-07-14 层间视频解码方法及设备 Active CN105532004B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361845501P 2013-07-12 2013-07-12
US61/845,501 2013-07-12
PCT/KR2014/006332 WO2015005749A1 (ko) 2013-07-12 2014-07-14 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 블록 기반 디스패리티 벡터 예측 방법

Publications (2)

Publication Number Publication Date
CN105532004A true CN105532004A (zh) 2016-04-27
CN105532004B CN105532004B (zh) 2019-01-25

Family

ID=52280327

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480050586.0A Active CN105532004B (zh) 2013-07-12 2014-07-14 层间视频解码方法及设备

Country Status (6)

Country Link
US (1) US9924182B2 (zh)
EP (1) EP3018907A4 (zh)
JP (1) JP2016528792A (zh)
KR (1) KR101710635B1 (zh)
CN (1) CN105532004B (zh)
WO (1) WO2015005749A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110771169A (zh) * 2017-06-09 2020-02-07 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
CN111183644A (zh) * 2017-09-28 2020-05-19 三星电子株式会社 编码方法及其设备、解码方法及其设备
WO2020258039A1 (zh) * 2019-06-25 2020-12-30 Oppo广东移动通信有限公司 运动补偿的处理方法、编码器、解码器以及存储介质
US11991383B2 (en) 2017-07-07 2024-05-21 Samsung Electronics Co., Ltd. Apparatus and method for encoding motion vector determined using adaptive motion vector resolution, and apparatus and method for decoding motion vector

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105340273B (zh) * 2013-04-05 2018-09-11 三星电子株式会社 用于预测用于层间视频解码的视差矢量的方法以及编码方法和设备
WO2015062002A1 (en) * 2013-10-31 2015-05-07 Mediatek Singapore Pte. Ltd. Methods for sub-pu level prediction
CN104768019B (zh) * 2015-04-01 2017-08-11 北京工业大学 一种面向多纹理多深度视频的相邻视差矢量获取方法
US10455228B2 (en) * 2016-03-21 2019-10-22 Qualcomm Incorporated Determining prediction parameters for non-square blocks in video coding
CN109155856B (zh) * 2016-06-09 2023-10-24 英特尔公司 用于视频编解码的利用近邻块模式的运动估计的方法和系统
WO2019147087A1 (ko) * 2018-01-25 2019-08-01 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102946535A (zh) * 2012-10-09 2013-02-27 华为技术有限公司 预测块的视差矢量预测值获取的方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101039204B1 (ko) 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
KR101671460B1 (ko) 2009-09-10 2016-11-02 에스케이 텔레콤주식회사 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20120080122A (ko) 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
WO2013039348A1 (ko) * 2011-09-16 2013-03-21 엘지전자 주식회사 영상 정보 시그널링 방법 및 이를 이용한 비디오 디코딩 방법
US9712819B2 (en) 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
KR20130044189A (ko) 2011-10-21 2013-05-02 광운대학교 산학협력단 다시점 비디오 부호화/복호화 방법 및 그 장치
US20130176390A1 (en) 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
CN104904219B (zh) 2013-01-09 2018-07-06 寰发股份有限公司 块编码装置及方法
WO2014107853A1 (en) 2013-01-09 2014-07-17 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
US9521389B2 (en) 2013-03-06 2016-12-13 Qualcomm Incorporated Derived disparity vector in 3D video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102946535A (zh) * 2012-10-09 2013-02-27 华为技术有限公司 预测块的视差矢量预测值获取的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GERHARD TECH: "3D-HEVC Test Model3", 《JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENTOF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110771169A (zh) * 2017-06-09 2020-02-07 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
US11616976B2 (en) 2017-06-09 2023-03-28 Electronics And Telecommunications Research Institute Video encoding/decoding method and device, and recording medium storing bit stream
US11991383B2 (en) 2017-07-07 2024-05-21 Samsung Electronics Co., Ltd. Apparatus and method for encoding motion vector determined using adaptive motion vector resolution, and apparatus and method for decoding motion vector
CN111183644A (zh) * 2017-09-28 2020-05-19 三星电子株式会社 编码方法及其设备、解码方法及其设备
WO2020258039A1 (zh) * 2019-06-25 2020-12-30 Oppo广东移动通信有限公司 运动补偿的处理方法、编码器、解码器以及存储介质
US11490113B2 (en) 2019-06-25 2022-11-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Processing method for motion compensation, encoder, and decoder

Also Published As

Publication number Publication date
US20160173888A1 (en) 2016-06-16
US9924182B2 (en) 2018-03-20
EP3018907A4 (en) 2017-02-22
EP3018907A1 (en) 2016-05-11
KR20150090052A (ko) 2015-08-05
WO2015005749A1 (ko) 2015-01-15
KR101710635B1 (ko) 2017-02-27
CN105532004B (zh) 2019-01-25
JP2016528792A (ja) 2016-09-15

Similar Documents

Publication Publication Date Title
CN103918255B (zh) 对多视点视频数据的深度图进行编码的方法和装置以及对编码的深度图进行解码的方法和装置
CN104768010B (zh) 用于在视频编码或解码中的运动矢量确定的方法和设备
CN105532004B (zh) 层间视频解码方法及设备
CN104488272A (zh) 用于预测用于对视频进行编码或用于对视频进行解码的运动矢量的方法和设备
CN105308966A (zh) 视频编码方法及其设备以及视频解码方法及其设备
CN105103552A (zh) 用于补偿亮度差的对层间视频进行编码的方法及其装置以及用于对视频进行解码的方法及其装置
CN104620578A (zh) 用于随机访问的多层视频编码的方法和设备以及用于随机访问的多层视频解码的方法和设备
CN104396252A (zh) 使用用于多视点视频预测的参考画面集的多视点视频编码方法及其装置、使用用于多视点视频预测的参考画面集的多视点视频解码方法及其装置
CN104365101A (zh) 用于确定用于帧间预测的参考图像的方法及设备
CN105472396A (zh) 视频解码方法和视频解码设备
CN105264894A (zh) 针对层间解码和编码方法以及设备的确定帧间预测候选的方法
CN104813665A (zh) 用于对层间预测误差进行编码的sao补偿的方法和设备
CN105144713A (zh) 用于解码器设置的对视频进行编码的方法及其装置以及基于解码器设置对视频进行解码的方法及其装置
CN104365104A (zh) 用于基于树结构编码单元进行多视点视频编码的方法和设备以及用于基于树结构编码单元进行多视点视频解码的方法和设备
CN106464889A (zh) 执行基于子块的预测的层间视频解码方法和层间视频编码方法及其设备
CN106031175B (zh) 使用亮度补偿的层间视频编码方法及其装置、以及视频解码方法及其装置
CN105325002A (zh) 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备
CN107409214A (zh) 用于对层间视频进行解码的方法和设备以及用于对层间视频进行编码的方法和设备
CN105340275A (zh) 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备
CN104396251A (zh) 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置
CN104541510A (zh) 参考画面列表能够被改变的帧间预测方法及其设备
CN105165011A (zh) 用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法
CN103875249A (zh) 用于多视点视频预测编码的方法和装置以及用于多视点视频预测解码的方法和装置
CN105556972A (zh) 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法
CN105594212A (zh) 用于确定运动矢量的方法及其设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant