CN105165011A - 用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法 - Google Patents

用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法 Download PDF

Info

Publication number
CN105165011A
CN105165011A CN201480023681.1A CN201480023681A CN105165011A CN 105165011 A CN105165011 A CN 105165011A CN 201480023681 A CN201480023681 A CN 201480023681A CN 105165011 A CN105165011 A CN 105165011A
Authority
CN
China
Prior art keywords
layer image
filtering
coding
enhancement layer
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480023681.1A
Other languages
English (en)
Inventor
爱丽丝娜·伊莲娜
爱丽丝·亚历山大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105165011A publication Critical patent/CN105165011A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及用于在执行层间预测时优化存储器带宽和计算量的可伸缩视频编码和解码方法。提供了一种可伸缩视频编码方法,包括:在基本层图像中确定参考层图像以对增强层图像执行层间预测;如果上采样的参考层图像通过对参考层图像执行层间插值滤波而被确定,确定针对增强层图像不执行增强层图像之间的层间预测,并对上采样的参考层图像与增强层图像之间的残差分量进行编码。

Description

用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法
技术领域
本公开涉及可伸缩视频编码和解码方法。更具体地讲,本公开涉及用于当执行层间预测时优化存储器带宽和计算量的可伸缩视频编码和解码方法。
背景技术
随着用于再现和存储高分辨率或高质量视频内容的硬件的开发和提供,对于用于有效地对高分辨率或高质量视频内容进行编码或解码的视频编解码器的需求正在增加。根据现有技术的视频编解码器,基于具有预定尺寸的宏块,根据受限的编码方法来对视频进行编码。
通过频率变换将空间域的图像数据变换为频域的系数。为了快速地计算频率变换,根据视频编解码器,将图像划分为预定尺寸的块,对每个块执行离散余弦变换(DCT)变换,并以块为单位对频率系数进行编码。与空间域的图像数据相比,频域的系数可更容易被压缩。具体地,由于空间域的图像像素值通过视频编解码器的帧间预测或帧内预测根据预测误差被表示,因此当对预测误差执行频率变换时,大量数据可被变换为0。根据视频编解码器,可通过用小量数据代替连续并重复产生的数据来减少数据量。
多层视频编解码器对基本层视频和一个或更多个增强层视频进行编码和解码。通过去除基本层视频和增强层视频中的每一个的时间/空间冗余,可减少基本层视频和增强层视频的数据量。根据接收终端的再现能力,可仅对基本层视频进行解码,或者可对基本层视频和增强层视频两者进行解码。
发明内容
技术问题
本公开提供一种可伸缩视频编码方法及其设备的一个或更多个示例性实施例,其中,所述可伸缩视频编码方法及其设备限制插值滤波被执行的次数,以便使在针对帧间预测和层间预测执行插值滤波时发生的存储器带宽和计算量的增加最小化。本公开提供一种根据预定条件限制针对增强层的帧间预测和层间预测的可伸缩视频解码方法及其设备的一个或更多个示例性实施例。
解决方案
根据本发明构思的一方面,提供一种可伸缩视频编码方法,包括:在基本层图像中确定参考层图像,以便对增强层图像执行层间预测;通过对确定的参考层图像执行层间(IL)插值滤波来产生上采样的参考层图像;当上采样的参考层图像经由IL插值滤波被确定时,确定针对增强层图像不执行增强层图像之间的帧间预测,并对上采样的参考层图像与增强层图像之间的残差分量进行编码。
有益效果
根据示例性实施例的可伸缩性视频编码设备和可伸缩性视频解码设备可基于关于块的分区尺寸、分区形状和预测模式中的至少一个来选择性地确定是在单个层中执行帧间预测还是通过使用参考层图像来执行层间预测。
因此,与基本层图像和增强层图像被分别重建的单层预测结构相比,根据层间预测结构,基本层图像和增强层图像可在存储器带宽和计算量不增加的情况下被重建。
附图说明
图1示出根据示例性实施例的可伸缩视频编码设备的框图。
图2示出根据示例性实施例的可伸缩视频解码设备的框图。
图3详细示出根据示例性实施例的可伸缩视频编码设备的结构。
图4示出在单个层预测结构中的基本层图像和增强层图像。
图5示出层间预测结构下的基本层图像和增强层图像。
图6示出用于针对块进行插值滤波的存储器的带宽。
图7示出存储器访问模式。
图8示出根据帧间预测模式和块尺寸而改变的用于运动补偿(MC)插值滤波的存储器带宽。
图9示出根据示例性实施例的根据块尺寸而改变的用于层间(IL)插值滤波的存储器带宽。
图10示出按限制条件在基本层编码和增强层编码中执行插值滤波的次数。
图11示出根据示例性实施例的在预定条件下在基本层编码和增强层编码中执行插值滤波的次数。
图12示出根据示例性实施例的可在预定条件下被执行的MC插值滤波和IL插值滤波的组合。
图13示出根据示例性实施例的可伸缩视频编码方法的流程图。
图14示出根据示例性实施例的可伸缩视频解码方法的流程图。
图15是根据示例性实施例的基于树结构的编码单元的视频编码设备的框图。
图16是根据示例性实施例的基于树结构的编码单元的视频解码设备的框图。
图17是用于描述根据示例性实施例的编码单元的概念的示图。
图18是根据示例性实施例的基于编码单元的图像编码器的框图。
图19是根据示例性实施例的基于编码单元的图像解码器的框图。
图20是示出根据示例性实施例的根据深度的较深层编码单元以及分区的示图。
图21是用于描述根据示例性实施例的编码单元和变换单元之间的关系的示图。
图22示出根据示例性实施例的根据深度的多条编码信息。
图23是根据示例性实施例的根据深度的较深层编码单元的示图。
图24、图25和图26是用于描述根据示例性实施例的编码单元、预测单元和变换单元之间的关系的示图。
图27是用于描述根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
图28是根据示例性实施例的存储程序的盘的物理结构的示图。
图29是用于通过使用盘来记录和读取程序的盘驱动器的示图。
图30是用于提供内容分配服务的内容供应系统的整体结构的示图。
图31和图32示出根据示例性实施例的应用了视频编码方法和视频解码方法的移动电话的外部结构和内部结构。
图33示出根据示例性实施例的应用通信系统的数字广播系统。
图34是示出根据示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
最佳实施方式
本公开提供一种可伸缩视频编码方法及其设备的一个或更多个示例性实施例,其中,所述可伸缩视频编码方法及其设备限制插值滤波被执行的次数,以便使在针对帧间预测和层间预测执行插值滤波时发生的存储器带宽和计算量的增加最小化。本公开提供一种根据预定条件限制针对增强层的帧间预测和层间预测的可伸缩视频解码方法及其设备的一个或更多个示例性实施例。
根据本发明构思,提供一种可伸缩视频编码方法,包括:从基本层图像中确定参考层图像,以便对增强层图像执行层间预测;通过对确定的参考层图像执行层间(IL)插值滤波来产生上采样的参考层图像;当上采样的参考层图像经由IL插值滤波被确定时,确定针对增强层图像不执行增强层图像之间的帧间预测,并对上采样的参考层图像与增强层图像之间的残差分量进行编码。
用于对增强层图像的层间预测的插值滤波的计算量可被限制为不大于用于对基本层图像的帧间预测的MC插值滤波的第一计算量和用于对增强层图像的帧间预测的MC插值滤波的第二计算量的总和。
对上采样的参考层图像与增强层图像之间的残差分量进行编码的步骤可包括:对参考索引进行编码,并将运动矢量编码为指示0,其中,参考索引指示用于增强层图像的参考图像是上采样的参考层图像,其中,运动矢量用于增强层图像之间的帧间预测。
可基于用于对增强层图像的帧间预测的MC插值滤波的MC插值滤波器的抽头数、用于IL插值滤波的IL插值滤波器的抽头数以及增强层图像的预测单元的尺寸中的至少一个,限制MC插值滤波的次数和IL插值滤波的次数。
根据本发明构思的另一方面,提供一种可伸缩视频解码方法,包括:获得关于对增强层图像的帧间预测的残差分量以及指示参考层图像的参考索引;基于参考索引,确定不对增强层图像执行帧间预测,并从基本层图像确定参考层图像;通过对确定的参考层图像执行IL插值滤波来产生上采样的参考层图像;通过使用关于层间预测的残差分量以及上采样的参考层图像来重建增强层图像。
当增强层图像的参考索引指示上采样的参考层图像时,确定参考层图像的步骤可包括:将运动矢量确定为0,其中,运动矢量用于增强层图像之间的帧间预测。
根据本发明构思的另一方面,提供一种可伸缩视频编码设备,包括:基本层编码器,被配置为对基本层图像执行帧间预测;增强层编码器,被配置为:当通过对确定的参考层图像执行IL插值滤波,确定了上采样的参考层图像时,确定针对增强层图像不执行增强层图像之间帧间预测,对上采样的参考层图像与增强层图像之间的残差分量进行编码。
根据本发明构思的另一方面,提供一种可伸缩视频解码设备,包括:基本层解码器,被配置为通过执行运动补偿来重建基本层图像;增强层解码器,被配置为:获得关于对增强层图像的帧间预测的残差分量以及指示参考层图像的参考索引,基于参考索引确定不对增强层图像执行帧间预测,通过对从基本在层图像中确定的参考层图像执行IL插值滤波来产生上采样的参考层图像,通过使用关于层间预测的残差分量和上采样的参考层图像来重建增强层图像。
根据本发明构思的另一方面,提供一种记录有用于执行可伸缩视频编码方法的计算机程序的计算机可读记录介质。
根据本发明构思的另一方面,提供一种记录有用于执行可伸缩视频解码方法的计算机程序的计算机可读记录介质。
具体实施方式
在下文中,参照图1至图14提供根据示例性实施例的可伸缩视频编码设备、可伸缩视频解码设备、可伸缩视频编码方法和可伸缩视频解码方法。此外,参照图15至图27提供根据示例性实施例的基于树结构的编码单元的视频编码设备和视频解码设备以及视频编码方法和视频解码方法。此外,参照图28至图34提供可应用可伸缩视频编码方法、可伸缩视频解码方法、视频编码方法和视频解码方法的各种实施例。
在下文中,“图像”可指示视频的静止图像或运动图像(即,视频本身)。
在下文中,“样点”表示被分配给图像的采样位置并作为处理目标的数据。例如,被分配给空间域中的图像中的像素的像素值可是样点以。
在下文中,符号表示通过对图像执行编码而确定的每个语法的值。可以以顺序地输出通过对符号执行熵编码而产生的比特序列的方式来产生比特流。可以以通过对来自比特流的比特序列执行熵解码和解析来重建符号并随后通过使用符号来执行解码的方式来重建图像。
首先,参照图1至图14,提供根据示例性实施例的可伸缩视频编码设备和可伸缩视频编码方法以及可伸缩视频解码设备和可伸缩视频解码方法。
图1示出根据示例性实施例的可伸缩视频编码设备10的框图。
根据本示例性实施例的可伸缩视频编码设备10包括基本层编码器11和增强层编码器13。
根据本示例性实施例的可伸缩视频编码设备10可通过使用可伸缩视频编码方法根据层对多个图像序列中的每一个图像序列进行编码,并可输出包括每个层的编码数据的单个流。可伸缩视频编码设备10可将基本层图像序列和增强层图像序列编码到不同层。
基本层编码器11可对基本层图像进行编码,并可输出包括基本层图像的编码数据的基本层流。
增强层编码器13可对增强层图像进行编码,并可输出包括增强层图像的编码数据的增强层流。
例如,根据基于空间可伸缩性的可伸缩视频编码方法,低分辨率图像可被编码为基本层图像,高分辨率图像可被编码为增强层图像。基本层图像的编码结果可被输出为基本层流,增强层图像的编码结果可被输出为增强层流。
作为另一示例,根据基于信噪比(SNR)可伸缩性的可伸缩视频编码方法,基本层图像和增强层图像在分辨率和尺寸方面相同,而在编码中的量化参数(QP)方面不同。当QP增加时,量化区段增加,使得重建图像的质量恶化。可将被应用较高QP的低分辨率图像编码为基本层图像,可将被应用较低QP的高分辨率图像编码为增强层图像。
作为另一示例,可根据可伸缩视频编码方法对多视点视频进行编码。左视点图像可被编码为基本层图像,右视点图像可被编码为增强层图像。可选地,中心视点图像、左视点图像和右视点图像中的每个图像可被编码,并且在这些图像中,中心视点图像可被编码为基本层图像,左视点图像可被编码为第一增强层图像,右视点图像可被编码为第二增强层图像。
作为另一示例,可根据基于时间可伸缩性的时间分层预测来执行可伸缩视频编码方法。包括编码信息的基本层流可被输出,其中,所述编码信息是通过对具有基本帧率的图像进行编码而产生的。时间级别可根据帧率被分类,并且可被分别编码至层。通过参考基本帧率的图像进一步对具有高速帧率的图像进行编码,可输出包括关于高速帧率的编码信息的增强层流。
根据本示例性实施例的可伸缩视频编码设备10可执行帧间预测,其中,通过所述帧间预测,通过参考单个层的图像来对当前图像进行预测。经由帧间预测,可产生指示当前图像与参考图像之间的运动信息的运动矢量,以及当前图像与参考图像之间的残差分量。
此外,可伸缩视频编码设备10可执行层间预测,其中,通过层间预测,通过参考基本层图像来对增强层图像进行预测。这里,被执行层间预测的当前层图像可以是增强层图像,被用于层间预测的参考层图像可以是基本层图像。经由层间预测,可产生另一层的参考图像与当前图像之间的位置差分量以及所述另一层的参考图像与当前图像之间的残差分量。
将参照图3详细描述层间预测结构。
根据本示例性实施例的可伸缩视频编码设备10根据层对视频的每个图像的每个块进行编码。块的类型可以是方形、矩形或任意几何形状。根据示例性实施例的块不限于固定尺寸的数据单元。块可以是树结构的编码单元之中的最大编码单元、编码单元、预测单元、变换单元等。包括树结构的编码单元的最大编码单元可被不同地称为编码块树、块树、根块树、编码树、编码根或树干。将参照图8至图20描述使用树结构的编码单元的视频编码方法和视频解码方法。
可通过使用编码单元、预测单元或变换单元的数据单元来执行帧间预测和层间预测。
根据本示例性实施例的基本层编码器11可通过对基本层图像执行包括帧间预测或帧内预测的源编码操作来产生符号数据。例如,基本层编码器11可通过对基本层图像的数据单元的样点执行帧间预测或帧内预测、变换和量化来产生符号数据,并且可通过对符号数据执行熵编码来产生基本层流。
增强层编码器13可基于树结构的编码单元对增强层图像进行编码。增强层编码器13可通过对增强层图像的编码单元的样点执行帧间/帧内预测、变换和量化来产生符号数据,并可通过对符号数据执行熵编码来产生增强层流。
根据本示例性实施例的增强层编码器13可通过使用基本层图像的重建样点来执行层间预测以对增强层图像进行预测。为了经由层间预测结构对增强层图像序列之中的增强层原始图像进行编码,增强层编码器13可通过使用重建的基本层图像来产生增强层预测图像,并可对增强层原始图像与增强层预测图像之间的预测误差进行编码。
增强层编码器13可根据块(诸如编码单元或预测单元)对增强层图像执行层间预测。可确定基本层图像的将被增强层图像的块参考的块。
例如,可将被应用了与增强层图像相同的画面顺序计数(POC)的基本层图像的重建图像确定为参考图像。此外,可将重建的基本层图像的块之中的位置与增强层图像中的当前块的位置相应的块确定为参考块。增强层编码器13可通过使用与增强层块相应的重建的基本层块来确定增强层预测块。
增强层编码器13可通过层间预测结构使用重建的基本层图像对当前层图像序列进行编码。此外,根据本示例性实施例的增强层编码器13可在不使用其它层样点的情况下根据单层预测结构对增强层图像序列进行编码。作为另一示例,增强层编码器13可在单个层中组合帧间预测和层间预测。
在下文中,描述根据层间预测通过使用基本层图像对增强层图像进行编码的示例。
基本层编码器11可通过执行反量化、逆变换、帧间预测或运动补偿来对基本层图像的树结构的编码单元中的每个编码单元中的编码的样点进行解码,并因此可重建当前最大编码单元中包括的样点。可通过对先前条带中的样点执行编码并随后对编码的样点进行解码来产生先前条带的重建图像。为了对当前条带执行帧间预测,可参考先前条带的重建图像。
根据本示例性实施例的增强层编码器13可将增强层预测块用作用于使用增强层原始块的层间预测的参考图像,其中,增强层预测块是经由层间预测结构通过使用重建的基本层块来确定的。增强层编码器13可通过使用重建的基本层块对增强层预测块的样值与增强层原始块的样值之间的误差进行编码,即,可根据层间预测对残差分量进行编码。
由于空间伸缩性,当在基本层图像和增强层图像中分辨率不同时,图像尺寸也不同。因此,为了产生用于增强层图像的参考层图像,增强层编码器13可执行插值滤波来将重建的基本层图像上采样到增强层图像的分辨率。
通常,当根据每个子像素单位来执行帧间预测时,可执行插值滤波以根据每个子像素单位确定参考块。
在下文中,用于根据每个编码单元的帧间预测的插值滤波被称为“运动补偿(MC)插值滤波”,用于层间预测的插值滤波被称为“层间(IL)插值滤波”。MC插值滤波和IL插值滤波被统称为“插值滤波”。
通常,通过使用与当前样点邻近的样点来执行插值滤波,因此,为了对当前块执行插值滤波,不但需要当前块的样点还需要邻近块的一些样点。因此,当针对帧间预测和层间预测执行插值滤波的次数增加时,存储器带宽和计算负荷量显著增大。
因此,为了减小存储器带宽和计算负荷量,根据本示例性实施例的增强层编码13可选择性地确定是在单个层中执行帧间预测还是通过使用参考层图像来执行层间预测。
对于根据示例性实施例的层间预测结构,需要作为参考层图像的上采样的重建的基本层图像。因此,基本层编码器11可对基本层图像执行帧间预测,并因此可产生重建的基本层图像。
为了对增强层图像进行层间预测,增强层编码器13可在基本层图像中确定参考层图像。增强层编码器13可对确定的参考层图像执行IL插值滤波,并因此可产生上采样的参考层图像。
例如,要求根据本示例性实施例的可伸缩视频编码设备10对基本层执行帧间预测并对增强层执行层间预测所需的计算负荷量不大于可伸缩视频编码设备10对基本层和增强层中的每一个仅执行帧间预测所需的计算负荷量。
为了估计帧间预测或层间预测所需的存储器带宽或计算量,可使用MC插值滤波和IL插值滤波被执行的次数。在下文中,贯穿说明书,滤波的次数指示当产生将被参考用于帧间预测或层间预测的一个样点时执行插值滤波的次数。
如上所述,为了对增强层图像执行一次层间预测,基本地,为了对基本层执行帧间预测,会执行一次MC插值滤波,并且,为了层间预测,会执行一次IL插值滤波来对重建的基本层图像进行上采样。
根据一般的单个层预测结构,如果对基本层执行一次帧间预测,并且对增强层执行一次帧间预测,则MC插值滤波和IL插值滤波中的每个插值滤波被执行一次,使得会执行至少两次插值滤波。
因此,将层间预测结构与单个层预测结构进行比较,当对增强层图像执行层间预测时,除了用于使用基本层图像的帧间预测的MC插值滤波以及用于使用重建的基本层图像的层间预测的IL插值滤波之外,不应增加任何其它插值滤波。
因此,当上采样的参考层图像经由IL插值滤波被确定时,增强层编码器13可确定针对增强层图像不执行增强层图像之间的帧间预测。因此,增强层编码器13可通过仅执行层间预测而不执行帧间预测来对上采样的参考层图像与增强层图像之间的残差分量进行编码。
因此,增强层编码器13可对指示被用于增强层图像的参考图像是上采样的参考图像的参考索引进行编码,并且可将运动矢量编码为0,其中,运动矢量用于对增强层图像的帧间预测。
根据另一示例性实施例的可伸缩视频编码设备10可基于用于对增强层图像的MC插值滤波的MC插值滤波器的抽头数、用于IL插值滤波的IL插值滤波器的抽头数以及增强层图像的预测单元的尺寸中的至少一个来限制MC插值滤波的次数和IL插值滤波的次数。
例如,对尺寸为8×8或更大的块进行的插值滤波可被限制为i)8抽头MC插值滤波被执行两次的组合、或者ii)8抽头MC插值滤波被执行一次并且8抽头IL插值滤波被执行一次的组合。
作为另一示例,对尺寸为4×8或更大的块进行的插值滤波可被限制为iii)8抽头IL插值滤波被执行一次、iv)6抽头IL插值滤波被执行两次的组合、v)4抽头IL插值滤波被执行两次的组合、或者vi)2抽头IL插值滤波被执行三次的组合。
作为另一示例,对于尺寸为8×16或更大的块进行的插值滤波可被限制为vii)8抽头MC插值滤波被执行两次并且4抽头IL插值滤波被执行一次的组合、viii)2抽头MC插值滤波被执行四次并且2抽头IL插值滤波被执行四次的组合、ix)8抽头MC插值滤波被执行两次并且2抽头IL插值滤波被执行两次的组合、或者x)8抽头MC插值滤波被执行两次并且8抽头抽头IL插值滤波被执行一次的组合。
根据本示例性实施例的可伸缩视频编码设备10可包括总体控制基本层编码器11和增强层编码器13的中央处理器(未示出)。可选地,基本层编码器11和增强层编码器13中的每一个可由其拥有的处理器(未示出)来驱动,并且处理器可彼此交相操作,使得可伸缩视频编码设备10可进行操作。可选地,根据可伸缩视频编码设备10的外部处理器(未示出)的控制,基本层编码器11和增强层编码器13可被控制。
可伸缩视频编码设备10可包括一个或更多个数据存储单元(未示出),其中,所述一个或更多个数据存储单元用于存储基本层编码器11和增强层编码器13的输入数据和输出数据。可伸缩视频编码设备10可包括存储器控制器(未示出),其中,存储器控制器对所述一个或更多个数据存储单元的数据的输入和输出进行管理。
可伸缩视频编码设备10与内部嵌入的内部视频编码处理器或外部视频编码处理器进行交互操作以输出视频编码结果,使得可伸缩视频编码设备10可执行包括变换的视频编码操作。可伸缩视频编码设备10的内部视频编码处理器可作为单独的处理器来执行视频编码操作。此外,可伸缩视频编码设备10可与可伸缩视频编码设备10的中央处理器(CPU)或图形化操作单元包括视频编码处理模块并因此执行基本视频编码操作的情况相应。
因此,可伸缩视频编码设备10的基本层编码器11可通过对基本层图像序列进行编码来产生基本层比特流,增强层解码器26可通过对增强层图像序列进行编码来产生增强层比特流。
参照图2来描述接收由可伸缩视频编码设备10产生的基本层比特流和增强层比特流并对其进行解码的可伸缩视频解码设备20。
图2示出根据示例性实施例的可伸缩视频解码设备20的框图。
根据本示例性实施例的可伸缩视频解码设备20包括基本层解码器21和增强层解码器23。
根据本示例性实施例的可伸缩视频解码设备20可基于可伸缩编码方法接收根据层的比特流。可伸缩视频解码设备20接收的比特流的层的数量不被限制。然而,为了便于描述,在下文中,在示例性实施例中,可伸缩视频解码设备20的基本层解码器21接收基本层流并对基本层流进行解码,增强层解码器23接收增强层流并对增强层流进行解码。
例如,基于空间伸缩性的可伸缩视频解码设备20可接收流,其中,在所述流中,具有不同分辨率的图像序列被编码到不同层。可通过对基本层流进行解码来重建低分辨率图像序列,并且可通过对增强层流进行解码来重建高分辨率图像序列。
作为另一示例,基于SNR伸缩性的可伸缩视频解码设备20可接收图像比特流,其中,在图像比特流中,基本层和增强层是通过使用不同的QP被编码的。可从基本层比特流解码出被应用较高QP的低分辨率图像,可从增强层比特流解码出被应用较低QP的高分辨率图像。
作为另一示例,可通过使用可伸缩视频编码方法对多视点视频进行解码。当具有多个层的立体视频流被接收时,可通过对基本层流进行解码来重建左视点图像。通过对除了基本层流之外的增强层流进行进一步解码,可重建右视点图像。
可选地,当具有多个层的多视点视频流被接收时,可通过对基本层流进行解码来重建中心视点图像。通过对除了基本层流之外的第一增强层流进行进一步解码,可重建左视点图像。通过对除了基本层流之外的第二增强层流进行进一步解码,可重建右视点图像。
作为另一示例,可执行基于时间可伸缩性的可伸缩视频编码方法。通过对基本层流进行解码,可重建具有基本帧率的图像。通过对除了基本层流之外的增强层流进行进一步解码,可重建具有高速帧率的图像。
可伸缩视频解码设备20可从基本层流和增强层流获得基本层图像和增强层图像的编码数据,并且还可获得通过帧间预测而产生的运动矢量以及通过层间预测而产生的预测信息。
例如,可伸缩视频解码设备20可对每个层的帧间预测的数据进行解码,并且可对在多个层之间被层间预测的数据进行解码。可基于编码单元或预测单元,通过使用运动补偿和层间解码来执行重建。
可通过参考经由使用同一层的帧间预测被预测的重建图像对当前图像执行运动补偿来重建每个层流的图像。运动补偿是指通过将当前图像的残差分量与参考图像合成来重建当前图像的重建图像的操作,其中,参考图像是通过使用当前图像的运动矢量来确定的。
此外,可伸缩视频解码设备20可通过参考基本层图像来执行层间解码,以便重建经由层间预测被预测的增强层图像。层间解码是指通过将当前图像的残差分量与另一层的参考图像合成来重建当前图像的重建图像的操作,其中,参考图像被确定用于对当前图像进行预测。
将参照图3来详细描述层间预测结构。
可伸缩视频解码设备20对视频的每个图像的每个块进行解码。根据本示例性实施例的块可以是树结构的编码单元之中的最大编码单元、编码单元、预测单元、变换单元等。
基本层解码器21可通过使用解析的基本层图像的编码符号来对基本层图像进行解码。如果可伸缩视频解码设备20接收到基于树结构的编码单元被编码的流,则基本层解码器21可基于树结构的编码单元对基本层流的每个最大编码单元执行解码。
基本层解码器21可对每个最大编码单元执行熵解码,并因此可获得编码信息和编码数据。基本层解码器21可对从流获得的编码数据执行反量化和逆变换,并因此可重建残差分量。根据另一示例性实施例的基本层解码器21可直接接收量化后的变换系数的比特流。作为对量化后的变换系数执行的反量化和逆变换的结果,图像的残差分量可被重建。
基本层解码器21可通过经由对相同层图像进行的运动补偿将预测图像与残差分量组合来重建基本层图像。
增强层解码器23可根据块(诸如编码单元或预测单元)对增强层图像执行层间预测。可确定基本层图像的将被增强层图像的块参考的块。例如,可确定基本层图像中的位置与增强层图像中的当前块的位置相应的重建块。增强层解码器23可通过使用与增强层块相应的重建的基本层块来确定增强层预测块。
更详细地讲,基本层解码器21可通过执行反量化、逆变换、帧间预测或运动补偿来对基本层图像的树结构的编码单元中的每个编码单元中的编码的样点进行解码,并因此可重建当前最大编码单元中包括的样点。可通过对先前条带中的样点执行编码并随后对编码的样点进行解码来产生先前条带的重建图像。为了对当前条带执行帧间预测,可参考先前条带的重建图像。因此,先前条带的重建图像可被用作当前条带的预测图像。
根据层间预测结构,增强层解码器23可通过使用重建的基本层图像的样点来产生增强层预测图像。增强层解码器23可对增强层流进行解码,并可获得由于层间预测而产生的预测误差。增强层解码器23可通过将增强层预测图像与预测误差组合来产生重建的增强层图像。
如上所述,增强层解码器23可通过经由层间预测结构参考重建的基本层图像来重建增强层图像。可选地,根据本示例性实施例的增强层解码器23可在不参考其它层样点的情况下,经由单层预测结构来重建增强层图像。根据另一示例性实施例的增强层解码器23可将层间预测与单层中的帧间预测(运动补偿)组合。
在下文中,根据层间预测,描述通过使用重建的基本层图像来对增强层图像进行解码的示例。
基本层解码器21可通过执行反量化、逆变换、帧间预测或运动补偿来对基本层图像的树结构的编码单元中的每个编码单元中的编码符号进行解码,并因此可重建当前最大编码单元中包括的样点。可通过对先前条带执行解码来产生重建的图像。为了对当前条带执行运动补偿,可参考先前条带的重建图像。
根据本示例性实施例的增强层解码器23可将增强层预测块用作对增强层原始块进行层间预测的参考图像,其中,增强层预测块是根据层间预测结构通过使用重建的基本层块来确定的。增强层解码器23可通过将经由层间预测获得的残差分量与重建的基本层图像合成来重建增强层块,其中,残差分量与增强层预测块的样值和增强层原始块的样值之间的误差相应。
由于空间伸缩性,当在基本层图像和增强层图像中分辨率不同时,图像尺寸也不同。因此,为了产生用于增强层图像的参考层图像,增强层解码器23可执行插值滤波来将重建的基本层图像上采样到增强层图像的分辨率。
此外,当根据每个子像素单位来执行帧间预测时,可执行插值滤波以根据每个子像素单位确定参考块。
因此,为了减小存储器带宽和计算负荷量,根据本示例性实施例的增强层解码器23可选择性地确定是在单个层中执行帧间预测还是通过使用参考层图像来执行层间预测。
如上所述,对于层间预测结构,需要作为参考层图像的上采样的重建的基本层图像。因此,增强层解码器23可对基本层图像执行运动补偿,并因此可产生重建的基本层图像。
增强层解码器23可在重建的基本层图像中确定参考层图像,以便对增强层图像执行层间预测。例如,可将具有与增强层图像相同的POC的重建的基本层图像确定为参考层图像。增强层解码器23可对确定的参考层图像执行IL插值滤波,并因此可产生上采样的参考层图像。
要求根据本示例性实施例的可伸缩视频解码设备20对基本层执行帧间预测并对增强层执行层间预测所需的计算负荷量不大于可伸缩视频编码设备10对基本层和增强层中的每一个仅执行帧间预测所需的计算负荷量。
如参照图1所描述的,将层间预测结构与单个层预测结构进行比较,当对增强层图像执行层间预测时,除了用于使用基本层图像的帧间预测的MC插值滤波以及用于使用重建的基本层图像的层间预测的IL插值滤波之外,不应增加任何其它插值滤波。
因此,当上采样的参考层图像经由IL插值滤波被确定时,增强层解码器23可确定针对增强层图像不执行增强层图像之间的帧间预测。
例如,增强层解码器23可获得关于对增强层图像的帧间预测的残差分量以及指示参考层图像的参考索引。基于参考索引,增强层解码器23可确定不对增强层图像执行帧间预测,并且可在重建的基本层图像中确定参考层图像。
因此,增强层解码器23可对参考层图像执行IL插值滤波,并因此可获得上采样的参考层图像。增强层解码器23可通过将残差分量和根据块被上采样的参考层图像的参考块合成来重建增强层块。将与增强层图像之间的残差分量与上采样的参考层图像进行合成,使得可重建增强层图像。
根据另一示例性实施例的可伸缩视频解码设备20可基于用于对增强层图像的帧间预测的MC插值滤波的MC插值滤波器的抽头数、用于IL插值滤波的IL插值滤波器的抽头数以及增强层图像的预测单元的尺寸中的至少一个,来限制MC插值滤波的次数以及IL插值滤波的次数。
例如,对尺寸为8×8或更大的块进行的插值滤波可被限制为i)被执行两次的8抽头MC插值滤波的组合、或者ii)被执行一次的8抽头MC插值滤波和被执行一次的8抽头IL插值滤波的组合。
作为另一示例,对尺寸为4×8或更大的块进行的插值滤波可被限制为iii)被执行一次的8抽头IL插值滤波、iv)被执行两次的6抽头IL插值滤波的组合、v)被执行两次的4抽头IL插值滤波的组合、或者vi)被执行三次的2抽头IL插值滤波的组合。
作为另一示例,对于尺寸为8×16或更大的块进行的插值滤波可被限制为vii)被执行两次的8抽头MC插值滤波和被执行一次的4抽头IL插值滤波的组合、viii)被执行四次的2抽头MC插值滤波和被执行四次的2抽头IL插值滤波的组合、ix)被执行两次的8抽头MC插值滤波和被执行两次的2抽头IL插值滤波的组合、或者x)被执行两次的8抽头MC插值滤波和被执行一次的8抽头IL插值滤波的组合。
因此,可伸缩视频解码设备20的基本层解码器21可通过对基本层流进行解码来重建基本层图像序列,增强层解码器23可通过对增强层流进行解码来重建增强层图像序列。
根据本示例性实施例的可伸缩视频解码设备20可包括总体控制基本层解码器21和增强层解码器23的中央处理器(未示出)。可选地,基本层解码器21和增强层解码器23中的每一个可由其拥有的处理器(未示出)来驱动,并且处理器可彼此交互操作,使得可伸缩视频编码设备10可进行操作。可选地,基于根据本示例性实施例的可伸缩视频解码设备20的外部处理器(未示出)的控制,基本层解码器21和增强层解码器23可被控制。
根据本示例性实施例的可伸缩视频解码设备20可包括一个或更多个数据存储单元(未示出),其中,所述一个或更多个数据存储单元用于存储基本层解码器21和增强层解码器23的输入数据和输出数据。可伸缩视频解码设备20可包括存储器控制器(未示出),其中,存储器控制器对所述一个或更多个数据存储单元的数据的输入和输出进行管理。
根据本示例性实施例的可伸缩视频解码设备20可与内部嵌入的内部视频解码处理器或外部视频解码处理器进行交互操作以经由视频解码重建视频,使得可伸缩视频解码设备20可执行包括逆变换的视频解码操作。根据本示例性实施例的可伸缩视频解码设备20的内部视频解码处理器不但可与单独的处理器相应,还可与可伸缩视频解码设备20的CPU或图形化操作单元包括视频解码处理模块并因此执行基本视频解码操作的情况相应。
如上所述,基于根据示例性实施例的可伸缩视频编码设备10和可伸缩视频解码设备20,可伸缩视频编码设备10和可伸缩视频解码设备20可基于块的分区尺寸、分区形状和预测模式中的至少一个来选择性地确定是在单个层中执行帧间预测还是通过使用参考层图像执行层间预测。
因此,与对每个单个层执行预测的情况相比,即使根据各种示例性实施例的可伸缩视频编码设备10根据层间预测结构对增强层图像进行编码,存储器带宽和计算量也不会增加。
类似地,与基本层图像和增强层图像针对每个单个层被重建的预测结构相比,根据本示例性实施例的可伸缩视频解码设备20可根据层间预测结构对基本层图像和增强层图像进行解码,而不增加存储器带宽和计算量。
图3详细地示出根据示例性实施例的可伸缩视频编码设备10的结构。
层间编码系统1600包括基本层编码终端1610、增强层编码终端1660以及在基本层编码终端1610和增强层编码终端1660之间的层间预测终端1650。基本层编码终端1610和增强层编码终端1660可分别展示出基本层编码器11和增强层编码器13的具体构造。
基本层编码终端1610接收基本层图像序列的输入,并对每个图像进行编码。增强层编码终端1660接收增强层图像序列的输入,并对每个图像进行编码。稍后将同时描述在基本层编码终端1610的操作和增强层编码终端1660的操作中重叠的操作。
块划分器1618或1668将输入图像(低分辨率图像或高分辨率图像)划分为最大编码单元、编码单元、预测单元、变换单元等。为了对从块划分器1618或1668输出的编码单元进行编码,可对编码单元的每个预测单元执行帧内预测或帧间预测。预测开关1648或1698可基于预测单元的预测模式是帧内预测模式还是帧间预测模式,通过参考从运动补偿器1640或1690输出的重建的先前图像来执行帧间预测,或者可通过使用从帧内预测器1645或1695输出的当前输入图像内的当前预测单元的邻近预测单元来执行帧内预测。可通过帧间预测针对每个预测单元产生残差信息。
根据编码单元的每个预测单元,预测单元和外围图像之间的残差分量被输入到变换器/量化器1620或1670。变换器/量化器1620或1670可基于编码单元的变换单元针对每个变换单元执行变换和量化,并可输出量化后的变换系数。
缩放/逆变换器1625或1675可根据编码单元的每个变换单元对量化后的变换系数执行缩放和逆变换,并可产生空间域的残差分量。当由于预测开关1648或1698而被控制为帧间模式时,可将残差分量与重建的先前图像或邻近预测单元合成,使得可产生包括当前预测单元的重建图像,并可将重建的当前图像存储在存储器1630或1680中。根据接下来将被编码的预测单元的预测模式,重建的当前图像可被传送到帧内预测器1645或1695/运动补偿器1640或1690。
具体地,在帧间模式期间,环路滤波器1635或1685可根据每个编码单元,对存储在存储器1630或1680中的重建图像执行去块滤波和样点自适应偏移(SAO)滤波中的至少一个。可对编码单元以及包括在编码单元中的预测单元和变换单元中的至少一个执行去块滤波和SAO滤波中的至少一个。
去块滤波是用于使数据单元的块效应平滑的滤波,SAO滤波是用于对在数据被编码和解码时被破坏的像素值进行补偿的滤波。根据每个预测单元,由环路滤波器1635或1685滤波的数据可被传送到运动补偿器1640或1690。为了对从块划分器1618或1668输出的下一编码单元进行编码,可产生重建的当前图像与所述下一编码单元之间的残差分量,其中,重建的当前图像是从运动补偿器1640或1690输出的,所述下一编码单元是从块划分器1618或1668输出的。
可按照此方式针对输入图像的每个编码单元重复上述编码过程。
此外,为了进行层间预测,增强层编码终端1660可参考存储在基本层编码终端1610的存储器1630中的重建图像。基本层编码终端1610的编码控制器1615可控制基本层编码终端1610的存储器1630,并可将基本层编码终端1610的重建图像传送给增强层编码终端1660。传送的重建的基本层图像可被用作增强层的预测图像。
当基本层和增强层具有不同的分辨率时,基本层预测终端1650的上采样单元1655可对重建的基本层图像进行上采样并将上采样后的重建的基本层图像传送给增强层编码终端1660。因此,上采样后的重建的基本层图像可被用作增强层的预测图像。
当按照增强层编码终端1660的编码控制器1665控制开关1698的方式来执行层间预测时,可通过参考经由层间预测端1650传送的重建的基本层图像来预测增强层图像。
为了对图像进行编码,可设置用于编码单元、预测单元和变换单元的各种编码模式。例如,可设置用于编码单元的编码模式、深度、划分信息(例如,划分标记)等。可将预测模式、分区类型、帧内方向信息、参考列表信息等设置为用于预测单元的编码模式。可将变换深度、划分信息等设置为用于预测单元的编码模式。
基本层编码终端1610可通过使用用于编码单元的各种深度中的每个深度、用于预测单元的各种模式中的每个模式、各种分区类型中的每个分区类型、各种帧内方向中的每个帧内方向、各种参考列表中的每个参考列表和用于变换单元的各种变换深度中的每个变换深度来执行编码,并且基本层编码终端1610可根据执行的结果确定具有最高编码效率的编码深度、预测模式、分区类型、帧内方向/参考列表、变换深度等。然而,由基本层编码终端1610确定的编码模式不限于上述编码模式。
基本层编码终端1610的编码控制器1615可控制不同的编码模式被适当地应用到每个配置元件的操作。此外,为了在增强层编码终端1660中进行的层间编码,编码控制器1615可控制增强层编码终端1660通过参考来自基本层编码终端1610的编码结果来确定编码模式或残差分量。
例如,增强层编码终端1660可将基本层编码终端1610的编码模式用作增强层图像的编码模式,或可通过参考基本层编码终端1610的编码模式来确定增强层图像的编码模式。基本层编码终端1610的编码控制器1615可使用基本层编码终端1610的编码模式中的当前编码模式,以便通过控制增强层编码终端1660的编码控制器1665的控制信号来确定增强层编码终端1660的当前编码模式。
与根据图3中示出的层间预测技术的层间编码系统1600相似,可实现基于层间预测技术的层间编码系统。也就是说,层间解码系统可接收基本层比特流和增强层比特流。层间解码系统的基本层解码端可对基本层比特流进行解码并重建基本层图像。用于多层视频的层间解码系统的增强层解码终端可通过使用重建的基本层图像和解析的编码信息对增强层比特流进行解码,并可重建增强层图像。
如果根据先前示例性实施例的可伸缩视频编码设备10的增强层编码器13执行层间预测,则可伸缩视频解码设备20的增强层解码器23还可根据层间解码系统重建增强层图像。
在下文中,参照图4至图7,将单层预测结构的存储器带宽与层间预测结构的存储器带宽进行比较。
图4示出单层预测结构中的基本层图像和增强层图像。
根据单层预测结构,可在基本层和增强层中的每一个中执行帧间预测。
也就是说,在基本层中,通过使用属于L0参考列表的参考图像48和49以及属于L1参考列表的参考图像46和47中的至少一个,可执行针对基本层图像BL45的帧间预测。此外,在增强层中,通过使用属于L0参考列表的参考图像43和44以及属于L1参考列表的参考图像41和42中的至少一个,可执行针对增强层图像EL40的帧间预测。
为了根据每个子像素单位进行运动估计或运动补偿,需要对参考图像进行插值滤波。因此,为了对每个层的当前图像执行帧间预测,可在基本层中执行一次MC插值滤波,在增强层中执行一次IL插值滤波。
图5示出层间预测结构中的基本层图像和增强层图像。
根据层间预测结构,可在基本层中执行帧间预测,在增强层中执行帧间预测和层间预测。
也就是说,可在基本层中执行针对基本层图像BL45的帧间预测。为了在基本层中根据每个子像素单位进行运动估计或运动补偿,可执行一次MC插值滤波。
此外,在增强层中,通过使用属于L0参考列表的参考图像53和54以及属于L1参考列表的参考图像51和52中的至少一个,可执行针对增强层图像EL50的帧间预测。对于增强层中的根据每个子像素单位的运动估计或运动补偿,可执行一次MC插值滤波。
为了进行层间预测,可通过对基本层图像BL45的重建图像进行上采样来产生上采样的参考层图像56和55。上采样的参考层图像56和55可用于针对增强层图像EL50的层间预测。为了执行层间预测,可执行一次IL插值滤波来对基本层图像BL45的重建图像进行上采样。
为了根据每个子像素单位进行运动估计或运动补偿,需要对参考图像进行插值滤波。因此,为了对每个层的当前图像进行编码,可针对基于执行一次插值滤波以进行帧间预测,并且可针对增强层执行一次插值滤波以进行帧间预测。
在下文中,将单层预测结构的计算复杂度与层间预测结构的计算复杂度进行比较。可考虑计算所需的存储器带宽、乘法和加法计算被执行的次数、计算目标样点的动态范围、用于存储滤波器系数的存储器的大小、计算延迟等来评估计算复杂度。贯穿说明书,通过使用执行帧间预测和层间预测中通常所需的存储器带宽和计算量(计算次数)来评估计算复杂度。
在下文中,参照图6和图7,以下将描述在单层预测结构和层间预测结构中发生的插值滤波的存储器效率。
图6示出用于针对块的插值滤波的存储器的带宽。
首先,确定对于针对块中的一个样点进行帧间预测,必须在存储器中存储多少个邻近像素。
在单向预测的情况下,需要在L0和L1中的一个方向上进行插值滤波。在双向预测的情况下,需要邻近像素将被存储的存储器带宽,其中,所述邻近像素用于在L0和L1两个方向上的插值滤波。
对于层间预测,需要将存储邻近像素的存储器带宽,其中,所述邻近像素用于针对从基本层图像的分辨率进行的上采样操作的插值滤波。
在层间预测和帧间预测(单向或双向)被组合的情况下,需要用于针对层间预测的插值滤波的存储器带宽和用于针对帧间预测的插值滤波的存储器带宽两者。
当使用颜色分量之间的预测时,需要访问存储在存储器中的不同位置中的各种颜色分量,因此,所需的存储器带宽也会增加。
参照图6,包括插值目标样点的插值块的宽度和高度分别被标记为W和H。指示将被存储器同时读取的样点区域的存储器图案的宽度和高度分别被标记为w和h(参照图7)。
用于亮度块的插值滤波器的滤波器长度(滤波器抽头的数量)被标记为TL,用于色度块的插值滤波器的滤波器长度被标记为TC。
作为预测目标的增强层的分辨率被标记为S_EL,作为参考目标的基本层的分辨率被标记为S_BL。
增强层和基本层的比率被标记为S(=S_BL/S_EL)。在x2空间可伸缩中的S可被确定为1/2,在x1.5空间可伸缩中的S可被确定为2/3。在SNR可伸缩或运动补偿中,S可被确定为1。
亮度块60是宽度为W且高度为H的四边形块,色度块62是宽度为W且高度为H/2的四边形块。在彩色格式为4:2:0中,Cb分量和Cr分量按交错方式排列。
存储器带宽是指将从存储器同时访问和读取的数据量的最大值。当帧间预测或层间预测所需的存储器带宽增加时,存储器效率会降低。例如,当S接近1时,存储器效率降低。
垂直方向插值滤波以及二维(2D)插值滤波(垂直方向插值滤波经由其被顺序执行)需要最大的存储器带宽。例如,通过按照插值滤波器的大小沿垂直方向和水平方向两者从亮度块60和色度块62开始进行扩展来确定用于2D插值滤波的像素块。需要拥有用于访问扩展后的像素块的尺寸的存储器带宽。
也就是说,为了针对亮度块60进行插值滤波,基于作为亮度插值滤波器大小的TL,需要拥有用于访问具有宽度(W+TL-1)和高度(H+TL-1)的存储器区域61的存储器带宽。
此外,为了针对色度块62进行插值滤波,基于作为色度插值滤波器大小的TC,需要拥有用于访问具有宽度(W+2×TC-2)和高度(H/2+TL-1)的存储器区域63的存储器带宽。
如果增强层块和参考层块具有不同的空间分辨率,则需要根据分辨率比率进行缩放。也就是说,可将用于针对亮度块60进行插值滤波的存储器区域的大小确定为(W+TL-1)×(H+TL-1)/S/S。
图7示出存储器访问模式。
此外,不是一个接一个地从存储器读取样点,而是从存储器读取与具有宽度w和高度h的存储器图案一样多的样点。然而,如果根据存储器图案可访问的样点区域71的左上角与插值滤波所需的存储器区域70的左上角不匹配,则还需要不必要的存储器带宽,这使得存储器效率会降低。
存储器带宽最大的情况是存储器图案的大小甚至被添加到用于插值滤波的存储器区域的时候,并且在此情况下,存储器效率最低。
也就是说,可将针对亮度块60进行插值滤波所需的最大存储器带宽确定为宽度((W+TL-1)/S+w-1)和高度((H+TL-1)/S+h-1)。类似地,可将针对亮度块62进行插值滤波所需的最大存储器带宽确定为宽度((W+2TC-2)/S+w-1)和高度((H/2+TC-1)/S+h-1)。
结果,在增强层块中,可如以下等式来确定针对包括YCbCr分量的样点进行插值滤波所需的最大存储器带宽。
((W+TL-1)/S+w-1)×((H+TL-1)/S+h-1)+((W+2×TC-2)/S+w-1)×((H/2+TC-1)/S+h-1)/W/H。
上述存储器带宽指示将在用于单向帧间预测或层间预测的插值滤波中被访问的存储器大小。对于双向帧间预测,可能需要是上述存储器带宽两倍大的存储器带宽。在层间预测和帧间预测被组合的情况下,需要拥有与所有插值滤波中的所有存储器带宽总和一样大的大小的存储器带宽。
此外,根据以上参照图6和图7描述的等式,存储器带宽可根据块尺寸和帧间预测模式而被改变。
因此,根据示例性实施例的可伸缩视频编码设备10和可伸缩视频解码设备20可根据块尺寸和帧间预测模式中的至少一个来调整插值滤波的次数,以便防止插值滤波所需的存储器带宽和计算负荷量的过度增加。在下文中,参照图8和图9中示出的表,描述插值滤波的次数根据滤波器大小、块尺寸和帧间预测模式而被限制的实施例。
图8示出根据帧间预测模式和块尺寸而被改变的用于MC插值滤波的存储器带宽。
参照图8,用于针对增强层进行预测的插值滤波所需的存储器带宽从左侧向右侧减小。
块的分区类型指示根据块的尺寸和形状的类型。
根据本示例性实施例,针对4×8块和8×4块的双向帧间预测在增强层中被限制。
另一方面,在增强层中,针对8×8块、4×16块和16×4块的双向帧间预测、针对4×8块的单向帧间预测、针对8×16块的双向帧间预测以及针对8×4块的单向帧间预测被允许。此外,根据排列的顺序,用于每个帧间预测的插值滤波所需的存储器带宽逐渐减小。
图9示出根据示例性实施例的根据块尺寸而被改变的用于IL插值滤波的存储器带宽。
当2DIL插值滤波针对层间预测被执行时,IL插值滤波所需的存储器带宽与用于单向预测的MC插值滤波所需的存储器带宽相同。然而,当预测目标块的尺寸减小时,IL插值滤波所需的存储器带宽可增大。
参照图9,根据4×8块、8×4块、8×8块、4×16块、16×4块、8×16块和8×32块的顺序,IL插值滤波所需的存储器带宽可减小。
根据示例性实施例的可伸缩视频编码设备10和可伸缩视频解码设备20可设置关于是否在增强层中执行层间预测和帧间预测两者的限制条件。例如,在预定条件下,不能在增强层中执行帧间预测,而可仅执行层间预测。
在下文中,参照图10和11,在没有限制条件的情况和具有限制条件的另一情况中对基本层编码和增强层编码所需的插值滤波的次数进行比较。
图10示出在具有限制条件的情况下的在基本层编码和增强层编码中执行插值滤波的次数。
首先,可针对运动补偿执行单向预测或双向预测,但所需的存储器带宽在双向预测时加倍。为了介绍运动补偿需要最大存储器带宽的情况,假设运动补偿经由双向预测被执行。
首先,在两层单独编码结构中,执行基本层帧间预测和增强层帧间预测。可在基本层帧间预测和增强层帧间预测中的每一个中执行运动补偿。
由于用于运动补偿的参考块根据每个子像素单位被确定,因此需要水平方向MC插值滤波和垂直方向MC插值滤波。此外,为了沿L0和L1方向进行运动补偿,可沿L0和L1方向中的每个方向执行水平方向MC插值滤波和垂直方向MC插值滤波。
因此,对于在两层单独编码结构中的基本层帧间预测,可沿L0方向执行水平MC插值滤波和垂直MC插值滤波。此外,对于两层单独编码结构中的增强层帧间预测,可沿L0方向执行水平MC插值滤波和垂直MC插值滤波。因此,在两层单独编码结构中,需要用于执行四次插值滤波的存储器带宽和计算负荷量。
然后,在两层参考编码结构中,可根据是否执行层间预测来改变预测方法。
首先,即使是两层参考编码结构,如果不执行层间预测,则如在两层单独编码结构中,针对基本层帧间预测,可沿L0方向执行水平MC插值滤波和垂直MC插值滤波,并且可沿L1方向执行水平MC插值滤波和垂直MC插值滤波。此外,针对增强层帧间预测,可沿L0方向执行水平MC插值滤波和垂直MC插值滤波,并且可沿L1方向执行水平MC插值滤波和垂直MC插值滤波。也就是说,需要用于执行最多八次插值滤波的存储器带宽和计算负荷量。
然而,如果在两层参考编码结构中执行层间预测,则为了产生用于层间预测的上采样的参考图像,可进一步执行水平方向IL插值滤波和垂直方向IL插值滤波。因此,如果执行层间预测,则可需要用于执行最多十次插值滤波的存储器带宽和计算负荷量。
图11示出根据示例性实施例的在预定条件下在基本层编码和增强层编码中执行插值滤波的次数。
当根据层间预测需要额外的存储器带宽和计算负荷量时,根据示例性实施例的可扩展视频编码设备10和可扩展视频解码设备20可限制用于增强层预测的帧间预测。
可伸缩视频解码设备20可使用基本层图像执行四次MC插值滤波,其中,四次MC插值滤波包括沿L0和L1方向中的每个方向的水平方向插值滤波和垂直方向插值滤波。此外,为了产生用于层间预测的上采样的参考层图像,可伸缩视频解码设备20可使用参考层图像执行两次IL插值滤波,其中,两次IL插值滤波包括水平方向IL插值滤波和垂直方向IL插值滤波。
可伸缩视频解码设备20可将用于层间预测的插值滤波限制为针对基本层帧间预测执行四次MC插值滤波并且针对层间预测执行两次IL插值滤波。也就是说,插值滤波的次数可被限制为六次。
因此,参照图11,当层间预测被执行时,可伸缩视频解码设备20可将用于增强层帧间预测的运动矢量确定为0。也就是说,因为运动矢量为0,所以可跳过用于帧间预测的MC插值滤波。
此外,当用于当前层图像的参考索引指示上采样的参考层图像时,即,当执行层间预测时,根据另一示例性实施例的可伸缩视频解码设备20可将与运动矢量相关的所有变量确定为0,其中,变量包括指示合并目标块的合并索引、指示运动矢量预测因子是否被使用的mvp标志、运动矢量的参考索引、作为运动矢量差信息的mvd以及指示mvd是否为0的标志(mvd零标志)。
因此,参照图11,用于对增强层图像的层间预测的插值滤波的计算量可能不大于用于对基本层图像的帧间预测的MC插值滤波的第一计算量与用于对增强层图像的帧间预测的MC插值滤波的第二计算量的总和。
根据另一示例性实施例,如果可对增强层来执行层间预测和帧间预测两者,则可伸缩视频编码设备10和可伸缩视频解码设备20可按照用于IL插值滤波的滤波器大小不大于用于MC插值滤波的滤波器大小的这种方式进行确定。在下文中,参照图12介绍了在用于IL插值滤波的滤波器大小不大于用于MC插值滤波的滤波器大小的情况下的MC插值滤波和IL插值滤波的可能的组合。
图12示出根据示例性实施例的在预定条件下可被执行的MC插值滤波和IL插值滤波的组合。
根据H.265/HEVC标准,当对尺寸为8×8或具有更大尺寸的块执行帧间预测时,8抽头插值滤波器被用于针对亮度块的MC插值滤波,4抽头插值滤波器被用于针对色度块的MC插值滤波。根据H.264标准,当对尺寸为4×4或具有更大尺寸的块执行帧间预测时,6抽头插值滤波器被用于针对亮度块的MC插值滤波,2抽头插值滤波器被用于针对色度块的MC插值滤波。
为了执行层间预测,可伸缩视频解码设备20可通过使用用于针对亮度块的IL插值滤波的8抽头插值滤波器并通过使用用于针对色度块的IL插值滤波的4抽头插值滤波器,来顺序地执行两次IL插值滤波。这里,允许的最小块尺寸为8×8。
为了针对尺寸为8×8或具有更大尺寸的块组合帧间预测和层间预测,可伸缩视频解码设备20可针对亮度块使用用于MC插值滤波的8抽头MC插值滤波器和用于IL插值滤波的8抽头IL插值滤波器。可伸缩视频解码设备20可针对色度块使用用于MC插值滤波的4抽头MC插值滤波器和用于IL插值滤波的4抽头IL插值滤波器。
当可伸缩视频解码设备20通过使用8抽头IL插值滤波器对尺寸为4×8或具有更大尺寸的亮度块执行层间预测时,可伸缩视频解码设备20可允许进行一次IL插值滤波,并且可限制帧间预测。针对相应块的色度块,可仅允许进行一次4抽头IL插值滤波。
当通过使用6抽头或4抽头IL插值滤波器对尺寸为4×8或具有更大尺寸的亮度块执行层间预测时,可允许进行两次IL插值滤波,但可限制帧间预测。针对相应块的色度块,可允许进行两次2抽头IL插值滤波。
当通过使用2抽头IL插值滤波器对尺寸为4×8或具有更大尺寸的亮度块执行层间预测时,可允许进行三次IL插值滤波,但可限制帧间预测。针对相应块的色度块,可允许进行三次2抽头IL插值滤波。
当可伸缩视频解码设备20通过使用4抽头或2抽头IL插值滤波器对尺寸为8×16或具有更大尺寸的亮度块执行层间预测时,可伸缩视频解码设备20可允许进行一次IL插值滤波,并可允许使用8抽头MC插值滤波器进行两次MC插值滤波。对于针对相应块的色度块的MC插值滤波,可执行两次4抽头MC插值滤波,并且可执行一次2抽头IL插值滤波。
此外,当可伸缩视频解码设备20通过使用2抽头IL插值滤波器对尺寸为8×16或具有更大尺寸的亮度块执行两次IL插值滤波时,可伸缩视频解码设备20可允许使用2抽头MC插值滤波器进行四次MC插值滤波。对于针对相应块的色度块的MC插值滤波,可执行四次2抽头MC插值滤波,并且可执行两次2抽头IL插值滤波。
此外,当可伸缩视频解码设备20通过使用2抽头IL插值滤波器对尺寸为8×16或具有更大尺寸的亮度块执行两次IL插值滤波时,可伸缩视频解码设备20可允许使用8抽头MC插值滤波器进行两次MC插值滤波。对于针对相应块的色度块的MC插值滤波,可执行两次4抽头MC插值滤波,并且可执行两次4抽头IL插值滤波。
此外,当可伸缩视频解码设备20通过使用8抽头IL插值滤波器对尺寸为8×16或具有更大尺寸的亮度块执行一次IL插值滤波时,可伸缩视频解码设备20可允许使用8抽头MC插值滤波器进行两次MC插值滤波。对于针对相应块的色度块的MC插值滤波,可执行两次4抽头MC插值滤波,并且可执行一次4抽头IL插值滤波。
根据针对增强层执行的帧间预测和层间预测的上述各种组合,允许层间预测和帧间预测的组合的最小块尺寸为8×8。
图13示出根据示例性实施例的可伸缩视频编码方法的流程图。
在操作131,可伸缩视频编码设备10可在基本层图像中确定参考层图像以便对增强层图像执行层间预测。
首先,可伸缩视频编码设备10可使用基本层图像执行四次MC插值滤波,其中,四次MC插值滤波包括沿L0和L1预测方向中的每个预测方向的水平方向插值滤波和垂直方向插值滤波,因此,可伸缩视频编码设备10可执行运动估计和运动补偿。可经由运动补偿来产生重建的基本层图像。可在重建的基本层图像中确定增强层图像的参考层图像。
在操作133,可伸缩视频编码设备10可对参考层图像执行IL插值滤波,并因此可产生上采样的参考层图像。
可伸缩视频编码设备10可对参考层图像执行两次IL插值滤波,其中,两次IL插值滤波包括水平方向IL插值滤波和垂直方向IL插值滤波,因此可伸缩视频编码设备10可产生上采样的参考层图像。
为了防止计算量增加,与两层单独预测结构相比,当可伸缩视频编码设备10对增强层图像中的样点执行层间预测时,可伸缩视频编码设备10可将插值滤波限制为执行四次MC插值滤波并且执行两次IL插值滤波。
在操作135,当上采样的参考层图像经由IL插值滤波被确定时,可伸缩视频编码设备10可确定针对增强层图像不执行增强层图像之间的帧间预测。可伸缩视频编码设备10可对上采样的参考层图像与增强层图像之间的残差分量进行编码,并因此可输出增强层比特流。
可伸缩视频编码设备10可根据每个块对指示参考图像的参考索引进行编码。对于被执行层间预测的块,可对指示被用于增强层图像的参考图像是上采样的参考图像的参考索引进行编码。在此情况下,由于可伸缩视频编码设备10跳过增强层中的帧间预测,因此可伸缩视频编码设备10可按照用于增强层图像中的帧间预测的运动矢量指示0的这种方式对运动矢量进行编码。
图14示出根据示例性实施例的可伸缩视频解码方法的流程图。
在操作141,可伸缩视频解码设备20可获得关于对增强层图像的帧间预测的残差分量以及指示参考层图像的参考索引。
在操作143,可伸缩视频解码设备20可基于参考索引确定不对增强层图像执行帧间预测,并且可在基本层图像中确定参考层图像。
当增强层图像的参考索引指示上采样的参考图像时,可伸缩视频解码设备20可将运动矢量确定为0,其中,运动矢量用于对增强层图像的帧间预测。
首先,可伸缩视频解码设备20可确定用于使用基本层图像进行运动补偿的参考图像。为了从参考图像中确定子像素单位的参考块,可伸缩视频解码设备20可对参考图像执行四次MC插值滤波,其中,四次MC插值滤波包括沿L0和L1预测方向中的每个预测方向的水平方向插值滤波和垂直方向插值滤波。当使用基本层图像执行运动补偿时,可产生重建的基本层图像。
在操作145,可伸缩视频解码设备20可对先前确定的参考层图像执行IL插值滤波,并因此可产生上采样的参考层图像。
可伸缩视频解码设备20可对在重建的基本层图像中确定的参考层图像执行两次IL插值滤波,其中,两次IL插值滤波包括水平方向IL插值滤波和垂直方向IL插值滤波,因此可伸缩视频解码设备20可产生上采样的参考层图像。
当对增强层图像中的样点执行层间预测时,插值滤波可被限制为在操作143执行四次MC插值滤波并在操作145执行两次IL插值滤波。
在操作147,可伸缩视频解码设备20可通过使用层间预测的残差分量和上采样的参考层图像来重建增强层图像。
为了防止层间预测结构的计算量增加,与两层单独预测结构相比,根据另一示例性实施例的可伸缩视频编码设备10和可伸缩视频解码设备20可基于用于对增强层图像的MC插值滤波的MC插值滤波器的抽头数、用于IL插值滤波的IL插值滤波器的抽头数以及增强层图像的预测单元的尺寸中的至少一个,限制MC插值滤波的次数和IL插值滤波的次数。
因此,用于对增强层图像的层间预测的插值滤波的计算量可被调整为不大于用于对基本层图像的帧间预测的MC插值滤波的第一计算量和用于对增强层图像的帧间预测的MC插值滤波的第二计算量的总和。
如上所述,根据示例性实施例的可伸缩视频编码设备10和可伸缩视频解码设备20将被划分的视频数据的块划分为树结构的编码单元,并且编码单元、预测单元和变换单元被用于对编码单元的层间预测或帧间预测。在下文中,参照图15至图27描述基于树结构的编码单元和变换单元的视频编码方法及其设备以及视频解码方法及其设备。
基本上,在针对多层视频的编码/解码过程中,可单独地执行针对基本层图像的编码/解码过程和针对增强层图像的编码/解码过程。也就是说,当在多层视频中发生层间预测时,可相互参考单层视频的编码/解码结果,但编码/解码过程可针对每个单层视频被执行。
因此,为了便于描述,基于参照图15至图27描述的树结构的编码单元的视频编码过程和视频解码过程是针对单层视频的视频编码过程和视频解码过程,因此详细描述帧间预测和运动补偿。然而,如以上参照图1至图14所描述的,为了对视频流进行编码/解码,执行基本层图像与增强层图像之间的层间预测和补偿。
因此,为了使根据本示例性实施例的可伸缩视频编码设备10的基本层编码器11基于树结构的编码单元对多层视频进行编码,基本层编码器11可包括与多层视频的层数相应的多个在图15中的视频编码设备100以便对每个单层视频执行视频编码,并可控制视频编码设备100分别对多个单层视频进行编码。此外,可伸缩视频编码设备10可通过使用由视频编码设备100获得的针对离散的单个视点的编码结果来执行视点间预测。因此,可伸缩视频编码设备10的基本层编码器11可产生包括每个层的编码结果的基本层视频流和增强层视频流。
类似地,为了使可伸缩视频解码设备20的增强层解码器23基于树结构的编码单元对多层视频进行解码,增强层解码器23可包括与多层视频的层数相应的多个在图16中的视频解码设备200,以便对接收到的基本层视频流和接收到的增强层视频流中的每个层执行视频解码,并可控制视频解码设备200分别对多个单层视频进行解码。然后,可伸缩视频解码设备200可通过使用由视频解码设备200获得的针对离散的单个层的解码结果来执行层间补偿。因此,可伸缩视频解码设备20的增强层解码器23可产生针对每个层重建的基本层图像和增强层图像。
图15是根据示例性实施例的基于树结构的编码单元的视频编码设备100的框图。
涉及基于树结构的编码单元的视频预测的视频解码设备100包括编码单元确定器120和输出单元130。在下文中,为了便于描述,涉及基于树结构的编码单元的视频预测的视频解码设备100被称为“视频解码设备100”。
编码单元确定器120可基于图像的当前画面的最大编码单元来划分当前画面,其中,最大编码单元是具有最大尺寸的编码单元。如果当前画面大于最大编码单元,则可将当前画面的图像数据划分为至少一个最大编码单元。根据示例性实施例的最大编码单元可以是尺寸为32×32、64×64、128×128或256×256等的数据单元,其中,数据单元的形状是宽度和长度为2的若干次方的正方形。
根据实施例的编码单元可由最大尺寸和深度表征。深度表示编码单元从最大编码单元被空间划分的次数,并且随着深度加深,根据深度的较深层编码单元可从最大编码单元被划分到最小编码单元。最大编码单元的深度为最高深度,最小编码单元的深度为最低深度。由于随着最大编码单元的深度加深,与每个深度相应的编码单元的尺寸减小,因此与更高深度相应的编码单元可包括多个与更低深度相应的编码单元。
如上所述,当前画面的图像数据根据编码单元的最大尺寸被划分为最大编码单元,并且每个最大编码单元可包括根据深度被划分的较深层编码单元。由于根据深度对根据示例性实施例的最大编码单元进行划分,因此可根据深度对包括在最大编码单元中的空间域的图像数据进行分层划分。
可预先设置编码单元的最大深度和最大尺寸,其中,所述最大深度和最大尺寸限制最大编码单元的高度和宽度被分层划分的总次数。
编码单元确定器120对通过根据深度对最大编码单元的区域进行划分而获得的至少一个划分区域进行编码,并且根据所述至少一个划分区域来确定用于输出最终编码的图像数据的深度。换言之,编码单元确定器120通过根据当前画面的最大编码单元以根据深度的较深层编码单元对图像数据进行编码,并选择具有最小编码误差的深度,来确定编码深度。将确定的编码深度和根据确定的编码深度的编码的图像数据输出到输出单元130。
基于与等于或低于最大深度的至少一个深度相应的较深层编码单元,对最大编码单元中的图像数据进行编码,并且基于每个较深层编码单元比较对图像数据进行编码的结果。在对较深层编码单元的编码误差进行比较之后,可选择具有最小编码误差的深度。可针对每个最大编码单元选择至少一个编码深度。
随着编码单元根据深度而被分层地划分以及随着编码单元的数量增加,最大编码单元的尺寸被划分。另外,即使在一个最大编码单元中编码单元与同一深度相应,仍通过分别测量每个编码单元的图像数据的编码误差来确定是否将与同一深度相应的每个编码单元划分到更低深度。因此,即使当图像数据被包括在一个最大编码单元中时,编码误差可根据所述一个最大编码单元中的区域而不同,因此编码深度可根据图像数据中的区域而不同。因此,可在一个最大编码单元中确定一个或更多个编码深度,并且可根据至少一个编码深度的编码单元来对最大编码单元的图像数据进行划分。
因此,编码单元确定器120可确定包括在最大编码单元中的具有树结构的编码单元。根据示例性实施例的“具有树结构的编码单元”包括最大编码单元中包括的所有较深层编码单元中的与确定为编码深度的深度相应的编码单元。可根据最大编码单元的同一区域中的深度来分层地确定编码深度的编码单元,并可在不同区域中独立地确定编码深度的编码单元。类似地,可与另一区域中的编码深度独立地确定当前区域中的编码深度。
根据示例性实施例的最大深度是与从最大编码单元到最小编码单元的划分次数相关的索引。根据示例性实施例的第一最大深度可表示从最大编码单元到最小编码单元的总划分次数。根据示例性实施例的第二最大深度可表示从最大编码单元到最小编码单元的深度等级的总数。例如,当最大编码单元的深度是0时,对最大编码单元划分一次的编码单元的深度可被设置为1,对最大编码单元划分两次的编码单元的深度可被设置为2。这里,如果最小编码单元是最大编码单元被划分四次的编码单元,则存在深度0、1、2、3和4的5个深度等级,并因此第一最大深度可被设置为4,第二最大深度可被设置为5。
可根据最大编码单元执行预测编码和变换。还根据最大编码单元,基于根据等于或小于最大深度的深度的较深层编码单元来执行预测编码和变换。
由于每当根据深度对最大编码单元进行划分时,较深层编码单元的数量增加,因此对随着深度加深而产生的所有较深层编码单元必须执行包括预测编码和变换的编码。为了便于解释,在最大编码单元中,现在将基于当前深度的编码单元来描述预测编码和变换。
视频编码设备100可不同地选择用于对图像数据进行编码的数据单元的尺寸或形状。为了对图像数据进行编码,执行诸如预测编码、变换和熵编码的操作,此时,可针对所有操作使用相同的数据单元,或者可针对每个操作使用不同的数据单元。
例如,视频编码设备100不仅可选择用于对图像数据进行编码的编码单元,还可选择不同于编码单元的数据单元,以便对编码单元中的图像数据执行预测编码。
为了在最大编码单元中执行预测编码,可基于与编码深度相应的编码单元(即,基于不再被划分为与更低深度相应的编码单元的编码单元)来执行预测编码。以下,不再被划分且成为用于预测编码的基本单元的编码单元现在将被称为“预测单元”。通过划分预测单元而获得的分区可包括预测单元或通过对从预测单元的高度和宽度选择的至少一个进行划分而获得的数据单元。分区是编码单元的预测单元被划分的数据单元,并且预测单元可以是具有与编码单元相同的尺寸的分区。
例如,当2N×2N(其中,N是正整数)的编码单元不再被划分并且成为2N×2N的预测单元时,分区的尺寸可以是2N×2N、2N×N、N×2N或N×N。分区类型的示例包括通过对预测单元的高度或宽度进行对称地划分而获得的对称分区、通过对预测单元的高度或宽度进行非对称地划分(诸如,1:n或n:1)而获得的分区、通过对预测单元进行几何地划分而获得的分区、以及具有任意形状的分区。
预测单元的预测模式可以是从帧内模式、帧间模式和跳过模式选择的至少一个。例如,可对2N×2N、2N×N、N×2N或N×N的分区执行帧内模式或帧间模式。另外,可仅对2N×2N的分区执行跳过模式。可对编码单元中的一个预测单元独立地执行编码,从而选择具有最小编码误差的预测模式。
视频编码设备100不仅可基于用于对图像数据进行编码的编码单元还可基于与编码单元不同的数据单元,来对编码单元中的图像数据执行变换。为了在编码单元中执行变换,可基于具有小于或等于编码单元的尺寸的数据单元来执行变换。例如,用于变换的数据单元可包括帧内模式的数据单元和帧间模式的数据单元。
以与根据树结构的编码单元类似的方式,编码单元中的变换单元可被递归地划分为更小尺寸的区域。因此,可基于根据变换深度的具有树结构的变换单元,对编码单元中的残差数据进行划分。
还可在变换单元中设置变换深度,其中,变换深度指示通过对编码单元的高度和宽度进行划分而达到变换单元的划分次数。例如,在2N×2N的当前编码单元中,当变换单元的尺寸是2N×2N时,变换深度可以是0,当变换单元的尺寸是N×N时,变换深度可以是1,当变换单元的尺寸是N/2×N/2时,变换深度可以是2。换句话说,还可根据变换深度设置具有树结构的变换单元。
根据与编码深度相应的编码单元的编码信息不仅要求关于编码深度的信息,还要求关于与预测编码和变换相关的信息。因此,编码单元确定器120不仅确定具有最小编码误差的编码深度,还确定预测单元中的分区类型、根据预测单元的预测模式以及用于变换的变换单元的尺寸。
下面将参照图17至图27详细描述根据示例性实施例的最大编码单元中的根据树构的编码单元以及确定预测单元/分区和变换单元的方法。
编码单元确定器120可通过使用基于拉格朗日乘数的率失真优化,来测量根据深度的较深层编码单元的编码误差。
输出单元130在比特流中输出最大编码单元的图像数据和关于根据编码深度的编码模式的信息,其中,所述最大编码单元的图像数据基于由编码单元确定器120确定的至少一个编码深度而被编码。
可通过对图像的残差数据进行编码来获得编码图像数据。
关于根据编码深度的编码模式的信息可包括关于编码深度的信息、关于预测单元中的分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。
可通过使用根据深度的划分信息来定义关于编码深度的信息,其中,根据深度的划分信息指示是否对更低深度而不是当前深度的编码单元执行编码。如果当前编码单元的当前深度是编码深度,则对当前编码单元中的图像数据进行编码并输出,因此可将划分信息定义为不将当前编码单元划分到更低深度。可选地,如果当前编码单元的当前深度不是编码深度,则对更低深度的编码单元执行编码,并因此可将划分信息定义为对当前编码单元进行划分来获得更低深度的编码单元。
如果当前深度不是编码深度,则对被划分到更低深度的编码单元的编码单元执行编码。由于更低深度的至少一个编码单元存在于当前深度的一个编码单元中,因此对更低深度的每个编码单元重复执行编码,并因此可对具有相同深度的编码单元递归地执行编码。
由于针对一个最大编码单元确定具有树结构的编码单元,并且针对编码深度的编码单元确定关于至少一个编码模式的信息,因此可针对一个最大编码单元确定关于至少一个编码模式的信息。另外,由于根据深度对图像数据进行分层划分,因此最大编码单元的图像数据的编码深度可根据位置而不同,因此可针对图像数据设置关于编码深度和编码模式的信息。
因此,输出单元130可将关于相应的编码深度和编码模式的编码信息分配给包括在最大编码单元中的编码单元、预测单元和最小单元中的至少一个。
根据示例性实施例的最小单元是通过将构成最低深度的最小编码单元划分为4份而获得的正方形数据单元。可选择地,根据实施例的最小单元可以是可包括在最大编码单元中所包括的所有编码单元、预测单元、分区单元和变换单元中的最大正方形数据单元。
例如,通过输出单元130输出的编码信息可被分类为根据较深层编码单元的编码信息和根据预测单元的编码信息。根据较深层编码单元的编码信息可包括关于预测模式的信息和关于分区尺寸的信息。根据预测单元的编码信息可包括关于帧间模式期间的估计方向的信息、关于帧间模式的参考图像索引的信息、关于运动矢量的信息、关于帧内模式的色度分量的信息、以及关于帧内模式期间的插值方法的信息。
根据画面、条带或GOP定义的关于编码单元的最大尺寸的信息和关于最大深度的信息可被插入到比特流的头、序列参数集或画面参数集中。
还可通过比特流的头、序列参数集或画面参数集来输出关于针对当前视频允许的变换单元的最大尺寸的信息、以及关于变换单元的最小尺寸的信息。输出单元130可对与预测相关的参考信息、预测信息和条带类型信息进行编码并输出。
根据针对视频编码设备100的最简单的示例性实施例,较深层编码单元可以是通过将更高深度的编码单元(更高一层)的高度或宽度划分成两份而获得的编码单元。换言之,当当前深度的编码单元的尺寸是2N×2N时,更低深度的编码单元的尺寸是N×N。另外,尺寸为2N×2N的具有当前深度的编码单元可包括最多4个具有更低深度的编码单元。
因此,视频编码设备100可基于考虑当前画面的特征而确定的最大编码单元的尺寸和最大深度,通过针对每个最大编码单元确定具有最优形状和最优尺寸的编码单元来形成具有树结构的编码单元。另外,由于可通过使用各种预测模式和变换中的任意一个对每个最大编码单元执行编码,因此可考虑各种图像尺寸的编码单元的特征来确定最优编码模式。
因此,如果以传统宏块对具有高分辨率或大数据量的图像进行编码,则每个画面的宏块的数量极度增加。因此,针对每个宏块产生的压缩信息的条数增加,因此难以发送压缩的信息,并且数据压缩效率降低。然而,通过使用根据本示例性实施例的视频编码设备100,由于在考虑图像的尺寸的同时增加编码单元的最大尺寸,并同时在考虑图像的特征的同时调整编码单元,因此可提高图像压缩效率。
以上参照图1描述的可伸缩视频编码设备10可包括与层数相应的视频编码设备100,以便对多层视频中的每个层中的单层图像进行编码。例如,基本层编码器11可包括一个视频编码设备100,增强层编码器13可包括与增强层的数量相应的多个视频编码设备100。
当视频编码设备100对基本层图像进行编码时,编码单元确定器120可根据每个最大编码单元针对树结构的编码单元中的每个编码单元确定用于图像间预测的预测单元,并可对每个预测单元执行图像间预测。
当视频编码设备100对增强层图像进行编码时,编码单元确定器120可根据每个最大编码单元确定树结构的编码单元和预测单元,并可对每个预测单元执行帧间预测。
图16是根据示例性实施例的基于树结构的编码单元的视频解码设备200的框图。
根据本示例性实施例的涉及基于树结构的编码单元的视频预测的视频解码设备200包括接收器210、图像数据和编码信息提取器220和图像数据解码器230。为了便于解释,在下文中,根据本示例性实施例的涉及基于树结构的编码单元的视频预测的视频解码设备200被称为“视频解码设备200”。
用于根据本示例性实施例的视频解码设备200的解码操作的各种术语(诸如编码单元、深度、预测单元、变换单元和关于各种编码模式的信息)的定义与参照图15和视频编码设备100描述的定义相同。
接收器210接收和解析编码视频的比特流。图像数据和编码信息提取器220从解析的比特流,针对每个编码单元提取编码的图像数据,并将提取的图像数据输出到图像数据解码器230,其中,编码单元具有根据每个最大编码单元的树结构。图像数据和编码信息提取器220可从关于当前画面的头、序列参数集或画面参数集提取关于当前画面的编码单元的最大尺寸的信息。
另外,图像数据和编码信息提取器220从解析的比特流,根据每个最大编码单元,提取关于具有树结构的编码单元的编码深度和编码模式的信息。提取的关于编码深度和编码模式的信息被输出到图像数据解码器230。也就是说,比特流中的图像数据被划分为最大编码单元,使得图像数据解码器230针对每个最大编码单元对图像数据进行解码。
可针对关于与编码深度相应的至少一个编码单元的信息设置关于根据最大编码单元的编码深度和编码模式的信息,关于编码模式的信息可包括关于与编码深度相应的相应编码单元的分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。另外,根据深度的划分信息可被提取为关于编码深度的信息。
由图像数据和编码信息提取器220提取的关于根据每个最大编码单元的编码深度和编码模式的信息是关于这样的编码深度和编码模式的信息:该编码深度和编码模式被确定为在编码器(诸如,视频编码设备100)根据每个最大编码单元对根据深度的每个较深层编码单元重复地执行编码时产生最小编码误差。因此,视频解码设备200可通过根据产生最小编码误差的编码深度和编码模式对图像数据进行解码来重建图像。
由于关于编码深度和编码模式的编码信息可被分配给相应的编码单元、预测单元和最小单元中的预定数据单元,因此图像数据和编码信息提取器220可根据预定数据单元,提取关于编码深度和编码模式的信息。如果关于相应最大编码单元的编码深度和编码模式的信息根据预定数据单元被记录,则可将被分配相同的关于编码深度和编码模式的信息的预定数据单元推断为是包括在同一最大编码单元中的数据单元。
图像数据解码器230基于关于根据最大编码单元的编码深度和编码模式的信息,通过对每个最大编码单元中的图像数据进行解码,来重建当前画面。换言之,图像数据解码器230可基于提取出的关于包括在每个最大编码单元中的具有树结构的编码单元之中的每个编码单元的分区类型、预测模式和变换单元的信息,对编码的图像数据进行解码。解码处理可包括预测(包含帧内预测和运动补偿)和逆变换。
图像数据解码器230可基于关于根据编码深度的编码单元的预测单元的分区类型和预测模式的信息,根据每个编码单元的分区和预测模式,执行帧内预测或运动补偿。
此外,为了对每个最大编码单元进行逆变换,图像数据解码器230可针对每个编码单元读取关于根据树结构的变换单元的信息,以基于每个编码单元的变换单元来执行逆变换。经过逆变换,可重建编码单元的空间域的像素值。
图像数据解码器230可通过使用根据深度的划分信息来确定当前最大编码单元的编码深度。如果划分信息指示图像数据在当前深度中不再被划分,则当前深度是编码深度。因此,图像数据解码器230可通过使用关于用于与编码深度相应的每个编码单元的预测单元的分区类型、预测模式和变换单元的尺寸的信息,对当前最大编码单元中的编码数据进行解码。
换言之,可通过观察被分配给编码单元、预测单元和最小单元中的预定数据单元的编码信息集来收集包含包括相同划分信息的编码信息的数据单元,并且收集的数据单元可被认为是将由图像数据解码器230以相同编码模式进行解码的一个数据单元。因此,可通过获得关于每个编码单元的编码模式的信息来对当前编码单元进行解码。
以上参照图2描述的可伸缩视频解码设备20可包括与视点数相应的多个视频解码设备200,以便对接收到的基本层图像流和接收到的增强层图像流进行解码并重建基本层图像和增强层图像。
当基本层图像流被接收到时,视频解码设备200的图像数据解码器230可将由提取器220从基本层图像流提取的基本层图像的样点划分为最大编码单元的根据树结构的编码单元。图像数据解码器230可基于用于图像间预测的预测单元对基本层图像的样点的根据树结构的编码单元中的每个编码单元执行运动补偿,并可重建基本层图像。
当增强层图像流被接收到时,视频解码设备200的图像数据解码器230可将由提取器220从增强层图像流提取的增强层图像的样点划分为最大编码单元的根据树结构的编码单元。图像数据解码器230可基于用于图像间预测的预测单元对增强层图像的样点的编码单元中的每个编码单元执行运动补偿,并重建增强层图像。
因此,视频解码设备200可获得与在对每个最大编码单元递归地执行编码时产生最小编码误差的至少一个编码单元有关的信息,并可使用所述信息来对当前画面进行解码。换句话说,可对每个最大编码单元中的被确定为最优编码单元的具有树结构的编码单元进行解码。
因此,即使图像具有高分辨率或具有庞大数据量时,也可通过使用编码单元的尺寸和编码模式来有效地对图像进行解码和重建,其中,所述编码单元的尺寸和编码模式是通过使用从编码器接收的关于最优编码模式的信息,根据图像的特性而被自适应地确定的。
图17是用于描述根据示例性实施例的编码单元的构思的示图。
编码单元的尺寸可被表示为宽度×高度,并且可以是64×64、32×32、16×16和8×8。64×64的编码单元可被划分为64×64、64×32、32×64或32×32的分区,32×32的编码单元可被划分为32×32、32×16、16×32或16×16的分区,16×16的编码单元可被划分为16×16、16×8、8×16或8×8的分区,8×8的编码单元可被划分为8×8、8×4、4×8或4×4的分区。
在视频数据310中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为2。在视频数据320中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为3。在视频数据330中,分辨率为352×288,编码单元的最大尺寸为16,最大深度为1。图17中示出的最大深度表示从最大编码单元到最小解码单元的划分总次数。
如果分辨率高或数据量大,则编码单元的最大尺寸可能较大,从而不仅提高编码效率,而且准确地反映图像的特征。因此,具有比视频数据330更高分辨率的视频数据310和320的编码单元的最大尺寸可以是64。
由于视频数据310的最大深度是2,因此由于通过对最大编码单元划分两次,深度加深至两层,因此视频数据310的编码单元315可包括长轴尺寸为64的最大编码单元和长轴尺寸为32和16的编码单元。另一方面,由于视频数据330的最大深度是1,因此由于通过对最大编码单元划分一次,深度加深至一层,因此视频数据330的编码单元335可包括长轴尺寸为16的最大编码单元和长轴尺寸为8的编码单元。
由于视频数据320的最大深度是3,因此由于通过对最大编码单元划分三次,深度加深至3层,因此视频数据320的编码单元325可包括长轴尺寸为64的最大编码单元和长轴尺寸为32、16和8的编码单元。随着深度加深,针对详细信息的表达能力可被提高。
图18是根据示例性实施例的基于编码单元的图像编码器400的框图。
图像编码器400执行视频编码设备100的编码单元确定器120的操作来对图像数据进行编码。换言之,帧内预测器410对当前帧405中的帧内模式下的编码单元执行帧内预测,运动估计器420和运动补偿器425通过使用当前帧405和参考帧495,对当前帧405中的帧间模式下的编码单元分别执行帧间估计和运动补偿。
从帧内预测器410、运动估计器420和运动补偿器425输出的数据通过变换器430和量化器440被输出为量化后的变换系数。量化后的变换系数通过反量化器460和逆变换器470被重建为空间域中的数据,重建的空间域中的数据在通过去块单元480和偏移补偿单元490进行后处理之后被输出为参考帧495。量化后的变换系数可通过熵编码器450被输出为比特流455。
为了将图像编码器400应用于视频编码设备100,图像编码器400的所有元件(即,帧内预测器410、运动估计器420、运动补偿器425、变换器430、量化器440、熵编码器450、反量化器460、逆变换器470、去块单元480和偏移补偿单元490)在考虑每个最大编码单元的最大深度的同时,基于具有树结构的编码单元中的每个编码单元执行操作。
具体地,帧内预测器410、运动估计器420和运动补偿器425在考虑当前最大编码单元的最大尺寸和最大深度的同时确定具有树结构的编码单元中的每个编码单元的分区和预测模式,变换器430确定具有树结构的编码单元中的每个编码单元中的变换单元的尺寸。
图19是根据示例性实施例的基于编码单元的图像解码器500的框图。
解析器510从比特流505解析将被解码的编码图像数据和解码所需的关于编码的信息。编码图像数据通过熵解码器520和反量化器530被输出为反量化的数据,反量化的数据通过逆变换器540被重建为空间域中的图像数据。
针对空间域中的图像数据,帧内预测器550对帧内模式下的编码单元执行帧内预测,运动补偿器560通过使用参考帧585对帧间模式下的编码单元执行运动补偿。
通过帧内预测器550和运动补偿器560的空间域中的图像数据可在通过去块单元570和偏移补偿单元580进行后处理之后被输出为重建帧595。另外,通过去块单元570和偏移补偿单元580进行后处理的图像数据可被输出为参考帧585。
为了在视频解码设备200的图像数据解码器230中对图像数据进行解码,图像解码器500可执行在解析器510之后执行的操作。
为了将图像解码器500应用于视频解码设备200,图像解码器500的所有元件(即,解析器510、熵解码器520、反量化器530、逆变换器540、帧内预测器550、运动补偿器560、去块单元570和偏移补偿单元580)针对每个最大编码单元基于具有树结构的编码单元执行操作。
具体地,帧内预测器550和运动补偿器560必须针对具有树结构的每个编码单元确定分区和预测模式,逆变换器540必须针对每个编码单元确定变换单元的尺寸。
图18的编码操作和图19的解码操作分别被描述为单层中的视频流编码操作和视频流解码操作。因此,如果图1的可伸缩视频编码设备10对具有至少两层的视频流进行编码,则基本层编码器11可包括用于每个层的图像编码器400。类似地,如果图2的可伸缩视频解码设备20对具有至少两个层的视频流进行解码,则增强层解码器23可包括用于每个层的图像解码器500。
图20是示出根据示例性实施例的根据深度的较深层编码单元以及分区的示图。
视频编码设备100和视频解码设备200使用分层编码单元以考虑图像的特征。可根据图像的特征自适应地确定编码单元的最大高度、最大宽度和最大深度,或可由用户不同地设置编码单元的最大高度、最大宽度和最大深度。可根据编码单元的预定最大尺寸来确定根据深度的较深层编码单元的尺寸。
根据示例性实施例,在编码单元的分层结构600中,编码单元的最大高度和最大宽度均是64,最大深度是3。在此情况下,最大深度是指编码单元从最大编码单元到最小编码单元被划分的总次数。由于深度沿着分层结构600的垂直轴加深,因此较深层编码单元的高度和宽度均被划分。另外,预测单元和分区沿着分层结构600的水平轴被示出,其中,所述预测单元和分区是对每个较深层编码单元进行预测编码的基础。
换言之,在分层结构600中,编码单元610是最大编码单元,其中,深度为0,尺寸(即,高度乘宽度)为64×64。深度沿着垂直轴加深,存在尺寸为32×32和深度为1的编码单元620、尺寸为16×16和深度为2的编码单元630、尺寸为8×8和深度为3的编码单元640。尺寸为8×8和深度为3的编码单元640是最小编码单元。
编码单元的预测单元和分区根据每个深度沿着水平轴被排列。换言之,如果尺寸为64×64和深度为0的编码单元610是预测单元,则可将预测单元划分成包括在编码单元610中的分区,即,尺寸为64×64的分区610、尺寸为64×32的分区612、尺寸为32×64的分区614或尺寸为32×32的分区616。
类似地,可将尺寸为32×32和深度为1的编码单元620的预测单元划分成包括在编码单元620中的分区,即,尺寸为32×32的分区620、尺寸为32×16的分区622、尺寸为16×32的分区624和尺寸为16×16的分区626。
类似地,可将尺寸为16×16和深度为2的编码单元630的预测单元划分成包括在编码单元630中的分区,即,包括在编码度单元630中的尺寸为16×16的分区、尺寸为16×8的分区632、尺寸为8×16的分区634和尺寸为8×8的分区636。
类似地,可将尺寸为8×8和深度为3的编码单元640的预测单元划分成包括在编码单元640中的分区,即,包括在编码单元640中的尺寸为8×8的分区、尺寸为8×4的分区642、尺寸为4×8的分区644和尺寸为4×4的分区646。
为了确定构成最大编码单元610的编码单元的至少一个编码深度,视频编码设备100的编码单元确定器120对包括在最大编码单元610中的与每个深度相应的编码单元执行编码。
随着深度加深,包括具有相同范围和相同尺寸的数据的根据深度的较深层编码单元的数量增加。例如,需要四个与深度2相应的编码单元来覆盖包括在与深度1相应的一个编码单元中的数据。因此,为了根据深度比较对相同数据进行编码的结果,与深度1相应的编码单元和四个与深度2相应的编码单元均被编码。
为了针对多个深度之中的当前深度执行编码,可沿着分层结构600的水平轴,通过对与当前深度相应的编码单元中的每个预测单元执行编码,来针对当前深度,选择作为代表性编码误差的最小编码误差。可选地,随着深度沿着分层结构600的垂直轴加深,可通过针对每个深度执行编码来比较根据深度的代表性编码误差,以搜索最小编码误差。在编码单元610中的具有最小编码误差的深度和分区可被选为编码单元610的编码深度和分区类型。
图21是用于描述根据示例性实施例的编码单元710和变换单元720之间的关系的示图。
视频编码设备100或视频解码设备200针对每个最大编码单元,根据具有小于或等于最大编码单元的尺寸的编码单元,对图像进行编码或解码。可基于不大于相应编码单元的数据单元,来选择用于在编码期间进行变换的变换单元的尺寸。
例如,在视频编码设备100或视频解码设备200中,如果编码单元710的尺寸是64×64,则可通过使用尺寸为32×32的变换单元720来执行变换。
此外,可通过对小于64×64的尺寸为32×32、16×16、8×8和4×4的变换单元中的每一个执行变换,来对尺寸为64×64的编码单元710的数据进行编码,然后可选择针对原始图像具有最小编码误差的变换单元。
图22是示出根据示例性实施例的多条根据深度的编码信息。
视频编码设备100的输出单元130可对与编码深度相应的每个编码单元的分区类型信息800、预测模式信息810以及变换单元尺寸信息820进行编码,并将分区类型信息800、预测模式信息810以及变换单元尺寸信息820作为关于编码模式的信息来发送。
分区类型信息800指示关于通过划分当前编码单元的预测单元而获得的分区的形状的信息,其中,分区是用于对当前编码单元进行预测编码的数据单元。例如,可将尺寸为2N×2N的当前编码单元CU_0划分成以下分区中的任意一个:尺寸为2N×2N的分区802、尺寸为2N×N的分区804、尺寸为N×2N的分区806和尺寸为N×N的分区808。这里,分区类型信息800被设置为指示以下分区之一:尺寸为2N×N的分区804、尺寸为N×2N的分区806和尺寸为N×N的分区808。
预测模式信息810指示每个分区的预测模式。例如,预测模式信息810可指示对由分区类型信息800指示的分区执行的预测编码的模式,即,帧内模式812、帧间模式814或跳过模式816。
变换单元尺寸信息820指示当对当前编码单元执行变换时所基于的变换单元。例如,变换单元可以是第一帧内变换单元822、第二帧内变换单元824、第一帧间变换单元826或第二帧间变换单元828。
视频解码设备200的图像数据和编码信息提取器220可根据每个较深层编码单元,提取并使用用于解码的分区类型信息800、预测模式信息810和变换单元尺寸信息820。
图23是根据示例性实施例的根据深度的较深层编码单元的示图。
划分信息可用来指示深度的改变。划分信息指示当前深度的编码单元是否被划分成更低深度的编码单元。
用于对深度为0和尺寸为2N_0×2N_0的编码单元900进行预测编码的预测单元910可包括以下分区类型的分区:尺寸为2N_0×2N_0的分区类型912、尺寸为2N_0×N_0的分区类型914、尺寸为N_0×2N_0的分区类型916和尺寸为N_0×N_0的分区类型918。图23仅示出了通过对称地划分预测单元910而获得的分区类型912至918,但是分区类型不限于此,并且预测单元910的分区可包括非对称分区、具有预定形状的分区和具有几何形状的分区。
根据每种分区类型,对尺寸为2N_0×2N_0的一个分区、尺寸为2N_0×N_0的两个分区、尺寸为N_0×2N_0的两个分区和尺寸为N_0×N_0的四个分区重复地执行预测编码。可对尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区执行帧内模式和帧间模式下的预测编码。仅对尺寸为2N_0×2N_0的分区执行跳过模式下的预测编码。
如果在尺寸为2N_0×2N_0、2N_0×N_0和N_0×2N_0的分区类型912、914和916中的一个分区类型中编码误差最小,则可不将预测单元910划分到更低深度。
如果在尺寸为N_0×N_0的分区类型918中编码误差最小,则深度从0改变到1以在操作920中对分区类型918进行划分,并对深度为2和尺寸为N_0×N_0的编码单元930重复地执行编码来搜索最小编码误差。
用于对深度为1和尺寸为2N_1×2N_1(=N_0×N_0)的编码单元930进行预测编码的预测单元940可包括以下分区类型的分区:尺寸为2N_1×2N_1的分区类型942、尺寸为2N_1×N_1的分区类型944、尺寸为N_1×2N_1的分区类型946以及尺寸为N_1×N_1的分区类型948。
如果在尺寸为N_1×N_1的分区类型948中编码误差最小,则深度从1改变到2以在操作950中对分区类型948进行划分,并对深度为2和尺寸为N_2×N_2的编码单元960重复执行编码来搜索最小编码误差。
当最大深度是d时,根据每个深度的划分操作可被执行直到深度变成d-1时,并且划分信息可被编码直到深度是0到d-2之一时。换句话说,当编码被执行直到在与d-2的深度相应的编码单元在操作970中被划分之后深度是d-1时,用于对深度为d-1和尺寸为2N_(d-1)×2N_(d-1)的编码单元980进行预测编码的预测单元990可包括以下分区类型的分区:尺寸为2N_(d-1)×2N_(d-1)的分区类型992、尺寸为2N_(d-1)×N_(d-1)的分区类型994、尺寸为N_(d-1)×2N_(d-1)的分区类型996和尺寸为N_(d-1)×N_(d-1)的分区类型998。
可对分区类型992至998中的尺寸为2N_(d-1)×2N_(d-1)的一个分区、尺寸为2N_(d-1)×N_(d-1)的两个分区、尺寸为N_(d-1)×2N_(d-1)的两个分区、尺寸为N_(d-1)×N_(d-1)的四个分区重复地执行预测编码,以搜索具有最小编码误差的分区类型。
即使当尺寸为N_(d-1)×N_(d-1)的分区类型998具有最小编码误差时,由于最大深度是d,因此深度为d-1的编码单元CU_(d-1)也不再被划分到更低深度,用于构成当前最大编码单元900的编码单元的编码深度被确定为d-1,并且当前最大编码单元900的分区类型可被确定为N_(d-1)×N_(d-1)。此外,由于最大深度是d,因此不设置最小编码单元980的划分信息。
数据单元999可以是用于当前最大编码单元的“最小单元”。根据本实施例的最小单元可以是通过将具有最低编码深度的最小编码单元980划分成4份而获得的正方形数据单元。通过重复地执行编码,根据本示例性实施例的视频编码设备100可通过比较根据编码单元900的深度的编码误差来选择具有最小编码误差的深度以确定编码深度,并将相应分区类型和预测模式设置为编码深度的编码模式。
这样,在所有深度0、1、…、d-1和d中对根据深度的最小编码误差进行比较,并且具有最小编码误差的深度可被确定为编码深度。编码深度、预测单元的分区类型和预测模式可作为关于编码模式的信息被编码并发送。另外,由于编码单元从0的深度被划分到编码深度,因此仅将编码深度的划分信息设置为“0”,并且将除了编码深度以外的深度的划分信息设置为“1”。
根据本示例性实施例的视频解码设备200的图像数据和编码信息提取器220可提取并使用关于编码单元900的编码深度和预测单元的信息,来对分区912进行解码。根据本示例性实施例的视频解码设备200可通过使用根据深度的划分信息,将划分信息为“0”的深度确定为编码深度,并且使用关于相应深度的编码模式的信息来进行解码。
图24、图25和26是用于描述根据示例性实施例的在编码单元、预测单元和变换单元之间的关系的示图。
编码单元1010是最大编码单元中的根据由视频编码设备100确定的深度的较深层编码单元。预测单元1060是每个编码单元1010中的预测单元的分区,变换单元1070是每个编码单元1010的变换单元。
当在编码单元1010中最大编码单元的深度是0时,编码单元1012和1054的深度是1,编码单元1014、1016、1018、1028、1050和1052的深度是2,编码单元1020、1022、1024、1026、1030、1032和1048的深度是3,编码单元1040、1042、1044和1046的深度是4。
在预测单元1060中,通过划分编码单元1010中的编码单元来获得一些编码单元1014、1016、1022、1032、1048、1050、1052和1054。换句话说,编码单元1014、1022、1050和1054中的分区类型的尺寸是2N×N,编码单元1016、1048和1052中的分区类型的尺寸是N×2N,编码单元1032的分区类型的尺寸为N×N。编码单元1010的预测单元和分区小于或等于每个编码单元。
在小于编码单元1052的数据单元中的变换单元1070中,对编码单元1052的图像数据执行变换或逆变换。另外,在尺寸和形状方面,变换单元1070中的编码单元1014、1016、1022、1032、1048、1050和1052不同于预测单元1060中的编码单元1014、1016、1022、1032、1048、1050和1052。换句话说,根据示例性实施例的视频编码设备100和视频解码设备200可对同一编码单元中的数据单元独立地执行帧内预测/运动估计/运动补偿/变换和逆变换。
因此,对最大编码单元的每个区域中的具有分层结构的每个编码单元递归地执行编码来确定最优编码单元,从而可获得具有递归树结构的编码单元。编码信息可包括关于编码单元的划分信息、关于分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。下面的表1示出可由根据示例性实施例的视频编码设备100和视频解码设备200设置的编码信息。
[表1]
根据示例性实施例的视频编码设备100的输出单元130可输出关于具有树结构的编码单元的编码信息,根据示例性实施例的视频解码设备200的图像数据和编码信息提取器220可从接收到的比特流提取关于具有树结构的编码单元的编码信息。
划分信息指示是否将当前编码单元划分成更低深度的编码单元。如果当前深度d的划分信息是0,则当前编码单元不再被划分成更低深度的深度是编码深度,从而可针对所述编码深度来定义关于分区类型、预测模式和变换单元的尺寸的信息。如果当前编码单元根据划分信息被进一步划分,则对更低深度的四个划分编码单元独立地执行编码。
预测模式可以是帧内模式、帧间模式和跳过模式中的一种。可在所有分区类型中定义帧内模式和帧间模式,仅在尺寸为2N×2N的分区类型中定义跳过模式。
关于分区类型的信息可指示通过对称地划分预测单元的高度或宽度而获得的尺寸为2N×2N、2N×N、N×2N和N×N的对称分区类型,以及通过非对称地划分预测单元的高度或宽度而获得的尺寸为2N×nU、2N×nD、nL×2N和nR×2N的非对称分区类型。可通过按1:3和3:1来划分预测单元的高度来分别获得尺寸为2N×nU和2N×nD的非对称分区类型,可通过按1:3和3:1来划分预测单元的宽度来分别获得尺寸为nL×2N和nR×2N的非对称分区类型。
可将变换单元的尺寸设置成帧内模式下的两种类型和帧间模式下的两种类型。换句话说,如果变换单元的划分信息是0,则变换单元的尺寸可以是2N×2N,即当前编码单元的尺寸。如果变换单元的划分信息是1,则可通过对当前编码单元进行划分来获得变换单元。另外,如果尺寸为2N×2N的当前编码单元的分区类型是对称分区类型,则变换单元的尺寸可以是N×N,如果当前编码单元的分区类型是非对称分区类型,则变换单元的尺寸可以是N/2×N/2。
根据示例性实施例的关于具有树结构的编码单元的编码信息可被分配给与编码深度相应的编码单元、预测单元和最小单元中的至少一个。与编码深度相应的编码单元可包括包含相同编码信息的预测单元和最小单元中的至少一个。
因此,通过比较邻近数据单元的编码信息来确定邻近数据单元是否被包括在与编码深度相应的同一编码单元中。另外,通过使用数据单元的编码信息来确定与编码深度相应的相应编码单元,并因此可确定最大编码单元中的编码深度的分布。
因此,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则可直接参考并使用与当前编码单元邻近的较深层编码单元中的数据单元的编码信息。
在另一示例性实施例中,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则使用数据单元的编码信息来搜索与当前编码单元邻近的数据单元,并可参考搜索到的邻近编码单元以对当前编码单元进行预测。
图27是用于描述根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
最大编码单元1300包括多个编码深度的编码单元1302、1304、1306、1312、1314、1316和1318。这里,由于编码单元1318是一个编码深度的编码单元,因此划分信息可被设置成0。可将关于尺寸为2N×2N的编码单元1318的分区类型的信息设置成包括以下项的分区类型中的一种:2N×2N1322、2N×N1324、N×2N1326、N×N1328、2N×nU1332、2N×nD1334、nL×2N1336和nR×2N1338。
变换单元划分信息(TU尺寸标记)是一种类型的变换索引。与变换索引相应的变换单元的尺寸可根据编码单元的预测单元类型或分区类型而改变。
例如,当关于分区类型的信息被设置为对称分区类型2N×2N1322、2N×N1324、N×2N1326和N×N1328之一时,如果变换单元划分信息是0,则设置尺寸为2N×2N的变换单元1342,如果变换单元划分信息是1,则设置尺寸为N×N的变换单元1344。
当关于分区类型的信息被设置成非对称分区类型2N×nU1332、2N×nD1334、nL×2N1336和nR×2N1338之一时,如果变换单元划分信息是0,则可设置尺寸为2N×2N的变换单元1352,如果变换单元划分信息是1,则可设置尺寸为N/2×N/2的变换单元1354。
如以上参照图27所描述的,变换单元划分信息(TU尺寸标记)是具有值0或1的标记,但是变换单元划分信息不限于具有1比特的标记,并且变换单元可在变换单元划分信息根据设置按照0、1、2、3等的方式增加时被分层划分。变换单元划分信息可以是变换索引的示例。
在这种情况下,可通过使用根据实施例的变换单元划分信息以及变换单元的最大尺寸和变换单元的最小尺寸来表示实际上已使用的变换单元的尺寸。根据示例性实施例的视频编码设备100能够对最大变换单元尺寸信息、最小变换单元尺寸信息和最大变换单元划分信息进行编码。对最大变换单元尺寸信息、最小变换单元尺寸信息和最大变换单元划分信息进行编码的结果可被插入SPS。根据示例性实施例的视频解码设备200可通过使用最大变换单元尺寸信息、最小变换单元尺寸信息和最大变换单元划分信息来对视频进行解码。
例如,(a)如果当前编码单元的尺寸是64×64并且最大变换单元尺寸是32×32,则(a-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32,(a-2)当TU尺寸标记为1时,变换单元的尺寸可以是16×16,(a-3)当TU尺寸标记为2时,变换单元的尺寸可以是8×8。
作为另一示例,(b)如果当前编码单元的尺寸是32×32并且最小变换单元尺寸是32×32,则(b-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32。这里,由于变换单元的尺寸不能够小于32×32,因此TU尺寸标记不能够被设置为除了0以外的值。
作为另一示例,(c)如果当前编码单元的尺寸是64×64并且最大TU尺寸标记为1,则TU尺寸标记可以是0或1。这里,TU尺寸标记不能够被设置为除了0或1以外的值。
因此,如果定义最大TU尺寸标记为“MaxTransformSizeIndex”,最小变换单元尺寸为“MinTransformSize”,当TU尺寸标记为0时的变换单元尺寸为“RootTuSize”,则可通过等式(1)来定义可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”:
CurrMinTuSize=max(MinTransformSize,RootTuSize/(2^MaxTransformSizeIndex))
…(1)
与可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”相比,当TU尺寸标记为0的变换单元尺寸“RootTuSize”可指示可在系统中选择的最大变换单元尺寸。也就是说,在等式(1)中,“RootTuSize/(2^MaxTransformSizeIndex)”指示当TU尺寸标记为0时,变换单元尺寸“RootTuSize”被划分了与最大TU尺寸标记相应的次数时的变换单元尺寸,“MinTransformSize”指示最小变换尺寸。因此,“RootTuSize/(2^MaxTransformSizeIndex)”和“MinTransformSize”中较小的值可以是可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”。
根据示例性实施例,最大变换单元尺寸RootTuSize可根据预测模式的类型而改变。
例如,如果当前预测模式是帧间模式,则可通过使用以下的等式(2)来确定“RootTuSize”。在等式(2)中,“MaxTransformSize”指示最大变换单元尺寸,“PUSize”指示当前预测单元尺寸。
RootTuSize=min(MaxTransformSize,PUSize)……(2)
也就是说,如果当前预测模式是帧间模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前预测单元尺寸中较小的值。
如果当前分区单元的预测模式是帧内模式,则可通过使用以下的等式(3)来确定“RootTuSize”。在等式(3)中,“PartitionSize”指示当前分区单元的尺寸:
RootTuSize=min(MaxTransformSize,PartitionSize)……(3)
也就是说,如果当前预测模式是帧内模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前分区单元的尺寸之中较小的值。
然而,根据分区单元中的预测模式的类型而改变的当前最大变换单元尺寸“RootTuSize”仅是示例性实施例,并且用于确定最大变换单元尺寸的因素不限于此。
根据以上参照图15至图27描述的基于树结构的编码单元的视频编码方法,可在树结构的编码单元中的每个编码单元中对空间域中的图像数据进行编码,并且可以以根据基于树结构的编码单元的视频解码方法对每个最大编码单元执行解码的方式来重建空间域中的图像数据,使得由画面和画面序列形成的视频可被重建。重建的视频可由再现设备来重建,可存储在存储介质中,或可通过网络来发送。
一个或更多个示例性实施例可被编写为计算机程序,并可实现在使用计算机可读记录介质执行程序的通用数字计算机中。计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD)等。
为了便于描述,参照图1至图27描述的可伸缩视频编码方法和/或视频编码方法将被统称为“视频编码方法”。另外,参照图1至图27描述的可伸缩视频解码方法和/或视频解码方法将被统称为“视频解码方法”。
另外,参照图1至图27描述的包括可伸缩视频编码设备10、视频编码设备100或图像编码器400的视频编码设备将被统称为“视频编码设备”。另外,参照图1至图27描述的包括可伸缩视频解码设备20、视频解码设备200或图像解码器500的视频解码设备将被统称为“视频解码设备”。
现在将详细描述根据示例性实施例的存储程序的计算机可读记录介质(例如,盘26000)。
图28是根据示例性实施例的存储程序的盘26000的物理结构的示图。作为存储介质的盘26000可以是硬盘驱动器、致密盘只读存储器(CD-ROM)盘、蓝光盘或数字多功能盘(DVD)。盘26000包括多个同心磁道Tr,每个同心磁道Tr沿盘26000的圆周方向被划分成特定数量的扇区Se。在盘26000的特定区域中,可分配并存储执行以上所描述的量化参数确定方法、视频编码方法和视频解码方法的程序。
现在将参照图29来描述使用存储用于执行如上所述的视频编码方法和视频解码方法的程序的存储介质来实现的计算机系统。
图29是通过使用盘26000来记录并读取程序的盘驱动器26800的示图。计算机系统27000可经由盘驱动器26800将执行根据示例性实施例的视频编码方法和视频解码方法中的至少一个的程序存储在盘26000中。为了在计算机系统27000中运行存储在盘26000中的程序,可通过使用盘驱动器26800从盘26000读取程序并将程序发送到计算机系统26700。
执行根据示例性实施例的视频编码方法和视频解码方法中的至少一个的程序不仅可被存储在图28和图29中示出的盘26000中,还可被存储在存储卡、ROM卡带或固态驱动器(SSD)中。
以下将描述应用以上所描述的视频编码方法和视频解码方法的系统。
图30是用于提供内容分布服务的内容供应系统11000的整体结构的示图。将通信系统的服务区域划分成预定尺寸的小区,并将无线基站11700、11800、11900和12000分别安装在这些小区中。
内容供应系统11000包括多个独立装置。例如,诸如计算机12100、个人数字助理(PDA)12200、视频相机12300和移动电话12500的多个独立装置经由互联网服务提供商11200、通信网络11400和无线基站11700、11800、11900和12000连接到互联网11100。
然而,内容供应系统11000不限于如图30中所示,并且装置可选择性地被连接到内容供应系统11000。多个独立装置可不经由无线基站11700、11800、11900和12000而直接连接到通信网络11400。
视频相机12300是能够捕捉视频图像的成像装置,例如,数字视频相机。移动电话12500可利用各种协议(例如,个人数字通信(PDC)、码分多址(CDMA)、宽带码分多址(W-CDMA)、全球移动通信系统(GSM)和个人手持电话系统(PHS))中的至少一种通信方法。
视频相机12300可经由无线基站11900和通信网络11400连接到流服务器11300。流服务器11300允许经由视频相机12300从用户接收到的内容经由实时广播被流传输。可使用视频相机12300或流服务器11300来对从视频相机12300接收到的内容进行编码。通过视频相机12300捕捉到的视频数据可经由计算机12100被发送到流服务器11300。
通过相机12600捕捉到的视频数据也可经由计算机12100被发送到流服务器11300。与数码相机类似,相机12600是能够捕捉静止图像和视频图像两者的成像装置。可使用相机12600或计算机12100对通过相机12600捕捉到的视频数据进行编码。可将对视频执行编码和解码的软件存储在可由计算机12100访问的计算机可读记录介质(例如,CD-ROM盘、软盘、硬盘驱动器、SSD或存储卡)中。
如果视频数据通过内置在移动电话12500中的相机被捕捉到,则可从移动电话12500接收视频数据。
还可通过安装在视频相机12300、移动电话12500或相机12600中的大规模集成电路(LSI)系统来对视频数据进行编码。
内容供应系统11000可对由用户使用视频相机12300、相机12600、移动电话12500或另一成像装置所记录的内容数据(例如,在音乐会期间记录的内容)进行编码,并将编码后的内容数据发送到流服务器11300。流服务器11300可将编码后的内容数据以流传输内容的类型发送到请求内容数据的其它客户端。
客户端是能够对编码后的内容数据进行解码的装置,例如,计算机12100、PDA12200、视频相机12300或移动电话12500。因此,内容供应系统11000允许客户端接收并再现编码后的内容数据。此外,内容供应系统11000允许客户端实时接收编码后的内容数据并对编码后的内容数据进行解码和再现,从而能够进行个人广播。
包括在内容供应系统11000中的多个独立装置的编码和解码操作可类似于根据示例性实施例的视频编码设备和视频解码设备的编码和解码操作。
现在将参照图31和图32更加详细地描述包括在根据示例性实施例的内容供应系统11000中的移动电话12500。
图31示出根据示例性实施例的应用视频编码方法和视频解码方法的移动电话12500的外部结构。移动电话12500可以是智能电话,所述智能电话的功能不受限,并且所述智能电话的大多数功能可被改变或扩展。
移动电话12500包括可与无线基站12000交换射频(RF)信号的内部天线12510,并包括用于显示由相机12530捕捉到的图像或经由天线12510接收到的并被解码的图像的显示屏12520(例如,液晶显示器(LCD)或有机发光二极管(OLED)屏幕)。移动电话12500包括包含有控制按钮和触摸面板的操作面板12540。如果显示屏12520是触摸屏,则操作面板12540还包括显示屏12520的触摸感测面板。移动电话12500包括用于输出语音和声音的扬声器12580或另一类型声音输出单元、以及用于输入语音和声音的麦克风12550或另一类型声音输入单元。移动电话12500还包括用于捕捉视频和静止图像的相机12530,诸如电荷耦合器件(CCD)相机。移动电话12500还可包括:存储介质12570,用于存储通过相机12530捕捉到的、经由电子邮件接收到的、或根据各种方式获得的编码/解码数据(例如,视频或静止图像);插槽12560,存储介质12570经由插槽12560被装入移动电话12500中。存储介质12570可以是闪存,例如,包括在塑料壳中的安全数字(SD)卡或电可擦和可编程只读存储器(EEPROM)。
图32示出移动电话12500的内部结构。为了系统地控制包括显示屏12520和操作面板12540的移动电话12500的部件,供电电路12700、操作输入控制器12640、图像编码器12720、相机接口12630、LCD控制器12620、图像解码器12690、复用器/解复用器12680、记录/读取单元12670、调制/解调单元12660和声音处理器12650经由同步总线12730被连接到中央控制器12710。
如果用户操作电源按钮,并从“电源关闭”状态设置为“电源开启”状态,则供电电路12700从电池组向移动电话12500的所有部件供电,从而将移动电话12500设置为操作模式。
中央控制器12710包括中央处理器(CPU)、ROM和RAM。
在移动电话12500将通信数据发送到外部的同时,在中央控制器12710的控制下,由移动电话12500产生数字信号。例如,声音处理器12650可产生数字声音信号,图像编码器12720可产生数字图像信号,并且消息的文本数据可经由操作面板12540和操作输入控制器12640被产生。当数字信号通过中央控制器12710的控制被传送到调制/解调单元12660时,调制/解调单元12660对数字信号的频带进行调制,并且通信电路12610对频带调制后的数字声音信号执行数模转换(DAC)和频率转换。从通信电路12610输出的发送信号可经由天线12510被发送到语音通信基站或无线基站12000。
例如,当移动电话12500处于通话模式时,通过中央控制器12710的控制,经由麦克风12550获得的声音信号通过声音处理器12650被变换成数字声音信号。数字声音信号可经由调制/解调单元12660和通信电路12610被变换成发送信号,并可经由天线12510被发送。
当文本消息(例如,电子邮件)在数据通信模式下被发送时,文本消息的文本数据经由操作面板12540被输入,并经由操作输入控制器12640被发送到中央控制器12610。通过中央控制器12610的控制,文本数据经由调制/解调单元12660和通信电路12610被变换成发送信号,并经由天线12510被发送到无线基站12000。
为了在数据通信模式下发送图像数据,由相机12530捕捉到的图像数据经由相机接口12630被提供给图像编码器12720。捕捉到的图像数据可经由相机接口12630和LCD控制器12620被直接显示在显示屏12520上。
图像编码器12720的结构可与以上描述的视频编码设备100的结构相应。图像编码器12720可根据以上描述的视频编码方法,将从相机12530接收到的图像数据变换为压缩和编码后的图像数据,并随后将编码后的图像数据输出到复用器/解复用器12680。在相机12530的记录操作期间,由移动电话12500的麦克风12550获得的声音信号可经由声音处理器12650被变换成数字声音数据,并且数字声音数据可被发送到复用器/解复用器12680。
复用器/解复用器12680对从图像编码器12720接收到的编码后的图像数据与从声音处理器12650接收到的声音数据一起进行复用。对数据进行复用的结果可经由调制/解调单元12660和通信电路12610被变换成发送信号,然后可经由天线12510被发送。
当移动电话12500从外部接收通信数据时,可对经由天线12510接收到的信号执行频率恢复和ADC以将信号变换成数字信号。调制/解调单元12660对数字信号的频带进行调制。根据频带调制后的数字信号的类型,将所述数字信号发送到视频解码器12690、声音处理器12650或LCD控制器12620。
在通话模式期间,移动电话12500对经由天线12510接收到的信号进行放大,并通过对放大后的信号执行频率转换和ADC来获得数字声音信号。通过中央控制器12710的控制,接收到的数字声音信号经由调制/解调单元12660和声音处理器12650被变换成模拟声音信号,并且模拟声音信号经由扬声器12580被输出。
当在数据通信模式期间时,接收在互联网网站上访问的视频文件的数据,经由调制/解调单元12660将经由天线12510从无线基站12000接收到的信号输出为复用数据,并将复用数据发送到复用器/解复用器12680。
为了对经由天线12510接收到的复用数据进行解码,复用器/解复用器12680将复用数据解复用成编码后的视频数据流和编码后的音频数据流。经由同步总线12730,编码后的视频数据流和编码后的音频数据流分别被提供给视频解码器12690和声音处理器12650。
图像解码器12690的结构可与以上描述的视频解码设备的结构相应。图像解码器12690可通过使用根据示例性实施例的上述视频解码方法,对编码后的视频数据进行解码来获得重建的视频数据,并经由LCD控制器12620将重建的视频数据提供给显示屏12520。
因此,可将在互联网网站上访问的视频文件的数据显示在显示屏12520上。同时,声音处理器12650可将音频数据变换成模拟声音信号,并将模拟声音信号提供给扬声器12580。因此,也可经由扬声器12580再现在互联网网站上访问的视频文件中包含的音频数据。
移动电话12500或另一类型的通信终端可以是包括根据示例性实施例的视频编码设备和视频解码设备两者的收发终端,可以是仅包括视频编码设备的收发终端,或者可以是仅包括视频解码设备的收发终端。
根据示例性实施例的通信系统不限于以上参照图30描述的通信系统。例如,图33示出根据示例性实施例的采用通信系统的数字广播系统。图33的数字广播系统可通过使用根据示例性实施例的视频编码设备和视频解码设备来接收经由卫星或地面网络发送的数字广播。
具体地,广播站12890通过使用无线电波将视频数据流发送到通信卫星或广播卫星12900。广播卫星12900发送广播信号,广播信号经由家用天线12860被发送到卫星广播接收器。在每个房屋中,可通过TV接收器12810、机顶盒12870或其它装置对编码后的视频流进行解码并再现。
当根据示例性实施例的视频解码设备被实现在再现设备12830中时,再现设备12830可对记录在存储介质12820(诸如盘或存储卡)上的编码后的视频流进行解析和解码,以重建数字信号。因此,可在例如监视器12840上再现重建的视频信号。
在被连接到用于卫星/地面广播的天线12860或用于接收有线电视(TV)广播的线缆天线12850的机顶盒12870中,可安装根据示例性实施例的视频解码设备。从机顶盒12870输出的数据也可被再现在TV监视器12880上。
如另一示例,可将根据示例性实施例的视频解码设备安装在TV接收器12810中,而不是机顶盒12870中。
具有适当天线12910的汽车12920可接收从卫星12900或无线基站11700发送的信号。可在安装在汽车12920中的汽车导航系统12930的显示屏上再现解码后的视频。
视频信号可由根据示例性实施例的视频编码设备来编码,然后可被存储在存储介质中。具体地,可由DVD记录器将图像信号存储在DVD盘12960中,或可由硬盘记录器12950将图像信号存储在硬盘中。作为另一示例,可将视频信号存储在SD卡12970中。如果硬盘记录器12950包括根据示例性实施例的视频解码设备,则记录在DVD盘12960、SD卡12970或另一存储介质上的视频信号可在TV监视器12880上被再现。
汽车导航系统12930可不包括图32的相机12530、相机接口12630和图像编码器12720。例如,计算机12100和TV接收器12810可不包括在图32的相机12530、相机接口12630和图像编码器12720。
图34是示出根据示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
云计算系统可包括云计算服务器14000、用户数据库(DB)14100、多个计算资源14200和用户终端。
响应于来自用户终端的请求,云计算系统经由数据通信网络(例如,互联网)提供多个计算资源14200的点播外包服务。在云计算环境下,服务提供商通过使用虚拟技术组合位于不同的物理位置的数据中心处的计算资源,来为用户提供想要的服务。服务用户不必将计算资源(例如,应用、存储器、操作系统(OS)和安全软件)安装在他/她自己的终端中以使用它们,但可在想要的时间点在通过虚拟技术产生的虚拟空间中从服务中选择和使用想要的服务。
被指定的服务用户的用户终端经由包括互联网和移动电信网络的数据通信网络被连接到云计算服务器14000。可从云计算服务器14100向用户终端提供云计算服务,特别是视频再现服务。用户终端可以是能够被连接到互联网的各种类型的电子装置,例如,桌上型PC14300、智能TV14400、智能电话14500、笔记本计算机14600、便携式多媒体播放器(PMP)14700、平板PC14800等。
云计算服务器14000可组合分布在云网络中的多个计算资源14200,并向用户终端提供组合的结果。所述多个计算资源14200可包括各种数据服务,并可包括从用户终端上载的数据。如上所描述的,云计算服务器14000可通过根据虚拟技术组合分布在不同区域中的视频数据库来向用户终端提供想要的服务。
将关于已经订购云计算服务的用户的用户信息存储在用户DB14100中。用户信息可包括用户的注册信息、地址、姓名和个人信用信息。用户信息还可包括视频的索引。这里,所述索引可包括已经被再现的视频的列表、正在被再现的视频的列表、之前正在被再现的视频的暂停点等。
可在用户装置之间共享存储在用户DB14100中的关于视频的信息。例如,当响应于来自笔记本计算机14600的请求将视频服务提供给笔记本计算机14600时,视频服务的再现历史被存储在用户DB14100中。当从智能电话14500接收到用于再现此视频服务的请求时,云计算服务器14100基于用户DB14100搜索并再现此视频服务。当智能电话14500从云计算服务器14000接收到视频数据流时,通过对视频数据流进行解码来再现视频的处理与以上参照图31和32描述的移动电话12500的操作类似。
云计算服务器14100可参考存储在用户DB14100中的想要的视频服务的再现历史。例如,云计算服务器14000从用户终端接收用于再现存储在用户DB14100中的视频的请求。如果此视频被再现过,则由云计算服务器14000执行的对此视频进行流传输的方法可根据来自用户终端的请求(即,根据是将从视频的起点还是视频的暂停点开始再现视频)而不同。例如,如果用户终端请求从视频的起点开始再现视频,则云计算服务器14000将从视频的第一帧开始的视频的流数据发送到用户终端。如果用户终端请求从视频的暂停点开始再现视频,则云计算服务器14000将从与暂停点相应的帧开始的视频的流数据发送到用户终端。
在此情况下,用户终端可包括如以上参照图1至图27描述的视频解码设备。在另一示例中,用户终端可包括如以上参照图1至图27描述的视频编码设备。可选地,用户终端可包括如以上参照图1至图27描述的视频解码设备和视频编码设备两者。
以上参照图28至图34描述了以上参照图1至图27描述的根据示例性实施例的视频编码方法、视频解码方法、视频编码设备和视频解码设备的各种应用。然而,将以上参照图1至图27描述的视频编码方法和视频解码方法存储在存储介质中的方法或者将以上参照图1至图27描述的视频编码设备和视频解码设备实现在装置中的方法不限于以上参照图28至图34描述的示例性实施例。
虽然已经参照本公开的示例性实施例具体示出并描述了本公开,但是本领域的普通技术人员将理解,在不脱离权利要求的精神和范围的情况下,可作出形式和细节上的各种改变。示例性实施例应被视为仅是说明性意义,而不是限制的目的。因此,本公开的范围不由本公开的详细描述来限定,而由权利要求来限定,并且在该范围内的所有差异都将被认为包括在本公开中。

Claims (15)

1.一种可伸缩视频编码方法,包括:
从基本层图像中确定参考层图像,以便对增强层图像执行层间预测;
通过对确定的参考层图像执行层间(IL)插值滤波来产生上采样的参考层图像;
当上采样的参考层图像经由IL插值滤波被确定时,确定针对增强层图像不执行增强层图像之间的帧间预测,并对上采样的参考层图像与增强层图像之间的残差分量进行编码。
2.如权利要求1所述的可伸缩视频编码方法,其中,确定参考层图像的步骤包括:
对基本层图像执行四次运动补偿(MC)插值滤波,其中,被执行四次的MC插值滤波包括沿L0预测方向和L1预测方向中的每个预测方向的水平方向插值滤波和垂直方向插值滤波,
其中,产生上采样的参考层图像的步骤包括:
对确定的参考层图像执行两次IL插值滤波,其中,被执行两次的IL插值滤波包括沿水平方向的IL插值滤波和沿垂直方向的IL插值滤波,
其中,用于对增强层图像的层间预测的插值滤波被限制为所述被执行四次的MC插值滤波和所述被执行两次的IL插值滤波。
3.如权利要求2所述的可伸缩视频编码方法,还包括:
在增强层图像中,基于块的尺寸和形状以及预测方向确定是否执行帧间预测,
限制用于对增强层图像的层间预测的插值滤波的计算量,使得所述计算量不大于用于对基本层图像的帧间预测的MC插值滤波的第一计算量和用于对增强层图像的帧间预测的MC插值滤波的第二计算量的总和。
4.如权利要求1所述的可伸缩视频编码方法,其中,对上采样的参考层图像与增强层图像之间的残差分量进行编码的步骤包括:对指示被用于增强层图像的参考图像是上采样的参考层图像的参考索引进行编码,并将运动矢量编码为指示0,其中,运动矢量用于增强层图像之间的帧间预测。
5.如权利要求3所述的可伸缩视频编码方法,其中,对具有8×8的尺寸或更大尺寸的块进行的插值滤波被限制为:i)被执行两次的8抽头MC插值滤波的组合或ii)被执行一次的8抽头MC插值滤波和被执行一次的8抽头IL插值滤波的组合,
其中,对具有4×8的尺寸或更大尺寸的块进行的插值滤波被限制为:iii)被执行一次的8抽头IL插值滤波、iv)被执行两次的6抽头IL插值滤波的组合、v)被执行两次的4抽头IL插值滤波的组合、或vi)被执行三次的2抽头IL插值滤波的组合,
其中,对具有8×16的尺寸或更大尺寸的块进行的插值滤波被限制为:vii)被执行两次的8抽头MC层插值滤波和被执行一次的4抽头IL插值滤波的组合、viii)被执行四次的2抽头MC插值滤波和被执行四次的2抽头IL插值滤波的组合、ix)被执行两次的8抽头MC插值滤波和被执行两次的2抽头IL插值滤波的组合、或x)被执行两次的8抽头MC插值滤波和被执行一次的8抽头插值滤波的组合。
6.一种可伸缩视频解码方法,包括:
获得关于对增强层图像的帧间预测的残差分量以及指示参考层图像的参考索引;
基于参考索引,确定不对增强层图像执行帧间预测,并从基本层图像中确定参考层图像;
通过对确定的参考层图像执行层间(IL)插值滤波来产生上采样的参考层图像;
通过使用关于层间预测的残差分量以及上采样的参考层图像来重建增强层图像。
7.如权利要求6所述的可伸缩视频解码方法,其中,确定参考层图像的步骤包括:
对基本层图像执行四次运动补偿(MC)插值滤波,其中,被执行四次的MC插值滤波包括沿L0预测方向和L1预测方向中的每个预测方向的水平方向插值滤波和垂直方向插值滤波,
其中,产生上采样的参考层图像的步骤包括:
对确定的参考层图像执行两次IL插值滤波,其中,被执行两次的IL插值滤波包括沿水平方向的IL插值滤波和沿垂直方向的IL插值滤波,
其中,用于对增强层图像的层间预测的插值滤波被限制为所述被执行四次的MC插值滤波和所述被执行两次的IL插值滤波。
8.如权利要求7所述的可伸缩视频解码方法,其中,用于对增强层图像的层间预测的插值滤波的计算量不大于用于对基本层图像的帧间预测的MC插值滤波的第一计算量和用于对增强层图像的帧间预测的MC插值滤波的第二计算量的总和。
9.如权利要求6所述的可伸缩视频解码方法,其中,当增强层图像的参考索引指示上采样的参考层图像时,确定参考层图像的步骤包括:将运动矢量确定为0,其中,运动矢量用于增强层图像之间的帧间预测。
10.如权利要求6所述的可伸缩视频解码方法,还包括:
在增强层图像中,基于块的尺寸和形状以及预测方向中的至少一个来确定是否执行帧间预测;
基于用于对增强层图像的帧间预测的MC插值滤波的MC插值滤波器的抽头数、用于IL插值滤波的IL插值滤波器的抽头数、以及增强层图像的预测单元的尺寸中的至少一个,限制MC插值滤波被执行的次数以及IL插值滤波被执行的次数。
11.如权利要求10所述的可伸缩视频解码方法,其中,对具有8×8的尺寸或更大尺寸的块进行的插值滤波被限制为:i)被执行两次的8抽头MC插值滤波的组合或ii)被执行一次的8抽头MC插值滤波和被执行一次的8抽头IL插值滤波的组合,
其中,对具有4×8的尺寸或更大尺寸的块进行的插值滤波被限制为:iii)被执行一次的8抽头IL插值滤波、iv)被执行两次的6抽头IL插值滤波的组合、v)被执行两次的4抽头IL插值滤波的组合、或vi)被执行三次的2抽头IL插值滤波的组合,
其中,对具有8×16的尺寸或更大尺寸的块进行的插值滤波被限制为:vii)被执行两次的8抽头MC插值滤波和被执行一次的4抽头IL插值滤波的组合、viii)被执行四次的2抽头MC插值滤波和被执行四次的2抽头IL插值滤波的组合、ix)被执行两次的8抽头MC插值滤波和被执行两次的2抽头IL插值滤波的组合、或x)被执行两次的8抽头MC插值滤波和被执行一次的8抽头IL插值滤波的组合。
12.一种可伸缩视频编码设备,包括:
基本层编码器,被配置为对基本层图像执行帧间预测;
增强层编码器,被配置为:
当通过对确定的参考层图像执行层间(IL)插值滤波,确定了上采样的参考层图像时,确定针对增强层图像不执行增强层图像之间的帧间预测,
对上采样的参考层图像与增强层图像之间的残差分量进行编码。
13.一种可伸缩视频解码设备,包括:
基本层解码器,被配置为通过执行运动补偿来重建基本层图像;
增强层解码器,被配置为:
获得关于对增强层图像的帧间预测的残差分量以及指示参考层图像的参考索引,
基于参考索引确定不对增强层图像执行帧间预测,
通过对从基本层图像中确定的参考层图像执行层间(IL)插值滤波来产生上采样的参考层图像,
通过使用关于层间预测的残差分量以及上采样的参考层图像来重建增强层图像。
14.一种记录有用于执行如权利要求1所述的可伸缩视频编码方法的计算机程序的计算机可读记录介质。
15.一种记录有用于执行如权利要求6所述的可伸缩视频解码方法的计算机程序的计算机可读记录介质。
CN201480023681.1A 2013-02-25 2014-02-25 用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法 Pending CN105165011A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361768838P 2013-02-25 2013-02-25
US61/768,838 2013-02-25
PCT/KR2014/001516 WO2014129872A1 (ko) 2013-02-25 2014-02-25 메모리 대역폭 및 연산량을 고려한 스케일러블 비디오 부호화 장치 및 방법, 스케일러블 비디오 복호화 장치 및 방법

Publications (1)

Publication Number Publication Date
CN105165011A true CN105165011A (zh) 2015-12-16

Family

ID=51391576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480023681.1A Pending CN105165011A (zh) 2013-02-25 2014-02-25 用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法

Country Status (4)

Country Link
US (1) US20160007032A1 (zh)
EP (1) EP2961167A4 (zh)
CN (1) CN105165011A (zh)
WO (1) WO2014129872A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635733A (zh) * 2015-12-29 2016-06-01 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于运动信息的最优可伸缩多模式决策方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
KR20140121315A (ko) * 2013-04-04 2014-10-15 한국전자통신연구원 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치
KR102186461B1 (ko) * 2013-04-05 2020-12-03 삼성전자주식회사 정수 픽셀의 위치와 관련하여 비디오의 부호화 및 복호화를 수행하는 방법과 그 장치
FR3008840A1 (fr) * 2013-07-17 2015-01-23 Thomson Licensing Procede et dispositif de decodage d'un train scalable representatif d'une sequence d'images et procede et dispositif de codage correspondants
CN106464863B (zh) * 2014-04-01 2019-07-12 联发科技股份有限公司 视频编码中自适应内插滤波的方法
CN115442596A (zh) * 2017-10-20 2022-12-06 韩国电子通信研究院 图像编码、解码方法以及存储比特流的记录介质
US10841610B2 (en) * 2017-10-23 2020-11-17 Avago Technologies International Sales Pte. Limited Block size dependent interpolation filter selection and mapping
US10764588B2 (en) * 2018-08-10 2020-09-01 Apple Inc. Deep quality enhancement of adaptive downscaled coding for image compression

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1980107A4 (en) * 2006-11-17 2010-01-13 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING / ENCODING A VIDEO SIGNAL
CN102075755A (zh) * 2005-03-18 2011-05-25 夏普株式会社 用于图像上采样的方法和系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2106666B1 (en) * 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
KR101369746B1 (ko) * 2007-01-22 2014-03-07 삼성전자주식회사 적응적 보간 필터를 이용한 영상 부호화, 복호화 방법 및장치
US8432968B2 (en) * 2007-10-15 2013-04-30 Qualcomm Incorporated Scalable video coding techniques for scalable bitdepths
JP5659160B2 (ja) * 2010-03-09 2015-01-28 パナソニックIpマネジメント株式会社 動画像復号装置、動画像符号化装置、動画像復号回路及び動画像復号方法
US20120230407A1 (en) * 2011-03-11 2012-09-13 General Instrument Corporation Interpolation Filter Selection Using Prediction Index
CN108337521B (zh) * 2011-06-15 2022-07-19 韩国电子通信研究院 存储由可伸缩编码方法生成的比特流的计算机记录介质
US20130163660A1 (en) * 2011-07-01 2013-06-27 Vidyo Inc. Loop Filter Techniques for Cross-Layer prediction
CN104813667B (zh) * 2012-11-15 2018-03-16 联发科技股份有限公司 用于可伸缩视频编码的帧间层预测方法及装置
US9693060B2 (en) * 2012-11-16 2017-06-27 Qualcomm Incorporated Device and method for scalable coding of video information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102075755A (zh) * 2005-03-18 2011-05-25 夏普株式会社 用于图像上采样的方法和系统
EP1980107A4 (en) * 2006-11-17 2010-01-13 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING / ENCODING A VIDEO SIGNAL

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
EDOUARD FRANÇOIS等: "BoG report: Methodoly for evaluating complexity of combined and residual prediction methods in SHVC", 《103.MPEG MEETING;14-1-2013 - 23-1-2013; GENEVA;(JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16)》 *
ELENA ALSHINA等: "TEA2: Cross-check of refIdx performance (tests 3.2.1)", 《103.MPEG MEETING;21-1-2013 - 25-1-2013; GENEVA;(MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11)》 *
JIANLE CHEN (CHAIR): "Description of Tool Experiment B4: Inter-layer filtering", 《102.MPEG MEETING;10-10-2012 - 19-10-2012; SHANGHAI;(JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16)》 *
JIANLE CHEN: "Description of scalable video coding technology proposal by Qualcomm (configuration 2)", 《102.MPEG MEETING;10-10-2012 - 19-10-2012; SHANGHAI;(JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16)》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635733A (zh) * 2015-12-29 2016-06-01 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于运动信息的最优可伸缩多模式决策方法

Also Published As

Publication number Publication date
EP2961167A4 (en) 2016-08-10
EP2961167A1 (en) 2015-12-30
WO2014129872A1 (ko) 2014-08-28
US20160007032A1 (en) 2016-01-07

Similar Documents

Publication Publication Date Title
CN105532001B (zh) 用于使用基于深度的视差矢量对视频进行层间编码方法以及解码方法和设备
CN105144713B (zh) 用于解码器设置的对视频进行编码的方法及其装置以及基于解码器设置对视频进行解码的方法及其装置
CN104620578B (zh) 用于随机访问的多层视频编码的方法和设备以及用于随机访问的多层视频解码的方法和设备
CN105103552B (zh) 用于补偿亮度差的对层间视频进行编码的方法及其装置以及用于对视频进行解码的方法及其装置
CN105308966A (zh) 视频编码方法及其设备以及视频解码方法及其设备
CN104813665A (zh) 用于对层间预测误差进行编码的sao补偿的方法和设备
CN105165011A (zh) 用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法
CN105191313A (zh) 使用考虑相移的上采样的可伸缩视频编码方法和设备以及可伸缩视频解码方法和设备
CN105532004B (zh) 层间视频解码方法及设备
CN105264894A (zh) 针对层间解码和编码方法以及设备的确定帧间预测候选的方法
CN104396252A (zh) 使用用于多视点视频预测的参考画面集的多视点视频编码方法及其装置、使用用于多视点视频预测的参考画面集的多视点视频解码方法及其装置
CN104365101A (zh) 用于确定用于帧间预测的参考图像的方法及设备
CN105340271A (zh) 用于随机访问的多层视频编码方法及其装置以及用于随机访问的多层视频解码方法及其装置
CN104488272A (zh) 用于预测用于对视频进行编码或用于对视频进行解码的运动矢量的方法和设备
CN104365104A (zh) 用于基于树结构编码单元进行多视点视频编码的方法和设备以及用于基于树结构编码单元进行多视点视频解码的方法和设备
CN104869413A (zh) 视频解码设备
CN107409214A (zh) 用于对层间视频进行解码的方法和设备以及用于对层间视频进行编码的方法和设备
CN106464890A (zh) 可伸缩视频编码/解码方法和设备
CN105556972A (zh) 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法
CN106031175B (zh) 使用亮度补偿的层间视频编码方法及其装置、以及视频解码方法及其装置
CN104541510A (zh) 参考画面列表能够被改变的帧间预测方法及其设备
CN105325002A (zh) 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备
CN104396251A (zh) 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置
CN105594212A (zh) 用于确定运动矢量的方法及其设备
CN103875249A (zh) 用于多视点视频预测编码的方法和装置以及用于多视点视频预测解码的方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20151216