CN105308966B - 视频编码方法及其设备以及视频解码方法及其设备 - Google Patents

视频编码方法及其设备以及视频解码方法及其设备 Download PDF

Info

Publication number
CN105308966B
CN105308966B CN201480032541.0A CN201480032541A CN105308966B CN 105308966 B CN105308966 B CN 105308966B CN 201480032541 A CN201480032541 A CN 201480032541A CN 105308966 B CN105308966 B CN 105308966B
Authority
CN
China
Prior art keywords
unit
coding
image
layer
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201480032541.0A
Other languages
English (en)
Other versions
CN105308966A (zh
Inventor
李振荣
朴慜祐
魏浩千
尹载元
曹容振
崔秉斗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105308966A publication Critical patent/CN105308966A/zh
Application granted granted Critical
Publication of CN105308966B publication Critical patent/CN105308966B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Abstract

公开了一种层间视频解码方法,包括以下步骤:基于从比特流获得的第一层图像的编码信息对第一层图像进行重建;基于从比特流获得的第二层图像的划分信息将第二层图像的最大编码单元划分为一个或更多个编码单元;将编码单元划分为用于预测解码的一个或更多个预测单元;基于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来通过使用所述预定编码工具对当前预测单元进行解码。

Description

视频编码方法及其设备以及视频解码方法及其设备
技术领域
本发明涉及根据特定条件使用特定编码工具的层间视频编码和解码方法。本发明还涉及一种通过快速确定图像的划分结构来对图像进行编码的视频编码方法。
背景技术
随着用于再现和存储高分辨率或高质量视频内容的硬件正被开发和提供,对于用于有效地对高分辨率或高质量视频内容进行编码或解码的视频编解码器的需求正在增加。根据传统的视频编解码器,基于具有树结构的编码单元,根据受限的编码方法来对视频进行编码。
空间域的图像数据经由频率变换被变换为频域的系数。根据视频编解码器,将图像划分为具有预定尺寸的块,对每个各块执行离散余弦变换(DCT),并在块单元中对频率系数进行编码,以进行频率变换的快速计算。与空间域的图像数据相比,频域的系数容易被压缩。具体地,由于根据经由视频编解码器的帧间预测或帧内预测的预测误差来表示空间域的图像像素值,因此当对预测误差执行频率变换时,大量数据可被变换为0。根据视频编解码器,可通过使用小量数据来代替连续并重复产生的数据,从而减少数据量。
发明内容
技术问题
本发明涉及根据特定条件使用特定编码工具以减少算术运算的负荷并快速确定图像的划分结构。
技术方案
提供了根据特定条件使用特定编码工具的层间视频编码和设备以及层间视频解码方法和设备。还提供了用于根据特定条件对视频进行快速编码的视频编码方法和设备。
将在下面的描述中部分阐述另外的方面,并且部分从描述中将是明显的,或者可通过本实施例的实施而被理解。
根据本发明的实施例的一方面,一种层间视频解码方法包括:基于从比特流获得的第一层的编码信息对第一层进行重建;基于从比特流获得的第二层图像的划分信息将第二层图像的最大编码单元划分为一个或更多个编码单元;将编码单元划分为用于预测编码的一个或更多个预测单元;基于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来使用所述预定编码工具对当前预测单元进行解码。
对当前预测单元进行解码的步骤包括:当预测单元的尺寸与编码单元的尺寸相同时,使用所述预定编码工具来对当前预测单元进行解码。
所述预定编码工具包括以下项中的至少一项:MPI(运动参数继承)、IVMP(视点间运动参数预测)、DDD(视差推导深度)、VSP(视点合成预测)、IC(亮度补偿)、SDC(分段式DC编码)、DMM(深度建模模式)、DBBP(基于深度的块分区)和ARP(先进残差预测)。
将编码单元划分为用于预测编码的一个或更多个预测单元的步骤包括:基于从比特流获得的编码单元的预测模式信息或分区模式信息中的至少一个来将编码单元划分为一个或更多个预测单元,并确定编码单元的结构。
根据本发明的实施例的一方面,一种层间视频编码方法包括:产生包括通过对第一层图像进行编码而产生的编码信息的比特流;将第二层图像的最大编码单元划分为一个或更多个编码单元;将编码单元划分为用于预测编码的一个或更多个预测单元;基于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来对当前预测单元进行编码。
对当前预测单元进行编码的步骤包括:当预测单元的尺寸与编码单元的尺寸相同时,使用所述预定编码工具来对当前预测单元进行编码。
将编码单元划分为用于预测编码的一个或更多个预测单元的步骤包括:基于编码单元的预测模式或分区模式中的至少一个来将编码单元划分为一个或更多个预测单元,并确定编码单元的结构。
根据本发明的实施例的一方面,一种视频编码方法包括:通过根据多个预测模式或分区模式将当前块划分为用于预测编码的一个或更多个预测块来确定率失真代价;基于确定的率失真代价来确定当前块的预测模式或分区模式;在不根据确定的预测模式或分区模式对当前块进行划分的情况下,根据确定的预测模式或分区模式对当前块进行编码。
图像是第二层图像,视频编码方法还包括:产生包括通过对第一层图像进行编码而产生的编码信息的比特流,其中,对当前块进行编码的步骤包括:如果针对第一层图像之中的与当前块相应的块确定的预测模式或分区模式与确定的预测模式或分区模式相应,则在不对当前块进行划分的情况下,根据确定的预测模式或分区模式对当前块进行编码。
根据本发明的实施例的一方面,一种层间视频解码设备包括:第一层图像解码器,基于从比特流获得的第一层的编码信息对第一层进行重建;第二层图像解码器,基于从比特流获得的第二层图像的划分信息将第二层图像的最大编码单元划分为一个或更多个编码单元,将编码单元划分为用于预测编码的一个或更多个预测单元,基于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来使用所述预定编码工具对当前预测单元进行解码。
根据本发明的实施例的一方面,一种层间视频编码设备包括:第一层编码器,用于产生包括通过对第一层图像进行编码而产生的编码信息的比特流;第二层图像编码器,用于基于(从比特流获得的)第二层图像的划分信息将第二层图像的最大编码单元划分为一个或更多个编码单元,将编码单元划分为用于预测编码的一个或更多个预测单元,基于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来使用所述预定编码工具对当前预测单元进行编码。
根据本发明的实施例的一方面,一种层间视频编码设备包括:编码器,通过根据多个预测模式或分区模式将当前块划分为用于预测编码的一个或更多个预测块来确定率失真代价;模式确定器,用于基于确定的率失真代价来确定当前块的预测模式或分区模式,其中,在不根据确定的预测模式或分区模式对当前块进行划分的情况下,当前块根据确定的预测模式或分区模式被编码。
图像是第二层图像,视频编码设备还包括:第一层编码器,用于产生包括通过对第一层图像进行编码而产生的编码信息的比特流,其中,如果针对第一层图像之中的与当前块相应的块确定的预测模式或分区模式与确定的预测模式或分区模式相应,则第一层编码器在不对当前块进行划分的情况下,根据确定的预测模式或分区模式对当前块进行编码。
根据本发明的实施例的另一方面,提供了一种记录有计算机程序的非暂时性计算机可读记录介质,其中,所述计算机程序用于执行所述层间视频解码方法。
有益效果
层间视频编码设备和层间视频解码设备可在预定条件被满足时在不使用对算术运算增加负荷的工具(诸如3D编码工具)的情况下对当前块执行编码和解码,从而减少涉及算术运算的负荷。编码设备可基于与各种数量的情况相关联的率失真代价不对编码单元进行划分以确定编码单元的尺寸,可确定针对当前编码单元的最佳预测模式和分区模式,可在确定的预测模式和分区模式下相对快速地执行算术运算的条件下不对编码单元进行划分,在与基于各种数量的情况对编码单元进行划分的情况相比时,可在率失真代价没有明显差别的情况下在快速时间内确定当前编码单元的尺寸并对编码单元进行划分。
附图说明
从以下结合附图进行的对实施例的描述,这些和/或其它方面将变得明显并更易于理解,其中:
图1a是根据实施例的层间视频编码设备的框图。
图1b是根据实施例的层间视频编码方法的流程图。
图1c是根据实施例的视频编码设备的框图。
图1d是根据实施例的视频编码方法的流程图。
图2a是根据实施例的层间视频解码设备的框图。
图2b是根据实施例的层间视频解码方法的流程图。
图3a是根据实施例的层间预测结构的示图。
图3b是通过多视点相机获得的多视点视频帧和通过深度相机获得的深度图帧的示例示图。
图4a是用于描述根据实施例的在层间视频解码设备的解码处理中使用的编码工具的示图。
图4b是用于描述根据实施例的基于预测单元的尺寸、预测模式和颜色深度信息使用编码工具的层间视频解码设备的示图。
图5a是用于描述根据另一实施例的编码处理的示图。
图5b是用于描述根据另一实施例的编码处理的示图。
图6示出根据实施例的用于基于预测单元的尺寸或预测模式确定是否使用预定编码工具对预测单元进行解码的伪码。
图7是根据实施例的基于根据树结构的编码单元的视频编码设备的框图。
图8是根据实施例的基于根据树结构的编码单元的视频解码设备的框图。
图9是用于描述根据实施例的编码单元的概念的示图。
图10是根据实施例的基于编码单元的图像编码器的框图。
图11是根据实施例的基于编码单元的图像解码器的框图。
图12是示出根据实施例的根据深度的较深层编码单元以及分区的示图。
图13是用于描述根据实施例的编码单元与变换单元之间的关系的示图。
图14是用于描述根据实施例的与最终深度相应的编码单元的编码信息的示图。
图15是根据实施例的根据深度的较深层编码单元的示图。
图16至图18是用于描述根据实施例的编码单元、预测单元和变换单元之间的关系的示图。
图19是用于描述根据表1的编码模式信息的编码单元、预测单元、和变换单元之间的关系的示图。
图20是根据实施例的存储程序的盘的物理结构的示图。
图21是通过使用盘来记录和读取程序的盘驱动器的示图。
图22是提供内容分发服务的内容供应系统的整体结构的示图。
图23和图24分别是根据实施例的应用了视频编码方法和视频解码方法的移动电话的外部结构和内部结构的示图。
图25是根据实施例的采用通信系统的数字广播系统的示图。
图26是示出根据实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
具体实施方式
以下,将参照图1a至图6描述根据各种实施例的层间视频编码方法和层间视频解码方法。将参照图7至图19描述可应用到层间视频编码方法和层间视频解码方法的根据各种实施例的基于具有树结构的编码单元的视频编码方法和视频解码方法。另外,将参照图20至图26描述视频编码方法和视频解码方法适用的各种实施例。
以下,“图像”可以指静止图像或视频的运动图像,或者视频本身。
以下,作为被分配到图像的采样位置的数据的“样点”可表示作为处理目标的数据。例如,空间区的图像中的像素可以是样点。
现在将参照图1a至图6描述根据各种实施例的层间视频编码设备和方法以及层间视频解码设备和方法。
图1a是根据实施例的层间视频编码设备10的框图。图1b是根据实施例的层间视频编码方法的流程图。
根据各种实施例的层间视频编码设备10可包括第一层编码器12和第二层编码器16。根据各种实施例的层间视频编码设备10可根据可伸缩视频编码针对每个层对多个图像序列进行分类和编码,并可输出包括针对每个层编码的数据的单独的流。层间视频编码设备10可按照不同的层分别对第一层图像序列和第二层图像序列进行编码。
第一层编码器12可对第一层图像进行编码,并可输出包括第一层图像的编码数据的第一层流。
第二层编码器16可对第二层图像进行编码,并可输出包括第二层图像的编码数据的第二层流。
例如,根据基于空间可伸缩性的可伸缩视频编码,低分辨率图像可被编码为第一层图像,高分辨率图像可被编码为第二层图像。第一层图像的编码结果可在第一层流中被输出。第二层图像的编码结果可在第二层流中被输出。
作为另一示例,可根据可伸缩视频编码对多视点视频进行编码。当两个视点的图像被编码时,左视点图像可被编码为第一层图像。右视点图像可被编码为第二层图像。可选地,当三个视点的图像被编码时,中间视点图像、左视点图像和右视点图像可被编码,其中,中间视点图像可被编码为第一层图像,左视点图像可被编码为第二层图像,右视点图像可被编码为第三层图像。然而,本发明不必要受限于此。用于对中间视点图像、左视点图像和右视点图像进行编码的层和将被参考的层可被改变。
作为另一示例,可根据基于时间可伸缩性的时间分层预测来执行可伸缩视频编码。可输出包括通过对基本帧率的图像进行编码而产生的编码信息的第一层流。时间级可针对每个帧率被分类,并可在层中被分别编码。可通过进一步参照基本帧率的图像对高帧率的图像进行编码来输出包括高速帧率的编码信息的第二层流。
可对第一层和多个第二层执行可伸缩视频编码。在存在三个或更多个第二层的情况下,可对第一层图像、第一第二层图像、第二第二层图像、…、第K第二层图像进行编码。因此,第一层图像的编码结果可在第一层流中被输出,第一第二层图像、第二第二层图像、…、第K第二层图像的编码结果可分别在第一第二层流、第二第二层流、…、第K第二层流中被输出。
可对第一层和多个第二层执行多视点视频编码。在存在第K视点的图像的情况下,可根据视点对第一层图像、第二层图像、第三层图像、…、第K层图像进行编码。因此,第一层图像的编码结果可在第一层流中被输出,第K层图像的编码结果可在第K层流中被输出。
作为另一示例,可根据可伸缩视频编码对多视点视频进行编码。在这种情况下,第一层可与基本层相应,参考第一层图像执行层间预测的第二层可被定义为增强层。在这点上,增强层是指可使用邻近视点的图像(多个图像)执行预测的层(多个层)。
根据各种实施例的层间视频编码设备10可通过参考单个层的图像来执行对当前图像进行预测的帧间预测。通过帧间预测可产生指示当前图像和参考图像之间的运动信息的运动矢量以及当前图像和参考图像之间的残差。
层间视频编码设备10可通过参考第一层图像来执行对第二层图像进行预测的层间预测。
当根据实施例的层间视频编码设备10允许三层或更多层(诸如第一层、第二层、第三层等)时,层间视频编码设备10可根据多层预测结构执行第一层图像和第三层图像之间的层间预测以及第二层图像和第三层图像之间的层间预测。
通过层间预测可产生当前图像和不同层的参考图像之间的位置差分量以及当前图像和不同层的参考图像之间的残差。
稍后将参照图3a详细描述层间预测结构。
根据各种实施例的层间视频编码设备10根据每个层针对各个块对每个视频图像进行编码。块可具有正方形形状、矩形形状或任意几何形状,并且不限于具有预定尺寸的数据单元。块可以是根据树结构的编码单元之中的最大编码单元、编码单元、预测单元、变换单元等。包括具有树结构的编码单元的最大编码单元被不同地称为编码块单元、块树、根块树、编码树、编码根或树干。现在将参照图8至图20描述基于具有树结构的编码单元的视频编码和解码方法。
可基于编码单元、预测单元或变换单元的数据单元执行帧间预测和层间预测。
根据各种示例性实施例的第一层编码器12可对第一层图像执行包括帧间预测或帧内预测的源编码操作以产生符号数据。符号数据表示每个编码参数的样值和残差的样值。
例如,第一层编码器12可按照第一层图像的数据单元对样点执行帧间预测或帧内预测、变换和量化,产生符号数据,对符号数据执行熵编码,并产生第一层流。
第二层编码器16可基于具有树结构的编码单元对第二层图像进行编码。第二层编码器16可按照第二层图像的数据单元对样点执行帧间/帧内预测、变换和量化,产生符号数据,对符号数据执行熵编码,并产生第二层流。
根据各种实施例的第二层编码器16可通过使用第一层图像的重建样点执行对第二层图像进行预测的层间预测。为了通过层间预测结构对第二层图像序列之中的第二层原始图像进行编码,第二层编码器16可通过使用第一层重建图像产生第二层预测图像以对第二层原始图像和第二层预测图像之间的预测误差进行编码。
第二层编码器16可针对每个块(诸如编码单元或预测单元)对第二层图像执行层间预测。第一层图像之中的将由第二层图像的块参考的块可被确定。例如,可确定第一层图像之中的位置与第二层图像中的当前块的位置相应的重建块。第二层编码器16可通过使用与第二层块相应的第一层重建块来确定第二层预测块。
第二层编码器16可将根据层间预测结构通过使用第一层重建块确定的第二层预测块用作对第二层原始块进行层间预测的参考图像。第二层编码器16可使用第一层重建图像,对第二层预测块的样值和第二层原始块的样值之间的误差(即,根据层间预测的残差)执行熵编码。
如上所述,第二层编码器16可通过层间预测结构参考第一层重建图像来对当前层图像序列进行编码。然而,根据各种实施例的第二层编码器16可在不参考不同层样点的情况下,根据单层预测结构对第二层图像序列进行编码。因此,不限于第二层编码器16仅执行层间预测以对第二层图像序列进行编码的解释。
现在将在下面描述根据本发明的实施例的基于特定条件使用特定编码工具的层间视频编码设备10。
第一层编码器12产生包括通过对第一层图像进行编码而产生的编码信息的比特流。
第二层编码器16将第二层图像的最大编码单元划分为一个或更多个编码单元,并将编码单元划分为用于预测编码的一个或更多个预测单元。第二层编码器16根据多个预测模式或分区模式对划分出的预测单元进行编码,并基于率失真代价确定最佳预测模式或分区模式。第二层编码器16通过应用确定的编码单元的预测模式或分区模式来将编码单元划分为一个或更多个预测单元以确定编码单元的结构。
第二层编码器16基于预测单元的预测模式、尺寸和颜色深度中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来对当前预测单元进行编码。
当确定的预测单元的尺寸与编码单元的尺寸相同时,第二层编码器16可使用预定编码工具对当前预测单元进行编码。由第二层编码器16使用的预定编码工具可以是用于使用第一层图像对预测单元进行编码的工具。所述预定编码工具可包括以下项中的至少一项:MPI(运动参数继承)、IVMP(视点间运动参数预测)、DDD(视差推导深度)、VSP(视点合成预测)、IC(亮度补偿)、SDC(分段式DC编码)、DMM(深度建模模式)、DBBP(基于深度的块分区)和ARP(先进残差预测)。下面将参照图4a来详细描述编码工具。
以下将参照图1b来详细描述层间视频编码设备10的操作。
图1b是根据实施例的层间视频编码方法的流程图。
在操作11,第一层编码器12可产生包括通过对第一层图像进行编码而产生的编码信息的比特流。
在操作13,第二层编码器16基于第二层图像的划分信息将第二层图像的最大编码单元划分为一个或更多个编码单元。
在操作15,第二层编码器16将编码单元划分为用于预测编码的一个或更多个预测单元。
在操作17,第二层编码器16基于预测单元的预测模式、尺寸和颜色深度中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来使用所述预定编码工具对当前预测单元进行编码。
根据各种实施例的层间视频编码设备10可包括中央处理器(未示出),其中,该中央处理器总体上控制第一层编码器12和第二层编码器16。可选地,第一层编码器12和第二层编码器16可由它们各自的处理器(未示出)操作,并且层间视频编码设备10总体上可根据这些处理器(未示出)的交互而操作。可选地,第一层编码器12和第二层编码器16可根据层间视频编码设备10的外部处理器(未示出)的控制而被控制。
层间视频编码设备10可包括一个或更多个数据存储单元(未示出),其中,第一层编码器12和第二层编码器16的输入数据和输入数据被存储在所述一个或更多个数据存储单元中。层间视频编码设备10可包括控制数据存储单元(未示出)的数据输入和输出的存储器控制单元(未示出)。
层间视频编码设备10可与内部视频编码处理器或外部视频编码处理器关联地操作以输出视频编码结果,从而执行包括变换的视频编码操作。层间视频编码设备10的内部视频编码处理器可由中央处理器或图形处理器以及单独的处理器来实现。
图1c是根据实施例的视频编码设备的框图。
根据另一实施例的快速确定图像的划分结构的视频编码设备2000包括编码器2100和模式确定器2200。
编码器2100通过应用各种预测模式或分区模式来对编码单元进行编码,并计算率失真代价。例如,编码器2100可根据各种分区模式对编码单元进行划分,根据合并模式(merge mode)、帧间预测模式或帧内预测模式对划分出的预测单元中的每个预测单元执行编码,并计算率失真代价。模式确定器2200可基于计算出的率失真代价确定一个预测模式或分区模式。编码器2100根据确定的预测模式不再划分当前编码单元,而是根据确定的预测模式或分区模式对当前块进行编码。
同时,根据另一实施例的视频编码设备2000还可包括第一层图像解码器(未示出),其中,第一层图像解码器基于第一层图像的编码信息来重建第一层图像。在这点上,编码器2100可另外执行第二层编码器16的操作。
编码器2100获得与第一层图像之中的与当前块相应的块关联地确定的预测模式或分区模式。如果确定获得的第一层图像之中的与当前块相应的块的预测模式或分区模式与在当前块中确定的预测模式或分区模式相应,则编码器2100不再划分当前块,而是根据确定的预测模式或尺寸对当前块进行编码。
图1d是根据实施例的视频编码方法的流程图。
在操作2300,视频编码设备2000通过应用多个预测模式或分区模式对当前块执行编码。在这点上,视频编码设备2000通过应用多个预测模式或分区模式执行编码并确定率失真代价。在这点上,视频编码设备2000按照各种方式将当前块划分为用于预测编码的一个或更多个预测块。
在操作2500,视频编码设备2000基于确定的率失真代价确定具有最佳率失真代价的当前块的预测模式或分区模式。
在操作2700,视频编码设备2000根据确定的预测模式或分区模式不再划分当前编码块,并根据确定的预测模式或分区模式对当前块进行编码。
图2a是根据实施例的层间视频解码设备20的框图。
根据实施例的层间视频解码设备20可包括第一层解码器22和第二层解码器26。
根据实施例的层间视频解码设备20可根据可伸缩编码针对每个层接收比特流。由层间视频解码设备20接收的比特流的层数不受限。然而,为了便于描述,将详细描述层间视频解码设备20的第一层解码器22接收第一层流并对第一层流进行解码,第二层解码器26接收第二层流并对第二层流进行解码的实施例。
例如,基于空间可伸缩性的层间视频解码设备20可接收不同分辨率的图像序列分别在不同层中被编码的流。可通过对第一层流进行解码来重建低分辨率图像序列,可通过对第二层流进行解码来重建高分辨率图像序列。
作为另一示例,可根据可伸缩视频编码来对多视点视频进行解码。当以多个层接收到立体视频流时,第一层流可被解码以重建左视点图像。第二层流可被进一步解码为第一层流以重建右视点图像。
可选地,当以多个层接收到多视点视频流时,第一层流可被解码以重建中间视点图像。第二层流可被进一步解码为第一层流以重建左视点图像。第三层流可被进一步解码为第一层流以重建右视点图像。
作为另一示例,可执行基于时间可伸缩性的可伸缩视频编码。第一层流可被解码以重建基本帧率图像。第二层流可被进一步解码为第一层流以重建高速帧率图像。
在存在三个或更多个第二层的情况下,可从第一层流重建第一层图像。如果通过参考第一层重建图像来进一步对第二层流进行解码,则第二层图像可被进一步重建。如果通过参考第二层重建图像来进一步对第K层流进行解码,则第K层图像可被进一步重建。
层间视频解码设备20可从第一层流和第二层流获得第一层图像和第二层图像的编码数据,并可进一步获得通过帧间预测产生的运动矢量和通过层间预测产生的预测信息。
例如,层间视频解码设备20可对针对每个层的帧间预测的数据进行解码,并可对多个层之间的层间预测的数据进行解码。可基于编码单元或预测单元通过运动补偿和层间解码来执行重建。
对于每层流,通过参考通过相同层的帧间预测而预测的重建图像来执行对当前图像的运动补偿。运动补偿是指将通过使用当前图像的运动矢量确定的参考图像和当前图像的残差进行合成并且对当前图像的重建图像进行重构的操作。
层间视频解码设备20可参考第一层图像的预测信息来执行层间解码以对通过层间预测而被预测的第二层图像进行重建。层间解码是指通过将被确定为对当前图像进行预测的不同层的参考图像与当前图像的残差进行合成并对当前图像的重建图像进行重构的操作。
根据实施例的层间视频解码设备20可执行用于对参考第二层图像而预测的第三层图像进行重建的层间解码。稍后将参照图3a来详细描述层间预测结构。
然而,根据各种实施例的第二层解码器26在不参考第一层图像序列的情况下对第二层流进行解码。因此,不限于第二层解码器26仅执行层间预测以对第二层图像序列进行解码的解释。
层间视频解码设备20针对每个块对视频的每个图像进行解码。根据示例性实施例的块可包括根据树结构的编码单元之中的最大编码单元、编码单元、预测单元、变换单元等。
第一层解码器22可通过使用解析出的第一层图像的编码符号来对第一层图像进行解码。如果层间视频解码设备20基于具有树结构的编码单元来接收编码的流,则第一层解码器22可针对第一层流的每个最大编码单元,基于具有树结构的编码单元来执行解码。
第一层解码器22可针对每个最大编码单元执行熵编码,并可获得编码信息和编码的数据。第一层解码器22可对从流获得的编码的数据执行反量化和逆变换以重建残差。根据另一实施例的第一层解码器22可直接接收量化后的变换系数的比特流。作为对量化后的变换系数执行反量化和逆变换的结果,图像的残差可被重建。
第一层解码器22可通过相同层图像之间的运动补偿将预测图像和残差进行组合来重建第一层图像。
第二层解码器26可根据层间预测结构通过使用第一层重建图像的样点来产生第二层预测图像。第二层解码器26可根据层间预测对第二层流进行解码以获得预测误差。第二层解码器26可将第二层预测图像和预测误差进行组合,从而产生第二层重建图像。
第二层解码器26可使用由第一层解码器22解码的第一层重建图像来确定第二层预测图像。第二层解码器26可根据层间预测结构确定第一层图像之中的由第二层图像中的诸如编码单元或预测单元的块将参考的块。例如,可确定第一层图像之中的位置与当前块的位置相应的重建块。第二层解码器26可使用与第二层块相应的第一层重建块来确定第二层预测块。
第二层解码器26可将根据层间预测结构使用第一层重建块确定的第二层预测块用作用于对第二层原始块进行层间预测的参考图像。在这种情况下,第二层解码器26可通过将使用第一层重建图像确定的第二层预测块的样值与根据层间预测的残差进行合成来重建第二层块。
根据空间可伸缩视频编码,当第一层解码器22对分辨率与第二层图像的分辨率不同的第一层图像进行重建时,第二层解码器26可对第一层重建图像进行插值以将第一层重建图像的尺寸调整为具有与第二层原始图像的分辨率相同的分辨率。插值后的第一层重建图像可被确定为用于层间预测的第二层预测图像。
因此,层间视频解码设备20的第一层解码器22可通过对第一层流进行解码来重建第一层图像序列,第二层解码器26可通过对第二层流进行解码来重建第二层图像序列。
现在将在下面描述根据本发明的实施例的基于特定条件使用特定编码工具的层间视频解码设备20。
第一层解码器22基于从比特流获得的第一层的编码信息来重建第一层图像。
第二层解码器26基于从比特流获得的第二层图像的划分信息将第二层图像的最大编码单元划分为一个或更多个编码单元。第二层解码器26将编码单元划分为用于预测解码的预测单元。
第二层解码器26基于从比特流获得的编码单元的预测模式信息和分区模式信息中的至少一个来将编码单元划分为一个或更多个预测单元。
第二层解码器26基于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定是否使用预定编码工具,并根据是否使用所述预定编码工具来使用所述预定编码工具对当前预测单元进行解码。
当预测单元的尺寸与编码单元的尺寸相同时,第二层解码器16可使用所述预定编码工具对当前预测单元进行解码。在这点上,所述预定编码工具可以是用于使用第一层图像对预测单元进行编码的工具。预定编码工具可包括以下项中的至少一项:MPI(运动参数继承)、IVMP(视点间运动参数预测)、DDD(视差推导深度)、VSP(视点合成预测)、IC(亮度补偿)、SDC(分段式DC编码)、DMM(深度建模模式)、DBBP(基于深度的块分区)和ARP(先进残差预测)。
现在将参照图2b来详细描述层间视频解码设备20的操作。
图2b是根据实施例的层间视频解码方法的流程图。
在操作21,第一层解码器22基于第一层图像的编码信息和解码信息来重建第一层图像。
在操作23,第二层解码器26基于第二层图像的划分信息将第二层图像的最大编码单元划分为一个或更多个编码和解码单元。
在操作25,第二层解码器26将编码单元划分为用于预测解码的一个或更多个预测单元。
在操作27,第二层解码器26基于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定是否使用预定编码和解码工具,并根据是否使用所述预定编码和解码工具来使用所述预定编码和解码工具对当前预测单元进行解码。
根据各种实施例的层间视频解码设备20可包括中央处理器(未示出),其中,该中央处理器总体上控制第一层解码器22和第二层解码器26。可选地,第一层解码器22和第二层解码器26可由它们各自的处理器(未示出)操作,并且层间视频解码设备20总体上可根据这些处理器(未示出)的交互而操作。可选地,第一层解码器22和第二层解码器26可根据层间视频解码设备20的外部处理器(未示出)的控制而被控制。
根据各种实施例的层间视频解码设备20可包括一个或更多个数据存储单元(未示出),其中,第一层解码器22和第二层解码器26的输入数据和输入数据被存储在所述一个或更多个数据存储单元中。层间视频解码设备20可包括控制数据存储单元(未示出)的数据输入和输出的存储器控制单元(未示出)。
根据各种实施例的层间视频解码设备20可与内部视频解码处理器或外部视频解码处理器关联地操作以输出视频解码结果,从而执行包括逆变换的视频解码操作。层间视频解码设备20的内部视频解码处理器可由中央处理器或图形处理器以及单独的处理器来实现。
图3a是根据实施例的层间预测结构的示图。
根据实施例的层间视频编码设备10可根据图3a中示出的多视点视频预测结构的再现顺序30来对基本视点图像、左视点图像和右视点图像进行预测编码。
根据现有技术的多视点视频预测结构的再现顺序30,相同视点的图像可被布置在水平方向上。因此,左视点图像“左”可被布置在水平方向的一条线上,基本视点图像“中间”可被布置在水平方向的一条线上,右视点图像“右”可被布置在水平方向的一条线上。基本视点图像可以是相对于左视点图像和右视点图像的中间视点图像。
具有相同POC顺序的图像可被布置在垂直方向上。图像的POC是构成视频的图像的再现顺序。多视点视频预测结构的再现顺序30中的“POC X”是指位于相应列中的图像的相对再现顺序。X数最小,再现顺序越早,X数最大,再现顺序越晚。
因此,根据现有技术的多视点视频预测结构的再现顺序30,左视点图像“左”可根据POC(再现顺序)被布置在水平方向上,基本视点图像“中间”可根据POC(再现顺序)被布置在水平方向上,右视点图像“右”可根据POC(再现顺序)被布置在水平方向上。位于与基本视点图像的列相同的列中的左视点图像和右视点图像具有不同的视点但具有相同的POC(再现顺序)。
视点图像的四个连续图像构成单个GOP。每个GOP包括连续锚画面(anchorpicture)之间的图像和单个关键画面(key picture)。
锚画面是随机访问点。在这点上,当从根据视频的再现顺序(即,根据POC)布置的图像中选择预定再现位置时,POC最接近再现位置的锚画面被再现。基本视点图像包括基本视点锚画面31、32、33、34和35,左视点图像包括左视点锚画面131、132、133、134和135,右视点图像包括右视点锚画面231、232、233、234和235。
可根据GOP顺序再现并预测(恢复)多视点图像。根据多视点视频预测结构的再现顺序30,包括在GOP 0中的图像根据视点被再现,随后包括在GOP1中的图像可被再现。也就是说,可按照GOP 0、GOP 1、GOP 2和GOP 3的顺序来再现包括在每个GOP中的图像。根据多视点视频预测结构的编码顺序,包括在GOP 0中的图像根据视点被预测(恢复),并随后包括在GOP 1中的图像可被预测(恢复)。也就是说,可按照GOP 0、GOP 1、GOP 2和GOP 3的顺序来再现包括在每个GOP中的图像。
根据多视点视频预测结构的再现顺序30,可对图像执行视点间预测(层间预测)和帧间预测两者。在多视点视频预测结构中,箭头开始的图像是参考图像,箭头指向的图像是通过使用参考图像被预测的图像。
基本视点图像的预测结果可被编码,并随后以基本视点图像流的形式被输出,并且附加视点图像的预测结果可被编码,并随后以层比特流的形式被输出。另外,左视点图像的预测结果可在第一层比特流中被输出,右视点图像的预测结果可在第二层比特流中被输出。
对基本视点图像仅执行帧间预测。也就是说,作为I画面类型画面的锚画面31、32、33、34和35不参考不同图像,而作为B画面类型图像和b画面类型图像的其余图像参考不同基本视点图像而被预测。B画面类型图像参考具有在前POC顺序的I画面类型锚画面和具有在后POC顺序的I画面类型锚画面而被预测。b画面类型图像参考具有在前POC顺序的I画面类型锚画面和具有在后POC顺序的B画面类型图像或者参考具有在前POC顺序的B画面类型图像和具有在后POC顺序的I画面类型锚画面而被预测。
对左视点图像和右视点图像分别执行参考不同视点图像的视点间预测(层间预测)和参考相同视点图像的帧间预测。
可参考具有相同POC顺序的基本视点锚画面31、32、33、34和35分别对左视点锚画面131、132、133、134和135执行视点间预测(层间预测)。可参考具有相同POC顺序的基本视点锚画面31、32、33、34和35或左视点锚画面131、132、133、134和135分别对右视点锚画面231、232、233、234和235执行视点间预测。可对左视点图像和右视点图像之中的除了锚画面131、132、133、134、135、231、232、233、234和235之外的其余合并图像(merge image)执行参考具有相同POC顺序的不同视点图像的视点间预测(层间预测)。
左视点图像和右视点图像之中的除了锚画面131、132、133、134、135、231、232、233、234和235之外的其余合并图像可参考相同视点图像而被预测。
然而,左视点图像和右视点图像可不参考相同视点的附加视点图像之中的具有在前再现顺序的锚画面而被预测。也就是说,为了对当前左视点图像进行帧间预测,可参考除了再现顺序在当前左视点图像的再现顺序之前的左视点锚画面之外的左视点图像。同样,为了对当前右视点图像进行帧间预测,可参考除了再现顺序在当前右视点图像的再现顺序之前的右视点锚画面之外的右视点图像。
为了对当前左视点图像进行帧间预测,可通过不参考属于在当前左视点所属的当前GOP之前的GOP的左视点图像,而是参考属于当前GOP并将在当前左视点图像之前被重建的左视点图像,来执行预测。右视点图像与上述一样。
根据实施例的层间视频解码设备20可根据图3a中示出的多视点视频预测结构的再现顺序30来对基本视点图像、左视点图像和右视点图像进行预测编码。
可通过参考基本视点图像的视点间视差补偿和参考左视点图像的视点间运动补偿来重建左视点图像。可通过参考基本视点图像和左视点图像的视点间视差补偿和参考右视点图像的视点间运动补偿来重建右视点图像。参考图像需要被首先重建以用于对左视点图像和右视点图像的视差补偿和运动补偿。
为了对左视点图像进行视点间运动补偿,可通过参考重建的左视点参考图像的视点间运动补偿来重建左视点图像。为了对右视点图像进行视点间运动补偿,可通过参考重建的右视点参考图像的视点间运动补偿来重建右视点图像。
为了对当前左视点图像进行视点间运动补偿,可通过不参考属于在当前左视点所属的当前GOP之前的GOP的左视点图像,而是参考属于当前GOP并且将在当前左视点图像之前被重建的左视点图像,来执行预测。右视点图像与上述一样。
图3b是通过多视点相机获得的多视点视频帧和通过深度相机获得的深度图帧的示例示图。
参照图3b,示出与第一视点(视点0)的彩色视频帧36相应的第一视点(视点0)的深度图帧38、与第二视点(视点1)的彩色视频帧36相应的第二视点(视点1)的深度图帧38、以及与第三视点(视点2)的彩色视频帧36相应的第三视点(视点2)的深度图帧38。虽然图3b中示出了三个视点视点0、视点1和视点2中的多视点彩色视频帧36和与多视点彩色视频帧36相应的深度图帧38,但是视点的数量可被改变。在图3b中,多视点彩色视频帧36可以是亮度分量视频帧Y或色度分量视频帧Cb和Cr之一。
参照图3b,由于在相同视点的彩色视频帧和深度图帧之间分别以颜色和深度来表示相同时间和视点的图像,因此在相同视点的彩色视频帧和深度图帧之间存在相关性。也就是说,当将多视点彩色视频帧36和与多视点彩色视频帧36相应的深度图帧38进行比较时,存在相关性,例如,标识对象的轮廓。因此,根据本发明的实施例的层间视频编码设备10和层间视频解码设备20考虑多视点彩色视频帧36和与多视点彩色视频帧36相应的深度图帧38之间的相关性,从多视点彩色视频帧36对与多视点彩色视频帧36相应的深度图帧38进行预测编码,从而提高多视点视频数据的压缩效率。具体地,根据本发明的实施例的层间视频编码设备10和层间视频解码设备20基于像素值将多视点彩色视频帧36的块划分为多个分区,以与多视点彩色视频帧36相同的方式将与多视点彩色视频帧36相应的深度图帧38的块划分为多个分区,使用多视点彩色视频帧36的块分区的邻近像素值和与多视点彩色视频帧36相应的深度图帧38的块分区的邻近像素值来获得指示多视点彩色视频帧36的块分区和与多视点彩色视频帧36相应的深度图帧38的块分区之间的相关性的参数,并利用使用获得的参数确定的相关性从多视点彩色视频帧36的块分区预测与多视点彩色视频帧36相应的深度图帧38的块分区。
图4a是用于描述根据实施例的在层间视频解码设备20的解码处理中使用的编码工具的示图。
在本实施例中,层间视频解码设备20可被物理性划分为例如单视点解码器41、深度图解码器42、多视点解码器43和多视点深度图解码器44。然而,本领域的普通技术人员将容易理解,一个层间视频解码设备20被功能性划分。
参照图4a,使用单视点解码器41对视点0的彩色图像的编码信息进行解码。在单视点解码器41的情况下,工具被用于在不使用深度图图像或不同视点的图像的情况下对彩色图像进行解码。
同时,视点0的深度图像的编码信息被输入到深度图解码器42中。与单视点解码器41不同,深度图解码器42可在解码时使用视点0的彩色图像。深度图像可被重建为与相应于深度图像的彩色图像的像素关联地存储相机与对象之间的距离信息的附加信息,并随后与彩色图像合成以产生虚拟视点图像。这样的虚拟视点图像可被用于表现3D效果。因此,在针对3D效果而编码的彩色图像和深度图像中,用于使用深度图像对彩色图像进行编码的工具、用于使用彩色图像对深度图像进行编码的工具、用于在不使用深度图像的情况下对彩色图像进行编码的工具或者用于在不使用彩色图像的情况下对深度图像进行编码的工具是3D编码工具。特别是,用于仅对深度图像进行解码的工具以及用于在不参考彩色图像的情况下对深度图像进行解码的编码工具也可以是3D编码工具,这是因为这些工具和彩色图像的编码信息被用于产生3D图像。被用于对深度图像进行编码和解码的工具包括分段式DC编码(SDC)和深度建模模式(DMM)。SDC是用于将深度图像的残差信号解码为DC形式的工具或模式。运动参数继承(MPI)和视差推导深度(DDD)可被包括作为用于对不同深度图像进行解码的工具。在这点上,MPI是指当对深度图像进行解码时按原样使用彩色图像的运动信息的编码工具或模式。在这点上,DDD是将彩色图像的运动信息按原样用作深度图的重建样点值的编码工具或模式。
同时,视点1的深度图像的编码信息被输入到多视点解码器43。多视点解码器43可使用视点0的深度图像和视点0的彩色图像的编码信息和来对视点1的图像进行解码。在这点上,被用于参考视点0的彩色图像和视点0的深度图像中的至少一个对视点1的图像进行解码的工具被包括在3D编码工具中作为用于产生多视点图像的工具。3D编码工具包括先进残差预测(ARP)、亮度补偿(IC)、视点合成预测(VSP)、基于深度的块分区(DBBP)和视点间运动参数预测(IVMP)。ARP是用于从不同视点图像预测残差信号的工具。IC是用于从邻近视点的图像对当前图像的亮度进行补偿的工具。VSP是用于参考使用邻近视点的彩色图像或深度图像合成的彩色图像或深度图像进行预测编码的工具或模式。IVMP是用于使用深度图像复制并使用来自邻近视点的图像的运动信息的编码工具或模式。DBBP是指使用深度图像对彩色图像进行划分并对彩色图像进行预测的编码工具。可选地,3D编码工具可包括指示深度信息的深度图像或者增强层的图像中所使用的编码工具。
视点1的深度图像的编码信息被输入到多视点深度图解码器44中。多视点深度图解码器44可使用视点0的深度图像以及视点0的彩色图像来对视点1的深度图进行解码。多视点深度图解码器44可使用视点1的彩色图像来对视点1的深度图进行解码。用于使用视点0的彩色图像和解码图像以及视点1的彩色图像对视点1的图像进行解码的编码工具被包括在3D编码工具中作为用于产生多视点图像的工具。
同时,虽然以上描述了由层间视频解码设备20执行的示例,但是本领域的普通技术人员将理解可由层间视频编码设备10执行该示例。
同时,3D编码工具被用于使用另一图像对图像进行编码,从而提高了编码效率,然而,3D编码工具被用于通过复杂的算术运算执行解码,这造成了算术运算的负荷。因此,层间视频编码设备10和层间视频解码设备20需要根据预测单元的尺寸或预测模式来限制3D编码工具的使用。
图4b是用于描述根据实施例的基于预测单元的尺寸、预测模式和颜色深度信息使用编码工具的层间视频解码设备20的示图。
参照图4b,编码单元45根据尺寸46被划分为各种预测单元。层间视频解码设备20可从比特流获得分区模式信息以确定预测单元的尺寸。例如,当层间视频解码设备20接收作为关于编码单元45的分区模式信息的PART 2N×2N信息时,层间视频解码设备20确定预测单元的尺寸与编码单元45的尺寸相同。在这点上,N表示编码单元45的一半。分区模式信息可包括诸如PART2N×2N、PART 2N×N、PART N×2N、PART N×N、PART 2N×nU、PART 2N×nD、PART nL×2N、PART nR×2N等的信息。在这点上,n表示编码单元45的1/4,nU、nD、nL和nR表示编码单元45的1/4部分的位置。根据实施例,层间视频解码设备20可限制根据预测模式47划分的预测单元的尺寸。例如,当由层间视频解码设备20确定的预测模式47是帧内预测模式时,分区模式信息可仅包括PART 2N×2N和PART N×N。同时,从比特流获得的分区模式信息仅指示相对于编码单元45的相对尺寸。因此,编码单元45的尺寸需要被确定以确定预测单元的绝对尺寸。层间视频解码设备20可基于最大尺寸的编码单元信息和指示划分程度的划分信息来确定编码单元45的尺寸,例如,当最大尺寸的编码单元信息是64×64像素并且划分信息指示编码单元被划分两次时,由于编码单元被划分为两次为四分之一,因此编码单元45的尺寸可以是16×16。如果分区模式信息是PART N×N,则由于预测单元是编码单元45的1/4,因此预测单元的尺寸是8×8。因此,可基于划分的编码单元45的尺寸和分区模式信息来计算预测单元的尺寸。然而,本发明不限于此。可基于各种形式的信息获得关于预测单元的尺寸的信息。
当编码单元45的尺寸和预测单元的尺寸相同时,即,当编码单元45的分区模式信息表示PART 2N×2N时,根据实施例的层间视频解码设备20可使用预定编码工具对预测单元进行解码。在这点上,预定编码工具可以是3D编码工具。因此,可在编码单元45不再被划分的单元中执行预测解码,从而减少由预定编码工具引起的算术运算的负荷。针对小于特定尺寸的块,根据实施例的层间视频解码设备20可不使用预定编码工具对预测单元进行解码。例如,层间视频解码设备20可仅在预测单元的尺寸大于8×8时使用预定编码工具对预测单元进行解码。层间视频解码设备20可仅在预测单元的尺寸不包括尺寸8×4和4×8时使用预定编码工具对预测单元进行解码。层间视频解码设备20可仅在分区类型不包括不对称运动分区(AMP)时使用预定编码工具对预测单元进行解码。层间视频解码设备20可仅在预测单元的尺寸大于8×8时使用预定编码工具对预测单元进行解码。然而,本发明不限于预测单元的尺寸。层间视频解码设备20可根据各种尺寸确定是否使用预定编码工具,并根据是否使用预定编码工具来对预测单元进行解码。例如,MPI(运动参数继承)、IVMP(视点间运动参数预测)或DDD(视差推导深度)可仅在预测单元的尺寸不包括8×4和4×8时被用于对预测单元进行解码。例如,MPI(运动参数继承)、IVMP(视点间运动参数预测)、VSP(视点合成预测)或DDD(视差推导深度)可仅在预测单元的尺寸不包括8×4和4×8时被用于对预测单元进行解码。例如,ARP(先进残差预测)、IC(亮度补偿)或SDC(分段式DC编码)可仅在分区模式信息是PART 2N×2N时被用于对预测单元进行解码。
同时,可根据图4b中的编码单元45来改变预测模式47。预测模式47包括作为帧之间的预测模式的帧间预测模式以及在帧中执行预测的帧内预测模式。在本实施例中,帧之间的预测模式47包括使用不同视点之间的图像的模式。帧间预测模式包括跳过模式、合并模式和AMVP(先进运动矢量预测器)。合并模式是用于通过将当前预测单元和邻近数据单元进行合并对预测单元进行预测并推导参考方向、参考画面索引、视差矢量和运动矢量预测值的模式。跳过模式是用于仅发送邻近块选择信息而不发送残差图像的模式。AMVP是从差分运动矢量、参考画面标识信息和参考画面索引通过被包括在比特流中而被发送的邻近块仅推导运动矢量预测值的技术。关于预测模式47的信息包括包括来自比特流的关于针对包括预测单元的编码单元45的预测模式的信息。例如,当针对编码单元45的预测模式是帧内预测模式时,针对包括在编码单元45中的预测单元的预测模式可以是帧内预测模式。
当预测单元的预测模式是特定模式时,根据实施例的层间视频解码设备20可被限于使用预定编码工具。可选地,仅当预测单元的预测模式是合并模式时,层间视频解码设备20可使用预定编码工具对预测单元进行解码。例如,当预测单元的预测模式是合并模式时,作为预定编码工具之一的VSP(视点合成预测)可被用于对预测单元进行解码。例如,当预测单元是合并模式时,MPI(运动参数继承)、IVMP(视点间运动参数预测)、DDD(视差推导深度)或VSP(视点合成预测)可被用于对预测单元进行解码。层间视频解码设备20可通过针对算术运算的负荷相对小的预测模式使用3D编码工具对预测单元进行解码来减少算术运算的负荷。
同时,参照图4b,预测单元可包括颜色信息或深度信息。在这点上,颜色信息包括亮度信息和色度信息。深度信息是相机和与颜色信息相应的块中的对象之间的距离信息。层间视频解码设备20可获得包括预测单元的单元(诸如帧单元)的颜色深度信息,并确定预测单元的颜色信息或深度信息。
根据实施例的层间视频解码设备20可在预测单元包括深度信息时使用预定编码工具对预测单元进行解码。可选地,层间视频解码设备20可在预测单元包括颜色信息时使用另一预定编码工具对预测单元进行解码。
上述的根据实施例的层间视频解码设备20可根据来自获得的比特流的尺寸46、预测模式47或颜色深度信息48之中的一个条件,确定是否使用预定编码工具对预测单元进行解码。然而,本发明不限于此。层间视频解码设备20可根据多个条件是否被满足来确定是否使用预定编码工具对预测单元进行解码。例如,当预测单元的预测模式是合并模式并且预测单元的尺寸与编码单元45的尺寸相同时,层间视频解码设备20确定是否使用预定编码工具对预测单元进行解码。例如,当预测单元包括深度信息并且预测单元的尺寸与编码单元45的尺寸相同时,层间视频解码设备20可确定是否使用预定编码工具来对预测单元进行解码。例如,当预测单元的预测模式是合并模式并且预测单元的尺寸大于8×8时,层间视频解码设备20可确定是否使用预定编码工具对预测单元进行解码。例如,MPI(运动参数继承)、IVMP(视点间运动参数预测)或DDD(视差推导深度)可仅在预测单元的预测模式是合并模式并且预测单元的尺寸不包括8×4和4×8时被用于对预测单元进行解码。例如,MPI(运动参数继承)、IVMP(视点间运动参数预测)、VSP(视点合成预测)或DDD(视差推导深度)可仅在预测单元的预测模式是合并模式并且预测单元的尺寸不包括8×4和4×8时被用于对预测单元进行解码。
上面描述了根据实施例的层间视频解码设备20。层间视频解码设备20通过从比特流获得关于预测单元的颜色深度信息、尺寸信息和预测模式信息来确定预定编码工具,而层间视频编码设备10通过应用各种预测模式或尺寸对预测单元进行编码,根据在这点上计算的率失代价确定预测模式或尺寸,并根据确定的预测模式或尺寸将编码单元划分为一个或更多个预测单元。除了层间视频编码设备10基于针对划分出的预测单元的颜色深度、尺寸和预测模式来确定是否使用预定编码工具之外,层间视频编码设备10按照与上述相同的方式来确定是否使用预定编码工具,因此对于编码设备的操作的描述被省略。
图5a是用于描述根据另一实施例的编码处理的示图。
视频编码设备2000考虑率失真代价确定包括一个或更多个编码单元的最大编码单元51的结构。视频编码设备2000以各种方式根据对最大编码单元51进行划分的情况的数量基于率失真代价来确定最佳划分结构。如果基于如上所述确定的最大编码单元51的结构来执行编码,则视频编码设备2000可提高压缩效率,但视频编码设备2000基于所述情况的数量来确定最佳划分结构,这会花费很长的时间并增加算术运算的负担。
因此,当与最大编码单元51具有相同的尺寸的编码单元被确定为当前编码单元时,根据另一实施例的视频编码设备2000根据针对当前编码单元的多个分区模式或预测模式对编码单元进行编码,并确定率失真代价。视频编码设备2000基于率失真代价确定最佳分区模式或预测模式。在这点上,视频编码设备2000根据确定的最佳分区模式或预测模式确定是否对编码单元进行划分。例如,当预测模式是跳过模式时,视频编码设备2000可不对编码单元进行划分,并可确定最大编码单元51的结构。可选地,当预测模式是合并模式并且分区模式的尺寸是2N×2N时,视频编码设备2000可不对编码单元进行划分,并可确定最大编码单元51的结构。可选地,当编码单元的分区模式是2N×2N时,视频编码设备2000可不对编码单元进行划分,并可确定最大编码单元51的结构。
图5b是用于描述根据另一实施例的编码处理的示图。
参照图5b,示出了彩色图像块55和与彩色图像块55相应的深度图像块56。
在图5b中,视频编码设备2000已对彩色图像块55执行了编码,因此视频编码设备2000可使用彩色图像块55对彩色图像块55的编码信息进行编码。例如,假设视频编码设备2000获得彩色图像块55的划分信息。
假设视频编码设备2000将深度图像块56划分为深度图像块56的尺寸的多个编码单元。视频编码设备2000基于与深度图像块56相应的彩色图像块55的结构来确定是否对深度图像块56进行划分。由于彩色图像块55的划分编码单元57的尺寸小于彩色图像块55的尺寸,因此视频编码设备2000根据多个分区模式或预测模式对深度图像块56进行编码,确定率失真代价,并基于确定的率失真代价确定最佳分区模式或预测模式。视频编码设备2000可根据确定的最佳分区模式或预测模式确定是否独立地划分当前编码单元56。例如,当视频编码设备2000将深度图像块56的最佳分区模式确定为是2N×2N时,视频编码设备2000可不对深度图像块56进行划分,并可将深度图像块56确定为编码单元56。同时,当最佳分区模式是N×N时,视频编码设备2000可对深度图像块56进行划分,并将编码单元的尺寸确定为块58的尺寸。在这点上,由于存在相应块57的编码单元,因此视频编码设备2000获得先前确定的针对相应块57的分区模式或预测模式信息。视频编码设备2000根据多个分区模式或预测模式对块58进行编码,并确定率失真代价。视频编码设备2000可基于确定的率失真代价确定最佳分区模式或预测模式,并根据最佳分区模式确定是否对当前编码单元56进行划分。在这点上,当相应块57的分区模式或预测模式与针对块58确定的分区模式或预测模式相应时,视频编码设备2000可不对块58进行划分,并将将被编码的编码单元的尺寸确定为块58的尺寸。视频编码设备2000可对块58进行编码。同时,例如,当块58的最佳分区模式是2N×2N,并且相应块57的分区模式是N×N时,视频编码设备2000确定相应块57和块58彼此不相应,再次对块58进行划分,再次根据多个分区模式或预测模式对划分的块59进行编码,确定率失真代价,并基于确定的率失真代价来确定最佳分区模式或预测模式。在这点上,由于不存在相应块,因此视频编码设备2000可根据确定的最佳分区模式或预测模式来确定是否独立地划分块59。
同时,当相应彩色块的分区模式是2N×2N并且深度块的分区模式是2N×2N时,视频编码设备2000根据各种预测模式对预测单元进行编码,确定率失真代价,并基于确定的率失真代价确定最佳预测模式而不再对深度块进行划分。
同时,当针对当前块58确定的最佳预测模式是跳过模式或合并模式,并且相应块57的预测模式是跳过模式或合并模式时,视频编码设备2000可确定当前块58不再被划分。当针对与当前块58相应的块57确定的分区模式是2N×2N并且针对当前块58确定的分区模式是2N×2N时,视频编码设备2000可确定当前块58不再被划分。
图6示出根据实施例的用于基于预测单元的尺寸或预测模式确定层间视频解码设备20是否使用预定编码工具对预测单元进行解码的伪码。
参照图6,伪码60、61和62公开了用于确定层间视频解码设备20是否使用分段式DC编码(SDC)执行编码的内容。
“sdcEnableFlag”是确定层间视频解码设备20是否使用分段式DC编码(SDC)编码工具对当前编码单元进行解码的标记。
伪码60包括用于确定当前编码单元的预测模式是否是帧间预测模式的条件语句。如果当前编码单元的预测模式是帧间预测模式(CuPredMode[x0][y0]等于MODE_INTER),则“sdcEnableFlag”的值由“vps_inter sdc_flag[nuh layer id]”和“PartMode”的值确定。在这点上,“vps_inter sdc_flag[nuh layer id]”是指示在相应层中是否使用帧间SDC编码工具的标记。从比特流获得这样的标记。“PartMode”指示当前编码单元的分区模式。“Part_Mode==Part 2N×2N”指示当前编码单元的分区模式是否是2N×2N。因此,确定当前编码单元的分区模式使用帧间SDC编码工具(vps_inter sdc_flag[nuh layer id]),并且如果当前编码单元的分区模式是2N×2N,则“sdcEnableFlag”的值是1,并且层间视频解码设备20可确定帧间SDC编码工具可被用于当前编码单元。
伪码61包括用于确定当前编码单元的预测模式是否是帧内预测模式的条件语句。如果当前编码单元的预测模式是帧内预测模式(CuPredMode[x0][y0]等于MODE_INTRA),则“sdcEnableFlag”的值由“vps_depth_modes_flag[nuh layer id]”和“PartMode”确定。在这点上,“vps_depth_modes_flag[nuh layer id]”是指示在相应层中是否使用帧内SDC编码工具的标记。从比特流获得这样的标记。“PartMode”指示当前编码单元的分区模式。“Part_Mode==Part 2N×2N”指示当前编码单元的分区模式是否是2N×2N。因此,确定当前编码单元的分区模式使用帧内SDC编码工具(vps_depth_modes_flag[nuh layer id]),并且如果当前编码单元的分区模式是2N×2N,则“sdcEnableFlag”的值是1,并且层间视频解码设备20可确定帧内SDC编码工具可被用于当前编码单元。
在伪码62中,在当前编码单元的模式是跳过模式(CuPredMode[x0][y0]等于MODE_SKIP)时,“sdcEnableFlag”的值是0,并且层间视频解码设备20可确定不能使用SDC编码工具对当前编码单元进行解码。
同时,伪码63指示如果当前编码单元的预测模式不是帧内预测模式(CuPredMode[x0][y0]!=MODE_INTRA),并且当前编码单元的分区模式是2N×2N(PartMode==PART_2N×2N),则“rpEnableFlag”由“iv_res_pred_flag[nuh layer id]”和“RpRefPicAvailFlag”确定。在这点上,“rpEnableFlag”是指示是否使用先进残差预测(ARP)编码工具对预测单元进行解码的标记。“iv_res_pred_flag[nuh layer id]”是确定是否使用ARP以及当ARP编码工具被用于对当前块进行编码时如何对当前块进行解码的标记。“RpRefPicAvailFlag”是确定残差预测所需的参考画面是否可用的标记。因此,如果确定ARP编码工具被用于对预测单元进行编码(iv_res_pred_flag[nuh_layer_id]),并且参考画面可用(RpRefPicAvailFlag),则层间视频解码设备20可确定ARP可被用于对预测单元进行编码。
在伪码64中,如果当前编码单元的分区模式是2N×2N(PartMode等于2N×2N),当前编码单元的预测模式不是帧内预测模式(CuPredMode[x0][y0]不等于MODE_INTRA),并且针对当前块所属的条带的亮度补偿被设置为可用(slice_ic_enable_flag),则可根据下一个条件来确定“icEnableFlag”的值。在这点上,“icEnableFlag”是指示是否使用亮度补偿编码工具对预测单元进行解码的标记。在当前编码单元的分区模式不是2N×2N时,“icEnableFlag”的值为0,并且层间视频解码设备20可确定可不使用亮度补偿编码工具对当前编码单元进行解码。
同时,尽管以上描述了由层间视频解码设备20执行的示例,但本领域的普通技术人员将理解参照图6描述的方法还可由层间视频编码设备10执行。
以上参照图1a至图6描述了层间视频编码设备10、层间视频解码设备20和视频编码设备2000。根据各种实施例的层间视频编码设备10和层间视频解码设备20可在预测条件被满足时在不使用对算术运算增加负荷的工具(诸如3D编码工具)的情况下对当前块执行编码和解码,从而减小了涉及算术运算的负荷。根据实施例的视频编码设备2000可基于与各种数量的情况相关联的率失真代价而不对编码单元进行划分从而确定编码单元的尺寸,可确定用于当前编码单元的最佳预测模式和分区模式,可在确定的预测模式和分区模式下相对快速地执行算术运算的条件下不对当前编码单元进行划分,可确定当前编码单元的尺寸,并且在与基于各种数量的情况对编码单元进行划分的情况下相比时,可在率失真代价没有明显差别的情况下在快速时间内对编码单元进行划分。
在如上所述的根据实施例的层间视频编码设备10和根据实施例的层间视频解码设备20中,视频数据可被划分为具有树结构的编码单元,并且编码单元、预测单元和变换单元被用于对编码单元进行层间预测或帧间预测。以下,将参照图7至图19描述根据实施例的基于具有树结构的编码单元的视频编码方法和设备以及视频解码方法和设备。
原则上,在对多层视频进行编码/解码期间,单独地执行对第一层图像的编码/解码处理和对第二层图像的编码/解码处理。也就是说,当对多层视频执行层间预测时,单层视频的编码/解码结果彼此参考,但是对各个单层视频执行单独的编码/解码处理。
为了更于描述,由于将参照图7至图19描述的基于根据树结构的编码单元的视频编码处理和视频解码处理是对单层视频执行的,因此将仅描述帧间预测和运动补偿。然而,如参照图1a至图6所描述的,对基本层图像和第二层图像之间的层间预测和补偿被执行以对视频流进行编码/解码。
因此,当根据实施例的层间视频编码设备10的第一层编码器12基于根据树结构的编码单元对多层视频进行编码时,为了针对各个单视点视频对视频进行编码,层间视频编码设备10包括与多层视频的层数一样多的图7的视频编码设备100以对视频进行编码,使得每个视频编码设备100可被控制为对被分配的单层视频进行编码。另外,层间视频编码设备10可通过使用每个视频编码设备100的单独的单视点的编码结果来执行视点间预测。因此,层间视频编码设备10的第一层编码器12可针对各个层产生记录有各层的编码结果的基本层视频流和第二层视频流。
类似地,当根据实施例的层间视频解码设备20的第二层解码器26基于根据树结构的编码单元对多层视频进行解码时,为了针对各个层对接收到的基本层视频流和第二层视频流进行解码,层间视频解码设备20可包括与多视点视频的层数一样多的图8的视频解码设备200,视频解码设备200可被控制为对分别被分配到视频解码设备200的单层视频执行解码。另外,层间视频解码设备20可通过使用每个视频解码设备200的单独的单层的编码结果来执行视点间补偿。因此,层间视频解码设备20的第二层解码器26可产生针对各个层而恢复的第一层图像和第二层图像。
图7是根据各种实施例的基于根据树结构的编码单元的视频编码设备100的框图。
涉及基于根据树结构的编码单元执行视频预测的视频编码设备100包括LCU划分器110、编码单元确定器120和输出器130。
编码单元确定器120可基于图像的当前画面的LCU来对当前画面进行划分,其中,LCU是具有最大尺寸的编码单元。如果当前画面大于LCU,则可将当前画面的图像数据划分为至少一个LCU。根据各种实施例的LCU可以是尺寸为32×32、64×64、128×128、256×256等的数据单元,其中,数据单元的形状是宽度和长度为2的若干次方的正方形。
根据各种实施例的编码单元可由最大尺寸和深度表征。深度表示编码单元从LCU被空间划分的次数,并且随着深度加深,根据深度的较深层编码单元可从LCU被划分到最小编码单元(SCU)。LCU的深度为最高深度,SCU的深度为最低深度。由于随着LCU的深度加深,与每个深度相应的编码单元的尺寸减小,因此与更高深度相应的编码单元可包括多个与更低深度相应的编码单元。
如上所述,当前画面的图像数据根据编码单元的最大尺寸被划分为LCU,并且每个LCU可包括根据深度被划分的较深层编码单元。由于根据深度对根据各种实施例的LCU进行划分,因此可根据深度对包括在LCU中的空间域的图像数据进行分层地分类。
可预先确定编码单元的最大深度和最大尺寸,其中,所述最大深度和最大尺寸限制对LCU的高度和宽度进行分层划分的总次数。
编码单元确定器120对通过根据深度对LCU的区域进行划分而获得的至少一个划分区域进行编码,并且根据所述至少一个划分区域来确定用于输出最终编码的图像数据的深度。换句话说,编码单元确定器120通过根据当前画面的LCU以根据深度的较深层编码单元对图像数据进行编码,并选择具有最小编码误差的深度,来确定最终深度。确定的最终深度和根据确定的最终深度的被编码的图像数据被输出到输出器130。
基于与等于或低于最大深度的至少一个深度相应的较深层编码单元,对LCU中的图像数据进行编码,并且基于每个较深层编码单元比较对图像数据进行编码的结果。在对较深层编码单元的编码误差进行比较之后,可选择具有最小编码误差的深度。可针对每个LCU选择至少一个最终深度。
随着编码单元根据深度而被分层地划分并且编码单元的数量增加,LCU的尺寸被划分。另外,即使在一个LCU中编码单元与同一深度相应,也通过分别测量每个编码单元的图像数据的编码误差来确定是否将与同一深度相应的每个编码单元划分为更低深度。因此,即使图像数据被包括在一个LCU中,在一个LCU中编码误差可根据区域而不同,因此在图像数据中最终深度可根据区域而不同。因此,可在一个LCU中确定一个或更多个最终深度,并且可根据至少一个最终深度的编码单元来对LCU的图像数据进行划分。
因此,编码单元确定器120可确定包括在LCU中的具有树结构的编码单元。根据各种实施例的“具有树结构的编码单元”包括LCU中所包括的所有较深层编码单元中的与确定为最终深度的深度相应的编码单元。可根据LCU的相同区域中的深度来分层地确定最终深度的编码单元,并可在不同区域中独立地确定最终深度的编码单元。类似地,可独立于另一区域中的最终深度而确定当前区域中的最终深度。
根据各种实施例的最大深度是与从LCU到SCU进行划分的次数有关的索引。根据各种实施例的第一最大深度可表示从LCU到SCU的总划分次数。根据各种实施例的第二最大深度可表示从LCU到SCU的深度等级的总数。例如,当LCU的深度是0时,对LCU划分一次的编码单元的深度可被设置为1,对LCU划分两次的编码单元的深度可被设置为2。这里,如果SCU是对LCU划分四次的编码单元,则存在深度0、1、2、3和4的5个深度等级,并且因此第一最大深度可被设置为4,第二最大深度可被设置为5。
可根据LCU执行预测编码和变换。还根据LCU,基于根据等于或小于最大深度的深度的较深层编码单元来执行预测编码和变换。
由于每当根据深度对LCU进行划分时,较深层编码单元的数量增加,因此对随着深度加深而产生的所有较深层编码单元执行包括预测编码和变换的编码。为了便于描述,在LCU中,现在将基于当前深度的编码单元来描述预测编码和变换。
视频编码设备100可不同地选择用于对图像数据进行编码的数据单元的尺寸或形状。为了对图像数据进行编码,执行诸如预测编码、变换和熵编码的操作,此时,可针对所有操作使用相同的数据单元,或者可针对每个操作使用不同的数据单元。
例如,视频编码设备100不仅可选择用于对图像数据进行编码的编码单元,还可选择不同于编码单元的数据单元,以便对编码单元中的图像数据执行预测编码。
为了在LCU中执行预测编码,可基于与最终深度相应的编码单元(即,基于不再被划分成与更低深度相应的编码单元的编码单元)来执行预测编码。以下,不再被划分且成为用于预测编码的基本单元的编码单元现在将被称为“预测单元”。通过划分预测单元获得的分区可包括预测单元或通过对预测单元的高度和宽度中的至少一个进行划分而获得的数据单元。分区是通过对编码单元的预测单元进行划分而获得的数据单元,预测单元可以是与编码单元具有相同的尺寸的分区。
例如,当2N×2N(其中,N是正整数)的编码单元不再被划分,并且成为2N×2N的预测单元时,分区的尺寸可以是2N×2N、2N×N、N×2N或N×N。分区模式的示例包括通过对预测单元的高度或宽度进行对称地划分而获得的对称分区、通过对预测单元的高度或宽度进行非对称地划分(诸如,1:n或n:1)而获得的分区、通过对预测单元进行几何地划分而获得的分区、以及具有任意形状的分区。
预测单元的预测模式可以是帧内模式、帧间模式和跳过模式中的至少一个。例如,可对2N×2N、2N×N、N×2N或N×N的分区执行帧内模式或帧间模式。另外,可仅对2N×2N的分区执行跳过模式。可对编码单元中的一个预测单元独立地执行编码,从而选择具有最小编码误差的预测模式。
视频编码设备100不仅可基于用于对图像数据进行编码的编码单元还可基于与编码单元不同的数据单元,来对编码单元中的图像数据执行变换。为了在编码单元中执行变换,可基于具有小于或等于编码单元的尺寸的数据单元来执行变换。例如,用于变换的数据单元可包括帧内模式的数据单元和帧间模式的数据单元。
按照与根据树结构的编码单元类似的方式,编码单元中的变换单元可被递归地划分为更小尺寸的区域。因此,可基于根据变换深度的具有树结构的变换单元,对编码单元中的残差进行划分。
还可在变换单元中设置变换深度,其中,变换深度指示通过对编码单元的高度和宽度进行划分以达到变换单元所进行的划分的次数。例如,在2N×2N的当前编码单元中,当变换单元的尺寸是2N×2N时,变换深度可为0。当变换单元的尺寸是N×N时,变换深度可为1,当变换单元的尺寸是N/2×N/2时,变换深度可为2。换句话说,可根据变换深度设置具有树结构的变换单元。
根据与最终深度相应的编码单元的编码信息不仅需要关于最终深度的信息,还需要关于与预测编码和变换相关的信息的信息。因此,编码单元确定器120不仅确定具有最小编码误差的最终深度,还确定预测单元中的分区模式、根据预测单元的预测模式和用于变换的变换单元的尺寸。
稍后将参照图9至图19详细描述根据各种实施例的LCU中的根据树结构的编码单元以及确定预测单元/分区和变换单元的方法。
编码单元确定器120可通过使用基于拉格朗日乘数的率失真优化,来测量根据深度的较深层编码单元的编码误差。
输出器130在比特流中输出LCU的图像数据和关于根据最终深度的编码模式的信息,其中,所述LCU的图像数据基于由编码单元确定器120确定的至少一个最终深度被编码。
可通过对图像的残差进行编码来获得编码的图像数据。
关于根据最终深度的编码模式的信息可包括关于最终深度的信息、关于预测单元中的分区模式的信息、关于预测模式的信息和关于变换单元的尺寸的信息。
可通过使用根据深度的划分信息来定义关于最终深度的信息,其中,根据深度的划分信息指示是否对更低深度而不是当前深度的编码单元执行编码。如果当前编码单元的当前深度是最终深度,则对当前编码单元中的图像数据进行编码并输出,因此划分信息可被定义为不将当前编码单元划分到更低深度。可选地,如果当前编码单元的当前深度不是最终深度,则对更低深度的编码单元执行编码,因此划分信息可被定义为对当前编码单元进行划分来获得更低深度的编码单元。
如果当前深度不是最终深度,则对被划分到更低深度的编码单元的编码单元执行编码。由于更低深度的至少一个编码单元存在于当前深度的一个编码单元中,因此对更低深度的每个编码单元重复执行编码,并且因此可对具有相同深度的编码单元递归地执行编码。
由于针对一个LCU确定具有树结构的编码单元,并且针对最终深度的编码单元确定关于至少一个编码模式的信息,所以可针对一个LCU确定关于至少一个编码模式的信息。另外,由于根据深度对图像数据进行分层划分,因此LCU的图像数据的最终深度可根据位置而不同,因此可针对图像数据设置划分信息。
因此,输出器130可将相应的划分信息分配给包括在LCU中的编码单元、预测单元和最小单元中的至少一个。
根据各种实施例的最小单元是通过将构成最低深度的SCU划分为4份而获得的方形数据单元。可选择地,根据实施例的最小单元可以是包括在LCU中所包括的所有编码单元、预测单元、分区单元和变换单元中的最大方形数据单元。
例如,通过输出器130输出的编码信息可被分类为根据较深层编码单元的编码信息和根据预测单元的编码信息。根据较深层编码单元的编码信息可包括关于预测模式的信息和关于分区尺寸的信息。根据预测单元的编码信息可包括关于帧间模式的估计方向的信息、关于帧间模式的参考图像索引的信息、关于运动矢量的信息、关于帧内模式的色度分量的信息、以及关于帧内模式的插值方法的信息。
根据画面、条带或GOP定义的关于编码单元的最大尺寸的信息和关于最大深度的信息可被插入到比特流的头、序列参数集或画面参数集。
还可通过比特流的头、序列参数集或画面参数集输出关于针对当前视频允许的变换单元的最大尺寸的信息和关于变换单元的最小尺寸的信息。输出器130可对与预测有关的参考信息、预测信息、条带类型信息等进行编码,并输出这些信息。
在视频编码设备100中,较深层编码单元可以是通过将更高深度(更高一层)的编码单元的高度或宽度划分成两份而获得的编码单元。换言之,在当前深度的编码单元的尺寸是2N×2N时,更低深度的编码单元的尺寸是N×N。另外,尺寸为2N×2N的当前深度的编码单元可包括最多4个更低深度的编码单元。
因此,视频编码设备100可基于考虑当前画面的特征而确定的LCU的尺寸和最大深度,通过针对每个LCU确定具有最优形状和最优尺寸的编码单元来形成具有树结构的编码单元。另外,由于可通过使用各种预测模式和变换中的任意一个对每个LCU执行编码,因此可考虑各种图像尺寸的编码单元的特征来确定最优编码模式。
因此,如果以传统宏块对具有高分辨率或大数据量的图像进行编码,则每个画面的宏块的数量极度增加。因此,针对每个宏块产生的压缩信息的条数增加,因此难以发送压缩的信息,并且数据压缩效率降低。然而,通过使用视频编码设备100,由于考虑图像的尺寸,在增加编码单元的最大尺寸的同时,基于图像的特征来调整编码单元,因此可增加图像压缩效率。
参照图1a描述的层间视频编码设备10可包括与层数一样多的视频编码设备100,以针对多层视频的各个层对单层图像进行编码。例如,第一层编码器12可包括单个视频编码设备100,第二层编码器14可包括与附加视点的数量一样多的视频编码设备100。
当视频编码设备100对第一层图像进行编码时,编码单元确定器120可针对每个最大编码单元的各个根据树结构的编码单元,确定用于帧间预测的预测单元,并可针对各个预测单元执行帧间预测。
当视频编码设备100对第二层图像进行编码时,编码单元确定器120也可针对每个最大编码单元确定预测单元和根据树结构的编码单元,并可针对各个预测单元执行帧间预测。
视频编码设备100可对第一层图像和第二层图像之间的亮度差进行编码以对亮度差进行补偿。然而,可根据编码单元的编码模式来确定是否执行亮度补偿。例如,可仅对2N×2N的预测单元执行亮度补偿。
图8是根据各种实施例的基于具有树结构的编码单元的视频解码设备200的框图。
涉及基于具有树结构的编码单元的视频预测的视频解码设备200包括接收器210、图像数据和编码信息提取器220和图像数据解码器230。
用于视频解码设备200的解码操作的各种术语(诸如编码单元、深度、预测单元、变换单元和关于各种编码模式的信息)的定义与参照图7和视频编码设备100描述的定义相同。
接收器210接收和解析编码视频的比特流。图像数据和编码信息提取器220从解析的比特流针对每个编码单元提取编码图像数据,并将提取的图像数据输出到图像数据解码器230,其中,编码单元具有根据每个LCU的树结构。图像数据和编码信息提取器220可从关于当前画面的头、序列参数集或画面参数集提取关于当前画面的编码单元的最大尺寸的信息。
另外,图像数据和编码信息提取器220从解析的比特流,根据每个LCU,提取具有树结构的编码单元的划分信息和编码信息。提取的划分信息和编码信息被输出到图像数据解码器230。换言之,比特流中的图像数据被划分为LCU,使得图像数据解码器230针对每个LCU对图像数据进行解码。
可针对与最终深度相应的至少一条划分信息设置根据LCU的划分信息和编码信息,根据最终深度的编码信息可包括关于与最终深度相应的相应编码单元的分区模式的信息、关于预测模式的信息和变换单元的划分信息。另外,根据深度的划分信息可被提取作为关于最终深度的信息。
由图像数据和编码信息提取器220提取的根据每个LCU的划分信息和编码信息是这样的划分信息和编码信息:该划分信息和编码信息被确定为在编码器(诸如,视频编码设备100)根据每个LCU对根据深度的每个较深层编码单元重复地执行编码时产生最小编码误差。因此,视频解码设备200可通过根据产生最小编码误差的最终深度和编码模式对图像数据进行解码来重建图像。
由于划分信息和编码信息可被分配给相应的编码单元、预测单元和最小单元中的预定数据单元,因此图像数据和编码信息提取器220可根据预定数据单元提取划分信息和编码信息。如果相应LCU的划分信息和编码信息根据预定数据单元被记录,则可将被分配了相同的划分信息和编码信息的预定数据单元推断为是包括在同一LCU中的数据单元。
图像数据解码器230基于根据LCU的划分信息和编码信息,通过对每个LCU中的图像数据进行解码来重建当前画面。换言之,图像数据解码器230可基于提取出的关于包括在每个LCU中的具有树结构的编码单元之中的每个编码单元的分区模式、预测模式和变换单元的信息,对编码的图像数据进行解码。解码处理可包括预测(包含帧内预测和运动补偿)和逆变换。
图像数据解码器230可基于关于根据最终深度的编码单元的预测单元的分区模式和预测模式的信息,根据每个编码单元的分区和预测模式,执行帧内预测或运动补偿。
另外,为了对每个LCU执行逆变换,图像数据解码器230可读取关于每个编码单元的根据树结构的变换单元的信息,从而基于每个编码单元的变换单元执行逆变换。通过逆变换,可重建编码单元的空间域的像素值。
图像数据解码器230可通过使用根据深度的划分信息来确定当前LCU的最终深度。如果划分信息指示图像数据在当前深度中不再被划分,则当前深度是最终深度。因此,图像数据解码器230可针对与最终深度相应的每个编码单元,通过使用关于预测单元的分区模式的信息、关于预测模式的信息和变换单元的划分信息,对当前LCU中的编码数据进行解码。
换言之,可通过观察分配给编码单元、预测单元和最小单元中的预定数据单元的编码信息集来收集包含包括相同划分信息的编码信息的数据单元,并且收集的数据单元可被认为是将由图像数据解码器230以相同编码模式进行解码的一个数据单元。这样,针对每个编码单元,可通过获得关于编码模式的信息来对当前编码单元进行解码。
参照图2a描述的层间视频解码设备20可包括与视点数一样多的视频解码设备200,以便对接收到的第一层图像流和第二层图像数据进行解码以恢复第一层图像和第二层图像。
当接收到第一层图像流时,视频解码设备200的图像数据解码器230将由图像数据和编码信息提取器220从第一层图像流提取的第一层图像的样点划分为最大编码单元的根据树结构的编码单元。图像数据解码器230可针对第一层图像的样点的各个根据树结构的编码单元,对各个用于帧间预测的预测单元执行运动补偿,以恢复第一层图像。
当接收到第二层图像流时,视频解码设备200的图像数据解码器230将由图像数据和编码信息提取器220从第二层图像流提取的第二层图像的样点划分为最大编码单元的根据树结构的编码单元。图像数据解码器230可对第二层图像的样点的各个用于帧间预测的预测单元执行运动补偿,以恢复第二层图像。
图像数据和编码信息提取器220可从比特流获得与第一层图像和第二层图像之间的亮度差相关的信息,以对亮度差进行补偿。然而可根据编码单元的编码模式确定是否执行亮度补偿。例如,可仅对2N×2N的预测单元执行亮度补偿。
视频解码设备200可获得关于当针对每个最大编码单元递归地执行编码时产生最小编码误差的至少一个编码单元的信息,并且可使用所述信息来对当前画面进行解码。换言之,被确定为每个最大编码单元中的最优编码单元的具有树结构的编码单元可被解码。此外,考虑图像数据的分辨率和图像数据量来确定编码单元的最大尺寸。
因此,即使图像数据具有高分辨率和大数据量,也可通过使用编码单元的尺寸和编码模式,对图像数据进行有效地解码和恢复,其中,通过使用从编码器接收到的关于最优编码模式的信息,根据图像数据的特征自适应地确定编码单元的尺寸和编码模式。
图9是用于描述根据各种实施例的编码单元的概念的示图。
编码单元的尺寸可被表示为宽度×高度,并可以是64×64、32×32、16×16和8×8。64×64的编码单元可被划分为64×64、64×32、32×64或32×32的分区,32×32的编码单元可被划分为32×32、32×16、16×32或16×16的分区,16×16的编码单元可被划分为16×16、16×8、8×16或8×8的分区,8×8的编码单元可被划分为8×8、8×4、4×8或4×4的分区。
在视频数据310中,分辨率是1920×1080,编码单元的最大尺寸是64,最大深度是2。在视频数据320中,分辨率是1920×1080,编码单元的最大尺寸是64,最大深度是3。在视频数据330中,分辨率是352×288,编码单元的最大尺寸是16,最大深度是1。图10中示出的最大深度表示从LCU到最小编码单元的划分总次数。
如果分辨率高或数据量大,则编码单元的最大尺寸可能较大,从而不仅提高编码效率,而且准确地反映图像的特征。因此,具有比视频数据330更高分辨率的视频数据310和320的编码单元的最大尺寸可以是64。
由于视频数据310的最大深度是2,因此由于通过对LCU划分两次,深度加深至两层,因此视频数据310的编码单元315可包括长轴尺寸为64的LCU和长轴尺寸为32和16的编码单元。同时,由于视频数据330的最大深度是1,因此由于通过对LCU划分一次,深度加深至一层,因此视频数据330的编码单元335可包括长轴尺寸为16的LCU和长轴尺寸为8的编码单元。
由于视频数据320的最大深度是3,因此由于通过对LCU划分三次,深度加深至3层,因此视频数据320的编码单元325可包括长轴尺寸为64的LCU和长轴尺寸为32、16和8的编码单元。随着深度加深,详细信息可被精确地表示。
图10是根据各种实施例的基于编码单元的图像编码器400的框图。
图像编码器400执行视频编码设备100的编码单元确定器120中对图像数据进行编码所需的操作。换言之,帧内预测器420根据预测单元对当前帧405中的帧内模式下的编码单元执行帧内预测,帧间预测器415通过使用当前图像405和从重建画面缓冲器410获得的参考图像,根据预测单元对帧间模式下的编码单元执行帧间预测。当前图像405可被划分为LCU,并且随后LCU可被顺序编码。在这点上,将被划分为具有树结构的编码单元的LCU可被编码。
通过从关于当前图像405的被编码的编码单元的数据去除从帧内预测器420或帧间预测器415输出的每个模式的关于编码单元的预测数据来产生残差数据,并且残差数据通过变换器425和量化器430被输出为根据变换单元的量化后的变换系数。量化后的变换系数通过反量化器445和逆变换器450被重建为空间域中的残差数据。重建的空间域中的残差数据与从帧内预测器420或帧间预测器415输出的每个模式的针对编码单元的预测数据相加,因此被重建为针对当前图像405的编码单元的空间域中的数据。重建的空间域中的数据通过去块器455和SAO执行器560被产生为重建图像,重建图像被存储在重建画面缓冲器410中。存储在重建画面缓冲器410中的重建图像可被用作用于对另一图像进行帧间预测的参考图像。由变换器425和量化器430量化的变换系数可通过熵编码器435被输出为比特流440。
为了将图像编码器400应用到视频编码设备100中,图像编码器400的所有元件(即,帧间预测器415、帧内预测器420、变换器425、量化器430、熵编码器435、反量化器445、逆变换器450、去块器455和SAO执行器460)基于根据每个LCU的具有树结构的编码单元中的每个编码单元执行操作。
具体地,帧内预测器420和帧间预测器415可考虑当前LCU的最大尺寸和最大深度来确定具有树结构的编码单元之中的每个编码单元的分区模式和预测模式,变换器425可确定是否对具有树结构的编码单元中的每个编码单元中的具有四叉树结构的变换单元进行划分。
图11是根据各种实施例的基于编码单元的图像解码器500的框图。
熵解码器515从比特流505解析将被解码的编码图像数据和解码所需的关于编码的信息。编码图像数据是量化后的变换系数,其中,反量化器520和逆变换器525从量化后的变换系数重建残差数据。
帧内预测器540根据每个预测单元对帧内模式下的编码单元执行帧内预测。帧间预测器535通过使用从重建画面缓冲器530获得的参考图像针对每个预测单元对当前图像405中的帧间模式下的编码单元执行帧间预测。
通过帧内预测器540和帧间预测器535的每个模式的关于编码单元的预测数据和残差数据被相加,因此可重建关于当前图像405的编码单元的空间域中的数据,并且重建的空间域中的数据可通过去块器545和SAO执行器550被输出为重建图像560。存储在重建画面缓冲器530中的重建图像可被输出为参考图像。
为了在视频解码设备200的图像数据解码器230中对图像数据进行解码,可执行在根据实施例的图像解码器500的熵解码器515之后的操作。
为了将图像解码器500应用到根据实施例的视频解码设备200中,图像解码器500的所有元件(即,熵解码器515、反量化器520、逆变换器525、帧间预测器535、去块器545和SAO执行器550)可针对每个LCU基于具有树结构的编码单元执行操作。
具体地,SAO执行器550和帧间预测器535可确定每个具有树结构的编码单元的分区和预测模式,逆变换器525可针对每个编码单元确定是否对具有四叉树结构的变换单元进行划分。
图10的编码操作和图11的解码操作分别描述了单层的视频流编码和解码操作。因此,如果图1a的第一层编码器12对两层或更多层的视频流进行编码,则可针对每个层包括图像编码器400。类似地,如果图2a的第二层解码器26对两层或更多层的视频流进行解码,则可针对每个层包括图像解码器500。
图12是示出根据各种实施例的根据深度的较深层编码单元以及分区的示图。
视频编码设备100和视频解码设备200使用分层编码单元以考虑图像的特征。可根据图像的特征自适应地确定编码单元的最大高度、最大宽度和最大深度,或可由用户不同地设置编码单元的最大高度、最大宽度和最大深度。可根据编码单元的预定最大尺寸来确定根据深度的较深层编码单元的尺寸。
在根据各种实施例的编码单元的分层结构600中,编码单元的最大高度和最大宽度均是64,最大深度是3。在这种情况下,最大深度表示编码单元从LCU被划分到SCU的总次数。由于沿着分层结构600的垂直轴深度加深,因此较深层编码单元的高度和宽度均被划分。另外,预测单元和分区沿着分层结构600的水平轴被示出,其中,所述预测单元和分区是对每个较深层编码单元进行预测编码的基础。
换言之,在分层结构600中,编码单元610是LCU,其中,深度为0,尺寸(即,高度乘宽度)为64×64。深度沿着垂直轴加深,并且存在尺寸为32×32且深度为1的编码单元620、尺寸为16×16且深度为2的编码单元630、尺寸为8×8且深度为3的编码单元640。尺寸为8×8且深度为3的编码单元640是SCU。
编码单元的预测单元和分区根据每个深度沿着水平轴被排列。换言之,如果尺寸为64×64且深度为0的编码单元610是预测单元,则可将预测单元划分成包括在编码单元610中的分区,即,尺寸为64×64的分区610、尺寸为64×32的分区612、尺寸为32×64的分区614或尺寸为32×32的分区616。
类似地,可将尺寸为32×32且深度为1的编码单元620的预测单元划分成包括在编码单元620中的分区,即,尺寸为32×32的分区620、尺寸为32×16的分区622、尺寸为16×32的分区624和尺寸为16×16的分区626。
类似地,可将尺寸为16×16且深度为2的编码单元630的预测单元划分成包括在编码单元630中的分区,即,包括在编码度单元630中的尺寸为16×16的分区630、尺寸为16×8的分区632、尺寸为8×16的分区634和尺寸为8×8的分区636。
类似地,可将尺寸为8×8且深度为3的编码单元640的预测单元划分成包括在编码单元640中的分区,即,包括在编码单元640中的尺寸为8×8的分区、尺寸为8×4的分区642、尺寸为4×8的分区644和尺寸为4×4的分区646。
为了确定构成LCU 610的编码单元的最终深度,视频编码设备100的编码单元确定器120对包括在LCU 610中的与每个深度相应的编码单元执行编码。
随着深度加深,包括具有相同范围和相同尺寸的数据的根据深度的较深层编码单元的数量增加。例如,需要四个与深度2相应的编码单元来覆盖包括在与深度1相应的一个编码单元中的数据。因此,为了根据深度比较对相同数据进行编码的结果,与深度1相应的编码单元和四个与深度2相应的编码单元均被编码。
为了针对深度之中的当前深度执行编码,可沿着分层结构600的水平轴,通过对与当前深度相应的编码单元中的每个预测单元执行编码,来针对当前深度选择最小编码误差。可选地,随着深度沿着分层结构600的垂直轴加深,可通过针对每个深度执行编码,比较根据深度的最小编码误差,来搜索最小编码误差。在编码单元610中的具有最小编码误差的深度和分区可被选为编码单元610的最终深度和分区模式。
图13是用于描述根据各种实施例的在编码单元710和变换单元720之间的关系的示图。
视频编码设备100或视频解码设备200针对每个LCU,根据具有小于或等于LCU的尺寸的编码单元对图像进行编码或解码。可基于不大于相应的编码单元的数据单元,来选择用于在编码期间进行变换的变换单元的尺寸。
例如,在视频编码设备100或视频解码设备200中,如果编码单元710的尺寸是64×64,则可通过使用尺寸为32×32的变换单元720来执行变换。
此外,可通过对小于64×64的尺寸为32×32、16×16、8×8和4×4的每个变换单元执行变换,来对尺寸为64×64的编码单元710的数据进行编码,然后可选择具有最小编码误差的变换单元。
图14是用于描述根据各种实施例的与最终深度相应的编码单元的编码信息的示图。
视频编码设备100的输出器130可对与最终深度相应的每个编码单元的关于分区模式的信息800、关于预测模式的信息810以及关于变换单元的尺寸的信息820进行编码,并将信息800、信息810和信息820作为关于编码模式的信息来发送。
信息800指示关于通过划分当前编码单元的预测单元而获得的分区的模式的信息,其中,所述分区是用于对当前编码单元进行预测编码的数据单元。例如,可将尺寸为2N×2N的当前编码单元CU_0划分成以下分区中的任意一个:尺寸为2N×2N的分区802、尺寸为2N×N的分区804、尺寸为N×2N的分区806以及尺寸为N×N的分区808。这里,关于分区模式的信息800被设置来指示尺寸为2N×N的分区804、尺寸为N×2N的分区806以及尺寸为N×N的分区808中的一个。
信息810指示每个分区的预测模式。例如,信息810可指示对由信息800指示的分区执行的预测编码的模式,即,帧内模式812、帧间模式814或跳过模式816。
信息820指示当对当前编码单元执行变换时所基于的变换单元。例如,变换单元可以是第一帧内变换单元822、第二帧内变换单元824、第一帧间变换单元826或第二帧间变换单元828。
视频解码设备200的图像数据和编码信息提取器220可根据每个较深层编码单元提取并使用用于解码的信息800、810和820。
图15是根据各种实施例的根据深度的较深层编码单元的示图。
划分信息可用来指示深度的改变。划分信息指示当前深度的编码单元是否被划分成更低深度的编码单元。
用于对深度为0且尺寸为2N_0×2N_0的编码单元900进行预测编码的预测单元910可包括以下分区模式的分区:尺寸为2N_0×2N_0的分区模式912、尺寸为2N_0×N_0的分区模式914、尺寸为N_0×2N_0的分区模式916和尺寸为N_0×N_0的分区模式918。图15仅示出了通过对称地划分预测单元910而获得的分区模式912至918,但是分区模式不限于此,并且预测单元910的分区可包括非对称分区、具有预定形状的分区和具有几何形状的分区。
根据每种分区模式,对尺寸为2N_0×2N_0的一个分区、尺寸为2N_0×N_0的两个分区、尺寸为N_0×2N_0的两个分区和尺寸为N_0×N_0的四个分区重复地执行预测编码。可对尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区执行帧内模式和帧间模式下的预测编码。可仅对尺寸为2N_0×2N_0的分区执行跳过模式下的预测编码。
如果在分区模式912至916中的一个分区模式中编码误差最小,则可不将预测单元910划分到更低深度。
如果在分区模式918中编码误差最小,则深度从0改变到1以在操作920中划分分区模式918,并对深度为2且尺寸为N_0×N_0的编码单元930重复地执行编码来搜索最小编码误差。
用于对深度为1且尺寸为2N_1×2N_1(=N_0×N_0)的编码单元930进行预测编码的预测单元940可包括以下分区模式的分区:尺寸为2N_1×2N_1的分区模式942、尺寸为2N_1×N_1的分区模式944、尺寸为N_1×2N_1的分区模式946以及尺寸为N_1×N_1的分区模式948。
如果在分区模式948中编码误差最小,则深度从1改变到2以在操作950中划分分区模式948,并对深度为2且尺寸为N_2×N_2的编码单元960重复执行编码来搜索最小编码误差。
当最大深度是d时,根据每个深度的划分操作可被执行直到深度变成d-1,并且划分信息可被编码直到深度是0到d-2中的一个。换句话说,当编码被执行直到在与d-2的深度相应的编码单元在操作970中被划分之后深度是d-1时,用于对深度为d-1且尺寸为2N_(d-1)×2N_(d-1)的编码单元980进行预测编码的预测单元990可包括以下分区模式的分区:尺寸为2N_(d-1)×2N(d-1)的分区模式992、尺寸为2N_(d-1)×N(d-1)的分区模式994、尺寸为N_(d-1)×2N(d-1)的分区模式996和尺寸为N_(d-1)×N(d-1)的分区模式998。
可对分区模式992至998中的尺寸为2N_(d-1)×2N_(d-1)的一个分区、尺寸为2N_(d-1)×N_(d-1)的两个分区、尺寸为N_(d-1)×2N_(d-1)的两个分区、尺寸为N_(d-1)×N_(d-1)的四个分区重复地执行预测编码,以搜索具有最小编码误差的分区模式。
即使当分区模式998具有最小编码误差时,由于最大深度是d,因此深度为d-1的编码单元CU_(d-1)也不再被划分到更低深度,构成当前LCU 900的编码单元的最终深度被确定为d-1,并且当前LCU 900的分区模式可被确定为N_(d-1)×N(d-1)。此外,由于最大深度是d,并且具有最低深度d-1的SCU 980不再被划分到更低深度,因此不设置SCU 980的划分信息。
数据单元999可以是用于当前LCU的“最小单元”。根据各种实施例的最小单元可以是通过将SCU 980划分成4份而获得的方形数据单元。通过重复地执行编码,视频编码设备100可通过比较根据编码单元900的深度的编码误差来选择具有最小编码误差的深度以确定最终深度,并将相应分区模式和预测模式设置为最终深度的编码模式。
这样,在所有深度1至d中对根据深度的最小编码误差进行比较,并且具有最小编码误差的深度可被确定为最终深度。最终深度、预测单元的分区模式和预测模式可作为关于编码模式的信息被编码并发送。另外,由于编码单元从深度0被划分到最终深度,因此仅最终深度的划分信息被设置为0,并且除了最终深度以外的深度的划分信息被设置为1。
视频解码设备200的图像数据和编码信息提取器220可提取并使用关于编码单元900的最终深度和预测单元的信息,来对分区912进行解码。视频解码设备200可通过使用根据深度的划分信息,将划分信息为0的深度确定为最终深度,并且使用关于相应深度的编码模式的信息来进行解码。
图16至图18是用于描述根据各种实施例的编码单元1010、预测单元1060和变换单元1070之间的关系的示图。
编码单元1010是LCU中的与由视频编码设备100确定的最终深度相应的具有树结构的编码单元。预测单元1060是每个编码单元1010的预测单元的分区,变换单元1070是每个编码单元1010的变换单元。
当在编码单元1010中LCU的深度是0时,编码单元1012和编码单元1054的深度是1,编码单元1014、1016、1018、1028、1050和1052的深度是2,编码单元1020、1022、1024、1026、1030、1032和1048的深度是3,编码单元1040、1042、1044和1046的深度是4。
在预测单元1060中,通过划分编码单元1010中的编码单元来获得一些编码单元1014、1016、1022、1032、1048、1050、1052和1054。换句话说,编码单元1014、1022、1050和1054中的分区模式的尺寸是2N×N,编码单元1016、1048和1052中的分区模式的尺寸是N×2N,编码单元1032的分区模式的尺寸是N×N。编码单元1010的预测单元和分区小于或等于每个编码单元。
在小于编码单元1052的数据单元中的变换单元1070中,对编码单元1052的图像数据执行变换或逆变换。另外,在尺寸和形状方面,变换单元1070中的编码单元1014、1016、1022、1032、1048、1050和1052不同于预测单元1060中的编码单元1014、1016、1022、1032、1048、1050和1052。换句话说,视频编码设备100和视频解码设备200可对同一编码单元中的数据单元独立地执行帧内预测、运动估计、运动补偿、变换和逆变换。
因此,对LCU的每个区域中的具有分层结构的每个编码单元递归地执行编码来确定最优编码单元,从而可获得具有递归树结构的编码单元。编码信息可包括关于编码单元的划分信息、关于分区模式的信息、关于预测模式的信息和关于变换单元的尺寸的信息。表1示出可由视频编码设备100和视频解码设备200设置的编码信息。
[表1]
视频编码设备100的输出器130可输出关于具有树结构的编码单元的编码信息,视频解码设备200的图像数据和编码信息提取器220可从接收到的比特流提取关于具有树结构的编码单元的编码信息。
划分信息指示是否将当前编码单元划分成更低深度的编码单元。如果当前深度d的划分信息是0,则当前编码单元不再被划分成更低深度的深度是最终深度,从而可针对所述最终深度来定义关于分区模式、预测模式和变换单元的尺寸的信息。如果当前编码单元根据划分信息被进一步划分,则对更低深度的四个划分编码单元独立地执行编码。
预测模式可以是帧内模式、帧间模式和跳过模式中的一种。可针对所有分区模式定义帧内模式和帧间模式,仅针对尺寸为2N×2N的分区模式定义跳过模式。
关于分区模式的信息可指示通过对称地划分预测单元的高度或宽度而获得的尺寸为2N×2N、2N×N、N×2N和N×N的对称分区模式,以及通过非对称地划分预测单元的高度或宽度而获得的尺寸为2N×nU、2N×nD、nL×2N和nR×2N的非对称分区模式。可通过按1:3和3:1划分预测单元的高度来分别获得尺寸为2N×nU和2N×nD的非对称分区模式,可通过按1:3和3:1划分预测单元的宽度来分别获得尺寸为nL×2N和nR×2N的非对称分区模式。
可将变换单元的尺寸设置成帧内模式下的两种类型和帧间模式下的两种类型。换句话说,如果变换单元的划分信息是0,则变换单元的尺寸可以是2N×2N,即当前编码单元的尺寸。如果变换单元的划分信息是1,则可通过对当前编码单元进行划分来获得变换单元。另外,如果尺寸为2N×2N的当前编码单元的分区模式是对称分区模式,则变换单元的尺寸可以是N×N,如果当前编码单元的分区模式是非对称分区模式,则变换单元的尺寸可以是N/2×N/2。
关于具有树结构的编码单元的编码信息可包括与最终深度相应的编码单元、预测单元和最小单元中的至少一个。与最终深度相应的编码单元可包括包含相同编码信息的预测单元和最小单元中的至少一个。
因此,通过比较邻近数据单元的编码信息来确定邻近数据单元是否被包括在与最终深度相应的同一编码单元中。另外,通过使用数据单元的编码信息来确定与最终深度相应的相应编码单元,并且因此可确定LCU中的最终深度的分布。
因此,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则可直接参考并使用与当前编码单元邻近的较深层编码单元中的数据单元的编码信息。
可选地,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则使用数据单元的编码信息来搜索与当前编码单元邻近的数据单元,并可参考搜索到的邻近编码单元以对当前编码单元进行预测。
图19是用于描述根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
LCU 1300包括最终深度的编码单元1302、1304、1306、1312、1314、1316和1318。这里,由于编码单元1318是最终深度的编码单元,因此划分信息可以被设置成0。可将关于尺寸为2N×2N的编码单元1318的分区模式的信息设置成以下分区模式中的一种:尺寸为2N×2N的分区模式1322、尺寸为2N×N的分区模式1324、尺寸为N×2N的分区模式1326、尺寸为N×N的分区模式1328、尺寸为2N×nU的分区模式1332、尺寸为2N×nD的分区模式1334、尺寸为nL×2N的分区模式1336以及尺寸为nR×2N的分区模式1338。
变换单元的划分信息(TU尺寸标记)是一类变换索引。与变换索引相应的变换单元的尺寸可根据编码单元的预测单元类型或分区模式而改变。
例如,当分区模式被设置成对称(即,分区模式1322、1324、1326或1328)时,如果变换单元的TU尺寸标记是0,则设置尺寸为2N×2N的变换单元1342,如果TU尺寸标记是1,则设置尺寸为N×N的变换单元1344。
当分区模式被设置成非对称(即,分区模式1332、1334、1336或1338)时,如果TU尺寸标记是0,则设置尺寸为2N×2N的变换单元1352,如果TU尺寸标记是1,则设置尺寸为N/2×N/2的变换单元1354。
参照图19,TU尺寸标记是具有值0或1的标记,但是TU尺寸标记不限于1比特,在TU尺寸标记从0增加的同时,变换单元可被分层划分以具有树结构。变换单元的划分信息(TU尺寸标记)可以是变换索引的示例。
在这种情况下,根据各种实施例,可通过使用变换单元的TU尺寸标记以及变换单元的最大尺寸和最小尺寸来表示实际上已使用的变换单元的尺寸。视频编码设备100能够对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记进行编码。对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记进行编码的结果可被插入SPS。视频解码设备200可通过使用最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记来对视频进行解码。
例如,(a)如果当前编码单元的尺寸是64×64并且最大变换单元尺寸是32×32,则(a-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32,(a-2)当TU尺寸标记为1时,变换单元的尺寸可以是16×16,(a-3)当TU尺寸标记为2时,变换单元的尺寸可以是8×8。
作为另一示例,(b)如果当前编码单元的尺寸是32×32并且最小变换单元尺寸是32×32,则(b-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32。这里,由于变换单元的尺寸不能够小于32×32,因此TU尺寸标记不能够被设置为除了0以外的值。
作为另一示例,(c)如果当前编码单元的尺寸是64×64并且最大TU尺寸标记为1,则TU尺寸标记可以是0或1。这里,TU尺寸标记不能够被设置为除了0或1以外的值。
因此,如果定义最大TU尺寸标记为“MaxTransformSizeIndex”,最小变换单元尺寸为“MinTransformSize”,并且当TU尺寸标记为0时变换单元尺寸为“RootTuSize”,则可通过等式(1)来定义可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”:
CurrMinTuSize=max(MinTransformSize,RootTuSize/(2^MaxTransformSizeIndex))…(1)
与可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”相比,当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可指示可在系统中选择的最大变换单元尺寸。在等式(1)中,“RootTuSize/(2∧MaxTransformSizeIndex)”指示当TU尺寸标记为0时的变换单元尺寸“RootTuSize”被划分了与最大TU尺寸标记相应的次数时的变换单元尺寸,“MinTransformSize”指示最小变换尺寸。因此,“RootTuSize/(2^MaxTransformSizeIndex)”和“MinTransformSize”中较小的值可以是可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”。
根据各种实施例,最大变换单元尺寸RootTuSize可根据预测模式的类型而改变。
例如,如果当前预测模式是帧间模式,则可通过使用以下的等式(2)来确定“RootTuSize”。在等式(2)中,“MaxTransformSize”指示最大变换单元尺寸,“PUSize”指示当前预测单元尺寸:
RootTuSize=min(MaxTransformSize,PUSize)……(2)
也就是说,如果当前预测模式是帧间模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前预测单元尺寸中较小的值。
如果当前分区单元的预测模式是帧内模式,则可通过使用以下的等式(3)来确定“RootTuSize”。在等式(3)中,“PartitionSize”指示当前分区单元的尺寸:
RootTuSize=min(MaxTransformSize,PartitionSize)……(3)
也就是说,如果当前预测模式是帧内模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前分区单元的尺寸之中较小的值。
然而,根据分区单元中的预测模式的类型而改变的当前最大变换单元尺寸“RootTuSize”仅是示例,实施例不限于此。
根据参照图7至图19描述的基于具有树结构的编码单元的视频编码方法,针对树结构的每个编码单元对空间域的图像数据进行编码。根据基于具有树结构的编码单元的视频解码方法,针对每个LCU执行解码以重建空间域的图像数据。因此,可重建画面和视频(即,画面序列)。重建后的视频可通过再现设备被再现,可被存储在存储介质中,或者可通过网络被发送。
实施例可被编写为计算机程序,并可在使用计算机可读记录介质执行程序的通用数字计算机中被实现。计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD)。
为了便于解释,参照图1a至图19描述的视频编码设备(包括层间视频编码设备10、视频编码设备100或图像编码器400)将被称为“根据各种实施例的视频编码设备”。另外,以上参照图1a至图19描述的视频解码设备(包括层间视频解码设备20、视频解码设备200或图像解码器500)将被称为“根据各种实施例的视频解码设备”。
现在将详细描述根据各种实施例的存储程序的计算机可读记录介质(例如,盘26000)。
图20是根据各种实施例的存储程序的盘26000的物理结构的示图。作为存储介质的盘26000可以是硬盘驱动器、致密盘只读存储器(CD-ROM)盘、蓝光盘或数字多功能盘(DVD)。盘26000包括多个同心磁道Tf,每个同心磁道Tf沿盘26000的圆周方向被划分成特定数量的扇区Se。在盘26000的特定区域中,可分配并存储执行如上所描述的量化参数确定方法、视频编码方法和视频解码方法的程序。
现在将参照图22来描述使用存储以下程序的存储介质来实现的计算机系统,其中,所述程序用于执行如上所述的视频编码方法和视频解码方法。
图21是通过使用盘26000来记录并读取程序的盘驱动器26800的示图。计算机系统26700可经由盘驱动器26800将执行根据各种实施例的视频编码方法和视频解码方法中的至少一个的程序存储在盘26000中。为了在计算机系统26700中运行存储在盘26000中的程序,可通过使用盘驱动器26800从盘26000读取程序并将程序发送到计算机系统26700。
执行根据各种实施例的视频编码方法和视频解码方法中的至少一个的程序不仅可被存储在图20或图21中示出的盘26000中,还可被存储在存储卡、ROM卡带或固态驱动器(SSD)中。
以下将描述应用了以上所描述的视频编码方法和视频解码方法的系统。
图22是用于提供内容分发服务的内容供应系统11000的整体结构的示图。将通信系统的服务区域划分成预定尺寸的小区,并将无线基站11700、11800、11900和12000分别安装在这些小区中。
内容供应系统11000包括多个独立装置。例如,诸如计算机12100、个人数字助理(PDA)12200、视频相机12300和移动电话12500的多个独立装置经由互联网服务提供器11200、通信网络11400和无线基站11700、11800、11900和12000连接到互联网11100。
然而,内容供应系统11000不限于如图24中所示,并且装置可选择性地被连接到内容供应系统11000。多个独立装置可不经由无线基站11700、11800、11900和12000而直接连接到通信网络11400。
视频相机12300是能够捕捉视频图像的成像装置,例如,数字视频相机。移动电话12500可利用各种协议(例如,个人数字通信(PDC)、码分多址(CDMA)、宽带码分多址(W-CDMA)、全球移动通信系统(GSM)和个人手持电话系统(PHS))中的至少一种通信方法。
视频相机12300可经由无线基站11900和通信网络11400连接到流服务器11300。流服务器11300允许经由视频相机12300从用户接收到的内容经由实时广播被流传输。可使用视频相机12300或流服务器11300来对从视频相机12300接收到的内容进行编码。通过视频相机12300捕捉到的视频数据可经由计算机12100被发送到流服务器11300。
通过相机12600捕捉到的视频数据也可经由计算机12100被发送到流服务器11300。与数码相机类似,相机12600是能够捕捉静止图像和视频图像两者的成像装置。可使用相机12600或计算机12100对通过相机12600捕捉到的视频数据进行编码。可将对视频执行编码和解码的软件存储在可由计算机12100访问的计算机可读记录介质(例如,CD-ROM盘、软盘、硬盘驱动器、SSD或存储卡)中。
如果视频数据通过内置在移动电话12500中的相机被捕捉到,则可从移动电话12500接收视频数据。
还可通过安装在视频相机12300、移动电话12500或相机12600中的大规模集成电路(LSI)系统来对视频数据进行编码。
内容供应系统1100可对由用户使用视频相机12300、相机12600、移动电话12500或另一成像装置所记录的内容数据(例如,在音乐会期间记录的内容)进行编码,并将编码后的内容数据发送到流服务器11300。流服务器11300可将编码后的内容数据以流内容的形式发送到请求内容数据的其它客户端。
客户端是能够对编码后的内容数据进行解码的装置,例如,计算机12100、PDA12200、视频相机12300或移动电话12500。因此,内容供应系统11000允许客户端接收并再现编码后的内容数据。此外,内容供应系统11000允许客户端实时接收编码后的内容数据并对编码后的内容数据进行解码和再现,从而能够进行个人广播。
包括在内容供应系统11000中的多个独立装置的编码和解码操作可类似于根据各种实施例的视频编码设备和视频解码设备的编码和解码操作。
现在将参照图23和图24更加详细地描述包括在根据各种实施例的内容供应系统11000中的移动电话12500。
图23示出根据各种实施例的应用视频编码方法和视频解码方法的移动电话12500的外部结构。移动电话12500可以是智能电话,所述智能电话的功能不受限,并且所述智能电话的大部分功能可被改变或扩展。
移动电话12500包括可与图22的无线基站12000交换射频(RF)信号的内部天线12510,并包括用于显示由相机12530捕捉到的图像或经由天线12510接收到的和解码的图像的显示屏12520(例如,液晶显示器(LCD)或有机发光二极管(OLED)屏幕)。移动电话12500包括包含有控制按钮和触摸面板的操作面板12540。如果显示屏12520是触摸屏,则操作面板12540还包括显示屏12520的触摸感测面板。移动电话12500包括用于输出语音和声音的扬声器12580或另一类型声音输出器、以及用于输入语音和声音的麦克风12550或另一类型声音输入器。移动电话12500还包括用于捕捉视频和静止图像的相机12530,诸如电荷耦合器件(CCD)相机。移动电话12500还可包括:存储介质12570,用于存储通过相机12530捕捉到的、经由电子邮件接收到的、或根据各种方式获得的编码/解码数据(例如,视频或静止图像);插槽12560,存储介质12570经由插槽12560被装入移动电话12500中。存储介质12570可以是闪存,例如,包括在塑料壳中的安全数字(SD)卡或电可擦可编程只读存储器(EEPROM)。
图24示出根据各种实施例的移动电话12500的内部结构。为了系统地控制包括显示屏12520和操作面板12540的移动电话12500的部件,供电电路12700、操作输入控制器12640、图像编码器12720、相机接口12630、LCD控制器12620、图像解码器12690、复用器/解复用器12680、记录器/读取器12670、调制器/解调器12660以及声音处理器12650经由同步总线12730被连接到中央控制器12710。
如果用户操作电源按钮,并从“电源关闭”状态设置为“电源开启”状态,则供电电路12700从电池组向移动电话12500的所有部件供电,从而将移动电话12500设置为操作模式。
中央控制器12710包括中央处理器(CPU)、ROM和RAM。
在移动电话12500将通信数据发送到外部的同时,在中央控制器12710的控制下,由移动电话12500产生数字信号。例如,声音处理器12650可产生数字声音信号,图像编码器12720可产生数字图像信号,并且消息的文本数据可经由操作面板12540和操作输入控制器12640被产生。当在中央控制器12710的控制下数字信号被发送到调制器/解调器12660时,调制器/解调器12660对数字信号的频带进行调制,并且通信电路12610对频带被调制的数字声音信号执行数模转换(DAC)和频率转换。从通信电路12610输出的发送信号可经由天线12510被发送到语音通信基站或无线基站12000。
例如,当移动电话12500处于通话模式时,在中央控制器12710的控制下,经由麦克风12550获得的声音信号通过声音处理器12650被变换成数字声音信号。数字声音信号可经由调制器/解调器12660和通信电路12610被变换成发送信号,并可经由天线12510被发送。
当文本消息(例如,电子邮件)在数据通信模式下被发送时,文本消息的文本数据经由操作面板12540被输入,并经由操作输入控制器12640被发送到中央控制器12610。在中央控制器12610的控制下,文本数据经由调制器/解调器12660和通信电路12610被变换成发送信号,并经由天线12510被发送到无线基站12000。
为了在数据通信模式下发送图像数据,由相机12530捕捉到的图像数据经由相机接口12630被提供给图像编码器12720。捕捉到的图像数据可经由相机接口12630和LCD控制器12620被直接显示在显示屏12520上。
图像编码器12720的结构可与以上描述的根据各种实施例的视频编码设备的结构相应。图像编码器12720可基于上述根据各种实施例的视频编码方法,将从相机12530接收到的图像数据变换为压缩和编码后的图像数据,并然后将编码后的图像数据输出到复用器/解复用器12680。在相机12530的记录操作期间,由移动电话12500的麦克风12550获得的声音信号可经由声音处理器12650被变换成数字声音数据,并且数字声音数据可被发送到复用器/解复用器12680。
复用器/解复用器12680对从图像编码器12720接收到的编码后的图像数据与从声音处理器12650接收到的声音数据一起进行复用。对数据进行复用的结果可经由调制器/解调器12660和通信电路12610被变换成发送信号,然后可经由天线12510被发送。
当移动电话12500从外部接收通信数据时,可对经由天线12510接收到的信号执行频率恢复和ADC以将信号变换成数字信号。调制器/解调器12660对数字信号的频带进行调制。根据频带被调制后的数字信号的类型将所述数字信号发送到视频解码单元12690、声音处理器12650或LCD控制器12620。
在通话模式下,移动电话12500对经由天线12510接收到的信号进行放大,并通过对放大后的信号执行频率转换和ADC来获得数字声音信号。在中央控制器12710的控制下,接收到的数字声音信号经由调制器/解调器12660和声音处理器12650被变换成模拟声音信号,并且模拟声音信号经由扬声器12580被输出。
当在数据通信模式下,接收在互联网网站上访问的视频文件的数据时,经由调制器/解调器12660将经由天线12510从无线基站12000接收到的信号输出为复用数据,并且复用数据被发送到复用器/解复用器12680。
为了对经由天线12510接收到的复用数据进行解码,复用器/解复用器12680将复用数据解复用成编码后的视频数据流和编码后的音频数据流。经由同步总线12730,编码后的视频数据流和编码后的音频数据流分别被提供给视频解码单元12690和声音处理器12650。
图像解码器12690的结构可与上述的根据各种实施例的视频解码设备的结构相应。图像解码单元12690可通过使用上述根据各种实施例的视频解码方法,对编码后的视频数据进行解码来获得重建的视频数据,并经由LCD控制器12620将重建的视频数据提供给显示屏12520。
因此,可将在互联网网站上访问的视频文件的数据显示在显示屏12520上。同时,声音处理器12650可将音频数据变换成模拟声音信号,并将模拟声音信号提供给扬声器12580。因此,也可经由扬声器12580再现在互联网网站上访问的视频文件中包含的音频数据。
移动电话12500或另一类型的通信终端可以是包括根据各种实施例的视频编码设备和视频解码设备两者的收发终端,可以是仅包括视频编码设备的收发终端,或者可以是仅包括视频解码设备的收发终端。
根据各种实施例的通信系统不限于以上参照图24描述的通信系统。例如,图25示出根据各种实施例的采用通信系统的数字广播系统。图25的数字广播系统可通过使用根据各种实施例的视频编码设备和视频解码设备来接收经由卫星或地面网络发送的数字广播。
具体地,广播站12890通过使用无线电波将视频数据流发送到通信卫星或广播卫星12900。广播卫星12900发送广播信号,广播信号经由家用天线12860被发送到卫星广播接收器。在每个房屋中,可通过TV接收器12810、机顶盒12870或另一装置对编码后的视频流进行解码和再现。
当根据各种实施例的视频解码设备被实现在再现设备12830中时,再现设备12830可对记录在存储介质12820(诸如盘或存储卡)上的编码后的视频流进行解析和解码以重建数字信号。因此,可在例如监视器12840上再现重建的视频信号。
在被连接到用于卫星/地面广播的天线12860或用于接收有线电视(TV)广播的线缆天线12850的机顶盒12870中,可安装根据各种实施例的视频解码设备。从机顶盒12870输出的数据也可被再现在TV监视器12880上。
如另一示例,可将根据各种实施例的视频解码设备安装在TV接收器12810中,而不是机顶盒12870中。
具有适当天线12910的汽车12920可接收从卫星12900或图22的无线基站11700发送的信号。可在安装在汽车12920中的汽车导航系统12930的显示屏上再现解码后的视频。
视频信号可由根据各种实施例的视频编码设备来编码,然后可被存储在存储介质中。具体地,可由DVD记录器将图像信号存储在DVD盘12960中,或可由硬盘记录器12950将图像信号存储在硬盘中。如另一示例,可将视频信号存储在SD卡12970中。如果硬盘记录器12950包括根据各种实施例的视频解码设备,则记录在DVD盘12960、SD卡12970或另一存储介质上的视频信号可被再现于TV监视器12880上。
汽车导航系统12930可不包括图26的相机12530、图26的相机接口12630和图像编码器12720。例如,计算机12100和TV接收器12810可不包括相机12530、相机接口12630和图像编码器12720。
图26是示出根据各种实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
云计算系统可包括云计算服务器14000、用户数据库(DB)14100、多个计算资源14200和用户终端。
响应于来自用户终端的请求,云计算系统经由数据通信网络(例如,互联网)提供多个计算资源14200的点播外包服务。在云计算环境下,服务提供商通过使用虚拟技术组合位于不同的物理位置的数据中心处的计算资源,来为用户提供想要的服务。服务用户不必将计算资源(例如,应用、存储器、操作系统(OS)和安全)安装在他/她拥有的终端中以使用它们,但可在想要的时间点在通过虚拟技术产生的虚拟空间中从服务中选择和使用想要的服务。
被指定的服务用户的用户终端经由包括互联网和移动通信网络的数据通信网络被连接到云计算服务器14100。可从云计算服务器14100向用户终端提供云计算服务,特别是视频再现服务。用户终端可以是能够被连接到互联网的各种类型的电子装置,例如,桌上型PC 14300、智能TV 14400、智能电话14500、笔记本计算机14600、便携式多媒体播放器(PMP)14700、平板PC 14800等。
云计算服务器14100可组合分布在云网络中的多个计算资源14200,并向用户终端提供组合的结果。所述多个计算资源14200可包括各种数据服务,并可包括从用户终端上传的数据。如上所描述的,云计算服务器14100可通过根据虚拟技术组合分布在不同区域中的视频数据库来向用户终端提供想要的服务。
将关于已经订购云计算服务的用户的用户信息存储在用户DB 14100中。用户信息可包括用户的注册信息、地址、姓名和个人信用信息。用户信息还可包括视频的索引。这里,所述索引可包括已经被再现的视频的列表、正在被再现的视频的列表、之前被再现的视频的暂停点等。
可在用户装置之间共享存储在用户DB 14100中的关于视频的信息。例如,当响应于来自笔记本计算机14600的请求将视频服务提供给笔记本计算机14600时,视频服务的再现历史被存储在用户DB 14100中。当从智能电话14500接收到用于再现此视频服务的请求时,云计算服务器14000基于用户DB 14100搜索并再现此视频服务。当智能电话14500从云计算服务器14000接收到视频数据流时,通过对视频数据流进行解码来再现视频的处理与以上参照图24描述的移动电话12500的操作类似。
云计算服务器14000可参考存储在用户DB 14100中的想要的视频服务的再现历史。例如,云计算服务器14000从用户终端接收用于再现存储在用户DB 14100中的视频的请求。如果此视频之前被再现过,则由云计算服务器14000执行的对此视频进行流传输的方法可根据来自用户终端的请求(即,根据是将从视频的起点还是视频的暂停点来再现视频)而不同。例如,如果用户终端请求从视频的起点开始再现视频,则云计算服务器14000将从视频的第一帧开始的视频的流数据发送到用户终端。如果用户终端请求从视频的暂停点开始再现视频,则云计算服务器14000将从与暂停点相应的帧开始的视频的流数据发送到用户终端。
在此情况下,用户终端可包括如以上参照图1a至图20描述的视频解码设备。如另一示例,用户终端可包括如以上参照图1a至图20描述的视频编码设备。可选地,用户终端可包括如以上参照图1a至图19描述的视频解码设备和视频编码设备两者。
以上已经参照图20至图26描述了以上参照图1a至图19描述的根据各种实施例的视频编码方法、视频解码方法、视频编码设备和视频解码设备的各种应用。然而,根据各种实施例的将视频编码方法和视频解码方法存储在存储介质中的方法,或者将视频编码设备和视频解码设备实现在装置中的方法不限于以上参照图20至图26描述的实施例。
应理解,这里描述的示例性实施例应该被解释为是说明性意义,而不是为了限制的目的。每个实施例内的特征和方面的描述应该通常被视为可用于其它实施例中的其它类似的特征或方面。
虽然已参照附图描述了本发明的各种实施例,但是本领域的普通技术人员将理解,在不脱离由权利要求书限定的本发明的精神和范围的情况下,可在其中进行形式和细节上的各种改变。

Claims (10)

1.一种层间视频解码方法,包括:
基于从比特流获得的第一层图像的编码信息对第一层图像进行重建;
基于从比特流获得的第二层图像的划分信息,从第二层图像的最大编码单元获得第二层图像的一个或更多个编码单元;
从所述一个或更多个编码单元之一获得一个或更多个预测单元;
基于关于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定使用三维3D预定编码工具,并基于确定使用所述3D预定编码工具来对当前预测单元进行解码,
其中,所述3D预定编码工具包括关于视点合成预测VSP的工具,
其中,当前预测单元在第二层图像的所述一个或更多个预测单元之中,
其中,所述尺寸信息指示当前预测单元的尺寸,
其中,所述颜色深度信息指示第二层图像是彩色图像还是深度图像。
2.如权利要求1所述的层间视频解码方法,其中,对当前预测单元进行解码的步骤包括:当预测单元的尺寸与编码单元的尺寸相同时,使用所述3D预定编码工具来对当前预测单元进行解码。
3.如权利要求1所述的层间视频解码方法,其中,所述3D预定编码工具还包括关于运动参数继承MPI的工具,
其中,在基于确定使用所述3D预定编码工具来对当前预测单元进行解码的操作中,当预测单元的尺寸不是8×4和4×8时,在合并模式下使用所述3D预定编码工具之中的关于运动参数继承MPI的工具。
4.如权利要求1所述的层间视频解码方法,其中,获得所述一个或更多个预测单元的步骤包括:基于从比特流获得的编码单元的预测模式信息或分区模式信息中的至少一个来从所述一个或更多个编码单元之一获得所述一个或更多个预测单元,并确定编码单元的结构。
5.一种层间视频编码方法,包括:
产生包括通过对第一层图像进行编码而产生的编码信息的比特流;
从第二层图像的最大编码单元获得第二层图像的一个或更多个编码单元;
从第二层图像的所述一个或更多个编码单元之一获得一个或更多个预测单元;
基于关于当前预测单元的预测模式、当前预测单元的尺寸以及第二层图像是彩色图像还是深度图像中的至少一个来确定使用3D预定编码工具,并基于确定使用所述3D预定编码工具来对当前预测单元进行编码,
其中,所述3D预定编码工具包括关于视点合成预测VSP的工具,
其中,当前预测单元在第二层图像的所述一个或更多个预测单元之中。
6.如权利要求5所述的层间视频编码方法,其中,对当前预测单元进行编码的步骤包括:当预测单元的尺寸与编码单元的尺寸相同时,使用所述3D预定编码工具来对当前预测单元进行编码。
7.如权利要求5所述的层间视频编码方法,其中,获得所述一个或更多个预测单元的步骤包括:基于编码单元的预测模式或分区模式中的至少一个来从所述一个或更多个编码单元之一获得所述一个或更多个预测单元,并确定编码单元的结构。
8.一种层间视频解码设备,包括:
第一层图像解码器,用于基于从比特流获得的第一层图像的编码信息对第一层图像进行重建;
第二层图像解码器,用于基于从比特流获得的第二层图像的划分信息,从第二层图像的最大编码单元获得第二层图像的一个或更多个编码单元,从所述一个或更多个编码单元之一获得一个或更多个预测单元,基于关于当前预测单元的预测模式、尺寸信息和颜色深度信息中的至少一个来确定使用三维3D预定编码工具,并基于确定使用所述3D预定编码工具来使用所述3D预定编码工具对当前预测单元进行解码,
其中,所述3D预定编码工具包括关于视点合成预测VSP的工具,
其中,当前预测单元在第二层图像的所述一个或更多个预测单元之中,
其中,所述尺寸信息指示当前预测单元的尺寸,
其中,所述颜色深度信息指示第二层图像是彩色图像还是深度图像。
9.一种层间视频编码设备,包括:
第一层编码器,用于产生包括通过对第一层图像进行编码而产生的编码信息的比特流;
第二层图像编码器,用于从第二层图像的最大编码单元获得第二层图像的一个或更多个编码单元,从所述一个或更多个编码单元之一获得一个或更多个预测单元,基于关于当前预测单元的预测模式、当前预测单元的尺寸以及第二层图像是彩色图像还是深度图像中的至少一个来确定使用3D预定编码工具,并基于确定使用所述3D预定编码工具来对当前预测单元进行编码,
其中,所述3D预定编码工具包括关于视点合成预测VSP的工具,
其中,当前预测单元在第二层图像的所述一个或更多个预测单元之中。
10.一种记录有计算机程序的非暂时性计算机可读记录介质,其中,所述计算机程序用于执行如权利要求1所述的层间视频解码方法。
CN201480032541.0A 2013-04-05 2014-04-07 视频编码方法及其设备以及视频解码方法及其设备 Expired - Fee Related CN105308966B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361808749P 2013-04-05 2013-04-05
US61/808,749 2013-04-05
PCT/KR2014/003006 WO2014163461A1 (ko) 2013-04-05 2014-04-07 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치

Publications (2)

Publication Number Publication Date
CN105308966A CN105308966A (zh) 2016-02-03
CN105308966B true CN105308966B (zh) 2019-01-04

Family

ID=51658675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480032541.0A Expired - Fee Related CN105308966B (zh) 2013-04-05 2014-04-07 视频编码方法及其设备以及视频解码方法及其设备

Country Status (5)

Country Link
US (1) US10728565B2 (zh)
EP (1) EP2966866A4 (zh)
KR (1) KR102290420B1 (zh)
CN (1) CN105308966B (zh)
WO (1) WO2014163461A1 (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
US11438609B2 (en) 2013-04-08 2022-09-06 Qualcomm Incorporated Inter-layer picture signaling and related processes
US10469864B2 (en) 2014-11-27 2019-11-05 Kt Corporation Method and apparatus for video signal coding using current picture reference flag
WO2016085229A1 (ko) 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10469873B2 (en) * 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
JP2019514308A (ja) 2016-05-10 2019-05-30 サムスン エレクトロニクス カンパニー リミテッド 映像を符号化/復号する方法及びその装置
CN108111833A (zh) * 2016-11-24 2018-06-01 阿里巴巴集团控股有限公司 用于立体视频编解码的方法、装置及系统
EP3586315A4 (en) * 2017-03-28 2020-04-22 Samsung Electronics Co., Ltd. METHOD AND DEVICE FOR IMAGE DISPLAY BASED ON USER MOVEMENT INFORMATION
KR102354628B1 (ko) * 2017-03-31 2022-01-25 한국전자통신연구원 부호화 트리 유닛 및 부호화 유닛의 처리를 수행하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
KR102456161B1 (ko) * 2017-07-06 2022-10-18 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
FR3072850B1 (fr) * 2017-10-19 2021-06-04 Tdf Procedes de codage et de decodage d'un flux de donnees representatif d'une video omnidirectionnelle
CN112040229B (zh) * 2018-09-05 2021-06-29 华为技术有限公司 视频解码方法、视频解码器及计算机可读存储介质
US10881956B2 (en) * 2018-12-28 2021-01-05 Intel Corporation 3D renderer to video encoder pipeline for improved visual quality and low latency
US11259055B2 (en) * 2020-07-10 2022-02-22 Tencent America LLC Extended maximum coding unit size
CN117280690A (zh) * 2021-04-02 2023-12-22 抖音视界有限公司 对视频块的分割的限制

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101069430A (zh) * 2005-04-01 2007-11-07 庆熙大学校产学协力团 分级多视角图像编码和解码装置及方法
CN101415114A (zh) * 2007-10-17 2009-04-22 深圳华为通信技术有限公司 视频编解码方法和装置以及视频编解码器
CN102055982A (zh) * 2011-01-13 2011-05-11 浙江大学 三维视频编解码方法及装置
CN102144391A (zh) * 2008-09-05 2011-08-03 微软公司 用于层间残余视频编码和解码的跳过模式
CN102630026A (zh) * 2011-02-03 2012-08-08 美国博通公司 一种处理视频的方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1578477B (zh) 2003-07-16 2011-05-04 三星电子株式会社 用于色彩图像的视频编码/解码装置和方法
KR100723403B1 (ko) 2005-02-28 2007-05-30 삼성전자주식회사 컬러 성분간 단일 부호화 모드를 이용한 예측영상 생성 방법 및 장치와, 그를 이용한 영상 및 비디오 부호화/복호화방법 및 장치
US8446956B2 (en) 2006-01-05 2013-05-21 Thomson Licensing Inter-layer motion prediction method using resampling
JP4987322B2 (ja) 2006-02-28 2012-07-25 株式会社東芝 動画像復号装置及び動画像復号方法
JP4649347B2 (ja) 2006-02-28 2011-03-09 株式会社東芝 情報処理装置及び情報処理装置の動画像復号方法
KR100947447B1 (ko) * 2008-05-26 2010-03-11 한국전자통신연구원 다시점 동영상 부호화에서 고속 모드 결정 방법 및 장치
KR20090129926A (ko) * 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101457418B1 (ko) * 2009-10-23 2014-11-04 삼성전자주식회사 계층적 부호화 단위의 크기에 따른 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
JP4823349B2 (ja) 2009-11-11 2011-11-24 パナソニック株式会社 三次元映像復号装置及び三次元映像復号方法
KR101349405B1 (ko) * 2010-08-23 2014-01-10 한국전자통신연구원 스케일러블 비디오 코덱의 압축 효율 향상을 위한 템플릿 매칭 방법 및 장치
US20120050494A1 (en) 2010-08-27 2012-03-01 Xuemin Chen Method and system for creating a view-angle dependent 2d and/or 3d image/video utilizing a monoscopic video camera array
CN104796711B (zh) * 2011-01-06 2018-03-09 三星电子株式会社 视频的编码方法和装置及视频的解码方法和装置
US9210442B2 (en) * 2011-01-12 2015-12-08 Google Technology Holdings LLC Efficient transform unit representation
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US10205961B2 (en) * 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
US9532057B2 (en) * 2012-12-28 2016-12-27 Qualcomm Incorporated Inter-layer prediction using sample-adaptive adjustments for bit depth scalable video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101069430A (zh) * 2005-04-01 2007-11-07 庆熙大学校产学协力团 分级多视角图像编码和解码装置及方法
CN101415114A (zh) * 2007-10-17 2009-04-22 深圳华为通信技术有限公司 视频编解码方法和装置以及视频编解码器
CN102144391A (zh) * 2008-09-05 2011-08-03 微软公司 用于层间残余视频编码和解码的跳过模式
CN102055982A (zh) * 2011-01-13 2011-05-11 浙江大学 三维视频编解码方法及装置
CN102630026A (zh) * 2011-02-03 2012-08-08 美国博通公司 一种处理视频的方法及系统

Also Published As

Publication number Publication date
EP2966866A4 (en) 2016-10-26
KR20140122196A (ko) 2014-10-17
WO2014163461A1 (ko) 2014-10-09
US20160037178A1 (en) 2016-02-04
EP2966866A1 (en) 2016-01-13
CN105308966A (zh) 2016-02-03
KR102290420B1 (ko) 2021-08-17
US10728565B2 (en) 2020-07-28

Similar Documents

Publication Publication Date Title
CN105308966B (zh) 视频编码方法及其设备以及视频解码方法及其设备
CN105532001B (zh) 用于使用基于深度的视差矢量对视频进行层间编码方法以及解码方法和设备
CN106063271B (zh) 用于执行基于子块的预测的层间视频解码方法及其设备以及用于执行基于子块的预测的层间视频编码方法及其设备
CN104902273B (zh) 视频解码设备
CN105103552B (zh) 用于补偿亮度差的对层间视频进行编码的方法及其装置以及用于对视频进行解码的方法及其装置
CN105144713B (zh) 用于解码器设置的对视频进行编码的方法及其装置以及基于解码器设置对视频进行解码的方法及其装置
CN104365101B (zh) 用于确定用于帧间预测的参考图像的方法及设备
CN105340271B (zh) 用于随机访问的多层视频编码方法及其装置以及用于随机访问的多层视频解码方法及其装置
CN105556972B (zh) 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法
CN105556970B (zh) 使用修正矢量推导的视频编码方法及其设备、视频解码方法及其设备
CN104365104B (zh) 用于多视点视频编码和解码的方法和设备
CN105594212B (zh) 用于确定运动矢量的方法及其设备
CN105532004B (zh) 层间视频解码方法及设备
CN106031175B (zh) 使用亮度补偿的层间视频编码方法及其装置、以及视频解码方法及其装置
CN107409214A (zh) 用于对层间视频进行解码的方法和设备以及用于对层间视频进行编码的方法和设备
CN106464908A (zh) 用于传输深度图像的预测模式以供层间视频编码和解码的方法和装置
CN106105210B (zh) 管理用于对多层视频进行编码和解码的缓冲器的方法和设备
CN105264894A (zh) 针对层间解码和编码方法以及设备的确定帧间预测候选的方法
CN106416256B (zh) 用于对深度图像进行编码或解码的方法和设备
CN106464889A (zh) 执行基于子块的预测的层间视频解码方法和层间视频编码方法及其设备
CN105325002A (zh) 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备
CN105340275A (zh) 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备
CN107005711A (zh) 逐样本预测编码设备和方法
CN106664413A (zh) 用于补偿亮度差的层间视频编码方法和装置以及视频解码方法和装置
CN105340274A (zh) 深度图编码方法及其设备以及深度图解码方法及其设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190104