CN105556972A - 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法 - Google Patents

用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法 Download PDF

Info

Publication number
CN105556972A
CN105556972A CN201480051588.1A CN201480051588A CN105556972A CN 105556972 A CN105556972 A CN 105556972A CN 201480051588 A CN201480051588 A CN 201480051588A CN 105556972 A CN105556972 A CN 105556972A
Authority
CN
China
Prior art keywords
block
depth
average
pixel value
coding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480051588.1A
Other languages
English (en)
Other versions
CN105556972B (zh
Inventor
李振荣
沈东圭
林雄
赵炫镐
崔秉斗
朴慜祐
曹容振
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Industry Academic Collaboration Foundation of Kwangwoon University
Original Assignee
Samsung Electronics Co Ltd
Industry Academic Collaboration Foundation of Kwangwoon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd, Industry Academic Collaboration Foundation of Kwangwoon University filed Critical Samsung Electronics Co Ltd
Publication of CN105556972A publication Critical patent/CN105556972A/zh
Application granted granted Critical
Publication of CN105556972B publication Critical patent/CN105556972B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Abstract

根据本发明的实施例的层间视频解码方法可包括以下步骤:从比特流获得深度图像的当前块的预测模式信息;基于获得的预测模式信息创建当前块的预测块;通过使用预测块的指定位置的像素值来对预测块的均值进行预测;通过使用预测块的均值对深度图像进行解码。

Description

用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法
技术领域
本发明构思涉及层间视频编码和解码方法,更具体地讲,涉及一种将在用于对深度图像进行编码和解码的方法和设备中使用的对深度图像的屏幕内预测的方法。
背景技术
立体图像是指连同深度数据和关于空间的形状数据一起提供图像数据的三维(3D)图像。尽管立体感图像(stereo-image)提供分别与左眼和右眼的不同视点相应的图像,但立体图像提供图像使得每当观察者改变他或她的视点时图像如同从不同位置被看到一样。因此,需要在多个视点捕获的图像以产生立体图像。
为了产生立体图像而在多个视点捕获的图像构成大量的数据。因此,考虑到网络基础架构和地面带宽,即使通过使用针对单视点视频编码技术(诸如,MPEG-2、H.265/AVC和HEVC)而优化的编码设备来对立体图像进行编码,也不可能显示立体图像。
因此,需要多视点(多层)图像编码设备来产生立体图像。具体地讲,需要开发用于有效减少时间点和视点之间的冗余的技术。
例如,多视点视频编解码器可通过使用单视点视频编码技术对基本视点进行压缩并通过参考基本视点来对扩展的视点进行编码,从而提高压缩效率。另外,通过进一步对如同深度图像的附加数据进行编码,可产生包括比经由解码器输入的视点更多的视点的图像。这里,深度图像用于对中间视点图像进行合成,而不被直接显示给用户,其中,深度图像的退化使合成的图像的质量恶化。因此,需要不仅有效地对多视点视频进行压缩还有效地对深度图像进行压缩的多视点视频编解码器。
发明内容
技术问题
由于深度图像是用于在解码器中对中间视点图像进行合成的附加数据,因此需要考虑深度图像对合成后的图像的影响而对深度图像进行编码。深度图像的深度值在对象的边界显著地改变,并且在对象内部的改变相对不显著。具体地讲,使在与显著改变的深度值相应的对象的边界处发生的误差最小化可使合成的图像误差最小化。
同时,为了对深度图像进行编码,可经由特定预测模式(例如,DC模式、平面模式(planarmode)和深度建模模式(DMM)预测模式)对当前块进行编码。具体来说,确定用于将被编码的块的均值(以下,称为“DC值”),并通过将确定的DC值映射到深度查找表来计算索引。另外,编码设备仅将基于原始块的DC值计算出的索引与基于预测块的DC值计算出的索引之间的差发送到解码设备。
同时,用于将属于预测块的所有像素值求和并将总和除以相应像素的数量的计算处理用于计算用于预测块的DC值,其中,这样的用于对像素值进行累加和除法的计算处理会增加编码设备和解码设备的复杂度。
解决方案
根据本发明构思的一方面,提供了一种层间视频解码方法,包括:从比特流获得关于深度图像的当前块的预测模式信息;基于获得的预测模式信息产生当前块的预测块;通过使用预测块的与特定位置相应的像素值对预测块的均值进行预测;通过使用预测块的均值对深度图像进行解码。
有益效果
根据基于一些示例性实施例的层间视频解码/编码设备和方法,可有效地对深度图像进行编码或解码,进而降低设备的复杂度并有效地产生具有合成的视点的图像。
附图说明
图1a是根据一些示例性实施例的层间视频编码设备的框图。
图1b是根据一些示例性实施例的视频编码方法的流程图。
图2a是根据一些示例性实施例的层间视频解码设备的框图。
图2b是示出根据一些示例性实施例的层间解码方法的流程图。
图3是根据一些示例性实施例的层间预测结构的示图。
图4a是用于描述根据一些示例性实施例的计算用于预测块的均值的方法的示图。
图4b是用于描述根据一些示例性实施例的计算用于预测块的均值的方法的另一示例的示图。
图4c是用于描述根据一些示例性实施例的计算用于使用DMM预测模式的预测块的均值的方法的示图。
图5a是示出根据一些示例性实施例的通过使用用于预测块的均值和深度查找表来对深度图像进行编码的方法的流程图。
图5b是示出根据一些示例性实施例的通过使用用于预测块的均值和深度查找表对深度图像进行解码的方法的流程图。
图6是示出根据一些示例性实施例的层间视频解码设备的另一示例的示图。
图7a是用于描述根据一些示例性实施例的在DC预测模式下计算用于预测块的均值的方法的另一示例的示图。
图7b是用于描述根据一些示例性实施例的在DMM预测模式下计算用于预测块的均值的方法的另一示例的示图。
图7c是用于描述根据一些示例性实施例的在平面预测模式下计算用于预测块的均值的方法的示图。
图8是根据一些示例性实施例的基于根据树结构的编码单元的视频编码设备的框图。
图9是根据本发明构思的一些示例性实施例的基于根据树结构的编码单元的视频解码设备的框图。
图10是用于描述根据一些示例性实施例的编码单元的概念的示图。
图11是根据一些示例性实施例的基于编码单元的图像编码器的框图。
图12是根据一些实施例的基于编码单元的图像解码器的框图。
图13是示出根据本发明构思的一些示例性实施例的编码单元和分区的示图。
图14是用于描述根据本发明构思的一些实施例的编码单元和变换单元之间的关系的示图。
图15是用于描述根据一些示例性实施例的编码信息的示图。
图16是根据一些示例性实施例的根据深度的较深层编码单元的示图。
图17至图19是用于描述根据一些示例性实施例的编码单元、预测单元和变换单元之间的关系的示图。
图20是用于描述根据图7c的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
图21是根据一些示例性实施例的存储有程序的盘的物理结果的示图。
图22是用于将程序记录到盘以及从盘读取程序的盘驱动器的示图。
图23是用于提供内容分布服务的内容供应系统的整体结构的示图。
图24和图25示出根据一些示例性实施例的应用了本发明构思的视频编码方法和视频解码方法的移动电话的外部结构和内部结构。
图26示出根据一些示例性实施例的采用通信系统的数字广播系统。
图27是示出根据一些示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
最佳模式
根据本发明构思的一方面,提供了一种层间视频解码方法,包括:从比特流获得关于深度图像的当前块的预测模式信息;基于获得的预测模式信息产生当前块的预测块;通过使用预测块的与特定位置相应的像素值来对预测块的均值进行预测;通过使用预测块的均值对深度图像进行解码。
根据一些示例性实施例,对产生的预测块的均值进行预测的步骤可包括:通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
根据一些示例性实施例,对产生的预测块的均值进行预测的步骤可包括:通过对预测块的左上像素值、右上像素值、左下像素值和右下像素值进行加权求和来对产生的预测块的均值进行预测。
根据一些示例性实施例,其中,对产生的预测块的均值进行预测的步骤可包括:确定是否存在关于深度图像的深度查找表;如果存在深度查找表,则通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
根据一些示例性实施例,预测块可在DC模式、平面模式、角模式和深度建模模式(DMM)预测模式中的一种预测模式下被预测。
根据一些示例性实施例,通过使用预测块的均值对深度图像进行解码的步骤可包括:通过使用深度查找表来确定与预测块的均值相应的预测索引;通过使用从比特流获得的索引残差值来确定与关于当前块的恢复块的均值相应的恢复索引;通过使用深度查找表来确定与恢复索引相应的恢复块的均值;通过使用关于预测块的均值和关于恢复块的均值来对深度图像进行解码。
根据一些示例性实施例,层间视频解码方法还可包括:通过使用当前块的至少一个邻近像素值来对预测块的均值进行预测。
根据本发明构思的一方面,提供了一种层间视频解码设备,包括:预测模式确定器,从比特流获得关于深度图像的当前块的预测模式信息;预测块产生器,基于获得的预测模式信息产生当前块的预测块;均值计算器,通过使用预测块的与特定位置相应的像素值来对预测块的均值进行预测;解码器,通过使用预测块的均值对深度图像进行解码。
根据一些示例性实施例,预测模式确定器可通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
根据一些示例性实施例,预测模式确定器可通过对预测块的左上像素值、右上像素值、左下像素值和右下像素值进行加权求和来对产生的预测块的均值进行预测。
根据一些示例性实施例,预测模式确定器可确定是否存在关于深度图像的深度查找表,如果存在深度查找表,则预测模式确定器通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
根据一些示例性实施例,预测块可在DC模式、平面模式、角模式和深度建模模式(DMM)预测模式中的一种预测模式下被预测。
根据一些示例性实施例,解码器可通过使用深度查找表来确定与预测块的均值相应的预测索引,通过使用从比特流获得的索引残差值来确定与关于当前块的恢复块的均值相应的恢复索引,通过使用深度查找表来确定与恢复索引相应的恢复块的均值,通过使用关于预测块的均值和关于恢复块的均值来对深度图像进行解码。
根据一些示例性实施例,均值计算器可通过使用当前块的至少一个邻近像素值来对预测块的均值进行预测。
根据本发明构思的一方面,可提供另一种方法、另一种系统以及一种记录有用于实现层间视频解码方法的计算机程序的非暂时性计算机可读记录介质。
具体实施方式
以下,将参照图1a至图7c描述用于根据示例性实施例的层间视频解码和编码的方法和设备的对深度图像的屏幕内预测的方法。
此外,将参照图8至图20描述根据可应用于层间视频编码和解码技术的示例性实施例的基于具有树结构的编码单元的视频编码技术和视频解码技术。此外,将参照图21至图27描述视频编码方法和视频解码方法可应用的各种示例性实施例。
以下,“图像”可表示视频的静止图像或运动图像,或视频本身。
以下,“样点”表示分配到图像的样点位置并将被处理的数据。例如,空间域的图像中的像素可以是样点。
以下,“当前块”可表示将被编码或解码的图像的块。
首先,将参照图1a至图7c描述用于根据一些示例性实施例的层间视频解码和编码的方法和设备的对深度图像的屏幕内预测的方法。
图1a是根据一些示例性实施例的层间视频编码设备10的框图。图1b是根据一些示例性实施例的视频编码方法的流程图。
根据一些示例性实施例的层间视频编码设备10可包括预测模式确定器12、预测块产生器14、均值计算器16和编码器18。另外,根据一些示例性实施例的层间视频编码设备10可包括:中央处理器(未示出),控制预测模式确定器12、预测块产生器14、均值计算器16和编码器18。可选择地,预测模式确定器12、预测块产生器14、均值计算器16和编码器18中的每一个由它们自己的处理器(未示出)操作,由于所述处理器(未示出)在以相互有机的关系进行操作,因此全部的层间视频编码设备10可被操作。可选择地,预测模式确定器12、预测块产生器14、均值计算器16和编码器18可由层间视频编码设备10外部的外部处理器(未示出)控制。
层间视频编码设备10可包括:一个或更多个数据存储单元(未示出),用于存储输入到预测模式确定器12、预测块产生器14、均值计算器16和编码器18的数据和由预测模式确定器12、预测块产生器14、均值计算器16和编码器18输出的数据。层间视频编码设备10可包括用于管理一个或更多个数据存储单元(未示出)的数据输入和数据输出的存储器控制器(未示出)。
为了输出视频编码结果,层间视频编码设备10可与嵌入在其中的内部视频编码处理器或外部视频编码处理器协同地进行操作,进而执行包括变换的视频编码处理。层间视频编码设备10的内部视频编码处理器可以是单独的处理器并执行视频编码处理。另外,层间视频编码设备10、中央处理器或视频处理器可包括视频编码处理模块,进而执行基本视频编码处理。
根据一些示例性实施例的层间视频编码设备10可根据层对多个图像序列进行分类并根据可伸缩视频编码方法对每个图像序列进行编码,并输出包括根据层被编码的数据的单独的流。层间视频编码设备10可将第一层图像序列和第二层图像序列编码到不同的层。
例如,根据基于空间可伸缩性的可伸缩视频编码方法,低分辨率图像可被编码为第一层图像,高分辨率图像可被变为第二层图像。第一层图像的编码结果被输出为第一层流,第二层图像的编码结果被输出为第二层流。
作为另一示例,多视点视频可根据可伸缩视频编码方法被编码。在这种情况下,中心视点图像可被编码为第一层图像,左视点图像和右视点图像可通过参考第一层图像被编码为第二层图像。可选择地,当层间视频编码设备10允许至少三个层(例如,第一层至第三层)时,中心视点图像可被编码为第一层图像,左视点图像可被编码为第二层图像,右视点图像可被编码为第三层图像。当然,示例性实施例不限于此,通过对中心视点图像、左视点图像和右视点图像进行编码而获得的层和被参考的层可改变。
作为另一示例,可根据基于时间可伸缩性的时间分层预测来执行可伸缩视频编码方法。可输出包括通过对基本帧率图像进行编码而产生的编码信息的第一层流。可根据帧率对时间层进行分类,并且可根据层对每个时间等级进行编码。可通过参考基本帧率图像进一步对高帧率图像进行编码来输出包括高帧率的编码信息的第二层流。
此外,可对第一层和多个第二层执行可伸缩视频编码。当存在至少三个第二层时,可对第一层图像以及第一第二层图像至第K第二层图像进行编码。因此,第一层图像的编码结果可被输出为第一层流,第一第二层图像至第K第二层图像的编码结果可分别被输出为第一第二层流至第K第二层流。
根据一些示例性实施例的层间视频编码设备10可执行单层的图像被参考的帧间预测,以便对当前画面进行预测。通过执行帧间预测,可产生指示当前画面和参考画面之间的运动信息的运动矢量以及当前画面和参考画面之间的残差。
此外,层间视频编码设备10可执行第一层图像被参考的层间预测以便对第二层图像进行预测。
此外,当根据一些示例性实施例的层间视频编码设备10允许至少三个层(即,第一层至第三层)时,可根据多层预测结构执行第一层图像和第三层图像之间的层间预测、第二层图像和第三层图像之间的层间预测。
经由层间预测,可产生当前画面与和当前画面的层不同的层的参考画面之间的位置差分量以及当前画面与所述不同层的参考画面之间的残差。
稍后将参照图3描述层间预测结构。
根据一些示例性实施例的层间视频编码设备10可根据层执行根据视频的每个图像的块的编码。块可以是正方形、矩形或任意几何形状,并不限于具有特定尺寸的数据单元。块可以是根据树结构的编码单元之中的最大编码单元、编码单元、预测单元或变换单元。包括树结构的编码单元的最大编码单元可被不同地称为诸如编码树单元、编码块树、块树、根块树、编码树、编码根或树干。稍后将参照图8至图20描述基于根据树结构的编码单元的视频编码和解码方法。
同时,如果根据一些示例性实施例的层间视频编码设备10对多视点视频进行编码,则层间视频编码设备10可额外地对补充数据(诸如,深度图像)进行编码,并因此可产生包括比经由解码器输入的视点更多的视点的图像。这里,由于深度图像用于对中间视点图像进行合成而不是直接被显示给用户,因此深度图像的恶化可影响合成的图像的质量。
深度图像的深度值在对象的边界附近显著改变,并且在对象的内部的改变不显著。因此,在与显著改变的深度值相应的对象的边界处发生的误差的最小化可使合成的图像的误差最小化。另外,可通过相对减少关于深度值改变不显著的对象内部的数据量来提高对深度图像进行编码的效率。
因此,层间视频编码设备10可通过使用特定预测模式(例如,DC模式、平面模式、角模式(angularmode)或深度建模模式(DMM)预测模式)对深度图像的当前块进行编码。另外,层间视频编码设备10可计算关于将被编码的块的DC值(以下,将被称为“均值”),并将计算的均值映射到深度查找表,从而确定索引。这里,深度查找表表示深度图像的可能的深度值被匹配到索引的表。
另外,层间视频编码设备10可仅将通过将原始块的均值映射到深度查找表而确定的索引与基于从预测块获得的均值计算出的索引之间的差发送到解码设备。
同时,用于将属于预测块的所有像素值求和并将总和除以相应像素的数量的计算处理可用于计算预测块的均值,其中,这样的用于对像素值进行累加和除法的计算处理会增加编码设备和解码设备的复杂度。
因此,可通过仅使用与预测块的像素之中的位于特定位置处的像素相应的像素值来对预测块的均值进行预测,从而根据一些示例性实施例的层间视频编码设备10的复杂度可降低。
以下,将参照图1b详细描述根据一些示例性实施例的层间视频编码设备10的操作。
在操作11,预测模式确定器12可确定针对深度图像的当前块的预测模式。这里,预测模式可以是DC模式、平面模式、角模式和深度建模模式(DMM)预测模式之一。这里,DMM预测模式可包括DMM模式-1(或DMM_WFULL模式)和DMM模式-4(或DMM_CPREDTEX模式)。
这里,DC模式是使用邻近参考样点的均值来填充预测块的预测样点的帧内预测模式。
另外,平面模式是根据下面的等式1针对参考样点p[x][y]计算具有x,y=0…nTbS-1的预测样点predSample[x][y]的帧内预测模式。
[等式1]
predSamples[x][y]=((nTbS-1-x)*p[-1][y]+(x+1)*p[nTbS][-1]+(nTbS-1-y)*p[x][-1]+(y+1)*p[-1][nTbS]+nTbS)>>(Log2(nTbS)+1)
这里,nTbS表示预测块的水平长度或垂直长度。
另外,角模式表示考虑从模式2到模式34的屏幕内预测模式的方向从参考样点之中确定预测样点的预测模式。
另外,DMM预测模式是通过根据图案将当前块划分为至少两个区域来执行预测的模式,其中,在所述模式中,针对每个区域计算均值。同时,DMM预测模式可包括DMM模式-1和DMM模式-4。DMM模式-1可以是层间视频编码设备10通过应用各种边界对当前块进行划分并基于最适边界对当前块进行划分的模式,而DMM模式-4可以是根据当前块的纹理的图案将预测块划分为至少两个或更多个块的模式。
同时,DC模式、平面模式、角模式和深度建模模式(DMM)预测模式是通过使用当前块周围的恢复的像素执行屏幕内预测的模式,并且对于本领域普通技术人员而言是显然的。因此,将省略详细的描述。
另外,预测模式确定器12可确定当前块的预测模式是不是使用下述的预测块的均值的模式。
在操作13,预测块产生器14可基于确定的预测模式产生当前块的预测块。
在操作15,均值计算器16可通过使用预测块的与特定位置相应的像素值来对预测块的均值进行预测。
例如,均值计算器16可通过使用以下像素值来对预测块的均值进行预测:与预测块的左上区域相应的像素值、与预测块的右上区域相应的像素值、与预测块的左下区域相应的像素值和与预测块的右下区域相应的像素值。详细地,作为替代通过使用预测块中的所有像素值来获得均值的方式,均值计算器16可通过对以下像素值进行加权求和来对预测块的均值进行预测:与预测块的左上区域相应的像素值、与预测块的右上区域相应的像素值、与预测块的左下区域相应的像素值和与预测块的右下区域相应的像素值。然而,本发明构思不限于此,可通过使用每个区域的至少一个或至少更多个像素值(例如,与左上区域相应的四个像素值和与右上区域相应的四个像素值)来对预测块的均值进行预测。
在另一示例中,均值计算器16可将与产生的预测块的右下区域相应的像素值预测为预测块的均值。
另外,均值计算器16可在不同的预测模式下获得不同的关于预测块的均值。
例如,如果存在深度查找表并且预测块在DC模式或平面模式下被预测,则均值计算器16通过使用以下像素值来对产生的预测块的均值进行预测:与预测块的左上区域相应的像素值、与预测块的右上区域相应的像素值、与预测块的左下区域相应的像素值和与预测块的右下区域相应的像素值。
可选择地,如果预测块在DMM预测模式下被预测,则均值计算器16可通过使用以下像素值来对从预测块划分出的每个区域的均值进行预测:与预测块的左上像素相应的像素值、与预测块的右上像素相应的像素值、与预测块的左下像素相应的像素值和与预测块的右下像素相应的像素值。
在另一示例中,均值计算器16可通过根据关于当前块的预测模式使用不同位置处的像素值来对产生的预测块的均值进行预测。
在操作17,编码器18可通过使用预测块的均值来对深度图像进行编码。同时,以下将参照图5a详细描述用于通过使用预测块的均值对深度图像进行编码的编码器18的操作。
如上所述,层间视频编码设备10可降低计算预测块的均值的方法的复杂度,因此可有效地对深度图像进行编码。
图2a是根据一些示例性实施例的层间视频解码设备20的框图。
根据一些示例性实施例的层间视频解码设备20可包括解析器22、预测块产生器24、均值计算器26和解码器28。另外,根据一些示例性实施例的层间视频解码设备20可包括:中央处理器(未示出),控制解析器22、预测块产生器24、均值计算器26和解码器28。可选择地,解析器22、预测块产生器24、均值计算器26和解码器28中的每个由其自有的处理器(未示出)来操作,由于处理器(未示出)以相互有机的关系进行操作,因此整个层间视频解码设备20可被操作。可选择地,解析器22、预测块产生器24、均值计算器26和解码器28可由层间视频解码设备20外部的外部处理器(未示出)控制。
层间视频解码设备20可包括:一个或更多个数据存储单元(未示出),用于存储输入到解析器22、预测块产生器24、均值计算器26和解码器28的数据和由解析器22、预测块产生器24、均值计算器26和解码器28输出的数据。层间视频解码设备20可包括用于管理一个或更多个数据存储单元(未示出)的数据输入和数据输出的存储器控制器(未示出)。
为了经由视频解码重建视频,根据一些示例性实施例的层间视频解码设备20可与安装在其中的内部视频编码处理器或外部视频编码处理器协同地进行操作,以便执行包括变换的视频解码操作。根据一些示例性实施例的多层视频解码设备20的内部视频编码处理器可以是单独的处理器,或可选择地,层间视频解码设备20、中央处理设备或图形处理设备可包括用于执行基本视频解码操作的视频解码处理模块。
根据一些示例性实施例的层间视频解码设备20可经由可伸缩编码方法接收根据层的比特流。由层间视频解码设备20接收的比特流的层数不受限制。
例如,基于空间可伸缩性的层间视频解码设备20可接收具有不同的分辨率的图像序列被编码在不同的层中的流。第一层流可被解码以重建具有低分辨率的图像序列,第二层流可被解码以重建具有高分辨率的图像序列。
作为另一示例,多视点视频可根据可伸缩视频编码方法被解码。当在多个层中接收到立体视频流时,可对第一层流进行解码以重建左视点图像。可进一步对第二层流进行解码以重建右视点图像。
可选择地,当在多个层中接收到多视点视频流时,可对第一层流进行解码以重建中心视点图像。可进一步对第二层流进行解码以重建左视点图像。可进一步对第三层流进行解码以重建右视点图像。
作为另一示例,可执行基于时间可伸缩性的可伸缩视频编码方法。可对第一层流进行解码以重建基本帧率图像。可进一步对第二层流进行解码以重建高帧率图像。
此外,当存在至少三个第二层时,可从第一层流重建第一层图像,当通过参考第一层重建图像进一步对第二层流进行解码时,可进一步重建第二层图像。当通过参考第二层重建图像进一步对第K层流进行解码时,可进一步重建第K层图像。
层间视频解码设备20可从第一层流和第二层流获得第一层图像和第二层图像的编码数据,另外,可进一步获得经由帧间预测产生的运动矢量和经由层间预测产生的预测信息。
例如,层间视频解码设备20可对每层的帧间预测的数据进行解码,并对多个层之间的层间预测的数据进行解码。可通过基于编码单元或预测单元的运动补偿和层间解码来执行重建。
可通过针对每个层流通过参考经由同一层的帧间预测而预测的重建图像来针对当前画面执行运动补偿,从而重建图像。运动补偿是这样的操作:通过将通过使用当前画面的运动矢量确定的参考画面与当前画面的残差组成,来对当前画面的重建图像进行重建。
此外,层间视频解码设备20可通过参考第一层图像的预测信息来执行层间解码,以便对经由层间预测而预测的第二层图像进行解码。层间解码是这样的操作:通过使用不同层的参考块的预测信息对当前画面的预测信息进行重建,以便确定当前画面的预测信息。
根据一些示例性实施例的层间视频解码设备20可执行用于重建通过参考第二层图像而预测的第三层图像的层间解码。稍后将参照图3描述层间预测结构。
层间视频解码设备20根据视频的每个图像的块执行解码。块可以是根据树结构的编码单元之中的最大编码单元、编码单元、预测单元或或变换单元。以下将参照图8至图20描述用于基于根据树结构的编码单元的编码和解码的方法。
同时,如果根据一些示例性实施例的层间视频编码设备10对多视点视频进行编码,则层间视频编码设备10可额外地对补充数据(诸如,深度图像)进行编码,因此,可产生包括比经由解码器输入的视点更多的视点的图像。这里,由于深度图像用于对中间视点图像进行合成而不是直接被显示给用户,因此,深度图像的恶化可影响合成的图像的质量。
深度图像的深度值在对象的边界附近显著改变,并且在对象内部改变不显著。因此,在与显著改变的深度值相应的对象的边界处发生的误差的最小化可使合成的图像的误差最小化。另外,可通过相对减少关于深度值改变不显著的对象内部的数据量来提高对深度图像进行编码的效率。
因此,为了对深度图像进行解码,层间视频解码设备20可通过使用特定预测模式(例如,DC模式、平面模式、角模式或深度建模模式(DMM)预测模式)来产生预测块。具体来说,层间视频解码设备20可计算关于将被编码的块的DC值(以下,将被称为“均值”),并将计算出的均值映射到深度查找表,从而确定索引。另外,层间视频解码设备20可经由比特流接收与恢复块的均值相应的索引和与用于预测块的均值相应的索引之间的差。
另外,层间视频解码设备20可通过使用索引之间的差和深度查找表来确定恢复块的均值,并通过将恢复块的均值与预测块的均值之间的差用作偏移来恢复深度图像。
同时,用于将属于预测块的所有像素值求和并将总和除以相应像素的数量的计算处理可用于计算预测块的均值,其中,这样的用于对像素值进行累加和除法的计算处理会增加编码设备和解码设备的复杂度。
因此,可通过仅使用与预测块的像素之中的位于特定位置处的像素相应的像素值对预测块的均值进行预测来降低根据一些示例性实施例的层间视频编码的复杂度。
以下,将参照图2b详细描述根据一些示例性实施例的层间视频解码设备20的操作。
在操作21,解析器22可从比特流获得关于深度图像的当前块的预测模式信息。这里,预测模式可以是DC模式、平面模式、角模式和深度建模模式(DMM)预测模式之一。这里,DMM预测模式可包括DMM模式-1(或DMM_WFULL模式)和DMM模式-4(或DMM_CPREDTEX模式)。
另外,解析器22可获得指示当前块的预测模式是不是使用预测块的均值的模式的信息。
在操作23,预测块产生器24可基于获得的预测模式信息产生当前块的预测块。
在操作25,均值计算器26可通过使用预测块的与特定位置相应的像素值来对预测块的均值进行预测。
例如,均值计算器26可通过使用以下像素值对预测块的均值进行预测:与预测块的左上区域相应的像素值、与预测块的右上区域相应的像素值、与预测块的左下区域相应的像素值和与预测块的右下区域相应的像素值。详细地,作为代替通过使用预测块中的所有像素值来获得均值的方式,均值计算器26可通过对以下像素值进行加权求和来对预测块的均值进行预测:与预测块的左上区域相应的像素值、与预测块的右上区域相应的像素值、与预测块的左下区域相应的像素值和与预测块的右下区域相应的像素值。然而,本发明构思不限于此,可通过使用每个区域的至少一个或至少更多个像素值(例如,与左上区域相应的四个像素值和与右上区域相应的四个像素值)来对预测块的均值进行预测。
在另一示例中,均值计算器26可将与产生的预测块的右下区域相应的像素值预测为预测块的均值。
另外,均值计算器26可在不同的预测模式下获得不同的关于预测块的均值。
例如,如果存在深度查找表并且预测块在DC模式或平面模式下被预测,则均值计算器26可通过使用以下像素值来对产生的预测块的均值进行预测:与预测块的左上区域相应的像素值、与预测块的右上区域相应的像素值、与预测块的左下区域相应的像素值和与预测块的右下区域相应的像素值。
可选择地,如果预测块在DMM预测模式下被预测,则均值计算器26可通过使用以下像素值来对从预测块划分出的每个区域的均值进行预测:与预测块的左上像素相应的像素值、与预测块的右上像素相应的像素值、与预测块的左下像素相应的像素值和与预测块的右下像素相应的像素值。
在操作27,解码器28可通过使用预测块的均值来对深度图像进行解码。同时,以下将参照图5b详细描述用于通过使用预测块的均值对深度图像进行解码的解码器28的操作。
如上所述,层间视频解码设备20可降低计算预测块的均值的方法的复杂度,因此可有效地对深度图像进行解码。
以下,将参照图3描述可在根据一些示例性实施例的层间视频编码设备10中执行的层间预测结构。
图3是根据一些示例性实施例的层间预测结构的示图。
根据一些示例性实施例的层间视频编码设备10可根据图3的多视点视频预测结构的再现顺序30对基本视点图像、左视点图像和右视点图像进行预测编码。
根据基于相关技术的多视点视频预测结构的再现顺序30,同一视点的图像沿水平方向被布置。因此,由“左”指示的左视点图像沿水平方向按行被布置,由“中心”指示的基本视点图像沿水平方向按行被布置,由“右”指示的右视点图像沿水平方向按行被布置。与左视点图像/右视点图像相比,基本视点图像可以是中心视点图像。
此外,具有相同画面顺序计数(POC)顺序的图像沿垂直方向被布置。图像的POC顺序指示形成视频的图像的再现顺序。在多视点视频预测结构的再现顺序30中指示的“POCX”指示相应列中的图像的相对再现顺序,其中,当值X较小时,再现顺序在前,当值X较大时,再现顺序在后。
因此,根据基于相关技术的多视点视频预测结构的再现顺序30,由“左”指示的左视点图像根据POC顺序(再现顺序)沿水平方向被布置,由“中心”指示的基本视点图像根据POC顺序(再现顺序)沿水平方向被布置,由“右”指示的右视点图像根据POC顺序(再现顺序)沿水平方向被布置。此外,位于与基本视点图像相同的列上的左视点图像和右视点图像具有不同的视点,但具有相同的POC顺序(再现顺序)。
四个连续的图像根据视点形成一个画面组(GOP)。每个GOP包括连续的锚画面之间的图像和一个锚画面(关键画面)。
锚画面是随机访问点,当再现视频的同时再现位置从根据再现顺序(即,POC顺序)布置的图像中被任意选择时,与根据POC顺序的再现位置最接近的另一画面被再现。基本层图像包括基本层锚画面31至35,左视点图像包括左视点锚画面131至135,右视点图像包括右视点锚画面231至235。
可根据GOP顺序对多视点图像进行再现和预测(重建)。首先,根据多视点视频预测结构的再现顺序30,根据视点,包括在GOP0中的图像可被再现,随后包括在GOP1中的图像可被再现。换句话说,包括在每个GOP中的图像可按照GOP0、GOP1、GOP2和GOP3的顺序被再现。此外,根据多视点视频预测结构的编码顺序,根据视点,包括在GOP1中的图像可被预测(重建),然后包括在GOP1中的图像可被预测(重建)。换句话说,包括在每个GOP中的图像可按照GOP0、GOP1、GOP2和GOP3的顺序被预测(重建)。
根据多视点视频预测结构的预测顺序30,对图像执行视点间预测(层间预测)和帧间预测。在多视点视频预测结构中,箭头开始的图像是参考画面,箭头结束的图像是通过使用参考画面而预测的图像。
可对基本视点图像的预测结果进行编码并以基本视点图像流的形式进行输出,可对附加视点图像的预测结果进行编码并以层比特流的形式进行输出。此外,左视点图像的预测编码结果可被输出为第一层比特流,右视点图像的预测编码结果可被输出为第二层比特流。
对基本视点图像仅执行帧间预测。换句话说,I画面类型的基本层锚画面31至35不参考其他图像,但剩余的B画面类型和b画面类型的图像通过参考其他基本视点图像来被预测。通过参考根据POC顺序在B画面类型的图像之前的I画面类型的锚画面以及随后的另一I画面类型的锚画面来对B画面类型的图像进行预测。通过参考根据POC顺序在b画面类型的图像之前的I类型的锚画面以及随后的B画面类型的图像或者通过参考根据POC顺序在b画面类型的图像之前的B画面类型的图像以及随后的I画面类型的锚画面,来对b画面类型的图像进行预测。
可对左视点图像和右视点图像中的每个执行参考不同视点图像的视点间预测(层间预测)以及参考同一视点图像的帧间预测。
可通过分别参考具有相同的POC顺序的基本视点锚画面31至35,对左视点锚画面131至135执行视点间预测(层间预测)。可通过分别参考具有相同的POC顺序的基本视点锚画面31至35或左视点锚画面131至135,对右视点锚画面231至235执行视点间预测。此外,可通过参考具有相同的POC顺序的其他视点图像来对除左视点图像131至135和右视点图像231至235之外的剩余图像执行视点间预测(层间预测)。
通过参考同一视点图像来对左视点图像和右视点图像之中的除锚画面131至135以及锚画面231至235之外的剩余图像进行预测。
然而,可不通过参考同一视点的附加视点图像之中的具有在前再现顺序的锚画面来对左视点图像和右视点图像中的每个进行预测。换句话说,为了对当前左视点图像执行帧间预测,可对除再现顺序在当前左视点图像之前的左视点锚画面之外的左视点图像进行参考。类似地,为了对当前右视点图像执行帧间预测,可对除再现顺序在当前右视点图像之前的右视点锚画面之外的右视点图像进行参考。
此外,为了对当前左视点图像执行帧间预测,可通过参考属于当前GOP且将在当前左视点图像之前被重建的左视点图像而不是参考属于在当前左视点图像的当前GOP之前的GOP的左视点图像,来执行预测。同样的处理应用于右视点图像。
根据一些示例性实施例的层间视频解码设备20可根据图3的多视点视频预测结构的再现顺序30对基本视点图像、左视点图像和右视点图像进行重建。
可经由参考基本视点图像的视点间视差补偿以及参考左视点图像的帧间运动补偿来对左视点图像进行重建。可经由参考基本视点图像和左视点图像的视点间视差补偿以及参考右视点图像的帧间运动补偿来对右视点图像进行重建。可首先对参考画面进行重建以用于左视点图像和右视点图像的视差补偿和运动补偿。
为了对左视点图像进行帧间运动补偿,可经由参考重建的左视点参考画面的帧间运动补偿来对左视点图像进行重建。为了对右视点图像进行帧间运动补偿,可经由参考重建的右视点参考画面的帧间运动补偿来对右视点图像进行重建。
此外,为了对当前左视点图像进行帧间运动补偿,仅对属于当前左视点图像的当前GOP且将在当前左视点图像之前被重建的左视点图像进行参考,并且不对属于在当前GOP之前的GOP的左视点图像进行参考。相同的处理应用于右视点图像。
以下,参照图4a至图7c,将详细描述用于根据一些示例性实施例的对深度图像进行编码和解码的方法和设备的对深度图像进行屏幕内预测的方法。
图4a是根据一些示例性实施例的用于描述计算预测块40的均值的方法的示图。
参照图4a,根据一些示例性实施例的层间视频解码设备20可通过使用预测块40的与特定位置相应的像素值对预测块40的均值进行预测。这里,可经由DC模式或平面模式下的预测产生预测块40。例如,如果经由DC模式下的预测产生了预测块40,则可使用已恢复的邻近参考样点45的均值来填充预测块40的样点值。
在8x8预测块40,层间视频解码设备20可将左上像素值41、右上像素值42、左下像素值43和右下像素值44的均值预测为预测块40的均值。在另一示例中,可经由下面的等式2所示的加权求和对预测块40的均值进行预测。
[等式2]
dc=(α1P左上2P右上3P左下4P右下+β)>>γ
这里,dc表示预测块的均值,每个P按照示出的顺序表示左上像素值41、右上像素值42、左下像素值43和右下像素值44,α、β和γ表示获得加权和的变量。
同时,尽管仅针对8x8预测块40给出了根据本实施例的以上描述,但相同的处理可应用于4x4块、16x16块、32x32块和64x64块。
另外,上述的实施例可被实施为根据深度查找表和用于预测块的预测模式的以下处理。
在该处理中,输入为当前画面中的当前块的位置(xCb,yCb)、变换块的水平长度或垂直长度nTbS和帧内预测模式predModeIntra。这里,当前块的位置可由当前块的左上样点的位置表示。另外,该处理的输出为恢复的深度图像的样点深度值resSamples[x][y]。这里,x和y中的每个可具有0到nTbS-1的值。
首先,根据预测模式来确定预测块的像素值predSamples[x][y]。
接下来,可基于如下所示的标志DltFlag[nuh_layer_id]导出恢复的样点深度值resSamples[x][y]。
如果标志DltFlag[nuh_layer_id]为0,则当x和y正在从0到nTbS之间改变时,可通过使用预测块的像素值predSamples[x][y]以及从比特流接收到的偏移值DcOffset[xTb][yTb][wedgePattern[x][y]来确定恢复的样点深度值resSamples[x][y]。
如果标志DltFlag[nuh_layer_id]为1(存在深度查找表),则可如下所示地导出变量dcPred[0]和dcPred[1]。
1、如果帧内预测模式predModeIntra不是INTRA_DMM_WFULL或INTRA_DMM_CPREDTEX,则应用下面的表1。
[表1]
换句话说,基于上面的表1,可将左上像素值、右上像素值、左下像素值和右下像素值的均值预测为关于预测块的均值dcPred[0]。可通过使用深度查找表来将均值变换为索引,随后将该索引与从比特流接收到的索引差相加。可通过使用深度查找表对相加的索引进行逆变换,来获得恢复的均值。另外,可将恢复的均值和预测块的均值之间的差确定为偏移值。最终,当x和y正在从0到nTbS-1之间改变时,通过使用关于预测块的像素值predSamples[x][y]和通过使用深度查找表计算出的偏移值来确定恢复的样点深度值resSamples[x][y]。
2、相反,如果帧内预测模式predModeIntra是INTRA_DMM_WFULL或INTRA_DMM_CPREDTEX,则变量dcPred被设置为DcVal。这里,DcVal表示通过使用当前块的邻近参考样点而获得的均值。
同时,尽管以上针对图4a中示出的实施例描述了用于通过使用预测块的四个角像素值来获得预测块的均值的示例,但本发明构思不限于此。
图4b是用于描述根据一些示例性实施例的计算出预测块的均值的方法的另一示例的示图。
参照图4b,在预测块40处,可将右下像素值45预测为预测块40的均值。
同时,仅在特定预测模式下产生了预测块40时,可应用图4b中示出的方法。例如,仅在DC预测模式下产生了预测块40时,可应用图4b中示出的方法。
图4c是用于描述根据一些示例性实施例的通过使用DMM预测模式计算预测块的均值的方法的示图。
这里,DMM预测模式是用于通过根据图案将当前块划分为至少两个区域来执行预测的模式,其中,针对每个区域计算出均值。同时,DMM预测模式可包括DMM模式-1(或DMM_WFULL模式)和DMM模式-4(或DMM_CPREDTEX模式)。DMM模式-1可以是层间视频编码设备10通过应用各种边界来对当前块进行划分并基于最适边界对当前块进行划分的模式,而DMM模式-4可以是用于根据当前块的纹理图案将预测块划分为至少两个或更多个块的模式。
参照图4c,DMM模式-1下预测的预测块400、420、440和460中的每个被划分为两个区域。图4c示出在DMM模式-1下对预测块进行划分的四个可能的情况。
即使在DMM模式-1下对预测块进行划分的情况下,根据一些示例性实施例的层间视频解码设备20可通过使用左上像素值、右上像素值、左下像素值和右下像素值来获得从预测块划分出的每个区域的均值。
例如,在第一划分图案400中,基于相应块的左上像素值411、右上像素值412和左下像素值413计算出区域-1401的均值,而从相应块的右下像素值414计算出区域-2402的均值。
在第二划分图案420中,从相应块的左上像素值431计算出区域-1421的均值,而从相应块的右上像素值432、左下像素值433和右下像素值434计算出区域-2422的均值。
在第三划分图案440中,从相应块的左上像素值451和右上像素值452计算出区域-1441的均值,而从相应块的左下像素值453和右下像素值454计算出区域-2442的均值。
在第四划分图案460中,从相应块的左上像素值471和右上像素值472计算出区域-1461的均值,而从相应块的左下像素值473和右下像素值474计算出区域-2462的均值。这里,尽管以上参照图4c描述了关于8x8块的DC值的计算,但在相同的方面可计算关于在DMM模式-1下产生的16x16、32x32或64x64预测块的各个区域的均值。
在另一示例中,可通过使用各个像素值(例如,相应预测块的左上像素值和右下像素值)来计算出各个区域的均值。例如,在第一划分图案400的情况下,可从相应块的左上像素值411计算出区域-1401的均值,而可从相应块的右下像素值414计算出区域-2402的均值。
图5a是示出根据一些示例性实施例的通过使用预测块的均值和深度查找表来对深度图像进行编码的方法的流程图。
参照图5a,在操作501,预测模式确定器12可确定深度图像的当前块的预测模式。这里,预测模式可以是DC模式、平面模式、角模式和深度建模模式(DMM)预测模式中的一个。
在操作502,预测块产生器14可基于确定的预测模式产生当前块的预测块。
在操作503,均值计算器16可通过使用预测块的与特定位置相应的像素值对预测块的均值进行预测。
在操作504,编码器18可通过使用深度查找表确定与预测块的均值相应的预测索引。这里,深度查找表是指深度图像的可能的深度值被匹配到索引的表。
例如,如果在深度查找表中深度值128被匹配到索引值1,则当预测块的均值是128时,编码器18可将预测索引确定为1。
在操作505,编码器18可确定与当前块相应的原始块的均值。例如,编码器18可确定与当前块相应的原始深度图像的区域的均值。
在操作506,编码器18可通过使用深度查找表来确定与原始块的均值相应的原始索引。
接下来,在操作507,编码器18可对预测模式信息和预测索引与原始索引之间的差(以下被称为“索引残差值”)进行编码,并将其发送到层间视频解码设备20。因此,层间视频编码设备10可通过发送与当前预测块的均值相应的索引和与原始块的均值相应的索引之间的差来减少发送的比特量。
图5b是示出根据一些示例性实施例的通过使用预测块的均值和深度查找表来对深度图像进行解码的方法的流程图。
在操作511,解析器22可从比特流获得关于深度图像的当前块的预测模式信息。这里,预测模式信息可指示当前块将在DC模式、平面模式、角模式和深度建模模式(DMM)预测模式中的哪一预测模式下被预测。
在操作512,预测块产生器24可基于获得的预测模式信息产生当前块的预测块。
在操作513,均值计算器26可通过使用预测块的与特定位置相应的像素值对预测块的均值进行预测。
例如,可通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
在操作514,解码器28可通过使用深度查找表来确定与预测块的均值相应的预测索引。
在操作515,解码器28可通过使用从比特流获得的索引残差值来确定与当前块的恢复块的均值相应的恢复索引。这里,如以上关于图5a的操作507所述,索引残差值是指与预测块的均值相应的索引和与原始块的均值相应的索引之间的差。例如,可通过执行将索引残差值与预测索引相加的计算来确定恢复索引。
在操作516,解码器28可通过使用深度查找表来确定与恢复索引相应的恢复块的均值。
在操作517,解码器28可通过使用关于预测块的均值和关于恢复块的均值来对深度图像进行解码。例如,可将预测块的均值与恢复块的均值之间的差确定为关于预测块的DC偏移。因此,可通过将DC偏移与产生的预测块相加来产生恢复块。
与通过使用预测块中的与特定位置相应的像素值来对预测块的均值进行预测的方法相关地,描述了以上实施例。以下,将参照图6至图7c描述在不产生预测块的情况下通过使用与当前块邻近的恢复的像素值来对预测块的均值进行预测的示例。
图6是示出根据一些示例性实施例的层间视频解码设备的另一示例的示图。
参照图6,根据一些示例性实施例的层间视频解码设备600由预测模式确定器610、均值计算器620和深度查找表索引确定器630组成。
如果将被解码的当前块通过使用简化的深度图像编码技术被编码,则预测模式确定器610确定当前块在包括DC模式、平面模式、角模式和深度建模模式(DMM)预测模式的预测模式中的哪一预测模式下被编码。这里,简化的深度图像编码技术可表示如以上参照图1a至图5b描述的通过使用预测块的均值对深度图像进行编码的方法。
均值计算器620直接从被解码的当前块的邻近像素值计算出预测块的均值。以下将参照图7a至图7c给出计算均值的方法的详细描述。
深度查找表索引确定器630通过使用深度查找表来确定与由均值计算器620计算出的预测块的均值相应的索引值。
例如,图7a是用于描述根据一些示例性实施例的在DC预测模式下计算预测块的均值的方法的另一示例的示图。
参照图7a,在DC预测模式下产生将被解码的当前块70的预测块之前,均值计算器620直接从将被解码的当前块70的邻近像素值71产生预测块的均值。例如,如果将被解码的当前块70是在DC预测模式下通过使用简化的深度图像编码技术被编码的,则通过使用将被解码的当前块70周围的邻近像素根据下面的等式3计算出值dcVal,并将计算出的dcVal用作相应块的均值。
[等式3]
d c V a l = ( Σ x ′ = 0 n T b S - 1 p [ x ′ ] [ - 1 ] + Σ y ′ = 0 n T b S - 1 [ - 1 ] p [ y ′ ] + n T b S ) > > ( k + 1 )
其中,k=log2(nTbS)
这里,nTbS表示将被编码或将被解码的块的水平长度或垂直长度,x'表示关于宽度方向的索引,y'表示关于长度方向的索引。
图7b是用于描述根据一些示例性实施例的在DMM预测模式下计算预测块的均值的方法的另一示例的示图。
参照图7b,在产生将被解码的当前块的预测块之前,均值计算器620直接从将被解码的当前块的邻近像素值产生预测块的均值。如果当前块的预测模式是DMM模式-1预测模式,则将当前块划分为两个区域。图7b示出在DMM模式-1预测模式下对当前块进行划分的四种可行的情况。
在第一划分图案中,区域-1710的邻近像素700和705的平均像素值被计算为相应区域的均值。然而,在第一划分的图案中,由于不存在相应区域的邻近像素,因此可将深度值的中值128计算为关于第一划分的图案的DC值。
在第二划分图案中,区域-1740的邻近像素720和725的平均像素值被计算为相应区域的均值。另外,在第二划分图案中,区域-2745的邻近像素730和735的平均像素值被计算为相应区域的均值。
在第三划分图案中,区域-1760的邻近像素750被计算为相应区域的均值。另外,在第三划分图案中,区域-2765的邻近像素755的像素值被计算为相应区域的均值。
在第四划分图案中,区域-1780的邻近像素770被计算为相应区域的均值。另外,在第四划分图案中,区域-2785的邻近像素775的像素值被计算为相应区域的均值。这里,尽管以上参照图7b描述了关于8x8块的DC值的计算,但在相同的方面可计算关于16x16、32x32或64x64预测块的各个区域的DC值。
图7c是用于描述根据一些示例性实施例的在平面预测模式下计算预测块的均值的方法的示图。
参照图7c,在产生将被解码的当前块的预测块之前,均值计算器620直接从当前块的邻近像素值产生预测块的均值。如果将被解码的当前块是在平面预测模式下被编码的,则可根据图7c的表794之中示出的等式计算相应预测块的均值。
例如,在4x4块的情况下,其均值被计算为“(6×(SUMhor+SUMver)+40×(RT+LB)+26)>>7”。这里,“SUMhor”表示位于当前块上方的邻近像素a、b、c和d的总和791。“SUMver”表示位于当前块的左侧的邻近像素f、g、h和I的总和792。“RT”表示位于当前块的右上角的当前块的邻近像素790,而“LB”表示位于当前块的左下角的当前块的邻近像素793。如上所述,作为代替在预测模式下产生预测块的像素值的方式,均值计算器620根据表794的等式直接从自邻近像素值计算出的“SUMhor”、“SUMver”、“RT”和“LB”计算DC值。尽管关于4x4块给出了根据本实施例的用于值“SUMhor”、“SUMver”、“RT”和“LB”的计算的以上描述,但相同的处理可应用于更大的块。另外,为了减少编码/解码处理的复杂度,可直接经由使用邻近像素值a、b、c、d、e、f、g、h、i和j中的一些像素值的加权计算来计算出DC值。
同时,为了便于解释,以上参照图4a至图4c以及图6至图7c仅描述了由层间视频解码设备20和600执行的操作,并且省略了由层间视频编码设备10执行的操作。然而,对于本领域普通技术人员而言显然的是,可由层间视频编码设备10执行与由层间视频解码设备20和600执行的操作相应的操作。
如上所述,根据一些示例性实施例的层间视频编码设备10和根据一些示例性实施例的层间视频解码设备20可将视频数据的块划分为具有树结构的编码单元,编码单元、预测单元和变换单元可用于编码单元的层间预测或帧间预测。以下,将参照图8至图20描述根据一些示例性实施例的基于具有树结构的编码单元和变换单元的视频编码方法、视频编码设备、视频解码方法和视频解码设备。
原理上,在多层视频的编码和解码处理期间,单独地执行第一层图像的编码和解码处理以及第二层图像的编码和解码处理。换句话说,当对多层视频执行层间预测时,可相互参考单层视频的编码和解码结果,但根据单层视频执行单独的编码和解码处理。
因此,由于为了便于描述以下参照图8至图20描述的基于具有树结构的编码单元的视频编码和解码处理是用于处理单层视频的视频编码和解码处理,因此仅执行帧间预测和运动补偿。然而,如以上参照图1a至图7所述,为了对视频流进行编码和解码,可对基础层图像和第二层图像执行层间预测和补偿。
因此,为了使根据一些示例性实施例的层间视频编码设备的编码器基于具有树结构的编码单元对多层视频进行编码,层间视频编码设备10可包括与多层视频的层数一样多的图8的视频编码设备800,以便根据每个单层视频执行视频编码,从而控制每个视频编码设备800对分配的单层视频进行编码。此外,层间视频编码设备10可通过使用每个视频编码设备800的单独的视点的编码结果来执行视点间预测。因此,层间视频编码设备的编码器可产生包括根据层的编码结果的第二层视频流和基本视点视频流。
类似地,为了使根据一些示例性实施例的层间视频解码设备的解码器基于具有树结构的编码单元对多层视频进行解码,层间视频解码设备可包括与多层视频的层数一样多的图9的视频解码设备900以便针对接收到的第一层视频流和接收到的第二层视频流根据层执行视频解码,从而控制每个视频解码设备900对分配的单层视频进行解码。此外,层间视频解码设备900可通过使用每个视频解码设备900的单个层的解码结果来执行层间补偿。因此,层间视频解码设备的解码器可产生根据层被重建的第二层图像和第一层图像。
图8是根据一些示例性实施例的基于根据树结构的编码单元的视频编码设备800的框图。
涉及基于根据树结构的编码单元的视频预测的根据一些示例性实施例的视频编码设备800包括编码单元确定器820和输出单元830。以下,为便于描述,涉及基于根据树结构的编码单元的视频预测的根据一些示例性实施例的视频编码设备10将被简称为“视频编码设备800”。
编码单元确定器820可基于图像的当前画面的最大编码单元来划分当前画面,其中,最大编码单元是具有最大尺寸的编码单元。如果当前画面大于最大编码单元,则可将当前画面的图像数据划分为至少一个最大编码单元。根据一些示例性实施例的最大编码单元可以是尺寸为32×32、64×64、128×128、256×256等的数据单元,其中,数据单元的形状是宽度和长度为2的若干次方的正方形。
根据一些实施例的编码单元可由最大尺寸和深度表征。深度表示编码单元从最大编码单元被空间划分的次数,并且随着深度加深,根据深度的较深层编码单元可从最大编码单元被划分到最小编码单元。最大编码单元的深度为最高深度,最小编码单元的深度为最低深度。由于随着最大编码单元的深度加深,与每个深度相应的编码单元的尺寸减小,因此与更高深度相应的编码单元可包括多个与更低深度相应的编码单元。
如上所述,当前画面的图像数据根据编码单元的最大尺寸被划分为最大编码单元,并且每个最大编码单元可包括根据深度被划分的较深层编码单元。由于根据深度对根据一些示例性实施例的最大编码单元进行划分,因此可根据深度对包括在最大编码单元中的空间域的图像数据进行分层分类。
可预先确定编码单元的最大深度和最大尺寸,其中,所述最大深度和最大尺寸限制最大编码单元的高度和宽度被分层划分的总次数。
编码单元确定器820对通过根据深度对最大编码单元的区域进行划分而获取的至少一个划分区域进行编码,并且根据所述至少一个划分区域来确定用于输出最终编码的图像数据的深度。换句话说,编码单元确定器820通过根据当前画面的最大编码单元以根据深度的较深层编码单元对图像数据进行编码,并选择具有最小编码误差的深度,来确定最终深度。将确定的最终深度和根据确定的编码深度的编码的图像数据输出到输出单元830。
基于与等于或低于最大深度的至少一个深度相应的较深层编码单元,对最大编码单元中的图像数据进行编码,并且基于每个较深层编码单元比较对图像数据进行编码的结果。在对较深层编码单元的编码误差进行比较之后,可选择具有最小编码误差的深度。可针对每个最大编码单元选择至少一个最终深度。
随着编码单元根据深度而被分层地划分并且随着编码单元的数量增加,最大编码单元的尺寸被划分。另外,即使在一个最大编码单元中编码单元与同一深度相应,仍通过分别测量每个编码单元的图像数据的编码误差来确定是否将与同一深度相应的每个编码单元划分到更低深度。因此,即使当图像数据被包括在一个最大编码单元中时,编码误差仍可根据所述一个最大编码单元中的区域而不同,因此最终深度可根据图像数据中的区域而不同。因此,可在一个最大编码单元中确定一个或更多个最终深度,并且可根据至少一个最终深度的编码单元来对最大编码单元的图像数据进行划分。
因此,根据一些示例性实施例的编码单元确定器820可确定包括在最大编码单元中的具有树结构的编码单元。根据一些示例性实施例的“具有树结构的编码单元”包括最大编码单元中包括的所有较深层编码单元之中的与确定为最终深度的深度相应的编码单元。可根据最大编码单元的同一区域中的深度来分层地确定最终深度的编码单元,并可在不同区域中独立地确定最终深度的编码单元。类似地,可与另一区域中的最终深度独立地确定当前区域中的最终深度。
根据一些示例性实施例的最大深度是与从最大编码单元到最小编码单元的划分次数相关的索引。根据一些示例性实施例的第一最大深度可表示从最大编码单元到最小编码单元的总划分次数。根据一些示例性实施例的第二最大深度可表示从最大编码单元到最小编码单元的深度等级的总数。例如,当最大编码单元的深度是0时,对最大编码单元划分一次的编码单元的深度可被设置为1,对最大编码单元划分两次的编码单元的深度可被设置为2。这里,如果最小编码单元是最大编码单元被划分四次的编码单元,则存在深度0、1、2、3和4的深度等级,并且因此第一最大深度可被设置为4,第二最大深度可被设置为5。
可根据最大编码单元执行预测编码和变换。还根据最大编码单元,基于根据等于或小于最大深度的深度的较深层编码单元来执行预测编码和变换。
由于每当根据深度对最大编码单元进行划分时,较深层编码单元的数量增加,因此对随着深度加深而产生的所有较深层编码单元执行包括预测编码和变换的编码。为了便于描述,在最大编码单元中,现在将基于当前深度的编码单元来描述预测编码和变换。
根据一些示例性实施例的视频编码设备800可不同地选择用于对图像数据进行编码的数据单元的尺寸或形状。为了对图像数据进行编码,执行诸如预测编码、变换和熵编码的操作,此时,可针对所有操作使用相同的数据单元,或者可针对每个操作使用不同的数据单元。
例如,视频编码设备800不仅可选择用于对图像数据进行编码的编码单元,还可选择不同于编码单元的数据单元,以便对编码单元中的图像数据执行预测编码。
为了在最大编码单元中执行预测编码,可基于根据一些示例性实施例的与最终深度相应的编码单元(即,基于不再被划分为与更低深度相应的编码单元的编码单元)来执行预测编码。以下,不再被划分且成为用于预测编码的基本单元的编码单元现在将被称为“预测单元”。通过划分预测单元而获取的分区可包括预测单元或通过对预测单元的高度和宽度中的至少一个进行划分而获取的数据单元。分区是编码单元的预测单元被划分的数据单元,并且预测单元可以是与编码单元具有相同的尺寸的分区。
例如,当2N×2N(其中,N是正整数)的编码单元不再被划分并成为2N×2N的预测单元时,分区的尺寸可以是2N×2N、2N×N、N×2N或N×N。根据一些示例性实施例的分区模式的示例包括通过对预测单元的高度或宽度进行对称地划分而获取的对称分区、通过对预测单元的高度或宽度进行非对称地划分(诸如,1:n或n:1)而获取的分区、通过对预测单元进行几何地划分而获取的分区、以及具有任意形状的分区。
预测单元的预测模式可以是帧内模式、帧间模式和跳过模式中的至少一个。例如,可对2N×2N、2N×N、N×2N或N×N的分区执行帧内模式或帧间模式。另外,可仅对2N×2N的分区执行跳过模式。可对编码单元中的一个预测单元独立地执行编码,从而选择具有最小编码误差的预测模式。
根据一些示例性实施例的视频编码设备800不仅可基于用于对图像数据进行编码的编码单元还可基于与编码单元不同的数据单元,来对编码单元中的图像数据执行变换。为了在编码单元中执行变换,可基于具有小于或等于编码单元的尺寸的变换单元来执行变换。例如,变换单元可包括帧内模式的数据单元和帧间模式的变换单元。
根据一些示例性实施例,以与编码单元根据树结构被划分的方式类似的方式,编码单元中的变换单元可被递归地划分为更小尺寸的区域。因此,可基于根据变换深度的具有树结构的变换单元,对编码单元中的残差数据进行划分。
还可在根据一些示例性实施例的变换单元中设置变换深度,其中,变换深度指示通过对编码单元的高度和宽度进行划分而达到变换单元的划分次数。例如,在2N×2N的当前编码单元中,当变换单元的尺寸是2N×2N时,变换深度可以是0,当变换单元的尺寸是N×N时,变换深度可以是1,当变换单元的尺寸是N/2×N/2时,变换深度可以是2。换句话说,可根据变换深度设置具有树结构的变换单元。
根据深度的划分信息不仅需要关于深度的信息,还需要关于与预测编码和变换相关的信息。因此,编码单元确定器820不仅确定具有最小编码误差的深度,还确定将预测单元划分为分区的分区模式、根据预测单元的预测模式以及用于变换的变换单元的尺寸。
稍后将参照图9至图19详细描述根据一些示例性实施例的最大编码单元中的根据树结构的编码单元以及确定预测单元/分区和变换单元的方法。
编码单元确定器820可通过使用基于拉格朗日乘数的率失真优化来测量根据深度的较深层编码单元的编码误差。
输出单元830在比特流中输出最大编码单元的图像数据和根据深度的划分信息,其中,所述最大编码单元的图像数据基于由编码单元确定器120确定的至少一个深度而被编码。
可通过对图像的残差数据进行编码来获取编码的图像数据。
根据深度的划分信息可包括关于深度的信息、关于预测单元中的分区模式的信息、关于预测模式的信息和关于变换单元的划分的信息。
可通过使用根据深度的划分信息来定义关于最终深度的信息,其中,根据深度的划分信息指示是否对更低深度而不是当前深度的编码单元执行编码。如果当前编码单元的当前深度是深度,则对当前编码单元进行编码,因此可将划分信息定义为不将当前编码单元划分到更低深度。可选择地,如果当前编码单元的当前深度不是深度,则对更低深度的编码单元执行编码,并因此可将划分信息定义为对当前编码单元进行划分以获取更低深度的编码单元。
如果当前深度不是深度,则对被划分到更低深度的编码单元的编码单元执行编码。由于更低深度的至少一个编码单元存在于当前深度的一个编码单元中,因此对更低深度的每个编码单元重复执行编码,并且因此可对具有相同深度的编码单元递归地执行编码。
由于针对一个最大编码单元确定具有树结构的编码单元,并且针对具有深度的编码单元确定划分信息,因此可针对一个最大编码单元确定至少一条划分信息。另外,由于根据深度对最大编码单元的图像数据进行分层划分,因此最大编码单元的图像数据的深度可根据位置而不同,因此可针对图像数据设置深度和划分信息。
因此,根据一些示例性实施例的输出单元830可将相应深度和关于编码模式的编码信息分配给包括在最大编码单元中的编码单元、预测单元和最小单元中的至少一个。
根据一些示例性实施例的最小单元是通过将构成最低深度的最小编码单元划分为4份而获取的正方形数据单元。可选择地,根据一些示例性实施例的最小单元可以是可包括在最大编码单元中所包括的所有编码单元、预测单元、分区单元和变换单元中的最大正方形数据单元。
例如,通过输出单元830输出的编码信息可被分类为根据较深层编码单元的编码信息和根据预测单元的编码信息。根据较深层编码单元的编码信息可包括关于预测模式的信息和关于分区尺寸的信息。根据预测单元的编码信息可包括关于帧间模式的估计方向的信息、关于帧间模式的参考图像索引的信息、关于运动矢量的信息、关于帧内模式的色度分量的信息、以及关于帧内模式的插值方法的信息。
根据画面、条带或GOP定义的关于编码单元的最大尺寸的信息和关于最大深度的信息可被插入到比特流的头、序列参数集或画面参数集中。
还可通过比特流的头、序列参数集或画面参数集来输出关于针对当前视频允许的变换单元的最大尺寸的信息、以及关于变换单元的最小尺寸的信息。输出单元830可对与预测相关的参考信息、预测信息和条带类型信息进行编码并输出。
在根据最简单的实施例的视频编码设备800中,较深层编码单元可以是通过将更高深度(更高一层)的编码单元的高度或宽度划分成两份而获取的编码单元。换句话说,在当前深度的编码单元的尺寸是2N×2N时,更低深度的编码单元的尺寸是N×N。另外,尺寸为2N×2N的具有当前深度的编码单元可包括最多4个具有更低深度的编码单元。
因此,视频编码设备800可基于考虑当前画面的特征而确定的最大编码单元的尺寸和最大深度,通过针对每个最大编码单元确定具有最优形状和最优尺寸的编码单元来形成具有树结构的编码单元。另外,由于可通过使用各种预测模式和变换中的任意一个对每个最大编码单元执行编码,因此可考虑各种图像尺寸的编码单元的特征来确定最优编码模式。
因此,如果以传统宏块对具有高分辨率或大数据量的图像进行编码,则每个画面的宏块的数量极度增加。因此,针对每个宏块产生的压缩信息的条数增加,因此难以发送压缩的信息,并且数据压缩效率降低。然而,通过使用根据一些示例性实施例的视频编码设备800,由于在考虑图像的尺寸的同时增加编码单元的最大尺寸,并且在考虑图像的特征的同时调整编码单元,因此可提高图像压缩效率。
以上参照图1a描述的层间视频编码设备可包括与层数一样多的视频编码设备800,以便根据多层视频的层对单层图像进行编码。例如,第一层编码器可包括一个视频编码设备100,第二层编码器可包括与第二层的数量一样多的视频编码设备800。
当视频编码设备800对第一层图像进行编码时,编码单元确定器820可针对每个最大编码单元确定用于根据具有树结构的编码单元的帧间预测的预测单元,并可根据预测单元执行帧间预测。
即使在视频编码设备800对第二层图像进行编码时,编码单元确定器120可针对每个最大编码单元确定具有树结构的编码单元和预测单元,并可根据预测单元执行帧间预测。
视频编码设备800可用于对第一层图像和第二层图像之间的亮度差进行补偿的亮度差进行编码。然而,可根据编码单元的编码模式确定是否执行亮度补偿。例如,可仅对尺寸为2Nx2N的预测单元执行亮度补偿。
图9是根据本发明构思的一些示例性实施例的基于根据树结构的编码单元的视频解码设备900的框图。
涉及基于具有树结构的编码单元的视频预测的根据一些示例性实施例的视频解码设备900包括接收器910、图像数据和编码信息提取器920以及图像数据解码器930。为了便于描述,涉及基于具有树结构的编码单元的视频预测的根据一些示例性实施例的视频解码设备900将被简称为“视频编码设备900”。
用于根据一些示例性实施例的视频解码设备900的解码操作的各种术语(诸如编码单元、深度、预测单元、变换单元和各种划分信息)的定义与参照图8和视频编码设备100描述的定义相同。
接收器910接收并解析编码视频的比特流。图像数据和编码信息提取器920从解析的比特流针对每个编码单元提取编码的图像数据,并将提取的图像数据输出到图像数据解码器930,其中,编码单元具有根据每个最大编码单元的树结构。图像数据和编码信息提取器920可从关于当前画面的头、序列参数集或画面参数集提取关于当前画面的编码单元的最大尺寸的信息。
另外,图像数据和编码信息提取器920从解析的比特流根据每个最大编码单元提取具有树结构的编码单元的最终深度和划分信息。提取的最终深度和划分信息被输出到图像数据解码器930。换句话说,比特流中的图像数据被划分为最大编码单元,使得图像数据解码器930针对每个最大编码单元对图像数据进行解码。
可针对至少一条深度信息设置根据最大编码单元的深度和划分信息,划分信息可包括关于相应编码单元的分区模式的信息、关于预测模式的信息和关于变换单元的划分的信息。另外,根据深度的划分信息可被提取为关于深度的信息。
由图像数据和编码信息提取器920提取的根据每个最大编码单元的深度和划分信息是这样的深度和划分信息:所述深度和划分信息被确定为在编码器(诸如,根据一些示例性实施例的视频编码设备100)根据每个最大编码单元对根据深度的每个较深层编码单元重复地执行编码时产生最小编码误差。因此,视频解码设备900可通过根据产生最小编码误差的编码深度和编码模式对图像数据进行解码来重建图像。
由于根据一些示例性实施例的关于深度和编码模式的编码信息可被分配给相应的编码单元、预测单元和最小单元中的预定数据单元,因此图像数据和编码信息提取器920可根据预定数据单元提取深度和划分信息。如果相应最大编码单元的深度和划分信息根据预定数据单元被记录,则可将被分配相同的深度和相同的划分信息的预定数据单元推断为是包括在同一最大编码单元中的数据单元。
图像数据解码器930可基于根据最大编码单元的深度和划分信息,通过对每个最大编码单元中的图像数据进行解码来重建当前画面。换句话说,图像数据解码器930可基于提取出的关于包括在每个最大编码单元中的具有树结构的编码单元之中的每个编码单元的分区模式、预测模式和变换单元的信息,对编码的图像数据进行解码。解码处理可包括预测(包含帧内预测和运动补偿)和逆变换。
图像数据解码器930可基于关于根据深度的编码单元的预测单元的分区模式和预测模式的信息,根据每个编码单元的分区和预测模式执行帧内预测或运动补偿。
此外,图像数据解码器930可针对每个编码单元读取关于根据树结构的变换单元的信息,以便基于每个编码单元的变换单元执行逆变换,以针对每个最大编码单元来进行逆变换。经过逆变换,可重建编码单元的空间域的像素值。
图像数据解码器930可通过使用根据深度的划分信息来确定当前最大编码单元的深度。如果划分信息指示图像数据在当前深度中不再被划分,则当前深度是深度。因此,图像数据解码器930可通过使用关于预测单元的分区模式、预测模式和变换单元的尺寸的信息来对当前最大编码单元中的编码数据进行解码。
换句话说,可通过观察被分配用于编码单元、预测单元和最小单元之中的预定数据单元的编码信息集来收集包含包括相同划分信息的编码信息的数据单元,并且收集的数据单元可被认为是将由图像数据解码器930以相同编码模式进行解码的一个数据单元。因此,可通过获取关于每个编码单元的编码模式的信息来对当前编码单元进行解码。
以上参照图2a描述的层间视频解码设备20可包括与视点数一样多的视频解码设备900,以便通过对接收的第一层图像流和接收的第二层图像流进行解码来重建第一层图像和第二层图像。
当第一层图像流被接收时,视频解码设备900的图像数据解码器930可将由图像数据和编码信息提取器920从第一层图像流提取的第一层图像的样点划分为具有树结构的编码单元。图像数据解码器930可对通过对第一层图像的样点进行划分而获得的具有树结构的编码单元执行用于帧间预测的根据预测单元的运动补偿,从而重建第一层图像。
当第二层图像流被接收时,视频解码设备900的图像数据解码器930可将由图像数据和编码信息提取器920从第二层图像流提取的第二层图像的样点划分为具有树结构的编码单元。图像数据解码器930可对通过对第二层图像的样点进行划分而获得的编码单元执行用于帧间预测的根据预测单元的运动补偿,从而重建第二层图像。
提取器920可从比特流获取与亮度差相关的信息,以便补偿第一层图像和第二层图像之间的亮度差。然而,可根据编码单元的编码模式确定是否执行亮度补偿。例如,可仅对尺寸为2Nx2N的预测单元执行亮度补偿。
因此,视频解码设备900可获取与在对每个最大编码单元递归地执行编码时产生最小编码误差的至少一个编码单元有关的信息,并可使用所述信息来对当前画面进行解码。换句话说,可对每个最大编码单元中的被确定为最优的编码单元的具有树结构的编码单元进行解码。
因此,即使图像数据具有高分辨率和大数据量,也可通过使用编码单元的尺寸和编码模式来有效地对图像数据进行解码和重建,其中,所述编码单元的尺寸和编码模式是通过使用从编码器接收的最优划分信息,根据图像数据的特性而被自适应地确定的。
图10是用于描述根据一些示例性实施例的编码单元的概念的示图。
编码单元的尺寸可被表示为宽度×高度,并且可以是64×64、32×32、16×16和8×8。64×64的编码单元可被划分为64×64、64×32、32×64或32×32的分区,32×32的编码单元可被划分为32×32、32×16、16×32或16×16的分区,16×16的编码单元可被划分为16×16、16×8、8×16或8×8的分区,8×8的编码单元可被划分为8×8、8×4、4×8或4×4的分区。
在视频数据1010中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为2。在视频数据1020中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为3。在视频数据1030中,分辨率为352×288,编码单元的最大尺寸为16,最大深度为1。图10中示出的最大深度表示从最大编码单元到最小解码单元的划分总次数。
如果分辨率高或数据量大,则编码单元的最大尺寸可能较大,从而不仅提高编码效率,而且准确地反映图像的特征。因此,具有比视频数据1030更高分辨率的视频数据1010和1020的编码单元的最大尺寸可以是64。
由于视频数据1010的最大深度是2,因此由于通过对最大编码单元划分两次,深度加深至两层,因此视频数据1010的编码单元1015可包括长轴尺寸为64的最大编码单元和长轴尺寸为32和16的编码单元。由于视频数据1030的最大深度是1,因此由于通过对最大编码单元划分一次,深度加深至一层,因此视频数据1030的编码单元1035可包括长轴尺寸为16的最大编码单元和长轴尺寸为8的编码单元。
由于视频数据1020的最大深度是3,因此由于通过对最大编码单元划分三次,深度加深至3层,因此视频数据1020的编码单元1025可包括长轴尺寸为64的最大编码单元和长轴尺寸为32、16和8的编码单元。随着深度加深,可准确地表达详细信息。
图11是根据一些示例性实施例的基于编码单元的图像编码器1100的框图。
根据一些实施例的图像编码器1100执行视频编码设备800的编码单元确定器1520的对图像数据进行编码的操作。换句话说,帧内预测器1120在当前画面1105中针对每个预测单元对帧内模式下的编码单元执行帧内预测,帧间预测器1115针对每个预测单元通过使用当前画面1105和通过恢复的画面缓存器1110获取的参考画面对帧间模式下的编码单元执行帧间预测。当前画面1105可被划分为最大编码单元,然后最大编码单元可被顺序编码。这里,可对从最大编码单元按照树结构被划分的编码单元执行编码。
通过从与将被编码的当前画面1105的数据减去从帧内预测器1120或帧间预测器1115输出的每个模式的编码单元的预测数据来产生残差数据,并且所述残差数据针对每个变换单元通过变换器1125和量化器11130被输出为量化后的变换系数。量化后的变换系数通过反量化器1145和逆变换器1150被恢复为空间域中的残差数据。空间域中的残差数据被添加到从帧内预测器1120或帧间预测器1115输出的每个模式的编码单元的预测数据,以被恢复为当前画面1105的编码单元的空间域中的数据。空间域中的数据通过去块单元1155和样点自适应偏移(SAO)执行器1160,因此产生恢复的图像。恢复的图像被存储在恢复的画面缓存器1110中。恢复的画面缓存器1110中存储的恢复的图像可被用作用于另一图像的帧间预测的参考画面。通过变换器1125和量化器1130而获得的量化的变换系数可通过熵编码器1135被输出为比特流1140。
为了将根据一些实施例的图像编码器1100应用于视频编码设备800,图像编码器1100的组件(即,帧间预测器1115、帧内预测器1120、变换器1125、量化器1130、熵编码器1135、反量化器1145、逆变换器1150、去块单元1155和SAO执行器1160)根据每个最大编码单元基于具有树结构的编码单元之中的每个编码单元执行操作。
具体地,帧内预测器1120和帧间预测器1115可在考虑当前最大编码单元的最大尺寸和最大深度的情况下确定具有树结构的编码单元之中的每个编码单元的分区和预测模式,变换器1125可确定是否在具有树结构的编码单元之中的每个编码单元中划分根据四叉树结构的变换单元。
图12是根据一些实施例的基于编码单元的图像解码器1200的框图。
熵解码器1215从比特流1205解析将被解码的编码图像数据和解码所需的编码信息。编码图像数据是量化后的变换系数,反量化器1220和逆变换器1225从所述量化后的变换系数恢复残差数据。
帧内预测器1240根据预测单元对帧内模式下的编码单元执行帧内预测。帧间预测器通过使用通过恢复的画面缓存器1230获取的参考画面,根据预测单元对来自当前画面的帧间模式下的编码单元执行帧间预测。
通过经过帧内预测器和帧间预测器1235将每个模式的编码单元的预测数据和残差数据相加来恢复当前画面的编码单元的空间域的数据,并且空间域的数据可通过去块单元1245和SAO执行器1250被输出为恢复的图像。此外,恢复的画面缓存器1230中存储的恢复的图像可被输出为参考画面。
为了在视频解码设备900的图像数据解码器930中对图像数据进行解码,可执行根据一些实施例的图像解码器1200的熵解码器1215之后的操作。
为了将图像解码器1200应用于根据一些实施例的视频解码设备900中,图像解码器1200的组件(即,熵解码器1215、反量化器1220、逆变换器1225、帧内预测器1240、帧间预测器1235、去块单元1245和SAO执行器1250)可针对每个最大编码单元基于具有树结构的编码单元执行操作。
具体地,帧内预测器1240和帧间预测器1235可根据具有树结构的编码单元中的每个编码单元确定分区模式和预测模式,逆变换器1225可针对每个编码单元确定是否划分根据四叉树结构的变换单元。
图10的编码操作和图11的解码操作分别是单层中的视频流编码操作和视频流解码操作。因此,当图1a的层间视频编码设备10对至少两个层的视频流进行编码时,图1a的视频编码设备100可包括与层数一样多的图像编码器1100。类似地,当图9a的解码器92对至少两层的视频流进行解码时,图9a的视频解码设备900可包括与层数一样多的图像解码器1200。
图13是示出根据本发明构思的一些示例性实施例的编码单元和分区的示图。
根据一些示例性实施例的视频编码设备800和根据一些示例性实施例的视频解码设备900使用分层编码单元以考虑图像的特征。可根据图像的特征自适应地确定编码单元的最大高度、最大宽度和最大深度,或可由用户不同地设置编码单元的最大高度、最大宽度和最大深度。可根据编码单元的预定最大尺寸来确定根据深度的较深层编码单元的尺寸。
根据一些示例性实施例,在编码单元的分层结构1300中,编码单元的最大高度和最大宽度均是64,最大深度是3。在此情况下,最大深度是指编码单元从最大编码单元到最小编码单元被划分的总次数。由于深度沿着根据一些示例性实施例的编码单元的分层结构1300的垂直轴加深,因此较深层编码单元的高度和宽度均被划分。另外,预测单元和分区沿着分层结构600的水平轴被示出,其中,所述预测单元和分区是对每个较深层编码单元进行预测编码的基础。
换句话说,编码单元1310是分层结构1300中的最大编码单元,其中,深度为0,尺寸(即,高度乘宽度)为64×64。深度沿着垂直轴加深,存在尺寸为32×32且深度为1的编码单元1320、尺寸为16×16且深度为2的编码单元1330、尺寸为8×8且深度为3的编码单元1340。尺寸为8×8且深度为3的编码单元1340是最小编码单元。
编码单元的预测单元和分区根据每个深度沿着水平轴被排列。换句话说,如果尺寸为64×64且深度为0的编码单元1310是预测单元,则可将预测单元划分成包括在编码单元1310中的分区,即,尺寸为64×64的分区1310、尺寸为64×32的分区1312、尺寸为32×64的分区1314或尺寸为32×32的分区1316。
类似地,可将尺寸为32×32且深度为1的编码单元1320的预测单元划分成包括在编码单元1320中的分区,即,尺寸为32×32的分区1320、尺寸为32×16的分区1322、尺寸为16×32的分区1324和尺寸为16×16的分区1326。
类似地,可将尺寸为16×16且深度为2的编码单元1330的预测单元划分成包括在编码单元1330中的分区,即,包括在编码度单元1330中的尺寸为16×16的分区、尺寸为16×8的分区1332、尺寸为8×16的分区1334和尺寸为8×8的分区1336。
类似地,可将尺寸为8×8且深度为3的编码单元1340的预测单元划分成包括在编码单元1340中的分区,即,包括在编码单元1340中的尺寸为8×8的分区、尺寸为8×4的分区1342、尺寸为4×8的分区1344和尺寸为4×4的分区1346。
为了确定最大编码单元1310的深度,根据一些示例性实施例的视频编码设备800的编码单元确定器120对包括在最大编码单元1310中的与每个深度相应的编码单元执行编码。
随着深度加深,包括具有相同范围和相同尺寸的数据的根据深度的较深层编码单元的数量增加。例如,需要四个与深度2相应的编码单元来覆盖包括在与深度1相应的一个编码单元中的数据。因此,为了根据深度比较相同数据的编码结果,与深度1相应的编码单元和四个与深度2相应的编码单元均被编码。
为了针对多个深度之中的当前深度执行编码,可沿着分层结构1300的水平轴,通过对与当前深度相应的编码单元中的每个预测单元执行编码,来针对当前深度选择最小编码误差。可选地,随着深度沿着分层结构1300的垂直轴加深,可通过针对每个深度执行编码来比较根据深度的最小编码误差,以搜索最小编码误差。最大编码单元1310中的具有最小编码误差的深度和分区可被选为最大编码单元1310的深度和分区模式。
图14是用于描述根据本发明构思的一些实施例的编码单元和变换单元之间的关系的示图。
根据一些示例性实施例的视频编码设备800或根据一些示例性实施例的视频解码设备900针对每个最大编码单元,根据具有小于或等于最大编码单元的尺寸的编码单元对图像进行编码或解码。可基于不大于相应编码单元的数据单元来选择用于在编码期间进行变换的变换单元的尺寸。
例如,在根据一些示例性实施例的视频编码设备800或根据一些示例性实施例的视频解码设备900中,如果编码单元1410的尺寸是64×64,则可通过使用尺寸为32×32的变换单元1420来执行变换。
此外,可通过对小于64×64的尺寸为32×32、16×16、8×8和4×4的变换单元中的每一个执行变换,来对尺寸为64×64的编码单元1410的数据进行编码,然后可选择具有最小编码误差的变换单元。
图15是用于描述根据一些示例性实施例的编码信息的示图。
根据一些示例性实施例的视频编码设备800的输出单元830可对与深度相应的每个编码单元的关于分区模式的信息1500、关于预测模式的信息1510以及关于变换单元的尺寸的信息1520进行编码,并将信息1500、信息1510以及信息1520作为划分信息来发送。
信息1500指示关于通过划分当前编码单元的预测单元而获取的分区的形状的信息,其中,分区是用于对当前编码单元进行预测编码的数据单元。例如,可将尺寸为2N×2N的当前编码单元CU_0划分成以下分区中的任意一个:尺寸为2N×2N的分区1502、尺寸为2N×N的分区1504、尺寸为N×2N的分区1506和尺寸为N×N的分区1508。这里,关于分区类型的信息1500被设置为指示以下分区之一:尺寸为2N×N的分区1504、尺寸为N×2N的分区1506和尺寸为N×N的分区1508。
信息1510指示每个分区的预测模式。例如,信息1510可指示对由信息1500指示的分区执行的预测编码的模式,即,帧内模式1512、帧间模式1514或跳过模式1516。
信息1520指示当对当前编码单元执行变换时所基于的变换单元。例如,变换单元可以是第一帧内变换单元1522、第二帧内变换单元1524、第一帧间变换单元1526或第二帧间变换单元1528。
根据一些示例性实施例的视频解码设备900的图像数据和编码信息提取器1610可根据每个较深层编码单元,提取并使用用于解码的信息1500、信息1510和信息1520。
图16是根据一些示例性实施例的根据深度的较深层编码单元的示图。
划分信息可用来指示深度的改变。划分信息指示当前深度的编码单元是否被划分成更低深度的编码单元。
用于对深度为0且尺寸为2N_0×2N_0的编码单元1600进行预测编码的预测单元1610可包括以下分区模式的分区:尺寸为2N_0×2N_0的分区模式1612、尺寸为2N_0×N_0的分区模式1614、尺寸为N_0×2N_0的分区模式1616和尺寸为N_0×N_0的分区模式1618。图16仅示出了通过对称地划分预测单元而获取的分区1612至1618,但是分区模式不限于此,并且预测单元的分区可包括非对称分区、具有预定形状的分区和具有几何形状的分区。
根据每种分区模式,对尺寸为2N_0×2N_0的一个分区、尺寸为2N_0×N_0的两个分区、尺寸为N_0×2N_0的两个分区和尺寸为N_0×N_0的四个分区重复地执行预测编码。可对尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区执行帧内模式和帧间模式下的预测编码。仅对尺寸为2N_0×2N_0的分区执行跳过模式下的预测编码。
如果在分区模式1612至1616中的一个分区模式中编码误差最小,则可不将预测单元1610划分到更低深度。
如果在分区模式1618中编码误差最小,则深度从0改变到1以在操作1620中对分区模式1618进行划分,并对深度为2且尺寸为N_0×N_0的编码单元1630重复地执行编码来搜索最小编码误差。
用于对深度为1且尺寸为2N_1×2N_1(=N_0×N_0)的编码单元1630进行预测编码的预测单元1640可包括以下分区模式的分区:尺寸为2N_1×2N_1的分区模式1642、尺寸为2N_1×N_1的分区模式1644、尺寸为N_1×2N_1的分区模式1646以及尺寸为N_1×N_1的分区模式1648。
如果在分区模式1648中编码误差最小,则深度从1改变到2以在操作1650中对分区模式1648进行划分,并对深度为2且尺寸为N_2×N_2的编码单元1660重复执行编码来搜索最小编码误差。
当最大深度是d时,根据每个深度的划分操作可被执行直到深度变成d-1时,并且划分信息可被编码直到深度是0到d-2之一时。换句话说,当编码被执行直到在与d-2的深度相应的编码单元在操作1670中被划分之后深度是d-1时,用于对深度为d-1且尺寸为2N_(d-1)×2N_(d-1)的编码单元1680进行预测编码的预测单元1690可包括以下分区模式的分区:尺寸为2N_(d-1)×2N_(d-1)的分区模式1692、尺寸为2N_(d-1)×N_(d-1)的分区模式1694、尺寸为N_(d-1)×2N_(d-1)的分区模式1696和尺寸为N_(d-1)×N_(d-1)的分区模式1698。
可对分区模式中的尺寸为2N_(d-1)×2N_(d-1)的一个分区、尺寸为2N_(d-1)×N_(d-1)的两个分区、尺寸为N_(d-1)×2N_(d-1)的两个分区、尺寸为N_(d-1)×N_(d-1)的四个分区重复地执行预测编码,以搜索具有最小编码误差的分区模式。
即使当分区模式1698具有最小编码误差时,由于最大深度是d,因此深度为d-1的编码单元CU_(d-1)不再被划分到更低深度,用于构成当前最大编码单元1600的编码单元的深度被确定为d-1,并且当前最大编码单元1600的分区模式可被确定为N_(d-1)×N_(d-1)。此外,由于最大深度是d,因此不设置针对深度为d-1的编码单元1652的划分信息。
数据单元1699可以是用于当前最大编码单元的“最小单元”。根据一些示例性实施例的最小单元可以是通过将具有最低深度的最小编码单元划分成4份而获取的正方形数据单元。通过重复地执行编码,根据一些示例性实施例的视频编码设备800可通过比较根据编码单元1600的深度的编码误差来选择具有最小编码误差的深度以确定深度,并将相应分区模式和预测模式设置为该深度的编码模式。
这样,在所有深度1至d中对根据深度的最小编码误差进行比较,并且具有最小编码误差的深度可被确定为d深度。深度、预测单元的分区模式和预测模式可作为划分信息被编码并被发送。另外,由于编码单元从深度0被划分到深度,因此仅将深度的划分信息设置为0,并且将除了该深度以外的深度的划分信息设置为1。
根据一些示例性实施例的视频解码设备900的图像数据和编码信息提取器920可提取并使用关于编码单元1600的深度和预测单元的信息,以对分区1612进行解码。根据一些示例性实施例的视频解码设备200可通过使用根据深度的划分信息,将划分信息为0的深度确定为深度,并且使用相应深度的划分信息来进行解码。
图17至图19是用于描述根据一些示例性实施例的在编码单元、预测单元和变换单元之间的关系的示图。
编码单元1710是最大编码单元中的根据由根据一些示例性实施例的视频编码设备800确定的深度的具有树结构的编码单元。预测单元1760是根据深度的每个编码单元的预测单元的分区,变换单元1770是根据深度的每个编码单元的变换单元。
当在编码单元1710中最大编码单元的深度是0时,编码单元1712和1754的深度是1,编码单元1714、1716、1718、1728、1750和1752的深度是2,编码单元1720、1722、1724、1726、1730、1732和1748的深度是3,编码单元1740、1742、1744和1746的深度是4。
在预测单元1760中,通过划分编码单元1710中的编码单元来获取一些编码单元1714、1716、1722、1732、1748、1750、1752和1754。换句话说,编码单元1714、1722、1750和1754中的分区模式的尺寸是2N×N,编码单元1716、1748和1752中的分区模式的尺寸是N×2N,编码单元1732的分区模式的尺寸为N×N。编码单元1710的预测单元和分区小于或等于每个编码单元。
在小于编码单元1752的数据单元中的变换单元1770中,对编码单元1752的图像数据执行变换或逆变换。另外,在尺寸和形状方面,变换单元1770中的编码单元1714、1716、1722、1732、1748、1750和1752不同于预测单元1760中的编码单元1714、1716、1722、1732、1748、1750和1752。换句话说,根据一些示例性实施例的视频编码设备800和视频解码设备900可对同一编码单元中的数据单元独立地执行帧内预测、运动估计、运动补偿、变换和逆变换。
因此,对最大编码单元的每个区域中的具有分层结构的每个编码单元递归地执行编码来确定最优编码单元,从而可获取具有递归树结构的编码单元。编码信息可包括关于编码单元的划分信息、关于分区模式的信息、关于预测模式的信息和关于变换单元的尺寸的信息。表9示出可由根据各种示例性实施例的视频编码设备800和视频解码设备900设置的编码信息。
[表2]
根据一些示例性实施例的视频编码设备800的输出单元830可输出关于具有树结构的编码单元的编码信息,根据一些示例性实施例的视频解码设备900的图像数据和编码信息提取器920可从接收到的比特流提取关于具有树结构的编码单元的编码信息。
划分信息指示是否将当前编码单元划分成更低深度的编码单元。如果当前深度d的划分信息是0,则当前编码单元不再被划分成更低深度的深度是深度,从而可针对深度来定义关于分区模式、预测模式和变换单元的尺寸的信息。如果当前编码单元根据划分信息被进一步划分,则对更低深度的四个划分编码单元独立地执行编码。
预测模式可以是帧内模式、帧间模式和跳过模式中的一种。可在所有分区模式中定义帧内模式和帧间模式,可仅在尺寸为2N×2N的分区模式中定义跳过模式。
关于分区模式的信息可指示通过对称地划分预测单元的高度或宽度而获取的尺寸为2N×2N、2N×N、N×2N和N×N的对称分区模式,以及通过非对称地划分预测单元的高度或宽度而获取的尺寸为2N×nU、2N×nD、nL×2N和nR×2N的非对称分区模式。可通过按1:3和3:1来划分预测单元的高度来分别获取尺寸为2N×nU和2N×nD的非对称分区模式,可通过按1:3和3:1来划分预测单元的宽度来分别获取尺寸为nL×2N和nR×2N的非对称分区模式。
可将变换单元的尺寸设置成帧内模式下的两种类型和帧间模式下的两种类型。换句话说,如果变换单元的划分信息是0,则变换单元的尺寸可以为2N×2N,即当前编码单元的尺寸。如果变换单元的划分信息是1,则可通过对当前编码单元进行划分来获取变换单元。另外,如果尺寸为2N×2N的当前编码单元的分区模式是对称分区模式,则变换单元的尺寸可以为N×N,如果当前编码单元的分区类型是非对称分区模式,则变换单元的尺寸可以是N/2×N/2。
根据一些示例性实施例,关于具有树结构的编码单元的编码信息可包括与深度相应的编码单元、预测单元和最小单元中的至少一个。与深度相应的编码单元可包括包含相同编码信息的预测单元和最小单元中的至少一个。
因此,通过比较邻近数据单元的编码信息来确定邻近数据单元是否被包括在与深度相应的同一编码单元中。另外,通过使用数据单元的编码信息来确定与深度相应的相应编码单元,并因此可确定最大编码单元中的深度的分布。
因此,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则可直接参考并使用与当前编码单元邻近的较深层编码单元中的数据单元的编码信息。
可选地,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则使用数据单元的编码信息来搜索与当前编码单元邻近的数据单元,并可参考搜索到的邻近编码单元来对当前编码单元进行预测。
图20是用于描述根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
最大编码单元2000包括多个深度的编码单元2002、2004、2006、2012、2014、2016和2018。这里,由于编码单元2018是具有深度的编码单元,因此划分信息可被设置成0。可将关于尺寸为2N×2N的编码单元2018的分区模式的信息设置成以下分区模式中的一种:尺寸为2N×2N的分区模式2022、尺寸为2N×N的分区模式2024、尺寸为N×2N的分区模式2026、尺寸为N×N的分区模式2028、尺寸为2N×nU的分区模式2032、尺寸为2N×nD的分区模式2034、尺寸为nL×2N的分区模式2036和尺寸为nR×2N的分区模式2038。
变换单元的划分信息(TU尺寸标志)是一种类型的变换索引。与变换索引相应的变换单元的尺寸可根据编码单元的预测单元类型或分区模式而改变。
例如,当分区模式被设置为对称(即,分区模式2022、2024、2026或2028)时,如果变换单元的TU尺寸标志是0,则设置尺寸为2N×2N的变换单元2042,如果TU尺寸标志是1,则设置尺寸为N×N的变换单元2044。
当分区模式被设置成非对称(即,分区模式2032、2034、2036或2038)时,如果TU尺寸标志是0,则设置尺寸为2N×2N的变换单元2052,如果TU尺寸标志是1,则设置尺寸为N/2×N/2的变换单元2054。
参照图19,TU尺寸标志是具有值0或1的标志,但是根据一些示例性实施例的TU尺寸标志不限于1比特,并且变换单元可在TU尺寸标志从0增加时被分层划分而具有树结构。变换单元的划分信息(TU尺寸标志)可以是变换索引的示例。
在这种情况下,可通过使用根据一些示例性实施例的变换单元的TU尺寸标志以及变换单元的最大尺寸和最小尺寸来表示实际上已使用的变换单元的尺寸。根据一些示例性实施例的视频编码设备800能够对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标志进行编码。对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标志进行编码的结果可被插入SPS。根据一些示例性实施例的视频解码设备900可通过使用最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标志来对视频进行解码。
例如,(a)如果当前编码单元的尺寸是64×64并且最大变换单元尺寸是32×32,则(a-1)当TU尺寸标志为0时,变换单元的尺寸可以是32×32,(a-2)当TU尺寸标志为1时,变换单元的尺寸可以是16×16,(a-3)当TU尺寸标志为2时,变换单元的尺寸可以是8×8。
作为另一示例,(b)如果当前编码单元的尺寸是32×32并且最小变换单元尺寸是32×32,则(b-1)当TU尺寸标志为0时,变换单元的尺寸可以是32×32。这里,由于变换单元的尺寸不能够小于32×32,因此TU尺寸标志不能够被设置为除了0以外的值。
作为另一示例,(c)如果当前编码单元的尺寸是64×64并且最大TU尺寸标志为1,则TU尺寸标志可以是0或1。这里,TU尺寸标志不能够被设置为除了0或1以外的值。
因此,如果定义最大TU尺寸标志为“MaxTransformSizeIndex”,最小变换单元尺寸为“MinTransformSize”,并且当TU尺寸标志为0时的变换单元尺寸为“RootTuSize”,则可通过等式(1)来定义可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”:
CurrMinTuSize=max(MinTransformSize,RootTuSize/(2^MaxTransformSizeIndex))
…(1)
与可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”相比,当TU尺寸标志为0时的变换单元尺寸“RootTuSize”可指示可在系统中选择的最大变换单元尺寸。在等式(1)中,“RootTuSize/(2^MaxTransformSizeIndex)”指示当TU尺寸标志为0时,变换单元尺寸“RootTuSize”被划分了与最大TU尺寸标志相应的次数时的变换单元尺寸,“MinTransformSize”指示最小变换尺寸。因此,“RootTuSize/(2^MaxTransformSizeIndex)”和“MinTransformSize”中较小的值可以是可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”。
根据一些示例性实施例,最大变换单元尺寸RootTuSize可根据预测模式的类型而改变。
例如,如果当前预测模式是帧间模式,则可通过使用以下的等式(2)来确定“RootTuSize”。在等式(2)中,“MaxTransformSize”指示最大变换单元尺寸,“PUSize”指示当前预测单元尺寸。
RootTuSize=min(MaxTransformSize,PUSize)……(2)
也就是说,如果当前预测模式是帧间模式,则当TU尺寸标志为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前预测单元尺寸中较小的值。
如果当前分区单元的预测模式是帧内模式,则可通过使用以下的等式(3)来确定“RootTuSize”。在等式(3)中,“PartitionSize”指示当前分区单元的尺寸:
RootTuSize=min(MaxTransformSize,PartitionSize)……(3)
也就是说,如果当前预测模式是帧内模式,则当TU尺寸标志为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前分区单元的尺寸之中较小的值。
然而,根据分区单元中的预测模式的类型而改变的当前最大变换单元尺寸“RootTuSize”仅是示例,并且本发明构思不限于此。
根据以上参照图8至图20描述的基于具有树结构的编码单元的视频编码方法,可针对树结构的每个编码单元对空间域的图像数据进行编码。根据基于具有树结构的编码单元的视频解码方法,对每个最大编码单元执行解码来重建空间域的图像数据。因此,画面和作为画面序列的视频可被重建。重建的视频可由再现设备来再现,可存储在存储介质中,或可通过网络来发送。
根据本发明构思的实施例可被编写为计算机程序,并可实现在使用计算机可读记录介质执行程序的通用数字计算机中。计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD)。
为便于描述,以上参照图1a至图20描述的视频编码方法和/或视频编码方法将被统称为“本发明构思的视频编码方法”。另外,以上参照图1a至图20描述的视频解码方法和/或视频解码方法将被称为“本发明构思的视频解码方法”。
此外,已参照图1a至图20描述的包括视频编码设备10、视频编码设备800或图像编码器1100的视频编码设备将被称为“本发明构思的视频编码设备”。另外,已参照图1a至图20描述的包括层间视频解码设备20、视频解码设备900或图像解码器1200的视频解码设备将被称为“本发明构思的视频解码设备”。
现在将详细描述根据一些示例性实施例的存储程序的计算机可读记录介质(例如,盘26000)。
图21是根据一些示例性实施例的存储程序的盘26000的物理结构的示图。作为存储介质的盘26000可以是硬盘驱动器、致密盘只读存储器(CD-ROM)盘、蓝光盘或数字多功能盘(DVD)。盘26000包括多个同心磁道Tr,每个同心磁道Tr沿盘26000的圆周方向被划分成特定数量的扇区Se。在根据一些示例性实施例的盘26000的特定区域中,可分配并存储执行以上所描述的量化参数确定方法、视频编码方法和视频解码方法的程序。
现在将参照图22来描述使用存储用于执行如上所述的视频编码方法和视频解码方法的程序的存储介质来实现的计算机系统。
图22是通过使用盘26000来记录并读取程序的盘驱动器26800的示图。计算机系统27000可经由盘驱动器26800将执行本发明构思的视频编码方法和视频解码方法中的至少一个的程序存储在盘26000中。为了在计算机系统27000中运行存储在盘26000中的程序,可通过使用盘驱动器27000从盘26000读取程序并将程序发送到计算机系统26700。
执行本发明构思的视频编码方法和视频解码方法中的至少一个的程序不仅可被存储在图21或图22中示出的盘26000中,还可被存储在存储卡、ROM卡带或固态驱动器(SSD)中。
以下将描述应用以上所描述的视频编码方法和视频解码方法的系统。
图23是用于提供内容分发服务的内容供应系统11000的整体结构的示图。将通信系统的服务区域划分成预定尺寸的小区,并将无线基站11700、11800、11900和12000分别安装在这些小区中。
内容供应系统11000包括多个独立装置。例如,诸如计算机12100、个人数字助理(PDA)12200、视频相机12300和移动电话12500的多个独立装置经由互联网服务提供器11200、通信网络11400和无线基站11700、11800、11900和12000连接到互联网11100。
然而,内容供应系统11000不限于如图24中所示,并且装置可选择性地被连接到内容供应系统11000。多个独立装置可不经由无线基站11700、11800、11900和12000而直接连接到通信网络11400。
视频相机12300是能够捕捉视频图像的成像装置,例如,数字视频相机。移动电话12500可利用各种协议(例如,个人数字通信(PDC)、码分多址(CDMA)、宽带码分多址(W-CDMA)、全球移动通信系统(GSM)和个人手持电话系统(PHS))中的至少一种通信方法。
视频相机12300可经由无线基站11900和通信网络11400连接到流服务器11300。流服务器11300允许经由视频相机12300从用户接收到的内容经由实时广播被流传输。可使用视频相机12300或流服务器11300来对从视频相机12300接收到的内容进行编码。通过视频相机12300捕捉到的视频数据可经由计算机12100被发送到流服务器11300。
通过相机12600捕捉到的视频数据也可经由计算机12100被发送到流服务器11300。与数码相机类似,相机12600是能够捕捉静止图像和视频图像两者的成像装置。可使用相机12600或计算机12100对通过相机12600捕捉到的视频数据进行编码。可将对视频执行编码和解码的软件存储在可由计算机12100访问的计算机可读记录介质(例如,CD-ROM盘、软盘、硬盘驱动器、SSD或存储卡)中。
如果视频数据通过内置在移动电话12500中的相机被捕捉到,则可从移动电话12500接收视频数据。
还可通过安装在视频相机12300、移动电话12500或相机12600中的大规模集成电路(LSI)系统来对视频数据进行编码。
根据一些示例性实施例的内容供应系统11000可对由用户使用视频相机12300、相机12600、移动电话12500或另一成像装置所记录的内容数据(例如,在音乐会期间记录的内容)进行编码,并将编码后的内容数据发送到流服务器11300。流服务器11300可将编码后的内容数据以流传输内容的类型发送到请求内容数据的其它客户端。
客户端是能够对编码后的内容数据进行解码的装置,例如,计算机12100、PDA12200、视频相机12300或移动电话12500。因此,内容供应系统11000允许客户端接收并再现编码后的内容数据。此外,内容供应系统11000允许客户端实时接收编码后的内容数据并对编码后的内容数据进行解码和再现,从而能够进行个人广播。
包括在内容供应系统11000中的多个独立装置的编码和解码操作可类似于本发明构思的视频编码设备和视频解码设备的编码和解码操作。
现在将参照图24和图25更加详细地描述包括在根据实施例的内容供应系统11000中的移动电话12500。
图24示出根据一些示例性实施例的应用本发明构思的视频编码方法和视频解码方法的移动电话12500的外部结构。移动电话12500可以是智能电话,所述智能电话的功能不受限,并且所述智能电话的大多数功能可被改变或扩展。
移动电话12500包括可与图21的无线基站12000交换射频(RF)信号的内部天线12510,并包括用于显示由相机12530捕捉到的图像或经由天线12510接收到的并被解码的图像的显示屏12520(例如,液晶显示器(LCD)或有机发光二极管(OLED)屏幕)。移动电话12500包括包含有控制按钮和触摸面板的操作面板12540。如果显示屏12520是触摸屏,则操作面板12540还包括显示屏12520的触摸感测面板。移动电话12500包括用于输出语音和声音的扬声器12580或另一类型的声音输出单元、以及用于输入语音和声音的麦克风12550或另一类型的声音输入单元。移动电话12500还包括用于捕捉视频和静止图像的相机12530,诸如电荷耦合器件(CCD)相机。移动电话12500还可包括:存储介质12570,用于存储通过相机12530捕捉到的、经由电子邮件接收到的、或根据各种方式获取的编码/解码数据(例如,视频或静止图像);插槽12560,存储介质12570经由插槽12560被装入移动电话12500中。存储介质12570可以是闪存,例如,包括在塑料壳中的安全数字(SD)卡或电可擦除可编程只读存储器(EEPROM)。
图25示出移动电话12500的内部结构。为了系统地控制包括显示屏12520和操作面板12540的移动电话12500的部件,供电电路12700、操作输入控制器12640、视频编码单元12720、相机接口12630、LCD控制器12620、图像解码单元12690、复用器/解复用器12680、记录/读取单元12670、调制/解调单元12660和声音处理器12650经由同步总线12730被连接到中央控制器12710。
如果用户操作电源按钮,并从“电源关闭”状态设置为“电源开启”状态,则供电电路12700从电池组向移动电话12500的所有部件供电,从而将移动电话12500设置为处于操作模式。
中央控制器12710包括中央处理器(CPU)、ROM和RAM。
在移动电话12500将通信数据发送到外部的同时,在中央控制器12710的控制下,由移动电话12500产生数字信号。例如,声音处理器12650可产生数字声音信号,视频编码单元12720可产生数字图像信号,并且消息的文本数据可经由操作面板12540和操作输入控制器12640被产生。当数字信号在中央控制器12710的控制下被传送到调制/解调单元12660时,调制/解调单元12660对数字信号的频带进行调制,并且通信电路12610对频带调制后的数字声音信号执行数模转换(DAC)和频率转换。从通信电路12610输出的发送信号可经由天线12510被发送到语音通信基站或无线基站12000。
例如,当移动电话12500处于通话模式时,在中央控制器12710的控制下,经由麦克风12550获取的声音信号通过声音处理器12650被变换成数字声音信号。数字声音信号可经由调制/解调单元12660和通信电路12610被变换成发送信号,并可经由天线12510被发送。
当文本消息(例如,电子邮件)在数据通信模式下被发送时,文本消息的文本数据经由操作面板12540被输入,并经由操作输入控制器12640被发送到中央控制器12610。在中央控制器12610的控制下,文本数据经由调制/解调单元12660和通信电路12610被变换成发送信号,并经由天线12510被发送到无线基站12000。
为了在数据通信模式下发送图像数据,由相机12530捕捉到的图像数据经由相机接口12630被提供给视频编码单元12720。捕捉到的图像数据可经由相机接口12630和LCD控制器12620被直接显示在显示屏12520上。
视频编码单元12720的结构可与上述视频编码设备100的结构相应。视频编码单元12720可根据上述视频编码方法,将从相机12530接收到的图像数据变换为压缩和编码后的图像数据,并随后将编码后的图像数据输出到复用器/解复用器12680。在相机12530的记录操作期间,由移动电话12500的麦克风12550获取的声音信号可经由声音处理器12650被变换成数字声音数据,并且数字声音数据可被发送到复用器/解复用器12680。
复用器/解复用器12680对从视频编码单元12720接收到的编码后的图像数据与从声音处理器12650接收到的声音数据一起进行复用。对数据进行复用的结果可经由调制/解调单元12660和通信电路12610被变换成发送信号,然后可经由天线12510被发送。
当移动电话12500从外部接收到通信数据时,可对经由天线12510接收到的信号执行频率恢复和ADC以将信号变换成数字信号。调制/解调单元12660对数字信号的频带进行调制。根据频带调制后的数字信号的类型,将所述数字信号发送到视频解码单元12690、声音处理器12650或LCD控制器12620。
在通话模式下,移动电话12500对经由天线12510接收到的信号进行放大,并通过对放大后的信号执行频率转换和ADC来获取数字声音信号。在中央控制器12710的控制下,接收到的数字声音信号经由调制/解调单元12660和声音处理器12650被变换成模拟声音信号,并且模拟声音信号经由扬声器12580被输出。
当在数据通信模式下时,接收在互联网网站上访问的视频文件的数据,经由调制/解调单元12660将经由天线12510从无线基站12000接收到的信号输出为复用数据,并将复用数据发送到复用器/解复用器12680。
为了对经由天线12510接收到的复用数据进行解码,复用器/解复用器12680将复用数据解复用成编码后的视频数据流和编码后的音频数据流。经由同步总线12730,编码后的视频数据流和编码后的音频数据流分别被提供给视频解码单元12690和声音处理器12650。
图像解码单元12690的结构可与上述视频解码设备200的结构相应。根据由上述的视频解码设备200或图像解码器500采用的视频解码方法,图像解码单元12690可对编码后的视频数据进行解码来获取重建的视频数据,并经由LCD控制器12620将重建的视频数据提供给显示屏12520。
因此,可将在互联网网站上访问的视频文件的数据显示在显示屏12520上。同时,声音处理器12650可将音频数据变换成模拟声音信号,并将模拟声音信号提供给扬声器12580。因此,也可经由扬声器12580再现在互联网网站上访问的视频文件中包含的音频数据。
移动电话12500或另一类型的通信终端可以是包括本发明构思的视频编码设备和视频解码设备两者的收发终端,可以是仅包括视频编码设备的收发终端,或者可以是仅包括视频解码设备的收发终端。
根据本发明构思的通信系统不限于以上参照图24描述的通信系统。例如,图26示出根据一些示例性实施例的采用通信系统的数字广播系统。根据一些示例性实施例的图26的数字广播系统可通过使用本发明构思的视频编码设备和视频解码设备来接收经由卫星或地面网络发送的数字广播。
具体地,广播站12890通过使用无线电波将视频数据流发送到通信卫星或广播卫星12900。广播卫星12900发送广播信号,广播信号经由家用天线12860被发送到卫星广播接收器。在每个房屋中,可通过TV接收器12810、机顶盒12870或其它装置对编码后的视频流进行解码和再现。
当本发明构思的视频解码设备被实现在再现设备12830中时,再现设备12830可对记录在存储介质12820(诸如盘或存储卡)上的编码后的视频流进行解析和解码,以重建数字信号。因此,可在例如监视器12840上再现重建的视频信号。
在被连接到用于卫星/地面广播的天线12860或用于接收有线电视(TV)广播的线缆天线12850的机顶盒12870中,可安装本发明构思的视频解码设备。从机顶盒12870输出的数据也可被再现在TV监视器12880上。
作为另一示例,可将本发明构思的视频解码设备安装在TV接收器12810中,而不是机顶盒12870中。
具有合适的天线12910的汽车12920可接收从图23的卫星12900或无线基站11700发送的信号。可在安装在汽车12920中的汽车导航系统12930的显示屏上再现解码后的视频。
视频信号可由本发明构思的视频编码设备来编码,然后可被存储在存储介质中。具体地,可由DVD记录器将图像信号存储在DVD盘12960中,或可由硬盘记录器12950将图像信号存储在硬盘中。作为另一示例,可将视频信号存储在SD卡12970中。如果硬盘记录器12950包括根据一些示例性实施例的本发明构思的视频解码设备,则记录在DVD盘12960、SD卡12970或另一存储介质上的视频信号可在TV监视器12880上被再现。
汽车导航系统12930可不包括图26的相机12530、相机接口12630和视频编码单元12720。例如,计算机12100和TV接收器12810可不包括在图26的相机12530、相机接口12630和视频编码单元12720中。
图27是示出根据一些示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
云计算系统可包括云计算服务器14000、用户数据库(DB)14100、多个计算资源14200和用户终端。
响应于来自用户终端的请求,云计算系统经由数据通信网络(例如,互联网)提供多个计算资源14200的点播外包服务。在云计算环境下,服务提供商通过使用虚拟化技术组合位于不同的物理位置的数据中心处的计算资源,为用户提供想要的服务。服务用户不必将计算资源(例如,应用、存储器、操作系统(OS)和安全软件)安装在他/她自己的终端中以使用它们,但可在想要的时间点在通过虚拟化技术产生的虚拟空间中从服务中选择和使用想要的服务。
指定的服务用户的用户终端经由包括互联网和移动电信网络的数据通信网络被连接到云计算服务器14000。可从云计算服务器14000向用户终端提供云计算服务,特别是视频再现服务。用户终端可以是能够被连接到互联网的各种类型的电子装置,例如,桌上型PC14300、智能TV14400、智能电话14500、笔记本计算机14600、便携式多媒体播放器(PMP)14700、平板PC14800等。
云计算服务器14000可组合分布在云网络中的多个计算资源14200,并向用户终端提供组合的结果。所述多个计算资源14200可包括各种数据服务,并可包括从用户终端上载的数据。如上所述,云计算服务器14000可通过根据虚拟化技术组合分布在不同区域中的视频数据库来向用户终端提供想要的服务。
将关于已经订购云计算服务的用户的用户信息存储在用户DB14100中。用户信息可包括用户的登陆信息、地址、姓名和个人信用信息。用户信息还可包括视频的索引。这里,所述索引可包括已经被再现的视频的列表、正在被再现的视频的列表、之前正在被再现的视频的暂停点等。
可在用户装置之间共享存储在用户DB14100中的关于视频的信息。例如,当响应于来自笔记本计算机14600的请求将视频服务提供给笔记本计算机14600时,视频服务的再现历史被存储在用户DB14100中。当从智能电话14500接收到用于再现此视频服务的请求时,云计算服务器14000基于用户DB14100搜索并再现此视频服务。当智能电话14500从云计算服务器14000接收到视频数据流时,通过对视频数据流进行解码来再现视频的处理与以上参照图24描述的移动电话12500的操作类似。
云计算服务器14000可参考存储在用户DB14100中的想要的视频服务的再现历史。例如,云计算服务器14000从用户终端接收用于再现存储在用户DB14100中的视频的请求。如果此视频被再现过,则由云计算服务器14000执行的对此视频进行流传输的方法可根据来自用户终端的请求(即,根据是将从视频的起点还是从视频的暂停点开始再现视频)而不同。例如,如果用户终端请求从视频的起点开始再现视频,则云计算服务器14000将从视频的第一帧开始的视频的流数据发送到用户终端。如果用户终端请求从视频的暂停点开始再现视频,则云计算服务器14000将从与暂停点相应的帧开始的视频的流数据发送到用户终端。
在此情况下,用户终端可包括以上参照图1a至图20描述的本发明构思的视频解码设备。作为另一示例,用户终端可包括以上参照图1a至图20描述的本发明构思的视频编码设备。可选地,用户终端可包括以上参照图1a至图20描述的本发明构思的视频解码设备和视频编码设备两者。
以上参照图21至图27描述了以上参照图1a至图20描述的根据一些示例性实施例的视频编码方法、视频解码方法、视频编码设备和视频解码设备的各种应用。然而,根据一些示例性实施例的将视频编码方法和视频解码方法存储在存储介质中的方法或者将视频编码设备和视频解码设备实现在装置中的方法不限于以上参照图21至图27描述的实施例。
本领域的普通技术人员将理解,在不脱离由权利要求限定的本发明构思的精神和范围的情况下,可作出形式和细节上的各种改变。实施例应仅被看作描述性意义,而不是限制的目的。因此,本发明构思的范围不由本发明构思的详细描述来限定,而由权利要求来限定,在所述范围内的所有不同将被解释为包括在本发明构思中。

Claims (15)

1.一种层间视频解码方法,包括:
从比特流获得关于深度图像的当前块的预测模式信息;
基于获得的预测模式信息产生当前块的预测块;
通过使用预测块的与特定位置相应的像素值来对预测块的均值进行预测;
通过使用预测块的均值对深度图像进行解码。
2.如权利要求1所述的层间视频解码方法,其中,对预测块的均值进行预测的步骤包括:通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
3.如权利要求2所述的层间视频解码方法,其中,对预测块的均值进行预测的步骤包括:通过对预测块的左上像素值、右上像素值、左下像素值和右下像素值进行加权求和来对产生的预测块的均值进行预测。
4.如权利要求1所述的层间视频解码方法,其中,对预测块的均值进行预测的步骤包括:
确定是否存在关于深度图像的深度查找表;
如果存在深度查找表,则通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
5.如权利要求1所述的层间视频解码方法,其中,预测块在DC模式、平面模式、角模式和深度建模模式(DMM)预测模式中的一种预测模式下被预测。
6.如权利要求1所述的层间视频解码方法,其中,通过使用预测块的均值对深度图像进行解码的步骤包括:
通过使用深度查找表来确定与预测块的均值相应的预测索引;
通过使用从比特流获得的索引残差值来确定与关于当前块的恢复块的均值相应的恢复索引;
通过使用深度查找表来确定与恢复索引相应的恢复块的均值;
通过使用关于预测块的均值和关于恢复块的均值来对深度图像进行解码。
7.如权利要求1所述的层间视频解码方法,还包括:
通过使用当前块的至少一个邻近像素值来对预测块的均值进行预测。
8.一种层间视频解码设备,包括:
预测模式确定器,被配置为从比特流获得关于深度图像的当前块的预测模式信息;
预测块产生器,被配置为基于获得的预测模式信息产生当前块的预测块;
均值计算器,被配置为通过使用预测块的与特定位置相应的像素值来对预测块的均值进行预测;
解码器,被配置为通过使用预测块的均值对深度图像进行解码。
9.如权利要求8所述的层间视频解码设备,其中,预测模式确定器通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
10.如权利要求9所述的层间视频解码设备,其中,预测模式确定器通过对预测块的左上像素值、右上像素值、左下像素值和右下像素值进行加权求和来对产生的预测块的均值进行预测。
11.如权利要求8所述的层间视频解码设备,其中,预测模式确定器确定是否存在关于深度图像的深度查找表,如果存在深度查找表,则预测模式确定器通过使用预测块的左上像素值、右上像素值、左下像素值和右下像素值来对产生的预测块的均值进行预测。
12.如权利要求8所述的层间视频解码设备,其中,预测块在DC模式、平面模式、角模式和深度建模模式(DMM)预测模式中的一种预测模式下被预测。
13.如权利要求8所述的层间视频解码设备,其中,解码器通过使用深度查找表来确定与预测块的均值相应的预测索引,通过使用从比特流获得的索引残差值来确定与关于当前块的恢复块的均值相应的恢复索引,通过使用深度查找表来确定与恢复索引相应的恢复块的均值,通过使用关于预测块的均值和关于恢复块的均值来对深度图像进行解码。
14.如权利要求8所述的层间视频解码设备,其中,均值计算器通过使用当前块的至少一个邻近像素值来对预测块的均值进行预测。
15.一种记录有实现权利要求1所述的层间视频解码方法的计算机程序的非暂时性计算机可读记录介质。
CN201480051588.1A 2013-07-18 2014-07-18 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法 Active CN105556972B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361847758P 2013-07-18 2013-07-18
US61/847,758 2013-07-18
PCT/KR2014/006569 WO2015009113A1 (ko) 2013-07-18 2014-07-18 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 깊이 영상의 화면내 예측 방법

Publications (2)

Publication Number Publication Date
CN105556972A true CN105556972A (zh) 2016-05-04
CN105556972B CN105556972B (zh) 2019-04-05

Family

ID=52346482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480051588.1A Active CN105556972B (zh) 2013-07-18 2014-07-18 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法

Country Status (5)

Country Link
US (1) US10284876B2 (zh)
EP (1) EP3024240A4 (zh)
KR (1) KR20150010660A (zh)
CN (1) CN105556972B (zh)
WO (1) WO2015009113A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587479A (zh) * 2017-09-29 2019-04-05 华为技术有限公司 视频图像的帧间预测方法、装置及编解码器
CN110583017A (zh) * 2017-04-28 2019-12-17 韩国电子通信研究院 图像编码/解码方法和装置、以及存储比特流的记录介质
CN111373755A (zh) * 2017-11-16 2020-07-03 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108337522B (zh) * 2011-06-15 2022-04-19 韩国电子通信研究院 可伸缩解码方法/设备、可伸缩编码方法/设备和介质
WO2015199376A1 (ko) * 2014-06-26 2015-12-30 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
KR20160004947A (ko) * 2014-07-04 2016-01-13 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
KR102588126B1 (ko) 2016-11-01 2023-10-13 삼성전자주식회사 디스플레이 구동 회로 및 이를 포함하는 디스플레이 구동 시스템
WO2019059107A1 (ja) * 2017-09-20 2019-03-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2019103491A1 (ko) * 2017-11-22 2019-05-31 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11178397B2 (en) * 2018-10-09 2021-11-16 Mediatek Inc. Method and apparatus of encoding or decoding using reference samples determined by predefined criteria
WO2020084604A1 (en) * 2018-10-26 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Fast methods for partition tree decision

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120083200A (ko) * 2011-01-17 2012-07-25 삼성전자주식회사 깊이 영상 부호화/복호화 장치 및 방법
KR20120116363A (ko) * 2011-04-12 2012-10-22 경희대학교 산학협력단 스킵 모드를 이용한 영상 복호화 방법 및 이러한 방법을 사용하는 장치
US20140307786A1 (en) * 2013-04-12 2014-10-16 Zhipin Deng Simplified depth coding with modified intra-coding for 3d video coding

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5224458B2 (ja) 2006-01-09 2013-07-03 トムソン ライセンシング マルチビュービデオ符号化のための低解像度アップデートモードを提供する方法及び装置
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
KR20110054244A (ko) * 2009-11-17 2011-05-25 삼성전자주식회사 미디언 필터를 이용한 깊이영상 부호화의 인트라 예측 장치 및 방법
US9118929B2 (en) * 2010-04-14 2015-08-25 Mediatek Inc. Method for performing hybrid multihypothesis prediction during video coding of a coding unit, and associated apparatus
US8902982B2 (en) 2011-01-17 2014-12-02 Samsung Electronics Co., Ltd. Depth map coding and decoding apparatus and method
WO2012174739A1 (en) * 2011-06-24 2012-12-27 Technicolor (China) Technology Co., Ltd. Method and device for delivering 3d content
US9191646B2 (en) * 2011-08-29 2015-11-17 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
CN104041024B (zh) * 2011-11-14 2016-03-16 独立行政法人情报通信研究机构 立体影像编码装置、立体影像解码装置、立体影像编码方法、立体影像解码方法、立体影像编码程序以及立体影像解码程序
US20150098508A1 (en) * 2011-12-30 2015-04-09 Humax Co., Ltd. Method and device for encoding three-dimensional image, and decoding method and device
US20130195169A1 (en) * 2012-02-01 2013-08-01 Vidyo, Inc. Techniques for multiview video coding
US20130271565A1 (en) * 2012-04-16 2013-10-17 Qualcomm Incorporated View synthesis based on asymmetric texture and depth resolutions
BR112014026047A2 (pt) * 2012-04-19 2017-07-11 Ericsson Telefon Ab L M síntese de vista utilizando mapas de profundidade de resolução baixa
EP2859724B1 (en) * 2012-06-22 2019-09-04 MediaTek Inc. Method and apparatus of adaptive intra prediction for inter-layer coding
US9900619B2 (en) * 2012-07-02 2018-02-20 Qualcomm Incorporated Intra-coding of depth maps for 3D video coding
EP2898697A4 (en) * 2012-09-24 2016-10-19 Qualcomm Inc CODING DEPTH CARD
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
EP2920970A4 (en) * 2013-04-11 2016-04-20 Mediatek Inc METHOD AND APPARATUS FOR PREDICTING THE DERIVATIVE OF AN INTRA CODING VALUE

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120083200A (ko) * 2011-01-17 2012-07-25 삼성전자주식회사 깊이 영상 부호화/복호화 장치 및 방법
KR20120116363A (ko) * 2011-04-12 2012-10-22 경희대학교 산학협력단 스킵 모드를 이용한 영상 복호화 방법 및 이러한 방법을 사용하는 장치
US20140307786A1 (en) * 2013-04-12 2014-10-16 Zhipin Deng Simplified depth coding with modified intra-coding for 3d video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JAGER F: "《5.JCT-3V MEETING》", 15 July 2013 *
TECH G ET AL.: "《2.JCT-3V MEETING;102.MPEG MEETING》", 23 December 2012 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110583017A (zh) * 2017-04-28 2019-12-17 韩国电子通信研究院 图像编码/解码方法和装置、以及存储比特流的记录介质
CN110583017B (zh) * 2017-04-28 2023-10-31 英迪股份有限公司 图像编码/解码方法和装置、以及存储比特流的记录介质
US11943475B2 (en) 2017-04-28 2024-03-26 Intellectual Discovery Co., Ltd. Image encoding/decoding method and device, and recording medium storing bitstream
CN109587479A (zh) * 2017-09-29 2019-04-05 华为技术有限公司 视频图像的帧间预测方法、装置及编解码器
CN109587479B (zh) * 2017-09-29 2023-11-10 华为技术有限公司 视频图像的帧间预测方法、装置及编解码器
CN111373755A (zh) * 2017-11-16 2020-07-03 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质

Also Published As

Publication number Publication date
US20160156932A1 (en) 2016-06-02
EP3024240A1 (en) 2016-05-25
EP3024240A4 (en) 2017-03-22
KR20150010660A (ko) 2015-01-28
WO2015009113A1 (ko) 2015-01-22
CN105556972B (zh) 2019-04-05
US10284876B2 (en) 2019-05-07

Similar Documents

Publication Publication Date Title
CN105308966B (zh) 视频编码方法及其设备以及视频解码方法及其设备
CN105532001B (zh) 用于使用基于深度的视差矢量对视频进行层间编码方法以及解码方法和设备
CN105556972B (zh) 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法
CN104768010B (zh) 用于在视频编码或解码中的运动矢量确定的方法和设备
CN106063271B (zh) 用于执行基于子块的预测的层间视频解码方法及其设备以及用于执行基于子块的预测的层间视频编码方法及其设备
CN104620578B (zh) 用于随机访问的多层视频编码的方法和设备以及用于随机访问的多层视频解码的方法和设备
CN104365104B (zh) 用于多视点视频编码和解码的方法和设备
KR20160132859A (ko) 인터 레이어 비디오의 복호화 및 부호화를 위한 머지 후보 리스트 구성 방법 및 장치
CN105264894A (zh) 针对层间解码和编码方法以及设备的确定帧间预测候选的方法
CN104396252A (zh) 使用用于多视点视频预测的参考画面集的多视点视频编码方法及其装置、使用用于多视点视频预测的参考画面集的多视点视频解码方法及其装置
CN105103552A (zh) 用于补偿亮度差的对层间视频进行编码的方法及其装置以及用于对视频进行解码的方法及其装置
CN106464908A (zh) 用于传输深度图像的预测模式以供层间视频编码和解码的方法和装置
CN107409214A (zh) 用于对层间视频进行解码的方法和设备以及用于对层间视频进行编码的方法和设备
CN105325002A (zh) 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备
CN105532004B (zh) 层间视频解码方法及设备
CN106031175B (zh) 使用亮度补偿的层间视频编码方法及其装置、以及视频解码方法及其装置
CN106464889A (zh) 执行基于子块的预测的层间视频解码方法和层间视频编码方法及其设备
CN105556970A (zh) 使用修正矢量推导的视频编码方法及其设备、视频解码方法及其设备
CN105340275A (zh) 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备
CN107005711A (zh) 逐样本预测编码设备和方法
CN105165011A (zh) 用于考虑存储器带宽和计算量的可伸缩视频编码的装置和方法以及用于可伸缩视频解码的装置和方法
CN104396251A (zh) 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置
CN105340274A (zh) 深度图编码方法及其设备以及深度图解码方法及其设备
CN106105210A (zh) 管理用于对多层视频进行编码和解码的缓冲器的方法和设备
CN106576175A (zh) 多视点图像编码/解码方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant