CN107396116A - 视频编码和解码设备及非暂时性计算机可读存储介质 - Google Patents
视频编码和解码设备及非暂时性计算机可读存储介质 Download PDFInfo
- Publication number
- CN107396116A CN107396116A CN201710799921.2A CN201710799921A CN107396116A CN 107396116 A CN107396116 A CN 107396116A CN 201710799921 A CN201710799921 A CN 201710799921A CN 107396116 A CN107396116 A CN 107396116A
- Authority
- CN
- China
- Prior art keywords
- coding
- coding unit
- quantization
- depth
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013139 quantization Methods 0.000 claims abstract description 175
- 230000008859 change Effects 0.000 claims description 13
- 238000000034 method Methods 0.000 abstract description 31
- 238000012545 processing Methods 0.000 description 45
- 238000010586 diagram Methods 0.000 description 34
- 238000010276 construction Methods 0.000 description 26
- 238000006243 chemical reaction Methods 0.000 description 22
- 239000012634 fragment Substances 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000001419 dependent effect Effects 0.000 description 6
- 238000011282 treatment Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 238000011002 quantification Methods 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 3
- 238000011221 initial treatment Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
一种视频编码和解码设备及其非暂时性计算机可读存储介质。一种对视频进行解码的方法,包括从比特流获得用于确定用于对包括在条带片段中的编码单元执行反量化的量化参数(QP)的初始值的语法;基于获得的语法,获得用于预测用于对包括在条带片段中的编码单元执行反量化的QP的条带级初始QP;通过使用条带级初始QP,获得包括在条带片段中的可并行解码的数据单元的第一量化组的预测QP。
Description
本申请是申请日为2013年1月30日、申请号为201380007361.2发明名称为“用于包括量化参数预测的基于分层数据单元的视频编码和解码的方法和设备”的发明专利申请的分案申请。
技术领域
本发明涉及视频的编码和解码。
背景技术
通常,根据诸如运动图像专家组(MPEG)和H.26X的视频压缩标准,通过预测、变换、量化和熵编码处理来对图像数据进行压缩以产生比特流。
在预测处理中,通过执行使用图像的空间相关性的帧内预测或者使用图像的时间相关性的帧间预测,来产生将被编码的图像数据的预测图像。
在变换处理中,通过使用各种变换方法将误差数据变换到变换域,其中,误差数据是原始图像与在预测处理中产生的预测图像之间的差。典型的变换方法包括离散余弦变换(DCT)和小波变换。
在量化处理中,根据目标比特流的误差值和大小来对在变换处理中产生的变换系数进行适当的有损压缩。大多数基于有损压缩的标准图像和视频编解码器根据量化步长来执行量化和反量化处理。在量化处理中,通过将输入值除以量化步长并随后将商值四舍五入为整数来获得量化的值。由于量化处理,信息被有损压缩。由于所有的有损压缩技术都包括量化处理,因此虽然原始数据可能不能被完全恢复,但是压缩率可被提高。
发明内容
技术问题
本发明提供一种改善对用于执行量化或反量化的量化参数(QP)进行预测的处理以并行处理视频数据的方案。
技术方案
根据本发明的一方面,通过使用条带级初始量化参数(QP)来获得可并行处理的数据单元的第一量化组的预测QP。
有益效果
根据本发明的实施例,可基于上方数据单元的编码信息而不管编码单元的处理顺序,来获得初始量化或反量化的数据单元的预测量化参数(QP),并因此可在量化或反量化处理中解决以下瓶颈问题:根据数据单元的处理顺序,数据单元的处理被延迟直到另一数据单元被完全处理。
附图说明
通过参照附图对本发明的示例性实施例的详细描述,本发明的以上和其它特征和优点将变得更明显,在附图中:
图1是根据本发明的实施例的用于对视频进行编码的设备的框图;
图2是根据本发明的实施例的用于对视频进行解码的设备的框图;
图3是用于描述根据本发明的实施例的编码单元的概念的示图;
图4是根据本发明的实施例的基于编码单元的图像编码器的框图;
图5是根据本发明的实施例的基于编码单元的图像解码器的框图;
图6是示出根据本发明的实施例的根据深度的较深层编码单元以及分区的示图;
图7是用于描述根据本发明的实施例的编码单元和变换单元(TU)之间的关系的示图;
图8是用于描述根据本发明的实施例的与编码深度相应的编码单元的编码信息的示图;
图9是根据本发明的实施例的根据深度的较深层编码单元的示图;
图10至图12是用于描述根据本发明的实施例的编码单元、预测单元和TU之间的关系的示图;
图13是用于描述根据表1的编码模式信息的编码单元、预测单元和TU之间的关系的示图;
图14是根据本发明的实施例的图4中示出的量化器的详细框图;
图15是根据本发明的实施例的图4中示出的熵编码器的详细框图;
图16示出根据本发明的实施例的作为用于划分画面的数据单元的条带片段(slice segment)、条带和最大编码单元(LCU);
图17示出根据本发明的实施例的作为用于划分画面的数据单元的并行块(tile)和条带片段;
图18a和图18b示出根据本发明的实施例的并行块、条带片段、条带和LCU中的相互关系;
图19是用于描述根据本发明的实施例的波前并行处理(WPP)的参考示图;
图20是用于描述根据本发明的实施例的获得包括在条带片段中的LCU的预测量化参数(QP)的处理的示图;
图21是用于描述根据本发明的实施例的获得包括在LCU中的编码单元的预测QP的处理的示图;
图22是示出根据本发明的实施例的提供给画面参数集(PPS)的QP相关语法的表;
图23是示出根据本发明的实施例的提供给条带片段头的QP相关语法的表;
图24是示出根据本发明的实施例的添加到TU信息的QP相关语法的表;
图25是根据本发明的实施例的视频编码方法的流程图;
图26是根据本发明的实施例的图5中示出的熵解码器的详细框图;
图27是根据本发明的实施例的图5中示出的反量化器的详细框图;
图28是根据本发明的实施例的视频解码方法的流程图。
最佳模式
根据本发明的一方面,提供了一种对视频进行解码的方法,所述方法包括:从比特流获得用于确定用于对包括在条带片段中的编码单元执行反量化的量化参数(QP)的初始值的语法;基于获得的语法,获得用于预测用于对包括在条带片段中的编码单元执行反量化的QP的条带级初始QP;通过使用条带级初始QP,获得包括在条带片段中的可并行解码的数据单元的第一量化组的预测QP;基于获得的预测QP确定将被应用到第一量化组的QP;基于确定的QP,对包括在第一量化组中的编码单元执行反量化。
根据本发明的另一方面,提供了一种用于对视频进行解码的设备,所述设备包括:熵解码器,从比特流获得用于确定用于对包括在当前条带片段中的编码单元执行反量化的量化参数(QP)的初始值的语法;反量化器,基于获得的语法,获得用于预测用于对包括在条带片段中的编码单元执行反量化的QP的条带级初始QP,通过使用条带级初始QP,获得包括在条带片段中的可并行解码的数据单元的第一量化组的预测QP,基于获得的预测QP确定将被应用到第一量化组的QP,基于确定的QP,对包括在第一量化组中的编码单元执行反量化。
根据本发明的另一方面,提供了一种对视频进行编码的方法,所述方法包括:获得用于对包括在条带片段中的编码单元执行量化的量化参数(QP);确定用于预测包括在条带片段中的可并行编码的数据单元的第一量化组的QP的条带级初始QP;通过使用确定的条带级初始QP来获得第一量化组的预测QP;产生包括指示确定的条带级初始QP的语法信息的比特流。
根据本发明的另一方面,提供了一种用于对视频进行编码的设备,所述设备包括:量化器,对包括在条带片段中的编码单元执行量化,确定用于对包括在条带片段中的可并行编码的数据单元的第一量化组的QP进行预测的条带级初始量化参数(QP),通过使用确定的条带级初始QP来获得第一量化组的预测QP,输出确定的条带级初始QP以及用于对包括在第一量化组中的编码单元执行量化的QP与预测QP之间的差;熵编码器,产生包括指示确定的条带级初始QP的语法信息的比特流。
具体实施方式
以下,将通过参照附图解释本发明的实施例来详细描述本发明。
图1是根据本发明的实施例的视频编码设备100的框图。
视频编码设备100包括最大编码单元(LCU)划分器110、编码单元确定器120和输出器130。
LCU划分器110可基于作为最大尺寸的编码单元的LCU对图像的当前画面进行划分。如果当前画面大于LCU,则当前画面的图像数据可被划分为至少一个LCU。根据本发明的实施例的LCU可以是尺寸为32×32、64×64、128×128、256×256等的数据单元,其中,数据单元的形状是宽度和高度为2的若干次方并大于8的正方形。图像数据可根据每个LCU被输出到编码单元确定器120。
根据本发明的实施例的编码单元可由最大尺寸以及深度来表征。深度表示编码单元从LCU被空间划分的次数,并且随着深度加深,根据深度的较深层编码单元可从LCU被划分为最小编码单元。LCU的深度是最高深度,最小编码单元的深度是最低深度。由于与每个深度相应的编码单元的尺寸随着LCU的深度加深而减小,因此,与较高深度相应的编码单元可包括多个与较低深度相应的编码单元。
如上所述,当前画面的图像数据根据编码单元的最大尺寸而被划分为LCU,LCU中的每一个可包括根据深度被划分的较深层编码单元。由于根据本发明的实施例的LCU根据深度被划分,因此包括在LCU中的空间域的图像数据可根据深度被分层划分。
可预先确定编码单元的最大深度和最大尺寸,所述最大深度和最大尺寸限定LCU的高度和宽度被分层划分的总次数。
编码单元确定器120对通过根据深度划分LCU的区域而获得的至少一个划分的区域进行编码,并根据所述至少一个划分的区域确定用于输出最终编码的图像数据的深度。换句话说,编码单元确定器120通过根据当前画面的LCU按照根据深度的较深层编码单元对图像数据进行编码,并选择具有最小编码误差的深度,来确定编码深度。确定的编码深度和根据LCU的编码图像数据被输出到输出器130。
基于与等于或小于最大深度的至少一个深度相应的较深层编码单元对LCU中的图像数据进行编码,并基于较深层编码单元中的每一个来比较对图像数据进行编码的结果。在比较较深层编码单元的编码误差之后,可选择具有最小编码误差的深度。可针对每个LCU选择至少一个编码深度。
随着编码单元根据深度而被分层划分,并且随着编码单元的数量增加,LCU的尺寸被划分。此外,即使在一个LCU中编码单元相应于相同深度,也通过分别测量每个编码单元的图像数据的编码误差来确定是否将与相同深度相应的编码单元中的每一个划分到较低深度。因此,即使当图像数据被包括在一个LCU中时,在所述一个LCU中,图像数据也根据深度被划分为区域,编码误差可根据区域而不同,因此,编码深度可根据图像数据中的区域而不同。因此,在一个LCU中可确定一个或更多个编码深度,并可根据至少一个编码深度的编码单元来划分LCU的图像数据。
因此,编码单元确定器120可确定包括在LCU中的具有树结构的编码单元。根据本发明的实施例的“具有树结构的编码单元”包括在LCU中包括的所有较深层编码单元中与被确定为编码深度的深度相应的编码单元。在LCU的相同区域中,具有编码深度的编码单元可根据深度被分层确定,在不同的区域中,具有编码深度的编码单元可被独立地确定。类似地,当前区域中的编码深度可独立于另一区域中的编码深度被确定。
根据本发明的实施例的最大深度是关于从LCU到最小编码单元的划分次数的索引。根据本发明的实施例的第一最大深度可表示从LCU到最小编码单元的总划分次数。根据本发明的实施例的第二最大深度可表示从LCU到最小编码单元的深度级的总数。例如,当LCU的深度为0时,LCU被划分一次的编码单元的深度可被设置为1,LCU被划分两次的编码单元的深度可被设置为2。这里,如果最小编码单元是LCU被划分四次的编码单元,则存在深度0、1、2、3和4这5个深度级,因此,第一最大深度可被设置为4,第二最大深度可被设置为5。
可根据LCU执行预测编码和变换。还可根据LCU,基于根据等于最大深度的深度或小于最大深度的深度的较深层编码单元来执行预测编码和变换。
由于每当LCU根据深度被划分时较深层编码单元的数量增加,因此可针对随着深度加深而产生的所有较深层编码单元执行包括预测编码和变换的编码。为了便于描述,现在将基于LCU中的当前深度的编码单元来描述预测编码和变换。
视频编码设备100可不同地选择用于对图像数据进行编码的数据单元的尺寸或形状。为了对图像数据进行编码,执行诸如预测编码、变换和熵编码的操作,此时,可针对所有操作使用相同的数据单元,或者可针对每个操作使用不同的数据单元。
例如,视频编码设备100不仅可选择用于对图像数据进行编码的编码单元,还可选择与编码单元不同的数据单元,以便对编码单元中的图像数据执行预测编码。
为了在LCU中执行预测编码,可基于与编码深度相应的编码单元(即,基于不再被划分为与较低深度相应的编码单元的编码单元)执行预测编码。以下,现将不再被划分并且变成用于预测编码的基本单元的编码单元称为“预测单元”。通过对预测单元进行划分所获得的分区(partition)可包括预测单元或通过对预测单元的高度和宽度中的至少一个进行划分所获得的数据单元。
例如,当2N×2N(其中,N是正整数)的编码单元不再被划分,并且变成2N×2N的预测单元时,分区的尺寸可以是2N×2N、2N×N、N×2N或N×N。分区类型的示例包括通过对预测单元的高度或宽度进行对称划分所获得的对称分区、通过对预测单元的高度或宽度进行不对称划分(诸如1:n或n:1)所获得的分区、通过对预测单元进行几何划分所获得的分区以及具有任意形状的分区。
预测单元的预测模式可以是帧内模式、帧间模式和跳过模式中的至少一个。例如,可针对2N×2N、2N×N、N×2N或N×N的分区执行帧内模式或帧间模式。此外,可仅针对2N×2N的分区执行跳过模式。针对编码单元中的一个预测单元独立地执行编码,从而选择具有最小编码误差的预测模式。
视频编码设备100还可不仅基于用于对图像数据进行编码的编码单元,还基于不同于编码单元的数据单元,对编码单元中的图像数据执行变换。
为了在编码单元中执行变换,可基于具有小于或等于编码单元的尺寸的数据单元来执行变换。例如,用于变换的数据单元可包括用于帧内模式的数据单元和用于帧间模式的数据单元。
现将用作变换的基础的数据单元称为“变换单元(TU)”。与编码单元类似,编码单元中的TU可被递归地划分为更小尺寸的区域,从而可以以区域为单位独立地确定TU。因此,编码单元中的残差数据可基于根据变换深度的具有树结构的TU被划分。
还可在TU中设置变换深度,所述变换深度指示通过对编码单元的高度和宽度进行划分来实现TU的划分次数。例如,在2N×2N的当前编码单元中,当TU的尺寸为2N×2N时,变换深度可以是0,当TU的尺寸是N×N时,变换深度可以是1,当TU的尺寸是N/2×N/2时,变换深度可以是2。也就是说,可根据变换深度设置具有树结构的TU。
根据与编码深度相应的编码单元的编码信息不仅需要关于编码深度的信息,还需要关于与预测编码和变换有关的信息的信息。因此,编码单元确定器120不仅确定具有最小编码误差的编码深度,还确定预测单元中的分区类型、根据预测单元的预测模式和用于变换的TU的尺寸。
稍后将参照图3至图12详细描述根据本发明的实施例的LCU中的根据树结构的编码单元以及确定分区的方法。
编码单元确定器120可通过使用基于拉格朗日乘子的率失真优化来测量根据深度的较深层编码单元的编码误差。
输出器130在比特流中输出LCU的图像数据以及关于根据编码深度的编码模式的信息,其中,所述图像数据基于由编码单元确定器120确定的至少一个编码深度被编码。
编码图像数据可以是图像的残差数据的编码结果。
关于根据编码深度的编码模式的信息可包括关于编码深度的信息、关于预测单元中的分区类型的信息、预测模式信息以及TU的尺寸信息。
可通过使用根据深度的划分信息来定义关于编码深度的信息,所述划分信息指示是否针对较低深度而不是当前深度的编码单元来执行编码。如果当前编码单元的当前深度是编码深度,则当前编码单元中的图像数据被编码并被输出,因此划分信息可被定义为不将当前编码单元划分到较低深度。可选地,如果当前编码单元的当前深度不是编码深度,则针对较低深度的编码单元来执行编码,因此,划分信息可被定义为划分当前编码单元以获得较低深度的编码单元。
如果当前深度不是编码深度,则针对被划分为较低深度的编码单元的编码单元来执行编码。由于在当前深度的一个编码单元中存在较低深度的至少一个编码单元,因此针对较低深度的每个编码单元重复执行编码,因此,可针对具有相同深度的编码单元递归地执行编码。
由于针对一个LCU确定具有树结构的编码单元,并且针对编码深度的编码单元确定关于至少一个编码模式的信息,因此,可针对一个LCU确定关于至少一个编码模式的信息。此外,由于图像数据根据深度被分层划分,因此,LCU的图像数据的编码深度可根据位置而不同,因此,可针对图像数据设置关于编码深度和编码模式的信息。
因此,输出器130可将关于相应的编码深度和编码模式的编码信息分配给包括在LCU中的编码单元、预测单元和最小单元中的至少一个。
根据本发明的实施例的最小单元是通过将构成最低深度的最小编码单元划分为4份所获得的正方形数据单元。可选地,最小单元可以是最大正方形数据单元,所述最大正方形数据单元可包括在LCU中所包括的所有编码单元、预测单元、分区单元和TU中。
例如,通过输出器130输出的编码信息可被分为根据编码单元的编码信息和根据预测单元的编码信息。根据编码单元的编码信息可包括关于预测模式的信息和关于分区尺寸的信息。根据预测单元的编码信息可包括关于帧间模式的估计方向的信息、关于帧间模式的参考图像索引的信息、关于运动矢量的信息、关于帧内模式的色度分量的信息和关于帧内模式的插值方法的信息。此外,关于根据画面、条带或GOP定义的编码单元的最大尺寸的信息以及关于最大深度的信息可被插入比特流的头中。
在视频编码设备100中,较深层编码单元可以是通过将作为上一层的较高深度的编码单元的高度或宽度划分为2所获得的编码单元。换句话说,当当前深度的编码单元的尺寸为2N×2N时,较低深度的编码单元的尺寸是N×N。此外,尺寸为2N×2N的当前深度的编码单元可最多包括较低深度的4个编码单元。
因此,视频编码设备100可通过基于考虑当前画面的特性所确定的LCU的尺寸和最大深度,针对每个LCU确定具有最佳形状和最佳尺寸的编码单元,来形成具有树结构的编码单元。此外,由于可通过使用各种预测模式和变换中的任何一个来针对每个LCU执行编码,因此可考虑各种图像尺寸的编码单元的特性来确定最佳编码模式。
因此,如果以传统的宏块对具有高分辨率或大数据量的图像进行编码,则每个画面的宏块数量过度增加。因此,针对每个宏块产生的压缩信息的条数增加,因此难以发送压缩信息,并且数据压缩效率降低。然而,通过使用视频编码设备100,由于在考虑图像尺寸的同时增加编码单元的最大尺寸,同时在考虑图像特性的同时调整编码单元,因此可提高图像压缩效率。
图2是根据本发明的实施例的视频解码设备200的框图。
视频解码设备200包括接收器210、图像数据和编码信息提取器220以及图像数据解码器230。用于视频解码设备200的各种操作的各种术语(诸如编码单元、深度、预测单元、TU和关于各种编码模式的信息)的定义与参照图1和视频编码设备100描述的那些术语相同。
接收器210接收并解析编码视频的比特流。图像数据和编码信息提取器220从解析的比特流提取每个编码单元的编码图像数据,并将提取的图像数据输出到图像数据解码器230,其中,编码单元具有根据每个LCU的树结构。图像数据和编码信息提取器220可从当前画面的头提取关于当前画面的LCU的信息。
此外,图像数据和编码信息提取器220从解析的比特流提取关于编码单元的编码深度和编码模式的信息,其中,编码单元具有根据每个LCU的树结构。提取的关于编码深度和编码模式的信息被输出到图像数据解码器230。更具体地,比特流中的图像数据可被划分为LCU,从而图像数据解码器230对每个LCU的图像数据进行解码。
可针对关于与编码深度相应的至少一个编码单元的信息,来设置关于根据LCU的编码深度和编码模式的信息,并且关于编码模式的信息可包括关于与编码深度相应的相应编码单元的分区类型的信息、关于预测模式的信息和TU的尺寸。此外,根据深度的划分信息可被提取作为关于编码深度的信息。
由图像数据和编码信息提取器220提取的关于根据每个LCU的编码深度和编码模式的信息是关于如下编码深度和编码模式的信息,其中,所述编码深度和编码模式被确定为当编码器(诸如视频编码设备100)根据每个LCU对每个根据深度的较深层编码单元重复执行编码时产生最小编码误差。因此,视频解码设备200可通过根据产生最小编码误差的编码深度和编码模式对图像数据进行解码来恢复图像。
由于关于编码深度和编码模式的编码信息可被分配给相应编码单元、预测单元和最小单元中的预定数据单元,因此图像数据和编码信息提取器220可根据预定数据单元提取关于编码深度和编码模式的信息。被分配关于编码深度和编码模式的相同信息的预定数据单元可被推断为包括在相同LCU中的数据单元。
图像数据解码器230通过基于关于根据LCU的编码深度和编码模式的信息对每个LCU中的图像数据进行解码,来恢复当前画面。换句话说,图像数据解码器230可基于提取的关于包括在每个LCU中的具有树结构的编码单元中的每个编码单元的分区类型、预测模式和TU的信息,来对编码图像数据进行解码。解码处理可包括预测(包括帧内预测和运动补偿)和反变换。
图像数据解码器230可基于关于根据编码深度的编码单元的预测单元的分区类型和预测模式的信息,根据每个编码单元的分区和预测模式执行帧内预测或运动补偿。
此外,图像数据解码器230可基于关于根据编码深度的编码单元的TU的尺寸的信息,根据编码单元中的每个TU执行反变换,从而根据LCU执行反变换。
图像数据解码器230可通过使用根据深度的划分信息来确定当前LCU的至少一个编码深度。如果划分信息指示图像数据在当前深度下不再被划分,则当前深度是编码深度。因此,图像数据解码器230可通过使用关于预测单元的分区类型、预测模式和TU的尺寸的信息,针对当前LCU的图像数据,对当前深度的编码单元进行解码。
换句话说,可通过观察为编码单元、预测单元和最小单元中的预定数据单元分配的编码信息集来收集包括编码信息(包括相同划分信息)的数据单元,收集的数据单元可被视为将由图像数据解码器230以相同的编码模式进行解码的一个数据单元。
视频解码设备200可获得关于当针对每个LCU递归执行编码时产生最小编码误差的至少一个编码单元的信息,并可使用所述信息来对当前画面进行解码。换句话说,可对每个LCU中被确定为最佳编码单元的具有树结构的编码单元的编码图像数据进行解码。
因此,即使图像数据具有高分辨率和大数据量,也可通过使用编码单元的尺寸和编码模式来有效地对图像数据进行解码和恢复,其中,通过使用从编码器接收的关于最佳编码模式的信息,根据图像数据的特性来自适应地确定所述编码单元的尺寸和所述编码模式。
现在将参照图3至图13描述根据本发明的实施例的确定具有树结构的编码单元、预测单元和TU的方法。
图3是用于描述根据本发明的实施例的编码单元的概念的示图。
编码单元的尺寸可被表示为宽度×高度,可以是64×64、32×32、16×16和8×8。64×64的编码单元可被划分为64×64、64×32、32×64或32×32的分区,32×32的编码单元可被划分为32×32、32×16、16×32或16×16的分区,16×16的编码单元可被划分为16×16、16×8、8×16或8×8的分区,8×8的编码单元可被划分为8×8、8×4、4×8或4×4的分区。
在视频数据310中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为2。在视频数据320中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为3。在视频数据330中,分辨率为352×288,编码单元的最大尺寸为16,最大深度为1。图3中示出的最大深度指示从LCU到最小解码单元的总划分次数。
如果分辨率高或数据量大,则编码单元的最大尺寸可较大,从而不仅提高了编码效率还精确地反映出图像的特性。因此,分辨率高于视频数据330的视频数据310和视频数据320的编码单元的最大尺寸可以是64。
由于视频数据310的最大深度是2,因此,由于通过将LCU划分两次,深度被加深两层,因此视频数据310的编码单元315可包括长轴尺寸为64的LCU以及长轴尺寸为32和16的编码单元。同时,由于视频数据330的最大深度是1,因此,由于通过将LCU划分一次,深度被加深一层,因此视频数据330的编码单元335可包括长轴尺寸为16的LCU以及长轴尺寸为8的编码单元。
由于视频数据320的最大深度为3,因此,由于通过将LCU划分三次,深度被加深3层,因此视频数据320的编码单元325可包括长轴尺寸为64的LCU以及长轴尺寸为32、16和8的编码单元。随着深度加深,可精确地表达详细信息。
图4是根据本发明的实施例的基于编码单元的图像编码器400的框图。
图像编码器400执行当视频编码设备100的编码单元确定器120对图像数据进行编码时所执行的操作。更具体地,帧内预测器410针对当前帧405,对帧内模式下的编码单元执行帧内预测,运动估计器420和运动补偿器425通过使用当前帧405和参考帧495,对帧间模式下的编码单元分别执行帧间估计和运动补偿。
从帧内预测器410、运动估计器420和运动补偿器425输出的数据通过变换器430和量化器440被输出作为量化的变换系数。量化的变换系数通过反量化器460和反变换器470被恢复为空间域中的数据,恢复的空间域中的数据在通过去块单元480和环路滤波单元490进行后处理之后被输出为参考帧495。量化的变换系数可通过熵编码器450被输出为比特流455。
为了将图像编码器400应用在视频编码设备100中,图像编码器400的所有元件(即,帧内预测器410、运动估计器420、运动补偿器425、变换器430、量化器440、熵编码器450、反量化器460、反变换器470、去块单元480和环路滤波单元490)在考虑每个LCU的最大深度的同时,基于具有树结构的编码单元中的每个编码单元来执行操作。
具体地,帧内预测器410、运动估计器420和运动补偿器425在考虑当前LCU的最大尺寸和最大深度的同时确定具有树结构的编码单元中的每个编码单元的分区和预测模式,变换器430确定具有树结构的编码单元中的每个编码单元中的TU的尺寸。
图5是根据本发明的实施例的基于编码单元的图像解码器500的框图。
解析器510从比特流505解析将被解码的编码图像数据以及解码所需的关于编码的信息。编码图像数据通过熵解码器520和反量化器530被输出为反量化的数据,反量化的数据通过反变换器540被恢复为空间域中的图像数据。
帧内预测器550针对空间域中的图像数据,对帧内模式下的编码单元执行帧内预测,运动补偿器560通过使用参考帧585对帧间模式下的编码单元执行运动补偿。
通过帧内预测器550和运动补偿器560的空间域中的图像数据可在通过去块单元570和环路滤波单元580进行后处理之后被输出为恢复的帧。此外,通过去块单元570和环路滤波单元580进行后处理的图像数据可被输出为参考帧585。
为使视频解码设备200的图像数据解码器230对图像数据进行解码,可执行在图像解码器500的解析器510之后的操作。
为了将图像解码器500应用在视频解码设备200中,图像解码器500的所有元件(即,解析器510、熵解码器520、反量化器530、反变换器540、帧内预测器550、运动补偿器560、去块单元570和环路滤波单元580)针对每个LCU基于具有树结构的编码单元执行操作。
具体地,帧内预测器550和运动补偿器560针对具有树结构的每个编码单元确定分区和预测模式,反变换器540必须针对每个编码单元确定TU的尺寸。
图6是示出根据本发明的实施例的根据深度的较深层编码单元以及分区的示图。
视频编码设备100和视频解码设备200使用分层编码单元以考虑图像的特性。可根据图像的特性适应地确定编码单元的最大高度、最大宽度和最大深度,或可由用户不同地设置编码单元的最大高度、最大宽度和最大深度。可根据编码单元的预定最大尺寸来确定根据深度的较深层编码单元的尺寸。
在根据本发明的实施例的编码单元的分层结构600中,编码单元的最大高度和最大宽度均为64,最大深度为4。由于深度沿分层结构600的纵轴加深,因此较深层编码单元的高度和宽度均被划分。此外,沿分层结构600的横轴示出作为用于每个较深层编码单元的预测编码的基础的预测单元和分区。
换句话说,编码单元610是分层结构600中的LCU,其中,深度为0,尺寸(即,高度乘宽度)为64×64。深度沿纵轴加深,存在尺寸为32×32且深度为1的编码单元620、尺寸为16×16且深度为2的编码单元630、尺寸为8×8且深度为3的编码单元640以及尺寸为4×4且深度为4的编码单元650。尺寸为4×4且深度为4的编码单元650是最小编码单元。
编码单元的预测单元和分区根据每个深度沿横轴排列。换句话说,如果尺寸为64×64且深度为0的编码单元610是预测单元,则预测单元可被划分为包括在编码单元610中的分区,即,尺寸为64×64的分区610、尺寸为64×32的分区612、尺寸为32×64的分区614或尺寸为32×32的分区616。
类似地,尺寸为32×32且深度为1的编码单元620的预测单元可被划分为包括在编码单元620中的分区,即,尺寸为32×32的分区620、尺寸为32×16的分区622、尺寸为16×32的分区624和尺寸为16×16的分区626。
类似地,尺寸为16×16且深度为2的编码单元630的预测单元可被划分为包括在编码单元630中的分区,即,包括在编码单元630中的尺寸为16×16的分区630、尺寸为16×8的分区632、尺寸为8×16的分区634和尺寸为8×8的分区636。
类似地,尺寸为8×8且深度为3的编码单元640的预测单元可被划分为包括在编码单元640中的分区,即,包括在编码单元640中的尺寸为8×8的分区640、尺寸为8×4的分区642、尺寸为4×8的分区644和尺寸为4×4的分区646。
尺寸为4×4且深度为4的编码单元650是最小编码单元和最低深度的编码单元。编码单元650的预测单元仅被分配给尺寸为4×4的分区。
为了确定组成LCU 610的编码单元的至少一个编码深度,视频编码设备100的编码单元确定器120针对包括在LCU 610中的与每个深度相应的编码单元执行编码。
随着深度加深,包括相同范围和相同尺寸的数据的根据深度的较深层编码单元的数量增加。例如,需要四个与深度2相应的编码单元,以覆盖包括在一个与深度1相应的编码单元中的数据。因此,为了比较相同数据根据深度的编码结果,与深度1相应的编码单元和四个与深度2相应的编码单元各自被编码。
为了针对深度中的当前深度执行编码,可通过沿分层结构600的横轴,针对与当前深度相应的编码单元中的每个预测单元执行编码,来针对当前深度选择最小编码误差。可选地,可通过随着深度沿分层结构600的纵轴加深针对每个深度执行编码来比较根据深度的最小编码误差,从而搜索最小编码误差。在编码单元610中具有最小编码误差的深度和分区可被选为编码单元610的编码深度和分区类型。
图7是用于描述根据本发明的实施例的编码单元710和TU 720之间的关系的示图。
视频编码设备100或视频解码设备200针对每个LCU,根据具有小于或等于LCU的尺寸的编码单元来对图像进行编码或解码。可基于不大于相应编码单元的数据单元来选择在编码期间用于变换的TU的尺寸。
例如,在视频编码设备100或视频解码设备200中,如果编码单元710的尺寸是64×64,则可通过使用尺寸为32×32的TU 720来执行变换。
此外,可通过对小于64×64的尺寸为32×32、16×16、8×8和4×4的TU中的每一个执行变换,来对尺寸为64×64的编码单元710的数据进行编码,随后可选择具有最小编码误差的TU。
图8是用于描述根据本发明的实施例的与编码深度相应的编码单元的编码信息的示图。
视频编码设备100的输出器130可对与编码深度相应的每个编码单元的关于分区类型的信息800、关于预测模式的信息810和关于TU的尺寸的信息820进行编码和发送,以作为关于编码模式的信息。
信息800指示关于通过对当前编码单元的预测单元进行划分而获得的分区的形状的信息,其中,所述分区是用于对当前编码单元进行预测编码的数据单元。例如,尺寸为2N×2N的当前编码单元CU_0可被划分为尺寸为2N×2N的分区802、尺寸为2N×N的分区804、尺寸为N×2N的分区806和尺寸为N×N的分区808中的任意一个。这里,关于分区类型的信息800被设置为指示尺寸为2N×N的分区804、尺寸为N×2N的分区806和尺寸为N×N的尺寸的分区808之一。
信息810指示每个分区的预测模式。例如,信息810可指示对由信息800指示的分区执行的预测编码的模式,即,帧内模式812、帧间模式814或跳过模式816。
信息820指示当对当前编码单元执行变换时所基于的TU。例如,TU可以是第一帧内TU 822、第二帧内TU 824、第一帧间TU 826或第二帧间TU 828。
视频解码设备200的图像数据和编码信息提取器220可根据每个较深层编码单元提取和使用用于解码的信息800、810和820。
图9是根据本发明的实施例的根据深度的较深层编码单元的示图。
划分信息可被用于指示深度的改变。划分信息指示当前深度的编码单元是否被划分为较低深度的编码单元。
用于对深度为0且尺寸为2N_0×2N_0的编码单元900进行预测编码的预测单元910可包括以下分区类型的分区:尺寸为2N_0×2N_0的分区类型912、尺寸为2N_0×N_0的分区类型914、尺寸为N_0×2N_0的分区类型916、尺寸为N_0×N_0的分区类型918。图9仅示出通过对预测单元910进行对称划分而获得的分区类型912至918,但分区类型不限于此,预测单元910的分区可包括不对称分区、具有预定形状的分区和具有几何形状的分区。
根据每个分区类型,对一个尺寸为2N_0×2N_0的分区、两个尺寸为2N_0×N_0的分区、两个尺寸为N_0×2N_0的分区和四个尺寸为N_0×N_0的分区重复执行预测编码。可对尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区执行帧内模式和帧间模式下的预测编码。仅对尺寸为2N_0×2N_0的分区执行跳过模式下的预测编码。
如果在尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区类型912至916之一中编码误差最小,则预测单元910可不被划分到较低深度。
如果在尺寸为N_0×N_0的分区类型918中编码误差最小,则深度从0改变到1以在操作920对分区类型918进行划分,并对深度为2且尺寸为N_0×N_0的分区类型编码单元重复执行编码,以搜索最小编码误差。
用于对深度为1且尺寸为2N_1×2N_1(=N_0×N_0)的编码单元930进行预测编码的预测单元940可包括以下分区类型的分区:尺寸为2N_1×2N_1的分区类型942、尺寸为2N_1×N_1的分区类型944、尺寸为N_1×2N_1的分区类型946、尺寸为N_1×N_1的分区类型948。
如果在尺寸为N_1×N_1的分区类型948中编码误差最小,则深度从1改变到2以在操作950对分区类型948进行划分,并对深度为2且尺寸为N_2×N_2的编码单元960重复执行编码,以搜索最小编码误差。
当最大深度为d时,可执行根据每个深度的划分操作,直到深度变为d-1,并且划分信息可被编码,直到深度为0到d-2中的一个。换句话说,当编码被执行直到在操作970与深度d-2相应的编码单元被划分之后深度为d-1时,用于对深度为d-1且尺寸为2N_(d-1)×2N_(d-1)的编码单元980进行预测编码的预测单元990可包括以下分区类型的分区:尺寸为2N_(d-1)×2N_(d-1)的分区类型992、尺寸为2N_(d-1)×N_(d-1)的分区类型994、尺寸为N_(d-1)×2N_(d-1)的分区类型996、尺寸为N_(d-1)×N_(d-1)的分区类型998。
可在分区类型992至998中对一个尺寸为2N_(d-1)×2N_(d-1)的分区、两个尺寸为2N_(d-1)×N_(d-1)的分区、两个尺寸为N_(d-1)×2N_(d-1)的分区、四个尺寸为N_(d-1)×N_(d-1)的分区重复执行预测编码,以搜索具有最小编码误差的分区类型。
即使当尺寸为N_(d-1)×N_(d-1)的分区类型998具有最小编码误差时,由于最大深度为d,因此深度为d-1的编码单元CU_(d-1)也不再被划分到较低深度,用于组成当前LCU900的编码单元的编码深度被确定为d-1,当前LCU 900的分区类型可被确定为N_(d-1)×N_(d-1)。此外,由于最大深度为d,因此不设置最小编码单元980的划分信息。
数据单元999可以为当前LCU的“最小单元”。根据本发明的实施例的最小单元可以是通过将最小编码单元980划分4次而获得的正方形数据单元。通过重复执行编码,视频编码设备100可通过比较根据编码单元900的深度的编码误差来选择具有最小编码误差的深度以确定编码深度,并将相应的分区类型和预测模式设置为编码深度的编码模式。
这样,在0至d的所有深度中比较根据深度的最小编码误差,具有最小编码误差的深度可被确定为编码深度。编码深度、预测单元的分区类型和预测模式可作为关于编码模式的信息被编码和发送。此外,由于编码单元从深度0被划分到编码深度,因此仅编码深度的划分信息被设置为0,除了编码深度之外的深度的划分信息被设置为1。
视频解码设备200的图像数据和编码信息提取器220可提取并使用关于编码单元900的编码深度和预测单元的信息以对编码单元912进行解码。视频解码设备200可通过使用根据深度的划分信息将划分信息为0的深度确定为编码深度,并使用关于相应深度的编码模式的信息以进行解码。
图10至图12是用于描述根据本发明的实施例的编码单元1010、预测单元1060和TU1070之间的关系的示图。
编码单元1010是LCU中与由视频编码设备100确定的编码深度相应的具有树结构的编码单元。预测单元1060是编码单元1010中的每一个的预测单元的分区,TU 1070是编码单元1010中的每一个的TU。
当编码单元1010中的LCU的深度是0时,编码单元1012和1054的深度是1,编码单元1014、1016、1018、1028、1050和1052的深度是2,编码单元1020、1022、1024、1026、1030、1032和1048的深度是3,编码单元1040、1042、1044和1046的深度是4。
在预测单元1060中,通过对编码单元进行划分来获得某些编码单元1014、1016、1022、1032、1048、1050、1052和1054。换句话说,编码单元1014、1022、1050和1054中的分区类型具有2N×N的尺寸,编码单元1016、1048和1052中的分区类型具有N×2N的尺寸,编码单元1032的分区类型具有N×N的尺寸。编码单元1010的预测单元和分区小于或等于每个编码单元。
对小于编码单元1052的数据单元中的TU 1070中的编码单元1052的图像数据执行变换或反变换。此外,TU 1070中的编码单元1014、1016、1022、1032、1048、1050、1052和1054在尺寸和形状方面与预测单元1060中的编码单元1014、1016、1022、1032、1048、1050、1052和1054不同。换句话说,视频编码设备100和视频解码设备200可对相同编码单元中的数据单元分别执行帧内预测、运动估计、运动补偿、变换和反变换。
因此,对LCU的每个区域中具有分层结构的编码单元中的每一个递归地执行编码,以确定最佳编码单元,从而可获得具有递归树结构的编码单元。编码信息可包括关于编码单元的划分信息、关于分区类型的信息、关于预测模式的信息和关于TU的尺寸的信息。表1示出可由视频编码设备100和视频解码设备200设置的编码信息。
[表1]
视频编码设备100的输出器130可输出具有树结构的编码单元的编码信息,视频解码设备200的图像数据和编码信息提取器220可从接收的比特流提取关于具有树结构的编码单元的编码信息。
划分信息指示当前编码单元是否被划分为较低深度的编码单元。如果当前深度d的划分信息为0,则当前编码单元不再被划分到较低深度的深度是编码深度,因此可针对编码深度定义关于分区类型、预测模式和TU的尺寸的信息。如果当前编码单元根据划分信息被进一步划分,则对较低深度的四个划分的编码单元独立地执行编码。
预测模式可以是帧内模式、帧间模式和跳过模式中的一个。可在所有分区类型中定义帧内模式和帧间模式,仅在尺寸为2N×2N的分区类型中定义跳过模式。
关于分区类型的信息可指示通过对预测单元的高度或宽度进行对称划分而获得的尺寸为2N×2N、2N×N、N×2N和N×N的对称分区类型,以及通过对预测单元的高度或宽度进行不对称划分而获得的尺寸为2N×nU、2N×nD、nL×2N和nR×2N的不对称分区类型。可通过按照1:3和3:1对预测单元的高度进行划分来分别获得尺寸为2N×nU和2N×nD的不对称分区类型,可通过按照1:3和3:1对预测单元的宽度进行划分来分别获得尺寸为nL×2N和nR×2N的不对称分区类型。
TU的尺寸可被设置为帧内模式下的两种类型和帧间模式下的两种类型。换句话说,如果TU的划分信息是0,则TU的尺寸可以是2N×2N,这是当前编码单元的尺寸。如果TU的划分信息是1,则可通过对当前编码单元进行划分来获得TU。此外,如果尺寸为2N×2N的当前编码单元的分区类型是对称分区类型,则TU的尺寸可以是N×N,如果当前编码单元的分区类型是不对称分区类型,则TU的尺寸可以是N/2×N/2。
关于具有树结构的编码单元的编码信息可包括与编码深度相应的编码单元、预测单元和最小单元中的至少一个。与编码深度相应的编码单元可包括:包括相同编码信息的预测单元和最小单元中的至少一个。
因此,通过比较邻近数据单元的编码信息来确定邻近数据单元是否包括在与编码深度相应的相同编码单元中。此外,通过使用数据单元的编码信息来确定与编码深度相应的相应编码单元,从而可确定LCU中的编码深度的分布。
因此,如果基于邻近数据单元的编码信息来预测当前编码单元,则可直接参考和使用与当前编码单元邻近的较深层编码单元中的数据单元的编码信息。
可选地,如果基于邻近数据单元的编码信息来预测当前编码单元,则使用数据单元的编码信息来搜索与当前编码单元邻近的数据单元,并且可参考搜索到的邻近编码单元来预测当前编码单元。
图13是用于描述根据表1的编码模式信息的编码单元、预测单元和TU之间的关系的示图。
LCU 1300包括多个编码深度的编码单元1302、1304、1306、1312、1314、1316和1318。这里,由于编码单元1318是编码深度的编码单元,因此划分信息可被设置为0。关于尺寸为2N×2N的编码单元1318的分区类型的信息可被设置为以下分区类型之一:尺寸为2N×2N的分区类型1322、尺寸为2N×N的分区类型1324、尺寸为N×2N的分区类型1326、尺寸为N×N的分区类型1328、尺寸为2N×nU的分区类型1332、尺寸为2N×nD的分区类型1334、尺寸为nL×2N的分区类型1336和尺寸为nR×2N的分区类型1338。
当分区类型被设置为对称(即,分区类型1322、1324、1326或1328)时,如果TU的划分信息(TU尺寸标记)为0,则设置尺寸为2N×2N的TU 1342,如果TU尺寸标记为1,则设置尺寸为N×N的TU 1344。
当分区类型被设置为不对称(即,分区类型1332、1334、1336或1338)时,如果TU尺寸标记为0,则设置尺寸为2N×2N的TU 1352,如果TU尺寸标记为1,则设置尺寸为N/2×N/2的TU 1354。
现在将详细描述在图4中示出的图像编码器400的量化器440和熵编码器450中对量化参数(QP)进行编码的处理,以及在图5中示出的图像解码器500的熵解码器520和反量化器530中对QP进行解码的处理。
图14是根据本发明的实施例的图4中示出的量化器440的详细框图。
参照图14,量化器440包括量化执行器1410、QP预测器1420和减法器1430。
量化执行器1410对变换到频域的残差数据进行量化。量化执行器1410可基于通过将输入数据除以根据QP确定的量化步长Q_Step而获得的值,来执行量化。例如,量化执行器1410可基于下面的等式来对输入数据Coeff执行量化:Q_Coeff=sgn(Coeff)*round[(Coeff)/Q_Step+Offset]。这里,Offset表示偏移量,Q_Step表示量化步长,Q_Coeff表示量化的结果值。Round[X]表示用于输出不大于并最接近于实数X的整数的操作。sgn(Coeff)表示在Coeff的值大于0的情况下具有值1,在Coeff的值小于0的情况下具有值-1的函数。如上所述,量化执行器1410可通过将输入数据除以量化步长Q_Step来执行量化。量化步长Q_Step可具有根据QP而确定的值。例如,如表2所示,可根据QP来确定量化步长Q_Step。
[表2]
参照表2,每当QP增加6,量化步长Q_Step就加倍。使用QP的量化和根据QP的量化步长Q_Step不限于上述示例,并可变化。
与量化相反,通过使用将根据QP确定的量化步长Q_Step乘以输入数据而获得的值来执行反量化。例如,可通过使用将量化系数Q_Coeff乘以量化步长Q_Step并随后加上预定偏移量而获得的值,来执行反量化,如以下等式所示:InverseQ_Coeff=sgn(Q_coeff)*round[Q_Coeff*Q_Step+Offset]。
QP预测器1420获得预测QP QP_Pred,预测QP QP_Pred是应用到当前编码单元的QP的预测值。如上所述,为了对输入数据执行量化和反量化,需要QP信息。为了减少数据量,仅发送QP和预测QP QP_Pred之间的差,作为QP信息。在解码处理中,可通过获得如编码处理中的预测QP QP_Pred并加上比特流中包括的差来恢复QP。QP预测器1420可通过使用先前编码的编码单元被量化时所确定的QP来获得预测QP QP_Pred。具体地,针对预定数据单元的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。更具体地,QP预测器1420可通过使用条带级初始QP SliceQP,来对包括在条带片段中的可并行编码的数据的第一量化组的预测QP QP_Pred进行预测。量化组表示共享同一预测QP QP_Pred的一个或更多个编码单元的组。量化组可包括一个编码单元或者多个编码单元。将如下面所描述的,可并行编码的数据单元可以是包括根据波前并行处理(WPP)的同一行的LCU的并行线(thread),或是通过按照至少一个列边界和/或行边界来划分画面而获得的并行块(tile)。
此外,QP预测器1420可通过使用在邻近编码单元中确定的QP来获得预测QP QP_Pred。下面将详细描述获得预测QP QP_Pred的处理。
QP预测器1420将用于获得预测QP QP_Pred的附加信息输出到熵编码器450。
减法器1430输出作为应用到当前编码单元的QP与预测QP QP_Pred之间的差的QP差ΔQP。
图15是根据本发明的实施例的图4中示出的熵编码器450的详细框图。
熵编码器450对根据对视频进行编码的结果而产生的语法元素进行算术编码。作为算术编码方法,可使用上下文自适应二进制算术编码(CABAC)。此外,熵编码器450通过将对视频编码层进行算术编码的视频数据和关于与视频编码有关的各种参数的信息变换为根据网络抽象层的格式,来产生比特流。
更具体地,参照图15,熵编码器450包括序列参数集(SPS)产生器1510、画面参数集(PPS)产生器1520、条带信息产生器1530和TU信息产生器1540,其中,SPS产生器1510用于产生包括整个序列的编码信息的SPS,例如,型和级,PPS产生器1520用于产生包含序列中包括的每个画面的编码信息的PPS,条带信息产生器1530用于产生包含画面中包括的条带片段的编码信息的条带信息,TU信息产生器1540用于产生关于在变换处理中使用的TU的信息。如下面将描述的,PPS产生器1520可将语法init_qp_minus26包括在PPS中,其中,语法init_qp_minus26指示用于获得画面中包括的每个条带的条带级初始QP SliceQP的画面级初始QP。此外,条带信息产生器1530可将语法slice_qp_delta包括在条带头中,其中,语法slice_qp_delta指示语法init_qp_minus26(指示画面级初始QP)与条带级初始QP SliceQP之间的差。
除了示出的分层结构之外,熵编码器450还可通过封装关于另一下层的数据单元的信息(例如,关于编码单元的信息)来产生比特流。
如上所述,针对预定可并行数据单元的初始量化的编码单元(或量化组),QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。这里,预定数据单元是通过根据画面划分方案对画面进行划分而获得的数据单元,例如,条带、条带片段或并行块。
图16示出根据本发明的实施例的作为用于划分画面的数据单元的条带片段、条带和LCU。
参照图16,画面可被划分为多个LCU。图16示出画面被划分为水平方向的11个LCU和垂直方向的9个LCU(即,共99个LCU)的示例。如上面针对图1至图13所描述的,每个LCU可在被划分为具有树结构的编码单元之后被编码/解码。
此外,画面可根据条带边界被划分为一个或更多个条带。图16示出针对条带边界将画面划分为诸如上方条带和下方条带的两个条带的示例。此外,一个条带可被划分为一个或更多个条带片段。图16示出按照条带片段边界将上方条带划分为条带片段1610、1620和1630的示例。此外,下方条带包括一个条带片段1640。
每个条带片段1610、1620、1630和1640可根据其是否指示包括在另一条带片段中的信息而被分类为依赖条带片段或独立条带片段。依赖条带片段是可参考根据编码/解码顺序先前处理的先前条带片段的语法元素来确定条带片段头中包括的部分语法元素的条带片段。独立条带片段是可在不参考先前条带片段的信息的情况下确定条带片段头的语法元素的条带片段。
图17示出根据本发明的实施例的作为用于划分画面的数据单元的并行块和条带片段。
图17示出按照列边界1701和1703将一个画面1700划分为三个并行块的示例。可按照列边界和/或行边界来将画面划分为多个并行块。虽然图17中仅按照列边界将画面划分为并行块,但是还可仅按照行边界或者按照行边界和列边界两者来将画面划分为并行块。此外,一个并行块可包括多个条带片段。图17示出按照条带边界1702和1704来将并行块#1划分为三个条带片段1710、1720和1730的示例。
并行块是按照列边界和/或行边界而划分的LCU的集,是预测或上下文预测不允许越过列边界或行边界进行预测或上下文预测的独立数据处理单元。也就是说,并行块是不参考另一并行块信息的信息的独立数据处理单元,多个并行块可被并行处理。列边界和行边界的位置信息可被包括在SPS或PPS中。在解码处理中,可从SPS或PPS获得列边界和行边界的位置信息,可基于获得的列边界和行边界的位置信息来将画面划分为多个并行块,并随后可对划分的并行块并行地解码。
因此,当对画面1700的并行块进行并行处理时,每个并行块可根据LCU被编码/解码。在图17中,LCU中标记的号表示在每个并行块中LCU的扫描顺序,即,编码或解码顺序。
根据本发明的实施例,可如下面所述定义作为用于划分画面的数据单元的条带片段、条带、并行块和LCU中的相互关系。
针对每个条带和并行块,根据预定扫描顺序编码(或解码)的LCU需要满足下述的条件Ⅰ和条件Ⅱ中的至少一个。
(条件Ⅰ)包括在一个条带中的所有LCU属于同一并行块。
(条件Ⅱ)包括在一个并行块中的所有LCU属于同一条带。
此外,针对每个条带片段和并行块,根据预定扫描顺序编码(或解码)的LCU需要满足下述的条件a和条件b中的至少一个。
(条件a)包括在一个条带片段中的所有LCU属于同一并行块。
(条件b)包括在一个并行块中的所有LCU属于同一条带片段。
在满足条件Ⅰ和条件Ⅱ中的至少一个和条件a和条件b中的至少一个的范围内,可通过使用条带、条带片段、并行块和LCU来划分一个画面。
图18a和图18b示出根据本发明的实施例的并行块、条带片段、条带和LCU中的相互关系。
参照图18a,由于条带片段边界线1803、1805、1807和1809,画面1800被划分为5个条带片段1811、1813、1815、1817和1819。此外,由于一个条带由一个独立条带片段1811和四个依赖条带片段1813、1815、1817和1819形成,因此画面1800包括一个条带。
此外,由于并行块边界1801,画面1800被划分为两个并行块。这样,左并行块包括三个条带片段1811、1813和1815,右并行块包括两个条带片段1817和1819。
首先,检查条带片段1811、1813、1815、1817和1819、并行块和LCU是否满足如上面针对图17描述的条件a和条件b中的至少一个。条带片段1811、1813和1815的所有LCU包括在左并行块中,因此满足条件a。此外,条带片段1817和1819的所有LCU包括在右并行块中,因此也满足条件a。
检查条带、并行块和LCU是否满足如上面针对图17描述的条件Ⅰ和条件Ⅱ中的至少一个。左并行块的所有LCU包括在一个条带中,因此满足条件Ⅱ。此外,右并行块的所有LCU包括在一个条带中,因此也满足条件Ⅱ。
参照图18b,由于并行块边界线1851,画面1850被划分为两个并行块,例如,左并行块和右并行块。此外,由于条带边界线1866和1868,画面1850被划分为三个条带,按照条带边界线1866,左并行块被划分为左上条带和左下条带,右并行块由一个右条带形成。
按照条带片段边界线1863,左上条带被划分为一个独立条带片段1861和一个依赖条带片段1865。按照条带片段边界线1883,左下条带被划分为一个独立条带片段1881和一个依赖条带片段1885。按照条带片段边界线1893,右条带可被划分为一个独立条带片段1891和一个依赖条带片段1895。
首先,检查条带片段1861、1865、1881、1885、1891和1895、并行块和LCU是否满足条件a和条件b中的至少一个。条带片段1861和1865的所有LCU包括在左并行块中,因此满足条件a。此外,条带片段1881和1883的所有LCU包括在同一左并行块中,因此也满足条件a。此外,条带片段1891和1893的所有LCU包括在同一右并行块中,因此也满足条件a。
检查条带、并行块和LCU是否满足条件Ⅰ和条件Ⅱ中的至少一个。左上条带的所有LCU包括在左并行块中,因此满足条件Ⅰ。此外,左下条带的所有LCU包括在左并行块中,因此也满足条件Ⅰ。此外,右条带的所有LCU包括在右并行块中并且右并行块的所有LCU包括在右条带中,因此满足条件Ⅰ。
图19是用于描述根据本发明的实施例的WPP的参考示图。
WPP表示在完全处理右上LCU之后处理LCU以并行编码/解码的处理。更详细地,WPP通过使用处理上方并行线的第二LCU而获得的概率信息来设置每个并行线的第一LCU的概率模型。例如,参照图19,熵编码器450通过使用在对并行线1的第二LCU 1901进行熵编码之后而获得的概率模型,来设置并行线2的第一LCU 1902的概率模型以进行熵编码。如上所述,当每个并行线的LCU被熵编码时,熵编码器450可使用通过处理右上LCU而更新的概率信息,从而允许并行熵编码。
此外,根据WPP,由于每个并行线的第一LCU在上方并行线的第二LCU被完全处理之后被处理,因此可通过使用上方并行线的LCU的运动预测信息(例如,预测的运动矢量信息)来获得每个并行线的LCU。因此,在图19中,并行线1至并行线4中包括的LCU可在右上LCU被完全处理之后被并行处理。
在被分配到编码设备或解码设备的中央处理单元(CPU)或图形处理单元(GPU)的多核之后被并行处理的数据单元被定义为并行线。更具体地,假设CPU或GPU包括四个多核,四个数据单元可被并行处理。在这种情况下,如图19所示,并行线1至并行线4的LCU被分配到四个多核,并被并行处理。如上所述,根据WPP,并行线N(N是整数)的LCU被延迟直到包括在并行线N-1中的右上LCU被完全处理之后,才被处理。
根据上述WPP,在熵编码处理中,每个线程LCU可在右上LCU被完全熵编码之后确定用于熵编码的概率模型。然而,在将被熵编码的语法元素中,可不直接对指示QP与预测QPQP_Pred之间的差的语法cu_qp_delta进行熵编码。这是因为预测QP QP_Pred应该被获得以获得QP与预测QP QP_Pred之间的差,并使用在根据例如光栅扫描顺序的先前处理的编码单元中确定的QP。更具体地,参照图19,根据现有技术,LCU 1903的预测QP QP_Pred可被预测为根据光栅扫描顺序被先前处理的LCU 1905的QP,或在对同一并行线中被先前处理的LCU1904进行量化处理中确定的QP。在任何情况下,可仅在根据光栅扫描顺序被先前处理的LCU1905或在同一并行线中被先前处理的LCU 1904被完全编码之后,执行LCU 1903的熵编码。如上所述,如果基于先前编码单元的QP获得预测QP,则可延迟处理,直到先前编码单元被处理,从而可产生瓶颈问题。因此,如果基于先前编码单元的QP获得预测QP,则会降低并行处理的整个性能。
类似地,在熵解码处理中,每个并行线的LCU可在右上LCU被完全熵解码之后被熵解码。即使根据WPP,在反量化处理中,也会产生瓶颈问题。为了获得作为执行反量化所需的参数的QP,应该首先执行获得预测QP QP_Pred的处理。根据上述现有技术,LCU 1903的预测QP QP_Pred可被预测为在对根据光栅扫描顺序被先前处理的LCU 1905的反量化处理中确定的QP,或在对同一并行线中被先前处理的LCU 1904的反量化处理中确定的QP。因此,可仅在根据光栅扫描顺序被先前处理的LCU 1905或在同一并行线中被先前处理的LCU 1904被完全解码之后,执行对LCU 1903的解码处理。
如上所述,如果在先前处理的LCU中确定的QP或在同一并行线的先前LCU中确定的QP被作用用于对LCU执行量化或反量化的预测QP QP_Pred,则预测QP QP_Pred可仅在先前LCU被完全处理之后被获得。
因此,根据本发明的实施例,由于条带级初始QP SliceQP被用作通过划分画面而获得的数据单元中的初始量化数据单元的QP预测因子QP_Predictor,因此可不管数据单元的处理顺序,对初始量化数据单元执行量化/反量化。
图20是用于描述根据本发明的实施例的获得包括在条带片段中的LCU的预测QPQP_Pred的处理的示图。在图20中,假设按照条带片段边界将画面2000划分为两个条带片段。
量化执行器1410考虑率失真(R-D)代价确定用于对具有树结构的编码单元进行量化的最佳QP,通过使用确定的QP对具有树结构的编码单元进行量化,并输出QP信息。
QP预测器1420通过预测每个编码单元的QP来输出预测QP QP_Pred。可考虑例如当前编码单元的处理顺序或位置来使用各种方法来对预测QP QP_Pred进行预测。
例如,包括在条带片段中的可并行处理的数据单元的初始量化的编码单元或包括在并行块中的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。参照图20,针对包括在上方条带片段的第一LCU 2001中的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。类似地,针对包括在下方条带片段的第一LCU 2004中的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。
此外,针对包括在条带片段的每个并行线的第一LCU中的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。返回参照图20,针对包括在上方条带片段的并行线的第一LCU 2002和2003中的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。类似地,针对包括在下方条带片段的并行线的第一LCU 2005、2005和2007中的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。
具体地,如果均包括同一行的LCU的多个并行线是根据WPP可并行处理的,则针对包括在条带片段的并行线的第一LCU中的初始量化的编码单元(量化组),QP预测器1420可通过使用条带级初始QP SliceQP来对预测QP QP_Pred进行预测。换句话说,在根据WPP的量化处理中,QP预测器1420可通过使用条带级初始QP SliceQP来获得包括在每个并行线的第一LCU中的初始量化的编码单元的预测QP QP_Pred。如果不使用WPP,则QP预测器1420通过使用条带级初始QP SliceQP,仅可获得包括在条带片段的第一LCU中的初始量化的编码单元的预测QP QP_Pred,并且通过使用邻近编码单元的QP,可获得除了初始量化的编码单元之外的编码单元的预测QP QP_Pred。
此外,针对每个可并行的并行块的初始量化的量化组,QP预测器1420可通过使用条带级初始QP SliceQP来对预测QP QP_Pred进行预测。
参照图21,根据预定扫描顺序包括在条带片段的第一LCU中并将被初始量化的第一量化组2110包括编码单元a、b、c和d。通过使用条带级初始QP SliceQP来获得编码单元a的预测QP QP_Pred。包括在第一量化组2110中的编码单元a、b、c和d小于可具有语法cu_qp_delta的最小编码单元,因此可具有相同预测QP QP_Pred。
作为另一示例,针对除了初始编码单元a、b、c和d之外的编码单元,QP预测器1420基于上方邻近编码单元和左侧邻近编码单元的QP的平均值来获得预测QP QP_Pred。例如,可通过使用左侧编码单元α的QP QP_α和上方编码单元的QP的平均值来确定量化组2120的编码单元e、f、g和h的预测QP。然而,编码单元e、f、g和h的上方编码单元不可用,可使用先前处理的编码单元的QP来代替。也就是说,QP预测器1420可如下所示获得编码单元e、f、g和h的预测QP。
QP_Pred_e=(QP_α+QP_α+1)>>1;
QP_Pred_f=(QP_α+QP_e+1)>>1;
QP_Pred_g=(QP_α+QP_f+1)>>1;以及
QP_Pred_h=(QP_α+QP_g+1)>>1;
可通过使用左侧编码单元β的QP QP_β和上方编码单元γ的QP QP_γ的平均值来确定量化组2130的编码单元i、j、k和l的预测QP。由于左侧编码单元β的QP QP_β和上方编码单元γ的QP QP_γ都可用,因此,编码单元i、j、k和l都可具有(QP_β+QP_γ+1)>>1作为它们的预测QP。
初始处理的第一量化组2110的上方邻近编码单元和左侧邻近编码单元不可用,如果编码单元a、b、c和d的上方邻近编码单元和左侧邻近编码单元的QP被假设为条带级初始QP SliceQP,则像其它编码单元一样,包括在初始处理的第一量化组2110中的编码单元a、b、c和d的预测QP QP_Pred也被视为通过使用上方邻近编码单元和左侧邻近编码单元的QP的平均值而被预测。
如上所述,针对包括在条带片段中的可并行数据单元的第一量化组,QP预测器1420通过使用条带级初始QP SliceQP获得预测QP QP_Pred。现在将描述获得条带级初始QPSliceQP的处理。
可如下等式所示通过使用画面级初始QP init_qp_minus26和语法slice_qp_delta来获得条带级初始QP SliceQP:SliceQP=26+init_qp_minus26+slice_qp_delta,其中,语法slice_qp_delta指示画面级初始QP init_qp_minus26和条带级初始QP SliceQP之间的差。画面级初始QP init_qp_minus26是通过从包括在画面中的每个条带的初始编码单元的QP的平均值减去26而获得的值,或是预设常量。语法slice_qp_delta与用于确定包括在条带中的编码单元的条带级初始QP SliceQP的调整值相应,并可由于在编码单元级设置的cu_qp_delta而被改变。cu_qp_delta与用于改变在编码单元级的QP的调整值相应。如果cu_qp_delta_enable_flag被设置为1,则大于根据语法diff_cu_qp_delta_depth确定的最小编码单元的编码单元可具有cu_qp_delta。例如,指示条带级初始QP SliceQP和包括在每个并行线的第一LCU中的初始量化的编码单元的QP之间的差的语法信息cu_qp_delta可被包括在TU数据集中,其中TU数据集包括编码单元的变换信息。
图22至图24示出根据本发明的实施例的包括在具有树结构的数据单元的头中以预测QP的语法。
图22是示出根据本发明的实施例的提供给PPS的QP相关语法的表。
参照图22,PPS产生器1520可将语法init_qp_minus26 2210包括在PPS中,其中,语法init_qp_minus26 2210是用于获得包括在画面中的每个条带的条带级初始QP SliceQP的附加信息。此外,PPS产生器1520可将cu_qp_delta_enabled_flag 2220和diff_cu_qp_delta_depth 2230包括在PPS中,其中,cu_qp_delta_enabled_flag 2220是指示QP在编码单元级是否可改变的标记,diff_cu_qp_delta_depth 2230是用于确定可具有cu_qp_delta的最小编码单元的尺寸的语法。语法diff_cu_qp_delta_depth2230可指示可具有cu_qp_delta的最小编码单元的尺寸的深度。例如,当深度为0的LCU的尺寸是64×64时,如果语法diff_cu_qp_delta_depth 2230的值为2,则仅深度等于或小于2的编码单元(即,具有等于或大于16×16的尺寸的编码单元)可具有cu_qp_delta。此外,PPS产生器1520可将entropy_coding_sync_enabled_flag 2240包括在PPS中,其中,entropy_coding_sync_enabled_flag 2240指示是否对包括在条带片段中的多个并行线执行并行熵编码。如果entropy_coding_sync_enabled_flag 2240是1,则其指示根据如上所述的WPP来对多个并行线执行并行熵编码。如果entropy_coding_sync_enabled_flag 2240是0,则其指示不执行根据WPP的并行熵编码。
如上所述,具体地,如果执行WPP,则针对包括在条带片段中的并行线的第一LCU中的初始量化的编码单元,QP预测器1420可通过使用条带级初始QP SliceQP来对预测QP QP_Pred进行预测。此外,针对每个可并行处理的并行块的初始量化的量化组,QP预测器1420可通过使用条带级初始QP SliceQP来对预测QP QP_Pred进行预测。
图23是示出根据本发明的实施例的提供给条带片段头的QP相关语法的表。
参照图23,条带信息产生器1530可将语法slice_qp_delta包括在条带头中,其中,语法slice_qp_delta指示语法init_qp_minus26(指示画面级初始QP)与条带级初始QPSliceQP之间的差。
图24是示出根据本发明的实施例的添加到TU信信息的QP相关语法的表。
参照图24,TU信息产生器1540可将语法cu_qp_delta的尺寸信息2140(cu_qp_delta_abs)和符号信息2420(cu_qp_delta_sign)包括在TU信息中,其中,语法cu_qp_delta指示在编码单元级的QP和预测QP QP_Pred之间的差。
图25是根据本发明的实施例的视频编码方法的流程图。
参照图25,在操作2510,量化执行器1410获得用于对包括在条带片段中的编码单元执行量化的QP。
在操作2520,QP预测器1420确定用于对包括在条带片段中的可并行编码的数据单元的第一量化组的QP进行预测的条带级初始QP SliceQP。如上所述,可并行编码的数据单元可以是包括根据WPP的同一行的LCU的并行线,或是通过按照至少一个列边界和/或行边界划分画面而获得的并行块。
在操作2530,QP预测器1420通过使用确定的条带级初始QP SliceQP来获得第一量化组的预测QP QP_Pred。更具体地,如果根据WPP对包括在条带片段中的多个并行线执行并行熵编码,则QP预测器1420可通过使用条带级初始QP SliceQP来获得每个并行线的第一LCU的初始量化的编码单元的预测QP QP_Pred。此外,针对每个可并行处理的并行块的初始量化的量化组,QP预测器1420可通过使用条带级初始QP SliceQP来对预测QP QP_Pred进行预测。
此外,即使不执行QPP,QP预测器1420也可通过使用条带级初始QP SliceQP来获得条带片段的第一LCU的初始量化的编码单元的预测QP QP_Pred。此外,QP预测器1420可通过使用条带级初始QP SliceQP来获得包括在并行块中的初始量化的编码单元的预测QP QP_Pred。此外,QP预测器1420可基于编码单元的上方邻近编码单元和右侧邻近编码单元的QP的平均值来获得编码单元的预测QP QP_Pred。
在操作2540,熵编码器450将用于确定条带级初始QP SliceQP的语法信息添加到比特流中。如上所述,PPS产生器1520可将语法init_qp_minus26包括在PPS中,其中,语法init_qp_minus26指示用于获得包括在画面中的每个条带的条带级初始QP SliceQP的画面级初始QP。此外,条带信息产生器1530可将语法slice_qp_delta包括在条带头中,其中,语法slice_qp_delta指示语法init_qp_minus26(指示画面级初始QP)与条带级初始QPSliceQP之间的差。TU信息产生器1540可将语法cu_qp_delta的尺寸信息2410(cu_qp_delta_abs)和符号信息2420(cu_qp_delta_sign)包括在TU信息中,其中,语法cu_qp_delta指示在编码单元级的QP和预测QP QP_Pred之间的差。
图26是根据本发明的实施例的图5中示出的熵解码器520的详细框图。
熵解码器520对比特流中的语法元素进行算术解码。更具体地,参照图26,熵解码器520包括SPS获得器2610、PPS获得器2620、条带信息获得器2630和TU信息获得器2640,其中,SPS获得器2610用于获得包括整个序列的编码信息的SPS,例如,型和级,PPS获得器2620用于获得包含在序列中包括的每个画面的编码信息的PPS,条带信息获得器2630用于获得包含画面中包括的条带片段的编码单元的条带信息,TU信息获得器2640用于获得关于在变换处理中使用的TU的信息。
熵解码器520获得用于确定用于对包括在条带片段中的编码单元执行反量化的QP的初始值的语法。更具体地,PPS获得器2620获得指示画面级初始QP的语法init_qp_minus26。此外,条带信息获得器2630从条带头获得语法slice_qp_delta,其中,语法slice_qp_delta指示语法init_qp_minus26(指示画面级初始QP)和条带级初始QP SliceQP之间的差。此外,熵解码器520可获得语法(entropy_coding_sync_enabled_flag),其中,语法(entropy_coding_sync_enabled_flag)指示是否对包括在条带片段中的多个并行线执行并行熵编码。如果entropy_coding_sync_enabled_flag是1,则可根据如上所述的WPP来对多个并行线执行并行熵解码。如果entropy_coding_sync_enabled_flag是0,则可不执行根据WPP的并行熵解码。图27是根据本发明的实施例的图5中示出的反量化器530的详细框图。
参照图27,反量化器530包括QP预测器2710、加法器2720和反量化执行器2730。
与图14中示出的QP预测器1420一样,QP预测器2710可获得编码单元的预测QP QP_Pred。针对预定的可并行处理的数据单元的初始反量化的编码单元(量化组),QP预测器2710可通过使用条带级初始QP SliceQP来获得预测QP QP_Pred。如上所述,量化组表示共享同一预测QP QP_Pred的一个或更多个编码单元的组。量化组可包括一个编码单元或多个编码单元。可并行解码的数据单元可以是包括根据WPP的同一行的LCU的并行线,或是通过按照至少一个列边界和/或行边界来划分画面而获得的并行块。
此外,QP预测器2710可如下面的等式所示通过使用画面级初始QP init_qp_minus26和语法slice_qp_delta来获得条带级初始QP SliceQP:SliceQP=26+init_qp_minus26+slice_qp_delta,其中,语法slice_qp_delta指示画面级初始QP init_qp_minus26和条带级初始QP SliceQP之间的差。此外,QP预测器2710通过使用条带级初始QPSliceQP来获得包括在当前条带片段中的可并行处理的数据单元的第一量化组的预测QPQP_Pred。
加法器2720通过将QP差ΔQP与预测QP QP_Pred相加来恢复QP,其中,QP差ΔQP是应用到编码单元的QP和预测QP QP_Pred之间的差。
反量化执行器2730通过使用根据恢复的QP确定的量化步长Q_Step来对输入数据执行反量化。如上所述,与量化处理相反,反量化执行器2739通过使用将输入数据乘以根据QP确定的量化步长Q_Step而获得的值来执行反量化。
图28是根据本发明的实施例的视频解码方法的流程图。
参照图28,在操作2810,熵解码器520从比特流获得用于确定用于对包括在条带片段中的可并行处理的数据单元的第一量化组执行反量化的QP的初始值的语法。如上所述,熵解码器520的PPS获得器2620获得指示画面级初始QP的语法init_qp_minus26,条带信息获得器2630从条带头获得语法slice_qp_delta,语法slice_qp_delta指示语法init_qp_minus26(指示画面级初始QP)和条带级初始QP SliceQP之间的差。
在操作2820,QP预测器2710基于获得的语法,获得用于预测用于对包括在条带片段中的编码单元执行反量化的QP的条带级初始QP SliceQP。如上所述,QP预测器2710可如下面的等式所示通过使用画面级初始QP init_qp_minus26和语法slice_qp_delta来获得条带级初始QP SliceQP:SliceQP=26+init_qp_minus26+slice_qp_delta,其中,语法slice_qp_delta指示画面级初始QP init_qp_minus26和条带级初始QP SliceQP之间的差。
在操作2830,QP预测器2710通过使用条带级初始QP SliceQP来获得包括在条带片段中的可并行处理的数据单元的第一量化组的预测QP QP_Pred。
在操作2840,加法器2720通过将QP差ΔQP与预测QP QP_Pred相加来确定QP,QP差ΔQP是应用于编码单元的QP和预测QP QP_Pred之间的差。
在操作2850,反量化执行器2730基于确定的QP获得量化步长Q_Step,通过使用量化步长Q_Step来对包括在第一量化组中的编码单元执行反量化。
本发明的实施例可被编写为计算机程序,并可在使用计算机可读记录介质执行程序的通用数字计算机中实现。计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD)。
虽然已参照本发明的示例性实施例具体示出和描述了本发明,但是本领域的普通技术人员将理解或在不脱离由权利要求限定的本发明的精神和范围的情况下对其进行形式和细节上的各种改变。示例性实施例应被认为仅是描述性意义而不是为了限制的目的。因此,本发明的范围不是由本发明的详细描述所限定,而是由权利要求限定,在此范围内的所有差别将被视为包括在本发明中。
Claims (4)
1.一种视频解码设备,包括:
处理器,被配置为:获得条带的量化参数,使用所述条带的量化参数产生当前量化组的预测量化参数,使用所述条带的量化参数产生下一量化组的预测量化参数,并对当前量化组和所述下一量化组执行反量化,
其中,当前量化组是在所述条带中包括的当前行中的第一量化组,
所述下一量化组是在所述条带中包括的下一行中的第一量化组,
当前行和所述下一行中的每个行包括多个最大编码单元。
2.如权利要求1所述的视频解码设备,其中,
当前量化组是共享当前量化组的预测量化参数的编码单元中的至少一个编码单元的集合。
3.一种用于对视频进行编码的设备,所述设备包括:
量化器,被配置为:对包括在条带中的当前量化组和下一量化组执行量化,其中,当前量化组是在所述条带中包括的当前行中的第一量化组,所述下一量化组是在所述条带中包括的下一行中的第一量化组,当前行和所述下一行中的每个行包括多个最大编码单元,
确定所述条带的量化参数,其中,所述条带的量化参数用于预测所述条带中的当前量化组和所述下一量化组的量化参数,
通过使用确定的所述条带的量化参数获得当前量化组的预测量化参数,
通过使用确定的所述条带的量化参数获得所述下一量化组的预测量化参数;以及
熵编码器,被配置为产生包括指示确定的所述条带的量化参数的语法信息的比特流。
4.一种存储比特流的非暂时性计算机可读存储介质,包括:
指示条带的量化参数的语法信息,其中,所述条带的量化参数用于预测所述条带中的当前量化组和下一量化组的量化参数;以及
指示用于对包括在当前量化组中的编码单元执行量化的量化参数与当前量化组的预测量化参数之间的差的信息,其中,当前量化组是在所述条带中包括的当前行中的第一量化组,所述下一量化组是在所述条带中包括的下一行中的第一量化组,当前行和所述下一行中的每个行包括多个最大编码单元,
其中,当前量化组的预测量化参数是通过使用所述条带的量化参数而获得的,
其中,所述下一量化组的预测量化参数是通过使用所述条带的量化参数而获得的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261592577P | 2012-01-30 | 2012-01-30 | |
US61/592,577 | 2012-01-30 | ||
CN201380007361.2A CN104094600B (zh) | 2012-01-30 | 2013-01-30 | 用于包括量化参数预测的基于分层数据单元的视频编码和解码的方法和设备 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380007361.2A Division CN104094600B (zh) | 2012-01-30 | 2013-01-30 | 用于包括量化参数预测的基于分层数据单元的视频编码和解码的方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107396116A true CN107396116A (zh) | 2017-11-24 |
CN107396116B CN107396116B (zh) | 2020-03-27 |
Family
ID=48905542
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710800908.4A Active CN107623853B (zh) | 2012-01-30 | 2013-01-30 | 视频编码和解码方法及非暂时性计算机可读存储介质 |
CN201710799711.3A Active CN107483947B (zh) | 2012-01-30 | 2013-01-30 | 视频编码和解码设备及非暂时性计算机可读存储介质 |
CN201710799921.2A Active CN107396116B (zh) | 2012-01-30 | 2013-01-30 | 视频编码和解码设备及非暂时性计算机可读存储介质 |
CN201380007361.2A Active CN104094600B (zh) | 2012-01-30 | 2013-01-30 | 用于包括量化参数预测的基于分层数据单元的视频编码和解码的方法和设备 |
CN201710800365.6A Active CN107396117B (zh) | 2012-01-30 | 2013-01-30 | 视频编码和解码方法及非暂时性计算机可读存储介质 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710800908.4A Active CN107623853B (zh) | 2012-01-30 | 2013-01-30 | 视频编码和解码方法及非暂时性计算机可读存储介质 |
CN201710799711.3A Active CN107483947B (zh) | 2012-01-30 | 2013-01-30 | 视频编码和解码设备及非暂时性计算机可读存储介质 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380007361.2A Active CN104094600B (zh) | 2012-01-30 | 2013-01-30 | 用于包括量化参数预测的基于分层数据单元的视频编码和解码的方法和设备 |
CN201710800365.6A Active CN107396117B (zh) | 2012-01-30 | 2013-01-30 | 视频编码和解码方法及非暂时性计算机可读存储介质 |
Country Status (21)
Country | Link |
---|---|
US (6) | US9544603B2 (zh) |
EP (5) | EP2811745B1 (zh) |
JP (4) | JP6014169B2 (zh) |
KR (3) | KR101857794B1 (zh) |
CN (5) | CN107623853B (zh) |
AU (4) | AU2013215773B2 (zh) |
BR (1) | BR112014018115B1 (zh) |
CA (1) | CA2863390C (zh) |
CY (1) | CY1121214T1 (zh) |
DK (1) | DK2811745T3 (zh) |
ES (3) | ES2834444T3 (zh) |
HR (1) | HRP20181898T1 (zh) |
HU (3) | HUE052133T2 (zh) |
LT (1) | LT2811745T (zh) |
MX (2) | MX2014009176A (zh) |
PL (3) | PL3448029T3 (zh) |
PT (1) | PT2811745T (zh) |
RS (1) | RS57972B1 (zh) |
SI (1) | SI2811745T1 (zh) |
TW (4) | TWI562599B (zh) |
WO (1) | WO2013115572A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012117744A1 (en) | 2011-03-03 | 2012-09-07 | Panasonic Corporation | Method of encoding an image into a coded image, method of decoding a coded image, and apparatuses thereof |
JP6080375B2 (ja) * | 2011-11-07 | 2017-02-15 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
KR20150029592A (ko) | 2013-09-10 | 2015-03-18 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
GB2523736B (en) * | 2014-02-19 | 2020-03-25 | Advanced Risc Mach Ltd | Rate control in video encoding |
US10536699B2 (en) | 2015-06-03 | 2020-01-14 | Nec Corporation | Moving image coding device, moving image coding method and recording medium for storing moving image coding program |
WO2016192054A1 (zh) * | 2015-06-03 | 2016-12-08 | 富士通株式会社 | 使用预测信息的图像编码方法、装置以及图像处理设备 |
US10264257B2 (en) * | 2015-06-30 | 2019-04-16 | Texas Instruments Incorporated | Video encoding |
EP3453172B1 (en) * | 2016-05-28 | 2023-08-09 | HFI Innovation Inc. | Methods and apparatuses of video data processing with conditionally quantization parameter information signaling |
CN117221588A (zh) * | 2016-06-22 | 2023-12-12 | Lx 半导体科技有限公司 | 图像编码/解码方法以及图像数据的传输方法 |
CN107113430B (zh) * | 2016-10-12 | 2019-04-30 | 深圳市大疆创新科技有限公司 | 码率控制的方法、计算机系统和装置 |
US10616585B2 (en) | 2017-11-22 | 2020-04-07 | Arm Limited | Encoding data arrays |
EP3737098A4 (en) | 2018-01-02 | 2021-06-09 | Samsung Electronics Co., Ltd. | CODING PROCESS AND ASSOCIATED APPARATUS, AND DECODING PROCESS AND ASSOCIATED APPARATUS |
KR102566836B1 (ko) * | 2018-03-29 | 2023-08-16 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 병렬 코딩 기능들 향상을 위한 컨셉 |
CN112189341A (zh) * | 2018-04-16 | 2021-01-05 | 交互数字Vc控股公司 | 用于视频编码和解码的量化参数预测 |
US10554975B1 (en) * | 2018-09-30 | 2020-02-04 | Tencent America LLC | Method and apparatus for video coding |
EP3939319B1 (en) * | 2019-03-11 | 2023-07-05 | Telefonaktiebolaget LM Ericsson (publ) | Video coding comprising rectangular tile group signaling |
CN112055211B (zh) * | 2019-08-15 | 2021-10-26 | 华为技术有限公司 | 视频编码器及qp设置方法 |
IL294576A (en) * | 2020-01-10 | 2022-09-01 | Samsung Electronics Co Ltd | Video decoding method and device for obtaining a quantization parameter, and video encoding method and device for transmitting a quantization parameter |
WO2021170058A1 (en) * | 2020-02-27 | 2021-09-02 | Beijing Bytedance Network Technology Co., Ltd. | Transform skip residual coding |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5410355A (en) * | 1993-04-02 | 1995-04-25 | Rca Thomson Licensing Corporation | Video signal processor including input codeword buffer for providing stored codewords to codeword priority analysis circuit |
CN1478355A (zh) * | 2000-08-21 | 2004-02-25 | ��˹��ŵ�� | 视频编码 |
CN1835595A (zh) * | 2005-03-16 | 2006-09-20 | 株式会社东芝 | 图像编码/解码方法及其装置 |
CN1980392A (zh) * | 2005-11-29 | 2007-06-13 | 同济大学 | 视频码流判断图像边界及预读图像数据的解码方法和装置 |
CN1997157A (zh) * | 2006-12-19 | 2007-07-11 | 上海广电(集团)有限公司中央研究院 | 一种消除条带间条纹的方法 |
CN101112100A (zh) * | 2005-01-27 | 2008-01-23 | 三星电子株式会社 | 利用残余重新估计的多层视频编码/解码方法及其设备 |
CN101185336A (zh) * | 2005-03-10 | 2008-05-21 | 高通股份有限公司 | 用于使用切片内再同步点的错误恢复的方法及设备 |
CN101233757A (zh) * | 2005-07-28 | 2008-07-30 | 诺基亚公司 | 用于为能够可变比特速率编码的视频编码器提供速率控制的方法、模块、设备和系统 |
JP2009111712A (ja) * | 2007-10-30 | 2009-05-21 | Canon Inc | 映像符号化装置及び方法 |
JP2009246511A (ja) * | 2008-03-28 | 2009-10-22 | Canon Inc | 動画像符号化装置及びその制御方法、コンピュータプログラム |
CN101662697A (zh) * | 2009-07-21 | 2010-03-03 | 天津大学 | Avs视频基本码流分析方法 |
CN101690223A (zh) * | 2007-06-28 | 2010-03-31 | 三星电子株式会社 | 对视频编码和/或解码的方法、介质和设备 |
CN101895756A (zh) * | 2010-07-15 | 2010-11-24 | 北京大学 | 视频图像块的编码、解码、重构方法及系统 |
CN102137257A (zh) * | 2011-03-01 | 2011-07-27 | 北京声迅电子有限公司 | 基于tms320dm642芯片的嵌入式h.264编码方法 |
WO2011156458A1 (en) * | 2010-06-10 | 2011-12-15 | Technicolor Usa, Inc. | Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000224589A (ja) * | 1999-01-29 | 2000-08-11 | Toshiba Corp | 動画像符号化装置および動画像符号化方法 |
US6959116B2 (en) * | 2001-09-18 | 2005-10-25 | Emc Corporation | Largest magnitude indices selection for (run, level) encoding of a block coded picture |
AU2003285850A1 (en) * | 2002-04-23 | 2004-04-30 | Nokia Corporation | Method and device for indicating quantizer parameters in a video coding system |
KR100486524B1 (ko) * | 2002-07-04 | 2005-05-03 | 엘지전자 주식회사 | 비디오 코덱의 지연시간 단축 장치 |
EP1638333A1 (en) * | 2004-09-17 | 2006-03-22 | Mitsubishi Electric Information Technology Centre Europe B.V. | Rate adaptive video coding |
CN101039421A (zh) * | 2006-03-16 | 2007-09-19 | 华为技术有限公司 | 在编解码中的实现量化的方法和装置 |
US20080055338A1 (en) * | 2006-08-30 | 2008-03-06 | Ati Technologies Inc. | Multi-stage edge-directed image scaling |
CN101150719B (zh) * | 2006-09-20 | 2010-08-11 | 华为技术有限公司 | 并行视频编码的方法及装置 |
JPWO2008132890A1 (ja) * | 2007-04-16 | 2010-07-22 | 株式会社東芝 | 画像符号化と画像復号化の方法及び装置 |
KR100930344B1 (ko) * | 2007-09-06 | 2009-12-08 | 재단법인대구경북과학기술원 | 초기 양자화 파라미터 결정 방법 |
CN101933331B (zh) | 2007-09-06 | 2014-04-09 | 日本电气株式会社 | 视频编码装置、视频编码方法、视频解码方法 |
JP4569840B2 (ja) * | 2007-09-12 | 2010-10-27 | ソニー株式会社 | 画像符号化装置、画像符号化方法 |
CN101389021B (zh) * | 2007-09-14 | 2010-12-22 | 华为技术有限公司 | 视频编解码方法及装置 |
US20100027973A1 (en) * | 2008-07-29 | 2010-02-04 | Chia-Yun Cheng | Image processing circuit and method capable of performing online color space conversion |
JP5341104B2 (ja) * | 2008-12-08 | 2013-11-13 | パナソニック株式会社 | 画像復号化装置および画像復号化方法 |
TWI396443B (zh) * | 2008-12-22 | 2013-05-11 | Ind Tech Res Inst | 應用於網路串流之影音控制回應及頻寬調適方法與使用該方法之伺服器 |
US20110274162A1 (en) | 2010-05-04 | 2011-11-10 | Minhua Zhou | Coding Unit Quantization Parameters in Video Coding |
KR20110071204A (ko) * | 2009-12-21 | 2011-06-29 | 한국전자통신연구원 | 웨이블릿 변환 기반의 jpeg2000에서의 병렬 처리 방법 |
US8588297B2 (en) * | 2009-12-23 | 2013-11-19 | Oracle America, Inc. | Quantization parameter prediction |
US20110216821A1 (en) | 2010-03-02 | 2011-09-08 | Samsung Electronics Co., Ltd. | Method and apparatus for adaptive streaming using scalable video coding scheme |
KR101918904B1 (ko) * | 2010-06-04 | 2019-02-08 | 소니 주식회사 | 화상 처리 장치 및 방법 |
MY173604A (en) * | 2011-03-11 | 2020-02-10 | Sony Corp | Image processing apparatus and method |
US20130083845A1 (en) * | 2011-09-30 | 2013-04-04 | Research In Motion Limited | Methods and devices for data compression using a non-uniform reconstruction space |
US9161046B2 (en) * | 2011-10-25 | 2015-10-13 | Qualcomm Incorporated | Determining quantization parameters for deblocking filtering for video coding |
JP6080375B2 (ja) | 2011-11-07 | 2017-02-15 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
JP2013150215A (ja) * | 2012-01-20 | 2013-08-01 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
US9521410B2 (en) * | 2012-04-26 | 2016-12-13 | Qualcomm Incorporated | Quantization parameter (QP) coding in video coding |
-
2013
- 2013-01-30 PL PL18199113T patent/PL3448029T3/pl unknown
- 2013-01-30 PL PL13744207T patent/PL2811745T4/pl unknown
- 2013-01-30 TW TW102103567A patent/TWI562599B/zh active
- 2013-01-30 MX MX2014009176A patent/MX2014009176A/es active IP Right Grant
- 2013-01-30 EP EP13744207.5A patent/EP2811745B1/en active Active
- 2013-01-30 RS RS20181401A patent/RS57972B1/sr unknown
- 2013-01-30 TW TW105134473A patent/TWI597969B/zh active
- 2013-01-30 CN CN201710800908.4A patent/CN107623853B/zh active Active
- 2013-01-30 SI SI201331253T patent/SI2811745T1/sl unknown
- 2013-01-30 BR BR112014018115-2A patent/BR112014018115B1/pt active IP Right Grant
- 2013-01-30 ES ES18199112T patent/ES2834444T3/es active Active
- 2013-01-30 CN CN201710799711.3A patent/CN107483947B/zh active Active
- 2013-01-30 EP EP18199112.6A patent/EP3448028B1/en active Active
- 2013-01-30 HU HUE18199112A patent/HUE052133T2/hu unknown
- 2013-01-30 HU HUE13744207A patent/HUE042414T2/hu unknown
- 2013-01-30 EP EP21195689.1A patent/EP3944619A1/en active Pending
- 2013-01-30 TW TW106124846A patent/TWI613909B/zh active
- 2013-01-30 CN CN201710799921.2A patent/CN107396116B/zh active Active
- 2013-01-30 CN CN201380007361.2A patent/CN104094600B/zh active Active
- 2013-01-30 CN CN201710800365.6A patent/CN107396117B/zh active Active
- 2013-01-30 TW TW106144679A patent/TWI650995B/zh active
- 2013-01-30 LT LTEP13744207.5T patent/LT2811745T/lt unknown
- 2013-01-30 AU AU2013215773A patent/AU2013215773B2/en active Active
- 2013-01-30 EP EP21195690.9A patent/EP3944620B1/en active Active
- 2013-01-30 EP EP18199113.4A patent/EP3448029B1/en active Active
- 2013-01-30 MX MX2015016308A patent/MX353742B/es unknown
- 2013-01-30 ES ES18199113T patent/ES2898225T3/es active Active
- 2013-01-30 CA CA2863390A patent/CA2863390C/en active Active
- 2013-01-30 WO PCT/KR2013/000776 patent/WO2013115572A1/ko active Application Filing
- 2013-01-30 PL PL18199112T patent/PL3448028T3/pl unknown
- 2013-01-30 JP JP2014554670A patent/JP6014169B2/ja active Active
- 2013-01-30 ES ES13744207T patent/ES2698063T3/es active Active
- 2013-01-30 HU HUE18199113A patent/HUE057111T2/hu unknown
- 2013-01-30 KR KR1020130010724A patent/KR101857794B1/ko active IP Right Grant
- 2013-01-30 PT PT13744207T patent/PT2811745T/pt unknown
- 2013-01-30 DK DK13744207.5T patent/DK2811745T3/en active
-
2014
- 2014-07-30 US US14/446,479 patent/US9544603B2/en active Active
-
2015
- 2015-10-28 US US14/924,948 patent/US9549185B2/en active Active
- 2015-10-28 US US14/925,211 patent/US9544604B2/en active Active
- 2015-10-28 US US14/924,979 patent/US9538192B2/en active Active
- 2015-10-28 US US14/925,248 patent/US9693061B2/en active Active
-
2016
- 2016-01-19 AU AU2016200289A patent/AU2016200289B2/en active Active
- 2016-09-23 JP JP2016185532A patent/JP6259038B2/ja active Active
-
2017
- 2017-04-25 US US15/496,818 patent/US10045025B2/en active Active
- 2017-05-19 AU AU2017203384A patent/AU2017203384C1/en active Active
- 2017-12-07 JP JP2017235531A patent/JP6402234B2/ja active Active
-
2018
- 2018-05-08 KR KR1020180052801A patent/KR102148469B1/ko active IP Right Grant
- 2018-06-19 AU AU2018204377A patent/AU2018204377B2/en active Active
- 2018-09-10 JP JP2018168922A patent/JP6715296B2/ja active Active
- 2018-11-15 HR HRP20181898TT patent/HRP20181898T1/hr unknown
- 2018-11-26 CY CY20181101249T patent/CY1121214T1/el unknown
-
2020
- 2020-08-20 KR KR1020200104914A patent/KR102250095B1/ko active IP Right Grant
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5410355A (en) * | 1993-04-02 | 1995-04-25 | Rca Thomson Licensing Corporation | Video signal processor including input codeword buffer for providing stored codewords to codeword priority analysis circuit |
CN1478355A (zh) * | 2000-08-21 | 2004-02-25 | ��˹��ŵ�� | 视频编码 |
CN101112100A (zh) * | 2005-01-27 | 2008-01-23 | 三星电子株式会社 | 利用残余重新估计的多层视频编码/解码方法及其设备 |
CN101185336A (zh) * | 2005-03-10 | 2008-05-21 | 高通股份有限公司 | 用于使用切片内再同步点的错误恢复的方法及设备 |
CN101729897A (zh) * | 2005-03-16 | 2010-06-09 | 株式会社东芝 | 图像编码/解码方法及其装置 |
CN1835595A (zh) * | 2005-03-16 | 2006-09-20 | 株式会社东芝 | 图像编码/解码方法及其装置 |
CN101233757A (zh) * | 2005-07-28 | 2008-07-30 | 诺基亚公司 | 用于为能够可变比特速率编码的视频编码器提供速率控制的方法、模块、设备和系统 |
CN1980392A (zh) * | 2005-11-29 | 2007-06-13 | 同济大学 | 视频码流判断图像边界及预读图像数据的解码方法和装置 |
CN1997157A (zh) * | 2006-12-19 | 2007-07-11 | 上海广电(集团)有限公司中央研究院 | 一种消除条带间条纹的方法 |
CN101690223A (zh) * | 2007-06-28 | 2010-03-31 | 三星电子株式会社 | 对视频编码和/或解码的方法、介质和设备 |
JP2009111712A (ja) * | 2007-10-30 | 2009-05-21 | Canon Inc | 映像符号化装置及び方法 |
JP2009246511A (ja) * | 2008-03-28 | 2009-10-22 | Canon Inc | 動画像符号化装置及びその制御方法、コンピュータプログラム |
CN101662697A (zh) * | 2009-07-21 | 2010-03-03 | 天津大学 | Avs视频基本码流分析方法 |
WO2011156458A1 (en) * | 2010-06-10 | 2011-12-15 | Technicolor Usa, Inc. | Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters |
CN101895756A (zh) * | 2010-07-15 | 2010-11-24 | 北京大学 | 视频图像块的编码、解码、重构方法及系统 |
CN102137257A (zh) * | 2011-03-01 | 2011-07-27 | 北京声迅电子有限公司 | 基于tms320dm642芯片的嵌入式h.264编码方法 |
Non-Patent Citations (1)
Title |
---|
BENJAMIN BROSS: "《WD5: Working Draft 5 of High-Efficiency Video Coding》", 《JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC)7TH MEETING: GENEVA》 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104094600B (zh) | 用于包括量化参数预测的基于分层数据单元的视频编码和解码的方法和设备 | |
CN104796712B (zh) | 视频的解码方法 | |
CN104811706B (zh) | 视频的编码方法和装置及视频的解码方法和装置 | |
CN104796708B (zh) | 对残差块编码的方法和设备、对残差块解码的方法和设备 | |
CN104980745B (zh) | 通过使用去块滤波对视频进行解码的方法 | |
CN104811697B (zh) | 对视频进行解码的方法 | |
CN103220528B (zh) | 通过使用大型变换单元编码和解码图像的方法和设备 | |
CN104811710B (zh) | 对视频编码的方法和设备及对视频解码的方法和设备 | |
CN102474609B (zh) | 对图像编码的方法和设备及对图像解码的方法和设备 | |
CN107787582A (zh) | 使用用于自适应加权预测的语法信令对图像进行编码或解码的方法和设备 | |
CN107465930A (zh) | 对视频进行编码的方法和设备以及计算机可读存储介质 | |
CN107835431A (zh) | 对视频编码的方法和设备以及对视频解码的方法和设备 | |
CN104883569A (zh) | 用于使用分层数据单元进行编码和解码的方法和设备 | |
CN107734348A (zh) | 确定上下文模型的设备和计算机可记录介质 | |
CN106031176A (zh) | 涉及帧内预测的视频编码方法和装置以及视频解码方法和装置 | |
CN107113444A (zh) | 使用帧内预测对视频进行编码/解码的方法和装置 | |
CN105191314A (zh) | 用于对多层视频进行编码的方法和设备、用于对多层视频进行解码的方法和设备 | |
CN105122797A (zh) | 在无损编码下对视频进行编码的方法和设备以及在无损编码下对视频进行解码的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |