CN107197272B - 以合并模式对图像编码的方法 - Google Patents

以合并模式对图像编码的方法 Download PDF

Info

Publication number
CN107197272B
CN107197272B CN201710357011.9A CN201710357011A CN107197272B CN 107197272 B CN107197272 B CN 107197272B CN 201710357011 A CN201710357011 A CN 201710357011A CN 107197272 B CN107197272 B CN 107197272B
Authority
CN
China
Prior art keywords
block
current
candidate
amvp
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710357011.9A
Other languages
English (en)
Other versions
CN107197272A (zh
Inventor
金光悌
吴贤午
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ibex PT Holdings Co Ltd
Original Assignee
Ibex PT Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47756521&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN107197272(B) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ibex PT Holdings Co Ltd filed Critical Ibex PT Holdings Co Ltd
Publication of CN107197272A publication Critical patent/CN107197272A/zh
Application granted granted Critical
Publication of CN107197272B publication Critical patent/CN107197272B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

公开了一种以合并模式对图像编码的方法,包括:确定当前预测单元的运动矢量和参考图片索引;产生预测区块;利用原始区块和预测区块来产生残差区块、转换残差区块以产生转换区块、利用量化参数来量化转换区块以产生量化区块、以及扫描量化区块以对量化区块进行熵编码;对运动矢量和参考图片索引编码。利用有效空间和时间合并候选者来对运动矢量编码,利用在当前编码单元的左侧量化参数、上侧量化参数和之前的量化参数之中的两个有效量化参数的平均值来对量化参数编码,空间合并候选者是左侧区块、上侧区块、右上侧区块、左下侧区块以及左上侧区块,如果左侧区块、上侧区块、右上侧区块以及左下侧区块中的一个或更多个无效,则左上侧区块可用。

Description

以合并模式对图像编码的方法
本申请是申请日为2012年01月20日、申请号为201280042121.1、发明名称为“以AMVP模式产生预测区块的方法”的中国专利申请的分案申请。
技术领域
本发明涉及用于产生以高级运动矢量预测(AMVP)模式被编码的图像的预测区块的方法,更具体地,涉及用于将以AMVP模式编码的运动信息译码以及基于运动信息来产生预测区块的方法。
背景技术
已经提出了很多技术用于在保持视频质量的情况下有效地压缩视频信号。特别地,中间预测编码(inter-prediction coding)是最有效的视频压缩技术之一,其中,从之前的图片中提取与当前区块相似的区块,并且将当前区块与提取的区块之间的差异编码。
然而,在中间预测编码方案中应当利用被编码的残差区块(residual block)来额外地传送与每个区块有关的运动信息。因此,对运动信息的减小数据量的有效编码是另一种视频压缩技术。
在运动估算编码中,利用预定的估算函数在参考图片的预定搜索范围内搜索与当前区块最匹配的区块。一旦在参考图片中搜索到最匹配区块,则仅传送当前区块和最匹配区块之间的残差(residue),由此提高数据压缩率。
为了将经由运动估算而编码的当前区块译码,需要与运动矢量有关的信息,所述运动矢量表示当前区块的位置和最匹配区块的位置之间的差异。因而,运动矢量信息被编码,并且在编码期间被插入比特流中。如果简单地将运动矢量信息编码并且插入,会增大开销,由此降低视频数据的压缩率。
因此,利用相邻的区块来预测当前区块的运动矢量,并且仅将从预测得出的运动矢量预测者与原始运动矢量之间的差异进行编码并传送,由此以中间预测编码方案来压缩运动矢量信息。
在H.264中,当前区块的运动矢量预测者被确定成中值(mvA,mvB,mvC)。由于相邻的区块可能彼此相似,所以相邻的区块的运动矢量的中值被确定成当前区块的运动矢量。
然而,如果相邻区块的一个或更多个运动矢量与当前区块的运动矢量不同,则中值不能有效地预测当前区块的运动矢量。
另外,随着预测区块在尺寸上更大并且多样化,参考图片的数目增多。因而,残差区块的数据量减小,但是要传送的运动信息(运动矢量和参考图片索引)的量增多。
因此,需要更有效地减小要传送的运动信息的量的技术。另外,需要用于有效地重构以上述技术编码的运动信息的技术。
发明内容
技术问题
本发明意图解决上述问题的目的在于提供一种通过有效地重构以AMVP模式被编码的运动信息来产生预测区块的方法。
技术方案
本发明的目的可以通过提供一种用于以AMVP模式产生预测区块的方法来实现,包括:重构当前预测单元(PU)的参考图片索引和差分运动矢量,搜索用于当前PU的有效空间AMVP候选者,搜索用于当前PU的有效时间AMVP候选者,利用有效空间AMVP候选者和时间AMVP候选者来产生AMVP候选者列表,将具有预定值的运动矢量作为候选者添加至AMVP候选者列表,当有效AMVP候选者的数目小于预定数目时,将AMVP候选者列表中包括的运动矢量之中的与当前PU的AMVP索引相对应的运动矢量确定为当前PU的运动矢量预测者,利用差分运动矢量和运动矢量预测者来重构当前PU的运动矢量,以及在由参考图片索引指示的参考图片内产生与重构的运动矢量指示的位置相对应的预测区块。
有益效果
在根据本发明的以AMVP模式产生预测区块的方法中,重构当前预测单元的参考图片索引和差分运动矢量,并且利用当前预测单元的有效空间AMVP候选者和时间AMVP候选者来形成AMVP候选者列表。如果有效AMVP候选者的数目小于预定数目,则将具有预定值的运动矢量添加至AMVP候选者列表。然后,从AMVP候选者列表所包括的运动矢量之中将与当前预测单元的AMVP索引相对应的运动矢量选择为当前预测单元的运动矢量预测者。利用差分运动矢量和运动矢量预测者来重构当前预测单元的运动矢量,并且在由参考图片索引指示的参考图片内产生与由重构的运动矢量指示的位置相对应的预测区块。
由于利用空间运动矢量候选者和时间运动矢量候选者更好地预测当前预测单元的运动信息,所以减小了编码信息的量。此外,通过将以AMVP模式编码的运动信息更有效地译码,可以快速地产生准确的预测区块。
附图说明
图1是说明根据本发明的一个实施例的视频编码器的框图;
图2是说明根据本发明的一个实施例的中间预测编码操作的流程图;
图3是说明根据本发明的一个实施例的合并编码操作的流程图;
图4说明根据本发明的一个实施例的合并候选者的位置;
图5说明根据本发明的另一个实施例的合并候选者的位置;
图6是根据本发明的一个实施例的AMVP编码操作的流程图;
图7是说明根据本发明的一个实施例的视频译码器的框图;
图8是说明根据本发明的一个实施例的中间预测译码操作的流程图;
图9是说明根据本发明的一个实施例的合并模式运动矢量译码操作的流程图;
图10是说明根据本发明的另一个实施例的合并模式运动矢量译码操作的流程图;
图11是说明根据本发明的一个实施例的AMVP模式运动矢量译码操作的流程图;以及
图12是说明根据本发明的另一个实施例的AMVP模式运动矢量译码操作的流程图。
具体实施方式
图1是根据本发明的一个实施例的视频编码器的框图。
参见图1,根据本发明的视频编码器包括:图片分割器110、转换器120、量化器130、扫描器131、熵编码器140、内预测器150,中间预测器160、反相量化器135、反相转换器125,后处理器170、图片储存器180、减法器和加法器。
图片分割器110通过分析输入视频信号来将图片的每个最大编码单元(LCU,largest coding unit)分割成每个具有预定尺寸的CU、确定预测模式、以及确定用于每个CU的预测单元(PU)的尺寸。图片分割器110根据预测模式(或预测方法)而将要被编码的PU提供至内预测器150或中间预测器160。
转换器120将指示输入PU的原始区块与从内预测器150或中间预测器160产生的预测区块之间的残差信号的残差区块进行转换。残差区块由CU或PU组成。将残差区块划分成最佳转换单元,然后进行转换。转换矩阵可以基于预测模式(即,中间预测模式或内预测模式)来不同地确定。因为内预测残差信号包括与内预测模式相对应的方向性,所以转换矩阵可以根据内预测模式而针对内预测残差信号自适应性地确定。转换单元可以通过两个(水平和垂直)一维转换矩阵来进行转换。例如,针对中间预测来确定预定的信号转换矩阵。另一方面,在内预测的情况下,如果内预测模式是水平方向的,则残差区块可能是水平方向的,且因而基于离散余弦转换(DCT)的整数矩阵与基于离散正弦转换(DST)或基于卡洛(Karhunen-Loeve)转换(KLT)的整数矩阵分别垂直地和水平地应用。如果内预测模式是垂直的,则基于DST或基于KLT的整数矩阵与基于DCT的整数矩阵分别垂直地和水平地应用。在DC模式下,基于DCT的整数矩阵在两个方向上都应用。另外,在内预测的情况下,可以根据转换单元的尺寸而自适应性地确定转换矩阵。
量化器130确定量化步长以将利用转换矩阵转换的残差区块的系数量化。针对具有预定尺寸或更大尺寸的每个CU(在下文中,被称作为量化单元)来确定量化步长。预定的尺寸可以是8×8或16×16。转换区块的系数利用确定的量化步长和根据预测模式而确定的量化矩阵来进行量化。量化器130使用与当前量化单元相邻的量化单元的量化步长作为当前量化单元的量化步长预测者。
量化器130可以利用依次搜索与当前量化单元相邻的左侧、上侧和左上侧量化单元所得的一个或两个有效量化步长来产生当前量化单元的量化步长预测者。例如,通过以左侧、上侧和左上侧量化单元的顺序搜索而检测出的第一个有效量化步长可以被确定成量化步长预测者。另外,两个有效量化步长的平均值可以被确定成量化步长预测者。如果仅一个量化步长有效,则其可以被确定成量化步长预测者。一旦确定了量化步长预测者,则当前CU的量化步长和量化步长预测者之间的差异就被传送至熵编码器140。
与当前CU相邻的左侧、上侧和左上侧CU可能都不存在。然而,根据编码顺序可以在LCU中存在前一个CU。因此,当前CU的相邻量化单元的量化步长和在LCU内根据编码顺序在之前被编码的量化单元的量化步长可以成为候选者。在这种情况下,1)当前CU的左侧量化单元,2)当前CU的上侧量化单元,3)当前CU的左上侧量化单元,以及4)在之前被编码的量化单元可以按降序排优先级。优先级的顺序可以改变,并且可以省略左上侧量化单元。
量化的转换区块被提供至反相量化器135和扫描器131。
扫描器131通过扫描量化的转换区块的系数来将量化的转换区块的系数转换成一维量化系数。由于转换区块的系数分布可依赖于量化之后的内预测模式,所以根据内预测模式来确定扫描方案。另外,系数扫描方案可以随着转换单元的尺寸而变化。扫描模式可以根据方向性的内预测模式而不同。以相反的顺序来扫描量化系数。
在将量化系数分成多个子组的情况下,将相同的扫描模式应用至每个子组的量化系数。将锯齿形或对角线扫描模式应用于子组之间。尽管优选沿着正向方向从包括DC的主子组至其余的子组扫描,但是沿着相反方向扫描也是可以的。可以将中间子组扫描模式设定成与内子组的扫描模式相同。在这种情况下,中间子组扫描模式根据内预测模式来确定。此外,视频编码器将指示转换单元中的最后一个非零量化系数的位置的信息传送至视频译码器。视频编码器还可以将指示每个子组中的最后一个非零量化系数的位置的信息传送至译码器。
反相量化器135对量化系数解量化。反相转换器125从反相量化的转换的系数中重构空间域残差区块。加法器通过将由反相转换器125重构的残差区块与从内预测器150或中间预测器160接收的预测区块相加来产生重构区块。
后处理器170执行去区块化滤波(deblocking filtering)以消除来自重构图片的区块化伪影(blocking artifact)、执行自适应偏移施加以补偿与原始图片基于像素的差异、以及执行自适应回路滤波以补偿与原始图片基于CU的差异。
去区块化滤波优选地应用于具有预定尺寸或更大尺寸的PU和转换单元之间的边界。所述尺寸可以为8×8。去区块化滤波过程包括:确定要被滤波的边界、确定边界滤波强度以应用至边界、确定是否应用去区块化滤波器、以及当确定出应用去区块化滤波器时选择滤波器以应用至边界。
根据如下来确定是否应用去区块化滤波器:i)边界滤波强度是否大于0,和ii)与要滤波的边界相邻的两个区块(P区块和Q区块)之间的边界处的像素变化是否小于基于量化参数而确定的第一参考值。
对于去区块化滤波,两个或更多个滤波器是优选的。如果区块边界处的两个像素之间的差的绝对值等于或大于第二参考值,则选择执行较弱滤波的滤波器。第二参考值通过量化参数和边界滤波强度来确定。
自适应偏移施加意在减小去区块化滤波的图片中的像素和原始像素之间的差异(即,变形)。可以确定是基于图片还是基于片段(slice)来执行自适应偏移施加过程。图片或片段可以被划分成多个偏移区,并且可以针对每个偏移区来确定偏移类型。可存在预定数目(例如,4)的边缘偏移类型和两个带偏移类型。在边缘偏移类型的情况下,确定每个像素的边缘类型,并且将与边缘类型相对应的偏移施加至像素。边缘类型基于与当前像素相邻的两个像素值的分布来确定。
自适应回路滤波可以基于原始图片与经受去区块化滤波或自适应偏移施加的重构图片之间的比较值来执行。自适应回路滤波可以应用于4×4或8×8区块中包括的所有像素上。可以针对每个CU确定是否应用自适应回路滤波。回路滤波器的尺寸和系数针对每个CU可以不同。指示是否针对每个CU而使用自适应回路滤波器的信息可以被包括在每个片段标头(header)中。在色度信号的情况下,可以基于图片进行确定。不同于亮度,回路滤波器可以是矩形。
可以基于片段来进行关于是否使用自适应回路滤波的判断。因此,指示是否针对当前片段使用自适应回路滤波的信息被包括在片段标头或图片标头中。如果信息指示针对当前片段使用自适应回路滤波,则片段标头或图片标头还可以包括指示用在自适应回路滤波中的亮度成分的水平和/或垂直滤波长度的信息。
片段标头或图片标头可以包括指示滤波器组的数目的信息。如果滤波组的数目为2或更大,则可以用预测方案来编码滤波器系数。因此,片段标头或图片标头可以包括指示是否用预测方案来编码滤波器系数的信息。如果使用预测方案,则将预测的滤波器系数包括在片段标头或图片标头中。
此外,色度成分和亮度成分可以被自适应地滤波。因此,指示每个色度成分是否被滤波的信息可以被包括在片段标头或图片标头中。在此情况下,指示色度成分Cr或Cb是否被滤波的信息可以被共同地编码(即,多路编码),以由此减小比特数目。在多数情况下,色度成分Cr和Cb都未被滤波以由此降低复杂性。因而,如果色素成分Cr和Cb都未被滤波,则最低索引被指定并且被熵编码。如果色素成分Cr和Cb都被滤波,则最高索引被指定并且被熵编码。
图片储存器180从后处理器170接收后处理的图像数据、基于图片来重构并储存图像。图片可以是以帧或场的形式的图像。图片储存器180包括用于储存多个图片的缓冲器(未示出)。
中间预测器160利用储存在图片储存器180中的至少一个参考图片来估算运动,并且确定识别参考图片的参考图片索引以及运动矢量。中间预测器160根据确定的参考图像索引和运动矢量来提取并输出与要从储存在图片储存器180中的多个参考图片之中的用于运动估算的参考图片而被编码的PU相对应的预测区块。
内预测器150利用包括当前PU的图片的重新配置的像素值来执行内预测编码。内预测器150接收要被预测编码的当前PU、根据当前区块的尺寸来选择预定数目的内预测模式之一、以及在选中的内预测模式下执行内预测。内预测器150自适应地将参考像素滤波以产生内预测区块。如果参考像素不可用,则内预测器150可以利用可用的参考像素来产生参考像素。
熵编码器140对从量化器130接收的量化系数、从内预测器150接收的内预测信息、以及从中间预测器160接收的运动信息进行熵编码。
图2是说明根据本发明的一个实施例的中间预测编码操作的流程图。
中间预测编码操作包括:确定当前PU的运动信息,产生预测区块、产生残差区块、对残差区块编码、以及对运动信息编码。在下文中,PU和区块可交换地使用。
(1)确定当前PU的运动信息(S110)
当前PU的运动信息包括运动矢量和当前PU要参考的参考图片索引。
为了确定当前PU的预测区块,将一个或更多个重构参考图片之一确定成当前PU的参考图片,并且确定指示预测区块在参考图片中的位置的运动信息。
当前区块的参考图片索引可以根据当前区块的中间预测模式而不同。例如,如果当前区块在单向预测模式中,则参考图片索引指示列表0(L0)所列的参考图片之一。另一方面,如果当前区块在双向预测模式中,则运动信息可以包括指示L0所列的参考图片之一和列表1(L1)所列的参考图片之一的参考图片索引。另外,如果当前区块在双向预测模式中,则运动信息可以包括指示作为L0和L1的组合的列表组合(LC)所包括的参考图片中的一个或两个的参考图片索引。
运动矢量指示预测区块在参考图片索引所指示的图片中的位置。运动矢量可以具有整像素分辨率或1/8或1/16像素分辨率。如果运动矢量不具有整像素分辨率,则从整像素产生预测区块。
(2)产生预测区块(S120)
如果运动矢量具有整像素分辨率,则通过复制参考图片索引所指示的图片中的由运动矢量指示的位置处的相应区块来产生当前PU的预测区块。
另一方面,如果运动矢量不具有整像素分辨率,则利用参考图片索引所指示的图片中的整像素来产生预测区块的像素。在亮度像素的情况下,可以利用8抽头内插滤波器来产生预测像素。在色度像素的情况下,可以利用4-抽头内插滤波器来产生预测像素。
(3)产生残差区块(S130)和对残差区块编码(S140)
当产生了当前PU的预测区块时,基于当前PU和预测区块之间的差异来产生残差区块。残差区块的尺寸可以与当前PU的尺寸不同。例如,如果当前PU是2N×2N尺寸,则当前PU和残差区块尺寸相同。然而,如果当前PU是2N×N或N×2N尺寸,则残差区块可以是2N×2N区块。即,在当前PU是2N×N区块时,可以通过组合两个2N×N残差区块来配置残差区块。在这种情况下,为了克服两个2N×N预测区块之间的边界的不连续性,通过平滑覆盖边界像素来产生2N×2N预测区块,然后利用2N×2N原始区块(两个当前区块)和2N×2N预测区块之间的差异来产生残差区块。
当产生了残差区块时,以转换编码尺寸为单位来对残差区块编码。即,以转换编码尺寸为单位使残差区块经受转换编码、量化、和熵编码。转换编码尺寸可以根据残差区块的尺寸而以四叉树方案来确定。即,转换编码使用基于整数的DCT。
被转换编码的区块使用量化矩阵来量化。量化的矩阵通过上下文自适应二进制算术编码(CABAC)或上下文自适应可变长度编码(CAVLC)来进行熵编码。
(4)对运动信息编码(S150)
利用与当前PU相邻的PU的运动信息来对当前PU的运动信息编码。当前PU的运动信息经受合并编码或AMVP编码。因此,确定是通过合并编码还是AMVP编码来对当前PU的运动信息编码,并且根据确定的编码方案来对当前PU的运动信息编码。
以下将参照图3给出合并编码方案的描述。
参见图3,获得空间合并候选者和时间合并候选者(S210和S220)。
为了方便起见,将以首先获得空间合并候选者然后获得时间合并候选者作为实例。然而,本发明不局限于这种获得空间合并候选者和时间合并候选者的顺序。例如,可以首先获得时间合并候选者,然后可以获得空间合并候选者,或者可以并行地获得空间合并候选者和时间合并候选者。
1)空间合并候选者
空间合并候选者可以以下列实施例之一来配置。空间合并候选者配置信息可以被传送至视频译码器。在此情况下,空间合并候选者配置信息可以指示下列实施例之一或指示下列实施例之一中的合并候选者的数目的信息。
(a)实施例1(空间合并候选者配置1)
如图4中所示,多个空间合并候选者可以是与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)、右上侧PU(区块C)和左下侧PU(区块D)。在此情况下,所有的有效PU都可以是候选者,或者可以通过以A、B、C和D的顺序来扫描区块A至D而选择两个有效PU作为候选者。如果在当前PU的左侧存在多个PU,则可以从多个左侧PU之中将有效的最上侧PU或最大的有效PU确定为与当前PU相邻的左侧PU。类似地,如果在当前PU之上存在多个PU,则可以在多个上侧PU之中将有效的最左侧PU或最大的有效PU确定为与当前PU相邻的上侧PU。
(b)实施例2(空间合并候选者配置2)
如图5中所示,通过以A、B、C、D和E的顺序来扫描区块A至E,多个空间合并候选者可以是选自与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)、右上侧PU(区块C)、左下侧PU(区块D)和左上侧PU(区块E)之中的两个有效PU。在本文中,左侧PU可以与区块E而不与区块D相邻。类似地,上侧PU可以与区块E而不与区块C相邻。
(c)实施例3(空间合并候选者配置3)
如图5中所示,与当前PU相邻的左侧区块(区块A)、上侧区块(区块B)、右上侧区块(区块C)、左下侧区块(区块D)和左上侧区块(区块E)可以以此顺序成为候选者,如果它们是有效的。在此情况下,如果区块A至D中的一个或更多个无效,则区块E可用。
(d)实施例4(空间合并候选者配置4)
如图5中所示,多个空间合并候选者可以包括与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)、以及拐角PU(区块C、D和E中的一个)。通过以C、D和E的顺序来扫描右上侧PU(区块C)、左下侧PU(区块D)和左上侧PU(区块E),拐角PU是它们之中第一有效的一个。
在以上实施例中,在当前PU之上的空间合并候选者的运动信息可以根据当前PU的位置而不同地设定。例如,如果当前PU处于LCU的上边界,则与当前PU相邻的上侧PU(区块B、C或E)的运动信息可以是当前PU自身的运动信息或者是相邻PU的运动信息。上侧PU的运动信息可以根据当前PU的尺寸和位置而被确定为其自身的运动信息或相邻PU的运动信息(参考图片索引和运动矢量)之一。
2)时间合并候选者
时间合并候选者的参考图片索引和运动矢量在额外的过程中获得。时间合并候选者的参考图片索引可以利用与当前PU空间相邻的PU之一的参考图片索引来获得。
当前PU的时间合并候选者的参考图片索引可以利用与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)、右上侧PU(区块C)、左下侧PU(区块D)和左上侧PU(区块E)的参考图片索引中的全部或一部分来获得。例如,可以使用与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)和拐角区块(区块C、D和E中的一个)的参考图片索引。另外,通过以A、B、C、D和E的顺序来扫描与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)、右上侧PU(区块C)、左下侧PU(区块D)和左上侧PU(区块E),可以从它们的参考图片索引之中使用奇数个(例如,3个)有效PU的参考图片索引。
以下将描述使用与当前PU相邻的左侧PU、上侧PU和拐角PU的参考图片索引来获得当前PU的时间合并候选者的参考索引的情况。
获得与当前PU相邻的左侧PU的参考图片索引(在下文中,被称作为左侧参考图片索引)、上侧PU的参考图片索引(在下文中,被称作为上侧参考图片索引)、和拐角PU的参考图片索引(在下文中,被称作为拐角参考图片索引)。尽管拐角PU C、D和E中仅一个被作为候选者,但是本发明不局限于此,还可以设想在可替选的实施例中,PUC和D被设定为候选者(因而,四个候选者)、或者PU C、D和E都被设定为候选者(因而,五个候选者)。
尽管本文使用了三个或更多个有效参考图片索引,但是也可以使用所有的有效参考图片索引、或者仅使用预定位置处的参考图片索引。在不存在任何有效参考图片索引的情况下,参考图片索引0可以被设定为时间合并候选者的参考图片索引。
如果使用多个参考图片索引,则这些参考图片索引之中的最频繁使用的参考图片索引可以被设定为时间合并候选者的参考图片索引。当多个参考图片索引被最频繁地使用时,所述多个参考图片索引之中的具有最小值的参考图片索引、或左侧区块或上侧区块的参考图片索引可以被设定为时间合并候选者的参考图片索引。
然后,将描述用于获得时间合并候选者的运动矢量的操作。
确定包括时间合并候选者区块的图片(在下文中,被称作为时间合并候选者图片)。时间合并候选者图片可以被设定成具有参考图片索引0的图片。在此情况下,如果片段类型是P,则列表0中的第一图片(即,具有索引0的图片)被设定为时间合并候选者图片。如果片段类型是B,则由片段标头中的指示时间合并候选者列表的标志所指示的参考图片列表中的第一图片被设定为时间合并候选者图片。例如,如果标志为1,则时间合并候选者图片可以选自列表0,而如果标志为0,则时间合并候选者图片可以选自列表1。
随后,从时间合并候选者图片获得时间合并候选者区块。可以将时间合并候选者图片中的对应于当前PU的多个区块中的一个确定为时间合并候选者区块。在此情况下,对应于当前PU的多个区块被排列优先级,并且根据优先级来将第一个有效的对应区块选择为时间合并候选者区块。
例如,可以将时间合并候选者图片中的与对应于当前PU的区块相邻的左下拐角区块、或者时间合并候选者图片中的对应于当前PU的区块所包括的左下侧区块设定为第一候选者区块。另外,可以将时间合并候选者图片中的位于对应于当前PU的区块的中心处的包括左上侧像素的区块或者包括右下侧像素的区块设定为第二候选者区块。
如果第一候选者区块有效,则第一候选者区块被设定为时间合并候选者区块。另一方面,如果不是第一候选者区块有效,而是第二候选者区块有效,则第二候选者区块被设定为时间合并候选者区块。或者可以根据当前PU的位置仅使用第二候选者区块。当前PU可以位于片段中或LCU中。
当确定出时间合并候选者预测区块时,时间合并候选者预测区块的运动矢量被设定为时间合并候选者运动矢量。
同时,可以根据当前PU的尺寸而自适应地去掉时间合并候选者。例如,如果当前PU是4×4区块,则时间合并候选者可以被去掉以降低复杂性。
然后,产生合并候选者列表(S230)
以预定顺序利用有效合并候选者来产生合并候选者列表。如果多个合并候选者具有相同的运动信息(即,相同的运动矢量和相同的参考图片索引),则从合并候选者列表中删除排位最后的合并候选者。
例如,预定顺序在实施例1(空间合并候选者配置1)中可以是A、B、Col、C和D。在这里,Col表示时间合并候选者。
在实施例2(空间合并候选者配置2)中,可以以两个有效PU和Col的顺序来产生合并候选者列表,通过以区块A、B、C、D和E的顺序来扫描这些区块而确定所述两个有效PU。
在实施例3(空间合并候选者配置3)中,预定顺序可以是A、B、Col、C和D。如果区块A、B、C和D中的至少一个无效,则可以添加区块E。在此情况下,区块E可以被添加在最后的排位。另外,可以以(A和D之一)、(C、B和E之一)和Col的顺序来产生合并候选者列表。
在实施例4(空间合并候选者配置4)中,预定顺序可以是A、B、Col、拐角,或者A、B、拐角、Col。
合并候选者的数目可以基于片段或LCU来确定。在此情况下,以上述实施例中的预定顺序来产生合并候选者列表。
确定是否要产生合并候选者(S240)。在合并候选者的数目被设定成固定值的情况下,如果有效合并候选者的数目小于固定值,则产生合并候选者(S250)。产生的合并候选者被添加至合并候选者列表。在此情况下,产生的合并候选者被添加至合并候选者列表中的排位最后的合并候选者之下。如果添加多个合并候选者,则以预定顺序来添加所述多个合并候选者。
添加的合并候选者可以是具有运动矢量0和参考图片索引0的候选者(第一添加合并候选者)。另外,添加的合并候选者可以是通过将有效合并候选者的运动信息组合而产生的候选者(第二添加合并候选者)。例如,可以通过将时间合并候选者的运动信息(参考图片索引)与有效空间合并候选者的运动信息(运动矢量)组合而产生候选者,然后将其添加至合并候选者列表。可以以第一添加合并候选者和第二添加合并候选者的顺序或者相反的顺序来添加合并候选者。
相反,如果合并候选者的数目可变,并且仅使用有效合并候选者,则可以省略步骤S240和S250。
从产生的合并候选者列表中将合并候选者确定为当前PU的合并预测者(S260)
然后,对合并预测者的索引(即,合并索引)编码(S270)。在单个合并候选者的情况下,省略合并索引。另一方面,在两个或更多个合并候选者的情况下,对合并索引编码。
合并索引可以通过固定长度编码或CAVLC来编码。如果以CAVLC,则用于码字映射的合并索引可以根据PU形状和PU索引来调整。
合并候选者的数目可以是变化的。在此情况下,利用根据有效合并候选者的数目而确定的表来选择与合并索引相对应的码字。
合并候选者的数目可以是固定的。在此情况下,利用与合并候选者的数目相对应的单个表来选择与合并索引相对应的码字。
将参照图6描述AMVP编码方案。
参见图6,获得空间AMVP候选者和时间AMVP候选者(S310和S320)。
1)空间AMVP候选者
(a)空间AMVP候选者配置1
如图5中所示,空间AMVP候选者可以包括:与当前PU相邻的左侧PU(区块A)和左下侧PU(区块D)中的一个(左侧候选者),以及与当前PU相邻的右侧PU(区块B)、右上侧PU(区块C)和左上侧PU(区块E)中的一个(上侧候选者)。通过以预定顺序来扫描PU而将第一有效PU的运动矢量选择为左侧候选者或上侧候选者。左侧PU可以以A和D的顺序或者以D和A的顺序来扫描。上侧PU可以以B、C和E的顺序或者以C、B和E的顺序来扫描。
(b)空间AMVP候选者配置2
如图4中所示,通过以A、B、C和D的顺序来扫描与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)、右上侧PU(区块C)和左下侧PU(区块D),空间AMVP候选者可以是选自它们之中的两个有效PU。在此情况下,所有的有效PU都可以是候选者,或者通过以A、B、C和D的顺序来扫描区块A、B、C和D所获得的两个有效PU可以是候选者。如果在当前PU的左侧存在多个PU,则可以将有效的最上侧PU或具有最大面积的有效PU设定为左侧PU。类似地,如果在当前PU之上存在多个PU,则可以将有效的最左侧PU或者具有最大面积的有效PU设定为上侧PU。
(c)空间AMVP候选者配置3
如图5中所示,空间AMVP候选者可以包括通过以A、B、C、D和E的顺序来扫描与当前PU相邻的左侧PU(区块A)、右侧PU(区块B)、右上侧PU(区块C)、左下侧PU(区块D)和左上侧PU(区块E)而获得的两个有效PU。左侧PU可以与区块E而不与区块D相邻。同样地,上侧PU可以与区块E而不与区块C相邻。
(d)空间AMVP候选者配置4
如图5中所示,空间AMVP候选者可以是选自与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)、右上侧PU(区块C)、左下侧PU(区块D)和左上侧PU(区块E)中的四个区块。在此情况下,当区块A至D中的一个或更多个无效时,区块E可以是可用的。
(e)空间AMVP候选者配置5
如图5中所示,空间AMVP候选者可以包括与当前PU相邻的左侧PU(区块A)、上侧PU(区块B)和拐角PU(区块C、D和E中的一个)。通过以C、D和E的顺序来扫描右上侧PU(区块C)、左下侧PU(区块D)和左上侧PU(区块E),拐角PU是它们之中的第一有效PU。
在以上实施例中,在当前PU之上的AMVP候选者的运动信息可以根据当前PU的位置而不同地设定。例如,如果当前PU处于LCU的上边界,则与当前PU相邻的上侧PU(区块B、C或E)的运动矢量可以是当前PU自身的运动矢量或者是相邻PU的运动矢量。上侧PU的运动矢量可以根据当前PU的尺寸和位置而被确定为其自身的运动矢量或相邻PU的运动矢量。
2)时间AMVP候选者
因为时间AMVP候选者仅需要运动信息,所以与合并候选者相比不需要获得参考图片索引。将首先描述用于获得时间AMVP候选者的运动矢量的操作。
确定包括时间AMVP候选者区块的图片(在下文中,被称作为时间AMVP候选者图片)。时间AMVP候选者图片可以被设定成具有参考图片索引0的图片。在此情况下,如果片段类型是P,则列表0中的第一图片(即,具有索引0的图片)被设定为时间AMVP候选者图片。如果片段类型是B,则由片段标头中的指示时间AMVP候选者列表的标志所指示的参考图片列表的第一图片被设定为时间AMVP候选者图片。
然后,从时间AMVP候选者图片获得时间AMVP候选者区块。这以与用于获得时间合并候选者区块的操作相同的方式来执行,因而本文不再赘述。
同时,可以根据当前PU的尺寸而自适应地去掉时间AMVP候选者。例如,如果当前PU是4×4区块,则时间AMVP候选者可以被去掉以降低复杂性。
然后,产生AMVP候选者列表(S330)。
以预定顺序利用有效AMVP候选者来产生AMVP候选者列表。如果多个AMVP候选者具有相同的运动信息(即,参考图片不必是相同的),则可以从AMVP候选者列表中删除排位最后的AMVP候选者。
在空间AMVP候选者配置1中,预定顺序是A和D之一(A和D的顺序或D和A的顺序)、B、C和E之一(B、C和E的顺序、或者C、B和E的顺序)、Col,或者预定顺序是Col、A和D之一、B、C和E之一。在这里,Col表示时间AMVP候选者。
在空间AMVP候选者配置2中,预定顺序为A、B、Col、C、D,或者预定顺序为C、D、Col、A、B。
在空间AMVP候选者配置3中,预定顺序为(A、B、C、D和E以此顺序中的两个有效区块)、Col,或者预定顺序为Col、(A、B、C、D和E以此顺序中的两个有效区块)。
在空间AMVP候选者配置4中,预定顺序是A、B、Col、C和D。如果区块A、B、C和D中的至少一个无效,则可以将区块E添加至最后的排位。
在空间AMVP候选者配置5中,预定顺序是A、B、Col和拐角。
确定是否要产生AMVP候选者(S340)。在AMVP候选者的数目被设定成固定值的情况下,如果有效AMVP候选者的数目小于该固定值,则产生AMVP候选者(S350)。固定值可以为2或3。产生的AMVP候选者被添加至AMVP候选者列表中的排位最后的AMVP候选者之下。添加的AMVP候选者可以是具有运动矢量0的候选者。
相反,如果AMVP候选者的数目可变,并且仅使用有效AMVP候选者,则可以省略步骤S340和S350。
从AMVP候选者列表中选择当前PU的运动矢量预测者(S360)。产生指示预测者的AMVP索引。
然后,产生当前PU的运动矢量与运动矢量预测者之间的差分运动矢量(S370)。
对当前PU的参考图片索引、差分运动矢量、和AMVP索引编码(S380)。在单个AMVP候选者的情况下,可以省略AMVP索引。
AMVP索引可以通过固定长度编码或CAVLC来编码。如果采用CAVLC,则可以根据PU形状或PU索引来调整用于码字映射的AMVP索引。
AMVP候选者的数目可以是变化的。在此情况下,利用根据有效AMVP候选者的数目而确定的表来选择与AMVP索引相对应的码字。
同时,合并候选者区块可以与AMVP候选者区块相同。例如,在AMVP候选者配置与合并候选者配置相同的情况下。因而,可以降低编码器的复杂性。
图7是根据本发明的一个实施例的视频译码器的框图。
参见图7,本发明的视频译码器包括:熵译码器210、反相量化器/反相转换器220、加法器270、去区块化滤波器250、图片储存器260、内预测器230、运动补偿预测器240和内/中间开关280。
熵译码器210通过对从视频编码器接收的编码的比特流译码而从该编码的比特流分离出内预测模式索引、运动信息、以及量化系数序列。熵译码器210将译码的运动信息提供至运动补偿预测器240,将内预测模式索引提供至内预测器230和反相量化器/反相转换器220,以及将量化系数序列提供至反相量化器/反相转换器220。
反相量化器/反相转换器220将量化系数序列转换成二维阵列的去量化系数。对于转换,可以基于当前区块的预测模式(即,内预测和中间预测之一)和内预测模式中的至少一种来选择多个扫描模式之一。从内预测器230或熵译码器210接收内预测模式。
反相量化器/反相转换器220利用选自多个量化矩阵的量化矩阵来从二维阵列的去量化系数中重构量化系数。即使对于具有相同尺寸的区块,反相量化器/反相转换器220也基于当前区块的预测模式和内预测模式中的至少一种来选择量化矩阵。然后通过反相转换重构的量化系数来重构残差区块。
加法器270将从反相量化器/反相转换器220接收的重构残差区块与从内预测器230或运动补偿预测器240产生的预测区块相加,由此重构图像区块。
去区块化滤波器250对加法器270产生的重构图像执行去区块化滤波。因而,可以减小在量化期间由图像损失引起的去区块化伪影。
图片储存器260包括帧存储器,所述帧存储器保存由去区块化滤波器250去区块化滤波的局部译码图像。
内预测器230基于从熵译码器210接收的内预测模式索引来确定当前区块的内预测模式,并且根据确定的内预测模式来产生预测区块。
运动补偿预测器240基于运动矢量信息而从储存在图片储存器260中的图片产生当前区块的预测区块。如果施加具有分像素精度的运动补偿,则利用选中的内插滤波器来产生预测区块。
内/中间开关280将从内预测器230产生的预测区块和从运动补偿预测器240产生的预测区块之一提供至加法器270。
图8是说明根据本发明的一个实施例的中间预测译码操作的流程图。
参见图8,视频译码器可以检查要译码的当前PU是否以SKIP模式被编码(S405)。可以基于CU的skip_flag来进行检查。
如果当前PU以SKIP模式被编码,则根据与SKIP模式相对应的运动信息译码过程来对当前PU的运动信息译码(S410)。与SKIP模式相对应的运动信息译码过程与合并模式相对应的运动信息译码过程相同。
复制当前PU的被译码的运动信息所指示的参考图片中的相应区块,由此产生当前PU的重构区块(S415)。
另一方面,如果当前PU未以SKIP模式编码,则确定当前PU的运动信息是否以合并模式被编码(S420)。
如果当前PU的运动信息以合并模式被编码,则在与合并模式相对应的运动信息译码过程中将当前PU的运动信息译码(S425)。
利用当前PU的被译码的运动信息来产生预测区块(S430)。
如果当前PU的运动信息以合并模式被编码,则对残差区块译码(S435)。
然后,利用预测区块和残差区块来产生当前PU的重构区块(S440)。
另一方面,如果当前PU的运动信息未以合并模式编码,则在与AMVP模式相对应的运动信息译码过程中将当前PU的运动信息编码(S445)。
然后,利用当前PU的被译码的运动信息来产生预测区块(S450),并且对残差区块译码(S455)。利用预测区块和残差区块来产生重构区块(S460)。
运动信息译码过程根据当前PU的运动信息的编码模式而不同。当前PU的运动信息的编码模式可以是合并模式和AMVP模式中的一种。在SKIP模式中,执行与合并模式中相同的运动信息译码过程。
首先,将给出在当前PU的运动信息的编码模式是合并模式时的运动信息译码操作的描述。
图9是说明在合并候选者的数目可变时的运动矢量译码操作的流程图。
参见图9,确定是否存在任何合并码字(S510)。
在不存在合并码字时,搜索有效合并候选者,确定是否存在当前PU的单个合并候选者(S520)。之前已经参照图3描述了合并候选者配置和合并候选者搜索顺序(即,列出的顺序)。
根据有效合并候选者的搜索,利用合并候选者的运动信息来产生当前PU的运动信息(S530)。即,合并候选者的参考图片索引和运动矢量被设定为当前PU的参考图片索引和运动矢量。
在存在合并码字时,搜索有效合并候选者,并且合并候选者列表由有效合并候选者组成(S540)。之前已经参照图3描述了用于配置合并候选者和产生合并候选者列表的方法。
选择与合并候选者的数目相对应的VLC表(S550)。
重构与合并码字相对应的合并索引(S560)。
从合并候选者列表选择与合并索引相对应的合并候选者,并且将合并候选者的运动信息设定为当前PU的运动信息(S570)。
图10是说明在合并候选者的数目固定时的运动矢量译码操作的流程图。合并候选者的数目可以基于图片或片段来固定。
参见图10,搜索有效合并候选者(S610)。合并候选者包括空间合并候选者和时间合并候选者。之前已经参照图3描述了空间合并候选者的位置、用于获得空间合并候选者的方法、时间合并候选者的位置、以及用于获得时间合并候选者的方法。如果当前PU小于预定的尺寸,则可以不使用时间合并候选者。例如,针对4×4PU可以省略合并候选者。
根据有效合并候选者的搜索,确定是否产生合并候选者(S620)。如果有效合并候选者的数目小于预定的值,则产生合并候选者(S630)。可以通过组合有效合并候选者的运动信息来产生合并候选者。可以添加具有运动矢量0和参考图片索引0的合并候选者。以预定顺序来添加合并候选者。
利用合并候选者来形成合并列表(S640)。这个步骤可以通过组合步骤S620和S630来执行。之前已经参照图3描述了合并候选者配置和合并候选者搜索顺序(即,列出的顺序)。
重构与接收的比特流中的合并码字相对应的合并索引(S650)。由于合并候选者的数目是固定的,所以与合并码字相对应的合并索引可以从与合并候选者的数目相对应的一个译码表中获得。然而,可以根据是否使用时间合并候选者来使用不同的译码表。
从合并列表中搜索与合并索引相对应的候选者(S660)。搜索的合并候选者被确定成合并预测者。
一旦确定出合并预测者,就利用合并预测者的运动信息来产生当前PU的运动信息(S670)。具体地,将合并预测者的运动信息、即合并预测者的参考图片索引和运动矢量确定成当前PU的参考图片索引和运动矢量。
现在将给出在当前PU的运动信息编码模式是AMVP时的运动信息译码操作的描述。
图11是说明在AMVP候选者的数目可变时的运动矢量译码操作的流程图。
参见图11,解析当前PU的参考图片索引和差分运动矢量(S710)。
确定是否存在AMVP码字(S720)。
在不存在AMVP码字时,搜索有效AMVP候选者、确定当前PU的AMVP候选者的数目为1(S730)。之前已经参照图6详细地描述了AMVP候选者配置和AMVP候选者搜索顺序(即,列出的顺序)。
根据有效AMVP候选者的搜索,将AMVP候选者的运动矢量设定为当前PU的运动矢量预测者(S740)。
在不存在AMVP码字时,通过搜索有效AMVP候选者来产生AMVP候选者列表(S750)。之前已经参照图6详细地描述了AMVP候选者配置和AMVP候选者搜索顺序(即,列出的顺序)。
选择与AMVP候选者的数目相对应的VLC表(S760)。
重构与AMVP码字相对应的AMVP索引(S770)。
从AMVP候选者列表中搜索与AMVP索引相对应的AMVP,并且将AMVP候选者的运动矢量设定为当前PU的运动矢量预测者(S780)。
将在步骤S740或S780中获得的运动矢量预测者和在步骤S710中获得的差分运动矢量之和设定为当前区块的最终运动矢量(S790)。
图12是说明在AMVP候选者的数目固定时的运动矢量译码操作的流程图。
参见图12,解析当前PU的参考图片索引和差分运动矢量(S810)。
搜索有效AMVP候选者(S820)。AMVP候选者包括空间AMVP候选者和时间AMVP候选者。之前已经参照图6描述了空间AMVP候选者的位置、用于获得空间AMVP候选者的方法、时间AMVP候选者的位置、以及用于获得时间AMVP候选者的方法。如果当前PU小于预定尺寸,则可以不使用时间AMVP候选者。例如,可以针对4×4PU省略AMVP候选者。
基于有效AMVP候选者的数目来确定是否产生AMVP候选者(S830)。如果有效AMVP候选者的数目小于预定值,则产生AMVP候选者(S840)。预定值可以是2或3。
例如,在存在空间上侧AMVP候选者、而不存在空间左侧AMVP候选者的情况下,如果存在除了空间上侧AMVP候选者之外的有效PU,则可以添加有效PU的运动矢量。相反,在存在空间左侧AMVP候选者、而不存在空间上侧AMVP候选者的情况下,如果存在除了空间左侧AMVP候选者之外的有效PU,则可以添加有效PU的运动矢量。或者可以添加具有运动矢量0的AMVP候选者。
利用有效AMVP候选者和/或产生的AMVP候选者来产生AMVP候选者列表(S850)。步骤S850可以在步骤S820之后执行。在此情况下,步骤S850在步骤S840之后。之前已经参照图6描述了如何产生候选者列表。
恢复与AMVP码字相对应的AMVP索引(S860)。AMVP索引可以通过固定长度编码来编码。
然后,从AMVP候选者列表中搜索与AMVP索引相对应的AMVP候选者(S870)。搜索到的AMVP候选者被确定为AMVP预测者。
将AMVP预测者的运动矢量确定为当前PU的运动矢量(S880)。
将在步骤S810中获得的差分运动矢量和在步骤S880中获得的运动矢量预测者之和设定为当前PU的最终运动矢量,并且将在步骤S810中获得的参考图片索引设定为当前PU的参考图片索引(S880)。
对于本领域的技术人员显然的是,在不脱离本发明的精神或范围的情况下可以对本发明进行各种修改和变型。因而,本发明意在覆盖本发明的修改和变型,假如这些修改和变型落入所附权利要求及其等同物的范围内。

Claims (4)

1.一种以合并模式对图像编码的方法,所述方法包括:
确定当前预测单元的运动矢量和参考图片索引;
产生预测区块;
利用原始区块和所述预测区块来产生残差区块、转换所述残差区块以产生转换区块、利用量化参数来量化所述转换区块以产生量化区块、以及扫描所述量化区块以对所述量化区块进行熵编码;以及
对所述运动矢量和所述参考图片索引编码,
其中,利用有效空间和时间合并候选者来对所述运动矢量编码,
利用在当前编码单元的左侧量化参数、上侧量化参数和之前的量化参数之中的两个有效量化参数的平均值来对所述量化参数编码,以及
空间合并候选者是左侧区块、上侧区块、右上侧区块、左下侧区块以及左上侧区块,并且如果所述左侧区块、所述上侧区块、所述右上侧区块以及所述左下侧区块中的一个或更多个无效,则所述左上侧区块可用。
2.如权利要求1所述的方法,其中,当所述量化区块大于预定尺寸时,将所述量化区块分成要扫描的多个子区块,并且用于扫描所述多个子区块的扫描模式与用于扫描每个子区块中的量化系数的扫描模式相同。
3.如权利要求2所述的方法,其中,沿着相反方向扫描所述多个子区块和所述量化系数。
4.如权利要求1所述的方法,其中,通过确定时间合并候选者图片以及确定时间合并候选者区块来获得时间合并候选者的运动矢量。
CN201710357011.9A 2011-08-29 2012-01-20 以合并模式对图像编码的方法 Active CN107197272B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20110086518 2011-08-29
KR10-2011-0086518 2011-08-29
CN201280042121.1A CN103765886B (zh) 2011-08-29 2012-01-20 以amvp模式产生预测区块的方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201280042121.1A Division CN103765886B (zh) 2011-08-29 2012-01-20 以amvp模式产生预测区块的方法

Publications (2)

Publication Number Publication Date
CN107197272A CN107197272A (zh) 2017-09-22
CN107197272B true CN107197272B (zh) 2019-12-06

Family

ID=47756521

Family Applications (7)

Application Number Title Priority Date Filing Date
CN201710358282.6A Active CN107277548B (zh) 2011-08-29 2012-01-20 以合并模式对图像编码的方法
CN201710357011.9A Active CN107197272B (zh) 2011-08-29 2012-01-20 以合并模式对图像编码的方法
CN201710357777.7A Active CN107277547B (zh) 2011-08-29 2012-01-20 以amvp模式对图像编码的方法
CN201611152704.6A Active CN106851311B (zh) 2011-08-29 2012-01-20 视频译码装置
CN201510012849.5A Active CN104883576B (zh) 2011-08-29 2012-01-20 以amvp模式产生预测区块的方法
CN201710358284.5A Active CN107257480B (zh) 2011-08-29 2012-01-20 以amvp模式对图像编码的方法
CN201280042121.1A Active CN103765886B (zh) 2011-08-29 2012-01-20 以amvp模式产生预测区块的方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201710358282.6A Active CN107277548B (zh) 2011-08-29 2012-01-20 以合并模式对图像编码的方法

Family Applications After (5)

Application Number Title Priority Date Filing Date
CN201710357777.7A Active CN107277547B (zh) 2011-08-29 2012-01-20 以amvp模式对图像编码的方法
CN201611152704.6A Active CN106851311B (zh) 2011-08-29 2012-01-20 视频译码装置
CN201510012849.5A Active CN104883576B (zh) 2011-08-29 2012-01-20 以amvp模式产生预测区块的方法
CN201710358284.5A Active CN107257480B (zh) 2011-08-29 2012-01-20 以amvp模式对图像编码的方法
CN201280042121.1A Active CN103765886B (zh) 2011-08-29 2012-01-20 以amvp模式产生预测区块的方法

Country Status (6)

Country Link
US (18) US20130128982A1 (zh)
KR (4) KR20140057683A (zh)
CN (7) CN107277548B (zh)
BR (1) BR112014004914B1 (zh)
MX (4) MX343471B (zh)
WO (1) WO2013032073A1 (zh)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5875979B2 (ja) * 2010-06-03 2016-03-02 シャープ株式会社 フィルタ装置、画像復号装置、画像符号化装置、および、フィルタパラメータのデータ構造
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
CN107087194B (zh) 2010-12-13 2020-02-11 韩国电子通信研究院 基于帧间预测对视频信号进行解码的方法
CN107105280B (zh) * 2010-12-14 2020-01-03 M&K控股株式会社 用于编码运动画面的设备
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
KR20130050403A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 복원 블록 생성 방법
EP4009640A1 (en) * 2011-11-08 2022-06-08 Electronics and Telecommunications Research Institute Method and device for sharing a candidate list
JP6336058B2 (ja) 2013-10-14 2018-06-06 マイクロソフト テクノロジー ライセンシング,エルエルシー ビデオ及び画像符号化及び復号のためのベースカラーインデックスマップモードの機能
AU2013403224B2 (en) 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
EP3058736B1 (en) 2013-10-14 2019-02-27 Microsoft Technology Licensing, LLC Encoder-side options for intra block copy prediction mode for video and image coding
US10063887B2 (en) 2013-10-18 2018-08-28 Lg Electronics Inc. Video decoding apparatus and method for decoding multi-view video
KR102258427B1 (ko) 2014-01-03 2021-06-01 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 및 이미지 코딩/디코딩에서의 블록 벡터 예측
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
US10368091B2 (en) 2014-03-04 2019-07-30 Microsoft Technology Licensing, Llc Block flipping and skip mode in intra block copy prediction
EP4354856A2 (en) 2014-06-19 2024-04-17 Microsoft Technology Licensing, LLC Unified intra block copy and inter prediction modes
RU2679201C2 (ru) 2014-09-30 2019-02-06 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Правила для режимов внутрикадрового прогнозирования, когда активируется волновая параллельная обработка данных
US10321145B2 (en) 2014-10-07 2019-06-11 Samsung Electronics Co., Ltd. Method and device for encoding or decoding image by means of view merging prediction
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
EP3308540B1 (en) 2015-06-09 2020-04-15 Microsoft Technology Licensing, LLC Robust encoding/decoding of escape-coded pixels in palette mode
US10148977B2 (en) * 2015-06-16 2018-12-04 Futurewei Technologies, Inc. Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions
US20170085886A1 (en) * 2015-09-18 2017-03-23 Qualcomm Incorporated Variable partition size for block prediction mode for display stream compression (dsc)
KR102169435B1 (ko) * 2016-03-21 2020-10-23 후아웨이 테크놀러지 컴퍼니 리미티드 가중된 행렬 계수의 적응형 양자화
CN116708783A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
CN116567216A (zh) * 2016-08-11 2023-08-08 Lx 半导体科技有限公司 图像编码/解码方法以及图像数据的发送方法
KR102471208B1 (ko) * 2016-09-20 2022-11-25 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10911761B2 (en) 2016-12-27 2021-02-02 Mediatek Inc. Method and apparatus of bilateral template MV refinement for video coding
KR20180111378A (ko) * 2017-03-31 2018-10-11 주식회사 칩스앤미디어 병렬 처리를 위한 움직임 정보를 처리하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
US10630974B2 (en) * 2017-05-30 2020-04-21 Google Llc Coding of intra-prediction modes
CN116016921A (zh) 2017-07-07 2023-04-25 三星电子株式会社 用于对运动矢量进行编码和解码的设备和方法
EP3691274A4 (en) 2017-09-28 2021-04-28 Samsung Electronics Co., Ltd. CODING METHOD AND DEVICE FOR IT AND DECODING METHOD AND DEVICE FOR IT
CN107613305B (zh) * 2017-10-12 2020-04-07 杭州当虹科技股份有限公司 一种hevc中p、b帧快速运动估计方法
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CN116347099A (zh) 2018-06-19 2023-06-27 北京字节跳动网络技术有限公司 没有运动矢量预测截断的选择的运动矢量差精度
GB2589223B (en) 2018-06-21 2023-01-25 Beijing Bytedance Network Tech Co Ltd Component-dependent sub-block dividing
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
TWI731362B (zh) * 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 擴展Merge模式與其他視頻編碼工具之間的交互
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
CN110662052B (zh) 2018-06-29 2022-07-08 北京字节跳动网络技术有限公司 更新查找表(lut)的条件
KR102648120B1 (ko) 2018-06-29 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 슬라이스/타일/lcu 행마다의 룩업 테이블 리셋
CN114885173A (zh) 2018-06-29 2022-08-09 抖音视界(北京)有限公司 Lut中的运动候选的检查顺序
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
TWI731358B (zh) 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 改進的時域運動向量預測推導
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
TWI744661B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 要根據模式檢查的查找表中的運動候選的數量
TWI731364B (zh) 2018-07-02 2021-06-21 大陸商北京字節跳動網絡技術有限公司 Hmvp+非相鄰運動
CN110876058B (zh) * 2018-08-30 2021-09-21 华为技术有限公司 一种历史候选列表更新方法与装置
CN116033150A (zh) 2018-09-08 2023-04-28 北京字节跳动网络技术有限公司 不同视频块尺寸的仿射模式计算
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
TW202025737A (zh) 2018-09-19 2020-07-01 大陸商北京字節跳動網絡技術有限公司 仿射模式中自適應運動矢量分辨率的快速算法
WO2020071846A1 (ko) * 2018-10-06 2020-04-09 엘지전자 주식회사 인트라 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
CN112970262B (zh) * 2018-11-10 2024-02-20 北京字节跳动网络技术有限公司 三角预测模式中的取整
EP3731522A4 (en) * 2019-01-01 2021-04-14 LG Electronics Inc. METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNAL BASED ON HISTORY-BASED MOTION VECTOR PREDICTION
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
EP3895429A4 (en) 2019-01-31 2022-08-10 Beijing Bytedance Network Technology Co., Ltd. CONTEXT FOR CODE AN ADAPTIVE MOTION VECTOR RESOLUTION IN AFFINE MODE
CN113366839B (zh) * 2019-01-31 2024-01-12 北京字节跳动网络技术有限公司 视频编解码中的细化量化步骤
US10742972B1 (en) * 2019-03-08 2020-08-11 Tencent America LLC Merge list construction in triangular prediction
CN111698506B (zh) 2019-03-11 2022-04-26 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、三角预测解码方法及装置
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
US11297320B2 (en) * 2020-01-10 2022-04-05 Mediatek Inc. Signaling quantization related parameters
US11968356B2 (en) * 2022-03-16 2024-04-23 Qualcomm Incorporated Decoder-side motion vector refinement (DMVR) inter prediction using shared interpolation filters and reference pixels

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1419786A (zh) * 2001-01-23 2003-05-21 皇家菲利浦电子有限公司 向一个压缩信息信号加水印
CN1525762A (zh) * 2003-09-12 2004-09-01 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
CN101472174A (zh) * 2007-12-29 2009-07-01 智多微电子(上海)有限公司 视频解码器中用于复原原始图像数据的方法及装置
CN101610413A (zh) * 2009-07-29 2009-12-23 清华大学 一种视频的编码/解码方法及装置
CN102006480A (zh) * 2010-11-29 2011-04-06 清华大学 基于视间预测的双目立体视频的编码及解码方法

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5778143A (en) * 1993-01-13 1998-07-07 Hitachi America, Ltd. Method and apparatus for the selection of data for use in VTR trick playback operation in a system using progressive picture refresh
WO2000063886A1 (en) * 1999-04-16 2000-10-26 Dolby Laboratories Licensing Corporation Using gain-adaptive quantization and non-uniform symbol lengths for audio coding
JP2002112268A (ja) * 2000-09-29 2002-04-12 Toshiba Corp 圧縮画像データ復号装置
US7920624B2 (en) * 2002-04-01 2011-04-05 Broadcom Corporation Inverse quantizer supporting multiple decoding processes
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
US7561620B2 (en) * 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
US7720154B2 (en) * 2004-11-12 2010-05-18 Industrial Technology Research Institute System and method for fast variable-size motion estimation
KR20060105810A (ko) 2005-04-04 2006-10-11 엘지전자 주식회사 무선통신을 이용한 착신전환 방법 및 시스템
KR100733966B1 (ko) 2005-04-13 2007-06-29 한국전자통신연구원 움직임 벡터 예측 장치 및 방법
US8422546B2 (en) * 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
US8422456B2 (en) * 2006-02-07 2013-04-16 Nec Corporation Mobile communication system, radio base station controller, and relocation method
WO2008120434A1 (ja) * 2007-03-28 2008-10-09 Panasonic Corporation 復号化回路、復号化方法、符号化回路及び符号化方法
US8488668B2 (en) * 2007-06-15 2013-07-16 Qualcomm Incorporated Adaptive coefficient scanning for video coding
EP2191651A1 (en) * 2007-09-28 2010-06-02 Dolby Laboratories Licensing Corporation Video compression and tranmission techniques
KR100928325B1 (ko) * 2007-10-15 2009-11-25 세종대학교산학협력단 영상의 부호화, 복호화 방법 및 장치
KR101671460B1 (ko) 2009-09-10 2016-11-02 에스케이 텔레콤주식회사 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US9060176B2 (en) * 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
KR20110090841A (ko) * 2010-02-02 2011-08-10 (주)휴맥스 가중치 예측을 이용한 영상 부호화/복호화 장치 및 방법
JP2011160359A (ja) 2010-02-03 2011-08-18 Sharp Corp ブロックノイズ量予測装置、ブロックノイズ量予測方法、画像処理装置、プログラム、及び、記録媒体
CN102439978A (zh) * 2010-03-12 2012-05-02 联发科技(新加坡)私人有限公司 运动预测方法
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
KR20120012385A (ko) * 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
KR102080892B1 (ko) 2010-09-02 2020-02-24 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
US9473789B2 (en) * 2010-12-14 2016-10-18 M&K Holdings Inc. Apparatus for decoding a moving picture
US9609354B2 (en) * 2010-12-14 2017-03-28 M&K Holdings Inc. Apparatus for decoding a moving picture
CN107105280B (zh) * 2010-12-14 2020-01-03 M&K控股株式会社 用于编码运动画面的设备
EP2661080A4 (en) * 2010-12-31 2016-06-29 Korea Electronics Telecomm METHOD FOR CODING VIDEO INFORMATION AND METHOD FOR DECODING VIDEO INFORMATION AND DEVICE THEREFOR
EP2664146A1 (en) * 2011-01-14 2013-11-20 Motorola Mobility LLC Joint spatial and temporal block merge mode for hevc
JP5358746B2 (ja) * 2011-03-03 2013-12-04 パナソニック株式会社 動画像符号化方法、動画像符号化装置及びプログラム
US9066110B2 (en) * 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
US9288501B2 (en) * 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
US9648334B2 (en) * 2011-03-21 2017-05-09 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9247249B2 (en) * 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US9866859B2 (en) * 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
US9131239B2 (en) * 2011-06-20 2015-09-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
US8896284B2 (en) * 2011-06-28 2014-11-25 Texas Instruments Incorporated DC-DC converter using internal ripple with the DCM function
CN107295347B (zh) * 2011-08-29 2020-06-26 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
US9762904B2 (en) * 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
RU2623796C9 (ru) * 2011-12-28 2017-11-15 ДжейВиСи КЕНВУД КОРПОРЕЙШН Устройство кодирования движущегося изображения, способ кодирования движущегося изображения и программа кодирования движущегося изображения, а также устройство декодирования движущегося изображения, способ декодирования движущегося изображения и программа декодирования движущегося изображения
JP6171627B2 (ja) * 2013-06-28 2017-08-02 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法および画像復号プログラム
US9794870B2 (en) * 2013-06-28 2017-10-17 Intel Corporation User equipment and method for user equipment feedback of flow-to-rat mapping preferences
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1419786A (zh) * 2001-01-23 2003-05-21 皇家菲利浦电子有限公司 向一个压缩信息信号加水印
CN1525762A (zh) * 2003-09-12 2004-09-01 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
CN101472174A (zh) * 2007-12-29 2009-07-01 智多微电子(上海)有限公司 视频解码器中用于复原原始图像数据的方法及装置
CN101610413A (zh) * 2009-07-29 2009-12-23 清华大学 一种视频的编码/解码方法及装置
CN102006480A (zh) * 2010-11-29 2011-04-06 清华大学 基于视间预测的双目立体视频的编码及解码方法

Also Published As

Publication number Publication date
MX343471B (es) 2016-11-07
US20230276066A1 (en) 2023-08-31
CN106851311B (zh) 2019-08-13
US10123035B2 (en) 2018-11-06
CN106851311A (zh) 2017-06-13
US9948945B2 (en) 2018-04-17
US20150110178A1 (en) 2015-04-23
CN107197272A (zh) 2017-09-22
US20180152723A1 (en) 2018-05-31
US9800887B2 (en) 2017-10-24
CN107277547B (zh) 2020-05-29
US20140079128A1 (en) 2014-03-20
WO2013032073A1 (ko) 2013-03-07
KR20140057684A (ko) 2014-05-13
CN104883576B (zh) 2017-11-14
US10123034B2 (en) 2018-11-06
US11350121B2 (en) 2022-05-31
MX351933B (es) 2017-11-01
US11689734B2 (en) 2023-06-27
US20180152722A1 (en) 2018-05-31
US10798401B2 (en) 2020-10-06
US20180007380A1 (en) 2018-01-04
MX2014002346A (es) 2014-04-14
US10123032B2 (en) 2018-11-06
US20220078465A1 (en) 2022-03-10
CN107257480B (zh) 2020-05-29
US20230283798A1 (en) 2023-09-07
KR20140057683A (ko) 2014-05-13
CN104883576A (zh) 2015-09-02
MX365013B (es) 2019-05-20
US20190052894A1 (en) 2019-02-14
CN107257480A (zh) 2017-10-17
US20170048539A1 (en) 2017-02-16
US10148976B2 (en) 2018-12-04
KR101492104B1 (ko) 2015-02-11
BR112014004914A2 (pt) 2017-03-28
US10123033B2 (en) 2018-11-06
KR101492105B1 (ko) 2015-02-11
US20230283799A1 (en) 2023-09-07
KR20140057682A (ko) 2014-05-13
CN103765886A (zh) 2014-04-30
CN107277548B (zh) 2019-12-06
BR112014004914B1 (pt) 2022-04-12
US20230276067A1 (en) 2023-08-31
US20150110197A1 (en) 2015-04-23
US20180152724A1 (en) 2018-05-31
US20210021852A1 (en) 2021-01-21
US20130128982A1 (en) 2013-05-23
US20180014027A1 (en) 2018-01-11
CN103765886B (zh) 2017-06-13
US11778225B2 (en) 2023-10-03
KR101210892B1 (ko) 2012-12-11
MX2019005839A (es) 2023-02-15
US20220174307A1 (en) 2022-06-02
CN107277547A (zh) 2017-10-20
CN107277548A (zh) 2017-10-20

Similar Documents

Publication Publication Date Title
CN107197272B (zh) 以合并模式对图像编码的方法
JP6321749B2 (ja) 動画符号化装置
KR20130050149A (ko) 인터 모드에서의 예측 블록 생성 방법
KR20130050407A (ko) 인터 모드에서의 움직임 정보 생성 방법
KR20130050406A (ko) 머지 모드에서의 움직임 정보 생성 방법
KR20130050405A (ko) 인터 모드에서의 시간 후보자 결정방법
KR20130069685A (ko) 시간적 후보 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
KR20140105039A (ko) Amvp 모드에서의 예측 블록 생성 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant