CN103096071B - 导出运动信息的方法 - Google Patents

导出运动信息的方法 Download PDF

Info

Publication number
CN103096071B
CN103096071B CN201210441592.1A CN201210441592A CN103096071B CN 103096071 B CN103096071 B CN 103096071B CN 201210441592 A CN201210441592 A CN 201210441592A CN 103096071 B CN103096071 B CN 103096071B
Authority
CN
China
Prior art keywords
candidate
block
merging
quantization parameter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210441592.1A
Other languages
English (en)
Other versions
CN103096071A (zh
Inventor
吴秀美
梁文玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhanshikewei Co ltd
Original Assignee
Yingfu Buruizhi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48208139&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN103096071(B) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Yingfu Buruizhi Co Ltd filed Critical Yingfu Buruizhi Co Ltd
Priority to CN201810166637.6A priority Critical patent/CN108235009B/zh
Priority to CN201810166397.XA priority patent/CN108282652B/zh
Priority to CN201810168179.XA priority patent/CN108777789B/zh
Priority to CN201810168204.4A priority patent/CN108282660B/zh
Priority to CN201810168133.8A priority patent/CN108282658B/zh
Publication of CN103096071A publication Critical patent/CN103096071A/zh
Application granted granted Critical
Publication of CN103096071B publication Critical patent/CN103096071B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

提供了一种方法,该方法从比特流提取合并索引;利用可用的空间合并候选和时间合并候选构造合并候选列表,利用所述合并索引在合并候选列表中列出的合并候选块间选择合并预测器;以及将所述合并预测器的运动信息设置为当前预测单元的运动信息。时间合并候选包括参考图画索引和运动矢量,将零设置为时间合并候选的参考图画索引,将时间合并候选图画的时间合并候选块的运动矢量设置为时间合并候选的运动矢量。因此,通过包括各种合并候选块改善了运动信息的编码效率。而且,通过自适应地存储参考图画的运动信息并自适应地产生时间合并候选,减小了编码器和解码器的计算复杂性,维持了编码效率的改善。

Description

导出运动信息的方法
技术领域
本发明涉及一种导出运动信息的方法,更具体而言,涉及一种利用空间和时间合并候选(temporal merge candidate)构造合并候选列表而在合并模式中导出运动信息的方法。
背景技术
用于压缩视频数据的方法包括MPEG-2、MPEG-4和H.264/MPEG-4AVC。根据这些方法,一幅画面被分成多个宏块以对图像编码,利用帧间预测或帧内预测产生预测块,从而对相应宏块编码。变换初始块和预测块之间的差异以产生变换块,利用量化参数和多个预定量化矩阵之一对变换块进行量化。通过预定扫描类型扫描量化块的量化系数并随后进行熵编码。针对每个宏块调节量化参数,并利用先前的量化参数对其进行编码。
在H.264/MPEG-4AVC中,使用运动估计以消除相继图画之间的时间冗余度。为了检测时间冗余度,使用一个或多个参考图画,以估计当前块的运动,并利用运动信息执行运动补偿以产生预测块。运动信息包括一个或多个参考图画索引和一个或多个运动矢量。
根据H.264/MPEG-4AVC,仅预测运动矢量并利用相邻运动矢量编码,对参考图画索引编码使得没有相邻的参考图画索引。
不过,如果使用各种尺寸进行帧间预测,当前块的运动信息和一个或多个相邻块的运动信息之间的相关性会增大。而且,如果图像的运动几乎恒定或缓慢,随着图画尺寸变大,参考图画之内当前块的运动矢量和相邻块的运动矢量之间的相关性变高。因此,如果图画大小大于高清晰度图画的大小且允许将各种大小用于运动估计和运动补偿,上述常规压缩方法降低了运动信息的压缩效率。
发明内容
【技术问题】
本发明涉及一种利用空间合并候选(spatial merge candidate)和时间候选构造合并候选列表,从而导出运动信息的方法。
【技术方案】
本发明的一个方面提供了一种导出当前预测单元的运动信息的方法,包括:从比特流提取合并索引;利用可用的空间合并候选和时间合并候选构造合并候选列表;利用所述合并索引在合并候选列表中列出的合并候选间选择合并预测器;以及将所述合并预测器的运动信息设置为当前预测单元的运动信息。时间合并候选包括参考图画索引和运动矢量,将零设置为时间合并候选的参考图画索引,将时间合并候选图画的时间合并候选块(temporal mergecandidate block)的运动矢量设置为时间合并候选的运动矢量。
【有利效果】
根据本发明的方法从比特流提取合并索引;利用可用的空间合并候选和时间合并候选构造合并候选列表,利用所述合并索引在合并候选列表中列出的合并候选间选择合并预测器;以及将所述合并预测器的运动信息设置为当前预测单元的运动信息。时间合并候选包括参考图画索引和运动矢量,将零设置为时间合并候选的参考图画索引,将时间合并候选图画的时间合并候选块的运动矢量设置为时间合并候选的运动矢量。因此,通过包括各种合并候选改善了运动信息的编码效率。而且,通过自适应地存储参考图画的运动信息并自适应地产生时间合并候选,减小了编码器和解码器的计算复杂性,维持了编码效率的改善。
附图说明
图1是根据本发明的图像编码设备的方框图。
图2是流程图,示出了根据本发明在帧间预测模式中对视频数据编码的方法;
图3是流程图,示出了根据本发明在合并模式中对运动信息编码的方法;
图4是示意图,示出了根据本发明的空间合并候选块(spatial mergecandidateblock)的位置;
图5是示意图,示出了根据本发明在不对称分割模式中空间合并候选块的位置;
图6是另一示意图,示出了根据本发明在另一不对称分割模式中空间合并候选块的位置;
图7是另一示意图,示出了根据本发明在另一不对称分割模式中空间合并候选块的位置;
图8是另一示意图,示出了根据本发明在另一不对称分割模式中空间合并候选块的位置;
图9是示意图,示出了根据本发明的时间合并候选的位置;
图10是示意图,示出了根据本发明存储运动信息的方法;
图11是根据本发明的图像解码设备200的方框图;
图12是流程图,示出了根据本发明在帧间预测模式中对图像解码的方法;
图13是流程图,示出了在合并模式中导出运动信息的方法;
图14是流程图,示出了根据本发明在帧间预测模式中产生残余块的流程;
图15是流程图,示出了根据本发明导出量化参数的方法。
具体实施方式
在下文中,将参考附图详细描述本发明的各实施例。不过,本发明不限于下文公开的示范性实施例,而是可以通过各种方式实施。因此,本发明很多其他修改和变化都是可能的,要理解的是,在所公开的概念范围之内,可以通过与具体所述不同的方式实践本发明。
根据本发明的图像编码设备和图像解码设备可以是用户终端,例如个人计算机、个人移动终端、移动多媒体播放器、智能电话或无线通信终端。图像编码装置和图像解码装置可以包括用于和各种装置通信的通信单元、用于存储对图像编码或解码的各种程序和数据的存储器。
图1是根据本发明的图像编码设备100的方框图。
参考图1,根据本发明的图像编码设备100包括图画分割单元110、帧内预测单元120、帧间预测单元130、变换单元140、量化单元150、扫描单元160、熵编码单元170、逆量化/变换单元180、后期处理单元190和图画存储单元195。
图画分割单元110将图画或切片(slice)划分成多个最大编码单元(LCU),并将每个LCU划分成一个或多个编码单元。LCU的大小可以是32×32、64×64或128×128。图画分割单元110确定每个编码单元的预测模式和分割模式。
LCU包括一个或多个编码单元。LCU具有递归的四叉树结构,以指定LCU的分割结构。用于指定编码单元的最大大小和最小大小的参数包括在序列参数集中。由一个或多个分裂编码单元标志(split_cu_flag)指定分割结构。编码单元的大小是2N×2N。如果LCU的大小是64×64,最小编码单元(SCU)的大小是8×8,编码单元的大小可以是64×64、32×32、16×16或8×8。
编码单元包括一个或多个预测单元。在帧内预测中,预测单元的大小是2N×2N或N×N。在帧间预测中,预测单元的大小由分割模式指定。如果编码单元被对称地分割,分割模式是2N×2N、2N×N、N×2N和N×N之一。如果编码单元被不对称地分割,分割模式是2N×nU、2N×nD、nL×2N和nR×2N之一。基于编码单元的大小允许分割模式以减小硬件的复杂性。如果编码单元具有最小大小,不允许不对称分割。而且,如果编码单元具有最小大小,可以不允许N×N分割模式。
编码单元包括一个或多个变换单元。变换单元具有递归的四叉树结构,以指定编码单元的分割结构。由一个或多个分裂变换单元标记(split_tu_flag)指定分割结构。用于指定luma变换单元的最大大小和最小大小的参数包括在序列参数集中。
帧内预测单元120确定当前预测单元的帧内预测模式并利用帧内预测模式产生预测块。
帧间预测单元130利用图画存储单元195中存储的一个或多个参考图画确定当前预测单元的运动信息并产生预测单元的预测块。运动信息包括一个或多个参考图画索引和一个或多个运动矢量。
变换单元140变换残余块以产生变换块。残余块具有与变换单元相同的大小。如果预测单元比变换单元大,将当前块和预测块之间的残余信号划分成多个残余块。
量化单元150确定用于量化变换块的量化参数。量化参数是量化步长。针对每个量化单元确定量化参数。量化单元的大小可以变化,是编码单元可允许大小之一。如果编码单元的大小等于或大于量化单元的最小大小,编码单元变为量化单元。最小尺寸的量化单元中可以包括多个编码单元。针对每个图画确定量化单元的最小大小,在图画参数集中包括用于指定量化单元最小大小的参数。
量化单元150产生量化参数预测器并通过从量化参数减去量化参数预测器来产生差分量化参数。对差分量化参数进行熵编码。
如下利用相邻编码单元的量化参数和先前编码单元的量化参数产生量化参数预测器。
左量化参数、上量化参数和前量化参数按照上述次序被顺序检索。在有两个或更多量化参数可用时,将按照该次序检索的前两个可用量化参数的平均值设置为量化参数预测器,在仅有一个量化参数可用时,将该可用的量化参数设置为量化参数预测器。亦即,如果有左和上量化参数,则将左和上量化参数的平均值设置为量化参数预测器。如果仅有左和上量化参数之一可用,将可用量化参数和前一量化参数的平均值设置为量化参数预测器。如果左和上量化参数都不可用,将前一量化参数设置为量化参数预测器。对平均值进行四舍五入。
将差分量化参数转换到用于差分量化参数绝对值的容器以及用于通过二值化过程表示差分量化参数的符号的容器中,对容器进行算术编码。如果差分量化参数的绝对值是0,可以省略用于表示符号的容器。将截断一元码用于绝对值的二值化。
量化单元150利用量化矩阵和量化参数对变换块进行量化以产生量化块。向逆量化/变换单元180和扫描单元160提供量化块。
扫描单元160确定向量化块应用扫描模式。
在帧间预测中,如果将CABAC用于熵编码,则使用对角线扫描作为扫描模式。将量化块的量化系数分成各个系数分量。系数分量是显著标记、系数符号和系数级别。向每个系数分量应用对角线扫描。显著系数表示对应的量化系数是否为零。系数符号表示非零量化系数的符号,系数级别表示非零量化系数的绝对值。
在变换单元的大小大于预定大小时,将量化块分成多个子集并向每个子集应用对角线扫描。根据对角线扫描分别扫描每个子集的显著标记、系数符号和系数级别。预定大小是4×4。子集是包含16个变换系数的4×4块。
用于扫描子集的扫描模式与用于扫描系数分量的扫描模式相同。沿相反方向扫描每个子集的显著标记、系数符号和系数级别。还沿反向扫描子集。
对表示上一非零系数位置的参数编码并发送到解码侧。指定最后非零系数位置的参数指定最后非零量化系数在量化块之内的位置。针对第一子集和最后子集之外的每个子集定义非零子集标志并发送到解码侧。第一子集覆盖DC系数。最后子集覆盖最后的非零系数。非零子集标志表示子集是否包含非零系数。
熵编码单元170对由扫描单元160扫描的分量、从帧内预测单元120接收的帧内预测信息、从帧间预测单元130接收的运动信息等进行熵编码。
逆量化/变换单元180对量化块的量化系数进行逆量化,并对逆量化块进行逆变换以产生残余信号。
后期处理单元190执行解块过滤过程,以清除重建图画中产生的分块人为噪声。
图画存储单元195从后期处理单元190接收经后期处理的图像并在图画单元中存储图像。图画可以是帧或字段。
图2是流程图,示出了根据本发明在帧间预测模式中对视频数据编码的方法。
确定当前块的运动信息(S110)。当前块是预测单元。由编码单元的大小和分割模式确定当前块的大小。
运动信息根据预测类型而变化。如果预测类型是单向预测,运动信息包括指定参考表0的图画的参考索引和运动矢量。如果预测类型是双向预测,运动信息包括指定参考表0的图画和参考表1的图画的两个参考索引和表0运动矢量与表1运动矢量。
利用运动信息产生当前块的预测块(S120)。如果运动矢量表示像素位置,则通过拷贝运动矢量指定的参考图画块来产生预测块。如果运动矢量表示子像素位置,通过对参考图画的像素进行内插产生预测块。
利用当前块和预测块产生残余块(S130)。残余块具有与变换单元相同的大小。如果预测单元比变换单元大,将当前块和预测块之间的残余信号划分成多个残余块。
对残余块进行编码(S140)。由图1的变换单元140、量化单元150、扫描单元160和熵编码单元170对残余块编码。
对运动信息进行编码(S150)。可以利用当前块的空间候选块和时间候选块预测性地对运动信息编码。在跳跃模式、合并模式或AMVP模式中对运动信息编码。在跳跃模式中,预测单元具有编码单元的大小,利用与合并模式相同的方法对运动信息编码。在合并模式中,当前预测单元的运动信息等于一个候选块的运动信息。在AMVP模式中,利用一个或多个运动矢量候选对运动信息的运动矢量进行预测性编码。
图3是流程图,示出了根据本发明在合并模式中对运动信息编码的方法。
推导出空间合并候选者(S210)。图4是示意图,示出了根据本发明的空间合并候选块的位置。
如图4所示,合并候选块是当前块的左块(块A)、上块(块B)、右上块(块C)和左下块(块D)或左上块(块E)。这些块是预测块。在没有块A、B、C和D中的一个或多个时,那么将左上块(块E)设置为合并候选块。可用合并候选块N的运动信息被设置为空间合并候选N。N是A、B、C、D或E。
可以根据当前块的形状和当前块的位置将空间合并候选设置为不可用。例如,如果利用不对称分割将编码单元分成两个预测单元(块P0和块P1),块P0的运动信息可能不等于块P1的运动信息。因此,如果当前块是不对称块P1,将块P0设置为不可用候选块,如图5到8所示。
图5是示意图,示出了根据本发明在不对称分割模式中空间合并候选块的位置。
如图5所示,将编码单元分割成两个不对称预测块P0和P1,分割模式为nL×2N模式。块P0的大小为hN×2N,块P1的大小为(2-h)N×2N。h的值为1/2。当前块为块P1。块A、B、C、D和E是空间合并候选块。块P0是空间合并候选块A。
在本发明中,将空间合并候选A设置为不可用,不在合并候选列表上列出。而且,将与空间合并候选块A具有相同运动信息的空间合并候选块B、C、D或E设置为不可用。
图6是另一示意图,示出了根据本发明在另一不对称分割模式中空间合并候选块的位置。
如图6所示,将编码单元分割成两个不对称预测块P0和P1,分割模式为nR×2N模式。块P0的大小为(2-h)N×2N,块P1的大小为hN×2N。h的值为1/2。当前块为块P1。块A、B、C、D和E是空间合并候选块。块P0是空间合并候选块A。
在本发明中,将空间合并候选A设置为不可用,不在合并候选列表上列出。而且,将与空间合并候选块A具有相同运动信息的空间合并候选块B、C、D或E设置为不可用。
图7是另一示意图,示出了根据本发明在另一不对称分割模式中空间合并候选块的位置。
如图7所示,将编码单元分割成两个不对称预测块P0和P1,分割模式为2N×nU模式。块P0的大小为2N×hN,块P1的大小为2N×(2-h)N。h的值为1/2。当前块为块P1。块A、B、C、D和E是空间合并候选块。块P0是空间合并候选块B。
在本发明中,将空间合并候选B设置为不可用,不在合并候选列表上列出。而且,将与空间合并候选块B具有相同运动信息的空间合并候选块C、D或E设置为不可用。
图8是另一示意图,示出了根据本发明在另一不对称分割模式中空间合并候选块的位置。
如图8所示,将编码单元分割成两个不对称预测块P0和P1,分割模式为2N×nD模式。块P0的大小为2N×(2-h)N,块P1的大小为2N×hN。h的值为1/2。当前块为块P1。块A、B、C、D和E是空间合并候选块。块P0是空间合并候选块B。
在本发明中,将空间合并候选B设置为不可用,不在合并候选列表上列出。而且,将与空间合并候选块B具有相同运动信息的空间合并候选块C、D或E设置为不可用。
也可以基于合并区域将空间合并候选设置为不可用。如果当前块和空间合并候选块属于同一合并区域,将空间合并候选块设置为不可用。合并区域是进行运动估计的单位区域,指定合并区域的信息被包括在比特流中。
导出时间合并候选(S220)。时间合并候选包括时间合并候选的参考图画索引和运动矢量。
可以利用相邻块的一个或多个参考图画索引导出时间合并候选的参考图画索引。例如,将左相邻块、上相邻块和角相邻块的参考图画索引之一设置为时间合并候选的参考图画索引。角相邻块是右上相邻块、左下相邻块和左上相邻块之一。或者,可以将时间合并候选的参考图画索引设置为零以降低复杂性。
可以如下推导时间合并候选的运动矢量。
首先,确定时间合并候选图画。时间合并候选图画包括时间合并候选块。在切片之内使用一个时间合并候选图画。可以将时间合并候选图画的参考图画索引设置为零。
如果当前切片为P切片,将参考图画列表0的参考图画之一设置为时间合并候选图画。如果当前切片为B切片,将参考图画列表0和1的参考图画之一设置为时间合并候选图画。如果当前切片为B切片,则在切片报头中包括列表指示符,指明时间合并候选图画属于参考图画列表0还是1。可以在切片报头中包括指定时间合并候选图画的参考图画索引。
接下来,确定时间合并候选块。图9是示意图,示出了根据本发明的时间合并候选块的位置。如图9所示,第一候选块可以是块C的右下角块(块H)。块C与当前块具有相同的大小和相同的位置,位于时间合并候选图画之内。第二候选块是覆盖块C中心左上像素的块。
时间合并候选块可以是第一候选块或第二候选块。如果有第一候选块,将第一候选块设置为时间合并候选块。如果没有第一候选块,将第二候选块设置为时间合并候选块。如果没有第二候选块,将时间合并候选块设置为不可用。
基于当前块的位置确定时间合并候选块。例如,如果当前块与下LCU相邻(亦即,如果第一候选块属于下LCU),可以将第一候选块改变到当前LCU之内的块中或设置为不可用。
而且,可以基于运动矢量存储单元之内候选块的每个位置将第一和第二候选块改变为另一个块。运动矢量存储单元是存储参考图画的运动信息的基本单元。
图10是示意图,示出了根据本发明存储运动信息的方法。如图10所示,运动存储单元可以是16×16块。可以将运动矢量存储单元分成十六个4×4的块。如果运动矢量存储单元是16×16块,针对每个运动矢量存储单元存储运动信息。如果运动矢量存储单元包括参考图画的多个预测单元,则在存储器中存储多个预测单元的预定预测单元的运动信息,以减少要存储在存储器中的运动信息的量。预定预测单元可以是覆盖十六个4×4块之一的块。预定预测单元可以是覆盖块C3、块BR的块。或者预定预测单元可以是覆盖块UL的块。
因此,如果候选块不包括预定块,将候选块变为包括预定块的块。
如果确定了时间合并候选块,将时间合并候选块的运动矢量被设置为时间合并候选的运动矢量。
构造合并候选列表(S230)。以预定次序列出可用的空间候选块和可用的时间候选块。按照A、B、C、D和E的次序最多列出四个空间合并候选。可以在B和C之间或在空间候选之后列出时间合并候选。
判断是否产生一个或多个合并候选(S240)。通过比较合并候选列表中列出的合并候选数量与预定的合并候选数量来进行判断。可以针对每个图画或切片确定预定数量。
如果合并候选列表中列出的合并候选数量小于预定的合并候选数量,产生一个或多个合并候选(S250)。在最后可用合并候选之后列出产生的合并候选。
如果可用的合并候选数量等于或大于2,两个可用合并候选之一具有列表0的运动信息,另一个具有列表1的运动信息,可以通过组合列表0的运动信息和列表1的运动信息产生合并候选。如果有多种组合,可以产生多个合并候选。
可以向列表增加一个或多个零合并候选。如果切片类型为P,零合并候选仅具有列表0的运动信息。如果切片类型为B,零合并候选具有列表1的运动信息。
在合并列表的合并候选之间选择合并预测器,对指定合并预测器的合并索引编码(S260)。
图11是根据本发明的图像解码设备200的方框图。
根据本发明的图像解码设备200包括熵解码单元210、逆扫描单元220、逆量化单元230、逆变换单元240、帧内预测单元250、帧间预测单元260、后期处理单元270、图画存储单元280和加法器290。
熵解码单元210利用语境自适应二进制算术解码方法从接收的比特流提取帧内预测信息、帧间预测信息和量化系数分量。
逆扫描单元220向量化系数分量应用逆扫描模式以产生量化块。在帧间预测中,逆扫描模式为对角线扫描。量化系数分量包括显著标记、系数符号和系数级别。
在变换单元的大小大于预定大小时,利用对角线扫描以子集为单位逆扫描显著标记、系数符号和系数级别以产生子集,利用对角线扫描逆扫描子集以产生量化块。预定大小等于子集的大小。子集是包括16个变换系数的4×4块。沿相反方向逆扫描显著标记、系数符号和系数级别。也沿反向逆扫描子集。
从比特流提取指示非零系数位置和非零子集标志的参数。基于表示非零系数位置的参数确定编码子集的数量。使用非零子集判断对应的子集是否具有至少一个非零系数。如果非零子集标志等于1,利用对角线扫描产生子集。利用逆扫描模式产生第一个子集和最后一个子集。
逆量化单元230从熵解码单元210接收差分量化参数并产生量化参数预测器,以产生编码单元的量化参数。产生量化参数预测器的操作与图1的量化单元150操作相同。然后,通过将差分量化参数和量化参数预测器相加产生当前编码单元的量化参数。如果不从编码侧发送用于当前编码单元的差分量化参数,将差分量化参数设置为零。
逆量化单元230对量化块进行逆量化。
逆变换单元240对逆量化块进行逆变换以产生残余块。根据预测模式和变换单元的大小自适应地确定逆变换矩阵。逆变换矩阵是基于DCT的整数变换矩阵或基于DST的整数变换矩阵。在帧间预测中,使用基于DCT的整数变换。
帧内预测单元250利用接收的帧内预测信息导出当前预测单元的帧内预测模式,并根据导出的帧内预测模式产生预测块。
帧间预测单元260利用接收的帧间预测信息导出当前预测单元的运动信息,并利用运动信息产生预测块。
后期处理单元270与图1的后期处理单元180同样工作。
图画存储单元280从后期处理单元270接收经后期处理的图像并在图画单元中存储图像。图画可以是帧或字段。
加法器290将恢复的残余块和预测块相加以产生重构块。
图12是流程图,示出了根据本发明在帧间预测模式中对图像解码的方法。
导出当前块的运动信息(S310)。当前块是预测单元。由编码单元的大小和分割模式确定当前块的大小。
运动信息根据预测类型而变化。如果预测类型是单向预测,运动信息包括指定参考表0的图画的参考索引和运动矢量。如果预测类型是双向预测,运动信息包括指定参考表0的图画的参考索引、指定参考表1的图画的参考索引和表0运动矢量与表1运动矢量。
根据运动信息的编码模式对运动信息进行自适应解码。由跳越标记和合并标记确定运动信息的编码模式。如果跳越标记等于1,则不存在合并标记,编码模式为跳跃模式。如果跳越标记等于0且合并标记等于1,编码模式为合并模式。如果跳越标记和合并标志等于0,编码模式为AMVP模式。
利用运动信息产生当前块的预测块(S320)。
如果运动矢量表示出像素位置,则通过拷贝运动矢量指定的参考图画块来产生预测块。如果运动矢量表示出子像素位置,通过对参考图画的像素进行内插产生预测块。
产生残余块(S330)。由图11的熵解码单元210、逆扫描单元220、逆量化单元230和逆变换单元240产生残余块。
利用预测块和残余块产生重构块(S340)。
预测块具有与预测单元同样的大小,残余块具有与变换单元相同的大小。因此,将残余信号和同样大小的预测信号相加以产生重构信号。
图13是流程图,示出了在合并模式中导出运动信息的方法。
从比特流提取合并索引(S410)。如果不存在合并索引,将合并候选的数量设置为一。
导出空间合并候选(S420)。可用空间合并候选与图3的S210中所述相同。
导出时间合并候选(S430)。时间合并候选包括时间合并候选的参考图画索引和运动矢量。时间合并候选的参考索引和运动矢量与图3的S220中所述相同。
构造合并候选列表(S440)。合并列表与图3的S230中所述相同。
判断是否产生一个或多个合并候选(S450)。通过比较合并候选列表中列出的合并候选数量与预定的合并候选数量来进行判断。针对每个图画或切片确定预定数量。
如果合并候选列表中列出的合并候选数量小于预定的合并候选数量,产生一个或多个合并候选(S460)。在最后可用合并候选之后列出产生的合并候选。以与图3的S250所述相同的方法产生合并候选。
将合并索引指定的合并候选设置为当前块的运动信息(S470)。
图14是流程图,示出了根据本发明在帧间预测模式中产生残余块的流程。
由熵解码单元产生量化的系数分量(S510)。
通过根据对角线扫描逆扫描量化系数分量来产生量化块(S520)。量化系数分量包括显著标记、系数符号和系数级别。
在变换单元的大小大于预定大小时,利用对角线扫描以子集为单位逆扫描显著标记、系数符号和系数级别以产生子集,利用对角线扫描逆扫描子集以产生量化块。预定大小等于子集的大小。子集是包括16个变换系数的4×4块。沿相反方向逆扫描显著标记、系数符号和系数级别。也沿反向逆扫描子集。
从比特流提取指示非零系数位置和非零子集标志的参数。基于表示非零系数位置的参数确定编码子集的数量。使用非零子集标志判断子集是否具有至少一个非零系数。如果非零子集标志等于1,利用对角线扫描产生子集。利用逆扫描模式产生第一个子集和最后一个子集。
利用逆量化矩阵和量化参数对量化块进行逆量化(S530)。
图15是流程图,示出了根据本发明导出量化参数的方法。
确定量化单元的最小大小(S531)。从比特流提取指定最小大小的参数(cu_qp_delta_enabled_info)并通过以下方程确定量化单元的最小大小。
Log2(MinQUSize)=Log2(MaxCUSize)–cu_qp_delta_enabled_info
MinQUSize表示量化单元的最小大小,MaxCUSize表示LCU的大小。从图画参数集提取参数cu_qp_delta_enabled_info。
导出当前编码单元的差分量化参数(S532)。针对每个量化单元包括差分量化参数。因此,如果当前编码单元的大小等于或大于量化单元的最小大小,则为当前编码单元恢复差分量化参数。如果不存在差分量化参数,将差分量化参数设置为零。如果多个编码单元属于的量化单元,包含解码次序中至少一个非零系数的第一编码单元包含差分量化单元。
对编码的差分量化参数进行算术解码以产生表示差分量化参数的绝对值的容器串和表示差分量化参数符号的容器。容器串可以是截尾的一元码。如果差分量化参数的绝对值是零,则不存在表示符号的容器。利用表示绝对值的容器串和表示符号的容器导出差分量化参数。
导出当前编码单元的量化参数预测器(S533)。如下利用相邻编码单元的量化参数和先前编码单元的量化参数产生量化参数预测器。
按照所述次序顺序检索左量化参数、上量化参数和前量化参数。在有两个或更多量化参数时,将按照该次序检索的前两个可用量化参数的平均值设置为量化参数预测器,在仅有一个量化参数时,将可用的量化参数设置为量化参数预测器。亦即,如果有左和上量化参数,则将左和上量化参数的平均值设置为量化参数预测器。如果仅有左和上量化参数之一,将可用量化参数和前一量化参数的平均值设置为量化参数预测器。如果左和上量化参数都不可用,将前一量化参数设置为量化参数预测器。
如果多个编码单元属于最小大小的量化单元,则导出解码次序中第一编码单元的量化参数预测器并用于其他编码单元。
利用差分量化参数和量化参数预测器产生当前编码单元的量化参数(S534)。
通过对逆量化块进行逆变换来产生残余块(S540)。使用一维水平和垂直的基于DCT的逆变换。
尽管已经参考其某些示范性实施例示出并描述了本发明,但本领域的技术人员将理解,可以在其中做出各种形式和细节的改变而不脱离如所附权利要求界定的本发明精神和范围。

Claims (7)

1.一种在合并模式中对视频数据解码的方法,包括:
利用可用的空间和时间合并候选来构造合并列表;
将在所述合并列表上对应于合并索引的合并候选设置为当前预测单元的运动信息,其中,所述运动信息包括参考图画索引和运动矢量;
利用所述运动信息来产生所述当前预测单元的预测块;
通过对量化系数分量进行逆扫描来产生量化块,通过利用量化参数对所述量化块进行逆量化来产生变换块以及通过对所述变换块进行逆变换来产生残余块;以及
其中当所述当前预测单元是被不对称分割法所分割的第二预测单元时,不在所述合并列表上列出对应于被所述不对称分割法所分割的第一预测单元的所述空间合并候选;
利用差分量化参数和量化参数预测器针对每个量化单元导出所述量化参数,并且通过图画参数集来调节所述量化单元的最小大小。
2.根据权利要求1所述的方法,其中所述当前预测单元的参考图画索引和运动矢量是由合并索引指定的合并候选的参考图画索引和运动矢量。
3.根据权利要求1所述的方法,其中如果左量化参数、上量化参数以及前量化参数中的至少两个可用时,则所述量化参数预测器为按照预定次序确定的两个可用量化参数的平均值。
4.根据权利要求1所述的方法,其中将所述时间合并候选的参考图画索引设置为零。
5.根据权利要求1所述的方法,其中所述时间合并候选的运动矢量是时间合并候选图画之内的时间合并候选块的运动矢量,并且基于LCU之内的当前块的位置来确定所述时间合并候选块的位置。
6.根据权利要求5所述的方法,其中所述时间合并候选的所述运动矢量是运动矢量存储单元的对应于所述时间合并候选块的位置的运动矢量。
7.根据权利要求6所述的方法,其中所述运动矢量存储单元的大小是16×16。
CN201210441592.1A 2011-11-07 2012-11-07 导出运动信息的方法 Active CN103096071B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201810166637.6A CN108235009B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810166397.XA CN108282652B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168179.XA CN108777789B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168204.4A CN108282660B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168133.8A CN108282658B (zh) 2011-11-07 2012-11-07 导出运动信息的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0115220 2011-11-07
KR1020110115220A KR20130050407A (ko) 2011-11-07 2011-11-07 인터 모드에서의 움직임 정보 생성 방법

Related Child Applications (5)

Application Number Title Priority Date Filing Date
CN201810166637.6A Division CN108235009B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168133.8A Division CN108282658B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168204.4A Division CN108282660B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168179.XA Division CN108777789B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810166397.XA Division CN108282652B (zh) 2011-11-07 2012-11-07 导出运动信息的方法

Publications (2)

Publication Number Publication Date
CN103096071A CN103096071A (zh) 2013-05-08
CN103096071B true CN103096071B (zh) 2018-03-27

Family

ID=48208139

Family Applications (6)

Application Number Title Priority Date Filing Date
CN201210441592.1A Active CN103096071B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810166637.6A Active CN108235009B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168179.XA Active CN108777789B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810166397.XA Active CN108282652B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168133.8A Active CN108282658B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168204.4A Active CN108282660B (zh) 2011-11-07 2012-11-07 导出运动信息的方法

Family Applications After (5)

Application Number Title Priority Date Filing Date
CN201810166637.6A Active CN108235009B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168179.XA Active CN108777789B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810166397.XA Active CN108282652B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168133.8A Active CN108282658B (zh) 2011-11-07 2012-11-07 导出运动信息的方法
CN201810168204.4A Active CN108282660B (zh) 2011-11-07 2012-11-07 导出运动信息的方法

Country Status (18)

Country Link
US (8) US9288493B2 (zh)
EP (5) EP3432580A1 (zh)
JP (5) JP5837992B2 (zh)
KR (4) KR20130050407A (zh)
CN (6) CN103096071B (zh)
CY (1) CY1121058T1 (zh)
DK (2) DK2752005T3 (zh)
ES (3) ES2947709T3 (zh)
HR (1) HRP20182189T1 (zh)
HU (3) HUE062569T2 (zh)
IN (1) IN2014CN03910A (zh)
LT (1) LT2752005T (zh)
PL (3) PL3448034T3 (zh)
PT (2) PT3448034T (zh)
RS (1) RS58195B1 (zh)
SI (1) SI2752005T1 (zh)
TW (6) TWI542197B (zh)
WO (1) WO2013067939A1 (zh)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
MX355319B (es) * 2011-11-08 2018-04-16 Kt Corp Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción.
EP4009640A1 (en) 2011-11-08 2022-06-08 Electronics and Telecommunications Research Institute Method and device for sharing a candidate list
JP5900308B2 (ja) * 2011-12-16 2016-04-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
EP3703371B1 (en) 2011-12-16 2021-08-04 JVCKENWOOD Corporation Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
JP5561348B2 (ja) * 2011-12-16 2014-07-30 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
KR20150109282A (ko) 2014-03-19 2015-10-01 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
WO2016008157A1 (en) 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
US10469864B2 (en) * 2014-11-27 2019-11-05 Kt Corporation Method and apparatus for video signal coding using current picture reference flag
US9306597B1 (en) 2015-03-30 2016-04-05 Microsoft Technology Licensing, Llc Data compression
WO2017220163A1 (en) * 2016-06-24 2017-12-28 Huawei Technologies Co., Ltd. Devices and methods for video coding using segmentation based partitioning of video coding blocks
US11509930B2 (en) 2016-07-12 2022-11-22 Electronics And Telecommunications Research Institute Image encoding/decoding method and recording medium therefor
US11343530B2 (en) * 2016-11-28 2022-05-24 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium having bitstream stored thereon
US10484703B2 (en) 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
WO2019050115A1 (ko) * 2017-09-05 2019-03-14 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN111279695B (zh) * 2017-10-26 2024-03-29 韩国电子通信研究院 用于基于非对称子块的图像编码/解码的方法及装置
US10469869B1 (en) * 2018-06-01 2019-11-05 Tencent America LLC Method and apparatus for video coding
WO2019234578A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Asymmetric weighted bi-predictive merges
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
TWI744661B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 要根據模式檢查的查找表中的運動候選的數量
CN110662052B (zh) 2018-06-29 2022-07-08 北京字节跳动网络技术有限公司 更新查找表(lut)的条件
CN114885173A (zh) 2018-06-29 2022-08-09 抖音视界(北京)有限公司 Lut中的运动候选的检查顺序
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
TWI731358B (zh) 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 改進的時域運動向量預測推導
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN113163211B (zh) * 2018-06-30 2023-01-03 Oppo广东移动通信有限公司 基于合并模式的帧间预测方法及装置
TWI731364B (zh) 2018-07-02 2021-06-21 大陸商北京字節跳動網絡技術有限公司 Hmvp+非相鄰運動
US20200014931A1 (en) * 2018-07-06 2020-01-09 Mediatek Inc. Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems
KR20210115053A (ko) * 2018-07-27 2021-09-24 삼성전자주식회사 서브 블록 기반으로 영상을 복호화하는 방법 및 장치, 부호화 방법 및 장치
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
TWI729497B (zh) * 2018-09-17 2021-06-01 聯發科技股份有限公司 在視頻編解碼系統中組合多個預測子進行塊預測的方法和裝置
WO2020067679A1 (ko) * 2018-09-29 2020-04-02 엘지전자 주식회사 머지 후보 리스트를 구성하는 방법 및 장치
CN117156129A (zh) * 2018-10-23 2023-12-01 韦勒斯标准与技术协会公司 通过使用基于子块的运动补偿处理视频信号的方法和设备
CN111107356B (zh) 2018-10-27 2023-11-10 华为技术有限公司 图像预测方法及装置
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
CN111698506B (zh) * 2019-03-11 2022-04-26 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、三角预测解码方法及装置
EP4246977A3 (en) * 2019-03-12 2023-12-27 Beijing Dajia Internet Information Technology Co., Ltd. Video coding for geometric inter partition prediction
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
US20220385940A1 (en) * 2019-10-06 2022-12-01 Hyundai Motor Company Method and apparatus for encoding and decoding video using inter-prediction
JP7276099B2 (ja) 2019-11-26 2023-05-18 株式会社鶴見製作所 無閉塞ポンプ
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101946516A (zh) * 2008-02-22 2011-01-12 高通股份有限公司 快速宏块增量量化参数的决定

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69709835T2 (de) * 1996-05-28 2002-08-22 Matsushita Electric Ind Co Ltd Vorrichtung zur bildvorhersage und decodierung
SG89282A1 (en) * 1999-05-28 2002-06-18 Kent Ridge Digital Labs Motion information extraction system
JP3662171B2 (ja) * 2000-06-05 2005-06-22 三菱電機株式会社 符号化装置及び符号化方法
JP4810052B2 (ja) * 2000-06-15 2011-11-09 オートモーティブ システムズ ラボラトリー インコーポレーテッド 乗員センサ
DE60206738D1 (de) * 2002-06-11 2005-11-24 St Microelectronics Srl Videokodierungsverfahren und -Vorrichtung mit variabler Bitrate
JP4216796B2 (ja) 2004-12-15 2009-01-28 日本電信電話株式会社 動きベクトル探索方法,動きベクトル探索装置,動きベクトル探索プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20070025441A1 (en) * 2005-07-28 2007-02-01 Nokia Corporation Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding
JP5017825B2 (ja) * 2005-09-15 2012-09-05 ソニー株式会社 復号装置および復号方法
JP2009510558A (ja) * 2005-09-26 2009-03-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体又は人物の動きを追跡する方法及び装置
US7843995B2 (en) * 2005-12-19 2010-11-30 Seiko Epson Corporation Temporal and spatial analysis of a video macroblock
JPWO2007136088A1 (ja) * 2006-05-24 2009-10-01 パナソニック株式会社 画像符号化装置、画像符号化方法、及び画像符号化用集積回路
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
TWI330341B (en) * 2007-03-05 2010-09-11 Univ Nat Chiao Tung Video surveillance system hiding and video encoding method based on data
CN100493198C (zh) * 2007-05-31 2009-05-27 北京中星微电子有限公司 算术编码中的概率模型存储方法
US8331438B2 (en) * 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
US20090016631A1 (en) * 2007-07-10 2009-01-15 Texas Instruments Incorporated Video Coding Rate Control
TWI392372B (zh) * 2007-09-12 2013-04-01 Sony Corp Image processing apparatus and image processing method
CN101389031A (zh) * 2007-09-14 2009-03-18 浙江大学 一种对变换系数的处理方法及装置
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
CN101779467B (zh) * 2008-06-27 2012-06-27 索尼公司 图像处理装置和图像处理方法
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
US8588297B2 (en) * 2009-12-23 2013-11-19 Oracle America, Inc. Quantization parameter prediction
KR101768207B1 (ko) * 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
JP2011160359A (ja) * 2010-02-03 2011-08-18 Sharp Corp ブロックノイズ量予測装置、ブロックノイズ量予測方法、画像処理装置、プログラム、及び、記録媒体
US8929440B2 (en) * 2010-04-09 2015-01-06 Sony Corporation QP adaptive coefficients scanning and application
WO2011127963A1 (en) * 2010-04-13 2011-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sample region merging
HUE034476T2 (en) * 2010-04-23 2018-02-28 M&K Holdings Inc Equipment for image coding
CN101917615A (zh) * 2010-06-03 2010-12-15 北京邮电大学 一种混合视频编码框架中的增强型双向运动矢量预测方法
CN101888550A (zh) * 2010-06-28 2010-11-17 中兴通讯股份有限公司 一种slice头信息中量化参数编码方法和装置
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
CN102137258B (zh) * 2011-03-22 2013-04-24 宁波大学 一种立体视频码率控制方法
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
CN102186079A (zh) 2011-05-11 2011-09-14 北京航空航天大学 一种基于运动向量的h.264基本档次帧内模式选择方法
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
KR20130049525A (ko) 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
KR20130049523A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130050404A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 복원 블록 생성 방법
US8964845B2 (en) * 2011-12-28 2015-02-24 Microsoft Corporation Merge mode for motion information prediction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101946516A (zh) * 2008-02-22 2011-01-12 高通股份有限公司 快速宏块增量量化参数的决定

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CE2: Test results of asymmetric motion partition (AMP);Il-Koo Kim等;《Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG116th Meeting: Torino, 14-22 July, 2011 Document: JCTVC-F379》;20110722;第2,3,8节 *
CE4 Subtest 2: Delta QP prediction results of test 2.2.b and 2.3.f;Masaaki Kobayashi等;《Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Meeting: Torino, IT, 14-22 July, 2011 Document: JCTVC-F300》;20110722;第1节,附图2 *
HM3: High Efficiency Video Coding (HEVC) Test Model 3 Encoder Description;Ken McCann等;《Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG115th Meeting: Geneva, CH, 16-23 March, 2011 JCTVC-E602》;20110323;5.4.1、5.4.2、5.5、3.81、3.72节 *

Also Published As

Publication number Publication date
JP2014534759A (ja) 2014-12-18
CN108282652B (zh) 2022-02-11
JP6995910B2 (ja) 2022-01-17
EP3448034B1 (en) 2023-06-07
US20160173878A1 (en) 2016-06-16
US20160249051A1 (en) 2016-08-25
JP2017143543A (ja) 2017-08-17
TWI587688B (zh) 2017-06-11
CN108282660A (zh) 2018-07-13
US20160173873A1 (en) 2016-06-16
HUE062569T2 (hu) 2023-11-28
WO2013067939A1 (en) 2013-05-16
CN108282660B (zh) 2020-10-20
US20190335178A1 (en) 2019-10-31
LT2752005T (lt) 2018-12-10
PT2752005T (pt) 2019-02-13
TWI568244B (zh) 2017-01-21
HRP20182189T1 (hr) 2019-03-08
US9521414B2 (en) 2016-12-13
US9912949B2 (en) 2018-03-06
JP2019146193A (ja) 2019-08-29
KR20140062705A (ko) 2014-05-26
CN108235009B (zh) 2021-05-25
DK2752005T3 (en) 2019-02-18
PL3448034T3 (pl) 2023-10-30
PT3448034T (pt) 2023-08-17
PL3448033T3 (pl) 2021-01-11
ES2947709T3 (es) 2023-08-17
HUE049603T2 (hu) 2020-09-28
US9288493B2 (en) 2016-03-15
TW201630425A (zh) 2016-08-16
PL2752005T3 (pl) 2019-04-30
CN108777789B (zh) 2021-05-11
CN108235009A (zh) 2018-06-29
EP3432579A1 (en) 2019-01-23
JP2016015788A (ja) 2016-01-28
CN108282658B (zh) 2021-01-15
KR20140076584A (ko) 2014-06-20
TWI625053B (zh) 2018-05-21
SI2752005T1 (sl) 2019-01-31
US9516319B2 (en) 2016-12-06
CN108282652A (zh) 2018-07-13
US20160173877A1 (en) 2016-06-16
US20140269909A1 (en) 2014-09-18
JP6680925B2 (ja) 2020-04-15
TW201630421A (zh) 2016-08-16
US10116939B2 (en) 2018-10-30
US10931949B2 (en) 2021-02-23
US20190052879A1 (en) 2019-02-14
TWI581612B (zh) 2017-05-01
RS58195B1 (sr) 2019-03-29
EP3448033B1 (en) 2020-06-24
EP2752005B1 (en) 2018-11-07
KR101472973B1 (ko) 2014-12-19
DK3448034T3 (da) 2023-09-04
TWI542197B (zh) 2016-07-11
US10356409B2 (en) 2019-07-16
CN103096071A (zh) 2013-05-08
TW201728169A (zh) 2017-08-01
KR20130050407A (ko) 2013-05-16
CN108282658A (zh) 2018-07-13
EP3448034A1 (en) 2019-02-27
ES2807778T3 (es) 2021-02-24
TWI571110B (zh) 2017-02-11
JP6114362B2 (ja) 2017-04-12
EP3432580A1 (en) 2019-01-23
KR20140057667A (ko) 2014-05-13
JP6505763B2 (ja) 2019-04-24
IN2014CN03910A (zh) 2015-10-16
ES2705998T3 (es) 2019-03-27
EP2752005A4 (en) 2015-10-28
TW201630422A (zh) 2016-08-16
US20180199038A1 (en) 2018-07-12
JP5837992B2 (ja) 2015-12-24
EP2752005A1 (en) 2014-07-09
US9615097B2 (en) 2017-04-04
HUE042219T2 (hu) 2019-06-28
CY1121058T1 (el) 2019-12-11
TW201637441A (zh) 2016-10-16
TW201320767A (zh) 2013-05-16
JP2020102878A (ja) 2020-07-02
EP3448033A1 (en) 2019-02-27
CN108777789A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
CN103096071B (zh) 导出运动信息的方法
CN103096073B (zh) 构造合并列表的方法
CN103096072B (zh) 视频数据的解码方法
CN103152563B (zh) 视频数据的解码设备
CN103152562B (zh) 运动矢量的解码方法
CN104869402B (zh) 视频数据的解码方法
CN106878747A (zh) 用于编码运动图片的设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
ASS Succession or assignment of patent right

Owner name: GENNEP PTE. LTD.

Free format text: FORMER OWNER: WU XIUMEI

Effective date: 20130620

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20130620

Address after: Singapore

Applicant after: Genep PTE Co.,Ltd.

Address before: Gyeonggi Do, South Korea

Applicant before: Wu Xiumei

ASS Succession or assignment of patent right

Owner name: YINGFU BURUIZHI CO., LTD.

Free format text: FORMER OWNER: GENNEP PTE. LTD.

Effective date: 20131128

C41 Transfer of patent application or patent right or utility model
C53 Correction of patent of invention or patent application
CB03 Change of inventor or designer information

Inventor after: Wu Xiumei

Inventor after: Liang Wenyu

Inventor before: Wu Xiumei

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: WU XIUMEI TO: WU XIUMEI LIANG WENYU

TA01 Transfer of patent application right

Effective date of registration: 20131128

Address after: Singapore Singapore

Applicant after: INFOBRIDGE Pte. Ltd.

Address before: Singapore Singapore

Applicant before: Genep PTE Co.,Ltd.

C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221101

Address after: Seoul, South Kerean

Patentee after: Zhanshikewei Co.,Ltd.

Address before: Singapore

Patentee before: INFOBRIDGE Pte. Ltd.