CN113615192A - 访问仿射基于历史的运动矢量预测值缓冲器的方法 - Google Patents

访问仿射基于历史的运动矢量预测值缓冲器的方法 Download PDF

Info

Publication number
CN113615192A
CN113615192A CN202080018907.4A CN202080018907A CN113615192A CN 113615192 A CN113615192 A CN 113615192A CN 202080018907 A CN202080018907 A CN 202080018907A CN 113615192 A CN113615192 A CN 113615192A
Authority
CN
China
Prior art keywords
affine
prediction
mode
block
hmvp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080018907.4A
Other languages
English (en)
Other versions
CN113615192B (zh
Inventor
李贵春
许晓中
李翔
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN113615192A publication Critical patent/CN113615192A/zh
Application granted granted Critical
Publication of CN113615192B publication Critical patent/CN113615192B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

本公开的各方面提供视频编码/解码的方法和装置。在一些示例中,一种视频解码的装置包括处理电路。处理电路可以对作为已编码视频序列的一部分的当前图片中的当前块的预测信息进行解码。预测信息指示当前块的预测模式和仿射基于历史的运动矢量预测值(HMVP)缓冲器的访问顺序。处理电路根据访问顺序从仿射HMVP缓冲器构建包括仿射HMVP候选的运动矢量预测值(MVP)列表。处理电路可以基于MVP列表来重建当前块。

Description

访问仿射基于历史的运动矢量预测值缓冲器的方法
交叉引用
本申请要求于2020年3月12日提交的美国专利申请第16,817/245号,“访问仿射基于历史的运动矢量预测值缓冲器的方法(METHODS OF ACCESSING AFFINE HISTORY-BASEDMOTION VECTOR PREDICTOR BUFFER)”的优先权,该申请要求于2019年3月15日提交的美国临时申请第62/819,498号,“仿射HMVP缓冲器访问的方法(METHODS OF AFFINE HMVPBUFFER ACCESSING)”的优先权。这些先前申请的全部公开内容通过引用整体结合在本文中。
技术领域
本申请描述总体上涉及视频编解码的实施例。
背景技术
本文所提供的背景描述旨在整体呈现本申请的背景。在背景技术部分以及本说明书的各个方面中所描述的目前已署名的发明人的工作所进行的程度,并不表明其在本申请提交时作为现有技术,且从未明示或暗示其被承认为本申请的现有技术。
通过具有运动补偿的帧间图片预测技术,可以进行视频编码和解码。未压缩的数字视频可包括一系列图片,每个图片具有例如1920×1080亮度样本及相关色度样本的空间维度。所述系列图片具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60个图片或60Hz。未压缩的视频具有非常大的比特率要求。例如,每个样本8比特的1080p60 4:2:0的视频(1920x1080亮度样本分辨率,60Hz帧率)要求接近1.5Gbit/s 带宽。一小时这样的视频就需要超过600GB的存储空间。
视频编码和解码的一个目的,是通过压缩减少输入视频信号的冗余信息。视频压缩可以帮助降低对上述带宽或存储空间的要求,在某些情况下可降低两个或更多数量级。无损和有损压缩,以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视应用的用户,某些消费流媒体应用的用户可以容忍更高的失真。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
视频编码器和解码器可利用几大类技术,例如包括:运动补偿、变换、量化和熵编码。
视频编解码器技术可包括已知的帧内编码技术。在帧内编码中,在不参考先前重建的参考图片的样本或其它数据的情况下表示样本值。在一些视频编解码器中,图片在空间上被细分为样本块。当所有的样本块都以帧内模式编码时,该图片可以为帧内图片。帧内图片及其衍生(例如独立解码器刷新图片)可用于复位解码器状态,并且因此可用作编码视频比特流和视频会话中的第一图片,或用作静止图像。帧内块的样本可用于变换,且可在熵编码之前量化变换系数。帧内预测可以是使预变换域中的样本值最小化的技术。在某些情形下,变换后的DC值越小,且AC系数越小,则在给定的量化步长尺寸下需要越少的比特来表示熵编码之后的块。
如同从诸如MPEG-2代编码技术中所获知的,传统帧内编码不使用帧内预测。然而,一些较新的视频压缩技术包括:试图从例如周围样本数据和/或元数据中得到数据块的技术,其中周围样本数据和/或元数据是在空间相邻的编码/解码期间、且在解码顺序之前获得的。这种技术后来被称为"帧内预测"技术。需要注意的是,至少在某些情形下,帧内预测仅使用正在重建的当前图片的参考数据,而不使用参考图片的参考数据。
可以存在许多不同形式的帧内预测。当在给定的视频编码技术中可以使用超过一种这样的技术时,所使用的技术可以按帧内预测模式进行编码。在某些情形下,模式可具有子模式和/或参数,且这些模式可单独编码或包含在模式码字中。将哪个码字用于给定模式/子模式/参数组合会通过帧内预测影响编码效率增益,因此用于将码字转换成比特流的熵编码技术也会出现这种情况。
H.264引入了一种帧内预测模式,其在H.265中进行了改进,且在诸如被称为JEM(joint exploration model)/VVC(versatile video coding)/BMS(benchmark set)的更新的编码技术中进一步被改进。通过使用属于已经可用的样本的相邻样本值可以形成预测块。将相邻样本的样本值按照某一方向复制到预测块中。对所使用方向的引用可以被编码在比特流中,或者本身可以被预测。
参照图1A,右下方描绘了来自H.265的33个可能的预测方向(对应于35个帧内模式的33个角度模式)中已知的九个预测方向的子集。箭头会聚的点(101)表示正在被预测的样本。箭头表示样本正在被预测的方向。例如,箭头(102)表示根据右上方与水平方向成45度角的一个或多个样本,预测样本(101)。类似地,箭头(103) 表示根据左下方与水平方向成22.5度角的一个或多个样本,预测样本(101)。
仍然参考图1A,在左上方示出了一个包括4×4个样本的正方形块(104)(由粗虚线表示)。正方形块(104)包括16个样本,每个样本用“S”、以及其在X维度上的位置(例如列索引)和在Y纬度上的位置(例如行索引)来标记。例如,样本S21是Y 维度上的第二个样本(从顶部开始)和X维度上的第一个(最左侧)样本。类似地,样本S44在X维度和Y维度上都是块(104)中的第四个样本。由于该块为4×4大小的样本,因此S44位于右下角。还示出了遵循类似编号方案的参考样本。参考样本用 "R"、以及其相对于块(104)的X位置(列索引)和Y位置(行索引)来标记。在 H.264与H.265中,预测样本与正在重建的块相邻,因此不需要使用负值。
通过从信号通知的预测方向所占用的相邻样本来复制参考样本值,可以进行帧内图片预测。例如,假设编码视频比特流包括信令,对于该块,该信令指示与箭头(102) 一致的预测方向,即,根据右上方与水平方向成45度角的一个或多个预测样本来预测样本。在这种情况下,根据同一参考样本R05,预测样本S41、S32、S23和S14。根据参考样本R08,预测样本S44。
在某些情况下,例如通过内插,可以合并多个参考样本的值,以便计算参考样本,尤其是当方向不能被45度整除时。
随着视频编码技术的发展,可能的方向的数量已经增加了。在H.264(2003年) 中,可以表示九种不同的方向。在H.265(2013年)和JEM/VVC/BMS中增加到了 33个,而在此申请时,可以支持多达65个方向。已经进行了实验来识别最可能的方向,并且熵编码中的某些技术被用于使用少量比特来表示那些可能的方向,对于较不可能的方向则接受某些代价。此外,有时可以根据在相邻的、已经解码的块中所使用的相邻方向来预测方向本身。
如图1B示出了示意图(105),其描绘了根据JEM的65个帧内预测方向,以示出随着时间的过去预测方向的数量增加。
表示方向的编码视频比特流中的帧内预测方向比特的映射可以因视频编码技术的不同而不同,并且,例如可以从对帧内预测模式到码字的预测方向的简单直接映射,到包括最可能的模式和类似技术的复杂的自适应方案。然而,在所有情况下,视频内容中可能存在某些方向,其在统计学上比其它方向更不可能出现。由于视频压缩的目的是减少冗余,所以在运行良好的视频编码技术中,与更可能的方向相比,那些不太可能的方向将使用更多数量的比特来表示。
运动补偿可以是一种有损压缩技术,且可涉及如下技术:来自先前重建的图片或重建图片一部分(参考图片)的样本数据块在空间上按运动矢量(下文称为MV)指示的方向移位后,用于新重建的图片或图片部分的预测。在某些情况下,参考图片可与当前正在重建的图片相同。MV可具有两个维度X和Y,或者三个维度,其中第三个维度表示使用中的参考图片(后者间接地可为时间维度)。
在一些视频压缩技术中,应用于某个样本数据区域的MV可根据其它MV来预测,例如根据与正在重建的区域空间相邻的另一个样本数据区域相关的、且按解码顺序在该MV前面的那些MV。这样做可以大大减少编码MV所需的数据量,从而消除冗余信息并增加压缩量。MV预测可以有效地进行,例如,当对从相机导出的输入视频信号(称为自然视频)进行编码时,存在一种统计上的可能性,即面积大于单个MV适用区域的区域,会朝着类似的方向移动,因此,在某些情况下,可以用邻近区域的 MV导出的相似运动矢量进行预测。这导致针对给定区域发现的MV与根据周围MV 预测的MV相似或相同,并且在熵编码之后,又可以用比直接编码MV时使用的比特数更少的比特数来表示。在某些情况下,MV预测可以是对从原始信号(即样本流) 导出的信号(即MV)进行无损压缩的示例。在其它情况下,MV预测本身可能是有损的,例如由于根据几个周围MV计算预测值时产生的取整误差。
H.265/HEVC(ITU-T Rec.H.265,“高效视频编码”,2016年12月)描述了各种 MV预测机制。在H.265所提供的多种MV预测机制中,本文描述了高级运动矢量预测(AMVP,advanced motion vector prediction)模式和合并模式。
在AMVP模式中,当前块的空间和时间相邻块的运动信息可以用于预测当前块的运动信息,同时对预测残差进一步编码。空间和时间相邻候选的示例分别在图1C和图1D中示出。形成两候选运动矢量预测值列表。第一候选预测值来自当前块(111) 的左下角处的两个块A0(112)、A1(113)的第一可用运动矢量,如图1C所示。第二候选预测值来自当前块(111)上方的三个块B0(114)、B1(115)和B2(116)的第一可用运动矢量。如果不能从所检查的位置找到有效的运动矢量,则列表中将没有候选。如果两个可用候选具有相同的运动信息,则在列表中仅保留一个候选。如果该列表不是满的,即,该列表不具有两个不同的候选,则来自C0(122)的时间同位运动矢量(co-located motion vector)(在缩放之后)将被用作另一候选,所述C0(122)位于参考图片中的同位块(co-located block)(121)的右下角处,如图1D所示。如果C0 (122)位置处的运动信息不可用,则将替代地使用参考图片中的同位块的中心位置 C1(123)。在上面的推导中,如果仍然没有足够的运动矢量预测值候选,则将使用零运动矢量来填充列表。在码流中用信号通知两个标志mvp_l0_flag和mvp_l1_flag以分别指示MV候选列表L0和L1的AMVP索引(0或1)。
在用于帧间预测的合并模式中,如果发信号通知合并标志(包括跳过标志)为真,则用信号通知合并索引以指示合并候选列表中的哪个候选将被用于指示当前块的运动矢量。在解码器处,合并候选列表是基于当前块的空间的和时间的相邻块 (neighbors)来构建的。如图1C所示,从五个空间相邻块(A0至B2)导出的多达四个 MV被添加到合并候选列表中。另外,如图1D所示,来自参考图片中的两个时间同位块(C0和C1)的多达一个MV被添加到所述列表。附加的合并候选包括组合的双向预测候选和零运动矢量候选。在将块的运动信息作为合并候选之前,执行冗余检查以检查其是否与当前合并候选列表中的元素相同。如果它不同于当前合并候选列表中的每个元素,则它将作为合并候选添加到合并候选列表。MaxMergeCandsNum被定义为以候选数目计的合并候选列表的大小。在HEVC中,在码流中用信号通知 MaxMergeCandsNum。可以将跳过模式认为是具有零残差的特殊合并模式。
发明内容
本公开的各方面提供一种视频编码/解码的方法和装置。在一些示例中,视频解码装置包括处理电路。
在一些示例性实施例中,提供一种在解码器中进行视频解码的方法,该方法中,处理电路可以对作为已编码视频序列的一部分的当前图片中的当前块的预测信息进行解码。预测信息指示当前块的预测模式和仿射基于历史的运动矢量预测值(HMVP) 缓冲器的访问顺序。处理电路根据访问顺序从仿射HMVP缓冲器构建包括仿射HMVP 候选的运动矢量预测值(MVP)列表。处理电路可以基于MVP列表来重建当前块。
在一些实施例中,当所述预测模式为仿射合并模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为最近添加的条目。更进一步,当所述预测模式为所述仿射合并模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为最早添加的条目。
在一些实施例中,当所述预测模式为仿射高级运动矢量预测AMVP模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为所述最近添加的条目。当所述预测模式为所述仿射AMVP模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为所述最早添加的条目。
在一些实施例中,所述仿射合并模式的所述访问顺序与所述仿射AMVP模式的所述访问顺序是不同的。
在一些示例性实施例中,所述访问顺序包括在所述预测信息中。在一些示例中,发信号通知的访问顺序应用于所述仿射合并模式和所述仿射AMVP模式两者。在另一些示例中,所述仿射合并模式的所述访问顺序和所述仿射AMVP模式的所述访问顺序单独包括在所述预测信息中。
本公开的各方面提供用于执行视频解码方法中的任意一个或组合的装置。在一些实施例中,该装置包括处理电路用于对作为已编码视频序列的一部分的当前图片中的当前块的预测信息进行解码。预测信息指示当前块的预测模式和仿射基于历史的运动矢量预测值(HMVP)缓冲器的访问顺序。处理电路根据访问顺序从仿射HMVP缓冲器构建包括仿射HMVP候选的运动矢量预测值(MVP)列表。处理电路可以基于MVP 列表来重建当前块。
本公开的各方面提供一种存储程序的非易失性计算机可读存储介质,所述程序由用于视频解码的计算机执行时,可以使该计算机执行视频解码方法中的任意一个或组合。
附图说明
通过以下详细描述和附图,所公开的主题的其它特征、性质及各种优点将更加明显,其中:
图1A是帧内预测模式的示例性子集的示意图。
图1B是示例性帧内预测方向的图示。
图1C是示例性当前块以及其周围空间合并候选的示意图。
图1D是示例性同位块和时间合并候选的示意图。
图2是根据实施例的通信系统的简化框图的示意图。
图3是根据实施例的通信系统的简化框图的示意图。
图4是根据实施例的解码器的简化框图的示意图。
图5是根据实施例的编码器的简化框图的示意图。
图6示出了根据另一实施例的编码器的框图。
图7示出了根据另一实施例的解码器的框图。
图8是根据实施例的合并模式的合并候选位置的示意图。
图9是根据实施例的当前块的空间相邻块和时间相邻块的示意图。
图10A是根据一个实施例的可用于通过使用基于子块的时间运动矢量预测方法来确定当前块的预测运动信息的空间相邻块的示意图。
图10B是根据一个实施例的为基于子块的时间运动矢量预测方法所选择的空间相邻块的示意图。
图11A是概述根据一个实施例的使用基于历史的运动矢量预测方法构建和更新运动信息候选列表的过程的流程图。
图11B是根据一个实施例的使用基于历史的运动矢量预测方法更新运动信息候选列表的示意图。
图12是根据一个实施例的在具有运动矢量差的合并模式(MMVD,merge withmotion vector difference mode)中,基于合并候选者的运动矢量确定与两个参考图片列表相关联的两个参考图片处的起始点的示意图。
图13是根据一个实施例的在MMVD模式下要评估的两个起点周围的预定点的示意图。
图14示出了当前编码树单元(CTU,coding tree unit)行和当前CTU行顶部的上方CTU行。
图15示出了来自上方CTU行缓冲区的仿射继承的示例。
图16示出了概述根据本公开的实施例的示例性方法的流程图。
图17是根据实施例的计算机系统的示意图。
具体实施方式
I.视频编解码的编码器和解码器
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200) 包括多个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的第一对终端装置(210)和终端装置 (220)。在图2的实施例中,终端装置(210)和终端装置(220)执行单向数据传输。举例来说,终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到另一终端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。终端装置(220)可从网络 (250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的第二对终端装置(230)和(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,终端装置(230)和终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码以通过网络(250)传输到终端装置(230)和终端装置(240)中的另一终端装置。终端装置(230)和终端装置(240)中的每个终端装置还可接收由终端装置(230)和终端装置(240) 中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,终端装置(210)、终端装置(220)、终端装置(230) 和终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/ 或专用视频会议设备。网络(250)表示在终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/ 或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本论述的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304) (或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320) 包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器 (310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流) 进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330) 还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410) 可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号 (421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/ 熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457) 以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453) 从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder, HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器 (410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器 (503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520) 的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、 12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP) 布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器 (545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503) 的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550) 可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16 个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/ 空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测 (常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64 像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或 16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器 (603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真 (rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626) 以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器 (624)用于将残差数据从时域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器 (710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式 (例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503) 和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器 (710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410) 和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
II.帧间预测模式
在各种实施例中,例如可以使用基于树结构的分区方案将图片分区成块。然后可以用不同的处理模式(诸如帧内预测模式、帧间预测模式(例如合并模式、跳过模式、高级运动矢量预测(AMVP,advanced motion vector prediction)模式) 等)来处理所得到的块。帧内编码块可以是用帧内预测模式编码的块。类似地,帧间编码块可以是用帧间预测模式处理的块。
1.常规合并模式
当用合并模式处理称为当前块的当前处理的块时,可以从当前块的空间或时间邻域(neighborhood)中选择相邻块。通过共享来自所选择的相邻块的同一运动数据(或称为运动信息)集,可以将当前块与所选择的相邻块合并。此合并模式操作可以在一组相邻块上执行,使得相邻块的区域可以合并在一起且共享同一运动数据集。在从编码器传输到解码器期间,可以为当前块传输用于指示所选择的相邻块的运动数据的索引,而不是传输整个运动数据集。这样,可以减少用于传输运动信息的数据量(比特),并且可以提高编解码效率。
在上述示例中,可以从候选位置集中选择提供运动数据的相邻块。针对当前块预定义候选位置。例如,候选位置可以包括空间候选位置和时间候选位置。每个空间候选位置与跟当前块相邻的空间相邻块相关联。每个时间候选位置与时间相邻块相关联,所述时间相邻块位于作为先前编码图片的参考图片中。与候选位置重叠的相邻块(称为候选块)是当前块的所有空间或时间相邻块的子集。以此方式,可以评估候选块以选择待合并的块而非整个相邻块集。
图8示出了候选位置的示例。从这些候选位置,可以选择合并候选集来构建当前图片(830)中的当前块(810)的合并候选列表。用合并模式处理当前块(810)。为合并模式处理预定义候选位置集{A1,B1,B0,A0,B2,C0,C1}。具体地,候选位置{A1,B1,B0,A0,B2}是表示候选块的位置的空间候选位置,所述候选块与当前块(810)在相同的图片中。候选位置{C0,C1}是表示候选块的位置的时间候选位置,所述候选块在参考图片(840)中并与当前图片(810)的同位块 (co-located block)(820)相邻或重叠。如图8所示,候选位置C0可以位于同位块(820)的右下角附近,候选位置C1可以位于同位块(820)的中心附近。
在不同示例中,候选位置可以由样本块或样本来表示。在图8中,每个候选位置由例如具有4×4样本大小的样本块表示。对应于候选位置的这样的样本块的大小可以等于或小于PB的最小允许大小(例如,4×4样本),该PB的最小允许大小是为基于树的分区方案而定义的,所述基于树的分区方案用于生成当前块 (810)。在这种配置下,对应于候选位置的块可以总是覆盖在单个相邻PB内。在可选示例中,样本位置(例如,块A1内的右下样本或块A0内的右上样本)可以用于表示候选位置。这样的样本可以称为代表性样本,而这样的位置可以称为代表性位置。
在一个示例中,基于图8中定义的候选位置{A1,B1,B0,A0,B2,C0,C1},可以执行合并模式过程以从候选位置{A1,B1,B0,A0,B2,C0,C1}中选择合并候选来构建候选列表。候选列表可以具有预定义的合并候选的最大数目,表示为Cm。候选列表中的每个合并候选可以包括用于运动补偿预测的运动数据集。
可以按照特定顺序在候选列表中列出合并候选。例如,根据如何导出合并候选,不同的合并候选可以具有不同的被选择概率。具有较高被选择概率的合并候选位于具有较低被选择概率的合并候选之前。基于这样的顺序,每个合并候选与索引(称为合并索引)相关联。在一个实施例中,具有较高被选择概率的合并候选将具有较小的索引值,使得需要较少的比特来对相应的索引进行编码。
在一个示例中,合并候选的运动数据可以包括:一个或两个运动矢量的水平和垂直运动矢量位移值(displacement value);与该一个或两个运动矢量相关联的一个或两个参考图片索引;以及任选地,哪个参考图片列表与参考图片索引相关联的标识。
在示例中,根据预定义顺序,根据顺序{A1,B1,B0,A0,B2}从空间候选位置导出合并候选的第一数目Ca,并且根据顺序{C0,C1}从时间候选位置导出合并候选的第二数目Cb=Cm-Ca。用于表示候选位置的数字A1、B1、B0、A0、B2、 C0和C1也可以表示合并候选。例如,从候选位置A1获得的合并候选称为合并候选A1。
在一些场景中,候选位置处的合并候选可能不可用。例如,可以对候选位置处的候选块进行帧内预测,在包括当前块(810)的条带(slice)或图块(tile)之外,或者不在与当前块(810)相同的编解码树块(CTB,coding tree block)行中。在一些场景中,候选位置处的合并候选可以是冗余的。例如,当前块(810)的一个相邻块可以重叠两个候选位置。可以从候选列表中移除冗余合并候选(例如,通过执行修剪过程)。当候选列表中的可用合并候选(移除了冗余候选)的总数小于合并候选的最大数目Cm时,可以生成附加合并候选(例如,根据预先配置的规则)以填充候选列表,使得候选列表可以维持有固定长度。例如,附加合并候选可以包括组合的双向预测候选和零运动矢量候选。
在构建候选列表之后,在编码器处,可以执行评估过程以从候选列表中选择合并候选。例如,可以计算对应于每个合并候选的率失真(RD,Rate-Distortion) 性能,并且可以选择具有最佳RD性能的一个。因此,可以为当前块(810)确定与所选择的合并候选相关联的合并索引,并将其发信号通知到解码器。
在解码器处,可以接收当前块(810)的合并索引。,可执行如上所述的类似候选列表构建过程以生成与在编码器侧生成的候选列表相同的候选列表。在构建候选列表之后,在一些示例中,可以基于所接收的合并索引,从候选列表中选择合并候选,而无需执行任何进一步的评估。所选合并候选的运动数据可以用于当前块(810)的后续运动补偿预测。
在一些示例中还引入了跳过模式。举例来说,在跳过模式中,可以使用上文所描述的合并模式来预测当前块以确定运动数据集,然而,不产生残余且不传输变换系数。跳过标志可以与当前块相关联。可以将跳过标志和指示当前块的相关的运动信息的合并索引发信号通知给视频解码器。举例来说,在帧间预测条带中的CU的开始处,可以发信号通知跳过标志,其暗示如下:CU仅包含一个PU(2N ×2N);合并模式用于导出运动数据;以及在码流中不存在残余数据。在解码器侧处,基于跳过标志,可以基于解码相应的当前块的合并索引来确定预测块,而无需添加残差信息。因此,可以结合跳过模式来利用本文所公开的用于合并模式下的视频编解码的各种方法。
作为示例,在实施例中,当在码流中发信号通知合并标志或跳过标志为真时,则发信号通知合并索引以指示合并候选列表中的哪个候选将被用于提供当前块的运动矢量。可以将多达四个空间上相邻的运动矢量和多达一个时间上相邻的运动矢量添加到合并候选列表。语法MaxMergeCandsNum被定义为合并候选列表的大小。可以在码流中发信号通知语法MaxMergeVandsNum。
2.仿射合并(Affine Merge)模式
图9是根据实施例的当前块(或称为编解码单元(CU))(901)的空间相邻块和时间相邻块的示意图。如图9所示,空间相邻块表示为A0、A1、A2、B0、 B1、B2和B3(分别为902、903、907、904、905、906和908),并且时间相邻块表示为C0(912)。在一些示例中,空间相邻块A0、A1、A2、B0、B1、B2、 B3以及当前块(901)属于同一图片。在一些示例中,时间相邻块C0属于参考图片,并且对应于当前块(901)的同位块之外的位置,并且近邻该同位块的右下角。
在一些示例中,可以使用仿射模型(例如,6参数仿射模型或4参数仿射模型) 来导出当前块(901)和/或当前块的子块的运动矢量。在一些示例中,仿射模型具有6个参数(例如,6参数仿射模型)以描述块的运动矢量。在示例中,仿射编码块的6个参数可以由块的三个不同位置(例如,图9中左上角、右上角及左下角处的控制点CP0、CP1及CP2)处的三个运动矢量(也称为三个控制点运动矢量 (CPMV,control point motion vector))来表示。在另一示例中,简化仿射模型使用四个参数来描述仿射编码块的运动信息,该四个参数可以由块的两个不同位置 (例如,图9中左上角和右上角处的控制点CP0和CP1)处的两个运动矢量(也称为两个CPMV)来表示。
可以基于空间相邻块和/或时间相邻块中的至少一个的运动信息,使用仿射合并模式来构建运动信息候选列表(也称为仿射合并候选列表)。在一些示例中,当当前块(901)具有等于或大于8个样本的宽度和高度时,可以应用仿射合并模式。根据仿射合并模式,可以基于列表上的运动信息候选来确定当前块(901)的 CPMV。在一些示例中,运动信息候选列表可以包括多达五个CPMV候选,并且可以发信号通知索引以指示哪一CPMV候选将用于当前块。
在一些实施例中,仿射合并候选列表可以具有三种类型的CPMV候选,包括继承的仿射候选、构建的仿射候选和零MV。可以通过从相邻块的CPMV外推来导出继承的仿射候选。可以使用相邻块的平移MV来导出构建的仿射候选。
在示例中,可以存在至多两个继承的仿射候选,所述继承的仿射候选可以从相邻块的对应仿射运动模型导出,包括来自左相邻块(A0和A1)的一个块和来自上相邻块(B0、B1和B2)的一个块。对于来自左边的候选,可以依序检查相邻块A0和A1,并且来自相邻块A0和A1的第一可用继承的仿射候选用作来自左边的继承的仿射候选。对于来自顶部的候选,可以依序检查相邻块B0、B1和B2,并且来自相邻块B0、B1和B2的第一可用继承的仿射候选用作来自顶部的继承的仿射候选。在一些示例中,在两个继承的仿射候选之间不执行修剪检查。
当相邻仿射块被识别时,可从该相邻仿射块的CPMV导出待添加到当前块 (901)的仿射合并列表的对应继承的仿射候选。在图9的示例中,如果以仿射模式对相邻块A1进行编码,则可以获得块A1的左上角(控制点CP0A1)、右上角 (控制点CP1A1)和左下角(控制点CP2A1)的运动矢量。当使用4参数仿射模型对块A1进行编码时,可以根据控制点CP0A1和控制点CP1A1的运动矢量来计算作为当前块(901)的继承的仿射候选的两个CPMV。当使用6参数仿射模型对块 A1进行编码时,可以根据控制点CP0A1、控制点CP1A1和控制点CP2A1的运动矢量来计算作为当前块(901)的继承的仿射候选的三个CPMV。
此外,构建的仿射候选可以通过组合每个控制点的相邻平移运动信息来导出。控制点CP0、CP1和CP2的运动信息是从指定的空间相邻块A0、A1、A2、B0、 B1、B2和B3导出的。
例如,CPMVk(k=1,2,3,4)表示第k个控制点的运动矢量,其中CPMV1对应于控制点CP0,CPMV2对应于控制点CP1,CPMV3对应于控制点CP2,并且 CPMV4对应于基于时间相邻块C0的时间控制点。对于CPMV1,可以依序检查相邻块B2、B3和A2,并且来自相邻块B2、B3和A2的第一可用运动矢量被用作 CPMV1。对于CPMV2,可以依序检查相邻块B1和B0,并且来自相邻块B1和B0 的第一可用运动矢量被用作CPMV2。对于CPMV3,可以依序检查相邻块A1和 A0,并且来自相邻块A1和A0的第一可用运动矢量被用作CPMV3。此外,如果可用,时间相邻块C0的运动矢量可以用作CPMV4
在获得四个控制点CP0、CP1、CP2和时间控制点的CPMV1、CPMV2、CPMV3和CPMV4之后,可以构建仿射合并候选列表以包括按照以下顺序构建的仿射合并候选: {CPMV1,CPMV2,CPMV3},{CPMV1,CPMV2,CPMV4},{CPMV1,CPMV3,CPMV4},{CP MV2,CPMV3,CPMV4},{CPMV1,CPMV2},以及{CPMV1,CPMV3}。三个CPMV的任何组合可以形成6参数仿射合并候选,并且两个CPMV的任何组合可以构建4参数仿射合并候选。在一些实施例中,为了避免运动缩放过程,如果一组控制点的参考索引不同,则可以丢弃对应的CPMV组合。
3.基于子块的时间运动矢量预测(SbTMVP,Subblock-Based Temporal MotionVector Prediction)模式
图10A是根据一个实施例的空间相邻块的示意图,该空间相邻块可以用于根据空间相邻块的运动信息使用基于子块的时间MV预测(SbTMVP)方法来确定当前块(1011)的预测运动信息。图10A示出了当前块(1011)及其空间相邻块,所述空间相邻块表示为A0、A1、B0和B1(分别为1012、1013、1014和1015)。在一些示例中,空间相邻块A0、A1、B0和B1以及当前块(1011)属于同一图片。
图10B是根据实施例的基于所选空间相邻块(例如此非限制性示例中的块A1) 使用SbTMVP方法来确定当前块(1011)的子块的运动信息的示意图。在该示例中,当前块(1011)在当前图片(1010)中,并且参考块(1061)在参考图片(1060) 中并且可以基于由运动矢量(1022)指示的当前块(1011)和参考块(1061)之间的运动移位(shift)(或位移(displacement))来标识。
在一些实施例中,类似于HEVC中的时间运动矢量预测(TMVP,Temporal MotionVector Prediction),SbTMVP使用当前图片中的当前块的参考图片中的各种参考子块中的运动信息。在一些实施例中,由TMVP使用的同一参考图片可以用于SbTMVP。在一些实施例中,TMVP预测CU级的运动信息,而SbTMVP预测子CU级的运动信息。在一些实施例中,TMVP使用来自参考图片中的同位块的时间运动矢量,该同位块具有与当前块的右下角或中心邻近的对应位置,并且 SbTMVP使用来自参考块的时间运动矢量,基于来自当前块的空间相邻块之一的运动矢量,该参考块可以通过执行运动移位来标识。
例如,如图10A所示,可以在SbTMVP过程中按顺序检查相邻块A1、B1、 B0和A0。一旦具有运动矢量的第一空间相邻块被识别,所述运动矢量使用参考图片(1060)作为其参考图片,例如具有指向参考图片(1060)中的参考块AR1(1062) 的运动矢量(1022)的块A1(1013),该运动矢量(1022)就可以用于执行运动移位。如果从空间相邻块A1、B1、B0和A0中没有这样的运动矢量可用,则将运动移位设置为(0,0)。
在确定了运动移位之后,可以基于当前块(1011)的位置和所确定的运动移位来识别参考块(1061)。在图10B中,参考块(1061)可以被进一步划分为具有参考运动信息MRa到MRp的16个子块。在一些示例中,可以基于覆盖这样的子块的中心样本的最小运动网格来确定参考块(1061)中的每个子块的参考运动信息。运动信息可以包括运动矢量和对应的参考索引。当前块(1011)可以被进一步划分为16个子块,并且当前块(1011)中的子块的运动信息MVa到MVp可以从参考运动信息MRa到MRp以类似于TMVP过程的方式导出,在一些示例中具有时间缩放。
在SbTMVP过程中使用的子块大小可以是固定的(或者预定义的)或者发信号通知的。在一些示例中,SbTMVP过程中使用的子块大小可以是8×8样本。在一些示例中,SbTMVP过程仅适用于宽度和高度等于或大于固定的或发信号通知的大小(例如8个像素)的块。
在示例中,组合的基于子块的合并列表被用于基于子块的合并模式的信令,所述基于子块的合并列表包含SbTMVP候选和仿射合并候选。可以通过序列参数集(SPS,Sequence Parameter Set)标志来启用或禁用SbTMVP模式。在一些示例中,如果SbTMVP模式被启用,那么将SbTMVP候选添加为基于子块的合并列表的第一条目,并且随后为仿射合并候选。在一些实施例中,基于子块的合并列表的最大允许大小被设置为五。然而,在其它实施例中可以使用其它大小。
在一些实施例中,附加SbTMVP合并候选的编码逻辑与其它合并候选相同。即,对于P或B条带中的每个块,可以执行附加的率失真检查以确定是否使用 SbTMVP候选。
4.基于历史的运动矢量预测(HMVP,History-Based Motion Vector Prediction)模式
图11A是概述根据一个实施例的使用基于历史的MV预测(HMVP)方法来构建和更新运动信息候选的列表的方法(1100)的流程图。
在一些实施例中,可以在编码或解码过程期间,构建和更新使用HMVP方法的运动信息候选的列表。该列表可以称为历史列表。历史列表可以以HMVP表或 HMVP缓冲器的形式存储。当新条带开始时,可以清空历史列表。在一些实施例中,只要存在刚刚被编码或解码的帧间编码的非仿射块,就可以将相关联的运动信息添加到所述历史列表的最后条目作为新的HMVP候选。因此,在处理(对其进行编码或解码)当前块之前,可以加载具有HMVP候选的历史列表(S1112)。可以使用历史列表中的HMVP候选对当前块进行编码或解码(S1114)。然后,可以使用对当前块进行编码或解码的运动信息来更新历史列表(S1116)。
图11B是根据一个实施例的使用基于历史的MV预测方法来更新运动信息候选的列表的示意图。图11B示出了大小为L的历史列表,其中列表中的每个候选可以用范围从0到L-1的索引来标识。l是等于或大于0的整数。在对当前块进行编码或解码之前,历史列表(1120)包括L个候选HMVP0、HMVP1、 HMVP2。..HMVPm,...,HMVPL-2和HMVPL-1,其中m是范围从0到L的整数。在对当前块进行编码或解码之后,将新条目HMVPC添加到历史列表中。
在示例中,历史列表的大小可以被设置为6,这指示可以将多达6个HMVP 候选添加到历史列表。当将新的运动候选(例如,HMVPC)插入到历史列表中时,可以利用受约束的先进先出(FIFO)规则,其中,首先应用冗余检查来发现在历史列表中是否存在冗余HMVP。当未发现冗余HMVP时,从列表中移除第一HMVP 候选(图11B示例中的HMVP1,索引=0),并且然后所有其它HMVP候选都向前移动,例如将索引减小1。新的HMVPC候选可以被添加到列表的最后条目(例如,图11B中索引=L-1),如结果列表(1130)中所示。另一方面,如果找到冗余HMVP(例如图11B示例中的HMVP2),则从列表中移除历史列表中的冗余 HMVP,并且然后所有HMVP候选都向前移动,例如将索引减少1。新的HMVPC候选可以被添加到列表的最后条目(例如,图11B中索引=L-1),如结果列表(1140) 中所示。
在一些示例中,HMVP候选可以用于合并候选列表的构建过程。例如,可以按顺序检查列表中的最新HMVP候选,并将其插入到候选列表中TMVP候选之后。在一些实施例中,可以针对空间或时间合并候选而非针对子块运动候选(即, SbTMVP候选),在HMVP候选上应用修剪。
在一些实施例中,为了减少修剪操作的次数,可以遵循以下规则中的至少一个:
(a)由M表示的待检查的HMVP候选的数目被设置如下:
M=(N<=4)?L:(8-N),
其中,N指示可用的非子块合并候选的数目,并且L表示历史列表中可用的 HMVP候选的数目。
(b)另外,一旦可用合并候选的总数仅比发信号通知的合并候选的最大数目少一个,就可以终止来自HMVP列表的合并候选列表构建过程。
(c)此外,用于组合的双向预测合并候选推导的对的数目可以从12减少到6。
在一些实施例中,HMVP候选可以用于AMVP候选列表构建过程。历史列表中的最后K个HMVP候选的运动矢量可以被添加到AMVP候选列表中TMVP候选之后。在一些示例中,仅将HMVP候选添加到AMVP候选列表,所述HMVP 候选具有与AMVP目标参考图片相同的参考图片。修剪可以应用于HMVP候选。在一些示例中,K被设置为4,而AMVP列表大小保持不变,例如等于2。
5.成对平均运动矢量候选(Pairwise Average Motion Vector Candidates)
在一些实施例中,成对平均候选可以通过对当前合并候选列表中的预定义候选对进行平均来生成。例如,在实施例中,预定义的对被定义为{(0,1),(0,2),(1,2),(0,3),(1,3),(2,3)},其中,数字表示合并候选列表的合并索引。例如,可以为每个参考图片列表单独计算平均运动矢量。如果在一个列表中两个待平均的运动矢量都可用,则即使当这两个运动矢量指向不同的参考图片时,也对它们进行平均。如果仅一个运动矢量可用,则可以直接使用这一个可用的运动矢量。如果没有运动矢量可用,在一个示例中则跳过相应的对。一些实施例中,在构建合并候选列表的过程中,成对平均候选可以替换组合候选。
6.具有运动矢量差的合并(MMVD,Merge with Motion Vector Difference) 模式
在一些实施例中,使用具有运动矢量差的合并(MMVD)模式来确定当前块的运动矢量预测值。当启用跳过模式或合并模式时,可以使用MMVD模式。MMVD 模式重复使用跳过模式或合并模式的合并候选列表中的合并候选。例如,从合并候选列表中选择的合并候选可以用于提供参考图片处的起始点。当前块的运动矢量可以使用起始点以及包括相对于起始点的运动幅度和运动方向的运动偏移来表示。在编码器侧处,合并候选的选择和运动偏移的确定可以基于搜索过程(或评估过程)。在解码器侧处,可以基于从编码器侧发信号通知的预测信息来确定所选择的合并候选和运动偏移。
MMVD模式可以重复使用以本文所述的各种帧间预测模式构建的合并候选列表。在一些示例中,针对MMVD模式仅考虑合并候选列表中的默认合并类型(例如,MRG_TYPE_DEFAULT_N)的候选。默认合并类型的合并候选的示例可以包括(i)在合并模式中采用的合并候选,(ii)在HMVP模式中来自历史缓冲器的合并候选,和(iii)如本文所述的成对平均运动矢量候选。在一些示例中,仿射模式或SbTMVP模式中的合并候选不用于MMVD模式中的扩展。
可以使用基础候选索引(IDX)来定义起始点。例如,在表1中示出了与从0 到3的索引相关联的MVP的列表。根据发信号通知的IDX,可以选择列表中的 MVP之一来提供起始点。在实施例中,当列表中的MVP的数目等于1时,不发信号通知IDX。
表1.基础候选IDX
Figure BDA0003247268620000291
距离索引可以用于提供运动幅度信息。例如,在表2中示出了预定义的像素距离的列表,其中,每个像素距离与从0到7的索引相关联。根据发信号表示的距离索引,可以选择列表中的预定义的像素距离之一来提供运动幅度。
表2.距离IDX
距 离 IDX 0 1 2 3 4 5 6 7
像 素 1/4-像 素(pel) 1/2-像 素(pel) 1-像素 (pel) 2-像素 (pel) 4-像素 (pel) 8-像素 (pel) 16-像 素(pel) 32-像 素(pel)
距 离
方向索引可以用于提供运动方向信息。例如,在表3中示出了索引从00到11 (二进制)的方向列表。根据发信号通知的方向索引,可以选择列表中的方向之一以提供相对于起始点的运动偏移的方向。
表3.方向IDX
方向IDX 00 01 10 11
x轴 + - N/A N/A
y轴 N/A N/A + -
MMVD语法元素可以在码流中传输以在MMVD模式中发信号通知包括基础候选索引、方向索引和距离索引的MMVD索引集。
在一些实施例中,在发送对当前块进行编码的跳过标志或合并标志之后发信号通知MMVD启用标志。例如,当跳过或合并标志为真时,解析MMVD标志。在示例中,当MMVD标志等于1时,解析MMVD语法元素(例如,MMVD索引集)。在一个示例中,当MMVD标志不为1时,解析与另一模式相关联的标志,例如AFFINE标志。当AFFINE标志等于1时,AFFINE模式用于处理当前块。当 AFFINE标志不为1时,在示例中,解析跳过或合并索引以用跳过或合并模式处理当前块。
图12至图13示出了根据本公开的实施例的MMVD模式中的搜索过程的示例。通过执行搜索过程,可以为当前图片(或称为当前帧)中的当前块(1201)确定包括基础候选索引、方向索引和距离索引的MMVD索引集。
如图12至图13所示,第一运动矢量(1211)和第二运动矢量(1221)属于第一合并候选。第一合并候选可以是为当前块构建的合并候选列表中的合并候选 (1201)。第一运动矢量(1211)和第二运动矢量(1221)可以分别与参考图片列表L0中的参考图片(1202)和参考图片列表L1中的参考图片(1203)相关联。因此,可以分别在参考图片(1202)和(1203)处确定图13中的两个起始点(1311) 和(1321)。
在示例中,基于起始点(1311)和(1321),可以评估在参考图片(1202) 和(1203)中从起始点(1311)和(1321)在垂直方向(由+Y或-Y表示)或水平方向(由+X和-X表示)上扩展的多个预定义点。在一个示例中,可使用相对于相应起始点(1311)或(1321)彼此镜像的一对点,诸如一对点(1314)和(1324) 或一对点(1315)和(1325),来确定可以形成当前块(1201)的运动矢量预测值候选的一对运动矢量。可以评估基于围绕起始点(1311)或(1321)的预定义点确定的那些运动矢量预测值候选。
除了第一合并候选之外,还可以类似地评估当前块(1201)的合并候选列表中的其它可用或有效的合并候选。在一个示例中,对于单向预测合并候选,仅评估与两个参考图片列表之一相关联的一个预测方向。
基于评估,可以确定最佳运动矢量预测值候选。因此,对应于最佳运动矢量预测值候选,可以从合并列表中选择最佳合并候选,并且还可以确定运动方向和运动距离。例如,基于所选择的合并候选和表1,可以确定基础候选索引。基于所选择的运动矢量预测值,例如对应于预定义点(1315)(或(1325))的运动矢量预测值,可以确定点(1315)相对于起始点(1311)的方向和距离。根据表2 和表3,可以相应地确定方向索引和距离索引。
需要注意的是,上述示例仅用于说明性目的。在可选的示例中,基于在MMVD 模式中提供的运动矢量表达方法,可以不同地定义运动距离和运动方向。另外,可以不同地执行评估过程(或搜索过程)。举例来说,对于双向预测合并候选,可以基于预定义距离和方向集来评估三种类型的预测方向(例如,L0、L1以及L0 和L1两者)以选择最佳运动矢量预测值。对于另一示例,可以通过镜像或缩放将单向预测合并候选转换为双向预测合并候选,并且随后对其进行评估。在以上示例中,可以发信号通知附加语法,所述附加语法用于指示由评估过程产生的预测方向(例如,L0、L1或L0与L1两者)。
如上所述,评估合并候选列表中的合并候选以在编码器处确定MMVD模式中的基础候选。在解码器处,使用基础候选索引作为输入,可以从合并候选列表中选择运动矢量预测值。因此,除了用于存储合并候选的线缓冲器之外,MMVD模式不需要额外的线缓冲器。
7.具有仿射参数和基础MV的仿射模型表示(Affine Model Representation withAffine Parameter and Base MV)
7.1仿射运动推导(Affine motion derivation)
利用4参数仿射模型,位置(x,y)处的MV(mvh,mvv)可以导出为:
Figure BDA0003247268620000311
利用6参数仿射模型,位置(x,y)处的MV(mvh,mvv)可以导出为:
Figure BDA0003247268620000321
在上述等式(1)和(2)中,MVbase(mvh base,mvv base)是基础位置(base position)(xbase,ybase)处的基础MV,并且(a,b)或(a,b,c,d)分别表示4参数仿射模型和6参数仿射模型的仿射参数。仿射参数可以计算为:
Figure BDA0003247268620000322
Figure BDA0003247268620000323
Lx=x1-x0,Ly=y2-y0, 等式(5)
其中,MV0(mv0 h,mv0 v)、MV1(mv1 h,mv1 v)和MV2(mv2 h,mv2 v)分别表示位置(x0,y0)、(x1,y1)和(x2,y2)处的三个控制点MV(CPMV)。(x0, y0)、(x1,y1)和(x2,y2)通常被设置为大小为w×h的仿射编码块的左上角、右上角和左下角。因此,可以将Lx设置为w,并且将Ly设置为h。
应当注意,基础MV不必是仿射编码块的CPMV之一,尽管在一些实施例中它被设置为仿射编码块的左上角(x0,y0)处的CPMV MV0。
7.2跨CTU行的仿射继承
图14示出了当前CTU行(1430)以及在当前CTU行(1430)顶部的上方CTU 行(1420)。当前CTU行(1430)包括处理中的当前CTU(1404),当前CTU (1404)包括仿射编码的当前CU(1410)。如图所示,当前CU(1410)包括具有对应于三个CPMV(MVC0、MVC1和MVC2)的具有坐标(x0,y0)、(x1,y1) 和(x2,y2)的三个控制点。当前CU(1410)具有宽度w。
上述CTU行(1420)包括CTU(1401)、(1402)和(1403),以及表示为 LL、B3、B2、N0、B0、B1、N1、R、R2和RR的最小块(或4×4块)集。CTU (1402)包括当前CU(1410)的仿射编码的相邻CU(1411)。
在第一示例中,当从上方CTU行(1420)中的相邻的4×4块继承当前CU (1410)的仿射模型时,访问存储在常规MV缓冲器中的MV。图14示出了当当前CU(1410)应用仿射合并模式时,从相邻块B0继承仿射模型的示例。在这种情况下,编解码器可以存储覆盖B0(图14中的Wn)的CU(1411)的宽度、CU (1411)的左下4×4块(N0)和右下4×4块(N1)的MV(图14中的MVN0和 MVN1),以及作为N0的左下坐标(xN0,yN0)的基础位置。在此示例中,MVN0用作基础MV。
为了访问存储在常规MV缓冲器中的MV,可以针对4×4块将包含4×4块的 CU(1411)的宽度Wn和左下坐标xN0的x分量存储在线缓冲器(例如,B0)处。例如,针对每个8×8块,存储Wn需要3比特,以及存储xN0需要5比特。
为了减小线缓冲器(line buffer)的大小,在第二示例中,从行缓冲器中移除每个8×8块的CU宽度和左下坐标的x分量的存储。当当前CU(1410)应用来自相邻4×4块(例如图14中的B0)的仿射继承时,将紧靠B0右边或紧靠B0左边的4×4块选择为B0’,所述4×4块也是仿射编码的且具有与B0相同的参考图片索引。存储在B0和B0'中的常规MV作为MVB和MVB'被访问。将MV0和 MV1设置为MVB和MVB'以通过等式(3)导出a和b,其中,Lx=4。当前CU(1410) 的CPMV由等式(1)导出,其中B0的中心位置作为基础位置,并且MVB作为基础MV。
利用所提出的方法,可以在CTU行边界处访问如图14所示的从B3到R2的至多36个4×4块。需要加载到高速缓存上的附加信息从4464比特减少到2*72=144 比特(或在字节对齐实施方式中2*10=20字节)。
7.3 CTU行内的仿射继承(Affine inheritance inside a CTU row)
在示例中,当从当前CTU行中的相邻4×4块继承当前CU的仿射模型时,可以访问存储在本地CPMV缓冲器(In-CTU缓冲器)中的CPMV。当前CU可以基于存储在本地缓冲器中的CPMV从相邻CU继承4参数或6参数仿射模型。对于 CTU内的4×4块,可以存储用于两个参考列表的三个CPMV,包含4×4块的CU 的宽度、高度和左上角坐标。
为了减小本地CPMV缓冲器的大小,在另一示例中,存储仿射参数而不是三个CPMV和块尺寸。当当前CU应用仿射-继承合并模式时,仿射参数直接从表示为B的相邻的4×4块复制以被继承。当前CU中的每个子块的MV例如由等式(2) 导出,其中B的中心位置作为基础位置,并且B处的常规MV作为基础MV。当当前CU应用仿射AMVP模式时,当前CU的CPMV也由等式(2)导出,其中, B的中心位置作为基础位置并且B处的常规MV作为基础MV,并且所导出的CPMV将用作运动矢量预测值(MVP,Motion Vector Predictors)。
在示例中,每一仿射参数存储为8位带符号整数。所以可以为CTU内的每个 8×8块中的仿射参数存储2×4×8=64比特。利用该方法,与CPMV的存储相比, In-CTU缓冲器增加48×64=3072比特(或在字节对齐实施方式中48×8=384字节)。利用该方法,与计算两次仿射参数的CPMV的存储方法相比,至多仅计算一次一个仿射参数集。
8.基于历史的仿射预测(History-based Affine Predication)(仿射HMVP)
8.1仿射HMVP表
在一些示例中,采用存储仿射运动候选的仿射HMVP表。在对仿射编码的当前CU进行编码之后,使用当前CU的运动信息来更新仿射HMVP表。类似于常规HMVP表更新过程,当向仿射HMVP表添加新的运动候选时,使用受约束的 FIFO规则。例如,首先应用冗余检查来发现仿射HMVP表中是否有相同的仿射 HMVP候选。如果找到相同的仿射HMVP候选,则将其从仿射HMVP表中移除。然后,所有仿射HMVP候选都向前移动,即索引减少1。在示例中,仿射HMVP表的大小被设置为5(表中的五个条目),这与在一些实施例中使用的子块合并列表大小相同。在示例中,HMVP表在CTU行的开始处被重新设置。
在示例中,对于仿射HMVP表的每一条目,以下运动信息与所列出的内存要求一起存储:
用于2个参考列表的仿射CPMV mv0、mv1、mv2(36比特*2*3)
List 0和/或List 1的参考索引 (4比特*2)
帧间预测方向(L0、L1或单向预测) (2比特)
仿射类型,4-参数或6-参数仿射 (1比特)
位置(x,y) (16比特*2)
Cu宽度和高度 (5比特*2)
广义双向预测索引(GBI,Generalized bi-prediction index)(可选) (3比特)
所需总内存:36*2*3+4*2+2+1+16*2+5*2+3=272比特
因此,不同大小的仿射HMVP表的内存要求是:
表大小1:272比特至34字节
表大小4:1088比特至136字节
表大小5:1360比特至170字节
8.2从仿射HMVP表中复制仿射CPMV
在示例中,可以将仿射HMVP候选直接添加到合并候选列表或AMVP候选列表中作为附加候选。例如,仿射HMVP候选可以添加在所构建的仿射候选之后和零MV候选之前的位置。在示例中,当将仿射HMVP候选添加到合并列表时,没有修剪检查。在示例中,仿射HMVP候选的CPMV将直接应用于当前CU,而不管对应的历史块的形状和大小。
8.3来自仿射HMVP表的仿射模型继承
在示例中,继承仿射HMVP候选的仿射模型以生成仿射合并候选或仿射 AMVP候选。类似于来自空间近邻的仿射模式继承(或仿射继承),来自仿射HMVP 表的仿射继承使用存储在仿射HMVP缓冲器中的位置、块宽度和/或块高度以及 CPMV来生成仿射运动信息。
8.3.1用来自仿射HMVP表的继承替换来自空间近邻的仿射继承
继承的仿射合并候选和继承的仿射AMVP候选可以从以仿射模式编码的左侧相邻块和上方相邻块导出。在示例中,从空间近邻继承的那些仿射候选被从仿射 HMVP表导出的继承的候选进行替换。仿射合并和从仿射HMVP继承的AMVP候选可以采用与所替换的继承的仿射候选相同的位置。在示例中,在仿射合并模式及仿射AMVP模式两者中允许来自仿射HMVP表的至多两个继承的候选。
在示例中,从最新条目开始检查仿射HMVP表中的条目。仅当仿射HMVP候选与当前CU相邻时,仿射HMVP候选将用于导出继承的候选。可以确定仿射 HMVP候选是否是当前CU的近邻,因为位置和大小信息被存储在仿射HMVP表中。对于被标识为当前CU的近邻的仿射HMVP候选,该被标识的候选的宽度、高度和CPMV用于以与仿射继承相同的方式导出当前CU的CPMV,所述仿射继承来自空间近邻。
8.3.2使用运动数据线缓冲器将来自仿射HMVP表的仿射继承与来自上述 CTU的仿射继承进行组合
在示例中,除了来自仿射HMVP表的仿射继承之外,如8.3.1中所述,来自运动数据线缓冲器的仿射继承也用于位于当前CTU的上边界附近的块。
下面描述来自上述CTU的仿射运动数据(或仿射模型)继承。如果用于仿射运动数据继承的候选CU在CTU线(或行)上方,则线缓冲器中左下角和右下角子块(最小块)(例如,具有4×4像素大小的块)的常规MV而不是CPMV用于仿射MVP推导。以此方式,不存储对应于上述CTU行中的候选CU的CPMV,并且仅将当前CTU行中的候选CU的CPMV存储在本地缓冲器中。
如果利用6参数仿射模型对上述CTU行中的候选CU进行编码,则将仿射模型降级为用于继承的4参数模型。由于子块(最小块)MV表示相应子块中心处的运动,因此候选CU底部的两个角子块MV的距离是neiW-4像素,其中,neiW是候选CU的宽度。为了避免除以可能不是2的幂的(neiW-4),将粗略距离neiW 用于继承。将左下角和右下角的坐标设置为(xNb,yNb+neiH)和(xNb+neiW, yNb+neiH)用于继承,其中,neiH是候选CU的高度。
图15示出了来自上述CTU线缓冲器的仿射继承的示例。如图所示,第一CTU 行在CTU边界(1511)的上方,并且第二CTU行在CTU边界(1511)的下方。当前CTU在第二CTU行中,并且在控制点(x0,y0)、(x1,y1)和(x2,y2) 处包括具有
Figure BDA0003247268620000361
Figure BDA0003247268620000362
Figure BDA0003247268620000363
的仿射编码的当前CU。当前CU具有仿射编码的相邻CU(或块)E、B、C和D。块E的左上角和右上角分别具有坐标(xE0,yE0) 和(xE1,yE1)。对应于块E、B、C和D中的每一个块的
Figure BDA0003247268620000364
Figure BDA0003247268620000365
Figure BDA0003247268620000366
被示出,并且可以将这些CPMV保存到当前CTU的本地缓冲器,用于来自当前CU的空间近邻的仿射继承。
还示出了由虚线箭头(1502)和实线箭头(1503)指示的子块(最小块)运动矢量。这些子块运动矢量对应于具有最小可允许块大小(通常为4×4像素)的最小子块。当包括各个最小块的帧间编码块被处理并且帧间编码块的运动信息可用时,每个这样的最小块的运动信息可以存储在存储器中。对应于最小块的运动信息(包括由箭头(1502)和(1503)指示的各个运动矢量),可以用于一切,诸如运动补偿(MC,motion compensation)、合并/跳过模式、AMVP模式、解块和TMVP的导出。关于仿射运动信息,对应于最小块的运动信息可以为常规运动信息。
另外,CTU边界(1511)上方的最小块的常规运动信息可以存储在CTU行上方的线缓冲器(1520)中,并用作对当前CTU内且邻近CTU边界(1511)的CU 进行编码的仿射继承。
作为示例,沿着顶部的CTU边界(1511),CU的左下角和右下角子块运动矢量可以用于一切并存储在线缓冲器(1520)中。这些子块MV还用于底部CTU (CTU边界1511下方的第二行中的CTU)中的相邻仿射CU的仿射继承。例如,在CU E中,左下角和右下角子块
Figure BDA0003247268620000367
Figure BDA0003247268620000368
(以虚线箭头标记)存储在线缓冲器1520中,并用于仿射继承。在相应子块中,
Figure BDA0003247268620000369
Figure BDA00032472686200003610
从各自中心位置(xLE0, YLE0)或(xLE1,yLE1)开始。在示例中,
Figure BDA00032472686200003611
Figure BDA00032472686200003612
也可以用于底部CTU中的相邻CU的合并/跳过/AMVP列表推导,以及用于解块(de-blocking)。
作为示例,分别基于位置(xLE0,yLE0)或(xLE1,yLE1)处的
Figure BDA00032472686200003613
Figure BDA00032472686200003614
当前CU的
Figure BDA00032472686200003615
Figure BDA00032472686200003616
可以通过使用4参数模型导出,如下所示:
Figure BDA00032472686200003617
Figure BDA00032472686200003618
并且,如果当前CU使用6参数仿射运动模型,则控制点矢量
Figure BDA00032472686200003619
可以通过使用4参数模式导出,如下所示:
Figure BDA0003247268620000371
在上述等式(6)至(8)中,对应于
Figure BDA0003247268620000372
Figure BDA0003247268620000373
的中心位置的坐标可以用 CU E的左下角和右下角的坐标代替,如下所示:
Figure BDA0003247268620000374
结果,使用CU E的宽度代替位置(xLE0,yLE0)和(xLE1,yLE1)之间的距离。
8.4具有存储的仿射参数的仿射HMVP表
在示例中,仿射HMVP表以类似于8.1所述方法的方式构建。然而,不是存储仿射CPMV值,而是将仿射参数(例如等式(3)和(4)中的参数a、b、c或 d)存储在每个仿射HMVP条目中。可以使用来自仿射HMVP的仿射参数来执行仿射继承,以生成用于仿射合并或仿射AMVP候选的仿射运动信息。在示例中,基于历史的仿射合并候选(HAMC,History-basedAffine Merge Candidates)被包括在基于子块的合并候选列表中。
举例来说,在对仿射编码CU进行解码之后,将用于两个参考图片列表和相关联的参考索引的仿射参数集{a,b,c,d}放入仿射参数历史表中。
HAMC可以通过组合存储在表中的仿射参数集和用作基础MV(base MV)的相邻4×4块的常规MV来导出。例如,位置(x,y)处的当前块的MV计算为,
Figure BDA0003247268620000375
其中(mvh base,mvv base)表示相邻4×4块的MV,(xbase,ybase)表示相邻4×4块的中心位置,并且(x,y)可以是当前块的左上角、右上角和左下角以获得CPMV。
在示例中,将从存储的仿射参数导出的HAMC和来自空间相邻块的基础MV 放入基于子块的合并列表中构建的仿射合并候选之后。对于HMVP表中的每一存储的仿射参数集,使用第一有效相邻4×4块来导出HAMC,所述第一有效相邻4 ×4块,其帧间预测方向和参考索引与仿射参数集相关的那些块具有相同的帧间预测方向和参考索引。
在示例中,将从存储的仿射参数导出的HAMC和来自时间相邻块的基础MV 放入基于子块的合并列表中零候选之前。对于每一存储的仿射参数集,将相应的 TMVP缩放到参数所指的参考图片,以导出HAMC。
在示例中,每一仿射模型参数可以存储为8位带符号整数。存储多达6个仿射参数集。因此,仿射参数历史表可以是小的,并且例如具有6×(8×4×2+8) =432比特(42字节)的大小。
III.仿射HMVP缓冲器访问(Affine HMVP Buffer Accessing)
在相关技术中,当仿射HMVP缓冲器用于仿射合并模式或仿射AMVP模式时,仿射HMVP缓冲器的访问顺序是从最近(most recently)添加的条目开始进行访问。然而,该特定访问顺序限制了仿射HMVP缓冲器的性能。因此,本公开提出用于访问仿射HMVP缓冲器的改进技术。
本技术涉及访问仿射HMVP缓冲器的方法。可以应用这些方法而不管仿射 HMVP缓冲器的每一条目中存储什么、缓冲器的条目数目或从缓冲器的条目导出仿射候选的方法。这些方法可以单独使用或以任何顺序组合使用。另外,术语“块”可以解释为预测块、编解码块或编解码单元(CU,Coding Unit)。
根据本公开的各方面,仿射HMVP缓冲器的第一访问条目可以是最近(mostrecently)添加的条目或最早(least recently)添加的条目,而不管是导出仿射合并候选还是仿射AMVP候选。
在一个实施例中,当推导仿射合并候选时,仿射HMVP缓冲器的第一访问条目可以是最近添加的条目。在另一实施例中,当推导仿射合并候选时,仿射HMVP 缓冲器的第一访问条目可以是最早添加的条目。
在一个实施例中,当推导仿射AMVP候选时,仿射HMVP缓冲器的第一访问条目可以是最近添加的条目。在另一实施例中,当推导仿射AMVP候选时,仿射 HMVP缓冲器的第一访问条目可以是最早添加的条目。
根据本公开的各方面,用于导出仿射合并候选的第一仿射HMVP缓冲器的访问顺序可以不同于用于导出仿射AMVP候选的第二仿射HMVP缓冲器的访问顺序。注意,第一仿射HMVP缓冲器可以与第二仿射HMVP缓冲器相同。
在一个实施例中,当用于导出仿射合并候选的第一仿射HMVP缓冲器的第一访问条目是最近添加的条目时,用于导出仿射AMVP候选的第二仿射HMVP缓冲器的第一访问条目可以是最早添加的条目。
在另一实施例中,当用于导出仿射合并候选的第一仿射HMVP缓冲器的第一访问条目是最早添加的条目时,用于导出仿射AMVP候选的第二仿射HMVP缓冲器的第一访问条目可以是最近添加的条目。
根据本公开的各方面,可以在序列级别(例如,在序列参数集(SPS,sequenceparameter set)中、在图块(tile)/图块组(tile group)级别或在图片级别)发信号通知仿射HMVP缓冲器的访问顺序。
在一个实施例中,一个发信号通知的访问顺序可以用于从仿射HMVP缓冲器中导出仿射合并候选和仿射HMVP候选。
在另一实施例中,单独发信号通知用于导出仿射合并候选和仿射AMVP候选的访问顺序。
图16示出了根据本公开的一些实施例的概述示例性方法(1600)的流程图。在各种实施例中,方法(1600)由处理电路执行,诸如,终端设备(210)、(220)、 (230)和(240)中的处理电路,执行视频编码器(303)的功能的处理电路,执行视频解码器(310)的功能的处理电路,执行视频解码器(410)的功能的处理电路,执行视频编码器(503)的功能的处理电路等等。在一些实施例中,方法(1600) 以软件指令实现,因此当处理电路执行这些软件指令时,处理电路执行方法 (1600)。
方法(1600)通常可以开始于步骤(S1601),其中,方法(1600)对作为已编码视频序列的一部分的当前图片中的当前块的预测信息进行解码。预测信息指示当前块的预测模式和仿射基于历史的运动矢量预测值(HMVP,history-based motion vector predictor)缓冲器的访问顺序。接着,方法(1600)进行到(S1602)。
在步骤(S1602)处,方法(1600)根据访问顺序从仿射HMVP缓冲器构建包括仿射HMVP候选的运动矢量预测值(MVP,motion vector predictor)列表。接着,方法(1600)进行到(S1603)。
在步骤(S1603)处,方法(1600)基于MVP列表重建当前块。
在重建当前块之后,方法(1600)终止。
在实施例中,当预测模式为仿射合并模式时,访问顺序将与仿射HMVP候选相关联的仿射HMVP缓冲器的条目设置为最近(most recently)添加的条目。
在实施例中,当预测模式为仿射合并模式时,访问顺序将与仿射HMVP候选相关联的仿射HMVP缓冲器的条目设置为最早(least recently)添加的条目。
在实施例中,当预测模式为仿射高级运动矢量预测(AMVP,affine advancedmotion vector prediction)模式时,访问顺序将与仿射HMVP候选相关联的仿射 HMVP缓冲器的条目设置为最近添加的条目。
在实施例中,当预测模式为仿射AMVP模式时,访问顺序将与仿射HMVP候选相关联的仿射HMVP缓冲器的条目设置为最早添加的条目。
在实施例中,仿射合并模式的访问顺序和仿射AMVP模式的访问顺序是不同的。
在实施例中,访问顺序包括在预测信息中。在示例中,发信号通知的访问顺序应用于仿射合并模式和仿射AMVP模式两者。在另一示例中,仿射合并模式的访问顺序和仿射AMVP模式的访问顺序单独包括在预测信息中。
IV.计算机系统
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图17示出了计算机系统(1700),其适于实现所公开主题的某些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图17所示的用于计算机系统(1700)的组件本质上是示例性的,并不用于对实现本申请实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统设备(1700)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统(1700)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或多个(仅绘出其中一个):键盘 (1701)、鼠标(1702)、触控板(1703)、触摸屏(1710)、数据手套(未示出)、操纵杆(1705)、麦克风(1706)、扫描仪(1707)、照相机(1708)。
计算机系统(1700)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(1710)、数据手套(未示出)或操纵杆(1705)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(1709)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(1710),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。这些视觉输出设备(例如屏幕(1710))可以通过图形适配器(1750)连接到系统总线(1748)。
计算机系统(1700)还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)(1720)或类似介质(1721)的光学介质、拇指驱动器(1722)、可移动硬盘驱动器或固体状态驱动器(1723),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(1700)还可以包括通往一个或多个通信网络(1755)的网络接口(1754)。所述一个或多个通信网络(1755)可以是无线的、有线的、光学的。所述一个或多个通信网络(1755)还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。所述一个或多个通信网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(1749)(例如,计算机系统(1700)的USB端口);其它系统通常通过连接到如下所述的系统总线集成到计算机系统(1700) 的核心(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(1700)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统(1700)的核心(1740)。
核心(1740)可包括一个或多个中央处理单元(CPU)(1741)、图形处理单元(GPU)(1742)、以现场可编程门阵列(FPGA)(1743)形式的专用可编程处理单元、用于特定任务的硬件加速器(1744)等。这些设备以及只读存储器(ROM) (1745)、随机存取存储器(1746)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)(1747)等可通过系统总线(1748)进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(1748),以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线(1748),或通过外围总线(1749)进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(1741)、GPU(1742)、FPGA(1743)和加速器(1744)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在 ROM(1745)或RAM(1746)中。过渡数据也可以存储在RAM(1746)中,而永久数据可以存储在例如内部大容量存储器(1747)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或多个 CPU(1741)、GPU(1742)、大容量存储器(1747)、ROM(1745)、RAM(1746) 等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构(1700)的计算机系统,特别是核心 (1740),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在一个或多个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心 (1740)的特定存储器,例如核心内部大容量存储器(1747)或ROM(1745)。实现本申请的各种实施例的软件可以存储在这种设备中并且由核心(1740)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心(1740)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(1746)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(1744)) 中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
虽然本申请已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。
附录:首字母缩略词
AMVP:高级运动矢量预测
ASIC:专用集成电路
BMS:基准集合
BS:边界强度
BV:块矢量
CANBus:控制器局域网总线
CD:光盘
CPR:当前图片引用
CPUs:中央处理单元
CRT:阴极射线管
CTBs:编码树块
CTUs:编码树单元
CU:编码单元
DPB:解码器图片缓冲区
DVD:数字化视频光盘
FPGA:现场可编程门阵列
GOPs:图片组
GPUs:图形处理单元
GSM:全球移动通信系统
HDR:高动态范围
HEVC:高效视频编码
HRD:假设参考解码器
IBC:帧内块复制
IC:集成电路
JEM:联合开发模型
LAN:局域网
LCD:液晶显示
LIC:局部照明补偿
LTE:长期演进
MR-SAD:去平均的绝对差值的和
MR-SATD:去平均的绝对哈达玛变换差值的总和
MV:运动向量
OLED:有机发光二极管
PBs:预测块
PCI:外围设备互连
PLD:可编程逻辑设备
PPS:图片参数集
PUs:预测单元
RAM:随机存取存储器
ROM:只读存储器
SCC:屏幕内容编码
SDR:标准动态范围
SEI:补充增强信息
SMVP:空间运动矢量预测
SNR:信噪比
SPS:序列参数集
SSD:固态驱动器
TMVP:时间运动矢量预测
TUs:变换单元
USB:通用串行总线
VUI:视频可用性信息
VVC:通用视频编码

Claims (20)

1.一种在解码器中进行视频解码的方法,其特征在于,包括:
对作为已编码视频序列的一部分的当前图片中的当前块的预测信息进行解码,所述预测信息指示所述当前块的预测模式和仿射基于历史的运动矢量预测值HMVP缓冲器的访问顺序;
根据所述访问顺序从所述仿射HMVP缓冲器构建包括仿射HMVP候选的运动矢量预测值MVP列表;以及
基于所述MVP列表来重建所述当前块。
2.根据权利要求1所述的方法,其特征在于,当所述预测模式为仿射合并模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为最近添加的条目。
3.根据权利要求1所述的方法,其特征在于,当所述预测模式为所述仿射合并模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为最早添加的条目。
4.根据权利要求1所述的方法,其特征在于,当所述预测模式为仿射高级运动矢量预测AMVP模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为所述最近添加的条目。
5.根据权利要求1所述的方法,其特征在于,当所述预测模式为所述仿射AMVP模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为所述最早添加的条目。
6.根据权利要求1所述的方法,其特征在于,所述仿射合并模式的所述访问顺序与所述仿射AMVP模式的所述访问顺序是不同的。
7.根据权利要求1所述的方法,其特征在于,所述访问顺序包括在所述预测信息中。
8.根据权利要求7所述的方法,其特征在于,发信号通知的访问顺序应用于所述仿射合并模式和所述仿射AMVP模式两者。
9.根据权利要求7所述的方法,其特征在于,所述仿射合并模式的所述访问顺序和所述仿射AMVP模式的所述访问顺序单独包括在所述预测信息中。
10.一种视频解码的装置,其特征在于,包括处理电路,所述处理电路被配置为:
对作为已编码视频序列的一部分的当前图片中的当前块的预测信息进行解码,所述预测信息指示所述当前块的预测模式和仿射基于历史的运动矢量预测值HMVP缓冲器的访问顺序;
根据所述访问顺序从所述仿射HMVP缓冲器构建包括仿射HMVP候选的运动矢量预测值MVP列表;以及
基于所述MVP列表来重建所述当前块。
11.根据权利要求10所述的装置,其特征在于,当所述预测模式为仿射合并模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为最近添加的条目。
12.根据权利要求10所述的装置,其特征在于,当所述预测模式为所述仿射合并模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为最早添加的条目。
13.根据权利要求10所述的装置,其特征在于,当所述预测模式为仿射高级运动矢量预测AMVP模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为所述最近添加的条目。
14.根据权利要求10所述的装置,其特征在于,当所述预测模式为所述仿射AMVP模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为所述最早添加的条目。
15.根据权利要求10所述的装置,其特征在于,所述仿射合并模式的所述访问顺序与所述仿射AMVP模式的所述访问顺序是不同的。
16.根据权利要求10所述的装置,其特征在于,所述访问顺序包括在所述预测信息中。
17.根据权利要求16所述的装置,其特征在于,发信号通知的访问顺序应用于所述仿射合并模式和所述仿射AMVP模式两者。
18.根据权利要求16所述的装置,其特征在于,所述仿射合并模式的所述访问顺序和所述仿射AMVP模式的所述访问顺序单独包括在所述预测信息中。
19.一种存储程序的非易失性计算机可读存储介质,其特征在于,所述程序能够由至少一个处理器执行以执行以下操作:
对作为已编码视频序列的一部分的当前图片中的当前块的预测信息进行解码,所述预测信息指示所述当前块的预测模式和仿射基于历史的运动矢量预测值HMVP缓冲器的访问顺序;
根据所述访问顺序从所述仿射HMVP缓冲器构建包括仿射HMVP候选的运动矢量预测值MVP列表;以及
基于所述MVP列表来重建所述当前块。
20.根据权利要求19所述的非易失性计算机可读存储介质,其特征在于,当所述预测模式为仿射合并模式时,所述访问顺序将与所述仿射HMVP候选相关联的所述仿射HMVP缓冲器的条目设置为最近添加的条目。
CN202080018907.4A 2019-03-15 2020-03-13 视频解码的方法、装置及存储介质 Active CN113615192B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962819498P 2019-03-15 2019-03-15
US62/819,498 2019-03-15
US16/817,245 US10979716B2 (en) 2019-03-15 2020-03-12 Methods of accessing affine history-based motion vector predictor buffer
US16/817,245 2020-03-12
PCT/US2020/022561 WO2020190684A1 (en) 2019-03-15 2020-03-13 Methods of accessing affine history-based motion vector predictor buffer

Publications (2)

Publication Number Publication Date
CN113615192A true CN113615192A (zh) 2021-11-05
CN113615192B CN113615192B (zh) 2024-03-19

Family

ID=72422822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080018907.4A Active CN113615192B (zh) 2019-03-15 2020-03-13 视频解码的方法、装置及存储介质

Country Status (5)

Country Link
US (1) US10979716B2 (zh)
EP (1) EP3871417B1 (zh)
JP (1) JP7337166B2 (zh)
CN (1) CN113615192B (zh)
WO (1) WO2020190684A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102463478B1 (ko) * 2018-01-26 2022-11-04 에이치에프아이 이노베이션 인크. 비디오 코딩 시스템을 위한 아핀 인터 예측 방법 및 장치
BR112021002604A2 (pt) * 2018-08-13 2021-05-04 Lg Electronics Inc. método de predição inter baseado no vetor de movimento baseado em histórico e dispositivo do mesmo
US11595639B2 (en) * 2018-09-21 2023-02-28 Lg Electronics Inc. Method and apparatus for processing video signals using affine prediction
EP3905685B1 (en) * 2018-12-28 2024-03-20 JVCKenwood Corporation Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program
EP4262211A3 (en) * 2018-12-28 2023-12-27 Godo Kaisha IP Bridge 1 Picture coding device, picture coding method, and picture coding program, picture decoding device, picture decoding method and picture decoding program
US11166015B2 (en) * 2019-03-06 2021-11-02 Tencent America LLC Method and apparatus for video coding
CN110545424B (zh) * 2019-08-21 2021-05-11 浙江大华技术股份有限公司 基于mmvd模式的帧间预测方法、视频编码方法及相关装置、设备
WO2023132556A1 (ko) * 2022-01-04 2023-07-13 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7154952B2 (en) * 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US9319716B2 (en) * 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
GB2501836B (en) * 2011-03-09 2014-08-06 Canon Kk Video encoding
US10368097B2 (en) * 2014-01-07 2019-07-30 Nokia Technologies Oy Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures
WO2016008157A1 (en) * 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
CN108353184B (zh) * 2015-11-05 2022-02-01 联发科技股份有限公司 一种视频编解码的方法及装置
WO2017118409A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US10681370B2 (en) * 2016-12-29 2020-06-09 Qualcomm Incorporated Motion vector generation for affine motion model for video coding
WO2018226066A1 (ko) * 2017-06-09 2018-12-13 엘지전자 주식회사 영상 코딩 시스템에서 어파인 예측에 따른 영상 디코딩 방법 및 장치
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US10440378B1 (en) * 2018-07-17 2019-10-08 Tencent America LLC Method and apparatus for history-based motion vector prediction with parallel processing
US10362330B1 (en) * 2018-07-30 2019-07-23 Tencent America LLC Combining history-based motion vector prediction and non-adjacent merge prediction
BR112021002604A2 (pt) * 2018-08-13 2021-05-04 Lg Electronics Inc. método de predição inter baseado no vetor de movimento baseado em histórico e dispositivo do mesmo
US10944984B2 (en) * 2018-08-28 2021-03-09 Qualcomm Incorporated Affine motion prediction
US11212550B2 (en) * 2018-09-21 2021-12-28 Qualcomm Incorporated History-based motion vector prediction for affine mode
ES2966115T3 (es) * 2018-10-04 2024-04-18 Lg Electronics Inc Métodos de codificación de imagen basados en historial
US20200112715A1 (en) * 2018-10-05 2020-04-09 Qualcomm Incorporated History-based motion vector prediction for inter prediction coding
BR122021010912A2 (pt) * 2018-10-05 2021-07-20 Lg Electronics Inc. Método de decodificação de imagem realizado por um aparelho de decodificação, método de codificação de imagem realizado por um aparelho de codificação, mídia de armazenamento não transitória legível por computador, aparelho de decodificação para decodificação de imagem e aparelho de codificação para codificação de imagem
JP7073501B2 (ja) 2018-12-12 2022-05-23 エルジー エレクトロニクス インコーポレイティド 履歴ベース動きベクトル予測に基づいてビデオ信号を処理するための方法及び装置

Also Published As

Publication number Publication date
WO2020190684A1 (en) 2020-09-24
US10979716B2 (en) 2021-04-13
EP3871417A4 (en) 2022-03-02
CN113615192B (zh) 2024-03-19
EP3871417A1 (en) 2021-09-01
JP2022513791A (ja) 2022-02-09
JP7337166B2 (ja) 2023-09-01
EP3871417B1 (en) 2023-10-11
US20200296383A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
CN110944202B (zh) 视频编解码方法、装置、计算机设备和存储介质
CN113287308B (zh) 视频编解码方法及装置
CN110719488B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN112703730B (zh) 视频编解码的方法、设备和存储介质
CN110460857B (zh) 视频解码方法、设备以及计算机可读存储介质
JP7372327B2 (ja) ビデオ復号の方法及び機器、及びコンピュータプログラム
CN113383545B (zh) 视频编解码的方法和装置
CN113261298A (zh) 用于视频编码的方法和装置
CN113615192B (zh) 视频解码的方法、装置及存储介质
CN110719469A (zh) 视频编解码方法、设备和存储介质
CN113196782A (zh) 视频编解码方法和装置
CN110944185B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN112237000A (zh) 用于视频编码的方法和装置
CN113302932A (zh) 视频编解码的方法和装置
CN112806002A (zh) 用信号通知用于跳过和合并模式的多假设的方法和装置、以及用信号通知具有运动矢量差的合并中的距离偏移表的方法和装置
CN110971902B (zh) 视频解码的方法和装置、计算机设备
CN112235581B (zh) 视频解码方法、装置、存储介质及电子设备
CN113875234A (zh) 视频编解码的方法和装置
CN113661703A (zh) 视频编解码的方法和装置
CN111010579A (zh) 基于成对平均运动矢量预测的视频解码方法和装置
CN112789851A (zh) 视频编解码方法及装置
CN111316639A (zh) 用于子块运动矢量预测的方法和装置
CN113545084A (zh) 用于帧内图片块补偿的统一块矢量预测
CN112135134B (zh) 视频解码方法、装置、计算机设备和存储介质
CN113661702A (zh) 视频编解码的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40055126

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant