CN117178552A - 边界外条件的基于子块的双向预测约束 - Google Patents

边界外条件的基于子块的双向预测约束 Download PDF

Info

Publication number
CN117178552A
CN117178552A CN202280024733.1A CN202280024733A CN117178552A CN 117178552 A CN117178552 A CN 117178552A CN 202280024733 A CN202280024733 A CN 202280024733A CN 117178552 A CN117178552 A CN 117178552A
Authority
CN
China
Prior art keywords
block
sub
boundary
reference picture
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280024733.1A
Other languages
English (en)
Inventor
李贵春
李翔
陈联霏
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN117178552A publication Critical patent/CN117178552A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

确定(i)第一参考图片中的第一子块的第一参考子块的边界是否位于该第一参考图片的边界之外,以及(ii)第二参考图片中的该第一子块的第二参考子块的边界是否位于该第二参考图片的边界之外。响应于(i)该第一参考图片中的该第一子块的该第一参考子块的该边界在该第一参考图片的该边界之外,以及(ii)该第二参考图片中的该第一子块的该第二参考子块的该边界位于该第二参考图片的该边界之内,基于单向预测模式重构当前块的该第一子块,使得该第一子块是基于该第二参考图片的该第二参考子块重构的。

Description

边界外条件的基于子块的双向预测约束
相关申请的交叉引用
本申请要求于2022年11月9日提交的第17/983,879号发明名称为“SUB-BLOCKBASED CONSTRAINT ON BI-PREDICTION FOR OUT-OF-BOUNDARY CONDITIONS”的美国专利申请的优先权权益,该美国专利申请要求于2022年2月7日提交的第63/307,536号发明名称为“Sub-block based Constraint on Bi-Prediction for Out-Of-Boundary Conditions”的美国临时申请的优先权权益。这两个在先申请的公开内容通过引用整体并入本文中。
技术领域
本公开描述了总体上涉及视频编解码的实施例。
背景技术
本文所提供的背景描述旨在整体呈现本公开的背景。目前已署名的发明人的某些工作(即已在此背景技术部分中做出描述的工作)以及本说明书的各个方面中所描述的尚未成为申请日之前的现有技术的内容,从未明示或暗示其被承认为本公开的现有技术。
未压缩的数字图像和/或视频可包括一系列图片,每个图片具有例如1920x1080亮度样本及相关色度样本的空间维度。该系列图片可以具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60张图片或60Hz。未压缩的图像和/或视频具有特定的比特率要求。例如,每样本8比特的1080p60 4:2:0的视频(1920x1080亮度样本分辨率,60Hz帧率)要求接近1.5Gbit/s带宽。一小时这样的视频就需要超过600GB的存储空间。
图像和/或视频编码和解码的一个目的,可以是通过压缩减少输入图像和/或视频信号中的冗余。压缩可以帮助降低对上述带宽和/或存储空间的要求,在某些情况下可降低两个或更多数量级。尽管本文中的描述使用视频编码/解码作为说明性示例,但在不脱离本公开的精神的情况下,可以以类似的方式将相同的技术应用于图像编码/解码。无损压缩和有损压缩,以及两者的组合均可采用。无损压缩是指可以从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视分发应用的用户,某些消费者流媒体应用的用户可以容忍更高的失真。可实现的压缩比可以反映出:较高的允许/容许失真可产生较高的压缩比。
视频编码器和解码器可利用几大类技术,例如包括:运动补偿、变换处理、量化和熵编码。
视频编解码器技术可包括已知的帧内编码技术。在帧内编码中,在不参考先前重建的参考图片的样本或其他数据的情况下表示样本值。在一些视频编解码器中,图片在空间上被细分为样本块。当所有样本块都以帧内模式编码时,该图片可以为帧内图片。帧内图片及其衍生(例如独立解码器刷新图片)可用于复位解码器状态,并且因此可用作编码视频比特流和视频会话中的第一图片,或用作静止图像。帧内块的样本可用于变换,且可在熵编码之前量化变换系数。帧内预测可以是使预变换域中的样本值最小化的技术。在某些情况下,变换后的DC值越小,且AC系数越小,则在给定的量化步长尺寸下需要越少的比特来表示熵编码之后的块。
用于例如MPEG-2代编码技术中的传统帧内编码未使用帧内预测。然而,一些较新的视频压缩技术包括:试图基于例如周围样本数据和/或元数据来执行预测的技术,其中周围样本数据和/或元数据是在数据块的编码/解码期间获得的。这种技术后来被称为“帧内预测”技术。需要注意的是,至少在某些情况下,帧内预测仅使用正在重建的当前图片的参考数据,而不使用参考图片的参考数据。
可存在许多不同形式的帧内预测。当在给定的视频编码技术中可以使用超过一种这样的技术时,所使用的特定技术可编码为使用该特定技术的特定帧内预测模式。在某些情况下,帧间预测模式可具有子模式和/或参数,且这些子模式和/或参数可单独编码或包含在定义了所使用的预测模式的模式码字中。将哪个码字用于给定模式、子模式和/或参数组合会通过帧内预测影响编解码效率增益,因此用于将码字转换成比特流的熵编码技术也会出现这种情况。
H.264引入了一种帧内预测模式,其在H.265中进行了修正,且在诸如联合勘探模式(joint exploration model,JEM)、通用视频编解码(versatile video coding,VVC)和基准集(benchmark set,BMS)的更新的编解码技术中进一步被修正。通过使用已经可用的样本的相邻样本值可以形成预测块。将相邻样本的样本值按照某一方向复制到预测块中。对所使用方向的引用可以被编码在比特流中,或者本身可以被预测。
参照图1A,右下方描绘了来自定义在H.265中的33个可能的预测方向(对应于35个帧内模式中的33个角度模式)中已知的九个预测方向的子集。箭头会聚的点(101)表示正在被预测的样本。箭头表示样本正在被预测的方向。例如,箭头(102)表示根据右上方与水平方向成45度角的一个或多个样本,预测样本(101)。类似地,箭头(103)表示根据样本(101)左下方与水平方向成22.5度角的一个或多个样本来预测样本(101)。
仍然参考图1A,在左上方示出了一个包括4×4个样本的正方形块(104)(由粗虚线表示)。正方形块(104)包括16个样本,每个样本用“S”、以及其在Y维度上的位置(例如,行索引)和在X维度上的位置(例如,列索引)来标记。例如,样本S21是Y维度上的第二个样本(从顶部开始)和X维度上的第一个(从左侧开始)样本。类似地,样本S44在X维度和Y维度上都是块(104)中的第四个样本。由于该块为4×4大小的样本,因此S44位于右下角。还示出了遵循类似编号方案的参考样本。参考样本用R、以及其相对于块(104)的Y位置(例如,行索引)和X位置(列索引)来标记。在H.264与H.265中,预测样本与正在重建的块相邻,因此不需要使用负值。
通过从信号通知的预测方向指示的相邻样本来复制参考样本值,可以进行帧内图片预测。例如,假设编码视频比特流包括信令,对于该块,该信令指示与箭头(102)一致的预测方向,即,根据右上方与水平方向成45度角的多个样本来预测样本。在这种情况下,根据同一参考样本R05来预测样本S41、S32、S23和S14。然后根据参考样本R08来预测样本S44。
在某些情况下,例如通过内插,可以合并多个参考样本的值,以便计算参考样本,尤其是当方向不能被45度整除时。
随着视频编解码技术的已有发展,可能的方向的数量已经增加了。在H.264(2003年)中,可以表示九种不同的方向。在H.265(2013年)中增加到了33种不同的方向。当前,JEM/VVC/BMS可以支持多达65个方向。已经进行了实验来识别最可能的方向,并且熵编码中的某些技术被用于使用少量比特来表示那些可能的方向,对于较不可能的方向则接受某些代价。此外,有时可以根据在相邻的、已经解码的块中所使用的相邻方向来预测方向本身。
图1B示出了描绘根据JEM的65个帧内预测方向的示意图(110),以说明随时间增加的预测方向的数量。
表示方向的编码视频比特流中的帧内预测方向比特的映射可以因视频编解码技术的不同而不同。这种映射例如可以从对码字的简单直接映射到包括最可能的模式和类似技术的复杂的自适应方案。然而,在大多数情况下,视频内容中可能存在某些方向,其在统计学上比其它方向更不可能出现。由于视频压缩的目的是减少冗余,所以在运行良好的视频编解码技术中,与更可能的方向相比,那些不太可能的方向将使用更多数量的比特来表示。
通过具有运动补偿的帧间图片预测,可以进行图像和/或视频编码和解码。运动补偿可以是一种有损压缩技术,且可涉及如下技术:来自先前重建的图片或重建图片一部分(参考图片)的样本数据块在空间上按运动矢量(下文称为MV)指示的方向移位后,用于新重建的图片或图片部分的预测。在某些情况下,参考图片可与当前正在重建的图片相同。MV可具有两个维度X和Y,或者三个维度,其中第三个维度表示使用中的参考图片(后者间接地可为时间维度)。
在一些视频压缩技术中,应用于某个样本数据区域的MV可根据其它MV来预测,例如根据与正在重建的区域空间相邻的另一个样本数据区域相关的、且按解码顺序在该MV前面的那些MV来预测。这样做可以大大减少编码MV所需的数据量,从而消除冗余信息并增加压缩量。MV预测可以有效地进行,例如,当对从相机导出的输入视频信号(称为自然视频)进行编码时,存在一种统计上的可能性,即面积大于单个MV适用区域的区域,会朝着类似的方向移动,因此,在某些情况下,可以用邻近区域的MV导出的相似运动矢量进行预测。这导致针对给定区域发现的MV与根据周围MV预测的MV相似或相同,并且在熵编码之后,又可以用比直接编码MV时使用的比特数更少的比特数来表示。在某些情况下,MV预测可以是对从原始信号(即:样本流)导出的信号(即MV)进行无损压缩的示例。在其它情况下,MV预测本身可能是有损的,例如由于根据几个周围MV计算预测值时产生的取整误差。
H.265/HEVC(ITU-T建议书H.265,“高效视频编解解码”,2016年12月)描述了各种MV预测机制。在H.265所提供的多种MV预测机制中,参考图2描述的是一种下文称为“空间合并”的技术。
参照图2,当前块(201)包括编码器在运动搜索处理中发现的样本,该样本可以根据空间移动了相同大小的先前块进行预测。不直接对该MV进行编码,而是通过使用与五个周围样本中的任何一个相关联的MV,从与一个或多个参考图片相关联的元数据中导出该MV,例如从最近的(按解码顺序)参考图片中导出该MV,其中,五个周围样本分别用A0、A1和B0、B1、B2(分别为202到206)表示。在H.265中,MV预测可使用相邻块正在使用的同一参考图片的预测值。
发明内容
本公开的方面提供了用于视频编码/解码的方法和装置。在一些示例中,一种用于视频解码的装置包括处理电路。
根据本公开的一方面,提供了一种在视频解码器中执行的视频解码方法。在该方法中,可以从已编码视频比特流接收当前图片中的当前块的多个子块的已编码信息。可以从该已编码视频比特流中获得指示与该当前图片中的该当前块相关联的预测模式的语法元素,其中该预测模式可以是单向预测模式和双向预测模式中的一种。可以确定该双向预测模式应用于该多个子块中的第一子块,其中可以基于第一参考图片中的第一参考子块和第二参考图片中的第二参考子块来预测该第一子块。响应于该双向预测模式应用于该多个子块中的该第一子块,可以确定(i)该第一参考子块的边界是否位于该第一参考图片的边界之外,以及(ii)该第二参考子块的边界是否位于该第二参考图片的边界之内。响应于(i)该第一参考子块的该边界位于该第一参考图片的该边界之外以及(ii)该第二参考子块的该边界位于该第二参考图片的该边界之内,可以基于该单向预测模式重构该当前块的该第一子块,使得该第一子块是基于该第二参考图片的该第二参考子块重构的。
可以基于以下之一确定该双向预测模式应用于该第一子块:(i)包括在该已编码信息中的信令信息,(ii)应用于该当前块的非合并帧间预测模式,以及(iii)应用于该当前块的合并模式。
在一个实施例中,可以确定该第一参考子块的该边界是否超出该第一参考图片的该边界之外达到一阈值。
根据应用于该当前块的帧间预测模式,确定该第一子块的大小可以是4×4亮度样本和8×8亮度样本中的一个。
响应于该第一参考子块的该边界在该第一参考图片的该边界之外以及该第二参考子块的该边界在该第二参考图片的该边界之外,可以基于该第一参考图片中的该第一参考子块和该第二参考图片中的该第二参考子块重构该当前块的该第一子块。
该第一子块的大小可以等于以下之一:(i)基于应用于该当前块的仿射帧间预测模式的仿射子块大小,(ii)基于应用于该当前块的基于子块的时间运动矢量预测(subblock-based temporal motion vector prediction,SbTMVP)模式的SbTMVP子块大小,或(iii)基于应用于该当前块的几何划分模式(geometric partitioning mode,GPM)模式的GPM子块大小。
响应于(i)该第一子块位于以该当前块的几何划分边界为中心的混合区域中,以及(ii)该第一参考子块的该边界在该第一参考图片的该边界之外,可以基于该第二参考子块重构该第一子块,其中该第二参考子块的该边界位于该第二参考图片的该边界之内。
响应于根据该单向预测模式预测该第一子块,可以存储用于该第一子块的该单向预测模式的单向预测运动信息。
响应于根据该单向预测模式预测该第一子块的至少一个像素,可以存储用于该第一子块的该单向预测模式的单向预测运动信息。
在一些实施例中,响应于该第一参考子块的该边界在该第一参考图片的该边界之外和/或该第二参考子块的该边界在该第二参考图片的该边界之外,针对该当前块的该第一子块,可以排除以下之一:解码器侧运动矢量修正(decoder-side motion vectorrefinement,DMVR)模式、双向光流(bi-directional optical flow,BDOF)模式和具有编码单元级权重的双向预测(bi-prediction with coding unit-level weight,BCW)模式。
在一些实施例中,可以对该第一子块执行DMVR,以基于该第一参考图片中的该第一参考子块确定第一预测子块,并基于该第二参考图片中的该第二参考子块确定第二预测子块。可以存储用于该第一子块的双向预测运动信息,该双向预测运动信息指示基于该第一参考图片中的该第一预测子块和该第二参考图片中的该第二预测子块来预测该第一子块。
根据本公开的另一方面,提供了一种装置。该装置包括处理电路。该处理电路可以被配置为执行用于视频编码/解码的任何方法。
本公开的方面还提供一种存储指令的非暂时性计算机可读介质,该指令在由用于视频解码的计算机执行时使该计算机执行用于视频编码/解码的任何方法。
附图说明
根据以下详细描述和随附附图,所公开的主题的其他特征、性质和各种优点将进一步明确,其中:
图1A是帧内预测模式的示例性子集的示意图。
图1B是示例性帧内预测方向的示意图。
图2是一个示例中的当前块及其周围的空间合并候选的示意图。
图3是根据一实施例的通信系统(300)的简化框图的示意图。
图4是根据一实施例的通信系统(400)的简化框图的示意图。
图5是根据一实施例的解码器的简化框图的示意图。
图6是根据一实施例的编码器的简化框图的示意图。
图7示出了根据另一实施例的编码器的框图。
图8示出了根据另一实施例的解码器的框图。
图9示出了空间合并候选的示例性位置。
图10示出了空间合并候选的示例性冗余校验。
图11示出了用于时间合并候选的运动矢量缩放的示例的示意图。
图12示出了用于时间合并候选的示例性候选位置。
图13A示出了4参数仿射模型的示意图。
图13B示出了6参数仿射模型的示意图。
图14示出了与块中的子块相关联的示例性仿射运动矢量场的示意图。
图15示出了空间合并候选的示例性位置的示意图。
图16示出了控制点运动矢量继承的示例的示意图。
图17示出了用于构造仿射合并模式的候选的示例性位置的示意图。
图18示出了光流预测修正(prediction refinement with an optical flow,PROF)的示例的示意图。
图19示出了用于SbTMVP的示例性空间相邻块的示意图。
图20示出了示例性SbTMVP处理的示意图。
图21示出了用于BDOF的示例性扩展编码单元(coding unit,CU)区域的示意图。
图22示出了解码侧运动矢量修正的示例的示意图。
图23示出了按相同角度分组的GPM分割的示例。
图24示出了用于GPM的示例性单向预测MV选择。
图25示出了示例性几何划分的示意图。
图26示出了VVC中的自适应运动矢量分辨率(adaptive motion vectorresolution,AMVR)的示例性规范。
图27示出了示例性子块级别双向预测约束。
图28示出了根据本公开的一些实施例的概述示例性解码过程的流程图。
图29示出了根据本公开的一些实施例的概述示例性编码过程的流程图。
图30是根据一实施例的计算机系统的示意图。
具体实施方式
图3图示了通信系统(300)的示例性框图。通信系统(300)包括多个终端设备,这些终端设备可通过例如网络(350)彼此通信。举例来说,通信系统(300)包括通过网络(350)互连的第一对终端设备,即终端设备(310)和终端设备(320)。在图3的示例中,第一对终端设备,即终端设备(310)和终端设备(320)执行单向数据传输。举例来说,终端设备(310)可对视频数据(例如由终端设备(310)采集的视频图片流)进行编码以通过网络(350)传输到另一终端设备(320)。已编码视频数据可以以一个或多个已编码视频比特流(码流)形式传输。终端设备(320)可从网络(350)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据(图片),并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一示例中,通信系统(300)包括例如在视频会议期间执行已编码视频数据的双向传输的第二对终端设备,即终端设备(330)和终端设备(340)。在一个示例中,对于双向数据传输,终端设备(330)和终端设备(340)中的每个终端设备可对视频数据(例如由终端设备采集的视频图片流)进行编码以通过网络(350)传输到终端设备(330)和终端设备(340)中的另一终端设备。终端设备(330)和终端设备(340)中的每个终端设备还可接收由终端设备(330)和终端设备(340)中的另一终端设备传输的已编码视频数据,且可对该已编码视频数据进行解码以恢复视频数据(图片),且可根据恢复的视频数据在可访问的显示设备上显示视频图片。
在图3的示例中,终端设备(310)、终端设备(320)、终端设备(330)和终端设备(340)分别示为服务器、个人计算机和智能电话,但本公开的原理可不限于此。本公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(350)表示在终端设备(310)、终端设备(320)、终端设备(330)和终端设备(340)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(350)可在电路交换和/或分组交换信道中交换数据。代表性的网络可包括电信网络、局域网、广域网和/或因特网。出于本论述的目的,除非在下文中有所解释,否则网络(350)的架构和拓扑对于本公开的操作来说可能是无关紧要的。
作为本申请所公开主题的应用的示例,图4示出了流式传输环境中的视频编码器和视频解码器。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、流式传输业务、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(413),该采集子系统可包括诸如数码相机等视频源(401),该视频源创建例如未压缩的视频图片流(402)。在一个示例中,视频图片流(402)包括由数码相机拍摄的样本。相较于已编码视频数据(404)(或已编码视频比特流),视频图片流(402)被描绘为粗线以强调其具有高数据量,视频图片流(402)可由电子设备(420)处理,该电子设备(420)包括耦接到视频源(401)的视频编码器(403)。视频编码器(403)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(402),已编码视频数据(404)(或已编码视频比特流)被描绘为细线以强调其具有较低的数据量,已编码视频数据404可被存储在流式传输服务器(405)上以供将来使用。一个或多个流式传输客户端子系统,例如图4中的客户端子系统(406)和客户端子系统(408),可访问流式传输服务器(405)以检索已编码视频数据(404)的副本(407)和已编码视频数据(404)的副本(409)。客户端子系统(406)可包括例如电子设备(430)中的视频解码器(410)。视频解码器(410)对已编码视频数据的传入副本(407)进行解码,且产生可在显示器(412)(例如显示屏)或另一呈现设备(未描绘)上渲染/呈现的输出视频图片流(411)。在一些流式传输系统中,可根据某些视频编解码/压缩标准对已编码视频数据(404)、已编码视频数据的副本(407)和已编码视频数据的副本(409)(例如视频比特流)进行编码。该些标准的示例包括ITU-T建议书H.265。在一个示例中,正在开发的视频编解码标准非正式地称为下一代视频编解码(Versatile Video Coding,VVC)。所公开的主题可用于VVC标准的上下文中。
应注意,电子设备(420)和电子设备(430)可包括其它组件(未示出)。举例来说,电子设备(420)可包括视频解码器(未示出),且电子设备(430)还可包括视频编码器(未示出)。
图5示出了视频解码器(510)的示例性框图。视频解码器(510)可设置在电子设备(530)中。电子设备(530)可包括接收器(531)(例如接收电路)。视频解码器(510)可用于代替图4示例中的视频解码器(410)。
接收器(531)可接收将由视频解码器(510)解码的一个或多个已编码视频序列。在一个实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列的解码。可从信道(501)接收已编码视频序列,该信道可以是通向存储已编码的视频数据的存储设备的硬件/软件链路。接收器(531)可接收已编码视频数据以及其它数据,例如,可被转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(531)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(515)可耦接在接收器(531)与熵解码器/解析器(520)(此后称为“解析器(520)”)之间。在某些应用中,缓冲存储器(515)是视频解码器(510)的一部分。在其它情况下,该缓冲存储器(515)可设置在视频解码器(510)外部(未标示)。而在其它情况下,视频解码器(510)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(510)的内部可配置另一缓冲存储器(515)以例如处理播出定时。而当接收器(531)从具有足够带宽和可控性的存储/转发设备或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(515),或可以将缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(515),该缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(510)外部的类似元件(未标示)中。
视频解码器(510)可包括解析器(520)以根据已编码视频序列重建符号(521)。这些符号的类别包括用于管理视频解码器(510)的操作的信息,以及用以诸如控制呈现设备(512)(例如,显示屏)等呈现设备的潜在信息,该呈现设备不是电子设备(530)的组成部分,但可耦接到电子设备(530),如图5中所示。用于呈现设备的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(520)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编解码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(520)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、瓦片(tile)、切片(slice)、宏块、CU、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(520)还可从已编码视频序列提取诸如变换系数、量化器参数值、运动矢量等信息。
解析器(520)可对从缓冲存储器(515)接收的视频序列执行熵解码/解析操作,从而创建符号(521)。
取决于已编码视频图片或一部分已编码视频图片(诸如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(521)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(520)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(520)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(510)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施方式中,这些单元中的许多单元彼此紧密交互并且可以至少部分地彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(551)。缩放器/逆变换单元(551)从解析器(520)接收作为符号(521)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(551)可输出包括样本值的块,这些块可输入到聚合器(555)中。
在一些情况下,缩放器/逆变换单元(551)的输出样本可属于帧内编码块。帧内已编码块未使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息。此类预测性信息可由帧内图片预测单元(552)提供。在一些情况下,帧内图片预测单元(552)采用从当前图片缓冲器(558)提取的周围已重建的信息生成大小和形状与正在重建的块相同的块。举例来说,当前图片缓冲器(558)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(555)基于每个样本,将帧内预测单元(552)生成的预测信息添加到由缩放器/逆变换单元(551)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(551)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测(motion compensation prediction,MCP)单元(553)可访问参考图片存储器(557)以提取用于预测的样本。在根据属于块的符号(521)对提取的样本进行运动补偿之后,这些样本可由聚合器(555)添加到缩放器/逆变换单元(551)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。参考图片存储器(557)中的、MCP单元(553)获取预测样本的地址可由运动矢量来控制,且该运动矢量以符号(521)的形式而供MCP单元(553)使用,该符号(521)可具有例如X分量、Y分量和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(557)提取的样本值的内插、运动矢量预测机制等等。
聚合器(555)的输出样本可在环路滤波器单元(556)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频比特流)中的参数,且该参数作为来自解析器(520)的符号(521)可用于环路滤波器单元(556)。视频压缩还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(556)的输出可以是样本流,该样本流可输出到呈现设备(512),以及存储在参考图片存储器(557)以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(520))被识别为参考图片,则当前图片缓冲器(558)可变为参考图片存储器(557)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(510)可根据预定视频压缩技术或诸如ITU-T建议书H.265标准执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的档次(profile)的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,档次可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在该档次下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(531)可连同已编码视频一起接收附加(冗余)数据。该附加数据可以是已编码视频序列的一部分。该附加数据可由视频解码器(510)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signalnoise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图6示出了视频编码器(603)的示例性框图。视频编码器(603)设置于电子设备(620)中。电子设备(620)包括传输器(640)(例如传输电路)。视频编码器(603)可用于代替图4示例中的视频编码器(403)。
视频编码器(603)可从视频源(601)(并非图6示例中的电子设备(620)的一部分)接收视频样本,该视频源可采集将由视频编码器(603)编码的视频图像。在另一示例中,视频源(601)是电子设备(620)的一部分。
视频源(601)可提供将由视频编码器(603)编码的呈数字视频样本流形式的源视频序列,该数字视频样本流可具有任何合适位深度(例如:8比特、10比特、12比特……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、YCrCb 4:4:4)。在媒体服务系统中,视频源(601)可以是存储先前已准备的视频的存储设备。在视频会议系统中,视频源(601)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(603)可实时或在所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(643)。施行适当的编码速度是控制器(650)的一个功能。在一些实施例中,控制器(650)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(650)设置的参数可包括速率控制相关参数(图片跳过(skip)、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(650)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(603)。
在一些实施例中,视频编码器(603)在编码环路中进行操作。作为简单的描述,在一个示例中,编码环路可包括源编码器(630)(例如,负责基于待编码的输入图片和参考图片创建符号,诸如符号流)和嵌入于视频编码器(603)中的(本地)解码器(633)。解码器(633)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据。将重建的样本流(样本数据)输入到参考图片存储器(634)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(634)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性的基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(633)的操作可与诸如已在上文结合图5详细描述的视频解码器(510)的“远程”解码器相同。然而,另外简要参考图5,当符号可用且熵编码器(645)和解析器(520)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(515)和解析器(520)在内的视频解码器(510)的熵解码部分,可能无法完全在本地解码器(633)中实施。
在一个实施例中,除存在于解码器中的解析/熵解码之外的解码器技术,以相同或基本上相同的功能形式存在于对应的编码器中。因此,所公开主题侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。在某些区域中更详细的描述在下文提供。
在操作期间,在一些示例中,源编码器(630)可执行MCP编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,MCP编码对输入图片进行预测性编码。以此方式,编码引擎(632)对输入图片的像素块与参考图片的像素块之间的差异进行编码,该参考图片可被选作该输入图片的预测参考。
本地视频解码器(633)可基于源编码器(630)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(632)的操作可为有损处理。当已编码视频数据可在视频解码器(图6中未示出)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(633)复制解码处理,该解码处理可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片存储器(634)中。以此方式,视频编码器(603)可在本地存储重建的参考图片的副本,该副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(635)可针对编码引擎(632)执行预测搜索。即,对于将要编码的新图片,预测器(635)可在参考图片存储器(634)中搜索可作为该新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,诸如参考图片运动矢量、块形状等。预测器(635)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(635)获得的搜索结果,可确定输入图片可具有从参考图片存储器(634)中存储的多个参考图片取得的预测参考。
控制器(650)可管理源编码器(630)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(645)中对所有上述功能单元的输出进行熵编码。熵编码器(645)根据诸如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号应用无损压缩,从而将这些符号转换成已编码视频序列。
传输器(640)可缓冲由熵编码器(645)创建的已编码视频序列,从而为通过通信信道(660)进行传输做准备,该通信信道可以是通向将存储已编码视频数据的存储设备的硬件/软件链路。传输器(640)可将来自视频编码器(603)的已编码视频数据与要传输的其它数据合并,该其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(650)可管理视频编码器(603)的操作。在编码期间,控制器(650)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,IDR)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,该帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,该帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,该其它块可由应用于块的相应图片的编码分配来确定。举例来说,I图片的块可进行非预测编码,或该块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时间预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时间预测进行预测编码。
视频编码器(603)可根据诸如ITU-T建议书H.265的预定视频编解码技术或标准执行编码操作。在操作中,视频编码器(603)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在一个实施例中,传输器(640)可在传输已编码视频时传输附加数据。源编码器(630)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、诸如冗余图片和切片的其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在一个示例中,将正在编码/解码的特定图片分割成块,该正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。该运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,该运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,诸如按解码次序都在视频中的当前图片之前(但按显示次序可以分别是过去和将来)的第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。可通过第一参考块和第二参考块的组合来预测该块。
此外,合并模式技术可用于帧间图片预测中以改善编解码效率。
根据本公开的一些实施例,诸如帧间图片预测和帧内图片预测的预测以块为单位执行。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(coding treeunit,CTU)以用于压缩,图片中的CTU具有相同大小,诸如64×64像素、32×32像素、或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),该三个编码树块是一个亮度CTB和两个色度CTB。可将每个CTU递归地以四叉树拆分为一个或多个CU。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在一个示例中,分析每个CU以确定用于CU的预测类型,诸如帧间预测类型或帧内预测类型。取决于时间和/或空间可预测性,将CU拆分为一个或多个PU。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在一个实施例中,编解码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,诸如8×8像素、16×16像素、8×16像素、16×8像素等等。
图7示出了视频编码器(703)的示例性框图。视频编码器(703)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将该处理块编码到作为已编码视频序列的一部分的已编码图片中。在一个示例中,视频编码器(703)用于代替图4示例中的视频编码器(403)。
在HEVC示例中,视频编码器(703)接收用于处理块的样本值的矩阵,该处理块为诸如8×8样本的预测块等。视频编码器(703)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来最佳地编码该处理块。当在帧内模式中编码处理块时,视频编码器(703)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(703)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编解码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测器外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测器导出运动矢量。在某些其它视频编解码技术中,可存在适用于主题块的运动矢量分量。在一个示例中,视频编码器(703)包括其它组件,诸如用于确定处理块模式的模式决策模块(未示出)。
在图7的示例中,视频编码器(703)包括如图7所示的耦接到一起的帧间编码器(730)、帧内编码器(722)、残差计算器(723)、开关(726)、残差编码器(724)、通用控制器(721)和熵编码器(725)。
帧间编码器(730)用于接收当前块(例如处理块)的样本、比较该块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些示例中,参考图片是基于已编码视频信息解码的已解码参考图片。
帧内编码器(722)用于接收当前块(例如处理块)的样本;在一些情况下,比较该块与同一图片中已编码的块;在变换之后生成量化系数;以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在一个示例中,帧内编码器(722)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(721)用于确定通用控制数据,且基于该通用控制数据控制视频编码器(703)的其它组件。在一个示例中,通用控制器(721)确定块的模式,且基于该模式将控制信号提供到开关(726)。举例来说,当该模式是帧内模式时,通用控制器(721)控制开关(726)以选择供残差计算器(723)使用的帧内模式结果,且控制熵编码器(725)以选择帧内预测信息且将该帧内预测信息添加在比特流中;以及当该模式是帧间模式时,通用控制器(721)控制开关(726)以选择供残差计算器(723)使用的帧间预测结果,且控制熵编码器(725)以选择帧间预测信息且将该帧间预测信息添加在比特流中。
残差计算器(723)用于计算所接收的块与选自帧内编码器(722)或帧间编码器(730)的预测结果之间的差值(残差数据)。残差编码器(724)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在一个示例中,残差编码器(724)用于将残差数据从空间域转换到频域,且生成变换系数。变换系数接着经受量化处理以获得量化的变换系数。在各种实施例中,视频编码器(703)还包括残差解码器(728)。残差解码器(728)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(722)和帧间编码器(730)使用。举例来说,帧间编码器(730)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(722)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些示例中,该已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(725)用于将比特流格式化以包括已编码的块。熵编码器(725)被配置为根据诸如HEVC标准的合适标准而在比特流中包括各种信息。在一个示例中,熵编码器(725)用于将通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和其它合适的信息包括在(写入)比特流中。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图8示出了视频解码器(810)的示例性框图。视频解码器(810)用于接收作为已编码视频序列的一部分的已编码图片,且对该已编码图片进行解码以生成重建的图片。在一个示例中,视频解码器(810)用于代替图4示例中的视频解码器(410)。
在图8的示例中,视频解码器(810)包括如图8中所示的耦接到一起的熵解码器(871)、帧间解码器(880)、残差解码器(873)、重建模块(874)和帧内解码器(872)。
熵解码器(871)可用于根据已编码图片来重建某些符号,这些符号表示构成该已编码图片的语法元素。此类符号可包括例如用于对块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(872)或帧间解码器(880)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)。这些符号还可包括呈例如量化的变换系数形式的残差信息等等。在一个示例中,当预测模式是帧间预测模式或双向预测模式时,将帧间预测信息提供到帧间解码器(880);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(872)。残差信息可经受逆量化并提供到残差解码器(873)。
帧间解码器(880)用于接收帧间预测信息,且基于该帧间预测信息生成帧间预测结果。
帧内解码器(872)用于接收帧内预测信息,且基于该帧内预测信息生成预测结果。
残差解码器(873)用于执行逆量化以提取解量化的变换系数,且处理该解量化的变换系数,以将残差信息从频域转换到空间域。残差解码器(873)还可能需要某些控制信息(用以获得量化器参数QP),且该信息可由熵解码器(871)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(874)用于在空间域中组合由残差解码器(873)输出的残差信息与预测结果(根据具体情况可由帧间预测模块或帧内预测模块输出)以形成重建的块,该重建的块可以是重建的图片的一部分,该重建的图片继而可以是重建的视频的一部分。应注意,可执行诸如解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实现视频编码器(403)、视频编码器(603)和视频编码器(703)以及视频解码器(410)、视频解码器(510)和视频解码器(810)。在一个实施例中,可使用一个或多个集成电路来实现视频编码器(403)、视频编码器(603)和视频编码器(703)以及视频解码器(410)、视频解码器(510)和视频解码器(810)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实现视频编码器(403)、视频编码器(603)和视频编码器(703)以及视频解码器(410)、视频解码器(510)和视频解码器(810)。
本公开包括与子块级别的MV约束相关的实施例,以在MV指向参考图片边界的外部时禁用或不允许双向预测(例如,AMVP模式下的双向预测)。对于合并模式,也可以将来自合并候选的合并MV约束在双向预测模式的子块级别。
ITU-T VCEG(Q6/16)和ISO/IEC MPEG(JTC 1/SC 29/WG 11)分别于2013年(第1版)、2014年(第2版)、2015年(第3版)和2016年(第4版)发布了H.265/HEVC(高效视频编解码)标准。在2015年,两个标准组织联合成立了联合视频探索小组(Joint VideoExploration Team,JVET),以探索开发超越HEVC的下一个视频编解码标准的潜力。2017年10月,这两个标准组织发表了关于具有超越HEVC能力的视频压缩的联合提案征集(callfor proposals,CfP)。截至2018年2月15日,分别提交了22份关于标准动态范围(standarddynamic range,SDR)的CfP回复、12份关于高动态范围(high dynamic range,HDR)的CfP回复和12份关于360个视频类别的CfP回复。2018年4月,收到的所有CfP回复都在122MPEG/第10届JVET会议上进行了评估。会议结果为JVET正式发动了超越HEVC的下一代视频编解码的标准化进程。新标准被命名为多功能视频编解码(Versatile Video Coding,VVC),JVET被重新命名为联合视频专家小组。在2020年,ITU-T VCEG(Q6/16)和ISO/IEC MPEG(JTC 1/SC29/WG 11)发布了VVC视频编解码标准(版本1)。
在帧间预测中,对于每个帧间预测CU,VVC的编码特征需要运动参数以例如用于帧间预测样本生成。运动参数可以包括运动矢量、参考图片索引、参考图片列表使用索引和/或附加信息。可以以显式或隐式方式用信号通知运动参数。当用跳过模式(skip mode)编码CU时,CU可与一个PU相关联,可以不需要显著残差系数、已编码运动矢量增量和/或参考图片索引。当用合并模式编码CU时,可以从相邻的CU获得CU的运动参数。相邻的CU可包括空间候选和时间候选,以及诸如在VVC中引入的附加调度(或附加候选)。可以将合并模式应用于任何帧间预测的CU,而不仅仅是跳过模式的CU。合并模式的替代方案是运动参数的显式传输,可以对于每个CU显式地用信号通知运动矢量、每个参考图片列表的对应参考图片索引、参考图片列表使用标志、和/或其他需要的信息。
在VVC中,VVC测试模型(VVC test model,VTM)参考软件可包括许多新的和改进的帧间预测编解码工具,这些工具可包括以下一个或多个:
(1)扩展合并预测;
(2)合并运动矢量差值(Merge motion vector difference,MMVD);
(3)具有对称运动矢量差值(motion vector difference,MVD)信令的AMVP模式;
(4)仿射MCP;
(5)SbTMVP;
(6)AMVR;
(7)运动场存储:第1/16个亮度样本MV存储和8x8运动场压缩;
(8)BCW;
(9)BDOF;
(10)DMVR;
(11)帧间和帧内组合预测(Combined inter and intra prediction,CIIP);和
(12)GPM。
合并候选列表可以通过包括五种类型的候选来构建,诸如在VTM 4中。合并候选列表可以按如下顺序构造:
1)来自空间相邻CU的空间MVP;
2)来自并置CU的时间MVP;
3)来自FIFO表的基于历史的MVP;
4)成对平均MVP;和
5)零MV(Zero MVs)。
合并列表的大小可以在切片头中用信号通知。合并列表的最大允许大小可以是6,诸如在VTM 4中。对于以合并模式编码的每个CU,可以例如使用截断的一元二值化来编码最佳合并候选的索引。可以用上下文编码合并索引的第一个二进制文件(bin),可以将旁路编码用于其他bin。
在空间候选导出中,例如VVC中的空间合并候选的导出可以与HEVC中的空间合并候选的导出相同或相似。例如,在位于图9所示位置的候选中,可以选择最大数量的合并候选(例如,四个合并候选)。如图9所示,当前块(901)可以包括分别位于位置A0、A1、B0、B1和B2的相邻块(902)-(906)。空间合并候选的导出顺序可以是B1、A1、B0、A0和B2。只有当位置A0、B0、B1或A1处的任何CU(或块)不可用(例如,因为CU属于另一个切片(slice)或瓦片(tile))或是帧内编码的时,才可以考虑位置B2。在添加位置A1处的候选(或块)之后,可以对剩余候选(或块)的添加进行冗余校验。冗余校验可以确保具有相同运动信息的候选被排除在合并列表之外,从而提高编码效率。为了降低计算复杂度,冗余校验可以不考虑所有可能的候选对。替代地,可以仅考虑与图10中的箭头链接的候选对。例如,可以将冗余校验应用于5个候选对,诸如A1和B1的候选对以及A1和A0的候选对。只有当用于冗余校验的对应候选不包括相同的运动信息时,才可以将候选添加到合并列表。例如,只有当对应候选B1不包括相同的运动信息时,才可以将候选B0添加到合并列表。
在时间候选导出中,只能将一个候选添加到合并列表中。例如,如图11所示,在当前CU(1114)的时间合并候选的导出中,可基于属于并置参考图片(1112)的并置CU(1104)导出缩放运动矢量。可以在切片报头中显式地用信号通知用于并置CU(1104)的导出的参考图片列表。可以如图11中的虚线(1102)所示的那样获得用于时间合并候选的缩放运动矢量,其是使用图片序列号(picture order count,POC)距离tb和td对并置CU(1104)的运动矢量进行缩放获得的。tb可以被定义为当前图片的参考图片(例如,Curr_ref)(1106)与当前图片(例如,Curr_pic)(1108)之间的POC差值。td可以被定义为并置图片的参考图片(例如,Col_ref)(1110)与并置图片(例如,Col_pic)(1112)之间的POC差值。可以将时间合并候选的参考图片索引设置为等于零。
如图12所示,可以在候选C0和候选C1之间选择时间候选的位置。例如,如果位置C0处的CU不可用、是帧内编码的、或在CTU的当前行之外,则可以使用位置C1。否则,位置C0可用于时间合并候选的导出。
在HEVC中,将平移运动模型应用于MCP。而在现实世界中,可以存在多种运动,诸如放大/缩小、旋转、透视运动(perspective motions)和其他不规则运动。可以诸如在VTM中应用基于块的仿射变换MCP。图13A示出了由两个控制点(4参数)的运动信息描述的块(1302)的仿射运动场。图13B示出了由三个控制点运动矢量(6参数)描述的块(1304)的仿射运动场。
如图13A所示,在4参数仿射运动模型中,块(1302)中的样本位置(x,y)处的运动矢量可以在公式(1)中导出如下:
其中mvx可以是第一方向(或X方向)上的运动矢量,且mvy可以是第二方向(或Y方向)上的运动矢量。运动矢量也可以在公式(2)中描述:
如图13B所示,在6参数仿射运动模型中,块(1304)中的样本位置(x,y)处的运动矢量可以在公式(3)中导出如下:
其中,6参数仿射运动模型还可以在公式(4)中描述如下:
如公式(1)和(3)所示,(mv0x,mv0y)可以是左上角控制点的运动矢量。(mv1x,mv1y)可以是右上角控制点的运动矢量。(mv2x,mv2y)可以是左下角控制点的运动矢量。
如图14所示,为了简化MCP,可以应用基于块的仿射变换预测。为了导出每个4×4亮度子块的运动矢量,可以根据公式(1)-(4)计算当前块(1400)中每个子块(例如,(1404))的中心样本(例如,(1402))的运动矢量,并将该运动矢量四舍五入为1/16分像素精度。然后,可以应用运动补偿内插滤波器来生成具有导出的运动矢量的每个子块的预测。色度分量的子块大小也可以设置为4×4。可以将4×4色度子块的MV计算为四个对应的4×4亮度子块的MV的平均值。
在仿射合并预测中,可以将仿射合并(AF_MERGE)模式应用于宽度和高度都大于或等于8的CU。可以基于空间相邻CU的运动信息来生成当前CU的CPMV。最多可将五个CPMVP候选应用于仿射合并预测,并且可以发信号通知索引以指示五个CPMVP候选中的哪一个可用于当前CU。在仿射合并预测中,可以使用三种类型的CPMV候选来形成仿射合并候选列表:(1)从相邻CU的CPMV外推出的继承的仿射合并候选,(2)通过使用相邻CU的平移MV导出的CPMVP进行构建的仿射合并候选,以及(3)零MV。
在VTM3中,最多可以应用两个继承的仿射候选。这两个继承的仿射候选可以从相邻块的仿射运动模型中导出。例如,一个继承的仿射候选可以从左相邻CU导出,而另一个继承的仿射候选可以从上相邻CU导出。示例性候选块可以在图15中示出。如图15所示,对于左预测器(或左继承的仿射候选),扫描顺序可以是A0->A1,对于上预测器(或上继承的仿射候选),扫描顺序可以是B0->B1->B2。因此,只能从每侧选择第一个可用的继承候选。不能在两个继承的候选之间执行修剪校验(pruning check)。当识别出相邻仿射CU时,该相邻仿射CU的控制点运动矢量可用于导出当前CU的仿射合并列表中的CPMVP候选。如图16所示,当以仿射模式对当前块(1604)的相邻左下块A进行编码时,可以得到包含块A的CU(1602)的左上角、右上角和左下角的运动矢量v2、v3和v4。当块A用4参数仿射模型编码时,可以根据CU(1602)的v2和v3计算当前CU(1604)的两个CPMV。在块A用6参数仿射模型编码的情况下,可以根据CU(1602)的v2、v3和v4计算当前CU(1604)的三个CPMV。
构造的当前块的仿射候选可以是通过组合当前块的每个控制点的相邻平移运动信息而构造的候选。可以从指定的空间邻居和可以在图17中示出的时间邻居导出控制点的运动信息。如图17所示,CPMVk(k=1,2,3,4)表示当前块(1702)的第k个控制点。对于CPMV1,可以校验B2->B3->A2块,并且可以使用第一个可用块的MV。对于CPMV2,可以校验B1->B0块。对于CPMV3,可以校验A1->A0块。如果CPMV4不可用,可以将TMVP用作CPMV4
在得到四个控制点的MV之后,可以基于四个控制点的运动信息为当前块(1702)构造仿射合并候选。例如,可以基于四个控制点的MV的组合以如下顺序构造仿射合并候选:{CPMV1、CPMV2、CPMV3}、{CPMV1、CPMV2、CPMV4}、{CPMV1、CPMV3、CPMV4}、{CPMV2、CPMV3、CPMV4}、{CPMV1、CPMV2}和{CPMV1、CPMV3}。
3个CPMV的组合可以构造6参数仿射合并候选,而2个CPMV的组合可以构造4参数仿射合并候选。为了避免运动缩放处理,如果控制点的参考索引不同,则可以丢弃控制点MV的相关组合。
在对继承的仿射合并候选和构造的仿射合并候选进行校验之后,如果列表仍然未满,则可以在列表的末尾插入零MV。
在仿射AMVP预测中,可以将仿射AMVP模式应用于宽度和高度都大于或等于16的CU。可以在比特流中用信号通知CU级别中的仿射标志以指示是否使用仿射AMVP模式,随后可以发信号通知另一标志以指示是否应用4参数仿射或6参数仿射。在仿射AMVP预测中,可以在比特流中用信号通知当前CU的CPMV与当前CU的CPMVP的预测器之间的差值。仿射AMVP候选列表的大小可以是2,并且仿射AMVP候选列表可以通过按如下顺序使用四种类型的CPMV候选来生成:
(1)从相邻CU的CPMV外推出的继承的仿射AMVP候选;
(2)构建的具有CPMVP的仿射AMVP候选,该CPMVP是使用相邻CU的平移MV导出的,
(3)来自相邻CU的平移MV;和
(4)零MV。
继承的仿射AMVP候选的校验顺序可以与继承的仿射合并候选的校验顺序相同。为了确定AVMP候选,只能考虑与当前块具有相同参考图片的仿射CU。当继承的仿射运动预测器被插入到候选列表中时,可以不应用修剪处理。
构造的AMVP候选可以从指定的空间邻居导出。如图17所示,可以应用与仿射合并候选构造中的校验顺序相同的校验顺序。此外,还可以校验相邻块的参考图片索引。可以对校验顺序中的第一块进行帧间编码以具有与当前CU(1702)相同的参考图片。当当前CU(1702)用4参数仿射模式编码时,可以确定一个构造的AMVP候选,并且mv0和mv1都是可用的。可以进一步将构造的AMPV候选添加到仿射AMVP列表中。当当前CU(1702)用6参数仿射模式编码且所有三个CPMV都可用时,可以将构造的AMVP候选作为一个候选添加到仿射AMVP列表中。否则,可以将构造的AMVP候选设置为不可用。
如果在校验继承的仿射AMVP候选和构造的AMVP候选之后,仿射AMVP列表中的候选仍然小于2,则可以按顺序添加mv0、mv1和mv2。当可用时,mv0、mv1和mv2可以用作平移MV,以预测当前CU(例如(1702))的所有控制点MV。最后,如果仿射AMVP仍然未满,则可以使用零MV来填充仿射AMVP列表。
与基于像素的运动补偿相比,基于子块的仿射运动补偿可以节省存储器访问带宽并降低计算复杂度,但代价是预测精度损失。为了实现更细粒度的运动补偿,可以使用PROF来修正基于子块的仿射MCP,而不增加用于运动补偿的存储器访问带宽。在VVC中,在执行基于子块的仿射运动补偿之后,可以通过添加由光流公式导出的差值来修正亮度预测样本。PROF可以描述为下面四个步骤:
步骤(1):可以执行基于子块的仿射运动补偿来生成子块预测I(i,j)。
步骤(2):可以使用3抽头滤波器[-1,0,1]在每个样本位置计算子块预测的空间梯度gx(i,j)和gy(i,j)。该梯度计算可以与BDOF中的梯度计算相同。例如,空间梯度gx(i,j)和gy(i,j)可以分别基于公式(5)和公式(6)进行计算。
gx(i,j)=(I(i+1,j)>>shift1)-(I(i-1,j)>>shift1) 公式(5)
gy(i,j)=(I(i,j+1)>>shift1)-(I(i,j-1)>>shift1) 公式(6)
如公式(5)和公式(6)所示,可使用shift1来控制梯度的精度。子块(例如,4x4)预测可以通过在每侧扩展一个样本来进行扩展以用于梯度计算。为了避免附加的存储器带宽和附加的插值计算,可以从参考图片中最近的整数像素位置复制扩展边界上的扩展样本。
步骤(3):可以通过如公式(7)所示的光流公式来计算亮度预测修正。
ΔI(i,j)=gx(i,j)*Δvx(i,j)+gy(i,j)*Δvy(i,j) 公式(7)
其中Δv(i,j)可以是为样本位置(i,j)计算的样本MV(由v(i,j)表示)与样本(i,j)所属的子块的子块MV(由vSB表示)之间的差值。图14示出了样本MV和子块MV之间的差值的示例图。如图18所示,子块(1802)可以包括在当前块(1800)中,样本(1804)可以包括在子块(1802)中。样本(1804)可以包括对应于参考像素(1806)的样本运动矢量v(i,j)。子块(1802)可以包括子块运动矢量vSB。基于子块运动矢量vSB,样本(1804)可以对应于参考像素(1808)。由Δv(i,j)表示的样本MV和子块MV之间的差值可以由参考像素(1806)和参考像素(1808)之间的差值来指示。可以以1/32亮度样本精度为单位对Δv(i,j)进行量化。
由于仿射模型参数和相对于子块中心的样本位置可能不会从一个子块改变到另一个子块,因此可以针对第一子块(例如(1802))计算Δv(i,j),并将该Δv(i,j)重用于相同CU(例如(1800))中的其他子块(例如(1810))。将dx(i,j)和dy(i,j)分别设为从样本位置(i,j)到子块的中心(xSB,ySB)的水平偏移和垂直偏移,可以由如下方程(8)和方程(9)导出Δv(x,y):
为了保持精度,可以将子块的中心(xSB,ySB)计算为((WSB-1)/2,(HSB-1)/2),其中WSB和HSB分别是子块的宽度和高度。
一旦获得Δv(x,y),就可以获得仿射模型的参数。例如,对于4参数仿射模型,仿射模型的参数可以在公式(10)中示出。
对于6参数仿射模型,仿射模型的参数可以在公式(11)中示出。
其中(v0x,v0y)、(v1x,v1y)和(v2x,v2y)可以分别是左上控制点运动矢量、右上控制点运动矢量和左下控制点运动矢量,w和h可以分别是CU的宽度和高度。
步骤(4):最后,可以将亮度预测修正ΔI(i,j)添加到子块预测I(i,j)中。如公式(12)所示,可以生成最终预测I’。
I′(i,j)=,(i,j)+Δ,(i,j) 公式(12)
对于仿射已编码CU,PROF在两种情况下可能不适用:(1)所有控制点MV都是相同的,这指示了CU仅具有平移运动,以及(2)仿射运动参数大于指定的极限,因为基于子块的仿射MC被降级为基于CU的MC,以避免存储器访问带宽的较大需求。
SbTMVP可以在相关编解码标准(诸如VVC)中得到支持。类似于HEVC中的TMVP,SbTMVP可以使用当前图片的并置图片中的运动场来提高当前图片中对于CU的运动矢量预测(例如,合并模式)。TMVP使用的并置图片也可以用于SbTMVP。SbTMVP可以在以下方面不同于TMVP:(1)TMVP预测CU级别的运动,而SbTMVP预测子CU级别的运动;以及(2)TMVP从并置图片中的并置块(例如,该并置块可以是相对于当前CU的右下块或中心块)获取时间运动矢量。SbTMVP在从并置图片获取时间运动信息之前应用运动移位,运动移位可以是从当前CU的空间相邻块之一的运动矢量获得的。
应用于SbTMVP的示例性空间相邻块可以在图19中示出。如图19所示,SbTMVP可以分两步预测当前CU(1902)内的子CU(未示出)的运动矢量。在第一步骤中,可以检查图19中的空间邻居A1(1904)。如果A1(1904)具有使用当前图片的并置图片作为参考图片的运动矢量,则A1(1904)的运动矢量可以被选择为SbTMVP的运动移位(或位移矢量),以在并置图片中为当前CU的每个子块寻找对应的子块。如果没有识别出这种运动矢量,则可以将运动移位设置为(0,0)。
在第二步骤中,可以应用在第一步骤中识别的运动移位(例如,添加到当前CU的坐标)以从并置图片获得子CU级别运动信息(例如,子CU级别的运动矢量和参考索引)。如图20所示,当前CU(2004)可以包括在当前图片(2002)中。当前CU(2004)可以包括多个子CU(或子块),诸如子CU(2006)。相邻块A1(2008)可以位于当前CU(2004)的左下侧。在图20的示例中,可以将运动移位(或DV)(2010)设置为相邻块A1(2008)的运动矢量。根据DV(2010),可以确定相邻块A1(2008)的参考块A1’(2018)。可以将与参考块A1’(2018)相邻的参考块(2014)确定为当前块(2004)的参考块。对于当前块(2004)中的每个子CU(例如(2006)),当前图片(2002)的并置图片(2012)中的参考块(2014)中的对应块(或对应子CU)(例如(2016))的运动信息可用于导出相应子CU的运动信息。参考块(2014)中的每个子块(例如(2016))可以是覆盖子块的中心样本的最小运动网格。在识别并置子CU(例如(2016))的运动信息之后,可以将运动信息转换为当前子CU(例如(2006))的运动矢量和参考索引。可以以与HEVC的TMVP处理类似的方式将运动信息转换为当前子CU的运动矢量和参考索引,其中可以应用时间运动缩放来将参考图片的时间运动矢量与当前CU的时间运动矢量对齐。
在BCW中,可以通过对从两个不同参考图片获得的两个预测信号进行平均和/或使用两个不同的运动矢量来诸如在HEVC中生成双向预测信号。在VVC中,双向预测模式可以扩展到简单的平均处理之外,以允许对两个预测信号进行加权平均。在一个示例中,两个预测信号的加权平均可以在公式(13)中示出:
Pbi-pred=((8-w)*P0+w*P1+4)>>3 公式(13)
其中w可以是权重,P0可以是第一预测器,P1可以是第二预测器。
在加权平均双向预测中可以允许多个权重(诸如五个权重),例如w∈{-2,3,4,5,10}。对于每个双向预测CU,可以以两种方式之一来确定权重w:(1)对于非合并CU,可以在运动矢量差值之后用信号通知权重索引,或者(2)对于合并CU,可以基于合并候选索引从相邻块推断权重索引。在一个示例中,BCW仅应用于具有256个亮度样本的CU或具有更多亮度样本的CU(例如,CU宽度乘以CU高度大于或等于256)。对于低延迟图片,可以使用所有5个权重。对于非低延迟图片,可以使用较小数量的权重,例如仅使用3个权重(例如,w∈{3,4,5})。
在编码器中,可以应用快速搜索算法来寻找权重索引,而不会显著增加编码器的复杂度。示例性快速搜索算法可以总结如下:
(1)当与AMVR组合时,如果当前图片是低延迟图片,只能有条件地校验1像素和4像素运动矢量精度的不相等权重。
(2)当与仿射结合时,当且仅当仿射模式被选择为当前最佳模式时,将对不相等权重执行仿射ME。
(3)当双向预测中的两个参考图片相同时,只能有条件地检查不相等的权重。
(4)当满足某些条件时,取决于当前图片和当前图片的参考图片之间的POC距离、编码量化参数(QP)和时间级别,可以不搜索不相等的权重。
可以使用其后紧跟旁路编码的bin的一个上下文编码的bin来编码BCW权重索引。第一上下文编码的bin可以指示是否使用了相等的权重。如果使用了不相等的权重,则可以使用旁路编码来用信号通知附加bin,以指示使用了哪个不相等的权重。
可以在图片级别中处理的加权预测(weighted prediction,WP)可以是由诸如H.264/AVC和HEVC标准的视频标准支持的编码工具,以有效地编码具有淡入或淡出内容的视频内容。也可以将对WP的支持添加到VVC标准中。WP可以允许为参考图片列表L0和L1中的每个中的每个参考图片用信号通知加权参数(例如,权重和偏移)。然后,在运动补偿期间,可以应用对应的参考图片的权重和偏移。可以为不同类型的视频内容设计WP和BCW。为了避免WP和BCW之间可能使VVC解码器设计复杂化的交互,如果CU使用WP,则可能不会用信号通知BCW权重指数,并且可以推断w为4(例如,应用相等的权重)。对于合并CU,可以基于合并候选索引从相邻块推断权重索引。可以基于正常合并模式和继承的仿射合并模式之一来获得合并CU。对于构造的仿射合并模式,可以基于多达3个块的运动信息来构造仿射运动信息。使用构造的仿射合并模式的CU的BCW索引可以简单地设置为等于第一控制点MV的BCW索引。
在一些示例中,CIIP和BCW(诸如在VVC)可不联合应用于CU。当用CIIP模式编码CU时,可以将当前CU的BCW索引设置为2,例如,相等的权重。
VVC中的BDOF以前在JEM中被称为BIO。与JEM版本相比,VVC中的BDOF可以为需要更少计算的更简单的版本,特别是在乘法次数和乘法器大小方面。
BDOF可用于在4×4子块级别上修正CU的双向预测信号。如果CU满足以下条件,则可将BDOF应用于CU:
(1)使用“真”双向预测模式对CU进行编码,即,两个参考图片中的一个在显示顺序上在当前图片之前,另一个在显示顺序上在当前图片之后;
(2)从两个参考图片到当前图片的距离(例如,POC差值)是相同的;
(3)两张参考图片均为短期参考图片;
(4)未使用仿射模式或SbTMVP合并模式对CU进行编码;
(5)CU具有64个以上的亮度样本;
(6)CU高度和CU宽度均大于或等于8亮度样本;
(7)BCW权重指数指示权重相等;
(8)当前CU未启用WP(weighted position);和
(9)当前CU未使用CIIP模式。
BDOF可仅应用于亮度分量。正如BDOF的名称指示的,BDOF模式可以基于光流概念,该概念假设物体的运动是平稳的。对于每个4×4子块,可以通过最小化L0预测样本和L1预测样本之间的差值来计算运动修正(vx,vy)。然后,该运动修正可用于调整4x4子块中的双向预测的样本值。BDOF可包括以下步骤:
首先,可以通过直接计算两个相邻样本之间的差值来计算来自参考列表L0和参考列表L1的两个预测信号的水平梯度和垂直梯度/>k=0,1。水平梯度和垂直梯度可以在公式(14)和公式(15)中提供如下:
其中I(k)(i,j)可以是列表k,k=0,1中的预测信号的坐标(i,j)处的样本值,并且可以基于亮度位深度bitDepth来计算shift1,其中shift1=max(6,bitDepth-6)。
然后,可以根据方程(16)-方程(20)如下地计算梯度S1、S2、S3、S5和S6的自相关和互相关:
S1=∑(i,j)∈ΩAbs(ψx(i,j)), 公式(16)
S2=∑(i,j)∈Ωψx(i,j)·Sign(ψy(i,j)) 公式(17)
S3=∑(i,j)∈Ωθ(i,j)·Sign(ψx(i,j)) 公式(18)
S5=∑(i,j)∈ΩAbs(ψy(i,j)) 公式(19)
S6=∑(i,j)∈Ωθ(i,j)·Sign(ψy(i,j)) 公式(20)
其中,ψx(i,j)、ψy(i,j)和θ(i,j)可以分别在公式(21)-公式(23)中提供。
θ(i,j)=(I(1)(i,j)>>nb)-(I(0)(i,j)>>nb) 公式(23)
其中,Ω可以是4×4子块周围的6×6窗口,并且na和nb的值可以分别设置为min(1,bitDepth-11)和min(4,bitDepth-8)。
然后可以通过如下的公式(24)和公式(25)使用互相关项和自相关项导出运动修正(vx,vy):
/>
其中以及th′BIO=2max(5,BD-7)。/>是向下取整函数,以及/>基于运动修正和梯度,可以基于公式(26)为4×4子块中的每个样本计算调整值:
最后,可以通过按如下公式(27)调整双向预测样本来计算CU的BDOF样本:
predBDOF(x,y)=(I(0)(x,y)+I(1)(x,y)+b(x,y)+ooffset)>>shift 公式(27)
可以选择值以使得BDOF处理中的乘法器不超过15位,并且BDOF处理中的中间参数的最大位宽可以保持在32位以内。
为了导出梯度值,需要在当前CU边界之外生成列表k(k=0,1)中的一些预测样本I(k)(i,j)。如图21所示,VVC中的BDOF可以使用CU(2104)的边界(2106)周围的一个扩展行/列(2102)。为了控制生成边界外预测样本的计算复杂度,可以通过在附近整数位置处直接获取参考样本(例如,在坐标上使用floor()操作)而不进行插值来生成扩展区域(例如,图21中的非阴影区域)中的预测样本,并且正常的8抽头运动补偿插值滤波器可用于生成CU内的预测样本(例如,图21中的阴影区域)。扩展样本值只能用于梯度计算。对于BDOF处理中的剩余步骤,如果需要CU边界之外的任何样本和梯度值,则可以从样本和梯度值的最近邻居填充(例如,重复)样本和梯度值。
当CU的宽度和/或高度大于16个亮度样本时,CU可以被分割成宽度和/或高度等于16个亮度样本的子块,并且子块边界可以在BDOF处理中被处理为CU边界。BDOF处理的最大单元尺寸可被限制为16x16。对于每个子块,可以跳过BDOF处理。当初始L0预测样本和L1预测样本之间的绝对差之和(sum of absolute difference,SAD)小于阈值时,BDOF处理可不应用于子块。可以将阈值设置为等于(8*W*(H>>1),其中W可以指示子块的宽度,H可以指示子块的高度。为了避免SAD计算的附加复杂性,在DMVR处理中计算的初始L0预测样本和L1预测样本之间的SAD可以在BDOF处理中重复使用。
如果对当前块启用了BCW,即BCW权重索引/指数指示不相等的权重,则可以禁用BDOF。类似地,如果对当前块启用WP,即,对于两个参考图片中的任一个,亮度权重标志(例如,luma_weight_lx_flag)为1,则BDOF也可以被禁用。当CU用对称MVD模式或CIIP模式编码时,BDOF也可以被禁用。
为了增加合并模式的MV的精度,可以诸如在VVC中应用基于双边匹配(bilateral-matching,BM)的解码器侧运动矢量修正。在双向预测操作中,可以在参考图片列表L0和参考图片列表L1中的初始MV周围搜索修正的MV。BM方法可以计算参考图片列表L0和参考图片列表L1中的两个候选块之间的失真。
图22示出了基于BM的解码器侧运动矢量修正的示例性示意图。如图22所示,当前图片(2202)可以包括当前块(2208)。当前图片可以包括参考图片列表L0(2204)和参考图片列表L1(2206)。当前块(2208)可以根据初始运动矢量MV0包括参考图片列表L0(2204)中的初始参考块(2212),且根据初始运动矢量MV1包括参考图片列表L1(2206)中的初始参考块(2214)。可以在参考图片列表L0(2204)中的初始MV0和参考图片列表L1(2206)中的初始MV1周围执行搜索处理。例如,可以在参考图片列表L0(2204)中识别第一候选参考块(2210),并且可以在参考图片列表L1(2206)中识别第一候选参考块(2216)。可以基于初始MV(例如MV0和MV1)周围的每个MV候选(例如MV0’和MV1’)计算候选参考块(例如(2210)和(2216))之间的SAD。具有最低SAD的MV候选可以成为修正MV,并用于生成双向预测的信号以预测当前块(2208)。
可限制DMVR的应用以只应用于诸如在VVC中的基于模式和特征编码的CU,如下所示:
(1)具有双向预测MV的CU级别合并模式;
(2)相对于当前图片,一个参考图片是过去的,而另一个参考图片是未来的;
(3)从两个参考图片到当前图片的距离(例如,POC差值)是相同的;
(4)两张参考图片均为短期参考图片;
(5)CU具有64个以上的亮度样本;
(6)CU高度和CU宽度均大于或等于8亮度样本;
(7)BCW权重索引/指数指示权重相等;
(8)当前块未启用WP;和
(9)当前块未使用CIIP模式。
由DMVR处理导出的修正MV可用于生成帧间预测样本,并用于未来图片编码的时间运动矢量预测。而原始MV可用于去块(deblocking)处理,并用于未来CU编码的空间运动矢量预测。
在DVMR中,搜索点可以围绕初始MV,并且MV偏移可以服从MV差值镜像规则。换言之,由候选MV对(MV0,MV1)表示的由DMVR校验的任何点可以服从在公式(28)和公式(29)中示出的MV差值镜像规则:
MV0′=MV0+MV_offset 公式(28)
MV1′=MV1-MV_offset 公式(29)
其中MV_offset可以表示参考图片之一中的初始MV和修正MV之间的修正偏移。修正搜索范围可以是初始MV的两个整数亮度样本。搜索可包括整数样本偏移搜索阶段和分像素样本修正阶段。
例如,可将25点全搜索应用于整数样本偏移搜索。可以首先计算初始MV对的SAD。如果初始MV对的SAD小于阈值,则可以终止DMVR的整数采样阶段。否则,可以按扫描顺序(诸如光栅扫描顺序)计算和校验剩余24个点的SAD。可以选择SAD最小的点作为整数样本偏移搜索阶段的输出。为了减少DMVR修正的不确定性带来的损失,在DMVR处理期间可以优先选择原始MV。由初始MV候选引用的参考块之间的SAD可以减少SAD值的1/4。
整数样本搜索之后可以进行分像素样本修正。为了减小计算复杂度,分像素样本修正可以通过使用参数误差表面公式(parametric error surface equation)来导出,而不是通过SAD比较来附加搜索。可以基于整数样本搜索阶段的输出有条件地调用分像素样本修正。当整数样本搜索阶段以在第一迭代搜索或第二迭代搜索中具有最小SAD的中心终止时,可以进一步应用分像素样本修正。
在基于参数误差表面的子像素偏移估计(a parametric error surface-basedsub-pixel offsets estimation)中,中心位置成本和在离中心四个相邻位置处的成本可用于基于公式(30)拟合2-D抛物线误差表面公式(a 2-D parabolic errorsurfaceequation):
E(x,y)=A(x-xmin)2+B(y-ymin)2+C 公式(30)
其中(xmin,ymin)可以对应于具有最小成本的分像素位置,C可以对应于最小成本值。通过使用五个搜索点的成本值求解公式(30),可以在公式(31)和公式(32)中计算(xmin,ymin):
xmin=(E(-1,0)-E(1,0))/(2(E(-1,0)+E(1,0)-2E(0,0))) 公式(31)
ymin=(E(0,-1)-E(0,1))/(2((E(0,-1)+E(0,1)-2E(0,0))) 公式(32)
xmin和ymin的值可以自动约束在-8和8之间,因为所有成本值都为正值,最小值为E(0,0)。xmin和ymin的值的约束可以对应于VVC中第1/16个像素MV精度的半像素(pel或pixel)偏移。可以将计算出的分像素(xmin,ymin)添加到整数距离修正MV上,以得到子像素精确修正增量MV。
可以诸如在VVC中应用双线性插值和样本填充。例如,MV的分辨率可以是1/16个亮度样本。分像素位置的样本可以使用8抽头插值滤波器进行插值。在DMVR中,搜索点可以用整数样本偏移来围绕初始分数-像素MV,因此需要对分像素位置的样本进行插值以进行DMVR搜索处理。为了降低计算复杂度,可以使用双线性插值滤波器来生成用于DMVR中的搜索处理的分像素样本。在另一个重要的效果中,通过使用具有2样本搜索范围的双线性滤波器,与正常运动补偿处理相比,DVMR不会访问更多的参考样本。在通过DMVR搜索处理得到修正后的MV之后,可以应用正常的8抽头插值滤波器来生成最终预测。为了与正常MC处理相比不访问更多的参考样本,可以从可用的样本中填充基于原始MV的插值处理可能不需要但基于修正MV的插值处理可能需要的样本。
当CU的宽度和/或高度大于16个亮度样本时,CU可以被进一步分割成宽度和/或高度等于16个亮度样本的子块。DMVR搜索处理的最大单元尺寸可被限制为16x16。
可将GPM应用于帧间预测。可以使用CU级别标志作为一种合并模式来发信号通知GPM。其他合并模式可包括常规合并模式、MMVD模式、CIIP模式和子块合并模式。在一个示例中,对于大小为w×h=2m×2n(m,n∈{3…6}排除8x64和64x8)的CU,GPM可以支持64个划分。
当使用GPM时,可以通过几何定位的直线(或分割线)将CU分割成两部分。分割线的位置可以从特定划分(例如,64个划分中的一个)的角度和偏移参数数学地导出。图23示出了按相同角度分组的示例性GPM分割。如图23所示,可以在24个组(例如,组(2302))中提供64个支持的GPM划分。每个组中的划分可以具有相同的角度索引和{0…3}的范围内不同的偏移索引。
CU中几何划分的每个部分可以使用相应的运动进行帧间预测。对于CU中的每个分区(或每个部分)可以允许单向预测。因此,几何划分的每个部分可以具有一个运动矢量和一个参考索引。可以应用单向预测运动约束来确保,类似于传统的双向预测,每个CU只需要两个MCP。例如,可以使用图24中描述的处理来导出每个分区的单向预测运动。
当将GPM应用于当前CU时,可以进一步用信号通知几何划分索引和两个合并索引。划分索引可以指示几何划分的划分模式,并且每个合并索引可以与相应的划分相关联。可以在SPS中显式地用信号通知最大GPM候选大小,并为GPM合并索引指定语法二进制化。在预测几何划分的每个部分(或分区)之后,可以使用具有自适应权重(诸如在公式(37)-公式(39)中示出的自适应权重)的混合处理来调整沿着几何划分边的样本值。当前CU的预测信号还可以像在其他预测模式(例如,帧间预测模式)中一样接收变换处理和量化处理。最后,可以存储使用GPM预测的当前CU的运动场。
单向预测候选列表可以直接从根据扩展合并预测处理构造的合并候选列表导出。设n表示为几何单向预测候选列表中的单向预测运动的索引。第n个扩展合并候选的LX运动矢量可用作GPM的第n个单向预测运动矢量,其中X等于n的奇偶性。在图24中,运动矢量(或单向预测运动矢量)可以用“x”标记。如图24所示,当诸如0、2和4的合并索引n为偶数时,可以应用来自L0参考列表的MV。当诸如1和3的合并索引n是奇数时,可以应用来自L1参考列表的MV。在第n个扩展合并候选的对应的LX运动矢量不存在的情况下,相同候选的L(1-X)运动矢量可用作GPM的单向预测运动矢量。例如,当n=0时,如果L0运动矢量不可用,则可将L1运动矢量应用于第0个合并候选。
在使用对应的运动预测CU的几何划分的每个部分之后,可将混合处理应用于两个预测信号以导出几何划分边周围的样本。可以基于相应位置和划分边之间的距离来导出CU的每个位置的混合权重。
可以如下地在公式(33)-公式(36)中导出位置(x,y)到划分边的距离:
其中i,j可以是分别用于几何划分的角度(例如)和偏移(例如ρj)的索引,该索引可以取决于用信号通知的几何分区索引。ρx,j和ρy,j的记号可以取决于角度指数i。可以在公式(37)-公式(39)中导出几何划分的每个部分的权重:
wIdxL(x,y)=partIdx?32+d(x,y):32-d(x,y) 公式(37)
w1(x,y)=1-w0(x,y) 公式(39)
部分索引(例如,partIdx)可以取决于角度索引i。可以在图25中示出权重w0的示例性图示,其中几何划分边(2502)可以将CU(2500)分割成第一部分(2504)和第二部分(2506)。
可以将来自几何划分的第一部分的第一MV(或MV1)、来自几何划分的第二部分的第二MV(或MV2)、以及MV1和MV2的组合MV存储在以GPM编码的CU的运动场中。
可如下地在公式(40)中确定运动场中的每个单独位置的存储的运动矢量类型(或sType):
sType=abs(motionIdx)<32?2:(motionIdx≤0?(1-partIdx):partIdx) 公式(40)
其中motionIdx可以等于d(4x+2,4y+2)。部分索引partIdx可以取决于角度索引。
如果sType等于0或1,则可以将MV1或MV2存储在对应的运动场中,否则,如果sType等于2,则可以存储来自MV1和MV2的组合MV。可以使用如下处理生成组合MV:
1)如果MV1和MV2来自不同的参考图片列表(例如,一个来自L0,另一个来自L1),则MV1和MV2被简单地组合以形成双向预测运动矢量。
2)否则,如果MV1和MV2来自同一列表,则仅存储单向预测运动MV2。
在相关的视频编解码标准中,诸如HEVC和AVC/H.264,可应用四分之一亮度样本的固定运动矢量分辨率。然而,必须选择位移矢量率和预测误差率之间的最佳平衡,以实现整体率失真最优性。诸如在VVC中,可以在编码块级别选择运动矢量分辨率,以平衡比特率与信令运动参数的保真度(或精度)。例如,可以通过AMVR模式来选择运动矢量分辨率。如果MVD的至少一个分量不等于零,则可以在编码块级别上用信号通知AMVR模式。可以将运动矢量预测器四舍五入到给定分辨率,使得可以保证得到的运动矢量落在给定分辨率的网格上。对于每个给定的分辨率,可以在表1中定义对应的AmvrShift值。MVD的分辨率可以通过AmvrShift值的左移位操作来指定,其可以在图26中示出。当启用AMVR模式时,可以修改给定的MVD,该MVD在AMVP模式中表示为MvdL0和MvdL1,在仿射AMVP模式中表示为MvdCpL0和MvdCpL1。
表1 VVC中AmvrShift的定义
在诸如VVC的相关编解码标准中,单向预测和双向预测都允许指向帧边界之外的运动矢量。然而,当至少一个MV超过帧边界时,对于双向预测可能无法获得良好的帧间预测器。
在本公开中,可应用用于帧间双向预测的MV约束。在一个示例中,可将MV约束应用于子块级别。基于子块的双向预测约束通常是指适用于子块级别的双向预测模式中的预测约束。可以基于基于子块的双向预测约束来确定当前块的子块是否由单向预测模式和双向预测模式之一来预测。双向预测模式可以指示基于第一参考图片中的第一参考子块和第二参考图片中的第二子块来预测当前块的子块。单向预测模式可以指示基于第一参考子块和第二参考子块之一来预测当前块的子块。根据基于子块的双向预测约束,在一个实施例中,当第一参考图片中的子块的第一参考子块的边界位于第一参考图片的边界之外,并且第二参考图片中的子块的第二参考子块的边界位于第二参考图片的边界之内时,可以基于单向预测模式重建当前块的子块,使得子块是基于第二参考图片的第二参考子块重建的。在一个实施例中,当第一参考图片中的子块的第一参考子块的边界位于第一参考图片的边界之外并且第二参考图片中的子块的第二参考子块的边界位于第二参考图片的边界之外时,仍然可以基于双向预测模式重建当前块的子块,使得子块是基于第一参考图片的第一参考子块和第二参考图片的第二参考子块重建的。
在一个实施例中,可将基于子块的双向预测约束诸如在子块级别应用于帧间双向预测。在一个实施例中,子块可以具有预定义的子块大小NxN。在一个示例中,子块大小可以是8x8亮度样本。在一个示例中,子块大小可以是4x4亮度样本。
在一个实施例中,对于具有帧间双向预测MV的编码块内的每个NxN子块,如果参考列表之一中的MV指向参考图片的边界之外超出M个像素的阈值(或者如果由MV指向的参考图片的参考块超出参考图片的边界M个像素的阈值),则可将子块改变到单向预测模式,其中参考列表中仅有一个未指向超出对应的参考图片的边界阈值的MV(或者仅有未超出另一参考图片的边界M个像素的阈值的另一MV指向的另一参考图片的另一参考块)。例如,如果第一参考列表中的帧间双向预测MV的第一运动矢量指向第一参考图片的边界之外超过M个像素的阈值,并且第二参考列表中的帧间双向预测MV的第二运动矢量指向第二参考图片的边界之内,或者指向第二参考图片的边界之外小于M个像素的阈值,则可将子块改变为单向预测模式。因此,可将第二参考列表的第二参考图片上的帧间双向预测MV的第二MV应用于单向预测模式。
例如,如图27所示,可将由MV0指示的参考块(2704)中的阴影参考子块(例如,(2714))定位在来自参考列表L0的参考图片(2702)的边界(2712)之外达到阈值M,并且可将由MV1指示的参考块(2710)中的参考子块(例如,(2716))定位在来自参考列表L1的参考图片(2710)之内。因此,与参考块(2704)中的阴影参考子块相对应的当前块(2706)中的阴影子块(例如(2718))可以通过MV1使用单向预测来进行运动补偿。因此,可以基于参考图片(2710)中的对应的子块(例如(2716))来预测当前块(2706)中的阴影子块(例如(2718))。当前块(2706)的其他子块,诸如非阴影子块(例如(2720))仍然可以分别通过参考列表L0和L1上的MV0和MV1使用双向预测。例如,可以基于参考块(2704)中的子块(2722)和参考块(2710)中的子块(2724)来预测子块(2720)。
在一个示例中,阈值M可以等于0。在这种情况下,运动矢量(例如,MV0)指向参考图片(例如,(2704))的边界之外的任何位置(或者由运动矢量指向的参考块超出参考图片的边界之外的任何位置)可以被认为是在参考图片的边界之外,需要进行约束。例如,如图27所示,如果子块(2714)的边界(2726)超出参考图片(2702)的边界(2712),则可以约束子块(2714),并且可以基于子块(2716)预测子块(2718)。
在一个示例中,阈值M可以等于0.5(或0.5个亮度样本)。在这种情况下,运动矢量指向参考图片的边界之外等于或大于0.5个亮度样本的任何位置(或者由运动矢量指向的参考块超出参考图片的边界之外等于或大于0.5个亮度样本的任何位置)可以被认为是在参考图片的边界之外,需要进行约束。例如,如图27所示,如果子块(2714)的边界(2726)超出参考图片(2702)的边界(2712)等于或大于0.5个亮度样本,则可以约束子块(2714),并且可以基于子块(2716)预测子块(2718)。
在一个实施例中,对于具有帧间双向预测MV的编码块内的NxN子块,如果两个参考列表中的帧间双向预测运动矢量指向超出相应参考图片的边界M个像素的阈值的参考块,则该子块可以不受约束并且仍然使用常规双向预测模式。例如,如图27所示,如果子块(2716)也位于参考图片(2710)的边界之外,则子块(2718)仍然可以使用常规双向预测模式,并且基于参考子块(2714)和参考子块(2716)进行预测。
可将基于子块的双向预测约束应用于编码与一个或多个特定预测模式相关联的块。在一个实施例中,可将基于子块的双向预测约束应用于使用诸如仿射帧间预测模式的帧间预测模式来编码块。
在一个示例中,当将基于子块的双向预测约束应用于具有仿射模式的编码块时,用于双向预测约束的子块大小可以与仿射子块大小相同,诸如VVC中的4x4亮度样本,而不管预定义的子块大小NxN是多少。
在一个实施例中,可将基于子块的双向预测约束应用于使用诸如SbTMVP模式的时间运动矢量预测模式来编码块。
在一个示例中,当将基于子块的双向预测约束应用于具有SbTMVP模式的编码块时,用于双向预测约束的子块大小可以与SbTMVP子块大小相同,诸如VVC中的8×8亮度样本,而不管预定义的子块大小NxN是多少。
在一个实施例中,可将基于子块的双向预测约束应用于GPM或三角形划分模式(triangular partitioning mode,TPM)的双向预测混合区域。当应用该约束时,可以基于该约束来确定是否将混合处理应用于GPM/TPM双向预测混合区域。该混合区域可包括以GPM或TPM的两个划分的划分边界为中心的样本。
在一个示例中,当将基于子块的双向预测约束应用于具有GPM模式的编码块时,用于双向预测约束的子块大小可以与GPM子块大小相同,诸如VVC中的4x4亮度样本,而不管预定义的子块大小NxN是多少。
如果GPM中的子块受到约束,则可以不将双向预测混合应用于子块,并且只有具有未超出边界的参考样本位置的单向预测可以用作子块的预测。
在一个实施例中,当子块受到基于子块的双向预测约束并被改变到单向预测模式时,可以为子块存储单向预测模式的单向预测运动信息。
在一个示例中,当4×4子块内的至少一个像素被约束到单向预测模式时,可以为双向预测编码单元的每个4×4子块存储单向预测运动估计。
在一个实施例中,当子块受到双向预测约束并被改变到单向预测模式时,可为该子块禁用一个或多个双向预测相关编码工具。
在一个示例中,可为受约束子块禁用DMVR,这意味着只有有效参考列表(例如,参考列表L1)上的DMVR的原始(或初始)MV(例如,未超出参考图片边界的MV1)可被用作用于运动补偿的单向预测MV。原始单向预测MV也可以用于子块的MV存储。因此,可以不执行DMVR,并且可将未超出参考图片边界的DMVR的原始MV应用于预测当前块的子块。
在一个示例中,可为受约束子块禁用DMVR,这意味着只有有效参考列表上的DMVR的原始MV可被用作用于运动补偿的单向预测MV。然而,在一个示例中,基于DMVR获得的双向预测MV可用于子块的MV存储。因此,可以基于未超出参考图片边界的原始MV之一来预测当前块的子块。可以进一步执行DMVR,以通过修正原始MV来生成两个最终MV。可以为子块存储最终的MV。
在一个示例中,可为受约束子块禁用BDOF,只有有效参考列表上的BDOF处理的原始MV(例如,未超出参考图片边界的MV1)可被用作用于子块的运动补偿的单向预测MV。
在一个示例中,可为从双向预测改变为单向预测的受约束子块禁用BCW工具。
在一个示例中,如果应用加权双向预测,则受约束子块可以仅使用从有效参考图片(例如(2708))获得的加权单向预测。例如,如图27所示,子块(2718)只能基于子块(2716)使用加权单向预测。
在一个实施例中,可仅将基于子块的双向预测约束应用于非合并帧间预测模式,诸如AMVP模式或仿射模式。
在一个实施例中,可将基于子块的双向预测约束应用于合并模式或非合并帧间预测模式。
在一个实施例中,可以在比特流中发信号通知诸如开/关标志的信令信息以指示是否应用了基于子块的双向预测约束。可以在比编码块级别更高的级别(诸如序列级别、图片级别、切片级别、瓦片(tile)级别、瓦片组级别等)上用信号通知标志或信令信息。
图28示出了根据本公开的一些实施例的概述示例性解码过程(2800)的流程图。图29示出了根据本公开的一些实施例的概述示例性编码过程(2900)的流程图。所提出的过程可以单独使用或以任何顺序组合使用。此外,过程(或实施例)、编码器或解码器中的每个可以通过处理电路(例如,一个或多个处理器或一个或多个集成电路)来实现。在一个示例中,该一个或多个处理器执行存储在非暂时性计算机可读介质中的程序。
过程(例如(2800)和(2900))的操作可以根据需要以任何数量或顺序组合或安排。在实施例中,过程(例如(2800)和(2900))的两个或更多个操作可以并行执行。
过程(例如,(2800)和(2900))可用于块的重建和/或编码,以便为正在重建的块生成预测块。在各种实施例中,过程(例如(2800)和(2900))由处理电路执行,诸如终端设备(310)、终端设备(320)、终端设备(330)和终端设备(340)中的处理电路、执行视频编码器(403)功能的处理电路、执行视频解码器(410)功能的处理电路、执行视频解码器(510)功能的处理电路、执行视频编码器(603)功能的处理电路等。在一些实施例中,过程(例如,(2800)和(2900))以软件指令实现,因此当处理电路执行软件指令时,处理电路执行过程(例如,(2800)和(2900))。
如图28所示,过程(2800)可以从步骤(S2801)开始并前进到步骤(S2810)。在步骤(S2810),从已编码视频比特流接收当前图片中的当前块的多个子块的已编码信息。
在步骤(S2820),从该已编码视频比特流中获得指示与该当前图片中的该当前块相关联的预测模式的语法元素,该预测模式是单向预测模式和双预测模式中的一种。
在步骤(S2830),确定该双向预测模式应用于该多个子块中的第一子块,其中基于第一参考图片中的第一参考子块和第二参考图片中的第二参考子块来预测该第一子块。
在步骤(S2840),响应于该双向预测模式应用于该多个子块中的该第一子块,确定(i)该第一参考子块的边界是否位于该第一参考图片的边界之外,以及(ii)该第二参考子块的边界是否位于该第二参考图片的边界之内。
在步骤(S2850),响应于(i)该第一参考子块的该边界位于该第一参考图片的该边界之外以及(ii)该第二参考子块的该边界位于该第二参考图片的该边界之内,基于该单向预测模式重构该当前块的该第一子块,使得该第一子块是基于该第二参考图片的该第二参考子块重构的。
基于以下之一确定将该双向预测模式应用于该第一子块:(i)包括在该已编码信息中的信令信息,(ii)应用于该当前块的非合并帧间预测模式,以及(iii)应用于该当前块的合并模式。
在一个实施例中,确定该第一参考子块的该边界是否超出该第一参考图片的该边界之外达到一阈值。
根据应用于该当前块的帧间预测模式,确定该第一子块的大小是4×4亮度样本和8×8亮度样本中的一个。
响应于该第一参考子块的该边界在该第一参考图片的该边界之外以及该第二参考子块的该边界在该第二参考图片的该边界之外,基于该第一参考图片中的该第一参考子块和该第二参考图片中的该第二参考子块重构该当前块的该第一子块。
该第一子块的大小等于以下之一:(i)基于应用于该当前块的仿射帧间预测模式的仿射子块大小,(ii)基于应用于该当前块的SbTMVP模式的SbTMVP子块大小,或(iii)基于应用于该当前块的GPM模式的GPM子块大小。
响应于(i)该第一子块位于以该当前块的几何划分边界为中心的混合区域中,以及(ii)该第一参考子块的该边界在该第一参考图片的该边界之外,基于该第二参考子块重构该第一子块,其中该第二参考子块的该边界位于该第二参考图片的该边界之内。
响应于根据该单向预测模式预测该第一子块,存储用于该第一子块的该单向预测模式的单向预测运动信息。
响应于根据该单向预测模式预测该第一子块的至少一个像素,存储用于该第一子块的该单向预测模式的单向预测运动信息。
在一些实施例中,响应于该第一参考子块的该边界在该第一参考图片的该边界之外和/或该第二参考子块的该边界在该第二参考图片的该边界之外,针对该当前块的该第一子块,排除以下之一:DMVR模式、BDOF模式和BCW模式。
在一些实施例中,对该第一子块执行DMVR,以基于该第一参考图片中的该第一参考子块确定第一预测子块,并基于该第二参考图片中的该第二参考子块确定第二预测子块。存储用于该第一子块的双向预测运动信息,该双向预测运动信息指示基于该第一参考图片中的该第一预测子块和该第二参考图片中的该第二预测子块来预测该第一子块。
在步骤(S2850)之后,过程前进到步骤(S2899)并终止。
可以对过程(2800)进行适当的调整。过程(2800)中的步骤可以被修改和/或省略。可以添加附加步骤。可以使用任何合适的实施顺序。
如图29所示,过程(2900)可以从步骤(S2901)开始并前进到步骤(S2910)。在步骤(S2910),确定是否将基于子块的双向预测约束应用于当前图片中的当前块的多个子块中的第一子块。基于子块的双向预测约束指示是否根据单向预测模式和双向预测模式之一来预测第一子块。
在步骤(S2920),响应于将基于子块的双向预测约束应用于多个子块中的第一子块,确定(i)第一参考图片中的第一子块的第一参考子块的边界是否位于该第一参考图片的边界之外,以及(ii)第二参考图片中的该第一子块的第二参考子块的边界是否位于该第二参考图片的边界之外。
在步骤(S2930),响应于(i)该第一参考图片中的该第一子块的该第一参考子块的该边界在该第一参考图片的该边界之外,以及(ii)该第二参考图片中的该第一子块的该第二参考子块的该边界位于该第二参考图片的该边界之内,基于单向预测模式生成当前块的该第一子块的预测样本,使得该第一子块是基于该第二参考图片的该第二参考子块重构的。
然后,过程前进到步骤(S2999)并终止。
可以对过程(2900)进行适当的调整。过程(2900)中的步骤可以被修改和/或省略。可以添加附加步骤。可以使用任何合适的实施顺序。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图30示出了计算机系统(3000),其适于实现所公开主题的某些实施例。
计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,该指令可由一个或多个计算机中央处理单元(CPU)、图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
该指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图30所示的用于计算机系统(3000)的组件本质上是示例性的,并不旨在对实现本公开的实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统(3000)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统(3000)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过例如触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或多个人类用户的输入做出响应。该人机界面设备还可用于捕获某些媒介,其与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或多个(每类仅绘出其中一个):键盘(3001)、鼠标(3002)、触控板(3003)、触摸屏(3010)、数据手套(未示出)、操纵杆(3005)、麦克风(3006)、扫描仪(3007)、摄像机(3008)。
计算机系统(3000)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(3010)、数据手套(未示出)或操纵杆(3005)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(3009)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管(CRT)屏幕、液晶(LCD)屏幕、等离子屏幕、有机发光二极管(OLED)屏的屏幕(3010),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统(3000)还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)(3020)或类似介质(3021)的光学介质、拇指驱动器(3022)、可移动硬盘驱动器或固体状态驱动器(3023),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合目前所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(3000)还可以包括通往一个或多个通信网络(3055)的接口(3054)。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络的示例包括诸如以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(3049)(例如,计算机系统(3000)的USB端口);其它网络通常通过连接到如下所述的系统总线集成到计算机系统(3000)的内核(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(3000)可以与其它实体进行通信。该通信可以是单向的,仅用于接收(例如,广播电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统(3000)的内核(3040)。
内核(3040)可包括一个或多个中央处理单元(CPU)(3041)、图形处理单元(GPU)(3042)、以现场可编程门阵列(FPGA)(3043)形式的专用可编程处理单元、用于特定任务的硬件加速器(3044)、图形适配器(3050)等。这些设备以及只读存储器(ROM)(3045)、随机存取存储器(3046)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘(SSD)等)(3047)等可通过系统总线(3048)进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(3048),以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围设备可直接附接到内核的系统总线(3048),或通过外围总线(3049)进行连接。在一个示例中,屏幕(3010)可连接到图形适配器(3050)。外围总线的体系结构包括PCI、USB等。
CPU(3041)、GPU(3042)、FPGA(3043)和加速器(3044)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(3045)或RAM(3046)中。过渡数据也可以存储在RAM(3046)中,而永久数据可以存储在例如内部大容量存储器(3047)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或多个CPU(3041)、GPU(3042)、大容量存储器(3047)、ROM(3045)、RAM(3046)等紧密关联。
该计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为示例而非限制,具有体系结构(3000)的计算机系统,特别是内核(3040),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在一个或多个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的内核(3040)的特定存储器,例如内核内部大容量存储器(3047)或ROM(3045)。实现本申请的各种实施例的软件可以存储在这种设备中并且由内核(3040)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得内核(3040)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(3046)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(3044))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录A:首字母缩略词
JEM:联合开发模型(joint exploration model)
VVC:通用视频编解码(versatile video coding)
BMS:基准集合(benchmark set)
MV:运动矢量(Motion Vector)
HEVC:高效视频编解码(High Efficiency Video Coding)
SEI:辅助增强信息(Supplementary Enhancement Information)
VUI:视频可用性信息(Video Usability Information)
GOPs:图片群组(Groups of Pictures)
TUs:变换单元(Transform Units)
PUs:预测单元(Prediction Units)
CTUs:编码树单元(Coding Tree Units)
CTBs:编码树块(Coding Tree Blocks)
PBs:预测块(Prediction Blocks)
HRD:假想参考解码器(Hypothetical Reference Decoder)
SNR:信噪比(Signal Noise Ratio)
CPUs:中央处理单元(Central Processing Units)
GPUs:图形处理单元(Graphics Processing Units)
CRT:阴极射线管(Cathode Ray Tube)
LCD:液晶显示(Liquid-Crystal Display)
OLED:有机发光二极管(Organic Light-Emitting Diode)
CD:光盘(Compact Disc)
DVD:数字化视频光盘(Digital Video Disc)
ROM:只读存储器(Read-Only Memory)
RAM:随机存取存储器(Random Access Memory)
ASIC:专用集成电路(Application-Specific Integrated Circuit)
PLD:可编程逻辑设备(Programmable Logic Device)
LAN:局域网(Local Area Network)
GSM:全球移动通信系统(Global System for Mobile communications)
LTE:长期演进(Long-Term Evolution)
CANBus:控制器局域网络总线(Controller Area Network Bus)
USB:通用串行总线(Universal Serial Bus)
PCI:外围设备互连(Peripheral Component Interconnect)
FPGA:现场可编程门阵列(Field Programmable Gate Areas)
SSD:固态驱动器(solid-state drive)
IC:集成电路(Integrated Circuit)
CU:编码单元(Coding Unit)
虽然本申请已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,该系统和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。

Claims (20)

1.一种在解码器中执行的解码方法,所述方法包括:
从已编码视频比特流接收当前图片中的当前块的多个子块的已编码信息;
从所述已编码视频比特流中获得指示与所述当前图片中的所述当前块相关联的预测模式的语法元素,所述预测模式是单向预测模式和双向预测模式中的一种;
确定所述双向预测模式应用于所述多个子块中的第一子块,其中基于第一参考图片中的第一参考子块和第二参考图片中的第二参考子块来预测所述第一子块;
响应于所述双向预测模式应用于所述多个子块中的所述第一子块,确定(i)所述第一参考子块的边界是否位于所述第一参考图片的边界之外,以及(ii)所述第二参考子块的边界是否位于所述第二参考图片的边界之内;以及
响应于(i)所述第一参考子块的所述边界位于所述第一参考图片的所述边界之外以及(ii)所述第二参考子块的所述边界位于所述第二参考图片的所述边界之内,基于所述单向预测模式重构所述当前块的所述第一子块,使得所述第一子块是基于所述第二参考图片的所述第二参考子块重构的。
2.根据权利要求1所述的方法,其中,所述确定所述双向预测模式应用于所述第一子块还包括:
基于以下之一确定所述双向预测模式应用于所述第一子块:(i)包括在所述已编码信息中的信令信息,(ii)应用于所述当前块的非合并帧间预测模式,以及(iii)应用于所述当前块的合并模式。
3.根据权利要求1所述的方法,其中,所述确定(i)所述第一参考子块的所述边界是否位于所述第一参考图片的所述边界之外,以及(ii)所述第二参考子块的所述边界是否位于所述第二参考图片的所述边界之内,包括:
确定所述第一参考子块的所述边界是否超出所述第一参考图片的所述边界之外达到一阈值。
4.根据权利要求1所述的方法,其中,根据应用于所述当前块的帧间预测模式,确定所述第一子块的大小是4×4亮度样本和8×8亮度样本中的一个。
5.根据权利要求1所述的方法,还包括:
响应于所述第一参考子块的所述边界在所述第一参考图片的所述边界之外以及所述第二参考子块的所述边界在所述第二参考图片的所述边界之外,基于所述第一参考图片中的所述第一参考子块和所述第二参考图片中的所述第二参考子块重构所述当前块的所述第一子块。
6.根据权利要求1所述的方法,其中,所述第一子块的大小等于以下之一:
基于应用于所述当前块的仿射帧间预测模式的仿射子块大小;
基于应用于所述当前块的基于子块的时间运动矢量预测(SbTMVP)模式的SbTMVP子块大小;以及
基于应用于所述当前块的几何划分模式(GPM)模式的GPM子块大小。
7.根据权利要求1所述的方法,还包括:
响应于(i)所述第一子块位于以所述当前块的几何划分边界为中心的混合区域中,以及(ii)所述第一参考子块的所述边界在所述第一参考图片的所述边界之外,基于所述第二参考子块重构所述第一子块,其中所述第二参考子块的所述边界位于所述第二参考图片的所述边界之内。
8.根据权利要求1所述的方法,还包括:
响应于根据所述单向预测模式预测所述第一子块,存储用于所述第一子块的所述单向预测模式的单向预测运动信息。
9.根据权利要求1所述的方法,还包括:
响应于根据所述单向预测模式预测所述第一子块的至少一个像素,存储用于所述第一子块的所述单向预测模式的单向预测运动信息。
10.根据权利要求1所述的方法,还包括:
响应于所述第一参考子块的所述边界在所述第一参考图片的所述边界之外和/或所述第二参考子块的所述边界在所述第二参考图片的所述边界之外,针对所述当前块的所述第一子块,排除以下之一:解码器侧运动矢量修正(DMVR)模式、双向光流(BDOF)模式和具有编码单元级权重的双向预测(BCW)模式。
11.根据权利要求1所述的方法,还包括:
对所述第一子块执行DMVR,以基于所述第一参考图片中的所述第一参考子块确定第一预测子块,并基于所述第二参考图片中的所述第二参考子块确定第二预测子块;以及
存储用于所述第一子块的双向预测运动信息,所述双向预测运动信息指示基于所述第一参考图片中的所述第一预测子块和所述第二参考图片中的所述第二预测子块来预测所述第一子块。
12.一种装置,包括:
处理电路,所述处理电路被配置为:
从已编码视频比特流接收当前图片中的当前块的多个子块的已编码信息;
从所述已编码视频比特流中获得指示与所述当前图片中的所述当前块相关联的预测模式的语法元素,所述预测模式是单向预测模式和双向预测模式中的一种;
确定所述双向预测模式应用于所述多个子块中的第一子块,其中基于第一参考图片中的第一参考子块和第二参考图片中的第二参考子块来预测所述第一子块;
响应于所述双向预测模式应用于所述多个子块中的所述第一子块,确定(i)所述第一参考子块的边界是否位于所述第一参考图片的边界之外,以及(ii)所述第二参考子块的边界是否位于所述第二参考图片的边界之内;以及
响应于(i)所述第一参考子块的所述边界位于所述第一参考图片的所述边界之外以及(ii)所述第二参考子块的所述边界位于所述第二参考图片的所述边界之内,基于所述单向预测模式重构所述当前块的所述第一子块,使得所述第一子块是基于所述第二参考图片的所述第二参考子块重构的。
13.根据权利要求12所述的装置,其中,所述处理电路被配置为:
基于以下之一确定所述双向预测模式应用于所述第一子块:(i)包括在所述已编码信息中的信令信息,(ii)应用于所述当前块的非合并帧间预测模式,以及(iii)应用于所述当前块的合并模式。
14.根据权利要求12所述的装置,其中,所述处理电路被配置为:
确定所述第一参考子块的所述边界是否超出所述第一参考图片的所述边界之外达到一阈值。
15.根据权利要求12所述的装置,其中,根据应用于所述当前块的帧间预测模式,确定所述第一子块的大小是4×4亮度样本和8×8亮度样本中的一个。
16.根据权利要求12所述的装置,其中,所述处理电路被配置为:
响应于所述第一参考子块的所述边界在所述第一参考图片的所述边界之外以及所述第二参考子块的所述边界在所述第二参考图片的所述边界之外,基于所述第一参考图片中的所述第一参考子块和所述第二参考图片中的所述第二参考子块重构所述当前块的所述第一子块。
17.根据权利要求12所述的装置,其中,所述第一子块的大小等于以下之一:
基于应用于所述当前块的仿射帧间预测模式的仿射子块大小;
基于应用于所述当前块的基于子块的时间运动矢量预测(SbTMVP)模式的SbTMVP子块大小;以及
基于应用于所述当前块的几何划分模式(GPM)模式的GPM子块大小。
18.根据权利要求12所述的装置,其中,所述处理电路被配置为:
响应于(i)所述第一子块位于以所述当前块的几何划分边界为中心的混合区域中,以及(ii)所述第一参考子块的所述边界在所述第一参考图片的所述边界之外,基于所述第二参考子块重构所述第一子块,其中所述第二参考子块的所述边界位于所述第二参考图片的所述边界之内。
19.根据权利要求12所述的装置,其中,所述处理电路被配置为:
响应于根据所述单向预测模式预测所述第一子块,存储用于所述第一子块的所述单向预测模式的单向预测运动信息。
20.根据权利要求12所述的装置,其中,所述处理电路被配置为:
响应于根据所述单向预测模式预测所述第一子块的至少一个像素,存储用于所述第一子块的所述单向预测模式的单向预测运动信息。
CN202280024733.1A 2022-02-07 2022-11-11 边界外条件的基于子块的双向预测约束 Pending CN117178552A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202263307536P 2022-02-07 2022-02-07
US63/307,536 2022-02-07
US17/983,879 US20230254477A1 (en) 2022-02-07 2022-11-09 Sub-block based constraint on bi-prediction for out-of-boundary conditions
US17/983,879 2022-11-09
PCT/US2022/079760 WO2023149971A1 (en) 2022-02-07 2022-11-11 Sub-block based constraint on bi-prediction for out-of-boundary conditions

Publications (1)

Publication Number Publication Date
CN117178552A true CN117178552A (zh) 2023-12-05

Family

ID=87520639

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280024733.1A Pending CN117178552A (zh) 2022-02-07 2022-11-11 边界外条件的基于子块的双向预测约束

Country Status (4)

Country Link
US (1) US20230254477A1 (zh)
KR (1) KR20230147200A (zh)
CN (1) CN117178552A (zh)
WO (1) WO2023149971A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020004979A1 (ko) * 2018-06-27 2020-01-02 디지털인사이트주식회사 영상 부호화/복호화 방법 및 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4072141A1 (en) * 2016-03-24 2022-10-12 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding video signal
US10728573B2 (en) * 2017-09-08 2020-07-28 Qualcomm Incorporated Motion compensated boundary pixel padding
TWI722465B (zh) * 2018-06-29 2021-03-21 大陸商北京字節跳動網絡技術有限公司 子塊的邊界增強
KR102625314B1 (ko) * 2018-11-26 2024-01-15 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 타일 독립성 제약을 이용하는 인터 예측 개념
US11223840B2 (en) * 2019-08-19 2022-01-11 Tencent America LLC Method and apparatus for video coding

Also Published As

Publication number Publication date
KR20230147200A (ko) 2023-10-20
WO2023149971A1 (en) 2023-08-10
US20230254477A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
CN113545083B (zh) 视频编解码的方法和装置
CN113287307B (zh) 视频解码的方法和装置、计算机设备及介质
CN111955007B (zh) 视频解码的方法和装置
CN112889269B (zh) 视频解码方法及装置
CN110944202B (zh) 视频编解码方法、装置、计算机设备和存储介质
CN113302932B (zh) 视频编解码的方法、装置及存储介质
CN112235572B (zh) 视频解码方法和装置以及计算机设备和存储介质
CN112291571B (zh) 视频解码方法及装置以及计算机设备和存储介质
CN113574885B (zh) 视频解码方法、装置以及电子设备
CN114827597B (zh) 视频解码方法、装置、计算机设备及存储介质
CN113615192B (zh) 视频解码的方法、装置及存储介质
CN113519159B (zh) 视频编解码的方法和装置
CN113196745B (zh) 视频编解码的方法和装置
CN113259661A (zh) 视频解码的方法和装置
CN113498607B (zh) 视频编码方法、解码方法、装置和可读介质
CN117178552A (zh) 边界外条件的基于子块的双向预测约束
CN116325726A (zh) 采用帧内和帧间预测的几何分区模式的改进
CN116762340A (zh) Mmvd信令改进
CN116671102A (zh) 具有帧内块复制的几何分区模式
CN117063471A (zh) 用于运动矢量差的联合信令方法
CN116530081B (zh) 视频解码方法及视频解码装置
CN117256148A (zh) Mmvd候选修正方法
CN117223289A (zh) 仿射运动的双边匹配
CN116325745A (zh) 采用ibc和帧内预测的几何分区模式的帧内预测模式信息传播
CN116762341A (zh) 帧外边界条件的运动矢量限制

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40099676

Country of ref document: HK