CN113728626A - 不同运动矢量细化中的基于区域的梯度计算 - Google Patents

不同运动矢量细化中的基于区域的梯度计算 Download PDF

Info

Publication number
CN113728626A
CN113728626A CN202080029809.0A CN202080029809A CN113728626A CN 113728626 A CN113728626 A CN 113728626A CN 202080029809 A CN202080029809 A CN 202080029809A CN 113728626 A CN113728626 A CN 113728626A
Authority
CN
China
Prior art keywords
block
sub
region
samples
current video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080029809.0A
Other languages
English (en)
Other versions
CN113728626B (zh
Inventor
张凯
张莉
刘鸿彬
王悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of CN113728626A publication Critical patent/CN113728626A/zh
Application granted granted Critical
Publication of CN113728626B publication Critical patent/CN113728626B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

提供了一种视频处理方法,包括:使用在视频的当前视频块的子块级别执行的仿射模式运动补偿来生成该当前视频块的预测块;对当前视频块的区域执行梯度计算,以使用利用光流的预测细化(PROF)过程来细化预测块,其中,区域的尺寸(M×N)不同于当前视频块的子块的尺寸,其中,M和N是正整数;以及基于梯度计算来执行当前视频块和视频的编解码表示之间的转换。

Description

不同运动矢量细化中的基于区域的梯度计算
相关申请的交叉引用
根据适用的专利法和/或依据巴黎公约的规则,本申请旨在及时要求于2019年4月19日提交的第PCT/CN2019/083434号国际专利申请和2019年6月25日提交的第PCT/CN2019/092762号国际专利申请的优先权和利益。前述申请的全部公开通过引用而并入作为本申请的公开的一部分。
技术领域
本专利文档涉及视频处理技术、设备和系统。
背景技术
尽管视频压缩技术有所进步,但数字视频仍然在互联网和其它数字通信网络上占据最大的带宽使用。随着能够接收和显示视频的联网用户设备数量的增加,预计对数字视频使用的带宽需求将继续增长。
发明内容
与数字视频处理相关的设备、系统和方法。所描述的方法可以被应用于现有的视频编解码标准(例如,高效视频编解码(High Efficiency Video Coding,HEVC))和未来的视频编解码标准或视频编解码器。
在一个代表性方面,所公开的技术可以用于提供一种用于视频处理的方法。该方法包括:使用在视频的当前视频块的子块级别执行的仿射模式运动补偿来生成该当前视频块的预测块;对当前视频块的区域执行梯度计算,以使用利用光流的预测细化(PROF)过程来细化预测块,其中,区域的尺寸(M×N)不同于当前视频块的子块的尺寸,其中,M和N是正整数;以及基于梯度计算来执行当前视频块和视频的编解码表示之间的转换。
在另一个代表性方面,所公开的技术可以用于提供一种用于视频处理的方法。该方法包括:为具有第一尺寸的视频的当前视频块推导最终预测块,其中该最终预测块是通过使用在具有根据规则的第二尺寸的视频区域上执行的梯度计算来细化一个或多个中间预测块而计算的,其中,该细化使用光流过程;以及使用最终预测块来执行当前视频块和视频的编解码表示之间的转换。
在另一个代表性方面,所公开的技术可以用于提供一种用于视频处理的方法。该方法包括:使用双向光流(BDOF)或利用光流的预测细化(PROF)为视频的当前视频块推导运动信息;对当前视频块的区域中的样点执行梯度计算,使得区域中的至少一个样点从梯度计算中被省略;以及基于梯度计算来执行当前视频块和包括该当前视频块的视频的编解码表示之间的转换,其中,当前视频块的一个或多个初始预测在子块级别进行计算并在PROF期间使用光流计算进行细化,或者一个或多个初始预测在BDOF期间使用空域和时域梯度进行细化。
在另一个代表性方面,所公开的技术可以用于提供一种用于视频处理的方法。该方法包括:通过基于根据精度规则的初始预测样点的梯度使用光流计算来细化视频的当前视频块的一个或多个初始预测,为该当前视频块确定当前视频块的最终预测块;以及使用最终预测块来执行当前视频块和编解码表示之间的转换,其中,光流计算包括利用光流的预测细化(PROF)过程或双向光流(BDOF)过程,其中,精度规则指定使用相同的精度用于表示PROF过程和BDOF过程两者的梯度。
在另一个代表性方面,所公开的技术可以用于提供一种用于视频处理的方法。该方法包括:通过使用光流计算来细化视频的当前视频块的一个或多个初始预测,为该当前视频块和视频的编解码表示之间的转换确定当前视频块的最终预测块;以及使用最终预测块来执行该转换,其中,光流计算包括利用光流的预测细化(PROF)过程和/或双向光流(BDOF)过程,其中,光流计算还包括根据规则适用于PROF过程或BDOF过程中的至少一个的填充操作,以推导填充样点。
在又一个代表性方面,上述方法以处理器可执行代码的形式被体现并且被存储在计算机可读程序介质中。
在又一个代表性方面,公开了一种被配置为或可操作来执行上述方法的设备。该设备可以包括被编程来实施该方法的处理器。
在又一个代表性方面,视频解码器装置可以实施如本文所描述的方法。
在附图、说明书和权利要求书中更详细地描述了所公开的技术的以上以及其它方面和特征。
附图说明
图1示出了构建Merge候选列表的示例。
图2示出了空域候选的位置的示例。
图3示出了对其进行空域Merge候选的冗余检查的候选对的示例。
图4A和图4B示出了基于当前块的尺寸和形状的第二预测单元(Prediction Unit,PU)的位置的示例。
图5示出了用于时域Merge候选的运动矢量缩放的示例。
图6示出了时域Merge候选的候选位置的示例。
图7示出了生成组合的双向预测Merge候选的示例。
图8示出了构建运动矢量预测候选的示例。
图9示出了用于空域运动矢量候选的运动矢量缩放的示例。
图10示出了使用用于编解码单元(Coding Unit,CU)的可选时域运动矢量预测(Alternative Temporal Motion Vector Prediction,ATMVP)算法的运动预测的示例。
图11示出了由空时运动矢量预测(Spatial-Temporal Motion VectorPrediction,STMVP)算法使用的具有子块的编解码单元(CU)和邻近块的示例。
图12A和12B示出了当使用重叠块运动补偿(OBMC)算法时子块的示例快照(snapshot)。
图13示出了用于推导用于局部照明补偿(LIC)算法的参数的邻近样点的示例。
图14示出了简化的仿射运动模型的示例。
图15示出了每个子块的仿射运动矢量场(MVF)的示例。
图16示出了用于AF_INTER仿射运动模式的运动矢量预测(MVP)的示例。
图17A和图17B示出了AF_MERGE仿射运动模式的示例候选。
图18示出了模式匹配的运动矢量推导(PMMVD)模式中的双边匹配的示例,该模式是基于帧速率上转换(FRUC)算法的特殊Merge模式。
图19示出了FRUC算法中的模板匹配的示例。
图20示出了FRUC算法中的单边运动估计的示例。
图21示出了由双向光流(BIO)算法使用的光流轨迹的示例。
图22A和图22B示出了在没有块扩展的情况下使用双向光流(BIO)算法的示例快照。
图23示出了在BIO中使用的插值样点的示例。
图24示出了基于双边模板匹配的解码器侧运动矢量细化(DMVR)算法的示例。
图25示出了子块MV VSB和像素Δv(i,j)的示例。
图26示出了相位变化水平滤波的示例。
图27示出了应用8抽头水平滤波的一个实例的示例。
图28示出了非均匀相位垂直滤波的示例。
图29A至图29E示出了用于视频处理的示例方法的流程图。
图30A和图30B是用于实施在本文档中描述的可视媒体解码或可视媒体编码技术的硬件平台的示例的框图。
图31示出了16×16区域中的16个4×4子块的示例。
具体实施方式
由于对更高分辨率视频日益增长的需求,视频处理方法和技术在现代技术中无处不在。视频编解码器通常包括压缩或解压缩数字视频的电子电路或软件,并且正在不断改进以提供更高的编解码效率。视频编解码器将未压缩的视频转换为压缩格式,反之亦然。视频质量、用于表示视频的数据量(由比特率确定)、编码和解码算法的复杂度、对数据丢失和误差的敏感性、编辑的简易性、随机访问和端到端延迟(时延)之间存在复杂的关系。压缩格式通常符合标准视频压缩规范,例如高效视频编解码(HEVC)标准(也被称为H.265或MPEG-HPart 2)、待完成的通用视频编解码标准或其它当前和/或将来的视频编解码标准。
所公开的技术的实施例可以应用于现有的视频编解码标准(例如,HEVC、H.265)和将来的标准,以提高压缩性能。在本文档中使用章节标题来提高描述的可读性,并且不以任何方式将讨论或实施例(和/或实施方式)仅限制于相应章节。
1.HEVC/H.265中的帧间预测的示例
近年来,视频编解码标准有了显著的改进,并且现在部分地提供了高编解码效率和对更高分辨率的支持。最近的标准(诸如HEVC和H.265)是基于混合视频编解码结构的,其中利用了时域预测加变换编解码。
1.1预测模式的示例
每个帧间预测PU(预测单元)具有一个或两个参考图片列表的运动参数。在一些实施例中,运动参数包括运动矢量和参考图片索引。在其它实施例中,对两个参考图片列表之一的使用也可以使用inter_pred_idc进行信令通知。在另一些实施例中,运动矢量可以被显示地编解码为相对于预测值的增量。
当以跳过模式对CU进行编解码时,一个PU与CU相关联,并且没有显著的残差系数,没有编解码的运动矢量增量或参考图片索引。指定了Merge模式,由此从包括空域和时域候选的邻近PU获得当前PU的运动参数。Merge模式可以被应用于任何帧间预测PU,而不仅是针对跳过模式。Merge模式的替代方案是运动参数的显式传输,其中,运动矢量、每个参考图片列表的对应参考图片索引和参考图片列表使用按每PU被显式地信令通知。
当信令指示要使用两个参考图片列表之一时,从一个样点块产生PU。这被称为“单向预测”。单向预测适用于P条带和B条带两者。
当信令指示要使用两个参考图片列表时,从两个样点块产生PU。这被称为“双向预测”。双向预测仅适用于B条带。
1.1.1构建Merge模式的候选的实施例
当使用Merge模式预测PU时,从比特流中解析指向Merge候选列表中的条目的索引,并将其用于检索运动信息。该列表的构建可以根据以下步骤序列进行总结:
步骤1:初始候选推导
步骤1.1:空域候选推导
步骤1.2:空域候选的冗余检查
步骤1.3:时域候选推导
步骤2:附加候选插入
步骤2.1:创建双向预测候选
步骤2.2:插入零运动候选
图1示出了基于上面总结的步骤序列来构建Merge候选列表的示例。对于空域Merge候选推导,从位于五个不同位置的候选当中选择最多四个Merge候选。对于时域Merge候选推导,在两个候选当中选择最多一个Merge候选。由于在解码器处假设每个PU的候选数量是恒定的,所以在候选数量没有达到在条带头中信令通知的Merge候选的最大数量(MaxNumMergeCand)时生成附加候选。由于候选数量是恒定的,所以最佳Merge候选的索引使用截断一元二值化(Truncated Unary,TU)进行编码。如果CU的尺寸等于8,则当前CU的所有PU共享单个Merge候选列表,这与2N×2N预测单元的Merge候选列表相同。
1.1.2构建空域Merge候选
在空域Merge候选的推导中,从位于图2中描绘的位置的候选当中选择最多四个Merge候选。推导的顺序是A1、B1、B0、A0和B2。仅当位置A1、B1、B0、A0的任一PU不可用(例如,因为它属于另一条带或片)或是帧内编解码的时,才考虑位置B2。在位置A1处的候选被添加之后,对剩余候选的添加进行冗余检查,该冗余检查确保具有相同运动信息的候选被排除在列表之外,从而提高编解码效率。
为了降低计算复杂度,在提到的冗余检查中不考虑所有可能的候选对。相反,仅考虑在图3中用箭头链接的对,并且仅当用于冗余检查的候选没有相同的运动信息时,才向列表添加对应候选。重复运动信息的另一源是与不同于2N×2N的分区相关联的“第二PU”。作为示例,图4A和图4B分别描绘了N×2N和2N×N的情况的第二PU。当当前PU被分割为N×2N时,位置A1处的候选不被考虑用于列表构建。在一些实施例中,添加该候选可能导致两个预测单元具有相同的运动信息,这对于在编解码单元中仅具有一个PU是冗余的。类似地,当当前PU被分割为2N×N时,不考虑位置B1
1.1.3构建时域Merge候选
在该步骤中,只有一个候选被添加到列表中。具体地,在该时域Merge候选的推导中,基于属于与给定参考图片列表内的当前图片具有最小POC差的图片的并置PU来推导缩放的运动矢量。在条带头中显示地信令通知将用于并置PU的推导的参考图片列表。
图5示出了时域Merge候选的缩放运动矢量的推导的示例(如虚线所示),该运动矢量是使用POC距离tb和td从并置PU的运动矢量缩放的,其中tb被定义为当前图片的参考图片和当前图片之间的POC差,td被定义为并置图片的参考图片和并置图片之间的POC差。时域Merge候选的参考图片索引被设置为零。对于B条带,获得两个运动矢量,一个用于参考图片列表0,另一个用于参考图片列表1,并将其组合以形成双向预测Merge候选。
如图6所描绘的,在属于参考帧的并置PU(Y)中,在候选C0和C1之间选择时域候选的位置。如果位置C0处的PU不可用、是帧内编解码的或在当前CTU之外,则使用位置C1。否则,在时域Merge候选的推导中使用位置C0
1.1.4构建附加类型的Merge候选
除了空时Merge候选之外,还有两种附加类型的Merge候选:组合的双向预测Merge候选和零Merge候选。组合的双向预测Merge候选通过利用空时Merge候选而生成。组合的双向预测Merge候选仅用于B条带。组合的双向预测候选通过将初始候选的第一参考图片列表运动参数与另一个的第二参考图片列表运动参数进行组合而生成。如果这两个元组提供不同的运动假设,它们将形成新的双向预测候选。
图7示出了该过程的示例,其中原始列表(710,在左侧)中的具有mvL0和refIdxL0或mvL1和refIdxL1的两个候选用于创建添加到最终列表(720,在右侧)的组合的双向预测Merge候选。
零运动候选被插入以填充Merge候选列表中的剩余条目,并因此达到MaxNumMergeCand容量。这些候选具有零空域位移和参考图片索引,该参考图片索引从零开始,并且每当新的零运动候选被添加到该列表时就增加。这些候选使用的参考帧的数量分别是单向预测一个和双向预测两个。在一些实施例中,不对这些候选执行冗余检查。
1.1.5用于并行处理的运动估计区域的示例
为了加速编码过程,可以并行执行运动估计,从而同时推导给定区域内部所有预测单元的运动矢量。从空域邻域推导Merge候选可能干扰并行处理,因为一个预测单元不能从相邻PU推导运动参数直到其相关联的运动估计被完成。为了缓和编解码效率和处理时延之间的权衡,可以定义运动估计区域(MER)。可以使用“log2_parallel_merge_level_minus2”语法元素在图片参数集(PPS)中信令通知MER的尺寸。当定义MER时,落入相同区域的Merge候选被标记为不可用,并因此不在列表构建中考虑。
1.2高级运动矢量预测(AMVP)的实施例
AMVP利用运动矢量与邻近PU的空时相关性,其用于运动参数的显式传输。通过首先检查左侧、上侧时域邻近PU位置的可用性、移除冗余候选、以及添加零矢量以使候选列表长度恒定,来构建运动矢量候选列表。然后,编码器可以从候选列表选择最佳预测值,并发送指示所选择的候选的对应索引。类似于Merge索引信令,最佳运动矢量候选的索引使用截断一元编码。在这种情况下,要编码的最大值是2(参见图8)。在以下章节中,提供了关于运动矢量预测候选的推导过程的细节。
1.2.1构建运动矢量预测候选的示例
图8总结了运动矢量预测候选的推导过程,并且可以针对以refidx作为输入的每个参考图片列表而实施。
在运动矢量预测中,考虑两种类型的运动矢量候选:空域运动矢量候选和时域运动矢量候选。对于空域运动矢量候选推导,基于位于如先前图2中所示的五个不同位置的每个PU的运动矢量来最终推导两个运动矢量候选。
对于时域运动矢量候选推导,从两个候选选择一个运动矢量候选,这两个候选是基于两个不同的并置位置而推导的。在生成第一个空时候选列表之后,移除列表中的重复运动矢量候选。如果潜在候选的数量大于2,则从相关联的参考图片列表移除列表内参考图片索引大于1的运动矢量候选。如果空时运动矢量候选的数量小于两个,则将附加的零运动矢量候选添加到列表中。
1.2.2构建空域运动矢量候选
在空域运动矢量候选的推导中,在五个潜在候选当中考虑最多两个候选,这五个潜在候选是从位于如先前图2中所示的位置的PU推导的,这些位置与运动Merge的位置相同。当前PU左侧的推导顺序被定义为A0、A1和缩放的A0、缩放的A1。当前PU的上侧的推导顺序被定义为B0、B1、B2、缩放的B0、缩放的B1、缩放的B2。因此,对于每一侧,有四种情况可以用作运动矢量候选,其中两种情况不需要使用空域缩放,两种情况使用空域缩放。这四种不同的情况总结如下:
--无空域缩放
(1)相同的参考图片列表和相同的参考图片索引(相同的POC)
(2)不同的参考图片列表但相同的参考图片(相同的POC)
--空域缩放
(3)相同的参考图片列表但不同的参考图片(不同的POC)
(4)不同的参考图片列表和不同的参考图片(不同的POC)
首先检查无空域缩放情况,随后检查允许空域缩放的情况。不管参考图片列表如何,当邻近PU的参考图片和当前PU的参考图片之间的POC不同时,考虑空域缩放。如果左侧候选的所有PU都不可用或者是帧内编解码的,则允许对上侧运动矢量进行缩放,以帮助左侧和上侧MV候选的并行推导。否则,不允许对上侧运动矢量进行空域缩放。
如图9中的示例所示,对于空域缩放情况,以与时域缩放类似的方式缩放邻近PU的运动矢量。一个不同之处在于,参考图片列表和当前PU的索引作为输入被给出;实际缩放过程与时域缩放的缩放过程相同。
1.2.3构建时域运动矢量候选
除了参考图片索引推导之外,用于推导时域Merge候选的所有过程与用于推导空域运动矢量候选的过程相同(如图6中的示例所示)。在一些实施例中,参考图片索引被信令通知给解码器。
2.联合探索模型(JEM)中的帧间预测方法的示例
在一些实施例中,使用被称为联合探索模型(Joint Exploration Model,JEM)的参考软件来探索将来的视频编解码技术。在JEM中,基于子块的预测在几种编解码工具中被采用,诸如仿射预测、可选时域运动矢量预测、空时运动矢量预测、双向光流(Bi-directional Optical flow,BIO)、帧速率上转换(Frame-Rate Up Conversion,FRUC)、局部自适应运动矢量分辨率(Locally Adaptive Motion Vector Resolution,LAMVR)、重叠块运动补偿(Overlapped Block Motion Compensation,OBMC)、局部照明补偿(LocalIllumination Compensation,LIC)和解码器侧运动矢量细化(Decoder-side MotionVector Refinement,DMVR)。
2.1基于子CU的运动矢量预测的示例
在具有四叉树加二叉树(QuadTrees plus Binary Trees,QTBT)的JEM中,每个CU对于每个预测方向可以具有最多一个运动参数集。在一些实施例中,通过将大CU划分为子CU并推导大CU的所有子CU的运动信息,在编码器中考虑了两种子CU级别运动矢量预测方法。可选时域运动矢量预测(ATMVP)方法允许每个CU从比并置参考图片中的当前CU小的多个块获取多个运动信息集合。在空时运动矢量预测(STMVP)方法中,通过使用时域运动矢量预测值和空域邻近运动矢量递归地推导子CU的运动矢量。在一些实施例中,为了为子CU运动预测保留更准确的运动场,可以禁用参考帧的运动压缩。
2.1.1可选时域运动矢量预测(ATMVP)的示例
在ATMVP方法中,时域运动矢量预测(TMVP)方法通过从小于当前CU的块获取多个运动信息集合(包括运动矢量和参考索引)而修改。
图10示出了用于CU 1000的ATMVP运动预测过程的示例。ATMVP方法分两个步骤预测CU 1000内的子CU 1001的运动矢量。第一步骤是用时域矢量标识参考图片1050中的对应块1051。参考图片1050也被称为运动源图片。第二步骤是将当前CU 1000划分为子CU 1001,并从对应于每个子CU的块获得每个子CU的运动矢量和参考索引。
在第一步骤中,参考图片1050和对应块由当前CU 1000的空域邻近块的运动信息确定。为了避免邻近块的重复扫描过程,使用当前CU 1000的Merge候选列表中的第一个Merge候选。第一个可用运动矢量及其相关联的参考索引被设置为运动源图片的时域矢量和索引。这样,与TMVP相比,可以更准确地标识对应块,其中对应块(有时被称为并置块)总是在相对于当前CU的右下方或中心位置。
在第二步骤中,通过将时域矢量添加到当前CU的坐标,子CU 1051的对应块由运动源图片1050中的时域矢量标识。对于每个子CU,其对应块的运动信息(例如,覆盖中心样点的最小运动网格)用于推导子CU的运动信息。在对应的N×N块的运动信息被标识之后,它被转换为当前子CU的运动矢量和参考索引,其方式与HEVC的TMVP相同,其中应用了运动缩放和其它流程。例如,解码器检查是否满足低延迟条件(例如,当前图片的所有参考图片的POC小于当前图片的POC),并且可能使用运动矢量MVx(例如,对应于参考图片列表X的运动矢量)来预测每个子CU的运动矢量MVy(例如,其中X等于0或1,并且Y等于1-X)。
2.1.2空时运动矢量预测(STMVP)的示例
在STMVP方法中,子CU的运动矢量按照光栅扫描顺序被递归地推导。图11示出了具有四个子块的一个CU和邻近块的示例。考虑8×8CU 1100,其包括四个4×4子CU A(1101)、B(1102)、C(1103)和D(1104)。当前帧中的邻近4×4块被标记为a(1111)、b(1112)、c(1113)和d(1114)。
子CU A的运动推导从标识其两个空域邻居开始。第一个邻居是子CU A 1101上侧的N×N块(块c 1113)。如果该块c(1113)不可用或是帧内编解码的,则检查子CU A(1101)上侧的其它N×N块(从左到右,从块c 1113处开始)。第二个邻居是子CU A 1101左侧的块(块b1112)。如果块b(1112)不可用或是帧内编解码的,则检查子CU A 1101左侧的其它块(从上到下,从块b 1112处开始)。从每个列表的邻近块获得的运动信息被缩放到给定列表的第一参考帧。接下来,子块A 1101的时域运动矢量预测值(TMVP)通过遵循与HEVC中指定的TMVP推导相同的流程而推导。块D 1104处的并置块的运动信息被相应地获取和缩放。最后,在检索和缩放运动信息之后,针对每个参考列表分开对所有可用运动矢量进行平均。平均运动矢量被指定为当前子CU的运动矢量。
2.1.3子CU运动预测模式信令的示例
在一些实施例中,子CU模式被启用作为附加Merge候选,并且不需要附加的语法元素来信令通知这些模式。两个附加Merge候选被添加到每个CU的Merge候选列表中,以表示ATMVP模式和STMVP模式。在其它实施例中,如果序列参数集指示ATMVP和STMVP被启用,则可以使用多达七个Merge候选。附加Merge候选的编码逻辑与HM中的Merge候选的编码逻辑相同,这意味着,对于P条带或B条带中的每个CU,两个附加Merge候选可能还需要两次RD检查。在一些实施例中,例如JEM,Merge索引的所有二进制位(bin)通过CABAC(Context-basedAdaptive Binary Arithmetic Coding,基于上下文的自适应二进制算术编解码)进行上下文编解码。在其它实施例中,例如HEVC,只有第一个二进制位被上下文编解码,而剩余的二进制位被上下文旁路编解码。
2.2自适应运动矢量差分辨率的示例
在一些实施例中,当在条带头中use_integer_mv_flag等于0时,以四分之一(quarter)亮度样点为单位信令通知(PU的运动矢量和预测运动矢量之间的)运动矢量差(Motion Vector Difference,MVD)。在JEM中,引入了局部自适应运动矢量分辨率(LAMVR)。在JEM中,可以以四分之一亮度样点、整数亮度样点或四亮度样点为单位对MVD进行编解码。以编解码单元(CU)级别控制MVD分辨率,并且对于具有至少一个非零MVD分量的每个CU,有条件地信令通知MVD分辨率标志。
对于具有至少一个非零MVD分量的CU,信令通知第一标志以指示在CU中是否使用四分之一亮度样点MV精度。当第一标志(等于1)指示未使用四分之一亮度样点MV精度时,信令通知另一个标志以指示使用整数亮度样点MV精度还是四亮度样点MV精度。
当CU的第一MVD分辨率标志为零或未针对CU进行编解码(意味着CU中的所有MVD均为零)时,四分之一亮度样点MV分辨率用于CU。当CU使用整数亮度样点MV精度或四亮度样点MV精度时,CU的AMVP候选列表中的MVP被取整到对应精度。
在编码器中,CU级别的RD检查用于确定哪个MVD分辨率要用于CU。也就是说,对于每个MVD分辨率,执行三次CU级别的RD检查。为了加快编码器速度,在JEM中应用以下编码方案:
--在具有正常四分之一亮度样点MVD分辨率的CU的RD检查期间,存储当前CU(整数亮度样点准度)的运动信息。存储的运动信息(取整之后)被用作在针对具有整数亮度样点和4亮度样点MVD分辨率的相同CU的RD检查期间的进一步的小范围运动矢量细化的起始点,使得耗时的运动估计过程不会重复三次。
--有条件地调用具有4亮度样点MVD分辨率的CU的RD检查。对于CU,当整数亮度样点MVD分辨率的RD代价远大于四分之一亮度样点MVD分辨率的RD代价时,跳过对于CU的4亮度样点MVD分辨率的RD检查。
2.3更高的运动矢量存储精度的示例
在HEVC中,运动矢量精度是四分之一像素(对于4:2:0视频,四分之一亮度样点和八分之一色度样点)。在JEM中,内部运动矢量存储和Merge候选的精度增加到1/16像素。更高的运动矢量精度(1/16像素)被用于用跳过/Merge模式编解码的CU的运动补偿帧间预测。对于用正常AMVP模式编解码的CU,使用整数像素或四分之一像素运动。
具有与HEVC运动补偿插值滤波器相同的滤波器长度和归一化因子的SHVC上采样插值滤波器被用作附加分数像素位置的运动补偿插值滤波器。色度分量运动矢量精度在JEM中是1/32样点,通过使用两个邻近的1/16像素分数位置的滤波器的平均来推导1/32像素分数位置的附加插值滤波器。
2.4重叠块运动补偿(OBMC)的示例
在JEM中,可以使用CU级别的语法来打开和关闭OBMC。当在JEM中使用OBMC时,除了CU的右边界和下边界之外,对于所有运动补偿(Motion Compensation,MC)块边界都执行OBMC。此外,它被应用于亮度和色度分量。在JEM中,MC块对应于编解码块。当用子CU模式(包括子CU Merge、仿射和FRUC(帧速率上转换)模式)对CU进行编解码时,CU的每个子块是MC块。为了以统一的方式处理CU边界,在子块级别对于所有MC块边界执行OBMC,其中子块尺寸被设置为等于4×4,如图12A和图12B所示。
图12A示出了CU/PU边界处的子块,并且有阴影线的子块是OBMC应用的地方。类似地,图12B示出了在ATMVP模式下的子块。
当OBMC应用于当前子块时,除了当前运动矢量之外,四个相连的邻近子块的运动矢量(如果可用并且与当前运动矢量不相同)还用于推导当前子块的预测块。基于多个运动矢量的这些多个预测块被组合以生成当前子块的最终预测信号。
基于邻近子块的运动矢量的预测块被表示为PN,其中N表示用于邻近的上侧、下侧、左侧和右侧的子块的索引,并且基于当前子块的运动矢量的预测块被表示为PC。当PN基于包含邻近子块的与当前子块相同的运动信息的运动信息时,OBMC不是从PN执行的。否则,将PN的每个样点添加到PC中的相同样点中,即PN的四行/列被添加到PC中。加权因子{1/4,1/8,1/16,1/32}用于PN,并且加权因子{5/16,31/32}用于PC。例外情况是小的MC块(即当编解码块的高度或宽度等于4或者CU用子CU模式进行编解码时),对于这样的块,只有PN的两行/列被添加到PC中。在这种情况下,加权因子{1/4,1/8}用于PN,并且加权因子{3/4,7/8}用于PC。对于基于垂直(水平)邻近子块的运动矢量生成的PN,将PN的相同的行(列)中的样点以相同的加权因子添加到PC
在JEM中,对于尺寸小于或等于256个亮度样点的CU,信令通知CU级别标志,以指示对于当前CU是否应用了OBMC。对于尺寸大于256个亮度样点或未用AMVP模式编解码的CU,默认应用OBMC。在编码器处,当OBMC应用于CU时,其影响在运动估计阶段期间被考虑在内。使用上邻近块和左邻近块的运动信息由OBMC形成的预测信号用于补偿当前CU的原始信号的上边界和左边界,然后应用正常运动估计过程。
2.5局部照明补偿(LIC)的示例
LIC基于照明变化的线性模型,使用缩放因子a和偏移b。并且对于每个帧间模式编解码的编解码单元(CU)自适应地启用或禁用它。
当LIC应用于CU时,采用最小平方误差法以通过使用当前CU的邻近样点及其对应的参考样点来推导参数a和b。图13是示出了用于推导IC算法的参数的邻近样点的示例。具体地,并且如图13所示,使用参考图片中的CU的子采样(2:1子采样)邻近样点和对应的样点(由当前CU或子CU的运动信息识别)。IC参数被单独地推导并应用于每个预测方向。
当用Merge模式对CU进行编解码时,以类似于Merge模式下的运动信息复制的方式,从邻近块复制LIC标志;否则,为CU信令通知LIC标志,指示LIC是否适用。
当对于图片启用LIC时,需要附加的CU级别RD检查来确定是否将LIC应用于CU。当对于CU启用LIC时,绝对差的均值移除和(Mean-Removed Sum of Absolute Difference,MR-SAD)和绝对哈达玛(Hadamard)变换差的均值移除和(Mean-Removed Sum of AbsoluteHadamard-Transformed Difference,MR-SATD)(而不是SAD和SATD)分别用于整数像素运动搜索和分数像素运动搜索。
为了降低编码复杂度,在JEM中应用以下编码方案:
--当当前图片及其参考图片之间没有明显的照明变化时,对于整个图片禁用LIC。为了识别这种情况,在编码器处计算当前图片和当前图片的每个参考图片的直方图。如果当前图片和当前图片的每个参考图片之间的直方图差小于给定阈值,则对于当前图片禁用LIC;否则,对于当前图片启用LIC。
2.6仿射运动补偿预测的示例
在HEVC中,只有平移运动模型被应用于运动补偿预测(Motion CompensationPrediction,MCP)。然而,相机和物体可能具有许多种类的运动,例如,放大/缩小、旋转、透视运动和/或其它不规则运动。另一方面,JEM应用简化的仿射变换运动补偿预测。图14示出了由两个控制点运动矢量V0和V1描述的块1400的仿射运动场的示例。块1400的运动矢量场(Motion Vector Field,MVF)可以由以下等式描述:
Figure BDA0003310357340000141
如图14所示,(v0x,v0y)是左上角控制点的运动矢量,并且(v1x,v1y)是右上角控制点的运动矢量。为了简化运动补偿预测,可以应用基于子块的仿射变换预测。子块尺寸M×N被推导如下:
Figure BDA0003310357340000151
这里,MvPre是运动矢量分数精度(例如,在JEM中为1/16),(v2x,v2y)是根据等式(1)计算的左下方控制点的运动矢量。如果需要,可以向下调整M和N,使其分别为w和h的因数(divisor)。
图15示出了块1500的每个子块的仿射MVF的示例。为了推导每个M×N子块的运动矢量,可以根据等式(1)计算每个子块的中心样点的运动矢量,并取整到运动矢量分数精度(例如,在JEM中为1/16)。然后,运动补偿插值滤波器可以被应用于用推导出的运动矢量生成每个子块的预测。在MCP之后,每个子块的高精度运动矢量被取整并保存为与正常运动矢量相同的精度。
2.6.1AF_INTER模式的实施例
在JEM中,有两种仿射运动模式:AF_INTER模式和AF_MERGE模式。对于宽度和高度都大于8的CU,可以应用AF_INTER模式。在比特流中信令通知CU级别的仿射标志,以指示是否使用AF_INTER模式。在AF_INTER模式下,使用邻近块构建具有运动矢量对{(v0,v1)|v0={vA,vB,vc},v1={vD,vE}}的候选列表。
图16示出了AF_INTER模式下的块1600的运动矢量预测(MVP)的示例。如图16所示,从子块A、块B或块C的运动矢量选择v0。可以根据参考列表来缩放来自邻近块的运动矢量。还可以根据邻近块的参考的图片顺序计数(POC)、当前CU的参考的POC和当前CU的POC之间的关系来缩放运动矢量。并且从邻近子块D和E选择v1的方法是类似的。如果候选列表的数量小于2,则该列表由通过复制每个AMVP候选而组成的运动矢量对来填充。当候选列表大于2时,可以首先根据邻近运动矢量(例如,基于一对候选中的两个运动矢量的相似性)对候选进行排序。在一些实施方式中,保留前两个候选。在一些实施例中,率失真(RD)代价检查用于确定选择哪个运动矢量对候选作为当前CU的控制点运动矢量预测(Control PointMotion Vector Prediction,CPMVP)。可以在比特流中信令通知指示候选列表中的CPMVP位置的索引。在确定当前仿射CU的CPMVP之后,应用仿射运动估计并找到控制点运动矢量(Control Point Motion Vector,CPMV)。然后,在比特流中信令通知CPMV和CPMVP的差。
2.6.3.AF_MERGE模式的实施例
当在AF_MERGE模式下应用CU时,它从有效的邻近重构块得到以仿射模式编解码的第一块。图17A示出了当前CU 1700的候选块的选择顺序的示例。如图17A所示,选择顺序可以是从当前CU 1700的左侧(1701)、上侧(1702)、右上方(1703)、左下方(1704)到左上方(1705)。图17B示出了AF_MERGE模式下的当前CU 1700的候选块的另一示例。如果邻近的左下方块1801以仿射模式进行编解码,如图17B所示,则包含子块1701的CU的左上角、右上角和左下角的运动矢量v2、v3和v4被推导。基于v2、v3和v4计算当前CU 1700上左上角的运动矢量v0。可以相应地计算当前CU的右上方的运动矢量v1。
在根据等式(1)中的仿射运动模型计算当前CU的CPMV v0和v1之后,可以生成当前CU的MVF。为了识别当前CU是否以AF_MERGE模式进行编解码,当有至少一个邻近块在仿射模式下进行编解码时,在比特流中信令通知仿射标志。
2.7模式匹配的运动矢量推导(PMMVD)的示例
PMMVD模式是基于帧速率上转换(FRUC)方法的特殊Merge模式。利用该模式,在解码器侧推导块的运动信息,而不是信令通知块的运动信息。
当CU的Merge标志为真时,可以针对CU信令通知FRUC标志。当FRUC标志为假时,可以信令通知Merge索引,并且使用常规Merge模式。当FRUC标志为真时,可以信令通知的附加的FRUC模式标志以指示将使用哪种方法(例如,双边匹配或模板匹配)来推导该块的运动信息。
在编码器侧,关于是否对CU使用FRUC Merge模式的决定是基于对正常Merge候选所做的RD代价选择。例如,通过使用RD代价选择来针对CU检查多种匹配模式(例如,双边匹配和模板匹配)。引起最小成本的匹配模式与其他CU模式进一步比较。如果FRUC匹配模式是最有效的模式,则对于CU将FRUC标志设置为真,并且使用相关的匹配模式。
通常,FRUC Merge模式下的运动推导过程具有两个步骤:首先执行CU级别运动搜索,然后进行子CU级别运动细化。在CU级别,基于双边匹配或模板匹配,推导整个CU的初始运动矢量。首先,生成MV候选列表,并且选择引起最小匹配成本的候选作为进一步CU级别细化的起点。然后,在起点附近执行基于双边匹配或模板匹配的局部搜索。将最小匹配成本的MV结果作为整个CU的MV。随后,以推导出的CU运动矢量作为起点,进一步在子CU级别细化运动信息。
例如,对于W×HCU运动信息推导执行以下推导过程。在第一阶段,推导整个W×HCU的MV。在第二阶段,该CU进一步被划分为M×M个子CU。如等式(3)计算M的值,D是预定义的划分深度,在JEM中默认设置为3。然后推导每个子CU的MV。
Figure BDA0003310357340000171
图18示出了在帧速率上转换(FRUC)方法中使用的双边匹配的示例。通过在两个不同参考图片(1810、1811)中沿当前CU(1800)的运动轨迹找到两个块之间的最接近匹配,使用双边匹配来推导当前CU的运动信息。在连续运动轨迹的假设下,指向两个参考块的运动矢量MV0(1801)和MV1(1802)与当前图片和两个参考图片之间的时域距离(例如,TD0(1803)和TD1(1804))成比例。在一些实施例中,当当前图片1800在时域上在两个参考图片(1810、1811)之间并且从当前图片到两个参考图片的时域距离相同时,双边匹配成为基于镜像的双向MV。
图19示出了在帧速率上转换(FRUC)方法中使用的模板匹配的示例。模板匹配可以用于通过找到当前图片中的模板(例如,当前CU的顶部和/或左侧邻近块)与参考图片1910中的块(与模板的尺寸相同)之间的最接近匹配来推导当前CU 1900的运动信息。除了上述FRUC Merge模式之外,模板匹配还可以被应用于AMVP模式。在JEM和HEVC中,AMVP具有两个候选。利用模板匹配方法,可以推导新的候选。如果由模板匹配新推导的候选与第一现有AMVP候选不同,则将其插入AMVP候选列表的最开始处,然后将列表尺寸设置为2(例如,通过移除第二现有AMVP候选)。当应用于AMVP模式时,仅应用CU级别搜索。CU级别的MV候选集可以包括以下:(1)如果当前CU处于AMVP模式,则原始AMVP候选,(2)所有Merge候选,(3)插值MV场(稍后描述)中的几个MV,以及顶部和左侧邻近运动矢量。
当使用双边匹配时,将Merge候选的每个有效MV用作输入,以生成假设双边匹配的情况下的MV对。例如,在参考列表A中,Merge候选的一个有效MV是(MVa,refa)。然后,在其他参考列表B中找到其配对的双边MV的参考图片refb,使得refa和refb在时域上位于当前图片的不同侧。如果这样的refb在参考列表B中不可用,则refb被确定为与refa不同的参考,并且其到当前图片的时域距离是列表B中的最小值。在确定refb之后,通过基于当前图片refa和refb之间的时域距离来缩放MVa来推导MVb。
在一些实施方式中,来自插值MV场的四个MV也可以被添加到CU级别候选列表。更具体地,添加当前CU的位置(0,0)、(W/2,0)、(0,H/2)和(W/2,H/2)处的插值MV。当在AMVP模式下应用FRUC时,原始AMVP候选也被添加到CU级别MV候选集。在一些实施方式中,在CU级别,对于AMVP CU,15个MV可以被添加到候选列表,而对于Merge CU,13个MV可以被添加到候选列表。
子CU级别的MV候选集包括:(1)从CU级别搜索确定的MV,(2)顶部、左侧、左上方和右上方邻近MV,(3)来自参考图片的并置MV的缩放版本,(4)一个或多个ATMVP候选(例如,最多四个),以及(5)一个或多个STMVP候选(例如,最多四个)。来自参考图片的缩放MV如下推导。遍历两个列表中的参考图片。参考图片中的子CU的并置位置处的MV被缩放到起始CU级别MV的参考。ATMVP和STMVP候选可以是前四个。在子CU级别,一个或多个MV(例如,最多17个)被添加到候选列表。
插值MV场的生成。在对帧进行编解码之前,基于单边ME为整个图片生成插值运动场。然后,运动场可以稍后用作CU级别或子CU级别MV候选。
在一些实施方式中,两个参考列表中的每个参考图片的运动场以4×4块级别进行遍历。图20示出了FRUC方法中的单边运动估计(ME)2000的示例。对于每个4×4块,如果与块相关联的运动通过当前图片中的4×4块并且块未被分配任何插值运动,则参考块的运动根据时域距离TD0和TD1(以与HEVC中的TMVP的MV缩放的方式相同的方式)被缩放到当前图片,并且将缩放的运动分配给当前帧中的块。如果没有缩放的MV被分配给4×4块,则在插值运动场中将块的运动标记为不可用。
插值和匹配成本。当运动矢量指向分数样点位置时,需要运动补偿插值。为了降低复杂度,代替常规8抽头HEVC插值,双线性插值可以用于双边匹配和模板匹配。
匹配成本的计算在不同步骤处有点不同。当从CU级别的候选集中选择候选时,匹配成本可以是双边匹配或模板匹配的绝对和差(Absolute Sum Difference,SAD)。在确定起始MV之后,子CU级别搜索的双边匹配的匹配成本C计算如下:
Figure BDA0003310357340000191
这里,w是加权因子。在一些实施例中,w可以被经验设置为4。MV和MVs分别指示当前MV和起始MV。SAD仍可以用作子CU级别搜索的模板匹配的匹配成本。
在FRUC模式下,仅通过使用亮度样点来推导MV。推导的运动将用于MC帧间预测的亮度和色度两者。在确定MV之后,使用用于亮度的8抽头插值滤波器和用于色度的4抽头插值滤波器来执行最终MC。
MV细化是基于模式的MV搜索,以双边匹配成本或模板匹配成本为标准。在JEM中,支持两种搜索模式—无限制中心偏置菱形搜索(Unrestricted Center-Biased DiamondSearch,UCBDS)和自适应交叉搜索,分别在CU级别和子CU级别进行MV细化。对于CU和子CU级别MV细化两者,以四分之一亮度样点MV精度直接搜索MV,并且接着是八分之一亮度样点MV细化。将用于CU和子CU步骤的MV细化的搜索范围设置为等于8个亮度样点。
在双边匹配Merge模式下,应用双向预测,因为CU的运动信息是基于在两个不同的参考图片中沿当前CU的运动轨迹的两个块之间的最近匹配推导的。在模板匹配Merge模式下,编码器可以针对CU在根据列表0的单向预测、根据列表1的单向预测或者双向预测当中进行选择。选择可以基于如下的模板匹配成本:
如果costBi<=factor*min(cost0,cost1)
则使用双向预测;
否则,如果cost0<=cost1
则使用列表0中的单向预测;
否则,
使用列表1中的单向预测;
这里,cost0是列表0模板匹配的SAD,cost1是列表1模板匹配的SAD,costBi是双向预测模板匹配的SAD。例如,当factor的值等于1.25时,这意味着选择过程偏向于双向预测。帧间预测方向选择可以被应用于CU级别模板匹配过程。
2.8广义双向预测改进(GBi)的示例
VTM-3.0中采用了在JVET-L0646中提出的广义双向预测改进(GBi)。在双向预测模式下,GBi对来自L0和L1的预测值应用不相等的权重。在帧间预测模式下,基于率失真优化(Rate-Distortion Optimization,RDO)来评估包括相等权重对(1/2,1/2)的多个权重对,并且将所选择的权重对的GBi索引信令通知给解码器。在Merge模式下,GBi索引从邻近CU继承。预测值生成公式如等式(5)所示。
PGBi=(w0×PL0+w1×PL1+RoundingOffset)>>shiftNumGBi 等式(5)
在本文中,PGBi是GBi的最终预测值,w0和w1是分别应用于列表0(L0)和列表1(L1)的预测值(PL0和PL1)的所选择的GBi权重。RoundingOffsetGBi和shiftNumGBi用于归一化GBi中的最终预测值。支持的w1权重集为{-1/4,3/8,1/2,5/8,5/4},其中五个权重对应于一个相等权重对和四个不相等权重对。混合增益,即w1和w0之和,被固定为1.0。因此,对应的w0权重集为{5/4,5/8,1/2,3/8,-1/4}。权重对选择在CU级别。
对于非低延迟图片,权重集尺寸从5减小到3,其中w1权重集为{3/8,1/2,5/8},并且w0权重集为{5/8,1/2,3/8}。非低延迟图片的权重集尺寸减小被应用于BMS2.1 GBi和本稿中的所有GBi测试。
2.8.1GBi编码器错误修复
为了减少GBi编码时间,在当前编码器设计中,编码器将存储从等于4/8的GBi权重估计的单向预测运动矢量,并将其重用于其他GBi权重的单向预测搜索。该快速编码方法被应用于平移运动模型和仿射运动模型。在VTM2.0中,采用6参数仿射模型以及4参数仿射模型。当GBi权重等于4/8时,当存储单向预测仿射MV时,BMS2.1编码器不区分4参数仿射模型和6参数仿射模型。因此,在用GBi权重4/8编码之后,4参数仿射MV可以被6参数仿射MV覆盖。存储的6参数仿射MV可以用于其他GBi权重的4参数仿射MV,或者存储的4参数仿射MV可以用于6参数仿射MV。提出的GBi编码器错误修复是为了分开4参数和6参数仿射MV存储。当GBi权重等于4/8时,编码器基于仿射模型类型来存储那些仿射MV,并且将基于仿射模型类型的对应仿射MV重用于其他GBi权重。
2.8.2GBi编码器加速
在该现有的实施方式中,提出了五种编码器加速方法,以在启用GBi时减少编码时间。
(1)有条件地跳过一些GBi权重的仿射运动估计
在BMS2.1中,对所有GBi权重执行包括4参数和6参数仿射ME的仿射ME。提出对那些不相等的GBi权重(不等于4/8的权重)有条件地跳过仿射ME。具体地,当且仅当仿射模式被选择为当前最佳模式并且在评估4/8的GBi权重之后它不是仿射Merge模式时,将对其他GBi权重执行仿射ME。如果当前图片是非低延迟图片,当执行仿射运动估计时,对于不相等的GBi权重,将跳过平移模型的双向预测运动估计。如果仿射模式未被选择为当前最佳模式,或者如果仿射Merge被选择为当前最佳模式,则对于所有其他GBi权重,将跳过仿射ME。
(2)在1像素和4像素MVD精度的编码中,减少用于低延迟图片的RD代价检查的权重数量
对于低延迟图片,有包括1/4像素、1像素和4像素的所有MVD精度的RD代价检查的五个权重。编码器将首先检查1/4像素MVD精度的RD代价。提出跳过1像素和4像素MVD精度的RD代价检查的GBi权重中的一部分。根据那些不相等的权重的、1/4像素MVD精度的RD代价对该不相等的权重进行排序。在1像素和4像素MVD精度的编码期间,将仅评估具有最小RD代价的前两个权重以及GBi权重4/8。因此,对于低延迟图片的1像素和4像素MVD精度,将最多评估三个权重。
(3)当L0和L1参考图片相同时,有条件地跳过双向预测搜索
对于RA中的一些图片,相同的图片可能出现在两个参考图片列表(列表0和列表1)中。例如,对于CTC中的随机访问编解码配置,第一组图片(GOP)的参考图片结构列出如下。
POC:16,TL:0,[L0:0] [L1:0]
POC:8,TL:1,[L0:0 16] [L1:16 0]
POC:4,TL:2,[L0:0 8] [L1:8 16]
POC:2,TL:3,[L0:0 4] [L1:4 8]
POC:1,TL:4,[L0:0 2] [L1:2 4]
POC:3,TL:4,[L0:2 0] [L1:4 8]
POC:6,TL:3,[L0:4 0] [L1:8 16]
POC:5,TL:4,[L0:4 0] [L1:6 8]
POC:7,TL:4,[L0:6 4] [L1:8 16]
POC:12,TL:2,[L0:8 0] [L1:16 8]
POC:10,TL:3,[L0:8 0] [L1:12 16]
POC:9,TL:4,[L0:8 0] [L1:10 12]
POC:11,TL:4,[L0:10 8] [L1:12 16]
POC:14,TL:3,[L0:12 8] [L1:12 16]
POC:13,TL:4,[L0:12 8] [L1:14 16]
POC:15,TL:4,[L0:14 12] [L1:16 14]
请注意,图片16、8、4、2、1、12、14和15在两个列表中具有(多个)相同的参考图片。对于这些图片的双向预测,L0和L1参考图片可能是相同的。我们提出,当1)双向预测中的两个参考图片相同,并且2)时域层大于1,以及3)MVD精度为1/4像素时,编码器对不相等的GBi权重跳过双向预测ME。对于仿射双向预测ME,该快速跳过方法仅被应用于4参数仿射ME。
(4)基于时域层以及参考图片和当前图片之间的POC距离,跳过对不相等的GBi权重的RD代价检查
提出当时域层等于4(RA中的最高时域层)或者参考图片(列表0或列表1)和当前图片之间的POC距离等于1并且编解码QP大于32时,跳过对那些不相等的GBi权重的那些RD代价评估。
(5)在ME期间,对于不相等的GBi,将浮点计算改为定点计算
对于现有的双向预测搜索,编码器将固定一个列表的MV,并在另一个列表中细化MV。目标在ME之前被修改以降低计算复杂度。例如,如果列表1的MV是固定的,并且编码器要细化列表0的MV,则用等式(6)修改列表0MV细化的目标。O是原始信号,并且P1是列表1的预测信号。w是列表1的GBi权重。
T=((O<<3)-w*P1)*(1/(8-w)) 等式(6)
在本文中,项(1/(8-w))以浮点精度被存储,这增加了计算复杂度。提出将等式(6)改变为如等式(7)中的定点。
T=(O*a1-P1*a2+round)>>N 等式(7)
其中a1和a2是缩放因子,并且它们被计算如下:
γ=(1<<N)/(8-w);a1=γ<<3;a2=γ*w;round=1<<(N-1)
2.8.3GBi的CU尺寸约束
在该方法中,对小的CU禁用GBi。在帧间预测模式下,如果使用双向预测,并且CU区域小于128个亮度样点,则在没有任何信令的情况下禁用GBi。
2.9双向光流(BDOF或BIO)的示例
2.9.1BDOF的概述
在BIO中,首先执行运动补偿以生成当前块的第一预测(在每个预测方向上)。第一预测用于推导块内的每个子块或像素的空域梯度、时域梯度和光流,然后用于生成第二预测,例如子块或像素的最终预测。细节描述如下。
双向光流(BIO)方法是在双向预测的逐块运动补偿的基础上执行的逐样点运动细化。在一些实施方式中,样点级别运动细化不使用信令。
假设I(k)为块运动补偿之后的来自参考k(k=0,1)的亮度值,并且分别将
Figure BDA0003310357340000231
Figure BDA0003310357340000232
表示为I(k)梯度的水平和垂直分量。假设光流有效,运动矢量场(vx,vy)由下式给出:
Figure BDA0003310357340000233
将该光流等式与用于每个样点的运动轨迹的Hermite插值组合,最终产生与函数值I(k)以及导数
Figure BDA0003310357340000234
Figure BDA0003310357340000235
相匹配的唯一的三阶多项式。t=0时,该多项式的值为BIO预测:
Figure BDA0003310357340000236
图24示出了双向光流(BIO)方法中的示例光流轨迹。这里,τ0和τ1表示到参考帧的距离。距离τ0和τ1基于Ref0和Ref1的POC进行计算:
τ0=POC(当前)-POC(Ref0),τ1=POC(Ref1)-POC(当前)。如果两个预测来自相同的时间方向(都来自过去或者都来自未来),那么符号是不同的(例如,τ0·τ1<0)。在这种情况下,如果预测不是来自相同时刻(例如,τ0≠τ1)。两个参考区域具有非零运动(例如,MVx0,MVy0,MVx1,MVy1≠0),并且块运动矢量与时间距离成比例(例如,MVx0/MVx1=MVy0/MVy1=-τ01)。
运动矢量场(vx,vy)是通过最小化点A和B中的值之间的差Δ而确定的。图9A-图9B示出了运动轨迹和参考帧平面的相交的示例。模型仅使用Δ的局部泰勒展开的第一线性项:
Figure BDA0003310357340000237
上述等式中的所有值取决于样点位置,表示为(i′,j′)。假设运动在局部周围区域是一致的,可以在以当前预测点(i,j)为中心的(2M+1)×(2M+1)正方形窗口Ω内部被最小化,其中M等于2:
Figure BDA0003310357340000241
对于该优化问题,JEM使用简化的方法,首先在垂直方向上最小化,然后在水平方向上最小化。这将导致下式:
Figure BDA0003310357340000242
Figure BDA0003310357340000243
其中,
Figure BDA0003310357340000244
为了避免被零除或被非常小的值除,正则化参数r和m可以在等式(12)和等式(13)中被引入,其中:
r=500·4d-8 等式(15)
m=700·4d-8 等式(16)
这里,d是视频样点的比特深度。
为了保持对BIO的内存访问与常规双向预测运动补偿相同,所有预测和梯度值I(k),
Figure BDA0003310357340000245
是针对当前块内部的位置而计算的。图22A示出了块2200外部的访问位置的示例。如图22A所示,在等式(12)中,以预测块的边界上的当前预测点为中心的(2m+1)×(2m+1)正方形窗口Ω需要访问块外部的位置。在JEM,块外部的值I(k),
Figure BDA0003310357340000246
被设置为等于块内部的最近可用值。例如,这可以被实施为填充区域2201,如图22B所示。
利用BIO,可以为每个样点细化运动场是可能的。为了降低计算复杂度,在JEM中使用BIO的基于块的设计。可以基于4×4块来计算运动细化。在基于块的BIO中,可以聚合4×4块中的所有样点的、等式(12)中的sn的值,然后sn的聚合值用于4×4块的推导的BIO运动矢量偏移。更具体地,以下公式可以用于基于块的BIO推导:
Figure BDA0003310357340000247
这里,bk表示属于预测块的第k个4×4块的样点集合。等式(12)和等式(13)中的sn被替换为((sn,bk)>>4)以推导相关联的运动矢量偏移。
在一些场景中,由于噪音或不规则运动,BIO的MV细化可能不可靠。因此,在BIO中,MV细化的幅度被裁剪到阈值。基于当前图片的参考图片是否都来自一个方向来确定阈值。例如,如果当前图片的所有参考图片都来自一个方向,则阈值的值被设置为12×214-d;否则,它被设置为12×213-d
可以使用与HEVC运动补偿过程(例如,2D可分离有限脉冲响应(FIR))一致的操作利用运动补偿插值来同时计算BIO的梯度。在一些实施例中,2D可分离FIR的输入是与运动补偿过程和根据块运动矢量的分数部分的分数位置(fracX,fracY)相同的参考帧样点。对于水平梯度
Figure BDA0003310357340000251
首先使用与具有去缩放(de-scaling)移位d-8的分数位置fracY相对应的BIOfilterS对信号进行垂直插值。然后在与具有去缩放移位18-d的分数位置fracX相对应的水平方向上应用梯度滤波器BIOfilterG。对于垂直梯度
Figure BDA0003310357340000252
使用与具有去缩放移位d-8的分数位置fracY相对应的BIOfilterG来垂直应用梯度滤波器。然后在与具有去缩放移位18-d的分数位置fracX相对应的水平方向上使用BIOfilterS来执行信号位移。用于梯度计算的插值滤波器BIOfilterG和用于信号位移的插值滤波器BIOfilterF的长度可以更短(例如,6抽头),以便保持合理的复杂度。表1示出了可以用于BIO中的块运动矢量的不同分数位置的梯度计算的示例滤波器。表2示出了可以用于BIO中的预测信号生成的示例插值滤波器。
表1:用于BIO中的梯度计算的示例性滤波器
分数精度位置 梯度的插值滤波器(BIOfilterG)
0 {8,-39,-3,46,-17,5}
1/16 {8,-32,-13,50,-18,5}
1/8 {7,-27,-20,54,-19,5}
3/16 {6,-21,-29,57,-18,5}
1/4 {4,-17,-36,60,-15,4}
5/16 {3,-9,-44,61,-15,4}
3/8 {1,-4,-48,61,-13,3}
7/16 {0,1,-54,60,-9,2}
1/2 {-1,4,-57,57,-4,1}
表2:用于BIO中的预测信号生成的示例性插值滤波器
分数精度位置 预测信号的插值滤波器(BIOfilterS)
0 {0,0,64,0,0,0}
1/16 {1,-3,64,4,-2,0}
1/8 {1,-6,62,9,-3,1}
3/16 {2,-8,60,14,-5,1}
1/4 {2,-9,57,19,-7,2}
5/16 {3,-10,53,24,-8,2}
3/8 {3,-11,50,29,-9,2}
7/16 {3,-11,44,35,-10,3}
1/2 {3,-10,35,44,-11,3}
在JEM,当两个预测来自不同的参考图片时,BIO可以被应用于所有双向预测块。当对CU启用局部照明补偿(LIC)时,可以禁用BIO。
在一些实施例中,在正常的MC过程之后,OBMC被应用于块。为了降低计算复杂度,在OBMC过程期间可能不应用BIO。这意味着BIO在使用块自身的MV时被应用于块的MC过程中,而在OBMC过程期间使用邻近块的MV时不应用于MC过程中。
2.9.2如JVET-L0256中提出的VTM-3.0中的BIO的示例
步骤1:判断BIO是否适用(W/H是当前块的宽/高)
如果出现以下情况,则BIO不适用
о当前视频块是仿射编解码的或ATMVP编解码的
о(iPOC-iPOC0)×(iPOC-iPOC1)≥0
оH==4或(W==4且H==8)
о带加权预测
оGBi权重不为(1,1)
如果两个参考块(表示为R0和R1)之间的总SAD小于阈值,则不使用BIO,其中
Figure BDA0003310357340000261
步骤2:数据准备
对于WxH块,对(W+2)x(H+2)个样点进行插值。
如正常运动补偿中,内部WxH个样点用8抽头插值滤波器进行插值。
样点的四条外侧线(图23中的黑色圆圈)用双向线性滤波器进行插值。
对于每个位置,在两个参考块(R0和R1)上计算梯度。
Gx0(x,y)=(R0(x+1,y)-R0(x-1,y))>>4
Gy0(x,y)=(R0(x,y+1)-R0(x,y-1))>>4
Gx1(x,y)=(R1(x+1,y)-R1(x-1,y))>>4
Gy1(x,y)=(R1(x,y+1)-R1(x,y-1))>>4
对于每个位置,内部值被计算为:
T1=(R0(x,y)>>6)-(R1(x,y)>>6),T2=(Gx0(x,y)+Gx1(x,y))>>3,T3=(Gy0(x,y)+Gy1(x,y))>>3;以及
B1(x,y)=T2*T2,B2(x,y)=T2*T3,B3(x,y)=-T1*T2,B5(x,y)=T3*T3,B6(x,y)=-T1*T3
步骤3:计算每个块的预测
如果两个4×4参考块之间的SAD小于阈值,则针对4×4块跳过BIO。
计算Vx和Vy。
计算4×4块中的每个位置的最终预测:
b(x,y)=(Vx(Gx0(x,y)-Gx1(x,y))+Vy(Gy0(x,y)-Gy1(x,y))+1)>>1
P(x,y)=(R0(x,y)+R1(x,y)+b(x,y)+offset)>>shift
在本文中,b(x,y)被称为校正项。
2.9.3VTM-4.0中的BIO
在VTM-4.0中,采用了提出了根据比特深度对BDOF中的计算结果进行取整的JVET-M0063。
在VTM-4.0中,采用了JVET-M0487,其移除了双向线性滤波并提取参考块的最近整数像素以填充样点的四条外侧线(图23中的黑色圆圈)。
VTM-4.0中与BIO相关的工作草案如下所示(来自JVET-M1001)
2.9.4分数样点插值过程
通用
该过程的输入是:
-亮度位置(xSb,ySb),指定当前编解码子块相对于当前图片的左上方亮度样点的左上方样点,
-变量sbWidth,指定当前编解码子块宽度的,
-变量sbHeight,指定当前编解码子块高度的,
-运动矢量偏移mvOffset,
-细化的运动矢量refMvLX,
-所选择的参考图片样点阵列refPicLX,
-双向光流标志bdofFlag,
-变量cIdx,指定当前块的色彩分量索引。
该过程的输出是:
-预测样点值的(sbWidth+bdofOffset)x(sbHeight+bdofOffset)阵列predSamplesLX。
双向光流边界偏移bdofOffset被推导如下:
bdofOffset=bdofFlag?2:0 (8-811)-如果cIdx等于0,则以下适用:
-假设(xIntL,yIntL)为以全采样单位给出的亮度位置,并且(xFracL,yFracL)为以1/16采样单位给出的偏移。这些变量仅用于该条款中,以用于指定参考样点阵列refPicLX内部的分数样点位置。
-对于预测亮度样点阵列predSamplesLX内部的每个亮度样点位置(xL=0..sbWidth-1+bdofOffset,yL=0..sbHeight-1+bdofOffset),对应的预测亮度样点值predSamplesLX[xL][yL]被推导如下:
-变量xIntL、yIntL、xFracL和yFracL被推导如下:
xIntL=xSb+(refMvLX[0]>>4)+xL (8-812)
yIntL=ySb+(refMvLX[1]>>4)+yL (8-813)
xFracL=refMvLX[0]&15 (8-814)
yFracL=refMvLX[1]&15 (8-815)
-如果bdofFlag等于TRUE(真),并且以下条件中的一个或多个为真,则预测亮度样点值predSamplesLX[xL][yL]通过调用如条款
8.5.7.3.3所指定的亮度整数样点提取过程进行推导,以(xIntL,yIntL)、(xFracL,yFracL)和refPicLX为输出:
-bdofFlag等于TRUE。
-xL等于0。
-xL等于sbWidth+1。
-yL等于0。
-yL等于sbHeight+1。
-否则,以下适用:
-运动矢量mvLX被设置为(refMvLX-mvOffset)。
预测亮度样点值predSamplesLX[xL][yL]通过调用如条款8.5.7.3.2所指定的亮度采样8抽头插值滤波过程进行推导,以(xIntL,yIntL)、(xFracL,yFracL)、refPicLX和padVal为输入。
……
亮度整数样点提取过程
该过程的输入是:
-以全采样单位的亮度位置(xIntL,yIntL),
-亮度参考样点阵列refPicLXL
该过程的输出是预测亮度样点值predSampleLXL
变量shift被设置为Max(2,14-BitDepthY)。
变量picW被设置为等于pic_width_in_luma_samples,并且变量picH被设置为等于pic_height_in_luma_samples。
全采样单位的亮度位置(xInt、YnT)被推导如下:
xInt=Clip3(0,picW–1,sps_ref_wraparound_enabled_flag?(8-838)
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL):xIntL)
yInt=Clip3(0,picH-1,yIntL) (8-839)
预测亮度样点值predSampleLXL被推导如下:
predSampleLXL=refPicLXL[xInt][yInt]<<shift3 (8-840)
双向光流预测过程
该过程的输入是:
-两个变量nCbW和nCbH,指定当前编解码块的宽度和高度,
-两个(nCbW+2)x(nCbH+2)亮度预测样点阵列predSamplesL0和predSamplesL1,
-预测列表利用标志predFlagL0和predFlagL1,
-参考索引refIdxL0和refIdxL1,
-双向光流利用标志bdofUtilizationFlag[xIdx][yIdx],其中xIdx=0..(nCbW>>2)–1,yIdx=0..(nCbH>>2)-1。
该过程的输出是亮度预测样点值的(nCbW)x(nCbH)阵列pbSamples。
变量bitDepth、shift1、shift2、shift3、shift4、offset4和mvRefineThres被推导如下:
-变量bitDepth被设置为等于BitDepthY
-变量shift1被设置为等于Max(2,14-bitDepth)。
-变量shift2被设置为等于Max(8,bitDepth-4)。
-变量shift3被设置为等于Max(5,bitDepth-7)。
-变量shift4被设置为等于Max(3,15-bitDepth),并且变量offset4被设置为等于1<<(shift4-1)。
-变量mvRefineThres被设置为等于Max(2,1<<(13-bitDepth))。
对于xIdx=0..(nCbW>>2)–1和yIdx=0..(nCbH>>2)-1,以下适用:
-变量xSb被设置为等于(xIdx<<2)+1,并且ySb被设置为等于(yIdx<<2)+1。
-如果bdofUtilizationFlag[xSbIdx][yIdx]等于FALSE(假),则对于x=xSb-1..xSb+2,y=ySb-1..ySb+2,当前子块的预测样点值被推导如下:
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
-否则(bdofUtilizationFlag[xSbIdx][yIdx]等于TRUE),当前子块的预测
样点值被推导如下:
-对于x=xSb-1..xSb+4,y=ySb-1..ySb+4,以下有序步骤适用:
1.预测样点阵列内部的每个对应样点位置(x,y)的位置(hx,vy)被推导如下:
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
2.变量gradientHL0[x][y]、gradientVL0[x][y]、gradientHL1[x][y]和gradientVL1[x][y]被推导如下:
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1])>>shift1 (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy])>>shift1 (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy-1])>>shift1 (8-858)
3.变量temp[x][y]、tempH[x][y]和tempV[x][y]被推导如下:
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3
(8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3
(8-861)
-变量sGx2、sGy2、sGxGy、sGxdI和sGydI被推导如下:
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j]),其中i,j=-1..4(8-862)sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j]),其
中i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j]),其中i,j-1..4(8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j]),其中i,j=-1..4(8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j]),其中i,j=-1..4(8-866)
-当前子块的水平和垂直运动偏移被推导如下:
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,
((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
-对于x=xSb-1..xSb+2,y=ySb-1..ySb+2,当前子块的预测样点值被推导如下:
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()操作是针对浮点输入而定义的。Round()操作在这里似乎是冗余的,因为输入是整数值。待提出者确认]
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4)
(8-870)
2.10解码器侧运动矢量细化(DMVR)的示例
在双向预测操作中,对于一个块区域的预测,分别使用列表0的运动矢量(MV)和列表1的MV形成的两个预测块被组合以形成单个预测信号。在解码器侧运动矢量细化(DMVR)方法中,双向预测的两个运动矢量通过双边模板匹配过程而进一步细化。双边模板匹配应用于解码器中,以执行双边模板和参考图片中的重构样点之间的基于失真的搜索,以便在不传输附加运动信息的情况下获得细化的MV。
在DMVR,如图24所示,分别从列表0的初始MV0和列表1的MV1生成双边模板作为两个预测块的加权组合(即,平均)。模板匹配操作由计算生成的模板和参考图片中的样点区域(初始预测块周围)之间的成本度量构成。对于两个参考图片中的每一个,产生最小模板成本的MV被认为是用以替换原始MV的、该列表的更新的MV。在JEM中,为每个列表搜索九个MV候选。九个候选MV包括原始MV和具有水平或垂直方向或两个方向上的到原始MV的一个亮度样点偏移的8个周围MV。最后,如图24所示的两个新的MV,即MV0′和MV1′,用于生成最终的双向预测结果。绝对差值之和(SAD)用作成本度量。请注意,当计算由一个周围MV生成的预测块的成本时,取整的MV(到整数像素)实际用于获得预测块,而不是真实MV。
DMVR被应用于双向预测的Merge模式,其中一个MV来自过去的参考图片,而另一个来自未来的参考图片,而不传输附加的语法元素。在JEM中,当为CU启用LIC、仿射运动、FRUC或子CU Merge候选时,不应用DMVR。
2.11JVET-N0236
该文献提出了一种利用光流细化基于子块的仿射运动补偿预测的方法。在执行基于子块的仿射运动补偿之后,通过添加由光流等式推导的差来细化预测样点,这被称为利用光流的预测细化(Prediction Refinement with Optical Flow,PROF)。该方法可以在不增加内存访问带宽的情况下实现像素级别粒度的帧间预测。
为了获得更精细的运动补偿粒度,该文献提出了一种利用光流细化基于子块的仿射运动补偿预测的方法。在执行基于子块的仿射运动补偿之后,通过添加由光流等式推导的差来细化亮度预测样点。提出的PROF(利用光流的预测细化)被描述为以下四个步骤。
步骤1)执行基于子块的仿射运动补偿以生成子块预测I(i,j)。
步骤2)使用3抽头滤波器[-1,0,1]在每个样点位置处计算子块预测的空域梯度gx(i,j)和gy(i,j)。
gx(i,j)=I(i+1,j)-I(i-1,j)
gy(i,j)=I(i,j+1)-I(i,j-1)
对于梯度计算,子块预测在每侧上被扩展一个像素。为了减少内存带宽和复杂度,扩展边界上的像素从参考图片中的最近整数像素位置进行复制。因此,避免了填充区域的附加插值。
步骤3)由光流等式计算亮度预测细化(表示为ΔI)。
ΔI(i,j)=gx(i,j)*Δvx(i,j)+gy(i,j)*Δvy(i,j)
其中增量MV(表示为Δv(i,j))是为样点位置(i,j)计算的像素MV(表示为v(i,j))和像素(i,j)所属的子块的子块MV之间的差,如图25所示。
由于仿射模型参数和相对于子块中心的像素位置不在子块之间被改变,所以可以为第一子块计算Δv(i,j),并将其重用于相同CU中的其他子块。假设x和y是从像素位置到子块中心的水平和垂直偏移,可以通过以下等式推导Δv(x,y),
Figure BDA0003310357340000331
对于4参数仿射模型,
Figure BDA0003310357340000332
对于6参数仿射模型,
Figure BDA0003310357340000341
其中,(v0x,v0y)、(v1x,v1y)、(v2x,v2y)是左上方、右上方和左下方控制点运动矢量,w和h是CU的宽度和高度。
步骤4)最后,亮度预测细化被添加到子块预测I(i,j)。最终的预测I’如以下等式被生成。
I′(i,j)=I(i,j)+ΔI(i,j)
JVET-N0236中的一些细节
a)如何推导PROF的梯度
在JVET-N0263中,为每个参考列表的每个子块(VTM-4.0中的4×4子块)计算梯度。对于每个子块,获取参考块的最近整数样点以填充样点的四条外侧线(图23中的黑色圆圈)。
假设当前子块的MV为(MVx,MVy)。然后分数部分被计算为(FracX,FracY)=(MVx&15,MVy&15)。整数部分被计算为(IntX,IntY)=(MVx>>4,MVy>>4)。偏移(OffsetX,OffsetY)被推导为:
OffsetX=FracX>7?1:0;
OffsetY=FracY>7?1:0;
假设当前子块的左上方坐标为(xCur,yCur),并且当前子块的大小为W×H。
然后(xCor0,yCor0)、(xCor1,yCor1)、(xCor2,yCor2)和(xCor3,yCor3)被计算为:
(xCor0,yCor0)=(xCur+IntX+OffsetX-1,yCur+IntY+OffsetY-1);
(xCor1,yCor1)=(xCur+IntX+OffsetX-1,yCur+IntY+OffsetY+H);
(xCor2,yCor2)=(xCur+IntX+OffsetX-1,yCur+IntY+OffsetY);
(xCor3,yCor3)=(xCur+IntX+OffsetX+W,yCur+IntY+OffsetY);
假设PredSample[x][y](其中x=0..W-1,y=0..H-1)存储子块的预测样点。
那么填充样点被推导为
PredSample[x][-1]=(Ref(xCor0+x,yCor0)<<Shift0)-Rounding,对于x=-1..W;
PredSample[x][H]=(Ref(xCor1+x,yCor1)<<Shift0)-Rounding,对于x=-1..W;
PredSample[-1][y]=(Ref(xCor2,yCor2+y)<<Shift0)-Rounding,对于y=0..H-1;
PredSample[W][y]=(Ref(xCor3,yCor3+y)<<Shift0)-Rounding,对于y=0..H-1;
其中Rec表示参考图片。Rounding是整数,在示例性PROF实施方式中等于213。Shift0=Max(2,(14-BitDepth));
PROF试图提高梯度的精度,这与VTM-4.0中的BIO不同,在BIO中,梯度以与输入亮度样点相同的精度被输出。
PROF中的梯度被计算如下:
Shift1=Shift0-4。
gradientH[x][y]=(predSamples[x+1][y]-predSample[x-1][y])>>Shift1
gradientV[x][y]=(predSample[x][y+1]-predSample[x][y-1])>>Shift1
应该注意的是,predSamples[x][y]在插值之后保持精度。
b)如何推导PROF的Δv
Δv(表示为dMvH[posX][posY]和dMvV[posX][posY],其中posX=0..W-1,posY=0..H-1)的推导可以被描述如下:
假设当前块的大小为cbWidth×cbHeight,控制点运动矢量的数量为numCpMv,并且控制点运动矢量为cpMvLX[cpIdx],其中cpIdx=0..numCpMv-1,并且X为0或1,表示两个参考列表。
变量log2CbW和log2CbH被推导如下:
log2CbW=Log2(cbWidth)
log2CbH=Log2(cbHeight)
变量mvScaleHor、mvScaleVer、dHorX和dVerX被推导如下:
mvScaleHor=cpMvLX[0][0]<<7
mvScaleVer=cpMvLX[0][1]<<7
dHorX=(cpMvLX[1][0]-cpMvLX[0][0])<<(7-log2CbW)
dVerX=(cpMvLX[1][1]-cpMvLX[0][1])<<(7-log2CbW)
变量dHorY和dVerY被推导如下:
-如果numCpMv等于3,则以下适用:
dHorY=(cpMvLX[2][0]-cpMvLX[0][0])<<(7-log2CbH)
dVerY=(cpMvLX[2][1]-cpMvLX[0][1])<<(7-log2CbH)
-否则(numCpMv等于2),以下适用:
dHorY=-dVerX
dVerY=dHorX
变量qHorX、qVerX、qHorY和qVerY被推导如下
qHorX=dHorX<<2;
qVerX=dVerX<<2;
qHorY=dHorY<<2;
qVerY=dVerY<<2;
dMvH[0][0]和dMvV[0][0]被计算如下
dMvH[0][0]=((dHorX+dHorY)<<1)-((qHorX+qHorY)<<1);
dMvV[0][0]=((dVerX+dVerY)<<1)-((qVerX+qVerY)<<1);
对于从1到W-1的xPos的dMvH[xPos][0]和dMvV[xPos][0]被推导如下:
dMvH[xPos][0]=dMvH[xPos-1][0]+qHorX;
dMvV[xPos][0]=dMvV[xPos-1][0]+qVerX;
对于从1到H-1的yPos,以下适用:
dMvH[xPos][yPos]=dMvH[xPos][yPos-1]+qHorY,其中xPos=0..W-1
dMvV[xPos][yPos]=dMvV[xPos][yPos-1]+qVerY,其中xPos=0..W-1
最后,dMvH[xPos][yPos]和dMvV[xPos][yPos](其中posX=0..W-1,posY=0..H-1)被右移为
dMvH[xPos][yPos]=SatShift(dMvH[xPos][yPos],7+2-1);
dMvV[xPos][yPos]=SatShift(dMvV[xPos][yPos],7+2-1);
其中,SatShift(x,n)和Shift(x,n)被定义为
Figure BDA0003310357340000361
Shift(x,n)=(x+offset0)>>n
在一个示例中,offset0和/或offset1被设置为(1<<n)>>1。
c)如何推导PROF的ΔI
对于子块内部的位置(posX,posY),其对应的Δv(i,j)被表示为(dMvH[posX][posY],dMvV[posX][posY])。其对应的梯度被表示为(gradientH[posX][posY],gradientV[posX][posY])。
那么ΔI(posX,posY)被推导如下。
(dMvH[posX][posY],dMvV[posX][posY])被裁剪为
dMvH[posX][posY]=Clip3(-32768,32767,dMvH[posX][posY]);
dMvV[posX][posY]=Clip3(-32768,32767,dMvV[posX][posY]);
ΔI(posX,posY)=dMvH[posX][posY]×gradientH[posX][posY]+
dMvV[posX][posY]×gradientV[posX][posY];
ΔI(posX,posY)=Shift(ΔI(posX,posY),1+1+4);
ΔI(posX,posY)=Clip3(-(213-1),213-1,ΔI(posX,posY));
d)如何推导PROF的I’
如果当前块没有被编解码为双向预测或加权预测,则
I’(posX,posY)=Shift((I(posX,posY)+ΔI(posX,posY)),Shift0),
I’(posX,posY)=ClipSample(I’(posX,posY)),
其中ClipSample将样点值裁剪为有效的输出样点值。
然后,输出I’(posX,posY)作为帧间预测值。
否则(当前块被编解码为双向预测或加权预测)
I’(posX,posY)将被存储并用于根据其他预测值和/或加权值来生成帧间预测值。
2.12JVET-N 0510
在JVET-N0510中,提出了相位变化仿射子块运动补偿(MV)方法。应用传统的两阶段水平-垂直插值。然而,与对所有样点行使用相同的水平滤波器和对所有样点列使用相同的垂直滤波器的基于相位不变块的MV不同,滤波器的不同相位可以被应用于仿射子块中的不同样点行和不同样点列。
为了更好地近似仿射子块中的仿射运动模型,将相位变化MC应用于子块。在所提出的方法中,仿射编解码块也被分为4×4个子块,并且如在VTM4.0中所做的那样为每个子块推导子块MV。每个子块的MC被分为两个阶段。第一阶段是用(4+L–1)行水平滤波对(4+L–1)×(4+L–1)参考块窗口进行滤波,其中L是插值滤波器的滤波器抽头长度。然而,不同于平移MC,在所提出的相位变化仿射子块MC中,每个样点行的滤波相位是不同的。对于每个样点行,MVx被推导如下。
MVx=(subblockMVx<<7+dMvVerX×(rowIdx–L/2–2))>>7
每个样点行的滤波器相位是从MVx推导的。subblockMVx是推导的子块MV的MV的x分量,如在VTM4.0中所做的。rowIdx是样点行索引。dMvVerX为(cuBottomLeftCPMVx–cuTopLeftCPMVx)<<(7–log2LumaCbHeight),其中cuBottomLeftCPMVx是CU左下方控制点MV的x分量,cuTopLeftCPMVx是CU左上方控制点MV的x分量,并且LumaCbHeight是亮度编解码块(CB)的高度的log2。
在水平滤波之后,生成4×(4+L–1)个水平滤波样点。图26示出了所提出的水平滤波的概念。灰色点是参考块窗口的样点,并且橙色点表示水平滤波样点。8×1个样点的蓝色管表示应用一次8抽头水平滤波,分别如图26和图27所示。每个样点行需要四次水平滤波。样点行上的滤波器相位是相同的。然而,不同行上的滤波器相位是不同的。生成偏斜的4×11个样点。
在第二阶段,4×(4+L–1)个水平滤波样点(图26中的橙色样点)被进一步垂直滤波。对于每个样点列,MVy被推导如下。
MVy=(subblockMVy<<7+dMvHorY×(columnIdx–2))>>7(等式2)
每个样点列的滤波器相位是从MVy推导的。subblockMVy是推导的子块MV的MV的y分量,如在VTM4.0中所做的。columnIdx是样点列索引。dMvHorY为(cuTopRightCPMVy–cuTopLeftCPMVy)<<(7–log2LumaCbWidth),其中cuTopRightCPMVy是CU右上方控制点MV的y分量,cuTopLeftCPMVy是CU左上方控制点MV的y分量,并且log2LumaCbWidth是亮度CB的宽度的log2。
在垂直滤波之后,生成4×4个仿射子块预测样点。图28示出了所提出的垂直滤波的概念。浅橙色点是来自第一阶段的水平滤波样点。红点是作为最终预测样点的垂直滤波样点。
在本提议中,使用的插值滤波器集与VTM4.0中的相同。唯一的区别是一个样点行上的水平滤波器相位不同,并且一个样点列上的垂直滤波器相位不同。对于所提出的方法中的每个仿射子块的滤波操作的数量,它与VTM4.0中的相同。
3.现有实施方式的缺点
一些现有实施方式存在以下缺点:
(1)梯度计算方法在BDOF和PROF中不相同。
(a)在BDOF中,为整个块计算梯度,并且进行一次填充。在PROF中,为每个子块计算梯度,并且进行N次填充(假设有N个子块)。
(b)PROF需要比BDOF高的梯度精度。
(2)PROF和其他工具之间的相互作用不清楚。
(3)不清楚如何对色度分量应用PROF。
(4)Δv的推导过程可能不正确。
(5)为了更高的编解码性能,可能有条件地进行PROF。
(6)不清楚如何组合JVET-N 0236和JVET-N0510中的方法。
(7)dMvH和dMvV的比特宽度可能太大。
4.用于利用光流的预测细化(PROF)的示例方法
当前公开的技术的实施例克服了现有实施方式的缺点,从而提供具有更高编解码效率的视频编解码。基于所公开的技术,用于利用光流的预测细化的方法可以增强现有和未来的视频编解码标准,在针对各种实施方式描述的以下示例中进行了阐述。下面提供的所公开的技术的示例解释了一般概念,并且不意味着被解释为限制。在示例中,除非明确相反指示,否则在这些示例中描述的各种特征可以被组合。
分别由Ref0和Ref1表示来自列表0和列表1的当前图片的参考图片,表示τ0=POC(当前)-POC(Ref0),τ1=POC(Ref1)-POC(当前),并且分别由refblk0和refblk1表示来自Ref0和Ref1的当前块的参考块。对于当前块中的子块,其在refblk0中的对应子块的、指向refblk1的MV由(vx,vy)表示。Ref0和Ref1中的子块的MV分别由(mvL0x,mvL0y)和(mvL1x,mvL1y)表示。
Shift(x,s)被定义为Shift(x,s)=(x+off)>>s。
SignShift(x,s)被定义为
Figure BDA0003310357340000391
在示例中,offset0和/或offset1被设置为(1<<n)>>1或(1<<(n-1))。在另一示例中,offset0和/或offset1被设置为0。在又一示例中,offset0=offset1=((1<<n)>>1)-1或((1<<(n-1)))-1。
Clip3(x,min,max)被定义为
Figure BDA0003310357340000401
在本文中,Max(a,b)=a>=b?a:b,并且Min(a,b)=a<=b?a:b。
在以下讨论中,两个运动矢量之间的运算意味着该运算将被应用于运动矢量的两个分量。例如,MV3=MV1+MV2相当于MV3x=MV1x+MV2x并且MV3y=MV1y+MV2y。替代地,该运算可以仅应用于两个运动矢量的水平或垂直分量。MV(MVx,MVy)的术语“绝对值”可以指abs(MVx)、或abs(MVy)、或max(abs(MVx),abs(MVy))、或abs(MVx)+abs(MVy),其中,函数abs(x)返回x的绝对值,并且函数max(x,y)返回x和y中更大的一个。
在以下讨论中,左侧邻近块、左下方邻近块、上侧邻近块、右上方邻近块和左上方邻近块被表示为如图2所示的块A1、A0、B1、B0和B2
1.提出了可以在与用于仿射模式下的运动补偿的子块尺寸不同的M×N区域级别中进行PROF中的梯度计算。
a.在一个示例中,可以对大于子块的M×N区域进行PROF中的梯度计算。
b.在一个示例中,M和N可以是某个预定义的数,例如,M=N=8或M=N=16。
c.在一个示例中,M和N可以是根据子块尺寸的宽度/高度定义的某个数,例如,M=N=2*Wmc,其中,Wmc是在运动补偿中使用的子块尺寸的宽度/高度。
d.用于推导PROF中的梯度的填充过程是在M×N区域级别中进行的。
e.对于所有以上示例,M和N的定义如下:
i.在一个示例中,M=min(K0,块宽度),其中,K0是整数值。
ii.在一个示例中,N=min(K1,块高度),其中,K0是整数值。
iii.对于以上示例,K0=K1=16。
iv.在一个示例中,K0和K1与用于BDOF的对齐。
f.第一子块中的第一样点的梯度可以用第二子块中的第二样点进行推导。
i.在一个示例中,第二子块与第一子块相邻。
ii.在一个示例中,当第二样点在第一子块或第二子块中时,第二样点用于以相同的方式推导第一样点的梯度。
iii.当M×N大于子块时,可以应用以上方法。
g.一个或多个MV可以被推导,以用于每个M×N区域的填充过程。
i.在一个示例中,一个特定MV被推导,以用于M×N区域的填充过程。整数参考样点可以用特定MV进行定位,然后用于填充M×N区域之外的样点。
(i)在一个示例中,特定MV可以是M×N区域中的一个子块的一个MV,诸如M×N区域中的左上角子块或中心子块。图31示出了示例。可以选择子块A、B、C、D或E的MV作为特定MV。
(ii)在一个示例中,可以从朝向M×N区域的特定位置(诸如中心)的仿射模型推导特定MV。
(iii)在一个示例中,可以从M×N区域中的子块的MV推导特定MV。
a.例如,特定MV可以被推导为M×N区域中的所有子块的MV的平均值。
b.例如,特定MV可以被推导为中心子块的几个MV的平均值。
i.例如,特定MV可以被推导为图31中的B、C、D和E的几个MV的平均值。
ii.例如,特定MV可以被推导为图31中的B和E的几个MV的平均值。
iii.例如,特定MV可以被推导为图31中的C和D的几个MV的平均值。
c.例如,特定MV可以被推导为多个MV(例如,CPMV或子块的MV)的函数。
ii.在一个示例中,多个MV被推导,以用于M×N区域的填充过程。整数参考样点可以用多个MV中的一个进行定位,然后用于填充M×N区域之外的样点。
(i)在一个示例中,当填充与M×N区域的第一子块相邻的第一样点时,第一子块的第一MV可以用于定位用于填充第一样点的(多个)整数参考样点。
iii.当M×N大于子块时应用以上方法,并且对每个M×N区域进行用于推导PROF中的梯度的填充过程。
2.可以在M×N区域级别中进行PROF/BIO中的梯度计算,并且可以自适应地改变M/N。
a.在一个示例中,M和N可以取决于当前块的大小W×H。
i.例如,区域可以是整个当前块,即,M=W并且N=H。
ii.例如,M=W/T1并且N=H/T2,其中T1和T2是整数,例如T1=T2=2。
iii.在一个示例中,可以诸如在VPS/DPS/SPS/PPS/APS/条带头/片组头/片/CTU/CU中从编码器向解码器信令通知M和/或N。
(i)替代地,可以在视频编解码标准的简表/级别/层级中指定M和/或N。
iv.在一个示例中,M=Min(W,T1)并且N=Min(H,T2)。例如,T1=T2=16。
(i)在一个示例中,可以诸如在VPS/DPS/SPS/PPS/APS/条带头/片组头/片/CTU/CU中从编码器向解码器信令通知T1和/或T2。
(ii)替代地,可以在视频编解码标准的简表/级别/层级中指定T1和/或T2。
3.对于上述方法,以下可以进一步适用:
a.在一个示例中,M至少等于Mmin,并且N至少等于Nmin,例如Mmin=Nmin=8。
b.在一个示例中,对每个M×N区域进行一次填充过程,以得到填充的(M+dM)×(N+dN)区域,例如dM=dN=2。
i.在一个示例中,区域内部的样点(诸如图23中的白色圆圈)可以从具有插值滤波的运动补偿进行推导。
(i)在一个示例中,区域内部的样点可以从用于区域中的几个子块的运动补偿进行推导。
ii.在一个示例中,可以填充样点的四条外侧线(诸如图23中的黑色圆圈)。
(i)在一个示例中,要被填充的样点可以复制参考块中的最近整数样点的强度。
(ii)在一个示例中,要被填充的样点可以复制未被填充的区域中的最近样点的强度。
4.对于应用PROF/BIO中梯度计算的每个区域,代替计算每个样点的梯度值,提出基于部分样点来计算梯度。
a.在一个示例中,可以在PROF/BIO中使用与给定坐标处的样点相关联的梯度,例如在(2x,y)或(x,2y)或(2x+1,2y+1)或(2x,2y)处,其中,(m,n)是相对于当前块中左上方样点的坐标。
b.在一个示例中,可以首先修改样点(例如,下采样),并且可以使用修改的样点来推导梯度。
5.提出在BDOF和PROF中计算的梯度值的精度可以相同。
a.在一个示例中,样点差可以用相同的值进行移位。
i.在一个示例中,水平和/或垂直梯度(分别由gradientH、gradientV表示)可以通过以下方式进行计算:
gradientH[x][y]=(predSamples[x+1][y]-predSample[x-1][y])>>Shift0
gradientV[x][y]=(predSample[x][y+1]-predSample[x][y-1])>>Shift1
替代地,
gradientH[x][y]=Shift((predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=Shift((predSample[x][y+1]-predSample[x][y-1]),Shift1)
替代地,
gradientH[x][y]=SatShift((predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=SatShift((predSample[x][y+1]-predSample[x][y-1]),Shift1)
ii.在一个示例中,水平和/或垂直梯度(分别由gradientH、gradientV表示)可以通过以下方式进行计算:
gradientH[x][y]=(predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y])>>Shift0
gradientV[x][y]=(predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1])>>Shift1
替代地,
gradientH[x][y]=Shift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=Shift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1)
替代地,
gradientH[x][y]=SatShift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0)
gradientV[x][y]=SatShift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1)
iii.在一个示例中,Shift0和/或Shift1可以被设置为Max(2,(14-BitDepth)),其中,BitDepth是重构样点/输入样点的比特深度。
6.填充样点的外部线(表示为填充样点,诸如图23中的黑色圆圈)的以下方法可以被应用于PROF、或BIO、或PROF和BIO两者。
a.填充样点可以用与PROF和/或BIO相同的方法进行填充。“相同的方法”可以是下面公开的任何填充方法。
b.在一个示例中,可以从PROF和/或BIO的参考图片中的整数样点推导(例如,复制)填充样点。
i.在一个示例中,用于推导填充样点的整数样点可以通过填充样点的位置进行定位,添加可以在添加操作中被取整为整数MV的MV。
(i)在一个示例中,MV(MvX,MvY)可以被取整为向下取整整数MV(IntX,IntY)。例如,IntX=MvX>>P,IntY=MvY>>P,其中P是MV精度。
(ii)在一个示例中,MV(MvX,MvY)可以被取整为最近取整整数MV(IntX,IntY)。例如,设置FracX=MvX&((1<<P)-1),FracY=MvY&((1<<P)-1),OffX=(FracX>=(1<<(P-1)))?1:0,OffY=(FracY>=(1<<(P-1)))?1:0,其中P是MV精度,然后IntX=(MvX>>P)+OffX,IntY=(MvY>>P)+OffY。HalfFrac可以等于1<<(P-1),在其他示例中,它可以等于(1<<(P-1))-1或(1<<(P-1))+1。
(iii)在一个示例中,当IntX=SatShift(MvX,P),IntY=SatShift(MvY,P)时,MV(MvX,MvY)可以被取整为整数MV(IntX,IntY),其中P是MV精度。
(iv)在以上项目符号中,MV精度P可以取决于色彩格式和/或色彩分量。
a.例如,Cb/Cr分量的MV精度可以等于亮度分量的MV精度加上4:2:0色彩格式的K。例如,K可以等于1。
(v)可以诸如在VPS/DPS/SPS/PPS/APS/条带头/片组头/片/CTU/CU中从编码器向解码器信令通知如何执行填充。
a.替代地,可以在视频编解码标准的简表/级别/层级中指定如何执行填充。
(vi)如何填充可以取决于块大小。
7.提出当应用PROF时,不能应用编解码工具X。
a.替代地,当应用编解码工具X时,不能应用PROF。
b.在一个示例中,如果不能应用编解码工具X,则可以不信令通知用以指示编解码工具X的(多个)语法元素。
c.在一个示例中,编解码工具X可以是广义双向预测(GBI)。
i.例如,当GbiIdx不等于0时,PROF不被应用。
ii.替代地,当应用PROF时,GbiIdx必须为0。
iii.替代地,当应用PROF时,GbiIdx不被信令通知并被推断为0。
iv.替代地,当应用PROF时,无论GbiIdx是否等于0,GBI都不被应用。
d.在一个示例中,编解码工具X可以是局部照明补偿。
e.在一个示例中,编解码工具X可以是多重变换集(MTS)。
i.例如,当应用PROF时,只能应用默认变换。
(i)例如,当应用PROF时,语法元素相关的MTS不被应用。
f.在一个示例中,编解码工具X可以是加权预测。
i.例如,当由于加权预测导致的不相等的权重和/或不相等的偏移被应用于一个块时,PROF不被应用。
8.提出如何应用PROF可以取决于色彩格式和/或单独平面编解码的使用。
a.在一个示例中,如果色彩格式为4:0:0,则不能对色度分量应用PROF。
b.在一个示例中,如果色彩格式为4:4:4,则可以对色度分量应用PROF。
c.在一个示例中,如果色彩格式不等于4:0:0,则可以对色度分量应用PROF。
d.在一个示例中,如何推导增量(delta)MV(例如,第2.11节中的Δv)可以取决于色彩格式。
9.提出如何应用PROF可以取决于色彩分量。
a.在一个示例中,可以为每个色彩分量独立地计算梯度。
i.替代地,为第一色彩分量计算的梯度可以由第二色彩分量使用。
ii.替代地,梯度可以被计算两次,一次针对亮度/主色分量,并且另一次针对两个色度/相关色彩分量。
b.在一个示例中,可以为每个色彩分量独立地计算增量MV(例如,第2.11节中的Δv)。
i.替代地,为第一色彩分量计算的增量MV可以由第二色彩分量使用。
c.在一个示例中,可以为每个色彩分量独立地计算预测细化(例如,第2.11节中的ΔI)。
i.替代地,为第一色彩分量计算的预测细化(例如,第2.11节中的ΔI)可以由第二色彩分量使用。
d.在一个示例中,PROF中梯度的精度可以取决于色彩分量。
e.在一个示例中,PROF中的增量MV(例如,第2.11节中的Δv)的精度可以取决于色彩分量。
f.在一个示例中,是否以及如何在PROF中进行剪裁操作可以取决于色彩分量。
g.在一个示例中,是否以及如何在PROF中进行移位操作可以取决于色彩分量。
h.在一个示例中,PROF可以仅被应用于亮度分量。
i.在一个示例中,PROF可以被应用于不同子块尺寸的不同色彩分量。
i.替代地,PROF可以被应用于相同子块尺寸的不同色彩分量。
j.在一个示例中,PROF可以被应用于M*N子块尺寸的色度分量。
i.例如,M和N被设置为等于4。
k.以上方法(项目符号h-j)可以进一步取决于色彩格式(例如,4:2:0或4:4:4)。
10.提出增量MV的推导(例如,第2.11节中的Δv)可以取决于子块的宽度和/或高度。
a.在一个示例中,dMvH[0][0]和dMvV[0][0]被计算为
qHorX=dHorX*P0;
qVerX=dVerX*P0;
qHorY=dHorY*P0;
qVerY=dVerY*P0;
dMvH[0][0]=((iDMvHorX+iDMvVerX)*P1)-(quadHorX*(blockWidth>>1)+quadVerX*(blockHeight*P1));
dMvV[0][0]=((iDMvHorY+iDMvVerY)*P1)-(quadHorY*(blockWidth>>1)+quadVerY*(blockHeight*P1));
其中blockWidth和blockHeight分别表示子块的宽度和高度。P0和P1是控制精度的两个数。
i.例如,P0=4并且P1=2,则dMvH[0][0]和dMvV[0][0]被计算为:
qHorX=dHorX<<2;
qVerX=dVerX<<2;
qHorY=dHorY<<2;
qVerY=dVerY<<2;
dMvH[0][0]=((iDMvHorX+iDMvVerX)<<1)-(quadHorX*(blockWidth>>1)+quadVerX*(blockHeight>>1));
dMvV[0][0]=((iDMvHorY+iDMvVerY)<<1)-(quadHorY*(blockWidth>>1)+quadVerY*(blockHeight>>1));11.提出对于仿射编解码块,PROF可以有条件地进行,而不是总是被应用。
a.在一个示例中,是否以及如何进行PROF可以取决于当前块的大小W×H。
i.例如,如果W<=T1和/或H<=T2,则可以不应用PROF,例如T1=T2=16;
ii.例如,如果W<T1和/或H<T2,则可以不应用PROF,例如T1=T2=16;
iii.例如,如果W>=T1和/或H>=T2,则可以不应用PROF,例如T1=T2=64;
iv.例如,如果W>T1和/或H>T2,则可以不应用PROF,例如T1=T2=64;
v.例如,如果W*H>T1,则可以不应用PROF,例如T1=64*64;
vi.例如,如果W*H>=T1,则可以不应用PROF,例如T1=64*64;
vii.例如,如果W*H<T1,则可以不应用PROF,例如T1=16*16;
viii.例如,如果W*H<=T1,则可以不应用PROF,例如T1=16*16;
ix.例如,如果min(W,H)>=T1,则可以不应用PROF,例如T1=64;
x.例如,如果min(W,H)>T1,则可以不应用PROF,例如T1=64;
xi.例如,如果max(W,H)<=T1,则可以不应用PROF,例如T1=16;
xii.例如,如果max(W,H)<T1,则可以不应用PROF,例如T1=16;
b.在一个示例中,是否和/或如何进行PROF可以取决于控制点运动矢量。
c.在一个示例中,是否和/或如何进行PROF可以取决于仿射参数和/或仿射参数的数量。
i.对于4参数仿射模型,其中
Figure BDA0003310357340000491
是否以及如何进行PROF可以取决于参数a和b。
ii.对于4参数仿射模型,其中
Figure BDA0003310357340000492
是否以及如何进行PROF可以取决于参数a、b、c和d。
iii.在一个示例中,如果最大仿射参数小于(或不大于)阈值,
则可以不应用PROF。
(i)替代地,如果所有(诸如四个或六个)仿射参数小于(或不大于)阈值,则可以不应用PROF。
(ii)替代地,如果至少一个仿射参数小于(或不大于)阈值,则可以不应用PROF。
iv.在一个示例中,如果仿射参数的绝对值的最大值小于(或不大于)阈值,则可以不应用PROF。
(i)替代地,如果所有仿射参数的绝对值小于(或不大于)阈值,则可以不应用PROF。
(ii)替代地,只有当所有仿射参数的绝对值中的至少一个大于(或不小于)阈值时,才能应用PROF。
v.在一个示例中,如果最小仿射参数大于(或不小于)阈值,则可以不应用PROF。
(i)替代地,如果所有(诸如四个或六个)仿射参数大于(或不小于)阈值,则可以不应用PROF。
(ii)替代地,如果至少一个仿射参数大于(或不小于)阈值,则可以不应用PROF。
vi.在一个示例中,如果仿射参数的绝对值的最小值大于(或不小于)阈值,则可以不应用PROF。
(i)替代地,如果所有仿射参数的绝对值大于(或不小于)阈值,则可以不应用PROF。
(ii)替代地,仅当仿射参数的绝对值中的至少一个小于(或不大于)阈值时,才能应用PROF。
vii.在一个示例中,如果如JVET-N0236公开的增量MV的“绝
对值”的最大值小于(或不大于)阈值,则可以不应用PROF。
(i)替代地,如果所有增量MV的“绝对值”小于(或不大于)阈值,则可以不应用PROF。
(ii)替代地,只有当增量MV的“绝对值”中的至少一个大于(或不小于)阈值时,才能应用PROF。viii.在一个示例中,如果增量MV的“绝对值”的最小值大于(或不小于)阈值,则可以不应用PROF。
(i)替代地,如果所有增量MV的“绝对值”大于(或不小于)阈值,则可以不应用PROF。
(ii)替代地,只有当增量MV的“绝对值”中的至少一个大于(或不小于)阈值时,才能应用PROF。ix.在一个示例中,PROF可以被应用于某些位置。
(i)例如,如果位置的对应增量MV的“绝对值”小于(或不大于)阈值,则PROF可以被应用于该位置。
(ii)例如,如果位置的对应增量MV的“绝对值”大于(或不小于)阈值,则PROF可以被应用于该位置。
x.在一个示例中,仿射参数可以以如JVET-M1001所描述的特定精度表示为整数dHorX、dVerX、dHorY和dVerY。
xi.在一个示例中,阈值可以取决于比特深度。
(i)在一个示例中,阈值可以被推导为1<<BitDepth。
(ii)此外,替代地,阈值可以取决于是应用双向预测还是单向预测。
a.例如,阈值可以被推导为(1<<BitDepth)+(Bi-prediction?1:0)。
xii.在一个示例中,是否和/或如何应用项目符号11中的所公开的方法可以取决于参考图片结构。
(i)例如,如果当前图片的所有参考图片在显示顺序上在当前图片之前,即所有参考图片的POC小于当前图片的POC,则可以不应用所公开的方法中的一种或多种。
(ii)替代地,是否和/或如何应用项目符号11中的所公开的方法可以取决于条带/图片类型(诸如I条带或B条带)。
(iii)替代地,是否和/或如何应用项目符号11中的所公开的方法可以取决于时域层。
xiii.在项目符号11中,编解码方法“PROF”可以被其他编解码方法替换以增强仿射预测编解码,诸如如JVET-N0216公开的交织预测或相位变化仿射子块运动补偿。
12.提出可以首先应用诸如在JVET-N0510中提出的相位变化仿射子块运动补偿以得到预测值,然后应用PROF
13.提出用于推导针对任何有效x和y的dMvH[x][y]和/或dMvV[x][y]的任何变量的比特宽度不能超过特定数,诸如32。
a.在一个示例中,dMvH[x][y]和/或dMvV[x][y]在用于推导其他dMvH[t][z]和/或dMvV[t][z]之前被裁剪,其中(t,z)不等于(x,y)。
b.在一个示例中,dMvH[x][y]和/或dMvV[x][y]在用于推导其他dMvH[t][z]和/或dMvV[t][z]之前被右移,其中(t,z)不等于(x,y)。
14.提出dMvH和/或dMvV可以具有与存储的运动矢量相同的精度。
a.例如,
dMvH[xPos][yPos]=SatShift(dMvH[xPos][yPos],7+M);
dMvV[xPos][yPos]=SatShift(dMvV[xPos][yPos],7+M);
其中M是用以推导dMvH和/或hMvV的附加精度,例如M=2。
15.提出在用于推导预测细化ΔI之前对dMvH和/或dMvV的裁剪可以取决于dMvH和/或dMvV的精度。
a.例如
dMvH[posX][posY]=Clip3(-2K-1,2K-1-1,dMvH[posX][posY]);
dMvV[posX][posY]=Clip3(-2K-1,2K-1-1,dMvV[posX][posY]);
其中K取决于dMvH和/或dMvV的精度。
b.替代地,dMvH[x][y]和/或dMvV[x][y]在用于推导预测细化之前不被裁剪。
16.提出对预测细化ΔI(posX,posY)的右移可以取决于ΔI(posX,posY)的符号。
a.例如,ΔI(posX,posY)=SatShift(ΔI(posX,posY),N),其中N是整数。
17.提出对预测细化ΔI(posX,posY)的裁剪可以取决于样点比特深度。
a.例如,ΔI(posX,posY)=Clip3(-(23+BitDepth-1),23+BitDpeth-1,ΔI(posX,posY));
18.是否和/或如何在仿射模式块内的子块边界(例如,内部子块边界)上进行去方块可以取决于如JVET-N0216公开的交织预测或/和PROF或/和相位变化仿射子块运动补偿是否被应用于块。
a.在一个示例中,当交织预测或/和PROF或/和相位变化仿射子块运动补偿被应用于块时,可以禁用去方块。
i.替代地,去方块滤波器在子块边界上可能更弱,其中在子块边界上交织预测或/和PROF或/和相位变化仿射子块运动补偿被应用于块。例如,边界强度可以在这样的边界上被设置为更小。
b.在一个示例中,当交织预测或/和PROF或/和相位变化仿射子块运动补偿不被应用于块时,可以启用去方块。
上面描述的示例可以被并入下面描述的可以在视频解码器或视频编码器处被实施的方法(例如,方法2910至2950)的上下文中。
图29A示出了用于视频处理的示例性方法的流程图。方法2910包括,在步骤2912,使用在视频的当前视频块的子块级别执行的仿射模式运动补偿来生成该当前视频块的预测块。方法2910还包括,在步骤2914,对当前视频块的区域执行梯度计算,以使用利用光流的预测细化(PROF)过程来细化预测块,其中,区域的尺寸(M×N)不同于当前视频块的子块的尺寸,其中,M和N是正整数。方法2910还包括,在步骤2916,基于梯度计算来执行当前视频块和视频的编解码表示之间的转换。
图29B示出了用于视频处理的示例性方法的流程图。方法2920包括,在步骤2922,为具有第一尺寸的视频的当前视频块推导最终预测块,其中该最终预测块是通过使用在具有根据规则的第二尺寸的视频区域上执行的梯度计算来细化一个或多个中间预测块而计算的,其中,该细化使用光流过程。方法2920还包括,在步骤2924,使用最终预测块来执行当前视频块和视频的编解码表示之间的转换。
图29C示出了用于视频处理的示例性方法的流程图。方法2930包括,在步骤2932,使用双向光流(BDOF)或利用光流的预测细化(PROF)为视频的当前视频块推导运动信息。方法2930还包括,在步骤2934,对当前视频块的区域中的样点执行梯度计算,使得区域中的至少一个样点从梯度计算中被省略。方法2930还包括,在步骤2936,基于梯度计算来执行当前视频块和包括该当前视频块的视频的编解码表示之间的转换。在一些实施方式中,当前视频块的一个或多个初始预测在子块级别进行计算并在PROF期间使用光流计算进行细化,或者一个或多个初始预测在BDOF期间使用空域和时域梯度进行细化。
图29D示出了用于视频处理的示例性方法的流程图。方法2940包括,在步骤2942,通过基于根据精度规则的初始预测样点的梯度使用光流计算来细化视频的当前视频块的一个或多个初始预测,为该当前视频块确定当前视频块的最终预测块。方法2940还包括,在步骤2944,使用最终预测块来执行当前视频块和编解码表示之间的转换,其中,光流计算包括利用光流的预测细化(PROF)过程或双向光流(BDOF)过程,其中,精度规则指定使用相同的精度用于表示PROF过程和BDOF过程两者的梯度。
图29E示出了用于视频处理的示例性方法的流程图。方法2950包括,在步骤2952,通过使用光流计算来细化视频的当前视频块的一个或多个初始预测,为该当前视频块和视频的编解码表示之间的转换确定当前视频块的最终预测块。方法2950还包括,在步骤2954,使用最终预测块来执行该转换。在一些实施方式中,光流计算包括利用光流的预测细化(PROF)过程和/或双向光流(BDOF)过程,其中,光流计算还包括根据规则适用于PROF过程或BDOF过程中的至少一个的填充操作,以推导填充样点。
5.所公开的技术的示例实施方式
图30A是视频处理装置3000的框图。装置3000可以用于实施本文描述的方法中的一种或多种。装置3000可以体现在智能电话、平板电脑、计算机、物联网(Internet ofThings,IoT)接收器等中。装置3000可以包括一个或多个处理器3002、一个或多个存储器3004、以及视频处理硬件3006。(多个)处理器3002可以被配置为实施本文档中描述的一种或多种方法(包括但不限于方法2900)。存储器(多个存储器)3004可以用于存储用于实施本文描述的方法和技术的数据和代码。视频处理硬件3006可以用于以硬件电路实施本文档中描述的一些技术。
图30B是可以在其中实施所公开的技术的视频处理系统的框图的另一示例。图30B是示出可以在其中实施本文公开的各种技术的示例视频处理系统4100的框图。各种实施方式可以包括系统4100的一些或所有组件。系统4100可以包括用于接收视频内容的输入4102。视频内容可以以例如8或10比特多分量像素值的原始或未压缩格式而接收,或者可以是压缩或编码格式。输入4102可以表示网络接口、外围总线接口或存储接口。网络接口的示例包括诸如以太网、无源光网络(Passive Optical Network,PON)等的有线接口和诸如Wi-Fi或蜂窝接口的无线接口。
系统4100可以包括可以实施本文档中描述的各种编解码或编码方法的编解码组件4104。编解码组件4104可以将来自输入4102的视频的平均比特率减小到编解码组件4104的输出,以产生视频的编解码表示。编解码技术因此有时被称为视频压缩或视频转码技术。编解码组件4104的输出可以被存储,或者经由如由组件4106表示的通信连接而发送。在输入4102处接收的视频的存储或通信传送的比特流(或编解码)表示可以由组件4108用于生成像素值或传送到显示接口4110的可显示视频。从比特流表示生成用户可视视频的过程有时被称为视频解压缩。此外,虽然某些视频处理操作被称为“编解码”操作或工具,但是将理解,编解码工具或操作在编码器处被使用,并且反转编解码结果的对应的解码工具或操作将由解码器执行。
外围总线接口或显示接口的示例可以包括通用串行总线(Universal SerialBus,USB)、或高清晰度多媒体接口(High Definition Multimedia Interface,HDMI)、或显示端口(Displayport)等。存储接口的示例包括SATA(Serial Advanced TechnologyAttachment,串行高级技术附件)、PCI、IDE接口等。本文档中描述的技术可以体现在各种电子设备中,诸如移动电话、膝上型电脑、智能电话、或能够执行数字数据处理和/或视频显示的其他设备。
所公开的技术的一些实施例包括做出启用视频处理工具或模式的决定或确定。在示例中,当视频处理工具或模式被启用时,编码器将在视频块的处理中使用或实施该工具或模式,但可能不一定基于该工具或模式的使用来修改产生的比特流。也就是说,当基于决定或确定来启用视频处理工具或模式时,从视频的块到视频的比特流表示的转换将使用该视频处理工具或模式。在另一示例中,当视频处理工具或模式被启用时,解码器将在知道比特流已经基于视频处理工具或模式进行修改的情况下处理比特流。也就是说,将使用基于决定或确定而启用的视频处理工具或模式来执行从视频的比特流表示到视频的块的转换。
所公开的技术的一些实施例包括做出禁用视频处理工具或模式的决定或确定。在示例中,当视频处理工具或模式被禁用时,编码器将不在视频的块到视频的比特流表示的转换中使用该工具或模式。在另一示例中,当视频处理工具或模式被禁用时,解码器将在知道比特流没有使用基于决定或确定而禁用的视频处理工具或模式进行修改的情况下处理比特流。
在本文档中,术语“视频处理”可以指视频编码、视频解码、视频压缩或视频解压缩。例如,视频压缩算法可以在从视频的像素表示到对应的比特流表示的转换期间被应用,反之亦然。当前视频块的比特流表示可以例如对应于比特流内的并置或散布在不同位置的比特,如由语法定义的。例如,宏块可以根据变换和编解码的误差残差值并且还使用比特流中的头和其他字段中的比特进行编码。
应当理解,通过允许使用在本文档中公开的技术,所公开的方法和技术将有益于并入视频处理设备(诸如智能电话、膝上型电脑、台式电脑和类似设备)内的视频编码器和/或解码器实施例。
可以使用以下基于条款的格式来描述各种技术和实施例。
条款的第一集合描述了先前章节中的所公开的技术的某些特征和方面。
1.一种用于视频处理的方法,包括:在当前视频块的第一区域中执行梯度计算,其中,第一区域的尺寸(M×N)不同于用于仿射模式下的运动补偿的当前视频块的子块的尺寸,并且其中,M和N是正整数;以及基于梯度计算来执行当前视频块和包括该当前视频块的视频的比特流表示之间的转换。
2.根据条款1所述的方法,其中,第一区域的尺寸大于子块的尺寸。
3.根据条款1或2所述的方法,其中,M和N是预定义的正整数。
4.根据条款1或2所述的方法,其中,第一区域的尺寸基于子块的尺寸。
5.根据条款1所述的方法,其中,M/N被自适应地改变。
6.根据条款1所述的方法,其中,M和N基于当前视频块的大小。
7.根据条款1至6中任一项所述的方法,其中,M具有最小值Mmin,并且其中,N具有最小值Nmin。
8.根据条款7所述的方法,其中,Mmin=Nmin=8。
9.根据条款1至6中任一项所述的方法,其中,第一区域被填充,以生成尺寸为(M+dM)×(N+dN)的第一填充区域。
10.根据条款9所述的方法,其中,第一区域或第一填充区域中的样点基于具有插值滤波的运动补偿进行推导。
11.根据条款1所述的方法,其中,第一区域中的至少一个样点在执行梯度计算时被省略。
12.根据条款1所述的方法,其中,梯度计算在双向光流(BDOF)中以第一精度被执行,以及在利用光流的预测细化(PROF)中以第二精度被执行,并且其中,第一精度和第二精度相等。
13.一种用于视频处理的方法,包括:基于对当前视频块选择性应用利用光流的预测细化(PROF),做出关于对当前视频块选择性应用编解码工具的决定,其中,编解码工具不同于PROF;以及基于该决定来执行当前视频块和包括该当前视频块的视频的比特流表示之间的转换。
14.根据条款13所述的方法,其中,PROF不被应用,并且编解码工具被应用。
15.根据条款13所述的方法,其中,编解码工具包括广义双向预测。
16.根据条款15所述的方法,其中,PROF不被应用,并且其中,与广义双向预测相关联的索引不为零。
17.根据条款13所述的方法,其中,编解码工具是局部照明补偿。
18.根据条款13所述的方法,其中,编解码工具是多重变换集(MTS)。
19.根据条款18所述的方法,其中,PROF被应用,并且仅来自MTS的默认变换被应用于当前视频块。
20.根据条款13所述的方法,其中,编解码工具是加权预测。
21.一种用于视频处理的方法,包括:在当前视频块和包括该当前视频块的视频的比特流表示之间的转换期间,做出关于选择性应用利用光流的预测细化(PROF)操作的决定,其中,该决定基于当前视频块的色彩信息。
22.根据条款21所述的方法,其中,PROF操作不被应用于当前视频块的一个或多个色度分量,并且其中,色彩信息包括4:0:0色彩格式。
23.根据条款21所述的方法,其中,PROF操作被应用于当前视频块的一个或多个色度分量,并且其中,色彩信息包括4:4:4色彩格式。
24.根据条款21所述的方法,其中,PROF操作被应用于当前视频块的一个或多个色度分量,并且其中,色彩信息包括4:0:0色彩格式。
25.根据条款21所述的方法,其中,PROF操作被应用,并且其中,色彩信息包括多个色彩分量。
26.根据条款25所述的方法,其中,PROF操作的一个或多个梯度针对多个色彩分量中的每一个而独立地计算。
27.根据条款25所述的方法,其中,PROF操作的一个或多个梯度针对多个色彩分量中的第一色彩分量进行计算,并且针对多个色彩分量中的第二色彩分量被重用。
28.根据条款26或27所述的方法,其中,梯度的精度基于多个色彩分量中的至少一个。
29.一种用于视频处理的方法,包括:基于当前视频块的高度(H)或宽度(W),做出关于选择性应用利用光流的预测细化(PROF)操作的决定;以及基于该决定来执行当前视频块和包括该当前视频块的视频的比特流表示之间的转换。
30.根据条款29所述的方法,其中,PROF操作被应用于当前视频块的亮度分量。
31.根据条款29所述的方法,其中,当前视频块使用仿射模式进行编解码。
32.根据条款31所述的方法,其中,PROF操作不被应用,其中,W≤T1和/或H≤T2,并且其中,T1=T2=16。
33.根据条款31所述的方法,其中,PROF操作不被应用,其中,W≥T1和/或H≥T2,并且其中,T1=T2=64。
34.根据条款31所述的方法,其中,PROF操作不被应用,其中,W×H≤T或max(W,H)≤T,并且其中,T=16。
35.根据条款31所述的方法,其中,PROF操作不被应用,其中,W×H≥T或min(W,H)≥T,并且其中,T=64。
36.根据条款1或2所述的方法,其中,当前视频块的尺寸为W×H,其中,M=min(K,W),并且其中,K是整数。
37.根据条款1或2所述的方法,其中,当前视频块的尺寸为W×H,其中,N=min(K,H),并且其中,K是整数。
38.根据条款36或37所述的方法,其中,K=16。
39.根据条款1或2所述的方法,还包括:在执行梯度计算之前,在当前视频块的第一区域中执行填充过程。
40.根据条款39所述的方法,其中,执行填充过程包括推导一个或多个运动矢量。
41.根据条款40所述的方法,其中,一个或多个运动矢量包括从朝向第一区域的特定位置的仿射模型推导的运动矢量。
42.根据条款40所述的方法,其中,一个或多个运动矢量包括从第一区域的至少一个子块的至少一个运动矢量推导的运动矢量。
43.根据条款39所述的方法,其中,执行填充过程是基于当前视频块的高度或宽度的。
44.根据条款39所述的方法,其中,执行填充过程是基于视频参数集(VPS)、解码器参数集(DPS)、序列参数集(SPS)、图片参数集(PPS)、自适应参数集(APS)、条带头、片、片组头、编解码树单元(CTU)或编解码单元(CU)中的信令通知的。
45.根据条款5或6所述的方法,其中,M和N是在视频参数集(VPS)、解码器参数集(DPS)、序列参数集(SPS)、图片参数集(PPS)、自适应参数集(APS)、条带头、片、片组头、编解码树单元(CTU)或编解码单元(CU)中信令通知的。
46.根据条款5或6所述的方法,其中,M和N是在视频编解码标准的简表、级别或层级中指定的。
47.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中指令在由处理器执行时使处理器实施根据条款1至46中任一项所述的方法。
48.一种存储在非暂时性计算机可读介质上的计算机程序产品,该计算机程序产品包括用于执行根据条款1至46中任一项所述的方法的程序代码。
条款的第二集合描述了先前章节(包括例如,示例实施方式1至4)中的所公开的技术的某些特征和方面。
1.一种用于视频处理的方法,包括:使用在视频的当前视频块的子块级别执行的仿射模式运动补偿来生成该当前视频块的预测块;对当前视频块的区域执行梯度计算,以使用利用光流的预测细化(PROF)过程来细化预测块,其中,区域的尺寸(M×N)不同于当前视频块的子块的尺寸,其中,M和N是正整数;以及基于梯度计算来执行当前视频块和视频的编解码表示之间的转换。
2.根据条款1所述的方法,其中,区域的尺寸大于子块的尺寸。
3.根据条款1或2所述的方法,其中,M和N是预定义的正整数。
4.根据条款1或2所述的方法,其中,区域的尺寸基于子块的尺寸。
5.根据条款1所述的方法,其中,PROF过程中的填充操作被应用于推导(M×N)区域级别的梯度。
6.根据条款1至5中任一项所述的方法,其中,M被定义为min(K0,块宽度),并且N被定义为min(K1,块高度),其中K0和K1是整数。
7.根据条款6所述的方法,其中,K0和K1等于16。
8.根据条款1所述的方法,其中,梯度计算的执行包括获得当前视频块的第一子块中的第一样点的第一梯度和当前视频块的第二子块中的第二样点的第二梯度。
9.根据条款8所述的方法,其中,第二子块与第一子块相邻。
10.根据条款8所述的方法,其中,第二样点用于推导第一梯度。
11.根据条款8至10中任一项所述的方法,其中,区域的尺寸(M×N)大于当前视频块的子块的尺寸。
12.根据条款1所述的方法,其中,一个或多个运动矢量被推导以用于区域的填充操作。
13.根据条款12所述的方法,其中,与当前视频块的参考块中的整数样点相关联的特定运动矢量被推导以用于区域的填充操作。
14.根据条款13所述的方法,其中,特定运动矢量对应于区域中的子块中的一个的运动矢量。
15.根据条款13所述的方法,其中,特定运动矢量是通过应用朝向区域的特定位置的仿射模型而推导的。
16.根据条款13所述的方法,其中,特定运动矢量是从区域中的所有子块的运动矢量推导的。
17.根据条款13所述的方法,其中,特定运动矢量被推导为区域中的所有子块的运动矢量的平均值。
18.根据条款13所述的方法,其中,特定运动矢量被推导为区域中的子块的至少一些运动矢量的平均值,子块位于区域的中心周围。
19.根据条款13所述的方法,其中,特定运动矢量被推导为多个运动矢量的函数,其中该多个运动矢量包括控制点运动矢量或区域中的子块的运动矢量。
20.根据条款12所述的方法,其中,与当前视频块的参考块中的整数样点相关联的多个运动矢量被推导以用于区域的填充操作。
21.根据条款20所述的方法,其中,为了填充与区域的第一子块相邻的第一样点,区域中的第一子块的第一运动矢量用于定位整数样点。
22.根据条款12所述的方法,其中,区域的尺寸(M×N)大于当前视频块的子块的尺寸。
23.根据条款1至22中任一项所述的方法,其中,M和N的最小值被分别预定为Mmin和Nmin。
24.根据条款23所述的方法,其中,Mmin=Nmin=8。
25.根据条款1至24中任一项所述的方法,其中,填充操作针对区域而执行,以在尺寸为(M+dM)×(N+dN)的填充区域中生成填充样点。
26.根据条款25所述的方法,其中,区域内部的样点从具有插值滤波的运动补偿进行推导。
27.根据条款26所述的方法,其中,样点是从用于区域中的几个子块的运动补偿推导的。
28.根据条款25所述的方法,其中,填充样点是沿着区域的四个外侧推导的。
29.根据条款28所述的方法,其中,填充样点复制当前视频块的参考块中的最近整数样点的强度。
30.根据条款28所述的方法,其中,填充样点复制未被填充的区域中的最近样点的强度。
31.根据条款1至30中任一项所述的方法,其中,执行该转换包括从当前视频块生成编解码表示。
32.根据条款1至30中任一项所述的方法,其中,执行该转换包括从编解码表示生成当前视频块。
33.一种视频处理的方法,包括:为具有第一尺寸的视频的当前视频块推导最终预测块,其中该最终预测块是通过使用在具有根据规则的第二尺寸的视频区域上执行的梯度计算来细化一个或多个中间预测块而计算的,其中,该细化使用光流过程;以及使用最终预测块来执行当前视频块和视频的编解码表示之间的转换。
34.根据条款33所述的方法,其中,规则指定第二尺寸是第一尺寸的函数。
35.根据条款34所述的方法,其中,规则指定第二尺寸的宽度(M)和/或第二尺寸的高度(N)取决于第一尺寸的宽度(W)和/或第一尺寸的高度(H)。
36.根据条款35所述的方法,其中,M=W,并且N=H。
37.根据条款35所述的方法,其中,M=N=2*Wmc,并且Wmc是当前视频块的子块的宽度或高度,该子块用于使用用于当前视频块的运动补偿来获得一个或多个中间预测块。
38.根据条款35所述的方法,其中,M和N中的至少一个是在视频参数集(VPS)、解码参数集(DPS)、序列参数集(SPS)、图片参数集(PPS)、自适应参数集(APS)、条带头、片组头、片、编解码树单元或编解码单元中信令通知的。
39.根据条款35所述的方法,其中,M和N中的至少一个是在规则的简表、级别或层级中指定的。
40.根据条款35所述的方法,其中,M=Min(W,T1)并且N=Min(H,T2),其中T1和T2是正整数。
41.根据条款40所述的方法,其中,T1和T2中的至少一个是在视频参数集(VPS)、解码参数集(DPS)、序列参数集(SPS)、图片参数集(PPS)、自适应参数集(APS)、条带头、片组头、片、编解码树单元或编解码单元中信令通知的。
42.根据条款40所述的方法,其中,T1和T2中的至少一个是在规则的简表、级别或层级中指定的。
43.根据条款35至42中任一项所述的方法,其中,M和N的最小值被分别预定为Mmin和Nmin。
44.根据条款43所述的方法,其中,Mmin=Nmin=8。
45.根据条款33至44中任一项所述的方法,其中,填充操作针对区域而执行,以在尺寸为(M+dM)×(N+dN)的填充区域中生成填充样点。
46.根据条款45所述的方法,其中,区域内部的样点从具有插值滤波的运动补偿进行推导。
47.根据条款46所述的方法,其中,样点是从用于区域中的几个子块的运动补偿推导的。
48.根据条款45所述的方法,其中,填充样点是沿着区域的四个外侧推导的。
49.根据条款48所述的方法,其中,填充样点复制当前视频块的参考块中的最近整数样点的强度。
50.根据条款48所述的方法,其中,填充样点复制未被填充的区域中的最近样点的强度。
51.根据条款33所述的方法,其中,光流过程包括利用光流的预测细化(PROF)过程,在该过程中一个或多个中间预测块在子块级别被计算并使用光流计算进行细化。
52.根据条款33所述的方法,其中,光流过程包括双向光流(BDOF)过程,在该过程中一个或多个中间预测块使用空域和时域梯度进行细化。
53.根据条款33至52中任一项所述的方法,其中,执行该转换包括从当前视频块生成编解码表示。
54.根据条款33至52中任一项所述的方法,其中,执行该转换包括从编解码表示生成当前视频块。
55.一种用于视频处理的方法,包括:使用双向光流(BDOF)或利用光流的预测细化(PROF)为视频的当前视频块推导运动信息;对当前视频块的区域中的样点执行梯度计算,使得区域中的至少一个样点从梯度计算中被省略;以及基于梯度计算来执行当前视频块和包括该当前视频块的视频的编解码表示之间的转换,其中,当前视频块的一个或多个初始预测在子块级别进行计算并在PROF期间使用光流计算进行细化,或者一个或多个初始预测在BDOF期间使用空域和时域梯度进行细化。
56.根据条款55所述的方法,其中,与给定坐标处的样点相关联的梯度用于BIO和PROF中。
57.根据条款55所述的方法,其中,样点在执行梯度计算之前被修改,并且修改的样点在执行梯度计算期间被使用。
58.根据条款55至57中任一项所述的方法,其中,执行该转换包括从当前视频块生成编解码表示。
59.根据条款55至57中任一项所述的方法,其中,执行该转换包括从编解码表示生成当前视频块。
条款的第三集合描述了先前章节(包括例如,示例实施方式5和6)中的所公开的技术的某些特征和方面。
1.一种视频处理方法,包括:通过基于根据精度规则的初始预测样点的梯度使用光流计算来细化视频的当前视频块的一个或多个初始预测,为该当前视频块确定当前视频块的最终预测块;以及使用最终预测块来执行当前视频块和编解码表示之间的转换,其中,光流计算包括利用光流的预测细化(PROF)过程或双向光流(BDOF)过程,其中,精度规则指定使用相同的精度用于表示PROF过程和BDOF过程两者的梯度。
2.根据条款1所述的方法,其中,在PROF过程中,一个或多个初始预测在仿射运动补偿预测期间在子块级别被计算,并使用光流计算进行细化。
3.根据条款1所述的方法,其中,在BDOF过程中,一个或多个初始预测使用在光流计算期间获取的至少一个梯度值进行细化。
4.根据条款1所述的方法,其中,分别表示为gradientH和gradientV的水平梯度和垂直梯度如以下中的一个进行计算:
i)gradientH[x][y]=(predSamples[x+1][y]-predSample[x-1][y])>>Shift0,gradientV[x][y]=(predSample[x][y+1]-predSample[x][y-1])>>Shift1,
ii)gradientH[x][y]=Shift((predSamples[x+1][y]-predSample[x-1][y]),Shift0),gradientV[x][y]=Shift((predSample[x][y+1]-predSample[x][y-1]),Shift1),
iii)gradientH[x][y]=SatShift((predSamples[x+1][y]-predSample[x-1][y]),Shift0),gradientV[x][y]=SatShift((predSample[x][y+1]-predSample[x][y-1]),Shift1),或者
iv)gradientH[x][y]=Shift(predSamples[x+1][y],Shift0)-Shift(predSample[x-1][y],Shift0),gradientV[x][y]=Shift(predSample[x][y+1],Shift0)-predSample[x][y-1],Shift1),并且
其中,Shift(x,n)被定义为Shift(x,n)=(x+offset0)>>n,并且Satshift(x,n)被定义为
Figure BDA0003310357340000641
5.根据条款1所述的方法,其中,分别表示为gradientH和gradientV的水平梯度和垂直梯度如以下中的一个进行计算:
i)gradientH[x][y]=(predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y])>>Shift0,gradientV[x][y]=(predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1])>>Shift1,
ii)gradientH[x][y]=Shift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0),gradientV[x][y]=Shift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1),或者
iii)gradientH[x][y]=SatShift((predSamples[x][y]*2-predSamples[x+1][y]-predSample[x-1][y]),Shift0),gradientV[x][y]=SatShift((predSamples[x][y]*2-predSample[x][y+1]-predSample[x][y-1]),Shift1),并且
其中,Shift(x,n)被定义为Shift(x,n)=(x+offset0)>>n,并且Satshift(x,n)被定义为:
Figure BDA0003310357340000642
6.根据条款4或5所述的方法,其中,Shift0和/或Shift1被设置为Max(2,(14-BitDepth)),并且其中,BitDepth表示重构样点或输入样点的比特深度。
7.根据条款1至6中任一项所述的方法,其中,在PROF和BDOF中使用的Shift0和/或Shift1是相同的。
8.根据条款1至7中任一项所述的方法,其中,执行该转换包括从当前视频块生成编解码表示。
9.根据条款1至7中任一项所述的方法,其中,执行该转换包括从编解码表示生成当前视频块。
10.一种视频处理方法,包括:通过使用光流计算来细化视频的当前视频块的一个或多个初始预测,为该当前视频块和视频的编解码表示之间的转换确定当前视频块的最终预测块;以及使用最终预测块来执行该转换,其中,光流计算包括利用光流的预测细化(PROF)过程和/或双向光流(BDOF)过程,其中,光流计算还包括根据规则适用于PROF过程或BDOF过程中的至少一个的填充操作,以推导填充样点。
11.根据条款10所述的方法,其中,在PROF过程中,一个或多个初始预测在仿射运动补偿预测期间在子块级别被计算,并使用光流计算进行细化。
12.根据条款10所述的方法,其中,在BDOF过程中,一个或多个初始预测使用在光流计算期间获取的至少一个梯度值进行细化。
13.根据条款10所述的方法,其中,规则指定对PROF过程和BDOF过程使用相同的填充操作。
14.根据条款10所述的方法,其中,规则指定从当前视频块的参考图片中的整数位置处的整数样点推导填充样点。
15.根据条款14所述的方法,其中,整数样点位于具有被取整为整数MV的MV(Mvx,Mvy)的差的填充样点周围。
16.根据条款14所述的方法,其中,MV(Mvx,MvY)被取整为向下取整整数(IntX,IntY)。
17.根据条款14所述的方法,其中,MV(Mvx,MvY)被取整为最近取整整数MV(IntX,IntY)。
18.根据条款14所述的方法,其中,MV(Mvx,MvY)被取整为整数MV(IntX,IntY),使得IntX=SatShift(MvX,P)并且IntY=SatShift(MvY,P),其中P指示MV的精度,并且
Figure BDA0003310357340000661
19.根据条款15至18中任一项所述的方法,其中,MV基于取决于当前视频块的色彩格式和/或色彩分量的MV的精度进行取整。
20.根据条款10所述的方法,其中,如何执行填充操作的信息是在视频参数集(VPS)、解码参数集(DPS)、序列参数集(SPS)、图片参数集(PPS)、自适应参数集(APS)、条带头、片组头、片、编解码树单元或编解码单元中信令通知的。
21.根据条款10所述的方法,其中,如何执行填充操作的信息在规则的简表、级别或层级中。
22.根据条款10所述的方法,其中,如何执行填充操作的信息取决于当前视频块的大小。
23.根据条款10至22中任一项所述的方法,其中,执行该转换包括从当前视频块生成编解码表示。
24.根据条款10至22中任一项所述的方法,其中,执行该转换包括从编解码表示生成当前视频块。
25.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中指令在由处理器执行时使处理器实施根据条款10至22中任一项所述的方法。
26.一种存储在非暂时性计算机可读介质上的计算机程序产品,该计算机程序产品包括用于执行根据条款10至22中任一项所述的方法的程序代码。
27.一种视频编码方法,包括:为了将视频的当前视频块编码为视频的编解码表示,通过基于根据精度规则的运动梯度使用光流计算来细化当前视频块的一个或多个初始预测,确定当前视频块的最终预测块;以及使用最终预测块将当前视频块编码为编解码表示,其中,光流计算包括利用光流的预测细化(PROF)过程和/或双向光流(BDOF)过程,在该利用光流的预测细化(PROF)过程中一个或多个初始预测在子块级别被计算并使用光流计算进行细化,在该双向光流(BDOF)过程中一个或多个初始预测使用空域和时域梯度进行细化,其中,精度规则指定使用相同的精度用于表示PROF过程和BDOF过程两者的梯度。
28.一种视频解码方法,包括:为了从视频的编解码表示解码视频的当前视频块,通过基于根据精度规则的运动梯度使用光流计算来细化当前视频块的一个或多个初始预测,确定当前视频块的最终预测块;以及使用最终预测块从编解码表示生成解码的当前视频块,其中,光流计算包括利用光流的预测细化(PROF)过程和/或双向光流(BDOF)过程,在该利用光流的预测细化(PROF)过程中一个或多个初始预测在子块级别被计算并使用光流计算进行细化,在该双向光流(BDOF)过程中一个或多个初始预测使用空域和时域梯度进行细化,其中,精度规则指定使用相同的精度用于表示PROF过程和BDOF过程两者的梯度。
29.一种视频编码方法,包括:为了将视频的当前视频块编码为视频的编解码表示,通过使用光流计算来细化当前视频块的一个或多个初始预测,确定当前视频块的最终预测块;以及使用最终预测块将当前视频块编码为编解码表示,其中,光流计算包括利用光流的预测细化(PROF)过程和/或双向光流(BDOF)过程,在该利用光流的预测细化(PROF)过程中一个或多个初始预测在子块级别被计算并使用光流计算进行细化,在该双向光流(BDOF)过程中一个或多个初始预测使用空域和时域梯度进行细化,其中,光流计算还包括根据规则适用于PROF过程或BDOF过程中的至少一个的填充操作,以推导填充样点。
30.一种视频解码方法,包括:为了从视频的编解码表示解码视频的当前视频块,通过使用光流计算来细化当前视频块的一个或多个初始预测,确定当前视频块的最终预测块;以及使用最终预测块从编解码表示生成解码的当前视频块,其中,光流计算包括利用光流的预测细化(PROF)过程和/或双向光流(BDOF)过程,在该利用光流的预测细化(PROF)过程中一个或多个初始预测在子块级别被计算并使用光流计算进行细化,在该双向光流(BDOF)过程中一个或多个初始预测使用空域和时域梯度进行细化,其中,光流计算还包括根据规则适用于PROF过程或BDOF过程中的至少一个的填充操作,以推导填充样点。
从前面可以理解,为了说明的目的,本文已经描述了当前公开的技术的特定实施例,但是在不脱离本发明的范围的情况下,可以进行各种修改。因此,当前公开的技术不受除了所附权利要求之外的限制。
本专利文档中描述的主题和功能操作的实施方式可以在各种系统、数字电子电路中被实施,或者在计算机软件、固件或硬件(包括本说明书中公开的结构及其结构等同物)中被实施,或者在它们中的一个或多个的组合中被实施。本说明书中描述的主题的实施方式可以被实施为一个或多个计算机程序产品,即编码在有形和非暂时性计算机可读介质上的计算机程序指令的一个或多个模块,该计算机程序指令用于由数据处理装置执行或控制数据处理装置的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、影响机器可读传播信号的物质的组合、或它们中的一个或多个的组合。术语“数据处理单元”或“数据处理装置”包含用于处理数据的所有装置、设备和机器,包括例如可编程处理器、计算机、或多个处理器或计算机。除了硬件之外,装置还可以包括为所讨论的计算机程序创建执行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统、或它们中的一个或多个的组合的代码。
计算机程序(也已知为程序、软件、软件应用、脚本或代码)可以以任何形式的编程语言(包括编译或解释语言)编写,并且其可以以任何形式部署,包括作为独立程序或作为适合在计算环境中使用的模块、组件、子例程或其他单元。计算机程序不一定对应于文件系统中的文件。程序可以存储在保存其他程序或数据(例如,存储在标记语言文档中的一个或多个脚本)的文件的一部分中,存储在专用于所讨论的程序的单个文件中,或存储在多个协调文件中(例如,存储一个或多个模块、子程序或代码部分的文件)。计算机程序可以被部署以在一个计算机上或在位于一个站点上或跨多个站点分布并通过通信网络互连的多个计算机上执行。
本说明书中描述的过程和逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程处理器执行,以通过对输入数据进行操作并生成输出来执行功能。过程和逻辑流程也可以由专用逻辑电路执行,并且装置也可以被实施为专用逻辑电路,例如,FPGA(Field Programmable Gate Array,现场可编程门阵列)或ASIC(Application SpecificIntegrated Circuit,专用集成电路)。
适合于执行计算机程序的处理器包括例如通用和专用微处理器、以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备(例如,磁盘、磁光盘或光盘),或可操作地耦合以从该一个或多个大容量存储设备接收数据或向该一个或多个大容量存储设备传递数据、或者从其接收数据并向其传递数据。然而,计算机不需要这样的设备。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。
本说明书以及附图旨在被认为仅是示例性的,其中示例性意味着示例。如本文所使用的,“或”的使用旨在包括“和/或”,除非上下文另外清楚地指示。
虽然本专利文档包含许多细节,但这些细节不应被解释为对任何发明或可能要求保护的范围的限制,而是作为特定于特定发明的特定实施例的特征的描述。在本专利文档中在单独的实施例的上下文中描述的某些特征也可以在单个实施例中组合实施。相反,在单个实施例的上下文中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合实施。此外,尽管特征可以在上面描述为以某些组合起作用并且甚至最初如此要求保护,但是在一些情况下可以从组合排除来自所要求保护的组合的一个或多个特征,并且所要求保护的组合可以针对子组合或子组合的变化。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应该被理解为需要以所示的特定顺序或以先后顺序执行这样的操作或者执行所有示出的操作以实现期望的结果。此外,在本专利文档中描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这样的分离。
仅描述了一些实施方式和示例,并且可以基于本专利文档中描述和示出的内容来进行其他实施方式、增强和变化。

Claims (59)

1.一种用于视频处理的方法,包括:
使用在视频的当前视频块的子块级别执行的仿射模式运动补偿来生成所述当前视频块的预测块;
对所述当前视频块的区域执行梯度计算,以使用利用光流的预测细化(PROF)过程来细化所述预测块,其中,所述区域的尺寸(M×N)不同于所述当前视频块的子块的尺寸,其中,M和N是正整数;以及
基于梯度计算来执行所述当前视频块和所述视频的编解码表示之间的转换。
2.根据权利要求1所述的方法,其中,所述区域的尺寸大于所述子块的尺寸。
3.根据权利要求1或2所述的方法,其中,M和N是预定义的正整数。
4.根据权利要求1或2所述的方法,其中,所述区域的尺寸基于所述子块的尺寸。
5.根据权利要求1所述的方法,其中,所述PROF过程中的填充操作被应用于推导(M×N)区域级别的梯度。
6.根据权利要求1至5中任一项所述的方法,其中,M被定义为min(K0,块宽度),并且N被定义为min(K1,块高度),其中K0和K1是整数。
7.根据权利要求6所述的方法,其中,K0和K1等于16。
8.根据权利要求1所述的方法,其中,所述梯度计算的执行包括获得所述当前视频块的第一子块中的第一样点的第一梯度和所述当前视频块的第二子块中的第二样点的第二梯度。
9.根据权利要求8所述的方法,其中,所述第二子块与第一子块相邻。
10.根据权利要求8所述的方法,其中,所述第二样点用于推导所述第一梯度。
11.根据权利要求8至10中任一项所述的方法,其中,所述区域的尺寸(M×N)大于当前视频块的子块的尺寸。
12.根据权利要求1所述的方法,其中,一个或多个运动矢量被推导以用于所述区域的填充操作。
13.根据权利要求12所述的方法,其中,与所述当前视频块的参考块中的整数样点相关联的特定运动矢量被推导以用于所述区域的填充操作。
14.根据权利要求13所述的方法,其中,所述特定运动矢量对应于所述区域中的子块中的一个的运动矢量。
15.根据权利要求13所述的方法,其中,所述特定运动矢量是通过应用朝向所述区域的特定位置的仿射模型而推导的。
16.根据权利要求13所述的方法,其中,所述特定运动矢量是从所述区域中的所有子块的运动矢量推导的。
17.根据权利要求13所述的方法,其中,所述特定运动矢量被推导为所述区域中的所有子块的运动矢量的平均值。
18.根据权利要求13所述的方法,其中,所述特定运动矢量被推导为所述区域中的子块的至少一些运动矢量的平均值,子块位于所述区域的中心周围。
19.根据权利要求13所述的方法,其中,所述特定运动矢量被推导为多个运动矢量的函数,其中所述多个运动矢量包括控制点运动矢量或所述区域中的子块的运动矢量。
20.根据权利要求12所述的方法,其中,与所述当前视频块的参考块中的整数样点相关联的多个运动矢量被推导以用于所述区域的填充操作。
21.根据权利要求20所述的方法,其中,为了填充与所述区域的第一子块相邻的第一样点,所述区域中的第一子块的第一运动矢量用于定位所述整数样点。
22.根据权利要求12所述的方法,其中,所述区域的尺寸(M×N)大于所述当前视频块的子块的尺寸。
23.根据权利要求1至22中任一项所述的方法,其中,M和N的最小值被分别预定为Mmin和Nmin。
24.根据权利要求23所述的方法,其中,Mmin=Nmin=8。
25.根据权利要求1至24中任一项所述的方法,其中,填充操作针对所述区域而执行,以在尺寸为(M+dM)×(N+dN)的填充区域中生成填充样点。
26.根据权利要求25所述的方法,其中,所述区域内部的样点从具有插值滤波的运动补偿进行推导。
27.根据权利要求26所述的方法,其中,所述样点是从用于所述区域中的几个子块的运动补偿推导的。
28.根据权利要求25所述的方法,其中,所述填充样点是沿着所述区域的四个外侧推导的。
29.根据权利要求28所述的方法,其中,所述填充样点复制所述当前视频块的参考块中的最近整数样点的强度。
30.根据权利要求28所述的方法,其中,所述填充样点复制未被填充的区域中的最近样点的强度。
31.根据权利要求1至30中任一项所述的方法,其中,执行所述转换包括从所述当前视频块生成所述编解码表示。
32.根据权利要求1至30中任一项所述的方法,其中,执行所述转换包括从所述编解码表示生成所述当前视频块。
33.一种视频处理的方法,包括:
为具有第一尺寸的视频的当前视频块推导最终预测块,其中所述最终预测块是通过使用在具有根据规则的第二尺寸的视频区域上执行的梯度计算来细化一个或多个中间预测块而计算的,其中,所述细化使用光流过程;以及
使用所述最终预测块来执行所述当前视频块和所述视频的编解码表示之间的转换。
34.根据权利要求33所述的方法,其中,所述规则指定所述第二尺寸是第一尺寸的函数。
35.根据权利要求34所述的方法,其中,所述规则指定所述第二尺寸的宽度(M)和/或所述第二尺寸的高度(N)取决于所述第一尺寸的宽度(W)和/或所述第一尺寸的高度(H)。
36.根据权利要求35所述的方法,其中,M=W,并且N=H。
37.根据权利要求35所述的方法,其中,M=N=2*Wmc,并且Wmc是所述当前视频块的子块的宽度或高度,所述子块用于使用用于所述当前视频块的运动补偿来获得所述一个或多个中间预测块。
38.根据权利要求35所述的方法,其中,M和N中的至少一个是在视频参数集(VPS)、解码参数集(DPS)、序列参数集(SPS)、图片参数集(PPS)、自适应参数集(APS)、条带头、片组头、片、编解码树单元或编解码单元中信令通知的。
39.根据权利要求35所述的方法,其中,M和N中的至少一个是在所述规则的简表、级别或层级中指定的。
40.根据权利要求35所述的方法,其中,M=Min(W,T1)并且N=Min(H,T2),其中T1和T2是正整数。
41.根据权利要求40所述的方法,其中,T1和T2中的至少一个是在视频参数集(VPS)、解码参数集(DPS)、序列参数集(SPS)、图片参数集(PPS)、自适应参数集(APS)、条带头、片组头、片、编解码树单元或编解码单元中信令通知的。
42.根据权利要求40所述的方法,其中,T1和T2中的至少一个是在所述规则的简表、级别或层级中指定的。
43.根据权利要求35至42中任一项所述的方法,其中,M和N的最小值被分别预定为Mmin和Nmin。
44.根据权利要求43所述的方法,其中,Mmin=Nmin=8。
45.根据权利要求33至44中任一项所述的方法,其中,填充操作针对所述区域而执行,以在尺寸为(M+dM)×(N+dN)的填充区域中生成填充样点。
46.根据权利要求45所述的方法,其中,所述区域内部的样点从具有插值滤波的运动补偿进行推导。
47.根据权利要求46所述的方法,其中,所述样点是从用于所述区域中的几个子块的运动补偿推导的。
48.根据权利要求45所述的方法,其中,所述填充样点是沿着所述区域的四个外侧推导的。
49.根据权利要求48所述的方法,其中,所述填充样点复制所述当前视频块的参考块中的最近整数样点的强度。
50.根据权利要求48所述的方法,其中,所述填充样点复制未被填充的区域中的最近样点的强度。
51.根据权利要求33所述的方法,其中,所述光流过程包括利用光流的预测细化(PROF)过程,在所述过程中一个或多个中间预测块在子块级别被计算并使用光流计算进行细化。
52.根据权利要求33所述的方法,其中,所述光流过程包括双向光流(BDOF)过程,在所述过程中一个或多个中间预测块使用空域和时域梯度进行细化。
53.根据权利要求33至52中任一项所述的方法,其中,执行所述转换包括从所述当前视频块生成所述编解码表示。
54.根据权利要求33至52中任一项所述的方法,其中,执行所述转换包括从所述编解码表示生成所述当前视频块。
55.一种用于视频处理的方法,包括:
使用双向光流(BDOF)或利用光流的预测细化(PROF)为视频的当前视频块推导运动信息;
对所述当前视频块的区域中的样点执行梯度计算,使得所述区域中的至少一个样点从所述梯度计算中被省略;以及
基于所述梯度计算来执行所述当前视频块和包括所述当前视频块的视频的编解码表示之间的转换,
其中,所述当前视频块的一个或多个初始预测在子块级别进行计算并在PROF期间使用光流计算进行细化,或者一个或多个初始预测在BDOF期间使用空域和时域梯度进行细化。
56.根据权利要求55所述的方法,其中,与给定坐标处的样点相关联的梯度用于BIO和PROF中。
57.根据权利要求55所述的方法,其中,所述样点在执行所述梯度计算之前被修改,并且修改的样点在执行所述梯度计算期间被使用。
58.根据权利要求55至57中任一项所述的方法,其中,执行所述转换包括从所述当前视频块生成所述编解码表示。
59.根据权利要求55至57中任一项所述的方法,其中,执行所述转换包括从所述编解码表示生成所述当前视频块。
CN202080029809.0A 2019-04-19 2020-04-20 不同运动矢量细化中的基于区域的梯度计算 Active CN113728626B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CNPCT/CN2019/083434 2019-04-19
CN2019083434 2019-04-19
CN2019092762 2019-06-25
CNPCT/CN2019/092762 2019-06-25
PCT/CN2020/085658 WO2020211864A1 (en) 2019-04-19 2020-04-20 Region based gradient calculation in different motion vector refinements

Publications (2)

Publication Number Publication Date
CN113728626A true CN113728626A (zh) 2021-11-30
CN113728626B CN113728626B (zh) 2023-05-30

Family

ID=72837050

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202080029809.0A Active CN113728626B (zh) 2019-04-19 2020-04-20 不同运动矢量细化中的基于区域的梯度计算
CN202080029821.1A Active CN113728630B (zh) 2019-04-19 2020-04-20 不同运动矢量细化中的基于区域的梯度计算

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202080029821.1A Active CN113728630B (zh) 2019-04-19 2020-04-20 不同运动矢量细化中的基于区域的梯度计算

Country Status (6)

Country Link
US (2) US11356697B2 (zh)
EP (2) EP3922015A4 (zh)
JP (2) JP7319386B2 (zh)
KR (1) KR102662024B1 (zh)
CN (2) CN113728626B (zh)
WO (2) WO2020211865A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023193557A1 (en) * 2022-04-07 2023-10-12 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture data
WO2024012052A1 (en) * 2022-07-15 2024-01-18 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113661708B (zh) 2019-04-02 2023-12-15 北京字节跳动网络技术有限公司 基于双向光流的视频编解码和解码
CN113711609B (zh) 2019-04-19 2023-12-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程中的增量运动矢量
KR102662024B1 (ko) 2019-04-19 2024-05-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 상이한 모션 벡터 정제의 그레디언트 계산
WO2020211866A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Applicability of prediction refinement with optical flow process
WO2020233662A1 (en) 2019-05-21 2020-11-26 Beijing Bytedance Network Technology Co., Ltd. Syntax signaling for optical-flow based inter coding
CN114026851A (zh) * 2019-06-21 2022-02-08 Vid拓展公司 利用光流的运动补偿的精度细化
WO2021047540A1 (en) 2019-09-09 2021-03-18 Beijing Bytedance Network Technology Co., Ltd. Coefficient scaling for high precision image and video coding
CN114365500A (zh) * 2019-09-20 2022-04-15 瑞典爱立信有限公司 具有移位操作的双向光流简化的视频编码和/或解码的方法及相关装置
EP4018648A4 (en) 2019-09-21 2022-11-23 Beijing Bytedance Network Technology Co., Ltd. HIGH PRECISION TRANSFORMATION AND QUANTIZATION FOR IMAGE AND VIDEO CODING
WO2021068956A1 (en) 2019-10-12 2021-04-15 Beijing Bytedance Network Technology Co., Ltd. Prediction type signaling in video coding
EP4032290A4 (en) 2019-10-18 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SYNTAX CONSTRAINTS IN REPORTING SUBPICTURE PARAMETER SETS
KR20220113379A (ko) 2019-12-27 2022-08-12 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 픽처 헤더의 슬라이스 유형의 시그널링
US20230021722A1 (en) * 2021-07-20 2023-01-26 Mediatek Inc. Apparatus and method for performing motion vector refinement to get more precise motion vectors
US20230291908A1 (en) * 2022-02-04 2023-09-14 Tencent America LLC Affine estimation in pre-analysis of encoder
US20240022758A1 (en) * 2022-07-12 2024-01-18 Tencent America LLC Full-pixel based and group-based motion compensated picture boundary padding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102754444A (zh) * 2010-01-08 2012-10-24 索尼公司 图像处理装置、信息记录介质、图像处理方法和程序
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
US20180241998A1 (en) * 2017-02-21 2018-08-23 Qualcomm Incorporated Deriving motion vector information at a video decoder
US20180262773A1 (en) * 2017-03-13 2018-09-13 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (bio)

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703362B1 (ko) 2008-09-04 2017-02-06 톰슨 라이센싱 암시적 모션 예측을 이용한 예측 리파인먼트를 위한 방법들 및 장치들
KR101529992B1 (ko) 2010-04-05 2015-06-18 삼성전자주식회사 픽셀 그룹별 픽셀값 보상을 위한 비디오 부호화 방법과 그 장치, 및 픽셀 그룹별 픽셀값 보상을 위한 비디오 복호화 방법과 그 장치
JP5768662B2 (ja) 2011-10-31 2015-08-26 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10390041B2 (en) 2012-03-30 2019-08-20 Sun Patent Trust Predictive image coding and decoding using two reference pictures
EP2908530A4 (en) 2012-10-12 2016-04-13 Korea Electronics Telecomm IMAGE ENCODING / DECODING METHOD AND DEVICE USING THE SAME
US10412419B2 (en) 2013-07-12 2019-09-10 Qualcomm Incorporated Adaptive filtering in video coding
KR102028186B1 (ko) 2013-09-20 2019-10-02 브이아이디 스케일, 인크. 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법
CN105409221B (zh) 2014-04-29 2020-03-06 微软技术许可有限责任公司 用于样本自适应偏移滤波的编码器侧决策
AU2014202921B2 (en) 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
US10200717B2 (en) 2014-06-19 2019-02-05 Sharp Kabushiki Kaisha Image decoding device, image coding device, and predicted image generation device
KR20170078682A (ko) 2014-11-04 2017-07-07 삼성전자주식회사 에지 타입의 오프셋을 적용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
SG11201703454XA (en) 2014-11-18 2017-06-29 Mediatek Inc Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate
US10158836B2 (en) 2015-01-30 2018-12-18 Qualcomm Incorporated Clipping for cross-component prediction and adaptive color transform for video coding
US10057574B2 (en) 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
JP6532962B2 (ja) 2015-06-09 2019-06-19 華為技術有限公司Huawei Technologies Co.,Ltd. 画像符号化方法、画像復号方法、符号化デバイス、および復号デバイス
CN107925773B (zh) 2015-06-11 2022-06-07 杜比实验室特许公司 使用自适应去块滤波编码和解码图像的方法及其装置
US20180139469A1 (en) 2015-06-19 2018-05-17 Nokia Technologies Oy An Apparatus, A Method and A Computer Program for Video Coding and Decoding
CA2999826C (en) 2015-09-25 2020-10-13 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation with selectable interpolation filter
BR112018010207A2 (pt) 2015-11-18 2018-11-21 Mediatek Inc método e aparelho para o modo de predição intra usando filtro de predição intra em compressão de vídeo e imagem
KR20180075558A (ko) 2015-11-24 2018-07-04 삼성전자주식회사 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
GB2561507B (en) 2016-01-07 2021-12-22 Mediatek Inc Method and apparatus for affine merge mode prediction for video coding system
US10887619B2 (en) 2016-02-03 2021-01-05 Sharp Kabushiki Kaisha Moving image decoding device, moving image coding device, and prediction image generation device
CN108781294B (zh) 2016-02-05 2021-08-31 联发科技股份有限公司 视频数据的运动补偿方法及装置
US11405611B2 (en) 2016-02-15 2022-08-02 Qualcomm Incorporated Predicting filter coefficients from fixed filters for video coding
US11095898B2 (en) 2016-03-28 2021-08-17 Lg Electronics Inc. Inter-prediction mode based image processing method, and apparatus therefor
EP3446480A1 (en) 2016-04-22 2019-02-27 VID SCALE, Inc. Prediction systems and methods for video coding based on filtering nearest neighboring pixels
JP2019519972A (ja) 2016-05-05 2019-07-11 ヴィド スケール インコーポレイテッド イントラコーディングのための制御点ベースのイントラ方向表現
BR112018073434A2 (pt) 2016-05-13 2019-03-26 Interdigital Vc Holdings, Inc. método e aparelho para codificação de vídeo com corte adaptativo
EP3456049B1 (en) 2016-05-13 2022-05-04 VID SCALE, Inc. Systems and methods for generalized multi-hypothesis prediction for video coding
US10560712B2 (en) 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US20180041778A1 (en) 2016-08-02 2018-02-08 Qualcomm Incorporated Geometry transformation-based adaptive loop filtering
US10728572B2 (en) * 2016-09-11 2020-07-28 Lg Electronics Inc. Method and apparatus for processing video signal by using improved optical flow motion vector
WO2018061563A1 (ja) 2016-09-27 2018-04-05 シャープ株式会社 アフィン動きベクトル導出装置、予測画像生成装置、動画像復号装置、および動画像符号化装置
US10631002B2 (en) 2016-09-30 2020-04-21 Qualcomm Incorporated Frame rate up-conversion coding mode
US10448010B2 (en) 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
US10341659B2 (en) 2016-10-05 2019-07-02 Qualcomm Incorporated Systems and methods of switching interpolation filters
WO2018105579A1 (ja) 2016-12-09 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
EP3565245A4 (en) 2017-01-04 2019-11-27 Samsung Electronics Co., Ltd. VIDEO CODING METHOD AND DEVICE AND VIDEO CODING METHOD AND DEVICE
US10701390B2 (en) 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
BR112019018922A8 (pt) * 2017-03-16 2023-02-07 Mediatek Inc Método e aparelho de refinamento de movimento com base em fluxo óptico bi-direcional para codificação de vídeo
US10491917B2 (en) 2017-03-22 2019-11-26 Qualcomm Incorporated Decoder-side motion vector derivation
CN116708829A (zh) * 2017-04-24 2023-09-05 Sk电信有限公司 编解码视频数据的装置、发送编码视频数据比特流的方法
US10805630B2 (en) * 2017-04-28 2020-10-13 Qualcomm Incorporated Gradient based matching for motion search and derivation
CN116437106A (zh) 2017-05-19 2023-07-14 松下电器(美国)知识产权公司 编码方法和解码方法
CN107277316B (zh) 2017-06-12 2020-05-12 京东方科技集团股份有限公司 显示装置及其制造方法
US10904565B2 (en) * 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
US10477237B2 (en) 2017-06-28 2019-11-12 Futurewei Technologies, Inc. Decoder side motion vector refinement in video coding
EP3649780A1 (en) 2017-07-03 2020-05-13 Vid Scale, Inc. Motion-compensation prediction based on bi-directional optical flow
US10757442B2 (en) 2017-07-05 2020-08-25 Qualcomm Incorporated Partial reconstruction based template matching for motion vector derivation
WO2019040075A1 (en) 2017-08-24 2019-02-28 Ford Global Technologies, Llc ENHANCED FUEL SUPPLYING OF VEHICLE
US10609384B2 (en) 2017-09-21 2020-03-31 Futurewei Technologies, Inc. Restriction on sub-block size derivation for affine inter prediction
WO2019070770A1 (en) 2017-10-02 2019-04-11 Arris Enterprises Llc SYSTEM AND METHOD FOR REDUCING BLOCKED ARTIFACTS AND PRODUCING ENHANCED ENCODING EFFICIENCY
US10757417B2 (en) 2018-01-20 2020-08-25 Qualcomm Incorporated Affine motion compensation in video coding
KR20210016581A (ko) 2018-06-05 2021-02-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Ibc 및 atmvp 간의 상호 작용
US11303923B2 (en) 2018-06-15 2022-04-12 Intel Corporation Affine motion compensation for current picture referencing
CN116347099A (zh) 2018-06-19 2023-06-27 北京字节跳动网络技术有限公司 没有运动矢量预测截断的选择的运动矢量差精度
CN116095312A (zh) 2018-08-04 2023-05-09 北京字节跳动网络技术有限公司 视频处理方法、装置和计算机可读介质
CN116546213A (zh) 2018-09-19 2023-08-04 北京字节跳动网络技术有限公司 具有自适应运动矢量分辨率的仿射模式的语法重用
EP3834418A1 (en) 2018-09-23 2021-06-16 Beijing Bytedance Network Technology Co. Ltd. Modification of motion vector with adaptive motion vector resolution
WO2020070612A1 (en) 2018-10-06 2020-04-09 Beijing Bytedance Network Technology Co., Ltd. Improvement for temporal gradient calculating in bio
CN111357294B (zh) 2018-10-23 2022-12-30 北京字节跳动网络技术有限公司 基于子块的运动信息列表的简化熵编解码
JP7231727B2 (ja) 2018-11-05 2023-03-01 北京字節跳動網絡技術有限公司 精緻化を伴うインター予測のための補間
CN113170097B (zh) 2018-11-20 2024-04-09 北京字节跳动网络技术有限公司 视频编解码模式的编解码和解码
CN113366834A (zh) 2018-11-26 2021-09-07 弗劳恩霍夫应用研究促进协会 使用切片独立约束的间预测概念
GB2580173B (en) 2018-12-21 2022-07-27 Canon Kk A filter
CN113728645A (zh) 2019-02-20 2021-11-30 北京达佳互联信息技术有限公司 用于基于尾数-指数表示的帧间预测的运动矢量舍入、裁剪和存储的方法和装置
US20200296405A1 (en) 2019-03-14 2020-09-17 Qualcomm Incorporated Affine motion compensation refinement using optical flow
CN113632484A (zh) 2019-03-15 2021-11-09 北京达佳互联信息技术有限公司 用于双向光流的比特宽度控制的方法和设备
SG11202109031TA (en) 2019-03-18 2021-09-29 Tencent America LLC Method and apparatus for video coding
US11343525B2 (en) 2019-03-19 2022-05-24 Tencent America LLC Method and apparatus for video coding by constraining sub-block motion vectors and determining adjustment values based on constrained sub-block motion vectors
US11962796B2 (en) 2019-04-01 2024-04-16 Qualcomm Incorporated Gradient-based prediction refinement for video coding
CN113661708B (zh) 2019-04-02 2023-12-15 北京字节跳动网络技术有限公司 基于双向光流的视频编解码和解码
WO2020211866A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Applicability of prediction refinement with optical flow process
CN113711609B (zh) 2019-04-19 2023-12-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程中的增量运动矢量
KR102662024B1 (ko) 2019-04-19 2024-05-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 상이한 모션 벡터 정제의 그레디언트 계산
US20210092390A1 (en) 2019-09-23 2021-03-25 Alibaba Group Holding Limited Methods and apparatuses for prediction refinement with optical flow in reference picture resampling

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102754444A (zh) * 2010-01-08 2012-10-24 索尼公司 图像处理装置、信息记录介质、图像处理方法和程序
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
US20180241998A1 (en) * 2017-02-21 2018-08-23 Qualcomm Incorporated Deriving motion vector information at a video decoder
US20180262773A1 (en) * 2017-03-13 2018-09-13 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (bio)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIANCONG (DANIEL) LUO: ""CE2-related: Prediction refinement with optical flow for affine mode"", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 14TH MEETING: GENEVA, CH, 19–27 MARCH 2019,JVET-N0236》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023193557A1 (en) * 2022-04-07 2023-10-12 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture data
WO2024012052A1 (en) * 2022-07-15 2024-01-18 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing

Also Published As

Publication number Publication date
WO2020211864A1 (en) 2020-10-22
US11924463B2 (en) 2024-03-05
US20220070490A1 (en) 2022-03-03
KR102662024B1 (ko) 2024-05-21
WO2020211865A1 (en) 2020-10-22
EP3922015A4 (en) 2022-07-20
KR20210152470A (ko) 2021-12-15
EP3922015A1 (en) 2021-12-15
CN113728630A (zh) 2021-11-30
US11356697B2 (en) 2022-06-07
JP2023145563A (ja) 2023-10-11
EP4304178A2 (en) 2024-01-10
JP7319386B2 (ja) 2023-08-01
CN113728630B (zh) 2023-11-17
JP2022527852A (ja) 2022-06-06
EP4304178A3 (en) 2024-03-06
CN113728626B (zh) 2023-05-30
US20210368203A1 (en) 2021-11-25

Similar Documents

Publication Publication Date Title
CN113728626B (zh) 不同运动矢量细化中的基于区域的梯度计算
CN113711609B (zh) 利用光流的预测细化过程中的增量运动矢量
CN113711608B (zh) 利用光流的预测细化过程的适用性
US11889108B2 (en) Gradient computation in bi-directional optical flow
CN110933420A (zh) 仿射模式中自适应运动矢量分辨率的快速算法
CN112956197A (zh) 基于编解码信息的解码器侧运动矢量推导的限制
CN110662041B (zh) 视频比特流处理的方法和装置,存储视频比特流的方法和非暂时性计算机可读记录介质
EP3861742A1 (en) Difference calculation based on patial position
CN110740332B (zh) 基于更新的运动矢量的运动预测
CN115918080A (zh) 视频编解码的仿射预测改进
CN114503596B (zh) 运动矢量细化和其他编解码工具之间的相互作用
CN111010570B (zh) 基于仿射运动信息的尺寸限制
CN113678444A (zh) 具有自适应运动矢量分辨率的仿射模式的熵编解码

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant