CN113302932A - 视频编解码的方法和装置 - Google Patents

视频编解码的方法和装置 Download PDF

Info

Publication number
CN113302932A
CN113302932A CN202080009190.7A CN202080009190A CN113302932A CN 113302932 A CN113302932 A CN 113302932A CN 202080009190 A CN202080009190 A CN 202080009190A CN 113302932 A CN113302932 A CN 113302932A
Authority
CN
China
Prior art keywords
mode
prediction
gbi
directional prediction
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080009190.7A
Other languages
English (en)
Other versions
CN113302932B (zh
Inventor
李贵春
李翔
许晓中
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN113302932A publication Critical patent/CN113302932A/zh
Application granted granted Critical
Publication of CN113302932B publication Critical patent/CN113302932B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本公开的各方面提供用于视频编码/解码的方法和装置。在一些示例中,一种用于视频解码的装置包括接收电路和处理电路。处理电路从已编码视频码流中对当前块的预测信息进行解码。预测信息用于指示针对帧间预测的第一双向预测模式的使用。然后,处理电路基于针对帧间预测的第一双向预测模式的使用确定第二双向预测模式的参数,并根据第一双向预测模式以及确定的第二双向预测模式的参数重建当前块的样本。

Description

视频编解码的方法和装置
交叉引用
本申请要求于2020年1月23日提交的美国专利申请第16/750,947号,“视频编解码的方法和装置(METHOD AND APPARATUS FOR VIDEO CODING)”的优先权,该申请要求于2019年1月25日提交的美国临时申请第62/797,152号,“对称MVD模式和广义双向预测(SYMMETRIC MVD MODE AND GENERALIZED BI-PREDICTION)”的优先权。这些先前申请的全部公开内容在此通过引用整体结合在本文中。
技术领域
本申请描述总体上涉及视频编解码的实施例。
背景技术
本文所提供的背景描述旨在整体呈现本申请的背景。在背景技术部分以及本说明书的各个方面中所描述的目前已署名的发明人的工作所进行的程度,并不表明其在本申请提交时作为现有技术,且从未明示或暗示其被承认为本申请的现有技术。
通过具有运动补偿的帧间图片预测技术,可以进行视频编码和解码。未压缩的数字视频可包括一系列图片,每个图片具有例如1920×1080亮度样本及相关色度样本的空间维度。所述系列图片具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60个图片或60Hz。未压缩的视频具有非常大的比特率要求。例如,每个样本8比特的1080p60 4:2:0的视频(1920x1080亮度样本分辨率,60Hz帧率)要求接近1.5Gbit/s带宽。一小时这样的视频就需要超过600GB的存储空间。
视频编码和解码的一个目的,是通过压缩减少输入视频信号的冗余信息。视频压缩可以帮助降低对上述带宽或存储空间的要求,在某些情况下可降低两个或更多数量级。无损和有损压缩,以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视应用的用户,某些消费流媒体应用的用户可以容忍更高的失真。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
运动补偿可以是一种有损压缩技术,且可涉及如下技术:来自先前重建的图片或重建图片一部分(参考图片)的样本数据块在空间上按运动矢量(下文称为MV)指示的方向移位后,用于新重建的图片或图片部分的预测。在某些情况下,参考图片可与当前正在重建的图片相同。MV可具有两个维度X和Y,或者三个维度,其中第三个维度表示使用中的参考图片(后者间接地可为时间维度)。
在一些视频压缩技术中,应用于某个样本数据区域的MV可根据其它MV来预测,例如根据与正在重建的区域空间相邻的另一个样本数据区域相关的、且按解码顺序在该MV前面的那些MV。这样做可以大大减少编码MV所需的数据量,从而消除冗余信息并增加压缩量。MV预测可以有效地进行,例如,当对从相机导出的输入视频信号(称为自然视频)进行编码时,存在一种统计上的可能性,即面积大于单个MV适用区域的区域,会朝着类似的方向移动,因此,在某些情况下,可以用邻近区域的MV导出的相似运动矢量进行预测。这导致针对给定区域发现的MV与根据周围MV预测的MV相似或相同,并且在熵编码之后,又可以用比直接编码MV时使用的比特数更少的比特数来表示。在某些情况下,MV预测可以是对从原始信号(即样本流)导出的信号(即MV)进行无损压缩的示例。在其它情况下,MV预测本身可能是有损的,例如由于根据几个周围MV计算预测值时产生的取整误差。
H.265/HEVC(ITU-T Rec.H.265,“高效视频编码”,2016年12月)描述了各种MV预测机制。在H.265所提供的多种MV预测机制中,本文描述的是一种下文称为“空间合并”的技术。
参考图1,当前块(101)包括编码器在运动搜索过程中发现的样本,所述样本可以根据空间移动了相同大小的先前块进行预测。不直接对该MV进行编码,而是通过使用与五个周围样本中的任何一个相关联的MV,从与一个或多个参考图片相关联的元数据中导出该MV,例如从最近的(按解码顺序)参考图片中导出该MV。其中,五个周围样本分别用A0、A1和B0、B1、B2(从102到106)表示。在H.265中,MV预测可使用相邻块正在使用的同一参考图片的预测值。
发明内容
本公开的各方法提供了用于视频编码/解码的方法和装置。在一些示例中,视频解码的装置包括:接收电路和处理电路。所述处理电路从已编码视频码流中对当前图片中的当前块的预测信息进行解码,所述预测信息用于指示针对帧间预测的第一双向预测模式的使用;所述处理电路基于针对所述帧间预测的所述第一双向预测模式的所述使用确定第二双向预测模式的参数;所述处理电路根据所述第一双向预测模式以及确定的所述第二双向预测模式的参数重建所述当前块的样本。
在一些实施例中,所述第一双向预测模式是对称运动矢量差SMVD模式,并且所述第二双向预测模式是广义双向预测GBi模式。在一些实施例中,当所述SMVD模式用于所述当前块时,将GBi索引推断为预定值。在另一实施例中,用第一比特数对第一GBi索引进行解码,所述第一比特数短于用于对GBi权重的全集的索引进行编码的第二比特数,所述第一比特数用于对所述GBi权重的子集的索引进行编码。在另一实施例中,当所述SMVD模式中的运动矢量差为零时,用所述第二比特数对第二GBi索引进行解码,所述第二比特数用于对GBi权重的所述全集的所述索引进行编码。
在一些实施例中,所述第一双向预测模式是广义双向预测GBi模式,并且所述第二双向预测模式是对称运动矢量差SMVD模式。在实施例中,当在所述GBi模式中使用的所述权重不是1/2时,禁用所述SMVD模式;在另一实施例中,当在所述GBi模式中使用的所述权重不是1/2时,推断所述SMVD模式的使用标志为假。在一些实施例中,当在所述GBi模式中使用的权重为1/2或当禁用所述GBi模式时,启用所述SMVD模式。在另一实施例中,当启用所述SMVD模式时,从所述已编码视频码流对所述SMVD模式的使用标志进行解码。
本公开的各方面还提供一种存储有指令的非易失性计算机可读存储介质,所述指令在由用于视频解码的计算机执行时,使该计算机执行所述视频解码方法。
附图说明
通过以下详细描述和附图,所公开的主题的其它特征、性质及各种优点将更加明显,其中:
图1是示例性当前块以及其周围空间合并候选的示意图。
图2是根据实施例的通信系统(200)的简化框图的示意图。
图3是根据实施例的通信系统(300)的简化框图的示意图。
图4是根据实施例的解码器的简化框图的示意图。
图5是根据实施例的编码器的简化框图的示意图。
图6示出了根据另一实施例的编码器的框图。
图7示出了根据另一实施例的解码器的框图。
图8示出了一些实施例的冗余检查对的示意图。
图9示出了时间候选推导的示例。
图10示出了用于表明时间候选的位置的示例。
图11示出了根据本公开的实施例的具有运动矢量差的合并模式(MMVD,mergemode with motion vector difference)的示例。
图12A-12B示出了由控制点的运动信息描述的块的仿射运动域。
图13示出了每个子块的仿射运动矢量域的示例。
图14示出了仿射合并模式的示例。
图15示出了根据本公开的一些实施例的空间邻居和时间邻居的示例。
图16-17示出了根据本公开的一些实施例的SbTVMP过程的示例。
图18示出了三角形分区的两个CU示例(1810)和(1820)。
图19示出了用于形成当前块(1910)的单向预测候选列表的示例。
图20示出了根据本公开的一些实施例的使用加权因子组来推导出最终预测的示例。
图21示出了根据本公开的一些实施例的使用第二加权因子组来导出对CU的最终预测的另一示例。
图22示出了对于三角形分区的预测的示例。
图23示出了根据本公开的一些实施例的对称运动矢量差(MVD,motion vectordifference)的示意图。
图24示出了概述根据本公开的一些实施例的方法过程的流程图。
图25是根据本申请实施例的计算机系统的示意图。
具体实施方式
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200)包括多个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的第一对终端装置(210)和终端装置(220)。在图2的实施例中,终端装置(210)和终端装置(220)执行单向数据传输。举例来说,终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到另一终端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的第二对终端装置(230)和(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,终端装置(230)和终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码以通过网络(250)传输到终端装置(230)和终端装置(240)中的另一终端装置。终端装置(230)和终端装置(240)中的每个终端装置还可接收由终端装置(230)和终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本论述的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601 Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从时域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(503)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
本公开的各方面提供用于处理对称运动矢量差(MVD,symmetric motion vectordifference)模式和广义双向预测的技术。在一些实施例中,有条件地启用/禁用对称MVD模式和广义双向预测。
开发诸如HEVC、VVC等的各种编码标准以包括新技术。
在VVC的一些示例中,对于每一个帧间预测的CU,运动参数包括运动矢量、参考图片索引和参考图片列表使用索引,以及VVC的新编解码特征所需的附加信息,所述VVC的新编解码特征要用于帧间预测样本生成。可以以显式或隐式方式发信号通知运动参数。在示例中,当以跳过模式对CU进行编码时,CU与一个PU相关联且不具有显著的残差系数、不具有已编码的运动矢量增量或参考图片索引。在另一示例中,指定合并模式,由此从相邻CU获得当前CU的运动参数,包括空间候选和时间候选、以及VVC中引入的附加调度。合并模式可应用于任何帧间预测的CU,而不仅仅用于跳过模式。合并模式的可选方案是运动参数的显式传输,其中,针对每一CU显式地发信号通知运动矢量、每一参考图片列表的对应参考图片索引和参考图片列表使用标志以及其它所需信息。
除了HEVC中的帧间编解码特征之外,VVC测试模型3(VTM3,VVC test model 3)包括许多新的且改进的帧间预测编解码工具,诸如扩展合并预测、具有运动矢量差的合并模式(MMVD,merge mode with motion vector difference)、仿射运动补偿预测、基于子块的时间运动矢量预测值(SbTMVP,subblock-based temporal motion vector predictor)、三角形分区预测、组合帧间及帧内预测(CIIP,combined inter and intra prediction)等。在本公开中描述了上述帧间预测编解码工具的一些特征。
在一些示例中,在VTM3中使用扩展合并预测。具体地,在VTM3中,通过按以下顺序包括五种类型的候选来构建合并候选列表:(1)来自空间邻域(spatial neighbor)CU的空间运动矢量预测值(MVP,spatial motion vector predictor);(2)来自同位CU的时间MVP;(3)来自FIFO表的基于历史的MVP;(4)成对平均MVP;以及(5)零MV。在一些实施例中,在合并候选列表构建中使用的技术包括空间候选推导、时间候选推导、基于历史的合并候选推导和成对平均合并候选推导。
在示例中,在条带头中发信号通知合并列表的大小,并且在VTM3中合并列表的最大允许大小为6。对于以合并模式编码的每个CU,使用截断一元二进制化(TU,truncatedunary binarization)对最佳合并候选的索引进行编码。用上下文编解码对合并索引的第一二进制进行编码,而其它二进制可以使用旁路编解码。
对于空间候选推导,根据本公开的一方面,VVC中的空间合并候选的推导类似于HEVC中的推导。例如,从位于图1所示的A0-A1和B0-B2位置的候选中选择最多四个合并候选。推导的顺序是A1、B1、B0、A0和B2。仅当位置A1、B1、B0、A0的任何CU不可用(例如,属于另一条带或图块)或以帧内编码时,才考虑位置B2。在添加位置A1处的候选之后,对剩余候选的添加进行冗余检查,其确保从列表中排除具有相同运动信息的候选,从而提高编解码效率。为了降低计算复杂度,在所提到的冗余检查中不考虑所有可能的候选对。相反,仅考虑与图8中的箭头链接的对,并且如果用于冗余检查的对应候选具有不同的运动信息,则仅将候选添加到列表中。
对于时间候选推导,根据本公开的一方面,仅将一个候选添加到列表中。具体地,在时间合并候选的推导中,基于属于同位参考图片的同位(co-located)CU,推导缩放运动矢量。在条带头中显式地发信号通知用于同位CU的推导的参考图片列表。
图9示出了时间候选推导的示例。图9示出了包括具有当前CU的当前图片、具有当前CU的同位CU的同位图片、当前图片的参考图片和同位图片的参考图片的图片序列。在示例中,将当前图片的参考图片与当前图片之间的图片顺序计数(POC,picture ordercount)距离(例如,POC之差)表示为tb,并且将同位图片的参考图片与同位图片之间的POC距离被表示为td。用于时间合并候选的缩放运动矢量由图9中的910示出,其使用POC距离tb和td从同位CU的运动矢量920进行缩放。将时间合并候选的参考图片索引设置为等于零。
图10示出了用于表明在候选C0和C1之间选择的时间候选的位置的示例。当位置C0处的CU不可用,或以帧内编码,或在CTU的当前行之外时,则可以使用位置C1。否则,在时间合并候选的推导中使用位置C0。
将基于历史的MVP(HMVP,history-based MVP)合并候选添加到合并列表中空间MVP和时间MVP(TMVP,temporal MVP)之后。在一些示例中,对于基于历史的合并候选推导,将先前已编码块的运动信息存储在表中且用作当前CU的MVP。在编码/解码过程期间维持具有多个HMVP候选的表。当新CTU行的解码开始时,该表被重置(清空)。每当存在非子块帧间编码CU时,将相关联的运动信息添加到表的最后一个条目作为新的HMVP候选。
在一些示例中,诸如在VTM3中,将HMVP表大小S设置为6,这指示多达6个基于历史的MVP(HMVP)候选可被添加到表中。在将新的运动候选插入表中时,利用受约束的先进先出(FIFO,first-in-first-out)规则,其中,首先应用冗余检查以查找在表中是否存在相同的HMVP。如果在表中找到相同的HMVP,则从表中删除相同的HMVP,并且然后所有的HMVP候选可以向前移动。
HMVP候选可用于合并候选列表构建过程。依次检查表中最新的几个HMVP候选并将其插入到候选列表中TMVP候选之后。对空间或时间合并候选在HMVP候选上应用冗余校验。
在一些示例中,为了减少冗余校验操作的数量,引入了一些简化。在示例中,将用于生成合并列表的HMPV候选的数目设置为(N<=4)?M:(8–N),其中N表示合并列表中现有候选的数目,且M表示表中可用HMVP候选的数目。
在另一示例中,一旦可用合并候选的总数比所允许的合并候选的最大值低1,则终止来自HMVP的合并候选列表构建过程。
对于成对平均合并候选推导,通过对现有合并候选列表中的预定义候选对求平均来生成成对平均候选。在一些示例中,将预定义对定义为{(0,1),(0,2),(1,2),(0,3),(1,3),(2,3)},其中,数字表示合并候选列表中的合并索引。对于每个参考列表分别计算平均运动矢量。当两个运动矢量在一个参考列表中均可用时,将这两个运动矢量进行平均,即使它们指向不同的参考图片。当参考列表中仅有一个运动矢量可用时,直接使用这一运动矢量;如果在参考列表中没有可用的运动矢量,则参考列表无效。
在一些示例中,当在添加成对平均合并候选之后合并列表未满时,在结尾处插入零MVP直到达到最大合并候选数目为止。
除了合并模式(其中隐式导出的运动信息直接用于当前CU的预测样本生成)之外,在VVC中引入具有运动矢量差的合并模式(MMVD,merge mode with motion vectordifferences)。在一些示例中,紧接在发送跳过标志和合并标志之后发信号通知MMVD标志以指定MMVD模式是否用于CU。
在MMVD中,在选择合并候选之后,通过发信号通知的运动矢量差(MVD)信息来进一步细化运动信息。在一些示例中,该信息包括合并候选标志、指定运动幅度的索引,以及指示运动方向的索引。在MMVD模式中,选择合并列表中的前两个候选之一作为MV基础。发信号通知合并候选标志以指定使用哪一个。
在一些示例中,距离索引用于指定运动幅度信息并指示与起始点的预定义偏移。
图11示出了根据本公开的实施例的MMVD的示例。例如,起始点MV由(1111)示出(例如根据预测方向IDX和基础候选IDX)。将偏移添加到起始MV的水平分量或垂直分量。在表1中示出了距离索引与预定义偏移的关系的示例。
表1:距离索引与预定义偏移的关系
Figure BDA0003162079160000211
在一些示例中,方向索引表示MVD相对于起始点的方向。方向索引可以表示如表2所示的四个方向。注意,MVD符号的含义可以根据起始MV的信息而变化。当起始MV是单向预测MV或双向预测MV(两个列表指向当前图片的相同侧(即,两个参考图片的POC均大于当前图片的POC,或者均小于当前图片的POC))时,表2中的符号指示添加到起始MV的MV偏移的符号。当起始MV是双向预测MV(两个MV指向当前图片的不同侧(即一个参考图片的POC大于当前图片的POC,并且另一参考图片的POC小于当前图片的POC))时,,表2中的符号指示添加到起始MV的list0 MV分量的MV偏移的符号,且list1 MV的符号具有相反的值。
表2:由方向索引指定的MV偏移的符号
方向IDX 00 01 10 11
x轴 + 不适用 不适用
y轴 不适用 不适用 +
对于仿射运动补偿预测,在HEVC中,仅将平移运动模型应用于运动补偿预测(MCP,motion compensation prediction)。现实世界具有许多种运动,例如放大/缩小、旋转、透视运动和其它不规则运动。在VTM3中,应用基于块的仿射变换运动补偿预测。
图12A示出了由两个控制点的运动信息描述的块的仿射运动域(4参数仿射模型)并且图12B示出了由三个控制点描述的块的仿射运动域(6参数仿射模型)。
在一些实施例中,对于4参数仿射运动模型,块中样本位置(x,y)处的运动矢量可导出为(等式1),并且对于6参数仿射运动模型,块中样本位置(x,y)处的运动矢量可导出为(等式2):
Figure BDA0003162079160000221
Figure BDA0003162079160000222
其中,(mv0x,mv0y)表示左上角控制点CP0的运动矢量,(mv1x,mv1y)是右上角控制点CP1的运动矢量,且(mv2x,mv2y)是左下角控制点CP2的运动矢量。
为了简化运动补偿预测,应用基于块的仿射变换预测。
图13示出了每个子块的仿射MV域的示例。当前CU被划分为4×4亮度子块。为了导出每个4×4亮度子块的运动矢量,根据以上等式计算每个子块的中心样本的运动矢量,如图13所示,并四舍五入为1/16分数精度。然后应用运动补偿内插滤波器以用导出的运动矢量生成每个子块的预测。色度分量的子块大小也被设置为4×4。在示例中,将4×4色度子块的MV计算为四个对应的4×4亮度子块的MV的平均值。
可以使用两种仿射运动帧间预测模式,诸如仿射合并(AF_MERGE)模式和仿射高级MVP(AMVP)模式。
对于仿射合并预测,在一些示例中,AF_MERGE模式可以应用于宽度和高度都大于或等于8的CU。在AF_MERGE模式中,基于空间相邻CU的运动信息生成当前CU的控制点运动矢量(CPMV,control point motion vectors)。在示例中,可存在多达五个CPMVP候选,并且用信号通知索引以指示将用于当前CU的CPMVP候选。在示例中,使用三种类型的CPMV候选来形成仿射合并候选列表。第一种类型的CPMV候选是从相邻CU的CPMV外推的继承仿射合并候选。第二种类型的CPMV候选是使用相邻CU的平移MV所推导出的构建仿射合并候选CPMVP。第三种类型的CPMV候选是零MV。
在一些示例中,例如在VTM3中,可以使用最多两个继承仿射候选。在示例中,从相邻块的仿射运动模型推导出两个继承仿射候选,一个来自左侧的相邻CU(称为左侧预测值)且一个来自上方的相邻CU(称为上方预测值)。在一些示例中,对于左侧预测值,扫描顺序是A0->A1,并且对于上方预测值,扫描顺序是B0->B1->B2。在示例中,仅选择来自每一侧的第一个继承候选。在一些示例中,在两个继承候选之间不执行修剪检查。当相邻仿射CU被识别时,相邻仿射CU的控制点运动矢量被用于推导出当前CU的仿射合并列表中的CPMVP候选。
图14示出了仿射合并模式的示例。如图14所示,当以仿射模式对相邻左下块A进行编码时,获得包含块A的CU的左上角、右上角和左下角的运动矢量mv2,mv3和mv3。当用4参数仿射模型对块A进行编码时,根据mv2和mv3.来计算当前CU的两个CPMV。当用6参数仿射模型对块A进行编码时,根据mv2、mv3和mv4.来计算当前CU的三个CPMV。
在一些示例中,通过组合每一控制点的相邻平移运动信息来构建所构建的仿射候选。控制点的运动信息可以从指定的空间近邻和时间近邻推导出。
图15示出了根据本公开的一些实施例的空间近邻(例如,A0至A2和B0至B3)和时间近邻(例如,T)的示例。在示例中,CPMVk(k=1,2,3,4)表示第k个控制点。对于CPMV1,检查B2->B3->A2块(->用于表示检查顺序),并且使用第一可用块的MV。对于CPMV2,检查B1->B0块,并且对于CPMV3,检查A1->A0块。对于TMVP,如果块T的MV可用,则检查T并将其用作CPMV4。
在获得四个控制点的MV之后,基于该运动信息构建仿射合并候选。控制点MV的以下组合用于依次构建:{CPMV1,CPMV2,CPMV3}、{CPMV1,CPMV2,CPMV4}、{CPMV1,CPMV3,CPMV4}、{CPMV2,CPMV3,CPMV4}、{CPMV1,CPMV2}、{CPMV1,CPMV3}。
3个CPMV的组合可以构建6参数仿射合并候选,并且2个CPMV的组合可以构建4参数仿射合并候选。在示例中,为了避免运动缩放过程,当控制点的参考索引不同时,可以丢弃控制点MV的相关组合。
在示例中,在检查继承仿射合并候选和所构建的仿射合并候选之后,如果候选列表仍然未满,则将零MV插入到列表的末尾。
对于仿射AMVP预测,仿射AMVP模式可应用于宽度和高度均大于或等于16的CU。在一些示例中,在码流(例如,已编码视频码流)中发信号通知CU级别的仿射标志以指示在CU中是否使用仿射AMVP模式,且接着发信号通知另一标志以指示使用4参数仿射还是6参数仿射。在仿射AMVP模式下,在码流中发信号通知当前CU的CPMV与其预测值CPMVP之间的差。仿射AMVP候选列表大小为2,且仿射AMVP候选列表是通过按以下顺序使用以下四种类型的CPVM候选而生成:(1)从邻域(neighbour)CU的CPMV外推的继承仿射AMVP候选;(2)构建仿射AMVP候选CPMVP,其使用邻域CU的平移MV推导出;(3)来自相邻CU的平移MV;和(4)零MV。
在一些示例中,继承仿射AMVP候选的检查顺序与继承仿射合并候选的检查顺序相同。在示例中,仿射合并预测与仿射AMVP预测之间的唯一区别在于,对于AVMP候选,仅考虑与当前块具有相同参考图片的仿射CU。在示例中,当将继承仿射运动预测值插入到候选列表中时,不应用修剪过程。
在一些示例中,可从图15中所示的指定空间邻域导出构建的AMVP候选。在示例中,使用与仿射合并预测的候选构建中相同的检查顺序。另外,还检查相邻块的参考图片索引。使用检查顺序中的第一块,所述第一块以帧间编码并具有与当前CU中相同的参考图片。当以4参数仿射模式对当前CU进行编码,且两个控制点mv0和mv1的运动矢量均可用时,将两个控制点的运动矢量添加为仿射AMVP列表中的一个候选。当以6参数仿射模式对当前CU进行编码,且控制点CPMV的所有三个运动矢量均可用时,将其添加为仿射AMVP列表中的一个候选。否则,将构建的AMVP候选设置为不可用。
当对继承的仿射AMVP候选和构建的AMVP候选进行检查之后仿射AMVP列表候选的数目仍小于2时,将依次添加mv0、mv1和mv2为平移MV,以在可用时预测当前CU的所有控制点MV。最后,如果仿射AMVP列表仍未满,则使用零MV来填充仿射AMVP列表。
在一些示例中,可以在VTM中使用基于子块的时间运动矢量预测(SbTMVP,subblock-based temporal motion vector prediction)。类似于HEVC中的时间运动矢量预测(TMVP,temporal motion vector prediction),SbTMVP使用同位图片(collocatedpicture)中的运动场来改进当前图片中的CU的运动矢量预测和合并模式。在一些示例中,将由TMVP使用的相同的同位图片用于SbTVMP。SbTMVP在两个方面不同于TMVP。在第一方面中,TMVP预测CU级的运动,但SbTMVP预测子CU级的运动。在第二方面中,TMVP从同位图片中的同位块(该同位块是相对于当前CU的右下块或中心块)中提取时间运动矢量,在从同位图片中提取时间运动信息之前,SbTMVP应用运动移位。从来自当前CU的空间相邻块之一的运动矢量获得运动移位。
图16至图17示出了根据本公开的一些实施例的SbTVMP过程的示例。SbTMVP在两个步骤中预测当前CU内的子CU的运动矢量。在第一步骤中,图16中所示的空间近邻按照A1、B1、B0和A0的顺序检查,以识别第一空间相邻块,所述第一空间相邻块具有使用同位图片作为其参考图片的运动矢量。然后,使用同位图片作为其参考图片的运动矢量被选择为要应用的运动移位。如果没有从空间近邻A1、B1、B0和A0识别出这种运动,则可以将运动移位(motion shift)设置为(0,0)。
在第二步骤中,应用在第一步骤中识别的运动移位(即,将其添加到当前块的坐标中),以从如图17所示的同位图片中获得子CU级运动信息(运动矢量和参考索引)。在图17的示例中,将A1的运动矢量设置为运动移位(1710)。然后,对于每个子CU,在同位图片中的对应块(覆盖中心样本的最小运动网格)的运动信息被用于推导子CU的运动信息。在识别了同位子CU的运动信息之后,以与HEVC的TMVP过程类似的方式将该运动信息转换为当前子CU的运动矢量和参考索引。举例来说,应用时间运动缩放以将时间运动矢量的参考图片与当前CU的参考图片对齐。
在一些示例中,例如在VTM3中,包括SbTVMP候选和仿射合并候选的组合的基于子块的合并列表用于基于子块的合并模式的信令。SbTVMP模式由序列参数集(SPS,sequenceparameter set)标志启用/禁用。当启用SbTMVP模式时,将SbTMVP预测值添加为组合的基于子块的合并列表的第一条目,并且随后添加仿射合并候选。基于子块的合并列表的最大允许大小在VTM3中为5。
在示例中,SbTMVP中使用的子CU大小固定为8×8,并且如针对仿射合并模式所做,SbTMVP模式仅适用于宽度和高度两者大于或等于8的CU。
在一些实施例中,附加SbTMVP合并候选的编码逻辑与其它合并候选的编码逻辑相同。在示例中,对于P条带或B条带中的每一CU,执行附加率失真检查以决定是否使用SbTMVP候选。
在一些示例中,在VTM3中三角预测用于帧间预测。使用三角预测的模式被称为三角形分区模式。在一些示例中,三角形分区模式仅应用于满足某些条件的CU,诸如具有8x8或更大的大小,且以跳过或合并模式进行编码。对于满足这些条件的CU,发信号通知CU级别标志以指示是否应用三角形分区模式。
当使用三角形分区模式时,使用对角线分割或反对角线分割将CU均匀地分割成两个三角形分区。
图18示出了三角形分区的两个CU示例(1810)和(1820)。CU(1810)从左上角到右下角(称为对角方向)被分割成两个三角形预测单元,并且CU(1820)从右上角到左下角(称为逆对角方向)被分割成两个三角形预测单元PU1和PU2。使用从单向预测候选列表推导出的其自身的单向预测运动矢量和参考帧索引对CU中的每个三角形预测单元进行帧间预测。此外,在预测三角形预测单元之后,对对角边缘执行自适应加权处理。然后,对整个CU应用变换和量化处理。注意,三角形分区仅应用于跳过模式和合并模式。
在一些示例中,使用其自身的运动矢量对CU中的每个三角形分区进行帧间预测;对于每个分区仅允许单向预测,即,每个分区具有一个运动矢量和一个参考索引。应用单向预测运动约束以确保与常规双向预测相同,每个CU仅使用两个运动补偿预测。从构建的单向预测候选列表推导出每个分区的单向预测运动信息,单向预测候选列表是使用被称为单向预测候选列表构建过程构建的。
在示例中,当CU级别标志指示使用三角形分区模式对当前CU进行编码时,进一步发信号通知[0,39]范围内的索引。使用此三角形分区索引,可通过查找表获得三角形分区的方向(对角线或反对角线)以及每个分区的运动。在预测每一个三角形分区之后,使用具有自适应权重的混合处理来调整沿对角线或反对角线边缘的样本值。混合处理的结果是整个CU的预测信号,且变换和量化处理可如在其它预测模式中一样应用于整个CU。最后,以4x4单位存储使用三角形分区模式预测的CU的运动域。
根据本公开的一方面,单向预测候选列表构建过程构建包括五个单向预测运动矢量候选的单向预测候选列表。
图19示出了用于形成当前块(1910)的单向预测候选列表的示例。在示例中,单向预测候选列表由五个单向预测运动矢量候选组成。单向预测候选列表是从包括五个空间相邻块(如图19所示的1至5)和两个时间同位块(如图19所示的6至7)的七个相邻块中推导出的。例如,收集七个相邻块的运动矢量,并以特定顺序(诸如首先是单向预测运动矢量)将其放入单向预测候选列表中。然后,对于双向预测的相邻块,将双向预测MV的L0运动矢量(即,双向预测MV的L0运动矢量部分)、L1运动矢量(即,双向预测MV的L1运动矢量部分)以及双向预测MV的L0和L1运动矢量的平均运动矢量放入单向预测候选列表中。当候选的数目小于五时,将零运动矢量添加到列表的末尾。
在一些示例中,可使用40种可能的方式来预测以三角形分区模式编码的CU。40种可能的方式被确定为5(对于分区1运动)x 4(对于分区2运动)x 2(对角或反对角分区模式)。在[0,39]范围内的三角形分区索引用于使用查找表来标识使用这些可能性中的哪一个,诸如表3。在表3中,triangle_idx表示[0,39]范围内的三角形分区索引;triangle_dir表示分区的方向(例如,对角或反对角分区模式);part_1_cand表示分区1的所选候选的索引,part_2_cand表示分区2的所选候选的索引。
表3:基于三角形索引推导出三角形方向和分区运动的查找表
triangle_idx 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
triangle_dir 0 1 1 0 0 1 1 1 0 0 0 0 1 0 0 0 0 1 1 1
Part_1_cand 1 0 0 0 2 0 0 1 3 4 0 1 1 0 0 1 1 1 1 2
Part_2_cand 0 1 2 1 0 3 4 0 0 0 2 2 2 4 3 3 4 4 3 1
triangle_idx 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39
triangle_dir 1 0 0 1 1 1 1 1 1 1 0 0 1 0 1 0 0 1 0 0
Part_1_cand 2 2 4 3 3 3 4 3 2 4 4 2 4 3 4 3 2 2 4 3
Part_2_cand 0 1 3 0 2 4 0 1 3 1 1 3 2 2 3 1 4 4 2 4
在使用相应运动信息对三角形分区进行预测之后,对两个预测信号进行混合以推导出对角线或反对角线边缘周围的样本,如图22所示,通过块(2210)的加权区域(weightedarea)和块(2220)的加权区域。混合过程根据两个分区之间的运动矢量差自适应地选择权重。
在示例中,使用两个加权因子组。第一加权因子组包括分别用于亮度样本的{7/8,6/8,4/8,2/8,1/8}和用于色度样本的{7/8,4/8,1/8}。第二加权因子组包括分别用于亮度样本的{7/8,6/8,5/8,4/8,3/8,2/8,1/8}和用于色度样本的{6/8,4/8,2/8}。
图20示出了根据本公开的一些实施例的使用第一加权因子组来推导出对CU的最终预测的示例。图20示出了亮度样本的加权因子(2010)和色度样本的加权因子(2020)。
图21示出了根据本公开的一些实施例的使用第二加权因子组来推导出对CU的最终预测的示例。图21示出了亮度样本的加权因子(2110)和色度样本的加权因子(2120)。
第二加权因子组具有更多的亮度权重,并且沿分区边缘混合更多的亮度样本。在一些示例中,当两个三角形分区的参考图片彼此不同时,或者当它们的运动矢量差大于16个亮度样本时,选择第二加权因子组;否则,选择第一加权因子组。
例如,对于亮度样本,P1是PU1的单向预测,P2是PU2的单向预测。以图20为示例,当加权因子被示为P1时,最终预测仅由PU1的单向预测来确定;当加权因子被示为P2时,最终预测仅由PU2的单向预测确定。当加权因子被示为数字时,该数字表示PU1的单向预测的权重。例如,当加权因子为2时,根据(等式3)计算最终预测;当加权因子为4时,根据(等式4)计算最终预测;当加权因子为7时,根据(等式5)计算最终预测:
Figure BDA0003162079160000291
Figure BDA0003162079160000292
Figure BDA0003162079160000293
在一些示例中,组合的帧间和帧内预测(CIIP,combined inter and intraprediction)是在VTM3中使用的另一工具。在VTM3中,当CU以合并模式编码时,且如果CU包括至少64个亮度样本(即,CU宽度乘以CU高度等于或大于64),则发信号通知附加标志以指示是否将组合的帧间/帧内预测(CIIP)模式应用于当前CU。
在一些实施例中,为了形成CIIP预测,首先从两个附加语法元素推导出帧内预测模式。可使用多达四种可能的帧内预测模式,例如DC、平面、水平或垂直。然后,使用常规的帧内和帧间解码处理来推导出帧间预测和帧内预测信号。最后,执行帧间和帧内预测信号的加权平均以获得CIIP预测。
在实施例中,可使用多达4个帧内预测模式(包括DC、平面、水平和垂直)来预测CIIP模式中的亮度分量。当CU形状非常宽(即,宽度大于高度的两倍)时,则不允许使用水平模式。当CU形状非常窄(即,高度大于宽度的两倍)时,则不允许使用垂直模式。在此种情况下,允许使用3个帧内预测模式。
在一些实施例中,CIIP模式使用3种最可能模式(MPM,most probable mode)进行帧内预测。可以如下形成CIIP MPM候选列表。
第一步骤中,形成CIIP MPM候选列表。在示例中,分别将左侧相邻块和顶部相邻块设置为A和B。
第二步骤中,形成CIIP MPM候选列表的。推导出块A和块B的帧内预测模式,分别表示为intraModeA和intraModeB。例如,设X为A或B。当1)块X不可用;或2)不使用CIIP模式或帧内模式来预测块X;3)块B在当前CTU之外时,将intraModeX设置为DC。否则,1)如果块X的帧内预测模式是DC或平面,则将intraModeX设置为DC或平面;或者2)如果块X的帧内预测模式是“类似垂直的”角度模式(大于34),则将intraModeX设置为垂直,或者3)如果块X的帧内预测模式是“类似水平的”角度模式(小于或等于34),则将intraModeX设置为水平。
在第三步骤中,当intraModeA和intraModeB相同时,如果intraModeA是平面或DC,则按该顺序将三个MPM设置为{平面,DC,垂直};否则,按该顺序将三个MPM设置为{intraModeA,平面,DC}。
在第三步骤中,当intraModeA和intraModeB不同时,按该顺序将前两个MPM设置为{intraModeA,intraModeB}。对于第三MPM,按该顺序相对于前两个MPM候选模式(例如,intraModeA和intraModeB)检查平面、DC和垂直的唯一性;并且一旦找到唯一模式,将该唯一模式添加为第三MPM。
在一些示例中,如上所定义,CU形状非常宽或非常窄(一侧大于另一侧的两倍),将MPM标志推断为1而无需发信号通知。否则,发信号通知MPM标志以指示CIIP帧内预测模式是否是CIIP MPM候选模式之一。
当MPM标志为1时,进一步发信号通知MPM索引以指示在CIIP帧内预测中使用MPM候选模式中的哪一者。否则,如果MPM标志为0,则在MPM候选列表中将帧内预测模式设置为“缺失”模式。例如,如果平面模式不在MPM候选列表中,则平面是缺失模式,并且将帧内预测模式设置为平面。由于在CIIP中允许4种可能的帧内预测模式,并且MPM候选列表仅包含3种帧内预测模式,因此可以将4种可能模式中的一种确定为缺失模式。
在示例中,对于色度分量,导出模式(DM,Derived Mode)模式总是在没有附加信令的情况下应用;即,色度使用与亮度相同的预测模式。
在一些示例中,CIIP编码的CU的帧内预测模式将被保存并用于未来相邻CU的帧内模式编解码。
在推导出帧间预测信号和帧内预测信号之后,组合帧间预测信号和帧内预测信号。例如,使用应用于常规合并模式的相同帧间预测处理来推导出CIIP模式中的帧间预测信号Pinter;并且在常规帧内预测处理之后使用CIIP帧内预测模式来推导出帧内预测信号Pintra。然后,使用加权平均来组合帧内和帧间预测信号。在一些示例中,权重值取决于帧内预测模式和样本在编解码块中的位置。在示例中,当帧内预测模式是DC或平面模式时,或者当块宽度或高度小于4时,则对帧内预测和帧间预测信号应用相等的权重。
在另一示例中,当帧内预测模式是水平模式或垂直模式时,基于帧内预测模式和块中的样本位置来确定权重。以水平预测模式为例(可以类似地但在正交方向上推导出垂直模式的权重),W表示块的宽度,H表示块的高度。编解码块首先被分割成四个等面积的部分,每个部分的尺寸为(W/4)xH。从最接近帧内预测参考样本的部分开始,并在最远离帧内预测参考样本的部分结束,将4个区域的每一者的权重wt分别设置为6、5、3和2。最终的CIIP预测信号是使用(等式6)导出的:
PCIIP=((8-wt)×Pinter+wt×Pintra+4)>>3 (等式6)
在一些实施例中,在帧间预测中使用广义双向预测(GBi)。利用GBi,双向预测Pbi-pred是使用(等式7)生成的,其中对于已编码的编解码单元(CU),发信号通知一个加权参数,其中,P0和P1分别是使用列表-0(L0)和列表-1(L1)中的参考图片的运动补偿预测。在示例中,w是用于以1/8精度表示的列表-1预测的加权参数。
Pbi-pred=((8-w)×P0+w×P1+4)>>3 (等式7)
在示例性GBi设计中,存在可用于低延迟图片的5个权重{-2/8,3/8,4/8,5/8,10/8}和用于非低延迟图片的3个权重{3/8,4/8,5/8}。在帧间预测模式中,如果使用双向预测且CU面积小于128个亮度样本,则在无任何信令的情况下禁用GBi。
GBi权重由率失真(RD,rate distortion)成本确定,并且权重检查顺序在编码器处为{4/8,-2/8,10/8,3/8,5/8}。
对于高级运动矢量预测(AMVP,advanced motion vector prediction)模式,如果通过双向预测对该CU进行编码,则在CU级别显式地发信号通知GBi中的权重选择。如果使用双向预测且CU面积小于256个亮度样本,则在无任何信令的情况下禁用GBi。
对于来自空间候选的帧间合并模式和模型继承仿射合并模式,从合并候选继承权重选择(GBi索引)。对于其它合并类型,诸如时间合并候选,HMVP候选、SbTMVP候选、基于构建控制点的仿射合并候选、成对平均合并候选等,不继承GBi索引,并且使用1/2(或4/8)的默认权重。
根据本公开的一方面,用于双向预测的对称MVD模式可用于视频编解码器中。在对称MVD模式中,不发信号通知而是推导出某些运动信息,诸如列表-0和列表-1两者的参考图片索引以及列表-1的MVD。在一些示例中,当应用对称MVD模式时,禁用双向光流(BDOF,bi-directional optical flow)。
在一些示例中,对称MVD模式的解码包括若干步骤,诸如以下描述中的三个步骤。
在第一步骤中,在条带(slice)级别处,推导出若干相关变量,诸如BiDirPredFlag、RefIdxSymL0和RefIdxSymL1。例如,当mvd_l1_zero_flag为1时,将BiDirPredFlag设置为等于0。当mvd_l1_zero_flag为零,且列表-0中的最近参考图片和列表-1中的最近参考图片形成前向和后向参考图片对或后向和前向参考图片对时,将BiDirPredFlag设置为1;否则,将BiDirPredFlag设置为0。
在第二步骤中,在CU级别处,当CU经双向预测编码且BiDirPredFlag等于1时,显式地发信号通知指示是否使用对称模式的对称模式标志。
当对称模式标志为真时,在一些实施例中,仅显式地发信号通知mvp_l0_flag、mvp_l1_flag和MVD0。将列表-0和列表-1的参考索引分别设置为等于参考图片对。将MVD1设置为等于(-MVD0)。最终的运动矢量可以表示为(等式8):
Figure BDA0003162079160000331
在第三步骤中,当对称模式标志为真时,在一个示例中,不将BDOF应用(例如,禁用)到预测以降低的复杂度。
图23示出了根据本公开的一些实施例的对称MVD的示意图。图23示出了当前图片、与当前图片具有相同距离(POC差)的位于当前图片的对侧上的列表-0参考图片和列表-1参考图片。用于列表-0参考图片的运动矢量差由MVD0表示,并且用于列表-1参考图片的运动矢量差由MVD1表示。在图23示例中,MVD0和MVD1具有相同长度,但方向相反。
在一些实施例中,在编码器侧,对称MVD运动估计以初始MV评估开始。一组初始MV候选包括从单向预测搜索获得的MV、从双向预测搜索获得的MV和来自AMVP列表的MV。然后,选择具有最低率失真(RD)成本的那个作为用于对称MVD运动搜索的初始MV。
根据本公开的一些方面,当启用对称MVD(SMVD,symmetric MVD)模式时,还可启用广义双向预测(GBi,Generalized Bi-prediction)。这两个编解码工具(SMVD和GBi)可能具有性能重叠,并且可能不需要无条件地启用这两个编解码工具。
本公开的各方面提供修改视频编解码器的解码过程的技术和方法,使得可有条件地启用/禁用对称MVD(SMVD)模式和广义双向预测(GBi)模式。例如,SMVD模式和GBi模式中,基于一个模式的信息,启用/禁用SMVD模式和GBi模式其中的另一个,并且SMVD模式和GBi模式其中之一模式的一些参数可以基于另一个模式的信息来确定。所提出的方法可以单独使用或以任何顺序组合使用。此外,方法(或实施例)、编码器和解码器中的每一者可由处理电路(例如,至少一个处理器或至少一个集成电路)实施。在一个示例中,至少一个处理器执行存储在非易失性计算机可读介质中的程序。在下文中,术语块可被解释为预测块、编解码块或编解码单元,即CU。
根据本公开的一方面,在块级别处,SMVD的信令在GBi的信令之前,并且GBi索引可以根据对称MVD模式的使用而有条件地进行设置。在另一实施例中。
在一个实施例中,当针对当前块启用对称MVD模式且发信号通知对称MVD模式的使用标志为真(意味着将使用SMVD模式)时,不发信号通知GBi索引且将其推断为预定义默认值,诸如加权1/2。否则(对于当前块当发信号通知对称MVD使用标志为假,或者禁用对称MVD模式时),显式地发信号通知GBi索引。
在另一实施例中,对于当前块当启用对称MVD模式且发信号通知对称MVD标志为真时,显式地发信号通知GBi索引,但允许的GBi索引值被限制为最初允许的GBi索引值的子集。例如,仅允许两个GBi索引。从而可以减少发信号通知GBi索引所需的二进制位数。例如,当权重的全集包括3个不同的权重时,使用2个二进制位来编码GBi索引;当权重的全集包括5个不同的权重时,GBi索引使用3个二进制位。当允许两个权重时,可以使用1个二进制位来指示所选择的权重。注意,所允许的GBi索引的数量可以不受上述示例的限制。
在另一实施例中,对于当前块,当启用对称MVD模式且发信号通知对称MVD标志为真且L0和L1两者的MVD均为零矢量时,则可显式地发信号通知当前块的GBi索引。
根据本公开的另一方面,在块级别处SMVD的信令在GBi的信令之后,可以根据GBi的使用或GBi索引的值来有条件地设置对称MVD模式的使用。
在一个实施例中,当禁用GBi(或使用加权1/2)时,可以启用对称MVD。否则,如果启用GBi且GBi的权重不是1/2,则可以禁用SMVD,或者可以推断SMVD使用标志为假。
在另一实施例中,当启用GBi且当前块的GBi索引对应于当前块的的默认加权(1/2)时,可以启用对称MVD模式。此外,在示例中,可以通过SMVD使用标志从编码器向解码器侧发信号通知SMVD的使用。然后,解码器可以从接收到的视频码流对SMVD信息进行解码。
在另一实施例中,当启用GBi且当前块的GBi索引对应于加权且该加权不同于当前块的的默认加权(1/2)时,则可禁用对称MVD模式。在示例中,从编码器侧向解码器侧没有发信号通知使用标志。在解码器侧,解码器可以基于GBi模式的信息(例如,权重不是1/2)推断SMVD的使用标志为假。
图24示出了概述根据本公开的实施例的方法(2400)的流程图。该方法(2400)可以用于以帧间模式编码的块的重建,从而为重建中的块生成预测块。在各种实施例中,方法(2400)由处理电路执行,诸如,终端设备(210)、(220)、(230)和(240)中的处理电路,执行视频编码器(303)的功能的处理电路,执行视频解码器(310)的功能的处理电路,执行视频解码器(410)的功能的处理电路,执行视频编码器(503)的功能的处理电路,等等。在一些实施例中,方法(2400)以软件指令实现,因此当处理电路执行这些软件指令时,处理电路执行方法(2400)。该方法开始于(S2401)并进行到(S2410)。
在(S2410)处,从已编码视频码流对当前块的预测信息进行解码。预测信息指示用于帧间预测的第一双向预测模式的使用。
在(S2420)处,基于第一双向预测模式的使用确定第二双向预测模式的参数。
在实施例中,第一双向预测模式是对称运动矢量差(SMVD)模式,且第二双向预测模式是广义双向预测(GBi)模式。在示例中,当SMVD模式用于当前块时,可以将GBi索引推断为预定值。在另一示例中,使用较短的比特数对权重的GBi索引进行编码。在使用SMVD的情况下的潜在权重是GBi模式的全权重的子集,则在示例中可以使用较少的比特数。
在另一实施例中,第一双向预测模式是广义双向预测(GBi)模式,且第二双向预测模式是对称运动矢量差(SMVD)模式。在示例中,当在GBi模式中使用的权重不是1/2时,禁用SMVD模式或者推断SMVD模式的使用标志为假。当在GBi模式中使用的权重为1/2,或者禁用GBi模式时,启用SMVD模式,并且可以从已编码视频码流中对SMVD模式的使用标志进行解码。
在(S2430)处,基于第一双向预测模式和确定的第二双向预测模式的参数重建当前块的样本。然后,方法进行到(S2499),并终止。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图25示出了计算机系统(2500),其适于实现所公开主题的某些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图25所示的用于计算机系统(2500)的组件本质上是示例性的,并不用于对实现本申请实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统(2500)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统(2500)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或多个(仅绘出其中一个):键盘(2501)、鼠标(2502)、触控板(2503)、触摸屏(2510)、数据手套(未示出)、操纵杆(2505)、麦克风(2506)、扫描仪(2507)、照相机(2508)。
计算机系统(2500)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(2510)、数据手套(未示出)或操纵杆(2505)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(2509)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(2510),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统(2500)还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)(2520)或类似介质(2521)的光学介质、拇指驱动器(2522)、可移动硬盘驱动器或固体状态驱动器(2523),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(2500)还可以包括通往一个或多个通信网络的接口。所述网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络的示例可以包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(2549)(例如,计算机系统(2500)的USB端口);其它系统通常通过连接到如下所述的系统总线集成到计算机系统(2500)的核心(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(2500)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统(2500)的核心(2540)。
核心(2540)可包括一个或多个中央处理单元(CPU)(2541)、图形处理单元(GPU)(2542)、以现场可编程门阵列(FPGA)(2543)形式的专用可编程处理单元、用于特定任务的硬件加速器(2544)等。这些设备以及只读存储器(ROM)(2545)、随机存取存储器(2546)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)(2547)等可通过系统总线(2548)进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(2548),以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线(2548),或通过外围总线(2549)进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(2541)、GPU(2542)、FPGA(2543)和加速器(2544)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(2545)或RAM(2546)中。过渡数据也可以存储在RAM(2546)中,而永久数据可以存储在例如内部大容量存储器(2547)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或多个CPU(2541)、GPU(2542)、大容量存储器(2547)、ROM(2545)、RAM(2546)等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构(2500)的计算机系统,特别是核心(2540),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在一个或多个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心(2540)的特定存储器,例如核心内部大容量存储器(2547)或ROM(2545)。实现本申请的各种实施例的软件可以存储在这种设备中并且由核心(2540)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心(2540)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(2546)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(2544))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录:首字母缩略词
JEM:联合开发模型
VVC:下一代视频编码
BMS:基准集合
MV:运动向量HEVC:高效视频编码SEI:补充增强信息VUI:视频可用性信息
GOPs:图片组
TUs:变换单元
PUs:预测单元
CTUs:编码树单元CTBs:编码树块PBs:预测块
HRD:假设参考解码器SNR:信噪比CPUs:中央处理单元
GPUs:图形处理单元
CRT:阴极射线管
LCD:液晶显示OLED:有机发光二极管
CD:光盘
DVD:数字化视频光盘
ROM:只读存储器
RAM:随机存取存储器ASIC:专用集成电路PLD:可编程逻辑设备
LAN:局域网
GSM:全球移动通信系统
LTE:长期演进
CANBus:控制器局域网总线USB:通用串行总线
PCI:外围设备互连
FPGA:现场可编程门阵列
SSD:固态驱动器
IC:集成电路
CU:编码单元
虽然本申请已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。

Claims (20)

1.一种用于在解码器中进行视频解码的方法,其特征在于,包括:
从已编码视频码流中对当前块的预测信息进行解码,所述预测信息用于指示针对帧间预测的第一双向预测模式的使用;
基于针对所述帧间预测的所述第一双向预测模式的所述使用确定第二双向预测模式的参数;以及
根据所述第一双向预测模式以及确定的所述第二双向预测模式的参数重建所述当前块的样本。
2.根据权利要求1所述的方法,其特征在于,所述第一双向预测模式是对称运动矢量差SMVD模式,并且所述第二双向预测模式是广义双向预测GBi模式。
3.根据权利要求2所述的方法,其特征在于,进一步包括:
当所述SMVD模式用于所述当前块时,将GBi索引推断为预定值。
4.根据权利要求2所述的方法,其特征在于,进一步包括:
用第一比特数对第一GBi索引进行解码,所述第一比特数短于用于对GBi权重的全集的索引进行编码的第二比特数,所述第一比特数用于对所述GBi权重的子集的索引进行编码。
5.根据权利要求4所述的方法,其特征在于,进一步包括:
当所述SMVD模式中的运动矢量差为零时,用所述第二比特数对第二GBi索引进行解码,所述第二比特数用于对GBi权重的所述全集的所述索引进行编码。
6.根据权利要求1所述的方法,其特征在于,所述第一双向预测模式是广义双向预测GBi模式,并且所述第二双向预测模式是对称运动矢量差SMVD模式。
7.根据权利要求6所述的方法,其特征在于,进一步包括以下各项中的至少一者:
当在所述GBi模式中使用的所述权重不是1/2时,禁用所述SMVD模式;
当在所述GBi模式中使用的所述权重不是1/2时,推断所述SMVD模式的使用标志为假。
8.根据权利要求6所述的方法,其特征在于,进一步包括以下各项中的至少一者:
当在所述GBi模式中使用的权重为1/2时,启用所述SMVD模式;
当禁用所述GBi模式时,启用所述SMVD模式。
9.根据权利要求8所述的方法,其特征在于,进一步包括:
当启用所述SMVD模式时,从所述已编码视频码流对所述SMVD模式的使用标志进行解码。
10.一种视频解码的装置,其特征在于,包括:
处理电路,被配置为:
从已编码视频码流中对当前块的预测信息进行解码,所述预测信息用于指示针对帧间预测的第一双向预测模式的使用;
基于针对所述帧间预测的所述第一双向预测模式的所述使用确定第二双向预测模式的参数;以及
根据所述第一双向预测模式以及确定的所述第二双向预测模式的参数重建所述当前块的样本。
11.根据权利要求10所述的装置,其特征在于,所述第一双向预测模式是对称运动矢量差SMVD模式,并且所述第二双向预测模式是广义双向预测GBi模式。
12.根据权利要求11所述的装置,其特征在于,所述处理电路被配置为:
当所述SMVD模式用于所述当前块时,将GBi索引推断为预定值。
13.根据权利要求11所述的装置,其特征在于,所述处理电路被配置为:
用第一比特数对第一GBi索引进行解码,所述第一比特数短于用于对GBi权重的全集的索引进行编码的第二比特数,所述第一比特数用于对所述GBi权重的子集的索引进行编码。
14.根据权利要求13所述的装置,其特征在于,所述处理电路被配置为:
当所述SMVD模式中的运动矢量差为零时,用所述第二比特数对第二GBi索引进行解码,所述第二比特数用于对GBi权重的所述全集的所述索引进行编码。
15.根据权利要求10所述的装置,其特征在于,所述第一双向预测模式是广义双向预测GBi模式,并且所述第二双向预测模式是对称运动矢量差SMVD模式。
16.根据权利要求15所述的装置,其特征在于,所述处理电路被配置为执行以下各项中的至少一者:
当在所述GBi模式中使用的所述权重不是1/2时,禁用所述SMVD模式;
当在所述GBi模式中使用的所述权重不是1/2时,推断所述SMVD模式的使用标志为假。
17.根据权利要求15所述的装置,其特征在于,所述处理电路被配置为:
当在所述GBi模式中使用的权重为1/2或当禁用所述GBi模式时,启用所述SMVD模式。
18.根据权利要求17所述的装置,其特征在于,所述处理电路被配置为:
当启用所述SMVD模式时,从所述已编码视频码流对所述SMVD模式的使用标志进行解码。
19.一种存储指令的非易失性计算机可读介质,其特征在于,所述指令在由用于视频解码的计算机执行时使所述计算机执行:
从已编码视频码流中对当前块的预测信息进行解码,所述预测信息用于指示针对帧间预测的第一双向预测模式的使用;
基于针对所述帧间预测的所述第一双向预测模式的所述使用确定第二双向预测模式的参数;以及
根据所述第一双向预测模式以及确定的所述第二双向预测模式的参数重建所述当前块的样本。
20.根据权利要求19所述的非易失性计算机可读介质,其特征在于,所述第一双向预测模式和所述第二双向预测模式是对称运动矢量差SMVD模式和广义双向预测GBi模式。
CN202080009190.7A 2019-01-25 2020-01-24 视频编解码的方法、装置及存储介质 Active CN113302932B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962797152P 2019-01-25 2019-01-25
US62/797,152 2019-01-25
US16/750,947 US11025936B2 (en) 2019-01-25 2020-01-23 Method and apparatus for video coding
US16/750,947 2020-01-23
PCT/US2020/014984 WO2020154615A1 (en) 2019-01-25 2020-01-24 Method and apparatus for video coding

Publications (2)

Publication Number Publication Date
CN113302932A true CN113302932A (zh) 2021-08-24
CN113302932B CN113302932B (zh) 2023-10-03

Family

ID=71731783

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080009190.7A Active CN113302932B (zh) 2019-01-25 2020-01-24 视频编解码的方法、装置及存储介质

Country Status (4)

Country Link
US (1) US11025936B2 (zh)
EP (1) EP3915260A4 (zh)
CN (1) CN113302932B (zh)
WO (1) WO2020154615A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220094911A1 (en) * 2019-06-25 2022-03-24 Zhejiang Dahua Technology Co., Ltd. Systems and methods for inter-frame prediction
US12028512B2 (en) * 2019-06-25 2024-07-02 Zhejiang Dahua Technology Co., Ltd. Systems and methods for inter-frame prediction

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144908A1 (en) * 2018-01-26 2019-08-01 Mediatek Inc. Method and apparatus of affine inter prediction for video coding system
CN113383548A (zh) * 2019-02-03 2021-09-10 北京字节跳动网络技术有限公司 Mv精度和mv差编解码之间的相互作用
CN116915983B (zh) * 2019-02-20 2024-04-16 北京达佳互联信息技术有限公司 用于视频解码的方法、计算设备、存储介质和程序产品
US11122260B2 (en) * 2019-02-22 2021-09-14 Mediatek Inc. Method and apparatus of Merge list generation for Intra Block Copy mode
JP7477066B2 (ja) * 2019-03-04 2024-05-01 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Ibcマージリストを使用するエンコーダ、デコーダ、及び対応する方法
WO2020185429A1 (en) * 2019-03-11 2020-09-17 Alibaba Group Holding Limited Method, device, and system for determining prediction weight for merge mode
JP7303330B2 (ja) * 2019-04-28 2023-07-04 北京字節跳動網絡技術有限公司 対称動きベクトル差分符号化
EP3977741A4 (en) * 2019-05-30 2023-05-24 Beijing Dajia Internet Information Technology Co., Ltd. SYMMETRICAL MOTION VECTOR DIFFERENCE MODE SIGNALING METHODS AND APPARATUS
CN112004091B (zh) * 2020-07-31 2021-08-03 浙江大华技术股份有限公司 帧间预测方法及其相关装置
US11582474B2 (en) 2020-08-03 2023-02-14 Alibaba Group Holding Limited Systems and methods for bi-directional gradient correction
US11863774B2 (en) 2021-01-15 2024-01-02 Tencent America LLC Method and apparatus for video coding
US20220360769A1 (en) * 2021-04-26 2022-11-10 Tencent America LLC Bi-prediction without signaling cu-level weights
US11917165B2 (en) * 2021-08-16 2024-02-27 Tencent America LLC MMVD signaling improvement

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018175720A1 (en) * 2017-03-22 2018-09-27 Qualcomm Incorporated Constraining motion vector information derived by decoder-side motion vector derivation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018172609A2 (en) 2017-03-21 2018-09-27 Nokia Technologies Oy Motion compensation in video encoding and decoding
US20180332298A1 (en) 2017-05-10 2018-11-15 Futurewei Technologies, Inc. Bidirectional Prediction In Video Compression
WO2020003262A1 (en) 2018-06-30 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Symmetric bi-prediction mode for video coding
IL284179B2 (en) * 2018-12-21 2024-06-01 Vid Scale Inc Differential coding of a symmetric motion vector
KR20240000610A (ko) * 2019-01-15 2024-01-02 로즈데일 다이나믹스 엘엘씨 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018175720A1 (en) * 2017-03-22 2018-09-27 Qualcomm Incorporated Constraining motion vector information derived by decoder-side motion vector derivation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LUO (INTERDIGITAL) J等: "CE4-related: Simplified symmetric MVD based on CE4.4.3, JVET-M0444", pages 1, Retrieved from the Internet <URL:http://phenix.int-evry.fr/jvet/doc_end_user/documents/13_Marrakech/wg11/JVET-M0444-v4.zip JVET-M0444.docx> *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220094911A1 (en) * 2019-06-25 2022-03-24 Zhejiang Dahua Technology Co., Ltd. Systems and methods for inter-frame prediction
US12028512B2 (en) * 2019-06-25 2024-07-02 Zhejiang Dahua Technology Co., Ltd. Systems and methods for inter-frame prediction

Also Published As

Publication number Publication date
US20200244979A1 (en) 2020-07-30
WO2020154615A1 (en) 2020-07-30
CN113302932B (zh) 2023-10-03
EP3915260A1 (en) 2021-12-01
US11025936B2 (en) 2021-06-01
EP3915260A4 (en) 2023-01-25

Similar Documents

Publication Publication Date Title
CN113287307B (zh) 视频解码的方法和装置、计算机设备及介质
CN113302932B (zh) 视频编解码的方法、装置及存储介质
JP7171925B2 (ja) ビデオデコードおよびエンコード方法、プログラム、および装置
CN113261298A (zh) 用于视频编码的方法和装置
CN113545042A (zh) 三角预测中的合并列表构建
CN113545083A (zh) 视频编解码的方法和装置
CN110944202A (zh) 视频编解码方法、装置、计算机设备和存储介质
CN112235581B (zh) 视频解码方法、装置、存储介质及电子设备
CN113519159B (zh) 视频编解码的方法和装置
CN110971902B (zh) 视频解码的方法和装置、计算机设备
CN112806002A (zh) 用信号通知用于跳过和合并模式的多假设的方法和装置、以及用信号通知具有运动矢量差的合并中的距离偏移表的方法和装置
JP7130882B2 (ja) 映像コーディングのための方法、装置、及びコンピュータプログラム
KR102572104B1 (ko) 비디오 코딩을 위한 방법 및 장치
CN113383545A (zh) 视频编解码的方法和装置
CN113875234A (zh) 视频编解码的方法和装置
CN113196745B (zh) 视频编解码的方法和装置
CN113615192A (zh) 访问仿射基于历史的运动矢量预测值缓冲器的方法
CN111316639A (zh) 用于子块运动矢量预测的方法和装置
CN113545084A (zh) 用于帧内图片块补偿的统一块矢量预测
JP7222095B2 (ja) 小サブブロックを用いたアフィンインター予測のための方法および装置並びにコンピュータプログラム
CN113287315B (zh) 视频编解码的方法、装置及存储介质
CN114762333A (zh) 视频编解码的方法和装置
CN113841412A (zh) 基于cu的插值滤波器选择的信令
CN113678434A (zh) 视频编解码的方法和装置
CN113545062A (zh) 图片边界的共享合并区域中的时间运动矢量推导

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40052000

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant