CN113287308B - 视频编解码方法及装置 - Google Patents

视频编解码方法及装置 Download PDF

Info

Publication number
CN113287308B
CN113287308B CN202080007912.5A CN202080007912A CN113287308B CN 113287308 B CN113287308 B CN 113287308B CN 202080007912 A CN202080007912 A CN 202080007912A CN 113287308 B CN113287308 B CN 113287308B
Authority
CN
China
Prior art keywords
merge
inter
block
motion information
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080007912.5A
Other languages
English (en)
Other versions
CN113287308A (zh
Inventor
李贵春
许晓中
李翔
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Priority to CN202210522263.3A priority Critical patent/CN115002483A/zh
Publication of CN113287308A publication Critical patent/CN113287308A/zh
Application granted granted Critical
Publication of CN113287308B publication Critical patent/CN113287308B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本文描述了一种视频编解码方法及装置。可以接收合并共享区域,合并共享区域包括多个编码块。为合并共享区域构造共享合并候选列表。基于共享合并候选列表对合并共享区域进行解码。对合并共享区域内的至少一个利用帧间编码的编码块进行处理,同时不利用该至少一个帧间编码块的运动信息更新基于历史的运动矢量预测(history‑based motion vector prediction,HMVP)表。

Description

视频编解码方法及装置
相关文件
本申请要求2019年1月17日提交的第62/793,872号美国临时申请案“使用共享合并列表时HMVP缓充器更新方法(Method of HMVP Buffer Update When Shared MergeList Is Used)”的优先权、2020年1月16日递交的第16/744,938号美国申请案“视频编解码方法及装置(Method and Apparatus for Video Coding)”的优先权,所述申请以全文引用方式并入本申请。
技术领域
本公开实施例涉及视频编解码领域。
背景技术
本文提供的背景描述是为了呈现本申请的背景。记名的发明人的工作,在该背景部分描述的工作以及本说明书各实施例的范围内的内容,在递交时可能并不算作现有技术,均未被明示或暗示地承认作为不利于本申请的现有技术。
目前,可使用帧间图像预测结合运动补偿来执行视频编码和解码。未压缩的数字视频通常包括一系列图像。例如,每个图像具有1920×1080分辨率的亮度采样和相关的色度采样。所述一系列图像可具有例如每秒60个图像或60Hz的固定或可变图像速率(也被称作帧率)。因此,未压缩视频具有显著的位速率要求。举例来说,每采样8位的1080p604:2:0视频(60Hz帧率下的1920×1080亮度采样分辨率)需要接近1.5Gbit/s的带宽。长度为一小时的此类视频需要超过600GB的存储空间。
视频编码和解码的一个目的可以是通过压缩来减少输入视频信号中的冗余。压缩有助于降低上述带宽或存储空间要求,在一些情况下可降低两个数量级或更多。通常情况下,可使用无损压缩和有损压缩以及其组合。无损压缩是指可从压缩的原始信号重建原始信号的精确副本的技术。当使用有损压缩时,重建的信号可能与原始信号不同,但原始信号与重建的信号之间的失真很小,因而重建的信号能够实现所期望的用途。视频领域中广泛采用有损压缩。容许的失真量因不同应用而异。例如,消费型直播应用的用户比电视节目应用的用户能容忍更高的失真。可实现的压缩比可反映出:可允许的/可容许的失真越高,可产生的压缩比越高。
运动补偿可以是有损压缩技术,且可关联以下技术:对于来自先前已重建的图像或其中一部分(参考图像)的样本数据块,在由运动矢量(motion vector,MV)指示的方向上发生空间偏移之后,可用于预测新重建的图像或图像的一部分。在一些情况下,参考图像可与当前正在重建的图像相同。各个MV可具有两个维度X和Y,或三个维度,第三维度指示正在使用的参考图像(间接地,第三维度还可以是时间维度)。
在一些视频压缩技术中,可根据其它MV预测适用于某一样本数据区域的MV,所述其它MV例如是,与正在重建的区域空间相邻近的另一样本数据区域相关、且解码次序是在所述某一样本数据区域的MV之前。如此,可极大减少对MV进行编码所需的数据量,由此消除冗余且提高压缩。举例来说,当对来自相机的输入视频信号(称为原始视频)进行编码时,存在如下的统计可能性:比单个MV区域更大的多个区域会在相似的方向上移动,因此,在一些情况下,可使用从相邻区域的MV提取的相似运动矢量进行预测,因此,MV预测非常有效。采用这种方式,使得针对给定区域确定的MV与根据周围MV预测的MV类似或相同,且在熵编码之后,表示MV的位数小于在对MV直接编码的情况下所使用的位数。在一些情况下,MV预测可以是针对从原始信号(即:样本流)提取的信号(即:MV)进行无损压缩的实施例。在其它情况下,MV预测本身可能是有损的,例如,在根据周围若干MV计算预测值时,由于化整误差导致的有损。
H.265/HEVC(ITU-T H.265建议书,“高效视频编解码(High Efficiency VideoCoding)”,2016年12月)中描述了各种MV预测机制。在H.265提供的多种MV预测机制中,本申请描述的是下文称作“空间合并”的技术。
请参考图1,当前块(101)包括在运动搜索过程期间已由编码器发现的样本,根据已产生空间偏移的相同大小的先前块,可预测所述样本。另外,可从一个或多个参考图像相关联的元数据中导出所述MV,而非对MV直接编码。例如,使用关联于A0、A1和B0、B1、B2(分别对应102到106)五个周围样本中的任一样本的MV,(按解码次序)从最近的参考图像的元数据中导出所述MV。在H.265中,MV预测可使用相邻块也正在使用的相同参考图像的预测值。
发明内容
本公开的各实施例提供了一种用于视频解码器进行视频解码的方法。可以接收合并共享区域,合并共享区域包括多个编码块。为合并共享区域构造共享合并候选列表。基于共享合并候选列表对合并共享区域进行解码。对合并共享区域内的至少一个利用帧间编码的编码块(以下简称为帧间编码块)进行处理,同时不利用该至少一个帧间编码块的运动信息更新基于历史的运动矢量预测(history-based motion vector prediction,HMVP)表。
一个实施例中,对合并共享区域中的所有帧间编码块进行处理,同时不利用其中任何帧间编码块的运动信息来更新HMVP表。一个实施例中,对合并共享区域内的以合并模式或跳过模式进行帧间编码的一个或多个编码块进行处理,同时不使用该一个或多个编码块的运动信息来更新HMVP表。一个实施例中,对合并共享区域内的一个或多个如下编码块进行处理、且不使用该一个或多个编码块的运动信息更新HMVP表:(i)使用共享合并候选列表中的合并候选作为的运动信息进行帧间编码的编码块,或(ii)使用基于共享合并候选列表中的合并候选确定的运动信息进行帧间编码的编码块。一个实施例中,对合并共享区域内的根据共享合并候选列表进行编码的一个或多个编码块进行处理,同时不使用该一个或多个编码块的运动信息来更新HMVP表。
一个实施例中,对合并共享区域内的一个或多个帧间编码块进行处理,若该帧间编码块的帧间编码使用共享合并候选列表中的合并候选作为该一个或多个编码块的运动信息,则不利用该一个或多个编码块的运动信息更新HMVP表。
一个实施例中,使用合并共享区域内按照解码顺序的第一个帧间编码块的运动信息更新HMVP表,并且对合并共享区域内的其他帧间编码块进行处理时,不使用该其他帧间编码块的运动信息更新HMVP表。一个实施例中,使用合并共享区域内按照解码顺序的最后一个帧间编码块的运动信息更新HMVP缓冲区,并且对合并共享区域内的其他帧间编码块进行处理时,不使用其他帧间编码块的运动信息更新HMVP缓冲区。
本公开的各实施例提供了一种视频解码的装置。该装置可以包括电路,用于接收合并共享区域,该合并共享区域包括多个编码块。该电路可以进一步用于为合并共享区域构造共享合并候选列表,并且基于共享合并候选列表对合并共享区域进行解码。对合并共享区域内的至少一个帧间编码块进行处理,同时不使用至少一个帧间编码块的运动信息来更新HMVP表。
本公开的各实施例还提供了一种非易失性计算机可读介质,存储有指令,该指令可由用于视频解码的计算机执行,以使该计算机执行本文的视频解码的方法。
附图说明
为使所公开主题的特征、原理和各种优势更清楚,以下对说明书和附图进行详细描述。附图中:
图1是一个实施例的当前块及其周围的空间合并候选的示意图。
图2是一个实施例的通信系统的简化示意框图。
图3是一个实施例的通信系统的简化示意框图。
图4是一个实施例的解码器的简化示意框图。
图5是一个实施例的编码器的简化示意框图。
图6是另一实施例的编码器的示意框图。
图7是另一实施例的解码器的示意框图。
图8是一个实施例的合并模式的合并后续位置的示意图。
图9是一个实施例的当前块的空间相邻块和时间相邻块的示意图。
图10A是一个实施例的空间相邻块的示意图,可使用基于子块的时间运动矢量预测方法根据该空间相邻块的运动信息确定当前块的预测信息。
图10B是一个实施例的为基于子块的时间运动矢量预测方法所选择的空间相邻块的示意图。
图11A是一个实施例的使用基于历史的运动矢量预测方法创建并更新候选运动信息列表的过程的概要流程图。
图11B是一个实施例的使用基于历史的运动矢量预测方法更新候选预测信息的示意图。
图12是一个实施例的带有运动矢量差的合并(merge with motion vectordifference,MMVD)模式下基于合并候选的运动矢量确定与两个参考图像列表关联的两个参考图像的起始点的示意图。
图13是一个实施例的MMVD模式下待评估的两个起始点周围的预先确定的点的示意图。
图14A-14B是一个实施例的合并共享区域的一些示例。
图15是一些实施例的可用于对合并共享区域中的子块进行编码或解码的帧间预测模式的列表。
图16是一些实施例的对合并共享区域进行解码的视频解码过程的概要流程图。
图17是一个实施例的计算机系统的示意图。
具体实施方式
I.用于视频编解码的编码器和解码器
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200)包括多个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的第一终端装置(210)和第二终端装置(220)。在图2的实施例中,第一终端装置(210)和第二终端装置(220)执行单向数据传输。举例来说,第一终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图像流)进行编码以通过网络(250)传输到第二端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。第二终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图像。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的第三终端装置(230)和第四终端装置(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,第三终端装置(230)和第四终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图像流)进行编码,以通过网络(250)传输到第三终端装置(230)和第四终端装置(240)中的另一终端装置。第三终端装置(230)和第四终端装置(240)中的每个终端装置还可接收由第三终端装置(230)和第四终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图像。
在图2的实施例中,第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本申请的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图像流(302)。在实施例中,视频图像流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图像流(302)被描绘为粗线以强调高数据量的视频图像流,视频图像流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图像流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图像流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图像群组(Group of Pictures,GOP)、图像、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图像或一部分已编码视频图像(例如:帧间图像和帧内图像、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图像的预测性信息,但可使用来自当前图像的先前重建部分的预测性信息的块。此类预测性信息可由帧内图像预测单元(452)提供。在一些情况下,帧内图像预测单元(452)采用从当前图像缓冲区(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图像缓冲区(458)缓冲部分重建的当前图像和/或完全重建的当前图像。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图像存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图像存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图像分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图像存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图像或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图像存储器(457),以用于后续的帧间图像预测。
一旦完全重建,某些已编码图像就可用作参考图像以用于将来预测。举例来说,一旦对应于当前图像的已编码图像被完全重建,且已编码图像(通过例如解析器(420))被识别为参考图像,则当前图像缓冲区(458)可变为参考图像存储器(457)的一部分,且可在开始重建后续已编码图像之前重新分配新的当前图像缓冲区。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图像大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图像大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲区管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图像、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图像,当按顺序观看时,这些图像被赋予运动。图像自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图像编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图像跳过、量化器、率失真优化技术的λ值等)、图像大小、图像群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图像和参考图像创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图像存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图像存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图像样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图像同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图像”的一个或多个先前已编码图像,所述运动补偿预测编码对输入图像进行预测性编码。以此方式,编码引擎(532)对输入图像的像素块与参考图像的像素块之间的差异进行编码,所述参考图像可被选作所述输入图像的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图像的图像的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图像执行,且可使重建的参考图像存储在参考图像高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图像的副本,所述副本与将由远端视频解码器获得的重建参考图像具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图像,预测器(535)可在参考图像存储器(534)中搜索可作为所述新图像的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图像运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图像可具有从参考图像存储器(534)中存储的多个参考图像取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图像分配某一已编码图像类型,但这可能影响可应用于相应的图像的编码技术。例如,通常可将图像分配为以下任一种图像类型:
帧内图像(I图像),其可以是不将序列中的任何其它图像用作预测源就可被编码和解码的图像。一些视频编解码器容许不同类型的帧内图像,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图像。所属领域的技术人员了解I图像的变体及其相应的应用和特征。
预测性图像(P图像),其可以是可使用帧内预测或帧间预测进行编码和解码的图像,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图像(B图像),其可以是可使用帧内预测或帧间预测进行编码和解码的图像,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图像可使用多于两个参考图像和相关联元数据以用于重建单个块。
源图像通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图像的编码分配来确定所述其它块。举例来说,I图像的块可进行非预测编码,或所述块可参考同一图像的已经编码的块来进行预测编码(空间预测或帧内预测)。P图像的像素块可参考一个先前编码的参考图像通过空间预测或通过时域预测进行预测编码。B图像的块可参考一个或两个先前编码的参考图像通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图像和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图像(视频图像)。帧内图像预测(常常简化为帧内预测)利用给定图像中的空间相关性,而帧间图像预测则利用图像之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图像分割成块,正在编码/解码的特定图像被称作当前图像。在当前图像中的块类似于视频中先前已编码且仍被缓冲的参考图像中的参考块时,可通过称作运动矢量的矢量对当前图像中的块进行编码。所述运动矢量指向参考图像中的参考块,且在使用多个参考图像的情况下,所述运动矢量可具有识别参考图像的第三维度。
在一些实施例中,双向预测技术可用于帧间图像预测中。根据双向预测技术,使用两个参考图像,例如按解码次序都在视频中的当前图像之前(但按显示次序可能分别是过去和将来)第一参考图像和第二参考图像。可通过指向第一参考图像中的第一参考块的第一运动矢量和指向第二参考图像中的第二参考块的第二运动矢量对当前图像中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图像预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图像预测和帧内图像预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图像序列中的图像分割成编码树单元(codingtree unit,CTU)以用于压缩,图像中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树分割为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU分割为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU分割为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图像序列中的当前视频图像内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图像中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图像中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图像中。在某些视频编码技术中,合并模式可以是帧间图像预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图像中的一个或多个参考块(例如先前图像和后来图像中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图像是基于已编码的视频信息解码的已解码参考图像。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图像中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图像中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从时域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图像,且在一些实施例中,所述已解码图像可在存储器电路(未示出)中缓冲并用作参考图像。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图像。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图像来重建某些符号,这些符号表示构成所述已编码图像的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图像的一部分,所述重建的图像继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
II.帧间预测模式
在各实施例中,一幅图像可被分割成多个块,例如,使用基于树结构的分割方案进行分割。分割得到的多个块可以用不同的处理模式进行处理,例如,帧内预测模式、帧间预测模式(例如,合并模式、跳过模式、高级运动矢量预测(advanced motion vectorprediction,AVMP)模式)等。帧内编码块可以是用帧内预测模式编码的块。相应地,帧间编码块可以是用帧间预测模式处理的块。
帧间预测模式的示例可以分为两类:(i)AMVP模式和(ii)合并/跳过模式。合并/跳过模式的示例可以包括HEVC合并模式(或常规合并模式)、当前参考图像(currentreference picture,CRP)模式(或帧内块复制(intra block copy,IBC))模式、三角分割模式、基于子块的时间运动矢量预测(subblock-based temporal motion vectorprediction,sbTMVP)模式、带有运动矢量差的合并(merge with motion vectordifference,MMVD)模式和仿射合并模式。在一些实施例中,AMVP模式和合并/跳过模式可以与基于历史的运动矢量预测(history-based motion vector prediction,HMVP)表结合起来,用于对编码块进行编码或解码。
下面描述帧间预测模式的示例和HMVP表的使用。
1、合并模式
在合并模式下处理当前正在被处理的块(也称为当前块)时,可以从当前块的空间邻域或时间邻域中选择相邻块。通过与所选相邻块共享同一组运动数据(或称为运动信息),可以将当前块与所选相邻块合并。此合并模式操作可以在一组相邻块上执行,使得这些相邻块的区域可以合并在一起并共享同一组运动数据。在从编码器到解码器的传输期间,对于当前块可传输指示所选相邻块的运动数据的索引,而不是传输整组运动数据。这样,可以减少用于传输运动信息的数据量(比特),并且可以提高编解码效率。
在以上实施例中,提供运动数据的相邻块可以从一组候选位置选出。与当前块有关的多个候选位置可以预定义。例如,多个候选位置可以包括多个空间候选位置和多个时间候选位置。每个空间候选位置与邻近当前块的空间相邻块相关联。每个时间候选位置与位于另一已编码图像(例如,先前已编码图像)中的时间相邻块相关联。与候选位置重叠的相邻块(称为候选块)是当前块的所有空间相邻块或时间相邻块的子集。这样,可以对候选块进行评估以选择待合并的块,而不是使用整组相邻块。
图8为一个实施例的候选位置的示意图。从这些候选位置中,可以选择一组合并候选位置来构建合并候选列表。如图所示,将对当前块(810)进行合并模式处理。为合并模式处理定义一组候选位置{A1,B1,B0,A0,B2,C0,C1}。具体地,候选位置{A1,B1,B0,A0,B2}是空间候选位置,其表示与当前块(810)位于同一图像中的候选块的位置。相对地,候选位置{C0,C1}是时间候选位置,其表示在另一已编码图像中的候选块的位置,并且这些位置与当前块(810)的同位块相邻或重叠。如图所示,候选位置C1可以接近(例如,相邻于)当前块(810)的中心。
在不同实施例中,候选位置可以由样本块或样本来表示。在图8中,每个候选位置由一个样本块表示,样本块的大小可以为,例如,4x4个样本。对应于候选位置的这种样本块的大小可以等于或小于用于生成当前块(810)所使用的基于树的分割方案中定义的允许的PB的最小尺寸,例如,4×4个样本。在这种配置下,候选位置对应的块总是位于单个相邻PB的覆盖范围内。在另一实施例中,样本位置(例如,块A1内的右下样本、或块A0内的右上样本)可用于表示候选位置。这样的样本被称为代表样本,而这样的位置被称为代表位置。
一个实施例中,基于图8中定义的候选位置{A1,B1,B0,A0,B2,C0,C1},可以执行合并模式过程,从候选位置{A1,B1,B0,A0,B2,C0,C1}中选择合并候选,从而构建候选列表。候选列表可以具有预定义的最大数目个合并候选,该最大数目用Cm表示。候选列表中的每个合并候选可包括可用于运动补偿预测的一组运动数据。
可以按照一定顺序在候选列表中添加合并候选。例如,根据合并候选的得出方式,不同的合并候选可以具有不同的被选中的概率。具有较高的被选中概率的合并候选位于具有较低被选中概率的合并候选之前。基于这样的顺序,每个合并候选与索引(被称为合并索引)相关联。在一个实施例中,具有较高被选中概率的合并候选会具有较小的索引值,从而使得相应索引的编解码需要更少的比特。
一个实施例中,合并候选的运动数据可以包括一个或两个运动矢量的水平运动矢量位移值和垂直运动矢量位移值、与该一个或两个运动矢量相关联的一个或两个参考图像索引,以及可选地,与参考图像索引相关联的参考图像列表的标识。
一个实施例中,根据预定义的顺序,从空间候选位置得出第一数目个合并候选,Ca,依次为{A1,B1,B0,A0,B2},并且从时间候选位置导出第二数目的合并候选,Cb=Cm-Ca,依次为{C0,C1}。用于表示候选位置的数字A1、B1、B0、A0、B2、C0、C1也可用于指代合并候选。例如,从候选位置A1获得的合并候选可称为合并候选A1。
在一些情形中,候选位置处的合并候选可能是不可用的。例如,一个候选位置处的候选块可被帧内预测为位于包括当前块(810)的条带或图块之外,或者在编码树块(CTB)中位于与当前块(810)不同的行。在一些场景中,一个候选位置处的合并候选可以是冗余的。例如,当前块(810)的一个相邻块可以覆盖两个候选位置。可以从候选列表中删除冗余的合并候选(例如,通过执行剪枝过程)。当(去除冗余候选项后的)候选列表中可用合并候选的总数小于合并候选的最大数目时Cm,可以(例如,根据预先配置的规则)生成额外的合并候选来填充候选列表,使得候选列表可以保持固定的长度。例如,额外的合并候选可以包括组合双预测候选项和零运动矢量候选项。
在构建候选列表之后,可在编码器处执行评估过程以从候选列表中选择合并候选。例如,可以计算每个合并候选对应的率失真(rate-distortion)性能,并选择具有最佳RD性能的一个合并候选。相应地,可以为当前块(810)确定与所选的合并候选关联的合并索引,并用信号表示该合并索引以通知解码器。
在解码器处,可以接收当前块(810)的合并索引。如上所述,可以执行相似的候选列表构建过程以生成与在编码器侧生成的候选列表相同的候选列表。在一些实施例中,在构建候选列表之后,可以基于接收的合并索引从候选列表中选择合并候选,而无需执行任何进一步的评估。所选的合并候选的运动数据可用于后续的当前块(810)的运动补偿预测。
一些实施例中还采用了跳过模式。例如,在跳过模式中,可以如上所述使用合并模式对当前块进行预测以确定一组运动数据,然而,该过程中不产生残差,并且不传输变换系数。跳过标志可以与当前块相关联。可以向视频解码器用信号通知跳过标志和指示当前块的相关运动信息的合并索引。例如,在帧间图像预测条带中的CU的开始处,可用信号表示跳过标志,其暗示以下内容:该CU仅包含一个PU(2Nx2N);使用合并模式得出运动数据;以及在码流中不存在残差数据。在解码器侧,基于跳过标志,可以基于用于解码相应当前块的合并索引来确定预测块,而不添加残差信息。因此,可以结合跳过模式来利用本文所公开的带有合并模式的视频编解码的各种方法。
例如,一个实施例中,当合并标志或跳过标志在码流中对应的信号为真时,用信号表示合并索引以指示合并候选列表中的哪个候选项用于提供当前块的运动矢量。可以在合并候选列表中添加至多四个空间相邻的运动矢量和至多一个时间相邻的运动矢量。语法元素MaxMergeCandsNum被定义为合并候选列表的大小。可以在码流中用信号表示语法元素MaxMergeVandsNum。
2、仿射合并模式
图9是一个实施例的当前块(或称为编码单元(coding unit,CU))(901)的空间相邻块和时间相邻块的示意图。如图所示,空间相邻块表示为A0、A1、A2、B0、B1、B2和B3(分别为902、903、907、904、905、906和908),而时间相邻块表示为C0(912)。一些实施例中,空间相邻块A0、A1、A2、B0、B1、B2和B3以及当前块(901)属于同一图像。一些实施例中,时间相邻块C0属于参考图像,并且对应于在当前块(901)之外且与当前块(901)的右下角相邻的位置。
一些实施例中,可以使用仿射模型(例如,6参数仿射模型或4参数仿射模型)得出当前块(901)的运动矢量和/或当前块的子块的运动矢量。一些实施例中,仿射模型具有6个参数(例如,6参数仿射模型),用于描述块的运动矢量。例如,仿射编码块的6个参数可由该块的三个不同位置(例如,图9中左上角、右上角及左下角处的控制点CP0、CP1及CP2)处的三个运动矢量(也称为三个控制点运动矢量(control point motion vectors,CPMV))来表示。在另一实施例中,简化的仿射模型使用4个参数来描述仿射编码块的运动信息,其可由该块的两个不同位置(例如,图9中的左上角和右上角处的控制点CP0和CP1)处的两个运动矢量(也称为两个CPMV)来表示。
可以使用仿射合并模式基于一个或多个空间相邻块和/或时间相邻块的运动信息来构建运动信息候选列表(也被称为仿射合并候选列表)。一些实施例中,在当前块(901)的宽度和高度等于或大于8个样本时,可以应用仿射合并模式。根据仿射合并模式,可以基于列表中的候选运动信息来确定当前块(901)的CPMV。一些实施例中,运动信息候选列表可以包括至多五个候选CPMV,并且可用信号表示一个索引,用于指示当前块使用哪个候选CPMV。
在一些实施例中,仿射合并候选列表可以具有三种类型的候选CPVM,包括继承的仿射候选项、构建的仿射候选项和零MV。可通过外推法从相邻块的CPMV得出继承的仿射候选项。可对相邻块的MV进行平移来得出构建的仿射候选项。
例如,可存在至多两个继承仿射候选项,从相邻块的对应仿射运动模型得出,包括来自左相邻块(A0和A1)的一个块和来自上方相邻块(B0,B1和B2)的一个块。对于来自左边的候选项,可依次检查相邻块A0和A1,并将来自相邻块A0和A1的第一可用继承仿射候选项用作从左边继承的仿射候选项。对于来自上方的候选项,可依次检查相邻块B0、B1和B2,并将来自相邻块B0、B1和B2的第一可用继承仿射候选项用作从上方继承的仿射候选。在一些实施例中,在两个继承仿射候选项之间不执行剪枝检查。
当识别出相邻仿射块时,可从该相邻仿射块的控制点运动矢量得出待添加到当前块(901)的仿射合并列表的相应的继承仿射候选项。在图9的例子中,如果相邻块A1用仿射模式进行编码,则可以获得块A1的左上角(控制点CP0A1)、右上角(控制点CP1A1)和左下角(控制点CP2A1)的运动矢量。当块A1使用4参数仿射模型进行编码时,可以根据控制点CP0A1和控制点CP1A1的运动矢量来计算当前块(901)的继承仿射候选的两个CPMV。当块A1使用6参数仿射模型进行编码时,可以根据控制点CP0A1、控制点CP1A1和控制点CP2A1的运动矢量来计算当前块(901)的继承仿射候选的三个CPMV。
此外,可以通过组合每个控制点的相邻平移运动信息来得出构建的仿射候选项。控制点CP0、CP1和CP2的运动信息是从指定的空间相邻块A0、A1、A2、B0、B1、B2和B3得出的。
例如,CPMVk(k=1,2,3,4)表示第k个控制点的运动矢量,其中CPMV1对应控制点CP0,CPMV2对应控制点CP1,CPMV3对应控制点CP2,而CPMV4对应时间相邻块C0的时间控制点。对于CPMV1,可以依次检查相邻块B2、B3和A2,并且将来自相邻块B2、B3和A2的第一可用运动矢量用作CPMV1。对于CPMV2,可以依次检查相邻块B1和B0,并且将来自相邻块B1和B0的第一可用运动矢量用作CPMV2。对于CPMV3,可以依次检查相邻块A1和A0,并且将来自相邻块A1和A0的第一可用运动矢量用作CPMV3。此外,如果可用,时间相邻块C0的运动矢量可以用作CPMV4
在获得四个控制点CP0、CP1、CP2和时间控制点的CPMV1、CPMV2、CPMV3和CPMV4之后,可以构建仿射合并候选列表以包括按照以下顺序构建的仿射合并候选:{CPMV1,CPMV2,CPMV3}、{CPMV1,CPMV2,CPMV4}、{CPMV1,CPMV3,CPMV4}、{CPMV2,CPMV3,CPMV4}、{CPMV1,CPMV2},以及{CPMV1,CPMV3}。三个CPMV的组合可以形成一个6参数仿射合并候选,而两个CPMV的任何组合可以形成一个4参数仿射合并候选。在一些实施例中,为了避免运动缩放过程,如果一组控制点的参考索引不同,则可以丢弃对应的CPMV组合。
3、基于子块的时间运动矢量预测(Subblock-Based Temporal Motion VectorPrediction,SbTMVP)模式
图10A是一个实施例的空间相邻块的示意图,该空间相邻块可以用于使用基于子块的时间MV预测(SbTMVP)方法,基于空间相邻块的运动信息来确定当前块(1011)的预测运动信息。图10A示出了当前块(1011)及其空间相邻块,空间相邻块表示为A0、A1、B0和B1(分别为1012、1013、1014和1015)。一些实施例中,空间相邻块A0、A1、B0和B1以及当前块(1011)属于同一图像。
图10B是一个实施例的使用SbTMVP方法基于所选空间相邻块(例如在该非限制性实施例中的块A1)来确定当前块(1011)的子块的运动信息的示意图。在该实施例中,当前块(1011)在当前图像(1010)中,而参考块(1061)在参考图像(1060)中,可由运动矢量(1022)指示的当前块(1011)与参考块(1061)之间的运动移位(或位移)确定。
在一些实施例中,类似于HEVC中的时间运动矢量预测(temporal motion vectorprediction,TMVP),SbTMVP将参考图像中的各种参考子块中的运动信息用于当前图像中的当前块。在一些实施例中,SbTVMP与TMVP使用相同的参考图像。在一些实施例中,TMVP预测CU级别的运动信息,而SbTMVP预测子CU级别的运动。在一些实施例中,TMVP使用来自参考图像中同位块的时间运动矢量,该同位块对应的位置与当前块的右下角或中心相邻,并且SbTMVP使用来自参考块的时间运动矢量,其可以通过基于当前块的空间相邻块之一的运动矢量执行运动移位来确定。
例如,如图10A所示,可以在SbTVMP过程中依次检查相邻块A1、B1、B0和A0。一旦识别出具有使用参考图像(1060)作为其参考图像的运动矢量的第一空间相邻块,例如具有指向参考图像(1060)中的参考块AR1的运动矢量(1022)的块A1,该运动矢量(1022)就可以用于执行运动移位。如果没有从空间相邻块A1、B1、B0和A0识别出这种运动矢量,则可以将运动移位设置为(0,0)。
在确定了运动移位之后,可以基于当前块(1011)的位置和所确定的运动移位来确定参考块(1061)。在图10B中,参考块(1061)可以被进一步划分为具有参考运动信息MRa至MRp的16个子块。在一些实施例中,可以基于覆盖该子块的中心样本的最小运动网格来确定参考块(1061)中的每个子块的参考运动信息。该运动信息可以包括运动矢量和相应的参考索引。当前块(1011)可被进一步划分成16个子块,并且当前块(1011)中的子块的运动信息MVa至MVp可以以类似于TMVP过程的方式从参考运动信息MRa至MRp得出,在一些实施例中可以使用时间缩放。
在SbTMVP过程中使用的子块大小可以是固定的(或者是预定的)或用信号表示。在一些实施例中,SbTMVP过程中使用的子块大小可以是8×8个样本。在一些实施例中,SbTMVP过程仅适用于宽度和高度等于或大于固定的或用信号表示的大小(例如8个像素)的块。
一个实施例中,包含SbTVMP候选项和仿射合并候选的组合的基于子块的合并列表用于基于子块的合并模式的信号表示。SbTVMP模式可以由序列参数集(sequenceparameter set,SPS)标志启用或停用。在一些实施例中,当启用SbTMVP模式时,将SbTMVP候选项添加为基于子块的合并候选列表的第一条目,然后是仿射合并候选。在一些实施例中,设置最大允许的基于子块的合并列表的大小为5。然而,在其它实施例中可以使用其它大小。
在一些实施例中,额外的SbTMVP合并候选的编码逻辑与其它合并候选相同。即,对于P条带或B条带中的每个块,可以执行额外的速率失真检查以确定是否使用SbTMVP候选项。
4、基于历史的运动矢量预测(History-Based Motion Vector Prediction,HMVP)模式
图11A是一个实施例使用基于历史的MV预测(HMVP)方法来构建和更新运动信息候选列表的方法(1100)的概述流程图。
在一些实施例中,可在编码或解码过程中构建并更新使用HMVP方法的运动信息候选列表。该列表也称为历史列表。历史列表可以HMVP表或HMVP缓冲区的形式存储。当新条带开始时,可以清空历史列表。一些实施例中,每当存在刚被编码或解码的帧间编码的非仿射块时,相关联的运动信息可以被添加为历史列表的最后一条,作为新的候选HMVP。因此,在处理(编码或解码)当前块之前,可以加载具有候选HMVP的历史列表(S1112)。可以使用历史列表中的候选HMVP对当前块进行编码或解码(S1114)。然后,可以使用用于编码或解码当前块的运动信息来更新历史列表(S1116)。
图11B是一个实施例的使用HMVP方法更新候选运动信息列表的示意图。图11B示出了大小为L的历史列表,列表中的每个候选项可以用范围从0到L-1的索引来标识。L是等于或大于0的整数。在对当前块进行编码或解码之前,历史列表(1120)包括L个候选项HMVP0、HMVP1、HMVP2、...HMVPm、...、HMVPL-2和HMVPL-1,其中m是0至L的整数。在对当前块进行编码或解码之后,将新条目HMVPC添加到历史列表中。
一个实施例中,历史列表的大小可被设置为6,这指示可将至多6个候选HMVP添加到历史列表。当在历史列表中插入新的运动候选项(例如,HMVPC)时,可以利用受约束的先进先出(first-in-first-out,FIFO)规则,其中首先进行冗余校验来确定历史列表中是否存在冗余HMVP。当未发现冗余HMVP时,从列表中移除第一候选HMVP(图11B实施例中的HMVP1,其索引=0),然后将其它候选HMVP向前移动,例如将其索引减1。新的候选项HMVPC可被添加为列表的最后一条(例如,图11B中的索引=L-1),如生成的列表(1130)中所示。另一方面,如果找到冗余HMVP(例如图11B实施例中的HMVP2),则从列表中移除历史列表中的冗余HMVP,并且将所有之后的HMVP候选向前移动,例如将其索引减小1。新的候选项HMVPC可被添加为列表的最后一条(例如,图11B中索引=L-1),如生成的列表(1140)中所示。
一些实施例中,HMVP候选项可以用于构建合并候选列表。例如,列表中最近的几个HMVP候选项被依次检查并且插入到候选列表中的TMVP候选项之后。一些实施例中,可以针对空间或时间合并候选,对HMVP候选项进行剪枝,而不是对子块运动候选项(即,SbTMVP候选项)进行剪枝。
一些实施例中,为了减少剪枝操作的次数,可以遵循以下规则中的一个或多个:
(a)由M表示的要检查的HMPV候选项的数目设置如下:
M=(N<=4)?L:(8-N),
其中,N表示可用的非子块合并候选的数目,L表示历史列表中可用的HMVP候选项的数目。
(b)另外,一旦可用合并候选的总数仅比用信号表示的合并候选的最大数目少一个,就可终止根据HMVP列表的合并候选列表构建过程。
(c)此外,用于得出组合的双向预测合并候选的数目从12对减少到6对。
在一些实施例中,HMVP候选项可以用于AMVP候选列表构建过程。历史列表中的最后K个HMVP候选项的运动矢量可以添加到AMVP候选列表中的TMVP候选项之后。一些实施例中,仅将与AMVP目标参考图像具有相同的参考图像的HMVP候选项添加到AMVP候选列表。对HMVP候选项进行剪枝。一些实施例中,K设为4,而AMVP列表大小保持不变,例如等于2。
5、成对平均运动矢量候选项(Pairwise Average Motion Vector Candidates)
一些实施例中,成对平均候选项(pairwise average candidate)可以通过对当前合并候选列表中的预定义候选项对进行平均来生成。例如,一个实施例中,预定义对可以定义为{(0,1),(0,2),(1,2),(0,3),(1,3),(2,3)},其中数字表示合并候选列表的合并索引。例如,可以为每个参考图像列表分别计算平均运动矢量。如果两个待平均的运动矢量在一个列表中都可用,则即使当这两个运动矢量指向不同的参考图像时,也可以对它们进行平均。如果仅一个运动矢量可用,则可以直接使用这一个运动矢量。如果没有可用的运动矢量,则一个实施例中,可以跳过相应的对。一些实施例中,构建合并候选列表时,可以用成对平均候选项替换组合候选项。
6、运动矢量差分合并(Merge with Motion Vector Difference,MMVD)模式
一些实施例中,使用运动矢量差分合并(MMVD)模式来确定当前块的运动矢量预测因子。当启用跳过模式或合并模式时,可以使用MMVD模式。MMVD模式重复使用跳过模式或合并模式的合并候选列表上的合并候选。例如,从合并候选列表中选择的合并候选可以用于提供参考图像处的起始点。当前块的运动矢量可以用起始点和运动偏移来表示,运动偏移包括相对于起始点的运动幅度和运动方向。在编码器侧,合并候选的选择和运动偏移的确定可以基于搜索过程(评估过程)。在解码器侧,可以基于来自编码器侧的信令来确定选择的合并候选和运动偏移。
MMVD模式可以重复使用以本文中描述的各种帧间预测模式构建的合并候选列表。一些实施例中,针对MMVD模式仅考虑合并候选列表中的默认合并类型(例如,MRG_TYPE_DEFAULT_N)的候选项。默认合并类型的合并候选的例子可以包括:(i)合并模式中采用的合并候选,(ii)HMVP模式中来自历史缓冲区的合并候选,和(iii)如本文中描述的成对平均运动矢量候选项。一些实施例中,仿射模式或SbTMVP模式中的合并候选不用于MMVD模式中的扩展。
基本候选索引(base candidate index,IDX)可以用于定义起始点。例如,表1中示出了与从0到3的索引相关联的合并候选(运动矢量预测因子(motion vector predicator,MVP))的列表。基本候选索引之一的索引对应的合并候选可以从列表中确定,并用于提供起始点。
表1.基本候选IDX
Figure GDA0003503103840000271
Figure GDA0003503103840000281
距离索引可以被用于提供运动幅度信息。例如,在表2中示出了多个预定义的像素距离,每个预定义像素距离与从0到7的索引相关联。具有距离索引之一的索引对应的像素距离可以从这多个像素距离中确定,并用于提供运动幅度。
表2.距离IDX
Figure GDA0003503103840000282
方向索引可以用于提供运动方向信息。例如,在表3中示出了索引从00到11(二进制)的四个方向。方向索引之一的索引对应的方向可以从这四个方向中确定,并用于提供相对于起始点的运动偏移的方向。
表3.方向IDX
方向IDX 00 01 10 11
x轴 + - N/A N/A
y轴 N/A N/A + -
MMVD语法元素可以在码流中传输,以用信号表示MMVD模式中的一组MMVD索引,包括基本候选索引、方向索引和距离IDX。
一些实施例中,在发送用于对当前块进行编解码的跳过和合并标志之后用信号表示MMVD启用标志。例如,当跳过和合并标志为真时,解析MMVD标志。一个实施例中,当MMVD标志等于1时,解析MMVD语法元素(上述一组MMVD索引)。一个实施例中,当MMVD标志不为1时,解析与另一模式相关联的标志,例如仿射标志。当仿射标志等于1时,使用仿射模式处理当前块。一个实施例中,当仿射标志不为1时,解析跳过/合并索引,从而用跳过/合并模式处理当前块。
图12和图13为本公开一个实施例的在MMVD模式下的搜索过程的示例。通过执行搜索过程,可以为当前图像(或称为当前帧)中的当前块(1201)确定一组MMVD索引,包括基本候选索引、方向索引和距离索引。
图12和图13示出了属于第一合并候选的第一运动矢量(1211)和第二运动矢量(1221)。第一合并候选可以是为当前块(1201)构建的合并候选列表中的合并候选。第一运动矢量(1211)和第二运动矢量(1221)可以分别与参考图像列表L0和L1中的两个参考图像(1202)和(1203)相关联。这样,可以在参考图像(1202)和(1203)中确定图13中的两个起始点(1311)和(1321)。
一个实施例中,基于起始点(1311)和(1321),可以评估参考图像(1202)和(1203)中从起始点(1311)和(1321)沿垂直方向(由+Y或-Y表示)或水平方向(由+X和-X表示)延伸的多个预定义点。一个实施例中,关于各个起始点(1311)或(1321)彼此镜像的一对点,例如点对(1314)和(1324),或点对(1315)和(1325),可以用于确定一对运动矢量,这对运动矢量可形成当前块(1201)的运动矢量预测因子候选项。可以对基于围绕起始点(1311)或(1321)的预定义点确定的那些运动矢量预测因子候选项进行评估。
除了第一合并候选,还可以以相似方式评估当前块(1201)的合并候选列表中的其它可用的或有效的合并候选。一个实施例中,对于单向预测的合并候选,仅评估与两个参考图像列表中的一个相关联的一个预测方向。
基于以上评估,可以确定最佳运动矢量预测因子候选项。因此,对应于最佳运动矢量预测因子候选项,可以从合并列表中选择最佳合并候选,还可以确定运动方向和运动距离。例如,基于选择的合并候选和表1,可以确定基本候选索引。基于选择的运动矢量预测因子,例如预定义点(1315)(或(1325))对应的运动矢量预测因子,可以确定点(1315)相对于起始点(1311)的方向和距离。根据表2和表3,可以相应地确定方向索引和距离索引。
应当注意,以上描述的实施例仅用于阐释性说明。在其它实施例中,基于MMVD模式提供的运动矢量表达方法,可以以不同方式定义运动距离和运动方向。另外,可以以不同方式执行评估过程(搜索过程)。例如,对于双向预测合并候选,可基于一组预定义的距离和方向来评估三种类型的预测方向(例如,L0、L1以及L0和L1),从而选择最佳运动矢量预测因子。另一实施例中,可通过镜像或缩放将单向预测合并候选转换为双向预测合并候选,且随后对其进行评估。在以上实施例中,可以用信号表示额外的语法元素,指示评估过程产生的预测方向(例如,L0、L1或L0和L1)。
如上所述,在编码器处评估合并候选列表中的合并候选以确定MMVD模式的基本候选项。在解码器处,使用基本候选索引作为输入,可以从合并候选列表中选择运动矢量预测因子。因此,除了用于存储合并候选的线缓冲区之外,MMVD模式不需要额外的线缓冲区。
III.具有共享合并列表的合并共享区域
一些实施例中,当前块的大小和/或当前块内的子块的大小满足某些条件时,采用具有共享合并列表的合并共享区域。例如,CU分割树中的父节点的多个子CU可以共享合并候选列表。以此方式,可以避免针对每个子CU单独构造合并候选列表,这使得能够在合并共享区域内并行处理小的合并/跳过编码的多个CU。父节点被称为合并共享节点或合并共享区域。还可将合并共享节点当作其中一个子CU,并为该合并共享节点生成共享合并候选列表。
在解码的解析阶段,可以为CTU内部的每个节点确定是否可以将分割树节点(split-tree node)视为合并共享节点。一个实施例中,当子CU的父节点满足以下标准时,可以将该父节点确定为合并共享节点:
(a)该父节点的块大小等于或大于一尺寸阈值(例如32像素,64像素等);
(b)在该父节点内,一个子CU的大小小于该尺寸阈值。
图14A示出了基于64个像素的尺寸阈值定义的合并共享区域(1401)-(1404)的示例。合并共享区域(1401)-(1404)中的每个区域的块大小为64个像素,等于该尺寸阈值。合并共享区域(1401)-(1404)中的每个区域包括至少一个尺寸小于尺寸阈值的子CU。
图14B示出了基于64个像素的尺寸阈值定义的合并共享区域(1410)的另一示例。合并共享区域(1410)包括尺寸分别为32、64和32个像素的三个子块(1411)-(1413)。合并共享区域(1410)的尺寸为128个像素,大于尺寸阈值,并且包括尺寸小于尺寸阈值的两个子块(1411)和(1413)。
其它实施例中,可以基于不同的定义确定合并共享区域。例如,块大小小于阈值的子CU的父节点可以被确定为合并共享区域。以图14B为例,当使用64个像素作为阈值时,可以将块1411-1413中的任何一个块确定为合并共享区域。
另外,一些实施例中,合并共享节点没有任何样本在图像边界之外。在解析阶段,如果父节点满足合并共享区域的定义,但是有一些样本在图像边界之外,则该父节点不被作为合并共享节点。接下来,可以对该节点内的子CU进行评估以确定合并共享区域。
共享合并候选列表算法可以支持平移合并/跳过模式,例如常规合并模式、CRP模式(或IBC模式)、三角分割模式、sbTMVP模式、MMVD模式等。一些实施例中,仿射合并模式不用于对合并共享区域中的块进行编码。在合并共享区域中使用这些合并/跳过模式时,可以将其与HMVP表合并。对于这些合并/跳过模式,共享合并候选列表算法的操作类似于基于常规合并候选列表的操作。共享合并候选列表算法仅生成合并共享节点的候选项,将合并共享节点当作子CU。
注意,可以使用除合并/跳过模式以外的编码模式来对合并共享区域内的子CU进行编码。例如,可以用帧内模式或除合并/跳过模式之外的帧间模式(例如,AMVP模式)对合并共享节点内的CU进行编码。
IV.针对合并共享区域中的CU的HMVP表更新
一些实施例中,采用合并共享区域方案以对合并共享区域内的子块进行并行处理。另外,合并共享区域方案可以与HMVP方案结合以提高帧间编码性能。例如,在解码器的解析阶段识别出合并共享区域时,可以为合并共享区域构造共享合并列表。合并共享区域的构造可以包括来自HMVP表的HMVP候选项。可以利用帧内预测模式(帧内模式)或帧间预测模式(帧间模式)对合并共享区域内的子块(或编码块)进行编解码。对于每个帧间编码的子块,可以使用相应的运动信息来更新HMVP表。
然而,根据本公开的一些实施例,对于合并共享区域内的每个帧间编码子块(或编码块)执行HMVP表更新可能是不必要的。例如,合并共享区域内的子块彼此靠近。相邻帧间编码块具有相似运动信息的可能性很高。另外,合并共享区域内的这些子块共享相同的合并列表。作为合并模式解码过程的结果,不同的帧间编码子块很有可能会使用相同的合并候选作为其运动信息。因此,基于该相似运动信息更新HMVP表将是多余的。相反,对那些帧间编码块的子集执行HMVP表更新可能更合适,并且可以节省与HMVP表更新相关的计算成本。
因此,在一些实施例中,当合并共享区域方法和HMVP方法相结合时,对HMVP表的更新处理进行约束。例如,不在每次对帧间编码子块进行解码时执行HMVP表更新,而是仅有合并共享区域内的帧间编码子块的子集会触发HMVP表的更新操作。这样,可以避免或减少HMVP表更新的成本,并且可以维持编码质量。
一个实施例中,不对合并共享区域内的帧间编码子块执行HMVP表更新。
一些实施例中,合并共享区域内的帧间编码子块是否会触发HMVP表的更新取决于使用哪种类型的帧间预测模式来对相应的子块进行编码/解码。
图15示出了可以在合并共享区域内使用的帧间预测模式(帧间模式)的表(1500)。当这些帧间模式之一用于对合并共享区域内的子块进行编码/解码时,可以生成运动信息。运动信息可以用于更新HMVP表。表(1500)中的帧间模式可以分为两类:合并/跳过模式和AMVP模式。
在AMVP模式下,可以构造AMVP候选列表以对子块进行编码。AMVP候选列表可包括从子块的相邻块中选择的一组AMVP候选项。一个实施例中,HMVP表可以用于构造AMVP模式。可以执行运动估计以确定子块的运动信息。可以将选择的AMVP候选项与运动估计得到的运动信息之间的差异与从AMVP候选列表中选择的AMVP候选项的索引一起从编码器用信号通知解码器。当在解码器处对子块进行解码时,基于信号表示的差和索引来恢复原始运动信息。一些实施例中,用子块对应的共享合并列表分别构造AMVP候选列表。在一些实施例中,AMVP候选列表可以是相应共享合并列表的子集。一些实施例中,相应的共享合并列表可以用作AMVP候选列表。
表(1500)中的合并/跳过模式可以包括两组编码模式:组I和组II。组I包括使用共享合并列表中的合并候选作为用于对合并共享区域内的子块(子CU)进行编码或解码的运动信息的帧间模式。组I中的帧间模式的示例可以包括常规合并模式、CRP模式等。当使用组I帧间模式对合并共享区域内的子块进行编码时,可以选择共享合并列表中的候选项,以提供运动信息来确定对该子块的预测信息。随后,可以对预测信息和子块之间的差(残差)进行编码和发送。当使用跳过模式时,不会产生或发送任何残差信号。
组II包括使用基于共享合并列表中的合并候选确定的运动信息对合并共享区域内的子块进行编码或解码的帧间模式。组II中的帧间模式的示例可以包括三角分割模式、sbTMVP模式、MMVD模式等。当使用组II帧间模式对具有共享合并列表的合并共享区域内的子块进行编码时,可以基于共享合并列表中的合并候选来构造运动信息(例如,三角分割模式)。或者,共享合并列表中的合并候选可以用于确定目标块,并且可以获取目标块内的子块的运动信息,以对合并共享区域内的子块进行编码(例如,sbTMVP模式)。或者,共享合并列表中的合并候选可用于在参考图像上提供起始点,以便在邻近起始点的位置(例如,MMVD)上搜索运动信息。在上述情况下,生成的运动信息可能与共享合并列表中的合并候选不同。
根据表(1500)的分类,一个实施例中,当使用合并/跳过模式对合并共享区域内的子块进行帧间编码时,在子块被解码之后不执行HMVP表的更新。相反,当用例如AMVP模式之类的合并/跳过模式之外的编码模式对合并共享区域内的子块进行帧间编码时,对子块进行解码而得到的运动信息用于更新HMVP表。
如本文描述的,当合并/跳过模式用于对合并共享区域内的子块进行编码或解码时,合并/跳过模式基于共享合并列表。共享合并列表可以包括最近已经包括在HMVP表中的运动信息。由合并/跳过模式产生的运动信息可以与共享合并列表中的合并候选相同或相似,并且因此有很大可能性已经包括在HMVP表中。因此,用该信息更新HMVP表可能效率较低。
相反,在AMVP模式下,确定运动差并进行编码。这样,由AMVP模式产生的运动信息可以不同于AMVP候选列表中的AMVP候选项(AMVP候选列表可以与共享合并列表相似或不同)。因此,该运动信息已经包括在HMVP表中的可能性很小。用该运动信息更新HMVP表可能是有利的。
另一实施例中,当利用组I模式(例如,常规合并模式或CRP模式)对合并共享区域内的子块进行帧间编码时,不使用该子帧的运动信息来更新HMVP表。相反,当采用Group I模式以外的帧间模式,例如Group II模式或AMVP模式,对合并共享区域内的子块进行帧间编码时,使用对该子块进行解码而得到的运动信息更新HMVP表。
如本文所描述的,当使用组II帧间模式对合并共享区域内的子块进行编码或解码时,组II帧间模式基于共享合并列表中的合并候选来确定子块的运动信息,但是确定的运动信息可以与共享合并列表中的合并候选不同,并且有一定的可能性不包含在HVMP表中。因此,在某些情况下,使用从第II组模式得到的运动信息更新HMVP表可以实现一些编码增益。
一些实施例中,从合并共享区域内的一组帧间编码子块中选择一个子块,用于更新HMVP表。例如,存在多个帧间编码子块,例如,利用表(1500)中的帧间模式按照编码/解码顺序(例如,光栅扫描顺序、之字形顺序,等)进行编解码的子块。可以根据编解码顺序选择第一个或最后一个子块来更新HMVP表。对于其他帧间编码子块,不执行HMVP表的更新。这样,可以减少HMVP表的更新成本。
各实施例中,对于不在合并共享区域内的帧间编码块,可以利用这些帧间编码块对应的运动信息来更新HMVP表。
图16示出了本公开实施例的方法(1600)的概述流程图。方法(1600)可以用于基于HMVP表对合并共享区域进行解码。各个实施例中,方法(1600)由处理电路执行,例如终端设备(210)、(220)、(230)和(240)中的处理电路,执行视频解码器(310)的功能的处理电路,执行视频解码器(410)的功能的处理电路等。一些实施例中,方法(1600)由软件指令实现,因此,当处理电路执行软件指令时,处理电路执行方法(1600)。该方法从(S1601)开始,并且进行到(S1610)。
在(S1610),接收包括多个编码块的合并共享区域。例如,解码器可以接收由图像分割得到的编码块的比特流。在解析阶段,可以基于尺寸阈值确定合并共享区域。
在(S1620),可以构造共享合并候选列表,用于对合并共享区域进行解码。可以将HMVP表中的HMVP候选项添加到共享合并候选列表。共享合并候选列表可以包括其他类型的合并候选,例如空间合并候选、时间合并候选、成对平均双向预测候选(pair-wise averagebi-prediction candidate)等。
在(S1630),可以基于共享合并候选列表对合并共享区域进行解码。例如,可以对合并共享区域内的编码块进行帧间编解码或帧内编解码。对于帧间编码块,可以在解码过程中确定运动信息。然而,为了减少HMVP表的更新成本,并非所有帧间编码块都会触发HMVP更新操作。
一个实施例中,不对合并共享区域内的编码块执行HMVP更新操作。一个实施例中,是否用合并共享区域中的编码块的运动信息来更新HMVP表可以取决于对各个编码块进行编解码的帧间预测模式的类型。一个实施例中,可以从合并共享区域内的帧间编码块中选择一个编码块(例如,按照编解码顺序的第一个或最后一个编码块),其运动信息可以用于更新HMVP表。方法(1600)可以进行到(S1699),并在(S1699)处终止。
上述技术可以使用计算机可读指令实现为计算机软件,并且以物理方式存储在一个或多个计算机可读介质中。例如,图17为适于实现本申请一些实施例的计算机系统(1700)。
计算机软件可利用任何合适的机器代码或计算机语言来编码,可采用汇编、编译、链接或类似机制生成指令代码。这些指令代码可由一个或多个计算机中央处理单元(CPU)、图形处理单元(GPU)等直接执行或通过代码解释、微代码执行等操作来执行。
这些指令可在多种类型的计算机或计算机组件中执行,包括,例如,个人计算机、平板电脑、服务器、智能电话、游戏设备、物联网设备等。
图17所示的用于计算机系统(1700)的组件本质上是实施例性的,而非旨在对实现本申请实施例的计算机软件的使用或功能范围做任何限制。也不应将组件的配置方式解释为对计算机系统(1700)的实施例性实施例中的任一部件或其组合具有任何的依赖性或要求。
计算机系统(1700)可以包括某些人机界面输入设备。这样的人机界面输入设备可以响应于一个或多个人类用户通过例如触觉输入(诸如键击、挥动、数据手套移动)、音频输入(诸如语音、拍击)、视觉输入(诸如姿势)、嗅觉输入(未示出)的输入。人机界面设备还可用于捕捉不必直接与人类有意识输入相关的某些介质,例如音频(诸如语音、音乐、环境声音)、图像(诸如扫描的图像、从静止图像相机获得的摄影图像)、视频(诸如二维视频,包括立体视频的三维视频)。
人机界面输入设备可包括以下项中的一种或多种(每一种仅描绘一个):键盘(1701)、鼠标(1702)、触控板(1703)、触摸屏(1710)、数据手套(未示出)、操纵杆(1705)、麦克风(1706)、扫描仪(1707)、照相机(1708)。
计算机系统(1700)还可以包括某些人机界面输出设备。这样的人机界面输出设备可以通过例如触觉输出、声音、光和气味/味道来刺激一个或多个人类用户的感觉。这种人机界面输出设备可以包括触觉输出设备(例如通过触摸屏(1710)、数据手套(未示出)或操纵杆(1705)的触觉反馈,但是也可以有不用作输入设备的触觉反馈设备)、音频输出设备(诸如扬声器(1709)、耳机(未示出))、可视输出设备以及打印机(未示出),其中可视输出设备诸如屏幕(1710)、虚拟现实眼镜(未示出)、全息显示器和烟雾箱(未示出),屏幕(1710)包括阴极射线管(CRT)屏幕、液晶显示器(LCD)屏幕、等离子屏幕、有机发光二极管(OLED)屏幕,每一种都具有或不具有触摸屏输入能力,每一种都具有或不具有触觉反馈能力,这些屏幕中的一些能够通过手段(诸如立体图像输出)输出二维可视输出或多于三维的输出。
计算机系统(1700)还可以包括人类可访问的存储设备及其相关联的介质,诸如光学介质(包括具有CD/DVD的CD/DVDROM/RW(1720))或类似介质(1721)、拇指驱动器(1722)、可移动硬盘驱动器或固态驱动器(1723)、传统磁介质(诸如磁带和软盘(未示出))、基于专用ROM/ASIC/PLD的设备(诸如安全道尔芯片(未示出)),等等。
本领域技术人员还应当理解,结合当前公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(1700)还可以包括连接一个或多个通信网络的接口。网络可以是,例如,无线网络、有线网络、光网络。网络还可以是本地网、广域网、城域网、车联网的和工业网络、实时网络、延迟容忍网络等等。网络的实施例包括局域网(诸如以太网、无线LAN)、蜂窝网络(包括全球移动通信系统(GSM)、第三代移动通信系统(3G)、第四代移动通信系统(4G)、第五代移动通信系统(5G)、长期演进(LTE)等)、电视有线或无线广域数字网络(包括有线电视、卫星电视和地面广播电视)、车辆和工业网络(包括CANBus),等等。某些网络通常需要外部网络接口适配器,该外部网络接口适配器连接到某些通用数据端口或外围总线(1749)(诸如计算机系统(1700)的通用串行总线(USB)端口);其他的通常通过如下所述连接到系统总线而集成到计算机系统(1700)的内核中(例如,进入个人计算机系统的以太网接口或进入智能手机计算机系统的蜂窝网络接口)。通过使用这些网络中的任何一个,计算机系统(1700)可以与其它实体通信。这种通信可以是使用局域或广域数字网络的到其它计算机系统的单向的、仅接收的(例如广播TV)、单向仅发送的(例如到某些CAN总线设备的CAN总线)或双向的通信。可以在如上所述的那些网络和网络接口中的每一个上使用某些协议和协议栈。
上述人机界面设备、人类可访问存储设备和网络接口可以连接到计算机系统(1700)的内核(1740)。
内核(1740)可以包括一个或多个中央处理单元(CPU)(1741)、图形处理单元(GPU)(1742)、以现场可编程门阵列(FPGA)(1743)形式存在的专用可编程处理单元、用于特定任务的硬件加速器(1744)等。这些设备,以及只读存储器(ROM)(1745),随机存取存储器(1746),内部大容量存储器(如内部非用户可访问硬盘驱动器,SSD)(1747)等,可以通过系统总线(1748)相互连接。在一些计算机系统中,系统总线(1748)可以以一个或多个物理插头的形式访问,从而通过附加的CPU,GPU等实现扩展。外围设备可以直接,或者通过外围总线(1749),连接到内核的系统总线(1748)。外围总线的架构包括PCI,USB等。
CPU(1741)、GPU(1742)、FPGA(1743)和加速器(1744)可以执行某些指令,这些指令组合起来可以构成前述的计算机代码。该计算机代码可以存储在ROM(1745)或RAM(1746)中。中间数据也可以存储在RAM(1746)中,而永久数据可以存储在,例如,内部大容量存储器(1747)中。可以通过使用高速缓冲存储器来实现到任何存储器设备的快速存储和读取,高速缓存存储器可以与一个或多个CPU(1741)、GPU(1742)、大容量存储器(1747)、ROM(1745)、RAM(1746)等紧密关联。
计算机可读介质上可以具有计算机代码,在计算机代码上执行各种计算机执行的操作。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构(1700)的计算机系统,特别是内核(1740),可以提供处理器(包括CPU、GPU、FPGA、加速器等)执行在一个或多个有形的计算机可读介质中的软件而实现的功能。这样的计算机可读介质可以是与如上所述的用户可访问大容量存储器相关联的介质,以及非易失性的内核(1740)的某些存储,诸如内核内部大容量存储器(1747)或ROM(1745)。实现本申请各实施例的软件可以存储在这样的设备中并由内核(1740)执行。根据特定需要,计算机可读介质可包括一个或多个存储器设备或芯片。该软件可以使内核(1740),特别是其中的处理器(包括CPU,GPU,FPGA等),执行本文描述的特定过程或特定过程的特定部分,包括定义存储在RAM(1746)中的数据结构,以及根据软件定义的过程修改这些数据结构。作为补充或作为替代,计算机系统可提供与电路(例如加速器1744)中的逻辑硬连线或其它组件相同的功能,可代替软件或与软件一起操作以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包括执行逻辑的电路,或两者兼备。本申请包括硬件和软件的任何适当组合。
附录A:缩略语
ASIC:Application-Specific Integrated Circuit 专用集成电路
BMS:benchmark set 基准集合
CANBus:Controller Area Network Bus 控制器区域网络总线
CD:Compact Disc 压缩盘
CPUs:Central Processing Units 中央处理单元
CRT:Cathode Ray Tube 阴极射线管
CTBs:Coding Tree Blocks 编码树块
CTUs:Coding Tree Units 编码树单元
CU:Coding Unit 编码单元
DVD:Digital Video Disc 数字视频盘
FPGA:Field Programmable Gate Array 现场可编程门阵列
GOPs:Groups of Pictures 图像组
GPUs:Graphics Processing Units 图形处理单元
GSM:Global System for Mobile communications 全球移动通信系统
HEVC:High Efficiency Video Coding 高效视频编码
HRD:Hypothetical Reference Decoder 假想参考解码器
IC:Integrated Circuit 集成电路
JEM:joint exploration model 联合勘探模型
LAN:Local Area Network 局域网
LCD:Liquid-Crystal Display 液晶显示器
LTE:Long-Term Evolution 长期演进
MV:Motion Vector 运动向量
OLED:Organic Light-Emitting Diode 有机发光二极管
PBs:Prediction Blocks 预测块
PCI:Peripheral Component Interconnect 外围设备组件互联
PLD:Programmable Logic Device 可编程逻辑设备
PUs:Prediction Units 预测单元
RAM:Random Access Memory 随机存取存储器
ROM:Read-Only Memory 只读存储器
SEI:Supplementary Enhancement Information 补充增强信息
SNR:Signal Noise Ratio 信噪比
SSD:solid-state drive 固态硬盘
TUs:Transform Units,变换单元
USB:Universal Serial Bus 通用串行总线
VUI:Video Usability Information 视频可用性信息
VVC:versatile video coding 多功能视频编码
虽然本申请已对多个实施例性实施例进行了描述,但实施例的各种变更、置换和各种替代属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确展示或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。

Claims (18)

1.一种视频解码方法,其特征在于,包括:
识别合并共享区域,所述合并共享区域内包括多个编码块,所述多个编码块包括至少一个帧间编码块;
为所述合并共享区域构造共享合并候选列表;
基于所述共享合并候选列表,对所述合并共享区域进行解码;
其中,对所述合并共享区域内的至少一个帧间编码块进行处理,并且不利用所述至少一个帧间编码块的运动信息,更新基于历史的运动矢量预测HMVP表。
2.根据权利要求1所述的方法,其特征在于,所述对所述合并共享区域内的至少一个帧间编码块进行处理,并且不利用所述至少一个帧间编码块的运动信息,更新基于历史的运动矢量预测HMVP表,包括:
对所述合并共享区域中的所有帧间编码块进行处理,同时不利用所述帧间编码块中任何帧间编码块的运动信息来更新所述HMVP表。
3.根据权利要求1所述的方法,其特征在于,所述对所述合并共享区域内的至少一个帧间编码块进行处理,并且不利用所述至少一个帧间编码块的运动信息,更新基于历史的运动矢量预测HMVP表,包括:
对所述合并共享区域中的以合并模式或跳过模式进行帧间编码的一个或多个编码块进行处理,同时不利用所述编码块的运动信息来更新所述HMVP表。
4.根据权利要求1所述的方法,其特征在于,所述对所述合并共享区域内的至少一个帧间编码块进行处理,并且不利用所述至少一个帧间编码块的运动信息,更新基于历史的运动矢量预测HMVP表,包括:
对所述合并共享区域中的至少一个如下编码块进行处理、且不利用所述编码块的运动信息来更新所述HMVP表:
(i)使用所述共享合并候选列表中的合并候选作为运动信息进行帧间编码的编码块;或
(ii)使用基于所述共享合并候选列表中的合并候选确定的运动信息进行帧间编码的编码块。
5.根据权利要求1所述的方法,其特征在于,所述对所述合并共享区域内的至少一个帧间编码块进行处理,并且不利用所述至少一个帧间编码块的运动信息,更新基于历史的运动矢量预测HMVP表,包括:
对所述合并共享区域中的根据所述共享合并候选列表进行编码的至少一个编码块进行处理,同时不利用所述编码块的运动信息来更新所述HMVP表。
6.根据权利要求1-5任一项所述的方法,其特征在于,进一步包括:
使用所述合并共享区域内按照解码顺序的第一个帧间编码块的运动信息更新所述HMVP表,并且对所述合并共享区域内的其他帧间编码块进行处理时,不使用所述其他帧间编码块的运动信息更新所述HMVP表。
7.根据权利要求1-5任一项所述的方法,其特征在于,进一步包括:
使用所述合并共享区域内按照解码顺序的最后一个帧间编码块的运动信息更新所述HMVP表,并且对所述合并共享区域内的其他帧间编码块进行处理时,不使用所述其他帧间编码块的运动信息更新所述HMVP表。
8.根据权利要求1-5任一项所述的方法,其特征在于,所述合并共享区域的大小等于或大于一尺寸阈值,所述编码块的大小小于该尺寸阈值。
9.一种视频解码装置,其特征在于,包括:
识别模块,用于识别合并共享区域,所述合并共享区域内包括多个编码块,所述多个编码块包括至少一个帧间编码块;
构造模块,用于为所述合并共享区域,构造共享合并候选列表;
解码模块,用于基于所述共享合并候选列表,对所述合并共享区域进行解码;
其中,所述解码模块对所述合并共享区域内的至少一个帧间编码块进行处理,并且不利用所述至少一个帧间编码块的运动信息,更新基于历史的运动矢量预测HMVP表。
10.根据权利要求9所述的装置,其特征在于,
所述解码模块对所述合并共享区域中的所有帧间编码块进行处理,同时不利用所述帧间编码块中任何帧间编码块的运动信息来更新所述HMVP表。
11.根据权利要求9所述的装置,其特征在于,
所述解码模块对所述合并共享区域中的以合并模式或跳过模式进行帧间编码的一个或多个编码块进行处理,同时不利用所述编码块的运动信息来更新所述HMVP表。
12.根据权利要求9所述的装置,其特征在于,
所述解码模块对所述合并共享区域中的至少一个如下编码块进行处理、且不利用所述编码块的运动信息来更新所述HMVP表:
(i)使用所述共享合并候选列表中的合并候选作为运动信息进行帧间编码的编码块;或
(ii)使用基于所述共享合并候选列表中的合并候选确定的运动信息进行帧间编码的编码块。
13.根据权利要求9所述的装置,其特征在于,
所述解码模块对所述合并共享区域中的根据所述共享合并候选列表进行编码的至少一个编码块进行处理,同时不利用所述编码块的运动信息来更新所述HMVP表。
14.根据权利要求9-13任一项所述的装置,其特征在于,
所述解码模块使用所述合并共享区域内按照解码顺序的第一个帧间编码块的运动信息更新所述HMVP表,并且对所述合并共享区域内的其他帧间编码块进行处理时,不使用所述其他帧间编码块的运动信息更新所述HMVP表。
15.根据权利要求9-13任一项所述的装置,其特征在于,
所述解码模块使用所述合并共享区域内按照解码顺序的最后一个帧间编码块的运动信息更新所述HMVP表,并且对所述合并共享区域内的其他帧间编码块进行处理时,不使用所述其他帧间编码块的运动信息更新所述HMVP表。
16.根据权利要求9-13任一项所述的装置,其特征在于,所述合并共享区域的大小等于或大于一尺寸阈值,所述编码块的大小小于该尺寸阈值。
17.一种计算机设备,包括存储器和处理器,所述存储器存储有指令,其特征在于,所述指令由所述处理器执行,以实现根据权利要求1-8中任一权利要求所述的视频解码方法。
18.一种非易失性计算机可读存储介质,存储有指令,其特征在于,所述指令由处理器执行,以实现根据权利要求1-8中任一权利要求所述的视频解码方法。
CN202080007912.5A 2019-01-17 2020-01-17 视频编解码方法及装置 Active CN113287308B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210522263.3A CN115002483A (zh) 2019-01-17 2020-01-17 视频编解码方法及装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962793872P 2019-01-17 2019-01-17
US62/793,872 2019-01-17
US16/744,938 US11032560B2 (en) 2019-01-17 2020-01-16 Method and apparatus for video coding without updating the HMVP table
US16/744,938 2020-01-16
PCT/US2020/014037 WO2020150577A1 (en) 2019-01-17 2020-01-17 Method and apparatus for video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202210522263.3A Division CN115002483A (zh) 2019-01-17 2020-01-17 视频编解码方法及装置

Publications (2)

Publication Number Publication Date
CN113287308A CN113287308A (zh) 2021-08-20
CN113287308B true CN113287308B (zh) 2022-03-25

Family

ID=71609288

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210522263.3A Pending CN115002483A (zh) 2019-01-17 2020-01-17 视频编解码方法及装置
CN202080007912.5A Active CN113287308B (zh) 2019-01-17 2020-01-17 视频编解码方法及装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202210522263.3A Pending CN115002483A (zh) 2019-01-17 2020-01-17 视频编解码方法及装置

Country Status (6)

Country Link
US (4) US11032560B2 (zh)
EP (1) EP3912346A4 (zh)
JP (1) JP7171925B2 (zh)
KR (2) KR102634869B1 (zh)
CN (2) CN115002483A (zh)
WO (1) WO2020150577A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148989B2 (en) * 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
CN111466116B (zh) * 2018-01-26 2023-04-14 寰发股份有限公司 用于视频编解码系统的仿射帧间预测的方法和装置
WO2020133518A1 (zh) 2018-12-29 2020-07-02 深圳市大疆创新科技有限公司 视频处理方法和设备
WO2020159199A1 (ko) * 2019-01-28 2020-08-06 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
CN113424535A (zh) * 2019-02-13 2021-09-21 北京字节跳动网络技术有限公司 基于运动矢量预测表的历史更新
US11166015B2 (en) * 2019-03-06 2021-11-02 Tencent America LLC Method and apparatus for video coding
JP6801830B1 (ja) * 2019-03-08 2020-12-16 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
EP3935841A4 (en) * 2019-03-08 2023-01-04 Beijing Dajia Internet Information Technology Co., Ltd. VIDEO ENCODING TO HANDLE DIFFERENT IMAGE SIZES
CN117354507A (zh) * 2019-06-06 2024-01-05 北京字节跳动网络技术有限公司 视频编解码的运动候选列表构建
WO2020259426A1 (en) * 2019-06-22 2020-12-30 Beijing Bytedance Network Technology Co., Ltd. Motion candidate list construction for intra block copy mode
WO2023246412A1 (en) * 2022-06-23 2023-12-28 Mediatek Inc. Methods and apparatus for video coding using multiple history-based motion vector prediction tables
WO2024017188A1 (en) * 2022-07-22 2024-01-25 Mediatek Inc. Method and apparatus for blending prediction in video coding system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2800370A1 (en) * 2011-12-28 2014-11-05 JVC Kenwood Corporation Video encoding device, video encoding method and video encoding program, and video decoding device, video decoding method and video decoding program
CN107371021A (zh) * 2011-12-28 2017-11-21 Jvc 建伍株式会社 动图像编码装置、动图像编码方法以及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL290229B2 (en) * 2011-06-16 2023-04-01 Ge Video Compression Llc Entropy coding of motion vector differences
KR20220131366A (ko) * 2012-10-01 2022-09-27 지이 비디오 컴프레션, 엘엘씨 베이스 레이어로부터 예측을 위한 서브블록 세부분할의 유도를 이용한 스케일러블 비디오 코딩
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US20180295375A1 (en) * 2017-04-05 2018-10-11 Lyrical Labs Video Compression Technology, LLC Video processing and encoding
EP3791587A1 (en) * 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Resetting of look up table per slice/tile/lcu row
US10491902B1 (en) * 2018-07-16 2019-11-26 Tencent America LLC Method and apparatus for history-based motion vector prediction
WO2020069673A1 (en) * 2018-10-06 2020-04-09 Mediatek Inc. Method and apparatus of shared merge candidate list region for video coding
JP2020088451A (ja) * 2018-11-16 2020-06-04 シャープ株式会社 動画像復号装置および動画像符号化装置
US11025935B2 (en) * 2019-01-10 2021-06-01 Tencent America LLC Method and apparatus for history based motion information buffer update with parallel processing capability
CN113615193A (zh) * 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2800370A1 (en) * 2011-12-28 2014-11-05 JVC Kenwood Corporation Video encoding device, video encoding method and video encoding program, and video decoding device, video decoding method and video decoding program
CN107371021A (zh) * 2011-12-28 2017-11-21 Jvc 建伍株式会社 动图像编码装置、动图像编码方法以及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CE4: Enhanced Merge with MVD (Test 4.4.4);Tomonori Hashimoto, Eiichi Sasaki, Tomohiro Ikai;《JVET of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11》;20181228;第1-4页 *

Also Published As

Publication number Publication date
EP3912346A4 (en) 2022-11-02
CN113287308A (zh) 2021-08-20
WO2020150577A1 (en) 2020-07-23
JP7171925B2 (ja) 2022-11-15
US11750828B2 (en) 2023-09-05
US11381832B2 (en) 2022-07-05
US11956456B2 (en) 2024-04-09
CN115002483A (zh) 2022-09-02
US20200236376A1 (en) 2020-07-23
KR102634869B1 (ko) 2024-02-08
US20220303562A1 (en) 2022-09-22
KR20240019405A (ko) 2024-02-14
EP3912346A1 (en) 2021-11-24
US11032560B2 (en) 2021-06-08
US20210258595A1 (en) 2021-08-19
US20230345027A1 (en) 2023-10-26
KR20210089749A (ko) 2021-07-16
JP2022514923A (ja) 2022-02-16

Similar Documents

Publication Publication Date Title
CN112470474B (zh) 视频编解码的方法和装置
CN111903127B (zh) 用于解码器的视频解码的方法、装置、介质以及解码器
CN113287308B (zh) 视频编解码方法及装置
JP7358464B2 (ja) ビデオ符号化のための方法及び機器
CN113366854B (zh) 视频编解码方法及装置
CN113574885B (zh) 视频解码方法、装置以及电子设备
CN110460857B (zh) 视频解码方法、设备以及计算机可读存储介质
KR20230175340A (ko) 병렬 처리로 히스토리 기반 모션 벡터 예측을 위한 방법 및 장치
CN112703730B (zh) 视频编解码的方法、设备和存储介质
CN113383545B (zh) 视频编解码的方法和装置
CN113261298A (zh) 用于视频编码的方法和装置
CN113678434A (zh) 视频编解码的方法和装置
CN113196782A (zh) 视频编解码方法和装置
CN113615192B (zh) 视频解码的方法、装置及存储介质
CN111837391A (zh) 合并模式下的视频编解码的方法和装置
CN110971902B (zh) 视频解码的方法和装置、计算机设备
JP2022508074A (ja) スキップ及びマージモードのためのマルチ仮説のシグナリング及び動きベクトル差分によるマージの距離オフセットテーブルのシグナリングのための方法及び装置
CN113170095B (zh) 用于视频编解码的方法和装置
CN113875234A (zh) 视频编解码的方法和装置
CN113491118B (zh) 视频编解码方法及装置
CN110944185A (zh) 视频解码的方法和装置、计算机设备及存储介质
CN111971965A (zh) 视频编解码的方法和装置
CN113647100A (zh) 用于通过信号发送预测候选列表大小的方法及装置
CN113632465A (zh) 发信号通知用于帧内图像块补偿的预测器候选列表尺寸的方法和装置
CN112135134B (zh) 视频解码方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40050989

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant