CN112135134B - 视频解码方法、装置、计算机设备和存储介质 - Google Patents

视频解码方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN112135134B
CN112135134B CN202010588153.8A CN202010588153A CN112135134B CN 112135134 B CN112135134 B CN 112135134B CN 202010588153 A CN202010588153 A CN 202010588153A CN 112135134 B CN112135134 B CN 112135134B
Authority
CN
China
Prior art keywords
block
sub
lic
candidate
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010588153.8A
Other languages
English (en)
Other versions
CN112135134A (zh
Inventor
欧阳祥
李翔
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN112135134A publication Critical patent/CN112135134A/zh
Application granted granted Critical
Publication of CN112135134B publication Critical patent/CN112135134B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/21Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with binary alpha-plane coding for video objects, e.g. context-based arithmetic encoding [CAE]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请的各方面提供一种视频编码方法和装置。所述方法包括:接收比特流,所述比特流包括代表图片中当前的块语法元素的二进制数的已编码信息。所述语法元素的二进制数指示是否应用局部亮度补偿(Local Illumination Compensation,LIC)对所述当前块进行编码。至少根据所述当前块相邻区域的编码特征,从能够应用于编码所述语法元素的至少两个候选上下文模型中选择上下文模型。根据选定的上下文模型对所述已编码信息进行解码,以获得所述语法元素的二进制数。根据所述语法元素的二进制数,重建当前块。

Description

视频解码方法、装置、计算机设备和存储介质
引用并入
本申请要求于2019年6月24日提交的标题为“LIC信令方法”的美国临时申请号62/865,950的优先权,以及2020年6月22日递交的第16/908,504号美国申请"视频编解码方法和装置"的优先权,其全部内容通过引用并入本文。
技术领域
本申请涉及视频编解码技术。
技术领域
本文所提供的背景描述旨在整体呈现本申请的背景。在背景技术部分以及本说明书的各个方面中所描述的目前已署名的发明人的工作所进行的程度,并不表明其在本申请提交时作为现有技术,且从未明示或暗示其被承认为本申请的现有技术。
未压缩的数字视频可包括一系列图片,每个图片具有例如1920×1080亮度样本及相关色度样本的空间维度。所述系列图片具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60个图片或60Hz。未压缩的视频有具体的比特率要求。例如,每个样本8比特的1080p60 4:2:0的视频(1920x1080亮度样本分辨率,60Hz帧率)要求接近1.5Gbit/s带宽。一小时这样的视频就需要超过600GB的存储空间。
视频编码和解码的一个目的,是通过压缩减少输入视频信号的冗余信息。视频压缩可以帮助降低对上述带宽和/或存储空间的要求,在某些情况下可降低两个或更多数量级。无损和有损压缩,以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视应用的用户,某些消费流媒体应用的用户可以容忍更高的失真。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
视频编码器和解码器可利用几大类技术,例如包括:帧内编码、具有运动补偿的帧间预测、变换、量化和熵编码。
在帧内编码中,在不参考先前重建的参考图片的样本或其它数据的情况下表示样本值。在一些视频编解码器中,图片在空间上被细分为样本块。当所有的样本块都以帧内模式编码时,该图片可以为帧内图片。帧内图片及其衍生(例如独立解码器刷新图片)可用于复位解码器状态,并且因此可用作编码视频比特流和视频会话中的第一图片,或用作静止图像。帧内块的样本可用于变换,且可在熵编码之前量化变换系数。帧内预测可以是使预变换域中的样本值最小化的技术。在某些情形下,变换后的DC值越小,且AC系数越小,则在给定的量化步长尺寸下需要越少的比特来表示熵编码之后的块。
如同从诸如MPEG-2代编码技术中所获知的,传统帧内编码不使用帧内预测。然而,一些较新的视频压缩技术包括:试图从例如周围样本数据和/或元数据中得到数据块的技术,其中周围样本数据和/或元数据是在空间相邻的编码/解码期间、且在解码顺序之前获得的。这种技术后来被称为"帧内预测"技术。需要注意的是,至少在某些情形下,帧内预测仅使用正在重建的当前图片的参考数据,而不使用参考图片的参考数据。
可以存在许多不同形式的帧内预测。当在给定的视频编码技术中可以使用超过一种这样的技术时,所使用的技术可以按帧内预测模式进行编码。在某些情形下,模式可具有子模式和/或参数,且这些模式可单独编码或包含在模式码字中。将哪个码字用于给定模式/子模式/参数组合会通过帧内预测影响编码效率增益,因此用于将码字转换成比特流的熵编码技术也会出现这种情况。
H.264引入了一种帧内预测模式,其在H.265中进行了改进,且在诸如联合开发模式(Joint Exploration Model,JEM)/通用视频编码(versatile video coding,VVC)/基准集合(Benchmark Set,BMS)的更新的编码技术中进一步被改进。通过使用属于已经可用的样本的相邻样本值可以形成预测块。将相邻样本的样本值按照某一方向复制到预测块中。对所使用方向的引用可以被编码在比特流中,或者本身可以被预测。
随着视频编码技术的发展,可能的方向的数量已经增加了。在H.264(2003年)中,可以表示九种不同的方向。在H.265(2013年)和JEM/VVC/BMS中增加到了33个,而在此申请时,可以支持多达65个方向。已经进行了实验来识别最可能的方向,并且熵编码中的某些技术被用于使用少量比特来表示那些可能的方向,对于较不可能的方向则接受某些代价。此外,有时可以根据在相邻的、已经解码的块中所使用的相邻方向来预测方向本身。
表示方向的编码视频比特流中的帧内预测方向比特的映射可以因视频编码技术的不同而不同,并且,例如可以从对帧内预测模式到码字的预测方向的简单直接映射,到包括最可能的模式和类似技术的复杂的自适应方案。然而,在所有情况下,视频内容中可能存在某些方向,其在统计学上比其它方向更不可能出现。由于视频压缩的目的是减少冗余,所以在运行良好的视频编码技术中,与更可能的方向相比,那些不太可能的方向将使用更多数量的比特来表示。
而且,在帧间预测中,运动补偿可以是有损压缩技术,并且可以涉及这样的技术,其中,来自先前重构的图片或其一部分(参考图片)的样本数据块在运动向量(此后称为MV)指示的方向上进行空间移位之后,用于预测新重构的图片或图片部分。在某些情况下,参考图片可以与当前正在重构的图片相同。MV可以具有两个维度X和Y,或者具有三个维度,第三个维度指示使用中的参考图片(后者可以间接是时间维度)。
在一些视频压缩技术中,可以根据其它MV预测可应用于样本数据的某一区域的MV,例如,根据与空间邻近正在重构区域、且按解码顺序在该MV之前的样本数据的另一区域相关的MV进行预测。这样做可以大大减少编码MV所需的数据量,从而消除冗余并增加压缩。例如,因为在对从摄像机导出的输入视频信号(称为自然视频)进行编码时,存在比单个MV适用的区域更大的区域沿相似方向移动的统计可能性,所以MV预测可以有效地工作,并且在某些情况下,可以使用从邻近区域的MV导出的相似运动向量进行预测。这导致了给定区域找到的MV与根据周围MV预测得到的MV相似或相同,并且在熵编码之后,又可以用比在直接编码MV时所使用的比特数更少的比特数来表示。在一些情况下,MV预测可以是从原始信号(即样本流)导出的信号(即MV)的无损压缩的示例。在其它情况下,例如,由于在根据若干个周围MV计算预测器时的舍入误差,MV预测本身可能是有损的。
在H.265/HEVC(ITU-T Rec.H.265,“高效视频编码”,2016年12月)中描述了各种MV预测机制。在H.265提供的多种MV预测机制中,此处介绍的一种技术从此被称为“空间合并”。
在H.266/VVC的提案JVET-O0066和JVET-O0086中,使用单个上下文对局部亮度补偿(Local Illumination Compensation,LIC)标志进行上下文编码,因此,对LIC标志的编码独立于其他信息。
发明内容
本申请的各方面提供用于视频编码/解码的方法、装置、计算机设备和存储介质。
本申请实施例提供了一种视频解码方法,包括:接收比特流,所述比特流包括代表图片中当前块的语法元素的二进制数的已编码信息。所述语法元素的二进制数指示是否应用局部亮度补偿(Local Illumination Compensation,LIC)对所述当前块进行编码。至少根据所述当前块相邻区域的编码特征,从能够应用于编码所述语法元素的至少两个候选上下文模型中选择上下文模型。根据选定的上下文模型对所述已编码信息进行解码,以获得所述语法元素的二进制数。根据指示应用所述LIC过程对当前块进行编码的所述二进制数,使用所述LIC过程重建所述当前块。所述至少两个候选上下文模型中的第一候选上下文模型对应于所述二进制数的第一概率,其中,所述第一概率指示应用所述LIC过程的概率高于不应用所述LIC过程的概率,并且所述至少两个候选上下文模型中的第二候选上下文模型对应于所述二进制数的第二概率,所述第二概率指示不应用所述LIC过程的概率高于应用所述LIC过程的概率
在一个实施例中,确定所述当前块的顶行子块或左列子块中的至少一个是否满足应用所述LIC过程的至少一个条件。当确定所述顶行子块或左列子块中的至少一个满足所述至少一个条件时,可以选择所述至少两个候选上下文模型中的所述第一候选上下文模型作为所述选定的上下文模型;并且,当确定所述顶行子块和所述左列子块都未满足所述至少一个条件时,选择所述至少两个候选上下文模型中的所述第二候选上下文模型作为所述选定的上下文模型,所述第二候选上下文模型不同于所述第一候选上下文模型。
在一些示例中,所述每一个候选上下文模型都与对应的上下文增量索引相关联。所述第一候选上下文模型与第一上下文增量索引相关联,其中,所述第一上下文增量索引的值为0或1,并且,所述第二候选上下文模型与第二上下文增量索引相关联,其中,所述第二上下文增量索引的值为0或1中的另外一个。
在一些实施例中,所述至少一个条件包括:对于所述顶行子块中的第一子块,根据无残差的帧间预测,对与所述第一子块的上侧相邻的上方块进行编码,并且对于所述左列子块中的第二子块,根据无残差的所述帧间预测,对与所述第二子块的左侧相邻的左侧块进行编码。
在一些实施例中,所述至少一个条件包括:对于所述顶行子块中的第一子块,使用不为零的根编码块标志(Coded Block Flag,CBF),对与所述第一子块的上侧相邻的上方块进行编码,根据帧间预测对所述上方块进行编码,并且不使用组合的帧内和帧间预测(Combined Intra and Inter Prediction,CIIP)对所述上方块进行编码,并且,对于所述左列子块中的第二子块,使用不为零的所述根CBF,对与所述第二子块左侧相邻的左侧块进行编码,根据所述帧间预测对所述左侧块进行编码,并且不使用所述CIIP对所述左侧块进行编码。
在一些示例中,在所述当前块的尺寸大于16×16个样本时,所述当前块的顶行子块和左列子块位于所述当前块的左上16×16个样本区域内。
本申请实施例还提供了一种装置,包括:接收模块,用于接收比特流,所述比特流包括代表图片中当前块的语法元素的二进制数的已编码信息,所述语法元素的二进制数指示是否应用LIC过程对所述当前块进行编码;选择模块,用于至少根据所述当前块相邻区域的编码特征,从能够应用于编码所述语法元素的至少两个候选上下文模型中选择上下文模型;解码模块,用于根据选定的上下文模型对所述已编码信息进行解码,以获得所述语法元素的二进制数;第一重建模块,用于根据指示应用所述LIC过程对当前块进行编码的所述二进制数,使用所述LIC过程重建所述当前块;所述至少两个候选上下文模型中的第一候选上下文模型对应于所述二进制数的第一概率,其中,所述第一概率指示应用所述LIC过程的概率高于不应用所述LIC过程的概率,并且,所述至少两个候选上下文模型中的第二候选上下文模型对应于所述二进制数的第二概率,所述第二概率指示不应用所述LIC过程的概率高于应用所述LIC过程的概率。
本申请实施例还提供了一种计算机设备,所述设备包括至少一个处理器和至少一个存储器,所述至少一个存储器中存储有至少一条指令,所述至少一条指令由所述至少一个处理器加载并执行以实现上述视频解码方法。
本申请实施例还提供了一种非易失性计算机可读介质,所述非易失性计算机可读介质中存储有指令,所述指令在由处理器执行时,使所述处理器执行上述视频解码方法。
在本申请实施例中,通过利用LIC标志与其他可用信息之间的相互依赖性,对具有至少两个上下文的LIC标志进行编码,从而提高了编码效率。
附图说明
根据下面的详细描述和附图,所公开的主题的其他特征、性质和各种优点将变得更加显而易见,在附图中:
图1是一个示例中的当前块及其周围的空间合并候选的示意图。
图2是根据另一实施例的通信系统的简化框图的示意图;
图3是根据一实施例的通信系统的简化框图的示意图;
图4是根据一实施例的解码器的简化框图的示意图;
图5是根据一实施例的编码器的简化框图的示意图;
图6示出了根据另一实施例的编码器的框图;
图7示出了根据另一实施例的解码器的框图;
图8是根据实施例的当前块和对应的合并候选的示意图,其中对应的合并候选是基于合并模式从相邻块导出的。
图9是根据实施例的围绕两个起点的预定点的示意图,其中两个起点将在具有运动矢量差的合并模式(merge mode with motion vector difference,MMVD)中被评估。
图10A是根据实施例的6个参数仿射模型的示意图。
图10B是根据实施例的4个参数仿射模型的示意图。
图10C是根据实施例的为子块导出的运动矢量的示意图,其中所述子块是按照仿射预测方法编码的当前块的子块。
图11是根据实施例的按照仿射预测方法编码的当前块的空间相邻块和时间相邻块的示意图。
图12A是根据一个实施例的空间相邻块的示意图,其中该空间相邻块可以使用基于子块的时间运动矢量预测(subblock-based temporal motion vector prediction,SbTMVP)方法确定当前块的预测运动信息。
图12B是根据一个实施例的用于SbTMVP方法的选定空间相邻块的示意图。
图13示出了根据一个实施例的用于导出局部亮度补偿(Local IlluminationCompensation,LIC)参数的相邻样本的示例。
图14示出了根据一个实施例的当LIC被用于双向预测时的示例。
图15示出了根据一个实施例的当LIC与组合的帧间预测和帧内预测(CIIP)一起使用时的示例。
图16示出了根据一个实施例的用于提取参考样本的第一方法的示例。
图17示出了根据一个实施例的用于提取参考样本的第二方法的示例。
图18示出了根据一个实施例的对LIC标志编码的功能流程图。
图19示出了概述根据本申请的一些实施例的解码过程的流程图。
图20示出了概述根据本申请的一些实施例的编码过程的流程图。
图21是根据实施例的计算机系统的示意图。
具体实施方式
请参考图1,当前块(101)包括在运动搜索过程期间已由编码器发现的样本,根据已产生空间偏移的相同大小的先前块,可预测所述样本。另外,可从至少一个参考图片相关联的元数据中导出所述MV,而非对MV直接编码。例如,使用关联于A0、A1和B0、B1、B2(分别对应102到106)五个周围样本中的任一样本的MV,(按解码次序)从最近的参考图片的元数据中导出所述MV。在H.265中,MV预测可使用相邻块也正在使用的相同参考图片的预测值。
I.视频编码的编码器和解码器
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200)包括至少两个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的第一终端装置(210)和第二终端装置(220)。在图2的实施例中,第一终端装置(210)和第二终端装置(220)执行单向数据传输。举例来说,第一终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到第二端装置(220)。已编码的视频数据以至少一个已编码视频码流形式传输。第二终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的第三终端装置(230)和第四终端装置(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,第三终端装置(230)和第四终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码,以通过网络(250)传输到第三终端装置(230)和第四终端装置(240)中的另一终端装置。第三终端装置(230)和第四终端装置(240)中的每个终端装置还可接收由第三终端装置(230)和第四终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本申请的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。至少一个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的至少一个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及至少两个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的至少两个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为至少两个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括至少一个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的至少一个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的至少两个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,至少两个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成至少两个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的至少两个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用至少两个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为至少一个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为至少一个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从至少一个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的至少一个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据至少一个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从空间域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用至少一个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的至少一个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
II.图片间预测模式
在各种实施例中,可以将图片划分成块,例如,使用基于树结构的划分方案。然后,可以根据不同的处理模式,诸如帧内预测模式、在合并模式中执行的帧间预测模式、跳过模式、高级运动矢量预测(Advanced Motion Vector Prediction,AMVP)模式等,来处理得到的块。帧内编码块可以是用帧内预测模式编码的块。相比之下,帧间编码块可以是用帧间预测模式处理的块。
1.合并模式
当根据合并模式处理被称为当前块的当前正在处理的块时,可以根据一组空间和/或时间上相邻块创建当前块的合并候选列表。可以选择合并候选列表中的一个运动信息候选,以确定或导出当前块的运动信息。可以从编码器向解码器发信号通知指示选择哪一候选的合并索引。
图8是根据实施例的当前块和对应的合并候选的示意图,其中对应的合并候选是基于合并模式从相邻块导出的。在所述示例中,将针对根据合并模式处理的当前块(810)创建合并候选列表。为合并模式处理定义一组相邻块,分别表示为A1、B1、B0、A0、B2、C0和C1。可以根据与当前块(810)在同一图片中的在空间上相邻块A1、B1、B0、A0和B2,确定用于创建合并候选列表的空间候选。此外,可以根据时间相邻块C0和C1来确定用于创建合并候选列表的时间候选,时间相邻块C0和C1对应于在另一个已编码图片中,并且与当前块(810)的并置块相邻或重叠的块。在一个示例中,时间相邻块C1可以位于对应于当前块(810)中心的附近(例如,邻近)位置。
在一些示例中,合并候选列表可以具有预定义的最大数目的合并候选,其中,预定义的最大数目可以表示为Cm。可以根据特定顺序,在合并候选列表中列出合并候选。在一个示例中,根据预定义顺序,可以基于顺序{A1,B1,B0,A0,B2}从空间相邻块导出第一数目的合并候选项Ca,并且可以根据顺序{C0,C1},从时间相邻块中导出第二数目的合并候选项Cb=Cm-Ca。
在一些情况下,特定相邻块的候选运动信息可能不可用。例如,相邻块可以是帧内预测的,在包括当前块(810)的切片或图块之外,或者不在与当前块(810)相同的编码树块(Coding Tree Block,CTB)行中。在一些情况下,各种相邻块的候选运动信息可能是冗余的。在一些示例中,可以从合并候选列表移除(例如,通过执行修剪过程)冗余合并候选。当合并候选列表中可用合并候选的总数(其中冗余候选被移除)小于合并候选的最大数目Cm时,可以添加至少一个另外的合并候选(例如,根据预配置的规则)以填充合并候选列表。例如,另外的合并候选可以包括组合的双预测候选和/或零运动矢量候选。
在创建合并候选列表之后,在编码器处,可以执行评估过程,以从合并候选列表中选择合并候选。例如,可以计算对应于每个合并候选的率失真(Rate-Distortion,RD)性能,并且可以选择具有最佳RD性能的合并候选。因此,可以为当前块(810)确定与选定的合并候选相关联的合并索引,并且发信号通知解码器。
在解码器处,可以接收所述当前块(810)的合并索引。如上所描述的,可以执行类似的合并候选列表创建过程,以生成与编码器侧相同的合并候选列表。在创建合并候选列表之后,在一些示例中,可以基于接收到的合并索引,从合并候选列表中选择合并候选,而无需执行任何进一步的评估。选定的合并候选的运动信息可以用于当前块(810)的后续运动补偿预测。
在一些示例中还引入了跳过模式(skip mode)。例如,在跳过模式中,可以使用如上所述的合并模式预测当前块,以确定一组运动信息,而不引入残差信息。跳过标志可以与当前块相关联。可以将指示当前块的相关运动信息的跳过标志和合并索引发信号通知给视频解码器。例如,在图片间预测切片中编码单元(Coding Unit,CU)的开始处,可以发信号通知跳过标志,其暗示如下:所述CU仅包含一个预测单元(Prediction Unit,PU)(2N×2N);使用合并模式导出运动信息;并且比特流中不存在残差信息。在解码器侧,基于跳过标志,可以基于合并索引确定预测块,以对各个当前块进行解码而无需添加残差信息。因此,本文公开的用于合并模式的各种视频编码方法可以与跳过模式结合使用。
在一些实施例中,在比特流中发信号通知的合并标志或跳过标志可以指示是否将根据合并模式对当前块(810)进行编码。如果合并标志被设置为TRUE,则可以发信号通知合并索引,以指示合并候选列表中的哪个候选将被用于提供当前块的运动信息。在一些实施例中,可以将多达四个空间合并候选(来自四个空间相邻块)和多达一个时间合并候选(来自一个时间相邻块)添加到合并候选列表中。可以定义语法MaxMergeCandsNum,以指示合并候选列表的大小。可在比特流中发信号通知语法MaxMergeCandsNum。
2.具有运动矢量差的合并模式(Merge mode with Motion Vector Difference,MMVD)
在一些实施例中,具有运动矢量差的合并模式(MMVD)用于确定当前块的运动矢量预测符。当启用跳过模式或合并模式时,可以使用MMVD模式。在跳过模式或合并模式的合并候选列表中,MMVD模式重用合并候选。例如,从合并候选列表中选定的合并候选可以用于提供参考图片处的起始点。可以用起始点和运动偏移表示当前块的运动矢量,其中,所述运动偏移包括相对于起始点的运动幅度和运动方向。在编码器侧,可以基于搜索过程(评估过程),选择合并候选和确定运动偏移。在解码器侧,可以基于来自编码器侧的信令,确定选定的合并候选和运动偏移。
在MMVD模式中,可以通过发信号通知的运动矢量差(MVD)信息进一步细化选定的合并候选。在一些实施例中,MVD信息包含合并候选标志、用于指定运动幅度的索引以及用于指示运动方向的索引。在MMVD模式中,可以选择合并候选列表中的一个候选,作为MV基础。发信号通知合并候选标志,以指定选择哪一个作为MV基础。
可以使用距离索引指定起始点MV的水平分量或竖直分量的预定义偏移。例如,表1中示出了至少两个预定义的像素距离,每个像素距离与从0到7的索引相关联。可以从至少两个像素距离确定具有距离索引的像素距离,所述具有距离索引的像素距离用于提供运动幅度。将偏移添加到起始MV的水平分量或竖直分量。表1中指定了距离索引和预定义偏移的关系。
表1-距离索引
距离索引 0 1 2 3 4 5 6 7
像素距离 1/4-pel 1/2-pel 1-pel 2-pel 4-pel 8-pel 16-pel 32-pel
方向索引表示MVD相对于起始点的方向。例如,表2中示出索引从00到11(二进制)的四个方向。可以从四个方向确定具有方向索引的方向,并且使用所述方向提供相对于起始点的运动偏移的方向。
表2-方向索引
方向索引 00 01 10 11
x-轴线 + N/A N/A
y-轴线 N/A N/A +
在一些实施例中,MVD方向的定义可以根据至少一个起始MV的信息而变化。当至少一个起始MV包括单预测MV或双预测MV,其中两个列表都指向当前图片的同一侧(即,两个参考图片的图像序列号(Picture Order Count,POC)都大于当前图片的POC,或者都小于当前图片的POC)时,可以使用表2识别的方向指定添加到起始MV的MV偏移的方向。当至少一个起始MV是双预测MV,其中两个MV指向当前图片的不同侧(即一个参考图片的POC大于当前图片的POC,而另一个参考图片的POC小于当前图片的POC),可以使用表2识别的方向将列表0MV分量的MV偏移和起始MV的列表1MV分量在相反方向相加。
图9是根据实施例的围绕两个起点的预定点的示意图,其中两个起点将在具有运动矢量差(motion vector difference,MMVD)的合并模式中被评估。在图9示出的示例中,当前块的第一运动矢量和第二运动矢量相应地与参考图片列表L0和L1中的两个参考图片(910)和(940)相关联。可在参考图片(910)和(940)中确定两个起始点(912)和(942)。
在编码侧的示例中,基于起始点(912)和(942),可以评估参考图片(910)和(940)中从起始点(912)和(942)在竖直方向(由+Y或-Y表示)或水平方向(由+X和-X表示)上延伸的至少两个预定义点。基于评估,可以从合并列表中选择合并候选,并且还可以确定运动方向和运动距离。例如,基于选定的合并候选,可以确定基础候选索引。基于选定的运动矢量预测符,诸如对应于预定义点(例如,916或946)的运动矢量预测符,可以确定所述点(例如,916或946)相对于起始点(912或942)的方向和距离。根据表1和表2,可以相应地确定方向索引和距离索引。在解码侧的示例中,可以基于发信号通知的起始点、方向和距离确定根据MMVD的细化运动矢量。
3.仿射预测模式
在一些示例中,可以使用仿射模型(例如,6个参数仿射模型或4个参数仿射模型)导出当前块和/或当前块的子块的运动矢量。图10A是根据实施例的6个参数(根据三个控制点)仿射模型的示意图。
在示例中,仿射编码块(例如,当前块1002)的6个参数可由所述当前块的三个不同位置(例如,图10A中左上角、右上角和左下角的控制点CP0、CP1和CP2)处的三个运动矢量(也称为三个控制点运动矢量(control point motion vectors,CPMV,例如,CPMV0、CPMV1和CPMV2))来表示。在一些实施例中,对于6个参数仿射模型,可以将当前块(1002)中的样本位置(x,y)处的运动矢量导出为:
Figure GDA0003472619630000281
其中(mv0x,mv0y)表示所述左上角控制点(CPMV0)的运动矢量,(mv1x,mv1y)表示所述右上角控制点(CPMV1)的运动矢量,并且(mv2x,mv2y)表示所述左下角控制点(CPMV2)的运动矢量。此外,W表示当前块(1002)的宽度,并且H表示当前块(1002)的高度。
图10B是根据实施例的4个参数(根据两个控制点)仿射模型的示意图。在另一个示例中,简化的仿射模型使用四个参数来描述仿射编码块(例如,所述当前块1002)的运动信息,所述仿射编码块的运动信息可由所述当前块的两个不同位置(例如,图10B中左上角和右上角的控制点CP0和CP1)处的两个运动矢量(也称为两个CPMV,例如,CPMV0和CPMV1)来表示。在一些实施例中,对于4个参数仿射模型,可以将当前块(1002)中的样本位置(x,y)处的运动矢量导出为:
Figure GDA0003472619630000282
其中(mv0x,mv0y)表示左上角控制点(CPMV0)的运动矢量,而(mv1x,mv1y)表示右上角控制点(CPMV1)的运动矢量。此外,W表示当前块(1002)的宽度。
在一些实施例中,为了简化运动补偿预测,应用基于子块的仿射预测方法。图10C是根据实施例的为子块导出的运动矢量的示意图,其中所述子块是按照仿射预测方法编码的当前块的子块。在图10C中,可以将当前块(1002)分成子块。在所述示例中,每个子块都可以是4×4亮度子块。对应于各个子块中心的子块运动矢量(MVa-MVp)可以根据如上所描述的4个参数仿射预测方法来计算,并且舍入为例如1/16的分数精度。可以根据所计算的子块运动矢量来生成子块的运动补偿预测块数据。
在一些实施例中,还可以将色度分量的子块大小设置为4×4。可以将4×4色度子块的MV计算为四个对应的4×4亮度子块的MV的平均值。
在一些实施例中,可以明确地发信号通知CPMV。在一些实施例中,可以根据各种CPMV预测方法,诸如仿射合并模式或仿射AMVP模式,来确定CPMV。
3.1.仿射合并模式
图11是根据实施例的按照仿射预测方法编码的当前块(1101)的空间相邻块和时间相邻块的示意图。如图中示出的,将空间相邻块表示为A0、A1、A2、B0、B1、B2和B3(相应地为1102、1103、1107、1104、1105、1106和1108),并且将时间相邻块表示为C0(1112)。在一些示例中,空间相邻块A0、A1、A2、B0、B1、B2和B3以及当前块(1101)在同一图片中。在一些示例中,时间相邻块C0在参考图片中,对应于当前块(1101)之外并且邻近当前块(1101)的右下角的位置。
可以基于至少一个空间相邻块和/或时间相邻块中的运动信息,使用仿射合并模式创建运动信息候选列表(也称为仿射合并候选列表)。在一些示例中,若当前块(1101)具有大于或等于8个样本的宽度和高度时,可以应用仿射合并模式。根据仿射合并模式,可以基于列表的运动信息候选确定当前块(1101)的CPMV。在一些示例中,运动信息候选列表可以包括多达五个CPMV候选,并且可以发信号通知索引,以指示将哪个CPMV候选用于当前块。在一些实施例中,CPMV候选包括仿射模型的所有CPMV。
在一些实施例中,仿射合并候选列表可以具有三种类型的CPVM候选,包括继承的仿射候选、创建的仿射候选和零MV。可以通过从相邻块的CPMV外推来导出继承的仿射候选。可以使用相邻块的平移MV来导出创建的仿射候选。
在示例中,最多可以有两个继承的仿射候选,所述继承的仿射候选可以从相邻块的对应仿射运动模型导出,并且相邻块包括来自左相邻块(A0及A1)的一个块及来自上部相邻块(B0、B1及B2)的一个块。对于来自左侧的候选,可以顺序地检查相邻块A0和A1,并且将来自相邻块A0和A1的第一可用继承的仿射候选用作来自左侧的继承的仿射候选。对于来自所述顶部的候选,可以顺序地检查相邻块B0、B1和B2,并且将来自相邻块B0、B1和B2的第一可用的继承的仿射候选用作来自所述顶部的继承的仿射候选。在一些示例中,在两个继承的仿射候选之间不执行修剪检查。
当识别相邻仿射块时,可以从相邻仿射块的控制点运动矢量导出待添加到当前块(1101)的仿射合并列表的对应继承的仿射候选。在图11示例中,如果以仿射模式对相邻块A1进行编码,则可以获得块A1的左上角(控制点CP0A1)、右上角(控制点CP1A1)和左下角(控制点CP2A1)的运动矢量。当使用4个参数仿射模型对块A1进行编码时,可以根据控制点CP0A1和控制点CP1A1的运动矢量,计算作为所述当前块(1101)的继承的仿射候选的两个CPMV。当使用6个参数仿射模型对块A1进行编码时,可以根据控制点CP0A1、控制点CP1A1和控制点CP2A1的运动矢量,计算作为所述当前块(1101)的继承的仿射候选的三个CPMV。
而且,可以通过组合每个控制点的相邻平移运动信息导出创建的仿射候选。控制点CP0、CP1和CP2的运动信息是从指定的空间相邻块A0、A1、A2、B0、B1、B2和B3导出的。
例如,CPMVk(k=0,1,2,3)表示四个不同控制点的运动矢量,其中CPMV0对应于控制点CP0,CPMV1对应于控制点CP1,CPMV2对应于控制点CP2,并且CPMV3对应于基于时间相邻块C0的时间控制点。对于CPMV0,可以顺序地检查相邻块B2、B3和A2,并且将来自相邻块B2、B3和A2的第一可用运动矢量用作CPMV0。对于CPMV1,可以顺序地检查相邻块B1和B0,并且将来自相邻块B1和B0的第一可用运动矢量用作CPMV1。对于CPMV2,可以顺序地检查相邻块A1和A0,并且将来自相邻块A1和A0的第一可用运动矢量用作CPMV2。而且,如果可用,那么时间相邻块C0的运动矢量可以用作CPMV4
在获得四个控制点CP0、CP1、CP2和时间控制点的CPMV0、CPMV1、CPMV2和CPMV3之后,可以创建仿射合并候选列表,使其包含如下顺序的仿射合并候选:{CPMV0、CPMV1、CPMV2};{CPMV0、CPMV1、CPMV3};{CPMV0、CPMV2、CPMV3};{CPMV1、CPMV2、CPMV3};{CPMV0、CPMV1}和{CPMV0、CPMV2}。三个CPMV的任意组合可以形成6个参数仿射合并候选,并且两个CPMV的任意组合可以形成4个参数仿射合并候选。在一些示例中,为了避免运动缩放过程,如果一组控制点的参考索引不同,则可以丢弃CPMV的对应组合。
在一些实施例中,在检查继承的仿射合并候选和创建的仿射合并候选之后,如果列表仍然未满,则将零MV插入列表的末尾。
3.2.仿射AMVP模式
在一些实施例中,若当前块(1101)具有大于或等于16个样本的宽度和高度时,可以使用仿射AMVP模式创建运动信息候选列表。根据仿射AMVP模式,可在比特流中发信号通知CU级别中的仿射标志,以指示是否使用仿射AMVP模式,然后可以发信号通知另一个标志,以指示是否使用4个参数仿射模型或6个参数仿射模型。在仿射AMVP模式中,可在比特流中发信号通知当前块的CPMV和对应的CPMV预测符(CPMVp)的差异。在一些实施例中,仿射AVMP候选列表可以具有两个候选的大小,通过按照顺序使用以下四种类型的CPVM候选生成,包括:(1)从至少一个相邻CU的CPMV外推的继承的仿射AMVP候选;(2)创建使用至少一个相邻CU的平移MV导出的仿射AMVP候选;(3)来自至少一个相邻CU的平移MV;(4)零MV。
为了导出继承的仿射AMVP候选,在一些示例中,继承的仿射AMVP候选的检查顺序与继承的仿射合并候选的检查顺序相同。可仅从具有与当前块相同的参考图片的仿射CU确定AMVP候选。在一些实施例中,当将继承的仿射运动预测符插入到候选列表中时,不应用修剪过程。
为了导出创建的仿射AMVP候选,在一些示例中,创建的AMVP候选可以如图11中示出的从至少一个相邻块导出,其中,所述至少一个相邻块在仿射合并候选创建期间使用相同的检查顺序。另外,还检查相邻块的参考图片索引。例如,可以使用检查顺序中的第一块,所述第一块经过帧间编码,并且具有与当前块相同的参考图片。在一些实施例中,可以存在一个创建的仿射AMVP候选。在一些实施例中,当根据4个参数仿射模式对当前块进行编码,并且对应于当前块CP0和CP1的被检查的相邻块的控制点运动矢量都可用时,可以将被检查的相邻块的这些控制点运动矢量的集合添加为仿射AMVP列表中的候选。当根据6个参数仿射模式对当前块进行编码,并且对应于当前块CP0、CP1和CP2的被检查的相邻块的控制点运动矢量都可用时,可以将被检查的相邻块的这些控制点运动矢量的集合添加为仿射AMVP列表中的候选。否则,可以将所检查的相邻块创建的AMVP候选确定为不可用。
在一些实施例中,如果在检查了继承的仿射AMVP候选和创建的AMVP候选之后,仿射AMVP候选列表中少于两个候选,则可以将至少一个相邻块的平移MV导出的候选添加到仿射AMVP候选列表。最后,如果仿射AMVP候选列表仍未满,则可以使用零MV来填充所述列表。
4.基于子块的时间运动矢量预测(subblock-based temporal motion vectorprediction,SbTMVP)模式
图12A是根据一个实施例的空间相邻块的示意图,其中该空间相邻块可以使用基于子块的时间运动矢量预测SbTMVP方法确定当前块(1211)的预测运动信息。图12A示出了当前块(1211),及表示为A0、A1、B0和B1(相应地为1212、1213、1214和1215)的空间相邻块。在一些示例中,空间相邻块A0、A1、B0和B1以及当前块(1211)在同一图片中。
图12B是根据实施例的,基于选定的空间相邻块(例如,块A1),使用SbTMVP方法确定当前块(1211)的子块的运动信息的示意图。在所述示例中,当前块(1211)在当前图片(1210)中,并且参考块(1261)在参考图片(1260)中。可以基于由运动矢量(1222)指示的当前块(1211)和参考块(1261)之间的运动移位(或位移)识别参考块(1261)。
在一些实施例中,类似于HEVC中的时间运动矢量预测(Temporal Motion VectorPrediction,TMVP),针对当前图片中的当前块,SbTMVP使用参考图片中的各种参考子块中的运动信息。在一些实施例中,由TMVP使用的相同参考图片可以用于sbTMVP。在一些实施例中,TMVP预测CU级别的运动信息,但是SbTMVP预测子CU级别的运动。在一些实施例中,TMVP使用参考图片中并置块的时间运动矢量,所述并置块的对应位置为邻近当前块的右下角或中心,并且SbTMVP使用参考块的时间运动矢量,所述时间运动矢量可以基于当前块的一个空间相邻块的运动矢量执行运动移位来识别。
例如,如图12A中示出的,可在sbTMVP过程中顺序地检查相邻块A1、B1、B0和A0。一旦识别第一空间相邻块,其中第一空间相邻块的运动矢量使用参考图片(1260)作为其参考图片,比如,块A1的运动矢量(1222)指向参考图片(1260)中的参考块AR1,所述运动矢量(1222)可以用于执行所述运动移位。如果空间相邻块A1、B1、B0和A0中没有可用的此类运动矢量,则将运动移位设置为(0,0)。
在确定运动移位之后,可以基于当前块(1211)的位置和确定的运动移位识别参考块(1261)。在图12B中,将参考块(1261)分成16个子块,所述16个子块具有参考运动信息MRa至MRp。在一些示例中,可以基于覆盖相应子块的中心样本的最小运动网格,确定参考块(1261)中每个子块的参考运动信息。运动信息可以包括运动矢量和对应的参考索引。可以将当前块(1211)分成16个子块,在一些具有时间缩放的示例中,可以以类似于TMVP过程的方式,从参考运动信息MRa至MRp导出当前块(1211)中子块的运动信息MVa至MVp。
SbTMVP过程中使用的子块大小可以是固定的(或以其他方式预先确定)或发信号通知。在一些示例中,在SbTMVP过程中使用的子块大小可以是8×8个样本。在一些示例中,SbTMVP过程仅适用于宽度和高度大于或等于固定大小,或发信号通知大小(例如8个像素)的块。
在示例中,组合的基于子块的合并列表用于发信号通知基于子块的合并模式,其中,组合的基于子块的合并列表包括sbTMVP候选和仿射合并候选。可以通过序列参数集(Sequence Parameter Set,SPS)标志启用或禁用sbTMVP模式。在一些示例中,如果启用SbTMVP模式,则将SbTMVP候选添加为基于子块的合并候选列表的第一条目,并且接着添加仿射合并候选。在一些实施例中,将基于子块的合并候选列表的最大尺寸设置为五。然而,在其他实施例中可以使用其他尺寸。
在一些实施例中,另外的SbTMVP合并候选的编码逻辑与其他合并候选的编码逻辑相同。也就是说,对于P或B切片中的每个块,可以执行另外的率失真检查以确定是否使用SbTMVP候选。
5.基于子块的合并候选列表
在一些标准(诸如,VVC)中,组合的基于子块的合并候选列表用于发信号通知基于子块的合并模式,其中,组合的基于子块的合并候选列表包含sbTMVP候选和仿射合并候选。可以通过序列参数集(SPS)标志启用或禁用sbTMVP模式。在一些实施例中,如果启用SbTMVP模式,则可以将SbTMVP预测符添加为基于子块的合并候选列表的第一条目,并且接着添加仿射合并候选。可由SPS发信号通知基于子块的合并候选列表的大小。在一些实施例中,将基于子块的合并列表的最大尺寸设置为5。
在一些实施例中,在SbTMVP中使用的子块大小固定为8×8。在一些示例中,类似于仿射合并模式的实现,SbTMVP模式只能适用于其中宽度和高度两者都大于或等于8的CU。
6.组合帧间预测和帧内预测(CIIP)
在一些实施例中,当在合并模式中对CU进行编码时,如果CU包含至少64个亮度样本(例如,CU宽度乘以CU高度的乘积大于或等于64),则可以发信号通知另外的标志,以指示是否将组合的帧间预测和帧内预测(CIIP)模式应用于当前CU。在一些示例中,也将CIIP模式称为多假设预测的示例。
在一些实施例中,当应用CIIP模式时,首先导出帧内预测模式,其中,可以使用多达四种可能的帧内预测模式,包括DC模式、平面模式、水平模式或竖直模式。之后,以类似于常规帧内和帧间预测过程的方式,相应地根据帧间预测和帧内预测信号(即,一组帧间预测样本和一组帧内预测样本)导出预测块的预测样本。最后,可以根据加权平均过程,组合所述一组帧间预测样本和所述一组帧内预测样本,以获得一组CIIP预测样本。
6.1帧内预测模式推导
在实施例中,在预测CIIP模式中的亮度分量时,可以使用多达4种帧内预测模式,包括DC、平面、水平和竖直模式。在一些实施例中,如果CU形状是宽的(例如,CU宽度是CU高度的两倍以上),可能不允许水平模式。在一些实施例中,如果CU形状是窄的(例如,CU高度是CU宽度的两倍以上),则可能不允许竖直模式。
在一些实施例中,CIIP模式可以使用三种最可能的模式(Most Probable Modes,MPM)进行帧内预测。CIIP MPM候选列表可以形成如下:
(i)将左部相邻块和顶部相邻块分别设置为A和B;
(ii)将块A和块B的帧内预测模式相应地表示为intraModeA和intraModeB,推导如下:
(a)设X为A或B,
(b)如果(1),块X不可用,则将intraModeX设置为DC;或者(2),不使用CIIP模式或帧内模式预测块X;或者,(3),块X在当前编码树单元(Coding Tree Unit,CTU)之外,并且,
(c)否则,如果块X的帧内预测模式是DC模式或平面模式,则将intraModeX设置为(1)DC或平面;或者,如果块X的帧内预测模式是“类竖直”角度模式,则将intraModeX设置为(2)竖直(例如,在实现66个角度模式的一些示例中,模式编号大于34);或者,如果块X的帧内预测模式是“类水平”角度模式,则将intraModeX设置为(3)水平(例如,在实现66个角度模式的一些示例中,模式编号小于或等于34);
(iii)如果intraModeA和intraModeB是相同的:
a.如果intraModeA是平面模式或DC模式,则将三个MPM按照所述顺序设置为{平面,DC,竖直},并且,
b.否则,将三个MPM按照所述顺序设置为{intraModeA,平面,DC};并且,
(iv)否则(intraModeA和intraModeB是不同的):
a.将前两个MPM按照所述顺序设置为{intraModeA,intraModeB},并且,
b.按照前两个MPM候选模式的顺序检查平面,DC和竖直的唯一性;一旦发现唯一模式,就将其添加为第三MPM。
在一些实施例中,如果CU形状是如上定义的宽或窄,则在没有发信号通知的情况下,推断MPM标志为1。否则,可以发信号通知MPM标志,以指示是否正在使用CIIP帧内预测模式。
在一些实施例中,如果MPM标志是1,还可以发信号通知MPM索引,以指示在CIIP帧内预测中使用哪一个MPM候选模式。否则,如果MPM标志为0,则将帧内预测模式设置为上述MPM候选中的“缺失模式”,其中,MPM候选列表中不包含该“缺失模式”。例如,由于在CIIP帧内预测模式中考虑了四种可能的帧内预测模式,并且MPM候选列表仅包含三种帧内预测模式,因此四种可能的模式中的一种可以是缺失模式。例如,如果MPM候选列表中不包含平面模式,则平面模式是缺失模式,并且可以将帧内预测模式设置为平面模式。
对于色度分量,可在无额外发信号通知的情况下,应用DM模式。因此,在一些示例中,色度分量使用与相应亮度分量相同的预测模式。
在一些实施例中,可以保存CIIP编码的CU的帧内预测模式,并用于未来相邻CU的帧内模式编码。
6.2组合帧间预测样本和帧内预测样本
在实施例中,使用应用于常规合并模式的帧间预测过程,导出所述CIIP模式Pinter中的所述一组帧间预测样本,并且使用常规帧内预测过程之后的CIIP帧内预测模式,导出一组帧内预测样本Pintra。然后,可以使用加权平均,组合帧内预测样本和帧间预测样本,以获得一组CIIP预测样本PCIIP,其中权重可以取决于帧内预测模式,以及样本在编码块中的位置。
在一些实施例中,如果帧内预测模式是DC或平面模式,或者,如果块宽度或高度小于4个像素,则可以对所述一组帧内预测样本和所述一组帧间预测样本应用相等的权重。否则,可以基于帧内预测模式(在一些情况下为水平模式或竖直模式)和块中的样本位置来确定权重。例如,当帧内预测模式为水平预测模式时,可以将编码块分成大小为(W/4)×H的四个等面积部分,其中,W是块的宽度,并且H是块的高度。从最接近帧内预测参考样本的部分开始,并且到最远离帧内预测参考样本的部分结束,可以相应地将4个区域中每一个区域的所述一组帧内预测样本的权重wt设置为6、5、3和2,其中总权重为8。类似地导出竖直模式的权重,但将编码块分成大小为W×(H/4)的四个等面积部分。
对于一组帧内预测样本的导出权重wt,在所述示例中,可以根据下式导出组合的CIIP预测图像:
PCIIP=((8-wt)×Pinter+wt×Pintra+4)>>3. (等式3)
7.基于局部亮度补偿(Local Illumination Compensation,LIC)的预测细化
7.1局部亮度补偿
在一些实施例中,局部亮度补偿(LIC)是使用的块级编码模式。在一些示例中,可在编码单元(CU)级别启用或禁用LIC。
LIC基于用于亮度变化的线性模型,使用比例因子a和偏移b。LIC可以应用于块的帧间预测样本。可以根据下式生成应用LIC的预测:
PredLIC=a·Pred+b, (等式4)
其中PredLIC指示在应用LIC之后块的预测样本,Pred指示在应用LIC之前的帧间预测样本。
可以根据下式导出使用LICRecLIC的块的像素的最终重建:
RecLIC=PredLIC+Res=a·Pred+b+Res, (等式5)
其中Res是对应于当前块的像素的残差(在去量化和逆变换之后)。
若针对当前块(比如当前CU、块或子块)应用LIC模式时,通过使用当前块的相邻样本和对应的参考样本,可以采用最小二乘误差方法导出参数a和b,例如根据
{a,b}=arg min{(Recx,y-Refx′,y′)2}, (等式6)
其中Recx,y指示当前块的相邻重建样本,并且Refx′,y′表示由当前块的运动矢量识别的参考块的对应相邻样本。
图13示出了根据一个实施例的用于导出LIC参数a和b的当前块(1310)的相邻样本(1320,描绘为图案区域)和对应参考块(1360)的相邻样本(1370,描绘为图案区域)的示例。如图13所示,使用当前块(1310)的二次采样(2:1二次采样)相邻样本(1320)和参考图片中参考块(1360)的对应相邻样本(1370)。在一些示例中,可以导出LIC参数a和b,并且分别应用于每个预测方向。
在一些示例中,当使用合并模式对块(比如,CU)进行编码时,可以使用类似于在合并模式中复制运动信息的方法,从至少一个相邻块复制LIC标志。在一些示例中,可以为所述块发信号通知LIC标志,以指示是否应用了LIC。
7.2单向亮度补偿
在一些实施例中采用了被称为单向亮度补偿的改进LIC方法。例如,在单向亮度补偿中,线性模型参数推导保持不变。改进后的LIC以CU为基础应用。改进的LIC不应用于基于子块的帧间预测(例如,高级时间运动矢量预测(Advance Temporal Motion VectorPrediction,ATMVP)或仿射)、三角形划分、多假设预测和双向预测。
图14示出了根据一个实施例的将LIC用于双向预测时的示例。在图14中,可以首先获得来自两个预测方向L0和L1的当前块的预测样本,也称为当前块的单预测块(1410)和(1420)。然后,根据重建的相邻样本((1432)和(1442),描绘为图案区域),将LIC分别应用于单预测块(1410)和(1420),从而获得细化块(1430)和(1440)。最后,可以基于细化块(1430)和(1440)执行加权平均,以生成双预测块(1460)。
在一些其他实施例中,不将LIC过程应用于双向预测编码的块。在一些示例中,一个原因是,在将双向预测的加权平均应用于单预测块之后,对于每个单预测块,块的重建相邻样本(例如,图14中的(1432)和(1442))可能不可用。在一些示例中,另一个原因是,在加权平均阶段之前,将LIC应用于双向预测可引入执行LIC过程的额外的阶段(例如,对应于生成细化块(1430)和(1440)的阶段)。
图15示出了根据一个实施例的当LIC与CIIP一起使用时的示例。在一些示例中,可以将CIIP称为多假设预测。如图15所示,可以首先生成当前块的帧间预测块(1510)和帧内预测块(1520)。可以执行LIC,从而基于帧间预测块(1510)获得细化块(1530)。最后,可以通过对帧内编码块(1520)和细化块(1530)执行加权平均,生成当前块的帧内混合块(1560)。
在一些其他实施例中,不将LIC过程应用于根据CIIP编码的块。在一些示例中,一个原因是,在帧间预测之后且在加权平均之前应用LIC过程,这将延迟帧间预测块和帧内预测块的组合。
7.3将LIC处理应用于仿射预测
在一些实施例中,可以将LIC应用于仿射编码块。可以将LIC过程应用于亮度和色度分量。在一些示例中,仍然可以使用上述线性模型参数导出过程,并且可以应用若干方法提取仿射编码的CU的参考样本。
图16示出了根据一个实施例的用于提取参考样本的第一方法的示例。当前图片(1610)中的当前块(1620)可以是仿射编码的编码单元。当前块(1620)可以包括至少两个16×16处理单元或区域(例如,四个16×16处理单元(1622)、(1624)、(1626)和(1628))。可以通过运动矢量(1630)识别当前图片(1610)中的左上16×16处理单元(1622)的参考图片(1660)的参考块(1672)。可以从左上16×16处理单元(1622)的相邻样本((1612),在图16中描绘为图案区域)和参考块(1672)的相邻样本((1662),在图16中描绘为图案区域)中提取参考相邻样本,其中参考相邻样本用于推导LIC过程的线性模型参数。基于左上16×16处理单元(1622)导出的线性模型参数的结果可以适用于当前块(1620)中的所有其他处理单元(例如,处理单元(1624)、(1626)和(1628))。
图17示出了根据一个实施例的用于提取参考样本的第二方法的示例。当前图片(1710)中的当前块(1720)可以是基于子块的仿射编码单元。在参考图片(1760)中示出了当前块(1720)的协同定位块(1770)。如图17所示,可以使用当前块(1720)的顶行子块和左列子块(A到G)的子块MV(与矢量MVa~MVg组合,图示为共同定位的子块(A’到G’)),识别参考图片(1760)中相应参考块(A_Ref,到G_Ref)。可以从顶行子块和左列子块(A至G)的相邻样本(在当前图片(1710)中描绘为图案区域)和参考图片(1760)的相邻样本(在参考图片(1760)中描绘为图案区域)中提取参考相邻样本,其中参考相邻样本用于推导LIC过程的线性模型参数。
在一些示例中,若当前块大于16×16个样本时,可以将当前块的顶行子块和左列子块限制在当前块的左上16×16个样本区域内。基于左上16×16样本区域导出的线性模型参数结果可以适用于当前块中的所有其他处理单元。
7.4LIC标志
在一些实施例中,在合并模式中,除了MV和参考索引之外,可以将LIC标志作为运动信息的一部分。例如,当创建合并候选列表时,可以从合并候选包括的相邻块继承LIC标志。在一些示例中,出于简化的目的,LIC标志不用于运动矢量修剪。
在一些实施例中,不在参考图片的运动矢量缓冲器中存储LIC标志。因此对于TMVP模式,可以将LIC标志设置为“False”(或“Disabled”)。在示例中,对于双向合并候选(例如,成对平均候选和零运动候选),将LIC标志设置为“False”。在一些示例中,当不应用LIC过程时,可以省略LIC标志并且不发信号通知。
在一些示例中,可在CU级别发信号通知LIC标志。作为示例,下面示出包含CU一部分语法元素的语法表(表3),其中将LIC标志表示为lic_flag。
表3-CU(部分)语法表
Figure GDA0003472619630000401
III.对LIC标志进行编码
1.使用CABAC编码表示LIC标志的语法元素
在一些实施例中,可以使用上下文自适应二进制算术编码(Context-AdaptiveBinary Arithmetic Coding,CABAC)对LIC标志进行编码。在一些示例中,可以使用单个上下文模型对LIC标志进行编码。因此,可以将LIC标志独立于其他信息编码。
在一些实施例中,为了进一步提高编码效率,通过LIC标志和其他可用信息之间的相互依赖性,从至少两个候选上下文模型中选择一个上下文模型,并根据选择的上下文模型对LIC标志进行编码。
在一些应用中,为了打破流水线中的帧间分支和帧内分支之间的依赖性,如果根据帧内预测、CIIP或块间复制(Inter-Block Copying,IBC)对相邻CU进行编码,则可以将相邻的重建样本标记为不可用。当相邻CU的根编码块标志(Coded Block Flag,CBF)为0时,可以根据无残差预测,对相邻CU进行编码。因此,在一些示例中,除非当前块和相邻块之间的MV差足够大,否则当前块不太可能应用LIC过程。在MV差不够大的情况下,由于模板(例如,当前块的相邻样本)和参考块的参考样本可能相同或基本相同,因此可能将LIC缩放因子和偏移相应地导出为1和0。
因此,在一些实施例中,可以根据当前块相邻区域的编码特征,从至少两个上下文模型中选择一个,使其适用于表示LIC标志的语法元素的二进制数编码。例如,图18示出了根据一个实施例的编码LIC标志的功能流程图。如图18所示,在阶段(1810),可以首先根据当前块相邻区域(比如,至少一个左边的块,和/或,至少一个上方的块)的编码特征,计算或评估LIC应用可以将当前块的编码提高到足够水平的潜力。当存在足够的改进潜力时,可以使用至少两个上下文模型的第一上下文模型对LIC标志进行编码。当没有足够的改进潜力时,可以使用至少两个上下文模型的第二上下文模型对LIC标志进行编码。在选择上下文模型之后,在阶段(1820),可以接收比特流,所述比特流包括当前块的编码信息和LIC标志,其中LIC标志指示当前块是否用LIC过程编码。此外,在阶段(1820),可以对表示LIC标志的语法元素的二进制数进行编码,并将其合并到比特流中以进行后续输出。
在一些示例中,如图17所示,可以基于当前块中顶行子块,和/或,左列子块推导LIC参数。因此,还可以基于当前块的顶行子块,和/或,左列子块,评估应用LIC改进的潜力。如果确定当前块的顶行子块,和/或,左列子块满足至少一个条件,则认为所述子块具有足够的改进潜力,并且通过应用LIC确定当前块具有足够的改进潜力。否则,如果发现当前块的顶行子块,和/或,左列子块都不具有足够的改进潜力,则通过应用LIC确定当前块不具有足够的改进潜力。
可以指示应用LIC过程足够的潜在改进的至少一个条件可以包括顶行子块的一组条件,和/或,左列子块的另一组条件。如果左上角子块满足两组条件,则可以检查左上角子块。所述条件可以包括各个子块的编码类型。
在一些实施例中,对于与第一子块的上侧相邻的上方块,当且仅当以下所有条件都为真时,确定顶行子块的第一子块具有足够的改进潜力,所述条件包括:
存在上方块,
使用不为零的根CBF对上方块进行编码,
根据帧间预测对上方块进行编码,并且
不使用CIIP对上方块进行编码。
在一些实施例中,对于与第二子块的左侧相邻的左侧块,当且仅当以下所有条件均为真时,确定左列子块的第二子块具有足够的改进潜力,其中,所述条件包括:
存在左侧块,
使用不为零的根CBF对左侧块进行编码,
根据帧间预测对左侧块进行编码,并且
不使用CIIP对左侧块进行编码。
2.解码过程示例
图19示出了根据本申请一些实施例的概述解码过程的流程图。可以从至少两个候选上下文模型中选择一个上下文模型,其中,选择的上下文模型可以用于对LIC标志编码,根据选择的上下文模型,通过对LIC标志解码,可以在重建块时,使用过程(1900)。在各种实施例中,由处理电路执行过程(1900),例如,终端设备(210)、(220)、(230)和(240)中的处理电路、执行视频编码器(303)功能的处理电路、执行视频解码器(310)功能的处理电路、执行视频解码器(410)功能的处理电路、执行视频编码器(503)功能的处理电路等。在一些实施例中,使用软件指令执行过程(1900),因此当处理电路执行软件指令时,处理电路执行过程(1900)。所述过程开始于(S1901)并且进行到(S1910)。
在(S1910)处,接收比特流。比特流包括已编码信息,其中,已编码信息表示图片中当前块的语法元素的二进制数。语法元素的二进制数可以指示是否应用LIC过程对当前块进行编码。
在(S1920)处,可以至少根据当前块相邻区域的编码特征,从适用于语法元素编码的至少两个候选上下文模型中选择上下文模型。
在一些实施例中,可以确定当前块的顶行子块、或左列子块中的至少一个是否满足应用LIC过程的至少一个条件。在一些示例中,当确定顶行子块、或左列子块的至少一个满足至少一个条件时,选择至少两个候选上下文模型中的第一个候选上下文模型,作为选定的上下文模型。在一些示例中,当确定顶行子块和左列子块都不满足至少一个条件时,选择至少两个候选上下文模型中的第二个候选上下文模型,作为选定的上下文模型。
在一些实施例中,至少两个候选上下文模型中的第一候选上下文模型对应于二进制数的第一概率,其中,第一概率指示应用LIC过程的概率高于不应用LIC过程的概率。至少两个候选上下文模型中的第二候选上下文模型对应于二进制数的第二概率,其中,第二概率指示不应用LIC过程的概率高于应用LIC过程的概率。
在至少一个示例中,至少两个候选上下文模型中的每一个都与对应的上下文增量索引(在一些标准中也称为ctxInc)相关联。至少两个候选上下文模型中的第一候选上下文模型可以与第一上下文增量索引相关联,其中,第一上下文增量索引的值为0或1。至少两个候选上下文模型中的第二候选上下文模型可以与第二上下文增量索引相关联,其中,第二上下文增量索引的值为0和1中的另一个,第二候选上下文模型不同于第一候选上下文模型。
在至少一个实施例中,所述至少一个条件可以包括,对于顶行子块中的第一子块,根据无残差的帧间预测,对第一子块上侧相邻的上方块进行编码。所述至少一个条件还可以包括:对于左列子块中的第二子块,根据无残差的帧间预测,对与第二子块左侧相邻的左侧块进行编码。
在至少另一个实施例中,所述至少一个条件可以包括,对于顶行子块中的第一子块,根据不为0的根CBF,对与第一子块上侧相邻的上方块进行编码,根据帧间预测,对该上方块进行编码,不使用CIIP对该上方块进行编码。所述至少一个条件还可以包括,对于左列子块中的第二子块,将与第二子块左侧相邻的块称为左侧块,使用不为零的根CBF,对左侧块进行编码,根据帧间预测对左侧块进行编码,并且不使用CIIP对左侧块进行编码。
在一些实施例中,若当前块大于16×16个样本,当前块的顶行子块和左列子块位于当前块的左上16×16个样本区域内。
在(S1930)处,可以根据选定的上下文模型,对已编码信息进行解码,以获得语法元素的二进制数。
在(S1940)处,确定二进制数是否指示应用LIC过程对当前块进行编码。当二进制数指示应用LIC过程对当前块进行编码,过程进行到(S1952)。当二进制数指示不应用LIC过程对当前块进行编码时,过程进行到(S1956)。
在(S1952)处,通过LIC过程执行至少一个解码过程,以重建当前块。
在(S1956)处,在没有执行LIC过程的情况下,执行至少一个解码过程,以重建当前块。
在(S1952)和(S1956)之后,过程可以进行到(S1999)并且终止。
3.编码过程示例
图20示出了根据本申请一些实施例的概述编码过程的流程图。可以使用过程(2000)对块进行编码,包括:从至少两个候选上下文模型中选择一个可用于编码LIC标志的上下文模型,根据选定的上下文模型,对LIC标志进行编码。在各种实施例中,由处理电路执行过程(2000),比如,终端设备(210)、(220)、(230)和(240)中的处理电路、执行视频编码器(303)功能的处理电路、执行视频编码器(503)功能的处理电路。在一些实施例中,在软件指令中实现过程(2000),因此当处理电路执行软件指令时,处理电路执行过程(2000)。过程开始于(S2001),并且进行到(S2010)。
在(S2010)处,生成图片中当前块的语法元素的二进制数。语法元素的二进制数可以指示是否应用LIC过程对当前块进行编码。
在(S2020)处,可以至少根据当前块相邻区域的编码特征,从适用于编码语法元素的至少两个候选上下文模型中选择上下文模型。在一些示例中,可以采用类似于图19所示的(S1920)的方式,执行(S2020)。
在(S2030)处,根据选定的上下文模型,对语法元素的二进制数进行编码,以获得编码信息。
在(S2040)处,将编码信息包括在比特流中,其中,比特流中还包括当前块的编码数据。
在(S2040)之后,过程可以进行到(S2099)并且终止。
本文描述的实施例可以单独使用,或者以任何顺序组合使用。此外,可由处理电路(例如,至少一个处理器或至少一个集成电路)实现每个实施例,编码器和解码器。在一个示例中,至少一个处理器执行存储在非易失性计算机可读介质中的程序。
本申请实施例还提供了一种装置,包括:接收模块,用于接收比特流,所述比特流包括代表图片中当前块的语法元素的二进制数的已编码信息,所述语法元素的二进制数指示是否应用LIC对所述当前块进行编码;选择模块,用于至少根据所述当前块相邻区域的编码特征,从能够应用于编码所述语法元素的至少两个候选上下文模型中选择上下文模型;解码模块,用于根据选定的上下文模型对所述已编码信息进行解码,以获得所述语法元素的二进制数;以及,第一重建模块,用于根据指示应用所述LIC过程对当前块进行编码的所述二进制数,使用所述LIC过程重建所述当前块。
在一个示例中,所述装置进一步包括:确定模块,用于确定所述当前块的顶行子块或左列子块中的至少一个是否满足应用所述LIC过程的至少一个条件;当确定所述顶行子块或左列子块中的至少一个满足所述至少一个条件时,第一选择模块用于选择所述至少两个候选上下文模型中的第一候选上下文模型作为所述选定的上下文模型;并且,当确定所述顶行子块和所述左列子块都未满足所述至少一个条件时,第二选择模块用于选择所述至少两个候选上下文模型中的第二候选上下文模型作为所述选定的上下文模型,所述第二候选上下文模型不同于所述第一候选上下文模型。
在一个示例中,所述至少两个候选上下文模型中的所述第一候选上下文模型对应于所述二进制数的第一概率,其中,所述第一概率指示应用所述LIC过程的概率高于不应用所述LIC过程的概率,并且所述至少两个候选上下文模型中的所述第二候选上下文模型对应于所述二进制数的第二概率,所述第二概率指示不应用所述LIC过程的概率高于应用所述LIC过程的概率。
在一个示例中,所述每一个候选上下文模型都与对应的上下文增量索引相关联,所述第一候选上下文模型与第一上下文增量索引相关联,其中,所述第一上下文增量索引的值为0或1,并且,所述第二候选上下文模型与第二上下文增量索引相关联,其中,所述第二上下文增量索引的值为0或1中的另外一个。
在一个示例中,所述至少一个条件包括:对于所述顶行子块中的第一子块,根据无残差的帧间预测,对与所述第一子块的上侧相邻的上方块进行编码,并且对于所述左列子块中的第二子块,根据无残差的所述帧间预测,对与所述第二子块的左侧相邻的左侧块进行编码。
在一个示例中,,所述至少一个条件包括:对于所述顶行子块中的第一子块,使用不为零的根CBF,对与所述第一子块的上侧相邻的上方块进行编码,根据帧间预测对所述上方块进行编码,并且不使用CIIP对所述上方块进行编码,并且,对于所述左列子块中的第二子块,使用不为零的所述根CBF,对与所述第二子块左侧相邻的左侧块进行编码,根据所述帧间预测对所述左侧块进行编码,并且不使用所述CIIP对所述左侧块进行编码。
本申请实施例还提供了一种计算机设备,所述设备包括至少一个处理器和至少一个存储器,所述至少一个存储器中存储有至少一条指令,所述至少一条指令由所述至少一个处理器加载并执行以实现上述视频解码方法。
本申请实施例还提供了一种非易失性计算机可读介质,所述非易失性计算机可读介质中存储有指令,所述指令在由处理器执行时,使所述处理器执行上述视频解码方法。
IV.计算机系统
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在至少一个计算机可读介质中。例如,图21示出了计算机系统(2100),其适于实现所公开主题的某些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由至少一个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图21所示的用于计算机系统(2100)的组件本质上是示例性的,并不用于对实现本申请实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统(2100)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统(2100)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对至少一个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的至少一个(仅绘出其中一个):键盘(2101)、鼠标(2102)、触控板(2103)、触摸屏(2110)、数据手套(未示出)、操纵杆(2105)、麦克风(2106)、扫描仪(2107)、照相机(2108)。
计算机系统(2100)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激至少一个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(2110)、数据手套(未示出)或操纵杆(2105)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(2109)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(2110),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统(2100)还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)(2120)或类似介质(2121)的光学介质、拇指驱动器(2122)、可移动硬盘驱动器或固体状态驱动器(2123),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(2100)还可以包括通往至少一个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(2149)(例如,计算机系统(2100)的USB端口);其它系统通常通过连接到如下所述的系统总线集成到计算机系统(2100)的核心(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(2100)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统(2100)的核心(2140)。
核心(2140)可包括至少一个中央处理单元(CPU)(2141)、图形处理单元(GPU)(2142)、以现场可编程门阵列(FPGA)(2143)形式的专用可编程处理单元、用于特定任务的硬件加速器(2144)等。这些设备以及只读存储器(ROM)(2145)、随机存取存储器(2146)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)(2147)等可通过系统总线(2148)进行连接。在某些计算机系统中,可以以至少一个物理插头的形式访问系统总线(2148),以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线(2148),或通过外围总线(2149)进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(2141)、GPU(2142)、FPGA(2143)和加速器(2144)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(2145)或RAM(2146)中。过渡数据也可以存储在RAM(2146)中,而永久数据可以存储在例如内部大容量存储器(2147)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与至少一个CPU(2141)、GPU(2142)、大容量存储器(2147)、ROM(2145)、RAM(2146)等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构(2100)的计算机系统,特别是核心(2140),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在至少一个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心(2140)的特定存储器,例如核心内部大容量存储器(2147)或ROM(2145)。实现本申请的各种实施例的软件可以存储在这种设备中并且由核心(2140)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心(2140)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(2146)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(2144))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录A:首字母缩略词
JEM:联合开发模式
VVC:通用视频编码
BMS:基准集合
MV:运动向量
HEVC:高效视频编码
SEI:补充增强信息
VUI:视频可用性信息
GOP:图片组
TU:变换单元
PU:预测单元
CTU:编码树单元
CTB:编码树块
PB:预测块
HRD:假设参考解码器
SNR:信噪比
CPU:中央处理单元
GPU:图形处理单元
CRT:阴极射线管
LCD:液晶显示
OLED:有机发光二极管
CD:光盘
DVD:数字化视频光盘
ROM:只读存储器
RAM:随机存取存储器
ASIC:专用集成电路
PLD:可编程逻辑设备
LAN:局域网
GSM:全球移动通信系统
LTE:长期演进
CANBus:控制器局域网络总线
USB:通用串行总线
PCI:外围设备互连
FPGA:现场可编程门阵列
SSD:固态驱动器
IC:集成电路
CU:编码单元
虽然本申请已对至少两个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。

Claims (13)

1.一种视频解码方法,其特征在于,包括:
接收比特流,所述比特流包括代表图片中当前块的语法元素的二进制数的已编码信息,所述语法元素的二进制数指示是否应用局部亮度补偿(LocalIlluminationCompensation,LIC)对所述当前块进行编码;
至少根据所述当前块相邻区域的编码特征,从能够应用于编码所述语法元素的至少两个候选上下文模型中选择上下文模型;
根据选定的上下文模型对所述已编码信息进行解码,以获得所述语法元素的二进制数;
根据指示应用所述LIC过程对当前块进行编码的所述二进制数,使用所述LIC过程重建所述当前块;
所述至少两个候选上下文模型中的第一候选上下文模型对应于所述二进制数的第一概率,其中,所述第一概率指示应用所述LIC过程的概率高于不应用所述LIC过程的概率,并且,
所述至少两个候选上下文模型中的第二候选上下文模型对应于所述二进制数的第二概率,所述第二概率指示不应用所述LIC过程的概率高于应用所述LIC过程的概率。
2.根据权利要求1所述的方法,其特征在于,从所述至少两个候选上下文模型中选择所述上下文模型包括:
确定所述当前块的顶行子块或左列子块中的至少一个是否满足应用所述LIC过程的至少一个条件;
当确定所述顶行子块或左列子块中的至少一个满足所述至少一个条件时,选择所述至少两个候选上下文模型中的所述第一候选上下文模型作为所述选定的上下文模型;并且,
当确定所述顶行子块和所述左列子块都未满足所述至少一个条件时,选择所述至少两个候选上下文模型中的所述第二候选上下文模型作为所述选定的上下文模型,所述第二候选上下文模型不同于所述第一候选上下文模型。
3.根据权利要求2所述的方法,其特征在于,所述每一个候选上下文模型都与对应的上下文增量索引相关联,
所述第一候选上下文模型与第一上下文增量索引相关联,其中,所述第一上下文增量索引的值为0或1,并且,
所述第二候选上下文模型与第二上下文增量索引相关联,其中,所述第二上下文增量索引的值为0或1中的另外一个。
4.根据权利要求2所述的方法,其特征在于,所述至少一个条件包括:
对于所述顶行子块中的第一子块,根据无残差的帧间预测,对与所述第一子块的上侧相邻的上方块进行编码,并且
对于所述左列子块中的第二子块,根据无残差的所述帧间预测,对与所述第二子块的左侧相邻的左侧块进行编码。
5.根据权利要求2所述的方法,其特征在于,所述至少一个条件包括:
对于所述顶行子块中的第一子块,使用不为零的根编码块标志(Coded Block Flag,CBF),对与所述第一子块的上侧相邻的上方块进行编码,
根据帧间预测对所述上方块进行编码,并且
不使用组合的帧内和帧间预测(CombinedIntra andInter Prediction,CIIP)对所述上方块进行编码,并且,
对于所述左列子块中的第二子块,
使用不为零的所述根CBF,对与所述第二子块左侧相邻的左侧块进行编码,
根据所述帧间预测对所述左侧块进行编码,并且
不使用所述CIIP对所述左侧块进行编码。
6.根据权利要求2~5任一项所述的方法,其特征在于,在所述当前块的尺寸大于16×16个样本时,所述当前块的顶行子块和左列子块位于所述当前块的左上16×16个样本区域内。
7.一种视频解码装置,其特征在于,包括:
接收模块,用于接收比特流,所述比特流包括代表图片中当前块的语法元素的二进制数的已编码信息,所述语法元素的二进制数指示是否应用局部亮度补偿(LocalIllumination Compensation,LIC)对所述当前块进行编码;
选择模块,用于至少根据所述当前块相邻区域的编码特征,从能够应用于编码所述语法元素的至少两个候选上下文模型中选择上下文模型;
解码模块,用于根据选定的上下文模型对所述已编码信息进行解码,以获得所述语法元素的二进制数;
第一重建模块,用于根据指示应用所述LIC过程对当前块进行编码的所述二进制数,使用所述LIC过程重建所述当前块;
所述至少两个候选上下文模型中的第一候选上下文模型对应于所述二进制数的第一概率,其中,所述第一概率指示应用所述LIC过程的概率高于不应用所述LIC过程的概率,并且
所述至少两个候选上下文模型中的第二候选上下文模型对应于所述二进制数的第二概率,所述第二概率指示不应用所述LIC过程的概率高于应用所述LIC过程的概率。
8.根据权利要求7所述的装置,其特征在于,所述装置进一步包括:
确定模块,用于确定所述当前块的顶行子块或左列子块中的至少一个是否满足应用所述LIC过程的至少一个条件;
当确定所述顶行子块或左列子块中的至少一个满足所述至少一个条件时,第一选择模块用于选择所述至少两个候选上下文模型中的所述第一候选上下文模型作为所述选定的上下文模型;并且,
当确定所述顶行子块和所述左列子块都未满足所述至少一个条件时,第二选择模块用于选择所述至少两个候选上下文模型中的所述第二候选上下文模型作为所述选定的上下文模型,所述第二候选上下文模型不同于所述第一候选上下文模型。
9.根据权利要求8所述的装置,其特征在于,所述每一个候选上下文模型都与对应的上下文增量索引相关联,
所述第一候选上下文模型与第一上下文增量索引相关联,其中,所述第一上下文增量索引的值为0或1,并且,
所述第二候选上下文模型与第二上下文增量索引相关联,其中,所述第二上下文增量索引的值为0或1中的另外一个。
10.根据权利要求8所述的装置,其特征在于,所述至少一个条件包括:
对于所述顶行子块中的第一子块,
根据无残差的帧间预测,对与所述第一子块的上侧相邻的上方块进行编码,并且
对于所述左列子块中的第二子块,
根据无残差的所述帧间预测,对与所述第二子块的左侧相邻的左侧块进行编码。
11.根据权利要求8所述的装置,其特征在于,所述至少一个条件包括:
对于所述顶行子块中的第一子块,
使用不为零的根编码块标志(Coded Block Flag,CBF),对与所述第一子块的上侧相邻的上方块进行编码,
根据帧间预测对所述上方块进行编码,并且
不使用组合的帧内和帧间预测(CombinedIntra andInter Prediction,CIIP)对所述上方块进行编码,并且,
对于所述左列子块中的第二子块,
使用不为零的所述根CBF,对与所述第二子块左侧相邻的左侧块进行编码,
根据所述帧间预测对所述左侧块进行编码,并且
不使用所述CIIP对所述左侧块进行编码。
12.一种计算机设备,其特征在于,所述设备包括至少一个处理器和至少一个存储器,所述至少一个存储器中存储有至少一条指令,所述至少一条指令由所述至少一个处理器加载并执行以实现如权利要求1至权利要求6任一项所述的视频解码方法。
13.一种非易失性计算机可读介质,其特征在于,所述非易失性计算机可读介质中存储有指令,所述指令在由处理器执行时,使所述处理器执行如权利要求1至权利要求6任一项所述的视频解码方法。
CN202010588153.8A 2019-06-24 2020-06-24 视频解码方法、装置、计算机设备和存储介质 Active CN112135134B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962865950P 2019-06-24 2019-06-24
US62/865,950 2019-06-24
US16/908,504 2020-06-22
US16/908,504 US11272200B2 (en) 2019-06-24 2020-06-22 Method and apparatus for video coding

Publications (2)

Publication Number Publication Date
CN112135134A CN112135134A (zh) 2020-12-25
CN112135134B true CN112135134B (zh) 2022-03-25

Family

ID=73851516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010588153.8A Active CN112135134B (zh) 2019-06-24 2020-06-24 视频解码方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
US (2) US11272200B2 (zh)
CN (1) CN112135134B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11356657B2 (en) * 2018-01-26 2022-06-07 Hfi Innovation Inc. Method and apparatus of affine inter prediction for video coding system
CN110545424B (zh) * 2019-08-21 2021-05-11 浙江大华技术股份有限公司 基于mmvd模式的帧间预测方法、视频编码方法及相关装置、设备
US20230069984A1 (en) * 2021-08-24 2023-03-09 Tencent America LLC Hardware friendly design for intra mode coding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069273A1 (en) * 2011-11-07 2013-05-16 Sharp Kabushiki Kaisha Video decoder with enhanced cabac decoding
WO2015003554A1 (en) * 2013-07-08 2015-01-15 Mediatek Singapore Pte. Ltd. Method of simplified cabac coding in 3d video coding

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2424245B1 (en) * 2006-01-09 2019-09-04 Dolby International AB Methods and apparatus for illumination and color compensation for multi-view video coding
US9456223B2 (en) * 2006-10-18 2016-09-27 Thomson Licensing Local illumination and color compensation without explicit signaling
US10200719B2 (en) * 2015-11-25 2019-02-05 Qualcomm Incorporated Modification of transform coefficients for non-square transform units in video coding
US10390015B2 (en) * 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10951912B2 (en) * 2016-10-05 2021-03-16 Qualcomm Incorporated Systems and methods for adaptive selection of weights for video coding
CN116320494A (zh) * 2016-11-28 2023-06-23 韩国电子通信研究院 用于滤波的方法和装置
US10785494B2 (en) * 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
US10986360B2 (en) * 2017-10-16 2021-04-20 Qualcomm Incorproated Various improvements to FRUC template matching
US11082708B2 (en) * 2018-01-08 2021-08-03 Qualcomm Incorporated Multiple-model local illumination compensation
US10652571B2 (en) * 2018-01-25 2020-05-12 Qualcomm Incorporated Advanced motion vector prediction speedups for video coding
US10715810B2 (en) * 2018-02-20 2020-07-14 Qualcomm Incorporated Simplified local illumination compensation
US10419754B1 (en) * 2018-04-02 2019-09-17 Tencent America LLC Method and apparatus for video decoding using multiple line intra prediction
US10834409B2 (en) * 2018-04-06 2020-11-10 Arris Enterprises Llc System and method of implementing multiple prediction models for local illumination compensation
US11956475B2 (en) * 2019-02-06 2024-04-09 Qualcomm Incorporated Harmonization of prediction-domain filters with interpolation filtering

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069273A1 (en) * 2011-11-07 2013-05-16 Sharp Kabushiki Kaisha Video decoder with enhanced cabac decoding
WO2015003554A1 (en) * 2013-07-08 2015-01-15 Mediatek Singapore Pte. Ltd. Method of simplified cabac coding in 3d video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CE10: LIC confined within current CTU (test 10.5.3);Philippe Bordes等;《Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 13th Meeting: Marrakech, MA, 9–18 Jan. 2019》;20181230;全文 *
Versatile Video Coding (Draft 5);Benjamin Bross等;《Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 14th Meeting: Geneva, CH, 19–27 Mar. 2019》;20190611;正文第9.5节 *

Also Published As

Publication number Publication date
US11272200B2 (en) 2022-03-08
US20200404306A1 (en) 2020-12-24
US11736709B2 (en) 2023-08-22
US20220150524A1 (en) 2022-05-12
CN112135134A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN111869212B (zh) 视频解码方法、装置和可读介质
CN112235572B (zh) 视频解码方法和装置以及计算机设备和存储介质
CN113287308B (zh) 视频编解码方法及装置
CN113261298A (zh) 用于视频编码的方法和装置
CN110944185B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN112272949A (zh) 用于视频编码的方法和装置
CN110944202A (zh) 视频编解码方法、装置、计算机设备和存储介质
CN112237000A (zh) 用于视频编码的方法和装置
CN110708541B (zh) 视频解码方法、视频解码器、设备和存储介质
CN113396590B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN112703730A (zh) 视频编解码的方法和设备
CN113383545A (zh) 视频编解码的方法和装置
CN111050178B (zh) 视频解码的方法、装置、电子设备、存储介质
CN113875234A (zh) 视频编解码的方法和装置
CN113661703A (zh) 视频编解码的方法和装置
CN113615192A (zh) 访问仿射基于历史的运动矢量预测值缓冲器的方法
CN112135134B (zh) 视频解码方法、装置、计算机设备和存储介质
CN113966613A (zh) 用于局部双树结构下的基于调色板的编解码模式的方法和装置
CN113545084A (zh) 用于帧内图片块补偿的统一块矢量预测
CN111316639A (zh) 用于子块运动矢量预测的方法和装置
CN112235573B (zh) 视频编解码的方法、装置、电子设备、存储介质
CN111726622A (zh) 视频解码的方法和装置
CN113348668A (zh) 在帧内块补偿中利用整数偏移进行块矢量预测的方法和装置
CN112771869A (zh) 小型编码块的简化合并列表构建
CN112135135A (zh) 视频解码方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40035268

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant