CN110708554B - 视频编解码的方法及装置 - Google Patents

视频编解码的方法及装置 Download PDF

Info

Publication number
CN110708554B
CN110708554B CN201910577697.1A CN201910577697A CN110708554B CN 110708554 B CN110708554 B CN 110708554B CN 201910577697 A CN201910577697 A CN 201910577697A CN 110708554 B CN110708554 B CN 110708554B
Authority
CN
China
Prior art keywords
pictures
picture
identified
video
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910577697.1A
Other languages
English (en)
Other versions
CN110708554A (zh
Inventor
许晓中
刘杉
徐萌
李翔
史蒂芬·文格尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN110708554A publication Critical patent/CN110708554A/zh
Application granted granted Critical
Publication of CN110708554B publication Critical patent/CN110708554B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请的各方面提供了用于视频解码的方法及装置。在一些示例中,装置包括处理电路。该处理电路对视频数据的第一部分进行解码,以获取与多个图片中的至少两个图片相对应的第一解码数据。所述处理器识别所述至少两个图片中的一个或多个图片,用于对与当前图片对应的所述视频数据的第二部分进行解码。在已识别的图片包括两个或更多已识别的图片的情况下,基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,和(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片。所述处理电路还使用所述同位参考图片对所述视频数据的第二部分进行解码。

Description

视频编解码的方法及装置
本申请要求2018年7月9日提交的第62/695,277号美国临时申请“运动补偿预测中时间运动矢量的存储方法(METHODS FOR STORING TEMPORAL MOTION VECTORS IN MOTIONCOMPENSATION PREDICTION)”的优先权,以及于2018年12月17日提交的第16/222,719号美国申请“METHOD AND APPARATUS FOR VIDEO CODING(视频编码的方法及装置)”的优先权,所述两个申请案的公开内容以全文引用的方式并入本文中。
技术领域
本申请涉及视频编解码技术,尤其涉及运动补偿预测中时间运动矢量的存储方法。
背景技术
本文中提供的背景技术描述是为了大体上呈现本申请的上下文。在此背景技术部分描述的程度上,当前署名的发明人的工作,以及在本申请提交时可能不具有作为现有技术的资格的描述的各方面,既不明确地也不隐含地认为是本申请的现有技术。
视频的编码和解码可以使用具有运动补偿的帧间预测来进行。未压缩的数字视频可包括一系列的图片,每个图片具有一定的空间维度,例如具有1920×1080的亮度样本和相关的色度样本。所述一系列的图片可以具有固定的或可变的图片速率(非正式地,也被称作帧率),例如,每秒60个图片或60赫兹(Hz)。未压缩的视频对比特率有着显著的要求。例如,每个样本8比特的1080p60 4:2:0视频(60Hz帧率下的1920×1080亮度样本分辨率)需要接近1.5Gbit/s的带宽。这样的视频一小时需要超过600GB的存储空间。
视频编码和解码的一个目的可以是通过压缩来减少输入视频信号中的冗余。压缩可有助于降低上述带宽或存储空间的要求,在一些情况下,可降低两个或更多的数目级。无损压缩和有损压缩以及其组合都可以用于视频编码和解码。无损压缩是指可以由压缩的原始信号重建原始信号的精确副本的技术。当使用有损压缩时,重建的信号可能与原始信号不完全一致,但是原始信号与重建的信号之间的失真小得足以使重建的信号可以用于预期应用。有损压缩广泛应用于视频中。有损压缩容许的失真量取决于应用;例如,与电视分发应用的用户相比,某些消费者流式传输应用的用户可以容忍较高的失真。可实现的压缩比可以反映的是:可允许的/可容许的失真越高,可产生越高的压缩比。
运动补偿可以是有损压缩技术,且可涉及以下技术:来自先前重建的图片或其一部分(参考图片)的样本数据块在由运动矢量(此后称为MV(motion vector,MV))指示的方向上空间移位之后用于预测新重建的图片或图片部分。在一些情况下,参考图片可与当前正在重建的图片相同。MV可具有两个维度X和Y,或三个维度,第三维度指示使用中的参考图片(后者间接地可以是时间维度)。
在一些视频压缩技术中,可根据其他MV预测适用于某一样本数据区域的MV,所述其他MV例如是与正在重建的区域空间相邻近的另一样本数据区域相关、且按解码顺序在所述MV之前的MV。这样做可大量地减少对MV进行编码所需的数据量,由此消除冗余且提高压缩。举例来说,MV预测可有效地运作,因为当对源自相机的输入视频信号(称为天然视频)进行编码时,存在如下的统计可能性:比单个MV适用的区域大的区域在类似方向上移动,且因此,可在一些情况下使用从相邻区域的MV导出的类似运动矢量进行预测。这使得给定区域中发现的MV与根据周围MV预测的MV类似或相同,且在熵编码之后,表示MV的位数目可小于在对MV直接编码的情况下会使用的位数目。在一些情况下,MV预测可以是从原始信号(即:样本流)导出的信号(即:MV)的无损压缩的实例。在其他情况下,MV预测本身可能是有损的,这例如是由于在根据周围若干MV计算预测值时的舍入误差导致的。
发明内容
本申请的各方面提供了视频解码的方法及装置。在一些示例中,一个装置包括处理电路,用于对视频数据的第一部分进行解码,以获取与多个图片中的至少两个图片相对应的第一解码数据,其中,所述视频数据与所述多个图片对应,所述多个图片与相应的图片顺序计数(POC)编号相关联,所述相应的图片POC编号用于指示所述多个图片分别在多个时间层的时间顺序。所述处理电路识别所述至少两个图片中的一个或多个图片,用于对与当前图片对应的所述视频数据的第二部分进行解码。在已识别的图片包括两个或更多已识别的图片的情况下,所述处理电路基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,和(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片,其中,所述两个或更多已识别的图片处于不同的时间层。在已识别的图片仅包括一个已识别的图片的情况下,所述处理电路选择该唯一的已识别的图片作为所述同位参考图片。所述处理电路还使用所述同位参考图片对所述视频数据的所述第二部分进行解码,以获取与所述当前图片对应的第二解码数据。
在一些示例中,所述处理电路从所述两个或更多已识别的图片中选择与所述当前图片具有最接近的POC编号差的一个已识别的图片作为所述同位参考图片。
在一些示例中,当存在两个已识别的图片与所述当前图片具有最接近的POC编号差的情况下,所述处理电路执行以下步骤中的一个步骤:选择所述两个已识别的图片中处于较低时间层的一个已识别的图片作为所述同位参考图片,以及选择所述两个已识别的图片中处于较高时间层的一个已识别的图片作为所述同位参考图片。
在一些示例中,所述多个时间层包括N个时间层,所述处理电路分别分配与所述N个时间层中的M个时间层相关联的M个存储器空间,并根据所述一个或多个已识别的图片中每一个已识别的图片的时间层,将与所述一个或多个已识别的图片对应的一部分第一解码数据存储在所分配的M个存储器空间中的一个或多个相应的存储器空间内,其中,M是范围为2至N的正整数。在一些示例中,所述处理电路从所述视频数据中获得所述正整数M。在一些示例中,所述处理电路基于所述多个图片的图片大小,确定所述正整数M。在一些示例中,所述正整数N大于等于2,所分配的M个存储器空间与所述N个时间层中的M个较低的时间层相关联。
在一些示例中,所述多个时间层包括N个时间层,所述处理电路分配M个存储器空间,将与所述一个或多个已识别的图片对应的一部分第一解码数据存储在所分配的M个存储器空间的一个或多个相应的存储器空间内,在所述一个或多个已识别的图片少于M个图片、且所述当前图片处于所述时间层的最低时间层的情况下,将与所述当前图片对应的所述第二解码数据存储在所述M个存储器空间中的一个空存储器空间内,其中,M为小于或等于N的正整数。
在一些示例中,在所述一个或多个已识别的图片包括与所述当前图片处于同一时间层的特定图片的情况下,所述存储电路存储与所述当前图片对应的所述第二解码数据,并将所述第二解码数据代替与所述特定图片对应的已解码数据。在一些示例中,在所述一个或多个已识别的图片包括与所述当前图片处于同一时间层的特定图片的情况下,使用与所述当前图片对应的所述第二解码数据对第二存储器空间中存储的已解码数据进行部分更新,所述第二存储器对应存储所述特定图片的已解码数据。
本申请的各方面还提供了一种解码器中的视频解码方法。该方法包括:对视频数据的第一部分进行解码,以获取与多个图片中的至少两个图片相对应的第一解码数据,其中,所述视频数据与所述多个图片对应,所述多个图片与相应的图片顺序计数(POC)编号相关联,所述相应的图片POC编号用于指示所述多个图片分别在多个时间层的时间顺序。所述方法还包括:识别所述至少两个图片中的一个或多个图片,用于对与当前图片对应的所述视频数据的第二部分进行解码。在已识别的图片包括两个或更多已识别的图片的情况下,基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,和(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片,其中,所述两个或更多已识别的图片处于不同的时间层。在所述一个或多个已识别的图片仅包括一个已识别的图片的情况下,选择该唯一的已识别的图片作为所述同位参考图片。使用所述同位参考图片对所述视频数据的所述第二部分进行解码,以获取与所述当前图片对应的第二解码数据。
本申请的各方面还提供了一种装置。该装置包括:获取模块,用于对视频数据的第一部分进行解码,以获取与多个图片中的至少两个图片相对应的第一解码数据,其中,所述视频数据与所述多个图片对应,所述多个图片与相应的图片顺序计数(POC)编号相关联,所述相应的图片POC编号用于指示所述多个图片分别在多个时间层的时间顺序;识别模块,用于识别所述至少两个图片中的一个或多个图片,用于对与当前图片对应的所述视频数据的第二部分进行解码;选择模块,用于在已识别的图片包括两个或更多已识别的图片的情况下,基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,和(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片,其中,所述两个或更多已识别的图片处于不同的时间层;或在已识别的图片仅包括一个已识别的图片的情况下,选择该唯一的已识别的图片作为所述同位参考图片;解码模块,用于使用所述同位参考图片对所述视频数据的所述第二部分进行解码,以获取与所述当前图片对应的第二解码数据。
本申请的各方面还提供了一种计算机设备,包括处理器和存储器,所述存储器中储存有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行所述视频解码的方法。
本申请的各方面还提供了一种非易失性计算机可读存储介质,存储指令,所述指令由用于视频解码的计算机执行时,使该计算机执行所述视频解码的方法。
通过本申请各方面的方案,可以减少存储参考图片的图像样本的存储器空间以及存储参考图像的运动信息的存储器空间,同时可以改善存储器信道带宽效率。
附图说明
结合以下详细描述和附图,本申请主题的其他特征、本质和各种优点将会变得更加清楚,其中:
图1是一个示例中当前块及其周围的空间合并候选块的示意图。
图2是根据一个实施例的通信系统的简化框图的示意图。
图3是根据另一个实施例的通信系统的简化框图的示意图。
图4是根据一个实施例的解码器的简化框图的示意图。
图5是根据一个实施例的编码器的简化框图的示意图。
图6示出了根据另一个实施例的编码器的框图。
图7示出了根据另一个实施例的解码器的框图。
图8是一个示例中当前块、其周围的空间候选块及与其同位的候选块的示意图。
图9是根据一个实施例的与多个时间层中相应的图片顺序计数(POC)编号相关联的多个图片的示意图。
图10示出了根据本申请一个实施例的解码过程的流程图。
图11示出了根据本申请另一个实施例的编码过程的流程图。
图12是根据一个实施例的计算机系统的示意图。
具体实施方式
H.265/HEVC(ITU-T H.265建议书,“高效视频编码(High Efficiency VideoCoding)”,2016年12月)中描述了各种MV预测机制。在H.265提供的许多MV预测机制中,此处描述的是下文称作“空间合并”的技术。
请参考图1,当前块(101)包括在运动搜索过程期间已由编码器发现的样本,根据已产生空间偏移的相同大小的先前块,可预测所述样本。另外,可从一个或多个参考图片相关联的元数据中导出所述MV,而非对MV直接编码。例如,使用关联于A0、A1和B0、B1、B2(分别对应102到106)五个周围样本中的任一样本的MV,(按解码顺序)从最近的参考图片的元数据中导出所述MV。在H.265中,MV预测可使用相邻块也正在使用的相同参考图片的预测值。
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200)包括多个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的终端装置(210)和终端装置(220)。在图2的实施例中,终端装置(210)和终端装置(220)执行单向数据传输。举例来说,终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到另一终端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的终端装置(230)和(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,终端装置(230)和终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码以通过网络(250)传输到终端装置(230)和终端装置(240)中的另一终端装置。终端装置(230)和终端装置(240)中的每个终端装置还可接收由终端装置(230)和终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本论述的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其他支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其他组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其他已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其他数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其他数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其他情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其他情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、条带、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其他因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其他情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码顺序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余条带、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601 Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb4:2:0、Y CrCb4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其他时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其他功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其他合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)可以无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其他数据合并,所述其他数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其他图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其他(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其他块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可传输附加数据和已编码的视频。此类数据可以是已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和条带等其他形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其他)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码顺序都在视频中的当前图片之前(但按显示顺序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其他视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其他组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其他组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从空域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其他合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其他合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
图8是一个示例中当前块(801)、其周围的空间候选块及其同位候选块的示意图。
参考图8所示,当前块(801)的运动信息可以基于其周围的块的运动信息(分别表示为周围的候选运动信息A0、A1和B0、B1、B2(块802至块806))推导出。而且,在一些应用中,当前块(801)的运动信息可以基于预定的同位候选块(也称作时间候选块)的运动信息推导出。例如,当前块(801)可以具有在指定的参考图片中的同位块。如果指定的参考图片的块(812)(与在当前块的外部、靠近当前块的右下角的一个位置对应)是使用帧间图片预测进行编码,则将块(812)用作同位块,且将块(812)的运动信息用作同位候选运动信息(C0)。然而,如果块(812)不是使用帧间图片预测进行编码,那么将与位于块(801)的中心的右下方、靠近块(801)的中心的一个位置对应的块(813)用作同位块,并且块(813)的运动信息用作同位候选运动信息(C1)。在一些示例中,可以执行至少一次精简操作,以确保重复的候选运动信息不会多次列入候选列表中。
在一些视频编码标准中,在使用相邻块的空间和时间运动信息预测当前块的运动信息之后,进一步对预测残差进行编码。在HEVC中,这种方法称作高级运动矢量预测(AMVP)模式。
在一些示例中,可以形成一个双候选运动矢量预测算子的列表。按空间候选运动矢量A0、A1的顺序,第一候选预测算子来自于块(801)左边的第一个可用运动矢量。按空间候选运动矢量B0、B1和B2的顺序,第二候选预测算子来自于块(801)顶边的第二可用运动矢量。如果在所述左边缘或者顶边检查过的位置(checked location)没能找到有效的运动矢量,则所述列表中不会填写候选运动矢量。如果确定有两个候选运动矢量可用,且这两个候选运动矢量相同,那么所述列表中仅保留两个候选运动矢量中的一个。如果所述列表未填满(填满即具有2个不同的候选运动矢量),则可以将时间上的同位运动矢量(进行缩放后),例如同位候选(C0),用作另一候选运动矢量。如果候选运动矢量(C0)不可用,则可以用同位候选运动矢量(C1)替代。在一些示例中,如果检查同位候选运动矢量(C0)和(C1)之后,仍没有足够的运动矢量预测算子候选,则可以在所述列表中加上零运动矢量。
图9是根据一个实施例的与多个时间层中相应的图片顺序计数(POC)编号相关联的多个图片的示意图。
为了支持时间上的可缩放性,在一些视频编码配置中,对一个序列中的图片用重排序的方式进行编码/解码。例如,图9示出了图片群组(GOP)中的多个图片(910至918)。这些图片与相应的指示这些图片的时间顺序的POC编号(POC=1至8)相关联,且分别处于多个时间层。在图9中,所述时间层中的每个时间层由相应的时间ID(Tid)来标识。在一些示例中,在解码时,处于较低时间层(具有较小的Tid)的图片的解码先于处于较高时间层(具有较大的Tid)的图片的解码。可以指定参考图片以便于这种解码排序。例如,处于较高时间层的图片可以使用处于较低时间层的图片或者处于同一时间层的图片作为参考图片。然而,处于较低时间层的图片则不能使用处于较高时间层的图片作为参考图片。
在图9中,图片(910)与POC=0相关联,且处于Tid=0的时间层;图片(911)与POC=1相关联,且处于Tid=3的时间层;图片(912)与POC=2相关联,且处于Tid=2的时间层;图片(913)与POC=3相关联,且处于Tid=3的时间层;图片(914)与POC=4相关联,且处于Tid=1的时间层;图片(915)与POC=5相关联,且处于Tid=3的时间层;图片(916)与POC=6相关联,且处于Tid=2的时间层;图片(917)与POC=7相关联,且处于Tid=3的时间层;图片(918)与POC=8相关联,且处于Tid=0的时间层。在一些示例中,图片(910-918)可以具有使用其POC编号列出的解码顺序:0、8、4、2、1、3、6、5、7。
在一些使用合并模式或AMVP模式等推导出运动信息的应用中,可能需要存储包括一个或多个先前已解码图片(或者,也称作参考图片)的运动矢量和其他信息(预测方向、参考索引等)的时间运动信息,这样,当对将来的图片中的块进行编码时,可以使用这些时间矢量作为运动矢量预测算子。
在一些编码方法中,使用条带头标志来指定使用参考图片中的哪一个参考图片作为当前条带,以推导出时间运动矢量预测算子。该图片称为“同位参考图片”。在一些编码方法中,因为可以指定任意一个先前已解码的图片作为“同位参考图片”对当前图片进行解码,所以,将条带内所有已解码的图片以及相关联的运动信息全部存储在已解码图片缓冲器中。
在视频编码系统中,为已解码图片缓冲器中存储的每个参考图片分配一个图片大小的存储器空间,存储该参考图片的图像样本。同时,还分配与该图片大小的存储器空间相关联的另一存储器空间(也称作运动信息存储器空间),存储所述图片中的运动矢量和其他运动信息。为了存储K个参考图片,需要K个图片大小的存储器空间以及K个运动信息存储器空间。如果减少需要存储的参考图片的数目,则可以减少所需的存储器空间,而且可以改善存储器信道带宽效率。
在一些实施例中,可以指定作为当前图片的同位参考图片的参考图片限制为每个时间层至多一个已解码图片。在一些示例中,所需的总的运动信息存储器空间的数目由编码结构中时间层的数目决定。在一些示例中,当最高时间层中的图片不能用作参考图片时,所需的总的运动矢量(和运动信息)存储器空间的数目,由编码结构中的时间层数减1决定。在一些示例中,对于每个时间层的图片,运动信息存储器空间可以存储该时间层中最近编码/解码的图片的运动矢量以及其他运动信息。
以图9所示的GOP为例,其中的图片排列为一个包括四个时间层的结构。给每一层分配和指定一个运动信息存储器空间,以存储该层最近编码/解码的图片的时间运动矢量和运动信息。如表I所示,每个图片(按解码顺序)的可用的同位参考图片随着解码过程的进行而变化。
表I:根据时间层的可用的同位参考图片
如表I所示,在对图片(910)(POC=0,解码顺序=0)进行解码后,与时间层(Tid=0)相关联的运动信息存储器空间将存储与该图片(910)相关联的运动信息,用于对下一个图片(918)进行解码。在对图片(918)(POC=8,解码顺序=1)进行解码后,与时间层(Tid=0)相关联的运动信息存储器空间将存储与该图片(918)相关联的运动信息,替代图片(910)的运动信息,用于对下一个图片(914)进行解码。在对图片(914)(POC=4,解码顺序=2)进行解码后,与(Tid=1)相关联的运动信息存储器空间将存储与该图片(914)相关联的运动信息。因此,为了对图片(912)进行解码,图片(918)和图片(914)的运动信息可以存储起来,并可以是可选择的。
在对图片(912)(POC=2,解码顺序=3)进行解码后,与(Tid=2)相关联的运动信息存储器空间将存储与该图片(912)相关联的运动信息。在对图片(916)(POC=6,解码顺序=6)进行解码后,将用与该图片(916)相关联的运动信息更新运动信息存储器空间(Tid=2)。如果时间层(Tid=3)中的图片可以用作参考图片,例如图片(911、913、915、917),同样也为该时间层(Tid=3)分配和指定运动信息存储器空间,并相应地对其更新。
在表I中,为了对一些图片进行解码,例如图片(916)(POC=6),一个以上的参考图片可能有资格作为其同位参考图片,例如,图片(912)、(914)和(918)(POC=2、4、8)。同位参考图片的选择可以使用包含在已编码视频数据中的控制信息进行信号表示,或者可以基于POC差和/或时间层关系等信息推导出。
在一个示例中,同位参考图片是基于视频数据中提供的选择索引选择的。
在一些示例中,选择可用的参考图片中与当前图片具有最接近的POC编号差的一个参考图片作为同位参考图片。
在一些示例中,当可用的参考图片包括两个图片与当前图片具有相同的最接近的POC编号差时,可以选择这两个图片中处于较高时间层中的一个图片作为同位参考图片(如表II所示),或者可以选择这两个图片中处于较低时间层中的一个图片作为同位参考图片(如表III所示)。
表II:根据POC差和较高时间层的同位图片的选择
解码顺序 0 1 2 3 4 5 6 7 8
“当前”POC 0 8 4 2 1 3 6 5 7
Tid 0 0 1 2 3 3 2 3 3
同位图片POC - 0 8 4 2 2 4 6 6
表III:根据POC差和较低时间层的同位图片的选择
解码顺序 0 1 2 3 4 5 6 7 8
“当前”POC 0 8 4 2 1 3 6 5 7
Tid 0 0 1 2 3 3 2 3 3
同位图片POC - 0 8 4 2 4 8 4 8
在一些实施例中,可以被指定作为当前图片的同位参考图片的参考图片的数量,限制在最多为解码图片的最大数目M,可以是在多个时间层中的M个较低的时间层中。在一些示例中,所需的总的运动信息存储器空间的数目由编码结构中的时间层的数目和缓冲器大小阈值来决定。另外,在一些示例中,所需的总的运动信息存储器空间的数目由指定最大允许的缓冲器大小阈值来限额。例如,如果时间层的数目为N,且缓冲器大小阈值确定了用于不同的时间层的运动信息存储器空间的最大数目为M,其中,M为等于或小于N的正整数,那么仅是处于较低的M个时间层中的图片将与相应的运动信息存储器空间相关联。在一些示例中,对于每个时间层中的图片,运动信息存储器空间可以存储该时间层中最近编码/解码的图片的运动矢量和其他运动信息。
在一个实施例中,运动信息存储器空间的最大数目(例如,正整数M)可以基于多个图片的图片大小来确定。在一些示例中,与一组较高分辨率的图片相比,一组较低分辨率的图片的最大运动信息存储器空间数目可以设置为一个较大的数目。
在另一个实施例中,运动信息存储器空间的最大数目(例如,正整数M)可以基于最大支持的图片分辨率来确定。在一些示例中,当解码器设置成处理较低分辨率的图片时,与处理缺省的较高分辨率的图片相比,其最大运动信息存储器空间数目可以设置为一个较大的数目。
以图9所示的GOP为例,其中的图片排列为一个四时间层的结构。给每一层分配和指定一个运动信息存储器空间,以存储该层最近编码/解码的图片的时间运动矢量和运动信息。另外,在一些示例中,如果最大允许的运动信息存储器空间设置为2,那么仅使用时间层(Tid=0)和(Tid=1)中的图片作为可用的同位参考图片。如表IV所示,每个图片(按解码顺序)的可用的同位参考图片随着解码过程的进行而变化。
表IV:根据M=2个较低时间层的可用的同位参考图片
如表IV所示,在对图片(918)(POC=8,解码顺序=1)进行解码后,与时间层(Tid=0)相关联的运动信息存储器空间将存储与该图片(918)相关联的运动信息,用于对下一个图片(914)进行解码。在对图片(914)(POC=4,解码顺序=2)进行解码后,与(Tid=1)相关联的运动信息存储器空间将存储与该图片(914)相关联的运动信息。在该示例中,对于后续解码的所有Tid大于1的图片,将不更新运动信息存储器空间,保留与图片(918)和(914)对应的运动信息,作为可用的同位参考图片。
在表IV中,为了对一些图片进行解码,图片(912)、(911)、(913)、(916)、(915)和(917)(POC=2、1、3、6、5、7)可以具有一个以上的可用的同位参考图片,例如,图片(914)和(918)(POC=4、8)等等。同位参考图片的选择可以使用包含在已编码视频数据中的控制信息进行信号表示,或者可以基于POC差和/或时间层关系等信息推导出。
在一个示例中,同位参考图片是基于视频数据中提供的选择索引选择的。
在一些示例中,选择可用的参考图片中与当前图片具有最接近的POC编号差的一个参考图片作为同位参考图片。
在一些示例中,当可用的参考图片包括两个图片与当前图片具有相同的最接近的POC编号差时,可以选择这两个图片中处于较高时间层中的一个图片作为同位参考图片(如表V所示),或者可以选择这两个图片中处于较低时间层中的一个图片,作为同位参考图片(如表VI所示)。参见例如表V和表VI中对图片(916)(POC=6)解码的列。
表V:根据POC差和较高时间层的同位图片的选择
解码顺序 0 1 2 3 4 5 6 7 8
“当前”POC 0 8 4 2 1 3 6 5 7
Tid 0 0 1 2 3 3 2 3 3
同位图片POC - 0 8 4 4 4 4 4 8
表VI:根据POC差和较低时间层的同位图片的选择
解码顺序 0 1 2 3 4 5 6 7 8
“当前”POC 0 8 4 2 1 3 6 5 7
Tid 0 0 1 2 3 3 2 3 3
同位图片POC - 0 8 4 4 4 8 4 8
在其他一些实施例中,当在条带级指定对应的条带的同位图片的选择时,不需要在图片级用信号表示同位图片的选择。
在一些实施例中,可以被指定作为当前图片的同位参考图片的参考图片限制在最多为解码图片的最大数目M,这可以是多个时间层中的M个较低的时间层,其中,在所有的M个分配的运动信息存储器空间没有都被占有的情况下,可以同时存储时间层中的最低时间层中的两个图片的运动信息。
在一些示例中,时间层的数目为N,缓冲器大小的阈值决定了不同时间层的运动信息存储器空间的最大数目为M,其中,M为等于或小于N的正整数。当具有存储在运动信息存储器空间的已解码数据的已解码的图片的数目小于M(即,分配的运动信息存储器空间没有完全被相应图片的已解码数据占用)时,即使处于最低时间层的另一图片的运动信息已存储在所分配的运动信息存储器空间其中的一个运动信息存储空间中,仍允许将处于时间层的最低时间层中的已解码的图片的运动信息存储在空的运动信息存储器空间内。然而,当具有存储在运动信息存储器空间的已解码数据已解码的图片的数目为M(即,分配的运动信息存储器空间全部都被相应图片的已解码数据占用)时,所存储的图片和当前解码的图片处于不同的时间层,存储的图片包括处于最低时间层的两个图片,当前解码的图片的已解码数据仍旧可以存储,但存储在两个运动信息存储器空间中的一个运动信息存储器空间中,这个运动信息存储器空间是由处于最低时间层中的两个图片中,具有较小的POC编号的一个图片所占用的运动信息存储器空间。之后,存储在M个运动信息存储器空间内的运动信息将与处于M个不同的时间层的M个图片对应。
用图9所示的GOP作为示例,将图片排列为一个包括四个时间层的结构,其中,将M设为3。如表VII所示,每个图片的可用的同位参考图片(按解码顺序)随解码过程的进行而改变。
表VII:根据时间层的可用的同位参考图片
解码顺序 0 1 2 3 4 5 6 7 8
“当前”POC 0 8 4 2 1 3 6 5 7
Tid 0 0 1 2 3 3 2 3 3
同位图片POC - 0 0,8 0,4,8 2,4,8 2,4,8 2,4,8 4,6,8 4,6,8
如表VII所示,在对图片(910)(POC=0,解码顺序=0)进行解码后,与该图片(910)相关联的运动信息存储在M个存储器空间中的一个存储器空间内,用于对下一个图片(918)进行解码。在对图片(918)(POC=8,解码顺序=1)进行解码后,因为有至少一个空的存储器空间可用,所以将与该图片(918)相关联的运动信息存储在M个存储器空间中的另一个存储器空间内,用于对下一个图片(914)进行解码,而不用清除已存储的与图片(910)相关联的运动信息。在此阶段,处于最低时间层的两个图片的运动信息存储在运动信息存储器空间内。在对图片(914)(POC=4,解码顺序=2)进行解码后,因为仍有一个空的存储器空间可用,所以将与该图片(914)相关联的运动信息存储在M个存储器空间中的再一个存储器空间内,用于对下一个图片(912)进行解码,而不用清除已存储的与图片(910)和(918)相关联的运动信息。因此,在对图片(912)进行解码时,图片(910)、(918)和(914)的运动信息可以存储起来并且可以选用。
在对图片(912)(POC=2,解码顺序=3)进行解码后,因为在所存储的处于最低的时间层中的图片中,图片(910)具有最低的POC,所以将与该图片(912)相关联的运动信息进行存储,以更新与图片(910)相关联的运动信息。
在一些实施例中,可以应用各种方法对存储的与特定时间层相关联的运动信息进行更新。
在一些示例中,可以以逐个图片的方式替换存储的运动信息。例如,在所存储的特定图片及当前解码的图片的运动信息处于同一时间层的情况下,用当前解码的图片的运动信息代替特定图片的运动信息进行存储。用表VII作为示例,在对图片(912)(POC=2,解码顺序=3)进行解码后,将存储的与图片(910)(POC=0)相关联的运动信息整体删除,替换为与图片(912)(POC=2)相关联的运动信息。
在其他一些示例中,可以以逐块的方式替换存储的运动信息。例如,在所存储的特定图片及当前解码的图片的运动信息处于同一时间层的情况下,可以用当前解码的图片的运动信息对所存储的特定图片的运动信息进行部分更新。用表VII作为示例,在对图片(912)(POC=2,解码顺序=3)进行解码后,用与图片(912)(POC=2)相关联的运动信息对存储的与图片(910)(POC=0)相关联的运动信息进行更新。特别是,在一些示例中,对于每个块,当图片(912)(POC=2)的一个块包含运动信息时,用图片(912)(POC=2)的这个块的运动信息替换图片(910)(POC=0)中的同位块的运动信息。在对图片(910)(POC=0)中的所有块进行处理后,运动信息存储器空间会指示为是与图片(912)(POC=2)相关联。
同位参考图片的选择可以使用包含在已编码视频数据中的控制信息进行信号表示,或者可以基于POC差和/或时间层关系等信息推导出。在一个示例中,基于视频数据中提供的选择索引,选择同位参考图片。在一些示例中,选择可用参考图片中与当前图片有最接近的POC编号差的一个可用参考图片作为同位参考图片。
在一些示例中,当可用的参考图片包括两个图片与当前图片具有相同的最接近的POC编号差时,可以选择这两个图片中处于较高时间层中的一个图片作为同位参考图片(如表VIII所示),或者可以选择这两个图片中处于较低时间层中的一个作为同位参考图片(如表IX所示)。
表VIII:根据POC差和较高时间层的同位图片的选择
解码顺序 0 1 2 3 4 5 6 7 8
“当前”POC 0 8 4 2 1 3 6 5 7
Tid 0 0 1 2 3 3 2 3 3
同位图片POC - 0 0 0 2 2 4 6 6
表IX:根据POC差和较低时间层的同位图片的选择
解码顺序 0 1 2 3 4 5 6 7 8
“当前”POC 0 8 4 2 1 3 6 5 7
Tid 0 0 1 2 3 3 2 3 3
同位图片POC - 0 0 4 2 4 8 4 8
图10示出了根据本申请一个实施例的解码过程(1000)的流程图。过程(1000)可以用于对GOP等具有用帧间模式编码的块的多个图片进行重建。在一些实施例中,在过程(1000)之前或之后可以执行一个或多个操作,而且,图10中图示的一些操作可以重新排序或省略。
在各种实施例中,过程(1000)由终端设备(210)、(220)、(230)和(240)中的处理电路、执行视频解码器(310)、(410)或(710)的功能的处理电路等处理电路执行。在一些实施例中,过程(1000)是用软件指令实现的,因此当处理电路执行软件指令时,处理电路执行过程(1000)。该过程开始于(S1001),并进行到(S1010)。
在(S1010),对视频数据的第一部分进行解码,以获取与多个图片(例如,GOP)中的至少两个图片相对应的第一解码数据。在一些示例中,与所述多个图片对应的视频数据与相应的指示所述多个图片的时间顺序的图片顺序计数(POC)号相关联,且相应地处于多个时间层,如参考图9所图示。例如,如表I所示,在至少对图片(910)和(918)(POC=0、8)解码后,对一部分视频数据进行解码,以获取与已解码图片对应的已解码数据,包括运动信息。在一些示例中,可以使用参考图3、4及7图示的系统或解码器对视频数据的第一部分进行解码。
在(S1020),识别所述至少两个图片中用于对与当前图片对应的视频数据的第二部分进行解码的一个或多个图片。例如,基于参考表I、表IV及表VII所示的规则,在对GOP解码的不同阶段,识别可以用作可用的同位参考图片的一个或多个图片。
在一些实施例中,多个时间层包括N个时间层。执行(S1020)之前,可以分别分配与所述多个时间层中的M个时间层相关联的M个存储器空间,其中,M为小于或等于N的正整数,或在一些示例中M的范围为2至N。在一些示例中,根据所述一个或多个已识别的图片中每一个已识别的图片的时间层,将与所述一个或多个已识别的图片对应的一部分第一解码数据存储在所分配的M个存储器空间中的一个或多个相应的存储器空间内。
在一些示例中,可以从视频数据中获取正整数M。在一些示例中,可以基于多个图片的图片大小,确定正整数M。
在一些实施例中,正整数N大于2,正整数M小于或等于正整数N,所分配的M个存储器空间与所述N个时间层中的M个较低的时间层相关联。
在(S1030),从所述一个或多个已识别的图片中选择同位参考图片。在一些示例中,在所述一个或多个已识别的图片包括两个或更多已识别的图片的情况下,可以基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片。所述两个或更多已识别的图片处于不同的时间层。在其他一些示例中,在所述一个或多个已识别的图片仅包括一个已识别的图片的情况下,选择该唯一的已识别的图片作为所述同位参考图片。
在一些示例中,可以选择所述两个或多个已识别的图片中与所述当前图片具有最接近的POC编号差的一个已识别的图片作为所述同位参考图片。在一些示例中,在所述两个或更多已识别的图片中有两个已识别的图片与所述当前图片具有最接近的POC编号差的情况下,可以通过(i)选择所述两个或更多已识别的图片中的两个已识别的图片中处于所述已识别的图片的最低时间层的一个已识别的图片作为所述同位参考图片,或(ii)选择所述两个或更多已识别的图片中的两个已识别的图片中处于所述已识别的图片的最高时间层的一个已识别的图片作为所述同位参考图片,可以从所述对应于相同的POC编号差的两个图片中选择所述同位参考图片,如类似于参考表II、表III、表V、表VI、表VIII及表IX所图示的。
在(S1040),使用所选择的同位参考图片对所述视频数据的第二部分进行解码,以获取与所述当前图片对应的第二解码数据。在一些示例中,可以使用图3、4及7中图示的系统或解码器对视频数据的第二部分进行解码。
在(S1050),在GOP中的所有图片都进行了解码的情况下,过程继续进行到(S1099);在GOP中的所有图片不是都进行了解码的情况下,过程继续进行到(S1020)。在(S1020),利用在(S1040)得到的与当前图片对应的新解码的数据,确定来自(S1040)的当前图片是否包含在用于对下一个图片进行解码的新识别的图片中。
在一些示例中,在所述一个或多个先前已识别的图片中包含少于M个图片,且当前图片处于时间层中的最低时间层的情况下,将与当前图片对应的第二解码数据识别为可用的同位参考图片,并存储在M个存储器空间中的一个空存储器空间中。
在一些示例中,在所述一个或多个先前已识别的图片包括M个图片,所述一个或多个先前已识别的图片和当前图片处于不同的时间层,且所述一个或多个先前已识别的图片包括处于最低时间层的两个图片的情况下,将与当前图片对应的第二解码数据存储在所述M个存储器空间中的一个存储有与处于最低时间层的两个图片中具有最小POC编号的一个图片对应的已解码数据的存储器空间中。
在一些示例中,在所述一个或多个先前已识别的图片包括与所述当前图片处于同一时间层的特定图片的情况下,存储与所述当前图片对应的所述第二解码数据,代替与所述特定图片对应的已解码数据。在一些替代的实施例中,在所述一个或多个先前已识别的图片包括与所述当前图片处于同一时间层的特定图片的情况下,使用与所述当前图片对应的所述第二解码数据对所述M个存储器空间中与所述特定图片对应的一个存储器空间中存储的已解码数据进行部分更新。
在(S1099),对POC解码的过程结束。
相应地,本申请实施例还提供了一种用于视频解码的装置。该装置包括:
获取模块,用于对视频数据的第一部分进行解码,以获取与多个图片中的至少两个图片相对应的第一解码数据,其中,所述视频数据与所述多个图片对应,所述多个图片与相应的图片顺序计数(POC)编号相关联,所述相应的图片POC编号用于指示所述多个图片分别在多个时间层的时间顺序;
识别模块,用于识别所述至少两个图片中的一个或多个图片,用于对与当前图片对应的所述视频数据的第二部分进行解码;
选择模块,用于在已识别的图片包括两个或更多已识别的图片的情况下,基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,和(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片,其中,所述两个或更多已识别的图片处于不同的时间层;或在所述已识别的图片仅包括一个已识别的图片的情况下,选择该唯一的已识别的图片作为所述同位参考图片;
解码模块,用于使用所述同位参考图片对所述视频数据的所述第二部分进行解码,以获取与所述当前图片对应的第二解码数据。
根据一个示例,所述选择模块进一步用于:从所述两个或更多已识别的图片中选择与所述当前图片具有最接近的POC编号差的一个已识别的图片作为所述同位参考图片。
根据一个示例,所述选择模块进一步用于:
当存在两个已识别的图片与所述当前图片具有最接近的POC编号差的情况下,执行以下步骤中的一个步骤:
选择所述两个已识别的图片中处于较低时间层的一个已识别的图片作为所述同位参考图片,以及
选择所述两个已识别的图片中处于较高时间层的一个已识别的图片作为所述同位参考图片。
根据一个示例,所述多个时间层包括N个时间层,所述装置进一步包括:
存储器空间分配模块,用于分别分配与所述N个时间层中的M个时间层相关联的M个存储器空间,其中,M是范围为2至N的正整数;
存储模块,用于根据所述一个或多个已识别的图片中每一个已识别的图片的时间层,将与所述一个或多个已识别的图片对应的一部分第一解码数据存储在所分配的M个存储器空间中的一个或多个相应的存储器空间内。
根据一个示例,所述正整数N大于等于2,
所分配的M个存储器空间与所述N个时间层中的M个较低的时间层相关联。
根据一个示例,所述多个时间层包括N个时间层,所述装置进一步包括:
存储空间分配模块,用于分配M个存储器空间,其中,M为小于或等于N的正整数;
存储模块,用于将与所述一个或多个已识别的图片对应的一部分第一解码数据存储在所分配的M个存储器空间的一个或多个相应的存储器空间内;
所述存储模块还用于,在所述一个或多个已识别的图片少于M个图片、且所述当前图片处于所述时间层的最低时间层的情况下,将与所述当前图片对应的所述第二解码数据存储在所述M个存储器空间中的一个空存储器空间内。
根据一个示例,所述存储模块进一步用于:
在所述一个或多个已识别的图片包括M个图片,所述一个或多个已识别的图片和当前图片处于不同的时间层,且所述一个或多个已识别的图片包括处于最低时间层的两个图片的情况下,将与所述当前图片对应的所述第二解码数据存储在所述M个存储器空间中的一个第一存储器空间中,该第一存储器空间存储有与处于最低时间层的两个图片中具有较小POC编号的一个图片所对应的已解码数据。
图11示出了根据本申请的一个实施例的编码过程(1100)的流程图。过程(1100)可以用于对GOP等具有用帧间模式编码的块的多个图片进行编码。在一些实施例中,在过程(1100)之前或之后可以执行一个或多个操作,图11中图示的一些操作可以重新排序或省略。
在各种实施例中,过程(1100)由终端设备(210)、(220)、(230)和(240)中的处理电路、执行视频编码器(303)、(503)或(603)的功能的处理电路等处理电路执行。在一些实施例中,过程(1100)是用软件指令实现的,因此当处理电路执行软件指令时,处理电路执行过程(1100)。该过程开始于(S1101),并进行到(S1110)。
在(S1110),将一个GOP中的至少两个图片编码为视频数据的第一部分。在一些示例中,该GOP包括多个图片,所述多个图片与相应的图片顺序计数(POC)编号相关联,所述相应的图片POC编号用于指示所述多个图片分别在多个时间层的时间顺序,如参考图9所图示。在一些示例中,可以使用图3、5及6中图示的系统或编码器对图片进行编码。
在(S1120),识别所述至少两个图片中用于对当前图片进行编码的一个或多个图片。例如,基于参考表I、表IV和表VII图示的规则,类似于参考(S1020)所描述的,在对GOP编码的不同阶段,识别可以用作可用的同位参考图片的一个或多个图片。
在(S1130),从所述一个或多个已识别的图片中选择同位参考图片。在一些示例中,在所述一个或多个已识别的图片包括两个或更多已识别的图片的情况下,可以基于以下之一(i)所述两个或更多已识别的图片和当前图片的POC编号;(ii)对使用不同的同位参考图片的编码复杂度和/或效率的评估,从所述两个或更多已识别的图片中选择同位参考图片。在(i)的情况下,可以用和参考(S1030)和表II、表III、表V、表VI、表VIII及表IX所示的各种示例类似的方式选择同位参考图片。在(ii)的情况下,提供基于编码复杂度和/或效率所选择的同位参考图片作为已编码视频图片中所包含的选择索引。
在(S1140),可以使用所述同位参考图片,将当前图片编码为所述视频数据的第二部分。在一些示例中,可以使用图3、5及6中图示的系统或编码器对视频数据的第二部分进行编码。
在(S1150),在GOP中的所有图片都进行了编码的情况下,过程继续进行到(S1199);在GOP中的所有图片不是都进行了编码的情况下,过程继续进行到(S1120)。在(S1120),对当前图片编码后,以类似于参考(S1150)及(S1120)所图示的示例的方式,确定在(S1140)得到的当前图片是否包含在用于对下一个图片进行编码的新识别的图片中。
在(S1199),对POC编码的过程结束。
可以将上面描述的技术实现为使用计算机可读指令、且物理地存储在一个或多个计算机可读存储介质内的计算机软件。例如,图12示出了适于实现所公开的主题的某些实施例的计算机系统(1200)。
可以使用任意适当的机器代码或计算机语言对计算机软件进行编码,该机器代码或计算机语言可能遭遇汇编、编译、链接或类似机制,以生成包括可以由一个或多个中央处理单元(CPU)、图形处理单元(GPU)等直接或通过解释、微代码执行等执行的指令的代码。
指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能电话、游戏设备、物联网设备等。
可在各种类型的计算机或计算机组件上执行所述指令,所述计算机或计算机组件包括例如个人计算机、平板电脑、服务器、智能电话、游戏装置、物联网装置等。
图12中所示的用于计算机系统(1200)的组件在本质上是示范性的,并非旨在暗示关于实施本申请的实施例的计算机软件的使用或功能的范围的任何限制。也不应将组件的配置解释为对计算机系统(1200)的示范性实施例中所示的组件中的任一个组件或组件组合有任何依赖或需求。
计算机系统(1200)可包括某些人机接口输入装置。此类人机接口输入装置可响应于一个或多个人类用户通过例如触觉输入(例如:按键、滑动、数据手套移动)、音频输入(例如:语音、拍击)、视觉输入(例如:手势)、嗅觉输入(未描绘)进行的输入。人机接口装置还可用于捕获未必与人的有意识输入直接相关的某些媒体,例如音频(例如:话语、音乐、环境声)、图像(例如:扫描图像、从静态图像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
输入人机接口装置可包括以下一个或多个(每种仅描绘一个):键盘(1201)、鼠标(1202)、轨迹垫(1203)、触摸屏(1210)、数据手套(未示出)、操纵杆(1205)、麦克风(1206)、扫描仪(1207)、相机(1208)。
计算机系统(1200)还可包括某些人机接口输出装置。此类人机接口输出装置可通过例如触觉输出、声音、光和气味/味道刺激一个或多个人类用户的感觉。此类人机接口输出装置可包括触觉输出装置(例如触摸屏(1210)、数据手套(未示出)或操纵杆(1205)的触觉反馈,但还可存在不充当输入装置的触觉反馈装置)、音频输出装置(例如:扬声器(1209)、头戴式耳机(未描绘))、视觉输出装置(例如屏幕(1210),包括CRT屏幕、LCD屏幕、等离子体屏幕、OLED屏幕,各自具有或不具有触摸屏输入能力,各自具有或不具有触觉反馈能力--其中的一些可以通过例如立体平画输出的方式输出二维视觉输出或大于三维的输出;虚拟现实眼镜(未描绘)、全息显示器和烟雾箱(未描绘)),以及打印机(未描绘)。
计算机系统(1200)还可包括人类可访问的存储装置和存储装置的相关联介质,例如光学介质,包括具有CD/DVD等介质(1221)的CD/DVD ROM/RW(1220)、拇指驱动器(1222)、可移动硬盘驱动器或固态驱动器(1223)、磁带和软盘(未描绘)等旧版磁性媒体、基于ROM/ASIC/PLD的专用装置,例如安全保护装置(未描绘),等等。
所属领域的技术人员还应理解,结合当前公开的主题使用的术语“计算机可读介质”并未涵盖传输介质、载波或其他瞬时信号。
计算机系统(1200)还可包括到一个或多个通信网络的接口。网络可例如是无线的、有线的、光学的。网络还可以是本地的、广域的、城域的、车载和工业的、实时的、容忍延迟的等等。网络的实例包括例如以太网、无线LAN的局域网、包括GSM、3G、4G、5G、LTE等的蜂窝网络、包括有线TV、卫星TV和地面广播TV的TV有线或无线广域数字网络、包括CAN总线的车载网络和工业网络等。某些网络通常需要附接到某些通用数据端口或外围总线(1249)(例如,计算机系统(1200)的USB端口)的外部网络接口适配器;其他网络通常通过附接到如下文所描述的系统总线而集成到计算机系统(1200)的核心中(例如通过以太网接口集成到PC计算机系统中,或通过蜂窝网络接口集成到智能电话计算机系统中)。通过使用这些网络中的任一网络,计算机系统(1200)可与其他实体通信。此类通信可以是仅单向接收(例如广播TV)、仅单向发送(例如连到某些CAN总线装置的CAN总线)或是双向的,例如使用局域数字网络或广域数字网络连接到其他计算机系统。可在如上文所描述的那些网络和网络接口中的每一个上使用某些协议和协议栈。
上述人机接口装置、人类可访问存储装置和网络接口可附接到计算机系统(1200)的核心(1240)。
核心(1240)可包括一个或多个中央处理单元(Central Processing Unit,CPU)(1241)、图形处理单元(Graphics Processing Unit,GPU)(1242)、现场可编程门区域(Field Programmable Gate Areas,FPGA)形式的专用可编程处理单元(1243)、用于某些任务的硬件加速器(1244)等等。这些装置连同只读存储器(read-only memory,ROM)(1245)、随机存取存储器(1246)、例如内部非用户可访问的硬盘驱动器、SSD等内部大容量存储装置(1247)可通过系统总线(1248)连接。在一些计算机系统中,系统总线(1248)可通过一个或多个物理插头形式访问以实现通过额外CPU、GPU等来扩展。外围装置可直接或通过外围总线(1249)附接到核心的系统总线(1248)。用于外围总线的架构包括PCI、USB等等。
CPU(1241)、GPU(1242)、FPGA(1243)和加速器(1244)可执行某些指令,所述指令组合起来可构成上述计算机代码。计算机代码可存储在ROM(1245)或RAM(1246)中。过渡数据也可存储在RAM(1246)中,而永久性数据可例如存储在内部大容量存储装置(1247)中。可通过使用高速缓冲存储器来实现对任一存储器装置的快速存储和检索,所述高速缓冲存储器可与一个或多个CPU(1241)、GPU(1242)、大容量存储装置(1247)、ROM(1245)、RAM(1246)等紧密关联。
计算机可读介质上可具有用于执行各种计算机实施的操作的计算机代码。所述介质和计算机代码可以是专为本申请的目的设计和构建的介质和计算机代码,或可属于计算机软件领域中的技术人员众所周知且可用的种类。
举例来说但不作为限制,具有架构(1200)且尤其是核心(1240)的计算机系统可提供因处理器(包括CPU、GPU、FPGA、加速器等)执行以一个或多个有形计算机可读介质体现的软件而产生的功能。此类计算机可读介质可以是与上文所介绍的用户可访问大容量存储装置以及核心(1240)的非易失性质的某些存储装置(例如核心内部大容量存储装置(1247)或ROM(1245))相关联的介质。实施本申请的各种实施例的软件可存储在此类装置中且由核心(1240)执行。根据特定需求,计算机可读介质可包括一个或多个存储器装置或芯片。软件可使核心(1240)且具体地说使其中的处理器(包括CPU、GPU、FPGA等等)执行本文中所描述的特定过程或特定过程的特定部分,包括限定存储在RAM(1246)中的数据结构以及根据由软件限定的过程修改此类数据结构。另外或作为替代方案,计算机系统可提供由硬连线的或以其他方式体现于电路(例如:加速器(1244))中的逻辑所产生的功能,所述逻辑可代替或连同软件一起操作以执行本文描述的特定过程或特定过程的特定部分。适当时,对软件的引用可涵盖逻辑,且反之亦然。适当时,对计算机可读介质的引用可涵盖存储用于执行的软件的电路(例如集成电路(IC))、体现用于执行的逻辑的电路或这两种电路。本申请涵盖硬件与软件的任何合适的组合。
附录A:缩略词
JEM:joint exploration model,联合探索模型
VVC:versatile video coding,通用视频编码
BMS:benchmark set,基准集合
MV:Motion Vector,运动矢量
HEVC:High Efficiency Video Coding,高效视频编码
SEI:Supplementary Enhancement Information,辅助增强信息
VUI:Video Usability Information,视频可用性信息
GOP:Groups of Pictures,图像组
TU:Transform Unit,变换单元
PU:Prediction Unit,预测单元
CTU:Coding Tree Unit,编码树单元
CTB:Coding Tree Block,编码树块
PB:Prediction Block,预测块
HRD:Hypothetical Reference Decoder,假设参考解码器
SNR:Signal Noise Ratio,信噪比
CPU:Central Processing Unit,中央处理单元
GPU:Graphics Processing Unit,图形处理单元
CRT:Cathode Ray Tube,阴极射线管
LCD:Liquid-Crystal Display,液晶显示
OLED:Organic Light-Emitting Diode,有机发光二极管
CD:Compact Disc,光盘
DVD:Digital Video Disc,数字视频光盘
ROM:Read-Only Memory,只读存储器
RAM:Random Access Memory,随机存取存储器
ASIC:Application-Specific Integrated Circuit,专用集成电路
PLD:Programmable Logic Device,可编程逻辑设备
LAN:Local Area Network,局域网
GSM:Global System for Mobile communications,全球移动通信系统
LTE:Long-Term Evolution,长期演进
CANBus:Controller Area Network Bus,控制器局域网络总线
USB:Universal Serial Bus,通用串行总线
PCI:Peripheral Component Interconnect,外围设备互连
FPGA:Field Programmable Gate Array现场可编程门阵列
SSD:Solid-state drive,固态驱动器
IC:Integrated Circuit,集成电路
CU:Coding Unit,编码单元
尽管本申请描述了若干示范性实施例,但在本申请的范围内,可以有各种改动、排列组合方式以及各种替代等同物。因此,应该理解,在申请的精神和范围内,本领域技术人员可以设计出各种虽未在本文明确示出或描述、但可以体现本申请的原理的系统和方法。

Claims (19)

1.一种用于解码器中的视频解码方法,其特征在于,包括:
对视频数据的第一部分进行解码,以获取与多个图片中的至少两个图片相对应的第一解码数据,其中,所述视频数据与所述多个图片对应,所述多个图片与相应的图片顺序计数POC编号相关联,所述相应的图片POC编号用于指示所述多个图片分别在N个时间层的时间顺序;
分配M个存储器空间,M为小于或等于N的正整数;
识别所述至少两个图片中的一个或多个图片,用于对与当前图片对应的所述视频数据的第二部分进行解码;其中,在已识别的图片包括两个或更多已识别的图片的情况下,基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,和(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片,其中,所述两个或更多已识别的图片处于不同的时间层;或在已识别的图片仅包括一个已识别的图片的情况下,选择该唯一的已识别的图片作为所述同位参考图片;
使用所述同位参考图片对应的运动矢量和运动信息,对所述视频数据的所述第二部分进行解码,以获取与所述当前图片对应的第二解码数据,所述运动信息包括预测方向和参考索引;
将与所述一个或多个已识别的图片对应的第一解码数据存储在所分配的M个存储器空间中的一个或多个相应的存储器空间内,所述第一解码数据包括所述一个或多个已识别的图片对应的运动矢量和运动信息,所述运动信息包括预测方向和参考索引;
在所述一个或多个已识别的图片包括与所述当前图片处于同一时间层的特定图片的情况下,使用与所述当前图片对应的第二解码数据,对M个存储器空间中与所述特定图片对应的一个存储器空间存储的数据进行更新,所述第二解码数据包括当前图片对应的运动矢量和运动信息,所述运动信息包括预测方向和参考索引。
2.根据权利要求1所述的方法,其特征在于,从所述两个或更多已识别的图片中选择所述同位参考图片包括:
选择与所述当前图片具有最接近的POC编号差的一个已识别的图片作为所述同位参考图片。
3.根据权利要求2所述的方法,其特征在于,从所述两个或更多已识别的图片中选择所述同位参考图片包括:
当存在两个已识别的图片与所述当前图片具有最接近的POC编号差的情况下,执行以下步骤中的一个步骤:
选择所述两个已识别的图片中处于较低时间层的一个已识别的图片作为所述同位参考图片,以及
选择所述两个已识别的图片中处于较高时间层的一个已识别的图片作为所述同位参考图片。
4.根据权利要求1所述的方法,其特征在于,
所述M个存储器空间分别与所述N个时间层中的M个时间层相关联。
5.根据权利要求4所述的方法,其特征在于,分别分配与所述N个时间层中的M个时间层相关联的M个存储器空间之前,进一步包括:
从所述视频数据中获取所述正整数M。
6.根据权利要求4所述的方法,其特征在于,分别分配与所述N个时间层中的M个时间层相关联的M个存储器空间之前,进一步包括:
基于所述多个图片的图片大小,确定所述正整数M。
7.根据权利要求4所述的方法,其特征在于,
所述正整数N大于等于2,
所分配的M个存储器空间与所述N个时间层中的M个较低的时间层相关联。
8.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
在所述一个或多个已识别的图片少于M个图片、且所述当前图片处于所述N个时间层的最低时间层的情况下,将与所述当前图片对应的所述第二解码数据存储在所述M个存储器空间中的一个空存储器空间内。
9.根据权利要求8所述的方法,其特征在于,进一步包括:
在所述一个或多个已识别的图片包括M个图片,所述一个或多个已识别的图片和当前图片处于不同的时间层,且所述一个或多个已识别的图片包括处于最低时间层的两个图片的情况下,将与所述当前图片对应的所述第二解码数据存储在所述M个存储器空间中的一个第一存储器空间中,该第一存储器空间存储有与处于最低时间层的两个图片中具有较小POC编号的一个图片所对应的已解码数据。
10.根据权利要求1所述的方法,其特征在于,对M个存储器空间中的一个存储器空间存储的数据进行更新包括:存储与所述当前图片对应的所述第二解码数据,并将所述第二解码数据代替与所述特定图片对应的已解码数据。
11.一种用于视频解码的装置,其特征在于,包括:
获取模块,用于对视频数据的第一部分进行解码,以获取与多个图片中的至少两个图片相对应的第一解码数据,其中,所述视频数据与所述多个图片对应,所述多个图片与相应的图片顺序计数POC编号相关联,所述相应的图片POC编号用于指示所述多个图片分别在N个时间层的时间顺序;
存储器空间分配模块,用于分配M个存储器空间,M为小于或等于N的正整数;
识别模块,用于识别所述至少两个图片中的一个或多个图片,用于对与当前图片对应的所述视频数据的第二部分进行解码;
选择模块,用于在已识别的图片包括两个或更多已识别的图片的情况下,基于以下之一:(i)所述两个或更多已识别的图片和当前图片的POC编号,和(ii)视频数据中提供的选择索引,从所述两个或更多已识别的图片中选择同位参考图片,其中,所述两个或更多已识别的图片处于不同的时间层;或在所述已识别的图片仅包括一个已识别的图片的情况下,选择该唯一的已识别的图片作为所述同位参考图片;
解码模块,用于使用所述同位参考图片对应的运动矢量和运动信息,对所述视频数据的所述第二部分进行解码,以获取与所述当前图片对应的第二解码数据,所述运动信息包括预测方向和参考索引;
存储模块,用于将与所述一个或多个已识别的图片对应的第一解码数据存储在所分配的M个存储器空间中的一个或多个相应的存储器空间内,所述第一解码数据包括所述一个或多个已识别的图片对应的运动矢量和运动信息,所述运动信息包括预测方向和参考索引;
在所述一个或多个已识别的图片包括与所述当前图片处于同一时间层的特定图片的情况下,使用与所述当前图片对应的第二解码数据,对M个存储器空间中与所述特定图片对应的一个存储器空间存储的数据进行更新,所述第二解码数据包括当前图片对应的运动矢量和运动信息,所述运动信息包括预测方向和参考索引。
12.根据权利要求11所述的装置,其特征在于,所述选择模块进一步用于:从所述两个或更多已识别的图片中选择与所述当前图片具有最接近的POC编号差的一个已识别的图片作为所述同位参考图片。
13.根据权利要求11所述的装置,其特征在于,所述选择模块进一步用于:
当存在两个已识别的图片与所述当前图片具有最接近的POC编号差的情况下,执行以下步骤中的一个步骤:
选择所述两个已识别的图片中处于较低时间层的一个已识别的图片作为所述同位参考图片,以及
选择所述两个已识别的图片中处于较高时间层的一个已识别的图片作为所述同位参考图片。
14.根据权利要求11所述的装置,其特征在于,
所述M个存储器空间分别与所述N个时间层中的M个时间层相关联。
15.根据权利要求14所述的装置,其特征在于,
所述正整数N大于等于2,
所分配的M个存储器空间与所述N个时间层中的M个较低的时间层相关联。
16.根据权利要求11所述的装置,其特征在于,
所述存储模块还用于,在所述一个或多个已识别的图片少于M个图片、且所述当前图片处于所述N个时间层的最低时间层的情况下,将与所述当前图片对应的所述第二解码数据存储在所述M个存储器空间中的一个空存储器空间内。
17.根据权利要求16所述的装置,其特征在于,所述存储模块进一步用于:
在所述一个或多个已识别的图片包括M个图片,所述一个或多个已识别的图片和当前图片处于不同的时间层,且所述一个或多个已识别的图片包括处于最低时间层的两个图片的情况下,将与所述当前图片对应的所述第二解码数据存储在所述M个存储器空间中的一个第一存储器空间中,该第一存储器空间存储有与处于最低时间层的两个图片中具有较小POC编号的一个图片所对应的已解码数据。
18.一种计算机设备,其特征在于,包括处理器和存储器,所述存储器中储存有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行权利要求1至10任一项权利要求所述的方法。
19.一种非易失性计算机可读存储介质,存储有指令,其特征在于,所述指令在由用于视频解码的计算机执行时,使所述计算机执行权利要求1至10任意一项权利要求所述的方法。
CN201910577697.1A 2018-07-09 2019-06-28 视频编解码的方法及装置 Active CN110708554B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862695377P 2018-07-09 2018-07-09
US62/695,377 2018-07-09
US16/222,719 2018-12-17
US16/222,719 US10645380B2 (en) 2018-07-09 2018-12-17 Method and apparatus for video coding

Publications (2)

Publication Number Publication Date
CN110708554A CN110708554A (zh) 2020-01-17
CN110708554B true CN110708554B (zh) 2023-08-18

Family

ID=69102414

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910577697.1A Active CN110708554B (zh) 2018-07-09 2019-06-28 视频编解码的方法及装置

Country Status (2)

Country Link
US (1) US10645380B2 (zh)
CN (1) CN110708554B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11606575B2 (en) * 2018-07-10 2023-03-14 Qualcomm Incorporated Multiple history based non-adjacent MVPs for wavefront processing of video coding
CN110809161B (zh) * 2019-03-11 2020-12-29 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018122092A1 (en) * 2016-12-30 2018-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Methods, apparatus, and computer programs for decoding media

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8526495B2 (en) 2010-11-22 2013-09-03 Mediatek Singapore Pte. Ltd. Apparatus and method of constrained partition size for high efficiency video coding
US9049452B2 (en) 2011-01-25 2015-06-02 Mediatek Singapore Pte. Ltd. Method and apparatus for compressing coding unit in high efficiency video coding
US20120230409A1 (en) * 2011-03-07 2012-09-13 Qualcomm Incorporated Decoded picture buffer management
EP2805511B1 (en) * 2012-01-20 2019-03-06 Sun Patent Trust Methods and apparatus for encoding and decoding video using temporal motion vector prediction
KR20130107861A (ko) * 2012-03-23 2013-10-02 한국전자통신연구원 인터 레이어 인트라 예측 방법 및 장치
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
KR102257542B1 (ko) * 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
EP2904804A1 (en) * 2012-10-04 2015-08-12 VID SCALE, Inc. Reference picture set mapping for standard scalable video coding
KR20150095625A (ko) * 2012-12-14 2015-08-21 엘지전자 주식회사 비디오 인코딩 방법 및 비디오 디코딩 방법과 이를 이용하는 장치
US9438926B2 (en) * 2012-12-21 2016-09-06 Qualcomm Incorporated Constraints on neighboring block based disparity vector (NBDV) techniques for 3D video
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
KR20140121315A (ko) * 2013-04-04 2014-10-15 한국전자통신연구원 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치
WO2015082763A1 (en) * 2013-12-02 2015-06-11 Nokia Technologies Oy Video encoding and decoding
CA2942838C (en) * 2014-03-17 2019-10-01 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US20150373343A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Representation format update in multi-layer codecs
EP3298783B1 (en) * 2016-04-15 2020-11-18 Magic Pony Technology Limited Motion compensation using temporal picture interpolation
US10911769B2 (en) * 2017-06-23 2021-02-02 Qualcomm Incorporated Motion-based priority for the construction of candidate lists in video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018122092A1 (en) * 2016-12-30 2018-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Methods, apparatus, and computer programs for decoding media

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Rickard Sjöberg, Jonatan Samuelsson.《Absolute signaling of reference pictures》.《Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCV-VC F493》.2011, *

Also Published As

Publication number Publication date
CN110708554A (zh) 2020-01-17
US10645380B2 (en) 2020-05-05
US20200014917A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
CN112789850B (zh) 一种视频编解码方法、装置、设备和介质
CN113545061B (zh) 视频编解码方法和装置、存储介质以及包括处理电路的装置
CN111937387B (zh) 用于采用并行处理的基于历史的运动矢量的预测方法和装置
CN111989918B (zh) 视频解码的方法、装置及存储介质
CN112313952B (zh) 用于视频编解码的方法和设备
CN114666604B (zh) 视频编码的方法、装置及计算机可读介质
CN113557728B (zh) 视频编解码方法和装置
CN114598885B (zh) 视频解码方法、设备以及计算机可读存储介质
CN116320445A (zh) 视频解码、编码的方法、解码器、编码器及存储介质
CN113545079B (zh) 视频编解码的方法和装置
CN112470478A (zh) 编码单元分区约束
CN110784711B (zh) 生成用于视频序列编码或解码的合并候选列表的方法、装置
CN113424546B (zh) 视频解码或编码的方法和装置
CN116016914A (zh) 视频编解码方法、视频编解码器及计算机可读介质
CN111316639B (zh) 视频解码方法和装置、及存储介质
CN113785564B (zh) 视频编解码的方法和装置
CN111836056B (zh) 视频编解码的方法和装置、计算机设备和存储介质
CN111901609B (zh) 视频解码的方法和装置、计算机设备和存储介质
CN113545084B (zh) 视频编解码的方法、装置以及存储介质
CN111971965A (zh) 视频编解码的方法和装置
CN113661702B (zh) 视频编解码的方法、装置及存储介质
CN113632455B (zh) 视频编解码方法、装置和电子设备
CN112514400B (zh) 视频解码方法、视频解码器、计算机设备和可读存储介质
CN111246210B (zh) 视频解码方法、视频解码器、计算机设备和可读存储介质
CN111988631B (zh) 视频编码、解码的方法、装置以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant