CN114731418A - 联合色度残差视频译码 - Google Patents

联合色度残差视频译码 Download PDF

Info

Publication number
CN114731418A
CN114731418A CN202080081232.8A CN202080081232A CN114731418A CN 114731418 A CN114731418 A CN 114731418A CN 202080081232 A CN202080081232 A CN 202080081232A CN 114731418 A CN114731418 A CN 114731418A
Authority
CN
China
Prior art keywords
block
samples
chroma
residual
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080081232.8A
Other languages
English (en)
Inventor
B·雷
G·范德奥维拉
A·K·瑞玛苏布雷蒙尼安
M·卡切夫维茨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN114731418A publication Critical patent/CN114731418A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

一种视频解码器可以被配置为:针对视频数据的块的第一色度分量,接收用于第一残差样本的信息,该第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;基于第一残差样本来确定中间重构样本;针对视频数据的块的第二色度分量,接收用于第二残差样本的信息,该第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;基于第一残差样本和第一预测块来重构第一色度块;基于第二残差样本和中间重构样本来重构第二色度块;以及输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据。

Description

联合色度残差视频译码
本申请要求享受于2020年12月8日递交的、编号为17/115,544的美国申请的优先权,该美国申请要求享受于2019年12月9日递交的、编号为62/945,750的美国临时专利申请的权益,将上述每一份申请的全部内容通过引用的方式并入本文中。
技术领域
本公开内容涉及视频编码和视频解码。
背景技术
数字视频能力可以被并入各种各样的设备,其包括数字电视机、数字直播系统、无线广播系统、个人数字助理(PDA)、膝上型计算机或台式计算机、平板计算机、电子书阅读器、数字相机、数字记录设备、数字媒体播放器、视频游戏设备、视频游戏机、蜂窝或卫星无线电电话(所谓的“智能电话”)、视频电话会议设备、视频流传送设备等。数字视频设备实现视频译码技术,诸如在由MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4(第10部分,高级视频译码(AVC))、ITU-T H.265/高效率视频译码(HEVC)定义的标准和这样的标准的扩展中描述的技术。通过实现这样的视频译码技术,视频设备可以更加高效地发送、接收、编码、解码和/或存储数字视频信息。
视频译码技术包括空间(图片内(intra-picture))预测和/或时间(图片间(inter-picture))预测以减少或去除在视频序列中固有的冗余。对于基于块的视频译码,视频切片(例如,视频图片或视频图片的一部分)可以被分割为视频块,视频块还可以被称为译码树单元(CTU)、译码单元(CU)和/或译码节点。在图片的经帧内译码(I)的切片中的视频块是使用相对于相同图片中的相邻块中的参考样本的空间预测来编码的。在图片的经帧间译码(P或B)的切片中的视频块可以使用相对于相同图片中的相邻块中的参考样本的空间预测或者相对于其它参考图片中的参考样本的时间预测。图片可以被称为帧,并且参考图片可以被称为参考帧。
发明内容
概括而言,本公开内容描述了用于色度残差联合译码(JCCR)的技术。在JCCR中,残差色度块(例如,在色度块与相应的色度预测块之间的差)被一起译码(例如,针对残差色度块来对一个残差块进行译码)。在一些示例中,JCCR可能导致有损译码,并且因此当启用无损译码时,JCCR可能被禁用。然而,通过利用无损译码或至少较少有损译码,可以对视频质量有益。本公开内容描述了用于具有无损或较少有损译码的JCCR的技术的示例,从而允许较少有损译码的益处,同时实现JCCR的益处中的至少一些益处(例如,用信号发送的残差信息量的减少)。
根据一个示例,一种对视频数据进行解码的方法包括:接收用于视频数据的块的第一色度分量的第一残差样本的信息,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;基于第一残差样本来确定中间重构样本;接收用于视频数据的块的第二色度分量的第二残差样本的信息,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;基于第一残差样本和第一预测块来重构第一色度块;基于第二残差样本和中间重构样本来重构第二色度块;以及输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据。
根据另一示例,一种方法包括:确定视频数据的块的第一色度分量的第一残差样本,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;基于第一残差样本和第二色度分量的第二预测块来确定中间重构样本;确定视频数据的块的第二色度分量的第二残差样本,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;以及在经编码的视频数据的比特流中输出表示第一残差样本和第二残差样本的语法元素。
根据另一示例,一种用于对视频数据进行解码的设备包括:存储器,其被配置为存储视频数据;以及一个或多个处理器,其在电路中实现并且被配置为:接收用于视频数据的块的第一色度分量的第一残差样本的信息,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;基于第一残差样本来确定中间重构样本;接收用于视频数据的块的第二色度分量的第二残差样本的信息,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;基于第一残差样本和第一预测块来重构第一色度块;基于第二残差样本和中间重构样本来重构第二色度块;以及输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据。
根据另一示例,一种用于对视频数据进行编码的设备包括:存储器,其被配置为存储视频数据;以及一个或多个处理器,其在电路中实现并且被配置为:确定视频数据的块的第一色度分量的第一残差样本,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;基于第一残差样本和第二色度分量的第二预测块来确定中间重构样本;确定视频数据的块的第二色度分量的第二残差样本,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;以及在经编码的视频数据的比特流中输出表示第一残差样本和第二残差样本的语法元素。
根据另一示例,一种计算机可读存储介质存储指令,该指令在由一个或多个处理器执行时使得该一个或多个处理器进行以下操作:接收用于视频数据的块的第一色度分量的第一残差样本的信息,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;基于第一残差样本来确定中间重构样本;接收用于视频数据的块的第二色度分量的第二残差样本的信息,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;基于第一残差样本和第一预测块来重构第一色度块;基于第二残差样本和中间重构样本来重构第二色度块;以及输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据。
根据另一示例,一种计算机可读存储介质存储指令,该指令在由一个或多个处理器执行时使得该一个或多个处理器进行以下操作:确定视频数据的块的第一色度分量的第一残差样本,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;基于第一残差样本和第二色度分量的第二预测块来确定中间重构样本;确定视频数据的块的第二色度分量的第二残差样本,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;以及在经编码的视频数据的比特流中输出表示第一残差样本和第二残差样本的语法元素。
根据另一示例,一种用于对视频数据进行解码的装置包括:用于接收用于视频数据的块的第一色度分量的第一残差样本的信息的单元,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;用于基于第一残差样本来确定中间重构样本的单元;用于接收用于视频数据的块的第二色度分量的第二残差样本的信息的单元,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;用于基于第一残差样本和第一预测块来重构第一色度块的单元;用于基于第二残差样本和中间重构样本来重构第二色度块的单元;以及用于输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据的单元。
根据另一示例,一种用于对视频数据进行编码的装置包括:用于确定视频数据的块的第一色度分量的第一残差样本的单元,其中,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差;用于基于第一残差样本和第二色度分量的第二预测块来确定中间重构样本的单元;用于确定视频数据的块的第二色度分量的第二残差样本的单元,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差;以及用于在经编码的视频数据的比特流中输出表示第一残差样本和第二残差样本的语法元素的单元。
在附图和以下描述中阐述了一个或多个示例的细节。根据描述、附图和权利要求,其它特征、对象和优点将是显而易见的。
附图说明
图1是示出可以执行本公开内容的技术的示例视频编码和解码系统的框图。
图2A和图2B是示出示例四叉树二叉树(QTBT)结构以及对应的译码树单元(CTU)的概念图。
图3是示出可以执行本公开内容的技术的示例视频编码器的框图。
图4是示出可以执行本公开内容的技术的示例视频解码器的框图。
图5是示出对视频数据进行编码的示例的流程图。
图6是示出对视频数据进行解码的示例的流程图。
图7是示出对视频数据进行编码的示例的流程图。
图8是示出对视频数据进行解码的示例的流程图。
具体实施方式
视频译码(例如,视频编码和/或视频解码)通常涉及从相同图片中的视频数据的已经译码的块预测视频数据的块(例如,帧内预测)或者从不同图片中的视频数据的已经译码的块预测视频数据的块(例如,帧间预测)。在一些情况下,视频编码器还通过将预测块与原始块进行比较来计算残差数据。因此,残差数据表示在预测块与原始块之间的差。为了减少用信号发送残差数据所需的比特数量,视频编码器对残差数据进行变换和量化,并且在经编码的比特流中用信号发送经变换和经量化的残差数据。通过变换和量化过程实现的压缩可能是有损的,这意味着变换和量化过程可能将失真引入到经解码的视频数据中。
视频解码器对残差数据进行解码并且将该残差数据添加到预测块,以产生经重构的视频块,该经重构的视频块比单独的预测块更紧密地匹配原始视频块。由于通过对残差数据进行变换和量化引入的损失,第一经重构的块可能具有失真或伪影。一种常见类型的伪影或失真被称为块效应,其中用于对视频数据进行译码的块的边界是可见的。
为了进一步提高经解码的视频的质量,视频解码器可以对经重构的视频块执行一个或多个滤波操作。这些滤波操作的示例包括去块滤波、样本自适应偏移(SAO)滤波和自适应环路滤波(ALF)。这些滤波操作的参数可以由视频编码器确定并且在经编码的视频比特流中显式地用信号发送,或者可以由视频解码器隐式地确定,而不需要在经编码的视频比特流中显式地用信号发送的参数。
如下文将更详细地解释的,一些视频译码标准支持无损译码模式。在无损译码模式下,经解码的视频数据与经编码的视频数据匹配,而没有错误或失真。用于实现无损视频译码的一种技术是跳过上文描述的量化和逆量化过程。如下文将更详细地解释的,经常在具有两个对应的色度样本块的亮度样本块中对视频数据进行译码。可以在联合色度模式(还被称为色度残差联合译码(JCCR)模式)下对视频数据进行译码,其中针对两个对应的色度样本块来对单个色度残差块进行编码。现有的视频标准目前没有实现还可以与联合色度模式结合使用的无损译码模式。
本公开内容描述了用于实现还支持无损译码的JCCR模式的技术。如本公开内容中描述的,对于一些译码场景,与其它可用的无损译码技术相比,利用JCCR模式实现无损译码可以有利地导致改进的压缩。
在视频译码中,对于YUV(例如,Y、Cb、Cr)格式,可能存在两个色度分量(例如,Cb和Cr)。为方便起见,本文描述了关于Cb和Cr块的示例,但是这些技术可扩展到其它类型的色度块和其它视频格式(例如,RGB)。对于视频编码,视频编码器确定Cb块的残差块(被称为resCb)和Cr块的残差块(被称为resCr)。ResCb和resCr可以表示在相应的色度预测块与原始色度块之间的差。也就是说,resCb表示在原始Cb块与Cb预测块之间的差,并且resCr表示在原始Cr块与Cr预测块之间的差。在一些技术中,例如,在变换到变换域或频域、量化和基于上下文的译码或旁路译码中的一项或多项之后,视频编码器用信号发送用于resCb的信息并且单独地用信号发送用于resCr的信息。视频解码器单独地接收用于resCb’和resCr’的信息,并且将resCb和resCr添加到相应的Cb预测块和Cr预测块,以重构Cb块和Cr块。在有损译码中,由于通过量化和去量化过程导致的损失,对于resCb’和resCr’,可能不完全等于resCb和resCr。在无损译码的一些实现方式中,resCb’和resCr’可能等于resCb和resCr。
在JCCR模式下,视频编码器基于resCb和resCr来构造联合残差块(被称为resJointC),而不是单独地对resCb和resCr进行译码。视频编码器用信号发送用于resJointC的信息,与单独地用信号发送用于resCb和resCr的信息相比,这可以减少需要用信号发送的信息量。视频解码器接收用于resJointC的信息,根据所接收的信息来生成resJointC(被称为resJointC’,以指示resJointC’位于视频解码器侧),并且然后生成resCb’和resCr’。
在一些情况下,使用JCCR可能导致有损译码。例如,resCb’(例如,视频解码器侧的残差Cb块)可能与resCb(例如,视频编码器侧的残差Cb块)不同,并且resCr’(例如,视频解码器侧的残差Cr块)可能与resCr(例如,视频解码器侧的残差Cr块)不同。由于由视频编码器执行的变换和量化操作,使用JCCR可能导致有损译码。然而,在一些情况下,用于生成联合残差色度块(例如,resJointC)的操作本身可能是有损的。JCCR导致有损译码的技术可以被称为第一类型的JCCR。
对于更高的视频质量,可能存在优选无损视频译码的情况。因为在一些示例中,JCCR是有损的,所以无损视频译码可能不可用。此外,在可以利用无损视频译码的情况下,来自JCCR的益处(例如,减少用信号发送的残差信息量)可能不可用。
本公开内容描述了第二类型的JCCR的技术的示例。第二类型的JCCR可能是无损的,或者可能与第一类型的JCCR相比是较少有损的。在一些示例中,在绕过变换和/或量化的情况下或者在变换和/或量化过程是无损的情况下,可以使用第二类型的JCCR。然而,第二类型的JCCR的示例不应被解释为限于不存在损失的示例或者限于绕过变换和/或量化或变换和/或量化过程是无损的示例。
根据本公开内容的技术,视频解码器可以被配置为接收用于视频数据的块的第一色度分量的第一残差样本的信息,并且基于第一残差样本和第一预测块来重构第一色度块。可以以如下方式来确定第一残差样本:该方式使得将第一残差样本与第一预测块的样本相加得到原始第一色度块,并且因此导致第一色度块的无损译码。
视频解码器还可以基于第一残差样本和第二预测块来确定视频数据的块的第二色度分量的中间重构样本。视频解码器可以接收用于第二残差样本的信息,并且通过将第二残差样本与中间重构样本相加来重构第二色度块。可以以如下的方式来确定第二残差样本:该方式使得将第二残差样本与中间重构样本相加得到原始第二色度块,并且因此导致第二色度块的无损译码。此外,由于中间重构样本通常非常接近原始第二色度块的样本,因此第二残差样本通常可以是相对小的值,例如具有大量0和1,并且因此可以利用相对少的比特来高效地译码。因此,通过基于第二残差样本和中间重构样本来重构第二色度块,视频编码和解码系统可以有利地实现无损译码,同时仍然受益于JCCR针对一些译码场景产生的比特节省。
图1是示出可以执行本公开内容的技术的示例视频编码和解码系统100的框图。概括而言,本公开内容的技术针对对视频数据进行译码(编码和/或解码)。通常,视频数据包括用于处理视频的任何数据。因此,视频数据可以包括原始的未经编码的视频、经编码的视频、经解码(例如,经重构)的视频、以及视频元数据(诸如信令数据)。
如图1所示,在该示例中,系统100包括源设备102,源设备102提供要被目的地设备116解码和显示的、经编码的视频数据。具体地,源设备102经由计算机可读介质110来将视频数据提供给目的地设备116。源设备102和目的地设备116可以包括广泛范围的设备中的任一者,其包括台式计算机、笔记本计算机(即,膝上型计算机)、平板计算机、机顶盒、诸如智能电话的电话手机、电视机、相机、显示设备、数字媒体播放器、视频游戏机、视频流式传输设备等。在一些情况下,源设备102和目的地设备116可以被配备用于无线通信,并且因此可以被称为无线通信设备。
在图1的示例中,源设备102包括视频源104、存储器106、视频编码器200以及输出接口108。目的地设备116包括输入接口122、视频解码器300、存储器120以及显示设备118。根据本公开内容,源设备102的视频编码器200和目的地设备116的视频解码器300可以被配置为应用用于色度残差联合译码(JCCR)的技术。因此,源设备102表示视频编码设备的示例,而目的地设备116表示视频解码设备的示例。在其它示例中,源设备和目的地设备可以包括其它组件或布置。例如,源设备102可以从外部视频源(诸如外部相机)接收视频数据。同样,目的地设备116可以与外部显示设备对接,而不是包括集成显示设备。在本公开内容中,被描述为在视频编码器侧执行的操作可以例如由系统100的视频编码器200执行,而被描述为在视频解码器侧执行的操作可以例如由系统100的视频解码器300执行。
如图1所示的系统100仅是一个示例。通常,任何数字视频编码和/或解码设备可以执行用于JCCR的技术。源设备102和目的地设备116仅是这样的译码设备的示例,其中,源设备102生成经译码的视频数据以用于传输给目的地设备116。本公开内容将“译码”设备指代为执行对数据的译码(例如,编码和/或解码)的设备。因此,视频编码器200和视频解码器300分别表示译码设备(具体地,视频编码器和视频解码器)的示例。在一些示例中,源设备102和目的地设备116可以以基本上对称的方式进行操作,使得源设备102和目的地设备116中的每一者包括视频编码和解码组件。因此,系统100可以支持在源设备102和目的地设备116之间的单向或双向视频传输,例如,以用于视频流式传输、视频回放、视频广播或视频电话。
通常,视频源104表示视频数据(即,原始的未经编码的视频数据)的源,并且将视频数据的一系列顺序的图片(还被称为“帧”)提供给视频编码器200,视频编码器200对用于图片的数据进行编码。源设备102的视频源104可以包括视频捕获设备,诸如摄像机、包含先前捕获的原始视频的视频存档、和/或用于从视频内容提供者接收视频的视频馈送接口。作为另外的替代方式,视频源104可以生成基于计算机图形的数据作为源视频,或者生成实时视频、被存档的视频和计算机生成的视频的组合。在每种情况下,视频编码器200对被捕获的、预捕获的或计算机生成的视频数据进行编码。视频编码器200可以将图片从所接收的次序(有时被称为“显示次序”)重新排列为用于译码的译码次序。视频编码器200可以生成包括经编码的视频数据的比特流。然后,源设备102可以经由输出接口108将经编码的视频数据输出到计算机可读介质110上,以用于由例如目的地设备116的输入接口122进行的接收和/或取回。
源设备102的存储器106和目的地设备116的存储器120表示通用存储器。在一些示例中,存储器106、120可以存储原始视频数据,例如,来自视频源104的原始视频以及来自视频解码器300的原始的经解码的视频数据。另外或替代地,存储器106、120可以存储由例如视频编码器200和视频解码器300分别可执行的软件指令。尽管存储器106和存储器120在该示例中被示为与视频编码器200和视频解码器300分开,但是应当理解的是,视频编码器200和视频解码器300还可以包括用于在功能上类似或等效目的的内部存储器。此外,存储器106、120可以存储例如从视频编码器200输出并且输入到视频解码器300的经编码的视频数据。在一些示例中,存储器106、120的部分可以被分配为一个或多个视频缓冲器,例如,以存储原始的经解码和/或经编码的视频数据。
计算机可读介质110可以表示能够将经编码的视频数据从源设备102输送到目的地设备116的任何类型的介质或设备。在一个示例中,计算机可读介质110表示通信介质,其使得源设备102能够例如经由射频网络或基于计算机的网络来实时地向目的地设备116直接发送经编码的视频数据。根据诸如无线通信协议的通信标准,输出接口108可以对包括经编码的视频数据的传输信号进行调制,并且输入接口122可以对所接收的传输信号进行解调。通信介质可以包括任何无线或有线通信介质,诸如射频(RF)频谱或一条或多条物理传输线。通信介质可以形成诸如以下各项的基于分组的网络的一部分:局域网、广域网、或诸如互联网的全球网络。通信介质可以包括路由器、交换机、基站、或对于促进从源设备102到目的地设备116的通信可以有用的任何其它设备。
在一些示例中,源设备102可以将经编码的数据从输出接口108输出到存储设备112。类似地,目的地设备116可以经由输入接口122从存储设备112存取经编码的数据。存储设备112可以包括各种分布式或本地存取的数据存储介质中的任一者,诸如硬盘驱动器、蓝光光盘、DVD、CD-ROM、闪存、易失性或非易失性存储器、或用于存储经编码的视频数据的任何其它适当的数字存储介质。
在一些示例中,源设备102可以将经编码的视频数据输出到文件服务器114或者可以存储由源设备102生成的经编码的视频的另一中间存储设备。目的地设备116可以经由流式传输或下载来从文件服务器114存取被存储的视频数据。文件服务器114可以是能够存储经编码的视频数据并且将该经编码的视频数据发送给目的地设备116的任何类型的服务器设备。文件服务器114可以表示网页服务器(例如,用于网站)、文件传输协议(FTP)服务器、内容递送网络设备或网络附加存储(NAS)设备。目的地设备116可以通过任何标准数据连接(包括互联网连接)来从文件服务器114存取经编码的视频数据。这可以包括适于存取在文件服务器114上存储的经编码的视频数据的无线信道(例如,Wi-Fi连接)、有线连接(例如,数字用户线(DSL)、电缆调制解调器等)、或这两者的组合。文件服务器114和输入接口122可以被配置为根据以下各项来操作:流式传输协议、下载传输协议、或其组合。
输出接口108和输入接口122可以表示无线发射机/接收机、调制解调器、有线联网组件(例如,以太网卡)、根据各种IEEE 802.11标准中的任何一种标准进行操作的无线通信组件、或其它物理组件。在输出接口108和输入接口122包括无线组件的示例中,输出接口108和输入接口122可以被配置为根据蜂窝通信标准(诸如4G、4G-LTE(长期演进)、改进的LTE、5G等)来传输数据(诸如经编码的视频数据)。在输出接口108包括无线发射机的一些示例中,输出接口108和输入接口122可以被配置为根据其它无线标准(诸如IEEE 802.11规范、IEEE 802.15规范(例如,ZigBeeTM)、蓝牙TM标准等)来传输数据(诸如经编码的视频数据)。在一些示例中,源设备102和/或目的地设备116可以包括相应的片上系统(SoC)设备。例如,源设备102可以包括用于执行被赋予视频编码器200和/或输出接口108的功能的SoC设备,并且目的地设备116可以包括用于执行被赋予视频解码器300和/或输入接口122的功能的SoC设备。
本公开内容的技术可以应用于视频译码,以支持各种多媒体应用中的任何一者,诸如空中电视广播、有线电视传输、卫星电视传输、互联网流式视频传输(诸如基于HTTP的动态自适应流式传输(DASH))、被编码到数据存储介质上的数字视频、对在数据存储介质上存储的数字视频的解码、或其它应用。
目的地设备116的输入接口122从计算机可读介质110(例如,通信介质、存储设备112、文件服务器114等)接收经编码的视频比特流。经编码的视频比特流可以包括由视频编码器200定义的诸如以下语法元素的信令信息(其还被视频解码器300使用):该语法元素具有描述视频块或其它译码单元(例如,切片、图片、图片组、序列等)的特性和/或处理的值。显示设备118将经解码的视频数据的经解码的图片显示给用户。显示设备118可以表示各种显示设备中的任何一者,诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子显示器、有机发光二极管(OLED)显示器、或另一种类型的显示设备。
尽管在图1中未示出,但是在一些示例中,视频编码器200和视频解码器300可以各自与音频编码器和/或音频解码器集成,并且可以包括适当的MUX-DEMUX单元或其它硬件和/或软件,以处理包括公共数据流中的音频和视频两者的经复用的流。如果适用,MUX-DEMUX单元可以遵循ITU H.223复用器协议或其它协议(诸如用户数据报协议(UDP))。
视频编码器200和视频解码器300各自可以被实现为各种适当的编码器和/或解码器电路中的任何一者,诸如一个或多个微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、分立逻辑、软件、硬件、固件、或其任何组合。当所述技术部分地用软件实现时,设备可以将用于软件的指令存储在适当的非暂时性计算机可读介质中,并且使用一个或多个处理器,用硬件来执行指令以执行本公开内容的技术。视频编码器200和视频解码器300中的每一者可以被包括在一个或多个编码器或解码器中,该一个或多个编码器或解码器中的任一者可以被集成为相应设备中的组合编码器/解码器(CODEC)的一部分。包括视频编码器200和/或视频解码器300的设备可以包括集成电路、微处理器、和/或无线通信设备(诸如蜂窝电话)。
视频译码标准的示例包括ITU-T H.261、ISO/IEC MPEG-1Visual、ITU-T H.262或ISO/IEC MPEG-2Visual、ITU-T H.263、ISO/IEC MPEG-4Visual(MPEG-4第2部分)、ITU-TH.264(还被称为ISO/IEC MPEG-4AVC)(包括其可缩放视频译码(SVC)和多视图视频译码(MVC)扩展)以及具有其扩展的ITU-T H.265(还被称为ISO/IEC MPEG-4HEVC)。
视频编码器200和视频解码器300可以根据视频译码标准(诸如ITU-T H.265(还被称为高效率视频译码(HEVC))或对其的扩展(诸如多视图和/或可缩放视频译码扩展))进行操作。替代地,视频编码器200和视频解码器300可以根据其它专有或行业标准(诸如联合探索测试模型(JEM)或ITU-T H.266标准,还被称为通用视频译码(VVC))进行操作。VVC标准的最新草案是在以下文档中描述的:Bross等人,“Versatile Video Coding(Draft 7)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC29/WG 11的联合视频专家组(JVET),第16次会议:瑞士日内瓦,2019年10月1日至11日,JVET-P2001-v14(下文中被称为“VVC草案7”)。然而,本公开内容的技术不限于任何特定的译码标准。
通常,视频编码器200和视频解码器300可以执行对图片的基于块的译码。术语“块”通常指代包括要被处理的(例如,在编码和/或解码过程中要被编码、被解码或以其它方式使用的)数据的结构。例如,块可以包括亮度和/或色度数据的样本的二维矩阵。通常,视频编码器200和视频解码器300可以对以YUV(例如,Y、Cb、Cr)格式表示的视频数据进行译码。也就是说,而视频编码器200和视频解码器300可以对亮度分量和色度分量进行译码,不是对用于图片的样本的红色、绿色和蓝色(RGB)数据进行译码,其中,色度分量可以包括红色色相色度分量和蓝色色相色度分量两者。在一些示例中,视频编码器200在进行编码之前将所接收的经RGB格式化的数据转换为YUV表示,并且视频解码器300将YUV表示转换为RGB格式。替代地,预处理和后处理单元(未示出)可以执行这些转换。
概括而言,本公开内容可以涉及对图片的译码(例如,编码和解码)以包括对图片的数据进行编码或解码的过程。类似地,本公开内容可以涉及对图片的块的译码以包括对用于块的数据进行编码或解码(例如,预测和/或残差译码)的过程。经编码的视频比特流通常包括用于表示译码决策(例如,译码模式)以及将图片分割为块的语法元素的一系列值。因此,关于对图片或块进行译码的引用通常应当被理解为对用于形成图片或块的语法元素的值进行译码。
HEVC定义了各种块,其包括译码单元(CU)、预测单元(PU)和变换单元(TU)。根据HEVC,视频译码器(诸如视频编码器200)根据四叉树结构来将译码树单元(CTU)分割为CU。也就是说,视频译码器将CTU和CU分割为四个相等的、不重叠的正方形,并且四叉树的每个节点具有零个或者四个子节点。没有子节点的节点可以被称为“叶节点”,并且这种叶节点的CU可以包括一个或多个PU和/或一个或多个TU。视频译码器可以进一步分割PU和TU。例如,在HEVC中,残差四叉树(RQT)表示对TU的分区。在HEVC中,PU表示帧间预测数据,而TU表示残差数据。经帧内预测的CU包括帧内预测信息,诸如帧内模式指示。
作为另一示例,视频编码器200和视频解码器300可以被配置为根据JEM或VVC进行操作。根据JEM或VVC,视频译码器(诸如视频编码器200)将图片分割为多个译码树单元(CTU)。视频编码器200可以根据树结构(诸如四叉树-二叉树(QTBT)结构或多类型树(MTT)结构)来分割CTU。QTBT结构去除了多种分割类型的概念,诸如在HEVC的CU、PU和TU之间的分隔。QTBT结构包括两个级别:根据四叉树分割而被分割的第一级别、以及根据二叉树分割而被分割的第二级别。QTBT结构的根节点对应于CTU。二叉树的叶节点对应于译码单元(CU)。
在MTT分割结构中,可以使用四叉树(QT)分割、二叉树(BT)分割以及一种或多种类型的三叉树(TT)(还被称为三元树(TT))分割来对块进行分割。三叉树或三元树分割是其中块被分为三个子块的分割。在一些示例中,三叉树或三元树分割将块划分为三个子块,而不通过中心划分原始块。MTT中的分割类型(例如,QT、BT和TT)可以是对称的或不对称的。
在一些示例中,视频编码器200和视频解码器300可以使用单个QTBT或MTT结构来表示亮度分量和色度分量中的每一者,而在其它示例中,视频编码器200和视频解码器300可以使用两个或更多个QTBT或MTT结构,诸如用于亮度分量的一个QTBT/MTT结构以及用于两个色度分量的另一个QTBT/MTT结构(或者用于相应色度分量的两个QTBT/MTT结构)。
视频编码器200和视频解码器300可以被配置为使用每HEVC的四叉树分割、QTBT分割、MTT分割、或其它分割结构。出于解释的目的,关于QTBT分割给出了本公开内容的技术的描述。然而,应当理解的是,本公开内容的技术还可以应用于被配置为使用四叉树分割或者还使用其它类型的分割的视频译码器。
可以以各种方式在图片中对块(例如,CTU或CU)进行分组。作为一个示例,砖块(brick)可以指代在图片中的特定瓦片(tile)内的CTU行的矩形区域。瓦片可以是在图片中的特定瓦片列和特定瓦片行内的CTU的矩形区域。瓦片列指代CTU的矩形区域,其具有与图片的高度相等的高度以及由语法元素(例如,诸如在图片参数集中)指定的宽度。瓦片行指代CTU的矩形区域,其具有由语法元素指定的高度(例如,诸如在图片参数集中)以及与图片的宽度相等的宽度。
在一些示例中,可以将瓦片分割为多个砖块,其中的每个砖块可以包括在瓦片内的一个或多个CTU行。未被分割为多个砖块的瓦片还可以被称为砖块。然而,作为瓦片的真实子集的砖块可以不被称为瓦片。
图片中的砖块还可以以切片来排列。切片可以是图片的整数个砖块,其可以唯一地被包含在单个网络抽象层(NAL)单元中。在一些示例中,切片包括数个完整的瓦片或者仅一个瓦片的完整砖块的连续序列。
本公开内容可以互换地使用“NxN”和“N乘N”来指代块(诸如CU或其它视频块)在垂直维度和水平维度方面的样本大小,例如,16x16个样本或16乘16个样本。通常,16x16 CU在垂直方向上将具有16个样本(y=16),并且在水平方向上将具有16个样本(x=16)。同样地,NxN CU通常在垂直方向上具有N个样本,并且在水平方向上具有N个样本,其中N表示非负整数值。CU中的样本可以按行和列来排列。此外,CU不一定需要在水平方向上具有与在垂直方向上相同的数量的样本。例如,CU可以包括NxM个样本,其中M不一定等于N。
视频编码器200对用于CU的表示预测和/或残差信息以及其它信息的视频数据进行编码。预测信息指示将如何预测CU以便形成用于CU的预测块。残差信息通常表示在编码之前的CU的样本与预测块之间的逐样本差。
为了预测CU,视频编码器200通常可以通过帧间预测或帧内预测来形成用于CU的预测块。帧间预测通常指代根据先前译码的图片的数据来预测CU,而帧内预测通常指代根据相同图片的先前译码的数据来预测CU。为了执行帧间预测,视频编码器200可以使用一个或多个运动向量来生成预测块。视频编码器200通常可以执行运动搜索,以识别例如在CU与参考块之间的差异方面与CU紧密匹配的参考块。视频编码器200可以使用绝对差之和(SAD)、平方差之和(SSD)、平均绝对差(MAD)、均方差(MSD)、或其它这种差计算来计算差度量,以确定参考块是否与当前CU紧密匹配。在一些示例中,视频编码器200可以使用单向预测或双向预测来预测当前CU。
JEM和VVC的一些示例还提供仿射运动补偿模式,其可以被认为是帧间预测模式。在仿射运动补偿模式下,视频编码器200可以确定表示非平移运动(诸如放大或缩小、旋转、透视运动或其它不规则的运动类型)的两个或更多个运动向量。
为了执行帧内预测,视频编码器200可以选择帧内预测模式来生成预测块。JEM和VVC的一些示例提供六十七种帧内预测模式,其包括各种方向性模式、以及平面模式和DC模式。通常,视频编码器200选择帧内预测模式,该帧内预测模式描述要根据其来预测当前块(例如,CU的块)的样本的、当前块的相邻样本。假定视频编码器200以光栅扫描次序(从左到右、从上到下)对CTU和CU进行译码,这样的样本通常可以是在与当前块相同的图片中在当前块的上方、左上方或左侧。
视频编码器200对表示用于当前块的预测模式的数据进行编码。例如,对于帧间预测模式,视频编码器200可以对表示使用各种可用帧间预测模式中的哪一种的数据以及用于对应模式的运动信息进行编码。对于单向或双向帧间预测,例如,视频编码器200可以使用高级运动向量预测(AMVP)或合并模式来对运动向量进行编码。视频编码器200可以使用类似的模式来对用于仿射运动补偿模式的运动向量进行编码。
在诸如对块的帧内预测或帧间预测的预测之后,视频编码器200可以计算用于该块的残差数据。残差数据(诸如残差块)表示在块与用于该块的预测块之间的逐样本差,该预测块是使用对应的预测模式来形成的。视频编码器200可以将一个或多个变换应用于残差块,以在变换域而非样本域中产生经变换的数据。例如,视频编码器200可以将离散余弦变换(DCT)、整数变换、小波变换或概念上类似的变换应用于残差视频数据。另外,视频编码器200可以在第一变换之后应用二次变换,诸如模式相关的不可分离二次变换(MDNSST)、信号相关变换、Karhunen-Loeve变换(KLT)等。视频编码器200在应用一个或多个变换之后产生变换系数。
如上所述,在任何变换以产生变换系数之后,视频编码器200可以执行对变换系数的量化。量化通常指代如下的过程:在该过程中,对变换系数进行量化以可能减少用于表示变换系数的数据量,从而提供进一步的压缩。通过执行量化过程,视频编码器200可以减小与一些或所有变换系数相关联的比特深度。例如,视频编码器200可以在量化期间将n比特的值向下舍入为m比特的值,其中n大于m。在一些示例中,为了执行量化,视频编码器200可以执行对要被量化的值的按位右移。
在量化之后,视频编码器200可以扫描变换系数,从而从包括经量化的变换系数的二维矩阵产生一维向量。可以将扫描设计为将较高能量(并且因此较低频率)的变换系数放在向量的前面,并且将较低能量(并且因此较高频率)的变换系数放在向量的后面。在一些示例中,视频编码器200可以利用预定义的扫描次序来扫描经量化的变换系数以产生经串行化的向量,并且然后对向量的经量化的变换系数进行熵编码。在其它示例中,视频编码器200可以执行自适应扫描。在扫描经量化的变换系数以形成一维向量之后,视频编码器200可以例如根据上下文自适应二进制算术译码(CABAC)来对一维向量进行熵编码。视频编码器200还可以对用于描述与经编码的视频数据相关联的元数据的语法元素的值进行熵编码,以供视频解码器300在对视频数据进行解码时使用。
为了执行CABAC,视频编码器200可以将在上下文模型内的上下文指派给要被发送的符号。上下文可以涉及例如符号的相邻值是否为零值。概率确定可以是基于被指派给符号的上下文的。
视频编码器200还可以例如在图片报头、块报头、切片报头中生成去往视频解码器300的语法数据(诸如基于块的语法数据、基于图片的语法数据和基于序列的语法数据)、或其它语法数据(诸如序列参数集(SPS)、图片参数集(PPS)或视频参数集(VPS))。同样地,视频解码器300可以对这样的语法数据进行解码以确定如何解码对应的视频数据。
以这种方式,视频编码器200可以生成比特流,其包括经编码的视频数据,例如,描述将图片分割为块(例如,CU)以及用于该块的预测和/或残差信息的语法元素。最终,视频解码器300可以接收比特流并且对经编码的视频数据进行解码。
通常,视频解码器300执行与由视频编码器200执行的过程互易的过程,以对比特流的经编码的视频数据进行解码。例如,视频解码器300可以使用CABAC,以与视频编码器200的CABAC编码过程基本上类似的、但是互易的方式来对用于比特流的语法元素的值进行解码。语法元素可以定义用于将图片分割为CTU、以及根据对应的分割结构(诸如QTBT结构)对每个CTU进行分割以定义CTU的CU的分割信息。语法元素还可以定义用于视频数据的块(例如,CU)的预测和残差信息。
残差信息可以由例如经量化的变换系数来表示。视频解码器300可以对块的经量化的变换系数进行逆量化和逆变换以重新产生用于该块的残差块。视频解码器300使用经信号发送的预测模式(帧内预测或帧间预测)和相关的预测信息(例如,用于帧间预测的运动信息)来形成用于该块的预测块。视频解码器300然后可以对预测块和残差块(在逐个样本的基础上)进行组合以重新产生原始块。视频解码器300可以执行额外处理,诸如执行去块过程以减少沿着块的边界的视觉伪影。
根据本公开内容的技术,视频编码器200和视频解码器300可以被配置为执行根据色度残差联合译码(JCCR)的技术。如上文所述并且在下文中更详细地描述的,在JCCR中,用于两个色度分量的残差信息可以被组合以减少用信号发送的信息量。然而,JCCR的一些技术可能不用于无损译码。在本公开内容的一些示例中,视频编码器200和视频解码器300可以利用JCCR技术,但是以操作是无损的或者与JCCR的其它技术相比至少较少有损的这种方式。
在本公开内容的一些示例中,视频解码器300可以进行以下操作:接收用于第一色度分量的第一残差样本的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差的;基于第一残差样本来确定中间样本;接收用于第二色度分量的第二残差样本的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与中间样本之间的差的,其中,第二色度块和第一色度块被关联在一起(例如,相同CU的一部分);基于第一残差样本和第一预测块来重构第一色度块;以及基于第二残差样本和中间样本来重构第二色度块。
在一些示例中,视频解码器300可以进行以下操作:接收用于值集合的信息,其中,该集合值是基于第一色度分量的第一色度块的第一残差样本集合和第二色度分量的第二色度块的第二残差样本集合来生成的,其中,第一色度块和第二色度块相关联;基于值集合来确定第一中间样本;基于值集合来确定第二中间样本;接收用于第一残差样本的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一中间样本之间的差的;接收用于第二残差样本的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与第二中间样本之间的差的;基于第一残差样本和第一中间样本来重构第一色度块;以及基于第二残差样本和第二中间样本来重构第二色度块。
在一些示例中,视频编码器200可以进行以下操作:用信号发送用于第一色度分量的第一残差样本的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差的;基于第一残差样本来确定中间样本;以及用信号发送用于第二色度分量的第二残差样本的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与中间样本之间的差的,并且其中,第二色度块和第一色度块关联在一起(例如,相同CU的一部分)。
在一些示例中,视频编码器200可以进行以下操作:基于第一色度分量的第一残差样本集合和第二色度分量的第二残差样本集合来生成值集合,其中,第一残差样本集合是基于在第一色度分量的第一色度块与第一预测块之间的差的,并且第二残差样本集合是基于在第二色度分量的第二色度块与第二预测块之间的差的,其中,第一色度块和第二色度块相关联;用信号发送用于值集合的信息;基于值集合来确定第一中间样本;基于值集合来确定第二中间样本;用信号发送用于第一残差样本的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一中间样本之间的差的;以及用信号发送用于第二残差样本的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与第二中间样本之间的差的。
概括而言,本公开内容可能涉及“用信号发送”某些信息(诸如语法元素)。术语“用信号发送”通常可以指代对用于语法元素的值和/或用于对经编码的视频数据进行解码的其它数据的传送。也就是说,视频编码器200可以在比特流中用信号发送用于语法元素的值。通常,用信号发送指代在比特流中生成值。如上所述,源设备102可以基本上实时地或非实时地(诸如可能当将语法元素存储到存储设备112以供目的地设备116稍后取回时发生)将比特流传输到目的地设备116。
图2A和图2B是示出示例四叉树二叉树(QTBT)结构130以及对应的译码树单元(CTU)132的概念图。实线表示四叉树拆分,而虚线指示二叉树拆分。在二叉树的每个拆分(即,非叶)节点中,用信号发送一个标志以指示使用哪种拆分类型(即,水平或垂直),其中,在该示例中,0指示水平拆分,而1指示垂直拆分。对于四叉树拆分,由于四叉树节点将块水平地并且垂直地拆分为具有相等大小的4个子块,因此无需指示拆分类型。因此,视频编码器200可以对以下各项进行编码,而视频解码器300可以对以下各项进行解码:用于QTBT结构130的区域树级别(即,实线)的语法元素(诸如拆分信息)、以及用于QTBT结构130的预测树级别(即,虚线)的语法元素(诸如拆分信息)。视频编码器200可以对用于由QTBT结构130的终端叶节点表示的CU的视频数据(诸如预测和变换数据)进行编码,而视频解码器300可以对该视频数据进行解码。
通常,图2B的CTU 132可以与定义与QTBT结构130的在第一级别和第二级别处的节点相对应的块的大小的参数相关联。这些参数可以包括CTU大小(表示样本中的CTU 132的大小)、最小四叉树大小(MinQTSize,其表示最小允许四叉树叶节点大小)、最大二叉树大小(MaxBTSize,其表示最大允许二叉树根节点大小)、最大二叉树深度(MaxBTDepth,其表示最大允许二叉树深度)、以及最小二叉树大小(MinBTSize,其表示最小允许二叉树叶节点大小)。
QTBT结构的与CTU相对应的根节点可以在QTBT结构的第一级别处具有四个子节点,其中的每个子节点可以是根据四叉树分割来分割的。也就是说,第一级别的节点是叶节点(没有子节点)或者具有四个子节点。QTBT结构130的示例将这样的节点表示为包括具有实线分支的父节点和子节点。如果第一级别的节点不大于最大允许二叉树根节点大小(MaxBTSize),则可以通过相应的二叉树进一步对这些节点进行分割。可以对一个节点的二叉树拆分进行迭代,直到从拆分产生的节点达到最小允许二叉树叶节点大小(MinBTSize)或最大允许二叉树深度(MaxBTDepth)为止。QTBT结构130的示例将这样的节点表示为具有虚线分支。二叉树叶节点被称为译码单元(CU),其用于预测(例如,图片内或图片间预测)和变换,而不进行任何进一步分割。如上文所讨论的,CU还可以被称为“视频块”或“块”。
在QTBT分割结构的一个示例中,CTU大小被设置为128x128(亮度样本和两个对应的64x64色度样本),MinQTSize被设置为16x16,MaxBTSize被设置为64x64,MinBTSize(对于宽度和高度两者)被设置为4,并且MaxBTDepth被设置为4。首先对CTU应用四叉树分割以生成四叉树叶节点。四叉树叶节点可以具有从16x16(即,MinQTSize)到128x128(即,CTU大小)的大小。如果叶四叉树节点是128x128,则由于该大小超过MaxBTSize(即,在该示例中为64x64),因此叶四叉树节点将不被二叉树进一步拆分。否则,叶四叉树节点将被二叉树进一步分割。因此,四叉树叶节点还是用于二叉树的根节点,并且具有为0的二叉树深度。当二叉树深度达到MaxBTDepth(在该示例中为4)时,不允许进一步拆分。具有等于MinBTSize(在该示例中为4)的宽度的二叉树节点意味着不允许进一步的水平拆分。类似地,具有等于MinBTSize的高度的二叉树节点意味着不允许针对该二叉树节点进行进一步的垂直拆分。如上文所述,二叉树的叶节点被称为CU,并且根据预测和变换而被进一步处理,而无需进一步分割。
“Versatile Video Coding(Draft 6)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC29/WG 11的联合视频专家组(JVET),第15次会议:瑞典哥德堡,2019年7月3日至12日,JVET-O2001-vD(以下简称“VVC草案6”)支持对色度残差进行联合译码的模式。联合色度译码模式的使用(激活)由TU级别标志tu_joint_cbcr_residual_flag指示,并且所选择的模式由色度CBF隐式地指示。如果TU的任一或两个色度CBF等于1,则存在标志tu_joint_cbcr_residual_flag。在图片参数集(PPS)和切片报头中,针对联合色度残差译码模式用信号发送色度QP偏移值,以区别于针对常规色度残差译码模式用信号发送的通常色度QP偏移值。这些色度QP偏移值用于推导使用联合色度残差译码模式进行译码的那些块的色度QP值。当对应的联合色度译码模式(下文表1中的模式2)在TU中是活动的时,该色度QP偏移在对该TU的量化和解码期间被添加到应用的亮度推导的色度QP。对于其它模式(下文表1中的模式1和模式3),以与常规Cb或Cr块相同的方式来推导色度QP。在表1中描绘了从发送的变换块重构色度残差(resCb和resCr)的过程。当该模式被激活时,用信号发送一个单一联合色度残差块(表1中的resJointC’[x][y]),并且在考虑诸如tu_cbf_cb、tu_cbf_rr和CSign的信息的情况下推导Cb的残差块(resCb)和Cr的残差块(resCr),CSign是在图像报头中指定的符号值,如在以下文档中描述的:Helmrich等人,“CE7:Joint chroma residual coding withmultiple modes(tests CE7-2.1,CE7-2.2)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家组(JVET),第15次会议:瑞典哥德堡,2019年7月3日至12日,JVET-O0105;以及Helmrich等人,“Alternative configuration for joint chroma residualcoding”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家组(JVET),第15次会议:瑞典哥德堡,2019年7月3日至12日,JVET-O0543。
在编码器侧,推导联合色度分量,如在下文中解释的。根据模式,视频编码器200生成resJointC,如表1所示。在表2中示出了由视频解码器300执行的用于不同模式的色度残差的重构。
对于所有模式,编码器侧的原始残差被计算为:resCb[x][y]=origCb[x][y]–predCb[x][y],以及resCr[x][y]=origCr[x][y]–predCr[x][y]。由于变换和量化以及由于联合表示,在解码器侧推导的残差res’Cb[x][y]和res’Cr[x][y]通常与resCb[x][y]和resCr[x][y]不相同。
此外,在解码器侧,由于变换/量化,联合残差resJointC’未必与由视频编码器200生成的联合残差resJointC相同,除非其绕过变换和量化。即使resJointC是无损发送的(例如,变换量化绕过或变换跳过,其中对于比特深度8,QP=4),由于残差的联合表示,也可能无法保证色度残差的无损重构。
表1:联合色度残差的生成
Figure BDA0003656806180000121
表2:色度残差的重构
Figure BDA0003656806180000122
对于所有模式,解码器侧(例如,由视频解码器300进行)的重构如下:recCb[x][y]=predCb[x][y]+res’Cb[x][y],以及recCr[x][y]=predCr[x][y]+res’Cr[x][y]。可以在帧内预测的CU中支持上文描述的三种联合色度译码模式。对于非帧内CU,仅可以支持模式2。因此,在非帧内CU中,仅当两个色度cbf都是1时,才可能存在语法元素tu_joint_cbcr_residual_flag。
在Xu等人的“CE8-related:A SPS Level Flag for BDPCM and JCCR”,ITU-T SG16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家组(JVET),第15次会议:瑞典哥德堡,2019年7月3日至12日,JVET-O0376中,已经添加了序列参数集(SPS)级别标志,以控制对每个视频序列的联合Cb-Cr的启用/禁用。因此,通过将该SPS标志设置为零,可以在VVC中执行禁用JCCR的明确方式。
以下描述了VVC编解码器的无损译码功能。VVC还计划支持无损译码,并且目前正在Ad-hoc组(AHG)中和核心实验中研究无损译码。在JVET第16次会议周期期间,AHG18产生了无损VTM锚,其是基于HEVC变换量化绕过的并且扩展到具有一些规范性和非规范性更改的新的VVC工具。随后,在Bross等人的“AHG 18:Enabling lossless coding with minimalimpact on VVC design”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家组(JVET),第16次会议:瑞士日内瓦,2019年10月1日至11日,JVET-P0606中,提出了用于实现具有对VVC设计的最小影响的无损译码的改进设计。
然而,在无损译码(或者与先前使用JCCR的情况相比至少更少有损译码)的情况下使用JCCR可能存在问题。对于当前启用无损功能的JVET活动,从SPS级别禁用JCCR工具。这是由于以下原因:对于Cb分量和Cr分量两者,JCCR仅用信号发送一个残差,并且通常,利用该方法可能无法对残差进行无损译码,并且因此,无损译码可能不可用。
本公开内容描述了用于在最少修改的情况下使用现有JCCR模式实现无损译码的若干技术。示例技术可以一起使用或者单独使用。为方便起见,本公开内容描述了关于技术一和技术二的示例。然而,这些技术不应被解释为仅限于两种技术。
对于当前的JCCR方法,通过Cb和Cr残差的线性组合来执行在编码器侧联合色度残差的生成。通常,以这种方式计算的联合残差不是Cb和Cr残差的无损版本。
在技术一中,用信号发送两个残差(resJointC和resJointC2),以实现无损译码(对于原始JCCR,仅用信号发送resJointC)。在表3中示出了编码器侧(例如,视频编码器200的操作)和解码器侧(例如,视频解码器300的操作)过程。为了方便起见,将分量Cb和Cr定义为第一分量和第二分量。对于模式1和模式2,Cb和Cr分别是第一分量和第二分量,并且对于模式3,Cr和Cb分别是第一分量和第二分量。如表3所示,视频编码器200以这样的方式计算resJointC:第一分量的无损重构是可用的,并且在一些情况下是有保证的。也就是说,视频编码器200和视频解码器300使用resCb或者resCr(取决于模式)的无损版本作为resJointC。限幅边界是(0,2bitdepth–1),其中bitdepth是内部(处理)编解码器操作的比特深度。
在第二步骤中,根据具有限幅的原始JCCR方法的解码过程来执行第二分量(rec1Cr/rec1Cb)的重构的中间步骤。随后,通过从原始第二分量中减去该中间重构来计算resJointC2。这里,限幅阶段可以确保中间重构值在动态范围内,并且随后,限幅还可以确保resJointC2将具有与其它残差(例如,resJointC等)相同的动态范围。
为了进行无损译码,应当以无损方式对resJointC和resJointC2进行译码。这可以使用绕过变换和量化阶段(与HEVC无损模式相同)来实现,或者利用QP=4+2*(8-bitdepth)的变换跳过来实现,这使得量化步长=1,并且由于没有变换,因此无损译码是可实现的。在一些示例中,JCCR模式的QP偏移还需要是零。
表3:用于技术一的编码和解码过程
Figure BDA0003656806180000141
以下是具有2x2残差以及10比特内部比特深度的示例。在该示例中,使用CSign=+1和模式1。
原始Cb色度块(origCb)是
Figure BDA0003656806180000142
并且Cb预测块(predCb)是
Figure BDA0003656806180000143
因此,视频编码器200可以将Cb残差块(resCb)确定为
Figure BDA0003656806180000144
原始Cr色度块(origCr)是
Figure BDA0003656806180000145
并且Cr预测块(predCb)是
Figure BDA0003656806180000146
因此,视频编码器200可以将Cr残差块(resCr)确定为
Figure BDA0003656806180000147
视频编码器200可以将要用信号发送的resJointC确定为resCb=origCb–predCb,其等于
Figure BDA0003656806180000148
视频解码器300可以将Cb色度块(recCb)重构为resJointC+predCb,
Figure BDA0003656806180000149
Figure BDA0003656806180000151
视频编码器200和视频解码器300可以都将rec1Cr确定为
Figure BDA0003656806180000152
Figure BDA0003656806180000153
这产生
Figure BDA0003656806180000154
视频编码器200可以将要用信号发送的resJointC2确定为
Figure BDA0003656806180000155
Figure BDA0003656806180000156
视频解码器300可以将Cr色度块(recCr)重构为resJointC2+rec1Cr,其等于origCr。
尽管方法1建立在原始JCCR方法上(其中第二分量相对于第一分量的缩放因子为1/2),但是对于具有为k1或k2(在(0,1)的范围内,不包括值0和1)的缩放因子的更一般化方法,可以移除此类限制,如表3.1所示。可以在SPS或图片报头或CTU级别或TU级别用信号发送值k1和k2。为b的值是正整数,其可以是预先确定的、固定的或者在SPS、图片报头或CTU级别用信号发送的。
表3.1:技术一的一般化版本
Figure BDA0003656806180000157
为了实现上面表3和表3.1的技术,视频编码器200可以例如被配置为确定视频数据的块的第一色度分量的第一残差样本(例如,resCb[x][y]=resJointC[x][y]),其中第一残差样本对应于在第一色度分量的第一色度块(例如,recCb[x][y])与第一色度分量的第一预测块(例如,predCb[x][y])之间的差。视频编码器200基于第一残差样本(例如,resJointC[x][y])和第二色度分量的第二预测块(例如,predCr[x][y])来确定中间重构样本(例如,rec1Cr[x][y]),并且确定视频数据的块的第二色度分量的第二残差样本(例如,resJointC2[x][y]),其中第二残差样本对应于在第二色度分量的第二色度块(例如,recCr[x][y])与中间重构样本(例如,rec1Cr[x][y])之间的差。视频编码器200可以在经编码的视频数据的比特流中输出表示第一残差样本和第二残差样本的语法元素。
为了实现上面表3和表3.1的技术,视频解码器300可以例如被配置为接收用于视频数据的块的第一色度分量的第一残差样本(例如,resCb[x][y]=resJointC[x][y])的信息,其中第一残差样本对应于在第一色度分量的第一色度块(例如,recCb[x][y])与第一色度分量的第一预测块(例如,predCb[x][y])之间的差。视频解码器300可以基于第一残差样本(例如,resJointC[x][y])来确定中间重构样本(例如,rec1Cr[x][y]),并且接收用于视频数据的块的第二色度分量的第二残差样本(例如,resJointC2[x][y])的信息,其中第二残差样本对应于在第二色度分量的第二色度块(例如,recCr[x][y])与中间重构样本(例如,rec1Cr[x][y])之间的差。视频解码器300可以基于第一残差样本和第一预测块来重构第一色度块(例如,recCb[x][y]=predCb[x][y]+resCb[x][y]),并且基于第二残差样本和中间重构样本来重构第二色度块(例如,recCr[x][y]=rec1Cr[x][y]+resJointC2[x][y])。应当理解的是,以上示例是关于模式1和模式2描述的,其中第一色度分量是Cb分量,并且第二色度分量是Cr分量。对于模式3,第一色度分量可以是C3分量,并且第二色度分量可以是Cb分量。
在示例技术一中,用信号发送两个残差resJointC和resJointC2。在示例技术二中,可以用信号发送三个残差。例如,在示例技术二中,用信号发送三个残差resJointC’、resJointC1和resJointC2,以实现无损译码(如上文所述,对于原始JCCR,仅用信号发送resJointC’,并且对于技术一,用信号发送resJointC和resJointC2)。
编码器侧(例如,由视频编码器200执行的)和解码器侧(例如,由视频解码器300执行的)过程分别在表4和表5中示出。对于所有模式,编码器侧的原始残差被计算为:resCb[x][y]=origCb[x][y]–predCb[x][y],以及resCr[x][y]=origCr[x][y]–predCr[x][y]。在一些示例中,以与如表1中先前所示的原始JCCR过程相同的方式来计算resJointC(例如,未压缩的残差)。然而,仅使用联合残差resJointC’(对于无损译码,其等于resJointC)来重构Cb和Cr分量可能不提供无损表示。因此,推导了用于无损译码的Cb和Cr的额外的次要残差,它们分别是resJointC1和resJointC2,如表4所示。在一些示例中,resJointC’未必一定要与resJointC相同,因此甚至可以执行resJointC的有损译码(变换和/或量化)。
与技术一相比,技术二使用了一个额外残差(总共三个),但是好处是,resJointC’可以是resJointC的有损版本(例如,可以执行变换和/或量化),这在压缩方面可能更好。
表4:用于技术二的联合色度残差的生成
Figure BDA0003656806180000171
表5:用于技术二的色度分量的重构
Figure BDA0003656806180000172
类似于技术一,技术二还可以扩展用于为k1或k2(在(0,1)的范围内,不包括值0和1)的缩放因子的更一般化方法,如表6和表7所示。可以在SPS或图片报头、CTU级别或TU级别用信号发送值k1和k2。
表6:技术2的一般化版本(编码器)
Figure BDA0003656806180000181
表7:技术2的一般化版本(解码器)
Figure BDA0003656806180000182
下文描述了变换单元(TU)级别和HLS(高级语法)级别控制。技术一或者技术二可以用于有损译码或无损译码。因此,TU级别标志可以指示JCCR使用1个残差(原始JCCR)还是多于1个残差(经修改的JCCR,其可以是技术一或技术二)。在一些示例中,可以使用额外信令来指定在技术一与技术二之间的通信。还可以提供SPS/图片报头级别控制,以禁用使用经修改的JCCR的选项,使得可以避免用于经修改的JCCR的TU级别标志。在一些示例中,可以使用经修改的JCCR来替换原始JCCR。
图3是示出可以执行本公开内容的技术的示例视频编码器200的框图。图3是出于解释的目的而提供的,并且不应当被认为对如在本公开内容中广泛地举例说明的和描述的技术的限制。出于解释的目的,本公开内容在视频译码标准(诸如HEVC视频译码标准和正在开发的H.266(VVC)视频译码标准)的上下文中描述视频编码器200。然而,本公开内容的技术不限于这些视频译码标准,并且通常适用于视频编码和解码。
在图3的示例中,视频编码器200包括视频数据存储器230、模式选择单元202、残差生成单元204、变换处理单元206、量化单元208、逆量化单元210、逆变换处理单元212、重构单元214、滤波器单元216、解码图片缓冲器(DPB)218和熵编码单元220。视频数据存储器230、模式选择单元202、残差生成单元204、变换处理单元206、量化单元208、逆量化单元210、逆变换处理单元212、重构单元214、滤波器单元216、DPB 218和熵编码单元220中的任何一者或全部可以在一个或多个处理器中或者在处理电路中实现。例如,视频编码器200的单元可以被实现为一个或多个电路或逻辑元件,作为硬件电路的一部分,或者作为处理器、ASIC或FPGA的一部分。此外,视频编码器200可以包括额外或替代的处理器或处理电路以执行这些功能和其它功能。
视频数据存储器230可以存储要由视频编码器200的组件编码的视频数据。视频编码器200可以从例如视频源104(图1)接收在视频数据存储器230中存储的视频数据。DPB218可以充当参考图片存储器,其存储参考视频数据以在由视频编码器200对后续视频数据进行预测时使用。视频数据存储器230和DPB 218可以由各种存储器设备中的任何一者(诸如动态随机存取存储器(DRAM)(包括同步DRAM(SDRAM))、磁阻RAM(MRAM)、电阻性RAM(RRAM)、或其它类型的存储器设备)形成。视频数据存储器230和DPB 218可以由相同的存储器设备或单独的存储器设备来提供。在各个示例中,视频数据存储器230可以与视频编码器200的其它组件在芯片上(如图所示),或者相对于那些组件在芯片外。
在本公开内容中,对视频数据存储器230的引用不应当被解释为限于在视频编码器200内部的存储器(除非如此具体地描述)或者在视频编码器200外部的存储器(除非如此具体地描述)。确切而言,对视频数据存储器230的引用应当被理解为存储视频编码器200接收以用于编码的视频数据(例如,用于要被编码的当前块的视频数据)的参考存储器。图1的存储器106还可以提供对来自视频编码器200的各个单元的输出的临时存储。
示出了图3的各个单元以帮助理解由视频编码器200执行的操作。这些单元可以被实现为固定功能电路、可编程电路、或其组合。固定功能电路指代提供特定功能并且在可以执行的操作上预先设置的电路。可编程电路指代可以被编程以执行各种任务并且以可以执行的操作来提供灵活功能的电路。例如,可编程电路可以执行软件或固件,软件或固件使得可编程电路以通过软件或固件的指令定义的方式进行操作。固定功能电路可以执行软件指令(例如,以接收参数或输出参数),但是固定功能电路执行的操作类型通常是不可变的。在一些示例中,这些单元中的一个或多个单元可以是不同的电路块(固定功能或可编程),以及在一些示例中,这些单元中的一个或多个单元可以是集成电路。
视频编码器200可以包括根据可编程电路形成的算术逻辑单元(ALU)、基本功能单元(EFU)、数字电路、模拟电路和/或可编程核。在使用由可编程电路执行的软件来执行视频编码器200的操作的示例中,存储器106(图1)可以存储视频编码器200接收并且执行的软件的指令(例如,对象代码),或者在视频编码器200内的另一存储器(未示出)可以存储这样的指令。
视频数据存储器230被配置为存储所接收的视频数据。视频编码器200可以从视频数据存储器230取回视频数据的图片,并且将视频数据提供给残差生成单元204和模式选择单元202。视频数据存储器230中的视频数据可以是要被编码的原始视频数据。
模式选择单元202包括运动估计单元222、运动补偿单元224和帧内预测单元226。模式选择单元202可以包括额外功能单元,其根据其它预测模式来执行视频预测。作为示例,模式选择单元202可以包括调色板单元、块内复制单元(其可以是运动估计单元222和/或运动补偿单元224的一部分)、仿射单元、线性模型(LM)单元等。
模式选择单元202通常协调多个编码通路(pass),以测试编码参数的组合以及针对这样的组合所得到的率失真值。编码参数可以包括将CTU分割为CU、用于CU的预测模式、用于CU的残差数据的变换类型、用于CU的残差数据的量化参数等。模式选择单元202可以最终选择编码参数的具有比其它测试的组合更佳的率失真值的组合。
视频编码器200可以将从视频数据存储器230取回的图片分割为一系列CTU,并且将一个或多个CTU封装在切片内。模式选择单元202可以根据树结构(诸如上文所述的HEVC的QTBT结构或四叉树结构)来分割图片的CTU。如上文所述,视频编码器200可以从根据树结构来分割CTU,形成一个或多个CU。这样的CU通常还可以被称为“视频块”或“块”。
通常,模式选择单元202还控制其组件(例如,运动估计单元222、运动补偿单元224和帧内预测单元226)以生成用于当前块(例如,当前CU,或者在HEVC中PU和TU的重叠部分)的预测块。为了对当前块进行帧间预测,运动估计单元222可以执行运动搜索以识别在一个或多个参考图片(例如,在DPB 218中存储的一个或多个先前译码的图片)中的一个或多个紧密匹配的参考块。具体地,运动估计单元222可以例如根据绝对差之和(SAD)、平方差之和(SSD)、平均绝对差(MAD)、均方差(MSD)等,来计算表示潜在参考块与当前块的类似程度的值。运动估计单元222通常可以使用在当前块与正在被考虑的参考块之间的逐样本差来执行这些计算。运动估计单元222可以识别从这些计算所得到的具有最低值的参考块,其指示与当前块最紧密匹配的参考块。
运动估计单元222可以形成一个或多个运动向量(MV),该运动向量限定相对于当前块在当前图片中的位置而言参考块在参考图片中的的位置。然后,运动估计单元222可以将运动向量提供给运动补偿单元224。例如,对于单向帧间预测,运动估计单元222可以提供单个运动向量,而对于双向帧间预测,运动估计单元222可以提供两个运动向量。然后,运动补偿单元224可以使用运动向量来生成预测块。例如,运动补偿单元224可以使用运动向量来取回参考块的数据。作为另一示例,如果运动向量具有分数样本精度,则运动补偿单元224可以根据一个或多个内插滤波器来对用于预测块的值进行内插。此外,对于双向帧间预测,运动补偿单元224可以取回用于由相应的运动向量标识的两个参考块的数据并且例如通过逐样本平均或加权平均来将所取回的数据进行组合。
作为另一示例,对于帧内预测或帧内预测译码,帧内预测单元226可以根据与当前块相邻的样本来生成预测块。例如,对于方向性模式,帧内预测单元226通常可以在数学上将相邻样本的值进行组合,并且跨当前块在所定义的方向上填充这些计算出的值以产生预测块。作为另一示例,对于DC模式,帧内预测单元226可以计算当前块的相邻样本的平均,并且生成预测块以包括针对预测块的每个样本的该得到的平均。
模式选择单元202将预测块提供给残差生成单元204。残差生成单元204从视频数据存储器230接收当前块的原始的未经编码的版本,并且从模式选择单元202接收预测块。残差生成单元204计算在当前块与预测块之间的逐样本差。所得到的逐样本差定义了用于当前块的残差块。在一些示例中,残差生成单元204还可以确定在残差块中的样本值之间的差,以使用残差差分脉冲译码调制(RDPCM)来生成残差块。在一些示例中,可以使用执行二进制减法的一个或多个减法器电路来形成残差生成单元204。
在模式选择单元202将CU分割为PU的示例中,每个PU可以与亮度预测单元和对应的色度预测单元相关联。视频编码器200和视频解码器300可以支持具有各种大小的PU。如上文所指出的,CU的大小可以指代CU的亮度译码块的大小,而PU的大小可以指代PU的亮度预测单元的大小。假定特定CU的大小是2Nx2N,则视频编码器200可以支持用于帧内预测的2Nx2N或NxN的PU大小、以及用于帧间预测的2Nx2N、2NxN、Nx2N、NxN或类似的对称的PU大小。视频编码器200和视频解码器300还可以支持针对用于帧间预测的2NxnU、2NxnD、nLx2N和nRx2N的PU大小的非对称分割。
在模式选择单元202不将CU进一步分割为PU的示例中,每个CU可以与亮度译码块和对应的色度译码块相关联。如上文所述,CU的大小可以指代CU的亮度译码块的大小。视频编码器200和视频解码器300可以支持2Nx2N、2NxN或Nx2N的CU大小。
对于其它视频译码技术(举几个示例,诸如块内复制模式译码、仿射模式译码和线性模型(LM)模式译码),模式选择单元202经由与译码技术相关联的相应单元来生成用于正在被编码的当前块的预测块。在一些示例中(诸如调色板模式译码),模式选择单元202可以不生成预测块,而是替代地生成指示基于所选择的调色板来重构块的方式的语法元素。在这样的模式下,模式选择单元202可以将这些语法元素提供给熵编码单元220以待编码。
如上文所述,残差生成单元204接收用于当前块和对应的预测块的视频数据。然后,残差生成单元204生成用于当前块的残差块。为了生成残差块,残差生成单元204计算在预测块与当前块之间的逐样本差。
变换处理单元206将一种或多种变换应用于残差块,以生成变换系数的块(本文中被称为“变换系数块”)。变换处理单元206可以将各种变换应用于残差块,以形成变换系数块。例如,变换处理单元206可以将离散余弦变换(DCT)、方向变换、Karhunen-Loeve变换(KLT)、或概念上类似的变换应用于残差块。在一些示例中,变换处理单元206可以对残差块执行多种变换,例如,初级变换和二次变换(诸如旋转变换)。在一些示例中,变换处理单元206不对残差块应用变换。
量化单元208可以对变换系数块中的变换系数进行量化,以产生经量化的变换系数块。量化单元208可以根据与当前块相关联的量化参数(QP)值来对变换系数块的变换系数进行量化。视频编码器200(例如,经由模式选择单元202)可以通过调整与CU相关联的QP值来调整被应用于与当前块相关联的变换系数块的量化程度。量化可能引起信息损失,并且因此,经量化的变换系数可能具有与由变换处理单元206产生的原始变换系数相比较低的精度。
逆量化单元210和逆变换处理单元212可以将逆量化和逆变换分别应用于经量化的变换系数块,以从变换系数块重构残差块。重构单元214可以基于经重构的残差块和由模式选择单元202生成的预测块来产生与当前块相对应的重构块(尽管潜在地具有某种程度的失真)。例如,重构单元214可以将经重构的残差块的样本与来自由模式选择单元202生成的预测块的对应样本相加,以产生经重构的块。
滤波器单元216可以对经重构的块执行一个或多个滤波操作。例如,滤波器单元216可以执行去块操作以减少沿着CU的边缘的块效应伪影。在一些示例中,可以跳过滤波器单元216的操作。
视频编码器200将经重构的块存储在DPB 218中。例如,在不需要滤波器单元216的操作的示例中,重构单元214可以将经重构的块存储到DPB 218。在需要滤波器单元216的操作的示例中,滤波器单元216可以将经滤波的重构块存储到DPB 218。运动估计单元222和运动补偿单元224可以从DPB 218取回从经重构的(并且潜在地经滤波的)块形成的参考图片,以对后续经编码的图片的块进行帧间预测。另外,帧内预测单元226可以使用当前图片的在DPB 218中的经重构的块来对当前图片中的其它块进行帧内预测。
通常,熵编码单元220可以对从视频编码器200的其它功能组件接收的语法元素进行熵编码。例如,熵编码单元220可以对来自量化单元208的经量化的变换系数块进行熵编码。作为另一示例,熵编码单元220可以对来自模式选择单元202的预测语法元素(例如,用于帧间预测的运动信息或用于帧内预测的帧内模式信息)进行熵编码。熵编码单元220可以对作为视频数据的另一示例的语法元素执行一个或多个熵编码操作,以生成经熵编码的数据。例如,熵编码单元220可以执行上下文自适应可变长度译码(CAVLC)操作、CABAC操作、可变到可变(V2V)长度译码操作、基于语法的上下文自适应二进制算术译码(SBAC)操作、概率区间分割熵(PIPE)译码操作、指数哥伦布(Exponential-Golomb)编码操作、或对数据的另一种类型的熵编码操作。在一些示例中,熵编码单元220可以在其中语法元素未被熵编码的旁路模式下操作。
视频编码器200可以输出比特流,其包括用于重构切片或图片的块所需要的经熵编码的语法元素。具体地,熵编码单元220可以输出比特流。
关于块描述了上文所述操作。这样的描述应当被理解为用于亮度译码块和/或色度译码块的操作。如上文所述,在一些示例中,亮度译码块和色度译码块是CU的亮度分量和色度分量。在一些示例中,亮度译码块和色度译码块是PU的亮度分量和色度分量。
在一些示例中,不需要针对色度译码块重复关于亮度译码块执行的操作。作为一个示例,不需要重复用于识别用于亮度译码块的运动向量(MV)和参考图片的操作来识别用于色度块的MV和参考图片。确切而言,可以对用于亮度译码块的MV进行缩放以确定用于色度块的MV,并且参考图片可以是相同的。作为另一示例,对于亮度译码块和色度译码块,帧内预测过程可以是相同的。
视频编码器200表示被配置为对视频数据进行编码的设备的示例,该设备包括:存储器,其被配置为存储视频数据;以及一个或多个处理单元,其在电路中实现并且被配置为:用信号发送用于第一色度分量的第一残差样本的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差的;基于第一残差样本来确定中间样本;以及用信号发送用于第二色度分量的第二残差样本的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与中间样本之间的差的,其中,第二色度块和第一色度块关联在一起。
视频编码器200的一个或多个处理单元还可以被配置为:基于第一色度分量的第一残差样本集合(例如,resCb)和第二色度分量的第二残差样本集合(例如,resCr)来生成值集合(例如,resJointC),其中,第一残差样本集合是基于在第一色度分量的第一色度块与第一预测块之间的差的,并且第二残差样本集合是基于在第二色度分量的第二色度块与第二预测块之间的差的,其中,第一色度块和第二色度块相关联(例如,相同CU的一部分);用信号发送用于值集合的信息;用信号发送用于值集合的信息;基于值集合来确定第一中间样本(例如,rec1Cb);基于值集合来确定第二中间样本(例如,rec1Cr);用信号发送用于第一残差样本(例如,resJoint1)的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一中间样本之间的差的;以及用信号发送用于第二残差样本(例如,resJoint2)的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与第二中间样本之间的差的。
图4是示出可以执行本公开内容的技术的示例视频解码器300的框图。图4是出于解释的目的而提供的,并且不对如在本公开内容中广泛地举例说明的和描述的技术进行限制。出于解释的目的,本公开内容根据JEM、VVC和HEVC的技术描述了视频解码器300。然而,本公开内容的技术可以由被配置为其它视频译码标准的视频译码设备来执行。
在图4的示例中,视频解码器300包括译码图片缓冲器(CPB)存储器320、熵解码单元302、预测处理单元304、逆量化单元306、逆变换处理单元308、重构单元310、滤波器单元312和解码图片缓冲器(DPB)134。CPB存储器320、熵解码单元302、预测处理单元304、逆量化单元306、逆变换处理单元308、重构单元310、滤波器单元312和DPB 134中的任何一者或全部可以在一个或多个处理器中或者在处理电路中实现。例如,视频解码器300的单元可以被实现为一个或多个电路或逻辑元件,作为硬件电路的一部分,或者作为处理器、ASIC或FPGA的一部分。此外,视频解码器300可以包括额外或替代的处理器或处理电路以执行这些功能和其它功能。
预测处理单元304包括运动补偿单元316和帧内预测单元318。预测处理单元304可以包括加法单元,其根据其它预测模式来执行预测。作为示例,预测处理单元304可以包括调色板单元、块内复制单元(其可以形成运动补偿单元316的一部分)、仿射单元、线性模型(LM)单元等。在其它示例中,视频解码器300可以包括更多、更少或不同的功能组件。
CPB存储器320可以存储要由视频解码器300的组件解码的视频数据,诸如经编码的视频比特流。例如,可以从计算机可读介质110(图1)获得在CPB存储器320中存储的视频数据。CPB存储器320可以包括存储来自经编码的视频比特流的经编码的视频数据(例如,语法元素)的CPB。此外,CPB存储器320可以存储除了经译码的图片的语法元素之外的视频数据,诸如表示来自视频解码器300的各个单元的输出的临时数据。DPB 314通常存储经解码的图片,视频解码器300可以输出经解码的图片,和/或在对经编码的视频比特流的后续数据或图片进行解码时使用经解码的图片作为参考视频数据。CPB存储器320和DPB 314可以由各种存储器设备中的任何一者(诸如DRAM(包括SDRAM)、MRAM、RRAM或其它类型的存储器设备)形成。CPB存储器320和DPB 314可以由相同的存储器设备或单独的存储器设备来提供。在各个示例中,CPB存储器320可以与视频解码器300的其它组件在芯片上,或者相对于那些组件在芯片外。
另外或替代地,在一些示例中,视频解码器300可以从存储器120(图1)取回经译码的视频数据。也就是说,存储器120可以如上文所讨论地利用CPB存储器320来存储数据。同样,当视频解码器300的一些或全部功能是用要被视频解码器300的处理电路执行的软件来实现时,存储器120可以存储要被视频解码器300执行的指令。
示出了图4中所示的各个单元以帮助理解由视频解码器300执行的操作。这些单元可以被实现为固定功能电路、可编程电路、或其组合。类似于图3,固定功能电路指代提供特定功能并且在可以执行的操作上预先设置的电路。可编程电路指代可以被编程以执行各种任务并且以可以执行的操作来提供灵活功能的电路。例如,可编程电路可以执行软件或固件,软件或固件使得可编程电路以通过软件或固件的指令定义的方式进行操作。固定功能电路可以执行软件指令(例如,以接收参数或输出参数),但是固定功能电路执行的操作的类型通常是不可变的。在一些示例中,这些单元中的一个或多个单元可以是不同的电路块(固定功能或可编程),并且在一些示例中,这些单元中的一个或多个单元可以是集成电路。
视频解码器300可以包括从可编程电路形成的ALU、EFU、数字电路、模拟电路和/或可编程核。在由在可编程电路上执行的软件执行视频解码器300的操作的示例中,片上或片外存储器可以存储视频解码器300接收并且执行的软件的指令(例如,对象代码)。
熵解码单元302可以从CPB接收经编码的视频数据,并且对视频数据进行熵解码以重新产生语法元素。预测处理单元304、逆量化单元306、逆变换处理单元308、重构单元310和滤波器单元312可以基于从比特流中提取的语法元素来生成经解码的视频数据。
通常,视频解码器300在逐块基础上重构图片。视频解码器300可以单独地对每个块执行重构操作(其中,当前正在被重构(即,被解码)的块可以被称为“当前块”)。
熵解码单元302可以对定义经量化的变换系数块的经量化的变换系数的语法元素以及变换信息(诸如量化参数(QP)和/或变换模式指示)进行熵解码。逆量化单元306可以使用与经量化的变换系数块相关联的QP来确定量化程度,并且同样地,确定供逆量化单元306应用的逆量化程度。逆量化单元306可以例如执行按位左移操作以对经量化的变换系数进行逆量化。逆量化单元306从而可以形成包括变换系数的变换系数块。
在逆量化单元306形成变换系数块之后,逆变换处理单元308可以将一种或多种逆变换应用于变换系数块,以生成与当前块相关联的残差块。例如,逆变换处理单元308可以将逆DCT、逆整数变换、逆Karhunen-Loeve变换(KLT)、逆旋转变换、逆方向变换或另一逆变换应用于变换系数块。
此外,预测处理单元304根据由熵解码单元302进行熵解码的预测信息语法元素来生成预测块。例如,如果预测信息语法元素指示当前块是经帧间预测的,则运动补偿单元316可以生成预测块。在这种情况下,预测信息语法元素可以指示在DPB 314中的要从其取回参考块的参考图片、以及标识相对于当前块在当前图片中的位置而言参考块在参考图片中的位置的运动向量。运动补偿单元316通常可以以与关于运动补偿单元224(图3)所描述的方式基本类似的方式来执行帧间预测过程。
作为另一示例,如果预测信息语法元素指示当前块是经帧内预测的,则帧内预测单元318可以根据由预测信息语法元素指示的帧内预测模式来生成预测块。再次,帧内预测单元318通常可以以与关于帧内预测单元226(图3)所描述的方式基本上类似的方式来执行帧内预测过程。帧内预测单元318可以从DPB 314取回当前块的相邻样本的数据。
重构单元310可以使用预测块和残差块来重构当前块。例如,重构单元310可以将残差块的样本与预测块的对应样本相加来重构当前块。
滤波器单元312可以对经重构的块执行一个或多个滤波操作。例如,滤波器单元312可以执行去块操作以减少沿着经重构的块的边缘的块效应伪影。不一定在所有示例中都执行滤波器单元312的操作。
视频解码器300可以将经重构的块存储在DPB 314中。例如,在不执行滤波器单元312的操作的示例中,重构单元310可以将经重构的块存储到DPB 314。在执行滤波器单元312的操作的示例中,滤波器单元312可以将经滤波的重构块存储到DPB 314。如上文所讨论的,DPB 314可以将参考信息(诸如用于帧内预测的当前图片以及用于后续运动补偿的先前解码的图片的样本)提供给预测处理单元304。此外,视频解码器300可以从DPB 314输出经解码的图片(例如,经解码的视频),以用于在诸如图1的显示设备118的显示设备上的后续呈现。
以这种方式,视频解码器300表示视频解码设备的示例,该视频解码设备包括:存储器,其被配置为存储视频数据;以及一个或多个处理单元,其在电路中实现并且被配置为:接收用于第一色度分量的第一残差样本的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差的;基于第一残差样本来确定中间样本;接收用于第二色度分量的第二残差样本的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与中间样本之间的差的,并且其中,第二色度块和第一色度块关联在一起;基于第一残差样本和第一预测块来重构第一色度块;以及基于第二残差样本和中间样本来重构第二色度块。
视频解码器300的处理单元还可以被配置为:接收用于值集合的信息,其中,该值集合是基于第一色度分量的第一色度块的第一残差样本集合(例如,resCb)和第二色度分量的第二色度块的第二残差样本集合(例如,resCr)来生成的,其中,第一色度块和第二色度块相关联(例如,相同CU的一部分);基于值集合来确定第一中间样本(例如,rec1Cb);基于值集合来确定第二中间样本(例如,rec1Cr);接收用于第一残差样本(例如,resJoint1)的信息,其中,第一残差样本是基于在第一色度分量的第一色度块与第一中间样本之间的差的;接收用于第二残差样本(例如,resJoint2)的信息,其中,第二残差样本是基于在第二色度分量的第二色度块与第二中间样本之间的差的;基于第一残差样本和第一中间样本来重构第一色度块;以及基于第二残差样本和第二中间样本来重构第二色度块。
图5是示出用于对当前块进行编码的示例方法的流程图。当前块可以包括当前CU。尽管关于视频编码器200(图1和图3)进行了描述,但是应当理解的是,其它设备可以被配置为执行与图5的方法类似的方法。
在该示例中,视频编码器200最初预测当前块(350)。例如,视频编码器200可以形成用于当前块的预测块。然后,视频编码器200可以计算用于当前块的残差信息(352)。为了计算残差信息,视频编码器200可以如上文所述针对技术一计算resJointC和resJointC2(例如,基于确定rec1Cr或rec1Cb),或者视频编码器200可以如上文所述针对技术二计算resJointC、resJointC1和resJointC2(例如,基于确定rec1Cr和rec1Cb)。
可选地(例如,当不需要无损译码时),视频编码器200然后可以对残差信息进行变换和量化(354)。视频编码器200可以扫描残差信息(如果以块形式布置的话)(356)。在扫描期间或在扫描之后,视频编码器200可以对残差信息进行熵编码(358)。例如,视频编码器200可以使用CAVLC或CABAC来对残差信息进行编码。然后,视频编码器200可以输出(例如,用信号发送)经熵编码的残差信息(360)。
图6是示出用于对视频数据的当前块进行解码的示例方法的流程图。当前块可以包括当前CU。尽管关于视频解码器300(图1和图4)进行了描述,但是应当理解的是,其它设备可以被配置为执行与图6的方法类似的方法。
视频解码器300可以接收经熵编码的残差信息,诸如用于技术一的resJointC和resJointC2或用于技术二的resJointC、resJointC1和resJointC2(370)。视频解码器300可以确定中间值(例如,用于如上文所述的技术一和技术二的rec1Cb和rec1Cr)(372)。视频解码器300可以例如使用如由当前块的预测信息指示的帧内或帧间预测模式来预测当前块(374),以计算用于当前块的预测块。然后,视频解码器300可以对残差信息进行逆扫描(如果残差信息呈块形式)(376),以创建残差信息的块。在不需要无损译码并且且因此以虚线示出的情况下,视频解码器300然后可以对变换系数进行逆量化和逆变换以产生残差信息(378)。最终,视频解码器300可以通过将预测块和残差信息进行组合来对当前块进行解码(380)。
图7是示出用于对当前块进行编码的示例方法的流程图。当前块可以是当前CU,其包括第一色度分量、第二色度分量和潜在的其它分量(诸如亮度分量)。例如,可以在无损译码模式或色度残差联合译码模式中的一者或两者下对当前块进行译码。尽管关于视频编码器200(图1和图3)进行了描述,但是应当理解的是,其它设备可以被配置为执行与图7的方法类似的方法。
针对视频数据的块的第一色度分量,视频解码器300确定第一残差样本,其对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差(400)。视频解码器300基于第一残差样本和第二色度分量的第二预测块来确定中间重构样本(402)。视频解码器300确定视频数据的块的第二色度分量的第二残差样本,其中,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差(404)。视频解码器300在经编码的视频数据的比特流中输出表示第一残差样本和第二残差样本的语法元素(406)。例如,视频解码器300可以输出比特流以用于存储或传输。
图8是示出用于对视频数据的当前块进行解码的示例方法的流程图。当前块可以是当前CU,其包括第一色度分量、第二色度分量和潜在的其它分量(诸如亮度分量)。例如,可以在无损译码模式或色度残差联合译码模式中的一者或两者下对当前块进行译码。尽管关于视频解码器300(图1和图4)进行了描述,但是应当理解的是,其它设备可以被配置为执行与图8的方法类似的方法。
针对视频数据的块的第一色度分量,视频解码器300接收用于第一残差样本的信息,第一残差样本对应于在第一色度分量的第一色度块与第一色度分量的第一预测块之间的差(420)。视频解码器300可以利用帧内预测、帧间预测或某种其它此类预测模式来获得第一预测块。
视频解码器300基于第一残差样本来确定中间重构样本(422)。为了确定中间重构样本,视频解码器300可以例如基于第一残差样本和第二色度分量的第二预测块来确定中间重构样本。为了确定中间重构样本,视频解码器300可以例如根据上面的表3、表3.1或表4-表6的模式来确定中间重构样本,例如,如上文所述的rec1Cr[x][y]。
针对视频数据的块的第二色度分量,视频解码器300接收用于第二残差样本的信息,第二残差样本对应于在第二色度分量的第二色度块与中间重构样本之间的差(424)。由于中间重构样本通常可以相对接近第二色度块的实际值,因此第二残差样本通常可以利用相对少的比特进行译码。
视频解码器300基于第一残差样本和第一预测块来重构第一色度块(426)。为了基于第一残差样本和第一预测块来重构第一色度块,视频解码器300可以例如将第一残差样本与第一预测块相加。视频解码器300基于第二残差样本和中间重构样本来重构第二色度块(428)。为了基于第二残差样本和中间重构样本来重构第二色度块,视频解码器300可以例如将第二残差样本的值与中间重构样本的对应值相加。在视频解码器300实现无损译码的情况下,经重构的第一色度块和经重构的第二色度块可以精确地匹配对应的原始第一色度块和第二色度块,而不需要任何种类的滤波操作。
视频解码器300输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据(430)。例如,视频解码器300可以输出经解码的视频以供显示,将经解码的视频数据输出以供长期存储到非易失性存储介质,或者将经解码的视频数据输出到缓冲器或其它短期存储器以供在对视频的后续图片的解码时使用。
以下条款描述了视频编码器200和/或视频解码器300的各方面以及可以由视频编码器200和/或视频解码器300实现的技术。
方面1:一种对视频数据进行解码的方法包括:接收用于第一色度分量的第一残差样本的信息,其中,所述第一残差样本是基于在所述第一色度分量的第一色度块与所述第一色度分量的第一预测块之间的差的;基于所述第一残差样本来确定中间样本;接收用于第二色度分量的第二残差样本的信息,其中,所述第二残差样本是基于在所述第二色度分量的第二色度块与所述中间样本之间的差的,其中,所述第二色度块和所述第一色度块关联在一起;基于所述第一残差样本和所述第一预测块来重构所述第一色度块;以及基于所述第二残差样本和所述中间样本来重构所述第二色度块。
方面2:根据方面1所述的方法,其中,所述第一残差样本表示在所述第一色度分量的所述第一色度块与所述第一色度分量的所述第一预测块之间的所述差。
方面3:根据方面1和2中任一项所述的方法,其中,确定所述中间样本包括:基于所述第一残差样本和所述第二色度分量的第二预测块来确定所述中间样本。
方面4:根据方面1-3中任一项所述的方法,其中,所述第一色度块和所述第二色度块具有相同的译码单元(CU)。
方面5:根据方面1-4中任一项所述的方法,其中,确定所述中间样本包括以下各项中的一项:对于第一模式,rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]>>1)或Clip(predCr[x][y]+CSign*k1*resJointC[x][y]),其中,rec1Cr[x][y]表示所述中间样本,Clip是限幅操作,predCr[x][y]表示所述第二色度分量的所述第二预测块的样本,Csign是符号值,resJointC[x][y]表示所述第一残差样本的样本,>>是右移或除2运算,并且k1是预存储的或用信号发送的参数;对于第二模式,rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]),其中,rec1Cr[x][y]表示所述中间样本,Clip是限幅操作,predCr[x][y]表示所述第二色度分量的所述第二预测块的样本,CSign是符号值,并且resJointC[x][y]表示所述第一残差样本的样本;或者对于第三模式,rec1Cb[x][y]=Clip(predCb[x][y]+CSign*resJointC[x][y]>>1)或Clip(predCb[x][y]+CSign*k2*resJointC[x][y]),其中,rec1Cr[x][y]表示所述中间样本,Clip是限幅操作,predCb[x][y]表示所述第二色度分量的所述第二预测块的样本,CSign是信号值,resJointC[x][y]表示所述第一残差样本的样本,>>是右移或除二运算,并且k2是预存储的或用信号发送的参数。
方面6:一种对视频数据进行编码的方法包括:用信号发送用于第一色度分量的第一残差样本的信息,其中,所述第一残差样本是基于在所述第一色度分量的第一色度块与所述第一色度分量的第一预测块之间的差的;基于所述第一残差样本来确定中间样本;以及用信号发送用于第二色度分量的第二残差样本的信息,其中,所述第二残差样本是基于在所述第二色度分量的第二色度块与所述中间样本之间的差的,并且其中,所述第二色度块和所述第一色度块关联在一起。
方面7:根据方面6所述的方法,其中,所述第一残差样本表示在所述第一色度分量的所述第一色度块与所述第一色度分量的所述第一预测块之间的所述差。
方面8:根据方面6和7中任一项所述的方法,其中,确定所述中间样本包括:基于所述第一残差样本和所述第二色度分量的第二预测块来确定所述中间样本。
方面9:根据方面6-8中任一项所述的方法,其中,所述第一色度块和所述第二色度块具有相同的译码单元(CU)。
方面10:根据方面6-9中任一项所述的方法,其中,确定所述中间样本包括以下各项中的一项:对于第一模式,rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]>>1)或Clip(predCr[x][y]+CSign*k1*resJointC[x][y]),其中,rec1Cr[x][y]表示所述中间样本,Clip是限幅操作,predCr[x][y]表示所述第二色度分量的所述第二预测块的样本,Csign是符号值,resJointC[x][y]表示所述第一残差样本的样本,>>是右移或除2运算,并且k1是预存储的或用信号发送的参数;对于第二模式,rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]),其中,rec1Cr[x][y]表示所述中间样本,Clip是限幅操作,predCr[x][y]表示所述第二色度分量的所述第二预测块的样本,CSign是符号值,并且resJointC[x][y]表示所述第一残差样本的样本;或者对于第三模式,rec1Cb[x][y]=Clip(predCb[x][y]+CSign*resJointC[x][y]>>1)或Clip(predCb[x][y]+CSign*k2*resJointC[x][y]),其中,rec1Cr[x][y]表示所述中间样本,Clip是限幅操作,predCb[x][y]表示所述第二色度分量的所述第二预测块的样本,CSign是信号值,resJointC[x][y]表示所述第一残差样本的样本,>>是右移或除二运算,并且k2是预存储的或用信号发送的参数。
方面11:一种对视频数据进行解码的方法包括:接收用于值集合的信息,其中,所述值集合是基于第一色度分量的第一色度块的第一残差样本集合和第二色度分量的第二色度块的第二残差样本集合来生成的,其中,所述第一色度块和所述第二色度块相关联;基于所述值集合来确定第一中间样本;基于所述值集合来确定第二中间样本;接收用于第一残差样本的信息,其中,所述第一残差样本是基于在所述第一色度分量的所述第一色度块与所述第一中间样本之间的差的;接收用于第二残差样本的信息,其中,所述第二残差样本是基于在所述第二色度分量的所述第二色度块与所述第二中间样本之间的差的;基于所述第一残差样本和所述第一中间样本来重构所述第一色度块;以及基于所述第二残差样本和所述第二中间样本来重构所述第二色度块。
方面12:根据方面11所述的方法,其中,确定所述第一中间样本包括:基于所述值集合和第一颜色分量的第一预测块来确定所述第一中间样本,并且其中,确定所述第二中间样本包括:基于所述值集合和第二颜色分量的第二预测块来确定所述第二中间样本。
方面13:根据方面11和12中任一项所述的方法,其中,所述第一色度块和所述第二色度块具有相同的译码单元(CU)。
方面14:根据方面11-13中任一项所述的方法,其中,基于所述值集合来确定第一中间样本以及基于所述值集合来确定第二中间样本包括以下各项中的一项:对于第一模式,rec1Cb[x][y]=Clip(predCb[x][y]+resJointC[x][y])以及rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]>>1)或rec1Cr[x][y]=Clip(predCr[x][y]+CSign*k1*resJointC[x][y]),其中,rec1Cb[x][y]表示所述第一中间样本,Clip是限幅操作,predCb[x][y]表示所述第一预测块,resJointC[x][y]表示所述值集合,rec1Cr[x][y]表示第二中间样本,predCr[x][y]表示所述第二预测块,CSign是符号值,>>是右移或除2运算,并且k1是预存储的或用信号发送的参数;对于第二模式,rec1Cb[x][y]=Clip(predCb[x][y]+resJointC[x][y])以及rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]),其中,rec1Cb[x][y]表示所述第一中间样本,Clip是限幅操作,predCb[x][y]表示所述第一预测块,resJointC[x][y]表示所述值集合,rec1Cr[x][y]表示第二中间样本,predCr[x][y]表示所述第二预测块,并且CSign是符号值;或者对于第三模式,rec1Cb[x][y]=Clip(predCb[x][y]+CSign*resJointC[x][y]>>1)以及rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y])或rec1Cb[x][y]=Clip(predCb[x][y]+CSign*k2*resJointC[x][y]),其中,rec1Cb[x][y]表示所述第一中间样本,Clip是限幅操作,predCb[x][y]表示所述第一预测块,resJointC[x][y]表示所述值集合,rec1Cr[x][y]表示第二中间样本,predCr[x][y]表示所述第二预测块,CSign是符号值,>>是右移或除2运算,并且k2是预存储的或用信号发送的参数。
方面15:一种对视频数据进行编码的方法包括:基于第一色度分量的第一残差样本集合和第二色度分量的第二残差样本集合来生成值集合,其中,所述第一残差样本集合是基于在所述第一色度分量的第一色度块与第一预测块之间的差的,并且所述第二残差样本集合是基于在所述第二色度分量的第二色度块与第二预测块之间的差的,其中,所述第一色度块和所述第二色度块相关联;用信号发送用于所述值集合的信息;基于所述值集合来确定第一中间样本;基于所述值集合来确定第二中间样本;用信号发送用于第一残差样本的信息,其中,所述第一残差样本是基于在所述第一色度分量的所述第一色度块与所述第一中间样本之间的差的;以及用信号发送用于第二残差样本的信息,其中,所述第二残差样本是基于在所述第二色度分量的所述第二色度块与所述第二中间样本之间的差的。
方面16:根据方面15所述的方法,其中,确定所述第一中间样本包括:基于所述值集合和第一颜色分量的第一预测块来确定所述第一中间样本,并且其中,确定所述第二中间样本包括:基于所述值集合和第二颜色分量的第二预测块来确定所述第二中间样本。
方面17:根据方面15和16中任一项所述的方法,其中,所述第一色度块和所述第二色度块具有相同的译码单元(CU)。
方面18:根据方面15-17中任一项所述的方法,其中,生成所述值集合包括以下各项中的一项:对于第一模式,resJointC[x][y]=(4*resCb[x][y]+2*CSign*resCr[x][y])/5或resJointC[x][y]=(4*resCb[x][y]+4*k1*CSign*resCr[x][y])/5,其中,resJointC[x][y]表示所述值集合,resCb[x][y]表示所述第一残差样本集合,CSign是符号值,resCr[x][y]表示所述第二残差样本集合,并且k1是预存储的或用信号发送的值;对于第二模式,resJointC[x][y]=(resCb[x][y]+CSign*resCr[x][y])/2或resJointC[x][y]=(resCb[x][y]+CSign*resCr[x][y])/2,其中,resJointC[x][y]表示所述值集合,resCb[x][y]表示所述第一残差样本集合,CSign是符号值,resCr[x][y]表示所述第二残差样本集合,并且k1是预存储的或用信号发送的值;或者对于第三模式,resJointC[x][y]=(4*resCr[x][y]+2*CSign*resCb[x][y])/5或resJointC[x][y]=(4*resCr[x][y]+4*k2*CSign*resCb[x][y])/5,其中,resJointC[x][y]表示所述值集合,resCr[x][y]表示所述第一残差样本集合,CSign是符号值,resCb[x][y]表示所述第二残差样本集合,并且k2是预存储的或用信号发送的值。
方面19:根据方面15-18中任一项所述的方法,其中,基于所述值集合来确定第一中间样本以及基于所述值集合来确定第二中间样本包括以下各项中的一项:对于第一模式,rec1Cb[x][y]=Clip(predCb[x][y]+resJointC[x][y])以及rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]>>1)或rec1Cr[x][y]=Clip(predCr[x][y]+CSign*k1*resJointC[x][y]),其中,rec1Cb[x][y]表示所述第一中间样本,Clip是限幅操作,predCb[x][y]表示所述第一预测块,resJointC[x][y]表示所述值集合,rec1Cr[x][y]表示第二中间样本,predCr[x][y]表示所述第二预测块,CSign是符号值,>>是右移或除2运算,并且k1是预存储的或用信号发送的参数;对于第二模式,rec1Cb[x][y]=Clip(predCb[x][y]+resJointC[x][y])以及rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]),其中,rec1Cb[x][y]表示所述第一中间样本,Clip是限幅操作,predCb[x][y]表示所述第一预测块,resJointC[x][y]表示所述值集合,rec1Cr[x][y]表示第二中间样本,predCr[x][y]表示所述第二预测块,并且CSign是符号值;或者对于第三模式,rec1Cb[x][y]=Clip(predCb[x][y]+CSign*resJointC[x][y]>>1)以及rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y])或rec1Cb[x][y]=Clip(predCb[x][y]+CSign*k2*resJointC[x][y]),其中,rec1Cb[x][y]表示所述第一中间样本,Clip是限幅操作,predCb[x][y]表示所述第一预测块,resJointC[x][y]表示所述值集合,rec1Cr[x][y]表示第二中间样本,predCr[x][y]表示所述第二预测块,CSign是符号值,>>是右移或除2运算,并且k2是预存储的或用信号发送的参数。
方面20:一种用于对视频数据进行解码的设备包括:存储器,其被配置为存储视频数据;以及处理电路,其耦合到所述存储器并且被配置为执行权利要求1-5和11-14中任一项所述的方法。
方面21:一种用于对视频数据进行编码的设备包括:存储器,其被配置为存储视频数据;以及处理电路,其耦合到所述存储器并且被配置为执行权利要求6-10和15-19中任一项所述的方法。
方面22:根据方面20或21中任一项所述的设备,还包括:被配置为显示经解码的视频数据的显示器。
方面23:根据方面20-22中任一项所述的设备,其中,所述设备包括相机、计算机、移动设备、广播接收机设备或机顶盒中的一者或多者。
方面24:一种在其上存储指令的计算机可读存储介质,所述指令在被执行时使得一个或多个处理器执行方面1-5或11-14中任一项所述的方法。
方面25:一种用于对视频数据进行译码的设备,所述设备包括用于执行方面1-5或11-14中任一项所述的方法的单元。
要认识到的是,根据示例,本文描述的技术中的任何技术的某些动作或事件可以是以不同的顺序执行的,可以被添加、合并或完全省略(例如,并非所有描述的动作或事件对于实施所述技术都是必要的)。此外,在某些示例中,动作或事件可以例如通过多线程处理、中断处理或多个处理器并发地而不是顺序地执行。
在一个或多个示例中,所描述的功能可以用硬件、软件、固件或其任何组合来实现。如果用软件来实现,则所述功能可以作为一个或多个指令或代码被存储在计算机可读介质上或者通过计算机可读介质进行发送并且由基于硬件的处理单元执行。计算机可读介质可以包括计算机可读存储介质(其对应于诸如数据存储介质的有形介质)或者通信介质,该通信介质包括例如根据通信协议来促进计算机程序从一个地方传送到另一个地方的任何介质。以这种方式,计算机可读介质通常可以对应于(1)非暂时性的有形计算机可读存储介质、或者(2)诸如信号或载波的通信介质。数据存储介质可以是能够由一个或多个计算机或者一个或多个处理器存取以取回用于实现在本公开内容中描述的技术的指令、代码和/或数据结构的任何可用的介质。计算机程序产品可以包括计算机可读介质。
举例来说而非进行限制,这样的计算机可读存储介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、闪存、或者能够用于以指令或数据结构形式存储期望的程序代码以及能够由计算机存取的任何其它介质。此外,任何连接被适当地称为计算机可读介质。例如,如果使用同轴电缆、光纤光缆、双绞线、数字用户线(DSL)或者无线技术(诸如红外线、无线电和微波)从网站、服务器或其它远程源发送指令,则同轴电缆、光纤光缆、双绞线、DSL或者无线技术(诸如红外线、无线电和微波)被包括在介质的定义中。然而,应当理解的是,计算机可读存储介质和数据存储介质不包括连接、载波、信号或其它暂时性介质,而是替代地针对非暂时性的有形存储介质。如本文所使用的,磁盘和光盘包括压缩光盘(CD)、激光光盘、光盘、数字多功能光盘(DVD)、软盘和蓝光光盘,其中,磁盘通常磁性地复制数据,而光盘利用激光来光学地复制数据。上述各项的组合还应当被包括在计算机可读介质的范围之内。
指令可以由一个或多个处理器(诸如一个或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、或其它等效的集成或分立逻辑电路)来执行。因此,如本文所使用的术语“处理器”和“处理电路”可以指代前述结构中的任何一者或者适于实现本文描述的技术的任何其它结构。另外,在一些方面中,本文描述的功能可以在被配置用于编码和解码的专用硬件和/或软件模块内提供,或者被并入经组合的编解码器中。此外,所述技术可以在一个或多个电路或逻辑元件中完全实现。
本公开内容的技术可以在多种多样的设备或装置(包括无线手机、集成电路(IC)或一组IC(例如,芯片组))中实现。在本公开内容中描述了各种组件、模块或单元以强调被配置为执行所公开的技术的设备的功能性方面,但是不一定要求通过不同的硬件单元来实现。确切而言,如上文所述,各种单元可以被组合在编解码器硬件单元中,或者由可互操作的硬件单元的集合(包括如上文所述的一个或多个处理器)结合适当的软件和/或固件来提供。
已经描述了各个示例。这些示例和其它示例在所附的权利要求的范围内。

Claims (30)

1.一种对视频数据进行解码的方法,所述方法包括:
接收用于所述视频数据的块的第一色度分量的第一残差样本的信息,其中,所述第一残差样本对应于在所述第一色度分量的第一色度块与所述第一色度分量的第一预测块之间的差;
基于所述第一残差样本来确定中间重构样本;
接收用于视频数据的所述块的第二色度分量的第二残差样本的信息,其中,所述第二残差样本对应于在所述第二色度分量的第二色度块与所述中间重构样本之间的差;
基于所述第一残差样本和所述第一预测块来重构所述第一色度块;
基于所述第二残差样本和所述中间重构样本来重构所述第二色度块;以及
输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据。
2.根据权利要求1所述的方法,其中,所述视频数据的所述块是以无损译码模式进行译码的。
3.根据权利要求1所述的方法,还包括:
使用帧内预测或帧间预测中的至少一项来确定所述第二色度分量的第二预测块;以及
基于所述第一残差样本和所述第二色度分量的所述第二预测块来确定所述中间重构样本。
4.根据权利要求1所述的方法,其中,所述第一色度块和所述第二色度块具有相同的译码单元(CU)。
5.根据权利要求1所述的方法,其中,基于所述第二残差样本和所述中间重构样本来重构所述第二色度块包括:将所述第二残差样本的值与所述中间重构样本的对应值相加。
6.根据权利要求1所述的方法,还包括:
确定所述视频数据的所述块是以色度残差联合译码模式进行编码的。
7.根据权利要求1所述的方法,其中,
基于所述第一残差样本和所述第一预测块来重构所述第一色度块包括:将所述第一重构色度块与所述第一色度分量的所述第一预测块相加,以生成所述第一色度块;
基于所述第二残差样本和所述中间重构样本来重构所述第二色度块包括:将所述第二残差样本的值与所述中间重构样本的对应值相加并且与所述第二色度分量的第二预测块相加,以生成所述第二色度块。
8.根据权利要求1所述的方法,其中,确定所述中间重构样本包括根据以下等式中的一个等式来确定所述中间重构样本:
rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]>>1)或者
Clip(predCr[x][y]+CSign*k1*resJointC[x][y]),其中,
rec1Cr[x][y]表示所述中间重构样本,
Clip是限幅操作,
predCr[x][y]表示所述第二色度分量的第二预测块的样本,
Csign是符号值,
resJointC[x][y]表示所述第一残差样本的样本,
>>是右移或除2运算,以及
k1是预存储的或用信号发送的参数。
9.根据权利要求1所述的方法,其中,确定所述中间重构样本包括:根据以下等式来确定所述中间重构样本:
rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]),其中,
rec1Cr[x][y]表示所述中间重构样本,
Clip是限幅操作,
predCr[x][y]表示所述第二色度分量的第二预测块的样本,
Csign是符号值,以及
resJointC[x][y]表示所述第一残差样本的样本。
10.根据权利要求1所述的方法,其中,确定所述中间重构样本包括根据以下等式中的一个等式来确定所述中间重构样本:
rec1Cb[x][y]=Clip(predCb[x][y]+CSign*resJointC[x][y]>>1)或者
Clip(predCb[x][y]+CSign*k2*resJointC[x][y]),其中,
rec1Cr[x][y]表示所述中间重构样本,
Clip是限幅操作,
predCb[x][y]表示所述第二色度分量的第二预测块的样本,
CSign是符号值,
resJointC[x][y]表示所述第一残差样本的样本,
>>是右移或除二运算,以及
K2是预存储的或用信号发送的参数。
11.一种对视频数据进行编码的方法,所述方法包括:
确定所述视频数据的块的第一色度分量的第一残差样本,其中,所述第一残差样本对应于在所述第一色度分量的第一色度块与所述第一色度分量的第一预测块之间的差;
基于所述第一残差样本和所述第二色度分量的第二预测块来确定中间重构样本;
确定视频数据的所述块的所述第二色度分量的第二残差样本,其中,所述第二残差样本对应于在所述第二色度分量的第二色度块与所述中间重构样本之间的差;以及
在经编码的视频数据的比特流中输出表示所述第一残差样本和所述第二残差样本的语法元素。
12.根据权利要求11所述的方法,其中,所述视频数据的所述块是以无损译码模式进行译码的。
13.根据权利要求11所述的方法,其中,所述第一色度块和所述第二色度块具有相同的译码单元(CU)。
14.根据权利要求11所述的方法,其中,
基于所述第一残差样本和所述第二色度分量的所述第二预测块来确定所述中间重构样本包括:将所述第一残差样本的值与所述第二预测块的样本的值相加。
15.根据权利要求11所述的方法,还包括:
确定所述视频数据的所述块是以色度残差联合译码模式进行编码的。
16.一种用于对视频数据进行解码的设备,所述设备包括:
存储器,其被配置为存储所述视频数据;
一个或多个处理器,其在电路中实现并且被配置为:
接收用于所述视频数据的块的第一色度分量的第一残差样本的信息,其中,所述第一残差样本对应于在所述第一色度分量的第一色度块与所述第一色度分量的第一预测块之间的差;
基于所述第一残差样本来确定中间重构样本;
接收用于视频数据的所述块的第二色度分量的第二残差样本的信息,其中,所述第二残差样本对应于在所述第二色度分量的第二色度块与所述中间重构样本之间的差;
基于所述第一残差样本和所述第一预测块来重构所述第一色度块;
基于所述第二残差样本和所述中间重构样本来重构所述第二色度块;以及
输出包括经重构的第一色度块和经重构的第二色度块的经解码的视频数据。
17.根据权利要求16所述的设备,其中,所述视频数据的所述块是以无损译码模式进行译码的。
18.根据权利要求16所述的设备,其中,所述一个或多个处理器还被配置为:
使用帧内预测或帧间预测中的至少一项来确定所述第二色度分量的第二预测块;以及
基于所述第一残差样本和所述第二色度分量的所述第二预测块来确定所述中间重构样本。
19.根据权利要求16所述的设备,其中,所述第一色度块和所述第二色度块具有相同的译码单元(CU)。
20.根据权利要求16所述的设备,其中,为了基于所述第二残差样本和所述中间重构样本来重构所述第二色度块,所述一个或多个处理器还被配置为:将所述第二残差样本的值与所述中间重构样本的对应值相加。
21.根据权利要求16所述的设备,其中,所述一个或多个处理器还被配置为:
确定所述视频数据的所述块是以色度残差联合译码模式进行编码的。
22.根据权利要求16所述的设备,其中,
为了基于所述第一残差样本和所述第一预测块来重构所述第一色度块,所述一个或多个处理器还被配置为:将所述第一重构色度块与所述第一色度分量的所述第一预测块相加,以生成所述第一色度块;
为了基于所述第二残差样本和所述中间重构样本来重构所述第二色度块,所述一个或多个处理器还被配置为:将所述第二残差样本的值与所述中间重构样本的对应值相加并且与所述第二色度分量的第二预测块相加,以生成所述第二色度块。
23.根据权利要求16所述的设备,其中,为了确定所述中间重构样本,所述一个或多个处理器还被配置为根据以下等式中的一个等式来确定所述中间重构样本:
rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]>>1)或者
Clip(predCr[x][y]+CSign*k1*resJointC[x][y]),其中,
rec1Cr[x][y]表示所述中间重构样本,
Clip是限幅操作,
predCr[x][y]表示所述第二色度分量的第二预测块的样本,
Csign是符号值,
resJointC[x][y]表示所述第一残差样本的样本,
>>是右移或除2运算,以及
k1是预存储的或用信号发送的参数。
24.根据权利要求16所述的设备,其中,为了确定所述中间重构样本,所述一个或多个处理器还被配置为根据以下等式中的一个等式来确定所述中间重构样本:
rec1Cr[x][y]=Clip(predCr[x][y]+CSign*resJointC[x][y]),其中,
rec1Cr[x][y]表示所述中间重构样本,
Clip是限幅操作,
predCr[x][y]表示所述第二色度分量的第二预测块的样本,
Csign是符号值,以及
resJointC[x][y]表示所述第一残差样本的样本。
25.根据权利要求16所述的设备,其中,为了确定所述中间重构样本,所述一个或多个处理器还被配置为根据以下等式中的一个等式来确定所述中间重构样本:
rec1Cb[x][y]=Clip(predCb[x][y]+CSign*resJointC[x][y]>>1)或者
Clip(predCb[x][y]+CSign*k2*resJointC[x][y]),其中,
rec1Cr[x][y]表示所述中间重构样本,
Clip是限幅操作,
predCb[x][y]表示所述第二色度分量的第二预测块的样本,
CSign是信号值,
resJointC[x][y]表示所述第一残差样本的样本,
>>是右移或除二运算,以及
K2是预存储的或用信号发送的参数。
26.根据权利要求16所述的设备,还包括:
被配置为显示经解码的视频数据的显示器。
27.根据权利要求16所述的设备,其中,所述设备包括相机、计算机、移动设备、广播接收机设备或机顶盒中的一者或多者。
28.一种对视频数据进行编码的设备,所述设备包括:
存储器,其被配置为存储所述视频数据;
一个或多个处理器,其在电路中实现并且被配置为:
确定所述视频数据的块的第一色度分量的第一残差样本,其中,所述第一残差样本对应于在所述第一色度分量的第一色度块与所述第一色度分量的第一预测块之间的差;
基于所述第一残差样本和所述第二色度分量的第二预测块来确定中间重构样本;
确定视频数据的所述块的所述第二色度分量的第二残差样本,其中,所述第二残差样本对应于在所述第二色度分量的第二色度块与所述中间重构样本之间的差;以及
在经编码的视频数据的比特流中输出表示所述第一残差样本和所述第二残差样本的语法元素。
29.根据权利要求28所述的设备,其中,所述视频数据的所述块是以无损译码模式进行译码的。
30.根据权利要求28所述的设备,其中,
为了基于所述第一残差样本和所述第二色度分量的所述第二预测块来确定所述中间重构样本,所述一个或多个处理器还被配置为:将所述第一残差样本的值与所述第二预测块的样本的值相加。
CN202080081232.8A 2019-12-09 2020-12-09 联合色度残差视频译码 Pending CN114731418A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962945750P 2019-12-09 2019-12-09
US62/945,750 2019-12-09
US17/115,544 2020-12-08
US17/115,544 US11463688B2 (en) 2019-12-09 2020-12-08 Joint chroma residual video coding
PCT/US2020/063943 WO2021119086A1 (en) 2019-12-09 2020-12-09 Joint chroma residual video coding

Publications (1)

Publication Number Publication Date
CN114731418A true CN114731418A (zh) 2022-07-08

Family

ID=76210797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080081232.8A Pending CN114731418A (zh) 2019-12-09 2020-12-09 联合色度残差视频译码

Country Status (4)

Country Link
US (1) US11463688B2 (zh)
EP (1) EP4074040A1 (zh)
CN (1) CN114731418A (zh)
WO (1) WO2021119086A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11303936B2 (en) * 2020-02-21 2022-04-12 Tencent America LLC Method and apparatus for filtering
US11381820B2 (en) * 2020-04-13 2022-07-05 Tencent America LLC Method and apparatus for video coding

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067667A1 (en) 2011-11-07 2013-05-16 Intel Corporation Cross-channel residual prediction
US9648330B2 (en) * 2013-07-15 2017-05-09 Qualcomm Incorporated Inter-color component residual prediction
US10397607B2 (en) * 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
US11095922B2 (en) * 2016-08-02 2021-08-17 Qualcomm Incorporated Geometry transformation-based adaptive loop filtering
US11190799B2 (en) * 2017-06-21 2021-11-30 Lg Electronics Inc. Intra-prediction mode-based image processing method and apparatus therefor
KR20200051596A (ko) 2017-09-15 2020-05-13 소니 주식회사 화상 처리 장치 및 방법

Also Published As

Publication number Publication date
US20210176464A1 (en) 2021-06-10
EP4074040A1 (en) 2022-10-19
US11463688B2 (en) 2022-10-04
WO2021119086A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
EP4059215B1 (en) Cross-component adaptive loop filter in video coding
CN113812148A (zh) 用于视频译码的参考图片重采样和帧间译码工具
CN113940069A (zh) 用于视频译码中的低频不可分离变换的变换和最后有效系数位置信令
AU2020235622B2 (en) Coefficient domain block differential pulse-code modulation in video coding
WO2021061977A1 (en) Low-frequency non-separable transform (lfnst) simplifications
CN114830648A (zh) 用于视频译码的图像报头信令
CN113170162A (zh) 用于视频译码的共享候选列表和并行候选列表推导
US11277611B2 (en) Delta quantization parameter (QP) signaling in palette mode
CN114424566A (zh) 视频译码中用于联合色度残差模式的量化参数信令
CN114846796A (zh) 用于视频译码中的参考图片重采样的环绕偏移
EP3991414A1 (en) Chroma delta quantization parameter in video coding
US11463688B2 (en) Joint chroma residual video coding
CN115398921A (zh) 确定是否对在切片报头中的视频数据的图片的图片报头数据进行译码
CN114846801A (zh) 基于色度变换跳过的用于色度的lfnst信令
WO2021108547A1 (en) Flexible signaling of qp offset for adaptive color transform in video coding
CN114175643A (zh) 调色板和预测模式信令
CN114009034A (zh) 视频译码中的渐进随机存取(gra)信令
WO2021188939A1 (en) Coefficient coding of transform skip blocks in video coding
EP4035371A1 (en) Arithmetic coder byte stuffing signaling for video coding
WO2020257557A1 (en) Maximum allowed block size for bdpcm mode
KR20220024041A (ko) 변환 스킵 잔차 코딩에서의 이진화

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination