CN113287301A - 用于帧内预测的分量间线性建模方法和装置 - Google Patents

用于帧内预测的分量间线性建模方法和装置 Download PDF

Info

Publication number
CN113287301A
CN113287301A CN201980087352.6A CN201980087352A CN113287301A CN 113287301 A CN113287301 A CN 113287301A CN 201980087352 A CN201980087352 A CN 201980087352A CN 113287301 A CN113287301 A CN 113287301A
Authority
CN
China
Prior art keywords
value
video
sample
bits
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980087352.6A
Other languages
English (en)
Inventor
阿列克谢·康斯坦丁诺维奇·菲利波夫
瓦西里·亚历斯维奇·拉夫特斯基
陈建乐
马祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202211067848.7A priority Critical patent/CN115665407B/zh
Publication of CN113287301A publication Critical patent/CN113287301A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请提供了用于编码和解码的装置和方法。所述使用分量间线性模型对块中的色度样本进行帧内预测的方法包括:获取重建亮度样本;根据所述重建亮度样本,确定最大亮度样本值和最小亮度样本值;获取所述最大亮度样本值和所述最小亮度样本值之间的差值。所述方法还包括:使用一组比特作为索引从查找表(lookup table,LUT)中提取值,其中,所述组中的比特位于最高有效位的位置之后;根据所述提取的值,获取线性模型参数;使用所述获取的线性模型参数来计算色度样本的预测值。本申请提高了从所述LUT中提取所述值的效率。

Description

用于帧内预测的分量间线性建模方法和装置
相关申请交叉引用
本申请要求于2018年12月31日提交的申请号为62/786,563、发明名称为“用于帧内预测的分量间线性建模方法和装置(METHOD AND APPARATUS OF CROSS-COMPONENTLINEAR MODELING FOR INTRA PREDICTION)”的美国临时专利申请的权益,其内容通过引用的方式并入本文中。
技术领域
本申请(本发明)实施例大体上涉及图像处理领域,更具体地,涉及通过分量间线性建模进行帧内预测。
背景技术
视频译码(视频编码和解码)广泛用于数字视频应用,例如广播数字TV、互联网和移动网络上的视频传输、视频聊天和视频会议等实时会话应用、DVD和蓝光光盘、视频内容采集和编辑系统以及安全应用的可携式摄像机。
即使视频相对较短,也需要大量的视频数据来描述,当数据要在带宽容量有限的通信网络中流式传输或以其它方式传输时,这样可能会造成困难。因此,视频数据通常要先压缩,然后在现代电信网络中传输。由于内存资源可能有限,当在存储设备中存储视频时,视频的大小也可能成为问题。视频压缩设备通常在源侧使用软件和/或硬件对视频数据进行编码,然后进行传输或存储,从而减少表示数字视频图像所需的数据量。然后,由解码视频数据的视频解压缩设备在目的地侧接收压缩数据。在网络资源有限以及对更高视频质量的需求不断增长的情况下,需要改进压缩和解压缩技术,这些改进的技术在几乎不影响图像质量的情况下能够提高压缩比。
发明内容
本申请实施例提供了独立权利要求所述的用于编码和解码的方法和装置。
上述和其它目的通过独立权利要求所保护的主题实现。其它实现方式在从属权利要求、说明书和附图中是显而易见的。
根据第一方面,本发明涉及一种使用分量间线性模型对块中的色度样本进行帧内预测的方法。所述方法包括:获取重建亮度样本;根据所述重建亮度样本,确定最大亮度样本值和最小亮度样本值;获取所述最大亮度样本值和所述最小亮度样本值之间的差值;确定所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置。所述方法还包括:使用一组比特作为索引从查找表(lookup table,LUT)中提取值,其中,所述组中的比特位于所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置之后;根据所述提取的值,获取线性模型参数α和β;使用所述获取的线性模型参数α和β来计算色度样本的预测值。
根据本发明的第一方面,通过提取二进制表示的若干个比特的精巧方式,计算所述LUT的索引。因此,本发明提高了从所述LUT中提取所述值的效率。
根据所述第一方面,在所述方法的一种可能实现方式中,所述方法包括:通过将所述提取的值与所述重建色度样本的最大值和最小值之间的差值相乘,获取所述线性模型参数α和β。
由于提高了从所述LUT中提取所述值的效率,因此减小了用于获取线性模型参数α和β的乘数。
根据所述第一方面,在所述方法的一种可能实现方式中,所述LUT包括存储在LUT中的与所述获取的差值的不同步长对应的至少两个相邻值,所述步长的值随着差值递增或为常数。通过提取二进制表示的若干个比特的精巧方式,计算所述LUT的索引,对应地,减小了所述LUT中的与所述索引对应的表项。因此,减小了所述LUT。
根据本发明的第二方面,提供了一种使用分量间线性模型对块中的色度样本进行帧内预测的装置。本发明所述第二方面提供的装置包括获取单元、确定单元和计算单元。所述获取单元用于获取重建亮度样本。所述确定单元用于:根据所述重建亮度样本,确定最大亮度样本和最小亮度样本值。所述获取单元还用于获取所述最大亮度样本值和所述最小亮度样本值之间的差值。所述确定单元还用于确定所述最大亮度样本值和最小亮度样本值之间的差值的最高有效位的位置。所述计算单元用于使用一组比特作为索引从查找表(lookup table,LUT)中提取值,其中,所述组中的比特位于所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置之后;根据所述提取的值,获取线性模型参数α和β;使用所述获取的线性模型参数α和β来计算色度样本的预测值。
根据本发明的第二方面,通过提取二进制表示的若干个比特的精巧方式,所述装置计算所述LUT的索引。因此,本发明提高了从所述LUT中提取所述值的效率。
根据第三方面,本发明涉及一种对视频流进行解码的装置。所述装置包括处理器和存储器。所述存储器存储指令,所述指令使得所述处理器执行所述第一方面或所述第一方面的任一可能实施例提供的方法。
根据第四方面,本发明涉及一种对视频流进行编码的装置。所述装置包括处理器和存储器。所述存储器存储指令,所述指令使得所述处理器执行所述第一方面或所述第一方面的任一可能实施例提供的方法。
根据第五方面,提供了一种存储有指令的计算机可读存储介质。所述指令在执行时使得一个或多个处理器用于对视频数据进行译码。所述指令使得所述一个或多个处理器执行所述第一方面或所述第一方面的任一可能实施例提供的方法。
根据第六方面,本发明涉及一种包括程序代码的计算机程序。当所述程序代码在计算机上执行时,所述程序代码用于执行所述第一方面或所述第一方面的任一可能实施例提供的方法。
以下附图和说明书详细阐述了一个或多个实施例。其它特征、目的和优点在说明书、附图和权利要求中是显而易见的。
附图说明
下面参照所附附图和示意图更加详细地描述本发明实施例。
图1A为用于实现本发明实施例的视频译码系统的一个示例的框图。
图1B为用于实现本发明实施例的视频译码系统的另一个示例的框图。
图2为用于实现本发明实施例的视频编码器的一个示例的框图。
图3为用于实现本发明实施例的视频解码器的一种示例性结构的框图。
图4为编码装置或解码装置的一个示例的框图。
图5为编码装置或解码装置的另一个示例的框图。
图6为用于色度帧内预测的分量间线性模型的概念的示意图。
图7为线性模型参数推导的简化方法的示意图。
图8为参考亮度样本的最大值和最小值之间的差值的出现概率分布的示意图。
图9为本发明一个实施例提供的示例性查找表生成过程的流程图。
图10为示例性查找表的索引推导的一个实施例的流程图。
图11为使用分量间线性模型对块中的色度样本进行示例性帧内预测的流程图。
图12为使用分量间线性模型对块中的色度样本进行帧内预测的装置的一种示例性结构的框图。
图13为实现内容分发服务的内容供应系统3100的一种示例性结构的框图。
图14为终端设备的一个示例的结构的框图。
在下文,相同附图标记表示相同特征或至少在功能上等效的特征,除非另有明确规定。
具体实施方式
以下描述中,参考组成本发明一部分并以说明的方式示出本发明实施例的具体方面或可以使用本发明实施例的具体方面的附图。应理解,本发明实施例可以在其它方面中使用,并且可以包括附图中未描绘的结构变化或逻辑变化。因此,以下详细描述不应以限制性的意义来理解,且本发明的范围由所附权利要求书界定。
例如,应理解,与描述方法有关的公开内容可以对用于执行所述方法的对应设备或系统也同样适用,反之亦然。例如,如果描述一个或多个具体方法步骤,则对应的设备可以包括一个或多个单元(例如功能单元)来执行所描述的一个或多个方法步骤(例如,一个单元执行一个或多个步骤,或多个单元分别执行多个步骤中的一个或多个),即使附图中未明确描述或说明这样的一个或多个单元。另一方面,例如,如果根据一个或多个单元(例如功能单元)来描述具体装置,则对应的方法可以包括一个步骤来执行一个或多个单元的功能(例如,一个步骤执行一个或多个单元的功能,或多个步骤分别执行多个单元中的一个或多个单元的功能),即使附图中未明确描述或说明这样的一个或多个步骤。此外,应理解,本文中描述的各种示例性实施例和/或方面的特征可以相互组合,除非另外明确说明。
视频译码通常是指处理组成视频或视频序列的一系列图像。在视频编码领域中,术语“帧(frame)”与“图像(picture/image)”可以用作同义词。视频译码(或总称为译码)包括视频编码和视频解码两部分。视频编码在源侧执行,通常包括处理(例如通过压缩)原始视频图像,以减少表示视频图像所需的数据量(从而更高效存储和/或传输)。视频解码在目的地侧执行,通常包括相对于编码器作逆处理,以重建视频图像。实施例涉及的视频图像(或总称为图像)的“译码”应理解为视频图像或相应视频序列的“编码”或“解码”。编码部分和解码部分也合称为编解码(CODEC)(编码和解码)。
在无损视频编码情况下,可以重建原始视频图像,即重建视频图像与原始视频图像具有相同的质量(假设存储或传输期间没有传输损耗或其它数据丢失)。在有损视频编码情况下,通过量化等执行进一步压缩,以减少表示视频图像的数据量,而解码器侧无法完全重建视频图像,即重建视频图像的质量比原始视频图像的质量低或差。
几个视频编码标准属于“有损混合型视频编解码器”组(即,将样本域中的空间预测和时间预测与变换域中进行量化的2D变换编码相结合)。视频序列中的每个图像通常分割成不重叠的块集合,通常在块级处执行编码。换句话说,在编码器侧,通常在块(视频块)级处对视频进行处理(即编码),例如,通过空间(帧内)预测和/或时间(帧间)预测来生成预测块;从当前块(当前处理的块/待处理块)中减去预测块,得到残差块;在变换域中变换残差块并量化残差块,以减少待传输(压缩)的数据量,而在解码器侧,对经编码或压缩的块进行相对于编码器的逆处理,以重建当前块进行表示。此外,编码器与解码器的处理步骤相同,使得编码器和解码器生成相同的预测块(例如帧内和帧间预测块)和/或重建块,以对后续块进行处理(即编码)。
在以下视频译码系统10的实施例中,视频编码器20和视频解码器30根据图1至图3进行描述。
图1A为示例性译码系统10的示意性框图,例如可以利用本申请技术的视频译码系统10(或简称为译码系统10)。视频译码系统10中的视频编码器20(或简称为编码器20)和视频解码器30(或简称为解码器30)为两个示例,可以为使用本申请中描述的各种示例来执行技术的设备。
如图1A所示,译码系统10包括源设备12,源设备12用于将经编码的图像数据21提供给目的地设备14等,以对经编码的图像数据13进行解码。
源设备12包括编码器20,并且可以另外(即可选地)包括图像源16、预处理器(或预处理单元)18(例如图像预处理器18)和通信接口或通信单元22。
图像源16可以包括或可以是任何类型的用于捕获真实世界图像等的图像捕获设备;和/或任何类型的图像生成设备(例如用于生成计算机动画图像的计算机图形处理器);或者任何类型的用于获取和/或提供真实世界图像、计算机动画图像(例如屏幕内容、虚拟现实(virtual reality,VR)图像)和/或其任何组合(例如增强现实(augmented reality,AR)图像)的设备。图像源可以为任何类型的存储任一上述图像的存储器(memory/storage)。
为了区分预处理器18和预处理单元18执行的处理,图像或图像数据17也可以称为原始图像或原始图像数据17。
预处理器18用于接收(原始)图像数据17,并对图像数据17执行预处理,得到预处理图像19或预处理图像数据19。预处理器18执行的预处理可以包括修剪(trimming)、颜色格式转换(例如从RGB转换为YCbCr)、调色或去噪等。可以理解的是,预处理单元18可以为可选组件。
视频编码器20用于接收预处理图像数据19,并提供经编码的图像数据21(结合图2等描述更多细节)。源设备12中的通信接口22可以用于接收经编码的图像数据21,并通过通信信道13将经编码的图像数据21(或对经编码的图像数据21进一步处理后得到的数据)发送给另一设备(例如目的地设备14)或任何其它设备,以便进行存储或直接重建。
目的地设备14包括解码器30(例如视频解码器30),并且可以另外(即可选地)包括通信接口或通信单元28、后处理器32(或后处理单元32)和显示设备34。
目的地设备14中的通信接口28用于(例如)直接从源设备12或从存储设备(例如经编码的图像数据存储设备)等任何其它源,接收经编码的图像数据21(或对经编码的图像数据21进一步处理后得到的数据),并将经编码的图像数据21提供给解码器30。
通信接口22和通信接口28可以用于经由源设备12与目的地设备14之间的直接通信链路(例如直接有线或无线连接)或者经由任何类型的网络(例如有线网络、无线网络或其任何组合,或者任何类型的私网和公网或其任何类型的组合)发送或接收经编码的图像数据21或经编码的数据13。
例如,通信接口22可以用于将经编码的图像数据21封装成合适的格式(例如数据包),和/或通过任何类型的传输编码或处理方式来处理经编码的图像数据,以便通过通信链路或通信网络进行传输。
例如,与通信接口22对应的通信接口28可以用于接收传输数据,并通过任何类型的对应传输解码或处理和/或解封装方式来处理传输数据,得到经编码的图像数据21。
通信接口22和通信接口28都可以配置为图1A中从源设备12指向目的地设备14的通信信道13的箭头所指示的单向通信接口,或者配置为双向通信接口,并且可以用于发送和接收消息等,以建立连接、确认并交换与通信链路和/或数据传输(例如经编码的图像数据传输)相关的任何其它信息,等等。
解码器30用于接收经编码的图像数据21并提供经解码的图像数据31或经解码的图像31(下文结合图3或图5等描述更多细节)。
目的地设备14中的后处理器32用于对经解码的图像数据31(也称为重建图像数据)(例如经解码图像31)进行后处理,得到后处理图像数据33(例如后处理图像33)。后处理单元32执行的后处理可以包括颜色格式转换(例如从YCbCr转换为RGB)、调色、修剪(trimming)或重采样,或者任何其它处理,以便提供经解码的图像数据31由显示设备34等显示,等等。
目的地设备14中的显示设备34用于接收后处理图像数据33,以便向用户或观看者等显示图像。显示设备34可以为或可以包括任何类型的用于表示重建图像的显示器(例如集成或外部显示器或显示屏)。例如,显示器可以包括液晶显示器(liquid crystaldisplay,LCD)、有机发光二极管(organic light emitting diode,OLED)显示器、等离子显示器、投影仪、微型LED显示器、硅基液晶(liquid crystal on silicon,LCoS)显示器、数字光处理器(digital light processor,DLP)或任何类型的其它显示器。
尽管图1A示出了源设备12和目的地设备14作为单独的设备,但是在实施例中,设备还可以同时包括源设备12和目的地设备14或同时包括源设备12和目的地设备14的功能,即源设备12或对应功能以及目的地设备14或对应功能。在这些实施例中,源设备12或对应功能以及目的地设备14或对应功能可以使用相同的硬件和/或软件或通过单独的硬件和/或软件或其任意组合来实现。
根据描述,图1A所示的源设备12和/或目的地设备14中的不同单元或功能的存在和(精确)划分可以根据实际设备和应用而不同,这对技术人员来说是显而易见的。
编码器20(例如视频编码器20)或解码器30(例如视频解码器30)或者编码器20和解码器30两者可以通过图1B所示的处理电路来实现,例如一个或多个微处理器、一个或多个数字信号处理器(digital signal processor,DSP)、一个或多个专用集成电路(application-specific integrated circuit,ASIC)、一个或多个现场可编程门阵列(field-programmable gate array,FPGA)、一个或多个离散逻辑、一个或多个硬件、一个或多个视频编码专用处理器或其任意组合。编码器20可以通过处理电路46来实现,以包含参照图2中的编码器20论述的各种模块和/或本文描述的任何其它编码器系统或子系统。解码器30可以通过处理电路46实现,以包含参照图3中的解码器30论述的各种模块和/或本文描述的任何其它解码器系统或子系统。处理电路可以用于执行下文描述的各种操作。如图5所示,如果上述技术部分在软件中实现,则一种设备可以将该软件的指令存储在合适的非瞬时性计算机可读介质中,并且可以使用一个或多个处理器在硬件中执行这些指令,以执行本发明技术。视频编码器20或视频解码器30可以作为组合编解码器(encoder/decoder,CODEC)的一部分集成在单个设备中,如图1B所示。
源设备12和目的地设备14可以包括多种设备中的任一种,包括任何类型的手持设备或固定设备,例如笔记本电脑或膝上型电脑、手机、智能手机、平板或平板电脑、相机、台式电脑、机顶盒、电视机、显示设备、数字媒体播放器、视频游戏机、视频流设备(例如内容业务服务器或内容分发服务器)、广播接收器设备、广播发射器设备等,并且可以不使用或使用任何类型的操作系统。在一些情况下,源设备12和目的地设备14可以用于无线通信。因此,源设备12和目的地设备14可以是无线通信设备。
在一些情况下,图1A所示的视频译码系统10仅仅是示例性的,本申请技术可以适用于编码设备与解码设备之间不一定包括任何数据通信的视频译码(例如视频编码或视频解码)设置。在其它示例中,从本地存储器中检索数据,通过网络流式传输,等等。视频编码设备可以对数据进行编码并将数据存储到存储器中,和/或视频解码设备可以从存储器中检索数据并对数据进行解码。在一些示例中,编码和解码由相互不通信而只是将数据编码到存储器和/或从存储器中检索数据并对数据进行解码的设备来执行。
为便于描述,本文(例如)参考由ITU-T视频编码专家组(Video Coding ExpertsGroup,VCEG)和ISO/IEC运动图像专家组(Motion Picture Experts Group,MPEG)的视频编码联合协作团队(Joint Collaboration Team on Video Coding,JCT-VC)开发的高效视频编码(High-Efficiency Video Coding,HEVC)或下一代视频编码标准通用视频编码(Versatile Video Coding,VVC)参考软件来描述本发明实施例。本领域普通技术人员理解本发明实施例不限于HEVC或VVC。
编码器和编码方法
图2为用于实现本申请技术的示例性视频编码器20的示意性框图。在图2的示例中,视频编码器20包括输入端201(或输入接口201)、残差计算单元204、变换处理单元206、量化单元208、反量化单元210、逆变换处理单元212、重建单元214、环路滤波器单元220、解码图像缓冲区(decoded picture buffer,DPB)230、模式选择单元260、熵编码单元270和输出端272(或输出接口272)。模式选择单元260可以包括帧间预测单元244、帧内预测单元254和分割单元262。帧间预测单元244可以包括运动估计单元和运动补偿单元(未示出)。图2所示的视频编码器20也可以称为混合视频编码器或基于混合型视频编解码器的视频编码器。
残差计算单元204、变换处理单元206、量化单元208和模式选择单元260可以组成编码器20的前向信号路径,而反量化单元210、逆变换处理单元212、重建单元214、缓冲区216、环路滤波器220、解码图像缓冲区(decoded picture buffer,DPB)230、帧间预测单元244和帧内预测单元254可以组成视频编码器20的后向信号路径,其中,视频编码器20的后向信号路径对应于解码器(参见图3中的视频解码器30)的信号路径。反量化单元210、逆变换处理单元212、重建单元214、环路滤波器220、解码图像缓冲区(decoded picturebuffer,DPB)230、帧间预测单元244和帧内预测单元254还组成视频编码器20的“内置解码器”。
图像和图像分割(图像和块)
编码器20可以用于通过输入端201等接收图像17(或图像数据17)。图像17可以是形成视频或视频序列的一系列图像中的图像。接收到的图像或图像数据也可以是预处理图像19(或预处理图像数据19)。为了简单起见,以下描述使用图像17。图像17也可以称为当前图像或待编码图像(尤其是在视频译码中将当前图像与同一视频序列(也就是同样包括当前图像的视频序列)中的其它图像(例如先前经编码和/或经解码的图像)区分开)。
(数字)图像为或可以视为由具有强度值的样本(sample)组成的二维阵列或矩阵。阵列中的样本也可以称为像素(pixel/pel)(图像元素的简称)。阵列或图像的水平方向和垂直方向(或轴线)上的样本数量限定了图像的大小和/或分辨率。为了表示颜色,通常采用三个颜色分量,即图像可以表示为或包括三个样本阵列。在RBG格式或颜色空间中,图像包括对应的红色、绿色和蓝色样本阵列。但是,在视频译码中,每个像素通常以亮度和色度格式或颜色空间表示,例如YCbCr,包括Y表示的亮度分量(有时也用L表示)以及Cb和Cr表示的两个色度分量。亮度(luminance,简写为luma)分量Y表示亮度或灰度级强度(例如在灰度等级图像中两者相同),而两个色度(chrominance,简写为chroma)分量Cb和Cr表示色度或颜色信息分量。相应地,YCbCr格式的图像包括亮度样本值(sample value)(Y)的亮度样本阵列和色度值(Cb和Cr)的两个色度样本阵列。RGB格式的图像可以转换或变换为YCbCr格式,反之亦然。该过程也称为颜色变换或转换。如果图像是黑白的,则该图像可以只包括亮度样本阵列。相应地,图像可以为例如黑白格式的亮度样本阵列或4:2:0、4:2:2和4:4:4颜色格式的亮度样本阵列和两个对应的色度样本阵列。
在实施例中,视频编码器20可以包括图像分割单元(图2中未示出),用于将图像17分割成多个(通常不重叠)图像块203。这些块也可以称为根块、宏块(H.264/AVC),或编码树块(coding tree block,CTB)或编码树单元(coding tree unit,CTU)(H.265/HEVC和VVC)。图像分割单元可以用于对视频序列中的所有图像使用相同的块大小和使用限定块大小的对应网格,或者在图像或图像子集或图像组之间改变块大小,并将每个图像分割成对应块。
在其它实施例中,视频编码器可以用于直接接收图像17的块203,例如组成图像17的一个、几个或所有块。图像块203也可以称为当前图像块或待编码图像块。
与图像17一样,图像块203同样是或可以视为由具有强度值(样本值)的样本组成的二维阵列或矩阵,但是图像块203的尺寸比图像17的尺寸小。换句话说,块203可以包括(例如)一个样本阵列(例如黑白图像17情况下的亮度阵列或者彩色图像情况下的亮度阵列或色度阵列)或三个样本阵列(例如彩色图像17情况下的一个亮度阵列和两个色度阵列)或根据所采用的颜色格式的任何其它数量和/或类型的阵列。块203的水平方向和垂直方向(或轴线)上的样本数量限定了块203的大小。相应地,块可以为M×N(M列×N行)个样本阵列,或M×N个变换系数阵列等。
在实施例中,图2所示的视频编码器20可以用于逐块对图像17进行编码,例如对每个块203执行编码和预测。
残差计算
残差计算单元204可以用于通过如下方式根据图像块203和预测块265(后续详细介绍了预测块265)来计算残差块205(也称为残差205)以得到样本域中的残差块205:例如,逐个样本(逐个像素)从图像块203的样本值中减去预测块265的样本值。
变换
变换处理单元206可以用于对残差块205的样本值进行离散余弦变换(discretecosine transform,DCT)或离散正弦变换(discrete sine transform,DST)等变换,得到变换域中的变换系数207。变换系数207也可以称为变换残差系数,表示变换域中的残差块205。
变换处理单元206可以用于进行DCT/DST(例如为H.265/HEVC指定的变换)的整数化近似。与正交DCT变换相比,这种整数化近似通常通过某一因子按比例缩放(scale)。为了维持经过正变换和逆变换处理的残差块的范数,使用其它缩放因子作为变换过程的一部分。缩放因子通常是根据某些约束条件来选择的,例如缩放因子是用于移位运算的2的幂、变换系数的位深度、准确性与实现成本之间的权衡等。例如,通过逆变换处理单元212等为逆变换(以及在视频解码器30侧,通过逆变换处理单元312等为对应的逆变换)指定具体的缩放因子;相应地,可以在编码器20侧,通过变换处理单元206等为正变换指定对应的缩放因子。
在实施例中,视频编码器20(对应地,变换处理单元206)可以用于输出一种或多种变换的类型等变换参数,例如直接输出或由熵编码单元270进行编码或压缩后输出,使得(例如)视频解码器30可以接收并使用变换参数进行解码。
量化
量化单元208用于通过进行标量量化或矢量量化等对变换系数207进行量化,得到量化变换系数209。量化系数209也可以称为量化变换系数209或量化残差系数209。
量化过程可以减小与部分或全部变换系数207相关的位深度。例如,可以在量化期间将n位变换系数向下舍入到m位变换系数,其中,n大于m。可以通过调整量化参数(quantization parameter,QP)修改量化程度。例如,对于标量量化,可以进行不同程度的比例缩放来实现较细或较粗的量化。较小量化步长对应于较细量化,而较大量化步长对应于较粗量化。可以通过量化参数(quantization parameter,QP)表示合适的量化步长。例如,量化参数可以为合适的量化步长的预定义集合的索引。例如,较小的量化参数可以对应于精细量化(较小量化步长),较大的量化参数可以对应于粗糙量化(较大量化步长),反之亦然。量化可以包括除以量化步长,而反量化单元210等执行的对应和/或反解量化可以包括乘以量化步长。根据HEVC等一些标准的实施例可以使用量化参数来确定量化步长。一般而言,可以根据量化参数使用包含除法的等式的定点近似来计算量化步长。可以引入其它缩放因子来进行量化和解量化,以恢复可能由于在量化步长和量化参数的等式的定点近似中使用的比例缩放而修改的残差块的范数。在一种示例性实现方式中,可以合并逆变换和解量化的比例缩放。或者,可以使用自定义量化表,并在码流等中将自定义量化表从编码器通过信号发送给解码器。量化是有损操作,所以量化步长越大,损耗越大。
在实施例中,视频编码器20(对应地,量化单元208)可以用于输出量化参数(quantization parameters,QP),例如直接输出或由熵编码单元270进行编码后输出,使得(例如)视频解码器30可以接收并使用量化参数进行解码。
反量化
反量化单元210用于对量化系数进行量化单元208的反量化,得到解量化系数211,例如根据或使用与量化单元208相同的量化步长,执行与量化单元208所执行的量化方案相反的反量化方案。解量化系数211也可以称为解量化残差系数211,对应于变换系数207,但是由于量化造成损耗,解量化系数211通常与变换系数不相同。
逆变换
逆变换处理单元212用于进行变换处理单元206进行的变换的逆变换,例如逆离散余弦变换(discrete cosine transform,DCT)或逆离散正弦变换(discrete sinetransform,DST),得到样本域中的重建残差块213(或对应的解量化系数213)。重建残差块213也可以称为变换块213。
重建
重建单元214(例如加法器或求和器214)用于通过如下方式将变换块213(即重建残差块213)添加到预测块265以得到样本域中的重建块215:例如,逐个样本将重建残差块213的样本值和预测块265的样本值相加。
滤波
环路滤波器单元220(或简称“环路滤波器”220)用于对重建块215进行滤波,得到经过滤波的块221,或一般用于对重建样本进行滤波,得到经过滤波的样本。例如,环路滤波器单元用于顺利进行像素转变或以其它方式提高视频质量。环路滤波器单元220可以包括一个或多个环路滤波器,例如去块效应滤波器、样本自适应偏移(sample-adaptiveoffset,SAO)滤波器或者一个或多个其它滤波器,例如双边滤波器、自适应环路滤波器(adaptive loop filter,ALF)、锐化或平滑滤波器、协同滤波器,或其任意组合。虽然环路滤波器单元220在图2中示为环内滤波器,但是在其它配置中,环路滤波器单元220可以实现为环后滤波器。经过滤波的块221也可以称为经过滤波的重建块221。
在实施例中,视频编码器20(对应地,环路滤波器单元220)可以用于输出环路滤波器参数(例如样本自适应偏移信息),例如直接输出或由熵编码单元270进行编码后输出,使得(例如)解码器30可以接收并使用相同的环路滤波器参数或相应的环路滤波器进行解码。
解码图像缓冲区
解码图像缓冲区(decoded picture buffer,DPB)230可以是存储参考图像或一般存储参考图像数据以供视频编码器20在对视频数据进行编码时使用的存储器。DPB 230可以由多种存储器设备中的任一种形成,例如动态随机存取存储器(dynamic random accessmemory,DRAM),包括同步DRAM(synchronous DRAM,SDRAM)、磁阻RAM(magnetoresistiveRAM,MRAM)、电阻RAM(resistive RAM,RRAM)或其它类型的存储器设备。解码图像缓冲区(decoded picture buffer,DPB)230可以用于存储一个或多个经过滤波的块221。解码图像缓冲区230还可以用于存储同一个当前图像或不同图像(例如先前的重建图像)中的其它先前经过滤波的块(例如先前经过滤波的重建块221),并可以提供先前完整的重建(即经解码的)图像(和对应的参考块和样本)和/或部分重建的当前图像(和对应的参考块和样本),以进行帧间预测等。如果重建块215未由环路滤波器单元220进行滤波,则解码图像缓冲区(decoded picture buffer,DPB)230还可以用于存储一个或多个未经滤波的重建块215,或一般存储未经滤波的重建样本,或未进行任何其它处理的重建块或重建样本。
模式选择(分割和预测)
模式选择单元260包括分割单元262、帧间预测单元244和帧内预测单元254,并且用于从解码图像缓冲区230或其它缓冲区(例如行缓冲区,图中未示出)接收或获取原始块203(当前图像17的当前块203)等原始图像数据以及重建图像数据(例如同一个(当前)图像和/或一个或多个先前经解码图像的经过滤波和/或未经滤波的重建样本或重建块)。重建图像数据用作帧间预测或帧内预测等预测所需的参考图像数据,得到预测块265或预测值265。
模式选择单元260可以用于为当前块预测模式(包括不分割)确定或选择一种分割以及确定或选择一种预测模式(例如帧内预测模式或帧间预测模式),生成对应的预测块265,以对残差块205进行计算和对重建块215进行重建。
在实施例中,模式选择单元260可以用于选择分割和预测模式(例如从模式选择单元260支持或可用的预测模式中选择),所述预测模式提供最佳匹配或者说最小残差(最小残差是指传输或存储中更好的压缩),或者提供最小指示开销(最小指示开销是指传输或存储中更好的压缩),或者同时考虑或平衡以上两者。模式选择单元260可以用于根据率失真优化(rate distortion optimization,RDO)确定分割和预测模式,即选择提供最小率失真的预测模式。本文中的“最佳”、“最小”、“最优”等术语不一定指总体上“最佳”、“最小”、“最优”等,但也可以指满足终止或选择标准的情况,例如,超过或低于阈值的值或其它约束条件可能导致“次优选择”,但会降低复杂度且减少处理时间。
换句话说,分割单元262可以用于通过如下方式将块203分割成较小的块分割部分(partition)或子块(再次组成块):例如,通过迭代使用四叉树(quad-tree,QT)分割、二叉树(binary-tree,BT)分割或三叉树(triple-tree,TT)分割或其任意组合,并且用于对块分割部分或子块中的每一个执行预测等,其中,模式选择包括选择分割块203的树结构,并且对块分割部分或子块中的每一个使用预测模式。
下文将详细地描述由示例性视频编码器20执行的分割(例如由分割单元260执行)和预测处理(由帧间预测单元244和帧内预测单元254执行)。
分割
分割单元262可以将当前块203分割(或划分)成较小的分割部分,例如正方形或矩形大小的较小块。可以将这些较小块(也可以称为子块)进一步分割成甚至更小的分割部分。这也称为树分割或分层树分割。在根树级别0(层次级别0、深度0)等的根块可以递归地分割成两个或更多下一个较低树级别的块,例如树级别1(层级级别1、深度1)的节点。这些块可以又分割成两个或更多下一个较低级别的块,例如树级别2(层级级别2、深度2)等,直到分割结束(因为满足结束标准,例如达到最大树深度或最小块大小)。未进一步分割的块也称为树的叶块或叶节点。分割成2个分割部分的树称为二叉树(binary-tree,BT),分割成3个分割部分的树称为三叉树(ternary-tree,TT),分割成4个分割部分的树称为四叉树(quad-tree,QT)。
如上所述,本文使用的术语“块”可以是图像的一部分,特别是正方形或矩形部分。例如,参照HEVC和VVC,块可以为或可以对应于编码树单元(coding tree unit,CTU)、编码单元(coding unit,CU)、预测单元(prediction unit,PU)和变换单元(transform unit,TU)和/或对应于对应的块,例如编码树块(coding tree block,CTB)、编码块(codingblock,CB)、变换块(transform block,TB)或预测块(prediction block,PB)。
例如,编码树单元(coding tree unit,CTU)可以为或可以包括具有3个样本阵列的图像中的亮度样本组成的一个CTB以及色度样本组成的两个对应CTB,或者可以为或可以包括黑白图像或使用3个单独颜色平面和语法结构进行编码的图像中的样本组成的一个CTB。这些语法结构用于对样本进行编码。相应地,编码树块(coding tree block,CTB)可以为N×N个样本块,其中,N可以设为某个值,使得一个分量划分为CTB,这就是分割。编码单元(coding unit,CU)可以为或可以包括由具有3个样本阵列的图像的亮度样本组成的一个编码块以及由该图像的色度样本组成的两个对应编码块,或者可以为或可以包括由黑白图像或使用3个单独颜色平面和语法结构进行编码的图像的样本组成的一个编码块。这些语法结构用于对样本进行编码。相应地,编码块(coding block,CB)可以为M×N个样本块,其中,M和N可以设为某个值,使得一个CTB划分为编码块,这就是分割。
在实施例中,例如根据HEVC,可以使用表示为编码树的四叉树结构将编码树单元(coding tree unit,CTU)划分为多个CU。在CU级决定是否使用帧间(时间)预测或帧内(空间)预测对图像区域进行编码。每个CU可以根据PU划分类型进一步划分为1个、2个或4个PU。一个PU内进行相同的预测过程,并以PU为单位向解码器发送相关信息。在根据PU划分类型进行预测过程得到残差块之后,可以根据类似于用于CU的编码树的其它四叉树结构将CU分割成变换单元(transform unit,TU)。
在实施例中,例如根据当前开发的最新视频编码标准(称为通用视频编码(Versatile Video Coding,VVC)),使用四叉树结合二叉树(quad-tree and binary-tree,QTBT)分割来分割编码块。在QTBT块结构中,CU可以为正方形或矩形。例如,编码树单元(coding tree unit,CTU)首先通过四叉树结构进行分割。四叉树叶节点进一步通过二叉树或三叉(ternary/triple)树结构进行分割。分割树叶节点称为编码单元(coding unit,CU),这样的分段用于预测和变换处理,无需任何进一步分割。这表示在QTBT编码块结构中,CU、PU和TU的块大小相同。与此同时,还提出将三叉树分割等多重分割与QTBT块结构一起使用。
在一个示例中,视频编码器20中的模式选择单元260可以用于执行本文描述的分割技术的任意组合。
如上所述,视频编码器20用于从(预定的)预测模式集合中确定或选择最佳或最优的预测模式。预测模式集合可以包括帧内预测模式和/或帧间预测模式等。
帧内预测
帧内预测模式集合可以包括35种不同的帧内预测模式,例如像DC(或均值)模式和平面模式的非方向性模式或如HEVC中定义的方向性模式,或者可以包括67种不同的帧内预测模式,例如像DC(或均值)模式和平面模式的非方向性模式或如VVC中定义的方向性模式。
帧内预测单元254用于根据帧内预测模式集合中的帧内预测模式,使用同一个当前图像的相邻块的重建样本来生成帧内预测块265。
帧内预测单元254(或总称为模式选择单元260)还用于将帧内预测参数(或总称为表示块的选定帧内预测模式的信息)以语法元素266的形式输出到熵编码单元270,以包含到经编码的图像数据21中,使得(例如)视频解码器30可以接收并使用预测参数进行解码。
帧间预测
(可能的)帧间预测模式集合取决于可用参考图像(即(例如)前述存储在DBP 230中的至少部分经解码图像)和其它帧间预测参数,例如取决于是否使用整个参考图像或只使用参考图像的一部分(例如当前块的区域周围的搜索窗口区域)来搜索最佳匹配参考块,和/或例如取决于是否进行像素插值(例如二分之一/半像素插值和/或四分之一像素插值)。
除上述预测模式之外,还可以使用跳过模式和/或直接模式。
帧间预测单元244可以包括运动估计(motion estimation,ME)单元和运动补偿(motion compensation,MC)单元(两者在图2中未示出)。运动估计单元可以用于接收或获取图像块203(当前图像17的当前图像块203)和经解码的图像231,或者至少一个或多个先前的重建块(例如一个或多个其它/不同的先前经解码的图像231的重建块),以进行运动估计。例如,视频序列可以包括当前图像和先前经解码的图像231,或换句话说,当前图像和先前经解码的图像231可以为一系列图像的一部分或组成一系列图像,这一系列图像组成视频序列。
例如,编码器20可以用于从多个其它图像中的同一个或不同图像的多个参考块中选择一个参考块,并将参考图像(或参考图像索引)和/或参考块的位置(x坐标、y坐标)与当前块的位置之间的偏移(空间偏移)作为帧间预测参数提供给运动估计单元。这种偏移也称为运动矢量(motion vector,MV)。
运动补偿单元用于获取(例如接收)帧间预测参数,并根据或使用帧间预测参数执行帧间预测,得到帧间预测块265。由运动补偿单元执行的运动补偿可以包括根据通过运动估计确定的运动/块矢量来提取或生成预测块,还可以包括对子像素精度执行插值。插值滤波可以根据已知像素样本生成其它像素样本,从而潜在地增加可以用于对图像块进行编码的候选预测块的数量。一旦接收到当前图像块的PU对应的运动矢量时,运动补偿单元可以在其中一个参考图像列表中定位运动矢量指向的预测块。
运动补偿单元还可以生成与块和视频条带相关的语法元素,以供视频解码器30在解码视频条带的图像块时使用。
熵编码
熵编码单元270用于将熵编码算法或方案(例如可变长度编码(variable lengthcoding,VLC)方案、上下文自适应VLC(context adaptive VLC scheme,CAVLC)方案、算术编码方案、二值化,上下文自适应二进制算术编码(context adaptive binary arithmeticcoding,CABAC)、基于语法的上下文自适应二进制算术编码(syntax-based context-adaptive binary arithmetic coding,SBAC)、概率区间分割熵(probability intervalpartitioning entropy,PIPE)编码或其它熵编码方法或技术)等应用于或不应用于(无压缩)量化系数209、帧间预测参数、帧内预测参数、环路滤波器参数和/或其它语法元素,得到可以通过输出端272以经编码码流21等形式输出的经编码的图像数据21,使得(例如)视频解码器30可以接收并使用这些参数进行解码。可以将经编码码流21发送到视频解码器30,或者将其存储在存储器中稍后由视频解码器30发送或检索。
视频编码器20的其它结构变型可以用于对视频流进行编码。例如,基于非变换的编码器20可以在没有变换处理单元206的情况下为某些块或帧直接量化残差信号。在另一种实现方式中,编码器20可以包括组合成单个单元的量化单元208和反量化单元210。
解码器和解码方法
图3示出了用于实现本申请技术的视频解码器30的一个示例。视频解码器30用于接收(例如)由编码器20编码的经编码的图像数据21(例如经编码的码流21),得到经解码的图像331。经编码的图像数据或码流包括用于解码该经编码的图像数据的信息,例如表示经编码的视频条带中的图像块的数据和相关的语法元素。
在图3的示例中,解码器30包括熵解码单元304、反量化单元310、逆变换处理单元312、重建单元314(例如求和器314)、环路滤波器320、解码图像缓冲区(decoded picturebuffer,DPB)330、帧间预测单元344和帧内预测单元354。帧间预测单元344可以为或可以包括运动补偿单元。在一些示例中,视频解码器30可以执行大体上与参照图2中的视频编码器100描述的编码回合互逆的解码回合。
如参照编码器20所述,反量化单元210、逆变换处理单元212、重建单元214、环路滤波器220、解码图像缓冲区(decoded picture buffer,DPB)230、帧间预测单元344和帧内预测单元354还组成视频编码器20的“内置解码器”。相应地,反量化单元310在功能上可以与反量化单元110相同,逆变换处理单元312在功能上可以与逆变换处理单元212相同,重建单元314在功能上可以与重建单元214相同,环路滤波器320在功能上可以与环路滤波器220相同,解码图像缓冲区330在功能上可以与解码图像缓冲区230相同。因此,视频编码器20的相应单元和功能的解释相应地适用于视频解码器30的相应单元和功能。
熵解码
熵解码单元304用于解析码流21(或总称为经编码的图像数据21)并对经编码的图像数据21执行熵解码等,得到量化系数309和/或经解码的编码参数(图3中未示出)等,例如帧间预测参数(例如参考图像索引和运动矢量)、帧内预测参数(例如帧内预测模式或索引)、变换参数、量化参数、环路滤波器参数和/或其它语法元素中的任一个或全部。熵解码单元304可以用于应用与参照编码器20中的熵编码单元270描述的编码方案对应的解码算法或方案。熵解码单元304还可以用于将帧间预测参数、帧内预测参数和/或其它语法元素提供给模式选择单元360,并将其它参数提供给解码器30中的其它单元。视频解码器30可以接收视频条带级和/或视频块级的语法元素。
反量化
反量化单元310可以用于从经编码的图像数据21(例如通过熵解码单元304等解析和/或解码)接收量化参数(quantization parameters,QP)(或总称为与反量化相关的信息)和量化系数,并根据这些量化参数对经解码的量化系数309进行反量化,得到解量化系数311。解量化系数311也可以称为变换系数311。反量化过程可以包括使用视频编码器20为视频条带中的每个视频块确定的量化参数来确定量化程度,同样也确定需要进行的反量化的程度。
逆变换
逆变换处理单元312可以用于接收解量化系数311(也称为变换系数311),并对解量化系数311进行变换,得到样本域中的重建残差块213。重建残差块213也可以称为变换块313。变换可以为逆变换,例如逆DCT、逆DST、逆整数变换或概念上类似的逆变换过程。逆变换处理单元312还可以用于(例如通过熵解码单元304等解析和/或解码)从经编码的图像数据21接收变换参数或对应的信息,以确定要对解量化系数311进行的变换。
重建
重建单元314(例如加法器或求和器314)可以用于通过如下方式将重建残差块313添加到预测块365以得到样本域中的重建块315:例如,将重建残差块313的样本值和预测块365的样本值相加。
滤波
环路滤波器单元320(在编码环路中或之后)用于对重建块315进行滤波,得到经过滤波的块321,从而顺利进行像素转变或以其它方式提高视频质量等。环路滤波器单元320可以包括一个或多个环路滤波器,例如去块效应滤波器、样本自适应偏移(sample-adaptive offset,SAO)滤波器或者一个或多个其它滤波器,例如双边滤波器、自适应环路滤波器(adaptive loop filter,ALF)、锐化或平滑滤波器、协同滤波器,或其任意组合。虽然环路滤波器单元320在图3中示为环内滤波器,但是在其它配置中,环路滤波器单元320可以实现为环后滤波器。
解码图像缓冲区
随后将一个图像中的经解码的视频块321存储在解码图像缓冲区330中,解码图像缓冲区330存储经解码图像331作为参考图像,一般后续对其它图像进行运动补偿和/或输出或显示。
解码器30用于通过输出端312等输出经解码图像311,向用户显示或供用户查看。
预测
帧间预测单元344在功能上可以与帧间预测单元244(特别是与运动补偿单元)相同,帧内预测单元354在功能上可以与帧内预测单元254相同,并根据从经编码的图像数据21(例如通过熵解码单元304等解析和/或解码)接收的分割和/或预测参数或相应的信息来决定划分或分割和执行预测。模式选择单元360可以用于根据重建图像、块或相应的样本(经过滤波或未经滤波)对每个块执行预测(帧内预测或帧间预测),得到预测块365。
当将视频条带编码为经帧内编码(I)条带时,模式选择单元360中的帧内预测单元354用于根据指示(signal)的帧内预测模式和来自当前图像的先前经解码块的数据为当前视频条带的图像块生成预测块365。当视频图像编码为经帧间编码(B或P)条带时,模式选择单元360中的帧间预测单元344(例如运动补偿单元)用于根据运动矢量和从熵解码单元304接收的其它语法元素为当前视频条带的视频块生成预测块365。对于帧间预测,可以根据其中一个参考图像列表内的其中一个参考图像产生这些预测块。视频解码器30可以根据存储在DPB330中的参考图像,使用默认构建技术来构建参考帧列表0和列表1。
模式选择单元360用于通过解析运动矢量或相关信息以及其它语法元素,确定当前视频条带的视频块的预测信息,并使用预测信息为正在解码的当前视频块生成预测块。例如,模式选择单元360使用接收到的一些语法元素来确定用于对视频条带的视频块进行编码的预测模式(例如帧内预测或帧间预测)、帧间预测条带类型(例如B条带、P条带或GPB条带)、用于条带的一个或多个参考图像列表的构建信息、用于条带的每个经帧间编码的视频块的运动矢量、用于条带的每个经帧间编码的视频块的帧间预测状态,以及其它信息,以对当前视频条带中的视频块进行解码。
视频解码器30的其它变型可以用于对经编码的图像数据21进行解码。例如,解码器30可以在没有环路滤波器单元320的情况下生成输出视频流。例如,基于非变换的解码器30可以在没有逆变换处理单元312的情况下为某些块或帧直接反量化残差信号。在另一种实现方式中,视频解码器30可以包括组合成单个单元的反量化单元310和逆变换处理单元312。
应理解,在编码器20和解码器30中,可以对当前步骤的处理结果做进一步处理,然后输出到下一步骤。例如,在插值滤波、运动矢量推导或环路滤波之后,可以对插值滤波、运动矢量推导或环路滤波的处理结果进行进一步运算,例如修正(clip)或移位(shift)运算。
需要说明的是,可以对当前块的推导运动矢量(包括但不限于仿射模式的控制点运动矢量,仿射模式、平面模式和ATMVP模式的子块运动矢量,时间运动矢量等)进行进一步运算。例如,根据运动矢量的表示位将运动矢量的值限制在预定义范围。如果运动矢量的表示位为bitDepth,则范围为–2^(bitDepth–1)~2^(bitDepth–1)–1,其中“^”表示幂次方。例如,如果bitDepth设置为16,则范围为–32768~32767;如果bitDepth设置为18,则范围为–131072~131071。例如,对推导出的运动矢量(例如一个8×8块中的四个4×4子块的MV)的值进行限制,使得这四个4×4子块MV的整数部分之间的最大差值不超过N个像素,例如不超过1个像素。这里提供了两种根据bitDepth来限制运动矢量的方法。
方法1:通过平滑操作来去除溢出的最高有效位(most significant bit,MSB)
ux=(mvx+2bitDepth)%2bitDepth (1)
mvx=(ux≥2bitDepth–1)?(ux–2bitDepth):ux (2)
uy=(mvy+2bitDepth)%2bitDepth (3)
mvy=(uy≥2bitDepth–1)?(uy–2bitDepth):uy (4)
其中,mvx为一个图像块或子块的运动矢量中的水平分量,mvy为一个图像块或子块的运动矢量中的垂直分量,ux和uy表示中间值。
例如,如果mvx的值为–32769,则使用公式(1)和(2)之后得到的值为32767。在计算机系统中,以二进制补码的形式存储十进数。–32769的二进制补码为1,0111,1111,1111,1111(17位),这时丢弃MSB,那么得到的二进制补码为0111,1111,1111,1111(十进数为32767),这与使用公式(1)和(2)之后得到的输出结果相同。
ux=(mvpx+mvdx+2bitDepth)%2bitDepth (5)
mvx=(ux≥2bitDepth–1)?(ux–2bitDepth):ux (6)
uy=(mvpy+mvdy+2bitDepth)%2bitDepth (7)
mvy=(uy≥2bitDepth–1)?(uy–2bitDepth):uy (8)
这些运算可以在对mvp和mvd求和的过程中执行,如公式(5)至(8)所示。
方法2:对值进行修正来去除溢出的MSB
vx=Clip3(–2bitDepth–1,2bitDepth–1–1,vx)
vy=Clip3(–2bitDepth–1,2bitDepth–1–1,vy)
其中,vx为一个图像块或子块的运动矢量中的水平分量,vy为一个图像块或子块的运动矢量中的垂直分量;x、y和z分别对应于MV修正过程的三个输入值,函数Clip3的定义如下:
Figure BDA0003140849060000151
图4为本发明一个实施例提供的视频译码设备400的示意图。视频译码设备400适用于实现本文描述的公开实施例。在一个实施例中,视频译码设备400可以是解码器(例如图1A中的视频解码器30)或编码器(例如图1A中的视频编码器20)。
视频译码设备400包括:用于接收数据的入端口410(或输入端口410)和接收单元(Rx)420;用于处理所述数据的处理器、逻辑单元或中央处理器(central processingunit,CPU)430;用于发送所述数据的发送单元(Tx)440和出端口450(或输出端口450);用于存储所述数据的存储器460。视频译码设备400还可以包括与入端口410、接收单元420、发送单元440和出端口450耦合的光电(optical-to-electrical,OE)组件和电光(electrical-to-optical,EO)组件,用作光信号或电信号的出口或入口。
处理器430通过硬件和软件来实现。处理器430可以实现为一个或多个CPU芯片、一个或多个核(例如多核处理器)、一个或多个FPGA、一个或多个ASIC以及一个或多个DSP。处理器430与入端口410、接收单元420、发送单元440、出端口450和存储器460通信。处理器430包括译码模块470。译码模块470实现上文描述的公开实施例。例如,译码模块470执行、处理、准备或提供各种译码操作。因此,将译码模块470包含在内为视频译码设备400的功能提供了实质性的改进,并且影响了视频译码设备400到不同状态的转换。或者,以存储在存储器460中并由处理器430执行的指令来实现译码模块470。
存储器460可以包括一个或多个磁盘、一个或多个磁带机以及一个或多个固态硬盘,并且可以用作溢出数据存储设备,以在选择程序来执行时存储这些程序以及存储在执行程序过程中读取的指令和数据。例如,存储器460可以是易失性和/或非易失性的,并且可以是只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、三态内容寻址存储器(ternary content-addressable memory,TCAM)和/或静态随机存取存储器(static random-access memory,SRAM)。
图5为一个示例性实施例提供的装置500的简化框图。装置500可以用作图1的源设备12和目的地设备14中的任一个或两个。
装置500中的处理器502可以是中央处理器。或者,处理器502可以是现有的或今后将研发出的能够操控或处理信息的任何其它类型的设备或多个设备。虽然可以使用如图所示的处理器502等单个处理器来实施所公开的实现方式,但使用多个处理器可以提高速度和效率。
在一种实现方式中,装置500中的存储器504可以是只读存储器(read onlymemory,ROM)设备或随机存取存储器(random access memory,RAM)设备。任何其它合适类型的存储设备都可以用作存储器504。存储器504可以包括处理器502通过总线512访问的代码和数据506。存储器504还可以包括操作系统508和应用程序510,应用程序510包括至少一个程序,这个程序使得处理器502执行本文所述方法。例如,应用程序510可以包括应用1至应用N,还包括执行本文所述方法的视频编码应用。
装置500还可以包括一个或多个输出设备,例如显示器518。在一个示例中,显示器518可以是将显示器与触敏元件组合的触敏显示器,该触敏元件能够用于感测触摸输入。显示器518可以通过总线512与处理器502耦合。
虽然装置500的总线512在这里示为单个总线,但是总线512可以有多个。此外,辅助存储器514可以直接与装置500中的其它组件耦合或可以通过网络被访问,并且可以包括单个集成单元(例如一个存储卡)或多个单元(例如多个存储卡)。因此,装置500可以具有各种各样的构造。
色度样本的帧内预测可以使用重建亮度块的样本执行。
在HEVC开发过程中,提出了分量间线性模型(Cross-component Linear Model,CCLM)色度帧内预测(2010年7月,J.Kim、S.W.Park、J.Y.Park和B.M.Jeon在文件JCTVC-B021中发表“Intra Chroma Prediction Using Inter Channel Correlation(利用信道间相关性的帧内色度预测)”)。CCLM利用编码块中的色度样本与编码块中的位置与该色度样本的位置对应的亮度样本之间的线性相关性。当使用CCLM对色度块进行编码时,线性模型通过线性回归根据重建相邻亮度和色度样本进行推导。然后,当前块中的色度样本可以使用当前块中的重建亮度样本和推导出的线性模型进行预测(参见图6):
C(x,y)=α×L(x,y)+β,
其中,C和L分别表示色度值和亮度值,参数α和β通过最小二乘法推导如下:
Figure BDA0003140849060000161
其中,M(A)表示A的平均值,R(A,B)定义如下:
R(A,B)=M((A-M(A))×(B-M(B))。
如果经编码或解码图像的格式(例如4:2:0YCbCr格式)表示亮度分量和色度分量具有不同数量的样本,则在建模和预测之前先对亮度样本进行下采样。
VTM2.0已经采用了这种方法。具体地,参数推导如下:
Figure BDA0003140849060000162
Figure BDA0003140849060000163
其中,L(n)表示经过下采样的上方和左侧相邻重建亮度样本,C(n)表示上方和左侧相邻重建色度样本。
2018年10月,G.Laroche、J.Taquet、C.Gisquet和P.Onno(Canon)在中国澳门的第十二次JEVT会议的输入文件中发表“CE3:Cross-component linear modelsimplification(Test 5.1)(分量间线性模型简化(测试5.1))”,其中提出了推导α和β的不同方法(参见图7)。具体地,线性模型参数α和β根据以下等式获取:
Figure BDA0003140849060000171
β=L(A)-αC(A),
其中,B=argmax(L(n))和A=argmin(L(n))表示亮度样本的最大值和最小值的位置。
还提出通过与一个数字相乘来实现除法运算,该数字存储在表1所示的查找表(look-up table,LUT)中。这种代替法可以通过以下方法实现:
Figure BDA0003140849060000172
其中,S为表示精度的移位参数。
表1列出了LUT索引范围(在表的第一行列出)与存储在LUT中的值列表之间的匹配关系,其中,每个列表与其索引范围对应。可以注意到,LUT[v1]的值可以计算如下:
Figure BDA0003140849060000173
使用表1中定义(或使用上述等式等效计算)的LUT,α的计算如下:
Figure BDA0003140849060000174
移位参数S可以分解为若干个部分,即S=S0+S1,因为α的值在下一步计算中使用。这种分解使得不同阶段具有灵活的计算精度,因此有可能在获取色度样本的预测值的步骤之间重新分布乘法运算的位深度。在具体实现时,
S0=1,
S1=15,
S=S0+S1=16。
表1:通过与一个数字相乘来实现除法运算的示例性LUT
Figure BDA0003140849060000175
Figure BDA0003140849060000181
在这种情况下,线性模型系数α具有分数值的定点整数表示,α的精度由S1=S-S0的值决定,该值用于获取预测色度样本的值:
Figure BDA0003140849060000182
LUT的大小在编码器或解码器的硬件实现中相当关键。解决这一问题的最直接方法是通过只保留表1所示的初始LUT的每N个元素(这里的N为下采样率),定期对LUT进行下采样。
在使用N的2次幂下采样率进行定期下采样之后,以不同的方式定义从LUT中提取的值:
m=LUT[(L(B)-L(A)>>log2(N))]
代替
m=LUT[L(B)-L(A)]
可以注意到,对于自然图像,L(B)-L(A)的概率小,大于差值大的概率。换句话说,表1中的值的出现概率从左列到右列递减,在每列中,该概率从该列中的第一个元素到最后一个元素递减。图8示出了出现概率与L(B)-L(A)的值之间的相关性。
因此,只保留初始LUT中的每N个元素不是最好的做法,因为这种做法相当于LUT参数的概率分布是相等的,这是不可能的。
这种分布相比于定期下采样,在LUT的大小与计算精度之间实现了更好的折衷。
本发明提出通过非线性索引来定义LUT,具体地,两个相邻LUT表项对应于L(B)-L(A)的不同步长,而且该步长的值随着表项的索引递增。
计算效率高的技术方案之一是使用L(B)-L(A)的若干个最高有效位来确定LUT中的索引。L(B)-L(A)的最高有效位的位置限定了精度(即,LUT中的两个相邻表项之间的步长)。最高有效位的位置的值越大,对应的精度越低,对应的步长值越大。
图9和图10示出了一个具体实施例。图9为计算LUT值的流程图,图10示出了如何获取LUT中与L(B)-L(A)的输入值对应的索引“idx”。
通过执行图9所示的步骤,可以获取将存储在LUT中以进一步用于CCLM建模的值。在图9中,变量“ctr”遍历L(B)-L(A)-1的所有可能值。可以注意到,事实上,LUT具有子范围,每个子范围包括“colmax”个表项。在一个子范围内,“步长”值相同,“ctr”的值随着“步长”值递增。索引为“lut_shift+1”且大于1的子范围具有对应的“步长”值,相比于子范围“lut_shift”,其“步长”值增大了两倍。由于运算“step=1<<max(0,lut_shift)”中的阈值,前两个子范围的步长等于1。
如图9所示,流程图示出了本发明一个实施例提供的示例性查找表生成过程。在步骤902处,视频译码设备启动查找表生成过程。所述视频译码设备可以为解码器(例如图1A、图1B和图3中的视频解码器30)、编码器(例如图1A、图1B和图2中的视频编码器20)、图4中的视频译码设备400,或图5中的装置500。
在步骤904中,假设ctr=1且lut_shift=1。在步骤906中,判断索引lut_shift是否小于lut_shiftmax。如果lut_shift<lut_shiftmax,则在步骤908中,计算步长为1<<max(0,lut_shift),且col=0;否则,在步骤922中,所述生成过程结束。在步骤910中,通过步长“ctr=ctr+(step>>1)”,提供起始偏移。然后,在步骤912中,判断col是否小于colmax。如果col<colmax,则在步骤914中,LUT[ctr]=(1<<S)/ctr,这里,在步骤912至步骤918中定义的预计算的LUT值组成LUT中的一行;否则,在步骤920中,假设索引lut_shift=lut_shift+1。在步骤916中,将与每个子范围的起始值对应的ctr值设置为ctrl+step。在步骤918中,所述生成过程移到下一列,然后返回到步骤912。
表2列出了使用图9所示的流程图生成的示例性LUT。表2的一行对应于索引为“lut_shift”的子范围。表2是根据“lut_shiftmax”=6和“colmax”=3获取的,因此LUT中有48个表项。与每个子范围的起始值(“col”值为0)对应的ctr值为如下:
0、8、17、35、71、143和287。
这些值并不总是2次幂,因为每个子范围内的子采样是参照子范围的中间执行的。对应的起始偏移通过图9所示的步长“ctr=ctr+(step>>1)”提供。对于不大于0的“lut_shift”值,将“步长”的值设置为1。
表2:使用图9所示的流程图生成的示例性LUT
Figure BDA0003140849060000201
在图10A中,对输入值(例如差值L(B)-L(A))的二进制表示1001进行处理,以确定表2所示的LUT中的对应表项的位置。将输入值的最高有效非零位标记为1002。该位的位置决定了“msb”的值。事实上,msb的值为输入值1001的log2()。从“msb”减去1得到选择表2中一行的“lut_shift”值。否则,将步长计算为“1<<lut_shift”。
通过取1002旁边的“colmax”个比特来执行列选择。表2中的“col”的值获取如下:
-通过选择在最高有效位1020之后的“colmax+1”个比特,得到“high_bits”的值;
-将col设置为存储在“high_bits”中的值减1。
对于图9中不执行对齐步骤“ctr=ctr+(step>>1)”的情况,“lut_shift”值的推导方式是相同的,“col”值的推导更加简单(图10B):取最高有效位1020之后的“colmax”个比特,得到“col”的值。这种索引推导方法与表3对应。与每个子范围的起始值(“col”值为0)对应的“ctr”值(图9)为如下:
0、8、16、32、64、128和256。
表3:在跳过“ctr=ctr+(step>>1)”的情况下使用图9所示的流程图生成的另一示例性LUT
Figure BDA0003140849060000202
Figure BDA0003140849060000211
当推导“col”的值时,msb可以小于或等于“colmax”。在这种情况下,将“col”的值设置为输入差值1001的“colmax”个最低有效位。
在实际实现方式中,LUT索引为1维索引。通常应理解,表2和表3所示的LUT可以使用如下索引集进行线性寻址:
max(lutshift,0)·(1<<colmax)+col。
表2和表3所示的LUT都存储大小非常不同的值。因此,存储在LUT中的所有值具有相似数量的比特是合理的。从LUT提取的值可以进一步根据lut_shift的值向左移动。此规则的唯一例外是前四个值与此行中后四个值的精度不同。然而,这个问题可以通过存储前四个值的其它移位的其它LUT来解决。在本实施例中,从在LUT中提取的值恢复乘数的值为如下:
m=LUT[idx]<<ms
其中,ms=6-(lutshift+1)+δ。对于小于或等于4的“idx”值,δ的值分别设置为3、2、1和1。本实施例的查找表如表4所示。
表4:在范围内精度相等的情况下使用图9所示的流程图生成的另一示例性LUT
Figure BDA0003140849060000212
可以注意到,表4的最后几行都非常相似。因此,可以通过只存储一些子范围集合的一行来减小LUT的大小。在具体实施例中,当“lut_shift”的值大于某个阈值时,将lut_shift的值设置为该阈值,并且将δ的值减去“lut_shift”的初始值和阈值之间的差值。
图11为使用分量间线性模型对块中的色度样本进行帧内预测的一个示例的流程图。在步骤1102中,视频译码设备获取重建亮度样本。所述视频译码设备可以为解码器(例如图1A、图1B和图3中的视频解码器30)、编码器(例如图1A、图1B和图2中的视频编码器20)、图4中的视频译码设备400,或图5中的装置500。
在步骤1104中,所述视频译码设备确定最大重建样本值和最小重建样本值在所述重建亮度样本中的位置。例如,所述重建亮度样本为与色度样本对应的相邻重建亮度样本。
在步骤1106中,所述视频译码设备获取所述重建亮度样本的最大值和最小值之间的差值。
在步骤1108中,所述视频译码设备计算LUT的索引来提取乘数的值,其中,所述乘数的值与所述重建亮度样本的最大值和最小值之间的差值对应。
例如,所述视频译码设备确定所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置,并使用位于所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置之后的一组比特作为所述LUT的索引,来提取所述值。所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置可以通过所述差值的以2为底的对数获得。所述视频译码设备确定位于所述差值的最高有效位的位置之后的所述比特组。一种可能的结果是,所述比特组包括四个比特。
所述LUT在执行或不执行对齐步骤的情况下生成。所述LUT可以包括存储在LUT中的与所述获取的差值的不同步长对应的至少两个相邻值,所述步长的值随着差值递增或为常数。
如示例性表1至表4所公开,所述LUT可以包括值的子范围。所述重建亮度样本的最大值和最小值之间的差值的步长在一个子范围内是不变的,而不同子范围的步长不同。例如,所述重建亮度样本的最大值和最小值之间的差值的步长随着子范围索引的增加而增加。例如,所述重建亮度样本的最大值和最小值之间的差值的步长可以为子范围索引的2次幂。
假设所述LUT包括至少三个值:第一值、第二值和第三值。在所述三个值之中,所述第一值和所述第二值为两个相邻值,所述第二值和所述第三值为两个相邻值。所述第一值和所述第二值之间的步长(即精度或差值)可以等于或可以不同于所述第二值和所述第三值之间的步长。如果所述第一值通过第一组比特编入索引,所述第二值通过第二组比特编入索引,则当所述第一组比特的值大于所述第二组比特的值时,所述第一值小于所述第二值;或者,当所述第一组比特的值小于所述第二组比特的值时,所述第一值大于所述第二值。
所述LUT被划分为子范围。使用所述重建亮度样本的最大值和最小值之间的差值的最高有效非零位的位置来确定子范围索引。例如,将子范围大小设置为8,而且有6个子范围。又例如,不同相邻子范围的增加值不一样,但步长相同。
所述LUT可以包括非线性索引。两个相邻LUT表项与L(B)–L(A)的不同步长对应,其中,L(B)表示所述重建亮度样本的最大值,L(A)表示所述重建亮度样本的最小值。表项的步长值可以随着表项的索引的增加而增加。
当所述LUT使用L(B)–L(A)的若干最高有效位时,L(B)–L(A)的最高有效位的位置根据最高有效位的位置限定精度(即,所述LUT中的两个相邻表项之间的步长)。最高有效位的位置的值越大,可以对应的精度越低,对应的步长值越大。
在步骤1110中,通过将所述重建色度样本的最大值和最小值之间的差值与所述提取的值相乘,所述视频译码设备获取线性模型参数α和β。
在步骤1112中,所述视频译码设备使用所述获取的线性模型参数α和β来计算色度样本的预测值。
图12为使用分量间线性模型对块中的色度样本进行帧内预测的装置1200的一种示例性结构的框图。装置1200用于执行上述方法并可以包括:
获取单元1210,用于获取重建亮度样本;
确定单元1220,用于根据所述重建亮度样本,确定最大亮度样本值和最小亮度样本值。
所述获取单元1210还用于获取所述最大亮度样本值和所述最小亮度样本值之间的差值。
所述确定单元1220还用于确定所述最大亮度样本值和最小亮度样本值之间的差值的最高有效位的位置。例如,所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置为所述差值的以2为底的对数。在一种实现方式中,所述最高有效位为第一个非零位。
所述装置1200还包括计算单元1230,用于使用一组比特作为索引从查找表(lookup table,LUT)中提取值,所述组中的比特位于所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置之后;根据所述提取的值,获取线性模型参数α和β;使用所述获取的线性模型参数α和β来计算色度样本的预测值。例如,所述比特组包括四个比特。
所述计算单元可以根据所述提取的值以及所述重建色度样本的最大值和最小值之间的差值,获取所述线性模型参数α和β。例如,所述计算单元通过将所述重建色度样本的最大值和最小值之间的差值与所述提取的值相乘,获取所述线性模型参数α和β。
本发明实施例具有以下优点:
1.通过提取二进制表示的若干个比特的精巧方式,计算所述LUT的索引。因此,本发明提高了从所述LUT中提取所述值的效率。
2.由于提高了从所述LUT中提取所述值的效率,因此减小了用于获取线性模型参数α和β的乘数。
3.减小了所述LUT。本发明实施例中的除法函数曲线(f(x)=1/x,称为双曲线)近似如下:
(1)LUT大小可以为16
i.(用于近似1/x曲线的最小表项数,该曲线的导数从0变为无穷大)
(2)LUT中的元素与表项索引存在非线性相关性
i.(用于近似1/x曲线)
(3)乘数(LUT中的元素)为3位无符号整数(0……7)
i.(用于近似1/x曲线的最小精度,该曲线的导数从0变为无穷大)
下面对上述实施例中所示的编码方法和解码方法的应用以及使用这些应用的系统进行解释说明。
图13为用于实现内容分发服务的内容供应系统3100的框图。内容供应系统3100包括捕获设备3102、终端设备3106,并且可选地包括显示器3126。捕获设备3102通过通信链路3104与终端设备3106通信。通信链路可以包括上文描述的通信信道13。通信链路3104包括但不限于Wi-Fi、以太网、有线、无线(3G/4G/5G)、USB或其任何种类的组合等。
捕获设备3102生成数据,并可以通过如上述实施例中所示的编码方法对数据进行编码。可替换地,捕获设备3102可以将数据分发到流媒体服务器(图中未示出),该服务器对数据进行编码并将经编码的数据发送到终端设备3106。捕获设备3102包括但不限于相机、智能手机或平板电脑、计算机或笔记本电脑、视频会议系统、PDA、车载设备,或其中任何一个的组合等。例如,捕获设备3102可以包括上文所述的源设备12。当数据包括视频时,包括在捕获设备3102中的视频编码器20可以实际执行视频编码处理。当数据包括音频(即语音)时,包括在捕获设备3102中的音频编码器可以实际执行音频编码处理。对于一些实际场景,捕获设备3102通过将经编码的视频数据和经编码的音频数据一起复用来分发经编码的视频数据和经编码的音频数据。对于其它实际场景,例如在视频会议系统中,不复用经编码的音频数据和经编码的视频数据。捕获设备3102将经编码的音频数据和经编码的视频数据分别分发到终端设备3106。
在内容供应系统3100中,终端设备310接收并再生成经编码的数据。终端设备3106可以是具有数据接收和恢复能力的设备,例如智能手机或平板电脑3108、计算机或笔记本电脑3110、网络视频录像机(network video recorder,NVR)/数字视频录像机(digitalvideo recorder,DVR)3112、电视3114、机顶盒(set top box,STB)3116、视频会议系统3118、视频监控系统3120、个人数字助理(personal digital assistant,PDA)3122、车载设备3124,或能够对上述经编码的数据进行解码的以上设备中任何一个的组合等。例如,终端设备3106可以包括如上所述的目的地设备14。当经编码的数据包括视频时,包括在终端设备中的视频解码器30优先进行视频解码。当经编码的数据包括音频时,包括在终端设备中的音频解码器优先进行音频解码处理。
对于具有显示器的终端设备,例如智能手机或平板电脑3108、计算机或笔记本电脑3110、网络视频录像机(network video recorder,NVR)/数字视频录像机(digitalvideo recorder,DVR)3112、电视3114、个人数字助理(personal digital assistant,PDA)3122或车载设备3124,终端设备可以将解码数据馈送到其显示器。对于不配备显示器的终端设备,例如STB 3116、视频会议系统3118或视频监控系统3120,在其中连接外部显示器3126以接收和显示解码数据。
当此系统中的每个设备执行编码或解码时,可以使用如上述实施例中所示的图像编码设备或图像解码设备。
图14为终端设备3106的一个示例的结构的示意图。在终端设备3106从捕获设备3102接收到流之后,协议处理单元3202分析该流的传输协议。所述协议包括但不限于实时流媒体协议(Real Time Streaming Protocol,RTSP)、超文本传输协议(Hyper TextTransfer Protocol,HTTP)、HTTP直播流媒体协议(HTTP Live streaming protocol,HLS)、MPEG-DASH、实时传输协议(Real-time Transport protocol,RTP)、实时消息传输协议(Real Time Messaging Protocol,RTMP),或其任何种类的组合等。
在协议处理单元3202对流进行处理之后,生成流文件。文件被输出到解复用单元3204。解复用单元3204可以将复用数据分离为经编码的音频数据和经编码的视频数据。如上文所述,对于一些实际场景,例如在视频会议系统中,不复用经编码的音频数据和经编码的视频数据。在这种情况下,经编码数据被发送到视频解码器3206和音频解码器3208,而不通过解复用单元3204。
通过解复用处理,生成视频基本流(elementary stream,ES)、音频ES和可选的字幕。视频解码器3206,包括如上述实施例中说明的视频解码器30,通过如上述实施例中所示的解码方法对视频ES进行解码以生成视频帧,并将此数据馈送到同步单元3212。音频解码器3208对音频ES进行解码以生成音频帧,并将此数据馈送到同步单元3212。可替换地,在将视频帧馈送到同步单元3212之前可以将视频帧存储在缓冲区(图Y中未示出)中。类似地,在将音频帧馈送到同步单元3212之前可以将音频帧存储在缓冲区(图Y中未示出)中。
同步单元3212同步视频帧和音频帧,并将视频/音频提供给视频/音频显示器3214。例如,同步单元3212同步视频和音频信息的呈现。信息可以使用经编码的音频和可视数据的呈现有关的时间戳以及与数据流本身的传送有关的时间戳而以语法进行编码。
如果流中包括字幕,则字幕解码器3210对字幕进行解码,使字幕与视频帧和音频帧同步,并将视频/音频/字幕提供给视频/音频/字幕显示器3216。
本发明并不限于上述系统,并且上述实施例中的图像编码设备或图像解码设备都可以结合到其它系统(例如汽车系统)中。
尽管本发明实施例主要根据视频译码进行了描述,但需要说明的是,译码系统10、编码器20和解码器30(相应地,系统10)的实施例以及本文描述的其它实施例也可以用于静止图像处理或译码,即对视频译码中独立于任何先前或连续图像的单个图像进行处理或译码。一般而言,如果图像处理译码仅限于单个图像17,则只有帧间预测单元244(编码器)和344(解码器)不可用。视频编码器20和视频解码器30的所有其它功能(也称为工具或技术)同样可以用于静止图像处理,例如残差计算204/304、变换206、量化208、反量化210/310、(逆)变换212/312、分割262/362、帧内预测254/354和/或环路滤波220/320、熵编码270和熵解码304。
编码器20和解码器30等的实施例以及本文参照编码器20和解码器30等描述的功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则这些功能可以作为一个或多个指令或代码存储在计算机可读介质中或通过通信介质发送,且由基于硬件的处理单元执行。计算机可读介质可以包括计算机可读存储介质,对应于有形介质(例如数据存储介质),或者包括任何根据通信协议等促进将计算机程序从一个地方传递到另一个地方的通信介质。通过这种方式,计算机可读介质一般可以对应于(1)非瞬时性的有形计算机可读存储介质或(2)信号或载波等通信介质。数据存储介质可以是通过一个或多个计算机或一个或多个处理器访问的任何可用介质,以检索用于实施本发明所述技术的指令、代码和/或数据结构。计算机程序产品可以包括计算机可读介质。
作为示例而非限制,这类计算机可读存储介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储器、磁盘存储器或其它磁性存储设备、闪存或可以用于存储指令或数据结构形式的所需程序代码并且可以由计算机访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴缆线、光纤缆线、双绞线、数字用户线(digital subscriber line,DSL)或红外线、无线电和微波等无线技术从网站、服务器或其它远程源传输指令,则同轴缆线、光纤缆线、双绞线、DSL或红外线、无线电和微波等无线技术包含在介质的定义中。但是,应理解,计算机可读存储介质和数据存储介质并不包括连接、载波、信号或其它瞬时性介质,而是涉及非瞬时性有形存储介质。本文所使用的磁盘和光盘包含压缩光盘(compact disc,CD)、激光光盘、光学光盘、数字多功能光盘(digitalversatile disc,DVD)和蓝光光盘,其中,磁盘通常以磁性方式再现数据,而光盘利用激光以光学方式再现数据。以上各项的组合也应包括在计算机可读介质的范围内。
指令可以通过一个或多个数字信号处理器(digital signal processor,DSP)、一个或多个通用微处理器、一个或多个专用集成电路(application specific integratedcircuit,ASIC)、一个或多个现场可编程逻辑阵列(field programmable logic array,FPGA)或其它同等集成或离散逻辑电路等一或多个处理器来执行。因此,本文所使用的术语“处理器”可以指上述结构中的任一种或适于实施本文所述技术的任何其它结构。另外,在一些方面中,本文描述的各种功能可以提供在用于编码和解码的专用硬件和/或软件模块内,或者并入在组合译码器中。另外,这些技术可以在一个或多个电路或逻辑元件中完全实现。
本发明技术可以在多种设备或装置中实现,这些设备或装置包括无线手机、集成电路(integrated circuit,IC)或一组IC(例如芯片组)。本发明描述了各种组件、模块或单元,以强调用于执行所公开技术的设备的功能方面,但未必需要由不同的硬件单元实现。相反,如上所述,各种单元可以结合合适的软件和/或固件组合在译码器硬件单元中,或者通过包括如上所述的一个或多个处理器的互操作硬件单元的集合来提供。

Claims (23)

1.一种使用分量间线性模型对块中的色度样本进行帧内预测的方法,其特征在于,所述方法包括:
获取重建亮度样本;
根据所述重建亮度样本,确定最大亮度样本值和最小亮度样本值;
获取所述最大亮度样本值和所述最小亮度样本值之间的差值;
确定所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位(most-significant bit)的位置;
使用一组比特作为索引从查找表(lookup table,LUT)中提取值,其中,所述一组比特位于所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置之后;
根据所述提取的值,获取线性模型参数α和β;
使用所述获取的线性模型参数α和β来计算色度样本的预测值。
2.根据权利要求1所述的方法,其特征在于,所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置通过所述差值的以2为底的对数获得。
3.根据权利要求1或2所述的方法,其特征在于,确定所述组中的比特位于所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置从而得到所述比特组包括四个比特。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述最高有效位为第一个非零位。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法包括:
根据所述提取的值以及重建色度样本的最大值和最小值之间的差值,获取所述线性模型参数α和β。
6.根据权利要求5所述的方法,其特征在于,所述方法包括:
通过将所述提取的值与所述重建色度样本的最大值和最小值之间的差值相乘,获取所述线性模型参数α和β。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述LUT包括至少三个值:第一值、第二值和第三值;
在所述三个值之中,所述第一值和所述第二值为两个相邻值,所述第二值和所述第三值为两个相邻值。
8.根据权利要求7所述的方法,其特征在于,所述第一值和所述第二值之间的步长等于所述第二值和所述第三值之间的步长。
9.根据权利要求7所述的方法,其特征在于,所述第一值和所述第二值之间的步长不同于所述第二值和所述第三值之间的步长。
10.根据权利要求7至9所述的方法,其特征在于,所述第一值通过第一组比特编入索引,所述第二值通过第二组比特编入索引;
当所述第一组比特的值大于所述第二组比特的值时,所述第一值小于所述第二值;或者
当所述第一组比特的值小于所述第二组比特的值时,所述第一值大于所述第二值。
11.根据权利要求1至10所述的方法,其特征在于,所述LUT包括值的子范围,任意两个相邻值之间的步长在一个子范围内是不变的。
12.一种使用分量间线性模型对块中的色度样本进行帧内预测的装置,其特征在于,所述装置为编码器或解码器,所述装置包括:
获取单元,用于获取重建亮度样本;
确定单元,用于:根据所述重建亮度样本,确定最大亮度样本和最小亮度样本值,其中,
所述获取单元还用于获取所述最大亮度样本值和所述最小亮度样本值之间的差值,
所述确定单元还用于确定所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置;
计算单元,用于:使用一组比特作为索引从查找表(lookup table,LUT)中提取值,其中,所述组中的比特位于所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置之后;根据所述提取的值,获取线性模型参数α和β;使用所述获取的线性模型参数α和β来计算色度样本的预测值。
13.根据权利要求12所述的装置,其特征在于,所述最大亮度样本值和所述最小亮度样本值之间的差值的最高有效位的位置为所述差值的以2为底的对数。
14.根据权利要求12或13所述的装置,其特征在于,所述比特组包括四个比特。
15.根据权利要求12至14中任一项所述的装置,其特征在于,所述最高有效位为第一个非零位。
16.根据权利要求12至15中任一项所述的装置,其特征在于,所述计算单元用于:根据所述提取的值以及重建色度样本的最大值和最小值之间的差值,获取所述线性模型参数α和β。
17.根据权利要求16所述的装置,其特征在于,所述计算单元用于:
通过将所述提取的值与所述重建色度样本的最大值和最小值之间的差值相乘,获取所述线性模型参数α和β。
18.一种编码器,其特征在于,所述编码器包括处理电路,用于执行根据权利要求1至11中任一项所述的方法。
19.一种解码器,其特征在于,所述解码器包括处理电路,用于执行根据权利要求1至11中任一项所述的方法。
20.一种包括程序代码的计算机程序产品,其特征在于,所述程序代码用于执行根据权利要求1至11中任一项所述的方法。
21.一种解码器,其特征在于,所述解码器包括:
一个或多个处理器;
非瞬时性计算机可读存储介质,与所述一个或多个处理器耦合并存储由所述一个或多个处理器执行的程序,其中,当所述一个或多个处理器执行所述程序时,所述解码器用于执行根据权利要求1至11中任一项所述的方法。
22.一种编码器,其特征在于,所述编码器包括:
一个或多个处理器;
非瞬时性计算机可读存储介质,与所述一个或多个处理器耦合并存储由所述一个或多个处理器执行的程序,其中,当所述一个或多个处理器执行所述程序时,所述编码器用于执行根据权利要求1至11中任一项所述的方法。
23.一种非瞬时性记录介质,其特征在于,所述非瞬时性记录介质包括由一种装置解码的经预测编码码流,所述码流是根据权利要求1至11中任一项生成的。
CN201980087352.6A 2018-12-31 2019-12-30 用于帧内预测的分量间线性建模方法和装置 Pending CN113287301A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211067848.7A CN115665407B (zh) 2018-12-31 2019-12-30 用于帧内预测的分量间线性建模方法和装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862786563P 2018-12-31 2018-12-31
US62/786,563 2018-12-31
PCT/RU2019/050261 WO2020141985A1 (en) 2018-12-31 2019-12-30 Method and apparatus of cross-component linear modeling for intra prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202211067848.7A Division CN115665407B (zh) 2018-12-31 2019-12-30 用于帧内预测的分量间线性建模方法和装置

Publications (1)

Publication Number Publication Date
CN113287301A true CN113287301A (zh) 2021-08-20

Family

ID=71407089

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202211067848.7A Active CN115665407B (zh) 2018-12-31 2019-12-30 用于帧内预测的分量间线性建模方法和装置
CN201980087352.6A Pending CN113287301A (zh) 2018-12-31 2019-12-30 用于帧内预测的分量间线性建模方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202211067848.7A Active CN115665407B (zh) 2018-12-31 2019-12-30 用于帧内预测的分量间线性建模方法和装置

Country Status (13)

Country Link
US (2) US11930209B2 (zh)
EP (1) EP3900332A4 (zh)
JP (1) JP7247349B2 (zh)
KR (1) KR20210103562A (zh)
CN (2) CN115665407B (zh)
AU (2) AU2019419322B2 (zh)
BR (1) BR112021012708A2 (zh)
CA (1) CA3125393A1 (zh)
IL (1) IL284455A (zh)
MX (1) MX2021007999A (zh)
SG (1) SG11202107170VA (zh)
WO (1) WO2020141985A1 (zh)
ZA (1) ZA202105346B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2571313B (en) * 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
CN117082250A (zh) 2018-12-13 2023-11-17 华为技术有限公司 色度块的预测方法和装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7847973B2 (en) * 2004-01-30 2010-12-07 Broadcom Corporation Color mapping circuit
EP2375749B1 (en) * 2005-10-11 2016-11-23 Nokia Technologies Oy System and method for efficient scalable stream adaptation
KR101365444B1 (ko) * 2007-11-19 2014-02-21 삼성전자주식회사 영상의 해상도의 조정을 통하여 동영상을 효율적으로부호화/복호화하는 방법 및 장치
US7911371B2 (en) * 2009-02-26 2011-03-22 Northrop Grumman Systems Corporation Extraction of relative signals from closely spaced targets in a monopulse system
BR112013033707A2 (pt) * 2011-06-28 2017-06-27 Samsung Electronics Co Ltd método e aparelho de predição para componente de croma de imagem usando componente de luma de imagem
CN103096055B (zh) * 2011-11-04 2016-03-30 华为技术有限公司 一种图像信号帧内预测及解码的方法和装置
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
US9161039B2 (en) * 2012-09-24 2015-10-13 Qualcomm Incorporated Bitstream properties in video coding
EP2946558B1 (en) * 2013-01-15 2020-04-29 Huawei Technologies Co., Ltd. Method for decoding an hevc video bitstream
KR102106538B1 (ko) * 2013-10-08 2020-05-04 삼성전자주식회사 수치 연산을 처리하는 장치 및 방법
ES2907602T3 (es) * 2014-12-31 2022-04-25 Nokia Technologies Oy Predicción entre capas para la codificación y decodificación de vídeo escalable
GB2534136A (en) * 2015-01-12 2016-07-20 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10209957B2 (en) * 2015-05-04 2019-02-19 Samsung Electronics Co., Ltd. Partial remainder/divisor table split implementation
US10126966B1 (en) * 2015-08-27 2018-11-13 Google Llc Rotated memory storage for fast first-bit read access
US10121231B2 (en) * 2016-02-01 2018-11-06 Texas Instruments Incorporated Adaptive bilateral (BL) filtering for computer vision
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
JP6763285B2 (ja) * 2016-11-29 2020-09-30 セイコーエプソン株式会社 シェーディング補正装置、電子機器、及びシェーディング補正方法
US11025903B2 (en) * 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
US10419758B2 (en) * 2017-03-16 2019-09-17 Mediatek Inc. Non-local adaptive loop filter processing
WO2019204672A1 (en) * 2018-04-19 2019-10-24 Huawei Technologies Co., Ltd. Interpolation filter for an intra prediction apparatus and method for video coding
US10609402B2 (en) * 2018-05-02 2020-03-31 Tencent America LLC Method and apparatus for prediction and transform for small blocks
WO2020094067A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Simplified parameter derivation for intra prediction
US11095921B2 (en) 2018-12-18 2021-08-17 Tencent America LLC Method and apparatus for video encoding or decoding
EP3900347A2 (en) * 2018-12-21 2021-10-27 Vid Scale, Inc. Methods, architectures, apparatuses and systems directed to improved linear model estimation for template based video coding

Also Published As

Publication number Publication date
IL284455A (en) 2021-08-31
CA3125393A1 (en) 2020-07-09
US20210329296A1 (en) 2021-10-21
ZA202105346B (en) 2022-08-31
KR20210103562A (ko) 2021-08-23
JP7247349B2 (ja) 2023-03-28
SG11202107170VA (en) 2021-07-29
MX2021007999A (es) 2021-10-22
CN115665407B (zh) 2023-08-04
US11930209B2 (en) 2024-03-12
WO2020141985A1 (en) 2020-07-09
EP3900332A1 (en) 2021-10-27
JP2022515518A (ja) 2022-02-18
CN115665407A (zh) 2023-01-31
AU2024201095A1 (en) 2024-03-14
AU2019419322A1 (en) 2021-07-29
BR112021012708A2 (pt) 2021-09-14
EP3900332A4 (en) 2022-06-15
JP2023085337A (ja) 2023-06-20
AU2019419322B2 (en) 2023-11-23
US20240171773A1 (en) 2024-05-23

Similar Documents

Publication Publication Date Title
CN112913250B (zh) 编码器、解码器及对任意ctu尺寸使用ibc搜索范围优化的对应方法
CN113748677A (zh) 编码器、解码器及对应的帧内预测方法
CN113924780A (zh) 用于色度子块的仿射帧间预测的方法及装置
AU2019386917B2 (en) Encoder, decoder and corresponding methods of most probable mode list construction for blocks with multi-hypothesis prediction
WO2020224545A1 (en) An encoder, a decoder and corresponding methods using an adaptive loop filter
CN112673633A (zh) 合并模式的编码器、解码器及对应方法
CN113545063A (zh) 使用线性模型进行帧内预测的方法及装置
CN113796078A (zh) 帧内预测模式相关的编码器、解码器及对应方法
US20240171773A1 (en) Method and apparatus of cross-component linear modeling for intra prediction
CN113170118A (zh) 视频译码中进行色度帧内预测的方法及装置
CN113228632B (zh) 用于局部亮度补偿的编码器、解码器、以及对应方法
CN114556923A (zh) 编码器、解码器和使用插值滤波的对应方法
CN113692740A (zh) 用于无除法帧内预测的方法和装置
RU2786086C1 (ru) Способ и устройство кросс-компонентного линейного моделирования для внутреннего предсказания
JP7508621B2 (ja) イントラ予測のためのクロスコンポーネント線形モデリングの方法、装置、デコーダ、エンコーダおよびプログラム
CN114830652A (zh) 用于方向性帧内预测的参考样本插值滤波的方法及装置
CN118264805A (zh) 视频译码中进行色度帧内预测的方法及装置
CN113891084A (zh) 帧内预测模式相关的编码器、解码器及对应方法
CN118264804A (zh) 视频译码中进行色度帧内预测的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination